Sei sulla pagina 1di 171

Note di Algebra Lineare e Geometria

(principalmente per studenti di ingegneria)

Michela Brundu, Giovanni Landi


Trieste

Versione 26.03.2011

1
I - STRUTTURE ALGEBRICHE ELEMENTARI

In matematica, per semplificare la stesura di un testo, si fa ricorso ad un linguaggio


specifico. In questo capitolo vengono fornite in maniera sintetica le nozioni di teoria degli
insiemi, indispensabili alla comprensione del corso, nonché i concetti elementari di teoria
dei gruppi, anelli e campi.
Assumeremo che il lettore conosca le nozioni di numeri naturali N (con lo zero 0 ∈ N),
interi Z, razionali Q, reali R, complessi C, sebbene nel seguito richiameremo alcune delle
loro proprietà.

1. Elementi di teoria degli insiemi


1.1. Definizione. Siano A e B due insiemi (finiti o infiniti). Si dice prodotto cartesiano
di A per B, e si denota con A × B, l’insieme delle coppie ordinate di elementi di A e di B:

A × B = {(a, b) | a ∈ A, b ∈ B}.

La relazione precedente si legge: “il prodotto cartesiano di A per B è uguale all’insieme


delle coppie ordinate a, b tali che a appartiene ad A e b appartiene a B”. L’insieme A × A
si denota anche con A2 .

1.1.1. Esempio. Sia A l’insieme i cui elementi sono i simboli ⋄, ⋆, •, cioè A = {⋄, ⋆, •}.
Allora il prodotto cartesiano di A per se stesso è dato da:

A2 = A × A = {(⋄, ⋄), (⋄, ⋆), (⋄, •), (⋆, ⋄), (⋆, ⋆), (⋆, •), (•, ⋄), (•, ⋆), (•, •)}.

1.2. Definizione. Sia A un insieme. Una relazione binaria in A è un sottoinsieme


qualunque del prodotto cartesiano A × A. Se indichiamo con R tale sottoinsieme, diremo
che due elementi a e b di A sono in relazione tra loro se (a, b) ∈ R e scriveremo aRb.

1.2.1. Esempio. Sia A = N, l’insieme dei numeri naturali, e sia R il sottoinsieme di


N2 = N × N dei punti che si trovano sulla retta tratteggiata in figura.

2
N
4

0 1 2 3 4 5
N
Figura 1

Allora 2R1, ma non vale 1R1. In effetti, R è dato dalla formula

nRm ⇔ m = n − 1,

per ogni (n, m) ∈ N2 .

1.3. Definizione. Una relazione binaria in un insieme A si dice relazione di equivalenza


se valgono le seguenti proprietà:
- riflessiva, cioè aRa , per ogni a ∈ A;
- simmetrica, cioè aRb ⇒ bRa, per ogni a, b ∈ A;
- transitiva, cioè aRb e bRc ⇒ aRc, per ogni a, b, c ∈ A.

1.3.1. Esempi. L’uguaglianza è una relazione d’equivalenza (in ogni insieme!).


Nell’insieme dei triangoli, la congruenza e la similitudine sono relazioni d’equivalenza.

1.4. Definizione. Sia A un insieme dotato di una relazione d’equivalenza R. Per ogni
a ∈ A, l’insieme {x ∈ A | xRa} si dice classe d’equivalenza di a e si denota con [a]. Ogni
elemento x di [a] si dice rappresentante della classe [a] (ovviamente una classe ha tanti
rappresentanti quanti sono i suoi elementi).

1.5. Proprietà. Delle classi di equivalenza.


1) Se aRb, allora [a] = [b] .
2) Se (a, b) ̸∈ R, allora [a] ∩ [b] = ∅.

3
3) A = ∪a∈A [a] , e tale unione è disgiunta.

Dimostrazione. 1) Proviamo che [a] ⊆ [b]; sia x ∈ [a], allora xRa; d’altra parte, per ipotesi
aRb. Dunque, per la proprietà transitiva, xRb, cioè x ∈ [b]. Analogamente si verifica
l’altra inclusione [a] ⊇ [b].
2) Supponiamo per assurdo che x ∈ [a] ∩ [b]. Allora vale xRa e xRb; per la proprietà
simmetrica aRx e quindi, per la transitività, aRb, contro l’ipotesi.
3) è ovvio, usando la 2). !

1.6. Definizione. La decomposizione A = ∪a∈A [a] è detta partizione di A associata alla


relazione d’equivalenza R.

1.7. Definizione. L’insieme costituito dalle classi di un insieme A con la relazione di


equivalenza R è detto insieme quoziente di A modulo R e si indica con A/R.
L’applicazione
π : A → A/R definita da a .→ [a]
si dice proiezione canonica sul quoziente.

2. Gruppi

In prima approssimazione, una struttura algebrica è un insieme dotato di una o più


operazioni. Nel caso in cui le operazioni siano più di una, esse dovranno essere compatibili.

2.1. Definizione. Si dice operazione binaria ∗ in un insieme G una applicazione

f : G × G −→ G.

Il risultato f ((a, b)) dell’operazione tra due elementi a e b si denota con a ∗ b. In tal caso
si dice che G è chiuso rispetto all’operazione ∗.

Notazione. Per indicare che si considera la struttura algebrica data dall’insieme G con
l’operazione ∗, spesso si scrive (G, ∗).

2.1.1. Esempi. E’ ben noto che la somma ed il prodotto in N sono operazioni bina-
rie. Costruiamo un esempio di insieme “non numerico” dotato di operazione binaria. Si
consideri un triangolo equilatero ABC e sia R l’insieme delle sue rotazioni che portano a
sovrapporre vertici a vertici. Usiamo la seguente notazione: per designare la rotazione (di
2π/3) che porta il vertice A in B, B in C e C in A, scriveremo:
! "
A B C
.
B C A

4
Quindi gli elementi di R sono 3 ed esattamente:
! " ! " ! "
A B C A B C A B C
e= x= y= .
A B C B C A C A B

L’operazione che introduciamo in R è la composizione di rotazioni, che indicheremo con ◦;


ad esempio x ◦ y è la rotazione che si ottiene operando prima y e poi x. Dunque x ◦ y = e.
La seguente tabella indica i risultati delle operazioni:

◦ e x y
e e x y
x x y e
y y e x

tabella 1

2.2. Osservazione. Le strutture (N, +), (N, ·) godono delle ben note proprietà:
a + (b + c) = (a + b) + c , per ogni a, b, c ∈ N.
a + b = b + a, per ogni a, b ∈ N.
Inoltre vi sono elementi dal comportamento speciale: 0 e 1; infatti
0 + a = a e 1a = a, per ogni a ∈ N.

In generale diamo le seguenti definizioni.

2.3. Definizione. Sia G un insieme dotato di un’operazione binaria ∗. Diciamo che ∗ è


associativa se
a ∗ (b ∗ c) = (a ∗ b) ∗ c, per ogni a, b, c ∈ G.
Diciamo che ∗ è commutativa se

a ∗ b = b ∗ a, per ogni a, b ∈ G.

2.4. Definizione. Sia (G, ∗) come sopra. Un elemento e di G è detto elemento neutro
rispetto a ∗ se
a ∗ e = e ∗ a = a, per ogni a ∈ G.
Se (G, ∗) ha elemento neutro e, scriveremo: (G, ∗, e).

Si osservi che l’elemento e della tabella 1 è elemento neutro di R. Inoltre, ancora dalla
tabella 1, si vede che per ogni elemento r ∈ R, esiste r′ ∈ R tale che r ◦ r′ = r′ ◦ r = e ,
infatti e ◦ e = e, x ◦ y = y ◦ x = e.

5
2.5. Definizione. Sia (G, ∗, e) come sopra e sia a un suo elemento. Un elemento a ∈ G
tale che
a ∗ a = a ∗ a = e.
si dice, a seconda dell’operazione ∗, inverso di a e si indica con a−1 (ad esempio se ∗ è un
prodotto); oppure opposto di a e si indica con −a (ad esempio se ∗ è una somma).

2.5.1. Esempi. Osserviamo che negli esempi precedenti ogni insieme con operazione
ammette un elemento neutro: (N, +, 0), (N, ·, 1), (R, ◦, e). Osserviamo che, in R, y è
l’inverso di x e x è l’inverso di y; mentre in (N, +, 0) e in (N, ·, 1) nessun elemento, eccetto
quello neutro, ha opposto (risp. inverso).

Come è ben noto, si può ampliare in modo naturale (N, +, 0) affinché ogni elemento
abbia opposto; l’insieme cosı̀ ottenuto è quello degli interi relativi che si denota con Z ed
è definito da Z = {±n | n ∈ N}.

2.6. Definizione. Sia G un insieme dotato di un’operazione binaria ∗. Allora (G, ∗, e) si


dice gruppo se valgono le seguenti proprietà :
a) ∗ è associativa ;
b) esiste in G un elemento e che sia neutro rispetto a ∗;
c) ogni elemento di G ammette inverso (risp. opposto).
Se vale anche la proprietà commutativa :
d) a ∗ b = b ∗ a per ogni a, b ∈ G,
allora (G, ∗, e) si dice gruppo commutativo o abeliano.

2.7. Osservazione. (Z, +, 0), (R, ◦, e) sono gruppi commutativi.

2.8. Proposizione. Sia (G, ∗, e) un gruppo. Allora:


i) l’elemento neutro è unico;
ii) l’inverso di ogni elemento è unico.

Dimostrazione. i) Supponiamo che e ed e′ siano due elementi neutri di G. Allora e′ ∗ e


= e, poiché e′ è elemento neutro; inoltre e′ ∗ e = e′ , poiché e è elemento neutro. Dunque
e = e′ .
ii) Sia a un elemento di G che ammette due inversi b e c. Dunque a ∗ b = b ∗ a = e e anche
a ∗ c = c ∗ a = e. Per l’associatività dell’operazione in G si ha: b ∗ (a ∗ c) = (b ∗ a) ∗ c, cioè
b ∗ e = e ∗ c, da cui b = c. !

6
3. Anelli e Campi

Vogliamo definire una nuova nozione per insiemi dotati di due operazioni che si com-
portano come la somma e il prodotto di Z.

3.1. Definizione. Sia (A, +, 0A , ·, 1A ) un insieme dotato di due operazioni binarie, dette
somma (denotata con +) e prodotto (denotato con ·), e di due elementi 0A e 1A , tali che :
a) (A, +, 0A ) è un gruppo commutativo ;
b) il prodotto è associativo;
c) 1A è elemento neutro rispetto al prodotto;
d) a · (b + c) = a · b + a · c , per ogni a, b, c ∈ A.
In tal caso A si dice anello. Se inoltre il prodotto è commutativo, A si dice anello commu-
tativo.

Notazione. Se A è un anello, con A∗ si indica A \ {0A }.

3.1.1. Esempio. (Z, +, 0, ·, 1) è ovviamente un anello.

3.1.2. Esempio. Un altro esempio fondamentale di anello è dato da Z[X]. Con tale
simbolo si denota l’insieme dei polinomi in una variabile X a coefficienti in Z, cioè l’insieme
delle espressioni:
n
#
ai X i = an X n + an−1 X n−1 + . . . + a1 X + a0
i=0

con ai ∈$Z, n ∈ N. Come è ben


$mnoto, in Z[X] sono definite le seguenti operazioni: siano
n
p(X) = i=0 ai X i e q(X) = i=0 bi X i elementi di Z[X] ; supponendo n ≤ m si definisce
allora:
#m
p(X) + q(X) = cj X j ,
j=0

ove cj = aj + bj per 0 ≤ j ≤ n e cj = bj per n < j ≤ m;


m+n
#
p(X) · q(X) = dh X h
h=0
$
ove dh = i+j=h ai bj . Con tali operazioni, Z[X] è un anello, come si verifica facilmente,
ed è detto anello dei polinomi a coefficienti interi.

3.2. Esempio. Anche (Q, +, 0, ·, 1) è un anello commutativo. Però Q rispetto a Z ha una


struttura più ricca: ogni elemento non nullo è invertibile rispetto al prodotto. Infatti se
a/b ̸= 0, cioè a ̸= 0, esiste b/a ∈ Q e (a/b) · (b/a) = 1; quindi b/a = (a/b)−1 .

7
3.3. Definizione. Se K è un anello commutativo tale che ogni elemento non nullo
ammette inverso moltiplicativo, allora K si dice campo.
Equivalentemente K è un campo se e solo se (K, +, 0K ) e (K ∗ , ·, 1K ) sono gruppi abeliani
e il prodotto è distributivo rispetto alla somma.

Da quanto visto prima, si deduce che Q è un campo. Altri esempi di campi sono
l’insieme R dei numeri reali e l’insieme C dei numeri complessi.

4. Omomorfismi di strutture algebriche

In questo paragrafo caratterizzeremo particolari applicazioni tra strutture algebriche.


Poiché si useranno coppie di strutture dello stesso tipo, converrà, per semplificare le
notazioni, utilizzare lo stesso simbolo + per indicare ogni operazione di somma e analoga-
mente il simbolo · sarà riferito ad ogni operazione di prodotto. Dal contesto risulterà
chiaro in quale struttura tali operazioni verranno eseguite. Inoltre gli elementi neutri
(della somma e del prodotto) verranno indicati con un indice relativo alla struttura alla
quale appartengono.
Infine, per semplicità, per i gruppi verrà usata la sola notazione additiva.

4.1. Definizione. Un’applicazione tra due strutture algebriche dello stesso tipo si dice
omomorfismo se preserva le operazioni definite nelle strutture medesime. Più precisamente:
i) se (G, +, 0G ) e (G′ , +, 0G′ ) sono due gruppi, un’applicazione f : G → G′ è un omo-
morfismo di gruppi se
f (x + y) = f (x) + f (y)
per ogni x, y ∈ G.
ii) se (A, +, 0A , ·, 1A ) e (B, +, 0B , ·, 1B ) sono due anelli, un’applicazione f : A → B è un
omomorfismo di anelli se

f (x + y) = f (x) + f (y), f (x · y) = f (x) · f (y)

per ogni x, y ∈ A.

4.1.1. Esempio. Le inclusioni canoniche Z ⊂ Q, Q ⊂ R, Z ⊂ Z[X] sono omomorfismi di


anelli.

4.1.2. Esempio. L’applicazione f : Z → Z definita da n .→ 2n è un omomorfismo di


gruppi (additivi) ma non di anelli.

Lasciamo al lettore la dimostrazione delle seguenti semplici proprietà degli omomor-


fismi:

8
4.2. Proposizione. Siano (G, +, 0G ) e (G′ , +, 0G′ ) due gruppi e sia f : G → G′ un
omomorfismo di gruppi. Allora:
i) f (0G ) = 0G′ , cioè l’immagine dell’elemento neutro di G è l’elemento neutro di G′ ;
ii) per ogni g ∈ G si ha f (−g) = −f (g), cioè l’immagine dell’opposto di un elemento è
l’opposto dell’immagine dell’elemento stesso. !

Si può provare che, se f : A → B è un omomorfismo di anelli, allora valgono le


precedenti proprietà relative alla somma ed anche le analoghe proprietà per il prodotto,
cioè:
iii) f (1A ) = 1B ;
iv) per ogni a ∈ A tale che esiste l’inverso a−1 , si ha f (a−1 ) = f (a)−1 .

Infine, se A e B sono campi, un omomorfismo di anelli f : A → B si dice omomorfismo


di campi.

4.3. Definizione. Un omomorfismo che è anche un’applicazione biunivoca si dice iso-


morfismo.

5. Classi di resti modulo n

Si consideri la seguente relazione binaria in Z : due interi n e m sono in relazione se


hanno lo stesso resto dalla divisione per 2, cioè se sono entrambi pari o entrambi dispari
o, equivalentemente, se la loro differenza è pari:

nRm ⇔ n − m = 2q

per qualche intero q. E’ facile vedere che R è una relazione d’equivalenza; ovviamente le
classi di equivalenza sono due: una costituita da tutti gli interi pari e l’altra da tutti i
dispari. Pertanto l’insieme quoziente Z/R è costituito da queste due sole classi:
[0] = [2] = [4] = [−2] = . . . e [1] = [3] = [5] = [−1] = . . ..

Il procedimento precedente si può generalizzare immediatamente. Sia p un qualunque


intero positivo (nell’esempio precedente p = 2); prendiamo inoltre p primo, ovvere divisibile
solo per 1 e per se stesso. Si consideri la relazione d’equivalenza Rp in Z data da:
nRp m ⇔ n e m hanno lo stesso resto dalla divisione per p
⇔ esistono tre interi q1 , q2 ed r (0 ≤ r < p) tali che n = pq1 + r, m = pq2 + r
⇔ esiste un intero q tale che n − m = pq.

9
Pertanto il più piccolo intero non negativo appartente a [n] è il resto r della sua divisione
per p. La classe d’equivalenza di 0 è costituita dagli interi n tali che nRp 0, cioè tali che
n = pq. Analogamente si vede che la classe di 1 è costituita dagli interi n che danno resto
1 dalla divisione per p, e cosı̀ via. Proseguendo si vede che la classe di p − 1 è costituita
dagli elementi che danno resto p − 1 dalla divisione per p. Ma la classe di p è uguale alla
classe di 0, poiché pRp 0. Dunque l’insieme quoziente è costituito da p classi distinte, dette
classi di resto modulo p, e precisamente

Z/Rp = {[0], [1], [2], . . . , [p − 1]}.

Notazione. Solitamente l’insieme quoziente Z/Rp si denota con uno dei seguenti simboli:
Z/pZ, Z/(p) o Zp ; inoltre se [n] = [m] in Zp si dice che n e m sono congrui modulo p e si
scrive n ≡ m (mod p).

5.0.1. Esempio. In Z3 , [7] = [1] , [29] = [2], [−14] = [1], poiché −14 = (−5)3 + 1.

Gli insiemi Zp “ereditano” la struttura algebrica di Z, cioè si può definire in essi una
somma e un prodotto naturali:

[n] + [m] = [n + m]; [n][m] = [nm].

Verifichiamo che tali operazioni sono “ben definite”, cioè che non dipendono dalla scelta
dei rappresentanti. Siano [n] = [n′ ] e [m] = [m′ ]; vogliamo provare che [n + m] = [n′ + m′ ]
e che [nm] = [n′ m′ ]. Per ipotesi, esistono q1 e q2 tali che n − n′ = pq1 e m − m′ = pq2 .
Dunque (n + m) − (n′ + m′ ) = p(q1 + q2 ) e quindi [n + m] = [n′ + m′ ]. Poiché n = n′ + pq1
e m = m′ + pq2 , nm − n′ m′ = p(n′ q2 + m′ q1 + pq1 q2 ).

5.0.2. Esempio. Consideriamo le tabelle, relative alla somma e al prodotto in Z2 .

+ [0] [1]
[0] [0] [1]
[1] [1] [0]

tabella 2

· [0] [1]
[0] [0] [0]
[1] [0] [1]

tabella 3

Utilizzando le tabelle precedenti si verifica che Z2 è un anello.

10
5.1. Proposizione. Zp è un anello per ogni p ∈ N.

Dimostrazione. Dalla definizione di somma e prodotto in Zp e dalle proprietà corrispon-


denti in Z, si ha che (Zp , +, [0]) è un gruppo abeliano; infatti, per ogni [a], [b], [c] ∈ Zp :
([a] + [b]) + [c] = [a + b] + [c] = [(a + b) + c] = [a + (b + c)] = [a] + [b + c] =
= [a] + ([b] + [c]);
[a] + [b] = [a + b] = [b + a] = [b] + [a];
[a] + [0] = [a + 0] = [a];
[a] + [−a] = [a − a] = [0], (dunque −[a] = [−a]).
In modo del tutto analogo, si verificano l’associatività del prodotto, la distributività del
prodotto rispetto alla somma. Infine si osservi che [1] è l’elemento neutro per il prodotto.
!

11
II - VETTORI GEOMETRICI E SISTEMI DI RIFERIMENTO

1. Vettori applicati
Il lettore avrà certamente familiarità col concetto di vettore, usato nei corsi di fisica
per individuare alcune grandezze (velocità, accelerazione, forza, ecc.).
Si ricordi che con il termine “vettore” o, più precisamente “vettore applicato”, si indica
un oggetto che è completamente individuato da una direzione, un verso, una lunghezza (o
modulo) e un punto di applicazione. Per fissare le notazioni, un vettore applicato verrà
denotato con B − A, ove A e B sono due punti dello spazio (a volte anche con il simbolo
AB); in tal caso la sua direzione è quella della retta per A e B, il suo verso è quello da A
a B, il suo modulo, denotato usualmente con ∥ B − A ∥ è la lunghezza del segmento AB
(rispetto ad una fissata unità di misura), ed A è il suo punto di applicazione.
Indichiamo con W 3 (rispettivamente W 2 ) l’insieme di tutti i vettori applicati nello
spazio (rispettivamente nel piano), cioè, indicato con S lo spazio ordinario, si ha:

W 3 = {B − A | A, B ∈ S}.
3
Si può considerare il sottoinsieme VA di W 3 costituito da tutti i vettori aventi lo stesso
punto di applicazione A:
3
VA = {B − A | B ∈ S}.
Si osservi che %
W3 = 3
VA .
A∈S

3
1.1. Osservazione. Fissato un punto O dello spazio, è evidente che VO = {B−O | B ∈ S}
3
è naturalmente in corrispondenza biunivoca con S, in quanto, ad ogni vettore B − O ∈ VO
resta associato l’estremo B, e viceversa.
3
E’ noto che in VO è definita una somma di vettori, mediante la “regola del parallelo-
gramma”. Più precisamente,

(A − O) + (B − O) = (C − O),

ove C è il quarto vertice del parallelogramma i cui altri tre vertici sono A, O, B.

B C

O A
Figura 2

12
Il vettore O − O si dice vettore nullo e si denoterà con 0 (osserviamo che 0 ha direzione e
verso indeterminati e modulo nullo).
3
E’ evidente che VO è chiuso rispetto alla somma di vettori; inoltre si ha la seguente:

3
1.2. Proposizione. (VO , +, 0) è un gruppo abeliano.

Dimostrazione. E’ chiaro che 0 è elemento neutro; per ogni vettore A − O, esiste il suo
opposto A′ − O , dove A′ è il punto simmetrico di A rispetto ad O.

O
A
A'
Figura 3
La proprietà commutativa segue direttamente dalla definizione di somma di vettori. Resta
da verificare la proprietà associativa di cui diamo una dimostrazione grafica. !

v 1 + v2
v1

O v2
v3 v2 + v3

Figura 4
Dalla fisica è ben noto che si possono considerare i multipli di vettori (ad esempio
considerando un oggetto che si muove a velocità doppia di un altro, ecc.).
3
Questo fatto si può interpretare nel gruppo VO definendo una seconda operazione che
3
coinvolge gli elementi di VO ed i numeri reali, che, in questo contesto, per differenziarli dai
vettori, vengono anche chiamati scalari (reali).
1.3. Definizione. Si dice prodotto di uno scalare λ ∈ R per un vettore A − O il vettore
B − O, in simboli:
B − O = λ(A − O),
tale che :
i) B, A, O sono allineati;
ii) B − O e A − O hanno lo stesso verso (e si dicono concordi) se λ > 0,

13
B − O e A − O hanno verso opposto (e si dicono discordi) se λ < 0;
iii) ∥ B − O ∥= |λ| ∥ A − O ∥.

Esaminiamo le proprietà di tale operazione.

1.4. Proposizione. Valgono i seguenti fatti:


1) λ(µ(A − O)) = (λµ)(A − O);
2) 1(A − O) = A − O;
3) (λ + µ)(A − O) = λ(A − O) + µ(A − O);
4) λ((A − O) + (B − O)) = λ(A − O) + λ(B − O);
dove λ, µ ∈ R e A − O, B − O ∈ VO
3
.

Dimostrazione. 1) Poniamo C −O = λ(µ(A−O)) e D−O = (λµ)(A−O). Dalla definizione,


C e D appartengono entrambi alla retta per O e A, dunque C − O e D − O hanno la stessa
direzione. Inoltre dall’esame dei segni di λ e µ , si verifica facilmente che C − O e D − O
sono concordi: ad esempio, se λ > 0 e µ < 0, segue che C − O è concorde con µ(A − O),
quindi è discorde con A − O; d’altra parte λµ < 0, dunque D − O è anch’esso discorde con
A − O.
Infine ∥ C − O ∥= |λ| |µ| ∥ A − O ∥= |λµ| ∥ A − O ∥=∥ D − O ∥.
La proprietà 2) segue direttamente dalla definizione.
4) Poniamo C −O = (A−O)+(B−O) e C ′ −O = (A′ −O)+(B ′ −O), ove A′ −O = λ(A−O)
e B ′ − O = λ(B − O). Vogliamo verificare che λ(C − O) = C ′ − O.

B' C'
B C

A O A'

Figura 5
Poiché OA è parallelo a OA′ per definizione, anche BC è parallelo a B ′ C ′ ; inoltre OB è
parallelo a OB ′ , dunque gli angoli OBC e OB ′ C ′ sono uguali. Inoltre λ = OB ′ /OB =
OA′ /OA = B ′ C ′ /BC. Quindi i triangoli OBC e OB ′ C ′ sono simili. Da cui i vettori OC
e OC ′ sono paralleli e concordi e |OC ′ | = λ|OC|. Quindi OC ′ = λ(OC).
3) Si dimostra in modo analogo alla 4). !
3
Quanto precede mette in evidenza che VO , rispetto alle operazioni di somma e di
prodotto per uno scalare, ha una struttura più ricca di quella di gruppo abeliano. Tale
struttura prende il nome “naturale” di spazio vettoriale, nozione che verrà trattata in
detaglio nel Capitolo III.

14
2. Sistemi di riferimento
E’ ben noto il concetto di sistema di riferimento; riprendiamo brevemente i punti
fondamentali, utilizzando il linguaggio vettoriale.
2.1. Definizione. Data una retta r, un sistema di riferimento Λ su r è il dato di un
punto O ∈ r e di un vettore i = A − O, con A ∈ r e A ̸= O. Il punto O si dice origine del
sistema di riferimento, la lunghezza del segmento A − O è l’unità di misura di Λ e il verso
di i si dice orientamento di Λ.
Attraverso Λ si stabilisce una corrispondenza biunivoca tra i punti di r ed i numeri reali;
più precisamente, ad ogni punto P ∈ r si associa il numero reale x tale che P − O = xi.
Viceversa, dato x ∈ R, rimane individuato il punto P di r che è estremo del vettore xi,
qualora lo si intenda applicato in O.
Il numero x si dice ascissa del punto P e si scrive P = (x). Il sistema di riferimento
Λ si denoterà anche con (O; x) oppure con (O; i).
2.2. Definizione. Dato un piano α, un sistema di riferimento Π su α è il dato di un punto
O ∈ α e di due vettori non nulli i = A − O e j = B − O, con A, B ∈ α, ∥ A − O ∥=∥ B − O ∥
e tali che i si sovrappone a j ruotando di un angolo φ in senso antiorario, con 0 < φ < π.
Il punto O si dice origine del sistema di riferimento, la lunghezza del segmenti A − O
e OB − O è l’unità di misura di Π. La retta orientata passante per O e avente stessa
direzione e stesso verso di i si dice asse x o asse delle ascisse. Analogamente, si definisce
l’asse y o asse delle ordinate come la retta orientata individuata da j.
Analogamente a quanto visto in precedenza, attraverso Π si stabilisce una corrispon-
denza biunivoca tra i punti di α e le coppie di numeri reali; più precisamente, ad ogni
punto P ∈ α si associa la coppia ordinata (x, y) tale che P − O = xi + yj (regola del
parallelogramma). Viceversa, dato (x, y) ∈ R2 , rimane individuato il punto P di α che è
estremo del vettore xi + yj.
Tale corrispondenza è descritta dalla seguente figura

yj
P(x,y)

O i xi

Figura 6
I numeri x e y si dicono coordinate di P e, più precisamente x si dice ascissa e y si dice
ordinata del punto P ; scriveremo P = (x, y). I vettori i, j si dicono versori fondamentali,
dove la parola versore indica un vettore di modulo 1.
Il sistema di riferimento Π si denoterà anche con (O; x, y) oppure con (O; i, j).

15
2.3. Definizione. Un sistema di riferimento Π = (O; i, j) su un piano α si dice sistema
di riferimento cartesiano ortogonale se l’angolo tra i e j è di π/2.
In modo del tutto analogo si definisce un sistema di riferimento cartesiano (ortogonale)
Σ nello spazio S. Introduciamo dapprima la seguente nozione.
3
2.4. Definizione. Una terna ordinata di vettori applicati non complanari u, v, w ∈ VO
si dice destrorsa se, guardando il piano individuato da u e v (risp. v e w, risp. w e u)
dalla parte di w (risp. u, risp. v), u si sovrappone a v (risp. v si sovrappone a w, risp.
w si sovrappone a u) ruotando in senso antiorario di un angolo minore di π.
2.5. Definizione. Dato lo spazio S, un sistema di riferimento cartesiano Σ su S è il
dato di un punto O ∈ S e di tre vettori non nulli i = A − O, j = B − O e k = C − O
con A, B, C ∈ S, ∥ A − O ∥=∥ B − O ∥=∥ C − O ∥ e tali che i, j, k formano una terna
destrorsa.
In particolare Σ si dice sistema di riferimento cartesiano ortogonale se i, j, k sono a due a
due ortogonali.
Il punto O si dice origine del sistema di riferimento, la lunghezza del segmenti A − O,
OB e OC è l’unità di misura di Σ. La retta orientata passante per O e avente stessa
direzione e stesso verso di i si dice asse x o asse delle ascisse. Analogamente, si definiscono
l’asse y o asse delle ordinate e l’asse z o asse delle quote. In particolare useremo la
notazione P = (x, y, z), chiamando, rispettivamente, tali coordinate: ascissa, ordinata e
quota del punto P . Porremo, infine, Σ = (O; i, j, k) = (O; x, y, z).
I vettori i, j, k si dicono versori fondamentali.
zk

P(x,y,z)
k
O yj
j
i

xi
Figura 7
Come visto in precedenza, si stabilisce una corrispondenza biunivoca tra i punti di S
3
e le terne di numeri reali, attraverso VO ; più precisamente:
3
S ←→ VO ←→ R3 ,
e tali corrispondenze sono definite da
P ↔ P − O ↔ (x, y, z)

16
dove P − O = xi + yj + zk.
2.6. Definizione. Con le notazioni precedenti, se P = (x, y, z), quindi P −O = xi+yj+zk,
i numeri x, y, z si dicono componenti del vettore applicato P − O.
Notazione. In generale, useremo anche la notazione v per un vettore, v = P − O, ed
avremo quindi v = xi + yj + zk. Spesso è conveniente indicare le componenti di v con
vx , vy , vz , quindi
v = vx i + vy j + vz k.
In seguito, per semplificare la notazione, scriveremo

v = (vx , vy , vz ),

sottointendendo che tali componenti sono riferite al sistema di riferimento (O; i, j, k).
2.7. Osservazione. Mentre un vettore v è un oggetto geometrico invariante, le sue
componenti dipendono dal particolare sistema di riferimento fissato.
2.7.1. Esempi. 1) Il vettore nullo 0 = O − O ha componenti (0, 0, 0) in tutti i sistemi di
riferimento di origine O ed è l’unico vettore che gode di tale proprietà.
2) I versori fondamentali hanno le seguenti componenti:

i = (1, 0, 0) , j = (0, 1, 0) , k = (0, 0, 1)

nel sistema di riferimento (O; i, j, k).


3) I vettori dei piani coordinati (cioè i piani individuati da una coppia di assi) sono del
tipo seguente: v = (a, b, 0), con a, b ∈ R, se v appartiene al piano xy, v′ = (0, b′ , c′ ), se v′
appartiene al piano yz, v′′ = (a′′ , 0, c′′ ), se v′′ appartiene al piano xz.

2.8. Proposizione. In un sistema di riferimento cartesiano ortogonale (O; x, y, z) sia v =


(vx , vy , vz ). Allora
&
∥ v ∥= vx2 + vy2 + vz2 .

Dimostrazione. Segue immediatamente usando il teorema di Pitagora. !


Vediamo ora come la rappresentazione dei vettori attraverso le loro componenti ci
permetta di esprimere algebricamente le operazioni tra vettori.

2.9. Proposizione. Dati lo scalare λ ∈ R ed i vettori v = vx i + vy j + vz k e w =


wx i + wy j + wz k, si ha:

v + w = (vx + wx )i + (vy + wy )j + (vz + wz )k

e anche
λv = λvx i + λvy j + λvz k.

17
Dimostrazione. Poiché

v + w = (vx i + vy j + vz k) + (wx i + wy j + wz k),

applicando opportunamente le proprietà commutativa e associativa della somma si ha:

v + w = (vx i + wx i) + (vy j + wy j) + (vz k + wz k).

Applicando infine la distributività del prodotto rispetto alla somma si ha il risultato.


In modo analogo si dimostra la seconda. !
2.10. Osservazione. Usando la notazione compatta v = (vx , vy , vz ) e w = (wx , wy , wz ),
dalla proposizione precedente segue

(vx , vy , vz ) + (wx , wy , wz ) = (vx + wx , vy + wy , vz + wz )

λ(vx , vy , vz ) = (λvx , λvy , λvz ).

3
Dall’osservazione precedente e dalla corrispondenza biunivoca VO ←→ R3 si definiscono in
modo naturale le seguenti operazioni in R3 :
2.11. Definizione. Siano (x1 , x2 , x3 ) e (y1 , y2 , y3 ) due elementi di R3 e sia λ ∈ R; allora

(x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 );

λ(x1 , x2 , x3 ) = (λx1 , λx2 , λx3 ).


Queste operazioni verranno studiate più in dettaglio nel Capitolo III, Esempio 1.1.2.

3. Ulteriori operazioni tra vettori

Nello studio della fisica, il lettore avrà già incontrato i concetti di prodotto scalare,
prodotto vettoriale e prodotto misto di vettori. In questo paragrafo riprendiamo breve-
mente tali operazioni.
3.1. Definizione. Siano v, w ∈ V 2 (risp. V 3 ) due vettori. Si dice prodotto scalare di v e
w e si indica con v · w il numero reale

v · w =∥ v ∥ ∥ w ∥ cos α

'
dove α = v w, 0 ≤ α ≤ π, è l’angolo formato da v e w.
Nel resto del paragrafo, considereremo per brevità soltanto vettori di V 3 , essendo la trat-
tazione di V 2 del tutto analoga.

18
3.2. Osservazione. Dalla definizione si ha chiaramente che, se v è il vettore nullo, allora
v · w = 0. Inoltre si hanno immediatamente le ulteriori proprietà:
i) se v e w sono due vettori non nulli, allora

v·w =0 ⇐⇒ cos α = 0 ⇐⇒ v ⊥ w.

ii) Per ogni v ∈ V 3 si ha


v · v =∥ v ∥2 .
In particolare
v·v =0 ⇐⇒ v = 0.
Infine, da i) e ii) segue se (O; i, j, k) è un sistema di riferimento cartesiano ortogonale,
allora:

iii) i·i=j·j=k·k=1 e inoltre i · j = j · k = k · i = 0.

3.3. Definizione. Dati due vettori v e w, si dice proiezione ortogonale di v su w il


( w < π/2, cioè
vettore vw avente modulo ∥ v ∥ | cos α|, direzione di w e verso tale che vv
concorde con w se α < π/2 o discorde con w se α > π/2.

w vw
Figura 8

3.4. Lemma. Con le notazioni precedenti si ha:


a) (u + v)w = uw + vw .
b) v · w = vw · w = wv · v.

Dimostrazione. a) Due casi sono possibili, a seconda che uw e vw siano concordi o discordi.
In figura 9 è rappresentato il primo caso. La dimostrazione è immediata, osservando che
OA′ = vw e A′ B ′ = uw .
B
u
A

v C
u

O w
vw A' uw B'

19
Figura 9

b) Proviamo ad esempio che v · w = vw · w. Per definizione


v · w =∥ v ∥ ∥ w ∥ cos α;
d’altra parte )
∥ vw ∥ ∥ w ∥, se 0 ≤ α ≤ π/2 ;
vw · w =
− ∥ vw ∥ ∥ w ∥, se π/2 < α ≤ π.
Supponiamo dapprima 0 ≤ α ≤ π/2; allora | cos α| = cos α, dunque ∥ vw ∥=∥ v ∥ cos α e
quindi la tesi. Analogamente si prova l’altro caso. !

3.5. Proposizione. Dati i vettori u, v, w ∈ V 3 e λ ∈ R, si hanno i seguenti fatti:


i) v · w = w · v;
ii) (λv) · w = v · (λw) = λ(v · w);
iii) u · (v + w) = u · v + u · w.

Dimostrazione. i) Segue dalla definizione e dalla proprietà commutativa del prodotto di


numeri reali; infatti
'
v · w =∥ v ∥ ∥ w ∥ cos v '
w =∥ w ∥ ∥ v ∥ cos w v = w · v.
ii) Posti: a = (λv) · w, b = v · (λw), c = λ(v · w), dalla definizione di prodotto scalare
e dalle proprietà del modulo di un vettore si hanno:
a = (λv) · w =∥ λv ∥ ∥ w ∥ cos α′ = |λ| ∥ v ∥ ∥ w ∥ cos α′
b = v · (λw) =∥ v ∥ ∥ λw ∥ cos α′′ =∥ v ∥ |λ| ∥ w ∥ cos α′′
c = λ(v · w) = λ(∥ v ∥ ∥ w ∥ cos α) = λ ∥ v ∥ ∥ w ∥ cos α

! α′′ = v(λw)
dove α′ = (λv)w, ! eα=v ' w.
Si noti che, se λ = 0, a = b = c = 0.
Se λ > 0, allora |λ| = λ e α = α′ = α′′ ; dunque, dalle proprietà commutativa e associativa
del prodotto in R, si ottiene a = b = c.
Infine, λ < 0, allora |λ| = −λ e α′ = α′′ = π − α e quindi cos α′ = cos α′′ == − cos α.
Pertanto, dalla commutatività e associatività del prodotto in R, si ottiene a = b = c.
iii) Supponiamo dapprima che u, v, w siano paralleli. Si possono presentare vari casi, a
seconda dei versi dei tre vettori. Ad esempio, se sono tutti concordi, si ha:
u · (v + w) =∥ u ∥ ∥ v + w ∥=∥ u ∥ (∥ v ∥ + ∥ w ∥) =
=∥ u ∥ ∥ v ∥ + ∥ u ∥ ∥ w ∥= u · v + u · w.
Se invece v e w sono concordi, ma discordi da u, si ha
u · (v + w) = − ∥ u ∥ ∥ v + w ∥= − ∥ u ∥ (∥ v ∥ + ∥ w ∥) =
= − ∥ u ∥ ∥ v ∥ − ∥ u ∥ ∥ w ∥= u · v + u · w.

20
Gli altri casi sono lasciati al lettore.
Proviamo ora il caso generale; da 3.4 si ha

u · (v + w) = u · (v + w)u = u · (vu + wu ) = u · vu + u · wu = u · v + u · w

dove la terza eguaglianza segue dalla dimostrazione appena vista per il caso particolare,
tenendo conto del fatto che u, vu , wu sono paralleli. !

Usando la rappresentazione di un vettore attraverso le sue componenti rispetto alla


terna fondamentale i, j, k, si ha la seguente formulazione del prodotto scalare.

3.6. Proposizione. Sia (O; i, j, k) un sistema di riferimento cartesiano ortogonale e siano


v = (vx , vy , vz ) e w = (wx , wy , wz ) due vettori. Allora

v · w = vx wx + vy wy + vz wz .

Dimostrazione. Poiché v = vx i + vy j + vz k e w = wx i + wy j + wz k, per 3.5, ii) e iii), si ha

v · w = (vx i + vy j + vz k) · (wx i + wy j + wz k) =
= vx wx i · i + vy wx j · i + vz wx k · i + +vx wy i · j + vy wy j · j + vz wy k · j+
+ vx wz i · k + vy wz j · k + vz wz k · k

La tesi segue da 3.2, iii). !

3.6.1. Esempio. Vogliamo verificare che i vettori v = (2, 3, 1) e w = (1, −1, 1) sono
ortogonali. Per 3.2 i) basta provare che v · w = 0. D’altra parte, per 3.6 si ha: v · w =
2 · 1 + 3 · (−1) + 1 · 1 = 0.

3.7. Osservazione. Il prodotto scalare tra vettori dello spazio individua un’applicazione

σ : V 3 × V 3 −→ R

definita da σ(v, w) = v · w.
Analogamente il prodotto scalare tra vettori del piano individua una applicazione

σ : V 2 × V 2 −→ R

definita da σ(v, w) = v · w.

3.8. Definizione. Siano v, w ∈ V 3 due vettori. Si dice prodotto vettoriale di v e w e si


indica con v ∧ w il vettore il cui modulo vale

∥ v ∧ w ∥=∥ v ∥ ∥ w ∥ sin α

21
'
dove α = v w, 0 ≤ α ≤ π, è l’angolo formato da v e w; la sua direzione è ortogonale sia a
v che a w e il suo verso è tale che v, w, v ∧ w è una terna destrorsa.

3.9. Osservazione. Dalla definizione si ha chiaramente che, se v è il vettore nullo, allora


v ∧ w = 0. Inoltre si hanno immediatamente le ulteriori proprietà:
i) se v e w sono due vettori non nulli, allora
v∧w =0 ⇐⇒ sin α = 0 ⇐⇒ v ∥ w.
In particolare
v ∧ v = 0.
ii) Se i, j, k è la terna fondamentale di un sistema di riferimento cartesiano ortogonale
allora:
i ∧ j = k, j ∧ k = i, k ∧ i = j.

3.10. Proposizione. Dati i vettori u, v, w ∈ V 3 e λ ∈ R, si hanno i seguenti fatti:


i) v ∧ w = −w ∧ v;
ii) (λv) ∧ w = v ∧ (λw) = λ(v ∧ w);
iii) u ∧ (v + w) = u ∧ v + u ∧ w.

Dimostrazione. La i) e la ii) sono di facile verifica. Più elaborata è invece la iii) di cui
omettiamo la dimostrazione. !

3.11. Proposizione. Siano v = (vx , vy , vz ) e w = (wx , wy , wz ) due vettori di V 3 . Allora


v ∧ w = (vy wz − vz wy , vz wx − vx wz , vx wy − vy wx ).

Dimostrazione. Del tutto analoga a quella di 3.6, tenendo conto di 3.10 e di 3.9 ii). !

3.12. Notazione. Il prodotto vettoriale si esprime in forma compatta ricorrendo al


seguente simbolo: * *
*a b*
* *
* c d * = ad − bc;
dunque !* * * * * *"
* vy vz * * vz vx * * vx vy *
v∧w = * * * , * * , * * .
w y wz * * wz wx * * wx wy *

3.12.1. Esempio. Vogliamo verificare che i vettori v = (1, 0, −1) e w = (−2, 0, 2) sono
paralleli. Per 3.9 i) basta verificare che v ∧ w = 0. D’altra parte, per 3.12 si ha:
!* * * * * *"
* 0 −1 * * −1 1 * * 1 0 *
v∧w = * * * , * * , * * = (0, 0, 0).
0 2 * * 2 −2 * * −2 0 *

3.13. Definizione. Dati i vettori u, v, w ∈ V 3 , si definisce prodotto misto di u, v, w il


numero reale u · v ∧ w.

22
3.14. Proposizione. Siano u = (ux , uy , uz ), v = (vx , vy , vz ) e w = (wx , wy , wz ) tre
vettori di V 3 ; allora
* * * * * *
* vy vz * * vz vx * * vx vy *
*
u · v ∧ w = ux * * u * * *
+ uz * *.
wy wz * y * w z wx * wx wy *

Dimostrazione. Segue immediatamente da 3.6, 3.11, 3.12. !

3.15. Notazione. Usualmente il prodotto misto di tre vettori si esprime sinteticamente


con il simbolo
* *
* ux uy uz * * * * * * *
* * * vy vz * * vz vx * * vx vy *
* * *
u · v ∧ w = * vx vy vz * = u x * * * * * *
w w * + uy * w z w x * + u z * w x w y * .
* wx w y wz * y z

23
III - SPAZI VETTORIALI

1. Definizioni e prime proprietà


La nozione di spazio vettoriale può essere data su qualsiasi campo K. Noi la daremo
per il caso K = R (campo dei numeri reali) e menzioneremo il caso K = C (campo
dei numeri complessi). Il lettore avvertito può facilmente astrarre la definizione al caso
generale.

1.1. Definizione. Sia V un insieme non vuoto. V si dice spazio vettoriale su R o R-spazio
vettoriale o spazio vettoriale reale, se:
a) in V è definita un’operazione di somma

s : V × V −→ V

denotata con s(v, v ′ ) = v + v ′ ;


b) è definita un’operazione di prodotto esterno:

p : R × V −→ V

denotata con p(k, v) = kv;


c) sono verificate le seguenti proprietà:
1) (V, +) è un gruppo commutativo con elemento neutro 0V ;
2) per ogni k, k ′ ∈ R, per ogni v, v ′ ∈ V si ha:
(k + k ′ )v = kv + k ′ v
k(v + v ′ ) = kv + kv ′
k(k ′ v) = (kk ′ )v
1v = v, ove 1 = 1R .
Gli elementi di uno spazio vettoriale si dicono vettori; il vettore 0V che è unico per 2.8.
del Capitolo I si dice vettore nullo. Dallo stesso punto si ha anche che l’opposto, −v, di
ogni elemento v di V è unico. Inoltre, vale la legge di semplificazione per la somma, cioè
v + w = v + u =⇒ w = u. Infatti, da v + w = v + u, aggiungendo ad ambo i membri −v e
applicando la proprietà associativa della somma, si ha la tesi.

2 3
1.1.1. Esempio. Come già visto nel Capitolo II, gli insiemi VO e VO dei vettori geometrici
del piano (rispettivamente dello spazio) applicati nell’origine sono spazi vettoriali reali.

1.1.2. Proposizione. L’insieme R3 delle terne di numeri reali munito delle operazioni
I. (x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 )

24
II. a(x1 , x2 , x3 ) = (ax1 , ax2 , ax3 )
ove a ∈ R, (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 .

è un R-spazio vettoriale.
Dimostrazione. Verifichiamo che valgono le proprietà elencate in 1.1.
Chiaramente a) e b) sono soddisfatte, in quanto R3 è chiuso rispetto alle operazione di
somma e prodotto per uno scalare reale.
c) 1) Esiste l’elemento neutro rispetto alla somma: 0R3 = (0, 0, 0), in quanto, per come è
definita la somma
(x1 , x2 , x3 ) + (0, 0, 0) = (x1 , x2 , x3 ).
Inoltre (R3 , +, 0R3 ) è un gruppo commutativo; valgono infatti:
- proprietà associativa:

(x1 , x2 , x3 ) + ((y1 , y2 , y3 ) + (z1 , z2 , z3 )) = (x1 , x2 , x3 ) + (y1 + z1 , y2 + z2 , y3 + z3 ) =


= (x1 + (y1 + z1 ), x2 + (y2 + z2 ), x3 + (y3 + z3 )) =
= ((x1 + y1 ) + z1 , (x2 + y2 ) + z2 , (x3 + y3 ) + z3 ) =
= (x1 + y1 , x2 + y2 , x3 + y3 ) + (z1 , z2 , z3 ) =
= ((x1 , x2 , x3 ) + (y1 , y2 , y3 )) + (z1 , z2 , z3 )

dove l’eguaglianza centrale segue dall’associatività della somma che vale in R.


- l’opposto di un vettore (x1 , x2 , x3 ) ∈ R3 è (−x1 , −x2 , −x3 ) che appartiene ancora a
R3 ; infatti:

(x1 , x2 , x3 ) + (−x1 , −x2 , −x3 ) = (x1 − x1 , x2 − x2 , x3 − x3 ) = (0, 0, 0).

- proprietà commutativa della somma:

(x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 ) =


= (y1 + x1 , y2 + x2 , y3 + x3 ) = (y1 , y2 , y3 ) + (x1 , x2 , x3 )

dove l’eguaglianza centrale è conseguenza dalla proprietà commutativa della somma


che vale in R.
2) Per ogni λ, λ′ ∈ R, per ogni (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 si ha:
(λ + λ′ )(x1 , x2 , x3 ) = λ(x1 , x2 , x3 ) + λ′ (x1 , x2 , x3 )
λ((x1 , x2 , x3 ) + (y1 , y2 , y3 )) = λ(x1 , x2 , x3 ) + λ(y1 , y2 , y3 )
λ(λ′ (x1 , x2 , x3 )) = (λλ′ )(x1 , x2 , x3 )
1(x1 , x2 , x3 ) = (x1 , x2 , x3 ).

25
Queste ultime verifiche vengono lasciate al lettore. !

L’esempio precedente si presta ad una generalizzazione naturale.


Sia n un numero naturale e si consideri l’n-esimo prodotto cartesiano di R:

Rn = {X = (x1 , . . . , xn ) | xi ∈ R}.

ln Rn si definiscono le operazioni seguenti, ove a ∈ R, (x1 , . . . , xn ), (y1 , . . . , yn ) ∈ Rn :


I. (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
II. a(x1 , . . . , xn ) = (ax1 , . . . , axn ).
Come nel caso di R3 si verifica facilmente che

1.2. Proposizione. Rn è un R-spazio vettoriale. !

Gli elementi di Rn si dicono n-uple in R. Se X = (x1 , . . . , xn ) ∈ Rn , allora x1 si


dice prima componente di X, x2 si dice seconda componente di X e, in generale, xi si dice
i-esima componente di X.

1.2.1. Esempio. Sia V = Cn ovvero l’insieme delle n-uple in C. Poichè il prodotto di


un numero reale per un numero complesso è a sua volta un numero complesso, segue che
Cn può essere pensato come un R-spazio vettoriale. D’altra parte, si può dare a Cn una
struttura di C-spazio vettoriale. A tale scopo si lascia invariata l’operazione I e si estende
a C l’operazione II, ottenenendo
II’. a(x1 , . . . , xn ) = (ax1 , . . . , axn ), ove a ∈ C, (x1 , . . . , xn ) ∈ Cn .
La verifica che tutte le proprietà di spazio vettoriale sono soddisfatte è immediata.

1.2.2. Esempio. Sia

R[x] = {f (x) = a0 + a1 x + a2 x2 + · · · + an xn | ai ∈ R, n ∈ N}

l’insieme dei polinomi in una variabile a coefficienti in R. Dati i polinomi f (x) = a0 +


a1 x + a2 x2 + · · · + an xn e g(x) = b0 + b1 x + b2 x2 + · · · + bm xm e lo scalare λ ∈ R, si
considerino le usuali operazioni:
A. f (x) + g(x) = a0 + b0 + (a1 + b1 )x + (a2 + b2 )x2 + · · ·
B. λf (x) = λa0 + λa1 x + λa2 x2 + · · · + λan xn .
Rispetto a tali operazioni R[x] è un R-spazio vettoriale; ad esempio, l’opposto di f (x) è il
polinomio −a0 − a1 x − a2 x2 − · · · − an xn che si denota con −f (x); l’elemento neutro è il
polinomio nullo, ecc.
Sia R[x]r il sottoinsieme di R[x] costituito dai polinomi di grado minore o uguale ad r, ove
r è un fissato numero naturale. Poiché il grado del polinomio somma è minore o uguale al

26
grado dei polinomi addendi (per 4.12, Cap. 1), R[x]r è chiuso rispetto all’operazione A;
inoltre, poiché il grado di λf (x) è uguale al grado di f (x), per ogni λ ̸= 0, il sottoinsieme
R[x]r è chiuso rispetto all’operazione B. Si verifica facilmente che R[x]r è anch’esso un
R-spazio vettoriale.

1.3. Osservazione. Il lettore si sarà probabilmente accorto che, nel verificare che gli
insiemi Rn , R[X] e R[X]r sono R-spazi vettoriali, si utilizza essenzialmente la struttura
di campo di R. Cioè le proprietà delle operazioni definite in tali spazi si riconducono alle
corrispondenti proprietà delle operazioni in R.

Viene lasciata al lettore la dimostrazione della seguente

1.4. Proposizione. Se V e V ′ sono due R-spazi vettoriali, allora V × V ′ è un R-spazio


vettoriale rispetto alle operazioni naturali
I. (v, v ′ ) + (w, w′ ) = (v + w, v ′ + w′ )
II. a(v, v ′ ) = (av, av ′ )

ove a ∈ R, (v, v ′ ), (w, w′ ) ∈ V × V ′ . !

Vediamo ora alcune proprietà elementari degli spazi vettoriali.

1.5. Proposizione. Sia V un R-spazio vettoriale; allora per ogni k ∈ R e v ∈ V si ha:


i) 0R v = 0V ;
ii) k0V = 0V ;
iii) kv = 0V =⇒ k = 0R oppure v = 0V ;
iv) (−k)v = −(kv) = k(−v).

Dimostrazione. i) Si osservi che


0R v = (0R + 0R )v = 0R v + 0R v
e dalla legge di semplificazione per la somma segue 0R v = 0V .
ii) Analogamente si ha
k0V = k(0V + 0V ) = k0V + k0V
dunque, dalla legge di semplificazione, k0V = 0V .
iii) Sia k ̸= 0; allora esiste k −1 ∈ R. Dunque
v = 1v = k −1 kv = k −1 0V = 0V
ove l’ultima eguaglianza segue da ii).
iv) Dalla distributività del prodotto rispetto alla somma si ha
kv + (−k)v = (k + (−k))v = 0R v = 0V

27
per i); da cui la prima uguaglianza. Analogamente

kv + k(−v) = k(v − v) = k0V = 0V

da cui la seconda. !

1.6. Osservazione. Le proprietà i), ii), iii) si possono riassumere con la seguente legge
di annullamento del prodotto

kv = 0V ⇐⇒ k = 0R o v = 0V .

2. Sottospazi vettoriali

Tra i sottoinsiemi di un R-spazio vettoriale V individueremo e studieremo quelli che


ereditano da V una struttura di spazio vettoriale.

2.1. Definizione. Sia V un R-spazio vettoriale rispetto alle operazioni (interna) s di


somma ed (esterna) p di prodotto per uno scalare (vedi 1.1) e sia W ⊆ V un suo sottoin-
sieme. Diremo che W è un sottospazio vettoriale di V se, rispetto ad s e p, W ha una
struttura di R-spazio vettoriale.

Allo scopo di semplificare la verifica che un sottoinsieme di uno spazio vettoriale è un


sottospazio vettoriale vengono introdotti i seguenti “criteri”.

2.2. Proposizione. Sia W un sottoinsieme non vuoto di un R-spazio vettoriale V . Sono


equivalenti i seguenti fatti:
i) W è un sottospazio vettoriale di V ;
ii) W è chiuso rispetto a s e p, cioè
a) per ogni w, w′ ∈ W si ha w + w′ ∈ W ;
b) per ogni k ∈ R, per ogni w ∈ W si ha kw ∈ W ;
iii) per ogni k, k ′ ∈ R, per ogni w, w′ ∈ W si ha kw + k ′ w′ ∈ W .

Dimostrazione. i) =⇒ ii) e ii) =⇒ iii) sono ovvie.


iii) =⇒ ii) Per provare a), basta prendere k = k ′ = 1; per provare b) basta prendere
k ′ = 0R .
ii) =⇒ i) Innanzitutto W è chiuso rispetto alle operazioni di somma e prodotto, per ipotesi.
Le proprietà associativa e commutativa e le proprietà distributive valgono in V e quindi
in W . Basta dunque mostrare che W ha zero e l’opposto di ogni suo elemento. Si osservi

28
che se 0V ∈ W allora 0V è zero di W , infatti per ogni w ∈ W si ha 0V + w = w + 0V = w
poiché w ∈ V . Per ii), b, 0R w ∈ W , per ogni w ∈ W . D’altra parte, per 1.6, 0R w = 0V ;
dunque 0V ∈ W . Infine, se w ∈ W , sempre per 1.6, −w = (−1)w ∈ W . !

2.2.1. Esempio. Se V è un R-spazio vettoriale, allora V ⊆ V è un suo sottospazio; inoltre


{0V } verifica 2.2 iii), dunque è un sottospazio di V .
I sottospazi {0V } e V , non contribuendo a dare informazioni su V , si dicono sottospazi
banali.

2.2.2. Esempio. Abbiamo già visto che R[x]r ⊆ R[x] sono R-spazi vettoriali rispetto alle
stesse operazioni; dunque R[x]r è sottospazio di R[x].

2.2.3. Esempio. Sia v ∈ V un vettore non nullo; si consideri il sottoinsieme

L(v) = {av | a ∈ R}.

Siano w = av e w′ = a′ v due elementi di L(v). Poiché

αw + α′ w′ = (αa + α′ a′ )v ∈ L(v)

per ogni α, α′ ∈ R, allora, per 2.2, iii), L(v) è un sottospazio vettoriale di V e si dice retta
vettoriale generata da v.

2.2.4. Esempio. Si considerino i seguenti sottoinsiemi di R2 :


W1 = {(x, y) ∈ R2 | x − 3y = 0};
W2 = {(x, y) ∈ R2 | x + y = 1};
W3 = {(x, y) ∈ R2 | x ∈ N};
W4 = {(x, y) ∈ R2 | x2 − y = 0}.
Dall’esempio precedente, si ha che W1 = L((3, 1)) e quindi si tratta di una retta vettoriale.
Gli altri sottoinsiemi non sono sottospazi, infatti: (0, 0) ̸∈ W2 ; W3 e W4 non sono chiusi
rispetto al prodotto per uno scalare, in quanto, ad esempio, (1, 0) ∈ W3 , mentre si ha che
1/2(1, 0) = (1/2, 0) ̸∈ W3 . Analogamente (1, 1) ∈ W4 , mentre 2(1, 1) = (2, 2) ̸∈ W4 , come
si verifica facilmente.

Dati due o più sottospazi vettoriali di un R-spazio vettoriale V , vediamo ora come sia
possibile, mediante opportune “operazioni”, costruirne altri.

2.3. Proposizione. Siano W1 e W2 due sottospazi di un R-spazio vettoriale V . Allora


W1 ∩ W2 è un sottospazio vettoriale di V .

Dimostrazione. Siano a, b ∈ R e v, w ∈ W1 ∩W2 . Da 2.2 segue che av + bw ∈ W1 in quanto


W1 è un sottospazio vettoriale; analogamente av + bw ∈ W2 ; dunque av + bw ∈ W1 ∩ W2 .
Applicando ancora 2.2 si ha la tesi. !

2.4. Osservazione. L’unione di due sottospazi vettoriali non è, in generale, un sottospazio
vettoriale. Si considerino, ad esempio due rette vettoriali distinte, L(v) e L(v ′ ), di R2 . È

29
evidente che L(v) ∪ L(v ′ ) non è un sottospazio di R2 , in quanto non è chiuso rispetto alla
somma, come si può vedere dalla figura.

L(v')

v' v+v'

v L(v)

Figura 10

2.5. Proposizione. Siano W1 e W2 due sottospazi di un R-spazio vettoriale V e si denoti


con
W1 + W2 = {v ∈ V | v = w1 + w2 ; w1 ∈ W1 , w2 ∈ W2 }.
Allora W1 + W2 è il più piccolo sottospazio vettoriale di V contenente W1 ∪ W2 .

Dimostrazione. Siano a, a′ ∈ R e v, v ′ ∈ W1 + W2 ; sarà dunque v = w1 + w2 ; v ′ = w1′ + w2′ ,


ove w1 , w1′ ∈ W1 , w2 , w2′ ∈ W2 . Poiché

av + a′ v ′ = aw1 + aw2 + a′ w1′ + a′ w2′ = (aw1 + a′ w1′ ) + (aw2 + a′ w2′ )

tenendo conto del fatto che W1 e W2 sono sottospazi, si ha aw1 +a′ w1′ ∈ W1 e aw2 +a′ w2′ ∈
W2 . Ne segue che W1 + W2 è un sottospazio vettoriale di V .
Inoltre W1 + W2 ⊇ (W1 ∪ W2 ), infatti se w1 ∈ W1 , allora w1 = w1 + 0V appartiene a
W1 + W2 ; analogamente si prova che W2 ⊂ W1 + W2 .
Sia ora Z un sottospazio di V contenente W1 ∪ W2 . Allora, per ogni w1 ∈ W1 e w2 ∈ W2
deve essere w1 + w2 ∈ Z. Da cui: Z ⊇ W1 + W2 . !

2.6. Definizione. Siano W1 e W2 due sottospazi di un R-spazio vettoriale V . Il sot-


tospazio vettoriale W1 + W2 è detto sottospazio somma di W1 e W2 .

La proposizione precedente si generalizza facilmente e quindi si può dare la seguente

2.7. Definizione. Siano W1 , . . . , Wn sottospazi di un R-spazio vettoriale V . Il sottospazio


vettoriale

W1 + · · · + Wn = {v ∈ V | v = w1 + · · · + wn ; wi ∈ Wi , i = 1, . . . , n}

è detto sottospazio somma di W1 , . . . , Wn .

30
2.8. Definizione. Siano W1 , W2 due sottospazi di un R-spazio vettoriale V . La somma
W = W1 + W2 si dice diretta se ogni suo elemento v si scrive in modo unico nella forma
v = w1 + w2 con wi ∈ Wi , i = 1, 2. In tal caso scriveremo W = W1 ⊕ W2 .

2.9. Proposizione. Siano W1 e W2 due sottospazi di V . Allora la somma W1 + W2 è


diretta se e solo se W1 ∩ W2 = {0V }.

Dimostrazione. Supponiamo dapprima che la somma W1 + W2 sia diretta. Sia v ∈ (W1 ∩


W2 ); allora v ∈ W1 e v ∈ W2 , quindi 0V = v − v ∈ W1 + W2 . D’altro canto 0V = 0V + 0V
e, poiché tale scrittura è unica per ipotesi, ne segue v = 0V .
Viceversa supponiamo che W1 ∩ W2 = {0V }. Se esistesse v ∈ W1 + W2 con v = w1 + w2 =
w1′ + w2′ , con wi , wi′ ∈ Wi , allora w1 − w1′ = w2′ − w2 e tale elemento appartiene sia a W1
che a W2 . Dunque, per ipotesi deve essere nullo, quindi w1 = w1′ e w2′ − w2 e ciò prova la
tesi. !

Di nuovo la proposizione precedente si può generalizzare:

5.8. Definizione. Siano W1 , . . . , Wn sottospazi di un R-spazio vettoriale V . Diremo


che aa somma W = W1 + · · · + Wn è diretta se ogni suo elemento v si scrive in modo
unico nella forma v = w1 + · · · + wn con wi ∈ Wi , i = 1, . . . , n. In tal caso scriveremo
W = W1 ⊕ · · · ⊕ Wn .

3. Combinazioni lineari

3
Studiando VO , abbiamo visto come ogni vettore geometrico v si possa rappresentare
nella forma v = ai + bj + ck. Brevemente diremo che v è “combinazione lineare” di i, j, k.
Inoltre tale scrittura è unica; tale proprietà si esprime usualmente dicendo che i, j, k sono
“linearmente indipendenti”. In questo paragrafo cercheremo di estendere ad uno spazio
vettoriale qualunque i precedenti concetti.

3.1. Definizione. Siano v1 , . . . , vn vettori di un R-spazio vettoriale V . Un vettore v ∈ V


si dice combinazione lineare di v1 , . . . , vn se esistono n scalari λ1 , . . . , λn ∈ R tali che

v = λ1 v 1 + · · · + λn v n .

L’insieme di tutte le combinazioni lineari dei vettori v1 , . . . , vn si indica con L(v1 , . . . , vn ).


In generale, se I è un qualunque sottoinsieme di V (anche non finito), con L(I) si denota
l’insieme di tutte le possibili combinazioni lineari (finite) di vettori di I, cioè

L(I) = {λ1 v1 + · · · + λn vn | λi ∈ R, vi ∈ I, n ∈ N}.

31
3.2. Teorema. L(v1 , . . . , vn ) è un sottospazio vettoriale di V , detto spazio generato da
v1 , . . . , vn .

Dimostrazione. È sufficiente mostrare che L(v1 , . . . , vn ) è chiuso rispetto alla somma e al


prodotto per uno scalare. Siano v, w ∈ L(v1 , . . . , vn ); dunque v = λ1 v1 + · · · + λn vn e
w = µ1 v1 + · · · + µn vn . Applicando la proprietà 2) al punto c) nella definizione 1.1. di
spazio vettoriale, si ha che
v + w = (λ1 + µ1 )v1 + · · · + (λn + µn )vn ∈ L(v1 , . . . , vn ).
Sia poi α ∈ R; allora, usando di nuovo la proprietà 2) al punto c) nella definizione 1.1. di
spazio vettoriale, si ha αv = (αλ1 )v1 + · · · + (αλn )vn ∈ L(v1 , . . . , vn ). !

2 3
3.2.1. Esempi. 1) È chiaro che VO = L(i, j); VO = L(i, j, k).
2) Siano v = (1, 0, −1) e w = (2, 0, 0) due vettori di R3 . Allora L(v, w) è contenuto
propriamente in R3 ; infatti, ad esempio, (0, 1, 0) ̸∈ L(v, w). Altrimenti, dovrebbero esistere
α, β ∈ R tali che
(0, 1, 0) = α(1, 0, −1) + β(2, 0, 0) = (α + 2β, 0, −α).
Eguagliando le componenti, si ottiene la relazione 1 = 0, che è palesemente falsa.

È un problema interessante cercare sottoinsiemi I di V tali che L(I) = V . È chiaro che


V = L(V ). Dagli esempi noti, si può osservare comunque che esistono sottoinsiemi propri
2 3
I ⊂ V tali che V = L(I). Ad esempio VO = L(i, j) e VO = L(i, j, k), dunque entrambi sono
generati da un numero finito di vettori. Tale situazione non è però generale. Si consideri
il seguente

3.2.2. Esempio. Lo spazio vettoriale reale R[x] non è generato da un numero finito di
vettori. Si cominci osservando che R[x] è generato dall’insieme infinito {1, x, x2 , . . . , xi , . . .}.
Supponiamo ora che esistano f1 , . . . , fs , con fi ∈ R[x] tali che R[x] = L(f1 , . . . , fs ). Posto
di = deg(fi ) e d = max{d1 , . . . , ds }, allora ogni p(x) ∈ L(f1 , . . . , fs ) ha grado ≤ d. Quindi
non può essere R[x] = L(f1 , . . . , fs ), in quanto, ad esempio, xd+1 ̸∈ L(f1 , . . . , fs ).

3.3. Definizione. Un R-spazio vettoriale V si dice finitamente generato se esistono


v1 , . . . , vn ∈ V tali che V = L(v1 , . . . , vn ); in tal caso {v1 , . . . , vn } si dice sistema di
generatori di V .

3.4. Osservazione. Non è difficile convincersi del fatto seguente. Sia I un sottoinsieme
di V e sia v ∈ V . Allora
L({v} ∪ I) = L(I) ⇐⇒ v ∈ L(I).

Se I è un sistema di generatori di V , ci si chiede se esiste J ⊂ I, J ̸= I, tale che


L(J) = L(I) = V . Si è pertanto condotti a ricercare, dentro I, un insieme “minimale” di
generatori di V . A tale scopo si introduce la nozione di indipendenza lineare.

32
3.5. Definizione. Dato un insieme I = {v1 , . . . , vn } di vettori di un R-spazio vettoriale
V , tali vettori si dicono linearmente indipendenti su R se il vettore nullo si ottiene come
loro combinazione lineare soltanto con coefficienti nulli, cioè
λ1 v1 + · · · + λn vn = 0V =⇒ λ1 = · · · = λn = 0R .
In tal caso l’insieme I si dice libero. Un insieme infinito I ⊆ V si dice libero se ogni suo
sottoinsieme finito è libero, nel senso definito sopra.
Viceversa, n vettori si dicono linearmente dipendenti se non sono linearmente indipendenti,
cioè se esistono n scalari (λ1 , . . . , λn ) ̸= (0, . . . , 0) tali che λ1 v1 + · · · + λn vn = 0V .
3
3.5.1. Esempio. Ovviamente i, j, k sono linearmente indipendenti in VO . Mentre i vettori
v1 = i+j, v2 = j−k e v3 = 2i−j+3k sono linearmente dipendenti; infatti 2v1 −3v2 −v3 = 0.

3.5.2. Esempio. Dalla definizione 3.5. il vettore nullo è linearmente dipendente. Da


questo fatto e da 1.5. segue che se n = 1, cioè I = {v1 }, allora I è libero se e solo se
v1 ̸= 0V .

3.6. Proposizione. Sia V un R-spazio vettoriale e I = {v1 , . . . , vn } un insieme di vettori


di V . Valgono le seguenti proprietà:
i) se 0V ∈ I allora I non è libero;
ii) se I non è libero e J ⊇ I, allora J non è libero;
iii) se I è libero e J ⊆ I, allora J è libero, cioè ogni sottoinsieme di un insieme libero è
libero.
iv) I non è libero se e solo se almeno uno tra i vi è combinazione lineare degli altri;

Dimostrazione. i), ii), e iii) sono ovvie.


iv) Se I non è libero, allora esistono n scalari reali, λ1 , . . . , λn , non tutti nulli, tali che
λ1 v1 + · · · + λn vn = 0V . Sia λi ̸= 0; allora si ha
vi = λ−1
i (−λ1 v1 − · · · − λi−1 vi−1 − λi+1 vi+1 − · · · − λn vn ).
Viceversa, se
vi = λ1 v1 + · · · + λi−1 vi−1 + λi+1 vi+1 + · · · + λn vn
allora si ha
λ1 v1 + · · · + λi−1 vi−1 − vi + λi+1 vi+1 + · · · + λn vn = 0V
e i coefficienti di tale combinazione lineare non sono tutti nulli, in quanto il coefficiente di
vi è −1. !

4. Basi

Allo scopo di determinare un sistema di generatori avente il minor numero possibile


di elementi e, eventuamente, determinare tale numero, proviamo i seguenti teoremi:

33
4.1. Teorema. Sia V un R-spazio vettoriale e v1 , . . . , vn ∈ V . Sono equivalenti i seguenti
fatti:
i) v1 , . . . , vn sono linearmente indipendenti;
ii) v1 ̸= 0V e vi non è combinazione lineare di v1 , . . . , vi−1 , per ogni i ≥ 2.

Dimostrazione. i) =⇒ ii) è ovvio, per 3.6 i) e iv).


ii) =⇒ i) Sia λ1 v1 + · · · + λn vn = 0V . Per ipotesi vn non è combinazione lineare di
v1 , . . . , vn−1 ; dunque deve essere λn = 0, altrimenti vn = λ−1
n (−λ1 v1 − · · · − λn−1 vn−1 ).
Si ha quindi λ1 v1 + · · · + λn−1 vn−1 = 0V ; ragionando analogamente si ottiene λn−1 = 0.
Dopo n − 1 passi si ha λ1 v1 = 0 e, poiché v1 è supposto non nullo, per 1.5. deve essere
anche λ1 = 0. !

4.2. Teorema. (Metodo degli scarti successivi). Ogni insieme finito di generatori di
uno spazio vettoriale contiene un sistema libero di generatori.

Dimostrazione. Sia I = {v1 , . . . , vn } un insieme di generatori di un R-spazio vettoriale V .


Definiamo ricorsivamente una catena di sottoinsiemi di I nel seguente modo:
poniamo I1 := I \ {vi ∈ I | vi = 0} l’insieme dei vettori non nulli di I. A meno di un
cambio di indici, si può supporre I1 = {v1 , . . . , vs };
se v2 ∈ L(v1 ), allora si pone I2 := I1 \ {v2 }; altrimenti sia I2 = I1 ;
se v3 ∈ L(v1 , v2 ), allora si pone I3 := I2 \ {v3 }; altrimenti sia I3 = I2 .
Iterando il procedimento, si esamina ogni vettore di I e si elimina se è combinazione lineare
dei precedenti. Dopo s passi si è costruita una catena I1 ⊇ · · · ⊇ Is di sottoinsiemi di I
tali che L(I) = L(I1 ) = · · · = L(Is ) (per 3.4), quindi Is è un sistema di generatori di V .
Inoltre, per 4.1, l’insieme Is è libero. !

4.3. Definizione. Sia V un R-spazio vettoriale. Un insieme ordinato I = (v1 , . . . , vn ) di


vettori di V si dice base di V se I è un sistema libero di generatori, cioè V = L(v1 , . . . , vn )
ed inoltre v1 , . . . , vn sono linearmente indipendenti.

Dal teorema 4.2 si ha immediatamente il seguente

4.4. Corollario. Ogni insieme finito di generatori di uno spazio vettoriale contiene (al-
meno) una base; quindi ogni spazio vettoriale finitamente generato ammette una base.
!

4.4.1. Esempio. Si considerino in R3 i vettori


v1 = (1, 1, −1), v2 = (−2, −2, 2), v3 = (2, 0, 1), v4 = (1, −1, 2), v5 = (0, 1, 1).
Vogliamo determinare una base dello spazio L(v1 , v2 , v3 , v4 , v5 ) con il metodo degli scarti
successivi. Poiché tutti i vettori sono non nulli, dovranno essere presi tutti in considerazione

34
al secondo passo.
Dato che v2 = −2v1 , v2 ∈ L(v1 ) e quindi si elimina. Mentre v3 ̸∈ L(v1 ), dunque v3 non
si elimina. Passiamo a v4 : è chiaro che v4 ∈ L(v1 , v3 ) se e solo se esistono α, β ∈ R tali
che v4 = αv1 + βv3 , cioè (1, −1, 2) == (α + 2β, α, −α + β). Uguagliando le componenti, si
ricava α = −1, β = 1. Dunque v4 = −v1 + v3 ∈ L(v1 , v3 ); pertanto v4 si elimina.
Analogamente si verifica che v5 ̸∈ L(v1 , v3 ); pertanto la base richiesta è (v1 , v3 , v5 ).

Una proprietà caratterizzante gli insiemi liberi è la seguente:

4.5. Teorema. Un insieme di vettori I = {v1 , . . . , vn } è libero se e solo se ogni elemento


di L(v1 , . . . , vn ) si scrive in modo unico come combinazione lineare dei vi . In particolare,
I = (v1 , . . . , vn ) è una base di V se e solo se ogni v ∈ V si scrive in modo unico come
v = λ1 v 1 + · · · + λn v n .

Dimostrazione. Supponiamo che I sia libero e che esista un vettore v ∈ L(v1 , . . . , vn ) che
si possa scrivere in due modi:

v = λ1 v1 + · · · + λn vn = µ1 v1 + · · · + µn vn .

Allora (λ1 − µ1 )v1 + · · · + (λn − µn )vn = 0. Dal fatto che v1 , . . . , vn sono linearmente
indipendenti segue che tutti i coefficienti si devono annullare, ovvero

λ1 − µ 1 = · · · = λn − µ n = 0

cioè λi = µi per ogni i = 1, . . . , n. Pertanto le due scritture iniziali di v coincidono.


Viceversa, supponiamo che ogni elemento di L(v1 , . . . , vn ) si scriva in modo unico come
combinazione lineare dei vi . In particolare 0V ∈ L(v1 , . . . , vn ) si può scrivere soltanto come
0V = 0R v1 + · · · + 0R vn . Supponiamo ora che sia λ1 v1 + · · · + λn vn = 0V ; per l’unicità
suddetta deve essere λi = 0 per ogni i = 1, . . . , n. Dunque v1 , . . . , vn sono linearmente
indipendenti. !

4.6. Definizione. Se I = (v1 , . . . , vn ) è una base di V e v ∈ V allora v = λ1 v1 +· · ·+λn vn ;


in tal caso gli scalari λ1 , . . . , λn (univocamente determinati per 4.5) si dicono componenti
di v rispetto alla base I. Per evidenziare ciò introduciamo la seguente notazione:

v = (λ1 , . . . , λn )I .

4.7. Osservazione. Si noti che gli insiemi liberi e i sistemi di generatori non sono insiemi
ordinati, mentre le basi lo sono. In seguito il lettore si renderà conto di questa scelta,
dovuta al fatto che spesso conviene lavorare con le componenti di un vettore rispetto ad
una base, piuttosto che col vettore stesso. Per tale scelta, le componenti di un vettore
rispetto ad una base sono n-uple ordinate di scalari. Ad esempio se I = (v1 , v2 ) è una base
di V , allora anche J = (v2 , v1 ) è una base di V . Si osservi che I e J sono uguali come
sistemi di generatori, ma distinti come basi.

35
4.7.1. Esempio. Poste E = (i, j) e E ′ = (j, i) due basi di VO
2
, il vettore v = 2i + 3j ha
componenti diverse rispetto alle due basi:

v = (2, 3)E = (3, 2)E ′ .

4.7.2. Esempio. Si possono presentare casi “curiosi” di vettori che non solo si rapp-
resentano con componenti diverse, ma addirittura con un numero diverso di componenti,
a seconda dello spazio in cui vengono considerati. Ad esempio il vettore v = 2i + 3j ha
2
componenti (2, 3)E , rispetto alla base E = (i, j) di VO , mentre ha componenti (2, 3, 0)F ,
3
rispetto alla base F = (i, j, k) di VO ; infine ha componente (1)V , rispetto alla base V = (v)
dello spazio vettoriale L(v).

4.7.3. Esempio. Nello spazio vettoriale Rn delle n-uple, si considerino i vettori


e1 = (1, 0, . . . , 0)
e2 = (0, 1, . . . , 0)
.
...
en = (0, 0, . . . , n)

Si vede che E = (e1 , . . . , en ) è una base di Rn . Infatti, se v = (x1 , . . . , xn ) è un elemento


di Rn , allora v si scrive in modo unico come combinazione lineare degli ei :

(x1 , . . . , xn ) = x1 e1 + · · · + xn en .

Tale base è detta base canonica di Rn .


In particolare, se R = R e n = 2, la base canonica di R2 è E = (e1 , e2 ), con e1 = (1, 0),
e2 = (0, 1).

4.7.4. Esempio. Facendo riferimento all’esempio 1.2.1, si osservi che C è un R-spazio


vettoriale generato dagli elementi 1 e i, poiché ogni numero complesso è della forma a + ib
con a, b ∈ R. Inoltre chiaramente 1 e i sono linearmente indipendenti e costituiscono
dunque una base di C su R.
Più in generale, Cn ha una duplice struttura: quella di C-spazio vettoriale e quella di
R-spazio vettoriale. Rispetto alla prima, è dotato di base canonica; in particolare la base
canonica di C2 è E = (e1 , e2 ), con e1 = (1, 0), e2 = (0, 1). Mentre come R-spazio vettoriale,
non essendo uno spazio del tipo Rn , non ha base canonica. Ha però una base naturale
B = (b1 , c1 . . . , bn , cn ) costituita dai 2n vettori:

b1 = (1, 0, . . . , 0)
c1 = (i, 0, . . . , 0)
...
bn = (0, 0, . . . , 1)
cn = (0, 0, . . . , i)

In particolare, nel caso di C2 , la base precedente prende la forma B = (b1 , c1 , b2 , c2 ), ove


b1 = (1, 0), c1 = (i, 0), b2 = (0, 1), c2 = (0, i).

36
4.7.5. Esempio. Lo spazio vettoriale reale R[x]r ha una base naturale, costituita dai
monomi di grado ≤ r: (1, x, x2 , . . . , xr ). Infatti ogni polinomio p(x) ∈ R[x]r è della forma
(unicamente determinata):

p(x) = a0 + a1 x + a2 x2 + · · · ar xr

con ai ∈ R.

3
4.8. Osservazione. Abbiamo visto nel Cap.2 come le operazioni tra vettori di VO possono
essere descritte in termini di componenti. Tale situazione si generalizza come segue.
Sia I = (v1 , . . . , vn ) una base di V . Siano v, w ∈ V e a ∈ R; con la notazione precedente
siano v = (λ1 , . . . , λn )I e w = (µ1 , . . . , µn )I . Calcoliamo le componenti, rispetto ad I, di
v + w e di av.

v + w = (λ1 v1 + · · · + λn vn ) + (µ1 v1 + · · · + µn vn ) =
= (λ1 + µ1 )v1 + · · · + (λn + µn )vn .

Dunque
v + w = (λ1 + µ1 , . . . , λn + µn )I .
Inoltre
av = a(λ1 v1 + · · · + λn vn ) = (aλ1 )v1 + · · · + (aλn )vn .
Dunque
av = (aλ1 , . . . , aλn )I .
Pertanto le componenti del vettore somma di due vettori sono la somma delle componenti
corrispondenti degli addendi; le componenti del vettore prodotto di uno scalare per un
vettore dato si comportano nello stesso modo. Infine, dalle proprietà precedenti di somma
e prodotto, si ha che, se z = av + bw e, rispetto alla base I, z = (ξ1 , . . . , ξn )I , allora

(ξ1 , . . . , ξn )I = (aλ1 + bµ1 , . . . , aλn + bµn )I

o, equivalentemente
ξi = aλi + bµi
per ogni i = 1, . . . , n.
Quest’ultimo fatto si generalizza immediatamente con la seguente

4.9. Proposizione. Sia V un R-spazio vettoriale e sia I = {v1 , . . . , vn } una base di V .


Siano

w1 = (λ11 , . . . , λ1n )I , w2 = (λ21 , . . . , λ2n )I , . . . , ws = (λs1 , . . . , λsn )I

s vettori di V . Sia inoltre z = (ξ1 , . . . , ξn )I . Allora

z = a1 w1 + · · · + as ws ⇐⇒ ξi = a1 λ1i + · · · + as λsi per ogni i

37
cioè la i-esima componente di una combinazione lineare di vettori è data dalla combinazione
lineare (con i medesimi coefficienti) delle i-esime componenti dei vettori considerati. !

4.10. Corollario. Con le notazioni precedenti, si hanno i seguenti fatti:


a) w1 , . . . , ws sono linearmente indipendenti in V se e solo se le corrispondenti n-uple di
componenti (λ11 , . . . , λ1n ), . . . , (λs1 , . . . , λsn ) sono linearmente indipendenti in Rn ;
b) w1 , . . . , ws sono un sistema di generatori di V se e solo se le corrispondenti n-uple di
componenti (λ11 , . . . , λ1n ), . . . , (λs1 , . . . , λsn ) generano Rn . !

Vediamo infine come un insieme libero possa essere completato ad una base.

4.11. Teorema (Completamento ad una base). Sia V un R-spazio vettoriale fini-


tamente generato. Allora ogni insieme libero finito di elementi di V è contenuto in una
base.

Dimostrazione. Sia I = {v1 , . . . , vs } un insieme libero di vettori di V . Per 4.4, V ammette


una base; sia essa B = (e1 , . . . , en ). Si consideri l’insieme I ∪ B = {v1 , . . . , vs , e1 , . . . , en }.
Chiaramente I ∪ B è ancora un sistema di generatori per V . Applicando a tale insieme
il metodo degli scarti successivi, non vengono eliminati i primi s vettori, poiché sono
linearmente indipendenti (vedi 4.1) e si perviene ad un sistema libero di generatori, cioè
ad una base di V contenente I. !

4.12. Osservazione. Sia B = (v1 , . . . , vn ) una base di V e sia v ∈ V un vettore non


nullo. Allora l’insieme {v, v1 , . . . , vn } non è libero, in quanto v ∈ V = L(v1 , . . . , vn ). Per
4.1, poiché v ̸= 0V , esiste i tale che vi è combinazine lineare dei vettori precedenti, cioè
vi = αv + a1 v1 + · · · + ai−1 vi−1
con α ̸= 0, altrimenti v1 , . . . , vi sarebbero linearmente dipendenti.
Chiaramente tale vi si può determinare con il metodo degli scarti successivi.

4.13. Teorema. Sia V un R-spazio vettoriale avente una base di n elementi. Allora:
i) ogni insieme libero di V è finito ed ha al più n elementi;
ii) ogni base di V ha n elementi;
iii) ogni sistema di generatori di V ha almeno n elementi. !

Il teorema precedente risponde affermativamente alla questione iniziale riguardante la


determinazione di un sistema di generatori minimale.

5. Dimensione

38
3
Lo spazio vettoriale VO ha, intuitivamente, “dimensione” 3, in quanto è in corrispon-
denza biunivoca con i punti dello spazio (vedi Cap.2). D’altra parte abbiamo visto che
3
(i, j, k) sono una base di VO e, dal teorema 4.13, ogni altra base è costituita da 3 ele-
menti; quindi il numero di elementi di una base coincide col numero che intuitivamente
rappresenta la dimensione.
Siamo quindi indotti ad introdurre il seguente concetto:

5.1. Definizione. Se esiste un intero positivo n tale che lo spazio vettoriale reale V
ammetta una base di n elementi, diremo che V ha dimensione n e scriveremo dimR (V ) =
n o più semplicemente dim(V ) = n. Se invece V non è finitamente generato, si pone
dim(V ) = ∞. Infine se V = {0V } poniamo dim(V ) = 0.

È evidente che, per il teorema 4.13, tale definizione ha senso, in quanto il numero
di vettori costituenti una qualunque base è costante, si tratta cioè di un invariante dello
spazio vettoriale.

Non è difficile convincersi dei sequenti risultati, di cui omettiamo le dimostrazioni.


2 3
5.1.1. Esempi. Per quanto visto in precedenza: dim VO = 2 e dim VO = 3. Inoltre
dim R = n, in particolare dim R = 1. Ancora dimC C = n e dimR C = 2n. Infine
n n n

dim R[X] = ∞ e dim R[X]r = r + 1.

5.2. Proposizione. Sia V un R-spazio vettoriale di dimensione n e sia W un sottospazio


di V . Allora dim(W ) ≤ n. Inoltre dim(W ) = n se e solo se W = V . !

5.3. Corollario. Sia V un R-spazio vettoriale di dimensione n e siano v1 , . . . , vn ∈ V .


Sono equivalenti:
i) (v1 , . . . , vn ) è una base di V ;
ii) {v1 , . . . , vn } è un insieme libero;
iii) {v1 , . . . , vn } è un sistema di generatori di V . !

5.4. Teorema di Grassmann. Sia V un R-spazio vettoriale di dimensione finita e siano


U e W due sottospazi di V . Allora si ha

dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).

Dimostrazione. Siano r = dim(U ), s = dim(W ), p = dim(U ∩ W ). Vogliamo provare che


esiste una base di U + W costituita da r + s − p elementi.
Sia (v1 , . . . , vp ) una base di U ∩ W ; per il teorema 4.11, è possibile completare tale insieme
libero ad una base (v1 , . . . , vp , u1 , . . . , ur−p ) di U e ad una base (v1 , . . . , vp , w1 , . . . , ws−p )
di W .

39
Proviamo che I = (v1 , . . . , vp , u1 , . . . , ur−p , w1 , . . . , ws−p ) è una base dello spazio vettoriale
U + W . Poiché ogni vettore di U + W è della forma u + w, con u ∈ U e w ∈ W e
poiché u si scrive come combinazione lineare di v1 , . . . , vp , u1 , . . . , ur−p e w si scrive come
combinazione lineare di v1 , . . . , vp , w1 , . . . , ws−p , ovviamente I genera U + W .
Sia ora
α1 v1 + · · · + αp vp + β1 u1 + · · · + βr−p ur−p + γ1 w1 + · · · + γs−p ws−p = 0V .
$p $r−p $s−p
Per brevità poniamo v = i=1 αi vi , u = j=1 βj uj e w = k=1 γk wk .
Dunque l’uguaglianza precedente diventa
v + u + w = 0V , con v ∈ U ∩ W, u ∈ U, w ∈ W.
Visto che v, u ∈ U , allora w = −v − u ∈ U ; dunque w ∈ (U ∩ W ). Ciò implica che
w = γ1 w1 + · · · + γs−p ws−p = λ1 v1 + · · · + λp vp
per opportuni scalari λi ; ma {v1 , . . . , vp , w1 , . . . , ws−p } è un insieme libero, quindi tutti i
γk sono nulli. Basta dunque provare che da
α1 v1 + · · · + αp vp + β1 u1 + · · · + βr−p ur−p = 0V
segue che tutti i coefficienti αi e βj sono nulli; ma ciò è vero in quanto (v1 , . . . , vp , u1 , . . . , ur−p )
è una base di U .
Pertanto I è un insieme libero. !

5.5. Corollario. Siano W1 , W2 sottospazi di un R-spazio vettoriale V , la cui somma sia


diretta. Allora
dim(W1 ⊕ W2 ) = dim(W1 ) + dim(W2 ).
Inoltre, se B1 = (w1′ , . . . , ws′ ) e B2 = (w1′′ , . . . , wr′′ ) sono due basi di W1 e W2 , rispettiva-
mente, allora B = (w1′ , . . . , ws′ , w1′′ , . . . , wr′′ ) è una base di W1 ⊕ W2 .

Dimostrazione. Per il teorema di Grassmann


dim(W1 ⊕ W2 ) + dim(W1 ∩ W2 ) = dim(W1 ) + dim(W2 );
per 5.6, dim(W1 ∩ W2 ) = 0, da cui la prima parte della tesi.
Inoltre, date le basi B1 e B2 , si consideri B = B1 ∪ B2 ; chiaramente B è un sistema di
generatori di W1 ⊕ W2 . Da cui la seconda parte della tesi, tenendo conto di 5.3. !

Più in generale:

5.6. Proposizione. Siano W1 , . . . , Wn sottospazi di un R-spazio vettoriale V , la cui


somma sia diretta. Allora
dim(W1 ⊕ · · · ⊕ Wn ) = dim(W1 ) + · · · + dim(Wn ).
!

40
IV - SPAZI EUCLIDEI

3
È ben noto che in VO si possono considerare strutture più ricche di quella di spazio
vettoriale; si pensi ad esempio alle operazioni di prodotto scalare e prodotto vettoriale di
due vettori.
Aggiungendo, ad esempio, alla struttura di R-spazio vettoriale di VO 3
il prodotto scalare
di vettori si introducono essenzialmente i concetti di ortogonalità di vettori e distanza tra
3
punti; cosı̀ facendo si fornisce a VO la struttura classica usata nella geometria euclidea.
In questo capitolo estenderemo ad un R-spazio vettoriale qualunque la struttura di
3
VO pensato come R-spazio vettoriale dotato di prodotto scalare. Vedremo inoltre come in
tali spazi si possano definire delle basi “speciali” (quelle ortonormali).

3 ∼ 3
3
1.1. Esempio. Il prodotto scalare usuale in VO , tenuto conto dell’isomorfismo VO =R ,
induce naturalmente un’applicazione

· : R3 × R3 −→ R.

definita da:
(x1 , x2 , x3 ) · (y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3 .
Si verificano le seguenti proprietà, per ogni (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 e a, b ∈ R:

(x1 , x2 , x3 ) · (y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3
i)
= y1 x1 + y2 x2 + y3 x3 = (y1 , y2 , y3 ) · (x1 , x2 , x3 )

(a(x1 , x2 , x3 ) + b(y1 , y2 , y3 ))·(z1 , z2 , z3 ) =


= (ax1 + by1 )z1 + (ax2 + by2 )z2 + (ax3 + by3 )z3 =
ii)
= a(x1 z1 + x2 z2 + x3 z3 ) + b(y1 z1 + y2 z2 + by3 z3 ) =
= a(x1 , x2 , x3 ) · (z1 , z2 , z3 ) + b(y1 , y2 , y3 ) · (z1 , z2 , z3 )

iii) (x1 , x2 , x3 ) · (x1 , x2 , x3 ) = x21 + x22 + x23 ≥ 0

iv) (x1 , x2 , x3 ) · (x1 , x2 , x3 ) = 0 ⇐⇒ (x1 , x2 , x3 ) = (0, 0, 0).

Le precedenti proprietà portano alla seguente definizione generale.

1.2. Definizione. Sia V un R-spazio vettoriale di dimensione finita. Diciamo prodotto


scalare in V a valori reali un’applicazione

· : V × V −→ R

41
denotata da (v, w) .→ v · w tale che, per ogni v, w, v1 , v2 ∈ V e per ogni a1 , a2 ∈ R si ha:
i) v · w = w · v;
ii) (a1 v1 + a2 v2 ) · w = a1 (v1 · w) + a2 (v2 · w);
iii) v · v ≥ 0;
iv) v · v = 0 ⇔ v = 0V .
In tal caso utilizzeremo la notazione (V, ·), intendendo che V è un R-spazio vettoriale
dotato di prodotto scalare e diremo che (V, ·) è uno spazio euclideo.

Dagli assiomi i) e ii) si deduce che i prodotti scalari sono forme bilineari simmetriche: la
linearità sul secondo vettore è assicurata dalla linearità sul primo vettore e dalla simmetria.

3
1.2.1. Esempio. E’ ovvio che il prodotto scalare definito in VO è un prodotto scalare nel
senso di 1.2. Analogamente il’ applicazione dell’ Esempio 1.1. è un prodotto scalare per lo
spazio R3 . Tale prodotto scalare in R3 non è l’unico come si vede dall’esempio seguente.

1.2.3. Esempio. Sia p : R3 × R3 −→ R l’applicazione definita da

p((x1 , x2 , x3 ), (y1 , y2 , y3 )) = 2x1 y1 + 3x2 y2 + x3 y3 .

Infatti, poiché p è bilineare simmetrica (come si verifica facilmente) soddisfa alle proprietà
i) e ii) della Definizione 1.2. Resta da provare che p(v, v) ≥ 0 ed è nullo se e solo se v = 0.
Ciò vale in quanto p(v, v) = 2vx2 + 3vy2 + vz2 , dove v = (vx , vy , vz ).

Estendiamo il prodotto scalare usuale ad Rn come segue: sia

· : Rn × Rn −→ R

definito da
(x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn .
Gli assiomi di prodotto scalare sono di facile verifica:
i) (x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn = y1 x1 + · · · + yn xn = (y1 , . . . , yn ) ·
(x1 , . . . , xn );
ii) è lasciata al lettore; $n
iii), iv) (x1 , . . . , xn ) · (x1 , . . . , xn ) = i=1 x2i ≥ 0.

1.3. Definizione. Il precedente si dice prodotto scalare canonico e (Rn , ·) si dice spazio
euclideo E n .

1.4. Definizione. Sia (V, ·) uno spazio euclideo. L’applicazione

∥ − ∥: V −→ R

42
definita da √
∥ v ∥= v·v
si dice norma; il numero reale ∥ v ∥ si dice norma di v, per ogni v ∈ V .
Si hanno immediatamente le proprietà:

1.5. Proposizione. Sia (V, ·) uno spazio euclideo; allora:


i) ∥ v ∥≥ 0;
ii) ∥ v ∥= 0 ⇔ v = 0V ;
iii) ∥ av ∥= |a| ∥ v ∥. !

In E n = (Rn , ·) la norma di un vettore assume la forma:


+
, n
,#
∥ (x1 , . . . , xn ) ∥= - x2 . i
i=1

.
In particolare in E 3 si ha ∥ (x1 , x2 , x3 ) ∥= x21 + x22 + x23 .

1.6. Teorema. (Disuguaglianza di Schwarz). Sia (V, ·) uno spazio euclideo e siano v, w ∈
V . Allora
(v · w)2 ≤ ∥ v ∥2 ∥ w ∥2 .

Dimostrazione. Se v = 0V la tesi è vera. Sia dunque v ̸= 0V ; per ogni t ∈ R, si ha

0 ≤∥ tv + w ∥2 = (tv + w) · (tv + w) = t2 ∥ v ∥2 +2t(v · w)+ ∥ w ∥2

dove la disuguaglianza vale per 1.2. iii). Poiché v ̸= 0V , il precedente polinomio è un


trinomio di secondo grado in t mai negativo. Pertanto il suo discriminante deve essere non
positivo:
0 ≥ ∆/4 = (v · w)2 − ∥ v ∥2 ∥ w ∥2
da cui la tesi. !

1.7. Teorema. (Disuguaglianza triangolare o di Minkowski). Sia (V, ·) uno spazio euclideo
e siano v, w ∈ V . Allora
∥v+w ∥≤∥v ∥+∥w ∥.

Dimostrazione. Si osservi che

∥ v + w ∥2 = (v + w) · (v + w) =∥ v ∥2 +2v · w+ ∥ w ∥2 .

43
D’altra parte
(∥ v ∥ + ∥ w ∥)2 =∥ v ∥2 +2 ∥ v ∥ ∥ w ∥ + ∥ w ∥2 .
Quindi basta provare che
v · w ≤∥ v ∥ ∥ w ∥ .
Dalla disuguaglianza di Schwarz si ha

|v · w| ≤∥ v ∥ ∥ w ∥,

da cui la tesi. !

1.8. Definizione. Sia (V, ·) uno spazio euclideo e siano v, w ∈ V ; v e w si dicono ortogonali
se v · w = 0.

Vediamo ora una serie di proprietà riguardanti l’ortogonalità:

1.9. Proposizione. Siano v, w1 , · · · , ws ∈ V ; se v è ortogonale a wi per ogni i, allora v è


ortogonale ad ogni combinazione lineare di w1 , · · · , ws .

Dimostrazione. Per ipotesi v · wi = 0 per ogni i; dunque per la bilinearità del prodotto
scalare, per ogni scelta di scalari λ1 , . . . , λs , si ha

v · (λ1 w1 + . . . + λs ws ) = λ1 (v · w1 ) + . . . + λs (v · ws ) = 0.

1.10. Proposizione. Siano v1 , · · · , vs ∈ V \ {0V } tali che vi · vj = 0 per ogni i e j. Allora


v1 , · · · , vs sono linearmente indipendenti.

Dimostrazione. Si consideri una combinazione lineare nulla dei vettori dati:

λ1 v 1 + . . . + λs v s = 0 V .

Allora 0 = vi · (λ1 v1 + . . . + λs vs ) = λ1 (vi · v1 ) + . . . + λs (vi · vs ) = λi ∥ vi ∥2 ; poiché vi ̸= 0V ,


allora λi = 0. Ripetendo il procedimento per ogni i, deve essere λ1 = · · · = λs = 0. !

1.11. Definizione. Sia (V, ·) uno spazio euclideo e sia W ⊆ V un sottospazio vettoriale.
Si dice ortogonale di W l’insieme:

W ⊥ = {v ∈ V | v · w = 0, ∀w ∈ W }.

1.12. Proposizione. W ⊥ è un sottospazio vettoriale di V .

Dimostrazione. Siano v1 , v2 ∈ W ⊥ , cioè v1 · w = 0 e v2 · w = 0 per ogni w ∈ W ; dunque,


comunque scelti λ1 , λ2 ∈ R, si ha

(λ1 v1 + λ2 v2 ) · w = λ1 (v1 · w) + λ2 (v2 · w) = 0

44
per ogni w ∈ W ; pertanto λ1 v1 + λ2 v2 ∈ W ⊥ . !

1.13. Osservazione. Sia W = L(w1 , . . . , ws ) ⊂ V . Allora

W ⊥ = {v ∈ V | v · wi = 0, ∀i = 1, . . . , s}.

Infatti, l’inclusione “ ⊆ ” è ovvia, mentre “ ⊇ ” segue da 1.9.

1.13.1. Esempio. Sia W = L((1, 0, 1)) ⊂ R3 . Per 1.13

W ⊥ = {(x, y, z) ∈ R3 | (x, y, z) · (1, 0, 1) = 0} = {(x, y, z) ∈ R3 | x + z = 0}

cioè W ⊥ = L((1, 0, −1), (0, 1, 0)).

1.13.2. Esempio. Sia W ⊂ R4 definito da

W = L((1, −1, 1, 0), (2, 1, 0, 1)).

Ancora per 1.13


) *) /
⊥ * (x, y, z, t) · (1, −1, 1, 0) = 0
W = (x, y, z, t) ∈ R4 *
(x, y, z, t) · (2, 1, 0, 1) = 0

dunque basta calcolare le soluzioni del sistema lineare


)
x − y + z = 0
2x + y + t = 0

che sono, ad esempio, )


z = y−x
.
t = −2x − y

Quindi W ⊥ = L((1, 0, −1, −2), (0, 1, 1, −1)).

1.14. Proposizione. Sono verificate le seguenti proprietà:


i) (W ⊥ )⊥ ⊇ W ;
ii) W ∩ W ⊥ = {0V }, quindi la somma di W e W ⊥ è diretta.

Dimostrazione. i) Per ipotesi (W ⊥ )⊥ = {v ∈ V | v · w = 0, ∀w ∈ W ⊥ }; poiché se v ∈ W ,


allora v · w = 0 per ogni w ∈ W ⊥ , si ha la tesi.
ii) Sia w ∈ W ∩ W ⊥ , allora w · w = 0; dunque w = 0V . !
Come vedremo in seguiro nel Corollario 1.24., al punto i) di 1.14. si ha eguaglianza se lo
spazio ambiente V è finito dimensionale.

45
In uno spazio euclideo, avendo introdotto i concetti di ortogonalità e norma, si può
richiedere ad una base di verificare le analoghe proprietà geometriche della terna fonda-
3
mentale (la base) di VO , ovvero essere di norma 1 e mutuamente ortogonali.

1.15. Definizione. Sia I = {v1 , . . . , vr } con vi ∈ V ; I si dice ortonormale se i vi sono a


due a due ortogonali ed hanno norma 1, cioè se
)
1, se i = j ;
vi · vj = δij =
0, se i ≠ j.

1.16. Osservazione. Da 1.10 si ha che ogni insieme ortonormale è libero.

1.17. Definizione. Una base B di (V, ·) si dice ortonormale se è un insieme ortonormale.

3
E’ chiaro che la base (i, j, k) di VO e la base canonica di Rn sono basi ortonormali.

1.18. Osservazione. Sia E = (e1 , . . . , en ) una base ortonormale di (V, ·) e sia v ∈ V ; le


componenti di v rispetto ad E assumono una forma particolare:

v = (v · e1 )e1 + · · · + (v · en )en .

Infatti, se
v = a 1 e1 + · · · + a n en
basta considerare i prodotti scalari di v con i vettori della base E:

v · e1 = a 1 , ... , v · en = a n .

Pertanto le componenti di un vettore rispetto ad una base ortonormale si ottengono molti-


plicando scalarmente il vettore per gli elementi della base scelta.

1.19. Definizione. I vettori (v · e1 )e1 , . . . , (v · en )en in cui si decompone v si dicono


proiezioni ortogonali di v lungo e1 , . . . , en , rispettivamente.

Si osservi che una base ortonormale gioca un ruolo fondamentale in uno spazio eu-
clideo, infatti attraverso di essa il prodotto scalare assume la stessa forma del prodotto
scalare canonico in E n .

1.20. Proposizione. Sia E = (e1 , . . . , en ) una base ortonormale di (V, ·) e siano v, w ∈ V .


Posti v = (a1 , . . . , an )E e w = (b1 , . . . , bn )E , allora

v · w = a1 b1 + · · · + an bn .

Dimostrazione. Dalla bilinearità del prodotto scalare e dal fatto che ei · ej = δij . !

46
Il seguente metodo non solo permette il calcolo di una base ortonormale negli es-
empi, ma prova anche, in generale, l’esistenza di una tale base. Esso prende il nome di
procedimento di ortonormalizzazione di Gram–Schmidt.

1.21. Metodo di Gram–Schmidt. Sia B = (v1 , . . . , vn ) una base di uno spazio euclideo
(V, ·). Posti
v1
e1 = ,
∥ v1 ∥
v2 − (v2 · e1 )e1
e2 = ,
∥ v2 − (v2 · e1 )e1 ∥
···
$n−1
vn − i=1 (vn · ei )ei
en = $n−1 ,
∥ vn − i=1 (vn · ei )ei ∥
vogliamo dimostrare che e1 , . . . , en costituiscono una base ortonormale.
Chiaramente e1 , . . . , en hanno norma 1.
Verificheremo che e1 , . . . , en sono a due a due ortogonali per induzione; cioè supporremo
che e1 , . . . , eh siano a due a due ortogonali e proveremo allora che anche e1 , . . . , eh+1 lo
sono. Per l’ipotesi induttiva, basta provare che eh+1 è ortogonale a e1 , . . . , eh . Sia dunque
k un intero tale che 1 ≤ k ≤ h, allora
$h
vh+1 − i=1 (vh+1 · ei )ei
eh+1 · ek = $h · ek =
∥ vh+1 − i=1 (v h+1 · e i )e i ∥
$h
vh+1 · ek − i=1 ((vh+1 · ei )(ei · ek ))
= $h =
∥ vh+1 − i=1 (vh+1 · ei )ei ∥
vh+1 · ek − vh+1 · ek
= $h =0
∥ vh+1 − i=1 (vh+1 · ei )ei ∥

dove l’ultima uguaglianza segue dal fatto che ei · ek = 0 per l’ipotesi induttiva.
Inoltre per 1.16 sono linearmente indipendenti e pertanto costituiscono una base ortonor-
male di V .
1.21.1. Esempio. Sia V = L(v1 , v2 ) ⊂ R4 , dove v1 = (1, 1, 0, 0), v2 = (0, 2, 1, 1); vogliamo
determinare una base ortonormale di V con il metodo di Gram–Schmidt.
! "
v1 1 1
e1 = = √ , √ , 0, 0 ;
∥ v1 ∥ 2 2

si ponga f2 = v2 − (v2 · e1 )e1 e quindi e2 = ∥ff22 ∥ .


Si ha dunque
! ! "" ! "
1 1 1 1
f2 = (0, 2, 1, 1) − (0, 2, 1, 1) · √ , √ , 0, 0 √ , √ , 0, 0 =
2 2 2 2
= (0, 2, 1, 1) − (1, 1, 0, 0) = (−1, 1, 1, 1).

47
Quindi ! "
1 1 1 1
e2 = − , , , .
2 2 2 2

1.22. Teorema. Sia (V, ·) uno spazio euclideo. Allora V ha una base ortonormale.

Dimostrazione. Poiché V ha dimensione finita, ammette una base che basta ortonormaliz-
zare con Gram–Schmidt. !

1.23. Teorema. Sia (V, ·) uno spazio euclideo e sia {e1 , . . . , er } un insieme ortonor-
male di vettori di V ; allora si può completare tale insieme ad una base ortonormale
(e1 , . . . , er , er+1 , . . . , en ) di V .

Dimostrazione. Per il teorema di completamento ad una base (vedi 4.11. Capitolo III), si
completi l’insieme libero {e1 , . . . , er } ad una base

B = (e1 , . . . , er , vr+1 , . . . , vn )

di V . Poi si ortonormalizzi B; si noti che il metodo di Gram–Schmidt applicato a B non


altera i primi r vettori, che sono già ortonormali. !

1.24. Corollario. Sia (V, ·) uno spazio euclideo di dimensione n e sia W un sottospazio
vettoriale di V . Allora:
i) dim(W ) + dim(W ⊥ ) = n;
ii) V = W ⊕ W ⊥ ;
iii) (W ⊥ )⊥ = W .

Dimostrazione. i) Sia (e1 , . . . , er ) una base ortonormale di W ; si completi, per 1.23, ad


una base ortonormale (e1 , . . . , er , er+1 , . . . , en ) di V . Poiché er+1 , . . . , en sono ortogonali
ai precedenti vettori della base, sono ortogonali ad ogni vettore di W per 1.9; dunque
er+1 , . . . , en ∈ W ⊥ . Pertanto dim(W ⊥ ) ≥ n − r, cioè dim(W ) + dim(W ⊥ ) ≥ n. D’altra
parte dim(W ) + dim(W ⊥ ) = dim(W ⊕ W ⊥ ) ≤ n e ciò prova la tesi.
ii) Per i) si ha dim(W ⊕ W ⊥ ) = dim(W ) + dim(W ⊥ ) = n = dim(V ) e quindi la tesi.
iii) Per i) applicata a W ⊥ si ha

dim(W ⊥ ) + dim((W ⊥ )⊥ ) = n

dunque, confrontando con i), si ottiene dim((W ⊥ )⊥ ) = dim(W ); ma per 1.14 si ha


(W ⊥ )⊥ ⊇ W e ciò conclude la dimostrazione. !

48
V - MATRICI

1. Concetti fondamentali

Spesso accade che si debbano esaminare insiemi finiti di vettori (generatori di un sot-
tospazio vettoriale, basi, ecc.); è conveniente rappresentare tali insiemi in forma compatta.
Ciò risulta particolarmente semplice se i vettori considerati sono elementi di Rn . In tal
caso l’idea, molto naturale, è quella di disporre le componenti dei vettori stessi in una
opportuna tabella, che prende il nome di “matrice”. Le matrici saranno loro stesse oggetto
di studio e sono uno strumento fondamentale nell’algebra lineare (sistemi lineari e appli-
cazioni lineari, ad esempio), ma anche in geometra (intersezioni di rette e piani, coniche e
quadriche, ad esempio).
Come per gli spazi vettoriali le matrici possono essere date su qualsiasi campo K. Noi
la daremo per il caso K = R (campo dei numeri reali). Il lettore avvertito può facilmente
astrarre la definizione al caso generale.

1.1. Definizione. Si dice matrice a elementi in R un insieme di scalari aij ∈ R, con


i = 1, . . . , m; j = 1, . . . , n; m, n ∈ N, rappresentato da una tabella del tipo
⎛ ⎞
a11 a12 ... a1n
⎜ a21 a22 ... a2n ⎟
M =⎜
⎝ ... .. .. ⎟ . (1)
. . ⎠
am1 am2 ... amn

In tal caso si dirà che M è una matrice a m righe ed n colonne (o brevemente di tipo
m × n) e si denoterà anche con M = (aij ), ove aij è l’elemento appartenente all’i-esima
riga e alla j-esima colonna.

Se m = 1, M si dice matrice riga ed ha la forma

M = (a11 a12 . . . a1n );

se n = 1, M si dice matrice colonna ed ha la forma


⎛ ⎞
a11
⎜ a21 ⎟
M =⎜ ⎟
⎝ ... ⎠ .
am1

Se m = n = 1, la matrice si riduce ad uno scalare di R. Più in generale, se m = n ≥ 1,


la matrice si dirà quadrata di ordine n. Se A = (aij ) ∈ Rn,n è una matrice quadrata,
allora gli elementi a11 , a22 , . . . , ann costituiscono la diagonale principale o, più brevemente,
la diagonale di A.

49
Gli elementi in grassetto della seguente matrice formano la sua diagonale:
⎛ ⎞
1 2 2
A = ⎝ −1 0 3 ⎠ .
2 4 7

1.2. Osservazione. La matrice M in (1) rappresenta sia m vettori riga di Rn :

R1 = (a11 , . . . , a1n ) , ... , Rm = (am1 , . . . , amn )

sia n vettori colonna di Rm :

C1 = (a11 , . . . , am1 ) , ... , Cn = (a1n , . . . , amn ).

I vettori Ri si dicono anche righe di M ed i vettori Cj si dicono anche colonne di M .


Possiamo quindi scrivere M come la riga delle sue colonne o la colonna delle sue righe:
⎛ ⎞
R1
⎜ R2 ⎟
M = (C1 C2 . . . Cn ) = ⎜ ⎟
⎝ ... ⎠ .
Rm

Notazione. L’insieme di tutte le matrici di tipo m × n si denota con Rm,n .

Si possono definire in modo naturale le seguenti operazioni in Rm,n : per ogni A = (aij ),
B = (bij ) ∈ Rm,n e per ogni λ ∈ R, si definisce

A + B = (aij + bij ); λA = (λaij ).

"! ! "
1 2 1 −1
1.2.1. Esempio. Siano A = eB= due matrici di R2,2 . Si verifica
1 −1 1 0
che ! " ! " ! "
1 2 1 −1 2 1
A+B = + = .
1 −1 1 0 2 −1

1.3. Proposizione. Con le precedenti operazioni, l’insieme Rm,n ha una struttura di


R-spazio vettoriale di dimensione mn.

Dimostrazione. Lasciamo al lettore la verifica del fatto che Rm,n è un R-spazio vettoriale,
osservando che lo zero di Rm,n è dato dalla matrice i cui elementi sono tutti uguali a 0R ,

50
detta matrice nulla.
Per provare che dim(Rm,n ) = mn, si considerino le seguenti matrici:
)
(hk) (hk) 1, se (i, j) = (h, k) ;
Ehk = (eij ) , dove eij =
0, se (i, j) ̸= (h, k) .
In altre parole Ehk è la matrice costituita da tutti zeri, eccetto l’elemento di posto hk, che
è uguale a 1.
Si verifica facilmente che {Ehk |1 ≤ h ≤ m, 1 ≤ k ≤ n} è una base per Rm,n . !

1.4. Definizione. Date due matrici A = (aij ) ∈ Rm,n , B = (bjk ) ∈ Rn,p si definisce
prodotto di A e B la matrice
n
#
m,p
C = (cik ) = AB ∈ R , ove cik = RiA · CkB = aij bjk ,
j=1

con i = 1, . . . , m e k = 1, . . . , p, dove RiA · CkB denota il prodotto scalare (di vettori in Rn )


dello i-esimo vettore riga RiA di A per il k-esimo vettore colonna CkB di B.

1.5. Osservazione. Chiaramente il prodotto AB, chiamato anche prodotto righe per
colonne, è definito solo se il numero delle colonne di A è uguale al numero delle righe di
B, cioè se e solo se A è di tipo m × n e B è di tipo n × p.

1.5.1. Esempio. Si considerino le matrici


⎛ ⎞
! " 1 2
1 2 −1 ⎝
A= ∈ R2,3 , B= 2 1 ⎠ ∈ R3,2 ;
3 0 1
3 4
allora AB = C = (cik ) ∈ R2,2 è tale che c11 = a11 b11 + a12 b21 + a13 b31 = 2, e cosı̀ via. Si
ottiene dunque ! "
2 0
C= .
6 10

1.6. Osservazione. Si considerino le matrici A ∈ Rm,n , B ∈ Rn,p . Come già osservato,


il prodotto AB è definito; affinché il prodotto BA sia definito è necessario che sia p = m.
Ma, anche se è definito, il prodotto tra matrici non è commutativo, cioè, se A ∈ Rm,n ,
B ∈ Rn,m , in generale AB ̸= BA. Infatti, se n ̸= m è ovvio.
Altrimenti, siano ad esempio
! " ! "
1 2 1 −1
A= , B= .
1 −1 1 0
! " ! "
3 −1 0 3
Allora AB = , mentre BA = .
0 −1 1 2

L’associatività e la distributività rispetto alla somma del prodotto in R garantiscono


analoghe proprietà del prodotto di matrici.

51
1.7. Proposizione. Il prodotto di matrici è associativo e distributivo rispetto alla somma,
ovvero
i) A(BC) = (AB)C, ∀ A ∈ Rm,n , B ∈ Rn,p , C = (ckj ) ∈ Rp,q ;
ii) A(B + C) = AB + AC, ∀ A ∈ Rm,n , B, C ∈ Rn,p ;
iii) λ(AB) = (λA)B = A(λB) , ∀ A ∈ Rm,n , B ∈ Rn,p , λ ∈ R .

Dimostrazione. i) Siano date le matrici A = (aih ) ∈ Rm,n , B = (bhk ) ∈ Rn,p e C =


(ckj ) ∈ Rp,q . Vogliamo $
provare che (AB)C = A(BC). Dalla definizione
$p di prodotto si ha:
n
AB = (dik ), ove dik = h=1 aih bhk e BC = (ehj ), ove ehj = k=1 bhk ckj .
Dunque l’elemento di posto ij di (AB)C è

p p
6 n 7 p #
n
# # # #
dik ckj = aih bhk ckj = (aih bhk ckj )
k=1 k=1 h=1 k=1 h=1

con l’ultima uguaglianza che discende dalla distributività del prodotto rispetto alla somma
(in R).
D’altro canto, l’elemento di posto ij di A(BC) è

n n
6 p
7 p
n #
# # # #
aih ehj = aih bhk ckj = (aih bhk ckj ),
h=1 h=1 k=1 h=1 k=1

e ciò conclude la dimostrazione dell’associatività.


ii) Per provare la distributività del prodotto rispetto alla somma, basta mostrare che, se
A = (aih ), A′ = (a′ih ) ∈ Rm,n e B = (bhj ) ∈ Rn,p , allora (A + A′ )B = AB + A′ B. Questo
segue dal fatto che i rispettivi elementi di posto ij sono uguali, in quanto
n
# n
# n
#
(aih + a′ih )bhj = aih bhj + a′ih bhj .
h=1 h=1 h=1

iii) Viene lasciata al lettore. !

Il prodotto tra matrici ammette un elemento neutro:


1.8. Definizione. Si dice matrice identica di ordine n, indicata con In , la matrice
quadrata definita da:
)
1, se i = j ;
In = (δij ) , dove δij =
0, ̸ j.
se i =

In altre parole gli elementi di In sono tutti nulli, eccetto quelli della diagonale, che sono
uguali a 1.

52
1.9. Osservazione. Si verifica facilmente che, se A ∈ Rm,n , allora

AIn = A e Im A = A.

1.10. Proposizione. L’insieme Rn,n delle matrici quadrate di ordine n, con le operazioni
di somma e prodotto sopra definite, è un anello (non commutativo).

Dimostrazione. Innanzitutto osserviamo che Rn,n è chiuso rispetto al prodotto, in quanto


se A, B ∈ Rn,n , allora AB e BA sono definite e sono ancora matrici n × n. Poiché Rn,n
è un gruppo rispetto alla somma, per 1.3, e valgono le proprietà associativa e distributiva
per 1.7, si ha la tesi. !

Abbiamo già incontrato la nozione di elemento invertibile in un anello. Nel caso


particolare di Rn,n abbiamo dunque la

1.11. Definizione. La matrice A ∈ Rn,n si dice invertibile se esiste B ∈ Rn,n tale che
AB = BA = In . In tal caso la matrice B si denota con A−1 e si dice inversa di A.

Nell’anello Rn,n delle matrici quadrate di ordine n, non tutti gli elementi hanno inverso
moltiplicativo. Ad esempio la matrice
! "
1 1
A= ∈ R2,2
0 1

è invertibile con inversa ! "


−1 1 −1
A = .
0 1
Invece la matrice ! "
1 2
A= ∈ R2,2
1 2
non è invertibile. Infatti, si verifica che l’“equazione matriciale”
! "! " ! "
1 2 x y 1 0
=
1 2 z t 0 1

non ha soluzione.

1.12. Proposizione - Definizione. L’insieme delle matrici invertibili di Rn,n è un


gruppo rispetto al prodotto di matrici. Tale gruppo si dice gruppo lineare di ordine n
e si denota con GL(n, R) o, se non c’è possibilità di equivoco, con GL(n).

Dimostrazione. Proviamo innanzitutto che GL(n, R) è chiuso rispetto al prodotto di ma-


trici. Se A e B sono invertibili, anche AB è inver- tibile, poiché ammette inversa, che
è B −1 A−1 ; infatti, per l’associatività del prodotto: (AB)(B −1 A−1 ) = A(BB −1 )A−1 =

53
AA−1 = In . Dunque (AB)−1 = B −1 A−1 .
E’ chiaro che In ∈ GL(n, R), in quanto In−1 = In . Inoltre In è l’elemento neutro di
GL(n, R).
Infine, se A ∈ GL(n, R), allora A−1 ∈ GL(n, R); infatti l’inversa di A−1 è A. !

Si noti che GL(n, R) non è commutativo: ad esempio si può verificare che le matrici
A e B dell’osservazione 1.6 sono invertibili.

In seguito vedremo come sia utile al fine di semplificare alcune dimostrazioni associare
ad una matrice A una matrice da essa ottenuta scambiando le righe con le colonne. Più
precisamente:

1.13. Definizione. Sia A = (aij ) ∈ Rm,n ; si dice trasposta di A e si indica con t A la


matrice t A = (bij ) ∈ Rn,m , dove bij = aji .
⎛ ⎞
! " 1 3
1 2 −1
1.13.1. Esempio. Se A = ∈ R2,3 allora t A = ⎝ 2 0 ⎠ e t A ∈ R3,2 .
3 0 1
−1 1

Nella seguente proposizione diamo alcune proprietà delle matrici trasposte.

1.14. Proposizione. Valgono i seguenti fatti:


i) se A, B ∈ Rm,n allora: t (A + B) = t A + t B;
ii) se A ∈ Rm,n e se B ∈ Rn,p , allora t (AB) = t B t A;
iii) se A ∈ Rn,n ed A è invertibile, allora anche t A è invertibile e (t A)−1 = t (A−1 ).

Dimostrazione. i) Ovvio. ii) Si ponga AB = (cij ), t A = (a′ij ) e t B = (b′ij ). Allora


$n ′ ′
cij = h=1 aih bhj , aij = aji e bij = bji . L’elemento di posto ij di t (AB) è dunque
$n t t
$ n ′ ′
h=1 ajh bhi ; l’elemento di posto ij di B A è h=1 bih ahj ; chiaramente tali elementi
coincidono, per ogni i e j.
iii) E’ sufficiente provare che t (A−1 ) t A = In . Per ii)

t
(A−1 ) t A = t (AA−1 ) = t (In ) = In .

2. Rango di una matrice


Il rango di una matrice è una misura dell’indipendenza lineare dei suoi vettori righe
o, equivalentemente, dei suoi vettori colonna.

54
2.1. Definizione. Sia A = (aij ) ∈ Rm,n . Abbiamo visto che le m righe di A:

R1 = (a11 , . . . , a1n ), ... , Rm = (am1 , . . . , amn )

si possono interpretare come elementi di Rn . Si dice spazio delle righe di A, e si indica


con R = R(A), il sottospazio vettoriale di Rn generato dai vettori R1 , . . . , Rm , da cui si
ha R = L(R1 , . . . , Rm ). Analogamente, dette
⎛ ⎞ ⎛ ⎞
a11 a1n
⎜ a21 ⎟ ⎜ a2n ⎟
C1 = ⎜ ⎟
⎝ ... ⎠ , ··· , Cn = ⎜ ⎟
⎝ ... ⎠
am1 amn

le colonne di A, lo spazio delle colonne di A è il sottospazio vettoriale di Rm definito da


C = C(A) = L(C1 , . . . , Cn ).

2.2. Osservazione. E’ evidente che lo spazio delle righe di una matrice A è uguale allo
spazio delle colonne di t A e viceversa.

2.3. Teorema. Sia A = (aij ) ∈ Rm,n . Allora dim(R) = dim(C).

Dimostrazione. Proviamo dapprima che, se dim(R) = r, allora deve essere dim(C) ≤ r.


A meno di un cambio di coordinate nello spazio Rm di cui è sottospazio C, si può supporre
che le prime r righe R1 , . . . , Rr siano linearmente indipendenti; dunque le restanti sono
loro combinazioni lineari. Pertanto la matrice A ha la forma:
⎛ R1 ⎞ ⎛ a11 ··· a1n ⎞
⎜ ..
⎟ ⎜ .. .. ⎟
⎜ .
⎟ ⎜ . . ⎟
⎜ ⎟ ⎜ ··· ⎟
⎜ $ Rr ⎟ ⎜ $ ar1 $r a rn ⎟
A=⎜ r r+1 ⎟ = ⎜ r λr+1 a r+1 ⎟.
λ
⎜ i=1 i R i⎟ ⎜ i1 ··· λ ain ⎟
⎜ . ⎟ ⎜ i=1 . i i=1 i
.. ⎟
⎝ . ⎠ ⎝ . ⎠
$r . m $r . m $r .
m
i=1 λi Ri i=1 λi ai1 ··· i=1 λi ain

Pertanto, per ogni h = 1, . . . , n, la h-esima colonna è della forma:


⎛ a1h ⎞ ⎞ ⎛ ⎛ ⎞
1 0
⎜ a2h ⎟ ⎜ 0 ⎟ ⎜ 0 ⎟
⎜ .. ⎟ ⎜ . ⎟ ⎜ . ⎟
⎜ . ⎟ ⎜ .. ⎟ ⎜ .. ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ a ⎟ ⎜ 0 ⎟ ⎜ 1 ⎟
Ch = ⎜ $ rh ⎟ = a1h ⎜ ⎟ + · · · + arh ⎜ ⎟.
⎜ r λr+1 a ⎟ ⎜ λr+1 ⎟ ⎜ λr+1 ⎟
⎜ i=1 i ih ⎟ ⎜ 1 ⎟ ⎜ r ⎟
⎜ .. ⎟ ⎜ . ⎟ ⎜ . ⎟
⎝ ⎠ ⎝ .. ⎠ ⎝ .. ⎠
$r . m
i=1 λi aih
λm
1 λm
r

55
Dunque C è generato dalle r colonne
⎛ ⎞ ⎛ ⎞
1 0
⎜ 0 ⎟ ⎜ 0 ⎟
⎜ . ⎟ ⎜ . ⎟
⎜ .. ⎟ ⎜ .. ⎟
⎜ ⎟ ⎜ ⎟
⎜ 0 ⎟ ⎜ 1 ⎟
⎜ ⎟ , · · · , ⎜ ⎟.
⎜ λr+1 ⎟ ⎜ λr+1 ⎟
⎜ 1 ⎟ ⎜ r ⎟
⎜ . ⎟ ⎜ . ⎟
⎝ .. ⎠ ⎝ .. ⎠
λm
1 λm
r

pertanto dim(C) ≤ r.
L’altra disuguaglianza dim(C) ≥ dim(R) si dimostra in modo del tutto analogo, scam-
biando le righe con le colonne e quindi si ha la tesi. !

Ne segue che dim(R) = dim(C) è un invariante numerico della matrice A. Possiamo


quindi dare la seguente:

2.4. Definizione. Data una matrice A ∈ Rm,n , si dice rango di A e si indica con ρ(A) il
numero dim(R) = dim(C), cioè la dimensione dello spazio delle sue righe (coincidente con
la dimensione dello spazio delle sue colonne).

2.5. Corollario. Sia A ∈ Rm,n . Allora ρ(A) = ρ(t A).

Dimostrazione. Evidente dal fatto che ρ(A) è la dimensione dello spazio delle righe di A, il
quale coincide con lo spazio delle colonne di t A; tale spazio ha dimensione uguale a ρ(t A)
per definizione. !

La nozione di rango è fondamentale, non solo in quanto invariante di una matrice, ma


anche per le possibili applicazioni. Si pensi, ad esempio, ad una matrice M le cui colonne
(o righe) rappresentino un sistema di generatori di uno spazio vettoriale V ; in tal caso il
rango di M coincide con la dimensione di V . E’ giustificata quindi la ricerca di metodi che
rendano semplice il calcolo del rango di una matrice.

E’ evidente che ρ(A) ≤ min(m, n). D’altra parte abbiamo la definizione seguente.

2.6. Definizione. Sia A ∈ Rm,n . Diremo che A è di rango massimo se ha il massimo


rango possibile ovvero se
ρ(A) = min(m, n).

Per quanto segue, è utile introdurre la seguente nozione:

2.7. Definizione. Una matrice B si dice sottomatrice di A se si ottiene intersecando p


righe e q colonne di A.

56
⎛ ⎞
1 1 1 1 1
⎜1 2 1 1⎟2
2.7.1. Esempio. Sia A = ⎝ ⎠; la sottomatrice di A ottenuta intersecando
1 2 1 1 2
1 1 1 1 1 ! "
2 2
la seconda e la quarta colonna con la seconda e la terza riga è B = .
2 2

2.8. Osservazione. Si noti che, se B è la sottomatrice di A ∈ Rm,n costituita da alcune


colonne di A, cioè

B = (Ci1 · · · Cis ) con 1 ≤ i1 < · · · < i s ≤ n

allora ρ(B) ≤ ρ(A), in quanto

C(B) = L(Ci1 · · · Cis ) ⊆ L(C1 · · · Cn ) = C(A).

Analogamente, se B è una sottomatrice costituita da alcune righe di A, allora ρ(B) ≤ ρ(A).


In generale si ha il seguente risultato la cui dimostrazione è immediata.

2.9. Proposizione. Se B è una qualunque sottomatrice di A ∈ Rm,n , allora ρ(B) ≤ ρ(A).

Le osservazione seguenti ci permetteranno di definire in seguito una classe di matrici


per cui è semplice calcolare il rango.

2.10. Osservazioni. Aggiungendo righe e colonne nulle ad una matrice, il rango non
cambia. Inoltre, date le matrici
⎛ ⎞ ⎛ ⎞
R1 RΠ(1)
⎜ R2 ⎟ ⎜ RΠ(2) ⎟
⎜ ⎟ ⎜ ⎟
A = ⎝ .. ⎠ e B = ⎜ . ⎟,
. ⎝ . ⎠.
Rm RΠ(m)

dove B è ottenuta da A mediante una permutazione Π sulle righe, si ha ρ(A) = ρ(B).


Analogamente, date le matrici

A′ = (C1 , . . . , Cn ) e B ′ = (CΠ(1) , . . . , CΠ(n) )

dove B ′ è ottenuta da A mediante una permutazione Π sulle colonne, si ha ρ(A′ ) = ρ(B ′ ).


Infatti ρ(A) = ρ(B) in quanto A e B hanno lo stesso spazio delle righe, e ρ(A′ ) = ρ(B ′ )
poiché A′ e B ′ hanno lo stesso spazio delle colonne.

Vediamo dapprima alcune matrici per le quali è facile calcolare il rango.

2.11. Definizione. Una matrice A = (aij ) ∈ Rn,n si dice diagonale se aij = 0 per i ̸= j.

57
Ad esempio la matrice
⎛ ⎞
1 0 0 0
⎜0 2 0 0 ⎟
A=⎝ ⎠
0 0 0 0
0 0 0 −3
è diagonale.
Si osservi che il rango di una matrice diagonale è uguale al numero delle righe (o
delle colonne) non nulle, poiché i vettori riga non nulli sono multipli di vettori della base
canonica di Rn e quindi indipendenti. Infatti, nell’esempio precedente si ha R1 = e1 ,
R2 = 2e2 , R3 = 0, R4 = −3e4 , quindi R = L(e1 , e2 , e4 ), da cui ρ(A) = 3.

Una classe più ampia di matrici per le quali è ancora semplice calcolare il rango è la
seguente:

2.12. Definizione. Sia A = (aij ) ∈ Rn,n una matrice quadrata; A si dice triangolare
superiore se aij = 0 per i > j. Si dice invece che A è triangolare inferiore se aij = 0 per
i < j. Inoltre, se aii ̸= 0 per ogni i, allora A si dice triangolare superiore (o inferiore)
completa.

2.12.1. Esempio. Le matrici


⎛ ⎞ ⎛ ⎞
1 0 3 1 0 0
A = ⎝0 2 0 ⎠ e B = ⎝0 2 0⎠
0 0 −1 1 1 4

sono, rispettivamente, triangolare superiore e inferiore (complete).

2.13. Teorema. Sia A ∈ Rn,n una matrice triangolare superiore completa. Allora

ρ(A) = n.

Dimostrazione. Sia
⎛ ⎞
a11 a12 ··· a1n
⎜ 0 a22 ··· a2n ⎟
A=⎜
⎝ ... .. .. ⎟ .
. . ⎠
0 0 ··· ann
Basta provare che le n colonne C1 , . . . , Cn sono linearmente indipendenti.
Sia dunque λ1 C1 + · · · + λn Cn = 0, cioè, per esteso,
⎛λ a + ··· + λ ⎞ ⎛ ⎞
1 11 n−1 a1n−1 + λn a1n 0
⎜ .. ⎟ ⎜ ... ⎟
⎜ . ⎟ = ⎜ ⎟.
⎝ ⎠ ⎝0⎠
λn−1 an−1 n−1 + λn an−1 n
λn ann 0

58
Da tale relazione, uguagliando le n-esime componenti di ambo i membri, si ha

λn ann = 0

e quindi, poiché ann ̸= 0, segue λn = 0. Analogamente le (n − 1)-esime componenti danno

λn−1 an−1,n−1 + λn an−1,n = 0

e poiché λn = 0 e an−1,n−1 ̸= 0, segue λn−1 = 0.


Ripetendo il ragionamento, si prova che λn = λn−1 = · · · = λ1 = 0. !

Si può generalizzare il concetto di matrice triangolare nel caso di matrici non quadrate:

2.14. Definizione. Una matrice A = (aij ) ∈ Rm,n si dice triangolare superiore (breve-
mente TS) se aij = 0 per i > j. A si dice triangolare superiore completa (brevemente TSC)
se, inoltre, aii ̸= 0 per ogni i. Del tutto analoghe sono le definizioni di matrice triangolare
inferiore (TI) e di triangolare inferiore completa (TIC).

2.15. Osservazione. Sia A ∈ Rm,n e si ponga p = min(m, n); se A è triangolare superiore


(completa) allora la sottomatrice B di A ottenuta intersecando le prime p righe e le prime
p colonne è una matrice quadrata p × p triangolare superiore (completa).

2.15.1. Esempio. Le matrici


⎛ ⎞ ⎛ ⎞
1 0 −3
1 2 3 9
⎜0 2 0 ⎟ ⎝
A=⎝ ⎠ e ′
A = 0 2 0 7 ⎠
0 0 −1
0 0 4 −3
0 0 0

sono TSC. Inoltre le sottomatrici


⎛ ⎞ ⎛ ⎞
1 0 −3 1 2 3
B = ⎝0 2 0 ⎠ e ′ ⎝
B = 0 2 0⎠
0 0 −1 0 0 4

sono quadrate TSC come osservato in 2.15.

2.16. Corollario. Se A ∈ Rm,n è TSC, allora ρ(A) = min(m, n).

Dimostrazione. Consideriamo dapprima il caso n ≥ m. Allora, per 2.6, ρ(A) ≤ m ed A è


della forma ⎛a
11 a12 a13 . . . a1m−1 a1m ∗ ... ∗⎞
⎜ 0 a22 a23 . . . a2m−1 a2m ∗ ... ∗⎟
⎜ ⎟
A=⎜ 0 0 a33 . . . a3m−1 a3m ∗ ... ∗⎟. (∗)
⎜ . .. .. .. .. .. .. ⎟
⎝ . ⎠
. . . . . . .
0 0 0 ... 0 amm ∗ ... ∗

59
Sia B la sottomatrice di A costituita dalle prime m colonne di A. Poiché, per 2.15, B è
TSC, allora dal teorema 2.13 segue che C1 , . . . , Cm sono linearmente indipendenti. Quindi
ρ(A) ≥ m e dunque la tesi. Se, invece, n < m, allora ρ(A) ≤ n, sempre per 2.6, ed A è
della forma, ⎛ ⎞
a11 a12 a13 . . . a1n
⎜ 0 a22 a23 . . . a2n ⎟
⎜ ⎟
⎜ 0 0 a33 . . . a3n ⎟
⎜ . .. .. .. ⎟
⎜ . ⎟
⎜ . . . . ⎟
A=⎜ ⎟. (∗∗)
⎜ 0 0 0 . . . ann ⎟
⎜ ⎟
⎜ 0 0 0 ... 0 ⎟
⎜ . .. .. .. ⎟
⎝ .. . . . ⎠
0 0 0 ... 0
Eliminando le righe nulle si ha una matrice di tipo (∗), quindi ρ(A) = n. !

Le matrici A e A′ dell’esempio 2.15.1 sono entrambe TSC ed il loro rango è 3.

3. Matrici ridotte

Vedremo che è particolarmente semplice calcolare il rango di matrici ottenute da una


matrice TSC A, aggiungendo righe nulle e permutando le colonne; infatti in tal caso il
rango è uguale al numero di righe non nulle della matrice. Diamo dunque la seguente:

3.1. Definizione. Sia A ∈ Rm,n e sia A′ ∈ Rm ,n la matrice ottenuta da A eliminando le
(eventuali) righe nulle. Se esiste una permutazione ΠC delle colonne di A′ tale che
Π
A′ −−−c→A′′
con A′′ matrice TSC, allora A si dice ridotta per righe.
(Si osservi che, in tal caso, si ha necessariamente che m′ ≤ n.)

Osserviamo che la matrice (∗∗) della dimostrazione di 2.16 è ridotta per righe.

3.1.1. Esempio. Si consideri la matrice


⎛ ⎞
0 1 3
⎜0 0 0 ⎟
A=⎝ ⎠.
2 0 0
0 0 −1
Eliminando la seconda riga e scambiando le prime due colonne, si ha la matrice TSC
⎛ ⎞
1 0 3
A′ = ⎝ 0 2 0 ⎠
0 0 −1

60
quindi ρ(A) = ρ(A′ ) = 3.

Si ha dunque il seguente

3.2. Teorema. Se A è una matrice ridotta per righe, allora le sue righe non nulle sono
linearmente indipendenti. In particolare, ρ(A) è uguale al numero di righe non nulle di A.

Dimostrazione. Sia A′ la sottomatrice di A ottenuta eliminando le righe nulle. Per 2.10,


ρ(A) = ρ(A′ ). Sia ora A′′ la matrice TSC ottenuta da A′ con una opportuna permutazione
delle colonne. Per 2.10, si ottiene ρ(A′ ) = ρ(A′′ ). Poiché A′′ è TSC, per 2.16, il suo rango
ρ(A′′ ) è uguale al numero delle sue righe, quindi al numero delle righe non nulle di A. !

Partendo dalle matrici ridotte per righe, si può costruire un’altra classe di matrici il
cui rango è facilmente calcolabile: si tratta delle matrici ottenute trasponendo una matrice
ridotta per righe. Infatti, se A è una matrice ridotta per righe, la matrice trasposta t A
si dirà “ridotta per colonne”. Si osservi che, per 2.5, ρ(t A) = ρ(A) e pertanto il calcolo
del rango di una matrice ridotta per colonne è immediato, in quanto uguale al numero di
colonne non nulle. Più precisamente:

3.3. Definizione. Una matrice A si dice ridotta per colonne se, eliminando le colonne
nulle e permutando opportunamente le righe, si ottiene una matrice del tipo B, con

⎛ ⎞
a11 0 0 ... 0
⎜ a21 a22 0 ... 0 ⎟
⎜ ⎟
⎜ a31 a32 a33 ... 0 ⎟
⎜ .. .. .. .. ⎟
⎜ ⎟
⎜ . . . . ⎟
B=⎜ ⎟.
⎜ am1 am2 am3 ... amm ⎟
⎜ ⎟
⎜ ∗ ∗ ∗ ... ∗ ⎟
⎜ . .. .. .. ⎟
⎝ .. . . . ⎠
∗ ∗ ∗ ... ∗

3.4. Osservazione. Il lettore può facilmente verificare che le considerazioni svolte in


questo paragrafo si possono ripetere partendo dal concetto di matrice triangolare inferiore
completa. Infatti, basta scambiare le parole “riga” e “colonna” e si hanno i risultati
analoghi a 2.13 (per matrici quadrate TIC), 2.16 (per matrici TIC qualunque) e 3.2 (matrici
ridotte per colonne).

3.5. Teorema (Caratterizzazione delle matrici ridotte).


Una matrice è ridotta per righe se e solo se gode della seguente proprietà:
(PR ) : in ogni riga non nulla esiste almeno un elemento non nullo al di sotto del quale ci
sono solo zeri.
Una matrice è ridotta per colonne se e solo se gode della seguente proprietà:

61
(PC ) : in ogni colonna non nulla esiste almeno un elemento non nullo alla destra del quale
ci sono solo zeri.

3.6. Definizione. Se una matrice è ridotta per righe, un elemento non nullo della riga i-
esima al di sotto del quale ci sono solo zeri è detto elemento speciale di Ri . Analogamente si
definisce un elemento speciale di una colonna non nulla di una matrice ridotta per colonne.

3.6.1. Esempio. Vediamo, applicato ad un esempio, il teorema 3.5. Sia


⎛ ⎞
1 −1 1 1
⎜ 0 0 2 −1 ⎟
A=⎝ ⎠.
2 0 0 0
0 0 0 1
Osserviamo che A gode della proprietà (PR ): gli elementi in grassetto (uno per ogni riga)
sono elementi speciali di A. Con opportune permutazioni di colonne, si ottengono le matrici
⎛ ⎞ ⎛ ⎞
−1 1 1 1 −1 1 1 1
C1 ↔C2 ′ ′
⎜ 0 0 2 −1 ⎟ C2 ↔C3 ′′ ⎜ 0 2 0 −1 ⎟
A −−−−−→ A′ = ⎝ ⎠ −− − −−→ A =⎝ ⎠
0 2 0 0 0 0 2 0
0 0 0 1 0 0 0 1
dove con Ci ↔ Cj si intende lo scambio della i-esima e della j-esima colonna. Chiaramente
A′′ è di tipo TSC, dunque, per definizione, A è ridotta per righe.

4. Riduzione di matrici

Avendo ora a disposizione una “buona” classe di matrici (quelle ridotte) delle quali
sappiamo calcolare il rango, cerchiamo un procedimento che ci permetta di associare ad
una matrice qualsiasi una matrice ridotta che abbia lo stesso rango.

Vediamo alcune procedure che mostreremo preservare lo spazio delle righe di una
matrice e che vengono dette trasformazioni elementari sulle righe:
D) sostituzione di una riga Ri con Ri + aRj , ove a ∈ R e j ̸= i;
s) scambio di Ri con Rj ;
λ) sostituzione di una riga Ri con λRi , ove λ ∈ R∗ = R \ {0R }.

Notiamo che nella trasformazione s) la lettera s sta per scambio; nella trasformazione
λ) la lettera λ sta per prodotto per uno scalare λ; infine D sta per “determinante” e il
motivo di tale scelta sarà chiaro in seguito.

4.1. Definizione. Date due matrici A, A′ ∈ Rm,n , A′ si dice trasformata per righe di A
se A′ è ottenuta da A mediante un numero finito di successive trasformazioni elementari
sulle righe di tipo D), s), λ).

62
4.2. Proposizione. Siano A, A′ ∈ Rm,n , con A′ trasformata per righe di A. Allora lo
spazio R(A) delle righe di A e lo spazio R(B) delle righe di A′ coincidono; in particolare
ρ(A) = ρ(A′ ).

Dimostrazione. Sia A′ ottenuta da A con una trasformazione di tipo D), ad esempio


Ri −→ Ri + aRj . E’ evidente che R(A′ ) ⊆ R(A), poiché

R(A′ ) = L(R1 , . . . , Ri−1 , Ri + aRj , Ri+1 , . . . , Rm )

e
R(A) = L(R1 , . . . , Ri−1 , Ri , Ri+1 , . . . , Rm ).
Proveremo ora che R(A) ⊆ R(A′ ). Poiché le righe di A′ sono uguali a quelle di A eccetto
la i-esima, basterà provare che la i-esima riga Ri di A è combinazione lineare delle righe
di A′ . Infatti si ha Ri = (Ri + aRj ) − aRj , da cui la tesi.
I casi s) e λ) sono evidenti. Ne segue che operando successivamente un numero finito di
trasformazioni D), s), λ), lo spazio delle righe non varia. !

4.2.1. Esempio. Sia ⎛ ⎞


1 0 1
A=⎝ 2 1 −1 ⎠ .
−1 1 0
Operiamo sulle righe di A con trasformazioni di tipo D):
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
R2 →R2 −2R1 1 0 1 R3 →R3 +R1 1 0 1 R3′ →R3′ −R2′ 1 0 1
A −−−−−−−→ ⎝ 0 ⎠ ⎝
1 −3 −−−−−−−→ 0 1 −3 −−−−−−−→ 0 1⎠ ⎝ −3 ⎠ = B.
−1 1 0 0 1 1 0 0 4

La matrice B è ridotta per righe. Quindi ρ(A) = ρ(B) = 3.

L’esempio precedente indica come si può procedere in generale.

4.3. Proposizione. Sia A una matrice; esiste una opportuna successione di trasformazioni
elementari di tipo D) sulle righe, tale che la matrice B ottenuta da tale procedimento è
ridotta per righe.

Dimostrazione. Sia A = (aij ) ∈ Rm,n . Vogliamo individuare una possibile serie di trasfor-
mazioni elementari che ci permettano di passare da A ad una matrice B che goda della
proprietà (PR ).
Sia Ri la prima riga non nulla di A e sia aij il primo elemento non nullo di Ri . Per ottenere
una matrice A′ che abbia tutti zeri sotto l’elemento aij si opera, con trasformazioni di tipo
D), come segue:
Rk −→ Rk − akj aij −1 Ri
per ogni k > i.
Si consideri ora la matrice A′ = (a′ij ) cosı̀ ottenuta. Si osservi che le prime i righe di A′

63
sono uguali alle corrisponenti righe di A; inoltre l’elemento a′ij = aij ha tutti zeri al di
sotto. Sia ora Rh′ la prima riga non nulla di A′ , con h > i. Sia a′hp il primo elemento non
nullo di Rh′ . Procedendo come prima, si operano le trasformazioni di tipo D):
−1
Rk′ −→ Rk′ − a′kp a′hp Rh′

per ogni k > h.


Si ottiene dunque una matrice A′′ . Iterando il procedimento (un numero finito di volte) si
perviene ad una matrice B, che è ridotta per righe in quanto gode della proprietà (PR ). !

4.4. Definizione. Si dice riduzione per righe (rispettivamente riduzione per colonne) di
una matrice A, una successione di trasformazioni elementari sulle righe (risp. colonne) tale
che la matrice A′ ottenuta alla fine del procedimento è ridotta per righe (risp. colonne).

4.5. Osservazione. Nella dimostrazione di 4.3 si sono utilizzate solo trasformazioni


elementari di tipo D). Tuttavia in alcuni casi, per semplificare i calcoli, può essere utile
impiegare anche trasformazioni di tipo s) e λ).

4.5.1. Esempio. Riduciamo per righe la matrice


⎛ ⎞
0 1 0 0
⎜0 1 2 −1 ⎟
A=⎝ ⎠.
0 0 0 9
1 3 1 5

Tale matrice si può ridurre operando come in 4.3 con sole trasformazioni di tipo D). In
questo caso è però conveniente scambiare la prima con la quarta riga. Infatti si ha:
⎛ ⎞
1 3 1 5
R1 ↔R4
⎜ 0 1 2 −1 ⎟
A −−−−−−−→ ⎝ ⎠ = B.
0 0 0 9
0 1 0 0

Come si può osservare, B è già ridotta per righe; segue che ρ(A) = ρ(B) = 4.

4.5.2. Esempio. Si consideri la matrice


⎛ ⎞
2 1 −1 1

A= 3 1 1 −1 ⎠ .
0 1 1 9

Per ridurre A si può operare iniziando con la trasformazione di tipo D): R2 → R2 − 3/2R1
ottenendo ⎛ ⎞
2 1 −1 1
A′ = ⎝ 0 −1/2 5/2 −5/2 ⎠ .
0 1 1 9

64
E’ evidente che, continuando la riduzione come al solito, i calcoli si complicano sempre più,
poiché i coefficienti della matrice non sono interi. A tale fatto si può ovviare, ad esempio,
come segue:
⎛ ⎞ ⎛ ⎞
R2 →2R2 2 1 −1 1 R3′ →R2′ +R3′ 2 1 −1 1
A −−−−−−−→ ⎝ 0 −1 5 −5 ⎠ −−−−−−−→ ⎝ 0 −1 5 −5 ⎠
0 1 1 9 0 0 6 4

una TSC da cui ρ(A) = 3.

Quanto visto sopra risolve il problema iniziale del calcolo del rango di una matrice
qualsiasi; infatti si ha:

4.6. Osservazione. Se A′ è ottenuta da A mediante riduzione (per righe o per colonne),


segue immediatamente da 4.2 che R(A′ ) = R(A) e, in particolare, che ρ(A′ ) = ρ(A).

La più semplice applicazione della riduzione di matrici è la determinazione della di-


mensione e di una base di un sottospazio vettoriale.

Sia V = L(v1 , . . . , vr ) un sottospazio vettoriale di Rn . Ci proponiamo di determinare


la dimensione e una base di V . A tale scopo associamo in modo naturale al sistema di
generatori v1 , . . . , vr di V una matrice, le cui righe (o colonne) sono i vettori suddetti:
⎛ ⎞
v1
.
A = ⎝ .. ⎠ oppure B = ( v1 ··· vr ) .
vr

Utilizziamo, ad esempio, la prima di queste due rappresentazioni, dunque R(A) = V .


Riduciamo A per righe, ottenendo una matrice
⎛ ⎞
w1
.
A′ = ⎝ .. ⎠ .
wr

Da 4.6 abbiamo: dim(V ) = dim(R(A)) = ρ(A) = ρ(A′ ), cioè dim(V ) è uguale al numero
di righe non nulle di A′ . Inoltre le righe non nulle di A′ costituiscono una base di V , in
quanto V = R(A) = R(A′ ).

Vediamo alcuni esempi.

4.6.1. Esempio. Si consideri l’insieme I = {v1 , v2 , v3 , v4 , v5 } di vettori di R4 , dove v1 =


(1, −1, 2, 1), v2 = (−2, 2, −4, −2), v3 = (1, 1, 1, −1), v4 = (−1, 3, −3, −3), v5 = (1, 2, 1, 2).
Posto V = L(I) ⊂ R4 :

65
a) determinare una base B di V , con B ⊂ I;
b) completare B ad una base C di R4 .
a) Sia A la matrice le cui righe sono costituite dai vettori di I, cioè
⎛ ⎞ ⎛ ⎞
v1 1 −1 2 1
⎜ v2 ⎟ ⎜ −2 2 −4 −2 ⎟
⎜ ⎟ ⎜ ⎟
A = ⎜ v3 ⎟ = ⎜ 1 1 1 −1 ⎟ .
⎝ ⎠ ⎝ ⎠
v4 −1 3 −3 −3
v5 1 2 1 2
Riducendo A per righe si ha:
⎛ ⎞
R2 →R2 +2R1 1 −1 2 1
R3 →R3 −R1 ⎜0 0 0 0 ⎟
⎜ ⎟
A −−−−−−−→ ⎜0 2 −1 −2 ⎟ = A′
⎝ ⎠
R4 →R4 +R1 0 2 −1 −2
R5 →R5 −R1 0 3 −1 1
e ancora ⎛ ⎞
1 −1 2 1
R4′ →R4′ −R3′ ⎜0 0 0 0 ⎟
⎜ ⎟
A′ −−−−−−−→ ⎜0 2 −1 −2 ⎟ = A′′
⎝ ⎠
R5′ →2R5′ −3R3′ 0 0 0 0
0 0 1 8
da cui segue ρ(A) = 3 e quindi dim(V ) = 3. Inoltre una base per V è ad esempio data
dalle 3 righe non nulle di A′′ , poiché R(A) = R(A′′ ). Invece la base B richiesta è data dai
vettori di A corrispondenti alle 3 righe non nulle di A′′ , cioè B = (v1 , v3 , v5 ). Si consideri
infatti la matrice ⎛ ⎞
v1
B = v3 ⎠

v5
e si osservi che con le stesse trasformazioni operate nella riduzione precedente si ottiene la
matrice ⎛ ⎞
1 −1 2 1
B ′′ = ⎝ 0 2 −1 −2 ⎠ .
0 0 1 8
b) Completiamo B ad una base di R4 utilizzando vettori (in questo caso ne basta uno)
della base canonica. E’ sufficiente aggiungere alla matrice B ′′ una riga costituita dalle
componenti di un vettore della base canonica in modo che la matrice ottenuta sia ancora
ridotta; ad esempio con e4 si ha:
⎛ ⎞ ⎛ ⎞
v1 1 −1 2 1
⎜ v3 ⎟ ⎜ 0 2 −1 −2 ⎟
⎝ ⎠ −→ ⎝ ⎠.
v5 0 0 1 8
e4 0 0 0 1

66
Quindi C = (v1 , v3 , v5 , e4 ).

4.6.2. Esempio. Sia I = {v1 , v2 , v3 , v4 } ⊂ R4 dato da v1 = (0, 1, 2, 1), v2 = (0, 1, 1, 1),


v3 = (0, 2, 3, 2), v4 = (1, 2, 2, 1). Posto V = L(I) ⊂ R4 :
a) determinare una base B di V , con B ⊂ I;
b) completare B ad una base C di R4 .
a) Sia A la matrice le cui righe sono costituite dai vettori di I. Riducendo A per righe si
ha: ⎛ ⎞ ⎛ ⎞
v1 0 1 2 1
⎜v ⎟ ⎜0 1 1 1⎟
A=⎝ 2⎠=⎝ ⎠.
v3 0 2 3 2
v4 1 2 2 1
Conviene operare lo scambio R1 ↔ R4 e poi ridurre come di consueto:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 2 2 1 1 2 2 1 1 2 2 1
⎜0 1 1 1 ⎟ R3 →R3 −2R2 ⎜ 0 1 1 1 ⎟ −−−−−−→ ⎜ 0 1 1 1⎟
⎝ ⎠ −−−−−−→ ⎝ ⎠ ⎝ ⎠
0 2 3 2 R4 →R4 −R2 0 0 1 0 R4 →R4 −R3 0 0 1 0
0 1 2 1 0 0 1 0 0 0 0 0
Tenendo conto dello scambio operato e ragionando come nell’esempio precedente, si ha:
B = (v4 , v2 , v3 ).
b) Come in 4.6.1, si ha
⎛ ⎞ ⎛ ⎞
v4 1 2 2 1
⎜ v2 ⎟ ⎜0 1 1 1⎟
⎝ ⎠ −→ ⎝ ⎠,
v3 0 0 1 0
e4 0 0 0 1
da cui risulta C = (v4 , v2 , v3 , e4 ).

4.6.3. Esempio. Con i dati di 4.6.2, vogliamo determinare una base B ⊂ I con il metodo
degli scarti successivi.
Risolveremo tale esercizio con la riduzione di matrici; come al solito sia
⎛ ⎞ ⎛ ⎞
v1 0 1 2 1
⎜v ⎟ ⎜0 1 1 1⎟
A=⎝ 2⎠=⎝ ⎠.
v3 0 2 3 2
v4 1 2 2 1
Si osservi che in 4.6.2 si è operato lo scambio R1 ↔ R4 per semplificare i calcoli; tale
operazione non è in questo caso consentita, poichè condurrebbe ad una base che non
contiene v1 che, invece, essendo non nullo, fa parte della base ottenuta con il metodo degli
scarti successivi. Riduciamo quindi A per righe:
⎛ ⎞ ⎛ ⎞
R2 →R2 −R1 0 1 2 1 0 1 2 1
−−−−−−−→ ⎜ 0 0 −1 0 ⎟ −−−−−−−→ ⎜ 0 0 −1 0 ⎟
A ⎝ ⎠ ⎝ ⎠.
R3 →R3 −2R1 0 0 −1 0 R3′ →R3′ −R2′ 0 0 0 0
R4 →R4 −R1 1 1 0 0 1 1 0 0

67
La base ottenuta è dunque (v1 , v2 , v4 ). Infatti si verifica facilmente che v3 è combinazione
lineare di v1 e v2 . Per vederlo si osservi che R3′ − R2′ = 0, che R3′ = R3 − 2R1 e che
R2′ = R2 − R1 ; da cui risulta R3 − R2 − R1 = 0 e quindi v3 = v1 + v2 .

Il metodo introdotto per ottenere una base di un sottospazio di Rn (ed un suo eventuale
completamento ad una base di Rn ) si può estendere ad uno spazio vettoriale qualunque,
passando attraverso le componenti dei vettori in esame, rispetto ad una base fissata.

4.6.4. Esempio. Sia V = L(I) ⊂ R2,3 con I = {M1 , M2 , M3 , M4 } dove


! " ! "
1 1 1 1 2 1
M1 = , M2 = ,
0 1 0 0 1 1
! " ! "
2 3 2 0 1 1
M3 = , M4 = .
0 2 1 0 1 −1

a) Determinare una base B di V , con B ⊂ I;


b) completare B ad una base C di R2,3 .
a) Per poter impiegare la riduzione di matrici anche in questo caso, è necessario “rappre-
sentare” le matrici M1 , M2 , M3 , M4 come vettori riga: tali righe saranno date dalle com-
ponenti delle matrici Mi rispetto ad una base fissata. Sia E = (Eij | i = 1, 2; j = 1, 2, 3) la
base di R2,3 introdotta in 1.3. Si ha
M1 = E11 + E12 + E13 + E22 = (1, 1, 1, 0, 1, 0)E .
Operando analogamente con le altre matrici Mi si ha la matrice delle componenti:
⎛ ⎞ ⎛ ⎞
M1 1 1 1 0 1 0
⎜ M ⎟ ⎜1 2 1 0 1 1 ⎟
A=⎝ 2⎠=⎝ ⎠.
M3 2 3 2 0 2 1
M4 0 1 1 0 1 −1
Riducendo per righe si ha
⎛ ⎞ ⎛ ⎞
1 1 1 0 1 0 1 1 1 0 1 0
⎜0 1 0 0 0 1 ⎟ ⎜0 1 0 0 0 1⎟
A −→ ⎝ ⎠ −→ ⎝ ⎠.
0 1 0 0 0 1 0 0 0 0 0 0
0 1 1 0 1 −1 0 2 1 0 1 0
Quindi B = (M1 , M2 , M4 ).
b) Completiamo B ad una base C di R2,3 con 3 elementi di E:
⎛ ⎞ ⎛ ⎞
M1 1 1 1 0 1 0
⎜ M2 ⎟ ⎜0 1 0 0 0 1⎟
⎜ ⎟ ⎜ ⎟
⎜ M4 ⎟ ⎜0 2 1 0 1 0⎟
⎜ ⎟ −→ ⎜ ⎟.
⎜ E13 ⎟ ⎜0 0 1 0 0 0⎟
⎝ ⎠ ⎝ ⎠
E21 0 0 0 1 0 0
E22 0 0 0 0 1 0

68
VI - SISTEMI LINEARI

1. Concetti fondamentali

1.1. Definizione. Un’equazione in n incognite x1 , . . . , xn a coefficienti in R si dice lineare


se è della forma:
a 1 x1 + · · · + a n x n = b
con ai ∈ R e b ∈ R. Una sua soluzione è un elemento (α1 , . . . , αn ) di Rn tale che:

a1 α1 + · · · + an αn = b.

1.1.1. Esempio. Si verifica facilmente che l’equazione a coefficienti reali

3x1 − 2x2 + 7x3 = 1

ha come soluzione (2, 6, 1) ∈ R3 . Si osservi che tale soluzione non è unica.

1.2. Definizione. Un insieme di m equazioni lineari nelle n incognite x1 , . . . , xn a


coefficienti in R si dice sistema lineare di m equazioni in n incognite.
Si userà la seguente notazione:

⎪ a11 x1 + a12 x2 + ... + a1n xn = b1

⎨ a21 x1 + a22 x2 + ... + a2n xn = b2
Σ: .. .. .. ..

⎩ .
⎪ . . .
am1 x1 + am2 x2 + ... + amn xn = bm

Una soluzione di un dato sistema lineare è una n-upla (α1 , . . . , αn ) di Rn che è soluzione
di ogni equazione del sistema. L’insieme delle soluzioni del sistema Σ è un sottoinsieme di
Rn , detto spazio delle soluzioni di Σ e denotato con SΣ .
Un sistema si dirà compatibile o risolubile se ammette soluzioni (cioè se SΣ ̸= ∅); se invece
non ha soluzioni, cioè SΣ = ∅, si dirà incompatibile.

1.2.1. Esempio. Il sistema <


x+y =0
x−y =2

ha come soluzione (1, −1).

1.3. Osservazione. Non tutti i sistemi lineari hanno soluzioni. Ad esempio, il sistema
<
x+y =0
x+y =1

69
non ha soluzioni.

Lo scopo di questo capitolo è di stabilire se un sistema lineare è compatibile e, in tal


caso, di determinare tutte le sue soluzioni.

1.4. Definizione. Al sistema lineare Σ si possono associare in modo naturale le seguenti


matrici:
1. A = (aij ) ∈ Rm,n , detta matrice del sistema o matrice dei coefficienti di Σ;
2. B = t (b1 , . . . , bm ) ∈ Rm,1 detta matrice dei termini noti.
Si userà anche la notazione
⎛ * ⎞
a11 a12 ... a1n * b1
*
⎜ a21 a22 ... a2n * b2 ⎟
(A, B) = (aij | bi ) = ⎜
⎝ ... .. .. *
* .. ⎟
. . * . ⎠
*
am1 am2 ... amn bm

per la matrice completa di Σ.


Utilizzando queste matrici, si può rappresentare il sistema Σ nel modo seguente:
⎛ ⎞⎛ ⎞ ⎛ ⎞
a11 a12 ... a1n x1 b1
⎜ a21 a22 ... a2n ⎟ ⎜ x2 ⎟ ⎜b ⎟
Σ:⎜ .. ⎟ ⎜ . ⎟ = ⎜ .2 ⎟
⎝ ... ..
. . ⎠ ⎝ .. ⎠ ⎝ .. ⎠
am1 am2 ... amn xn bm

o, più brevemente,
Σ : AX = B
dove X = t (x1 , . . . , xn ) è la matrice formale delle incognite (il termine “formale” significa
che X non è un elemento di Rn,1 , ma un simbolo che denota una n-upla di incognite).

1.5. Definizione. Due sistemi lineari Σ e Σ′ si dicono equivalenti se hanno le stesse


soluzioni, cioè, in simboli: Σ ∼ Σ′ se SΣ = SΣ′ .

1.6. Osservazione. Siano AX = B e A′ X = B ′ due sistemi lineari; essi sono banalmente


equivalenti in uno dei seguenti casi:
i) se la matrice (A′ , B ′ ) si ottiene aggiungendo ad (A, B) delle righe nulle;
ii) se la matrice (A′ , B ′ ) si ottiene permutando le righe di (A, B).

Ad esempio i seguenti sistemi sono chiaramente equivalenti:


< <
x+y =0 x−y =2
, .
x−y =2 x+y =0

70
2. Risoluzione dei sistemi ridotti

2.1. Definizione. Un sistema lineare AX = B si dice ridotto se la sua matrice dei


coefficienti A è ridotta per righe.
La risoluzione di un sistema ridotto è particolarmente semplice, come mostrano i
seguenti esempi:

2.1.1. Esempio. Il sistema Σ : AX = B dato da:


⎧ ⎛ * ⎞
⎨ x + y + 2z = 4
⎪ 1 1 2 * 4
*
Σ: y − 2z = −3 ⎝
con (A, B) = 0 1 −2 * −3 ⎠
⎪ *
⎩ 0 0 1 * 2
z=2

è ridotto ed ammette una sola soluzione (x, y, z) = (−1, 1, 2), come si verifica facilmente
sostituendo il valore di z = 2 nella seconda equazione, determinando y = 1; infine si
sostituiscono tali valori di y e z nella prima equazione, ottenendo x = −1.

2.1.2. Esempio. Il sistema a coefficienti reali


⎧ ⎛ * ⎞
⎨ 2x + y + 2z + t = 1 2 1 2 1 ** 1
Σ: 2x + 3y − z = 3 con (A, B) = ⎝ 2 3 −1 0 ** 3 ⎠

x+ z = 0 1 0 1 0 *0

si risolve sostanzialmente come in 2.1.1, partendo dall’ultima equazione z = −x. Ponendo


x = τ , si determinano le soluzioni, che sono: (x, y, z, t) = (τ, −τ + 1, −τ, τ ) con τ ∈ R. In
tal caso ci sono infinite le soluzioni e, più precisamente, corrispondono biiettivamente a R.

2.1.3. Esempio. Il sistema Σ : AX = B associato alla matrice


⎛ * ⎞
1 2 1 *3
*
⎜ 0 −1 2 * 1 ⎟
(A, B) = ⎝ * ⎠
0 0 3 *2
*
0 0 0 1

è chiaramente incompatibile poiché l’ultima equazione risulta essere 0 = 1.

2.2. Osservazione. Negli esempi 2.1.1 e 2.1.2 si sono “eliminate” le incognite corrispon-
denti agli elementi speciali selezionati nella matrice A, qui riportati in grassetto, partendo
dal basso verso l’alto:
⎛ * ⎞
1 1 2 ** 4
(A, B) = ⎝ 0 1 −2 ** −3 ⎠ =⇒ si elimina z, poi y e poi x.
0 0 1 * 2

71
Nell’altro esempio
⎛ * ⎞
2 1 2 1 *1
*
(A, B) = ⎝ 2 3 −1 0 *3 ⎠ =⇒ si elimina z, poi y e poi t.
*
1 0 1 0 *0

Gli esempi precedenti suggeriscono, in modo naturale, il seguente

2.3. Metodo delle eliminazioni successive. Sia Σ : AX = B un sistema ridotto.


1. Per l’osservazione 1.6(i), si può supporre che (A, B) non abbia righe nulle e che la
matrice A ∈ Rm,n sia ridotta per righe.
2. Se A ha righe nulle, poiché (A, B) non ha righe nulle, Σ avrà equazioni del tipo 0 = bi ,
con bi ̸= 0, quindi il sistema è incompatibile, cioè SΣ = ∅.
3. Se A non ha righe nulle allora m ≤ n. Quindi, essendo ridotta, ha m elementi speciali
(dunque è di rango m). Si eliminano quindi le incognite corrispondenti a tali elementi
speciali, partendo dall’ultima equazione e risalendo fino alla prima. Per semplicità,
vediamo il procedimento esplicito nel caso in cui A è TSC:
⎛ * ⎞
a11 a12 a13 . . . a1m ∗ . . . ∗ a1n * b1
*
⎜ 0 a22 a23 . . . a2m ∗ . . . ∗ a2n * b2 ⎟
⎜ * ⎟
(A, B) = ⎜ 0 0 a33 . . . a3m ∗ . . . ∗ a3n * b3 ⎟ .
⎜ . .. .. .. .. .. .. * .. ⎟
*
⎝ .. . . . . . . * . ⎠
*
0 0 0 . . . amm ∗ . . . ∗ amn bm
Osserviamo che l’ultima equazione del sistema AX = B è della forma:

amm xm + amm+1 xm+1 + · · · + amn xn = bm ,

con amm ̸= 0. Dividendo ambo i membri per amm , si ricava:

xm = −a−1
mm (amm+1 xm+1 + · · · + amn xn − bm );

si osservi come xm risulti espressa in funzione di xm+1 , . . . , xn .


Analogamente, dalla penultima equazione, si ricava:

xm−1 = −a−1
m−1m−1 (am−1m xm + am−1m+1 xm+1 + · · · + am−1n xn − bm−1 ).

Sostituendo l’espressione di xm precedentemente calcolata, si ottiene xm−1 in funzione


di xm+1 , . . . , xn .
Iterando tale procedimento, si ricavano le incognite xm−2 , xm−3 , . . . , x1 in successione,
in funzione di xm+1 , . . . , xn .

2.4. Osservazione – Definizione. Consideriamo il caso particolare descritto nel Metodo


precedente, in cui il sistema ridotto Σ : AX = B sia compatibile, con (A, B) senza righe

72
nulle e A ∈ Rm,n sia TSC. Abbiamo visto che le m incognite x1 , . . . , xm sono espresse
in funzione delle restanti n − m : xm+1 , . . . , xn ; queste ultime si dicono incognite libere.
Infatti, ogni qualvolta fissiamo xm+1 = λ1 , . . . , xn = λn−m con λi ∈ R, otteniamo una
particolare soluzione del sistema.
Questo accade in generale, anche se A è ridotta ma non necessariamente TSC. In tal modo
si definisce una corrispondenza biunivoca
1−1
Rn−m −−−−→ SΣ

dove n è il numero delle incognite di Σ e m = ρ(A), il rango di A.


Si dirà anche che il sistema ha ∞n−m soluzioni.

3. Risoluzione dei sistemi lineari generali

Dato un qualunque sistema lineare AX = B, uno dei possibili metodi di risoluzione


usa il procedimento di riduzione per righe delle matrici. Più precisamente si ha il seguente

3.1. Teorema. Sia Σ : AX = B un sistema lineare e sia (A′ , B ′ ) una matrice trasformata
per righe di (A, B). Allora i sistemi Σ e Σ′ : A′ X = B ′ sono equivalenti.

Dimostrazione. Come al solito, siano A = (aij ) e B = t (b1 , . . . , bm ).


Se (A′ , B ′ ) è ottenuta da (A, B) con una trasformazione di tipo s, la tesi è ovvia come già
visto in 1.6.
Se (A′ , B ′ ) è ottenuta da (A, B) con una trasformazione di tipo λ sulla riga Ri , la tesi
segue dal fatto che l’equazione lineare

ai1 x1 + · · · + ain xn = bi

è equivalente all’equazione

λai1 x1 + · · · + λain xn = λbi

per ogni λ ̸= 0.
Sia ora (A′ , B ′ ) ottenuta da (A, B) con una trasformazione di tipo D:

Ri −→ Ri + λRj

con j ̸= i. Per semplicità, possiamo supporre i = 2 e j = 1. Dunque


⎛ ⎞
R1
⎜ R2 + λR1 ⎟
(A′ , B ′ ) = ⎜
⎝ .. ⎟.

.
Rm

73
Sia ora α = (α1 , . . . , αn ) una soluzione di Σ, cioè valgono le identità:

ai1 α1 + · · · + ain αn = bi (∗i )

per ogni i = 1, . . . , m. E’ chiaro che α è soluzione di tutte le equazioni di Σ′ , eccetto al


più la seconda. Basta quindi provare che α verifica

(a21 + λa11 )x1 + · · · + (a2n + λa1n )xn = b2 + λb1 .

A tale scopo si sommino, membro a membro, l’eguaglianza (∗2 ) e λ volte l’eguaglianza


(∗1 ), ottenendo:

(a21 + λa11 )α1 + · · · + (a2n + λa1n )αn = b2 + λb1 .

Pertanto (α1 , . . . , αn ) è soluzione di Σ′ , quindi SΣ ⊆ SΣ′ . In modo analogo si prova l’altra


inclusione. !

3.2. Metodo di risoluzione dei sistemi lineari.


Dato il sistema lineare Σ : AX = B, per determinare SΣ si procede come segue:
1. Si riduce per righe la matrice (A, B), ottenendo la matrice (A′ , B ′ ), con A′ ridotta per
righe.
2. Si determina lo spazio delle soluzioni SΣ′ di Σ′ : A′ X = B ′ (usando il metodo di
risoluzione dei sistemi ridotti).
3. Per 3.1, Σ ∼ Σ′ , cioè SΣ = SΣ′ .

3.2.1. Esempio. Risolviamo il sistema lineare



⎨ 2x + y + z = 1
Σ: x−y−z = 0 .

x + 2y + 2z = 1

Riducendo per righe la matrice completa


⎛ * ⎞
2 1 1 *1
*
(A, B) = ⎝ 1 −1 −1 *0 ⎠
*
1 2 2 *1

si ha:
⎛ * ⎞ ⎛ * ⎞
R2 →R2 +R1 2 1 1 ** 1 2 1 1 ** 1
(A, B) −−−−−−−−→ ⎝ 3 0 0 ** 1 ⎠ R3 →R3 +R2 ⎝ 3 0 0 ** 1 ⎠ = (A′ , B ′ ).
−−−−−−−−→
R3 →R3 −2R1 −3 0 0 * −1 0 0 0* 0

74
Poiché A′ è ridotta, il sistema Σ′ : A′ X = B ′ è ridotto e quindi risolubile col metodo delle
eliminazioni successive:
) )
′ 2x + y + z = 1 y + z = 1/3
Σ : =⇒ .
3x = 1 x = 1/3

E’ chiaro che tale sistema ha una sola incognita libera e dunque il sistema ha ∞1 soluzioni;
si può scegliere, ad esempio, z e in tal caso, ponendo z = λ, lo spazio delle soluzioni di Σ
ha la forma:

SΣ = {(x, y, z) ∈ R3 | (x, y, z) = (1/3, 1/3 − λ, λ), λ ∈ R}.

Se, invece, si sceglie y come incognita libera, posto y = α, lo spazio delle soluzioni di Σ ha
la forma:
SΣ = {(x, y, z) ∈ R3 | (x, y, z) = (1/3, α, 1/3 − α), α ∈ R}.
Ovviamente le due espressioni precedenti rappresentano, in modi diversi, lo stesso sottoin-
sieme SΣ di R3 . Si noti che il numero delle incognite libere coincide con la differenza tra
il numero delle incognite ed il rango di A.

3.2.2. Esempio. Risolviamo il sistema lineare



⎨ x + y − z = 0
Σ: 2x − y = 1 .

y + 2z = 2

Riducendo per righe la matrice completa


⎛ * ⎞
1 1 −1 *0
*

(A, B) = 2 −1 0 *1 ⎠
*
0 1 2 *2

si ha:
⎛ * ⎞ ⎛ * ⎞
1 1 −1 ** 0 1 1 −1 ** 0
(A, B) R2 →R2 −2R1 ⎝ 0 −3 2 ** 1 ⎠ R3 →R3 −R2 ⎝ 0 −3 2 ** 1 ⎠ = (A′ , B ′ ).
−−−−−−−−→ −−−−−−−−→
0 1 2 * 2 0 4 0 * 1

Poiché A′ è ridotta, il sistema Σ′ : A′ X = B ′ è ridotto; inoltre il numero delle incognite


libere è zero, dunque Σ′ , e quindi Σ, ha ∞0 = 1 soluzione. Come al solito possiamo
determinarla col metodo delle eliminazioni successive:
⎧ ⎧
⎨x − y + z = 0 ⎨x −z = −1/4

Σ : − 3y + 2z = 1 =⇒ 2z = 7/4
⎩ ⎩
4y = 1 y = 1/4

da cui (x, y, z) = (5/8, 1/4, 7/8). Ancora una volta si noti che il numero delle incognite
libere è dato da 3 − ρ(A) = 0, dove 3 è il numero delle incognite.

75
L’esempio seguente riguarda la discussione di un sistema con parametro: i coefficienti
non sono numeri reali, come nei casi visti in precedenza, ma possono contenere un simbolo
(parametro) che varia in R. La discussione di tali sistemi consiste nel determinare tutti i
valori del parametro per i quali il sistema è risolubile e nel trovare tutte le soluzioni del
sistema in corrispondenza di tali valori.

3.2.3. Esempio. Discutere il seguente sistema lineare nel parametro λ ∈ R:



⎪ x + 2y + z + t = −1

x + y − z + 2t = 1
Σλ : .

⎩ 2x + λy + λt = 0
− λy − 2z + λt = 2

Se si vuole risolvere il sistema con il solito metodo della riduzione per righe, bisogna fare
attenzione quando vengono usate espressioni che coinvolgono il parametro λ:
⎛ ⎞ ⎛ ⎞
1 2 1 1 −1 1 2 1 1 −1
⎜1 1 −1 2 1 ⎟ R2 →R2 −R1 ⎜0 −1 −2 1 2 ⎟
(A, B) = ⎝ ⎠ −−−−−−−→ ⎝ ⎠ −→
2 λ 0 λ 0 0 λ − 4 −2 λ − 2 2
R3 →R3 −2R1
0 −λ −2 λ 2 0 −λ −2 λ 2
⎛ ⎞
1 2 1 1 −1
R3 →R3 −R2
⎜0 −1 −2 1 2 ⎟ ′ ′
−−−−−−−→ ⎝ ⎠ = (A , B ).
0 λ−3 0 λ−3 0
R4 →R4 −R2
0 −λ + 1 0 λ − 1 0

A questo punto è utile eliminare da una delle ultime due righe il parametro λ. Ad esempio,
operando la trasformazione R3 → R3 + R4 e, successivamente, R4 → 2R4 − (λ − 1)R3 , la
matrice (A′ , B ′ ) (dopo aver ulteriormente diviso la terza riga per 2 e la quarta per −2)
diventa:
⎛ ⎞ ⎛ ⎞
1 2 1 1 −1 1 2 1 1 −1
⎜0 −1 −2 1 2 ⎟ ⎜0 −1 −2 1 2 ⎟
⎝ ⎠ −→ ⎝ ⎠
0 −2 0 2λ − 4 0 0 −2 0 λ − 2 0
0 −λ + 1 0 λ−1 0 0 0 0 a44 0

dove a44 = (λ − 3)(λ − 1). Si osservi che l’ultima trasformazione effettuata è corretta per
ogni λ ∈ R; infatti l’unico caso dubbio si ha per λ = 1, per il quale la trasformazione
diventa R4 → 2R4 , che è ancora accettabile.
Si noti ora che a44 = 0 se e solo se λ = 1 oppure λ = 3.
Si conclude dunque che Σλ è sempre risolubile per 2.2; inoltre:
- λ = 1, 3 ⇒ a44 = 0 ⇒ ρ(A) = 3 ⇒ Σλ ha ∞1 soluzioni;
- λ ̸= 1, 3 ⇒ a44 ̸= 0 ⇒ ρ(A) = 4 ⇒ Σλ ha una sola soluzione.

Risolviamo dunque i 3 sistemi lineari:

76
I) λ ̸= 1 e λ ̸= 3

⎪ x + 2y + z + t = −1

− y − 2z + t = 2
Σλ : .

⎩ − y + (λ − 2)t = 0
(λ − 3)(λ − 1)t = 0
Come già osservato, tale sistema ammette un’unica soluzione per ogni λ in R. Possiamo
determinarla col metodo delle eliminazioni successive: poiché (λ − 3)(λ − 1) ̸= 0, possiamo
dividere l’ultima equazione per (λ−3)(λ−1) e dunque ottenere y = 0; risalendo le equazioni
si ottiene: ⎧
⎪ x = 0

z = −1
.
⎩t = 0

y = 0
In questo esempio specifico l’unica soluzione di ogni sistema Σλ , che in generale varia con
il parametro, non dipende da λ.
II) λ = 1
In questo caso l’ultima equazione si riduce all’identità 0 = 0 e quindi viene eliminata. Si
ha quindi il sistema particolare:

⎨ x + 2y + z + t = −1
Σ1 : − y − 2z + t = 2 .

y + t = 0
Ancora col metodo delle eliminazioni successive si ottiene:

⎨x = 0
z = t−1 .

y = −t
quindi le soluzioni del sistema hanno la forma
(x, y, z, t) = (0, −α, α − 1, α).

III) λ = 3
Anche in questo caso l’ultima equazione si riduce all’identità 0 = 0 e quindi viene eliminata.
Si ha quindi il sistema particolare:

⎨ x + 2y + z + t = −1
Σ3 : − y − 2z + t = 2

− y + t = 0
da cui ⎧
⎨x = −3t
z = −1

y = t
pertanto le soluzioni di Σ3 : sono (x, y, z, t) = (−3α, α, −1, α).

Riassumiamo quanto detto precedentemente nel seguente teorema, che fornisce un


criterio generale di risolubilità dei sistemi lineari.

77
3.3. Teorema. (Rouché–Capelli). Dato il sistema lineare Σ : AX = B, si ha:
a) Σ ha soluzioni se e solo se ρ(A) = ρ(A, B).
Nel caso in cui il sistema abbia soluzioni, posti ρ := ρ(A) = ρ(A, B) e n il numero
delle incognite di Σ, si hanno i seguenti fatti:
b) le incognite libere sono n − ρ;
c) si possono scegliere come incognite libere certe n − ρ incognite se e solo se le restanti
sono corrispondenti a ρ colonne di A linearmente indipendenti.

Dimostrazione. a) Osserviamo dapprima che il sistema Σ si può scrivere come

x 1 C1 + · · · + x n Cn = B

dove C1 , . . . , Cn sono le colonne di A. Pertanto il sistema è risolubile se e solo se B è


combinazione lineare di C1 , . . . , Cn se e solo se lo spazio delle colonne di A coincide con
quello di (A, B). Quindi Σ è risolubile se e solo se ρ(A) = ρ(A, B).
b) Sia Σ′ : A′ X = B ′ il sistema ridotto ottenuto riducendo (A, B) per righe. Per 2.4. Σ′
ha n − ρ(A′ ) incognite libere. Essendo Σ e Σ′ equivalenti e ρ(A) = ρ(A′ ), ne segue la tesi.
c) Cambiando eventualmente l’ordine delle incognite, ci si può ricondurre a provare che,
posta A = (C1 , . . . , Cn ), allora

xρ+1 , . . . , xn sono libere ⇔ C1 , . . . , Cρ sono linearmente indipendenti.

Supponiamo dapprima che C1 , . . . , Cρ siano linearmente indipendenti.


Posto A = (C1 , . . . , Cρ ), riducendo opportunamente (A, B) per righe (scegliendo gli ele-
menti speciali in A), permutando eventualmente le equazioni e le prime ρ incognite, tenuto
conto del fatto che
ρ(A) = ρ(A, B) = ρ,
la matrice del sistema ottenuto è della forma:
⎛ ⎞
a11 a12 a13 ... a1ρ ∗ ... ∗ b1
⎜ 0 a22 a23 ... a2ρ ∗ ... ∗ b2 ⎟
⎜ ⎟
⎜ 0 0 a33 ... a3ρ ∗ ... ∗ b3 ⎟
⎜ . .. .. .. .. .. .. ⎟
⎜ . ⎟
⎜ . . . . . . . ⎟.
⎜ ⎟
⎜ 0 0 0 ... aρρ ∗ ... ∗ bρ ⎟
⎜ ⎟
⎜ 0 0 0 ... 0 0 ... 0 0⎟
⎜ . .. .. .. .. .. .. ⎟
⎝ .. . . . . . . ⎠
0 0 0 ... 0 0 ... 0 0

Con il metodo dell’eliminazione successiva si ha la tesi.


Viceversa, siano xρ+1 , . . . , xn incognite libere e supponiamo per assurdo che C1 , . . . , Cρ
siano linearmente dipendenti. Dunque la matrice A ha rango minore di ρ; pertanto

78
riducendo opportunamente (A, B) per righe (scegliendo gli elementi speciali in A), per-
mutando eventualmente le equazioni, la matrice del sistema ottenuto è della forma:
⎛ ⎞
a11 ... a1ρ ∗ ... ∗
⎜ .. .. .. .. ⎟
⎜ . . . .⎟
⎜ ⎟
⎜ ∗ ∗⎟.
(A , B ) = ⎜ aρ−1 1
′ ′ ... aρ−1 ρ ...

⎜ 0 ... 0 ∗ ... ∗⎟
⎜ . .. .. .. ⎟
⎝ .. . . .⎠
0 ... 0 ∗ ... ∗

Poiché ρ(A′ , B ′ ) = ρ(A, B) = ρ, esiste una riga non nulla Ri di (A′ , B ′ ), con i ≥ ρ.
L’equazione corrispondente, non comprendendo le prime ρ incognite, fornisce una relazione
tra xρ+1 , . . . , xn , che pertanto non sono libere. !

3.4. Osservazione. Se il sistema lineare di m equazioni in n incognite AX = B è


risolubile di rango ρ, allora:
i) esso è equivalente ad un sistema costituito da ρ equazioni comunque scelte fra le m
equazioni iniziali, purché linearmente indipendenti;
ii) l’insieme delle soluzioni è in corrispondenza biunivoca con Rn−ρ .

3.4.1. Esempio. Discutere il seguente sistema lineare nel parametro λ ∈ R:



⎨ λx + z = −1
Σ: x + (λ − 1)y + 2z = 1 .

x + (λ − 1)y + 3z = 0

Riducendo per righe la matrice completa:


⎛ ⎞ ⎛ ⎞
λ 0 1 −1 R2 →R2 −2R1 λ 0 1 −1
(A, B) = ⎝ 1 λ−1 2 1 ⎠ −−−−−−−→ ⎝ 1 − 2λ λ − 1 0 3 ⎠
1 λ−1 3 0 R3 →R3 −3R1 1 − 3λ λ − 1 0 3
⎛ ⎞
λ 0 1 −1
R3 →R3 −R2 ⎝
1 − 2λ λ − 1 0 3 ⎠ = (A′ , B ′ ).
−−−−−−→
−λ 0 0 0

Se λ = 1, la matrice A′ non è ridotta, dunque bisogna completare la riduzione.


Se λ ̸= 1, la matrice A′ è ridotta e si hanno i due casi:
I) λ ̸= 0: ρ(A) = 3 = ρ(A, B) ⇒ una sola soluzione.
II) λ = 0: ρ(A) = 2 = ρ(A, B) ⇒ ∞1 soluzioni.
Le soluzioni sono dunque:

79
I) λ ̸= 1, λ ̸= 0:
⎧ ⎧
⎨ λx + z = −1 ⎨z = −1

Σ : (1 − 2λ)x + (λ − 1)y = 3 ⇒ y = 3/(λ − 1)
⎩ ⎩
−λx = 0 x = 0

dunque (per ogni λ ∈ R) il sistema ha un’unica soluzione:


(x, y, z) = (0, 3/(λ − 1), −1).
II) λ = 0: ) )
z = −1 z = −1
=⇒ .
x − y = 3 x = y+3
Quindi le soluzioni sono (x, y, z) = (α + 3, α, −1) , con α ∈ R.
III) λ = 1. Dobbiamo completare la riduzione:
⎛ ⎞ ⎛ ⎞
1 0 1 −1 1 0 1 −1
(A′ , B ′ ) = ⎝ −1 0 0 3 ⎠ R3 →R3 −R2 ⎝ −1 0 0 3 ⎠ .
−−−−−−→
−1 0 0 0 0 0 0 −3

Chiaramente l’ultima equazione è 0 = −3, dunque il sistema è incompatibile.

3.4.2. Esempio. Verificare che i seguenti vettori di R3 sono linearmente indipendenti:

v1 = (1, 1, 0), v2 = (0, 1, 1), v3 = (1, 0, 1)

e inoltre esprimere v = (1, 1, 1) come combinazione lineare di v1 , v2 , v3 .

Osserviamo che v1 , v2 , v3 sono linearmente indipendenti se e solo se il rango della matrice


avente tali vettori come righe è 3. Calcoliamo dunque tale rango:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
v1 1 1 0 1 1 0 1 1 0
⎝ v2 ⎠ = ⎝ 0 1 1 ⎠ −→ ⎝ 0 1 1 ⎠ −→ ⎝ 0 1 1⎠.
v3 1 0 1 0 −1 1 0 0 2

Tale matrice è ridotta per righe ed ha 3 righe non nulle, dunque il suo rango è 3.
In particolare v1 , v2 , v3 sono 3 vettori indipendenti in R3 , quindi sono una base. Pertanto
esiste un’unica terna di coefficienti x, y, z tali che

xv1 + yv2 + zv3 = v

per ogni v ∈ R3 . Tale terna corrisponde all’unica soluzione del sistema lineare avente come
matrice completa (A, B) = (v1 v2 v3 v) (qui scritta per colonne). In questo caso particolare
⎛ * ⎞
1 0 1 ** 1
(A, B) = ⎝ 1 1 0 ** 1 ⎠ .
0 1 1 *1

80
Riducendo come al solito per righe si ha:
⎛ ⎞ ⎛ ⎞
1 0 1 1 1 0 1 1
(A, B) −→ ⎝ 0 1 −1 0 ⎠ −→ ⎝ 0 1 −1 0⎠
0 1 1 1 0 2 0 1

da cui ⎧ ⎧
⎨x + z = 1 ⎨x = 1/2
y − z = 0 e quindi z = 1/2
⎩ ⎩
2y = 1 y = 1/2
infatti 1/2(1, 1, 0) + 1/2(0, 1, 1) + 1/2(1, 0, 1) = (1, 1, 1).

3.4.3. Esempio. Sia data la matrice


! "
λ 1
Mλ = , con λ ∈ R.
1 λ

Calcolare, quando esiste, Mλ−1 , usando i sistemi lineari.

In questo caso, poiché la matrice data è 2 × 2, si può risolvere direttamente il sistema:


! "! " ! "
λ 1 x y 1 0
=
1 λ z t 0 1

cioè ⎧
⎪ λx + z = 1

x + λz = 0
Σ: .

⎩ λy + t = 0
y + λt = 1
Da cui, riducendo la matrice del sistema:
⎛ ⎞ ⎛ ⎞
λ 0 1 0 1 λ 0 1 0 1
⎜1 0 λ 0 0 ⎟ R2 →R2 −λR1 ⎜ 1 − λ2 0 0 0 −λ ⎟
(A, B) = ⎝ ⎠ ⎝ ⎠→
0 λ 0 1 0 −−−−−−−→ 0 λ 0 1 0
0 1 0 λ 1 0 1 0 λ 1
⎛ ⎞
λ 0 1 0 1
2
R4 →R4 −λR3 ⎜ 1 − λ 0 0 0 −λ ⎟ ′ ′
⎝ ⎠ = (A , B ).
−−−−−−−→ 0 λ 0 1 0
0 1 − λ2 0 0 1
Si noti che le trasformazioni di tipo D) effettuate sopra sono ammissibili per ogni λ ∈ R;
infatti, se λ = 0, lasciano le matrici inalterate. Infine è chiaro che, se 1 − λ2 ̸= 0, allora la
matrice (A′ , B ′ ) è ridotta ed inoltre il sistema è risolubile in quanto ρ(A) = ρ(A, B) = 4.

81
In tal caso esiste una sola soluzione (infatti l’inversa di una matrice è unica).
Poniamo dunque λ ̸= 1 e λ ̸= −1. Il sistema ridotto è:

⎪ λx + z = 1
⎨ 2
(1 − λ )x = −λ
Σ′ :

⎩ λy + t = 0
(1 − λ2 )y = 1
quindi ⎧
⎪ z = 1/(1 − λ2 )

x = −λ/(1 − λ2 )
.
⎩t
⎪ = −λ/(1 − λ2 )
y = 1/(1 − λ2 )
Pertanto ! "
−λ/(1 − λ2 ) 1/(1 − λ2 )
Mλ−1 = .
1/(1 − λ2 ) −λ/(1 − λ2 )
Sia ora 1 − λ2 = 0, cioè λ = ±1; la matrice (A′ , B ′ ) diventa
⎛ ⎞
±1 0 1 0 1
⎜ 0 0 0 0 ∓1 ⎟
(A′ , B ′ ) = ⎝ ⎠.
0 ±1 0 1 0
0 0 0 0 1
Dall’ultima equazione segue che il sistema è incompatibile. Abbiamo quindi provato che
Mλ−1 esiste (e l’abbiamo ricavata) se e solo se λ ̸= ±1.

4. Sistemi lineari omogenei

Una classe interessante di sistemi lineari è costituita dai sistemi lineari omogenei.

4.1. Definizione. Un sistema lineare AX = B si dice omogeneo se le equazioni che lo


costituiscono sono omogenee, cioè se B = 0.

4.2. Osservazione. Un sistema lineare omogeneo AX = 0, con A in Rm,n , è sempre


risolubile; infatti la n-upla nulla è soluzione di tutte le equazioni. A tale fatto si perviene
anche applicando il teorema di Rouché–Capelli; infatti ρ(A) = ρ(A, 0). Inoltre, sempre per
tale teorema, la n-upla nulla è l’unica soluzione se e solo se n = ρ, ove ρ denota ρ(A), il
rango di A.

4.3. Teorema. Sia Σ : AX = 0 un sistema lineare omogeneo, con A ∈ Rm,n . Allora SΣ


è un sottospazio vettoriale di Rn di dimensione n − ρ(A).

Dimostrazione. Per il criterio di sottospazio vettoriale, basta provare che, se X1 , X2 ∈ SΣ


e se λ1 , λ2 ∈ R, allora la combinazione lineare λX1 + µX2 appartiene a SΣ . Per ipotesi

82
AX1 = 0 e AX2 = 0, dunque λ(AX1 ) + µ(AX2 ) = 0. Per le proprietà del prodotto e
somma di matrici λ(AX1 ) + µ(AX2 ) = A(λX1 + µX2 ), quindi λX1 + µX2 è soluzione di
AX = 0. Pertanto SΣ è sottospazio vettoriale di Rn .
Per il teorema di Rouché–Capelli, il sistema Σ ha n − ρ(A) incognite libere; proviamo che
tale numero coincide con la la dimensione dello spazio SΣ , determinandone esplicitamente
una base di n − ρ(A) elementi.
Denotiamo al solito ρ = ρ(A). Per semplicità, supponiamo che le incognite libere siano
xρ+1 , . . . , xn e quindi che la generica soluzione del sistema abbia la forma
⎧ $n (1)

⎪ x1 = i=ρ+1 λi τi



⎪ .. ..

⎨ .
⎪ $n .
(ρ)
xρ = i=ρ+1 λi τi

⎪ xρ+1 = τρ+1



⎪ .. ..

⎩ .
⎪ .
xn = τn

dove τρ+1 , . . . , τn ∈ R. La precedente relazione si può riscrivere in forma vettoriale:

⎛ x ⎞ ⎛ (1) ⎞ ⎛ (1) ⎞ ⎛ (1) ⎞


1 λρ+1 λρ+2 λn
⎜ ... ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ . ⎟
⎜ ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ .. ⎟
⎜ x ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ (ρ) ⎟
⎜ ρ ⎟ ⎜ (ρ) ⎟ ⎜ (ρ) ⎟ ⎜ λn ⎟
⎜x ⎟ ⎜ λ ρ+1 ⎟ ⎜ λ ρ+2 ⎟ ⎜ ⎟
⎜ ρ+1 ⎟ ⎜ ⎟ ⎜ ⎟
⎜x ⎟ = τρ+1 ⎜ 1 ⎟ +τρ+2 ⎜ 0 ⎟ + · · · + τn ⎜
⎜ 0 ⎟⎟.
⎜ ρ+2 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 0 ⎟
⎜x ⎟ ⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ ⎟
⎜ ρ+3 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 0 ⎟
⎜ . ⎟ ⎜ 0 ⎟ ⎜ 0 ⎟ ⎜ ⎟
⎝ . ⎠ ⎜ . ⎟ ⎜ . ⎟ ⎝ ... ⎠
. ⎝ .
. ⎠ ⎝ .
. ⎠
xn 0 0 1
= >? @ = >? @ = >? @
v1 v2 vn−ρ

Quindi lo spazio delle soluzioni è generato dai vettori v1 , . . . , vn−ρ ; inoltre è chiaro che tali
vettori sono linearmente indipendenti e ciò conclude la dimostrazione. !

Per risolvere un sistema lineare omogeneo si procede, come nel caso generale, mediante
la riduzione della matrice associata dei coefficienti. A differenza del caso generale, poiché lo
spazio delle soluzioni è un sottospazio vettoriale di Rn , è anche interessante determinarne
una base. Dalla dimostrazione di 4.3, si deduce un modo semplice per determinare tale
base: si attribuiscono, successivamente, alle n − ρ incognite libere i valori corrispondenti
alla base canonica di Rn−ρ .

4.3.1. Esempio. Si consideri il sistema



⎨ x1 − 2x3 + x5 + x6 =0
Σ: x 1 − x2 − x3 + x4 − x5 + x6 =0

x 1 − x2 + 2x4 − 2x5 + 2x6 =0

83
Riducendo la matrice associata
⎛ ⎞
1 0 −2 0 1 1

A= 1 −1 −1 1 −1 1 ⎠
1 −1 0 2 −2 2

si ottiene:
⎛ ⎞ ⎛ ⎞
1 0 −2 0 1 1 1 0 −2 0 1 1

A→ 0 −1 1 1 −2 ⎠ ⎝
0 → 0 −1 1 1 −2 0 ⎠ = A′ .
0 −1 2 2 −3 1 0 0 1 1 −1 1

Si osservi che ρ(A) = ρ(A′ ) = 3. Inoltre, poiché le prime 3 colonne di A′ e quindi di A sono
linearmente indipendenti, per il teorema di Rouché–Capelli, si possono scegliere x4 , x5 , x6
come incognite libere.
Si consideri ora il sistema

⎨ x1 − 2x3 + x5 + x6 = 0

Σ : x2 − x3 − x4 + 2x5 =0

x3 + x4 − x5 + x6 = 0

Ponendo x4 = a, x5 = b, x6 = c si ottiene lo spazio delle soluzioni

SΣ = {(x1 , ..., x6 ) = (−2a + b − 3c, −b − c, −a + b − c, a, b, c) | a, b, c ∈ R}.

Per determinare una base di SΣ basta porre

(a, b, c) = (1, 0, 0), (0, 1, 0), (0, 0, 1),

ottenendo la base:

((−2, 0, −1, 1, 0, 0), (1, −1, 1, 0, 1, 0), (−3, −1, −1, 0, 0, 1)) .

84
VII - APPLICAZIONI LINEARI

1. Concetti fondamentali

Abbiamo già osservato che R3 e VO 3


hanno la “stessa struttura” di spazio vettoriale, cioè
sono isomorfi, e come R “assomigli” a R6 . In questo capitolo cercheremo di precisare tali
2,3

situazioni, studiando relazioni tra spazi vettoriali. Tali relazioni saranno implementate da
matrici: una matrice viene usata come una operazione che trasforma vettori in uno spazio
vettoriale in altri vettori che, in generale, appartengono ad un differente spazio vettoriale.
! "
a b
1.1.1. Esempio. Sia A = ∈ R2,2 . Consideriamo l’applicazione
c d

f : R2 −→ R2 definita da f (X) = AX,

ove X = t (x, y) è un vettore colonna e AX indica l’usuale prodotto righe per colonne:
! "! " ! "
a b x ax + by
f (X) = = = t (ax + by, cx + dy).
c d y cx + dy

Se X = (x1 , x2 ), Y = (y1 , y2 ) sono elementi di R2 , usando le proprietà della moltiplicazione


di matrici si verifica facilmente che f (X + Y ) = f (X) + f (Y ). Infatti si ha:

f (X + Y ) = A(X + Y ) = AX + AY = f (X) + f (Y ).

Analogamente si verifica che, se λ ∈ R, allora f (λX) = λf (X).

Generalizziamo l’esempio precedente al caso di una matrice qualunque.


1.1.2. Esempio. Sia A = (aij ) ∈ Rm,n e si consideri l’applicazione f : Rn −→ Rm
definita da f (X) = AX, ove con X si intende il vettore colonna t (x1 , . . . , xn ) e con AX
l’usuale prodotto righe per colonne. Dalle proprietà del prodotto di matrici, come prima
si verificano facilmente le relazioni: f (X + Y ) = f (X) + f (Y ) per ogni X, Y ∈ Rn , e
f (λX) = λf (X) per ogni X ∈ Rn , λ ∈ R.
! "
1 2 1
1.1.3. Esempio. Sia A = ∈ R2,3 . Allora f : R3 −→ R2 è data da
1 −1 0
f (x, y, z) = (x + 2y + z, x − y).

1.2. Definizione. Siano V e W due R-spazi vettoriali. Un’applicazione f : V −→ W si


dice lineare se gode delle seguenti proprietà:

(L1 ) f (X + Y ) = f (X) + f (Y ) ∀ X, Y ∈ Rn
(L2 ) f (λX) = λf (X) ∀ X ∈ Rn , ∀ λ ∈ R

È immediato provare alcune proprietà elementari delle applicazioni lineari.

85
1.3. Proposizione. Sia f : V −→ W un’applicazione lineare; valgono i seguenti fatti:
i) f (0V ) = 0W ;
ii) f (−v) = −f (v), per ogni v ∈ V ;
iii) f (a1 v1 + · · · + ap vp ) = a1 f (v1 ) + · · · + ap f (vp ),
per ogni v1 , . . . , vp ∈ V , per ogni a1 , . . . , ap ∈ R.

Dimostrazione. Poiché f è un’applicazione lineare, valgono le proprietà (L1 ) ed (L2 ) nella


definizione 1.2.
i) Osserviamo che 0V = 0R 0V . Dunque applicando (L2 ):

f (0V ) = f (0R 0V ) = 0R f (0V ) = 0W .

ii) Poiché −v = (−1)v, per (L2 ) si ha

f (−v) = f ((−1)v) = (−1)f (v) = −f (v).

iii) Proviamo la tesi per induzione finita su p.


Se p = 2, la tesi è vera per le proprietà (L1 ) ed (L2 ) applicate successivamente; infatti

f (a1 v1 + a2 v2 ) = f (a1 v1 ) + f (a2 v2 ) = a1 f (v1 ) + a2 f (v2 ).

Supponiamo vera la tesi per p − 1 e proviamola per p.


Posto w := a1 v1 + · · · + ap−1 vp−1 , si ha

f (a1 v1 + · · · + ap vp ) = f (w + ap vp ) = f (w) + f (ap vp ) = f (w) + ap f (vp )

dove la seconda uguaglianza segue da (L1 ) e la seconda da (L2 ).


Ma per l’ipotesi induttiva f (w) = a1 f (v1 ) + · · · + ap−1 f (vp−1 ), quindi

f (a1 v1 + · · · + ap vp ) = f (w) + ap f (vp ) = a1 f (v1 ) + · · · + ap−1 f (vp−1 ) + ap f (vp )

che è la tesi per p. !

Negli esempi 1.1.1 e 1.1.2 abbiamo visto come associare ad una matrice A ∈ Rm,n una
applicazione lineare tra Rn e Rm . Tale procedimento si può generalizzare a spazi vettoriali
qualunque usando due basi, una del dominio e una del codominio.
Infatti, siano V e W due R-spazi vettoriali e siano B = (v1 , . . . , vn ), C = (w1 , . . . , wm ) due
rispettive basi. Ad una matrice A = (aij ) ∈ Rm,n si associ l’applicazione f : V −→ W
definita come segue: per ogni v ∈ V , si può scrivere univocamente v = x1 v1 + · · · + xn vn
cioè v = (x1 , . . . , xn )B . Posto X = t (x1 , . . . , xn ), si consideri il vettore AX ∈ Rm ; si ponga
t
(y1 , . . . , ym ) = AX. Definiamo

f (v) = y1 w1 + · · · + ym wm .

86
In sintesi: ⎛ ⎛⎞⎞
x1
.
f ((x1 , . . . , xn )B ) = ⎝A ⎝ .. ⎠⎠ .
xn C

! "
1 2 1
1.3.1. Esempio. Sia A = ∈ R2,3 e siano V = R[X]2 e W = R[X]1 . Siano
1 −1 0
inoltre B = (1, X, X 2 ) e C = (1, X) basi di V e W , rispettivamente. Allora l’applicazione
lineare associata ad A è definita da

f (a + bX + cX 2 ) = (At (a, b, c))C ,

dunque
f (a + bX + cX 2 ) = (a + 2b + c, a − b)C = a + 2b + c + (a − b)X.

1.4. Proposizione. Sia f : V −→ W l’applicazione sopra definita, allora f verifica le


proprietà (L1 ) ed (L2 ), cioè f è un’applicazione lineare.

Dimostrazione. Siano v, v ′ ∈ V con v = (x1 , . . . , xn )B e v ′ = (x′1 , . . . , x′n )B . Poiché

v + v ′ = (x1 + x′1 , . . . , xn + x′n )B ,

allora, da 4.8, Cap. III,


f (v + v ′ ) = (At (x1 + x′1 , . . . , xn + x′n ))C =
= (At (x1 , . . . , xn ))C + (At (x′1 , . . . , x′n ))C = f (v) + f (v ′ ).

Analogamente si prova che, se λ ∈ R, allora f (λv) = λf (v). !

A questo punto possiamo dare la seguente fondamentale:

1.5. Definizione. Siano V e W due R-spazi vettoriali con rispettive basi B = (v1 , . . . , vn )
e C = (w1 , . . . , wm ); sia A = (aij ) ∈ Rm,n . L’applicazione lineare

fAB,C : V −→ W

che ad ogni v = x1 v1 + · · · + xn vn ∈ V associa fAB,C (v) = y1 w1 + · · · + ym wm , ove


t
(y1 , . . . , ym ) = At (x1 , . . . , xn ),

si dice applicazione lineare associata alla matrice A rispetto alle basi B e C.

1.6. Osservazione. Con le notazioni precedenti, posta fAB,C = f , si ha che le n colonne


di A sono le componenti, rispetto alla base C di W , dei vettori f (v1 ), . . . , f (vn ), ove
(v1 , . . . , vn ) è la base B di V . Infatti v1 = 1v1 + 0v2 + · · · + 0vn = (1, 0, . . . , 0)B , dunque

f (v1 ) = (At (1, 0, . . . , 0))C = t (a11 , . . . , am1 )C ;

87
quindi f (v1 ) = a11 w1 + · · · + am1 wm .
Analogamente si verifica che f (vi ) = (a1i , . . . , ami )C , per ogni i.
In particolare, se A = (aij ) ∈ Rm,n e f : Rn −→ Rm è l’applicazione lineare definita
da f (X) = AX, allora le colonne di A concidono con le immagini attraverso f dei vettori
(e1 , . . . en ) della base canonica En di Rn . Cioè, scrivendo A per colonne:

A = ( f (e1 ) f (e2 ) ··· f (en ) ) .

⎛ ⎞
1 1 −1
1.6.1. Esempio. Sia A = ⎝ 0 1 2 ⎠ e sia B = C = E3 la base canonica di R3 .
1 1 0
Consideriamo l’applicazione associata f = fAE3 ,E3 : R3 −→ R3 . Sia (x, y, z) ∈ R3 ; allora
per definizione f ((x, y, z)) = At (x, y, z) quindi f è data dalle equazioni

f ((x, y, z)) = (x + y − z, y + 2z, x + y).

Inoltre, poiché B è la base canonica si ha

f (e1 ) = (1, 0, 1), f (e2 ) = (1, 1, 1), f (e3 ) = (−1, 2, 0).

Osserviamo che f (e1 ), f (e2 ), f (e3 ) corrispondono, rispettivamente, alle colonne della ma-
trice A. Ribadiamo che tale situazione è molto particolare: infatti in generale le colonne
di A sono le componenti di f (e1 ), f (e2 ), f (e3 ) rispetto alla base C; in tale esempio C è la
base canonica e dunque le componenti di f (e1 ), f (e2 ), f (e3 ) rispetto alla base C coincidono
con le loro componenti, come vettori di R3 .

La proposizione 1.4 mostra che le applicazioni del tipo fAB,C , associate a matrici, sono
lineari. Vogliamo adesso mostrare che tutte le applicazioni lineari sono di questo tipo, cioè
vogliamo provare che, per ogni applicazione lineare f : V −→ W , fissando due basi B e C
di V e W , rispettivamente, esiste un’opportuna matrice A tale che f = fAB,C .

L’osservazione 1.6 mostra che, data una matrice A, le immagini attraverso fAB,C degli
elementi di una fissata base B di V sono individuate dalle colonne di A. Operiamo dunque
il procedimento inverso da un’appicazione lineare ad una matrice.

1.7. Definizione. Siano V e W due R-spazi vettoriali con rispettive basi B = (v1 , . . . , vn )
e C = (w1 , . . . , wm ); sia f : V −→ W un’applicazione lineare. Si dice matrice associata
ad f rispetto alle basi B e C, e si denota con MfB,C , la matrice di Rm,n le cui colonne
sono costituite dalle componenti, rispetto a C, delle immagini dei vettori della base B.
Esplicitamente, dalle espressioni
f (v1 ) = a11 w1 + · · · + am1 wm
..
.
f (vn ) = a1n w1 + · · · + amn wm

88
viene individuata la matrice A = (aij ) e si pone MfB,C = A.

Abbiamo dunque associato un’applicazione lineare ad una matrice ed una matrice ad


ogni applicazione lineare. Vogliamo mostrare che questi procedimenti sono uno

1.8. Osservazione. Come nella teoria degli insiemi, due applicazioni lineari tra gli stessi
spazi f, g : V −→ W sono uguali se e solo se f (v) = g(v), per ogni v ∈ V . Da ciò segue il
seguente risultato di cui omettiamo la dimostrazione.

1.9. Proposizione. Siano V e W due R-spazi vettoriali di dimensioni n ed m rispettiva-


mente; si fissino una base B di V e una base C di W . Allora:
i) se f : V −→ W è un’applicazione lineare, posta A = MfB,C , si ha:

fAB,C = f ;

ii) se A ∈ Rm,n è una data matrice, posta f = fAB,C , si ha:

MfB,C = A.

1.10. Proposizione. Siano V e W due R-spazi vettoriali e sia (v1 , . . . , vn ) una base di V .
Si considerino n vettori qualunque di W : {u1 , . . . , un }. Allora esiste un’unica applicazione
lineare f : V −→ W tale che f (vi ) = ui , per i = 1, . . . , n.

Dimostrazione. Si estende l’applicazione per linearità una volta definita sui vettori della
base scelta per V . Sia v un qualunque vettore di V . Allora v si scrive in modo unico come

v = a1 v1 + · · · + an vn .

Definiamo
f (v) = a1 f (v1 ) + · · · + an f (vn ) = a1 u1 + · · · + an un .
Tale applicazione è lineare per costruzione e chiaramente f (vi ) = ui per ogni i.
Per provare l’unicità, osserviamo che, se esistesse un’altra applicazione lineare g : V −→ W
tale che g(vi ) = ui , per i = 1, . . . , n, allora per 1.3 dovrebbe essere

g(v) = a1 g(v1 ) + · · · + an g(vn ) = a1 u1 + · · · + an un = f (v),

ovvero g = f come applicazione lineare. !

Dalle considerazioni precedenti, ribadiamo due modi equivalenti per definire una ap-
plicazione lineare tra due spazi vettoriali V e W .
I. Si fissano una base B di V e una base C di W ed una matrice A = (aij ) ∈ Rm,n . Per
la proposizione 1.9 è univocamente determinata l’applicazione lineare fAB,C .

89
II. Si fissa una base B = (v1 , . . . , vn ) di V ed n vettori {u1 , . . . , un } di W . Da 1.10 esiste
un’unica applicazione lineare f : V −→ W tale che f (vi ) = ui , per i = 1, . . . , n.

Notazione. Nel seguito, se V = Rn e B è la base canonica, scriveremo f ((x1 , . . . , xn ))


invece di f ((x1 , . . . , xn )B ). Analogamente se W = Rm e C è la base canonica, scriveremo
(y1 , . . . , ym ) invece di (y1 , . . . , ym )C .

Ad esempio, con la notazione appena introdotta, se f : Rn −→ Rm è un’applicazione


lineare associata alla matrice A rispetto alle basi canoniche del dominio e del codominio,
f si esprime nei seguenti modi:

f ((x1 , . . . , xn )) = At (x1 , . . . , xn )

oppure
f ((x1 , . . . , xn )) = (a11 x1 + · · · + a1n xn , . . . , am1 x1 + · · · + amn xn ).

1.10.1. Esempio. Sia f0 : V → W l’applicazione nulla, cioè f0 (v) = 0W , per ogni v ∈ V ;


e siano B e C basi di V e W , rispettivamente. Allora MfB,C
0
= 0Rm,n che è la matrice nulla.

1.10.2. Esempio. Sia idV : V −→ V l’applicazione identica definita da idV (v) = v, per
ogni v ∈ V e sia B = (v1 , . . . , vn ) una qualunque base di V . Allora

idV (vi ) = vi = (0, . . . , 0, =>?@


1 , 0, . . . , 0)B
i

per ogni i = 1, . . . , n; ad esempio

idV (v1 ) = v1 = 1v1 + 0v2 + · · · + 0vn = (1, 0, . . . , 0)B

B,B B,C
Dunque la matrice Mid V
è la matrice identica In . Si noti che, se B ̸= C, allora Mid V
non
è la matrice identica.

1.10.3. Esempio. Per R3 , consideriamo la base canonica E3 = (e1 , e2 , e3 ) e la base


B = (v1 , v2 , v3 ) dove

v1 = (0, 1, 1), v2 = (1, 0, 1), v3 = (1, 1, 0).

Allora ⎛ ⎞ ⎛ ⎞
0 1 1 −1 1 1
B,E3 ⎝ E3 ,B 1⎝
Mid = 1 0 1⎠, Mid = 1 −1 1 ⎠ .
2
1 1 0 1 1 −1
Si osservi che queste due matrici sono una l’inversa dell’altra. Ritorneremo a questo tipo
di matrici in seguito a proposito della procedura di cambio di base in uno spazio vettoriale.

90
2. Sottospazi associati ad una applicazione lineare

In questo paragrafo vedremo come ad ogni applicazione lineare sia possibile associare
in modo “canonico” un sottospazio del dominio ed un sottospazio del codominio.

2.1. Definizione. Data un’applicazione lineare f : V −→ W , si dice nucleo di f , e si


denota con ker(f ), il sottoinsieme di V definito da:

ker(f ) = {v ∈ V | f (v) = 0W }.

Si dice immagine di f , e si denota con Im(f ), il sottoinsieme di W definito da:

Im(f ) = {w ∈ W | esiste v ∈ V tale che w = f (v)}.

2.2. Teorema. Data un’applicazione lineare f : V −→ W , ker(f ) è un sottospazio vetto-


riale di V e Im(f ) è un sottospazio vettoriale di W .
In particolare Im(f ) = L(f (v1 ), . . . , f (vn )), ove (v1 , . . . , vn ) è una qualunque base di V .

Dimostrazione. Siano v, v ′ ∈ ker(f ) e λ, λ′ ∈ R. Vogliamo provare che λv + λ′ v ′ ∈ ker(f ),


cioè che f (λv + λ′ v ′ ) = 0W . Per ipotesi f (v) = 0W = f (v ′ ); dunque, applicando 1.3 iii),
si ottiene f (λv + λ′ v ′ ) = λf (v) + λ′ f (v ′ ) = 0W . Quindi ker(f ) è un sottospazio di V .
Siano ora w, w′ ∈ Im(f ) e λ, λ′ ∈ R. Per ipotesi esistono v, v ′ ∈ V tali che w = f (v) e
w′ = f (v ′ ). Dunque λw + λ′ w′ = λf (v) + λ′ f (v ′ ) = f (λv + λ′ v ′ ) ∈ Im(f ), dove l’ultima
uguaglianza si ha ancora per 1.3 iii). Quindi Im(f ) è un sottospazio di W .
Infine sia w ∈ Im(f ), cioè w = f (v) per un opportuno v ∈ V . Se (v1 , . . . , vn ) è una base di
V , si può scrivere v = a1 v1 + · · · + an vn ; dunque w = a1 f (v1 ) + · · · + an f (vn ). Pertanto
Im(f ) ⊆ L(f (v1 ), . . . , f (vn )). Il viceversa è ovvio, poiché Im(f ) è un sottospazio di W . !

Cerchiamo un metodo per determinare nucleo e immagine di una applicazione lineare.


Vediamo dapprima come determinare la dimensione del nucleo.

2.3. Proposizione. Sia f : V −→ W un’applicazione lineare tra R-spazi vettoriali asso-


ciata alla matrice A e sia dim(V ) = n. Allora

dim(ker(f )) = n − ρ(A).

Dimostrazione. Sia A = MfB,C ∈ Rm,n , dove B e C sono due basi di V e W , rispettivamente.

91
Allora si ha:
ker(f ) = {v ∈ V | f (v) = 0W } =
⎧ * ⎛ ⎛ ⎞⎞ ⎛ ⎞ ⎫
⎪ * x 0 ⎪
⎨ * 1 ⎬
* ⎝ ⎝ .. ⎠⎠ ⎝ .
. ⎠
= v = (x1 , . . . , xn )B ∈ V * A . = . =

⎩ * ⎪

* xn 0 C
C
⎧ * ⎛ ⎞ ⎛ ⎞⎫
⎨ * x1 0 ⎬
* .. ⎠ ⎝ .. ⎠
*
= (x1 , . . . , xn )B ∈ V * A ⎝ = . =
⎩ . ⎭
* 0
xn
= {(x1 , . . . , xn )B ∈ V | (x1 , . . . , xn ) ∈ SΣ }

dove SΣ è lo spazio delle soluzioni del sistema lineare omogeneo Σ : AX = 0.


Cioè ker(f ) “corrisponde” allo spazio delle soluzioni del sistema lineare omogeneo AX = 0;
qui il termine “corrisponde” significa che c’è una corrispondenza biunivoca tra i vettori
(x1 , . . . , xn )B ∈ ker(f ) e le soluzioni (x1 , . . . , xn ) del sistema precedente.
Più precisamente, tale corrispondenza biunivoca è

α : SΣ −→ ker(f )

definita da
(x1 , . . . , xn ) .→ (x1 , . . . , xn )B .
Inoltre, per 4.10, Capitolo III, α “manda” una base in una base, cioè:
⎧ ⎫

⎨ v 1 →
. (v 1 ) B ⎪

base di SΣ .
.. .
.. base di ker(f ).

⎩ ⎪

vp .→ (vp )B

In particolare
dim(ker(f )) = dim(SΣ ) = n − ρ(A)
dove l’ultima uguaglianza segue da 4.3, Capitolo VI. !

La precedente dimostrazione suggerisce il seguente

2.4. Metodo per il calcolo del nucleo. Siano V e W due R-spazi vettoriali, con basi
rispettive B e C e sia f : V −→ W un’applicazione lineare. Si ponga A = MfB,C . Per
determinare ker(f ) e una sua base, si procede come segue:
1. Si considera il sistema lineare omogeneo Σ : AX = 0 e si determina una base
(v1 , . . . , vp ) per il suo spazio delle soluzioni SΣ ;
2. per quanto visto,

ker(f ) = {(x1 , . . . , xn )B ∈ V | (x1 , . . . , xn ) ∈ SΣ }

92
e una base di ker(f ) è data da

((v1 )B , . . . , (vp )B ).

2.4.1. Esempio. Sia f : R3 −→ R3 data da

f ((x, y, z)B ) = (x + y − z, x − y + z, 2x)C

dove B = ((1, 1, 0), (0, 1, 1), (1, 0, 1)) e C è la base canonica.


Vogliamo determinare ker(f ) e una sua base, i cui vettori siano espressi sia sulla base B
sia sulla base canonica E di R3 .
⎛ ⎞
1 1 −1
Consideriamo la matrice A = MfB,C = ⎝ 1 −1 1 ⎠. Risolviamo il sistema Σ : AX = 0:
2 0 0
riducendo la matrice A per righe si ha
⎛ ⎞ ⎛ ⎞
1 1 −1 1 1 −1
A −→ ⎝ 2 0 0 ⎠ −→ ⎝ 2 0 0 ⎠ .
2 0 0 0 0 0

Pertanto lo spazio SΣ delle soluzioni di Σ è dato da

SΣ = {(0, a, a) | a ∈ R} = L((0, 1, 1)).

Quindi
ker(f ) = {(0, a, a)B | a ∈ R}
e una sua base è ((0, 1, 1)B ).
Poiché
(0, 1, 1)B = (0, 1, 1) + (1, 0, 1) = (1, 1, 2)
ne segue che la stessa base di ker(f ), espressa ora su E, è ((1, 1, 2)).

2.4.2. Esempio. Sia f : R3 −→ R3 data da

f ((x, y, z)) = (x + y − z, x − y + z, 2x).

Vogliamo determinare ker(f ). La matrice A associata all’applicazione f è la stessa dello


esempio precedente, quindi il sistema Σ : AX = 0 ha soluzioni SΣ = L((0, 1, 1)).
Poiché B è la base canonica, ker(f ) = L((0, 1, 1)B ) = L((0, 1, 1)) = SΣ .

Più in generale, un adattamento del metodo precedente permette di determinare la


controimmagine di ogni elemento w ∈ W , che, come è noto, è data da

f −1 (w) = {v ∈ V | f (v) = w}.

93
Infatti si ha:

2.5. Osservazione. Siano V e W due R-spazi vettoriali, di basi B e C rispettivamente, e


sia f : V −→ W un’applicazione lineare. Allora, posta A = MfB,C , per ogni w ∈ W , con
w = (y1 , . . . , ym )C , si ha

f −1 (w) = {(x1 , . . . , xn )B ∈ V | At (x1 , . . . , xn ) = t (y1 , . . . , ym )}.

Infatti, se v = (x1 , . . . , xn )B allora

f (v) = f ((x1 , . . . , xn )B ) = (At (x1 , . . . , xn ))C .

Dunque l’uguaglianza di vettori f (v) = w implica l’uguaglianza delle loro componenti


rispetto a C, cioè At (x1 , . . . , xn ) = t (y1 , . . . , ym ).
Tutto ciò si può interpretare col linguaggio dei sistemi lineari. Infatti, se w ∈ W ,la sua
controimmagine f −1 (w) è costituito dai vettori di V le cui componenti rispetto a B sono
gli elementi dello spazio delle soluzioni del sistema lineare AX = B, ove B è la colonna
delle componenti di w rispetto a C.

2.5.1. Esempio. Sia f : R3 −→ R3 come nell’esempio 2.4.1. Vogliamo determinare


f −1 (w), con w = (1, 1, 1). Quindi risolviamo il sistema Σ : AX = B, con B = t (1, 1, 1).
Operiamo dunque sulla matrice (A, B) per ridurre A:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 −1 1 1 1 −1 1 1 1 −1 1
(A, B) = ⎝ 1 −1 1 1 ⎠ → ⎝ 2 0 0 2 ⎠ → ⎝ 1 0 0 1 ⎠
2 0 0 1 2 0 0 1 0 0 0 1

Dunque Σ non ha soluzioni. Pertanto w ̸∈ Im(f ).


Determiniamo ora f −1 (u), con u = (2, 0, 2). Quindi risolviamo il sistema Σ : AX = B,
con B = t (2, 0, 2). Come prima:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 −1 2 1 1 −1 2 1 1 −1 2
(A, B) = ⎝ 1 −1 1 0 ⎠ → ⎝ 2 0 0 2 ⎠ → ⎝ 2 0 0 2⎠
2 0 0 2 2 0 0 2 0 0 0 0

Quindi si ottiene il sistema <


x=1
y =z+1
il cui spazio delle soluzioni è, posto z = a, SΣ = {(1, a + 1, a) | a ∈ R}. Dunque

f −1 (2, 0, 2) = {(1, a + 1, a)B | a ∈ R} = {(a + 1, a + 2, 2a + 1) | a ∈ R}.

Vediamo ora come si determina l’immagine di una applicazione lineare, utilizzando


ancora la riduzione di matrici. Dapprima osserviamo il seguente fatto:

94
2.6. Proposizione. Sia f : V −→ W un’applicazione lineare tra R-spazi vettoriali asso-
ciata alla matrice A. Allora dim(Im(f )) = ρ(A).

Dimostrazione. Sia A = MfB,C ∈ Rm,n , dove B = (v1 , . . . , vn ) è una base di V e C è una


base di W . Per 2.2, Im(f ) = L(f (v1 ), . . . , f (vn )); d’altra parte le colonne della matrice
A = MfB,C sono le componenti di f (v1 ), . . . , f (vn ) rispetto a C. Pertanto, in analogia con
quanto visto nel Metodo per il calcolo del nucleo, c’è una corrispondenza biunivoca dallo
spazio C(A) delle colonne di A all’immagine di f :

β : C(A) −→ Im(f )

definita da
(y1 , . . . , ym ) .→ (y1 , . . . , ym )C .
Inoltre, sempre per 4.10, Capitolo III, β “manda” una base in una base, cioè:
⎧ ⎫

⎨ w1 .→ (w1 )C ⎪

. .
base di C(A)
⎪ .. ..

base di Im(f ).
⎩ ⎭
wq .→ (wq )C

Pertanto
dim(Im(f )) = dim(C(A)) = ρ(A).
!

Tale risultato, e la sua dimostrazione, suggeriscono il seguente

2.7. Metodo per il calcolo dell’immagine. Siano V e W due R-spazi vettoriali, di


basi B e C rispettivamente, e sia f : V −→ W un’applicazione lineare. Si ponga A = MfB,C .
Per determinare Im(f ) e una sua base, si procede come segue:
1. Si considera lo spazio delle colonne C(A) e si determina una sua base (w1 , . . . , wq );
a tale scopo si può procedere in due modi:
- se si conosce il rango di A, allora q = ρ(A), quindi basta individuare q colonne
linearmente indipendenti: queste formano una base per C(A);
- se non si conosce il rango di A, posta A′ una matrice ottenuta riducendo A per
colonne, una base di C(A) è data dalle q colonne non nulle di A′ .
2. per quanto visto,

Im(f ) = {(y1 , . . . , ym )C ∈ W | (y1 , . . . , ym ) ∈ C(A)}

e una base di Im(f ) è data da

((w1 )C , . . . , (wq )C ).

95
2.7.1. Esempio. Sia f : R3 −→ R3 l’applicazione lineare associata alla matrice
⎛ ⎞
1 −1 2
A = MfB,C = ⎝ 0 1 −3 ⎠
2 −1 1

con B base canonica e C = (w1 , w2 , w3 ), dove w1 = (1, 1, 0), w2 = (0, 1, 1), w3 = (1, 0, 1).
Riduciamo quindi A per colonne:
⎛ ⎞ ⎛ ⎞
C2 →C2 +C1 1 0 0 1 0 0
A −−−−−−−→ ⎝ 0 1 −3 ⎠ C3 →C3 +3C1 ⎝ 0 1 0 ⎠ = A′ .
−−−−−−−→
C3 →C3 −2C1 2 1 −3 2 1 0

Poiché A′ è ridotta per colonne, le sue colonne non nulle sono una base per lo spazio delle
colonne C(A′ ). Dunque C(A) = C(A′ ) = L((1, 0, 2), (0, 1, 1)).
Per 2.7 una base di Im(f ) è quindi (u1 , u2 ), ove

u1 = (1, 0, 2)C = w1 + 2w3 = (3, 1, 2)

u2 = (0, 1, 1)C = w2 + w3 = (1, 1, 2).


In particolare dim(Im(f )) = 2 = ρ(A).

Come conseguenza dei risultati precedenti si ha il seguente:

2.8. Teorema. Sia f : V −→ W un’applicazione lineare. Allora

dim(ker(f )) + dim(Im(f )) = dim(V ).

Dimostrazione. Per 2.3 dim(ker(f )) = dim(V )−ρ(A); inoltre, per 2.6, dim(Im(f )) = ρ(A),
da cui la tesi. !

Il lettore avrà già incontrato, ad esempio nella teoria degli insiemi, i concetti di iniet-
tività, suriettività e biiettività (o biunivocità) di una applicazione f . Nel caso in cui f sia
un’applicazione lineare tra spazi vettoriali, vedremo come tali proprietà siano caratterizz-
abili in termini del rango di una matrice qualunque associata ad f .

2.9. Criterio di iniettività. Si consideri un’applicazione lineare f : V −→ W ; i seguenti


fatti sono equivalenti:
i) f è iniettiva;
ii) ker(f ) = {0V };
iii) ρ(A) = dim(V ), per ogni matrice A associata ad f .

Dimostrazione. i) ⇒ ii). Sia f iniettiva, cioè se v1 , v2 ∈ V e f (v1 ) = f (v2 ), allora v1 = v2 .


Supponiamo che v ∈ ker(f ). Allora f (v) = 0W = f (0V ) per 1.3 punto i); dunque v = 0V .

96
ii) ⇒ i). Viceversa siano v, v ′ ∈ V tali che f (v) = f (v ′ ). Allora, per la linearità di f , si ha
f (v − v ′ ) = 0W , dunque v − v ′ ∈ ker(f ). Per ipotesi, quindi, v − v ′ = 0V ovvero v = v ′ .
ii) ⇔ iii). Segue da 2.3, poiché dim(ker(f )) = dim(V ) − ρ(A). !

2.9.1. Esempio. Sia f : R[X]2 −→ R2,2 l’applicazione lineare associata alla matrice
⎛ ⎞
2 1 0
⎜ −1 0 1⎟
A=⎝ ⎠
2 1 1
1 0 0

rispetto a due basi fissate. Osserviamo che A è ridotta per colonne, dunque ρ(A) è il
numero delle colonne non nulle, cioè ρ(A) = 3. D’altro canto dim(R[X]2 ) = 3. Pertanto,
per 2.9, f è iniettiva.

2.10. Criterio di suriettività. Si consideri un’applicazione lineare f : V −→ W ; i


seguenti fatti sono equivalenti:
i) f è suriettiva;
ii) ρ(A) = dim(W ), per ogni matrice A associata ad f .

Dimostrazione. Immediata da 2.6. !

2.10.1. Esempio. Sia f : R3 −→ R2 l’applicazione lineare definita da

f (x, y, z) = (x + y − z, 2x − y + 2z).

Allora, posta B la base canonica di R3 e C la base canonica di R2 , la matrice associata ad


f rispetto a tali basi è: ! "
B,C 1 1 −1
A = Mf = .
2 −1 2
Riduciamo A per righe: ! "
1 1 −1
A −→ = A′ .
3 0 1
Chiaramente A′ è ridotta per righe, dunque ρ(A) = ρ(A′ ) è pari al numero delle righe non
nulle di A′ , cioè ρ(A) = 2. D’altro canto dim(R2 ) = 2, quindi, per 2.10, f è suriettiva.

2.11. Definizione. Un’applicazione lineare iniettiva e suriettiva (cioè biiettiva) si dice


isomorfismo. Due spazi vettoriali V e W si dicono isomorfi se esiste un isomorfismo
f : V −→ W e si scrive V ∼
= W.

I due criteri precedenti, di iniettività e di suriettività, forniscono delle condizioni


necessarie in termini di dimensioni del dominio e del codominio. Più precisamente:

97
2.12. Proposizione. Sia f : V −→ W un’applicazione lineare. Allora:
a) se f è iniettiva allora dim(V ) ≤ dim(W );
b) se f è suriettiva allora dim(V ) ≥ dim(W );
c) se f è isomorfismo allora dim(V ) = dim(W );

Dimostrazione. Ricordiamo che ρ(A) ≤ min(dim(V ), dim(W )).


a) Se fosse dim(V ) > dim(W ), avremmo ρ(A) ≤ dim(W ) < dim(V ), quindi f non sarebbe
iniettiva per 2.9 iii).
b) Se fosse dim(V ) < dim(W ), avremmo ρ(A) ≤ dim(V ) < dim(W ), quindi f non sarebbe
suriettiva per 2.10.
c) Immediato, da a) e b). !

2.13. Criterio di isomorfismo. Sia f : V −→ W un’applicazione lineare tra R-spazi


vettoriali della stessa dimensione. Sono fatti equivalenti:
i) f è iniettiva;
ii) f suriettiva;
iii) f isomorfismo.

Dimostrazione. Basta mostrare che i) ⇔ ii). Ma f è iniettiva se e solo se ker(f ) = {0V }


se e solo se dim(ker(f )) = 0 se e solo se (per 2.8) dim(Im(f )) = dim(V ). Per ipotesi
dim(V ) = dim(W ), quindi l’ultima condizione equivale alla suriettività di f . !

Abbiamo visto che f : V −→ W è iniettiva se e solo se ρ(A) = dim(V ) e che è


suriettiva se e solo se ρ(A) = dim(W ). Quindi in entrambi i casi il rango della matrice A
è il massimo possibile, ovvero la matrice A è di rango massimo secondo la definizione 2.6.
del Cap. 5. D’altra parte, il rango di ogni matrice associata ad una applicazione lineare f
è costante in quanto uguale alla dimensione dell’immagine di f . Ha quindi senso la

2.14. Definizione. Sia f : V −→ W un’applicazione lineare; f si dice di rango massimo


se una qualunque matrice ad essa associata è di rango massimo.

2.15. Osservazione. Dalle considerazioni fatte prima, segue che se f è un’applicazione


lineare, allora f è di rango massimo se e solo se è iniettiva o suriettiva o un isomorfismo.
Più precisamente,
i) se dim(V ) < dim(W ), f è di rango massimo ⇔ f è iniettiva;
ii) se dim(V ) > dim(W ), f è di rango massimo ⇔ f è suriettiva;
iii) se dim(V ) = dim(W ), f è di rango massimo ⇔ f è un isomorfismo.

2.15.1. Esempio. Caratterizzare le seguenti applicazioni lineari:

98
1. f : R3 −→ R4 data da (x, y, z) .→ (x − y + 2z, y + z, −x + z, 2x + y). Posta A la
matrice associata ad f rispetto alle basi canoniche, calcoliamo il rango di A riducendola,
ad esempio, per righe:

⎛ ⎞ ⎛ ⎞
1 −1 2 1 −1 2
⎜ 0 1 1⎟ ⎜0 1 1⎟
A=⎝ ⎠ −→ ⎝ ⎠.
−1 0 1 0 0 1
2 1 0 0 0 0

Poiché ρ(A) = 3 è massimo e dim(V ) < dim(W ), allora f è iniettiva.


2. f : R4 −→ R3 data da (x, y, z, t) .→ (x − y + 2z + t, y + z + 3t, x − y + 2z + 2t). Come
prima:
⎛ ⎞ ⎛ ⎞
1 −1 2 1 1 −1 2 1
A = ⎝ 0 1 1 3 ⎠ −→ ⎝ 0 1 1 3 ⎠ .
1 −1 2 2 0 0 0 1

Dunque ρ(A) = 3 è massimo e dim(V ) > dim(W ), quindi f è suriettiva.


3. f : R3 −→ R3 associata alla matrice
⎛ ⎞
1 2 1
A = ⎝2 1 1⎠
1 −1 2

rispetto alla base canonica. Riducendo si ottiene la matrice


⎛ ⎞
1 2 1
′ ⎝
A = 0 −3 −1 ⎠
0 0 2

che è di rango massimo e poichè dim(V ) = dim(W ), f è un isomorfismo.

L’isomorfismo (naturale) tra R3 e VO 3


è un caso particolare di una situazione più
generale. Vale infatti il seguente risultato per R-spazi vettoriali della stessa dimensione.

2.16. Teorema. Siano V e W due R-spazi vettoriali della stessa dimensione. Allora V e
W sono isomorfi.

Dimostrazione. Basta costruire un isomorfismo f : V −→ W . A tale scopo si fissino una


base B = (v1 , . . . , vn ) di V ed una base C = (w1 , . . . , wn ) di W . Sia f l’applicazione lineare
definita da: f (vi ) = wi per ogni i; tale f esiste ed è unica per 1.10. Poiché MfB,C = In e
ρ(In ) = n, si ha che f è un isomorfismo per 2.15. !

99
2.17. Corollario. Se V è un R-spazio vettoriale di dimensione n, allora V ∼
= Rn . !

3. Composizione di applicazioni lineari

3.1. Definizione. Siano f : V −→ W e g : W −→ Z due applicazioni lineari di R-spazi


vettoriali. Si dice applicazione composta di g con f , e si indica con g ◦ f , l’applicazione

g ◦ f : V −→ Z

definita da: (g ◦ f )(v) = g(f (v)), per ogni v ∈ V .

La trascrizione di questa definizione in termini di matrici è nella seguente proposizione


di cui omettiamo la dimostrazione.

3.2. Proposizione. Siano f : V −→ W e g : W −→ Z due applicazioni lineari di R-spazi


vettoriali e siano B, C, D basi di V , W , Z, rispettivamente. Allora
B,D
Mg◦f = MgC,D · MfB,C .

3.3. Definizione. Sia f : V −→ W un’applicazione lineare. Si dice che f è invertibile se


esiste un’applicazione lineare g : W −→ V tale che g ◦ f = idV e f ◦ g = idW ; in tal caso
g si dice applicazione inversa di f e si indica con f −1 .

3.4. Lemma. Sia f : V −→ W un’applicazione lineare. Allora f è invertibile se e solo se


f è un isomorfismo.

Dimostrazione. Dalla teoria generale delle funzioni è noto che un’applicazione è invertibile
se e solo se è biettiva (iniettiva e suriettiva). Quindi se un’applicazione lineare è invertibile
essa è un isomorfismo. Viceversa, supponiamo f isomorfismo; dobbiamo solo verificare che
la sua inversa è a sua volta un’applicazione lineare. Siano allora w1 , w2 ∈ W . Poiché f è
biettiva, esistono v1 , v2 ∈ V univocamente determinati tali che w1 = f (v1 ) e w2 = f (v2 ).
Siani ora λ1 , λ2 ∈ R. Allora, poichè f è lineare:

λ1 w1 + λ1 w2 = f (λ1 v1 + λ1 v2 )

da cui, applicando f −1 :

f −1 (λ1 w1 + λ1 w2 ) = λ1 v1 + λ1 v2 = λ1 f −1 (w1 ) + λ1 f −1 (w1 ),

ovvero f −1 è a sua volta un’ applicazione lineare. !

100
3.5. Corollario. Sia f : V −→ W un’applicazione lineare invertibile. Allora

dim(V ) = dim(W ).

Dimostrazione. Per il lemma 3.4 f è un isomorfismo, quindi la tesi si ha per 2.12. !

3.6. Teorema. Sia f : V −→ W un’applicazione lineare. Sono fatti equivalenti:


i) f è invertibile;
ii) f è un isomorfismo;

iii) comunque scelte B e C, basi di V e W rispettivamente, la matrice MfB,C è quadrata


invertibile. In tal caso D E−1
B,C
Mf = MfC,B
−1 .

Dimostrazione. i) ⇔ ii) E’ il lemma 3.4.

i) ⇒ iii) Per 3.5 si ha dim(V ) = dim(W ), dunque MfB,C è quadrata. Per ipotesi esiste
f −1 ; basta dunque provare che
MfC,B B,C
−1 · Mf = In

ove n = dim(V ). Ma per 3.2 si ha: MfC,B B,C


−1 Mf = MfB,B B,B
−1 ◦f = Mid
V
= In .

iii) ⇒ i) Si ponga A := MfB,C ; per ipotesi A è quadrata ed esiste A−1 . Sia

fAB,C
−1 : W −→ V

l’applicazione lineare associata ad A−1 ; per brevità poniamo fAB,C


−1 = g. Mostriamo che g è

l’inversa di f . Per definizione, con n = dim(W ) = dim(V ) se w ∈ W , e w = (y1 , . . . , yn )C ,


allora g(w) = (A−1t (y1 , . . . , yn ))B . Dunque

f (g(w)) = f ((A−1t (y1 , . . . , yn ))B ) =


= (A(A−1t (y1 , . . . , yn )))C = (In t (y1 , . . . , yn ))C

quindi f (g(w)) = (y1 , . . . , yn )C = w, cioè f ◦ g = idW . Analogamente si mostra che


g ◦ f = idV , pertanto g = f −1 e quindi f è invertibile. !

Possiamo riottenere il risultato nella Proposizione 6.11 del Cap. V come:

3.7. Corollario. Sia A ∈ Rn,n ; A è invertibile se e solo se è di rango massimo.

Dimostrazione. Sia f = fAE,E : Rn −→ Rn . Per 3.6 si ha che A è invertibile se e solo se


f è un isomorfismo e ciò è equivalente, per 2.16, al fatto che f , e dunque A, è di rango
massimo. !

101
3.7.1. Esempio. Sia f : R3 −→ R3 data da

f ((x, y, z)) = (x − y + z, 2y + z, z).

Dopo aver provato che f è invertibile, vogliamo determinare l’applicazione inversa f −1 .


Posta E la base canonica di R3 , sia
⎛ ⎞
1 −1 1
A = MfE,E = ⎝ 0 2 1 ⎠ .
0 0 1

Poiché A è ridotta, ρ(A) = 3, dunque f è un isomorfismo; in particolare è invertibile per


3.4. Inoltre, per 3.6, f −1 è l’applicazione lineare associata alla matrice A−1 . Calcoliamo
dunque la matrice inversa di A. Sia
⎛ ⎞
x1 x 2 x3
A−1 = ⎝ y1 y2 y3 ⎠ = (X1 , X2 , X3 ),
z1 z2 z3

ove Xi denota la i-esima colonna della matrice A−1 , con i = 1, 2, 3.


Imponiamo dunque che sia AA−1 = I3 , cioè
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 −1 1 x 1 x2 x 3 1 0 0
⎝ 0 2 1 ⎠ ⎝ y1 y2 y3 ⎠ = ⎝ 0 1 0 ⎠ .
0 0 1 z1 z2 z3 0 0 1

Uguagliando, rispettivamente, la prima, la seconda e la terza colonna delle matrici AA−1


ed I3 si hanno 3 sistemi lineari e precisamente:
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 −1 1 x1 1
⎝ 0 2 1 ⎠ ⎝ y1 ⎠ = ⎝ 0 ⎠ cioè AX1 = t e1 ,
0 0 1 z1 0

e successivamente AX2 = t e2 e AX3 = t e3 . Risolvendo tali sistemi si ha


⎧ ⎧
⎨ x1 − y1 + z1 = 1 ⎨ x1 = 1
2y1 + z1 = 0 ⇒ y1 = 0
⎩ ⎩
z1 = 0 z1 = 0

⎧ ⎧
⎨ x2 − y2 + z2 = 0 ⎨ x2 = 1/2
2y2 + z2 = 1 ⇒ y = 1/2
⎩ ⎩ 2
z2 = 0 z2 = 0

⎧ ⎧
⎨ x3 − y3 + z3 = 0 ⎨ x3 = −3/2
2y3 + z3 = 0 ⇒ y = −1/2
⎩ ⎩ 3
z3 = 1 z3 = 1

102
Pertanto ⎛ ⎞
1 1/2 −3/2
A−1 = ⎝ 0 1/2 −1/2 ⎠ .
0 0 1

4. Cambiamento di base in uno spazio vettoriale

Un problema importante è quello di confrontare le componenti di un vettore rispetto


a basi diverse nello stesso spazio vettoriale.
Ad esempio, consideriamo lo spazio vettoriale R2 con le basi
E = (e1 = (1, 0), e2 = (0, 1)), B = (b1 = (1, 2), b2 = (3, 4)).
Un qualunque vettore v ∈ R2 si potrà scrivere in componenti in due modi:
v = (x1 , x2 )B = (y1 , y2 )E ;
come vedremo, le componenti rispetto alle due basi sono collegate da una matrice. Ad
esempio, consideriamo il vettore v ∈ R2 avente per componenti (−1, 2)B , rispetto alla base
B. Per conoscere le componenti di v rispetto alla base canonica E basta osservare che
v = −b1 + 2b2 = −(e1 + 2e2 ) + 2(3e1 + 4e2 ) = 5e1 + 6e2 . Dunque v = (5, 6)E .
Osserviamo quindi che le componenti di v rispetto ad E dipendono sia dalle componenti
di v rispetto a B che dalle componenti dei vettori b1 , b2 rispetto ad E; precisamente
! " ! "! "
5 1 3 −1
= .
6 2 4 2
In generale, posta ! "
1 3
A= ,
2 4
per un vettore v di R2 di componenti (x1 , x2 )B e (y1 , y2 )E la relazione precedente diventa:
t
(y1 , y2 ) = At (x1 , x2 ).
Si osservi che le colonne della matrice A sono le componenti dei vettori b1 , b2 della base
B, rispetto alla base E. La matrice A ∈ R2,2 può essere pensata come associata ad una
applicazione lineare f : R2 −→ R2 , una volta fissate due basi di R2 . Se fissiamo, in
particolare, la base B nel dominio e la base E nel codominio, cioè se f = fAB,E ; in tal caso,
poiché b1 = (1, 0)B e b2 = (0, 1)B , si ha:
fAB,E (b1 ) = (At (1, 0))E = t (1, 2)E = b1
e analogamente
fAB,E (b2 ) = (At (0, 1))E = t (3, 4)E = b2 .
Pertanto fAB,E = idR2 o, equivalentemente, A = Mid
B,E B,E
. Chiameremo Mid la matrice del
R2 R2
cambio di base da B a E

In generale abbiamo la seguente:

103
4.1. Proposizione. Sia V un R-spazio vettoriale di dimensione n, B e C due sue basi.
Denotando con (x1 , . . . , xn )B e con (y1 , . . . , yn )C le componenti di un vettore v, rispetto a
B e C rispettivamente, si ha
t B,C t
(y1 , . . . , yn ) = MidV
(x1 , . . . , xn ).

Dimostrazione. Si consideri l’applicazione identica idV : V −→ V ; dunque se v ∈ V , allora


f (v) = v, cioè in termini di matrici:

B,C t
(Mid V
(x1 , . . . , xn ))C = (t (y1 , . . . , yn ))C .

Tale uguaglianza di vettori di V implica l’uguaglianza delle loro componenti rispetto a C,


cioè la tesi. !

B,C
4.2. Definizione. La matrice Mid V
si dice matrice del cambio di base da B a C e si indica
B,C
anche con M .

4.2.1. Esempio. Siano B = (v1 , v2 , v3 ) e C = (w1 , w2 , w3 ) due basi di R3 , dove

v1 = (0, 1, −1), v2 = (1, 0, −1), v3 = (2, −2, 2),

w1 = (0, 1, 1), w2 = (1, 0, 1), w3 = (1, 1, 0).


Sia v = (1, −1, 1)B ; vogliamo determinare le componenti di v rispetto a C.
A tale scopo costruiamo la matrice associata al cambiamento di base:
⎛ ⎞
0 −1 −1
M B,C ⎝
= −1 0 3 ⎠
1 1 −1

ottenuta risolvendo i seguenti sistemi lineari:

v1 = a11 w1 + a21 w2 + a31 w3


v2 = a12 w1 + a22 w2 + a32 w3
v3 = a13 w1 + a23 w2 + a33 w3 .

Ne segue che
v = (y1 , y2 , y3 )C = (M B,C t (x1 , x2 , x3 ))C =

⎛⎛ ⎞⎛ ⎞⎞
0 −1 −1 1
= ⎝⎝ −1 0 3 ⎠ ⎝ −1 ⎠⎠ = (0, 2, −1)C
1 1 −1 1 C

quindi v = 2w2 − w3 .

104
4.3. Teorema. Sia V un R-spazio vettoriale, B e C due sue basi. Allora M B,C è invertibile
e la sua inversa è F B,C G−1
M = M C,B .
D E−1
B,C B,C B,C C,B
Dimostrazione. Basta ricordare che M = MidV
; inoltre per 3.6 MidV
= M(id V)
−1 .

Ma (idV )−1 = idV e ciò prova la tesi. !

4.4. Teorema. Sia A ∈ Rn,n una matrice invertibile. Allora, denotando con v1 , . . . , vn i
vettori colonna di A e ponendo B = (v1 , . . . , vn ), si ha:
i) B è una base di Rn ;
ii) A = M B,E , ove E è la base canonica di Rn .

Dimostrazione. i) Per 3.7 A è di rango massimo, cioè ρ(A) = n; in particolare i vettori


v1 , . . . , vn , essendo le colonne di A, sono linearmente indipendenti. Ma n vettori indipen-
denti in Rn sono una sua base (vedi Cap.4).
ii) Ovvio. !

4.5. Osservazione. Da 4.3 e da 4.4, segue che le matrici invertibili di ordine n, cioè gli
elementi di GL(n, R), sono tutte e sole le matrici di cambiamento di base di Rn .

4.5.1. Esempio. Si consideri la matrice


⎛ ⎞
1 1 −1
A = ⎝0 1 2 ⎠,
0 0 1

che è invertibile, in quanto di rango massimo ρ(A) = 3. Dunque le colonne di A

v1 = (1, 0, 0), v2 = (1, 1, 0), v3 = (−1, 2, 1)

costituiscono una base di R3 .


B,E B,E
Inoltre A = M B,E = Mid , con B = (v1 , v2 , v3 ), infatti le colonne di Mid sono
3 R 3 R

idR3 (v1 ) = v1 = (1, 0, 0)


idR3 (v2 ) = v2 = (1, 1, 0)
idR3 (v3 ) = v3 = (−1, 2, 1)
e coincidono dunque con le colonne di A.

Data un’applicazione lineare f : V −→ W e la matrice ad essa associata MfB,C rispetto


alle basi B di V e C di W , è naturale chiedersi come essa cambi al variare delle basi.

Nel seguito useremo una notazione sintetica: nel caso che si operi in V rispetto alla
base B, con VB intenderemo semplicemente lo spazio vettoriale V riferito alla base B.

105
4.6. Teorema. Siano V e W due R-spazi vettoriali, B e B ′ basi di V , C e C ′ basi di W .
Sia f : V −→ W un’applicazione lineare; allora
′ ′ ′ ′
MfB ,C = M C,C · MfB,C · M B ,B .

Dimostrazione. Osserviamo che la situazione si può riassumere col seguente diagramma

f
VB −−−−−−→ WC
H ⏐
⏐ ⏐
⏐ ⏐
idV ⏐ J idW

VB ′ −−−−−−→ WC ′
f

che è commutativo, cioè il “percorso” fatto in un senso equivale a quello fatto nell’altro:
più precisamente
f = idW ◦ f ◦ idV .
In termini di matrici: ′ ′ ′ ′
MfB ,C = Mid
B ,C
W ◦f ◦idV
.
Applicando l’associatività della composizione di applicazioni lineari e 3.2 si ha:
′ ′ ′ ′
B ,C C,C
Mid W ◦f ◦idV
= Mid W
· MfB,C · Mid
B ,B
V
.

Dalle due precedenti relazioni si ha la tesi. !

4.6.1. Esempio. Si consideri l’applicazione lineare f : R2B −→ R3C associata alla matrice
⎛ ⎞
1 2
A = MfB,C = ⎝ −1 0 ⎠
1 1

dove B = ((1, 1), (0, 1)) e C = ((1, 1, 0), (1, 0, 1), (0, 1, 1)). Vogliamo determinare la matrice
B = MfE2 ,E3 , dove E2 è la base canonica di R2 e E3 è la base canonica di R3 .
Il diagramma visto nella dimostrazione di 4.6 diventa dunque:

B,C
fA
R B
2
−−−−−−→ R3 C
H ⏐
⏐ ⏐
⏐ ⏐
idR2 ⏐ J idR3

R 2 E2 −−−−−−→ R3 E3
E ,E3
fB2

106
Da cui
B = MfE2 ,E3 = M C,E3 A M E2 ,B .
Dobbiamo quindi calcolare M C,E3 e M E2 ,B . Si ha immediatamente che
⎛ ⎞
1 1 0
M C,E3 = ⎝ 1 0 1 ⎠
0 1 1
F G−1
mentre per determinare M E2 ,B basta osservare che M E2 ,B = M B,E2 , per 4.3; poiché
! "
B,E2 1 0
M =
1 1
! " ! "! " ! "
x z 1 0 x z 1 0
la sua inversa si calcola ponendo = e risolvendo il
y t 1 1 y t 0 1
sistema associato. Si determina dunque
! "
E2 ,B 1 0
M =
−1 1

e quindi ⎛ ⎞⎛ ⎞ ⎛ ⎞
1 1 0 1 2 ! " −2 2
⎝ 1 0
B= 1 0 1 ⎠ ⎝ −1 0 ⎠ = ⎝ −1 3 ⎠ .
−1 1
0 1 1 1 1 −1 1

Come applicazione della teoria svolta in questo capitolo, concludiamo con un esempio
di costruzione di applicazione lineare:

4.6.2. Esempio. Costruire un’applicazione lineare f : R3 −→ R3 tale che


f (1, 0, 2) = 0 e Im(f ) = L((1, 1, 0), (2, −1, 0)).
Tale applicazione lineare è univocamente determinata?

Poniamo v1 = (1, 0, 2), v2 = (1, 1, 0), v3 = (2, −1, 0). Poiché f è individuata dai valori
che assume su una base del dominio, scegliamo una base opportuna di R3 ; ad esempio
completiamo v1 ad una base usando elementi della base canonica. Consideriamo dunque
(v1 , e1 , e2 ); tale insieme è una base visto che la matrice che ha tali vettori come righe:
⎛ ⎞
1 0 2
⎝1 0 0⎠.
0 1 0

ha rango 3, cosi si vede notando che tale matrice è ridotta per righe. Quindi, poichè
B = (v1 , e1 , e2 ) una base di R3 ; possiamo determinare f ponendo

f (v1 ) = 0R3 , f (e1 ) = v2 , f (e2 ) = v3 .

107
Tale applicazione verifica le condizioni richieste, infatti
Im(f ) = L(f (v1 ), f (e1 ), f (e2 )) = L(v2 , v3 ).
Se vogliamo determinare una matrice associata ad f , abbiamo
⎛ ⎞
0 1 2
MfB,E = ⎝ 0 1 −1 ⎠ .
0 0 0

Ci chiediamo adesso se i vettori in questione, cioè v1 , v2 , v3 , formano una base; come


prima consideriamo la matrice che ha tali vettori come righe e riduciamola per righe:
⎛ ⎞ ⎛ ⎞
1 0 2 1 0 2
A = ⎝ 1 1 0 ⎠ −→ ⎝ 1 1 0 ⎠ .
2 −1 0 3 0 0
Dunque ρ(A) = 3 e quindi C = (v1 , v2 , v3 ) è una base di R3 . Sia g l’applicazione lineare
definita da:
g(v1 ) = 0R3 , g(v2 ) = v2 , g(v3 ) = v3 .
Anche tale applicazione verifica le condizioni richieste; in tal caso, inoltre, è immediato
determinare la matrice associata rispetto alla stessa base C:
⎛ ⎞
0 0 0
MgC,C = ⎝ 0 1 0 ⎠ .
0 0 1
Sembra chiaro, dal modo come sono state definite, che f e g sono diverse; per verificarlo
basta osservare che le matrici associate ad esse rispetto alla stessa coppia di basi sono
diverse. Determiniamo dunque MgB,E e proviamo che MgB,E è diversa da MfB,E .

Abbiamo visto che MgB,E = M C,E MgC,C M B,C e anche MgB,E = MgC,E M B,C ; questa seconda
uguaglianza ci permette di evitare un prodotto di matrici, in quanto la determinazione di
MgC,E è immediata: le sue colonne sono esattamente g(v1 ), g(v2 ), g(v3 ), cioè:
⎛ ⎞
0 1 2
MgC,E = ⎝ 0 1 −1 ⎠ .
0 0 0
Inoltre M B,C ha per colonne le componenti di v1 , e1 , e2 rispetto a C.
Ovviamente v1 = 1v1 + 0v2 + 0v3 ; per i restanti vettori, operiamo come al solito e troviamo
e1 = 1/3v2 + 1/3v3 ed e2 = 2/3v2 − 1/3v3 ; quindi
⎛ ⎞
1 0 0
M B,C = ⎝ 0 1/3 2/3 ⎠ ,
0 1/3 −1/3
quindi
⎛ ⎞⎛ ⎞ ⎛ ⎞
0 1 2 1 0 0 0 1 0
MgB,E = MgC,E M B,C = ⎝ 0 1 −1 ⎠ ⎝ 0 1/3 2/3 ⎠ = ⎝ 0 0 1 ⎠
0 0 0 0 1/3 −1/3 0 0 0
dunque MgB,E ̸= MfB,E , quindi g ̸= f .

108
VIII - DIAGONALIZZAZIONE DI MATRICI

1. Endomorfismi semplici, autovettori

1.1. Definizione. Sia V un R-spazio vettoriale; un’applicazione lineare φ : V −→ V si


dice endomorfismo di V . L’insieme di tutti gli endomorfismi di V si indica con End(V ).

Abbiamo visto che, fissato un endomorfismo φ ∈ End(V ), la matrice MφB,C associata a


φ cambia al variare delle basi B e C. Per motivi che saranno chiari in seguito, è opportuno
studiare matrici associate ad un endomorfismo rispetto alla stessa base nel dominio e nel
codominio, cioè matrici del tipo MφB,B .
Si può mostrare che End(V ) è a sua volta un R-spazio vettoriale rispetto alle (con-
suete) operazioni di somma di applicazioni lineari e di prodotto di un applicazione lineare
per uno scalare. Inoltre, fissata una base B di V , la corrispondenza biunivoca

End(V ) −→ Rn,n

definita da
φ .→ MφB,B

è un isomorfismo di R-spazi vettoriali; in particolare, se dim V = n, allora End(V ) ha


dimensione n2 .

E’ naturale chiedersi se esistano delle basi per le quali una matrice del tipo MφB,B ha
una forma particolarmente “semplice”, ad esempio diagonale. A tale scopo introduciamo
la seguente nozione:

1.2. Definizione. Due matrici A, B ∈ Rn,n si dicono simili se sono associate ad uno
stesso endomorfismo di Rn e si scrive A ∼ B.

Si può caratterizzare la similitudine di due matrici attraverso una proprietà puramente


algebrica:

1.3. Proposizione. Due matrici A, B ∈ Rn,n sono simili se e solo se esiste una matrice
P ∈ GL(n) tale che P −1 AP = B.

Dimostrazione. Supponiamo A ∼ B; allora esiste un endomorfismo φ : Rn −→ Rn e due


basi B e C di Rn tali che A = MφB,B e B = MφC,C . Pertanto B = M B,C AM C,B . Ma M C,B è
invertibile e (M C,B )−1 = M B,C . Si conclude ponendo P = M C,B .
Viceversa, supponiamo che esista P ∈ GL(n) tale che P −1 AP = B. Poiché si può inter-
pretare una matrice invertibile P come matrice di un opportuno cambio di base di Rn (vedi
4.4 e 4.5, Cap. 7), esiste una base C di Rn tale che P = M C,E e quindi P −1 = M E,C . Sia

109
quindi φ = fAE,E l’endomorfismo di Rn associato alla matrice A rispetto alla base canonica
E, da cui A = MφE,E . Pertanto

B = P −1 AP = M E,C MφE,E M C,E = MφC,C .


Quindi anche B è associata allo stesso endomorfismo φ; pertanto A e B sono simili. !

1.4. Osservazione. La relazione ∼ è una relazione di equivalenza in Rn,n . Infatti è:


a) riflessiva, cioè A ∼ A in quanto A = In AIn ;
b) simmetrica, cioè A ∼ B ⇒ B ∼ A, in quanto P −1 AP = B ⇒ P BP −1 = A;
c) transitiva, in quanto A ∼ B, B ∼ C ⇒ A ∼ C (infatti P −1 AP = B, Q−1 BQ = C ⇒
Q−1 P −1 AP Q = (P Q)−1 A(P Q) = C).

Data una matrice A ∈ Rn,n , indichiamo con [A] = {B ∈ Rn,n | B ∼ A} la sua classe di
equivalenza. Ci chiediamo se in [A] esiste una matrice diagonale o, in altri termini, quando
una matrice A è simile ad una matrice diagonale.

1.5. Definizione. Una matrice A ∈ Rn,n si dice diagonalizzabile se è simile ad una


matrice diagonale, cioè se esiste ∆ ∈ [A] con ∆ matrice diagonale.

La corrispondente nozione per gli endomorfismi è la seguente:

1.6. Definizione. L’endomorfismo φ ∈ End(V ) si dice semplice se esiste una base B di


V tale che MφB,B è diagonalizzabile.

L’essere semplice è una proprietà intrinseca dell’endomorfismo e quindi non dipende


dalla base. Infatti

1.7. Proposizione. Sia V un R-spazio vettoriale e sia φ ∈ End(V ); sono fatti equivalenti:

i) esiste una base B di V tale che MφB,B è diagonalizzabile;

ii) per ogni base D di V la matrice MφD,D è diagonalizzabile;

iii) esiste una base C di V tale che MφC,C è diagonale.

Dimostrazione. i) ⇒ ii) Per ipotesi MφB,B è simile ad una matrice diagonale ∆. Sia ora D
una qualunque base di V ; poiché MφD,D ∼ MφB,B per definizione e ∼ è transitiva, ne segue
che MφD,D ∼ ∆, cioè MφD,D è diagonalizzabile.
ii) ⇒ i) Ovvio.

i) ⇒ iii) Per ipotesi MφB,B è simile ad una matrice diagonale ∆, cioè ∆ = MφC,C per
un’opportuna base C di V .

110
iii) ⇒ ii) Viceversa, sia C una base di V tale che MφC,C = ∆ sia diagonale. Allora, per
ogni base D, si ha che MφD,D ∼ ∆, cioè è diagonalizzabile. !

Quindi un endomorfismo φ è semplice se verifica una delle condizioni equivalenti di 1.7.

1.8. Osservazione. Sia φ : V −→ V un endomorfismo semplice e sia ∆ = MφC,C una


matrice diagonale associata a φ cioè
⎛ ⎞
λ1 0 0 ··· 0
⎜ 0 λ2 0 ··· 0 ⎟
∆=⎜
⎝ ... .. .. .. ⎟ .
. . . ⎠
0 0 0 ··· λn

Allora, se C = (v1 , . . . , vn ), si ha φ(vi ) = λi vi per ogni i = 1, . . . , n.

I vettori della base C e gli scalari λi giocano un ruolo centrale nella teoria che stiamo
sviluppando. Diamo quindi la seguente

1.9. Definizione. Sia V un R-spazio vettoriale e sia φ ∈ End(V ); se v ∈ V è un vettore


non nullo e se esiste λ ∈ R tale che
φ(v) = λv,

allora λ si dice autovalore di φ e v si dice autovettore di φ associato a λ.

1.10. Osservazione. a) Con la terminologia ora introdotta, 1.8 si riformula nel seguente
modo: sia φ ∈ End(V ) e sia C una base di V ; allora

MφC,C è diagonale ⇐⇒ C è una base costituita da autovettori.

b) Inoltre, tenuto conto di 1.6, si ha

φ è semplice ⇐⇒ esiste una base di V costituita da autovettori.

A questo punto, data una matrice A diagonalizzabile, cioè A ∼ ∆, con ∆ matrice


diagonale, ci chiediamo se ∆ è unica. A tale scopo introduciamo la nozione di autospazio
e proviamo alcune proprietà relative ad autovalori ed autovettori.

1.11. Proposizione - Definizione. Sia V un R-spazio vettoriale e sia φ ∈ End(V ); se


λ è un autovalore di φ, allora l’insieme

Vλ = {v ∈ V | φ(v) = λv}

111
è un sottospazio vettoriale di V e viene detto autospazio associato all’autovalore λ.

Dimostrazione. Come al solito si prova che Vλ è chiuso per combinazioni lineari. Siano
allora v1 e v2 due elementi in Vλ ed a1 , a2 ∈ R. Poichè φ è un’applicazione lineare, dalle
proprietà chiamate L1) ed L2) nella definizione 1.2 Cap. 7, si ha che:

φ(a1 v1 + a2 v2 ) = a1 φ(v1 ) + a2 φ(v2 ) = a1 λv1 + a2 λv2 = λ(a1 v1 + a2 v2 )

da cui si conclude che a1 v1 + a2 v2 ∈ Vλ . !

1.11.1. Esempio. L’endomorfismo φ di R2 definito da φ(x, y) = (2x, 3y) è semplice in


quanto la matrice associata rispetto alla base canonica E
! "
E,E 2 0
Mφ =
0 3

è diagonale. Inoltre gli autovalori di φ sono λ1 = 2 e λ2 = 3 con autovettori, rispettiva-


mente, e1 ed e2 . Si osservi infine che gli autospazi sono:

V2 = {(x, y) ∈ R2 | φ(x, y) = 2(x, y)} = {(x, y) ∈ R2 | y = 0}

cioè V2 = L(e1 ). Analogamente si trova V3 = L(e2 ).

1.11.2. Esempio. Sia φ ∈ End(R2 ) definito da φ((x, y)) = (y, x); ci chiediamo se φ è
semplice. Contrariamente all’esempio precedente, la matrice associata a φ rispetto alla
base canonica è ! "
E,E 0 1
Mφ =
1 0
che non è diagonale. Cerchiamo quindi una base rispetto alla quale la matrice associata lo
sia (v. 1.7). Ma, per 1.10, è sufficiente che tale base sia costituita da autovettori. Pertanto
studiamo gli autospazi di φ.
Affinché v = (a, b) sia un autovettore, deve essere φ((a, b)) = λ(a, b) per qualche λ ∈ R;
cioè deve esistere un λ tale che )
b = λa
.
a = λb
Segue che λ2 = 1 ovvero gli autovalori sono λ = ±1. I corrispondenti autospazi sono:

V1 = {(x, y) ∈ R2 | φ((x, y)) = (x, y)} = {(x, x) ∈ R2 } = L((1, 1))

V−1 = {(x, y) ∈ R2 | φ((x, y)) = −(x, y)} = {(x, −x) ∈ R2 } = L((1, −1)).
I due vettori (1, 1), (1, −1) sono chiaramente linearmente indipendenti e costituiscono la
base B = ((1, 1), (1, −1)) rispetto a cui la matrice associata a φ è diagonale:
! "
B,B 1 0
Mφ = .
0 −1

112
Pertanto φ è semplice. Osserviamo inoltre che MφB,B e MφE,E sono simili, in quanto associate
allo stesso endomorfismo di R2 . Per verificarlo algebricamente, sia
! "
B,E 1 1
P =M =
1 −1

la matrice del cambio base. Un calcolo diretto mostra:


! "−1 ! "! " ! "
1 1 0 1 1 1 1 0
= ,
1 −1 1 0 1 −1 0 −1

ovvero P −1 MφE,E P = MφB,B , come da proposizione 1.3.


Teniamo presente che questo esempio verrà generalizzato nella procedura per determinare
se un qualunque endomorfismo è semplice o meno.

1.11.3. Esempio. Non tutti gli endomorfismi sono semplici. Ad esempio φ ∈ End(R2 )
definito da φ((x, y)) = (−y, x) non è semplice. Infatti se v = (a, b) fosse un autovettore,
φ((a, b)) = λ(a, b) per qualche λ ∈ R, si avrebbe (−b, a) = λ(a, b). Ma il sistema
)
−b = λa
a = λb

ha solo la soluzione nulla a = b = 0; quindi φ non ha autovettori.

1.12. Proposizione. Sia V un R-spazio vettoriale e sia φ ∈ End(V ); se λ1 , λ2 ∈ R sono


autovalori distinti e 0V ̸= vi ∈ Vλi , i = 1, 2, allora v1 , v2 sono linearmente indipendenti.

Dimostrazione. Sia, per assurdo


v2 = αv1 , (∗)
con α scalare non nullo. Quindi, applicando φ ad ambo i membri e tenendo conto del fatto
che v1 e v2 sono autovettori di autovalore λ1 e λ2 , si ha

λ2 v2 = φ(v2 ) = αφ(v1 ) = αλ1 v1 = λ1 v2

usando (∗). Quindi:


(λ2 − λ1 )v2 = 0V .
Essendo gli autovalori distinti per ipotesi, se segue che v2 = 0V , contro l’ipotesi. !
Iterando la dimostrazione si mostra la seguente:

1.13. Proposizione. Sia V un R-spazio vettoriale e sia φ ∈ End(V ); siano λ1 , . . . , λs ∈ R


autovalori distinti di φ e 0V ̸= vi ∈ Vλi , i = 1, . . . , s, corrispondenti autovettori. Allora
{v1 , . . . , vs } è un insieme libero di vettori.

1.14. Corollario. Sia V un R-spazio vettoriale di dimensione n e sia φ ∈ End(V ); allora:

113
i) φ ha al più n autovalori distinti;
ii) se λ1 , . . . , λs ∈ R sono autovalori distinti, allora Vλ1 + · · · + Vλs è somma diretta.

Dimostrazione. i) Se φ avesse s autovalori distinti, con s > n, allora esisterebbero v1 , . . . , vs


autovettori non nulli associati rispettivamente ad ognuno di essi. Per 1.13 tali vettori
sarebbero linearmente indipendenti, ma ciò è impossibile, poiché dim(V ) = n.
ii) E’ sufficiente mostrare che ogni vettore v ∈ Vλ1 + · · · + Vλs si può scrivere in modo
unico come
v = v1 + · · · + vs
con vi ∈ Vλi . Supponiamo che sia

v = w1 + · · · + ws

con wi ∈ Vλi e dunque


(v1 − w1 ) + · · · + (vs − ws ) = 0V .
Quindi i vettori zi = vi − wi sono linearmente dipendenti; d’altra parte zi ∈ Vλi , per
ogni i, dunque z1 , . . . , zs devono essere nulli, altrimenti per 1.13 sarebbero linearmente
indipendenti. Quindi vi = wi per ogni i e le due scritture del vettore v sono la stessa. !

2. Polinomio caratteristico

Lo scopo di questo paragrafo è il calcolo degli autovalori di un endomorfismo.

2.1. Lemma. Sia V un R-spazio vettoriale di dimensione n, sia φ ∈ End(V ) e sia λ ∈ R.


I seguenti fatti sono equivalenti:
i) λ ∈ R è un autovalore di φ;

ii) det(MφB,B − λIn ) = 0, per ogni base B di V .

Dimostrazione. Osservando il fatto che la relazione φ(v) = λv è equivalente a

(φ − λ idV )(v) = 0,

l’enunciato segue dalla seguente serie di equivalenze:


λ autovalore di φ ⇔ la precedente equazione ha soluzioni non nulle v ̸= OV ⇔ per
l’applicazione lineare φ − λ idV si ha che ker(φ − λ idV ) ̸= {0V } ⇔ φ − λ idV non è un
isomorfismo ⇔ det(MφB,B − λIn ) = 0, notando che all’applicazione lineare φ − λ idV si
associa la matrice MφB,B − λIn nella base B. !

114
2.2. Lemma. Sia A ∈ Rn,n una matrice quadrata; allora l’espressione det(A − T In ) è un
polinomio pA (T ) di grado n in T a coefficienti in R.

Dimostrazione. Sia A = (aij ), dunque


* *
* a11 − T a12 ··· a1n *
* *
* a21 a22 − T ··· a2n *
det(A − T In ) = ** .. .. .. *.
*
* . . . *
* *
an1 an2 ··· ann − T
Calcolando tale determinante come nel paragrafo 5 del Cap. 5, si ottiene:
det(A − T In ) = (−1)n T n + (−1)n−1 (a11 + · · · + ann )T n−1 + · · · + det(A),
ovvero un polinomio del tipo detto. !

2.3. Definizione. Il polinomio pA (T ) si dice polinomio caratteristico della matrice A.

2.4. Esempio. Se n = 2 si ha
pA (T ) = T 2 − (a11 + a22 )T + det(A).
D’altra parte, dette λ1 e λ2 le radici di pA (T ), l’espressione di un’equazione di secondo
grado in funzione della somma e del prodotto delle sue radici è
pA (T ) = T 2 − (λ1 + λ2 )T + λ1 λ2 ,
dunque
λ1 + λ2 = a11 + a22 , λ1 λ2 = det(A).

2.5. Proposizione. Sia V un R-spazio vettoriale di dimensione n e sia φ ∈ End(V ). Se


B e C sono due basi di V , poste A = MφB,B e B = MφC,C , allora
pA (T ) = pB (T ).

Dimostrazione. Per ipotesi B = P −1 AP , dove P = M C,B . Vogliamo provare che


det(A − T I) = det(B − T I).
Ricordiamo che, date due matrici M, N ∈ Rn,n , si ha det(M N ) = det(M ) det(N ), per il
teorema di Binet. Poiché det(P −1 ) det(P ) = det(I) = 1, si ha
det(A − T I) = det(P −1 ) det(A − T I) det(P ) = det(P −1 (A − T I)P )
dove l’ultima uguaglianza segue ancora dal teorema di Binet.
Poiché P −1 (A − T I)P = P −1 AP − P −1 (T I)P = B − T I, si ha la tesi. !

Pertanto il polinomio caratteristico non dipende dalla matrice associata a φ; quindi


diamo la seguente

2.6. Definizione. Per ogni matrice A associata ad un endomorfismo φ di V , si pone


pφ (T ) = pA (T ) e si dice polinomio caratteristico di φ.

115
2.7. Corollario. Gli autovalori di φ sono le radici di pφ (T ) che appartengono a R.

Dimostrazione. Segue da 2.1. !

2.7.1. Esempio. Sia ! "


0 1
A= .
−1 0
Si ha pA (T ) = T 2 − 1, quindi le sue radici sono λ1 = i e λ2 = −i. Pertanto A ha 2
autovalori in C e nessuno in R.

2.8. Osservazione. Dalla teoria generale delle radici di un polinomio, sappiamo che un
polinonio a coefficienti reali può essere sempre fattorizzato su C. Quindi, dette λ1 , . . . , λs
le radici distinte del polinomio caratteristico, esso si può scrivere nella seguente forma:

pφ (T ) = (T − λ1 )m1 · · · (T − λs )ms .

dove mi = m(λi ) è la molteplicità della radice λi . Chiaramente m(λ1 ) + · · · + m(λs ) = n.


In generale le radici del polinomio caratteristico appartengono a C. In particolare, se
λ1 , . . . , λp sono autovalori di φ (cioè sono le radici di pφ (T ) appartenenti a R), si ha
m(λ1 ) + · · · + m(λp ) ≤ n e l’uguaglianza si ha se e solo se gli autovalori costituiscono tutte
le radici del polinomio caratteristico.

2.9. Proposizione. Sia V un R-spazio vettoriale e sia φ ∈ End(V ). Siano λ un autovalore


di φ di molteplicità m(λ) e Vλ il relativo autospazio; allora

1 ≤ dim(Vλ ) ≤ m(λ).

Dimostrazione. Sia r = dim(Vλ ) e C = (v1 , . . . , vr ) una sua base. Completiamo C ad una


base B = (v1 , . . . , vr , wr+1 , . . . , wn ) di V . Allora MφB,B è del tipo
⎛ ⎞
λ 0 ... 0 a1,r+1 ... a1,n
⎜0 λ ... 0 a2,r+1 ... a2,n ⎟
⎜ ⎟
⎜ .. .. .. .. .. ⎟
⎜. . . . . ⎟
B,B
⎜ ⎟
A = Mφ = ⎜ ⎜ 0 0 . . . λ a r,r+1 . . . a r,n
⎟.

⎜ 0 0 . . . 0 ar+1,r+1 . . . ar+1,n ⎟
⎜ ⎟
⎜. . . . . ⎟
⎝ .. .. .. .. .. ⎠
0 0 ... 0 an,r+1 ... an,n

Dunque pφ (T ) = det(A − T I) = (λ − T )r g(T ), dove g(T ) è il polinomio caratteristico della


matrice ⎛ ⎞
ar+1,r+1 . . . ar+1,n
⎜ .. .. ⎟ .
⎝ . . ⎠
an,r+1 ... an,n

116
Tale relazione si ottiene sviluppando ripetutamente il determinante col teorema di Laplace
secondo la prima colonna, ad esempio. Quindi r è minore o uguale di m(λ). !

2.10. Definizione. I numeri dim(Vλ ) e m(λ) vengono detti molteplicità geometrica e


molteplicità algebrica, rispettivamente, dell’autovalore λ.

Concludiamo con due semplici osservazioni, che seguono immediatamente dalla dis-
cussione precedente, particolarmente utili nella risoluzione degli esercizi.
2.11. Osservazione.
(a) Si osservi che, se λ ∈ R non è un autovalore, si può ancora considerare l’insieme
Vλ = {v ∈ V | φ(v) = λv}, ma esso è costituito dal solo vettore nullo (non è quindi
un autospazio) e viceversa. In breve, se λ ∈ R

λ autovalore ⇐⇒ Vλ ̸= {0V }.
(b) Se λ = 0R è un autovalore di φ, allora l’autospazio associato V0 coincide con ker(φ).

3. Diagonalizzazione

Lo scopo di questo paragrafo è di risolvere il problema iniziale, ovvero determinare un


metodo per capire se un endomorfismo sia semplice o meno. Come visto, questo equivale
a chiedersi se una matrice quadrata sia diagonalizzabile o meno.
Iniziamo con un importante teorema di caratterizzazione degli endomorfismi semplici.

3.1. Teorema. Sia V un R-spazio vettoriale e sia φ ∈ End(V ). Se λ1 , . . . , λs sono le


radici di pφ (T ) di molteplicità m(λ1 ), . . . , m(λs ), rispettivamente, allora sono equivalenti:
i) φ è semplice;
ii) esiste una base di V costituita da autovettori;
iii) V = Vλ1 ⊕ · · · ⊕ Vλs ;
iv) λi ∈ R e m(λi ) = dim(Vλi ), per ogni i = 1, . . . , s.

Dimostrazione. i) ⇔ ii) Già visto in 1.10.


ii) ⇒ iii) Sia B = (v1 , . . . , vn ) una base di autovettori. Allora ogni vi appartiene ad uno
degli autospazi, quindi

V = L(v1 , . . . , vn ) ⊆ Vλ1 + · · · + Vλs ;

l’altra inclusione è ovvia. Poiché la somma degli autospazi è diretta per 1.13, si ha la tesi.

117
iii) ⇒ ii) Sia Bi una base di Vλi , per ogni i; allora B = B1 ∪ . . . ∪ Bs è una base di V ,
ovviamente costituita da autovettori.
iii) ⇒ iv) Per ipotesi

n = dim(V ) = dim(Vλ1 ⊕ · · · ⊕ Vλs ) =


= dim(Vλ1 ) + · · · + dim(Vλs ) ≤ m(λ1 ) + · · · + m(λs ) ≤ n,

dove la penultima disuguaglianza segue da 2.9 e l’ultima da 2.8. Pertanto da 2.8 segue che
ogni λi ∈ R e che dim(Vλi ) = m(λi ) per ogni i.
iv) ⇒ iii) Poiché λi ∈ R per ogni i, per 2.8 si ha

n = m(λ1 ) + · · · + m(λs ) = dim(Vλ1 ) + · · · + dim(Vλs ),

dove l’ultima uguaglianza segue dall’ipotesi.


Si ottiene pertanto n = dim(Vλ1 ⊕ · · · ⊕ Vλs ), quindi la tesi. !

Osserviamo che per endomorfismi di spazi vettoriali su C la prima parte della con-
dizione iv) è sempre verificata, poiché tutte le radici di un polinomio a coefficienti complessi
appartengono a C.

3.2. Corollario. Se λi ∈ R e m(λi ) = 1, per ogni i = 1, . . . , n, allora φ è semplice.

Dimostrazione. Immediato da 2.9 e 3.1 iv). !

3.3. Proposizione. Sia φ ∈ End(V ) un endomorfismo semplice e sia B una qualunque


base di V . Posta A = MφB,B , sia ∆ = P −1 AP una matrice diagonale simile ad A. Allora
si hanno i seguenti fatti:
i) le colonne di P sono le componenti, rispetto a B, di una base di autovettori di φ;
ii) la matrice ∆ ha sulla diagonale gli autovalori λ1 , . . . , λs di φ, ripetuti secondo le
relative molteplicità m(λ1 ), . . . , m(λs );
iii) la matrice ∆ è unica, a meno di permutazioni degli autovalori sulla diagonale.

Dimostrazione. i) Sia C una base di V tale che ∆ = MφC,C . Per 1.10, C è una base di
autovettori. La tesi segue dal fatto che P = M C,B .
ii) Sia n = dim(V ). Per 1.8, la matrice ∆ = MφC,C ∈ Rn,n ha gli autovalori λ1 , . . . , λs
sulla diagonale; ognuno di essi ripetuto un certo numero di volte, diciamo d1 , . . . , ds volte
rispettivamente. Ciò equivale a dire che la base C (costituita di autovettori) contiene d1
vettori di Vλ1 , d2 vettori di Vλ2 , ecc. Poiché di ≤ dim(Vλi ) = m(λi ) in quanto φ è semplice,
si ha
d1 + · · · + ds ≤ m(λ1 ) + · · · + m(λs ).

118
Ma d1 +· · ·+ds = n poiché ∆ ∈ Rn,n ; d’altra parte anche m(λ1 )+· · ·+m(λs ) = n, come si
deduce dalla dimostrazione di 3.1. Dunque i due membri della disuguaglianza precedente
sono uguali, pertanto di = m(λi ), per ogni i.
iii) Ovvio. !

Data una matrice A ∈ Rn,n , alla luce della teoria precedente, è possibile dare una
risposta al problema della diagonalizzazione di A.

3.4. Definizione. Data una matrice A ∈ Rn,n , diagonalizzare A significa determinare, se


esistono, una matrice diagonale ∆ simile ad A ed una matrice invertibile P ∈ GL(n) tale
che P −1 AP = ∆.

3.5. Metodo pratico di diagonalizzazione.


Sia data una matrice quadrata A ∈ Rn,n .
Sia φ : Rn −→ Rn l’endomorfismo associato ad A rispetto alla base canonica E. Per
definizione, A è diagonalizzabile se e solo se φ è semplice. Dunque si procede come segue:
- si calcola il polinomio caratteristico pφ (T ) = pA (T ) di φ e si calcolano le sue radici
λ1 , . . . , λ s ;
- se esiste i tale che λi ̸∈ R, allora A non è diagonalizzabile;
- se λi ∈ R per ogni i = 1, . . . , s, basta verificare che m(λi ) = dim(Vλi ), per ogni indice
i = 1, . . . , s; se ciò accade, A è diagonalizzabile;
- in quest’ultimo caso, A è simile ad ogni matrice diagonale ∆ avente gli autovalori
λ1 , . . . , λs sulla diagonale, ripetuti secondo le relative molteplicità m(λ1 ), . . . , m(λs ); pre-
cisamente ∆ = MφB,B , ove B è una base di autovettori di V ;

- in particolare, ∆ = P −1 AP , dove la matrice P è la matrice di cambio di base P = M B,E .


Per calcolarla è sufficiente determinare una base B di autovettori. Poiché V è la somma
diretta di tutti gli autospazi (per 3.1), si ha che B = B1 ∪ · · · ∪ Bs , ove Bi è una base di
Vλi , per ogni i = 1, . . . , s.

3.5.1. Esempio. Vogliamo diagonalizzare la seguente matrice:


⎛ ⎞
3 1 1
A = ⎝1 0 2⎠.
1 2 0

Il polinomio caratteristico di A è
* *
*3 − T 1 1 *
* *
pA (T ) = |A − T I| = ** 1 −T 2 *=
*
* 1 2 −T *
= −T 3 + 3T 2 + 6T − 8 = (T − 1)(T − 4)(T + 2).

119
Dunque gli autovalori sono λ1 = 1, λ2 = 4, λ3 = −2; da cui segue che una matrice diagonale
simile ad A è la seguente: ⎛ ⎞
1 0 0
∆= 0⎝ 4 0 ⎠.
0 0 −2
Volendo determinare una base B di autovettori e quindi una matrice invertibile P , si
procede come segue: poiché V1 = ker(φ − id), V1 coincide con lo spazio delle soluzioni del
sistema lineare omogeneo (A − I)t (x, y, z) = 0 associato alla matrice
⎛ ⎞ ⎛ ⎞
2 1 1 2 1 1
A − I = ⎝1 −1 2 ⎠ −→ ⎝ 3 0 3⎠.
1 2 −1 0 0 0

Pertanto le soluzioni del precedente sistema sono (x, y, z) = (x, −x, −x), quindi

V1 = L((−1, 1, 1)).

Analogamente si calcolano

V4 = L((2, 1, 1)), V−2 = L((0, −1, 1)),

da cui B = ((−1, 1, 1), (2, 1, 1), (0, −1, 1)) ed inoltre


⎛ ⎞
−1 2 0
P = M B,E =⎝ 1 1 −1 ⎠ .
1 1 1

Lasciamo al lettore la verifica che P −1 AP = ∆ = diag(1, 4, −2).

120
IX - ENDOMORFISMI AUTOAGGIUNTI

1. Matrici ortogonali

Ricordiamo che, nel Cap. VII, abbiamo studiato le matrici di cambio di base in un
R–spazio vettoriale. In tale occasione, abbiamo osservato che ogni matrice di cambio di
base è invertibile e che, viceversa, ogni matrice n × n invertibile si può interpretare come
matrice di cambio di base in Rn (vedi 4.3 e 4.4 Cap. VII). Più precisamente abbiamo
provato che, se A ∈ Rn,n è invertibile, allora A = M B,E , dove B è costituita dalle colonne
di A ed E è la base canonica.

In questo capitolo studieremo gli endomorfismi di uno spazio vettoriale euclideo (V, ·).
In tale ambiente, come visto nel Cap. IV, la nozione significativa di base è quella di base
ortonormale. Quindi la corrispondenza ricordata all’inizio (tra matrici invertibili e quelle
di cambio di base) va specificata nel caso delle basi ortonormali, dando luogo alla seguente

1.1. Definizione. Una matrice quadrata A ∈ Rn,n si dice ortogonale se le colonne di A


formano una base ortonormale dello spazio vettoriale euclideo E n .

E’ chiaro dunque che una matrice ortogonale è invertibile.

1.1.1. Esempio. La matrice identica In è ortogonale per ogni n. Anche la matrice


! "
1 1 1
A= √
2 1 −1

è ortogonale, in quanto le sue colonne


! " ! "
1 1 1 1
v1 = √ , √ , v2 = √ , −√
2 2 2 2

sono una base ortonormale di E 2 , come si verifica immediatamente.

1.2. Proposizione. Una matrice A ∈ Rn,n è ortogonale se e solo se


t
AA = In

cioè se tA = A−1 .

Dimostrazione. Fissiamo la seguente notazione (per colonne): A = (t v1 · · · t vn ), con


v1 , . . . , vn ∈ E n . Di conseguenza
⎛ ⎞
v1
.
t
A = ⎝ .. ⎠ .
vn

121
Abbiamo la seguente catena di equivalenze:
A è ortogonale ⇔ (v1 , . . . , vn ) è base ortonormale di E n ⇔ vi · vj = δij , per ogni i, j ⇔
(tAA)ij = δij , per ogni i, j ⇔ tAA = In . !

1.2.1. Esempio. Ri-verifichiamo, con il criterio precedente, che la matrice


! "
1 1 1
A= √
2 1 −1

è ortogonale. Infatti ! "


t 1 1 1
A= √
2 1 −1

e si ha tAA = I2 .

1.2.2. Esempio. La matrice ! "


1 0
A=
1 1
non è ortogonale, infatti
! "! " ! "
t 1 1 1 0 2 1
AA = = ̸= I2 .
0 1 1 1 1 1

1.3. Proposizione. Se A ∈ Rn,n è ortogonale, allora det(A) = ±1.

Dimostrazione. Infatti tAA = In , dunque per il teorema di Binet (5.13, Cap. V) si ha

det(tA) det(A) = det(In ) = 1.

Ma det(tA) = det(A) (per 5.9, Cap. V), pertanto (det(A))2 = 1 e quindi si ha la tesi. !

1.4. Osservazione. Non vale il viceversa; ad esempio la matrice


! "
1 0
A=
1 1

ha determinante 1, ma non è ortogonale.

1.5. Definizione. Una matrice ortogonale con determinante 1 si dice ortogonale speciale.

1.6. Proposizione. L’insieme

O(n) := {A ∈ Rn,n | A è ortogonale}

122
è un gruppo rispetto all’usuale prodotto di matrici. Inoltre il suo sottoinsieme

SO(n) := {A ∈ O(n) | A è ortogonale speciale}

forma un suo (sotto)-gruppo rispetto allo stesso prodotto.

Dimostrazione. Mostriamo che O(n) è chiuso rispetto al prodotto, ha un elemento neutro


ed è chiuso rispetto all’inverso.
- Se A, B sono due matrici ortogonali, per il loro prodotto vale t(AB)AB = tB tAAB =
t
B In B = tBB = In , da cui il prodotto AB è a sua volta ortogonale.
- Abbiamo già notato che la matrice identica In è ortogonale.
- Se A è ortogonale, ovvero tAA = In , allora t(A−1 )A−1 = (A tA)−1 = In da cui segue
che A−1 è a sua volta ortogonale.
Infine, dal teorema di Binet per il determinante di un prodotto di matrici segue facilmente
che che matrici ortogonali di determinante 1 formano a loro volta un gruppo. !

1.7. Definizione. Il gruppo O(n) si dice gruppo ortogonale di ordine n e il suo sottogruppo
SO(n) ⊂ O(n) si dice gruppo ortogonale speciale.

Vediamo adesso delle proprietà degli endomorfismi di E n associati a matrici ortogonali.

1.8. Teorema. Sia φ un endomorfismo dello spazio euclideo E n e sia E la base canonica.
Sono fatti equivalenti:
i) la matrice A = MφE,E è ortogonale;
ii) φ(v) · φ(w) = v · w per ogni v, w ∈ E n ;
iii) se (f1 , . . . , fn ) è una qualunque base ortonormale di E n , allora (φ(f1 ), . . . , φ(fn )) è
ancora una base ortonormale.

Dimostrazione. i) ⇒ ii) Siano X = tv e Y = tw; allora

φ(v) · φ(w) = t(AX)(AY ) = tX(tAA)Y = tXY = v · w.

ii) ⇒ iii) Ovvio, in quanto φ(fi ) · φ(fj ) = fi · fj = δij .


iii) ⇒ i) In particolare, le immagini (φ(e1 ), . . . , φ(en )) formano una base ortonormale di
E n ; ma queste sono proprio le colonne di A, dunque A è ortogonale per definizione. !
Quindi se φ ∈ End(E n ) è associato ad una matrice ortogonale rispetto alla base canonica,
φ è un isomorfismo e conserva il prodotto scalare, ovvero, ribadiamo, per ogni v, w ∈ E n :

v · w = φ(v) · φ(w)

Si ha anche immediatamente che tale φ preserva la norma di ogni vettore:

123
1.9. Corollario. Sia φ ∈ End(E n ) associato ad una matrice ortogonale rispetto alla base
canonica; allora
∥ φ(v) ∥=∥ v ∥
per ogni v ∈ V . !

Torniamo ora all’interpretazione iniziale delle matrici ortogonali, cioè come matrici
particolari di cambio di base e vediamo un’importante fatto che le caratterizza.
Prima di tutto ricordiamo una proprietà delle basi ortonormali: in un qualunque spazio
euclideo (V, ·) sia C una base ortonormale. Se v, w ∈ V sono due vettori di componenti
note sulla base C, cioè v = (x1 , . . . , xn )C e w = (y1 , . . . , yn )C , allora v ·w = x1 y1 +· · ·+xn yn
(vedi 1.20, Cap. IV).

1.10. Teorema. Siano B una qualunque base e C una base ortonormale dello spazio
euclideo E n . Posta P = M B,C la matrice del relativo cambio di base, allora si ha:
P è ortogonale ⇐⇒ B è una base ortonormale.

Dimostrazione. Se ⎛ ⎞
p11 ··· p1n
⎜ .. .. ⎟
P =⎝ . . ⎠
pn1 ··· pnn
allora B = (b1 , . . . , bn ) è data da
b1 = (p11 , . . . , pn1 )C , ... , bn = (p1n , . . . , pnn )C .
Inoltre si denotino le colonne di P con
v1 = (p11 , . . . , pn1 ), ... , vn = (p1n , . . . , pnn ).
Per quanto ricordato sopra (1.20, Cap. IV) si ha: bi · bj = vi · vj per ogni i, j.
Quindi si ha la seguente catena di equivalenze:
P è ortogonale ⇐⇒ (v1 , . . . , vn ) è una base ortonormale di E n ⇐⇒ vi · vj = δi,j ⇐⇒
bi · bj = δi,j ⇐⇒ (b1 , . . . , bn ) è una base ortonormale di E n . !

2. Endomorfismi autoaggiunti

Di particolare interesse risulta essere la seguente classe di endomorfismi (che in seguito


mostreremo essere in particolare semplici).
2.1. Definizione. Sia (V, ·) uno spazio euclideo; un endomorfismo φ di V si dice autoag-
giunto se
φ(v) · w = v · φ(w),
per ogni v, w ∈ V .

124
2.2. Teorema. Sia (V, ·) uno spazio euclideo, B una sua base ortonormale, φ ∈ End(V )
e sia A = MφB,B . Allora φ è autoaggiunto se e solo se A è simmetrica.

Dimostrazione. Supponiamo che A sia simmetrica. Dobbiamo provare φ(v) · w = v · φ(w),


per ogni v, w ∈ V . Denotando come al solito con X e Y le colonne delle componenti
rispetto a B di v e w, rispettivamente, si ha
φ(X) · Y = t(AX)Y = (tX tA)Y = tX(tAY ) = tX(AY ) = X · φ(Y )
dove la penultima uguaglianza segue dall’ipotesi A = tA.
Viceversa, sia φ autoaggiunto; se B = (e1 , . . . , en ) è una base ortonormale e
⎛ ⎞
a11 · · · a1n
. .. ⎠
A = MφB,B = ⎝ .. .
an1 · · · ann
allora
φ(e1 ) = a11 e1 + · · · + an1 en ,
..
.
φ(en ) = a1n e1 + · · · + ann en .
Poiché φ è autoaggiunto si ha
φ(ei ) · ej = ei · φ(ej ),
per ogni i, j; da cui
aji = (a1i e1 + · · · + ani en ) · ej = ei · (a1j e1 + · · · + anj en ) = aij ,
ovvero A è simmetrica. !
2.2.1. Esempio. La matrice ! "
2 −1
A=
−1 3
è simmetrica; dunque l’endomorfismo φ di R2 associato ad A rispetto alla base canonica è
autoaggiunto. Si può anche verificarlo direttamente: poiché φ((x, y)) = (2x − y, −x + 3y),
si ha
(a, b) · φ((x, y)) = a(2x − y) + b(−x + 3y) =
= (2a − b)x + (−a + 3b)y = φ((a, b)) · (x, y).
Invece la matrice ! "
1 1
B=
−1 0
non è simmetrica; infatti φ non è autoaggiunto in quanto
φ(e1 ) · e2 = (1, −1) · (0, 1) = −1,
mentre
e1 · φ(e2 ) = (1, 0) · (1, 0) = 1.

Enunciamo ora il teorema fondamentale relativo alle matrici simmetriche reali:

125
2.3. Teorema. Sia A ∈ Rn,n una matrice simmetrica; allora il suo polinomio caratteristico
ha solo radici reali.

Dimostrazione. Sia λ ∈ C una radice del polinomio caratteristico di A. Poiché λ potrebbe


non essere reale, dobbiamo interpretare A come matrice associata ad un endomorfismo di
Cn ; quindi sia
φ : Cn −→ Cn
definito da MφE,E = A. Sia v ∈ Cn un corrispondente autovettore non nullo che, per
comodità, scriviamo in colonna:
⎛ ⎞
v1
.
v = ⎝ .. ⎠ con Av = λv.
vn

Prendendo i complessi coniugati dell’espressione precedente e tenendo conto che Ā = A


poiché A è reale, si ha
⎛ ⎞
v1
.
Av̄ = λ̄v̄, dove v̄ = ⎝ .. ⎠ .
vn
Consideriamo ora lo scalare tv̄Av: utilizzando le due uguaglianze precedenti, potrà essere
corrispondentemente scritto in due modi differenti:
t t
v̄Av = v̄(Av) = tv̄λv = λ tv̄v

t
v̄Av = (tv̄A)v = t(Av̄)v = t(λ̄v̄)v = λ̄ tv̄v,

da cui, eguagliando,
(λ − λ̄) t v̄v = 0.
D’altra parte, v̄v = v 1 v1 + v 2 v2 + · · · + v n vn è un numero reale positivo in quanto v ̸= 0Cn ,
da cui si deduce che λ = λ̄, dunque λ è reale. !

2.3.1. Esempio. Proviamo direttamente questo teorema per n = 2. Sia dunque


! "
a11 a12
A= .
a12 a22

Sia p(T ) = det(A − T I) il polinomio caratteristico di A; dunque


* *
* a11 − T a12 **
*
p(T ) = * = T 2 − (a11 + a22 )T + a11 a22 − a212 . (∗)
a12 a22 − T *

Dunque il discriminante di p(T ) è dato da

∆ = (a11 + a22 )2 − 4(a11 a22 − a212 ) = (a11 − a22 )2 + 4a212 ≥ 0.

126
Le radici λ1 , λ2 di p(T ) sono reali in quanto ∆ ≥ 0. Inoltre, se ∆ > 0, allora le radici
sono distinte e quindi, per 2.11, A è diagonalizzabile. Se, invece, ∆ = 0, allora a11 = a22
e a12 = 0, cioè la matrice A è già diagonale.
Dimostrariamo infine che A è diagonalizzabile con una matrice ortogonale P .
Se ∆ = 0, basta prendere P = I. Gli autospazi sono generati dalla base canonica di R2 .
Sia ora ∆ > 0; calcoliamo gli autospazi dell’endomorfismo

φ = fAE,E : R2 −→ R2 .

La matrice cercata P avrà come colonne una base di autovettori di φ (2.13.1).


Ora l’autospazio Vλi è dato dalle soluzioni del sistema omogeneo associato alla matrice
! "
a11 − λi a12
A − λi I = ,
a12 a22 − λi

per i = 1, 2. Poiché dim(Vλi ) = 1, una sola equazione è sufficiente, dunque, ad esempio,

Vλi = {(x, y) | (a11 − λi )x + a12 y = 0} = L(vi )

dove vi = a12 e1 − (a11 − λi )e2 , per i = 1, 2.


Si consideri la matrice P le cui colonne sono gli autovettori normalizzati
v1 v2
, .
∥ v1 ∥ ∥ v2 ∥

Per provare che la matrice diagonalizzante P è ortogonale, è sufficiente mostrare che v1 e


v2 sono ortogonali. A tale scopo calcoliamo il loro prodotto scalare:

v1 · v2 = (a12 e1 − (a11 − λ1 )e2 ) · (a12 e1 − (a11 − λ2 )e2 ) =


= a212 + a211 − (λ1 + λ2 )a11 + λ1 λ2 .

Dall’espressione (∗) di p(T ) e da 2.5, segue che λ1 + λ2 = a11 + a22 e λ1 λ2 = a11 a22 − a212 .
Sostituendo nella precedente espressione si ha v1 · v2 = 0.
Osserviamo infine, che la matrice ortogonale P può essere scelta speciale, semplicemente
scambiando l’ordine di Vλ1 e Vλ2 .

2.4. Teorema. Sia A ∈ Rn,n una matrice simmetrica; allora esiste una matrice ortogonale
P tale che tP AP è diagonale, ovvero le matrici simmetriche sono diagonalizzabili mediante
matrici ortogonali.

Dimostrazione. Consideriamo l’endomorfismo φ = fAE,E : Rn −→ Rn , che è autoaggiunto,


essendo A simmetrica. La matrice cercata P avrà come colonne una base di autovettori
di φ. Procediamo quindi per induzione su n. Se n = 2 il risultato è nell’esempio 2.3.1.
Assumiamo quindi che il teorema sia vero per spazi di dimensione n − 1. Poiché A è

127
simmetrica, il polinomio caratteristico di φ ha radici reali che sono tutti autovalori. Sia λ
un tale autovalore con corrispondente autovettore b1 che possiamo supporre di norma uno.
Sia V1⊥ = b⊥
1 il suo complemento ortogonale. Poiché φ è autoaggiunto, per ogni v ∈ V1 :

φ(v) · b1 = v · φ(b1 ) = λ (v · b1 ) = 0,
ovvero φ si restringe ad un endomorfismo autoaggiunto φ|V1⊥ : V1⊥ → V1⊥ . Per l’ipotesi
induttiva esistono n − 1 vettori (b2 , . . . , bn ) ortonormali che diagonalizzano φ|V1⊥ . Quindi
i vettori (b1 , b2 , . . . , bn ) formano una base B di autovettori ortonormali di φ. Dal Teorema
1.10, la matrice del cambio di baseP = M B,E è ortogonale. D’altra parte P è la matrice
che diagonalizza la matrice di partenza A. Questo prova la tesi. !

2.5. Osservazione. Nella dimostrazione precedente, la matrice ortogonale P può essere


di nuovo scelta speciale, semplicemente scambiando tra loro due qualsiasi delle sue colonne.

2.6. Teorema. Sia φ ∈ End(V ); allora φ è autoaggiunto se e solo se esiste una base
ortonormale di V costituita da autovettori.

Dimostrazione. Supponiamo dapprima che φ sia autoaggiunto. Se B è una qualunque base


ortonormale di V , allora, per 2.2, A = MφB,B è simmetrica. Per 2.4 A è diagonalizzabile
mediante una matrice ortogonale P . Per 3.3, Cap. VIII, le colonne di P sono le componenti
rispetto a B di una base C di autovettori. Poiché P è ortogonale, C è una base ortonormale
per 1.10.
Viceversa, sia C una base ortonormale di autovettori; allora MφC,C è diagonale; in particolare
è simmetrica e quindi φ è autoaggiunto per 2.2. !

2.7. Corollario. Sia φ ∈ End(V ); se φ è autoaggiunto allora φ è semplice.

Dimostrazione. Immediata: per 2.6, se φ è autoaggiunto allora esiste una base ortonormale
di V costituita da autovettori. Si conclude con 1.10, b), Cap. VIII. !

Non vale il viceversa di 2.7:


2.7.1. Esempio. Si consideri l’endomorfismo φ di R2 associato alla matrice
! "
1 1
A=
0 −1
rispetto alla base canonica. Si verifica facilmente che gli autovalori sono λ1 = 1 e λ2 = −1;
dunque φ è semplice per 3.2, Cap. VIII. D’altra parte φ non è autoaggiunto in quanto
φ(e1 ) · e2 = (1, 0) · (0, 1) = 0
mentre
e1 · φ(e2 ) = (1, 0) · (1, −1) = 1.

Sappiamo da 1.12. Cap. 8 che autovalori corrispondenti ad autovalori distinti sono


linearmente indipendenti. Per endomorfismi autoaggiunti si ottiene la seguente.

128
2.8. Proposizione. Sia φ un endomorfismo autoaggiunto di uno spazio vettoriale euclideo
(V, ·); siano λ1 , λ2 ∈ R due suoi autovalori distinti e 0V ̸= vi ∈ Vλi , i = 1, 2, allora v1 , v2
sono ortogonali.

Dimostrazione. Essendo φ autoaggiunto si ha:

λ1 (v1 · v2 ) = (λ1 v1 ) · v2 = φ(v1 ) · v2 = v1 · φ(v2 ) = v1 · (λ2 v2 ) = λ2 (v1 · v2 ).

Quindi:
(λ2 − λ1 )(v1 · v2 ) = 0R .
Essendo gli autovalori distinti per ipotesi, ne segue che v1 · v2 = 0R , ovvero gli autovettori
sono ortogonali. !

Generalizzando, si ottiene la seguente proprietà che caratterizza gli endomorfismi sem-


plici che sono anche autoaggiunti:

2.9. Teorema. Sia φ ∈ End(V ) un endomorfismo semplice e siano Vλ1 , . . . , Vλs i suoi
autospazi. Allora:

φ è autoaggiunto ⇐⇒ Vλi ⊥ Vλj per ogni i ̸= j.

Dimostrazione. Per 2.6, se φ è autoaggiunto allora esiste una base C ortonormale di


autovettori. Da 3.1, Cap. VIII, poiché V = Vλ1 ⊕ · · · ⊕ Vλs , possiamo scrivere

C = (v11 , . . . , vm
1
1
, . . . , v1s , . . . , vm
s
s
)

dove mi = dim(Vλi ) = m(λi ) e Vλi = L(v1i , . . . , vm


i
i
), per i = 1, . . . , s. Poiché i vettori di
C sono a due a due ortogonali, segue Vλi ⊥ Vλj per ogni i ̸= j.
Viceversa, poiché φ è semplice, V = Vλ1 ⊕ · · · ⊕ Vλs . Basta allora considerare delle basi
ortonormali per ogni autospazio (che esistono per Gram–Schmidt): l’unione di tali basi è
una base ortonormale di V . !

2.9.1. Esempio. Si consideri l’endomorfismo φ di R2 visto in 2.7.1. Abbiamo già visto


direttamente che φ non è autoaggiunto; a tale conclusione si può giungere da 2.9, calcolando
gli autospazi. Infatti V1 = L((1, 0)), V−1 = L((1, −2)) e tali sottospazi non sono ortogonali.

Concludiamo con due esempi di costruzione di applicazioni lineari nei quali intervien-
gono le nozioni di endomorfismo semplice e autoaggiunto.

2.9.2. Esercizio. Si costruisca un’endomorfismo autoaggiunto f : R3 → R3 tale che:


ker(f ) = L((1, 2, 1)) e λ1 = 1, λ2 = 2 siano autovalori di f .
Poiché ker(f ) ̸= {0}, allora λ3 = 0 è il terzo autovalore di f e ker(f ) = Vλ3 . Tenuto conto
del fatto che f è un endomorfismo di R3 ed abbiamo già tre autovalori distinti, si ha

V = Vλ 1 ⊕ Vλ 2 ⊕ Vλ 3 .

129
Inoltre, affinché f sia autoaggiunto, dovrà essere:

Vλi ⊥ Vλj , i ̸= j.

In particolare,
(ker(f ))⊥ = (Vλ3 )⊥ = Vλ1 ⊕ Vλ2 .
Con semplici calcoli si determina (ker(f ))⊥ = {(x, y, z) = (α, β, −α − 2β)} e quindi, ad
esempio, si possono scegliere

Vλ1 = L((1, 0, −1)), Vλ2 = L((1, −1, 1)).

Scelta come base di autovettori la base B = ((1, 0, −1), (1, −1, 1), (1, 2, 1)), si ha
⎛ ⎞
1 0 0
MfB,B ⎝
= 0 2 0⎠.
0 0 0

2.9.3. Esercizio. Si costruisca una applicazione lineare f : R3 → R3 tale che:


ker(f ) = L((1, −1, 1)), Im(f ) = (ker(f ))⊥ e che sia semplice, ma non autoaggiunto.
Affinché f sia semplice, dovrà avere altri due autovalori λ2 e λ3 (oltre a λ1 = 0). Ci sono
due possibilità: o λ2 = λ3 o λ2 ̸= λ3 .
Nel primo caso, Vλ2 = Im(f ) = (ker(f ))⊥ = (Vλ1 )⊥ . Pertanto gli unici due autospazi sono
tra loro ortogonali e quindi f è autoaggiunto, contrariamente alla richiesta iniziale.
Nel secondo caso Vλ2 ⊕ Vλ3 = Im(f ) e chiaramente Vλi ⊥ Vλ1 , per i = 2, 3. Affinché f sia
semplice, ma non autoaggiunto, basterà scegliere come Vλ2 e Vλ3 due sottospazi di Im(f )
tra loro non ortogonali. Ad esempio, poiché Im(f ) = {(x, y, z) | x − y + z = 0} e quindi
Im(f ) = L((1, 1, 0), (0, 1, 1)), scegliamo

Vλ2 = L((1, 1, 0)), Vλ3 = L((0, 1, 1)).

Infine, posta B = ((1, −1, 1), (1, 1, 0), (0, 1, 1)), si ha:
⎛ ⎞
0 0 0
MfB,B = ⎝ 0 λ2 0 ⎠.
0 0 λ3

130
X - GEOMETRIA LINEARE AFFINE

1. Spazi affini
In maniera intuitiva si può pensare ad uno spazio affine come ad uno spazio vettoriale
‘senza l’origine’, ovvero come ad un insieme di punti ad ognuno dei quali viene associata
una copia di uno spazio vettoriale modello.

1.1. Definizione. L’insieme Rn , munito dell’applicazione

α : Rn × Rn −→ Rn

definita da
α((a1 , . . . , an ), (b1 , . . . , bn )) = (b1 − a1 , . . . , bn − an )
si dice spazio affine reale di dimensione n e si denota con An (R) o semplicemente con An
se è chiaro dal contesto. Le n-uple di Rn viste come elementi di An (R) si dicono punti.
Si noti che il dominio di α è il prodotto cartesiano dell’insieme Rn per se stesso, mentre
il codominio è lo spazio vettoriale Rn . Qui l’insieme Rn , lo spazio vettoriale Rn e la
spazio affine coincidono come insiemi; il simbolo An (R) si usa per differenziare la struttura
di spazio affine da quella di spazio vettoriale.
In particolare, A1 (R) indicherà la retta affine reale, A2 (R) il piano affine reale mentre
A3 (R) è lo spazio affine reale che verranno quindi denotati anche solo con A1 , A2 , A3 .
Esiste un concetto analogo di spazio affine complesso An (C) modellato sullo spazio vet-
toriale Cn e, per un qualsiasi campo K, di spazio affine An (K) modellato sullo spazio
vettoriale K n .

1.2. Osservazione. Si verificano facilmente le seguenti proprietà p1 e p2 per An (R):


p1 . per ogni punto P ∈ An (R) e per ogni vettore v ∈ Rn , esiste un unico punto Q di
An (R) tale che α(P, Q) = v;
p2 . per ogni terna P, Q, R di punti di An (R), vale la relazione:
α(P, Q) + α(Q, R) = α(P, R).

P Q

131
Figura 11

1.3. Notazioni. Tenuto conto della definizione di α, dati due punti P, Q ∈ An , il vettore
v = α(P, Q) verrà denotato semplicemente con

v = Q − P.

Inoltre, se v = Q − P , per la proprietà p1 scriveremo anche, per semplicità:

Q = P + v.

Infine, la proprietà p2 altri non è che la regola per sommare vettori in Rn :

(Q − P ) + (R − Q) = R − Q.

1.4. Osservazione.
a) Per ogni P ∈ An (R), si ha α(P, P ) = 0Rn : segue da p2 ponendo P = Q = R.
b) Comunque scelti P, Q ∈ An (R), si ha α(P, Q) = −α(Q, P ): segue da p2 ponendo R = P .

In generale, negli spazi affini si può introdurre un sistema di riferimento, con la scelta
di una base B = (e1 , . . . , en ) di Rn e di un punto di O of An (R). Osserviamo intanto che
per la proprietà p1 in 1.3, fissato un punto O di An (R), si ottiene un’applicazione biettiva

αO : An (R) −→ Rn

definita da
αO (Q) = α(O, Q) = Q − O. (∗)

1.5. Definizione. Fissato un sistema di riferimento (O, B) di An (R), diremo che il punto
P ∈ An (R) ha coordinate (x1 , . . . , xn ) rispetto ad (O, B) se

αO (P ) = P − O = (x1 , . . . , xn )B = x1 e1 + · · · + xn en .
−1
Equivalentemente, il punto P = αO (x1 , . . . , xn ) ha coordinate (x1 , . . . , xn ). In tal caso
scriveremo semplicemente P = (x1 , . . . , xn ).

1.6. Definizione. Il dato (O, B) del punto O ∈ An (R) e della base B di Rn si dice sistema
di coordinate affini o sistema di riferimento affine su An (R), avente origine Il punto O.
In particolare, se B è la base canonica di Rn , allora (O, B) si dice sistema di riferimento
cartesiano ortogonale di An (R).

1.7. Osservazione. Fissato un sistema di riferimento (O, B) di An , con B = (e1 , . . . , en ),


i punti Ai , per i = 1, . . . , n, definiti da

Ai = O + ei

132
si dicono punti coordinati di An (R) e hanno ovviamente coordinate

A1 = (1, 0, . . . , 0), A2 = (0, 1, . . . , 0), . . . , An = (0, 0, . . . , 1).

Lo spazio affine An , fissato l’origine in un suo punto, ha, essenzialmente, la struttura di


Rn come spazio vettoriale.

1.8. Definizione. Sia w ∈ Rn ; si dice traslazione di An (R) secondo w l’applicazione

Tw : An (R) −→ An (R) definita da Tw (P ) = P + w.

Chiaramente Tw è una corrispondenza biunivoca di An in sé; infatti la traslazione T−w è


la sua applicazione inversa. Fissato un sistema di riferimento, si può esprimere in generale
una traslazione attraverso le sue equazioni:

1.9. Proposizione. Sia An con riferimento cartesiano (O, B) e sia w = (w1 , . . . , wn )B un


vettore di Rn . Allora la traslazione Tw ha le seguenti equazioni:

Tw ((x1 , . . . , xn )) = (x1 + w1 , . . . , xn + wn ).

1.9.1. Esempio. Si consideri la traslazione di A3 secondo il vettore w = (1, −2, 1) e si


fissi un riferimento cartesiano ortogonale (O, E) di A3 . Sia P = (x, y, z) ∈ A3 , dunque
P − O = xe1 + ye2 + ze3 ; allora il vettore

Tw (P ) − O = (P − O) + w = (xe1 + ye2 + ze3 ) + (e1 − 2e2 + e3 ) =


= (x + 1)e1 + (y − 2)e2 + (z + 1)e3

quindi Tw (P ) = Tw ((x, y, z)) = (x + 1, y − 2, z + 1).

1.10. Osservazione. La traslazione Tw induce un isomorfismo di spazi vettoriali

φ : Rn −→ Rn definito da P − O .→ Tw (P ) − Tw (O).

Si verifica facilmente che φ è l’isomorfismo “identico”; infatti, fissando il riferimento carte-


siano ortogonale (O, E) di An , siano (x1 , . . . , xn ) le coordinate del punto P in tale riferi-
mento e sia w = w1 e1 + · · · + wn en . Ne segue che, da una parte, il vettore P − O ∈ Rn è
dato da
P − O = x 1 e1 + · · · + x n en
e, dall’altra:

Tw (P ) = (x1 + w1 , . . . , xn + wn ), Tw (O) = (w1 , . . . , wn )

133
quindi
Tw (P ) − Tw (O) = (Tw (P ) − O) − (Tw (O) − O) =
= ((x1 + w1 )e1 + · · · (xn + wn )en ) − (w1 e1 + · · · + wn en ) =
= x1 e1 + · · · + xn en = P − O.

1.11. Osservazione. Ad essere più precisi, l’isomorfismo precedente è tra due copie
‘distinte’ dello spazio vettoriale Rn associate ai due punti O e O′ = Tw (O) di An che
possono essere pensati come le origini di due sistemi di riferimento per An .

Q=Tw(P)
P

w
O'=Tw(O)
O

Figura 12

2. Rette e piani

Partendo dalla nozione di retta vettoriale nello spazio vettoriale R2 e dalla corrispondenza
biunivoca αO : A2 −→ R2 , ove αO (P ) = P − O, è naturale definire come “retta per
l’origine” il sottoinsieme di A2 che corrisponde ad una retta vettoriale L(v) di R2 .
Si consideri, ad esempio, la retta vettoriale di R2 generata da v = (1, 2). Allora la
corrispondente retta per l’origine di A2 è

{P ∈ A2 | (P − O) ∈ L(v)} = {(x, y) = λ(1, 2), λ ∈ R}.

In generale diamo dunque la seguente

2.1. Definizione. Nello spazio affine An , si dice retta per l’origine un sottoinsieme del
tipo
rO = {P ∈ An | (P − O) ∈ L(v)}, per qualche v ∈ Rn \ {0}.

Il vettore v si dice direzione di rO .

134
Usando l’identificazione tra An ed Rn espressa dalla corrispondenza in (*), dalla
definizione si ha anche che

rO = {P ∈ An | α(P ) = λv, λ ∈ R},

o, in breve
rO : P = λv , λ∈R
(dove λ è quindi un parametro reale) e tale scrittura verrà detta equazione vettoriale di rO .
Fissando un riferimento cartesiano (O, B) di An e tenendo conto dell’identificazione tra le
coordinate di un punto P e le componenti del vettore P − O rispetto alla base B, quest’
ultima equazione si scrivera anche come

rO : (x1 , . . . , xn ) = λ(v1 , . . . , vn ) , λ∈R

ove v = (v1 , . . . , vn ) è il vettore direzione della retta.

2.2. Osservazione. Come insiemi, la retta per l’origine rO e la retta vettoriale L(v)
coincidono, anche se vengono visti in due ambienti diversi: rO ⊂ An mentre L(v) ⊂ Rn .
Chiarita questa distinzione, i due insiemi verranno talvolta identificati.

2.2.1. Esempio. La retta rO di A3 avente direzione v = (1, 2, 3) ha equazione vettoriale

rO : (x, y, z) = λ(1, 2, 3).

2.2.2. Esempio. In A2 con un sistema di riferimento cartesiano ortogonale, si consideri


l’insieme r definito da

r = {(x, y) = (1, 2) + λ(0, 1), λ ∈ R}.

Geometricamente, è chiaro che r è una “retta”; è infatti la retta parallela all’asse delle
ordinate e di ascissa x = 1. D’altra parte, operando la traslazione Tu , con u = (−1, −2),
si ottiene l’insieme

Tu (r) = {P + u, P ∈ r} = {(x, y) = λ(0, 1), λ ∈ R}

che è chiaramente una retta per l’origine (geometricamente l’asse delle ascisse x = 0). Se
indichiamo con rO la retta per l’origine Tu (r), è chiaro che r = Tw (rO ), dove w = −u.

In generale diamo dunque la seguente


2.3. Definizione. Un insieme r ⊂ An si dice retta se esistono una traslazione Tw di An e
una retta rO per l’origine tali che r = Tw (rO ).
Poiché, come insiemi, la retta rO coincide con una retta vettoriale L(v) di Rn (vedi Osser-
vazione 2.2), diremo che L(v) è la giacitura di r e la indicheremo con Sr (dove “S” ricorda
che Sr è un sottospazio vettoriale di Rn ). Si noti che per una retta r, dim(Sr ) = 1.

135
Dalle equazioni viste prima per una retta per l’origine, si hanno immediatamente le
seguenti equazioni per una retta qualunque. Consideriamo la retta per l’origine

rO : P = λv , λ∈R

e la traslazione Tw , con w ∈ Rn . Allora la retta r = Tw (rO ) è:

r = {P ∈ An | P = Tw (PO ), PO ∈ rO } = {P ∈ An | P = Q + λv, λ ∈ R}

dove Q − O = w. In breve scriveremo

r: P = Q + λv. (1)

Fissato un sistema di riferimento (O, B) in cui Q = (q1 , . . . , qn ) e v = (v1 , . . . , vn )B ,


l’equazione precedente diventa:

r: (x1 , . . . , xn ) = (q1 , . . . , qn ) + λ(v1 , . . . , vn ), (1′ )

oppure:

⎨ x1
⎪ = q1 + λv1
r: .. .. . (2)
⎪ . .

xn = qn + λvn

2.4. Definizione. L’equazione (1) (o anche (1′ )) si dice equazione vettoriale della retta
r, mentre l’equazione (2) si dice equazione parametrica di r.

2.5. Osservazione.
a) Nell’equazione vettoriale di una retta r : P = Q + λv, per ogni valore di λ si ottiene
un punto di r (e viceversa). Per λ = 0 si ottiene ovviamente il punto Q.
b) Il punto Q non è unico, in quanto individuato da una traslazione Tw (che manda r
in una retta rO passante per l’origine) e tale traslazione non è ovviamente unica. Più
precisamente ci sono infinite traslazioni tali che Tw (r) = rO ; si può vedere che tali
traslazioni Tw sono tutte e sole quelle per cui w = w′ + v ′ , con v ′ ∈ L(v) e Tw′ è una
particolare traslazione.
c) Inoltre è chiaro che il vettore v, essendo una base di L(v), non è unico. Tuttavia è
unica la giacitura Sr = L(v)

136
v'

w'

w r

O
rO

Figura 13

2.5.1. Esempio. Vogliamo verificare che le seguenti rette coincidono:

r: (x, y) = (1, 2) + λ(1, −1), r′ : (x, y) = (2, 1) + µ(1, −1).

Si osservi dapprima che le due rette hanno la stessa giacitura: Sr = Sr′ = L((1, −1)) = rO ;
in particolare, posti Q = (1, 2) ∈ r e Q′ = (2, 1) ∈ r′ :

r = Tw (rO ), con w = Q − O = (1, 2)


.
r′ = Tw′ (rO ), con w′ = Q′ − O = (2, 1)

Si conclude con 2.5 b), notando che w−w′ = (−1, 1) è un vettore del sottospazio L((1, −1)).

Analogamente alla nozione di retta si può introdurre la nozione di piano di An .


2.6. Definizione. Nello spazio affine An si dice piano per l’origine ogni sottoinsieme del
tipo

πO = {P ∈ An | (P − O) ∈ L(u, v)}, con u, v ∈ Rn linearmente indipendenti.

Con l’usuale identificazione tra un punto P ∈ An e la sua immagine α(P ) ∈ Rn come


nella corrispondenza (*), si può anche scrivere che

πO = {P ∈ An | α(P ) = λu + µv, λ, µ ∈ R},

oppure, in breve
πO : P = λu + µv

137
dove λ, µ sono ora due parametri reali.

2.7. Definizione. Un insieme π ⊂ An si dice piano se esistono una traslazione Tw di An


e un piano πO per l’origine tali che π = Tw (πO ).
Poiché come insieme il piano πO coincide con un piano vettoriale L(u, v) di Rn , diremo che
L(u, v) è la giacitura di π e la indicheremo con Sπ . Si noti che per un piano π, dim(Sπ ) = 2.
Se Q = Tw (O), ovvero w = Q − O, allora i punti del piano π sono caratterizzati da
π: P = Q + λu + µv. (3)
Sia ora (O, B) un sistema di riferimento in An . Se Q = (q1 , . . . , qn ) ∈ An , u = (u1 , . . . , un )B
e v = (v1 , . . . , vn )B ∈ Rn , l’equazione precedente diventa:

⎨ x1 = q1 + λu1 + µv1

π: .. .. . (4)
⎪ . .

xn = qn + λuv + µvn

2.8. Definizione. L’equazione (3) si dice equazione vettoriale del piano π, mentre
l’equazione (4) si dice equazione parametrica di π.

2.8.1. Esempio. Dati i vettori di R3 : v1 = (1, 0, 1) e v2 = (1, −1, 0), il piano πO , per
l’origine da essi individuato è costituito dal luogo dei punti P ∈ A3 tali che
P = λ1 v 1 + λ 2 v 2 , λ 1 , λ2 ∈ R
o anche, fissato un sistema di riferimento (O, B), l’insieme dei punti P = (x, y, z) tali che

⎨ x = λ1 + λ 2
(x, y, z) = λ1 (1, 0, 1) + λ2 (1, −1, 0), cioè π : y = −λ2 .

z = λ1

2.8.2. Esempio. Data la traslazione di A3 associata al vettore w = (1, −1, 2), il piano
πO di 2.8.1 dà luogo al piano π = Tw (πO ) la cui equazione è:
π: P = Q + λ1 v 1 + λ2 v 2 ,
dove Q = Tw (O) = (1, −1, 2). Esplicitamente:
π: (x, y, z) = (1, −1, 2) + λ1 (1, 0, 1) + λ2 (1, −1, 0).

2.8.3. Esempio. Vogliamo determinare le equazioni vettoriale e parametrica del piano π


in A4 di giacitura Sπ = L(v1 , v2 ) ⊂ R4 e passante per il punto Q = (2, 1, 1, 2) ∈ A4 , dove
v1 = (1, 0, 1, 0), v2 = (2, 1, 0, −1). Tale piano ha equazione vettoriale:
π: (x1 , x2 , x3 , x4 ) = (2, 1, 1, 2) + λ1 (1, 0, 1, 0) + λ2 (2, 1, 0, −1)

138
e quindi equazione parametrica

⎪ x = 2 + λ1 + 2λ2
⎨ 1
x2 = 1 + λ2
π: .
⎩ x3
⎪ = 1 + λ1
x4 = 2 − λ2

Vale l’analogo dell’osservazione 2.5 fatta per le rette:


2.9. Osservazione. L’equazione vettoriale di un piano non è unica; precisamente, se

π : P = Q + λu + µv e π ′ : P = Q′ + λu′ + µv ′

sono due piani in An , allora



⎨ Sπ = Sπ ′ (cioè L(u, v) = L(u′ , v ′ ))
π = π′ ⇐⇒

Q − Q ′ ∈ Sπ

2.10. Proposizione. Dati due punti distinti A e B in An , esiste una ed una sola retta
passante per A e per B ed una sua equazione vettoriale è data da:

rAB : P = A + λ(B − A).

Dimostrazione.
Esistenza. L’equazione precedente rappresenta una retta, in quanto B − A è un vettore
non nullo poiché A e B sono distinti per ipotesi. Inoltre la retta rAB passa per A (che si
ottiene per λ = 0) e per B (che si ottiene per λ = 1).
Unicità. Se r è un’altra retta per A, la sua equazione sarà del tipo P = A + µv. Inoltre r
passa per B se e solo se B = A+µ0 v, per un opportuno µ0 , quindi se e solo se B −A = µ0 v.
Dunque Sr = L(v) = L(B − A) = SrAB , da cui la tesi. !

2.10.1. Esempio. La retta di A2 passante per i punti A = (1, 2) e B = (1, −2) ha


equazione:
(x, y) = (1, 2) + λ(0, −4).

2.10.2. Esempio. Determiniamo la retta di A3 passante per i punti A = (1, 1, 1) e


B = (1, 2, −2) e proviamo che il punto P = (1, 0, 4) vi appartiene.
Sempre per 2.10 la retta richiesta è:

(x, y, z) = (1, 1, 1) + λ(0, 1, −3).

139
Per concludere, basta determinare un λ che verifichi il sistema

⎨1 = 1
0=1+λ .

4 = 1 − 3λ

Ovviamente λ = −1 è soluzione.

2.11. Proposizione. Dati 3 punti distinti e non allineati A, B, C in A3 , esiste uno ed un


solo piano che li contiene ed una sua equazione vettoriale è data da

πABC : P = A + λ(B − A) + µ(C − A).

Dimostrazione.
Esistenza. L’equazione precedente rappresenta un piano, in quanto B − A e C − A sono
vettori linearmente indipendenti poiché A, B, C non sono allineati per ipotesi. Inoltre il
piano πABC passa per A (che si ottiene per λ = 0 e µ = 0), per B (che si ottiene per λ = 1
e µ = 0) e per C (che si ottiene per λ = 0 e µ = 1).
Unicità. Sia π ′ un altro piano per A, B, C. Allora avrà equazione del tipo

π ′ : P = A + λu + µv.

Per 2.9 è sufficiente mostrare che L(B − A, C − A) = L(u, v); anzi basta una sola inclusione
essendo entrambi sottospazi di dimensione 2 di An . Ma A, B ∈ π ′ , dunque (sempre per
2.9) B − A ∈ Sπ′ = L(u, v) e, analogamente, C − A ∈ Sπ′ = L(u, v). Pertanto si ha
l’inclusione L(B − A, C − A) ⊆ L(u, v), come volevamo. !

2.11.1. Esempio. Determiniamo il piano π ⊂ A3 per i tre punti A = (1, 2, 0), B =


(1, 1, 1), C = (0, 1, −1).
Bisogna dapprima verificare che i tre punti non sono allineati, ad esempio osservando che
i vettori B − A = (0, −1, 1) e C − A = (−1, −1, −1) non sono paralleli. Dunque per 2.11
il piano richiesto è:

π: (x, y, z) = (1, 2, 0) + λ(0, −1, 1) + µ(−1, −1, −1).

3. Varietà lineari affini, dimensione, parallelismo


Un’immediata generalizzazione delle nozioni di retta e di piano porta alla nozione
di “varietà lineare affine” L in An : le rispettive giaciture per una retta o un piano sono
sottospazi di dimensione 1 o 2 di Rn . In generale, si può considerare un sottospazio V di
dimensione qualunque in Rn .

3.1. Definizione. Una varietà lineare affine di dimensione k di An è un insieme

L = {P ∈ An | (P − Q) ∈ V }

140
dove Q ∈ An è un particolare punto dello spazio affine e V ⊂ Rn è un sottospazio vettoriale
di dimensione k. Se V = L(v1 , . . . , vp ) allora una equazione vettoriale di L è data da:

L : P = Q + λ1 v 1 + · · · + λ k v k .

In analogia a quanto visto nel paragrafo precendente, si dirà giacitura di L il sottospazio


vettoriale SL = V .

3.2. Osservazione. Una retta è una varietà lineare affine di dimensione 1, mentre un
piano è una varietà lineare affine di dimensione 2.

3.3. Definizione. Si dice iperpiano di An una varietà lineare affine di dimensione n − 1.

In particolare, una retta in A2 ed un piano in A3 sono esempi di iperpiani.


Non tratteremo ulteriormente varietà lineare affini generali (se non utilizzando questo
termine per riassumere nozioni e proprietà che valgono sia per rette che per piani), limi-
tandoci a dare solo un esempio:

3.3.1. Esempio. Vogliamo determinare le equazioni vettoriale e parametrica della varietà


lineare affine (un iperpiano) in A4 associata al sottospazio S = L(v1 , v2 , v3 ) di R4 secondo
il vettore w ∈ R4 , dove v1 = (1, 0, 1, 0), v2 = (2, 1, 0, −1), v3 = (0, 0, −1, 1) e w = (2, 1, 1, 2).
Tale varietà lineare L ha equazione vettoriale:

L : (x1 , x2 , x3 , x4 ) = (2, 1, 1, 2) + λ1 (1, 0, 1, 0) + λ2 (2, 1, 0, −1) + λ3 (0, 0, −1, 1)

e quindi equazione parametrica



⎪ x = 2 + λ1 + 2λ2
⎨ 1
x2 = 1 + λ2
L: .
⎩ x3
⎪ = 1 + λ1 − λ3
x4 = 2 − λ2 + λ3

3.4. Definizione. Siano L, L′ ⊆ An due varietà lineare affini della stessa dimensione.
Diremo che L ed L′ sono parallele se hanno la stessa giacitura, cioè se SL = SL′ .

3.4.1. Esempio. Sia LO ⊂ A2 (R) una retta passante per l’origine; le rette L parallele a
LO sono tutte e sole le rette del piano del tipo Tw (LO ), con w variabile in R2 . Si osservi
infine che, per 3.15, L = LO se e solo w ∈ SL .
Sia, ad esempio, LO : (x, y) = λ(3, −2). Allora tutte e sole le rette parallele ad LO sono
del tipo:
L : (x, y) = (α, β) + λ(3, −2),

141
con (α, β) ∈ R2 . Inoltre una tale retta L è distinta da LO se e solo se (α, β) ̸∈ SL , cioè se
(α, β) non è un multiplo di (3, −2).

Tale nozione non è utilizzabile per due varietà lineari di dimensione diversa; diamo
dunque una definizione apposita in un caso particolare:

3.5. Definizione. Una retta r ed un piano π nello spazio affine An (K) si dicono paralleli
se la giacitura della prima è inclusa nella giacitura del secondo, cioè se Sr ⊂ Sπ .

3.5.1. Esempio. Vogliamo vedere a quali, tra le rette r1 , r2 , r3 , è parallelo o meno il


piano π, dove:
π : (x, y, z) = (0, 2, −1) + λ1 (1, 0, 1) + λ2 (0, 1, 1)
r1 : (x, y, z) = λ(1, −1, 0)
r2 : (x, y, z) = (0, 3, 0) + λ(1, 1, 2)
r3 : (x, y, z) = (1, −1, 1) + λ(1, 1, 1).

Indichiamo con w1 e w2 due vettori che sono una base per la giacitura Sπ del piano π e
con vi , per i = 1, 2, 3, un vettore che genera la giacitura Sri di ogni retta ri ; ad esempio:
w1 = (1, 0, 1), w2 = (0, 1, 1), v1 = (1, −1, 0), v2 = (1, 1, 2), v3 = (1, 1, 1).
Per verificare se Sri è contenuta o meno in Sπ , basta calcolare il rango della matrice le cui
righe sono, rispettivamente, date dalle componenti di w1 , w2 , vi .
Nel primo caso la matrice
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
w1 1 0 1 1 0 1
⎝ w2 ⎠ = ⎝ 0 1 1 ⎠ −→ ⎝ 0 1 1 ⎠
v1 1 −1 0 0 1 1
ha rango 2, dunque v1 ∈ L(w1 , w2 ), quindi Sr1 ⊂ Sπ , cioè r1 è parallela a π. Inoltre r1 ̸⊂ π,
in quanto (0, 0, 0) ∈ r1 ma (0, 0, 0) ̸∈ π. Infatti, dovrebbero esistere λ1 e λ2 tali che

⎨ 0 = λ1
(0, 0, 0) = (0, 2, −1) + λ1 (1, 0, 1) + λ2 (0, 1, 1) ⇒ 0 = 2 + λ2

0 = −1 + λ1 + λ2
e tale sistema non ha ovviamente soluzioni.
Nel secondo caso, la matrice
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
w1 1 0 1 1 0 1
⎝ w2 ⎠ = ⎝ 0 1 1 ⎠ −→ ⎝ 0 1 1⎠
v2 1 1 2 0 1 1
ha ancora rango 2, dunque v2 ∈ L(w1 , w2 ), quindi r2 è parallela a π. Tuttavia r2 ⊂ π in
quanto il seguente sistema (ottenuto uguagliando le coordinate del generico punto di r2 e
del generico punto di π)
⎧ ⎧
⎨λ = λ1 ⎨ λ1 = λ
λ + 3 = 2 + λ2 ⇒ λ = λ+1
⎩ ⎩ 2
2λ = −1 + λ1 + λ2 2λ = −1 + λ + λ + 1

142
ha soluzioni (λ1 , λ2 ) per ogni λ ∈ R.
Nel terzo caso, la matrice
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
w1 1 0 1 1 0 1
⎝ w2 ⎠ = ⎝ 0 1 ⎠ ⎝
1 −→ 0 1 1⎠
v3 1 1 1 0 1 0

ha rango 3, dunque r3 non è parallela a π.

3.6. Definizione. Siano L, L′ ⊆ An due varietà lineare affini distinte. Diciamo che L ed
L′ sono incidenti se la loro intersezione è non vuota; si dicono, invece, sghembe se non sono
né incidenti né parallele.

3.7. Definizione. In particolare due rette oppure una retta ed un piano sono incidenti
se hanno un punto in comune; due piani sono incidenti se hanno una retta in comune.

3.7.1. Esempio. Poichè sono dati nello spazio A3 (K) la retta r3 ed il π dell’esempio 3.5.1
si intersecano in un punto che si trova come soluzione del sistema ottenuto uguagliando le
coordinate del generico punto di r3 e del generico punto di π:
⎧ ⎧
⎨1 + λ = λ1 ⎨ λ1 = 5
−1 + λ = 2 + λ2 ⇒ λ2 = 1
⎩ ⎩
1+λ = −1 + λ1 + λ2 λ = 4

che corrisponde al punto (5, 3, 5) = r3 ∩ π.

3.7.2. Esempio. Determiniamo la posizione reciproca delle rette r1 ed r2 dell’esempio


3.5.1: chiaramente non sono parallele, in quanto v1 ̸∈ L(v2 ); inoltre non sono neanche
incidenti in quanto il sistema (ottenuto uguagliando il generico punto λ(1, −1, 0) di r1 col
generico punto (0, 3, 0) + µ(1, 1, 2) di r2 ):

⎨ λ = µ
−λ = 3 + µ

0 = 2µ

non ha soluzioni. Pertanto r1 ed r2 sono sghembe.

143
XI - VARIETÀ LINEARI AFFINI IN FORMA CARTESIANA

1. Equazioni cartesiane
Nel Cap. X abbiamo visto come una V.L.A. si possa definire mediante un’equazione
vettoriale o un’equazione parametrica. In questo capitolo, utilizzando la teoria dei sistemi
lineari, vedremo come si possa associare ad una V.L.A. un’equazione senza parametri.
Si ricorderà che una retta r nel piano è definita come il luogo dei punti di coordinate
(x, y) che verificano una equazione lineare, cioè una equazione del tipo ax + by + c = 0.
Proviamo l’equivalenza di tale nozione con quella introdotta in 2.3 del Cap. X. Cominciamo
con un esempio:

1.1.1. Esempio. Si consideri la retta r ⊂ A2 di equazione parametrica


)
x=1+λ
r: .
y =2−λ

Eliminiamo il parametro λ, cioè, ad esempio, ricaviamo λ dalla seconda equazione, otte-


nendo λ = 2 − y, e sostituiamo tale espressione nella prima equazione:

x = 1 + (2 − y) ⇒ x + y − 3 = 0.

Posto s il luogo dei punti che soddisfano tale equazione, proviamo che s coincide con r.
Chiaramente r ⊆ s in quanto il generico punto (1 + λ, 2 − λ) ∈ r verifica l’equazione di s:

(1 + λ) + (2 − λ) − 3 ≡ 0.

Viceversa, proviamo che s ⊆ r; infatti se P = (α, β) ∈ s, allora

α+β−3=0 ⇒ (α − 1) = −(β − 2).

Posto t = (α − 1) = −(β − 2), si ha

α = 1 + t, β =2−t

Pertanto P è il punto di r ottenuto per λ = t.


Abbiamo dunque provato che l’equazione x + y − 3 = 0 rappresenta la retta r.

In generale abbiamo la seguente:

1.2. Proposizione. Le rette del piano sono tutti i soli i luoghi di punti le cui coordinate
verificano una equazione del tipo

ax + by + c = 0, (1)

144
dove a, b, c ∈ R e (a, b) ̸= (0, 0).

Dimostrazione.
i) Proviamo dapprima che una retta r ⊂ A2 di equazione parametrica
)
x = x0 + λu
r: , (u, v) ̸= (0, 0)
y = y0 + λv

è il luogo dei punti le cui coordinate verificano un’opportuna equazione del tipo (1).
Infatti basta eliminare il parametro λ. Poiché (u, v) ̸= (0, 0), almeno uno tra u e v è non
nullo; ad esempio, se v ̸= 0, si ricava λ dalla seconda equazione e si procede come in 1.1.1:
<
x = x0 + λu y − y0
y − y0 ⇒ x = x0 + u ⇒ vx − uy − vx0 + uy0 = 0,
λ= v
v
che è un’equazione cartesiana di r della forma ax + by + c = 0, dove a = v, b = −u,
c = −vx0 + uy0 . Sia ora s il luogo dei punti le cui coordinate verificano l’equazione:

s: vx − uy − vx0 + uy0 = 0.

Proviamo che s coincide con r.


Infatti, se P ∈ r, allora P = (x0 + λu, y0 + λv); sostituendo nell’equazione di s si ottiene:

v(x0 + λu) − u(y0 + λv) − vx0 + uy0 ≡ 0

quindi r ⊆ s. Proviamo ora che s ⊆ r: sia P = (α, β) ∈ s, cioè

vα − uβ − vx0 + uy0 = 0 ⇒ v(α − x0 ) = u(β − y0 ) ⇒ α − x0 = u(β − y0 )/v

avendo supposto v ̸= 0. Posto t = (β − y0 )/v, dalla relazione precedente si ottiene:


) )
α − x0 = ut α = x0 + ut

β − y0 = vt β = y0 + vt

pertanto P è il punto di r ottenuto per λ = t.


ii) Viceversa proviamo che il luogo s dei punti le cui coordinate verificano l’equazione

s: ax + by + c = 0 , (a, b) ̸= (0, 0)

è una retta di A2 . Si osservi dapprima che s ̸= ∅, in quanto (supponendo ad esempio,


a ̸= 0) il punto P = (−c/a, 0) ∈ s. Proviamo che s coincide con la retta r passante per P
e avente giacitura L((−b, a)). Poiché r ha equazione parametrica

r: (x, y) = (−c/a, 0) + λ(−b, a)

145
si vede subito che r ⊆ s, in quanto ogni punto (−c/a − λb, λa) ∈ r soddisfa l’equazione di
s. La verifica che s ⊆ r è analoga a quella vista in i). !

1.3. Definizione. L’equazione ax + by + c = 0 viene detta equazione cartesiana di una


retta nel piano affine A2 .

1.4. Osservazione. È chiaro che una retta r di A2 di equazione cartesiana ax+by +c = 0


ha giacitura
Sr : ax + by = 0 , cioè Sr = L((−b, a)).

1.5. Osservazione. Si noti che una retta non individua univocamente un’equazione
cartesiana. Infatti, se ax + by + c = 0 è un’equazione di r, allora ogni equazione

ρax + ρby + ρc = 0 , ρ ̸= 0

rappresenta ancora la medesima retta r, poiché

ρax + ρby + ρc = 0 ⇔ ρ(ax + by + c) = 0 ⇔ ax + by + c = 0

dove l’ultima uguaglianza segue da ρ ̸= 0.

1.5.1. Esempio. La retta r ⊂ A2 di equazione 2x−y +3 = 0 ha giacitura Sr : 2x−y = 0,


cioè Sr = L((1, 2)).

Si consideri ora il piano π ⊂ A3 di equazione parametrica



⎨ x = 1 + 2λ + µ
π: y =2−λ−µ .

z=µ

Eliminiamo dapprima il parametro µ, ricavandolo (ad esempio) dalla terza equazione:


sostituendolo nelle prime due si ottiene:

⎨ x = 1 + 2λ + z
y =2−λ−z .

µ=z

Successivamente si elimina il parametro λ ricavandolo, ad esempio, dalla seconda equazione


e sostituendolo nella prima:

⎨ x = 1 + 2λ + z
λ=2−y−z ⇒ x = 1 + 2(2 − y − z) + z ⇒ x + 2y + z − 5 = 0.

µ=z

146
Quest’ultima equazione rappresenta ancora il piano π: infatti ogni punto di π soddisfa tale
equazione, come si verifica immediatamente, sostituendo in essa le coordinate di un punto
P = (1 + 2λ + µ, 2 − λ − µ, µ) ∈ π. D’altra parte x + 2y + z − 5 = 0 è un sistema lineare di
un’equazione in tre incognite, avente ∞2 soluzioni, che sono dunque date dai punti di π.

Il procedimento visto sopra vale in generale, per ogni piano dello spazio affine. In
modo analogo a quanto visto per le rette del piano si prova la seguente:

1.6. Proposizione. I piani dello spazio affine sono tutti e soli i luoghi di punti le cui
coordinate verificano un’equazione del tipo

ax + by + cz + d = 0. (2)

Tale espressione è detta equazione cartesiana di piano in A3 . !

Nello stesso modo di 1.5. per una rette nel piano, l’equazione cartesiana di un piano nello
spazio non è univocamente determinata: moltiplicando per un qualunque numero reale
non nullo si ottiene un’equazione cartesiana che descrive lo stesso piano.

1.7. Osservazione. È chiaro che se il π di A3 ha equazione cartesiana ax+by +cz +d = 0,


allora la sua giacitura è descritto dal sistema omogeneo corrispondente:

Sπ : ax + by + cz = 0.

Il prossimo caso interessante è quello di una retta nello spazio.


Sia r ⊂ A3 la retta di equazione parametrica

⎨ x = 1 + 2λ
r: y =2−λ .

z=λ

Eliminando, nel modo usuale, il parametro λ si ottiene:


⎧ ⎧
⎨ x = 1 + 2λ ⎨ x = 1 + 2z )
x − 2z − 1 = 0
y =2−λ ⇒ y =2−z ⇒ .
⎩ ⎩ y+z−2=0
λ=z λ=z

Lo spazio delle soluzioni dell’ultimo sistema lineare coincide con r; infatti ogni punto di r
soddisfa tale sistema (come si verifica facilmente per sostituzione). D’altra parte, il sistema
in questione ha ∞1 soluzioni (essendo di rango 2 in 3 incognite); quindi le sue soluzioni
rappresentano tutti e soli i punti di r.
In generale, in modo analogo a quanto fatto in 1.2 e 1.6, si prova facilmente la seguente

147
1.8. Proposizione. Le rette dello spazio affine sono tutti e soli i luoghi di punti le cui
coordinate verificano un’equazione del tipo
)
a1 x + b1 y + c1 z + d1 = 0
r: (3)
a2 x + b2 y + c2 z + d2 = 0
! "
a1 b1 c1
dove ρ = 2. Tale equazione di dice equazione cartesiana della retta r. !
a2 b2 c2

1.9. Osservazione. Si noti che la precedente equazione non è univocamente determinata,


infatti ogni sistema lineare equivalente a (3), cioè avente lo stesso spazio delle soluzioni,
fornisce una ulteriore equazione cartesiana di r.

1.10. Osservazione. La giacitura Sr della retta r in (3) è il sottospazio vettoriale di R3


di equazione: )
a1 x + b1 y + c1 z + d1 = 0
Sr :
a2 x + b2 y + c2 z + d2 = 0
che è chiaramente il sistema omogeneo associato a (3). Vale anche il viceversa, cioè tutti
e sole le rette in A3 di giacitura Sr hanno un’equazione di tipo (3).

Vediamo ulteriori esempi di eliminazione di parametri: uno in dimensione più alta


(iperpiano di A4 ), un piano di A3 , una retta di A4 .
1.10.1. Esempio. Si consideri l’iperpiano H ⊂ A4 di equazione parametrica

⎪ x=1+λ+µ+ν

y =λ−µ
H: .
⎩z = µ + ν

t=ν

Eliminiamo i parametri: dapprima ν (ricavato dalla quarta equazione) e successivamente


µ (dalla terza):
⎧ ⎧
⎪ x=1+λ+µ+t ⎪ x = 1 + λ + (z − t) + t
⎨ ⎨
y =λ−µ y = λ − (z − t)

⎩z = µ + t
⎪ ⎩µ = z − t

ν=t ν=t

infine, eliminiamo λ (dalla seconda), ottenendo:



⎪ x = 1 + (y + z − t) + (z − t) + t

λ=y+z−t
.
⎩µ = z − t

ν=t

148
Pertanto la prima equazione del precedente sistema fornisce:

H: x − y − 2z + t − 1 = 0.

che si dice equazione cartesiana di H.

1.10.2. Esempio. Si consideri il piano L dello spazio affine reale

L: P = Q + λv1 + µv2 ,

dove Q = (2, 3, 0), v1 = (1, 0, 1), v2 = (1, −1, 0). Esplicitando le componenti di P = (x, y, z)
si ha: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎧
x 2 1 1 ⎨x = 2 + λ + µ
⎝ y ⎠ = ⎝ 3 ⎠ + λ ⎝ 0 ⎠ + µ ⎝ −1 ⎠ =⇒ y=3 −µ

z 0 1 0 z= λ
ed eliminando i parametri si ottiene

⎨λ = z
µ=3−y

x=2+z+3−y

da cui l’equazione cartesiana di L: x + y − z − 5 = 0.

1.10.3. Esempio. Si consideri la retta r : P = Q + λv dello spazio A4 , dove Q =


(1, −1, 2, 1) e v = (1, 2, 2, 1). Dunque
⎧ ⎧ ⎧
⎪ x =1+λ ⎪ λ = x1 − 1
⎨ 1 ⎨ ⎨ x1 + x2 − 3 = 0
x2 =2−λ x2 = 2 − (x1 − 1)
r: ⇒ ⇒ 2x + x3 = 0 .
⎩ x3
⎪ = 2 + 2λ ⎩ x3 = 2 + 2(x1 − 1)
⎪ ⎩ 1
x1 + x4 = 0
x4 =1+λ x4 = 1 + (x1 − 1)

1.11. Osservazione. In generale, se una varietà lineare affine L ⊆ An è data attraverso


l’equazione cartesiana
L : AX = B, A ∈ K m,n
cioè come spazio delle soluzioni di un sistema lineare di m equazioni in n incognite, è
sufficiente risolvere il sistema, determinando la forma della generica soluzione in funzione
di r = n − ρ(A) parametri per ottenera la sua espressione parametrica.
In sintesi, la varietà lineare L può essere rappresentata in forma cartesiana o in forma
paramentrica e il legame tra i due tipi di equazioni è

sistema lineare Σ : AX = B spazio delle soluzioni SΣ


⇐⇒
(equazione cartesiana) (equazione parametrica)

149
1.11.1. Esempio. Si consideri il piano π ⊆ A3 di equazione:

π : 2x − y + z − 1 = 0.

Scegliendo come incognite libere x e y, si ha z = −2x + y + 1, cioè (x, y, z) appartiene a π


se e solo se

(x, y, z) = (a, b, −2a + b + 1) = (0, 0, 1) + a(1, 0, −2) + b(0, 1, 1)

che è pertanto l’equazione vettoriale di π.

1.11.2. Esempio. Si consideri la retta r ⊆ A3 di equazione cartesiana:


)
x−y+z−1=0
r: .
2x + y + 2 = 0

Per determinare una sua equazione vettoriale si risolve il precedente sistema, ottenendo:
)
y = −2x − 2
z = −3x − 3

e dunque
(x, y, z) = (a, −2a − 2, −3a − 3) = (0, −2, −3) + a(1, −2, −3).

2. Intersezioni
In questo paragrafo studieremo l’intersezione ( o meglio la posizione reciproca) di varietà
lineari affini. Consideriamo alcuni casi particolari.

2.1. Intersezione di due rette nel piano.


Siano r ed r′ due rette di equazioni cartesiane

r: ax + by + c = 0, r′ : a′ x + b′ y + c′ = 0.

La loro intersezione è data dalle soluzioni del sistema


)
ax + by = −c
.
a′ x + b′ y = −c′

Dette ! " ! "


a b a b −c
A= e (A, B) =
a′ b′ a′ b′ −c′
le matrici associate a tale sistema, tre casi sono possibili:

150
- ρ(A) = ρ(A, B) = 1: il sistema ha ∞1 soluzioni, dunque r = r′ ;
- ρ(A) = ρ(A, B) = 2: il sistema ha una sola soluzione (x0 , y0 ), dunque r interseca r′
nel punto di coordinate (x0 , y0 );
- ρ(A) = 1 e ρ(A, B) = 2: il sistema non ha soluzioni, pertanto r ∩ r′ = ∅. In tal caso
si tratta di due rette parallele e distinte di giacitura L((−b, a)).

In sintesi, si ha la tabella:

ρ(A) ρ(A, B) sol. del sistema AX = B r ∩ r′


1 1 ∞1 r = r′
2 2 1 punto
1 2 nessuna ∅

Come conseguenza immediata si ha il seguente:

2.2. Corollario. Siano r e r′ due rette del piano affine, di equazioni cartesiane:

r: ax + by + c = 0, r′ : a′ x + b′ y + c′ = 0.

Allora ! "
′ a b c
r=r ⇐⇒ ρ = 1.
a′ b′ c′
!

2.2.1. Esempio. Siano r ed s le due rette di equazioni

r: x + y − 1 = 0, s: x + 2y + 2 = 0.

Vogliamo determinare la posizione reciproca di r ed s. Basta risolvere il sistema lineare


)
x+y = 1
.
x + 2y = −2

Riducendo la matrice:
! " ! "
1 1 1 1 1 1
(A, B) = −→ = (A′ , B ′ )
1 2 −2 0 1 −3

si ha ρ(A, B) = ρ(A′ , B ′ ) = 2 e ρ(A) = ρ(A′ ) = 2. Pertanto r ed s si intersecano nel punto


r ∩ s = (4, −3).

2.2.2. Esempio. Siano r ed sα le due rette di equazioni

r: x + y − 1 = 0, sα : x + αy + 2 = 0,

151
con α ∈ R. Vogliamo determinare la posizione reciproca di r ed sα , al variare di α ∈ R.
Basta discutere il sistema lineare
)
x+y = 1
.
x + αy = −2

Riducendo la matrice:
! " ! "
1 1 1 1 1 1
(A, B) = −→ = (A′ , B ′ )
1 α −2 0 α−1 −3

si ha ρ(A, B) = ρ(A′ , B ′ ) = 2 per ogni α, mentre ρ(A) = ρ(A′ ) = 2 se e solo se α ̸= 1.


Pertanto r ed sα sono parallele se e solo se α = 1 (in tal caso s1 : x + y + 2 = 0), mentre
α+2 3
per α ̸= 1 si intersecano nel punto r ∩ sα = ( α−1 , 1−α ).

Può capitare di intersecare due rette non entrambe in forma cartesiana: ad esempio
date entrambe in forma parametrica oppure una in forma parametrica e l’altra in carte-
siana. Per determinarne l’intersezione, invece di ricavare le loro equazioni cartesiane e
quindi procedere come sopra, si può operare direttamente, come nei seguenti esempi.

2.2.3. Esempio. Vogliamo determinare la posizione reciproca delle seguenti rette, date,
rispettivamente, in forma parametrica e in forma cartesiana:

r: (x, y) = (1, 2) + λ(1, −1) , s : : 2x − y − 6 = 0.

Per determinare la loro intersezione, basta sostituire le relazioni fornite da r:


)
x=1+λ
y =2−λ

nell’equazione di s, ottenendo

2(1 + λ) − (2 − λ) − 6 = 0 ⇒ 3λ − 6 = 0 ⇒ λ = 2.

Quindi r ed s sono incidenti e precisamente si intersecano nel punto che si ottiene dall’
equazione di r per λ = 2; dunque r ∩ s = (3, 0).

2.2.4. Esempio. Come nell’esempio precedente, vogliamo determinare la posizione re-


ciproca delle seguenti rette:

r: (x, y) = (1, −1) + λ(2, −1) , s: : x + 2y − 3 = 0.

Operando come sopra, si ottiene:

(1 + 2λ) + 2(−1 − λ) − 3 = 0 ⇒ −4 = 0.

152
Dunque nessun valore di λ soddisfa la relazione precedente e pertanto r ∩ s = ∅. Poiché le
due rette sono nel piano affine, ciò implica che r ed s sono parallele.

2.2.5. Esempio. Vogliamo determinare la posizione reciproca di due rette date in


equazione parametrica:
r: (x, y) = (1, 0) + λ(1, −2) , s: (x, y) = (1, −1) + λ(−1, 1).
In questo caso basta uguagliare le coordinate del generico punto di r con quelle del generico
punto di s, ricordandosi di cambiare nome ad uno dei due parametri, e quindi risolvere il
sistema: ) ) )
1+λ = 1−µ λ = −µ λ = 1
⇒ ⇒ .
−2λ = −1 + µ 2µ = −1 + µ µ = −1
Il sistema ha un’unica soluzione (λ, µ) = (1, −1), dunque r ed s si intersecano in un solo
punto, le cui coordinate si ricavano, equivalentemente, da r per λ = 1 o da s per µ = −1;
dunque r ∩ s = (2, −2).

2.2.6. Esempio. Come nell’esempio precedente, vogliamo determinare la posizione


reciproca di due rette date in equazione parametrica:
r: (x, y) = (1, 1) + λ(−1, 2) , s: (x, y) = (1, 2) + λ(1, −2).
Procedendo come prima, si risolve il sistema:
) ) )
1−λ = 1+µ −λ = µ −λ = µ
⇒ ⇒ .
1 + 2λ = 2 − 2µ 1 − 2µ = 2 − 2µ 1=2
Tale sistema è incompatibile, cioè r ∩ s = ∅; dunque le due rette sono parallele.

2.3. Intersezione di due piani nello spazio.


Siano π e π ′ due piani dello spazio affine, di equazioni cartesiane:
π: ax + by + cz + d = 0, π′ : a′ x + b′ y + c′ z + d′ = 0.
La loro intersezione è data )
dalle soluzioni del sistema
ax + by + cz = −d
.
a′ x + b′ y + c′ z = −d′
Dette ! " ! "
a b c a b c −d
A= e (A, B) =
a′ b′ c′ a′ b′ c′ −d′
le matrici associate a tale sistema, sono possibili i seguenti casi:
ρ(A) ρ(A, B) sol. del sistema AX = B π ∩ π′
1 1 ∞2 π = π′
2 2 ∞1 retta
1 2 nessuna ∅

Si noti che nell’ultimo caso π e π ′ sono paralleli.

Come immediata conseguenza, si ha il seguente:

153
2.4. Corollario. Siano π e π ′ due piani dello spazio affine, di equazioni cartesiane:

π: ax + by + cz + d = 0, π′ : a′ x + b′ y + c′ z + d′ = 0.

Allora ! "
′ a b c d
π=π ⇐⇒ ρ = 1.
a′ b′ c′ d′
!

2.4.1. Esempio. Vogliamo determinare l’intersezione dei piani di A3 :

π: x − y + 3z + 2 = 0 π′ : x − y + z + 1 = 0.

Bisogna dunque risolvere il sistema


)
x − y + 3z + 2 = 0
Σ: .
x−y+ z+1 = 0

Riducendo la matrice completa (A, B)


! " ! "
1 −1 3 −2 1 −1 3 −2
−→
1 −1 1 −1 0 0 2 −1

si vede che ρ(A) = ρ(A, B) = 2, pertanto il sistema ha ∞1 soluzioni e quindi π e π ′ hanno


una retta in comune, la cui equazione cartesiana è data da Σ.

2.4.2. Esempio. Come prima, vogliamo determinare l’intersezione dei due piani di A3 :

π: x−y+z+2=0 π′ : 2x − 2y + 2z + 1 = 0.

Riducendo la matrice completa (A, B)


! " ! "
1 −1 1 −2 1 −1 1 −2
−→
2 −2 2 −1 0 0 0 3

si vede che ρ(A) = 1 mentre ρ(A, B) = 2, pertanto il sistema non ha soluzioni ed i due
piani non hanno punti in comune. Poiché siamo in A3 , ciò significa che π e π ′ sono paralleli.

2.4.3. Esempio. Siano π, π ′ , π ′′ i tre piani di equazioni

π : x − 2y − z + 1 = 0, π ′ : x + y − 2 = 0, π ′′ : 2x − 4y − 2z − 5 = 0.

Vogliamo determinare la posizione reciproca delle coppie di piani π, π ′ e π, π ′′ . Consideri-


amo dapprima il sistema lineare associato all’intersezione di π ∩ π ′ :
)
x − 2y − z = −1
Σ: .
x+ y = 2

154
Poiché ! "
1 −2 −1 −1
(A, B) =
1 1 0 2
ρ(A) = ρ(A, B) = 2, pertanto π∩π ′ è la retta avente il sistema Σ per equazione cartesiana.
Per determinare l’intersezione π ∩ π ′′ , si consideri invece il sistema
)
′ x − 2y − z = −1
Σ : .
2x − 4y − 2z = 5

Poiché ! "
′ ′ 1 −2 1 −1
(A , B ) =
2 −4 −2 5
si ha ρ(A′ ) = 1 e ρ(A′ , B ′ ) = 2, dunque Σ non ha soluzioni e i piani π e π ′′ sono paralleli,
di comune giacitura Sπ : x − 2y − z = 0.

2.5. Intersezione di una retta e di un piano nello spazio.


Siano r una retta e π un piano dello spazio affine, di equazioni cartesiane:
)
a1 x + b1 y + c1 z + d1 = 0
r: π : ax + by + cz + d = 0.
a2 x + b2 y + c2 z + d2 = 0

La loro intersezione è data dalle soluzioni del sistema



⎨ a 1 x + b1 y + c1 z = −d1
a x + b2 y + c2 z = −d2 .
⎩ 2
ax + by + cz = −d

Dette ⎛ ⎞ ⎛ ⎞
a1 b1 c1 a1 b1 c1 −d1

A = a2 b2 c2 ⎠ ⎝
e (A, B) = a2 b2 c2 −d2 ⎠
a b c a b c −d
le matrici associate a tale sistema, sono possibili i seguenti casi, tenuto conto del fatto che
le prime due righe di A e di (A, B) sono linearmente indipendenti in quanto corrispondono
all’equazione cartesiana di una retta:

ρ(A) ρ(A, B) sol. del sistema AX = B π∩r


2 2 ∞1 r
3 3 ∞0 punto
2 3 nessuna ∅

Si noti che, nel primo caso, r ⊂ π, mentre nell’ultimo r è parallela a π; infatti le rispettive
giaciture sono
)
a1 x + b1 y + c1 z = 0
Sr : Sπ : ax + by + cz = 0.
a2 x + b2 y + c2 z = 0

155
Proviamo che Sr ⊂ Sπ . Per ipotesi, (a, b, c) = λ1 (a1 , b1 , c1 ) + λ2 (a2 , b2 , c2 ). Consideriamo
il punto P = (x0 , y0 , z0 ) ∈ Sr , cioè tale che ai x0 + bi y0 + ci z0 = 0, per i = 1, 2. Quindi
ax0 + by0 + cz0 = λ1 (a1 x0 + b1 y0 + c1 z0 ) + λ2 (a2 x0 + b2 y0 + c2 z0 ) = 0, cioè P ∈ Sπ .

2.5.1. Esempio. Vogliamo determinare la posizione reciproca della retta r e del piano π
di A3 , dove
)
x − 2y − z = −1
r: , π : 2x + y − 2z − 5 = 0.
x+y = 2
Consideriamo quindi la matrice associata al sistema costituito dalle tre equazioni prece-
denti:
⎛ ⎞ ⎛ ⎞
1 −2 −1 −1 1 −2 −1 −1
(A, B) = ⎝ 1 1 0 2 ⎠ −→ ⎝ 1 1 0 2 ⎠ = (A′ , B ′ ).
2 1 −2 5 0 5 0 7
Pertanto ρ(A) = 3 = ρ(A, B), quindi r e π sono incidenti nel punto (3/5, 7/5, −6/5)
soluzione del sistema A′ X = B ′ .

2.5.2. Esempio. Vogliamo determinare la posizione reciproca della retta r e del piano
πh di A3 , al variare di h in R, dove
)
x − 2y − z = −1
r: , πh : 2x + hy − 2z − 5 = 0.
x+y = 2
Consideriamo quindi la matrice associata al sistema costituito dalle tre equazioni prece-
denti: ⎛ ⎞
1 −2 −1 −1
(Ah , B) = ⎝ 1 1 0 2 ⎠.
2 h −2 5
Per calcolare il rango di Ah , basta osservare che esso è sicuramente almeno 2 e che ρ(Ah ) =
3 se e solo se det(Ah ) ̸= 0. Ma det(Ah ) = h + 4, dunque se h ̸= −4, ρ(Ah ) = 3 = ρ(Ah , B),
pertanto r e πh sono incidenti nel punto soluzione del sistema Ah X = B.
Se h = −4, allora ρ(A−4 ) = 2 e inoltre
⎛ ⎞ ⎛ ⎞
1 −2 −1 −1 1 −2 −1 −1
(A−4 , B) = ⎝ 1 1 0 2 ⎠ −→ ⎝ 1 1 0 2 ⎠
2 −4 −2 5 0 0 0 7
quindi ρ(A−4 , B) = 3, pertanto il sistema A−4 X = B non è risolubile; ciò significa che r e
π sono paralleli.

2.5.3. Esempio. Come in 2.5.1, vogliamo determinare la posizione reciproca di una


retta r e di un piano π di A3 ; qui però la retta è data in equazione parametrica e il piano
in forma cartesiana. Siano
r: (x, y, z) = (3, −1, 5) + λ(1, −1, 2) π: x + y − z + 1 = 0.

156
Sostituendo le coordinate del generico punto P = (3 + λ, −1 − λ, 5 + 2λ) di r nell’equazione
di π si ha

(3 + λ) + (−1 − λ) − (5 + 2λ) + 1 = 0 ⇒ −2λ − 2 = 0 ⇒ λ = −1.

Pertanto r ∩ π = (2, 0, 3).

2.6. Intersezione di due rette nello spazio.


Siano r ed r′ due rette dello spazio affine, di equazioni cartesiane:
) )
a1 x + b1 y + c1 z + d1 = 0 ′ a′1 x + b′1 y + c′1 z + d′1 = 0
r: r :
a2 x + b2 y + c2 z + d2 = 0 a′2 x + b′2 y + c′2 z + d′2 = 0

Dette
⎛ ⎞ ⎛ ⎞
a1 b1 c1 a1 b1 c1 −d1
⎜a b2 c2 ⎟ ⎜a b2 c2 −d2 ⎟
A = ⎝ 2′ ⎠ e (A, B) = ⎝ 2′ ⎠
a1 b′1 c′1 a1 b′1 c′1 −d′1
a′2 b′2 c′2 a′2 b′2 c′2 −d′2

le matrici associate a tale sistema, sono possibili i seguenti casi:

ρ(A) ρ(A, B) sol. del sistema AX = B r ∩ r′


2 2 ∞1 r
3 3 ∞0 punto
2 3 nessuna ∅
3 4 nessuna ∅

Nel primo caso r ≡ r′ ; nel secondo le due rette sono incidenti. Vogliamo distinguere gli
ultimi due casi: nel terzo caso le righe R3 e R4 di A sono combinazione lineare di R1 e R2 ,
dunque i sistemi
) )
a 1 x + b1 y + c 1 z = 0 a′1 x + b′1 y + c′1 z = 0
a 2 x + b2 y + c 2 z = 0 a′2 x + b′2 y + c′2 z = 0

sono equivalenti, cioè Sr = Sr′ , quindi r ed r′ sono parallele. Nell’ultimo caso ciò non
accade: r ed r′ non hanno punti in comune e non sono parallele, cioè sono sghembe.

2.6.1. Esempio. Siano r ed r′ le due rette dello spazio affine, di equazioni cartesiane:
) )
x − y + 2z + 1 = 0 ′ y−z+2=0
r: r :
x + z−1=0 x+y+z =0

157
Per determinare la posizione reciproca di r e r′ basta ridurre per righe la matrice completa
del sistema associato a r ∩ r′ :
⎛ ⎞ ⎛ ⎞
1 −1 2 −1 1 −1 2 −1
⎜1 0 1 1 ⎟ ⎜0 1 −1 2 ⎟
(A, B) = ⎝ ⎠ −→ ⎝ ⎠ −→
0 1 −1 −2 0 1 −1 −2
1 1 1 0 0 2 −1 1
⎛ ⎞
1 −1 2 −1
⎜0 1 −1 2 ⎟ ′ ′
−→ ⎝ ⎠ = (A , B ).
0 0 0 −4
0 0 1 −3

Poiché ρ(A′ ) = 3 e ρ(A′ , B ′ ) = 4, il sistema non ammette soluzioni; più precisamente r ed


r′ sono sghembe.

158
XII - GEOMETRIA LINEARE AFFINE EUCLIDEA

1. Spazi affini euclidei


Se, in luogo dello spazio affine costruito a partire dallo spazio vettoriale Rn , si considera
quello associato allo spazio euclideo reale E n si ottiene un spazio affine nel quale si possono
introdurre nuove nozioni quali l’ortogonalità, le distanze e gli angoli.

1.1. Definizione. Lo spazio affine An (R) associato allo spazio euclideo E n si dice spazio
affine euclideo e si denota con En .

Poiché in uno spazio euclideo si può parlare di basi ortonormali e rispetto a tali basi
molti calcoli sono particolarmente semplici, introduciamo dei sistemi di riferimento che
si riconducono al concetto di base ortonormale. Si noti, inoltre, che se B è una base
ortonormale di E n , allora la matrice che ha per colonne i vettori di B, cioè M B,E , dove E
è la base canonica, è ortogonale per definizione (Cap. IX); in particolare det(M B,E ) = ±1.

Estendendo ad una base ortonormale qualunque la definizione di sistema di riferimento


cartesiano ortogonale si ha:
1.2. Definizione. Un sistema di riferimento (O, B) di En si dice cartesiano ortogonale se
B è una base ortonormale di E n e det(M B,E ) = 1.

D’ora in poi considereremo solo riferimenti cartesiani ortogonali.

1.2.1. Esempio. Sia r la retta di equazione (x, y) = (1, −2) + λ(1, −1). Per deter-
minare una equazione cartesiana di r possiamo operare nel modo consueto (eliminando il
parametro) oppure osservando che un vettore ortogonale ad r è, ad esempio, u = (1, 1);
dunque, posti A = (1, −2) ∈ r e v = (1, −1), si ha:

P = (x, y) ∈ r ⇐⇒ P − A ∈ L(v) ⇐⇒
⇐⇒ (P − A) · u = 0 ⇐⇒ (x − 1, y + 2) · (1, 1) = 0,

da cui
r: x + y + 1 = 0.
In generale, se r è la retta di E2 di equazione vettoriale P = A + λv ed u è un vettore
ortogonale ad r, cioè Sr⊥ = L(u) (ricordando che Sr denota la giacitura di r) si ha

P ∈ r ⇐⇒ (P − A) · u = 0.

Quest’ultima equazione si dice equazione normale della retta r.

Generalizzando ad un qualsiasi iperpiano (una V.L.A. di dimensione n − 1) di En si


ha la seguente:

159
1.3. Proposizione. Siano H ⊂ En un iperpiano e A un suo punto. Se u ∈ Rn è un

vettore non nullo ortogonale alla giacitura SH di H, cioè L(u) = SH , allora

P ∈H ⇐⇒ (P − A) · u = 0.

1.4. Definizione. L’equazione

H: (P − A) · u = 0

si dice equazione normale dell’iperpiano H. In particolare, se n = 2 si ha l’equazione


normale della retta nel piano; se n = 3, si ha l’equazione normale del piano nello spazio.

1.5. Osservazione. Si noti che l’equazione normale di un iperpiano H non è univoca-


mente determinata, in quanto il punto A può variare in H ed il vettore u è individuato a
meno di uno scalare.

1.6. Osservazione. Si noti che, se H ha equazione cartesiana a1 x1 + · · · + an xn = b,



allora SH = L((a1 , . . . , an )); infatti

SH = {(x1 , . . . , xn ) ∈ Rn | a1 x1 + · · · + an xn = 0} =
= {(x1 , . . . , xn ) ∈ Rn | (a1 , . . . , an ) · (x1 , . . . , xn ) = 0}


dunque SH = L((a1 , . . . , an )) e quindi l’equazione normale di H è

(P − A) · (a1 , . . . , an ) = 0

dove A è un qualunque punto di H.

1.6.1. Esempio. Vogliamo determinare le equazioni normale e cartesiana del piano


π di E3 , passante per il punto A = (1, 0, −1) e la cui giacitura è ortogonale al vettore
u = (1, 2, 3). Per quanto visto, si ha

π: (x − 1, y, z + 1) · (1, 2, 3) = 0,

da cui
π: x + 2y + 3z + 2 = 0.

1.6.2. Esempio. Vogliamo determinare l’equazione normale di una retta del piano a
partire dalla sua equazione cartesiana. Sia ad esempio r : 2x − 3y + 3 = 0; poiché, da 1.6,
un vettore normale ad r è u = (2, −3) e (0, 1) è un suo punto, un’equazione normale di r è

(x, y − 1) · (2, −3) = 0.

160
Come abbiamo visto, l’equazione normale di un iperpiano è strettamente legata alla
sua equazione cartesiana. Non è quindi sorprendente il fatto che per dare in forma normale
una generica VLA che non sia un iperpiano si abbia bisogno di più relazioni. Illustriamo
questo fatto con un esempio.

1.6.3. Esempio. Vogliamo determinare l’equazione cartesiana della retta r ⊂ E3 passante


per il punto A = (1, 2, −3) e ortogonale al sottospazio vettoriale L((1, 1, 0), (0, 1, −1)).
Bisogna quindi imporre due condizioni di ortogonalità che determinano l’equazione normale
delle retta: )
(x − 1, y − 2, z + 3) · (1, 1, 0) = 0
.
(x − 1, y − 2, z + 3) · (0, 1, −1) = 0
Di consequenza, l’equazione cartesiana di r è:
)
x+y−3=0
.
y−z−5=0

2. Ortogonalità fra varietà lineari affini

2.1. Definizione. Siano L ed L′ due rette nel piano affine E2 oppure una retta ed un piano
nello spazio affine E3 . Diremo che L ed L′ sono ortogonali se SL = SL⊥′ o, equivalentemente,
se SL′ = SL⊥ ; cioè se le rispettive giaciture sono sottospazi tra loro ortogonali.

2.1.1. Esempio. Si considerino le seguenti rette del piano euclideo:


r: 2x − 2y + 1 = 0; r′ : x + y + 3 = 0
′′
r : (x, y) = (1, −3) + λ(1, 1); r′′′ : (x + 1, y − 4) · (1, 2) = 0.
Dire quali coppie di rette tra le precedenti sono ortogonali.
Detti v, v ′ , v ′′ , v ′′′ i vettori paralleli, rispettivamente, alle rette r, r′ , r′′ , r′′′ , si ha
v = (2, 2), v ′ = (−1, 1), v ′′ = (1, 1), v ′′′ = (−2, 1)
e chiaramente le sole coppie di rette ortogonali sono r ⊥ r′ , r′ ⊥ r′′ .

2.1.2. Esempio. Nello spazio E3 si consideri il piano π : x − y + 2z − 3 = 0; vogliamo


determinare la retta r ortogonale a π e passante per il punto A = (1, 2, 1).
Poiché Sπ⊥ = L((1, −1, 2)), si ha
r: (x, y, z) = (1, 2, 1) + λ(1, −1, 2).

2.1.3. Esempio. Nello spazio E3 si consideri la retta di equazione


)
x − 2y + z − 1 = 0
r: .
x+y =0

161
Vogliamo determinare l’equazione cartesiana del piano π ortogonale ad r e passante per il
punto A = (−1, −1, −1).
Conviene ricavare un’equazione parametrica di r: ponendo, ad esempio, y = λ, si ha

⎨ x = −λ
r: y=λ

z = 1 + 3λ

quindi r ha per direzione il vettore (−1, 1, 3), pertanto l’equazione normale di π è

π: (x + 1, y + 1, z + 1) · (−1, 1, 3) = 0

dunque
π: x − y − 3z − 3 = 0.

2.1.4. Esempio. Si considerino i sottospazi di R3 :


)
x − 2y + z = 0
S: , S⊥ : x − y − 3z = 0.
x+y =0

Da considerazioni generali sappiamo che S ∩ S ⊥ è il solo vettore nullo. D’altra parte, le


varietà lineari affini A + S e B + S ⊥ (dove A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) sono punti
qualunque di E3 ) si intersecano in uno ed un sol punto. Infatti, le equazioni cartesiane di
tali varietà sono della forma:
)
x − 2y + z = α
A+S : , B + S ⊥ : x − y − 3z = γ
x+y =β

dove α = a1 −2a2 +a3 , β = a1 +a2 e γ = b1 −b2 −3b3 . Pertanto i punti di (A+S)∩(B +S ⊥ )


sono le soluzioni del sistema

⎨ x − 2y + z = α
Σ: x+y =β .

x − y − 3z = γ

Tale sistema ha una ed una sola soluzione in quanto la sua matrice dei coefficienti ha rango
3, poiché coincide con quella del sistema omogeneo

⎨ x − 2y + z = 0
Σ0 : x+y =0

x − y − 3z = 0

che ha per unica soluzione la soluzione nulla, essendo quello che descrive S ∩ S ⊥ .

162
Ad esempio, la retta r e il piano π di 2.1.3, ottenuti ponendo A = (1, −1, −2) e
B = (0, 0, −1), si intersecano in un solo punto P ottenuto come soluzione del sistema:

⎨ x − 2y + z = 1
x+y =0 .

x − y − 3z = 3
Si verifica che P = (6/11, −6/11, −7/11). Infine, se B = A = (1, −1, −2), allora (A + S) ∩
(A + S ⊥ ) = A, come si verifica risolvendo il sistema

⎨ x − 2y + z = 1
x+y =0 .

x − y − 3z = 8

La nozione di varietà ortogonali può essere estesa anche a V.L.A. non complementari.
Noi ci limiteremo a due soli semplici esempi: due rette in En o due piani in E3 .

2.2. Definizione. Siano r ed r′ due rette contenute in En di direzioni rispettive v, v ′ ∈ E n .


Diciamo che r ed r′ sono ortogonali se e solo se v e v ′ sono tra loro ortogonali.

2.2.1. Esempio. Si considerino le due rette di E3 :



⎨ x = 3 + λ′
r: (x, y, z) = (1, 2, 1) + λ(3, 0, −1) , r′ : y = 2 − 2λ′ .

z = 3λ′
Posti v = (3, 0, −1) e v ′ = (1, −2, 3) due vettori paralleli ad r ed r′ , rispettivamente, si
osserva che v e v ′ sono ortogonali in quanto
v · v ′ = (3, 0, −1) · (1, −2, 3) = 0.
Quindi r ed r′ sono ortogonali. Osserviamo, infine, che v ∈ Sr⊥′ (e quindi Sr = L(v) ⊂ Sr⊥′ )
e, analogamente, v ′ ∈ Sr⊥ (e quindi Sr′ = L(v ′ ) ⊂ Sr⊥ ).

Questo fatto vale in generale, infatti si può provare la seguente:

2.3. Proposizione. Siano r, r′ ⊂ E3 due rette; sono equivalenti:


i) r ed r′ sono ortogonali;
ii) Sr ⊂ Sr⊥′ e, analogamente, Sr′ ⊂ Sr⊥ ;
iii) esiste un unico piano π tale che π ⊃ r e π è ortogonale a r′ e, analogamente, esiste un
unico piano π ′ tale che π ′ ⊃ r′ e π ′ è ortogonale a r. !

2.3.1. Esempio. Si considerino le rette ortogonali r ed r′ dell’esempio 2.2.1; vogliamo


determinare il piano π tale che π ⊃ r e π è ortogonale a r′ . Per 1.6, il generico piano
ortogonale a r′ ha un’equazione del tipo
πd : x − 2y + 3z + d = 0

163
dove d è un parametro reale. Chiaramente πd ⊃ r se e solo se le coordinate dei punti di r
soddisfano la precedente equazione per ogni valore di λ, cioè se

(1 + 3λ) − 2 · 2 + 3(1 − λ) + d = 0 ⇒ d = 0.

Pertanto π ha equazione x − 2y + 3z = 0.

Vediamo ora come definire l’ortogonalità fra piani.

2.3.2. Esempio. Si considerino i piani π e π ′ di E3 di equazioni:

π: 2x + y − z − 3 = 0 , π′ : x + y + 3z − 1 = 0.

Si osservi che i vettori u = (2, 1, −1) e u′ = (1, 1, 3), ortogonali a π e a π ′ , rispettivamente,


sono ortogonali tra loro; infatti:

u · u′ = (2, 1, −1) · (1, 1, 3) = 0.

Anche in questo caso è naturale dire che i due piani sono ortogonali.
Ricordando che Sπ⊥ = L((2, 1, −1)), si noti che

(2, 1, −1) ∈ Sπ′ = {(a, b, c, ) | a + b + 3c = 0}

e dunque Sπ⊥ ⊂ Sπ′ . In modo analogo si prova che Sπ⊥′ ⊂ Sπ .

Il precedente esempio conduce naturalmente alla seguente:

2.4. Definizione. Due piani π ed π ′ contenuti in E3 sono ortogonali se due vettori u ed


u′ , ad essi rispettivamente ortogonali, sono tra loro ortogonali.

2.5. Osservazione. Si vede facilmente che due piani π, π ′ ⊂ E3 sono ortogonali se e solo
se Sπ⊥ ⊂ Sπ′ e, analogamente, se Sπ⊥′ ⊂ Sπ .

Concludiamo con un esercizio di ricapitolazione:


2.5.1. Esempio. Si considerino le rette r, s ⊂ E3 di equazioni
)
x−y+z+2=0
r : (x, y, z) = (1, 2, 1) + λ(3, 0, −1), s:
x−z+1=0

ed il punto A = (1, 0, 1). Vogliamo determinare:


a) la famiglia F delle rette ortogonali ad r e passanti per A;
b) la retta l di F parallela al piano π : x − y + z + 2 = 0;
c) la retta l′ di F ortogonale ad s;

164
d) le rette ortogonali ad r contenute nel piano y − 2 = 0.

a) Sia v = (a, b, c) ∈ R3 ; v ⊥ Sr se e solo se (a, b, c) · (3, 0, −1) = 0 se e solo se c = 3a.


Pertanto la famiglia richiesta è costituita dalle rette rα di equazione:

rα : (x, y, z) = (1, 0, 1) + µ(1, α, 3)

ottenuta per a ̸= 0, e dalla retta

r: (x, y, z) = (1, 0, 1) + µ(0, 1, 0)

ottenuta per a = c = 0.
b) Poiché il vettore (0, 1, 0) non è parallelo a π, la retta l non può essere r e va quindi
ricercata tra le rette rα . Basta imporre dunque che il vettore (1, α, 3) appartenga alla
giacitura di π, cioè che sia ortogonale al vettore (1, −1, 1). Da cui (1, α, 3) · (1, −1, 1) =
4 − α = 0 e quindi α = 4. Pertanto

l: (x, y, z) = (1, 0, 1) + µ(1, 4, 3).

c) Si osservi che un vettore parallelo ad s si ottiene passando ad equazione parametrica,


cioè risolvendo il sistema corrispondente alla sua equazione cartesiana:

s: (x, y, z) = (−1 + η, 1 + 2η, η) = (−1, 1, 0) + η(1, 2, 1).

Richiedere che rα sia ortogonale ad s equivale a imporre che i vettori (1, α, 3) e (1, 2, 1)
siano ortogonali, cioè (1, α, 3) · (1, 2, 1) = 4 + 2α = 0, dunque α = −2; pertanto

l′ : (x, y, z) = (1, 0, 1) + µ(1, −2, 3).

D’altra parte r non è ortogonale ad s, in quanto (0, 1, 0) · (1, 2, 1) = 2 ̸= 0.


d) La generica retta del piano y − 2 = 0 ha equazione parametrica:

⎨ x = x0 + λα
y=2 , dove x0 , z0 , α, γ ∈ R.

z = z0 + λγ

Imponendo a tale retta l’ortogonalità con r si ottiene la relazione:

(α, 0, γ) · (3, 0, −1) = 3α − γ = 0 ⇒ γ = 3α.

Pertanto le rette richieste hanno equazione:



⎨ x = x0 + λα
y=2 , dove x0 , z0 , α ∈ R.

z = z0 + 3λα

165
Possiamo ricavare anche la loro equazione cartesiana eliminando λ:
)
3x − z − 3x0 + z0 = 0
, dove x0 , z0 ∈ R.
y=2

Si noti che la prima equazione, ponendo −3x0 + z0 = h, dà il piano πh : 3x − z + h = 0


che è, al variare di h ∈ R, il generico piano ortogonale alla retta r.
A tale risultato si poteva pervenire direttamente osservando che le rette da determinare
sono l’intersezione del piano y − 2 = 0 con πh .

3. Distanze tra varietà lineari

È ben noto che la distanza di due punti A e B nel piano è definita come la lunghezza
del segmento avente per estremi A e B, cioè il modulo del vettore B − A. Diamo dunque
in generale la seguente:

3.1. Definizione. Siano A e B due punti di En ; si dice distanza di A da B, e si indica


con d(A, B), il numero reale ∥ B − A ∥= (B − A) · (B − A).

3.1.1. Esempio. Siano A = (1, 2, 0, −1) e B = (0, −1, 2, 2) due punti di E4 ; allora

d(A, B) =∥ (−1, −3, 2, 3) ∥= 23.

Dalle proprietà del prodotto scalare segue immediatamente:

3.2. Proposizione. Valgono le seguenti proprietà:


i) d(A, B) ≥ 0 per ogni A, B ∈ En ;
ii) d(A, B) = 0 se e solo se A = B;
iii) d(A, B) = d(B, A) per ogni A, B ∈ En ;
iv) d(A, B) + d(B, C) ≥ d(A, C) per ogni A, B, C ∈ En . !

Vediamo ora come estendere la nozione di distanza tra due punti a quella di distanza
tra un punto e una varietà lineare. Si consideri ad esempio la retta r di equazione (x, y) =
(1, 1) + λ(1, −1) e il punto A = (0, 0) del piano E2 ; denotando con Pλ il generico punto di
r: Pλ = (1 + λ, 1 − λ) si ha .
d(A, Pλ ) = 2 + 2λ2 .

Si verifica che tale funzione di λ assume tutti i valori compresi tra√ 2 e +∞. E’ naturale
quindi chiamare distanza tra r ed A il minimo di tali valori, cioè 2.

166
3.3. Definizione. Siano L una varietà lineare e A un punto di En ; si definisce distanza
di A da L e si denota con d(A, L) il numero reale non negativo

d(A, L) = min{d(A, B) | B ∈ L}.

3.4. Osservazione. Si vede immediatamente che d(A, L) = 0 se e solo se A ∈ L;


proveremo inoltre che esiste A0 ∈ L tale che d(A, A0 ) = d(A, L) e quindi la definizione
precedente è ben posta.

3.5. Proposizione. Siano L una varietà lineare e A un punto di En ; allora

d(A, L) = d(A, A0 ) dove A0 = L ∩ (A + SL⊥ )

e A + SL⊥ denota la varietà lineare affine di giacitura SL⊥ e passante per il punto A.

Dimostrazione. L’intersezione L ∩ (A + SL⊥ ) consiste di un solo punto, che indichiamo con


A0 . Dalla definizione dobbiamo provare che il minimo delle distanze d(A, B) con B ∈ L si
ottiene proprio per B = A0 . Sia dunque B un qualunque punto di L; il vettore A − B si
decompone in
A − B = (A − A0 ) + (A0 − B)
dove A0 − B ∈ SL in quanto A0 e B appartengono a L, mentre A − A0 ∈ SL⊥ , in quanto A
e A0 appartengono alla varietà lineare A + SL⊥ . Quindi (A − A0 ) · (A0 − B) = 0 e pertanto

(d(A, B))2 =∥ A − B ∥2 =∥ (A − A0 ) + (A0 − B) ∥2 =


=∥ A − A0 ∥2 + ∥ A0 − B ∥2 .

Quindi
(d(A, B))2 ≥∥ A − A0 ∥2 = (d(A, A0 ))2
per ogni B ∈ L, da cui la tesi. !

3.6. Definizione. Il punto A0 = L ∩ (A + SL⊥ ) si dice proiezione ortogonale di A su L.

Calcoliamo alcune distanze usando 3.5.


3.6.1. Esempio. Determiniamo la distanza tra la retta r : 2x + y + 4 = 0 e il punto
A = (1, −1) di E2 .
Iniziamo col calcolare A + Sr⊥ :

A + Sr⊥ : (x, y) = (1, −1) + λ(2, 1).

Dunque
A0 = r ∩ (A + Sr⊥ ) : 2(1 + 2λ) + (−1 + λ) + 4 = 0

167
da cui risulta λ = −1 e quindi A0 = (−1, −2). Pertanto

d(A, r) = d(A, A0 ) =∥ (2, 1) ∥= 5.

3.6.2. Esempio. In E3 si considerino la retta r : (x, y, z) = (1, 2, 1) + λ(1, −1, 2) e il


punto A = (1, −1, 0); per calcolare la distanza di r da A, determiniamo dapprima il piano
A + Sr⊥ . Un vettore ortogonale a tale piano è, ad esempio (1, −1, 2); applicando 1.6 si vede
che A + Sr⊥ ha un’equazione del tipo:

x − y + 2z + d = 0.

Per determinare d basta imporre il passaggio per il punto A: 1 + 1 + d = 0; pertanto


d = −2, da cui
A + Sr⊥ : x − y + 2z − 2 = 0.
Infine, per determinare A0 , basta intersecare r con A + Sr⊥ :

(1 + λ) − (2 − λ) + 2(1 + 2λ) − 2 = 0,

da cui λ = 1/6. Pertanto A0 = (7/6, 11/6, 4/3) e



d(A, r) = d(A, A0 ) =∥ (1/6, 17/6, 4/3) ∥= 354/6.

Si può determinare una formula che permette di calcolare in modo più rapido la
distanza di un punto da un iperpiano.

3.7. Lemma. Siano H un iperpiano e A un punto di En . Allora

d(A, H) = |(A − B) · u|

dove u è un versore ortogonale a H e B è un qualunque punto di H.

Dimostrazione. Se A ∈ H, la formula è verificata; supponiamo ora A ̸∈ H: come al solito,


A − B si decompone come

A − B = (A − A0 ) + (A0 − B),

dove A0 è la proiezione ortogonale di A su H e quindi A − A0 ∈ SH = L(u). Si noti anche
che
A − A0
u=±
∥ A − A0 ∥
quindi
A − A0
|(A − A0 ) · u| = (A − A0 ) · =∥ A − A0 ∥ .
∥ A − A0 ∥

168
D’altra parte A0 − B è ortogonale a u, quindi:
|(A − B) · u| = |((A − A0 ) + (A0 − B)) · u| = |(A − A0 ) · u| =
=∥ A − A0 ∥= d(A, A0 ) = d(A, H).
!

3.8. Teorema. Siano H : a1 x1 + · · · + an xn + b = 0 un iperpiano e A = (α1 , . . . , αn ) un


punto di En . Allora
|a1 α1 + · · · + an αn + b|
d(A, H) = . .
a21 + · · · + a2n


Dimostrazione. Si ricordi che SH = L((a1 , . . . , an )) per 1.6. Sia ora B = (y1 , . . . , yn ) un
qualunque punto di H. Per 3.7
* *
* (a1 , . . . , an ) **
*
d(A, H) = |(A − B) · u| = *(α1 − y1 , . . . , αn − yn ) · . 2 *=
* a1 + · · · + a2n *
.
|a1 α1 + · · · + an αn − (a1 y1 + · · · + an yn )|
= .
a21 + · · · + a2n
La tesi segue dal fatto che a1 y1 + · · · + an yn = −b in quanto B ∈ H. !

3.8.1. Esempio. Col metodo precedente, calcoliamo la distanza d(A, r) dove r : 2x +


y + 4 = 0 e A = (1, −1) sono come nell’esempio 3.6.1:
|2 − 1 + 4| √
d(A, r) = √ = 5.
4+1

3.8.2. Esempio. Calcoliamo la distanza tra il punto A e il piano π di E3 , dove A =


(1, 2, −1) e π : x + 2y − 2z + 3 = 0:
|1 + 4 + 2 + 3| 10
d(A, π) = √ = .
1+4+4 3

Vediamo ora alcuni esempi di distanza tra V.L.A. parallele.


3.8.3. Esempio. Si considerino le rette parallele r, r′ ⊂ E2 di equazioni

r : ax + by + c = 0, r′ : ax + by + c′ = 0.

Proviamo che d(r, r′ ) = d(A, r′ ) dove A è un qualunque punto di r.


Sia A = (α1 , α2 ); poiché A ∈ r si ha che aα1 + bα2 + c = 0; pertanto da 3.8 segue
|aα1 + bα2 + c′ | |c′ − c|
d(A, r′ ) = √ =√ .
a2 + b2 a2 + b2

169
Da tale relazione e dalla definizione 3.3 si ha, per ogni A ∈ r, per ogni A′ ∈ r′ :

|c′ − c| |c′ − c|
d(A, A′ ) ≥ d(A, r′ ) = √ ⇒ d(r, r′ ) = √
a2 + b2 a2 + b2

e dunque d(r, r′ ) = d(A, r′ ).


Ad esempio, se
r : 2x + y − 3 = 0, r′ : 2x + y + 2 = 0

allora
|2 − (−3)| √
d(r, r′ ) = √ = 5.
5

In modo analogo si prova una formula per la distanza tra due iperpiani paralleli:

3.9. Proposizione. Se H e H ′ sono due iperpiani paralleli di En , di equazioni:

H : a1 x1 + · · · + an xn + b = 0, H ′ : a1 x1 + · · · + an xn + b′ = 0,

allora la distanza tra H e H ′ è quella tra A e H ′ , dove A è un qualunque punto di H e


quindi
|b′ − b|
d(H, H ′ ) = . 2 .
a1 + · · · + a2n
!

3.9.1. Esempio. Determiniamo la distanza tra i piani paralleli di E3

π : x + 2y − z + 2 = 0, π ′ : x + 2y − z − 4 = 0.

Per 3.9 si ha:


|2 + 4| √
d(π, π ′ ) = √ = 6.
1+4+1

Si verifica infatti che, se ad esempio A = (0, 0, 2) ∈ π, allora d(A, π ′ ) = 6 = d(π, π ′ ).

Tuttavia due V.L.A. parallele non hanno necessariamente la stessa dimensione; vedi-
amo un primo risultato in un caso particolare:

3.10. Proposizione. Siano r e π una retta e un piano paralleli in E3 . Allora

d(r, π) = d(P, π)

170
dove P è un qualunque punto di r.

Dimostrazione. Poniamo r : (x, y, z) = (x0 , y0 , z0 ) + λ(v1 , v2 , v3 ) e π : ax + by + cz + d = 0.


Sia P un qualunque punto di r, cioè P = (x0 + λv1 , y0 + λv2 , z0 + λv3 ); per 3.8 si ha:

|a(x0 + λv1 ) + b(y0 + λv2 ) + c(z0 + λv3 ) + d|


d(P, π) = √ =
a 2 + b2 + c2
|ax0 + by0 + cz0 + d + λ(av1 + bv2 + cv3 )|
= √ .
a 2 + b2 + c2

Poiché π e r sono paralleli, si ha: (v1 , v2 , v3 ) · (a, b, c) = 0 e quindi

|ax0 + by0 + cz0 + d|


d(P, π) = √ ,
a2 + b2 + c2

che risulta essere indipendente da λ e quindi da P . !

3.10.1. Esempio. Si considerino la retta r ed il piano π di E3 dati da:


)
2x − y + z − 2 = 0
r: π : 2x − y + z + 3 = 0.
y + 2z = 0

Poiché r e π sono paralleli, per determinare la loro distanza basta scegliere un punto P ∈ r
e calcolare d(P, π); ad esempio sia P = (1, 0, 0), quindi

5
d(r, π) = d(P, π) = √ .
6

3.10.2. Esempio. Determiniamo la distanza tra le due rette parallele di E3 di equazioni:

r : (x, y, z) = (3, 1, 2) + λ(1, 2, 0), r′ : (x, y, z) = (−1, −2, 3) + λ(1, 2, 0).

Tale distanza si può determinare usando la precedente proposizione, cioè il fatto che
d(r, r′ ) = d(A, r′ ) = d(B, r) dove A è un qualunque punto di r e B è un qualunque
punto di r′ . Un metodo alternativo si basa sul fatto (facile da provare) che, se si fissa un
qualunque piano π ortogonale ad entrambe le rette, allora

d(r, r′ ) = d(R, R′ ) dove R = r ∩ π, R′ = r′ ∩ π.

Sia dunque π il piano per l’origine, ortogonale


√ a entrambe le rette: π : x + 2y = 0. Quindi
R = (2, −1, 2) e R′ = (0, 0, 3) e d(R, R′ ) = 6.

171

Potrebbero piacerti anche