Sei sulla pagina 1di 171

Note di Algebra Lineare e Geometria

(principalmente per studenti di ingegneria)

Michela Brundu, Giovanni Landi


Trieste

Versione 26.03.2011

1
I - STRUTTURE ALGEBRICHE ELEMENTARI

In matematica, per semplificare la stesura di un testo, si fa ricorso ad un linguaggio


specifico. In questo capitolo vengono fornite in maniera sintetica le nozioni di teoria degli
insiemi, indispensabili alla comprensione del corso, nonché i concetti elementari di teoria
dei gruppi, anelli e campi.
Assumeremo che il lettore conosca le nozioni di numeri naturali N (con lo zero 0 ∈ N),
interi Z, razionali Q, reali R, complessi C, sebbene nel seguito richiameremo alcune delle
loro proprietà.

1. Elementi di teoria degli insiemi


1.1. Definizione. Siano A e B due insiemi (finiti o infiniti). Si dice prodotto cartesiano
di A per B, e si denota con A × B, l’insieme delle coppie ordinate di elementi di A e di B:

A × B = {(a, b) | a ∈ A, b ∈ B}.

La relazione precedente si legge: “il prodotto cartesiano di A per B è uguale all’insieme


delle coppie ordinate a, b tali che a appartiene ad A e b appartiene a B”. L’insieme A × A
si denota anche con A2 .

1.1.1. Esempio. Sia A l’insieme i cui elementi sono i simboli ⋄, ⋆, •, cioè A = {⋄, ⋆, •}.
Allora il prodotto cartesiano di A per se stesso è dato da:

A2 = A × A = {(⋄, ⋄), (⋄, ⋆), (⋄, •), (⋆, ⋄), (⋆, ⋆), (⋆, •), (•, ⋄), (•, ⋆), (•, •)}.

1.2. Definizione. Sia A un insieme. Una relazione binaria in A è un sottoinsieme


qualunque del prodotto cartesiano A × A. Se indichiamo con R tale sottoinsieme, diremo
che due elementi a e b di A sono in relazione tra loro se (a, b) ∈ R e scriveremo aRb.

1.2.1. Esempio. Sia A = N, l’insieme dei numeri naturali, e sia R il sottoinsieme di


N2 = N × N dei punti che si trovano sulla retta tratteggiata in figura.

2
N
4

0 1 2 3 4 5
N
Figura 1

Allora 2R1, ma non vale 1R1. In effetti, R è dato dalla formula

nRm ⇔ m = n − 1,

per ogni (n, m) ∈ N2 .

1.3. Definizione. Una relazione binaria in un insieme A si dice relazione di equivalenza


se valgono le seguenti proprietà:
- riflessiva, cioè aRa , per ogni a ∈ A;
- simmetrica, cioè aRb ⇒ bRa, per ogni a, b ∈ A;
- transitiva, cioè aRb e bRc ⇒ aRc, per ogni a, b, c ∈ A.

1.3.1. Esempi. L’uguaglianza è una relazione d’equivalenza (in ogni insieme!).


Nell’insieme dei triangoli, la congruenza e la similitudine sono relazioni d’equivalenza.

1.4. Definizione. Sia A un insieme dotato di una relazione d’equivalenza R. Per ogni
a ∈ A, l’insieme {x ∈ A | xRa} si dice classe d’equivalenza di a e si denota con [a]. Ogni
elemento x di [a] si dice rappresentante della classe [a] (ovviamente una classe ha tanti
rappresentanti quanti sono i suoi elementi).

1.5. Proprietà. Delle classi di equivalenza.


1) Se aRb, allora [a] = [b] .
2) Se (a, b) ̸∈ R, allora [a] ∩ [b] = ∅.

3
3) A = ∪a∈A [a] , e tale unione è disgiunta.

Dimostrazione. 1) Proviamo che [a] ⊆ [b]; sia x ∈ [a], allora xRa; d’altra parte, per ipotesi
aRb. Dunque, per la proprietà transitiva, xRb, cioè x ∈ [b]. Analogamente si verifica
l’altra inclusione [a] ⊇ [b].
2) Supponiamo per assurdo che x ∈ [a] ∩ [b]. Allora vale xRa e xRb; per la proprietà
simmetrica aRx e quindi, per la transitività, aRb, contro l’ipotesi.
3) è ovvio, usando la 2). !

1.6. Definizione. La decomposizione A = ∪a∈A [a] è detta partizione di A associata alla


relazione d’equivalenza R.

1.7. Definizione. L’insieme costituito dalle classi di un insieme A con la relazione di


equivalenza R è detto insieme quoziente di A modulo R e si indica con A/R.
L’applicazione
π : A → A/R definita da a .→ [a]
si dice proiezione canonica sul quoziente.

2. Gruppi

In prima approssimazione, una struttura algebrica è un insieme dotato di una o più


operazioni. Nel caso in cui le operazioni siano più di una, esse dovranno essere compatibili.

2.1. Definizione. Si dice operazione binaria ∗ in un insieme G una applicazione

f : G × G −→ G.

Il risultato f ((a, b)) dell’operazione tra due elementi a e b si denota con a ∗ b. In tal caso
si dice che G è chiuso rispetto all’operazione ∗.

Notazione. Per indicare che si considera la struttura algebrica data dall’insieme G con
l’operazione ∗, spesso si scrive (G, ∗).

2.1.1. Esempi. E’ ben noto che la somma ed il prodotto in N sono operazioni bina-
rie. Costruiamo un esempio di insieme “non numerico” dotato di operazione binaria. Si
consideri un triangolo equilatero ABC e sia R l’insieme delle sue rotazioni che portano a
sovrapporre vertici a vertici. Usiamo la seguente notazione: per designare la rotazione (di
2π/3) che porta il vertice A in B, B in C e C in A, scriveremo:
! "
A B C
.
B C A

4
Quindi gli elementi di R sono 3 ed esattamente:
! " ! " ! "
A B C A B C A B C
e= x= y= .
A B C B C A C A B

L’operazione che introduciamo in R è la composizione di rotazioni, che indicheremo con ◦;


ad esempio x ◦ y è la rotazione che si ottiene operando prima y e poi x. Dunque x ◦ y = e.
La seguente tabella indica i risultati delle operazioni:

◦ e x y
e e x y
x x y e
y y e x

tabella 1

2.2. Osservazione. Le strutture (N, +), (N, ·) godono delle ben note proprietà:
a + (b + c) = (a + b) + c , per ogni a, b, c ∈ N.
a + b = b + a, per ogni a, b ∈ N.
Inoltre vi sono elementi dal comportamento speciale: 0 e 1; infatti
0 + a = a e 1a = a, per ogni a ∈ N.

In generale diamo le seguenti definizioni.

2.3. Definizione. Sia G un insieme dotato di un’operazione binaria ∗. Diciamo che ∗ è


associativa se
a ∗ (b ∗ c) = (a ∗ b) ∗ c, per ogni a, b, c ∈ G.
Diciamo che ∗ è commutativa se

a ∗ b = b ∗ a, per ogni a, b ∈ G.

2.4. Definizione. Sia (G, ∗) come sopra. Un elemento e di G è detto elemento neutro
rispetto a ∗ se
a ∗ e = e ∗ a = a, per ogni a ∈ G.
Se (G, ∗) ha elemento neutro e, scriveremo: (G, ∗, e).

Si osservi che l’elemento e della tabella 1 è elemento neutro di R. Inoltre, ancora dalla
tabella 1, si vede che per ogni elemento r ∈ R, esiste r′ ∈ R tale che r ◦ r′ = r′ ◦ r = e ,
infatti e ◦ e = e, x ◦ y = y ◦ x = e.

5
2.5. Definizione. Sia (G, ∗, e) come sopra e sia a un suo elemento. Un elemento a ∈ G
tale che
a ∗ a = a ∗ a = e.
si dice, a seconda dell’operazione ∗, inverso di a e si indica con a−1 (ad esempio se ∗ è un
prodotto); oppure opposto di a e si indica con −a (ad esempio se ∗ è una somma).

2.5.1. Esempi. Osserviamo che negli esempi precedenti ogni insieme con operazione
ammette un elemento neutro: (N, +, 0), (N, ·, 1), (R, ◦, e). Osserviamo che, in R, y è
l’inverso di x e x è l’inverso di y; mentre in (N, +, 0) e in (N, ·, 1) nessun elemento, eccetto
quello neutro, ha opposto (risp. inverso).

Come è ben noto, si può ampliare in modo naturale (N, +, 0) affinché ogni elemento
abbia opposto; l’insieme cosı̀ ottenuto è quello degli interi relativi che si denota con Z ed
è definito da Z = {±n | n ∈ N}.

2.6. Definizione. Sia G un insieme dotato di un’operazione binaria ∗. Allora (G, ∗, e) si


dice gruppo se valgono le seguenti proprietà :
a) ∗ è associativa ;
b) esiste in G un elemento e che sia neutro rispetto a ∗;
c) ogni elemento di G ammette inverso (risp. opposto).
Se vale anche la proprietà commutativa :
d) a ∗ b = b ∗ a per ogni a, b ∈ G,
allora (G, ∗, e) si dice gruppo commutativo o abeliano.

2.7. Osservazione. (Z, +, 0), (R, ◦, e) sono gruppi commutativi.

2.8. Proposizione. Sia (G, ∗, e) un gruppo. Allora:


i) l’elemento neutro è unico;
ii) l’inverso di ogni elemento è unico.

Dimostrazione. i) Supponiamo che e ed e′ siano due elementi neutri di G. Allora e′ ∗ e


= e, poiché e′ è elemento neutro; inoltre e′ ∗ e = e′ , poiché e è elemento neutro. Dunque
e = e′ .
ii) Sia a un elemento di G che ammette due inversi b e c. Dunque a ∗ b = b ∗ a = e e anche
a ∗ c = c ∗ a = e. Per l’associatività dell’operazione in G si ha: b ∗ (a ∗ c) = (b ∗ a) ∗ c, cioè
b ∗ e = e ∗ c, da cui b = c. !

6
3. Anelli e Campi

Vogliamo definire una nuova nozione per insiemi dotati di due operazioni che si com-
portano come la somma e il prodotto di Z.

3.1. Definizione. Sia (A, +, 0A , ·, 1A ) un insieme dotato di due operazioni binarie, dette
somma (denotata con +) e prodotto (denotato con ·), e di due elementi 0A e 1A , tali che :
a) (A, +, 0A ) è un gruppo commutativo ;
b) il prodotto è associativo;
c) 1A è elemento neutro rispetto al prodotto;
d) a · (b + c) = a · b + a · c , per ogni a, b, c ∈ A.
In tal caso A si dice anello. Se inoltre il prodotto è commutativo, A si dice anello commu-
tativo.

Notazione. Se A è un anello, con A∗ si indica A \ {0A }.

3.1.1. Esempio. (Z, +, 0, ·, 1) è ovviamente un anello.

3.1.2. Esempio. Un altro esempio fondamentale di anello è dato da Z[X]. Con tale
simbolo si denota l’insieme dei polinomi in una variabile X a coefficienti in Z, cioè l’insieme
delle espressioni:
n
#
ai X i = an X n + an−1 X n−1 + . . . + a1 X + a0
i=0

con ai ∈$Z, n ∈ N. Come è ben


$mnoto, in Z[X] sono definite le seguenti operazioni: siano
n
p(X) = i=0 ai X i e q(X) = i=0 bi X i elementi di Z[X] ; supponendo n ≤ m si definisce
allora:
#m
p(X) + q(X) = cj X j ,
j=0

ove cj = aj + bj per 0 ≤ j ≤ n e cj = bj per n < j ≤ m;


m+n
#
p(X) · q(X) = dh X h
h=0
$
ove dh = i+j=h ai bj . Con tali operazioni, Z[X] è un anello, come si verifica facilmente,
ed è detto anello dei polinomi a coefficienti interi.

3.2. Esempio. Anche (Q, +, 0, ·, 1) è un anello commutativo. Però Q rispetto a Z ha una


struttura più ricca: ogni elemento non nullo è invertibile rispetto al prodotto. Infatti se
a/b ̸= 0, cioè a ̸= 0, esiste b/a ∈ Q e (a/b) · (b/a) = 1; quindi b/a = (a/b)−1 .

7
3.3. Definizione. Se K è un anello commutativo tale che ogni elemento non nullo
ammette inverso moltiplicativo, allora K si dice campo.
Equivalentemente K è un campo se e solo se (K, +, 0K ) e (K ∗ , ·, 1K ) sono gruppi abeliani
e il prodotto è distributivo rispetto alla somma.

Da quanto visto prima, si deduce che Q è un campo. Altri esempi di campi sono
l’insieme R dei numeri reali e l’insieme C dei numeri complessi.

4. Omomorfismi di strutture algebriche

In questo paragrafo caratterizzeremo particolari applicazioni tra strutture algebriche.


Poiché si useranno coppie di strutture dello stesso tipo, converrà, per semplificare le
notazioni, utilizzare lo stesso simbolo + per indicare ogni operazione di somma e analoga-
mente il simbolo · sarà riferito ad ogni operazione di prodotto. Dal contesto risulterà
chiaro in quale struttura tali operazioni verranno eseguite. Inoltre gli elementi neutri
(della somma e del prodotto) verranno indicati con un indice relativo alla struttura alla
quale appartengono.
Infine, per semplicità, per i gruppi verrà usata la sola notazione additiva.

4.1. Definizione. Un’applicazione tra due strutture algebriche dello stesso tipo si dice
omomorfismo se preserva le operazioni definite nelle strutture medesime. Più precisamente:
i) se (G, +, 0G ) e (G′ , +, 0G′ ) sono due gruppi, un’applicazione f : G → G′ è un omo-
morfismo di gruppi se
f (x + y) = f (x) + f (y)
per ogni x, y ∈ G.
ii) se (A, +, 0A , ·, 1A ) e (B, +, 0B , ·, 1B ) sono due anelli, un’applicazione f : A → B è un
omomorfismo di anelli se

f (x + y) = f (x) + f (y), f (x · y) = f (x) · f (y)

per ogni x, y ∈ A.

4.1.1. Esempio. Le inclusioni canoniche Z ⊂ Q, Q ⊂ R, Z ⊂ Z[X] sono omomorfismi di


anelli.

4.1.2. Esempio. L’applicazione f : Z → Z definita da n .→ 2n è un omomorfismo di


gruppi (additivi) ma non di anelli.

Lasciamo al lettore la dimostrazione delle seguenti semplici proprietà degli omomor-


fismi:

8
4.2. Proposizione. Siano (G, +, 0G ) e (G′ , +, 0G′ ) due gruppi e sia f : G → G′ un
omomorfismo di gruppi. Allora:
i) f (0G ) = 0G′ , cioè l’immagine dell’elemento neutro di G è l’elemento neutro di G′ ;
ii) per ogni g ∈ G si ha f (−g) = −f (g), cioè l’immagine dell’opposto di un elemento è
l’opposto dell’immagine dell’elemento stesso. !

Si può provare che, se f : A → B è un omomorfismo di anelli, allora valgono le


precedenti proprietà relative alla somma ed anche le analoghe proprietà per il prodotto,
cioè:
iii) f (1A ) = 1B ;
iv) per ogni a ∈ A tale che esiste l’inverso a−1 , si ha f (a−1 ) = f (a)−1 .

Infine, se A e B sono campi, un omomorfismo di anelli f : A → B si dice omomorfismo


di campi.

4.3. Definizione. Un omomorfismo che è anche un’applicazione biunivoca si dice iso-


morfismo.

5. Classi di resti modulo n

Si consideri la seguente relazione binaria in Z : due interi n e m sono in relazione se


hanno lo stesso resto dalla divisione per 2, cioè se sono entrambi pari o entrambi dispari
o, equivalentemente, se la loro differenza è pari:

nRm ⇔ n − m = 2q

per qualche intero q. E’ facile vedere che R è una relazione d’equivalenza; ovviamente le
classi di equivalenza sono due: una costituita da tutti gli interi pari e l’altra da tutti i
dispari. Pertanto l’insieme quoziente Z/R è costituito da queste due sole classi:
[0] = [2] = [4] = [−2] = . . . e [1] = [3] = [5] = [−1] = . . ..

Il procedimento precedente si può generalizzare immediatamente. Sia p un qualunque


intero positivo (nell’esempio precedente p = 2); prendiamo inoltre p primo, ovvere divisibile
solo per 1 e per se stesso. Si consideri la relazione d’equivalenza Rp in Z data da:
nRp m ⇔ n e m hanno lo stesso resto dalla divisione per p
⇔ esistono tre interi q1 , q2 ed r (0 ≤ r < p) tali che n = pq1 + r, m = pq2 + r
⇔ esiste un intero q tale che n − m = pq.

9
Pertanto il più piccolo intero non negativo appartente a [n] è il resto r della sua divisione
per p. La classe d’equivalenza di 0 è costituita dagli interi n tali che nRp 0, cioè tali che
n = pq. Analogamente si vede che la classe di 1 è costituita dagli interi n che danno resto
1 dalla divisione per p, e cosı̀ via. Proseguendo si vede che la classe di p − 1 è costituita
dagli elementi che danno resto p − 1 dalla divisione per p. Ma la classe di p è uguale alla
classe di 0, poiché pRp 0. Dunque l’insieme quoziente è costituito da p classi distinte, dette
classi di resto modulo p, e precisamente

Z/Rp = {[0], [1], [2], . . . , [p − 1]}.

Notazione. Solitamente l’insieme quoziente Z/Rp si denota con uno dei seguenti simboli:
Z/pZ, Z/(p) o Zp ; inoltre se [n] = [m] in Zp si dice che n e m sono congrui modulo p e si
scrive n ≡ m (mod p).

5.0.1. Esempio. In Z3 , [7] = [1] , [29] = [2], [−14] = [1], poiché −14 = (−5)3 + 1.

Gli insiemi Zp “ereditano” la struttura algebrica di Z, cioè si può definire in essi una
somma e un prodotto naturali:

[n] + [m] = [n + m]; [n][m] = [nm].

Verifichiamo che tali operazioni sono “ben definite”, cioè che non dipendono dalla scelta
dei rappresentanti. Siano [n] = [n′ ] e [m] = [m′ ]; vogliamo provare che [n + m] = [n′ + m′ ]
e che [nm] = [n′ m′ ]. Per ipotesi, esistono q1 e q2 tali che n − n′ = pq1 e m − m′ = pq2 .
Dunque (n + m) − (n′ + m′ ) = p(q1 + q2 ) e quindi [n + m] = [n′ + m′ ]. Poiché n = n′ + pq1
e m = m′ + pq2 , nm − n′ m′ = p(n′ q2 + m′ q1 + pq1 q2 ).

5.0.2. Esempio. Consideriamo le tabelle, relative alla somma e al prodotto in Z2 .

+ [0] [1]
[0] [0] [1]
[1] [1] [0]

tabella 2

· [0] [1]
[0] [0] [0]
[1] [0] [1]

tabella 3

Utilizzando le tabelle precedenti si verifica che Z2 è un anello.

10
5.1. Proposizione. Zp è un anello per ogni p ∈ N.

Dimostrazione. Dalla definizione di somma e prodotto in Zp e dalle proprietà corrispon-


denti in Z, si ha che (Zp , +, [0]) è un gruppo abeliano; infatti, per ogni [a], [b], [c] ∈ Zp :
([a] + [b]) + [c] = [a + b] + [c] = [(a + b) + c] = [a + (b + c)] = [a] + [b + c] =
= [a] + ([b] + [c]);
[a] + [b] = [a + b] = [b + a] = [b] + [a];
[a] + [0] = [a + 0] = [a];
[a] + [−a] = [a − a] = [0], (dunque −[a] = [−a]).
In modo del tutto analogo, si verificano l’associatività del prodotto, la distributività del
prodotto rispetto alla somma. Infine si osservi che [1] è l’elemento neutro per il prodotto.
!

11
II - VETTORI GEOMETRICI E SISTEMI DI RIFERIMENTO

1. Vettori applicati
Il lettore avrà certamente familiarità col concetto di vettore, usato nei corsi di fisica
per individuare alcune grandezze (velocità, accelerazione, forza, ecc.).
Si ricordi che con il termine “vettore” o, più precisamente “vettore applicato”, si indica
un oggetto che è completamente individuato da una direzione, un verso, una lunghezza (o
modulo) e un punto di applicazione. Per fissare le notazioni, un vettore applicato verrà
denotato con B − A, ove A e B sono due punti dello spazio (a volte anche con il simbolo
AB); in tal caso la sua direzione è quella della retta per A e B, il suo verso è quello da A
a B, il suo modulo, denotato usualmente con ∥ B − A ∥ è la lunghezza del segmento AB
(rispetto ad una fissata unità di misura), ed A è il suo punto di applicazione.
Indichiamo con W 3 (rispettivamente W 2 ) l’insieme di tutti i vettori applicati nello
spazio (rispettivamente nel piano), cioè, indicato con S lo spazio ordinario, si ha:

W 3 = {B − A | A, B ∈ S}.
3
Si può considerare il sottoinsieme VA di W 3 costituito da tutti i vettori aventi lo stesso
punto di applicazione A:
3
VA = {B − A | B ∈ S}.
Si osservi che %
W3 = 3
VA .
A∈S

3
1.1. Osservazione. Fissato un punto O dello spazio, è evidente che VO = {B−O | B ∈ S}
3
è naturalmente in corrispondenza biunivoca con S, in quanto, ad ogni vettore B − O ∈ VO
resta associato l’estremo B, e viceversa.
3
E’ noto che in VO è definita una somma di vettori, mediante la “regola del parallelo-
gramma”. Più precisamente,

(A − O) + (B − O) = (C − O),

ove C è il quarto vertice del parallelogramma i cui altri tre vertici sono A, O, B.

B C

O A
Figura 2

12
Il vettore O − O si dice vettore nullo e si denoterà con 0 (osserviamo che 0 ha direzione e
verso indeterminati e modulo nullo).
3
E’ evidente che VO è chiuso rispetto alla somma di vettori; inoltre si ha la seguente:

3
1.2. Proposizione. (VO , +, 0) è un gruppo abeliano.

Dimostrazione. E’ chiaro che 0 è elemento neutro; per ogni vettore A − O, esiste il suo
opposto A′ − O , dove A′ è il punto simmetrico di A rispetto ad O.

O
A
A'
Figura 3
La proprietà commutativa segue direttamente dalla definizione di somma di vettori. Resta
da verificare la proprietà associativa di cui diamo una dimostrazione grafica. !

v 1 + v2
v1

O v2
v3 v2 + v3

Figura 4
Dalla fisica è ben noto che si possono considerare i multipli di vettori (ad esempio
considerando un oggetto che si muove a velocità doppia di un altro, ecc.).
3
Questo fatto si può interpretare nel gruppo VO definendo una seconda operazione che
3
coinvolge gli elementi di VO ed i numeri reali, che, in questo contesto, per differenziarli dai
vettori, vengono anche chiamati scalari (reali).
1.3. Definizione. Si dice prodotto di uno scalare λ ∈ R per un vettore A − O il vettore
B − O, in simboli:
B − O = λ(A − O),
tale che :
i) B, A, O sono allineati;
ii) B − O e A − O hanno lo stesso verso (e si dicono concordi) se λ > 0,

13
B − O e A − O hanno verso opposto (e si dicono discordi) se λ < 0;
iii) ∥ B − O ∥= |λ| ∥ A − O ∥.

Esaminiamo le proprietà di tale operazione.

1.4. Proposizione. Valgono i seguenti fatti:


1) λ(µ(A − O)) = (λµ)(A − O);
2) 1(A − O) = A − O;
3) (λ + µ)(A − O) = λ(A − O) + µ(A − O);
4) λ((A − O) + (B − O)) = λ(A − O) + λ(B − O);
dove λ, µ ∈ R e A − O, B − O ∈ VO
3
.

Dimostrazione. 1) Poniamo C −O = λ(µ(A−O)) e D−O = (λµ)(A−O). Dalla definizione,


C e D appartengono entrambi alla retta per O e A, dunque C − O e D − O hanno la stessa
direzione. Inoltre dall’esame dei segni di λ e µ , si verifica facilmente che C − O e D − O
sono concordi: ad esempio, se λ > 0 e µ < 0, segue che C − O è concorde con µ(A − O),
quindi è discorde con A − O; d’altra parte λµ < 0, dunque D − O è anch’esso discorde con
A − O.
Infine ∥ C − O ∥= |λ| |µ| ∥ A − O ∥= |λµ| ∥ A − O ∥=∥ D − O ∥.
La proprietà 2) segue direttamente dalla definizione.
4) Poniamo C −O = (A−O)+(B−O) e C ′ −O = (A′ −O)+(B ′ −O), ove A′ −O = λ(A−O)
e B ′ − O = λ(B − O). Vogliamo verificare che λ(C − O) = C ′ − O.

B' C'
B C

A O A'

Figura 5
Poiché OA è parallelo a OA′ per definizione, anche BC è parallelo a B ′ C ′ ; inoltre OB è
parallelo a OB ′ , dunque gli angoli OBC e OB ′ C ′ sono uguali. Inoltre λ = OB ′ /OB =
OA′ /OA = B ′ C ′ /BC. Quindi i triangoli OBC e OB ′ C ′ sono simili. Da cui i vettori OC
e OC ′ sono paralleli e concordi e |OC ′ | = λ|OC|. Quindi OC ′ = λ(OC).
3) Si dimostra in modo analogo alla 4). !
3
Quanto precede mette in evidenza che VO , rispetto alle operazioni di somma e di
prodotto per uno scalare, ha una struttura più ricca di quella di gruppo abeliano. Tale
struttura prende il nome “naturale” di spazio vettoriale, nozione che verrà trattata in
detaglio nel Capitolo III.

14
2. Sistemi di riferimento
E’ ben noto il concetto di sistema di riferimento; riprendiamo brevemente i punti
fondamentali, utilizzando il linguaggio vettoriale.
2.1. Definizione. Data una retta r, un sistema di riferimento Λ su r è il dato di un
punto O ∈ r e di un vettore i = A − O, con A ∈ r e A ̸= O. Il punto O si dice origine del
sistema di riferimento, la lunghezza del segmento A − O è l’unità di misura di Λ e il verso
di i si dice orientamento di Λ.
Attraverso Λ si stabilisce una corrispondenza biunivoca tra i punti di r ed i numeri reali;
più precisamente, ad ogni punto P ∈ r si associa il numero reale x tale che P − O = xi.
Viceversa, dato x ∈ R, rimane individuato il punto P di r che è estremo del vettore xi,
qualora lo si intenda applicato in O.
Il numero x si dice ascissa del punto P e si scrive P = (x). Il sistema di riferimento
Λ si denoterà anche con (O; x) oppure con (O; i).
2.2. Definizione. Dato un piano α, un sistema di riferimento Π su α è il dato di un punto
O ∈ α e di due vettori non nulli i = A − O e j = B − O, con A, B ∈ α, ∥ A − O ∥=∥ B − O ∥
e tali che i si sovrappone a j ruotando di un angolo φ in senso antiorario, con 0 < φ < π.
Il punto O si dice origine del sistema di riferimento, la lunghezza del segmenti A − O
e OB − O è l’unità di misura di Π. La retta orientata passante per O e avente stessa
direzione e stesso verso di i si dice asse x o asse delle ascisse. Analogamente, si definisce
l’asse y o asse delle ordinate come la retta orientata individuata da j.
Analogamente a quanto visto in precedenza, attraverso Π si stabilisce una corrispon-
denza biunivoca tra i punti di α e le coppie di numeri reali; più precisamente, ad ogni
punto P ∈ α si associa la coppia ordinata (x, y) tale che P − O = xi + yj (regola del
parallelogramma). Viceversa, dato (x, y) ∈ R2 , rimane individuato il punto P di α che è
estremo del vettore xi + yj.
Tale corrispondenza è descritta dalla seguente figura

yj
P(x,y)

O i xi

Figura 6
I numeri x e y si dicono coordinate di P e, più precisamente x si dice ascissa e y si dice
ordinata del punto P ; scriveremo P = (x, y). I vettori i, j si dicono versori fondamentali,
dove la parola versore indica un vettore di modulo 1.
Il sistema di riferimento Π si denoterà anche con (O; x, y) oppure con (O; i, j).

15
2.3. Definizione. Un sistema di riferimento Π = (O; i, j) su un piano α si dice sistema
di riferimento cartesiano ortogonale se l’angolo tra i e j è di π/2.
In modo del tutto analogo si definisce un sistema di riferimento cartesiano (ortogonale)
Σ nello spazio S. Introduciamo dapprima la seguente nozione.
3
2.4. Definizione. Una terna ordinata di vettori applicati non complanari u, v, w ∈ VO
si dice destrorsa se, guardando il piano individuato da u e v (risp. v e w, risp. w e u)
dalla parte di w (risp. u, risp. v), u si sovrappone a v (risp. v si sovrappone a w, risp.
w si sovrappone a u) ruotando in senso antiorario di un angolo minore di π.
2.5. Definizione. Dato lo spazio S, un sistema di riferimento cartesiano Σ su S è il
dato di un punto O ∈ S e di tre vettori non nulli i = A − O, j = B − O e k = C − O
con A, B, C ∈ S, ∥ A − O ∥=∥ B − O ∥=∥ C − O ∥ e tali che i, j, k formano una terna
destrorsa.
In particolare Σ si dice sistema di riferimento cartesiano ortogonale se i, j, k sono a due a
due ortogonali.
Il punto O si dice origine del sistema di riferimento, la lunghezza del segmenti A − O,
OB e OC è l’unità di misura di Σ. La retta orientata passante per O e avente stessa
direzione e stesso verso di i si dice asse x o asse delle ascisse. Analogamente, si definiscono
l’asse y o asse delle ordinate e l’asse z o asse delle quote. In particolare useremo la
notazione P = (x, y, z), chiamando, rispettivamente, tali coordinate: ascissa, ordinata e
quota del punto P . Porremo, infine, Σ = (O; i, j, k) = (O; x, y, z).
I vettori i, j, k si dicono versori fondamentali.
zk

P(x,y,z)
k
O yj
j
i

xi
Figura 7
Come visto in precedenza, si stabilisce una corrispondenza biunivoca tra i punti di S
3
e le terne di numeri reali, attraverso VO ; più precisamente:
3
S ←→ VO ←→ R3 ,
e tali corrispondenze sono definite da
P ↔ P − O ↔ (x, y, z)

16
dove P − O = xi + yj + zk.
2.6. Definizione. Con le notazioni precedenti, se P = (x, y, z), quindi P −O = xi+yj+zk,
i numeri x, y, z si dicono componenti del vettore applicato P − O.
Notazione. In generale, useremo anche la notazione v per un vettore, v = P − O, ed
avremo quindi v = xi + yj + zk. Spesso è conveniente indicare le componenti di v con
vx , vy , vz , quindi
v = vx i + vy j + vz k.
In seguito, per semplificare la notazione, scriveremo

v = (vx , vy , vz ),

sottointendendo che tali componenti sono riferite al sistema di riferimento (O; i, j, k).
2.7. Osservazione. Mentre un vettore v è un oggetto geometrico invariante, le sue
componenti dipendono dal particolare sistema di riferimento fissato.
2.7.1. Esempi. 1) Il vettore nullo 0 = O − O ha componenti (0, 0, 0) in tutti i sistemi di
riferimento di origine O ed è l’unico vettore che gode di tale proprietà.
2) I versori fondamentali hanno le seguenti componenti:

i = (1, 0, 0) , j = (0, 1, 0) , k = (0, 0, 1)

nel sistema di riferimento (O; i, j, k).


3) I vettori dei piani coordinati (cioè i piani individuati da una coppia di assi) sono del
tipo seguente: v = (a, b, 0), con a, b ∈ R, se v appartiene al piano xy, v′ = (0, b′ , c′ ), se v′
appartiene al piano yz, v′′ = (a′′ , 0, c′′ ), se v′′ appartiene al piano xz.

2.8. Proposizione. In un sistema di riferimento cartesiano ortogonale (O; x, y, z) sia v =


(vx , vy , vz ). Allora
&
∥ v ∥= vx2 + vy2 + vz2 .

Dimostrazione. Segue immediatamente usando il teorema di Pitagora. !


Vediamo ora come la rappresentazione dei vettori attraverso le loro componenti ci
permetta di esprimere algebricamente le operazioni tra vettori.

2.9. Proposizione. Dati lo scalare λ ∈ R ed i vettori v = vx i + vy j + vz k e w =


wx i + wy j + wz k, si ha:

v + w = (vx + wx )i + (vy + wy )j + (vz + wz )k

e anche
λv = λvx i + λvy j + λvz k.

17
Dimostrazione. Poiché

v + w = (vx i + vy j + vz k) + (wx i + wy j + wz k),

applicando opportunamente le proprietà commutativa e associativa della somma si ha:

v + w = (vx i + wx i) + (vy j + wy j) + (vz k + wz k).

Applicando infine la distributività del prodotto rispetto alla somma si ha il risultato.


In modo analogo si dimostra la seconda. !
2.10. Osservazione. Usando la notazione compatta v = (vx , vy , vz ) e w = (wx , wy , wz ),
dalla proposizione precedente segue

(vx , vy , vz ) + (wx , wy , wz ) = (vx + wx , vy + wy , vz + wz )

λ(vx , vy , vz ) = (λvx , λvy , λvz ).

3
Dall’osservazione precedente e dalla corrispondenza biunivoca VO ←→ R3 si definiscono in
modo naturale le seguenti operazioni in R3 :
2.11. Definizione. Siano (x1 , x2 , x3 ) e (y1 , y2 , y3 ) due elementi di R3 e sia λ ∈ R; allora

(x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 );

λ(x1 , x2 , x3 ) = (λx1 , λx2 , λx3 ).


Queste operazioni verranno studiate più in dettaglio nel Capitolo III, Esempio 1.1.2.

3. Ulteriori operazioni tra vettori

Nello studio della fisica, il lettore avrà già incontrato i concetti di prodotto scalare,
prodotto vettoriale e prodotto misto di vettori. In questo paragrafo riprendiamo breve-
mente tali operazioni.
3.1. Definizione. Siano v, w ∈ V 2 (risp. V 3 ) due vettori. Si dice prodotto scalare di v e
w e si indica con v · w il numero reale

v · w =∥ v ∥ ∥ w ∥ cos α

'
dove α = v w, 0 ≤ α ≤ π, è l’angolo formato da v e w.
Nel resto del paragrafo, considereremo per brevità soltanto vettori di V 3 , essendo la trat-
tazione di V 2 del tutto analoga.

18
3.2. Osservazione. Dalla definizione si ha chiaramente che, se v è il vettore nullo, allora
v · w = 0. Inoltre si hanno immediatamente le ulteriori proprietà:
i) se v e w sono due vettori non nulli, allora

v·w =0 ⇐⇒ cos α = 0 ⇐⇒ v ⊥ w.

ii) Per ogni v ∈ V 3 si ha


v · v =∥ v ∥2 .
In particolare
v·v =0 ⇐⇒ v = 0.
Infine, da i) e ii) segue se (O; i, j, k) è un sistema di riferimento cartesiano ortogonale,
allora:

iii) i·i=j·j=k·k=1 e inoltre i · j = j · k = k · i = 0.

3.3. Definizione. Dati due vettori v e w, si dice proiezione ortogonale di v su w il


( w < π/2, cioè
vettore vw avente modulo ∥ v ∥ | cos α|, direzione di w e verso tale che vv
concorde con w se α < π/2 o discorde con w se α > π/2.

w vw
Figura 8

3.4. Lemma. Con le notazioni precedenti si ha:


a) (u + v)w = uw + vw .
b) v · w = vw · w = wv · v.

Dimostrazione. a) Due casi sono possibili, a seconda che uw e vw siano concordi o discordi.
In figura 9 è rappresentato il primo caso. La dimostrazione è immediata, osservando che
OA′ = vw e A′ B ′ = uw .
B
u
A

v C
u

O w
vw A' uw B'

19
Figura 9

b) Proviamo ad esempio che v · w = vw · w. Per definizione


v · w =∥ v ∥ ∥ w ∥ cos α;
d’altra parte )
∥ vw ∥ ∥ w ∥, se 0 ≤ α ≤ π/2 ;
vw · w =
− ∥ vw ∥ ∥ w ∥, se π/2 < α ≤ π.
Supponiamo dapprima 0 ≤ α ≤ π/2; allora | cos α| = cos α, dunque ∥ vw ∥=∥ v ∥ cos α e
quindi la tesi. Analogamente si prova l’altro caso. !

3.5. Proposizione. Dati i vettori u, v, w ∈ V 3 e λ ∈ R, si hanno i seguenti fatti:


i) v · w = w · v;
ii) (λv) · w = v · (λw) = λ(v · w);
iii) u · (v + w) = u · v + u · w.

Dimostrazione. i) Segue dalla definizione e dalla proprietà commutativa del prodotto di


numeri reali; infatti
'
v · w =∥ v ∥ ∥ w ∥ cos v '
w =∥ w ∥ ∥ v ∥ cos w v = w · v.
ii) Posti: a = (λv) · w, b = v · (λw), c = λ(v · w), dalla definizione di prodotto scalare
e dalle proprietà del modulo di un vettore si hanno:
a = (λv) · w =∥ λv ∥ ∥ w ∥ cos α′ = |λ| ∥ v ∥ ∥ w ∥ cos α′
b = v · (λw) =∥ v ∥ ∥ λw ∥ cos α′′ =∥ v ∥ |λ| ∥ w ∥ cos α′′
c = λ(v · w) = λ(∥ v ∥ ∥ w ∥ cos α) = λ ∥ v ∥ ∥ w ∥ cos α

! α′′ = v(λw)
dove α′ = (λv)w, ! eα=v ' w.
Si noti che, se λ = 0, a = b = c = 0.
Se λ > 0, allora |λ| = λ e α = α′ = α′′ ; dunque, dalle proprietà commutativa e associativa
del prodotto in R, si ottiene a = b = c.
Infine, λ < 0, allora |λ| = −λ e α′ = α′′ = π − α e quindi cos α′ = cos α′′ == − cos α.
Pertanto, dalla commutatività e associatività del prodotto in R, si ottiene a = b = c.
iii) Supponiamo dapprima che u, v, w siano paralleli. Si possono presentare vari casi, a
seconda dei versi dei tre vettori. Ad esempio, se sono tutti concordi, si ha:
u · (v + w) =∥ u ∥ ∥ v + w ∥=∥ u ∥ (∥ v ∥ + ∥ w ∥) =
=∥ u ∥ ∥ v ∥ + ∥ u ∥ ∥ w ∥= u · v + u · w.
Se invece v e w sono concordi, ma discordi da u, si ha
u · (v + w) = − ∥ u ∥ ∥ v + w ∥= − ∥ u ∥ (∥ v ∥ + ∥ w ∥) =
= − ∥ u ∥ ∥ v ∥ − ∥ u ∥ ∥ w ∥= u · v + u · w.

20
Gli altri casi sono lasciati al lettore.
Proviamo ora il caso generale; da 3.4 si ha

u · (v + w) = u · (v + w)u = u · (vu + wu ) = u · vu + u · wu = u · v + u · w

dove la terza eguaglianza segue dalla dimostrazione appena vista per il caso particolare,
tenendo conto del fatto che u, vu , wu sono paralleli. !

Usando la rappresentazione di un vettore attraverso le sue componenti rispetto alla


terna fondamentale i, j, k, si ha la seguente formulazione del prodotto scalare.

3.6. Proposizione. Sia (O; i, j, k) un sistema di riferimento cartesiano ortogonale e siano


v = (vx , vy , vz ) e w = (wx , wy , wz ) due vettori. Allora

v · w = vx wx + vy wy + vz wz .

Dimostrazione. Poiché v = vx i + vy j + vz k e w = wx i + wy j + wz k, per 3.5, ii) e iii), si ha

v · w = (vx i + vy j + vz k) · (wx i + wy j + wz k) =
= vx wx i · i + vy wx j · i + vz wx k · i + +vx wy i · j + vy wy j · j + vz wy k · j+
+ vx wz i · k + vy wz j · k + vz wz k · k

La tesi segue da 3.2, iii). !

3.6.1. Esempio. Vogliamo verificare che i vettori v = (2, 3, 1) e w = (1, −1, 1) sono
ortogonali. Per 3.2 i) basta provare che v · w = 0. D’altra parte, per 3.6 si ha: v · w =
2 · 1 + 3 · (−1) + 1 · 1 = 0.

3.7. Osservazione. Il prodotto scalare tra vettori dello spazio individua un’applicazione

σ : V 3 × V 3 −→ R

definita da σ(v, w) = v · w.
Analogamente il prodotto scalare tra vettori del piano individua una applicazione

σ : V 2 × V 2 −→ R

definita da σ(v, w) = v · w.

3.8. Definizione. Siano v, w ∈ V 3 due vettori. Si dice prodotto vettoriale di v e w e si


indica con v ∧ w il vettore il cui modulo vale

∥ v ∧ w ∥=∥ v ∥ ∥ w ∥ sin α

21
'
dove α = v w, 0 ≤ α ≤ π, è l’angolo formato da v e w; la sua direzione è ortogonale sia a
v che a w e il suo verso è tale che v, w, v ∧ w è una terna destrorsa.

3.9. Osservazione. Dalla definizione si ha chiaramente che, se v è il vettore nullo, allora


v ∧ w = 0. Inoltre si hanno immediatamente le ulteriori proprietà:
i) se v e w sono due vettori non nulli, allora
v∧w =0 ⇐⇒ sin α = 0 ⇐⇒ v ∥ w.
In particolare
v ∧ v = 0.
ii) Se i, j, k è la terna fondamentale di un sistema di riferimento cartesiano ortogonale
allora:
i ∧ j = k, j ∧ k = i, k ∧ i = j.

3.10. Proposizione. Dati i vettori u, v, w ∈ V 3 e λ ∈ R, si hanno i seguenti fatti:


i) v ∧ w = −w ∧ v;
ii) (λv) ∧ w = v ∧ (λw) = λ(v ∧ w);
iii) u ∧ (v + w) = u ∧ v + u ∧ w.

Dimostrazione. La i) e la ii) sono di facile verifica. Più elaborata è invece la iii) di cui
omettiamo la dimostrazione. !

3.11. Proposizione. Siano v = (vx , vy , vz ) e w = (wx , wy , wz ) due vettori di V 3 . Allora


v ∧ w = (vy wz − vz wy , vz wx − vx wz , vx wy − vy wx ).

Dimostrazione. Del tutto analoga a quella di 3.6, tenendo conto di 3.10 e di 3.9 ii). !

3.12. Notazione. Il prodotto vettoriale si esprime in forma compatta ricorrendo al


seguente simbolo: * *
*a b*
* *
* c d * = ad − bc;
dunque !* * * * * *"
* vy vz * * vz vx * * vx vy *
v∧w = * * * , * * , * * .
w y wz * * wz wx * * wx wy *

3.12.1. Esempio. Vogliamo verificare che i vettori v = (1, 0, −1) e w = (−2, 0, 2) sono
paralleli. Per 3.9 i) basta verificare che v ∧ w = 0. D’altra parte, per 3.12 si ha:
!* * * * * *"
* 0 −1 * * −1 1 * * 1 0 *
v∧w = * * * , * * , * * = (0, 0, 0).
0 2 * * 2 −2 * * −2 0 *

3.13. Definizione. Dati i vettori u, v, w ∈ V 3 , si definisce prodotto misto di u, v, w il


numero reale u · v ∧ w.

22
3.14. Proposizione. Siano u = (ux , uy , uz ), v = (vx , vy , vz ) e w = (wx , wy , wz ) tre
vettori di V 3 ; allora
* * * * * *
* vy vz * * vz vx * * vx vy *
*
u · v ∧ w = ux * * u * * *
+ uz * *.
wy wz * y * w z wx * wx wy *

Dimostrazione. Segue immediatamente da 3.6, 3.11, 3.12. !

3.15. Notazione. Usualmente il prodotto misto di tre vettori si esprime sinteticamente


con il simbolo
* *
* ux uy uz * * * * * * *
* * * vy vz * * vz vx * * vx vy *
* * *
u · v ∧ w = * vx vy vz * = u x * * * * * *
w w * + uy * w z w x * + u z * w x w y * .
* wx w y wz * y z

23
III - SPAZI VETTORIALI

1. Definizioni e prime proprietà


La nozione di spazio vettoriale può essere data su qualsiasi campo K. Noi la daremo
per il caso K = R (campo dei numeri reali) e menzioneremo il caso K = C (campo
dei numeri complessi). Il lettore avvertito può facilmente astrarre la definizione al caso
generale.

1.1. Definizione. Sia V un insieme non vuoto. V si dice spazio vettoriale su R o R-spazio
vettoriale o spazio vettoriale reale, se:
a) in V è definita un’operazione di somma

s : V × V −→ V

denotata con s(v, v ′ ) = v + v ′ ;


b) è definita un’operazione di prodotto esterno:

p : R × V −→ V

denotata con p(k, v) = kv;


c) sono verificate le seguenti proprietà:
1) (V, +) è un gruppo commutativo con elemento neutro 0V ;
2) per ogni k, k ′ ∈ R, per ogni v, v ′ ∈ V si ha:
(k + k ′ )v = kv + k ′ v
k(v + v ′ ) = kv + kv ′
k(k ′ v) = (kk ′ )v
1v = v, ove 1 = 1R .
Gli elementi di uno spazio vettoriale si dicono vettori; il vettore 0V che è unico per 2.8.
del Capitolo I si dice vettore nullo. Dallo stesso punto si ha anche che l’opposto, −v, di
ogni elemento v di V è unico. Inoltre, vale la legge di semplificazione per la somma, cioè
v + w = v + u =⇒ w = u. Infatti, da v + w = v + u, aggiungendo ad ambo i membri −v e
applicando la proprietà associativa della somma, si ha la tesi.

2 3
1.1.1. Esempio. Come già visto nel Capitolo II, gli insiemi VO e VO dei vettori geometrici
del piano (rispettivamente dello spazio) applicati nell’origine sono spazi vettoriali reali.

1.1.2. Proposizione. L’insieme R3 delle terne di numeri reali munito delle operazioni
I. (x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 )

24
II. a(x1 , x2 , x3 ) = (ax1 , ax2 , ax3 )
ove a ∈ R, (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 .

è un R-spazio vettoriale.
Dimostrazione. Verifichiamo che valgono le proprietà elencate in 1.1.
Chiaramente a) e b) sono soddisfatte, in quanto R3 è chiuso rispetto alle operazione di
somma e prodotto per uno scalare reale.
c) 1) Esiste l’elemento neutro rispetto alla somma: 0R3 = (0, 0, 0), in quanto, per come è
definita la somma
(x1 , x2 , x3 ) + (0, 0, 0) = (x1 , x2 , x3 ).
Inoltre (R3 , +, 0R3 ) è un gruppo commutativo; valgono infatti:
- proprietà associativa:

(x1 , x2 , x3 ) + ((y1 , y2 , y3 ) + (z1 , z2 , z3 )) = (x1 , x2 , x3 ) + (y1 + z1 , y2 + z2 , y3 + z3 ) =


= (x1 + (y1 + z1 ), x2 + (y2 + z2 ), x3 + (y3 + z3 )) =
= ((x1 + y1 ) + z1 , (x2 + y2 ) + z2 , (x3 + y3 ) + z3 ) =
= (x1 + y1 , x2 + y2 , x3 + y3 ) + (z1 , z2 , z3 ) =
= ((x1 , x2 , x3 ) + (y1 , y2 , y3 )) + (z1 , z2 , z3 )

dove l’eguaglianza centrale segue dall’associatività della somma che vale in R.


- l’opposto di un vettore (x1 , x2 , x3 ) ∈ R3 è (−x1 , −x2 , −x3 ) che appartiene ancora a
R3 ; infatti:

(x1 , x2 , x3 ) + (−x1 , −x2 , −x3 ) = (x1 − x1 , x2 − x2 , x3 − x3 ) = (0, 0, 0).

- proprietà commutativa della somma:

(x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 ) =


= (y1 + x1 , y2 + x2 , y3 + x3 ) = (y1 , y2 , y3 ) + (x1 , x2 , x3 )

dove l’eguaglianza centrale è conseguenza dalla proprietà commutativa della somma


che vale in R.
2) Per ogni λ, λ′ ∈ R, per ogni (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 si ha:
(λ + λ′ )(x1 , x2 , x3 ) = λ(x1 , x2 , x3 ) + λ′ (x1 , x2 , x3 )
λ((x1 , x2 , x3 ) + (y1 , y2 , y3 )) = λ(x1 , x2 , x3 ) + λ(y1 , y2 , y3 )
λ(λ′ (x1 , x2 , x3 )) = (λλ′ )(x1 , x2 , x3 )
1(x1 , x2 , x3 ) = (x1 , x2 , x3 ).

25
Queste ultime verifiche vengono lasciate al lettore. !

L’esempio precedente si presta ad una generalizzazione naturale.


Sia n un numero naturale e si consideri l’n-esimo prodotto cartesiano di R:

Rn = {X = (x1 , . . . , xn ) | xi ∈ R}.

ln Rn si definiscono le operazioni seguenti, ove a ∈ R, (x1 , . . . , xn ), (y1 , . . . , yn ) ∈ Rn :


I. (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
II. a(x1 , . . . , xn ) = (ax1 , . . . , axn ).
Come nel caso di R3 si verifica facilmente che

1.2. Proposizione. Rn è un R-spazio vettoriale. !

Gli elementi di Rn si dicono n-uple in R. Se X = (x1 , . . . , xn ) ∈ Rn , allora x1 si


dice prima componente di X, x2 si dice seconda componente di X e, in generale, xi si dice
i-esima componente di X.

1.2.1. Esempio. Sia V = Cn ovvero l’insieme delle n-uple in C. Poichè il prodotto di


un numero reale per un numero complesso è a sua volta un numero complesso, segue che
Cn può essere pensato come un R-spazio vettoriale. D’altra parte, si può dare a Cn una
struttura di C-spazio vettoriale. A tale scopo si lascia invariata l’operazione I e si estende
a C l’operazione II, ottenenendo
II’. a(x1 , . . . , xn ) = (ax1 , . . . , axn ), ove a ∈ C, (x1 , . . . , xn ) ∈ Cn .
La verifica che tutte le proprietà di spazio vettoriale sono soddisfatte è immediata.

1.2.2. Esempio. Sia

R[x] = {f (x) = a0 + a1 x + a2 x2 + · · · + an xn | ai ∈ R, n ∈ N}

l’insieme dei polinomi in una variabile a coefficienti in R. Dati i polinomi f (x) = a0 +


a1 x + a2 x2 + · · · + an xn e g(x) = b0 + b1 x + b2 x2 + · · · + bm xm e lo scalare λ ∈ R, si
considerino le usuali operazioni:
A. f (x) + g(x) = a0 + b0 + (a1 + b1 )x + (a2 + b2 )x2 + · · ·
B. λf (x) = λa0 + λa1 x + λa2 x2 + · · · + λan xn .
Rispetto a tali operazioni R[x] è un R-spazio vettoriale; ad esempio, l’opposto di f (x) è il
polinomio −a0 − a1 x − a2 x2 − · · · − an xn che si denota con −f (x); l’elemento neutro è il
polinomio nullo, ecc.
Sia R[x]r il sottoinsieme di R[x] costituito dai polinomi di grado minore o uguale ad r, ove
r è un fissato numero naturale. Poiché il grado del polinomio somma è minore o uguale al

26
grado dei polinomi addendi (per 4.12, Cap. 1), R[x]r è chiuso rispetto all’operazione A;
inoltre, poiché il grado di λf (x) è uguale al grado di f (x), per ogni λ ̸= 0, il sottoinsieme
R[x]r è chiuso rispetto all’operazione B. Si verifica facilmente che R[x]r è anch’esso un
R-spazio vettoriale.

1.3. Osservazione. Il lettore si sarà probabilmente accorto che, nel verificare che gli
insiemi Rn , R[X] e R[X]r sono R-spazi vettoriali, si utilizza essenzialmente la struttura
di campo di R. Cioè le proprietà delle operazioni definite in tali spazi si riconducono alle
corrispondenti proprietà delle operazioni in R.

Viene lasciata al lettore la dimostrazione della seguente

1.4. Proposizione. Se V e V ′ sono due R-spazi vettoriali, allora V × V ′ è un R-spazio


vettoriale rispetto alle operazioni naturali
I. (v, v ′ ) + (w, w′ ) = (v + w, v ′ + w′ )
II. a(v, v ′ ) = (av, av ′ )

ove a ∈ R, (v, v ′ ), (w, w′ ) ∈ V × V ′ . !

Vediamo ora alcune proprietà elementari degli spazi vettoriali.

1.5. Proposizione. Sia V un R-spazio vettoriale; allora per ogni k ∈ R e v ∈ V si ha:


i) 0R v = 0V ;
ii) k0V = 0V ;
iii) kv = 0V =⇒ k = 0R oppure v = 0V ;
iv) (−k)v = −(kv) = k(−v).

Dimostrazione. i) Si osservi che


0R v = (0R + 0R )v = 0R v + 0R v
e dalla legge di semplificazione per la somma segue 0R v = 0V .
ii) Analogamente si ha
k0V = k(0V + 0V ) = k0V + k0V
dunque, dalla legge di semplificazione, k0V = 0V .
iii) Sia k ̸= 0; allora esiste k −1 ∈ R. Dunque
v = 1v = k −1 kv = k −1 0V = 0V
ove l’ultima eguaglianza segue da ii).
iv) Dalla distributività del prodotto rispetto alla somma si ha
kv + (−k)v = (k + (−k))v = 0R v = 0V

27
per i); da cui la prima uguaglianza. Analogamente

kv + k(−v) = k(v − v) = k0V = 0V

da cui la seconda. !

1.6. Osservazione. Le proprietà i), ii), iii) si possono riassumere con la seguente legge
di annullamento del prodotto

kv = 0V ⇐⇒ k = 0R o v = 0V .

2. Sottospazi vettoriali

Tra i sottoinsiemi di un R-spazio vettoriale V individueremo e studieremo quelli che


ereditano da V una struttura di spazio vettoriale.

2.1. Definizione. Sia V un R-spazio vettoriale rispetto alle operazioni (interna) s di


somma ed (esterna) p di prodotto per uno scalare (vedi 1.1) e sia W ⊆ V un suo sottoin-
sieme. Diremo che W è un sottospazio vettoriale di V se, rispetto ad s e p, W ha una
struttura di R-spazio vettoriale.

Allo scopo di semplificare la verifica che un sottoinsieme di uno spazio vettoriale è un


sottospazio vettoriale vengono introdotti i seguenti “criteri”.

2.2. Proposizione. Sia W un sottoinsieme non vuoto di un R-spazio vettoriale V . Sono


equivalenti i seguenti fatti:
i) W è un sottospazio vettoriale di V ;
ii) W è chiuso rispetto a s e p, cioè
a) per ogni w, w′ ∈ W si ha w + w′ ∈ W ;
b) per ogni k ∈ R, per ogni w ∈ W si ha kw ∈ W ;
iii) per ogni k, k ′ ∈ R, per ogni w, w′ ∈ W si ha kw + k ′ w′ ∈ W .

Dimostrazione. i) =⇒ ii) e ii) =⇒ iii) sono ovvie.


iii) =⇒ ii) Per provare a), basta prendere k = k ′ = 1; per provare b) basta prendere
k ′ = 0R .
ii) =⇒ i) Innanzitutto W è chiuso rispetto alle operazioni di somma e prodotto, per ipotesi.
Le proprietà associativa e commutativa e le proprietà distributive valgono in V e quindi
in W . Basta dunque mostrare che W ha zero e l’opposto di ogni suo elemento. Si osservi

28
che se 0V ∈ W allora 0V è zero di W , infatti per ogni w ∈ W si ha 0V + w = w + 0V = w
poiché w ∈ V . Per ii), b, 0R w ∈ W , per ogni w ∈ W . D’altra parte, per 1.6, 0R w = 0V ;
dunque 0V ∈ W . Infine, se w ∈ W , sempre per 1.6, −w = (−1)w ∈ W . !

2.2.1. Esempio. Se V è un R-spazio vettoriale, allora V ⊆ V è un suo sottospazio; inoltre


{0V } verifica 2.2 iii), dunque è un sottospazio di V .
I sottospazi {0V } e V , non contribuendo a dare informazioni su V , si dicono sottospazi
banali.

2.2.2. Esempio. Abbiamo già visto che R[x]r ⊆ R[x] sono R-spazi vettoriali rispetto alle
stesse operazioni; dunque R[x]r è sottospazio di R[x].

2.2.3. Esempio. Sia v ∈ V un vettore non nullo; si consideri il sottoinsieme

L(v) = {av | a ∈ R}.

Siano w = av e w′ = a′ v due elementi di L(v). Poiché

αw + α′ w′ = (αa + α′ a′ )v ∈ L(v)

per ogni α, α′ ∈ R, allora, per 2.2, iii), L(v) è un sottospazio vettoriale di V e si dice retta
vettoriale generata da v.

2.2.4. Esempio. Si considerino i seguenti sottoinsiemi di R2 :


W1 = {(x, y) ∈ R2 | x − 3y = 0};
W2 = {(x, y) ∈ R2 | x + y = 1};
W3 = {(x, y) ∈ R2 | x ∈ N};
W4 = {(x, y) ∈ R2 | x2 − y = 0}.
Dall’esempio precedente, si ha che W1 = L((3, 1)) e quindi si tratta di una retta vettoriale.
Gli altri sottoinsiemi non sono sottospazi, infatti: (0, 0) ̸∈ W2 ; W3 e W4 non sono chiusi
rispetto al prodotto per uno scalare, in quanto, ad esempio, (1, 0) ∈ W3 , mentre si ha che
1/2(1, 0) = (1/2, 0) ̸∈ W3 . Analogamente (1, 1) ∈ W4 , mentre 2(1, 1) = (2, 2) ̸∈ W4 , come
si verifica facilmente.

Dati due o più sottospazi vettoriali di un R-spazio vettoriale V , vediamo ora come sia
possibile, mediante opportune “operazioni”, costruirne altri.

2.3. Proposizione. Siano W1 e W2 due sottospazi di un R-spazio vettoriale V . Allora


W1 ∩ W2 è un sottospazio vettoriale di V .

Dimostrazione. Siano a, b ∈ R e v, w ∈ W1 ∩W2 . Da 2.2 segue che av + bw ∈ W1 in quanto


W1 è un sottospazio vettoriale; analogamente av + bw ∈ W2 ; dunque av + bw ∈ W1 ∩ W2 .
Applicando ancora 2.2 si ha la tesi. !

2.4. Osservazione. L’unione di due sottospazi vettoriali non è, in generale, un sottospazio
vettoriale. Si considerino, ad esempio due rette vettoriali distinte, L(v) e L(v ′ ), di R2 . È

29
evidente che L(v) ∪ L(v ′ ) non è un sottospazio di R2 , in quanto non è chiuso rispetto alla
somma, come si può vedere dalla figura.

L(v')

v' v+v'

v L(v)

Figura 10

2.5. Proposizione. Siano W1 e W2 due sottospazi di un R-spazio vettoriale V e si denoti


con
W1 + W2 = {v ∈ V | v = w1 + w2 ; w1 ∈ W1 , w2 ∈ W2 }.
Allora W1 + W2 è il più piccolo sottospazio vettoriale di V contenente W1 ∪ W2 .

Dimostrazione. Siano a, a′ ∈ R e v, v ′ ∈ W1 + W2 ; sarà dunque v = w1 + w2 ; v ′ = w1′ + w2′ ,


ove w1 , w1′ ∈ W1 , w2 , w2′ ∈ W2 . Poiché

av + a′ v ′ = aw1 + aw2 + a′ w1′ + a′ w2′ = (aw1 + a′ w1′ ) + (aw2 + a′ w2′ )

tenendo conto del fatto che W1 e W2 sono sottospazi, si ha aw1 +a′ w1′ ∈ W1 e aw2 +a′ w2′ ∈
W2 . Ne segue che W1 + W2 è un sottospazio vettoriale di V .
Inoltre W1 + W2 ⊇ (W1 ∪ W2 ), infatti se w1 ∈ W1 , allora w1 = w1 + 0V appartiene a
W1 + W2 ; analogamente si prova che W2 ⊂ W1 + W2 .
Sia ora Z un sottospazio di V contenente W1 ∪ W2 . Allora, per ogni w1 ∈ W1 e w2 ∈ W2
deve essere w1 + w2 ∈ Z. Da cui: Z ⊇ W1 + W2 . !

2.6. Definizione. Siano W1 e W2 due sottospazi di un R-spazio vettoriale V . Il sot-


tospazio vettoriale W1 + W2 è detto sottospazio somma di W1 e W2 .

La proposizione precedente si generalizza facilmente e quindi si può dare la seguente

2.7. Definizione. Siano W1 , . . . , Wn sottospazi di un R-spazio vettoriale V . Il sottospazio


vettoriale

W1 + · · · + Wn = {v ∈ V | v = w1 + · · · + wn ; wi ∈ Wi , i = 1, . . . , n}

è detto sottospazio somma di W1 , . . . , Wn .

30
2.8. Definizione. Siano W1 , W2 due sottospazi di un R-spazio vettoriale V . La somma
W = W1 + W2 si dice diretta se ogni suo elemento v si scrive in modo unico nella forma
v = w1 + w2 con wi ∈ Wi , i = 1, 2. In tal caso scriveremo W = W1 ⊕ W2 .

2.9. Proposizione. Siano W1 e W2 due sottospazi di V . Allora la somma W1 + W2 è


diretta se e solo se W1 ∩ W2 = {0V }.

Dimostrazione. Supponiamo dapprima che la somma W1 + W2 sia diretta. Sia v ∈ (W1 ∩


W2 ); allora v ∈ W1 e v ∈ W2 , quindi 0V = v − v ∈ W1 + W2 . D’altro canto 0V = 0V + 0V
e, poiché tale scrittura è unica per ipotesi, ne segue v = 0V .
Viceversa supponiamo che W1 ∩ W2 = {0V }. Se esistesse v ∈ W1 + W2 con v = w1 + w2 =
w1′ + w2′ , con wi , wi′ ∈ Wi , allora w1 − w1′ = w2′ − w2 e tale elemento appartiene sia a W1
che a W2 . Dunque, per ipotesi deve essere nullo, quindi w1 = w1′ e w2′ − w2 e ciò prova la
tesi. !

Di nuovo la proposizione precedente si può generalizzare:

5.8. Definizione. Siano W1 , . . . , Wn sottospazi di un R-spazio vettoriale V . Diremo


che aa somma W = W1 + · · · + Wn è diretta se ogni suo elemento v si scrive in modo
unico nella forma v = w1 + · · · + wn con wi ∈ Wi , i = 1, . . . , n. In tal caso scriveremo
W = W1 ⊕ · · · ⊕ Wn .

3. Combinazioni lineari

3
Studiando VO , abbiamo visto come ogni vettore geometrico v si possa rappresentare
nella forma v = ai + bj + ck. Brevemente diremo che v è “combinazione lineare” di i, j, k.
Inoltre tale scrittura è unica; tale proprietà si esprime usualmente dicendo che i, j, k sono
“linearmente indipendenti”. In questo paragrafo cercheremo di estendere ad uno spazio
vettoriale qualunque i precedenti concetti.

3.1. Definizione. Siano v1 , . . . , vn vettori di un R-spazio vettoriale V . Un vettore v ∈ V


si dice combinazione lineare di v1 , . . . , vn se esistono n scalari λ1 , . . . , λn ∈ R tali che

v = λ1 v 1 + · · · + λn v n .

L’insieme di tutte le combinazioni lineari dei vettori v1 , . . . , vn si indica con L(v1 , . . . , vn ).


In generale, se I è un qualunque sottoinsieme di V (anche non finito), con L(I) si denota
l’insieme di tutte le possibili combinazioni lineari (finite) di vettori di I, cioè

L(I) = {λ1 v1 + · · · + λn vn | λi ∈ R, vi ∈ I, n ∈ N}.

31
3.2. Teorema. L(v1 , . . . , vn ) è un sottospazio vettoriale di V , detto spazio generato da
v1 , . . . , vn .

Dimostrazione. È sufficiente mostrare che L(v1 , . . . , vn ) è chiuso rispetto alla somma e al


prodotto per uno scalare. Siano v, w ∈ L(v1 , . . . , vn ); dunque v = λ1 v1 + · · · + λn vn e
w = µ1 v1 + · · · + µn vn . Applicando la proprietà 2) al punto c) nella definizione 1.1. di
spazio vettoriale, si ha che
v + w = (λ1 + µ1 )v1 + · · · + (λn + µn )vn ∈ L(v1 , . . . , vn ).
Sia poi α ∈ R; allora, usando di nuovo la proprietà 2) al punto c) nella definizione 1.1. di
spazio vettoriale, si ha αv = (αλ1 )v1 + · · · + (αλn )vn ∈ L(v1 , . . . , vn ). !

2 3
3.2.1. Esempi. 1) È chiaro che VO = L(i, j); VO = L(i, j, k).
2) Siano v = (1, 0, −1) e w = (2, 0, 0) due vettori di R3 . Allora L(v, w) è contenuto
propriamente in R3 ; infatti, ad esempio, (0, 1, 0) ̸∈ L(v, w). Altrimenti, dovrebbero esistere
α, β ∈ R tali che
(0, 1, 0) = α(1, 0, −1) + β(2, 0, 0) = (α + 2β, 0, −α).
Eguagliando le componenti, si ottiene la relazione 1 = 0, che è palesemente falsa.

È un problema interessante cercare sottoinsiemi I di V tali che L(I) = V . È chiaro che


V = L(V ). Dagli esempi noti, si può osservare comunque che esistono sottoinsiemi propri
2 3
I ⊂ V tali che V = L(I). Ad esempio VO = L(i, j) e VO = L(i, j, k), dunque entrambi sono
generati da un numero finito di vettori. Tale situazione non è però generale. Si consideri
il seguente

3.2.2. Esempio. Lo spazio vettoriale reale R[x] non è generato da un numero finito di
vettori. Si cominci osservando che R[x] è generato dall’insieme infinito {1, x, x2 , . . . , xi , . . .}.
Supponiamo ora che esistano f1 , . . . , fs , con fi ∈ R[x] tali che R[x] = L(f1 , . . . , fs ). Posto
di = deg(fi ) e d = max{d1 , . . . , ds }, allora ogni p(x) ∈ L(f1 , . . . , fs ) ha grado ≤ d. Quindi
non può essere R[x] = L(f1 , . . . , fs ), in quanto, ad esempio, xd+1 ̸∈ L(f1 , . . . , fs ).

3.3. Definizione. Un R-spazio vettoriale V si dice finitamente generato se esistono


v1 , . . . , vn ∈ V tali che V = L(v1 , . . . , vn ); in tal caso {v1 , . . . , vn } si dice sistema di
generatori di V .

3.4. Osservazione. Non è difficile convincersi del fatto seguente. Sia I un sottoinsieme
di V e sia v ∈ V . Allora
L({v} ∪ I) = L(I) ⇐⇒ v ∈ L(I).

Se I è un sistema di generatori di V , ci si chiede se esiste J ⊂ I, J ̸= I, tale che


L(J) = L(I) = V . Si è pertanto condotti a ricercare, dentro I, un insieme “minimale” di
generatori di V . A tale scopo si introduce la nozione di indipendenza lineare.

32
3.5. Definizione. Dato un insieme I = {v1 , . . . , vn } di vettori di un R-spazio vettoriale
V , tali vettori si dicono linearmente indipendenti su R se il vettore nullo si ottiene come
loro combinazione lineare soltanto con coefficienti nulli, cioè
λ1 v1 + · · · + λn vn = 0V =⇒ λ1 = · · · = λn = 0R .
In tal caso l’insieme I si dice libero. Un insieme infinito I ⊆ V si dice libero se ogni suo
sottoinsieme finito è libero, nel senso definito sopra.
Viceversa, n vettori si dicono linearmente dipendenti se non sono linearmente indipendenti,
cioè se esistono n scalari (λ1 , . . . , λn ) ̸= (0, . . . , 0) tali che λ1 v1 + · · · + λn vn = 0V .
3
3.5.1. Esempio. Ovviamente i, j, k sono linearmente indipendenti in VO . Mentre i vettori
v1 = i+j, v2 = j−k e v3 = 2i−j+3k sono linearmente dipendenti; infatti 2v1 −3v2 −v3 = 0.

3.5.2. Esempio. Dalla definizione 3.5. il vettore nullo è linearmente dipendente. Da


questo fatto e da 1.5. segue che se n = 1, cioè I = {v1 }, allora I è libero se e solo se
v1 ̸= 0V .

3.6. Proposizione. Sia V un R-spazio vettoriale e I = {v1 , . . . , vn } un insieme di vettori


di V . Valgono le seguenti proprietà:
i) se 0V ∈ I allora I non è libero;
ii) se I non è libero e J ⊇ I, allora J non è libero;
iii) se I è libero e J ⊆ I, allora J è libero, cioè ogni sottoinsieme di un insieme libero è
libero.
iv) I non è libero se e solo se almeno uno tra i vi è combinazione lineare degli altri;

Dimostrazione. i), ii), e iii) sono ovvie.


iv) Se I non è libero, allora esistono n scalari reali, λ1 , . . . , λn , non tutti nulli, tali che
λ1 v1 + · · · + λn vn = 0V . Sia λi ̸= 0; allora si ha
vi = λ−1
i (−λ1 v1 − · · · − λi−1 vi−1 − λi+1 vi+1 − · · · − λn vn ).
Viceversa, se
vi = λ1 v1 + · · · + λi−1 vi−1 + λi+1 vi+1 + · · · + λn vn
allora si ha
λ1 v1 + · · · + λi−1 vi−1 − vi + λi+1 vi+1 + · · · + λn vn = 0V
e i coefficienti di tale combinazione lineare non sono tutti nulli, in quanto il coefficiente di
vi è −1. !

4. Basi

Allo scopo di determinare un sistema di generatori avente il minor numero possibile


di elementi e, eventuamente, determinare tale numero, proviamo i seguenti teoremi:

33
4.1. Teorema. Sia V un R-spazio vettoriale e v1 , . . . , vn ∈ V . Sono equivalenti i seguenti
fatti:
i) v1 , . . . , vn sono linearmente indipendenti;
ii) v1 ̸= 0V e vi non è combinazione lineare di v1 , . . . , vi−1 , per ogni i ≥ 2.

Dimostrazione. i) =⇒ ii) è ovvio, per 3.6 i) e iv).


ii) =⇒ i) Sia λ1 v1 + · · · + λn vn = 0V . Per ipotesi vn non è combinazione lineare di
v1 , . . . , vn−1 ; dunque deve essere λn = 0, altrimenti vn = λ−1
n (−λ1 v1 − · · · − λn−1 vn−1 ).
Si ha quindi λ1 v1 + · · · + λn−1 vn−1 = 0V ; ragionando analogamente si ottiene λn−1 = 0.
Dopo n − 1 passi si ha λ1 v1 = 0 e, poiché v1 è supposto non nullo, per 1.5. deve essere
anche λ1 = 0. !

4.2. Teorema. (Metodo degli scarti successivi). Ogni insieme finito di generatori di
uno spazio vettoriale contiene un sistema libero di generatori.

Dimostrazione. Sia I = {v1 , . . . , vn } un insieme di generatori di un R-spazio vettoriale V .


Definiamo ricorsivamente una catena di sottoinsiemi di I nel seguente modo:
poniamo I1 := I \ {vi ∈ I | vi = 0} l’insieme dei vettori non nulli di I. A meno di un
cambio di indici, si può supporre I1 = {v1 , . . . , vs };
se v2 ∈ L(v1 ), allora si pone I2 := I1 \ {v2 }; altrimenti sia I2 = I1 ;
se v3 ∈ L(v1 , v2 ), allora si pone I3 := I2 \ {v3 }; altrimenti sia I3 = I2 .
Iterando il procedimento, si esamina ogni vettore di I e si elimina se è combinazione lineare
dei precedenti. Dopo s passi si è costruita una catena I1 ⊇ · · · ⊇ Is di sottoinsiemi di I
tali che L(I) = L(I1 ) = · · · = L(Is ) (per 3.4), quindi Is è un sistema di generatori di V .
Inoltre, per 4.1, l’insieme Is è libero. !

4.3. Definizione. Sia V un R-spazio vettoriale. Un insieme ordinato I = (v1 , . . . , vn ) di


vettori di V si dice base di V se I è un sistema libero di generatori, cioè V = L(v1 , . . . , vn )
ed inoltre v1 , . . . , vn sono linearmente indipendenti.

Dal teorema 4.2 si ha immediatamente il seguente

4.4. Corollario. Ogni insieme finito di generatori di uno spazio vettoriale contiene (al-
meno) una base; quindi ogni spazio vettoriale finitamente generato ammette una base.
!

4.4.1. Esempio. Si considerino in R3 i vettori


v1 = (1, 1, −1), v2 = (−2, −2, 2), v3 = (2, 0, 1), v4 = (1, −1, 2), v5 = (0, 1, 1).
Vogliamo determinare una base dello spazio L(v1 , v2 , v3 , v4 , v5 ) con il metodo degli scarti
successivi. Poiché tutti i vettori sono non nulli, dovranno essere presi tutti in considerazione

34
al secondo passo.
Dato che v2 = −2v1 , v2 ∈ L(v1 ) e quindi si elimina. Mentre v3 ̸∈ L(v1 ), dunque v3 non
si elimina. Passiamo a v4 : è chiaro che v4 ∈ L(v1 , v3 ) se e solo se esistono α, β ∈ R tali
che v4 = αv1 + βv3 , cioè (1, −1, 2) == (α + 2β, α, −α + β). Uguagliando le componenti, si
ricava α = −1, β = 1. Dunque v4 = −v1 + v3 ∈ L(v1 , v3 ); pertanto v4 si elimina.
Analogamente si verifica che v5 ̸∈ L(v1 , v3 ); pertanto la base richiesta è (v1 , v3 , v5 ).

Una proprietà caratterizzante gli insiemi liberi è la seguente:

4.5. Teorema. Un insieme di vettori I = {v1 , . . . , vn } è libero se e solo se ogni elemento


di L(v1 , . . . , vn ) si scrive in modo unico come combinazione lineare dei vi . In particolare,
I = (v1 , . . . , vn ) è una base di V se e solo se ogni v ∈ V si scrive in modo unico come
v = λ1 v 1 + · · · + λn v n .

Dimostrazione. Supponiamo che I sia libero e che esista un vettore v ∈ L(v1 , . . . , vn ) che
si possa scrivere in due modi:

v = λ1 v1 + · · · + λn vn = µ1 v1 + · · · + µn vn .

Allora (λ1 − µ1 )v1 + · · · + (λn − µn )vn = 0. Dal fatto che v1 , . . . , vn sono linearmente
indipendenti segue che tutti i coefficienti si devono annullare, ovvero

λ1 − µ 1 = · · · = λn − µ n = 0

cioè λi = µi per ogni i = 1, . . . , n. Pertanto le due scritture iniziali di v coincidono.


Viceversa, supponiamo che ogni elemento di L(v1 , . . . , vn ) si scriva in modo unico come
combinazione lineare dei vi . In particolare 0V ∈ L(v1 , . . . , vn ) si può scrivere soltanto come
0V = 0R v1 + · · · + 0R vn . Supponiamo ora che sia λ1 v1 + · · · + λn vn = 0V ; per l’unicità
suddetta deve essere λi = 0 per ogni i = 1, . . . , n. Dunque v1 , . . . , vn sono linearmente
indipendenti. !

4.6. Definizione. Se I = (v1 , . . . , vn ) è una base di V e v ∈ V allora v = λ1 v1 +· · ·+λn vn ;


in tal caso gli scalari λ1 , . . . , λn (univocamente determinati per 4.5) si dicono componenti
di v rispetto alla base I. Per evidenziare ciò introduciamo la seguente notazione:

v = (λ1 , . . . , λn )I .

4.7. Osservazione. Si noti che gli insiemi liberi e i sistemi di generatori non sono insiemi
ordinati, mentre le basi lo sono. In seguito il lettore si renderà conto di questa scelta,
dovuta al fatto che spesso conviene lavorare con le componenti di un vettore rispetto ad
una base, piuttosto che col vettore stesso. Per tale scelta, le componenti di un vettore
rispetto ad una base sono n-uple ordinate di scalari. Ad esempio se I = (v1 , v2 ) è una base
di V , allora anche J = (v2 , v1 ) è una base di V . Si osservi che I e J sono uguali come
sistemi di generatori, ma distinti come basi.

35
4.7.1. Esempio. Poste E = (i, j) e E ′ = (j, i) due basi di VO
2
, il vettore v = 2i + 3j ha
componenti diverse rispetto alle due basi:

v = (2, 3)E = (3, 2)E ′ .

4.7.2. Esempio. Si possono presentare casi “curiosi” di vettori che non solo si rapp-
resentano con componenti diverse, ma addirittura con un numero diverso di componenti,
a seconda dello spazio in cui vengono considerati. Ad esempio il vettore v = 2i + 3j ha
2
componenti (2, 3)E , rispetto alla base E = (i, j) di VO , mentre ha componenti (2, 3, 0)F ,
3
rispetto alla base F = (i, j, k) di VO ; infine ha componente (1)V , rispetto alla base V = (v)
dello spazio vettoriale L(v).

4.7.3. Esempio. Nello spazio vettoriale Rn delle n-uple, si considerino i vettori


e1 = (1, 0, . . . , 0)
e2 = (0, 1, . . . , 0)
.
...
en = (0, 0, . . . , n)

Si vede che E = (e1 , . . . , en ) è una base di Rn . Infatti, se v = (x1 , . . . , xn ) è un elemento


di Rn , allora v si scrive in modo unico come combinazione lineare degli ei :

(x1 , . . . , xn ) = x1 e1 + · · · + xn en .

Tale base è detta base canonica di Rn .


In particolare, se R = R e n = 2, la base canonica di R2 è E = (e1 , e2 ), con e1 = (1, 0),
e2 = (0, 1).

4.7.4. Esempio. Facendo riferimento all’esempio 1.2.1, si osservi che C è un R-spazio


vettoriale generato dagli elementi 1 e i, poiché ogni numero complesso è della forma a + ib
con a, b ∈ R. Inoltre chiaramente 1 e i sono linearmente indipendenti e costituiscono
dunque una base di C su R.
Più in generale, Cn ha una duplice struttura: quella di C-spazio vettoriale e quella di
R-spazio vettoriale. Rispetto alla prima, è dotato di base canonica; in particolare la base
canonica di C2 è E = (e1 , e2 ), con e1 = (1, 0), e2 = (0, 1). Mentre come R-spazio vettoriale,
non essendo uno spazio del tipo Rn , non ha base canonica. Ha però una base naturale
B = (b1 , c1 . . . , bn , cn ) costituita dai 2n vettori:

b1 = (1, 0, . . . , 0)
c1 = (i, 0, . . . , 0)
...
bn = (0, 0, . . . , 1)
cn = (0, 0, . . . , i)

In particolare, nel caso di C2 , la base precedente prende la forma B = (b1 , c1 , b2 , c2 ), ove


b1 = (1, 0), c1 = (i, 0), b2 = (0, 1), c2 = (0, i).

36
4.7.5. Esempio. Lo spazio vettoriale reale R[x]r ha una base naturale, costituita dai
monomi di grado ≤ r: (1, x, x2 , . . . , xr ). Infatti ogni polinomio p(x) ∈ R[x]r è della forma
(unicamente determinata):

p(x) = a0 + a1 x + a2 x2 + · · · ar xr

con ai ∈ R.

3
4.8. Osservazione. Abbiamo visto nel Cap.2 come le operazioni tra vettori di VO possono
essere descritte in termini di componenti. Tale situazione si generalizza come segue.
Sia I = (v1 , . . . , vn ) una base di V . Siano v, w ∈ V e a ∈ R; con la notazione precedente
siano v = (λ1 , . . . , λn )I e w = (µ1 , . . . , µn )I . Calcoliamo le componenti, rispetto ad I, di
v + w e di av.

v + w = (λ1 v1 + · · · + λn vn ) + (µ1 v1 + · · · + µn vn ) =
= (λ1 + µ1 )v1 + · · · + (λn + µn )vn .

Dunque
v + w = (λ1 + µ1 , . . . , λn + µn )I .
Inoltre
av = a(λ1 v1 + · · · + λn vn ) = (aλ1 )v1 + · · · + (aλn )vn .
Dunque
av = (aλ1 , . . . , aλn )I .
Pertanto le componenti del vettore somma di due vettori sono la somma delle componenti
corrispondenti degli addendi; le componenti del vettore prodotto di uno scalare per un
vettore dato si comportano nello stesso modo. Infine, dalle proprietà precedenti di somma
e prodotto, si ha che, se z = av + bw e, rispetto alla base I, z = (ξ1 , . . . , ξn )I , allora

(ξ1 , . . . , ξn )I = (aλ1 + bµ1 , . . . , aλn + bµn )I

o, equivalentemente
ξi = aλi + bµi
per ogni i = 1, . . . , n.
Quest’ultimo fatto si generalizza immediatamente con la seguente

4.9. Proposizione. Sia V un R-spazio vettoriale e sia I = {v1 , . . . , vn } una base di V .


Siano

w1 = (λ11 , . . . , λ1n )I , w2 = (λ21 , . . . , λ2n )I , . . . , ws = (λs1 , . . . , λsn )I

s vettori di V . Sia inoltre z = (ξ1 , . . . , ξn )I . Allora

z = a1 w1 + · · · + as ws ⇐⇒ ξi = a1 λ1i + · · · + as λsi per ogni i

37
cioè la i-esima componente di una combinazione lineare di vettori è data dalla combinazione
lineare (con i medesimi coefficienti) delle i-esime componenti dei vettori considerati. !

4.10. Corollario. Con le notazioni precedenti, si hanno i seguenti fatti:


a) w1 , . . . , ws sono linearmente indipendenti in V se e solo se le corrispondenti n-uple di
componenti (λ11 , . . . , λ1n ), . . . , (λs1 , . . . , λsn ) sono linearmente indipendenti in Rn ;
b) w1 , . . . , ws sono un sistema di generatori di V se e solo se le corrispondenti n-uple di
componenti (λ11 , . . . , λ1n ), . . . , (λs1 , . . . , λsn ) generano Rn . !

Vediamo infine come un insieme libero possa essere completato ad una base.

4.11. Teorema (Completamento ad una base). Sia V un R-spazio vettoriale fini-


tamente generato. Allora ogni insieme libero finito di elementi di V è contenuto in una
base.

Dimostrazione. Sia I = {v1 , . . . , vs } un insieme libero di vettori di V . Per 4.4, V ammette


una base; sia essa B = (e1 , . . . , en ). Si consideri l’insieme I ∪ B = {v1 , . . . , vs , e1 , . . . , en }.
Chiaramente I ∪ B è ancora un sistema di generatori per V . Applicando a tale insieme
il metodo degli scarti successivi, non vengono eliminati i primi s vettori, poiché sono
linearmente indipendenti (vedi 4.1) e si perviene ad un sistema libero di generatori, cioè
ad una base di V contenente I. !

4.12. Osservazione. Sia B = (v1 , . . . , vn ) una base di V e sia v ∈ V un vettore non


nullo. Allora l’insieme {v, v1 , . . . , vn } non è libero, in quanto v ∈ V = L(v1 , . . . , vn ). Per
4.1, poiché v ̸= 0V , esiste i tale che vi è combinazine lineare dei vettori precedenti, cioè
vi = αv + a1 v1 + · · · + ai−1 vi−1
con α ̸= 0, altrimenti v1 , . . . , vi sarebbero linearmente dipendenti.
Chiaramente tale vi si può determinare con il metodo degli scarti successivi.

4.13. Teorema. Sia V un R-spazio vettoriale avente una base di n elementi. Allora:
i) ogni insieme libero di V è finito ed ha al più n elementi;
ii) ogni base di V ha n elementi;
iii) ogni sistema di generatori di V ha almeno n elementi. !

Il teorema precedente risponde affermativamente alla questione iniziale riguardante la


determinazione di un sistema di generatori minimale.

5. Dimensione

38
3
Lo spazio vettoriale VO ha, intuitivamente, “dimensione” 3, in quanto è in corrispon-
denza biunivoca con i punti dello spazio (vedi Cap.2). D’altra parte abbiamo visto che
3
(i, j, k) sono una base di VO e, dal teorema 4.13, ogni altra base è costituita da 3 ele-
menti; quindi il numero di elementi di una base coincide col numero che intuitivamente
rappresenta la dimensione.
Siamo quindi indotti ad introdurre il seguente concetto:

5.1. Definizione. Se esiste un intero positivo n tale che lo spazio vettoriale reale V
ammetta una base di n elementi, diremo che V ha dimensione n e scriveremo dimR (V ) =
n o più semplicemente dim(V ) = n. Se invece V non è finitamente generato, si pone
dim(V ) = ∞. Infine se V = {0V } poniamo dim(V ) = 0.

È evidente che, per il teorema 4.13, tale definizione ha senso, in quanto il numero
di vettori costituenti una qualunque base è costante, si tratta cioè di un invariante dello
spazio vettoriale.

Non è difficile convincersi dei sequenti risultati, di cui omettiamo le dimostrazioni.


2 3
5.1.1. Esempi. Per quanto visto in precedenza: dim VO = 2 e dim VO = 3. Inoltre
dim R = n, in particolare dim R = 1. Ancora dimC C = n e dimR C = 2n. Infine
n n n

dim R[X] = ∞ e dim R[X]r = r + 1.

5.2. Proposizione. Sia V un R-spazio vettoriale di dimensione n e sia W un sottospazio


di V . Allora dim(W ) ≤ n. Inoltre dim(W ) = n se e solo se W = V . !

5.3. Corollario. Sia V un R-spazio vettoriale di dimensione n e siano v1 , . . . , vn ∈ V .


Sono equivalenti:
i) (v1 , . . . , vn ) è una base di V ;
ii) {v1 , . . . , vn } è un insieme libero;
iii) {v1 , . . . , vn } è un sistema di generatori di V . !

5.4. Teorema di Grassmann. Sia V un R-spazio vettoriale di dimensione finita e siano


U e W due sottospazi di V . Allora si ha

dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).

Dimostrazione. Siano r = dim(U ), s = dim(W ), p = dim(U ∩ W ). Vogliamo provare che


esiste una base di U + W costituita da r + s − p elementi.
Sia (v1 , . . . , vp ) una base di U ∩ W ; per il teorema 4.11, è possibile completare tale insieme
libero ad una base (v1 , . . . , vp , u1 , . . . , ur−p ) di U e ad una base (v1 , . . . , vp , w1 , . . . , ws−p )
di W .

39
Proviamo che I = (v1 , . . . , vp , u1 , . . . , ur−p , w1 , . . . , ws−p ) è una base dello spazio vettoriale
U + W . Poiché ogni vettore di U + W è della forma u + w, con u ∈ U e w ∈ W e
poiché u si scrive come combinazione lineare di v1 , . . . , vp , u1 , . . . , ur−p e w si scrive come
combinazione lineare di v1 , . . . , vp , w1 , . . . , ws−p , ovviamente I genera U + W .
Sia ora
α1 v1 + · · · + αp vp + β1 u1 + · · · + βr−p ur−p + γ1 w1 + · · · + γs−p ws−p = 0V .
$p $r−p $s−p
Per brevità poniamo v = i=1 αi vi , u = j=1 βj uj e w = k=1 γk wk .
Dunque l’uguaglianza precedente diventa
v + u + w = 0V , con v ∈ U ∩ W, u ∈ U, w ∈ W.
Visto che v, u ∈ U , allora w = −v − u ∈ U ; dunque w ∈ (U ∩ W ). Ciò implica che
w = γ1 w1 + · · · + γs−p ws−p = λ1 v1 + · · · + λp vp
per opportuni scalari λi ; ma {v1 , . . . , vp , w1 , . . . , ws−p } è un insieme libero, quindi tutti i
γk sono nulli. Basta dunque provare che da
α1 v1 + · · · + αp vp + β1 u1 + · · · + βr−p ur−p = 0V
segue che tutti i coefficienti αi e βj sono nulli; ma ciò è vero in quanto (v1 , . . . , vp , u1 , . . . , ur−p )
è una base di U .
Pertanto I è un insieme libero. !

5.5. Corollario. Siano W1 , W2 sottospazi di un R-spazio vettoriale V , la cui somma sia


diretta. Allora
dim(W1 ⊕ W2 ) = dim(W1 ) + dim(W2 ).
Inoltre, se B1 = (w1′ , . . . , ws′ ) e B2 = (w1′′ , . . . , wr′′ ) sono due basi di W1 e W2 , rispettiva-
mente, allora B = (w1′ , . . . , ws′ , w1′′ , . . . , wr′′ ) è una base di W1 ⊕ W2 .

Dimostrazione. Per il teorema di Grassmann


dim(W1 ⊕ W2 ) + dim(W1 ∩ W2 ) = dim(W1 ) + dim(W2 );
per 5.6, dim(W1 ∩ W2 ) = 0, da cui la prima parte della tesi.
Inoltre, date le basi B1 e B2 , si consideri B = B1 ∪ B2 ; chiaramente B è un sistema di
generatori di W1 ⊕ W2 . Da cui la seconda parte della tesi, tenendo conto di 5.3. !

Più in generale:

5.6. Proposizione. Siano W1 , . . . , Wn sottospazi di un R-spazio vettoriale V , la cui


somma sia diretta. Allora
dim(W1 ⊕ · · · ⊕ Wn ) = dim(W1 ) + · · · + dim(Wn ).
!

40
IV - SPAZI EUCLIDEI

3
È ben noto che in VO si possono considerare strutture più ricche di quella di spazio
vettoriale; si pensi ad esempio alle operazioni di prodotto scalare e prodotto vettoriale di
due vettori.
Aggiungendo, ad esempio, alla struttura di R-spazio vettoriale di VO 3
il prodotto scalare
di vettori si introducono essenzialmente i concetti di ortogonalità di vettori e distanza tra
3
punti; cosı̀ facendo si fornisce a VO la struttura classica usata nella geometria euclidea.
In questo capitolo estenderemo ad un R-spazio vettoriale qualunque la struttura di
3
VO pensato come R-spazio vettoriale dotato di prodotto scalare. Vedremo inoltre come in
tali spazi si possano definire delle basi “speciali” (quelle ortonormali).

3 ∼ 3
3
1.1. Esempio. Il prodotto scalare usuale in VO , tenuto conto dell’isomorfismo VO =R ,
induce naturalmente un’applicazione

· : R3 × R3 −→ R.

definita da:
(x1 , x2 , x3 ) · (y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3 .
Si verificano le seguenti proprietà, per ogni (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 e a, b ∈ R:

(x1 , x2 , x3 ) · (y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3
i)
= y1 x1 + y2 x2 + y3 x3 = (y1 , y2 , y3 ) · (x1 , x2 , x3 )

(a(x1 , x2 , x3 ) + b(y1 , y2 , y3 ))·(z1 , z2 , z3 ) =


= (ax1 + by1 )z1 + (ax2 + by2 )z2 + (ax3 + by3 )z3 =
ii)
= a(x1 z1 + x2 z2 + x3 z3 ) + b(y1 z1 + y2 z2 + by3 z3 ) =
= a(x1 , x2 , x3 ) · (z1 , z2 , z3 ) + b(y1 , y2 , y3 ) · (z1 , z2 , z3 )

iii) (x1 , x2 , x3 ) · (x1 , x2 , x3 ) = x21 + x22 + x23 ≥ 0

iv) (x1 , x2 , x3 ) · (x1 , x2 , x3 ) = 0 ⇐⇒ (x1 , x2 , x3 ) = (0, 0, 0).

Le precedenti proprietà portano alla seguente definizione generale.

1.2. Definizione. Sia V un R-spazio vettoriale di dimensione finita. Diciamo prodotto


scalare in V a valori reali un’applicazione

· : V × V −→ R

41
denotata da (v, w) .→ v · w tale che, per ogni v, w, v1 , v2 ∈ V e per ogni a1 , a2 ∈ R si ha:
i) v · w = w · v;
ii) (a1 v1 + a2 v2 ) · w = a1 (v1 · w) + a2 (v2 · w);
iii) v · v ≥ 0;
iv) v · v = 0 ⇔ v = 0V .
In tal caso utilizzeremo la notazione (V, ·), intendendo che V è un R-spazio vettoriale
dotato di prodotto scalare e diremo che (V, ·) è uno spazio euclideo.

Dagli assiomi i) e ii) si deduce che i prodotti scalari sono forme bilineari simmetriche: la
linearità sul secondo vettore è assicurata dalla linearità sul primo vettore e dalla simmetria.

3
1.2.1. Esempio. E’ ovvio che il prodotto scalare definito in VO è un prodotto scalare nel
senso di 1.2. Analogamente il’ applicazione dell’ Esempio 1.1. è un prodotto scalare per lo
spazio R3 . Tale prodotto scalare in R3 non è l’unico come si vede dall’esempio seguente.

1.2.3. Esempio. Sia p : R3 × R3 −→ R l’applicazione definita da

p((x1 , x2 , x3 ), (y1 , y2 , y3 )) = 2x1 y1 + 3x2 y2 + x3 y3 .

Infatti, poiché p è bilineare simmetrica (come si verifica facilmente) soddisfa alle proprietà
i) e ii) della Definizione 1.2. Resta da provare che p(v, v) ≥ 0 ed è nullo se e solo se v = 0.
Ciò vale in quanto p(v, v) = 2vx2 + 3vy2 + vz2 , dove v = (vx , vy , vz ).

Estendiamo il prodotto scalare usuale ad Rn come segue: sia

· : Rn × Rn −→ R

definito da
(x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn .
Gli assiomi di prodotto scalare sono di facile verifica:
i) (x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn = y1 x1 + · · · + yn xn = (y1 , . . . , yn ) ·
(x1 , . . . , xn );
ii) è lasciata al lettore; $n
iii), iv) (x1 , . . . , xn ) · (x1 , . . . , xn ) = i=1 x2i ≥ 0.

1.3. Definizione. Il precedente si dice prodotto scalare canonico e (Rn , ·) si dice spazio
euclideo E n .

1.4. Definizione. Sia (V, ·) uno spazio euclideo. L’applicazione

∥ − ∥: V −→ R

42
definita da √
∥ v ∥= v·v
si dice norma; il numero reale ∥ v ∥ si dice norma di v, per ogni v ∈ V .
Si hanno immediatamente le proprietà:

1.5. Proposizione. Sia (V, ·) uno spazio euclideo; allora:


i) ∥ v ∥≥ 0;
ii) ∥ v ∥= 0 ⇔ v = 0V ;
iii) ∥ av ∥= |a| ∥ v ∥. !

In E n = (Rn , ·) la norma di un vettore assume la forma:


+
, n
,#
∥ (x1 , . . . , xn ) ∥= - x2 . i
i=1

.
In particolare in E 3 si ha ∥ (x1 , x2 , x3 ) ∥= x21 + x22 + x23 .

1.6. Teorema. (Disuguaglianza di Schwarz). Sia (V, ·) uno spazio euclideo e siano v, w ∈
V . Allora
(v · w)2 ≤ ∥ v ∥2 ∥ w ∥2 .

Dimostrazione. Se v = 0V la tesi è vera. Sia dunque v ̸= 0V ; per ogni t ∈ R, si ha

0 ≤∥ tv + w ∥2 = (tv + w) · (tv + w) = t2 ∥ v ∥2 +2t(v · w)+ ∥ w ∥2

dove la disuguaglianza vale per 1.2. iii). Poiché v ̸= 0V , il precedente polinomio è un


trinomio di secondo grado in t mai negativo. Pertanto il suo discriminante deve essere non
positivo:
0 ≥ ∆/4 = (v · w)2 − ∥ v ∥2 ∥ w ∥2
da cui la tesi. !

1.7. Teorema. (Disuguaglianza triangolare o di Minkowski). Sia (V, ·) uno spazio euclideo
e siano v, w ∈ V . Allora
∥v+w ∥≤∥v ∥+∥w ∥.

Dimostrazione. Si osservi che

∥ v + w ∥2 = (v + w) · (v + w) =∥ v ∥2 +2v · w+ ∥ w ∥2 .

43
D’altra parte
(∥ v ∥ + ∥ w ∥)2 =∥ v ∥2 +2 ∥ v ∥ ∥ w ∥ + ∥ w ∥2 .
Quindi basta provare che
v · w ≤∥ v ∥ ∥ w ∥ .
Dalla disuguaglianza di Schwarz si ha

|v · w| ≤∥ v ∥ ∥ w ∥,

da cui la tesi. !

1.8. Definizione. Sia (V, ·) uno spazio euclideo e siano v, w ∈ V ; v e w si dicono ortogonali
se v · w = 0.

Vediamo ora una serie di proprietà riguardanti l’ortogonalità:

1.9. Proposizione. Siano v, w1 , · · · , ws ∈ V ; se v è ortogonale a wi per ogni i, allora v è


ortogonale ad ogni combinazione lineare di w1 , · · · , ws .

Dimostrazione. Per ipotesi v · wi = 0 per ogni i; dunque per la bilinearità del prodotto
scalare, per ogni scelta di scalari λ1 , . . . , λs , si ha

v · (λ1 w1 + . . . + λs ws ) = λ1 (v · w1 ) + . . . + λs (v · ws ) = 0.

1.10. Proposizione. Siano v1 , · · · , vs ∈ V \ {0V } tali che vi · vj = 0 per ogni i e j. Allora


v1 , · · · , vs sono linearmente indipendenti.

Dimostrazione. Si consideri una combinazione lineare nulla dei vettori dati:

λ1 v 1 + . . . + λs v s = 0 V .

Allora 0 = vi · (λ1 v1 + . . . + λs vs ) = λ1 (vi · v1 ) + . . . + λs (vi · vs ) = λi ∥ vi ∥2 ; poiché vi ̸= 0V ,


allora λi = 0. Ripetendo il procedimento per ogni i, deve essere λ1 = · · · = λs = 0. !

1.11. Definizione. Sia (V, ·) uno spazio euclideo e sia W ⊆ V un sottospazio vettoriale.
Si dice ortogonale di W l’insieme:

W ⊥ = {v ∈ V | v · w = 0, ∀w ∈ W }.

1.12. Proposizione. W ⊥ è un sottospazio vettoriale di V .

Dimostrazione. Siano v1 , v2 ∈ W ⊥ , cioè v1 · w = 0 e v2 · w = 0 per ogni w ∈ W ; dunque,


comunque scelti λ1 , λ2 ∈ R, si ha

(λ1 v1 + λ2 v2 ) · w = λ1 (v1 · w) + λ2 (v2 · w) = 0

44
per ogni w ∈ W ; pertanto λ1 v1 + λ2 v2 ∈ W ⊥ . !

1.13. Osservazione. Sia W = L(w1 , . . . , ws ) ⊂ V . Allora

W ⊥ = {v ∈ V | v · wi = 0, ∀i = 1, . . . , s}.

Infatti, l’inclusione “ ⊆ ” è ovvia, mentre “ ⊇ ” segue da 1.9.

1.13.1. Esempio. Sia W = L((1, 0, 1)) ⊂ R3 . Per 1.13

W ⊥ = {(x, y, z) ∈ R3 | (x, y, z) · (1, 0, 1) = 0} = {(x, y, z) ∈ R3 | x + z = 0}

cioè W ⊥ = L((1, 0, −1), (0, 1, 0)).

1.13.2. Esempio. Sia W ⊂ R4 definito da

W = L((1, −1, 1, 0), (2, 1, 0, 1)).

Ancora per 1.13


) *) /
⊥ * (x, y, z, t) · (1, −1, 1, 0) = 0
W = (x, y, z, t) ∈ R4 *
(x, y, z, t) · (2, 1, 0, 1) = 0

dunque basta calcolare le soluzioni del sistema lineare


)
x − y + z = 0
2x + y + t = 0

che sono, ad esempio, )


z = y−x
.
t = −2x − y

Quindi W ⊥ = L((1, 0, −1, −2), (0, 1, 1, −1)).

1.14. Proposizione. Sono verificate le seguenti proprietà:


i) (W ⊥ )⊥ ⊇ W ;
ii) W ∩ W ⊥ = {0V }, quindi la somma di W e W ⊥ è diretta.

Dimostrazione. i) Per ipotesi (W ⊥ )⊥ = {v ∈ V | v · w = 0, ∀w ∈ W ⊥ }; poiché se v ∈ W ,


allora v · w = 0 per ogni w ∈ W ⊥ , si ha la tesi.
ii) Sia w ∈ W ∩ W ⊥ , allora w · w = 0; dunque w = 0V . !
Come vedremo in seguiro nel Corollario 1.24., al punto i) di 1.14. si ha eguaglianza se lo
spazio ambiente V è finito dimensionale.

45
In uno spazio euclideo, avendo introdotto i concetti di ortogonalità e norma, si può
richiedere ad una base di verificare le analoghe proprietà geometriche della terna fonda-
3
mentale (la base) di VO , ovvero essere di norma 1 e mutuamente ortogonali.

1.15. Definizione. Sia I = {v1 , . . . , vr } con vi ∈ V ; I si dice ortonormale se i vi sono a


due a due ortogonali ed hanno norma 1, cioè se
)
1, se i = j ;
vi · vj = δij =
0, se i ≠ j.

1.16. Osservazione. Da 1.10 si ha che ogni insieme ortonormale è libero.

1.17. Definizione. Una base B di (V, ·) si dice ortonormale se è un insieme ortonormale.

3
E’ chiaro che la base (i, j, k) di VO e la base canonica di Rn sono basi ortonormali.

1.18. Osservazione. Sia E = (e1 , . . . , en ) una base ortonormale di (V, ·) e sia v ∈ V ; le


componenti di v rispetto ad E assumono una forma particolare:

v = (v · e1 )e1 + · · · + (v · en )en .

Infatti, se
v = a 1 e1 + · · · + a n en
basta considerare i prodotti scalari di v con i vettori della base E:

v · e1 = a 1 , ... , v · en = a n .

Pertanto le componenti di un vettore rispetto ad una base ortonormale si ottengono molti-


plicando scalarmente il vettore per gli elementi della base scelta.

1.19. Definizione. I vettori (v · e1 )e1 , . . . , (v · en )en in cui si decompone v si dicono


proiezioni ortogonali di v lungo e1 , . . . , en , rispettivamente.

Si osservi che una base ortonormale gioca un ruolo fondamentale in uno spazio eu-
clideo, infatti attraverso di essa il prodotto scalare assume la stessa forma del prodotto
scalare canonico in E n .

1.20. Proposizione. Sia E = (e1 , . . . , en ) una base ortonormale di (V, ·) e siano v, w ∈ V .


Posti v = (a1 , . . . , an )E e w = (b1 , . . . , bn )E , allora

v · w = a1 b1 + · · · + an bn .

Dimostrazione. Dalla bilinearità del prodotto scalare e dal fatto che ei · ej = δij . !

46
Il seguente metodo non solo permette il calcolo di una base ortonormale negli es-
empi, ma prova anche, in generale, l’esistenza di una tale base. Esso prende il nome di
procedimento di ortonormalizzazione di Gram–Schmidt.

1.21. Metodo di Gram–Schmidt. Sia B = (v1 , . . . , vn ) una base di uno spazio euclideo
(V, ·). Posti
v1
e1 = ,
∥ v1 ∥
v2 − (v2 · e1 )e1
e2 = ,
∥ v2 − (v2 · e1 )e1 ∥
···
$n−1
vn − i=1 (vn · ei )ei
en = $n−1 ,
∥ vn − i=1 (vn · ei )ei ∥
vogliamo dimostrare che e1 , . . . , en costituiscono una base ortonormale.
Chiaramente e1 , . . . , en hanno norma 1.
Verificheremo che e1 , . . . , en sono a due a due ortogonali per induzione; cioè supporremo
che e1 , . . . , eh siano a due a due ortogonali e proveremo allora che anche e1 , . . . , eh+1 lo
sono. Per l’ipotesi induttiva, basta provare che eh+1 è ortogonale a e1 , . . . , eh . Sia dunque
k un intero tale che 1 ≤ k ≤ h, allora
$h
vh+1 − i=1 (vh+1 · ei )ei
eh+1 · ek = $h · ek =
∥ vh+1 − i=1 (v h+1 · e i )e i ∥
$h
vh+1 · ek − i=1 ((vh+1 · ei )(ei · ek ))
= $h =
∥ vh+1 − i=1 (vh+1 · ei )ei ∥
vh+1 · ek − vh+1 · ek
= $h =0
∥ vh+1 − i=1 (vh+1 · ei )ei ∥

dove l’ultima uguaglianza segue dal fatto che ei · ek = 0 per l’ipotesi induttiva.
Inoltre per 1.16 sono linearmente indipendenti e pertanto costituiscono una base ortonor-
male di V .
1.21.1. Esempio. Sia V = L(v1 , v2 ) ⊂ R4 , dove v1 = (1, 1, 0, 0), v2 = (0, 2, 1, 1); vogliamo
determinare una base ortonormale di V con il metodo di Gram–Schmidt.
! "
v1 1 1
e1 = = √ , √ , 0, 0 ;
∥ v1 ∥ 2 2

si ponga f2 = v2 − (v2 · e1 )e1 e quindi e2 = ∥ff22 ∥ .


Si ha dunque
! ! "" ! "
1 1 1 1
f2 = (0, 2, 1, 1) − (0, 2, 1, 1) · √ , √ , 0, 0 √ , √ , 0, 0 =
2 2 2 2
= (0, 2, 1, 1) − (1, 1, 0, 0) = (−1, 1, 1, 1).

47
Quindi ! "
1 1 1 1
e2 = − , , , .
2 2 2 2

1.22. Teorema. Sia (V, ·) uno spazio euclideo. Allora V ha una base ortonormale.

Dimostrazione. Poiché V ha dimensione finita, ammette una base che basta ortonormaliz-
zare con Gram–Schmidt. !

1.23. Teorema. Sia (V, ·) uno spazio euclideo e sia {e1 , . . . , er } un insieme ortonor-
male di vettori di V ; allora si può completare tale insieme ad una base ortonormale
(e1 , . . . , er , er+1 , . . . , en ) di V .

Dimostrazione. Per il teorema di completamento ad una base (vedi 4.11. Capitolo III), si
completi l’insieme libero {e1 , . . . , er } ad una base

B = (e1 , . . . , er , vr+1 , . . . , vn )

di V . Poi si ortonormalizzi B; si noti che il metodo di Gram–Schmidt applicato a B non


altera i primi r vettori, che sono già ortonormali. !

1.24. Corollario. Sia (V, ·) uno spazio euclideo di dimensione n e sia W un sottospazio
vettoriale di V . Allora:
i) dim(W ) + dim(W ⊥ ) = n;
ii) V = W ⊕ W ⊥ ;
iii) (W ⊥ )⊥ = W .

Dimostrazione. i) Sia (e1 , . . . , er ) una base ortonormale di W ; si completi, per 1.23, ad


una base ortonormale (e1 , . . . , er , er+1 , . . . , en ) di V . Poiché er+1 , . . . , en sono ortogonali
ai precedenti vettori della base, sono ortogonali ad ogni vettore di W per 1.9; dunque
er+1 , . . . , en ∈ W ⊥ . Pertanto dim(W ⊥ ) ≥ n − r, cioè dim(W ) + dim(W ⊥ ) ≥ n. D’altra
parte dim(W ) + dim(W ⊥ ) = dim(W ⊕ W ⊥ ) ≤ n e ciò prova la tesi.
ii) Per i) si ha dim(W ⊕ W ⊥ ) = dim(W ) + dim(W ⊥ ) = n = dim(V ) e quindi la tesi.
iii) Per i) applicata a W ⊥ si ha

dim(W ⊥ ) + dim((W ⊥ )⊥ ) = n

dunque, confrontando con i), si ottiene dim((W ⊥ )⊥ ) = dim(W ); ma per 1.14 si ha


(W ⊥ )⊥ ⊇ W e ciò conclude la dimostrazione. !

48
V - MATRICI

1. Concetti fondamentali

Spesso accade che si debbano esaminare insiemi finiti di vettori (generatori di un sot-
tospazio vettoriale, basi, ecc.); è conveniente rappresentare tali insiemi in forma compatta.
Ciò risulta particolarmente semplice se i vettori considerati sono elementi di Rn . In tal
caso l’idea, molto naturale, è quella di disporre le componenti dei vettori stessi in una
opportuna tabella, che prende il nome di “matrice”. Le matrici saranno loro stesse oggetto
di studio e sono uno strumento fondamentale nell’algebra lineare (sistemi lineari e appli-
cazioni lineari, ad esempio), ma anche in geometra (intersezioni di rette e piani, coniche e
quadriche, ad esempio).
Come per gli spazi vettoriali le matrici possono essere date su qualsiasi campo K. Noi
la daremo per il caso K = R (campo dei numeri reali). Il lettore avvertito può facilmente
astrarre la definizione al caso generale.

1.1. Definizione. Si dice matrice a elementi in R un insieme di scalari aij ∈ R, con


i = 1, . . . , m; j = 1, . . . , n; m, n ∈ N, rappresentato da una tabella del tipo
⎛ ⎞
a11 a12 ... a1n
⎜ a21 a22 ... a2n ⎟
M =⎜
⎝ ... .. .. ⎟ . (1)
. . ⎠
am1 am2 ... amn

In tal caso si dirà che M è una matrice a m righe ed n colonne (o brevemente di tipo
m × n) e si denoterà anche con M = (aij ), ove aij è l’elemento appartenente all’i-esima
riga e alla j-esima colonna.

Se m = 1, M si dice matrice riga ed ha la forma

M = (a11 a12 . . . a1n );

se n = 1, M si dice matrice colonna ed ha la forma


⎛ ⎞
a11
⎜ a21 ⎟
M =⎜ ⎟
⎝ ... ⎠ .
am1

Se m = n = 1, la matrice si riduce ad uno scalare di R. Più in generale, se m = n ≥ 1,


la matrice si dirà quadrata di ordine n. Se A = (aij ) ∈ Rn,n è una matrice quadrata,
allora gli elementi a11 , a22 , . . . , ann costituiscono la diagonale principale o, più brevemente,
la diagonale di A.

49
Gli elementi in grassetto della seguente matrice formano la sua diagonale:
⎛ ⎞
1 2 2
A = ⎝ −1 0 3 ⎠ .
2 4 7

1.2. Osservazione. La matrice M in (1) rappresenta sia m vettori riga di Rn :

R1 = (a11 , . . . , a1n ) , ... , Rm = (am1 , . . . , amn )

sia n vettori colonna di Rm :

C1 = (a11 , . . . , am1 ) , ... , Cn = (a1n , . . . , amn ).

I vettori Ri si dicono anche righe di M ed i vettori Cj si dicono anche colonne di M .


Possiamo quindi scrivere M come la riga delle sue colonne o la colonna delle sue righe:
⎛ ⎞
R1
⎜ R2 ⎟
M = (C1 C2 . . . Cn ) = ⎜ ⎟
⎝ ... ⎠ .
Rm

Notazione. L’insieme di tutte le matrici di tipo m × n si denota con Rm,n .

Si possono definire in modo naturale le seguenti operazioni in Rm,n : per ogni A = (aij ),
B = (bij ) ∈ Rm,n e per ogni λ ∈ R, si definisce

A + B = (aij + bij ); λA = (λaij ).

"! ! "
1 2 1 −1
1.2.1. Esempio. Siano A = eB= due matrici di R2,2 . Si verifica
1 −1 1 0
che ! " ! " ! "
1 2 1 −1 2 1
A+B = + = .
1 −1 1 0 2 −1

1.3. Proposizione. Con le precedenti operazioni, l’insieme Rm,n ha una struttura di


R-spazio vettoriale di dimensione mn.

Dimostrazione. Lasciamo al lettore la verifica del fatto che Rm,n è un R-spazio vettoriale,
osservando che lo zero di Rm,n è dato dalla matrice i cui elementi sono tutti uguali a 0R ,

50
detta matrice nulla.
Per provare che dim(Rm,n ) = mn, si considerino le seguenti matrici:
)
(hk) (hk) 1, se (i, j) = (h, k) ;
Ehk = (eij ) , dove eij =
0, se (i, j) ̸= (h, k) .
In altre parole Ehk è la matrice costituita da tutti zeri, eccetto l’elemento di posto hk, che
è uguale a 1.
Si verifica facilmente che {Ehk |1 ≤ h ≤ m, 1 ≤ k ≤ n} è una base per Rm,n . !

1.4. Definizione. Date due matrici A = (aij ) ∈ Rm,n , B = (bjk ) ∈ Rn,p si definisce
prodotto di A e B la matrice
n
#
m,p
C = (cik ) = AB ∈ R , ove cik = RiA · CkB = aij bjk ,
j=1

con i = 1, . . . , m e k = 1, . . . , p, dove RiA · CkB denota il prodotto scalare (di vettori in Rn )


dello i-esimo vettore riga RiA di A per il k-esimo vettore colonna CkB di B.

1.5. Osservazione. Chiaramente il prodotto AB, chiamato anche prodotto righe per
colonne, è definito solo se il numero delle colonne di A è uguale al numero delle righe di
B, cioè se e solo se A è di tipo m × n e B è di tipo n × p.

1.5.1. Esempio. Si considerino le matrici


⎛ ⎞
! " 1 2
1 2 −1 ⎝
A= ∈ R2,3 , B= 2 1 ⎠ ∈ R3,2 ;
3 0 1
3 4
allora AB = C = (cik ) ∈ R2,2 è tale che c11 = a11 b11 + a12 b21 + a13 b31 = 2, e cosı̀ via. Si
ottiene dunque ! "
2 0
C= .
6 10

1.6. Osservazione. Si considerino le matrici A ∈ Rm,n , B ∈ Rn,p . Come già osservato,


il prodotto AB è definito; affinché il prodotto BA sia definito è necessario che sia p = m.
Ma, anche se è definito, il prodotto tra matrici non è commutativo, cioè, se A ∈ Rm,n ,
B ∈ Rn,m , in generale AB ̸= BA. Infatti, se n ̸= m è ovvio.
Altrimenti, siano ad esempio
! " ! "
1 2 1 −1
A= , B= .
1 −1 1 0
! " ! "
3 −1 0 3
Allora AB = , mentre BA = .
0 −1 1 2

L’associatività e la distributività rispetto alla somma del prodotto in R garantiscono


analoghe proprietà del prodotto di matrici.

51
1.7. Proposizione. Il prodotto di matrici è associativo e distributivo rispetto alla somma,
ovvero
i) A(BC) = (AB)C, ∀ A ∈ Rm,n , B ∈ Rn,p , C = (ckj ) ∈ Rp,q ;
ii) A(B + C) = AB + AC, ∀ A ∈ Rm,n , B, C ∈ Rn,p ;
iii) λ(AB) = (λA)B = A(λB) , ∀ A ∈ Rm,n , B ∈ Rn,p , λ ∈ R .

Dimostrazione. i) Siano date le matrici A = (aih ) ∈ Rm,n , B = (bhk ) ∈ Rn,p e C =


(ckj ) ∈ Rp,q . Vogliamo $
provare che (AB)C = A(BC). Dalla definizione
$p di prodotto si ha:
n
AB = (dik ), ove dik = h=1 aih bhk e BC = (ehj ), ove ehj = k=1 bhk ckj .
Dunque l’elemento di posto ij di (AB)C è

p p
6 n 7 p #
n
# # # #
dik ckj = aih bhk ckj = (aih bhk ckj )
k=1 k=1 h=1 k=1 h=1

con l’ultima uguaglianza che discende dalla distributività del prodotto rispetto alla somma
(in R).
D’altro canto, l’elemento di posto ij di A(BC) è

n n
6 p
7 p
n #
# # # #
aih ehj = aih bhk ckj = (aih bhk ckj ),
h=1 h=1 k=1 h=1 k=1

e ciò conclude la dimostrazione dell’associatività.


ii) Per provare la distributività del prodotto rispetto alla somma, basta mostrare che, se
A = (aih ), A′ = (a′ih ) ∈ Rm,n e B = (bhj ) ∈ Rn,p , allora (A + A′ )B = AB + A′ B. Questo
segue dal fatto che i rispettivi elementi di posto ij sono uguali, in quanto
n
# n
# n
#
(aih + a′ih )bhj = aih bhj + a′ih bhj .
h=1 h=1 h=1

iii) Viene lasciata al lettore. !

Il prodotto tra matrici ammette un elemento neutro:


1.8. Definizione. Si dice matrice identica di ordine n, indicata con In , la matrice
quadrata definita da:
)
1, se i = j ;
In = (δij ) , dove δij =
0, ̸ j.
se i =

In altre parole gli elementi di In sono tutti nulli, eccetto quelli della diagonale, che sono
uguali a 1.

52
1.9. Osservazione. Si verifica facilmente che, se A ∈ Rm,n , allora

AIn = A e Im A = A.

1.10. Proposizione. L’insieme Rn,n delle matrici quadrate di ordine n, con le operazioni
di somma e prodotto sopra definite, è un anello (non commutativo).

Dimostrazione. Innanzitutto osserviamo che Rn,n è chiuso rispetto al prodotto, in quanto


se A, B ∈ Rn,n , allora AB e BA sono definite e sono ancora matrici n × n. Poiché Rn,n
è un gruppo rispetto alla somma, per 1.3, e valgono le proprietà associativa e distributiva
per 1.7, si ha la tesi. !

Abbiamo già incontrato la nozione di elemento invertibile in un anello. Nel caso


particolare di Rn,n abbiamo dunque la

1.11. Definizione. La matrice A ∈ Rn,n si dice invertibile se esiste B ∈ Rn,n tale che
AB = BA = In . In tal caso la matrice B si denota con A−1 e si dice inversa di A.

Nell’anello Rn,n delle matrici quadrate di ordine n, non tutti gli elementi hanno inverso
moltiplicativo. Ad esempio la matrice
! "
1 1
A= ∈ R2,2
0 1

è invertibile con inversa ! "


−1 1 −1
A = .
0 1
Invece la matrice ! "
1 2
A= ∈ R2,2
1 2
non è invertibile. Infatti, si verifica che l’“equazione matriciale”
! "! " ! "
1 2 x y 1 0
=
1 2 z t 0 1

non ha soluzione.

1.12. Proposizione - Definizione. L’insieme delle matrici invertibili di Rn,n è un


gruppo rispetto al prodotto di matrici. Tale gruppo si dice gruppo lineare di ordine n
e si denota con GL(n, R) o, se non c’è possibilità di equivoco, con GL(n).

Dimostrazione. Proviamo innanzitutto che GL(n, R) è chiuso rispetto al prodotto di ma-


trici. Se A e B sono invertibili, anche AB è inver- tibile, poiché ammette inversa, che
è B −1 A−1 ; infatti, per l’associatività del prodotto: (AB)(B −1 A−1 ) = A(BB −1 )A−1 =

53
AA−1 = In . Dunque (AB)−1 = B −1 A−1 .
E’ chiaro che In ∈ GL(n, R), in quanto In−1 = In . Inoltre In è l’elemento neutro di
GL(n, R).
Infine, se A ∈ GL(n, R), allora A−1 ∈ GL(n, R); infatti l’inversa di A−1 è A. !

Si noti che GL(n, R) non è commutativo: ad esempio si può verificare che le matrici
A e B dell’osservazione 1.6 sono invertibili.

In seguito vedremo come sia utile al fine di semplificare alcune dimostrazioni associare
ad una matrice A una matrice da essa ottenuta scambiando le righe con le colonne. Più
precisamente:

1.13. Definizione. Sia A = (aij ) ∈ Rm,n ; si dice trasposta di A e si indica con t A la


matrice t A = (bij ) ∈ Rn,m , dove bij = aji .
⎛ ⎞
! " 1 3
1 2 −1
1.13.1. Esempio. Se A = ∈ R2,3 allora t A = ⎝ 2 0 ⎠ e t A ∈ R3,2 .
3 0 1
−1 1

Nella seguente proposizione diamo alcune proprietà delle matrici trasposte.

1.14. Proposizione. Valgono i seguenti fatti:


i) se A, B ∈ Rm,n allora: t (A + B) = t A + t B;
ii) se A ∈ Rm,n e se B ∈ Rn,p , allora t (AB) = t B t A;
iii) se A ∈ Rn,n ed A è invertibile, allora anche t A è invertibile e (t A)−1 = t (A−1 ).

Dimostrazione. i) Ovvio. ii) Si ponga AB = (cij ), t A = (a′ij ) e t B = (b′ij ). Allora


$n ′ ′
cij = h=1 aih bhj , aij = aji e bij = bji . L’elemento di posto ij di t (AB) è dunque
$n t t
$ n ′ ′
h=1 ajh bhi ; l’elemento di posto ij di B A è h=1 bih ahj ; chiaramente tali elementi
coincidono, per ogni i e j.
iii) E’ sufficiente provare che t (A−1 ) t A = In . Per ii)

t
(A−1 ) t A = t (AA−1 ) = t (In ) = In .

2. Rango di una matrice


Il rango di una matrice è una misura dell’indipendenza lineare dei suoi vettori righe
o, equivalentemente, dei suoi vettori colonna.

54
2.1. Definizione. Sia A = (aij ) ∈ Rm,n . Abbiamo visto che le m righe di A:

R1 = (a11 , . . . , a1n ), ... , Rm = (am1 , . . . , amn )

si possono interpretare come elementi di Rn . Si dice spazio delle righe di A, e si indica


con R = R(A), il sottospazio vettoriale di Rn generato dai vettori R1 , . . . , Rm , da cui si
ha R = L(R1 , . . . , Rm ). Analogamente, dette
⎛ ⎞ ⎛ ⎞
a11 a1n
⎜ a21 ⎟ ⎜ a2n ⎟
C1 = ⎜ ⎟
⎝ ... ⎠ , ··· , Cn = ⎜ ⎟
⎝ ... ⎠
am1 amn

le colonne di A, lo spazio delle colonne di A è il sottospazio vettoriale di Rm definito da


C = C(A) = L(C1 , . . . , Cn ).

2.2. Osservazione. E’ evidente che lo spazio delle righe di una matrice A è uguale allo
spazio delle colonne di t A e viceversa.

2.3. Teorema. Sia A = (aij ) ∈ Rm,n . Allora dim(R) = dim(C).

Dimostrazione. Proviamo dapprima che, se dim(R) = r, allora deve essere dim(C) ≤ r.


A meno di un cambio di coordinate nello spazio Rm di cui è sottospazio C, si può supporre
che le prime r righe R1 , . . . , Rr siano linearmente indipendenti; dunque le restanti sono
loro combinazioni lineari. Pertanto la matrice A ha la forma:
⎛ R1 ⎞ ⎛ a11 ··· a1n ⎞
⎜ ..
⎟ ⎜ .. .. ⎟
⎜ .
⎟ ⎜ . . ⎟
⎜ ⎟ ⎜ ··· ⎟
⎜ $ Rr ⎟ ⎜ $ ar1 $r a rn ⎟
A=⎜ r r+1 ⎟ = ⎜ r λr+1 a r+1 ⎟.
λ
⎜ i=1 i R i⎟ ⎜ i1 ··· λ ain ⎟
⎜ . ⎟ ⎜ i=1 . i i=1 i
.. ⎟
⎝ . ⎠ ⎝ . ⎠
$r . m $r . m $r .
m
i=1 λi Ri i=1 λi ai1 ··· i=1 λi ain

Pertanto, per ogni h = 1, . . . , n, la h-esima colonna è della forma:


⎛ a1h ⎞ ⎞ ⎛ ⎛ ⎞
1 0
⎜ a2h ⎟ ⎜ 0 ⎟ ⎜ 0 ⎟
⎜ .. ⎟ ⎜ . ⎟ ⎜ . ⎟
⎜ . ⎟ ⎜ .. ⎟ ⎜ .. ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ a ⎟ ⎜ 0 ⎟ ⎜ 1 ⎟
Ch = ⎜ $ rh ⎟ = a1h ⎜ ⎟ + · · · + arh ⎜ ⎟.
⎜ r λr+1 a ⎟ ⎜ λr+1 ⎟ ⎜ λr+1 ⎟
⎜ i=1 i ih ⎟ ⎜ 1 ⎟ ⎜ r ⎟
⎜ .. ⎟ ⎜ . ⎟ ⎜ . ⎟
⎝ ⎠ ⎝ .. ⎠ ⎝ .. ⎠
$r . m
i=1 λi aih
λm
1 λm
r

55
Dunque C è generato dalle r colonne
⎛ ⎞ ⎛ ⎞
1 0
⎜ 0 ⎟ ⎜ 0 ⎟
⎜ . ⎟ ⎜ . ⎟
⎜ .. ⎟ ⎜ .. ⎟
⎜ ⎟ ⎜ ⎟
⎜ 0 ⎟ ⎜ 1 ⎟
⎜ ⎟ , · · · , ⎜ ⎟.
⎜ λr+1 ⎟ ⎜ λr+1 ⎟
⎜ 1 ⎟ ⎜ r ⎟
⎜ . ⎟ ⎜ . ⎟
⎝ .. ⎠ ⎝ .. ⎠
λm
1 λm
r

pertanto dim(C) ≤ r.
L’altra disuguaglianza dim(C) ≥ dim(R) si dimostra in modo del tutto analogo, scam-
biando le righe con le colonne e quindi si ha la tesi. !

Ne segue che dim(R) = dim(C) è un invariante numerico della matrice A. Possiamo


quindi dare la seguente:

2.4. Definizione. Data una matrice A ∈ Rm,n , si dice rango di A e si indica con ρ(A) il
numero dim(R) = dim(C), cioè la dimensione dello spazio delle sue righe (coincidente con
la dimensione dello spazio delle sue colonne).

2.5. Corollario. Sia A ∈ Rm,n . Allora ρ(A) = ρ(t A).

Dimostrazione. Evidente dal fatto che ρ(A) è la dimensione dello spazio delle righe di A, il
quale coincide con lo spazio delle colonne di t A; tale spazio ha dimensione uguale a ρ(t A)
per definizione. !

La nozione di rango è fondamentale, non solo in quanto invariante di una matrice, ma


anche per le possibili applicazioni. Si pensi, ad esempio, ad una matrice M le cui colonne
(o righe) rappresentino un sistema di generatori di uno spazio vettoriale V ; in tal caso il
rango di M coincide con la dimensione di V . E’ giustificata quindi la ricerca di metodi che
rendano semplice il calcolo del rango di una matrice.

E’ evidente che ρ(A) ≤ min(m, n). D’altra parte abbiamo la definizione seguente.

2.6. Definizione. Sia A ∈ Rm,n . Diremo che A è di rango massimo se ha il massimo


rango possibile ovvero se
ρ(A) = min(m, n).

Per quanto segue, è utile introdurre la seguente nozione:

2.7. Definizione. Una matrice B si dice sottomatrice di A se si ottiene intersecando p


righe e q colonne di A.

56
⎛ ⎞
1 1 1 1 1
⎜1 2 1 1⎟2
2.7.1. Esempio. Sia A = ⎝ ⎠; la sottomatrice di A ottenuta intersecando
1 2 1 1 2
1 1 1 1 1 ! "
2 2
la seconda e la quarta colonna con la seconda e la terza riga è B = .
2 2

2.8. Osservazione. Si noti che, se B è la sottomatrice di A ∈ Rm,n costituita da alcune


colonne di A, cioè

B = (Ci1 · · · Cis ) con 1 ≤ i1 < · · · < i s ≤ n

allora ρ(B) ≤ ρ(A), in quanto

C(B) = L(Ci1 · · · Cis ) ⊆ L(C1 · · · Cn ) = C(A).

Analogamente, se B è una sottomatrice costituita da alcune righe di A, allora ρ(B) ≤ ρ(A).


In generale si ha il seguente risultato la cui dimostrazione è immediata.

2.9. Proposizione. Se B è una qualunque sottomatrice di A ∈ Rm,n , allora ρ(B) ≤ ρ(A).

Le osservazione seguenti ci permetteranno di definire in seguito una classe di matrici


per cui è semplice calcolare il rango.

2.10. Osservazioni. Aggiungendo righe e colonne nulle ad una matrice, il rango non
cambia. Inoltre, date le matrici
⎛ ⎞ ⎛ ⎞
R1 RΠ(1)
⎜ R2 ⎟ ⎜ RΠ(2) ⎟
⎜ ⎟ ⎜ ⎟
A = ⎝ .. ⎠ e B = ⎜ . ⎟,
. ⎝ . ⎠.
Rm RΠ(m)

dove B è ottenuta da A mediante una permutazione Π sulle righe, si ha ρ(A) = ρ(B).


Analogamente, date le matrici

A′ = (C1 , . . . , Cn ) e B ′ = (CΠ(1) , . . . , CΠ(n) )

dove B ′ è ottenuta da A mediante una permutazione Π sulle colonne, si ha ρ(A′ ) = ρ(B ′ ).


Infatti ρ(A) = ρ(B) in quanto A e B hanno lo stesso spazio delle righe, e ρ(A′ ) = ρ(B ′ )
poiché A′ e B ′ hanno lo stesso spazio delle colonne.

Vediamo dapprima alcune matrici per le quali è facile calcolare il rango.

2.11. Definizione. Una matrice A = (aij ) ∈ Rn,n si dice diagonale se aij = 0 per i ̸= j.

57
Ad esempio la matrice
⎛ ⎞
1 0 0 0
⎜0 2 0 0 ⎟
A=⎝ ⎠
0 0 0 0
0 0 0 −3
è diagonale.
Si osservi che il rango di una matrice diagonale è uguale al numero delle righe (o
delle colonne) non nulle, poiché i vettori riga non nulli sono multipli di vettori della base
canonica di Rn e quindi indipendenti. Infatti, nell’esempio precedente si ha R1 = e1 ,
R2 = 2e2 , R3 = 0, R4 = −3e4 , quindi R = L(e1 , e2 , e4 ), da cui ρ(A) = 3.

Una classe più ampia di matrici per le quali è ancora semplice calcolare il rango è la
seguente:

2.12. Definizione. Sia A = (aij ) ∈ Rn,n una matrice quadrata; A si dice triangolare
superiore se aij = 0 per i > j. Si dice invece che A è triangolare inferiore se aij = 0 per
i < j. Inoltre, se aii ̸= 0 per ogni i, allora A si dice triangolare superiore (o inferiore)
completa.

2.12.1. Esempio. Le matrici


⎛ ⎞ ⎛ ⎞
1 0 3 1 0 0
A = ⎝0 2 0 ⎠ e B = ⎝0 2 0⎠
0 0 −1 1 1 4

sono, rispettivamente, triangolare superiore e inferiore (complete).

2.13. Teorema. Sia A ∈ Rn,n una matrice triangolare superiore completa. Allora

ρ(A) = n.

Dimostrazione. Sia
⎛ ⎞
a11 a12 ··· a1n
⎜ 0 a22 ··· a2n ⎟
A=⎜
⎝ ... .. .. ⎟ .
. . ⎠
0 0 ··· ann
Basta provare che le n colonne C1 , . . . , Cn sono linearmente indipendenti.
Sia dunque λ1 C1 + · · · + λn Cn = 0, cioè, per esteso,
⎛λ a + ··· + λ ⎞ ⎛ ⎞
1 11 n−1 a1n−1 + λn a1n 0
⎜ .. ⎟ ⎜ ... ⎟
⎜ . ⎟ = ⎜ ⎟.
⎝ ⎠ ⎝0⎠
λn−1 an−1 n−1 + λn an−1 n
λn ann 0

58
Da tale relazione, uguagliando le n-esime componenti di ambo i membri, si ha

λn ann = 0

e quindi, poiché ann ̸= 0, segue λn = 0. Analogamente le (n − 1)-esime componenti danno

λn−1 an−1,n−1 + λn an−1,n = 0

e poiché λn = 0 e an−1,n−1 ̸= 0, segue λn−1 = 0.


Ripetendo il ragionamento, si prova che λn = λn−1 = · · · = λ1 = 0. !

Si può generalizzare il concetto di matrice triangolare nel caso di matrici non quadrate:

2.14. Definizione. Una matrice A = (aij ) ∈ Rm,n si dice triangolare superiore (breve-
mente TS) se aij = 0 per i > j. A si dice triangolare superiore completa (brevemente TSC)
se, inoltre, aii ̸= 0 per ogni i. Del tutto analoghe sono le definizioni di matrice triangolare
inferiore (TI) e di triangolare inferiore completa (TIC).

2.15. Osservazione. Sia A ∈ Rm,n e si ponga p = min(m, n); se A è triangolare superiore


(completa) allora la sottomatrice B di A ottenuta intersecando le prime p righe e le prime
p colonne è una matrice quadrata p × p triangolare superiore (completa).

2.15.1. Esempio. Le matrici


⎛ ⎞ ⎛ ⎞
1 0 −3
1 2 3 9
⎜0 2 0 ⎟ ⎝
A=⎝ ⎠ e ′
A = 0 2 0 7 ⎠
0 0 −1
0 0 4 −3
0 0 0

sono TSC. Inoltre le sottomatrici


⎛ ⎞ ⎛ ⎞
1 0 −3 1 2 3
B = ⎝0 2 0 ⎠ e ′ ⎝
B = 0 2 0⎠
0 0 −1 0 0 4

sono quadrate TSC come osservato in 2.15.

2.16. Corollario. Se A ∈ Rm,n è TSC, allora ρ(A) = min(m, n).

Dimostrazione. Consideriamo dapprima il caso n ≥ m. Allora, per 2.6, ρ(A) ≤ m ed A è


della forma ⎛a
11 a12 a13 . . . a1m−1 a1m ∗ ... ∗⎞
⎜ 0 a22 a23 . . . a2m−1 a2m ∗ ... ∗⎟
⎜ ⎟
A=⎜ 0 0 a33 . . . a3m−1 a3m ∗ ... ∗⎟. (∗)
⎜ . .. .. .. .. .. .. ⎟
⎝ . ⎠
. . . . . . .
0 0 0 ... 0 amm ∗ ... ∗

59
Sia B la sottomatrice di A costituita dalle prime m colonne di A. Poiché, per 2.15, B è
TSC, allora dal teorema 2.13 segue che C1 , . . . , Cm sono linearmente indipendenti. Quindi
ρ(A) ≥ m e dunque la tesi. Se, invece, n < m, allora ρ(A) ≤ n, sempre per 2.6, ed A è
della forma, ⎛ ⎞
a11 a12 a13 . . . a1n
⎜ 0 a22 a23 . . . a2n ⎟
⎜ ⎟
⎜ 0 0 a33 . . . a3n ⎟
⎜ . .. .. .. ⎟
⎜ . ⎟
⎜ . . . . ⎟
A=⎜ ⎟. (∗∗)
⎜ 0 0 0 . . . ann ⎟
⎜ ⎟
⎜ 0 0 0 ... 0 ⎟
⎜ . .. .. .. ⎟
⎝ .. . . . ⎠
0 0 0 ... 0
Eliminando le righe nulle si ha una matrice di tipo (∗), quindi ρ(A) = n. !

Le matrici A e A′ dell’esempio 2.15.1 sono entrambe TSC ed il loro rango è 3.

3. Matrici ridotte

Vedremo che è particolarmente semplice calcolare il rango di matrici ottenute da una


matrice TSC A, aggiungendo righe nulle e permutando le colonne; infatti in tal caso il
rango è uguale al numero di righe non nulle della matrice. Diamo dunque la seguente:

3.1. Definizione. Sia A ∈ Rm,n e sia A′ ∈ Rm ,n la matrice ottenuta da A eliminando le
(eventuali) righe nulle. Se esiste una permutazione ΠC delle colonne di A′ tale che
Π
A′ −−−c→A′′
con A′′ matrice TSC, allora A si dice ridotta per righe.
(Si osservi che, in tal caso, si ha necessariamente che m′ ≤ n.)

Osserviamo che la matrice (∗∗) della dimostrazione di 2.16 è ridotta per righe.

3.1.1. Esempio. Si consideri la matrice


⎛ ⎞
0 1 3
⎜0 0 0 ⎟
A=⎝ ⎠.
2 0 0
0 0 −1
Eliminando la seconda riga e scambiando le prime due colonne, si ha la matrice TSC
⎛ ⎞
1 0 3
A′ = ⎝ 0 2 0 ⎠
0 0 −1

60
quindi ρ(A) = ρ(A′ ) = 3.

Si ha dunque il seguente

3.2. Teorema. Se A è una matrice ridotta per righe, allora le sue righe non nulle sono
linearmente indipendenti. In particolare, ρ(A) è uguale al numero di righe non nulle di A.

Dimostrazione. Sia A′ la sottomatrice di A ottenuta eliminando le righe nulle. Per 2.10,


ρ(A) = ρ(A′ ). Sia ora A′′ la matrice TSC ottenuta da A′ con una opportuna permutazione
delle colonne. Per 2.10, si ottiene ρ(A′ ) = ρ(A′′ ). Poiché A′′ è TSC, per 2.16, il suo rango
ρ(A′′ ) è uguale al numero delle sue righe, quindi al numero delle righe non nulle di A. !

Partendo dalle matrici ridotte per righe, si può costruire un’altra classe di matrici il
cui rango è facilmente calcolabile: si tratta delle matrici ottenute trasponendo una matrice
ridotta per righe. Infatti, se A è una matrice ridotta per righe, la matrice trasposta t A
si dirà “ridotta per colonne”. Si osservi che, per 2.5, ρ(t A) = ρ(A) e pertanto il calcolo
del rango di una matrice ridotta per colonne è immediato, in quanto uguale al numero di
colonne non nulle. Più precisamente:

3.3. Definizione. Una matrice A si dice ridotta per colonne se, eliminando le colonne
nulle e permutando opportunamente le righe, si ottiene una matrice del tipo B, con

⎛ ⎞
a11 0 0 ... 0
⎜ a21 a22 0 ... 0 ⎟
⎜ ⎟
⎜ a31 a32 a33 ... 0 ⎟
⎜ .. .. .. .. ⎟
⎜ ⎟
⎜ . . . . ⎟
B=⎜ ⎟.
⎜ am1 am2 am3 ... amm ⎟
⎜ ⎟
⎜ ∗ ∗ ∗ ... ∗ ⎟
⎜ . .. .. .. ⎟
⎝ .. . . . ⎠
∗ ∗ ∗ ... ∗

3.4. Osservazione. Il lettore può facilmente verificare che le considerazioni svolte in


questo paragrafo si possono ripetere partendo dal concetto di matrice triangolare inferiore
completa. Infatti, basta scambiare le parole “riga” e “colonna” e si hanno i risultati
analoghi a 2.13 (per matrici quadrate TIC), 2.16 (per matrici TIC qualunque) e 3.2 (matrici
ridotte per colonne).

3.5. Teorema (Caratterizzazione delle matrici ridotte).


Una matrice è ridotta per righe se e solo se gode della seguente proprietà:
(PR ) : in ogni riga non nulla esiste almeno un elemento non nullo al di sotto del quale ci
sono solo zeri.
Una matrice è ridotta per colonne se e solo se gode della seguente proprietà:

61
(PC ) : in ogni colonna non nulla esiste almeno un elemento non nullo alla destra del quale
ci sono solo zeri.

3.6. Definizione. Se una matrice è ridotta per righe, un elemento non nullo della riga i-
esima al di sotto del quale ci sono solo zeri è detto elemento speciale di Ri . Analogamente si
definisce un elemento speciale di una colonna non nulla di una matrice ridotta per colonne.

3.6.1. Esempio. Vediamo, applicato ad un esempio, il teorema 3.5. Sia


⎛ ⎞
1 −1 1 1
⎜ 0 0 2 −1 ⎟
A=⎝ ⎠.
2 0 0 0
0 0 0 1
Osserviamo che A gode della proprietà (PR ): gli elementi in grassetto (uno per ogni riga)
sono elementi speciali di A. Con opportune permutazioni di colonne, si ottengono le matrici
⎛ ⎞ ⎛ ⎞
−1 1 1 1 −1 1 1 1
C1 ↔C2 ′ ′
⎜ 0 0 2 −1 ⎟ C2 ↔C3 ′′ ⎜ 0 2 0 −1 ⎟
A −−−−−→ A′ = ⎝ ⎠ −− − −−→ A =⎝ ⎠
0 2 0 0 0 0 2 0
0 0 0 1 0 0 0 1
dove con Ci ↔ Cj si intende lo scambio della i-esima e della j-esima colonna. Chiaramente
A′′ è di tipo TSC, dunque, per definizione, A è ridotta per righe.

4. Riduzione di matrici

Avendo ora a disposizione una “buona” classe di matrici (quelle ridotte) delle quali
sappiamo calcolare il rango, cerchiamo un procedimento che ci permetta di associare ad
una matrice qualsiasi una matrice ridotta che abbia lo stesso rango.

Vediamo alcune procedure che mostreremo preservare lo spazio delle righe di una
matrice e che vengono dette trasformazioni elementari sulle righe:
D) sostituzione di una riga Ri con Ri + aRj , ove a ∈ R e j ̸= i;
s) scambio di Ri con Rj ;
λ) sostituzione di una riga Ri con λRi , ove λ ∈ R∗ = R \ {0R }.

Notiamo che nella trasformazione s) la lettera s sta per scambio; nella trasformazione
λ) la lettera λ sta per prodotto per uno scalare λ; infine D sta per “determinante” e il
motivo di tale scelta sarà chiaro in seguito.

4.1. Definizione. Date due matrici A, A′ ∈ Rm,n , A′ si dice trasformata per righe di A
se A′ è ottenuta da A mediante un numero finito di successive trasformazioni elementari
sulle righe di tipo D), s), λ).

62
4.2. Proposizione. Siano A, A′ ∈ Rm,n , con A′ trasformata per righe di A. Allora lo
spazio R(A) delle righe di A e lo spazio R(B) delle righe di A′ coincidono; in particolare
ρ(A) = ρ(A′ ).

Dimostrazione. Sia A′ ottenuta da A con una trasformazione di tipo D), ad esempio


Ri −→ Ri + aRj . E’ evidente che R(A′ ) ⊆ R(A), poiché

R(A′ ) = L(R1 , . . . , Ri−1 , Ri + aRj , Ri+1 , . . . , Rm )

e
R(A) = L(R1 , . . . , Ri−1 , Ri , Ri+1 , . . . , Rm ).
Proveremo ora che R(A) ⊆ R(A′ ). Poiché le righe di A′ sono uguali a quelle di A eccetto
la i-esima, basterà provare che la i-esima riga Ri di A è combinazione lineare delle righe
di A′ . Infatti si ha Ri = (Ri + aRj ) − aRj , da cui la tesi.
I casi s) e λ) sono evidenti. Ne segue che operando successivamente un numero finito di
trasformazioni D), s), λ), lo spazio delle righe non varia. !

4.2.1. Esempio. Sia ⎛ ⎞


1 0 1
A=⎝ 2 1 −1 ⎠ .
−1 1 0
Operiamo sulle righe di A con trasformazioni di tipo D):
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
R2 →R2 −2R1 1 0 1 R3 →R3 +R1 1 0 1 R3′ →R3′ −R2′ 1 0 1
A −−−−−−−→ ⎝ 0 ⎠ ⎝
1 −3 −−−−−−−→ 0 1 −3 −−−−−−−→ 0 1⎠ ⎝ −3 ⎠ = B.
−1 1 0 0 1 1 0 0 4

La matrice B è ridotta per righe. Quindi ρ(A) = ρ(B) = 3.

L’esempio precedente indica come si può procedere in generale.

4.3. Proposizione. Sia A una matrice; esiste una opportuna successione di trasformazioni
elementari di tipo D) sulle righe, tale che la matrice B ottenuta da tale procedimento è
ridotta per righe.

Dimostrazione. Sia A = (aij ) ∈ Rm,n . Vogliamo individuare una possibile serie di trasfor-
mazioni elementari che ci permettano di passare da A ad una matrice B che goda della
proprietà (PR ).
Sia Ri la prima riga non nulla di A e sia aij il primo elemento non nullo di Ri . Per ottenere
una matrice A′ che abbia tutti zeri sotto l’elemento aij si opera, con trasformazioni di tipo
D), come segue:
Rk −→ Rk − akj aij −1 Ri
per ogni k > i.
Si consideri ora la matrice A′ = (a′ij ) cosı̀ ottenuta. Si osservi che le prime i righe di A′

63
sono uguali alle corrisponenti righe di A; inoltre l’elemento a′ij = aij ha tutti zeri al di
sotto. Sia ora Rh′ la prima riga non nulla di A′ , con h > i. Sia a′hp il primo elemento non
nullo di Rh′ . Procedendo come prima, si operano le trasformazioni di tipo D):
−1
Rk′ −→ Rk′ − a′kp a′hp Rh′

per ogni k > h.


Si ottiene dunque una matrice A′′ . Iterando il procedimento (un numero finito di volte) si
perviene ad una matrice B, che è ridotta per righe in quanto gode della proprietà (PR ). !

4.4. Definizione. Si dice riduzione per righe (rispettivamente riduzione per colonne) di
una matrice A, una successione di trasformazioni elementari sulle righe (risp. colonne) tale
che la matrice A′ ottenuta alla fine del procedimento è ridotta per righe (risp. colonne).

4.5. Osservazione. Nella dimostrazione di 4.3 si sono utilizzate solo trasformazioni


elementari di tipo D). Tuttavia in alcuni casi, per semplificare i calcoli, può essere utile
impiegare anche trasformazioni di tipo s) e λ).

4.5.1. Esempio. Riduciamo per righe la matrice


⎛ ⎞
0 1 0 0
⎜0 1 2 −1 ⎟
A=⎝ ⎠.
0 0 0 9
1 3 1 5

Tale matrice si può ridurre operando come in 4.3 con sole trasformazioni di tipo D). In
questo caso è però conveniente scambiare la prima con la quarta riga. Infatti si ha:
⎛ ⎞
1 3 1 5
R1 ↔R4
⎜ 0 1 2 −1 ⎟
A −−−−−−−→ ⎝ ⎠ = B.
0 0 0 9
0 1 0 0

Come si può osservare, B è già ridotta per righe; segue che ρ(A) = ρ(B) = 4.

4.5.2. Esempio. Si consideri la matrice


⎛ ⎞
2 1 −1 1

A= 3 1 1 −1 ⎠ .
0 1 1 9

Per ridurre A si può operare iniziando con la trasformazione di tipo D): R2 → R2 − 3/2R1
ottenendo ⎛ ⎞
2 1 −1 1
A′ = ⎝ 0 −1/2 5/2 −5/2 ⎠ .
0 1 1 9

64
E’ evidente che, continuando la riduzione come al solito, i calcoli si complicano sempre più,
poiché i coefficienti della matrice non sono interi. A tale fatto si può ovviare, ad esempio,
come segue:
⎛ ⎞ ⎛ ⎞
R2 →2R2 2 1 −1 1 R3′ →R2′ +R3′ 2 1 −1 1
A −−−−−−−→ ⎝ 0 −1 5 −5 ⎠ −−−−−−−→ ⎝ 0 −1 5 −5 ⎠
0 1 1 9 0 0 6 4

una TSC da cui ρ(A) = 3.

Quanto visto sopra risolve il problema iniziale del calcolo del rango di una matrice
qualsiasi; infatti si ha:

4.6. Osservazione. Se A′ è ottenuta da A mediante riduzione (per righe o per colonne),


segue immediatamente da 4.2 che R(A′ ) = R(A) e, in particolare, che ρ(A′ ) = ρ(A).

La più semplice applicazione della riduzione di matrici è la determinazione della di-


mensione e di una base di un sottospazio vettoriale.

Sia V = L(v1 , . . . , vr ) un sottospazio vettoriale di Rn . Ci proponiamo di determinare


la dimensione e una base di V . A tale scopo associamo in modo naturale al sistema di
generatori v1 , . . . , vr di V una matrice, le cui righe (o colonne) sono i vettori suddetti:
⎛ ⎞
v1
.
A = ⎝ .. ⎠ oppure B = ( v1 ··· vr ) .
vr

Utilizziamo, ad esempio, la prima di queste due rappresentazioni, dunque R(A) = V .


Riduciamo A per righe, ottenendo una matrice
⎛ ⎞
w1
.
A′ = ⎝ .. ⎠ .
wr

Da 4.6 abbiamo: dim(V ) = dim(R(A)) = ρ(A) = ρ(A′ ), cioè dim(V ) è uguale al numero
di righe non nulle di A′ . Inoltre le righe non nulle di A′ costituiscono una base di V , in
quanto V = R(A) = R(A′ ).

Vediamo alcuni esempi.

4.6.1. Esempio. Si consideri l’insieme I = {v1 , v2 , v3 , v4 , v5 } di vettori di R4 , dove v1 =


(1, −1, 2, 1), v2 = (−2, 2, −4, −2), v3 = (1, 1, 1, −1), v4 = (−1, 3, −3, −3), v5 = (1, 2, 1, 2).
Posto V = L(I) ⊂ R4 :

65
a) determinare una base B di V , con B ⊂ I;
b) completare B ad una base C di R4 .
a) Sia A la matrice le cui righe sono costituite dai vettori di I, cioè
⎛ ⎞ ⎛ ⎞
v1 1 −1 2 1
⎜ v2 ⎟ ⎜ −2 2 −4 −2 ⎟
⎜ ⎟ ⎜ ⎟
A = ⎜ v3 ⎟ = ⎜ 1 1 1 −1 ⎟ .
⎝ ⎠ ⎝ ⎠
v4 −1 3 −3 −3
v5 1 2 1 2
Riducendo A per righe si ha:
⎛ ⎞
R2 →R2 +2R1 1 −1 2 1
R3 →R3 −R1 ⎜0 0 0 0 ⎟
⎜ ⎟
A −−−−−−−→ ⎜0 2 −1 −2 ⎟ = A′
⎝ ⎠
R4 →R4 +R1 0 2 −1 −2
R5 →R5 −R1 0 3 −1 1
e ancora ⎛ ⎞
1 −1 2 1
R4′ →R4′ −R3′ ⎜0 0 0 0 ⎟
⎜ ⎟
A′ −−−−−−−→ ⎜0 2 −1 −2 ⎟ = A′′
⎝ ⎠
R5′ →2R5′ −3R3′ 0 0 0 0
0 0 1 8
da cui segue ρ(A) = 3 e quindi dim(V ) = 3. Inoltre una base per V è ad esempio data
dalle 3 righe non nulle di A′′ , poiché R(A) = R(A′′ ). Invece la base B richiesta è data dai
vettori di A corrispondenti alle 3 righe non nulle di A′′ , cioè B = (v1 , v3 , v5 ). Si consideri
infatti la matrice ⎛ ⎞
v1
B = v3 ⎠

v5
e si osservi che con le stesse trasformazioni operate nella riduzione precedente si ottiene la
matrice ⎛ ⎞
1 −1 2 1
B ′′ = ⎝ 0 2 −1 −2 ⎠ .
0 0 1 8
b) Completiamo B ad una base di R4 utilizzando vettori (in questo caso ne basta uno)
della base canonica. E’ sufficiente aggiungere alla matrice B ′′ una riga costituita dalle
componenti di un vettore della base canonica in modo che la matrice ottenuta sia ancora
ridotta; ad esempio con e4 si ha:
⎛ ⎞ ⎛ ⎞
v1 1 −1 2 1
⎜ v3 ⎟ ⎜ 0 2 −1 −2 ⎟
⎝ ⎠ −→ ⎝ ⎠.
v5 0 0 1 8
e4 0 0 0 1

66
Quindi C = (v1 , v3 , v5 , e4 ).

4.6.2. Esempio. Sia I = {v1 , v2 , v3 , v4 } ⊂ R4 dato da v1 = (0, 1, 2, 1), v2 = (0, 1, 1, 1),


v3 = (0, 2, 3, 2), v4 = (1, 2, 2, 1). Posto V = L(I) ⊂ R4 :
a) determinare una base B di V , con B ⊂ I;
b) completare B ad una base C di R4 .
a) Sia A la matrice le cui righe sono costituite dai vettori di I. Riducendo A per righe si
ha: ⎛ ⎞ ⎛ ⎞
v1 0 1 2 1
⎜v ⎟ ⎜0 1 1 1⎟
A=⎝ 2⎠=⎝ ⎠.
v3 0 2 3 2
v4 1 2 2 1
Conviene operare lo scambio R1 ↔ R4 e poi ridurre come di consueto:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 2 2 1 1 2 2 1 1 2 2 1
⎜0 1 1 1 ⎟ R3 →R3 −2R2 ⎜ 0 1 1 1 ⎟ −−−−−−→ ⎜ 0 1 1 1⎟
⎝ ⎠ −−−−−−→ ⎝ ⎠ ⎝ ⎠
0 2 3 2 R4 →R4 −R2 0 0 1 0 R4 →R4 −R3 0 0 1 0
0 1 2 1 0 0 1 0 0 0 0 0
Tenendo conto dello scambio operato e ragionando come nell’esempio precedente, si ha:
B = (v4 , v2 , v3 ).
b) Come in 4.6.1, si ha
⎛ ⎞ ⎛ ⎞
v4 1 2 2 1
⎜ v2 ⎟ ⎜0 1 1 1⎟
⎝ ⎠ −→ ⎝ ⎠,
v3 0 0 1 0
e4 0 0 0 1
da cui risulta C = (v4 , v2 , v3 , e4 ).

4.6.3. Esempio. Con i dati di 4.6.2, vogliamo determinare una base B ⊂ I con il metodo
degli scarti successivi.
Risolveremo tale esercizio con la riduzione di matrici; come al solito sia
⎛ ⎞ ⎛ ⎞
v1 0 1 2 1
⎜v ⎟ ⎜0 1 1 1⎟
A=⎝ 2⎠=⎝ ⎠.
v3 0 2 3 2
v4 1 2 2 1
Si osservi che in 4.6.2 si è operato lo scambio R1 ↔ R4 per semplificare i calcoli; tale
operazione non è in questo caso consentita, poichè condurrebbe ad una base che non
contiene v1 che, invece, essendo non nullo, fa parte della base ottenuta con il metodo degli
scarti successivi. Riduciamo quindi A per righe:
⎛ ⎞ ⎛ ⎞
R2 →R2 −R1 0 1 2 1 0 1 2 1
−−−−−−−→ ⎜ 0 0 −1 0 ⎟ −−−−−−−→ ⎜ 0 0 −1 0 ⎟
A ⎝ ⎠ ⎝ ⎠.
R3 →R3 −2R1 0 0 −1 0 R3′ →R3′ −R2′ 0 0 0 0
R4 →R4 −R1 1 1 0 0 1 1 0 0

67
La base ottenuta è dunque (v1 , v2 , v4 ). Infatti si verifica facilmente che v3 è combinazione
lineare di v1 e v2 . Per vederlo si osservi che R3′ − R2′ = 0, che R3′ = R3 − 2R1 e che
R2′ = R2 − R1 ; da cui risulta R3 − R2 − R1 = 0 e quindi v3 = v1 + v2 .

Il metodo introdotto per ottenere una base di un sottospazio di Rn (ed un suo eventuale
completamento ad una base di Rn ) si può estendere ad uno spazio vettoriale qualunque,
passando attraverso le componenti dei vettori in esame, rispetto ad una base fissata.

4.6.4. Esempio. Sia V = L(I) ⊂ R2,3 con I = {M1 , M2 , M3 , M4 } dove


! " ! "
1 1 1 1 2 1
M1 = , M2 = ,
0 1 0 0 1 1
! " ! "
2 3 2 0 1 1
M3 = , M4 = .
0 2 1 0 1 −1

a) Determinare una base B di V , con B ⊂ I;


b) completare B ad una base C di R2,3 .
a) Per poter impiegare la riduzione di matrici anche in questo caso, è necessario “rappre-
sentare” le matrici M1 , M2 , M3 , M4 come vettori riga: tali righe saranno date dalle com-
ponenti delle matrici Mi rispetto ad una base fissata. Sia E = (Eij | i = 1, 2; j = 1, 2, 3) la
base di R2,3 introdotta in 1.3. Si ha
M1 = E11 + E12 + E13 + E22 = (1, 1, 1, 0, 1, 0)E .
Operando analogamente con le altre matrici Mi si ha la matrice delle componenti:
⎛ ⎞ ⎛ ⎞
M1 1 1 1 0 1 0
⎜ M ⎟ ⎜1 2 1 0 1 1 ⎟
A=⎝ 2⎠=⎝ ⎠.
M3 2 3 2 0 2 1
M4 0 1 1 0 1 −1
Riducendo per righe si ha
⎛ ⎞ ⎛ ⎞
1 1 1 0 1 0 1 1 1 0 1 0
⎜0 1 0 0 0 1 ⎟ ⎜0 1 0 0 0 1⎟
A −→ ⎝ ⎠ −→ ⎝ ⎠.
0 1 0 0 0 1 0 0 0 0 0 0
0 1 1 0 1 −1 0 2 1 0 1 0
Quindi B = (M1 , M2 , M4 ).
b) Completiamo B ad una base C di R2,3 con 3 elementi di E:
⎛ ⎞ ⎛ ⎞
M1 1 1 1 0 1 0
⎜ M2 ⎟ ⎜0 1 0 0 0 1⎟
⎜ ⎟ ⎜ ⎟
⎜ M4 ⎟ ⎜0 2 1 0 1 0⎟
⎜ ⎟ −→ ⎜ ⎟.
⎜ E13 ⎟ ⎜0 0 1 0 0 0⎟
⎝ ⎠ ⎝ ⎠
E21 0 0 0 1 0 0
E22 0 0 0 0 1 0

68
VI - SISTEMI LINEARI

1. Concetti fondamentali

1.1. Definizione. Un’equazione in n incognite x1 , . . . , xn a coefficienti in R si dice lineare


se è della forma:
a 1 x1 + · · · + a n x n = b
con ai ∈ R e b ∈ R. Una sua soluzione è un elemento (α1 , . . . , αn ) di Rn tale che:

a1 α1 + · · · + an αn = b.

1.1.1. Esempio. Si verifica facilmente che l’equazione a coefficienti reali

3x1 − 2x2 + 7x3 = 1

ha come soluzione (2, 6, 1) ∈ R3 . Si osservi che tale soluzione non è unica.

1.2. Definizione. Un insieme di m equazioni lineari nelle n incognite x1 , . . . , xn a


coefficienti in R si dice sistema lineare di m equazioni in n incognite.
Si userà la seguente notazione:

⎪ a11 x1 + a12 x2 + ... + a1n xn = b1

⎨ a21 x1 + a22 x2 + ... + a2n xn = b2
Σ: .. .. .. ..

⎩ .
⎪ . . .
am1 x1 + am2 x2 + ... + amn xn = bm

Una soluzione di un dato sistema lineare è una n-upla (α1 , . . . , αn ) di Rn che è soluzione
di ogni equazione del sistema. L’insieme delle soluzioni del sistema Σ è un sottoinsieme di
Rn , detto spazio delle soluzioni di Σ e denotato con SΣ .
Un sistema si dirà compatibile o risolubile se ammette soluzioni (cioè se SΣ ̸= ∅); se invece
non ha soluzioni, cioè SΣ = ∅, si dirà incompatibile.

1.2.1. Esempio. Il sistema <


x+y =0
x−y =2

ha come soluzione (1, −1).

1.3. Osservazione. Non tutti i sistemi lineari hanno soluzioni. Ad esempio, il sistema
<
x+y =0
x+y =1

69
non ha soluzioni.

Lo scopo di questo capitolo è di stabilire se un sistema lineare è compatibile e, in tal


caso, di determinare tutte le sue soluzioni.

1.4. Definizione. Al sistema lineare Σ si possono associare in modo naturale le seguenti


matrici:
1. A = (aij ) ∈ Rm,n , detta matrice del sistema o matrice dei coefficienti di Σ;
2. B = t (b1 , . . . , bm ) ∈ Rm,1 detta matrice dei termini noti.
Si userà anche la notazione
⎛ * ⎞
a11 a12 ... a1n * b1
*
⎜ a21 a22 ... a2n * b2 ⎟
(A, B) = (aij | bi ) = ⎜
⎝ ... .. .. *
* .. ⎟
. . * . ⎠
*
am1 am2 ... amn bm

per la matrice completa di Σ.


Utilizzando queste matrici, si può rappresentare il sistema Σ nel modo seguente:
⎛ ⎞⎛ ⎞ ⎛ ⎞
a11 a12 ... a1n x1 b1
⎜ a21 a22 ... a2n ⎟ ⎜ x2 ⎟ ⎜b ⎟
Σ:⎜ .. ⎟ ⎜ . ⎟ = ⎜ .2 ⎟
⎝ ... ..
. . ⎠ ⎝ .. ⎠ ⎝ .. ⎠
am1 am2 ... amn xn bm

o, più brevemente,
Σ : AX = B
dove X = t (x1 , . . . , xn ) è la matrice formale delle incognite (il termine “formale” significa
che X non è un elemento di Rn,1 , ma un simbolo che denota una n-upla di incognite).

1.5. Definizione. Due sistemi lineari Σ e Σ′ si dicono equivalenti se hanno le stesse


soluzioni, cioè, in simboli: Σ ∼ Σ′ se SΣ = SΣ′ .

1.6. Osservazione. Siano AX = B e A′ X = B ′ due sistemi lineari; essi sono banalmente


equivalenti in uno dei seguenti casi:
i) se la matrice (A′ , B ′ ) si ottiene aggiungendo ad (A, B) delle righe nulle;
ii) se la matrice (A′ , B ′ ) si ottiene permutando le righe di (A, B).

Ad esempio i seguenti sistemi sono chiaramente equivalenti:


< <
x+y =0 x−y =2
, .
x−y =2 x+y =0

70
2. Risoluzione dei sistemi ridotti

2.1. Definizione. Un sistema lineare AX = B si dice ridotto se la sua matrice dei


coefficienti A è ridotta per righe.
La risoluzione di un sistema ridotto è particolarmente semplice, come mostrano i
seguenti esempi:

2.1.1. Esempio. Il sistema Σ : AX = B dato da:


⎧ ⎛ * ⎞
⎨ x + y + 2z = 4
⎪ 1 1 2 * 4
*
Σ: y − 2z = −3 ⎝
con (A, B) = 0 1 −2 * −3 ⎠
⎪ *
⎩ 0 0 1 * 2
z=2

è ridotto ed ammette una sola soluzione (x, y, z) = (−1, 1, 2), come si verifica facilmente
sostituendo il valore di z = 2 nella seconda equazione, determinando y = 1; infine si
sostituiscono tali valori di y e z nella prima equazione, ottenendo x = −1.

2.1.2. Esempio. Il sistema a coefficienti reali


⎧ ⎛ * ⎞
⎨ 2x + y + 2z + t = 1 2 1 2 1 ** 1
Σ: 2x + 3y − z = 3 con (A, B) = ⎝ 2 3 −1 0 ** 3 ⎠

x+ z = 0 1 0 1 0 *0

si risolve sostanzialmente come in 2.1.1, partendo dall’ultima equazione z = −x. Ponendo


x = τ , si determinano le soluzioni, che sono: (x, y, z, t) = (τ, −τ + 1, −τ, τ ) con τ ∈ R. In
tal caso ci sono infinite le soluzioni e, più precisamente, corrispondono biiettivamente a R.

2.1.3. Esempio. Il sistema Σ : AX = B associato alla matrice


⎛ * ⎞
1 2 1 *3
*
⎜ 0 −1 2 * 1 ⎟
(A, B) = ⎝ * ⎠
0 0 3 *2
*
0 0 0 1

è chiaramente incompatibile poiché l’ultima equazione risulta essere 0 = 1.

2.2. Osservazione. Negli esempi 2.1.1 e 2.1.2 si sono “eliminate” le incognite corrispon-
denti agli elementi speciali selezionati nella matrice A, qui riportati in grassetto, partendo
dal basso verso l’alto:
⎛ * ⎞
1 1 2 ** 4
(A, B) = ⎝ 0 1 −2 ** −3 ⎠ =⇒ si elimina z, poi y e poi x.
0 0 1 * 2

71
Nell’altro esempio
⎛ * ⎞
2 1 2 1 *1
*
(A, B) = ⎝ 2 3 −1 0 *3 ⎠ =⇒ si elimina z, poi y e poi t.
*
1 0 1 0 *0

Gli esempi precedenti suggeriscono, in modo naturale, il seguente

2.3. Metodo delle eliminazioni successive. Sia Σ : AX = B un sistema ridotto.


1. Per l’osservazione 1.6(i), si può supporre che (A, B) non abbia righe nulle e che la
matrice A ∈ Rm,n sia ridotta per righe.
2. Se A ha righe nulle, poiché (A, B) non ha righe nulle, Σ avrà equazioni del tipo 0 = bi ,
con bi ̸= 0, quindi il sistema è incompatibile, cioè SΣ = ∅.
3. Se A non ha righe nulle allora m ≤ n. Quindi, essendo ridotta, ha m elementi speciali
(dunque è di rango m). Si eliminano quindi le incognite corrispondenti a tali elementi
speciali, partendo dall’ultima equazione e risalendo fino alla prima. Per semplicità,
vediamo il procedimento esplicito nel caso in cui A è TSC:
⎛ * ⎞
a11 a12 a13 . . . a1m ∗ . . . ∗ a1n * b1
*
⎜ 0 a22 a23 . . . a2m ∗ . . . ∗ a2n * b2 ⎟
⎜ * ⎟
(A, B) = ⎜ 0 0 a33 . . . a3m ∗ . . . ∗ a3n * b3 ⎟ .
⎜ . .. .. .. .. .. .. * .. ⎟
*
⎝ .. . . . . . . * . ⎠
*
0 0 0 . . . amm ∗ . . . ∗ amn bm
Osserviamo che l’ultima equazione del sistema AX = B è della forma:

amm xm + amm+1 xm+1 + · · · + amn xn = bm ,

con amm ̸= 0. Dividendo ambo i membri per amm , si ricava:

xm = −a−1
mm (amm+1 xm+1 + · · · + amn xn − bm );

si osservi come xm risulti espressa in funzione di xm+1 , . . . , xn .


Analogamente, dalla penultima equazione, si ricava:

xm−1 = −a−1
m−1m−1 (am−1m xm + am−1m+1 xm+1 + · · · + am−1n xn − bm−1 ).

Sostituendo l’espressione di xm precedentemente calcolata, si ottiene xm−1 in funzione


di xm+1 , . . . , xn .
Iterando tale procedimento, si ricavano le incognite xm−2 , xm−3 , . . . , x1 in successione,
in funzione di xm+1 , . . . , xn .

2.4. Osservazione – Definizione. Consideriamo il caso particolare descritto nel Metodo


precedente, in cui il sistema ridotto Σ : AX = B sia compatibile, con (A, B) senza righe

72
nulle e A ∈ Rm,n sia TSC. Abbiamo visto che le m incognite x1 , . . . , xm sono espresse
in funzione delle restanti n − m : xm+1 , . . . , xn ; queste ultime si dicono incognite libere.
Infatti, ogni qualvolta fissiamo xm+1 = λ1 , . . . , xn = λn−m con λi ∈ R, otteniamo una
particolare soluzione del sistema.
Questo accade in generale, anche se A è ridotta ma non necessariamente TSC. In tal modo
si definisce una corrispondenza biunivoca
1−1
Rn−m −−−−→ SΣ

dove n è il numero delle incognite di Σ e m = ρ(A), il rango di A.


Si dirà anche che il sistema ha ∞n−m soluzioni.

3. Risoluzione dei sistemi lineari generali

Dato un qualunque sistema lineare AX = B, uno dei possibili metodi di risoluzione


usa il procedimento di riduzione per righe delle matrici. Più precisamente si ha il seguente

3.1. Teorema. Sia Σ : AX = B un sistema lineare e sia (A′ , B ′ ) una matrice trasformata
per righe di (A, B). Allora i sistemi Σ e Σ′ : A′ X = B ′ sono equivalenti.

Dimostrazione. Come al solito, siano A = (aij ) e B = t (b1 , . . . , bm ).


Se (A′ , B ′ ) è ottenuta da (A, B) con una trasformazione di tipo s, la tesi è ovvia come già
visto in 1.6.
Se (A′ , B ′ ) è ottenuta da (A, B) con una trasformazione di tipo λ sulla riga Ri , la tesi
segue dal fatto che l’equazione lineare

ai1 x1 + · · · + ain xn = bi

è equivalente all’equazione

λai1 x1 + · · · + λain xn = λbi

per ogni λ ̸= 0.
Sia ora (A′ , B ′ ) ottenuta da (A, B) con una trasformazione di tipo D:

Ri −→ Ri + λRj

con j ̸= i. Per semplicità, possiamo supporre i = 2 e j = 1. Dunque


⎛ ⎞
R1
⎜ R2 + λR1 ⎟
(A′ , B ′ ) = ⎜
⎝ .. ⎟.

.
Rm

73
Sia ora α = (α1 , . . . , αn ) una soluzione di Σ, cioè valgono le identità:

ai1 α1 + · · · + ain αn = bi (∗i )

per ogni i = 1, . . . , m. E’ chiaro che α è soluzione di tutte le equazioni di Σ′ , eccetto al


più la seconda. Basta quindi provare che α verifica

(a21 + λa11 )x1 + · · · + (a2n + λa1n )xn = b2 + λb1 .

A tale scopo si sommino, membro a membro, l’eguaglianza (∗2 ) e λ volte l’eguaglianza


(∗1 ), ottenendo:

(a21 + λa11 )α1 + · · · + (a2n + λa1n )αn = b2 + λb1 .

Pertanto (α1 , . . . , αn ) è soluzione di Σ′ , quindi SΣ ⊆ SΣ′ . In modo analogo si prova l’altra


inclusione. !

3.2. Metodo di risoluzione dei sistemi lineari.


Dato il sistema lineare Σ : AX = B, per determinare SΣ si procede come segue:
1. Si riduce per righe la matrice (A, B), ottenendo la matrice (A′ , B ′ ), con A′ ridotta per
righe.
2. Si determina lo spazio delle soluzioni SΣ′ di Σ′ : A′ X = B ′ (usando il metodo di
risoluzione dei sistemi ridotti).
3. Per 3.1, Σ ∼ Σ′ , cioè SΣ = SΣ′ .

3.2.1. Esempio. Risolviamo il sistema lineare



⎨ 2x + y + z = 1
Σ: x−y−z = 0 .

x + 2y + 2z = 1

Riducendo per righe la matrice completa


⎛ * ⎞
2 1 1 *1
*
(A, B) = ⎝ 1 −1 −1 *0 ⎠
*
1 2 2 *1

si ha:
⎛ * ⎞ ⎛ * ⎞
R2 →R2 +R1 2 1 1 ** 1 2 1 1 ** 1
(A, B) −−−−−−−−→ ⎝ 3 0 0 ** 1 ⎠ R3 →R3 +R2 ⎝ 3 0 0 ** 1 ⎠ = (A′ , B ′ ).
−−−−−−−−→
R3 →R3 −2R1 −3 0 0 * −1 0 0 0* 0

74
Poiché A′ è ridotta, il sistema Σ′ : A′ X = B ′ è ridotto e quindi risolubile col metodo delle
eliminazioni successive:
) )
′ 2x + y + z = 1 y + z = 1/3
Σ : =⇒ .
3x = 1 x = 1/3

E’ chiaro che tale sistema ha una sola incognita libera e dunque il sistema ha ∞1 soluzioni;
si può scegliere, ad esempio, z e in tal caso, ponendo z = λ, lo spazio delle soluzioni di Σ
ha la forma:

SΣ = {(x, y, z) ∈ R3 | (x, y, z) = (1/3, 1/3 − λ, λ), λ ∈ R}.

Se, invece, si sceglie y come incognita libera, posto y = α, lo spazio delle soluzioni di Σ ha
la forma:
SΣ = {(x, y, z) ∈ R3 | (x, y, z) = (1/3, α, 1/3 − α), α ∈ R}.
Ovviamente le due espressioni precedenti rappresentano, in modi diversi, lo stesso sottoin-
sieme SΣ di R3 . Si noti che il numero delle incognite libere coincide con la differenza tra
il numero delle incognite ed il rango di A.

3.2.2. Esempio. Risolviamo il sistema lineare



⎨ x + y − z = 0
Σ: 2x − y = 1 .

y + 2z = 2

Riducendo per righe la matrice completa


⎛ * ⎞
1 1 −1 *0
*

(A, B) = 2 −1 0 *1 ⎠
*
0 1 2 *2

si ha:
⎛ * ⎞ ⎛ * ⎞
1 1 −1 ** 0 1 1 −1 ** 0
(A, B) R2 →R2 −2R1 ⎝ 0 −3 2 ** 1 ⎠ R3 →R3 −R2 ⎝ 0 −3 2 ** 1 ⎠ = (A′ , B ′ ).
−−−−−−−−→ −−−−−−−−→
0 1 2 * 2 0 4 0 * 1

Poiché A′ è ridotta, il sistema Σ′ : A′ X = B ′ è ridotto; inoltre il numero delle incognite


libere è zero, dunque Σ′ , e quindi Σ, ha ∞0 = 1 soluzione. Come al solito possiamo
determinarla col metodo delle eliminazioni successive:
⎧ ⎧
⎨x − y + z = 0 ⎨x −z = −1/4

Σ : − 3y + 2z = 1 =⇒ 2z = 7/4
⎩ ⎩
4y = 1 y = 1/4

da cui (x, y, z) = (5/8, 1/4, 7/8). Ancora una volta si noti che il numero delle incognite
libere è dato da 3 − ρ(A) = 0, dove 3 è il numero delle incognite.

75
L’esempio seguente riguarda la discussione di un sistema con parametro: i coefficienti
non sono numeri reali, come nei casi visti in precedenza, ma possono contenere un simbolo
(parametro) che varia in R. La discussione di tali sistemi consiste nel determinare tutti i
valori del parametro per i quali il sistema è risolubile e nel trovare tutte le soluzioni del
sistema in corrispondenza di tali valori.

3.2.3. Esempio. Discutere il seguente sistema lineare nel parametro λ ∈ R:



⎪ x + 2y + z + t = −1

x + y − z + 2t = 1
Σλ : .

⎩ 2x + λy + λt = 0
− λy − 2z + λt = 2

Se si vuole risolvere il sistema con il solito metodo della riduzione per righe, bisogna fare
attenzione quando vengono usate espressioni che coinvolgono il parametro λ:
⎛ ⎞ ⎛ ⎞
1 2 1 1 −1 1 2 1 1 −1
⎜1 1 −1 2 1 ⎟ R2 →R2 −R1 ⎜0 −1 −2 1 2 ⎟
(A, B) = ⎝ ⎠ −−−−−−−→ ⎝ ⎠ −→
2 λ 0 λ 0 0 λ − 4 −2 λ − 2 2
R3 →R3 −2R1
0 −λ −2 λ 2 0 −λ −2 λ 2
⎛ ⎞
1 2 1 1 −1
R3 →R3 −R2
⎜0 −1 −2 1 2 ⎟ ′ ′
−−−−−−−→ ⎝ ⎠ = (A , B ).
0 λ−3 0 λ−3 0
R4 →R4 −R2
0 −λ + 1 0 λ − 1 0

A questo punto è utile eliminare da una delle ultime due righe il parametro λ. Ad esempio,
operando la trasformazione R3 → R3 + R4 e, successivamente, R4 → 2R4 − (λ − 1)R3 , la
matrice (A′ , B ′ ) (dopo aver ulteriormente diviso la terza riga per 2 e la quarta per −2)
diventa:
⎛ ⎞ ⎛ ⎞
1 2 1 1 −1 1 2 1 1 −1
⎜0 −1 −2 1 2 ⎟ ⎜0 −1 −2 1 2 ⎟
⎝ ⎠ −→ ⎝ ⎠
0 −2 0 2λ − 4 0 0 −2 0 λ − 2 0
0 −λ + 1 0 λ−1 0 0 0 0 a44 0

dove a44 = (λ − 3)(λ − 1). Si osservi che l’ultima trasformazione effettuata è corretta per
ogni λ ∈ R; infatti l’unico caso dubbio si ha per λ = 1, per il quale la trasformazione
diventa R4 → 2R4 , che è ancora accettabile.
Si noti ora che a44 = 0 se e solo se λ = 1 oppure λ = 3.
Si conclude dunque che Σλ è sempre risolubile per 2.2; inoltre:
- λ = 1, 3 ⇒ a44 = 0 ⇒ ρ(A) = 3 ⇒ Σλ ha ∞1 soluzioni;
- λ ̸= 1, 3 ⇒ a44 ̸= 0 ⇒ ρ(A) = 4 ⇒ Σλ ha una sola soluzione.

Risolviamo dunque i 3 sistemi lineari:

76
I) λ ̸= 1 e λ ̸= 3

⎪ x + 2y + z + t = −1

− y − 2z + t = 2
Σλ : .

⎩ − y + (λ − 2)t = 0
(λ − 3)(λ − 1)t = 0
Come già osservato, tale sistema ammette un’unica soluzione per ogni λ in R. Possiamo
determinarla col metodo delle eliminazioni successive: poiché (λ − 3)(λ − 1) ̸= 0, possiamo
dividere l’ultima equazione per (λ−3)(λ−1) e dunque ottenere y = 0; risalendo le equazioni
si ottiene: ⎧
⎪ x = 0

z = −1
.
⎩t = 0

y = 0
In questo esempio specifico l’unica soluzione di ogni sistema Σλ , che in generale varia con
il parametro, non dipende da λ.
II) λ = 1
In questo caso l’ultima equazione si riduce all’identità 0 = 0 e quindi viene eliminata. Si
ha quindi il sistema particolare:

⎨ x + 2y + z + t = −1
Σ1 : − y − 2z + t = 2 .

y + t = 0
Ancora col metodo delle eliminazioni successive si ottiene:

⎨x = 0
z = t−1 .

y = −t
quindi le soluzioni del sistema hanno la forma
(x, y, z, t) = (0, −α, α − 1, α).

III) λ = 3
Anche in questo caso l’ultima equazione si riduce all’identità 0 = 0 e quindi viene eliminata.
Si ha quindi il sistema particolare:

⎨ x + 2y + z + t = −1
Σ3 : − y − 2z + t = 2

− y + t = 0
da cui ⎧
⎨x = −3t
z = −1

y = t
pertanto le soluzioni di Σ3 : sono (x, y, z, t) = (−3α, α, −1, α).

Riassumiamo quanto detto precedentemente nel seguente teorema, che fornisce un


criterio generale di risolubilità dei sistemi lineari.

77
3.3. Teorema. (Rouché–Capelli). Dato il sistema lineare Σ : AX = B, si ha:
a) Σ ha soluzioni se e solo se ρ(A) = ρ(A, B).
Nel caso in cui il sistema abbia soluzioni, posti ρ := ρ(A) = ρ(A, B) e n il numero
delle incognite di Σ, si hanno i seguenti fatti:
b) le incognite libere sono n − ρ;
c) si possono scegliere come incognite libere certe n − ρ incognite se e solo se le restanti
sono corrispondenti a ρ colonne di A linearmente indipendenti.

Dimostrazione. a) Osserviamo dapprima che il sistema Σ si può scrivere come

x 1 C1 + · · · + x n Cn = B

dove C1 , . . . , Cn sono le colonne di A. Pertanto il sistema è risolubile se e solo se B è


combinazione lineare di C1 , . . . , Cn se e solo se lo spazio delle colonne di A coincide con
quello di (A, B). Quindi Σ è risolubile se e solo se ρ(A) = ρ(A, B).
b) Sia Σ′ : A′ X = B ′ il sistema ridotto ottenuto riducendo (A, B) per righe. Per 2.4. Σ′
ha n − ρ(A′ ) incognite libere. Essendo Σ e Σ′ equivalenti e ρ(A) = ρ(A′ ), ne segue la tesi.
c) Cambiando eventualmente l’ordine delle incognite, ci si può ricondurre a provare che,
posta A = (C1 , . . . , Cn ), allora

xρ+1 , . . . , xn sono libere ⇔ C1 , . . . , Cρ sono linearmente indipendenti.

Supponiamo dapprima che C1 , . . . , Cρ siano linearmente indipendenti.


Posto A = (C1 , . . . , Cρ ), riducendo opportunamente (A, B) per righe (scegliendo gli ele-
menti speciali in A), permutando eventualmente le equazioni e le prime ρ incognite, tenuto
conto del fatto che
ρ(A) = ρ(A, B) = ρ,
la matrice del sistema ottenuto è della forma:
⎛ ⎞
a11 a12 a13 ... a1ρ ∗ ... ∗ b1
⎜ 0 a22 a23 ... a2ρ ∗ ... ∗ b2 ⎟
⎜ ⎟
⎜ 0 0 a33 ... a3ρ ∗ ... ∗ b3 ⎟
⎜ . .. .. .. .. .. .. ⎟
⎜ . ⎟
⎜ . . . . . . . ⎟.
⎜ ⎟
⎜ 0 0 0 ... aρρ ∗ ... ∗ bρ ⎟
⎜ ⎟
⎜ 0 0 0 ... 0 0 ... 0 0⎟
⎜ . .. .. .. .. .. .. ⎟
⎝ .. . . . . . . ⎠
0 0 0 ... 0 0 ... 0 0

Con il metodo dell’eliminazione successiva si ha la tesi.


Viceversa, siano xρ+1 , . . . , xn incognite libere e supponiamo per assurdo che C1 , . . . , Cρ
siano linearmente dipendenti. Dunque la matrice A ha rango minore di ρ; pertanto

78
riducendo opportunamente (A, B) per righe (scegliendo gli elementi speciali in A), per-
mutando eventualmente le equazioni, la matrice del sistema ottenuto è della forma:
⎛ ⎞
a11 ... a1ρ ∗ ... ∗
⎜ .. .. .. .. ⎟
⎜ . . . .⎟
⎜ ⎟
⎜ ∗ ∗⎟.
(A , B ) = ⎜ aρ−1 1
′ ′ ... aρ−1 ρ ...

⎜ 0 ... 0 ∗ ... ∗⎟
⎜ . .. .. .. ⎟
⎝ .. . . .⎠
0 ... 0 ∗ ... ∗

Poiché ρ(A′ , B ′ ) = ρ(A, B) = ρ, esiste una riga non nulla Ri di (A′ , B ′ ), con i ≥ ρ.
L’equazione corrispondente, non comprendendo le prime ρ incognite, fornisce una relazione
tra xρ+1 , . . . , xn , che pertanto non sono libere. !

3.4. Osservazione. Se il sistema lineare di m equazioni in n incognite AX = B è


risolubile di rango ρ, allora:
i) esso è equivalente ad un sistema costituito da ρ equazioni comunque scelte fra le m
equazioni iniziali, purché linearmente indipendenti;
ii) l’insieme delle soluzioni è in corrispondenza biunivoca con Rn−ρ .

3.4.1. Esempio. Discutere il seguente sistema lineare nel parametro λ ∈ R:



⎨ λx + z = −1
Σ: x + (λ − 1)y + 2z = 1 .

x + (λ − 1)y + 3z = 0

Riducendo per righe la matrice completa:


⎛ ⎞ ⎛ ⎞
λ 0 1 −1 R2 →R2 −2R1 λ 0 1 −1
(A, B) = ⎝ 1 λ−1 2 1 ⎠ −−−−−−−→ ⎝ 1 − 2λ λ − 1 0 3 ⎠
1 λ−1 3 0 R3 →R3 −3R1 1 − 3λ λ − 1 0 3
⎛ ⎞
λ 0 1 −1
R3 →R3 −R2 ⎝
1 − 2λ λ − 1 0 3 ⎠ = (A′ , B ′ ).
−−−−−−→
−λ 0 0 0

Se λ = 1, la matrice A′ non è ridotta, dunque bisogna completare la riduzione.


Se λ ̸= 1, la matrice A′ è ridotta e si hanno i due casi:
I) λ ̸= 0: ρ(A) = 3 = ρ(A, B) ⇒ una sola soluzione.
II) λ = 0: ρ(A) = 2 = ρ(A, B) ⇒ ∞1 soluzioni.
Le soluzioni sono dunque:

79
I) λ ̸= 1, λ ̸= 0:
⎧ ⎧
⎨ λx + z = −1 ⎨z = −1

Σ : (1 − 2λ)x + (λ − 1)y = 3 ⇒ y = 3/(λ − 1)
⎩ ⎩
−λx = 0 x = 0

dunque (per ogni λ ∈ R) il sistema ha un’unica soluzione:


(x, y, z) = (0, 3/(λ − 1), −1).
II) λ = 0: ) )
z = −1 z = −1
=⇒ .
x − y = 3 x = y+3
Quindi le soluzioni sono (x, y, z) = (α + 3, α, −1) , con α ∈ R.
III) λ = 1. Dobbiamo completare la riduzione:
⎛ ⎞ ⎛ ⎞
1 0 1 −1 1 0 1 −1
(A′ , B ′ ) = ⎝ −1 0 0 3 ⎠ R3 →R3 −R2 ⎝ −1 0 0 3 ⎠ .
−−−−−−→
−1 0 0 0 0 0 0 −3

Chiaramente l’ultima equazione è 0 = −3, dunque il sistema è incompatibile.

3.4.2. Esempio. Verificare che i seguenti vettori di R3 sono linearmente indipendenti:

v1 = (1, 1, 0), v2 = (0, 1, 1), v3 = (1, 0, 1)

e inoltre esprimere v = (1, 1, 1) come combinazione lineare di v1 , v2 , v3 .

Osserviamo che v1 , v2 , v3 sono linearmente indipendenti se e solo se il rango della matrice


avente tali vettori come righe è 3. Calcoliamo dunque tale rango:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
v1 1 1 0 1 1 0 1 1 0
⎝ v2 ⎠ = ⎝ 0 1 1 ⎠ −→ ⎝ 0 1 1 ⎠ −→ ⎝ 0 1 1⎠.
v3 1 0 1 0 −1 1 0 0 2

Tale matrice è ridotta per righe ed ha 3 righe non nulle, dunque il suo rango è 3.
In particolare v1 , v2 , v3 sono 3 vettori indipendenti in R3 , quindi sono una base. Pertanto
esiste un’unica terna di coefficienti x, y, z tali che

xv1 + yv2 + zv3 = v

per ogni v ∈ R3 . Tale terna corrisponde all’unica soluzione del sistema lineare avente come
matrice completa (A, B) = (v1 v2 v3 v) (qui scritta per colonne). In questo caso particolare
⎛ * ⎞
1 0 1 ** 1
(A, B) = ⎝ 1 1 0 ** 1 ⎠ .
0 1 1 *1

80
Riducendo come al solito per righe si ha:
⎛ ⎞ ⎛ ⎞
1 0 1 1 1 0 1 1
(A, B) −→ ⎝ 0 1 −1 0 ⎠ −→ ⎝ 0 1 −1 0⎠
0 1 1 1 0 2 0 1

da cui ⎧ ⎧
⎨x + z = 1 ⎨x = 1/2
y − z = 0 e quindi z = 1/2
⎩ ⎩
2y = 1 y = 1/2
infatti 1/2(1, 1, 0) + 1/2(0, 1, 1) + 1/2(1, 0, 1) = (1, 1, 1).

3.4.3. Esempio. Sia data la matrice


! "
λ 1
Mλ = , con λ ∈ R.
1 λ

Calcolare, quando esiste, Mλ−1 , usando i sistemi lineari.

In questo caso, poiché la matrice data è 2 × 2, si può risolvere direttamente il sistema:


! "! " ! "
λ 1 x y 1 0
=
1 λ z t 0 1

cioè ⎧
⎪ λx + z = 1

x + λz = 0
Σ: .

⎩ λy + t = 0
y + λt = 1
Da cui, riducendo la matrice del sistema:
⎛ ⎞ ⎛ ⎞
λ 0 1 0 1 λ 0 1 0 1
⎜1 0 λ 0 0 ⎟ R2 →R2 −λR1 ⎜ 1 − λ2 0 0 0 −λ ⎟
(A, B) = ⎝ ⎠ ⎝ ⎠→
0 λ 0 1 0 −−−−−−−→ 0 λ 0 1 0
0 1 0 λ 1 0 1 0 λ 1
⎛ ⎞
λ 0 1 0 1
2
R4 →R4 −λR3 ⎜ 1 − λ 0 0 0 −λ ⎟ ′ ′
⎝ ⎠ = (A , B ).
−−−−−−−→ 0 λ 0 1 0
0 1 − λ2 0 0 1
Si noti che le trasformazioni di tipo D) effettuate sopra sono ammissibili per ogni λ ∈ R;
infatti, se λ = 0, lasciano le matrici inalterate. Infine è chiaro che, se 1 − λ2 ̸= 0, allora la
matrice (A′ , B ′ ) è ridotta ed inoltre il sistema è risolubile in quanto ρ(A) = ρ(A, B) = 4.

81
In tal caso esiste una sola soluzione (infatti l’inversa di una matrice è unica).
Poniamo dunque λ ̸= 1 e λ ̸= −1. Il sistema ridotto è:

⎪ λx + z = 1
⎨ 2
(1 − λ )x = −λ
Σ′ :

⎩ λy + t = 0
(1 − λ2 )y = 1
quindi ⎧
⎪ z = 1/(1 − λ2 )

x = −λ/(1 − λ2 )
.
⎩t
⎪ = −λ/(1 − λ2 )
y = 1/(1 − λ2 )
Pertanto ! "
−λ/(1 − λ2 ) 1/(1 − λ2 )
Mλ−1 = .
1/(1 − λ2 ) −λ/(1 − λ2 )
Sia ora 1 − λ2 = 0, cioè λ = ±1; la matrice (A′ , B ′ ) diventa
⎛ ⎞
±1 0 1 0 1
⎜ 0 0 0 0 ∓1 ⎟
(A′ , B ′ ) = ⎝ ⎠.
0 ±1 0 1 0
0 0 0 0 1
Dall’ultima equazione segue che il sistema è incompatibile. Abbiamo quindi provato che
Mλ−1 esiste (e l’abbiamo ricavata) se e solo se λ ̸= ±1.

4. Sistemi lineari omogenei

Una classe interessante di sistemi lineari è costituita dai sistemi lineari omogenei.

4.1. Definizione. Un sistema lineare AX = B si dice omogeneo se le equazioni che lo


costituiscono sono omogenee, cioè se B = 0.

4.2. Osservazione. Un sistema lineare omogeneo AX = 0, con A in Rm,n , è sempre


risolubile; infatti la n-upla nulla è soluzione di tutte le equazioni. A tale fatto si perviene
anche applicando il teorema di Rouché–Capelli; infatti ρ(A) = ρ(A, 0). Inoltre, sempre per
tale teorema, la n-upla nulla è l’unica soluzione se e solo se n = ρ, ove ρ denota ρ(A), il
rango di A.

4.3. Teorema. Sia Σ : AX = 0 un sistema lineare omogeneo, con A ∈ Rm,n . Allora SΣ


è un sottospazio vettoriale di Rn di dimensione n − ρ(A).

Dimostrazione. Per il criterio di sottospazio vettoriale, basta provare che, se X1 , X2 ∈ SΣ


e se λ1 , λ2 ∈ R, allora la combinazione lineare λX1 + µX2 appartiene a SΣ . Per ipotesi

82
AX1 = 0 e AX2 = 0, dunque λ(AX1 ) + µ(AX2 ) = 0. Per le proprietà del prodotto e
somma di matrici λ(AX1 ) + µ(AX2 ) = A(λX1 + µX2 ), quindi λX1 + µX2 è soluzione di
AX = 0. Pertanto SΣ è sottospazio vettoriale di Rn .
Per il teorema di Rouché–Capelli, il sistema Σ ha n − ρ(A) incognite libere; proviamo che
tale numero coincide con la la dimensione dello spazio SΣ , determinandone esplicitamente
una base di n − ρ(A) elementi.
Denotiamo al solito ρ = ρ(A). Per semplicità, supponiamo che le incognite libere siano
xρ+1 , . . . , xn e quindi che la generica soluzione del sistema abbia la forma
⎧ $n (1)

⎪ x1 = i=ρ+1 λi τi



⎪ .. ..

⎨ .
⎪ $n .
(ρ)
xρ = i=ρ+1 λi τi

⎪ xρ+1 = τρ+1



⎪ .. ..

⎩ .
⎪ .
xn = τn

dove τρ+1 , . . . , τn ∈ R. La precedente relazione si può riscrivere in forma vettoriale:

⎛ x ⎞ ⎛ (1) ⎞ ⎛ (1) ⎞ ⎛ (1) ⎞


1 λρ+1 λρ+2 λn
⎜ ... ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ . ⎟
⎜ ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ .. ⎟
⎜ x ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ (ρ) ⎟
⎜ ρ ⎟ ⎜ (ρ) ⎟ ⎜ (ρ) ⎟ ⎜ λn ⎟
⎜x ⎟ ⎜ λ ρ+1 ⎟ ⎜ λ ρ+2 ⎟ ⎜ ⎟
⎜ ρ+1 ⎟ ⎜ ⎟ ⎜ ⎟
⎜x ⎟ = τρ+1 ⎜ 1 ⎟ +τρ+2 ⎜ 0 ⎟ + · · · + τn ⎜
⎜ 0 ⎟⎟.
⎜ ρ+2 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 0 ⎟
⎜x ⎟ ⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ ⎟
⎜ ρ+3 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 0 ⎟
⎜ . ⎟ ⎜ 0 ⎟ ⎜ 0 ⎟ ⎜ ⎟
⎝ . ⎠ ⎜ . ⎟ ⎜ . ⎟ ⎝ ... ⎠
. ⎝ .
. ⎠ ⎝ .
. ⎠
xn 0 0 1
= >? @ = >? @ = >? @
v1 v2 vn−ρ

Quindi lo spazio delle soluzioni è generato dai vettori v1 , . . . , vn−ρ ; inoltre è chiaro che tali
vettori sono linearmente indipendenti e ciò conclude la dimostrazione. !

Per risolvere un sistema lineare omogeneo si procede, come nel caso generale, mediante
la riduzione della matrice associata dei coefficienti. A differenza del caso generale, poiché lo
spazio delle soluzioni è un sottospazio vettoriale di Rn , è anche interessante determinarne
una base. Dalla dimostrazione di 4.3, si deduce un modo semplice per determinare tale
base: si attribuiscono, successivamente, alle n − ρ incognite libere i valori corrispondenti
alla base canonica di Rn−ρ .

4.3.1. Esempio. Si consideri il sistema



⎨ x1 − 2x3 + x5 + x6 =0
Σ: x 1 − x2 − x3 + x4 − x5 + x6 =0

x 1 − x2 + 2x4 − 2x5 + 2x6 =0

83
Riducendo la matrice associata
⎛ ⎞
1 0 −2 0 1 1

A= 1 −1 −1 1 −1 1 ⎠
1 −1 0 2 −2 2

si ottiene:
⎛ ⎞ ⎛ ⎞
1 0 −2 0 1 1 1 0 −2 0 1 1

A→ 0 −1 1 1 −2 ⎠ ⎝
0 → 0 −1 1 1 −2 0 ⎠ = A′ .
0 −1 2 2 −3 1 0 0 1 1 −1 1

Si osservi che ρ(A) = ρ(A′ ) = 3. Inoltre, poiché le prime 3 colonne di A′ e quindi di A sono
linearmente indipendenti, per il teorema di Rouché–Capelli, si possono scegliere x4 , x5 , x6
come incognite libere.
Si consideri ora il sistema

⎨ x1 − 2x3 + x5 + x6 = 0

Σ : x2 − x3 − x4 + 2x5 =0

x3 + x4 − x5 + x6 = 0

Ponendo x4 = a, x5 = b, x6 = c si ottiene lo spazio delle soluzioni

SΣ = {(x1 , ..., x6 ) = (−2a + b − 3c, −b − c, −a + b − c, a, b, c) | a, b, c ∈ R}.

Per determinare una base di SΣ basta porre

(a, b, c) = (1, 0, 0), (0, 1, 0), (0, 0, 1),

ottenendo la base:

((−2, 0, −1, 1, 0, 0), (1, −1, 1, 0, 1, 0), (−3, −1, −1, 0, 0, 1)) .

84
VII - APPLICAZIONI LINEARI

1. Concetti fondamentali

Abbiamo già osservato che R3 e VO 3


hanno la “stessa struttura” di spazio vettoriale, cioè
sono isomorfi, e come R “assomigli” a R6 . In questo capitolo cercheremo di precisare tali
2,3

situazioni, studiando relazioni tra spazi vettoriali. Tali relazioni saranno implementate da
matrici: una matrice viene usata come una operazione che trasforma vettori in uno spazio
vettoriale in altri vettori che, in generale, appartengono ad un differente spazio vettoriale.
! "
a b
1.1.1. Esempio. Sia A = ∈ R2,2 . Consideriamo l’applicazione
c d

f : R2 −→ R2 definita da f (X) = AX,

ove X = t (x, y) è un vettore colonna e AX indica l’usuale prodotto righe per colonne:
! "! " ! "
a b x ax + by
f (X) = = = t (ax + by, cx + dy).
c d y cx + dy

Se X = (x1 , x2 ), Y = (y1 , y2 ) sono elementi di R2 , usando le proprietà della moltiplicazione


di matrici si verifica facilmente che f (X + Y ) = f (X) + f (Y ). Infatti si ha:

f (X + Y ) = A(X + Y ) = AX + AY = f (X) + f (Y ).

Analogamente si verifica che, se λ ∈ R, allora f (λX) = λf (X).

Generalizziamo l’esempio precedente al caso di una matrice qualunque.


1.1.2. Esempio. Sia A = (aij ) ∈ Rm,n e si consideri l’applicazione f : Rn −→ Rm
definita da f (X) = AX, ove con X si intende il vettore colonna t (x1 , . . . , xn ) e con AX
l’usuale prodotto righe per colonne. Dalle proprietà del prodotto di matrici, come prima
si verificano facilmente le relazioni: f (X + Y ) = f (X) + f (Y ) per ogni X, Y ∈ Rn , e
f (λX) = λf (X) per ogni X ∈ Rn , λ ∈ R.
! "
1 2 1
1.1.3. Esempio. Sia A = ∈ R2,3 . Allora f : R3 −→ R2 è data da
1 −1 0
f (x, y, z) = (x + 2y + z, x − y).

1.2. Definizione. Siano V e W due R-spazi vettoriali. Un’applicazione f : V −→ W si


dice lineare se gode delle seguenti proprietà:

(L1 ) f (X + Y ) = f (X) + f (Y ) ∀ X, Y ∈ Rn
(L2 ) f (λX) = λf (X) ∀ X ∈ Rn , ∀ λ ∈ R

È immediato provare alcune proprietà elementari delle applicazioni lineari.

85
1.3. Proposizione. Sia f : V −→ W un’applicazione lineare; valgono i seguenti fatti:
i) f (0V ) = 0W ;
ii) f (−v) = −f (v), per ogni v ∈ V ;
iii) f (a1 v1 + · · · + ap vp ) = a1 f (v1 ) + · · · + ap f (vp ),
per ogni v1 , . . . , vp ∈ V , per ogni a1 , . . . , ap ∈ R.

Dimostrazione. Poiché f è un’applicazione lineare, valgono le proprietà (L1 ) ed (L2 ) nella


definizione 1.2.
i) Osserviamo che 0V = 0R 0V . Dunque applicando (L2 ):

f (0V ) = f (0R 0V ) = 0R f (0V ) = 0W .

ii) Poiché −v = (−1)v, per (L2 ) si ha

f (−v) = f ((−1)v) = (−1)f (v) = −f (v).

iii) Proviamo la tesi per induzione finita su p.


Se p = 2, la tesi è vera per le proprietà (L1 ) ed (L2 ) applicate successivamente; infatti

f (a1 v1 + a2 v2 ) = f (a1 v1 ) + f (a2 v2 ) = a1 f (v1 ) + a2 f (v2 ).

Supponiamo vera la tesi per p − 1 e proviamola per p.


Posto w := a1 v1 + · · · + ap−1 vp−1 , si ha

f (a1 v1 + · · · + ap vp ) = f (w + ap vp ) = f (w) + f (ap vp ) = f (w) + ap f (vp )

dove la seconda uguaglianza segue da (L1 ) e la seconda da (L2 ).


Ma per l’ipotesi induttiva f (w) = a1 f (v1 ) + · · · + ap−1 f (vp−1 ), quindi

f (a1 v1 + · · · + ap vp ) = f (w) + ap f (vp ) = a1 f (v1 ) + · · · + ap−1 f (vp−1 ) + ap f (vp )

che è la tesi per p. !

Negli esempi 1.1.1 e 1.1.2 abbiamo visto come associare ad una matrice A ∈ Rm,n una
applicazione lineare tra Rn e Rm . Tale procedimento si può generalizzare a spazi vettoriali
qualunque usando due basi, una del dominio e una del codominio.
Infatti, siano V e W due R-spazi vettoriali e siano B = (v1 , . . . , vn ), C = (w1 , . . . , wm ) due
rispettive basi. Ad una matrice A = (aij ) ∈ Rm,n si associ l’applicazione f : V −→ W
definita come segue: per ogni v ∈ V , si può scrivere univocamente v = x1 v1 + · · · + xn vn
cioè v = (x1 , . . . , xn )B . Posto X = t (x1 , . . . , xn ), si consideri il vettore AX ∈ Rm ; si ponga
t
(y1 , . . . , ym ) = AX. Definiamo

f (v) = y1 w1 + · · · + ym wm .

86
In sintesi: ⎛ ⎛⎞⎞
x1
.
f ((x1 , . . . , xn )B ) = ⎝A ⎝ .. ⎠⎠ .
xn C

! "
1 2 1
1.3.1. Esempio. Sia A = ∈ R2,3 e siano V = R[X]2 e W = R[X]1 . Siano
1 −1 0
inoltre B = (1, X, X 2 ) e C = (1, X) basi di V e W , rispettivamente. Allora l’applicazione
lineare associata ad A è definita da

f (a + bX + cX 2 ) = (At (a, b, c))C ,

dunque
f (a + bX + cX 2 ) = (a + 2b + c, a − b)C = a + 2b + c + (a − b)X.

1.4. Proposizione. Sia f : V −→ W l’applicazione sopra definita, allora f verifica le


proprietà (L1 ) ed (L2 ), cioè f è un’applicazione lineare.

Dimostrazione. Siano v, v ′ ∈ V con v = (x1 , . . . , xn )B e v ′ = (x′1 , . . . , x′n )B . Poiché

v + v ′ = (x1 + x′1 , . . . , xn + x′n )B ,

allora, da 4.8, Cap. III,


f (v + v ′ ) = (At (x1 + x′1 , . . . , xn + x′n ))C =
= (At (x1 , . . . , xn ))C + (At (x′1 , . . . , x′n ))C = f (v) + f (v ′ ).

Analogamente si prova che, se λ ∈ R, allora f (λv) = λf (v). !

A questo punto possiamo dare la seguente fondamentale:

1.5. Definizione. Siano V e W due R-spazi vettoriali con rispettive basi B = (v1 , . . . , vn )
e C = (w1 , . . . , wm ); sia A = (aij ) ∈ Rm,n . L’applicazione lineare

fAB,C : V −→ W

che ad ogni v = x1 v1 + · · · + xn vn ∈ V associa fAB,C (v) = y1 w1 + · · · + ym wm , ove


t
(y1 , . . . , ym ) = At (x1 , . . . , xn ),

si dice applicazione lineare associata alla matrice A rispetto alle basi B e C.

1.6. Osservazione. Con le notazioni precedenti, posta fAB,C = f , si ha che le n colonne


di A sono le componenti, rispetto alla base C di W , dei vettori f (v1 ), . . . , f (vn ), ove
(v1 , . . . , vn ) è la base B di V . Infatti v1 = 1v1 + 0v2 + · · · + 0vn = (1, 0, . . . , 0)B , dunque

f (v1 ) = (At (1, 0, . . . , 0))C = t (a11 , . . . , am1 )C ;

87
quindi f (v1 ) = a11 w1 + · · · + am1 wm .
Analogamente si verifica che f (vi ) = (a1i , . . . , ami )C , per ogni i.
In particolare, se A = (aij ) ∈ Rm,n e f : Rn −→ Rm è l’applicazione lineare definita
da f (X) = AX, allora le colonne di A concidono con le immagini attraverso f dei vettori
(e1 , . . . en ) della base canonica En di Rn . Cioè, scrivendo A per colonne:

A = ( f (e1 ) f (e2 ) ··· f (en ) ) .

⎛ ⎞
1 1 −1
1.6.1. Esempio. Sia A = ⎝ 0 1 2 ⎠ e sia B = C = E3 la base canonica di R3 .
1 1 0
Consideriamo l’applicazione associata f = fAE3 ,E3 : R3 −→ R3 . Sia (x, y, z) ∈ R3 ; allora
per definizione f ((x, y, z)) = At (x, y, z) quindi f è data dalle equazioni

f ((x, y, z)) = (x + y − z, y + 2z, x + y).

Inoltre, poiché B è la base canonica si ha

f (e1 ) = (1, 0, 1), f (e2 ) = (1, 1, 1), f (e3 ) = (−1, 2, 0).

Osserviamo che f (e1 ), f (e2 ), f (e3 ) corrispondono, rispettivamente, alle colonne della ma-
trice A. Ribadiamo che tale situazione è molto particolare: infatti in generale le colonne
di A sono le componenti di f (e1 ), f (e2 ), f (e3 ) rispetto alla base C; in tale esempio C è la
base canonica e dunque le componenti di f (e1 ), f (e2 ), f (e3 ) rispetto alla base C coincidono
con le loro componenti, come vettori di R3 .

La proposizione 1.4 mostra che le applicazioni del tipo fAB,C , associate a matrici, sono
lineari. Vogliamo adesso mostrare che tutte le applicazioni lineari sono di questo tipo, cioè
vogliamo provare che, per ogni applicazione lineare f : V −→ W , fissando due basi B e C
di V e W , rispettivamente, esiste un’opportuna matrice A tale che f = fAB,C .

L’osservazione 1.6 mostra che, data una matrice A, le immagini attraverso fAB,C degli
elementi di una fissata base B di V sono individuate dalle colonne di A. Operiamo dunque
il procedimento inverso da un’appicazione lineare ad una matrice.

1.7. Definizione. Siano V e W due R-spazi vettoriali con rispettive basi B = (v1 , . . . , vn )
e C = (w1 , . . . , wm ); sia f : V −→ W un’applicazione lineare. Si dice matrice associata
ad f rispetto alle basi B e C, e si denota con MfB,C , la matrice di Rm,n le cui colonne
sono costituite dalle componenti, rispetto a C, delle immagini dei vettori della base B.
Esplicitamente, dalle espressioni
f (v1 ) = a11 w1 + · · · + am1 wm
..
.
f (vn ) = a1n w1 + · · · + amn wm

88
viene individuata la matrice A = (aij ) e si pone MfB,C = A.

Abbiamo dunque associato un’applicazione lineare ad una matrice ed una matrice ad


ogni applicazione lineare. Vogliamo mostrare che questi procedimenti sono uno

1.8. Osservazione. Come nella teoria degli insiemi, due applicazioni lineari tra gli stessi
spazi f, g : V −→ W sono uguali se e solo se f (v) = g(v), per ogni v ∈ V . Da ciò segue il
seguente risultato di cui omettiamo la dimostrazione.

1.9. Proposizione. Siano V e W due R-spazi vettoriali di dimensioni n ed m rispettiva-


mente; si fissino una base B di V e una base C di W . Allora:
i) se f : V −→ W è un’applicazione lineare, posta A = MfB,C , si ha:

fAB,C = f ;

ii) se A ∈ Rm,n è una data matrice, posta f = fAB,C , si ha:

MfB,C = A.

1.10. Proposizione. Siano V e W due R-spazi vettoriali e sia (v1 , . . . , vn ) una base di V .
Si considerino n vettori qualunque di W : {u1 , . . . , un }. Allora esiste un’unica applicazione
lineare f : V −→ W tale che f (vi ) = ui , per i = 1, . . . , n.

Dimostrazione. Si estende l’applicazione per linearità una volta definita sui vettori della
base scelta per V . Sia v un qualunque vettore di V . Allora v si scrive in modo unico come

v = a1 v1 + · · · + an vn .

Definiamo
f (v) = a1 f (v1 ) + · · · + an f (vn ) = a1 u1 + · · · + an un .
Tale applicazione è lineare per costruzione e chiaramente f (vi ) = ui per ogni i.
Per provare l’unicità, osserviamo che, se esistesse un’altra applicazione lineare g : V −→ W
tale che g(vi ) = ui , per i = 1, . . . , n, allora per 1.3 dovrebbe essere

g(v) = a1 g(v1 ) + · · · + an g(vn ) = a1 u1 + · · · + an un = f (v),

ovvero g = f come applicazione lineare. !

Dalle considerazioni precedenti, ribadiamo due modi equivalenti per definire una ap-
plicazione lineare tra due spazi vettoriali V e W .
I. Si fissano una base B di V e una base C di W ed una matrice A = (aij ) ∈ Rm,n . Per
la proposizione 1.9 è univocamente determinata l’applicazione lineare fAB,C .

89
II. Si fissa una base B = (v1 , . . . , vn ) di V ed n vettori {u1 , . . . , un } di W . Da 1.10 esiste
un’unica applicazione lineare f : V −→ W tale che f (vi ) = ui , per i = 1, . . . , n.

Notazione. Nel seguito, se V = Rn e B è la base canonica, scriveremo f ((x1 , . . . , xn ))


invece di f ((x1 , . . . , xn )B ). Analogamente se W = Rm e C è la base canonica, scriveremo
(y1 , . . . , ym ) invece di (y1 , . . . , ym )C .

Ad esempio, con la notazione appena introdotta, se f : Rn −→ Rm è un’applicazione


lineare associata alla matrice A rispetto alle basi canoniche del dominio e del codominio,
f si esprime nei seguenti modi:

f ((x1 , . . . , xn )) = At (x1 , . . . , xn )

oppure
f ((x1 , . . . , xn )) = (a11 x1 + · · · + a1n xn , . . . , am1 x1 + · · · + amn xn ).

1.10.1. Esempio. Sia f0 : V → W l’applicazione nulla, cioè f0 (v) = 0W , per ogni v ∈ V ;


e siano B e C basi di V e W , rispettivamente. Allora MfB,C
0
= 0Rm,n che è la matrice nulla.

1.10.2. Esempio. Sia idV : V −→ V l’applicazione identica definita da idV (v) = v, per
ogni v ∈ V e sia B = (v1 , . . . , vn ) una qualunque base di V . Allora

idV (vi ) = vi = (0, . . . , 0, =>?@


1 , 0, . . . , 0)B
i

per ogni i = 1, . . . , n; ad esempio

idV (v1 ) = v1 = 1v1 + 0v2 + · · · + 0vn = (1, 0, . . . , 0)B

B,B B,C
Dunque la matrice Mid V
è la matrice identica In . Si noti che, se B ̸= C, allora Mid V
non
è la matrice identica.

1.10.3. Esempio. Per R3 , consideriamo la base canonica E3 = (e1 , e2 , e3 ) e la base


B = (v1 , v2 , v3 ) dove

v1 = (0, 1, 1), v2 = (1, 0, 1), v3 = (1, 1, 0).

Allora ⎛ ⎞ ⎛ ⎞
0 1 1 −1 1 1
B,E3 ⎝ E3 ,B 1⎝
Mid = 1 0 1⎠, Mid = 1 −1 1 ⎠ .
2
1 1 0 1 1 −1
Si osservi che queste due matrici sono una l’inversa dell’altra. Ritorneremo a questo tipo
di matrici in seguito a proposito della procedura di cambio di base in uno spazio vettoriale.

90
2. Sottospazi associati ad una applicazione lineare

In questo paragrafo vedremo come ad ogni applicazione lineare sia possibile associare
in modo “canonico” un sottospazio del dominio ed un sottospazio del codominio.

2.1. Definizione. Data un’applicazione lineare f : V −→ W , si dice nucleo di f , e si


denota con ker(f ), il sottoinsieme di V definito da:

ker(f ) = {v ∈ V | f (v) = 0W }.

Si dice immagine di f , e si denota con Im(f ), il sottoinsieme di W definito da:

Im(f ) = {w ∈ W | esiste v ∈ V tale che w = f (v)}.

2.2. Teorema. Data un’applicazione lineare f : V −→ W , ker(f ) è un sottospazio vetto-


riale di V e Im(f ) è un sottospazio vettoriale di W .
In particolare Im(f ) = L(f (v1 ), . . . , f (vn )), ove (v1 , . . . , vn ) è una qualunque base di V .

Dimostrazione. Siano v, v ′ ∈ ker(f ) e λ, λ′ ∈ R. Vogliamo provare che λv + λ′ v ′ ∈ ker(f ),


cioè che f (λv + λ′ v ′ ) = 0W . Per ipotesi f (v) = 0W = f (v ′ ); dunque, applicando 1.3 iii),
si ottiene f (λv + λ′ v ′ ) = λf (v) + λ′ f (v ′ ) = 0W . Quindi ker(f ) è un sottospazio di V .
Siano ora w, w′ ∈ Im(f ) e λ, λ′ ∈ R. Per ipotesi esistono v, v ′ ∈ V tali che w = f (v) e
w′ = f (v ′ ). Dunque λw + λ′ w′ = λf (v) + λ′ f (v ′ ) = f (λv + λ′ v ′ ) ∈ Im(f ), dove l’ultima
uguaglianza si ha ancora per 1.3 iii). Quindi Im(f ) è un sottospazio di W .
Infine sia w ∈ Im(f ), cioè w = f (v) per un opportuno v ∈ V . Se (v1 , . . . , vn ) è una base di
V , si può scrivere v = a1 v1 + · · · + an vn ; dunque w = a1 f (v1 ) + · · · + an f (vn ). Pertanto
Im(f ) ⊆ L(f (v1 ), . . . , f (vn )). Il viceversa è ovvio, poiché Im(f ) è un sottospazio di W . !

Cerchiamo un metodo per determinare nucleo e immagine di una applicazione lineare.


Vediamo dapprima come determinare la dimensione del nucleo.

2.3. Proposizione. Sia f : V −→ W un’applicazione lineare tra R-spazi vettoriali asso-


ciata alla matrice A e sia dim(V ) = n. Allora

dim(ker(f )) = n − ρ(A).

Dimostrazione. Sia A = MfB,C ∈ Rm,n , dove B e C sono due basi di V e W , rispettivamente.

91
Allora si ha:
ker(f ) = {v ∈ V | f (v) = 0W } =
⎧ * ⎛ ⎛ ⎞⎞ ⎛ ⎞ ⎫
⎪ * x 0 ⎪
⎨ * 1 ⎬
* ⎝ ⎝ .. ⎠⎠ ⎝ .
. ⎠
= v = (x1 , . . . , xn )B ∈ V * A . = . =

⎩ * ⎪

* xn 0 C
C
⎧ * ⎛ ⎞ ⎛ ⎞⎫
⎨ * x1 0 ⎬
* .. ⎠ ⎝ .. ⎠
*
= (x1 , . . . , xn )B ∈ V * A ⎝ = . =
⎩ . ⎭
* 0
xn
= {(x1 , . . . , xn )B ∈ V | (x1 , . . . , xn ) ∈ SΣ }

dove SΣ è lo spazio delle soluzioni del sistema lineare omogeneo Σ : AX = 0.


Cioè ker(f ) “corrisponde” allo spazio delle soluzioni del sistema lineare omogeneo AX = 0;
qui il termine “corrisponde” significa che c’è una corrispondenza biunivoca tra i vettori
(x1 , . . . , xn )B ∈ ker(f ) e le soluzioni (x1 , . . . , xn ) del sistema precedente.
Più precisamente, tale corrispondenza biunivoca è

α : SΣ −→ ker(f )

definita da
(x1 , . . . , xn ) .→ (x1 , . . . , xn )B .
Inoltre, per 4.10, Capitolo III, α “manda” una base in una base, cioè:
⎧ ⎫

⎨ v 1 →
. (v 1 ) B ⎪

base di SΣ .
.. .
.. base di ker(f ).

⎩ ⎪

vp .→ (vp )B

In particolare
dim(ker(f )) = dim(SΣ ) = n − ρ(A)
dove l’ultima uguaglianza segue da 4.3, Capitolo VI. !

La precedente dimostrazione suggerisce il seguente

2.4. Metodo per il calcolo del nucleo. Siano V e W due R-spazi vettoriali, con basi
rispettive B e C e sia f : V −→ W un’applicazione lineare. Si ponga A = MfB,C . Per
determinare ker(f ) e una sua base, si procede come segue:
1. Si considera il sistema lineare omogeneo Σ : AX = 0 e si determina una base
(v1 , . . . , vp ) per il suo spazio delle soluzioni SΣ ;
2. per quanto visto,

ker(f ) = {(x1 , . . . , xn )B ∈ V | (x1 , . . . , xn ) ∈ SΣ }

92
e una base di ker(f ) è data da

((v1 )B , . . . , (vp )B ).

2.4.1. Esempio. Sia f : R3 −→ R3 data da

f ((x, y, z)B ) = (x + y − z, x − y + z, 2x)C

dove B = ((1, 1, 0), (0, 1, 1), (1, 0, 1)) e C è la base canonica.


Vogliamo determinare ker(f ) e una sua base, i cui vettori siano espressi sia sulla base B
sia sulla base canonica E di R3 .
⎛ ⎞
1 1 −1
Consideriamo la matrice A = MfB,C = ⎝ 1 −1 1 ⎠. Risolviamo il sistema Σ : AX = 0:
2 0 0
riducendo la matrice A per righe si ha
⎛ ⎞ ⎛ ⎞
1 1 −1 1 1 −1
A −→ ⎝ 2 0 0 ⎠ −→ ⎝ 2 0 0 ⎠ .
2 0 0 0 0 0

Pertanto lo spazio SΣ delle soluzioni di Σ è dato da

SΣ = {(0, a, a) | a ∈ R} = L((0, 1, 1)).

Quindi
ker(f ) = {(0, a, a)B | a ∈ R}
e una sua base è ((0, 1, 1)B ).
Poiché
(0, 1, 1)B = (0, 1, 1) + (1, 0, 1) = (1, 1, 2)
ne segue che la stessa base di ker(f ), espressa ora su E, è ((1, 1, 2)).

2.4.2. Esempio. Sia f : R3 −→ R3 data da

f ((x, y, z)) = (x + y − z, x − y + z, 2x).

Vogliamo determinare ker(f ). La matrice A associata all’applicazione f è la stessa dello


esempio precedente, quindi il sistema Σ : AX = 0 ha soluzioni SΣ = L((0, 1, 1)).
Poiché B è la base canonica, ker(f ) = L((0, 1, 1)B ) = L((0, 1, 1)) = SΣ .

Più in generale, un adattamento del metodo precedente permette di determinare la


controimmagine di ogni elemento w ∈ W , che, come è noto, è data da

f −1 (w) = {v ∈ V | f (v) = w}.

93
Infatti si ha:

2.5. Osservazione. Siano V e W due R-spazi vettoriali, di basi B e C rispettivamente, e


sia f : V −→ W un’applicazione lineare. Allora, posta A = MfB,C , per ogni w ∈ W , con
w = (y1 , . . . , ym )C , si ha

f −1 (w) = {(x1 , . . . , xn )B ∈ V | At (x1 , . . . , xn ) = t (y1 , . . . , ym )}.

Infatti, se v = (x1 , . . . , xn )B allora

f (v) = f ((x1 , . . . , xn )B ) = (At (x1 , . . . , xn ))C .

Dunque l’uguaglianza di vettori f (v) = w implica l’uguaglianza delle loro componenti


rispetto a C, cioè At (x1 , . . . , xn ) = t (y1 , . . . , ym ).
Tutto ciò si può interpretare col linguaggio dei sistemi lineari. Infatti, se w ∈ W ,la sua
controimmagine f −1 (w) è costituito dai vettori di V le cui componenti rispetto a B sono
gli elementi dello spazio delle soluzioni del sistema lineare AX = B, ove B è la colonna
delle componenti di w rispetto a C.

2.5.1. Esempio. Sia f : R3 −→ R3 come nell’esempio 2.4.1. Vogliamo determinare


f −1 (w), con w = (1, 1, 1). Quindi risolviamo il sistema Σ : AX = B, con B = t (1, 1, 1).
Operiamo dunque sulla matrice (A, B) per ridurre A:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 −1 1 1 1 −1 1 1 1 −1 1
(A, B) = ⎝ 1 −1 1 1 ⎠ → ⎝ 2 0 0 2 ⎠ → ⎝ 1 0 0 1 ⎠
2 0 0 1 2 0 0 1 0 0 0 1

Dunque Σ non ha soluzioni. Pertanto w ̸∈ Im(f ).


Determiniamo ora f −1 (u), con u = (2, 0, 2). Quindi risolviamo il sistema Σ : AX = B,
con B = t (2, 0, 2). Come prima:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 −1 2 1 1 −1 2 1 1 −1 2
(A, B) = ⎝ 1 −1 1 0 ⎠ → ⎝ 2 0 0 2 ⎠ → ⎝ 2 0 0 2⎠
2 0 0 2 2 0 0 2 0 0 0 0

Quindi si ottiene il sistema <


x=1
y =z+1
il cui spazio delle soluzioni è, posto z = a, SΣ = {(1, a + 1, a) | a ∈ R}. Dunque

f −1 (2, 0, 2) = {(1, a + 1, a)B | a ∈ R} = {(a + 1, a + 2, 2a + 1) | a ∈ R}.

Vediamo ora come si determina l’immagine di una applicazione lineare, utilizzando


ancora la riduzione di matrici. Dapprima osserviamo il seguente fatto:

94
2.6. Proposizione. Sia f : V −→ W un’applicazione lineare tra R-spazi vettoriali asso-
ciata alla matrice A. Allora dim(Im(f )) = ρ(A).

Dimostrazione. Sia A = MfB,C ∈ Rm,n , dove B = (v1 , . . . , vn ) è una base di V e C è una


base di W . Per 2.2, Im(f ) = L(f (v1 ), . . . , f (vn )); d’altra parte le colonne della matrice
A = MfB,C sono le componenti di f (v1 ), . . . , f (vn ) rispetto a C. Pertanto, in analogia con
quanto visto nel Metodo per il calcolo del nucleo, c’è una corrispondenza biunivoca dallo
spazio C(A) delle colonne di A all’immagine di f :

β : C(A) −→ Im(f )

definita da
(y1 , . . . , ym ) .→ (y1 , . . . , ym )C .
Inoltre, sempre per 4.10, Capitolo III, β “manda” una base in una base, cioè:
⎧ ⎫

⎨ w1 .→ (w1 )C ⎪

. .
base di C(A)
⎪ .. ..

base di Im(f ).
⎩ ⎭
wq .→ (wq )C

Pertanto
dim(Im(f )) = dim(C(A)) = ρ(A).
!

Tale risultato, e la sua dimostrazione, suggeriscono il seguente

2.7. Metodo per il calcolo dell’immagine. Siano V e W due R-spazi vettoriali, di


basi B e C rispettivamente, e sia f : V −→ W un’applicazione lineare. Si ponga A = MfB,C .
Per determinare Im(f ) e una sua base, si procede come segue:
1. Si considera lo spazio delle colonne C(A) e si determina una sua base (w1 , . . . , wq );
a tale scopo si può procedere in due modi:
- se si conosce il rango di A, allora q = ρ(A), quindi basta individuare q colonne
linearmente indipendenti: queste formano una base per C(A);
- se non si conosce il rango di A, posta A′ una matrice ottenuta riducendo A per
colonne, una base di C(A) è data dalle q colonne non nulle di A′ .
2. per quanto visto,

Im(f ) = {(y1 , . . . , ym )C ∈ W | (y1 , . . . , ym ) ∈ C(A)}

e una base di Im(f ) è data da

((w1 )C , . . . , (wq )C ).

95
2.7.1. Esempio. Sia f : R3 −→ R3 l’applicazione lineare associata alla matrice
⎛ ⎞
1 −1 2
A = MfB,C = ⎝ 0 1 −3 ⎠
2 −1 1

con B base canonica e C = (w1 , w2 , w3 ), dove w1 = (1, 1, 0), w2 = (0, 1, 1), w3 = (1, 0, 1).
Riduciamo quindi A per colonne:
⎛ ⎞ ⎛ ⎞
C2 →C2 +C1 1 0 0 1 0 0
A −−−−−−−→ ⎝ 0 1 −3 ⎠ C3 →C3 +3C1 ⎝ 0 1 0 ⎠ = A′ .
−−−−−−−→
C3 →C3 −2C1 2 1 −3 2 1 0

Poiché A′ è ridotta per colonne, le sue colonne non nulle sono una base per lo spazio delle
colonne C(A′ ). Dunque C(A) = C(A′ ) = L((1, 0, 2), (0, 1, 1)).
Per 2.7 una base di Im(f ) è quindi (u1 , u2 ), ove

u1 = (1, 0, 2)C = w1 + 2w3 = (3, 1, 2)

u2 = (0, 1, 1)C = w2 + w3 = (1, 1, 2).


In particolare dim(Im(f )) = 2 = ρ(A).

Come conseguenza dei risultati precedenti si ha il seguente:

2.8. Teorema. Sia f : V −→ W un’applicazione lineare. Allora

dim(ker(f )) + dim(Im(f )) = dim(V ).

Dimostrazione. Per 2.3 dim(ker(f )) = dim(V )−ρ(A); inoltre, per 2.6, dim(Im(f )) = ρ(A),
da cui la tesi. !

Il lettore avrà già incontrato, ad esempio nella teoria degli insiemi, i concetti di iniet-
tività, suriettività e biiettività (o biunivocità) di una applicazione f . Nel caso in cui f sia
un’applicazione lineare tra spazi vettoriali, vedremo come tali proprietà siano caratterizz-
abili in termini del rango di una matrice qualunque associata ad f .

2.9. Criterio di iniettività. Si consideri un’applicazione lineare f : V −→ W ; i seguenti


fatti sono equivalenti:
i) f è iniettiva;
ii) ker(f ) = {0V };
iii) ρ(A) = dim(V ), per ogni matrice A associata ad f .

Dimostrazione. i) ⇒ ii). Sia f iniettiva, cioè se v1 , v2 ∈ V e f (v1 ) = f (v2 ), allora v1 = v2 .


Supponiamo che v ∈ ker(f ). Allora f (v) = 0W = f (0V ) per 1.3 punto i); dunque v = 0V .

96
ii) ⇒ i). Viceversa siano v, v ′ ∈ V tali che f (v) = f (v ′ ). Allora, per la linearità di f , si ha
f (v − v ′ ) = 0W , dunque v − v ′ ∈ ker(f ). Per ipotesi, quindi, v − v ′ = 0V ovvero v = v ′ .
ii) ⇔ iii). Segue da 2.3, poiché dim(ker(f )) = dim(V ) − ρ(A). !

2.9.1. Esempio. Sia f : R[X]2 −→ R2,2 l’applicazione lineare associata alla matrice
⎛ ⎞
2 1 0
⎜ −1 0 1⎟
A=⎝ ⎠
2 1 1
1 0 0

rispetto a due basi fissate. Osserviamo che A è ridotta per colonne, dunque ρ(A) è il
numero delle colonne non nulle, cioè ρ(A) = 3. D’altro canto dim(R[X]2 ) = 3. Pertanto,
per 2.9, f è iniettiva.

2.10. Criterio di suriettività. Si consideri un’applicazione lineare f : V −→ W ; i


seguenti fatti sono equivalenti:
i) f è suriettiva;
ii) ρ(A) = dim(W ), per ogni matrice A associata ad f .

Dimostrazione. Immediata da 2.6. !

2.10.1. Esempio. Sia f : R3 −→ R2 l’applicazione lineare definita da

f (x, y, z) = (x + y − z, 2x − y + 2z).

Allora, posta B la base canonica di R3 e C la base canonica di R2 , la matrice associata ad


f rispetto a tali basi è: ! "
B,C 1 1 −1
A = Mf = .
2 −1 2
Riduciamo A per righe: ! "
1 1 −1
A −→ = A′ .
3 0 1
Chiaramente A′ è ridotta per righe, dunque ρ(A) = ρ(A′ ) è pari al numero delle righe non
nulle di A′ , cioè ρ(A) = 2. D’altro canto dim(R2 ) = 2, quindi, per 2.10, f è suriettiva.

2.11. Definizione. Un’applicazione lineare iniettiva e suriettiva (cioè biiettiva) si dice


isomorfismo. Due spazi vettoriali V e W si dicono isomorfi se esiste un isomorfismo
f : V −→ W e si scrive V ∼
= W.

I due criteri precedenti, di iniettività e di suriettività, forniscono delle condizioni


necessarie in termini di dimensioni del dominio e del codominio. Più precisamente:

97
2.12. Proposizione. Sia f : V −→ W un’applicazione lineare. Allora:
a) se f è iniettiva allora dim(V ) ≤ dim(W );
b) se f è suriettiva allora dim(V ) ≥ dim(W );
c) se f è isomorfismo allora dim(V ) = dim(W );

Dimostrazione. Ricordiamo che ρ(A) ≤ min(dim(V ), dim(W )).


a) Se fosse dim(V ) > dim(W ), avremmo ρ(A) ≤ dim(W ) < dim(V ), quindi f non sarebbe
iniettiva per 2.9 iii).
b) Se fosse dim(V ) < dim(W ), avremmo ρ(A) ≤ dim(V ) < dim(W ), quindi f non sarebbe
suriettiva per 2.10.
c) Immediato, da a) e b). !

2.13. Criterio di isomorfismo. Sia f : V −→ W un’applicazione lineare tra R-spazi


vettoriali della stessa dimensione. Sono fatti equivalenti:
i) f è iniettiva;
ii) f suriettiva;
iii) f isomorfismo.

Dimostrazione. Basta mostrare che i) ⇔ ii). Ma f è iniettiva se e solo se ker(f ) = {0V }


se e solo se dim(ker(f )) = 0 se e solo se (per 2.8) dim(Im(f )) = dim(V ). Per ipotesi
dim(V ) = dim(W ), quindi l’ultima condizione equivale alla suriettività di f . !

Abbiamo visto che f : V −→ W è iniettiva se e solo se ρ(A) = dim(V ) e che è


suriettiva se e solo se ρ(A) = dim(W ). Quindi in entrambi i casi il rango della matrice A
è il massimo possibile, ovvero la matrice A è di rango massimo secondo la definizione 2.6.
del Cap. 5. D’altra parte, il rango di ogni matrice associata ad una applicazione lineare f
è costante in quanto uguale alla dimensione dell’immagine di f . Ha quindi senso la

2.14. Definizione. Sia f : V −→ W un’applicazione lineare; f si dice di rango massimo


se una qualunque matrice ad essa associata è di rango massimo.

2.15. Osservazione. Dalle considerazioni fatte prima, segue che se f è un’applicazione


lineare, allora f è di rango massimo se e solo se è iniettiva o suriettiva o un isomorfismo.
Più precisamente,
i) se dim(V ) < dim(W ), f è di rango massimo ⇔ f è iniettiva;
ii) se dim(V ) > dim(W ), f è di rango massimo ⇔ f è suriettiva;
iii) se dim(V ) = dim(W ), f è di rango massimo ⇔ f è un isomorfismo.

2.15.1. Esempio. Caratterizzare le seguenti applicazioni lineari:

98
1. f : R3 −→ R4 data da (x, y, z) .→ (x − y + 2z, y + z, −x + z, 2x + y). Posta A la
matrice associata ad f rispetto alle basi canoniche, calcoliamo il rango di A riducendola,
ad esempio, per righe:

⎛ ⎞ ⎛ ⎞
1 −1 2 1 −1 2
⎜ 0 1 1⎟ ⎜0 1 1⎟
A=⎝ ⎠ −→ ⎝ ⎠.
−1 0 1 0 0 1
2 1 0 0 0 0

Poiché ρ(A) = 3 è massimo e dim(V ) < dim(W ), allora f è iniettiva.


2. f : R4 −→ R3 data da (x, y, z, t) .→ (x − y + 2z + t, y + z + 3t, x − y + 2z + 2t). Come
prima:
⎛ ⎞ ⎛ ⎞
1 −1 2 1 1 −1 2 1
A = ⎝ 0 1 1 3 ⎠ −→ ⎝ 0 1 1 3 ⎠ .
1 −1 2 2 0 0 0 1

Dunque ρ(A) = 3 è massimo e dim(V ) > dim(W ), quindi f è suriettiva.


3. f : R3 −→ R3 associata alla matrice
⎛ ⎞
1 2 1
A = ⎝2 1 1⎠
1 −1 2

rispetto alla base canonica. Riducendo si ottiene la matrice


⎛ ⎞
1 2 1
′ ⎝
A = 0 −3 −1 ⎠
0 0 2

che è di rango massimo e poichè dim(V ) = dim(W ), f è un isomorfismo.

L’isomorfismo (naturale) tra R3 e VO 3


è un caso particolare di una situazione più
generale. Vale infatti il seguente risultato per R-spazi vettoriali della stessa dimensione.

2.16. Teorema. Siano V e W due R-spazi vettoriali della stessa dimensione. Allora V e
W sono isomorfi.

Dimostrazione. Basta costruire un isomorfismo f : V −→ W . A tale scopo si fissino una


base B = (v1 , . . . , vn ) di V ed una base C = (w1 , . . . , wn ) di W . Sia f l’applicazione lineare
definita da: f (vi ) = wi per ogni i; tale f esiste ed è unica per 1.10. Poiché MfB,C = In e
ρ(In ) = n, si ha che f è un isomorfismo per 2.15. !

99
2.17. Corollario. Se V è un R-spazio vettoriale di dimensione n, allora V ∼
= Rn . !

3. Composizione di applicazioni lineari

3.1. Definizione. Siano f : V −→ W e g : W −→ Z due applicazioni lineari di R-spazi


vettoriali. Si dice applicazione composta di g con f , e si indica con g ◦ f , l’applicazione

g ◦ f : V −→ Z

definita da: (g ◦ f )(v) = g(f (v)), per ogni v ∈ V .

La trascrizione di questa definizione in termini di matrici è nella seguente proposizione


di cui omettiamo la dimostrazione.

3.2. Proposizione. Siano f : V −→ W e g : W −→ Z due applicazioni lineari di R-spazi


vettoriali e siano B, C, D basi di V , W , Z, rispettivamente. Allora
B,D
Mg◦f = MgC,D · MfB,C .

3.3. Definizione. Sia f : V −→ W un’applicazione lineare. Si dice che f è invertibile se


esiste un’applicazione lineare g : W −→ V tale che g ◦ f = idV e f ◦ g = idW ; in tal caso
g si dice applicazione inversa di f e si indica con f −1 .

3.4. Lemma. Sia f : V −→ W un’applicazione lineare. Allora f è invertibile se e solo se


f è un isomorfismo.

Dimostrazione. Dalla teoria generale delle funzioni è noto che un’applicazione è invertibile
se e solo se è biettiva (iniettiva e suriettiva). Quindi se un’applicazione lineare è invertibile
essa è un isomorfismo. Viceversa, supponiamo f isomorfismo; dobbiamo solo verificare che
la sua inversa è a sua volta un’applicazione lineare. Siano allora w1 , w2 ∈ W . Poiché f è
biettiva, esistono v1 , v2 ∈ V univocamente determinati tali che w1 = f (v1 ) e w2 = f (v2 ).
Siani ora λ1 , λ2 ∈ R. Allora, poichè f è lineare:

λ1 w1 + λ1 w2 = f (λ1 v1 + λ1 v2 )

da cui, applicando f −1 :

f −1 (λ1 w1 + λ1 w2 ) = λ1 v1 + λ1 v2 = λ1 f −1 (w1 ) + λ1 f −1 (w1 ),

ovvero f −1 è a sua volta un’ applicazione lineare. !

100
3.5. Corollario. Sia f : V −→ W un’applicazione lineare invertibile. Allora

dim(V ) = dim(W ).

Dimostrazione. Per il lemma 3.4 f è un isomorfismo, quindi la tesi si ha per 2.12. !

3.6. Teorema. Sia f : V −→ W un’applicazione lineare. Sono fatti equivalenti:


i) f è invertibile;
ii) f è un isomorfismo;

iii) comunque scelte B e C, basi di V e W rispettivamente, la matrice MfB,C è quadrata


invertibile. In tal caso D E−1
B,C
Mf = MfC,B
−1 .

Dimostrazione. i) ⇔ ii) E’ il lemma 3.4.

i) ⇒ iii) Per 3.5 si ha dim(V ) = dim(W ), dunque MfB,C è quadrata. Per ipotesi esiste
f −1 ; basta dunque provare che
MfC,B B,C
−1 · Mf = In

ove n = dim(V ). Ma per 3.2 si ha: MfC,B B,C


−1 Mf = MfB,B B,B
−1 ◦f = Mid
V
= In .

iii) ⇒ i) Si ponga A := MfB,C ; per ipotesi A è quadrata ed esiste A−1 . Sia

fAB,C
−1 : W −→ V

l’applicazione lineare associata ad A−1 ; per brevità poniamo fAB,C


−1 = g. Mostriamo che g è

l’inversa di f . Per definizione, con n = dim(W ) = dim(V ) se w ∈ W , e w = (y1 , . . . , yn )C ,


allora g(w) = (A−1t (y1 , . . . , yn ))B . Dunque

f (g(w)) = f ((A−1t (y1 , . . . , yn ))B ) =


= (A(A−1t (y1 , . . . , yn )))C = (In t (y1 , . . . , yn ))C

quindi f (g(w)) = (y1 , . . . , yn )C = w, cioè f ◦ g = idW . Analogamente si mostra che


g ◦ f = idV , pertanto g = f −1 e quindi f è invertibile. !

Possiamo riottenere il risultato nella Proposizione 6.11 del Cap. V come:

3.7. Corollario. Sia A ∈ Rn,n ; A è invertibile se e solo se è di rango massimo.

Dimostrazione. Sia f = fAE,E : Rn −→ Rn . Per 3.6 si ha che A è invertibile se e solo se


f è un isomorfismo e ciò è equivalente, per 2.16, al fatto che f , e dunque A, è di rango
massimo. !

101
3.7.1. Esempio. Sia f : R3 −→ R3 data da

f ((x, y, z)) = (x − y + z, 2y + z, z).

Dopo aver provato che f è invertibile, vogliamo determinare l’applicazione inversa f −1 .


Posta E la base canonica di R3 , sia
⎛ ⎞
1 −1 1
A = MfE,E = ⎝ 0 2 1 ⎠ .
0 0 1

Poiché A è ridotta, ρ(A) = 3, dunque f è un isomorfismo; in particolare è invertibile per


3.4. Inoltre, per 3.6, f −1 è l’applicazione lineare associata alla matrice A−1 . Calcoliamo
dunque la matrice inversa di A. Sia
⎛ ⎞
x1 x 2 x3
A−1 = ⎝ y1 y2 y3 ⎠ = (X1 , X2 , X3 ),
z1 z2 z3

ove Xi denota la i-esima colonna della matrice A−1 , con i = 1, 2, 3.


Imponiamo dunque che sia AA−1 = I3 , cioè
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 −1 1 x 1 x2 x 3 1 0 0
⎝ 0 2 1 ⎠ ⎝ y1 y2 y3 ⎠ = ⎝ 0 1 0 ⎠ .
0 0 1 z1 z2 z3 0 0 1

Uguagliando, rispettivamente, la prima, la seconda e la terza colonna delle matrici AA−1


ed I3 si hanno 3 sistemi lineari e precisamente:
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 −1 1 x1 1
⎝ 0 2 1 ⎠ ⎝ y1 ⎠ = ⎝ 0 ⎠ cioè AX1 = t e1 ,
0 0 1 z1 0

e successivamente AX2 = t e2 e AX3 = t e3 . Risolvendo tali sistemi si ha


⎧ ⎧
⎨ x1 − y1 + z1 = 1 ⎨ x1 = 1
2y1 + z1 = 0 ⇒ y1 = 0
⎩ ⎩
z1 = 0 z1 = 0

⎧ ⎧
⎨ x2 − y2 + z2 = 0 ⎨ x2 = 1/2
2y2 + z2 = 1 ⇒ y = 1/2
⎩ ⎩ 2
z2 = 0 z2 = 0

⎧ ⎧
⎨ x3 − y3 + z3 = 0 ⎨ x3 = −3/2
2y3 + z3 = 0 ⇒ y = −1/2
⎩ ⎩ 3
z3 = 1 z3 = 1

102
Pertanto ⎛ ⎞
1 1/2 −3/2
A−1 = ⎝ 0 1/2 −1/2 ⎠ .
0 0 1

4. Cambiamento di base in uno spazio vettoriale

Un problema importante è quello di confrontare le componenti di un vettore rispetto


a basi diverse nello stesso spazio vettoriale.
Ad esempio, consideriamo lo spazio vettoriale R2 con le basi
E = (e1 = (1, 0), e2 = (0, 1)), B = (b1 = (1, 2), b2 = (3, 4)).
Un qualunque vettore v ∈ R2 si potrà scrivere in componenti in due modi:
v = (x1 , x2 )B = (y1 , y2 )E ;
come vedremo, le componenti rispetto alle due basi sono collegate da una matrice. Ad
esempio, consideriamo il vettore v ∈ R2 avente per componenti (−1, 2)B , rispetto alla base
B. Per conoscere le componenti di v rispetto alla base canonica E basta osservare che
v = −b1 + 2b2 = −(e1 + 2e2 ) + 2(3e1 + 4e2 ) = 5e1 + 6e2 . Dunque v = (5, 6)E .
Osserviamo quindi che le componenti di v rispetto ad E dipendono sia dalle componenti
di v rispetto a B che dalle componenti dei vettori b1 , b2 rispetto ad E; precisamente
! " ! "! "
5 1 3 −1
= .
6 2 4 2
In generale, posta ! "
1 3
A= ,
2 4
per un vettore v di R2 di componenti (x1 , x2 )B e (y1 , y2 )E la relazione precedente diventa:
t
(y1 , y2 ) = At (x1 , x2 ).
Si osservi che le colonne della matrice A sono le componenti dei vettori b1 , b2 della base
B, rispetto alla base E. La matrice A ∈ R2,2 può essere pensata come associata ad una
applicazione lineare f : R2 −→ R2 , una volta fissate due basi di R2 . Se fissiamo, in
particolare, la base B nel dominio e la base E nel codominio, cioè se f = fAB,E ; in tal caso,
poiché b1 = (1, 0)B e b2 = (0, 1)B , si ha:
fAB,E (b1 ) = (At (1, 0))E = t (1, 2)E = b1
e analogamente
fAB,E (b2 ) = (At (0, 1))E = t (3, 4)E = b2 .
Pertanto fAB,E = idR2 o, equivalentemente, A = Mid
B,E B,E
. Chiameremo Mid la matrice del
R2 R2
cambio di base da B a E

In generale abbiamo la seguente:

103
4.1. Proposizione. Sia V un R-spazio vettoriale di dimensione n, B e C due sue basi.
Denotando con (x1 , . . . , xn )B e con (y1 , . . . , yn )C le componenti di un vettore v, rispetto a
B e C rispettivamente, si ha
t B,C t
(y1 , . . . , yn ) = MidV
(x1 , . . . , xn ).

Dimostrazione. Si consideri l’applicazione identica idV : V −→ V ; dunque se v ∈ V , allora


f (v) = v, cioè in termini di matrici:

B,C t
(Mid V
(x1 , . . . , xn ))C = (t (y1 , . . . , yn ))C .

Tale uguaglianza di vettori di V implica l’uguaglianza delle loro componenti rispetto a C,


cioè la tesi. !

B,C
4.2. Definizione. La matrice Mid V
si dice matrice del cambio di base da B a C e si indica
B,C
anche con M .

4.2.1. Esempio. Siano B = (v1 , v2 , v3 ) e C = (w1 , w2 , w3 ) due basi di R3 , dove

v1 = (0, 1, −1), v2 = (1, 0, −1), v3 = (2, −2, 2),

w1 = (0, 1, 1), w2 = (1, 0, 1), w3 = (1, 1, 0).


Sia v = (1, −1, 1)B ; vogliamo determinare le componenti di v rispetto a C.
A tale scopo costruiamo la matrice associata al cambiamento di base:
⎛ ⎞
0 −1 −1
M B,C ⎝
= −1 0 3 ⎠
1 1 −1

ottenuta risolvendo i seguenti sistemi lineari:

v1 = a11 w1 + a21 w2 + a31 w3


v2 = a12 w1 + a22 w2 + a32 w3
v3 = a13 w1 + a23 w2 + a33 w3 .

Ne segue che
v = (y1 , y2 , y3 )C = (M B,C t (x1 , x2 , x3 ))C =

⎛⎛ ⎞⎛ ⎞⎞
0 −1 −1 1
= ⎝⎝ −1 0 3 ⎠ ⎝ −1 ⎠⎠ = (0, 2, −1)C
1 1 −1 1 C

quindi v = 2w2 − w3 .

104
4.3. Teorema. Sia V un R-spazio vettoriale, B e C due sue basi. Allora M B,C è invertibile
e la sua inversa è F B,C G−1
M = M C,B .
D E−1
B,C B,C B,C C,B
Dimostrazione. Basta ricordare che M = MidV
; inoltre per 3.6 MidV