Sei sulla pagina 1di 142

Appunti di Algebra Lineare

Luca Grosset
2 ottobre 2010
Abstract
Queste pagine rappresentano degli appunti di Algebra Lineare scritti per
gli studenti di Chimica e Teconologia Farmaceutica dellA.A. 2010/2011.
Questo il primo anno accademico in cui queste note vengono utilizzate
e quindi con probabilit molto elevata sono presenti errori e carenze, tut-
tavia ho preferito metterli a disposizione lo stesso per aiutare quanti non
possono frequentare o perdono qualche lezione.
Contents
1 Grandezze direttamente proporzionali 3
2 Spazio vettoriale 5
3 Sottospazio vettoriale 19
4 Sistemi lineari 24
5 Rango di una matrice 31
6 Determinante 37
7 Propriet del determinante 44
8 Insieme delle soluzioni di un sistema lineare 50
9 Teorema di Rouch-Capelli 64
10 Applicazioni lineari 71
11 Applicazioni lineari suriettive 76
12 Applicazioni lineari iniettive 82
13 Applicazioni lineari biiettive 87
14 Composizioni di applicazioni lineari 92
1
15 Matrice inversa 100
16 Metodo di Cramer 107
17 Esercizi di Algebra Lineare 115
17.1 Esercizio 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
17.2 Esercizio 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
17.3 Esercizio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
17.4 Esercizio 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
17.5 Esercizio 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
18 Esercizi proposti 134
19 Autovalori, autovettori, diagonalizzazione 136
2
1 Grandezze direttamente proporzionali
La prima funzione reale di variabile reale che molti studenti vedono disegnata su
una lavagna serve a rappresentare una proporzionalit diretta. Il modo corretto
per trattare questi oggetti matematici quello di considerarli delle funzioni
lineari di R in R: esse hanno la forma
)(r) = : r,
per qualche : R ssato. Per ogni valore di : il graco di questa funzione
rappresenta una retta passante per lorigine del sistema di riferimento (il numero
reale : viene detto coeciente angolare della retta). Spesso abbiamo a che fare
con tali funzioni quando r indica la quantit di una merce o lentit di un
servizio e )(r) ne indica il costo: se )(r) = : r, allora : detto il prezzo della
merce o del servizio.
Osserviamo che queste funzioni lineari soddisfano due propriet caratteristiche,
per ogni r, j , ` R:
)(r + j) = :(r + j) = :r + :j = )(r) + )(j) , (1)
)(`r) = :(`r) = `(:r) = `) (r) . (2)
Osserviamo che non soddisfano invece a queste due propriet delle funzioni
costo lineare ane del tipo )(r) = :r+. Queste funzioni rappresentano delle
rette che, quando ,= 0, non passano per lorigine (il parametro viene detto
intercetta della retta). Funzioni di questo tipo rappresentano situazioni in cui
presente un costo sso e un costo variabile :r (questo lineare). Osserviamo
che la presenza dellintercetta implica che (1) e (2) non sono soddisfatte:
)(r + j) = :(r + j) + = :r + :j + ,=
,= :r + :j + 2 = :r + + :j + = ) (r) + ) (j)
)(`r) = :(`r) + ,= `(:r) + ` = `)(r) .
Per poter parlare delle propriet (1) e (2) della funzione ) , occorre poter aer-
mare che
se r e j sono elementi del dominio, allora anche la loro somma r +j un
elemento del dominio, ossia il dominio chiuso rispetto alladdizione;
se r un elemento del dominio, e ` un numero reale, allora anche il
prodotto `r un elemento del dominio, ossia il dominio chiuso rispetto
alla moltiplicazione per uno scalare;
il codominio chiuso rispetto alladdizione;
3
il codominio chiuso rispetto alla moltiplicazione per uno scalare.
Dato che la funzione ) ha dominio e codominio coincidenti con R, tali propri-
et di chiusura rispetto alle operazioni sono chiaramente soddisfatte e quindi
sono banali per funzioni ) : R R. In questa dispensa consideriamo una
generalizzazione dellinsieme numerico R, su cui abbiano ancora senso le op-
erazioni di addizione fra punti, che chiameremo vettori, e di moltiplicazione
tra punti/vettori e numeri reali. Ci allo scopo di trattare funzioni che rap-
presentino, in condizioni pi generali, situazioni di proporzionalit analoghe a
quelle fra grandezze appena descritte.
4
2 Spazio vettoriale
Per poter dare delle denizioni sucientemente generali da poter essere utiliz-
zate in vari ambiti necessario spostarsi ad un livello di astrazione maggiore.
La denizione che diamo in seguito di spazio vettoriale quella pi generale
possibile e quindi potrebbe, a prima vista, apparire molto complessa. Ricor-
diamo il lo conduttore che ci ha portato a questo punto: vogliamo descrivere
un insieme sul quale ci sono due operazioni: una somma ed un prodotto
per un numero reale in modo che questa due operazioni soddisno ad alcune
propriet e vadano daccordo tra loro e con le operazioni tra numeri reali gi
denite nellinsieme numerico R. Il suggerimento che formiamo prima di dare la
denizione quello di non focalizzarsi sul formalismo, dare una letta veloce alla
denizione e cercare di comprendere le richieste fornite in questa denizione aiu-
tandosi con lesempio posto al termine della denizione stessa. Questo esempio
sar il prototipo di spazio vettoriale pi utilizzato in seguito.
Denizione 1 (Spazio Vettoriale) Uno spazio vettoriale un insieme \ sul
quale sono denite due operazioni: la somma tra vettori
__ : \ \ \
(v, w) v w
e il prodotto di un vettore per un numero reale R (prodotto per uno scalare)
__ : R \ \
(c, w) cw
in modo che soddisno alcune propriet: per quanto riguarda la somma tra
vettori per ogni v, w, z V
(S1) associativa: per ogni v, w, z V accade che [vw] z = v [wz]
(S2) elemento neutro: esiste 0 V detto vettore nullo tale che per ogni v V
vale v 0 = v
(S3) elemento simmetrico: per ogni v V esiste un vettore w V, tale che
v w = 0
(S4) commutativa: per ogni v, w V vale v w = wv
mentre per quanto la relazione tra somma di vettori e prodotto per un numero
reale per ogni v, w V e per ogni c, , R accade che
(P1) c[v w] =[cv] [cw]
(P2) 1v = v
(P3) (c + ,) v = [cv] [,v]
(P4) (c ,) v = c[,v]
5
Prima di fornire lesempio di spazio vettoriale pi importante andiamo a
commentare questa denizione. I simboli utilizzati , rappresentano delle
operazioni astratte, ma vogliamo che richiamino (e i simboli sono scelti ap-
positamente) rispettivamente la somma ed il prodotto tra numeri reali. Tut-
tavia queste operazioni astratte sono denite sullo spazio \ e devono soddis-
fare alle otto preopriet elencate anch \ si possa denire spazio vettori-
ale. Le propriet (S1), (S2), (S3), (S4) vogliono descrivere in modo astratto le
propriet caratteristiche della somma tra numeri reali; sappiamo che questa
unoperazione associativa, che possiede lo zero come elemento neutro, che dato
un numero reale r ammette sempre il suo opposto ovvero r (osserviamo che
r + (r) = 0), ed inne che gode della propriet commutativa. Lo stesso viene
richiesto alloperazione denita su \ .
Le altre quattro propriet servono per descrivere il comportamento congiunto
che deve esserci tra somma di vettori, prodotto per un numero reale, e le oper-
azioni elementari di somma e prodotto denite tra i numeri reali. Osserviamo
infatti che le due nuove operazioni che abbiamo introdotto sullinsieme \ cio la
somma di vettori e il prodotto di un vettore per un numero reale si trovano
a dover convivere con le classiche operazioni di somma e prodotto tra numeri
reali denite nellinsieme R e che questo insieme numerico interviene in modo
attivo nella denizione di spazio vettoriale. La dicolt di questa convivenza
tra operazioni nello stessa struttura matematica non si nota nellesempio in-
iziale con cui abbiamo aperto questo capitolo dove \ = R, infatti in questo caso
la somma tra vettori la somma tra numeri reali ed il prodotto di un vettore
per un numero reale nuovamente il prodotto tra reali. Pi in generale per
queste operazioni possono essere distinte tra loro e, quello che chiediamo con le
propriet (P1), (P2), (P3), (P4), che queste quattro operazioni: somma tra
vettori , prodotto tra un vettore e un numero reale , somma di numeri reali
+, e prodotto di numeri reali , siano in accordo tra loro. Vediamo in dettaglio
queste propriet. La propriet (P1) ci dice che il prodotto tra numeri reali e
vettori distributivo rispetto alla somma tra vettori. Le propriet (P2), (P3) e
(P4) ci dicono invece le operazioni tra numeri reali si accordano con le nuove
operazioni di somma tra vettori e prodotto di numeri reali per vettori.
Consideriamo \ = R
2
ovvero \ linsieme delle coppie ordinate che rapp-
resentano il piano cartesiano. Osserviamo prima di tutto che, a priori, non sono
denite operazioni su queste coppie ordinate e quindi dobbiamo prima di tutto
decidere come sono fatte le due operazioni di questo spazio vettoriale ovvero
la somma tra coppie ordinate e il prodotto di un numero reale per una coppia
ordinata. Iniziamo con la somma tra coppie ordinate
v
1
v
2
= (r
1
, j
1
) (r
2
, j
2
)
def
= (r
1
+ r
2
, j
1
+ j
2
)
Questa denizione sfrutta la somma tra numeri reali per denire la somma
tra i vettori/coppie ordinate e non dovrebbe stupire chi ricorda, dalle scuole
secondarie, come si sommano due forze che agiscono sullo stesso corpo. Questa
denizione corrisponde infatti alla regola del parallelogramma utilizzata nella
6
somma delle forze e matematicamente richiede che il vettore somma abbia come
componenti le somme delle rispettive componenti dei vettori addendi.
Per essere sicuri che \ sia uno spazio vettoriale, almeno per quanto riguarda
la somma tra vettori, dobbiamo controllare se sono soddisfatte le propriet (S1),
(S2), (S3), (S4). Controlliamo:
associativa:
[(r
1
, j
1
) (r
2
, j
2
)] (r
3
, j
3
) = (r
1
+ r
2
, j
1
+ j
2
) (r
3
, j
3
)
= ((r
1
+ r
2
) + r
3
, (j
1
+ j
2
) + j
3
) =
= (r
1
+ (r
2
+ r
3
) , j
1
+ (j
2
+ j
3
)) =
= (r
1
, j
1
) (r
2
+ r
3
, j
2
+ j
3
)
= (r
1
, j
1
) [(r
2
, j
2
) (r
3
, j
3
)]
i passaggi chiave, indicati con la freccia, sono quelli che ci permettono di
cambiare lordine con cui svolgiamo le somme tra numeri reali e derivano
dalla propriet associativa della somma tra numeri reali,
elemento neutro:
(r
1
, j
1
) (0, 0) = (r
1
, j
1
)
ovvero la coppia ordinata che ha entrambe le componenti nulle, detta
vettore nullo, rappresenta lelemento neutro della somma tra vettori (os-
serviamo che la coppia ordinata (0, 0) non un numero reale, quindi non
ha senso aermare che lo zero lelemento neutro della somma tra vettori,
laermazione corretta che in R
2
il vettore nullo lelemento neutro:
(0, 0) = 0),
elemento simmetrico: data (r
1
, j
1
) R
2
consideriamo (r
2
, j
2
) = (r
1
, j
1
)
ed osserviamo che
(r
1
, j
1
) (r
2
, j
2
) = (r
1
, j
1
) (r
1
, j
1
)
= (r
1
r
1
, j
1
j
1
)
= (0, 0) = 0
commutativa: dalla propriet commutativa della somma tra numeri reali
(r
1
, j
1
) (r
2
, j
2
) = (r
1
+ r
2
, j
1
+ j
2
)
= (r
2
+ r
1
, j
2
+ j
1
)
= (r
2
, j
2
) (r
1
, j
1
)
Per quanto riguarda il prodotto di un vettore per uno scalare deniamo questa
operazione nel seguente modo
c v
1
= c (r
1
, j
1
)
def
= (cr
1
, cj
1
)
7
Di nuovo questa denizione sfrutta il prodotto tra numeri reali per denire il
prodotto di un numero reale per un vettore/coppia ordinata.
Vediamo che con questa posizione loperazione che abbiamo appena denito
tra numeri reali e coppie ordinate soddisfa alle richieste (P1), (P2), (P3), (P4).
distributiva
c[(r
1
, j
1
) (r
2
, j
2
)] = c(r
1
+ r
2
, j
1
+ j
2
)
= (c(r
1
+ r
2
) , c(j
1
+ j
2
)) =
= (cr
1
+ cr
2
, cj
1
+ cj
2
) =
= (cr
1
, cj
1
) (cr
2
, cj
2
)
= [c(r
1
, j
1
)] [c(r
2
, j
2
)]
che deriva dalla propriet distributiva del prodotto di numeri reali rispetto
alla somma tra numeri reali (si vedano i due passaggi messi in evidenza
con la freccia)
elemento neutro del prodotto tra reali,
1(r
1
, j
1
) =(1r
1
, 1j
1
) = (r
1
, j
1
)
somma tra numeri reali
(c + ,) (r
1
, j
1
) = ((c + ,) r
1
, (c + ,) j
1
)
= (cr
1
+ ,r
1
, cj
1
+ ,j
1
)
= (cr
1
, cj
1
) (,r
1
, ,j
1
)
= [c(r
1
, j
1
)] [,(r
1
, j
1
)]
prodotto tra numeri reali
(c ,) (r
1
, j
1
) = ((c ,) r
1
, (c ,) j
1
)
= (c,r
1
, c,j
1
)
= c(,r
1
, ,j
1
)
= c[,(r
1
, j
1
)]
Se indichiamo con R
n
, : 1, 2, 3, . . ., linsieme delle :-ple ordinate di
numeri reali
v = (r
1
, r
2
, . . . r
n
)
il ragionamento appena svolto, si pu ripetere passo passo ed in questo modo
risulta denito lo spazio vettoriale \ = R
n
.
Osserviamo che le operazioni di addizione fra vettori e di moltiplicazione
un numero reale per un vettore su R
n
sono denite semplicemente estendendo,
quanto fatto prima per due componenti, ad : componenti: siano v, w R
n
,
v = (
1
,
2
, . . .
n
) , w = (n
1
, n
2
, . . . n
n
)
8
deniamo la somma di v e w come
v w
def
= (
1
+ n
1
,
2
+ n
2
, . . .
n
+ n
n
) ;
mentre deniamo il prodotto del vettore v per lo scalare c come
c v
def
= (c
1
, c
2
, . . . c
n
) .
Questa notazione, con le operazioni dello spazio vettoriale indicate con e
, molto pesante e non viene utilizzata nella pratica. Ci servita in queste
prime pagine del capitolo per enfatizzare la dierenza che sussiste tra somma
di numeri reali e somma di vettori, tra prodotto di un numero reale per un
vettore e tra prodotto tra numeri reali. Queste operazioni si sovrappongono
quando \ = R e questo genera confusioni quando si approccia per la prima
volta largomento degli spazi vettoriali. La notazione standard, che utilizzer-
emo in seguito, identica la somma di vettori e il prodotto di uno scalare per
un vettore con i simboli usuali di somma e prodotto tra numeri reali. Questo
abuso di notazione spesso giusticato aermando che dal contesto si capisce
che operazione si sta utilizzando e questo sicuramente corretto: il simbolo +
tra due coppie ordinate si pu leggere solo come somma di vettori. Tuttavia in
questa prima parte della trattazione abbiamo preferito appesantire la notazione
sperando di evitare inutili confusioni. Nel seguito le operazioni tra spazi vet-
toriali saranno indicate nel seguente modo: v + w rappresenta la somma di
vettori, mentre c v (o anche pi semplicemente cv) rappresenta il prodotto di
un numero reale per un vettore.
Una volta assegnati : vettori v
1
, v
2
, ..., v
n
di uno spazio vettoriale \
possibile costruire degli altri vettori a partire da questi utilizzando le operazioni
di base denite sullo spazio vettroiale. In generale si possono sommare questi
vettori per ottenerne un altro, oppure si possono prima moltiplicare per dei
numeri reali e poi sommare tra loro. Ogni vettore che si pu ottenere a partire
da questi vettori, utilizzando le operazioni elementari di spazio vettoriale,
detto combinazione lineare di v
1
, v
2
, ..., v
n
. Formalizziamo questa denizione.
Denizione 2 (Combinazione lineare) Dati : vettori v
1
, v
2
, ..., v
n
\ di-
remo che il vettore w V combinazione lineare di questi : vettori se e solo
se esistono : numeri reali c
1
, c
2
, ..., , c
n
R tali che
w = c
1
v
1
+ c
2
v
2
+ ... + c
n
v
n
Se \ = R
3
allora il vettore (1, 2, 3) combinazione lineare dei vettori
(1, 0, 0),(0, 1, 0) , (0, 0, 1), infatti
(1, 2, 3) = (1, 0, 0) + 2 (0, 1, 0) + 3 (0, 0, 1)
Osserviamo che, nellequazione appena scritta, ci troviamo a dover confrontare
tra loro due vettori; naturalmente luguaglianza tra vettori di R
n
si ottiene se e
9
solo se le ennuple ordinate che rappresentano i due vettori sono uguali tra loro,
ovvero v = (
1
,
2
, ...,
n
) e w = (n
1
, n
2
, ..., n
n
) rappresentano lo stesso vettore
se e solo se
i
= n
i
per ogni i. In formule
v = w =
_
_
_

1
= n
1
...

n
= n
n
Per aiutare lintuizione che sta sotto la denizione di combinazione lineare
di vettori, ragioniamo su \ = R
2
dove sappiamo visualizzare la somma tra
vettori con la regola del parallelogramma. Se pensiamo ai vettori come a degli
spostamenti, richiedere che il vettore w sia combinazione lineare ad esempio dei
vettori v
1
, v
2
signica che possibile raggiungere la posizione w sommando,
con i giusti coecienti, i vettori v
1
, v
2
. Osserviamo quindi che il vettore (1, 2)
combinazione lineare dei vettori (1, 0), (0, 4) e (1, 1) visto che
(1, 2) = (1, 0)
1
2
(0, 4) + 0 (1, 1)
mentre osserviamo che lo stesso vettore (1, 2) non si pu scrivere in nessun
modo come combinazione lineare dei vettori (1, 0) e (2, 0). Infatti una generica
combinazione lineare di questi due vettori darebbe
c
1
(1, 0) + c
2
(2, 0) = (c
1
, 0) + (2c
2
, 0) = (c
1
+ 2c
2
, 0)
e per qualsiasi scelta di c
1
, c
2
la seconda componente della coppia ordinata che
otteniamo sar sempre nulla. Quindi impossibile raggiungere il punto (1, 2)
sommando, con i giusti coecienti, i vettori (1, 0) e (2, 0).
Questa osservazione ci fornisce lo spunto per la prossima denizione. Se,
utilizzando un insieme di vettori v
1
, v
2
, ..., v
n
\ , riusciamo ad ottenere un
qualsiasi vettore dello spazio vettoriale \ , allora possiamo dire che questo in-
sieme di vettori genera lo spazio vettoriale stesso, ovvero che, utilizzando
questi vettori, possibile raggiungere un qualsiasi punto individuato da \ .
Denizione 3 (Insieme di generatori) Dati : vettori v
1
, v
2
, ..., v
n
\ questi
sono un insieme o sistema di generatori per lo spazio vettoriale \ se e solo se
ogni elemento di \ pu essere scritto come combinazione lineare di questi :
vettori.
Scritta in formule questa denizione richiede che per ogni w \ esistono :
numeri reali c
w
1
, c
w
2
, ..., , c
w
n
R tali che
w =c
w
1
v
1
+ c
w
2
v
2
+ ... + c
w
n
v
n
Tornando allesempio precedente certamente i vettori (1, 0) e (2, 0) non sono
un sistema di generatori per lo spazio vettoriale \ = R
2
poich non possibile
10
scrivere il vettore (1, 2) utilizzando una qualsiasi combinazione lineare di questi
vettori. Osserviamo invece che i vettori (1, 0), (0, 4) e (1, 1) sono un sistema di
generatori. Infatti scegliamo un generico vettore w = (n
1
, n
2
) facile notare
che
n
1
..
=
w
1
(1, 0) +
n
2
4
..
=
w
2
(0, 4) + 0
..
=
w
3
(1, 1) = (n
1
, n
2
)
quindi scegliendo correttamente i numeri reali con cui facciamo la combinazione
lineare tra i vettori i (1, 0), (0, 4) e (1, 1) riusciamo ad ottenere un qualsiasi
vettore di R
2
. Di nuovo questo esempio ci porta ad una riessione: il vettore
(1, 1) non utilizzato nella combinazione lineare (infatti appare con coeciente
0) e sono sucienti i primi due vettori a generare tutto lo spazio vettoriale R
2
.
Tuttavia, avremmo potuto scegliere anche
(n
1
n
2
)
. .
=
w
1
(1, 0) + 0
..
=
w
2
(0, 4) + n
2
..
=
w
3
(1, 1) = (n
1
, n
2
)
e in questo caso sarebbe stato inutile il vettore (0, 4). Quindi c qualcosa di
ridondante nella scelta dei tre vettori (1, 0), (0, 4), (1, 1) per generare un vettore
di R
2
e nella prossima denizione vogliano dare un nome a questa situazione
per cercare di individuarla meglio.
Denizione 4 (Vettori linearmente indipendenti) Dati v
1
, v
2
, ..., v
n
\ ,
questi vettori sono linearmente dipendenti se e solo se possibile scrive uno di
essi come combinazione lineare dei rimanenti.
Questi stessi vettori sono invece linearmente indipendenti se non possibile
scriverne alcuno come combinazione lineare degli altri.
Se : vettori v
1
, v
2
, ..., v
n
\ sono linearmente dipendenti allora per qualche
i accade che
v
i
= c
1
v
1
+ c
2
v
2
+ ... + c
i1
v
i1
+ c
i+1
v
i+1
+ ... + c
n
v
n
Per scrivere in formule la denizione di vettori linearmente indipendenti serve
invece un piccolo sforzo. Consideriamo lequazione vettoriale
r
1
v
1
+ r
2
v
2
+ ... + r
n
v
n
= 0
nelle incognite r
1
,r
2
, ..., r
n
. Questa equazione vettoriale ha sempre una soluzione
banale: scegliendo tutti i coecienti r
1
= r
2
= ... = r
n
= 0 otteniamo la
somma di :-volte il vettore nullo e quindi lequazione vettoriale soddisfatta.
Se i vettori sono linearmente dipendenti allora, accanto alla soluzione banale
r
1
= r
2
= ... = r
n
= 0, esiste unaltra soluzione. Infatti se
v
i
= c
1
v
1
+ c
2
v
2
+ ... + c
i1
v
i1
+ c
i+1
v
i+1
+ ... + c
n
v
n
allora
11
c
1
v
1
+ c
2
v
2
+ ... + c
i1
v
i1
+v
i
+ c
i+1
v
i+1
+ ... + c
n
v
n
= 0
Abbiamo appena trovato una denizione equivalente di vettori linearmente
dipendenti: dati : vettori v
1
, v
2
, ..., v
n
\ questi sono linearmente dipendenti
se e solo se lequazione vettoriale
r
1
v
1
+ r
2
v
2
+ ... + r
n
v
n
= 0
nelle incognite r
1
, r
2
, ..., r
n
ammette una soluzione diversa dalla soluzione ba-
nale r
1
= r
2
= ... = r
n
= 0. Sfruttando questa osservazione siamo ora in
grado di scrivere in formule la denizione di vettori linearmente indipendenti:
dati : vettori v
1
, v
2
, ..., v
n
\ questi sono linearmente indipendenti se e solo
se lequazione
r
1
v
1
+ r
2
v
2
+ ... + r
n
v
n
= 0
ha come unica soluzione la soluzione banale r
1
= r
2
= ... = r
n
= 0. Infatti se
ce ne fosse unaltra allora dovrebbe esserci qualche r
i
,= 0 e quindi potremmo
scrivere
r
1
v
1
+ r
2
v
2
+ ... + r
i1
v
i1
+ r
i
..
6=0
v
i
+ r
i+1
v
i+1
+ ... + r
n
v
n
= 0
ovvero
r
i
..
6=0
v
i
= r
1
v
1
r
2
v
2
... r
i1
v
i1
r
i+1
v
i+1
... r
n
v
n
v
i
=
r
1
r
i
v
1

r
2
r
i
v
2
...
r
i1
r
i
v
i1

r
i+1
r
i
v
i+1
...
r
n
r
i
v
n
e sarebbe possibile scrivere v
i
come combinazione lineare dei rimanenti vettori.
Abbiamo appena dimostrato il seguente risultato che rappresenta un modo
diverso per scrivere la denzione di vettori linearmente dipendenti e indipen-
denti.
Teorema 1 Dati : vettori v
1
, v
2
, ..., v
n
\ consideriamo lequazione vettori-
ale
r
1
v
1
+ r
2
v
2
+ ... + r
n
v
n
= 0
nelle incognite incognite r
1
,r
2
, ..., r
n
; questi vettori sono
linearmente indipendenti se e solo se lunica soluzione la soluzione
banale r
1
=r
2
= ... = r
n
= 0 ,
linearmente dipendenti se e solo se questa equazione ammette una soluzione
con qualche r
i
,= 0 .
12
Tornando allesempio precedente abbiamo ora una denizione che chiarisce la
ridondanza nella scelta dei vettori tre vettori (1, 0), (0, 4), (1, 1) per ottenere
un sistema di generatori di R
2
. Infatti questi tre vettori sono linearmente dipen-
denti tra loro:
(1, 0)
1
4
(0, 4) + (1, 1) = (0, 0)
quindi un vettore pu essere scritto come combinazione lineare dei rimanenti
(1, 1) = (1, 0) +
1
4
(0, 4)
Per illustrare ulteriormente questi concetti introduciamo una metafora che
ha come unico scopo quello di ssare le idee appena introdotte. Se consideri-
amo uno spazio vettoriale come un libro di testo da studiare per superare un
esame, un sistema di generatori corrisponde ad un riassunto esaustivo del li-
bro stesso. Un insieme di vettori linearmente indipendenti rappresenta invece
una collezione di concetti tratti dal libro e scritti in modo che ognuno aggiunga
informazioni che non si possono dedurre dagli altri. Lideale per uno studente
sarebbe quello di possedere un riassunto esaustivo che sia il pi piccolo possibile,
oppure una collezione di concetti tra loro indipendenti che riassumano tutto il
libro. Seguendo questa metafora lideale sarebbe quindi quello di possedere un
sistema di generatori per lo spazio vettoriale che sia anche un insieme di vet-
tori linearmente indipendenti, cos da ottenere il riassunto esaustivo pi corto
possibile.
Fuori metafora, partendo da un sistema di vettori linearmente indipendenti
in uno spazio vettoriale possiamo pensare di aggiungere un altro vettore che ap-
partiene allo spazio vettoriale e che non combinazione lineare dei precedenti.
In questo modo non modichiamo la propriet di questo insieme di essere un
insieme di vettori linearmente indipendenti, ma rendiamo pi grande linsieme
stesso. Iterando questo procedimento arriviamo ad un insieme di vettori che
contemporaneamente un sistema di generatori e un insieme di vettori linear-
mente indipendenti. Infatti nel precedente algoritmo iterativo arriveremo ad
un passo nel quale non sar pi possibile aggiungere nessun altro vettore dello
spazio allinsieme di vettori sotto esame senza far cadere la loro propriet di
essere linearmente indipendenti. Ma allora ogni altro vettore dello spazio
combinazione lineare dellinsieme di vettori individuati e quindi questo insieme
anche un sistema di generatori.
Ritornando alla metafora precedente se continuiamo ad aggiungere ad una
lista di concetti indipendenti delle nuove idee contenute nel libro che dobbiamo
studiare prima o dopo andremo ad esaurire tutto quello che viene detto nel libro
e ci troveremo con un riassunto esaustivo privo di ridondanze.
Tornando agli spazi vettoriali, un insieme di vettori che contemporanea-
mente un insieme di vettori linearmente indipendenti e un sistema di generatori
detto base per lo spazio vettoriale. Formalizziamo tale concetto.
13
Denizione 5 (Base) Dati : vettori v
1
, v
2
, ..., v
n
\ questi sono una base
per lo spazio vettoriale \ se e solo se sono contemporaneamente
un sistema di generatori per \ ,
un insieme di vettori linearmente indipendenti.
In R
3
i vettori (1, 0, 0) , (1, 1, 1) sono linearmente indipendenti, infatti
r
1
(1, 0, 0) + r
2
(1, 1, 1) = (0, 0, 0)
(r
1
+ r
2
, r
2
, r
2
) = (0, 0, 0)
=
_
_
_
r
1
+ r
2
= 0
r
2
= 0
r
2
= 0
= r
1
= r
2
= 0
dalla seconda e terza componente otteniamo che deve essere r
2
= 0, e sos-
tituendo nella prima otteniamo che lunica soluzione quella banale r
1
= r
2
= 0.
Aggiungiamo ora un ulteriore vettore a questo insieme ottenendo un nuovo
insieme: (1, 0, 0) , (1, 1, 1) , (4, 2, 2). Chiediamoci se questa aggiunta ha mod-
icato la propriet di indipendenza lineare dei primi due vettori. Per farlo
chiediamoci se possibile scrivere il vettore che abbiamo introdotto come com-
binazione lineare dei rimanenti. Purtroppo s:
(4, 2, 2) = 3 (1, 0, 0) + 2 (1, 1, 1)
Questa quindi una pessima scelta, proviamo con unaltra: aggiungiamo il
vettore (3, 2, 0) ai precedenti ed osserviamo che
r
1
(1, 0, 0) + r
2
(1, 1, 1) + r
3
(3, 2, 0) = (0, 0, 0)
(r
1
+ r
2
+ 3r
3
, r
2
+ 2r
3
, r
2
) = (0, 0, 0)
=
_
_
_
r
1
+ r
2
+ 3r
3
= 0
r
2
+ 2r
3
= 0
r
2
= 0
= r
1
= r
2
= r
3
= 0
Questa volta la scelta buona: abbiamo aggiunto un nuovo vettore senza perdere
la propriet di indipendenza. Proviamo di nuovo ad aggiungere un quarto vet-
tore, ad esempio (1, 2, 3) che sembra diverso da tutti gli altri
r
1
(1, 0, 0) + r
2
(1, 1, 1) + r
3
(3, 2, 0) + r
4
(1, 2, 3) = (0, 0, 0)
(r
1
+ r
2
+ 3r
3
+ r
4
, r
2
+ 2r
3
+ 2r
4
, r
2
+ 3r
4
) = (0, 0, 0)
il che equivale al sistema
_
_
_
r
1
+ r
2
+ 3r
3
+ r
4
= 0
r
2
+ 2r
3
+ 2r
4
= 0
r
2
+ 3r
4
= 0
14
che ammette una soluzione non banale. Infatti ponendo r
4
= 1 otteniamo per
sostituzione _
_
_
r
1
= 1,2
r
3
= 1,2
r
2
= 3
e sostituendo questi coecienti troviamo che i quattro vettori sono linear-
mente dipendenti
1
2
(1, 0, 0) 3 (1, 1, 1) +
1
2
(3, 2, 0) + (1, 2, 3) =
_
1
2
3 +
1
2
+ 1, 3 + 1 + 2, 3 + 3
_
= (0, 0, 0)
In realt siamo arrivati ad ottenere un sistema di generatori per R
3
, infatti
prendiamo un generico vettore w = (n
1
, n
2
, n
3
) ed osserviamo che
(n
1
, n
2
, n
3
) = c
1
(1, 0, 0) + c
2
(1, 1, 1) + c
3
(3, 2, 0)
(n
1
, n
2
, n
3
) = (c
1
+ c
2
+ 3c
3
, c
2
+ 2c
3
, c
2
)
=
_
_
_
c
1
+ c
2
+ 3c
3
= n
1
c
2
+ 2c
3
= n
2
c
2
= n
3
=
_
_
_
c
1
= (2n
1
3n
2
+ n
3
) ,2
c
3
= (n
2
n
3
) ,2
c
2
= n
3
Quindi partendo dai tre vettori linearmente indipendenti (1, 0, 0) , (1, 1, 1) , (3, 2, 0)
possibile generare un qualsiasi vettore w = (n
1
, n
2
, n
3
) R
3
nel seguente
modo
w =
2n
1
3n
2
+ n
3
2
. .
=
w
1
(1, 0, 0) +
n
2
n
3
2
. .
=
w
2
(1, 1, 1) + n
3
..
=
w
3
(3, 2, 0)
Abbiamo appena identicato una base per lo spazio vettoriale R
3
.
Possediamo a questo punto un algoritmo che ci permette di ottenere una
base per uno spazio vettoriale \ , formalizziamolo:
1. scegli un vettore v \ diverso dal vettore nullo;
1
2. considera linsieme E = v ;
3. scegli un altro vettore w \ in modo che sia linearmente indipendente
da quelli contenuti nellinsieme E, si possono vericare due casi a seconda
se sia possibile o meno eettuare questa scelta;
se possibile, allora aggiungi il vettore w allinsieme E e torna al
passo 3, in simboli E = E ' w ;
1
Se non possibile allora V = f0g ovvero V lo spazio vettoriale banale composto solo
dal vettore nullo.
15
se non possibile allora tutti i vettori di \ si scrivono come combi-
nazione lineare dei vettori contenuti in E e questi rappresentano una
base per \ .
Una volta illustrato questo algoritmo siamo in grado, con un po di conti,
di individuare una base per un qualsiasi spazio vettoriale. Tuttavia questo
algoritmo presenta alcune scelte arbitrarie: al passo 1 e al passo 3 la scelta del
vettore v e dei vari w (uno per ogni iterazione dellalgoritmo) non sono per nulla
univoche. Questa osservazione ci dice che non esister ununica base per uno
spazio vettoriale, ma ce ne saranno molte. Di fronte a questo insieme di possibili
basi per lo spazio vettoriale cerchiamo di trovare un qualcosa che le accomuna,
in particolare potremmo chiederci quanti vettori ci sono nellinsieme E quando
lalgoritmo si arresta. Detto in altri termini: le scelte arbitrarie che eettuiamo
al passo 1 e al passo 3 modicano il numero di vettori che otteniamo allinterno
dellinsieme E quando lalgoritmo si arresta? La risposta a questa domanda
negativa ed formalizzata nel seguente Teorema.
Teorema 2 (dimensione di uno spazio vettoriale) Tutte le basi di uno spazio
vettoriale \ contengono lo stesso numero di vettori che chiamato dimensione
dello spazio vettoriale stesso ed in simboli viene indicato con dim(\ ).
Omettiamo la dimostrazione di questo risultato; sarebbe facile fornire una
prova di questo Teorema per tutti gli spazi in cui lalgoritmo si arresta in un
numero nito di passi. Questi vengono detti spazi vettoriali di dimensione nita
e sono quelli che ci interessano nel seguito. La dimostrazione invece complessa
quando lalgoritmo non termina in un numero nito di passi ovvero quando
si considerano con spazi vettoriali di dimensione innita. Nel seguito ci oc-
cuperemo soltanto di spazi vettoriali \ per i quali dim(\ ) N. Per questi
spazi il precedente algoritmo termina sempre e si arresta fornendo varie possi-
bili basi per lo spazio vettoriale, tuttavia questi insiemi sono caratterizzati tutti
dal medesimo numero di vettori.
Abbiamo visto nellesempio precedente che (1, 0, 0) , (1, 1, 1) , (3, 2, 0) una
base per lo spazio R
3
che ha quindi dimensione 3. Questi vettori non sono
tuttavia la scelta pi facile che possiamo fare utilizzando lalgoritmo precedente.
Infatti avremmo potuto scegliere (1, 0, 0) al primo passo, (0, 1, 0) al secondo
passo e (0, 0, 1) al terzo passo e questi sono banalmente dei vettori linearmente
indipendenti:
r
1
(1, 0, 0) + r
2
(0, 1, 0) + r
3
(0, 0, 1) = (0, 0, 0)
(r
1
, r
2
, r
3
) = (0, 0, 0)
=
r
1
= r
2
= r
3
= 0
Sapendo che dobbiamo fermarci a 3 vettori questa costruzione certamente
la pi facile possibile. facile convincersi che questa stessa idea pu essere
16
ripetuta per uno spazio vettoriale R
n
qualsiasi. Infatti se indichiamo con e
i
il
vettore di R
n
e
i
= (0, 0, ..., 0, 1
..
iesima
, 0, ...., 0)
. .
n componenti
che ha tutte le componenti della :-upla ordinata nulle, tranne la i-esima che
scelta pari a 1, allora facile convincersi che tutti questi vettori sono tra loro
linearmente indipendenti. Non solo, per come sono stati scelti, questi sono anche
un sistema di generatori per R
n
. Infatti un generico vettore w = (n
1
, n
2
, ..., n
n
)
si pu scrivere in modo immediato come combinazione lineare di questi vettori:
(n
1
, n
2
, ..., n
n
) = n
1
e
1
+ n
2
e
2
+ ... + n
n
e
n
Agendo in questo modo siamo in grado di presentare una base per qualsiasi
spazio vettoriale R
n
. Questa base chiamata base canonica ed la base pi
facile che si pu ottenere. Osserviamo che la base canonica di R
n
contiene
esattamente : vettori, quindi per il Teorema sulla dimensione di uno spazio
vettoriale abbiamo che
dim(R
n
) = :
Per concludere osserviamo quindi che la base canonica per lo spazio vettoriale
R
2
composta dai vettori e
1
= (1, 0) , e
2
= (0, 1); mentre la base per lo spazio
vettoriale R
3
composta dai vettori e
1
= (1, 0, 0) , e
2
= (0, 1, 0) , e
3
= (0, 0, 1) .
Abbiamo scritto esplicitamente questi vettori non tanto per ripetere nuovamente
quanto gi detto, ma per segnalare un abuso di notazione: se lavoriamo con lo
spazio vettoriale R
2
, allora e
1
= (1, 0) mentre se abbiamo in mente lo spazio
vettoriale R
2
, allora con lo stesso simbolo e
1
stiamo considerando un vettore
diverso: e
1
= (1, 0, 0). Ricordiamo tuttavia che questa notazione nata dalla
scelta di particolari vettori che abbiamo fatto mentre utilizzavamo lalgoritmo,
quindi sapevamo gi in quale spazio vettoriale stavamo lavorando! La confusione
nella notazione quindi solo apparente: nel momento in cui indichiamo e
i
R
n
sappiamo quante componenti deve avere il vettore (sono :) e quale componente
deve essere posta uguale ad 1 (la i-esima).
Limportanza di una base per uno spazio vettoriale risiede, oltre che nelle
propriet precedentemente descritte, anche nella possibilit di scrivere ogni vet-
tore dello spazio vettoriale in modo unico come combinazione lineare dei vettori
della base.
Teorema 3 Data una base v
1
, v
2
, ..., v
n
per lo spazio vettoriale \ allora ogni
vettori di \ pu essere scritto in modo unico come combinazione lineare dei
vettori v
1
, v
2
, ..., v
n
.
Dimostrazione Una base un sistema di generatori per lo spazio vettoriale
quindi, dato w \ , questo vettore si pu scrivere come combinazione lineare
dei vettori della base: esistono : numeri reali c
w
1
, c
w
2
, ..., c
w
n
R tali che
w =c
w
1
v
1
+ c
w
2
v
2
+ ... + c
w
n
v
n
17
Supponiamo che questa scrittura possa essere ottenuta in un altro modo, ovvero
che esistano ,
w
1
, ,
w
2
, ..., ,
w
n
R tali che
w =,
w
1
v
1
+ ,
w
2
v
2
+ ... + ,
w
n
v
n
Tuttavia osserviamo che
w = w
c
w
1
v
1
+ c
w
2
v
2
+ ... + c
w
n
v
n
= ,
w
1
v
1
+ ,
w
2
v
2
+ ... + ,
w
n
v
n
(c
w
1
,
w
1
) v
1
+ (c
w
2
,
w
2
) v
2
+ ... + (c
w
n
,
w
n
) v
n
= 0
e per lindipendenza lineare dei vettori v
1
, v
2
, ..., v
n
questa combinazione lineare
ci permette di ottenere il vettore nullo se e solo se tutti i coecienti sono nulli
ovvero se e solo se c
w
i
= ,
w
i
per ogni i.
Nellesempio precedente una base per R
3
era formata dai vettori (1, 0, 0),
(1, 1, 1), (3, 2, 0) ed abbiamo scritto un generico vettore w = (n
1
, n
2
, n
3
) come
combinazione lineare dei vettori della base nel seguente modo:
w =
2n
1
3n
2
+ n
3
2
. .
=
w
1
(1, 0, 0) +
n
2
n
3
2
. .
=
w
2
(1, 1, 1) + n
3
..
=
w
3
(3, 2, 0)
Ora sappiamo che questa scrittura unica e che i coecienti c
w
1
, c
w
2
, c
w
3
rapp-
resentano le coordinate del vettore w rispetto a questa base.
18
3 Sottospazio vettoriale
Dato un insieme qualsiasi, sappiamo che un suo sottoinsieme un qualsiasi altro
insieme che possiamo costruire selezionando alcuni degli elementi dellinsieme
di partenza. Lo stesso possiamo fare quando linsieme di partenza uno spazio
vettoriale, tuttavia in questo caso ci troviamo in una struttura matematica pi
ricca poich sono presenti anche le operazioni di somma tra vettori e di prodotto
di un numero reale per un vettore. Viene quindi spontanea una denizione che
pi ricca di quella di sottoinsieme e che fornisce anche delle indicazioni su
come devono comportarsi gli elementi di un sottoinsieme dello spazio vettoriale
rispetto alle operazioni.
Denizione 6 Dato uno spazio vettoriale \ diremo che \ _ \ un sot-
tospazio vettoriale di \ , e lo indicheremo con il simbolo \ E \ , se e solo se e
per ogni w
1
, w
2
\ e per ogni c
1
, c
2
R accade che
c
1
w
1
+ c
2
w
2
\
Prima di illustrare lesempio pi importante di sottospazio vettoriale nello
spazio vettoriale R
n
introduciamo qualche commento sulla denizione appena
data.
Osserviamo che un sottospazio vettoriale chiuso rispetto alla somma tra
vettori, ovvero presi due qualunque vettori di \ la loro somma sta ancora
allinterno di \ (nella denizione precedente basta sceglire c
1
= c
2
= 1).
Non solo, \ chiuso anche rispetto al prodotto per un numero reale, infatti,
preso un qualsiasi vettore di \, il prodotto di un numero reale qualsiasi per
questo vettore ancora un elemento di \. Quindi \ non semplicemente
un sottoinsieme di \ , stiamo richiedendo molto di pi a questa collezione di
vettori: \ stesso deve essere uno spazio vettoriale. Marginalmente osserviamo
che la chiusura per loperazione di prodotto di un numero reale per un vettore
implica che il vettore nullo (elemento neutro della somma di vettori) debba
appartenere ad ogni sottospazio vettoriale. Infatti dato un generico vettore w
\ sappiamo che il vettore 0w deve appartenere a \. Tuttavia abbastanza
semplice, utilizzando la denizione di spazio vettoriale, dimostrare che 0w = 0,
e quindi il vettore nullo contenuto in ogni sottospazio di \ . Infatti
w
(P2)
= 1w = (1 + 0) w
(P3)
= w+ 0w
ma in \ deve esistere lelemento simmetrico del vettore w, che possiamo indicare
con v \ e che possiamo sommare ai due estremi della precdente equazione
vettoriale. Otteniamo:
w+v = w+ 0w+v
0 = 0w
Queste due osservazioni ci permettono di identicare immediatamente due
sottospazi elementari di un qualsiasi spazio vettoriale \ : ovvero il sottospazio
19
composto dal solo vettore nullo e il sottospazio che coincide con tutto lo spazio
di partenza. Entrambi questi sottoinsiemi di \ sono chiusi rispetto alle oper-
azioni denite su uno spazio vettoriale e quindi risultano essere, in modo banale,
sottospazi di \ . Non solo, questi due sottospazi sono i due estremi che dobbi-
amo considerare quando ci troviamo a lavorare con un sottospazio vettoriale \
di uno spazio assegnato. Dato \ sottospazio vettoriale di \ accade sempre che
0 E \ E \
Una volta data questa denizione necessario renderla operativa e ci chiedi-
amo quindi come sia possibile fornire, in modo esplicito, un sottospazio di uno
spazio vettoriale assegnato.
Denizione 7 Dato uno spazio vettoriale \ e dato un insieme di vettori v
1
, v
2
, ..., v
k

\ chiameremo sottospazio vettoriale generato da questi vettori linsieme di tutti
i vettori di \ che si possono scrivere come una loro combinazione lineare; in
simboli
v
1
, v
2
, ..., v
k

def
= v \ : v =c
1
v
1
+ c
2
v
2
+ ... + c
k
v
k

Osserviamo che questa una buona denizione. Infatti linsieme che ab-
biamo appena scritto proprio un sottospazio vettoriale. Per provarlo ipo-
tizziamo che w, z v
1
, v
2
, ..., v
k
, allora devono esistere dei numeri reali
c
w
1
,c
w
2
,..., c
w
k
, c
z
1
,c
z
2
, ..., c
z
k
tali che
w = c
w
1
v
1
+ c
w
2
v
2
+ ... + c
w
k
v
k
z = c
z
1
v
1
+ c
z
2
v
2
+ ... + c
z
k
v
k
ma allora dati ,, R osserviamo che
,w+ z
= ,c
w
1
v
1
+ ,c
w
2
v
2
+ ... + ,c
w
k
v
k
+ c
z
1
v
1
+ c
z
2
v
2
+ ... + c
z
k
v
k
= (,c
w
1
+ c
z
1
) v
1
+ (,c
w
2
+ c
z
2
) v
2
+ ... + (,c
w
k
+ c
z
k
) v
k
e questo prova che ,w+ z v
1
, v
2
, ..., v
k
.
Osserviamo che questa denizione ci assicura che i vettori v
1
, v
2
, ..., v
k
sono
un sistema di generatori per il sottospazio vettoriale v
1
, v
2
, ..., v
k
. Possiamo
quindi aermare, senza dicolt, che la dimensione del sottospazio vettoriale
v
1
, v
2
, ..., v
k
coincide con il massimo numero di vettori linearmente indipen-
denti contenuti nellinsieme v
1
, v
2
, ..., v
k
. In simboli possiamo scrivere
dimv
1
, v
2
, ..., v
k
= max numero vett.lin.ind. v
1
, v
2
, ..., v
k

Infatti se allinterno dellinsieme v


1
, v
2
, ..., v
k
si possono selezionare al
massimo : vettori linearmente indipendenti, ipotizziamo per comodit che siano
20
i primi : (questa ipotesi non per nulla restrittiva se ci lasciamo la liber di
riordinare gli elementi dellinsieme v
1
, v
2
, ..., v
k
), allora
v
1
, v
2
, ..., v
m
= v
1
, v
2
, ..., v
m
, v
m+1
, ..., v
k

infatti gli ultimi / : vettori non forniscono informazioni aggiuntive visto che
sono combinazioni lineari dei precedenti. Quindi questi due sotto spazi vettori-
ali generati dai vettori v
1
, v
2
, ..., v
m
e dai vettori v
1
, v
2
, ..., v
k
coincidono. Ma
i primi sono anche linearmente indipendenti oltre ad essere, banalmente, un in-
sieme di generatori. Quindi rappresentano una base per il sottospazio vettoriale.
Questa osservazione utile poich, a partire ad un insieme di vettori, ci fornisce
informazioni sulla dimensione dello spazio vettoriale generato da questi vettori.
Non solo, grazie a questo risultato, possiamo ottenere uninteressante re-
lazione tra la dimensione di uno spazio vettoriale e la dimensione di un suo
sottospazio. Sia \ uno spazio vettoriale di dimensione : e sia \ un suo sot-
tospazio: \ E \ . Intuitivamente se \ un sottoinsieme di \ allora \ sar
uno spazio vettoriale pi piccolo rispetto allo spazio vettoriale \ che lo con-
tiene. Quindi la relazione che ci aspettiamo valga tra le dimensioni di questi
sottospazi la seguente
dim\ _ dim\
Andiamo a dimostrare la correttezza di questa aermazione. Sia dim\ =
/, allora, una volta individuata una base v
1
, v
2
, ..., v
k
di questo sotto spazio
vettoriale, possiamo scrivere
v
1
, v
2
, ..., v
k
= \
Ora cerchiamo dei vettori dello spazio vettoriale \ che siano linearmente in-
dipendenti con i vettori v
1
, v
2
, ..., v
k
. Se non ci sono vettori di questi tipo allora
\ = \ e la dimensione di questi due spazi vettoriale la stessa. Se invece indi-
viduiamo un vettore v
k+1
tale che i vettori v
1
, v
2
, ..., v
k
, v
k+1
siano linearmente
indipendenti, allora possiamo considerare il nuovo sottospazio vettoriale
\ E v
1
, v
2
, ..., v
k
, v
k+1

Iteriamo il ragionamento continuando ad aggiungere vettori linearmente in-


dipendenti no a quando
v
1
, v
2
, ..., v
k
, v
k+1
, ..., v
n
= \
A questo punto possiamo aermare che
v
1
, v
2
, ..., v
k
= \
v
1
, v
2
, ..., v
k
, v
k+1
, ..., v
n
= \
e i vettori v
1
, v
2
, ..., v
k
, v
k+1
, ..., v
n
sono linearmente indipendenti. Quindi
immediato dedurre che
dim\ = dimv
1
, v
2
, ..., v
k
_ dimv
1
, v
2
, ..., v
k
, v
k+1
, ..., v
n
= dim\
21
Utilizzando questi risultati vediamo come si congurano i sottospazi vetto-
riali di R
2
. Prima di tutto notiamo che un generico sottospazio vettoriale \ di
R
2
deve soddisfare la seguente relazione
dim\ _ dimR
2
= 2
Quindi le possibilit sono dim\ = 0 e allora \ = 0 = (0, 0). Allaltro
estremo abbiamo dim\ = 2 e quindi \ = R
2
. Ci rimane da trattare il caso
pi interessante dim\ = 1. Prendiamo un generico vettore non nullo, ad
esempio (1, 2), e consideriamo il sottospazio (1, 2). Per ogni scelta di questo
vettore otteniamo un sottospazio di R
2
. Questi sottospazi altro non sono che
i punti che stanno su una retta di R
2
passante per lorigine. Ad esempio il
sottospazio (1, 2) linsieme dei punti che stanno sulla retta j = 2r. Questa
osservazione graca ci fornisce un modo immediato per vedere se due vettori
generano lo stesso sottospazio di R
2
: due sottospazi possono essere descritti
dalla stessa retta se e solo se i due vettori che li generano sono proporzionali tra
loro (ovvero se le due rette che li descrivono hanno la medesima direzione).
Questo modo di ragionare sui sottospazi partendo dalla loro dimensione non
solo un esercizio legato a questa sezione, ma si riveler uno strumento fon-
damentale quando dovremo analizzare i sottospazi fondamentali legati ad un
sistema lineare di equazioni.
Concludiamo con qualche osservazione elementare, ma estremamente utile.
Dato uno spazio vettoriale \ e dato un insieme di vettori v
1
, v
2
, ..., v
k
\
consideriamo
v
1
, v
2
, ..., v
k
;
per la denizione di sottospazio vettoriale generato da un insieme di vettori
immediato dimostrare che
data una costante non nulla ` ,= 0 allora
v
1
, `v
2
, ..., v
k
= v
1
, v
2
, ..., v
k

ovvero moltiplicando un vettore per una costante non nulla (nel caso prece-
dente lo abbiamo fatto con v
2
) non modichiamo il sottospazio vettoriale
generato da questo insieme di vettori;
scambiando tra loro lordine con cui compaiono due vettori
v
2
, v
1
, ..., v
k
= v
1
, v
2
, ..., v
k

(nel caso precedente lo abbiamo fatto scambiando v


1
con v
2
) non modi-
chiamo il sottospazio vettoriale generato da questo insieme di vettori;
sommando ad un vettore un altro vettore moltiplicato per un numero reale
` R qualsiasi
v
1
, (v
2
`v
1
) , ..., v
k
= v
1
, v
2
, ..., v
k

22
(nel caso precedente abbiamo sommato a v
2
il vettore v
1
moltiplicato per
un numero reale `) non modichiamo il sottospazio vettoriale generato da
questo insieme di vettori.
Queste propriet possono essere utili per modicare i vettori che rappresen-
tano lo spazio vettoriale generato rendendo pi semplice individuare il numero
di vettori linearmente indipendenti. Vediamo un esempio: dati i tre vettori
v
1
= (1, 1, 0) , v
2
= (2, 0, 0) , v
3
= (1, 0, 1)
vogliamo calcolare v
1
, v
2
, v
3
.
Osserviamo che 1,2v
2
= e
1
, quindi
v
1
, v
2
, v
3
= v
1
, 1,2v
2
, v
3
= v
1
, e
1
, v
3
;
scambiando tra loro i primi due vettori otteniamo
v
1
, v
2
, v
3
= e
1
, v
1
, v
3
.
Ora notiamo che
v
1
e
1
= (1, 1, 0) (1, 0, 0) = (0, 1, 0) = e
2
quindi
v
1
, v
2
, v
3
= e
1
, (v
1
e
1
) , v
3
= e
1
, e
2
, v
3
.
Inne possiamo modicare anche v
3
: infatti
v
3
+e
1
= (1, 0, 1) + (1, 0, 0) = e
3
e quindi possiamo concludere
v
1
, v
2
, v
3
= e
1
, e
2
, v
3
+e
1
= e
1
, e
2
, e
3
= R
3
visto che questi tre vettori rappresentano la base canonica di R
3
.
23
4 Sistemi lineari
La struttura di spazio vettoriale che abbiamo appena introdotto lo strumento
indispensabile per arontare lo studio dei sistemi lineari. Iniziamo con qualche
denizione che collega lo studio dei sistemi lineari arontato nelle scuole sec-
ondarie con lapproccio che intendiamo arontare in seguito. Un sistema lin-
eare a due equazioni in due incognite viene rappresentato matematicamente nel
seguente modo:
_
a
1;1
r
1
+ a
1;2
r
2
= /
1
a
2;1
r
1
+ a
2;2
r
2
= /
2
Lintuizione geometrica che viene collegata a questo oggetto matematico la
seguente: se indichiamo con r la variabile r
1
e con j la variabile r
2
allora le
due equazioni che compongono il sistema rappresentano due rette nel piano
cartesiano r, j. Se ipotizziamo che i numeri reali a
1;2
, a
2;2
,= 0 allora le due
rette si possono scrivere in forma esplicita
_
j = (a
1;1
r + /
1
) ,a
1;2
j = (a
2;1
r + /
2
) ,a
2;2
e il signicato del simbolo di sistema quello di indicare il nostro obiettivo:
trovare i punti comuni alle due rette. In questo ambiente bidimensionale linterpretazione
geometrica delle equazioni come rette del piano certamente la pi intuitiva ed
interessante. Anche la discussione del sistema, ovvero lo studio del numero di
soluzioni del sistema, si presta ad unimmediata interpretazione geometrica: se
le due rette sono incidenti allora il sistema ammette una ed una sola soluzione,
se le due rette sono parallele allora il sistema non ammette soluzioni, ed inne
se le due rette sono coincidenti il sistema ammmette innite soluzioni.
Questa interpretazione, cos precisa e immediata, inizia a perdere il suo fa-
scino quando si aumenta il numero delle incognite. Ad esempio una scrittura
del tipo
_
_
_
a
1;1
r
1
+ a
1;2
r
2
+ a
1;3
r
3
= /
1
a
2;1
r
1
+ a
2;2
r
2
+ a
2;3
r
3
= /
2
a
3;1
r
1
+ a
3;2
r
2
+ a
3;3
r
3
= /
3
pu essere vista come la ricerca dei punti di intersezione di tre piani nello spazio
e la visualizzazione di tali enti geometrici inizia ad essere pi complessa. Gi
pensando alle possibili posizioni reciproche di tre piani nello spazio ci rendiamo
conto che la semplicit di interpretazione che avevamo nel piano viene decisa-
mente ridimensionata dallaumento della dimensione. Per convincersi di ci si
pensi che tre piani potrebbero intersecarsi a due a due in una retta senza che il
sistema costituito dai tre piani ammetta soluzioni, ovvero senza che i tre piani
abbiano un solo punto in comune.
Vista la dicolt di comprendere che cosa accade in dimensioni superiori
a due, abbiamo la necessit di interpretare in qualche altro modo un sistema
lineare in modo che lincremento di dimensioni non inuenzi troppo la capacit
di intuire geometricamente che cosa stiamo studiando. Per farlo partiamo da
24
un caso molto semplice, ovvero da un sistema di due equazioni, due incognite,
e vediamo come lo possiamo interpretare in termini di spazi vettoriali.
Consideriamo il sistema lineare
_
r
1
+ r
2
= 1
2r
1
+ r
2
= 1
Interpretiamolo come intersezione di rette nel piano, esplicitando r
2
in entrambe
le rette otteniamo
_
r
2
= r
1
+ 1
r
2
= 2r
1
+ 1
Confrontando tra loro le due equazioni otteniamo
r
1
+ 1 = 2r
1
+ 1
r
1
= 0
Sostituendo nella prima arriviamo alla conclusione che le due rette si incontrano
in un solo punto di coordinate (r
1
, r
2
) = (0, 1).
Passiamo ora alla nuova interpretazione ed osserviamo che il sistema lineare
pu essere letto come una combinazione lineare di due vettori
_
1
2
_
r
1
+
_
1
1
_
r
2
=
_
1
1
_
Linterpretazione la seguente: dati i due vettori, che abbiamo scritto in
colonna per identicare meglio i coecienti del sistema lineare, (1, 2) e (1, 1)
possibile costruire una loro combinazione lineare che ci permetta di ottenere
il vettore (1, 1)? La risposta banale: non prendiamo il primo vettore r
1
= 0
mentre scegliamo una volta il secondo vettore r
2
= 1.
Naturalmente questa interpretazione non priva di dicolt: siamo sicuri
che questa sia lunica soluzione del sistema lineare? Come possiamo costruire
un algoritmo che ci permetta di arrivare alla soluzione? Entrambe le domande
non sono banali, tuttavia nella teoria degli spazi vettoriali che saremo in grado
di trovare le soluzioni appropriate.
Iniziamo con le denizioni generali relative ai sistemi lineari.
Denizione 8 Un sistema lineare formato da : equazioni in : incognite r
1
, ..., r
n
si pu rappresentare nel seguente modo
_

_
a
1;1
r
1
+ a
1;2
r
2
+ ... + a
1;n
r
n
= /
1
a
2;1
r
1
+ a
2;2
r
2
+ ... + a
2;n
r
n
= /
2
...
a
m;1
r
1
+ a
m;2
r
2
+ ... + a
m;n
r
n
= /
m
ed una soluzione a questo sistema corrisponde ad un vettore (r
1
, ..., r
n
) R
n
le
cui componenti soddisfano contemporaneamente tutte le : equazioni.
25
La scrittura vettoriale di questo sistema lineare si ottiene facilmente se si
scrivono in colonna i vettori dei coecienti di ogni singola incognita:
a
1
=
_
_
_
_
a
1;1
a
2;1
...
a
m;1
_
_
_
_
, a
2
=
_
_
_
_
a
1;2
a
2;2
...
a
m;2
_
_
_
_
, ..., a
n
=
_
_
_
_
a
1;n
a
2;n
...
a
m;n
_
_
_
_
, b =
_
_
_
_
/
1
/
2
...
/
m
_
_
_
_
infatti il sistema lineare si pu ora scrivere in modo compatto come
a
1
r
1
+a
2
r
2
+ ...a
n
r
n
= b
e linterpretazione quella di trovare tutti i coecienti r
1
, ..., r
n
che determinino
una combinazione lineare dei vettori a
1
, a
2
, ...a
n
R
m
che permette di ottenere
il vettore b R
m
. Osserviamo che i vettori a
1
, a
2
, ...a
n
R
m
ed il vettore b
R
m
sono i dati del nostro problema. Non banale osservare che il numero delle
incognite non deve essere uguale al numero delle equazioni: linterpretazione
del sistema lineare in termini di combinazione lineare tra vettori risulta, in ogni
caso, sensata.
Vediamo un esempio per non perderci troppo nei dettagli: il sistema lineare
_
r
1
+ r
2
2r
3
= 0
2r
1
r
2
+ r
3
= 1
pu essere riscritto come
_
1
2
_
r
1
+
_
1
1
_
r
2
+
_
2
1
_
r
3
=
_
0
1
_
e linterpretazione quella di trovare tutti i possibili coecienti delle combi-
nazioni lineari tra questi tre vettori che permettono di generare il vettore (0, 1).
A questo punto ci troviamo un po in dicolt di fronte a questa scrittura
con i vettori che risulta un po pesante. Sarebbe meglio poter raccogliere
tutti questi vettori colonna in un singolo oggetto. La denizione di matrice
nasce proprio da questa esigenza di semplicare la notazione.
Denizione 9 Una matrice :: una :-upla ordinata di vettori di R
m
:
_
_
_
_
_
_
_
_
a
1;1
a
2;1
...
a
m;1
_
_
_
_
,
_
_
_
_
a
1;2
a
2;2
...
a
m;2
_
_
_
_
, ...,
_
_
_
_
a
1;n
a
2;n
...
a
m;n
_
_
_
_
_
_
_
_
che viene scritta in modo da alleggerire la notazione come
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2n
... ... ... ...
a
m1
a
m2
... a
mn
_
_
_
_
Linsieme di tutte le matrici :: indicato con il simbolo '
mn
(R).
26
Naturalmente per trarre giovamento da questa denizione dobbiamo denire
il prodotto di una matrice per il vettore dei coecienti in modo che venga
descritta la struttura di combinazione lineare. La denizione che cerchiamo la
seguente:
Denizione 10 Data una matrice ::
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
m;1
a
m;2
... a
m;n
_
_
_
_
ed un vettore colonna
_
_
_
_
r
1
r
2
...
r
n
_
_
_
_
deniamo il prodotto tra la matrice ed il vettore nel seguente modo
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
m;1
a
m;2
... a
m;n
_
_
_
_
_
_
_
_
r
1
r
2
...
r
n
_
_
_
_
=
_
_
_
_
a
1;1
a
2;1
...
a
m;1
_
_
_
_
r
1
+ ... +
_
_
_
_
a
1;n
a
2;;n
...
a
m;n
_
_
_
_
r
n
=
_
_
_
_
a
1;1
r
1
+ a
1;2
r
2
+ a
1;n
r
n
a
2;1
r
1
+ a
2;2
r
2
+ a
2;n
r
n
...
a
m;1
r
1
+ a
m;2
r
2
+ a
m;n
r
n
_
_
_
_
Sono necessarie due osservazioni per focalizzare alcuni punti importanti di
questa denizione.
Prima di tutto osserviamo che no ad ora abbiamo trattato con una certa lib-
ert i vettori riga e i vettori colonna trasformando uno nellaltro senza prestare
particolare attenzione. Questa denizione impone invece un ordine e una dis-
tinzione fondamentale tra vettori riga e vettori colonna (il prodotto tra una
matrice ed un vettore denito pensando a vettori colonna, non vettori riga).
Quindi dora in poi tutti i vettori che andremo a considerare saranno vettori
colonna. Per chiarire meglio le idee quando indicheremo v R
n
stiamo pen-
sando al vettore
v =
_
_
_
_

2
...

n
_
_
_
_
e non al vettore (
1
,
2
, ...,
n
). Visti scritti in questo modo dovrebbe risultare
chiaro anche il motivo che ci ha portato a trattare, no ad ora, con una certa
leggerezza questa notazione: scrivere un vettore riga molto pi facile (e occupa
27
meno spazio) rispetto alla stessa scrittura di un vettore colonna. Nel seguito
tuttavia non potremo pi permetterci questa leggerezza e presteremo particolare
attenzione alla notazione.
Osserviamo che per svolgere il prodotto tra una matrice ed un vettore
essenziale che il numero delle colonne della matrice sia uguale al numero di
righe (componenti) del vettore colonna. Questa osservazione particolamente
importante se pensiamo che anche gli stessi vettori possono essere considerati
delle matrici: un vettore colonna di R
m
pu essere pensato come una matrice
: 1. Infatti se nna matrice : : una :-upla ordinata di vettori di R
m
,
allora una matrice : 1 una 1-upla ordinata di vettori di R
m
e cio un
singolo vettore di R
m
. Questa considerazione pu sembrare uninutile aggiunta
di complessit, ma risulta molto utile da un punto di vista pratico. Infatti data
una matrice '
mn
(R) e dato un vettore x R
n
proviamo a scrivere il
loro prodotto indicando sotto a questi oggetti le loro dimensioni in termini di
matrici

..
m :
x
..
: 1
= b
..
m1
Ci accorgiamo immediatamente che il prodotto denito solo se i due numeri
che abbiamo evidenziato sono uguali ovvero se il numero di colonne della prima
matrice corrisponde al numero di righe del vettore. Non solo, osserviamo che
il risultato che otteniamo una matrice (un vettore) che ha dimensioni : 1
ovvero le dimensioni che che otteniamo cancellando il termine comune : :
: / : / : 1 = :1
Vedremo nel seguito che questo prodotto tra una matrice ed un vettore si
pu estendere in modo naturale come prodotto di due matrici qualsiasi a patto
che il numero colonne della prima coincida con il numero di righe della seconda,
ovvero in modo che losservazione appena scritta sulle dimensioni continui ad
essere rispettata.
Per ovviare al problema di scrittura dei vettori in colonna conviene introdurre
la seguente notazione.
Denizione 11 Data una matrice ::
=
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
m;1
a
m;2
... a
m;n
_
_
_
_
chiamiamo matrice trasposta, e la indichiamo con
0
, la matrice : : che
otteniamo scambiando nella matrice le righe con le colonne:

0
=
_
_
_
_
a
1;1
a
2;1
... a
m1
a
1;2
a
2;2
... a
m2
... ... ... ...
a
1;n
a
2n
... a
mn
_
_
_
_
28
Vediamo subito due esempi che chiariscono la denizione. Data la matrice
2 3
=
_
1 2 3
4 5 6
_
la sua traspoata una matrice 3 2 denita come segue

0
=
_
_
1 4
2 5
3 6
_
_
Vediamo ora un esempio con un vettore: data la matrice 3 1 (ovvero un
vettore colonna)
v =
_
_
1
2
3
_
_
allora la sua trasposta risulta essere una matrice 3 1 (ovvero un vettore riga)
v
0
= (1, 2, 3)
Lultimo esempio chiarisce lutilit immediata (almeno in termini di no-
tazione) della denizione di trasposta di una matrice: il vettore trasposto di
un vettore colonna un vettore riga e quindi possiamo scriverlo agevolmente
senza appesantire troppo la notazione.
Chiudiamo ora con il collegamento tra un sistema lineare e la matrice ad esso
associata. Questa denizione dovrebbe risultare immediata visto il percorso che
abbiamo per collegare i sistemi lineari con la combinazione lineare dei vettori
colonna che rappresentano i coecienti con cui le singole variabili entrano nel
sistema.
Denizione 12 Dato un sistema lineare formato da : equazioni in : incognite
r
1
, ..., r
n
_

_
a
1;1
r
1
+ a
1;2
r
2
+ ... + a
1;n
r
n
= /
1
a
2;1
r
1
+ a
2;2
r
2
+ ... + a
2;n
r
n
= /
2
...
a
m;1
r
1
+ a
m;2
r
2
+ ... + a
m;n
r
n
= /
m
chiamiamo matrice associata a questo sistema lineare la matrice :: composta
dalle colonne dei coecienti delle singole variabili:
=
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
m;1
a
m;2
... a
m;n
_
_
_
_
29
Chiamiamo invece vettore dei termini noti il vettore colonna:
b =
_
_
_
_
/
1
/
2
...
/
m
_
_
_
_
Risolvere il sistema signica trovare linsieme di tutti i vettori x R
n
tali
che
x = b
Osserviamo che la notazione che abbiamo introdotto rende estremamente
semplice parlare di sistemi lineari: la denizione che prima richiedeva pi righe
e molta attenzione agli indici contenuta ora in pochi simboli che sono ricchi
tuttavia del signicato matematico descritto in questa sezione.
30
5 Rango di una matrice
Dato un sistema lineare il nostro obiettivo ora quello di determinare linsieme
delle soluzioni.
Denizione 13 Dato un sistema lineare caratterizzato dalla matrice dei coef-
cienti delle incognite '
mn
(R) e dal vettore dei termini noti b R
m
chiamiamo insieme delle soluzioni linsieme dei vettori x R
n
tali che
x = b
Come spesso accade in Matematica non aronteremo il problema global-
mente, ma lo spezziamo in passi pi piccoli arontando poi questi sottoprob-
lemi ad uno ad uno e ricostruendo al termine il ragionamento generale. Per
quanto riguarda la soluzione dei sistemi lineari i sottoproblemi che andiamo ad
introdurre sono i seguenti:
un sistema lineare ammette soluzioni?
se un sistema lineare ammette soluzioni quante sono?
una volta che sappiamo quante sono le soluzioni di un sistema lineare come
facciamo a calcolarle?
Occupiamoci per ora del primo passo, per capire se un sistema ammette
soluzioni utilizzeremo la denizione di sottospazio vettoriale generato da un
insieme di vettori e i risultati che abbiamo ottenuto sulla sua dimensione.
Ricordiamo che risolvere il sistema lineare
x = b
ossia
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2n
... ... ... ...
a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
r
1
r
2
...
r
n
_
_
_
_
=
_
_
_
_
/
1
/
2
...
/
m
_
_
_
_
signica capire se possibile rappresentare il vettore b come combinazione line-
are delle colonne della matrice . Introduciamo allora il sottospazio vettoriale
generato dalle colonne della matrice ; se poniamo
a
1
=
_
_
_
_
a
1;1
a
2;1
...
a
m;1
_
_
_
_
, a
2
=
_
_
_
_
a
1;2
a
2;2
...
a
m;2
_
_
_
_
, ..., a
n
=
_
_
_
_
a
1;n
a
2;n
...
a
m;n
_
_
_
_
, b =
_
_
_
_
/
1
/
2
...
/
m
_
_
_
_
allora stiamo considerando il sottospazio
a
1
, a
2
, ..., a
n

31
La domanda che ci stiamo ponendo la seguente:
b
?
a
1
, a
2
, ..., a
n

Lidea che ci permette di semplicare il problema quella di arrivare a


questo risultato confrontando tra loro le dimensioni di due sottospazi vettoriali.
Consideriamo infatti il sottospazio vettoriale
a
1
, a
2
, ..., a
n
, b
dove abbiamo aggiunto ai vettori che rappresentano le colonne della matrice
il vettore dei termini noti. Per come sono stati deniti
a
1
, a
2
, ..., a
n
E a
1
, a
2
, ..., a
n
, b
Visto che abbiamo aggiunto un nuovo vettore ai precedenti lo spazio vettoriale
generato da a
1
, a
2
, ..., a
n
, b generalmente pi grande dello spazio vettoriale
generato da a
1
, a
2
, ..., a
n
. Inoltre avremo che
dima
1
, a
2
, ..., a
n
_ dima
1
, a
2
, ..., a
n
, b
poich il numero di vettori linearmente indipendenti nellinsieme a
1
, a
2
, ..., a
n
, b
generalmente maggiore dellinsieme dei vettori linearmente indipendenti nellinsieme
a
1
, a
2
, ..., a
n
.
A questo punto osserviamo che si possono vericare due situazioni:
il sistema lineare ammette soluzioni il che equivale ad aermare che il vet-
tore b si pu scrivere come combinazione lineare dei vettori a
1
, a
2
, ..., a
n
;
in questo caso dima
1
, a
2
, ..., a
n
= dima
1
, a
2
, ..., a
n
, b poich aggiun-
gendo il vettore b non abbiamo aumentato il numero massimo di vettori
linearmente indipendenti contenuti nellinsieme a
1
, a
2
, ..., a
n
, b visto
che il vettore b linearmente dipendente dai vettori a
1
, a
2
, ..., a
n
il sistema lineare non ammette soluzioni il che equivale ad aermare che
il vettore b non si pu scrivere come combinazione lineare dei vettori
a
1
, a
2
, ..., a
n
; in questo caso dima
1
, a
2
, ..., a
n
< dima
1
, a
2
, ..., a
n
, b
poich aggiungendo il vettore b abbiamo incrementato di una unit il
numero massimo di vettori linearmente indipendenti contenuti nellinsieme
a
1
, a
2
, ..., a
n
, b
Questa semplice osservazione ci utilie poich lo studio della soluzione di
un sistema lineare ricondotta al calcolo della dimensione di due sottospazi
vettoriali. Nelle due denizioni seguenti diamo un nome alle dimensioni di
questi due spazi vettoriali generati che sono di fondamentale importanza nello
studio dei sistemi lineari.
32
Denizione 14 Data una matrice '
mn
(R) chiamiamo rango di que-
sta matrice, e lo indichiamo con rk la dimensione del sottospazio vettoriale
generato dalle colonne della matrice:
rk = rk
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
m;1
a
m;2
... a
m;n
_
_
_
_
=
= dim
_
_
_
_
_
a
1;1
a
2;1
...
a
m;1
_
_
_
_
,
_
_
_
_
a
1;2
a
2;2
...
a
m;2
_
_
_
_
, ...,
_
_
_
_
a
1;n
a
2;n
...
a
m;n
_
_
_
_
_
A questo punto sappiamo dare un nome alla dimensione del sottospazio
vettoriale generato dalle colonne della matrice , ci manca un nome per il
sottospazio vettoriale generato dalle colonne della matrice e dal vettore dei
termini noti. La notazione utilizzata quella chiarita nel seguente teorema che
riassume i ragionamenti descritti no ad ora.
Teorema 4 Dato un sistema lineare caratterizzato dalla matrice dei coecienti
delle incognite '
mn
(R) e dal vettore dei termini noti b R
m
consideri-
amo il sistema lineare
x = b
Chiamiamo matrice incompleta la matrice caratteristica del sistema lineare ovvero
la matrice ; chiamiamo invece matrice completa la matrice che otteniamo ag-
giungendo alle colonne della matrice la colonna dei termini noti:
( [ b)
Con questa notazione possiamo aermare che il sistema lineare ammette soluzioni
se e solo se i ranghi della matrice incompleta e della matrice completa coinci-
dono:
x = b ammette soluzioni = rk = rk ( [ b)
Abbiamo ricondotto la dimostrazione dellesistenza delle soluzioni di un sis-
tema lineare alla ricerca del rango di una matrice. Per ora abbiamo semplice-
mente dato un nome diverso al problema (prima dovevamo cercare le soluzioni
di un sistema, ora dobbiamo calcolare il rango di una matrice), tuttavia nella
prossima sezione vedremo che esiste uno strumento matematico molto ecace
per calcolare il rango di una matrice. Vediamo ora un esempio in cui applichiamo
i risultati di questo Teorema.
33
Proviamo a calcolare il rango della matrice incompleta e della matrice com-
pleta del sistema lineare
_
_
_
r
1
+ r
2
+ 2r
3
= 0
r
1
+ 2r
2
+ 3r
3
= 0
r
2
+ r
3
= 1
Prima di tutto osserviamo che la matrice caratteristica del sistema, ovvero la
matrice incompleta
=
_
_
1 1 2
1 2 3
0 1 1
_
_
il vettore dei termini noti invece b
0
= (0, 0, 1) e quindi la matrice completa
( [ b) =
_
_
1 1 2
1 2 3
0 1 1

0
0
1
_
_
Iniziamo dalla matrice incompleta, il suo rango un numero naturale compreso
tra 0 e 3, infatti il rango il massimo numero di colonne linearmente indipen-
denti presenti nella matrice . Partiamo dal numero pi grande, ovvero provi-
amo a dimostrare che le tre colonne della matrice sono tra loro linearmente
indipendenti.
_
_
1
1
0
_
_
c
1
+
_
_
1
2
1
_
_
c
2
+
_
_
2
3
1
_
_
c
3
=
_
_
0
0
0
_
_
Svolgendo i conti otteniamo che
_
_
c
1
+ c
2
+ 2c
3
c
1
+ 2c
2
+ 3c
3
c
2
+ c
3
_
_
=
_
_
0
0
0
_
_
e arriviamo al sistema _
_
_
c
1
+ c
2
+ 2c
3
= 0
c
1
+ 2c
2
+ 3c
3
= 0
c
2
+ c
3
= 0
Dallultima equazione
_
_
_
c
1
c
3
+ 2c
3
= 0
c
1
2c
3
+ 3c
3
= 0
c
2
= c
3
e quindi
_
_
_
c
1
+ c
3
= 0
c
1
+ c
3
= 0
c
2
= c
3
34
Ovvero ponendo
_
_
_
c
1
= 1
c
2
= 1
c
3
= 1
si ottiene una soluzione non nulla; i tre vettori non sono linearmente indipen-
denti. Anzi questa soluzione ci dice che il terzo la somma dei primi due. Il
rango della matrice incompleta non pu essere quindi 3, ma deve essere un nu-
mero compreso tra 0 e 2. Vediamo se il rango pu essere 2. A questo punto ci
troviamo a dover fare una scelta arbitraria, dobbiamo prendere due vettori tra
le colonne della matrice . Questa scelta pu essere fatta in tre modi diversi
e il risultato che otteniamo deve essere riportato alla matrice stessa. Se tutte
e tre le scelte portano ad una coppia di vettori linearmente dipendenti allora il
rango della matrice non pu essere 2, se invece esiste anche una sola coppia di
vettori linearmenete indipendenti allora il rango della matrice 2. Decidiamo di
scegliere i primi due vettori e speriamo di essere fortunati (in reat dopo un po
di esercizio si riesce a intuire come deve essere fatta questa scelta). Analizziamo
lindipendenza lineare delle prime due colonne della matrice .
_
_
1
1
0
_
_
c
1
+
_
_
1
2
1
_
_
c
2
=
_
_
0
0
0
_
_
Svolgendo i conti otteniamo che
_
_
c
1
+ c
2
c
1
+ 2c
2
c
2
_
_
=
_
_
0
0
0
_
_
e arriviamo al sistema _
_
_
c
1
+ c
2
= 0
c
1
+ 2c
2
= 0
c
2
= 0
Quindi lunica soluzione quella banale
_
c
1
= 0
c
2
= 0
e i vettori sono linearmente indipendenti. Abbiamo dimostrato che il massimo
numero di vettori linearmente indipendenti tra le colonne della matrice 2 e
quindi rk = 2.
Andiamo a calcolare ora il rango della matrice completa. Osserviamo che
questo un numero naturale che varia tra 2 e 3. Il vincolo inferiore dovuto
alla relazione
rk _ rk ( [ b)
che sempre valida e deriva direttamente dalla denizione di rango: nella
matrice completa abbiamo un vettore colonna in pi rispetto a quelli gi presenti
35
nella matrice incompleta quindi il numero di colonne linearmente indipendenti
nella matrice completa uguale a quello della incompleta oppure maggiore.
Quindi nel nostro caso il rango 3 se ci sono tre colonne linearmente indipen-
denti oppure 2 se tutte le terne di colonne che possiamo estrarre dalla matrice
completa (che sono quattro) sono formate da vettori linearmente dipendenti.
Scegliamo dalla matrice completa la prima, la seconda e la quarta colonna e
studiamo la loro dipendenza lineare.
_
_
1
1
0
_
_
c
1
+
_
_
1
2
1
_
_
c
2
+
_
_
0
0
1
_
_
c
3
=
_
_
0
0
0
_
_
Svolgendo i conti otteniamo che
_
_
c
1
+ c
2
c
1
+ 2c
2
c
2
+ c
3
_
_
=
_
_
0
0
0
_
_
e arriviamo al sistema _
_
_
c
1
+ c
2
= 0
c
1
+ 2c
2
= 0
c
2
+ c
3
= 0
Dalle ultime due equazioni otteniamo
_
_
_
c
1
+ c
2
= 0
c
1
= 2c
2
c
3
= c
2
sostituiamo nella prima ad otteniamo
_
_
_
2c
2
+ c
2
= 0
c
1
= 2c
2
c
3
= c
2
e quindi
_
_
_
c
2
= 0
c
1
= 0
c
3
= 0
Lunica soluzione quella banale, i tre vettori sono linearmente indipendenti e
cos possiamo concludere che il rango della matrice completa rk ( [ b) = 3. Il
teorema che abbiamo enunciato in questa sezione ci permette di aermare che
il sistema che stiamo studiando non ammette soluzioni.
36
6 Determinante
La dicolt nellutilizzo dei risultati presentati nella sezione precedente legata
alla complessit necessaria per dimostrare che alcuni vettori sono linearmente
indipendenti. Ci servirebbe uno strumento che permetta di calcolare in modo
rapido il rango di una matrice senza dover studiare lindipendenza delle colonne
della matrice stessa. Questo strumento il determinante e sar loggetto di
studio di questa sezione.
Denizione 15 Consideriamo linsieme delle matrici quadrate : : e deni-
amo, per induzione su :, una funzione su questo insieme
det : '
nn
(R) R
det
Per : = 1, det (a
1;1
) = a
1;1
Per : 1 vale la seguente regola:
det
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
n;1
a
n;2
... a
n;n
_
_
_
_
= (1)
1+1
a
1;1
det
_
_
_
_
/ a
1;1
/ a
1;2
... / a
1;n
/ a
2;1
a
2;2
... a
2;n
... ... ... ...
/ a
n;1
a
n;2
... a
n;n
_
_
_
_
+(1)
1+2
a
1;2
det
_
_
_
_
/ a
1;1
/ a
1;2
... / a
1;n
a
2;1
/ a
2;2
... a
2;n
... ... ... ...
a
n;1
/ a
n;2
... a
n;n
_
_
_
_
+... + (1)
1+n
a
1;n
det
_
_
_
_
/ a
1;1
/ a
1;2
... / a
1;n
a
2;1
a
2;2
... / a
2;n
... ... ... ...
a
n;1
a
n;2
... / a
n;n
_
_
_
_
Andiamo a commentare questa denizione soprattutto per la parte induttiva
: 1 e facciamo qualche esempio per chiarire quali calcoli si debbano arontare.
Per : 1 la denizione ci richiede di evidenziare la prima riga della matrice
di cui vogliamo calcolare il determinante. Associamo ad ogni elemento della
prima riga il numero +1 se la somma dei due indici di riga e di colonna di
quellelemento pari, che invece 1 se la somma dei due indici di riga e di
colonna di quellelemento dispari. Ad esempio lelemento a
1;1
si trova nella
prima riga e nella prima colonna, quindi la somma di questi due indici 1+1 = 2
e destra del simbolo di uguaglianza, davati al termine a
1;1
, troviamo la scrittura
(1)
1+1
= +1: a questa posizione pari viene associato il numero +1. Per
quanto riguarda lelemento a
1;2
questo si trova nella prima riga e nella seconda
colonna, quindi la somma di questi due indici 1 + 2 = 3 e destra del simbolo
di uguaglianza, davati al termine a
1;2
, troviamo la scrittura (1)
1+2
= 1: a
37
questa posizione dispari viene associato il numero 1. Proseguento in questo
modo si riescono a ricostruire tutti i primi due fattori dei singoli addendi che
compongono la denizione ricorsiva di determinante.
A questo punto dobbiamo osservare che per completare il calcolo del de-
terminante di una matrice dobbiamo conoscere il determinante delle matrici
che stanno a destra del segno di uguaglianza. A prima vista sembra una ri-
corsione, tuttavia osserviamo che tutte gli : determinati a destra riguardano
matrici quadrate pi piccole rispetto alla matrice originale. Ad esempio il primo
determinante coinvolge la matrice che otteniamo dalla matrice di partenza can-
cellando la prima riga e la prima colonna, il secondo determinante fa riferimento
alla matrice che otteniamo dalla matrice di partenza cancellando la prima riga
e la seconda colonna, e cos via. rilevante osservare che il calcolo del determi-
nante di una matrice quadrata :: viene ricondotto al calcolo del determinante
di : matrici quadrate di dimensione (: 1) (: 1). Iterando : volte questa
denizione arriviamo a ricondurre il calcolo del determinante di una matrice
:: al calcolo di molti determinanti di matrici 1 1, operazione che sappiamo
compiere senza problemi poich denita nel passo base della denizione di
determinante.
Vediamo subito due esempi che dovrebbero chiarire le idee, prendiamo una
matrice quadrata 2 2 otteniamo facilmente
det
_
a
1;1
a
1;2
a
2;1
a
2;2
_
= (1)
1+1
a
1;1
det
_
/ a
1;1
/ a
1;2
/ a
2;1
a
2;2
_
+(1)
1+2
a
1;2
det
_
/ a
1;1
/ a
1;2
a
2;1
/ a
2;2
_
= a
1;1
det (a
2;2
) a
1;2
det (a
2;1
)
= a
1;1
a
2;2
a
1;2
a
2;1
Il determinante di una 2 2 ricondotto al calcolo di due determinanti di
una 1 1 ed il calcolo diventa immediato. Osserviamo marginalmente che la
formula che otteniamo viene spesso data come denizione di determinante di una
matrice 2 2 nei libri di Matematica delle scuole secondarie. La regoletta che
spesso viene associata a questo calcolo la seguente: prodotto dei termini nella
diagonale principale meno il prodotto dei termini nella diagonale secondaria.
38
Complichiamo un po il calcolo passando ad una generica matrice quadrata
3 3,
det
_
_
a
1;1
a
1;2
a
1;3
a
2;1
a
2;2
a
2;3
a
3;1
a
3;2
a
3;3
_
_
= (1)
1+1
a
1;1
det
_
_
/ a
1;1
/ a
1;2
/ a
13
/ a
2;1
a
2;2
a
23
/ a
3;1
a
3;2
a
3;3
_
_
+(1)
1+2
a
1;2
det
_
_
/ a
1;1
/ a
1;2
/ a
13
a
2;1
/ a
2;2
a
23
a
31
/ a
32
a
33
_
_
+(1)
1+3
a
1;3
det
_
_
/ a
1;1
/ a
1;2
/ a
13
a
2;1
a
2;2
/ a
23
a
31
a
32
/ a
33
_
_
esplicitando le righe e le colonne eliminate nelle matrici a destra delluguale
troviamo
det
_
_
a
1;1
a
1;2
a
13
a
2;1
a
2;2
a
2;3
a
3;1
a
3;2
a
3;3
_
_
= a
1;1
det
_
a
2;2
a
2;3
a
3;2
a
3;3
_
a
1;2
det
_
a
2;1
a
2;3
a
3;1
a
3;3
_
+a
13
det
_
a
2;1
a
2;2
a
3;1
a
3;2
_
e a questo punto abbiamo ricondotto il calcolo a determinanti di matrici 22 che
sappiamo risolvere senza fatica sfruttando quanto visto nellesempio precedente.
In dettaglio,
det
_
_
a
1;1
a
1;2
a
1;3
a
2;1
a
2;2
a
2;3
a
3;1
a
3;2
a
3;3
_
_
= a
1;1
(a
2;2
a
3;3
a
2;3
a
3;2
) a
1;2
(a
2;1
a
3;3
a
2;3
a
3;1
) + a
1;3
(a
2;1
a
3;2
a
3;1
a
2;2
)
39
Per matrici quadrate pi grandi si continua ad utilizzare questa denizione,
vediamone un esempio numerico
det
_
_
_
_
1 0 2 3
1 3 1 0
0 2 0 2
2 0 2 2
_
_
_
_
= (1)
1+1
1 det
_
_
3 1 0
2 0 2
0 2 2
_
_
+(1)
1+2
0 det
_
_
1 1 0
0 0 2
2 2 2
_
_
+(1)
1+3
2 det
_
_
1 3 0
0 2 2
2 0 2
_
_
+(1)
1+4
3 det
_
_
1 3 1
0 2 0
2 0 2
_
_
Osserviamo che non serve calcolare il secondo determinante poich viene molti-
plicato per zero, quindi in ogni caso il secondo addendo sar nullo. Svolgiamo
ancora i conti
det
_
_
_
_
1 0 2 3
1 3 1 0
0 2 0 2
2 0 2 2
_
_
_
_
= det
_
_
3 1 0
2 0 2
0 2 2
_
_
+2 det
_
_
1 3 0
0 2 2
2 0 2
_
_
3 det
_
_
1 3 1
0 2 0
2 0 2
_
_
Lavoriamo su singoli determinanti 3 3
det
_
_
3 1 0
2 0 2
0 2 2
_
_
= 3 (0 4) 1 (4 0) + 0
= 12 + 4 = 8
per il secondo otteniamo
det
_
_
1 3 0
0 2 2
2 0 2
_
_
= 1 (4 + 0) 3 (0 4) + 0
= 4 + 12 = 16
40
ed inne il terzo
det
_
_
1 3 1
0 2 0
2 0 2
_
_
= 1 (4 0) 3 (0 0) + 1 (0 + 4)
= 4 + 4 = 8
Concludendo
det
_
_
_
_
1 0 2 3
1 3 1 0
0 2 0 2
2 0 2 2
_
_
_
_
= 8 + 2 (16) 3 (8) = 0
Una volta chiaro il funzionamento di questo strumento introduciamo qualche
precisazione nella notazione e presentiamo il risultato fondamentale che lega il
determinante al rango di una matrice.
Denizione 16 Data una matrice '
mn
(R) viende detto minore di or-
dine / di questa matrice il determinante di una matrice // che si pu estrarre
dalla matrice cancellando (:/) righe ed (: /) colonne.
Segnaliamo che a volte, con un abuso di notazione, vengono indicati con
il termine minori di ordine / anche le matrici quadrate / / che si possono
estrarre dalla matrice cancellando (:/) righe ed (: /) colonne. Di solito
chiaro dal contesto di che oggetto matematico si sta parlando.
Data la matrice caratteristica '
mn
(R) di un sistema lineare, questa
in generale non una matrice quadrata e quindi non possiamo ipotizzare di
calcolare il suo determinante. Dobbiamo limitarci a considerare i determinanti
delle matrici quadrate contenute allinterno della matrice cercando di ottenere
informazioni da questi minori. Linformazione realmente utile che possiamo
ottenere dai minori di una matrice riassunta nel seguente Teorema che fornisce
lo strumento pi importante per studiare il rango di una matrice
Teorema 5 Data una matrice '
mn
(R), questa ha rango / se e solo se
esiste un minore di ordine / diverso da zero,
tutti i minori di ordine maggiore di / sono nulli.
Omettiamo la dimostrazione di questo risultato ed occupiamoci della sua
applicazione ai sistemi lineari, vogliamo analizzare il sistema che abbiamo gi
41
studiato nella sezione precedente utilizzando ora il determinante. Il sistema
lineare _
_
_
r
1
+ r
2
+ 2r
3
= 0
r
1
+ 2r
2
+ 3r
3
= 0
r
2
+ r
3
= 1
ha come matrice incompleta
=
_
_
1 1 2
1 2 3
0 1 1
_
_
il vettore dei termini noti invece b
0
= (0, 0, 1) e la matrice completa
( [ b) =
_
_
1 1 2
1 2 3
0 1 1

0
0
1
_
_
Osserviamo che 0 _ rk _ 3. Se il rango tre deve esserci un minore
di ordine 3 della matrice diverso da zero. Lunico minore di ordine 3 il
determinante della matrice stessa, e questo
det
_
_
1 1 2
1 2 3
0 1 1
_
_
= det
_
2 3
1 1
_
det
_
1 3
0 1
_
+ 2 det
_
1 2
0 1
_
= 2 3 (1 0) + 2 (1 0) = 1 1 + 2 = 0
Quindi 0 _ rk _ 2. Selezioniamo arbitrariamente (ma con un po di astuzia)
un minore di ordine 2 della matrice , ad esempio, cancellando la prima riga e
la seconda colonna otteniamo il minore
det
_
1 3
0 1
_
= 1 ,= 0
Abbiamo trovato un minore di ordine 2 non nullo, e tutti i minori di ordine
maggiore sono uguali a zero, quindi rk = 2. Passiamo alla matrice completa
2 _ rk ( [ b) _ 3. I minori di ordine 3 sono 4; il determinante della matrice
3 3 che si ottiene cancellando la terza colonna della matrice completa
det
_
_
1 1 0
1 2 0
0 1 1
_
_
= det
_
2 0
1 1
_

_
1 0
0 1
_
= 2 1 = 1 ,= 0
quindi rk ( [ b) = 3 ed il sistema non ammette soluzione.
Osserviamo come sia molto pi semplice analizzare il rango di una matrice
utilizzando i suoi minori; lalgoritmo richiede di iniziare sempre dai minori di
ordine maggiore e dinimuire la loro dimensione no a quando non se ne trova
42
uno di non nullo, la dimensione del primo minore non nullo ottenuta utilizzando
questo algoritmo il rango della matrice.
Questa osservazione ci permette di ottenere uninformazione aggiuntiva sul
rango di una matrice, dalla denizione di rango abbiamo che se '
mn
(R)
allora 0 _ rk () _ :. Ora abbiamo legato il rango ai minori della matrice
, i quali sono determinanti di matrici quadrate, quindi il vincolo precedente
pu essere migliorato: la matrice quadrata pi grande che si pu ottenere dalla
matrice '
mn
(R) eliminando alcune righe o alcune colonne ha dimensione
pari al minimo tra il numero di righe ed il numero di colonne della matrice
stessa. In formule abbiamo che se '
mn
(R) allora
0 _ rk () _ min:, : _ :
Lintuizione che sta dietro a questo nuovo vincolo pi stringente sul rango
di una matrice abbastanza semplice. Aermando che il rango di una matrice
'
mn
(R) pi piccolo di : abbiamo osservato solo il numero di colonne
della matrice , ma non abbiamo considerato la dimensione di questi vettori
colonna. Se i vettori colonna sono scelti in R
m
allora in questo spazio vettoriale
di dimensione : non potranno esserci pi di : vettori linearmente indipendenti.
Oppure, detto in altri termini lo spazio vettoriale generato dalle colonne della
matrice un sottospazio vettoriale di R
m
quindi la sua dimensione non pu
essere maggiore di :.
In un esempio pratico osserviamo che, sfruttando il vincolo meno stringente,
avremmo che, data la matrice
=
_
_
1 0 2 0 0
2 1 0 1 0
0 1 0 2 1
_
_
allora 0 _ rk ( [ b) _ 5. In realt ci rendiamo conto che i vettori colonna
sono elementi dello spazio vettoriale R
3
quindi il massimo numero di colonne
linearmente indipendenti 3. Equivalentemente possiamo osservare che la pi
grande matrice quadrata contenuta in una 33 quindi al massimo otterremo
un minore di ordine 3 diverso da zero, ma al di sopra di questa dimensione non
potremo andare. Il vincolo corretto quindi
0 _ rk _ min5, 3 = 3
43
7 Propriet del determinante
In questa Sezione andremo a studiare alcune propriet che rendono pi agevole
il calcolo del determinante di una matrice. Premettiamo una denizione che ci
sar utile nellesporre i risultati.
Denizione 17 Data una matrice quadrata '
nn
(R),
viene detto minore complementare della posizione i, , il determinante della
matrice (: 1) (: 1) che si ottiene dalla matrice eliminando la i-
esima righa e la ,-esima colonna;
viene chiamato complemento algebrico della posizione i, , il minore com-
plementare della posizione i, , moltiplicato per numero (1)
i+j
; ovvero
cambiato di segno se la posizione dispari (i +, dispari), lasciato invari-
ato se la posizione pari (i + , pari).
Osserviamo che con questa denizione possiamo riscrivere la denizione di
determinante in modo molto compatto. Infatti data una matrice quadrata
'
nn
(R) e indicato con a

i;j
il complemento algebrico della posizione i, , allora
possiamo scrivere
det
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
n;1
a
n;2
... a
n;n
_
_
_
_
= a
1;1
a

1;1
+ a
1;2
a

1;2
+ ... + a
1;n
a

1;n
=
n

j=1
a
1;j
a

1;j
Oltre a fornire un modo compatto per scrivere il determinante di una matrice
questa denizione permette di enunciare il Teorema di Laplace per i determi-
nanti che uno strumento molto utile per semplicare i calcoli. Osserviamo
infatti che nella denizione che abbiamo dato di determinante la prima riga
gioca un ruolo essenziale. Il risultato seguente limita limportanza di questa
scelta e aerma che sviluppando il determinante rispetto a qualsiasi riga o a
qualsiasi colonna si perviene al medesimo risultato.
Teorema 6 Data una matrice quadrata '
nn
(R) e ssata arbitraria-
mente una riga / allora
det
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
n;1
a
n;2
... a
n;n
_
_
_
_
=
n

j=1
a
k;j
a

k;j
Se si ssa invece una colonna / allora
det
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
n;1
a
n;2
... a
n;n
_
_
_
_
=
n

i=1
a
i;k
a

i;k
44
Osserviamo che la prima parte del Teorema banale per la scelta della
riga / = 1 poich corrisponde proprio alla denizione che abbiamo dato di
determinante. Il Teorema aerma che per scelte diverse della riga o della colonna
rispetto alla quale si sviluppa il determinante si perviene sempre allo stesso
risultato. Omettiamo la dimostrazione di questo risultato, ma proviamolo su
qualche esempio. Per denizione
det
_
_
2 0 1
0 1 0
3 3 1
_
_
= 2 det
_
1 0
3 1
_
det
_
0 1
3 3
_
= 2 + 3 = 5
Sviluppiamo ora rispetto alla seconda riga
det
_
_
2 0 1
0 1 0
3 3 1
_
_
= det
_
2 1
3 1
_
= 2 + 3 = 5
Sviluppiamo invece rispetto alla terza riga
det
_
_
2 0 1
0 1 0
3 3 1
_
_
= 3 det
_
0 1
1 0
_
+ 3 det
_
2 1
0 0
_
+ det
_
2 0
0 1
_
= 3 + 0 + 2 = 5
Proviamo ora rispetto alle colonne; rispetto alla prima colonna
det
_
_
_
_
2 0 1
0 1 0
3 3 1
_
_
_
_
= 2 det
_
1 0
3 1
_
+ 3 det
_
0 1
1 0
_
= 2 + 3 = 5
rispetto alla seconda colonna
det
_
_
_
_
2 0 1
0 1 0
3 3 1
_
_
_
_
= det
_
1 0
3 1
_
+ 3 det
_
0 1
1 0
_
= 2 + 3 = 5
45
ed inne rispetto alla terza colonna
det
_
_
_
_
2 0 1
0 1 0
3 3 1
_
_
_
_
= det
_
0 1
3 3
_
+ det
_
2 0
0 1
_
= 3 + 2 = 5
Da questo semplice esempio si capisce limportanza di questo risultato: i
calcoli non sono tutti uguali nello sviluppo di un determinante. A volte per
calcolare il determinante di una 3 3 necessario calcolare il determinante
di 3 matrici 2 2; altre volte necessario il calcolo di un solo determinante
2 2. Lidea da sfruttare semplice: sviluppare il determinante rispetto alla
riga o alla colonna che contiene il maggior numero di elementi nulli in modo da
minimizzare il numero di complementi algebrici da calcolare.
Un esempio di utilizzo banale di questa regoletta empirica il seguente: se
una matrice ha una riga, oppure una colonna di zeri, allora il suo determinante
nullo. La verica banale, sviluppando il determinante rispetto a quella riga
o a quella colonna si ottiene la somma di tanti prodotti in cui il primo fattore
sempre zero (lelemento della riga o della colonna in esame) ed il secondo
fattore sempre un determinante. Naturalmente inutile il calcolo di questi
determinanti: questa somma dar sempre zero. In formule
det
_
_
_
_
0 2 6
0 1 2
0 3 4
_
_
_
_
= 0 det (+) + 0 det (+) + 0 det (+) = 0
dove abbiamo indicato con det (+) il determinante delle varie sottomatrici che
tuttavia non dobbiamo neppure indicare visto che questo termine viene molti-
plicato per zero.
Vediamo ora qualche applicazione un po pi teorica di questo risultato.
immediato osservare che il determinante di una matrice triangolare inferiore
(ovvero una matrice che ha tutti zero al di sopra della diagonale) il prodotto
dei termini diagonali
det
_
_
_
_
a
1;1
0 ... 0
a
2;1
a
2;2
... 0
... ... ... ...
a
n;1
a
n;2
... a
n;n
_
_
_
_
= a
1;1
det
_
_
_
a
2;2
... 0
... ... ...
a
n;2
... a
n;n
_
_
_
= ... =
= a
1;1
a
2;2
... a
n;n
46
Infatti continuando a sviluppare rispetto alla prima riga si perviene rapida-
mente a questo risultato. Se si deve calcolare il determinante di una matrice
triangolare superiore (ovvero una matrice che ha tutti zero al di sotto della diag-
onale) si pu ragionare come prima, ma sviluppando i vari determinanti rispetto
alla prima colonna:
det
_
_
_
_
_
a
1;1
a
1;2
... a
1;n
0 a
2;2
... a
2;n
... ... ... ...
0 0 ... a
n;n
_
_
_
_
_
= a
1;1
det
_
_
_
a
2;2
... 0
... ... ...
0 ... a
n;n
_
_
_
= ... =
= a
1;1
a
2;2
... a
n;n
Si perviene allo stesso risultato: il determinante di una qualsiasi matrice tri-
angolare (superiore o inferiore) il prodotto dei termini diagonali della matrice
stessa.
Anche le matrici diagonali , ovvero matrici che hanno termini non nulli
solo lungo la diagonale principale, godono della stessa propriet, infatti possono
essere considerate, contemporaneamente, sia triangolari superiori, sia triangolari
inferiori. Quindi in formule:
det
_
_
_
_
a
1;1
0 ... 0
0 a
2;2
... 0
... ... ... ...
0 0 ... a
n;n
_
_
_
_
= a
1;1
a
2;2
... a
n;n
Concludiamo questa sezione con unosservazione che risulter fondamentale
nella soluzione dei sistemi lineari. Abbiamo denito come rango di una matrice
il numero di colonne linearmente indipendenti della matrice stessa. Che cosa
possiamo dire delle righe di questa matrice? Facciamo un esempio per chiarirci
le idee. Data la matrice
=
_
_
1 2 3 2
1 2 2 0
0 0 0 0
_
_
il suo rango 2, infatti tutte le matrici 3 3 contenute in questa matrice hanno
determinante uguale a 0 poich lultima riga di tutte queste matrici sempre
composta da zeri. Inoltre la sottomatrice 2 2 individuata allinterno della
matrice nel seguente modo
_
_
_
_
1 2 3 2
1 2 2 0
0 0 0 0
_
_
_
_
47
ha determinate uguale a 1 e quindi diverso da zero.
Calcolare il numero di righe linearmente indipendenti della matrice signi-
ca calcolare il rango della sua trasposta:
rk (
0
) = rk
_
_
_
_
1 1 0
2 2 0
3 2 0
2 0 0
_
_
_
_
Osserviamo che tutte le matrici 33 contentute in
0
hanno determinante nullo
poich hanno lultima colonna tutta composta di zeri. Chiediamoci ora dove sia
andata a nire la matrice 2 2 che avevamo individuato prima.

0
=
_
_
_
_
1 1 0
2 2 0
3 2 0
2 0 0
_
_
_
_
Ci troviamo a dover calcolare il determinante della matrice
det
_
1 1
3 2
_
= 1
che uguale a quello di prima. Quindi il numero di colonne linearmente in-
dipendenti nella matrice corrisponde al rango della sua trasposta ed uguale
al rango di . A questo punto viene spontaneo chiedersi: questa propriet
tipica della matrice che abbiamo preso in esame oppure vale per tutte le ma-
trici? Naturalmente la risposta corretta la seconda e questo strettamente
collegato alle propriet dei determinanti che abbiamo visto in questa Sezione.
Riprendiamo un attimo lesempio precedente ed in particolare la matrice che ci
ha permesso di dimostrare che il rango delle due matrici 2. Osserviamo che le
due matrici 2 2 con determinante diverso da zero che abbiamo identicato in
e in
0
non sono la stessa matrice:
det
_
1 3
1 2
_
= 1 in
det
_
1 1
3 2
_
= 1 in
0
Si riconosce immediatamente che le due matrici quadrate sono una la trasposta
dellaltra, e questo non dovrebbe stupire visto che
0
la trasposta di e
quindi questo legame si trasmette alle sottomatrici. Quello che sembra un po
particolare in questo esempio che le due matrici abbiano esattamente lo stesso
determinante. In realt proviamo a pensare a come vengono calcolati questi
determinanti, se calcoliamo il secondo determinante sviluppandolo rispetto alla
prima colonna
det
_
1 1
3 2
_
= 1 1 3 1 = det
_
1 3
1 2
_
48
otteniamo il primo determinante sviluppato, come al solito, rispetto alla prima
riga. Questo un risultato generale che pu essere riassunto dicendo che il
determinante di una matrice coincide con il determinante della sua trasposta ed
legato al Teorema di Laplace sui determinanti. Questa osservazione chiarisce
il legame tra rango di e rango di
0
, i due sono sempre uguali poich sono
sempre uguali i minori corrispondenti.
Questi due risultati meritano di essere evidenziati.
Teorema 7 Data una matrice quadrata '
nn
(R) allora
det () = det (
0
)
Data una matrice '
mn
(R) allora
rk () = rk (
0
)
Omettiamo la dimostrazione di entrambi questi risultati anche se lintuizione
di come si debbano svolgere i calcoli in casi partici dovrebbe essere chiara
dallesempio precedente. Enfatizziamo invece quanto dice la proposizione prece-
dente poich spesso fonte di errori: il determinante di e di
0
sono uguali
solo quando la matrice quadrata, altrimenti il determinante non pu neppure
essere calcolato! Per matrici non quadrate, a volte dette rettangolari, abbiamo
che il rango di una matrice e della sua trasposta coincidono. Questo risultato
dipende proprio da quello enunciato in precedenza poich si fa riferimento alle
sottomatrici quadrate di questa matrice rettangolare. tuttavia necessario
prestare un po di attenzione, data una matrice quadrata '
nn
(R) allora
entrambe queste propriet sono valide
det () = det (
0
) , rk () = rk (
0
)
tuttavia se '
mn
(R) allora possiamo solo aermare che
rk () = rk (
0
)
e ogni altra considerazione sui determinanti va relegata alle sottomatrici quadrate
contenute in questa matrice rettangolare.
49
8 Insieme delle soluzioni di un sistema lineare
Ritorniamo al nostro programma per arontare la soluzione dei sistemi lineari.
Il primo step completato: utilizzando il determinante per calcolare il rango di
una matrice sappiamo analizzare senza dicolt la presenza di soluzione in un
sistema lineare. Nel nostro schema mancano da studiare i seguenti punti
se un sistema lineare ammette soluzioni quante sono?
una volta che sappiamo quante sono le soluzioni di un sistema lineare come
facciamo a calcolarle?
In questa Sezione arontiamo lo studio delle soluzioni di un sistema lineare,
senza occuparci direttamente del loro calcolo. Iniziamo con alcune denizioni.
Denizione 18 Dato un sistema lineare
x = b
caratterizzato dalla matrice dei coecienti delle incognite '
mn
(R) e
dal vettore dei termini noti b R
m
chiamiamo sistema omogeneo associato il
sistema
x = 0
In dettaglio possiamo aermare che il sistema omogeneo associato non altro
che il sistema iniziale al quale abbiamo sostituito il vettore nullo 0 al posto del
vettore dei termini noti b. Nel prossimo risultato diventer evidente il legame
tra questi due sistemi lineari.
Teorema 8 Dato un sistema lineare
x = b
caratterizzato dalla matrice dei coecienti delle incognite '
mn
(R) e dal
vettore dei termini noti b R
m
ipotizziamo che
questo sistema ammetta soluzioni (ovvero rk () = rk ( [ b)),
sia possibile individuare una soluzione particolare di questo sistema che
chiameremo x

R
n
(ovvero conosciamo un vettore di R
n
che risolve il
sistema: x

= b);
allora
ogni altra soluzione del sistema si pu ottenere sommando al vettore x

una soluzione del sistema omogeneo associato,


ogni soluzione del sistema omogeneo associato pu essere ottenuta togliendo
dal vettore x

una soluzione del sistema di partenza.


50
Prima di dimostrare questo risultato osserviamo che quello che viene de-
scritto una relazione biettiva (one-to-one) tra le soluzioni del sistema lineare
x = b e le soluzioni del sistema omogeneo associato x = 0. Questa funzione
si basa sullipotesi che il sistema x = b ammetta una soluzione che abbiamo
indicato con il simbolo x

. La corrispondenza biunivoca che viene descritta in


questo risultato la seguente, indicando con S
Ax=b
linsieme delle soluzioni del
sistema originale e con S
Ax=0
linsieme delle soluzioni dellomogeneo associato
abbiamo
S
Ax=b
S
Ax=0
x x x

x +x

x
Naturalmente una corrisponendeza di questo tipo biiettiva, visto che una fun-
zione linverso dellaltra, ed implica che il numero delle soluzioni del sistema
originale uguale al numero di soluzioni del sistema omogeneo associato.
Quindi invece di contare gli elementi dellinsieme S
Ax=b
possiamo con-
tare gli elementi dellinsieme S
Ax=0
. A prima vista sembrerebbe aver spostato
il problema da un oggetto allaltro senza trarne un vero benecio, in realt ve-
dremo che S
Ax=0
un sottospazio vettoriale (mentre in generale S
Ax=b
non lo )
e quindi per contare le soluzioni possiamo utilizzare il concetto di dimensione.
Dimostrazione Prendiamo in modo del tutto arbitrario un elemento di S
Ax=b
ovvero una soluzione del problema iniziale, sia x S
Ax=b
. Questo ci dice che
x = b. Consideriamo ora il vettore x x

, vogliamo dimostrare che questa


una soluzione del sistema omogeneo associato. Per farlo dobbiamo calcolare
(x x

) = (a
1
, a
2
, ..., a
n
) (x x

)
= (a
1
, a
2
, ..., a
n
)
_
_
_
_
r
1
r

1
r
2
r

2
...
r
n
r

n
_
_
_
_
= a
1
(r
1
r

1
) +a
2
(r
2
r

2
) + ... +a
n
(r
n
r

n
)
= a
1
r
1
a
1
r

1
+a
2
r
2
a
2
r

2
+ ... +a
n
r
n
a
n
r

n
= a
1
r
1
+a
2
r
2
+ ... +a
n
r
n
(a
1
r

1
+a
2
r

2
+ ... +a
n
r

n
)
= (a
1
, a
2
, ..., a
n
)
_
_
_
_
r
1
r
2
...
r
n
_
_
_
_
(a
1
, a
2
, ..., a
n
)
_
_
_
_
r

1
r

2
...
r

n
_
_
_
_
= x x

= b b = 0
Questi passaggi possono sembrare un po macchinosi, ma giusticano la relazione
(x x

) = xx

, che aerma che il prodotto tra una matrice ed un vettore


distributivo rispetto alla somma (dierenza) tra vettori. Vedremo in seguito
che c qualcosa di pi profondo sotto a questi semplici conti (la chiameremo
linearit di una funzione tra spazi vettoriali), ma per ora accontentiamoci di
51
osservare come le propriet caratteristiche denite sugli spazi vettoriali inducano
questa relazione sul prodotto tra matrici e vettori.
Viceversa, prendiamo una generica soluzione del sistema omogeneo associato,
sia x S
Ax=0
ovvero x = 0. Consideriamo ora il vettore x + x

, vogliamo
dimostrare che questa una soluzione del sistema originale. Per farlo dobbiamo
calcolare
(x +x

) = x + x

= 0 +b = b
Questa volta abbiamo saltato i passaggi intermedi che sono identici a quelli
svolti nella prima parte della dimostrazione.
Osserviamo prima di tutto che S
Ax=0
ovvero linsieme delle soluzioni del
sistema omogeneo associato un sottospazio vettoriale di R
n
. La verica
abbastanza semplice e si basa nuovamente sui conti visti in questa sezione.
Supponiamo che x, y S
Ax=0
e scegliamo arbitrariamente c, , R. Vogliamo
dimostrare che anche il vettore cx + ,y S
Ax=0
.
Anch valga questa propriet deve accadere che
(cx + ,y) = 0
Calcoliamo il prodotto di questa matrice per questo vettore utilizzando come
prima le proprit caratteristiche delle operazioni in uno spazio vettoriale (svol-
giamo comunque tutti i conti in modo da rendere pi evidente il risultato):
(cx + ,y) = (a
1
, a
2
, ..., a
n
) (cx + ,y)
= (a
1
, a
2
, ..., a
n
)
_
_
_
_
cr
1
+ ,j
1
cr
2
+ ,j
2
...
cr
n
+ ,j
n
_
_
_
_
= a
1
(cr
1
+ ,j
1
) +a
2
(cr
2
+ ,j
2
) + ... +a
n
(cr
n
+ ,j
n
)
= c(a
1
r
1
+a
2
r
2
+ ... +a
n
r
n
) + , (a
1
j
1
+a
2
j
2
+ ... +a
n
j
n
)
= c(a
1
, a
2
, ..., a
n
)
_
_
_
_
r
1
r
2
...
r
n
_
_
_
_
+ , (a
1
, a
2
, ..., a
n
)
_
_
_
_
j
1
j
2
...
j
n
_
_
_
_
= cx + ,y = c0 + ,0 = 0
Visto che il sistema originale ha lo stesso numero di soluzioni del sistema omo-
geneo associato e che linsieme delle soluzioni dellomogeneo associato un sot-
tospazio vettoriale otteniamo un risultato importante sul numero di soluzioni di
un sistema lineare. I casi possibili sono tre:
il sistema originale pu non ammettere soluzioni (sistema impossibile),
il sistema originale pu ammettere una sola soluzione quando rk () =
rk ( [ b) ed inoltre S
Ax=0
= 0 (sistema determinanto),
52
il sistema originale pu ammettere innite soluzioni quando rk () =
rk ( [ b) ed inoltre dim(S
Ax=b
) 0 (sistema indeterminanto).
In questultimo caso importante saper riconoscere quanto grande sia linsieme
delle soluzioni, in altri termini vorremmo saper calcolare la dimensione dello
spazio vettoriale S
Ax=0
. Il problema che dobbiamo arontare il seguente:
S
Ax=0
non denito come lo spazio vettoriale generato da un insieme di vet-
tori, ma denito utilizzando una serie di equazioni omogenee. Questa viene
detta forma cartesiana e non sappiamo ancora come calcolare, in questa forma,
la dimensione di un sottospazio. Lidea che vogliamo sfruttare semplice: ve-
diamo se, partendo dalle equazioni cartesiane, siamo in grado di scrivere S
Ax=0
come un sottospazio vettoriale generato da un insieme di vettori linearmente
indipendenti. Una volta raggiunto questo obiettivo, il calcolo della dimensione
di S
Ax=0
immediato.
La tecnica utilizzata viene detta eliminazione di Gauss e sfrutta le propriet
fondamentali delle equazioni. Ricordiamole brevemente: dato un sistema di
equazioni lineari formato da : equazioni in : incognite r
1
, ..., r
n
_

_
a
1;1
r
1
+ a
1;2
r
2
+ ... + a
1;n
r
n
= /
1
a
2;1
r
1
+ a
2;2
r
2
+ ... + a
2;n
r
n
= /
2
...
a
m;1
r
1
+ a
m;2
r
2
+ ... + a
m;n
r
n
= /
m
(3)
linsieme delle soluzioni di questo sistema non cambia se:
moltiplichiamo unequazione per una costante non nulla, ad esempio se
` ,= 0 il sistema (3) ed il seguente sistema hanno lo stesso insieme di
soluzioni
_

_
a
1;1
r
1
+ a
1;2
r
2
+ ... + a
1;n
r
n
= /
1
`a
2;1
r
1
+ `a
2;2
r
2
+ ... + `a
2;n
r
n
= `/
2
...
a
m;1
r
1
+ a
m;2
r
2
+ ... + a
m;n
r
n
= /
m
infatti abbiamo moltiplicato la seconda equazione (ma potevamo farlo con
qualsiasi altra equazione) per la costante non nulla `;
scambiamo tra loro due equazioni, ad esempio il sistema (3) ed il seguente
sistema hanno lo stesso insieme di soluzioni
_

_
a
2;1
r
1
+ a
2;2
r
2
+ ... + a
2;n
r
n
= /
2
a
1;1
r
1
+ a
1;2
r
2
+ ... + a
1;n
r
n
= /
1
...
a
m;1
r
1
+ a
m;2
r
2
+ ... + a
m;n
r
n
= /
m
infatti abbiamo scambiato tra loro la prima e la seconda equazione (ma
potevamo farlo con qualsiasi altra coppia di equazioni);
53
sommiamo membro a membro unequazione con unaltra equazione molti-
plicata per una costante, ad esempio dato un numero reale ` R il sistema
(3) ed il seguente sistema hanno lo stesso insieme di soluzioni
_

_
a
1;1
r
1
+ a
1;2
r
2
+ ... + a
1;n
r
n
= /
1
(a
2;1
+ `a
1;1
) r
1
+ ... + (a
2;n
+ `a
1;n
) r
n
= /
2
+ `/
1
...
a
m;1
r
1
+ a
m;2
r
2
+ ... + a
m;n
r
n
= /
m
infatti abbiamo sommato alla seconda equazione, la prima equazione molti-
plicata per ` (ma potevamo eettuare questa stessa operazione con qual-
siasi altra coppia di equazioni).
Osserviamo che queste operazioni fondamentali sulle equazioni che compon-
gono un sistema lineare non dipendono dallipotesi che il sistema sia omogeno,
valgono per qualsiasi sistema lineare. Quindi lalgoritmo che presentiamo ora
pu essere applicato in tutta generalit per risolvere qualsiasi sistema lineare
(ed infatti poi lo utilizzeremo proprio per questo scopo). Ricordiamo comunque
che lo scopo di questa sezione non quella di risolvere il sistema, ma quella di
trovare la dimensione del sottospazio delle soluzioni di un sistema omogeneo.
Enunciamo lalgoritmo, che applicheremo in seguito su vari esempi.
1. Poniamo i = 1, ovvero cominciamo dalla prima variabile;
2. cerchiamo tra le equazioni unequazione che abbia il coeciente di r
i
di-
verso da zero, si possono presentare due possibilit:
se non troviamo nessuna equazione in cui compare esplicitamente r
i
allora passiamo alla variabile successiva, ovvero poniamo i = i + 1 e
torniamo allinizio del passo 2;
se invece troviamo unequazione in cui compare r
i
allora spostiamo
lequazione che abbiamo trovato come prima equazione del sistema;
3. se siamo arrivati a questa posizione allora abbiamo che il coeciente di
r
i
nella prima equazione diverso da zero, allora moltiplichiamo questa
equazione per il reciproco di questo coeciente ( possibile farlo poich
non nullo) ed otteniamo una nuova prima equazione in cui il coeciente
di r
i
1, questa nel seguito verr chiamata variabile di pivot (leggo piv)
per questa equazione;
4. sommiamo ora la prima equazione, moltiplicata per opportuni coecienti,
a tutte le altre equazioni in modo che r
i
sparisca da tutte le equazioni
diverse dalla prima;
54
5. blocchiamo a questo punto la prima equazione che rimarr cos no alla
ne dellalgoritmo ( come se questa equazione venisse tolta dal sistema e
ripresa solo ad algoritmo completato);
6. se ci sono ancora delle equazioni non bloccate passiamo ad analizzare la
variabile successiva i = i + 1 partendo dal passo 2, altrimenti terminiamo
lalgoritmo.
Per comprendere il funzionamento di questo algoritmo dobbiamo vederlo
allopera. Riduciamo con questo algoritmo il sistema omogeneo 3 equazioni, 3
incognite
_
_
_
2r
1
+ 4r
2
+ 2r
3
= 0
r
1
+ 2r
2
+ 4r
3
= 0
2r
1
+ r
2
+ 5r
3
= 0
Iniziamo a lavorare con la variabile r
1
, siamo fortunati poich gi nella prima
equazione il coeciente di r
1
2 e quindi non nullo. La prima equazione si
trova gi nella posizione richiesta e quindi non dobbiamo fare nulla e passia-
mo allo step 3. Dividiamo la prima equazione per 2 e congeliamo lequazione,
otteniamo
_
_
_
r
1
+ 2r
2
+ r
3
= 0
r
1
+ 2r
2
+ 4r
3
= 0
2r
1
+ r
2
+ 5r
3
= 0
Sommiamo la prima equazione moltiplicata per 1 alla seconda equazione
_
_
_
r
1
+ 2r
2
+ r
3
= 0
2r
3
= 0
2r
1
+ r
2
+ 5r
3
= 0
quello che importante notare che in questo modo la variabile r
1
non compare
pi nella seconda equazione. Sommiamo ora la prima equazione moltiplicata per
2 alla terza equazione ed otteniamo
_
_
_
r
1
+ 2r
2
+ r
3
= 0
2r
3
= 0
3r
2
+ 3r
3
= 0
di nuovo importante notare che la variabile r
1
non compare pi neppure nella
terza equazione.
Procediamo ora con la variabile r
2
. Non possiamo pi toccare la prima
equazione e quindi lavoriamo solo con la seconda e la terza. Nella seconda
equazione non compare r
2
, mentre compare nella terza. Dobbiamo quindi scam-
biare tra loro le equazioni
_
_
_
r
1
+ 2r
2
+ r
3
= 0
3r
2
+ 3r
3
= 0
2r
3
= 0
55
La seconda equazione va normalizzata moltiplicando la seconda equazione
per 1,3 e congelandola arriviamo al sistema
_

_
r
1
+ 2r
2
+ r
3
= 0
r
2
r
3
= 0
2r
3
= 0
Siamo fortunati poich nella terza equazione non compare r
2
, possiamo quindi
passare immediatamente alla variabile r
3
che compare nella terza equazione
con coeciente 2. Una volta normalizzata moltiplicando la terza equazione per
1,2 troviamo immediatamente che il sistema originale equivalente al seguente
sistema
_

_
r
1
+ 2r
2
+ r
3
= 0
r
2
r
3
= 0
r
3
= 0
Perch questa forma del sistema dovrebbe essere migliore rispetto a quella
originale? In questo particolare esempio si comprende immediatamente la ra-
gione di tale approccio se si sostituisce allindietro partendo dallultima equazione:
se r
3
= 0 allora sostituendo questo valore nelle seconda equazione otteniamo
r
2
= 0 ed inne sostituendo i valori trovati per r
2
e r
3
nella prima equazione
otteniamo r
1
= 0.
Non dobbiamo essere sorpresi di questa soluzione: il vettore nullo sempre
una soluzione di un sistema omogeneo, ovvero, detto in altri termini, il vettore
nullo contenuto in tutti i sottospazi di R
3
. Quello che abbiamo ottenuto che
il vettore nullo lunica soluzione.
Questo esercizio ci utile per unaltra osservazione, in questo sistema abbi-
amo individuato, a partire dalle tre equazioni tre variabili di pivot, che abbiamo
indicato tra quadrati nellultima forma in cui abbiamo scritto il sistema. Pos-
siamo pensare a queste variabili di pivot come alle informazioni indipendenti
che sono realmente contenute nel sistema: se dobbiamo determinare il valore di
tre incognite e possediamo tre informazioni indipendenti su queste tre incog-
nite, allora il valore di queste tre incognite deve essere nullo (ricordiamoci che
stiamo lavorando con un sistema omogeneo). In questa luce lalgoritmo di elim-
inazione di Gauss pu essere visto come un metodo per determinare, dato un
sistema di equazioni, quante sono le informazioni indipendenti contenute nel
sistema.
Cerchiamo di chiarire con un altro esempio. Riduciamo con lalgoritmo di
Gauss il sistema omogeneo 3 equazioni, 3 incognite
_
_
_
r
1
+ r
2
+ r
3
= 0
r
1
+ 2r
2
+ r
3
= 0
2r
1
+ 3r
2
+ 2r
3
= 0
56
Partiamo con r
1
e facciamo pivot sulla prima equazione, otteniamo
_

_
r
1
+ r
2
+ r
3
= 0
r
2
= 0
0 = 0
La situazione interessante: le tre equazioni iniziali contenevano solo due in-
formazioni indipendenti, lultima equazione inutile e possiamo tralasciarla
_
r
1
+ r
2
+ r
3
= 0
r
2
= 0
Quindi non possiamo sperare, con due sole equazioni, di bloccare tutte le tre
incognite libere. Qualcosa scapper al nostro controllo e la forma del sistema
ridotto ci dice perfettamente che cosa ci sfugge: non abbiamo informazioni
su r
3
che non mai presente come variabile di pivot, quindi non possediamo
informazioni su questa variabile che sar una variabile libera. Aggiungiamo al
sistema unultima equazione, r
3
= c R, che ha il seguente signicato: non
siamo in grado di dare un valore alla variabile r
3
e quindi ipotizziamo assuma
un valore arbitrario c. Con questa aggiunta in coda al sistema osserviamo che
possiamo sostituire a ritroso
_
_
_
r
1
+ c = 0
r
2
= 0
r
3
= c
Scriviamo la soluzione in forma vettoriale:
_
_
r
1
r
2
r
3
_
_
=
_
_
c
0
c
_
_
= c
_
_
1
0
1
_
_
Leggiamo ora questo risultato in termini di spazi vettoriali: la soluzione del
sistema omogeneo associato in questo caso il sottospazio vettoriale di R
3
gen-
erato dal vettore (1, 0, 1)
0
, infatti al variare di c in R troviamo tutti i vettori
multipli di questo vettore. In formule linsieme delle soluzioni
_
_
_
1
0
1
_
_
_
Concludiamo osservando che in questo esempio siamo partiti da un sistema 3
equazioni, 3 incognite, lo abbiamo ridotto con lalgoritmo di Gauss ed abbiamo
ottenuto 2 sole informazioni indipendenti. Queste 2 informazioni ci hanno
permesso di bloccare due incognite tuttavia unincognita rimasta libera ed ha
generato un insieme di soluzioni di dimensione 1 (3 incognite meno 2 infor-
mazioni indipendenti uguale 1 variabile libera e quindi spazio delle soluzioni
ha dimensione 1).
57
Osserviamo che questa regoletta empirica funziona anche nel caso prece-
dente: 3 incognite meno 3 informazioni indipendenti uguale 0 variabili libere
e quindi spazio delle soluzioni ha dimensione 0 e non pu essere che il sottospazio
vettoriale formato dal solo vettore nullo.
Vediamo un ultimo esempio prima di passare al risultato pi rilevante di
questa sezione. Proviamo a ridurre con lalgoritmo di Gauss il sistema omogeneo
3 equazioni, 5 incognite
_
_
_
r
1
+ r
2
r
3
+ r
4
r
5
= 0
r
1
+ r
2
+ 2r
3
r
5
= 0
2r
1
+ 2r
2
+ r
3
+ r
4
2r
5
= 0
Iniziamo dalla variabile r
1
e facciamo pivot sulla prima equazione, otteniamo
_

_
r
1
+ r
2
r
3
+ r
4
r
5
= 0
3r
3
r
4
= 0
3r
3
r
4
= 0
Una volta congelata la prima equazione la variabile r
2
non compare pi nel
sistema, quindi dobbiamo passare alla variabile r
3
che diventa il pivot per la
seconda equazione, dopo la normalizzazione otteniamo
_

_
r
1
+ r
2
r
3
+ r
4
r
5
= 0
r
3
r
4
,3 = 0
3r
3
r
4
= 0
e concludendo si arriva al sistema ridotto
_
r
1
+ r
2
r
3
+ r
4
r
5
= 0
r
3
r
4
,3 = 0
dove abbiamo eliminato lultima riga che era diventata 0 = 0. Le tre equazioni
sono diventate due informazioni utili; le variabili bolccate sono le variabili di
pivot r
1
ed r
3
mentre le altre variabili sono libere. La regola empirica ci dice
che cinque incognite meno due informazioni utili danno un sottospazio vettoriale
delle soluzioni di dimensione tre. Infatti abbiamo tre variabili libere, poniamo
r
2
= c R, r
4
= , R, r
5
= R e inseriamole in coda alle equazioni del
sistema:
_

_
r
1
+ r
2
r
3
+ r
4
r
5
= 0
r
3
r
4
,3 = 0
r
2
= c
r
4
= ,
r
5
=
58
Sostituendo allindietro, ovvero pertendo dallultima equazione otteniamo:
_

_
r
1
+ r
2
r
3
+ r
4
r
5
= 0
r
3
= ,,3
r
2
= c
r
4
= ,
r
5
=
e per nire sostituiamo tutte le ultime quattro variabili nella prima equazione
_

_
r
1
= c + ,,3 , + = c 2,3, +
r
3
= ,,3
r
2
= c
r
4
= ,
r
5
=
Passiamo alla forma vettoriale ed otteniamo che per ogni scelta di c, ,, R
soluzione del sistema omogeneo il vettore (attenzione, dobbiamo riordinare le
variabili)
_
_
_
_
_
_
r
1
r
2
r
3
r
4
r
5
_
_
_
_
_
_
=
_
_
_
_
_
_
c 2,3, +
c
,,3
,

_
_
_
_
_
_
e raccogliendo i parametri c, ,, otteniamo
_
_
_
_
_
_
r
1
r
2
r
3
r
4
r
5
_
_
_
_
_
_
= c
_
_
_
_
_
_
1
1
0
0
0
_
_
_
_
_
_
+ ,
_
_
_
_
_
_
2,3
0
1,3
1
0
_
_
_
_
_
_
+
_
_
_
_
_
_
1
0
0
0
1
_
_
_
_
_
_
In altri termini linsieme delle soluzioni il sottospazio vettoriale di R
5
gen-
erato dai vettori
_
_
_
_
_
_
_
1
1
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
2,3
0
1,3
1
0
_
_
_
_
_
_
,
_
_
_
_
_
_
1
0
0
0
1
_
_
_
_
_
_
_
Ora osserviamo che c una stretta correlazione tra il numero di informazioni
indipendenti contentute in un sistema omogeneo e il rango per righe della ma-
trice . Infatti abbiamo visto, quando abbiamo studiato i sottospazi vettoriali
59
generati da un insieme di vettori, che: moltiplicando un vettore per una costante
non nulla, scambiando tra loro due vettori, o sommando ad un vettore un al-
tro vettore moltiplicato per un numero reale qualsisi, non cambiamo lo spazio
vettoriale generato da un insieme di vettori.
Consideriamo ora il sottospazio vettoriale generato dalle righe della matrice
. Questo non viene modicato dalle operazioni descritte in precedenza sui
vettori riga, tuttavia, confrontandole con le operazioni elementari sulle equazioni
di un sistema lineare, ci rendiamo conto immediatamente che non sono altro che
le due facce della stessa medaglia. In altri termini ad ogni operazione elementare
sulle equazioni di un sistema corrisponde unoperazione sui vettori riga della
matrice che non altera il rango per righe di stessa.
Questa pu sembrare una osservazione da poco, tuttavia ha unimportante ri-
caduta in termini applicativi: possiamo pensare di calcolare in anticipo, ovvero
senza applicare esplicitamente lalgoritmo di riduzione di Gauss il numero di
informazioni indipendenti contenute in un sistema omogeneo e quindi la di-
mensione del sottospazio vettoriale delle soluzioni. Per evitare di perdere il
lo logico del ragionamento nei dettagli tecnici conviene enunciare il risultato e
dimostrarlo per passi successivi.
Teorema 9 Dato un sistema lineare omogeneo
x = 0
di : equazioni in : incognite caratterizzato dalla matrice dei coecienti
'
mn
(R) allora linsieme delle soluzioni un sottospazio vettoriale di dimen-
sione : rk, in formule
dim(S
Ax=0
) = : rk ()
Dimostrazione Per passi:
1. Riduciamo il sistema omogeneo utilizzando il metodo di riduzione di Gauss
senza tuttavia togliere le equazioni inutili (quelle che ci dicono che 0 = 0
e che otteniamo in coda al sistema), otterremo un nuovo sistema lineare
omogeneo
rid
x = 0.
2. Ora dimostriamo che il numero di variabili di pivot corrisponde al rango
della matrice
rid
. Infatti
rid
la matrice che otteniamo dalla riduzione
della matrice
rid
e quindi considerando solo le colonne che corrispondono
alle variabili di pivot troviamo una matrice quadrata triangolare superiore
il cui determinante 1 ,= 0. Quindi il rango di
rid
almeno pari al numero
di variabili di pivot. In realt possono accadere due casi, o non ci sono
matrici quadrate di dimensione maggiore del numero di variabili di pivot
del sistema, oppure ogni matrice quadrata di questo tipo ha lultima riga
tutta formata da zeri poich corrisponde allequazione 0 = 0 che appunto
non contiene variabili di pivot. Concludendo rk
_

rid
_
= numero delle
variabili di pivot.
60
3. Ricordiamo che il numero di variabili libere, e quindi la dimensione del sot-
tospazio vettoriale delle soluzioni del sistema originale, corrisponde al nu-
mero di variabili da cui sottraiamo le variabili di pivot, quindi dimS
Ax=0
=
:numero delle variabili di pivot, che ora possiamo scrivere in modo
pi formale come
dimS
Ax=0
= : rk
_

rid
_
4. Ma le operazioni elementari sulle equazioni di un sistema omogeneo cor-
rispondono ad operazioni sui vettori riga della matrice che non ne al-
terano il rango per righe (che sappiamo gi coincidere con il rango per
colonne della matrice), quindi rk
_

rid
_
= rk () il che ci permette di
concudere sostituendo nella formula precedente:
dimS
Ax=0
= : rk ()

Vediamo questi passi applicati su un esempio concreto. Vogliamo capire


quale sia la dimensione del sottospazio delle soluzioni del sistema omogeneo
_
_
_
r
1
+ r
2
r
3
= 0
r
1
r
3
= 0
3r
1
+ r
2
3r
3
= 0
Con il risultato precedente possiamo calcolarlo senza utilizzare lalgoritmo di
riduzione di Gauss, infatti la matrice
=
_
_
1 1 1
1 0 1
3 1 3
_
_
ha determinante uguale a
det
_
_
1 1 1
1 0 1
3 1 3
_
_
= det
_
1 1
1 3
_
+ det
_
1 1
3 1
_
= 2 2 = 0
mentre il minore di ordine 2 che otteniamo eliminando la terza riga e la terza
colonna vale 1 ,= 0.
Quindi le soluzioni del sistema omogeneo formano un sottospazio vettoriale
di dimensione 1 visto che le incognite sono tre ed il rango della matrice due).
Otteniamo lo stesso risultato ripercorrendo, con questo esempio, la dimostrazione
del teorema. Riduciamo il sistema
_
_
_
r
1
+ r
2
r
3
= 0
r
1
r
3
= 0
3r
1
+ r
2
3r
3
= 0
61
con lalgoritmo di Gauss; iniziamo facendo pivot con la prima variabile sulla
prima equazione
_

_
r
1
+ r
2
r
3
= 0
r
2
= 0
2r
2
= 0
Facciamo ora pivot con la seconda variabile sulla seconda equazione ed otteni-
amo
_

_
r
1
+ r
2
r
3
= 0
r
2
= 0
0 = 0
Abbiamo ottenuto quella che nel teorema stata indicata come la matrice
rid
:

rid
=
_
_
1 1 1
0 1 0
0 0 0
_
_
Qui banale osservare che il rango di questa matrice coincide con il numero
delle variabili di pivot, infatti il det
_

rid
_
= 0 visto che lultima riga tutta
formata da zeri; mentre selezionando solo le righe e le colonne dove compaiono
le variabili di pivot troviamo la matrice triangolare superiore
_
1 1
0 1
_
che ha determinante uguale a 1. Quindi rk
_

rid
_
= numero variabili di pivot.
Osserviamo inne che il sottospazio delle soluzioni si ottiene sostituendo
allequazione priva di informazioni 0 = 0 la posizione r
3
= c R. Infatti r
3

lunica variabile che non compare tra le variabili di pivot del sistema, quindi
una variabile libera.
_

_
r
1
+ r
2
r
3
= 0
r
2
= 0
r
3
= c
Sostituendo a ritroso troviamo
_
_
_
r
1
= c
r
2
= 0
r
3
= c
e quindi il sottospazio delle soluzioni
_
_
_
1
0
1
_
_
_
62
che ha dimensione uno. Per concludere basta osservare che le operazioni e-
lementari sulle righe della matrice non ne alterano il rango poich stiamo
continuando a considerare lo stesso sottospazio vettoriale di R
3
, cambiamo solo
i vettori che lo generano.
63
9 Teorema di Rouch-Capelli
Abbiamo ora tutti gli strumenti per enunciare il Teorema pi importante che
riguarda le soluzioni di un sistema lineare. Come vedremo dal testo questo
risultato utilizza vari strumenti matematici che abbiamo introdotto e sintetizza
quanto sappiamo su di un sistema lineare in un unico enunciato.
Teorema 10 (Rouch-Capelli) Dato un sistema lineare formato da : equazioni
in : incognite
x = b
caratterizzato dalla matrice dei coecienti delle incognite '
mn
(R) e dal
vettore dei termini noti b R
m
questo sistema ammette soluzioni se e solo se
rk () = rk ( [ b) ed in questo caso le soluzioni sono
nrk(A)
.
Non abbiamo nulla da dimostrare, una sistesi del risultati descritti in
precedenza. Serve solo qualche precisazione sul legame tra le soluzioni del sis-
tema originale e quelle dellomogeneo associato. Per lesattezza lespressione le
soluzioni sono
nrk(A)
necessita di qualche ulteriore chiarimento.
Se rk () = rk ( [ b) allora il sistema x = b ammette certamente al-
meno una soluzione, in questa ipotesi possiamo creare una corrispondenza bi-
iettiva tra le soluzioni del sistema originale e quelle dellomogeneo associato. In
oltre possiamo dire che il sistema omogeneo associato ha un sottospazio vetto-
riale delle soluzioni di dimensione dim(S
Ax=0
) = : rk (), ma non possiamo
dire lo stesso per linsieme delle soluzioni del sistema originale S
Ax=b
che in
generale non neppure un sottospazio e quindi non ha senso parlare di di-
mensione. Tuttavia non vogliamo perdere questa informazione aggiuntiva che
abbiamo ottenuto analizzando i sistemi omogenei e quindi precisiamo dicendo
che le soluzioni del sistema originale sono
nrk(A)
. Questa indicazione pu
essere letta anche ripensando alle variabili libere, o gradi di libert, del sistema:
dire che un sistema ha
nrk(A)
soluzioni signica che delle : incognite solo
rk () vengono bloccate dalle informazioni contenute nel sistema, le rimanenti
: rk () variabili sono scelte liberamente. Quindi se ogni variabile libera
porta innite soluzioni con una scrittura che ha poco rigore matematico, ma
aiuta a ricordare lintuizione teorica che sostiene questo risultato, si dice appunto
che il sistema ammette
nrk(A)
soluzioni.
Riassumento il Teorema di Rouch-Capelli in uno schema che utilizza la
stessa notazione introdotta nel Teorema abbiamo che
se rk () < rk ( [ b) allora il sistema non ammette soluzioni (sistema
impossibile),
se rk () = rk ( [ b) < : allora il sistema ammette
nrk(A)
soluzioni
(sistema indeterminanto),
se rk () = rk ( [ b) = : allora il sistema ammette una sola soluzione
(sistema determinanto).
64
In molte applicazioni vorremmo che le informazioni che possediamo siano
in grado di bloccare tutte le variabili in modo da fornire una sola soluzione.
Per farlo essenziale ricadere nellultimo caso ovvero rk () = rk ( [ b) =
:. Tuttavia ricordiamo che rk () _ min:, : e quindi per avere una sola
soluzione necessario che : _ :. In altri termini per bloccare : incognite
servono almeno : equazioni con : _ :. In realt il teorema di Rouch-Capelli
ci dice che servono esattamente : informazioni indipendenti. Nella pratica le
informazioni sono costose e quindi molto spesso nelle applicazioni si cercano
di ottenere esattamente tante equazioni quante sono le incognite (quindi : = :
e la matrice quadrata) e si individuano queste equazioni in modo che portino
: informazioni indipendenti (quindi rk () = : ovvero det ,= 0).
Osserviamo che in questa situazione (che la pi rilevante da un punto
di vista applicativo) ovvero nel caso in cui possediamo tante equazioni quante
sono le incognite : = :, se det ,= 0 allora il sistema ammette certamente
soluzioni e non dobbiamo andare a controllare il rango della matrice completa
poich il rango della matrice incompleta gi il massimo possibile. In formule
rk () _ rk ( [ b) _ min:, (: + 1) = :, se ipotizziamo che rk () = : (e
questo accade se e solo se det ,= 0) allora : = rk () _ rk ( [ b) _ : e quindi
forzatamente rk ( [ b) = :.
Utilizzando il Teorema di Rouch-Capelli combinato con lalgoritmo di elim-
inazione di Gauss siamo in grado di discutere e risolvere senza problemi un
sistema lineare. Vediamo qualche esempio.
Esempio 1 Discutere e risolvere il sistema
_
3r
1
+ 2r
2
+ r
3
= 1
r
1
+ r
3
= 1
Scriviamolo in forma matriciale
=
_
3 2 1
1 0 1
_
, b =
_
1
1
_
osserviamo che rk () _ 2 e che la sottomatrice di formata dalla seconda
e dalla terza colonna un minore di ordine 2 diverso da zero (questo minore
vale 2), quindi rk () = 2. Ma allora ricordando che rk () _ rk ( [ b) _
min2, 4 = 2 abbiamo anche che rk ( [ b) = 2 e quindi il sistema ammette

3rk(A)
=
1
soluzioni.
Questa espressione ci dice che linsieme delle soluzioni avr la forma
_
_
r
1
r
2
r
3
_
_
=
_
_
+
+
+
_
_
+ c
_
_
#
#
#
_
_
dove il vettore che ha le componenti + rappresenta la soluzione particolare
del sistema originale, mentre il vettore che ha le componenti # non altro
65
che un generatore del sottospazio vettoriale delle soluzioni del sistema omoge-
neo associato. Andiamo a individuare questi vettori utilizzando il metodo di
eliminazione di Gauss.
Prima di iniziare, una modesta osservazione. In questo caso agiamo sulle
equazioni del sistema originale e possiamo farlo poich le operazioni elementari
sulle equazioni di un sistema lineare sono le stesse sia che il sistema sia omogeneo
sia che abbia dei termini noti. Lunica dierenza che riscontriamo che la
soluzione del sistema in generale non sar un sottospazio vettoriale. Infatti
nella formula della soluzione saranno presenti anche dei termini noti (il vettore
che ha le componenti + di cui parlavamo in precedenza), che impediranno al
vettore nullo di essere una soluzione.
Facciamo pivot con la prima variabile sulla prima equazione ed otteniamo
_
r
1
+ 2,3r
2
+ r
3
,3 = 1,3
r
1
+ r
3
= 1
ora eliminiamo r
1
dalla seconda equazione ed arriviamo al sistema
_
r
1
+ 2,3r
2
+ r
3
,3 = 1,3
2r
2
,3 + 2,3r
3
= 2,3
Ora facciamo pivot con la seconda variabile sulla seconda equazione ed ottenia-
mo
_
r
1
+ 2,3r
2
+ r
3
,3 = 1,3
r
2
r
3
= 1
La variabile r
3
libera e quindi possiamo aggiungere al sistema lequazione
r
3
= c R e sostituiamo a ritroso
_
_
_
r
1
= 2,3 (c 1) c,3 + 1,3
r
2
= c 1
r
3
= c
ovvero _
_
_
r
1
= 1 c
r
2
= c 1
r
3
= c
Che scritta in termini vettoriali diventa
_
_
r
1
r
2
r
3
_
_
=
_
_
1
1
0
_
_
+ c
_
_
1
1
1
_
_
66
Esempio 2 Discutere e risolvere il sistema
_
_
_
r
1
+ r
2
+ r
3
= 1
r
1
+ r
3
= 1
r
2
+ r
3
= 1
Passiamo alla forma matriciale
=
_
_
1 1 1
1 0 1
0 1 1
_
_
, b =
_
_
1
1
1
_
_
Il rango della matrice rk () _ 3, tuttavia facile calcolare che
det
_
_
1 1 1
1 0 1
0 1 1
_
_
= det
_
1 1
1 1
_
det
_
1 1
0 1
_
= 0 1 = 1 ,= 0
quindi rk () = 3. Inoltre rk () _ rk ( [ b) _ min3, 4 = 3, quindi anche
rk ( [ b) = 3 ed il sistema ammette
3rk(A)
=
0
ovvero una sola soluzione.
Quindi la struttura delle soluzioni in questo caso
_
_
r
1
r
2
r
3
_
_
=
_
_
+
+
+
_
_
+ c
_
_
0
0
0
_
_
poich la soluzione dellomogeneo associato formata dal solo vettore nullo,
lunico sottospazio vettoriale di R
3
di dimensione 0.
Questo il caso rilevante nelle applicazioni di cui parlavamo in precedenza:
osserviamo che qualsiasi sia la forma del vettore b (che non abbiamo utilizzato
no ad ora) il sistema ammette una ed una sola soluzione. Torneremo in seguito
su questo esempio, per ora vogliamo sottolineare le caratteristiche di questa
situazione.
Risolviamo il sistema con il metodo di riduzione di Gauss. Facciamo pivot
con r
1
sulla prima equazione,
_

_
r
1
+ r
2
+ r
3
= 1
r
2
= 0
r
2
+ r
3
= 1
A questo punto facciamo pivot con r
2
sulla seconda equazione:
_

_
r
1
+ r
2
+ r
3
= 1
r
2
= 0
r
3
= 1
67
e per completare facciamo pivot con r
3
sulla terza equazione:
_

_
r
1
+ r
2
+ r
3
= 1
r
2
= 0
r
3
= 1
Sostituiamo a ritroso le equazioni ed otteniamo la soluzione
_
_
_
r
1
= 0
r
2
= 0
r
3
= 1
che in forma vettoriale diventa
_
_
r
1
r
2
r
3
_
_
=
_
_
0
0
1
_
_
Esempio 3 Discutere e risolvere il sistema
_
_
_
r
1
+ r
2
+ r
3
+ r
4
+ r
5
= 1
r
1
+ r
2
r
3
+ r
4
= 0
r
1
+ r
2
r
4
+ r
5
= 1
Scriviamo il sistema in forma matriciale
=
_
_
1 1 1 1 1
1 1 1 1 0
1 1 0 1 1
_
_
, b =
_
_
1
0
1
_
_
osserviamo che rk () _ 3. Il rango di questa matrice 3 se e solo se esiste
un minore di ordine 3 diverso da zero. Selezionando la prima, terza e quinta
colonna della matrice otteniamo una matrice il cui determinante si calcola
facilmente:
det
_
_
1 1 1
1 1 0
1 0 1
_
_
= det
_
1 1
1 0
_
+ det
_
1 1
1 1
_
= 1 2 = 1
Quindi rk () = 3 e questo implica anche che rk ( [ b) = 3. Infatti utilizzando la
solita relazione tra ranghi della matrice incompleta e completa concludiamo che
3 = rk () _ rk ( [ b) _ min3, 5 = 5; il sistema ammette quindi
5rk(A)
=
68

2
soluzioni. Questa espressione ci dice che linsieme delle soluzioni avr la
forma
_
_
_
_
_
_
r
1
r
2
r
3
r
4
r
5
_
_
_
_
_
_
=
_
_
_
_
_
_
+
+
+
+
+
_
_
_
_
_
_
+ c
_
_
_
_
_
_
#
#
#
#
#
_
_
_
_
_
_
+ ,
_
_
_
_
_
_

_
_
_
_
_
_
Risolviamo il sistema con il metodo di riduzione di Gauss. Iniziamo facendo
pivot con la variabile r
1
sulla prima equazione:
_

_
r
1
+ r
2
+ r
3
+ r
4
+ r
5
= 1
2r
3
r
5
= 1
r
3
2r
4
= 0
La variabile r
2
non compare nelle rimanenti equazioni, quindi facciamo pivot
con la variabile r
3
sulla terza equazione:
_
_
_
r
1
+ r
2
+ r
3
+ r
4
+ r
5
= 1
r
3
+ 2r
4
= 0
4r
4
r
5
= 1
e per concludere facciamo pivot con r
4
sullultima equazione
_

_
r
1
+ r
2
+ r
3
+ r
4
+ r
5
= 1
r
3
+ 2r
4
= 0
r
4
r
5
,4 = 1,4
Quindi le variabili r
2
e r
5
sono libere
_

_
r
1
+ r
2
+ r
3
+ r
4
+ r
5
= 1
r
3
+ 2r
4
= 0
r
4
r
5
,4 = 1,4
r
2
= c
r
5
= ,
e sostituendo a ritroso troviamo la soluzione
_

_
r
1
= 3,4 c + 3,4,
r
3
= ,,2 + 1,2
r
4
= ,,4 1,4
r
2
= c
r
5
= ,
che scritto in forma vettoriale (riordinando le variabili) diventa
_
_
_
_
_
_
r
1
r
2
r
3
r
4
r
5
_
_
_
_
_
_
=
_
_
_
_
_
_
3,4
0
1,2
1,4
0
_
_
_
_
_
_
+ c
_
_
_
_
_
_
1
1
0
0
0
_
_
_
_
_
_
+ ,
_
_
_
_
_
_
3,4
0
1,2
0
1
_
_
_
_
_
_
69
70
10 Applicazioni lineari
Nelle sezioni precedenti abbiamo imparato a discutere e risolvere i sistemi lin-
eari, abbiamo visto la forma che assume la soluzione di un sistema lineare ed un
metodo pratico per calcolarla. Lintuizione che abbiamo cercato di trasmettere
la seguente: in un sistema di equazioni sono contenute delle informazioni
indipendenti e con ognuna di queste informazioni riusciamo a bloccare una
variabile; le variabili che rimangono fuori vengono dette variabili libere e rappre-
sentano i gradi di libert del sistema. Naturalmente nulla di quello che abbiamo
detto ora valido da un punto di vista formale, ma un ottimo modo per
ricordare la strategia di soluzione che abbiamo introdotto.
In questa sezione vedremo il problema da una prospettiva leggermente di-
versa ed introdurremo un ulteriore metodo per risolvere un sistema lineare. In
Matematica la possibilit di arontare un problema da punti di vista diversi
sempre considerato come una ricchezza: se si possiedono due metodi si pu
utilizzare quello pi economico da un punto di vista computazionale quando
si risolve numericamente un problema. Non solo, la possibilit di vedere gli
oggetti matematici da punti di vista diversi spesso aiuta a comprendere il prob-
lema nella sua interezza. Come al solito partiremo dagli oggetti pi astratti, nel
nostro caso gli spazi vettoriali, per costruire una teoria che descriva la soluzione
dei sistemi lineari come un caso particolare.
Pensiamo per un attimo alle prime lezioni di matematica delle scuole se-
condarie; prima di tutto si mettono in campo degli insiemi e poi si studiano le
funzioni che si possono costruire su questi insiemi. Nella prima parte di questo
capitolo abbiamo studiato gli spazi vettoriali (insiemi dotati di una struttura
particolare data dalle operazioni che l sono denite), ora costruiamo funzioni
tra questi oggetti matematici e vediamo come possiamo sfruttare le informazioni
che possediamo sugli spazi vettoriali per caratterizzare alcuni tipi di applicazioni
denite tra questi oggetti matematici.
Iniziamo con la denizione delloggetto di studio di questa seconda parte:
le applicazioni lineari tra spazi vettoriali. Dobbiamo tornare per un attimo
alla denizione astratta di spazio vettoriale, ma torneremo molto rapidamente
alla notazione classica e agli spazi vettoriali che intendiamo utilizzare e cio
gli spazi R
n
. Pensiamo siano assegnati due spazi vettoriali \ e \. Ognuno
di questi due spazi possiede le proprie operazioni elementari,
V
e
V
per
lo spazio \ e
W
e
W
per lo spazio vettoriale \. Abbiamo indicato con
un pedice lo spazio vettoriale in cui denita loperazione per enfatizzare che
queste coppie di operazioni in generale sono denite su spazi vettoriali distinti
e quindi possono essere completamente diverse tra loro. Per non perdere il lo
del discorso, possiamo identicare con \ lo spazio vettoriale R
n
e con \ lo
spazio vettoriale R
m
; vediamo subito che la somma tra vettori e il prodotto di
un numero reale per un vettore sono denite con la stessa tecnica in R
n
e in
R
m
, ma sono delle operazioni diverse se : ,= : (sommare una :-upla con una
:-upla in generale non possibile!)
Diamo prima la denizione utilizzando la notazione astratta, in seguito,
quando avremo capito come giocano il loro ruolo le operazioni in questi spazi
71
vettoriali e non ci sar pi possibilit di confusione, daremo la denizione stan-
dard.
Dati due spazi vettoriali: \ dotato delloperazione di somma tra vettori
V
e di prodotto di un numero reale per
V
e \ dotato delle operazioni
W
e

W
, chiamiamo applicazione lineare tra \ e \ una funzione
f : \ \
v f (v)
che soddisfa alle seguenti propriet: per ogni v
1
, v
2
\ e per ogni c R
additivit f (v
1

V
v
2
) = f (v
1
)
W
f (v
2
)
omogeneit f (c
V
v) = c
V
f (v)
Servono delle precisazioni che chiarichino gli oggetti matematici che abbia-
mo messo in gioco. Prima di tutto osserviamo che limmagine di ogni vettore di
\ mediante lapplicazione f un vettore di \, quindi f (v
1
) e f (v
2
) sono dei
vettori che appartengono allo spazio vettoriale \. Quindi la prima relazione si
pu leggere nel seguente modo: se unapplicazione tra spazi vettoriali lineare,
allora trasforma la somma di due vettori (in \ ) nella somma delle loro immagini
(in \). La stessa cosa accade per loperazione di prodotto di un numero reale
per un vettore: infatti possiamo leggere la seconda relazione dicendo che: se
unapplicazione tra spazi vettoriali lineare allora il multiplo di un vettore in
\ viene trasformato nel multiplo (con lo stesso coeciente) della sua immagine
in \.
Detto in altre parole unapplicazione lineare se rispetta la somma tra vettori
e il prodotto tra un numero reale ed un vettore. Dora in poi tralasciamo
la notazione e e ritorniamo a quella standard, ora abbiamo sottolineato a
sucienza il vero signicato dei simboli a destra e a sinistra delluguale nelle due
relazioni di additivit e di omogeneit. Con la notazione standard la precedente
denizione diventa:
Denizione 19 Dati due spazi vettoriali: \ e \, chiamiamo applicazione lin-
eare tra \ e \ una funzione
f : \ \
v f (v)
che soddisfa alle seguenti propriet: per ogni v
1
, v
2
\ e per ogni c R
additivit f (v
1
+v
2
) = f (v
1
) +f (v
2
)
omogeneit f (cv) = cf (v)
72
Queste due propriet rendono le applicazioni lineari particolarmente facili
da studiare. Osserviamo che in generale una funzione tra spazi vettoriali non
un oggetto banale neppure da denire operativamente: si tratta di fornire
informazioni su come viene trasformato ogni vettore di \ in un vettore di \.
Per le applicazioni lineari vale una relazione che fondamentale e che permette
di assegnare unapplicazione lineare in modo estremamente facile.
Teorema 11 Dati due spazi vettoriali \ e \, unapplicazione lineare tra \ e
\ perfettamente denita una volta che sia nota limmagine di questa funzione
su una base di \ .
Dimostrazione Limitiamoci al caso in cui \ uno spazio vettoriale di di-
mensione nita e ipotizziamo che v
1
, v
2
, ..., v
n
sia una base per \ . Il Teorema
ci dice che se conosciamo limmagine di f sui vettori v
1
, v
2
, ..., v
n
allora conosci-
amo dove viene mandato mediante f qualsiasi vettore di \ . Quindi ipotizziamo
di conoscere f (v
1
) , f (v
2
) , ..., f (v
n
) e cerchiamo di determinare limmagine me-
diante f di un generico vettore v. Se v
1
, v
2
, ..., v
n
allora possibile scrivere in
modo unico v come combinazione lineare degli elementi della base v
1
, v
2
, ..., v
n
,
ovvero esistono e sono unici i coecienti c
1
, c
2
, ..., c
n
tali che
v =c
1
v
1
+ c
2
v
2
+ ... + c
n
v
n
Ma allora
f (v) = f (c
1
v
1
+ c
2
v
2
+ ... + c
n
v
n
)
= f (c
1
v
1
) +f (c
2
v
2
) + ... +f (c
n
v
n
)
= c
1
f (v
1
) + c
2
f (v
2
) + ... + c
n
f (v
n
)
Abbiamo sfruttato prima ladditivit e poi lomogeneit. Osserviamo che
nellultima riga conosciamo tutti gli oggetti: c
1
, c
2
, ..., c
n
sono i coecienti
con cui individuato il vettore v dalla base v
1
, v
2
, ..., v
n
, mentre i vettori
f (v
1
) , f (v
2
) , ..., f (v
n
) sono le immagini di f che ipotizziamo di conoscere.
Quindi lultima riga rappresenta un vettore noto di \.
Comunque venga ssato v \ con questo procedimento sappiamo individ-
uare la sua immagine mediante f .
Torniamo agli spazi vettoriali che conosciamo, ovvero agli spazi R
n
. Utiliz-
zando il risultato appena dimostrato vogliamo capire come possiamo denire
unapplicazione lineare tra R
3
ed R
2
. Utilizziamo la base canonica di R
3
,
per capire dove viene mandato un generico vettore di R
3
dobbiamo denire
limmagine dei vettori e
1
, e
2
, e
3
. Fissiamo ad esempio
f (e
1
) =
_
1
2
_
f (e
2
) =
_
1
1
_
f (e
3
) =
_
2
3
_
73
Ora proviamo a calcolare limmagine del vettore v =(1, 2, 3)
0
mediante lapplicazione
lineare f . Osserviamo che, rispetto alla base canonica, le coordinate del vettore
v sono semplicissime da calcolare:
_
_
1
2
3
_
_
= 1
_
_
1
0
0
_
_
+ 2
_
_
0
1
0
_
_
+ 3
_
_
0
0
1
_
_
= 1e
1
+ 2e
2
+ 3e
3
Quindi sappiamo calcolare limmagine di questo vettore v, infatti essendo lapplicazione
lineare abbiamo che
f (v) = f (1e
1
+ 2e
2
+ 3e
3
)
= f (1e
1
) +f (2e
2
) +f (3e
3
)
= 1f (e
1
) + 2f (e
2
) + 3f (e
3
)
= 1
_
1
2
_
+ 2
_
1
1
_
+ 3
_
2
3
_
=
_
9
13
_
Proviamo a sviluppare lo stesso ragionamento per un generico vettore di R
3
:
dato x =(r
1
, r
2
, r
3
)
0
allora la sua immagine mediante f si calcola come segue
f (x) = f (r
1
e
1
+ r
2
e
2
+ r
3
e
3
)
= f (r
1
e
1
) +f (r
2
e
2
) +f (r
3
e
3
)
= r
1
f (e
1
) + r
2
f (e
2
) + r
3
f (e
3
)
= r
1
_
1
2
_
+ r
2
_
1
1
_
+ r
3
_
2
3
_
=
_
1 1 2
2 1 3
_
_
_
r
1
r
2
r
3
_
_
Nellultimo passaggio non abbiamo fatto altro che ricordare il prodotto ma-
trice per vettore ed utilizzarlo in questa situazione.
Con questo esempio dovrebbe risultare chiaro che ad ogni applicazione li-
neare da R
n
in R
m
possibile associare una matrice (: righe, : colonne) e
che le colonne rappresentano le immagini dei vettori della base canonica medi-
ante lapplicazione lineare stessa. Questa matrice lo strumento che possiamo
utilizzare per calcolare limmagine di un qualsiasi vettore di R
n
, infatti basta
moltiplicare la matrice per il vettore e si ottieme limmagine desiderata. For-
malizziamo questo commento in un Teorema.
Teorema 12 Ad ogni applicazione lineare f : R
n
R
m
possibile associare la
sua matrice caratteristica '
mn
(R) che ha per colonne, ordinatamente, le
74
immagini dei vettori della base canonica di R
n
. Per calcolare limmagine di un
generico elemento x R
n
suciente eseguire il prodotto matrice per vettore:
f (x) = x
Dimostrazione Per ipotesi conosciamo limmagine di f sui vettori della base
canonica di R
n
ovvero e
1
, e
2
, ..., e
n
. Quindi conosciamo
f (e
i
) = a
i
R
m
per calcolare limmagine del vettore x R
n
che rispetto alla base canonica ha
coordinate (r
1
, r
2
, ..., r
n
)
0
suciente osservare che
f (x) = f (r
1
e
1
+ r
2
e
2
+ ... + r
n
e
n
)
= f (r
1
e
1
) +f (r
2
e
2
) + ... +f (r
n
e
n
)
= r
1
f (e
1
) + r
2
f (e
2
) + ... + r
n
f (e
n
)
= r
1
a
1
+ r
2
a
2
+ ... + r
n
a
n
= (a
1
, a
2
, ..., a
n
)
_
_
_
_
r
1
r
2
...
r
n
_
_
_
_
= x

75
11 Applicazioni lineari suriettive
A questo punto siamo in grado di rappresentare tutte le applicazioni lineari,
almeno tra gli spazi vettoriali R
n
utilizzando le matrici.
Come per le funzioni denite su insiemi generici possiamo studiare liniettivit
e la suriettivit delle applicazioni lineari tra R
n
ed R
m
. Tuttavia, in questo am-
bito, queste due propriet assumono un signicato particolare, strettamente
collegato ai sistemi lineari. Vediamo come: ipotizziamo di conoscere la matrice
caratteristica di unapplicazione lineare
f : R
n
R
m
x x
e pensiamo di scegliere un generico vettore b R
m
. Che signicato possiamo
attribuire ora allinsieme delle soluzioni del sistema
x = b
che ha per matrice proprio la matrice caratteristica dellapplicazione lineare f ?
Proviamo a scrivere la denizione di questo insieme e vediamo come lo possiamo
riscrivere:
S
Ax=b
= x R
n
[ Ax = b
= x R
n
[ f (x) = b =

f (b)
Questo semplice passaggio ci fornisce subito unaltra prospettiva: linsieme
delle soluzioni di un sistema lineare non altro che limmagine inversa del vettore
dei termini noti mediante lapplicazione lineare che ha la matrice dei coecienti
come matrice caratteristica.
Ora possiamo tornare per un attimo ai risultati che abbiamo dimostrato
sulla struttura dellinsieme delle soluzioni di un sistema lineare per osservare
che quanto abbiamo provato direttamente svolgendo tutti i conti per esteso pu
essere detto in modo molto pi elegante in questa sezione. Riprendiamo un
attimo i risultati che ci interessano: abbiamo provato che quando il sistema
x = b ammette una soluzione particolare che abbiamo indicato con il simbolo
x

, allora esiste una corrispondenza biunivoca tra linsieme delle soluzioni del
sistema originale e linsieme delle soluzioni dellomogeneo associato. In formule
abbiamo provato che
S
Ax=b
S
Ax=0
x x x

x +x

x
La biiettivit di questa corrispondenza si prova ora in modo elementare: se
matrice caratteristica dellapplicazione lineare f allora:
76
se x

S
Ax=b
una soluzione ssata allora per ogni altra soluzione x
S
Ax=b
accade che
(x x

) = f (x x

)
= f (x) f (x

)
= x x

= b b = 0
quindi x x

S
Ax=0
e abbiamo creato una funzione che trasforma ogni
soluzione del sistema in una soluzione dellomogeneo associato;
viceversa se x

S
Ax=b
una soluzione ssata allora per ogni soluzione
dellomogeneo associato x S
Ax=0
accade che
(x +x

) = f (x +x

)
= f (x) +f (x

)
= x + x

= 0 +b = b
quindi x +x

S
Ax=b
e abbiamo creato una funzione che trasforma ogni
soluzione del sistema omogeneo associato in una soluzione del sistema
originale.
immediato osservare che queste due applicazioni sono una linversa dellaltra
e quindi vi una corrispondenza biiettiva tra linsieme S
Ax=b
e linsieme S
Ax=0
.
Questa corrispondenza quello che ci permette di aermare che gli elementi di
S
Ax=b
sono tanti quanti gli elementi di S
Ax=0
e quindi possiamo contare le
soluzioni del sistema omogeneo (e sfruttare linformazione che S
Ax=0
un sot-
tospazio) invece di occuparci di quelle del sistema originale.
Il legame fra sistemi lineari e applicazioni lineari fornisce una visione di-
versa dello stesso oggetto che ci permette immediatamente di comprendere
limportanza dello studio della suriettivit della funzione lineare f : se sappiamo
dimostrare che f suriettiva allora, comunque venga ssato il vettore b R
m
,
linsime delle soluzioni S
Ax=b
sar non vuoto. Osserviamo che questo risul-
tato ci dice qualcosa in pi rispetto al Teorema di Rouch-Capelli: qui stiamo
aermando che qualsiasi scelta del vettore b R
m
porta ad un sistema che am-
mette soluzioni, ovvero nella matrice gi insita la risolvibilit del sistema.
Nel Teorema di Rouch-Capelli avevamo invece la risolubilit del sistema per
quel particolare vettore b R
m
. Il risultato che vogliamo provare quindi pi
forte, ma, come vedremo tra un attimo, gli strumenti che metteremo in gioco
sono gli stessi utilizzati per dimostrare il Teorema di Rouch-Capelli.
77
Per cominciare vediamo che forma ha limmagine di una funzione lineare
f : R
n
R
m
x x
per denizione
im(f ) = y R
m
[ x = y per qualche x R
n

Proviamo a riscrivere questo insieme mettendo in evidenza la denizione di


prodotto tra una matrice ed un vettore
im(f ) = y R
m
[ x = y per qualche x R
n

= y R
m
[ (a
1
, a
2
, ..., a
n
) x = y per qualche x R
n

= y R
m
[ a
1
r
1
+a
2
r
2
+ ... +a
n
r
n
= y con r
1
, r
2
, ..., r
n
R
Ma quella appena evidenziata non altro che una combinazione lineare tra le
colonne della matrice , quindi possiamo riscrivere
im(f ) = a
1
, a
2
, ..., a
n

Questo risultato porta con s due osservazioni che rendono molto semplice
lo studio della suriettivit della funzione f :
se f unapplicazione lineare allora im(f ) un sottospazio vettoriale di
R
m
;
la dimensione di im(f ) coincide con il rango della matrice associata
allapplicazione lineare stessa:
dim(im(f )) = dima
1
, a
2
, ..., a
n
= rk
Con queste due osservazioni in mano il seguente Teorema risulta elementare
anche se la sua importanza applicativa per quanto riguarda i sistemi lineari
notevole.
Teorema 13 Data unapplicazione lineare f : R
n
R
m
di matrice caratteri-
stica '
mn
(R) allora
im(f ) un sottospazio vettoriale di R
m
;
condizione necessaria anch questa applicazione sia suriettiva che : _
:;
condizione necessaria e suciente anch questa applicazione sia suriet-
tiva che dim(im(f )) = : ovvero che rk = :
78
Dimostrazione Il primo item banale: per costruzione il sottospazio vet-
toriale generato dalle colonne della matrice associata allapplicazione lineare f .
Dimostriamo ora il terzo item. Anch f sia suriettiva deve accadere che
im(f ) = R
m
. Visto che im(f ) E R
m
per dimostrare luguaglianza basta di-
mostrare che le dimensioni di questi due sottospazi vettoriali uguale e con-
dizione necessaria e suciente anch questo accada che
dim(im(f )) = :
dima
1
, a
2
, ..., a
n
= :
rk = :
Passiamo ora al secondo item, anch dima
1
, a
2
, ..., a
n
= : i vettori colonna
della matrice devono essere almeno :, altrimenti tra i vettori a
1
, a
2
, ..., a
n
non
sar mai possibile trovare : vettori linearmente indipendenti, quindi : _ :.
Tornando agli esempi economici del Paragrafo ??, osserviamo che tutte e tre
le funzioni lineari presentate sono suriettive, essendo rispettivamente
rk(j
L
, j
B
) = 1, per la matrice (vettore riga) dei prezzi nella denizione
del costo di un paniere di beni;
rk = 3, per la matrice fabbisogniore per la produzione di quattro
articoli, infatti il determinante della sottomatrice costituita dalle prime
tre colonne 2 ,= 0;
rk = 2, per la matrice di transizione nellesempio di transizione da
marca a marca, infatti il determinante 0, 5 ,= 0.
Vediamo, con degli esempi, due immediate ricadute sui sistemi lineari del
risultato di questo paragrafo.
Esempio 4 Discutere il sistema lineare
_
r
1
+ 2r
2
+ r
3
= 0
r
1
+ r
3
= 1
Osserviamo che la matrice incompleta
=
_
1 2 1
1 0 1
_
e questa matrice pu essere considerata la matrice caratteristica di unapplicazione
lineare f : R
3
R
2
. Osserviamo che il minore di ordine due che otteniamo
eliminando lultima colonna vale 2, quindi rk = 2 e lapplicazione lineare
suriettiva. Questi ci dice che il sistema lineare ammette sempre soluzioni ed il
Teorema di Rouch-Capelli ci assicura che ne ammette
3rkA
=
1
.
79
Osserviamo che cambiando a piacere il termine noto, continueremmo ad
avere lo stesso risultato: il sistema ammette
1
soluzioni qualsiasi sia il vettore
dei termini noti!
Questo risultato si spiega anche a partire dal Teorema di Rouch-Capelli
utilizzando i ranghi delle matrici: la matrice incompleta di questo sistema lineare
ha rango 2 e questo forza anche la matrice completa ad avere rango 2, qualsiasi
sia il vettore dei termini noti. In formule abbiamo spesso scritto:
rk _ rk ( [ b) = min2, 3 = 2
quindi se rk = 2 abbiamo forzatamente che anche rk ( [ b) = 2 e questo
accade indipendentemente dalla scelta del vettore b.
Esempio 5 Discutere il sistema lineare
_
_
_
r
1
+ 2r
2
= 0
r
1
+ r
2
= 1
r
1
+ r
2
= t
al variare del parametro t R.
Per risolvere questo sistema dobbiamo discutere tutta una famiglia di sistemi
lineari, uno per ogni scelta del parametro t. A prima vista pu sembrare arduo,
ma proprio in questi esempi che si comprende la potenza degli stumenti che
abbiamo messo in gioco.
Scriviamo il sistema in forma matriciale:
_
_
1 2
1 1
1 1
_
_
_
r
1
r
2
_
=
_
_
0
1
t
_
_
Il rango della matrice incompleta massimo poch il minore di ordine due
che otteniamo eliminando lultima riga vale 1. Attenzione, questo non ci
assicura che lapplicazione sia suriettiva. Infatti se osserviamo le dimensioni
ci accorgiamo che lapplicazione lineare che ha come matrice caratteristica la
matrice dei coecienti denita come segue
f : R
2
R
3
x x
quindi il dominio troppo piccolo per poter coprire tutto il codominio, op-
pure detto in modo rigoroso la dimensione del codominio strettamente mag-
giore della dimensione del dominio.
Calcoliamo ora il rango della matrice completa, questa una matrice che
appartiene allinsieme '
33
(R) quindi il suo rango varia tra 0 e 3. Il rango
80
della matrice completa tre se e solo se il suo determinante (unico minore di
ordine 3) diverso da zero. Calcoliamolo
det
_
_
1 2 0
1 1 1
1 1 t
_
_
= det
_
1 1
1 t
_
2 det
_
1 1
1 t
_
= t 1 2t + 2
= 1 t
Possiamo dividere la nostra discussione in due casi:
se t ,= 1 allora il determinante della matrice completa diverso da zero,
quindi il suo rango 3 ed il sistema lineare non ammette soluzioni;
se t = 1 allora il rango della matrice completa 2 e il sistema ammette, per
il Teorema di Rouch-Capelli,
2rkA
=
0
ovvero ununica soluzione.
Per ovviare a facili fraintendimenti sottolineiamo un fatto che ben eviden-
ziato nellesempio precedente:
anch un sistema lineare ammetta soluzioni non necessario che lapplicazione
lineare associata alla matrice dei coecienti sia suriettiva, la suriettivit
assicura la possibilit di risolvere il sistema qualsiasi sia la scelta del ter-
mine noto.
81
12 Applicazioni lineari iniettive
Dopo lo studio della suriettivit delle applicazioni lineari (ricordiamo che il
termine funzione suriettiva spesso sostituito dal termine onto function nei
testi in lingua inglese), passiamo ora allo studio delliniettivit. Partiamo, come
prima da una funzione lineare tra spazi vettoriali R
n
:
f : R
n
R
m
x x
e riscriviamo la denizione di funzione iniettiva. Abbiamo detto che f iniettiva
se e solo manda elementi distinti del dominio in elementi distinti del codominio,
ovvero se limmagine di due elementi del dominio la stessa allora i due elementi
di partenza devono coincidere. In formule per ogni x
1
, x
2
R
n
f (x
1
) = f (x
2
) = x
1
= x
2
f (x
1
) f (x
2
) = 0 = x
1
x
2
= 0
Ora sfruttiamo ladditivit dellapplicazione lineare e scriviamo
f (x
1
x
2
) = 0 = x
1
x
2
= 0
che pu essere riletto nel seguente modo: se unapplicazione lineare iniettiva
allora lunico elemento che viene mandato nel vettore nullo del codomionio il
vettore nullo del dominio. Questo passaggio giustica la denizione che segue
e che assegna un nome allinsieme dei vettori del dominio che hanno come im-
magine il vettore nullo del codominio.
Denizione 20 Data unapplicazione lineare f : R
n
R
m
di matrice caratter-
istica '
mn
(R) allora chiamiamo nucleo (kernel) dellapplicazione lineare
(o della sua matrice caratteristica) il sottoinsieme di R
n
denito come segue
ker f = x R
n
[ f (x) = 0
ker = x R
n
[ x = 0
Gi dalla denizione che abbiamo dato dovrebbero risultare chiare limportanza
e le propriet di questo insieme. Prima di tutto osserviamo che, tornando per
un attimo ai sistemi lineari, abbiamo che
ker f =x R
n
[ x = 0 = S
Ax=0
quindi il nucleo di una matrice altro non che linsieme delle soluzioni del sistema
omogeneo che ha proprio quella come matrice dei coecienti. Da questo paral-
lelo diventa immediato notare che ker E R
n
ovvero il nucleo di unapplicazione
lineare non un semplice sottoinsieme del dominio, un sottospazio vettoriale.
82
Anche se questa osservazione sarebbe suciente, nel prossimo risultato dimostr-
eremo nuovamente questo fatto utilizzando questa volta le propriet delle ap-
plicazioni lineari.
Possiamo comunque gi intuire qualcosa prima di enunciare e dimostrare il
risultato pi importante sulliniettivit delle applicazioni lineari. La prima intu-
izione, gi ben evidenziata nelle righe precedenti, che il nucleo di unapplicazione
lineare un sottospazio vettoriale del dominio. Questo sottospazio vettoriale ha
una stretta relazione con liniettivit di una funzione lineare, infatti abbiamo
visto poche righe sopra che la denizione di funzione iniettiva si traduce, per le
applicazioni lineari, nellaermazione che il nucleo composto dal solo vettore
nullo. Ma questo pone immediatamente due questioni:
ach il nucleo di unapplicazione lineare (ovvero linsieme delle soluzioni
di un sistema omogeneo) sia composto dal solo vettore nullo necessario
che il codominio sia grande almeno tanto quanto il dominio altrimenti
una sovrapposizione inevitabile; detto in modo rigoroso la dimensione
del codominio deve essere maggiore o uguale alla dimensione del dominio
(ovvero servono almeno tante equazioni quante incognite altrimenti il sis-
tema omogeneo avr soluzioni diverse dal solo vettore nullo);
se il nucleo di unapplicazione lineare formato dal solo vettore nullo,
possiamo invertire la precedente implicazione e dedurre che lapplicazione
lineare iniettiva? In altri termini la condizione necessaria per liniettivit
che abbiamo presentato in precedenza anche suciente?
Il prossimo risultato chiarisce tutti questi punti.
Teorema 14 Data unapplicazione lineare f : R
n
R
m
di matrice caratteri-
stica '
mn
(R) allora
ker f un sottospazio vettoriale di R
n
;
condizione necessaria anch tale applicazione sia iniettiva che : _ :;
condizione necessaria e suciente anch questa applicazione sia iniet-
tiva che ker f =0 ovvero che dim(ker f ) = 0; la dimensione di questo
sottospazio viene spesso chiamata nullit dellapplicazione lineare e rapp-
resentata con il simbolo null che fa riferimento alla sua matrice carat-
teristica.
Dimostrazione Primo item: siano x
1
, x
2
ker f e siano c, , R, vogliamo
dimostrare che il vettore cx
1
+,x
2
appartiene anchesso al nucleo dellapplicazione
lineare f . Osserviamo che per ladditivit prima e per lomogeneit poi vale
f (cx
1
+ ,x
2
) = f (cx
1
) +f (,x
2
)
= cf (x
1
) + ,f (x
2
)
= c0 + ,0
= 0
83
osserviamo come, avendo gli strumenti adeguati, la dimostrazione risulti molto
pi semplice rispetto a quella fornita in precedenza.
Secondo item: la denizione di iniettivit richiede che per ogni x
1
, x
2
R
n
f (x
1
) = f (x
2
) = x
1
= x
2
e per la linearit la richiesta diventa: per ogni x
1
, x
2
R
n
f (x
1
x
2
) = 0 = x
1
x
2
= 0
ovvero per ogni x R
n
f (x) = 0 = x = 0
x = 0 = x = 0
ovvero lunica soluzione del sistema omogeneo x = 0 il vettore nullo. Per il
Teorema di Rouch-Capelli anch questo accada necessario (ma non su-
ciente) che ci siano almeno tante equazioni quante incognite, ovvero : _ :.
Terzo item: sappiamo gi dal quanto scritto sopra che se f iniettiva allora
ker f =0, ipotizziamo ora che ker f =0 e dimostriamo che questo ci assicura
che la funzione f iniettiva. Siano x
1
, x
2
R
n
due elementi del dominio e
ipotizziamo che f (x
1
) = f (x
2
) allora
f (x
1
) f (x
2
) = 0
f (x
1
x
2
) = 0
ma ker f =0, quindi x
1
x
2
= 0 ovvero x
1
= x
2
.
Per comprendere le ricadute di questo risultato sui sistemi lineari introduci-
amo due esempi.
Esempio 6 Discutere liniettivit della seguente famiglia t-parametrica di ap-
plicazioni lineari
f : R
3
R
3
_
_
r
1
r
2
r
3
_
_

_
_
t 0 0
1 2 3
1 0 1
_
_
_
_
r
1
r
2
r
3
_
_
Per ogni valore del parametro t dobbiamo considerare una diversa appli-
cazione lineare della quale ci richiesto studiare liniettivit. Per farlo dobbiamo
calcolare il nucleo dellapplicazione lineare, ovvero dobbiamo risolvere il sistema
lineare
_
_
t 0 0
1 2 3
1 0 1
_
_
_
_
r
1
r
2
r
3
_
_
=
_
_
0
0
0
_
_
Questo un sistema omogeneo, quindi ammette sempre soluzioni (almeno la
soluzione banale, formata dal vettore nullo, c sempre). Lapplicazione ini-
ettiva se e solo se il vettore nullo lunica soluzione di questo sistema omoge-
neo. Naturalmente possiamo utilizzare il Teorema di Rouch-Capelli per trovare
84
quante sono le soluzioni senza risolvere esplicitamente il sistema, basta calcolare
il rango della matrice incompleta (che in tutti i sistemi omogenei coincide con
il rango della matrice completa visto che si aggiunge solo unultima colonna di
zeri). Osserviamo che la matrice incompleta ha un rango che compreso tra
zero e tre, avr rango tre se e solo se il suo determinante diverso da zero,
andiamo a calcolarlo:
det
_
_
t 0 0
1 2 3
1 0 1
_
_
= t det
_
2 3
0 1
_
= 2t
Concludendo se t ,= 0 allora lapplicazione iniettiva, se t = 0 lapplicazione
non iniettiva. Osserviamo che in questo caso quando lapplicazione iniettiva
anche suriettiva (il rango tre e coincide con la dimensione del codiminio). Pi
avanti ci chiederemo per quali matrici sia valida questa relazione; naturalmente
il risultato importante poich con un solo passaggio si dimostra lesistenza
(suriettivit) e lunicit (iniettivit) della soluzione del sistema lineare qualunque
sia il vettore dei termini noti.
Esempio 7 Discutere liniettivit della seguente famiglia t-parametrica di ap-
plicazioni lineari
f : R
2
R
3
_
r
1
r
2
_

_
_
t 1
1 t
1 0
_
_
_
r
1
r
2
_
Come prima calcoliamo il rango della matrice incompleta che varia tra zero
e due. Selezioniamo arbitrariamente una matrice 2 2 eliminando lultima riga
e calcoliamo il suo determinante, otteniamo:
det
_
t 1
1 t
_
= t
2
1 = (t 1) (t + 1)
Dobbiamo distinguere tre casi:
se t ,= 1 e anche t ,= 1 allora la matrice incompleta ha rango 2 e
lapplicazione lineare iniettiva;
se t = 1 allora il minore che abbiamo selezionato nullo, ma potrebbero
esistere altri minori di ordine due non nulli (per lesattezza ce ne sono
altri due che non conosciamo); comunque per t = 1 la matrice incompleta
diventa
_
_
1 1
1 1
1 0
_
_
85
e di nuovo il minore di ordine 2 che otteniamo cancellando la prima colonna
vale 1 quindi anche in questo caso il rango della matrice 2 e lapplicazione
iniettiva.
Osserviamo quindi che per ogni valore del parametro t lapplicazione lineare
che otteniamo iniettiva.
Anche in questo caso per ovviare possibili errori sottolineiamo due fatti che
sono ben evidenziati nellesempio precedente:
un sistema lineare pu non ammettere soluzioni anche quando lapplicazione
lineare associata alla matrice dei coecienti iniettiva (liniettivit ci as-
sicura lunicit della soluzione quando questa esiste): nellultimo esempio,
quando t = 0 e il vettore dei termini noti
b =
_
_
0
0
1
_
_
facile notare che la matrice incompleta ha rango 2, lapplicazione lineare
iniettiva, ma il sistema lineare non ammette soluzioni poich il determi-
nanate della matrice completa
det
_
_
0 1 0
1 0 0
1 0 1
_
_
= 1
pu accadere che la matrice incompleta abbia rango massimo, ma che il
sistema non ammetta soluzioni, nellesempio appena sviluppato si nota che
questo accade quando il numero di colonne minore del numero di righe
e quindi aggiungendo la colonna dei termini noti si aumenta il possibile
rango della matrice completa.
Negli esempi economici del Paragrafo ??, osserviamo che ovviamente non
sono iniettive la funzione costo di un paniere di beni (esistono diversi panieri
con il medesimo costo) e la funzione che fornisce le ore di lavorazione nei tre
reparti per un piano di produzione (esistono diversi piani di produzione con
le medesime richieste di ore complessive di lavorazione nei tre reparti). Daltra
parte iniettiva la funzione che fornisce la situazione del mercato al tempo 1 data
quella al tempo 0, perch la sua matrice caratteristica, la matrice di transizione,
ha le colonne linearmente indipendenti e quindi il nucleo della trasformazione
lineare lo spazio nullo (esiste quindi ununica situazione del mercato al tempo
0 che faccia arrivare ad una data situazione del mercato al tempo 1).
86
13 Applicazioni lineari biiettive
Per studiare la biiettivit di unapplicazione lineare suciente mettere assieme
i risultati presentati nelle precedenti sezioni. Questa volta prima enunciamo il
risultato, che non ha bisogno di nessuna dimostrazione poich mette assieme i
risultati precedentemente sviluppati, e successivamente lo commentiamo.
Teorema 15 Data unapplicazione lineare f : R
n
R
m
di matrice caratteri-
stica '
mn
(R) allora
condizione necessaria anch tale applicazione sia biiettiva che : = :;
condizione necessaria e suciente anch questa applicazione sia iniet-
tiva che rk = : e nello stesso tempo null = 0
La prima condizione, solo necessaria, riguarda le dimensioni degli spazi vet-
toriali in gioco: se vogliamo che una applicazione lineare sia biiettiva necessario
che la dimensione dello spazio di partenza e quella di arrivo coincidano.
La seconda condizione, necessaria e suciente, richiede che lapplicazione
lineare sia suriettiva, ovvero che il rango della sua matrice sia : e che sia iniettiva
ovvero che la nullit sia zero in modo che il nucleo sia formato dal solo vettore
nullo.
Esempio 8 Discutere la biiettivit della seguente famiglia t-parametrica di ap-
plicazioni lineari
f : R
3
R
3
_
_
r
1
r
2
r
2
_
_

_
_
t 1 0
t 2 2
1 1 1
_
_
_
_
r
1
r
2
r
2
_
_
Iniziamo con la suriettivit, dobbiamo calcolare il rango della matrice carat-
teristica dellapplicazione lineare. Questo rango varia da zero a tre, ed massimo
se e solo se il determinante della matrice diverso da zero. Il determinante
det
_
_
t 1 0
t 2 2
1 1 1
_
_
= t det
_
2 2
1 1
_
det
_
t 2
1 1
_
+
= 2 t
e quindi per t ,= 2 lapplicazione suriettiva.
Passiamo ora allo studio delliniettivit, dobbiamo calcolare la dimensione
del nucleo, quindi dobbiamo utilizzare il Teorema di Rouch-Capelli, che ci assi-
cura che lapplicazione iniettiva se e solo se il rango della matrice caratteristica
tre. Ma se t ,= 2 il rango gi tre, lo abbiamo calcolato al passo precedente!
Quindi per t ,= 2 lapplicazione biiettiva.
87
Questo esempio porta alla luce un aspetto singolare. Una volta che unapplicazione
lineare f : R
3
R
3
suriettiva automaticamente anche iniettiva. Il legame
tra queste due propriet insito nel Teorema di Rouch-Capelli che utilizza il
rango (legato alla suriettivit) per indicare il numero di variabili libere (se non
ce ne sono lapplicazione iniettiva). La domanda che sorge spontanea la
seguente: questa relazione valida sempre? La risposta aermativa, ma una
volta che abbiamo individuato questo legame conveniente svilupparlo no in
fondo, ovvero provare il legame tra rango e nullit per unapplicazione lineare
qualsiasi e vedere in seguito le ricadute di questo risultato sulla biiettivit delle
applicazioni lineari.
Teorema 16 Data unapplicazione lineare f : R
n
R
m
di matrice caratteri-
stica '
mn
(R) allora
rk + null = :
Dimostrazione Il nucleo di f si calcola risolvendo il sistema lineare omogeneo
x = 0
che per il Teorema di Rouch-Capelli ammette un sottospazio vettoriale di
soluzioni di dimensione : rk. Quindi
dimker = null = : rk

Una metafora che pu essere utile per ricordare il signicato di questa re-
lazione la seguente: la legge di conservazione dellenergia che si impara gi
nelle secondarie di primo grado dice che lenergia non si crea n si distrugge,
ma semplicemente si trasforma da una forma allaltra. Parafrasando questa
legge potremmo dire che la dimensione dello spazio di partenza viene trasfor-
mata da unapplicazione lineare parte in dimensione dellimmagine e parte in
dimensione del nucleo. Oppure la dimensione del dominio che non ha creato
dimensione nellimmagine tutta contenuta nel nucleo dellapplicazione stessa.
Naturalmente la metafora utile solo da un punto di vista mnemonico e racchi-
ude altri signicati.
Osserviamo che nel caso di applicazioni lineari f : R
n
R
n
il risultato
precedente continua a valere, tuttavia otteniamo un qualcosa in pi (legato al
fatto che la dimensione del dominio coincide con la dimensione del codominio):
se lapplicazione suriettiva allora rk = : e sostituendo nella precedente
relazione abbiamo null = 0, quindi lapplicazione anche iniettiva;
88
se lapplicazione iniettiva allora null = 0 e sostituendo nella precedente
relazione abbiamo rk = 0, quindi lapplicazione anche suriettiva.
A questo punto chiediamoci: con gli strumenti che possediamo nella pratica
pi facile dimostrare che unapplicazione lineare f : R
n
R
m
iniettiva oppure
che suriettiva? Evidentemente la risposta corretta la seconda, il determinante
facilita enormemente il calcolo del rango. La strategia sar allora la seguente:
calcolo il rango e deduco la nullit a partire dalla relazione precedente.
Il ragionamento vale anche per unapplicazione lineare f : R
n
R
n
, ma
in questo caso c qualcosa di pi: per dimostrare che f suriettiva basta di-
mostrare che rk = : e questo accade se e solo se det ,= 0. Infatti la matrice
stessa lunica sottomatrice : : contenuta nella matrice . Ma se det ,= 0
allora lapplicazione lineare suriettiva, quindi rk = : e utilizzando la re-
lazione precedente otteniamo null = 0 ovvero lapplicazione anche iniettiva.
Abbiamo appena dimostrato il seguente risultato.
Teorema 17 Data unapplicazione lineare f : R
n
R
n
di matrice caratteristi-
ca '
nn
(R) questa biiettiva se e solo se
det ,= 0
Questo risultato ha ricadute rilevanti sulla soluzione dei sistemi lineari. Ab-
biamo pi volte ricordato che da un punto di vista applicativo i sistemi lineari pi
importanti sono quelli che ammettono una ed una sola soluzione. Ora sappiamo
perfettamente che per ottenere un sistema di questo tipo necessario avere un
numero di incognite uguale al numero di equazioni (lapplicazione lineare associ-
ata alla matrice dei coecienti deve poter essere contemporaneamente iniettiva
e suriettiva). Ma questo non basta, le equazioni devono essere informazioni
indipendenti e quindi il rango della matrice incompleta deve essere massimo,
essendo questa una matrice quadrata il suo determinante deve essere diverso da
zero. Questo accade indipendentemente dal vettore dei termini noti, qualsiasi
sia questo vettore il sistema ammette una ed una sola soluzione.
Esempio 9 Discutere per quali valori del parametro t il seguente sistema lineare
ammette una ed una sola soluzione
_
_
_
r
1
+ r
2
+ r
3
= 1
r
1
+ tr
3
= 1
r
1
+ r
2
+ tr
3
= t
Scriviamo il sistema in forma matriciale
_
_
1 1 1
1 0 t
1 1 t
_
_
_
_
r
1
r
2
r
3
_
_
=
_
_
1
1
t
_
_
89
Prima di tutto osserviamo che il sistema ha tante equazioni quante incogni-
te, quindi la condizione necessaria per avere ununica soluzione soddisfatta.
Per quanto riguarda la condizione necessaria e suciente basta richiedere che il
determinante della matrice incompleta sia diverso da zero. Possiamo giusticare
questaermazione da due punti di vista:
se il determinante della matrice incompleta diverso da zero allora lapplicazione
lineare che ha questa come matrice caratteristica invertibile e qualunque
sia il vettore dei termini noti esiste un solo vettore del dominio che ha per
immagine proprio quel vettore;
se il determinante della matrice incompleta diverso da zero allora la
matrice incompleta ha rango tre e la matrice completa, qualunque sia il
vettore dei termini noti, non pu avere un rango maggiore di tre, quindi
il sistema amette soluzioni per il Teorema di Rouch-Capelli; inoltre am-
mette una sola soluzione poich il rango coincide con il numero delle incog-
nite.
Quindi calcoliamo
det
_
_
1 1 1
1 0 t
1 1 t
_
_
= det
_
1 1
1 t
_
t det
_
1 1
1 1
_
= 1 t
ed otteniamo che per t ,= 1 il sistema ammette una ed una sola soluzione qualsiasi
sia il valore del parametro t (interpretiamo correttamente questa aermazione:
per ogni ssato valore di t che sia diverso da 1 il sistema che otteniamo ha
ununica soluzione).
Per concludere questa sezione osserviamo che una caratteristica delle appli-
cazioni biiettive quella di ammettere inversa. Nel caso delle applicazioni lineari
questa inversa rivestita di unimportanza notevole: se riusciamo a calcolarla
allora abbiamo una funzione che risolve il sistema lineare per ogni scelta pos-
sibile del termine noto. Entriamo nei dettagli, pensiamo di dover risolvere un
sistema lineare
x = b
con '
nn
(R) e b R
n
. Introduciamo lapplicazione lineare che ha come
matrice caratteristica
f : R
n
R
n
x x
se det ,= 0 allora questa applicazione ammette uninversa:
f
1
: R
n
R
n
y f
1
(y)
che cosa signica f
1
(y)? Questo simbolo indica quellunico elemento del do-
minio che ha per immagine y. Parafrasiamo sostituendo a y il vettore dei termini
90
noti del sistema lineare, f
1
(b) indica quellunico elemento del dominio che ha
per immagine b, ovvero lunica soluzione del sistema lineare!
Se riusciamo a costruire operativamente questa applicazione inversa abbi-
amo un altro metodo per risolvere i sistemi lineari. Prima di arontare questo
compito presentiamo un risultato sullinversa di unapplicazione lineare che ci
sar utile in seguito.
Teorema 18 Data unapplicazione lineare biiettiva f : R
n
R
n
di matrice
caratteristica '
nn
(R) allora anche la sua inversa unapplicazione lin-
eare.
Questo Teorema ci dice che linversa di unapplicazione lineare essa stessa
unapplicazione lineare. Il fatto non per nulla banale, sappiamo che esiste
linversa dalla biiettivit della funzione, che una propriet insiemistica che
non coinvolge gli spazi vettoriali. Il fatto che linversa di unapplicazione lineare
sia essa stessa unapplicazione lineare rende meno arduo il compito che ci siamo
assegnati in precedenza: per calcolare f
1
baster cercare di capire come fatta
la sua matrice caratteristica. Chiudiamo la sezione con la dimostrazione di
questo risultato.
Dimostrazione Sappiamo che f ammette inversa, indichiamola con il simbolo
f
1
.
Vediamo se vale lomogeneit: se f
1
(y) = x allora x lunico elemento del
domininio tale che f (x) = y, moltiplichiamo ambo i membri di questultima
equazione per c e sfruttiamo lomogeneit di f , otteniamo:
cf (x) = cy
f (cx) = cy
e questo si pu rileggere dicendo che f
1
(cy) = cx ovvero ricordando che
f
1
(y) = x
f
1
(cy) = cf
1
(y)
Passiamo alladditivit: supponiamo che f
1
(y
1
) = x
1
e che f
1
(y
2
) = x
2
questo signica che f (x
1
) = y
1
e che f (x
2
) = y
2
sommiamo membro a membro
queste due equazioni ed utilizziamo ladditivit di f , otteniamo
f (x
1
) +f (x
2
) = y
1
+y
2
f (x
1
+x
2
) = y
1
+y
2
e questo ci dice che f
1
(y
1
+y
2
) = x
1
+ x
2
e ricordandoci chi erano x
1
ed x
2
concludiamo
f
1
(y
1
+y
2
) = f
1
(y
1
) +f
1
(y
2
)

91
14 Composizioni di applicazioni lineari
Lobiettivo di questa sezione quello di costruire la matrice caratteristica dellinversa
di unapplicazione lineare biiettiva. Per ottenere questo risultato serve in-
quadrare il problema da un punto di vista pi ampio e quindi il primo passo
consister nello studio della composizione tra applicazioni lineari. Pu sem-
brare un problema lontano dal nostro obiettivo, tuttavia basta pensare che se
f : R
n
R
n
allora f
1
: R
n
R
n
e deve accadere, per denizione dellinversa
di una funzione che
f
1
f : R
n
f
R
n
f
1
R
n
sia lidentit. Se capiamo come si comporta la composizione di applicazioni
lineari a livello delle loro matrici caratteristiche allora dovrebbe essere pi sem-
plice capire quale sia la forma corretta per la matrice caratteristica dellinversa
di unapplicazione lineare.
Prima di tutto osserviamo che per poter parlare di composizione tra appli-
cazioni lineari necessario che il codominio della prima coincida con il dominio
della seconda, quindi avr senso comporre tra loro applicazioni del tipo
g f : R
n
f
R
m
g
R
`
Quindi la dimensione del codominio della prima applicazione lineare deve essere
uguale alla dimensione del dominio della seconda, visto che le uniche applicazioni
lineari che abbiamo considerato in questo capitolo sono quelle tra spazi vettoriali
R
n
.
Questa solo una condizione suciente, sappiamo che la condizione nec-
essaria e suciente anch esista la composizione tra applicazioni lineari la
seguente
im(f ) _ dom(g)
Ma le applicazioni lineari coinvolgono solo somme e moltiplicazioni e queste
operazioni si possono svolgere sempre senza problemi, quindi dom(g) = R
m
e
questo ci assicura che la composizione tra due applicazioni lineari non richiede
particolari attenzioni se non quella che lo spazio vettoriale codominio della prima
sia il dominio della seconda.
Molto pi interessante la seguente osservazione: ora che sappiamo che
g f esiste, possiamo sfruttare le propriet di additivit e di omogeneit di f
e di g per dire qualcosa sullapplicazione composta g f ? La risposta ovvia:
lapplicazione composta anchessa unapplicazione lineare. Formalizziamo e
dimostriamo questo risultato.
Teorema 19 Date due applicazione lineari f : R
n
R
m
e g : R
m
R
`
allora
lapplicazione composta g f anchessa unapplicazione lineare.
92
Dimostrazione Sia x R
n
ed c R, allora
g f (cx) = g (f (cx))
= g (cf (x))
= cg (f (x))
lomogeneit di f e di g inducono lomogeneit anche per la loro composta.
Ragionamento identico per ladditivit: siano x
1
, x
2
R
n
g f (x
1
+x
2
) = g (f (x
1
+x
2
))
= g (f (x
1
) +f (x
2
))
= g (f (x
1
)) +g (f (x
2
))

Tutte le applicazioni lineari, e quindi anche g f sono caratterizzate da una


matrice, come sar fatta la matrice di g f ? E pi in dettaglio possibile dire
qualcosa sulla matrice di gf a partire dalle matrici di f e di g? Il ragionamento
non banale, focalizziamoci su questo problema e cerchiamo di capire come
muoverci.
Iniziamo dando un nome agli oggetti che vogliamo studiare:
f : R
n
R
m
g : R
m
R
`
x x y 1y
naturalmente per questione di dimensioni 1 '
mn
(R), mentre '
`m
(R).
Sappiamo che lapplicazione lineare composta g f caratterizzata (come tutte
le applicazioni lineari) dallimmagine della base canonica: per essere precisi le
colonne della matrice caratteristica di g f sono i vettori immagine mediante
g f dei vettori della base canonica di R
n
. Iniziamo allora a vedere qual
limmagine di e
1
R
n
mediante g f
g f (e
1
) = g (f (e
1
))
ricordiamo che f (e
1
) non altro che limmagine di e
1
R
n
mediante f e questo
vettore corrisponde alla prima colonna della matrice , quindi se
= (a
1
, a
2
, ..., a
n
)
allora abbiamo che
g f (e
1
) = g (f (e
1
))
= g (a
1
)
= 1a
1
Otteniamo che il vettore e
1
R
n
ha come immagine mediante gf il vettore
che si ottiene moltiplicando la matrice 1 per la prima colonna della matrice .
93
Otteniamo che questo prodotto matrice vettore ha le dimensioni corrette (come
deve essere) visto che 1 '
`m
(R) mentre a
1
R
m
; il vettore risultante
da questo prodotto un vettore di R
`
ed la prima colonna della matrice
caratteristica dellapplicazione lineare g f .
Ripetiamo lo stesso ragionamento per il vettore e
2
R
n
:
g f (e
2
) = g (f (e
2
))
= g (a
2
)
= 1a
2
chiaro che iterando : volte questo ragionamento otteniamo che la matrice
caratteristica dellapplicazione lineare g f la seguente
(1a
1
, 1a
2
, ..., 1a
n
)
ovvero la matrice le cui colonne sono il prodotto tra la matrice 1 e le singole
colonne della matrice . Osserviamo che la matrice che abbiamo scritto ha
tante colonne quante sono le colonne della matrice e tante righe quante sono
le righe della matrice 1, quindi otteniamo realmente una matrice che appartiene
allinsieme '
`n
(R) come deve essere visto che g f : R
n
R
`
. Conviene dare
un nome a questo oggetto matematico che dipende solo dalle matrici e 1 e lo
chiameremo appunto prodotto tra matrici. Questa costruzione proprio quello
che ci serviva per trovare la matrice caratteristica della composizione di due
applicazioni lineari.
Denizione 21 Date due matrici 1 '
`m
(R) e '
mn
(R) se il numero
di colonne della prima coincide con il numero di righe della seconda matrice al-
lora possibile denire il prodotto tra la prima e la seconda matrice nel seguente
modo:
1 = 1 (a
1
, a
2
, ..., a
n
)
= (1a
1
, 1a
2
, ..., 1a
n
)
In questo modo la matrice prodotto appartiene allinsieme '
`n
(R).
Osserviamo che se scriviamo sotto le dimensioni continua a valere la regola
empirica che abbiamo visto per il prodotto tra una matrice e un vettore: in quel
caso avevamo scritto

..
m :
x
..
: 1
= x
..
m1
mentre ora possiamo aermare che
1
..
` :

..
: n
= 1
..
`n
94
ovvero per trovare le dimensioni della matrice prodotto tra due matrici basta
eliminare il numero uguale (che deve essere il numero di colonne della prima
e righe della seconda):
/ / : / :: = / :
La scelta di denire il prodotto tra matrici utilizzando i simboli invertiti per
le matrici prodotto (1 la posto del pi comodo 1) ha una ragione: si vuole
enfatizzare il fatto che quando si compongono tra loro due applicazioni lineari
e si vuole trovare la matrice caratteristica dellapplicazione lineare composta
g f : R
n
f
R
m
g
R
`
lordine con cui vengono moltiplicate le matrici linverso rispetto allordine
con cui agiscono le funzioni. Questo ben formalizzato nel prossimo risultato,
ma spesso fonte di errori e quindi necessario porre particolare attenzione a
come queste matrici vengono moltiplicate (soprattutto quando : = : = / e la
dimensione delle matrici non aiuta ad individuare lordine corretto).
Teorema 20 Date due applicazione lineari f : R
n
R
m
di matrice caratteri-
stica e g : R
m
R
`
di matrice caratteristica 1
f : R
n
R
m
g : R
m
R
`
x x y 1y
allora lapplicazione lineare composta g f
g f : R
n
f
R
m
g
R
`
ha matrice caratteristica che prodotto delle matrici caratteristiche delle singole
applicazioni lineari
1
ovvero
g f (x) = 1x
Non c nulla da dimostrare poich abbiamo denito il prodotto tra matrici
proprio in modo che sia valido questo Teorema. Osserviamo che lordine delle
matrici nel prodotto tra matrici esattamente lordine delle funzioni corrispon-
denti nella composizione tra funzioni.
Servono ora degli esempi per chiarire nella pratica come si svolgono realmente
i conti.
Esempio 10 Date due applicazioni lineari f di matrice caratteristica
=
_
1 2 4
2 3 0
_
95
e g di matrice caratteristica
1 =
_
_
1 0 1 2
0 0 1 0
1 1 0 0
_
_
calcolare, se possibile, le matrici caratteristiche delle applicazioni lineari g f e
f g.
Iniziamo osservando che f : R
3
R
2
mentre g : R
4
R
3
quindi sar
possibile calcolare solo lapplicazione
f g : R
4
g
R
3
f
R
2
La matrice caratteristica dellapplicazione lineare composta si calcola nel seguente
modo

..
23
1
..
34
=
_
1 2 4
2 3 0
_
_
_
1 0 1 2
0 0 1 0
1 1 0 0
_
_
= . . .
Calcoliamo la prima colonna della matrice prodotto
_
1 2 4
2 3 0
_
_
_
1
0
1
_
_
=
_
5
2
_
passiamo ora alla seconda colonna
_
1 2 4
2 3 0
_
_
_
0
0
1
_
_
=
_
4
0
_
proseguendo in questo modo otteniamo la matrice prodotto
_
5 4 3 2
2 0 5 4
_
Esempio 11 Date due applicazioni lineari f di matrice caratteristica
=
_
1 3
2 3
_
e g di matrice caratteristica
1 =
_
1 1
1 1
_
calcolare, se possibile, le matrici caratteristiche delle applicazioni lineari g f e
f g.
96
Iniziamo osservando che f : R
2
R
2
mentre g : R
2
R
2
quindi sar
possibile calcolare sia lapplicazione
f g : R
2
g
R
2
f
R
2
sia lapplicazione lineare
g f : R
2
f
R
2
g
R
2
La matrice caratteristica dellapplicazione lineare f g si calcola nel seguente
modo

..
22
1
..
22
=
_
1 3
2 3
__
1 1
1 1
_
=
__
1 3
2 3
__
1
1
_
,
_
1 3
2 3
__
1
1
__
=
__
4
5
_
,
_
2
1
__
=
_
4 2
5 1
_
Allo stesso modo a matrice caratteristica dellapplicazione lineare gf si calcola
come segue
1
..
22

..
22
=
_
1 1
1 1
__
1 3
2 3
_
=
__
1 1
1 1
__
1
2
_
,
_
1 1
1 1
__
3
3
__
=
__
1
3
_
,
_
0
6
__
=
_
1 0
3 6
_
Questo esempio pu essere utilizzato per osservare che in generale il prodotto
tra matrici non commutativo. Infatti in questo caso possibile calcolare sia
1 sia 1, tuttavia si vede immediatamente che
1 ,= 1
Esempio 12 Date tre applicazioni lineari f di matrice caratteristica
=
_
1 0 1
1 1 1
_
e g di matrice caratteristica
1 =
_
1 0
2 1
_
97
e h di matrice caratteristica
C =
_
_
1 0
0 1
1 1
_
_
calcolare la matrice caratteristica dellapplicazione lineare h g f .
Controlliamo prima di tutto che sia possibile farlo, f : R
3
R
2
, g : R
2

R
2
mentre h : R
2
R
3
quindi possibile calcolare la matrice caratteristica
dellapplicazione lineare richiesta:
h g f : R
3
f
R
2
g
R
2
h
R
3
La matrice caratteristica il prodotto delle tre matrici
C1
ed osserviamo che non abbiamo inserito nessuna parentesi, questo signica, op-
erativamente, che possiamo calcolare
(C1)
oppure
C (1)
Ci non deve stupire poich la composizione di funzioni gode della propriet
associativa e quindi questa propriet si trasmette anche al prodotto tra matrici
che stato denito proprio per descrivere, a livello di matrici caratteristiche,
la composizione di funzioni lineari. Utilizziamo questo esempio proprio per
vericare, in questo caso particolare, che il prodotto tra matrici gode della
propriet associativa. In altri termini
(C1) = C (1)
Iniziamo dal primo prodotto:
C1 =
_
_
1 0
0 1
1 1
_
_
. .
3/ 2
_
1 0
2 1
_
. .
/ 22
=
_
_
1 0
2 1
3 1
_
_
. .
32
98
ora moltiplichiamo la matrice ottenuta per
(C1) =
_
_
1 0
2 1
3 1
_
_
. .
3/ 2
_
1 0 1
1 1 1
_
. .
/ 23
=
_
_
1 0 1
1 1 3
2 1 4
_
_
. .
33
Vediamo che cosa otteniamo utilizzando il secondo modo di associare tra loro le
matrici
1 =
_
1 0
2 1
_
. .
2/ 2
_
1 0 1
1 1 1
_
. .
/ 23
=
_
1 0 1
1 1 3
_
. .
23
ora moltiplichiamo C per la matrice che abbiamo appena ottenuto
C (1) =
_
_
1 0
0 1
1 1
_
_
. .
3/ 2
_
1 0 1
1 1 3
_
. .
/ 23
=
_
_
1 0 1
1 1 3
2 1 4
_
_
. .
33
e come ci aspettavamo il risultato lo stesso.
99
15 Matrice inversa
Ora abbiamo tutti gli stumenti per provare a calcolare esplicitamente la matrice
caratteristica dellinversa di una applicazione lineare biiettiva. Premettiamo il
ragionamento che giustica la denizione principale di questa sezione. Sappia-
mo che se f : R
n
R
n
unapplicazione lineare biiettiva allora f
1
: R
n

R
n
anchessa unapplicazione lineare ed inoltre, per denizione di funzione
inversa, lapplicazione composta (che anchessa lineare essendo composizione
di funzioni lineari)
f
1
f : R
n
f
R
n
f
1
R
n
lidentit. Qual la matrice caratteristica dellidentit che nel seguito in-
dicheremo con il simbolo id? Andiamo a calcolarla, come tutte le applicazioni
lineari le colonne della sua matrice sono i vettori immagine dei vettori della base
canonica, Tuttavia lidentit manda ogni vettore in s stesso, quindi
id(e
i
) = e
i
, i = 1, ..., :
ovvero il vettore e
1
ha per immagine il vettore e
1
, il vettore e
2
ha per immagine
il vettore e
2
e cos via. La matrice che andiamo a costruire ha quindi tutti 1
sulla diagonale principale e 0 altrove. Facciamo qualche esempio: per : = 2 la
matrice caratterisitica dellidentit
1 =
_
1 0
0 1
_
mentre per : = 3 la matrice caratterisitica dellidentit
1 =
_
_
1 0 0
0 1 0
0 0 1
_
_
e cos via per : maggiori di 3.
Colleghiamo ora la matrice caratteristica dellindentit con le matrici di
unapplicazione lineare biiettiva e della sua inversa.
Data unapplicazione lineare biiettiva f : R
n
R
n
di matrice caratteristica
allora f
1
: R
n
R
n
anchessa unapplicazione lineare, decidiamo di in-
dicare con 1 la sua matrice caratteristica. Sappiamo che la composizione di
queste due funzioni lineari deve dare unapplicazione lineare e che questa deve
corrispondere con lidentit
f
1
f = f f
1
= id
Ma la matrice caratteristica di unapplicazione composta il prodotto tra le
matrici caratteristiche delle singole applicazioni lineari, quindi
1 = 1 = 1
Ecco la caratterizzazione che volevamo: la matrice caratteristica dellinversa
di unapplicazione lineare biiettiva deve soddisfare a questa uguaglianza tra
matrici. Ora abbiamo chiarito lintuizione sulla quale si regge questa denizione.
100
Denizione 22 Data una matrice quadrata '
nn
(R) chiameremo inversa
di questa matrice e la indicheremo con
1
la matrice quadrata : : che
soddisfa alla seguente propriet

1
=
1
= 1
Data questa denizione diventa utile formalizzare il legame tra matrice in-
versa e inversa di unapplicazione lineare biiettiva. Il ragionamento che abbiamo
fatto sopra non altro che la dimostrazione del seguente risultato.
Teorema 21 Data unapplicazione lineare biiettiva f : R
n
R
n
di matrice
caratteristica , la sua inversa f
1
: R
n
R
n
ha matrice caratteristica
1
.
Questa caratterizzazione utile poich nella relazione tra matrici

1
= 1
sono contenute tutte le informazioni necessari per calcolare esplicitamente la
matrice inversa. Consideriamo un esempio concreto, pensiamo di voler calcolare
linversa della matrice
=
_
a /
c d
_
allora dobbiamo trovare una matrice

1
=
_
r
1
r
2
r
3
r
4
_
che soddisfa alla seguente relazione
_
r
1
r
2
r
3
r
4
__
a /
c d
_
=
_
1 0
0 1
_
Abbiamo indicato le componenti della matrice inversa come le incognite del
problema, mentre stiamo ipotizzando di conoscere le componenti della matrice
. Svolgiamo i calcoli
_
ar
1
+ cr
2
/r
1
+ dr
2
ar
3
+ cr
4
/r
3
+ dr
4
_
=
_
1 0
0 1
_
ed osserviamo che queste due matrici sono uguali se e solo se sono uguali tutte
le loro componenti, quindi
_

_
ar
1
+ cr
2
= 1
/r
1
+ dr
2
= 0
ar
3
+ cr
4
= 0
/r
3
+ dr
4
= 1
Prima di risolvere questo sistema osserviamo che abbiamo quattro incognite e
quattro equazioni e in forma matriciale questo sistema si scrive
_
_
_
_
a c 0 0
/ d 0 0
0 0 a c
0 0 / d
_
_
_
_
_
_
_
_
r
1
r
2
r
3
r
4
_
_
_
_
=
_
_
_
_
1
0
0
1
_
_
_
_
101
Il determinante della matrice incompleta vale
det
_
_
_
_
a c 0 0
/ d 0 0
0 0 a c
0 0 / d
_
_
_
_
= ad (ad /c) c/ (ad /c) = (ad /c)
2
che diverso da zero per ipotesi: visto che la matrice caratteristica di
unapplicazione lineare biiettiva il suo determinante (ad /c) deve essere non
nullo.
Osserviamo che / e d non possono essere entrambi nulli (altrimenti il de-
terminante di sarebbe 0) e lo stesso possiamo dire per a e c, quindi non
restrittivo supporre / ,= 0 e a ,= 0 (se cos non fosse si ripete il ragionamento che
segue per d oppure per c). Dalle due equazioni centrali del sistema otteniamo
_

_
ar
1
+ cr
2
= 1
r
1
= r
2
d,/
r
3
= r
4
c,a
/r
3
+ dr
4
= 1
e sostituendo nelle altre equazioni arriviamo alla forma
_

_
r
1
= r
2
d,/
r
3
= r
4
c,a
r
2
ad,/ + cr
2
= 1
r
4
/c,a + dr
4
= 1
raccogliendo possiamo riscrivere le ultime due equazioni come segue
_

_
r
1
= r
2
d,/
r
3
= r
4
c,a
r
2
= /, (ad c/)
r
4
= a, (ad /c)
e per nire
_

_
r
1
= d, (ad c/)
r
3
= c, (ad /c)
r
2
= /, (ad c/)
r
4
= a, (ad /c)
Linversa della matrice la seguente

1
=
1
(ad c/)
_
d /
c a
_
dove abbiamo raccolto il termine comune 1, (ad c/) che pu essere scritto
nel seguente modo 1, det . Naturalmente il prodotto di un numero reale per
102
una matrice denito nello stesso modo in cui abbiamo denito il prodotto
di un numero reale per un vettore: questo numero va a moltiplicare tutte le
componenti della matrice stessa. Qual il legame tra la matrice
_
d /
c a
_
e la matrice ? Il collegamento non immediatamente visibile poich coinvolge i
complementi algebrici della matrice (ricordiamo che il complemento algebrico
di posizione i, , di una matrice quadrata
=
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
n;1
a
n;2
... a
n;n
_
_
_
_
che abbiamo indicato con il simbolo a

i;j
non altro che il determinante della
sottomatrice che otteniamo eliminando la i-esima riga e la ,-esima cambiato
di segno se la posizione dispari). Per lesattezza la componente i, , della
matrice inversa si ottiene dividendo in complemento algebrico di posizione ,, i
(attenzione allinversione degli indici) per il determinante della matrice : in
simboli la componente i, , della matrice inversa risulta allora essere
a

j;i
det
Nel nostro caso per la matrice
_
a /
c d
_
i complementi algebrici, inseriti ognuno nella loro posizione individuano la ma-
trice
_
d c
/ a
_
ed invertendo gli indici otteniamo la trasposta della matrice dei complementi
algebrici, ovvero
_
d /
c a
_
che proprio la matrice che abbiamo individuato nel calcolo esplicito dellinversa.
Questo un algoritmo del tutto generale che abbiamo vericato per matrici
22, ma che vale per matrici qualsiasi. Non dimostriamo questo risultato poich
coinvolge tecnicismi che non aggiungono maggiore chiarezza allesposizione, ma
presentiamo in modo formale lalgoritmo che si pu utilizzare per caolcolare
esplicitamente linversa di una matrice.
103
1. Data la matrice
=
_
_
_
_
a
1;1
a
1;2
... a
1;n
a
2;1
a
2;2
... a
2;n
... ... ... ...
a
n;1
a
n;2
... a
n;n
_
_
_
_
controllare che det ,= 0 altrimenti il calcolo dellinversa non possibile;
2. calcolare la matrice dei complementi algebrici
_
_
_
_
a

1;1
a

1;2
... a

1;n
a

2;1
a

2;2
... a

2;n
... ... ... ...
a

n;1
a

n;2
... a

n;n
_
_
_
_
3. trasporre la matrice dei complementi algebrici (scambiando le righe con le
colonne)
_
_
_
_
a

1;1
a

2;1
... a

n;1
a

1;2
a

2;2
... a

n;1
... ... ... ...
a

1;n
a

2;n
... a

n;n
_
_
_
_
4. dividere le singole componenti della matrice ottenuta per il determinante
della matrice

1
=
1
det
_
_
_
_
a

1;1
a

2;1
... a

n;1
a

1;2
a

2;2
... a

n;1
... ... ... ...
a

1;n
a

2;n
... a

n;n
_
_
_
_
Applichiamo direttamente questo risultato ad un esercizio sui sistemi lineari
in modo da vedere lutilit del calcolo della matrice nella soluzione dei sistemi
lineari.
Esempio 13 Risolvere il sistema lineare x = b, dove
=
_
_
1 2 0
0 1 1
2 0 1
_
_
, b =
_
_
3
0
3
_
_
,
utilizzando la matrice inversa.
Prima di tutto calcoliamo linversa della matrice incompleta, poi vediamo
come, con questa informazione, si pu risolvere il sistema ragionando in due
modi diversi.
104
Il determinante della matrice incompleta
det
= det
_
_
1
1;1
2
1;2
0
1;3
0 1 1
2 0 1
_
_
= det
_
1 1
0 1
_
2 det
_
0 1
2 1
_
= 1 + 4 = 3
Il determinante della matrice incompleta non nullo, quindi possibile calco-
lare la matrice inversa. Iniziamo con il calcolo della matrice dei complementi
algebrici:
_
_
1 2 2
2 1 4
2 1 1
_
_
trasponiamo la matrice ottenuta
_
_
1 2 2
2 1 1
2 4 1
_
_
e dividiamo tutti i singoli elementi per il determinante, arriviamo facilmente
allinversa

1
=
_
_
1,3 2,3 2,3
2,3 1,3 1,3
2,3 4,3 1,3
_
_
Ora possiamo risolvere il sistema lineare con due ragionamenti diversi:
la soluzione del sistema non altro che lunico vettore di R
3
che ha per
immagine, mediante lapplicazione lineare di matrice caratteristica , il
vettore dei termini noti, quindi la soluzione si pu trovare applicando
linversa di questa funzione lineare, che ha matrice caratteristica
1
, al
vettore dei termini noti;
nel sistema x = b moltiplichiamo a destra e a sinistra questa uguaglianza
tra vettori per la matrice
1
, otteniamo

1
x =
1
b
1x =
1
b
x =
1
b
In entrambi i casi lunica soluzione del sistema lineare si ottiene grazie alla
formula
x =
1
b
105
che per noi diventa
_
_
r
1
r
2
r
3
_
_
=
_
_
1,3 2,3 2,3
2,3 1,3 1,3
2,3 4,3 1,3
_
_
_
_
3
0
3
_
_
=
_
_
3
3
3
_
_
106
16 Metodo di Cramer
Utilizzando la matrice inversa possibile risolvere un sistema lineare con :
equazioni ed : incognite che abbia la matrice incompleta con determinante
diverso da zero. In questo modo si determina una funzione che, per ogni scelta
del vettore dei parametri b, fornisce la soluzione del sistema lineare. In dettaglio
lo schema logico che utilizziamo il seguente: se vogliamo risolvere il sistema
lineare
x = b
con '
nn
(R) allora
1. consideriamo lapplicazione lineare che ha come matrice caratteristica:
f (x) = x;
2. controlliamo se questa applicazione lineare biiettiva (condizione neces-
saria e suciente che det ,= 0);
3. se f biiettiva consideriamo la sua inversa f
1
che anchessa unapplicazione
lineare di matrice caratteristica
1
(e dalla sezione precedente sappiamo
come calcolare questa matrice inversa);
4. la soluzione del sistema lineare f (b) =
1
b.
Con questa tecnica sappiamo risolvere un sistema lineare : equazioni, :
incognite in modo parametrico rispetto al vettore dei termini noti ovvero, per
ogni scelta del vettore dei termini noti, sappiamo fornire la soluzione con un
semplice prodotto matrice per vettore.
A volte si desidera calcolare la soluzione in modo diretto senza passare
per il calcolo dellinversa della matrice incompleta. Esiste una tecnica, detta
metodo di Cramer, che permette di automatizzare in modo semplice il calcolo
del prodotto
1
b senza richiedere il calcolo diretto della matrice
1
. Questo
metodo molto semplice analiticamente, ma diventa poco eciente da un punto
di vista computazionale quando si devono trattare matrici di grandi dimen-
sioni (per le quali certamente preferibile lalgoritmo di eliminazione visto in
precedenza). Vediamo in dettaglio come funziona: vogliamo risolvere il sistema
lineare
x = b
con '
nn
(R) e det ,= 0.
Scriviamo la matrice evidenziando le sue colonne
= (a
1
, a
2
, ..., a
n
)
allora la prima componente del vettore soluzione
r
1
=
det (b, a
2
, ..., a
n
)
det
107
la seconda componente del vettore soluzione
r
2
=
det (a
1
, b, ..., a
n
)
det
e cos via, la i esima componente del vettore soluzione si ottiene calcolando il
rapporto
r
i
=
det (a
1
, a
2
, ..., a
i1
, b, a
i+1
, ..., a
n
)
det
In altri termini la componente i esima del vettore soluzione si ottiene div-
idendo, per il determinante della matrice , il determinante della matrice che
si ottiene sostituendo alla colonna i esima della matrice il vettore dei termini
noti.
Tralasciamo la dimostrazione, che non fa altro che automatizzare il prodotto
matrice inversa per vettore dei termini noti, e andiamo ad applicare questa
tecnica allesempio studiato nella sezione precedente per convincerci della bont
del metodo.
Esempio 14 Risolvere il sistema lineare x = b, dove
=
_
_
1 2 0
0 1 1
2 0 1
_
_
, b =
_
_
3
0
3
_
_
,
utilizzando il metodo di Cramer.
Osserviamo che abbiamo gi calcolato
det = 3
a questo punto
r
1
=
det
_
_
_
_
3 2 0
0 1 1
3 0 1
_
_
_
_
det
dove abbiamo enfatizzato la sostituzione dell prima colonna della matrice con
il vettore dei termini noti. Andiamo a calcolare il determinante del numeratore
sviluppando rispetto alla prima riga
det
_
_
3 2 0
0 1 1
3 0 1
_
_
= 3 det
_
1 1
0 1
_
2 det
_
0 1
3 1
_
= 3 6 = 9
108
e quindi
r
1
=
9
3
= 3
Passando alla seconda componente della soluzione
r
2
=
det
_
_
_
_
1 3 0
0 0 1
2 3 1
_
_
_
_
det
di nuovo abbiamo evidenziato la colonna dei termini noti che abbiamo sostitu-
ito alla seconda colonna della matrice visto che siamo interessati al calcolo
della seconda componente del vettore soluzione. Sviluppando il determinante a
numeratore rispetto alla seconda riga otteniamo facilmente
det
_
_
1 3 0
0 0 1
2 3 1
_
_
= det
_
1 3
2 3
_
= 9
e quindi
r
2
=
9
3
= 3
Inne passiamo alla terza componente della soluzione:
r
3
=
det
_
_
_
_
1 2 3
0 1 0
2 0 3
_
_
_
_
det
come prima, sviluppiamo rispetto alla seconda riga
det
_
_
1 2 3
0 1 0
2 0 3
_
_
= det
_
1 3
2 3
_
= 9
e quindi
r
3
=
9
3
= 3
ed abbiamo riottenuto la soluzione precedente
_
_
r
1
r
2
r
3
_
_
=
_
_
3
3
3
_
_
109
Questo stesso metodo pu essere utilizzato, con un po di furbizia, per risol-
vere sistemi lineari qualsiasi. Vediamo un esempio di applicazione che utile
per comprendere questa tecnica di soluzione. Prendiamo il primo sistema risolto
utilizzando il metodo di sostituzione.
Esempio 15 Discutere e risolvere il sistema
_
3r
1
+ 2r
2
+ r
3
= 1
r
1
+ r
3
= 1
utilizzando il metodo di Cramer.
Scriviamolo in forma matriciale
=
_
3 2 1
1 0 1
_
, b =
_
1
1
_
osserviamo che rk () _ 2 e che la sottomatrice di formata dalla seconda
e dalla terza colonna un minore di ordine 2 diverso da zero (questo minore
vale 2), quindi rk () = 2. Ma allora ricordando che rk () _ rk ( [ b) _
min2, 4 = 2 abbiamo anche che rk ( [ b) = 2 e quindi il sistema ammette

3rk(A)
=
1
soluzioni.
In questa discussione, che la copia esatta di quella scritta in precedenza,
gioca un ruolo fondamentale la sottomatrice evidenziata
_
_
3 2 1
1 0 1
_
_
che ha due caratteristiche essenziali per la discussione che segue:
una matrice quadrata a determinante diverso da zero,
la sua dimensione (2 2) permette di aermare che rk () = rk ( [ b).
Questo un discorso del tutto generale: quando, utilizzando il teorema di
Rouch-Capelli, possibile aermare che un sistema lineare ammette soluzioni
allora possibile trovare una sottomatrice quadrata della matrice incompleta
che abbia dimensione uguale al rango della matrice e che abbia determinante
diverso da zero.
Ora questa sottomatrice quadrata con determinante diverso da zero pu
essere utilizzata per ricondurre questo sistema di due equazioni in tre incognite
ad un sistema di due equazioni in due incognite, al quale possiamo applicare il
metodo di Cramer. Infatti sappiamo che il sistema ammette una variabile libera.
Visto che la sottomatrice evidenziata non coinvolge la variabile r
1
decidiamo che
110
questa la variabile libera del sistema, chiamiamola c e riscriviamo il sistema
nel seguente modo:
_
3c + 2r
2
+ r
3
= 1
c + r
3
= 1
Ora c deve essere considerato un parametro, quindi va portato a destra del
simbolo di uguaglianza:
_
2r
2
+ r
3
= 1 3c
r
3
= 1 c
riscriviamolo in forma matriciale, osservando che ora abbiamo tante equazioni
quante sono le incognite e che la nuova matrice incompleta (che la sottomatrice
evidenziata in precedenza) ha determinante diverso da zero:
_
2 1
0 1
__
r
2
r
3
_
=
_
1 3c
1 c
_
Ora applichiamo il metodo di Cramer, la soluzione si scrive rapidamente (occorre
porre attenzione solo al nome delle variabili che va trattato con attenzione)
r
2
=
det
_
1 3c 1
1 c 1
_
det
_
2 1
0 1
_ =
1 3c 1 + c
2
= c
r
3
=
det
_
2 1 3c
0 1 c
_
det
_
2 1
0 1
_ =
2 2c
2
= 1 c
La soluzione, scritta in forma vettoriale, la seguente:
_
_
r
1
r
2
r
3
_
_
=
_
_
0
0
1
_
_
+ c
_
_
1
1
1
_
_
A prima vista sembra di aver commesso qualche errore, i vettori che abbiamo
ottenuto non coincide con la soluzione scritta in precedenza che
_
_
r
1
r
2
r
3
_
_
=
_
_
1
1
0
_
_
+ c
_
_
1
1
1
_
_
Tuttavia ricordiamo che la soluzione di un sistema di questo tipo formato da
un sottospazio vettoriale a cui aggiungiamo una soluzione particolare. Quindi
pu accadere che:
il sottospazio vettoriale sia lo stesso, ma rappresentato da vettori diversi;
111
la soluzione particolare che abbiamo individuato con i due metodi non sia
la stessa.
Come possiamo confrontare tra loro queste due soluzioni per capire se la
soluzione ottenuta la medesima? In due passi: prima di tutto confrontiamo
tra loro i sottospazi vettoriali che compongono le soluzioni. La domanda che ci
stiamo ponendo, in termini formali, la seguente
_
_
_
1
1
1
_
_
_
?
=
_
_
_
1
1
1
_
_
_
e la risposta evidentemente aermativa, basta ricordare che in un sottospazio
generato da un insieme di vettori possiamo moltiplicare un vettore per una
costante senza cambiare il sottospazio (se questa costante 1 otteniamo esat-
tamente lo stesso vettore).
Provare che le due soluzioni particolari sono coerenti tra loro un po pi
complesso. Non possiamo pensare di richiedere che le due soluzioni particolari
siano uguali, ma dobbiamo controllare che la soluzione particolare utilizzata
nella prima rappresentazione della soluzione si possa ottenere anche utilizzando
la seconda rappresentazione e viceversa. In termini formali dobbiamo provare
che
_
_
0
0
1
_
_
=
_
_
1
1
0
_
_
+ c
_
_
1
1
1
_
_
per qualche c R e questo ci dice che la soluzione particolare utilizzata nella
prima rappresentazione dellinsieme delle soluzioni del sistema pu essere ot-
tenuta anche utilizzando la seconda rappresentazione. E viceversa dobbiamo
provare che
_
_
1
1
0
_
_
=
_
_
0
0
1
_
_
+ c
_
_
1
1
1
_
_
per qualche c R ovvero che la soluzione particolare utilizzata nella seconda
rappresentazione dellinsieme delle soluzioni del sistema pu essere ottenuta an-
che utilizzando la prima rappresentazione. La prima uguaglianza vettoriale si
ottiene ponendo c = 1 e la seconda uguaglianza vettoriale si ottiene, nuova-
mente, ponendo c = 1 ( solo un caso che il valore sia lo stesso, in generale c
da aspettarsi valori diversi).
Tenendo conto di questo esempio, possiamo proporre il seguente algoritmo
per risolvere un qualsiasi sistema lineare utilizzando il Teorema di Rouch-
Capelli e il metodo di Cramer:
1. se rk([b) rk(), allora il sistema non ammette soluzioni;
2. se rk([b) = rk(), allora:
112
(a) determina una sottomatrice invertibile dordine rk();
(b) elimina le equazioni corrispondenti alle righe escluse dalla sottoma-
trice trovata;
(c) considera parametri le : rk() incognite corrispondenti a colonne
escluse dalla sottomatrice (e portale a destra delle uguaglianze);
(d) applica il teorema di Cramer e trova lunica soluzione dipendente da
: rk() parametri.
Esempio 16 Risolvere il sistema
_
3r
1
+ 2r
2
+ r
3
+ r
4
= 1
r
1
+ r
3
+ 3r
4
= 1
utilizzando il metodo di Cramer.
Scritto in termini matriciali il sistema diventa
_
3 2 1 1
1 0 1 3
_
_
_
_
_
r
1
r
2
r
3
r
4
_
_
_
_
=
_
1
1
_
Dato che
det
_
3 2
1 0
_
= 2 ,
ne deduciamo che
rk() = rk ([b) = 2
e che pertanto il sistema ammette

nrk(A)
=
42
=
2
Per trovarle riscriviamo il sistema come
_

_
3r
1
+ 2r
2
= 1 c ,
r
1
= 1 c 3,
r
3
= c
r
4
= ,
e consideriamo le prime due equazioni, con il metodo di Cramer otteniamo:
r
1
=
det
_
1 c , 2
1 c 3, 0
_
det
_
3 2
1 0
_ = 1 c 3,
r
2
=
det
_
3 1 c ,
1 1 c 3,
_
det
_
3 2
1 0
_ = 1 + c + 4,
113
La soluzione, scritta in forma vettoriale,
_
_
_
_
r
1
r
2
r
3
r
4
_
_
_
_
=
_
_
_
_
1
1
0
0
_
_
_
_
+ c
_
_
_
_
1
1
1
0
_
_
_
_
+ ,
_
_
_
_
3
4
0
1
_
_
_
_
114
17 Esercizi di Algebra Lineare
17.1 Esercizio 1
Dato il sistema lineare
_
_
1 t 1 0
t 0 1
2t t 1 2
_
_
. .
A
_
_
r
1
r
2
r
3
_
_
=
_
_
t 1
t 1
2t 3
_
_
. .
b
discuterlo trovando per quali valori del parametro t R questo sistema am-
mette soluzione. Per t = 2 calcolare determinare esplicitamente le soluzioni del
sistema.
Iniziamo utilizzando il Teorema di Rouch-Capelli, per farlo dobbiamo cal-
colare il rango della matrice incompleta e della matrice completa.
rk
_
_
1 t 1 0
t 0 1
2t t 1 2
_
_
rk
_
_
1 t 1 0
t 0 1
2t t 1 2

t 1
t 1
2t 3
_
_
Per denizione il rango della matrice incompleta un numero intero compreso
tra 0 e il minimo tra il numero di righe e il numero di colonne della matrice
stessa (ricordiamo che rappresenta il numero di righe o il numero di colonne
linearmente indipendenti della matrice stessa). Nel nostro caso la matrice ha 3
righe e 3 colonne, quindi il rango compreso tra 0 e 3. Per le matrici quadrate il
calcolo del rango inizia sempre dal calcolo del determinate della matrice, infatti
se det ,= 0 allora il rango della matrice incompleta maggiore o uguale a 3, e
quindi, dalla doppia disuguaglianza otteniamo che il rango proprio 3.
Sviluppiamo il determinante rispetto alla prima riga
det
_
_
1 t 1 0
t 0 1
2t t 1 2
_
_
= det
_
0 1
t 1 2
_
(t 1) det
_
t 1
2t 2
_
+ 0
= (t 1) (t 1) (2t 2t) + 0
= 1 t
Possiamo dividere la discussione in due casi
t ,= 1, in questo caso det ,= 0 quindi rk () = 3. Ricordando che vale
sempre la relazione rk () _ rk ( [ b) e che in questo caso il massimo rango
ammissibile per la matrice completa 3 (ovvero il minimo tra il numero
di righe e il numero di colonne della matrice completa), otteniamo
3 = rk () _ rk ( [ b) _ min3, 4 = 3
Possiamo concludere: rk () = rk ( [ b) = 3 il sistema ammette soluzioni:
e per lesattezza elevato al (:n:cro di i:coq:itc) rk (). Nel nostro
115
caso
33
=
0
soluzioni, ovvero ununica soluzione. In questa situ-
azione il sistema determinato: lapplicazione lineare che ha come ma-
trice caratteristica una funzione biiettiva e quindi esiste un solo vettore
la cui immagine il vettore b. Se vogliamo fare riferimento alla classica
struttura delle soluzioni di un sistema lineare dobbiamo ricordare che il
nucleo dellapplicazione lineare in questo caso coincide con lo spazio vet-
toriale nullo (ovvero quello generato dal vettore nullo) e quindi linsieme
delle soluzioni coincide con la soluzione particolare del sistema.
t = 1 in questo caso dobbiamo calcolare
rk
_
_
1 0 0
1 0 1
2 0 2
_
_
rk
_
_
1 0 0
1 0 1
2 0 2

0
0
1
_
_
Il rango della matrice completa deve essere minore uguale a 2; infatti
non pu essere 3 poich tutte le matrici 3 3 contenute nella matrice
completa hanno determinante nullo (in realt vi ununica 33 contenuta
nella matrice incompleta e cio la matrice stessa). Controllando le
sottomatrici 2 2 contenute in troviamo (eliminando la terza riga e la
seconda colonna)
det
_
1 0
1 1
_
= 1 ,= 0
quindi rk () = 2. Passiamo ora alla matrice completa, sappiamo che
una sua sottomatrice 3 3 ha determinante nullo (parliamo ovviamente
della matrice ), tuttavia ci sono altre 3 matrici 3 3 contenute nella
matrice completa, ovvero quelle che otteniamo rispettivamente eliminando
la prima, seconda e terza colonna. Concentriamoci sulla 3 3 ottenuta
dalla matrice completa eliminando la seconda colonna
det
_
_
1 0 0
1 1 0
2 2 1
_
_
= 1 ,= 0
infatti in una matrice triangolare il determinante sempre il prodotto dei
termini diagonali della matrice. Questo ci permette di aermare che il
rango della matrice completa 3, strettamente maggiore del rango della
matrice incompleta: il sistema non ammette soluzioni e viene detto im-
possibile.
Per t = 2 il sistema ammette una ed una sola soluzione, possiamo calcolarla
con varie tecniche, vediamole in dettaglio.
_
_
1 1 0
2 0 1
4 1 2
_
_
. .
A
_
_
r
1
r
2
r
3
_
_
=
_
_
1
1
1
_
_
. .
b
116
Sostituzione scrivendo esplicitamente il sistema otteniamo
_
_
_
r
1
+ r
2
= 1
2r
1
+ r
3
= 1
4r
1
+ r
2
+ 2r
3
= 1
dalla prima equazione ricaviamo r
1
che sostituiamo nella seconda e terza
equazione
_
_
_
r
1
= 1 r
2
2 (1 r
2
) + r
3
= 1
4 (1 r
2
) + r
2
+ 2r
3
= 1
Congeliamo a questo punto la prima equazione e lavoriamo sulle rimanenti
_
_
_
r
1
= 1 r
2
2r
2
+ r
3
= 1
3r
2
+ 2r
3
= 3
dalla seconda equazione possiamo ricavare r
3
e sostituendolo nella terza
equazione otteniamo
_
_
_
r
1
= 1 r
2
r
3
= 2r
2
1
3r
2
+ 2 (2r
2
1) = 3
Per concludere basta risolvere lultima equazione, nella sola incognita r
2
,
_
_
_
r
1
= 1 r
2
r
3
= 2r
2
1
r
2
= 1
Sostituendo a ritroso otteniamo la soluzione del sistema
_
_
_
r
1
= 2
r
3
= 3
r
2
= 1
=
_
_
_
r
1
= 2
r
2
= 1
r
3
= 3
Cramer Il determinante della matrice incompleta det = 1 (lo abbiamo
calcolato precedentemente in forma parametrica). Le soluzioni si otten-
gono allora ponendo
r
1
=
det
_
_
1 1 0
1 0 1
1 1 2
_
_
1
=
det
_
0 1
1 2
_
det
_
1 1
1 2
_
+ 0
1
=
1 1
1
= 2
117
Allo stesso modo
r
2
=
det
_
_
1 1 0
2 1 1
4 1 2
_
_
1
=
det
_
1 1
1 2
_
det
_
2 1
4 2
_
+ 0
1
=
1 0 + 0
1
= 1
E per nire
r
2
=
det
_
_
1 1 1
2 0 1
4 1 1
_
_
1
=
2 det
_
1 1
1 1
_
+ 0 det
_
1 1
4 1
_
1
=
0 + 0 + 3
1
= 3
Matrice inversa certamente la tecnica computazionalmente pi pesante,
ma fondamentale conoscere anche questa poich utilissima quando si
lavora a livello teorico. Ricordiamo i passi fondamentali che ci permettono
di invertire una matrice. Prima di tutto sappiamo che il determinante
non nullo ed uguale a 1. Partiamo poi dalla matrice e calcoliamo la
sua trasposta, ovvero quella che otteniamo da scambiando le righe con
le colonne.

0
=
_
_
1
1;1
2
1;2
4
1;3
1
2;1
0
2;2
1
2;3
0
3;1
1
3;2
2
3;3
_
_
Quindi per ogni componente calcoliamo i complementi algebrici ovvero
i determinanti della sottomatrice che si ottiene cancellando la riga e la
colonna che si incrociano in quella componente e cambiamo il segno nelle
componenti di posizione dispari (quelle in cui la somma tra il numero di
riga e il numero di colonna da un numero dispari). Ad esempio per la
componente 1, 1 che pari il complemento algebrico
det
_
0 1
1 2
_
= 1
mentre per la componente 2, 1 che dispari il complemento algebrico
det
_
1 1
0 2
_
= 2
Continuando cos otteniamo la matrice dei complementi algebrici che risulta
_
_
1 2 1
0 2 1
2 3 2
_
_
118
Linversa si ottiene dividendo tutte le componenti di questa matrice per
il determinante della matrice di partenza, nel nostro caso dobbiamo sem-
plicemente cambiare tutti i segni

1
=
_
_
1 2 1
0 2 1
2 3 2
_
_
Per calcolare la soluzione del sistema lineare osserviamo che
x = b

1
x =
1
b
1x =
1
b
x =
1
b
quindi
_
_
r
1
r
2
r
3
_
_
=
_
_
1 2 1
0 2 1
2 3 2
_
_
. .
A
1
_
_
1
1
1
_
_
. .
b
=
_
_
2
1
3
_
_
17.2 Esercizio 2
Dato il sistema lineare
_
_
2t t 1 3t
0 2 1
1 3t 0
_
_
_
_
r
1
r
2
r
3
_
_
=
_
_
1
1
0
_
_
discuterlo al variare del parametro t R. Risolvere il sistema utilizzando il
metodo della matrice inversa per t = 0.
Dobbiamo utilizzare il Teorema di Rouch-Capelli, per farlo calcoliamo il
rango della matrice incompleta e della matrice completa.
rk
_
_
2t t 1 3t
0 2 1
1 3t 0
_
_
rk
_
_
2t t 1 3t
0 2 1
1 3t 0

1
1
0
_
_
Iniziamo dalla matrice incompleta e calcoliamo il suo determinante. Sviluppi-
amo il determinante rispetto alla seconda riga
119
det
_
_
2t t 1 3t
0 2 1
1 3t 0
_
_
= 0 + 2 det
_
2t 3t
1 0
_
det
_
2t t 1
1 3t
_
= 0 + 2 (3t)
_
6t
2
t + 1
_
= 6t
2
5t 1
Utilizzando la formula risolutiva per le equazioni di secondo grado otteniamo
che il determinante della matrice incompleta nullo se e solo se
t
1;2
=
5 (
_
25 24
12
t
1
= 1,3
t
2
= 1,2
In questo caso dobbiamo dividere la discussione in tre sottocasi:
t ,= 1,3 e t ,= 1,2 in questo caso det ,= 0 quindi rk () = 3, essendo
rk () _ rk ( [ b) abbiamo che 3 = rk () _ rk ( [ b) _ min3, 4 = 3.
Concludiamo che rk () = rk ( [ b) = 3 e quindi il sistema ammette
ununica soluzione.
t = 1,3 per questa scelta del parametro le matrici completa e incompleta
diventano
rk
_
_
2,3 4,3 1
0 2 1
1 1 0
_
_
rk
_
_
2,3 4,3 1
0 2 1
1 1 0

1
1
0
_
_
Dato che il suo determinante nullo il rango della matrice incompleta deve
essere minore uguale a 2 ed proprio 2 poich la sottomatrice 2 2 che si
ottiene cancellando la prima riga e la seconda colonna ha determinante
det
_
0 1
1 0
_
= 1 ,= 0
Passiamo ora alla matrice completa, sappiamo che la matrice completa
una sua sottomatrice 3 3 che ha determinante nullo, vediamo che cosa
accade quando si calcola in determinante delle altre 3 sottomatrici 3 3
della matrice completa. Se nella matrice completa eliminiamo la terza
colonna
det
_
_
2,3 4,3 1
0 2 1
1 1 0
_
_
=
= det
_
4,3 1
2 1
_
+ det
_
2,3 1
0 1
_
+ 0
=
4
3
+ 2
2
3
= 0
120
Eliminando la seconda colonna otteniamo
det
_
_
2,3 1 1
0 1 1
1 0 0
_
_
= det
_
1 1
1 1
_
+ 0 + 0
= 0 + 0 + 0 = 0
Ed inne se eliminiamo la prima colonna otteniamo
det
_
_
1 4,3 1
1 2 1
0 1 0

1
1
0
_
_
= 0 det
_
1 1
1 1
_
+ 0
= 0 + 0 + 0 = 0
Abbiamo dimostrato che tutte le sottomatrici 33 contenute nella matrice
completa hanno determinante uguale a 0, quindi rk ( [ b) _ 2. Tuttavia
sappiamo che 2 = rk () _ rk ( [ b), quindi rk () = rk ( [ b) = 2. Per
questa scelta del parametro t il sistema ammette soluzioni, e per lesattezza
elevato al (:n:cro di i:coq:itc)rk (), ovvero
32
=
1
soluzioni.
Detto in altri termini una variabile pu essere scelta liberamente, mentre
le altre due sono funzioni lineari ani di questa variabile.
t = 1,2 in questo caso le matrici completa e incompleta diventano
rk
_
_
1 3,2 3,2
0 2 1
1 3,2 0
_
_
rk
_
_
1 3,2 3,2
0 2 1
1 3,2 0

1
1
0
_
_
Sappiamo che il determinante della matrice incompleta nullo quindi il suo
rango deve essere minore uguale a 2. Possiamo dimostrare che proprio
2 poich la sottomatrice 2 2 che si ottiene cancellando la prima riga e la
terza colonna ha determinante
det
_
0 2
1 3,2
_
= 2 ,= 0
Passiamo ora alla matrice completa, come nel caso precedente sappiamo
che la matrice completa una sua sottomatrice 3 3 che ha determinante
nullo, vediamo se nullo anche il determinante delle altre 3 sottomatrici 3
3 della matrice completa. Il determinante della sottomatrice che otteniamo
eliminando la terza colonna
det
_
_
1 3,2 1
0 2 1
1 3,2 0
_
_
=
= 0 + 2det
_
1 1
1 0
_
det
_
1 3,2
1 3,2
_
= 2 3 = 1 ,= 0
121
Gi al primo tentativo abbiamo individuato una sottomatrice 3 3 con
determinante non nullo, quindi per questa scelta del parametro rk ( [ b) =
3, mentre rk () = 2 ed il sistema non ammette soluzioni.
Per t = 0 viene richiesto di risolvere il sistema utilizzando la tecnica della
matrice inversa. Osserviamo che per questo valore del parametro det = 1,
mentre la matrice diventa
=
_
_
0 1 0
0 2 1
1 0 0
_
_

0
=
_
_
0
1;1
0
1;2
1
1;3
1
2;1
2
2;2
0
2;3
0
3;1
1
3;2
0
3;3
_
_
Partendo dalla trasposta appena scritta calcoliamo la matrice dei complementi
algebrici
_
_
0 0 1
1 0 0
2 1 0
_
_
e dividendo tutte le componenti di questa matrice per il determinante della
matrice , che 1, otteniamo la matrice inversa

1
=
_
_
0 0 1
1 0 0
2 1 0
_
_
La soluzione che stiamo cercando si calcola ora direttamente con un prodotto
tra la matrice inversa ed il vettore dei termini noti
_
_
r
1
r
2
r
3
_
_
=
_
_
0 0 1
1 0 0
2 1 0
_
_
. .
A
1
_
_
1
1
0
_
_
. .
b
=
_
_
0
1
1
_
_
17.3 Esercizio 3
Dato il sistema lineare
_
t t 2t
6 0 1
_
. .
A
_
_
r
1
r
2
r
3
_
_
=
_
4
2
_
. .
b
discuterlo utilizzando il Teorema di Rouch-Capelli.
Se possibile, calcolare le soluzioni del sistema per t = 1.
122
Iniziamo utilizzando il Teorema di Rouch-Capelli; per farlo dobbiamo cal-
colare il rango della matrice incompleta e della matrice completa.
rk
_
t t 2t
6 0 1
_
rk
_
t t 2t
6 0 1

4
2
_
Concentriamoci sulla matrice incompleta e consideriamo la sottomatrice com-
posta dalle prime due colonne, in modo da ottenere una matrice quadrata della
quale possiamo calcolare il determinante
det
_
t t
6 0
_
= 6t
Articoliamo la discussione in due casi:
se t ,= 0 allora rk () = rk ( [ b) = 2. Infatti il rango di una matrice
sempre compreso tra zero e il pi piccolo tra il numero di righe e il
numero di colonne della matrice stessa, quindi per lincompleta abbiamo
che 0 _ rk () = min2, 3 = 2. Inoltre se t ,= 0 abbiamo appena
dimostrato che esiste una sottomatrice 2 2 con determinante diverso
da zero, quindi rk () _ 2 e questo implica che rk () = 2. Ricordiamo
che vale sempre la relazione rk () _ rk ( [ b), quindi 2 _ rk ( [ b).
Possiamo concludere, infatti il massimo rango ammissibile per la matrice
completa ( [ b) nuovamente 2 che il minimo tra il numero delle righe e
delle colonne di questa matrice, quindi anche rk ( [ b) = 2. Se la matrice
completa e incompleta hanno lo stesso rango allora il sistema ammette
soluzioni e per lesattezza elevato al (:n:cro di i:coq:itc)rk (). Nel
nostro caso
32
=
1
soluzioni, ovvero una variabile pu essere scelta
liberamente, le altre due sono funzioni lineari ani di questa variabile.
se t = 0 il determinante della sottomatrice che abbiamo calcolato al passo
precedente non ci fornisce indicazioni sul rango della matrice incompleta;
infatti la matrice incompleta ha altre due sottomatrici 2 2 (quello che
otteniamo cancellando rispettivamente la prima e la seconda colonna della
matrice ) sul determinante delle quali non sappiamo nulla. Osserviamo
tuttavia che se ci troviamo in questo caso allora conosciamo il valore del
parametro t, quindi la matrice incompleta e completa diventano
rk
_
0 0 0
6 0 1
_
rk
_
0 0 0
6 0 1

4
2
_
Utilizzando la denizione di rango di una matrice (numero di vettori
colonna linearmente indipendenti) osserviamo che il rango della matrice
incompleta 1 visto che la prima e la terza colonna sono proporzionali tra
loro, mentre la seconda corrisponde al vettore nullo. Equivalentemente
possiamo arrivare alla stessa conclusione osservando che tutte le matrici
2 2 contenute nella matrice incompleta hanno la prima riga composta
solo da zeri e quindi il loro determinante sempre nullo, mentre la sot-
tomatrice 1 1 composta dalla componente 2, 1 della matrice incompleta
123
pari ad 6 ,= 0 e quindi rk () = 1. Per il calcolo del rango della com-
pleta consideriamo il determinante della sottomatrice 22 composta dalle
ultime due colonne
det
_
0 4
1 2
_
= 4 ,= 0
e questo ci permette di concludere che il rango della completa 2. In
questo caso il sistema non ammette soluzioni poich 1 = rk () < rk ( [ b) =
2.
Prima di calcolare la soluzione del sistema per t = 1 osserviamo che per
questo valore del parametro il sistema ammette
1
soluzioni quindi ci aspetti-
amo una soluzione che in forma vettoriale avr la seguente struttura
_
_
r
1
r
2
r
3
_
_
=
_
_

1

3
_
_
+ c
_
_
n
1
n
2
n
3
_
_
c R
dove il vettore v rappresenta una soluzione particolare del sistema lineare, men-
tre il vettore w contenuto nel nucleo dellapplicazione lineare che ha la ma-
trice che stiamo considerando come matrice caratteristica. Andiamo a trovare
questi due oggetti. Il sistema in questo caso si pu scrivere come
_
r
1
+ r
2
+ 2r
3
= 4
6r
1
+ r
3
= 2
Utilizziamo la prima equazione dalla quale possiamo ricavare agevolmente
la variabile r
3
r
3
= 2 6r
1
sostituendo questa variabile nellaltra equazione otteniamo
_
r
3
= 2 6r
1
r
1
+ r
2
+ 4 12r
1
= 4
ovvero, ricavando r
2
dalla seconda equazione
_
r
3
= 2 6r
1
r
2
= 11r
1
La soluzione quindi
_
_
_
r
1
= c
r
2
= 11c
r
3
= 2 6c
che possiamo riscrivere in forma vettoriale come
_
_
r
1
r
2
r
3
_
_
=
_
_
0
0
2
_
_
+ c
_
_
1
11
6
_
_
c R
124
Alla stessa soluzione saremmo potuti pervenire utilizzando il metodo di
Cramer. Prima di utilizzare questa tecnica risolutiva osserviamo che, quando il
sistema ammette soluzioni ovvero quando rk () = rk ( [ b) = /, allora esiste
una sottomatrice matrice quadrata / /, contenuta nella matrice incompleta,
che ha determinate diverso da zero. Questa una situazione del tutto generale
e, proprio a partire da questa sottomatrice, possiamo risolvere il sistema uti-
lizzando il metodo di Cramer, anche se il sistema che stiamo studiando non
quadrato. Nel caso in esame
_
1 1
6 0
2
1
_
_
_
r
1
r
2
r
3
_
_
=
_
4
2
_
la matrice evidenziata con la doppia linea una 22 con determinante 6 ,= 0.
Visto che per questa scelta del parametro t abbiamo che rk () = rk ( [ b) = 2,
possiamo utilizzare proprio questa sottomatrice. Le colonne coinvolte nella sot-
tomatrice evidenziata sono la prima e la seconda che corrispondono rispettiva-
mente alle incognite r
1
, r
2
che saranno individuate come funzioni lineari ani
della variabile r
3
che possiamo scegliere liberamente. Operativamente poniamo
r
3
= , e riscriviamo il sistema
_
1 1
6 0
__
r
1
r
2
_
=
_
4 2,
2 ,
_
Utilizzando la regola di Cramer abbiamo
r
1
=
det
_
4 2, 1
2 , 0
_
6
=
2 ,
6
r
2
=
det
_
1 4 2,
6 2 ,
_
6
=
22 11,
6
Calcoliamo la forma vettoriale partendo dalla soluzione appena ricavata
_
_
_
r
1
= (2 ,) ,6
r
2
= (22 11,) ,6
r
3
= ,
che possiamo scrivere
_
_
r
1
r
2
r
3
_
_
=
_
_
2,6
22,6
0
_
_
+ ,
_
_
1,6
11,6
1
_
_
, R
A questo punto una sana dose di scetticismo dovrebbe far dubitare dei conti
svolti. Come possibile che la soluzione appaia diversa? Concentriamoci sulla
125
parte parametrica (il vettore che viene moltiplicato rispettivamente per c o
per ,) e ricordiamoci che essa rappresenta il nucleo dellapplicazione lineare
associata alla matrice incompleta. Queste due parti sono uguali se generano lo
stesso spazio vettoriale ovvero se
_
_
_
1
11
6
_
_
_
=
_
_
_
1,6
11,6
1
_
_
_
e questo vero poich i due vettori che generano questi due spazi vettoriali di
dimensione 1 sono proporzionali tra loro:
_
_
1
11
6
_
_
= 6
_
_
1,6
11,6
1
_
_
Passiamo ora a confrontare tra loro la soluzione particolare dei due sistemi,
ovvero la parte non parametrica delle due famiglie di soluzioni che abbiamo
ottenuto. Naturalmente non possiamo richiedere che le due soluzioni particolari
siano uguali visto che il modo per individuare la famiglia di soluzioni di un
sistema lineare non univoco. Per provare che le due famiglie di soluzioni
coincidono necessario provare che la soluzione particolare ottenuta con il primo
metodo contenuta nella famiglia di soluzioni ricavata con il secondo approccio e
viceversa. Riassumiamo questo concetto: due famiglie di soluzioni di un sistema
lineare descrivono in realt lo stesso insieme di soluzioni quando:
1. la parte parametrica genera lo stesso spazio vettoriale, nucleo dellapplicazione
lineare associata alla matrice incompleta;
2. la soluzione particolare della prima famiglia compresa nella famiglia di
soluzioni della seconda e viceversa.
Nellesempio precedente ci stiamo chiedendo se esite un , per cui
_
_
0
0
2
_
_
=
_
_
2,6
22,6
0
_
_
+ ,
_
_
1,6
11,6
1
_
_
dallultima componente del vettore otteniamo che lunica scelta ammissibile
, = 2 e svolgendo i conti possiamo osservare che con questa scelta la precedente
uguaglianza tra vettori soddisfatta in ogni sua componente.
Stesso approccio per la soluzione particolare della seconda famiglia, ci stiamo
chiedendo se esiste c tale che
_
_
2,6
22,6
0
_
_
=
_
_
0
0
2
_
_
+ c
_
_
1
11
6
_
_
126
Di nuovo osserviamo lultima componente, per ottenere 0 dobbiamo ssare c =
2,6 e con questa scelta
_
_
0
0
2
_
_
+
2
6
_
_
1
11
6
_
_
=
_
_
0
0
2
_
_
+
_
_
2,6
22,6
2
_
_
=
_
_
2,6
22,6
0
_
_
17.4 Esercizio 4
Per ogni valore del parametro t R discutere il seguente sistema lineare t-
parametrico nelle incognite r
1
, r
2
, r
3
_
_
_
(t 1) r
1
+ 2tr
2
+ 3r
3
= t + 2
tr
2
+ 2r
3
= 2
2 (t 1) r
1
+ r
3
= 2t 1
e, quando possibile, risolverlo utilizzando il metodo di Cramer.
Scriviamo il sistema in forma matriciale
_
_
t 1 2t 3
0 t 2
2 (t 1) 0 1
_
_
. .
A
_
_
r
1
r
2
r
3
_
_
=
_
_
t + 2
2
2t 1
_
_
. .
b
Il determinante della matrice incompleta
det
_
_
t 1 2t 3
0 t 2
2 (t 1) 0 1
_
_
= t det
_
t 1 3
2 (t 1) 1
_
2 det
_
t 1 2t
2 (t 1) 0
_
= t (t 1 6t + 6) 2 (4t (t 1))
= t (5t + 5) + 8t (t 1)
= t [5t + 5 + 8t 8]
= t (3t 3) = 3t (t 1)
Per t ,= 0 e per t ,= 1 il rango della matrice incompleta 3 e quindi 3 _
rk () _ rk ( [ b) = min3, 4 = 3. Per il Teorema di Rouch-Capelli il sistema
ammette una sola soluzione. Andiamo a determinarla utilizzando il metodo di
127
Cramer:
r
1
=
det
_
_
t + 2 2t 3
2 t 2
(2t 1) 0 1
_
_
3t (t 1)
=
(2t 1) det
_
2t 3
t 2
_
+ det
_
t + 2 2t
2 t
_
3t (t 1)
=
(2t 1) t + t (t + 2) 4t
3t (t 1)
= 1
Per quanto riguarda la seconda incognita
r
2
=
det
_
_
t 1 t + 2 3
0 2 2
2 (t 1) 2t 1 1
_
_
3t (t 1)
=
2 det
_
t 1 3
2 (t 1) 1
_
2 det
_
t 1 t + 2
2 (t 1) 2t 1
_
3t (t 1)
=
2 (t 1 6t + 6) 2 [(t 1) (2t 1) 2 (t 1) (t + 2)]
3t (t 1)
=
2 (5 5t) 2 (t 1) [2t 1 2t 4]
3t (t 1)
=
2 (5 5t) + 10 (t 1)
3t (t 1)
= 0
Inne
r
3
=
det
_
_
t 1 2t t + 2
0 t 2
2 (t 1) 0 2t 1
_
_
3t (t 1)
=
t det
_
t 1 t + 2
2 (t 1) 2t 1
_
2 det
_
t 1 2t
2 (t 1) 0
_
3t (t 1)
=
t [(t 1) (2t 1) 2 (t 1) (t + 2)] + 8t (t 1)
3t (t 1)
=
t (t 1) [2t 1 2t 4 + 8]
3t (t 1)
= 1
128
Osserviamo che, casualmente, la soluzione non dipende dal parametro t. In
generale sensato attendersi che la soluzione dipenda dal parametro, tuttavia
in questo esercizio si vuole enfatizzare lidea che si commetterebbe un errore
grossolano risolvendo il sistema e imponendo le condizioni di esistenza sulla
soluzione ottenuta. Anche il procedimento di soluzione stessa richiede delle
condizioni per essere eettuato e pu essere, ed questo il caso, che tali scelte
non si possano ricavare dalla forma analitica della soluzione stessa.
Per t = 0 stiamo invece parlando del seguente sistema lineare
_
_
1 0 3
0 0 2
2 0 1
_
_
. .
A
_
_
r
1
r
2
r
3
_
_
=
_
_
2
2
1
_
_
. .
b
Si riconosce immediatamente il motivo per cui il determinante della matrice
incompleta nullo: la seconda colonna tutta composta da zeri e sviluppando
il determinante proprio rispetto a quella colonna otteniamo evidentemente un
determinante nullo.
Se nella matrice incompleta eliminiamo la seconda colonna e la prima riga
otteniamo
det
_
0 2
2 1
_
= 4 ,= 0
quindi rk () = 2. Calcoliamo ora il determinante di tutte le 3 3 contenute
nella matrice completa, escludendo il determinante di che sappiamo gi essere
nullo. Se nella matrice completa eliminiamo la terza colonna otteniamo
det
_
_
1 0 2
0 0 2
2 0 1
_
_
= 0
se eliminiamo la seconda colonna otteniamo
det
_
_
1 3 2
0 2 2
2 1 1
_
_
= 2 det
_
1 2
2 1
_
2 det
_
1 3
2 1
_
= 10 10 = 0
inne eliminando la prima colonna otteniamo
det
_
_
0 3 2
0 2 2
0 1 1
_
_
= 0
Quindi il rango della matrice completa minore uguale a 2, in realt 2 =
rk () _ rk ( [ b) _ 2, quindi il sistema indeterminato e ammette elevato al
(:n:cro di i:coq:itc)rk () soluzioni. Nel nostro caso
32
=
1
soluzioni,
ovvero possibile scegliere arbitrariamente unincognita e le altre due saranno
delle funzioni lineari ani di questa.
129
Utilizziamo di nuovo il metodo di Cramer osservando che per dimostrare che
la matrice incompleta aveva rango 2 abbiamo eliminiato la seconda colonna e la
prima riga. Quindi ponendo r
2
= c otteniamo
_
0 2
2 1
__
r
1
r
3
_
=
_
2
1
_
Non deve stupire che in questo caso manchi il parametro c nel termine noto:
se in una matrice presente una colonna di 0 signica che la variabile che
corrisponde a quella colonna non entra nelle equazioni che dobbiamo risolvere
e quindi pu essere scelta liberamente senza inuenzare il valore assunto dalle
altre variabili.
Nel precedente sistema
det
_
0 2
2 1
_
= 4
e quindi
r
1
=
det
_
2 2
1 1
_
4
=
4
4
= 1
r
2
=
det
_
0 2
2 1
_
4
=
4
4
= 1
La soluzione pu essere scritta in forma vettoriale
_
_
r
1
r
2
r
3
_
_
=
_
_
1
0
1
_
_
+ c
_
_
0
1
0
_
_
c R
Concludiamo osservando che il nucleo dellapplicazione lineare associata alla
matrice incompleta il secondo vettore della base canonica e questo stret-
tamente collegato al fatto che la seconda colonna della matrice incompleta
rappresentata dal vettore nullo.
17.5 Esercizio 5
Date le due applicazioni lineari f
A
: R
3
R
4
e f
B
: R
4
R
2
di matrice
caratteristica
=
_
_
_
_
0 1 1
1 2 0
2 2 1
3 0 0
_
_
_
_
, 1 =
_
1 0 1 2
0 1 2 0
_
calcolare:
130
la matrice caratteristica C dellapplicazione lineare f
C
= f
B
f
A
,
il nucleo dellapplicazione lineare f
C
e la sua dimensione,
limmagine dellapplicazione lineare f
C
e la sua dimensione,
limmagine mediante lapplicazione lineare f
C
del vettore
w =
_
_
2
1
0
_
_
,
la controimmegine (antiimmagine) mediante lapplicazione lineare f
C
del
vettore
z =
_
1
0
_
,
Per quanto riguarda la prima domanda osserviamo che
R
3
f
A
R
4
f
B
R
2
v (v) 1v
quindi la matrice dellapplicazione lineare composta si ottiene semplicemente
moltiplicando tra loro, nellordine corretto, le matrici delle due applicazioni lin-
eari componenti. Nel nostro caso lordine del prodotto obbligato (nel prodotto
tra matrici il numero di colonne della prima matrice deve essere uguale al nu-
mero di righe della seconda), pi in generale importante ricordare che lordine
di moltiplicazione inverso a quello di applicazione: f
B
f
A
vede applicata prima
f
A
e dopo f
B
quindi la matrice dellapplicazione composta 1. Nel nostro
caso
_
1 0 1 2
0 1 2 0
_
_
_
_
_
0 1 1
1 2 0
2 2 1
1 0 0
_
_
_
_
=
_
0 1 2
3 6 2
_
. .
C
Per calcolare il nucleo dellapplicazione lineare dobbiamo studiare il sistema
lineare
_
0 1 2
3 6 2
_
_
_
r
1
r
2
r
3
_
_
=
_
0
0
_
Prima di arontate i conti ricordiamo che vale sempre la seguente relazione
tra gli spazi vettoriali caratteristici di una applicazione lineare (e quindi della
sua matrice associata)
dim(ker (f
C
)) + dim(im(f
C
)) = dim
_
R
3
_
131
ovvero la dimensione del dominio di unapplicazione lineare la somma della
dimensione del nucleo e della dimensione dellimmagine dellapplicazione lineare
stessa. Nel nostro caso
dim(ker (f
C
)) + rkC = 3
dim(ker (f
C
)) = 3 rkC
Quindi per calcolare la dimensione del nucleo possiamo iniziare dal calcolo del
rango della matrice C.
rk
_
0 1 2
3 6 2
_
Osserviamo che, per la denizione di rango, abbiamo che 0 _ rkC _ min2, 3 =
2. Inoltre considerando la sottomatrice 2 2 ottenuta eliminando lultima
colonna della matrice C, otteniamo
det
_
0 1
3 6
_
= 3 ,= 0
quindi rkC _ 2 e dalla doppia disuguaglianza otteniamo immediatamente che
rkC = 2. Questo ci permette di concludere che
dim(ker (f
C
)) = 1
Prima di calcolare esplicitamente questo nucleo, osserviamo che non necessario
vericare se un sistema omogeneo come questo ammette soluzioni: una colonna
di zeri non pu certamente fare aumentare il rango della matrice completa,
quindi per questi sistemi onogenei la soluzione c sempre. Per convincersene
ulteriormente basta osservare che tutti i sistemi omogenei hanno il vettore nullo
tra le possibili soluzioni. Passiamo ai conti
_
0 1 2
3 6 2
_
_
_
r
1
r
2
r
3
_
_
=
_
0
0
_
poniamo r
3
= c e riscriviamo
_
0 1
3 6
__
r
1
r
2
_
=
_
2c
2c
_
Risolviamo per sostituzione
_
r
2
= 2c
3r
1
+ 6r
2
= 2c
_
r
2
= 2c
r
1
= 10c,3
In forma vettoriale la soluzione
_
_
r
1
r
2
r
3
_
_
= c
_
_
10,3
2
1
_
_
132
ovvero
ker (f
C
) =
_
_
_
10,3
2
1
_
_
_
Calcoliamo ora dellimmagine dellapplicazione f
C
e la sua dimensione come
spazio vettoriale. Banalmente possiamo scrivere che
im(f
C
) =
__
0
3
_
,
_
1
6
_
,
_
2
2
__
anche se questa scrittura matematicamente poco elegante questa aermazione
dice semplicemente che limmagine di unapplicazione lineare lo spazio vet-
toriale generato dalle colonne della sua matrice caratteristica. Per calcolare la
dimensione dellimmagine basta calcolare il rango di questa matrice, ovvero il
numero delle colonne linearmente indipendenti presenti nella matrice C. Abbi-
amo gi visto che questo pari a 2, quindi
dim(im(f
C
)) = rkC = 2
Visto che la dimensione dellimmagine coincice con la dimensione dello spazio
vettoriale codominio possiamo aermare che lapplicazione suriettiva:
im(f
C
) = R
2
Per calcolare limmagine mediante unapplicazione lineare di un vettore basta
svolgere il prodotto matrice caratteristica dellapplicazione lineare per il vettore
del quale vogliamo conoscere limmagine. Nel nostro caso
f
C
(w) =
_
0 1 2
3 6 2
_
_
_
2
1
0
_
_
=
_
1
0
_
quindi limmagine del vettore w il vettore che nel testo dellesercizio indicato
con z.
Lultima richiesta quella di calcolare la controimmegine (antiimmagine)
mediante lapplicazione lineare f
C
del vettore z. Osserviamo che calcolare questa
controimmagine signica identicare linsieme
_
x R
3
: f
C
(x) = z
_
_
x R
3
: Cx = z
_
quindi un altro modo per chiedere di risolvere il sistema lineare
Cx = z
133
Possediamo gi la soluzione di questo sistema lineare, infatti abbiamo gi cal-
colato il nucleo dellapplicazione lineare f
C
e possediamo anche una soluzione
particolare di questo sistema visto che al punto precedente ci siamo accorti che
f
C
(w) = z. La soluzione del sistema lineare quindi
_
_
r
1
r
2
r
3
_
_
=
_
_
2
1
0
_
_
+ c
_
_
10,3
2
1
_
_
, c R
Verichiamo che realmente quella scritta la soluzione risolvendo il sistema
lineare per sostituzione
_
r
2
+ 2r
3
= 1
3r
1
+ 6r
2
2r
3
= 0
Ricordiamoci che prima abbiamo utilizzato r
3
come variabile libera, ripetiamo
lo stesso ragionamento in modo da ottenere una soluzione direttamente compa-
rabile con quella scritta sopra
_
r
2
= 1 + 2r
3
3r
1
+ 6 + 12r
3
2r
3
= 0
_
r
2
= 1 + 2r
3
r
1
= 10r
3
,3 + 2
quindi imponendo r
3
= c otteniamo
_
_
_
r
1
= 2 + 10c,3
r
2
= 1 + 2c
r
3
= c
che coincide con quella identicata in precedenza.
18 Esercizi proposti
1. Dato il sistema lineare
_
_
t 2 (t + 1) 3
t 1 t 0
0 4 (t + 1) 1
_
_
_
_
r
1
r
2
r
3
_
_
=
_
_
t + 17
t 1
9
_
_
discuterlo al variare del parametro t. Per t = 2 calcolare la soluzione del
sistema utilizzando il metodo di Cramer.
2. Dato il sistema lineare
_
1 1 1
t t 2
_
_
_
r
1
r
2
r
3
_
_
=
_
1
0
_
utilizzare il Teorema di Rouch-Capelli per discuterlo al variare del para-
metro t. Calcolare le soluzioni del sistema per t = 1.
134
3. Dato il sistema lineare
_
_
4 2t t
0 2t t
1 0 3t
_
_
_
_
r
1
r
2
r
3
_
_
=
_
_
4
0
1
_
_
discuterlo utilizzando il Teorema di Rouch-Capelli. Per tutti i valori del
parametro t per i quali il sistema ammette una sola soluzione calcolarla
esplicitamente utilizzando il metodo di Cramer (la soluzione sar para-
metrica in t).
4. Dato il sistema lineare
_
_
2t t 1 3t
0 2 1
1 3 0
_
_
_
_
r
1
r
2
r
3
_
_
=
_
_
1
1
0
_
_
discuterlo al variare del parametro t R. Risolvere il sistema utilizzando
il metodo di Cramer per t = 0.
5. Per ogni valore del parametro t R discutere e risolvere il seguente sistema
lineare
_
_
4 2t t
0 2t t
1 0 3t
_
_
_
_
r
j
.
_
_
=
_
_
4
0
1
_
_
135
19 Autovalori, autovettori, diagonalizzazione
Denizione 23 Data una matrice quadrata '
nn
(R) diremo che v
R
n
0 un autovettore associato allautovalore ` R se e solo se
v = `v
Osservazioni:
dobbiamo buttare il vettore nullo altrimenti questa denizione sarebbe
inutive visto che 0 = `0 per ogni ` R;
il signicato geometrico il seguente: la direzione individuata dal vettore
v non viene modicata dallapplicazione lineare da R
n
in R
n
che ha
come matrice caratteristica.
Il problema ora quello di individuare gli autovettori e gli autovalori (sempre
che questi esistano).
Teorema 22 Data una matrice quadrata '
nn
(R) allora ` R un
autovalore se e solo se una radice del polinomio caratteristico della matrice
della matrice
j
A
(r) = det (r1)
ovvero se e solo se
j
A
(`) = 0
Dimostrazione
j
A
(`) = 0
det (`1) = 0
questo accade se e solo se la matrice `1 non ha rango massimo, quindi
rk (`1) < :. Consideriamo il sistema lineare omogeneo
(`1) x = 0
Per il teorema di Rouch-Capelli questo sistema lineare omogeneo ammette una
soluzione non banale, ovvero esiste almeno un v R
n
0 tale che
(`1) v = 0
E facile convincersi che, per come denita la somma tra matrici (ricordiamo
che le matrici non sono altro che vettori le cui compenenti sono dei vettori)
(`1) v = v `1v
e quindi dalla relazione precedente
(`1) v = 0
v `1v= 0
v = `1v
136
Tutti questi passaggi sono dei se e solo se, quindi limplicazione inversa
banale.
Una volta capito come si possono trovare gli autovalori (basta risolvere unequazione)
vediamo a che cosa possono servire questi oggetti matematici.
Teorema 23 Data una matrice quadrata '
nn
(R) ipotizziamo che questa
matrice ammetta : autovalori distinti `
1
, `
2
, ..., `
n
R ai quali sono associati
: autovettori v
1
, v
2
, ..., v
n
R
n
0 allora:
la matrice che ha per colonne gli autovettori invertibile
det (1) = det (v
1
[v
2
... [v
n
) ,= 0
la matrice diagonalizzabile nel seguente modo
1
1
1 =
_
_
_
_
`
1
0 ... 0
0 `
2
... 0
... ... ... ...
0 0 ... `
n
_
_
_
_
Dimostrazione
Per assurdo sia rk (v
1
[v
2
... [v
n
) = / < :, a meno di rirodinare i vettori, non
restrittivo supporre che siano proprio i primi / ad essere linearmente indipen-
denti. Aggiungiamo ora un ulteriore vettore ai primi / ( possibile proprio
perch / < :), allora esistono c
1
, c
2
, ..., c
k
, c
k+1
non tutti nulli tali che
c
1
v
1
+ c
2
v
2
+ ... + c
k
v
k
+ c
k+1
v
k+1
= 0
Osserviamo che
c
1
v
1
+ c
2
v
2
+ ... + c
k
v
k
+ c
k+1
v
k+1
= 0
c
1
`
1
v
1
+ c
2
`
2
v
2
+ ... + c
k
`
k
v
k
+ c
k+1
`
k+1
v
k+1
= 0
moltiplichiamo ora lequazione di partenza per `
k+1
c
1
`
k+1
v
1
+ c
2
`
k+1
v
2
+ ... + c
k
`
k+1
v
k
+ c
k+1
`
1
v
k+1
= 0
e sottraiamo membro a membro le due relazioni ottenute, ovvero
c
1
`
1
v
1
+ c
2
`
2
v
2
+ ... + c
k
`
k
v
k
+ c
k+1
`
k+1
v
k+1
= 0
c
1
`
k+1
v
1
+ c
2
`
k+1
v
2
+ ... + c
k
`
k+1
v
k
+ c
k+1
`
1
v
k+1
= 0
c
1
(`
1
`
k+1
) v
1
+ c
2
(`
2
`
k+1
) v
2
+ ... + c
k
(`
k
`
k+1
) v
k
= 0
i vettori v
1
, ..., v
k
sono lineramente indipendenti quindi deve essere, visto che
tutti gli autovalori sono diversi tra loro)
c
1
= c
2
= ... = c
k
= 0
137
e questo genera una contraddizione poich otterremmo che
0v
1
+ 0v
2
+ ... + 0v
k
+ c
k+1
v
k+1
= 0
ovvero v
k+1
= 0 (impossibile poich autovettore) oppure c
k+1
(impossibile
poich tutti gli c
i
sarebbero nulli).
Osserviamo che
1 = (v
1
[v
2
... [v
n
)
= (v
1
[v
2
... [v
n
)
= (`
1
v
1
[`
2
v
2
... [`
n
v
n
)
=
_
_
_
_
`
1
0 ... 0
0 `
2
... 0
... ... ... ...
0 0 ... `
n
_
_
_
_
(v
1
[v
2
... [v
n
)
=
_
_
_
_
`
1
0 ... 0
0 `
2
... 0
... ... ... ...
0 0 ... `
n
_
_
_
_
1
Moltiplicando per 1
1
a sinistra possiamo concludere.
Questo risultato ci assicura che autovettori associati ad autovalori distinti sono
tra loro linearmente indipendenti, sfruttando la denizione di autovettori pos-
sibile trasformare la matrice iniziale in una matrice particolarmente semplice
(diagonale). Per molte applicazioni le informazioni rilevanti contenute nella ma-
trice sono contenute negli autovalori quindi siamo ora in grado di estrarre
tali informazioni.
Denizione 24 Data una matrice quadrata '
nn
(R), diremo che questa
simmetrica se e solo se coincide con la sua trasposta

0
=
Se la matrice simmetrica il teorema precedente ci permette di dire qualcosa di
pi.
Teorema 24 Data una matrice quadrata '
nn
(R) e simmetrica che am-
mette : autovalori distinti `
1
, `
2
, ..., `
n
R ai quali sono associati : autovettori
v
1
, v
2
, ..., v
n
R
n
0 allora:
v
0
i
v
j
= 0 se i ,= ,
denendo w
i
= v
i
,
_
v
0
i
v
i
allora
(w
1
[w
2
... [w
n
)
1
= (w
1
[w
2
... [w
n
)
0
138
Dimostrazione
Osserviamo che
`
i
v
0
i
v
j
= (`
i
v
i
)
0
v
j
= (v
i
)
0
v
j
= v
0
i

0
v
j
= v
0
i
v
j
= v
0
i
`
i
v
j
= `
i
v
0
i
v
j
Otteniamo che
(`
i
`
j
) v
0
i
v
j
= 0
visto che gli autovalori sono distinti possimo concludere che v
0
i
v
j
= 0.
Andiamo a calcolare il prodotto tra le due matrici
(w
1
[w
2
... [w
n
)
0
(w
1
[w
2
... [w
n
)
=
_
_
_
_
w
0
1
w
0
2
...
w
0
n
_
_
_
_
(w
1
[w
2
... [w
n
)
il prodotto tra questa due matrici pu essere visto come un prodotto riga per
colonna, quindi la componente che si trova nella riga i e nella colonna , della
matrice prodotto vale:
se i = , allora nella riga i e nella colonna i si trova il valore
w
0
i
w
i
=
1
_
v
0
i
v
i
v
0
i
1
_
v
0
i
v
i
v
i
=
1
v
0
i
v
i
v
0
i
v
i
= 1
se i ,= , allora nella riga i e nella colonna i si trova il valore
w
0
i
w
j
=
1
_
v
0
i
v
i
v
0
i
1
_
v
0
j
v
j
v
j
=
1
_
v
0
i
v
i
1
_
v
0
j
v
j
v
0
i
v
j
..
=0
= 0
Quindi
(w
1
[w
2
... [w
n
)
0
(w
1
[w
2
... [w
n
) = 1
ovvero
(w
1
[w
2
... [w
n
)
0
= (w
1
[w
2
... [w
n
)
1

Questo risultato pu essere letto nel seguente modo: in una matrice simmet-
rica gli autovettori associati ad autovalori distinti sono tra loro ortogonali, e
139
scegliendo in modo accorto gli autovettori possibile trovare : autovettori tra
loro ortonormali.
Tutta questa teoria funziona se, data una matrice , siamo in grado di trovare
: autovalori reali e distinti. In pratica due situazioni possono far saltare i nostri
ragionamenti:
il polinomio caratteristico pu non avere autovalori reali (nella fattor-
izzazione del polinomio ci troviamo dei polinomi di secondo grado con
< 0)
il polinomio caratteristico pu non avere autovalori distiniti (esistono delle
radici doppie, triple...)
Il secondo punto dicile da trattare e porta ad una forma pi debole rispetto
a quella diagonale (detta forma canonica di Jordan); per quanto riguarda il
primo punto invece, se lavoriamo con matrici reali simmetriche possiamo stare
tranquilli: tutte le radici saranno sempre reali.
Teorema 25 Data una matrice quadrata '
nn
(R) e simmetrica tutti i
suoi autovalori sono reali.
Dimostrazione
Dato un autovalore ` per osserviamo che passando al coniugio

v =

` v
ma la matrice reale, quindi
v =

` v
moltiplichiamo ambo i mambri per v
0
, otteniamo
v
0
v = v
0

` v
ora sfruttiamo la simmetria della matrice
(v)
0
v = v
0

` v
`v
0
v =

`v
0
v
_
`

`
_
v
0
v = 0
Osserviamo che
v
0
v =
n

k=1

k

k
=
n

k=1
(a
k
+ i/
k
) (a
k
i/
k
)
=
n

k=1
a
2
k
ia
k
/
k
+ ia
k
/
k
+ /
2
k
=
n

k=1
a
2
k
+ /
2
k
e questa quantit nulla se e solo se a
k
= /
k
= 0 per ogni /. Ma questo
porterebbe a concludere che v = 0. Quindi deve essere
_
`

`
_
= 0 ovvero
` =

` e questo accade se e solo se ` R.
140
Esempio 17 Data la matrice simmetrica
=
_
1
_
2
_
2 2
_
calcolare una matrice 1 che diagonalizzi ovvero tale che il prodotto tra matrici
1
0
1
risulti essere una matrice diagonale.
Prima di tutto introduciamo il polinomio caratteristico di :
j
A
(r) = det
__
1
_
2
_
2 2
_
r
_
1 0
0 1
__
= det
_
1 r
_
2
_
2 2 r
_
= (1 r) (2 r) 2
= r
2
3r + 2 2
= r
2
3r
I due autovalori sono r = 0 e r = 3 (visto che la matrice simmetrica questi due
autovalori devono essere reali, quindi lequazione che si ottiene con una matrice
di questo tipo sempre unequazione di secondo grado con _ 0). Calcoliamo
gli autovettori associati.
Per ` = 0 abbiamo:
__
1
_
2
_
2 2
_
0
_
1 0
0 1
___

1

2
_
=
_
0
0
_
_
1
_
2
_
2 2
__

1

2
_
=
_
0
0
_
ovvero
_

1
+
_
2
2
= 0
_
2
1
+ 2
2
= 0
_

1
=
_
2
2
0 = 0
quindi un autovettore
_

_
2
1
_
tuttavia questo autovettore non ha lunghezza 1, normalizziamolo:
_
2 + 1 =
_
3
141
quindi autovettore anche
_

_
2,
_
3
1,
_
3
_
Passiamo allaltro autovalore
__
1
_
2
_
2 2
_
3
_
1 0
0 1
___

1

2
_
=
_
0
0
_
_
2
_
2
_
2 1
__

1

2
_
=
_
0
0
_
ovvero
_
2
1
+
_
2
2
= 0
_
2
1

2
= 0
_
0 = 0

2
=
_
2
1
quindi un autovettore
_
1
_
2
_
anche in questo caso questo autovettore non ha lunghezza 1, normalizziamolo:
_
1 + 2 =
_
3
quindi autovettore anche
_
1,
_
3
_
2,
_
3
_
Abbiamo la matrice 1 che cercavamo:
_

_
2,
_
3 1,
_
3
1,
_
3
_
2,
_
3
__
1
_
2
_
2 2
__

_
2,
_
3 1,
_
3
1,
_
3
_
2,
_
3
_
=
_

_
2,
_
3 1,
_
3
1,
_
3
_
2,
_
3
__
0 3,
_
3
0 3
_
2,
_
3
_
=
_
0 0
0 3
_
Osserviamo che come deve essere
1
0
1 = 1
_

_
2,
_
3 1,
_
3
1,
_
3
_
2,
_
3
_
0
_

_
2,
_
3 1,
_
3
1,
_
3
_
2,
_
3
_
=
_
1 0
0 1
_
anche se in questo caso, casualmente, la matrice 1 individuata simmetrica.
142