Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Volume I
12 marzo 2011
2
3
Prefazione
Con l’attivazione delle lauree triennali, i corsi universitari hanno subı̀to una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso l’Università di Torino, costituisce ora
un testo completo che può essere anche utilizzato nelle Facoltà di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo più tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
Il testo è di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po’ di-
verso per stile ed impostazione dagli usuali testi universitari del settore, al fine di soste-
nere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore
all’Università.
In quasi tutti i capitoli del primo volume è stato inserito un paragrafo dal titolo “Per
saperne di più” non solo per soddisfare la curiosità del Lettore ma con il preciso obiettivo
di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno
occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree
Triennali e Magistrali.
Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro,
saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base
per la maggior parte delle discipline scientifiche, rendendola appassionante.
La figure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico
Mathematica, versione 7. Alcuni esercizi proposti sono particolarmente adatti ad essere
risolti con Mathematica o con Maple.
Per suggerimenti, osservazioni e chiarimenti si invita a contattare gli Autori agli indirizzi
e-mail: elsa.abbena@unito.it, annamaria.fino@unito.it, gianmario.gianella@unito.it.
4
II di copertina: Ringraziamenti
IV di copertina
Gli autori
Elsa Abbena, professore associato di Geometria presso la Facoltà di Scienze Matematiche
Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca su argomenti
di geometria differenziale. Ha tenuto innumerevoli corsi di algebra e di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Anna Fino, professore associato di Geometria presso la Facoltà di Scienze Matematiche
Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca su argomenti
di geometria differenziale e complessa. Ha tenuto per vari anni un corso di geometria e
algebra lineare presso il corso di Laurea in Fisica.
Gian Mario Gianella, professore associato di Geometria presso la Facoltà di Scienze
Matematiche Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca
su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei grafi e
più recentemente della teoria dei numeri. Ha tenuto innumerevoli corsi di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
L’opera
Con l’attivazione delle lauree triennali, i corsi universitari hanno subı̀to una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso l’Università di Torino, costituisce ora
un testo completo che può essere anche utilizzato nelle Facoltà di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo più tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
6
Indice
1 Sistemi Lineari 15
1.1 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . . 29
2 Matrici e Determinanti 33
2.1 Somma di matrici e prodotto di un numero reale per una matrice . . . . 33
2.2 Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 I sistemi lineari in notazione matriciale . . . . . . . . . . . . . . 40
2.3 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 La trasposta di una matrice . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . . . . . . 44
2.6 Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6.1 Calcolo della matrice inversa, primo metodo . . . . . . . . . . . 50
2.7 La traccia di una matrice quadrata . . . . . . . . . . . . . . . . . . . . 55
2.8 Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.8.1 I Teoremi di Laplace
Un’altra definizione di rango di una matrice . . . . . . . . . . . 64
2.8.2 Calcolo della matrice inversa, secondo metodo . . . . . . . . . . 67
2.8.3 Il Teorema di Cramer . . . . . . . . . . . . . . . . . . . . . . . 69
2.9 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3 Calcolo Vettoriale 75
3.1 Definizione di vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Somma di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3 Il prodotto di un numero reale per un vettore . . . . . . . . . . . . . . . 82
3.4 Dipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . . . . . . 84
7
8 INDICE
7 Diagonalizzazione 301
7.1 Autovalori e autovettori di un endomorfismo . . . . . . . . . . . . . . . 301
7.2 Determinazione degli autovalori e degli autospazi . . . . . . . . . . . . 305
7.3 Endomorfismi diagonalizzabili
Matrici diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . 312
7.4 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
7.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 321
7.6 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
7.6.1 Diagonalizzazione simultanea . . . . . . . . . . . . . . . . . . . 326
7.6.2 Il Teorema di Cayley–Hamilton . . . . . . . . . . . . . . . . . . 331
7.6.3 Teorema spettrale e endomorfismi autoaggiunti
Caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . 334
7.6.4 Autovalori delle isometrie, similitudini,
trasformazioni unitarie . . . . . . . . . . . . . . . . . . . . . . 338
10 INDICE
Bibliografia 697
Sistemi Lineari
a1 x1 + a2 x2 + . . . + an xn = b, (1.1)
Definizione 1.2 Una soluzione dell’equazione lineare (1.1) è una n-upla di numeri reali:
15
16 Sistemi Lineari
È chiaro che ogni sistema lineare è omogeneo se e solo se ammette la soluzione nulla
(0, 0, . . . , 0), formata da tutti zeri.
Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si darà ampio spazio
al metodo di riduzione di Gauss in quanto più veloce (anche dal punto di vista computa-
zionale). L’idea di base del metodo di Gauss è quella di trasformare il sistema lineare di
partenza in un altro sistema lineare ad esso equivalente ma molto più semplice, tenendo
conto della seguente definizione.
Definizione 1.6 Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.
18 Sistemi Lineari
Esempio 1.3 Risolvere il seguente sistema lineare di due equazioni in due incognite
usando il metodo di riduzione:
x+y =4
2x − 3y = 7.
ossia:
x+y =4
5y = 1
che ammette come unica soluzione (19/5, 1/5).
Il metodo usato per risolvere l’esempio precedente è conseguenza del seguente teorema.
Teorema 1.1 Eseguendo un numero finito di volte le tre operazioni sotto elencate:
1. scambiare tra loro due equazioni,
2. moltiplicare un’equazione per un numero reale diverso da zero,
3. sostituire ad un’equazione la somma di se stessa con un’altra equazione moltipli-
cata per un qualsiasi numero reale
si ottiene un sistema lineare equivalente a quello di partenza.
Dimostrazione È ovvio che scambiando tra loro due equazioni si ottiene un sistema
lineare equivalente a (1.2).
Per la seconda operazione, si dimostra che il sistema lineare (1.2) è equivalente al siste-
ma lineare che si ottiene sostituendo alla prima equazione se stessa moltiplicata per un
numero reale λ 6= 0. Si osservi che se tale sostituzione avviene per la i-esima equazione
è sufficiente operare con la prima operazione per ricondursi al caso in esame. In altri
termini si prova che (1.2) è equivalente al sistema lineare:
λ(a11 x1 + a12 x2 + . . . . . . + a1n xn ) = λb1
a21 x1 + a22 x2 + . . . . . . + a2n xn = b2
.. (1.3)
.
a x + a x + . . . . . . + a x = b , λ 6= 0.
m1 1 m2 2 mn n m
2. È sufficiente dimostrare la tesi per la prima equazione di (1.2). Per ipotesi si ha:
Per dimostrare l’equivalenza nel caso dell’operazione 3. si procede allo stesso modo.
Infatti non è consentito sostituire alla seconda equazione il prodotto di se stessa per il
numero 0, anche se si mantiene inalterata la prima equazione.
Si osservi che le operazioni descritte nel Teorema 1.1 agiscono linearmente solo sui coef-
ficienti del sistema lineare e non sulle incognite. Ciò suggerisce di sostituire ad un sistema
lineare una “tabella” dei coefficienti e dei temini noti ed operare solo su questa. Viene
illustrato ora questo procedimento mediante l’Esempio 1.3.
Al sistema lineare:
x+y =4
2x − 3y = 7
si associa la tabella:
1 1 4
(1.4)
2 −3 7
con le due righe:
R1 = 1 1 | 4 , R2 = 2 −3 | 7
20 Sistemi Lineari
e le tre colonne:
1 1 4
C1 = , C2 = , C3 = .
2 −3 7
Successivamente si opera su di essa sostituendo alla seconda riga R2 se stessa a cui si
sottrae il prodotto di due volte la prima, cioè R2 −→ R2 − 2R1 , ottenendo cosı̀:
1 1 4
,
0 −5 −1
che corrisponde al sistema lineare ridotto:
x+y =4
−5y = −1.
Benché la definizione intuitiva di sistema lineare ridotto sia evidente, si enuncerà la
definizione formale più avanti.
La tabella (1.4) prende il nome di matrice completa del sistema lineare, o matrice dei
coefficienti e termini noti. Il tratto verticale prima dell’ultima sua colonna intende solo
distinguere i coefficienti del sistema lineare dai termini noti. Il termine matrice indica, in
generale, una tabella di numeri, a prescindere dall’uso relativo ai sistemi lineari. La trat-
tazione generale delle matrici è rimandata al capitolo successivo, introducendo ora solo
alcune nozioni elementari. È evidente che il numero delle righe della matrice completa
associata ad un sistema lineare coincide con il numero delle equazioni del sistema lineare,
il numero delle colonne è pari al numero delle incognite aumentato di una unità, che corri-
sponde alla colonna formata dai termini noti. Le operazioni di riduzione che permettono
di trasformare un sistema lineare in un sistema lineare ridotto ad esso equivalente (cfr.
Teor. 1.1) si traducono sulle righe della matrice in modo ovvio e si possono riassumere,
rispettivamente con le seguenti notazioni:
1. Ri ←→ Rj ,
2. Ri −→ λRi , λ ∈ R, λ 6= 0,
3. Ri −→ Ri + λRj , λ ∈ R, i 6= j,
dove Ri e Rj indicano rispettivamente la i–esima riga e la j –esima riga.
In generale, al sistema lineare (1.2) si associano due matrici, una matrice A di m righe e
n colonne:
a11 a12 . . . a1n
a21 a22 . . . a2n
A = .. (1.5)
.. ..
. . .
am1 am2 · · · amn
Capitolo 1 21
Esempio 1.5 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
x + y + 2z = 9
2x + 4y − 3z = 1
3x + 6y − 5z = 0
Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
x1 + x2 − x3 = 1
2x1 + 2x2 + x3 = 0
x1 + x2 + 2x3 = −1
22 Sistemi Lineari
che ammette infinite soluzioni che dipendono da un’incognita libera x2 , per maggiore
chiarezza si pone x2 uguale ad un parametro t che quindi può assumere ogni valore reale:
1
x1 = − t
3
x2 = t
2
x3 = − , t ∈ R.
3
Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
x1 + x2 = −1
−2x1 + x2 + 3x3 = 2
−x1 + 2x2 + 3x3 = −1
Gli esempi studiati impongono la definizione formale della matrice associata all’ultimo
sistema lineare che si ottiene, ossia della matrice associata ad un sistema lineare ridotto
equivalente a quello di partenza.
Definizione 1.7 Una matrice si dice ridotta per righe se in ogni sua riga non nulla esiste
un elemento non nullo al di sotto del quale vi sono tutti zeri.
non lo è.
Definizione 1.8 Un sistema lineare si dice ridotto se la matrice dei coefficienti ad esso
associata è ridotta per righe.
Invece, la matrice completa di un sistema lineare può essere ridotta per righe senza che
necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:
1 2 3 4
(A | B) = 7 6 5 0
9 8 0 0
è una matrice ridotta per righe, ma il sistema lineare associato non è ridotto perché la
matrice dei coefficienti non è ridotta per righe.
Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante
le operazioni consentite, ad una matrice dei coefficienti ridotta per righe. Dai teoremi che
seguono e anche dall’Osservazione 1.1, sarà chiaro che tra tutte le matrici complete ridotte
per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefficienti è
ridotta per righe. Si possono allora presentare queste possibilità:
a. quella illustrata nell’Esempio 1.5, ovvero il numero delle righe non nulle della ma-
trice completa ridotta per righe è uguale al numero delle righe non nulle della ma-
trice dei coefficienti ridotta per righe ed è uguale al numero delle incognite, quindi
l’ultima riga non nulla della matrice dei coefficienti contiene soltanto un numero
non nullo, allora il sistema lineare ridotto associato è compatibile e ha una sola
soluzione.
b. Quella illustrata nell’Esempio 1.6, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe è uguale al numero delle righe non nulle della
matrice dei coefficienti ed è minore del numero delle incognite; l’ultima riga non
nulla della matrice dei coefficienti contiene almeno un numero non nullo; allora il
sistema lineare ridotto è compatibile e ammette infinite soluzioni che dipendono da
almeno un’incognita libera.
c. Quella illustrata nell’Esempio 1.7, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe è maggiore (di una unità) del numero delle righe
non nulle della matrice dei coefficienti ridotta per righe e pertanto il sistema lineare
ridotto associato è incompatibile.
Definizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non
nulle.
Capitolo 1 25
Definizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta
per righe da essa ottenuta.
Osservazione 1.2 In base alla precedente definizione il rango della matrice formata da
tutti zeri è 0.
In letteratura, le notazioni più comuni per indicare il rango di una matrice sono rank(A) =
rg(A) = r(A) = rk(A) = ρ(A). Si userà la notazione rank(A).
Osservazione 1.3 È evidente che affinchè la Definizione 1.10 abbia senso è necessario
dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici
ridotte ottenute hanno lo stesso rango. In realtà, la Definizione 1.10 esprime il metodo di
calcolo del rango di una matrice. Per dimostrare l’affermazione appena citata è necessario
enunciare un’altra definizione di rango di una matrice e ciò sarà fatto nel Paragrafo 4.3
dopo aver introdotto nozioni adesso premature.
I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel
modo seguente:
Osservazione 1.4 Un sistema lineare omogeneo è sempre compatibile, perciò è solo in-
teressante capire se ammetta una sola soluzione (quella nulla) o infinite soluzioni e ciò
dipende interamente dal rango della matrice dei coefficienti. Per la risoluzione di un si-
stema lineare omogeneo è sufficiente ridurre per righe la matrice dei coefficienti (questo
caso sarà esaminato in dettaglio nel Paragrafo 1.2.1).
Osservazione 1.5 Mentre segue dalla Definizione 1.10 che, per una matrice A con m
righe e n colonne, rank(A) ≤ m, si dimostrerà formalmente che il rango della matrice
dei coefficienti di un sistema lineare è un numero inferiore o uguale al minore tra il numero
delle equazioni e il numero delle incognite, cioè rank(A) ≤ m e rank(A) ≤ n.
Osservazione 1.6 Al più il rango della matrice completa differisce di una unità dal rango
della matrice dei coefficienti, cioè rank(A | B) ≤ rank(A) + 1.
Esempio 1.9 – Metodo di riduzione di Gauss–Jordan – Per determinare le soluzioni
di un sistema lineare si può procedere in modo leggermente diverso da quando si è visto
finora. Quando si perviene alla matrice completa ridotta per righe, anziché scrivere il si-
stema lineare ridotto associato si può, in modo equivalente, procedere allo stesso calcolo
mediante un’ulteriore riduzione della matrice completa allo scopo di pervenire alla lettura
nell’ultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo
metodo, detto anche metodo di riduzione di Gauss–Jordan, per differenziarlo dal metodo
di riduzione di Gauss introdotto in precedenza, è molto efficace quando si ha una sola so-
luzione, ma può presentare alcune difficoltà di calcolo negli altri casi. Viene ora illustrato
con un esempio e precisamente partendo dall’ultimo passaggio di riduzione nell’Esempio
1.5. La matrice dei coefficienti ha, in questo caso, lo stesso numero di righe e di colon-
ne. Pertanto ha senso considerare la sua diagonale principale, cioè l’insieme formato da
tutti gli elementi aii , i = 1, 2, 3 (tale nozione sarà ripresa e riformulata con maggiore
proprietà di linguaggio nell’Esempio 2.6). Quando la matrice dei coefficienti è ridotta
per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo
dall’ultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la
diagonale principale.
1 1 2 9 1 1 2 9
−→
0 2 −7 −17 R2 → (1/2)R2 0 1 − 7 − 17
R3 → −R3
2 2
0 0 −1 −3 0 0 1 3
1 1 0 3 1 0 0 1
−→
−→
R2 → R2 + (7/2)R3 0 1 0 2 0 1 0 2 .
R1 → R1 − R2
R1 → R1 − 2R3
0 0 1 3 0 0 1 3
Capitolo 1 27
Si osservi che sull’ultima colonna, si legge, in ordine, proprio la soluzione del sistema li-
neare dato. Si presti molta attenzione all’ordine con cui compaiono i valori delle incognite
nell’ultima colonna, che dipende dal metodo di riduzione seguito.
Soluzione Si procede con la riduzione per righe della matrice completa (A | B), ripor-
tando solo i passaggi essenziali.
1 2 −3
4 −→
(A | B) = 3 −1 5
2 R2 → R2 − 3R1
4 1 −14 + a2 2 + a R3 → R3 − 4R1
1 2 −3 4 1 2 −3 4
0 −7 −→
14 −10 0 −7 14 −10 .
2 R3 → R3 − R2
0 −7 −2 + a −14 + a 0 0 −16 + a2 −4 + a
La matrice dei coefficienti A è ridotta per righe, quindi si presentano i seguenti casi:
Per determinare le soluzioni del sistema lineare si devono considerare tre casi:
1 2 −3 4
−→
−→
1
0 7 −14 10
1
R3 → R3 R2 → R2
−16 + a2
−4 + a 7
0 0 1
(4 + a)(−4 + a)
28 Sistemi Lineari
19 + 4a
2 −3
1 4 1 2 0
4+a
−→
10
54 + 10a
0 1 −2
R2 → R2 + 2R3 0
1 0
7
R1 → R1 + 3R3
7(4 + a)
1 1
0 0 1 0 0 1
4+a 4+a
25 + 8a
1 0 0
7(4 + a)
−→ 54 + 10a
0 1 0 .
R1 → R1 − 2R2 7(4 + a)
1
0 0 1
4+a
1 2 −3 4
1 2 −3 4
−→
10
0 7 −14 10 1 0 1 −2 ,
R2 → R2 7
7
0 0 0 0 0 0 0 0
Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel
modo seguente:
8 10 8 10
(x, y, z) = − t, + 2t, t = , , 0 + t(−1, 2, 1), t ∈ R,
7 7 7 7
la cui matrice dei coefficienti A coincide con (1.5) e quella completa (A |B) è:
a11 a12 . . . a1n 0
a21 a22 . . . a2n 0
(A | B) = .. .. .. ;
..
. . . .
am1 am2 · · · amn 0
quindi il rango della matrice dei coefficienti A coincide con il rango della matrice com-
pleta (A | B). Infatti, come si è già osservato, un sistema lineare omogeneo ammette
sempre almeno la soluzione nulla. È molto interessante distinguere il caso in cui si ha una
sola soluzione da quello con infinite soluzioni:
30 Sistemi Lineari
1. se il rango di A coincide con il numero delle incognite, allora esiste solo la solu-
zione (0, 0, . . . , 0);
2. se il rango di A è un numero k strettamente minore del numero delle incognite n,
allora esistono infinite soluzioni che dipendono da n − k incognite libere.
Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque inco-
gnite:
x3 + x4 + x5 = 0
−x1 − x2 + 2x3 − 3x4 + x5 = 0
x1 + x2 − 2x3 − x5 = 0
2x1 + 2x2 − x3 + x5 = 0
Procedendo alla sua riduzione per righe (si osservi che è inutile ridurre per righe la matrice
completa) si ha:
1 1 −2 0 −1 1 1 −2 0 −1
−→ 0 −→
0 1 1 1
R3 → R3 + R1 0 0
1 1 1
R3 ↔ R1 −1 −1
2 −3 1 0 0 0 −3 0
R2 ↔ R3 R4 → R4 − 2R1
2 2 −1 0 1 0 0 3 0 3
1 1 −2 0 −1
−→ 0 0 1 1 1
R3 → −(1/3)R3 0 0
0 1 0
R4 → (1/3)R4
0 0 1 0 1
1 1 −2 0 −1
−→ 0 0
1 1 1
.
R4 → R4 − R2 0 0 0 1 0
0 0 0 −1 0
Si deduce che rank(A) = 3, esistono, quindi, infinite soluzioni che dipendono da 5−3 = 2
incognite libere. Il sistema lineare ridotto associato è:
x1 + x2 − 2x3 − x5 = 0
x3 + x4 + x5 = 0 (1.7)
x4 = 0
Capitolo 1 31
Osservazione 1.8 L’insieme delle soluzioni del sistema lineare precedente si può scrivere
come:
n
(x1 , x2 , x3 , x4 , x5 ) = (−t1 − t2 , t2 , −t1 , 0, t1 )
o
= t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R .
Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene
aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del
sistema lineare omogeneo associato (1.6).
Dimostrazione Sia (x∗1 , x∗2 , . . . , x∗n ) una soluzione particolare di (1.2) e (x1 , x2 , . . . , xn )
una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verifica
immediatamente che (x1 + x∗1 , x2 + x∗2 , . . . , xn + x∗n ) è ancora una soluzione di (1.2).
Viceversa, se (x01 , x02 , . . . , x0n ) e (x001 , x002 , . . . , x00n ) sono due soluzioni qualsiasi di (1.2),
delle quali (x01 , x02 , . . . , x0n ) è quella generale e (x001 , x002 , . . . , x00n ) è una soluzione partico-
lare, allora è facile verificare che (x01 − x001 , x02 − x002 , . . . , x0n − x00n ) è soluzione del sistema
lineare omogeneo associato (1.6).
che ha come sistema lineare omogeneo associato (1.7). L’insieme delle sue soluzioni è:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 − t1 − t2 , t2 , 1 − t1 , 3, t1 )
o
= (7, 0, 1, 3, 0) + t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R .
32 Sistemi Lineari
Si osservi che (7, 0, 1, 3, 0) è una soluzione particolare del sistema lineare dato, mentre:
che ha la stessa matrice dei coefficienti di (1.8) ma diversa matrice completa, ha come
insieme di soluzioni:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 − t1 − t2 , t2 , 3 − t1 , −1, t1 )
o
= (7, 0, 3, −1, 0) + t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R .
Capitolo 2
Matrici e Determinanti
con aij ∈ R, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Per convenzione le matrici vengono indicate con le lettere maiuscole dell’alfabeto e l’in-
sieme della matrici di m righe ed n colonne sarà indicato con Rm,n o, talvolta, con
MR (m, n). In forma sintetica la matrice (2.1) si può anche scrivere come:
A = (aij ), 1 ≤ i ≤ m, 1 ≤ j ≤ n,
33
34 Matrici e Determinanti
Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una
colonna, cioè come elementi di R1,1 . Quindi R è effettivamente uguale a R1,1 .
Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono
quadrate e tale numero si dice ordine della matrice. Per esempio:
1 2
A=
3 4
Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga. Per esempio:
A = 1 2 3 4 ∈ R1,4
Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna. Per
esempio:
1
2 4,1
A= 3 ∈R
4
è una matrice colonna.
Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del
prodotto cartesiano:
Rn = {(x1 , x2 , . . . , xn ) | xi ∈ R, i = 1, 2, . . . , n}
possono essere visti come matrici riga o colonna. Quindi Rn può essere identificato sia
con R1,n sia con Rn,1 .
Esempio 2.5 La matrice (aij ) ∈ Rm,n , con tutti gli elementi aij = 0, si dice matrice
nulla e si indica con O, da non confondersi con il numero 0 ∈ R. È evidente che la
matrice nulla è l’unica matrice ad avere rango zero (cfr. Oss. 1.2).
Esempio 2.6 Nel caso di una matrice quadrata A = (aij ) di ordine n, tutti gli elementi
del tipo aii , al variare di i da 1 a n, costituiscono la diagonale principale. Rivestiranno
in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi
Capitolo 2 35
elementi tutti nulli al di fuori della diagonale principale cioè aij = 0 se i 6= j . L’insieme
delle matrici diagonali di ordine n sarà indicato con:
a 11 0 . . . 0
0 a22 . . . 0
n,n
D(R ) = .. | a ∈ i = 1, 2, . . . , n . (2.2)
.. . . .. ii R,
. . . .
0 0 . . . ann
Esempio 2.7 Casi particolari dell’esempio precedente sono la matrice unità I ∈ Rn,n ,
ossia la matrice diagonale avente tutti 1 sulla diagonale principale:
1 0 ... 0
0 1 ... 0
I = .. .. . . ..
. . . .
0 0 ... 1
e la matrice quadrata nulla O ∈ Rn,n , intendendosi come tale la matrice quadrata avente
tutti gli elementi uguali a 0.
aij = bij , i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Definizione 2.3 Si definisce somma delle due matrici A = (aij ), B = (bij ), entrambe
appartenenti a Rm,n , la matrice A + B ∈ Rm,n data da:
A + B = (aij + bij ).
Se A e B non appartengono allo stesso insieme Rm,n , non è possibile definire la loro
somma. Ad esempio non è definita la somma della matrice A con la matrice:
0 3 2
C= .
−1 5 6
Teorema 2.1 Per l’operazione di somma di matrici definita sull’insieme Rm,n valgono
le proprietà di seguito elencate:
Osservazione 2.2 Un insieme con un’operazione che verifichi le proprietà del teorema
precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le pro-
prietà 2., 3., 4. Pertanto (Rm,n , +) con l’operazione di somma di matrici ha la struttura di
gruppo commutativo.
Definizione 2.4 Si definisce prodotto di un numero reale λ per una matrice A = (aij ) di
Rm,n la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale λ,
ossia:
λA = (λaij ),
A volte si usa il termine scalare per indicare il numero reale λ e il prodotto di un numero
reale per una matrice è anche detto quindi prodotto di uno scalare per una matrice.
Capitolo 2 37
il prodotto 3A è la matrice:
3 6
3A = .
9 12
Teorema 2.2 Per il prodotto di un numero reale per una matrice valgono le seguenti
proprietà che mettono in relazione la somma di matrici con la somma e il prodotto di
numeri reali:
4. 1A = A, A ∈ Rm,n .
Osservazione 2.3 L’insieme delle matrici Rm,n , considerato congiuntamente con le ope-
razioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro
proprietà prima enunciate, dà luogo ad una struttura algebrica che è un esempio di spazio
vettoriale.
Gli spazi vettoriali, che costituiscono la base dell’algebra lineare, saranno studiati in mo-
do intensivo a partire dal Capitolo 4. Si è preferito, per ragioni didattiche, anteporre la
descrizione degli esempi più facili di spazi vettoriali alla loro stessa definizione. Que-
sto è il caso di Rm,n e nel prossimo capitolo la stessa idea sarà applicata all’insieme dei
vettori ordinari dello spazio in modo da permettere al Lettore di prendere confidenza con
nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola seconda-
ria superiore e di dare la possibilità di affrontare più agevolmente lo studio dei capitoli
successivi.
38 Matrici e Determinanti
A prescindere da argomenti più sofisticati, si introduce questa nuova operazione tra ma-
trici che, anche se a prima vista appare singolare, è comunque dotata di interessanti
proprietà, che rendono plausibile la seguente definizione.
Definizione 2.5 Il prodotto della matrice A = (aij ) di Rm,n con la matrice B = (bij ) di
Rn,p è la matrice C = AB = (cij ) di Rm,p i cui elementi sono dati da:
n
X
cij = ai1 b1j + ai2 b2j + . . . + ain bnj = aik bkj . (2.3)
k=1
Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve
avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice
prodotto avrà il numero di righe del primo fattore e il numero di colonne del secondo
fattore. Da questa definizione segue che il prodotto di due matrici non è commutativo. A
titolo di esempio, si calcoli il prodotto delle matrici:
1 −1 2 3
1 2 3
A= , B= 0 1 2 4 ,
4 5 6
3 5 7 9
c11 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della prima colonna di B : c11 = 1 · 1 + 2 · 0 + 3 · 3 = 10.
c12 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della seconda colonna di B : c12 = 1 · (−1) + 2 · 1 + 3 · 5 = 16 e cosı̀ via.
La matrice C è dunque:
10 16 27 38
C= .
22 31 60 86
Per la sua particolare definizione, questo tipo di prodotto di matrici prende il nome di
prodotto righe per colonne.
Capitolo 2 39
Osservazione 2.4 È chiaro che il prodotto di due matrici quadrate dello stesso ordine è
ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in
generale la proprietà commutativa, per esempio date:
1 2 0 1
A= , B=
3 4 2 3
si ha:
4 7
AB =
8 15
mentre:
3 4
BA = .
11 16
Nel caso delle matrici quadrate di ordine 1 il prodotto è ovviamente commutativo perché
coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto
è commutativo, come si osserverà nel Paragrafo 2.5.
in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora ne-
cessariamente o a = 0 o b = 0. Ovviamente se O ∈ Rm,n è la matrice nulla e
A ∈ Rn,p , B ∈ Rk,m allora:
OA = O ∈ Rm,p e BO = O ∈ Rk,n .
4
allora:
AB = (30) ∈ R1,1 ,
mentre:
1 2 3 4
2 4 6 8
BA = ∈ R4,4 .
3 6 9 12
4 8 12 16
40 Matrici e Determinanti
È valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici
moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda
al Paragrafo 4.5.
Teorema 2.4 Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2 · · · An ) ≤ min{rank(A1 ), rank(A2 ), . . . , rank(An )}, (2.4)
quindi, in particolare, il rango del prodotto di matrici è minore o uguale del rango di
ciascun fattore.
Osservazione 2.6 È chiaro, anche se può sorprendere, che è necessario porre il segno di
disuguaglianza in (2.4), come si può per esempio notare dal fatto che:
0 1 0 1 0 0
= ,
0 0 0 0 0 0
infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0.
la matrice colonna dei termini noti, allora il sistema lineare (1.2) si può scrivere, in
notazione matriciale, come:
AX = B.
Definizione 2.6 Sia A ∈ Rn,n una matrice quadrata di ordine n. A si dice invertibile se
esiste una matrice X ∈ Rn,n tale che:
AX = XA = I, (2.5)
Dimostrazione Si supponga per assurdo che esistano due matrici diverse X, X 0 ∈ Rn,n
che verificano la (2.5). Allora:
X 0 = IX 0 = (XA)X 0 = X(AX 0 ) = XI = X
42 Matrici e Determinanti
che è assurdo. Si osservi che, nella dimostrazione, si è usata la proprietà associativa del
prodotto di matrici.
Per la matrice inversa valgono le seguenti proprietà la cui dimostrazione è lasciata per
esercizio.
Osservazione 2.7 Segue dal punto 1. e dalle proprietà del prodotto di matrici che l’in-
sieme:
GL(n, R) = {A ∈ Rn,n | A è invertibile}
è un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), noto come gruppo lineare
generale reale.
Si osservi che per risolvere l’esercizio si deve discutere e risolvere il sistema lineare
AX = I :
a11 a12 x11 x12 1 0
=
a21 a22 x21 x22 0 1
di quattro equazioni nelle quattro incognite x11 , x12 , x21 , x22 , che sono gli elementi della
matrice X.
allora:
1 4
t
A = 2 5 .
3 6
Se:
A= 1 2 3 4
allora:
1
t
2
A=
3 .
Osservazione 2.8 1. Si osservi che se una matrice è quadrata, allora anche la sua
trasposta è una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla
matrice di partenza, per esempio:
1 2 t 1 −1
A= , A= .
−1 0 2 0
2. Se una matrice è diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la
matrice stessa.
Per la trasposta di una matrice valgono le seguenti proprietà la cui dimostrazione è lasciata
per esercizio e si può leggere nel Paragrafo 2.9.
t
Teorema 2.7 1. (A + B) = tA + tB, A, B ∈ Rm,n .
si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della
diagonale principale, vale a dire se A = (aij ) con i, j = 1, 2, . . . , n, allora aij = 0
se i > j . È facile osservare che la somma di due matrici triangolari superiori è
ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero
reale per una matrice triangolare superiore. Molto più sorprendente è il fatto che il
prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, è ancora
una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice
C = (cij ) ∈ Rn,n prodotto delle matrici triangolari superiori A = (aij ) ∈ T (Rn,n )
e B = (bij ) ∈ T (Rn,n ). Per semplicità si calcola ora solo l’elemento c21 della
matrice prodotto C = AB , lasciando il calcolo in generale per esercizio. Da (2.3)
si ha:
c21 = a21 b11 + a22 b21 + . . . a2n bn1 = 0b11 + a22 0 + . . . + a2n 0 = 0,
aij = aji , i, j = 1, 2, . . . , n,
aij = −aji , i, j = 1, 2, . . . , n,
con I matrice unità di ordine n. Usando il fatto che, in modo equivalente alla de-
finizione, A è ortogonale se A tA = I , si verifichi per esercizio che ogni matrice
ortogonale A è invertibile con inversa A−1 = tA. Si verifichi inoltre che la traspo-
sta e l’inversa di una matrice ortogonale sono matrici ortogonali e che il prodotto
di due matrici ortogonali è ortogonale. Si stabilisca se la somma di due matrici
ortogonali è una matrice ortogonale e se il prodotto di una matrice ortogonale per
un numero reale è una matrice ortogonale. Le matrici ortogonali saranno di impor-
tanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le
loro proprietà saranno dimostrate nel Teorema 5.7.
AX = B (2.10)
YC =D (2.11)
con incognita Y, infatti operando con la trasposta su ambo i membri di (2.11) si ha:
t
C t Y = tD,
cioè ci si riconduce ad un’equazione matriciale del tipo (2.10), avendo cura di notare che
l’incognita della nuova equazione sarà t Y.
Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np
incognite. Infatti posto:
a11 a12 . . . a1n x11 x12 . . . x1p
a21 a22 . . . a2n x21 x22 . . . x2p
A= ∈ Rm,n , X= ∈ Rn,p ,
.. .. .. .. .. ..
. . . . . .
am1 am2 . . . amn xn1 xn2 . . . xnp
b11 b12 . . . b1p
b21 b22 . . . b2p
B= ∈ Rm,p ,
.. .. ..
. . .
bm1 bm2 . . . bmp
si procede con la riduzione per righe della matrice completa (A | B), per esempio nel
modo seguente:
2 3 1 1 2 2 2 3 1 1 2 2
−→
(A | B) = 1 0 1 0 1 −1 0 −3 1 −1 0 −4 ,
R2 → 2R2 − R1
0 3 −1 1 0 4 0 3 −1 1 0 4
da cui si deduce che rank(A) = rank(A | B) = 2, si ottengono cosı̀ infinite soluzioni che
dipendono da un elemento qualsiasi (a, b, c) di R3 . Ponendo:
X1
X = X2 ∈ R3,3
X3
e, quindi:
1 − 3a 1 − 3b 3 − 3c
X= a b c , (a, b, c) ∈ R3 .
−1 + 3a 3b −4 + 3c
Y1
t
X = Y = Y2 ∈ R3,2
Y3
segue che l’equazione tAY = tB è equivalente al sistema lineare:
Y1 + Y2 + Y3 = (1, 0)
Y2 = (−1, 1)
−Y1 = (0, 1),
e, quindi:
0 −1 2
X= .
−1 1 0
Il viceversa non può essere dimostrato a questo punto del corso, si rimanda al Paragrafo
4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X ∈ Rn,n
tale che AX = I (per il Teorema di Rouché–Capelli, cfr. Teor. 1.2), ma per dimostrare
che anche XA = I e dedurre quindi che X = A−1 si deve risolvere l’equazione ma-
triciale tA tX = I . Pertanto è necessario dimostrare che anche tA ha lo stesso rango di
A, e ciò sarà oggetto del Teorema 4.19. D’altro canto, se esistono due matrici X e Y,
entrambe appartenti a Rn,n , tali che AX = I e Y A = I allora segue X = Y infatti:
Y = Y I = Y (AX) = (Y A)X = IX = X.
Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante
la risoluzione dell’equazione matriciale AX = I. Un secondo metodo sarà spiegato nel
Paragrafo 2.8.2.
0 0 2 0
1 0 0 1
A=
0 −1
.
3 0
2 1 5 −3
Soluzione Si procede alla riduzione per righe della matrice (A | I), il calcolo del rango
di A è contenuto in questo procedimento:
0 0 2 0 1 0 0 0 1 0 0 1 0 1 0 0
1 0 0 1 0 1 0 0 −→ 0 −1 3 0 0 0 1 0
R1 ↔ R3
R2 ↔ R1
0 −1 3 0 0 0 1 0 0 0 2 0 1 0 0 0
2 1 5 −3 0 0 0 1 2 1 5 −3 0 0 0 1
52 Matrici e Determinanti
1 0 0 1 0 1 0 0
−→
0 1 −3 0 0 0 −1 0
R2 → −R2
R3 → (1/2)R3
0 1
0 1 0 0 0 0
R4 → R4 − 2R1
2
0 1 5 −5 0 −2 0 1
1 0 0 1 0 1 0 0
0 1 −3 0 0 0 −1 0
−→
R4 → R4 − R2
0 1
0 1 0 0 0 0
2
0 0 8 −5 0 −2 1 1
1 0 0 1 0 1 0 0
0 1 −3 0 0 0 −1 0
−→
.
R4 → R4 − 8R3
0 1
0 1 0 0 0 0
2
0 0 0 −5 −4 −2 1 1
4 3 1 1
1 0 0 0 −
5 5 5 5
3
−→ 0 1 0 0 0 −1 0
R1 → R1 − R4
2
.
1
R2 → R2 + 3R3 0 0 1 0 0 0 0
2
4 2 1 1
0 0 0 1 − −
5 5 5 5
stabilire per quali valori di h esiste la sua inversa. Determinare esplicitamente A−1
quando possibile.
Soluzione Si procede, come nell’esercizio precedente, alla riduzione per righe della
matrice completa (A | I).
1 −3 1 2 1 0 0 0
h −→
0 0 0 0 1 0 0
R2 → R2 − hR1
1 −1 0 0 0 0 1 0
R3 → R3 − R1
0 0 0 h 0 0 0 1
1 −3 1 2 1 0 0 0
0 3h −h −2h −h 1 0 0 −→
0 2 −1 −2 −1 0 1 0 R2 ↔ R3
0 0 0 h 0 0 0 1
1 −3 1 2 1 0 0 0
0 2 −1 −2 −1 0 1 0 −→
0 3h −h −2h −h 1 0 0 R3 → 2R3 − 3hR2
0 0 0 h 0 0 0 1
54 Matrici e Determinanti
1 −3 1 2 1 0 0 0
0
2 −1 −2 −1 0 1 0
,
0 0 h 2h h 2 −3h 0
0 0 0 h 0 0 0 1
a questo punto si deduce che rank(A) = 4 se e solo se h 6= 0, quindi solo in questo caso
esiste A−1 . Si assume perciò h 6= 0 e si procede con la riduzione per ottenere la matrice
inversa:
1 −3 1 2 1 0 0 0
−→
1 1 1
R2 → (1/2)R2 0 1 − 2 −1 − 2
0
2
0
R3 → (1/h)R3 2
0 0 1 2 1 −3 0
h
R4 → (1/h)R4
1
0 0 0 1 0 0 0
h
2
1 −3 1 0 1 0 0 −
h
−→
1 1 1 1
0 1 − 0 − 0
R3 → R3 − 2R4
2 2 2 h
R2 → R2 + R4
2 2
0 0 1 0 1 −3 −
R1 → R1 − 2R4 h h
1
0 0 0 1 0 0 0
h
2
1 −3 0 0 0 −
h
3 0
1
0 1 0 0 0 −1 0
−→ h
R2 → R2 + (1/2)R3 ,
2 2
R1 → R1 − R3 0 0
1 0 1 −3 −
h h
1
0 0 0 1 0 0 0
h
Capitolo 2 55
1
1 0 0 0 0
h
0 0
1
0 1 0 0 0 −1 0
−→
h
,
R1 → R1 + 3R2
2 2
0 0 1 0 1 −3 −
h h
1
0 0 0 1 0 0 0
h
Il teorema che segue è un corollario del Teorema 2.4, lo stesso risultato si otterrà, con
metodi diversi, nel Capitolo 7.
Le proprietà della traccia di una matrice quadrata sono elencate nel seguente teorema.
Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti proprietà:
2. tr(λA) = λ tr(A),
per ogni A ∈ Rn,n e per ogni matrice invertibile P di Rn,n , proprietà che sarà molto
importante nel Capitolo 7.
Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla è uguale a zero,
cosı̀ come è uguale a zero la traccia di una matrice antisimmetrica.
2.8 Il determinante
Scopo di questo paragrafo è quello di associare ad ogni matrice quadrata un particolare
numero reale detto determinante della matrice in modo da dimostrare il seguente teorema.
Teorema 2.11 Una matrice quadrata A è invertibile se e solo se il suo determinante non
è uguale a zero.
Il determinante di una matrice quadrata è anche spesso indicato con due tratti verticali che
sostituiscono le parentesi tonde della matrice. Nel caso della matrice A di ordine 2 si ha:
a11 a12
a21 a22 = a11 a22 − a12 a21 .
Osservando con attenzione lo sviluppo del determinante nel caso della matrice quadrata
di ordine 2, si nota che compaiono due addendi, ciascuno dei quali è il prodotto di due
fattori il cui primo indice corrisponde alla sequenza (1, 2) e il secondo indice corrisponde
alle due permutazioni di (1, 2): (1, 2) e (2, 1). La prima permutazione (pari) impone
il segno positivo all’addendo a11 a22 , la seconda permutazione (dispari) impone il segno
negativo all’addendo a12 a21 .
Si può cosı̀ indovinare la regola per calcolare il determinante di una matrice quadrata
qualsiasi. A questo scopo, si controlli ancora lo sviluppo del determinante nel caso delle
matrici di ordine 3. L’esempio che segue riassume, nel caso particolare dell’ordine 3,
la teoria dei determinanti delle matrici di ordine n che verrà successivamente esposta. Si
consiglia di studiarlo con grande attenzione e farne riferimento per dimostrare le proprietà
generali dei determinanti che verranno man mano elencate.
Esempio 2.14 È noto dal calcolo combinatorio che le permutazioni dei numeri 1, 2, 3
sono 3! = 6, tre di esse sono pari e sono dette permutazioni circolari, ossia: (1, 2, 3),
(3, 1, 2), (2, 3, 1) e tre sono dispari: (1, 3, 2), (3, 2, 1), (2, 1, 3). Più precisamente, se a
partire dalla terna (1, 2, 3) si perviene alla terna (2, 1, 3) si è effettuato uno scambio che
comporta un segno negativo associato alla permutazione (2, 1, 3), effettuati due scambi si
ha segno positivo e cosı̀ via. Per meglio visualizzare le permutazioni e contare il numero
degli scambi intermedi in modo da ottenere il segno della permutazione finale è utile la
classica notazione del calcolo combinatorio:
1 2 3
↓ ↓ ↓
σ(1) = 2 σ(2) = 1 σ(3) = 3,
dove σ indica una permutazione di 1, 2, 3 e non è altro che una funzione biiettiva dall’in-
sieme {1, 2, 3} in sé.
58 Matrici e Determinanti
Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2, “si indo-
vina” lo sviluppo del determinante di una matrice quadrata di ordine 3, ponendo:
a11 a12 a13
a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31
a31 a32 a33
−a11 a23 a32 − a13 a22 a31 − a12 a21 a33
X
= (σ)a1σ(1) a2σ(2) a3σ(3) ,
σ
dove σ indica una qualsiasi permutazione dei numeri 1, 2, 3 e (σ) è il suo segno. Si
osserva che, per costruzione, ogni addendo a1σ(1) a2σ(2) a3σ(3) contiene un elemento ap-
partenente a ciascuna riga e a ciascuna colonna della matrice A. In altri termini in ogni
addendo non esistono due elementi appartenenti ad una stessa riga o ad una stessa colonna
di A, perché σ è una biiezione.
dove σ indica una qualsiasi permutazione dei numeri 1, 2, . . . , n e (σ) è il suo segno.
Osservazione 2.10 Come già osservato nell’Esempio 2.14, in ogni addendo della som-
ma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna
della matrice A, inoltre ogni addendo di (2.14) è il prodotto di n elementi della matrice
quadrata A appartenenti ad ogni riga e ad ogni colonna di A.
Teorema 2.12 1. Sia A una matrice quadrata di ordine n avente una riga (oppure
una colonna) formata da tutti 0, allora det(A) = 0.
mentre:
a a
det( A) = 11 21
t
= a11 a22 − a21 a12 = a11 a22 − a12 a21 = det(A);
a12 a22
Se a44 = 0 l’ultima riga è formata da tutti zeri e pertanto det(A) = 0, da cui la tesi.
Se a44 6= 0, l’unico elemento non nullo dell’ultima riga è a44 , quindi la formula
precedente si riduce a:
X
det(A) = (σ)a1σ(1) a2σ(2) a3σ(3) a44 , (2.15)
σ
con σ permutazione dei numeri 1, 2. Procedendo allo stesso modo si perviene alla
tesi.
60 Matrici e Determinanti
Teorema 2.13 Sia A una matrice quadrata di ordine n ridotta per righe, allora:
rank(A) = n ⇐⇒ det(A) 6= 0
e, in modo equivalente:
rank(A) < n ⇐⇒ det(A) = 0.
1 0 0 0
ridotta per righe e il cui rango è 4.
Soluzione Si procede con l’applicazione delle tre operazioni di riduzione alla matrice
A nel modo seguente:
1 2 3 4 −→ 1 2 3 4
1 2 0 3 R2 → R2 − R1 0 0 −3 −1
5 0 0 2 R3 → R3 − 5R1 0 −19 −15 −18
1 0 0 0 R4 → R4 − R1 0 −2 −3 −4
−→
1 2 3 4 1 2 3 4
R2 → −R2 0 19 15 18 −→ 0 19 15 18
R3 → −R3
0 0 3 1 R4 → 19R4 − 2R2
0 0 3 1
R4 → −R4
0 2 3 4 0 0 27 40
R2 ↔ R3
1 2 3 4
−→ 0 19 15 18
,
R4 → 3R4 − 27R3 0 0 3 1
0 0 0 93
Capitolo 2 61
ottenendo cosı̀ una matrice triangolare superiore che ha, ovviamente, ancora rango 4.
Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni proprietà relativa al
calcolo del determinante dimostrata per le righe di una matrice quadrata è anche valida
per le colonne.
Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata
qualsiasi.
Teorema 2.14 1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una
matrice quadrata A per un numero reale λ, allora il determinante di A viene
moltiplicato per λ.
2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A,
allora il determinante di A cambia di segno.
3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo.
4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante
nullo.
invece:
a21 a22
= a21 a12 − a22 a11 = −a11 a22 + a12 a21 .
a11 a12
3. Segue dalla proprietà precedente, infatti scambiando due righe (colonne) uguali
di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio
det(A) = a, dopo lo scambio det(A) = −a (per la proprietà precedente), ma
poiché la matrice non cambia allora a = −a, da cui la tesi.
62 Matrici e Determinanti
4. Segue da 1. e da 3.
Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha il teorema che segue.
rank(A) = n ⇐⇒ det(A) 6= 0
e, in modo equivalente:
Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma trian-
golare superiore:
1 −1 2 1
3 1 1 2
A= .
2 2 −2 1
1 0 1 −1
1 −1 2 1 −1 1 2 1
−→
3 1 1 2 −→ 1 3 1 2
R2 → R2 + R1
−
2 2 −2 1 C1 ↔ C2
2 2 −2 1
R3 → R3 + 2R1
1 0 1 −1 0 1 1 −1
−1
−1 1 2 1
1 2 1
−→ −→
0
0 4 3 3
4 3 3
R3 → R3 − R2
0 0 −1 0 R3 → −R3
0 4 2 3
R4 → R4 − (1/4)R2
1 7 R4 → 4R4
0 1 1 −1 0 0 −
4 4
−1 1 2 1 −1 1 2 1
1 0 4 3 3 −→ 1 0 4 3 3
−
R4 → R4 − R3 − = −7.
4 0 0 1 0 4 0 0 1 0
0 0 1 −7 0 0 0 −7
Il teorema che segue stabilisce importanti proprietà del determinante in relazione al pro-
dotto di una matrice per uno scalare e al prodotto di matrici.
a11 a12 a13
a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a11 a23 a32
a31 a32 a33 −a13 a22 a31 − a12 a21 a33
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 )
+a13 (a21 a32 − a22 a31 )
a a
= a11 22 23 − a12 a21 a23 + a13 a21 a22
a32 a33 a31 a33 a31 a32
a a
= a31 12 13 − a32 a11 a13 + a33 a11 a12
a22 a23 a21 a23 a21 a22
a a
= −a12 21 23 + a22 a11 a13 − a32 a11 a13
.
a31 a33 a31 a33 a21 a23
Capitolo 2 65
Definizione 2.10 Sia A = (aij ) ∈ Rn,n ; si definisce minore dell’elemento aij il determi-
nante Mij della matrice di ordine n − 1 che si ottiene da A togliendo l’i-esima riga e la
j -esima colonna.
Esempio 2.17 Nell’Esempio 2.16 il cofattore dell’elemento a12 è A12 = −M12 = −64.
L’Esempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante
di una matrice quadrata di ordine qualsiasi.
Teorema 2.17 – Primo Teorema di Laplace – Il determinante di una matrice quadrata
A = (aij ) ∈ Rn,n è dato da:
n
X n
X
det(A) = aik Aik = ahj Ahj , (2.16)
k=1 h=1
Dimostrazione È evidente conseguenza della seconda proprietà del Teorema 2.14, in-
fatti (2.17) si può interpretare come lo sviluppo del determinante di un matrice in cui, nel
primo caso, la riga j -esima coincide con la riga i-esima e nel secondo caso, la colonna
j -esima coincide con la colonna i-esima.
che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe.
Considerando, invece, la Definizione 2.13 di rango si vede subito che ogni minore di A
di ordine 3 è uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due
righe proporzionali. Invece:
2 4
0 1 =2
da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.
Teorema 2.19 Sia A una matrice quadrata di ordine n, se det(A) 6= 0 allora esiste
l’inversa di A e:
1
A−1 = adj(A).
det(A)
Dimostrazione Sia:
1
B = (bij ) = adj(A),
det(A)
il teorema è dimostrato se AB = (cij ) = I , in altri termini se cij = δij , dove δij è il
simbolo di Kronecker, ossia δii = 1 e δij = 0, i 6= j . Si calcola:
n n
X 1 X 1
cii = aik bki = aik Aik = det(A) = 1;
k=1
det(A) k=1 det(A)
Osservazione 2.13 Il teorema precedente insieme con il Teorema 2.16 e il Teorema 2.13
permettono di concludere che, nel caso di una matrice quadrata A ∈ Rn,n :
Esempio 2.21 È agevole applicare il metodo di calcolo della matrice inversa appena
introdotto nel caso di una matrice quadrata di ordine 2, infatti se:
a11 a12
A=
a21 a22
e det(A) 6= 0 allora:
−1 1 a22 −a12
A = .
det(A) −a21 a11
dove X ∈ Rn,1 è la matrice delle incognite e B ∈ Rn,1 è la matrice colonna dei termini
noti. Poiché det(A) 6= 0, A è invertibile e quindi è possibile moltiplicare a sinistra ambo
i membri di (2.20) per A−1 , ottenendo cosı̀:
X = A−1 B.
In generale si ha:
a11 a12 . . . b1 . . . a1n
a21 a22 . . . b2 . . . a2n
1
.. .. .. ..
. . . .
xi = , i = 1, 2, . . . , n, (2.21)
det(A)
.. .. .. ..
. . . .
an1 an2 . . . bn . . . ann
Teorema 2.20 – Teorema di Cramer – In un sistema lineare del tipo (2.19) di n equa-
zioni in n incognite la cui matrice A dei coefficienti ha determinante diverso da zero la
i-esima incognita si ottiene dalla formula (2.21).
tale che le prime r righe di A0 formino una matrice di rango r. Equivalentemente non
è restrittivo supporre che dalle prime r righe di A0 sia possibile estrarre una matrice
quadrata C di ordine r e di rango r. Infatti, se cosı̀ non fosse si avrebbe rank(A) =
rank(A0 ) ≤ r − 1, perché ogni matrice quadrata di ordine r estratta da A0 avrebbe
determinante nullo (cfr. Def. 2.13). Portando a secondo membro le colonne di A0 diverse
da quelle di C si ottiene la matrice completa (C | B 00 ) di un nuovo sistema lineare con r
incognite e con det(C) 6= 0, equivalente a quello di partenza. Quest’ultima affermazione
è vera perché le operazioni di riduzione per righe trasformano il sistema lineare in un altro
ad esso equivalente e dal fatto che il rango di C sia r segue che il sistema lineare ammette
infinite soluzioni che dipendono da n − r incognite libere che sono, con questo metodo,
proprio quelle portate a secondo membro (cfr. Cap.1). In questo modo, utilizzando il
Teorema di Cramer si possono esprimere le r incognite in funzione delle rimanenti n − r
incognite libere. Segue un esempio di ciò che è stato appena osservato.
La soluzione è:
−1−z 3 1 −1−z
z 2 2 −1 z 1
x= = −z − , y= =− , z ∈ R.
5 5 5 5
che è l’espressione del generico elemento della matrice a primo membro. Per il secondo
membro si ha BC = (fij ) ∈ Rn,l , con:
p
X
fij = bih chj
h=1
t
(AB) = tB tA, A ∈ Rn,p , B ∈ Rp,m .
La matrice tA = (eij ) di Rp,n ha elementi del tipo eij = aji . La matrice tB = (fij )
di Rm,p ha elementi del tipo fij = bji . La matrice prodotto tB tA = (gij ) di Rm,n ha
elementi del tipo:
p p p
X X X
gij = fik ekj = bki ajk = ajk bki ,
k=1 k=1 k=1
Soluzione Date le matrici A = (aij ) ∈ Rn,n e B = (bij ) ∈ Rn,n , gli elementi della
diagonale principale del prodotto AB sono:
n
X
cii = aih bhi ,
h=1
quindi:
n
X n
X
tr(A B) = cll = alh bhl . (2.24)
l=1 h,l=1
Siano dii gli elementi della diagonale principale del prodotto BA, si ha:
n
X
dii = bik aki ,
k=1
la traccia di BA diventa:
n
X n
X
tr(B A) = dmm = bmk akm
m=1 m,k=1
Calcolo Vettoriale
75
76 Calcolo Vettoriale
Per definizione, la norma di ogni vettore è un numero reale positivo, eventualmente nullo.
Se il vettore x è individuato dai punti A e B dello spazio, per indicarlo si potranno usare,
−→ −→
indifferentemente, le seguenti notazioni: x, AB , B − A, [AB]. Inoltre AB è detto un
rappresentante del vettore x; per abbreviare si scriverà:
−→
x = AB.
Segue dalla definizione che lo stesso vettore x ammette infiniti rappresentanti, per esem-
pio la coppia di punti C, D dello spazio tali che i segmenti AB e CD siano paralleli,
−→ −−→
abbiano la stessa lunghezza e lo stesso verso, cioè x = AB = CD.
Se A = B , il segmento ottenuto, che ha come rappresentante A e anche un qualsiasi
punto dello spazio, si indica con o e prende il nome di vettore nullo. Il vettore nullo o è
l’unico vettore di norma uguale a zero ed ha direzione e verso indeterminati.
Se kxk = 1, x si dice versore. Sarà molto utile il concetto di versore in quanto permetterà
di individuare agevolmente l’unità di misura.
Se si fissa un punto O nello spazio S3 e si identifica, di conseguenza, ogni vettore x con il
−→
punto P dato da x = OP allora lo spazio S3 coincide con l’insieme dei vettori dello spa-
zio che si indica con V3 , analogamente, S2 (fissato il punto O) si identifica con l’insieme
dei vettori V2 di un piano e S1 con l’insieme dei vettori V1 di una retta. Il significato dei
numeri 1, 2, 3 in V1 , V2 , V3 sarà discusso ampiamente in questo capitolo. Si osservi inol-
tre che, se non viene fissato il punto O, V1 si può interpretare geometricamente come una
qualsiasi retta dello spazio di direzione uguale a quella dei suoi vettori, V2 invece si può
visualizzare geometricamente come un qualsiasi piano dello spazio parallelo ai vettori ad
esso appartenenti. I vettori per cui non è indicato il punto di applicazione prendono anche
il nome di vettori liberi. V1 e V2 vengono, rispettivamente, chiamati retta vettoriale e
piano vettoriale.
Nel Paragrafo 3.10 viene data una formulazione più rigorosa della Definizione 3.1; per
quello che segue, però, è sufficiente che il Lettore abbia un’idea intuitiva di questo con-
cetto.
Capitolo 3 77
Nei due paragrafi successivi si introdurranno alcune operazioni tra vettori, iniziando dalla
somma di vettori e dal prodotto di un numero reale per un vettore. È molto importante
osservare che queste operazioni (ovviamente con una definizione diversa da quella che
sarà di seguito presentata) sono già state introdotte nell’insieme delle matrici, nel capitolo
precedente. Sarà sorprendente notare che per le operazioni tra vettori saranno valide le
stesse proprietà dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo
sarà dedicato allo studio assiomatico degli insiemi su cui è possibile definire operazioni
di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui l’insieme delle
matrici Rm,n e gli insiemi dei vettori V3 , V2 , V1 sono esempi.
+ : V3 × V3 −→ V3 , (x, y) 7−→ x + y,
−→ −−→
dove il vettore x + y è cosı̀ definito: fissato un punto O di S3 , siano OA e OB due
−→
segmenti orientati rappresentanti di x e y, rispettivamente, allora x + y = OC , dove
−→
OC è il segmento orientato che si determina con la regola del parallelogramma, illustrata
nella Figura 3.1.
B C
y x+y
O x A
Osservazione 3.1 1. La definizione di somma di vettori è ben data. Vale a dire, facen-
do riferimento alle notazioni della Definizione 3.2, se si cambiano i rappresentanti
di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del
78 Calcolo Vettoriale
−→
parallegramma, ha la stessa direzione, lo stesso verso e la stessa norma di OC . La
situazione geometrica è illustrata nella Figura 3.2, la dimostrazione di questa af-
fermazione, che segue in modo elementare dalle proprietà dei parallelogrammi, è
lasciata al Lettore.
4. Per ogni vettore x (non nullo) esiste l’opposto −x, che è il vettore parallelo ad x
avente la stessa norma di x ma verso opposto. Quindi:
x + (−x) = o.
Si osservi, inoltre, che anche il vettore nullo o ammette l’opposto, che coincide con
il vettore nullo stesso.
1. x + y = y + x, x, y ∈ V3 (proprietà commutativa);
Inoltre:
5. kxk − kyk ≤ kx + yk ≤ kxk + kyk, x, y ∈ V3 .
Capitolo 3 79
B C
x+y
y
O x A
B' C'
x+y
y
O' x A'
Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti
x y x
y
x+y
x+y
x − y = x + (−y).
La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresenta-
ta dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia
per esercizio la rappresentazione grafica della differenza di due vettori paralleli.
5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari
con x, esistono e sono unici due vettori x1 ed x2 in quelle direzioni, tali che:
x = x1 + x2 .
x4
x3
x1 + x2 + x3 + x4
x2
x1
-y x-y
dove il vettore λx (detto anche prodotto dello scalare λ per x) è definito nel modo
seguente:
1. se λ = 0 o x = o, allora λx = o.
2. Se λ 6= 0 e x 6= o si pone λx = y, dove:
la direzione di y coincide con la direzione di x;
il verso di y è concorde con quello di x se λ > 0, discorde se λ < 0;
kyk = |λ|kxk, dove |λ| indica il valore assoluto del numero reale λ.
2. (λ + µ)x = λx + µx, λ, µ ∈ R, x ∈ V3 ;
3. λ(µx) = (λµ)x, λ, µ ∈ R, x ∈ V3 ;
4. 1 x = x, x ∈ V3 .
rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e
y in V2 e per ogni λ ∈ R si ha che x + y ∈ V2 e λx ∈ V2 (analogamente per V1 ). Inoltre,
in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti
ad un piano vettoriale qualsiasi) si può pensare che V1 ⊂ V2 ⊂ V3 .
Seguono alcune definizioni e proprietà di tipo teorico, che saranno riprese in modo com-
pleto nel capitolo successivo. Si è deciso di inserire in questo contesto ciò che segue,
anche se i risultati che si ottengono saranno conseguenza della teoria più generale degli
spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V3 è pos-
sibile rappresentare graficamente le nozioni man mano introdotte, aiutando cosı̀ la loro
comprensione.
x = x1 v 1 + x2 v 2 + . . . + xk v k .
Osservazione 3.5 Segue in modo evidente dalla definizione che L(x, y) = L(y, x). Non
ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde,
usualmente usate per indicare che è importante l’ordine dei vettori; è una convenzione
usare questa notazione anche se non è corretta.
x1 v 1 + x2 v 2 + . . . + xk v k = o =⇒ x1 = x2 = . . . = xk = 0. (3.1)
Prima di proporre alcuni esempi conviene enunciare il teorema che segue, molto facile,
ma utile per riconoscere vettori linearmente dipendenti o linearmente indipendenti. Per la
dimostrazione si rimanda al Paragrafo 4.3.
λo + 0x = o,
per ogni λ ∈ R, quindi anche per valori non nulli di λ. In particolare, l’insieme
contenente solo il vettore nullo {o} non è libero.
Capitolo 3 85
3. Gli elementi di L(x) sono tutti linearmente dipendenti tra di loro, ma la stessa
proprietà non vale per L(x, y), si vedrà infatti nel Teorema 3.4 che due vettori non
paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi
banale da considerazioni geometriche elementari.
Il teorema che segue conclude lo studio del parallelismo e della complanarità tra vettori
mediante la dipendenza lineare.
Ecco, finalmente, una prima definizione algebrica del numero che si legge a pedice!
kxk
|λ| =
kyk
K C
B z
O x A H
C
D
v3
x
v2
B
O
H
v1 A
x = x1 v 1 + x2 v 2 + x3 v 3 , (3.4)
(x1 , x2 , x3 ) 6= (y1 , y2 , y3 )
e per cui:
x = y1 v1 + y2 v2 + y3 v3 . (3.5)
Uguagliando (3.4) e (3.5) segue:
x = x1 v 1 . (3.7)
Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V3 è indi-
viduata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano
vettoriale V2 è sufficiente scegliere due vettori linearmente indipendenti per individuare
tutti i vettori di V2 e nel caso di una retta vettoriale V1 è sufficiente scegliere un qualsiasi
vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di
definire in modo inequivocabile i concetti fondamentali di base e di dimensione nel modo
che segue.
Definizione 3.7 1. Si dice base di V3 una qualsiasi terna ordinata di vettori linear-
mente indipendenti. Si dice dimensione di V3 il numero dei vettori di una base e si
indica con dim(V3 ) = 3.
2. Si dice base di un piano vettoriale V2 una qualsiasi coppia ordinata di vettori li-
nearmente indipendenti di V2 . Si dice dimensione di V2 il numero dei vettori di una
base e si indica con dim(V2 ) = 2.
Capitolo 3 89
3. Si dice base di una retta vettoriale V1 un suo qualsiasi vettore non nullo. Si dice
dimensione di V1 il numero dei vettori di una base e si indica con dim(V1 ) = 1.
Una base di V3 verrà indicata con la notazione B = (v1 , v2 , v3 ). In questo caso l’ordine
con cui si scrivono i vettori è importante perché determina l’ordine con cui si scrivono
i coefficienti (x1 , x2 , x3 ) della combinazione lineare (3.4). In modo analogo una base
di un piano vettoriale V2 sarà B 0 = (v1 , v2 ) e una base di una retta vettoriale V1 sarà
B 00 = (v1 ).
v3
v2
a
v1
Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari
Osservazione 3.8 Dati tre vettori complanari (non paralleli) v1 , v2 , v3 si ha che ogni vet-
tore x appartenente al piano vettoriale individuato da v1 , v2 , v3 , si decompone in infiniti
modi diversi rispetto ai tre vettori dati. Per esempio è sufficiente scegliere una direzione
arbitraria individuata da un vettore a come combinazione lineare di v1 , v2 e decomporre
x rispetto alle direzioni individuate da v3 e a; oppure decomporre x rispetto ad una di-
rezione arbitraria b ottenuta come combinazione lineare di v2 e v3 e cosı̀ via (cfr. Oss.
3.2 punto 5.). La situazione geometrica è descritta nella Figura 3.8 in cui si è posto, per
esempio, a = v1 + v2 e x = λa + µv3 ed inoltre si è posto b = v2 + v3 e x = νb + ϕv1 ,
dove λ, µ, ν, ϕ sono opportuni numeri reali.
90 Calcolo Vettoriale
Definizione 3.8 Fissata una base B = (v1 , v2 , v3 ) di V3 , per ogni vettore x di V3 gli
elementi dell’unica terna ordinata di numeri reali (x1 , x2 , x3 ) definita da (3.4) sono detti
le componenti di x rispetto alla base B. In modo analogo la formula (3.6) definisce
le componenti di un generico vettore x del piano vettoriale V2 rispetto alla base B 0 =
(v1 , v2 ) di V2 e la formula (3.7) definisce la componente di un generico vettore x di una
retta vettoriale V1 rispetto alla base B 00 = (v1 ).
Osservazione 3.9 Nel caso di V3 , fissata una base B = (v1 , v2 , v3 ), si è definita una
corrispondenza biunivoca tra V3 e R3 che associa ad ogni vettore x le sue componenti.
Spesso si scrive, con un abuso di notazione:
x = (x1 , x2 , x3 )
Al vettore λx si associa la matrice colonna delle sue componenti rispetto alla base B:
λ x1
λX = λ x2 .
λ x3
Analoghe affermazioni valgono anche nel caso di un piano vettoriale V2 e di una retta
vettoriale V1 .
Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare
dei vettori mediante le loro componenti. Si farà uso delle nozioni di rango di una matrice
e del Teorema di Rouché–Capelli introdotti nel Capitolo 1 per la risoluzione dei sistemi
lineari.
y = λx.
92 Calcolo Vettoriale
Per esempio i vettori x = (1, −2, 3) e y = (2, −4, 6) sono paralleli, mentre i vettori
x e z = (1, 0, 3) non lo sono. Il rango della matrice:
x1 x2 x3
y1 y2 y3
è pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore
nullo. Il rango di questa matrice è 0 se e solo se x = y = o.
2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono
linearmente dipendenti, ossia per esempio se esistono i numeri reali λ e µ per cui:
z = λx + µy. (3.8)
le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste
componenti, equivale al sistema lineare:
z1 = λx1 + µy1
z2 = λx2 + µy2
z3 = λx3 + µy3
Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta è
proprio 2, invece se i vettori x e y sono paralleli, allora anche il vettore z è ad essi
parallelo e il rango della matrice vale 1. Il rango è 0 se e solo se x = y = z = o.
Capitolo 3 93
Soluzione Si consideri la matrice A, quadrata di ordine tre, le cui righe sono date dalle
componenti dei tre vettori:
1 3 −1
A= 4 1 0 ,
2 −5 2
riducendo A per righe si ha:
1 3 −1 1 3 −1
−→
A= 4 1 0 4 1 0 .
R3 → R3 + 2R1
2 −5 2 4 1 0
Quindi rank(A) = 2 e ciò implica che i tre vettori sono complanari (infatti sono linear-
mente dipendenti). Poiché i vettori a e b non sono paralleli (infatti sono linearmente
indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due
numeri reali λ e µ tali che:
c = λa + µb.
Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al
sistema lineare:
λ + 4µ = 2
3λ + µ = −5
−λ = 2
Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere
riassunti nel seguente teorema.
si ha:
rank(A) = 3 ⇐⇒ ∃A−1 ⇐⇒ det(A) 6= 0.
Equivalentemente, i vettori x, y, z sono linearmente dipendenti se e solo se:
rank(A) < 3.
Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il
terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece
rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo)
sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o.
Affinché i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo
deve ammettere la sola soluzione nulla. Questo accade se e solo se:
Capitolo 3 95
x1 y1 z1
rank x2 y2 z2 = 3.
x3 y3 z3
Si osservi che la matrice ottenuta è la trasposta della matrice A in (3.9). Si dovrà attende-
re la dimostrazione del Teorema 4.19 per assicurare l’equivalenza dei due procedimenti
seguiti per pervenire alla tesi. Il risultato, in realtà, è intuitivamente accettabile, tenendo
conto che det(A) = det(tA).
Esercizio 3.2 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u1 = (1, 0, −h), u2 = (2, −1, 1), u3 = (h, 1, −1),
stabilire per quali valori di h ∈ R essi formano una base di V3 .
Soluzione I tre vettori dati formano una base di V3 se e solo se sono linearmente
indipendenti, ossia se la matrice A :
1 0 −h
A = 2 −1 1
h 1 −1
ha det(A) 6= 0. Poiché det(A) = −h(2 + h) si ha che i vettori u1 , u2 , u3 formano una
base di V3 se e solo se h ∈
/ {−2, 0}.
Esercizio 3.3 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = v1 − v2 + 3v3 , v = 2v1 + v2 − v3 , w = v1 + 2v2 + v3 ,
dimostrare che costituiscono una base di V3 .
Soluzione Si tratta di dimostrare che il rango della matrice:
1 −1 3
A= 2 1 −1
1 2 1
è 3. Riducendola per righe si ha:
1 −1 3 −→ 1 −1 3
A= 2 1 −1 R2 → R2 + R1 3 0 2
1 2 1 R3 → R3 + 2R1 3 0 7
1 −1 3
−→ 3 0 2 ,
R3 → R3 − R2
0 0 5
96 Calcolo Vettoriale
da cui la tesi.
Esercizio 3.4 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = 2v1 + v2 − v3 , v = v1 + v3 , w = v1 + v2 − 2v3 .
Verificare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come com-
binazione lineare dei rimanenti.
Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefficienti reali
λ, µ e ν e la si ponga uguale al vettore nullo:
λu + µv + νw = o.
Sostituendo nella combinazione lineare l’espressione dei vettori scritta rispetto alla base
B, si ha:
λ(2v1 + v2 − v3 ) + µ(v1 + v3 ) + ν(v1 + v2 − 2v3 )
= (2λ + µ + ν)v1 + (λ + ν)v2 + (−λ + µ − 2ν)v3 = o.
Si è cosı̀ ottenuta una combinazione lineare dei vettori della base B che è uguale al vettore
nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefficienti
di tale combinazione lineare devono essere nulli, ossia:
2λ + µ + ν = 0
λ+ν =0
−λ + µ − 2ν = 0.
Siano date due basi B = (v1 , v2 , v3 ) e B 0 = (v10 , v20 , v30 ) di V3 . Ogni vettore x ∈ V3 si
scrive in componenti, rispetto alla due basi, nella forma:
x = x1 v1 + x2 v2 + x3 v3 = x01 v10 + x02 v20 + x03 v30 . (3.10)
Usando la notazione matriciale introdotta nel paragrafo precedente, si indichino con:
0
x1 x1
X = x2 , X 0 = x02 (3.11)
0
x3 x3
le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base B 0 è
nota quando sono note le componenti dei suoi vettori rispetto alla base B, ossia:
0
v1 = p11 v1 + p21 v2 + p31 v3
v0 = p12 v1 + p22 v2 + p32 v3 (3.12)
20
v3 = p13 v1 + p23 v2 + p33 v3 .
In altri termini, la base B 0 è nota quando è assegnata la matrice:
p11 p12 p13
P = p21 p22 p23 .
p31 p32 p33
P è invertibile perché le sue colonne sono le componenti di vettori linearmente indipen-
denti. La matrice P prende il nome di matrice del cambiamento di base da B a B 0 ed è
0
spesso anche indicata come P = M B,B proprio per mettere maggiormente in evidenza
la sua interpretazione geometrica. La scelta di porre in colonna, anziché in riga, le com-
ponenti dei vettori della base B 0 rende i calcoli più agevoli. Le equazioni (3.12) in forma
matriciale diventano: 0
v1 v1
v20 = tP v2 .
v30 v3
Sostituendo questa espressione in (3.10) si ha:
0
v 1 v1 v 1
x = x1 x2 x3 v2 = x01 x02 x03 v20 = x01 x02 x03 tP v2 .
v3 v30 v3
98 Calcolo Vettoriale
X = P X 0,
che sono le relazioni richieste e che prendono il nome di equazioni del cambiamento di
base da B a B 0 .
2. Si può trattare in modo analogo il problema del cambiamento di base nel caso del
piano vettoriale V2 . La matrice del cambiamento di base sarà una matrice invertibile
di ordine 2.
3. Nel caso della retta vettoriale V1 ogni numero reale non nullo esprime la compo-
nente del vettore della base B 0= (v10 ) rispetto alla base B = (v1 ). Se per esempio
v10 = 2v1 , allora P = 2 , mentre le equazioni del cambiamento di base si
riducono all’unica equazione: x1 = 2x01 o x01 = 1/2 x1 . Infatti:
1
x = x 1 v1 = x01 v10 = x1 2v1 .
2
Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono,
rispettivamente, le componenti dei vettori u, v, w.
2 −1 1 −→
P = 1 2 −1 R2 → R2 + 2R1
1 1 −2 R3 → R3 + R1
2 −1 1 2 −1 1
5 −→
0 1 5 0 1 .
R3 → R3 + R2
3 0 −1 8 0 0
che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da
B a B0 : 0
2x1 − x02 + x03 = −1
x0 + 2x02 − x03 = −2
10
x1 + x02 − 2x03 = 1.
Riducendo per righe la matrice completa si ha: