Sei sulla pagina 1di 710

Algebra Lineare e Geometria Analitica

Volume I

E. Abbena, A.M. Fino, G.M. Gianella

12 marzo 2011
2
3

Prefazione
Con l’attivazione delle lauree triennali, i corsi universitari hanno subı̀to una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso l’Università di Torino, costituisce ora
un testo completo che può essere anche utilizzato nelle Facoltà di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo più tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
Il testo è di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po’ di-
verso per stile ed impostazione dagli usuali testi universitari del settore, al fine di soste-
nere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore
all’Università.
In quasi tutti i capitoli del primo volume è stato inserito un paragrafo dal titolo “Per
saperne di più” non solo per soddisfare la curiosità del Lettore ma con il preciso obiettivo
di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno
occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree
Triennali e Magistrali.
Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro,
saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base
per la maggior parte delle discipline scientifiche, rendendola appassionante.
La figure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico
Mathematica, versione 7. Alcuni esercizi proposti sono particolarmente adatti ad essere
risolti con Mathematica o con Maple.
Per suggerimenti, osservazioni e chiarimenti si invita a contattare gli Autori agli indirizzi
e-mail: elsa.abbena@unito.it, annamaria.fino@unito.it, gianmario.gianella@unito.it.
4

II di copertina: Ringraziamenti

Grazie ai Colleghi di Geometria del Dipartimento di Matematica dell’Università di Torino


per il loro prezioso contributo.
Grazie al Prof. S.M. Salamon per tanti utili suggerimenti e per la realizzazione di molti
grafici. Grazie ai Proff. Sergio Console, Federica Galluzzi, Sergio Garbiero e Mario
Valenzano per aver letto il manoscritto.
Un ringraziamento particolare agli Studenti del Corso di Studi in Fisica dell’Univer-
sità di Torino, la loro partecipazione attiva e il loro entusiasmo hanno motivato questa
esperienza.
5

IV di copertina

Gli autori
Elsa Abbena, professore associato di Geometria presso la Facoltà di Scienze Matematiche
Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca su argomenti
di geometria differenziale. Ha tenuto innumerevoli corsi di algebra e di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Anna Fino, professore associato di Geometria presso la Facoltà di Scienze Matematiche
Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca su argomenti
di geometria differenziale e complessa. Ha tenuto per vari anni un corso di geometria e
algebra lineare presso il corso di Laurea in Fisica.
Gian Mario Gianella, professore associato di Geometria presso la Facoltà di Scienze
Matematiche Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca
su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei grafi e
più recentemente della teoria dei numeri. Ha tenuto innumerevoli corsi di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.

L’opera
Con l’attivazione delle lauree triennali, i corsi universitari hanno subı̀to una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso l’Università di Torino, costituisce ora
un testo completo che può essere anche utilizzato nelle Facoltà di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo più tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
6
Indice

1 Sistemi Lineari 15
1.1 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . . 29

2 Matrici e Determinanti 33
2.1 Somma di matrici e prodotto di un numero reale per una matrice . . . . 33
2.2 Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 I sistemi lineari in notazione matriciale . . . . . . . . . . . . . . 40
2.3 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 La trasposta di una matrice . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . . . . . . 44
2.6 Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6.1 Calcolo della matrice inversa, primo metodo . . . . . . . . . . . 50
2.7 La traccia di una matrice quadrata . . . . . . . . . . . . . . . . . . . . 55
2.8 Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.8.1 I Teoremi di Laplace
Un’altra definizione di rango di una matrice . . . . . . . . . . . 64
2.8.2 Calcolo della matrice inversa, secondo metodo . . . . . . . . . . 67
2.8.3 Il Teorema di Cramer . . . . . . . . . . . . . . . . . . . . . . . 69
2.9 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

3 Calcolo Vettoriale 75
3.1 Definizione di vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Somma di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3 Il prodotto di un numero reale per un vettore . . . . . . . . . . . . . . . 82
3.4 Dipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . . . . . . 84

7
8 INDICE

3.5 Il cambiamento di base in V3 . . . . . . . . . . . . . . . . . . . . . . . 97


3.6 Angolo tra due vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.7 Operazioni non lineari tra vettori . . . . . . . . . . . . . . . . . . . . . 101
3.7.1 Il prodotto scalare di due vettori . . . . . . . . . . . . . . . . . 101
3.7.2 Il prodotto vettoriale di due vettori . . . . . . . . . . . . . . . . 113
3.7.3 Il prodotto misto di tre vettori . . . . . . . . . . . . . . . . . . . 120
3.8 Cambiamenti di basi ortonormali in V3 e in V2 . . . . . . . . . . . . . . 124
3.9 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.10 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.10.1 Un’altra definizione di vettore . . . . . . . . . . . . . . . . . . 131
3.10.2 Ulteriori proprietà delle operazioni tra vettori . . . . . . . . . . 132

4 Spazi Vettoriali e Sottospazi Vettoriali 135


4.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.2.1 Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . . . 139
4.2.2 Intersezione e somma di sottospazi vettoriali . . . . . . . . . . . 143
4.3 Generatori, basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . 149
4.3.1 Base di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 149
4.3.2 Basi e somma diretta . . . . . . . . . . . . . . . . . . . . . . . 162
4.3.3 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . 166
4.3.4 Il cambiamento di base . . . . . . . . . . . . . . . . . . . . . . 176
4.3.5 Iperpiani vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 178
4.4 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 180
4.5 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
4.5.1 Equazioni vettoriali e teorema del rango . . . . . . . . . . . . . 188
4.5.2 Equivalenza tra due definizioni di rango di una matrice . . . . . 193
4.5.3 Spazi vettoriali complessi,
matrici hermitiane e anti-hermitiane . . . . . . . . . . . . . . . 195

5 Spazi Vettoriali Euclidei 201


5.1 Definizione di prodotto scalare . . . . . . . . . . . . . . . . . . . . . . 201
5.2 Norma di un vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
5.3 Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
5.4 Il complemento ortogonale . . . . . . . . . . . . . . . . . . . . . . . . 218
5.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 223
INDICE 9

5.5.1 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . 226


5.5.2 Spazi vettoriali hermitiani . . . . . . . . . . . . . . . . . . . . . 226

6 Applicazioni Lineari 235


6.1 Matrice associata ad un’applicazione lineare
Equazioni di un’applicazione lineare . . . . . . . . . . . . . . . . . . . 238
6.2 Cambiamenti di base e applicazioni lineari . . . . . . . . . . . . . . . . 246
6.3 Immagine e controimmagine di sottospazi vettoriali . . . . . . . . . . . 248
6.4 Operazioni tra applicazioni lineari . . . . . . . . . . . . . . . . . . . . 260
6.5 Sottospazi vettoriali invarianti . . . . . . . . . . . . . . . . . . . . . . . 265
6.6 Applicazione lineare aggiunta
Endomorfismi autoaggiunti . . . . . . . . . . . . . . . . . . . . . . . . 268
6.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 271
6.8 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
6.8.1 Forme lineari – dualità . . . . . . . . . . . . . . . . . . . . . . 276
6.8.2 Cambiamento di base in V ∗ . . . . . . . . . . . . . . . . . . . . 279
6.8.3 Spazio vettoriale biduale . . . . . . . . . . . . . . . . . . . . . 281
6.8.4 Dualità nel caso degli spazi vettoriali euclidei . . . . . . . . . . 285
6.8.5 Trasposta di un’applicazione lineare . . . . . . . . . . . . . . . 286
6.8.6 Endomorfismi autoaggiunti e matrici hermitiane . . . . . . . . . 290
6.8.7 Isometrie, similitudini, trasformazioni unitarie . . . . . . . . . . 291

7 Diagonalizzazione 301
7.1 Autovalori e autovettori di un endomorfismo . . . . . . . . . . . . . . . 301
7.2 Determinazione degli autovalori e degli autospazi . . . . . . . . . . . . 305
7.3 Endomorfismi diagonalizzabili
Matrici diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . 312
7.4 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
7.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 321
7.6 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
7.6.1 Diagonalizzazione simultanea . . . . . . . . . . . . . . . . . . . 326
7.6.2 Il Teorema di Cayley–Hamilton . . . . . . . . . . . . . . . . . . 331
7.6.3 Teorema spettrale e endomorfismi autoaggiunti
Caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . 334
7.6.4 Autovalori delle isometrie, similitudini,
trasformazioni unitarie . . . . . . . . . . . . . . . . . . . . . . 338
10 INDICE

8 Forme Bilineari e Forme Quadratiche 341


8.1 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . . . . 341
8.1.1 Matrice associata ad una forma bilineare simmetrica . . . . . . . 344
8.2 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
8.3 Nucleo e vettori isotropi . . . . . . . . . . . . . . . . . . . . . . . . . . 353
8.4 Classificazione di una forma quadratica . . . . . . . . . . . . . . . . . . 364
8.5 Forme canoniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
8.6 La segnatura di una forma quadratica . . . . . . . . . . . . . . . . . . . 376
8.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 381
8.8 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389
8.8.1 Forme bilineari simmetriche ed endomorfismi autoaggiunti . . . 389
8.8.2 Forme bilineari simmetriche e spazio vettoriale duale . . . . . . 392
8.8.3 Altri metodi di classificazione di una forma quadratica . . . . . 393
8.8.4 Il determinante come forma p-lineare . . . . . . . . . . . . . . 398

9 Geometria Analitica nel Piano 405


9.1 Il riferimento cartesiano, generalità . . . . . . . . . . . . . . . . . . . . 405
9.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 408
9.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . 408
9.1.3 Baricentro di un triangolo . . . . . . . . . . . . . . . . . . . . . 408
9.2 Luoghi geometrici del piano . . . . . . . . . . . . . . . . . . . . . . . . 409
9.3 Riferimento polare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
9.4 Traslazione degli assi . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
9.5 Simmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
9.5.1 Curva simmetrica rispetto all’asse delle ordinate . . . . . . . . . 417
9.5.2 Curva simmetrica rispetto all’asse delle ascisse . . . . . . . . . 418
9.5.3 Curva simmetrica rispetto all’origine . . . . . . . . . . . . . . . 418
9.6 Retta nel piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
9.6.1 Retta per un punto parallela ad un vettore . . . . . . . . . . . . 421
9.6.2 Retta per un punto ortogonale ad un vettore . . . . . . . . . . . 422
9.6.3 Retta per due punti distinti . . . . . . . . . . . . . . . . . . . . 424
9.6.4 Rette particolari . . . . . . . . . . . . . . . . . . . . . . . . . . 426
9.6.5 Il coefficiente angolare ed il suo legame con a, b, c . . . . . . . . 426
9.7 Parallelismo, ortogonalità, angoli e distanze . . . . . . . . . . . . . . . 428
9.7.1 Condizione di parallelismo tra rette . . . . . . . . . . . . . . . . 428
INDICE 11

9.7.2 Condizione di perpendicolarità tra rette . . . . . . . . . . . . . . 429


9.7.3 Angolo tra due rette . . . . . . . . . . . . . . . . . . . . . . . . 431
9.7.4 Posizione reciproca di due rette nel piano . . . . . . . . . . . . 431
9.7.5 Distanza di un punto da una retta . . . . . . . . . . . . . . . . . 434
9.8 Fasci di rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
9.9 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 438
9.10 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
9.10.1 Rette immaginarie . . . . . . . . . . . . . . . . . . . . . . . . . 441

10 Riduzione a Forma Canonica delle Coniche 445


10.1 La circonferenza nel piano . . . . . . . . . . . . . . . . . . . . . . . . 445
10.1.1 Posizione reciproca tra una retta e una circonferenza . . . . . . . 447
10.1.2 Retta tangente ad una circonferenza in un suo punto . . . . . . . 449
10.1.3 Posizione reciproca di due circonferenze
Circonferenza per tre punti . . . . . . . . . . . . . . . . . . . . 452
10.1.4 Fasci di circonferenze . . . . . . . . . . . . . . . . . . . . . . . 453
10.2 Le coniche: definizione e proprietà focali . . . . . . . . . . . . . . . . . 459
10.2.1 L’ellisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
10.2.2 L’iperbole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
10.2.3 Iperbole equilatera riferita agli asintoti . . . . . . . . . . . . . . 474
10.2.4 La parabola . . . . . . . . . . . . . . . . . . . . . . . . . . . . 476
10.2.5 Coniche e traslazioni . . . . . . . . . . . . . . . . . . . . . . . 481
10.3 Le coniche: luoghi geometrici di punti . . . . . . . . . . . . . . . . . . 485
10.4 Le coniche: equazioni di secondo grado,
riduzione delle coniche in forma canonica . . . . . . . . . . . . . . . . 492
10.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 508
10.6 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512
10.6.1 Potenza di un punto rispetto ad una circonferenza . . . . . . . . 512
10.6.2 Equazioni parametriche delle coniche . . . . . . . . . . . . . . 514
10.6.3 Le coniche in forma polare . . . . . . . . . . . . . . . . . . . . 516
10.6.4 Retta tangente ad una conica in un suo punto . . . . . . . . . . . 517

11 Geometria Analitica nello Spazio 521


11.1 Il riferimento cartesiano nello spazio . . . . . . . . . . . . . . . . . . . 521
11.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 522
11.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . 523
12 INDICE

11.1.3 Baricentro di un triangolo e di un tetraedro . . . . . . . . . . . . 523


11.1.4 Area di un triangolo e volume di un tetraedro . . . . . . . . . . 523
11.2 Rappresentazione di un piano nello spazio . . . . . . . . . . . . . . . . 524
11.2.1 Piano per un punto ortogonale ad un vettore . . . . . . . . . . . 524
11.2.2 Piano per un punto parallelo a due vettori . . . . . . . . . . . . 526
11.2.3 Piano per tre punti non allineati . . . . . . . . . . . . . . . . . . 529
11.3 Rappresentazione della retta nello spazio . . . . . . . . . . . . . . . . . 531
11.3.1 Retta per un punto parallela ad un vettore . . . . . . . . . . . . 531
11.3.2 Retta per due punti distinti . . . . . . . . . . . . . . . . . . . . 534
11.3.3 Posizione reciproca di due piani
Retta come intersezione di due piani . . . . . . . . . . . . . . . 536
11.4 Posizioni reciproche tra rette e piani . . . . . . . . . . . . . . . . . . . 538
11.4.1 Posizione reciproca di tre piani . . . . . . . . . . . . . . . . . . 539
11.4.2 Posizione reciproca tra retta e piano . . . . . . . . . . . . . . . 541
11.4.3 Posizione reciproca di due rette nello spazio . . . . . . . . . . . 543
11.5 Fasci di piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545
11.6 Distanze e angoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548
11.6.1 Distanza di un punto da un piano . . . . . . . . . . . . . . . . . 549
11.6.2 Distanza di un punto da una retta . . . . . . . . . . . . . . . . . 551
11.6.3 Minima distanza tra due rette sghembe.
Perpendicolare comune a due rette sghembe . . . . . . . . . . . 551
11.6.4 Angolo tra due rette . . . . . . . . . . . . . . . . . . . . . . . . 556
11.6.5 Angolo tra retta e piano . . . . . . . . . . . . . . . . . . . . . . 556
11.6.6 Angolo tra due piani . . . . . . . . . . . . . . . . . . . . . . . . 556
11.7 Sfera e posizione reciproca con rette e piani . . . . . . . . . . . . . . . 559
11.7.1 Sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559
11.7.2 Posizione reciproca tra piano e sfera . . . . . . . . . . . . . . . 560
11.7.3 Posizione reciproca tra retta e sfera . . . . . . . . . . . . . . . . 563
11.8 La circonferenza nello spazio . . . . . . . . . . . . . . . . . . . . . . . 565
11.9 Posizione reciproca tra due sfere
Fasci di sfere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 570
11.10 Coordinate polari sferiche . . . . . . . . . . . . . . . . . . . . . . . . . 579
11.11 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 583
11.12 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592
11.12.1 Baricentro geometrico di punti . . . . . . . . . . . . . . . . . . 592
INDICE 13

11.12.2 Potenza di un punto rispetto ad una sfera . . . . . . . . . . . . . 594


11.12.3 Sfere in dimensione quattro . . . . . . . . . . . . . . . . . . . . 598

12 Coni, Cilindri, Superfici di Rotazione e Quadriche 601


12.1 Cenni sulla rappresentazione di curve e superfici . . . . . . . . . . . . . 601
12.2 Il cono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603
12.2.1 Cono tangente ad una sfera . . . . . . . . . . . . . . . . . . . . 614
12.2.2 Proiezione di una curva da un punto su un piano . . . . . . . . . 616
12.3 Il cilindro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 618
12.3.1 Cilindri con assi paralleli agli assi coordinati . . . . . . . . . . . 622
12.3.2 Cilindro circoscritto ad una sfera . . . . . . . . . . . . . . . . . 628
12.3.3 Proiezione di una curva su un piano secondo una direzione
assegnata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632
12.3.4 Coordinate cilindriche . . . . . . . . . . . . . . . . . . . . . . . 634
12.4 Superfici di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 636
12.5 Cenni su superfici rigate . . . . . . . . . . . . . . . . . . . . . . . . . . 649
12.6 Quadriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652
12.6.1 Quadriche rigate . . . . . . . . . . . . . . . . . . . . . . . . . . 668
12.6.2 L’iperboloide ad una falda . . . . . . . . . . . . . . . . . . . . 668
12.6.3 Il paraboloide iperbolico . . . . . . . . . . . . . . . . . . . . . 676
12.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 680
12.8 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 690
12.8.1 Piano tangente ad una quadrica in un suo punto . . . . . . . . . 690

Bibliografia 697

Indice dei Simboli 699

Indice Analitico 702


14 INDICE
Capitolo 1

Sistemi Lineari

In questo capitolo si introducono le nozioni di sistema lineare, di matrici associate ad un


sistema lineare e si enuncia il Teorema di Rouché–Capelli i cui dettagli e la dimostrazione
sono rimandate al Paragrafo 4.3. In tutto il testo, salvo indicazione contraria, il campo dei
numeri su cui sono introdotte le definizioni, su cui sono dimostrati i teoremi e risolti gli
esercizi è il campo dei numeri reali R.

1.1 Equazioni lineari


Definizione 1.1 Un’equazione lineare nelle incognite x1 , x2 , . . . , xn è un’espressione del
tipo:

a1 x1 + a2 x2 + . . . + an xn = b, (1.1)

dove i numeri reali ai , i = 1, 2, . . . , n, sono detti coefficienti e il numero reale b prende


il nome di termine noto. L’equazione si dice lineare in quanto ogni incognita xi compare
a primo grado.

Definizione 1.2 Una soluzione dell’equazione lineare (1.1) è una n-upla di numeri reali:

(x01 , x02 , . . . , x0n )


che, sostituita alle incognite x1 , x2 , . . . , xn , verifica l’equazione, cioè:

a1 x01 + a2 x02 + . . . + an x0n = b.

Risolvere un’equazione significa determinarne tutte le soluzioni.

15
16 Sistemi Lineari

Esempio 1.1 L’equazione lineare nelle incognite x1 , x2 , x3 , x4 :


2x1 + 3x2 − x3 + 4x4 = 5
ammette infinite soluzioni, che dipendono da 3 parametri reali, date da:


 x1 = t1
x2 = t2


 x3 = −5 + 2t1 + 3t2 + 4t3
x4 = t3 , t1 , t2 , t3 ∈ R;

oppure, equivalentemente, l’insieme delle soluzioni S è dato da:

S = {(x1 , x2 , x3 , x4 ) = (t1 , t2 , −5 + 2t1 + 3t2 + 4t3 , t3 ) | t1 , t2 , t3 ∈ R}.

Si osservi che, risolvendo l’equazione rispetto ad un’altra incognita, si ottiene lo stesso


insieme di soluzioni (solo rappresentato in modo diverso).
Definizione 1.3 L’equazione lineare (1.1) si dice omogenea se il termine noto b è nullo.
È chiaro che un’equazione lineare è omogenea se e solo se ammette la soluzione nulla,
cioè la soluzione formata da tutti zeri (0, 0, . . . , 0) ma, in generale, un’equazione lineare
omogenea può ammettere anche soluzioni non nulle, come nell’esempio seguente.
Esempio 1.2 L’equazione lineare omogenea nelle incognite x, y :
2x − 3y = 0
ammette infinite soluzioni che dipendono da un’incognita libera, date da:
 
2
(x, y) = t, t , t ∈ R.
3
Si osservi che la soluzione nulla (0, 0) si ottiene ponendo t = 0.

1.2 Sistemi lineari


Un sistema lineare di m equazioni in n incognite x1 , x2 , . . . , xn è un insieme di equazioni
lineari del tipo:


 a11 x1 + a12 x2 + . . . . . . + a1n xn = b1
 a21 x1 + a22 x2 + . . . . . . + a2n xn = b2

.. (1.2)


 .
 a x + a x + . . . . . . + a x = b , a ∈ R, b ∈ R.
m1 1 m2 2 mn n m ij i
Capitolo 1 17

I coefficienti aij , i = 1, 2, . . . , m, j = 1, 2, . . . , n, sono dotati di due indici per agevolare


il riconoscimento della loro posizione nel sistema lineare. Il primo indice (indice di riga),
in questo caso i, indica il numero dell’equazione in cui il coefficiente compare, il secondo
indice (indice di colonna), in questo caso j , stabilisce il numero dell’incognita di cui aij
è il coefficiente. Per esempio a23 è il coefficiente della terza incognita nella seconda
equazione. I termini noti bi , i = 1, 2, . . . , m, hanno solo un’indice essendo unicamente
riferiti al numero dell’equazione in cui compaiono. Il sistema considerato è lineare in
quanto ogni equazione che lo compone è lineare. Analogamente al caso delle equazioni,
un sistema lineare si dice omogeneo se tutte le sue equazioni hanno termine noto nullo,
cioè se bi = 0, per ogni i = 1, 2, . . . , m.

Anche in questo caso vale la seguente definizione.

Definizione 1.4 Una soluzione di un sistema lineare di m equazioni in n incognite è una


n-upla di numeri reali:
(x01 , x02 , . . . , x0n )
che, sostituita ordinatamente alle incognite, verifica tutte le equazioni del sistema, cioè:


 a11 x01 + a12 x02 + . . . . . . + a1n x0n = b1


 a21 x01 + a22 x02 + . . . . . . + a2n x0n = b2

..



 .
 a x 0 + a x0 + . . . . . . + a x0 = b .

m1 1 m2 2 mn n m

Risolvere un sistema lineare significa determinarne tutte le soluzioni.

È chiaro che ogni sistema lineare è omogeneo se e solo se ammette la soluzione nulla
(0, 0, . . . , 0), formata da tutti zeri.

Definizione 1.5 Un sistema lineare si dice compatibile se ammette soluzioni, altrimenti


è incompatibile.

Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si darà ampio spazio
al metodo di riduzione di Gauss in quanto più veloce (anche dal punto di vista computa-
zionale). L’idea di base del metodo di Gauss è quella di trasformare il sistema lineare di
partenza in un altro sistema lineare ad esso equivalente ma molto più semplice, tenendo
conto della seguente definizione.

Definizione 1.6 Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.
18 Sistemi Lineari

Prima di iniziare la trattazione teorica si consideri il seguente esempio.

Esempio 1.3 Risolvere il seguente sistema lineare di due equazioni in due incognite
usando il metodo di riduzione: 
x+y =4
2x − 3y = 7.

Il sistema lineare dato è equivalente a:



x+y =4
2(x + y) − (2x − 3y) = 2 · 4 − 7,

ossia: 
x+y =4
5y = 1
che ammette come unica soluzione (19/5, 1/5).

Il metodo usato per risolvere l’esempio precedente è conseguenza del seguente teorema.

Teorema 1.1 Eseguendo un numero finito di volte le tre operazioni sotto elencate:
1. scambiare tra loro due equazioni,
2. moltiplicare un’equazione per un numero reale diverso da zero,
3. sostituire ad un’equazione la somma di se stessa con un’altra equazione moltipli-
cata per un qualsiasi numero reale
si ottiene un sistema lineare equivalente a quello di partenza.

Dimostrazione È ovvio che scambiando tra loro due equazioni si ottiene un sistema
lineare equivalente a (1.2).
Per la seconda operazione, si dimostra che il sistema lineare (1.2) è equivalente al siste-
ma lineare che si ottiene sostituendo alla prima equazione se stessa moltiplicata per un
numero reale λ 6= 0. Si osservi che se tale sostituzione avviene per la i-esima equazione
è sufficiente operare con la prima operazione per ricondursi al caso in esame. In altri
termini si prova che (1.2) è equivalente al sistema lineare:


 λ(a11 x1 + a12 x2 + . . . . . . + a1n xn ) = λb1
 a21 x1 + a22 x2 + . . . . . . + a2n xn = b2

.. (1.3)


 .
 a x + a x + . . . . . . + a x = b , λ 6= 0.
m1 1 m2 2 mn n m

Per la dimostrazione si deve procedere in due passi.


Capitolo 1 19

1. Ipotesi: (x01 , x02 , . . . , x0n ) è soluzione di (1.2).


Tesi: (x01 , x02 , . . . , x0n ) è soluzione di (1.3).

2. Ipotesi: (x01 , x02 , . . . , x0n ) è soluzione di (1.3).


Tesi: (x01 , x02 , . . . , x0n ) è soluzione di (1.2).

1. La dimostrazione è ovvia e vale per ogni numero reale λ 6= 0.

2. È sufficiente dimostrare la tesi per la prima equazione di (1.2). Per ipotesi si ha:

λ(a11 x01 + a12 x02 + . . . . . . + a1n x0n ) = λb1 ,

essendo λ 6= 0 si possono dividere ambo i membri dell’identità precedente per λ,


da cui segue la tesi.

Per dimostrare l’equivalenza nel caso dell’operazione 3. si procede allo stesso modo.

Esempio 1.4 I due sistemi lineari seguenti non sono equivalenti:


 
x+y =4 x+y =4
2x − 3y = 7, 0(2x − 3y) + 2(x + y) = 0 · 7 + 2 · 4.

Infatti non è consentito sostituire alla seconda equazione il prodotto di se stessa per il
numero 0, anche se si mantiene inalterata la prima equazione.

Si osservi che le operazioni descritte nel Teorema 1.1 agiscono linearmente solo sui coef-
ficienti del sistema lineare e non sulle incognite. Ciò suggerisce di sostituire ad un sistema
lineare una “tabella” dei coefficienti e dei temini noti ed operare solo su questa. Viene
illustrato ora questo procedimento mediante l’Esempio 1.3.
Al sistema lineare:

x+y =4
2x − 3y = 7
si associa la tabella:
 
1 1 4
(1.4)
2 −3 7
con le due righe:
 
R1 = 1 1 | 4 , R2 = 2 −3 | 7
20 Sistemi Lineari

e le tre colonne:
     
1 1 4
C1 = , C2 = , C3 = .
2 −3 7
Successivamente si opera su di essa sostituendo alla seconda riga R2 se stessa a cui si
sottrae il prodotto di due volte la prima, cioè R2 −→ R2 − 2R1 , ottenendo cosı̀:
 
1 1 4
,
0 −5 −1
che corrisponde al sistema lineare ridotto:

x+y =4
−5y = −1.
Benché la definizione intuitiva di sistema lineare ridotto sia evidente, si enuncerà la
definizione formale più avanti.

La tabella (1.4) prende il nome di matrice completa del sistema lineare, o matrice dei
coefficienti e termini noti. Il tratto verticale prima dell’ultima sua colonna intende solo
distinguere i coefficienti del sistema lineare dai termini noti. Il termine matrice indica, in
generale, una tabella di numeri, a prescindere dall’uso relativo ai sistemi lineari. La trat-
tazione generale delle matrici è rimandata al capitolo successivo, introducendo ora solo
alcune nozioni elementari. È evidente che il numero delle righe della matrice completa
associata ad un sistema lineare coincide con il numero delle equazioni del sistema lineare,
il numero delle colonne è pari al numero delle incognite aumentato di una unità, che corri-
sponde alla colonna formata dai termini noti. Le operazioni di riduzione che permettono
di trasformare un sistema lineare in un sistema lineare ridotto ad esso equivalente (cfr.
Teor. 1.1) si traducono sulle righe della matrice in modo ovvio e si possono riassumere,
rispettivamente con le seguenti notazioni:
1. Ri ←→ Rj ,
2. Ri −→ λRi , λ ∈ R, λ 6= 0,
3. Ri −→ Ri + λRj , λ ∈ R, i 6= j,
dove Ri e Rj indicano rispettivamente la i–esima riga e la j –esima riga.

In generale, al sistema lineare (1.2) si associano due matrici, una matrice A di m righe e
n colonne:  
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. (1.5)
 
.. .. 
 . . . 
am1 am2 · · · amn
Capitolo 1 21

detta matrice dei coefficienti, e una matrice (A | B) di m righe e n + 1 colonne:


 
a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 
(A | B) =  ..
 
.. .. .. 
 . . . . 

am1 am2 · · · amn bm
detta matrice completa.

Esempio 1.5 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

 x + y + 2z = 9
2x + 4y − 3z = 1
3x + 6y − 5z = 0

la matrice completa (formata da tre righe e quattro colonne) è:


 
1 1 2 9
 2 4 −3 1 .

3 6 −5 0

Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:


   
−→ 1 1 2 9 1 1 2 9
−→
R2 → R2 − 2R1  0 2 −7 −17   0 2 −7 −17 ,
R3 → 2R3 − 3R2
R3 → R3 − 3R1 0 3 −11 −27 0 0 −1 −3

da cui si perviene al sistema lineare:



 x + y + 2z = 9
2y − 7z = −17
−z = −3,

che ammette una sola soluzione: 


 x=1
y=2
z = 3.

Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

 x1 + x2 − x3 = 1
2x1 + 2x2 + x3 = 0
x1 + x2 + 2x3 = −1

22 Sistemi Lineari

la matrice completa è:  


1 1 −1 1
 2 2 1 0 .
1 1 2 −1
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:
   
−→ 1 1 −1 1 1 1 −1 1
−→
R2 → R2 − 2R1  0 0 3 −2   0 0 3 −2 ,
R 3 → R3 − R2
R3 → R3 − R1 0 0 3 −2 0 0 0 0
da cui si perviene al sistema lineare:

x1 + x 2 − x3 = 1
3x3 = −2,

che ammette infinite soluzioni che dipendono da un’incognita libera x2 , per maggiore
chiarezza si pone x2 uguale ad un parametro t che quindi può assumere ogni valore reale:

1
x1 = − t


3






x2 = t





 2
 x3 = − , t ∈ R.

3

Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

 x1 + x2 = −1
−2x1 + x2 + 3x3 = 2
−x1 + 2x2 + 3x3 = −1

la matrice completa è:  


1 1 0 −1

 −2 1 3 2 .

−1 2 3 −1

Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:


   
−→ 1 1 0 −1 −→ 1 1 0 −1
R2 → R2 + 2R1  0 3 3 0  R2 → (1/3)R2  0 1 1 0 
R3 → R3 + R1 0 3 3 −2 R3 → R3 − R2 0 0 0 −2
Capitolo 1 23

da cui si perviene al sistema lineare:



 x1 + x2 = −1
x2 + x3 = 0
0 = −2

che è chiaramente incompatibile.

Gli esempi studiati impongono la definizione formale della matrice associata all’ultimo
sistema lineare che si ottiene, ossia della matrice associata ad un sistema lineare ridotto
equivalente a quello di partenza.

Definizione 1.7 Una matrice si dice ridotta per righe se in ogni sua riga non nulla esiste
un elemento non nullo al di sotto del quale vi sono tutti zeri.

Esempio 1.8 La matrice:  


1 2 0
 −1 0 1 
1 0 0
è ridotta per righe, mentre la matrice:
 
1 2 1
 −1 0 0 
1 1 −1

non lo è.

Segue, in modo naturale, la definizione annunciata di sistema lineare ridotto.

Definizione 1.8 Un sistema lineare si dice ridotto se la matrice dei coefficienti ad esso
associata è ridotta per righe.

Osservazione 1.1 Se la matrice dei coefficienti associata ad un sistema lineare è ridotta


per righe ma non lo è la matrice completa, è sufficiente operare sulla colonna dei termini
noti per pervenire ad una matrice completa ridotta per righe, per esempio:
   
1 2 3 1 1 2 3 1
 0 1 −2 2  −→  0 1 −2 2 
(A | B) =    .
 0 0 0 3  R4 → 4R3 − 3R4  0 0 0 3 
0 0 0 4 0 0 0 0
24 Sistemi Lineari

Invece, la matrice completa di un sistema lineare può essere ridotta per righe senza che
necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:
 
1 2 3 4
(A | B) =  7 6 5 0 
9 8 0 0

è una matrice ridotta per righe, ma il sistema lineare associato non è ridotto perché la
matrice dei coefficienti non è ridotta per righe.

Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante
le operazioni consentite, ad una matrice dei coefficienti ridotta per righe. Dai teoremi che
seguono e anche dall’Osservazione 1.1, sarà chiaro che tra tutte le matrici complete ridotte
per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefficienti è
ridotta per righe. Si possono allora presentare queste possibilità:

a. quella illustrata nell’Esempio 1.5, ovvero il numero delle righe non nulle della ma-
trice completa ridotta per righe è uguale al numero delle righe non nulle della ma-
trice dei coefficienti ridotta per righe ed è uguale al numero delle incognite, quindi
l’ultima riga non nulla della matrice dei coefficienti contiene soltanto un numero
non nullo, allora il sistema lineare ridotto associato è compatibile e ha una sola
soluzione.

b. Quella illustrata nell’Esempio 1.6, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe è uguale al numero delle righe non nulle della
matrice dei coefficienti ed è minore del numero delle incognite; l’ultima riga non
nulla della matrice dei coefficienti contiene almeno un numero non nullo; allora il
sistema lineare ridotto è compatibile e ammette infinite soluzioni che dipendono da
almeno un’incognita libera.

c. Quella illustrata nell’Esempio 1.7, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe è maggiore (di una unità) del numero delle righe
non nulle della matrice dei coefficienti ridotta per righe e pertanto il sistema lineare
ridotto associato è incompatibile.

Le definizioni seguenti (che avranno un ruolo cruciale in tutto il testo) permettono, in


modo elementare, di distinguere le situazioni prima esposte.

Definizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non
nulle.
Capitolo 1 25

Definizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta
per righe da essa ottenuta.

Osservazione 1.2 In base alla precedente definizione il rango della matrice formata da
tutti zeri è 0.

In letteratura, le notazioni più comuni per indicare il rango di una matrice sono rank(A) =
rg(A) = r(A) = rk(A) = ρ(A). Si userà la notazione rank(A).

Osservazione 1.3 È evidente che affinchè la Definizione 1.10 abbia senso è necessario
dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici
ridotte ottenute hanno lo stesso rango. In realtà, la Definizione 1.10 esprime il metodo di
calcolo del rango di una matrice. Per dimostrare l’affermazione appena citata è necessario
enunciare un’altra definizione di rango di una matrice e ciò sarà fatto nel Paragrafo 4.3
dopo aver introdotto nozioni adesso premature.

I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel
modo seguente:

a. rank(A) = rank(A | B) = 3; il rango delle due matrici è uguale e coincide con il


numero delle incognite;

b. rank(A) = rank(A | B) = 2; il rango delle due matrici è uguale ma è inferiore di


una unità al numero delle incognite;

c. rank(A) = 3, rank(A | B) = 4; i due ranghi sono diversi, il sistema lineare è


incompatibile.

Si è cosı̀ “quasi” dimostrato il seguente teorema.

Teorema 1.2 – Teorema di Rouché–Capelli – Un sistema lineare in n incognite è com-


patibile se e solo se il rango della matrice dei coefficienti A coincide con il rango della
matrice completa (A | B). In particolare, se rank(A) = rank(A | B) = n, il sistema
lineare ha un’unica soluzione. Se rank(A) = rank(A | B) = k < n, il sistema lineare
ammette infinite soluzioni che dipendono da n − k incognite libere.

Si osservi, infatti, che il Teorema di Rouché–Capelli è banalmente dimostrato solo nel


caso dei sistemi lineari ridotti; per completare la dimostrazione è necessario, come già os-
servato, enunciare un’altra definizione di rango di una matrice e provare che le operazioni
di riduzione per righe di una matrice non ne alterano il rango (cfr. Teor. 4.21).
26 Sistemi Lineari

Osservazione 1.4 Un sistema lineare omogeneo è sempre compatibile, perciò è solo in-
teressante capire se ammetta una sola soluzione (quella nulla) o infinite soluzioni e ciò
dipende interamente dal rango della matrice dei coefficienti. Per la risoluzione di un si-
stema lineare omogeneo è sufficiente ridurre per righe la matrice dei coefficienti (questo
caso sarà esaminato in dettaglio nel Paragrafo 1.2.1).
Osservazione 1.5 Mentre segue dalla Definizione 1.10 che, per una matrice A con m
righe e n colonne, rank(A) ≤ m, si dimostrerà formalmente che il rango della matrice
dei coefficienti di un sistema lineare è un numero inferiore o uguale al minore tra il numero
delle equazioni e il numero delle incognite, cioè rank(A) ≤ m e rank(A) ≤ n.
Osservazione 1.6 Al più il rango della matrice completa differisce di una unità dal rango
della matrice dei coefficienti, cioè rank(A | B) ≤ rank(A) + 1.
Esempio 1.9 – Metodo di riduzione di Gauss–Jordan – Per determinare le soluzioni
di un sistema lineare si può procedere in modo leggermente diverso da quando si è visto
finora. Quando si perviene alla matrice completa ridotta per righe, anziché scrivere il si-
stema lineare ridotto associato si può, in modo equivalente, procedere allo stesso calcolo
mediante un’ulteriore riduzione della matrice completa allo scopo di pervenire alla lettura
nell’ultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo
metodo, detto anche metodo di riduzione di Gauss–Jordan, per differenziarlo dal metodo
di riduzione di Gauss introdotto in precedenza, è molto efficace quando si ha una sola so-
luzione, ma può presentare alcune difficoltà di calcolo negli altri casi. Viene ora illustrato
con un esempio e precisamente partendo dall’ultimo passaggio di riduzione nell’Esempio
1.5. La matrice dei coefficienti ha, in questo caso, lo stesso numero di righe e di colon-
ne. Pertanto ha senso considerare la sua diagonale principale, cioè l’insieme formato da
tutti gli elementi aii , i = 1, 2, 3 (tale nozione sarà ripresa e riformulata con maggiore
proprietà di linguaggio nell’Esempio 2.6). Quando la matrice dei coefficienti è ridotta
per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo
dall’ultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la
diagonale principale.
   
1 1 2 9 1 1 2 9
  −→  
 0 2 −7 −17  R2 → (1/2)R2  0 1 − 7 − 17 
   





 R3 → −R3

 2 2 

0 0 −1 −3 0 0 1 3
   
1 1 0 3 1 0 0 1
−→
−→
   
R2 → R2 + (7/2)R3  0 1 0 2  0 1 0 2 .
   
 R1 → R1 − R2

R1 → R1 − 2R3
  

0 0 1 3 0 0 1 3
Capitolo 1 27

Si osservi che sull’ultima colonna, si legge, in ordine, proprio la soluzione del sistema li-
neare dato. Si presti molta attenzione all’ordine con cui compaiono i valori delle incognite
nell’ultima colonna, che dipende dal metodo di riduzione seguito.

Esercizio 1.1 Discutere e risolvere, al variare del parametro a ∈ R, il seguente sistema


lineare di tre equazioni in tre incognite:

 x + 2y − 3z = 4
3x − y + 5z = 2
4x + y + (−14 + a2 )z = 2 + a.

Soluzione Si procede con la riduzione per righe della matrice completa (A | B), ripor-
tando solo i passaggi essenziali.

 
1 2 −3
4 −→
(A | B) =  3 −1 5
2  R2 → R2 − 3R1
4 1 −14 + a2 2 + a R3 → R3 − 4R1
   
1 2 −3 4 1 2 −3 4
 0 −7 −→
14 −10   0 −7 14 −10 .

2 R3 → R3 − R2
0 −7 −2 + a −14 + a 0 0 −16 + a2 −4 + a

La matrice dei coefficienti A è ridotta per righe, quindi si presentano i seguenti casi:

1. rank(A) = 3 se e solo se a2 − 16 6= 0 ossia se e solo se a ∈


/ {−4, 4};

2. rank(A) = 2 se e solo se a = −4 oppure a = 4.

Per determinare le soluzioni del sistema lineare si devono considerare tre casi:

1. a ∈/ {−4, 4}, poiché rank(A) = 3 anche rank(A | B) = 3. Il sistema lineare è


compatibile e ammette una sola soluzione, che si determina o a partire dal sistema
lineare ridotto associato, oppure procedendo all’ulteriore riduzione della matrice
completa prima ottenuta nel modo seguente:

1 2 −3 4
 

−→
 
  −→
1
 0 7 −14 10 
1
R3 → R3  R2 → R2
 
−16 + a2

 −4 + a  7
0 0 1
(4 + a)(−4 + a)
28 Sistemi Lineari

19 + 4a
 
2 −3
 
1 4 1 2 0
   4+a 
−→
 
10
 
54 + 10a 
 
 0 1 −2
 
 R2 → R2 + 2R3  0

1 0

 7 
 R1 → R1 + 3R3 

7(4 + a) 
 
 1   1 
0 0 1 0 0 1
4+a 4+a

25 + 8a
 
1 0 0

 7(4 + a) 

−→ 54 + 10a 
 
 0 1 0 .

R1 → R1 − 2R2  7(4 + a) 
 
 1 
0 0 1
4+a

In questo modo si leggono, ordinatamente in colonna, i valori delle tre incognite.

2. a = −4, sostituendo tale valore di a nell’ultimo passaggio di riduzione della


matrice completa (A | B) si ha:
 
1 2 −3 4
 0 7 −14 10 
0 0 0 −8

da cui segue che rank(A) = 2 mentre rank(A | B) = 3, il sistema lineare è quindi


incompatibile.

3. a = 4, sostituendo tale valore di a nell’ultimo passaggio di riduzione della matrice


completa (A | B) si ha:

 

1 2 −3 4
 1 2 −3 4
  −→ 
 10


 0 7 −14 10  1  0 1 −2 ,
 
  R2 → R2  7 
7  
0 0 0 0 0 0 0 0

da cui segue che rank(A) = rank(A | B) = 2 (2 < 3, con 3 numero delle


Capitolo 1 29

incognite) il sistema lineare è, quindi, compatibile e ammette infinite soluzioni:



8
x = −t


7






10
y= + 2t
7







 z = t, t ∈ R.

Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel
modo seguente:
   
8 10 8 10
(x, y, z) = − t, + 2t, t = , , 0 + t(−1, 2, 1), t ∈ R,
7 7 7 7

mettendo cosı̀ meglio in evidenza la dipendenza dall’incognita libera z = t. Si osservi


inoltre che sostituendo a t un particolare valore si ottiene una soluzione particolare del
sistema lineare.

1.2.1 Sistemi lineari omogenei


Si ricordi che un sistema lineare omogeneo è un sistema lineare avente tutti i termini noti
uguali a zero, cioè del tipo:


 a11 x1 + a12 x2 + . . . . . . + a1n xn = 0
 a21 x1 + a22 x2 + . . . . . . + a2n xn = 0

.. (1.6)


 .
 a x + a x + . . . . . . + a x = 0, a ∈ R,
m1 1 m2 2 mn n ij

la cui matrice dei coefficienti A coincide con (1.5) e quella completa (A |B) è:
 
a11 a12 . . . a1n 0
 a21 a22 . . . a2n 0 
(A | B) =  .. .. .. ;
 
..
 . . . . 
am1 am2 · · · amn 0
quindi il rango della matrice dei coefficienti A coincide con il rango della matrice com-
pleta (A | B). Infatti, come si è già osservato, un sistema lineare omogeneo ammette
sempre almeno la soluzione nulla. È molto interessante distinguere il caso in cui si ha una
sola soluzione da quello con infinite soluzioni:
30 Sistemi Lineari

1. se il rango di A coincide con il numero delle incognite, allora esiste solo la solu-
zione (0, 0, . . . , 0);
2. se il rango di A è un numero k strettamente minore del numero delle incognite n,
allora esistono infinite soluzioni che dipendono da n − k incognite libere.

Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque inco-
gnite: 

 x3 + x4 + x5 = 0
−x1 − x2 + 2x3 − 3x4 + x5 = 0


 x1 + x2 − 2x3 − x5 = 0
2x1 + 2x2 − x3 + x5 = 0

ha come matrice dei coefficienti:


 
0 0 1 1 1
 −1 −1 2 −3 1 
A= .
 1 1 −2 0 −1 
2 2 −1 0 1

Procedendo alla sua riduzione per righe (si osservi che è inutile ridurre per righe la matrice
completa) si ha:
   
1 1 −2 0 −1 1 1 −2 0 −1
−→  0 −→
0 1 1 1 
 R3 → R3 + R1  0 0
 1 1 1 
R3 ↔ R1   −1 −1

2 −3 1   0 0 0 −3 0 
R2 ↔ R3 R4 → R4 − 2R1
2 2 −1 0 1 0 0 3 0 3
 
1 1 −2 0 −1
−→  0 0 1 1 1 
R3 → −(1/3)R3   0 0

0 1 0 
R4 → (1/3)R4
0 0 1 0 1
 
1 1 −2 0 −1
−→  0 0
 1 1 1 
.
R4 → R4 − R2  0 0 0 1 0 
0 0 0 −1 0

Si deduce che rank(A) = 3, esistono, quindi, infinite soluzioni che dipendono da 5−3 = 2
incognite libere. Il sistema lineare ridotto associato è:

 x1 + x2 − 2x3 − x5 = 0
x3 + x4 + x5 = 0 (1.7)
x4 = 0

Capitolo 1 31

le cui soluzioni sono: 



 x1 = −t1 − t2
 x2 = t2


x3 = −t1
x 4 = 0




x5 = t1 , t1 , t2 ∈ R.

Osservazione 1.8 L’insieme delle soluzioni del sistema lineare precedente si può scrivere
come:
n
(x1 , x2 , x3 , x4 , x5 ) = (−t1 − t2 , t2 , −t1 , 0, t1 )
o
= t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R .

Il seguente teorema mette in relazione le soluzioni di un sistema lineare compatibile qual-


siasi (1.2) con il sistema lineare omogeneo (1.6), che ha la stessa matrice dei coefficienti.
Tale sistema lineare (1.6) è anche detto il sistema lineare omogeneo associato a (1.2).

Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene
aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del
sistema lineare omogeneo associato (1.6).

Dimostrazione Sia (x∗1 , x∗2 , . . . , x∗n ) una soluzione particolare di (1.2) e (x1 , x2 , . . . , xn )
una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verifica
immediatamente che (x1 + x∗1 , x2 + x∗2 , . . . , xn + x∗n ) è ancora una soluzione di (1.2).
Viceversa, se (x01 , x02 , . . . , x0n ) e (x001 , x002 , . . . , x00n ) sono due soluzioni qualsiasi di (1.2),
delle quali (x01 , x02 , . . . , x0n ) è quella generale e (x001 , x002 , . . . , x00n ) è una soluzione partico-
lare, allora è facile verificare che (x01 − x001 , x02 − x002 , . . . , x0n − x00n ) è soluzione del sistema
lineare omogeneo associato (1.6).

Esempio 1.11 Si consideri il sistema lineare:



 x1 + x2 − 2x3 − x5 = 5
x3 + x4 + x5 = 4 (1.8)
x4 = 3

che ha come sistema lineare omogeneo associato (1.7). L’insieme delle sue soluzioni è:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 − t1 − t2 , t2 , 1 − t1 , 3, t1 )
o
= (7, 0, 1, 3, 0) + t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R .
32 Sistemi Lineari

Si osservi che (7, 0, 1, 3, 0) è una soluzione particolare del sistema lineare dato, mentre:

t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0),

al variare di t1 e t2 in R, è la generica soluzione del sistema lineare omogeneo (1.7)


associato.
Analogamente, si verifichi per esercizio che il sistema lineare seguente:

 x1 + x2 − 2x3 − x5 = 1
x3 + x4 + x 5 = 2
x4 = −1,

che ha la stessa matrice dei coefficienti di (1.8) ma diversa matrice completa, ha come
insieme di soluzioni:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 − t1 − t2 , t2 , 3 − t1 , −1, t1 )
o
= (7, 0, 3, −1, 0) + t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R .
Capitolo 2

Matrici e Determinanti

Scopo di questo capitolo è quello di formalizzare il concetto di matrice già introdotto


nel capitolo precedente e studiare le proprietà essenziali dell’insieme delle matrici che
costituisce un valido esempio di spazio vettoriale, struttura algebrica che sarà definita nel
Capitolo 4.

2.1 Somma di matrici e prodotto di un numero reale per


una matrice
Definizione 2.1 Una matrice di m righe e di n colonne, ad elementi reali, è una tabella
del tipo:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= , (2.1)
 
.. .. ..
 . . . 
am1 am2 · · · amn

con aij ∈ R, i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Per convenzione le matrici vengono indicate con le lettere maiuscole dell’alfabeto e l’in-
sieme della matrici di m righe ed n colonne sarà indicato con Rm,n o, talvolta, con
MR (m, n). In forma sintetica la matrice (2.1) si può anche scrivere come:

A = (aij ), 1 ≤ i ≤ m, 1 ≤ j ≤ n,

e aij è l’elemento della matrice A di posto (i, j).

33
34 Matrici e Determinanti

Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una
colonna, cioè come elementi di R1,1 . Quindi R è effettivamente uguale a R1,1 .

Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono
quadrate e tale numero si dice ordine della matrice. Per esempio:
 
1 2
A=
3 4

è una matrice quadrata di ordine 2.

Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga. Per esempio:

A = 1 2 3 4 ∈ R1,4


è una matrice riga.

Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna. Per
esempio:  
1
 2  4,1
A=  3 ∈R

4
è una matrice colonna.

Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del
prodotto cartesiano:

Rn = {(x1 , x2 , . . . , xn ) | xi ∈ R, i = 1, 2, . . . , n}

possono essere visti come matrici riga o colonna. Quindi Rn può essere identificato sia
con R1,n sia con Rn,1 .

Esempio 2.5 La matrice (aij ) ∈ Rm,n , con tutti gli elementi aij = 0, si dice matrice
nulla e si indica con O, da non confondersi con il numero 0 ∈ R. È evidente che la
matrice nulla è l’unica matrice ad avere rango zero (cfr. Oss. 1.2).

Esempio 2.6 Nel caso di una matrice quadrata A = (aij ) di ordine n, tutti gli elementi
del tipo aii , al variare di i da 1 a n, costituiscono la diagonale principale. Rivestiranno
in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi
Capitolo 2 35

elementi tutti nulli al di fuori della diagonale principale cioè aij = 0 se i 6= j . L’insieme
delle matrici diagonali di ordine n sarà indicato con:
  

 a 11 0 . . . 0 

 0 a22 . . . 0 
 

n,n
D(R ) =  .. | a ∈ i = 1, 2, . . . , n . (2.2)
 
.. . . ..  ii R,

  . . . .  

 
 0 0 . . . ann 

Esempio 2.7 Casi particolari dell’esempio precedente sono la matrice unità I ∈ Rn,n ,
ossia la matrice diagonale avente tutti 1 sulla diagonale principale:
 
1 0 ... 0
 0 1 ... 0 
I =  .. .. . . .. 
 
 . . . . 
0 0 ... 1

e la matrice quadrata nulla O ∈ Rn,n , intendendosi come tale la matrice quadrata avente
tutti gli elementi uguali a 0.

La definizione che segue stabilisce la relazione di uguaglianza tra matrici.

Definizione 2.2 Due matrici A = (aij ) e B = (bij ) sono uguali se:

1. hanno lo stesso numero di righe e di colonne, cioè A e B appartengono entrambe


allo stesso insieme Rm,n ,

2. gli elementi di posto uguale coincidono, cioè:

aij = bij , i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Si introducono ora le definizioni di somma di matrici e di prodotto di un numero reale per


una matrice sull’insieme Rm,n .

Definizione 2.3 Si definisce somma delle due matrici A = (aij ), B = (bij ), entrambe
appartenenti a Rm,n , la matrice A + B ∈ Rm,n data da:

A + B = (aij + bij ).

Esempio 2.8 Date le matrici:


   
1 2 0 5
A= , B=
3 4 −2 7
36 Matrici e Determinanti

la loro somma è la matrice:  


1 7
A+B = .
1 11

Se A e B non appartengono allo stesso insieme Rm,n , non è possibile definire la loro
somma. Ad esempio non è definita la somma della matrice A con la matrice:
 
0 3 2
C= .
−1 5 6

Teorema 2.1 Per l’operazione di somma di matrici definita sull’insieme Rm,n valgono
le proprietà di seguito elencate:

1. A + B = B + A, A, B ∈ Rm,n (proprietà commutativa).

2. A + (B + C) = (A + B) + C, A, B, C ∈ Rm,n (proprietà associativa).

3. O + A = A + O = A, A ∈ Rm,n (esistenza dell’elemento neutro).

4. A + (−A) = O, A ∈ Rm,n (esistenza dell’opposto).

Dimostrazione È lasciata per esercizio ed è la naturale conseguenza del fatto che la


somma di numeri reali soddisfa le stesse proprietà. L’elemento neutro per la somma di
matrici è la matrice nulla O ∈ Rm,n introdotta nell’Esempio 2.5, l’opposto della matrice
A = (aij ) ∈ Rm,n è la matrice −A ∈ Rm,n cosı̀ definita −A = (−aij ).

Osservazione 2.2 Un insieme con un’operazione che verifichi le proprietà del teorema
precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le pro-
prietà 2., 3., 4. Pertanto (Rm,n , +) con l’operazione di somma di matrici ha la struttura di
gruppo commutativo.

Definizione 2.4 Si definisce prodotto di un numero reale λ per una matrice A = (aij ) di
Rm,n la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale λ,
ossia:
λA = (λaij ),

quindi λA è ancora una matrice di Rm,n .

A volte si usa il termine scalare per indicare il numero reale λ e il prodotto di un numero
reale per una matrice è anche detto quindi prodotto di uno scalare per una matrice.
Capitolo 2 37

Esempio 2.9 Se:


 
1 2
A= ,
3 4

il prodotto 3A è la matrice:
 
3 6
3A = .
9 12

L’opposto della matrice A è dunque −A = (−1)A. Inoltre 0A = O, dove O indica la


matrice nulla.

Teorema 2.2 Per il prodotto di un numero reale per una matrice valgono le seguenti
proprietà che mettono in relazione la somma di matrici con la somma e il prodotto di
numeri reali:

1. λ(A + B) = λA + λB, λ ∈ R, A, B ∈ Rm,n ;

2. (λ + µ)A = λA + µA, λ, µ ∈ R, A ∈ Rm,n ;

3. (λµ)A = λ(µA), λ, µ ∈ R, A ∈ Rm,n ;

4. 1A = A, A ∈ Rm,n .

Dimostrazione Si tratta di un semplice esercizio.

Osservazione 2.3 L’insieme delle matrici Rm,n , considerato congiuntamente con le ope-
razioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro
proprietà prima enunciate, dà luogo ad una struttura algebrica che è un esempio di spazio
vettoriale.

Gli spazi vettoriali, che costituiscono la base dell’algebra lineare, saranno studiati in mo-
do intensivo a partire dal Capitolo 4. Si è preferito, per ragioni didattiche, anteporre la
descrizione degli esempi più facili di spazi vettoriali alla loro stessa definizione. Que-
sto è il caso di Rm,n e nel prossimo capitolo la stessa idea sarà applicata all’insieme dei
vettori ordinari dello spazio in modo da permettere al Lettore di prendere confidenza con
nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola seconda-
ria superiore e di dare la possibilità di affrontare più agevolmente lo studio dei capitoli
successivi.
38 Matrici e Determinanti

2.2 Il prodotto di matrici


La definizione di prodotto di matrici, oggetto di questo paragrafo, trova una sua giustifica-
zione, per esempio, nella rappresentazione mediante matrici dei movimenti in uno spazio
vettoriale e nella loro composizione, problematiche che saranno trattate diffusamente nel
Capitolo 6.

A prescindere da argomenti più sofisticati, si introduce questa nuova operazione tra ma-
trici che, anche se a prima vista appare singolare, è comunque dotata di interessanti
proprietà, che rendono plausibile la seguente definizione.

Definizione 2.5 Il prodotto della matrice A = (aij ) di Rm,n con la matrice B = (bij ) di
Rn,p è la matrice C = AB = (cij ) di Rm,p i cui elementi sono dati da:
n
X
cij = ai1 b1j + ai2 b2j + . . . + ain bnj = aik bkj . (2.3)
k=1

Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve
avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice
prodotto avrà il numero di righe del primo fattore e il numero di colonne del secondo
fattore. Da questa definizione segue che il prodotto di due matrici non è commutativo. A
titolo di esempio, si calcoli il prodotto delle matrici:
 
  1 −1 2 3
1 2 3
A= , B=  0 1 2 4 ,
4 5 6
3 5 7 9

e si ricavino i primi due elementi della matrice C = (cij ) = AB ∈ R2,4 :

c11 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della prima colonna di B : c11 = 1 · 1 + 2 · 0 + 3 · 3 = 10.

c12 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della seconda colonna di B : c12 = 1 · (−1) + 2 · 1 + 3 · 5 = 16 e cosı̀ via.

La matrice C è dunque:  
10 16 27 38
C= .
22 31 60 86

Per la sua particolare definizione, questo tipo di prodotto di matrici prende il nome di
prodotto righe per colonne.
Capitolo 2 39

Osservazione 2.4 È chiaro che il prodotto di due matrici quadrate dello stesso ordine è
ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in
generale la proprietà commutativa, per esempio date:
   
1 2 0 1
A= , B=
3 4 2 3
si ha:  
4 7
AB =
8 15
mentre:  
3 4
BA = .
11 16
Nel caso delle matrici quadrate di ordine 1 il prodotto è ovviamente commutativo perché
coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto
è commutativo, come si osserverà nel Paragrafo 2.5.

Osservazione 2.5 Il prodotto di matrici ha singolari particolarità. Per esempio:


    
1 −2 2 2 0 0
AB = = = O ∈ R2,2 ,
1 −2 1 1 0 0

in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora ne-
cessariamente o a = 0 o b = 0. Ovviamente se O ∈ Rm,n è la matrice nulla e
A ∈ Rn,p , B ∈ Rk,m allora:

OA = O ∈ Rm,p e BO = O ∈ Rk,n .

Esempio 2.10 Si osservi che, date:




1
 2 
∈ R1,4 , 4,1

A= 1 2 3 4  3 ∈R ,
B= 

4
allora:
AB = (30) ∈ R1,1 ,
mentre:  
1 2 3 4
 2 4 6 8 
BA =   ∈ R4,4 .
 3 6 9 12 
4 8 12 16
40 Matrici e Determinanti

Teorema 2.3 Per il prodotto di matrici valgono le seguenti proprietà:


1. (AB)C = A(BC), A ∈ Rm,n , B ∈ Rn,k , C ∈ Rk,p (proprietà associativa);
2. A(B + C) = AB + AC, A ∈ Rp,m , B, C ∈ Rm,n e
(X + Y )Z = XZ + Y Z, X, Y ∈ Rm,n , Z ∈ Rn,k (proprietà distributive del
prodotto rispetto alla somma. Si osservi la necessità di enunciare entrambe le
proprietà per la mancanza della proprietà commutativa del prodotto);
3. (λA)B = λ(AB) = A(λB), λ ∈ R, A ∈ Rm,n , B ∈ Rn,k ;
4. AI = IA = A, A ∈ Rn,n (le due uguaglianze occorrono solo nel caso del-
le matrici quadrate; la matrice unità I ∈ Rn,n è l’elemento neutro rispetto al
prodotto).
Dimostrazione È lasciata per esercizio nei casi più semplici, per gli altri si rimanda al
Paragrafo 2.9.

È valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici
moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda
al Paragrafo 4.5.
Teorema 2.4 Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2 · · · An ) ≤ min{rank(A1 ), rank(A2 ), . . . , rank(An )}, (2.4)
quindi, in particolare, il rango del prodotto di matrici è minore o uguale del rango di
ciascun fattore.
Osservazione 2.6 È chiaro, anche se può sorprendere, che è necessario porre il segno di
disuguaglianza in (2.4), come si può per esempio notare dal fatto che:
    
0 1 0 1 0 0
= ,
0 0 0 0 0 0
infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0.

2.2.1 I sistemi lineari in notazione matriciale


Usando la definizione di prodotto di matrici, si può scrivere in modo compatto un generico
sistema lineare di m equazioni in n incognite del tipo (1.2). Siano:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
m,n
A =  .. ..  ∈ R
 
..
 . . . 
am1 am2 · · · amn
Capitolo 2 41

la matrice dei coefficienti,


 
x1
 x2 
X=  ∈ Rn,1
 
..
 . 
xn
la matrice colonna delle incognite e:
 
b1
 b2 
B=  ∈ Rm,1
 
..
 . 
bm

la matrice colonna dei termini noti, allora il sistema lineare (1.2) si può scrivere, in
notazione matriciale, come:

AX = B.

2.3 La matrice inversa


Avendo introdotto il prodotto di matrici (che generalizza il prodotto di numeri reali) ap-
pare naturale introdurre il concetto di inversa di una matrice quadrata; a differenza del
caso dei numeri è necessario prestare particolare attenzione alla definizione in quanto il
prodotto di matrici non è commutativo.

Definizione 2.6 Sia A ∈ Rn,n una matrice quadrata di ordine n. A si dice invertibile se
esiste una matrice X ∈ Rn,n tale che:

AX = XA = I, (2.5)

dove I indica la matrice unità di ordine n.

Teorema 2.5 Se A ∈ Rn,n è invertibile, allora la matrice X, definita in (2.5), è unica.

Dimostrazione Si supponga per assurdo che esistano due matrici diverse X, X 0 ∈ Rn,n
che verificano la (2.5). Allora:

X 0 = IX 0 = (XA)X 0 = X(AX 0 ) = XI = X
42 Matrici e Determinanti

che è assurdo. Si osservi che, nella dimostrazione, si è usata la proprietà associativa del
prodotto di matrici.

La matrice X cosı̀ definita si dice matrice inversa di A e si indica con A−1 .

Per la matrice inversa valgono le seguenti proprietà la cui dimostrazione è lasciata per
esercizio.

Teorema 2.6 1. (AB)−1 = B −1 A−1 , con A, B ∈ Rn,n matrici invertibili.


2. (A−1 )−1 = A, con A ∈ Rn,n matrice invertibile.

Osservazione 2.7 Segue dal punto 1. e dalle proprietà del prodotto di matrici che l’in-
sieme:
GL(n, R) = {A ∈ Rn,n | A è invertibile}
è un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), noto come gruppo lineare
generale reale.

Nei paragrafi successivi si affronterà il problema di calcolare l’inversa di una matrice, di


conseguenza, si tratterà di capire, innanzi tutto, quando una matrice quadrata è invertibile.
Si consiglia, prima di continuare la lettura, di svolgere il seguente esercizio.

Esercizio 2.1 Determinare le condizioni affinché la matrice:


 
a11 a12
A=
a21 a22

sia invertibile e, in questi casi, calcolare A−1 .

Si osservi che per risolvere l’esercizio si deve discutere e risolvere il sistema lineare
AX = I :     
a11 a12 x11 x12 1 0
=
a21 a22 x21 x22 0 1
di quattro equazioni nelle quattro incognite x11 , x12 , x21 , x22 , che sono gli elementi della
matrice X.

2.4 La trasposta di una matrice


Definizione 2.7 Data una matrice A ∈ Rm,n si definisce trasposta di A, e la si indica con
t
A la matrice di Rn,m che si ottiene scambiando le righe con le colonne della matrice A,
in simboli se A = (aij ) allora tA = (bij ) con bij = aji , i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Capitolo 2 43

Esempio 2.11 Se:


 
1 2 3
A=
4 5 6

allora:
 
1 4
t
A =  2 5 .
3 6

Se:

A= 1 2 3 4

allora:
 
1
t
 2 
A=
 3 .

Osservazione 2.8 1. Si osservi che se una matrice è quadrata, allora anche la sua
trasposta è una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla
matrice di partenza, per esempio:
   
1 2 t 1 −1
A= , A= .
−1 0 2 0

2. Se una matrice è diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la
matrice stessa.

Per la trasposta di una matrice valgono le seguenti proprietà la cui dimostrazione è lasciata
per esercizio e si può leggere nel Paragrafo 2.9.

t
Teorema 2.7 1. (A + B) = tA + tB, A, B ∈ Rm,n .

2. t (λA) = λ tA, A ∈ Rm,n , λ ∈ R.

3. t (AB) = tB tA, A ∈ Rm,n , B ∈ Rn,k .

4. Se A ∈ Rn,n è una matrice invertibile, allora (tA)−1 = t (A−1 ).


44 Matrici e Determinanti

2.5 Matrici quadrate di tipo particolare


1. L’insieme delle matrici matrici triangolari superiori di Rn,n definito da:
  
 a11 a12 . . . . . . . . . a1n 
 


  0 a22 . . . . . . . . . a2n  


 
 .
 . .
. ... .
.
 

. . .
 
n,n n,n
T (R ) =   ∈ R | aij ∈ R ; (2.6)
 
  0 0 . . . akk . . . akn  

  . . . . .  



  .
. .
. .
. . . .
.  



 

0 0 . . . 0 . . . ann

si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della
diagonale principale, vale a dire se A = (aij ) con i, j = 1, 2, . . . , n, allora aij = 0
se i > j . È facile osservare che la somma di due matrici triangolari superiori è
ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero
reale per una matrice triangolare superiore. Molto più sorprendente è il fatto che il
prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, è ancora
una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice
C = (cij ) ∈ Rn,n prodotto delle matrici triangolari superiori A = (aij ) ∈ T (Rn,n )
e B = (bij ) ∈ T (Rn,n ). Per semplicità si calcola ora solo l’elemento c21 della
matrice prodotto C = AB , lasciando il calcolo in generale per esercizio. Da (2.3)
si ha:

c21 = a21 b11 + a22 b21 + . . . a2n bn1 = 0b11 + a22 0 + . . . + a2n 0 = 0,

in quanto aij = 0 e bij = 0 se i > j .


Si possono definire in modo analogo le matrici triangolari inferiori, con proprietà
simili a quelle descritte nel caso delle matrici triangolari superiori. Come è già stato
osservato nel Capitolo 1, il calcolo del rango di una matrice triangolare superiore è
molto semplice.

2. L’insieme delle matrici diagonali D(Rn,n ) introdotte nell’Esempio 2.6. La carat-


teristica principale di tali matrici è la loro analogia con il campo dei numeri reali,
infatti il prodotto di due matrici diagonali è ancora una matrice diagonale, avente
ordinatamente sulla diagonale principale il prodotto degli elementi corrispondenti
delle due matrici date. Le matrici diagonali sono, ovviamente, sia matrici triangola-
ri superiori sia matrici triangolari inferiori. Quindi una matrice diagonale è ridotta
per righe, di conseguenza, il suo rango è pari al numero degli elementi non nulli
della diagonale principale. Nel caso di rango massimo, la matrice diagonale è in-
vertibile e la sua inversa ha sulla diagonale principale ordinatamente gli inversi dei
Capitolo 2 45

corrispettivi elementi della matrice data, ossia se:


   −1 
a11 0 −1 a11 0
A= , con a11 6= 0, a22 6= 0, allora A = ,
0 a22 0 a−1
22

la verifica di queste affermazioni è lasciata per esercizio.

3. L’insieme delle matrici simmetriche di Rn,n definito da:

S(Rn,n ) = {A ∈ Rn,n | A = tA}; (2.7)

scrivendo esplicitamente la definizione si ottiene che una matrice simmetrica è del


tipo:  
a11 a12 . . . a1n
 a12 a22 . . . a2n 
A =  .. .. ;
 
.. . .
 . . . . 
a1n a2n . . . ann

in altri termini, una matrice A = (aij ) ∈ Rn,n è simmetrica se e solo se:

aij = aji , i, j = 1, 2, . . . , n,

e ciò giustifica la sua denominazione.


Per esercizio si calcoli la somma di due matrici simmetriche, il prodotto di una
matrice simmetrica per un numero reale e la trasposta di una matrice simmetrica e si
stabilisca se si ottiene ancora una matrice simmetrica. Si osservi, in particolare, che
il prodotto di due matrici simmetriche non è, in generale, una matrice simmetrica.
Per esempio:
     
1 −1 3 1 2 2
A= , B= , AB = .
−1 2 1 −1 −1 −3

Per esercizio si individuino le condizioni necessarie e sufficienti affinché il prodotto


di due matrici simmetriche sia ancora una matrice simmetrica. Invece, se A è
una matrice simmetrica invertibile, la sua inversa è ancora una matrice simmetrica,
(cfr. Teor. 2.7, punto 4.). Le matrici diagonali sono ovviamente simmetriche e
una matrice triangolare superiore o inferiore è simmetrica se e solo se è diagonale.
Le matrici simmetriche saranno di importanza fondamentale sia nella teoria della
diagonalizzazione di una matrice (cfr. Cap. 7) sia nella teoria delle forme bilineari
simmetriche (cfr. Cap. 8).
46 Matrici e Determinanti

4. L’insieme delle matrici antisimmetriche di Rn,n definito da:

A(Rn,n ) = {A ∈ Rn,n | A = − tA}; (2.8)

scrivendo esplicitamente la definizione si ottiene che una matrice antisimmetrica è


del tipo:  
0 a12 . . . a1n
 −a12 0 . . . a2n 
A =  .. .. ;
 
.. . .
 . . . . 
−a1n −a2n . . . 0

in altri termini, una matrice A = (aij ) ∈ Rn,n è antisimmetrica se e solo se:

aij = −aji , i, j = 1, 2, . . . , n,

quindi, in particolare, aii = 0, i = 1, 2, . . . , n. Per esercizio si calcoli la somma


di due matrici antisimmetriche, il prodotto di una matrice antisimmetrica per un
numero reale, il prodotto di due matrici antisimmetriche, la trasposta di una matrice
antisimmetrica e si stabilisca se si ottiene ancora una matrice antisimmetrica.

5. L’insieme delle matrici ortogonali di Rn,n definito da:

O(n) = {A ∈ Rn,n | tA A = I}, (2.9)

con I matrice unità di ordine n. Usando il fatto che, in modo equivalente alla de-
finizione, A è ortogonale se A tA = I , si verifichi per esercizio che ogni matrice
ortogonale A è invertibile con inversa A−1 = tA. Si verifichi inoltre che la traspo-
sta e l’inversa di una matrice ortogonale sono matrici ortogonali e che il prodotto
di due matrici ortogonali è ortogonale. Si stabilisca se la somma di due matrici
ortogonali è una matrice ortogonale e se il prodotto di una matrice ortogonale per
un numero reale è una matrice ortogonale. Le matrici ortogonali saranno di impor-
tanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le
loro proprietà saranno dimostrate nel Teorema 5.7.

2.6 Le equazioni matriciali


Per equazione matriciale si intende un’equazione la cui incognita è una matrice. Se si
escludono gli esempi banali di equazioni lineari (ogni numero reale può essere considerato
come una matrice), come già studiato nel Paragrafo 2.2.1, risolvendo un generico sistema
lineare, si ha un esempio di equazione matriciale AX = B con A in Rm,n , X in Rn,1 ,
Capitolo 2 47

B in Rm,1 , dove X è la matrice incognita e A e B sono note. In questo paragrafo verrà


preso in esame lo studio di un’equazione del tipo:

AX = B (2.10)

con A ∈ Rm,n , X ∈ Rn,p , B ∈ Rm,p . L’incognita X = (xij ) dell’equazione matriciale


è, quindi, una matrice con n righe e p colonne. In totale, si devono determinare gli np
elementi xij di X.
Si osservi che, se si è in grado di risolvere l’equazione (2.10), si è anche in grado di
risolvere un’equazione matriciale del tipo:

YC =D (2.11)

con incognita Y, infatti operando con la trasposta su ambo i membri di (2.11) si ha:
t
C t Y = tD,

cioè ci si riconduce ad un’equazione matriciale del tipo (2.10), avendo cura di notare che
l’incognita della nuova equazione sarà t Y.
Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np
incognite. Infatti posto:

   
a11 a12 . . . a1n x11 x12 . . . x1p
 a21 a22 . . . a2n   x21 x22 . . . x2p 
A=  ∈ Rm,n , X=  ∈ Rn,p ,
   
.. .. .. .. .. ..
 . . .   . . . 
am1 am2 . . . amn xn1 xn2 . . . xnp

 
b11 b12 . . . b1p
 b21 b22 . . . b2p 
B=  ∈ Rm,p ,
 
.. .. ..
 . . . 
bm1 bm2 . . . bmp

la prima riga del prodotto AX = B corrisponde al seguente sistema lineare di p righe e


np incognite xij : 

 a11 x11 + a12 x21 + . . . + a1n xn1 = b11
 a11 x12 + a12 x22 + . . . + a1n xn2 = b12

.. (2.12)


 .
 a x + a x + ... + a x = b .
11 1p 12 2p 1n np 1p
48 Matrici e Determinanti

In totale, da AX = B si hanno, quindi, mp equazioni in quanto A ha m righe. Mettendo


in evidenza le righe di X e di B nel modo seguente:
       
x11 x12 . . . x1p X1 b11 b12 . . . b1p B1
 x21 x22 . . . x2p   X2   b21 b22 . . . b2p   B2 
X =  .. = , B = ..  =  .. ,
       
.. ..   ..   .. ..
 . . .   .   . . .   . 
xn1 xn2 . . . xnp Xn bm1 bm2 . . . bmp Bm

il sistema lineare (2.12) si può scrivere come:

a11 X1 + a12 X2 + . . . + a1n Xn = B1 .

Ripetendo lo stesso calcolo per le altre righe di AX = B si ottiene che l’equazione


matriciale (2.10) equivale al sistema lineare di equazioni matriciali:


 a11 X1 + a12 X2 + . . . + a1n Xn = B1
 a21 X1 + a22 X2 + . . . + a2n Xn = B2

..


 .
 a X + a X + ... + a X = B ,
m1 1 m2 2 mn n m

con incognite le righe X1 , X2 , . . . , Xn della matrice X e termini noti le righe B1 , B2 , . . . ,


Bm della matrice B. Si noti, quindi, che il sistema lineare ottenuto è dello stesso tipo dei
sistemi lineari trattati nel Capitolo 1, con la differenza che le incognite sono le righe della
matrice, ossia sono elementi di Rp al posto di essere numeri reali.
Per il Teorema di Rouché–Capelli (cfr. Teor. 1.2), essendo tale sistema equivalente ad
un sistema lineare di mp equazioni in np incognite, esso ammette soluzioni se e solo
se il rango della matrice dei coefficienti A e il rango della matrice completa (A | B)
coincidono. Si procede, pertanto, alla riduzione per righe della matrice completa:
 
a11 a12 . . . a1n b11 b12 . . . b1p
 a21 a22 . . . a2n b21 b22 . . . b2p 
(A | B) =  .. .. .
 
.. .. .. ..
 . . . .
. . 
am1 am2 . . . amn bm1 bm2 . . . bmp

Si distinguono tre casi:

1. rank(A) 6= rank(A | B): non esistono soluzioni;


2. rank(A) = rank(A | B) = n numero delle incognite: esiste una sola soluzione;
3. rank(A) = rank(A | B) = k < n: esistono infinite soluzioni che dipendono da
n − k elementi di Rp .
Capitolo 2 49

Esempio 2.12 Per determinare le soluzioni dell’equazione matriciale AX = B , con:


   
2 3 1 1 2 2
A= 1 0 1 , B =  0 1 −1 ,
0 3 −1 1 0 4

si procede con la riduzione per righe della matrice completa (A | B), per esempio nel
modo seguente:
   
2 3 1 1 2 2 2 3 1 1 2 2
−→
(A | B) =  1 0 1 0 1 −1   0 −3 1 −1 0 −4 ,
R2 → 2R2 − R1
0 3 −1 1 0 4 0 3 −1 1 0 4

da cui si deduce che rank(A) = rank(A | B) = 2, si ottengono cosı̀ infinite soluzioni che
dipendono da un elemento qualsiasi (a, b, c) di R3 . Ponendo:
 
X1
X =  X2  ∈ R3,3
X3

la matrice (A | B) ridotta per righe dà luogo al sistema lineare ridotto:



2X1 + 3X2 + X3 = (1, 2, 2)
−3X2 + X3 = (−1, 0, −4)

le cui soluzioni sono:



 X1 = (1 − 3a, 1 − 3b, 3 − 3c)
X2 = (a, b, c)
X3 = (−1 + 3a, 3b, −4 + 3c), (a, b, c) ∈ R3

e, quindi:  
1 − 3a 1 − 3b 3 − 3c
X= a b c , (a, b, c) ∈ R3 .
−1 + 3a 3b −4 + 3c

Esempio 2.13 Per determinare le soluzioni dell’equazione matriciale XA = B, con:


 
1 0 −1  
1 −1 0
A=  1 1 0 , B=
 ,
0 1 1
1 0 0
si osserva che da XA = B , calcolando la trasposta delle matrici del primo e del secondo
membro, si ha tA tX = tB , pertanto ci si riconduce ad un’equazione matriciale dello
stesso tipo di quella studiata nell’esempio precedente. Ponendo:
50 Matrici e Determinanti

 
Y1
t
X = Y =  Y2  ∈ R3,2
Y3
segue che l’equazione tAY = tB è equivalente al sistema lineare:

 Y1 + Y2 + Y3 = (1, 0)
Y2 = (−1, 1)
−Y1 = (0, 1),

che ha come unica soluzione:

Y1 = (0, −1), Y2 = (−1, 1), Y3 = (2, 0)

e, quindi:  
0 −1 2
X= .
−1 1 0

2.6.1 Calcolo della matrice inversa, primo metodo


Come immediata conseguenza del paragrafo precedente si procede al calcolo dell’even-
tuale matrice inversa di una matrice quadrata A = (aij ) ∈ Rn,n risolvendo l’equazione
matriciale:
AX = I.
Si deve, quindi, ridurre per righe la matrice completa:
 
a11 a12 . . . a1n 1 0 ... 0
 a21 a22 . . . a2n 0 1 ... 0 
(A | I) =  .. .
 
.. . . .. .. .. . . ..
 . . . . . . . . 
an1 an2 . . . ann 0 0 ... 1

È evidente che rank(A | I) = n perché la matrice (A | I) è ridotta per righe in quanto


I è ridotta per righe e rank(I) = n, quindi si ottiene l’importante teorema di seguito
enunciato.

Teorema 2.8 Una matrice quadrata A ∈ Rn,n è invertibile se e solo se rank(A) = n.

Dimostrazione Se esiste l’inversa A−1 di A allora l’equazione matriciale AX = I ha


un’unica soluzione e, quindi, dal Teorema di Rouché–Capelli segue rank(A) = n.
Capitolo 2 51

Il viceversa non può essere dimostrato a questo punto del corso, si rimanda al Paragrafo
4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X ∈ Rn,n
tale che AX = I (per il Teorema di Rouché–Capelli, cfr. Teor. 1.2), ma per dimostrare
che anche XA = I e dedurre quindi che X = A−1 si deve risolvere l’equazione ma-
triciale tA tX = I . Pertanto è necessario dimostrare che anche tA ha lo stesso rango di
A, e ciò sarà oggetto del Teorema 4.19. D’altro canto, se esistono due matrici X e Y,
entrambe appartenti a Rn,n , tali che AX = I e Y A = I allora segue X = Y infatti:

Y = Y I = Y (AX) = (Y A)X = IX = X.

Da rank(A) = n si ha che esiste una sola matrice X tale che AX = I . Da rank(tA) = n


segue che esiste una sola matrice Z ∈ Rn,n tale che tA Z = I. Considerando la trasposta
delle matrici a primo e a secondo membro dell’ultima uguaglianza si ha tZA = I, quindi,
dall’osservazione precedente si ottiene tZ = X = A−1 .

Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante
la risoluzione dell’equazione matriciale AX = I. Un secondo metodo sarà spiegato nel
Paragrafo 2.8.2.

Esercizio 2.2 Supponendo che esista, determinare l’inversa della matrice:

 
0 0 2 0
 1 0 0 1 
A=
 0 −1
.
3 0 
2 1 5 −3

Soluzione Si procede alla riduzione per righe della matrice (A | I), il calcolo del rango
di A è contenuto in questo procedimento:

   
0 0 2 0 1 0 0 0 1 0 0 1 0 1 0 0
   
   
 1 0 0 1 0 1 0 0  −→  0 −1 3 0 0 0 1 0 
   
  R1 ↔ R3  
   
 R2 ↔ R1
 0 −1 3 0 0 0 1 0   0 0 2 0 1 0 0 0 
  
   
2 1 5 −3 0 0 0 1 2 1 5 −3 0 0 0 1
52 Matrici e Determinanti

 
1 0 0 1 0 1 0 0
 
−→  
 0 1 −3 0 0 0 −1 0 
R2 → −R2 



R3 → (1/2)R3 
 0 1 
0 1 0 0 0 0 
R4 → R4 − 2R1 
 2 

0 1 5 −5 0 −2 0 1

 
1 0 0 1 0 1 0 0
 
 
 0 1 −3 0 0 0 −1 0 
−→ 



R4 → R4 − R2 
 0 1 
0 1 0 0 0 0 

 2 

0 0 8 −5 0 −2 1 1

 
1 0 0 1 0 1 0 0
 
 
 0 1 −3 0 0 0 −1 0 
−→ 


.
R4 → R4 − 8R3 
 0 1 
0 1 0 0 0 0 

 2 

0 0 0 −5 −4 −2 1 1

A questo punto dell’esercizio si deduce che rank(A) = 4, pertanto la matrice A è inver-


tibile. Per calcolare direttamente l’inversa conviene procedere riducendo ulteriormente
l’ultima matrice ottenuta, come descritto nell’Esempio 1.9 del Capitolo 1. Dall’ultimo
passaggio segue:
 
1 0 0 1 0 1 0 0
 
 0
 1 −3 0 0 0 −10 

−→
 
1
 
R4 → (−1/5)R4  0 0 1 0 0 0 0 
 
 2 
 
 4 2 1 1 
0 0 0 1 − −
5 5 5 5
Capitolo 2 53

4 3 1 1
 
 1 0 0 0 −
 5 5 5 5 

 3 
−→  0 1 0 0 0 −1 0 
R1 → R1 − R4

 2 
.
 1 
R2 → R2 + 3R3  0 0 1 0 0 0 0 

 2 

 4 2 1 1 
0 0 0 1 − −
5 5 5 5

Si legge cosı̀ nell’ultimo passaggio, a destra, l’espressione di A−1 , infatti le operazioni di


riduzione che iniziano dalla matrice completa (A | I), essendo rank(A) = rank(A | I) = n,
non possono far altro che portare a (I | A−1 ). In altri termini, moltiplicando a sinistra per
A−1 l’equazione matriciale AX = I si ottiene IX = A−1 .

Esercizio 2.3 Data la matrice:


 
1 −3 1 2
 h 0 0 0 
A=
 1 −1
, h ∈ R,
0 0 
0 0 0 h

stabilire per quali valori di h esiste la sua inversa. Determinare esplicitamente A−1
quando possibile.

Soluzione Si procede, come nell’esercizio precedente, alla riduzione per righe della
matrice completa (A | I).
 
1 −3 1 2 1 0 0 0
 h −→
 0 0 0 0 1 0 0 
 R2 → R2 − hR1
 1 −1 0 0 0 0 1 0 
R3 → R3 − R1
0 0 0 h 0 0 0 1
 
1 −3 1 2 1 0 0 0
 0 3h −h −2h −h 1 0 0  −→
 
 0 2 −1 −2 −1 0 1 0  R2 ↔ R3

0 0 0 h 0 0 0 1
 
1 −3 1 2 1 0 0 0
 0 2 −1 −2 −1 0 1 0  −→
 
 0 3h −h −2h −h 1 0 0  R3 → 2R3 − 3hR2

0 0 0 h 0 0 0 1
54 Matrici e Determinanti

 
1 −3 1 2 1 0 0 0
 0
 2 −1 −2 −1 0 1 0 
,
 0 0 h 2h h 2 −3h 0 
0 0 0 h 0 0 0 1

a questo punto si deduce che rank(A) = 4 se e solo se h 6= 0, quindi solo in questo caso
esiste A−1 . Si assume perciò h 6= 0 e si procede con la riduzione per ottenere la matrice
inversa:
 
1 −3 1 2 1 0 0 0
 
−→ 
 1 1 1


R2 → (1/2)R2  0 1 − 2 −1 − 2
 0
2
0 

 
R3 → (1/h)R3  2
 
 0 0 1 2 1 −3 0 

 h 
R4 → (1/h)R4  
 1 
0 0 0 1 0 0 0
h

2
 
 1 −3 1 0 1 0 0 − 
h 

−→ 
1 1 1 1 

0 1 − 0 − 0

R3 → R3 − 2R4  

 2 2 2 h 
R2 → R2 + R4 
2 2 

 0 0 1 0 1 −3 − 
R1 → R1 − 2R4  h h 
 
 1 
0 0 0 1 0 0 0
h

2
 
 1 −3 0 0 0 −
h
3 0 
 
1
 
 0 1 0 0 0 −1 0 
 
−→  h 
R2 → R2 + (1/2)R3  ,
2 2 
 
R1 → R1 − R3  0 0

1 0 1 −3 − 
 h h 
 
 1 
0 0 0 1 0 0 0
h
Capitolo 2 55

1
 
 1 0 0 0 0
h
0 0 
 
1
 
 0 1 0 0 0 −1 0 
 
−→ 
 h 
,
R1 → R1 + 3R2 
2 2 

 0 0 1 0 1 −3 − 

 h h 
 
 1 
0 0 0 1 0 0 0
h

A−1 si legge a destra nell’ultimo passaggio di riduzione.

Il teorema che segue è un corollario del Teorema 2.4, lo stesso risultato si otterrà, con
metodi diversi, nel Capitolo 7.

Teorema 2.9 1. Se A ∈ Rm,n e Q ∈ Rn,n è una matrice invertibile, allora:


rank(AQ) = rank(A).

2. Se A ∈ Rm,n e P ∈ Rm,m è una matrice invertibile, allora:


rank(P A) = rank(A).

3. Se A una matrice quadrata di ordine n e P una matrice invertibile di ordine n,


allora:
rank(A) = rank(P −1AP ).

Dimostrazione È sufficiente dimostrare 1., lo stesso metodo si può applicare a 2. e da


1. e 2. segue immediatamente 3. Il primo punto segue dal Teorema 2.4 e da:
rank(AQ) ≤ rank(A) = rank(A(QQ−1 )) = rank((AQ)Q−1 ) ≤ rank(AQ),
da cui la tesi.

2.7 La traccia di una matrice quadrata


Definizione 2.8 Sia A una matrice quadrata, di ordine n, ad elementi reali. Si definisce
traccia di A, e si indica con tr(A) la somma degli elementi della sua diagonale principale.
Se A = (aij ) allora:
n
X
tr(A) = a11 + a22 + . . . + ann = aii .
i=1
56 Matrici e Determinanti

Le proprietà della traccia di una matrice quadrata sono elencate nel seguente teorema.

Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti proprietà:

1. tr(A + B) = tr(A) + tr(B),

2. tr(λA) = λ tr(A),

3. tr(A B) = tr(B A),

4. tr( tA) = tr(A),

per ogni A, B ∈ Rn,n , per ogni λ ∈ R.

Dimostrazione È quasi un esercizio ed è riportata nel Paragrafo 2.9.

Come immediata conseguenza del punto 3. del teorema precedente, si ottiene:

tr(P −1A P ) = tr(A), (2.13)

per ogni A ∈ Rn,n e per ogni matrice invertibile P di Rn,n , proprietà che sarà molto
importante nel Capitolo 7.

Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla è uguale a zero,
cosı̀ come è uguale a zero la traccia di una matrice antisimmetrica.

2.8 Il determinante
Scopo di questo paragrafo è quello di associare ad ogni matrice quadrata un particolare
numero reale detto determinante della matrice in modo da dimostrare il seguente teorema.

Teorema 2.11 Una matrice quadrata A è invertibile se e solo se il suo determinante non
è uguale a zero.

Si introdurrà la definizione di determinante in modo “sperimentale” senza troppo rigore


matematico; per una discussione precisa e per la dimostrazione di tutte le proprietà si
rimanda al Paragrafo 8.8.

Il determinante di una matrice quadrata è una funzione:

det : Rn,n −→ R, A 7−→ det(A)

che verifica queste prime proprietà.


Capitolo 2 57

1. Se a è un numero reale, quindi identificabile con la matrice quadrata A = (a) di


ordine 1, allora det(A) = a.
 
a11 a12
2. Se A = , allora det(A) = a11 a22 − a12 a21 .
a21 a22

Il determinante di una matrice quadrata è anche spesso indicato con due tratti verticali che
sostituiscono le parentesi tonde della matrice. Nel caso della matrice A di ordine 2 si ha:

a11 a12
a21 a22 = a11 a22 − a12 a21 .

Osservando con attenzione lo sviluppo del determinante nel caso della matrice quadrata
di ordine 2, si nota che compaiono due addendi, ciascuno dei quali è il prodotto di due
fattori il cui primo indice corrisponde alla sequenza (1, 2) e il secondo indice corrisponde
alle due permutazioni di (1, 2): (1, 2) e (2, 1). La prima permutazione (pari) impone
il segno positivo all’addendo a11 a22 , la seconda permutazione (dispari) impone il segno
negativo all’addendo a12 a21 .

Si può cosı̀ indovinare la regola per calcolare il determinante di una matrice quadrata
qualsiasi. A questo scopo, si controlli ancora lo sviluppo del determinante nel caso delle
matrici di ordine 3. L’esempio che segue riassume, nel caso particolare dell’ordine 3,
la teoria dei determinanti delle matrici di ordine n che verrà successivamente esposta. Si
consiglia di studiarlo con grande attenzione e farne riferimento per dimostrare le proprietà
generali dei determinanti che verranno man mano elencate.

Esempio 2.14 È noto dal calcolo combinatorio che le permutazioni dei numeri 1, 2, 3
sono 3! = 6, tre di esse sono pari e sono dette permutazioni circolari, ossia: (1, 2, 3),
(3, 1, 2), (2, 3, 1) e tre sono dispari: (1, 3, 2), (3, 2, 1), (2, 1, 3). Più precisamente, se a
partire dalla terna (1, 2, 3) si perviene alla terna (2, 1, 3) si è effettuato uno scambio che
comporta un segno negativo associato alla permutazione (2, 1, 3), effettuati due scambi si
ha segno positivo e cosı̀ via. Per meglio visualizzare le permutazioni e contare il numero
degli scambi intermedi in modo da ottenere il segno della permutazione finale è utile la
classica notazione del calcolo combinatorio:

1 2 3
↓ ↓ ↓
σ(1) = 2 σ(2) = 1 σ(3) = 3,

dove σ indica una permutazione di 1, 2, 3 e non è altro che una funzione biiettiva dall’in-
sieme {1, 2, 3} in sé.
58 Matrici e Determinanti

Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2, “si indo-
vina” lo sviluppo del determinante di una matrice quadrata di ordine 3, ponendo:

a11 a12 a13

a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31

a31 a32 a33
−a11 a23 a32 − a13 a22 a31 − a12 a21 a33
X
= (σ)a1σ(1) a2σ(2) a3σ(3) ,
σ

dove σ indica una qualsiasi permutazione dei numeri 1, 2, 3 e (σ) è il suo segno. Si
osserva che, per costruzione, ogni addendo a1σ(1) a2σ(2) a3σ(3) contiene un elemento ap-
partenente a ciascuna riga e a ciascuna colonna della matrice A. In altri termini in ogni
addendo non esistono due elementi appartenenti ad una stessa riga o ad una stessa colonna
di A, perché σ è una biiezione.

Si può cosı̀ enunciare la definizione di determinante di una matrice quadrata di ordine n.

Definizione 2.9 Il determinante di una matrice quadrata A = (aij ) di ordine n è dato


da: X
det(A) = (σ)a1σ(1) a2σ(2) . . . anσ(n) , (2.14)
σ

dove σ indica una qualsiasi permutazione dei numeri 1, 2, . . . , n e (σ) è il suo segno.

Osservazione 2.10 Come già osservato nell’Esempio 2.14, in ogni addendo della som-
ma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna
della matrice A, inoltre ogni addendo di (2.14) è il prodotto di n elementi della matrice
quadrata A appartenenti ad ogni riga e ad ogni colonna di A.

Dalla Definizione 2.9 si deducono le seguenti proprietà.

Teorema 2.12 1. Sia A una matrice quadrata di ordine n avente una riga (oppure
una colonna) formata da tutti 0, allora det(A) = 0.

2. Per ogni matrice quadrata A, det(A) = det(tA).

3. Se A = (aij ) ∈ Rn,n è una matrice triangolare superiore allora:

det(A) = a11 a22 . . . ann ,

la stessa proprietà vale nel caso di una matrice triangolare inferiore.


Capitolo 2 59

Dimostrazione 1. È ovvia conseguenza della Definizione 2.9 e anche dell’Osserva-


zione 2.10.

2. Si consideri il caso del determinante di una matrice quadrata A di ordine 2, il caso


generale è una generalizzazione di questo ragionamento. Come già osservato:

det(A) = a11 a22 − a12 a21 ,

mentre:

a a
det( A) = 11 21
t

= a11 a22 − a21 a12 = a11 a22 − a12 a21 = det(A);
a12 a22

infatti il determinante della matrice trasposta si ottiene semplicemente applicando


la proprietà commutativa del prodotto ad ogni addendo della somma precedente.

3. Si dimostra per semplicità la proprietà solo nel caso di A ∈ R4,4 , lasciando al


Lettore per esercizio la dimostrazione nel caso generale. Sia:
 
a11 a12 a13 a14
 0 a22 a23 a24 
A=  0
,
0 a33 a34 
0 0 0 a44

dalla definizione di determinante (2.14) si ha:


X
det(A) = (σ)a1σ(1) a2σ(2) a3σ(3) a4σ(4) .
σ

Se a44 = 0 l’ultima riga è formata da tutti zeri e pertanto det(A) = 0, da cui la tesi.
Se a44 6= 0, l’unico elemento non nullo dell’ultima riga è a44 , quindi la formula
precedente si riduce a:
X
det(A) = (σ)a1σ(1) a2σ(2) a3σ(3) a44 , (2.15)
σ

con σ permutazione dei numeri 1, 2, 3. Di nuovo, l’unico elemento non nullo di


tale somma, appartenente alla terza riga, è a33 , quindi (2.15) si riduce a:
X
det(A) = (σ)a1σ(1) a2σ(2) a33 a44
σ

con σ permutazione dei numeri 1, 2. Procedendo allo stesso modo si perviene alla
tesi.
60 Matrici e Determinanti

È di importanza fondamentale il teorema che segue.

Teorema 2.13 Sia A una matrice quadrata di ordine n ridotta per righe, allora:
rank(A) = n ⇐⇒ det(A) 6= 0
e, in modo equivalente:
rank(A) < n ⇐⇒ det(A) = 0.

Dimostrazione La dimostrazione è ovvia se la matrice ridotta per righe è triangolare


superiore. In questo caso il determinante è dato dal prodotto degli elementi della diagona-
le principale, come osservato nel Teorema 2.12. Rimane da dimostrare che ogni matrice
ridotta per righe può essere trasformata in una matrice triangolare superiore mediante
l’applicazione delle tre operazioni di riduzione sulle righe (senza variarne il rango). An-
che questo fatto è ovvio, ma per maggiore chiarezza sul tipo di procedimento da seguire
si rimanda all’esercizio seguente che illustra, in un caso particolare, la procedura.

Esercizio 2.4 Si riconduca a forma triangolare superiore la matrice:


 
1 2 3 4
 1 2 0 3 
A=  5 0 0 2 

1 0 0 0
ridotta per righe e il cui rango è 4.

Soluzione Si procede con l’applicazione delle tre operazioni di riduzione alla matrice
A nel modo seguente:
   
1 2 3 4 −→ 1 2 3 4
 1 2 0 3  R2 → R2 − R1  0 0 −3 −1 
   
 5 0 0 2  R3 → R3 − 5R1  0 −19 −15 −18 
1 0 0 0 R4 → R4 − R1 0 −2 −3 −4

−→    
1 2 3 4 1 2 3 4
R2 → −R2  0 19 15 18  −→  0 19 15 18 
R3 → −R3  
 0 0 3 1  R4 → 19R4 − 2R2

 0 0 3 1 

R4 → −R4
0 2 3 4 0 0 27 40
R2 ↔ R3
 
1 2 3 4
−→  0 19 15 18 
 ,
R4 → 3R4 − 27R3  0 0 3 1 
0 0 0 93
Capitolo 2 61

ottenendo cosı̀ una matrice triangolare superiore che ha, ovviamente, ancora rango 4.

Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni proprietà relativa al
calcolo del determinante dimostrata per le righe di una matrice quadrata è anche valida
per le colonne.

Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata
qualsiasi.

Teorema 2.14 1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una
matrice quadrata A per un numero reale λ, allora il determinante di A viene
moltiplicato per λ.

2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A,
allora il determinante di A cambia di segno.

3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo.

4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante
nullo.

5. Se alla riga Ri di una matrice quadrata A si sostituisce la particolare combinazio-


ne lineare Ri +λRj (dove Rj indica una riga parallela a Ri , i 6= j ) il determinante
di A non cambia, analoga proprietà vale per le colonne.

Dimostrazione 1. È ovvio dalla definizione di determinante.

2. È conseguenza della definizione di determinante e del fatto che lo scambio di due


righe comporta il cambiamento di segno di ciascuna permutazione. Per esempio,
nel caso della matrice quadrata di ordine 2 si ha:

a11 a12
a21 a22 = a11 a22 − a12 a21 ,

invece:
a21 a22
= a21 a12 − a22 a11 = −a11 a22 + a12 a21 .
a11 a12

3. Segue dalla proprietà precedente, infatti scambiando due righe (colonne) uguali
di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio
det(A) = a, dopo lo scambio det(A) = −a (per la proprietà precedente), ma
poiché la matrice non cambia allora a = −a, da cui la tesi.
62 Matrici e Determinanti

4. Segue da 1. e da 3.

5. Si calcoli il determinante di una matrice quadrata di ordine n mettendo in evidenza


le sue righe e l’operazione richiesta Ri → Ri + λRj , i 6= j :

R1 R1 R1
.. .. ..

. . .


Ri + λRj Ri Rj


..
= ..
+ λ ..
.

. . .

R j

Rj


Rj

.. .. ..

.
.


.

Rn Rn Rn

L’uguaglianza precedente è una evidente conseguenza della definizione di determi-


nante, quindi la tesi segue dalla terza proprietà.

Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha il teorema che segue.

Teorema 2.15 Sia A una matrice quadrata di ordine n allora:

rank(A) = n ⇐⇒ det(A) 6= 0

e, in modo equivalente:

rank(A) < n ⇐⇒ det(A) = 0.

Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma trian-
golare superiore:
 
1 −1 2 1
 3 1 1 2 
A= .
 2 2 −2 1 
1 0 1 −1

Soluzione Per esempio si può procedere come segue:


Capitolo 2 63


1 −1 2 1 −1 1 2 1
−→
3 1 1 2 −→ 1 3 1 2
R2 → R2 + R1


2 2 −2 1 C1 ↔ C2
2 2 −2 1
R3 → R3 + 2R1
1 0 1 −1 0 1 1 −1


−1
−1 1 2 1
1 2 1
−→ −→


0
0 4 3 3
4 3 3
R3 → R3 − R2
0 0 −1 0 R3 → −R3

0 4 2 3
R4 → R4 − (1/4)R2
1 7 R4 → 4R4

0 1 1 −1 0 0 −


4 4

−1 1 2 1 −1 1 2 1

1 0 4 3 3 −→ 1 0 4 3 3

R4 → R4 − R3 − = −7.
4 0 0 1 0 4 0 0 1 0

0 0 1 −7 0 0 0 −7

Il teorema che segue stabilisce importanti proprietà del determinante in relazione al pro-
dotto di una matrice per uno scalare e al prodotto di matrici.

Teorema 2.16 1. det(λA) = λn det(A), A ∈ Rn,n , λ ∈ R;

2. Teorema di Binet: det(AB) = det(A) det(B), A, B ∈ Rn,n ;

3. Se A è una matrice invertibile, allora det(A−1 ) = det(A)−1 .

Dimostrazione 1. È ovvia dalla Definizione 2.4 di prodotto di un numero reale per


una matrice e dalla Definizione 2.9 di determinante.

2. Si tratta di una proprietà sorprendente e di difficile dimostrazione. È vera nel caso


di matrici triangolari superiori, ricordando che il prodotto di due matrici triangolari
superiori è ancora una matrice dello stesso tipo e che il determinante di una matrice
triangolare superiore è il prodotto degli elementi della diagonale principale (analo-
gamente è anche vero nel caso delle matrici triangolari inferiori). Nel Capitolo 7 si
dimostrerà questa proprietà nel caso di matrici quadrate con particolari proprietà (le
matrici diagonalizzabili), ma solo nel Paragrafo 8.8 si arriverà ad una dimostrazione
nel caso generale.

3. È una conseguenza del Teorema di Binet applicato a AA−1 = I con I matrice


unità. Si ha det(A) det(A−1 ) = det(I) = 1 da cui la tesi.

Osservazione 2.12 1. Si deduce, dalla proprietà 3. del teorema precedente, che:


64 Matrici e Determinanti

se A ∈ Rn,n è invertibile, allora det(A) 6= 0;

nel paragrafo che segue si dimostrerà anche il viceversa.


2. In generale, se A, B sono matrici di Rn,n allora det(A + B) 6= det(A) + det(B).
Infatti si considerino le matrici:
   
1 2 1 −2
A= , B=
3 4 4 5
per le quali det(A) = −2, det(B) = 13, ma:
 
2 0
A+B =
7 9
e det(A + B) = 18.
Esercizio 2.6 Dimostrare che se A è una matrice antisimmetrica di ordine dispari, allora
det(A) = 0.

2.8.1 I Teoremi di Laplace


Un’altra definizione di rango di una matrice
Esempio 2.15 Si consideri lo sviluppo del determinante di una matrice di ordine 3 de-
scritto nell’Esempio 2.14 e lo si trasformi applicando le proprietà commutativa e distribu-
tiva del prodotto rispetto alla somma di numeri reali nel modo seguente:


a11 a12 a13

a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a11 a23 a32

a31 a32 a33 −a13 a22 a31 − a12 a21 a33

= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 )
+a13 (a21 a32 − a22 a31 )

a a
= a11 22 23 − a12 a21 a23 + a13 a21 a22


a32 a33 a31 a33 a31 a32

a a
= a31 12 13 − a32 a11 a13 + a33 a11 a12


a22 a23 a21 a23 a21 a22

a a
= −a12 21 23 + a22 a11 a13 − a32 a11 a13

.
a31 a33 a31 a33 a21 a23
Capitolo 2 65

L’espressione precedente permette di indovinare una regola di calcolo del determinante


per le matrici di ordine qualsiasi. Per fare ciò è necessario introdurre alcune definizioni.

Definizione 2.10 Sia A = (aij ) ∈ Rn,n ; si definisce minore dell’elemento aij il determi-
nante Mij della matrice di ordine n − 1 che si ottiene da A togliendo l’i-esima riga e la
j -esima colonna.

La definizione precedente si estende in modo naturale alla seguente.

Definizione 2.11 Un minore di ordine k, (k < m, k < n, k 6= 0) di una matrice A


di Rm,n è il determinante di una qualsiasi sottomatrice quadrata B di ordine k che si
ottiene da A togliendo m − k righe e n − k colonne.

Esempio 2.16 Data la matrice:


 
1 2 3 4
 
 5 6 7 8 
A= ,
 
 9 10 11 12 
 
1 −2 3 −4

il minore M12 è:


5 7 8


M12 = 9 11 12 = 64.


1 3 −4
Un minore di ordine 2 della matrice A è:

1 2
= −4,
5 6

infatti è il determinante della matrice quadrata di ordine 2 ottenuta togliendo la terza e la


quarta riga e la terza e la quarta colonna della matrice A. A partire dalla matrice A quanti
minori di ordine 2 si trovano? È evidente invece che i minori di ordine 1 di A sono 16 e
sono gli elementi di A.

Definizione 2.12 Sia A = (aij ) ∈ Rn,n ; si definisce cofattore o complemento algebrico


dell’elemento aij il numero Aij definito da:

Aij = (−1)i+j Mij .


66 Matrici e Determinanti

Esempio 2.17 Nell’Esempio 2.16 il cofattore dell’elemento a12 è A12 = −M12 = −64.
L’Esempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante
di una matrice quadrata di ordine qualsiasi.
Teorema 2.17 – Primo Teorema di Laplace – Il determinante di una matrice quadrata
A = (aij ) ∈ Rn,n è dato da:
n
X n
X
det(A) = aik Aik = ahj Ahj , (2.16)
k=1 h=1

per ogni i = 1, 2, . . . , n, j = 1, 2, . . . , n. In altri termini, il determinante della matri-


ce quadrata A si ottiene moltiplicando gli elementi di una riga fissata (nella formula
precedente è la i-esima) per i rispettivi cofattori, inoltre il valore ottenuto non dipende
dalla riga scelta. L’ultimo membro di (2.16) afferma che tale proprietà vale anche per la
j -esima colonna.
Dimostrazione È un calcolo che segue da (2.14), allo stesso modo con cui è stato
condotto nell’Esempio 2.15.
Esempio 2.18 Per calcolare il determinante della matrice, oggetto dell’Esercizio 2.5, si
può usare il Primo Teorema di Laplace 2.17. La presenza del numero 0 al posto (4, 2) di
tale matrice suggerisce di sviluppare il determinante rispetto alla seconda colonna oppure
rispetto alla quarta riga. Si riportano di seguito esplicitamente entrambi i calcoli:

3 1 2 1 2 1 1 2 1

det(A) = 2 −2 1 + 2 −2 1 − 2 3 1 2
1 1 −1 1 1 −1 1 1 −1
 
−2 1 + 2 2 −2
2 1
= 3 −
1 −1 1 −1 1 1
 
−2 1 2 −2
− 2 2 1

+ +
1 −1 1 −1 1 1
 
1 2 − 2 3 2
3 1
−2 +
1 −1 1 −1 1 1

−1 2 1 1 −1 1 1 −1 2

= − 1 1 2 − 3
1 2 − 3
1 1 ,

2 −2 1 2 2 1 2 2 −2
si lascia la conclusione al Lettore, osservando però che la determinazione dello stesso
determinante condotta nell’Esercizio 2.5 è stata molto più agevole.
Capitolo 2 67

Teorema 2.18 – Secondo Teorema di Laplace – In una matrice quadrata A = (aij ) di


Rn,n la somma dei prodotti degli elementi di una riga (o colonna) per i cofattori di una
riga (o una colonna) parallela è zero, in formule:
n
X n
X
aik Ajk = ahi Ahj = 0, i 6= j. (2.17)
k=1 h=1

Dimostrazione È evidente conseguenza della seconda proprietà del Teorema 2.14, in-
fatti (2.17) si può interpretare come lo sviluppo del determinante di un matrice in cui, nel
primo caso, la riga j -esima coincide con la riga i-esima e nel secondo caso, la colonna
j -esima coincide con la colonna i-esima.

Utilizzando la nozione di determinante e di minore si può enunciare una seconda defini-


zione di rango di una matrice A ∈ Rm,n , equivalente a quella già introdotta (cfr. Def.
1.10). La dimostrazione dell’equivalenza tra le due definizioni di rango è rimandata al
Paragrafo 4.5.

Definizione 2.13 Il rango di una matrice A ∈ Rm,n è pari al massimo ordine di un


minore non nullo di A.

Esempio 2.19 Si consideri la matrice:


 
1 2 1 2
A= 2 4 2 4 
0 1 0 1

che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe.
Considerando, invece, la Definizione 2.13 di rango si vede subito che ogni minore di A
di ordine 3 è uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due
righe proporzionali. Invece:
2 4
0 1 =2

da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.

2.8.2 Calcolo della matrice inversa, secondo metodo


In questo paragrafo si introdurrà un altro metodo di calcolo della matrice inversa A−1 di
una matrice data A, facendo uso della nozione di determinante. Per questo scopo si inizia
con la definizione di una matrice particolare associata ad una qualsiasi matrice quadrata.
68 Matrici e Determinanti

Definizione 2.14 Data A ∈ Rn,n , si consideri la matrice B = (Aij ) ∈ Rn,n avente


ordinatamente come elementi i cofattori di A, la trasposta di tale matrice prende il nome
di aggiunta di A e si indica con adj(A).

Esempio 2.20 Data:


 
1 2 3
A =  −1 2 5 
0 1 2
la sua aggiunta è:
 
−1 −1 4
adj(A) =  2 2 −8 .
−1 −1 4

Teorema 2.19 Sia A una matrice quadrata di ordine n, se det(A) 6= 0 allora esiste
l’inversa di A e:
1
A−1 = adj(A).
det(A)

Dimostrazione Sia:
1
B = (bij ) = adj(A),
det(A)
il teorema è dimostrato se AB = (cij ) = I , in altri termini se cij = δij , dove δij è il
simbolo di Kronecker, ossia δii = 1 e δij = 0, i 6= j . Si calcola:
n n
X 1 X 1
cii = aik bki = aik Aik = det(A) = 1;
k=1
det(A) k=1 det(A)

la precedente uguaglianza segue dal Primo Teorema di Laplace 2.17. Se i 6= j si ha


invece:
n n
X 1 X
cij = aik bkj = aik Ajk = 0,
k=1
det(A) k=1

per il Secondo Teorema di Laplace 2.18.

Osservazione 2.13 Il teorema precedente insieme con il Teorema 2.16 e il Teorema 2.13
permettono di concludere che, nel caso di una matrice quadrata A ∈ Rn,n :

∃A−1 ⇐⇒ det(A) 6= 0 ⇐⇒ rank(A) = n.


Capitolo 2 69

Esempio 2.21 È agevole applicare il metodo di calcolo della matrice inversa appena
introdotto nel caso di una matrice quadrata di ordine 2, infatti se:
 
a11 a12
A=
a21 a22

e det(A) 6= 0 allora:  
−1 1 a22 −a12
A = .
det(A) −a21 a11

Esempio 2.22 Considerata la matrice A dell’Esercizio 2.2, se ne determini l’inversa


usando il procedimento descritto. Si tratta di calcolare i cofattori di tutti gli elementi
della matrice, ossia 16 determinanti di matrici quadrate di ordine 3 e, quindi, la matrice
aggiunta. Si ottiene:
 
−8 6 2 2
1 1  15 0 −10 0 
A−1 = adj(A) = .
det(A) 10  5 0 0 0 
8 4 −2 −2

Osservazione 2.14 Dalla definizione di aggiunta di una matrice quadrata A di ordine n,


segue:
A adj(A) = det(A)I, (2.18)
dove I indica la matrice unità di Rn,n . Si osservi che la formula (2.18) vale per ogni
matrice A, anche se non è invertibile.

2.8.3 Il Teorema di Cramer


È conseguenza del paragrafo precedente un metodo di calcolo che permette di risolvere
i sistemi lineari compatibili che hanno il numero delle equazioni pari al numero delle
incognite, cioè del tipo:


 a11 x1 + a12 x2 + . . . . . . + a1n xn = b1
 a21 x1 + a22 x2 + . . . . . . + a2n xn = b2

.. (2.19)


 .
 a x + a x + ...... + a x = b .
n1 1 n2 2 nn n n

La matrice dei coefficienti A = (aij ) ∈ Rn,n è quadrata. Se det(A) 6= 0 segue dal


Teorema di Rouché–Capelli 1.2 che il sistema lineare (2.19) è compatibile. In notazione
matriciale (cfr. Par. 2.2.1) il sistema lineare (2.19) equivale a:
AX = B, (2.20)
70 Matrici e Determinanti

dove X ∈ Rn,1 è la matrice delle incognite e B ∈ Rn,1 è la matrice colonna dei termini
noti. Poiché det(A) 6= 0, A è invertibile e quindi è possibile moltiplicare a sinistra ambo
i membri di (2.20) per A−1 , ottenendo cosı̀:

X = A−1 B.

Dal Teorema 2.19, sostituendo l’espressione di A−1 , si ha:


    
x1 A11 A21 . . . An1 b1
 x2  1  A12 A22 . . . An2 b2
  
X =  ..  =
   
 . .. ... .. ..
 .  det(A)  ..
 
. .  . 
xn A1n A2n . . . Ann bn

da cui, uguagliando, si ricava:




b1 a12 . . . a1n
1 b2 a22 . . . a2n
x1 = .. .

.. .. ...
det(A)

. . .
bn an2 . . . ann

In generale si ha:


a11 a12 . . . b1 . . . a1n


a21 a22 . . . b2 . . . a2n

1
.. .. .. ..
. . . .

xi = , i = 1, 2, . . . , n, (2.21)
det(A)
.. .. .. ..

. . . .


an1 an2 . . . bn . . . ann

dove l’i-esima colonna coincide con quella dei termini noti.

Teorema 2.20 – Teorema di Cramer – In un sistema lineare del tipo (2.19) di n equa-
zioni in n incognite la cui matrice A dei coefficienti ha determinante diverso da zero la
i-esima incognita si ottiene dalla formula (2.21).

Esempio 2.23 Dato il sistema lineare:



 2x1 − x2 + x3 = 0
3x1 + 2x2 − 5x3 = 1
x1 + 3x2 − 2x3 = 4,

Capitolo 2 71

il determinante della matrice A dei coefficienti è dato da:



2 −1 1

det(A) = 3 2 −5 = 28 6= 0.
1 3 −2
Quindi esiste una sola soluzione che può essere determinata usando il Teorema di Cramer
nel modo seguente:

0 −1 1 2 0 1 2 −1 0
1 , x2 = 1 3 1 −5 , x3 = 1 3

x1 = 1 2 −5 2 1 .
28 28 28
4 3 −2 1 4 −2 1 3 4

Osservazione 2.15 Si osservi che ad ogni sistema lineare compatibile è applicabile il


Teorema di Cramer. Sia, infatti, AX = B un sistema lineare compatibile con A in Rm,n ,
X in Rn,1 , B in Rm,1 e sia r = rank(A | B) = rank(A). Riducendo eventualmente per
righe la matrice completa iniziale (A | B) e scambiando opportunamente le righe si può
ottenere una nuova matrice:
 0
a11 a012 . . . a01n b01

 .. .. .. .. 
 . . . . 
(A0 | B 0 ) =  a0r1 a0r2 . . . a0rn b0r 
 
 . .. .. .. 
 ..

. . . 
a0 m1 a0 m2 . . . a0 b0
mn m

tale che le prime r righe di A0 formino una matrice di rango r. Equivalentemente non
è restrittivo supporre che dalle prime r righe di A0 sia possibile estrarre una matrice
quadrata C di ordine r e di rango r. Infatti, se cosı̀ non fosse si avrebbe rank(A) =
rank(A0 ) ≤ r − 1, perché ogni matrice quadrata di ordine r estratta da A0 avrebbe
determinante nullo (cfr. Def. 2.13). Portando a secondo membro le colonne di A0 diverse
da quelle di C si ottiene la matrice completa (C | B 00 ) di un nuovo sistema lineare con r
incognite e con det(C) 6= 0, equivalente a quello di partenza. Quest’ultima affermazione
è vera perché le operazioni di riduzione per righe trasformano il sistema lineare in un altro
ad esso equivalente e dal fatto che il rango di C sia r segue che il sistema lineare ammette
infinite soluzioni che dipendono da n − r incognite libere che sono, con questo metodo,
proprio quelle portate a secondo membro (cfr. Cap.1). In questo modo, utilizzando il
Teorema di Cramer si possono esprimere le r incognite in funzione delle rimanenti n − r
incognite libere. Segue un esempio di ciò che è stato appena osservato.

Esempio 2.24 Si consideri il sistema lineare:



x + 3y + z = −1
(2.22)
−x + 2y − z = 0,
72 Matrici e Determinanti

osservato che il rango della matrice dei coefficienti:


 
1 3 1
A=
−1 2 −1

è 2 e assunta z come incognita libera, in questo caso la matrice C citata nell’osservazione


precedente è:  
1 3
C= .
−1 2
Il sistema lineare (2.22) si può scrivere:

x + 3y = −1 − z
(2.23)
−x + 2y = z.

Ma a (2.23) è applicabile il Teorema di Cramer perché:



1 3
−1 2 = 5.

La soluzione è:

−1−z 3 1 −1−z

z 2 2 −1 z 1
x= = −z − , y= =− , z ∈ R.
5 5 5 5

2.9 Per saperne di più


In questo paragrafo sono riportate le dimostrazioni di alcune proprietà che nel paragrafo
precedente sono state lasciate al Lettore per esercizio.

Esercizio 2.7 Si dimostri che:


(AB)C = A(BC), A ∈ Rm,n , B ∈ Rn,p , C ∈ Rp,l .

Soluzione Siano A = (aij ) ∈ Rm,n , B = (bij ) ∈ Rn,p , C = (cij ) ∈ Rp,l .


Allora AB = (dij ) ∈ Rm,p e:
Xn
dij = aik bkj .
k=1

Quindi (AB)C = (eij ) ∈ Rm,l , con:


p p p
n
! n
X X X X X
eij = dih chj = aik bkh chj = aik bkh chj
h=1 h=1 k=1 h=1 k=1
Capitolo 2 73

che è l’espressione del generico elemento della matrice a primo membro. Per il secondo
membro si ha BC = (fij ) ∈ Rn,l , con:
p
X
fij = bih chj
h=1

e A(BC) = (gij ) ∈ Rm,l , dove:


p p
n n
! n X
X X X X
gij = aik fkj = aik bkh chj = aik bkh chj ,
k=1 k=1 h=1 k=1 h=1

da cui segue la tesi.

Esercizio 2.8 Si dimostri che:

t
(AB) = tB tA, A ∈ Rn,p , B ∈ Rp,m .

Soluzione Date la matrici A = (aij ) ∈ Rn,p e B = (bij ) ∈ Rp,m , il loro prodotto è la


matrice C = AB = (cij ) ∈ Rn,m , dove:
p
X
cij = aik bkj .
k=1

La matrice a primo membro t (AB) = (dij ) di Rm,n ha elementi del tipo:


p
X
dij = cji = ajk bki .
k=1

La matrice tA = (eij ) di Rp,n ha elementi del tipo eij = aji . La matrice tB = (fij )
di Rm,p ha elementi del tipo fij = bji . La matrice prodotto tB tA = (gij ) di Rm,n ha
elementi del tipo:
p p p
X X X
gij = fik ekj = bki ajk = ajk bki ,
k=1 k=1 k=1

da cui segue la tesi.

Esercizio 2.9 Si dimostri che:


(tA)−1 = t (A−1 ),
per ogni matrice invertibile A ∈ Rn,n .
74 Matrici e Determinanti

Soluzione Si tratta di dimostrare che t (A−1 ) è l’inversa di tA, infatti:


t
(A−1 ) tA = t (A A−1 ) = t I = I.

Esercizio 2.10 Si dimostri che:

tr(A B) = tr(B A), A, B ∈ Rn,n .

Soluzione Date le matrici A = (aij ) ∈ Rn,n e B = (bij ) ∈ Rn,n , gli elementi della
diagonale principale del prodotto AB sono:
n
X
cii = aih bhi ,
h=1

quindi:
n
X n
X
tr(A B) = cll = alh bhl . (2.24)
l=1 h,l=1

Siano dii gli elementi della diagonale principale del prodotto BA, si ha:
n
X
dii = bik aki ,
k=1

la traccia di BA diventa:
n
X n
X
tr(B A) = dmm = bmk akm
m=1 m,k=1

da cui, confrontando con (2.24), segue la tesi.


Capitolo 3

Calcolo Vettoriale

Il calcolo vettoriale elementare è l’argomento di base per lo studio dell’algebra linea-


re e della geometria analitica nella retta, nel piano e nello spazio, inoltre si rivela uno
strumento prezioso per la matematica applicata e la fisica in particolare.
In questo capitolo si assumono note le principali nozioni di geometria euclidea del piano
e dello spazio, cosı̀ come sono solitamente trattate nel primo biennio della scuola secon-
daria superiore. Vale a dire si assume che il Lettore abbia familiarità con i concetti di:
punto, retta, piano e le loro reciproche posizioni, nonché le loro principali proprietà. Sa-
ranno, pertanto, usate le notazioni tradizionali, indicando, quindi, con le lettere maiuscole
dell’alfabeto A, B, . . . , i punti, con le lettere minuscole r, s, . . . , le rette e con le lettere
minuscole dell’alfabeto greco α, β, . . . , i piani. La retta (intesa come retta di punti) sarà
indicata con S1 , il piano (inteso come piano di punti) con S2 , lo spazio, inteso come
spazio di punti, con S3 . Gli spazi S1 , S2 , S3 sono esempi di spazi affini rispettivamente
di dimensione 1, 2, 3. Per la trattazione assiomatica degli spazi affini, che non è inserita
in questo testo, si rimanda ad esempio a [17], invece il concetto di dimensione di uno
spazio formato da vettori sarà introdotto in questo capitolo e poi definito formalmente
nel capitolo successivo Per il momento si raccomanda di non pensare al significato for-
male dei termini che sono stati usati, ma di limitarsi a richiamare le nozioni elementari
impartite nelle scuole secondarie su questi spazi. Man mano che si procederà con lo stu-
dio dell’algebra lineare, si preciseranno in modo corretto le terminologie comunemente
usate. Si assumono, inoltre, noti i primi rudimenti di trigonometria, quali, ad esempio, le
definizioni delle funzioni trigonometriche elementari e le loro principali proprietà.

3.1 Definizione di vettore


Definizione 3.1 Si consideri un segmento AB appartenente ad una retta r dello spazio
ambiente S3 . Ad AB si associa la direzione, quella della retta r, il verso, ad esempio,

75
76 Calcolo Vettoriale

quello da A verso B e la lunghezza indicata con kABk e detta norma o lunghezza di AB .


Un segmento di questo tipo si dice segmento orientato e sarà indicato con la simbologia
−→
AB . La totalità di tutti i segmenti orientati aventi la stessa direzione, lo stesso verso e la
stessa lunghezza di AB , prende il nome di vettore x e sarà generalmente indicato con le
lettere minuscole in grassetto.
Riassumendo, ad ogni vettore x si associano tre entità:

 direzione di x
verso di x
norma di x indicata con kxk.

Per definizione, la norma di ogni vettore è un numero reale positivo, eventualmente nullo.
Se il vettore x è individuato dai punti A e B dello spazio, per indicarlo si potranno usare,
−→ −→
indifferentemente, le seguenti notazioni: x, AB , B − A, [AB]. Inoltre AB è detto un
rappresentante del vettore x; per abbreviare si scriverà:
−→
x = AB.
Segue dalla definizione che lo stesso vettore x ammette infiniti rappresentanti, per esem-
pio la coppia di punti C, D dello spazio tali che i segmenti AB e CD siano paralleli,
−→ −−→
abbiano la stessa lunghezza e lo stesso verso, cioè x = AB = CD.
Se A = B , il segmento ottenuto, che ha come rappresentante A e anche un qualsiasi
punto dello spazio, si indica con o e prende il nome di vettore nullo. Il vettore nullo o è
l’unico vettore di norma uguale a zero ed ha direzione e verso indeterminati.
Se kxk = 1, x si dice versore. Sarà molto utile il concetto di versore in quanto permetterà
di individuare agevolmente l’unità di misura.
Se si fissa un punto O nello spazio S3 e si identifica, di conseguenza, ogni vettore x con il
−→
punto P dato da x = OP allora lo spazio S3 coincide con l’insieme dei vettori dello spa-
zio che si indica con V3 , analogamente, S2 (fissato il punto O) si identifica con l’insieme
dei vettori V2 di un piano e S1 con l’insieme dei vettori V1 di una retta. Il significato dei
numeri 1, 2, 3 in V1 , V2 , V3 sarà discusso ampiamente in questo capitolo. Si osservi inol-
tre che, se non viene fissato il punto O, V1 si può interpretare geometricamente come una
qualsiasi retta dello spazio di direzione uguale a quella dei suoi vettori, V2 invece si può
visualizzare geometricamente come un qualsiasi piano dello spazio parallelo ai vettori ad
esso appartenenti. I vettori per cui non è indicato il punto di applicazione prendono anche
il nome di vettori liberi. V1 e V2 vengono, rispettivamente, chiamati retta vettoriale e
piano vettoriale.
Nel Paragrafo 3.10 viene data una formulazione più rigorosa della Definizione 3.1; per
quello che segue, però, è sufficiente che il Lettore abbia un’idea intuitiva di questo con-
cetto.
Capitolo 3 77

Nei due paragrafi successivi si introdurranno alcune operazioni tra vettori, iniziando dalla
somma di vettori e dal prodotto di un numero reale per un vettore. È molto importante
osservare che queste operazioni (ovviamente con una definizione diversa da quella che
sarà di seguito presentata) sono già state introdotte nell’insieme delle matrici, nel capitolo
precedente. Sarà sorprendente notare che per le operazioni tra vettori saranno valide le
stesse proprietà dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo
sarà dedicato allo studio assiomatico degli insiemi su cui è possibile definire operazioni
di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui l’insieme delle
matrici Rm,n e gli insiemi dei vettori V3 , V2 , V1 sono esempi.

3.2 Somma di vettori


Definizione 3.2 La somma in V3 è l’operazione:

+ : V3 × V3 −→ V3 , (x, y) 7−→ x + y,
−→ −−→
dove il vettore x + y è cosı̀ definito: fissato un punto O di S3 , siano OA e OB due
−→
segmenti orientati rappresentanti di x e y, rispettivamente, allora x + y = OC , dove
−→
OC è il segmento orientato che si determina con la regola del parallelogramma, illustrata
nella Figura 3.1.

B C

y x+y

O x A

Figura 3.1: Somma di due vettori

Osservazione 3.1 1. La definizione di somma di vettori è ben data. Vale a dire, facen-
do riferimento alle notazioni della Definizione 3.2, se si cambiano i rappresentanti
di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del
78 Calcolo Vettoriale

−→
parallegramma, ha la stessa direzione, lo stesso verso e la stessa norma di OC . La
situazione geometrica è illustrata nella Figura 3.2, la dimostrazione di questa af-
fermazione, che segue in modo elementare dalle proprietà dei parallelogrammi, è
lasciata al Lettore.

2. Per definizione x + y è complanare a x e a y, dove con il temine complanare si


indicano i vettori che ammettono rappresentanti appartenenti allo stesso piano. Di
conseguenza l’operazione di somma di vettori è ben definita anche in V2 e anche in
V1 . Infatti se x e y sono paralleli, ossia se ammettono rappresentanti appartenenti
alla stessa retta, o, equivalentemente, se hanno la stessa direzione, allora la loro
somma x + y è ancora un vettore parallelo ad x e a y, la cui norma è pari alla
somma delle norme di x e di y se essi sono concordi (ossia se hanno lo stesso
verso), in caso contrario, ossia se i vettori sono discordi, la norma di x + y è la
differenza delle norme di x e y. Il verso di x + y è concorde con il verso del
vettore addendo di norma maggiore. L’evidente situazione geometrica è illustrata
nella Figura 3.3. Questo fatto si esprime anche dicendo che V2 e V1 sono chiusi
rispetto all’operazione di somma di vettori.

3. Il punto C è il simmetrico di O rispetto al punto medio del segmento AB, (cfr.


Fig. 3.1).

4. Per ogni vettore x (non nullo) esiste l’opposto −x, che è il vettore parallelo ad x
avente la stessa norma di x ma verso opposto. Quindi:

x + (−x) = o.

Si osservi, inoltre, che anche il vettore nullo o ammette l’opposto, che coincide con
il vettore nullo stesso.

Teorema 3.1 Per la somma di vettori in V3 valgono le seguenti proprietà:

1. x + y = y + x, x, y ∈ V3 (proprietà commutativa);

2. (x + y) + z = x + (y + z), x, y, z ∈ V3 (proprietà associativa);

3. ∃ o ∈ V3 | x + o = x, x ∈ V3 (esistenza dell’elemento neutro);

4. ∀x ∈ V3 , ∃ −x ∈ V3 | x + (−x) = o (esistenza dell’opposto).

Inoltre:

5. kxk − kyk ≤ kx + yk ≤ kxk + kyk, x, y ∈ V3 .

Capitolo 3 79

B C

x+y
y

O x A
B' C'

x+y
y

O' x A'

Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti

x y x

y
x+y
x+y

Figura 3.3: Somma di due vettori paralleli


80 Calcolo Vettoriale

Dimostrazione La dimostrazione segue dalla definizione di somma di vettori e dalle


proprietà dei parallelogrammi ed è lasciata al Lettore. L’elemento neutro è il vettore nullo
o e l’opposto del vettore x coincide con il vettore −x prima definito. Si osservi che le
due uguaglianze in 5. possono valere solo se i vettori x e y sono paralleli.

Osservazione 3.2 1. Dati due vettori x e y la loro somma x + y si può ottenere


mediante la regola della poligonale, cioè scelti due segmenti orientati consecutivi
−→ −−→ −→
x = AB, y = BC , risulta x + y = AC .

2. La proprietà associativa permette di estendere la definizione di somma di vettori a


n addendi. Dati, quindi, i vettori x1 , x2 , . . . , xn , la loro somma x1 + x2 + . . . + xn
si può rappresentare agevolmente, tenendo conto dell’osservazione precedente, con
il segmento che chiude la poligonale ottenuta dai segmenti posti consecutivamen-
te, che rappresentano i vettori addendi. La situazione geometrica è illustrata nella
Figura 3.4.

3. È molto importante osservare che le proprietà della somma di vettori coincidono


con le proprietà della somma di numeri reali, in questo caso il vettore nullo è il
numero 0. In un certo senso, questo è un motivo che autorizza la denominazione
“somma” all’operazione tra vettori appena introdotta. Dal punto di vista “sperimen-
tale”, invece, la definizione di somma di vettori è giustificata dal comportamento
fisico della composizione di due forze applicate nello stesso punto.

4. Il teorema precedente, ha permesso di definire la differenza di due vettori, ossia:

x − y = x + (−y).

La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresenta-
ta dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia
per esercizio la rappresentazione grafica della differenza di due vettori paralleli.

5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari
con x, esistono e sono unici due vettori x1 ed x2 in quelle direzioni, tali che:

x = x1 + x2 .

L’operazione prende il nome di decomposizione di un vettore lungo due direzioni


assegnate.

6. Si osservi che (V3 , + ) con l’operazione di somma di vettori ha la struttura di


gruppo commutativo (cfr. Oss. 2.2).
Capitolo 3 81

x4

x3
x1 + x2 + x3 + x4

x2

x1

Figura 3.4: Somma di quattro vettori

-y x-y

Figura 3.5: Differenza di due vettori


82 Calcolo Vettoriale

3.3 Il prodotto di un numero reale per un vettore


L’operazione che sta per essere definita trova giustificazione nel mondo in cui si vive, in
quanto formalizza il risultato che si ottiene quando una forza viene raddoppiata o molti-
plicata per un numero reale qualsiasi. D’altra parte, questa operazione è in un certo senso
singolare dal punto di vista algebrico perché gli elementi che concorrono alla sua defi-
nizione appartengono ad insiemi diversi. Inoltre, si può considerare come l’operazione
analoga al prodotto di un numero reale per una matrice introdotto nella Definizione 2.4.

Definizione 3.3 Il prodotto di un numero reale λ per un vettore x ∈ V3 è l’operazione:

R × V3 −→ V3 , (λ, x) 7−→ λx,

dove il vettore λx (detto anche prodotto dello scalare λ per x) è definito nel modo
seguente:

1. se λ = 0 o x = o, allora λx = o.

2. Se λ 6= 0 e x 6= o si pone λx = y, dove:
la direzione di y coincide con la direzione di x;
il verso di y è concorde con quello di x se λ > 0, discorde se λ < 0;
kyk = |λ|kxk, dove |λ| indica il valore assoluto del numero reale λ.

Osservazione 3.3 Dalla definizione segue che λx = o se e solo se λ = 0 oppure x = o.


Per la dimostrazione si veda l’Esercizio 4.23.

Sono valide le seguenti proprietà la cui dimostrazione è lasciata per esercizio.

Teorema 3.2 1. λ(x + y) = λx + λy, λ ∈ R, x, y ∈ V3 ;

2. (λ + µ)x = λx + µx, λ, µ ∈ R, x ∈ V3 ;

3. λ(µx) = (λµ)x, λ, µ ∈ R, x ∈ V3 ;

4. 1 x = x, x ∈ V3 .

Osservazione 3.4 L’insieme V3 con le operazioni di somma di vettori e le relative quattro


proprietà e di prodotto di un numero reale per un vettore e le relative quattro proprietà,
è un esempio di spazio vettoriale su R. La definizione assiomatica di spazio vettoriale è
rimandata al capitolo successivo. Allo stesso modo, anche V2 e V1 sono esempi di spazi
vettoriali. In realtà, V2 e V1 sono esempi di sottospazi vettoriali di V3 perché sono chiusi
Capitolo 3 83

rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e
y in V2 e per ogni λ ∈ R si ha che x + y ∈ V2 e λx ∈ V2 (analogamente per V1 ). Inoltre,
in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti
ad un piano vettoriale qualsiasi) si può pensare che V1 ⊂ V2 ⊂ V3 .

Seguono alcune definizioni e proprietà di tipo teorico, che saranno riprese in modo com-
pleto nel capitolo successivo. Si è deciso di inserire in questo contesto ciò che segue,
anche se i risultati che si ottengono saranno conseguenza della teoria più generale degli
spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V3 è pos-
sibile rappresentare graficamente le nozioni man mano introdotte, aiutando cosı̀ la loro
comprensione.

Definizione 3.4 Dati k vettori v1 , v2 , . . . , vk di V3 , si dice che un vettore x ∈ V3 è


combinazione lineare di v1 , v2 , . . . , vk se esistono k numeri reali x1 , x2 , . . . , xk tali che:

x = x1 v 1 + x2 v 2 + . . . + xk v k .

I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare.

Mediante la nozione di combinazione lineare di vettori si possono riformulare, in modo


più accurato dal punto di vista algebrico, le nozioni, già introdotte in modo geometrica-
mente intuitivo, di retta vettoriale e di piano vettoriale.

Definizione 3.5 Dato un vettore x 6= o, la retta vettoriale generata da x è l’insieme:

L(x) = {λx | λ ∈ R}.

Dati due vettori x e y non paralleli il piano vettoriale generato da x e da y è l’insieme:

L(x, y) = {λx + µy | λ, µ ∈ R}.

Osservazione 3.5 Segue in modo evidente dalla definizione che L(x, y) = L(y, x). Non
ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde,
usualmente usate per indicare che è importante l’ordine dei vettori; è una convenzione
usare questa notazione anche se non è corretta.

Scopo del prossimo paragrafo è mettere in relazione le nozioni algebriche e geometriche


enunciate nelle definizioni precedenti.
84 Calcolo Vettoriale

3.4 Dipendenza lineare e basi


Dalla Definizione 3.5 segue che il parallelismo e la complanarità tra vettori possono essere
letti in termini delle loro combinazioni lineari. Per differenziare ulteriormente le due
diverse situazioni geometriche è necessario introdurre la seguente definizione.

Definizione 3.6 Dati k vettori v1 , v2 , . . . , vk di V3 , essi si dicono linearmente indipen-


denti se l’unica loro combinazione lineare uguale al vettore nullo è quella con coefficienti
tutti nulli, vale a dire:

x1 v 1 + x2 v 2 + . . . + xk v k = o =⇒ x1 = x2 = . . . = xk = 0. (3.1)

L’insieme {v1 , v2 , . . . , vk } di vettori linearmente indipendenti si dice libero.


Di conseguenza k vettori v1 , v2 , . . . , vk di V3 si dicono linearmente dipendenti se esiste
almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli,
cioè se si ha:
x1 v 1 + x2 v 2 + . . . + xk v k = o
con almeno uno tra i coefficienti x1 , x2 , . . . , xk non nullo.

Osservazione 3.6 1. Si osservi che in (3.1) vale anche l’implicazione opposta.

2. L’insieme {x} è libero se e solo se x 6= o.

Prima di proporre alcuni esempi conviene enunciare il teorema che segue, molto facile,
ma utile per riconoscere vettori linearmente dipendenti o linearmente indipendenti. Per la
dimostrazione si rimanda al Paragrafo 4.3.

Teorema 3.3 I vettori v1 , v2 , . . . , vk di V3 sono linearmente dipendenti se e solo se


almeno uno di essi si può esprimere come combinazione lineare dei rimanenti.

Esempio 3.1 1. Se x = 2y, allora λx + µy = o con λ = 1, µ = −2. Pertanto i


vettori x e y sono linearmente dipendenti.

2. Il vettore nullo o è linearmente dipendente con ogni altro vettore x in quanto:

λo + 0x = o,

per ogni λ ∈ R, quindi anche per valori non nulli di λ. In particolare, l’insieme
contenente solo il vettore nullo {o} non è libero.
Capitolo 3 85

3. Gli elementi di L(x) sono tutti linearmente dipendenti tra di loro, ma la stessa
proprietà non vale per L(x, y), si vedrà infatti nel Teorema 3.4 che due vettori non
paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi
banale da considerazioni geometriche elementari.

Il teorema che segue conclude lo studio del parallelismo e della complanarità tra vettori
mediante la dipendenza lineare.

Teorema 3.4 1. Due vettori x e y di V3 sono linearmente dipendenti se e solo se


sono paralleli, ossia se e solo se appartengono alla stessa retta vettoriale.

2. Tre vettori x, y e z di V3 sono linearmente dipendenti se e solo se sono complanari,


ossia se e solo se appartengono allo stesso piano vettoriale.

3. Quattro vettori di V3 sono sempre linearmente dipendenti.

Segue subito dal teorema appena enunciato che:

1. il numero massimo di vettori linearmente indipendenti in una retta vettoriale


V1 è 1.

2. Il numero massimo di vettori linearmente indipendenti in un piano vettoriale


V2 è 2.

3. Il numero massimo di vettori linearmente indipendenti nello spazio vettoriale


V3 è 3.

Ecco, finalmente, una prima definizione algebrica del numero che si legge a pedice!

Dimostrazione 1. Si supponga che x e y siano paralleli. Se entrambi i vettori sono


il vettore nullo, o uno solo dei due è il vettore nullo, allora sono linearmente dipen-
denti. Si supponga ora che entrambi i vettori non siano nulli. Dalla Definizione 3.3
si ha che esiste un numero reale λ per cui x = λy il cui valore assoluto è dato da:

kxk
|λ| =
kyk

e il segno di λ è positivo se x e y hanno verso concorde, altrimenti è negativo.


Dal Teorema 3.3 segue che i vettori x e y sono linearmente dipendenti. Viceversa,
se x e y sono linearmente dipendenti si perviene alla tesi applicando di nuovo il
Teorema 3.3.
86 Calcolo Vettoriale

K C

B z

O x A H

Figura 3.6: Complanarità di tre vettori

C
D
v3
x
v2
B

O
H

v1 A

Figura 3.7: Dipendenza lineare di quattro vettori


Capitolo 3 87

2. Si inizia a dimostrare che se i vettori x, y, z sono complanari, allora sono linear-


mente dipendenti. Si esamina solo il caso in cui x e y sono linearmente indipen-
denti, lasciando per esercizio gli altri casi. A tale scopo si considerino tre segmenti
orientati che li rappresentano, aventi tutti l’estremo O in comune (la situazione
geometrica è descritta nella Figura 3.6) si ha:
−→ −−→ −→
OA = x, OB = y, OC = z.

Essendo i tre vettori complanari, i punti O, A, B, C appartengono allo stesso piano.


Si decomponga il vettore z lungo le direzioni di x e di y (cfr. Oss. 3.2, punto 4.),
individuando i punti H sulla retta OA e K sulla retta OB ; si ottiene:
−→ −−→ −−→
OC = OH + OK, (3.2)
−−→ −−→
ma OH è il rappresentante di un vettore parallelo a x e OK è il rappresentante di
un vettore parallelo a y. La relazione (3.2) equivale alla dipendenza lineare dei tre
vettori dati. Il viceversa è lasciato per esercizio.

3. Siano v1 , v2 , v3 , x quattro vettori di V3 . Si supponga che v1 , v2 , v3 non siano com-


planari, quindi siano linearmente indipendenti, lasciando per esercizio tutti gli altri
casi particolari, da cui si perviene agevolmente alla tesi. Facendo riferimento alla
−→ −−→ −→ −−→
Figura 3.7, si indichino con OA = v1 , OB = v2 , OC = v3 , OD = x i rap-
presentanti dei quattro vettori dati, aventi tutti un estremo in O. I punti O, A, B, C
non sono complanari, mentre i punti O, A, B individuano un piano π . Si supponga,
inoltre, che D non appartenga a π (in caso contrario il teorema sarebbe dimostra-
to). Si tracci dal punto D la parallela alla retta OC che incontra il piano π in H .
Per costruzione:
−−→ −−→ −−→
OD = OH + HD. (3.3)
−−→
Decomponendo il vettore OH nelle direzioni dei vettori v1 e v2 , si individuano tre
numeri reali x1 , x2 , x3 che permettono di riscrivere la (3.3) come:

x = x1 v 1 + x2 v 2 + x3 v 3 , (3.4)

e, quindi, segue la tesi.

La decomposizione di un generico vettore nello spazio, rispetto a tre vettori linearmente


indipendenti assegnati, ottenuta per costruzione nella dimostrazione dell’ultimo punto del
teorema precedente, è in realtà unica, come afferma il teorema che segue.

Teorema 3.5 In V3 , dati tre vettori linearmente indipendenti v1 , v2 , v3 , ogni vettore x


di V3 si scrive in modo unico come combinazione lineare dei tre vettori dati.
88 Calcolo Vettoriale

Dimostrazione È sufficiente dimostrare l’unicità della decomposizione (3.4). Si sup-


ponga che esistano altri numeri reali y1 , y2 , y3 tali che:

(x1 , x2 , x3 ) 6= (y1 , y2 , y3 )

e per cui:
x = y1 v1 + y2 v2 + y3 v3 . (3.5)
Uguagliando (3.4) e (3.5) segue:

o = (x1 − y1 )v1 + (x2 − y2 )v2 + (x3 − y3 )v3 .

Poiché v1 , v2 , v3 sono linearmente indipendenti, si ha x1 = y1 , x2 = y2 , x3 = y3 .

Il teorema che segue riformula i risultati precedenti nei casi particolari di V2 e di V1 .

Teorema 3.6 1. Dati due vettori linearmente indipendenti v1 , v2 di un piano vetto-


riale V2 , ogni vettore x di V2 determina in modo unico la coppia di numeri reali
(x1 , x2 ) tale che:
x = x1 v 1 + x2 v 2 . (3.6)

2. Dato un vettore v1 non nullo in una retta vettoriale V1 , ogni vettore x ∈ V1


determina in modo unico il numero reale x1 tale che:

x = x1 v 1 . (3.7)

Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V3 è indi-
viduata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano
vettoriale V2 è sufficiente scegliere due vettori linearmente indipendenti per individuare
tutti i vettori di V2 e nel caso di una retta vettoriale V1 è sufficiente scegliere un qualsiasi
vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di
definire in modo inequivocabile i concetti fondamentali di base e di dimensione nel modo
che segue.

Definizione 3.7 1. Si dice base di V3 una qualsiasi terna ordinata di vettori linear-
mente indipendenti. Si dice dimensione di V3 il numero dei vettori di una base e si
indica con dim(V3 ) = 3.

2. Si dice base di un piano vettoriale V2 una qualsiasi coppia ordinata di vettori li-
nearmente indipendenti di V2 . Si dice dimensione di V2 il numero dei vettori di una
base e si indica con dim(V2 ) = 2.
Capitolo 3 89

3. Si dice base di una retta vettoriale V1 un suo qualsiasi vettore non nullo. Si dice
dimensione di V1 il numero dei vettori di una base e si indica con dim(V1 ) = 1.

Una base di V3 verrà indicata con la notazione B = (v1 , v2 , v3 ). In questo caso l’ordine
con cui si scrivono i vettori è importante perché determina l’ordine con cui si scrivono
i coefficienti (x1 , x2 , x3 ) della combinazione lineare (3.4). In modo analogo una base
di un piano vettoriale V2 sarà B 0 = (v1 , v2 ) e una base di una retta vettoriale V1 sarà
B 00 = (v1 ).

v3

v2
a

v1
Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari

Osservazione 3.7 In V3 , in V2 e in V1 esistono infinite basi ma il numero dei vettori che


le compongono è sempre pari alla dimensione dei rispettivi spazi vettoriali.

Osservazione 3.8 Dati tre vettori complanari (non paralleli) v1 , v2 , v3 si ha che ogni vet-
tore x appartenente al piano vettoriale individuato da v1 , v2 , v3 , si decompone in infiniti
modi diversi rispetto ai tre vettori dati. Per esempio è sufficiente scegliere una direzione
arbitraria individuata da un vettore a come combinazione lineare di v1 , v2 e decomporre
x rispetto alle direzioni individuate da v3 e a; oppure decomporre x rispetto ad una di-
rezione arbitraria b ottenuta come combinazione lineare di v2 e v3 e cosı̀ via (cfr. Oss.
3.2 punto 5.). La situazione geometrica è descritta nella Figura 3.8 in cui si è posto, per
esempio, a = v1 + v2 e x = λa + µv3 ed inoltre si è posto b = v2 + v3 e x = νb + ϕv1 ,
dove λ, µ, ν, ϕ sono opportuni numeri reali.
90 Calcolo Vettoriale

I Teoremi 3.5 e 3.6 permettono di introdurre la seguente definizione.

Definizione 3.8 Fissata una base B = (v1 , v2 , v3 ) di V3 , per ogni vettore x di V3 gli
elementi dell’unica terna ordinata di numeri reali (x1 , x2 , x3 ) definita da (3.4) sono detti
le componenti di x rispetto alla base B. In modo analogo la formula (3.6) definisce
le componenti di un generico vettore x del piano vettoriale V2 rispetto alla base B 0 =
(v1 , v2 ) di V2 e la formula (3.7) definisce la componente di un generico vettore x di una
retta vettoriale V1 rispetto alla base B 00 = (v1 ).

Osservazione 3.9 Nel caso di V3 , fissata una base B = (v1 , v2 , v3 ), si è definita una
corrispondenza biunivoca tra V3 e R3 che associa ad ogni vettore x le sue componenti.
Spesso si scrive, con un abuso di notazione:

x = (x1 , x2 , x3 )

o, in forma matriciale, con:  


x1
x =  x2 .
x3
Si vedrà, infatti, in seguito, come sia più conveniente nei calcoli utilizzare una matrice
colonna di R3,1 per indicare le componenti di un vettore di V3 , che è preferibile chiamare
X per distinguerla dal vettore x:
 
x1
X =  x2 .
x3

Analoghe considerazioni valgono per i casi particolari di V2 e di V1 .

Il teorema che segue, la cui dimostrazione è un facile esercizio, permette di calcola-


re la somma di due vettori e il prodotto di un numero reale per un vettore mediante le
componenti.

Teorema 3.7 In V3 , dati i vettori x = x1 v1 + x2 v2 + x3 v3 , y = y1 v1 + y2 v2 + y3 v3 ,


scritti rispetto alla base B = (v1 , v2 , v3 ), si ha:

x + y = (x1 + y1 )v1 + (x2 + y2 )v2 + (x3 + y3 )v3 ,

λx = (λx1 )v1 + (λx2 )v2 + (λx3 )v3 ,

con λ ∈ R; cioè le componenti della somma di due vettori si ottengono semplicemente


sommando le rispettive componenti, mentre le componenti del vettore λx si ottengono
Capitolo 3 91

moltiplicando λ per ogni componente di x. In notazione matriciale, al vettore x + y si


associa la matrice colonna delle sue componenti rispetto alla base B:
 
x1 + y 1
X + Y =  x2 + y2 .
x3 + y 3

Al vettore λx si associa la matrice colonna delle sue componenti rispetto alla base B:
 
λ x1
λX =  λ x2 .
λ x3

Analoghe affermazioni valgono anche nel caso di un piano vettoriale V2 e di una retta
vettoriale V1 .

Osservazione 3.10 1. Il vettore nullo o è l’unico vettore di V3 avente componenti


tutte nulle o = (0, 0, 0), rispetto ad una qualsiasi base di V3 .

2. I vettori di una base B = (v1 , v2 , v3 ) di V3 hanno componenti, rispetto alla stessa


base B:
v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1).

3. Dal teorema precedente e dalla notazione matriciale usata per le componenti di un


vettore segue l’assoluta concordanza tra le definizioni di somma di matrici e di
prodotto di un numero reale per una matrice, introdotte nel capitolo precedente e la
somma di vettori in componenti e il prodotto di un numero reale per un vettore, in
componenti definite in questo capitolo.

Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare
dei vettori mediante le loro componenti. Si farà uso delle nozioni di rango di una matrice
e del Teorema di Rouché–Capelli introdotti nel Capitolo 1 per la risoluzione dei sistemi
lineari.

Esempio 3.2 1. In V3 , fissata una base B = (v1 , v2 , v3 ), si considerino i vettori x =


x1 v1 + x2 v2 + x3 v3 e y = y1 v1 + y2 v2 + y3 v3 . Dal Teorema 3.4 segue che x è
parallelo a y se e solo se x e y sono linearmente dipendenti, ossia se e solo se è
possibile determinare un numero reale λ tale che:

y = λx.
92 Calcolo Vettoriale

Scrivendo questa relazione mediante le componenti dei due vettori segue:



 y1 = λx1
y2 = λx2
y3 = λx3

e, in termini matriciali, equivale a richiedere che:


 
x1 x2 x3
rank ≤ 1.
y1 y2 y3

Per esempio i vettori x = (1, −2, 3) e y = (2, −4, 6) sono paralleli, mentre i vettori
x e z = (1, 0, 3) non lo sono. Il rango della matrice:
 
x1 x2 x3
y1 y2 y3

è pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore
nullo. Il rango di questa matrice è 0 se e solo se x = y = o.

2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono
linearmente dipendenti, ossia per esempio se esistono i numeri reali λ e µ per cui:

z = λx + µy. (3.8)

Fissata una base B = (v1 , v2 , v3 ) di V3 , si indichino con:

x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ), z = (z1 , z2 , z3 )

le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste
componenti, equivale al sistema lineare:

 z1 = λx1 + µy1
z2 = λx2 + µy2
z3 = λx3 + µy3

e in termini matriciali equivale a:


 
x1 x2 x3
rank  y1 y2 y3  ≤ 2.
z1 z2 z3

Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta è
proprio 2, invece se i vettori x e y sono paralleli, allora anche il vettore z è ad essi
parallelo e il rango della matrice vale 1. Il rango è 0 se e solo se x = y = z = o.
Capitolo 3 93

Esercizio 3.1 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:


a = (1, 3, −1), b = (4, 1, 0), c = (2, −5, 2),
come sono posizionati questi tre vettori nello spazio vettoriale V3 ?

Soluzione Si consideri la matrice A, quadrata di ordine tre, le cui righe sono date dalle
componenti dei tre vettori:  
1 3 −1
A= 4 1 0 ,
2 −5 2
riducendo A per righe si ha:
   
1 3 −1 1 3 −1
−→
A=  4 1 0   4 1 0 .
R3 → R3 + 2R1
2 −5 2 4 1 0

Quindi rank(A) = 2 e ciò implica che i tre vettori sono complanari (infatti sono linear-
mente dipendenti). Poiché i vettori a e b non sono paralleli (infatti sono linearmente
indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due
numeri reali λ e µ tali che:
c = λa + µb.
Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al
sistema lineare: 
 λ + 4µ = 2
3λ + µ = −5
−λ = 2

la cui soluzione è (λ = −2, µ = 1), e perciò c = −2a + b.

Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere
riassunti nel seguente teorema.

Teorema 3.8 Sia B = (v1 , v2 , v3 ) una base di V3 , si considerino vettori:


x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ), z = (z1 , z2 , z3 )
scritti in componenti rispetto alla base B.
1. Un vettore non nullo x in V3 è linearmente indipendente se e solo se, indicata con
A la matrice avente come unica riga le componenti di x:

A = x 1 x 2 x3 ,
si ha rank(A) = 1. Equivalentemente x = o se e solo se rank(A) = 0.
94 Calcolo Vettoriale

2. Due vettori x e y di V3 sono linearmente indipendenti se e solo se, indicata con A


la matrice avente come righe le componenti dei due vettori:
 
x1 x2 x3
A= ,
y1 y2 y3

si ha rank(A) = 2. Equivalentemente, i vettori x e y (entrambi non nulli) sono


linearmente dipendenti, vale a dire sono paralleli, se e solo se rank(A) = 1. Se
x = y = o, allora rank(A) = 0 e viceversa.

3. Tre vettori x, y, z sono linearmente indipendenti in V3 (vale a dire formano una


base di V3 ) se e solo se, indicata con A la matrice quadrata avente come righe le
componenti dei tre vettori:
 
x1 x2 x3
A =  y1 y2 y3 , (3.9)
z1 z2 z3

si ha:
rank(A) = 3 ⇐⇒ ∃A−1 ⇐⇒ det(A) 6= 0.
Equivalentemente, i vettori x, y, z sono linearmente dipendenti se e solo se:

rank(A) < 3.

Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il
terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece
rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo)
sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o.

Dimostrazione La dimostrazione segue dall’Esempio 3.2. In alternativa, per dimostra-


re l’ultimo punto si può anche procedere esplicitando, mediante le componenti dei vettori,
la relazione:
λ1 x + λ2 y + λ3 z = o,
con λ1 , λ2 λ3 ∈ R, che equivale al sistema lineare omogeneo:

 λ1 x1 + λ2 y1 + λ3 z1 = 0
λ1 x2 + λ2 y2 + λ3 z2 = 0
λ1 x3 + λ2 y3 + λ3 z3 = 0.

Affinché i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo
deve ammettere la sola soluzione nulla. Questo accade se e solo se:
Capitolo 3 95

 
x1 y1 z1
rank  x2 y2 z2  = 3.
x3 y3 z3
Si osservi che la matrice ottenuta è la trasposta della matrice A in (3.9). Si dovrà attende-
re la dimostrazione del Teorema 4.19 per assicurare l’equivalenza dei due procedimenti
seguiti per pervenire alla tesi. Il risultato, in realtà, è intuitivamente accettabile, tenendo
conto che det(A) = det(tA).
Esercizio 3.2 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u1 = (1, 0, −h), u2 = (2, −1, 1), u3 = (h, 1, −1),
stabilire per quali valori di h ∈ R essi formano una base di V3 .
Soluzione I tre vettori dati formano una base di V3 se e solo se sono linearmente
indipendenti, ossia se la matrice A :
 
1 0 −h
A =  2 −1 1 
h 1 −1
ha det(A) 6= 0. Poiché det(A) = −h(2 + h) si ha che i vettori u1 , u2 , u3 formano una
base di V3 se e solo se h ∈
/ {−2, 0}.
Esercizio 3.3 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = v1 − v2 + 3v3 , v = 2v1 + v2 − v3 , w = v1 + 2v2 + v3 ,
dimostrare che costituiscono una base di V3 .
Soluzione Si tratta di dimostrare che il rango della matrice:
 
1 −1 3
A= 2 1 −1 
1 2 1
è 3. Riducendola per righe si ha:
   
1 −1 3 −→ 1 −1 3
A=  2 1 −1  R2 → R2 + R1  3 0 2 
1 2 1 R3 → R3 + 2R1 3 0 7
 
1 −1 3
−→  3 0 2 ,
R3 → R3 − R2
0 0 5
96 Calcolo Vettoriale

da cui la tesi.
Esercizio 3.4 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = 2v1 + v2 − v3 , v = v1 + v3 , w = v1 + v2 − 2v3 .
Verificare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come com-
binazione lineare dei rimanenti.
Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefficienti reali
λ, µ e ν e la si ponga uguale al vettore nullo:
λu + µv + νw = o.
Sostituendo nella combinazione lineare l’espressione dei vettori scritta rispetto alla base
B, si ha:
λ(2v1 + v2 − v3 ) + µ(v1 + v3 ) + ν(v1 + v2 − 2v3 )
= (2λ + µ + ν)v1 + (λ + ν)v2 + (−λ + µ − 2ν)v3 = o.
Si è cosı̀ ottenuta una combinazione lineare dei vettori della base B che è uguale al vettore
nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefficienti
di tale combinazione lineare devono essere nulli, ossia:

 2λ + µ + ν = 0
λ+ν =0
−λ + µ − 2ν = 0.

Il sistema lineare omogeneo cosı̀ ottenuto ha matrice dei coefficienti:


 
2 1 1
A= 1 0 1 .
−1 1 −2
Riducendo A per righe si ha:
   
2 1 1 2 1 1
−→
A= 1 0 1   1 0 1 
R3 → R3 − R1
−1 1 −2 −3 0 −3
 
2 1 1
−→  1 0 1 ,
R3 → R3 + 3R2
0 0 0
ossia rank(A) = 2. Il sistema lineare omogeneo ammette, quindi, infinite soluzioni date
da (λ, −λ, λ), λ ∈ R. I vettori u, v, w sono perciò linearmente dipendenti e quindi, posto
per esempio λ = 1, si ottiene u = v + w. Come già osservato nella dimostrazione del
Teorema 3.8, si noti che la matrice A ha come colonne le componenti dei vettori u, v, w.
Capitolo 3 97

3.5 Il cambiamento di base in V3


Il problema del cambiamento di base in V3 consiste nel determinare la relazione che
intercorre tra le componenti di un qualsiasi vettore scritto rispetto a due basi diverse,
precedentemente assegnate.

Siano date due basi B = (v1 , v2 , v3 ) e B 0 = (v10 , v20 , v30 ) di V3 . Ogni vettore x ∈ V3 si
scrive in componenti, rispetto alla due basi, nella forma:
x = x1 v1 + x2 v2 + x3 v3 = x01 v10 + x02 v20 + x03 v30 . (3.10)
Usando la notazione matriciale introdotta nel paragrafo precedente, si indichino con:
   0 
x1 x1
X =  x2 , X 0 =  x02  (3.11)
0
x3 x3
le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base B 0 è
nota quando sono note le componenti dei suoi vettori rispetto alla base B, ossia:
 0
 v1 = p11 v1 + p21 v2 + p31 v3
v0 = p12 v1 + p22 v2 + p32 v3 (3.12)
 20
v3 = p13 v1 + p23 v2 + p33 v3 .
In altri termini, la base B 0 è nota quando è assegnata la matrice:
 
p11 p12 p13
P =  p21 p22 p23 .
p31 p32 p33
P è invertibile perché le sue colonne sono le componenti di vettori linearmente indipen-
denti. La matrice P prende il nome di matrice del cambiamento di base da B a B 0 ed è
0
spesso anche indicata come P = M B,B proprio per mettere maggiormente in evidenza
la sua interpretazione geometrica. La scelta di porre in colonna, anziché in riga, le com-
ponenti dei vettori della base B 0 rende i calcoli più agevoli. Le equazioni (3.12) in forma
matriciale diventano:  0   
v1 v1
 v20  = tP  v2 .
v30 v3
Sostituendo questa espressione in (3.10) si ha:
   0   
v 1  v1 v 1
x = x1 x2 x3  v2  = x01 x02 x03  v20  = x01 x02 x03 tP  v2 .
 

v3 v30 v3
98 Calcolo Vettoriale

Dal Teorema 3.5 segue:


t
x01 x02 x03

x1 x2 x3 = P,

da cui, considerando la trasposta di ambo i membri:


   0 
x1 x1
 x2  = P  x02 .
x3 x03

Usando le notazioni di (3.11) si ottiene:

X = P X 0,

che sono le relazioni richieste e che prendono il nome di equazioni del cambiamento di
base da B a B 0 .

Osservazione 3.11 1. È chiaro che se si esprimono i vettori della base B in compo-


nenti rispetto alla base B 0 si ottiene la matrice inversa P −1 , infatti le equazioni del
cambiamento di base da B 0 a B sono X 0 = P −1 X.

2. Si può trattare in modo analogo il problema del cambiamento di base nel caso del
piano vettoriale V2 . La matrice del cambiamento di base sarà una matrice invertibile
di ordine 2.

3. Nel caso della retta vettoriale V1 ogni numero reale non nullo esprime la compo-
nente del vettore della base B 0= (v10 ) rispetto alla base B = (v1 ). Se per esempio
v10 = 2v1 , allora P = 2 , mentre le equazioni del cambiamento di base si
riducono all’unica equazione: x1 = 2x01 o x01 = 1/2 x1 . Infatti:
 
1
x = x 1 v1 = x01 v10 = x1 2v1 .
2

Esercizio 3.5 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:

u = 2v1 + v2 + v3 , v = −v1 + 2v2 + v3 ,


w = v1 − v2 − 2v3 , z = −v1 − 2v2 + v3 .

Verificare che B 0 = (u, v, w) è una base di V3 e trovare le componenti di z rispetto alla


base B 0 .
Capitolo 3 99

Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono,
rispettivamente, le componenti dei vettori u, v, w.
 
2 −1 1 −→
P = 1 2 −1  R2 → R2 + 2R1
1 1 −2 R3 → R3 + R1
   
2 −1 1 2 −1 1
 5 −→
0 1   5 0 1 .
R3 → R3 + R2
3 0 −1 8 0 0

Allora rank(P ) = 3, quindi i vettori u, v, w sono linearmente indipendenti. La matrice


P è pertanto la matrice del cambiamento di base dalla base B alla base B 0. Si devono
determinare le componenti x01 , x02 , x03 del vettore z rispetto alla base B 0 , ossia:

z = x01 u + x02 v + x03 w.

Si tratta di risolvere l’equazione matriciale X = P X 0 , dove:


   0 
−1 x1
0
X = −2 , X =
   x02 ,
1 x03

che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da
B a B0 :  0
 2x1 − x02 + x03 = −1
x0 + 2x02 − x03 = −2
 10
x1 + x02 − 2x03 = 1.
Riducendo per righe la matrice completa si ha:
 