Sei sulla pagina 1di 710

Algebra Lineare e Geometria Analitica

Volume I
E. Abbena, A.M. Fino, G.M. Gianella
12 marzo 2011

Prefazione
Con lattivazione delle lauree triennali, i corsi universitari hanno sub`to una notevole riduzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di Geometria e Algebra Lineare I che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso lUniversit`a di Torino, costituisce ora
un testo completo che pu`o essere anche utilizzato nelle Facolt`a di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo pi`u tratti dai testi desame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
Il testo e` di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po diverso per stile ed impostazione dagli usuali testi universitari del settore, al fine di sostenere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore
allUniversit`a.
In quasi tutti i capitoli del primo volume e` stato inserito un paragrafo dal titolo Per
saperne di pi`u non solo per soddisfare la curiosit`a del Lettore ma con il preciso obiettivo
di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno
occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree
Triennali e Magistrali.
Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro,
saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base
per la maggior parte delle discipline scientifiche, rendendola appassionante.
La figure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico
Mathematica, versione 7. Alcuni esercizi proposti sono particolarmente adatti ad essere
risolti con Mathematica o con Maple.
Per suggerimenti, osservazioni e chiarimenti si invita a contattare gli Autori agli indirizzi
e-mail: elsa.abbena@unito.it, annamaria.fino@unito.it, gianmario.gianella@unito.it.

II di copertina: Ringraziamenti
Grazie ai Colleghi di Geometria del Dipartimento di Matematica dellUniversit`a di Torino
per il loro prezioso contributo.
Grazie al Prof. S.M. Salamon per tanti utili suggerimenti e per la realizzazione di molti
grafici. Grazie ai Proff. Sergio Console, Federica Galluzzi, Sergio Garbiero e Mario
Valenzano per aver letto il manoscritto.
Un ringraziamento particolare agli Studenti del Corso di Studi in Fisica dellUniversit`a di Torino, la loro partecipazione attiva e il loro entusiasmo hanno motivato questa
esperienza.

IV di copertina
Gli autori
Elsa Abbena, professore associato di Geometria presso la Facolt`a di Scienze Matematiche
Fisiche e Naturali dellUniversit`a di Torino, svolge la sua attivit`a di ricerca su argomenti
di geometria differenziale. Ha tenuto innumerevoli corsi di algebra e di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Anna Fino, professore associato di Geometria presso la Facolt`a di Scienze Matematiche
Fisiche e Naturali dellUniversit`a di Torino, svolge la sua attivit`a di ricerca su argomenti
di geometria differenziale e complessa. Ha tenuto per vari anni un corso di geometria e
algebra lineare presso il corso di Laurea in Fisica.
Gian Mario Gianella, professore associato di Geometria presso la Facolt`a di Scienze
Matematiche Fisiche e Naturali dellUniversit`a di Torino, svolge la sua attivit`a di ricerca
su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei grafi e
pi`u recentemente della teoria dei numeri. Ha tenuto innumerevoli corsi di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Lopera
Con lattivazione delle lauree triennali, i corsi universitari hanno sub`to una notevole riduzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di Geometria e Algebra Lineare I che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso lUniversit`a di Torino, costituisce ora
un testo completo che pu`o essere anche utilizzato nelle Facolt`a di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo pi`u tratti dai testi desame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.

Indice
1 Sistemi Lineari
1.1
Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2
Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . .

15
15
16
29

2 Matrici e Determinanti
2.1
Somma di matrici e prodotto di un numero reale per una matrice
2.2
Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 I sistemi lineari in notazione matriciale . . . . . . . . . .
2.3
La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . .
2.4
La trasposta di una matrice . . . . . . . . . . . . . . . . . . . .
2.5
Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . .
2.6
Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Calcolo della matrice inversa, primo metodo . . . . . . .
2.7
La traccia di una matrice quadrata . . . . . . . . . . . . . . . .
2.8
Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.1 I Teoremi di Laplace
Unaltra definizione di rango di una matrice . . . . . . .
2.8.2 Calcolo della matrice inversa, secondo metodo . . . . . .
2.8.3 Il Teorema di Cramer . . . . . . . . . . . . . . . . . . .
2.9
Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . .
3 Calcolo Vettoriale
3.1
Definizione di vettore . . . . . . . . . . . .
3.2
Somma di vettori . . . . . . . . . . . . . .
3.3
Il prodotto di un numero reale per un vettore
3.4
Dipendenza lineare e basi . . . . . . . . . .
7

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

33
33
38
40
41
42
44
46
50
55
56

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

64
67
69
72

.
.
.
.

75
75
77
82
84

.
.
.
.

.
.
.
.

.
.
.
.

INDICE

3.5
3.6
3.7

3.8
3.9
3.10

Il cambiamento di base in V3 . . . . . . . . . . . . .
Angolo tra due vettori . . . . . . . . . . . . . . . . .
Operazioni non lineari tra vettori . . . . . . . . . . .
3.7.1 Il prodotto scalare di due vettori . . . . . . .
3.7.2 Il prodotto vettoriale di due vettori . . . . . .
3.7.3 Il prodotto misto di tre vettori . . . . . . . . .
Cambiamenti di basi ortonormali in V3 e in V2 . . . .
Esercizi di riepilogo svolti . . . . . . . . . . . . . . .
Per saperne di pi`u . . . . . . . . . . . . . . . . . . .
3.10.1 Unaltra definizione di vettore . . . . . . . .
3.10.2 Ulteriori propriet`a delle operazioni tra vettori

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

4 Spazi Vettoriali e Sottospazi Vettoriali


4.1
Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2
Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Definizione ed esempi . . . . . . . . . . . . . . . . . .
4.2.2 Intersezione e somma di sottospazi vettoriali . . . . . .
4.3
Generatori, basi e dimensione . . . . . . . . . . . . . . . . . .
4.3.1 Base di uno spazio vettoriale . . . . . . . . . . . . . .
4.3.2 Basi e somma diretta . . . . . . . . . . . . . . . . . .
4.3.3 Rango di una matrice . . . . . . . . . . . . . . . . . .
4.3.4 Il cambiamento di base . . . . . . . . . . . . . . . . .
4.3.5 Iperpiani vettoriali . . . . . . . . . . . . . . . . . . . .
4.4
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . .
4.5
Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . .
4.5.1 Equazioni vettoriali e teorema del rango . . . . . . . .
4.5.2 Equivalenza tra due definizioni di rango di una matrice
4.5.3 Spazi vettoriali complessi,
matrici hermitiane e anti-hermitiane . . . . . . . . . .
5 Spazi Vettoriali Euclidei
5.1
Definizione di prodotto scalare
5.2
Norma di un vettore . . . . . .
5.3
Basi ortonormali . . . . . . . .
5.4
Il complemento ortogonale . .
5.5
Esercizi di riepilogo svolti . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

97
100
101
101
113
120
124
129
131
131
132

.
.
.
.
.
.
.
.
.
.
.
.
.
.

135
135
138
139
143
149
149
162
166
176
178
180
183
188
193

. . . . . 195

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

201
201
204
208
218
223

INDICE

5.5.1
5.5.2

Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . . 226


Spazi vettoriali hermitiani . . . . . . . . . . . . . . . . . . . . . 226

6 Applicazioni Lineari
6.1
Matrice associata ad unapplicazione lineare
Equazioni di unapplicazione lineare . . . . . . . . . .
6.2
Cambiamenti di base e applicazioni lineari . . . . . . .
6.3
Immagine e controimmagine di sottospazi vettoriali . .
6.4
Operazioni tra applicazioni lineari . . . . . . . . . . .
6.5
Sottospazi vettoriali invarianti . . . . . . . . . . . . . .
6.6
Applicazione lineare aggiunta
Endomorfismi autoaggiunti . . . . . . . . . . . . . . .
6.7
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . .
6.8
Per saperne di pi`u . . . . . . . . . . . . . . . . . . . .
6.8.1 Forme lineari dualit`a . . . . . . . . . . . . .
6.8.2 Cambiamento di base in V . . . . . . . . . . .
6.8.3 Spazio vettoriale biduale . . . . . . . . . . . .
6.8.4 Dualit`a nel caso degli spazi vettoriali euclidei .
6.8.5 Trasposta di unapplicazione lineare . . . . . .
6.8.6 Endomorfismi autoaggiunti e matrici hermitiane
6.8.7 Isometrie, similitudini, trasformazioni unitarie .
7 Diagonalizzazione
7.1
Autovalori e autovettori di un endomorfismo . . . . . .
7.2
Determinazione degli autovalori e degli autospazi . . .
7.3
Endomorfismi diagonalizzabili
Matrici diagonalizzabili . . . . . . . . . . . . . . . . .
7.4
Il teorema spettrale . . . . . . . . . . . . . . . . . . .
7.5
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . .
7.6
Per saperne di pi`u . . . . . . . . . . . . . . . . . . . .
7.6.1 Diagonalizzazione simultanea . . . . . . . . . .
7.6.2 Il Teorema di CayleyHamilton . . . . . . . . .
7.6.3 Teorema spettrale e endomorfismi autoaggiunti
Caso complesso . . . . . . . . . . . . . . . . .
7.6.4 Autovalori delle isometrie, similitudini,
trasformazioni unitarie . . . . . . . . . . . . .

235
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

238
246
248
260
265

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

268
271
276
276
279
281
285
286
290
291

301
. . . . . . . . . 301
. . . . . . . . . 305
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

312
314
321
325
326
331

. . . . . . . . . 334
. . . . . . . . . 338

10

INDICE

8 Forme Bilineari e Forme Quadratiche


8.1
Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . .
8.1.1 Matrice associata ad una forma bilineare simmetrica . . . .
8.2
Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3
Nucleo e vettori isotropi . . . . . . . . . . . . . . . . . . . . . . .
8.4
Classificazione di una forma quadratica . . . . . . . . . . . . . . .
8.5
Forme canoniche . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6
La segnatura di una forma quadratica . . . . . . . . . . . . . . . .
8.7
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . .
8.8
Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8.1 Forme bilineari simmetriche ed endomorfismi autoaggiunti
8.8.2 Forme bilineari simmetriche e spazio vettoriale duale . . .
8.8.3 Altri metodi di classificazione di una forma quadratica . .
8.8.4 Il determinante come forma p-lineare . . . . . . . . . . .
9 Geometria Analitica nel Piano
9.1
Il riferimento cartesiano, generalit`a . . . . . . . . . . . .
9.1.1 Distanza tra due punti . . . . . . . . . . . . . . .
9.1.2 Punto medio di un segmento . . . . . . . . . . .
9.1.3 Baricentro di un triangolo . . . . . . . . . . . . .
9.2
Luoghi geometrici del piano . . . . . . . . . . . . . . . .
9.3
Riferimento polare . . . . . . . . . . . . . . . . . . . . .
9.4
Traslazione degli assi . . . . . . . . . . . . . . . . . . .
9.5
Simmetrie . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.1 Curva simmetrica rispetto allasse delle ordinate .
9.5.2 Curva simmetrica rispetto allasse delle ascisse .
9.5.3 Curva simmetrica rispetto allorigine . . . . . . .
9.6
Retta nel piano . . . . . . . . . . . . . . . . . . . . . . .
9.6.1 Retta per un punto parallela ad un vettore . . . .
9.6.2 Retta per un punto ortogonale ad un vettore . . .
9.6.3 Retta per due punti distinti . . . . . . . . . . . .
9.6.4 Rette particolari . . . . . . . . . . . . . . . . . .
9.6.5 Il coefficiente angolare ed il suo legame con a, b, c
9.7
Parallelismo, ortogonalit`a, angoli e distanze . . . . . . .
9.7.1 Condizione di parallelismo tra rette . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

341
341
344
350
353
364
370
376
381
389
389
392
393
398

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

405
405
408
408
408
409
412
414
417
417
418
418
420
421
422
424
426
426
428
428

INDICE

9.8
9.9
9.10

11

9.7.2 Condizione di perpendicolarit`a tra rette . .


9.7.3 Angolo tra due rette . . . . . . . . . . . .
9.7.4 Posizione reciproca di due rette nel piano
9.7.5 Distanza di un punto da una retta . . . . .
Fasci di rette . . . . . . . . . . . . . . . . . . . .
Esercizi di riepilogo svolti . . . . . . . . . . . . .
Per saperne di pi`u . . . . . . . . . . . . . . . . .
9.10.1 Rette immaginarie . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

10 Riduzione a Forma Canonica delle Coniche


10.1 La circonferenza nel piano . . . . . . . . . . . . . . . . .
10.1.1 Posizione reciproca tra una retta e una circonferenza
10.1.2 Retta tangente ad una circonferenza in un suo punto
10.1.3 Posizione reciproca di due circonferenze
Circonferenza per tre punti . . . . . . . . . . . . .
10.1.4 Fasci di circonferenze . . . . . . . . . . . . . . . .
10.2 Le coniche: definizione e propriet`a focali . . . . . . . . . .
10.2.1 Lellisse . . . . . . . . . . . . . . . . . . . . . . .
10.2.2 Liperbole . . . . . . . . . . . . . . . . . . . . . .
10.2.3 Iperbole equilatera riferita agli asintoti . . . . . . .
10.2.4 La parabola . . . . . . . . . . . . . . . . . . . . .
10.2.5 Coniche e traslazioni . . . . . . . . . . . . . . . .
10.3 Le coniche: luoghi geometrici di punti . . . . . . . . . . .
10.4 Le coniche: equazioni di secondo grado,
riduzione delle coniche in forma canonica . . . . . . . . .
10.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . .
10.6 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . .
10.6.1 Potenza di un punto rispetto ad una circonferenza .
10.6.2 Equazioni parametriche delle coniche . . . . . . .
10.6.3 Le coniche in forma polare . . . . . . . . . . . . .
10.6.4 Retta tangente ad una conica in un suo punto . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

429
431
431
434
435
438
441
441

445
. . . . . . . 445
. . . . . . . 447
. . . . . . . 449
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

452
453
459
459
465
474
476
481
485

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

492
508
512
512
514
516
517

11 Geometria Analitica nello Spazio


521
11.1 Il riferimento cartesiano nello spazio . . . . . . . . . . . . . . . . . . . 521
11.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 522
11.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . 523

12

INDICE

11.1.3 Baricentro di un triangolo e di un tetraedro . .


11.1.4 Area di un triangolo e volume di un tetraedro
11.2 Rappresentazione di un piano nello spazio . . . . . .
11.2.1 Piano per un punto ortogonale ad un vettore .
11.2.2 Piano per un punto parallelo a due vettori . .
11.2.3 Piano per tre punti non allineati . . . . . . . .
11.3 Rappresentazione della retta nello spazio . . . . . . .
11.3.1 Retta per un punto parallela ad un vettore . .
11.3.2 Retta per due punti distinti . . . . . . . . . .
11.3.3 Posizione reciproca di due piani
Retta come intersezione di due piani . . . . .
11.4 Posizioni reciproche tra rette e piani . . . . . . . . .
11.4.1 Posizione reciproca di tre piani . . . . . . . .
11.4.2 Posizione reciproca tra retta e piano . . . . .
11.4.3 Posizione reciproca di due rette nello spazio .
11.5 Fasci di piani . . . . . . . . . . . . . . . . . . . . .
11.6 Distanze e angoli . . . . . . . . . . . . . . . . . . .
11.6.1 Distanza di un punto da un piano . . . . . . .
11.6.2 Distanza di un punto da una retta . . . . . . .
11.6.3 Minima distanza tra due rette sghembe.
Perpendicolare comune a due rette sghembe .
11.6.4 Angolo tra due rette . . . . . . . . . . . . . .
11.6.5 Angolo tra retta e piano . . . . . . . . . . . .
11.6.6 Angolo tra due piani . . . . . . . . . . . . . .
11.7 Sfera e posizione reciproca con rette e piani . . . . .
11.7.1 Sfera . . . . . . . . . . . . . . . . . . . . . .
11.7.2 Posizione reciproca tra piano e sfera . . . . .
11.7.3 Posizione reciproca tra retta e sfera . . . . . .
11.8 La circonferenza nello spazio . . . . . . . . . . . . .
11.9 Posizione reciproca tra due sfere
Fasci di sfere . . . . . . . . . . . . . . . . . . . . . .
11.10 Coordinate polari sferiche . . . . . . . . . . . . . . .
11.11 Esercizi di riepilogo svolti . . . . . . . . . . . . . . .
11.12 Per saperne di pi`u . . . . . . . . . . . . . . . . . . .
11.12.1 Baricentro geometrico di punti . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

523
523
524
524
526
529
531
531
534

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

536
538
539
541
543
545
548
549
551

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

551
556
556
556
559
559
560
563
565

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

570
579
583
592
592

INDICE

13

11.12.2 Potenza di un punto rispetto ad una sfera . . . . . . . . . . . . . 594


11.12.3 Sfere in dimensione quattro . . . . . . . . . . . . . . . . . . . . 598
12 Coni, Cilindri, Superfici di Rotazione e Quadriche
12.1 Cenni sulla rappresentazione di curve e superfici . . . . . . . . . .
12.2 Il cono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2.1 Cono tangente ad una sfera . . . . . . . . . . . . . . . . .
12.2.2 Proiezione di una curva da un punto su un piano . . . . . .
12.3 Il cilindro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.3.1 Cilindri con assi paralleli agli assi coordinati . . . . . . . .
12.3.2 Cilindro circoscritto ad una sfera . . . . . . . . . . . . . .
12.3.3 Proiezione di una curva su un piano secondo una direzione
assegnata . . . . . . . . . . . . . . . . . . . . . . . . . .
12.3.4 Coordinate cilindriche . . . . . . . . . . . . . . . . . . . .
12.4 Superfici di rotazione . . . . . . . . . . . . . . . . . . . . . . . .
12.5 Cenni su superfici rigate . . . . . . . . . . . . . . . . . . . . . . .
12.6 Quadriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.6.1 Quadriche rigate . . . . . . . . . . . . . . . . . . . . . . .
12.6.2 Liperboloide ad una falda . . . . . . . . . . . . . . . . .
12.6.3 Il paraboloide iperbolico . . . . . . . . . . . . . . . . . .
12.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . .
12.8 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . . .
12.8.1 Piano tangente ad una quadrica in un suo punto . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

601
601
603
614
616
618
622
628

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

632
634
636
649
652
668
668
676
680
690
690

Bibliografia

697

Indice dei Simboli

699

Indice Analitico

702

14

INDICE

Capitolo 1
Sistemi Lineari
In questo capitolo si introducono le nozioni di sistema lineare, di matrici associate ad un
sistema lineare e si enuncia il Teorema di RoucheCapelli i cui dettagli e la dimostrazione
sono rimandate al Paragrafo 4.3. In tutto il testo, salvo indicazione contraria, il campo dei
numeri su cui sono introdotte le definizioni, su cui sono dimostrati i teoremi e risolti gli
esercizi e` il campo dei numeri reali R.

1.1

Equazioni lineari

Definizione 1.1 Unequazione lineare nelle incognite x1 , x2 , . . . , xn e` unespressione del


tipo:
a1 x1 + a2 x2 + . . . + an xn = b,

(1.1)

dove i numeri reali ai , i = 1, 2, . . . , n, sono detti coefficienti e il numero reale b prende


il nome di termine noto. Lequazione si dice lineare in quanto ogni incognita xi compare
a primo grado.
Definizione 1.2 Una soluzione dellequazione lineare (1.1) e` una n-upla di numeri reali:
(x01 , x02 , . . . , x0n )
che, sostituita alle incognite x1 , x2 , . . . , xn , verifica lequazione, cio`e:
a1 x01 + a2 x02 + . . . + an x0n = b.
Risolvere unequazione significa determinarne tutte le soluzioni.
15

Sistemi Lineari

16

Esempio 1.1 Lequazione lineare nelle incognite x1 , x2 , x3 , x4 :


2x1 + 3x2 x3 + 4x4 = 5
ammette infinite soluzioni, che dipendono da 3 parametri reali, date da:

x1 = t1

x2 = t2
x3 = 5 + 2t1 + 3t2 + 4t3

x4 = t3 ,
t1 , t2 , t3 R;
oppure, equivalentemente, linsieme delle soluzioni S e` dato da:
S = {(x1 , x2 , x3 , x4 ) = (t1 , t2 , 5 + 2t1 + 3t2 + 4t3 , t3 ) | t1 , t2 , t3 R}.
Si osservi che, risolvendo lequazione rispetto ad unaltra incognita, si ottiene lo stesso
insieme di soluzioni (solo rappresentato in modo diverso).
Definizione 1.3 Lequazione lineare (1.1) si dice omogenea se il termine noto b e` nullo.
E` chiaro che unequazione lineare e` omogenea se e solo se ammette la soluzione nulla,
cio`e la soluzione formata da tutti zeri (0, 0, . . . , 0) ma, in generale, unequazione lineare
omogenea pu`o ammettere anche soluzioni non nulle, come nellesempio seguente.
Esempio 1.2 Lequazione lineare omogenea nelle incognite x, y :
2x 3y = 0
ammette infinite soluzioni che dipendono da unincognita libera, date da:


2
(x, y) = t, t , t R.
3
Si osservi che la soluzione nulla (0, 0) si ottiene ponendo t = 0.

1.2

Sistemi lineari

Un sistema lineare di m equazioni in n incognite x1 , x2 , . . . , xn e` un insieme di equazioni


lineari del tipo:

a11 x1 + a12 x2 + . . . . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . . . . + a2n xn = b2


(1.2)
..

a x + a x + . . . . . . + a x = b , a R, b R.
m1 1

m2 2

mn n

ij

Capitolo 1

17

I coefficienti aij , i = 1, 2, . . . , m, j = 1, 2, . . . , n, sono dotati di due indici per agevolare


il riconoscimento della loro posizione nel sistema lineare. Il primo indice (indice di riga),
in questo caso i, indica il numero dellequazione in cui il coefficiente compare, il secondo
indice (indice di colonna), in questo caso j , stabilisce il numero dellincognita di cui aij
e` il coefficiente. Per esempio a23 e` il coefficiente della terza incognita nella seconda
equazione. I termini noti bi , i = 1, 2, . . . , m, hanno solo unindice essendo unicamente
riferiti al numero dellequazione in cui compaiono. Il sistema considerato e` lineare in
quanto ogni equazione che lo compone e` lineare. Analogamente al caso delle equazioni,
un sistema lineare si dice omogeneo se tutte le sue equazioni hanno termine noto nullo,
cio`e se bi = 0, per ogni i = 1, 2, . . . , m.
Anche in questo caso vale la seguente definizione.
Definizione 1.4 Una soluzione di un sistema lineare di m equazioni in n incognite e` una
n-upla di numeri reali:
(x01 , x02 , . . . , x0n )
che, sostituita ordinatamente alle incognite, verifica tutte le equazioni del sistema, cio`e:

a11 x01 + a12 x02 + . . . . . . + a1n x0n = b1

a21 x01 + a22 x02 + . . . . . . + a2n x0n = b2


..

a x 0 + a x0 + . . . . . . + a x0 = b .
m1 1
m2 2
mn n
m
Risolvere un sistema lineare significa determinarne tutte le soluzioni.
E` chiaro che ogni sistema lineare e` omogeneo se e solo se ammette la soluzione nulla
(0, 0, . . . , 0), formata da tutti zeri.
Definizione 1.5 Un sistema lineare si dice compatibile se ammette soluzioni, altrimenti
e` incompatibile.
Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si dar`a ampio spazio
al metodo di riduzione di Gauss in quanto pi`u veloce (anche dal punto di vista computazionale). Lidea di base del metodo di Gauss e` quella di trasformare il sistema lineare di
partenza in un altro sistema lineare ad esso equivalente ma molto pi`u semplice, tenendo
conto della seguente definizione.
Definizione 1.6 Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.

Sistemi Lineari

18

Prima di iniziare la trattazione teorica si consideri il seguente esempio.


Esempio 1.3 Risolvere il seguente sistema lineare di due equazioni in due incognite
usando il metodo di riduzione:

x+y =4
2x 3y = 7.
Il sistema lineare dato e` equivalente a:

x+y =4
2(x + y) (2x 3y) = 2 4 7,
ossia:

x+y =4
5y = 1

che ammette come unica soluzione (19/5, 1/5).


Il metodo usato per risolvere lesempio precedente e` conseguenza del seguente teorema.
Teorema 1.1 Eseguendo un numero finito di volte le tre operazioni sotto elencate:
1. scambiare tra loro due equazioni,
2. moltiplicare unequazione per un numero reale diverso da zero,
3. sostituire ad unequazione la somma di se stessa con unaltra equazione moltiplicata per un qualsiasi numero reale
si ottiene un sistema lineare equivalente a quello di partenza.
Dimostrazione E` ovvio che scambiando tra loro due equazioni si ottiene un sistema
lineare equivalente a (1.2).
Per la seconda operazione, si dimostra che il sistema lineare (1.2) e` equivalente al sistema lineare che si ottiene sostituendo alla prima equazione se stessa moltiplicata per un
numero reale 6= 0. Si osservi che se tale sostituzione avviene per la i-esima equazione
e` sufficiente operare con la prima operazione per ricondursi al caso in esame. In altri
termini si prova che (1.2) e` equivalente al sistema lineare:

(a11 x1 + a12 x2 + . . . . . . + a1n xn ) = b1

a21 x1 + a22 x2 + . . . . . . + a2n xn = b2


(1.3)
..

a x + a x + . . . . . . + a x = b , 6= 0.
m1 1

m2 2

mn n

Per la dimostrazione si deve procedere in due passi.

Capitolo 1

19

1. Ipotesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.2).


Tesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.3).
2. Ipotesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.3).
Tesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.2).
1. La dimostrazione e` ovvia e vale per ogni numero reale 6= 0.
2. E` sufficiente dimostrare la tesi per la prima equazione di (1.2). Per ipotesi si ha:
(a11 x01 + a12 x02 + . . . . . . + a1n x0n ) = b1 ,
essendo 6= 0 si possono dividere ambo i membri dellidentit`a precedente per ,
da cui segue la tesi.
Per dimostrare lequivalenza nel caso delloperazione 3. si procede allo stesso modo.
Esempio 1.4 I due sistemi lineari seguenti non sono equivalenti:


x+y =4
x+y =4
2x 3y = 7,
0(2x 3y) + 2(x + y) = 0 7 + 2 4.
Infatti non e` consentito sostituire alla seconda equazione il prodotto di se stessa per il
numero 0, anche se si mantiene inalterata la prima equazione.
Si osservi che le operazioni descritte nel Teorema 1.1 agiscono linearmente solo sui coefficienti del sistema lineare e non sulle incognite. Ci`o suggerisce di sostituire ad un sistema
lineare una tabella dei coefficienti e dei temini noti ed operare solo su questa. Viene
illustrato ora questo procedimento mediante lEsempio 1.3.
Al sistema lineare:


x+y =4
2x 3y = 7



1
1 4
2 3 7

si associa la tabella:
(1.4)

con le due righe:


R1 =


1 1 | 4 ,

R2 =

2 3 | 7

Sistemi Lineari

20

e le tre colonne:

C1 =

1
2


,


C2 =

1
3


,


C3 =

4
7


.

Successivamente si opera su di essa sostituendo alla seconda riga R2 se stessa a cui si


sottrae il prodotto di due volte la prima, cio`e R2 R2 2R1 , ottenendo cos`:



1
1 4
,
0 5 1
che corrisponde al sistema lineare ridotto:

x+y =4
5y = 1.
Benche la definizione intuitiva di sistema lineare ridotto sia evidente, si enuncer`a la
definizione formale pi`u avanti.
La tabella (1.4) prende il nome di matrice completa del sistema lineare, o matrice dei
coefficienti e termini noti. Il tratto verticale prima dellultima sua colonna intende solo
distinguere i coefficienti del sistema lineare dai termini noti. Il termine matrice indica, in
generale, una tabella di numeri, a prescindere dalluso relativo ai sistemi lineari. La trattazione generale delle matrici e` rimandata al capitolo successivo, introducendo ora solo
alcune nozioni elementari. E` evidente che il numero delle righe della matrice completa
associata ad un sistema lineare coincide con il numero delle equazioni del sistema lineare,
il numero delle colonne e` pari al numero delle incognite aumentato di una unit`a, che corrisponde alla colonna formata dai termini noti. Le operazioni di riduzione che permettono
di trasformare un sistema lineare in un sistema lineare ridotto ad esso equivalente (cfr.
Teor. 1.1) si traducono sulle righe della matrice in modo ovvio e si possono riassumere,
rispettivamente con le seguenti notazioni:
1. Ri Rj ,
2. Ri Ri , R, 6= 0,
3. Ri Ri + Rj , R, i 6= j,
dove Ri e Rj indicano rispettivamente la iesima riga e la j esima riga.
In generale, al sistema lineare (1.2) si associano due matrici, una matrice A di m righe e
n colonne:

a11 a12 . . . a1n


a21 a22 . . . a2n

A = ..
(1.5)
..
..
.
.
.
am1 am2 amn

Capitolo 1

detta matrice dei coefficienti, e una matrice (A | B)

a11 a12 . . .
a21 a22 . . .

(A | B) = ..
..
.
.
am1 am2

21

di m righe e n + 1 colonne:

a1n b1
a2n b2

.. ..

. .
amn bm

detta matrice completa.


Esempio 1.5 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

x + y + 2z = 9
2x + 4y 3z = 1

3x + 6y 5z = 0
la matrice completa (formata da tre righe e quattro colonne) e` :

1 1
2 9
2 4 3 1 .

3 6 5 0
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:

1 1
2
9
1 1
2

R2 R2 2R1
0 2 7 17
0 2 7
R3 2R3 3R2
R3 R3 3R1
0 3 11 27
0 0 1


9

17 ,

3

da cui si perviene al sistema lineare:

x + y + 2z = 9
2y 7z = 17

z = 3,
che ammette una sola soluzione:

x=1
y=2

z = 3.

Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

x1 + x2 x3 = 1
2x1 + 2x2 + x3 = 0

x1 + x2 + 2x3 = 1

Sistemi Lineari

22

la matrice completa e` :

1
2
1

1 1 1
2
1 0 .
1
2 1

Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:



1 1 1 1
1 1 1 1

0 0
R2 R2 2R1 0 0
3 2
3 2 ,
R

R
3
3
2
R3 R3 R1
0 0
3 2
0 0
0 0
da cui si perviene al sistema lineare:


x1 + x 2 x3 = 1
3x3 = 2,

che ammette infinite soluzioni che dipendono da unincognita libera x2 , per maggiore
chiarezza si pone x2 uguale ad un parametro t che quindi pu`o assumere ogni valore reale:

x1 = t

x2 = t

x3 = , t R.
3
Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

x1 + x2 = 1
2x1 + x2 + 3x3 = 2

x1 + 2x2 + 3x3 = 1
la matrice completa e` :

1
2
1

1
1
2

0
3
3

1

2 .

1

Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:



1 1 0 1

1 1 0 1
R2 R2 + 2R1 0 3 3 0 R2 (1/3)R2 0 1 1 0
R3 R3 + R1
0 3 3 2
R3 R3 R2
0 0 0 2

Capitolo 1

23

da cui si perviene al sistema lineare:

x1 + x2 = 1
x2 + x3 = 0

0 = 2
che e` chiaramente incompatibile.
Gli esempi studiati impongono la definizione formale della matrice associata allultimo
sistema lineare che si ottiene, ossia della matrice associata ad un sistema lineare ridotto
equivalente a quello di partenza.
Definizione 1.7 Una matrice si dice ridotta per righe se in ogni sua riga non nulla esiste
un elemento non nullo al di sotto del quale vi sono tutti zeri.
Esempio 1.8 La matrice:

1
1
1
e` ridotta per righe, mentre la matrice:

1
1
1

2
0
0

0
1
0

2
1
0
0
1 1

non lo e` .
Segue, in modo naturale, la definizione annunciata di sistema lineare ridotto.
Definizione 1.8 Un sistema lineare si dice ridotto se la matrice dei coefficienti ad esso
associata e` ridotta per righe.
Osservazione 1.1 Se la matrice dei coefficienti associata ad un sistema lineare e` ridotta
per righe ma non lo e` la matrice completa, e` sufficiente operare sulla colonna dei termini
noti per pervenire ad una matrice completa ridotta per righe, per esempio:

1 2
3 1
1 2
3 1
0 1 2 2
0 1 2 2


.
(A | B) =
0 0
0 3 R4 4R3 3R4 0 0
0 3
0 0
0 4
0 0
0 0

24

Sistemi Lineari

Invece, la matrice completa di un sistema lineare pu`o essere ridotta per righe senza che
necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:

1 2 3 4
(A | B) = 7 6 5 0
9 8 0 0
e` una matrice ridotta per righe, ma il sistema lineare associato non e` ridotto perche la
matrice dei coefficienti non e` ridotta per righe.
Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante
le operazioni consentite, ad una matrice dei coefficienti ridotta per righe. Dai teoremi che
seguono e anche dallOsservazione 1.1, sar`a chiaro che tra tutte le matrici complete ridotte
per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefficienti e`
ridotta per righe. Si possono allora presentare queste possibilit`a:
a. quella illustrata nellEsempio 1.5, ovvero il numero delle righe non nulle della matrice completa ridotta per righe e` uguale al numero delle righe non nulle della matrice dei coefficienti ridotta per righe ed e` uguale al numero delle incognite, quindi
lultima riga non nulla della matrice dei coefficienti contiene soltanto un numero
non nullo, allora il sistema lineare ridotto associato e` compatibile e ha una sola
soluzione.
b. Quella illustrata nellEsempio 1.6, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe e` uguale al numero delle righe non nulle della
matrice dei coefficienti ed e` minore del numero delle incognite; lultima riga non
nulla della matrice dei coefficienti contiene almeno un numero non nullo; allora il
sistema lineare ridotto e` compatibile e ammette infinite soluzioni che dipendono da
almeno unincognita libera.
c. Quella illustrata nellEsempio 1.7, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe e` maggiore (di una unit`a) del numero delle righe
non nulle della matrice dei coefficienti ridotta per righe e pertanto il sistema lineare
ridotto associato e` incompatibile.
Le definizioni seguenti (che avranno un ruolo cruciale in tutto il testo) permettono, in
modo elementare, di distinguere le situazioni prima esposte.
Definizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non
nulle.

Capitolo 1

25

Definizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta
per righe da essa ottenuta.
Osservazione 1.2 In base alla precedente definizione il rango della matrice formata da
tutti zeri e` 0.
In letteratura, le notazioni pi`u comuni per indicare il rango di una matrice sono rank(A) =
rg(A) = r(A) = rk(A) = (A). Si user`a la notazione rank(A).
Osservazione 1.3 E` evidente che affinch`e la Definizione 1.10 abbia senso e` necessario
dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici
ridotte ottenute hanno lo stesso rango. In realt`a, la Definizione 1.10 esprime il metodo di
calcolo del rango di una matrice. Per dimostrare laffermazione appena citata e` necessario
enunciare unaltra definizione di rango di una matrice e ci`o sar`a fatto nel Paragrafo 4.3
dopo aver introdotto nozioni adesso premature.
I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel
modo seguente:
a. rank(A) = rank(A | B) = 3; il rango delle due matrici e` uguale e coincide con il
numero delle incognite;
b. rank(A) = rank(A | B) = 2; il rango delle due matrici e` uguale ma e` inferiore di
una unit`a al numero delle incognite;
c. rank(A) = 3, rank(A | B) = 4; i due ranghi sono diversi, il sistema lineare e`
incompatibile.
Si e` cos` quasi dimostrato il seguente teorema.
Teorema 1.2 Teorema di RoucheCapelli Un sistema lineare in n incognite e` compatibile se e solo se il rango della matrice dei coefficienti A coincide con il rango della
matrice completa (A | B). In particolare, se rank(A) = rank(A | B) = n, il sistema
lineare ha ununica soluzione. Se rank(A) = rank(A | B) = k < n, il sistema lineare
ammette infinite soluzioni che dipendono da n k incognite libere.
Si osservi, infatti, che il Teorema di RoucheCapelli e` banalmente dimostrato solo nel
caso dei sistemi lineari ridotti; per completare la dimostrazione e` necessario, come gi`a osservato, enunciare unaltra definizione di rango di una matrice e provare che le operazioni
di riduzione per righe di una matrice non ne alterano il rango (cfr. Teor. 4.21).

Sistemi Lineari

26

Osservazione 1.4 Un sistema lineare omogeneo e` sempre compatibile, perci`o e` solo interessante capire se ammetta una sola soluzione (quella nulla) o infinite soluzioni e ci`o
dipende interamente dal rango della matrice dei coefficienti. Per la risoluzione di un sistema lineare omogeneo e` sufficiente ridurre per righe la matrice dei coefficienti (questo
caso sar`a esaminato in dettaglio nel Paragrafo 1.2.1).
Osservazione 1.5 Mentre segue dalla Definizione 1.10 che, per una matrice A con m
righe e n colonne, rank(A) m, si dimostrer`a formalmente che il rango della matrice
dei coefficienti di un sistema lineare e` un numero inferiore o uguale al minore tra il numero
delle equazioni e il numero delle incognite, cio`e rank(A) m e rank(A) n.
Osservazione 1.6 Al pi`u il rango della matrice completa differisce di una unit`a dal rango
della matrice dei coefficienti, cio`e rank(A | B) rank(A) + 1.
Esempio 1.9 Metodo di riduzione di GaussJordan Per determinare le soluzioni
di un sistema lineare si pu`o procedere in modo leggermente diverso da quando si e` visto
finora. Quando si perviene alla matrice completa ridotta per righe, anziche scrivere il sistema lineare ridotto associato si pu`o, in modo equivalente, procedere allo stesso calcolo
mediante unulteriore riduzione della matrice completa allo scopo di pervenire alla lettura
nellultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo
metodo, detto anche metodo di riduzione di GaussJordan, per differenziarlo dal metodo
di riduzione di Gauss introdotto in precedenza, e` molto efficace quando si ha una sola soluzione, ma pu`o presentare alcune difficolt`a di calcolo negli altri casi. Viene ora illustrato
con un esempio e precisamente partendo dallultimo passaggio di riduzione nellEsempio
1.5. La matrice dei coefficienti ha, in questo caso, lo stesso numero di righe e di colonne. Pertanto ha senso considerare la sua diagonale principale, cio`e linsieme formato da
tutti gli elementi aii , i = 1, 2, 3 (tale nozione sar`a ripresa e riformulata con maggiore
propriet`a di linguaggio nellEsempio 2.6). Quando la matrice dei coefficienti e` ridotta
per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo
dallultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la
diagonale principale.

9
1 1
2
1 1
2
9

0 2 7 17 R2 (1/2)R2 0 1 7 17

2
2

R3 R3



0 0 1
3
0 0
1
3

R2 R2 + (7/2)R3
R1 R1 2R3

1
1
0


0 3


0 2


1 3

R1 R1 R2

0
1
0


0 1


0 2


1 3

Capitolo 1

27

Si osservi che sullultima colonna, si legge, in ordine, proprio la soluzione del sistema lineare dato. Si presti molta attenzione allordine con cui compaiono i valori delle incognite
nellultima colonna, che dipende dal metodo di riduzione seguito.
Esercizio 1.1 Discutere e risolvere, al variare del parametro a R, il seguente sistema
lineare di tre equazioni in tre incognite:

x + 2y 3z = 4
3x y + 5z = 2

4x + y + (14 + a2 )z = 2 + a.
Soluzione Si procede con la riduzione per righe della matrice completa (A | B), riportando solo i passaggi essenziali.


1
2
3
4

3 1
5
2
R2 R2 3R1
(A | B) =

4
1 14 + a2 2 + a
R3 R3 4R1

1
2
3
4
1
2
3


0 7

0 7
14
10
14

R3 R3 R2
2
0 7 2 + a
14 + a
0
0 16 + a2


4

10 .

4 + a

La matrice dei coefficienti A e` ridotta per righe, quindi si presentano i seguenti casi:
1. rank(A) = 3 se e solo se a2 16 6= 0 ossia se e solo se a
/ {4, 4};
2. rank(A) = 2 se e solo se a = 4 oppure a = 4.
Per determinare le soluzioni del sistema lineare si devono considerare tre casi:
1. a
/ {4, 4}, poiche rank(A) = 3 anche rank(A | B) = 3. Il sistema lineare e`
compatibile e ammette una sola soluzione, che si determina o a partire dal sistema
lineare ridotto associato, oppure procedendo allulteriore riduzione della matrice
completa prima ottenuta nel modo seguente:

1
R3
R3
16 + a2

7 14
0

4
10
4 + a
(4 + a)(4 + a)

R2 R2

Sistemi Lineari

28

2 3

4
10
7

1 2
0

1
4+a

R2 R2 + 2R3

R1 R1 + 3R3

0
R1 R1 2R2

19 + 4a
4+a

54 + 10a

7(4 + a)

1
4+a

25 + 8a
7(4 + a)

54 + 10a
.
7(4 + a)

1
4+a

In questo modo si leggono, ordinatamente in colonna, i valori delle tre incognite.


2. a = 4, sostituendo tale valore di a nellultimo passaggio di riduzione della
matrice completa (A | B) si ha:

1
0
0

2 3 4
7 14 10
0
0 8

da cui segue che rank(A) = 2 mentre rank(A | B) = 3, il sistema lineare e` quindi


incompatibile.
3. a = 4, sostituendo tale valore di a nellultimo passaggio di riduzione della matrice
completa (A | B) si ha:

0
7 14 10
1
R2 R2

7
0
0 0
0

2 3

1 2

10
7

da cui segue che rank(A) = rank(A | B) = 2 (2 < 3, con 3 numero delle

Capitolo 1

29

incognite) il sistema lineare e` , quindi, compatibile e ammette infinite soluzioni:

x
=
t

10
+ 2t
y=

z = t,
t R.
Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel
modo seguente:

 

8
10
8 10
(x, y, z) =
t,
+ 2t, t =
, , 0 + t(1, 2, 1), t R,
7
7
7 7
mettendo cos` meglio in evidenza la dipendenza dallincognita libera z = t. Si osservi
inoltre che sostituendo a t un particolare valore si ottiene una soluzione particolare del
sistema lineare.

1.2.1

Sistemi lineari omogenei

Si ricordi che un sistema lineare omogeneo e` un sistema lineare avente tutti i termini noti
uguali a zero, cio`e del tipo:

a11 x1 + a12 x2 + . . . . . . + a1n xn = 0

a21 x1 + a22 x2 + . . . . . . + a2n xn = 0


(1.6)
..

a x + a x + . . . . . . + a x = 0, a R,
m1 1

m2 2

mn n

ij

la cui matrice dei coefficienti A coincide con (1.5) e quella completa (A |B) e` :

a11 a12 . . . a1n 0


a21 a22 . . . a2n 0

(A | B) = ..
..
.. .. ;
.
.
. .
am1 am2 amn 0
quindi il rango della matrice dei coefficienti A coincide con il rango della matrice completa (A | B). Infatti, come si e` gi`a osservato, un sistema lineare omogeneo ammette
sempre almeno la soluzione nulla. E` molto interessante distinguere il caso in cui si ha una
sola soluzione da quello con infinite soluzioni:

Sistemi Lineari

30

1. se il rango di A coincide con il numero delle incognite, allora esiste solo la soluzione (0, 0, . . . , 0);
2. se il rango di A e` un numero k strettamente minore del numero delle incognite n,
allora esistono infinite soluzioni che dipendono da n k incognite libere.
Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque incognite:

x3 + x4 + x5 = 0

x1 x2 + 2x3 3x4 + x5 = 0
x1 + x2 2x3 x5 = 0

2x1 + 2x2 x3 + x5 = 0
ha come matrice dei coefficienti:

0
0
1
1
1
1 1
2 3
1
.
A=
1
1 2
0 1
2
2 1
0
1

Procedendo alla sua riduzione per righe (si osservi che e` inutile ridurre per righe la matrice
completa) si ha:

1
1 2
0 1
1 1 2
0 1

0
1
1
1
1
1
1
R3 R3 + R1 0 0

R3 R1
1 1
0 0
2 3
1
0 3
0
R2 R3
R4 R4 2R1
2
2 1
0
1
0 0
3
0
3

1 1 2 0 1

0 0
1 1
1

R3 (1/3)R3
0 0
0 1
0
R4 (1/3)R4
0 0
1 0
1

1 1 2
0 1
0 0

1
1
1

.
R4 R4 R2 0 0
0
1
0
0 0
0 1
0
Si deduce che rank(A) = 3, esistono, quindi, infinite soluzioni che dipendono da 53 = 2
incognite libere. Il sistema lineare ridotto associato e` :

x1 + x2 2x3 x5 = 0
x3 + x4 + x5 = 0
(1.7)

x4 = 0

Capitolo 1

le cui soluzioni sono:

31

x1 = t1 t2

x2 = t2
x3 = t1

4 = 0

x5 = t1 , t1 , t2 R.

Osservazione 1.8 Linsieme delle soluzioni del sistema lineare precedente si pu`o scrivere
come:
n
(x1 , x2 , x3 , x4 , x5 ) = (t1 t2 , t2 , t1 , 0, t1 )
o
= t1 (1, 0, 1, 0, 1) + t2 (1, 1, 0, 0, 0) | t1 , t2 R .
Il seguente teorema mette in relazione le soluzioni di un sistema lineare compatibile qualsiasi (1.2) con il sistema lineare omogeneo (1.6), che ha la stessa matrice dei coefficienti.
Tale sistema lineare (1.6) e` anche detto il sistema lineare omogeneo associato a (1.2).
Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene
aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del
sistema lineare omogeneo associato (1.6).
Dimostrazione Sia (x1 , x2 , . . . , xn ) una soluzione particolare di (1.2) e (x1 , x2 , . . . , xn )
una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verifica
immediatamente che (x1 + x1 , x2 + x2 , . . . , xn + xn ) e` ancora una soluzione di (1.2).
Viceversa, se (x01 , x02 , . . . , x0n ) e (x001 , x002 , . . . , x00n ) sono due soluzioni qualsiasi di (1.2),
delle quali (x01 , x02 , . . . , x0n ) e` quella generale e (x001 , x002 , . . . , x00n ) e` una soluzione particolare, allora e` facile verificare che (x01 x001 , x02 x002 , . . . , x0n x00n ) e` soluzione del sistema
lineare omogeneo associato (1.6).
Esempio 1.11 Si consideri il sistema lineare:

x1 + x2 2x3 x5 = 5
x3 + x4 + x5 = 4

x4 = 3

(1.8)

che ha come sistema lineare omogeneo associato (1.7). Linsieme delle sue soluzioni e` :
n
(x1 , x2 , x3 , x4 , x5 ) = (7 t1 t2 , t2 , 1 t1 , 3, t1 )
o
= (7, 0, 1, 3, 0) + t1 (1, 0, 1, 0, 1) + t2 (1, 1, 0, 0, 0) | t1 , t2 R .

32

Sistemi Lineari

Si osservi che (7, 0, 1, 3, 0) e` una soluzione particolare del sistema lineare dato, mentre:
t1 (1, 0, 1, 0, 1) + t2 (1, 1, 0, 0, 0),
al variare di t1 e t2 in R, e` la generica soluzione del sistema lineare omogeneo (1.7)
associato.
Analogamente, si verifichi per esercizio che il sistema lineare seguente:

x1 + x2 2x3 x5 = 1
x3 + x4 + x 5 = 2

x4 = 1,
che ha la stessa matrice dei coefficienti di (1.8) ma diversa matrice completa, ha come
insieme di soluzioni:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 t1 t2 , t2 , 3 t1 , 1, t1 )
o
= (7, 0, 3, 1, 0) + t1 (1, 0, 1, 0, 1) + t2 (1, 1, 0, 0, 0) | t1 , t2 R .

Capitolo 2
Matrici e Determinanti
Scopo di questo capitolo e` quello di formalizzare il concetto di matrice gi`a introdotto
nel capitolo precedente e studiare le propriet`a essenziali dellinsieme delle matrici che
costituisce un valido esempio di spazio vettoriale, struttura algebrica che sar`a definita nel
Capitolo 4.

2.1

Somma di matrici e prodotto di un numero reale per


una matrice

Definizione 2.1 Una matrice di m righe e di n colonne, ad elementi reali, e` una tabella
del tipo:

A=

a11
a21
..
.

a12
a22
..
.

. . . a1n
. . . a2n
..
.

am1 am2 amn

(2.1)

con aij R, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Per convenzione le matrici vengono indicate con le lettere maiuscole dellalfabeto e linsieme della matrici di m righe ed n colonne sar`a indicato con Rm,n o, talvolta, con
MR (m, n). In forma sintetica la matrice (2.1) si pu`o anche scrivere come:
A = (aij ),

1 i m, 1 j n,

e aij e` lelemento della matrice A di posto (i, j).


33

Matrici e Determinanti

34

Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una
colonna, cio`e come elementi di R1,1 . Quindi R e` effettivamente uguale a R1,1 .
Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono
quadrate e tale numero si dice ordine della matrice. Per esempio:


1 2
A=
3 4
e` una matrice quadrata di ordine 2.
Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga. Per esempio:

A = 1 2 3 4 R1,4
e` una matrice riga.
Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna. Per
esempio:

1
2
4,1

A=
3 R
4
e` una matrice colonna.
Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del
prodotto cartesiano:
Rn = {(x1 , x2 , . . . , xn ) | xi R, i = 1, 2, . . . , n}
possono essere visti come matrici riga o colonna. Quindi Rn pu`o essere identificato sia
con R1,n sia con Rn,1 .
Esempio 2.5 La matrice (aij ) Rm,n , con tutti gli elementi aij = 0, si dice matrice
nulla e si indica con O, da non confondersi con il numero 0 R. E` evidente che la
matrice nulla e` lunica matrice ad avere rango zero (cfr. Oss. 1.2).
Esempio 2.6 Nel caso di una matrice quadrata A = (aij ) di ordine n, tutti gli elementi
del tipo aii , al variare di i da 1 a n, costituiscono la diagonale principale. Rivestiranno
in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi

Capitolo 2

35

elementi tutti nulli al di fuori della diagonale principale cio`e aij = 0 se i 6= j . Linsieme
delle matrici diagonali di ordine n sar`a indicato con:

a
0
.
.
.
0
11

0 a22 . . . 0

n,n
|
a

R,
i
=
1,
2,
.
.
.
,
n
.
(2.2)
D(R ) = ..

.. . .
..
ii

.
.
.

0
0 . . . ann
Esempio 2.7 Casi particolari dellesempio precedente sono la matrice unit`a I Rn,n ,
ossia la matrice diagonale avente tutti 1 sulla diagonale principale:

1 0 ... 0
0 1 ... 0

I = .. .. . . ..
. .
. .
0 0 ... 1
e la matrice quadrata nulla O Rn,n , intendendosi come tale la matrice quadrata avente
tutti gli elementi uguali a 0.
La definizione che segue stabilisce la relazione di uguaglianza tra matrici.
Definizione 2.2 Due matrici A = (aij ) e B = (bij ) sono uguali se:
1. hanno lo stesso numero di righe e di colonne, cio`e A e B appartengono entrambe
allo stesso insieme Rm,n ,
2. gli elementi di posto uguale coincidono, cio`e:
aij = bij ,

i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Si introducono ora le definizioni di somma di matrici e di prodotto di un numero reale per


una matrice sullinsieme Rm,n .
Definizione 2.3 Si definisce somma delle due matrici A = (aij ), B = (bij ), entrambe
appartenenti a Rm,n , la matrice A + B Rm,n data da:
A + B = (aij + bij ).
Esempio 2.8 Date le matrici:

A=

1
3

2
4


,


B=

0
2

5
7

Matrici e Determinanti

36

la loro somma e` la matrice:



A+B =

1 7
1 11


.

Se A e B non appartengono allo stesso insieme Rm,n , non e` possibile definire la loro
somma. Ad esempio non e` definita la somma della matrice A con la matrice:


0 3 2
C=
.
1 5 6
Teorema 2.1 Per loperazione di somma di matrici definita sullinsieme Rm,n valgono
le propriet`a di seguito elencate:
1. A + B = B + A,

A, B Rm,n (propriet`a commutativa).

2. A + (B + C) = (A + B) + C,
3. O + A = A + O = A,
4. A + (A) = O,

A, B, C Rm,n (propriet`a associativa).

A Rm,n (esistenza dellelemento neutro).

A Rm,n (esistenza dellopposto).

Dimostrazione
E` lasciata per esercizio ed e` la naturale conseguenza del fatto che la
somma di numeri reali soddisfa le stesse propriet`a. Lelemento neutro per la somma di
matrici e` la matrice nulla O Rm,n introdotta nellEsempio 2.5, lopposto della matrice
A = (aij ) Rm,n e` la matrice A Rm,n cos` definita A = (aij ).
Osservazione 2.2 Un insieme con unoperazione che verifichi le propriet`a del teorema
precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le propriet`a 2., 3., 4. Pertanto (Rm,n , +) con loperazione di somma di matrici ha la struttura di
gruppo commutativo.
Definizione 2.4 Si definisce prodotto di un numero reale per una matrice A = (aij ) di
Rm,n la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale ,
ossia:
A = (aij ),
quindi A e` ancora una matrice di Rm,n .
A volte si usa il termine scalare per indicare il numero reale e il prodotto di un numero
reale per una matrice e` anche detto quindi prodotto di uno scalare per una matrice.

Capitolo 2

37

Esempio 2.9 Se:




1 2
3 4

3 6
9 12

A=


,

il prodotto 3A e` la matrice:
3A =


.

Lopposto della matrice A e` dunque A = (1)A. Inoltre 0A = O, dove O indica la


matrice nulla.
Teorema 2.2 Per il prodotto di un numero reale per una matrice valgono le seguenti
propriet`a che mettono in relazione la somma di matrici con la somma e il prodotto di
numeri reali:
1. (A + B) = A + B,

R, A, B Rm,n ;

2. ( + )A = A + A,

, R, A Rm,n ;

3. ()A = (A),
4. 1A = A,
Dimostrazione

, R, A Rm,n ;

A Rm,n .
Si tratta di un semplice esercizio.

Osservazione 2.3 Linsieme delle matrici Rm,n , considerato congiuntamente con le operazioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro
propriet`a prima enunciate, d`a luogo ad una struttura algebrica che e` un esempio di spazio
vettoriale.
Gli spazi vettoriali, che costituiscono la base dellalgebra lineare, saranno studiati in modo intensivo a partire dal Capitolo 4. Si e` preferito, per ragioni didattiche, anteporre la
descrizione degli esempi pi`u facili di spazi vettoriali alla loro stessa definizione. Questo e` il caso di Rm,n e nel prossimo capitolo la stessa idea sar`a applicata allinsieme dei
vettori ordinari dello spazio in modo da permettere al Lettore di prendere confidenza con
nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola secondaria superiore e di dare la possibilit`a di affrontare pi`u agevolmente lo studio dei capitoli
successivi.

Matrici e Determinanti

38

2.2

Il prodotto di matrici

La definizione di prodotto di matrici, oggetto di questo paragrafo, trova una sua giustificazione, per esempio, nella rappresentazione mediante matrici dei movimenti in uno spazio
vettoriale e nella loro composizione, problematiche che saranno trattate diffusamente nel
Capitolo 6.
A prescindere da argomenti pi`u sofisticati, si introduce questa nuova operazione tra matrici che, anche se a prima vista appare singolare, e` comunque dotata di interessanti
propriet`a, che rendono plausibile la seguente definizione.
Definizione 2.5 Il prodotto della matrice A = (aij ) di Rm,n con la matrice B = (bij ) di
Rn,p e` la matrice C = AB = (cij ) di Rm,p i cui elementi sono dati da:
cij = ai1 b1j + ai2 b2j + . . . + ain bnj =

n
X

aik bkj .

(2.3)

k=1

Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve
avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice
prodotto avr`a il numero di righe del primo fattore e il numero di colonne del secondo
fattore. Da questa definizione segue che il prodotto di due matrici non e` commutativo. A
titolo di esempio, si calcoli il prodotto delle matrici:

A=


1 2 3
,
4 5 6

1 1

0
1
B=
3
5

2
2
7

3
4 ,
9

e si ricavino i primi due elementi della matrice C = (cij ) = AB R2,4 :


c11 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della prima colonna di B : c11 = 1 1 + 2 0 + 3 3 = 10.
c12 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della seconda colonna di B : c12 = 1 (1) + 2 1 + 3 5 = 16 e cos` via.
La matrice C e` dunque:

C=

10 16 27 38
22 31 60 86


.

Per la sua particolare definizione, questo tipo di prodotto di matrici prende il nome di
prodotto righe per colonne.

Capitolo 2

39

Osservazione 2.4 E` chiaro che il prodotto di due matrici quadrate dello stesso ordine e`
ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in
generale la propriet`a commutativa, per esempio date:




1 2
0 1
A=
, B=
3 4
2 3
si ha:

4 7
8 15

3 4
11 16


.

AB =
mentre:
BA =

Nel caso delle matrici quadrate di ordine 1 il prodotto e` ovviamente commutativo perche
coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto
e` commutativo, come si osserver`a nel Paragrafo 2.5.
Osservazione 2.5 Il prodotto di matrici ha singolari particolarit`a. Per esempio:


 

1 2
2 2
0 0
AB =
=
= O R2,2 ,
1 2
1 1
0 0
in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora necessariamente o a = 0 o b = 0. Ovviamente se O Rm,n e` la matrice nulla e
A Rn,p , B Rk,m allora:
OA = O Rm,p

e BO = O Rk,n .

Esempio 2.10 Si osservi che, date:

1
2
4,1

B=
3 R ,
4

A=

1 2 3 4

R1,4 ,

allora:
AB = (30) R1,1 ,
mentre:

1
2
BA =
3
4

2 3 4
4 6 8
R4,4 .
6 9 12
8 12 16

Matrici e Determinanti

40

Teorema 2.3 Per il prodotto di matrici valgono le seguenti propriet`a:


1. (AB)C = A(BC),

A Rm,n , B Rn,k , C Rk,p (propriet`a associativa);

2. A(B + C) = AB + AC,

A Rp,m , B, C Rm,n e

(X + Y )Z = XZ + Y Z, X, Y Rm,n , Z Rn,k (propriet`a distributive del


prodotto rispetto alla somma. Si osservi la necessit`a di enunciare entrambe le
propriet`a per la mancanza della propriet`a commutativa del prodotto);
3. (A)B = (AB) = A(B),

R, A Rm,n , B Rn,k ;

4. AI = IA = A, A Rn,n (le due uguaglianze occorrono solo nel caso delle matrici quadrate; la matrice unit`a I Rn,n e` lelemento neutro rispetto al
prodotto).
Dimostrazione
Paragrafo 2.9.

E` lasciata per esercizio nei casi pi`u semplici, per gli altri si rimanda al

E` valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici
moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda
al Paragrafo 4.5.
Teorema 2.4 Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2 An ) min{rank(A1 ), rank(A2 ), . . . , rank(An )},

(2.4)

quindi, in particolare, il rango del prodotto di matrici e` minore o uguale del rango di
ciascun fattore.
Osservazione 2.6 E` chiaro, anche se pu`o sorprendere, che e` necessario porre il segno di
disuguaglianza in (2.4), come si pu`o per esempio notare dal fatto che:


 

0 1
0 1
0 0
=
,
0 0
0 0
0 0
infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0.

2.2.1

I sistemi lineari in notazione matriciale

Usando la definizione di prodotto di matrici, si pu`o scrivere in modo compatto un generico


sistema lineare di m equazioni in n incognite del tipo (1.2). Siano:

a11 a12 . . . a1n


a21 a22 . . . a2n

m,n
A = ..
..
.. R
.
.
.
am1 am2 amn

Capitolo 2

41

la matrice dei coefficienti,

X=

x1
x2
..
.

Rn,1

xn
la matrice colonna delle incognite e:

B=

b1
b2
..
.

Rm,1

bm
la matrice colonna dei termini noti, allora il sistema lineare (1.2) si pu`o scrivere, in
notazione matriciale, come:
AX = B.

2.3

La matrice inversa

Avendo introdotto il prodotto di matrici (che generalizza il prodotto di numeri reali) appare naturale introdurre il concetto di inversa di una matrice quadrata; a differenza del
caso dei numeri e` necessario prestare particolare attenzione alla definizione in quanto il
prodotto di matrici non e` commutativo.
Definizione 2.6 Sia A Rn,n una matrice quadrata di ordine n. A si dice invertibile se
esiste una matrice X Rn,n tale che:
AX = XA = I,

(2.5)

dove I indica la matrice unit`a di ordine n.


Teorema 2.5 Se A Rn,n e` invertibile, allora la matrice X, definita in (2.5), e` unica.
Dimostrazione Si supponga per assurdo che esistano due matrici diverse X, X 0 Rn,n
che verificano la (2.5). Allora:
X 0 = IX 0 = (XA)X 0 = X(AX 0 ) = XI = X

42

Matrici e Determinanti

che e` assurdo. Si osservi che, nella dimostrazione, si e` usata la propriet`a associativa del
prodotto di matrici.
La matrice X cos` definita si dice matrice inversa di A e si indica con A1 .
Per la matrice inversa valgono le seguenti propriet`a la cui dimostrazione e` lasciata per
esercizio.
Teorema 2.6 1. (AB)1 = B 1 A1 , con A, B Rn,n matrici invertibili.
2. (A1 )1 = A, con A Rn,n matrice invertibile.
Osservazione 2.7 Segue dal punto 1. e dalle propriet`a del prodotto di matrici che linsieme:
GL(n, R) = {A Rn,n | A e` invertibile}
e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), noto come gruppo lineare
generale reale.
Nei paragrafi successivi si affronter`a il problema di calcolare linversa di una matrice, di
conseguenza, si tratter`a di capire, innanzi tutto, quando una matrice quadrata e` invertibile.
Si consiglia, prima di continuare la lettura, di svolgere il seguente esercizio.
Esercizio 2.1 Determinare le condizioni affinche la matrice:


a11 a12
A=
a21 a22
sia invertibile e, in questi casi, calcolare A1 .
Si osservi che per risolvere lesercizio si deve discutere e risolvere il sistema lineare
AX = I :


 

a11 a12
x11 x12
1 0
=
a21 a22
x21 x22
0 1
di quattro equazioni nelle quattro incognite x11 , x12 , x21 , x22 , che sono gli elementi della
matrice X.

2.4

La trasposta di una matrice

Definizione 2.7 Data una matrice A Rm,n si definisce trasposta di A, e la si indica con
t
A la matrice di Rn,m che si ottiene scambiando le righe con le colonne della matrice A,
in simboli se A = (aij ) allora tA = (bij ) con bij = aji , i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Capitolo 2

43

Esempio 2.11 Se:



A=

1 2 3
4 5 6

allora:

1 4
t
A = 2 5 .
3 6
Se:
A=

1 2 3 4

allora:

1
2
t

A=
3 .
4
Osservazione 2.8
1. Si osservi che se una matrice e` quadrata, allora anche la sua
trasposta e` una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla
matrice di partenza, per esempio:

A=

1
1

2
0


,

A=

1 1
2
0


.

2. Se una matrice e` diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la
matrice stessa.
Per la trasposta di una matrice valgono le seguenti propriet`a la cui dimostrazione e` lasciata
per esercizio e si pu`o leggere nel Paragrafo 2.9.
Teorema 2.7 1.

(A + B) = tA + tB,

2. t (A) = tA,
3. t (AB) = tB tA,

A, B Rm,n .

A Rm,n , R.
A Rm,n , B Rn,k .

4. Se A Rn,n e` una matrice invertibile, allora (tA)1 = t (A1 ).

Matrici e Determinanti

44

2.5

Matrici quadrate di tipo particolare

1. Linsieme delle matrici matrici triangolari superiori di Rn,n definito da:

a11 a12 . . . . . . . . . a1n

0 a22 . . . . . . . . . a2n

.
.
.
...
.

.
.
.
.
.

n,n
n,n
T (R ) =
R | aij R ;
0 . . . akk . . . akn

.
.
.
.

.
.
.
.
.
.

.
.
.
.

0
0 . . . 0 . . . ann

(2.6)

si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della
diagonale principale, vale a dire se A = (aij ) con i, j = 1, 2, . . . , n, allora aij = 0
se i > j . E` facile osservare che la somma di due matrici triangolari superiori e`
ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero
reale per una matrice triangolare superiore. Molto pi`u sorprendente e` il fatto che il
prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, e` ancora
una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice
C = (cij ) Rn,n prodotto delle matrici triangolari superiori A = (aij ) T (Rn,n )
e B = (bij ) T (Rn,n ). Per semplicit`a si calcola ora solo lelemento c21 della
matrice prodotto C = AB , lasciando il calcolo in generale per esercizio. Da (2.3)
si ha:
c21 = a21 b11 + a22 b21 + . . . a2n bn1 = 0b11 + a22 0 + . . . + a2n 0 = 0,
in quanto aij = 0 e bij = 0 se i > j .
Si possono definire in modo analogo le matrici triangolari inferiori, con propriet`a
simili a quelle descritte nel caso delle matrici triangolari superiori. Come e` gi`a stato
osservato nel Capitolo 1, il calcolo del rango di una matrice triangolare superiore e`
molto semplice.
2. Linsieme delle matrici diagonali D(Rn,n ) introdotte nellEsempio 2.6. La caratteristica principale di tali matrici e` la loro analogia con il campo dei numeri reali,
infatti il prodotto di due matrici diagonali e` ancora una matrice diagonale, avente
ordinatamente sulla diagonale principale il prodotto degli elementi corrispondenti
delle due matrici date. Le matrici diagonali sono, ovviamente, sia matrici triangolari superiori sia matrici triangolari inferiori. Quindi una matrice diagonale e` ridotta
per righe, di conseguenza, il suo rango e` pari al numero degli elementi non nulli
della diagonale principale. Nel caso di rango massimo, la matrice diagonale e` invertibile e la sua inversa ha sulla diagonale principale ordinatamente gli inversi dei

Capitolo 2

45

corrispettivi elementi della matrice data, ossia se:




 1

a11 0
a11
0
1
A=
, con a11 6= 0, a22 6= 0, allora A =
,
0 a22
0 a1
22
la verifica di queste affermazioni e` lasciata per esercizio.
3. Linsieme delle matrici simmetriche di Rn,n definito da:
S(Rn,n ) = {A Rn,n | A = tA};

(2.7)

scrivendo esplicitamente la definizione si ottiene che una matrice simmetrica e` del


tipo:

a11 a12 . . . a1n


a12 a22 . . . a2n

A = ..
.. . .
.. ;
.
.
.
.
a1n a2n . . . ann
in altri termini, una matrice A = (aij ) Rn,n e` simmetrica se e solo se:
aij = aji ,

i, j = 1, 2, . . . , n,

e ci`o giustifica la sua denominazione.


Per esercizio si calcoli la somma di due matrici simmetriche, il prodotto di una
matrice simmetrica per un numero reale e la trasposta di una matrice simmetrica e si
stabilisca se si ottiene ancora una matrice simmetrica. Si osservi, in particolare, che
il prodotto di due matrici simmetriche non e` , in generale, una matrice simmetrica.
Per esempio:






1 1
3
1
2
2
A=
, B=
, AB =
.
1
2
1 1
1 3
Per esercizio si individuino le condizioni necessarie e sufficienti affinche il prodotto
di due matrici simmetriche sia ancora una matrice simmetrica. Invece, se A e`
una matrice simmetrica invertibile, la sua inversa e` ancora una matrice simmetrica,
(cfr. Teor. 2.7, punto 4.). Le matrici diagonali sono ovviamente simmetriche e
una matrice triangolare superiore o inferiore e` simmetrica se e solo se e` diagonale.
Le matrici simmetriche saranno di importanza fondamentale sia nella teoria della
diagonalizzazione di una matrice (cfr. Cap. 7) sia nella teoria delle forme bilineari
simmetriche (cfr. Cap. 8).

Matrici e Determinanti

46

4. Linsieme delle matrici antisimmetriche di Rn,n definito da:


A(Rn,n ) = {A Rn,n | A = tA};

(2.8)

scrivendo esplicitamente la definizione si ottiene che una matrice antisimmetrica e`


del tipo:

0
a12 . . . a1n
a12
0
. . . a2n

A = ..
..
.. ;
.
.
.
. .
.
a1n a2n . . . 0
in altri termini, una matrice A = (aij ) Rn,n e` antisimmetrica se e solo se:
aij = aji ,

i, j = 1, 2, . . . , n,

quindi, in particolare, aii = 0, i = 1, 2, . . . , n. Per esercizio si calcoli la somma


di due matrici antisimmetriche, il prodotto di una matrice antisimmetrica per un
numero reale, il prodotto di due matrici antisimmetriche, la trasposta di una matrice
antisimmetrica e si stabilisca se si ottiene ancora una matrice antisimmetrica.
5. Linsieme delle matrici ortogonali di Rn,n definito da:
O(n) = {A Rn,n | tA A = I},

(2.9)

con I matrice unit`a di ordine n. Usando il fatto che, in modo equivalente alla definizione, A e` ortogonale se A tA = I , si verifichi per esercizio che ogni matrice
ortogonale A e` invertibile con inversa A1 = tA. Si verifichi inoltre che la trasposta e linversa di una matrice ortogonale sono matrici ortogonali e che il prodotto
di due matrici ortogonali e` ortogonale. Si stabilisca se la somma di due matrici
ortogonali e` una matrice ortogonale e se il prodotto di una matrice ortogonale per
un numero reale e` una matrice ortogonale. Le matrici ortogonali saranno di importanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le
loro propriet`a saranno dimostrate nel Teorema 5.7.

2.6

Le equazioni matriciali

Per equazione matriciale si intende unequazione la cui incognita e` una matrice. Se si


escludono gli esempi banali di equazioni lineari (ogni numero reale pu`o essere considerato
come una matrice), come gi`a studiato nel Paragrafo 2.2.1, risolvendo un generico sistema
lineare, si ha un esempio di equazione matriciale AX = B con A in Rm,n , X in Rn,1 ,

Capitolo 2

47

B in Rm,1 , dove X e` la matrice incognita e A e B sono note. In questo paragrafo verr`a


preso in esame lo studio di unequazione del tipo:
AX = B

(2.10)

con A Rm,n , X Rn,p , B Rm,p . Lincognita X = (xij ) dellequazione matriciale


e` , quindi, una matrice con n righe e p colonne. In totale, si devono determinare gli np
elementi xij di X.
Si osservi che, se si e` in grado di risolvere lequazione (2.10), si e` anche in grado di
risolvere unequazione matriciale del tipo:
YC =D

(2.11)

con incognita Y, infatti operando con la trasposta su ambo i membri di (2.11) si ha:
t

C t Y = tD,

cio`e ci si riconduce ad unequazione matriciale del tipo (2.10), avendo cura di notare che
lincognita della nuova equazione sar`a t Y.
Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np
incognite. Infatti posto:

A=

a11
a21
..
.

a12
a22
..
.

. . . a1n
. . . a2n
..
.

Rm,n ,

X=

am1 am2 . . . amn

B=

b11
b21
..
.

b12
b22
..
.

. . . b1p
. . . b2p
..
.

x11 x12 . . . x1p


x21 x22 . . . x2p
..
..
..
.
.
.
xn1 xn2 . . . xnp

Rn,p ,

Rm,p ,

bm1 bm2 . . . bmp


la prima riga del prodotto AX = B corrisponde al seguente sistema lineare di p righe e
np incognite xij :

a11 x11 + a12 x21 + . . . + a1n xn1 = b11

a11 x12 + a12 x22 + . . . + a1n xn2 = b12


(2.12)
..

a x + a x + ... + a x = b .
11 1p
12 2p
1n np
1p

Matrici e Determinanti

48

In totale, da AX = B si hanno, quindi, mp equazioni in quanto A ha m righe. Mettendo


in evidenza le righe di X e di B nel modo seguente:

x11 x12 . . . x1p


X1
b11 b12 . . . b1p
B1
x21 x22 . . . x2p X2
b21 b22 . . . b2p B2

X = ..
=
,
B
=

..
..
..
..
..
.. = .. ,
.
.
.
. .
.
. .
xn1 xn2 . . . xnp
Xn
bm1 bm2 . . . bmp
Bm
il sistema lineare (2.12) si pu`o scrivere come:
a11 X1 + a12 X2 + . . . + a1n Xn = B1 .
Ripetendo lo stesso calcolo per le altre righe di AX = B si ottiene che lequazione
matriciale (2.10) equivale al sistema lineare di equazioni matriciali:

a11 X1 + a12 X2 + . . . + a1n Xn = B1

a21 X1 + a22 X2 + . . . + a2n Xn = B2


..

a X + a X + ... + a X = B ,
m1

m2

mn

con incognite le righe X1 , X2 , . . . , Xn della matrice X e termini noti le righe B1 , B2 , . . . ,


Bm della matrice B. Si noti, quindi, che il sistema lineare ottenuto e` dello stesso tipo dei
sistemi lineari trattati nel Capitolo 1, con la differenza che le incognite sono le righe della
matrice, ossia sono elementi di Rp al posto di essere numeri reali.
Per il Teorema di RoucheCapelli (cfr. Teor. 1.2), essendo tale sistema equivalente ad
un sistema lineare di mp equazioni in np incognite, esso ammette soluzioni se e solo
se il rango della matrice dei coefficienti A e il rango della matrice completa (A | B)
coincidono. Si procede, pertanto, alla riduzione per righe della matrice completa:

a11 a12 . . . a1n b11 b12 . . . b1p


a21 a22 . . . a2n b21 b22 . . . b2p

(A | B) = ..
..
.. ..
..
.. .

.
.
. .
.
.
am1 am2 . . . amn bm1 bm2 . . . bmp
Si distinguono tre casi:
1. rank(A) 6= rank(A | B): non esistono soluzioni;
2. rank(A) = rank(A | B) = n numero delle incognite: esiste una sola soluzione;
3. rank(A) = rank(A | B) = k < n: esistono infinite soluzioni che dipendono da
n k elementi di Rp .

Capitolo 2

49

Esempio 2.12 Per determinare le soluzioni dellequazione matriciale AX = B , con:

2 3
1
1 2
2
1 , B = 0 1 1 ,
A= 1 0
0 3 1
1 0
4
si procede con la riduzione per
modo seguente:

2 3
1 1
1 0
(A | B) = 1 0
0 3 1 1

righe della matrice completa (A | B), per esempio nel

2
2
2 3 1

1 1
0 3 1
R2 2R2 R1
0
4
0 3 1


1

1

1

2 2
0 4 ,
0 4

da cui si deduce che rank(A) = rank(A | B) = 2, si ottengono cos` infinite soluzioni che
dipendono da un elemento qualsiasi (a, b, c) di R3 . Ponendo:

X1
X = X2 R3,3
X3
la matrice (A | B) ridotta per righe d`a luogo al sistema lineare ridotto:

2X1 + 3X2 + X3 = (1, 2, 2)
3X2 + X3 = (1, 0, 4)
le cui soluzioni sono:

X1 = (1 3a, 1 3b, 3 3c)


X2 = (a, b, c)

X3 = (1 + 3a, 3b, 4 + 3c),

(a, b, c) R3

e, quindi:

1 3a 1 3b 3 3c
,
a
b
c
X=
1 + 3a
3b
4 + 3c

(a, b, c) R3 .

Esempio 2.13 Per determinare le soluzioni dellequazione matriciale XA = B, con:



1 0 1
1 1 0

1 1
0 , B=
A=
,
0
1 1
1 0
0
si osserva che da XA = B , calcolando la trasposta delle matrici del primo e del secondo
membro, si ha tA tX = tB , pertanto ci si riconduce ad unequazione matriciale dello
stesso tipo di quella studiata nellesempio precedente. Ponendo:

Matrici e Determinanti

50

Y1
t
X = Y = Y2 R3,2
Y3
segue che lequazione tAY = tB e` equivalente al sistema lineare:

Y1 + Y2 + Y3 = (1, 0)
Y2 = (1, 1)

Y1 = (0, 1),
che ha come unica soluzione:
Y1 = (0, 1),

Y2 = (1, 1),

Y3 = (2, 0)

e, quindi:

X=

2.6.1

0 1
1
1

2
0


.

Calcolo della matrice inversa, primo metodo

Come immediata conseguenza del paragrafo precedente si procede al calcolo delleventuale matrice inversa di una matrice quadrata A = (aij ) Rn,n risolvendo lequazione
matriciale:
AX = I.
Si deve, quindi, ridurre per righe la matrice completa:

a11 a12 . . . a1n 1


a21 a22 . . . a2n 0


(A | I) = ..
.. . .
.. ..
.
.
.
. .
an1 an2 . . . ann 0

0 ...
1 ...
.. . .
.
.
0 ...

0
0
..
.

E` evidente che rank(A | I) = n perche la matrice (A | I) e` ridotta per righe in quanto


I e` ridotta per righe e rank(I) = n, quindi si ottiene limportante teorema di seguito
enunciato.
Teorema 2.8 Una matrice quadrata A Rn,n e` invertibile se e solo se rank(A) = n.
Dimostrazione Se esiste linversa A1 di A allora lequazione matriciale AX = I ha
ununica soluzione e, quindi, dal Teorema di RoucheCapelli segue rank(A) = n.

Capitolo 2

51

Il viceversa non pu`o essere dimostrato a questo punto del corso, si rimanda al Paragrafo
4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X Rn,n
tale che AX = I (per il Teorema di RoucheCapelli, cfr. Teor. 1.2), ma per dimostrare
che anche XA = I e dedurre quindi che X = A1 si deve risolvere lequazione matriciale tA tX = I . Pertanto e` necessario dimostrare che anche tA ha lo stesso rango di
A, e ci`o sar`a oggetto del Teorema 4.19. Daltro canto, se esistono due matrici X e Y,
entrambe appartenti a Rn,n , tali che AX = I e Y A = I allora segue X = Y infatti:
Y = Y I = Y (AX) = (Y A)X = IX = X.
Da rank(A) = n si ha che esiste una sola matrice X tale che AX = I . Da rank(tA) = n
segue che esiste una sola matrice Z Rn,n tale che tA Z = I. Considerando la trasposta
delle matrici a primo e a secondo membro dellultima uguaglianza si ha tZA = I, quindi,
dallosservazione precedente si ottiene tZ = X = A1 .
Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante
la risoluzione dellequazione matriciale AX = I. Un secondo metodo sar`a spiegato nel
Paragrafo 2.8.2.

Esercizio 2.2 Supponendo che esista, determinare linversa della matrice:

0
0
1
0
A=
0 1
2
1

2
0
0
1
.
3
0
5 3

Soluzione Si procede alla riduzione per righe della matrice (A | I), il calcolo del rango
di A e` contenuto in questo procedimento:

1 0

0 1

2 1

5 3

R1 R3

0
R2 R1

0 1 3 0

0 0 2 0

2 1 5 3

Matrici e Determinanti

52

R2 R2
R3 (1/2)R3
R4 R4 2R1

R4 R4 R2

R4 R4 8R3

1 3

0 1

1
2

5 5

0 2

1
0

1 3

0 1

1
2

8 5

0 2

1 3

0 1

1
2

0 5 4 2

1
0

A questo punto dellesercizio si deduce che rank(A) = 4, pertanto la matrice A e` invertibile. Per calcolare direttamente linversa conviene procedere riducendo ulteriormente
lultima matrice ottenuta, come descritto nellEsempio 1.9 del Capitolo 1. Dallultimo
passaggio segue:

R4 (1/5)R4

1 3

1
2

4
5

0
0 0

2
1 1

5
5 5
0

0
1

Capitolo 2

R1 R1 R4
R2 R2 + 3R3

5
3
2
1
2
4
5

53

3
5

1
5

2
5

1
5

5 5

Si legge cos` nellultimo passaggio, a destra, lespressione di A1 , infatti le operazioni di


riduzione che iniziano dalla matrice completa (A | I), essendo rank(A) = rank(A | I) = n,
non possono far altro che portare a (I | A1 ). In altri termini, moltiplicando a sinistra per
A1 lequazione matriciale AX = I si ottiene IX = A1 .
Esercizio 2.3 Data la matrice:

1 3
h
0
A=
1 1
0
0

1
0
0
0

2
0
,
0
h

h R,

stabilire per quali valori di h esiste la sua inversa. Determinare esplicitamente A1


quando possibile.
Soluzione Si procede, come
matrice completa (A | I).

1 3 1 2 1
h
0 0 0 0

1 1 0 0 0

0
0 0 h 0

nellesercizio precedente, alla riduzione per righe della


0
1
0
0

0
R2 R2 hR1
0
R3 R3 R1
1

0
0
1
0


1 3
1
2 1
0 3h h 2h h


0 2 1 2 1

0 0
0
h 0

0
1
0
0

0
0
1
0

0
0

0 R2 R3
1


1 3
1
2 1
0 2 1 2 1


0 3h h 2h h

0 0
0
h 0

0
0
1
0

0
1
0
0

0
0

0 R3 2R3 3hR2
1

Matrici e Determinanti

54


1 3
1
2 1
0
2 1 2 1

0
0
h 2h h
0
0
0
h 0

0
0
0
1
2 3h
0
0

0
0
,
0
1

a questo punto si deduce che rank(A) = 4 se e solo se h 6= 0, quindi solo in questo caso
esiste A1 . Si assume perci`o h 6= 0 e si procede con la riduzione per ottenere la matrice
inversa:

1 3 1
2
1 0
0 0

1
1
1

0
0
R2 (1/2)R2 0 1 2 1 2

R3 (1/h)R3
2

0 0 1
2
1
3 0

R4 (1/h)R4

1
0 0 0
1
0 0
0
h

1 3 1

0 1
R3 R3 2R4

R2 R2 + R4
0 0 1
R1 R1 2R4

0 0 0

R2 R2 + (1/2)R3
R1 R1 R3

1
2

2
h

1 3

0 1

0 0

0 0

2
0
h

1
1

2 h

2
3
h

1
0
h

2
0 0
h

0 0

1
h

0 1

2
h

1 0

1
0

2
3
h

1
0
h

Capitolo 2

R1 R1 + 3R2

55

0 0

1
h

0 0

1
h

0 1

2
h

1 0

1
0

2
3
h

1
0
h

A1 si legge a destra nellultimo passaggio di riduzione.


Il teorema che segue e` un corollario del Teorema 2.4, lo stesso risultato si otterr`a, con
metodi diversi, nel Capitolo 7.
Teorema 2.9

1. Se A Rm,n e Q Rn,n e` una matrice invertibile, allora:


rank(AQ) = rank(A).

2. Se A Rm,n e P Rm,m e` una matrice invertibile, allora:


rank(P A) = rank(A).
3. Se A una matrice quadrata di ordine n e P una matrice invertibile di ordine n,
allora:
rank(A) = rank(P 1AP ).
Dimostrazione E` sufficiente dimostrare 1., lo stesso metodo si pu`o applicare a 2. e da
1. e 2. segue immediatamente 3. Il primo punto segue dal Teorema 2.4 e da:
rank(AQ) rank(A) = rank(A(QQ1 )) = rank((AQ)Q1 ) rank(AQ),
da cui la tesi.

2.7

La traccia di una matrice quadrata

Definizione 2.8 Sia A una matrice quadrata, di ordine n, ad elementi reali. Si definisce
traccia di A, e si indica con tr(A) la somma degli elementi della sua diagonale principale.
Se A = (aij ) allora:
tr(A) = a11 + a22 + . . . + ann =

n
X
i=1

aii .

Matrici e Determinanti

56

Le propriet`a della traccia di una matrice quadrata sono elencate nel seguente teorema.
Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti propriet`a:
1. tr(A + B) = tr(A) + tr(B),
2. tr(A) = tr(A),
3. tr(A B) = tr(B A),
4. tr( tA) = tr(A),
per ogni A, B Rn,n , per ogni R.
Dimostrazione

E` quasi un esercizio ed e` riportata nel Paragrafo 2.9.

Come immediata conseguenza del punto 3. del teorema precedente, si ottiene:


tr(P 1A P ) = tr(A),

(2.13)

per ogni A Rn,n e per ogni matrice invertibile P di Rn,n , propriet`a che sar`a molto
importante nel Capitolo 7.
Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla e` uguale a zero,
cos` come e` uguale a zero la traccia di una matrice antisimmetrica.

2.8

Il determinante

Scopo di questo paragrafo e` quello di associare ad ogni matrice quadrata un particolare


numero reale detto determinante della matrice in modo da dimostrare il seguente teorema.
Teorema 2.11 Una matrice quadrata A e` invertibile se e solo se il suo determinante non
e` uguale a zero.
Si introdurr`a la definizione di determinante in modo sperimentale senza troppo rigore
matematico; per una discussione precisa e per la dimostrazione di tutte le propriet`a si
rimanda al Paragrafo 8.8.
Il determinante di una matrice quadrata e` una funzione:
det : Rn,n R,
che verifica queste prime propriet`a.

A 7 det(A)

Capitolo 2

57

1. Se a e` un numero reale, quindi identificabile con la matrice quadrata A = (a) di


ordine 1, allora det(A) = a.


a11 a12
2. Se A =
, allora det(A) = a11 a22 a12 a21 .
a21 a22
Il determinante di una matrice quadrata e` anche spesso indicato con due tratti verticali che
sostituiscono le parentesi tonde della matrice. Nel caso della matrice A di ordine 2 si ha:


a11 a12


a21 a22 = a11 a22 a12 a21 .
Osservando con attenzione lo sviluppo del determinante nel caso della matrice quadrata
di ordine 2, si nota che compaiono due addendi, ciascuno dei quali e` il prodotto di due
fattori il cui primo indice corrisponde alla sequenza (1, 2) e il secondo indice corrisponde
alle due permutazioni di (1, 2): (1, 2) e (2, 1). La prima permutazione (pari) impone
il segno positivo alladdendo a11 a22 , la seconda permutazione (dispari) impone il segno
negativo alladdendo a12 a21 .
Si pu`o cos` indovinare la regola per calcolare il determinante di una matrice quadrata
qualsiasi. A questo scopo, si controlli ancora lo sviluppo del determinante nel caso delle
matrici di ordine 3. Lesempio che segue riassume, nel caso particolare dellordine 3,
la teoria dei determinanti delle matrici di ordine n che verr`a successivamente esposta. Si
consiglia di studiarlo con grande attenzione e farne riferimento per dimostrare le propriet`a
generali dei determinanti che verranno man mano elencate.
Esempio 2.14 E` noto dal calcolo combinatorio che le permutazioni dei numeri 1, 2, 3
sono 3! = 6, tre di esse sono pari e sono dette permutazioni circolari, ossia: (1, 2, 3),
(3, 1, 2), (2, 3, 1) e tre sono dispari: (1, 3, 2), (3, 2, 1), (2, 1, 3). Pi`u precisamente, se a
partire dalla terna (1, 2, 3) si perviene alla terna (2, 1, 3) si e` effettuato uno scambio che
comporta un segno negativo associato alla permutazione (2, 1, 3), effettuati due scambi si
ha segno positivo e cos` via. Per meglio visualizzare le permutazioni e contare il numero
degli scambi intermedi in modo da ottenere il segno della permutazione finale e` utile la
classica notazione del calcolo combinatorio:
1
2
3

(1) = 2 (2) = 1 (3) = 3,


dove indica una permutazione di 1, 2, 3 e non e` altro che una funzione biiettiva dallinsieme {1, 2, 3} in se.

58

Matrici e Determinanti

Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2, si indovina lo sviluppo del determinante di una matrice quadrata di ordine 3, ponendo:


a11 a12 a13


a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31


a31 a32 a33
a11 a23 a32 a13 a22 a31 a12 a21 a33
X

()a1(1) a2(2) a3(3) ,

dove indica una qualsiasi permutazione dei numeri 1, 2, 3 e () e` il suo segno. Si
osserva che, per costruzione, ogni addendo a1(1) a2(2) a3(3) contiene un elemento appartenente a ciascuna riga e a ciascuna colonna della matrice A. In altri termini in ogni
addendo non esistono due elementi appartenenti ad una stessa riga o ad una stessa colonna
di A, perche e` una biiezione.
Si pu`o cos` enunciare la definizione di determinante di una matrice quadrata di ordine n.
Definizione 2.9 Il determinante di una matrice quadrata A = (aij ) di ordine n e` dato
da:
X
det(A) =
()a1(1) a2(2) . . . an(n) ,
(2.14)

dove indica una qualsiasi permutazione dei numeri 1, 2, . . . , n e () e` il suo segno.
Osservazione 2.10 Come gi`a osservato nellEsempio 2.14, in ogni addendo della somma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna
della matrice A, inoltre ogni addendo di (2.14) e` il prodotto di n elementi della matrice
quadrata A appartenenti ad ogni riga e ad ogni colonna di A.
Dalla Definizione 2.9 si deducono le seguenti propriet`a.
Teorema 2.12
1. Sia A una matrice quadrata di ordine n avente una riga (oppure
una colonna) formata da tutti 0, allora det(A) = 0.
2. Per ogni matrice quadrata A, det(A) = det(tA).
3. Se A = (aij ) Rn,n e` una matrice triangolare superiore allora:
det(A) = a11 a22 . . . ann ,
la stessa propriet`a vale nel caso di una matrice triangolare inferiore.

Capitolo 2

59

Dimostrazione
1. E` ovvia conseguenza della Definizione 2.9 e anche dellOsservazione 2.10.
2. Si consideri il caso del determinante di una matrice quadrata A di ordine 2, il caso
generale e` una generalizzazione di questo ragionamento. Come gi`a osservato:
det(A) = a11 a22 a12 a21 ,
mentre:

a
a
det( A) = 11 21
a12 a22
t



= a11 a22 a21 a12 = a11 a22 a12 a21 = det(A);

infatti il determinante della matrice trasposta si ottiene semplicemente applicando


la propriet`a commutativa del prodotto ad ogni addendo della somma precedente.
3. Si dimostra per semplicit`a la propriet`a solo nel caso di A R4,4 , lasciando al
Lettore per esercizio la dimostrazione nel caso generale. Sia:

a11 a12 a13 a14


0 a22 a23 a24
,
A=
0
0 a33 a34
0
0
0 a44
dalla definizione di determinante (2.14) si ha:
X
()a1(1) a2(2) a3(3) a4(4) .
det(A) =

Se a44 = 0 lultima riga e` formata da tutti zeri e pertanto det(A) = 0, da cui la tesi.
Se a44 6= 0, lunico elemento non nullo dellultima riga e` a44 , quindi la formula
precedente si riduce a:
X
det(A) =
()a1(1) a2(2) a3(3) a44 ,
(2.15)

con permutazione dei numeri 1, 2, 3. Di nuovo, lunico elemento non nullo di


tale somma, appartenente alla terza riga, e` a33 , quindi (2.15) si riduce a:
X
det(A) =
()a1(1) a2(2) a33 a44

con permutazione dei numeri 1, 2. Procedendo allo stesso modo si perviene alla
tesi.

Matrici e Determinanti

60

E` di importanza fondamentale il teorema che segue.


Teorema 2.13 Sia A una matrice quadrata di ordine n ridotta per righe, allora:
rank(A) = n det(A) 6= 0
e, in modo equivalente:
rank(A) < n det(A) = 0.
Dimostrazione
La dimostrazione e` ovvia se la matrice ridotta per righe e` triangolare
superiore. In questo caso il determinante e` dato dal prodotto degli elementi della diagonale principale, come osservato nel Teorema 2.12. Rimane da dimostrare che ogni matrice
ridotta per righe pu`o essere trasformata in una matrice triangolare superiore mediante
lapplicazione delle tre operazioni di riduzione sulle righe (senza variarne il rango). Anche questo fatto e` ovvio, ma per maggiore chiarezza sul tipo di procedimento da seguire
si rimanda allesercizio seguente che illustra, in un caso particolare, la procedura.
Esercizio 2.4 Si riconduca a forma triangolare superiore la matrice:

1 2 3 4
1 2 0 3

A=
5 0 0 2
1 0 0 0
ridotta per righe e il cui rango e` 4.
Soluzione Si procede con lapplicazione delle tre operazioni di riduzione alla matrice
A nel modo seguente:

1 2 3 4

1
2
3
4
1 2 0 3 R2 R2 R1 0
0 3 1

5 0 0 2 R3 R3 5R1 0 19 15 18
1 0 0 0
R4 R4 R1
0 2 3 4

R2
R3
R4
R2

R2
R3
R4
R3

1 2 3 4
0 19 15 18

0 0 3 1 R4 19R4 2R2
0 2 3 4

1 2 3 4
0 19 15 18

,
R4 3R4 27R3 0 0 3 1
0 0 0 93

1 2 3 4
0 19 15 18

0 0 3 1
0 0 27 40

Capitolo 2

61

ottenendo cos` una matrice triangolare superiore che ha, ovviamente, ancora rango 4.
Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni propriet`a relativa al
calcolo del determinante dimostrata per le righe di una matrice quadrata e` anche valida
per le colonne.
Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata
qualsiasi.
Teorema 2.14
1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una
matrice quadrata A per un numero reale , allora il determinante di A viene
moltiplicato per .
2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A,
allora il determinante di A cambia di segno.
3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo.
4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante
nullo.
5. Se alla riga Ri di una matrice quadrata A si sostituisce la particolare combinazione lineare Ri +Rj (dove Rj indica una riga parallela a Ri , i 6= j ) il determinante
di A non cambia, analoga propriet`a vale per le colonne.
Dimostrazione

1. E` ovvio dalla definizione di determinante.

2. E` conseguenza della definizione di determinante e del fatto che lo scambio di due


righe comporta il cambiamento di segno di ciascuna permutazione. Per esempio,
nel caso della matrice quadrata di ordine 2 si ha:


a11 a12


a21 a22 = a11 a22 a12 a21 ,
invece:


a21 a22

a11 a12



= a21 a12 a22 a11 = a11 a22 + a12 a21 .

3. Segue dalla propriet`a precedente, infatti scambiando due righe (colonne) uguali
di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio
det(A) = a, dopo lo scambio det(A) = a (per la propriet`a precedente), ma
poiche la matrice non cambia allora a = a, da cui la tesi.

Matrici e Determinanti

62

4. Segue da 1. e da 3.
5. Si calcoli il determinante di una matrice quadrata di ordine n mettendo in evidenza
le sue righe e loperazione richiesta Ri Ri + Rj , i 6= j :


R1

..


.

Ri + Rj

..

.


R

j

..

.


Rn

R1
..
.
Ri
..
.
Rj
..
.
Rn

R1
..
.
Rj
..
.
Rj
..
.
Rn

Luguaglianza precedente e` una evidente conseguenza della definizione di determinante, quindi la tesi segue dalla terza propriet`a.

Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha il teorema che segue.
Teorema 2.15 Sia A una matrice quadrata di ordine n allora:
rank(A) = n det(A) 6= 0
e, in modo equivalente:
rank(A) < n det(A) = 0.

Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma triangolare superiore:

1 1
2
1
3
1
1
2
.
A=
2
2 2
1
1
0
1 1
Soluzione

Per esempio si pu`o procedere come segue:

Capitolo 2

1 1
2
1
3
1
1
2
2
2 2
1
1
0
1 1


1

0

0

0

1
4
4
1


1

1 0

4 0
0

2
1
3
3
2
3
1 1
1
4
0
0


C1 C2


1

1

2
0


R3 R3 R2

R4 R4 (1/4)R2

2
1
3
3
1
0
1 7


R4 R4 R3

63

1
2
1
3
1
2
2 2
1
1
1 1

1

0

0


0


R2 R2 + R1

R3 R3 + 2R1

1
2
1
4
3
3
0 1
0
7
1

0
4
4


1

1 0

4 0
0

1
4
0
0



R3 R3

R4 4R4

2
1
3
3
1
0
0 7





= 7.


Il teorema che segue stabilisce importanti propriet`a del determinante in relazione al prodotto di una matrice per uno scalare e al prodotto di matrici.
Teorema 2.16

1. det(A) = n det(A),

A Rn,n , R;

2. Teorema di Binet: det(AB) = det(A) det(B),

A, B Rn,n ;

3. Se A e` una matrice invertibile, allora det(A1 ) = det(A)1 .


Dimostrazione 1. E` ovvia dalla Definizione 2.4 di prodotto di un numero reale per
una matrice e dalla Definizione 2.9 di determinante.
2. Si tratta di una propriet`a sorprendente e di difficile dimostrazione. E` vera nel caso
di matrici triangolari superiori, ricordando che il prodotto di due matrici triangolari
superiori e` ancora una matrice dello stesso tipo e che il determinante di una matrice
triangolare superiore e` il prodotto degli elementi della diagonale principale (analogamente e` anche vero nel caso delle matrici triangolari inferiori). Nel Capitolo 7 si
dimostrer`a questa propriet`a nel caso di matrici quadrate con particolari propriet`a (le
matrici diagonalizzabili), ma solo nel Paragrafo 8.8 si arriver`a ad una dimostrazione
nel caso generale.
3. E` una conseguenza del Teorema di Binet applicato a AA1 = I con I matrice
unit`a. Si ha det(A) det(A1 ) = det(I) = 1 da cui la tesi.
Osservazione 2.12 1. Si deduce, dalla propriet`a 3. del teorema precedente, che:

Matrici e Determinanti

64

se A Rn,n e` invertibile, allora det(A) 6= 0;


nel paragrafo che segue si dimostrer`a anche il viceversa.
2. In generale, se A, B sono matrici di Rn,n allora det(A + B) 6= det(A) + det(B).
Infatti si considerino le matrici:




1 2
1 2
A=
, B=
3 4
4
5
per le quali det(A) = 2, det(B) = 13, ma:

2
A+B =
7

0
9

e det(A + B) = 18.
Esercizio 2.6 Dimostrare che se A e` una matrice antisimmetrica di ordine dispari, allora
det(A) = 0.

2.8.1

I Teoremi di Laplace
Unaltra definizione di rango di una matrice

Esempio 2.15 Si consideri lo sviluppo del determinante di una matrice di ordine 3 descritto nellEsempio 2.14 e lo si trasformi applicando le propriet`a commutativa e distributiva del prodotto rispetto alla somma di numeri reali nel modo seguente:

a11 a12 a13

a21 a22 a23

a31 a32 a33




= a11 a22 a33 + a13 a21 a32 + a12 a23 a31 a11 a23 a32


a13 a22 a31 a12 a21 a33
= a11 (a22 a33 a23 a32 ) a12 (a21 a33 a23 a31 )
+a13 (a21 a32 a22 a31 )

a
a
= a11 22 23
a32 a33





a12 a21 a23

a31 a33





+ a13 a21 a22

a31 a32


a
a
= a31 12 13
a22 a23





a32 a11 a13

a21 a23





+ a33 a11 a12

a21 a22


a
a
= a12 21 23
a31 a33





+ a22 a11 a13

a31 a33





a32 a11 a13

a21 a23

Capitolo 2

65

Lespressione precedente permette di indovinare una regola di calcolo del determinante


per le matrici di ordine qualsiasi. Per fare ci`o e` necessario introdurre alcune definizioni.
Definizione 2.10 Sia A = (aij ) Rn,n ; si definisce minore dellelemento aij il determinante Mij della matrice di ordine n 1 che si ottiene da A togliendo li-esima riga e la
j -esima colonna.
La definizione precedente si estende in modo naturale alla seguente.
Definizione 2.11 Un minore di ordine k, (k < m, k < n, k 6= 0) di una matrice A
di Rm,n e` il determinante di una qualsiasi sottomatrice quadrata B di ordine k che si
ottiene da A togliendo m k righe e n k colonne.
Esempio 2.16 Data la matrice:

A=
9

M12

3 4


5 7
8


= 9 11 12

1 3 4

Un minore di ordine 2 della matrice A e` :



1 2

5 6

,
12

10 11

1 2
il minore M12 e` :





= 64.




= 4,

infatti e` il determinante della matrice quadrata di ordine 2 ottenuta togliendo la terza e la


quarta riga e la terza e la quarta colonna della matrice A. A partire dalla matrice A quanti
minori di ordine 2 si trovano? E` evidente invece che i minori di ordine 1 di A sono 16 e
sono gli elementi di A.
Definizione 2.12 Sia A = (aij ) Rn,n ; si definisce cofattore o complemento algebrico
dellelemento aij il numero Aij definito da:
Aij = (1)i+j Mij .

66

Matrici e Determinanti

Esempio 2.17 NellEsempio 2.16 il cofattore dellelemento a12 e` A12 = M12 = 64.
LEsempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante
di una matrice quadrata di ordine qualsiasi.
Teorema 2.17 Primo Teorema di Laplace Il determinante di una matrice quadrata
A = (aij ) Rn,n e` dato da:
det(A) =

n
X

aik Aik =

k=1

n
X

ahj Ahj ,

(2.16)

h=1

per ogni i = 1, 2, . . . , n, j = 1, 2, . . . , n. In altri termini, il determinante della matrice quadrata A si ottiene moltiplicando gli elementi di una riga fissata (nella formula
precedente e` la i-esima) per i rispettivi cofattori, inoltre il valore ottenuto non dipende
dalla riga scelta. Lultimo membro di (2.16) afferma che tale propriet`a vale anche per la
j -esima colonna.
Dimostrazione
E` un calcolo che segue da (2.14), allo stesso modo con cui e` stato
condotto nellEsempio 2.15.
Esempio 2.18 Per calcolare il determinante della matrice, oggetto dellEsercizio 2.5, si
pu`o usare il Primo Teorema di Laplace 2.17. La presenza del numero 0 al posto (4, 2) di
tale matrice suggerisce di sviluppare il determinante rispetto alla seconda colonna oppure
rispetto alla quarta riga. Si riportano di seguito esplicitamente entrambi i calcoli:





3
1

1 2

1
2
2
1
1





1 + 2 2
1 2 3 1
2
det(A) = 2 2
1
1 1 1
1 1 1
1 1

2
1
=
3
1 1


2
1

1 1







+ 2 2 2

1
1


2
1
+
1 1





1
2 2

1 1



2 2
+

1
1


1
2
2
1 1





2
2 3

1 1


3
+
1


1
2

1
= 1
2 2

1
2
1


1 1

3
1

2
2

1
2
1


1
1


1 1
2

3
1
1

2
2 2

si lascia la conclusione al Lettore, osservando per`o che la determinazione dello stesso


determinante condotta nellEsercizio 2.5 e` stata molto pi`u agevole.

Capitolo 2

67

Teorema 2.18 Secondo Teorema di Laplace In una matrice quadrata A = (aij ) di


Rn,n la somma dei prodotti degli elementi di una riga (o colonna) per i cofattori di una
riga (o una colonna) parallela e` zero, in formule:
n
X
k=1

aik Ajk =

n
X

ahi Ahj = 0,

i 6= j.

(2.17)

h=1

Dimostrazione E` evidente conseguenza della seconda propriet`a del Teorema 2.14, infatti (2.17) si pu`o interpretare come lo sviluppo del determinante di un matrice in cui, nel
primo caso, la riga j -esima coincide con la riga i-esima e nel secondo caso, la colonna
j -esima coincide con la colonna i-esima.
Utilizzando la nozione di determinante e di minore si pu`o enunciare una seconda definizione di rango di una matrice A Rm,n , equivalente a quella gi`a introdotta (cfr. Def.
1.10). La dimostrazione dellequivalenza tra le due definizioni di rango e` rimandata al
Paragrafo 4.5.
Definizione 2.13 Il rango di una matrice A Rm,n e` pari al massimo ordine di un
minore non nullo di A.
Esempio 2.19 Si consideri la matrice:

1 2 1 2
A= 2 4 2 4
0 1 0 1

che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe.
Considerando, invece, la Definizione 2.13 di rango si vede subito che ogni minore di A
di ordine 3 e` uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due
righe proporzionali. Invece:


2 4


0 1 =2
da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.

2.8.2

Calcolo della matrice inversa, secondo metodo

In questo paragrafo si introdurr`a un altro metodo di calcolo della matrice inversa A1 di


una matrice data A, facendo uso della nozione di determinante. Per questo scopo si inizia
con la definizione di una matrice particolare associata ad una qualsiasi matrice quadrata.

Matrici e Determinanti

68

Definizione 2.14 Data A Rn,n , si consideri la matrice B = (Aij ) Rn,n avente


ordinatamente come elementi i cofattori di A, la trasposta di tale matrice prende il nome
di aggiunta di A e si indica con adj(A).
Esempio 2.20 Data:

1
A = 1
0

2
2
1

3
5
2

la sua aggiunta e` :

1 1
4
2 8 .
adj(A) = 2
1 1
4
Teorema 2.19 Sia A una matrice quadrata di ordine n, se det(A) 6= 0 allora esiste
linversa di A e:
1
adj(A).
A1 =
det(A)
Dimostrazione

Sia:
B = (bij ) =

1
adj(A),
det(A)

il teorema e` dimostrato se AB = (cij ) = I , in altri termini se cij = ij , dove ij e` il


simbolo di Kronecker, ossia ii = 1 e ij = 0, i 6= j . Si calcola:
n
X

n
X
1
1
aik bki =
aik Aik =
det(A) = 1;
cii =
det(A) k=1
det(A)
k=1

la precedente uguaglianza segue dal Primo Teorema di Laplace 2.17. Se i 6= j si ha


invece:
n
n
X
X
1
aik Ajk = 0,
cij =
aik bkj =
det(A)
k=1
k=1
per il Secondo Teorema di Laplace 2.18.
Osservazione 2.13 Il teorema precedente insieme con il Teorema 2.16 e il Teorema 2.13
permettono di concludere che, nel caso di una matrice quadrata A Rn,n :
A1 det(A) 6= 0 rank(A) = n.

Capitolo 2

69

Esempio 2.21 E` agevole applicare il metodo di calcolo della matrice inversa appena
introdotto nel caso di una matrice quadrata di ordine 2, infatti se:


a11 a12
A=
a21 a22
e det(A) 6= 0 allora:
1

1
=
det(A)

a22 a12
a21
a11


.

Esempio 2.22 Considerata la matrice A dellEsercizio 2.2, se ne determini linversa


usando il procedimento descritto. Si tratta di calcolare i cofattori di tutti gli elementi
della matrice, ossia 16 determinanti di matrici quadrate di ordine 3 e, quindi, la matrice
aggiunta. Si ottiene:

8 6
2
2
1
1
0
15 0 10
.
adj(A) =
A1 =
0
0
det(A)
10 5 0
8 4 2 2
Osservazione 2.14 Dalla definizione di aggiunta di una matrice quadrata A di ordine n,
segue:
A adj(A) = det(A)I,
(2.18)
dove I indica la matrice unit`a di Rn,n . Si osservi che la formula (2.18) vale per ogni
matrice A, anche se non e` invertibile.

2.8.3

Il Teorema di Cramer

E` conseguenza del paragrafo precedente un metodo di calcolo che permette di risolvere


i sistemi lineari compatibili che hanno il numero delle equazioni pari al numero delle
incognite, cio`e del tipo:

a11 x1 + a12 x2 + . . . . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . . . . + a2n xn = b2


(2.19)
..

a x + a x + ...... + a x = b .
n1 1
n2 2
nn n
n
La matrice dei coefficienti A = (aij ) Rn,n e` quadrata. Se det(A) 6= 0 segue dal
Teorema di RoucheCapelli 1.2 che il sistema lineare (2.19) e` compatibile. In notazione
matriciale (cfr. Par. 2.2.1) il sistema lineare (2.19) equivale a:
AX = B,

(2.20)

Matrici e Determinanti

70

dove X Rn,1 e` la matrice delle incognite e B Rn,1 e` la matrice colonna dei termini
noti. Poiche det(A) 6= 0, A e` invertibile e quindi e` possibile moltiplicare a sinistra ambo
i membri di (2.20) per A1 , ottenendo cos`:
X = A1 B.
Dal Teorema 2.19, sostituendo lespressione di

x1
A11
x2

A12

X = .. =
.
. det(A) ..
xn
A1n

A1 , si ha:
A21 . . . An1
A22 . . . An2
..
..
...
.
.
A2n . . . Ann

b1
b2
..
.

bn

da cui, uguagliando, si ricava:






1

x1 =

det(A)

b1 a12
b2 a22
..
..
.
.
bn an2


. . . a1n
. . . a2n
.. .
...
.
. . . ann

In generale si ha:







1

xi =
det(A)



a11 a12 . . . b1 . . . a1n


a21 a22 . . . b2 . . . a2n
..
.

..
.

..
.

..
.

..
.

..
.

..
.

..
.

an1 an2 . . . bn . . . ann

i = 1, 2, . . . , n,

(2.21)

dove li-esima colonna coincide con quella dei termini noti.


Teorema 2.20 Teorema di Cramer In un sistema lineare del tipo (2.19) di n equazioni in n incognite la cui matrice A dei coefficienti ha determinante diverso da zero la
i-esima incognita si ottiene dalla formula (2.21).
Esempio 2.23 Dato il sistema lineare:

2x1 x2 + x3 = 0
3x1 + 2x2 5x3 = 1

x1 + 3x2 2x3 = 4,

Capitolo 2

71

il determinante della matrice A dei coefficienti e` dato da:




2 1
1

2 5 = 28 6= 0.
det(A) = 3
1
3 2
Quindi esiste una sola soluzione che pu`o essere determinata usando il Teorema di Cramer
nel modo seguente:






0 1

2 0

2 1 0
1
1





1
, x2 = 1 3 1 5 , x3 = 1 3
.
1
2
5
2
1
x1 =



28
28
28


4
3 2
1 4 2
1
3 4
Osservazione 2.15 Si osservi che ad ogni sistema lineare compatibile e` applicabile il
Teorema di Cramer. Sia, infatti, AX = B un sistema lineare compatibile con A in Rm,n ,
X in Rn,1 , B in Rm,1 e sia r = rank(A | B) = rank(A). Riducendo eventualmente per
righe la matrice completa iniziale (A | B) e scambiando opportunamente le righe si pu`o
ottenere una nuova matrice:

0
a11 a012 . . . a01n b01
..
.. ..
..
.
. .
.

(A0 | B 0 ) = a0r1 a0r2 . . . a0rn b0r



.
..
.. ..
..
.
. .
a0
a0
. . . a0 b0
m1

m2

mn

tale che le prime r righe di A0 formino una matrice di rango r. Equivalentemente non
e` restrittivo supporre che dalle prime r righe di A0 sia possibile estrarre una matrice
quadrata C di ordine r e di rango r. Infatti, se cos` non fosse si avrebbe rank(A) =
rank(A0 ) r 1, perche ogni matrice quadrata di ordine r estratta da A0 avrebbe
determinante nullo (cfr. Def. 2.13). Portando a secondo membro le colonne di A0 diverse
da quelle di C si ottiene la matrice completa (C | B 00 ) di un nuovo sistema lineare con r
incognite e con det(C) 6= 0, equivalente a quello di partenza. Questultima affermazione
e` vera perche le operazioni di riduzione per righe trasformano il sistema lineare in un altro
ad esso equivalente e dal fatto che il rango di C sia r segue che il sistema lineare ammette
infinite soluzioni che dipendono da n r incognite libere che sono, con questo metodo,
proprio quelle portate a secondo membro (cfr. Cap.1). In questo modo, utilizzando il
Teorema di Cramer si possono esprimere le r incognite in funzione delle rimanenti n r
incognite libere. Segue un esempio di ci`o che e` stato appena osservato.
Esempio 2.24 Si consideri il sistema lineare:

x + 3y + z = 1
x + 2y z = 0,

(2.22)

Matrici e Determinanti

72

osservato che il rango della matrice dei coefficienti:




1 3
1
A=
1 2 1
e` 2 e assunta z come incognita libera, in questo caso la matrice C citata nellosservazione
precedente e` :


1 3
C=
.
1 2
Il sistema lineare (2.22) si pu`o scrivere:

x + 3y = 1 z
x + 2y = z.

(2.23)

Ma a (2.23) e` applicabile il Teorema di Cramer perche:




1 3


1 2 = 5.
La soluzione e` :


1z 3


z
2
2
= z ,
x=
5
5

2.9



1 1z


1
z
1
y=
= ,
5
5

z R.

Per saperne di piu`

In questo paragrafo sono riportate le dimostrazioni di alcune propriet`a che nel paragrafo
precedente sono state lasciate al Lettore per esercizio.
Esercizio 2.7 Si dimostri che:
(AB)C = A(BC),

A Rm,n , B Rn,p , C Rp,l .

Soluzione Siano A = (aij ) Rm,n , B = (bij ) Rn,p , C = (cij ) Rp,l .


Allora AB = (dij ) Rm,p e:
n
X
dij =
aik bkj .
k=1

Quindi (AB)C = (eij ) Rm,l , con:


eij =

p
X
h=1

dih chj =

p
n
X
X
h=1

k=1

!
aik bkh chj =

p
n
X
X
h=1 k=1

aik bkh chj

Capitolo 2

73

che e` lespressione del generico elemento della matrice a primo membro. Per il secondo
membro si ha BC = (fij ) Rn,l , con:
fij =

p
X

bih chj

h=1

e A(BC) = (gij ) Rm,l , dove:


gij =

n
X

aik fkj =

k=1

n
X

aik

k=1

p
X

!
bkh chj

h=1

p
n X
X

aik bkh chj ,

k=1 h=1

da cui segue la tesi.


Esercizio 2.8 Si dimostri che:
t

(AB) = tB tA,

A Rn,p , B Rp,m .

Soluzione
Date la matrici A = (aij ) Rn,p e B = (bij ) Rp,m , il loro prodotto e` la
matrice C = AB = (cij ) Rn,m , dove:
cij =

p
X

aik bkj .

k=1

La matrice a primo membro t (AB) = (dij ) di Rm,n ha elementi del tipo:


dij = cji =

p
X

ajk bki .

k=1

La matrice tA = (eij ) di Rp,n ha elementi del tipo eij = aji . La matrice tB = (fij )
di Rm,p ha elementi del tipo fij = bji . La matrice prodotto tB tA = (gij ) di Rm,n ha
elementi del tipo:
p
p
p
X
X
X
gij =
fik ekj =
bki ajk =
ajk bki ,
k=1

k=1

da cui segue la tesi.


Esercizio 2.9 Si dimostri che:
(tA)1 = t (A1 ),
per ogni matrice invertibile A Rn,n .

k=1

Matrici e Determinanti

74

Soluzione

Si tratta di dimostrare che t (A1 ) e` linversa di tA, infatti:


t

(A1 ) tA = t (A A1 ) = t I = I.

Esercizio 2.10 Si dimostri che:


tr(A B) = tr(B A),

A, B Rn,n .

Soluzione
Date le matrici A = (aij ) Rn,n e B = (bij ) Rn,n , gli elementi della
diagonale principale del prodotto AB sono:
cii =

n
X

aih bhi ,

h=1

quindi:
tr(A B) =

n
X

cll =

n
X

alh bhl .

h,l=1

l=1

Siano dii gli elementi della diagonale principale del prodotto BA, si ha:
dii =

n
X

bik aki ,

k=1

la traccia di BA diventa:
tr(B A) =

n
X

dmm =

m=1

da cui, confrontando con (2.24), segue la tesi.

n
X
m,k=1

bmk akm

(2.24)

Capitolo 3
Calcolo Vettoriale
Il calcolo vettoriale elementare e` largomento di base per lo studio dellalgebra lineare e della geometria analitica nella retta, nel piano e nello spazio, inoltre si rivela uno
strumento prezioso per la matematica applicata e la fisica in particolare.
In questo capitolo si assumono note le principali nozioni di geometria euclidea del piano
e dello spazio, cos` come sono solitamente trattate nel primo biennio della scuola secondaria superiore. Vale a dire si assume che il Lettore abbia familiarit`a con i concetti di:
punto, retta, piano e le loro reciproche posizioni, nonche le loro principali propriet`a. Saranno, pertanto, usate le notazioni tradizionali, indicando, quindi, con le lettere maiuscole
dellalfabeto A, B, . . . , i punti, con le lettere minuscole r, s, . . . , le rette e con le lettere
minuscole dellalfabeto greco , , . . . , i piani. La retta (intesa come retta di punti) sar`a
indicata con S1 , il piano (inteso come piano di punti) con S2 , lo spazio, inteso come
spazio di punti, con S3 . Gli spazi S1 , S2 , S3 sono esempi di spazi affini rispettivamente
di dimensione 1, 2, 3. Per la trattazione assiomatica degli spazi affini, che non e` inserita
in questo testo, si rimanda ad esempio a [17], invece il concetto di dimensione di uno
spazio formato da vettori sar`a introdotto in questo capitolo e poi definito formalmente
nel capitolo successivo Per il momento si raccomanda di non pensare al significato formale dei termini che sono stati usati, ma di limitarsi a richiamare le nozioni elementari
impartite nelle scuole secondarie su questi spazi. Man mano che si proceder`a con lo studio dellalgebra lineare, si preciseranno in modo corretto le terminologie comunemente
usate. Si assumono, inoltre, noti i primi rudimenti di trigonometria, quali, ad esempio, le
definizioni delle funzioni trigonometriche elementari e le loro principali propriet`a.

3.1

Definizione di vettore

Definizione 3.1 Si consideri un segmento AB appartenente ad una retta r dello spazio


ambiente S3 . Ad AB si associa la direzione, quella della retta r, il verso, ad esempio,
75

76

Calcolo Vettoriale

quello da A verso B e la lunghezza indicata con kABk e detta norma o lunghezza di AB .


Un segmento di questo tipo si dice segmento orientato e sar`a indicato con la simbologia

AB . La totalit`a di tutti i segmenti orientati aventi la stessa direzione, lo stesso verso e la


stessa lunghezza di AB , prende il nome di vettore x e sar`a generalmente indicato con le
lettere minuscole in grassetto.
Riassumendo, ad ogni vettore x si associano tre entit`a:

direzione di x
verso di x

norma di x indicata con kxk.


Per definizione, la norma di ogni vettore e` un numero reale positivo, eventualmente nullo.
Se il vettore x e` individuato dai punti A e B dello spazio, per indicarlo si potranno usare,

indifferentemente, le seguenti notazioni: x, AB , B A, [AB]. Inoltre AB e` detto un


rappresentante del vettore x; per abbreviare si scriver`a:

x = AB.
Segue dalla definizione che lo stesso vettore x ammette infiniti rappresentanti, per esempio la coppia di punti C, D dello spazio tali che i segmenti AB e CD siano paralleli,

abbiano la stessa lunghezza e lo stesso verso, cio`e x = AB = CD.
Se A = B , il segmento ottenuto, che ha come rappresentante A e anche un qualsiasi
punto dello spazio, si indica con o e prende il nome di vettore nullo. Il vettore nullo o e`
lunico vettore di norma uguale a zero ed ha direzione e verso indeterminati.
Se kxk = 1, x si dice versore. Sar`a molto utile il concetto di versore in quanto permetter`a
di individuare agevolmente lunit`a di misura.
Se si fissa un punto O nello spazio S3 e si identifica, di conseguenza, ogni vettore x con il

punto P dato da x = OP allora lo spazio S3 coincide con linsieme dei vettori dello spazio che si indica con V3 , analogamente, S2 (fissato il punto O) si identifica con linsieme
dei vettori V2 di un piano e S1 con linsieme dei vettori V1 di una retta. Il significato dei
numeri 1, 2, 3 in V1 , V2 , V3 sar`a discusso ampiamente in questo capitolo. Si osservi inoltre che, se non viene fissato il punto O, V1 si pu`o interpretare geometricamente come una
qualsiasi retta dello spazio di direzione uguale a quella dei suoi vettori, V2 invece si pu`o
visualizzare geometricamente come un qualsiasi piano dello spazio parallelo ai vettori ad
esso appartenenti. I vettori per cui non e` indicato il punto di applicazione prendono anche
il nome di vettori liberi. V1 e V2 vengono, rispettivamente, chiamati retta vettoriale e
piano vettoriale.
Nel Paragrafo 3.10 viene data una formulazione pi`u rigorosa della Definizione 3.1; per
quello che segue, per`o, e` sufficiente che il Lettore abbia unidea intuitiva di questo concetto.

Capitolo 3

77

Nei due paragrafi successivi si introdurranno alcune operazioni tra vettori, iniziando dalla
somma di vettori e dal prodotto di un numero reale per un vettore. E` molto importante
osservare che queste operazioni (ovviamente con una definizione diversa da quella che
sar`a di seguito presentata) sono gi`a state introdotte nellinsieme delle matrici, nel capitolo
precedente. Sar`a sorprendente notare che per le operazioni tra vettori saranno valide le
stesse propriet`a dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo
sar`a dedicato allo studio assiomatico degli insiemi su cui e` possibile definire operazioni
di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui linsieme delle
matrici Rm,n e gli insiemi dei vettori V3 , V2 , V1 sono esempi.

3.2

Somma di vettori

Definizione 3.2 La somma in V3 e` loperazione:


+ : V3 V3 V3 ,

(x, y) 7 x + y,


dove il vettore x + y e` cos` definito: fissato un punto O di S3 , siano OA e OB due

segmenti orientati rappresentanti di x e y, rispettivamente, allora x + y = OC , dove

OC e` il segmento orientato che si determina con la regola del parallelogramma, illustrata


nella Figura 3.1.

x+y

Figura 3.1: Somma di due vettori

Osservazione 3.1
1. La definizione di somma di vettori e` ben data. Vale a dire, facendo riferimento alle notazioni della Definizione 3.2, se si cambiano i rappresentanti
di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del

Calcolo Vettoriale

78

parallegramma, ha la stessa direzione, lo stesso verso e la stessa norma di OC . La


situazione geometrica e` illustrata nella Figura 3.2, la dimostrazione di questa affermazione, che segue in modo elementare dalle propriet`a dei parallelogrammi, e`
lasciata al Lettore.
2. Per definizione x + y e` complanare a x e a y, dove con il temine complanare si
indicano i vettori che ammettono rappresentanti appartenenti allo stesso piano. Di
conseguenza loperazione di somma di vettori e` ben definita anche in V2 e anche in
V1 . Infatti se x e y sono paralleli, ossia se ammettono rappresentanti appartenenti
alla stessa retta, o, equivalentemente, se hanno la stessa direzione, allora la loro
somma x + y e` ancora un vettore parallelo ad x e a y, la cui norma e` pari alla
somma delle norme di x e di y se essi sono concordi (ossia se hanno lo stesso
verso), in caso contrario, ossia se i vettori sono discordi, la norma di x + y e` la
differenza delle norme di x e y. Il verso di x + y e` concorde con il verso del
vettore addendo di norma maggiore. Levidente situazione geometrica e` illustrata
nella Figura 3.3. Questo fatto si esprime anche dicendo che V2 e V1 sono chiusi
rispetto alloperazione di somma di vettori.
3. Il punto C e` il simmetrico di O rispetto al punto medio del segmento AB, (cfr.
Fig. 3.1).
4. Per ogni vettore x (non nullo) esiste lopposto x, che e` il vettore parallelo ad x
avente la stessa norma di x ma verso opposto. Quindi:
x + (x) = o.
Si osservi, inoltre, che anche il vettore nullo o ammette lopposto, che coincide con
il vettore nullo stesso.
Teorema 3.1 Per la somma di vettori in V3 valgono le seguenti propriet`a:
1. x + y = y + x,

x, y V3 (propriet`a commutativa);

2. (x + y) + z = x + (y + z),
3. o V3 | x + o = x,

x, y, z V3 (propriet`a associativa);

x V3 (esistenza dellelemento neutro);

4. x V3 , x V3 | x + (x) = o (esistenza dellopposto).


Inoltre:




5. kxk kyk kx + yk kxk + kyk,

x, y V3 .

Capitolo 3

79

C
x+y

y
x

B'
x+y

y
x

O'

C'

A'

Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti

x
y

x+y

x+y

Figura 3.3: Somma di due vettori paralleli

80

Calcolo Vettoriale

Dimostrazione
La dimostrazione segue dalla definizione di somma di vettori e dalle
propriet`a dei parallelogrammi ed e` lasciata al Lettore. Lelemento neutro e` il vettore nullo
o e lopposto del vettore x coincide con il vettore x prima definito. Si osservi che le
due uguaglianze in 5. possono valere solo se i vettori x e y sono paralleli.
Osservazione 3.2
1. Dati due vettori x e y la loro somma x + y si pu`o ottenere
mediante la regola della poligonale, cio`e scelti due segmenti orientati consecutivi

x = AB, y = BC , risulta x + y = AC .
2. La propriet`a associativa permette di estendere la definizione di somma di vettori a
n addendi. Dati, quindi, i vettori x1 , x2 , . . . , xn , la loro somma x1 + x2 + . . . + xn
si pu`o rappresentare agevolmente, tenendo conto dellosservazione precedente, con
il segmento che chiude la poligonale ottenuta dai segmenti posti consecutivamente, che rappresentano i vettori addendi. La situazione geometrica e` illustrata nella
Figura 3.4.
3. E` molto importante osservare che le propriet`a della somma di vettori coincidono
con le propriet`a della somma di numeri reali, in questo caso il vettore nullo e` il
numero 0. In un certo senso, questo e` un motivo che autorizza la denominazione
somma alloperazione tra vettori appena introdotta. Dal punto di vista sperimentale, invece, la definizione di somma di vettori e` giustificata dal comportamento
fisico della composizione di due forze applicate nello stesso punto.
4. Il teorema precedente, ha permesso di definire la differenza di due vettori, ossia:
x y = x + (y).
La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresentata dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia
per esercizio la rappresentazione grafica della differenza di due vettori paralleli.
5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari
con x, esistono e sono unici due vettori x1 ed x2 in quelle direzioni, tali che:
x = x1 + x2 .
Loperazione prende il nome di decomposizione di un vettore lungo due direzioni
assegnate.
6. Si osservi che (V3 , + ) con loperazione di somma di vettori ha la struttura di
gruppo commutativo (cfr. Oss. 2.2).

Capitolo 3

81

x4

x3
x1 + x2 + x3 + x4

x2

x1
Figura 3.4: Somma di quattro vettori

x
-y

x-y

Figura 3.5: Differenza di due vettori

Calcolo Vettoriale

82

3.3

Il prodotto di un numero reale per un vettore

Loperazione che sta per essere definita trova giustificazione nel mondo in cui si vive, in
quanto formalizza il risultato che si ottiene quando una forza viene raddoppiata o moltiplicata per un numero reale qualsiasi. Daltra parte, questa operazione e` in un certo senso
singolare dal punto di vista algebrico perche gli elementi che concorrono alla sua definizione appartengono ad insiemi diversi. Inoltre, si pu`o considerare come loperazione
analoga al prodotto di un numero reale per una matrice introdotto nella Definizione 2.4.
Definizione 3.3 Il prodotto di un numero reale per un vettore x V3 e` loperazione:
R V3 V3 ,

(, x) 7 x,

dove il vettore x (detto anche prodotto dello scalare per x) e` definito nel modo
seguente:
1. se = 0 o x = o, allora x = o.
2. Se 6= 0 e x 6= o si pone x = y, dove:
la direzione di y coincide con la direzione di x;
il verso di y e` concorde con quello di x se > 0, discorde se < 0;
kyk = ||kxk, dove || indica il valore assoluto del numero reale .
Osservazione 3.3 Dalla definizione segue che x = o se e solo se = 0 oppure x = o.
Per la dimostrazione si veda lEsercizio 4.23.
Sono valide le seguenti propriet`a la cui dimostrazione e` lasciata per esercizio.
Teorema 3.2

1. (x + y) = x + y,

2. ( + )x = x + x,
3. (x) = ()x,
4. 1 x = x,

R, x, y V3 ;

, R, x V3 ;

, R, x V3 ;

x V3 .

Osservazione 3.4 Linsieme V3 con le operazioni di somma di vettori e le relative quattro


propriet`a e di prodotto di un numero reale per un vettore e le relative quattro propriet`a,
e` un esempio di spazio vettoriale su R. La definizione assiomatica di spazio vettoriale e`
rimandata al capitolo successivo. Allo stesso modo, anche V2 e V1 sono esempi di spazi
vettoriali. In realt`a, V2 e V1 sono esempi di sottospazi vettoriali di V3 perche sono chiusi

Capitolo 3

83

rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e
y in V2 e per ogni R si ha che x + y V2 e x V2 (analogamente per V1 ). Inoltre,
in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti
ad un piano vettoriale qualsiasi) si pu`o pensare che V1 V2 V3 .
Seguono alcune definizioni e propriet`a di tipo teorico, che saranno riprese in modo completo nel capitolo successivo. Si e` deciso di inserire in questo contesto ci`o che segue,
anche se i risultati che si ottengono saranno conseguenza della teoria pi`u generale degli
spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V3 e` possibile rappresentare graficamente le nozioni man mano introdotte, aiutando cos` la loro
comprensione.
Definizione 3.4 Dati k vettori v1 , v2 , . . . , vk di V3 , si dice che un vettore x V3 e`
combinazione lineare di v1 , v2 , . . . , vk se esistono k numeri reali x1 , x2 , . . . , xk tali che:
x = x1 v 1 + x2 v 2 + . . . + xk v k .
I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare.
Mediante la nozione di combinazione lineare di vettori si possono riformulare, in modo
pi`u accurato dal punto di vista algebrico, le nozioni, gi`a introdotte in modo geometricamente intuitivo, di retta vettoriale e di piano vettoriale.
Definizione 3.5 Dato un vettore x 6= o, la retta vettoriale generata da x e` linsieme:
L(x) = {x | R}.
Dati due vettori x e y non paralleli il piano vettoriale generato da x e da y e` linsieme:
L(x, y) = {x + y | , R}.
Osservazione 3.5 Segue in modo evidente dalla definizione che L(x, y) = L(y, x). Non
ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde,
usualmente usate per indicare che e` importante lordine dei vettori; e` una convenzione
usare questa notazione anche se non e` corretta.
Scopo del prossimo paragrafo e` mettere in relazione le nozioni algebriche e geometriche
enunciate nelle definizioni precedenti.

Calcolo Vettoriale

84

3.4

Dipendenza lineare e basi

Dalla Definizione 3.5 segue che il parallelismo e la complanarit`a tra vettori possono essere
letti in termini delle loro combinazioni lineari. Per differenziare ulteriormente le due
diverse situazioni geometriche e` necessario introdurre la seguente definizione.
Definizione 3.6 Dati k vettori v1 , v2 , . . . , vk di V3 , essi si dicono linearmente indipendenti se lunica loro combinazione lineare uguale al vettore nullo e` quella con coefficienti
tutti nulli, vale a dire:
x1 v 1 + x2 v 2 + . . . + xk v k = o

x1 = x2 = . . . = xk = 0.

(3.1)

Linsieme {v1 , v2 , . . . , vk } di vettori linearmente indipendenti si dice libero.


Di conseguenza k vettori v1 , v2 , . . . , vk di V3 si dicono linearmente dipendenti se esiste
almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli,
cio`e se si ha:
x1 v 1 + x2 v 2 + . . . + xk v k = o
con almeno uno tra i coefficienti x1 , x2 , . . . , xk non nullo.
Osservazione 3.6

1. Si osservi che in (3.1) vale anche limplicazione opposta.

2. Linsieme {x} e` libero se e solo se x 6= o.


Prima di proporre alcuni esempi conviene enunciare il teorema che segue, molto facile,
ma utile per riconoscere vettori linearmente dipendenti o linearmente indipendenti. Per la
dimostrazione si rimanda al Paragrafo 4.3.
Teorema 3.3 I vettori v1 , v2 , . . . , vk di V3 sono linearmente dipendenti se e solo se
almeno uno di essi si pu`o esprimere come combinazione lineare dei rimanenti.
Esempio 3.1
1. Se x = 2y, allora x + y = o con = 1, = 2. Pertanto i
vettori x e y sono linearmente dipendenti.
2. Il vettore nullo o e` linearmente dipendente con ogni altro vettore x in quanto:
o + 0x = o,
per ogni R, quindi anche per valori non nulli di . In particolare, linsieme
contenente solo il vettore nullo {o} non e` libero.

Capitolo 3

85

3. Gli elementi di L(x) sono tutti linearmente dipendenti tra di loro, ma la stessa
propriet`a non vale per L(x, y), si vedr`a infatti nel Teorema 3.4 che due vettori non
paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi
banale da considerazioni geometriche elementari.
Il teorema che segue conclude lo studio del parallelismo e della complanarit`a tra vettori
mediante la dipendenza lineare.
Teorema 3.4
1. Due vettori x e y di V3 sono linearmente dipendenti se e solo se
sono paralleli, ossia se e solo se appartengono alla stessa retta vettoriale.
2. Tre vettori x, y e z di V3 sono linearmente dipendenti se e solo se sono complanari,
ossia se e solo se appartengono allo stesso piano vettoriale.
3. Quattro vettori di V3 sono sempre linearmente dipendenti.
Segue subito dal teorema appena enunciato che:
1. il numero massimo di vettori linearmente indipendenti in una retta vettoriale
V1 e` 1.
2. Il numero massimo di vettori linearmente indipendenti in un piano vettoriale
V2 e` 2.
3. Il numero massimo di vettori linearmente indipendenti nello spazio vettoriale
V3 e` 3.
Ecco, finalmente, una prima definizione algebrica del numero che si legge a pedice!
Dimostrazione
1. Si supponga che x e y siano paralleli. Se entrambi i vettori sono
il vettore nullo, o uno solo dei due e` il vettore nullo, allora sono linearmente dipendenti. Si supponga ora che entrambi i vettori non siano nulli. Dalla Definizione 3.3
si ha che esiste un numero reale per cui x = y il cui valore assoluto e` dato da:
|| =

kxk
kyk

e il segno di e` positivo se x e y hanno verso concorde, altrimenti e` negativo.


Dal Teorema 3.3 segue che i vettori x e y sono linearmente dipendenti. Viceversa,
se x e y sono linearmente dipendenti si perviene alla tesi applicando di nuovo il
Teorema 3.3.

Calcolo Vettoriale

86

C
z

B
y
O

Figura 3.6: Complanarit`a di tre vettori

C
D

v3
x

v2

H
v1

Figura 3.7: Dipendenza lineare di quattro vettori

Capitolo 3

87

2. Si inizia a dimostrare che se i vettori x, y, z sono complanari, allora sono linearmente dipendenti. Si esamina solo il caso in cui x e y sono linearmente indipendenti, lasciando per esercizio gli altri casi. A tale scopo si considerino tre segmenti
orientati che li rappresentano, aventi tutti lestremo O in comune (la situazione
geometrica e` descritta nella Figura 3.6) si ha:

OA = x,

OB = y,

OC = z.

Essendo i tre vettori complanari, i punti O, A, B, C appartengono allo stesso piano.


Si decomponga il vettore z lungo le direzioni di x e di y (cfr. Oss. 3.2, punto 4.),
individuando i punti H sulla retta OA e K sulla retta OB ; si ottiene:

OC = OH + OK,

(3.2)

ma OH e` il rappresentante di un vettore parallelo a x e OK e` il rappresentante di


un vettore parallelo a y. La relazione (3.2) equivale alla dipendenza lineare dei tre
vettori dati. Il viceversa e` lasciato per esercizio.
3. Siano v1 , v2 , v3 , x quattro vettori di V3 . Si supponga che v1 , v2 , v3 non siano complanari, quindi siano linearmente indipendenti, lasciando per esercizio tutti gli altri
casi particolari, da cui si perviene agevolmente alla tesi. Facendo riferimento alla

Figura 3.7, si indichino con OA = v1 , OB = v2 , OC = v3 , OD = x i rappresentanti dei quattro vettori dati, aventi tutti un estremo in O. I punti O, A, B, C
non sono complanari, mentre i punti O, A, B individuano un piano . Si supponga,
inoltre, che D non appartenga a (in caso contrario il teorema sarebbe dimostrato). Si tracci dal punto D la parallela alla retta OC che incontra il piano in H .
Per costruzione:

OD = OH + HD.
(3.3)

Decomponendo il vettore OH nelle direzioni dei vettori v1 e v2 , si individuano tre


numeri reali x1 , x2 , x3 che permettono di riscrivere la (3.3) come:
x = x1 v 1 + x2 v 2 + x3 v 3 ,

(3.4)

e, quindi, segue la tesi.


La decomposizione di un generico vettore nello spazio, rispetto a tre vettori linearmente
indipendenti assegnati, ottenuta per costruzione nella dimostrazione dellultimo punto del
teorema precedente, e` in realt`a unica, come afferma il teorema che segue.
Teorema 3.5 In V3 , dati tre vettori linearmente indipendenti v1 , v2 , v3 , ogni vettore x
di V3 si scrive in modo unico come combinazione lineare dei tre vettori dati.

Calcolo Vettoriale

88

Dimostrazione
E` sufficiente dimostrare lunicit`a della decomposizione (3.4). Si supponga che esistano altri numeri reali y1 , y2 , y3 tali che:
(x1 , x2 , x3 ) 6= (y1 , y2 , y3 )
e per cui:
x = y1 v1 + y2 v2 + y3 v3 .

(3.5)

Uguagliando (3.4) e (3.5) segue:


o = (x1 y1 )v1 + (x2 y2 )v2 + (x3 y3 )v3 .
Poiche v1 , v2 , v3 sono linearmente indipendenti, si ha x1 = y1 , x2 = y2 , x3 = y3 .
Il teorema che segue riformula i risultati precedenti nei casi particolari di V2 e di V1 .
Teorema 3.6
1. Dati due vettori linearmente indipendenti v1 , v2 di un piano vettoriale V2 , ogni vettore x di V2 determina in modo unico la coppia di numeri reali
(x1 , x2 ) tale che:
x = x1 v 1 + x2 v 2 .
(3.6)
2. Dato un vettore v1 non nullo in una retta vettoriale V1 , ogni vettore x V1
determina in modo unico il numero reale x1 tale che:
x = x1 v 1 .

(3.7)

Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V3 e` individuata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano
vettoriale V2 e` sufficiente scegliere due vettori linearmente indipendenti per individuare
tutti i vettori di V2 e nel caso di una retta vettoriale V1 e` sufficiente scegliere un qualsiasi
vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di
definire in modo inequivocabile i concetti fondamentali di base e di dimensione nel modo
che segue.
Definizione 3.7
1. Si dice base di V3 una qualsiasi terna ordinata di vettori linearmente indipendenti. Si dice dimensione di V3 il numero dei vettori di una base e si
indica con dim(V3 ) = 3.
2. Si dice base di un piano vettoriale V2 una qualsiasi coppia ordinata di vettori linearmente indipendenti di V2 . Si dice dimensione di V2 il numero dei vettori di una
base e si indica con dim(V2 ) = 2.

Capitolo 3

89

3. Si dice base di una retta vettoriale V1 un suo qualsiasi vettore non nullo. Si dice
dimensione di V1 il numero dei vettori di una base e si indica con dim(V1 ) = 1.
Una base di V3 verr`a indicata con la notazione B = (v1 , v2 , v3 ). In questo caso lordine
con cui si scrivono i vettori e` importante perche determina lordine con cui si scrivono
i coefficienti (x1 , x2 , x3 ) della combinazione lineare (3.4). In modo analogo una base
di un piano vettoriale V2 sar`a B 0 = (v1 , v2 ) e una base di una retta vettoriale V1 sar`a
B 00 = (v1 ).

x
b
v3
v2

v1
Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari
Osservazione 3.7 In V3 , in V2 e in V1 esistono infinite basi ma il numero dei vettori che
le compongono e` sempre pari alla dimensione dei rispettivi spazi vettoriali.
Osservazione 3.8 Dati tre vettori complanari (non paralleli) v1 , v2 , v3 si ha che ogni vettore x appartenente al piano vettoriale individuato da v1 , v2 , v3 , si decompone in infiniti
modi diversi rispetto ai tre vettori dati. Per esempio e` sufficiente scegliere una direzione
arbitraria individuata da un vettore a come combinazione lineare di v1 , v2 e decomporre
x rispetto alle direzioni individuate da v3 e a; oppure decomporre x rispetto ad una direzione arbitraria b ottenuta come combinazione lineare di v2 e v3 e cos` via (cfr. Oss.
3.2 punto 5.). La situazione geometrica e` descritta nella Figura 3.8 in cui si e` posto, per
esempio, a = v1 + v2 e x = a + v3 ed inoltre si e` posto b = v2 + v3 e x = b + v1 ,
dove , , , sono opportuni numeri reali.

Calcolo Vettoriale

90

I Teoremi 3.5 e 3.6 permettono di introdurre la seguente definizione.


Definizione 3.8 Fissata una base B = (v1 , v2 , v3 ) di V3 , per ogni vettore x di V3 gli
elementi dellunica terna ordinata di numeri reali (x1 , x2 , x3 ) definita da (3.4) sono detti
le componenti di x rispetto alla base B. In modo analogo la formula (3.6) definisce
le componenti di un generico vettore x del piano vettoriale V2 rispetto alla base B 0 =
(v1 , v2 ) di V2 e la formula (3.7) definisce la componente di un generico vettore x di una
retta vettoriale V1 rispetto alla base B 00 = (v1 ).
Osservazione 3.9 Nel caso di V3 , fissata una base B = (v1 , v2 , v3 ), si e` definita una
corrispondenza biunivoca tra V3 e R3 che associa ad ogni vettore x le sue componenti.
Spesso si scrive, con un abuso di notazione:
x = (x1 , x2 , x3 )
o, in forma matriciale, con:

x1
x = x2 .
x3
Si vedr`a, infatti, in seguito, come sia pi`u conveniente nei calcoli utilizzare una matrice
colonna di R3,1 per indicare le componenti di un vettore di V3 , che e` preferibile chiamare
X per distinguerla dal vettore x:

x1
X = x2 .
x3
Analoghe considerazioni valgono per i casi particolari di V2 e di V1 .
Il teorema che segue, la cui dimostrazione e` un facile esercizio, permette di calcolare la somma di due vettori e il prodotto di un numero reale per un vettore mediante le
componenti.
Teorema 3.7 In V3 , dati i vettori x = x1 v1 + x2 v2 + x3 v3 , y = y1 v1 + y2 v2 + y3 v3 ,
scritti rispetto alla base B = (v1 , v2 , v3 ), si ha:
x + y = (x1 + y1 )v1 + (x2 + y2 )v2 + (x3 + y3 )v3 ,
x = (x1 )v1 + (x2 )v2 + (x3 )v3 ,
con R; cio`e le componenti della somma di due vettori si ottengono semplicemente
sommando le rispettive componenti, mentre le componenti del vettore x si ottengono

Capitolo 3

91

moltiplicando per ogni componente di x. In notazione matriciale, al vettore x + y si


associa la matrice colonna delle sue componenti rispetto alla base B:

x1 + y 1
X + Y = x2 + y2 .
x3 + y 3
Al vettore x si associa la matrice colonna delle sue componenti rispetto alla base B:

x1
X = x2 .
x3
Analoghe affermazioni valgono anche nel caso di un piano vettoriale V2 e di una retta
vettoriale V1 .
Osservazione 3.10
1. Il vettore nullo o e` lunico vettore di V3 avente componenti
tutte nulle o = (0, 0, 0), rispetto ad una qualsiasi base di V3 .
2. I vettori di una base B = (v1 , v2 , v3 ) di V3 hanno componenti, rispetto alla stessa
base B:
v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1).
3. Dal teorema precedente e dalla notazione matriciale usata per le componenti di un
vettore segue lassoluta concordanza tra le definizioni di somma di matrici e di
prodotto di un numero reale per una matrice, introdotte nel capitolo precedente e la
somma di vettori in componenti e il prodotto di un numero reale per un vettore, in
componenti definite in questo capitolo.
Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare
dei vettori mediante le loro componenti. Si far`a uso delle nozioni di rango di una matrice
e del Teorema di RoucheCapelli introdotti nel Capitolo 1 per la risoluzione dei sistemi
lineari.
Esempio 3.2
1. In V3 , fissata una base B = (v1 , v2 , v3 ), si considerino i vettori x =
x1 v1 + x2 v2 + x3 v3 e y = y1 v1 + y2 v2 + y3 v3 . Dal Teorema 3.4 segue che x e`
parallelo a y se e solo se x e y sono linearmente dipendenti, ossia se e solo se e`
possibile determinare un numero reale tale che:
y = x.

92

Calcolo Vettoriale

Scrivendo questa relazione mediante le componenti dei due vettori segue:

y1 = x1
y2 = x2

y3 = x3
e, in termini matriciali, equivale a richiedere che:


x1 x2 x3
rank
1.
y1 y2 y3
Per esempio i vettori x = (1, 2, 3) e y = (2, 4, 6) sono paralleli, mentre i vettori
x e z = (1, 0, 3) non lo sono. Il rango della matrice:


x1 x2 x3
y1 y2 y3
e` pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore
nullo. Il rango di questa matrice e` 0 se e solo se x = y = o.
2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono
linearmente dipendenti, ossia per esempio se esistono i numeri reali e per cui:
z = x + y.

(3.8)

Fissata una base B = (v1 , v2 , v3 ) di V3 , si indichino con:


x = (x1 , x2 , x3 ),

y = (y1 , y2 , y3 ),

z = (z1 , z2 , z3 )

le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste
componenti, equivale al sistema lineare:

z1 = x1 + y1
z2 = x2 + y2

z3 = x3 + y3
e in termini matriciali equivale a:

x1 x2 x3
rank y1 y2 y3 2.
z1 z2 z3

Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta e`
proprio 2, invece se i vettori x e y sono paralleli, allora anche il vettore z e` ad essi
parallelo e il rango della matrice vale 1. Il rango e` 0 se e solo se x = y = z = o.

Capitolo 3

93

Esercizio 3.1 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:


a = (1, 3, 1),

b = (4, 1, 0),

c = (2, 5, 2),

come sono posizionati questi tre vettori nello spazio vettoriale V3 ?


Soluzione Si consideri la matrice A, quadrata di ordine tre, le cui righe sono date dalle
componenti dei tre vettori:

1
3 1
1
0 ,
A= 4
2 5
2
riducendo A per righe si ha:

1
3 1
1

4
1
0
4
A=
R3 R3 + 2R1
2 5
2
4

3 1
1
0 .
1
0

Quindi rank(A) = 2 e ci`o implica che i tre vettori sono complanari (infatti sono linearmente dipendenti). Poiche i vettori a e b non sono paralleli (infatti sono linearmente
indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due
numeri reali e tali che:
c = a + b.
Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al
sistema lineare:

+ 4 = 2
3 + = 5

= 2
la cui soluzione e` ( = 2, = 1), e perci`o c = 2a + b.
Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere
riassunti nel seguente teorema.
Teorema 3.8 Sia B = (v1 , v2 , v3 ) una base di V3 , si considerino vettori:
x = (x1 , x2 , x3 ),

y = (y1 , y2 , y3 ),

z = (z1 , z2 , z3 )

scritti in componenti rispetto alla base B.


1. Un vettore non nullo x in V3 e` linearmente indipendente se e solo se, indicata con
A la matrice avente come unica riga le componenti di x:

A = x 1 x 2 x3 ,
si ha rank(A) = 1. Equivalentemente x = o se e solo se rank(A) = 0.

Calcolo Vettoriale

94

2. Due vettori x e y di V3 sono linearmente indipendenti se e solo se, indicata con A


la matrice avente come righe le componenti dei due vettori:


x1 x2 x3
A=
,
y1 y2 y3
si ha rank(A) = 2. Equivalentemente, i vettori x e y (entrambi non nulli) sono
linearmente dipendenti, vale a dire sono paralleli, se e solo se rank(A) = 1. Se
x = y = o, allora rank(A) = 0 e viceversa.
3. Tre vettori x, y, z sono linearmente indipendenti in V3 (vale a dire formano una
base di V3 ) se e solo se, indicata con A la matrice quadrata avente come righe le
componenti dei tre vettori:

x1 x2 x3
A = y1 y2 y3 ,
(3.9)
z1 z2 z3
si ha:
rank(A) = 3 A1 det(A) 6= 0.
Equivalentemente, i vettori x, y, z sono linearmente dipendenti se e solo se:
rank(A) < 3.
Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il
terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece
rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo)
sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o.
Dimostrazione La dimostrazione segue dallEsempio 3.2. In alternativa, per dimostrare lultimo punto si pu`o anche procedere esplicitando, mediante le componenti dei vettori,
la relazione:
1 x + 2 y + 3 z = o,
con 1 , 2 3 R, che equivale al sistema lineare omogeneo:

1 x1 + 2 y1 + 3 z1 = 0
1 x2 + 2 y2 + 3 z2 = 0

1 x3 + 2 y3 + 3 z3 = 0.
Affinche i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo
deve ammettere la sola soluzione nulla. Questo accade se e solo se:

Capitolo 3

95

x1 y1 z1
rank x2 y2 z2 = 3.
x3 y3 z3
Si osservi che la matrice ottenuta e` la trasposta della matrice A in (3.9). Si dovr`a attendere la dimostrazione del Teorema 4.19 per assicurare lequivalenza dei due procedimenti
seguiti per pervenire alla tesi. Il risultato, in realt`a, e` intuitivamente accettabile, tenendo
conto che det(A) = det(tA).
Esercizio 3.2 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u1 = (1, 0, h),

u2 = (2, 1, 1),

u3 = (h, 1, 1),

stabilire per quali valori di h R essi formano una base di V3 .


Soluzione
I tre vettori dati formano una base di V3 se e solo se sono linearmente
indipendenti, ossia se la matrice A :

1
0 h
1
A = 2 1
h
1 1
ha det(A) 6= 0. Poiche det(A) = h(2 + h) si ha che i vettori u1 , u2 , u3 formano una
base di V3 se e solo se h
/ {2, 0}.
Esercizio 3.3 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = v1 v2 + 3v3 ,

v = 2v1 + v2 v3 ,

w = v1 + 2v2 + v3 ,

dimostrare che costituiscono una base di V3 .


Soluzione

Si tratta di dimostrare che il rango della matrice:

1 1
3
1 1
A= 2
1
2
1

e` 3. Riducendola per righe si ha:

1 1
3

1 1

2
1 1
R2 R2 + R1
3
0
A=
1
2
1
R3 R3 + 2R1
3
0

1 1

3
0
R3 R3 R2
0
0

3
2 ,
5

3
2
7

Calcolo Vettoriale

96

da cui la tesi.
Esercizio 3.4 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = 2v1 + v2 v3 , v = v1 + v3 , w = v1 + v2 2v3 .
Verificare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come combinazione lineare dei rimanenti.
Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefficienti reali
, e e la si ponga uguale al vettore nullo:
u + v + w = o.
Sostituendo nella combinazione lineare lespressione dei vettori scritta rispetto alla base
B, si ha:
(2v1 + v2 v3 ) + (v1 + v3 ) + (v1 + v2 2v3 )
= (2 + + )v1 + ( + )v2 + ( + 2)v3 = o.
Si e` cos` ottenuta una combinazione lineare dei vettori della base B che e` uguale al vettore
nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefficienti
di tale combinazione lineare devono essere nulli, ossia:

2 + + = 0
+ =0

+ 2 = 0.
Il sistema lineare omogeneo cos` ottenuto ha matrice dei coefficienti:

2 1
1
1 .
A= 1 0
1 1 2
Riducendo A per righe si ha:

2 1
1
2

1
1
A= 1 0
R3 R3 R1
1 1 2
3

1
R3 R3 + 3R2
0

1
0
0

1
1
0
1
0 3

1
1 ,
0

ossia rank(A) = 2. Il sistema lineare omogeneo ammette, quindi, infinite soluzioni date
da (, , ), R. I vettori u, v, w sono perci`o linearmente dipendenti e quindi, posto
per esempio = 1, si ottiene u = v + w. Come gi`a osservato nella dimostrazione del
Teorema 3.8, si noti che la matrice A ha come colonne le componenti dei vettori u, v, w.

Capitolo 3

3.5

97

Il cambiamento di base in V3

Il problema del cambiamento di base in V3 consiste nel determinare la relazione che


intercorre tra le componenti di un qualsiasi vettore scritto rispetto a due basi diverse,
precedentemente assegnate.
Siano date due basi B = (v1 , v2 , v3 ) e B 0 = (v10 , v20 , v30 ) di V3 . Ogni vettore x V3 si
scrive in componenti, rispetto alla due basi, nella forma:
x = x1 v1 + x2 v2 + x3 v3 = x01 v10 + x02 v20 + x03 v30 .

(3.10)

Usando la notazione matriciale introdotta nel paragrafo precedente, si indichino con:

0
x1
x1
(3.11)
X = x2 , X 0 = x02
0
x3
x3
le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base B 0 e`
nota quando sono note le componenti dei suoi vettori rispetto alla base B, ossia:
0
v1 = p11 v1 + p21 v2 + p31 v3
v0 = p12 v1 + p22 v2 + p32 v3
(3.12)
20
v3 = p13 v1 + p23 v2 + p33 v3 .
In altri termini, la base B 0 e` nota quando e` assegnata la matrice:

p11 p12 p13


P = p21 p22 p23 .
p31 p32 p33
P e` invertibile perche le sue colonne sono le componenti di vettori linearmente indipendenti. La matrice P prende il nome di matrice del cambiamento di base da B a B 0 ed e`
0
spesso anche indicata come P = M B,B proprio per mettere maggiormente in evidenza
la sua interpretazione geometrica. La scelta di porre in colonna, anziche in riga, le componenti dei vettori della base B 0 rende i calcoli pi`u agevoli. Le equazioni (3.12) in forma
matriciale diventano:
0

v1
v1
v20 = tP v2 .
v30
v3
Sostituendo questa espressione in (3.10) si ha:

0
v
1

 v1
x = x1 x2 x3 v2 = x01 x02 x03 v20 =
v30
v3

x01 x02

v
1

x03 tP v2 .
v3

Calcolo Vettoriale

98

Dal Teorema 3.5 segue:




x1 x2 x3

x01 x02 x03

t
P,

da cui, considerando la trasposta di ambo i membri:

0
x1
x1
x2 = P x02 .
x3
x03

Usando le notazioni di (3.11) si ottiene:


X = P X 0,
che sono le relazioni richieste e che prendono il nome di equazioni del cambiamento di
base da B a B 0 .
Osservazione 3.11
1. E` chiaro che se si esprimono i vettori della base B in componenti rispetto alla base B 0 si ottiene la matrice inversa P 1 , infatti le equazioni del
cambiamento di base da B 0 a B sono X 0 = P 1 X.
2. Si pu`o trattare in modo analogo il problema del cambiamento di base nel caso del
piano vettoriale V2 . La matrice del cambiamento di base sar`a una matrice invertibile
di ordine 2.
3. Nel caso della retta vettoriale V1 ogni numero reale non nullo esprime la componente del vettore della base B 0= (v10 ) rispetto alla base B = (v1 ). Se per esempio
v10 = 2v1 , allora P = 2 , mentre le equazioni del cambiamento di base si
riducono allunica equazione: x1 = 2x01 o x01 = 1/2 x1 . Infatti:
x = x 1 v1 =

x01 v10


=


1
x1 2v1 .
2

Esercizio 3.5 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:


u = 2v1 + v2 + v3 ,

v = v1 + 2v2 + v3 ,

w = v1 v2 2v3 ,

z = v1 2v2 + v3 .

Verificare che B 0 = (u, v, w) e` una base di V3 e trovare le componenti di z rispetto alla


base B 0 .

Capitolo 3

99

Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono,
rispettivamente, le componenti dei vettori u, v, w.

2 1
1
2 1 R2 R2 + 2R1
P = 1
1
1 2
R3 R3 + R1

2 1
1
2 1

0
1
5
0
R3 R3 + R2
3
0 1
8
0

1
1 .
0

Allora rank(P ) = 3, quindi i vettori u, v, w sono linearmente indipendenti. La matrice


P e` pertanto la matrice del cambiamento di base dalla base B alla base B 0. Si devono
determinare le componenti x01 , x02 , x03 del vettore z rispetto alla base B 0 , ossia:
z = x01 u + x02 v + x03 w.
Si tratta di risolvere lequazione matriciale X = P X 0 , dove:

0
1
x1
0

x02 ,
X = 2 , X =
1
x03
che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da
B a B0 :
0
2x1 x02 + x03 = 1
x0 + 2x02 x03 = 2
10
x1 + x02 2x03 = 1.
Riducendo per righe la matrice completa si ha:

2 1
1 1
2 1
1 1

1
2 1 2 R2 R2 + 2R1 5
0
1 4
R3 R3 + R2
1
1 2
1
R3 R3 + R1
3
0 1
0

2 1
5
0
8
0

3 1
5
0
2
0

1 1
2 1

1 4
5
0
R3 (1/4)R3
0 4
2
0

1 1

1 4
R1 R1 R2
0 1

0 2
0
1 4 R1 2R1 + 3R3 0
0
0 1
R2 2R2 5R3
2
0

0
3
2 3 .
0 1

Calcolo Vettoriale

100

Si perviene alla soluzione:

x
=

3
x02 =

x03 = 3 .
2
Allora:
3
3
1
z = u v w.
2
2
2

3.6

Angolo tra due vettori

Nei paragrafi precedenti si sono considerati solo il parallelismo e la complanarit`a di vettori


ma non langolo che questi formano; per esempio non e` stata trattata lortogonalit`a tra
vettori. Per prendere in considerazione questaspetto geometrico e` necessario introdurre
la nozione precisa di angolo tra due vettori nel modo seguente.

Definizione 3.9 In V3 , considerati due vettori non nulli x = OA, y = OB , scelti i


c tra i due
rispettivi rappresentanti con lestremo O in comune, si definisce angolo xy
c di vertice O e compreso tra i segmenti OA,
vettori x e y langolo convesso = xy
OB . Di conseguenza 0 . La situazione geometrica e` illustrata nella Figura 3.9.
Inoltre:
se = 0 o se = i vettori x e y si dicono paralleli.
Se =

i vettori x e y si dicono ortogonali (o perpendicolari).


2

Langolo tra il vettore nullo o e un qualunque altro vettore pu`o assumere qualsiasi
valore, vale a dire il vettore nullo si pu`o considerare parallelo e ortogonale ad ogni
altro vettore.
Si osservi che se = 0 i due vettori x e y hanno verso concorde, mentre se =
il verso e` discorde. Nel Paragrafo 3.7.2 si dimostrer`a che la definizione geometrica di
parallelismo di due vettori, intendendosi come tali due vettori che formano un angolo
= 0 o = , coincide con la dipendenza lineare dei due vettori.

Capitolo 3

101

Figura 3.9: Angolo tra i due vettori x e y

3.7

Operazioni non lineari tra vettori

In questo paragrafo saranno introdotte tre particolari operazioni tra vettori di V3 che
coinvolgono la nozione di angolo, e precisamente:
1. il prodotto scalare tra due vettori (che a due vettori associa un numero reale);
2. il prodotto vettoriale o esterno tra due vettori (che a due vettori associa un vettore);
3. il prodotto misto tra tre vettori (che a tre vettori associa un numero reale).
Esse sono dette non lineari perche prevedono operazioni con le componenti dei vettori
che non sono di primo grado.

3.7.1

Il prodotto scalare di due vettori

Il prodotto scalare, introdotto in questo paragrafo, e` una particolare operazione tra due
vettori mediante la quale sar`a possibile calcolare la norma di ogni vettore e individuare
langolo tra essi formato. Inoltre, la sua particolare espressione permetter`a di estenderla
anche al caso di spazi vettoriali di dimensione superiore a tre, ma questo argomento sar`a
trattato nel Capitolo 5.
Definizione 3.10 Il prodotto scalare x y di due vettori x e y in V3 in V3 e` la funzione:
: V3 V3 R

Calcolo Vettoriale

102

cos` definita:
c
x y = kxkkyk cos(xy).

(3.13)

Osservazione 3.12
1. La definizione di prodotto scalare di due vettori, appena introdotta, coinvolge solo la lunghezza dei due vettori dati e langolo da essi formato,
quindi pu`o essere ripetuta, allo stesso modo, per i vettori di un piano vettoriale V2 .
Vale a dire:
c
: V2 V2 R, x y = kxkkyk cos(xy).
2. Per definizione, il risultato del prodotto scalare di due vettori pu`o essere un numero
reale qualsiasi il cui segno e` esclusivamente legato allampiezza dellangolo tra i
due vettori. Precisamente se x e y sono due vettori entrambi non nulli si ha:
a. 0 <

se e solo se x y > 0;
2

< se e solo se x y < 0;


2

c. se =
allora x y = 0.
2

b.

Se, invece, uno almeno dei due vettori x e y e` il vettore nullo, allora x y = 0.
3. Da (3.13), ponendo x = y, si ottiene la formula che permette di calcolare la norma
del vettore x:

kxk = x x.
4. Da (3.13) segue lespressione del coseno dellangolo tra due vettori non nulli x e
y, in funzione del valore del loro prodotto scalare e delle loro norme:
c =
cos(xy)

xy
.
kxkkyk

Il teorema che segue, la cui dimostrazione e` una semplice conseguenza delle osservazioni
precedenti, e` per`o estremamente importante perche esprime una condizione equivalente
allortogonalit`a di due vettori.
Teorema 3.9 Due vettori di V3 sono ortogonali se e solo se il loro prodotto scalare e`
uguale a zero, in formule:
xy

x y = 0,

x, y V3 .

Si procede ora con lo studio dellinterpretazione geometrica del numero reale che esprime
il prodotto scalare tra due vettori, nel caso in cui questo non sia uguale a zero.

Capitolo 3

103

B
y

Figura 3.10: Vettore proiezione ortogonale di y su x con x y > 0

B
y

Figura 3.11: Vettore proiezione ortogonale di y su x con x y < 0

104

Calcolo Vettoriale

Teorema 3.10 Significato geometrico del prodotto scalare Il prodotto scalare di


due vettori di V3 e` il prodotto della lunghezza di uno dei due vettori per la proiezione
ortogonale con segno dellaltro vettore sul primo.
Dimostrazione Segue da teoremi elementari di trigonometria. Dati due vettori x e y
non nulli e non ortogonali (in caso contrario il prodotto scalare si annulla) e` necessario
distinguere due casi:

,
2

c> .
b. = xy
2
c<
a. = xy

In entrambi i casi, considerando i vettori x e y rappresentati mediante segmenti orientati

aventi un estremo in comune, ossia ponendo x = OA e y = OB si ha:


x y = kxk OH,

(3.14)

dove H e` la proiezione ortogonale di B sulla retta OA. Pertanto il prodotto scalare di


x e di y coincide con il prodotto della norma di x per la proiezione ortogonale di y su
x. Nel primo caso OH e` proprio la lunghezza del segmento proiezione ortogonale di
OB sulla retta OA, nel secondo caso OA e` lopposto di tale lunghezza. La situazione
geometrica e` illustrata nelle Figure 3.10 e 3.11. Da notare che i ruoli dei vettori x e y
possono essere scambiati, nel senso che il loro prodotto scalare e` anche pari alla norma di
y per la proiezione ortogonale, con segno, di x su y.
Teorema 3.11 Vettore proiezione ortogonale Dati due vettori x e y non nulli, il
vettore proiezione ortogonale di y su x e` :
p=

xy
x.
kxk2

(3.15)

Il vettore proiezione ortogonale di x su y e` :


p0 =

xy
y.
kyk2

Il vettore proiezione ortogonale di y su x e` , quindi, un vettore parallelo a x, mentre il


vettore proiezione ortogonale di x su y e` un vettore parallelo a y.
Dimostrazione E` una facile conseguenza del teorema precedente. Innanzi tutto e` evidente che x e y sono ortogonali se e solo se p = p0 = o. Se x e y non sono ortogonali,

Capitolo 3

105

allora la lunghezza (con segno) della proiezione ortogonale di x su y si ricava da (3.14)


ed e` :
xy
OH =
,
kxk
che coincide con la norma, con segno, del vettore p. Tenendo conto che, per costruzione,
p e` parallelo a x si ha la tesi. La situazione geometrica e` illustrata nelle Figure 3.10 e
3.11. Il vettore p0 si ottiene in modo analogo a p scambiando i ruoli di x e di y.
Rimane da determinare lespressione del prodotto scalare tra due vettori usando le loro
componenti, rispetto ad una base di V3 fissata, ma per fare ci`o e` necessario ricavare le
propriet`a del prodotto scalare in relazione alla somma di vettori e al prodotto di un numero
reale per un vettore.
Teorema 3.12 Il prodotto scalare tra due vettori gode delle seguenti propriet`a:
1. x y = y x,

x, y V3 ,

2. x (y1 + y2 ) = x y1 + x y2 ,

x, y1 , y2 V3 ,

3. (x y) = (x) y = x (y),

R, x, y V3 .

Dimostrazione

1. E` conseguenza immediata della definizione di prodotto scalare.

2. La dimostrazione si evince dalle Figure 3.12 e 3.13. In entrambi i casi sono rap

presentati i vettori con i punti indicati, in particolare y1 = AB e y2 = BC , quindi

y1 + y2 = AC . Dal Teorema 3.10 segue:


x y1 = kxk AH,

x y2 = kxk HK,

x (y1 + y2 ) = kxk AK,

tenendo conto del segno legato alle lunghezze delle proiezioni ortogonali, si perviene alla tesi.
3. Occorre distinguere tre casi:
a. = 0;
b. > 0;
c. < 0.
I primi due casi sono molto semplici e vengono lasciati per esercizio.
Se < 0 si ha:
\ = ||kxkkyk cos((x)y)
\ = ||kxkkyk cos(xy),
c
(x)y = k(x)kkyk cos((x)y)
in quanto, essendo < 0, langolo formato dai vettori x e y e` supplementare
dellangolo formato dai vettori x e y.

Calcolo Vettoriale

106

y2
B

y1
A

x
H

Figura 3.12: x (y1 + y2 )

y2
H

K
y1
B
Figura 3.13: x (y1 + y2 )

Capitolo 3

107

Sia B = (v1 , v2 , v3 ) una base di V3 . Dati i vettori:


x = x1 v 1 + x2 v 2 + x3 v 3 ,

y = y1 v1 + y2 v2 + y3 v3

di V3 , tenendo conto delle propriet`a dimostrate nel Teorema 3.12, il calcolo del loro
prodotto scalare mediante le componenti, rispetto a B, risulta essere:
xy =

3
X

xi y j v i v j

i,j=1

da cui segue che il valore di x y dipende dai prodotti scalari tra i vettori della base B.
In altri termini, per calcolare il prodotto scalare tra due vettori e` necessario conoscere, in
modo preciso, langolo formato tra i vettori della base che si sta usando e la loro norma.
Per rendere pi`u agevoli i calcoli si impone, pertanto, la scelta di particolari basi in cui
siano noti a priori le lunghezze dei vettori che le compongono e gli angoli tra di essi.
Definizione 3.11
1. Una base B = (v1 , v2 , v3 ) di V3 si dice ortogonale se vi vj = 0
per ogni i, j = 1, 2, 3.
2. Una base B = (i, j, k) di V3 si dice ortonormale se:
a. i j = i k = j k = 0,
b. kik = kjk = kkk = 1,
ossia i vettori della base B sono versori a due a due ortogonali.
3. Una base B = (i, j) di un piano vettoriale V2 si dice ortonormale se:
a. i j = 0,
b. kik = kjk = 1,
ossia i vettori della base B sono versori ortogonali.
4. Una base B = (i) di una retta vettoriale V1 si dice ortonormale se kik = 1, ossia
se e` formata da un versore.
Osservazione 3.13
1. Una base ortonormale e` , quindi, una base ortogonale i cui vettori sono anche versori.
2. E` evidente che sia nello spazio vettoriale V3 sia in ogni piano vettoriale V2 sia in
ogni retta vettoriale V1 esistono infinite basi ortonormali.

Calcolo Vettoriale

108

3. Le basi ortonormali nello spazio vettoriale V3 possono essere schematizzate nei


due grafici rappresentati nella Figura 3.14. Si osservi che la definizione di base
ortonormale in V3 non permette di distinguere tra le due situazioni geometriche,
per questo si dovr`a attendere il concetto di prodotto vettoriale, definito nel Paragrafo
3.7.2.
4. Le basi ortonormali in un piano vetttoriale V2 possono essere schematizzate nei
due grafici rappresentati nella Figura 3.15. Si osservi che, anche in questo caso,
la definizione di base ortonormale in V2 non permette di distinguere tra le due
situazioni geometriche.

j
i
i

Figura 3.14: Basi ortonormali in V3

i
i

Figura 3.15: Basi ortonormali in V2

Capitolo 3

109

Usando la definizione di base ortonormale e` possibile semplificare il calcolo del prodotto


scalare tra due vettori, come risulta dal teorema seguente.
Teorema 3.13 Prodotto scalare in componenti Sia B = (i, j, k) una base ortonormale di V3 e siano:
x = x1 i + x2 j + x3 k,

y = y1 i + y2 j + y3 k

due vettori di V3 le cui componenti possono essere rappresentate dalle matrici colonne:

x1
y1
X = x2 , Y = y2 .
x3
y3
Il prodotto scalare tra i vettori x e y e` dato da:
x y = x1 y1 + x2 y2 + x3 y3 = tX Y.
La norma del vettore x e` :
kxk =

x21 + x22 + x23 = tXX.

Il coseno dellangolo formato dai vettori x e y e` :


t
XY
x1 y1 + x2 y2 + x3 y3
p

c = p
=
.
cos(xy)
tXX
tY Y
x21 + x22 + x23 y12 + y22 + y32

Dimostrazione La dimostrazione segue in modo evidente dalle propriet`a del prodotto


scalare e dalla definizione di base ortonormale.
Osservazione 3.14
1. Si pu`o ripetere il Teorema 3.13 nel caso particolare di un piano vettoriale V2 . Precisamente, se B = (i, j) e` una base ortonormale di un piano
vettoriale V2 e x = x1 i + x2 j e y = y1 i + y2 j sono due vettori di V2 , allora:
x y = x1 y1 + x2 y2 ,
p
kxk = x21 + x22 ,
x1 y1 + x2 y2
p
c =p
cos(xy)
.
x21 + x22 y12 + y22

Calcolo Vettoriale

110

2. In V3 , dati una base ortonormale B = (i, j, k) e un vettore x = x1 i + x2 j + x3 k si


ha:
i x = x1 , j x = x2 , k x = x3 .
Tenendo conto del significato geometrico del prodotto scalare, ne segue che le componenti di un vettore, rispetto ad una base ortonormale, coincidono con le lunghezze
(con segno) delle proiezioni ortogonali del vettore lungo le rette vettoriali individuate dai vettori della base. La situazione geometrica e` illustrata nella Figura 3.16. In
formule si ha:
x = (x i)i + (x j)j + (x k)k.
Calcolando, invece, il coseno degli angoli formati dal vettore x con i vettori della
base ortonormale B si ha:
b = x2 , cos(kx)
c = x3 .
b = x1 , cos(jx)
cos(ix)
kxk
kxk
kxk
I coseni appena determinati sono a volte indicati con il temine coseni direttori del
vettore x per sottolineare che la direzione di x e` individuata dagli angoli formati da
x con i tre vettori della base. Dallespressione dei coseni direttori appena ricavata
segue:
b + cos2 (jx)
b + cos2 (kx)
c = 1.
cos2 (ix)
(3.16)
3. Il punto precedente si pu`o ripetere, in modo totalmente analogo, nel caso di un
piano vettoriale V2 , riferito ad una base ortonormale B = (i, j). In particolare la
formula (3.16) si riduce a:
b + cos2 (jx)
b = 1,
cos2 (ix)
che coincide con la ben nota relazione di trigonometria piana sin2 + cos2 = 1
valida per un angolo qualsiasi. La situazione geometrica e` illustrata nella Figura
3.17.
Esercizio 3.6 In V3 , rispetto ad una base ortonormale B = (i, j, k), sono dati i vettori
u = (2, 1, 3) e v = (0, 2, 3), determinare il vettore x simmetrico di u rispetto a v.
Soluzione Indicato con p il vettore proiezione ortogonale di u su v, il vettore x,
simmetrico di u rispetto a v, e` tale che:
x + u = 2p.
Dallespressione del vettore proiezione ortogonale (3.15) si ha:
p=

11
uv
v=
(0, 2, 3),
2
kvk
13

Capitolo 3

111

x
x3

x1

x2

Figura 3.16: Componenti di x rispetto a B = (i, j, k)

x2

x1

Figura 3.17: Componenti di x rispetto a B = (i, j)

Calcolo Vettoriale

112

quindi:


31 27
x = 2p u = 2, ,
.
13 13
Esercizio 3.7

1. In V3 , riferito ad una base ortonormale B = (i, j, k), i vettori:


a = (1, 2, 0),

b = (0, 1, 1)

possono rappresentare i lati di un rettangolo?


2. Determinare i vettori v paralleli alle altezze del parallelogramma individuato da a
e da b.
Soluzione 1. I vettori a e b possono rappresentare i lati di un rettangolo se e solo se
sono ortogonali, ma a b = 2, quindi a e b possono rappresentano i lati di un
parallelogramma non rettangolo.
2. Si determina il vettore h rappresentato nella Figura 3.18 e si lascia al Lettore il
calcolo degli altri vettori che risolvono il problema. Per costruzione, se p indica il
vettore proiezione ortogonale di b su a si ha:
p + h = b.
Da (3.15) segue:
p=
da cui:

2
ba
a = (1, 2, 0)
2
kak
5



2 1
h = b p = , ,1 .
5 5

h
p

a
Figura 3.18: Esercizio 3.7

Capitolo 3

3.7.2

113

Il prodotto vettoriale di due vettori

Il prodotto vettoriale di due vettori, oggetto di questo paragrafo, e` unoperazione particolare tra due vettori che, a differenza del prodotto scalare, pu`o essere solo definita sullo
spazio vettoriale V3 . Esistono opportune generalizzazioni di questa operazione a spazi
vettoriali di dimensione maggiore di 3, ma solo in alcuni casi particolari. Lo studio di
queste generalizzazioni non e` immediato e richiede nozioni inserite spesso in corsi pi`u
avanzati. In realt`a la definizione del prodotto vettoriale e` estremamente importante per
descrivere in Fisica la rotazione dei corpi e il momento angolare.
Definizione 3.12 Il prodotto vettoriale (o esterno) e` una funzione:
: V3 V3 V3 ,

(x, y) 7 x y.

Il vettore x y (che si legge x vettoriale y o x esterno y) e` cos` definito:


c
a. la norma di x y e` kx yk = kxk kyk sin(xy),
b. la direzione di x y e` ortogonale al piano vettoriale individuato da x e da y,
c. il verso di x y rispetta la cosiddetta regola della mano destra, ossia ponendo
lindice della mano destra parallelamente a x, il medio parallelamente a y, la
direzione assunta naturalmente dal pollice coincide con il verso di x y.

xy
y

Figura 3.19: Il prodotto vettoriale di x e di y

Calcolo Vettoriale

114

La situazione geometrica e` rappresentata nella Figura 3.19.


Osservazione 3.15 La definizione di prodotto vettoriale di due vettori x e y e` ancora
valida se entrambi i vettori o uno solo dei due e` il vettore nullo. Infatti si ha subito che,
in questo caso, kx yk = 0, rendendo di conseguenza non rilevanti le definizioni di
direzione e verso.
Come si pu`o immediatamente dedurre dalla definizione di prodotto vettoriale e dallosservazione precedente, il prodotto vettoriale di due vettori ha norma pari a zero non solo
nel caso in cui uno dei due vettori sia il vettore nullo o entrambi i vettori siano il vettore
nullo, infatti vale il seguente teorema la cui dimostrazione e` conseguenza evidente della
definizione di prodotto vettoriale.
Teorema 3.14 Due vettori x, y di V3 sono paralleli se e solo se il loro prodotto vettoriale
e` uguale al vettore nullo; in formule:
x k y x y = o.

C
y

H
A

Figura 3.20: Significato geometrico di kx yk


Nel caso in cui il prodotto vettoriale di due vettori non sia il vettore nullo, la sua norma
assume uninteressante significato geometrico, vale, infatti, il seguente teorema.
Teorema 3.15 Significato geometrico della norma del prodotto vettoriale La norma del prodotto vettoriale di due vettori e` pari al doppio dellarea del triangolo individuato da due segmenti orientati, rappresentanti dei vettori dati, aventi un estremo in
comune.

Capitolo 3

115


Dimostrazione Siano AB e AC rappresentanti dei vettori x e y rispettivamente. Con
riferimento alla Figura 3.20 e tenendo conto che:

[
kx yk = kABkkACk sin(BAC)
si ha la tesi.
Tramite il prodotto vettoriale di due vettori e` possibile calcolare il vettore proiezione ortogonale di un vettore qualsiasi di V3 su un piano vettoriale, precisamente si ha il seguente
teorema.
Teorema 3.16 Vettore proiezione ortogonale su un piano vettoriale Dati due vettori u, v di V3 linearmente indipendenti, il vettore p proiezione ortogonale di un generico
vettore x di V3 sul piano vettoriale individuato da u e da v e` dato da:
p=x

x (u v)
(u v).
ku vk2


Dimostrazione Siano AB, AC i segmenti orientati rappresentanti dei vettori u e v

rispettivamente. Sia AD rappresentante del vettore x. Dalla Figura 3.21 segue che
x = p + q. Ma il vettore q non e` altro che il vettore proiezione ortogonale di x su
u v. La tesi e` conseguenza, quindi, del Teorema 3.11.
Osservazione 3.16 Se in un piano vettoriale si considera una base ortogonale, non e` necessario usare la nozione di prodotto vettoriale di due vettori per determinare il vettore
proiezione ortogonale di ogni vettore di V3 su tale piano. Siano, infatti, a e b due vettori
ortogonali, ossia a b = 0, la proiezione ortogonale p di un generico vettore x di V3 sul
piano vettoriale individuato da a e da b e` data da:
p=

xb
xa
a+
b.
2
kak
kbk2

La formula appena citata e` facile conseguenza del Teorema 3.11, ma e` di grande importanza, perche si potr`a facilmente estendere a spazi vettoriali di dimensione superiore a 3
(cfr. Teor. 5.5).
Teorema 3.17 Il prodotto vettoriale tra due vettori gode delle seguenti propriet`a:
1. x y = y x,

x, y V3 ,

2. (x) y = x (y) = (x y),

x, y V3 , R,

Calcolo Vettoriale

116

uv

C
v
p
A

Figura 3.21: Vettore proiezione ortogonale su un piano vettoriale

Capitolo 3

3. x (y + z) = x y + x z,
Dimostrazione

117

x, y, z V3 .

1. E` ovvia conseguenza della definizione di prodotto vettoriale.

2. Occorre distinguere tre casi:


a. = 0;
b. > 0;
c. < 0.
I primi due casi sono molto semplici e vengono lasciati per esercizio.
Se < 0 si deve dimostrare per esempio che:
(x) y = (x y),

x, y V3 .

Trattandosi di unuguaglianza tra due vettori e` necessario dimostrare che i vettori


a primo e a secondo membro abbiano la stessa lunghezza, la stessa direzione e lo
stesso verso. Per la lunghezza si ha:
\ = ||kxk kyk sin( xy)
c = ||kx yk.
k(x) yk = k(x)k kyk sin((x)y)
Le verifiche riguardanti luguaglianza della direzione e del verso sono lasciate per
esercizio.
3. La dimostrazione di questa propriet`a e` proposta nellEsercizio 3.10.

Allo scopo di determinare lespressione del prodotto vettoriale in funzione delle componenti dei due vettori e` necessario, come per il calcolo del prodotto scalare, fissare una
base ortonormale di V3 , ma e` anche fondamentale, in questo caso, distinguere tra le due
possibili configurazioni di basi ortonormali schematizzate nella Figura 3.14. Nel primo
caso si osserva che i j = k, nel secondo caso, invece, i j = k. Si impone, quindi,
la necessit`a di introdurre la seguente definizione.
Definizione 3.13

1. Un base ortogonale B = (v1 , v2 , v3 ) di V3 si dice positiva se:


v1 v2 v3 > 0.

2. Un base ortogonale B = (v1 , v2 , v3 ) di V3 si dice negativa se:


v1 v2 v3 < 0.

Calcolo Vettoriale

118

3. Una base ortonormale B = (i, j, k) di V3 si dice positiva se:


i j = k,
cio`e se:
i j k = 1.
4. Una base ortonormale B = (i, j, k) di V3 si dice negativa se:
i j = k,
cio`e se:
i j k = 1.
Osservazione 3.17 Si osservi che la Definizione 3.13 pu`o essere enunciata anche nel
caso di una base qualsiasi, non necessariamente ortogonale o ortonormale.
Fissando una base ortonormale positiva e` possibile ricavare in modo agevole lespressione
del prodotto vettoriale di due vettori in componenti, come risulta dal seguente teorema.
Teorema 3.18 Prodotto vettoriale in componenti Sia B = (i, j, k) una base ortonormale positiva di V3 e siano:
x = x1 i + x2 j + x3 k,

y = y1 i + y2 j + y3 k

due vettori di V3 . Il prodotto vettoriale dei vettori x e y e` dato da:








x2 x3
x1 x3
x1 x2
i



x y =
y1 y3 j + y1 y2 k.
y2 y3
Dimostrazione

(3.17)

Essendo B = (i, j, k) una base ortonormale positiva si ha:


i j = k,

k i = j,

j k = i,

j i = k, i k = j, k j = i.
Inoltre dal Teorema 3.14 segue:
i i = j j = k k = o.
Tenendo conto delle uguaglianze appena trascritte e applicando le propriet`a del prodotto
vettoriale enunciate nel Teorema 3.17 si perviene facilmente alla tesi.

Capitolo 3

Osservazione 3.18
segue:

119

1. Si osservi che la formula (3.17) potrebbe essere scritta come



i j k


x y = x1 x2 x3 ,
(3.18)
y1 y2 y3
anche se lespressione a secondo membro e` priva di significato matematico, in quanto si indica il calcolo del determinante di un oggetto che non e` una matrice. Daltra
parte e` molto pi`u facile ricordare (3.18) anziche (3.17).
2. Si osservi che dal Teorema 3.14 e dalla formula (3.17) segue che, fissata una base
ortonormale positiva B = (i, j, k), due vettori:
x = x1 i + x2 j + x3 k,
sono paralleli se e solo se:

x2 x3

y2 y3

y = y1 i + y2 j + y3 k




x1 x3 x1 x2
=


y1 y3 = y1 y2 = 0.

Ci`o equivale a richiedere che le componenti dei due vettori siano a due a due proporzionali, ossia che i due vettori x e y siano linearmente dipendenti. A maggior
precisione si osservi che la condizione di dipendenza lineare letta sulle componenti
di due vettori e` stata a suo tempo ricavata rispetto ad una base qualsiasi di V3 e non
solamente rispetto ad una base ortonormale positiva. Infatti la dipendenza lineare
equivale al parallelismo di due vettori anche in dimensione superiore a 3, come sar`a
dimostrato nel Teorema 5.3.
Esercizio 3.8 Nel spazio vettoriale V3 , rispetto ad una base B = (i, j, k) ortonormale
positiva, sono dati i vettori:
a = (2, 1, 1),

b = (0, 1, 1).

Determinare tutti i vettori x di V3 tali che la loro proiezione ortogonale sul piano vettoriale generato da a e da b sia il vettore a + b.
Soluzione

I vettori richiesti sono dati da:


x = (a + b) + a b,

R,

dove:

i j k

a b = 2 1 1
0 1 1



1 1
=
1 1





i 2 1

0 1





j + 2 1

0 1



k = 2j + 2k.

Di conseguenza:
x = (a + b) + a b = (2, 2 2, 2 + 2),

R.

Calcolo Vettoriale

120

3.7.3

Il prodotto misto di tre vettori

Loperazione tra vettori che segue, e che e` anche lultima proposta, non e` nuova ma e`
definita tramite le operazioni di prodotto scalare e di prodotto vettoriale.
Definizione 3.14 Il prodotto misto di tre vettori nello spazio vettoriale V3 e` la funzione:
V3 V3 V3 R
cos` definita:
(x, y, z) 7 x y z.
E` chiaro dalla definizione appena scritta che le operazioni di prodotto vettoriale e di
prodotto scalare sono da eseguirsi nellordine indicato.
Il numero reale che si ottiene dal prodotto misto di tre vettori linearmente indipendenti
dello spazio vettoriale V3 ha un importante significato geometrico, come si evince dal
teorema che segue.

xy
D
H
z

A
x
B
Figura 3.22: Significato geometrico del prodotto misto di tre vettori

Capitolo 3

121

Teorema 3.19 Significato geometrico del prodotto misto Il prodotto misto di tre
vettori non complanari di V3 e` pari a 6 volte il volume, con segno, del tetraedro individuato da tre segmenti orientati, rappresentanti dei tre vettori dati, e aventi un estremo in
comune.

Dimostrazione
Siano AB, AC, AD tre segmenti orientati rappresentanti dei vettori
x, y, z rispettivamente. Essendo, per ipotesi, i tre vettori considerati linearmente indipendenti, si pu`o supporre che il punto D non appartenga al piano individuato dai punti
A, B, C . La situazione geometrica e` rappresentata nella Figura 3.22. Dalla definizione di
prodotto scalare si ha:
(x y) z = kx ykkzk cos((x\
y)z) = kx ykAH,

(3.19)

dove con AH si indica la lunghezza con segno della proiezione ortogonale del vettore
z su x y. Come e` noto, il segno della lunghezza della proiezione ortogonale dipende
dallampiezza dallangolo che il vettore z forma con il vettore x y, ossia se questo
angolo e` acuto il segno e` positivo (situazione geometrica descritta nella Figura 3.22), se
langolo e` ottuso il segno e` negativo. Non si considera il caso dellangolo retto perche,
se cos` fosse, il vettore z sarebbe complanare ai vettori x e y. Ricordando il significato
geometrico della norma del prodotto vettoriale di due vettori (cfr. Teor. 3.15) la formula
(3.19) diventa:
(x y) z = 2AABC AH = 6VABCD ,
dove AABC indica larea del triangolo ABC e VABCD il volume (con segno) del tetraedro
ABCD.
Osservazione 3.19
1. Dalla prima propriet`a del prodotto vettoriale del Teorema 3.17
e dalla prima propriet`a del prodotto scalare del Teorema 3.12 si ottengono le seguenti propriet`a del prodotto misto di tre vettori:
xyz=zxy

(3.20)

x y z = y x z.

(3.21)

2. Si osservi che il segno del prodotto misto di tre vettori x, y, z dipende dallordine
in cui sono considerati i tre vettori come si deduce da (3.21), mentre il valore assoluto del prodotto misto dei tre vettori non cambia, qualunque sia lordine in cui i
vettori sono considerati, infatti la medesima terna di vettori, qualunque sia lordine,
individua lo stesso tetraedro.
Nel caso in cui tre vettori di V3 siano complanari allora vale il seguente teorema la cui
dimostrazione e` una facile conseguenza delle definizioni e delle propriet`a del prodotto
vettoriale e del prodotto scalare ed e` lasciata al Lettore.

Calcolo Vettoriale

122

Teorema 3.20 Tre vettori di V3 sono complanari se e solo se il loro prodotto misto si
annulla.
Il teorema che segue permette di calcolare il prodotto misto mediante le componenti dei vettori e, di conseguenza, di controllare mediante il calcolo in componenti, che
lannullarsi del prodotto misto di tre vettori equivale alla loro dipendenza lineare.
Teorema 3.21 Prodotto misto in componenti Sia B = (i, j, k) una base ortonormale positiva di V3 e siano:
x = x1 i + x2 j + x3 k,

y = y1 i + y2 j + y3 k,

tre vettori di V3 . Il prodotto misto di x, y, z e` dato da:



x1 x2 x3

x y z = y1 y2 y3
z1 z2 z3
Dimostrazione
ponenti si ha:

z = z1 i + z2 j + z3 k

Dalle espressioni del prodotto vettoriale e del prodotto scalare in com-







x1 x3
x1 x2
x2 x3






xyz =
y2 y3 i y1 y3 j + y1 y2 k (z1 i + z2 j + z3 k)






x2 x3
x1 x3
x1 x 2
z
z +
z ,
=
y2 y3 1 y1 y3 2 y1 y2 3
dal Primo Teorema di Laplace (cfr. Teor. 2.17) segue la tesi.
Dal Teorema appena dimostrato e da tutte le propriet`a del calcolo del determinante di
una matrice quadrata di ordine 3, dimostrate nel Paragrafo 2.8, si ottengono le seguenti
propriet`a del prodotto misto, alcune delle quali sono gi`a state ricavate in precedenza e la
cui dimostrazione e` lasciata al Lettore per esercizio.
Teorema 3.22 Per il prodotto misto di tre vettori valgono le seguenti propriet`a:
1. x y z = x y z,

x, y, z V3 ;

2. x y z = z x y = y z x,

x, y, z V3 ;

3. x y z = 0 se e solo se i vettori x, y, z sono complanari.

Capitolo 3

123

Osservazione 3.20 La propriet`a 1. del Teorema 3.22 pu`o essere dimostrata, in generale,
indipendentemente dallespressione in componenti dei tre vettori x, y, z. E` facile dimostrare che, in valore assoluto, il primo membro di 1. coincide con il secondo membro,
in quanto i tre vettori individuano lo stesso tetraedro, pertanto, in valore assoluto, la propriet`a non esprime altro che il volume di questo tetraedro. Si perviene alluguaglianza dei
segni dei due membri se si osserva che il segno del prodotto misto della terna di vettori
x, y, z e` invariante per le loro permutazioni circolari. La dimostrazione completa si pu`o
leggere, per esempio, in [7].
Esercizio 3.9 Nello spazio vettoriale V3 , rispetto ad una base B = (i, j, k), ortonormale
positiva, sono dati i vettori:
a = (1, 0, 1),

b = (2, 1, 0),

c = (h, k, 2),

h, k R.

Assegnati ad h e a k i valori
per cui c e` parallelo al vettore ab, calcolare le componenti
del vettore x di norma 3, complanare ad a e a b e tale che il volume (con segno) del
tetraedro di spigoli a, c, x sia uguale a 2.
Soluzione Si ricava facilmente che a b = i 2j + k, quindi c e` parallelo a a b se
e solo se h = 2 e k = 4, da cui c = (2, 4, 2). Sia x = x1 i + x2 j + x3 k, x e` complanare
ad a e a b se e solo se x a b = 0 ossia, in componenti, se e solo se:


x1 x2 x3


1 0 1 = 0.
(3.22)


2 1 0
Il volume con segno del tetraedro individuato dalla terna ordinata dei vettori a, c, x e`
uguale a 2 se e solo se a c x = 12, che, in componenti, equivale a:


1 0 1


2 4 2 = 12.
(3.23)


x1 x2 x3

La norma del vettore x e` pari a 3 se e solo se:


x21 + x22 + x23 = 3.

(3.24)

Risolvendo il sistema formato dalle equazioni (3.22), (3.23) e (3.24) si ha x = (1, 1, 1).
Esercizio 3.10 Usando il prodotto misto di tre vettori, si dimostri la propriet`a distributiva
del prodotto vettoriale rispetto alla somma di vettori:
x (y + z) = x y + x z,

x, y, z V3 .

(3.25)

Calcolo Vettoriale

124

Soluzione

Dimostrare la propriet`a (3.25) equivale a provare che:


a [x (y + z)] = a (x y + x z),

x, y, z, a V3 ,

(3.26)

ovvero a dimostrare che la proiezione ortogonale del vettore a primo membro su un generico vettore a di V3 coincide con la proiezione ortogonale del vettore a secondo membro
sullo stesso vettore a di V3 . E` chiaro che ci`o e` vero solo perche il vettore a pu`o variare
tra tutti i vettori di V3 , questa affermazione e` palesemente falsa, in caso contrario. Per
verificare (3.26) e` sufficiente procedere applicando ripetutamente le varie propriet`a del
prodotto misto, del prodotto vettoriale e del prodotto scalare di vettori, precisamente si
ha:
a [x (y + z)] = (a x) (y + z)
= (a x) y + (a x) z
= axy+axz
= a (x y + x z).

3.8

Cambiamenti di basi ortonormali in V3 e in V2

Il teorema che segue permette di caratterizzare le matrici del cambiamento di base tra due
basi ortonormali.
Teorema 3.23 Sia B = (i, j, k) una base ortonormale di V3 , allora anche B 0 = (i0 , j0 , k0 )
e` una base ortonormale di V3 se e solo se la matrice P del cambiamento di base da B a
B 0 verifica la condizione:
t
P P = I,
(3.27)
dove I indica la matrice unit`a di ordine 3.
Dimostrazione Sia P = (pij ) la matrice del cambiamento di base ottenuta come
descritto nel Paragrafo 3.5, vale a dire:
0

i = p11 i + p21 j + p31 k


j0 = p12 i + p22 j + p32 k

0
k = p13 i + p23 j + p33 k.

(3.28)

Se sia B sia B 0 sono entrambe basi ortonormali allora:


kik2 = kjk2 = kkk2 = ki0 k2 = kj0 k2 = kk0 k2 = 1
i j = i k = j k = i0 j0 = i0 k0 = j0 k0 = 0.

(3.29)

Capitolo 3

125

Le precedenti relazioni, scritte in componenti, equivalgono alle seguenti equazioni:


ki0 k2 = p211 + p221 + p231 = 1,
kj0 k2 = p212 + p222 + p232 = 1,
kk0 k2 = p213 + p223 + p233 = 1,
i0 j0 = j0 i0 = p11 p12 + p21 p22 + p31 p32 = 0,

(3.30)

i0 k0 = k0 i0 = p11 p13 + p21 p23 + p31 p33 = 0,


j0 k0 = k0 j0 = p12 p13 + p22 p23 + p32 p33 = 0,
che equivalgono alluguaglianza, elemento per elemento, delle matrici:
0 0

i i
i0 j0 i0 k0

t
0
0
0
0
0
0
j

i
j

j
j

k
PP =

= I.

0
0
0
0
0
0
k i k j k k
Il viceversa si ottiene in modo analogo.
Osservazione 3.21
1. Si ricordi che le matrici P per cui vale la (3.27) prendono il
nome di matrici ortogonali (cfr. Par. 2.5), il Teorema 3.23 ne giustifica questa
particolare denominazione. Allora il Teorema 3.23 afferma che le matrici ortogonali caratterizzano il cambiamento di base tra basi ortonormali. Si osservi anche
che le colonne di una matrice ortogonale di ordine 3 sono i vettori di una base
ortonormale.
2. Applicando il Teorema di Binet (cfr. Teor. 2.16) a (3.27) si ha:
det(tP P ) = det(tP ) det(P ) = (det(P ))2 = det(I) = 1,
quindi:
det(P ) = 1.
Si perviene allo stesso risultato ricordando lespressione in componenti del prodotto
misto di tre vettori, infatti:
det(P ) = i0 j0 k0 = 1.
Quindi il cambiamento di base tra due basi ortonormali positive e` caratterizzato da una matrice ortogonale con determinante uguale a 1, in caso contrario il
determinante della matrice ortogonale e` 1.

Calcolo Vettoriale

126

3. Si osservi che e` fondamentale richiedere nel Teorema 3.23 che entrambe le basi B e
B 0 siano basi ortonormali, infatti le relazioni (3.30) non sarebbero valide se B non
fosse una base ortonormale (cfr. Teor. 3.13), anche se B 0 fosse ortonormale.
4. Il Teorema 3.23 e` valido anche nel caso del cambiamento di base tra due basi ortonormali in ogni piano vettoriale V2 , si studier`a di seguito linterpretazione
geometrica in questo caso particolare.
5. Il Teorema 3.23 propone unaltra interpretazione del prodotto righe per colonne di
matrici quadrate di ordine 3 e di ordine 2; infatti il prodotto di una riga per una
colonna pu`o essere considerato come il prodotto scalare tra la riga e la colonna se
i proprii elementi si interpretano come le componenti di un vettore rispetto ad una
base ortonormale.

j
i'

j'

i
Figura 3.23: Cambiamento di basi ortonormali in V2 , primo caso
Si consideri ora il caso particolare del cambiamento di base tra basi ortonormali in un
piano vettoriale V2 con lo scopo di determinare gli elementi della matrice ortogonale
P = (pij ) R2,2 che lo regola. Date due basi ortonormali B = (i, j) e B 0 = (i0 , j0 )
la seconda base si pu`o ottenere dalla prima in uno dei modi rappresentati nelle Figure
3.23, 3.24, 3.25. Si osservi che le prime due figure sono in realt`a dello stesso tipo e
corrispondono ad una rotazione che la base B compie per sovrapporsi alla base B 0 , invece
nella terza figura la base B deve effettuare un movimento di riflessione (non interno al
piano vettoriale V2 ) per sovrapporsi alla base B 0 .

Capitolo 3

127

j
j'

i'

Figura 3.24: Cambiamento di basi ortonormali in V2 , secondo caso

j
i'

j'

i
Figura 3.25: Cambiamento di basi ortonormali in V2 , terzo caso

128

Calcolo Vettoriale

Nel primo caso (cfr. Fig. 3.23) si ha:


0

i = cos i + sin j





j0 = cos + i + sin + j = sin i + cos j,


2
2
quindi la matrice del cambiamento di base da B a B 0 e` :


cos sin
P =
.
sin
cos

(3.31)

Si osservi che det(P ) = 1. In questo contesto, per mettere in evidenza la dipendenza


della matrice P dallangolo , e` preferibile usare la notazione:
P = R[].
Nel secondo caso (cfr. Fig. 3.24), con un procedimento analogo a quello appena descritto,
si ottiene:


cos sin
R[] =
,
(3.32)
sin cos
anche in questo caso det(R[]) = 1. Si osservi che la matrice (3.32) corrisponde alla
matrice (3.31) in cui al posto di si considera langolo .
Nel terzo caso (cfr. Fig. 3.25) si ha:

P =

cos
sin
sin cos


.

(3.33)

invece, in questo caso det(P ) = 1.


Si conclude, quindi, in modo totalmente coerente con ci`o che si e` ottenuto nel caso dello
spazio vettoriale V3 , che il cambiamento di base tra due basi ortonormali positive nel
piano vettoriale si ottiene mediante una matrice ortogonale con determinante pari a 1 e,
in caso contrario tramite una matrice ortogonale con determinante pari a 1.
Esercizio 3.11 Si dimostri che gli elementi di O(2), ovvero le matrici ortogonali di ordine 2, sono necessariamente o di tipo (3.31) o di tipo (3.33). Inoltre, si provi che
O(1) = {1, 1}.
Esercizio 3.12 In un piano vettoriale V2 , a partire da B = (i, j), base ortonormale positiva, si consideri il cambiamento di base ottenuto mediante una rotazione di angolo 1

Capitolo 3

129

che conduce alla base ortonormale positiva B 0 = (i0 , j0 ) mediante la matrice ortogonale
R[1 ]. A partire dalla base ortonormale positiva B 0 = (i0 , j0 ) si consideri la rotazione di
angolo 2 che conduce alla base ortonormale positiva B 00 = (i00 , j00 ) mediante la matrice
ortogonale R[2 ]. Si dimostri che la matrice del cambiamento di base dalla base ortonormale positiva B = (i, j) alla base ortonormale positiva B 00 = (i00 , j00 ), corrispondente alla
rotazione di angolo 1 + 2 , e` la matrice prodotto R[1 ]R[2 ]. Si ripeta lo stesso esercizio
dove, al posto delle rotazioni, si considerano riflessioni.

3.9

Esercizi di riepilogo svolti

Esercizio 3.13 Nello spazio vettoriale V3 si considerino i vettori x e y tali che:


kxk = 5,

kyk = 7,

kx + yk = 10.

Determinare kx yk.
Soluzione

Applicando la definizione e le propriet`a del prodotto scalare si ha:


kx + yk2 = (x + y) (x + y) = kxk2 + 2x y + kyk2 ,

daltra parte:
kx yk2 = (x y) (x y) = kxk2 2x y + kyk2
e quindi:
kx + yk2 + kx yk2 = 2 (kxk2 + kyk2 )
da cui:
kx yk2 = 2(25 + 49) 100 = 48.
Esercizio 3.14 Siano u, v, w vettori linearmente indipendenti di V3 . Dimostrare che se
z e` un vettore di V3 ortogonale a ciascuno di essi allora z = o.
Soluzione Osservato che (u, v, w) e` una base di V3 e` sufficiente dimostrare che se z e`
ortogonale ad un generico vettore:
x = u + v + w
di V3 , con , , R, allora z = o. Infatti si ha:
z x = z (u + v + w) = z u + z v + z w = 0,
in quanto, per ipotesi, z u = z v = z w = 0. In particolare z z = kzk2 = 0, quindi
z = o.

Calcolo Vettoriale

130

Esercizio 3.15 Dimostrare che, se i vettori a, b, c di V3 sono non nulli e a due a due
ortogonali, anche i vettori:
a b, b c, c a
sono non nulli e a due a due ortogonali.
Soluzione Per definizione di prodotto vettoriale di due vettori, a b e` ortogonale sia
ad a sia a b, quindi e` parallelo a c, da cui:
a b = c,
dove e` un numero reale non nullo. Analogamente si ha b c = a e c a = b
con 6= 0, 6= 0. Pertanto a b, b c, c a sono non nulli e a due a due ortogonali
essendo paralleli a vettori non nulli, a due a due ortogonali.
Esercizio 3.16 In V3 , dimostrare che, se i vettori a b, b c, c a sono linearmente
indipendenti anche i vettori a, b e c sono linearmente indipendenti.
Soluzione Se i vettori a, b, c fossero linearmente dipendenti essi sarebbero complanari
e quindi i vettori a b, b c, c a, per definizione di prodotto vettoriale, sarebbero
paralleli che e` assurdo.
Esercizio 3.17 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), sono dati i
vettori:
a = (h, 3h, 1), b = (0, 3, h), c = (1, 1, h), h R.
1. Determinare i valori di h per cui a, b, c non formano una base di V3 .
2. Determinare dei valori di h per cui esistono dei vettori x = (x1 , x2 , x3 ) tali che:
xa=b
e calcolarne le componenti.
Soluzione 1. I vettori a, b, c non formano una base di V3 se sono linearmente dipendenti, ossia se la matrice:

h 3h 1
3 h
A= 0
1
1 h
le cui righe sono date dalle componenti dei vettori a, b, c ha determinante uguale

a zero. Si ha che det(A) = h2 3, quindi i valori di h richiesti sono h = 3.

Capitolo 3

2. Da x a = b si ha:

131



i
j k

x1 x2 x3 = 3j + hk.


h 3h 1

Uguagliando ordinatamente le componenti del vettore a primo membro a quelle del


vettore a secondo membro si perviene al sistema lineare:

x2 3hx3 = 0
x1 hx3 = 3

3hx1 + hx2 = h,
che non ammette soluzioni se h 6= 0; invece se h = 0 i vettori x = (3, 0, t), per
ogni t R, verificano luguaglianza richiesta.

3.10

Per saperne di piu`

3.10.1

Unaltra definizione di vettore

In questo paragrafo viene introdotta una definizione di vettore pi`u rigorosa, che si basa
sul concetto di relazione di equivalenza e di classi di equivalenza.
Definizione 3.15 Due segmenti orientati AB e CD dello spazio S3 sono detti equipollenti se i punti medi dei segmenti AD e BC coincidono. La situazione geometrica e`
illustrata nella Figura 3.26.

B
Figura 3.26: Segmenti orientati equipollenti

Per indicare che i segmenti orientati AB e CD sono equipollenti si user`a la notazione


AB CD.

Calcolo Vettoriale

132

Teorema 3.24 La relazione di equipollenza e` una relazione di equivalenza.


Dimostrazione

E` sufficiente verificare che sono valide le seguenti propriet`a:

1. la propriet`a riflessiva: AB AB , per ogni coppia di punti A e B ;


2. la propriet`a simmetrica: se dati i segmenti orientati AB e CD per cui AB CD
allora CD AB ;
3. la propriet`a transitiva: se dati i segmenti orientati AB , CD ed EF tali che
AB CD e CD EF allora AB EF .
La dimostrazione segue dalla definizione di equipollenza ed e` lasciata per esercizio.
Di conseguenza, linsieme dei segmenti orientati dello spazio viene suddiviso nelle classi
di equivalenza determinate dalla relazione di equipollenza, dette classi di equipollenza,
ogni classe contiene tutti e soli i segmenti orientati equipollenti ad un segmento dato e
pu`o essere rappresentata da un qualsiasi segmento che ad essa appartiene. Allora si ha la
seguente definizione.
Definizione 3.16 Le classi di equipollenza dello spazio S3 sono dette vettori.
E` chiaro che la definizione intuitiva di vettore introdotta allinizio di questo capitolo
coincide con la definizione pi`u rigorosa di vettore appena enunciata.

3.10.2

Ulteriori propriet`a delle operazioni tra vettori

In questo paragrafo verranno riassunte alcune propriet`a delle operazioni tra vettori studiate in questo capitolo e non introdotte in precedenza, che anche se hanno conseguenze
importanti nello studio approfondito di argomenti di geometria e di fisica, possono essere
omesse ad una prima lettura.
Teorema 3.25 Sono valide le seguenti propriet`a per il prodotto vettoriale e scalare tra
vettori:
1. (x y) z = (x z) y (y z) x,

x, y, z V3 ;

2. (x y) (z w) = (w x y) z (z x y) w,

x, y, z, w V3 ;

3. (x y) (z w) = (x z)(y w) (x w)(y.z),

x, y, z, w V3 ;

4. (x y) z + (y z) x + (z x) y = o,

x, y, z V3 .

Capitolo 3

133

Dimostrazione
1. Si supponga che x, y, z siano vettori di V3 non complanari, negli
altri casi si lascia per esercizio la dimostrazione dellidentit`a 1. Il vettore
(x y) z e` ortogonale al vettore x y e quindi appartiene al piano vettoriale
individuato da x e da y. Esistono pertanto due numeri reali , tali che:
(x y) z = x + y.

(3.34)

Se si moltiplicano ambo i membri di (3.34) scalarmente per z, si ottiene a primo


membro:
(x y) z z = (x y) z z = 0
e a secondo membro:
x z + y z = 0,
da cui segue che e` possibile determinare un numero reale per cui:
= (y z),

= (x z).

Lidentit`a 1. e` dimostrata se si verifica che non dipende dalla scelta dei vettori
x, y, z. Supposto per assurdo che dipenda, ad esempio, da z, si ponga:
(x y) z = (z)[(x z)y (y z)x].

(3.35)

Scelto un vettore arbitrario a di V3 , moltiplicando scalarmente ambo i membri di


(3.35) per a, si ha:
(z a) (y x) = (z)[(x z)(y a) (y z)(x a)].

(3.36)

Scambiando nellidentit`a (3.36) i vettori z e a si ottiene:


(z)[(x z)(y a) (y z)(x a)] = (a)[(x z)(y a) (y z)(x a)].
Quindi si deduce che (a) = (z). In modo analogo si dimostra che non dipende
dai vettori x e w.
2. Segue da 1. sostituendo a z il vettore z w e scambiando i ruoli di x e y con z e
w, rispettivamente.
3. Segue da 1. moltiplicando scalarmente ambo i membri per w.
4. Segue da 1. in modo immediato.

134

Calcolo Vettoriale

Osservazione 3.22
1. Siano x, y, z vettori di V3 non complanari. Lidentit`a 1. del
Teorema 3.25 prende il nome di doppio prodotto vettoriale ed esprime il fatto che
il vettore (x y) z appartiene al piano vettoriale individuato dai vettori x e y.
E` evidente da questa identit`a che non vale, in generale, la propriet`a associativa del
prodotto vettoriale, infatti:
(x y) z 6= x (y z),
in quanto il vettore x (y z) appartiene al piano vettoriale individuato da y e da
z che, in generale, non coincide con il piano vettoriale individuato da x e da y.
2. Se nellidentit`a 3. del Teorema 3.25 si pone x = z e y = w si ha:
kx yk2 = kxk2 kyk2 (x y)2 .
La relazione appena ottenuta e` nota come identit`a di Lagrange. E` di grande importanza nello studio delle propriet`a delle superfici nello spazio, (cfr. per esempio [11]), in quanto esprime la norma del prodotto vettoriale di due vettori solo
in termini del loro prodotto scalare. E` anche doveroso osservare che lidentit`a di
Lagrange ha una dimostrazione elementare (che viene lasciata per esercizio) senza
necessariamente considerare la dimostrazione dellidentit`a 3.
3. La relazione 4. del Teorema 3.25 prende il nome di identit`a di Jacobi e riveste
unimportanza notevole nello studio delle algebre di Lie. Per maggiori approfondimenti sullargomento si vedano per esempio [2] o [13].

Capitolo 4
Spazi Vettoriali e Sottospazi Vettoriali
4.1

Spazi vettoriali

In questo paragrafo viene introdotta la definizione di spazio vettoriale, concetto su cui


si basa lalgebra lineare. Nel testo si studieranno, salvo avviso contrario, solo gli spazi
vettoriali costruiti sul campo dei numeri reali, cio`e solo spazi vettoriali reali. Cenni sugli
spazi vettoriali complessi sono stati inseriti nei paragrafi Per saperne di pi`u.
La definizione di spazio vettoriale trae origine dal ben noto esempio dellinsieme dei vettori V3 nello spazio tridimensionale ordinario, trattato nel capitolo precedente. Si intende
introdurre tale concetto in modo astratto con il duplice scopo di dimostrare teoremi dalle
conseguenze fondamentali nel caso dello spazio vettoriale ordinario V3 e di estendere tali
nozioni a spazi vettoriali di dimensione superiore a tre.
Definizione 4.1 Un insieme V si dice spazio vettoriale sul campo dei numeri reali R o
spazio vettoriale reale se sono definite su V le due operazioni seguenti:
A. la somma:
+ : V V V,

(x, y) 7 x + y

rispetto alla quale V ha la struttura di gruppo commutativo, ossia valgono le propriet`a:


1. x + y = y + x,

x, y V (propriet`a commutativa);

2. (x + y) + z = x + (y + z),
3. o V | x + o = x,

x, y, z V (propriet`a associativa);

x V (esistenza dellelemento neutro);

4. x V x V | x + (x) = o (esistenza dellopposto);


135

Spazi Vettoriali e Sottospazi Vettoriali

136

B. il prodotto per numeri reali:


R V V,

(, x) 7 x

per cui valgono le seguenti propriet`a:


1. (x + y) = x + y,

x, y V, R;

2. ( + )x = x + x,

x V, , R;

3. ()x = (x),
4. 1 x = x,

x V, , R;

xV.

Gli elementi di V prendono il nome di vettori e saranno, in generale, indicati con le


lettere minuscole in grassetto. Gli elementi di R prendono il nome di scalari, quindi il
prodotto di un numero reale per un vettore e` spesso anche detto prodotto di uno scalare
per un vettore. Lelemento neutro o di V e` detto vettore nullo, mentre il vettore x e`
lopposto del vettore x.
Osservazione 4.1 Si pu`o introdurre una definizione analoga di spazio vettoriale ma costruito su un qualsiasi campo, per esempio sul campo dei numeri razionali Q o dei numeri
complessi C. Nel caso della definizione su C, lo spazio vettoriale si dice anche spazio
vettoriale complesso.
Osservazione 4.2 E` chiaro che il campo dei numeri reali R e` un esempio evidente di
spazio vettoriale su R rispetto alle usuali operazioni di somma e di prodotto, come del
resto si otterrr`a come caso particolare dellEsempio 4.3, ma R e` anche un esempio di
spazio vettoriale sul campo dei numeri razionali Q.
Osservazione 4.3 Si osservi che le propriet`a B.1. e B.2., a differenza di quanto accade
per (R, +, ) con lusuale somma e prodotto di numeri reali, non possono essere chiamate propriet`a distributive del prodotto rispetto alla somma, in quanto esse coinvolgono elementi appartenenti ad insiemi diversi. Analogamente, la propriet`a B.3. non e` la propriet`a
associativa.
Verranno descritti di seguito gli esempi ritenuti pi`u significativi, si rimanda al Paragrafo
4.5 per ulteriori esempi ed esercizi.
Esempio 4.1 Si inizia con gli esempi che hanno dato il nome alla struttura di spazio
vettoriale appena definita. Gli insiemi dei vettori di una retta vettoriale V1 , di un piano
vettoriale V2 e dello spazio vettoriale ordinario V3 sono esempi di spazi vettoriali su R,
rispetto alle operazioni di somma di vettori e di prodotto di un numero reale per un vettore
definite nel Capitolo 3.

Capitolo 4

137

Esempio 4.2 Gli insiemi delle matrici Rm,n di m righe e n colonne, ad elementi reali,
definiti nel Capitolo 2, sono esempi di spazi vettoriali reali rispetto alle operazioni di
somma di matrici e di prodotto di un numero reale per una matrice l`a definite.
Esempio 4.3 Lesempio fondamentale:
Rn = {(x1 , x2 , . . . , xn ) | xi R, i = 1, 2, . . . , n}
e` un caso particolare dellesempio precedente ma, visto il ruolo fondamentale che avr`a in
tutto il testo, verr`a trattato a parte.
La somma di due n-uple (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) di Rn e` definita come:
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).
Il vettore nullo di Rn e` dato dalla n-upla (0, 0,. . ., 0) e lopposto del vettore (x1 , x2 ,. . ., xn )
e` il vettore (x1 , x2 , . . . , xn ). Il prodotto di un numero reale per un elemento
(x1 , x2 , . . . , xn ) di Rn e` definito da:
(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ).
Esempio 4.4 Il campo dei numeri razionali Q e` un esempio di spazio vettoriale su Q
(ma non su R), analogamente il campo dei numeri complessi C ha la struttura di spazio
vettoriale su se stesso e anche su R. Si lascia per esercizio la spiegazione dettagliata di
tali affermazioni.
Esempio 4.5 Linsieme delle funzioni reali di variabile reale F(R) = {f : R R} e`
un esempio di spazio vettoriale su R, dove la somma di due elementi f e g di F(R) e`
definita da:
(f + g)(x) = f (x) + g(x), x R
e il prodotto di un numero reale per una funzione f F(R) e` :
(f )(x) = (f (x)),

x R.

Si verifica facilmente che il vettore nullo e` la funzione nulla O, definita da O(x) = 0,


con x R, lopposto di f e` la funzione f definita in modo evidente:
(f )(x) = f (x),

x R.

Pi`u in generale, anche linsieme delle funzioni F(I, V ) = {F : I V } da un insieme


I qualsiasi ad uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R in
cui la somma di funzioni ed il prodotto di un numero reale per una funzione sono definite
come nel caso di F(R) ma considerando le operazioni dello spazio vettoriale V.

Spazi Vettoriali e Sottospazi Vettoriali

138

Esempio 4.6 Sia R[x] linsieme dei polinomi nella variabile x a coefficienti reali, ossia:
R[x] = {a0 + a1 x + . . . + an xn | n N, ai R, i = 0, 1, . . . , n},
(N = {0, 1, 2, . . .} indica linsieme dei numeri naturali). Le usuali operazioni di somma
di polinomi e di prodotto di un numero reale per un polinomio conferiscono a R[x] la
struttura di spazio vettoriale reale. Il vettore nullo e` dato dal numero reale 0 e lopposto
del polinomio p(x) = a0 + a1 x + a2 x2 + . . . + an xn e` il polinomio:
p(x) = a0 a1 x a2 x2 . . . an xn .
Vale il seguente teorema, il cui enunciato e` naturalmente intuibile.
Teorema 4.1 In uno spazio vettoriale reale V si ha:
1. il vettore nullo o e` unico;
2. per ogni vettore x V lopposto x e` unico;
3. se per x, y, z V si ha x + y = x + z, allora y = z;
4. x = o (con R e x V ) = 0 oppure x = o;
5. (1)x = x, per ogni x V.
Dimostrazione
4.5.

La dimostrazione, quasi un esercizio, si pu`o leggere nel Paragrafo

Osservazione 4.4 Linsieme {o} formato dal solo vettore nullo e` un esempio di spazio
vettoriale reale. Si osservi che e` lunico spazio vettoriale reale con un numero finito di
elementi.

4.2

Sottospazi vettoriali

La nozione di sottospazio vettoriale di uno spazio vettoriale reale, oggetto di questo paragrafo, intende estendere il concetto, gi`a considerato nel capitolo precedente, degli insiemi
dei vettori di una retta vettoriale V1 e di un piano vettoriale V2 visti come sottoinsiemi
dello spazio vettoriale V3 .

Capitolo 4

4.2.1

139

Definizione ed esempi

Definizione 4.2 Sia V uno spazio vettoriale reale, un sottoinsieme W V e` un sottospazio vettoriale di V se W e` uno spazio vettoriale rispetto alle stesse operazioni di V,
ossia se e` chiuso rispetto alle operazioni di somma e di prodotto per scalari definite in V,
vale a dire:
x, y W = x + y W,
R, x W = x W,
che equivale a:
, R, x, y W = x + y W.
Osservazione 4.5
1. Un sottoinsieme H di un gruppo G e` un sottogruppo se e` un
gruppo con il prodotto definito in G. Pertanto, poiche uno spazio vettoriale V e` un
gruppo commutativo rispetto alloperazione di somma, un sottospazio vettoriale W
di V e` un sottogruppo di V.
2. Segue dalla Definizione 4.2 e dalla propriet`a 4. del Teorema 4.1 che il vettore nullo
o di uno spazio vettoriale V deve necessariamente appartenere ad ogni sottospazio
vettoriale W di V.
Esempio 4.7 Ogni spazio vettoriale V ammette almeno due sottospazi vettoriali: V e
{o}. Essi coincidono se e solo se V = {o}. Tali sottospazi vettoriali si dicono improprii.
Esempio 4.8 Linsieme dei vettori ordinari di ogni piano vettoriale V2 e` un sottospazio
vettoriale dellinsieme dei vettori dello spazio V3 . Linsieme dei vettori di una retta vettoriale V1 e` un sottospazio vettoriale del piano vettoriale V2 che la contiene e ogni retta
vettoriale e` un sottospazio vettoriale di V3 .
Esempio 4.9 Si osservi che, nonostante Q sia un sottoinsieme di R, linsieme dei numeri
razionali Q (spazio vettoriale su Q) non e` un sottospazio vettoriale dello spazio vettoriale
reale R, in quanto su Q non e` definito lo stesso prodotto per scalari di R. Infatti, il
prodotto di un numero reale per un numero razionale non e` necessariamente razionale.
Esempio 4.10 Sia a R e fa : R R la funzione definita da fa (x) = ax; linsieme:
W = {fa F(R) | a R}
e` un sottospazio vettoriale dello spazio vettoriale reale F(R) introdotto nellEsempio
4.5. Infatti se fa , fb W , allora per ogni , R, si ha che fa + fb W, poiche
fa + fb = fa+b . La verifica e` lasciata al Lettore per esercizio.

140

Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.11 Sia R[x] lo spazio vettoriale dei polinomi nella variabile x a coefficienti
reali, introdotto nellEsempio 4.6. Sottospazi vettoriali notevoli di R[x] sono gli insiemi
dei polinomi di grado non superiore ad un numero intero positivo fissato n. In formule, si
indica con:
Rn [x] = {a0 + a1 x + a2 x2 + . . . + an xn | ai R, i = 0, 1, 2, . . . , n}
il sottospazio vettoriale dei polinomi di grado minore o uguale ad n. La verifica che
Rn [x] sia un sottospazio vettoriale di R[x] e` lasciata per esercizio. In particolare, quindi,
linsieme R e` un sottospazio vettoriale di R[x] in quanto pu`o essere visto come linsieme
dei polinomi di grado zero. In generale, linsieme dei polinomi di grado fissato n > 0
non e` un sottospazio vettoriale di R[x], anche se e` un sottoinsieme di Rn [x]. Infatti, per
esempio, linsieme dei polinomi di grado 3:
P = {a0 + a1 x + a2 x2 + a3 x3 R3 [x] | ai R, i = 0, 1, 2, 3, a3 6= 0}
non e` un sottospazio vettoriale di R3 [x] in quanto non contiene il vettore nullo di R3 [x].
Viene trattata ora la rappresentazione mediante equazioni dei sottospazi vettoriali dello
spazio vettoriale Rn . Per capire meglio la teoria, si inizia con un esercizio.
Esercizio 4.1 Dati i seguenti sottoinsiemi di R3 :
A = {(x1 , x2 , x3 ) R3 | 2x1 + 3x2 x3 = 0},
B = {(x1 , x2 , x3 ) R3 | 2x1 + 3x2 x3 = x2 + x3 = 0},
C = {(x1 , x2 , x3 ) R3 | 2x1 + 3x2 x3 = 5},
D = {(x1 , x2 , x3 ) R3 | 2x21 + 3x2 x3 = 0},
dire quali sono sottospazi vettoriali di R3 giustificando la risposta.
Soluzione A e` un sottospazio vettoriale di R3 . Infatti, siano (x1 , x2 , x3 ) e (y1 , y2 , y3 )
due elementi di A ossia tali che 2x1 + 3x2 x3 = 2y1 + 3y2 y3 = 0, si verifica che la
loro somma (x1 + y1 , x2 + y2 , x3 + y3 ) e` un elemento di A, vale a dire:
2(x1 + y1 ) + 3(x2 + y2 ) (x3 + y3 ) = 0,
che e` ovvia conseguenza dellappartenenza ad A di (x1 , x2 , x3 ) e di (y1 , y2 , y3 ). Analogamente si verifica che (x1 , x2 , x3 ) = (x1 , x2 , x3 ) e` un elemento di A per ogni
R e per ogni (x1 , x2 , x3 ) A.

Capitolo 4

141

Si dimostra in modo analogo che B e` un sottospazio vettoriale di R3 .


E` facile osservare che C non e` un sottospazio vettoriale di R3 perche non contiene il
vettore nullo di R3 , in altri termini lequazione lineare che definisce C non e` omogenea.
D non e` un sottospazio vettoriale di R3 , pur contenendo il vettore nullo di R3 , infatti dati
(1, 0, 2), (2, 0, 8) D la loro somma (3, 0, 10) non appartiene a D in quanto 23210 6= 0.
Lesercizio precedente suggerisce il seguente risultato di carattere generale.
Esempio 4.12 Esempio fondamentale di sottospazio vettoriale Linsieme delle soluzioni di un sistema lineare omogeneo di m equazioni in n incognite e` un sottospazio
vettoriale di Rn . La verifica, che e` conseguenza evidente dellesempio precedente, pu`o
essere anche ottenuta procedendo in modo sintetico. Infatti, usando la notazione matriciale di un sistema lineare omogeneo AX = O, con A Rm,n , X Rn,1 , O Rm,1 (cfr.
Par. 2.2.1), si ha che linsieme delle soluzioni del sistema lineare omogeneo AX = O
coincide con linsieme:
N (A) = {X Rn | AX = O},
dove si identifica Rn,1 con Rn . Dati X1 , X2 N (A), allora AX1 = AX2 = O. Si deve
dimostrare che X1 + X2 N (A) per ogni , R, ma:
A(X1 + X2 ) = AX1 + AX2 = O.
Il sottospazio vettoriale N (A) di Rn prende il nome di nullspace (o annullatore o nullificatore) della matrice A Rm,n .
Esercizio 4.2 Ogni sottospazio vettoriale, diverso da {o}, di uno spazio vettoriale reale
contiene sempre un numero infinito di vettori?
Si continua ora con un elenco di sottospazi vettoriali notevoli dello spazio vettoriale delle
matrici Rm,n . Le verifiche sono lasciate per esercizio.
Esempio 4.13 Il sottoinsieme D(Rn,n ) di Rn,n (spazio vettoriale delle matrici quadrate
di ordine n) formato dalle matrici diagonali, definito in (2.2), e` un sottospazio vettoriale
di Rn,n .
Esempio 4.14 Il sottoinsieme T (Rn,n ) di Rn,n delle matrici triangolari superiori, definite
in (2.6), e` un sottospazio vettoriale di Rn,n ; analoga affermazione vale per il sottoinsieme
delle matrici triangolari inferiori.

142

Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.15 Linsieme delle matrici simmetriche (cfr. (2.7)):


S(Rn,n ) = {A Rn,n | tA = A}
e` un sottospazio vettoriale di Rn,n , infatti se A1 , A2 S(Rn,n ) si ha che tA1 = A1 e
t
A2 = A2 , allora t (A1 + A2 ) = tA1 + tA2 = A1 + A2 , la dimostrazione della chiusura
rispetto al prodotto per un numero reale e` lasciata per esercizio.
Esempio 4.16 Linsieme delle matrici antisimmetriche (cfr. (2.8)):
A(Rn,n ) = {A Rn,n | tA + A = O}
e` un sottospazio vettoriale di Rn,n (per la dimostrazione si procede in modo analogo
allesempio precedente).
Osservazione 4.6 Si osservi che linsieme delle matrici ortogonali (cfr. (2.9)):
O(n) = {A Rn,n | tA A = I}
non e` un sottospazio vettoriale di Rn,n , perche non contiene il vettore nullo di Rn,n .
Osservazione 4.7 Si osservi che linsieme:
{A Rn,n | det(A) = 0}
non e` un sottospazio vettoriale di Rn,n , se n > 1. Perche?
Osservazione 4.8 Si osservi che linsieme:
{A Rn,n | tr(A) = 0}
e` un sottospazio vettoriale di Rn,n , mentre linsieme:
{A Rn,n | tr(A) = 2}
non lo e` .
Esempio 4.17 In R4 [x] si consideri linsieme W dei polinomi divisibili per 3x 1.
Si pu`o verificare che W e` un sottospazio vettoriale di R4 [x]. Infatti ogni polinomio
p(x) W e` della forma p(x) = (3x 1)q(x), con q(x) polinomio di grado 3. Quindi,
per ogni p1 (x) = (3x 1)q1 (x), p2 (x) = (3x 1)q2 (x) W e per ogni , R, si ha:
p1 (x) + p2 (x) = (3x 1)q1 (x) + (3x 1)q2 (x)
= (3x 1)(q1 (x) + q2 (x)) W.

Capitolo 4

4.2.2

143

Intersezione e somma di sottospazi vettoriali

Dati due sottospazi vettoriali W1 , W2 di uno spazio vettoriale reale V, si vuole stabilire
se la loro intersezione insiemistica e la loro unione insiemistica siano ancora sottospazi
vettoriali di V. Si inizia con il seguente teorema.
Teorema 4.2 Lintersezione insiemistica W1 W2 e` un sottospazio vettoriale di V.
Dimostrazione
E` immediata conseguenza delle definizioni di sottospazio vettoriale e
di intersezione insiemistica.
Esempio 4.18 Si considerino i sottospazi vettoriali di R3 :
W1 = {(x1 , x2 , x3 ) R3 | 3x1 + x2 + x3 = 0},
W2 = {(x1 , x2 , x3 ) R3 | x1 x3 = 0}.
La loro intersezione e` il sottospazio vettoriale:
W1 W2 = {(x1 , x2 , x3 ) R3 | 3x1 + x2 + x3 = x1 x3 = 0}
= {(a, 4a, a) R3 | a R}.
Esempio 4.19 In V3 , spazio vettoriale reale dei vettori ordinari, riferito ad una base
ortonormale positiva B = (i, j, k), i sottospazi vettoriali:
W1 = L(i, j),

W2 = L(i, k)

si intersecano nella retta vettoriale:


W1 W2 = L(i).
Si ricordi che la notazione L(a) indica linsieme di tutti i vettori che sono paralleli ad a,
analogamente L(a, b) indica linsieme dei vettori complanari ad a, b (cfr. Def. 3.5); nel
Paragrafo 4.3 si generalizzer`a questa notazione.
Osservazione 4.9 Lunione insiemistica di due sottospazi vettoriali di uno spazio vettoriale V non e` , in generale, un sottospazio vettoriale di V, come si deduce dagli esempi
prima citati. Infatti si ha:
nellEsempio 4.18 lunione W1 W2 non e` un sottospazio vettoriale di R3 perche, per
esempio, la somma di (1, 2, 5) W1 insieme con (2, 3, 2) W2 non appartiene a
W1 W2 ;
nellEsempio 4.19 il vettore v = (2i + 3j) + (4k) non appartiene a W1 W2 , pur essendo
somma di un vettore di W1 e di un vettore di W2 .

Spazi Vettoriali e Sottospazi Vettoriali

144

Esercizio 4.3 In quali casi lunione di due sottospazi vettoriali di uno spazio vettoriale V
e` un sottospazio vettoriale di V ?
Gli esempi precedenti giustificano la seguente definizione.
Definizione 4.3 Dati W1 e W2 sottospazi vettoriali di uno spazio vettoriale reale V, si
definisce somma di W1 e W2 linsieme:
W1 + W2 = {x1 + x2 | x1 W1 , x2 W2 }.
Teorema 4.3

1. W1 + W2 e` un sottospazio vettoriale di V.

2. W1 + W2 e` il pi`u piccolo sottospazio vettoriale di V contenente W1 e W2 .


Dimostrazione
1. Segue dalle definizioni di somma di sottospazi vettoriali e di sottospazio vettoriale.
2. W1 W1 + W2 in quanto i suoi elementi possono essere scritti come x + o, per
ogni x W1 , considerando il vettore nullo o come elemento di W2 . Dimostrazione analoga per W2 . La somma W1 + W2 e` il pi`u piccolo sottospazio vettoriale
contenente sia W1 sia W2 perche ogni altro sottospazio vettoriale con questa propriet`a deve necessariamente contenere tutte le combinazioni lineari di elementi di
W1 e di W2 e, quindi, deve contenere W1 + W2 .
La definizione di somma di due sottospazi vettoriali si estende in modo naturale a quella
di pi`u di due sottospazi vettoriali.
Definizione 4.4 Siano Wi , i = 1, 2, . . . , k , sottospazi vettoriali di uno spazio vettoriale
reale V. La loro somma e` data da:
W1 + W2 + . . . + Wk = {x1 + x2 + . . . + xk | xi Wi , i = 1, 2, . . . k}.
Anche in questo caso si pu`o dimostrare una propriet`a analoga al Teorema 4.3.
Si presti particolare attenzione ai seguenti esempi.
Esempio 4.20 Si considerino i sottospazi vettoriali di R3 :
W1 = {(x1 , x2 , 0) R3 | x1 , x2 R},
W2 = {(0, 0, x3 ) R3 | x3 R}.

Capitolo 4

145

Si verifica che W1 W2 = {o} e W1 + W2 = R3 . Ogni elemento (x1 , x2 , x3 ) R3


si scrive, in modo unico, come somma di un elemento di W1 e di un elemento di W2 ,
infatti:
(x1 , x2 , x3 ) = (x1 , x2 , 0) + (0, 0, x3 ).
Esempio 4.21 Si considerino i sottospazi vettoriali di R3 :
W1 = {(x1 , x2 , 0) R3 | x1 , x2 R},
Z2 = {(x1 , 0, x3 ) R3 | x1 , x3 R}.
Si verifica che W1 Z2 = {(x1 , 0, 0) R3 | x1 R} e W1 + Z2 = R3 . In questo
caso, per esempio, (1, 2, 3) R3 si pu`o scrivere in infiniti modi diversi come somma di
un elemento di W1 e di un elemento di Z2 , infatti:
(1, 2, 3) = (a, 2, 0) + (b, 0, 3), con a, b R | a + b = 1.
Ci`o suggerisce la seguente definizione.
Definizione 4.5 Siano W1 , W2 sottospazi vettoriali di uno spazio vettoriale reale V, la
loro somma W1 + W2 si dice diretta e si scrive:
W1 W2
se ogni vettore x W1 W2 si decompone in modo unico come x = x1 + x2 , con
x1 W1 e x2 W2 .
La precedente definizione si estende a pi`u di due sottospazi vettoriali nel modo seguente.
Definizione 4.6 Siano Wi , i = 1, 2, . . . k, sottospazi vettoriali di uno spazio vettoriale
reale V ; la loro somma si dice diretta e si scrive:
W1 W2 . . . Wk
se ogni vettore x W1 W2 . . . Wk si decompone in modo unico come:
x = x 1 + x2 + . . . + xk ,
con xi Wi , i = 1, 2, . . . k.
Sar`a utile la seguente definizione.

Spazi Vettoriali e Sottospazi Vettoriali

146

Definizione 4.7 W1 e W2 , sottospazi vettoriali di uno spazio vettoriale reale V, si dicono


supplementari in V se:
W1 W2 = V.
Osservazione 4.10 Dalla Definizione 3.5 segue che:
V3 = L(i) L(j) L(k) = L(i, j) L(k) = L(i, j) L(j + k) = . . . . . . .
In V3 esistono infiniti sottospazi vettoriali supplementari di L(i, j).
Teorema 4.4 Lo spazio vettoriale Rn,n delle matrici quadrate di ordine n si decompone
nel modo seguente:
Rn,n = S(Rn,n ) A(Rn,n ),
dove S(Rn,n ) indica il sottospazio vettoriale delle matrici simmetriche di Rn,n e A(Rn,n )
e` il sottospazio vettoriale delle matrici antisimmetriche, definiti negli Esempi 4.15 e 4.16.
Dimostrazione

Segue dalla scrittura:


1
1
A = (A + tA) + (A tA), con A Rn,n
2
2

e dal fatto che A + tA e` una matrice simmetrica, mentre A tA e` antisimmetrica.


Il seguente teorema caratterizza la somma diretta di due sottospazi vettoriali.
Teorema 4.5 La somma di due sottospazi vettoriali W1 e W2 di uno spazio vettoriale
reale V e` diretta se e solo se la loro intersezione W1 W2 si riduce al solo vettore nullo.
In formule:
W = W1 W2 W = W1 + W2

e W1 W2 = {o}.

Dimostrazione Sia W = W1 + W2 , si vuole provare che W = W1 W2 se e solo se


W1 W2 = {o}.
Si supponga che la somma dei due sottospazi vettoriali W1 + W2 = W sia diretta. Allora
ogni x W si scrive in modo unico come x1 + x2 , con x1 W1 e x2 W2 . Per
assurdo, se esistesse un vettore non nullo y W1 W2 allora lespressione:
x = (x1 + y) + (x2 y)
contraddirebbe lipotesi. Pertanto si ha W1 W2 = {o}.

Capitolo 4

147

Viceversa, si supponga che W1 W2 = {o} e che per assurdo la somma W1 + W2 = W


non sia diretta, ovvero che esista x W = W1 + W2 tale che:
x = x 1 + x2 = y1 + y2 ,
con x1 , y1 W1 , x2 , y2 W2 e x1 6= y1 oppure (o anche) x2 6= y2 . Segue che
x1 y1 = x2 + y2 W1 W2 da cui si perviene ad una contraddizione dellipotesi
W1 W2 = {o}.
Lesempio che segue mostra che il teorema precedente non pu`o essere esteso in modo
ovvio al caso della somma diretta di pi`u di due sottospazi vettoriali.
Esempio 4.22 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), si considerino i seguenti sottospazi vettoriali:
W1 = L(i, j);

W2 = L(i + k);

W3 = L(j + k).

E` chiaro che W1 W2 W3 = {o}, W1 W2 = W1 W3 = W2 W3 = {o}, e


W1 + W2 + W3 = V3 ma la loro somma W1 + W2 + W3 non e` diretta; per esempio:
i + j + k = [ai + (1 a)j] + [(1 a)i + (1 a)k] + (aj + ak), con a R,
contraddice la Definizione 4.6.
Il teorema (di cui si omette la dimostrazione) che caratterizza la somma diretta di pi`u di
due sottospazi vettoriali mediante le loro intersezioni, e` , infatti, il seguente.
Teorema 4.6 Sia V uno spazio vettoriale e siano W1 , W2 , . . . , Wk sottospazi vettoriali
di V, allora:
W = W1 W2 . . . Wk

W = W1 + W2 + . . . + Wk
ci + . . . + Wk ) = {o}, i = 1, 2, . . . k,
e Wi (W1 + W2 + . . . + W

ci indica che si deve escludere il sottospazio vettoriale Wi dalla somma).


(W
Per la dimostrazione si veda ad esempio [15].
Esercizio 4.4 Avvertenza Questo esercizio e` risolto a titolo di esempio per chiarire i
concetti appena esposti. Nel paragrafo successivo verr`a introdotto un metodo pi`u rapido
per risolvere problemi analoghi.

148

Spazi Vettoriali e Sottospazi Vettoriali

In R4 si considerino i sottospazi vettoriali:


W1 = {(x1 , x2 , x3 , x4 ) R4 | x1 + 2x2 + 3x3 + x4 = 0},
W2 = {(x1 , x2 , x3 , x4 ) R4 | x1 + x2 = x1 + x3 = x1 x2 + x3 = 0},
dimostrare che W1 W2 = R4 .
Soluzione Innanzi tutto si osservi che effettivamente W1 e W2 sono sottospazi vettoriali di R4 essendo definiti tramite sistemi lineari omogenei. La loro intersezione W1 W2
coincide con linsieme delle soluzioni del sistema lineare omogeneo formato da tutte le
equazioni che definiscono W1 e da tutte le equazioni che definiscono W2 , nel nostro caso
si ha:

x1 + 2x2 + 3x3 + x4 = 0

x1 + x2 = 0
x1 + x3 = 0

x1 x2 + x 3 = 0
le cui soluzioni, come spiegato nel Paragrafo 1.2, dipendono dal rango della matrice dei
coefficienti:

1
2 3 1
1
1 0 0
.
A=
1
0 1 0
1 1 1 0
Riducendo per righe la matrice A si ottiene rank(A) = 4 da cui segue W1 W2 = {o}.
Per dimostrare che W1 + W2 = R4 si devono scrivere esplicitamente le espressioni dei
vettori di W1 e di W2 . Nel primo caso, risolvendo lequazione che definisce W1 , si
ottiene che (x1 , x2 , x3 , x4 ) W1 se:
(x1 , x2 , x3 , x4 ) = (2t1 3t2 t3 , t1 , t2 , t3 ), con t1 , t2 , t3 R.
Invece, risolvendo il sistema lineare che definisce W2 , si ha che (x1 , x2 , x3 , x4 ) W2 se:
(x1 , x2 , x3 , x4 ) = (0, 0, 0, ), con R.
Si perviene alla tesi provando che un generico vettore (x1 , x2 , x3 , x4 ) R4 si pu`o scrivere come somma di un vettore di W1 e di un vettore di W2 , in altri termini dato
(x1 , x2 , x3 , x4 ) esistono opportuni valori di t1 , t2 , t3 , R per cui:
(x1 , x2 , x3 , x4 ) = (2t1 3t2 t3 , t1 , t2 , t3 + ).
Si ricavano infatti t1 , t2 , t3 , R dalla scrittura stessa. Il Teorema 4.5 e il calcolo
dellintersezione dei due sottospazi vettoriali assicurano che tali valori sono unici.

Capitolo 4

4.3

149

Generatori, basi e dimensione

In questo paragrafo saranno ripetute, nel caso di un generico spazio vettoriale reale V,
alcune definizioni e propriet`a gi`a enunciate nel caso particolare di V3 (cfr. Par. 3.4). Si e`
scelto questo approccio da un lato perche si ritiene didatticamente utile iniziare lo studio
di una teoria astratta e a volte ostica partendo dal caso, pi`u facile, dello spazio vettoriale
V3 , dallaltro perche si e` deciso di non far sempre riferimento al Capitolo 3 per rendere i
due capitoli indipendenti tra di loro e per non perdere la scansione logica del discorso.

4.3.1

Base di uno spazio vettoriale

Definizione 4.8 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, si dice che
un vettore x V e` combinazione lineare dei vettori v1 , v2 , . . . , vk se esistono k numeri
reali x1 , x2 , . . . xk tali che:
x = x1 v 1 + x2 v 2 + . . . + xk v k .
I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare.
Fissati i vettori v1 , v2 , . . . , vk in V si vogliono considerare tutte le loro combinazioni
lineari. Tale insieme indicato con:
L(v1 , v2 , . . . , vk ),
o con hv1 , v2 , . . . , vk i, in inglese prende il nome di span di v1 , v2 , . . . , vk , di cui
{v1 , v2 , . . . , vk }
e` il sistema (o insieme) di generatori. E` immediato dimostrare il seguente teorema.
Teorema 4.7 L(v1 , v2 , . . . , vk ) e` un sottospazio vettoriale di V ed e` il pi`u piccolo sottospazio vettoriale di V contenente i vettori v1 , v2 , . . . , vk .
Dimostrazione

E` un esercizio che segue dalla definizione di sottospazio vettoriale.

Osservazione 4.11 A differenza di ci`o che la notazione usata potrebbe far pensare, si
osservi che le combinazioni lineari dei vettori v1 , v2 , . . . , vk non dipendono dallordine
in cui si considerano i vettori v1 , v2 , . . . , vk , cio`e ad esempio:
L(v1 , v2 , . . . , vk ) = L(v2 , v1 , . . . , vk ).
E` consuetudine, infatti, usare le parentesi tonde per indicare questo sottospazio vettoriale
anziche usare la notazione L{v1 , v2 , . . . , vk }, che sarebbe pi`u corretta dal punto di vista
matematico.

150

Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.23 In R4 , dati i due vettori v1 = (1, 0, 0, 2) e v2 = (1, 2, 0, 0) il piano


vettoriale L(v1 , v2 ) e` un sottospazio vettoriale di R4 .
Definizione 4.9 Sia V uno spazio vettoriale reale e siano v1 , v2 , . . . , vk vettori qualsiasi
di V. Si dice che un sottospazio vettoriale W di V ammette come sistema di generatori
linsieme dei vettori {v1 , v2 , . . . , vk } se:
W = L(v1 , v2 , . . . , vk ).
Il teorema che segue, la cui dimostrazione e` un esercizio, permette di cambiare i generatori
di un sottospazio vettoriale.
Teorema 4.8 Dato W = L(v1 , v2 , . . . , vk ), si possono aggiungere o sostituire pi`u generatori di W con loro combinazioni lineari.
Ad esempio, come conseguenza del teorema precedente, si ottiene:
i , . . . , vk , vi + vj ),
W = L(v1 , v2 , . . . , vi , . . . , vk , vl + vm ) = L(v1 , v2 , . . . , v
per ogni , R e per ogni l, m, i, j nellinsieme {1, 2, . . . , k} e dove con il simbolo
i si indica che si e` tolto il vettore vi dallelenco dei generatori di W.
v
Osservazione 4.12 Come immediata conseguenza del teorema precedente si ottiene anche che W = L(v1 , v2 , . . . , vk ) ammette infiniti generatori e quindi ha infiniti sistemi di
generatori.
Osservazione 4.13 NellEsempio 4.23 linsieme {i, j} e` un sistema di generatori di L(i, j)
ma anche {2i, 3i + 2j} e` un altro insieme di generatori di L(i, j) e cos` via, ma {i} non
e` un sistema di generatori di L(i, j).
Definizione 4.10 Uno spazio vettoriale reale V si dice finitamente generato se esistono
m vettori v1 , v2 , . . . , vm di V per cui:
L(v1 , v2 , . . . , vm ) = V.
Analogamente, un sottospazio vettoriale W di uno spazio vettoriale reale V si dice
finitamente generato se esistono k vettori v1 , v2 , . . . , vk tali che:
L(v1 , v2 , . . . , vk ) = W.

Capitolo 4

151

Esempio 4.24 Lo spazio vettoriale dei numeri reali pu`o essere generato da un qualsiasi
numero non nullo: R = L(1) = L(35) e quindi e` un esempio di spazio vettoriale reale finitamente generato. Analogamente, linsieme dei numeri complessi C e` uno spazio
vettoriale reale finitamente generato in quanto C = L(1, i), dove con i si indica lunit`a immaginaria. Daltra parte C e` anche uno spazio vettoriale complesso finitamente
generato perche, in questo caso, C = L(1).
Esempio 4.25 Rn e` finitamente generato, per esempio:
R3 = L((1, 0, 0), (0, 1, 0), (0, 0, 1)) = L((1, 2, 3), (2, 3, 0), (0, 0, 2), (4, 5, 6)).
Esempio 4.26 R2,2 e` generato, per esempio, dalle matrici:


1 0
0 0


,

0 1
0 0


,

0 0
1 0


,

0 0
0 1


,

ma anche dalle matrici:



 
 
 
 
 

2 0
0 4
0 0
0 0
0 0
7 2
,
,
,
,
,
.
0 0
0 0
7 0
0 8
0 0
0
9
Osservazione 4.14 Si osservi che uno spazio vettoriale finitamente generato ammette un
numero finito di generatori, ma ci`o non significa che ogni suo sistema di generatori debba
avere un numero finito di elementi. Le combinazioni lineari dei vettori che si considereranno nel testo saranno sempre somme finite. Le somme infinite, ossia le serie ed i
problemi di convergenza che ne scaturiscono, sono invece studiati in Analisi Funzionale
(cfr. per esempio [20]).
Esempio 4.27 Lo spazio vettoriale R[x] dei polinomi a coefficienti in R e` un esempio
di spazio vettoriale reale non finitamente generato. Infatti, se p1 (x), p2 (x), . . . , pk (x)
sono k polinomi e d e` il loro massimo grado, allora L(p1 (x), p2 (x), . . . , pk (x)) non
contiene polinomi di grado maggiore a d e quindi L(p1 (x), p2 (x), . . . , pk (x)) R[x],
ma L(p1 (x), p2 (x), . . . , pk (x)) 6= R[x]. E` facile, invece, verificare che il sottospazio
vettoriale Rn [x] dei polinomi di grado minore o uguale ad n e` finitamente generato:
Rn [x] = L(1, x, x2 , . . . , xn ).
Esempio 4.28 Nel Paragrafo 4.5 si dimostra che anche lo spazio vettoriale delle funzioni
reali di variabile reale F(R) descritto nellEsempio 4.5, non e` finitamente generato.

152

Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.29 Si consideri il sottospazio vettoriale di R3 :


W = {(x1 , x2 , x3 ) R3 | 2x1 + 3x2 x3 = x2 + x3 = 0}
introdotto nellEsercizio 4.1 e se ne determini un sistema di generatori. A tale scopo si
deve risolvere il sistema lineare omogeneo che definisce W . Come descritto nel Paragrafo
1.2 si ottengono infinite soluzioni date da:

x1 = 2t
x2 = t

x3 = t, t R.
In altri termini, il generico vettore di W e` del tipo (2t, t, t) = t(2, 1, 1), t R, ossia
(2, 1, 1) e` un generatore di W .
In questo testo si studieranno solo spazi vettoriali finitamente generati, le definizioni e le
propriet`a che seguono sono da considerarsi in questo contesto, anche se alcune di esse
possono essere agevolmente riscritte nel caso di spazi vettoriali non finitamente generati,
ma in tutto il testo non saranno mai discusse tali generalizzazioni. Per uno studio approfondito degli spazi vettoriali non finitamente generati si pu`o far riferimento a testi di base
di Analisi Funzionale (ad esempio [20]).
Poiche si vuole enunciare la definizione rigorosa di dimensione di uno spazio vettoriale
V (finitamente generato), sono riprese e riformulate, in un contesto pi`u generale, alcune
definizioni e propriet`a gi`a studiate nel capitolo precedente nel caso particolare dello spazio
vettoriale V3 .
Definizione 4.11 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi si
dicono linearmente indipendenti se lunica loro combinazione lineare uguale al vettore
nullo ha coefficienti tutti nulli, vale a dire:
x1 v1 + x2 v2 + . . . + xk vk = o = x1 = x2 = . . . = xk = 0.

(4.1)

Linsieme {v1 , v2 , . . . , vk } di vettori linearmente indipendenti si dice libero.


Di conseguenza, k vettori v1 , v2 , . . . , vk di V si dicono linearmente dipendenti se esiste
almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli.
Osservazione 4.15 Si osservi che in (4.1) vale anche limplicazione opposta.
Prima di proporre alcuni esempi conviene dimostrare la seguente propriet`a, molto facile,
ma utile per riconoscere vettori linearmente indipendenti o linearmente dipendenti.

Capitolo 4

153

Teorema 4.9 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi sono linearmente dipendenti se e solo se almeno uno di essi si pu`o esprimere come combinazione
lineare dei rimanenti.
Dimostrazione Si supponga che, per ipotesi, i vettori v1 , v2 , . . . , vk siano linearmente
dipendenti, allora x1 v1 + x2 v2 + . . . + xk vk = o, con x1 6= 0 (se il coefficiente non nullo
non fosse x1 si potrebbe commutare in modo da porre al primo posto il coefficiente non
nullo), e` perci`o possibile ricavare:
v1 =

xk
x2
v2 . . .
vk
x1
x1

da cui la tesi. Il viceversa e` lasciato per esercizio.


La verifica degli esempi che seguono e` lasciata per esercizio.
Esempio 4.30 Ogni insieme contenente un solo vettore I = {x} con x 6= o e` libero.
Esempio 4.31 In V3 i vettori di una base ortonormale B = (i, j, k) sono linearmente
indipendenti, lo stesso vale per ogni sottoinsieme non vuoto di B.
Esempio 4.32 Se in un insieme di vettori I compare il vettore nullo, allora I non e`
libero. Linsieme {o} non e` libero.
Esempio 4.33 Se I e` un insieme libero di vettori, allora ogni sottoinsieme non vuoto di
I e` libero.
Esempio 4.34 Se I e` un insieme di vettori linearmente dipendenti allora ogni insieme
che contiene I e` formato da vettori linearmente dipendenti.
La definizione che segue estende la nozione di base gi`a data nel capitolo precedente nel
caso particolare dello spazio vettoriale V3 (cfr. Def. 3.7).
Definizione 4.12 Sia V uno spazio vettoriale reale, un insieme finito e ordinato di vettori
B = (v1 ,v2 ,. . .,vn ) di V prende il nome di base di V se:
1. B e` un insieme libero,
2. B e` un sistema di generatori di V, ossia L(B) = V.
Osservazione 4.16 Si vedr`a che sar`a fondamentale lordine in cui sono considerati i
vettori di una base.

Spazi Vettoriali e Sottospazi Vettoriali

154

Esempio 4.35
1. Una base ortonormale positiva B = (i, j, k) e` un esempio di base di
V3 , in quanto verifica la definizione appena enunciata.
2. In Rn una base e` data da B = (e1 , e2 , . . . en ), dove:
e1 = (1, 0, . . . , 0),

e2 = (0, 1, . . . , 0),

...,

en = (0, 0, . . . , 1).

Questa base particolare, molto naturale, prende il nome di base standard o base
canonica di Rn . Per esempio, nel caso particolare di R4 si ha che la quaterna:
(1, 2, 3, 4) si scrive come 1e1 + 2e2 + 3e3 + 4e4 , da cui la giustificazione della
particolare denominazione usata. Sempre in R4 se si considera, invece, la base
B 0 = (f1 , f2 , f3 , f4 ), dove:
f1 = (2, 0, 0, 0),

f2 = (0, 3, 0, 0),

si ha:
(1, 2, 3, 4) =

f3 = (0, 0, 1, 0),

f4 = (0, 0, 0, 4),

1
2
f1 + f2 + 3f3 + 1f4
2
3

che e` una decomposizione dello stesso vettore (1, 2, 3, 4) molto meno naturale della
precedente.
3. Analogamente al caso di Rn , la base canonica dello spazio vettoriale delle matrici
Rm,n e` formata, ordinatamente, dalle mn matrici Eij aventi il numero 1 al posto ij
e 0 per ogni altro elemento. Nel caso particolare di R2,3 la base canonica e` formata
dalle 6 matrici seguenti:

E11 =

E21 =

1 0 0
0 0 0


,

0 0 0
1 0 0


,


E12 =

E22 =

0 1 0
0 0 0


,

0 0 0
0 1 0


,

0 0 1
0 0 0


,

0 0 0
0 0 1


;

E13 =

E23 =

quindi:


1 2 3
4 5 6


= E11 + 2E12 + 3E13 + 4E21 + 5E22 + 6E23 .

4. In Rn [x] una base e` data dallinsieme B = (1, x, x2 , . . . , xn ).


Il teorema che segue caratterizza le basi di uno spazio vettoriale.

Capitolo 4

155

Teorema 4.10
1. Sia B = (v1 , v2 , . . . , vn ) una base dello spazio vettoriale reale V,
allora ogni vettore x di V si decompone in modo unico come:
x = x1 v 1 + x2 v 2 + . . . + xn v n ,

(4.2)

con (x1 , x2 , . . . , xn ) Rn .
2. Se {v1 , v2 , . . . , vn } e` un insieme di vettori di V tale che ogni vettore x di V si
decomponga in modo unico rispetto a tali vettori come in (4.2), allora linsieme
{v1 , v2 , . . . , vn } e` una base di V.
La dimostrazione e` lasciata per esercizio.
Il teorema appena enunciato conduce alla definizione di componenti di un vettore rispetto
ad una base assegnata, nel modo seguente.
Definizione 4.13 Sia V uno spazio vettoriale di dimensione n. Fissata una base B =
(v1 , v2 , . . . , vn ) in V, per ogni vettore x di V i numeri reali x1 , x2 , . . . , xn individuati
univocamente da (4.2), si dicono componenti di x rispetto alla base B.
Osservazione 4.17 Fissata una base B in uno spazio vettoriale V, con un abuso di linguaggio volto ad enfatizzare lordine delle componenti, si scriver`a che la n-upla di Rn
(x1 , x2 , . . . , xn ) indica le componenti di x rispetto alla base B. In modo equivalente, ogni
vettore x di V si individua, rispetto alla base B, con la matrice colonna X Rn,1 data
da:

x1
x2

X = .. .
.
xn
Osservazione 4.18 Fissata una base B
colonne delle componenti, rispetto a B,

x1
x2

X = ..
.
xn

in V, dati due vettori x e y di V le cui matrici


sono:

y1

y2

, Y = .. ,

.
yn

il vettore x + y ha componenti, rispetto a B:

X +Y =

x1 + y 1
x2 + y 2
..
.
xn + y n

156

Spazi Vettoriali e Sottospazi Vettoriali

e il vettore x ( R) ha componenti, rispetto a B:

x1
x2

X = .. .
.
xn
Si osservi, inoltre, lassoluta coerenza tra le definizioni di somma di matrici e somma di
vettori e tra prodotto di un numero reale per una matrice e prodotto di un numero reale
per un vettore.
Dalla definizione di base di uno spazio vettoriale e dal Teorema 4.10 emergono in modo
naturale le seguenti domande:
1. in ogni spazio vettoriale esiste sempre almeno una base?
2. In caso affermativo, in uno spazio vettoriale quante basi esistono?
3. Nel caso in cui esistano molte basi in uno spazio vettoriale, quanti vettori contengono ciascuna?
Nel caso particolare degli spazi vettoriali dei vettori ordinari V3 , V2 e V1 , aiutati dalla
visualizzazione geometrica, si conoscono gi`a le risposte alle precedenti domande (cfr.
Teor. 3.4); i teoremi che seguono permettono di dare analoghe risposte nel caso particolare
degli spazi vettoriali finitamente generati, quali, ad esempio Rn e lo spazio delle matrici
Rm,n (cfr. Es. 4.35). Si enunciano ora uno di seguito allaltro i teoremi che caratterizzano
la struttura degli spazi vettoriali, anteponendo il commento e le loro conseguenze alle loro
dimostrazioni.
Teorema 4.11 Teorema di esistenza di una base Sia V uno spazio vettoriale reale finitamente generato e sia G = {w1 , w2 , . . . , wm } un sistema di generatori di V.
Linsieme G contiene almeno una base di V.
Osservazione 4.19 Dal teorema precedente e dallOsservazione 4.12 segue che, essendo
possibile ottenere infiniti sistemi di generatori di V a partire da G , esistono infinite basi
in uno spazio vettoriale finitamente generato.
Teorema 4.12 Lemma di Steinitz Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio
vettoriale reale V e sia I = {u1 , u2 , . . . , up } un insieme libero di V, allora p n.
Teorema 4.13 Teorema della dimensione Tutte le basi di uno spazio vettoriale reale
V finitamente generato hanno lo stesso numero di vettori.

Capitolo 4

157

Definizione 4.14 In uno spazio vettoriale reale V finitamente generato il numero dei
vettori appartenenti ad una base prende il nome di dimensione di V e si indica con
dim(V ).
Se V e` formato dal solo vettore nullo V = {o}, si pone dim({o}) = 0.
Dai teoremi elencati si ottiene in modo evidente il seguente teorema.
Teorema 4.14 Sia W un sottospazio vettoriale di uno spazio vettoriale reale V, allora:
1. se lo spazio vettoriale V e` finitamente generato anche W e` finitamente generato.
2. dim(W) dim(V ).
3. dim(W) = dim(V ) W = V.
Esempio 4.36 Segue dallEsempio 4.35 che:
dim(Rn ) = n.
dim(Rm,n ) = mn.
dim(Rn [x]) = n + 1.
Per dimostrare il Teorema 4.11 e` necessario anteporre il seguente lemma tecnico.
Lemma 4.1 Sia I = {a1 , a2 , . . . , ak } un insieme libero di V. Sia x V un vettore che
non e` combinazione lineare dei vettori di I , allora linsieme I {x} e` libero in V.
Dimostrazione

Si procede per assurdo, i dettagli sono lasciati al Lettore.

Dimostrazione del Teorema 4.11


La dimostrazione consiste in un numero finito di
passi applicati allinsieme G , procedimento autorizzato dal fatto che G e` finito. Si inizia
supponendo che ogni vettore di G sia diverso dal vettore nullo, in caso contrario si toglie
il vettore nullo da G .
Primo passo: si considerano linsieme I1 = {w1 } e i vettori rimanenti wi , i = 2, . . . , m.
Se ogni vettore wi e` linearmente dipendente da w1 , ossia se esistono numeri reali i tali
che wi = i w1 , i = 2, . . . , m, allora I1 e` una base di V e il teorema e` dimostrato. In
caso contrario si considera il primo vettore di G che non verifica questa condizione. Sia,
per esempio w2
/ L(w1 ), si procede con il:
secondo passo: si considera linsieme libero (cfr. Lemma 4.1) I2 = {w1 , w2 }. Si presentano due possibilit`a: o ogni vettore rimanente in G e` combinazione lineare dei vettori

158

Spazi Vettoriali e Sottospazi Vettoriali

di I2 , allora I2 e` una base di V (quindi segue la tesi), oppure esiste almeno un vettore di
G che non e` combinazione lineare dei vettori di I2 , si suppone che sia w3 ; in questo caso
si procede con il:
terzo passo: si considera linsieme libero (cfr. Lemma 4.1) I3 = {w1 , w2 , w3 } e si
procede come nel secondo passo.
Il procedimento termina dopo un numero finito di passi, al pi`u m. Si e` cos` costruita
una base di V a partire dal primo vettore w1 di G . E` evidente che procedendo con lo
stesso metodo a partire da un altro vettore di G o da unaltro insieme di generatori di V
si ottengono infinite basi.
Osservazione 4.20 Il metodo descritto nella dimostrazione precedente prende il nome di
metodo degli scarti successivi per il procedimento di calcolo che prevede.
Esercizio 4.5 In A(R3,3 ), sottospazio vettoriale di R3,3 delle matrici antisimmetriche, si
consideri linsieme G = {A1 , A2 , A3 , A4 , A5 , A6 , A7 } con:

0
1 2
0 0
1
0 3 , A2 = 0 0 1 ,
A1 = 1
2 3 0
1 1
0

0
5 ,
0

2
0 ,
0

5
1
0 2 .
2
0

0
0

0
0
A3 =
0 5

0
A4 =
0

0
0
0

0
0 ,
0
(4.3)

0 1

1
0
A5 =
2
0
0
A7 = 5
1

0
1 1
0
4 ,
A6 = 1
1 4
0

Si dimostri che G e` un insieme di generatori di A(R3,3 ) e se ne estragga una base.


Soluzione

Per rispondere al primo quesito si deve esprimere la generica matrice:

0
a12 a13
0
a23
A = a12
(4.4)
a13 a23 0

di A(R3,3 ) come combinazione lineare:


A = 1 A1 + 2 A2 + 3 A3 + 4 A4 + 5 A5 + 6 A6 + 7 A7

(4.5)

Capitolo 4

159

degli elementi di G . Sostituendo in (4.5) le matrici (4.3) e (4.4) prima indicate, si perviene
al sistema lineare nelle incognite i , i = 1, 2, . . . , 7:

1 5 + 6 + 57 = a12 ,
21 + 2 + 25 6 + 7 = a13 ,

31 2 + 53 + 46 27 = a23 ,
le cui soluzioni sono lasciate da determinare al Lettore per esercizio.
Per estrarre una base da G si procede come nella dimostrazione del Teorema 4.11, si ha:
primo passo: sia I1 = {A1 }. Si verifica subito che {A1 , A2 } e` un insieme libero in
A(R3,3 ), si passa quindi al:
secondo passo: sia I2 = {A1 , A2 }. Si verifica che {A1 , A2 , A3 } e` un insieme libero, si
procede, quindi, con il:
terzo passo: sia I3 = {A1 , A2 , A3 }. Si verifica che ogni altro vettore di G e` combinazione
lineare di I3 , si deduce, cos` che I3 e` una base di A(R3,3 ). Tutte le verifiche sono lasciate
al Lettore per esercizio.
Per la dimostrazione del Teorema 4.12 si rimanda al Paragrafo 4.5.
Dimostrazione del Teorema 4.13 Siano B = (v1 , v2 , . . . , vn ) e C = (w1 , w2 , . . . , wm )
due basi di V, si tratta di dimostrare che n = m. Si consideri B base di V e C insieme
libero di V , dal Teorema 4.12 segue che m n, invertendo i ruoli di B e di C si perviene
alla tesi.
Osservazione 4.21 Si osservi limportanza dellordine dei vettori della base che si riflette
sullordine delle componenti dei vettori. In altri termini, mentre lo spazio vettoriale V si
pu`o scrivere indifferentemente come:
V = L(v1 , v2 , . . . , vn ) = L(v2 , v1 , . . . , vn ),
la base B = (v1 , v2 , . . . , vn ) e` diversa dalla base B 0 = (v2 , v1 , . . . , vn ). Come cambiano
le componenti dei vettori di V quando sono scritti rispetto alla base B e alla base B 0 ?
Esempio 4.37
1. A partire dalla scrittura di una matrice diagonale si verifica facilmente che dim(D(Rn,n )) e` n. Una sua base e` formata ordinatamente dalle matrici
Eii , i = 1, 2, . . . , n, definite nellEsempio 4.35.
2. A partire dalla scrittura di una matrice triangolare superiore, si verifica facilmente
che dim(T (Rn,n )) = n(n+1)/2 e una sua base e` data, ordinatamente, dalle matrici
Eij con 1 i j n definite nellEsempio 4.35.

Spazi Vettoriali e Sottospazi Vettoriali

160

3. A partire dalla scrittura di una matrice simmetrica si verifica facilmente che:

e una sua base e` :

1 0
0 0

.. ..
. .
0 0

...
...
..
.

0
0
..
.

dim(S(Rn,n )) =

n(n + 1)
2

0
0
..
.

0
1
..
.

1 ...
0 ...
.. . .
.
.
0 0 ...

... 0

0
0
..
.

0 ...
1 ...
.. . .
.
.
0 0 ...

0 ...

.. . .

.
, . . . , .

0 ...
0
0 ...

0
0
..
.

, . . . ,

0
..

.
,
0 1
1 0
0
..
.

0
0
..
.

0 ...
0 ...
.. . .
.
.
1 0 ...

0
0
..
.

0 ...
0 ...
.. . .
.
.
0 0 ...

1
0
..
.

0
0
0
..
.

4. A partire dalla scrittura di una matrice antisimmetrica si verifica facilmente che:


dim(A(Rn,n )) =
e una sua base e` :

0 1 0 ...
1 0 0 . . .

0 0 0 . . .

.. .. .. . .
. . .
.
0

0
0
0
..
.

0 0 ... 0

0
0
1
..
.
0

0
0
0
..
.

1
0
0
..
.

...
...
...
..
.

n(n 1)
2

0
0
0
..
.

, . . . ,

0 0 ... 0

0
0
..
.

0 ... 0
0 ... 0
.. . .
.
. ..
.
0 0 ... 0
0 0 . . . 1

0
0
..
.

1
0

Si conclude con lenunciato di un teorema che sar`a molto usato nel testo.
Teorema 4.15 Teorema del completamento della base Sia V uno spazio vettoriale
di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato linsieme libero:
I = {a1 , a2 , . . . , ak },

k n,

esiste una base B 0 di V contenente tutti i vettori di I e n k vettori di B.


Dimostrazione Si consideri linsieme A = I B, poiche A contiene una base, allora
V = L(A). Si applichi il Teorema 4.11 ad A partendo dai vettori di I , segue cos` la
tesi.

Capitolo 4

161

Esercizio 4.6 Nel sottospazio vettoriale S(R3,3 ) delle matrici simmetriche di ordine 3
completare linsieme libero I = {I1 , I2 , I3 }, con:

1 2 0
1
0 0
0 1 1
0
I1 = 2 0 0 , I2 = 0 1 0 , I3 = 1 0
0 0 0
0
0 1
1 0
0
fino ad ottenere una base di S(R3,3 ).
Si consideri la base di S(R3,3 ) contenente ordinatamente le matrici:

1 0 0
0 1 0
0 0 1
A1 = 0 0 0 ,
A2 = 1 0 0 ,
A3 = 0 0 0 ,
0 0 0
0 0 0
1 0 0

Soluzione

0 0 0
A4 = 0 1 0 ,
0 0 0

0 0 0
A5 = 0 0 1 ,
0 1 0

0 0 0
A6 = 0 0 0 ,
0 0 1

allora si possono riscrivere (per comodit`a di calcolo) i vettori di I tramite le loro componenti rispetto alla base B. Si ha:
I1 = (1, 2, 0, 0, 0, 0),

I2 = (1, 0, 0, 1, 0, 1),

I3 = (0, 1, 1, 0, 0, 0).

Si applica il Teorema 4.11 allinsieme di generatori:


G = {I1 , I2 , I3 , A1 , A2 , A3 , A4 , A5 , A6 }
partendo dagli elementi di I . Si ottiene che (I1 , I2 , I3 , A1 , A4 , A5 ) e` una base di S(R3,3 ).
I dettagli di calcolo sono lasciati al Lettore.
Nel caso di uno spazio vettoriale di dimensione n, come corollario dei teoremi precedenti
si pu`o agevolmente dimostrare il seguente teorema.
Teorema 4.16
1. Sia V uno spazio vettoriale reale di dimensione n. Un insieme
libero I = {v1 , v2 , . . . , vn } di n vettori di V e` una base di V.
2. Sia V uno spazio vettoriale reale di dimensione n. Un sistema di generatori
I = {v1 , v2 , . . . , vn } di n vettori di V e` una base di V.
Dimostrazione 1. L(v1 , v2 , . . . , vn ) e` un sottospazio vettoriale di V di dimensione n,
quindi per la propriet`a 3. del Teorema 4.14 si ha L(v1 , v2 , . . . , vn ) = V. Pertanto

Spazi Vettoriali e Sottospazi Vettoriali

162

v1 , v2 , . . . , vn sono generatori di V.
2. Per ipotesi L(v1 , v2 , . . . , vn ) = V e dim(V ) = n. Applicando il Teorema 4.11 al
sistema di generatori {v1 , v2 , . . . , vn } di V si pu`o estrarre da esso una base di V,
ma, essendo dim(V ) = n, linsieme {v1 , v2 , . . . , vn } e` una base di V.
Osservazione 4.22 Mediante il Teorema del Completamento della Base (cfr. Teor. 4.15)
si pu`o agevolmente determinare un sottospazio vettoriale supplementare di un sottospazio
vettoriale W di uno spazio vettoriale V. Se dim(V ) = n e se (a1 , a2 , . . . , ak ) e` una
base di W, (k < n), allora si perviene ad un sottospazio vettoriale supplementare di W
completando linsieme libero (a1 , a2 , . . . , ak ) fino ad ottenere una base di V, data per
esempio da:
(a1 , a2 , . . . , ak , b1 , b2 , . . . , bnk ).
Infatti:
L(a1 , a2 , . . . , ak ) L(b1 , b2 , . . . , bnk ) = {o}
e L(b1 , b2 , . . . , bnk ) e` un sottospazio vettoriale di V supplementare di W . Un esempio
di quanto osservato sar`a trattato nellEsercizio 4.12.

4.3.2

Basi e somma diretta

Sia V uno spazio vettoriale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base,
allora:
V = L(v1 ) L(v2 ) . . . L(vn ),
oppure, per esempio:
V = L(v1 , v2 ) L(v3 , v4 , v5 ) . . . L(vn1 , vn ).
Inoltre segue in modo evidente dalla definizione di somma di due o pi`u sottospazi vettoriali dello spazio vettoriale V che essa e` generata dallunione dei medesimi, nel senso
che i vettori del sottospazio vettoriale somma sono combinazioni lineari dei vettori dei
sottospazi vettoriali addendi.
Alla luce di queste considerazioni, il teorema che segue indica un metodo per determinare
una base dello spazio vettoriale V (o pi`u in generale di un sottospazio vettoriale W di V )
a partire dalle basi dei sottospazi vettoriali in cui V (o W) si decompone.
Teorema 4.17 Si supponga che lo spazio vettoriale reale V sia decomposto nella somma
diretta di k suoi sottospazi vettoriali:
V = W1 W2 . . . Wk ,

Capitolo 4

163

allora e` possibile formare una base di V mediante lunione dei vettori appartenenti ad
una base di ciascuno dei sottospazi vettoriali Wi , i = 1, 2, . . . , k .
Dimostrazione Siano dim(W1 ) = n1 , dim(W2 ) = n2 , . . . , dim(Wk ) = nk le dimensioni dei sottospazi vettoriali considerati e siano B1 = (a11 , a12 , . . . , a1n1 ) una base di
W1 , B2 = (a21 , a22 , . . . , a2n2 ) una base di W2 e cos` via fino a Bk = (ak1 , ak2 , . . . , aknk )
base di Wk . Per definizione di somma diretta e di base, ogni vettore di V si scrive in
modo unico come combinazione lineare dei vettori delle basi dei sottospazi vettoriali Wi ,
i = 1, 2, . . . , k. Pertanto, linsieme di vettori:
B1 B2 . . . Bk = {a11 , a12 , . . . , a1n1 , a21 , a22 , . . . , a2n2 , . . . , ak1 , ak2 , . . . , aknk }
e` una base dello spazio vettoriale V.
Dal teorema precedente si ottiene il corollario di seguito enunciato.
Corollario 4.1 Se W = W1 W2 . . . Wk , allora:
dim(W) = dim(W1 ) + dim(W2 ) + . . . + dim(Wk ).
Esercizio 4.7 Vale il viceversa del Corollario 4.1?
Osservazione 4.23 Come immediata conseguenza del Corollario 4.1 segue che, dato un
sottospazio vettoriale W di V con dim(V ) = n e dim(W) = k , k < n, un suo supplementare W 0 (tale che W W 0 = V ) ha dimensione n k . Una base di W 0 pu`o essere
formata dai vettori che si aggiungono ad una base di W per ottenere una base di V (cfr.
Oss. 4.22). Si ottiene, quindi, che esistono infiniti sottospazi vettoriali supplementari di
W , supponendo ovviamente che W =
6 V eW=
6 {o}.
Nel caso della somma di due sottospazi vettoriali e` utile conoscere la formula che mette in
relazione le loro dimensioni con le dimensioni della loro intersezione e della loro somma,
per la dimostrazione si veda il Paragrafo 4.5.
Teorema 4.18 Formula di Grassmann Siano W1 e W2 due sottospazi vettoriali di
uno spazio vettoriale V, allora:
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 W2 ).
Esercizio 4.8 In R5 si consideri il sottospazio vettoriale:
W = {(x1 , x2 , x3 , x4 , x5 ) R5 | x1 + x2 + 2x3 + x4 x5 = 0}.

Spazi Vettoriali e Sottospazi Vettoriali

164

1. Si decomponga W nella somma diretta di due sottospazi vettoriali W1 e W2 .


2. Si scriva il vettore (5, 2, 1, 3, 2) di W come somma di un vettore di W1 e di
un vettore di W2 .
Soluzione

1. Per esempio si controlla che i sottospazi vettoriali:


W1 = L((1, 1, 0, 0, 0), (2, 0, 1, 0, 0)),
W2 = L((1, 0, 0, 1, 0), (1, 0, 0, 0, 1)),

verificano la condizione richiesta, infatti la loro intersezione si riduce al vettore


nullo e la loro somma riproduce W.
Quante sono le risposte possibili? Si provi ad elencarne almeno due diverse.
2. Dal calcolo diretto si ha:
(5, 2, 1, 3, 2) = (0, 2, 1, 0, 0) + (5, 0, 0, 3, 2).
Esercizio 4.9 In R2,2 si considerino i sottospazi vettoriali:



x1 x2
2,2
R | x 1 + x4 = x2 + x3 = 0 ,
W1 =
x3 x4

W2 =

x1 x2
x3 x4

2,2


| x1 x4 = x2 x3 = 0 .

Dimostrare che W1 W2 = R2,2 .


Soluzione Per lintersezione W1 W2 e` sufficiente osservare che la matrice dei coefficienti del sistema lineare omogeneo:

x1 + x4 = 0

x2 + x3 = 0
x1 x4 = 0

x2 x3 = 0
ha determinante non nullo. Rimane da dimostrare che W1 W2 = R2,2 . Si ottiene
facilmente che una generica matrice di R2,2 si pu`o scrivere come:






1 x1 + x4 x2 + x3
1
x1 x4
x2 x3
x1 x2
+
=
x3 x4
2 x2 + x3 x1 + x4
2 x2 + x3 x1 + x4
e ci`o prova la decomposizione (unica) di un vettore di R2,2 nella somma di due vettori di
W1 e W2 , rispettivamente.

Capitolo 4

165

Esercizio 4.10 In R3,3 si considerino i sottospazi vettoriali:

0 a b

W1 = 0 0 c R3,3 | a, b, c R ,

0 0 0
W2 = D(R3,3 ),

x1 0 0

3,3

x2 x3 0
W3 =
R | 2x1 x3 = x1 + 3x3 = 0 .

x4 x5 0
Dimostrare che W1 W2 W3 = R3,3 .
Soluzione Si pu`o verificare direttamente che ogni vettore di R3,3 si decompone in modo unico come somma di un vettore di W1 insieme con un vettore di W2 insieme con un
vettore di W3 .
Esercizio 4.11 In R3 [x] si consideri il sottospazio vettoriale W dei polinomi aventi una
radice uguale a 2.
1. Decomporre W nella somma diretta di due sottospazi vettoriali W1 e W2 .
2. Scrivere il polinomio 4 2x + x3 di W come somma di un polinomio di W1 e
di un polinomio di W2 .
Soluzione 1. Dal Teorema di Ruffini sui polinomi, si ha che ogni polinomio di W si
scrive come:
p(x) = (x 2)(a0 + a1 x + a2 x2 ),

a0 , a1 , a2 R,

quindi W = L(2 + x, (2 + x)x, (2 + x)x2 ) e dim(W) = 3.


Ad esempio si pu`o porre W = W1 W2 , con:
W1 = L(2 + x, (2 + x)x),

W2 = L((2 + x)x2 ).

2. Si devono trovare i numeri reali i , i = 1, 2, 3, tali che:


4 2x + x3 = 1 (2 + x) + 2 (2 + x)x + 3 (2 + x)x2 .
Dalluguaglianza dei coefficienti dei monomi di grado uguale segue:
1 = 2,

2 = 2,

3 = 1.

Pertanto 4 2x + x3 = p1 (x) + p2 (x), con p1 (x) = 4 2x + 2x2 W1 e


p2 (x) = 2x2 + x3 W2 .

166

Spazi Vettoriali e Sottospazi Vettoriali

Esercizio 4.12 Dato il sottospazio vettoriale H di R4 definito da:


H = {(x1 , x2 , x3 , x4 ) R4 | x1 + x2 + x4 = x3 = 0},
si determinino due sottospazi vettoriali diversi entrambi supplementari di H in R4 .
Soluzione
Risolvendo il sistema lineare omogeneo che definisce H si ottiene che un
generico vettore di H e` del tipo (t1 , t2 , 0, t1 t2 ) con t1 , t2 R da cui segue che
dim(H) = 2 ed i vettori a1 = (1, 0, 0, 1), a2 = (0, 1, 0, 1) formano una base di
H. Si verifica facilmente (usando il metodo degli scarti successivi descritto nella dimostrazione del Teorema 4.11) che, ad esempio, (a1 , a2 , e1 , e3 ), con e1 = (1, 0, 0, 0) e
e3 = (0, 0, 1, 0), e` una base di R4 , ovvero che HL(e1 , e3 ) = R4 . Quindi un sottospazio
vettoriale supplementare di H in R4 e` K1 = L(e1 , e3 ). Con un procedimento analogo si
verifica che, ad esempio, (a1 , a2 , e3 , e4 ), con e4 = (0, 0, 0, 1), e` unaltra base di R4 . Si
pu`o allora definire un altro sottospazio vettoriale, diverso dal precedente, supplementare
di H in R4 , dato da K2 = L(e3 , e4 ).
Osservazione 4.24 Nel paragrafo seguente si introdurr`a il concetto di rango di una matrice che permetter`a di risolvere gli esercizi proposti in questo paragrafo in un altro modo,
a volte pi`u rapido.

4.3.3

Rango di una matrice

In questo paragrafo verr`a introdotta la definizione formale di rango di una matrice, mentre
la Definizione 1.10 inserita nel Capitolo 1 ne costituisce un metodo di calcolo.
Sia A = (aij ) Rm,n una matrice di m righe e n colonne, le cui righe sono date dai
vettori:
R1 = (a11 , a12 , . . . , a1n ),
R2 = (a21 , a22 , . . . , a2n ),
..
.
Rm = (am1 , am2 , . . . , amn ).
I vettori Ri Rn , i = 1, 2, . . . , m, prendono il nome di vettori riga della matrice A ed il
sottospazio vettoriale:
R(A) = L(R1 , R2 , . . . , Rm )
e` lo spazio vettoriale delle righe di A. Per costruzione R(A) e` un sottospazio vettoriale
di Rn , ed avendo m generatori, la sua dimensione sar`a al pi`u pari al minore tra i numeri
m ed n.

Capitolo 4

167

Si ripete lo stesso discorso per le colonne di A. Siano:


C1 = (a11 , a21 , . . . , am1 ),
C2 = (a12 , a22 , . . . , am2 ),
..
.
Cn = (a1n , a2n , . . . , amn )
i vettori colonna di A. Il sottospazio vettoriale:
C(A) = L(C1 , C2 , . . . , Cn )
e` lo spazio vettoriale delle colonne di A. Per costruzione C(A) e` un sottospazio vettoriale
di Rm , ed avendo n generatori la sua dimensione sar`a al pi`u pari al minore tra i numeri
m ed n.
Osservazione 4.25
1. Per una matrice A Rm,n lo spazio vettoriale delle righe R(A)
e` un sottospazio vettoriale di Rn , mentre lo spazio vettoriale delle colonne C(A)
e` un sottospazio vettoriale di Rm , quindi R(A) e C(A) sono, in generale, spazi
vettoriali diversi. Se m 6= n, R(A) e C(A) sono sempre spazi vettoriali diversi.
2. Se A e` una matrice qualsiasi di Rm,n , allora R(tA) = C(A), C(tA) = R(A), dove
t
A indica la trasposta della matrice A.
Se A Rn,n e` una matrice simmetrica, allora R(A) = C(A).
Se A Rn,n e` una matrice antisimmetrica, allora R(A) = R(A) = C(A).
Vale il seguente teorema.
Teorema 4.19 Teorema del Rango Per ogni matrice A Rm,n si ha:
dim(R(A)) = dim(C(A)).
Nel Paragrafo 4.5 si propone una dimostrazione di questo teorema, ma si dovr`a aspettare
il Capitolo 6 per una dimostrazione alternativa, molto pi`u sintetica.
Il teorema appena enunciato giustifica la seguente fondamentale definizione.
Definizione 4.15 Si definisce rango di una matrice A Rm,n (e lo si indica con rank(A))
la dimensione dello spazio vettoriale delle righe (o delle colonne) di A:
rank(A) = dim(R(A)) = dim(C(A)).

168

Spazi Vettoriali e Sottospazi Vettoriali

Osservazione 4.26 Come conseguenza immediata del precedente teorema si ha anche


che:
rank(A) = rank( tA), A Rm,n ,
e che rank(A) e` minore o uguale del minimo tra m e n.
Le propriet`a che seguono sono volte a dimostrare che la definizione di rango di una matrice, appena enunciata, coincide con la Definizione 1.10 data nel Capitolo 1. Si procede
come segue.
1. Sia A una matrice ridotta per righe, si dimostrer`a che il numero delle righe non
nulle di A coincide con la dimensione dello spazio vettoriale delle righe di A.
2. Si dimostrer`a, inoltre, che il processo di riduzione di una matrice per righe descritto
nel Paragrafo 1.2 lascia invariata la dimensione dello spazio vettoriale delle righe
di A, pur cambiando la matrice A.
3. A corretta conclusione, si devono aggiungere la definizione di matrice ridotta per
colonne e il procedimento di riduzione per colonne.
Teorema 4.20 Se A Rm,n e` una matrice ridotta per righe, la Definizione 1.9 del Capitolo 1 coincide con la Definizione 4.15. Pertanto la definizione di rango di una matrice
e` formulata in modo corretto.
Dimostrazione Poiche ogni matrice ridotta per righe pu`o essere trasformata in una
matrice triangolare superiore mediante lapplicazione delle tre operazioni di riduzione
sulle righe senza alterarne il numero di righe non nulle (cfr. la dimostrazione del Teorema
2.13), si pu`o supporre che una matrice ridotta per righe A Rm,n con k righe non nulle
sia del tipo seguente:

a11 a12 . . . . . . . . . a1n


0 a22 . . . . . . . . . a2n
.
..
...
.

.
.

0 . . . 0 akk . . . akn ,

0
0 ... 0 ... 0
.
..
..
..
..
.
.
.
0 ... 0 ... 0
0
con a11 a22 . . . akk 6= 0. Si tratta ora di dimostrare che il numero k delle righe non nulle di
A coincide con dim(R(A)), cio`e che le prime k righe di A sono linearmente indipendenti
in Rn . Il risultato e` quasi ovvio ed e` la conseguenza della particolare posizione delle
componenti nulle nelle righe di A. Infatti, dallequazione:
1 R1 + 2 R2 + . . . + k Rk = o

Capitolo 4

169

nelle incognite 1 , 2 , . . . , k , con:


R1 = (a11 , a12 , . . . , a1n ),
R2 = (0, a22 , . . . , a2n ),
..
.
Rk = (0, . . . , 0, akk , . . . , akn )
e o Rn , si ottiene un sistema lineare omogeneo la cui prima equazione e` :
1 a11 = 0;
ma a11 6= 0 allora 1 = 0. Sostituendo questo risultato nella seconda equazione:
1 a12 + 2 a22 = 0
si ottiene 2 = 0 e cos` via, da cui segue che le righe non nulle della matrice A ridotta
per righe sono linearmente indipendenti.
Teorema 4.21 Le operazioni consentite per ridurre una matrice A Rm,n per righe non
cambiano la dimensione dello spazio vettoriale delle righe di A.
Dimostrazione Si ricordino le operazioni, descritte nel Paragrafo 1.2, consentite per
ridurre per righe una matrice, e precisamente:
1. Ri Rj ;
2. Ri Ri , R, 6= 0;
3. Ri Ri + Rj , R, i 6= j.
Il teorema segue allora in modo evidente dal Teorema 4.8.
Si pu`o ripetere il procedimento di riduzione di una matrice sulle colonne, di conseguenza,
dopo aver ridotto per colonne la matrice, il suo rango sar`a dato dal numero di colonne
non nulle. Pi`u precisamente si pu`o enunciare la seguente definizione.
Definizione 4.16 Una matrice A si dice ridotta per colonne se in ogni sua colonna non
nulla esiste un elemento non nullo a destra del quale ci sono tutti zeri.
Esempio 4.38 La matrice seguente e` ridotta per colonne:

1 0 0
1 1 0

A=
2 3 4 .
5 6 7

170

Spazi Vettoriali e Sottospazi Vettoriali

Teorema 4.22 Il rango di una matrice A (inteso come la dimensione dello spazio vettoriale delle colonne di A) si calcola riducendo la matrice A per colonne, in altri termini
eseguendo sulle colonne, un numero finito di volte, le operazioni seguenti:
1. Ci Cj : scambiare tra di loro due colonne;
2. Ci Ci , R, 6= 0 : moltiplicare tutti gli elementi di una colonna per un
numero reale non nullo;
3. Ci Ci + Cj , R, i 6= j : sostituire ad una colonna una combinazione
lineare di se stessa con una colonna parallela
e poi contando il numero di colonne non nulle della matrice ridotta per colonne ottenuta.
La dimostrazione e` un evidente esercizio.
Osservazione 4.27 Riducendo per righe una matrice A non cambia lo spazio vettoriale
R(A), anche se si ottengono matrici ridotte per righe tra di loro diverse.
Riducendo per righe una matrice A non cambia dim(C(A)) ma cambia invece lo spazio vettoriale C(A). Analogamente, riducendo per colonne la matrice A non cambia
dim(R(A)) ma cambia R(A). In particolare, si osservi che riducendo per colonne la
matrice completa di una sistema lineare non si ottiene un sistema lineare equivalente al
sistema lineare dato.
Esercizio 4.13 Calcolare il rango della matrice:

1
2 1
1
1
0

2
4
A = 1
,
1
1 1
3 1
2
riducendola per colonne; calcolare il rango di A riducendola per righe e osservare che si
ottiene lo stesso risultato ma la matrice ridotta per colonne ottenuta e` diversa dalla matrice
ridotta per righe.
Esistono dei casi in cui le matrici ridotte per righe e per colonne a cui si perviene dalla
stessa matrice A coincidono?
Teorema 4.23 Teorema di Nullit`a piu` Rango Sia AX = O un sistema lineare
omogeneo con matrice dei coefficienti A Rm,n , incognite X Rn,1 e con colonna dei
termini noti la matrice nulla O Rm,1 . Sia N (A) il sottospazio vettoriale di Rn delle
soluzioni del sistema lineare omogeneo (cfr. Es. 4.12) , allora:
rank(A) + dim(N (A)) = n.

Capitolo 4

171

Dimostrazione Segue dalla definizione di rango di una matrice e dalla risoluzione dei
sistemi lineari omogenei mediante il metodo di riduzione di Gauss. Si risolve, infatti, il
sistema lineare omogeneo AX = O riducendo per righe la matrice A. Supponendo che
rank(A) = k , non si perde in generalit`a (cfr. la dimostrazione del Teorema 2.13) se si
assume di pervenire al seguente sistema lineare omogeneo ridotto:

a11 a12 . . .
0 a22 . . .
..
...
.
0 ... 0
0 ... 0
..
..
.
.
0

...

. . . . . . a1n
x1
x2
. . . . . . a2n

..
..
..
..
.
.
. .

akk . . . akn xk

... 0
0 xk+1
.
..
..
.
. ..
... 0
0
xn

0
0
..
.
0
0
..
.

aii 6= 0, i = 1, 2, . . . , k.

Si ottengono cos` infinite soluzioni che dipendono da n k incognite libere. Ponendo:

xk+1 = t1

xk+2 = t2
..

x = t , t ,t ,...,t
R,
n

nk

nk

sostituendo questi valori nella k -esima equazione si ha:


xk =

akn
akk+1
t1 . . .
tnk
akk
akk

e cos` via per tutte le altre incognite. Di conseguenza il nullspace N (A) risulta essere:
N (A) = {t1 (b11 , b21 , . . . , bk1 , 1, 0, . . . , 0)
+t2 (b12 , b22 , . . . , bk2 , 0, 1, . . . , 0)
+...
+tnk (b1k1 , b2k1 , . . . , bkk1 , 0, 0, . . . , 1), t1 , t2 , . . . , tnk R},
dove i numeri reali bij indicano i coefficienti ottenuti dalla risoluzione del sistema lineare
omogeneo, per esempio:
akk+1
bk1 =
.
akk
Segue subito che dim(N (A)) = n k .

Spazi Vettoriali e Sottospazi Vettoriali

172

Anche se la dimostrazione del teorema precedente e` ovvia, la sua importanza sar`a fondamentale nel resto del corso. La denominazione nullit`a deriva, come gi`a osservato in
precedenza, dalla traduzione del termine nullspace che indica in inglese il sottospazio
vettoriale N (A).
La formulazione del Teorema di Nullit`a pi`u Rango appena presentato e` quella classica,
che viene usata per le sue svariate applicazioni. In realt`a lenunciato completo del teorema
e` il seguente.
Teorema 4.24 Teorema di Nullit`a piu` Rango Sia AX = O un sistema lineare
omogeneo con matrice dei coefficienti A Rm,n , incognite X Rn,1 e colonna dei
termini noti O Rm,1 . Siano R(A) lo spazio vettoriale delle righe di A, C(A) lo spazio
vettoriale delle colonne di A e N (A) il sottospazio vettoriale di Rn delle soluzioni del
sistema lineare omogeneo, allora:
R(A) N (A) = Rn
e, equivalentemente,
C(A) N (tA) = Rm .
Dimostrazione

Tenendo conto del Teorema 4.23 e` sufficiente dimostrare che:


R(A) N (A) = {o}.

Per assurdo sia x = (x1 , x2 , . . . , xn ) un elemento non nullo di R(A) N (A). Si supponga per esempio che x = R1 + 2R2 , dove R1 e R2 sono le prime due righe della matrice
A. Lipotesi non e` restrittiva, si lasciano al Lettore le varie generalizzazioni. Il vettore
x verifica tutte le equazioni del sistema lineare AX = O, in particolare, verifica anche
lequazione che si ottiene dalla somma della prima equazione del sistema lineare con il
doppio della seconda, se A = (aij ) e X = (xi ) significa che:
(a11 + 2a21 )x1 + (a12 + 2a22 )x2 + . . . + (a1n + 2a2n )xn = 0.
Sostituendo in tale equazione lespressione di x segue:
(a11 + 2a21 )2 + (a12 + 2a22 )2 + . . . + (a1n + 2a2n )2 = 0,
da cui x = o, che e` assurdo. La seconda affermazione del teorema si ottiene sostituendo
ad A la sua trasposta.
Osservazione 4.28 E` fondamentale osservare che, anche se fosse possibile, come nel
caso delle matrici quadrate, il teorema precedente non vale se si invertono i ruoli di R(A)
e di C(A). Nel Capitolo 6 si presenter`a un esempio di matrice in cui C(A) N (A) (cfr.
Oss. 6.10).

Capitolo 4

173

Osservazione 4.29 Una delle applicazioni della definizione di rango di una matrice e` la
possibilit`a di risolvere in modo pi`u agevole alcuni degli esercizi gi`a proposti. Sia, infatti,
B = (v1 , v2 , . . . , vn ) una base di V e siano w1 , w2 , . . . , wk i generatori di un sottospazio
vettoriale W di V. Per trovare una base di W si pu`o procedere considerando la matrice
A Rk,n che ha come vettori riga i vettori wi , i = 1, 2, . . . , k, scritti in componenti
rispetto alla base B. Riducendo la matrice A per righe, segue che i vettori riga non nulli,
della matrice ridotta per righe cos` ottenuta, costituiscono una base di W e la dimensione
di W coincide con il rango della matrice A. Attenzione al fatto che se si riduce la matrice
A per colonne i vettori riga della matrice ridotta per colonne non determinano pi`u una
base di W . Analogamente se W1 e W2 sono due sottospazi vettoriali di V di cui si
conoscono le componenti dei vettori delle loro basi, per determinare la dimensione e una
base di W1 +W2 si pu`o procedere scrivendo la matrice B che ha come vettori riga i vettori
delle basi di W1 e di W2 , scritti in componenti ripetto ad una base di V. Riducendo la
matrice B per righe si ha che il rango di B coincide con la dimensione di W1 + W2 e i
vettori riga non nulli della matrice ridotta per righe che si ottiene costituiscono una base
di W1 + W2 .
Esercizio 4.14 Determinare una base del sottospazio vettoriale H di R4 cos` definito:
H = L((1, 2, 0, 1), (2, 4, 1, 1), (0, 0, 1, 1), (1, 2, 4, 5), (1, 1, 0, 5)).
Soluzione
Si ha:

Si riduce per righe la matrice A ottenuta ponendo in riga i generatori di H.

A=

1
2
0
2
4 1
0
0
1
1
2
4
1 1
0

R2 R5

1
1
1
5
5

R2 R2 2R1

R4 R4 R1

R5 R5 R1

1
2
0
1
0 3
0
4
0
0
1
1
0
0
4
4
0
0 1 1

1
2
0
1
0
0 1 1

0
0
1
1

0
0
4
4
0 3
0
4

R4 R4 4R3

R5 R5 + R3

1
2
0 3
0
0
0
0
0
0

0
0
1
0
0

1
4
1
0
0

da cui segue che rank(A) = 3, quindi dim(H) = 3 e una sua base e` data dalle prime tre
righe della matrice ridotta per righe ottenuta da A, cio`e dai vettori:
z1 = (1, 2, 0, 1),

z2 = (0, 3, 0, 4),

z3 = (0, 0, 1, 1).

Spazi Vettoriali e Sottospazi Vettoriali

174

Osservazione 4.30 Si consiglia di rifare gli esercizi precedentemente svolti usando il


metodo proposto in questo paragrafo (Esercizi 4.5, 4.6, 4.9, 4.10).

Esercizio 4.15 Dato il sottospazio vettoriale di R4 :


K = {(x1 , x2 , x3 , x4 ) R4 | x1 x2 = x1 x3 = 0},
determinare la dimensione e una base di H+K e HK, dove H e` il sottospazio vettoriale
definito nellEsercizio 4.14.
Soluzione Una base di K e` data ad esempio da (w1 , w2 ) con w1 = (1, 1, 1, 0) e w2 =
(0, 0, 0, 1). Per trovare la dimensione e una base di H + K, si riduce per righe la matrice
B ottenuta ponendo in riga i vettori z1 , z2 , z3 , w1 , w2 :

1
2 0 1
1
2 0
1
0 3 0 4
0 3 0
4

0
0
1
1
0
1
1
B=

R4 R4 R1

1
0 1 1 1
1 1 0
0
0 0 1
0
0 0
1

R4 3R4 R2

1
2
0 3
0
0
0
0
0
0

0
1
0
4
1
1
3 7
0
1

R4 R4 3R3

1
2
0 3
0
0
0
0
0
0

0
1
0
4
1
1
0 10
0
1

Si vede che il rango di B e` 4, cio`e che H + K = R4 . Dalla Formula di Grassmann (cfr.


Teor. 4.18) si ha che dim(H K) = 3 + 2 4 = 1. Per trovare una base di H K si pu`o
procedere in questo modo. Un generico vettore di H K e` della forma:
1 z1 + 2 z2 + 3 z3 = 1 w1 + 2 w2 ,

(4.6)

con 1 , 2 3 , 1 , 2 R. Si deve perci`o risolvere il sistema lineare omogeneo nelle incognite (1 , 2 , 3 , 1 , 2 ) associato alla precedente equazione con la riduzione per righe
della corrispondente matrice dei coefficienti:

1
0 0 1
0
2 3 0 1
0
.
C=
0
0 1 1
0
1
4 1
0 1

Capitolo 4

175

Si trovano infinite soluzioni:




1
10
1 = 1 , 2 = 1 , 3 = 1 , 2 =
1 ,
3
3
con 1 R. Sostituendo tali valori in (4.6) si ottiene che:


10
w1 +
w2
3
e` una base di H K.
Esercizio 4.16 In R3 [x] si considerino i polinomi:
p1 (x) = 1 + x2 ,

p2 (x) = x + x3 ,

p3 (x) = 2 + x + x3 .

1. Verificare che linsieme I = {p1 (x), p2 (x), p3 (x)} e` libero.


2. Individuare una base di R3 [x] contenente I .
Soluzione 1. Sia B = (1, x, x2 , x3 ) una base di R3 [x]. Rispetto a B, i polinomi dati
hanno componenti:
p1 (x) = (1, 0, 1, 0),

p2 (x) = (0, 1, 0, 1),

p3 (x) = (2, 1, 0, 1).

Si consideri la matrice A di R3,4 avente come righe le componenti dei tre polinomi e ne si calcoli il rango riducendola per righe:

1 0
1 0
1 0 1 0

0 1
0 1
A= 0 1 0 1
R3 R3 2R1
0 1 2 1
2 1 0 1

0
R3 R3 R2
0

0
1
1
0
0 2

0
1 .
0

Segue che rank(A) = 3 e, quindi, la tesi.


2. Per ottenere una base di R3 [x] contenente I e` sufficiente aggiungere ai polinomi
dati un polinomio in modo che i quattro polinomi siano linearmente indipendenti.
Allora, e` sufficiente aggiungere allultima matrice ottenuta nel calcolo precedente
una riga in modo tale che la matrice quadrata di ordine 4 cos` ottenuta sia ridotta
per righe e abbia rango 4, precisamente si ha:

1 0
1 0
0 1
0 1

0 0 2 0 ,
0 0
0 1
quindi un polinomio (ma non e` lunico) che risolve lesercizio e` x3 .

Spazi Vettoriali e Sottospazi Vettoriali

176

4.3.4

Il cambiamento di base

In questo paragrafo si presenta il problema del cambiamento di base in uno spazio vettoriale reale qualsiasi V, estendendo a V lanalogo problema risolto nel caso dello spazio
vettoriale dei vettori ordinari V3 nel Paragrafo 3.5.
Nello spazio vettoriale reale V, di dimensione n, si considerino due basi:
B 0 = (v10 , v20 , . . . , vn0 ).

B = (v1 , v2 , . . . , vn ),
Si ponga:

v10 = p11 v1 + p21 v2 + . . . + pn1 vn ,

v0 = p12 v1 + p22 v2 + . . . + pn2 vn ,


2
..

v0 = p v + p v + . . . + p v .
n

1n 1

La matrice:

2n 2

(4.7)

nn n

P = M B,B = (pij ), i, j = 1, 2, . . . , n,
che e` cos` determinata, prende il nome di matrice del cambiamento di base da B a B 0,
0
come precisato nella notazione M B,B . P e` ottenuta ponendo ordinatamente in colonna
le componenti dei vettori della base B 0 rispetto ai vettori della base B. La ragione della
scelta delle colonne e` giustificata da una maggiore semplicit`a della formula finale (4.9)
che si ottiene. P e` una matrice quadrata, ad elementi reali, di rango massimo (rank(P ) =
n) e, quindi, per i Teoremi 2.16 e 2.8, P e` invertibile e det(P ) 6= 0. Le equazioni (4.7)
si possono scrivere, in notazione matriciale, come:

v1
v10
v2
v0

2
(4.8)
.. = tP .. .
.
.
vn0
vn
Considerato un qualsiasi vettore x V, il problema del cambiamento di base consiste
nel determinare le relazioni che intercorrono tra le componenti di x rispetto alle due basi
introdotte. Si supponga, quindi, che:
x = x1 v1 + x2 v2 + . . . + xn vn = x01 v10 + x02 v20 + . . . + x0n vn0 ,
vale a dire, in notazione matriciale:

x=

x1 x2

. . . xn

v1
v2
..
.
vn

x01

x02

...

x0n

v10
v20
..
.
vn0

Capitolo 4

177

Sostituendo le equazioni (4.8) nelluguaglianza precedente e tenendo conto dellunicit`a


delle componenti di un vettore rispetto alla base B si perviene alle relazioni:

x1
x01
x2
x0

2
.. = P ..
.
.
xn
x0n
che saranno spesso indicate come:
X = P X 0,

(4.9)

dove X e X 0 sono, rispettivamente, le matrici colonna delle componenti di x rispetto alla


base B e alla base B 0. Tali relazioni prendono il nome di equazioni del cambiamento di
base da B a B 0 e risolvono il problema posto.
Osservazione 4.31 La matrice del cambiamento di base da B 0 a B e` P 1 , in quanto le
equazioni del cambiamento di base, in questo caso, sono X 0 = P 1 X .
Esercizio 4.17

1. Verificare che:

 
1 2
2
0
B =
,
2
1
1

1
3

 

4 1
,
1 5

e` una base di S(R2,2 ).


2. Trovare le componenti della matrice:

A=

4 11
11 7

rispetto alla base B 0 .


Soluzione

1. Sia:

B=

1 0
0 0

 
 

0 1
0 0
,
,
1 0
0 1

una base di S(R2,2 ). La matrice del cambiamento di base da B a B 0 , ottenuta


ponendo in colonna le componenti dei vettori di B 0 rispetto a B, e` :

1 2
4
P = 2 1 1 .
1 3 5

Spazi Vettoriali e Sottospazi Vettoriali

178

Si verifica che det(P ) = 52, quindi i tre vettori dati formano, effettivamente,
una base di S(R2,2 ).
2. Le componenti richieste sono la soluzione del sistema lineare:

0
4
x1
11 = P x02 ,
7
x03
ossia x01 = 4, x02 = 2, x03 = 1.

4.3.5

Iperpiani vettoriali

Definizione 4.17 Sia V uno spazio vettoriale reale di dimensione n. Ogni sottospazio
vettoriale W di V tale che dim(W) = n 1 prende il nome di iperpiano vettoriale di V.
Per definizione, quindi, un iperpiano vettoriale e` generato da n 1 vettori linearmente
indipendenti di V.
Esempio 4.39 In R4 liperpiano vettoriale W generato dai vettori:
a1 = (1, 0, 1, 4),

a2 = (0, 1, 1, 2),

a3 = (0, 0, 3, 4)

e` il sottospazio vettoriale di R4 :
W = {(x1 , x2 , x3 , x4 ) = k1 a1 + k2 a2 + k3 a3 , k1 , k2 , k3 R}
= {(k1 , k2 , k1 + 3k3 , 4k1 + 2k2 + 4k3 ) | k1 , k2 , k3 R}.
Vale il seguente teorema.
Teorema 4.25 Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V di dimensione n e siano (x1 , x2 , . . . , xn ) le componenti di un qualsiasi vettore x di V rispetto
alla base B.
1. Tutte e sole le equazioni lineari omogenee in (x1 , x2 , . . . , xn ) rappresentano, rispetto alla base B, gli iperpiani vettoriali di V.
2. Ogni sottospazio vettoriale W di V di dimensione k e` rappresentabile, rispetto alla
base B, mediante un sistema lineare omogeneo di n k equazioni nelle incognite
(x1 , x2 , . . . , xn ).
Dimostrazione

1. La dimostrazione e` lasciata per esercizio.

Capitolo 4

179

2. Sia (a1 , a2 , . . . , ak ) una base di W, allora ogni vettore x di W e` del tipo:


x = 1 a1 + 2 a2 + . . . + k ak ,

1 , 2 , . . . , k R.

(4.10)

Eliminando i parametri 1 , 2 , . . . , k tra le n equazioni che si ottengono scrivendo in componenti lequazione vettoriale (4.10) si perviene ad un sistema lineare
omogeneo di n k equazioni nelle componenti (x1 , x2 , . . . , xn ).
Come immediata conseguenza del secondo punto del teorema precedente si ottiene il
seguente corollario.
Corollario 4.2 Un sottospazio vettoriale W, di dimensione k, di uno spazio vettoriale
V, di dimensione n, e` lintersezione di n k iperpiani vettoriali di V.
Esempio 4.40 In R4 , lequazione lineare omogenea:
x1 + x2 + 3x3 + 2x4 = 0,
rispetto alla base canonica B = (e1 , e2 , e3 , e4 ) di R4 , individua liperpiano vettoriale
generato, ad esempio, dai vettori:
(1, 1, 0, 0),

(3, 0, 1, 0),

(2, 0, 0, 1).

Esercizio 4.18 Qual e` lequazione delliperpiano vettoriale considerato nellEsempio 4.39


rispetto alla base canonica di R4 ?
Soluzione I vettori a1 , a2 , a3 , x = (x1 , x2 , x3 , x4 ) appartengono a W se e solo se sono
linearmente dipendenti, ossia se la matrice quadrata, di ordine 4, le cui righe sono le
componenti dei quattro vettori, ha determinante nullo. Lequazione richiesta e` :


1 0 1 4


0 1 1 2


0 0 3 4 = 0.


x1 x2 x3 x4
La motivazione dellultimo passaggio e` lasciata al Lettore.
Esempio 4.41 NellEsercizio 4.11 il sottospazio vettoriale W dei polinomi divisibili per
2 in R3 [x] e` un iperpiano vettoriale, la cui equazione lineare omogenea nelle componenti
(a0 , a1 , a2 , a3 ) di un polinomio p(x) = a0 + a1 x + a2 x2 + a3 x3 R3 [x] rispetto alla base
B = (1, x, x2 , x3 ) e` data da p(2) = a0 + 2a1 + 4a2 + 8a3 = 0.
Esempio 4.42 In Rn,n il sottospazio vettoriale:
W = {A Rn,n | tr(A) = 0},
dove tr(A) indica la traccia della matrice A, e` un iperpiano vettoriale di Rn,n .

Spazi Vettoriali e Sottospazi Vettoriali

180

4.4

Esercizi di riepilogo svolti

Esercizio 4.19 In R4 si considerino i vettori:


a1 = (1, 1, 0, 0),

a2 = (0, 1, 0, 1),

a3 = (1, 3, 0, 2).

Posto E1 = L(a1 ), E2 = L(a2 ), E3 = L(a3 ),


1. determinare i vettori che appartengono a H = E1 + E2 + E3 e verificare che la
somma non e` diretta.
2. Dimostrare che v = (2, 5, 0, 3) e` un elemento di H e scrivere v in due modi diversi
come combinazione lineare di vettori di E1 , E2 , E3 .
Soluzione

1. H = {1 a1 + 2 a2 + 3 a3 | 1 , 2 , 3 R}
= {(1 + 3 , 1 + 2 + 33 , 0, 2 + 23 ) | 1 , 2 , 3 R}.

Linsieme {a1 , a2 , a3 } non e` libero in quanto a3 = a1 + 2a2 . Quindi:


L(a3 ) = L(a1 + 2a2 ) L(a1 ) + L(a2 ),
cio`e E3 E1 + E2 . H non e` somma diretta di E1 , E2 , E3 .
2. Per definizione il vettore v appartiene ad H se esistono 1 , 2 , 3 R tali che:

2 = 1 + 3
5 = 1 + 2 + 33

3 = 2 + 23 .
Risolvendo il sistema lineare si trova:
1 = 2 t,

2 = 3 2t,

3 = t,

t R.

Ponendo, per esempio, t = 0 si ottiene v = 2a1 + 3a2 , per t = 1 si ha:


v = a1 + a2 + a3 .
Esercizio 4.20 Data la matrice:

A=

6 9
4 6


,

1. dimostrare che i sottoinsiemi:


F = {X R2,2 | AX = XA},

G = {X R2,2 | AX = XA}

sono sottospazi vettoriali di R2,2 e trovare una base per ciascuno di essi.

Capitolo 4

181

2. Determinare una base per i sottospazi vettoriali F G e F + G .


3. Data la matrice:

C=

0 h2
0 h3


,

h R,

stabilire per quale valore di h la matrice C appartiene al sottospazio vettoriale


F + G . Assegnato ad h tale valore, trovare due matrici C1 F e C2 G in modo
tale che C = C1 + C2 .
Soluzione 1. Siano X1 , X2 matrici di R2,2, appartenenti a F , allora AX1 = X1 A e
AX2 = X2 A. F e` un sottospazio vettoriale di R2,2 se 1 X1 + 2 X2 F con
1 , 2 numeri reali qualsiasi, ossia se:
A(1 X1 + 2 X2 ) = (1 X1 + 2 X2 )A.
La verifica e` un facile esercizio. In modo analogo si dimostra che G e` un sottospazio vettoriale di R2,2 . Per determinare la dimensione e una base sia di F sia di G
e` necessario scrivere esplicitamente le equazioni che li definiscono. Ponendo:


x1 x2
X=
,
x3 x4
la condizione AX = XA equivale al sistema lineare omogeneo:

4x2 + 9x3 = 0

9x1 + 12x2 9x4 = 0


4x1 12x3 4x4 = 0

4x2 + 9x3 = 0,
le cui soluzioni sono:


9
31 + 2 , 1 , 1 , 2 ,
4

1 , 2 R,

quindi dim(F) = 2 e una base di F e` :



B=

12 9
4
0


1
,
0

0
1


.

Per determinare la dimensione e una base di G si procede allo stesso modo, la

Spazi Vettoriali e Sottospazi Vettoriali

182

condizione AX = XA equivale al sistema lineare omogeneo:

12x1 + 4x2 9x3 = 0

9x1 + 9x4 = 0
4x

1 + 4x4 = 0

4x2 9x3 12x4 = 0,


le cui soluzioni sono:


9
1 , 31 + 2 , 2 , 1 ,
4

1 , 2 R,

quindi dim(G) = 2 e una base di G e` :



C=

1
0

3
1


0
,
4

9
0


.

2. Conviene, in generale, iniziare con il calcolo della somma dei due sottospazi vettoriali. Riducendo per righe la matrice quadrata di ordine 4 che si ottiene ponendo in
riga le componenti dei vettori di B e di C si ha che il rango di tale matrice e` 3 e che
una base di F + G e` :




1 0
0 3
0
0
D=
,
,
.
0 1
0 2
4 6
Dalla formula di Grassmann segue che dim(F G) = 1. Una generica matrice
appartenente a tale intersezione si deve poter scrivere come:

1

12 9
4
0


+ 2

1
0

0
1


= 1

1
0

3
1


+ 2

0
4

9
0


(4.11)

per qualche valore di 1 , 2 , 1 , 2 R. Il sistema lineare omogeneo che ne


deriva ha infinite soluzioni date da:


1
1 = 1 , 2 = 1 , 1 R.
6
Sostituendo questo risultato a primo membro di (4.11) si ottiene:

F G =L

6
4

9
6


.

Capitolo 4

183

3. La matrice C appartiene a F + C se la matrice quadrata di ordine 4 le cui righe


sono date dalle componenti di C e dalle componenti degli elementi della base D
ha determinante uguale a zero, ossia:


1
0
0
1

0
3
0
2

= 0,
0
0
4 6

0 h2 0 h3
da cui segue h = 5. La matrice C e` dunque:


0 3
C=
0 2
e si decompone nella somma di infinite coppie di matrici C1 F e C2 G nel
modo seguente:
C = C1 + C2

=


1

12 9
4
0


+ 2

1
0

0
1




+ 1

1
0

3
1


+ 2

0
4

9
0


,

con 1 , 2 , 1 , 2 R. Il sistema lineare che segue da tale scrittura ammette infinite


soluzioni che dipendono da unincognita libera (essendo dim(F G) = 1), la
soluzione di questo sistema lineare e la conseguente determinazione di C1 e di C2
sono lasciate per esercizio.

4.5

Per saperne di piu`

In questo paragrafo sono inseriti alcuni esercizi che possono essere omessi ad una prima
lettura. Si propone anche la dimostrazione di qualche teorema citato nei paragrafi precedenti. Di grande importanza, invece, la parte finale del paragrafo, che e` in generale
oggetto di corsi pi`u avanzati di algebra lineare, dove vengono introdotti alcuni esempi di
spazi vettoriali complessi. Si studia lo spazio vettoriale Cn,n delle matrici quadrate ad
elementi nel campo complesso e si introducono due suoi sottospazi vettoriali reali: quello delle matrici hermitiane e quello delle matrici anti-hermitiane che sono lanalogo, in
campo complesso, degli spazi vettoriali delle matrici simmetriche e antisimmetriche.
Esercizio 4.21
1. Verificare che il campo dei numeri reali R dotato delle seguenti
operazioni:

Spazi Vettoriali e Sottospazi Vettoriali

184

p
x y = 3x3 + y 3 ,
x = 3 x,

R, x, y R,

e` uno spazio vettoriale di dimensione 1 su R stesso.


2. Verificare se tale propriet`a e` ancora valida nel caso delle operazioni:
p
3
x3 + y 3 ,
x4y =
x = x,

R, x, y R.

Soluzione
1. Si verifica facilmente che (R, ) e` un gruppo abeliano, con 0 elemento
neutro e x opposto di x R. Anche la verifica delle quattro propriet`a del
prodotto per scalari e` semplice. Inoltre R = L(1), in quanto ogni x R si pu`o
scrivere come x3 1.
2. La definizione di prodotto per scalari x non verifica, per esempio, la seguente
propriet`a:
( + ) x = ( x) 4 ( x),
infatti:
( + ) x =

p
+ x,

mentre:

( x) 4 ( x) =
x 4 x = 3 ( )3 x3 + ( )3 x3
q

= 3 ( )3 + ( )3 x.

Esercizio 4.22 Si verifichi che lo spazio vettoriale F(R) delle funzioni reali di variabile
reale descritto nellEsempio 4.5 non e` finitamente generato.
Soluzione Sia S un sottoinsieme finito di R e si indichi con F(S, R) lo spazio vettoriale delle funzioni f : S R costruito in modo analogo allEsempio 4.5. Tale spazio
vettoriale e` finitamente generato, infatti una sua base e` data dallinsieme delle funzioni
caratteristiche di S :
X = {s F(S, R) | s S},
dove:


s (t) =

1, t = s,
0, t =
6 s.

Capitolo 4

185

X genera F(S, R), infatti per ogni f F(S, R), f = sS f (s)s . Si controlla facilmente che X e` un insieme libero. E` evidente che con questo tipo di ragionamento si
perviene ad un sistema di generatori di F(R) formato da infiniti elementi.
Esercizio 4.23 Dimostrare il Teorema 4.1 di seguito riportato.
In V, spazio vettoriale reale, si ha:
1. il vettore nullo o e` unico;
2. per ogni vettore x V, lopposto x e` unico;
3. se x + y = x + z, allora y = z, per ogni x, y, z V ;
4. x = o = 0, oppure x = o, con R e x V ;
5. (1)x = x, per ogni x V.
Soluzione
1. Per assurdo, siano o e o0 due vettori nulli, o 6= o0 . Allora o = o + o0
essendo o0 il vettore nullo, ma anche o + o0 = o0 essendo o il vettore nullo, da
cui la tesi.
2. Per assurdo, siano x1 e x2 due opposti di x, con x1 6= x2 , allora:
(x + x1 ) + x2 = o + x2 = x2 ,
ma anche:
(x + x1 ) + x2 = x + (x1 + x2 ) = x + (x2 + x1 ) = (x + x2 ) + x1 = x1 ,
da cui lassurdo.
3. Segue in modo evidente dalla propriet`a precedente, infatti da x + y = x + z si ha:
x + y x = x + z x da cui la tesi.
4. Si inizia con il dimostrare che 0 x = o e che o = o. Si ha:
0 x = (0 + 0)x = 0 x + 0 x,
applicando la propriet`a precedente si ha 0 x = o. Analogamente:
o = (o + o) = o + o,
da cui o = o. Viceversa si dimostra che se x = o, allora, necessariamente = 0
oppure (non esclusivo) x = o. Nel punto precedente e` stato provato che 0 x = o,

Spazi Vettoriali e Sottospazi Vettoriali

186

supposto, quindi, 6= 0, si prova che da x = o segue necessariamente x = o. Se


6= 0, allora esiste il suo inverso 1 . Da:
o = 1 o = 1 (x) = (1 )x = 1x
segue la tesi.
5. La tesi consiste nel provare che x + (1)x = o, infatti:
1x + (1)x = (1 1)x = 0 x = o.
Esercizio 4.24 Dimostrare la Formula di Grassmann 4.18 di seguito riportata.
Siano W1 e W2 sottospazi vettoriali di uno spazio vettoriale reale V, allora:
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 W2 ).
Soluzione Siano dim(V ) = n, dim(W1 ) = l, dim(W2 ) = p, con l, p n. Si ponga
dim(W1 W2 ) = k , dove k l, p. Si lasciano per esercizio i casi particolari k = l e
k = p e si tratta solo il caso di k < l e k < p. Sia B = (a1 , a2 , . . . , ak ) una base di
W1 W2 . B e` , quindi, un insieme libero sia in W1 sia in W2 . Dal Teorema 4.15 segue
che si possono costruire una base:
C = (a1 , . . . , ak , bk+1 , . . . , bl )
di W1 e una base:
D = (a1 , . . . , ak , ck+1 , . . . , cp )
di W2 . La tesi consiste, allora, nel dimostrare che:
E = (a1 , . . . , ak , bk+1 , . . . , bl , ck+1 , . . . , cp )
e` una base di W1 + W2 . Per costruzione E e` un sistema di generatori di W1 + W2 . Si
deve quindi provare che E e` libero. A tale scopo si consideri la combinazione lineare a
coefficienti reali:
1 a1 + . . . + k ak + k+1 bk+1 + . . . + l bl + k+1 ck+1 + . . . + p cp = o,

(4.12)

con 1 , . . . , k , k+1 , . . . , l , k+1 , . . . , p R. Sia:


c = k+1 ck+1 . . . p cp .

(4.13)

Per definizione c W2 , da (4.12) segue che c = 1 a1 +. . .+k ak +k+1 bk+1 +. . .+l bl ,


quindi c W1 , pertanto c W1 W2 . Allora esistono opportuni coefficienti reali
i , i = 1, 2, . . . , k, tali che c = 1 a1 + . . . + k ak . Da (4.13) si ottiene:

Capitolo 4

1 a1 + . . . + k ak + k+1 ck+1 + . . . + p cp = o,

187

(4.14)

ma i vettori che compaiono in (4.14) sono i vettori della base D, pertanto sono linearmente
indipendenti, da cui segue, tra laltro, che k+1 = . . . = p = 0. Sostituendo in (4.12) e
ricordando che la combinazione lineare rimasta e` formata dai vettori della base C, si ha
la tesi.
Esercizio 4.25 Dimostrare il Lemma di Steinitz 4.12 di seguito riportato.
Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V e sia I = {u1 , u2 , . . . , up }
un insieme libero di V, allora p n.
Soluzione Siano (1 , 2 , . . . , n ) le componenti di u1 rispetto alla base B. Poiche I e`
un insieme libero, u1 6= o, pertanto almeno una componente tra i , i = 1, 2, . . . , n, non
e` nulla; si supponga che sia 1 6= 0 (in caso contrario si riordinano i vettori di B in modo
da porre al primo posto un coefficiente non nullo). Dalla relazione:
u1 = 1 v1 + 2 v2 + . . . + n vn

(4.15)

si ricava:
1
1
v1 = 1
1 u1 1 2 v2 . . . 1 n vn .

In altri termini v1 L(u1 ,v2, . . . ,vn ). Si vuole dimostrare che linsieme {u1 ,v2 ,. . . ,vn }
e` una base di V. Si inizia con il provare che si tratta di un sistema di generatori di V. Da
(4.15) segue che, per ogni x V, si ha:
x = x1 v 1 + x2 v 2 + . . . + xn v n
1
1
= x1 (1
1 u1 1 2 v2 . . . 1 n vn ) + x2 v2 + . . . + xn vn
= 1 u1 + 2 v2 + . . . + n vn
da cui la tesi. Linsieme {v2 , v3 , . . . , vn } e` libero essendo un sottoinsieme non vuoto
di B (cfr. Es. 4.33). Il vettore u1 non appartiene a L(v2 , v3 , . . . , vn ), quindi linsieme
{u1 , v2 , . . . , vn } e` libero (cfr. Lemma 4.1). Si osservi che, a questo punto, partendo dalla
base B, si e` ottenuta una nuova base B1 = (u1 , v2 , . . . , vn ) in cui si e` sostituito al primo
vettore di B il primo vettore di I . Si itera questo procedimento, passando a considerare
il vettore u2 e lo si esprime come combinazione lineare dei vettori di B1 . Si ha:
u2 = 1 u1 + 2 v2 + . . . + n vn .
Di nuovo, essendo u2 non nullo, esiste almeno una sua componente tra i , i = 1, 2, . . . , n,
non nulla. Non pu`o succedere che sia 1 6= 0 e gli altri i = 0, i = 2, . . . , n, perche i

188

Spazi Vettoriali e Sottospazi Vettoriali

vettori u1 , u2 sono linearmente indipendenti, pertanto si pu`o supporre 2 6= 0. Si ricava


v2 in funzione dei vettori rimanenti e si dimostra che B2 = (u1 , u2 , v3 , . . . , vn ) e` una
base di V in modo analogo al caso precedente. Si procede di nuovo con un terzo vettore
di I, questo tipo di ragionamento e` autorizzato dal fatto che B e I sono insiemi finiti. Il
procedimento descritto si pu`o arrestare solo per due motivi:
a. si sono esauriti tutti i vettori di I e pertanto sono stati inseriti i vettori di I allinterno di B, da cui segue la tesi;
b. si sono esauriti prima i vettori di B e rimangono ancora dei vettori in I , segue che
I contiene una base di V che e` assurdo, essendo I libero.

4.5.1

Equazioni vettoriali e teorema del rango

Definizione 4.18 Dati i vettori a1 , a2 , . . . , am , b di uno spazio vettoriale reale V, la


relazione:
x1 a1 + x2 a2 + . . . + xm am = b
(4.16)
e` unequazione vettoriale nellincognita (x1 , x2 , . . . , xm ) Rm .
Definizione 4.19 Una soluzione dellequazione vettoriale (4.16) e` una mupla:
(x01 , x02 , . . . , x0m ) Rm
che sostituita in (4.16) la verifica.
Esempio 4.43 Nei capitoli precedenti si sono incontrate pi`u volte equazioni vettoriali,
per esempio la definizione di vettori linearmente indipendenti fa uso di unequazione
vettoriale di cui si chiede che ammetta solo la soluzione nulla.
Lesempio precedente impone la seguente definizione.
Definizione 4.20 Lequazione vettoriale (4.16) si dice omogenea se b = o e o e` il vettore
nullo di V.
Osservazione 4.32 E` chiaro che unequazione vettoriale omogenea ammette la soluzione
nulla (0, 0, . . . , 0). Lequazione vettoriale (4.16) ammette solo la soluzione nulla se e solo
se i vettori a1 , a2 , . . . , ak sono linearmente indipendenti, ovviamente supponendo a priori
che siano tutti diversi dal vettore nullo.
Il teorema che segue determina le condizioni affinche unequazione vettoriale ammetta
soluzioni e propone anche il metodo per determinarle.

Capitolo 4

189

Teorema 4.26 Teorema di RoucheCapelli Lequazione vettoriale (4.16) ammette


soluzioni se e solo se:
dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)).
Dimostrazione
Innanzi tutto si osservi che L(a1 , a2 , . . . , am ) L(a1 , a2 , . . . , am , b)
e, se dim(L(a1 , a2 , . . . , am )) = k, allora k dim(L(a1 , a2 , . . . , am , b)) k + 1. Si
supponga che lequazione (4.16) ammetta soluzioni, si deve dimostrare che:
L(a1 , a2 , . . . , am , b) L(a1 , a2 , . . . , am ).
Per ipotesi esiste una mupla di numeri reali (x01 , x02 , . . . , x0m ) tale che:
x01 a1 + x02 a2 + . . . x0m am = b,
da cui segue la tesi, (cfr. Teor. 4.8).
Viceversa, si supponga che dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)). Conviene distinguere due casi e analizzarli separatamente:
a. dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = m;
b. dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = k < m.
a. Se dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = m, i vettori a1 , a2 , . . . ,
am costituiscono una base sia di L(a1 , a2 , . . . , am ) sia di L(a1 , a2 , . . . , am , b), allora il vettore b si esprime, in modo unico, come combinazione lineare dei vettori
a1 , a2 , . . . , am e, quindi, lequazione (4.16) ammette una sola soluzione data dalle
componenti di b rispetto alla base (a1 , a2 , . . . , am ).
b. Dal Teorema 4.11 segue che esistono k vettori tra a1 , a2 , . . . , am che formano una
base di L(a1 , a2 , . . . , am ). Si supponga che siano i primi k (in caso contrario si riordinano i vettori in modo da ottenere questo risultato), quindi L(a1 , a2 , . . . , ak ) =
L(a1 , a2 , . . . , am ), ma per ipotesi si ha anche che:
L(a1 , a2 , . . . , ak ) = L(a1 , a2 , . . . , am , b).
Segue che esistono k scalari x01 , x02 , . . . , x0k tali che:
b = x01 a1 + x02 a2 + . . . + x0k ak .
Il teorema e` dimostrato perche la mupla (x01 , x02 , . . . , x0k , 0, . . . , 0) Rm e` una
soluzione dellequazione vettoriale (4.16). In questo caso, esistono infinite soluzioni che dipendono da m k incognite libere, infatti scelti ad arbitrio gli scalari

Spazi Vettoriali e Sottospazi Vettoriali

190

k+1 , . . . , m , il vettore b k+1 ak+1 . . . m am appartiene a L(a1 , a2 , . . . , ak )


pertanto:
b = x01 a1 + x02 a2 + . . . + x0k ak + k+1 ak+1 + . . . + m am
da cui segue la tesi.
Osservazione 4.33 Il Lettore verifichi per esercizio (usando la definizione di rango di una
matrice) che il Teorema di RoucheCapelli appena dimostrato coincide con il Teorema di
RoucheCapelli 1.2 enunciato nel Paragrafo 1.2.
Esercizio 4.26 Dimostrare il Teorema del Rango 4.19, di seguito riportato.
Per ogni matrice A Rm,n si ha:
dim(R(A)) = dim(C(A)).
Soluzione

Sia:

A=

a11
a21
..
.

a12
a22
..
.

am1 am2

. . . a1n
. . . a2n
..
..
.
.
. . . amn

Rm,n .

R(A) = L(R1 , R2 , . . . , Rm ) Rn e` lo spazio vettoriale delle righe di A, dove:


R1 = (a11 , a12 , . . . , a1n )
R2 = (a21 , a22 , . . . , a2n )
..
.
Rm = (am1 , am2 , . . . , amn ).
C(A) = L(C1 , C2 , . . . , Cn ) Rm e` lo spazio vettoriale delle colonne di A, dove:
C1 = (a11 , a21 , . . . , am1 )
C2 = (a12 , a22 , . . . , am2 )
..
.
Cn = (a1n , a2n , . . . , amn ).
Siano k = dim(C(A)) e h = dim(R(A)). La tesi si ottiene dimostrando che k h,
infatti, per la disuguaglianza opposta e` sufficiente considerare tA, per cui si ha R(A) =
C( tA) e C(A) = R( tA), applicando il fatto che k h a tA segue h k .

Capitolo 4

Si consideri il sistema lineare omogeneo AX


ti, O Rm,1 matrice nulla dei termini noti e

x1
x2

X = ..
.

191

= O avente A come matrice dei coefficien

Rn,1

xn
matrice delle incognite. Dalla sua scrittura esplicita:

a11 x1 + a12 x2 + . . . + a1n xn = 0

a21 x1 + a22 x2 + . . . + a2n xn = 0


..

a x + a x + ... + a x = 0
m1 1
m2 2
mn n

(4.17)

si deduce che esso e` equivalente allequazione vettoriale:


x1 C1 + x2 C2 + . . . + xn Cn = o,
(o Rm ) le cui soluzioni dipendono da k vettori di C(A) linearmente indipendenti, dove
k = dim(C(A)), (cfr. Teor. 4.26). Essendo h = dim(R(A)), si supponga che le prime
h righe di A siano linearmente indipendenti, questa non e` unipotesi restrittiva perche
in caso contrario si pu`o effettuare un cambiamento dellordine in cui sono considerate le
righe. Si supponga, quindi, che linsieme {R1 , R2 , . . . , Rh } sia libero. Dalla Definizione
1.6 e dal Teorema 1.1 segue che il sistema lineare (4.17) e` equivalente al sistema lineare
omogeneo:

a11 x1 + a12 x2 + . . . + a1n xn = 0

a21 x1 + a22 x2 + . . . + a2n xn = 0


(4.18)
..

a x + a x + ... + a x = 0
h1 1
h2 2
hn n
che e` , a sua volta, equivalente allequazione vettoriale:
x1 a1 + x2 a2 + . . . + xn an = o,
dove:
a1 = (a11 , a21 , . . . , ah1 )
a2 = (a12 , a22 , . . . , ah2 )
..
.
an = (a1n , a2n , . . . , ahn ).

Spazi Vettoriali e Sottospazi Vettoriali

192

Dal fatto che i sistemi lineari (4.17) e (4.18) sono equivalenti segue:
dim(L(a1 , a2 , . . . , an )) = dim(C(A)) = k
ma L(a1 , a2 , . . . , an ) Rh , da cui la tesi.
Esercizio 4.27 Dimostrare il Teorema 2.4, di seguito riportato.
Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2 An ) min{rank(A1 ), rank(A2 ), . . . , rank(An )}.
Soluzione
Si inizia con il dimostrare il teorema nel caso n = 2. E` un esercizio osservare che le colonne della matrice prodotto A1 A2 sono combinazione lineare delle colonne
della matrice A1 e che le righe della matrice prodotto A1 A2 sono combinazione lineare
delle righe della matrice A2 . Per semplicit`a e per capire meglio quanto appena osservato
si considera il caso del prodotto di due matrici quadrate di ordine 2:


a1 a2
a3 a4

a1 b 1 + a2 b 3 a1 b 2 + a2 b 4
a3 b 1 + a4 b 3 a3 b 2 + a4 b 4

A1 A2 =


=

b1 b2
b3 b4

b1

a1
a3

a1

b1 b2

b1 b2

+ b3

=
a3

+ a2
+ a4

a2
a4


b2

a1
a3

b3 b4

b3 b4


+ b4

a2
a4

 

Di conseguenza si ha:
C(A1 A2 ) C(A1 ),

R(A1 A2 ) R(A2 )

e, quindi:
rank(A1 A2 ) rank(A1 ),

rank(A1 A2 ) rank(A2 )

da cui la tesi. Il caso del prodotto di n matrici si ottiene iterando il risultato appena
ottenuto.

Capitolo 4

193

Esercizio 4.28 Discutere, al variare di h R, le soluzioni della seguente equazione


vettoriale di R4 :
x1 a1 + x2 a2 + x3 a3 = b,
dove:
a1 = (2, 1, 0, 4),

a2 = (3, 2, 4, h),

a3 = (5, 3, h, 1),

b = (14, 8, h, 1).

Soluzione E` sufficiente trasformare lequazione vettoriale assegnata nel sistema lineare ad essa equivalente e risolvere questultimo applicando i metodi descritti nel Capitolo
1. Si ha:
se h
/ {2, 14} non esistono soluzioni;


8 + 3h
h
8+h
se h = 2 o h = 14, la soluzione e` x1 =
, x2 =
, x3 =
.
4+h
4+h
4+h
Se si vuole, invece usare il Teorema 4.26 si pu`o procedere confrontando L(a1 , a2 , a3 ) e
L(a1 , a2 , a3 , b). Per L(a1 , a2 , a3 ) si ha:

2 1 0 4

2 1 0
4
3
2 4 h R2 2R2 + 3R1 0
1 8 12 + 2h
5 3 h 1
R3 2R3 5R1
0 1 2h 22

2 1
0
4

0
1
8
12 + 2h .
R3 R3 + R2
0
0 8 + 2h 10 + 2h
Quindi dim (L(a1 , a2 , a3 )) = 3 per ogni valore di h. Per L(a1 , a2 , a3 , b) si ha:


2 1 0
4

3
2 4
h
2

5 3 h 1 = h 12h 28,


14 8 h 1
per cui dim (L(a1 , a2 , a3 , b)) = 3 se e solo se h = 2 o h = 14. Pertanto lequazione
vettoriale e` compatibile solo se h = 2 o h = 14. Sostituendo tali valori nei vettori dati
si ottengono le soluzioni cercate.

4.5.2

Equivalenza tra due definizioni di rango di una matrice

In questo paragrafo si intende dimostrare lequivalenza tra la definizione di rango di una


matrice (cfr. Def. 4.15) inteso come dimensione dello spazio vettoriale delle righe o delle

194

Spazi Vettoriali e Sottospazi Vettoriali

colonne della matrice e la definizione di rango di una matrice (cfr. Def. 2.13) data tramite
luso dei minori. A questo proposito si ricordano i fatti seguenti.
Sia A una matrice quadrata di ordine n. Come conseguenza della Definizione 4.15 di
rango di A come la dimensione dello spazio vettoriale delle righe R(A) (o dello spazio
vettoriale delle colonne C(A)) e del Teorema di Nullit`a pi`u Rango (cfr. Teor. 4.24) si ha
lequivalenza tra le seguenti condizioni:
a. rank(A) < n;
b. i vettori riga di A sono linearmente dipendenti;
c. i vettori colonna di A sono linearmente dipendenti;
d. il sistema lineare omogeneo AX = O ha soluzioni non nulle;
e. det(A) = 0.
In generale nel caso di una matrice A Rm,n , non necessariamente quadrata, si pu`o
provare il seguente teorema.
Teorema 4.27 Sia A Rm,n , le condizioni seguenti sono equivalenti:
1. rank(A) = r;
2. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine
r + 1 sono uguali a zero;
3. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine
p > r sono nulli.
Dimostrazione
Per dimostrare lequivalenza delle tre affermazioni si proveranno le
seguenti implicazioni:
1.

2.

3.

1.

Innanzitutto, si osservi che se la matrice A ha un minore non nullo di ordine k allora


le k righe corrispondenti a quelle del minore non nullo sono linearmente indipendenti.
Per dimostrare limplicazione 1. = 2. si supponga quindi che rank(A) = r. Sia B la
sottomatrice quadrata di A ottenuta intersecando r righe linearmente indipendenti di A
con r colonne linearmente indipendenti di A. Allora si ha rank(B) = dim(R(B)) = r
e pertanto det(B) 6= 0, ovvero la matrice A ha un minore non nullo di ordine r. Daltra
parte ogni minore di A di ordine r + 1 ha i vettori riga linearmente dipendenti e quindi

Capitolo 4

195

e` nullo per lequivalenza tra le condizioni b. ed e. prima elencate. Infatti, se esistesse un


minore di ordine r + 1 diverso da zero, allora la matrice A avrebbe rango r + 1, in quanto
avrebbe r + 1 righe linearmente indipendenti.
Limplicazione 2. = 3. e` una semplice conseguenza del Primo Teorema di Laplace (cfr.
Teor. 2.17).
Per dimostrare limplicazione 3. = 1. si supponga quindi che A abbia un minore
non nullo di ordine r e che tutti i minori di ordine p > r siano nulli. Le righe corrispondenti ad un minore non nullo di A sono pertanto linearmente indipendenti e quindi
dim(R(A)) r, ovvero rank(A) r. Se fosse rank(A) > r si avrebbe una riga linearmente indipendente con le righe di A corrispondenti a quelle del minore non nullo, allora
si avrebbe una sottomatrice C Rr+1,n di rango r + 1. Per limplicazione 1. = 2. si
potrebbe allora estrarre dalla sottomatrice C (e quindi dalla matrice A) un minore non
nullo di ordine p > r, ma questo sarebbe assurdo.
Lequivalenza tra le due definizioni di rango (cfr. Def. 4.15 e Def. 2.13) e` quindi una
semplice conseguenza del teorema precedente.

4.5.3

Spazi vettoriali complessi,


matrici hermitiane e anti-hermitiane

Come gi`a visto nellOsservazione 4.1, si pu`o definire uno spazio vettoriale complesso,
ossia uno spazio vettoriale su C. Analogamente al caso degli spazi vettoriali reali anche
nel caso degli spazi vettoriali complessi si possono introdurre i concetti di sottospazio
vettoriale, somma e intersezione di sottospazi vettoriali, generatori, vettori linearmente
dipendenti e indipendenti, basi e dimensione.
Linsieme dei numeri complessi C, con le usuali operazioni di somma e prodotto di numeri complessi, e` lesempio pi`u semplice di spazio vettoriale complesso, ma C pu`o essere
anche visto come spazio vettoriale reale. Come spazio vettoriale complesso C ha dimensione 1 ed una sua base e` ad esempio (1), mentre come spazio vettoriale reale C ha
dimensione 2 ed una sua base e` ad esempio (1, i) (cfr. Es. 4.24).
Analogamente al caso reale, si hanno i due esempi fondamentali seguenti di spazi vettoriali complessi (cfr. Es. 4.3 e 4.2).
Esempio 4.44 Linsieme:
Cn = {(x1 , x2 , . . . , xn ) | xj C, j = 1, 2, . . . , n}
e` uno spazio vettoriale complesso. La somma di due n-uple di Cn e` definita come:
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).

Spazi Vettoriali e Sottospazi Vettoriali

196

Il vettore nullo di Cn e` la n-upla (0, 0,. . ., 0) e lopposto del vettore (x1 , x2 ,. . ., xn ) e` il


vettore (x1 , x2 ,. . .,xn ). Il prodotto di un numero complesso per un elemento di
Cn e` definito da:
(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ).
Cn , come spazio vettoriale complesso, ha dimensione n e gli n vettori:
e1 = (1, 0, . . . , , 0),

e2 = (0, 1, 0, . . . , 0),

...,

en = (0, 0, . . . , 1)

formano una base, detta base canonica o standard di Cn .


Esempio 4.45 Pi`u in generale, se si indica con Cm,n linsieme delle matrici con m righe
e n colonne ad elementi in C e si introducono le operazioni di somma di due matrici e di
prodotto di un numero complesso per una matrice come nel caso reale, e` facile verificare
che Cm,n e` uno spazio vettoriale complesso. Il vettore nullo di Cm,n e` la matrice nulla.
Lo spazio vettoriale Cm,n , come spazio vettoriale complesso, ha dimensione mn ed una
sua base e` data dalle mn matrici Eij aventi tutti gli elementi uguali a zero ad eccezione
di quello di posto ij che vale 1. Tale base e` chiamata base canonica di Cm,n .
Esercizio 4.29 Determinare una base e la dimensione di Cm,n , pensato come spazio
vettoriale reale.
Soluzione Ogni matrice Z = (zhk ) ad elementi complessi si pu`o scrivere come somma
di due matrici reali A = (ahk ) e B = (bhk ) dello stesso ordine:
Z = A + iB
ottenute, in modo naturale, dalla scrittura di ogni elemento Z come zhk = ahk + ibhk .
E` evidente, quindi, che, come spazio vettoriale su R, dim Cm,n = 2mn. Si lascia per
esercizio la determinazione di una sua base.
Se A Cm,n , si indichi con A la matrice coniugata di A, ossia la matrice che ha come
elementi i coniugati degli elementi di A. Se A Rm,n , cio`e se A e` reale, ovviamente A = A. Per la coniugata di una matrice valgono ovvie propriet`a che sono facile
conseguenza delloperazione di coniugio sui numeri complessi, e precisamente:
1. A + B = A + B,
2. A = A,
3. AB = A B,
4.

A = tA,

A, B Cm,n ;

C, A Cm,n ;
A Cm,n , B Cn,k ;
A Cm,n ;

Capitolo 4

5. det(A) = det(A),

197

A Cn,n .

Si introducono ora due sottoinsiemi dello spazio vettoriale delle matrici quadrate complesse Cn,n , che sono lanalogo, nel caso di Rn,n , del sottospazio vettoriale delle matrici
simmetriche S(Rn,n ) e di quello delle matrici antisimmetriche A(Rn,n ) (cfr. Es. 4.15 e
4.16). Precisamente, si definiscono linsieme delle matrici hermitiane:
H(Cn,n ) = {A Cn,n | tA = A}
e linsieme delle matrici anti-hermitiane:
AH(Cn,n ) = {A Cn,n | tA = A}.
Chiaramente una matrice reale simmetrica A S(Rn,n ) e` hermitiana ed una matrice reale
antisimmetrica A A(Rn,n ) e` anti-hermitiana.
Ad esempio la matrice:


2
1+i
1 i 3
e` hermitiana. Si osservi che gli elementi sulla sua diagonale principale sono reali. Questa
propriet`a non e` casuale, infatti gli elementi sulla diagonale principale di una matrice hermitiana A sono necessariamente reali, in quanto devono coincidere, per definizione, con i
proprii coniugati. Si pu`o verificare che la somma di due matrici hermitiane e` hermitiana e
linversa di una matrice hermitiana invertibile e` hermitiana. Analoghe propriet`a valgono
per le matrici anti-hermitane. Come per le matrici reali simmetriche, la matrice prodotto
AB di due matrici hermitiane A e B e` hermitiana solo se A e B commutano, cio`e se e
solo se AB = BA.
Esercizio 4.30 Si verifichi che linsieme delle matrici hermitiane H(Cn,n ), con le operazioni di somma e prodotto per un numero reale, e` uno spazio vettoriale su R di dimensione
n2 . Inoltre, si provi invece che H(Cn,n ), con le operazioni di somma e prodotto per un
numero complesso, non e` un sottospazio vettoriale complesso di Cn,n .
Soluzione Siano A e B due matrici hermitiane, ossia tA = A e tB = B, si tratta di
dimostrare che la matrice A + B e` hermitiana, infatti:
t

(A + B) = tA + tB = A + B = (A + B).

Sia R, si deve dimostrare che A e` una matrice hermitiana se A H(Cn,n ), infatti:


t

in quanto = .

(A) = tA = A = (A),

Spazi Vettoriali e Sottospazi Vettoriali

198

E` evidente che questa propriet`a e` falsa se C, quindi H(Cn,n ) e` uno spazio vettoriale reale ed e` un sottospazio vettoriale reale di Cn,n , inteso come spazio vettoriale
reale, ma non e` un sottospazio vettoriale complesso di Cn,n inteso come spazio vettoriale
complesso.
Come gi`a accennato in precedenza, una matrice hermitiana A e` del tipo:

a11
a12 + ib12 . . . a1n + ib1n

a12 ib12

a
.
.
.
a
+
ib
22
2n
2n

A=
,

..
..
..
.
.

.
.
.
.

a1n ib1n a2n ib2n . . .


ann
dove ahk , bhk , h, k = 1, 2, . . . , n sono numeri reali. E` quindi un esercizio dimostrare che
una base di H(Cn,n ) e` :

1
0
..
.
..
.

0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...

0
0
..
.
..
.

0 ... ...
1 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...
0
i
..
.
..
.
0

0
0
..
.
..
.

0
0
..
.
..
.

1 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...

0
..
.
..
.

0
0
..
.
..
.

,...,

i ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...

0
1
..
.
..
.

0
0
..
.
..
.
0

0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0 ... ...

, . . . ,

0
0
..
.
..
.

, . . . ,

0
0
..
.
..
.




,

0 1
1 0

0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
i 0 . . . . . .

i
0
..
.
..
.
0

0
0
..
.
..
.

0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
1 0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0 ... ...

, . . . ,

0
0
..
.
..
.

0 0
0 1

0 ... ... 0
.. . .
..
.
.
.
..
.
..
. ..
.
0 ... ... 0
0 . . . . . . i

Da questo segue che:


dim(H(Cn,n )) =

0
..
.
..
.

1
0
..
.
..
.

n(n + 1)
n(n 1)
+
= n2 .
2
2

0
..
.
..
.

i
0

Capitolo 4

199

Esercizio 4.31 Si verifichi che linsieme delle matrici anti-hermitiane AH(Cn,n ), con le
operazioni di somma e prodotto per un numero reale, e` uno spazio vettoriale su R di
dimensione n2 . Inoltre, si provi invece che AH(Cn,n ), con le operazioni di somma e
prodotto per un numero complesso, non e` un sottospazio vettoriale complesso di Cn,n ..
Soluzione In modo analogo allesercizio precedente si dimostra che AH(Cn,n ) e` un
sottospazio vettoriale reale di Cn,n ma non e` un sottospazio vettoriale complesso.
E` facile verificare, a partire dalla definizione, che una matrice anti-hermitiana A e` del
tipo:

ib11
a12 + ib12 . . . a1n + ib1n

a12 + ib12
ib22
. . . a2n + ib2n

A=
,

..
..
..
.
.

.
.
.
.

a1n + ib1n a2n + ib2n . . .


ibnn
dove ahk , bhk , h, k = 1, 2, . . . , n sono numeri reali. E` quindi un esercizio dimostrare che
una base di AH(Cn,n ) e` :

0
1
..
.
..
.
0

1 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...

i
0
..
.
..
.

0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...

0
0
..
.
..
.

0
i
..
.
..
.

0
0
..
.
..
.

i ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...

,...,

, . . .

0
0
..
.
..
.

0
0
..
.
..
.

0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
1 0 . . . . . .

0
0
..
.
..
.

0 ... ...
i ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...

, . . . ,

0
0
..
.
..
.

0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
i 0 ... ...

0
0
..
.
..
.

0
i
0
..
.
..
.
0

1
0
..
.
..
.

0 ... ... 0
.. . .
..
.
.
.
..
.
..
. ..
.
0 ... ... 0
0 . . . . . . 1

0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0 ... ...

, . . . ,

0
..
.
..
.

0
..
.
..
.

0
..
.
..
.

1
0

0 0
0 i

0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0 ... ...

0
..
.
..
.

0
..
.
..
.

0 i
i 0

200

Spazi Vettoriali e Sottospazi Vettoriali

Da questo segue che dim(AH(Cn,n )) = n2 . Si osservi, inoltre, che una matrice A Cn,n
e` hermitiana se e solo se iA e` anti-hermitiana.
E` valido, in campo complesso, il seguente teorema, analogo al Teorema 4.4 dimostrato
nel caso delle matrici quadrate ad elementi reali.
Teorema 4.28 Lo spazio vettoriale reale Cn,n si decompone nel modo seguente:
Cn,n = H(Cn,n ) AH(Cn,n ).
Dimostrazione Si procede come nella dimostrazione del Teorema 4.4, tenendo conto
che ogni matrice A Cn,n si decompone come:
1
1
A = (A + tA) + (A tA)
2
2
e che (A + tA) H(Cn,n ) e (A tA) AH(Cn,n ).
Osservazione 4.34 In letteratura e` spesso usata la notazione:
A = tA,
pertanto una matrice A e` hermitiana se e solo se A = A ed e` anti-hermitiana se e solo
se A = A . Per maggiori propriet`a ed esempi si veda per esempio [15].

Capitolo 5
Spazi Vettoriali Euclidei
Lo scopo di questo capitolo e` quello di estendere il concetto di prodotto scalare, definito
nel Paragrafo 3.7.1 nel caso dello spazio vettoriale V3 , agli spazi vettoriali di dimensione
superiore a tre e, quindi, di introdurre le nozioni di perpendicolarit`a e di angolo in generale, permettendo, di conseguenza, lo studio della geometria euclidea negli spazi vettoriali
di dimensione qualsiasi.

5.1

Definizione di prodotto scalare

Definizione 5.1 Sia V uno spazio vettoriale reale. Si definisce prodotto scalare su V la
funzione:
: V V R,

(x, y) 7 x y

per cui valgano le seguenti propriet`a:


1. x y = y x,

x, y V ;

2. (x + x0 ) y = x y + x0 y,
3. (x) y = (x y) = x (y),
4. x x 0, x V

x, x0 , y V ;
R, x, y V ;

e x x = 0 x = o.

Uno spazio vettoriale reale V su cui e` definito un prodotto scalare prende il nome di
spazio vettoriale euclideo e si indica, in generale, con la scrittura (V, ).
c definito nel Paragrafo 3.7.1
Esempio 5.1 Il prodotto scalare x y = kxkkyk cos(xy)
conferisce a V3 la struttura di spazio vettoriale euclideo.
201

Spazi Vettoriali Euclidei

202

Esempio 5.2 Su Rn si definisce un prodotto scalare naturale che ricalca il calcolo


in componenti (rispetto ad una base ortonormale) del prodotto scalare standard su V3 ,
ricordato nellesempio precedente. Precisamente si pone:
(x1 , x2 , . . . , xn ) (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + . . . + xn yn =

n
X

xi y i ,

(5.1)

i=1

per ogni (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) Rn . Si lascia per esercizio la verifica delle


quattro propriet`a di definizione di prodotto scalare. Con la notazione matriciale:

x1
y1
x2
y2

X = .. , Y = ..
.
.
xn
yn
la (5.1) si scrive come:
X Y = t X Y.

(5.2)

Il prodotto scalare (5.2) prende il nome di prodotto scalare standard su Rn , che viene
cos` dotato della struttura di spazio vettoriale euclideo.
Esempio 5.3 Si consideri la funzione:
: R3 R3 R,
cos` definita:
(x1 , x2 , x3 ) (y1 , y2 , y3 ) = 3x1 y1 + 4x2 y2 + 5x3 y3 .
Si verifica facilmente che e` un altro prodotto scalare su R3 , chiaramente diverso dal
prodotto scalare standard.
Lesempio appena incontrato permette di affermare che, almeno su Rn , e` possibile definire infiniti prodotti scalari, quindi infinite strutture euclidee.
Esempio 5.4 Si consideri la funzione:
: R3 R3 R,
cos` definita:
(x1 , x2 , x3 ) (y1 , y2 , y3 ) = x1 y1 + x2 y2 x3 y3 .
Si osserva che non e` un prodotto scalare su R3 , per esempio (0, 0, 1)(0, 0, 1) = 1
che contraddice il quarto assioma di definizione di prodotto scalare.

Capitolo 5

203

Esempio 5.5 Si consideri la funzione:


? : R3 R3 R,
cos` definita:
(x1 , x2 , x3 ) ? (y1 , y2 , y3 ) = x1 y1 + x2 y2 .
Anche ? non e` un prodotto scalare su R3 , per esempio (0, 0, 1) ? (0, 0, 1) = 0 che
contraddice il quarto assioma di definizione di prodotto scalare.
Il teorema seguente dimostra che uno spazio vettoriale reale, di dimensione finita, ammette almeno un prodotto scalare.
Teorema 5.1 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Esiste un prodotto scalare su V tale che:
x y = tX Y,

x, y V,

(5.3)

dove:

X=

x1
x2
..
.

Y =

xn

y1
y2
..
.

yn

e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti, rispettivamente di x e y, rispetto


alla base B.
La dimostrazione e` lasciata al Lettore per esercizio.
Dal teorema precedente segue che ogni spazio vettoriale reale e` uno spazio vettoriale
euclideo e poiche esistono infinite basi su uno spazio vettoriale, esistono anche infiniti
prodotti scalari sullo stesso spazio vettoriale.
Esercizio 5.1 Verificare che la funzione:
: Rm,n Rm,n R,
definita da:
A B = tr(tA B),
e` un prodotto scalare su Rm,n .

(5.4)

Spazi Vettoriali Euclidei

204

Esempio 5.6 Si consideri nel caso di R2,2 il prodotto scalare definito nellesempio precedente. Si vuole calcolarne lespressione esplicita rispetto a due matrici A = (aij ) e
B = (bij ) di R2,2 . Si ha:

A B = tr

a11 a21
a12 a22



b11 b12
b21 b22


= a11 b11 + a12 b12 + a21 b21 + a22 b22 .

Quindi, se si interpretano gli elementi aij e bij delle matrici A e B come le componenti
delle matrici A e B rispetto alla base canonica (Eij ), i, j = 1, 2, di R2,2 , il precedente
prodotto scalare in componenti corrisponde al prodotto scalare standard su R4 . Si pu`o
verificare che la stessa propriet`a vale in generale su Rm,n , ovvero che il prodotto scalare (5.4) scritto in componenti rispetto alla base canonica (Eij ), i = 1, 2, . . . , m, j =
1, 2, . . . , n, corrisponde al prodotto scalare standard in Rmn .
Esercizio 5.2 Posto:
p(x) = a0 + a1 x + . . . + an xn ,

q(x) = b0 + b1 x + . . . + bn xn ,

verificare che la funzione:


: Rn [x] Rn [x],
definita da:
p(x) q(x) =

n
X

ai b i

(5.5)

i=0

e` un prodotto scalare sullo spazio vettoriale Rn [x] dei polinomi di grado minore o uguale
ad n. La funzione:
: Rn [x] Rn [x] R,
definita da:
p(x) q(x) =

n
X

ai b i

i=1

definisce un prodotto scalare su Rn [x]?

5.2

Norma di un vettore

Definizione 5.2 Sia (V, ) uno spazio vettoriale euclideo. Si definisce norma di un
vettore x di V il numero reale positivo dato da:

kxk = x x.

Capitolo 5

205

Si osservi che la precedente definizione ha senso perche, per il quarto assioma di definizione del prodotto scalare, x x 0, per ogni x V.
Esempio 5.7 In V3 , dotato del prodotto scalare standard (cfr. Par. 3.7.1), la norma di un
vettore x coincide con la sua usuale lunghezza.
Esempio 5.8 Nello spazio vettoriale euclideo (R3 , ), dotato del prodotto scalare standard, si ha:
q
kxk = x21 + x22 + x23 ,
per ogni x = (x1 , x2 , x3 ) R3 .
Esempio 5.9 Se si considera su R3 il prodotto scalare definito nellEsempio 5.3 si ha
che:
q
kxk = 3x21 + 4x22 + 5x23 ,
per ogni x = (x1 , x2 , x3 ) R3 .
Esempio 5.10 Nello spazio vettoriale euclideo (Rn , ), dotato del prodotto scalare standard, si ha:
q
kxk =

x21 + x22 + . . . + x2n ,

per ogni x = (x1 , x2 , . . . , xn ) Rn .


Esempio 5.11 Se su uno spazio vettoriale V su R di dimensione n, riferito ad una base
B = (v1 , v2 , . . . , vn ), si considera il prodotto scalare (5.3), la norma del vettore x =
x1 v1 + x2 v2 + . . . + xn vn e` data da:
q

kxk = tX X = x21 + x22 + . . . + x2n .


Esempio 5.12 La norma della matrice A = (aij ) R2,2 , rispetto al prodotto scalare
considerato nellEsempio 5.6, e` :
q
p
kAk = tr(tA A) = a211 + a212 + a221 + a222 .
Esempio 5.13 La norma del polinomio p(x) = a0 + a1 x + . . . + an xn Rn [x] rispetto
al prodotto scalare (5.5) e` :
v
u n
uX
kp(x)k = t
a2i .
i=0

Spazi Vettoriali Euclidei

206

In generale, una funzione a valori reali prende il nome di norma solo se definisce un
numero reale positivo che verifica propriet`a opportune, precisamente quelle enunciate nel
teorema seguente.
Teorema 5.2 Su uno spazio vettoriale euclideo (V, ), la funzione:
k k : V R,

x 7 kxk

verifica le seguenti propriet`a:


1. kxk 0, x V e kxk = 0 x = o.
2. kxk = || kxk,

R, x V.

3. Teorema di Pitagora: x y = 0 kx + yk2 = kxk2 + kyk2 .


4. Disuguaglianza di CauchySchwarz: |x y| kxk kyk,

x, y V.

5. Disuguaglianza triangolare (o di Minkowski): kx + yk kxk + kyk,


Dimostrazione

x, y V.

1. La dimostrazione e` lasciata al Lettore per esercizio.

2. La dimostrazione segue da (x) (x) = 2 kxk2 .


3. Segue da:
k(x + y)k2 = (x + y) (x + y) = kxk2 + 2x y + kyk2 .

(5.6)

4. La disuguaglianza di CauchySchwarz e` banalmente soddisfatta se uno dei vettori


coincide con il vettore nullo. La si dimostra, quindi, nel caso in cui x e y siano
entrambi diversi dal vettore nullo. Per ogni R si pu`o considerare il polinomio
di secondo grado in :
kx + yk2 = (x + y) (x + y) = 2 kxk2 + 2 x y + kyk2 .
Per il punto 1. si ha che:
2 kxk2 + 2 x y + kyk2 0
per ogni R e, quindi, il trinomio di secondo grado deve avere discriminante
negativo, cio`e:
(x y)2 kxk2 kyk2 0,
per ogni x, y V.

Capitolo 5

207

5. Usando (5.6) e la disuguaglianza di Cauchy-Schwarz si ha:


kx + yk2 kxk2 + 2kxk kyk + kyk2 = (kxk + kyk)2 ,
per ogni x, y V .
Considerati due vettori non nulli x e y di uno spazio vettoriale euclideo (V, ), come
conseguenza della disuguaglianza di CauchySchwarz si ha che:
|x y|
1
kxk kyk
e quindi:
1

xy
1,
kxk kyk

si pu`o allora enunciare la seguente definizione.


Definizione 5.3 Sia (V, ) uno spazio vettoriale euclideo. Dati due vettori x, y V non
nulli, si definisce angolo tra i due vettori x e y langolo [0, ] tale che:
cos =

xy
.
kxk kyk

Osservazione 5.1
1. E` necessario osservare che la nozione di angolo tra due vettori,
appena introdotta, e` coerente con la definizione di angolo tra vettori considerata nel
Paragrafo 3.6, cos` come lo e` la definizione di ortogonalit`a che segue. Inoltre, la
nozione di angolo tra due vettori non dipende dallordine dei due vettori.
2. Come in V3 , anche nel caso generale di uno spazio vettoriale euclideo V langolo
tra il vettore nullo o e un qualunque altro vettore e` indeterminato, ossia pu`o essere
un qualsiasi angolo [0, ].
Definizione 5.4 Due vettori non nulli x e y di uno spazio vettoriale euclideo (V, ) si
dicono ortogonali o perpendicolari se langolo che essi determinano e` = /2. Il
vettore nullo si considera ortogonale ad ogni altro vettore di V. Se = 0 o = i due
vettori si dicono paralleli.
Di conseguenza, le nozioni di angolo e di ortogonalit`a permettono di introdurre gli usuali
concetti di geometria analitica del piano e dello spazio (cfr. Cap. 9, 10, 11 e 12) in spazi
vettoriali euclidei di dimensione maggiore di 3. Si vedr`a, per esempio, nellosservazione
che segue che la nozione di parallelismo di due vettori corrisponde alla dipendenza lineare
dei due vettori.

208

Spazi Vettoriali Euclidei

Osservazione 5.2 Fissati due vettori, la misura dellangolo che essi determinano pu`o
cambiare a seconda del prodotto scalare che si considera. Addirittura, dati due vettori
qualsiasi (non nulli e non paralleli) e` possibile definire un prodotto scalare che li renda
ortogonali. Esempi di questo tipo si possono leggere nel Capitolo 8 (cfr. Es. 8.18), perche non si e` ancora in grado, in questo capitolo, di costruirli esplicitamente in quanto
non e` ancora chiaro come, in generale, sia possibile verificare facilmente che una funzione qualsiasi di dominio V V e codominio R sia o meno un prodotto scalare. E` per`o
una semplice conseguenza della definizione di norma di un vettore il fatto che, per ogni
possibile prodotto scalare definito su uno spazio vettoriale V, il concetto di parallelismo
tra vettori rimane invariato, in altri termini se due vettori sono linearmente dipendenti lo
rimangono per tutti i possibili prodotti scalari che si possano definire su V. Infatti vale il
teorema seguente.
Teorema 5.3 In uno spazio vettoriale euclideo (V, ) due vettori x e y, che individuano
langolo , sono linearmente dipendenti se e solo = 0 o = , cio`e se e solo se:
x y = kxk kyk.
Dimostrazione
La propriet`a e` banalmente vera se uno dei due vettori coincide con il
vettore nullo. Si supponga allora che i due vettori siano entrambi non nulli. Se x e y
sono linearmente dipendenti esiste R tale che y = x e la precedente uguaglianza e`
verificata.
Viceversa, si supponga che per una coppia di vettori non nulli x e y valga luguaglianza
x y = kxk kyk (il caso con il segno negativo e` analogo), allora si ha:
2


 

x
y
x
y
y
x

kxk kyk =
kxk kyk
kxk kyk
=

xx
xy
yy
2
+
= 0.
2
kxk
kxk kyk kyk2

Dal quarto assioma di definizione del prodotto scalare segue:


y=

kyk
x,
kxk

cio`e x e y sono linearmente dipendenti.

5.3

Basi ortonormali

I naturali concetti geometrici di base ortogonale e ortonormale in V3 , introdotti nel Paragrafo 3.7.1, possono essere agevolmente estesi ad uno spazio vettoriale euclideo qualsiasi
con la seguente definizione.

Capitolo 5

209

Definizione 5.5 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Una base
B = (v1 , v2 , . . . , vn ) di V si dice ortogonale se i vettori che la definiscono verificano la
condizione:
vi vj = 0, i 6= j, i, j = 1, 2, . . . , n.
In altri termini, una base si dice ortogonale se i vettori che la compongono sono a due a
due ortogonali.
Una base B = (e1 , e2 , . . . , en ) di V si dice ortonormale se i vettori che la definiscono
verificano entrambe le condizioni:
1. ei ej = 0, i 6= j , i, j = 1, 2, . . . , n;
2. kei k = 1, i = 1, 2, . . . , n.
In altri termini, una base si dice ortonormale se e` una base ortogonale ed ogni vettore
che la compone ha norma uguale a 1.
Esempio 5.14 In R3 la base canonica (e1 , e2 , e3 ), dove:
e1 = (1, 0, 0),

e2 = (0, 1, 0),

e3 = (0, 0, 1),

e` ortonormale rispetto al prodotto scalare standard.


Pi`u in generale, in Rn la base canonica (e1 , e2 , . . . , en ), dove:
e1 = (1, 0, . . . , 0),

e2 = (0, 1, 0, . . . , 0),

...,

en = (0, . . . , 0, 1)

e` anchessa ortonormale rispetto al prodotto scalare standard.


Esercizio 5.3 Si determini in R3 una base ortonormale rispetto al prodotto scalare:
x y = 2x1 y1 + 3x2 y2 + 4x3 y3 .

(5.7)

Soluzione E` immediato verificare che i vettori della base canonica (e1 , e2 , e3 ) di R3


sono a due a due ortogonali e quindi verificano la condizione 1. della Definizione 5.5. Se
si calcola la norma dei tre vettori, rispetto al prodotto scalare che si sta considerando, si
ha:

ke1 k = 2, ke2 k = 3, ke3 k = 2.


Quindi i vettori:


1
1
1
e1 , e2 , e3
2
2
3

formano una base ortonormale di R3 dotato del prodotto scalare (5.7).

Spazi Vettoriali Euclidei

210

Esempio 5.15 In Rm,n la base canonica (Eij ), i = 1, 2, . . . , m, j = 1, 2, . . . , n, e` una


base ortonormale rispetto al prodotto scalare definito da (5.4).
Esempio 5.16 In Rn [x] la base (1, x, . . . , xn ) e` ortonormale rispetto al prodotto scalare
definito da (5.5).
Se si scrive lespressione del prodotto scalare in componenti rispetto ad una base ortonormale su uno spazio vettoriale euclideo di dimensione n, si ottiene la stessa espressione
del prodotto scalare standard su Rn , come si pu`o dedurre dal seguente teorema, la cui
dimostrazione e` un facile esercizio.
Teorema 5.4 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Se B = (e1 , e2 , . . . , en ) e` una base ortonormale e:
x = x1 e1 + x2 e2 + . . . + xn en ,

y = y1 e1 + y2 e2 + . . . + yn en

sono due vettori qualsiasi di V, allora il loro prodotto scalare e` :


x y = x1 y1 + x2 y2 + . . . + xn yn = tX Y,

(5.8)

dove tX Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B.
2. Se B = (e1 , e2 , . . . , en ) e` una base di V tale che, per ogni coppia di vettori:
x = x1 e1 + x2 e2 + . . . + xn en ,

y = y 1 e1 + y 2 e2 + . . . + y n en

di V si ha:
x y = x1 y1 + x2 y2 + . . . + xn yn = tX Y,

(5.9)

dove tX Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B, allora B e` una
base ortonormale.
Osservazione 5.3 Si osservi che, in particolare, come conseguenza del teorema precedente si ha che se B = (e1 , e2 , . . . , en ) e` una base di uno spazio vettoriale V, allora esiste
su V un prodotto scalare che rende la base B ortonormale. Tale prodotto scalare e` infatti semplicemente definito da (5.9). NellEsercizio 5.13 si determiner`a esplicitamente
lespressione del prodotto scalare che rende ortonormale una particolare base di R3 .

Capitolo 5

211

Ora che si e` in grado di scrivere lespressione in componenti del prodotto scalare rispetto
ad una base ortonormale rimane da dimostrare lesistenza di almeno una base ortonormale
rispetto ad ogni prodotto scalare definito su V. A tale scopo e` necessario premettere il
seguente lemma.
Lemma 5.1 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Un insieme I di
k vettori di V :
I = {v1 , v2 , . . . , vk }
tale che:
1. k n;
2. vi 6= o, i = 1, 2, . . . , k ;
3. vi vj = 0, i 6= j , i, j = 1, 2, . . . , k
e` un insieme libero. Se k = n allora I e` una base ortogonale di V.
Dimostrazione Occorre dimostrare che i vettori v1 , v2 , . . . , vk sono linearmente indipendenti, cio`e che lunica loro combinazione lineare uguale al vettore nullo e` quella con
coefficienti tutti uguali a 0. Infatti, se si considera lequazione vettoriale:
1 v1 + . . . + k vk = o,

i R, i = 1, 2, . . . , k

e si moltiplicano scalarmente entrambi i membri per ogni vi , i = 1, 2, . . . , k , tenendo


conto dellipotesi di ortogonalit`a dei vettori, si ha:
i vi vi = i kvi k2 = 0.
Dalla condizione 2. segue i = 0, per ogni i = 1, 2, . . . , k .
Teorema 5.5 Sia (V, ) uno spazio vettoriale euclideo di dimensione n e sia:
B = (v1 , v2 , . . . , vn )
una sua base. A partire da B e` possibile costruire una base ortonormale:
B 0 = (e1 , e2 , . . . , en )
di V tale che:
L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ),

k = 1, 2, . . . , n.

Spazi Vettoriali Euclidei

212

Dimostrazione
Per dimostrare il teorema si utilizza un metodo di calcolo per costruire una base ortonormale a partire da una base assegnata noto come il processo di
ortonormalizzazione di GramSchmidt.
Data una base B = (v1 , v2 , . . . , vn ) si procede con un numero finito di passi, nel modo
seguente:
1. si sceglie come primo vettore della base ortonormale il versore:
e1 = vers v1 =

v1
.
kv1 k

2. Per costruire il secondo vettore e2 si considera il vettore a2 = v2 + e1 , con R


e si determina in modo tale che a2 sia ortogonale a e1 ossia a2 e1 = 0. Si
ottiene:
= v2 e1 .
Quindi:
e2 = vers(v2 (v2 e1 ) e1 )
e` un vettore di norma 1 e ortogonale a e1 .
3. Per costruire il terzo vettore e3 si considera il vettore a3 = v3 + 1 e1 + 2 e2 , con
1 , 2 R e si impongono le due condizioni di ortogonalit`a:

a3 e1 = 0 = v3 e1 + 1 ,
a3 e2 = 0 = v3 e2 + 2 .
Il terzo vettore e` quindi:
e3 = vers(v3 (v3 e1 ) e1 (v3 e2 ) e2 ).
Iterando questo procedimento si ottiene un insieme di n vettori:
ek = vers(vk (vk e1 ) e1 . . . (vk ek1 ) ek1 ),

k = 1, 2, . . . , n,

a due a due ortogonali e di norma uguale a 1. Per il Lemma 5.1, i vettori (e1 , e2 , . . . , en )
costituiscono una base di V. Inoltre, ad ogni passo si ha:
L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ),

k = 1, 2, . . . , n.

Osservazione 5.4 Se (e1 , e2 , . . . , en ) e` una base ortonormale dello spazio vettoriale euclideo (V, ), ogni vettore v di V si pu`o esprimere come:
v = (v e1 ) e1 + (v e2 ) e2 + . . . + (v en ) en .

Capitolo 5

213

Il vettore:
(v e1 ) e1 + (v e2 ) e2 + . . . + (v ek ) ek ,
con k < n, rappresenta, geometricamente, il vettore proiezione ortogonale di v sul sottospazio vettoriale generato dai vettori e1 , e2 , . . . , ek . Si estende cos`, in dimensione
maggiore di 3, la situazione geometrica descritta nellOsservazione 3.16.
Si osservi anche che si pu`o applicare il processo di ortonormalizzazione di GramSchmidt
considerando come vettore e1 il versore di uno qualunque dei vettori della base assegnata
B. Poiche in ogni spazio vettoriale esistono infinite basi, si pu`o concludere che sullo spazio vettoriale euclideo (V, ) esistono infinite basi ortonormali, ed e` altrettanto chiaro che
una base ortonormale rispetto ad un prodotto scalare non e` necessariamente ortonormale
rispetto ad un altro prodotto scalare definito sullo stesso spazio vettoriale euclideo (cfr.
Es. 5.3).
Esercizio 5.4 Nello spazio vettoriale euclideo (R4 , ), dotato del prodotto scalare standard, e` data la base B = (v1 , v2 , v3 , v4 ) con:
v1 = (1, 2, 0, 0),

v2 = (0, 1, 1, 0),

v3 = (0, 0, 1, 1),

v4 = (0, 0, 0, 5).

Determinare una base ortonormale di R4 a partire da B.


Soluzione
Si applica il procedimento di ortonormalizzazione di GramSchmidt alla
base B. Si pu`o iniziare con:
e1 =

1
v1
= (1, 2, 0, 0).
kv1 k
5

Il secondo vettore e2 e` dato dal versore di:


2 1
v2 (v2 e1 ) e1 = (0, 1, 1, 0) (1, 2, 0, 0) =
5 5


2 1
, , 1, 0 .
5 5

Quindi:
5
e2 =
30



2 1
, , 1, 0 =
5 5

!
r
2
1
5
, ,
,0 .
15
6
30

Analogamente si considera come e3 il versore di:


v3 (v3 e1 ) e1 (v3 e2 ) e2 ,
dato da:
r
e3 =

r !
2
1
1
6
, , ,
.
21
7
42
42

214

Spazi Vettoriali Euclidei

In modo analogo, a completamento della base ortonormale richiesta, si ottiene:




2
1
1
1
e4 = , , , .
7
7
7
7
Ci si vuole ora occupare dello studio delle propriet`a della matrice del cambiamento di
base tra due basi ortonormali definite su uno spazio vettoriale euclideo (V, ). Vale limportante teorema che segue, con lavvertenza che, per capirne la dimostrazione, si deve
far riferimento alle nozioni spiegate nel Paragrafo 4.3.4.
Teorema 5.6 Sia B = (e1 , e2 , . . . , en ) una base ortonormale di uno spazio vettoriale
euclideo V di dimensione n, allora B 0 = (e01 , e02 , . . . , e0n ) e` una base ortonormale di V
se e solo se la matrice del cambiamento di base da B a B 0 e` una matrice ortogonale di
ordine n.
Dimostrazione
In uno spazio vettoriale euclideo (V, ) di dimensione n si consideri
la matrice P del cambiamento di base dalla base ortonormale B = (e1 , e2 , . . . , en ) ad
unaltra base ortonormale B 0 = (e01 , e02 , . . . , e0n ) di V. P e` una matrice invertibile che
ha sulle colonne le componenti dei vettori e0i , i = 1, 2, . . . , n, rispetto alla base B e si
pu`o verificare che lelemento di posto ij del prodotto tP P e` dato dal prodotto scalare
e0i e0j scritto in componenti rispetto alla base B. Quindi tP P = I , cio`e P e` una matrice
ortogonale di ordine n. Il viceversa segue in modo analogo.
Osservazione 5.5 Se P Rn,n e` una matrice ortogonale, ossia se tP P = I , allora
t
P = P 1 , moltiplicando ambo i membri per P segue P tP = I ; in altri termini anche
la matrice tP e` ortogonale. Applicando la dimostrazione del Teorema 5.6 a tP si ha che
non solo i vettori colonna ma anche i vettori riga della matrice P costituiscono una base
ortonormale dello spazio vettoriale euclideo Rn , rispetto al prodotto scalare standard. Per
maggiori chiarimenti si veda il Teorema 5.7 in cui sono elencate tutte le propriet`a delle
matrici ortogonali.
Osservazione 5.6 Il Teorema 5.6 non e` pi`u valido se una delle due basi non e` ortonormale. La matrice P del cambiamento di base da una qualunque base B (non ortonormale)
ad una base ortonormale ottenuta da B mediante il processo di ortonormalizzazione di
GramSchmidt non e` una matrice ortogonale, come si pu`o osservare nellesempio che
segue.
Esempio 5.17 In R3 si considerino i due prodotti scalari seguenti:
x y = x1 y1 + x2 y2 + x3 y3 ,
x y = 3x1 y1 + 4x2 y2 + x3 y3 ,

Capitolo 5

215

dove x = x1 e1 + x2 e2 + x3 e3 , y = y1 e1 + y2 e2 + y3 e3 e B = (e1 , e2 , e3 ) con:


e1 = (1, 0, 0),

e2 = (0, 1, 0),

e3 = (0, 0, 1)

base canonica di R3 . B e` una base ortonormale rispetto al prodotto scalare (cfr. Es.
5.14) ma non e` ortonormale rispetto al prodotto scalare . La base B 0 = (v1 , v2 , v3 )
con:




1
1
v1 = , 0, 0 , v2 = 0, , 0 , v3 = (0, 0, 1)
2
3
e` ortonormale rispetto al prodotto scalare , ma, ovviamente, la matrice:
1

P =
0

1
2

del cambiamento di base da B a B 0 non e` ortogonale. Si osservi inoltre che se:


x = x01 v1 + x02 v2 + x03 v3 ,

y = y10 v1 + y20 v2 + y30 v3 ,

allora:
x y = x01 y10 + x02 y20 + x03 y30
essendo B 0 una base ortonormale rispetto al prodotto scalare .
Sia (a1 , a2 , a3 ) una base di R3 con:
a1 = (1, 0, 2),

a2 = (1, 3, 4),

a3 = (0, 3, 4).

A partire da tale base, usando il processo di ortonormalizzazione di GramSchmidt si


vogliono determinare una base ortonormale rispetto al prodotto scalare e una base
ortonormale rispetto al prodotto scalare . Nel primo caso si ottiene la base:

C=

La matrice:


1
2
, 0, ,
5
5

! 

!
4 3 5 2
6
2 3
,
, , , ,
.
7
7 7
7 5 7 7 5

Spazi Vettoriali Euclidei

216

1
4
6

5
7
7 5

3 5
2
Q= 0

7
7

2
2
3

7
5 7 5
e` ortogonale, essendo la matrice del cambiamento di base tra due basi ortonormali B e
C , rispetto allo stesso prodotto scalare. Rispetto al prodotto scalare si ottiene la base
ortonormale C 0 = (v10 , v20 , v30 ) con:
!
r
r
r


1
2
2
1
21
3
v10 = , 0, , v20 =
,
,
,
231 2 22
154
7
7
!
r
2
1
3
v30 =
, ,
.
11 2 22 22

La matrice R che ha sulle colonne le componenti della base C 0 non e` una matrice ortogonale, mentre lo deve essere la matrice del cambiamento di base da B 0 a C 0 , ottenuta dal
prodotto P 1 R. Si lascia per esercizio sia la verifica dellortogonalit`a dellultima matrice
sia la giustificazione del fatto che essa si ottenga proprio nel modo indicato.
Per le matrici ortogonali sono valide le seguenti propriet`a, alcune delle quali sono gi`a
state anticipate nel Paragrafo 2.5 e nel corso di questo capitolo.
Teorema 5.7

1. Il prodotto di due matrici ortogonali e` una matrice ortogonale.

2. La matrice identit`a I e` ortogonale.


3. Linversa P 1 di una matrice ortogonale P e` ortogonale.
4. La trasposta tP di una matrice ortogonale P e` ortogonale.
5. Una matrice P Rn,n e` ortogonale se e solo se le righe e le colonne di P sono le
componenti di una base ortonormale in Rn , rispetto al prodotto scalare standard.
6. Il determinante di una matrice ortogonale P vale 1.
Dimostrazione

1. Se P e Q sono matrici ortogonali si ha:


t

(P Q)P Q = tQ tP P Q = I

e quindi la matrice prodotto P Q e` ortogonale.

Capitolo 5

217

2. La verifica e` lasciata per esercizio.


3. Da tP = P 1 e dal Teorema 2.7 punto 4. segue che (tP )1 = (P 1 )1 da cui la
tesi.
4. Da tP = P 1 segue che t (tP ) tP = P tP = P P 1 = I da cui la tesi.
5. La verifica e` lasciata per esercizio.
6. Per il Teorema 2.16 punto 2. si ha che det(tP P ) = det(tP ) det(P ) = det(I) = 1.
Quindi (det(P ))2 = 1.
Osservazione 5.7
1. Non vale il viceversa del punto 6. del teorema precedente. Ad
esempio, se si considera la matrice:


1 1
A=
0 1
si ha che il determinante di A e` 1 ma A non e` ortogonale.
2. Segue dai punti 1., 2. e 3. che linsieme O(n) delle matrici ortogonali di ordine
n (cfr. (2.9)) e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). Si osservi
inoltre che il gruppo O(2) e` gi`a stato descritto nellEsercizio 3.11.
3. Gli insiemi di matrici:
SL(n, R) = {A Rn,n | det(A) = 1}
e:
SO(n) = {A O(n) | det(A) = 1} = O(n) SL(n, R)

(5.10)

sono entrambi gruppi rispetto al prodotto di matrici. SL(n, R) prende il nome di


gruppo lineare speciale e SO(n) e` detto gruppo ortogonale speciale.
Osservazione 5.8 Si osservi che il valore del prodotto scalare di due vettori in uno spazio vettoriale euclideo V non varia, qualunque sia la base ortonormale scelta per calcolarlo. Infatti se si esprime la formula (5.8), scritta rispetto alla base ortonormale B =
(e1 , e2 , . . . , en ), rispetto ad unaltra base ortonormale B 0 = (e01 , e02 , . . . , e0n ) si ha:
x y = tX 0 Y 0 ,
dove X 0 e Y 0 indicano, rispettivamente, le matrici colonne delle componenti dei vettori
x e y rispetto alla base ortonormale B 0 . Dalle equazioni del cambiamento di base si ha:
X = P X 0,

Y = P Y 0,

dove P e` la matrice ortogonale del cambiamento di base da B a B 0 , quindi:


x y = tX Y = t (P X 0 )(P Y 0 ) = tX 0 (tP P ) Y 0 = tX 0 Y 0 .

218

Spazi Vettoriali Euclidei

Esercizio 5.5 Determinare una matrice ortogonale P in R3,3 in modo tale che il primo
vettore riga sia:

!
2
2
a = 0,
,
.
2
2
Soluzione
Per determinare una matrice ortogonale con le caratteristiche richieste occorre completare linsieme libero {a} a una base ortonormale (a, b, c) di R3 . Si pu`o, ad
esempio, usando il Teorema 4.15, costruire la base C = (a, e1 , e2 ) con :
e1 = (1, 0, 0),

e2 = (0, 0, 1).

Per determinare una base ortonormale, e` sufficiente applicare il processo di ortonormalizzazione di GramSchmidt alla base C , considerando:
b = vers(e1 (e1 a)a) = vers(1, 0, 0) = e1 ,


1 1
c = vers(e2 (e2 a)a (v3 b)b) = vers 0, ,
.
2 2
La matrice ortogonale cercata e` ad esempio:


2
2
0 2 2

0 .
P = 1 0

2
2
0
2
2

5.4

Il complemento ortogonale

Siano (V, ) uno spazio vettoriale euclideo di dimensione n e W un suo sottospazio


vettoriale di dimensione k n.
Definizione 5.6 Si dice complemento ortogonale di W e lo si denota con W il sottoinsieme di V formato da tutti i vettori di V ortogonali ad ogni vettore di W , cio`e:
W = {x V | x y = 0, y W}.
Osservazione 5.9 Per definizione, il complemento ortogonale W di un sottospazio vettoriale W di uno spazio vettoriale euclideo (V, ) e` unico. Inoltre, se W = {o}, allora
W = V e se W = V allora W = {o}.

Capitolo 5

219

Osservazione 5.10 Scelta una base (a1 , a2 , . . . , ak ) di W , la condizione x y = 0, per


ogni y W, e` equivalente a:
x ai = 0,

i = 1, 2, . . . , k.

Infatti si ha:
x (1 a1 + 2 a2 + . . . + k ak ) = x y = 0,
per ogni i R, i = 1, 2, . . . , k . Ma questa condizione e` verificata se e solo se xai = 0,
per ogni i = 1, 2, . . . , k .
Il teorema che segue elenca le propriet`a fondamentali del complemento ortogonale di un
sottospazio vettoriale.
Teorema 5.8 Sia (V, ) uno spazio vettoriale euclideo e sia W un suo sottospazio vettoriale, allora:
1. W V e` un sottospazio vettoriale di V ;
2. W W = V ;
3. (W ) = W.
Dimostrazione

1. La dimostrazione e` lasciata al Lettore per esercizio.

2. Per dimostrare che W + W = V si pu`o procedere in questo modo. Sia dim(V ) =


n, scelta una base (a1 , a2 , . . . , ak ) di W si costruisce la matrice A Rk,n avente
come vettori riga le componenti dei vettori della base di W, rispetto ad una base
ortonormale B di (V, ), cio`e tale che R(A) = W , si ottiene che A ha rango k e
il suo nullspace N (A) coincide con W (cfr. Oss 5.10). Quindi dal Teorema 4.23
segue che dim(W ) + dim(W) = n = dim(V ). Dal Teorema 4.24 si ha anche
che la somma dei due sottospazi vettoriali e` diretta. In aggiunta, si osservi che la
verifica che W W = {o} segue anche facilmente dal fatto che se x W W
si ha che x x = 0 e quindi x = o.
3. E` ovvia conseguenza di 2. Infatti:
W (W ) = V
ma si ha anche che W W = V e quindi segue la tesi per lunicit`a del complemento ortogonale.

220

Spazi Vettoriali Euclidei

Osservazione 5.11 E` importante notare che W e` un sottospazio vettoriale di V supplementare di W in V, ma mentre esistono infiniti sottospazi vettoriali di V supplementari
di W in V, il complemento ortogonale e` unico.
Esercizio 5.6 In (R3 , ), dotato del prodotto scalare standard, determinare il complemento ortogonale W del sottospazio vettoriale:
W = {(x1 , x2 , x3 ) R3 | x1 + x2 + x3 = 0}.
Soluzione
Per lOsservazione 5.10 si pu`o prima determinare una base di W e poi
linsieme dei vettori x ortogonali a tutti i vettori di questa base. Una base di W e` , ad
esempio, data dai due vettori:
a1 = (1, 1, 0),

a2 = (1, 0, 1).

Il complemento ortogonale di W e` formato da tutti i vettori y = (y1 , y2 , y3 ) R3 che


verificano le due condizioni:

y a1 = y1 + y2 = 0
y a2 = y1 + y3 = 0.
Si vede che W corrisponde al nullspace della matrice:


1 1 0
A=
,
1 0 1
cio`e al complemento ortogonale dello spazio vettoriale delle righe R(A), si ottiene che
W = L((1, 1, 1)). Per ulteriori precisazioni sullultima osservazione si veda lEsempio
5.18.
Osservazione 5.12 Da notare che, nellesercizio precedente, una base di W e` formata
dai vettori che hanno come componenti i coefficienti dellequazione x1 + x2 + x3 = 0
che definisce W . Si giustifichi teoricamente questo fatto, ma si presti particolare attenzione a non applicare questa regola nel caso in cui W sia definito come linsieme delle
combinazioni lineari di alcuni vettori.
Esercizio 5.7 In R2,2 si consideri il sottospazio vettoriale:
W = {A R2,2 | tr(A) = 0}.
Si determinino due sottospazi vettoriali diversi supplementari di W e il suo complemento
ortogonale, rispetto al prodotto scalare definito in (5.4).

Capitolo 5

221

Soluzione
Innanzi tutto si osservi che, per le propriet`a della traccia di una matrice
quadrata, W e` un sottospazio vettoriale. E` facile ottenere che dim(W) = 3 e:

 
 

1 0
0 1
0 0
W=L
,
,
,
0 1
0 0
1 0
pertanto W e` un iperpiano vettoriale di R2,2 (cfr. Def. 4.17). I sottospazi vettoriali:




1 0
0 0
W1 = L
, W2 = L
0 1
0 1
sono diversi e entrambi supplementari di W ; il complemento ortogonale W coincide
con W1 .
Esercizio 5.8 Siano W1 e W2 sottospazi vettoriali di uno spazio vettoriale euclideo
(V, ) di dimensione n. Dimostrare che:
(W1 + W2 ) = W1 W2 ,
(W1 W2 ) = W1 + W2 .
Se invece W1 W2 , allora dimostrare che:
W2 W1 .
Esercizio 5.9 In R4 , rispetto al prodotto scalare standard, determinare la proiezione ortogonale del vettore a = (1, 2, 0, 1) sul sottospazio vettoriale:
W = {(x1 , x2 , x3 , x4 ) R4 | x1 + x2 + x3 = 0}.
Soluzione
Per risolvere questo esercizio si deve tener conto dellOsservazione 5.4. Si
tratta, quindi, di determinare una base ortonormale del sottospazio vettoriale W. W e` un
iperpiano vettoriale di R4 generato dai vettori:
a1 = (0, 0, 0, 1),

a2 = (1, 0, 1, 0),

a3 = (0, 1, 1, 0).

Applicando il processo di ortonormalizzazione di GramSchmidt si perviene alla base


ortonormale di W data dai vettori:
b1 = a1 = (0, 0, 0, 1),

1
1
b2 = vers(a2 (a2 b1 )b1 ) = , 0, , 0 ,
2
2


1 2
1
b3 = vers(a3 (a3 b1 )b1 (a3 b2 )b2 ) = , , , 0 .
6 6
6


Spazi Vettoriali Euclidei

222

Il vettore p proiezione ortogonale di a su W e` dato da:


p = (a b1 )b1 + (a b2 )b2 + (a b3 )b3 = (0, 1, 1, 1).
Esercizio 5.10 Si dimostri che nello spazio vettoriale euclideo (Rn,n , ) delle matrici
quadrate di ordine n, dotato del prodotto scalare standard definito in (5.4), il complemento
ortogonale del sottospazio vettoriale delle matrici simmetriche S(Rn,n ) e` il sottospazio
vettoriale delle matrici antisimmetriche A(Rn,n ).
Soluzione Nel Teorema 4.4 si dimostra che Rn,n = S(Rn,n ) A(Rn,n ). Per completare lesercizio e` sufficiente verificare che ogni matrice simmetrica e` ortogonale ad ogni
matrice antisimmetrica. Siano S S(Rn,n ), S 6= O, e A A(Rn,n ), A 6= O, dove
con O Rn,n si indica la matrice nulla, allora tS = S e tA = A, quindi, ricordando le
propriet`a della traccia di una matrice, si ha:
S A = tr(tS A) = tr(S A) = tr(A S) = tr(tA S) = A S,
da cui segue S A = 0.
Esempio 5.18 Sia (V, ) uno spazio vettoriale euclideo di dimensione n e sia:
B = (e1 , e2 , . . . , en )
una sua base ortonormale. Sia W = L(a1 , . . . , ak ) un sottospazio vettoriale di V generato da k vettori linearmente indipendenti a1 , a2 , . . . , ak dati da:

a1
a11 a12 . . . a1n
e1
e1
a2 a21 a22 . . . a2n e2
e2

.. = ..
.. .. = A .. .
. .
.
. .
ak
ak1 ak2 . . . akn
en
en
A e` dunque una matrice di Rk,n di rango k . Come gi`a osservato nella dimostrazione del
Teorema 5.8, il complemento ortogonale di W e` formato dai vettori x di V la cui matrice
X delle componenti e` soluzione del sistema lineare omogeneo AX = O, dove O Rn,1
e` la matrice nulla. Pertanto il nullspace N (A) di A coincide con W . Se si indica con
R(A) lo spazio vettoriale delle righe di A e con C(A) lo spazio vettoriale delle colonne
di A (cfr. Cap. 4.3) segue:
R(A) = N (A),

C(A) = N (tA).

Si osservi che nel Teorema 4.24 era gi`a stato dimostrato che R(A) N (A) = Rn e che
C(A) N (tA) = Rk .

Capitolo 5

5.5

223

Esercizi di riepilogo svolti

Esercizio 5.11 Siano:


u1 = (1, 1, 1, 1),

u2 = (3, 1, 1, 1),

u3 = (0, 1, 1, 2)

elementi di uno spazio vettoriale euclideo (V4 , ), riferiti ad una sua base ortonormale
B = (e1 , e2 , e3 , e4 ).
1. Verificare che i vettori u1 , u2 , u3 sono a due a due ortogonali.

2. Trovare le componenti, rispetto a B, di un vettore u4 , di norma 2, formante un


angolo acuto con e2 e tale che la quaterna (u1 , u2 , u3 , u4 ) sia una base ortogonale
di V4 .
Soluzione

1. Si verifica subito che:

u1 u2 =

3
 1

1 1 1 1
1 = 0,
1

u1 u3 =

0
 1

1 1 1 1
1 = 0,
2

u2 u3 =

0
 1

3 1 1 1
1 = 0.
2

2. Sia u4 = (y1 , y2 , y3 , y4 ) il vettore da determinare. Affinche u4 sia ortogonale ai


tre vettori dati, le sue componenti y1 , y2 , y3 , y4 devono essere soluzioni del sistema
lineare omogeneo con matrice associata A le cui righe sono le componenti dei
vettori u1 , u2 , u3 . Poiche u1 , u2 , u3 sono linearmente indipendenti, rank(A) = 3.
Le soluzioni di tale sistema lineare omogeneo sono:
(y1 = 0, y2 = t, y3 = t, y4 = 0), t R.

La condizione ku4 k = 2 equivale allequazione t2 = 1, vale a dire a t = 1.


Si ottengono cos` due vettori di componenti (0, 1, 1, 0) e (0, 1, 1, 0). Il vettore u4 cercato e` il primo in quanto la seconda componente e` positiva, condizione
equivalente al fatto che langolo tra u4 e e2 sia acuto.

224

Spazi Vettoriali Euclidei

Esercizio 5.12 Sia (V, ) uno spazio vettoriale euclideo.


1. Verificare che linsieme F formato dai vettori di un iperpiano H che sono ortogonali ad un vettore u di V e` un sottospazio vettoriale di V.
2. Nel caso in cui V abbia dimensione 4 e B = (e1 , e2 , e3 , e4 ) sia una sua base
ortonormale, sono dati:
H = {x = x1 e1 + x2 e2 + x3 e3 + x4 e4 V | 2x1 x3 + x4 = 0}
e u = (0, 1, 2, 1), trovare una base ortogonale di F e completarla in modo da
ottenere una base ortogonale di H.
Soluzione
1. Se u e` ortogonale ad H (in particolare se u = o) allora F = H. Se u
non e` ortogonale ad H, F e` lintersezione di H con liperpiano vettoriale H0 =
L(u) ortogonale a u, quindi e` ancora un sottospazio vettoriale di V.
2. Poiche u non e` ortogonale ad H, F = H H0 , dove H0 e` liperpiano vettoriale
ortogonale a u, formato dai vettori x tali che x u = 0, pertanto:
F = {x = x1 e1 + x2 e2 + x3 e3 + x4 e4 V | 2x1 x3 + x4 = x2 + 2x3 + x4 = 0}.
Una base di F e` C = (a1 , a2 ) con a1 = (1, 4, 2, 0), a2 = (1, 2, 0, 2). Per ottenere
una base ortogonale di F si pu`o mantenere il vettore a1 e sostituire al vettore a2
il vettore b2 = a2 + a1 , determinando in modo tale che b2 a1 = 0. Si ha
= 1/3, da cui segue:


2
4 2
b2 = , , , 2 .
3 3
3
Per completare la base (a1 , b2 ) di F ad una base ortogonale di H e` sufficiente
aggiungere un vettore b3 = (y1 , y2 , y3 , y4 ) appartenente ad H e ortogonale a a1 e
a b2 , ossia tale che:

y1 + 4y2 + 2y3 = 0

4
2
2
y1 + y2 y3 + 2y4 = 0

3
3
3

2y1 y3 + y4 = 0,
da cui si ottiene b3 = (2t, 6t, 11t, 7t), t R, t 6= 0. Assegnando al parametro t un valore qualsiasi, non nullo, si ottiene una delle basi richieste.

Capitolo 5

225

Esercizio 5.13 In R3 si consideri il prodotto scalare x y, con x, y R3 , rispetto al


quale la base:
B 0 = ((1, 1, 1), (0, 2, 1), (0, 0, 1))
risulti ortonormale.
1. Determinare la matrice A R3,3 che permette di esprimere in forma matriciale
t
XAY il prodotto scalare xy considerato, dove X e Y indicano le matrici colonne
delle componenti del vettore x e del vettore y, rispetto alla base canonica B di R3 .
2. Verificare che i vettori a = (0, 1, 0) e b = (0, 1, 1) sono ortogonali rispetto al
prodotto scalare considerato.
Soluzione

1. Rispetto alla base B 0 il prodotto scalare in questione e` dato da:


x y = tX 0 Y 0

(5.11)

dove X 0 e Y 0 sono le matrici colonna delle componenti dei vettori x e y riferite a


B 0 . Sia P GL(3, R) la matrice del cambiamento di base dalla base canonica B
di R3 alla base B 0 . Siano X = P X 0 e Y = P Y 0 le equazioni del cambiamento di
base che determinano le relazioni tra le componenti dei vettori x e y rispetto a B
e a B 0 . Si ricava quindi:
X 0 = P 1 X,

Y 0 = P 1 Y

e, sostituendo in (5.11) si ottiene:


X0 Y 0 =

(P 1 X)(P 1 Y ) = tX t (P 1 )P 1 Y

X((tP )1 P 1 )Y = tX(P tP )1 Y.

Pertanto la matrice A cercata, che permette di esprimere il prodotto scalare richiesto rispetto alla base B, e` :
A = (P tP )1 .
Tenendo conto che la matrice P, le cui colonne sono, ordinatamente, le componenti
dei vettori di B 0 , e` data da:

1 0 0
P = 1 2 0 ,
1 1 1

Spazi Vettoriali Euclidei

226

si ricava:

A = (P tP )1

3
2

1
2

1
1

2
2

1

2

1
.

2

2. E` immediato verificare che i vettori a e b sono ortogonali rispetto a questo prodotto


scalare, infatti si ha:

1
3
0
0
2
2



1
1
1 = 0.
ab= 0 1 0


2
2


1
1

1
1
2
2

5.5.1

Per saperne di piu`

Lo scopo di questo paragrafo e` quello di introdurre un prodotto scalare opportuno nel


caso degli spazi vettoriali complessi in modo da potere, anche in questo contesto, definire
il concetto di ortogonalit`a di due vettori.

5.5.2

Spazi vettoriali hermitiani

Loperazione di prodotto scalare (cfr. Def. 5.1) introdotta su uno spazio vettoriale reale
pu`o essere estesa mediante la seguente definizione agli spazi vettoriali complessi.
Definizione 5.7 Sia V uno spazio vettoriale su C. Si definisce prodotto hermitiano su V
la funzione:
: V V C,

(x, y) 7 x y,

per cui valgano le seguenti propriet`a:


1. x y = y x

x, y V ;

2. (x1 + x2 ) y = x1 y + x2 y,

x1 , x 2 , y V ;

Capitolo 5

3. (x) y = (x y),

227

C, x, y V ;

4. x x 0, x V e x x = 0

x = o,

dove y x indica il complesso coniugato di y x.


Uno spazio vettoriale complesso V su cui e` definito un prodotto hermitiano prende il
nome di spazio vettoriale hermitiano o di spazio vettoriale euclideo complesso e si indica,
in generale, con la scrittura (V, ).
Osservazione 5.13
si ha:

1. Come conseguenza delle Propriet`a 1. e 3. della Definizione 5.7

x (y) = (y) x = (y x) = (y x) = (x y),

C, x, y V.

Inoltre, dalle Propriet`a 1., 2. e 3 della Definizione 5.7 si ottiene:


x (1 y1 + 2 y2 ) = 1 (x y1 ) + 2 (x y2 ),

1 , 2 C, x, y1 , y2 V. (5.12)

2. La Propriet`a 4. della Definizione 5.7 ha senso in quanto x x = x x e pertanto


x x e` un numero reale.
Nel caso degli spazi vettoriali hermitiani valgono esempi e teoremi analoghi a quelli gi`a
dimostrati per gli spazi vettoriali euclidei.
Esempio 5.19 Sullo spazio vettoriale complesso Cn (cfr. Es. 4.44) si pu`o definire un prodotto hermitiano che, se ristretto a Rn , coincide con il prodotto scalare standard introdotto
nellEsempio 5.2. Precisamente si pone:
(x1 , x2 , . . . , xn ) (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + . . . + xn yn =

n
X

xi yi ,

i=1

per ogni (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) Cn . Con la notazione matriciale:

x1
y1
x2
y2

X = .. , Y = ..
.
.
xn
yn
la (5.13) si scrive come:
X Y = tX Y ,

(5.13)

228

Spazi Vettoriali Euclidei

dove Y indica la matrice complessa coniugata di Y. E` un esercizio dimostrare che (5.13)


e` un prodotto hermitiano che, spesso, prende il nome di prodotto hermitiano standard
su Cn , che viene cos` dotato della struttura di spazio vettoriale hermitiano. E` ancora un
esercizio dimostrare che:
X Y = tX Y
e` un altro prodotto hermitiano su Cn , che coincide con il prodotto scalare standard di Rn ,
quando lo si riferisce a numeri reali.
Ogni spazio vettoriale complesso, di dimensione finita, ammette almeno un prodotto
hermitiano, vale infatti il seguente teorema.
Teorema 5.9 Sia V uno spazio vettoriale complesso di dimensione n. Data una base
B = (v1 , v2 , . . .,vn ) di V, la funzione:
: V V C,
definita da:
x y = tX Y ,
dove:

X=

x1
x2
..
.

Y =

xn

y1
y2
..
.

yn

e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti rispettivamente di x e y rispetto


alla base B, e` un prodotto hermitiano su V.
La dimostrazione e` un esercizio.
La propriet`a 4. della Definizione 5.7 permette, come per gli spazi vettoriali euclidei, di
definire la norma di un vettore anche nel caso di uno spazio vettoriale hermitiano (V, ).
Infatti si definisce norma di un vettore x di V il numero reale positivo dato da:

kxk = x x
ed e` lasciata al Lettore la verifica della proprie`a:
kxk = || kxk,

x V, C,

dove || indica il modulo del numero complesso .

Capitolo 5

229

Esempio 5.20 Nello spazio vettoriale hermitiano (Cn , ) con il prodotto hermitiano standard (5.13), la norma di x e` data da:
v
v
u n
u n
uX
uX
t
kxk =
xi xi = t
|xi |2 ,
i=1

i=1

dove |xi | indica il modulo del numero complesso xi , i = 1, 2, . . . , n.


Continuano a valere, anche nel caso degli spazi vettoriali hermitiani, la disuguaglianza
di CauchySchwarz e la disuguaglianza triangolare (cfr. Teor. 5.2), anche se la loro
dimostrazione e` pi`u laboriosa rispetto a quella del caso euclideo. Precisamente, vale il
teorema seguente.
Teorema 5.10 Su uno spazio vettoriale hermitiano (V, ), la funzione:
k k : V R,

x 7 kxk

verifica le seguenti propriet`a:


1. Teorema di Pitagora: x y = 0 kx + yk2 = kxk2 + kyk2 .
2. Disuguaglianza di CauchySchwarz: |x y| kxk kyk, x, y V ,
dove |x y| indica il modulo del numero complesso x y.
3. Disuguaglianza triangolare: kx + yk kxk + kyk, x, y V.
Dimostrazione

1. Segue da:

kx + yk2 = (x + y) (x + y) = kxk2 + x y + x y + kxk2 .


2. La disuguaglianza di CauchySchwarz e` banalmente verificata se uno dei due vettori coincide con il vettore nullo. Si supponga, quindi, che x e y siano entrambi
diversi dal vettore nullo. Si inizia la dimostrazione nel caso particolare kyk = 1.
Si ha:
0 kx (x y) yk2 = (x (x y) y) (x (x y) y)
= kxk2 (x y)(x y) (x y)(y x)
+(x y)(x y)kyk2
= kxk2 2|x y|2 + |x y|2 kyk2 = kxk2 |x y|2 .

Spazi Vettoriali Euclidei

230

Quindi |x y| kxk se kyk = 1. Se y 6= o, si pu`o considerare il versore di y.


Applicando allora la precedente disuguaglianza si ottiene:




y
x

kyk kxk,
da cui la tesi.
3. La dimostrazione e` analoga a quella vista nel caso di uno spazio vettoriale euclideo
se si tiene conto che:
x y + y x = x y + x y 2|x y|.

(5.14)

Infatti, dato un numero complesso z = a + ib, con a, b R e a = Re(z), dove


Re(z) indica la parte reale di z, si ha:
|z|2 = z z = a2 + b2 a2 = (Re(z))2 .
Daltra parte 2 Re(z) = z + z da cui:
2 Re(z) = z + z 2|z|,
ossia la (5.14).
Considerati due vettori x e y non nulli di uno spazio vettoriale hermitiano (V, ), dalla
disuguaglianza di CauchySchwarz segue che:
|x y|
1,
kxk kyk
ma ci`o significa solo che il modulo del numero complesso (x y)/(kxk kyk) e` minore o
uguale a 1. Pertanto non e` possibile nel caso degli spazi vettoriali hermitiani introdurre
il concetto di angolo tra due vettori nello stesso modo in cui e` stato definito per gli spazi
vettoriali euclidei. Nonostante ci`o, sugli spazi vettoriali hermitiani, come nel caso reale,
si pu`o introdurre il concetto di ortogonalit`a. Pi`u precisamente, due vettori x e y di uno
spazio vettoriale hermitiano (V, ) si dicono ortogonali se x y = 0. Di conseguenza, e`
valida anche in questo caso la definizione di base ortogonale e ortonormale e continua a
valere anche per uno spazio vettoriale hermitiano il Lemma 5.1. Una base ortonormale su
uno spazio vettoriale hermitiano e` in generale chiamata base unitaria.
Esempio 5.21 La base canonica (e1 , e2 , . . . en ) di Cn e` una base unitaria dello spazio
vettoriale hermitiano (Cn , ) con il prodotto hermitiano standard (5.13).

Capitolo 5

231

Inoltre, analogamente a quanto dimostrato per uno spazio vettoriale euclideo, in uno spazio vettoriale hermitiano (V, ) utilizzando il processo di ortonormalizzazione di Gram
Schmidt (che vale anche nel caso complesso) si pu`o costruire una base unitaria a partire
da una base di V. La dimostrazione e` analoga a quella vista per il Teorema 5.5, facendo
attenzione al fatto che, a differenza del caso reale, il prodotto hermitiano non e` simmetrico, ossia non vale la relazione x y = y x, x, y V, ma vale la propriet`a 1. della
Definizione 5.7.
Osservazione 5.14 La disuguaglianza di CauchySchwarz pu`o essere dimostrata in molti
modi diversi. Si propone di seguito una seconda versione della dimostrazione precedente,
che, anche se pi`u lunga, e` interessante per la sua interpretazione geometrica. Infatti,
sorprendentemente, anche se in uno spazio vettoriale hermitiano non e` definito langolo
tra due vettori, il prodotto hermitiano permette di introdurre la nozione di proiezione
ortogonale di un vettore su un altro vettore. Sia x un vettore non nullo, si definisce il
vettore:
xy
y,
w =x
kyk2
che, nel caso di uno spazio vettoriale euclideo, rappresenterebbe un vettore ortogonale
a y in quanto w e` la differenza di x con la sua proiezione ortogonale su y. Anche in
questo caso si dimostra che w y = 0, infatti:


xy
xy
wy = x
y y =xy
y y = 0.
2
kyk
kyk2
Dal fatto che kwk2 0 si ha:

0ww =wx=


xy
kxk2 kyk2 |y x|2
x
y

x
=
,
kyk2
kyk2

ossia la tesi.
Dal Teorema 5.6 segue che le matrici ortogonali esprimono il cambiamento di base tra
coppie di basi ortonormali di uno spazio vettoriale euclideo. Un risultato analogo e` valido
in uno spazio vettoriale hermitiano, con la differenza che la matrice P del cambiamento
di base deve verificare la relazione:
tP

P = I.

Si pu`o allora introdurre linsieme delle matrici unitarie di Cn,n definito da:
U (n) = {P Cn,n | tP P = I},

232

Spazi Vettoriali Euclidei

che e` lanalogo, nel caso complesso, dellinsieme O(n) delle matrici ortogonali (cfr.
(2.9)).
Si osservi che dalla relazione tP P = I si ottiene tP P = I e P 1 = tP . Inoltre, una
matrice unitaria ad elementi reali e` ovviamente ortogonale ed una matrice ortogonale,
considerata come matrice complessa, e` unitaria. Per le matrici unitarie valgono le seguenti
propriet`a.
Teorema 5.11

1. Il prodotto di due matrici unitarie e` una matrice unitaria.

2. La matrice identit`a I e` unitaria.


3. Linversa P 1 di una matrice unitaria P e` unitaria.
4. La trasposta tP di una matrice unitaria P e` unitaria.
5. Una matrice P Cn,n e` unitaria se e e solo se le righe e le colonne di P sono le componenti di una base ortonormale di Cn , rispetto al prodotto hermitiano
standard.
6. Il determinante di una matrice unitaria P e` un numero complesso di modulo 1.
La dimostrazione, analoga a quella vista per il Teorema 5.7, e` lasciata al Lettore per
esercizio.
Osservazione 5.15 Segue dalle propriet`a 1., 2., 3. del Teorema 5.11 che linsieme delle
matrici unitarie U (n) e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). U (n)
prende il nome di gruppo unitario.
Esempio 5.22 Le matrici unitarie di ordine 1 sono facilmente individuabili, infatti si ha:
U (1) = {z C | z z = 1},
si tratta, quindi, dei numeri complessi di modulo 1. Nel Capitolo 10 si vedr`a uninterpretazione geometrica di tale insieme. E` meno semplice individuare le matrici unitarie di
ordine 2. Si dimostra che sono tutte e sole le matrici:


z1 z2
A=
z 2 z 1
dove , z1 , z2 sono numeri complessi tali che:
|| = 1,

|z1 |2 + |z2 |2 = 1.

Nel Capitolo 11 si vedr`a uninteressante rappresentazione geometrica dellinsieme degli


elementi di U (2) aventi determinante 1.

Capitolo 5

233

Siano (V, ) uno spazio vettoriale hermitiano di dimensione n e W un suo sottospazio


vettoriale di dimensione k n. Come nel caso degli spazi vettoriali euclidei si pu`o
definire il complemento ortogonale W di W per cui valgono le stesse propriet`a del caso
reale (cfr. Teor. 5.8).
Si conclude il capitolo osservando che la norma di un vettore individua il prodotto scalare
o hermitiano che la definisce. Infatti e` un facile esercizio dimostrare che in uno spazio
vettoriale euclideo reale V vale la formula:
xy =


1
kx + yk2 kxk2 kyk2 ,
2

x, y V.

Pi`u complicata la relazione analoga che vale nel caso di uno spazio vettoriale hermitiano:
xy =

1
(ktx + yk2 kxk2 kyk2 )
2
i
+ (kx + iyk2 kxk2 kyk2 ),
2

(5.15)
x, y V.

234

Spazi Vettoriali Euclidei

Capitolo 6
Applicazioni Lineari
Lo scopo di questo capitolo e` quello di introdurre la nozione di applicazione lineare tra
due spazi vettoriali, mettendoli cos` in relazione lun laltro e in modo da poter definire,
come caso particolare, il concetto di movimento rigido o euclideo in uno spazio vettoriale.
Definizione 6.1 Dati due spazi vettoriali reali V e W, si dice applicazione lineare o
omomorfismo o trasformazione lineare da V in W una funzione f : V W che
verifica le seguenti propriet`a:
f (x + y) = f (x) + f (y),
f (x) = f (x),
per ogni x e y in V e per ogni in R, o, equivalentemente:
f (x + y) = f (x) + f (y),
per ogni x e y in V e per ogni e in R.
Lo spazio vettoriale V prende il nome di dominio di f, mentre lo spazio vettoriale W e` il
codominio di f ; f (x) W e` detto vettore immagine di x V mediante f. Se w = f (x)
allora il vettore x V e` detto vettore controimmagine di w W mediante f.
Definizione 6.2 Sia f : V V unapplicazione lineare in cui il dominio e il codominio
coincidono, allora f e` detta endomorfismo o operatore lineare o trasformazione lineare
di V.
Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la
verifica delleventuale linearit`a.
235

Applicazioni Lineari

236

Esempio 6.1 La funzione:


id : V V,

x 7 x,

detta applicazione lineare identica o identit`a, e` unendomorfismo.


Esempio 6.2 La funzione:
O : V W,

x 7 oW ,

dove oW indica il vettore nullo di W, e` unapplicazione lineare, detta applicazione lineare nulla. Se W = V, lendomorfismo O : V V, x 7 oV , prende il nome di
endomorfismo nullo.
Esempio 6.3 La funzione:
f : R2 R,

(x, y) 7 3x + 2y

e` unapplicazione lineare.
Esempio 6.4 La funzione:
f : R2 R,

(x, y) 7 3x + 2y + 5

non e` unapplicazione lineare.


Esempio 6.5 La funzione:
f : R2 R,

(x, y) 7 x2 + 2y

non e` unapplicazione lineare.


Esempio 6.6 La funzione:
f : V3 R,

x 7 a x

con prodotto scalare su V3 e a vettore fissato di V3 , e` lineare. Se a = o allora


f (a) = 0, cio`e f e` lapplicazione lineare nulla.
Esempio 6.7 La funzione:
f : V3 V3 ,

x 7 a x,

con prodotto vettoriale e a vettore fissato di V3 , e` un endomorfismo. Se a = o


allora f (a) = o, ossia f e` lendomorfismo nullo.

Capitolo 6

237

Esempio 6.8 La funzione:


f : Rn,n R,

A 7 det(A),

dove det(A) e` il determinante della matrice A, non e` unapplicazione lineare se n > 1.


Esempio 6.9 La funzione:
f : Rn,n R,

A 7 tr(A),

dove tr(A) e` la traccia della matrice A, e` unapplicazione lineare.


Esempio 6.10 Se lo spazio vettoriale V e` dato dalla somma diretta di due sottospazi
vettoriali W1 e W2 , V = W1 W2 , allora dalla Definizione 4.5 si ha che ogni vettore
x di V si decompone in modo unico come x = x1 + x2 , con x1 W1 e x2 W2 . Le
funzioni:
f1 : V V, x 7 x1 e f2 : V V, x 7 x2
sono applicazioni lineari e prendono il nome di proiezioni di V su W1 e su W2 rispettivamente.
In particolare, se W e` un sottospazio vettoriale di uno spazio vettoriale euclideo (V, ),
si ha che V = W W , dove W indica il complemento ortogonale di W, allora ogni
vettore x di V si decompone in modo unico come x = xW + xW , con xW W e
xW W . Lapplicazione lineare:
p : V V,

x 7 xW

prende il nome di proiezione ortogonale su W .


Esempio 6.11 La funzione:
f : V2 V2 ,

(x1 , x2 ) 7 (x1 , x2 ),

dove (x1 , x2 ) sono le componenti di un qualsiasi vettore di un piano vettoriale V2 rispetto


ad una base ortonormale positiva B = (i, j) (cfr. Cap. 3), e` un endomorfismo di V2 . Si
tratta dellapplicazione lineare che associa ad ogni vettore di V2 il suo simmetrico rispetto
a j.
Esempio 6.12 La funzione:
f : V3 V3 ,

(x1 , x2 , x3 ) 7 (x1 , x2 , x3 ),

dove (x1 , x2 , x3 ) sono le componenti di un qualsiasi vettore dello spazio vettoriale V3


rispetto ad una base ortonormale positiva B = (i, j, k) (cfr. Cap. 3), e` un endomorfismo di
V3 . Si tratta dellapplicazione lineare che associa ad ogni vettore di V3 il suo simmetrico
rispetto al piano vettoriale generato da i e da j.

Applicazioni Lineari

238

Esempio 6.13 La funzione:


f : Rn Rn ,

X 7 AX,

dove X Rn (ma e` considerata come matrice colonna di Rn,1 ) e A Rn,n , e` un


endomorfismo di Rn . Pi`u in generale:
f : Rn Rm ,

X 7 AX,

con X Rn e A Rm,n , e` anchessa unapplicazione lineare.


La dimostrazione del seguente teorema e` lasciata per esercizio.
Teorema 6.1 Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W,
si ha:
1. f (oV ) = oW ,
dove oV indica il vettore nullo di V e oW indica il vettore nullo di W ;
2. f (x) = f (x),

xV;

3. f (1 x1 + 2 x2 + . . . + k xk ) = 1 f (x1 ) + 2 f (x2 ) + . . . + k f (xk ),


i R, xi V, i = 1, 2, . . . , k .

6.1

Matrice associata ad unapplicazione lineare


Equazioni di unapplicazione lineare

Il paragrafo inizia con la dimostrazione del teorema pi`u importante sulle applicazioni
lineari, in cui si chiarisce come si possa assegnare unapplicazione lineare tra due spazi
vettoriali di dimensione finita. E` fondamentale osservare, infatti, che il teorema seguente
e` valido solo nel caso in cui il dominio sia finitamente generato.
Teorema 6.2 Teorema fondamentale delle applicazioni lineari Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato
un insieme {a1 , a2 , . . . , an } di n vettori di uno spazio vettoriale W, esiste ed e` unica
lapplicazione lineare:
f : V W
tale che:
f (vi ) = ai ,

i = 1, 2, . . . , n.

Capitolo 6

239

In altri termini: per assegnare unapplicazione lineare tra due spazi vettoriali V e W,
di cui almeno V di dimensione finita, e` sufficiente conoscere le immagini, mediante la
funzione f, dei vettori di una base di V.
Dimostrazione

Sia x = x1 v1 + x2 v2 + . . . + xn vn V, si definisce f ponendo:


f (x) = x1 a1 + x2 a2 + . . . + xn an .

La dimostrazione del teorema si ottiene dai quattro punti seguenti:


1. f e` una funzione, infatti il vettore f (x) e` definito per ogni vettore x di V ed e`
univocamente determinato, per lesistenza e lunicit`a delle componenti di x rispetto
alla base B.
2. Dalla definizione di f si ha f (vi ) = ai , i = 1, 2, . . . , n. Per esempio, f (v1 ) = a1
in quanto v1 = (1, 0, . . . , 0) rispetto alla base B, e cos` via.
3. Per dimostrare la linearit`a di f si deve verificare che:
f (x + y) = f (x) + f (y),

x, y V, , R.

La tesi segue dalla definizione di f, ponendo:


x = x1 v 1 + x2 v 2 + . . . + xn v n ,

y = y1 v1 + y2 v2 + . . . + yn vn .

Poiche:
x + y = (x1 + y1 )v1 + (x2 + y2 )v2 + . . . + (xn + yn )vn ,
un semplice calcolo prova che:
f (x+y) = (x1 +y1 )a1 +(x2 +y2 )a2 +. . .+(xn +yn )an = f (x)+f (y).
4. Lapplicazione lineare f e` unica. Infatti, se esistesse unaltra applicazione lineare
g : V W, tale che g(vi ) = ai , i = 1, 2, . . . , n, allora si avrebbe:
g(x) = g(x1 v1 + x2 v2 + . . . + xn vn )
= x1 g(v1 ) + x2 g(v2 ) + . . . + xn g(vn )
= x1 a1 + x2 a2 + . . . + xn an ,
per ogni x V, ci`o implicherebbe g(x) = f (x), per ogni x V e quindi g = f .

Applicazioni Lineari

240

Dal Teorema 6.2 segue che definire unapplicazione lineare tra due spazi vettoriali di dimensione finita equivale a conoscere le immagini degli elementi di una base del dominio.
Siano, quindi, V uno spazio vettoriale reale di dimensione n e B = (v1 , v2 , . . . , vn ) una
sua base, e W uno spazio vettoriale reale di dimensione m e C = (w1 , w2 , . . . , wm ) una
sua base. Si intende definire lapplicazione lineare f : V W ponendo:

f (v1 ) = a11 w1 + a21 w2 + . . . + am1 wm

f (v2 ) = a12 w1 + a22 w2 + . . . + am2 wm


(6.1)
..

f (v ) = a w + a w + . . . + a w ,
n
1n 1
2n 2
mn m
con aij R, i = 1, 2, . . . , m, j = 1, 2, . . . , n, che equivale ad assegnare la matrice:

A=

a11
a21
..
.

a12
a22
..
.

. . . a1n
. . . a2n
..
.

Rm,n

am1 am2 . . . amn


ottenuta mettendo, ordinatamente, in colonna le immagini dei vettori della base B espresse rispetto alla base C . La matrice A prende il nome di matrice associata allapplicazione
lineare f rispetto alle basi B e C e si indica come:
A = M B,C (f ).
La scelta di porre in colonna le componenti e` una convenzione, che si ripercuote fortemente sulle considerazioni successive.
Osservazione 6.1
1. Fissata una base B nel dominio V e una base C nel codominio
W, segue dal Teorema 6.2 che la matrice A = M B,C (f ) determina in modo univoco
lapplicazione lineare f : V W.
2. Da notare, quindi, che la matrice A associata allapplicazione lineare f : V W
(rispetto ad una qualsiasi coppia di basi scelta) ha un numero di righe pari alla
dimensione del codominio W e un numero di colonne pari alla dimensione del
dominio V.
3. Se V = W, la matrice associata allendomorfismo f : V V, rispetto ad una
base B di V, e` la matrice quadrata A = M B,B (f ). Attenzione al fatto che si pu`o anche in questo caso considerare una matrice M B,C (f ) con B =
6 C, che, ovviamente,
sar`a diversa dalla matrice A, come si vedr`a nellEsempio 6.14.

Capitolo 6

241

In notazione matriciale le relazioni (6.1) si scrivono come:

f (v1 )
w1
f (v2 )
w2

.. = tA .. .
.
.
f (vn )
wm

(6.2)

Dato un generico vettore x di V, ci si propone di calcolare la sua immagine f (x) mediante la matrice A. Sia:

x1
x2

X = ..
.
xn
la matrice colonna delle componenti di x rispetto alla base B. Si ponga:
f (x) = y1 w1 + y2 w2 + . . . + ym wm ,
se si indica con:

Y =

y1
y2
..
.

ym
la matrice colonna delle componenti di f (x) rispetto alla base C , allora:

f (x) = Y

w1
w2
..
.

wm
Per la linearit`a di f si ha:
f (x) = f (x1 v1 + x2 v2 + . . . + xn vn )
= x1 f (v1 ) + x2 f (v2 ) + . . . + xn f (vn )

f (v1 )
f (v2 )
..
.
f (vn )

(6.3)

Applicazioni Lineari

242

Da (6.3) e da (6.2) segue:

f (x) = Y

w1
w2
..
.

t
= X

wm

f (v1 )
f (v2 )
..
.

t
t
= X A

f (vn )

w1
w2
..
.

wm

ossia, per lunicit`a delle componenti di un vettore rispetto ad una base, si ottiene:
t

Y = tX tA

e quindi:
Y = A X,

(6.4)

che e` il legame cercato tra le componenti, rispetto alla base B, di un vettore x del dominio
V e le componenti della sua immagine f (x), rispetto alla base C . Il sistema lineare, di
m equazioni nelle n incognite (x1 , x2 , . . . , xn ), associato allequazione matriciale (6.4)
prende il nome di sistema lineare delle equazioni dellapplicazione lineare f , rispetto
alle basi B e C .
Gli esempi che seguono mettono in luce la fondamentale importanza della matrice associata ad unapplicazione lineare e delle sue equazioni.
Esempio 6.14 La matrice associata allidentit`a:
id : V V,

x 7 x,

rispetto ad una qualsiasi base B = (v1 , v2 , . . . , vn ) di V, e` la matrice unit`a I di ordine


n (cfr. Es. 6.1). Se si considera unaltra base B 0 = (v10 , v20 , . . . , vn0 ) di V, si ha, invece,
che la matrice associata allidentit`a rispetto alla base B nel dominio e alla base B 0 nel
0
codominio, M B,B (id), coincide con la matrice del cambiamento di base da B 0 a B. In0
fatti, id(vj ) = vj , per ogni j = 1, 2, . . . , n, e quindi per costruzione la matrice M B,B (id)
ha sulle colonne le componenti dei vettori vj della base B rispetto alla base B 0 . Sia
0
P = M B,B la matrice del cambiamento di base da B a B 0 (cfr. Par. 4.3.4), allora:
0

M B,B (id) = P1 .
Ponendo:
id(x) = id(x1 v1 + x2 v2 + . . . + xn vn ) = x01 v10 + x02 v20 + . . . + x0n vn0
segue che le equazioni dellapplicazione lineare id in questo caso sono:
X 0 = P 1 X,

Capitolo 6

243

dove con X si indica la matrice colonna delle componenti del vettore x rispetto alla
base B e con X 0 la matrice colonna delle componenti del vettore id(x) rispetto alla
base B 0 . Si osservi che le equazioni dellendomorfismo id coincidono con le equazioni
del cambiamento di base da B 0 a B. In altri termini la matrice associata allidentit`a e`
la matrice unit`a se e solo se essa e` scritta rispetto alla stessa base nel dominio e nel
codominio.
Esempio 6.15 La matrice associata allendomorfismo nullo:
O : V V,

x 7 o,

rispetto ad una qualsiasi base B di V, e` la matrice nulla O di ordine n se dim(V ) = n


(cfr. Es. 6.2).
Esempio 6.16 Le equazioni, rispetto alla base canonica B di R3 , dellendomorfismo:
f : R3 R3 ,
sono:

(x, y, z) 7 (2x + 3y, y, 3x 2z)


0
x = 2x + 3y
y0 = y
0
z = 3x 2z,

(6.5)

dove (x0 , y 0 , z 0 ) = f ((x, y, z)). Quindi la matrice associata allapplicazione lineare f,


rispetto alla base canonica di R3 , e` :

2 3
0
0 .
A= 0 1
3 0 2
Di conseguenza, limmagine del vettore (2, 0, 3) si calcola mediante il prodotto:


2 3
0
2
0 1

0
0
3 0 2
3
oppure sostituendo ordinatamente in (6.5) i numeri 2, 0, 3 al posto di x, y, z , rispettivamente.
Esempio 6.17 Si consideri di nuovo lEsempio 6.7. In V3 , spazio vettoriale dei vettori
ordinari riferito ad una base ortonormale positiva B = (i, j, k), si definisce lendomorfismo:
f : V3 V3 , x 7 a x,
con a vettore di V3 . La matrice associata ad f , rispetto alla base B, pu`o essere determinata in due modi:

244

Applicazioni Lineari

1. si calcola f (x), ponendo x = x1 i + x2 j + x3 k e a = a1 i + a2 j + a3 k. Si ha:


f (x) = (a3 x2 + a2 x3 )i + (a3 x1 a1 x3 )j + (a2 x1 + a1 x2 )k,
allora la matrice associata ad f, rispetto alla base B, e` :

0 a3 a2
0 a1 .
A = a3
a2 a1
0
Si osservi che A e` una matrice antisimmetrica.
2. Si pu`o pervenire alla matrice A calcolando le immagini dei vettori della base B
e mettendo sulle colonne, rispettivamente, le componenti di f (i), f (j), f (k), di
nuovo rispetto alla base B.
Se a e` il vettore nullo, allora A coincide con la matrice nulla O R3,3 e f e` lendomorfismo nullo.
Esempio 6.18 Rispetto alle basi canoniche B del dominio e C del codominio, la matrice
associata allapplicazione lineare f : R3 R2,2 definita da:


a
a+b
f ((a, b, c)) =
a+b+c
0
e` la matrice appartenente a R4,3 data da:

1
1
A=
1
0

0
1
1
0

0
0
.
1
0

Da notare che le equazioni dellapplicazione lineare f, rispetto alle basi B e C , sono:


0
a =a

0
b =a+b
c0 = a + b + c

0
d =0
con:


f ((a, b, c)) =

a0 b 0
c0 d0


.

Capitolo 6

245

Esercizio 6.1 Si scrivano le matrici associate alle applicazioni lineari introdotte negli
Esempi 6.3, 6.6, 6.9, 6.10, 6.11, 6.12, 6.13, dopo aver fissato basi opportune nel dominio
e nel codominio.
Esercizio 6.2 In R3 , rispetto alla base canonica B = (e1 , e2 , e3 ), e` dato lendomorfismo
f tale che:

f (e1 ) f (e2 ) f (e3 ) = o


2f (e1 ) f (e2 ) = 3e1 + 2e2 e3

f (e1 ) + f (e2 ) = 3e1 e2 + 2e3 ,


determinare la matrice A = M B,B (f ) associata ad f rispetto alla base canonica B di R3
e scrivere le equazioni di f.
Soluzione Si osservi che si ottiene la matrice A risolvendo il sistema lineare di equazioni vettoriali assegnato e si osservi anche che la soluzione esiste ed e` unica se e solo se
la matrice dei coefficienti di tale sistema lineare ha rango massimo. Si proceda, quindi,
con la riduzione per righe della matrice completa:

1 1 1 0
0
0
1 1 1 0 0
0

2 1
2 1
0 3
2 1
0 3 2 1
R

R
+
R
3
3
2
1
1
0 3 1
2
1
0
0 6 1
1
da cui si ha:

f (e1 ) = (6, 1, 1)
2f (e1 ) f (e2 ) = (3, 2, 1)

f (e1 ) f (e2 ) f (e3 ) = (0, 0, 0),

quindi:

f (e1 ) = 6e1 + e2 + e3
f (e2 ) = 9e1 + 3e3

f (e3 ) = 3e1 + e2 2e3 ,


di conseguenza la matrice cercata e` :

1
A=
1

9 3
0
1 .
3 2

Le equazioni di f, rispetto alla base canonica B di R3 , sono:

y1 = 6x1 + 9x2 3x3


y 2 = x1 + x3

y3 = x1 + 3x2 2x3 ,
con f ((x1 , x2 , x3 )) = (y1 , y2 , y3 ).

246

6.2

Applicazioni Lineari

Cambiamenti di base e applicazioni lineari

Per la lettura di questo paragrafo si deve fare costante riferimento al Paragrafo 4.3.4 sul
cambiamento di base in uno spazio vettoriale. Si vogliono, infatti, determinare le relazioni
che intercorrono tra tutte le matrici associate alla stessa applicazione lineare, costruite
cambiando base sia nel dominio sia nel codominio. Si ricordi ci`o che e` stato dimostrato
nel paragrafo precedente. Dati due spazi vettoriali reali V e W con dim(V ) = n e
base B = (v1 , v2 , . . . , vn ), con dim(W ) = m e base C = (w1 , w2 , . . . , wm ), si indichi
con A = M B,C (f ) Rm,n la matrice associata ad unapplicazione lineare f : V W,
rispetto alle basi B e C. Sia X Rn,1 la matrice colonna delle componenti di un generico
vettore x di V, rispetto alla base B, allora la matrice colonna Y delle componenti del
vettore f (x), rispetto alla base C, e` data dallequazione (6.4):
Y = AX.
Si inizia con leffettuare un cambiamento di base in V. Sia B 0 = (v10 , v20 , . . . , vn0 ) unaltra
base di V, indicata con X 0 Rn,1 la matrice colonna delle componenti del vettore x,
rispetto alla base B 0 , le equazioni del cambiamento di base sono:
X = P X 0,

(6.6)

dove P e` la matrice invertibile di ordine n del cambiamento di base da B a B 0. Si effettua


0
anche un cambiamento di base in W. Sia C 0 = (w10 , w20 , . . . , wm
) unaltra base di W,
indicata con Y 0 Rm,1 la matrice colonna delle componenti del vettore f (x), rispetto
alla base C 0 , le equazioni del cambiamento di base sono:
Y = QY 0 ,

(6.7)

dove Q e` la matrice invertibile di ordine m del cambiamento di base da C a C 0 . Di


0 0
conseguenza, indicata con A0 = M B ,C (f ) Rm,n la matrice associata ad f, rispetto alle
basi B 0 e C 0 , le equazioni di f, rispetto a tali basi, sono:
Y 0 = A0 X 0 .

(6.8)

Scopo di questo paragrafo e` quello di individuare la relazione che intercorre tra le matrici
A e A0 . Sostituendo le equazioni (6.6) e (6.7) in (6.4) si ha:
QY 0 = AP X 0
da cui, tenendo conto che la precedente uguaglianza e` valida per ogni X 0 Rn,1 , segue:
A0 = Q1AP

(6.9)

che stabilisce il legame cercato tra le matrici A e A0 associate allapplicazione lineare f .

Capitolo 6

247

Osservazione 6.2 Le matrici associate ad una applicazione lineare f : V W tra


due spazi vettoriali V e W sono infinite, in quanto le basi di V e di W sono infinite.
Due matrici A e A0 , entrambe appartenenti a Rm,n , rappresentano la stessa applicazione
lineare se e solo se esistono una matrice invertibile P Rn,n e una matrice invertibile
Q Rm,m per le quali vale la relazione (6.9).
Nel caso particolare di un endomorfismo f : V V ed effettuando un solo cambiamento di base nello spazio vettoriale V, cio`e considerando nel dominio e nel codominio
lo stesso cambiamento di base, la (6.9) si riduce a:
A0 = P 1AP.

(6.10)

Le matrici di questo tipo rivestono una grande importanza in algebra lineare e hanno una
particolare denominazione, come stabilisce la definizione che segue.
Definizione 6.3 Due matrici quadrate A e A0 , entrambe di ordine n, si dicono simili se
esiste una matrice invertibile P di ordine n tale che A0 = P 1AP.
Le matrici simili sono legate dalle seguenti propriet`a.
Teorema 6.3 Matrici simili hanno:
1. determinante uguale,
2. traccia uguale.
Dimostrazione

1. Segue dal Teorema 2.16, punto 2.

2. E` gi`a stato dimostrato in (2.13) nel Capitolo 2.


Esercizio 6.3 In R4 sono dati i vettori:
v1 = (1, 2, 0, 1),

v2 = (1, 0, 1, 0),

v3 = (1, 0, 0, 2),

v4 = (0, 1, 0, 1),

dopo aver verificato che essi costituiscono una base C di R4 , si consideri lendomorfismo
g di R4 cos` definito:
g(v1 ) = v1 ,

g(v2 ) = 2v1 + v2 ,

g(v3 ) = v2 + v3 ,

g(v4 ) = v3 .

Si scrivano le matrici associate a g sia rispetto alla base C sia rispetto alla base canonica
B di R4 .

248

Applicazioni Lineari

Soluzione La matrice P, ottenuta mettendo in colonna le componenti dei vettori di C


rispetto alla base B, e` la matrice del cambiamento di base da B a C se e solo se ha rango
4, infatti si ha che:

1 1 1
0
2 0
0
1

P =
0 1
0
0
1 0 2 1
e det(P ) = 1. La matrice associata a g rispetto alla base C e` :

1 2
0 0
0 1 1 0
.
A0 = M C,C (g) =
0 0
1 1
0 0
0 0
Da (6.10) segue che la matrice A associata a g , rispetto alla base canonica B di R4 , si
ottiene dal prodotto:
A = P A0 P 1 .

6.3

Immagine e controimmagine di sottospazi vettoriali

Sia f : V W unapplicazione lineare tra due spazi vettoriali reali V e W. In questo


paragrafo si intendono studiare limmagine mediante f di un generico sottospazio vettoriale H di V e la controimmagine mediante f di un generico sottospazio vettoriale K di
W. Si inizia con la seguente definizione.
Definizione 6.4 Sia f : V W unapplicazione lineare tra due spazi vettoriali V e
W e sia H un sottospazio vettoriale di V, il sottoinsieme di W :
f (H) = {f (x) W | x H}
prende il nome di immagine del sottospazio vettoriale H mediante f .
E` molto facile e intuitivo il teorema che segue, la cui dimostrazione e` lasciata al Lettore per esercizio ed e` una conseguenza delle definizioni di sottospazio vettoriale e di
immagine di un sottospazio vettoriale.
Teorema 6.4 Sia H V un sottospazio vettoriale di V, allora linsieme f (H), immagine del sottospazio vettoriale H mediante unapplicazione lineare f : V W, e` un
sottospazio vettoriale dello spazio vettoriale W.

Capitolo 6

249

Se dim(V ) = n e dim(H) = h con h n, data una base (a1 , a2 , . . . , ah ) di H, allora


ogni vettore x di H si esprime come x = x1 a1 + x2 a2 + . . . + xh ah , con x1 , x2 , . . . , xh
numeri reali. Di conseguenza, per la linearit`a di f, si ha:
f (x) = x1 f (a1 ) + x2 f (a2 ) + . . . + xh f (ah )
da cui segue che i vettori f (a1 ), f (a2 ), . . . , f (ah ) sono generatori di f (H). In altri
termini:
dim(f (H)) h.
Per determinare una base di f (H) e` sufficiente estrarre una base dal suo sistema di
generatori {f (a1 ), f (a2 ), . . . , f (ah )}.
Esercizio 6.4 Sia f : R3 R4 lapplicazione lineare definita da:
f ((x1 , x2 , x3 )) = (x1 + x2 , 2x1 + x2 + x3 , x1 + x3 , x2 x3 ),
calcolare una base e la dimensione di f (H), dove:
H = {(x1 , x2 , x3 ) R3 | x1 + x2 + x3 = 0}.
Soluzione Si verifica che dim(H) = 2 e, rispetto alla base canonica di R3 , una base di
H e` data da (a1 , a2 ), con:
a1 = (1, 0, 1),

a2 = (0, 1, 1),

allora f (H) e` generato dai vettori:


f (a1 ) = (1, 1, 0, 1),

f (a2 ) = (1, 0, 1, 2),

scritti rispetto alla base canonica di R4 . Si tratta di due vettori linearmente indipendenti,
pertanto costituiscono una base di f (H) e dim(f (H)) = 2.
Data lapplicazione lineare f : V W tra due spazi vettoriali V e W, come caso
particolare di immagine di un sottospazio vettoriale di V si pu`o considerare il sottospazio
vettoriale di W dato da f (V ), ci`o suggerisce la seguente definizione.
Definizione 6.5 Si definisce sottospazio immagine e si indica con im f il sottospazio
vettoriale f (V ) di W.
In generale dim(im f ) dim(W ) e, in modo naturale, si ha il seguente teorema.
Teorema 6.5 Unapplicazione lineare f : V W tra due spazi vettoriali V e W e`
suriettiva se e solo se im f = W.

Applicazioni Lineari

250

Osservazione 6.3 Se f : V W e se dim(V ) = n, data una base B = (v1 , v2 , . . . , vn )


di V, allora:
im f = L(f (v1 ), f (v2 ), . . . , f (vn ))
quindi:
dim(im f ) dim(V ).
Se dim(W ) = m e C = (w1 , w2 , . . . , wm ) e` una base di W, indicata con A la matrice di
Rm,n associata ad f rispetto alle basi B e C , dal Paragrafo 6.1 segue che:
dim(im f ) = dim(C(A)) = rank(A),
dove C(A) indica lo spazio vettoriale delle colonne della matrice A.
Vale anche levidente ma importante teorema di seguito enunciato.
Teorema 6.6 Tutte le matrici associate alla stessa applicazione lineare hanno lo stesso
rango. In particolare matrici simili hanno lo stesso rango.
Osservazione 6.4

1. f : V W e` suriettiva se e solo se:


rank(A) = dim(W )

dove A e` una qualsiasi matrice associata ad f .


2. Non esiste alcuna applicazione lineare suriettiva da R2 in R3 . Perche?
Esercizio 6.5 Si calcoli im f, dove f : R3 R4 e` lapplicazione lineare definita
nellEsercizio 6.4.
Soluzione

La matrice associata ad f, rispetto alle basi canoniche di R3 e di R4 , e` :

1 1
0
2 1
1
;
A=
1 0
1
0 1 1

riducendo A per colonne si ottiene:

1
2

1
0

1
0
1
1

0
1 C2 C2 C 1
1 1

1
0
0
2 1
1

1 1
1 C3 C3 + C 2
0
1 1

1
0
2 1

1 1
0
1

0
0

0
0

quindi rank(A) = 2 da cui dim(im f ) = 2. Una base di im f e` data dalle due colonne
non nulle della matrice ridotta per colonne, ossia im f = L((1, 2, 1, 0), (0, 1, 1, 1)).

Capitolo 6

251

Osservazione 6.5 Se si riduce per righe una qualsiasi matrice A associata ad unapplicazione lineare f : V W si ottiene una matrice A0 , ridotta per righe, tale che
rank(A) = rank(A0 ) = dim(im f ) ma in generale lo spazio vettoriale C(A) delle colonne di A e` diverso dallo spazio vettoriale C(A0 ) delle colonne di A0 . Pertanto ci si deve
ricordare che per determinare una base di im f (e non solo la sua dimensione) si deve
ridurre la matrice A per colonne e non per righe.
Si intende ora discutere il problema analogo al calcolo dellimmagine di un sottospazio
vettoriale del dominio di unapplicazione lineare, ma relativo ad un sottospazio vettoriale
K del codominio. Si deve pertanto enunciare la seguente definizione.
Definizione 6.6 Sia f : V W unapplicazione lineare tra i due spazi vettoriali V
e W. Si definisce controimmagine di un sottospazio vettoriale K di W mediante f il
sottoinsieme di V dato da:
f 1 (K) = {x V | f (x) K},
vale a dire linsieme delle controimmagini di tutti i vettori di K.
Anche in questo caso si pu`o dimostrare un teorema analogo al Teorema 6.4.
Teorema 6.7 La controimmagine f 1 (K) di un sottospazio vettoriale K di W e` un
sottospazio vettoriale di V.
Dimostrazione Dalla definizione di sottospazio vettoriale (cfr. Def. 4.2) segue che e`
necessario dimostrare che per ogni x1 , x2 f 1 (K) e per ogni , R si ha:
x1 + x2 f 1 (K).
Ci`o significa che si deve dimostrare che f (x1 + x2 ) e` un vettore di K. Per la linearit`a
di f segue:
f (x1 + x2 ) = f (x1 ) + f (x2 ).
Poiche x1 , x2 f 1 (K), le loro immagini f (x1 ) e f (x2 ) appartengono a K, cos` come
la loro somma e il loro prodotto per numeri reali, essendo K un sottospazio vettoriale di
W.
Osservazione 6.6 Si faccia molta attenzione a non confondere (a causa della notazione
usata) il sottospazio vettoriale f 1 (K) con la funzione inversa f 1 (se esiste) di f che
sar`a definita nel Paragrafo 6.4.
Esercizio 6.6 In quali casi la controimmagine di un sottospazio vettoriale coincide con
tutto il dominio? Invece e` evidente che f 1 (K) = f 1 (K im f ).

Applicazioni Lineari

252

Esercizio 6.7 Data lapplicazione lineare f : R3 R4 introdotta nellEsercizio 6.4 si


calcoli la controimmagine del sottospazio vettoriale K di R4 definito da:
K = {(y1 , y2 , y3 , y4 ) R4 | y1 + y2 = 0}.

Soluzione

Il sottospazio vettoriale K e` dato da:


K = {(t1 , t1 , t2 , t3 ) | t1 , t2 , t3 R},

quindi i vettori x R3 la cui immagine appartiene a K sono le soluzioni dellequazione


matriciale AX = Y, con A matrice associata ad f (rispetto alle basi canoniche di R3 e
di R4 ), X matrice colonna delle componenti di x rispetto alla base canonica di R3 e Y
matrice colonna delle componenti, rispetto alla base canonica di R4 , del generico vettore
di K. In questo caso si ha:

1
2

1
0

1
0
1
1
0
1
1 1

t1

t1

R2 R2 2R1
t2

R3 R3 R1
t3

0
R3 R3 R2
0
R4 R4 + R2
0

1
1
0
0 1
1

0 1
1
0
1 1


1
0
t1

1 1
3t1

0
0 2t1 + t2
0
0 t3 3t1


t1

3t1

t2 t1

t3

da cui si ottiene che il sistema lineare e` compatibile se e solo se:



2t1 + t2 = 0,
3t1 + t3 = 0,
ossia se t2 = 2t1 e t3 = 3t1 con t1 R.
Si controlli, per esercizio, che le condizioni ottenute coincidono con limporre che i vettori
(t1 , t1 , t2 , t3 ) appartengano a K im f. Risolvendo il sistema lineare associato alla
matrice ridotta per righe:

1
0

0
0


1
0 t1
1 1 3t1
0
0 0
0
0 0

Capitolo 6

si ottiene:

x1 = t1
x2 =

x3 = 3t1 + ,

253

, t1 R,

da cui segue:
f 1 (K) = L((1, 1, 1), (1, 0, 3)).
Si osservi che, in alternativa, in questo caso, si poteva pervenire allo stesso risultato
sostituendo nellequazione di K : y1 + y2 = 0 le equazioni di f :

y1

y2
y3

y4

= x1 + x2
= 2x1 + x2 + x3 ,
= x1 + x3 ,
= x2 x 3 ,

da cui segue:
3x1 + 2x2 + x3 = 0
che e` lequazione di f 1 (K), rispetto alla base canonica di R3 .
Estremamente importante e` il caso particolare della controimmagine del sottospazio vettoriale improprio {oW } del codominio, per cui vale la seguente definizione.
Definizione 6.7 Il nucleo di unapplicazione lineare f : V W tra due spazi vettoriali V e W e` il sottospazio vettoriale di V controimmagine del sottospazio vettoriale
{oW } del codominio W e si indica con:
ker f = {x V | f (x) = oW }.
Osservazione 6.7 Il fatto che ker f sia un sottospazio vettoriale di V segue dal Teorema
6.7.
Esempio 6.19 Nel caso dellidentit`a, definita nellEsempio 6.1, si ha che ker id = {o} e
im id = V.
Esempio 6.20 Nel caso dellapplicazione nulla, definita nellEsempio 6.2, ker O = V e
im O = {oW }.
Esempio 6.21 Lapplicazione lineare definita nellEsempio 6.6 ha come nucleo il piano
vettoriale ortogonale al vettore a, cio`e ker f = L(a) , mentre im f = R.

254

Applicazioni Lineari

Il calcolo del sottospazio vettoriale im f costituisce un test per valutare leventuale suriettivit`a dellapplicazione lineare f . Lo studio di ker f , invece, e` legato alliniettivit`a di
f , e precisamente vale il seguente teorema.
Teorema 6.8 Sia f : V W unapplicazione lineare tra gli spazi vettoriali V e W,
f e` iniettiva se e solo se ker f = {oV }.
Dimostrazione
Se ker f = {oV } si tratta di dimostrare che f e` iniettiva, ossia che se
f (x) = f (y), con x, y V allora x = y. Ma da f (x) = f (y) segue, per la linearit`a di
f , che f (x y) = oW , cio`e x y = oV da cui la tesi.
Viceversa, se f e` iniettiva e se si suppone che x ker f , allora f (x) = f (oV ) = oW , da
cui x = oV .
Per il calcolo esplicito di ker f, si consideri la matrice A = M B,C (f ) associata allapplicazione lineare f : V W , rispetto alle basi B = (v1 , v2 , . . . , vn ) di V e
C = (w1 , w2 , . . . , wm ) di W. Per definizione, un vettore x V appartiene a ker f se
f (x) = oW , che, usando le equazioni dellapplicazione lineare f scritte rispetto alle basi
B e C , equivale a:
AX = O,

(6.11)

dove X indica la matrice colonna delle componenti di x rispetto alla base B e O Rn,1
e` la matrice colonna nulla. Quindi calcolare ker f equivale a risolvere il sistema lineare
omogeneo (6.11). Dal Teorema 4.23 segue:
dim(ker f ) = dim(V ) rank(A).

(6.12)

Esempio 6.22 Si calcoli ker f nel caso dellapplicazione lineare introdotta nellEsercizio
6.4 e studiata anche nellEsercizio 6.5. Riducendo per righe la matrice A associata ad f ,
rispetto alle basi canoniche di R3 e R4 , si ha:

1 1
0
1
1
0

2 1

1
1
R2 R2 2R1 0 1

A=
0 1
1 0
1
1
R3 R3 R1
0 1 1
0
1 1

1
1

0 1
R3 R3 R2
0
0
R4 R4 + R2
0
0

0
1

0
0

da cui si ottiene che rank(A) = 2 = dim(im f ), mentre dim(ker f ) = 1 = 3 2. Risolvendo il sistema lineare omogeneo ridotto associato alla matrice ridotta per righe prima

Capitolo 6

255

ottenuta segue che ker f = L((1, 1, 1)). Si ricordi che, per determinare esplicitamente
im f , si deve ridurre la matrice A per colonne, come spiegato nellEsercizio 6.5.
Esercizio 6.8 Sia f : R3 R3 lendomorfismo definito da:

f (e1 ) = 2e1
f (e2 ) = e1 + e2 + e3

f (e3 ) = e1 + e2 e3 ,
con B = (e1 , e2 , e3 ) base canonica di R3 . Calcolare ker f e im f .
Soluzione

La matrice associata ad f, rispetto alla base canonica B di R3 , e` :

2 1 1
1 .
A= 0 1
0 1 1

Poiche det(A) = 4, il rango di A e` 3, quindi dim(im f ) = 3, ossia im f = R3 e


dim(ker f ) = 0, da cui ker f = {o}. Quindi f e` sia iniettiva sia suriettiva.
Il teorema che segue stabilisce che liniettivit`a di unapplicazione lineare f e` equivalente
al fatto che dim(f (H)) = dim(H), per ogni sottospazio vettoriale H del dominio.
Teorema 6.9 Lapplicazione lineare f : V W tra due spazi vettoriali V e W e`
iniettiva se e solo se limmagine di ogni insieme libero di V e` un insieme libero di W.
Dimostrazione Sia f : V W unapplicazione lineare iniettiva e sia {a1 , a2 , . . . , ak }
un insieme di vettori linearmente indipendenti di V, si tratta di dimostrare che linsieme
di vettori {f (a1 ), f (a2 ), . . . , f (ak )} di W e` libero. La tesi segue dalla definizione di vettori linearmente indipendenti e dal Teorema 6.8. Infatti, se si considera la combinazione
lineare:
1 f (a1 ) + 2 f (a2 ) + . . . + k f (ak ) = oW ,
con 1 , 2 , . . . , k R, per la linearit`a di f si ha:
f (1 a1 + 2 a2 + . . . + k ak ) = oW
e, quindi, per liniettivit`a di f segue 1 = 2 = . . . = k = 0.
Viceversa, sia x 6= oV , allora {x} e` un insieme libero in V e quindi per ipotesi anche linsieme {f (x)} e` un insieme libero. Pertanto f (x) 6= oW , da cui segue che
necessariamente ker f = {oV }, quindi la tesi.

256

Applicazioni Lineari

Definizione 6.8 Dati due spazi vettoriali V e W, unapplicazione lineare f : V W


che sia biiettiva (cio`e iniettiva e suriettiva) prende il nome di isomorfismo tra V e W. Se
e` possibile definire un isomorfismo tra due spazi vettoriali, questi si dicono isomorfi. Un
endomorfismo f : V V biiettivo prende il nome di automorfismo di V.
Il teorema che segue stabilisce unimportante relazione tra le dimensioni di ker f e di V
ed il rango di una qualunque matrice associata allapplicazione lineare f : V W,
ottenendo in questo modo unaltra dimostrazione del Teorema del Rango 4.19.
Teorema 6.10 Teorema del Rango Sia f : V W unapplicazione lineare tra
due spazi vettoriali V e W, allora:
dim(ker f ) + dim(im f ) = dim(V ).
Dimostrazione Si supponga che dim(V ) = n e dim(ker f ) = h n. Se h = 0 e se
h = n il teorema e` dimostrato (perche?). Sia dunque h < n e sia (a1 , a2 , . . . , ah ) una
base di ker f . Usando il Teorema 4.15 si completi tale insieme libero di vettori fino ad
ottenere la base di V (a1 , a2 , . . . , ah , b1 , b2 , . . . , bnh ). DallOsservazione 6.3 si ha che:
{f (a1 ), f (a2 ), . . . , f (ah ), f (b1 ), f (b2 ), . . . , f (bnh )}
e` un sistema di generatori di im f . Poiche f (a1 ) = oW , f (a2 ) = oW , . . . , f (ah ) = oW ,
la tesi segue se si dimostra che C = {f (b1 ), f (b2 ), . . . , f (bnh )} e` un insieme libero di
W e, quindi, una base di im f . Per provare lindipendenza lineare dei vettori di C si pone:
1 f (b1 ) + 2 f (b2 ) + . . . + nh f (bnh ) = oW ,
con i R, i = 1, 2, . . . , n h, ossia:
f (1 b1 + 2 b2 + . . . + +nh bnh ) = oW ,
da cui segue che il vettore 1 b1 + 2 b2 + . . . + +nh bnh appartiene a ker f, come tale
si pu`o scrivere come combinazione lineare dei vettori della base (a1 , a2 , . . . , ah ) di ker f .
Dallespressione esplicita di tale combinazione lineare e dal fatto che (a1 , a2 , . . . , ah , b1 ,
b2 , . . . , bnh ) e` una base di V segue che 1 = 2 = . . . = nh = 0, ovvero la tesi.
Osservazione 6.8 Si osservi che, nelle ipotesi del teorema precedente,
dim(ker f ) = dim(N (A)) = n dim(R(A)),
dove A indica una matrice associata ad f, rispetto ad una base di V e ad una base di
W, N (A) e` il nullspace di A e R(A) indica lo spazio vettoriale delle righe di A. Dal

Capitolo 6

257

fatto che dim(im f ) = dim(C(A)), con C(A) spazio vettoriale delle colonne di A, segue
quindi che:
dim(R(A)) = dim(C(A)),
vale a dire il Teorema del Rango 4.19. Infatti ogni matrice A Rm,n pu`o sempre essere
considerata come associata ad unapplicazione lineare f : Rn Rm , rispetto alle basi
canoniche di Rn e di Rm .
Nel caso particolare di un endomorfismo di V, tutti i risultati man mano ottenuti si
possono riassumere nel seguente teorema, la cui dimostrazione e` lasciata per esercizio.
Teorema 6.11
1. Sia f : V W unapplicazione lineare tra due spazi vettoriali
V e W con dim(V ) = dim(W ), allora f e` iniettiva se e solo se f e` suriettiva.
2. Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W con
dim(V ) = dim(W ), allora:
a. f e` un isomorfismo se e solo se ker f = {oV }.
b. f e` un isomorfismo se e solo se im f = W.
3. Sia f : V V un endomorfismo di uno spazio vettoriale reale V, allora:
a. f e` un automorfismo se e solo se ker f = {oV }.
b. f e` un automorfismo se e solo se im f = V.
Osservazione 6.9 Il teorema precedente, il Teorema 6.8 e lOsservazione 6.4 possono
essere riscritti in termini di una qualsiasi matrice associata ad unapplicazione lineare f
nel modo seguente.
1. Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W, con
dim(V ) = n e sia B = (v1 , v2 , . . . , vn ) una base di V. Sia dim(W ) = m e
sia C = (w1 , w2 , . . . , wm ) una base di W. Si indichi con A Rm,n la matrice
M B,C (f ) associata a f, rispetto alle basi B e C, allora:
rank(A) = n

f e` iniettiva,

rank(A) = m

f e` suriettiva.

2. Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W tali


che dim(V ) = dim(W ) = n. Sia B = (v1 , v2 , . . . , vn ) una base di V e sia
C = (w1 , w2 , . . . , wn ) una base di W. Si indichi con A Rn,n la matrice quadrata
M B,C (f ) associata a f, rispetto alle basi B e C, allora:
rank(A) = n

det(A) 6= 0

f e` un isomorfismo.

Applicazioni Lineari

258

3. Sia f : V V unendomorfismo di uno spazio vettoriale V, con dim(V ) = n e


con B = (v1 , v2 , . . . , vn ) base di V. Si indichi con A Rn,n la matrice quadrata
M B,B (f ) associata a f , rispetto alla base B, allora:
rank(A) = n

det(A) 6= 0

f e` un automorfismo.

A completamento, invece, dello studio della controimmagine di un sottospazio vettoriale


mediante unapplicazione lineare, e` utile risolvere il seguente esercizio la cui soluzione e`
lasciata al Lettore.
Esercizio 6.9 Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W.
Sia K un sottospazio vettoriale di W allora:
1. ker f f 1 (K);
2. se K im f allora dim(f 1 (K)) = dim(ker f ) + dim(K);
3. in generale dim(f 1 (K im f )) = dim(ker f ) + dim(K im f ).
Lultimo teorema di questo paragrafo stabilisce la condizione necessaria e sufficiente
affinche due spazi vettoriali siano isomorfi.
Teorema 6.12 Due spazi vettoriali sono isomorfi se e solo se essi hanno la stessa dimensione.
Dimostrazione Il fatto che due spazi vettoriali isomorfi abbiano la stessa dimensione
segue in modo evidente dai teoremi precedenti.
Viceversa, si considerino due spazi vettoriali V e W tali che dim(V ) = dim(W ) = n, il
teorema e` dimostrato se si e` in grado di definire un isomorfismo tra di essi. Fissate dunque
una base B = (v1 , v2 , . . . , vn ) in V e una base C = (w1 , w2 , . . . , wn ) in W, si definisca
f : V W ponendo:
f (v1 ) = w1 ,

f (v2 ) = w2 ,

...,

f (vn ) = wn ,

f e` un isomorfismo in quanto im f = W .
Osservazione 6.10 Si osservi che, anche nel caso di un endomorfismo f : V V dalla
relazione dim(ker f ) + dim(im f ) = dim(V ) non segue ker f im f = V. Si consideri,
per esempio, un endomorfismo f di V tale che f 2 = O con O : V V endomorfismo
nullo, dove f 2 e` la composizione f f definita da f 2 (x) = f (f (x)) (cfr. Par. 6.4). Anche

Capitolo 6

259

se non e` ancora stato formalmente introdotto il concetto di composizione di applicazioni


lineari la sua definizione e` molto naturale. Dati x0 im f e x V tali che f (x) = x0 ,
applicando f ad ambo i membri dellultima uguaglianza, segue f 2 (x) = f (x0 ) = o,
quindi im f ker f . Sia A una matrice associata a f rispetto ad una base di V, poiche
im f = C(A) (dove C(A) indica lo spazio vettoriale generato dalle colonne di A) e
ker f = N (A) (dove N (A) indica il nullspace di A), si e` costruito un esempio in cui
C(A) N (A). Si tratta, infatti, di un esercizio che completa la trattazione del Teorema
4.24.
Esempio 6.23 Usando le stesse notazioni del Paragrafo 4.3.4, si considerino due basi
B = (v1 , v2 , . . . , vn ) e B 0 = (v10 , v20 , . . . , vn0 ) in uno spazio vettoriale V. Come gi`a
0
osservato nellEsempio 6.14, la matrice M B,B (id) associata allidenti`a di V rispetto alla
base B nel dominio e alla base B 0 nel codominio e` la matrice del cambiamento di base
da B 0 a B (attenzione allo scambio dellordine delle due basi!) Invece se si considera
lapplicazione lineare:
p : V V,

vi 7 vi0 ,

i = 1, 2, . . . , n,

si ottiene, dalla sua definizione, che p e` un automorfismo di V (cfr. Teor. 6.12). La


matrice ad essa associata, rispetto alla base B sia nel dominio sia nel codomino, e` la
0
matrice del cambiamento di base P = M B,B , ottenuta, infatti, ponendo in colonna le
componenti dei vettori della base B 0 rispetto ai vettori della base B. Si osservi, invece,
che la matrice associata allapplicazione lineare p rispetto alla base B nel dominio e alla
base B 0 nel codominio e` la matrice unit`a I di ordine n anche se p non e` lapplicazione
lineare identica. Si vuole in questo esempio approfondire il legame tra le equazioni del
cambiamento di base da B a B 0 e le equazioni dellautomorfismo p, riferite alla matrice
P ad esso associata. Si ricordi che (cfr. Par. 4.3.4), dato un vettore x di V le sue
componenti:

x1
x2

X = .. ,
.
xn
scritte rispetto alla base B, e le sue componenti:

x01
x0
2
0
X = ..
.
x0n

scritte rispetto alla base B 0 , sono legate dalle equazioni del cambiamento di base:
X = P X 0.

(6.13)

Applicazioni Lineari

260

Daltra parte, limmagine del vettore x mediante lautomorfismo p e` il vettore:

v1


v2
p(x) = y1 y2 . . . yn ..
.
vn
tale che:
Y = P X,
dove:

Y =

y1
y2
..
.

(6.14)

yn
Si osservi che le equazioni (6.13) e (6.14) sono in perfetto accordo in quanto:
p(x) = y1 v1 + y2 v2 + . . . + yn vn
= p(x1 v1 + x2 v2 + . . . + xn vn )
= x1 p(v1 ) + x2 p(v2 ) + . . . + xn p(vn )
= x1 v10 + x2 v20 + . . . + xn vn0 ,
ossia (x1 , x2 , . . . , xn ) sono le componenti di p(x) rispetto alla base B 0 e (y1 , y2 , . . . , yn )
sono le componenti di p(x) rispetto alla base B.

6.4

Operazioni tra applicazioni lineari

In questo paragrafo si inizia con il dimostrare che linsieme delle applicazioni lineari tra
due spazi vettoriali reali V e W :
L(V, W ) = {f : V W | f e` unapplicazione lineare}
e` uno spazio vettoriale reale. Infatti, date f, g L(V, W ), si definisce somma di f e di g
la funzione data da:
(f + g)(x) = f (x) + g(x),
per ogni x V. La funzione f + g e` ancora un elemento di L(V, W ), la verifica e` lasciata per esercizio. Si dimostra anche facilmente che per la somma di applicazioni lineari
appena definita valgono le propriet`a commutativa ed associativa. Esiste, inoltre, lelemento neutro rispetto alla somma di applicazioni lineari dato dallapplicazione lineare nulla

Capitolo 6

261

O definita nellEsempio 6.2 e lapplicazione lineare opposta di f L(V, W ), data da


(f )(x) = f (x), con x V.
In modo altrettanto naturale, e` possibile definire il prodotto di un numero reale per una
applicazione lineare f L(V, W ) come:
(f )(x) = f (x),
per ogni x V. Si verifica che tale prodotto f e` ancora unapplicazione lineare per cui
valgono le quattro propriet`a di definizione di prodotto di un numero reale per un vettore
(la verifica e` un facile esercizio). Segue che L(V, W ) e` un esempio di spazio vettoriale
su R.
Siano dim(V ) = n e B = (v1 , v2 , . . . , vn ) una base di V. Inoltre, siano dim(W ) = m e
C = (w1 , w2 , . . . , wm ) una base di W. Siano A = M B,C (f ) Rm,n la matrice associata
a f e B = M B,C (g) Rm,n la matrice associata a g, e` un esercizio dimostrare che A + B
e` la matrice associata a f + g, rispetto alle basi B e C. Inoltre A e` la matrice associata a
f, rispetto alle basi B e C. Fissate le basi B di V e C di W viene cos` definita, in modo
naturale, la funzione:
: L(V, W ) Rm,n ,

f 7 M B,C (f ),

ossia e` la funzione che associa ad ogni applicazione lineare f la matrice associata ad f


(rispetto alle basi B e C del dominio e del codominio). E` di nuovo un esercizio verificare
che e` un isomorfismo, quindi segue dal Teorema 6.12 che:
dim(L(V, W )) = mn.

(6.15)

Ci si occuper`a ora della composizione di due applicazioni lineari opportunamente definite.


Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W. Ponendo
dim(V ) = n e B = (v1 , v2 , . . . , vn ) base di V, dim(W ) = m e C = (w1 , w2 , . . . , wm )
base di W, si indichi con A Rm,n la matrice associata ad f rispetto alle basi B e C .
Sia g : W Z unaltra applicazione lineare tra gli spazi vettoriali W e Z. Posto
dim(Z) = p e D = (z1 , z2 , . . . , zp ) una base di Z, si indichi con B in Rp,m la matrice
associata a g rispetto alle basi C e D. La funzione:
g f : V Z,

x 7 g(f (x))

prende il nome di composizione delle applicazioni lineari f e g. E` un facile esercizio


verificare che g f e` unapplicazione lineare. Si vuole, quindi, determinare la matrice
ad essa associata, rispetto alle basi B e D. Le equazioni dellapplicazione lineare f sono
Y = AX , dove X indica la matrice colonna di Rn,1 delle componenti del generico vettore

Applicazioni Lineari

262

x di V rispetto alla base B e Y indica la matrice colonna di Rm,1 delle componenti di


f (x) rispetto alla base C . Calcolando limmagine di f (x) mediante g si ottiene Z = BY
dove Z indica la matrice colonna di Rp,1 delle componenti di g(f (x)), rispetto alla base
D, sostituendo si ha:
Z = BY = BAX,
quindi la matrice C Rp,n associata a g f , rispetto alle basi B e D e` data dal prodotto:
C = BA.

(6.16)

Osservazione 6.11 Questo risultato costituisce unaltra giustificazione della definizione di prodotto di matrici (righe per colonne) introdotto nel Capitolo 2 e permette di
dimostrare in modo alternativo a quanto visto nel Paragrafo 4.5.1 la relazione:
rank(BA) min(rank(B), rank(A)).
Infatti, se f, g sono le applicazioni lineari rappresentate dalle matrici A e B si ha che il
prodotto BA, come e` stato appena dimostrato, e` la matrice associata alla composizione
g f . Dallinclusione, di facile dimostrazione, im(g f ) im g , si ottiene:
rank(BA) = dim(im(g f )) dim(im g) = rank(B).
Inoltre, dallinclusione, anchessa facilmente dimostrabile, ker f ker(g f ) e grazie al
Teorema del Rango 6.10 si ottiene laltra disuguaglianza:
rank(BA) = dim(im(g f )) dim(im f ) = rank(A).
Esercizio 6.10 Si considerino gli spazi vettoriali R2 , R3 , R4 riferiti alle rispettive basi
canoniche B, B 0 , B 00 . Date le applicazioni lineari:


1
1
2
0
f : R3 R2 , con A = M B ,B (f ) =
,
1 2 3
4

g : R R ,

con B = M

B00 ,B


(g) =

3 4
5 9

3
0
4 1


,

determinare, se esiste, unapplicazione lineare h : R4 R3 tale che f h = g .


Soluzione Allapplicazione lineare h (rispetto alla basi canoniche del dominio e del
codominio) si associa una matrice X R3,4 , tale che AX = B . Si tratta, quindi, di
risolvere lequazione matriciale cos` ottenuta usando il metodo descritto nel Capitolo 2.

Capitolo 6

263

Nel caso particolare di L(V, V ), ossia dello spazio vettoriale degli endomorfismi di V,
a volte anche indicato con il simbolo End(V ), la composizione di due endomorfismi e`
unoperazione interna, per cui vale la propriet`a associativa, esiste lelemento neutro (lapplicazione lineare identica) ma non vale la propriet`a commutativa. Da nozioni elementari
di algebra segue che una funzione e` invertibile se e solo se e` una biiezione. Si supponga
che f End(V ) sia una biiezione, ossia che f sia un automorfismo di V, esiste allora la
funzione inversa f 1 di f definita come lunica funzione per cui:
f 1 f = f f 1 = id,
con id identit`a di V. Nel caso degli automorfismi di End(V ) si pu`o dimostrare il seguente
teorema.
Teorema 6.13 Sia V uno spazio vettoriale reale.
1. Se f e` un automorfismo di V, anche f 1 e` un automorfismo di V.
2. Se f e g sono automorfismi di V, la loro composizione g f e` ancora un automorfismo di V, inoltre:
(g f )1 = f 1 g 1 .
(6.17)
Dimostrazione Per dimostrare 1. e` sufficiente dimostrare che f 1 e` un endomorfismo
di V, ossia che per ogni x1 , x2 V e per ogni , R allora:
f 1 (x1 + x2 ) = f 1 (x1 ) + f 1 (x2 ).
Ma luguaglianza e` vera perche se si applica f ad ambo i membri si ha:
f (f 1 (x1 + x2 )) = f (f 1 (x1 ) + f 1 (x2 )) = f (f 1 (x1 )) + f (f 1 (x2 )).
La tesi segue dalla definizione di inversa di una funzione, dal fatto che una funzione
invertibile e` necessariamente iniettiva e dalla linearit`a di f.
Per dimostrare 2. tenendo conto che la composizione di due endomorfismi e` un endomorfismo, e` sufficiente dimostrare che g f e` iniettivo. Ma per liniettivit`a di f e di g , si ha
(g f )(x) = o se e solo se x = o. La dimostrazione di (6.17) e` lasciata al Lettore per
esercizio.
Osservazione 6.12
1. Pi`u in generale, se f : V W e` una biezione tra due spazi vettoriali V e W diversi, si pu`o ugualmente introdurre il concetto di funzione
inversa f 1 come lunica funzione f 1 : W V tale che
f 1 f = idV ,

f f 1 = idW ,

dove idV e idW indicano, rispettivamente, lidentit`a di V e lidentit`a di W. Se f


e` un isomorfismo si dimostra, come nel teorema precedente, che f 1 e` ancora un
isomorfismo.

Applicazioni Lineari

264

2. Dal fatto che la matrice associata alla composizione di due applicazioni lineari e`
il prodotto delle matrici associate alle due applicazioni lineari (scegliendo opportunamente le basi nel dominio e nel codominio) segue che allapplicazione lineare
inversa di f e` associata la matrice inversa a quella associata ad f (rispetto alla
stessa scelta di basi in V ). Si noti lassoluto accordo tra risultati noti sullesistenza
dellinversa di una matrice quadrata (rango massimo) e sullesistenza dellinverso di
un endomorfismo (biiettivit`a quindi rango massimo della matrice associata). Si osservi, inoltre, che la relazione (6.17) corrisponde alla relazione (BA)1 = A1 B 1
(cfr. Teor. 2.6) se si considera A matrice associata ad f e B matrice associata a g .
Esercizio 6.11 Sia f : V W un isomorfismo tra due spazi vettoriali reali V e W.
Data una base C = (w1 , w2 , . . . , wn ) di W dimostrare che esiste una base B di V tale
che la matrice associata ad f rispetto alle basi B e C sia la matrice unit`a I di ordine n.
Soluzione

La base B e` data da:


B = (f 1 (w1 ), f 1 (w2 ), . . . , f 1 (wn )),

dove per f 1 indica lisomorfismo inverso di f. La dimostrazione del fatto che B sia una
base di V e che M B,C (f ) = I e` lasciata al Lettore per esercizio.
Esempio 6.24 Si consideri la rotazione R[] : V2 V2 in senso antiorario di angolo
di ogni vettore x del piano vettoriale V2 . Nel Paragrafo 3.8 e` stata determinata la matrice
del cambiamento di base da una base ortonormale B = (i, j) di V2 alla base ortonormale
B 0 = (i0 , j0 ) ottenuta a partire dalla base B mediante la rotazione di angolo . Pertanto la
matrice associata a R[], rispetto alla base B, coincide con la matrice del cambiamento
di base, ossia:


cos sin
B,B
M (R[]) =
,
sin
cos
mentre le equazioni della rotazione R[], che applicata ad un vettore x = xi+yj permette
di ottenere il vettore R[](x) = x0 i + y 0 j, sono:


x0 = x cos y sin
y 0 = x sin + y cos .

Si lascia per esercizio la verifica del fatto che la composizione delle rotazioni R[1 ] e
R[2 ], rispettivamente di angoli 1 e 2 , e` la rotazione R[1 + 2 ]. La rotazione R[] e` un
automorfismo di V2 per ogni valore dellangolo , si verifichi per esercizio che linversa
della rotazione R[] e` la rotazione R[].

Capitolo 6

265

Linsieme delle rotazioni del piano vettoriale V2 , studiate nellesempio precedente, e` un


esempio di gruppo commutativo (cfr. Oss. 2.2). Esso e` in generale indicato come SO(2)
e denominato gruppo ortogonale speciale di ordine 2 (cfr. (5.10)):

SO(2) = {R[] | [0, 2)} =

cos sin
sin
cos

2,2


| [0, 2) .

In particolare, esso e` un sottogruppo del gruppo O(2) delle matrici ortogonali di ordine
2, dove e` chiaro che un sottogruppo di un gruppo e` un sottoinsieme chiuso rispetto alloperazione del gruppo e contenente linverso di ogni suo elemento (cfr. Oss. 4.5 per la
nozione di sottogruppo).
Dato uno spazio vettoriale reale V, linsieme degli automorfismi di V, indicato come:
GL(V, R) = {f : V V | f e` un automorfismo}
e` un gruppo rispetto alla composizione di automorfismi e, in generale, non e` commutativo.
Se dim(V ) = n e fissata una base B in V allora si pu`o stabilire, in modo naturale, la
corrispondenza biunivoca tra GL(V, R) ed il gruppo lineare generale reale GL(n, R) (cfr.
Oss. 2.7) che associa ad ogni f GL(V, R) la matrice A = M B,B (f ). Tale biiezione
e` un automorfismo in quanto alla composizione di automorfismi si associa il prodotto di
matrici e allinverso di un automorfismo si associa linversa della matrice. Un importante
sottogruppo di GL(n, R) e` il gruppo ortogonale O(n) delle matrici ortogonali di Rn.n ,
definito in (2.9). Per approfondimenti sullargomento e maggiori dettagli si rimanda a
testi classici di teoria dei gruppi, quali ad esempio [2] e [13].

6.5

Sottospazi vettoriali invarianti

Sia f : V V e` un endomorfismo di uno spazio vettoriale reale V, il nucleo di f, ker f,


gode di uninteressante propriet`a in quanto limmagine di ogni suo elemento e` ancora un
elemento di ker f , ossia:
f (ker f ) ker f,
infatti si ha banalmente f (ker f ) = {o}. Lo studio dei sottospazi vettoriali di V per cui
vale lo stesso tipo di propriet`a rivestir`a una grande importanza nel capitolo successivo, e`
giustificata quindi la definizione che segue.
Definizione 6.9 Sia f : V V un endomorfismo di uno spazio vettoriale V e sia H
un sottospazio vettoriale di V, H si dice invariante per f se f (H) H.
Osservazione 6.13 La definizione precedente e` ragionevole solo nel caso di un endomorfismo, infatti se f e` unapplicazione lineare f : V W, tra due spazi vettoriali V e W

266

Applicazioni Lineari

diversi, non ha senso confrontare un sottospazio vettoriale H di V con la sua immagine


f (H).
Per i sottospazi vettoriali invarianti vale la seguente propriet`a, la cui dimostrazione e`
lasciata al Lettore per esercizio.
Teorema 6.14 Sia f un endomorfismo di uno spazio vettoriale V. Se H1 , H2 , . . . , Hk
sono sottospazi vettoriali di V invarianti per f, allora la loro somma H1 + H2 + . . . + Hk
e` un sottospazio vettoriale di V invariante per f .
Esercizio 6.12 Sia f : V3 V3 lendomorfismo,
una base ortonormale positiva B = (i, j, k) di V3 , e` :

cos sin

sin cos
A=
0
0

la cui matrice associata, rispetto ad

0
0 .
1

Si descriva il significato geometrico di f e si dimostri che il piano L(i, j) e` un sottospazio


vettoriale di V3 invariante per f.
Esercizio 6.13 Sia f : R3 R3 un endomorfismo tale che f 3 = f f f = O
e per cui f 2 6= O, dove O indica lapplicazione nulla di R3 . Si dimostri che ker(f 2 )
e` un sottospazio vettoriale invariante per f . Per svolgere lesercizio si tenga conto che
ker f ker(f 2 ) e che f 3 (x) = (f f 2 )(x), x V.

Data unapplicazione lineare f : V W tra due spazi vettoriali V e W ed un sottospazio vettoriale H del dominio, si introduce in modo naturale il concetto di restrizione
di f a H nel modo seguente.
Definizione 6.10 Sia f : V W unapplicazione lineare tra due spazi vettoriali V e
W, sia H un sottospazio vettoriale di V, la restrizione di f a H e` la funzione:
f |H : H W,

x 7 f (x).

Il teorema che segue si ottiene in modo evidente dalla definizione di restrizione di unapplicazione lineare e dalla definizione di sottospazio vettoriale invariante per un endomorfismo.
Teorema 6.15
1. La restrizione di unapplicazione lineare f : V W tra due spazi vettoriali V e W ad un sottospazio vettoriale H di V e` ancora unapplicazione
lineare.

Capitolo 6

267

2. La restrizione di un endomorfismo f : V V ad un sottospazio vettoriale H di


V invariante per f e` ancora un endomorfismo:
f |H : H H
tale che:
f |H (x) = f (x),

x H.

(6.18)

Esercizio 6.14 Verificare che la restrizione f |H di un endomorfismo f di uno spazio


vettoriale reale V a H = ker f e` lapplicazione lineare nulla su H.
Esercizio 6.15 Sia f : R4 R3 lapplicazione lineare definita da:
f ((x1 , x2 , x3 , x4 )) = (3x1 + 5x2 + x3 + 2x4 , 3x1 + 5x2 + 3x3 + 4x4 , x3 + x4 );
si consideri liperpiano vettoriale H di R4 di equazione x1 + x2 + x3 x4 = 0. Verificare
che linsieme B = {(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1)} e` una base di H e scrivere la matrice A0 della restrizione di f ad H, rispetto alla base B del dominio e alla base canonica
del codominio.
Soluzione Liperpiano vettoriale H ha dimensione 3, si verifica facilmente che B e`
una sua base in quanto i vettori di B appartengono ad H e sono linearmente indipendenti.
La matrice A associata allapplicazione lineare f rispetto alle basi canoniche di R4 e di
R3 e` :

3 5 1 2
A = 3 5 3 4 .
0 0 1 1
Le immagini dei vettori di B mediante f sono:


1
3 5 1 2
5
3 5 3 4 0 = 7 ,
0
0 0 1 1
1
1


0
3
3 5 1 2
3 5 3 4 0 = 7 .
1
0 0 1 1
2
1

Segue, quindi, che la matrice A0 richiesta e` :


0
3 5 1 2
7
3 5 3 4 1 = 9 ,
0
0 0 1 1
1
1

Applicazioni Lineari

268

5 7 3
A0 = 7 9 7 .
1 1 2

6.6

Applicazione lineare aggiunta


Endomorfismi autoaggiunti

Siano (V, ) e (W, ) due spazi vettoriali euclidei e sia f : V W unapplicazione


lineare. Tramite i prodotti scalari definiti su V e su W e` possibile introdurre una nuova
applicazione lineare da W a V nel modo seguente.
Teorema 6.16 Siano (V, ) e (W, ) due spazi vettoriali euclidei di dimensione n e m,
rispettivamente. Data unapplicazione lineare f : V W, esiste ununica applicazione lineare:
f : W V,
detta applicazione lineare aggiunta di f , tale che:
f (x) y = x f (y),

x V, y W.

(6.19)

Inoltre, se B = (v1 , v2 , . . . , vn ) e C = (w1 , w2 , . . . , wm ) sono basi ortonormali di V e


W rispettivamente, le matrici associate a f e f verificano la seguente relazione:
M C,B (f ) = t (M B,C (f )),
ossia la matrice associata a f , rispetto alle basi ortonormali B e C, e` la trasposta della
matrice associata a f rispetto alle stesse basi in ordine scambiato.
Dimostrazione La relazione (6.19) permette di dimostrare che f e` una funzione. Infatti, per ogni y W esiste ed e` unico f (y), in quanto fissato x V, il primo membro
di (6.19) e` ben determinato. Inoltre f e` unapplicazione lineare, la verifica e` un facile esercizio che segue dalla linearit`a di f e dalle propriet`a del prodotto scalare. Sia
A = M B,C (f ) la matrice associata a f rispetto alle basi ortonormali B e C e siano
x = x1 v1 + x2 v2 + . . . + xn vn V, y = y1 w1 + y2 w2 + . . . + ym wm W. Per
lortonormalit`a di C si ha:
f (x) y = t (AX)Y = tX tA Y,
dove X e Y sono le matrici colonna con elementi le componenti di x e di y rispettivamente. Se si indicano con Z la matrice colonna con elementi le componenti di z = f (y)
rispetto alla base B, per lortonormalit`a di B e dalluguaglianza (6.19), si ottiene:
t

X tA Y = x z = tX Z,

Capitolo 6

269

per ogni X , Y e Z , da cui Z = tA Y. Quindi si ha che la matrice associata a f e`


M C,B (f ) = tA.
Osservazione 6.14 1. Come conseguenza del precedente teorema e dellOsservazione
4.26 si ha dim(im f ) = dim(im f ).
2. Dalla definizione di applicazione lineare aggiunta segue che (f ) = f.
3. Se le basi B e C non sono ortonormali, la relazione tra le matrici associate a f e f
e` pi`u complicata.
Esercizio 6.16 Siano (V, ) e (W, ) due spazi vettoriali euclidei. Verificare che, se
f : V W e` unapplicazione lineare e f : W V e` lapplicazione lineare
aggiunta di f , allora:
1. V = im f ker f,
2. W = im f ker f ,
3. im f = (ker f ) ,
4. im f = (ker f ) .
Esercizio 6.17 Verificare che, se f, g sono endomorfismi di uno spazio vettoriale euclideo (V, ), allora:
(g f ) = f g
e che se f e` invertibile, allora:
(f 1 ) = (f )1 .

Nel caso di un endomorfismo f di uno spazio vettoriale euclideo V ha senso confrontare


f con la propria applicazione lineare aggiunta f ed e` pertanto naturale enunciare la
seguente definizione.
Definizione 6.11 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, ), f si
dice autoaggiunto (o simmetrico), se f = f , ossia se:
f (x) y = x f (y),

x, y V.

Applicazioni Lineari

270

Esempio 6.25 Si consideri lo spazio vettoriale euclideo (R2 , ) dotato del prodotto scalare standard. Lendomorfismo
f : R2 R2 ,

(x, y) 7 (y, x + 2y)

e` autoaggiunto. Infatti:
f ((x, y)) (x0 , y 0 ) = (y, x + 2y) (x0 , y 0 ) = yx0 + xy 0 + 2yy 0 ,
(x, y) f ((x0 , y 0 )) = (x, y) (y 0 , x0 + 2y 0 ) = xy 0 + yx0 + 2yy 0 ,
per ogni (x, y), (x0 , y 0 ) appartenenti a R2 .
Esempio 6.26 Un esempio importante di endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, ) e` la proiezione ortogonale p su un sottospazio vettoriale W di V
(cfr. Es. 6.10). Infatti, posto p(x) = xW , si ha:
p(x) y = xW (yW + yW ) = xW yW = x p(y),
per ogni x, y in V.
Teorema 6.17 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, ) di dimensione n e sia B una base ortonormale di V. Lendomorfismo f e` autoaggiunto se e solo
se la matrice A = M B,B (f ) Rn,n e` simmetrica.
Dimostrazione
Poiche la base B e` ortonormale, dal Teorema 6.16 si ottiene che
B,B

t
M (f ) = A. Pertanto f = f se e solo se tA = A, ossia se e solo se la matrice
A e` simmetrica.
Osservazione 6.15 Si osservi che dal Teorema 6.17 segue che la matrice associata ad un
endomorfismo autoaggiunto f : V V di uno spazio vettoriale euclideo (V, ) di
dimensione n, rispetto ad una base B di V, e` simmetrica solo se la base B e` ortonormale.
Infatti, se si considera unaltra base C di V, allora si ha che la matrice associata a f
rispetto a C e` A0 = P 1 AP, con P matrice del cambiamento di base da B a C. In
generale, A0 non e` simmetrica nonostante A lo sia, in quanto
t

A0 = t (P 1 AP ) = t P tA t (P 1 ) = t P A t (P 1 )

che non coincide con A0 a meno che tP = P 1 , ovvero a meno che P sia una matrice
ortogonale. In altri termini, affinche A0 sia simmetrica, anche la base C deve essere
ortonormale (cfr. Teor. 5.6).

Capitolo 6

271

Osservazione 6.16 Nel caso della proiezione ortogonale p su un sottospazio vettoriale


W di uno spazio vettoriale euclideo, considerata nellEsempio 6.26, si ha non solo che
W e` invariante per p (cfr. Def. 6.9) ma lo e` anche il suo complemento ortogonale. Infatti
se x W allora p(x) = o.
Vale il seguente teorema che estende la precedente osservazione ad ogni endomorfismo
autoaggiunto e ad ogni sottospazio vettoriale invariante.
Teorema 6.18 Se f e` un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, ) e se W e` un sottospazio vettoriale di V invariante rispetto a f, anche il
complemento ortogonale W di W e` invariante rispetto a f .
Dimostrazione

Per ogni x W e per ogni y W si ha:


f (x) y = x f (y) = 0,

poiche f (y) W per ipotesi. Quindi f (x) e` ortogonale a tutti gli elementi di W e perci`o
appartiene a W .
Esercizio 6.18 Sia V uno spazio vettoriale euclideo e siano W1 , W2 due suoi sottospazi
vettoriali supplementari, ossia V = W1 W2 . Si considerino i due endomorfismi f1
e f2 di V, proiezioni su W1 e su W2 rispettivamente. Vale a dire, se per ogni x in V,
x = x1 + x2 , (x1 W1 e x2 W2 ) allora si ha f1 (x) = x1 e f2 (x) = x2 (cfr. Es. 6.10).
Dire se e quando f1 e f2 sono endomorfismi autoaggiunti.

6.7

Esercizi di riepilogo svolti

Esercizio 6.19 In R3 , rispetto alla base canonica B = (e1 , e2 , e3 ), si consideri lendomorfismo f definito, al variare di un parametro reale h, da:

f (e1 ) = e1 + 2e2 e3
f (e2 ) = e1 + 2e2

f (e3 ) = 3e1 + he2 + (h + 1)e3 .


Determinare:
1. la matrice A associata ad f, rispetto alla base B;
2. lespressione dellimmagine di un generico vettore di R3 ;
3. per quali valori di h f e` un automorfismo;

272

Applicazioni Lineari

4. nel caso di h = 2 una base di ker f ed una base di im f ;


5. la matrice associata allautomorfismo f 1 , rispetto alla base B, nei casi in cui ci`o
sia possibile.
Soluzione
1. E` necessario osservare che le condizioni date definiscono un unico endomorfismo f, in quanto sono state assegnate le immagini dei vettori della base B.
(Perche?) Per costruzione, la matrice A associata ad f, rispetto alla base B, si ottiene scrivendo in colonna, ordinatamente, le componenti dei vettori immagine dei
vettori della base, pertanto:

1 1
3
2
h .
A = M B,B (f ) = 2
1
0 h+1
2. Se x = x1 e1 + x2 e2 + x3 e3 e` un generico vettore di R3 , allora la sua immagine
f (x) = y1 e1 + y2 e2 + y3 e3 si ottiene mediante le equazioni di f scritte rispetto alla
base B, vale a dire:

y1 = x1 x2 + 3x3
y2 = 2x1 + 2x2 + hx3

y3 = x1 + (h + 1)x3 .
3. Lendomorfismo f e` un automorfismo se e solo se il rango della matrice A e` massimo, o, in modo equivalente, se e solo se det(A) 6= 0. Dal calcolo del determinante
della matrice A si ottiene det(A) = 5h + 10, di conseguenza f e` un automorfismo
per ogni valore di h ad eccezione di h = 2.
4. Dal punto precedente segue che per h = 2 lendomorfismo f non e` un automorfismo. Riducendo la matrice A per righe si ha:

1 1
3
1 1
3

1
2 2
1 1
A = 2
R2 (1/2)R2
1
0 1
1
0 1

1 1
3

2
0
2 ,
R2 R2 + R1
1
0 1
da cui segue che rank(A) = 2, perci`o dim(im f ) = 2 e dim(ker f ) = 1. Una
base del nucleo di f si ottiene risolvendo il sistema lineare omogeneo associato
alla matrice ridotta per righe ottenuta da A, ossia:

x1 x2 + 3x3 = 0
x1 + x3 = 0,

Capitolo 6

273

le cui soluzioni sono (x1 = t, x2 = 2t, x3 = t), con t R, perci`o:


ker f = L((1, 2, 1)).
Una base di im f e` formata da due colonne linearmente indipendenti della matrice
A, per esempio:
im f = L((1, 2, 1), (1, 2, 0)).
5. Esiste f 1 se e solo se f e` un automorfismo, ossia se e solo se h 6= 2. In questi
casi, la matrice associata a f 1 , rispetto alla base B, e` A1 data da:
2(1 + h)
5(2 + h)

2 + 3h

=
5(2 + h)

2
5(2 + h)

A1

1+h
6+h

5(2 + h)
5(2 + h)

4+h
6h

.
5(2 + h) 5(2 + h)

1
4
5(2 + h) 5(2 + h)

Esercizio 6.20 Nello spazio vettoriale R3 siano B la base canonica e B 0 = (u1 , u2 , u3 )


la base formata dai vettori u1 = (1, 2, 3), u2 = (0, 1, 1), u3 = (2, 1, 0) e, nello
spazio vettoriale R4 , sia C la base canonica. Data lapplicazione lineare f : R3 R4
definita, per ogni parametro k reale, ponendo:
f (u1 ) = (1, 2, k, 1),

f (u2 ) = (0, 2, 0, k),

f (u3 ) = (0, 4, 0, 2),

1. scrivere la matrice A0 associata ad f rispetto alle basi B 0 e C ;


2. scrivere la matrice A associata ad f rispetto alle basi B e C ;
3. stabilire per quali valori di k lapplicazione lineare f non e` iniettiva e determinare
in questi casi una base di ker f ;
4. stabilire per quali valori di k lapplicazione lineare e` suriettiva;
5. posto k = 1, determinare la dimensione e una base di f 1 (K) con K = L(a.b),
dove a = (0, 1, 0, 1), b = (1, 4, 1, 3).

Applicazioni Lineari

274

Soluzione 1. La matrice A0 associata ad f, rispetto alle basi B 0 e C, si ottiene, per


costruzione, scrivendo in colonna le componenti, rispetto alla base C , dei vettori
immagine mediante f degli elementi di B 0 , pertanto:

0
2
A0 = M B ,C (f ) =
k
1

0
2
0
k

0
4
.
0
2

2. Sia P la matrice del cambiamento di base da B a B 0 , ottenuta ponendo in colonna


le componenti dei vettori della base B 0 rispetto alla base B, ossia:

1
0 2
P = 2 1 1 .
3
1 0
Dal Paragrafo 6.2 segue che A0 = AP, da cui:
1
2
2
2
2
1

3
3
3

3 3 3

4
2 2 4
4
2

1 2 1
=
=


k 0 0
2k
2k
k

1
3
3
3
1
1
1 k 2
3
3
3
1 + k 2k k

A = A0 P 1

1 0 0

3. Riducendo per righe la matrice A si ottiene:


a. rank(A) = 3 se e solo se k 6= 1, in questo caso f e` iniettiva.
b. rank(A) = 2 se e solo se k = 1, in questo caso dim(ker f ) = 1 e una base di
ker f e` data dal vettore (2, 3, 2).
4. f non pu`o essere suriettiva, in quanto dim(ker f ) + dim(im f ) = dim(R3 ) = 3.
Per stabilire lesatta dimensione di im f, come nel punto precedente, e` necessario
distinguere due casi:
a. se k 6= 1, allora dim(im f ) = rank(A) = 3, le tre colonne della matrice A
sono linearmente indipendenti e formano, quindi, una base di im f.
b. se k = 1 allora dim(im f ) = rank(A) = 2, per esempio le prime due colonne
della matrice A sono linearmente indipendenti e formano una base di im f.

Capitolo 6

275

5. I vettori x = (x1 , x2 , x3 ) appartenenti a f 1 (K) sono le soluzioni del sistema


lineare:
A X = Y,
dove:

A=

2
2
1

3
3
3

4 4 2

1
2
2


3
3
3
2 2 1

x1

,
x
X=
2

x3


1
4


+ ,
Y =


0
1


1
3

, R.

Si trova che il sistema lineare e` compatibile se e solo se + 2 = 0, condizione che


permette di individuare tutti e soli i vettori y = a + b appartenenti a K im f,
vale a dire i vettori che ammettono controimmagine. Risolvendo si ottiene:


3
5
x = 2 t, t, t , , t R,
2
2
ossia:
f 1 (K) = ker f + L((4, 5, 0)),
in accordo con quanto affermato nellEsercizio 6.9.
Esercizio 6.21 Sia f lendomorfismo di R4 associato, rispetto alla base canonica di R4 ,
alla matrice:

0
2 4 2

2
0
1 1

.
A=
0
3
4 1

2
1 3
0
Verificare che ker f e im f sono sottospazi vettoriali ortogonali rispetto al prodotto scalare standard di R4 .
Soluzione

Riducendo per righe la matrice A, si ottiene rank(A) = 2, quindi:


dim(ker f ) = 2,

dim(im f ) = 2.

Le equazioni che determinano ker f sono per esempio:



4x1 x2 + 3x4 = 0
x2 + 2x3 + x4 = 0,

276

Applicazioni Lineari

da cui si legge che (ker f ) = L((4, 1, 0, 3), (0, 1, 2, 1)). I vettori della base di (ker f )
appena determinata coincidono con due colonne linearmente indipendenti di A.
Esercizio 6.22 Prendendo spunto dallesercizio precedente e dallEsercizio 6.16, si studino le propriet`a degli endomorfismi f : V V, con (V, ) spazio vettoriale euclideo,
tali che:
(ker f ) = im f.

6.8
6.8.1

Per saperne di piu`


Forme lineari dualit`a

In questo paragrafo si intendono studiare le particolari propriet`a delle applicazioni lineari


aventi R come codominio, ricordando che il campo dei numeri reali e` un esempio di
spazio vettoriale reale di dimensione uno.
Definizione 6.12 Sia V uno spazio vettoriale reale, unapplicazione lineare:
: V R,
cio`e un elemento di L(V, R), si dice forma lineare su V. Lo spazio vettoriale L(V, R) si
dice spazio vettoriale duale di V e lo si indica con V .
Esempio 6.27 Una forma lineare su Rn e` determinata da n numeri reali a1 , a2 , . . . , an
tali che:
((x1 , x2 , . . . , xn )) = a1 x1 + a2 x2 + . . . + an xn ,

ai R, i = 1, 2, . . . , n,

(6.20)

per ogni (x1 , x2 , . . . , xn ) Rn . Rispetto alla base canonica B di Rn e alla base C = (1)
di R la matrice associata ad e` dunque:

A = M B,C () = a1 a2 . . . an .
Se non e` la forma nulla (ossia se almeno uno tra gli ai , i = 1, 2, . . . , n, non e` uguale a
zero) allora e` suriettiva e il suo nucleo ha equazione, rispetto alla base B:
a1 x1 + a2 x2 + . . . + an xn = 0,

(6.21)

si tratta, quindi, di un iperpiano vettoriale di Rn . Viceversa, dato un iperpiano vettoriale


H di Rn di equazione (6.21), esso e` il nucleo della forma lineare definita da (6.20) ma
H e` anche il nucleo delle forme lineari 2, 3, . . . , con R, 6= 0. Perche?

Capitolo 6

277

Osservazione 6.17 Si osservi che in generale, in modo analogo allesempio precedente,


si pu`o provare che se e` una forma lineare non nulla su uno spazio vettoriale reale V,
allora e` suriettiva e il suo nucleo e` un iperpiano vettoriale di V.
Esempio 6.28 In V3 , riferito alla base ortonormale B = (i, j, k), si consideri la funzione
definita nellEsempio 6.6:
a : V3 R,

x 7 a x.

E` chiaro che a e` un esempio di forma lineare su V3 . Se a = a1 i + a2 j + a3 k, allora la


matrice A associata alla forma lineare a , rispetto alla base B di V3 e alla base canonica
di R, e` :

A = a1 a2 a3 .
Si dimostrer`a che per ogni spazio vettoriale euclideo (V, ), fissato un vettore a V , la
funzione a : V R e` una forma lineare su V (cfr. Es. 6.31).
Esempio 6.29 Lapplicazione lineare:
Rn,n R,

A 7 tr(A),

dove tr(A) indica la traccia della matrice A, e` una forma lineare su Rn,n .
Poiche V = L(V, R), se dim(V ) = n segue da (6.15) che anche dim(V ) = n. Quindi
lo spazio vettoriale V e il suo spazio vettoriale duale V hanno la stessa dimensione. Il
teorema che segue dimostra di nuovo questo risultato ed, inoltre, indica il metodo con cui
si pu`o costruire esplicitamente una base di V a partire da una base di V.
Teorema 6.19 Se V e` uno spazio vettoriale reale di dimensione finita, allora:
dim(V ) = dim(V ).
Dimostrazione Sia dim(V ) = n e sia B = (v1 , v2 , . . . , vn ) una sua base. Per il
Teorema 6.2, esistono e sono uniche le forme lineari i : V R, i = 1, 2, . . . , n, cos`
definite:

(v
)
=
1

(v
)
=
0
n (v1 ) = 0
1
1
2
1

1 (v2 ) = 0
2 (v2 ) = 1
n (v2 ) = 0
...
..
..
..

.
.
.

(v ) = 0, (v ) = 0,
(v ) = 1,
1

che si possono anche scrivere nella forma:


i (vj ) = ij ,

278

Applicazioni Lineari

dove ij e` il simbolo di Kronecker (ij = 0, se i 6= j e ii = 1). Di conseguenza per ogni


x V scritto come x = x1 v1 + x2 v2 + . . . + xn vn risulta:
i (x) = xi ,

i = 1, 2, . . . , n.

In altri termini, la forma lineare i associa ad ogni vettore di V la sua iesima componente, calcolata rispetto alla base di V che ne determina la sua definizione.
Si perviene alla tesi se si dimostra che B = (1 , 2 , . . . , n ) e` una base di V , ossia:
1. B e` un sistema di generatori di V . Infatti, per ogni forma lineare V , posto:
(v1 ) = a1 ,

(v2 ) = a2 ,

...,

(vn ) = an ,

con a1 , a2 , . . . , an R e per ogni vettore x = x1 v1 + x2 v2 + . . . + xn vn di V, si


ha:
(x) = x1 (v1 ) + x2 (v2 ) + . . . + xn (vn )
= x 1 a1 + x 2 a2 + . . . + x n an
= a1 1 (x) + a2 2 (x) + . . . + an n (x)
= (a1 1 + a2 2 + . . . + an n )(x).
Allora:
= a1 1 + a2 2 + . . . + an n ,
ovvero la forma lineare e` combinazione lineare degli elementi di B .
2. B e` un insieme di vettori linearmente indipendenti in V . Si consideri la combinazione lineare:
1 1 + 2 2 + . . . + n n = oV ,
(6.22)
con 1 , 2 , . . . , n R e con oV vettore nullo di V , che non e` altro che la forma
lineare nulla. Applicando ambo i membri di (6.22) agli elementi della base B segue:
(1 1 + 2 2 + . . . + n n )(vj ) = oV (vj ) = 0,

j = 1, 2, . . . , n,

ossia j j (vj ) = j = 0, j = 1, 2, . . . , n, da cui la tesi.


Definizione 6.13 La base B dello spazio vettoriale duale V , definita nella dimostrazione del Teorema 6.19, e` detta base duale della base B di V.
Esempio 6.30 Procedendo in modo analogo alla dimostrazione del Teorema 6.19 si verifica che la base duale B = (1 , 2 , . . . , n ) della base canonica B di Rn e` data dalle forme lineari che associano ordinatamente ad ogni nupla (x1 , x2 , . . . , xn ) di Rn le
rispettive componenti, ossia:
j ((x1 , x2 , . . . , xn )) = xj ,

j = 1, 2, . . . , n,

(cfr. Es. 6.27). Inoltre, se si considera V3 , riferito alla base ortonormale B = (i, j, k) (cfr.
Es. 6.28), si deduce facilmente che la base duale di B e` B = (i , j , k ).

Capitolo 6

279

Il teorema seguente, la cui dimostrazione e` lasciata per esercizio, e` un corollario del


Teorema 6.19.
Teorema 6.20 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Data la forma lineare : V R associata alla matrice:

A = a1 a2 . . . an R1,n
rispetto alla base B e alla base C = (1) di R, allora:
= a1 1 + a2 2 + . . . + an n
dove B = (1 , 2 , . . . , n ) e` la base duale di B in V .
Osservazione 6.18 Dati due spazi vettoriali complessi V e W, come per il caso reale,
si pu`o introdurre la nozione di applicazione lineare da V a W. Infatti unapplicazione
lineare tra due spazi vettoriali complessi V e W e` una funzione f : V W tale che:
f (x + y) = f (x) + f (y),
per ogni x e y in V e per ogni e in C. In particolare, un endomorfismo di V e`
unapplicazione lineare da V in V. Come nel caso reale, si dimostrano teoremi analoghi
a quelli esposti in questo capitolo. Per esempio, vale il teorema fondamentale per le
applicazioni lineari (cfr. Teor. 6.2 ) da cui si deducono la nozione di matrice associata (ad
elementi complessi) ad unapplicazione lineare e di conseguenza la nozione di equazioni
di unapplicazione lineare. Inoltre, come nel caso reale, si possono definire immagine e
controimmagine di sottospazi vettoriali, somma e prodotto per un numero complesso di
applicazioni lineari, sottospazio vettoriale invariante per un endomorfismo.
Inoltre, se V e` uno spazio vettoriale complesso, unapplicazione lineare : V C,
cio`e un elemento di L(V, C), si dice forma lineare su V. Lo spazio vettoriale complesso
L(V, C) e` lo spazio vettoriale duale di V e lo si indica con V . Come nel caso reale, se
dim(V ) = n, allora anche dim(V ) = n.

6.8.2

Cambiamento di base in V

Si considerino due basi B = (v1 , v2 , . . . , vn ) e B 0 = (v10 , v20 , . . . , vn0 ) dello spazio vettoriale V di dimensione n e si indichi con P GL(n, R) (cfr. Oss. 2.7) la matrice del
cambiamento di base da B a B 0 le cui colonne sono date dalle componenti dei vettori
della base B 0 scritti rispetto alla base B, ossia:

v10
v1
v0
v2
2

t
(6.23)
.. = P .. .
.
.
vn0
vn

280

Applicazioni Lineari

Siano B = (1 , 2 , . . . , n ) e (B 0 ) = (10 , 20 , . . . , n0 ) le basi duali di B e di B 0 rispettivamente. Si indichi con Q GL(n, R) la matrice del cambiamento di base da B a
(B 0 ), ossia:

10
1
0
2
2

(6.24)
.. = t Q .. .
.
.
n0
n
Scopo di questo paragrafo e` quello di determinare la relazione che lega le matrici P e Q.
In notazione matriciale, la dualit`a tra le basi B e B si pu`o esprimere come:

1
2


(6.25)
.. v1 v2 . . . vn = I,
.
n
dove I e` la matrice unit`a di ordine n. Analogamente, la dualit`a tra le basi B 0 e (B 0 )
equivale alla relazione:

10
0

2
(6.26)
.. v10 v20 . . . vn0 = I.
.
n0
Sostituendo (6.24) e (6.23) in (6.26) si ha:

1
2


t
Q .. v1 v2 . . . vn P = I,
.
n
da cui, tenendo conto di (6.25), segue t Q P = I e, quindi, ricordando la propriet`a
t
(P 1 ) = (t P )1 , si ottiene:
Q = tP 1 ,
(6.27)
che e` la relazione cercata.
Esercizio 6.23 In R2 si considerino due basi: la base canonica B = ((1, 0), (0, 1)) e
la base B 0 = ((1, 2), (1, 1)). Nello spazio vettoriale duale (R2 ) si consideri la base
B = (1 , 2 ), duale della base B. Determinare le componenti dei vettori della base
(B 0 ) = (10 , 20 ), duale della base B 0 , rispetto alla base B .

Capitolo 6

Soluzione

281

In accordo con (6.27), la matrice del cambiamento di base da B a (B 0 ) e` :


1


t
1
1
1 2
Q=
=
.
2 1
1 1

Esercizio 6.24 Determinare la base duale (B 0 ) della base B 0 = ((1, 0, 2), (0, 1, 1), (2, 1, 2))
dello spazio vettoriale R3 , rispetto alla base duale B della base canonica B di R3 .
Sia (B 0 ) = (10 , 20 , 30 ) la base duale di B 0 , allora dalla formula (6.26) si






2
2
1
3
2 6
2 1 1
0
0
0
1 =
, , , 2 = , , , 3 =
, ,
,
7
7
7
7 7
7
7 7 7

Soluzione
ha:

dove le componenti sono date rispetto alla base duale B della base canonica B di R3 .

6.8.3

Spazio vettoriale biduale

Fissato un vettore x V, al variare di nello spazio vettoriale duale V , i numeri reali


(x) definiscono una funzione:
e : V R,
x

7 (x).

(6.28)

E` naturale, quindi, introdurre la seguente definizione.


Definizione 6.14 Dato uno spazio vettoriale reale V, lo spazio vettoriale duale del suo
duale V prende il nome di spazio vettoriale biduale e lo si indica con V .
Osservazione 6.19 Poiche V = L(V , R), segue:
dim(V ) = dim(V ) = dim(V ).
Teorema 6.21 Per ogni vettore x V, la funzione:
e : V R,
x

7 (x),

e` una forma lineare, cio`e appartiene allo spazio vettoriale biduale V .


Dimostrazione

E` conseguenza immediata della definizione.

Teorema 6.22 Siano V uno spazio vettoriale reale di dimensione n e V lo spazio


vettoriale biduale di V. La funzione:
: V V ,
e e` definito da (6.28).
e` un isomorfismo, dove x

e
x 7 x

(6.29)

Applicazioni Lineari

282

Dimostrazione

La tesi segue in quanto:

a. e` lineare, ossia per ogni x, y V e per ogni , R si deve dimostrare che:


(x + y) = (x) + (y).
Infatti, per ogni V si ha:
^
(x + y)() = (x
+ y)() = (x + y)
= (x) + (y) = e
x() + e
y()
= ((x) + (y))().
e = oV allora per ogni V ,
b. Si deve dimostrare che ker = {oV }. Infatti, se x
e() = (x) = oV quindi x = oV .
risulta x
Poiche dim(V ) = dim(V ) = n, per il Teorema 6.11, segue che e` un isomorfismo.
Osservazione 6.20
1. Si osservi che lisomorfismo non dipende dalla scelta di particolari basi in V e in V , ma e` definito in modo intrinseco, senza coinvolgere le
componenti dei vettori sia in V sia in V , pertanto si tratta di un isomorfismo canonico. In altri termini, i due spazi vettoriali V e V sono uno la copia dellaltro,
rendendo cos` inutile literazione del processo di dualit`a a V .
2. Lisomorfismo tra V e V vale se e solo se V ha dimensione finita. Se V non e`
finitamente generato, la funzione (6.29) e` iniettiva, ma non e` detto che sia suriettiva.
Per maggiori dettagli nel caso di spazi vettoriali non finitamente generati, cio`e di
dimensione infinita, si consulti ad esempio [20].
3. Se V e` uno spazio vettoriale complesso di dimensione finita, si ha, come nel caso
reale, un isomorfismo canonico tra V e V .
Osservazione 6.21 Si considerino una base B = (v1 , v2 , . . . , vn ) di V e la sua base
duale B = (1 , 2 , . . . , n ) in V . I vettori cos` definiti:
ee1 = (e1 ),

ee2 = (e2 ),

...,

een = (en )

formano una base Be di V . Dal fatto che eei (j ) = j (ei ) = ij , i, j = 1, 2, . . . , n, si ha


e di V si decompone, rispetto alla
che Be e` la base duale di B . Allora ogni elemento x
e come:
base B,
e = xe1 ee1 + xe2 ee2 + . . . + x
x
fn een ,

Capitolo 6

283

e(i ). Daltra parte x


e(i ) = i (x) = xi ,
dove le componenti xei sono date da xei = x
`
quindi xei = xi , con i = 1, 2, . . . , n. E cos` dimostrato che le componenti di x V,
relative alla base B, sono anche le componenti dellimmagine di x tramite lisomorfismo
e biduale della base B; perci`o, anche
canonico : V V , relativamente alla base B,
in questo senso, lo spazio vettoriale biduale V si pu`o identificare con V. In altri termini,
e e` la matrice unit`a I di ordine n. Si
la matrice associata a , rispetto alle basi B e B,
noti che questa osservazione non pu`o sostituire la dimostrazione del Teorema 6.21 perche
coinvolge luso delle basi.
Esercizio 6.25 Sia R2 [x] lo spazio vettoriale dei polinomi in x a coefficienti reali di
grado minore o uguale a 2 (cfr. Es. 4.11) e siano b0 , b1 , b2 tre numeri reali distinti. Si
considerino le tre forme lineari:
00 : R2 [x] R,

p(x) 7 p(b0 ),

10 : R2 [x] R,

p(x) 7 p(b1 ),

20 : R2 [x] R,

p(x) 7 p(b2 ),

(6.30)

1. Verificare che (B 0 ) = (00 , 10 , 20 ) e` una base di R2 [x] .


2. Trovare la base duale (B 0 ) di (B 0 ) .
Soluzione
1. Si deve verificare che (B 0 ) e` un insieme di vettori linearmente indipendenti. A tale scopo si consideri la combinazione lineare:
1 00 + 2 10 + 3 20 = oR2 [x] ,
con 1 , 2 , 3 R e oR2 [x] forma lineare nulla su R2 [x]. Sia B = (1, x, x2 ) una
base di R2 [x], tenendo conto delle relazioni (6.30), segue:
0 0 (1) = 0 1 (1) = 0 2 (1) = 1,
0 0 (x) = b0 , 0 1 (x) = b1 , 0 2 (x) = b2 ,
0 0 (x2 ) = b20 , 0 1 (x2 ) = b21 , 0 2 (x2 ) = b22 ,
da cui si ha:

0
0
0

(1 0 + 2 1 + 3 2 )(1) = 1 + 2 + 3 = 0,
(1 00 + 2 10 + 3 20 )(x) = 1 b0 + 2 b1 + 3 b2 = 0,

(1 00 + 2 10 + 3 20 )(x2 ) = 1 b20 + 2 b21 + 3 b22 = 0.

(6.31)

Si ottiene un sistema lineare omogeneo la cui matrice dei coefficienti P ha deter-

Applicazioni Lineari

284

minante:


1 1 1




det(P ) = b0 b1 b2 = (b0 b1 )(b0 b2 )(b2 b1 ) 6= 0.


b2 b2 b2
0
1
2
Pertanto lunica soluzione del sistema lineare omogeneo (6.31) e` 1 = 2 = 3 = 0,
vale a dire 00 , 10 e 20 sono linearmente indipendenti. Si osservi che tP e` la matrice
del cambiamento di base dalla base B = (0 , 1 , 2 ), duale della base B, alla base (B 0 ) , ovvero:

0
0
10 = tP 1 .
20
2
2. Mediante lisomorfismo canonico tra V e V si possono identificare i vettori
della base B = (1, x, x2 ) con i vettori della base B = ((1), (x), (x2 )). Pertanto per determinare la base (B 0 ) di R2 [x] duale della base (B 0 ) = (00 , 10 , 20 )
e` sufficiente determinare la base B 0 = (p0 (x), p1 (x), p2 (x)) la cui base duale e` (B 0 )
ossia tale che:
(i0 )(pj (x)) = pj (bi ) = ij ,

i, j = 0, 1, 2,

con ij simbolo di Kronecker, da cui segue:


1
(b1 b2 (b1 + b2 )x + x2 ) ,
(b0 b1 )(b0 b2 )
1
p1 (x) =
(b0 b2 (b0 + b2 )x + x2 ) ,
(b0 b1 )(b2 b1 )
1
p2 (x) =
(b0 b1 (b0 + b1 )x + x2 ) .
(b0 b2 )(b1 b2 )
p0 (x) =

Si osservi che dalla relazione (6.27) segue che P 1 e` la matrice del cambiamento
di base da B a B 0 e pertanto:


p0 (x)
1
p1 (x) = P 1 x .
p2 (x)
x2

Capitolo 6

6.8.4

285

Dualit`a nel caso degli spazi vettoriali euclidei

Scopo di questo paragrafo e` quello di dimostrare che, se (V, ) e` uno spazio vettoriale
euclideo di dimensione finita, allora lo spazio vettoriale duale V e` canonicamente isomorfo a V. Si perviene a questo importante risultato estendendo lEsempio 6.28 al caso
generale di uno spazio vettoriale euclideo V.
Esempio 6.31 Sia (V, ) uno spazio vettoriale euclideo, fissato un vettore x in V, la
funzione:
x : V R, y 7 x y,
con prodotto scalare su V, e` una forma lineare. Infatti, dalle propriet`a del prodotto
scalare si ha:
x (y1 + y2 ) = x y1 + x y2 ,
per ogni , R e per ogni y1 , y2 V.
Teorema 6.23 Sia (V, ) uno spazio vettoriale euclideo di dimensione finita, la funzione:
iV : V V ,

x 7 x

(6.32)

e` un isomorfismo.
Dimostrazione Dalle propriet`a del prodotto scalare segue che la funzione iV e` unapplicazione lineare. Liniettivit`a di iV e` conseguenza del calcolo di ker iV , ossia:
ker iV = {x V | iV (x) = oV } = {x V | x y = 0, y V } = {oV }.
Dal Teorema 6.11 segue che iV e` un isomorfismo.
Osservazione 6.22 Nel caso di uno spazio vettoriale euclideo (V, ) e` quindi possibile
definire, mediante (6.32), un isomorfismo canonico tra V e il suo duale V che non dipende dalla scelta delle basi nei due spazi vettoriali ma solo dal prodotto scalare che conferisce a V la struttura di spazio vettoriale euclideo. Si osservi, che se B = (e1 , e2 , . . . , en )
e` una base ortonormale di (V, ) e se si indica con B = (1 , 2 , . . . , n ) la base duale
di B, si ha:
iV (ej )(ek ) = ej ek = jk = j (ek ),

j, k = 1, 2, . . . , n,

dove jk e` il simbolo di Kronecker. Pertanto la matrice M B,B (iV ) associata allisomorfismo iV , rispetto alle basi B e B , e` la matrice unit`a I di ordine n.

Applicazioni Lineari

286

Osservazione 6.23 Nel caso di uno spazio vettoriale hermitiano (V, ), la funzione:
x : V C,

y 7 x y,

non e` una forma lineare (cfr. (5.12)). Invece la funzione:


x : V C,

y 7 y x,

e` una forma lineare, ma la funzione:


V V ,

x 7 x

non e` unapplicazione lineare. Pertanto, a differenza del caso reale, un prodotto hermitiano non permette di definire un isomorfismo canonico (senza luso delle basi) tra uno
spazio vettoriale hermitiano ed il suo duale.

6.8.5

Trasposta di unapplicazione lineare

Lo scopo di questo paragrafo e` quello di individuare il legame tra unapplicazione lineare associata ad una matrice A e lapplicazione lineare associata alla trasposta della
matrice A stessa, senza necessariamente introdurre un prodotto scalare, come nel caso
dellendomorfismo autoaggiunto definito nel Paragrafo 6.6.
Sia f : V W unapplicazione lineare da uno spazio vettoriale reale V in uno spazio
vettoriale reale W. Data una generica forma lineare in W , la composizione f e` una
forma lineare su V, ossia f V . Si pu`o, allora, enunciare la seguente definizione.
Definizione 6.15 Data unapplicazione lineare f : V W tra due spazi vettoriali V
e W, la funzione:
t
f : W V , 7 (tf )() = f,
(6.33)
si dice trasposta dellapplicazione lineare f .
Teorema 6.24 La funzione tf appena definita e` unapplicazione lineare.
Dimostrazione

E` conseguenza evidente della definizione e delle linearit`a di e di f .

Osservazione 6.24 La denominazione trasposta per lapplicazione lineare tf e` giustificata dal seguente teorema.

Capitolo 6

287

Teorema 6.25 Siano V uno spazio vettoriale reale di dimensione n e W uno spazio vettoriale reale di dimensione m. Data unapplicazione lineare f : V W, si indichi con
A = M B,C (f ) la matrice di Rm,n associata ad f rispetto alle basi B = (v1 , v2 , . . . , vn )
di V e C = (w1 , w2 , . . . , wm ) di W. Si considerino nello spazio vettoriale duale V la
base B = (1 , 2 , . . . , n ) duale della base B e nello spazio vettoriale duale W la
base C = (1 , 2 , . . . , m ) duale di C. La matrice associata allapplicazione lineare:
f : W V

rispetto alle basi C e B e` la trasposta della matrice A:

M C ,B (tf ) = tA.
Dimostrazione La definizione di trasposta di unapplicazione lineare (6.33), applicata
ad un vettore x di V, restituisce il numero reale dato da:
((tf )())(x) = ( f )(x).

(6.34)

Si indichino con G Rn,m la matrice associata a tf rispetto alle basi C e B , con


B Rn,1 la matrice associata alla forma lineare rispetto alla base C di W e alla base
D = (1) di R:

B = M C,D () = b1 b2 . . . bm
e con:

X=

x1
x2
..
.

xn
la matrice delle componenti del vettore x di V rispetto alla base B. Si vuole ora scrivere,
in notazione matriciale, la relazione (6.34). Si ha:
a. il secondo membro di (6.34) e` il numero reale:
BAX,

(6.35)

in quanto alla composizione di applicazioni lineari f si associa il prodotto di


matrici BA R1,n come segue da (6.16).
b. Il calcolo del primo membro di (6.34) e` pi`u laborioso; la matrice colonna delle
componenti, rispetto alla base B , della forma lineare = (tf )() V si ottiene
applicando la matrice G (associata a tf ) alla matrice colonna delle componenti,
rispetto alla base C , del vettore ossia G tB . Quindi il primo membro di (6.34) si
riduce a (x) ossia a:
t
(G tB)X.
(6.36)

Applicazioni Lineari

288

Dalluguaglianza di (6.36) con (6.35) si ottiene:


t

(G tB) = B tG = BA

da cui la tesi.
Osservazione 6.25 Dalla formula (6.35) si deduce che per calcolare limmagine di un
vettore mediante la trasposta di unapplicazione lineare si effettua il prodotto della matrice riga delle componenti del vettore a destra della matrice associata allapplicazione
lineare di partenza. Mentre per calcolare limmagine di un vettore mediante unapplicazione lineare si effettua il prodotto a sinistra per la matrice colonna delle componenti del
vettore.
Seguono alcuni teoremi che mettono in relazione la trasposta di unapplicazione lineare
con la somma di applicazioni lineari, con il prodotto di un numero reale per unapplicazione lineare, con la composizione di applicazioni lineari e con linversa di unapplicazione
lineare invertibile. Tutte le dimostrazioni sono lasciate al Lettore per esercizio.
Teorema 6.26 Se f, g L(V, W ) e R, allora:
1. t (f + g) = tf + tg ,
2. t (f ) = tf .
Teorema 6.27 Siano V, W, Z spazi vettoriali reali, allora, per ogni f L(V, W ) e per
ogni g L(W, Z) si ha:
t
(g f ) = tf tg.
Se f e` un endomorfismo di uno spazio vettoriale reale V, allora tf e` un endomorfismo
dello spazio vettoriale duale V di V, inoltre:
(t idV )() = idV = idV (),

V ,

dove idV e idV indicano, rispettivamente, lidentit`a in V e V . Pertanto t idV = idV .


Da queste considerazioni e dal Teorema 6.27 si ottiene il seguente teorema.
Teorema 6.28 Se f e` un automorfismo dello spazio vettoriale V allora tf e` un automorfismo dello spazio vettoriale duale V e:
(tf )1 = t (f 1 ).

Capitolo 6

289

Esercizio 6.26 Siano f : R4 R3 lapplicazione lineare la cui matrice, rispetto alle


basi canoniche di R4 e di R3 , e` :

1 2 1
2
1
1
A = 1 1
2 1
0 1
e : R3 R la forma lineare la cui matrice, rispetto alla base canonica di R3 e alla
base C = (1) di R, e` :

M () = 1 2 2 .
Determinare la matrice associata alla forma lineare = (tf )().
Soluzione
Per definizione di applicazione lineare trasposta (tf )() = f , la cui
matrice associata e` data da M ()A. Quindi la matrice associata alla forma lineare ,
rispetto alla base canonica di R4 e alla base C, e` :

M ()A =

1 2

1
1
2

2 1
2
1
1
1 = 1
1
0 1

e lequazione di risulta essere:

x1
x1


x
2
t
x2
f ()
x3 = 1 2 3 2 x3
x4
x4

2 3 2

= x1 + 2x2 3x3 2x4 ,

dove (x1 , x2 , x3 , x4 ) e` un generico elemento di R4 .


Osservazione 6.26 Nel Paragrafo 6.8.4 e` stato dimostrato che la trasposta di una matrice,
associata ad unapplicazione lineare f : V W rispetto alle basi B di V e C di W, e`
la matrice associata allapplicazione lineare trasposta tf : W V rispetto alle basi
duali C di W e B di V (cfr. Def. 6.15 e Teor. 6.25).
Data unapplicazione lineare f : V W tra due spazi vettoriali euclidei (V, ) e
(W, ), rispettivamente di dimensione n e m, si intende in questa osservazione, tramite
lisomorfismo canonico tra uno spazio vettoriale euclideo ed il suo duale, determinare il
legame tra la trasposta tf : W V di f e laggiunta f : W V di f (cfr. Teor.
6.16). Si ha infatti:
f (x) y = iW (y)(f (x)) = (tf )(iW (y))(x),

Applicazioni Lineari

290

per ogni x in V e y in W. Dalla definizione di aggiunta, si ha pertanto che:


(tf )(iW (y))(x) = iV (f (y))(x),

x V, y W,

ossia:
(tf ) iW = iV f .

(6.37)

Si osservi che, fissate una base ortonormale B di (V, ) ed una base ortonormale C di
(W, ), se si indica con A la matrice associata a f rispetto alle basi B e C , la matrice
trasposta di A, che e` la matrice associata a tf rispetto alle basi duali C e B (cfr. Teor.
6.25), e` anche la matrice associata a f rispetto alle basi C e B, ovvero:
MC

,B

(tf ) = M C,B (f ) = tA.

In notazione matriciale, rispetto alle basi ortonormali B, C e alle loro basi duali B , C , la
relazione (6.37) si traduce nella relazione:
A Im = In tA

dove Im e In indicano la matrice unit`a di ordine m ed n rispettivamente (cfr. Par. 6.4 e


Oss. 6.22).

6.8.6

Endomorfismi autoaggiunti e matrici hermitiane

Analogamente a quanto visto nel Paragrafo 6.6 si pu`o introdurre il concetto di aggiunta di unapplicazione lineare tra spazi vettoriali hermitiani. Per semplicit`a si tratter`a in
dettaglio solo il caso di un endomorfismo di uno spazio vettoriale hermitiano.
Sia (V, ) uno spazio vettoriale hermitiano (cfr. Def. 5.7), analogamente al caso reale,
laggiunto di un endomorfismo f di V e` lendomorfismo f di V tale che:
f (x) y = x f (y),

x, y V.

(6.38)

Si supponga che V abbia dimensione n e si indichino rispettivamente con A e A le


matrici associate ad f e f rispetto ad una base unitaria B = (e1 , e2 , . . . , en ) di V. Se
X Cn,1 e Y Cn,1 denotano, rispettivamente, la matrice colonna delle componenti dei
vettori x e y rispetto alla base B, lequazione (6.38) e` equivalente a:
t

(AX) Y = t XA Y ,

da cui si ottiene:
t

X tA Y = t X A Y ,

ossia A = tA. Di conseguenza vale il seguente teorema, che e` lanalogo del Teorema
6.16 in campo complesso.

Capitolo 6

291

Teorema 6.29 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n. Dato unendomorfismo f di V, la matrice associata M B,B (f ) allendomorfismo aggiunto f di f
rispetto ad una base unitaria B di (V, ) e` la trasposta coniugata della matrice associata
M B,B (f ) a f rispetto alla stessa base.
In particolare, un endomorfismo f di uno spazio vettoriale hermitiano (V, ) si dice
autoaggiunto o hermitiano se f = f . In questo caso vale il seguente teorema che e`
lanalogo, nel caso hermitiano, del Teorema 6.17.
Teorema 6.30 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n e sia B una
base unitaria di V. Un endomorfismo f di V e` autoaggiunto se e solo se la matrice
A = M B,B (f ) Cn,n e` hermitiana, ossia se e solo se tA = A.

6.8.7

Isometrie, similitudini, trasformazioni unitarie

In questo paragrafo si intende estendere sia al caso degli spazi vettoriali euclidei sia al
caso degli spazi vettoriali hermitiani il concetto di movimento euclideo del piano, intendendosi per tale il movimento rigido del piano che non cambia la lunghezza dei vettori
e lampiezza degli angoli. Si ricordi infatti che la geometria euclidea del piano e` per
definizione linsieme di assiomi e teoremi invarianti per effetto dei movimenti rigidi.
Sia (V, ) uno spazio vettoriale euclideo di dimensione finita. La definizione seguente
estende (in modo naturale) a dimensioni superiori il concetto elementare di isometria o
movimento euclideo nel piano e nello spazio.
Definizione 6.16 Un endomorfismo f di uno spazio vettoriale euclideo (V, ) prende il
nome di isometria o trasformazione ortogonale se:
f (x) f (y) = x y,

x, y V.

(6.39)

Il teorema che segue afferma che la definizione di isometria impone che necessariamente
essa sia unisomorfismo.
Teorema 6.31 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Se f e` unisometria di (V, ), allora f e` un automorfismo di V.
Dimostrazione
Per il Teorema 6.11 e` sufficiente dimostrare che ker f = {o}. Se x e`
un vettore di ker f si ha f (x) = o, daltra parte essendo f un unisometria si ha:
f (x) f (x) = kxk2 = kok2 = 0,

292

Applicazioni Lineari

quindi x = o.
Si pu`o generalizzare la definizione precedente al caso di isomorfismi tra due spazi vettoriali euclidei in questo modo: dati due spazi vettoriali euclidei V e W, con la stessa
dimensione, un isomorfismo f : V W si dice isometria se non cambia il prodotto
scalare.
Esempio 6.32 Ogni rotazione R[] (in senso antiorario) di angolo del piano vettoriale
V2 e` unisometria (cfr. Es. 6.24). Inoltre, come e` gi`a stato affermato, la matrice associata
a R[] (rispetto ad una base ortonormale (i, j) di V2 ) e` la matrice ortogonale:


cos sin
.
sin
cos
Esempio 6.33 Lidentit`a id : V V (cfr. Es. 6.1) e` unisometria rispetto ad ogni
prodotto scalare definito su V.
Esempio 6.34 Lapplicazione id : V V definita da id(x) = x, x V, e`
unisometria rispetto ad ogni prodotto scalare definito su V.
Alcune tra le principali propriet`a delle isometrie sono riassunte nel seguente teorema.
Teorema 6.32 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Un endomorfismo f di V e` unisometria se e solo se non cambia la norma dei
vettori:
kf (x)k = kxk, x V.
(6.40)
2. Se f e` unisometria di V, allora la misura dellangolo individuato dai vettori x e
y di V coincide con la misura dellangolo individuato dai vettori f (x) e f (y), per
ogni x, y V.
3. La composizione di due isometrie e` unisometria.
4. Linversa di unisometria e` unisometria.
5. Un endomorfismo f di V e` unisometria di V se e solo se le immagini dei vettori
di una base ortonormale di V formano una base ortonormale di V.
6. Un endomorfismo f di V e` unisometria di V se e solo se la matrice associata ad
f , rispetto ad una base ortonormale di V, e` una matrice ortogonale.

Capitolo 6

293

7. Un endomorfismo f di V e` unisometria se e solo se f 1 = f , dove f e`


lapplicazione aggiunta di f .
Dimostrazione 1. Se f e` unisometria, la (6.40) segue ponendo y = x in (6.39).
Viceversa, si dimostra che se vale la (6.40) allora f e` unisometria. Dalla formula
(5.6) si ottiene:
xy =


1
kx + yk2 kxk2 kyk2
2

e:


1
kf (x) + f (y)k2 kf (x)k2 kf (y)k2 .
2
Pertanto per la linearit`a di f e da (6.40) segue quindi la (6.39).
f (x) f (y) =

2. Se f e` unisometria, da (6.39) e dal punto 2. segue:


\
c = kxk kyk cos(f (x)f
kxk kyk cos(xy)
(y)),
\
c e f (x)f
per ogni x, y V, dove xy
(y) indicano, rispettivamente, langolo tra i
vettori x e y ed i vettori f (x) e f (y) (cfr. Def. 5.3). Pertanto:
\
c = cos(f (x)f
cos(xy)
(y)).

(6.41)

3. Se f e g sono isometrie, allora:


k(g f )(x)k = kg(f (x))k = kf (x)k = kxk,
per ogni x V.
4. Sia f unisometria. Si ha: kf (f 1 (x))k = kid(x)k, dove id e` lidentit`a di V , ma
kf (f 1 (x))k = kf 1 (x)k = kxk,
per ogni x V , da cui la tesi.
5. Se f e` unisometria e B = (e1 , e2 , . . . , en ) una base ortonormale di V, allora
B 0 = (f (e1 ), f (e2 ), . . . , f (en )) e` una base ortonormale perche f mantiene immutata sia la norma dei vettori sia i loro prodotti scalari. Viceversa, siano B =
(e1 , e2 , . . . , en ) e B 0 = (f (e1 ), f (e2 ), . . . , f (en )) due basi ortonormali di V. Dato:
x = x1 e1 + x2 e2 + . . . + xn en

Applicazioni Lineari

294

in V, allora:
kxk2 = x21 + x22 + . . . + x2n ,
daltra parte, per la linearit`a di f :
f (x) = x1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ),
quindi:
kf (x)k2 = x21 + x22 + . . . + x2n ,
da cui kf (x)k = kxk. Si osservi che il calcolo della norma dei vettori x e f (x) ha
assunto lespressione suddetta in quanto riferito a due basi ortonormali (cfr. Teor.
5.4).
6. Sia A la matrice associata ad f , rispetto ad una base ortonormale B di V, e siano
Y = AX le equazioni di f rispetto a B. Poiche, per ogni x V, kf (x)k2 = kxk2
e ricordando che kxk2 = t XX si ha:
t

X 0 X 0 = t (AX)(AX) = tX tAAX = t XX,

da cui segue la tesi. Si osservi che kxk2 = t XX se e solo se X e` la matrice


colonna delle componenti di x rispetto ad una base ortonormale.
7. Per definizione di f , applicazione lineare aggiunta di f, si ha:
f (x) f (y) = f (f (x)) y,

x, y V.

(6.42)

Quindi, se f e` un isometria, cio`e se vale (6.39), si deve avere:


f (f (x)) y = x y,

x, y V,

da cui
((f f )(x) x) y = 0,
per ogni x e y. Pertanto, f f = id, ossia f = f 1 . Viceversa, se f = f 1 ,
allora da (6.42) si ha immediatamente che f e` unisometria.
Osservazione 6.27
1. Dai punti 2. e 3. del teorema precedente segue che linsieme
delle isometrie di uno spazio vettoriale euclideo (V, ) e` un gruppo (cfr. Oss. 2.2)
rispetto alla composizione di funzioni. Inoltre, fissata una base ortonormale B nello spazio vettoriale euclideo (V, ), allora per la propriet`a 6. si pu`o stabilire, in
modo naturale, un isomorfismo tra linsieme delle isometrie di (V, ) ed il gruppo ortogonale O(n) associando ad ogni isometria f di V la matrice ortogonale
A = M B,B (f ).

Capitolo 6

295

2. Si osservi che se un automorfismo di uno spazio vettoriale euclideo (V, ) mantiene


invariati gli angoli tra i vettori di V allora non e` necessariamente unisometria. Un
esempio elementare e` dato dallautomorfismo:
f : V V,

x 7 2x,

(6.43)

ossia dalla funzione 2 id.


Esempio 6.35 Gli elementi di O(2), ovvero le matrici ortogonali di ordine 2, sono necessariamente o di tipo (3.31) o di tipo (3.33) (cfr. Es. 3.11). Pertanto gli endomorfismi
del piano vettoriale V2 con matrice associata, rispetto ad una base ortonormale B = (i, j),
di tipo (3.31) o di tipo (3.33) sono isometrie di V2 . Nel caso di matrici di tipo (3.31) si
ottengono le rotazioni R[] gi`a considerate nell Esempio 6.32. Se si considera invece
un endomorfismo r del piano vettoriale V2 con matrice associata, rispetto ad una base
ortonormale B = (i, j), di tipo (3.33), ossia:


cos
sin
A =
,
sin cos
si ha unisometria di V2 tale che r r coincide con lidentit`a di V2 , ovvero per cui
r1 = r .
Esercizio 6.27 Si consideri su R2 la struttura euclidea determinata dal prodotto scalare
(x1 , x2 ) (x2 , y2 ) = x1 y1 + 4x2 y2 .
Verificare che lautomorfismo di R2 la cui matrice associata, rispetto alla base canonica
B = (e1 , e2 ) di R2 , e` la matrice:


3
1
2

,
A=

1
3

4
2
e` unisometria di R2 . Per quale motivo A non e` una matrice ortogonale?
Soluzione

Le equazioni di f, rispetto alla base B, sono:

x1 = 2 x1 + x2

x0 = 1 x + 3 x ,
1
2
2
4
2

Applicazioni Lineari

296

con (x01 , x02 ) = f ((x1 , x2 )). Per provare che f e` unisometria di (R2 , ) e` sufficiente
verificare che:
kf (x)k2 = (x01 )2 + 4(x02 )2 = x21 + 4x22 = kxk2 ,
con x = (x1 , x2 ) R2 .
La matrice A non e` un elemento di O(2) perche non e` associata ad una base ortonormale
(rispetto al prodotto scalare introdotto), infatti ke2 k = 2.
Esercizio 6.28 Nello spazio vettoriale euclideo (V, ) di dimensione 4, riferito alla base
ortonormale B = (e1 , e2 , e3 , e4 ), sono dati i vettori:
a = 2e1 e3 + 2e4 ,

b = e3 e4 .

1. Detto c il versore di a, verificare che la funzione


f : V V,

x 7 x 2(x c)c

e` un isometria di V .
2. Calcolare kf 1 (b)k ed il coseno dellangolo tra i vettori f 1 (a) e f 1 (b).
Soluzione

1. La funzione f e` un endomorfismo in quanto:


f (x + y) = (x + y) 2 ((x + y) c) c
= x 2(x c)c + y 2(y c)c
= f (x) + f (y),

per ogni , R e per ogni x, y V. Inoltre:


kf (x)k2 = f (x) f (x) = (x 2(x c)c) (x 2(x c)c)
= x x 4(x c)(x c) + 4(x c)2 (c c) = kxk2 .
2. Essendo f unisometria, anche f 1 e` unisometria. Quindi:
kf 1 (b)k = kbk =

2,

1 (b)) = cos(ab)
\
c =
cos = cos(f 1 (a)f

ab
1
= .
kak kbk
2

Si lascia per esercizio la determinazione della matrice A associata a f rispetto alla base
B e la verifica del fatto che A sia una matrice ortogonale.

Capitolo 6

297

Osservazione 6.28 Siano (V, ) uno spazio vettoriale euclideo di dimensione n e W un


iperpiano vettoriale di V. La funzione:

x,
xW
g : V V, x 7
x,
x W ,
che coincide con lidentit`a su W e che associa ad ogni vettore del complemento ortogonale W di W il proprio opposto, e` un endomorfismo di V. Infatti, si pu`o verificare
che:
1
(x + g(x))
2
coincide con la proiezione ortogonale di x su W. Lendomorfismo g prende il nome
di simmetria ortogonale o riflessione rispetto alliperpiano vettoriale W. E` un esercizio
verificare che g e` unisometria dello spazio vettoriale euclideo (V, ) e che g g coincide
con lidentit`a di V. Infine, se c e` un versore ortogonale a W, allora:
g(x) = x 2(x c)c
Quindi lisometria f dellesercizio precedente non e` altro che la simmetria ortogonale
rispetto alliperpiano vettoriale L(a) di equazione:
2x1 x3 + 2x4 = 0.
Infine si pu`o verificare che lendomorfismo r del piano vettoriale V2 , considerato nellEsempio 6.35, e` una simmetria ortogonale rispetto ad una retta vettoriale. Infatti, si
ha:

2
2 cos sin
1 2 sin 2
2
2

A =

2 cos sin
1 2cos2
2
2
2

sin 

2

.
sin
cos
2
2

cos
2

Automorfismi di uno spazio vettoriale euclideo che mantengano invariata la misura degli
angoli tra coppie di vettori e le loro immagini, ma in generale non le norme dei vettori, sono dati dalle similitudini, di cui lautomorfismo (6.43) ne e` un esempio. Pi`u precisamente
si pu`o enunciare la seguente definizione.

298

Applicazioni Lineari

Definizione 6.17 Sia f : V V un automorfismo di uno spazio vettoriale euclideo


(V, ), f prende il nome di similitudine di rapporto se:
kf (x)k = kxk,

x V,

da cui si deduce che deve essere un numero reale positivo non nullo.
Osservazione 6.29 Ogni isometria e` una similitudine di rapporto 1. Mentre lautomorfismo definito da (6.43) e` una similitudine di rapporto 2.
Il teorema che segue, la cui dimostrazione e` lasciata al Lettore per esercizio, riassume
alcune tra le principali propriet`a delle similitudini.
Teorema 6.33 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Se f e` una similitudine di V, allora la misura dellangolo individuato dai vettori
x e y di V coincide con la la misura dellangolo individuato dai vettori f (x) e
f (y), per ogni x, y V.
2. La matrice associata ad una similitudine di rapporto , rispetto ad una base ortonormale di V, e` data dal prodotto A con A O(n).
Analogamente al caso reale, un endomorfismo f di uno spazio vettoriale hermitiano
(V, ) si dice una trasformazione unitaria o operatore unitario o isometria complessa
se non cambia il prodotto hermitiano, cio`e se vale la relazione (6.39). Come nel caso
delle isometrie si pu`o dimostrare il teorema che segue.
Teorema 6.34 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n.
1. Un endomorfismo f : V V e` una trasformazione unitaria se e solo se:
kf (x)k = kxk,

x V.

2. La composizione di due trasformazioni unitarie e` una trasformazione unitaria.


3. Linversa di una trasformazione unitaria e` una trasformazione unitaria.
4. Un endomorfismo f di V e` una trasformazione unitaria di V se e solo se le
immagini dei vettori di una base unitaria di V formano una base unitaria di V.
5. Un endomorfismo f di V e` una trasformazione unitaria di V se e solo se la matrice
associata ad f, rispetto ad una base unitaria di V, e` una matrice unitaria.

Capitolo 6

299

6. Un endomorfismo f di V e` una trasformazione unitaria se e solo se f 1 = f ,


dove f e` laggiunto di f .
La dimostrazione del Teorema 6.34 e` analoga a quella del Teorema 6.32 tenendo per`o
conto che in questo caso vale la relazione (5.15).
Osservazione 6.30 Come per le isometrie, dai punti 2. e 3. del Teorema 6.34 segue che
linsieme delle trasformazioni unitarie di uno spazio vettoriale hermitiano (V, ) e` un
gruppo (cfr. Oss. 2.2) rispetto alla composizione di funzioni. Inoltre, fissata una base
ortonormale B nello spazio vettoriale hermitiano (V, ) allora per il punto 5. dello stesso
teorema si pu`o stabilire, in modo naturale, un isomorfismo tra linsieme delle trasformazioni unitarie di (V, ) ed il gruppo unitario U (n) delle matrici unitarie (cfr. Oss. 5.15)
associando ad ogni trasformazione unitaria f di V la matrice unitaria A = M B,B (f ).

300

Applicazioni Lineari

Capitolo 7
Diagonalizzazione
Questo capitolo e` di importanza fondamentale per le sue svariate applicazioni in matematica, in fisica e in tutte quelle discipline a carattere scientifico e non, ad esempio la
musica. Nel caso di un endomorfismo si vuole determinare, tra le infinite matrici ad esso
associate, almeno una particolarmente semplice: una matrice diagonale. In altri termini
si vuole determinare una base opportuna dello spazio vettoriale V, su cui lendomorfismo
e` definito, rispetto alla quale la matrice ad esso associata sia diagonale; si vedr`a per`o nel
corso del capitolo che questo scopo non pu`o essere sempre raggiunto.

7.1

Autovalori e autovettori di un endomorfismo

Si inizia con lintrodurre una definizione che diventer`a fondamentale per lo scopo che ci
si e` proposti.
Definizione 7.1 Sia f : V V un endomorfismo di uno spazio vettoriale reale V. Un
vettore x non nullo di V si dice autovettore di f se esiste uno scalare R tale che:
f (x) = x,

(7.1)

si dice autovalore di f relativo allautovettore x.


Osservazione 7.1
1. E` evidente dalla definizione di autovettore la necessit`a di scegliere x diverso dal vettore nullo di V, infatti o = o per ogni R.
2. La precedente definizione pu`o essere anche formulata nel modo seguente: R e`
un autovalore dellendomorfismo f se e solo se esiste un vettore x non nullo di V
per cui valga luguaglianza (7.1).
301

302

Diagonalizzazione

3. Si osservi che se x e` un autovettore di f relativo allautovalore , allora anche x


e` un autovettore di f relativo allautovalore , per ogni numero reale 6= 0.
Si antepongono due facili propriet`a agli esempi, per poter meglio capire la definizione
appena enunciata.
Teorema 7.1 Sia x un autovettore di un endomorfismo f di uno spazio vettoriale V,
allora lautovalore ad esso relativo e` unico.
Dimostrazione Per assurdo siano 6= 0 due autovalori di f relativi allo stesso autovettore x, allora f (x) = x = 0 x da cui ( 0 )x = o, quindi segue la tesi.
Teorema 7.2 Sia un autovalore di un endomorfismo f di uno spazio vettoriale V, tutti
gli autovettori relativi a insieme con il vettore nullo di V costituiscono un sottospazio
vettoriale di V, indicato esplicitamente come:
V = {x V | f (x) = x},
detto autospazio di f relativo allautovalore . Inoltre, V e` un sottospazio vettoriale
invariante per f.
Dimostrazione Verificare che V e` un sottospazio vettoriale di V invariante per f e` un
facile esercizio che e` conseguenza delle Definizioni 4.2 e 6.9.
Osservazione 7.2 Dal precedente teorema segue, quindi, che ogni combinazione lineare
x + y, con x, y autovettori di un endomorfismo f relativi allo stesso autovalore
e , R, e` ancora un elemento dellautospazio V . Se si considerano, invece, due
autovettori x e y relativi a due autovalori distinti e ( 6= ), ossia tali che f (x) = x
e f (y) = y si ha che la generica loro combinazione lineare non e` pi`u un autovettore di
f, in quanto:
f (x + y) = (x) + (y).
Definizione 7.2 Dato un endomorfismo f di uno spazio vettoriale reale V, linsieme
degli autovalori di f prende il nome di spettro di f .
Questa definizione giustifica la particolare denominazione del Teorema 7.8.
Esempio 7.1 Lidentit`a id : V V, definita nellEsempio 6.1, ammette solo lautovalore = 1. Lautospazio V relativo allautovalore = 1 coincide con V. Si osservi che
la matrice ad essa associata, rispetto ad una qualunque base di V, e` la matrice unit`a, che e`
quindi una matrice diagonale avente il numero 1 (lautovalore) sulla diagonale principale.

Capitolo 7

303

Esempio 7.2 Lapplicazione lineare nulla, definita nellEsempio 6.2, ammette solo lautovalore = 0. Lunico autospazio V , cio`e lautospazio relativo a = 0, coincide con
V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, e` la
matrice nulla. Pertanto, anche in questo caso la matrice e` diagonale con lautovalore 0
sulla diagonale principale.
Osservazione 7.3 Sia f un endomorfismo non iniettivo di uno spazio vettoriale V. Dal
Teorema 6.8 si ha che ker f 6= {o}, allora f ammette lautovalore 0 e lautospazio ad
esso relativo coincide con ker f. Viceversa, se f e` iniettivo, allora ker f = {o}, quindi il
numero 0 non pu`o essere un autovalore di f .
Esempio 7.3 Si consideri, nello spazio dei vettori ordinari V3 , lendomorfismo:
f : V3 V3 ,

x 7 (x u)u,

con u vettore fissato e prodotto scalare. Se u = o si ha lendomorfismo nullo, gi`a


considerato in precedenza. Se u e` un versore f e` la funzione che ad ogni vettore x di V3
associa la proiezione ortogonale di x sulla retta vettoriale L(u). Pertanto si vede che gli
unici autovalori di f sono 1 = 0 e 2 = 1. Infatti, si ha che f (x) = o se e solo se x
e` un vettore perpendicolare a u. Quindi 1 = 0 e` un autovalore di f e lautospazio ad
esso relativo e` V1 = ker f, che coincide con il piano vettoriale ortogonale ad u. Daltra
parte, lunica altra possibilit`a per avere f (x) = x e` f (x) = x, che si ottiene solo se x
e` parallelo ad u, pertanto esiste anche lautovalore 2 = 1 e lautospazio ad esso relativo
e` la retta vettoriale V2 = L(u). Si osservi che vale la decomposizione:
V1 V2 = V3
e V2 = V1 .
Esempio 7.4 A titolo di esempio si procede con il calcolo degli eventuali autovalori della
rotazione, in senso antiorario, di angolo in un piano vettoriale V2 , (cfr. Es. 6.24) vale a
dire della trasformazione lineare:
R[] : V2 V2 ,

x 7 R[](x)

le cui equazioni, rispetto ad una base ortonormale B = (i, j) di V2 , sono:


 0
x = x cos y sin
y 0 = x sin + y cos ,
dove x = xi + yj e R[](x) = x0 i + y 0 j. Se R e` un autovalore di R[] ed x e` un
autovettore ad esso relativo, allora R[](x) = x, quindi:

Diagonalizzazione

304

x cos y sin = x
x sin + y cos = y.

Risolvendo il precedente sistema lineare omogeneo nelle incognite x e y si ottiene che


esistono soluzioni non nulle se e solo se il rango della matrice dei coefficienti:


cos sin
sin
cos
e` 1, ossia se e solo se il determinante di tale matrice e` uguale a zero, in altri termini, se e
solo se:
2 2 cos + 1 = 0.
Questa equazione di secondo grado in ha soluzioni reali se e solo se cos = 1, da cui
segue ci`o che era gi`a intuibile geometricamente, ossia solo le rotazioni di angolo 0 e
ammettono autovalori. Tali rotazioni coincidono, rispettivamente, con lidentit`a id di V2 ,
gi`a studiata nellEsempio 7.1 e con lendomorfismo id di equazioni:
 0
x = x
y 0 = y
che ammette solo lautovalore 1 perche definito da (id)(x) = x, x V2 (cfr. Par.
6.4) e che si pu`o considerare geometricamente come un ribaltamento del vettore x sulla
retta che lo contiene.
Prima di procedere con il calcolo degli autovalori e degli autovettori di un generico endomorfismo, vale a dire prima di introdurre il procedimento che generalizza lesempio
appena esposto, si vuole dimostrare con il Teorema 7.3 una conseguenza importante delle
definizioni date e precisamente: la somma degli autospazi di un endomorfismo e` diretta.
A titolo di esercizio, si inizia con il provare questa propriet`a per la somma di due autospazi. In questo caso, dimostrare che la somma di due autospazi V1 + V2 , con 1 6= 2 ,
e` diretta equivale a provare che V1 V2 = {o}, (cfr. Teor. 4.5). Se per assurdo esiste
x V1 V2 , x 6= o, allora f (x) = 1 x = 2 x da cui segue (1 2 )x = o, quindi
1 = 2 , che e` assurdo. Per dimostrare questa propriet`a in generale e` per`o necessario
anteporre il lemma che segue, la cui dimostrazione e` rimandata al Paragrafo 7.6.3.
Lemma 7.1 Siano 1 , 2 , . . . , k autovalori distinti di un endomorfismo f : V V di
uno spazio vettoriale V e siano V1 , V2 , . . . , Vk gli autospazi ad essi corrispondenti.
Scelti in modo arbitrario gli autovettori x1 , x2 , . . . , xk , uno per ciascun autospazio ad
esso relativo (xi Vi , i = 1, 2, . . . , k ), allora linsieme I = {x1 , x2 , . . . , xk } e` libero.
Come conseguenza si ha il seguente teorema.

Capitolo 7

305

Teorema 7.3 Sia f un endomorfismo di uno spazio vettoriale reale V e siano 1 , 2 , . . . ,


k gli autovalori distinti di f, allora la somma degli autospazi V1 + V2 + . . . + Vk e`
diretta.
Dimostrazione Provare che la somma V1 + V2 + . . . + Vk e` diretta equivale a dimostrare che ogni elemento x V1 + V2 + . . . + Vk ha ununica decomposizione come
somma di vettori di ciascuno degli autospazi addendi (cfr. Def. 4.6). Sia allora x appartenente a V1 +V2 +. . .+Vk , si supponga per assurdo che x ammetta due decomposizioni
diverse del tipo:
x = x 1 + x2 + . . . + xk = y1 + y2 + . . . + y k ,
dove xi , yi Vi , i = 1, 2, . . . , k, allora si ha:
(x1 y1 ) + (x2 y2 ) + . . . + (xk yk ) = o
in evidente contrasto con il Lemma 7.1.
Osservazione 7.4 Si osservi che il teorema appena enunciato afferma che, considerati
tutti gli autovalori distinti 1 , 2 , . . . , k di f , allora:
V1 V2 . . . Vk V ;
lo studio delluguaglianza tra questi due insiemi sar`a oggetto del Paragrafo 7.3.

7.2

Determinazione degli autovalori e degli autospazi

Sia f : V V un endomorfismo di uno spazio vettoriale reale V. Si supponga che


dim(V ) = n e che B = (v1 , v2 , . . . , vn ) sia una base di V. Indicate con A Rn,n la
matrice associata ad f rispetto alla base B e con X Rn,1 la matrice colonna delle
componenti di un vettore x di V rispetto alla base B, e tenendo conto delle equazioni
dellendomorfismo f scritte in forma matriciale (cfr. (6.4)), la formula (7.1) si traduce,
in componenti, nella relazione:
AX = X
vale a dire in:
(A I)X = O,

(7.2)

dove I Rn,n indica la matrice unit`a e O Rn,1 la matrice colonna nulla. Dalla teoria
dei sistemi lineari omogenei descritta nel Paragrafo 1.2.1, segue che il sistema lineare

Diagonalizzazione

306

omogeneo (7.2) ammette soluzioni non nulle se e solo se rank(A I) < n, ossia se e
solo se:
det(A I) = 0.
(7.3)
Si perviene allo stesso risultato facendo uso delle definizioni di somma e di prodotto per
scalari di endomorfismi introdotte nel Paragrafo 6.4 e riscrivendo (7.1) come:
(f id)(x) = o,
dove id indica lidentit`a di V. Pertanto gli autovettori di f, relativi allautovalore ,
coincidono con gli elementi, diversi dal vettore nullo, di ker(f id), cio`e:
V = ker(f id).
Si procede ora con lo studio dettagliato dellequazione (7.3) che prende il nome di equazione caratteristica della matrice A; (7.3) e` anche detta equazione caratteristica dellendomorfismo f, infatti si dimostrer`a nel Teorema 7.4 che non dipende dalla scelta della
matrice associata ad f , ovvero che tutte le matrici associate allo stesso endomorfismo
(matrici simili) hanno lo stesso polinomio caratteristico. Il polinomio det(A I) a
primo membro di (7.3) e` detto polinomio caratteristico di A (o dellendomorfismo f ) e
lo si indicher`a con P (). Pertanto, gli autovalori di f coincidono con le radici reali di
P (). Per ogni radice reale = , lautospazio corrispondente V e` formato dai vettori x di V tali che f (x) = x, ossia dalle soluzioni X del sistema lineare omogeneo
(A I)X = O. Per questo motivo anche se il calcolo degli autovalori e` riferito ad un
endomorfismo f spesso si parla di calcolo degli autovalori di una matrice quadrata A,
intendendosi come tale il calcolo degli autovalori dellendomorfismo f a cui la matrice
A e` associata rispetto ad una base di V.
Con lesempio che segue si vuole determinare, per iniziare a capire il tipo di calcolo che
si deve svolgere, il polinomio caratteristico nel caso particolare delle matrici quadrate di
ordine 2, ossia nel caso di endomorfismi di uno spazio vettoriale reale di dimensione 2.
Esempio 7.5 Sia:

A=

a11 a12
a21 a22

R2,2 ,

il suo polinomio caratteristico e` :



a
a12
P () = det(A I) = 11
a21
a22

da cui segue:
det(A I) = 2 tr(A) + det(A).

(7.4)

Capitolo 7

307

Con un calcolo analogo si ha che il polinomio caratteristico di una matrice quadrata A di


ordine n e` dato da:
P () = det(A I) = (1)n n + (1)n1 tr(A)n1 + . . . + det(A).
Infatti:
1. ciascun addendo nel calcolo del determinante della matrice quadrata A I di
ordine n e` il prodotto di n fattori appartenenti a righe e colonne diverse (cfr. Par.
2.8), quindi il polinomio caratteristico in che si ottiene avr`a necessariamente
grado n.
2. Il termine di grado massimo del polinomio caratteristico si ha solo dal prodotto
degli elementi sulla diagonale principale:
(a11 )(a22 ) . . . (ann ),
quindi il coefficiente di n deve essere (1)n .
3. Anche il termine di grado n 1 del polinomio caratteristico si ottiene solo dal prodotto degli elementi della diagonale principale (provare, per esempio, a fare il calcolo esplicito nel caso particolare delle matrici quadrate di ordine 3), e` abbastanza
facile notare che il suo coefficiente deve essere (1)n1 tr(A).
4. Il termine noto del polinomio caratteristico si ottiene ponendo = 0 nellespressione di P (), quindi deve essere det(A), cio`e:
P (0) = det(A).
Di conseguenza lequazione (7.3) ammette la soluzione = 0 se e solo se si ha
det(A) = 0, in assoluto accordo con ci`o che era gi`a stato osservato (cfr. Oss. 7.3),
vale a dire esiste lautovalore = 0 di f se e solo se ker f 6= {o}.
5. Per il Teorema Fondamentale dellAlgebra in cui si afferma che ogni polinomio di
grado n, a coefficienti complessi, ammette n radici complesse, contate con le loro
molteplicit`a, segue che ogni matrice A Rn,n ammette al pi`u n autovalori. Per
la dimostrazione del Teorema Fondamentale dellAlgebra si veda ad esempio [5].
Si ricorda che una radice di un polinomio p() a coefficienti reali o complessi si
dice avere molteplicit`a h se il polinomio ( )h divide p() ma ( )h+1 non
divide p().
6. Se unequazione a coefficienti reali in unincognita ammette una radice complessa,
allora ammette anche una seconda radice complessa che e` la complessa coniugata

Diagonalizzazione

308

della precedente (si pensi alla formula risolutiva delle equazioni di secondo grado),
pertanto una matrice reale quadrata di ordine pari pu`o non ammettere autovalori
(non si dimentichi che si sta solo trattando il caso degli spazi vettoriali reali), mentre
una matrice reale quadrata di ordine dispari ammette almeno un autovalore.
Esempio 7.6 La matrice quadrata di ordine 2:

2
A=
1

2
1


,

ha come polinomio caratteristico:


det(A I) = 2 3 + 4
che non ha radici reali, pertanto la matrice A non ammette autovalori.
Esempio 7.7 Sia f : R4 R4 lendomorfismo che, rispetto alla base canonica B di
R4 , e` associato alla matrice:

2
0
0
0
0 2
6
6
,
A=
0
0
3
3
0
0 2 2
si vogliono determinare gli autovalori e gli autospazi di f (o, equivalentemente, gli
autovalori e gli autospazi di A). Si inizia con il calcolo dellequazione caratteristica:


2

0
0
0




0
2

6
6
=0
det(A I) =

0
0
3
3



0
0
2 2
e si ha:
det(A I) = ( 1)( + 2)2 = 0
da cui si ottengono tre autovalori 1 = 0, 2 = 1, 3 = 2. Si avranno quindi tre
autospazi, si procede al loro calcolo uno alla volta.
V1 coincide con ker f, che si ottiene riducendo per righe la matrice A. Si lasciano i
dettagli per esercizio, si ha rank(A) = 3, quindi dim(ker f ) = dim(V1 ) = 1 e:
V1 = L((0, 0, 1, 1)).

Capitolo 7

309

Per 2 = 1 si ottiene:

3
0
0
0
0 3
6
6
,
AI =
0
0
2
3
0
0 2 3
da cui rank(A I) = 3 e, quindi, risolvendo il sistema lineare omogeneo corrispondente
allequazione matriciale (A I)X = 0, si perviene a:
V2 = L((0, 2, 3, 2)).
Nel caso di 3 = 2 invece:

0
0
A + 2I =
0
0

0
0
0
6
0
5
0 2

0
6

3
0

ha rank(A + 2I) = 2 e quindi:


V3 = L((1, 0, 0, 0), (0, 1, 0, 0)).
Il risultato appena trovato sugli autovalori e autospazi di f sar`a ridiscusso nellOsservazione 7.6.

Si dimostrer`a ora il teorema gi`a annunciato, vale a dire matrici simili hanno lo stesso
polinomio caratteristico.
Teorema 7.4 Sia f un endomorfismo di uno spazio vettoriale reale V di dimensione n.
Il polinomio caratteristico di f non dipende dalla base di V scelta per la sua determinazione.
Dimostrazione
Considerate due basi B e B 0 di V, si indichino con A = M B,B (f ) e
0
B0 ,B0
A =M
(f ) le matrici, quadrate di ordine n, associate ad f rispetto alle due basi B e
B 0 . Dalla relazione (6.10) si ha che le due matrici A e A0 sono simili e pertanto si ottiene
la tesi provando che:
det(A I) = det(P 1AP I)
con P matrice, invertibile di ordine n, del cambiamento di base da B a B 0 , I matrice
unit`a di ordine n e R. Usando le propriet`a del prodotto di matrici, la formula di
Binet e il calcolo del determinante dellinversa di una matrice (cfr. Teor. 2.16) si ha:

Diagonalizzazione

310

det(P 1AP I) = det(P 1 (A I)P )


= det(P 1 ) det(A I) det(P )
= det(A I),
dopo aver tenuto conto che I = P 1 IP e della propriet`a det(P 1 ) = det(P )1 .
Osservazione 7.5 Si osservi che esistono matrici che hanno lo stesso polinomio caratteristico ma che non sono simili, per esempio le due matrici:




1 0
1 1
I=
, B=
,
0 1
0 1
in quanto P 1 IP = I , per ogni matrice invertibile P.
Il teorema che segue stabilisce unimportante relazione tra la dimensione di un autospazio
e la molteplicit`a del proprio autovalore nel polinomio caratteristico.
Teorema 7.5 Sia f un endomorfismo di uno spazio vettoriale reale V, sia un suo
autovalore di molteplicit`a m e sia V lautospazio relativo ad , allora:
1 dim(V ) m .
Dimostrazione
Poiche e` un autovalore, allora dim(V ) 1. Per dimostrare la
seconda disuguaglianza della tesi si suppongano dim(V ) = n e dim(V ) = k. Se k = n,
la tesi e` ovvia perche f (x) = x, per ogni x V e pertanto V = V. Sia, quindi, k < n
e sia (a1 , a2 , . . . , ak ) una base di V . Si completi (cfr. Teor. 4.15) tale insieme libero fino
ad ottenere la base B di V data da B = (a1 , a2 , . . . , ak , bk+1 , . . . , bn ). Di conseguenza
la matrice associata A = M B,B (f ) assume la forma seguente:

A=

0 ...
0 ...
.. .. . .
.
. .
0 0 ...
0 0 ...
.. .. . .
.
. .

0
0
..
.

a1k+1
a2k+1
..
.

akk+1
0 ak+1k+1
..
..
.
.
0 0 . . . 0 ank+1

...
...
...

a1n
a2n
..
.

. . . akn
. . . ak+1n
..
..
.
.
. . . ann

il cui polinomio caratteristico e` :


det(A I) = ( )k Q()
dove Q() e` un polinomio in di grado n k , ci`o significa che la molteplicit`a di e`
almeno k .

Capitolo 7

311

Osservazione 7.6 Si osservi che nellEsempio 7.7 si sono ottenuti tre autovalori distinti
1 = 0 con molteplicit`a m1 = 1, 2 = 1 con molteplicit`a m2 = 1 e 3 = 2 con
molteplicit`a m3 = 2. I tre autospazi V1 , V2 , V3 avevano, rispettivamente, dimensione
1, 1, 2 e pertanto:
V1 V2 V3 = R4 .
Inoltre, gli autovettori di f (o di A):
v1 = (0, 0, 1, 1),

v2 = (0, 2, 3, 2),

v3 = (1, 0, 0, 0),
0

v4 = (0, 1, 0, 0)

formano una base B 0 di R4 . La matrice M B ,B (f ) associata ad f rispetto alla base


B 0 = (v1 , v2 , v3 , v4 ) di R4 e` la matrice diagonale:

0 0
0
0
0 1
0
0
,
D=
0 0 2
0
0 0
0 2
in quanto:
f (v1 ) = o,

f (v2 ) = v2 ,

f (v3 ) = 2v3 ,

f (v4 ) = 2v4 .

Di conseguenza A e` simile alla matrice diagonale D, cio`e P 1AP = D, dove P e` la


matrice del cambiamento di base dalla base canonica B di R4 alla base B 0 di R4 formata
dai quattro autovettori di f prima indicati.
Esercizio 7.1 Si calcolino gli autovalori e gli autospazi della matrice:

2 0 0
A = 0 1 1 .
0 0 1
Soluzione

Il polinomio caratteristico della matrice A e` dato da:




2

0
0


1
1 = (2 )(1 )2 .
det(A I) = 0
0
0
1

Si ottengono gli autovalori 1 = 2 con molteplicit`a m1 = 1 e 2 = 1 con molteplicit`a


m2 = 2. Gli autospazi relativi ai due autovalori sono:
V1 = L((1, 0, 0)),

V2 = L((0, 1, 0)).

In questo caso si ha quindi che V1 V2 e` un sottospazio vettoriale di R3 di dimensione


2 e pertanto V1 V2 6= R3 .

Diagonalizzazione

312

7.3

Endomorfismi diagonalizzabili
Matrici diagonalizzabili

Il paragrafo inizia con due importanti definizioni, palesemente equivalenti.


Definizione 7.3 Un endomorfismo f : V V di uno spazio vettoriale reale V si dice
diagonalizzabile (o anche semplice) se esiste una base di V rispetto alla quale la matrice
associata ad f e` diagonale.
Definizione 7.4 Una matrice quadrata A Rn,n si dice diagonalizzabile se esiste una
matrice invertibile P di ordine n tale che:
P 1AP = D,
con D matrice diagonale di ordine n, o in altri termini, se A e` simile ad una matrice
diagonale.
Nei precedenti paragrafi di questo capitolo si sono incontrati alcuni esempi di endomorfismi diagonalizzabili, quali lapplicazione identit`a, lapplicazione nulla, lEsempio 7.7.
In questo paragrafo si cercher`a di precisare quando un endomorfismo e` diagonalizzabile
e come si procede, in pratica, alla diagonalizzazione di una matrice quadrata, dopo aver
controllato che ci`o sia possibile.
Il primo teorema (la cui dimostrazione e` conseguenza immediata della Definizione 7.3)
provvede a dare un metodo pratico, utile per riconoscere se un endomorfismo e` diagonalizzabile.
Teorema 7.6 Un endomorfismo f : V V di uno spazio vettoriale reale V e` diagonalizzabile se e solo se esiste una base di V formata da autovettori di f .
Osservazione 7.7 Dal precedente teorema e` quindi evidente che se f e` un endomorfismo
diagonalizzabile di uno spazio vettoriale reale V allora una base di V, rispetto alla quale
la matrice associata ad f sia diagonale, e` formata da autovettori.
Si possono perci`o enunciare quelli che usualmente vengono indicati come i criteri di
diagonalizzazione.
Teorema 7.7 Sia f : V V un endomorfismo di uno spazio vettoriale reale V. Le
seguenti affermazioni sono equivalenti:
1. f e` diagonalizzabile.

Capitolo 7

313

2. V = V1 V2 . . . Vk , dove 1 , 2 , . . . , k sono tutti gli autovalori distinti di


f e V1 , V2 , . . . , Vk i relativi autospazi.
3. dim(V ) = dim(V1 ) + dim(V2 ) + . . . + dim(Vk ), dove 1 , 2 , . . . , k sono tutti
gli autovalori distinti di f e V1 , V2 , . . . , Vk i relativi autospazi.
4. Ogni radice del polinomio caratteristico P () di f e` reale e per ogni radice i
(cio`e per ogni autovalore di f ) di molteplicit`a mi la dimensione dellautospazio
Vi coincide con la molteplicit`a mi , in formule:
dim(Vi ) = mi ,

i = 1, 2, . . . , k.

Dimostrazione Per dimostrare lequivalenza delle quattro affermazioni si proveranno


le seguenti implicazioni:
1.

4.

3.

2.

1.

Per dimostrare limplicazione 1. = 4. si supponga che f sia diagonalizzabile, cio`e che


esista una base B di V formata da autovettori e quindi tale che la matrice A associata ad
f rispetto alla base B sia diagonale, con gli autovalori di f come elementi della diagonale
principale, scritti in ordine, in corrispondenza ai vettori della base B. Se si indicano con
1 , 2 , . . . , k gli autovalori distinti di f e con m1 , m2 , . . . , mk le relative molteplicit`a,
si ha che il polinomio caratteristico di f e` dato da:
P () = det(A I) = (1 )m1 . . . (k )mk ,
da cui segue che ogni radice del polinomio caratteristico e` reale. Inoltre, per ogni autovalore i si ha:
dim(Vi ) = n rank(A i I) = mi .
Per dimostrare limplicazione 4. = 3. si pu`o osservare che, per ipotesi, ogni radice del
polinomio caratteristico e` reale e quindi la somma delle moltiplicit`a delle radici distinte,
cio`e degli autovalori distinti, coincide con il grado del polinomio caratteristico, ovvero:
m1 + m2 + . . . + mk = dim(V )
e quindi:
dim(V1 ) + dim(V2 ) + . . . + dim(Vk ) = dim(V ).
Per dimostrare limplicazione 3. = 2., tenendo conto che per il Teorema 7.3 la somma
di tutti gli autospazi relativi agli autovalori distinti 1 , 2 , . . . , k e` diretta e che dallaffermazione 3. la somma delle dimensioni degli autospazi e` pari alla dimensione di V, segue
che la somma di tutti gli autospazi coincide necessariamente con V.

314

Diagonalizzazione

Per provare lultima implicazione 2. = 1. e` sufficiente osservare che, se per ogni


autospazio Vi , i = 1, 2, . . . , k si considera una base Bi , allora per il Teorema 4.17
lunione:
B1 B2 . . . Bk
e` una base di V in quanto la somma degli autospazi e` diretta.
Osservazione 7.8 La decomposizione 2. del teorema precedente e` anche nota come decomposizione spettrale di V.
Osservazione 7.9 In base ai precedenti criteri segue che lendomorfismo f dellEsempio
7.7 e` diagonalizzabile (o equivalentemente la sua matrice associata A e` diagonalizzabile). Le matrici diagonali simili ad A sono tutte le possibili matrici diagonali aventi sulla
diagonale principale gli autovalori di A. (Quante sono in totale?)
Lendomorfismo dellEsercizio 7.1 non e` diagonalizzabile, in quanto per lautovalore
2 = 1 si ha che dim(V2 ) < m2 .
Come conseguenza immediata del Teorema 7.7 si ha il seguente corollario, la cui dimostrazione e` lasciata al Lettore come esercizio.
Corollario 7.1 Se f e` un endomorfismo di uno spazio vettoriale reale V di dimensione
n con n autovalori distinti, allora f e` diagonalizzabile.

7.4

Il teorema spettrale

Nel caso particolare delle matrici simmetriche si pu`o dimostrare il fondamentale teorema
spettrale.
Teorema 7.8 Teorema Spettrale 1. Sia A una matrice simmetrica, allora A e`
diagonalizzabile, esistono quindi una matrice diagonale D e una matrice invertibile P tali che:
D = P 1AP.
2. Sia A una matrice simmetrica, e` sempre possibile individuare una matrice ortogonale Q tale che:
D = Q1AQ = t QAQ,
cio`e A e` diagonalizzabile mediante una matrice ortogonale.

Capitolo 7

315

3. Se A Rn,n e` una matrice diagonalizzabile e se esiste una matrice Q ortogonale


tale che
t
QAQ = D,
con D matrice diagonale, allora A e` simmetrica.
Si ricordi che il Teorema 6.17 afferma che, fissata una base ortonormale B in uno spazio vettoriale euclideo (V, ), la matrice M B,B (f ) associata ad un endomorfismo f di V
e` simmetrica se e solo se lendomorfismo f e` autoaggiunto. Di conseguenza, si dimostrer`a, in questo paragrafo, che e` possibile formulare il Teorema Spettrale 7.8 in termini
di endomorfismi autoaggiunti e che le due formulazioni sono equivalenti se e solo se si
considerano basi ortonormali dello spazio vettoriale euclideo (V, ). Pi`u precisamente si
dimostrer`a il seguente teorema.
Teorema 7.9 Teorema Spettrale 1. Sia f : V V un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, ) e siano 1 , 2 , . . . , k tutti i suoi
autovalori distinti, allora la somma diretta di tutti gli autospazi coincide con V :
V1 V2 . . . Vk = V
e gli autospazi sono a due ortogonali, vale a dire:
Vi Vj ,

i 6= j,

i, j = 1, 2, . . . , k,

nel senso che per ogni x Vi e per ogni y Vj si ha x y = 0.


2. Sia (V, ) uno spazio vettoriale euclideo e sia f un endomorfismo diagonalizzabile
di V e V = V1 V2 . . . Vk la relativa decomposizione spettrale, dove
Vi indica lautospazio di f relativo allautovalore i . Si supponga che per ogni
i, j , i 6= j , i, j = 1, 2, . . . , k si abbia Vi Vj . Allora f e` un endomorfismo
autoaggiunto di (V, ).
Osservazione 7.10
1. Si osservi che le due formulazioni del Teorema Spettrale 7.8 e
7.9 sono equivalenti solo se si sceglie nello spazio vettoriale euclideo (V, ) una
base ortonormale. Pertanto dalla dimostrazione del Teorema 7.9 segue la dimostrazione del Teorema 7.8.
2. Per dimostrare il punto 3. del Teorema Spettrale 7.8 si pu`o anche osservare che
dal fatto che esiste una matrice Q ortogonale tale che t QAQ = D, si deduce
A = QD t Q e quindi:
t

A = t (QD t Q) = QD t Q = A,

in quanto ovviamente tD = D.

Diagonalizzazione

316

Si inizia con enunciare una prima propriet`a sulle radici del polinomio caratteristico di una
matrice simmetrica, la cui dimostrazione e` rimandata al Paragrafo 7.6 in quanto essa segue
dal fatto che si dovr`a considerare uno spazio vettoriale definito sul campo dei numeri
complessi C, invece che su R.
Lemma 7.2 Tutte le radici del polinomio caratteristico di una matrice simmetrica A di
ordine n sono reali, o in modo equivalente, tutte le radici del polinomio caratteristico di un endomorfismo autoaggiunto f di uno spazio vettoriale euclideo (V, ) sono
reali. In altri termini, se 1 , 2 , . . . , k sono tutti gli autovalori distinti di un endomorfismo autoaggiunto f di V con rispettive molteplicit`a m1 , m2 , . . . , mk , allora si ha
luguaglianza:
m1 + m2 + . . . + mk = n,
dove n e` la dimensione di V.
In generale, per un endomorfismo qualsiasi di uno spazio vettoriale euclideo (V, ) si
pu`o solo affermare che due autovettori relativi a due autovalori distinti non sono paralleli
(cfr. Lemma 7.1). Nel caso particolare di endomorfismi autoaggiunti si pu`o dimostrare
lortogonalit`a tra i due autovettori. Si ha infatti il seguente teorema.
Teorema 7.10 Se 1 e 2 sono due autovalori distinti di un endomorfismo autoaggiunto
f di uno spazio vettoriale euclideo (V, ), allora i relativi autospazi V1 e V2 sono
ortogonali tra di loro, ossia:
x y = 0,
per ogni x V1 e per ogni y V2 .
Dimostrazione
Considerati x V1 e y V2 , dalla definizione di endomorfismo
autoaggiunto segue:
f (x) y = (1 x) y = 1 (x y) = x f (y) = x (2 y) = 2 (x y) = 2 (x y).
Di conseguenza (1 2 )(x y) = 0, ma 1 6= 2 , perci`o x y = 0.
Dimostrazione del Teorema 7.9
1. Siano 1 , 2 , . . . , k tutti gli autovalori distinti di
f e siano V1 , V2 , . . . , Vk i relativi autospazi, che sono tutti in somma diretta (cfr.
Teor. 7.3). Sia:
H = V1 V2 . . . Vk ,
si perviene alla tesi se si dimostra che H = V. Poiche ogni autospazio Vi , i = 1,
2, . . . , k , e` invariante per f (cfr. Teor. 7.2), segue dal Teorema 6.14 che anche H

Capitolo 7

317

e` invariante per f , ossia:


f (H) H.
Si supponga per assurdo che H 6= V , allora:
V = H H ,
dove H indica il complemento ortogonale di H in V e H 6= {o}. Per il Teorema
6.18 si ha che anche H e` un sottospazio vettoriale di V invariante per f. Sia:
f 0 : H H
la restrizione di f a H , definita da (6.18), cio`e da f 0 (x) = f (x), con x in H .
Essendo f e` autoaggiunto, anche f 0 e` autoaggiunto sullo spazio vettoriale euclideo
(H , ) dotato dello stesso prodotto scalare di V. Poiche tutte le radici del polinomio caratteristico di f 0 sono reali (cfr. Lemma 7.2) esiste un vettore x H che
e` un autovettore di f 0 , quindi x e` un autovettore di f , da cui lassurdo. Lortogonalit`a tra gli autospazi segue dal Teorema 7.10.
2. Si tratta di dimostrare che:
f (x) y = x f (y),
per ogni x, y V. Dalla Definizione 4.6 segue che esiste una sola decomposizione
dei vettori x e y del tipo:
x = x1 + x 2 + . . . + xk ,

y = y1 + y2 + . . . + y k ,

con xi , yi Vi , i = 1, 2, . . . , k. Si ha:
f (x) y = f (x1 + x2 + . . . + xk ) (y1 + y2 + . . . + yk )
= f (x1 ) y1 + f (x2 ) y2 + . . . + f (xk ) yk ,
in quanto, per ipotesi, f (xi ) yj = 0, per ogni i, j = 1, 2, . . . , k, i 6= j. Poiche
f (xi ) = i xi , la relazione precedente diventa:
f (x) y = 1 x1 y1 + 2 x2 y2 + . . . + k xk yk .
Procedendo con un conto analogo a secondo membro si perviene alla tesi.
Osservazione 7.11 Come gi`a affermato, il Teorema 7.8 e` conseguenza del Teorema 7.9.
Ma il Teorema 7.9 afferma che ogni matrice associata ad un endomorfismo autoaggiunto
di uno spazio vettoriale euclideo (V, ) e` diagonalizzabile, anche se la matrice associata
non e` simmetrica. Un esempio significativo e` studiato nellEsercizio 8.19. Nel Teorema
8.28 sono determinate tutte le matrici associate ad un endomorfismo autoaggiunto rispetto
ad una base qualsiasi di V.

318

Diagonalizzazione

A corretta conclusione di questa trattazione si riportano i due teoremi seguenti.


Corollario 7.2 Sia f un endomorfismo autoaggiunto di uno spazio vettoriale euclideo
(V, ), allora esiste una base ortonormale di V formata da autovettori.
Dimostrazione Siano 1 , 2 , . . . , k tutti gli autovalori (distinti) di f e V1 , V2 , . . . , Vk
i relativi autospazi. Poiche f e` autoaggiunto, f e` diagonalizzabile (cfr. Teor. 7.9). Dalla
decomposizione:
V = V1 V2 . . . Vk
e dal fatto che gli autospazi sono ortogonali (cfr. Lemma 7.10) si pu`o determinare una
base ortonormale di V formata da autovettori di f come unione di basi ortonormali per
ogni autospazio Vi . Pi`u precisamente, si trova una base per ciascun autospazio Vi , i =
1, 2, . . . , k e la si normalizza con il metodo di GramSchmidt (cfr. Teor. 5.5), ottenendo
in questo modo una base ortonormale Bi per ogni autospazio Vi . Per il Teorema 7.10,
se i 6= j allora Vi Vj , pertanto lunione delle basi ortonormali B1 . . . Bk cos`
ottenute e` una base ortonormale di V formata da autovettori di f .
Teorema 7.11 Ogni endomorfismo f : V V diagonalizzabile e` autoaggiunto rispetto ad un opportuno prodotto scalare di V.
Dimostrazione
Sia B una base di V formata da autovettori di f . Allora esiste su V
un prodotto scalare che rende B una base ortonormale (cfr. Oss. 5.3).
Esercizio 7.2 Sia f lendomorfismo di R3 associato alla matrice:

2
1
0
1 1
A= 1
0 1
2

(7.5)

rispetto alla base canonica di R3 . Dimostrare che f e` autoaggiunto rispetto al prodotto


scalare standard di R3 e trovare una base ortonormale di R3 formata da autovettori di f .
Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale.
Soluzione
Lendomorfismo f e` autoaggiunto perche la matrice associata ad f e` simmetrica e la base canonica di R3 e` ortonormale, rispetto al prodotto scalare standard di
R3 .
Per trovare una base ortonormale di R3 , formata da autovettori di f , si devono determinare gli autospazi di f . Procedendo con il metodo indicato nel Paragrafo 7.2 si
ha:
autovalori di f : 1 = 0, 2 = 2, 3 = 3, tutti di molteplicit`a 1;

Capitolo 7

319

autospazi di f : V1 = L((1, 2, 1)), V2 = L((1, 0, 1)), V3 = L((1, 1, 1)).


Una base ortonormale richiesta si ottiene, semplicemente, considerando i versori di:
v1 = (1, 2, 1),

v2 = (1, 0, 1),

v3 = (1, 1, 1)

(perche?), quindi una matrice ortogonale che diagonalizza A e` ad esempio:


1

P =

da cui:

1

0

1
1

2
3

0 0 0
t
P AP = D = 0 2 0 .
0 0 3

Esercizio 7.3 Sia f lendomorfismo di R3 associato alla matrice:

1 2 2
1 2
A = 2
2 2
1

(7.6)

rispetto alla base canonica di R3 . Dimostrare che f e` autoaggiunto rispetto al prodotto


scalare standard di R3 e trovare una base ortonormale di R3 formata da autovettori di f .
Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale.
Soluzione Si verifica immediatamente che f e` autoaggiunto in quanto la matrice associata a f e` simmetrica e la base canonica di R3 e` ortonormale, rispetto al prodotto scalare
standard di R3 .
Per trovare una base ortonormale di R3 , formata da autovettori di f , si devono determinare gli autospazi di f . Si ha:
autovalori di f : 1 = 3, 2 = 3, con rispettive molteplicit`a m1 = 1, m2 = 2;
autospazi di f : V1 = L((1, 1, 1)), V2 = L((1, 1, 0), (0, 1, 1)).

Diagonalizzazione

320

Si ottiene quindi una base di R3 formata dagli autovettori:


a = (1, 1, 1),

b = (1, 1, 0),

c = (0, 1, 1).

Pertanto una matrice P tale che P 1AP = D, con:

3 0 0
D = 0 3 0 ,
0 0 3
e` data ad esempio da:

1
1
0
1 ,
P = 1 1
1
0 1
ma la matrice P cos` ottenuta non e` ortogonale.
Si perviene ad una base ortonormale di autovettori o equivalentemente una matrice ortogonale Q tale che t QAQ = D, applicando il processo di ortonormalizzazione di
GramSchmidt separatamente ai due autospazi. Pi`u precisamente si considerano i vettori:


1 1 1
v1 = vers (a) = , , ,
 3 3 3
1
1
v2 = vers (b) = , , 0 ,
2
2
 


1 1
2
1 1
, , 1 = , , ,
v3 = vers (c (c v2 )v2 ) = vers
2 2
6 6
6
quindi una matrice ortogonale che diagonalizza A e` ad esempio:
1
1
1

3
2
6

1
1
1

Q =
3
2
6

1
2

0
3
6

da cui:
t

QAQ = D.

Capitolo 7

7.5

321

Esercizi di riepilogo svolti

Esercizio 7.4 Data la matrice:

4 1 + a2 1
5
2 ,
A= 2
1
1
2

a R,

1. determinare il rango di A, al variare del parametro a nel campo reale R;


2. posto a = 0, determinare gli autovalori di A e una base per ciascun autospazio;
3. posto a = 0, verificare se A e` diagonalizzabile e, in caso affermativo, scrivere la
matrice di cambiamento di base dalla base canonica B di R3 ad una base B 0 di R3
formata da autovettori.
4. Determinare, al variare di a R, i casi in cui la matrice A e` diagonalizzabile.
Soluzione

1. Si ha det(A) = 6a2 + 45, pertanto rank(A) = 3 se e solo se:

a 6=

30
.
2

Sostituendo nella matrice A i valori per cui det(A) = 0 si ha:

A=
2

17
1

5 2

1
2

e con un semplice passaggio di riduzione per righe si ottiene che rank(A) = 2.


2. Dal punto precedente segue che per a = 0 il rango della matrice A e` 3, pertanto
A e` una matrice invertibile che quindi non ammette lautovalore = 0. Infatti,
risolvendo lequazione caratteristica det(A I) = 0, si ottiene che gli autovalori
di A sono 1 = 5 con molteplicit`a pari a 1 e 2 = 3 con molteplicit`a 2. Gli
autospazi corrispondenti sono dati da:
V1 = L((1, 2, 1)),

V2 = L((1, 0, 1), (1, 1, 0)).

322

Diagonalizzazione

3. Dal punto precedente si ha che dim(V2 ) = 2, pertanto A e` diagonalizzabile. La


matrice richiesta e` la matrice avente come colonne le componenti, rispetto alla base
B, dei vettori di una base di R3 formata da autovettori di A ossia ad esempio:

1 1 1
1 .
P = 2 0
1 1
0
4. Le radici del polinomio caratteristico della matrice A del testo dellesercizio sono:

1 = 3, 2 = 4 + 1 + 2a2 , 3 = 4 1 + 2a2 .
Innanzi tutto si osserva che per ogni valore di a la quantit`a 1 + 2a2 e` sempre strettamente positiva, pertanto, per ogni valore di a, le radici 1 , 2 , 3 sono autovalori di
A. Si tratta di studiare la loro molteplicit`a al variare di a R. Come
gi`a osservato,
non si hanno valori di a per cui 2 = 3 . Da 1 = 2 si ottiene 1 + 2a2 = 1,
caso che non si pu`o verificare. Da 1 = 3 segue a = 0, che e` il caso studiato nel
punto 3. Pertanto la matrice A e` diagonalizzabile per ogni valore di a, infatti (ad
eccezione di a = 0) tutti gli autovalori sono distinti (cfr. Cor. 7.1).
Esercizio 7.5 Sia f lendomorfismo di R4 definito, rispetto alla base canonica B di R4 ,
dalla matrice:

2 0 1
0
0 2
0 1
.
A=
4 0 2
0
0 4
0 2
1. Determinare la dimensione e una base sia di ker f sia di im f e verificare che
ker f = im f.
2. Determinare autovalori e autovettori di f.
3. Stabilire se f e` diagonalizzabile.
4. Determinare una matrice simile a A.
Soluzione
1. E` evidente che la matrice A ha rango 2, infatti la terza e la quarta riga
sono proporzionali, rispettivamente, alla prima e alla seconda riga e queste ultime
sono linearmente indipendenti. Di conseguenza il nucleo di f si ottiene risolvendo
il sistema lineare omogeneo:

2x1 x3 = 0
2x2 x4 = 0,

Capitolo 7

323

le cui soluzioni sono:

x1

x2
x3

x4

= t1
= t2
= 2t1
= 2t2 ,

t1 , t2 R,

quindi dim(ker f ) = 2 e ker f = L((1, 0, 2, 0), (0, 1, 0, 2)). Il sottospazio immagine im f ha dimensione 2 ed e` generato da 2 colonne linearmente indipendenti
della matrice A. Considerando la prima e la seconda colonna di A segue che
im f = L((2, 0, 4, 0), (0, 2, 0, 4)), da cui e` chiaro che im f coincide con ker f.
2. Prima di iniziare il calcolo degli autovalori si pu`o gi`a affermare che si trover`a lautovalore = 0 di molteplicit`a almeno pari a 2, infatti lautospazio ad esso relativo
e` ker f, gi`a calcolato nel punto 1. Il polinomio caratteristico di A e` :
P () = 4 .
Pertanto lunico autovalore e` = 0 di molteplicit`a 4. Di conseguenza lunico
autospazio e` ker f.
3. Poiche la dimensione di ker f e` diversa dalla molteplicit`a dellautovalore = 0,
lendomorfismo f non e` diagonalizzabile, ossia non e` possibile trovare alcuna matrice diagonale simile ad A. Daltra parte, solo la matrice nulla ammette come
unico autovalore il numero 0 ed e` diagonalizzabile.
4. Una qualsiasi matrice A0 simile ad A e` del tipo A0 = P 1 AP con P matrice
invertibile di ordine 4. Per esempio, ponendo:

1 0 0 0
0 0 1 0

P =
0 1 0 0
0 0 0 1
si ha che:

2 1

4 2
A0 = P 1 AP =
0
0
0
0

0
0
0
0
.
2 1
4 2

Si osservi che, ovviamente, non esiste una base di R4 formata da autovettori, ma,
per esempio, si pu`o ottenere una base C di R4 , completando la base di ker f
ottenuta nel punto 1.. Ad esempio:
C = ((1, 0, 2, 0), (0, 1, 0, 2), (0, 0, 1, 0), (0, 0, 0, 1)).

Diagonalizzazione

324

La matrice associata ad f rispetto alla base C e` :

0
M C,C (f ) = (P 0 )1 AP 0 =
0
0

0 1
0
0
0 1
,
0
0
0
0
0
0

dove

0
P0 =
2
0

0
1
0
2

0
0
1
0

0
0

0
1

e` la matrice del cambiamento di base dalla base canonica B di R4 alla base C . Si osservi anche che la matrice M C,C (f ) non e` diagonale ma e` diagonale a met`a. Infatti
la restrizione di f a ker f (cfr. Def. 6.10) coincide ovviamente con lendomorfismo
nullo di ker f .
Esercizio 7.6 Si consideri lendomorfismo f : R4 R4 tale che:
a. lautospazio relativo allautovalore 1 sia:
H = {(x1 , x2 , x3 , x4 ) R4 | x1 = x2 x3 2x4 = 0};
b. lautospazio relativo allautovalore 1 sia:
K = {(x1 , x2 , x3 , x4 ) R4 | x1 2x2 = x2 + x3 = x4 = 0};
c. il nucleo sia dato da:
ker f = {(x1 , x2 , x3 , x4 ) R4 | x2 = x3 = x4 = 0}.
1. Determinare la matrice A associata ad f, rispetto alla base canonica di R4 .
2. f e` diagonalizzabile? In caso affermativo, scrivere una matrice diagonale D simile
ad A ed una matrice P tale che D = P 1 AP .
Soluzione
E` pi`u facile procedere con la risoluzione del secondo punto e poi dedurre
da questa la soluzione del primo punto.

Capitolo 7

325

2. La dimensione di H e` 2 e una sua base e` data dai vettori:


a1 = (0, 1, 1, 0),

a2 = (0, 2, 0, 1).

La dimensione di K e` 1 e una sua base e` data dal vettore a3 = (2, 1, 1, 0). La


dimensione di ker f e` 1 e una sua base e` data dal vettore a4 = (1, 0, 0, 0). Gli
autospazi sono in somma diretta (cfr. Teor. 7.3), pertanto (a1 , a2 , a3 , a4 ) formano
una base di autovettori di R4 , quindi f e` diagonalizzabile. Di conseguenza la
matrice D richiesta e` :

1 0
0 0
0 1
0 0

D=
0 0 1 0
0 0
0 0
e una matrice P tale che D = P 1 AP si ottiene ponendo ordinatamente in colonna
le componenti della base di autovettori ricavata, ossia:

0 0 2 1
1 2 1 0
.
P =
1 0
1 0
0 1
0 0
1. Da D = P 1 AP segue:

A = P DP 1

7.6

0 1
0
0
=
0
1
0
0

1
2
1
2
.
0 2
0
1

Per saperne di piu`

Esercizio 7.7 Si dimostri il Lemma 7.1, di seguito riportato.


Siano 1 , 2 , . . . , k autovalori distinti di un endomorfismo f : V V di uno spazio
vettoriale V e siano V1 , V2 , . . . , Vk gli autospazi ad essi corrispondenti. Scelti in modo
arbitrario gli autovettori x1 , x2 , . . . , xk , uno per ciascun autospazio ad esso relativo (ossia
xi Vi , i = 1, 2, . . . , k ), allora linsieme I = {x1 , x2 , . . . , xk } e` libero.
Soluzione Si procede per induzione sul numero k di autospazi. Il caso k = 1 e` ovvio,
in quanto, per definizione, ogni autovettore e` diverso dal vettore nullo.
Si supponga, per ipotesi induttiva, che i vettori x1 , x2 , . . . , xk1 siano linearmente indipendenti, dove ogni xi e` un autovettore di Vi , i = 1, 2, . . . , k 1. Si tratta di dimostrare

Diagonalizzazione

326

che linsieme {x1 , x2 , . . . , xk1 , xk } e` libero, con xk autovettore di Vk . Per assurdo si


supponga che ci`o non avvenga, vale a dire che:
xk = 1 x1 + 2 x2 + . . . + k1 xk1 ,

(7.7)

con i R, i = 1, 2, . . . , k 1. Applicando lendomorfismo f ad ambo i membri di


(7.7), dalla linearit`a di f e dal fatto che ogni vettore xi e` un autovettore si perviene
alluguaglianza:
k xk = 1 1 x1 + 2 2 x2 + . . . + k1 k1 xk1 .

(7.8)

Daltra parte, moltiplicando invece ambo i membri di (7.7) per k si ottiene:


k xk = 1 k x1 + 2 k x2 + . . . + k1 k xk1 .

(7.9)

Uguagliando (7.8) e (7.9) segue:


1 (1 k )x1 + 2 (2 k )x2 + . . . + k1 (k1 k )xk1 = o.
I vettori coinvolti nella relazione precedente sono lineramente indipendenti per ipotesi
induttiva, quindi tutti i coefficienti sono nulli, ma, essendo gli autovalori distinti si ottiene
1 = 2 = . . . = k1 = 0, risultato che sostituito nella formula 7.7 comporta xk = o,
che e` assurdo, trattandosi di un autovettore.

7.6.1

Diagonalizzazione simultanea

Siano f e g due endomorfismi diagonalizzabili di uno spazio vettoriale V di dimensione


n e B una base di V. Indicate con A = M B,B (f ) e B = M B,B (g) le matrici associate
a f e g rispetto alla base B, per quanto dimostrato nei paragrafi precedenti, esistono due
matrici quadrate invertibili P e Q di ordine n tali che:
P 1 AP = D,

Q1 AQ = D0 ,

dove D e D0 sono matrici diagonali. Nasce quindi in modo naturale il problema di


trovare le condizioni che devono essere verificate affinche esista una matrice invertibile
P che diagonalizzi sia A sia B, ovvero tale che sia P 1 AP sia P 1 BP siano matrici
diagonali, ovviamente diverse. Questo problema ha conseguenze importanti per esempio
in meccanica quantistica ed in teoria delle rappresentazioni (cfr. per esempio [13]). Prima
di affrontare il problema posto si pu`o introdurre la seguente definizione.
Definizione 7.5 Due endomorfismi diagonalizzabili f e g di uno spazio vettoriale reale
V si dicono simultaneamente diagonalizzabili se esiste una base di V i cui vettori sono
sia autovettori di f sia autovettori di g .

Capitolo 7

327

La definizione appena enunciata riscritta facendo uso delle matrici associate agli endomorfismi f e g rispetto ad una base di V si traduce nella seguente definizione.
Definizione 7.6 Due matrici A e B si dicono simultaneamente diagonalizzabili se esiste
una matrice P, invertibile, tale che:
A = P DP 1 ,

B = P D0 P 1 ,

(7.10)

con D e D0 matrici diagonali.


Il teorema seguente ha il duplice scopo di stabilire la condizione necessaria e sufficiente
affinche due endomorfismi diagonalizzabili siano simultaneamente diagonalizzabili e di
indicare un metodo pratico per determinare una matrice P che diagonalizzi simultaneamente le matrici associate ai due endomorfismi.
Teorema 7.12 Siano f e g due endomorfismi diagonalizzabili di uno spazio vettoriale
reale V di dimensione n. Essi sono simultaneamente diagonalizzabili se e solo se:
f g = g f,
ossia se e solo se le matrici associate A e B a f rispetto alla stessa base di V commutano:
AB = BA.
Dimostrazione
Se f e g sono simultaneamente diagonalizzabili, allora valgono le
relazioni (7.10) da cui:
AB = P D(P 1 P )D0 P 1 = P DD0 P 1 = (P D0 P 1 )(P DP 1 ) = BA.
Viceversa, si supponga che gli endomorfismi f e g siano diagonalizzabili e che la loro
composizione commuti. Indicati con V1 , V2 , . . . , Vk tutti gli autospazi relativi a f , vale
la decomposizione spettrale:
V = V1 V2 . . . Vk .

(7.11)

Si osserva, per iniziare, che lendomorfismo g trasforma ogni vettore dellautospazio Vi


relativo a f in un vettore dello stesso autospazio, ovvero che g(Vi ) Vi . In altri termini
gli autospazi Vi di f non sono solo invarianti per f ma anche per g. Infatti, per ogni
vettore x Vi , risulta che:
f (g(x)) = (f g)(x) = (g f )(x) = g(f (x)) = g(i x) = i g(x),

Diagonalizzazione

328

quindi g(x) Vi , i = 1, 2, . . . , k. Sia ora y un autovettore di g , ossia g(y) = y, con


R. Come immediata conseguenza della decomposizione spettrale (7.11) di V negli
autospazi di f, il vettore y si pu`o scrivere, in modo unico, come:
y = w1 + w2 + . . . + wk ,

wi Vi , i = 1, 2, . . . , k.

Poiche y e` un autovettore dellendomorfismo g, almeno uno tra i vettori wi e` diverso dal


vettore nullo. Per quanto osservato e per la linearit`a di g , si ha:
g(y) = g(w1 ) + g(w2 ) + . . . + g(wk ) = y = w1 + w2 + . . . + wk ,
dove g(wi ) Vi , i = 1, 2, . . . , k . Inoltre, dallunicit`a della decomposizione di un vettore
nella somma dei vettori degli autospazi, si ottiene:
g(w1 ) = w1 ,

g(w2 ) = w2 ,

...,

g(wk ) = wk .

Questo prova che per ogni autovettore y di g e` possibile determinare almeno un vettore
wi che sia simultaneamente autovettore di f e di g . Applicando questo metodo ad una
base (y1 , y2 , . . . , yn ) di autovettori di g , che esiste sicuramente in quanto g e` diagonalizzabile, si ottengono almeno n vettori che sono simultaneamente autovettori di f e g .
Poiche i vettori yi sono combinazione lineare degli autovettori comuni ad f e a g, lo
spazio vettoriale da essi generato coincide con L(y1 , y2 , . . . , yn ) = V e perci`o da essi si
pu`o estrarre una base comune di autovettori di f e di g .
Osservazione 7.12 Per determinare una base comune di autovettori per due endomorfismi diagonalizzabili f e g che commutano e` sufficiente estrarre una base dallinsieme
unione delle basi dei sottospazi vettoriali Vi V0j ottenuti come intersezione di ogni autospazio Vi di f con ogni autospazio V0j di g . Si noti che per alcuni indici i e j tale intersezione pu`o essere ridotta allinsieme {o}. Inoltre, appare evidente dalla dimostrazione
del Teorema 7.12 che la base comune di autovettori non e` unica.
Esercizio 7.8 Dati due endomorfismi f e g su R3 le cui matrici, rispetto alla base canonica di R3 , sono rispettivamente:

0
A=
1

0
2
0

0
0 ,
3

B = 2
2

0
3
0

0
0 ,
3

si verifichi che f e g sono simultaneamente diagonalizzabili e si trovi una base comune


di autovettori.

Capitolo 7

329

Innanzitutto si prova che f e g commutano, infatti:

Soluzione

AB = 4
7

0
0 = BA.
9

0
6
0

Lendomorfismo f ha autovalori con relative molteplicit`a:


1 = 2, m1 = 2;

2 = 3, m2 = 1

ed autospazi:
V1 = L((1, 0, 1), (0, 1, 0)),

V2 = L((0, 0, 1));

mentre lendomorfismo g ha autovalori con relative molteplicit`a:


01 = 1, m01 = 1;

02 = 3, m02 = 2

ed autospazi:
V01 = L((1, 1, 1)),

V02 = L((0, 1, 0), (0, 0, 1)).

Quindi i due endomorfismi sono diagonalizzabili, poiche commutano sono simultaneamente diagonalizzabili. Si vede subito che gli autovettori di g :
y1 = (1, 1, 1),

y2 = (0, 1, 0),

y3 = (0, 0, 1)

sono anche autovettori di f e, quindi, costituiscono una base di autovettori comune ad f


e a g. Si presti attenzione al fatto che, rispetto alla base comune (y1 , y2 , y3 ), la matrice:

2 0 0
D= 0 2 0
0 0 3
e` associata a f , mentre la matrice:

1 0 0
D0 = 0 3 0
0 0 3
e` associata a g .
Esercizio 7.9 Date le matrici:

16 16
4
16
0
0
0
0
,
A=
48
48 12 48
0
0
0
0

9
12 3 12
3 3
1
3
,
B=
12 12
4
12
9 12
3
12

Diagonalizzazione

330

provare che sono simultaneamente diagonalizzabili. Determinare, quindi, una matrice che
le diagonalizzi entrambe.
Soluzione

Gli autovalori con relative molteplicit`a e gli autospazi di A sono:


1 = 0, m1 = 3;

2 = 4, m2 = 1;

V1 = L(v1 , v2 , v3 ),

V2 = L(v4 ),

dove v1 = (1, 0, 0, 1), v2 = (1, 0, 4, 0), v3 = (1, 1, 0, 0), v4 = (1, 0, 3, 0), mentre
gli autovalori con relative molteplicit`a e gli autospazi di B sono:
01 = 0, m01 = 2;

02 = 1, m2 = 1;

03 = 3, m3 = 1;

V01 = L(v10 , v20 ),

V02 = L(v30 ),

V03 = L(v40 ),

con v10 = (0, 1, 0, 1), v20 = (1, 0, 3, 0), v30 = (0, 1, 4, 0), v40 = (1, 0, 0, 1). Le due
matrici A e B sono simultaneamente diagonalizzabili in quanto A e B commutano,
infatti:
AB = BA = O,
con O R4,4 matrice nulla.
Il Teorema 7.12 assicura che, ad esempio, a partire dalla base B 0 = (v10 , v20 , v30 , v40 ) di R4
e` possibile determinare una base comune di autovettori che si ottiene seguendo il metodo
esposto nella dimostrazione. Si decompongono i vettori della base B = (v1 , v2 , v3 , v4 )
di R4 attraverso i vettori della base B 0 , con lavvertenza di raggruppare e sommare gli
autovettori appartenenti allo stesso autospazio. Si hanno le seguenti espressioni:

v1 = v4 0

v2 = v1 + v30 + v40
v3 = v10 v40

v4 = v20 ,
dalle quali risulta che (casualmente) i vettori della base B 0 sono autovettori comuni alle
due matrici. Scambiando il ruolo delle basi B e B 0 , si avrebbe:
0
v = v1 + v3

10
v2 = v4
v 0 = v2 + v3

30
v 4 = v1 ,
dove si osserva che una base comune e` formata dai vettori v10 , v20 , v30 , v40 , ossia, nuovamente, la base B 0 .

Capitolo 7

331

Come gi`a precisato nellOsservazione 7.12 un altro modo per determinare una base comune di autovettori delle due matrici A e B diagonalizzabili e che commutano, consiste
nellestrarre una base dallinsieme unione delle basi dei sottospazi vettoriali: Vi V0j ,
i = 1, 2, j = 1, 2, 3, dove Vi e V0j rappresentano gli autospazi delle matrici A e B
rispettivamente. Nel caso in esame, ommettendo i calcoli per brevit`a, si ha:
V 1
V 1
V 1
V 2
V 2
V 2

V01
V02
V03
V01
V02
V03

= L((0, 1, 0, 1)),
= L((0, 1, 4, 0)),
= L((1, 0, 0, 1)),
= L((1, 0, 3, 0)),
= {o},
= {o},

e si ottengono nuovamente i vettori della base B 0 .

7.6.2

Il Teorema di CayleyHamilton

Il teorema che segue, di svariate applicazioni, e` sorprendente, perche afferma, in pratica,


che sostituendo una matrice quadrata alla variabile del suo polinomio caratteristico si
ottiene la matrice nulla.
Teorema 7.13 Teorema di CayleyHamilton Ogni matrice quadrata A Rn,n e`
uno zero del suo polinomio caratteristico, ovvero se:
P () = (1)n n + an1 n1 + . . . + a1 + a0
e` il polinomio caratteristico di A, allora:
P (A) = (1)n An + an1 An1 + . . . + a1 A + a0 I = O,
con O Rn,n matrice nulla.
Dimostrazione

Sia P () il polinomio caratteristico della matrice A Rn,n :

P () = det(A I) = (1)n n + an1 n1 + . . . + a1 + a0 ,

(7.12)

con an1 = (1)n1 tr(A) e a0 = det(A). Sia B() laggiunta della matrice A I ,
(cfr. Def. 2.14), gli elementi di B(), essendo i cofattori della matrice A I, sono
polinomi in di grado non superiore a n 1. Quindi si pu`o scrivere:
B() = Bn1 n1 + . . . + B1 + B0 ,

(7.13)

Diagonalizzazione

332

dove gli elementi delle matrici Bi Rn,n non dipendono da . Ricordando il calcolo
esplicito della matrice inversa (cfr. Teor. 2.19), segue che:
(A I)B() = det(A I)I.
Sostituendo le espressioni di (7.12) e (7.13) ed uguagliando i coefficienti dei termini di
ugual grado si ha:
Bn1 = (1)n I
ABn1 Bn2 = an1 I
ABn2 Bn3 = an2 I
..
.
AB1 B0 = a1 I
AB0 = a0 I.
Moltiplicando le precedenti equazioni, rispettivamente, per An , An1 , . . . , A, I e sommando segue la tesi, ossia:
O = (1)n An + an1 An1 + . . . + a1 A + a0 I = P (A).
Esempio 7.8 Per capire meglio la dimostrazione
B() (cfr. (7.13)) nel caso della matrice:

2 0

1 3
A=
1 1

precedente, si riporta lespressione di

0
0 .
1

Il polinomio caratteristico di A e` :
P () = 3 + 62 11 + 6.
Poiche:

(7.14)

2
0
0
3
0 ,
A I = 1
1
1
1

laggiunta B() della matrice (A I) e` :

3 4 + 2
0
0

2 3 + 2
0
B() = 1 +
2
4
2 +
6 5 +

Capitolo 7

333

da cui:
B() = B2 2 + B1 + B0

1
= 0
0

0
1
0

0
4
0
0
3
0
0 2 + 1 3
0 + 1
2
1
1
1 5
4 2

0
0 .
6

Esempio 7.9 Sia A una matrice quadrata di ordine 2, dal Teorema di CayleyHamilton
7.13 e da (7.4) segue:
A2 = tr(A)A det(A)I.
Si possono cos` ottenere le potenze di A in funzione delle potenze precedenti, per esempio:
A3 = tr(A)A2 det(A)A,

A4 = tr(A)A3 det(A)A2 ,

e cos` via.

Esempio 7.10 Se A e` invertibile, poiche da (7.14), si ha:




A (1)n An1 + an1 An2 + . . . + a1 I = det(A)I,
moltiplicando entrambi i membri per A1 , si ottiene:
A1 = (det(A))1 (a0 An1 + a1 An2 + . . . + a1 I).
Se A e` una matrice quadrata di ordine 2, la formula precedente si riduce a:
A1 = (det(A))1 (A + tr(A)I).

Esercizio 7.10 Determinare linversa della matrice:

1
0
2
A= 0
1 1
usando il Teorema di CayleyHamilton.

1
1 ,
0

Diagonalizzazione

334

Soluzione

Il polinomio caratteristico di A e` :
P () = 3 + 32 2 1.

Usando il Teorema 7.13 si ricava:


A3 + 3A2 2A I = O,
con O matrice nulla di R3,3 , quindi:
A1 = A2 + 3A 2I,
da cui svolgendo i calcoli segue:

A1

7.6.3

1
1
2
1
1 .
= 1
2 1 2

Teorema spettrale e endomorfismi autoaggiunti


Caso complesso

Dato un endomorfismo f di uno spazio vettoriale complesso V, si introducono in modo


analogo alla Definizione 7.1 le nozioni di autovalori e di autovettori di f. Infatti, un
numero complesso C e` un autovalore di f se esiste un vettore non nullo x di V tale
che f (x) = x. Il vettore x e` detto autovettore di f relativo allautovalore . Come
nel caso reale si definisce lautospazio V di f relativo allautovalore f dato dallinsieme
dei vettori x tali che f (x) = x e continuano a valere tutte le propriet`a dimostrate nei
Paragrafi 7.1 e 7.2. Pertanto per il calcolo degli autovalori si procede come nel caso reale,
precisamente:
1. si determina la matrice A = M B,B (f ) associata a f rispetto a una qualsiasi base B
di V ; e` chiaro che A e` una matrice ad elementi complessi, quindi appartenente a
Cn,n ;
2. si calcola il polinomio caratteristico P () = det(A I), che risulta essere un
polinomio in a coefficienti in C;
3. si trovano le radici del polinomio caratteristico.
Mentre nel caso reale solo le radici reali del polinomio caratteristico sono autovalori, nel
caso complesso, per il Teorema Fondamentale dellAlgebra, ogni radice del polinomio
caratteristico e` un autovalore.
Per il calcolo degli autospazi si procede nello stesso modo del caso reale (cfr. Par. 7.2):

Capitolo 7

335

1. per ogni autovalore si calcola la matrice A I;


2. si risolve il sistema lineare omogeneo (A I)X = O.
Come nel caso reale si ha che la dimensione di un autospazio V , come spazio vettoriale
complesso, e` data da dim(V ) = dim(V ) rank(A I).
Si possono quindi introdurre le nozioni di endomorfismo diagonalizzabile e di matrice
diagonalizzabile (cfr. Def. 7.3 e 7.4) e continua a valere il Teorema 7.6. Per quanto
riguarda il Teorema 7.7, ossia per i criteri di diagonalizzazione, si ha solo una variazione
nel punto 4.. Pi`u precisamente si ha il seguente teorema.
Teorema 7.14 Sia f : V V un endomorfismo di uno spazio vettoriale complesso V.
Le seguenti affermazioni sono equivalenti:
1. f e` diagonalizzabile.
2. V = V1 V2 . . . Vk , dove 1 , 2 , . . . , k sono tutti gli autovalori distinti di
f e V1 , V2 , . . . , Vk i relativi autospazi.
3. dim(V ) = dim(V1 ) + dim(V2 ) + . . . + dim(Vk ), dove 1 , 2 , . . . , k sono tutti
gli autovalori distinti di f e V1 , V2 , . . . , Vk i relativi autospazi.
4. Per ogni autovalore i di f la dimensione dellautospazio Vi coincide con la
molteplicit`a mi di i , ossia dim(Vi ) = mi per ogni i = 1, 2, . . . , k .
Di conseguenza, anche per un endomorfismo di uno spazio vettoriale complesso vale il
Corollario 7.1.
Nel Paragrafo 7.4 e` stato dimostrato che ogni matrice simmetrica e` diagonalizzabile mediante una matrice ortogonale e che se f e` un endomorfismo autoaggiunto di uno spazio
vettoriale euclideo (V, ), esiste una base ortonormale di V formata da autovettori. Gli
autovalori e gli autovettori di un endomorfismo autoaggiunto di uno spazio vettoriale hermitiano (V, ) (e di conseguenza di una matrice hermitiana) godono delle stesse propriet`a
viste nel caso reale. Queste sono riassunte nel teorema che segue.
Teorema 7.15
1. Gli autovalori di un endomorfismo autoaggiunto f di uno spazio
vettoriale hermitiano (V, ) sono reali.
2. Autovettori di un endomorfismo autoaggiunto f di uno spazio vettoriale hermitiano
(V, ) relativi ad autovalori diversi sono ortogonali.

336

Diagonalizzazione

3. Sia f un endomorfismo autoaggiunto di uno spazio vettoriale hermitiano (V, ) di


dimensione n, allora f e` diagonalizzabile. Inoltre, esiste una base ortonormale di
V formata da autovettori di f .
4. Ogni matrice hermitiana e` diagonalizzabile mediante una matrice unitaria.
5. Ogni endomorfismo f di uno spazio vettoriale complesso e` autoaggiunto rispetto
ad un opportuno prodotto hermitiano.
Dimostrazione Per dimostrare 1. si pu`o osservare che se e` un autovalore dellendomorfismo autoaggiunto f e x e` un autovettore relativo a , si ha:
f (x) x = x x.

(7.15)

Poiche f e` autoaggiunto risulta anche:


f (x) x = x f (x) = x (x) = x x,

(7.16)

dove indica il complesso coniugato di . Essendo x e` un autovettore, segue x x 6= 0


e pertanto, confrontando (7.15) con (7.16) si ottiene = .
Le dimostrazioni delle propriet`a 2., 3., 4. e 5. sono analoghe al caso reale.
Osservazione 7.13
1. Come conseguenza del Teorema 7.15 si ottiene la dimostrazione del Lemma 7.2, in quanto dalla propriet`a 1. si ha che ogni radice del polinomio caratteristico di una matrice hermitiana (e quindi in particolare di una matrice
simmetrica) e` reale.
2. Ogni matrice hermitiana e` pertanto simile ad una matrice diagonale reale tramite
una matrice unitaria. In altri termini, per ogni matrice hermitiana A esistono una
matrice unitaria P ed una diagonale reale D per cui
D = P 1 AP = t P AP.
A differenza di ci`o che succede nel caso reale per ci`o che riguarda le matrici simmetriche
(cfr. Teor. 7.8), si prover`a che se una matrice A Cn,n e` diagonalizzabile in campo
complesso mediante una matrice unitaria essa non e` necessariamente hermitiana, ma verifica solo la relazione t A A = A t A (cfr. Teor. 7.16). Ad esempio si avr`a che le matrici
ortogonali reali A (quindi tali che tA = A1 ) sono diagonalizzabili in campo complesso
mediante una matrice unitaria (cfr. Es. 7.11).
In modo naturale e` necessario quindi introdurre la seguente definizione.

Capitolo 7

337

Definizione 7.7 Una matrice quadrata complessa A Cn,n di ordine n si dice normale
se:
t
A A = A t A.
Ricordando la notazione A = t A (cfr. Oss. 4.34) si ha che una matrice quadrata
complessa A Cn,n di ordine n si dice normale se:
A A = A A .
Esercizio 7.11 Verificare che le matrici unitarie, le matrici reali ortogonali, le matrici
hermitiane e le matrici simmetriche (reali) sono esempi di matrici normali.
Soluzione

Una matrice unitaria A e` normale, in quanto da t A = A1 , segue:


A t A = t A A = I.

Per le matrici ortogonali (reali) si ha che t A = tA = A1 e pertanto:


A t A = t A A = I.
Per le matrici hermitiane si ha t A = A e quindi:
A t A = t A A = A2 .
Infine, una matrice simmetrica (reale) A e` normale in quanto t A = tA = A e pertanto
A t A = t A A = A2 .

Il teorema spettrale, valido nel caso reale per le matrici simmetriche, in campo complesso non vale solo per le matrici hermitiane ma in generale per le matrici normali. Pi`u
precisamente si ha il seguente teorema.
Teorema 7.16 Teorema spettrale in campo complesso 1. Sia A una matrice normale, allora esistono una matrice unitaria P ed una matrice diagonale D tali che
P 1 AP = D.
2. Se A e` una matrice diagonalizzabile mediante una matrice unitaria, allora A e`
normale.

Diagonalizzazione

338

Dimostrazione
La dimostrazione di 1. e` pi`u complicata del caso reale, per la sua
lettura si rimanda ad esempio a [14].
La dimostrazione di 2. e` simile a quella nel caso reale per le matrici simmetriche. Infatti
dal fatto che esista una matrice P di ordine n unitaria tale che P 1 AP = D, si deduce
t

A = t (P

D P ) = t P DP,

in quanto t D = D e t P = P 1 . Quindi:
t

AA = (t P DP )(P 1 DP ) = t P DDP = P 1 DDP,

A t A = (P 1 DP )(t P DP ) = P 1 DDP,
ma DD = DD.
Osservazione 7.14
1. Si osservi che gli autovalori di una matrice normale sono in
generale numeri complessi e quindi la matrice D non e` necessariamente reale.
2. Tutte le matrici complesse normali possono quindi essere diagonalizzate in C con
una base ortonormale di autovettori. Tuttavia, questo non si verifica nel caso reale.
Infatti, una matrice normale reale pu`o avere autovalori immaginari, e quindi non
essere diagonalizzabile in campo reale (pur rimanendo diagonalizzabile in campo
complesso). Ne e` un esempio la matrice di una rotazione del piano vettoriale V2 di
angolo diverso da 0 e (cfr. Es. 7.4).

7.6.4

Autovalori delle isometrie, similitudini,


trasformazioni unitarie

Gli autovalori delle isometrie e delle similitudini di uno spazio vettoriale euclideo (V, ),
considerate nel Paragrafo 6.8.7, non possono assumere valori qualsiasi. Infatti si pu`o
provare il seguente teorema.
Teorema 7.17 Sia (V, ) uno spazio vettoriale euclideo,
1. gli autovalori di unisometria f di (V, ) sono 1 e 1.
2. Gli autovalori di una similitudine di rapporto di (V, ) sono e .
Dimostrazione
Pertanto:

1. Sia un autovalore di unisometria f : V V, quindi f (x) = x.


kf (x)k2 = kxk2 = 2 kxk2 = kxk2 ,

da cui la tesi. La dimostrazione di 2. e` analoga ed e` lasciata al Lettore per esercizio.

Capitolo 7

339

Osservazione 7.15 Si osservi che se unautomorfismo di uno spazio vettoriale euclideo


(V, ) ha autovalori pari a 1 e 1 non e` detto che sia unisometria di (V, ). Per esempio,
si consideri lautomorfismo di R2 definito dalla matrice:


1 1
A=
0 1
rispetto alla base canonica B d R2 . Se si considera su R2 la struttura di spazio euclideo determinata dal prodotto scalare standard, si ha per il Teorema 6.32 che f non e` un
isometria di R2 (perche?).
Nel caso di una trasformazione unitaria di uno spazio vettoriale hermitiano (cfr. Par. 5.5.2
e 6.8.7) valgono le seguenti propriet`a la cui dimostrazione e` rimandata ad esempio a [14].
Teorema 7.18 Sia f una trasformazione unitaria di uno spazio vettoriale hermitiano
(V, ).
1. Se H e` un sottospazio vettoriale invariante per f , anche il suo complemento ortogonale H e` invariante per f .
2. Se V ha dimensione finita, allora V ammette una base unitaria formata da autovettori di f .
Si osservi che il fatto che esista una base unitaria di V formata da autovettori di f segue
anche dalla propriet`a gi`a enunciata che le matrici unitarie sono diagonalizzabili mediante
matrici unitarie (cfr. Teor. 7.16.)

340

Diagonalizzazione

Capitolo 8
Forme Bilineari e Forme Quadratiche
In questo capitolo vengono trattate le forme bilineari, particolari funzioni che estendono
il concetto di prodotto scalare definito nel Capitolo 5. Tra le innumerevoli applicazioni di
questo argomento si ha lo studio approfondito delle coniche nel piano e delle quadriche
nello spazio che saranno presentati nei Capitoli 10 e 12.

8.1

Forme bilineari simmetriche

Si inizia il paragrafo con la definizione di forma bilineare su uno spazio vettoriale reale.
Definizione 8.1 Una forma bilineare su uno spazio vettoriale reale V e` una funzione:
: V V R
per cui valgono le seguenti propriet`a:
1. (x + x0 , y) = (x, y) + (x0 , y);
2. (x, y + y0 ) = (x, y) + (x, y0 );
3. (x, y) = (x, y) = (x, y),
per ogni x, x0 , y, y0 V e per ogni R.
Osservazione 8.1 Fissato un vettore x V, la funzione:
x : V R,

y 7 (x, y),

con forma bilineare su V, e` una forma lineare su V. La stessa propriet`a vale se si fissa
il vettore y e si considera la funzione:
y : V R,

x 7 (x, y).

341

342

Forme Bilineari e Forme Quadratiche

Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la


verifica che si tratti o meno di forme bilineari.
Esempio 8.1 La funzione : R2 R2 R definita da:
(x, y) = x1 y1 2x2 y2 ,
con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , e` una forma bilineare su R2 . Infatti:
((x1 , x2 ) + (x01 , x02 ), (y1 , y2 )) = ((x1 + x01 , x2 + x02 ), (y1 , y2 ))
= (x1 + x01 )y1 2(x2 + x02 )y2
= ((x1 , x2 ), (y1 , y2 )) + ((x01 , x02 ), (y1 , y2 )),
per ogni (x1 , x2 ), (x01 , x02 ), (y1 , y2 ) R2 . Analogamente si pu`o dimostrare che verifica
le propriet`a 2. e 3. della Definizione 8.1. Inoltre, si ha (x, y) = (y, x), per ogni
x, y R2 .
Esempio 8.2 Si verifichi per esercizio che la funzione : R2 R2 R definita da:
(x, y) = x1 y1 + 2x2 y2 + 4,
con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , non e` una forma bilineare su R2 .
Esempio 8.3 Si verifichi per esercizio che la funzione : R2 R2 R definita da:
(x, y) = x21 y1 + 2x2 y2 ,
con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , non e` una forma bilineare su R2 .
Esempio 8.4 La funzione : R2 R2 R definita da:
(x, y) = x1 y1 + 2x1 y2 + 3x2 y1 + 4x2 y2 ,
con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , e` una forma bilineare su R2 . Inoltre, si
ha (x, y) (y, x) = x1 y2 + 2x2 y1 . Pertanto, considerando per esempio x = (1, 1)
e y = (1, 2), in contrasto con lEsempio 8.1, segue che (x, y) 6= (y, x).
In generale, data una forma bilineare su uno spazio vettoriale reale V non si ha necessariamente che (x, y) = (y, x), per ogni x, y V. Si pu`o quindi introdurre la
seguente definizione.

Capitolo 8

343

Definizione 8.2 Una forma bilineare su uno spazio vettoriale reale V si dice simmetrica se:
(x, y) = (y, x),
per ogni x, y V.
Esempio 8.5 Ogni prodotto scalare su uno spazio vettoriale reale V e` un esempio di
forma bilineare simmetrica su V (cfr. Def. 5.1).
Esempio 8.6 La funzione : R2 R2 R considerata nellEsempio 8.1 e` una forma
bilineare simmetrica, mentre la funzione dellEsempio 8.4 non e` una forma bilineare
simmetrica.
Poiche ci si propone di studiare opportune generalizzazioni del concetto di prodotto scalare, si prenderanno in considerazione, in quasi tutto il capitolo, solo forme bilineari simmetriche. Nel Paragrafo 8.8.4 invece si studieranno particolari forme, non simmetriche,
che permettono di introdurre, in questo contesto, la nozione gi`a nota di determinante di
una matrice quadrata.
Linsieme delle forme bilineari simmetriche su V sar`a indicato con Bs (V, R). Su questo
insieme si pu`o definire in modo naturale una struttura di spazio vettoriale su R. Infatti, sullinsieme Bs (V, R) delle forme bilineari simmetriche si introduce loperazione di
somma di due forme bilineari simmetriche 1 , 2 , come la funzione:
1 + 2 : V V R,
definita da:
(1 + 2 )(x, y) = 1 (x, y) + 2 (x, y),

x, y V,

(8.1)

e loperazione di prodotto di un numero reale R per una forma bilineare simmetrica


come la funzione:
: V V R,
definita da:
()(x, y) = (x, y),

x, y V, R.

(8.2)

E` immediato verificare che 1 + 2 e sono forme bilineari simmetriche e che vale il


seguente teorema.
Teorema 8.1 Linsieme Bs (V, R) delle forme bilineari simmetriche : V V R
su uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R, rispetto alle
operazioni di somma e prodotto per uno numero reale, definite rispettivamente in (8.1) e
(8.2).

Forme Bilineari e Forme Quadratiche

344

Osservazione 8.2 Si pu`o definire, in modo analogo al caso reale, una forma bilineare
complessa su uno spazio vettoriale complesso V come la funzione:
: V V C
per cui valgono le seguenti propriet`a:
1. (x + x0 , y) = (x, y) + (x0 , y);
2. (x, y + y0 ) = (x, y) + (x, y0 );
3. (x, y) = (x, y) = (x, y),
per ogni x, x0 , y, y0 V e per ogni C. Si osservi che un prodotto hermitiano su uno
spazio vettoriale complesso V non e` per`o una forma bilineare complessa su V in quanto
non e` lineare nel secondo argomento (cfr. (5.12)).

8.1.1

Matrice associata ad una forma bilineare simmetrica

Sia V uno spazio vettoriale reale di dimensione n e sia una forma bilineare simmetrica
su V. Dati una base B = (v1 , v2 , . . . , vn ) di V ed una coppia di vettori x, y V,
usando la bilinearit`a di , e` possibile esprimere (x, y) in termini di (vi , vj ), i, j =
1, 2, . . . , n, e delle componenti di x, y rispetto alla base B. Infatti, per ogni coppia di
vettori x, y V, dati da:
x = x1 v 1 + x2 v 2 + . . . + xn v n ,

y = y1 v1 + y2 v2 + . . . + yn vn ,

lespressione di (x, y) si ottiene applicando le propriet`a di bilinearit`a di , e precisamente:


(x, y) = (x1 v1 + x2 v2 + . . . + xn vn , y1 v1 + y2 v2 + . . . + yn vn )
= x1 y1 (v1 , v1 ) + x1 y2 (v1 , v2 ) + . . . + x1 yn (v1 , vn )
+ x2 y1 (v2 , v1 ) + x2 y2 (v2 , v2 ) + . . . + x2 yn (v2 , vn )
(8.3)

+ ...
+ xn y1 (vn , v1 ) + xn y2 (vn , v2 ) + . . . + xn yn (vn , vn )
=

n
X

xi yj (vi , vj ).

i,j=1

Posto aij = (vi , vj ), i, j = 1, 2, . . . , n, e tenendo conto che:


(vi , vj ) = (vj , vi ),

Capitolo 8

345

per ogni i, j = 1, 2, . . . , n, alla forma bilineare simmetrica si associa pertanto la


matrice simmetrica di ordine n :

a11 a12 . . . a1n


a12 a22 . . . a2n

A = ..
.. . .
..
.
.
.
.
a1n a2n . . . ann
che prende il nome di matrice associata alla forma bilineare simmetrica rispetto alla
base B di V e la si indica con:
A = M B ().
La conoscenza della matrice A permette di calcolare (x, y), qualunque siano i vettori
x e y in V. La relazione (8.3) diventa, quindi:
(x, y) =

n
X

aij xi yj ,

x, y V,

(8.4)

i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n.


Si pu`o dimostrare che, fissata una base B dello spazio vettoriale V, lapplicazione che ad
ogni forma bilineare simmetrica associa la matrice simmetrica A ad essa associata e`
un isomorfismo tra Bs (V, R) e il sottospazio vettoriale di Rn,n delle matrici simmetriche
S(Rn,n ). Infatti si e` appena dimostrato che, fissata una base B di V, una forma bilineare
simmetrica definita su V individua una matrice simmetrica di Rn,n . Viceversa, assegnando una matrice simmetrica A = (aij ) S(Rn,n ), da (8.4) viene individuata una
forma bilineare simmetrica su V. Si ha quindi il seguente teorema.
Teorema 8.2 Sia V uno spazio vettoriale reale di dimensione n. Fissata una base di V,
lo spazio vettoriale Bs (V, R) delle forme bilineari simmetriche e` isomorfo al sottospazio
vettoriale S(Rn,n ) delle matrici simmetriche di Rn,n ; esso ha quindi dimensione pari alla
dimensione di S(Rn,n ), ossia:
dim(Bs (V, R)) =

n(n + 1)
.
2

La dimostrazione del teorema e` lasciata come esercizio al Lettore.


Lespressione (8.4) prende il nome di forma o espressione polinomiale della forma bilineare simmetrica rispetto alla base B. Si tratta di un polinomio omogeneo di secondo
grado nelle componenti di x e y rispetto alla base B, dove per polinomio omogeneo si
intende un polinomio con termini tutti dello stesso grado.

346

Forme Bilineari e Forme Quadratiche

Esempio 8.7 La matrice associata alla forma bilineare dellEsempio 8.1, rispetto alla
base canonica di R2 , e` :


1
0
A=
0 2
che, come previsto, e` simmetrica.

Esempio 8.8 La matrice associata al prodotto scalare standard (5.1) su Rn , rispetto alla
base canonica B di Rn, e` la matrice unit`a I. Mentre la matrice associata al prodotto
scalare dellEsempio 5.3, rispetto alla base canonica di R3 , e` la matrice diagonale:

3 0 0
A = 0 4 0 .
0 0 5
Sia nellEsempio 8.7 sia nellEsempio 8.8 la matrice associata alla forma bilineare simmetrica e` diagonale, si vedr`a in questo capitolo che se la matrice associata ad una forma
bilineare simmetrica e` diagonale sar`a pi`u facile classificarla e riconoscere se si tratti o
meno di un prodotto scalare.

Teorema 8.3 Siano V uno spazio vettoriale reale di dimensione n, B = (v1 , v2 , . . . , vn )


una base di V, Bs (V, R) una forma bilineare simmetrica avente come matrice
associata rispetto a B la matrice simmetrica A = (aij ), i, j = 1, 2, . . . , n, e:

X=

x1
x2
..
.
xn

Y =

y1
y2
..
.

yn

le matrici colonna delle componenti dei vettori x, y V rispetto alla base B di V. Si


ha:
(x, y) = tXA Y = t Y A X.

(8.5)

Capitolo 8

Dimostrazione

XA Y

347

Si tratta di esprimere in notazione matriciale la formula (8.4), infatti:

a11 a12 . . . a1n


y1


a12 a22 . . . a2n y2
x1 x2 . . . xn ..
=
.. . .
.. ..
.
.
.
. .
a1n a2n . . . ann
yn

x1 x2

n
X

a11 y1 + a12 y2 + . . . + a1n yn


 a12 y1 + a22 y2 + . . . + a2n yn

. . . xn
..........................
a1n y1 + a2n y2 + . . . + ann yn

aij xi yj = (x, y),

i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n. Inoltre, poiche (x, y) e` un numero reale,
risulta:
(x, y) = t ((x, y)) = tXA Y = t ( tXA Y ) = t Y tA X,
e dalla simmetria di A segue la tesi.
Lespressione (8.5) e` detta espressione matriciale della forma bilineare simmetrica
rispetto alla base B.
Esempio 8.9 La forma bilineare simmetrica Bs (R3 , R) con matrice associata rispetto alla base canonica di R3 :

1
0 2
A = 0 1 5
2
5 0
ha come espressione polinomiale rispetto alla base canonica di R3 :
(x, y) = x1 y1 + 2(x1 y3 + x3 y1 ) x2 y2 + 5(x2 y3 + x3 y2 ).
Se x = (1, 2, 3) e y = (0, 3, 4), allora:

(x, y) =

0

1 2 3 A 3 = 87.
4

Ci si propone ora di determinare il legame che intercorre tra le matrici associate alla stessa
forma bilineare simmetrica su uno spazio vettoriale V, cambiando base in V.

348

Forme Bilineari e Forme Quadratiche

Teorema 8.4 Siano V uno spazio vettoriale reale, B e B 0 due basi di V, A = M B () e


0
A0 = M B () le matrici associate a rispetto a B e a B 0 rispettivamente. Se P indica
la matrice del cambiamento di base da B a B 0 , risulta:
A0 = tP AP.
Dimostrazione
Siano X = P X 0 , Y = P Y 0 le equazioni del cambiamento di base da
B a B 0 (cfr. Par. 4.3.4), si ha:
(x, y) = tXAY = t (P X 0 )A(P Y 0 ) = tX 0 tP AP Y 0 .
Daltra parte si pu`o scrivere (x, y) = tX 0 A0 Y 0 e, dal confronto delle due espressioni, si
ottiene:
t 0t
X P AP Y 0 = tX 0 A0 Y 0 ,
oppure:
X 0 ( tP AP A0 )Y 0 = 0,

per ogni X 0 e per ogni Y 0 , da cui A0 = tP AP .


Osservazione 8.3 La matrice A0 e` ancora simmetrica, infatti:
t 0

A = t ( tP AP ) = tP AP = A0 .

In generale, per`o A0 non e` simile alla matrice A, lo e` se P e` una matrice ortogonale. Pertanto, in generale i determinanti delle matrici A e A0 sono diversi, infatti vale la
relazione:
det(A0 ) = det(A)(det(P ))2 .
Di conseguenza, non e` detto che A e A0 abbiano gli stessi autovalori come si vedr`a
nellEsempio 8.10. Si dimostrer`a per`o che A e A0 hanno lo stesso numero di autovalori
positivi e lo stesso numero di autovalori negativi (cfr. Teor. 8.20).
Esempio 8.10 Data la forma bilineare simmetrica su R2 :
(x, y) = 3x1 y1 x1 y2 x2 y1 + 2x2 y2 ,
e assegnata la base B 0 = ((1, 2), (2, 1)) di R2 , la matrice P del cambiamento di base
dalla base canonica B di R2 alla base B 0 e` :


1 2
P =
.
2
1
Quindi le matrici associate a rispettivamente rispetto a B e B 0 sono:

Capitolo 8


A=

3 1
1
2



1
0
, A =
2

2
1



3 1
1
2

349



1 2
2
1


=

7 1
1 18


.

Se si calcolano i polinomi caratteristici di A e A0 , si ottiene:


det(A I) = (3 )(2 ) 1 = 2 5 + 5,
det(A0 I) = (7 )(18 ) 1 = 2 25 + 125,
da cui segue che A e A0 non sono matrici simili, quindi non hanno gli stessi autovalori
ma hanno entrambe due autovalori positivi.
Esempio 8.11 Si consideri il prodotto scalare standard sullo spazio vettoriale V3 dei
vettori ordinari, definito nel Paragrafo 3.7.1:
c
(x, y) = kxkkyk cos(xy),

x, y V3 .

Come gi`a osservato nellEsempio 8.8, la matrice associata a questo prodotto scalare
rispetto ad una base ortonormale B = (i, j, k) e` :

1 0 0
M B () = I = 0 1 0 ,
0 0 1
infatti:
(x, y) = x1 y1 + x2 y2 + x3 y3 ,

(8.6)

se x = x1 i + x2 j + x3 k e y = y1 i + y2 j + y3 k. Sia B 0 = (2i, i + 5j, 2k) una nuova


base (non ortonormale) di V3 . La matrice associata al prodotto scalare standard rispetto
alla nuova base B 0 e` la matrice simmetrica:

4 2 0
0
M B () = tP IP = tP P = 2 26 0 ,
0 0 4
cio`e se x, y hanno componenti rispettivamente (x01 , x02 , x03 ) e (y10 , y20 , y30 ) rispetto alla
base B 0 si ha:
(x, y) = 4x0 y 0 + 2(x01 y20 + x02 y10 ) + 11x02 y20 + 4x03 y30 .

(8.7)

Si pone quindi il problema, che sar`a discusso nei paragrafi successivi, di riconoscere che
la forma bilineare , definita rispetto alla base B 0 tramite lespressione polinomiale (8.7),
coincida con il prodotto scalare (8.6), scritto rispetto alla base B.

Forme Bilineari e Forme Quadratiche

350

Osservazione 8.4 Segue dal Teorema 5.4 che se e` un prodotto scalare su uno spazio
vettoriale reale V allora la matrice M B () associata alla forma bilineare simmetrica
rispetto ad una base B di V coincide con la matrice unit`a I se e solo se B e` una base
ortonormale.

8.2

Forme quadratiche

Si vuole ora estendere il concetto di norma di un vettore kxk2 = x x, definito su uno


spazio vettoriale euclideo, ad uno spazio vettoriale reale V su cui e` assegnata una forma
bilineare simmetrica che non sia necessariamente un prodotto scalare. A tale scopo si
introduce la seguente definizione.
Definizione 8.3 Sia Bs (V, R), una forma bilineare simmetrica la funzione:
Q : V R,

x 7 (x, x),

si dice forma quadratica associata alla forma bilineare simmetrica . Analogamente, una
funzione Q : V R prende il nome di forma quadratica su V se esiste una forma
bilineare simmetrica su V tale che Q(x) = (x, x), con x V.
Linsieme delle forme quadratiche su V verr`a indicato con Q(V, R). Si dimostri per
esercizio che Q(V, R) ha la struttura di spazio vettoriale reale, rispetto ad opportune
operazioni di somma e di prodotto per numeri reali.
Teorema 8.5 Sia Q una forma quadratica su uno spazio vettoriale reale V. Allora:
1.

Q(x + y) = Q(x) + 2(x, y) + Q(y),

2.

Q(x) = 2 Q(x),

per ogni x, y V e per ogni R.


Dimostrazione

La propriet`a 1. segue dalluguaglianza:


Q(x + y) = (x + y, x + y),

x, y V,

mentre la propriet`a 2. e` conseguenza delluguglianza:


Q(x) = (x, x),

x, y V, R.

Osservazione 8.5
1. Dal teorema precedente segue che una forma quadratica Q definita su uno spazio vettoriale reale V non e` unapplicazione lineare da V in R.

Capitolo 8

351

2. La corrispondenza tra forme bilineari simmetriche e forme quadratiche associate


e` biunivoca. Ogni forma bilineare simmetrica Bs (V, R) individua una forma
quadratica Q Q(V, R) e viceversa; infatti, data la forma quadratica Q, dalla
propriet`a 1. del Teorema 8.5, si deduce:
(x, y) =

1
{Q(x + y) Q(x) Q(y)} ,
2

x, y V.

(8.8)

La relazione (8.8) e` detta forma polare della forma quadratica Q.


3. Ponendo = 0, nella propriet`a 2. del Teorema 8.5, si ottiene Q(o) = 0, dove o
indica il vettore nullo di V.
Definizione 8.4 Sia V uno spazio vettoriale reale di dimensione n e sia B e` una sua
base, la matrice simmetrica di ordine n associata ad una forma bilineare simmetrica
definita su V rispetto alla base B si dice anche matrice associata alla forma quadratica
Q rispetto alla base B e si indica pertanto con M B (Q).
Sia una forma bilineare simmetrica definita su uno spazio vettoriale reale V di dimensione n. Fissata una base B = (v1 , v2 , . . . , vn ) di V si indichi con A = (aij ), i, j =
1, 2, . . . , n la matrice simmetrica associata a rispetto alla base B. Dalla formula (8.5)
segue che la forma quadratica Q associata a ha la seguente espressione matriciale,
scritta rispetto alla base B:
Q(x) = (x, x) =

n
X

aij xi xj = tXAX,

(8.9)

i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n. Si osservi che Q(x) si esprime mediante un
polinomio omogeneo di secondo grado nelle componenti del vettore x rispetto alla base
B. Per questo motivo Q prende il nome di forma quadratica.
Esempio 8.12 Lespressione polinomiale della forma quadratica Q su R3 , avente come
matrice associata rispetto alla base canonica di R3 , la matrice simmetrica:

3 1 2
A = 1 0 1
2 1 1
e` :
Q(x) = 3x21 + x23 2x1 x2 + 4x1 x3 + 2x2 x3 ,
mentre lespressione polinomiale della relativa forma bilineare simmetrica e` :
(x, y) = 3x1 y1 + x3 y3 (x1 y2 + x2 y1 ) 2(x1 y3 + x3 y1 ) + x2 y3 + x3 y2 .

Forme Bilineari e Forme Quadratiche

352

Esercizio 8.1 Data la forma quadratica su R4 :


Q(x) = x21 + 4x23 + 3x24 4x1 x3 + 10x2 x4 ,
con x = (x1 , x2 , x3 , x4 ),
1. scrivere lespressione polinomiale della forma bilineare simmetrica associata a
Q e la relativa matrice (rispetto alla base canonica B di R4 ).
2. Posto a = (1, 0, 1, 0) e b = (0, 1, 1, 0), calcolare (a, b) e Q(a).
Soluzione

1. Dallespressione polinomiale di Q segue:

(x, y) = x1 y1 + 4x3 y3 + 3x4 y4 2(x1 y3 + x3 y1 ) + 5(x2 y4 + x4 y2 ),


dove x = (x1 , x2 , x3 , x4 ) e y = (y1 , y2 , y3 , y4 ). La matrice associata alla forma
quadratica Q e` :

1
0
A=
2
0

0 2
0
0
0
4
5
0

0
5
,
0
3

quindi si osservi che a partire dallespressione polinomiale della forma quadratica


e` necessario dividere per 2 i coefficienti dei termini xi xj (i 6= j ) per ottenere gli
elementi della matrice A di posto aij .
2. Dalla formula (8.5) segue:
(a, b) = ((1, 0, 1, 0), (0, 1, 1, 0))

1 0 2
 0 0
0
1 0 1 0
=
2 0
4
0 5
0

0
 1

= 1 0 2 0
1 = 2;
0
mentre Q(a) = Q((1, 0, 1, 0)) = 1.

0
0

5 1
0 1
3
0

Capitolo 8

353

Osservazione 8.6 Se B = (v1 , v2 , . . . , vn ) e` una base dello spazio vettoriale V su cui e`


definita la forma quadratica Q con matrice associata A = M B (Q), allora tutte le matrici
associate a Q sono del tipo:
A0 = tP AP,
al variare di P in GL(n, R) (cfr. Teor. 8.4).

8.3

Nucleo e vettori isotropi

La definizione che segue intende estendere il concetto di ortogonalit`a tra vettori introdotto
per gli spazi vettoriali euclidei (cfr. Def. 5.4) al caso pi`u generale delle forme bilineari
simmetriche.
Definizione 8.5 Data una forma bilineare simmetrica definita su uno spazio vettoriale
reale V, due vettori x, y V si dicono ortogonali rispetto a (o pi`u semplicemente
-ortogonali) se:
(x, y) = 0.
Osservazione 8.7 Se coincide con il prodotto scalare introdotto nel Capitolo 5, le due
definizioni di ortogonalit`a tra vettori coincidono.
Esempio 8.13 I vettori x = (1, 1) e y = (3, 4) sono ortogonali rispetto alla forma
bilineare simmetrica Bs (R2 , R) cos` definita:
(x, y) = 3x1 y1 x1 y2 + 2x2 y2 x2 y1 .
Infatti (x, y) = 3 1 3 1 4 + 2 (1) 4 (1) 3 = 0.
Osservazione 8.8 Il vettore nullo o di uno spazio vettoriale V e` ortogonale ad ogni vettore di V, rispetto ad ogni forma bilineare simmetrica Bs (V, R). Infatti, per ogni
forma bilineare Bs (V, R), per ogni coppia di vettori x, y V e per ogni scalare
R, si ha:
(x, y) = (x, y).
Posto = 0, si ottiene (x, o) = 0, per ogni x V.
Teorema 8.6 Sia A un sottoinsieme non vuoto di vettori di uno spazio vettoriale reale
V. Linsieme:
A = {x V | (x, y) = 0, y A}
dei vettori di V ortogonali, rispetto ad una forma bilineare simmetrica Bs (V, R), ad
ogni vettore di A, e` un sottospazio vettoriale di V.

354

Forme Bilineari e Forme Quadratiche

Dimostrazione
Per ogni coppia di vettori x1 , x2 di A e per ogni coppia di scalari
1 , 2 di R si ha:
(1 x1 + 2 x2 , y) = 1 (x1 , y) + 2 (x2 , y) = 0, y A,
dunque 1 x1 + 2 x2 A .
Come caso particolare si ha pertanto il seguente corollario di ovvia dimostrazione.
Corollario 8.1 Sia una forma bilineare simmetrica definita su uno spazio vettoriale
reale V e siano u1 , u2 , . . . , up vettori di V. Un vettore x V e` -ortogonale a tutti
i vettori u1 , u2 , . . . , up , se e solo se x e` -ortogonale ad ogni vettore del sottospazio
vettoriale W = L(u1 , u2 , . . . , up ).
Si osservi che il corollario precedente estende lanaloga propriet`a dimostrata per il complemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo (cfr.
Oss. 5.10) al caso di una generica forma bilineare simmetrica che non sia necessariamente
un prodotto scalare.
Il sottospazio vettoriale ortogonale ad un sottospazio vettoriale W di V, rispetto ad una
forma bilineare simmetrica , sar`a indicato, in accordo con lenunciato del Teorema 8.6,
con W . Su alcuni testi, per evitare confusione con il caso particolare del complemento
ortogonale W di un sottospazio vettoriale W di uno spazio vettoriale euclideo (V, ),
si preferisce usare la notazione W 0 come verr`a meglio precisato nellOsservazione 8.9.
Definizione 8.6 Due sottospazi vettoriali W1 e W2 di uno spazio vettoriale reale V si
dicono ortogonali rispetto a Bs (V, R) se ogni vettore di W1 e` ortogonale ad ogni
vettore di W2 , cio`e se e solo se (x, y) = 0, per ogni x W1 e per ogni y W2 .
Osservazione 8.9 Se W e` un sottospazio vettoriale di uno spazio vettoriale V e e`
un prodotto scalare su V, allora la nozione di sottospazio ortogonale rispetto al prodotto
scalare appena introdotta coincide con quella nota di complemento ortogonale (cfr. Def.
5.6). In generale, per`o se non e` un prodotto scalare, lintersezione W W non e`
formata dal solo vettore nullo e non e` detto che la somma dei due sottospazi vettoriali
W + W coincida con V, come nel caso dellesempio che segue.
Esempio 8.14 Se si considera la forma bilineare su R3 con espressione polinomiale
rispetto alla base canonica di R3 :
(x, y) = x1 y1 2x3 y3 2(x1 y2 + x2 y1 ) (x1 y3 + x3 y1 ) 2(x2 y3 + x3 y2 ),

Capitolo 8

355

dove x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ), ed il sottospazio vettoriale di R3 :


W = L(u1 , u2 ),
con u1 = (4, 1, 0), u2 = (3, 0, 1), si ha che il sottospazio ortogonale a W rispetto a e` :
W = {x R3 | (x, u1 ) = (x, u2 ) = 0}.
Poiche:

(x, u1 ) = 2x1 8x2 6x3


(x, u2 ) = 2x1 8x2 5x3 ,

risolvendo il sistema lineare omogeneo:



2x1 8x2 6x3 = 0
2x1 8x2 5x3 = 0,
segue che W = L(u1 ) e quindi:
W W = W ,
W + W = W V.
Esercizio 8.2 Data la forma bilineare simmetrica su R3 con matrice associata rispetto
alla base canonica B di R3 :

3
a
b
4 2 , a, b, c R,
A= a
b 2
c
stabilire per quali valori dei parametri a, b, c i due iperpiani vettoriali:
W1 = {(x1 , x2 , x3 ) R3 | x1 2x2 + x3 = 0},
W2 = {(x1 , x2 , x3 ) R3 | 2x1 x3 = 0}
sono ortogonali rispetto a .
Soluzione

Lespressione polinomiale associata a rispetto alla base B e` :

(x, y) = 3x1 y1 + a(x1 y2 + x2 y1 ) + b(x1 y3 + x3 y1 ) + 4x2 y2 2(x2 y3 + x3 y2 ) + cx3 y3 .


Una base delliperpiano vettoriale W1 e` formata, ad esempio, dai vettori:
u1 = (1, 0, 1),

u2 = (2, 1, 0).

Forme Bilineari e Forme Quadratiche

356

Una base delliperpiano vettoriale W2 e` formata, ad esempio, dai vettori:


v1 = (1, 0, 2),

v2 = (0, 1, 0).

I due iperpiani vettoriali W1 e W2 sono ortogonali rispetto a se e solo se:

(u1 , v1 ) = b + 2c 3 = 0

(u1 , v2 ) = a 2 = 0
(u2 , v1 ) = a + +4b + 2 = 0

(u2 , v2 ) = 2a + 4 = 0.
Risolvendo il sistema lineare cos` ottenuto si perviene allunica soluzione:
a = 2,

b = 0,

3
c= .
2

Esercizio 8.3 Si consideri la forma quadratica Q su R4 definita da:


Q(x) = 2x21 + 2(x1 x2 + x1 x3 + x1 x4 x2 x3 x2 x4 + hx3 x4 ),

h R,

con x = (x1 , x2 , x3 , x4 ). Trovare, per ogni valore di h, una base del sottospazio vettoriale ortogonale, rispetto alla forma bilineare simmetrica definita da Q, al sottospazio
vettoriale W = L(u1 , u2 ), dove:
u1 = (1, 0, 1, 0),
Soluzione

u2 = (0, 1, 0, 1).

La matrice associata a Q rispetto alla base canonica di R4 e` :

2 1
1
1
1
0 1 1
.
A=
1 1
0
h
1 1
h
0

Il sottospazio vettoriale ortogonale a W rispetto a e` definito come:


W = {x R4 | (x, u1 ) = (x, u2 ) = 0}.
Si ha:

(x, u1 ) = x1 + x3 + (1 h)x4 ,
(x, u2 ) = x2 + (1 + h)x3 x4 .

Quindi:
W = {(x1 , x2 , x3 , x4 ) R4 | x1 + x3 + (1 h)x4 = x2 + (1 + h)x3 x4 = 0}.

Capitolo 8

357

La dimensione del sottospazio vettoriale W e` 2 perche il rango della matrice associata


al sistema lineare omogeneo che lo definisce e` 2 per ogni h R e, ad esempio, una sua
base e` costituita dai vettori:
a1 = (1, 1 + h, 1, 0),

a2 = (1 + h, 1, 0, 1).

Definizione 8.7 Si dice nucleo di una forma bilineare simmetrica Bs (V, R) il sottoinsieme V di V formato dai vettori ortogonali a tutti i vettori di V rispetto a e si
indica con ker , in simboli:
ker = {x V | (x, y) = 0, y V }.
Osservazione 8.10 Si presti molta attenzione a non confondere la nozione di nucleo di
una forma bilineare simmetrica con quella di nucleo di unapplicazione lineare (cfr. Def.
6.7). La stessa denominazione data a due sottospazi vettoriali con diversa definizione
e` giustificata dal metodo che si usa per la loro determinazione, come sar`a spiegato nel
Teorema 8.8.
Teorema 8.7 Il nucleo di un forma bilineare simmetrica Bs (V, R) e` un sottospazio
vettoriale di V.
Dimostrazione

E` conseguenza del Teorema 8.6.

Esempio 8.15 Nel caso di un prodotto scalare definito su uno spazio vettoriale reale V
si ha ker = {o}, in quanto il sottospazio vettoriale V formato dai vettori ortogonali a
tutti i vettori di V si riduce a {o} (cfr. Teor. 5.8).
Esercizio 8.4 Applicando il Corollario 8.1 si dimostri che un vettore x appartiene a ker
(ossia (x, y) = 0, per ogni y V ) se e solo se (x, vj ) = 0, j = 1, 2, . . . , n, dove
B = (v1 , v2 , . . . , vn ) e` una base dello spazio vettoriale V su cui e` definita la forma
bilineare simmetrica .
Si osservi che lesercizio appena assegnato, e che segue facilmente dalle definizioni di
bilinearit`a di e di base di uno spazio vettoriale, e` molto importante ai fini del calcolo
del nucleo di una forma bilineare simmetrica, come si dimostra nel seguente teorema.
Teorema 8.8 Sia un elemento di Bs (V, R) e sia A = (aij ), i, j = 1, 2, . . . , n, la
matrice simmetrica associata a , rispetto ad una base B = (v1 , v2 , . . . , vn ) di V,
allora:
ker = N (A),
dove N (A) e` il nullspace della matrice A.

358

Forme Bilineari e Forme Quadratiche

Dimostrazione
Il nucleo ker della forma bilineare simmetrica e` formato dai
vettori x di V tali che (x, y) = 0, per ogni y V o, equivalentemente, tali che
(x, vj ) = 0, per ogni j = 1, 2, . . . , n. Posto x = x1 v1 + x2 v2 + . . . + xn vn , si ottiene:
(x, vj ) = (x1 v1 + x2 v2 + . . . + xn vn , vj )
=
=

n
X
i=1
n
X

xi (vi , vj )
aij xi = 0,

j = 1, 2, . . . , n,

i=1

che non e` altro che il sistema lineare omogeneo:


AX = O
di n equazioni nelle n incognite x1 , x2 , . . . , xn , dove X Rn,1 indica la matrice colonna
delle incognite e O Rn,1 indica la matrice colonna nulla.
Definizione 8.8 Una forma bilineare simmetrica (o equivalentemente la forma quadratica Q associata) definita su uno spazio vettoriale reale V e` non degenere se ker =
{o} e degenere se ker 6= {o}, dove o indica il vettore nullo di V.
Osservazione 8.11 Segue dalla precedente definizione che un prodotto scalare su V e`
una forma bilineare simmetrica non degenere, in quanto ker = {o} (cfr. Es. 8.15).
Corollario 8.2 Sia un elemento di Bs (V, R), allora e` degenere se e soltanto se
det(A) = 0, dove A e` la matrice associata a , rispetto ad una base B = (v1 , v2 , . . . , vn )
di V.
Dimostrazione
Come conseguenza del Teorema 8.8 si ha che il calcolo del nucleo di
si riduce alla risoluzione del sistema lineare omogeneo AX = O di n equazioni nelle
n incognite x1 , . . . , xn . Tale sistema lineare ha soluzioni non nulle se e soltanto se il
rango della matrice A e` minore di n o, equivalentemente, se e solo se il determinante di
A e` uguale a zero (cfr. Teor. 1.2).
Osservazione 8.12 Sia una forma bilineare simmetrica definita su uno spazio vettoriale V. Se A e` una matrice simmetrica associata a , dal Teorema 4.23 di Nullit`a pi`u
Rango segue:
dim(ker ) = dim(V ) rank(A).

Capitolo 8

359

Inoltre e` non degenere se e solo se dim(V ) = rank(A). Di conseguenza poiche


dim(ker ) e` invariante per ogni matrice associata a tutte le matrici associate alla stessa
forma bilineare simmetrica hanno lo stesso rango, ossia:
rank(tP AP ) = rank(A),
per ogni matrice invertibile P (cfr. Teor. 8.4).
Tale osservazione permette di introdurre la seguente definizione.
Definizione 8.9 Si definisce rango di una forma bilineare simmetrica (o della forma
quadratica associata Q), e sar`a indicato con rank() (o con rank(Q)), il rango di una
qualunque matrice simmetrica associata a .
Osservazione 8.13 Dal Teorema 2.9 si pu`o dimostrare in un altro modo che il rango
della forma bilineare non dipende dalla scelta della matrice associata e quindi della
base usata per costruire tale matrice, infatti in particolare si ha:
rank( tP AP ) = rank(AP ) = rank(A),
per ogni matrice A Rn,n e per ogni matrice invertibile P Rn,n .
Esercizio 8.5 Determinare il nucleo della forma bilineare simmetrica Bs (R3 , R) con
matrice associata rispetto alla base canonica B = (e1 , e2 , e3 ) di R3 :

1
A= 0
2

0 2
1
1 .
1
5

Soluzione
Si determina il nullspace N (A) della matrice A, ovvero si devono determinare i vettori x = (x1 , x2 , x3 ) per cui (x, ej ) = 0, j = 1, 2, 3. Si ottiene x =
(2x3 , x3 , x3 ), al variare di x3 R, e quindi ker = L((2, 1, 1)).
Esercizio 8.6 Sia una forma bilineare simmetrica su R3 . Determinare la matrice associata a rispetto alla base canonica di R3 sapendo che i vettori u = (1, 2, 1) e
v = (1, 1, 0) formano una base di ker e che Q(w) = 8, con w = (1, 0, 1), dove
Q e` la forma quadratica associata a .
Soluzione

Si indichi con:

a11 a12 a13


A = a12 a22 a23
a13 a23 a33

360

Forme Bilineari e Forme Quadratiche

la matrice associata a rispetto alla base canonica di R3 . Poiche (u, v) e` una base di
ker devono valere le condizioni:
(e1 , u) = (e2 , u) = (e3 , u) = 0,
(e1 , v) = (e2 , v) = (e3 , v) = 0,
che corrispondono al sistema lineare omogeneo:

a11 + 2a12 + a13 = 0

a12 + 2a22 + a23 = 0

a13 + 2a23 + a33 = 0


a11 + a12 = 0

a + a22 = 0

12
a13 + a23 = 0.

(8.10)

Dalla condizione Q(w) = 8 segue:


Q(w) = (e1 , e1 ) + 2(e1 , e3 ) + (e3 , e3 ) = a11 + 2a13 + a33 = 8.

(8.11)

Risolvendo quindi il sistema lineare formato dalle equazioni (8.10) e (8.11) si ha come
unica soluzione:

2 2
2
2 2 .
A = 2
2 2
2
Sia una forma bilineare simmetrica su V e sia W un sottospazio vettoriale di V. Se
e` un prodotto scalare il complemento ortogonale W di W ha in comune con W solo il
vettore nullo. In altri termini (x, x) = 0 se e solo se x = o. DallEsempio 8.14 segue
invece che se non e` un prodotto scalare possono esistere vettori non nulli comuni a W
e a W e ci`o giustifica la definizione che segue.
Definizione 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V. Un
vettore x V si dice isotropo per la forma quadratica Q se Q(x) = 0.
Se e` la forma bilineare simmetrica associata a Q, si ha che x V e` isotropo se e solo
se (x, x) = 0. Linsieme dei vettori isotropi della forma quadratica Q verr`a indicato
con:
I = {x V | Q(x) = (x, x) = 0}.
Il nucleo della forma bilineare simmetrica associata alla forma quadratica Q e linsieme
dei vettori isotropi sono legati dal seguente teorema.

Capitolo 8

361

Teorema 8.9 Data una forma bilineare simmetrica su uno spazio vettoriale reale V,
allora:
ker I,
con I insieme dei vettori isotropi della forma quadratica Q associata a . Ovvero, se
un vettore x appartiene a ker , allora x e` un vettore isotropo per la forma quadratica
Q associata a .
Dimostrazione

Se per ogni vettore y di V si ha (x, y) = 0, segue:


(x, x) = Q(x) = 0.

Osservazione 8.14 1. Linsieme I dei vettori isotropi di una forma quadratica Q su uno
spazio vettoriale reale V, in generale, non e` un sottospazio vettoriale di V, infatti
se x, y I e (x, y) 6= 0, allora x + y non e` un vettore isotropo.
2. Fissata una base B = (v1 , v2 , . . . , vn ) di V, linsieme I pu`o essere descritto come:
(
)
n
X
I = x = x1 v 1 + x2 v 2 + . . . + xn v n V |
aij xi xj = 0 ,
i,j=1

dove A = (aij ) e` la matrice simmetrica associata a Q rispetto alla base B. Pertanto,


linsieme I pu`o essere visto come il luogo degli zeri di un polinomio omogeneo di
secondo grado che viene anche chiamato cono isotropo relativo alla forma quadratica Q o alla forma bilineare simmetrica associata . Il motivo di tale denominazione
risiede nel fatto che, se si rappresentano i vettori di V con punti in uno spazio ndimensionale, si ottiene un cono con vertice lorigine. Per lo studio approfondito
dei coni nello spazio di punti di dimensione 3 si rimanda al Paragrafo 12.2.
3. In generale non vale il viceversa del Teorema 8.9. Gli esercizi che seguono mettono
in evidenza che ker non sempre coincide con linsieme dei vettori isotropi I della
forma quadratica Q associata ma e` solo contenuto in esso.
Esercizio 8.7 Si consideri la forma bilineare simmetrica su R3 con espressione polinomiale rispetto alla base canonica di R3 :
(x, y) = x1 y1 (x1 y2 + x2 y1 ) + x2 y2 x3 y3 ,
dove x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ), stabilire se linsieme dei vettori isotropi per la
forma quadratica Q associata a e` un sottospazio vettoriale di R3 .

Forme Bilineari e Forme Quadratiche

362

Soluzione

Un vettore x e` isotropo se:


Q(x) = x21 2x1 x2 + x22 x23 = 0.

Linsieme I dei vettori isotropi non e` un sottospazio vettoriale di R3 , in quanto ad


esempio i vettori:
u = (1, 0, 1), v = (0, 1, 1),
sono isotropi, ma u + v non e` isotropo.
Esempio 8.16 Su R3 e` data, rispetto alla base canonica (e1 , e2 , e3 ) di R3 , la forma
quadratica:
Q(x) = x21 2x23 4x1 x2 2x1 x3 4x2 x3 ,
la cui forma bilineare simmetrica associata e` :
(x, y) = x1 y1 2x3 y3 2(x1 y2 + x2 y1 ) (x1 y3 + x3 y1 ) 2(x2 y3 + x3 y2 ),
con x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ). Il vettore a = (4, 1, 0) e` isotropo per la forma
quadratica Q perche Q(a) = 0, ma a non appartiene a ker in quanto (a, e1 ) = 2.
Osservazione 8.15 Come conseguenza del Teorema 8.9 si ha che se I = {o} allora la
forma bilineare simmetrica e` non degenere. Attenzione per`o che non vale il viceversa. Nel caso di un prodotto scalare linsieme dei vettori isotropi per la forma quadratica
associata coincide con linsieme formato dal solo vettore nullo, ma in generale nel caso
di una forma bilineare simmetrica non degenere linsieme dei vettori isotropi I pu`o non
ridursi allinsieme {o}.
Esempio 8.17 La forma quadratica su R2 definita da Q(x) = x21 x22 e` associata, rispetto
alla base canonica di R2 , alla matrice invertibile:


1
0
A=
;
0 1
e` non degenere, in quanto det(A) = 1, e pertanto ker = {o}. I vettori isotropi di Q
sono i vettori x = (x1 , x2 ) tali che x21 x22 = 0, da cui x1 = x2 , quindi x = (x2 , x2 )
e formano linsieme:
I = L((1, 1)) L((1, 1)),
che non e` un sottospazio vettoriale trattandosi dellunione di due sottospazi vettoriali
diversi, entrambi di dimensione 1.
A partire da un vettore non isotropo si ottiene una decomposizione dello spazio vettoriale
su cui e` definita la forma quadratica, analoga a quella ottenuta nel caso di uno spazio
vettoriale euclideo che e` somma diretta di un suo qualsiasi sottospazio vettoriale con il
proprio complemento ortogonale. Vale infatti il teorema che segue.

Capitolo 8

363

Teorema 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V di dimensione n. Per ogni vettore u V non isotropo si ha:
V = L(u) L(u) ,
dove L(u) = {u} e` il sottospazio vettoriale ortogonale al vettore u rispetto alla forma
bilineare simmetrica associata a Q.
Dimostrazione

Si ha immediatamente:
L(u) L(u) = {o},

in quanto u non e` un vettore isotropo. E` sufficiente quindi provare che L(u) e` uniperpiano vettoriale di V. Siano B = (v1 , v2 , . . . , vn ) una base di V e A = M B (Q) la
matrice simmetrica associata a Q rispetto alla base B. Si indichi con:

u1
u2

U = ..
.
un
la matrice colonna formata dalle componenti del vettore u rispetto alla base B. Si definisce la forma lineare:
u : V R,

y 7 (u, y),

y V,

dove e` la forma bilineare simmetrica associata a Q (cfr. Oss. 8.1). Pertanto:


L(u) = {y V | (u, y) = t U A Y = 0}
coincide con il nucleo della forma lineare u , la cui matrice associata rispetto alla B di
V e C = (1) di R e` la matrice t U A. E` importante osservare che la matrice riga t U A non
e` nulla, poich`e:
Q(u) = t U A U 6= 0.
Quindi la forma lineare u non coincide con forma lineare nulla essendo u (u) =
Q(u) 6= 0, e di conseguenza il suo nucleo e` un iperpiano vettoriale di V (cfr. Oss.
6.17).
Esercizio 8.8 Sia Q una forma quadratica definita su uno spazio vettoriale reale V e
siano a e b due vettori di V linearmente indipendenti e isotropi. Stabilire se la somma:
L(a, b) + L(a, b)
e` diretta, dove L(a, b) e` il sottospazio vettoriale ortogonale a L(a, b) rispetto alla forma
bilineare simmetrica associata a Q.

364

Forme Bilineari e Forme Quadratiche

Nel caso delle forme bilineari non degeneri e` possibile dimostrare il teorema che segue
e che, limitatamente al caso della dimensione, coincide con lanalogo risultato enunciato
nel punto 2. del Teorema 5.8 per il complemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo. Si noti che la sua dimostrazione e` la naturale
generalizzazione di quella indicata nellambito euclideo.
Teorema 8.11 Sia una forma bilineare simmetrica non degenere su uno spazio vettoriale V di dimensione n e siaW un sottospazio vettoriale di V, allora:
dim(W ) = n dim(W),
con W sottospazio vettoriale ortogonale di W ripetto a .
Dimostrazione Siano dim(V ) = n e dim(W) = h e sia B = (v1 , v2 , ...., vn ) una
base di V. Se h = 0 allora W = V, da cui segue la tesi. Altrimenti si supponga che
(a1 , a2 , . . . , ah ) sia una base di W . Si indichi con A la matrice simmetrica di ordine n
associata a rispetto alla base B e con C la matrice appartenente a Rh,n le cui righe
sono le componenti dei vettori a1 , a2 , . . . , ah rispetto alla base B. Ricordando che:
W = {x V | (ai , x) = 0, i = 1, 2, . . . , h}
ed indicando con X la matrice colonna formata dalle componenti di x rispetto alla base
B segue che il sistema lineare (ai , x) = 0, i = 1, 2, . . . , h, coincide con:
CAX = O,
dove O indica la matrice nulla di Rh,1 di conseguenza W e` il nullspace della matrice
CA, ossia:
W = N (CA).
La matrice C ha rango h ed A e` una matrice invertibile, in quanto e` non degenere.
Pertanto rank(CA) = h (cfr. Teor. 2.9, punto 1.) e dim(W ) = n h.

8.4

Classificazione di una forma quadratica

E` gi`a stato osservato nel paragrafo precedente che se e` un prodotto scalare, allora e`
una forma bilineare simmetrica non degenere. Questa condizione per`o non e` sufficiente
per definire il prodotto scalare in termini di una forma bilineare simmetrica, infatti in base
alla definizione di prodotto scalare (cfr. Def. 5.1) una forma bilineare simmetrica su
uno spazio vettoriale V e` un prodotto scalare se e solo se Q(x) 0 per ogni x V
e se lunico vettore isotropo e` il vettore nullo, Q indica la forma quadratica associata a
. Per caratterizzare quindi un prodotto scalare e` necessario aggiungere alla nozione di
forma bilineare simmetrica non degenere anche il segno della forma quadratica Q ad essa
associata. Pi`u precisamente e` necessario enunciare la seguente definizione.

Capitolo 8

365

Definizione 8.11 Una forma quadratica Q (o equivalentemente la forma bilineare simmetrica ad essa associata) su uno spazio vettoriale reale V si dice:
1. definita positiva (negativa) se:
Q(x) 0 ( 0), x V

e Q(x) = 0 x = o;

2. semidefinita positiva (negativa) se:


Q(x) 0 ( 0),

x V,

ma non si esclude che esistano vettori x V non nulli tali che Q(x) = 0, cio`e che
esistano vettori isotropi non nulli;
3. indefinita se Q(x) ha segno variabile al variare del vettore x di V.
Osservazione 8.16 La forma quadratica nulla Q : V R definita da Q(x) = 0 per
ogni x di V pu`o essere considerata sia semidefinita positiva sia semidefinita negativa.
Osservazione 8.17 In base alla definizione precedente e` un prodotto scalare se e solo
se (o la forma quadratica associata Q) e` definita positiva.
Esempio 8.18 Tenendo conto delle nozioni appena introdotte, e` ora possibile costruire
un prodotto scalare che renda ortogonali due vettori qualsiasi u e v, non nulli e non
paralleli, di uno spazio vettoriale reale V di dimensione n 2. Completando linsieme
libero {u, v} fino ad ottenere una base di V :
B = (u, v, b1 , . . . , bn2 ),
la matrice A associata al prodotto scalare rispetto alla base B si ottiene imponendo che
sia definita positiva, ovvero che valgano le condizioni:

(u, v) = 0,

(u, bi ) = 0, i = 1, 2, . . . , n 2,

(v, bi ) = 0, i = 1, 2, . . . , n 2,
(bi , bj ) = 0, i, j = 1, 2, . . . , n 2,

(u, u) > 0,

(v, v) > 0,

(bi , bi ) > 0, i = 1, 2, . . . , n 2.
Si pu`o quindi osservare che A non e` univocamente determinata, anche se si fissa la base
B, perche si hanno infinite scelte per le lunghezze dei vettori della base. Esistono quindi
infiniti prodotti scalari su V che rendono ortogonali i vettori u e v.

366

Forme Bilineari e Forme Quadratiche

Esercizio 8.9 Dati i vettori u = (1, 1) e v = (0, 1) in R2 determinare un prodotto


scalare su R2 tale che i due vettori u e v siano ortogonali rispetto a e rispettivamente
di lunghezza 1 e 2. Tale prodotto scalare e` unico?
Soluzione

Il prodotto scalare richiesto deve verificare le condizioni:

(u, v) = 0
(u, u) = 1

(v, v) = 4.

Indicata con A = (aij ) R2,2 la matrice simmetrica associata a rispetto alla base
canonica di R2 , dalle equazioni precedenti si ottiene il sistema lineare:

a12 + a22 = 0
a11 2a12 + a22 = 1

a22 = 4,
che ha come unica soluzione a11 = 5, a12 = a22 = 4, da cui segue che lespressione
polinomiale del prodotto scalare e` :
(x, y) = 5x1 y1 + 4x1 y2 + 4x2 y1 + 4x2 y2 ,
con x = (x1 , x2 ) e y = (y1 , y2 ). Di conseguenza esiste un unico prodotto scalare che
verifica le condizioni assegnate. Si osservi che i due vettori u e v sono ortogonali rispetto
al prodotto scalare appena determinato, ma non sono ortogonali rispetto al prodotto
scalare standard di R2 .
Osservazione 8.18 Una forma bilineare indefinita pu`o essere in generale sia degenere sia
non degenere, ma si vedr`a che il suo nucleo e` sempre strettamente incluso nellinsieme
dei vettori isotropi I, ossia I =
6 {o}.
Teorema 8.12 Sia Q una forma quadratica su uno spazio vettoriale reale V. Se la forma
quadratica Q e` definita (positiva o negativa), allora Q (o equivalentemente la forma
bilineare simmetrica ad essa associata) e` non degenere.
Dimostrazione
Si tratta di dimostrare che ker = {o}. Per ogni vettore x ker e
per ogni vettore y V si ha (x, y) = 0, ci`o implica che Q(x) = 0 ma Q e` definita
positiva (o negativa), dunque x = o.
Osservazione 8.19 Non vale il viceversa del teorema precedente. Infatti, ad esempio, la
forma quadratica dellEsempio 8.17 e` non degenere ma e` indefinita perche Q((1, 0)) = 1
e Q((0, 1)) = 1.

Capitolo 8

367

Esercizio 8.10 Data la forma bilineare simmetrica Bs (R3 , R), definita da:
(x, y) = x1 y1 x1 y2 x2 y1 ,
si determinino la matrice associata, rispetto alla base canonica di R3 , lespressione polinomiale della forma quadratica Q associata a e la si classifichi. Si individui quindi linsieme I dei vettori isotropi di Q e si stabilisca se I sia o meno un sottospazio vettoriale
di R3 .
Soluzione

La matrice associata a rispetto alla base canonica di R3 e` :

1 1 0
A = 1 0 0 ,
0 0 0

da cui segue che det(A) = 0, ker = L((0, 0, 1)), e` quindi degenere. La forma
quadratica associata a e` :
Q(x) = x21 2x1 x2 ,
pertanto Q(x) = 0 se e solo se x1 = 0 oppure x1 = 2x2 , quindi:
I = L((0, 0, 1), (0, 1, 0)) L((2, 1, 0), (0, 0, 1)),
di conseguenza I non e` un sottospazio vettoriale di R3 . Q e` indefinita perche per esempio
Q((1, 0, 0)) = 1 > 0 e Q((1, 1, 0)) = 1 < 0.
Osservazione 8.20 Non e` sempre facile come nellEsercizio 8.10 classificare una forma
quadratica senza usare metodi pi`u generali che saranno studiati nel Paragrafo 8.5.
Anche per una forma quadratica si pu`o introdurre, in modo analogo al caso delle applicazioni lineari (cfr. Def 6.10), il concetto di restrizione. Infatti, dati un sottospazio
vettoriale W di uno spazio vettoriale reale V e una forma quadratica Q su V, si pu`o
definire la restrizione di Q a W come la funzione:
Q|W : W R,

Q|W (x) = Q(x).

E` lasciata per esercizio al Lettore la verifica che la restrizione di una forma quadratica Q
a W e` una forma quadratica su W . Il teorema che segue, la cui dimostrazione e` un facile
esercizio, mette in relazione la classificazione di una forma quadratica e la classificazione
di ogni sua restrizione.
Teorema 8.13 Siano W un sottospazio vettoriale di uno spazio vettoriale reale V e Q
una forma quadratica su V allora:

368

Forme Bilineari e Forme Quadratiche

se Q e` una forma quadratica definita positiva (definita negativa) su V, allora la


restrizione di Q a W e` una forma quadratica definita positiva (definita negativa);
se Q e` una forma quadratica semidefinita positiva (semidefinita negativa) su V,
allora la restrizione di Q a W e` una forma quadratica semidefinita positiva (semidefinita negativa); per ci`o che riguarda il caso della forma quadratica nulla si
tenga conto dellOsservazione 8.16;
se Q e` una forma quadratica indefinita su V, allora la restrizione di Q a W pu`o
essere una forma quadratica definita positiva (definita negativa), semidefinita positiva (semidefinita negativa), indefinita; per ci`o che riguarda il caso della forma
quadratica nulla si tenga conto dellOsservazione 8.16.
Osservazione 8.21 Come gi`a enunciato nel Teorema 8.13, a differenza di ci`o che e` affermato nel caso delle forme quadratiche definite (positive o negative), la restrizione di una
forma quadratica indefinita non degenere ad un sottospazio vettoriale dello spazio vettoriale su cui e` data e` ancora una forma quadratica, ma non e` detto che sia non degenere. Ad
esempio, se si considera la forma quadratica non degenere introdotta dellEsempio 8.17
si ha che le sue restrizioni ai sottospazi vettoriali di R2 :
W1 = {(x1 , x2 ) R2 | x1 x2 = 0},
W2 = {(x1 , x2 ) R2 | x1 + x2 = 0},
sono entrambe degeneri e coincidono con la forma quadratica nulla.
Nel caso di una forma quadratica semidefinita positiva (o negativa) linsieme dei vettori
isotropi coincide con il nucleo della forma bilineare simmetrica associata. Infatti, per una
forma bilineare simmetrica semidefinita positiva valgono, come per il prodotto scalare, la
disuguaglianza di CauchySchwarz e la disuguaglianza triangolare (o di Minkowski), la
cui dimostrazione e` analoga a quella gi`a vista per il prodotto scalare nel Capitolo 5 (cfr.
Teor. 5.2).
Teorema 8.14 Disuguaglianza di CauchySchwarz Sia Bs (V, R) una forma
bilineare simmetrica semidefinita positiva su uno spazio vettoriale reale V e Q la forma
quadratica ad essa associata, allora:
[(x, y)]2 Q(x)Q(y),

x, y V.

Dimostrazione Se x e` un vettore isotropo la disuguaglianza e` verificata. Sia quindi x


un vettore non isotropo ossia Q(x) 6= 0, allora per ogni R e per ogni y V si ha:
Q(x + y) = 2 Q(x) + 2(x, y) + Q(y).

(8.12)

Capitolo 8

369

Poiche Q e` semidefinita positiva Q(x+y) 0, per ogni R e quindi il discriminante


del trinomio di secondo grado (8.12) in deve essere negativo, cio`e:
[(x, y)]2 Q(x)Q(y) 0,

x, y V.

Il teorema che segue e` immediata conseguenza della precedente disuguaglianza.


Teorema 8.15 Disuguaglianza triangolare (o di Minkowski) Sia Bs (V, R) una
forma bilineare simmetrica semidefinita positiva su uno spazio vettoriale reale V e Q la
forma quadratica associata, allora:
p
p
p
Q(x + y) Q(x) + Q(y), x, y V.
Dimostrazione

La formula (8.12) scritta per = 1, diventa:


Q(x + y) = Q(x) + 2(x, y) + Q(y);

dal Teorema 8.14 si ha:


Q(x) + 2(x, y) + Q(y) Q(x) + 2

p
2
p
p
Q(x)Q(y) + Q(y) =
Q(x) + Q(y)

da cui segue la tesi.


Osservazione 8.22 Le disuguaglianze di CauchySchwarz e di Minkowski, nel caso in
cui sia un
pprodotto scalare, corrispondono alle omonime disuguaglianze gi`a dimostrate,
in quanto Q(x) coincide con la norma del vettore x.
Segue dalla disuguaglianza di CauchySchwarz che, nel caso di una forma bilineare
simmetrica semidefinita positiva, ker coincide con linsieme dei vettori isotropi, che, in
questo caso, e` un sottospazio vettoriale. Infatti, se x e` isotropo, ossia Q(x) = 0, segue
(x, y) = 0, per ogni y V. Quindi, a differenza di ci`o che e` stato dimostrato nel caso
del prodotto scalare, il segno di uguaglianza nella disuguaglianza di CauchySchwarz non
implica che i vettori x e y siano paralleli. Si ha pertanto il seguente teorema.
Teorema 8.16 Se e` una forma bilineare simmetrica semidefinita positiva (o negativa)
su uno spazio vettoriale reale V , allora I =
6 {o}, inoltre I = ker , quindi e` degenere.
Si dimostrer`a nellOsservazione 8.26 il viceversa della precedente affermazione da cui si
deduce che tutte e sole le forme bilineari per cui linsieme I e` un sottospazio vettoriale
devono essere definite o semidefinite positive (o negative).

370

8.5

Forme Bilineari e Forme Quadratiche

Forme canoniche

In questo paragrafo si dimostrer`a che data una forma quadratica Q su uno spazio vettoriale
reale V e` sempre possibile trovare basi di V rispetto alle quali la matrice associata a Q
e` diagonale. Rispetto a tali basi le corrispondenti espressioni polinomiali sono molto
pi`u semplici e permettono agevolmente di classificare la forma quadratica. Viene cos`
giustificata la seguente definizione.
Definizione 8.12 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridotta in forma canonica se esiste una base B di V rispetto alla quale la matrice D = (dij )
associata a Q sia diagonale. Lespressione polinomiale di Q rispetto alla base B:
Q(x) = d11 x21 + d22 x22 + . . . + dnn x2n ,
dove (x1 , x2 , . . . , xn ) sono le componenti di x rispetto a B, prende il nome di forma
canonica di Q.
Una forma canonica di una forma quadratica Q e` quindi una rappresentazione di Q mediante un polinomio omogeneo privo di termini misti. Dal Teorema 8.4 segue che la
definizione precedente e` equivalente alla seguente.
Definizione 8.13 Sia V uno spazio vettoriale reale di dimensione n. Data una forma
quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q
si dice ridotta in forma canonica se esiste una matrice invertibile P tale che tP AP = D,
con D matrice diagonale.
Si osservi che P e` la matrice del cambiamento di base dalla base B ad una base B 0
rispetto alla quale Q ha come matrice associata la matrice diagonale D. Inoltre, il numero
degli zeri sulla diagonale di una qualsiasi matrice diagonale D associata a Q non cambia
essendo pari a dim(V )rank(A), mentre cambiano gli elementi non nulli sulla diagonale
come si evince dallesempio che segue.
Esempio 8.19 Si consideri la forma quadratica:
Q(x) = x1 x2

(8.13)

su R2 , con x = (x1 , x2 ), la cui matrice associata rispetto alla base canonica B di R2 e` :

1
0

2
A=
.
1
0
2

Capitolo 8

371

Lespressione (8.13) non e` una forma canonica di Q, mentre lespressione polinomiale:


Q(x) = (x01 )2 (x02 )2

(8.14)

lo e` ; il vettore x, in questo caso, ha componenti (x01 , x02 ) rispetto ad una base che realizza
(8.14), infatti esiste una matrice invertibile:
!
1
1
P =
1 1
tale che
t

P AP = D =

0 1

!
.

Unaltra forma canonica di Q e` , ad esempio,


Q(x) = 5y12 3y22 ,
infatti la si ottiene con il cambiamento di base:
!

!
x1
5
3
=

x2
5 3
Si verifica inoltre che tutti i cambiamenti di base:
!
!
x1
a
b
=
x2
a b

(8.15)

y1

!
.

y2

y1
y2

!
,

realizzano forme canoniche di Q per ogni a, b R tali che ab 6= 0.

Esistono infinite forme canoniche di una forma quadratica Q, tra le quali ve ne sono
alcune particolari, come precisato dai seguenti teoremi.
Teorema 8.17 Sia V uno spazio vettoriale reale di dimensione n. Data una forma quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q
ammette una forma canonica del tipo:
Q(x) = 1 y12 + 2 y22 + . . . + n yn2 ,

(8.16)

dove 1 , 2 , . . . , n sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicit`a) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x rispetto ad una base
ortonormale di autovettori di A.

Forme Bilineari e Forme Quadratiche

372

Dimostrazione
La matrice A associata a Q, rispetto alla base B, e` simmetrica. Pertanto esiste una matrice ortogonale P tale che:

1 0 . . . 0
0 2 . . . 0

t
P AP = P 1 AP = D = ..
.. . .
.. .
.
. .
.
0 0 . . . n
Con il cambiamento di base X = P Y, tenuto conto che P e` ortogonale, si ricava:
Q(x) = tXAX = t (P Y )A(P Y ) = t Y ( tP AP )Y = t Y D Y
= 1 y12 + 2 y22 + . . . + n yn2 ,
quindi la tesi.
Esempio 8.20 La matrice A associata alla forma quadratica Q considerata nellEsempio
8.19 ha autovalori 1 = 1 e 2 = 1, mentre i coefficienti 5 e 3 della forma canonica (8.15) di Q non sono autovalori di A. Infatti le matrici associate alla stessa forma
quadratica non sono tutte simili (cfr. Oss. 8.3).
Esercizio 8.11 Ridurre a forma canonica la seguente forma quadratica definita su R3 :
Q(x) = 2x21 + x22 4x1 x2 4x2 x3 ,
con x = (x1 , x2 , x3 ).
Soluzione La matrice A associata a Q rispetto alla base canonica B di R3 e la relativa
equazione caratteristica sono rispettivamente:

2 2
0
1 2 ,
A = 2
det(A I) = 3 32 6 + 8 = 0.
0 2
0
Gli autovalori e gli autospazi di A sono:
1 = 1, 2 = 2, 3 = 4, tutti di molteplicit`a 1;
V1 = L((2, 1, 2)), V2 = L((1, 2, 2)), V3 = L((2, 2, 1)),
dai quali si ottiene la base ortonormale B 0 = (f1 , f2 , f3 ) di autovettori con:






2
1 2 2
2
2 1
2 1
, , , f2 =
, ,
, f3 =
, ,
.
f1 =
3 3
3
3 3 3
3
3 3

Capitolo 8

373

Si osservi che B 0 e` una base ortonormale rispetto al prodotto scalare standard di R3 . Di


conseguenza la matrice P del cambiamento di base da B a B 0 e` una matrice ortogonale.
La forma quadratica Q, in forma canonica, e` quindi:

0 0
y1
 1
Q(x) = y1 y2 y3 0 2 0 y2 = y12 2y22 + 4y32 ,
0
0 4
y3
dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base B 0 , ottenuta con il cambiamento di base:

2 1
2
1
P = 1 2 2 .
3
2 2
1
Definizione 8.14 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridotta in forma normale se e` ridotta a forma canonica ed i coefficienti del polinomio omogeneo che ne deriva sono 1, 0, 1. La sua espressione polinomiale prende il nome di forma
normale.
Per convenzione, nella forma normale di Q si ordinano i termini inserendo prima i coefficienti pari a 1, poi quelli pari a 1 ed infine quelli nulli.
Teorema 8.18 Una forma quadratica Q definita su uno spazio vettoriale V, di dimensione n, ammette sempre una forma normale. Se Q(x) = tXAX, con A matrice associata
a Q rispetto ad una base B di V, il numero dei coefficienti pari a 1, che compare nella
forma normale, e` uguale al numero di autovalori positivi della matrice A, contati con la
relativa molteplicit`a, il numero dei coefficienti pari a 1 e` uguale al numero di autovalori negativi di A, contati con la relativa molteplicit`a, il numero dei coefficienti pari a 0
coincide con la molteplicit`a dellautovalore 0 di A.
Dimostrazione
nica data da:

Per il Teorema 8.17 la forma quadratica Q ammette una forma canoQ(x) = 1 y12 + 2 y22 + . . . + n yn2 ,

dove 1 , 2 , . . . , n sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicit`a) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x di V rispetto ad una base
ortonormale C = (f1 , f2 , . . . , fn ) di autovettori di A. Il numero dei coefficienti i che
sono diversi da zero e` uguale al rango r della forma quadratica Q, quindi e` un invariante
di Q e non dipende dalla matrice A considerata. Salvo un cambiamento di ordine dei
vettori della base C, si pu`o supporre che i primi r coefficienti siano diversi da zero e che
tra essi quelli positivi figurino per primi. Di conseguenza si pu`o porre:
1 = 12 ,

...,

p = p2 ,

2
p+1 = p+1
,

...,

r = r2

Forme Bilineari e Forme Quadratiche

374

per un opportuno intero p r e opportuni numeri reali positivi 1 , 2 , . . . , r . Poiche:


Q(f1 ) = 12 ,

...,

2
,
Q(fp+1 ) = p+1

Q(fr+1 ) = 0,

...,

Q(fp ) = p2 ,
...,

Q(fr ) = r2 ,

Q(fn ) = 0,

si verifica facilmente che, rispetto alla base C 0 = (f10 , f20 , . . . , fn0 ) con:
f10 =

f1
,
1

f20 =

f2
,
2

...,

fr0 =

fr
,
r

0
fr+1
= fr+1 ,

...,

fn0 = fn ,

la forma polinomiale di Q e` :
0
Q(x) = (y10 )2 + . . . + (yp0 )2 (yp+1
)2 . . . (yr0 )2 ,

(8.17)

con x = y10 f10 + . . . + yn0 fn0 , da cui la tesi.


Osservazione 8.23
1. La forma normale di una forma quadratica Q, ottenuta con il
procedimento indicato nella dimostrazione del Teorema 8.18, e` unica, cio`e tutte
le matrici associate a Q hanno lo stesso numero di autovalori positivi e lo stesso
numero di autovalori negativi, come sar`a dimostrato nel Teorema 8.20. E` invece gi`a
stato dimostrato che tutte le matrici associate a Q hanno lo stesso rango (cfr. Oss.
8.12) e pertanto la molteplicit`a dellautovalore 0 di A (se esso esiste) e` invariante
per Q.
2. Se Q e` la forma quadratica associata ad un prodotto scalare , la base C, considerata nella dimostrazione del Teorema 8.18, e` solo una base ortogonale (rispetto a
), ma non ortonormale (rispetto a ), in quanto:
(fi , fj ) = 0, i 6= j,

Q(fi ) = (fi , fi ) = i > 0.

In questo caso infatti la matrice A ha n autovalori positivi, essendo definita


positiva, ma solo se i = 1, per ogni i = 1, 2, . . . , n, C e` una base ortonormale
rispetto a . La base C 0 e` invece una base ortonormale per il prodotto scalare .
3. Ogni base che permette di scrivere una forma quadratica Q in forma canonica e`
una base ortogonale rispetto alla forma bilineare simmetrica associata alla forma
quadratica.
4. La matrice del cambiamento di base dalla base C alla base C 0 , (cfr. dimostrazione
del Teorema 8.18 ) e` una matrice diagonale. Come gi`a osservato, esistono infinite
forme canoniche di una forma quadratica Q. In generale le forme canoniche di
una forma quadratica Q si possono ottenere una dallaltra mediante cambiamenti di
base simili a quelli utilizzati nella dimostrazione del Teorema 8.18, ovvero mediante
matrici del cambiamento di base in forma diagonale.

Capitolo 8

375

Esercizio 8.12 Si ricavi la forma normale della forma quadratica Q introdotta nellEsercizio 8.11.
Soluzione Avendo calcolato gli autovalori di A e avendo ottenuto che due sono positivi
e uno negativo, si ha subito che la forma normale di Q e` :

1
0
0
z
1

0 z2 = z12 + z22 z32 ,
Q(x) = z1 z2 z3 0 1
0 0 1
z3
con x di componenti (z1 , z2 , z3 ) rispetto ad una base (f10 , f20 , f30 ) che permetta di realizzare
la forma normale di Q, con:
f10 = f1 ,

f20 =

1
f3 ,
2

1
f30 = f2 .
2

Poiche le matrici associate ad una forma quadratica Q non sono tutte simili, il calcolo dei
loro autovalori non e` lunico modo per ridurre a forma canonica una forma quadratica. Nel
Paragrafo 8.8.3 si introdurranno metodi pi`u sofisticati, ma lesercizio che segue mostra
come sia possibile procedere alla riduzione a forma canonica di una forma quadratica
semplicemente utilizzando il metodo del completamento dei quadrati. Ci`o e` dovuto al
fatto che la forma polinomiale di Q non e` altro che un polinomio omogeneo di secondo
grado. Il metodo del completamento dei quadrati (generalmente insegnato nelle scuole
superiori per dimostrare la formula risolutiva delle equazioni di secondo grado) consiste
nel sommare e sottrarre numeri opportuni in modo da far comparire dei quadrati di binomi.
Esercizio 8.13 Ricavare unaltra forma canonica della forma quadratica Q introdotta
nell Esercizio 8.11.
Soluzione Utilizzando il metodo del completamento dei quadrati si pu`o procedere, per
esempio, come segue:
Q(x) = 2(x21 2x1 x2 ) + x22 4x2 x3
= 2(x21 2x1 x2 + x22 ) 2x22 + x22 4x2 x3
= 2(x1 x2 )2 (x22 + 4x2 x3 + 4x23 ) + 4x23
= 2(x1 x2 )2 (x2 + 2x3 )2 + 4x23 .
con x = (x1 , x2 , x3 ). Con il cambiamento di base di equazioni:

376

Forme Bilineari e Forme Quadratiche

y1 = x1 x2
y2 = x2 + 2x3

y3 = x3 ,

x1 = y1 + y2 2y3
x2 = y2 2y3

x3 = y3 ,

ossia

che si pu`o anche scrivere nella forma:


x1
1
x2 = 0
x3
0

1 2
y1
1 2 y2 ,
0
1
y3

la forma quadratica assume la forma canonica:


Q(x) = 2y12 y22 + 4y32 ,
con (y1 , y2 , y2 ) componenti di x rispetto alla base C = (c1 , c2 , c3 ) individuata dal cambiamento di base usato, ossia:
c1 = (1, 0, 0),

c2 = (1, 1, 0),

c3 = (2, 2, 1).

Si osservi che C non e` una base ortonormale. Procedendo come nellEsercizio 8.12 si
ricava la stessa forma normale di Q ottenuta in tale esercizio ma rispetto alla base:


1
1
c1 , c3 , c2 .
2
2
Nel paragrafo che segue si dimostrer`a che la forma normale di una forma quadratica e`
unica.
Si enuncia ora il Teorema di GaussLagrange in cui si afferma che mediante il metodo
del completamento dei quadrati si implementa un algoritmo che si pu`o applicare ad ogni
forma quadratica, permettendo cos` la sua classificazione senza ricorrere al calcolo degli
autovalori della matrice ad essa associata, per la dimostrazione si veda ad esempio [18].
Teorema 8.19 Teorema di GaussLagrange Sia Q una forma quadratica su uno
spazio vettoriale V, mediante il metodo del completamento dei quadrati applicato allespressione polinomiale di Q e` possibile determinare una base di V che permette di
scrivere la forma quadratica Q in forma canonica.

8.6

La segnatura di una forma quadratica

E` possibile a questo punto dello studio delle forme quadratiche enunciare e dimostrare il
fondamentale Teorema di Sylvester che rende plausibile una qualunque scelta di forma
canonica di una forma quadratica ai fini della sua classificazione.

Capitolo 8

377

Teorema 8.20 Teorema di Sylvester Sia V uno spazio vettoriale reale di dimensione
n. Tutte le forme canoniche di una forma quadratica Q su V hanno lo stesso numero p
di coefficienti positivi e lo stesso numero q di coefficienti negativi.
Dimostrazione
Poiche p + q = rank(Q) si ponga p + q = r n e si consideri la
forma normale (8.17) della forma quadratica Q ottenuta nel corso della dimostrazione
del Teorema 8.18 rispetto ad una base C 0 = (f10 , f20 , . . . , fn0 ) di V. Resta da dimostrare
che p dipende solo da Q e non dalla base C 0 . Si supponga allora che esista unaltra base
B = (b1 , b2 , . . . , bn ) di V rispetto alla quale la forma quadratica Q si esprima come:
2
. . . zr2
Q(x) = z12 + . . . + zt2 zt+1

(8.18)

per un opportuno intero t r. Si deve dimostrare che t = p. Si supponga per assurdo


che t 6= p e che sia t < p. Si considerino i sottospazi vettoriali:
S = L(f10 , f20 , . . . , fp0 ),
T = L(bt+1 , bt+2 , . . . , bn ).
Poiche dim(S) + dim(T ) = p + n t > n, deve essere S T =
6 {o}. Si consideri
quindi un vettore x S T , x 6= o, e lo si esprima sia rispetto alla base di S sia rispetto
alla base di T , si ha:
x = y10 f10 + y20 f20 + . . . + yp0 fp0 = zt+1 bt+1 + zt+2 bt+2 + . . . + zn bn .
Sia Q|S la restrizione della forma quadratica Q a S e tenendo conto del Teorema 8.13,
da (8.17) si ottiene:
Q|S (x) = Q(x) = (y10 )2 + (y20 )2 + . . . + (yp0 )2 > 0.
Invece, considerando la restrizione Q|T di Q a T e tenendo di nuovo conto del Teorema
8.13, da (8.18) si deduce che:
2
Q|T (x) = Q(x) = zt+1
. . . zr2 < 0,

da cui lassurdo, quindi p = t.


Il Teorema di Sylvester e` anche spesso denominato come Legge di Inerzia in quanto ha
come conseguenza immediata il seguente corollario.
Corollario 8.3 Una forma quadratica Q definita su uno spazio vettoriale reale V di
dimensione n ammette una sola forma normale.
Il risultato enunciato nel Teorema 8.20 permette di introdurre la seguente definizione.

378

Forme Bilineari e Forme Quadratiche

Definizione 8.15 Sia Q una forma quadratica definita su uno spazio vettoriale reale V
di dimensione n. Siano p il numero di autovalori positivi (contati con le relative molteplicit`a) di una qualsiasi matrice simmetrica associata a Q e q il numero di autovalori
negativi (contati con le relative molteplicit`a) della stessa matrice, allora la coppia (p, q)
prende il nome di segnatura di Q.
Osservazione 8.24
1. Segue subito dal Teorema 8.20 che la segnatura di una forma
quadratica Q non dipende dalla matrice scelta per la sua determinazione.
2. Da osservare che rispetto alla base C 0 = (f10 , f20 , . . . fn0 ) in cui Q si scrive in forma normale (cfr. dimostrazione del Teorema 8.18) la matrice associata alla forma
quadratica Q e` data da:

Ip
0
0
0

0 ,
M C (Q) = 0 Irp
0

Onr

dove r e` il rango di Q, Ij indica la matrice unit`a di ordine j e Onr denota la


matrice nulla di ordine n r.
3. Una forma quadratica Q su uno spazio vettoriale reale V di dimensione n e` non
degenere se e solo se la sua segnatura (p, q) e` tale che p + q = n.
Grazie al Teorema 8.20 e` evidente che per studiare il segno di una forma quadratica Q
e` sufficiente conoscere i segni dei coefficienti di una forma canonica di Q, in particolare quindi i segni degli autovalori di una qualsiasi matrice A associata a Q. I segni degli
autovalori di A (non gli autovalori) si possono determinare agevolmente a partire dal polinomio caratteristico della matrice A, utilizzando il seguente teorema, la cui dimostrazione
e` spesso inserita nei testi di algebra della scuola secondaria superiore.
Teorema 8.21 Regola dei segni di Cartesio Sia f (x) = a0 + a1 x + . . . + an xn un
polinomio a coefficienti reali con tutte le radici reali. Allora le radici positive di f sono
tante quante sono le variazioni di segno della successione a0 , a1 , . . . , an .
Esempio 8.21
1. Il polinomio f (x) = 8+2x5x2 +x3 ha le due radici reali positive 2
e 4. Daltra parte nella successione dei coefficienti 8, 2, 5, 1 ci sono due variazioni
di segno.
2. Il polinomio f (x) = (x + 1)(x 2)(x 4)(x 5)x3 ha radici 0, 1, 2, 4, 5 e le
radici positive sono tre. Daltra parte f (x) = 40x3 12x4 + 27x5 10x6 + x7 e
si vede che ci sono tre variazioni di segno nei coefficienti di f.

Capitolo 8

379

E` chiaro che si pu`o applicare questa regola al polinomio caratteristico di una qualsiasi
matrice associata a una forma quadratica perche esso, essendo la matrice simmetrica, ha
tutte le radici reali. Quindi per classificare una forma quadratica Q (o la forma bilineare
simmetrica ad essa associata) si pu`o procedere nel modo seguente:
1. si determina una matrice A associata a Q e se ne calcola il polinomio caratteristico
P () = det(A I).
2. Si scrive P () = s R(), con R(0) 6= 0. Si osservi che:
rank(A) = rank(Q) = n s
e che s e` la molteplicit`a dellautovalore 0.
3. Poiche A e` una matrice simmetrica, per il Teorema Spettrale 7.8 P () ha tutte
radici reali e pertanto si pu`o applicare la regola dei segni di Cartesio. Si contano
le variazioni di segno del polinomio R(), se esse sono p allora R() ha p radici
positive. In conclusione P () ha:
s radici nulle;
p radici positive;
n (p + s) radici negative.
Esercizio 8.14 Determinare la segnatura della forma quadratica Q su R3 definita da:
Q(x) = 2x21 + x22 4x1 x2 4x2 x3 ,
con x = (x1 , x2 , x3 ).
Soluzione
La matrice associata a Q rispetto alla base canonica B di R3 e il relativo
polinomio caratteristico P () sono:

2 2
0
1 2 ,
M B (Q) = 2
P () = 3 + 32 + 6 8.
0 2
0
In P () vi sono due variazioni di segno e 0 non e` una radice. Quindi la forma quadratica
Q e` indefinita, non degenere ed ha segnatura (2, 1).
Le propriet`a che seguono, e che riassumono i risultati ottenuti in precedenza, in realt`a
caratterizzano la segnatura di una forma quadratica attraverso il segno degli autovalori
della matrice ad essa associata.

380

Forme Bilineari e Forme Quadratiche

Teorema 8.22 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, e` definita positiva (negativa) se e soltanto se tutti gli autovalori della matrice A
sono strettamente positivi (negativi).
Dimostrazione
Si supponga che Q sia definita positiva. Se per assurdo, fosse ad
esempio 1 0 si avrebbe, scelto x = (1, 0, . . . , 0), che Q(x) = 1 0, con x 6= o,
contro lipotesi. La dimostrazione nel caso in cui Q sia definita negativa e` analoga. Il
viceversa e` ovvia conseguenza dei teoremi di classificazione appena enunciati.
Osservazione 8.25 Conseguenza immediata del teorema precedente e` che un prodotto
scalare su uno spazio vettoriale reale V di dimensione n e` una forma bilineare simmetrica
associata ad una forma quadratica di segnatura (n, 0). Viceversa ogni forma bilineare
simmetrica associata ad una forma quadratica di segnatura (n, 0) e` un prodotto scalare.
Teorema 8.23 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, e` semidefinita positiva (negativa) se e solo se tutti gli autovalori della matrice A
sono non negativi (positivi) e = 0 e` un autovalore di A di molteplicit`a almeno 1.
Teorema 8.24 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, e` indefinita se e solo se la matrice simmetrica reale A ha autovalori di segno
contrario.
Le dimostrazioni dei due teoremi precedenti sono conseguenze delle definizioni di forma
quadratica semidefinita e indefinita e della formula (8.16) del Teorema 8.17.
Riassumendo, le possibili forme normali, le segnature e le classificazioni di una forma
quadratica Q su uno spazio vettoriale di dimensione n (cfr. Teor. 8.20) sono rispettivamente:

Q(x) = x21 + x22 + . . . + x2n

(n, 0)

definita positiva,

Q(x) = x21 + x22 + . . . + x2p , p n,

(p, 0)

semidefinita positiva,

Q(x) = x21 x22 . . . x2n

(0, n)

definita negativa,

Q(x) = x21 x22 . . . x2q , q n,

(0, q)

semidefinita negativa,

Q(x) = x21 + . . . + x2p x2p+1 . . . x2r ,


(p, r p)

indefinita,

0<p<rn

Capitolo 8

381

dove x e` un qualsiasi vettore di V di componenti (x1 , x2 , . . . , xn ) rispetto ad una base


che permetta di scrivere Q in forma normale.
Osservazione 8.26 E` molto pi`u agevole calcolare linsieme dei vettori isotropi I di una
forma quadratica Q partendo dalla sua forma normale, e` necessario per`o dividere la
trattazione a seconda della classificazione di Q.
a. Se Q e` una forma quadratica semidefinita positiva, di segnatura (p, 0), p n, la
sua forma normale e` :
Q(x) = x21 + x22 + . . . + x2p ,
dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette
di scrivere Q in forma normale. In questo caso, linsieme dei vettori isotropi e` :
I = {x V | x21 + x22 + . . . + x2p = 0} = {x V | x1 = x2 = . . . = xp = 0}
e I e` un sottospazio vettoriale di V. Il caso delle forme quadratiche semidefinite
negative e` analogo.
b. Sia, invece, Q una forma quadratica, definita su uno spazio vettoriale V di dimensione n, di segnatura (p, q), q 6= 0 e rango p + q = r n, quindi di forma
normale:
Q(x) = x21 + . . . + x2p x2p+1 . . . x2r ,
dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette
di scrivere Q in forma normale. In questo caso, linsieme dei vettori isotropi e` :
I = {x V | x21 + . . . + x2p x2p+1 . . . x2r = 0}.
Pertanto I =
6 {o} e non e` un sottospazio vettoriale di V. La verifica di questultima
affermazione e` un facile esercizio.
Osservazione 8.27 Come gi`a annunciato allinizio di questo capitolo, la riduzione di una
forma quadratica in forma canonica ottenuta attraverso gli autovalori assume notevole
importanza in geometria analitica, ad esempio, nella riduzione a forma canonica delle
coniche nel piano e delle quadriche nello spazio perche e` legata a cambiamenti di basi
ortonormali e conseguentemente a cambiamenti di riferimento cartesiani del piano e dello
spazio. I Capitoli 10 e 12 tratteranno diffusamente questi argomenti.

8.7

Esercizi di riepilogo svolti

Esercizio 8.15 In R3 , riferito alla base canonica B = (e1 , e2 , e3 ),

Forme Bilineari e Forme Quadratiche

382

1. scrivere, rispetto alla base B, la matrice A della forma bilineare simmetrica tale
che siano verificate le seguenti condizioni:
a. (e1 , e1 ) + (e3 , e3 ) = 3,
b. (e1 , e1 ) = 2(e3 , e3 ) = 4(e2 , e3 ),
c. (e1 , e2 ) = (e2 , e3 ),
d. i vettori e3 e v = e1 + e2 + e3 sono ortogonali rispetto a ,
e. il vettore e2 e` isotropo rispetto alla forma quadratica Q associata a .
2. Scrivere lespressione polinomiale della forma quadratica Q associata a .
3. Classificare Q, determinandone la sua forma normale ed una base rispetto alla quale
Q assume tale forma.
4. Dire se i vettori e2 e u = e1 + e2 e3 sono ortogonali rispetto a .
Soluzione
1. Si tratta di determinare gli elementi della matrice A associata a rispetto
alla base assegnata. Poiche A = (aij ) e` una matrice simmetrica e aij = (ei , ej ),
le condizioni a., b., c. equivalgono al sistema lineare:

a11 + a33 = 3
a11 = 2a33 = 4a23

a12 = a23 ,
la cui soluzione e` :

a11 = 2

1
a
=
a
=
12
23

a33 = 1.
La condizione d. equivale a:



1 1 1 A 0 =



1
da cui si ottiene a13


1
1 1 1
2

a13

1
2
a22

a13




1
0 = 0,

2


1
1

1
2
= 3/2. La condizione e. equivale a a22 = 0. Allora, la matrice

Capitolo 8

383

A richiesta e` :
1
2

1
A=
2

3
2

3
2

1
.
2

0
1
2

2. Dalla matrice A appena ricavata segue che:


Q(x) = 2x21 + x1 x2 + 3x1 x3 + x2 x3 + x23 ,
con x = (x1 , x2 , x3 ).
3. Il polinomio caratteristico P () della matrice A e` dato da:
P () = 3 + 32 +

3
,
4

da cui si deduce che la forma quadratica e` degenere (il polinomio caratteristico ha


termine noto nullo); utilizzando la regola dei segni di Cartesio si vede una sola
variazione di segno tra i coefficienti di P (), quindi la segnatura di Q e` (1, 1),
pertanto la forma quadratica e` indefinita. La sua forma normale e` :
Q(x) = z12 z22 ,
con (z1 , z2 , z3 ) componenti del vettore x rispetto ad una base di R3 secondo la quale Q si scrive in forma normale. Questa base si pu`o trovare determinando dapprima
una base ortonormale di autovettori di A, i cui autovalori sono:
1 =

1
(3 + 2 3),
2

2 =

1
(3 2 3),
2

3 = 0,

tutti di molteplicit`a 1; una base ortonormale di autovettori e` data da (f1 , f2 , f3 ),


dove:

1
f1 = (1 + 3, 1 + 3, 2),
2 3
1
f3 = (1, 1, 1),
3

1
f2 = (1 3, 1 3, 2),
2 3

Forme Bilineari e Forme Quadratiche

384

e poi operando sulla base ottenuta come spiegato nella dimostrazione del Teorema
8.18, si ottiene la base:

p
f1 , p
f2 , f3 ,
3+2 3
3 + 2 3
rispetto alla quale Q si scrive in forma normale.
4. I vettori dati sono ortogonali, rispetto a , in quanto:

1

0 1 0 A 1 = 0.
1
Esercizio 8.16 In R3 , riferito alla base canonica B = (e1 , e2 , e3 ), si consideri la forma
bilineare simmetrica definita da:
(x, y) = x1 y1 + 6x2 y2 + 56x3 y3 2(x1 y2 + x2 y1 ) + 7(x1 y3 + x3 y1 ) 18(x2 y3 + x3 y2 ),
dove x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ).
1. Scrivere la matrice A associata a rispetto alla base B.
2. Provare che i vettori e01 = e1 , e02 = 2e1 + e2 , e03 = 3e1 + 2e2 + e3 formano una
base B 0 di R3 .
3. Scrivere la matrice A0 associata a rispetto alla base B 0 = (e01 , e02 , e03 ).
4. Scrivere le espressioni polinomiali della forma quadratica Q associata a rispetto
alle basi B e B 0 .
Soluzione

1. La matrice A associata alla forma bilineare rispetto alla base B e` :

1 2
7
6 18 .
A = 2
7 18
56

2. La matrice P avente sulle colonne, ordinatamente, le componenti dei vettori e01 , e02 , e03
rispetto alla base B :

1 2 3
2 ,
P = 0 1
0 0
1
ha det(P ) = 1, perci`o i vettori e01 , e02 , e03 formano una base B 0 di R3 .

Capitolo 8

385

3. Poiche la matrice del cambiamento di base da B a B 0 e` P, dal Teorema 8.4 segue


che la matrice A0 associata a rispetto alla base B 0 si ottiene come:

1
A0 = tP AP = 0
0

0
0
2
0 .
0 1

4. Rispetto alla base B, lespressione polinomiale della forma quadratica Q associata


a e` :
Q(x) = x21 + 6x22 + 56x23 4x1 x2 + 14x1 x3 36x23 .
Tenendo conto della formula (8.9) lespressione polinomiale della forma quadratica
Q, rispetto alla base B 0 , e` :
Q(x) = y12 + 2y22 y32 ,
dove con (y1 , y2 , y3 ) si indicano le componenti di x rispetto alla base B 0 . Si osservi
che P non e` una matrice ortogonale e che il polinomio caratteristico di A e` :
det(A I) = 3 + 632 21 2,
mentre quello di A0 e` :
det(A I) = 3 + 22 + 2,
ossia A e A0 non sono matrici simili.

Esercizio 8.17 Sia V4 uno spazio vettoriale reale riferito alla base B = (v1 , v2 , v3 , v4 ).
1. Determinare la matrice A delle generica forma bilineare simmetrica su V4 tale
che:
a. le restrizioni di ai sottospazi vettoriali W1 = L(v1 , v2 ) e W2 = L(v3 , v4 )
siano le forme bilineari nulle,
b. il vettore u = v1 v2 + 2v4 appartenga a ker .
2. Detto H il sottospazio vettoriale di Bs (V4 , R) generato dalle forme bilineari simmetriche determinate nel punto 1., individuare una base di H.

Forme Bilineari e Forme Quadratiche

386

Soluzione
1. In analogia alla definizione di restrizione di forma quadratica ad un sottospazio vettoriale introdotta nel Paragrafo 8.4, si pu`o enunciare la definizione di
restrizione ad un sottospazio vettoriale W di uno spazio vettoriale V di una forma
bilineare simmetrica definita su V come la funzione:
|W : W W R,
data da:
|W (x, y) = (x, y),

x, y W.

Si verifichi per esercizio che |W e` una forma bilineare simmetrica su W. Sia


A = (aij ) la matrice simmetrica associata a rispetto alla base B. Le condizioni
richieste in a. equivalgono a:
(v1 , v1 ) = (v1 , v2 ) = (v2 , v2 ) = 0,
(v3 , v3 ) = (v3 , v4 ) = (v4 , v4 ) = 0,
che corrispondono a:
a11 = a12 = a22 = 0,
a33 = a34 = a44 = 0.
Di conseguenza la matrice A e` del tipo:

0
0 a13 a14
0
0 a23 a24
A=
a13 a23 0
0
a14 a24 0
0

La condizione b. equivale alle seguenti condizioni:


(u, v1 ) = (u, v2 ) = (u, v3 ) = (u, v4 ) = 0,
che corrispondono a:
a14 = a24 = 0,

a13 = a23 = h,

con h R. Quindi, concludendo, si trovano infinite matrici A, che dipendono da


h R e che saranno indicate come:

0 0 h 0
0 0 h 0

A(h) =
h h 0 0 , h R.
0 0 0 0

Capitolo 8

387

2. Considerando lisomorfismo tra Bs (V4 , R) e lo spazio vettoriale delle matrici simmetriche S(R4,4 ), definito dopo aver fissato la base B in V4 (cfr. Teor. 8.2) si
ha che il sottospazio vettoriale H richiesto e` formato dalle forme bilineari simmetriche associate alle matrici A(h) ricavate nel punto precedente. Di conseguenza
dim(H) = 1 ed una sua base e` per esempio data dalla forma bilineare simmetrica
associata alla matrice A(1).
Esercizio 8.18 Si consideri la funzione:
: R2,2 R2,2 R,

(A, B) 7 tr( tA tP B),

con P matrice appartenente a R2,2 .


1. Verificare che e` una forma bilineare.
2. Dimostrare, usando le propriet`a della traccia e della trasposta di una matrice, che
e` una forma bilineare simmetrica se e solo se P e` una matrice simmetrica.
3. Posto:


P =

0 1
1
0


,

verificare che rispetto alla base canonica B di R2,2 la forma quadratica Q associata
a e` data da:
Q(X) = 2x1 x3 2x2 x4 ,
con


X=

x1 x2
x3 x4


.

4. Classificare la forma quadratica Q del punto 3., determinare una forma canonica
ed una base B 0 di R2,2 rispetto alla quale Q si scrive in forma canonica.
Soluzione

1. Dalle propriet`a della traccia e della trasposta di una matrice si ha:

(A1 + A2 , B) = tr( t (A1 + A2 ) tP B) = tr( tA1 tP B + tA2 tP B)


= tr( tA1 tP B) + tr( tA2 tP B) = (A1 , B) + (A2 , B),
per ogni A1 , A2 , B R2,2 . Analogamente si verifica che:
(A, B1 + B2 ) = (A, B1 ) + (A, B2 ),
( A, B) = (A, B) = (A, B),
per ogni A, B1 , B2 , B R2,2 e per ogni R. Perci`o e` una forma bilineare.

Forme Bilineari e Forme Quadratiche

388

2. Dalle propriet`a della traccia di una matrice si ha che:


(A, B) = tr( tA tP B) = tr( t (tA tP B)) = tr( tBP A),
per ogni A, B R2,2 . Pertanto, se P e` una matrice simmetrica, ossia tP = P, si
verifica che:
(A, B) = tr( tBP A)) = tr( tB tP A) = (B, A),

A, B R2,2 .

Viceversa, se e` una forma bilineare simmetrica, ossia (A, B) = (B, A) per


ogni A, B R2,2 , dalle uguaglianze:
(A, B) = tr( tBP A),
(B, A) = tr( tB tP A),

A, B R2,2 ,

si ottiene tr( tBP A) = tr( tB tP A), vale a dire tr( tBP A tB tP A) = 0, per ogni
A, B R2,2 , da cui:
tr( tB(P tP )A) = 0,

A, B R2,2 .

In particolare, ponendo A = I e B = P t P , si ottiene:


tr( t (P tP )(P tP )) = 0.
Ma e` noto che:
tr( tXX) = 0

X = O,

dove O indica la matrice nulla di R2,2 e X una qualsiasi matrice di R2,2 , per questa
verifica si pu`o ricordare lEsempio 5.6. Pertanto P tP = O, ossia la tesi.
3. Si ha:
t

Q(X) = ( X P X) = tr

2x1 x3
x1 x4 x2 x3
x1 x4 x2 x3
2x2 x4


= 2x1 x3 2x2 x4 .

4. La matrice associata alla forma quadratica Q del punto 3., rispetto alla base canonica B di R2,2 , e` :

0
0 1
0
0
0
0 1
.
M B (Q) =
1
0
0
0
0 1
0
0

Capitolo 8

389

con autovalori:
1 = 1,

2 = 1

entrambi di molteplicit`a 2 ed autospazi:


V1 = L((1, 0, 1, 0), (0, 1, 0, 1)),
V2 = L((1, 0, 1, 0), (0, 1, 0, 1)).
La forma quadratica Q scritta in forma canonica e` dunque:
Q(X) = y12 + y22 y32 y42 ,
con (y1 , y2 , y3 , y4 ) componenti di X rispetto alla base:

B =


1
1

1
2

0
0





1
1
0 1
1
,
,
0
1
2
2 1

0
0



1
0
,
2 0

1
1


.

Q e` pertanto una forma quadratica indefinita, non degenere e di segnatura (2, 2).

8.8
8.8.1

Per saperne di piu`


Forme bilineari simmetriche ed endomorfismi autoaggiunti

In questo paragrafo si vuole definire una corrispondenza biunivoca tra endomorfismi autoaggiunti di uno spazio vettoriale euclideo e forme bilineari simmetriche e dimostrare
che, rispetto a basi opportune, essi sono associati alla stessa matrice. Valgono infatti i
seguenti teoremi.
Teorema 8.25 Se f e` un endomorfismo di uno spazio vettoriale euclideo (V, ) la funzione : V V R, definita da:
(x, y) = x f (y),

x, y V,

(8.19)

e` una forma bilineare su V. Viceversa se : V V R e` una forma bilineare su V


allora la relazione (8.19) definisce un endomorfismo f : V V.
Dimostrazione

Se f e` un endomorfismo di V allora si ha:

1. (x1 + x2 , y) = (x1 + x2 ) f (y) = x1 f (y) + x2 f (y) = (x1 , y) + (x2 , y),


per ogni x1 , x2 , y V.

Forme Bilineari e Forme Quadratiche

390

2. (x, y1 + y2 ) = x f (y1 + y2 ) = x (f (y1 ) + f (y2 )) = x f (y1 ) + x f (y2 )


= (x, y1 ) + (x, y2 ),
per ogni x, y1 , y2 V.
3. ( x, y) = ( x) f (y) = (x f (y)) = (x, y),
per ogni x, y V e per ogni R.
4. (x, y) = x f (y) = x f (y) = (x, y),
per ogni x, y V e per ogni R.
Quindi la funzione : V V R definita tramite (8.19) e` una forma bilineare.
Viceversa, si consideri la relazione f : V V definita tramite (8.19). f e` una funzione, infatti per ogni y in V esiste ed e` unico il vettore f (y) in quanto, fissato x in
V, il secondo membro di (8.19) e` ben determinato. La verifica della linearit`a di f, del
tutto analoga alla verifica appena effettuata della bilinerit`a della forma , e` lasciata per
esercizio.
Le forme bilineari simmetriche possono essere caratterizzate tramite un endomorfismo
autoaggiunto (cfr. Def. 6.11) come afferma il seguente teorema.
Teorema 8.26 Siano f : V V lendomorfismo della spazio vettoriale euclideo
(V, ) e la forma bilineare su V definiti tramite la relazione (8.19), f e` un endomorfismo autoaggiunto di V se e solo se la foma bilineare e` simmetrica.
Dimostrazione

Se f e` un endomorfismo autoaggiunto di V si ha:


(x, y) = x f (y) = y f (x) = (y, x),

x, y V.

Il viceversa e` analogo ed e` lasciato per esercizio.


Il teorema che segue, e che conclude la trattazione proposta, mette in relazione la matrice
associata ad una forma bilineare simmetrica rispetto ad una base dello spazio vettoriale
su cui essa e` definita con la matrice associata allendomorfismo autoaggiunto, ottenuto
tramite la forma bilinere simmetrica mediante (8.19), rispetto alla stessa base.
Teorema 8.27
1. Sia una forma bilineare simmetrica definita su uno spazio vettoriale euclideo (V, ) di dimensione n e sia B una base ortonormale di V. La
matrice simmetrica A associata a rispetto alla base B coincide con la matrice associata, rispetto alla base B, allendomorfismo autoaggiunto f di V definito
tramite la relazione (8.19).

Capitolo 8

391

2. Sia una forma bilineare simmetrica definita su uno spazio vettoriale V di dimensione n, si indichi con A la matrice associata a rispetto ad una base B di V. Se
si considera su V il prodotto scalare che rende ortonormale la base B, allora la relazione (8.19) definisce un endomorfismo autoaggiunto f (autoaggiunto rispetto al
prodotto scalare appena introdotto) tale che la matrice ad esso associata, rispetto
alla base B, sia A.
Dimostrazione Le dimostrazioni delle due parti del teorema sono analoghe e sono e`
conseguenza della relazione:
(x, y) = tXAY = x f (y) = tXBY,
che esprime in forma matriciale la formula (8.19) scritta rispetto ad una base ortonormale,
dove con X e Y si indicano le matrici colonne delle componenti dei vettori x e y rispetto
alla base B, con A la matrice associata a , rispetto alla base B e con B la matrice
associata ad f, rispetto a B.
Nellesercizio proposto di seguito si intende evidenziare che una matrice simmetrica non
e` necessariamente associata ad un endomorfismo autaggiunto, infatti la relazione tra la
simmetria di una matrice e un endomorfismo autoaggiunto e` legata al prodotto scalare
che si sta considerando. Si conclude il paragrafo determinando, quindi, tutte le matrici
associate ad un endomorfismo autoaggiunto, qualunque sia la base dello spazio vettoriale
euclideo su cui esso e` definito.
Esercizio 8.19
1. Verificare che la forma bilineare simmetrica : R2 R2 R,
con matrice associata A rispetto alla base canonica B = (e1 , e2 ) di R2 data da:


2 1
A=
,
1
1
e` un prodotto scalare su R2 .
2. Dopo aver controllato che lendomorfismo f di R2 con matrice associata B rispetto
alla base canonica di R2 data da:


1 2
B=
2 1
non e` autoaggiunto (rispetto al prodotto scalare definito in 1.), determinare la matrice associata allendomorfismo g aggiunto di f, rispetto alla base B.
Soluzione 1. La forma bilineare simmetrica e` un prodotto scalare in quanto i due
autovalori della matrice A sono entrambi positivi.

392

Forme Bilineari e Forme Quadratiche

2. Affinche f sia autoaggiunto rispetto al prodotto scalare deve valere la seguente


relazione:
(f (x), y) = (x, f (y)), x, y R2 .
Ponendo x = e1 e y = e2 si verifica che (f (e1 ), e2 ) = 1 invece (e1 , f (e2 )) = 3
quindi f non e` autoaggiunto rispetto al prodotto scalare . Lendomorfismo g di
R2 aggiunto di f deve verificare la relazione:
(f (x), y) = (x, g(y)),

x, y R2 ,

da cui segue che la matrice C associata a g, rispetto alla base B e` :




3
0
C=
.
6 1

Teorema 8.28 Sia V uno spazio vettoriale reale di dimensione n su cui e` definito un
prodotto scalare a cui e` associata la matrice simmetrica A Rn,n rispetto ad una
base B di V. La matrice B Rn,n associata ad un endomorfismo f di V autoaggiunto
rispetto al prodotto scalare , ossia tale che:
(f (x), y) = (x, f (y)),

x, y V,

(8.20)

rispetto alla base B, verifica la relazione:


t

B A = A B.

La dimostrazione del Teorema 8.28 e` un esercizio, e` infatti sufficiente esprimere la formula (8.20) in componenti. E` evidente che se la forma bilineare e` scritta in forma
normale, ossia A = I, con I matrice unit`a di Rn,n , allora la matrice B e` simmetrica.
Si lascia anche per esercizio la determinazione di tutti gli altri casi in cui la matrice B e`
simmetrica.

8.8.2

Forme bilineari simmetriche e spazio vettoriale duale

Dal Teorema 6.19 si ottiene che uno spazio vettoriale reale V di dimensione finita e`
isomorfo al suo spazio vettoriale duale V . Lisomorfismo tra i due spazi vettoriali non
e` per`o canonico, perche per definirlo occorre effettuare la scelta di una base di V, infatti
scelte diverse di basi determinano isomorfismi diversi. In questo paragrafo si dimostra
come si possa introdurre un isomorfismo canonico tra V e il suo duale V tramite una
forma bilineare simmetrica non degenere.

Capitolo 8

393

Ogni forma bilineare su uno spazio vettoriale reale V definisce una coppia di applicazioni lineari f1 , f2 : V V da V nel suo duale V (cfr. Def. 6.12), nel modo
seguente:
f1 (x)(y) = (x, y),
(8.21)
f2 (x)(y) = (y, x), x, y V.
LOsservazione 8.1 garantisce che f1 (x) e f2 (x) sono forme lineari su V, in quanto
f1 (x)(y) = x (y) e f2 (x)(y) = y (x).
Viceversa, e` un facile esercizio verificare che ogni applicazione lineare f : V V
definisce una forma bilineare su V ponendo:
(x, y) = f (x)(y).

(8.22)

Se e` una forma bilineare simmetrica, allora le due applicazioni lineari f1 , f2 definite da


(8.21) coincidono con lapplicazione lineare f definita da (8.22), inoltre:
f (x)(y) = f (y)(x),

x, y V.

Nel caso particolare delle forme bilineari simmetriche non degeneri vale il seguente teorema.
Teorema 8.29 Sia V uno spazio vettoriale reale di dimensione n. Ogni forma bilineare
simmetrica non degenere su V determina un isomorfismo f : V V , definito da
(8.22). Viceversa, ogni isomorfismo f : V V definisce mediante (8.22) una forma
bilineare simmetrica non degenere su V .
Dimostrazione
Per dimostrare il teorema e` sufficiente provare che, se e f sono
legati tra di loro dalla relazione (8.22), allora ker = ker f . Infatti se x ker , allora
(x, y) = 0 per ogni y V, quindi f (x)(y) = 0, per ogni y V , ossia f (x) e` la
forma lineare nulla, pertanto x ker f . Analogamente, si prova che se x ker f , allora
x ker .

8.8.3

Altri metodi di classificazione di una forma quadratica

Poiche le matrici associate alla stessa forma bilineare simmetrica non sono tutte simili tra
di loro, il calcolo degli autovalori non e` lunico metodo per classificare una forma quadratica, come gi`a osservato nellEsercizio 8.13. In questo paragrafo si introdurranno due
metodi diversi per classificare una forma quadratica che non si basano sul procedimento
di diagonalizzazione di una matrice associata, infatti nel primo metodo si utilizza il calcolo dei minori mentre per il secondo si procede con una opportuna riduzione per righe e
per colonne.

394

Forme Bilineari e Forme Quadratiche

Il concetto di minore di ordine k < n di una matrice A Rn,n e` stato introdotto nella
Definizione 2.11 ed e` il determinante di una sottomatrice (quadrata) di ordine k di A.
Definizione 8.16 Sia A S(Rn,n ) una matrice simmetrica. I minori principali di ordine
k (k < n) di A sono i minori che si ottengono considerando sottomatrici formate da k
righe e dalle corrispondenti k colonne. Il minore principale di ordine n coincide con
det(A). I minori principali di NordOvest (N.O.) di ordine k di una matrice simmetrica
A sono i minori principali che si ottengono considerando le prime k righe (e di conseguenza le prime k colonne), vale a dire sono i minori che si ottengono cancellando le
ultime n k righe e le ultime n k colonne.
Esempio 8.22 Si consideri la matrice:

1 2 3
A = 2 1 2 ,
3 2 2
i minori principali di ordine 1 di A sono gli elementi sulla diagonale principale (dati
dallintersezione della prima riga con la prima colonna, oppure seconda riga e seconda
colonna, oppure terza riga e terza colonna):
1,

1,

2.

I minori principali di ordine 2 di A sono tre e sono i determinanti delle matrici ottenute
dalla prima e seconda riga intersecate con la prima e seconda colonna, ossia cancellando
la terza riga e la terza colonna, dalla prima e terza riga con la prima e terza colonna,
cancellando quindi la seconda riga e la seconda colonna, dalla seconda e terza riga con la
seconda e terza colonna, cancellando quindi la prima riga e la prima colonna, vale a dire:






1 2
1 3
1 2






2 1 = 3, 3 2 = 7, 2 2 = 2.
Il minore principale di ordine 3 (tutte e tre le righe) e` det(A) = 5. I minori principali di
N.O. sono invece soltanto:


1 2

= 3 (di ordine 2), det(A) = 5 (di ordine 3).
1 (di ordine 1),
2 1
Usando i minori principali di N.O. si pu`o pervenire agevolmente alla classificazione di
una forma quadratica, come afferma il teorema che segue, per la sua dimostrazione si
veda ad esempio [4].

Capitolo 8

395

Teorema 8.30 Sia V uno spazio vettoriale reale di dimensione n e B una base di V.
Una forma quadratica Q(x) = tXAX su V con A matrice associata a Q rispetto alla
base B e` :
1. definita positiva se e solo se tutti i minori principali di N.O. di A sono positivi;
2. definita negativa se e solo se tutti i minori principali di N.O. di A di ordine pari
sono positivi e tutti i minori principali di N.O. di A di ordine dispari sono negativi;
3. semidefinita positiva se e solo se tutti i minori principali di A sono non negativi e
det(A) = 0;
4. semidefinita negativa se e solo se tutti i minori principali di A di ordine pari sono
non negativi, tutti i minori principali di A di ordine dispari sono non positivi e
det(A) = 0;
5. indefinita se e solo se non si verifica alcuna delle situazioni precedenti.
Esempio 8.23 Si consideri la forma quadratica su R3 , definita rispetto alla base canonica
B = (e1 , e2 , e3 ) di R3 , da:
Q(x) = 4x21 2x1 x2 + 2x22 + 2x2 x3 + 2x23 ,
con x = (x1 , x2 , x3 ). La matrice A associata alla forma quadratica Q rispetto alla base
B e` :

4 1 0
2 1 .
A = 1
0
1 2
I tre minori principali di N.O. sono 4, 7 e 10, quindi la forma quadratica Q e` definita
positiva.
Esempio 8.24 Si consideri la forma quadratica su R4 :
Q(x) = 4x1 x2 + 2x22 + 2x2 x3 + x23 + 4x3 x4 + 2x24 ,
con x = (x1 , x2 , x3 , x4 ). La matrice A associata alla forma quadratica Q rispetto alla
base canonica B = (e1 , e2 , e3 , e4 ) di R4 e` :

0 2 0 0
2 2 1 0

A=
0 1 1 2 .
0 0 2 2

396

Forme Bilineari e Forme Quadratiche

La forma quadratica Q e` indefinita, poiche il minore principale di N.O. di ordine 1 (dato


del determinante dellintersezione della prima riga e della prima colonna) e` uguale a zero
ed il minore principale di N.O. di ordine 2 e` negativo.
Si pu`o agevolmente ridurre a forma canonica una forma quadratica anche con una tecnica
che si basa sul metodo di riduzione delle matrici. A questo scopo e` necessario osservare che, in generale, la matrice B ottenuta da una matrice A mediante loperazione di
colonna:
Ci Ci + Cj , R,
coincide con la matrice prodotto AEi dove Ei e` la matrice che si ottiene dalla matrice
unit`a I sulla quale e` stata eseguita la medesima operazione di colonna.
Analogamente la matrice B ottenuta da una matrice A mediante loperazione di riga:
Ri Ri + Rj ,

R,

coincide con la matrice prodotto tEi A, La matrice tEi non e` altro che la matrice che si
ottiene dalla matrice unit`a sulla quale e` stata eseguita la medesima operazione di riga.
Con le usuali notazioni Ri e Ci si indicano, rispettivamente, le righe e le colonne della
matrice A considerata.
Esempio 8.25 Data la matrice A:

A=

1
2

2
3


,

mediante loperazione di riduzione C2 C2 2C1 si ottiene da essa la matrice:




1
0
B=
.
2 1
Operando la stessa operazione di riduzione alla matrice unit`a I si ottiene la matrice:


1 2
E2 =
.
0
1
Si verifica facilmente che AE2 = B.
Ci`o premesso si eseguano contemporaneamente su una matrice simmetrica A le stesse
operazioni sia per le righe sia per le colonne fino a ottenere una matrice diagonale D; le
matrici A e D risultano allora legate dalla relazione:
D = tEn . . . tE2 tE1 AE1 E2 . . . En = t (E1 E2 . . . En ) A( E1 E2 . . . En ).

(8.23)

Capitolo 8

397

Posto P = E1 E2 . . . En , si osserva che la matrice P si pu`o ottenere dalla matrice unit`a


I sulla quale si siano eseguite, nellordine, le operazioni di colonna considerate. Se A e`
la matrice associata ad una forma quadratica Q rispetto ad una base fissata, la formula
(8.23) assicura che anche la matrice D e` associata alla stessa forma quadratica Q rispetto
alla base che si ottiene applicando alla base iniziale la matrice del cambiamento di base
P. La verifica che P sia una matrice invertibile e` un semplice esercizio. E` cos` possibile
applicare il metodo appena descritto per classificare la forma quadratica Q.
Esercizio 8.20 Si riduca a forma canonica la forma quadratica su R3 , definita rispetto
alla base canonica di R3 da:
Q(x) = 4x1 x2 + x22 2x1 x3 + 4x2 x3 ,
con x = (x1 , x2 , x3 ).
Soluzione

Sulla matrice:

2 1
1
2 ,
2
0

2
A=
1

associata alla forma quadratica Q, rispetto alla base canonica di R3 , si operi come segue:

2 1

0 1
1

2
R1 R1 R3
1

0 1

1 R3 R3 2R2
2
2

C1 C1 C3

1 C3 C3 + (1/2) C1
2
2

0
0
2 0 0

0 1 0
1
2

9 C3 C3 2 C2
9
0
0 0
2
2

R3 R3 + (1/2) R1
0

Una forma canonica di Q e` allora:


Q(x) = 2y12 + y22

9 2
y
2 3

398

Forme Bilineari e Forme Quadratiche

dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base ottenuta tramite la matrice P
nel modo seguente:

1
1 0 0
1
0

C1 C1 C3

0 1 0
0 1 2 = P.

C3 C3 + (1/2) C1

1
C3 C3 2 C2
1 0
0 0 1
2
Attenzione al fatto che 2, 1, 9/2 non sono gli autovalori di A!

8.8.4

Il determinante come forma p-lineare

Estendendo in modo naturale la Definizione 8.1 si pu`o introdurre il concetto di forma


p-lineare che conduce, in un caso particolare, alla definizione di determinante di una
matrice quadrata. Questo approccio permette di dimostrare agevolmente le propriet`a dei
determinanti elencate nel Paragrafo 2.8.
Definizione 8.17 Sia V uno spazio vettoriale reale. Ogni applicazione:
: |V V
{z. . . V} R,
p volte
lineare in ciascun argomento, prende il nome di forma p-lineare su V.
Osservazione 8.28 La definizione precedente generalizza la definizione di forma bilineare (cfr. Def. 8.1).
Esempio 8.26 Il prodotto misto di tre vettori nello spazio vettoriale V3 , definito come la
funzione:
V3 V3 V3 R, (x, y, z) 7 x y z
(cfr. Def. 3.14) e` un esempio di forma trilineare su V3 .
Il prodotto misto dei vettori dello spazio ordinario e` proprio lesempio da cui trae spunto
la definizione che segue.
Definizione 8.18 Una forma p-lineare su uno spazio vettoriale reale V si dice antisimmetrica o alternata se:
(x1 , . . . , xi , . . . , xj , . . . , xp ) = (x1 , . . . , xj , . . . , xi , . . . , xp ),
per ogni x1 , x2 , . . . , xp in V e per ogni i, j = 1, 2, . . . , p.

Capitolo 8

399

Si ottiene subito il seguente teorema.


Teorema 8.31 Sia una forma p-lineare antisimmetrica su uno spazio vettoriale reale
V. Se xi = xj , per una qualche scelta di i, j = 1, 2, . . . , p, allora (x1 , x2 , . . . , xp ) = 0.
Esempio 8.27 Sia V uno spazio vettoriale di dimensione 2 con base B = (v1 , v2 ). Dati
i vettori x1 = a11 v1 + a12 v2 , x2 = a21 v1 + a22 v2 , si vuole calcolare lespressione di una
forma bilineare antisimmetrica : R R R, utilizzando lo stesso metodo introdotto
nel Paragrafo 8.1.1 per le forme bilineari simmetriche, ossia si ha:
(x1 , x2 ) =

a11 a12

(v1 , v1 ) (v1 , v2 )

!

(v2 , v1 ) (v2 , v2 )
a11 a12

(v1 , v2 )

(v1 , v2 )

a21
a22

!

a21
a22

= (a11 a22 a12 a21 )(v1 , v2 )



a
a
= 11 12
a21 a22



(v1 , v2 ).

In pratica, il valore di (x1 , x2 ) e` determinato dal suo valore sugli elementi della base (v1 , v2 ), mentre il coefficiente moltiplicativo e` il determinante della matrice avente
come righe le componenti dei vettori. Si osservi inoltre che la matrice:
0

(v1 , v2 )

(v1 , v2 )

e` la matrice associata alla forma bilineare antisimmetrica rispetto alla base B e si


osservi anche che e` una matrice antisimmetrica.
La situazione descritta nellesempio precedente si ripete nel caso di dim(V ) = n, come
afferma il teorema seguente, la cui dimostrazione, solo un lungo calcolo, e` lasciata al
Lettore per esercizio.
Teorema 8.32 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Dati i vettori:

400

Forme Bilineari e Forme Quadratiche

x1 = a11 v1 + a12 v2 + . . . + a1n vn ,


x2 = a21 v1 + a22 v2 + . . . + a2n vn ,
..
.
xn = an1 v1 + an2 v2 + . . . + ann vn
e la forma n-lineare antisimmetrica:
: |V V
{z. . . V} R,
n volte
allora:
(x1 , x2 , . . . , xn ) =

()a1(1) a2(2) . . . an(n) (v1 , v2 , . . . , vn ),

(8.24)

dove e` una permutazione di (1, 2, . . . , n) e () il suo segno. Di conseguenza ogni


forma n-lineare antisimmetrica sullo spazio vettoriale V e` univocamente determinata
dal valore (v1 , v2 , . . ., vn ).
Vale anche il reciproco del teorema precedente, la cui dimostrazione e` di nuovo un lungo
calcolo lasciato per esercizio.
Teorema 8.33 Sia V uno spazio vettoriale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Dato un numero reale , esite ed e` unica la forma n-lineare antisimmetrica
su V tale che (v1 , v2 , . . . , vn ) = .
Se V e` uno spazio vettoriale reale di dimensione n con base B = (v1 , v2 , . . . , vn ) si pu`o
enunciare la definizione di determinante in questo modo.
Definizione 8.19 Si dice determinante degli n vettori x1 , x2 , . . . , xn di uno spazio vettoriale reale V di dimensione n rispetto alla base B = (v1 , v2 , . . . , vn ) il numero reale
(x1 , x2 , . . . , xn ) tale che (v1 , v2 . . . , vn ) = 1.
Esempio 8.28 Se si considera lo spazio ordinario V3 con una base ortonormale positiva
B = (i, j, k), allora il determinante dei tre vettori x, y, z coincide con il loro prodotto
misto:
det(x, y, z) = x y z, x, y, z V3 ,
in quanto i j k = 1, per definizione di base ortonormale positiva.

Capitolo 8

401

Se si considerano le componenti degli n vettori x1 , x2 , . . . , xn dello spazio vettoriale


reale V rispetto alla base B = (v1 , v2 , . . . , vn ) si ottiene una matrice A = (aij ) di Rn,n ,
i cui vettori riga sono:
x1 = (a11 , . . . , a1n ),
x2 = (a21 , . . . , a2n ),
..
.
xn = (an1 , . . . , ann ),
si dimostra facilmente che la Definizione 8.19 di determinante degli n vettori coincide
con la definizione di determinante della matrice A che e` stata enunciata nel Capitolo 2
(cfr. Def. 2.9). Infatti, data una matrice A Rn,n , il det(A) e` stato definito come:
X
()a1(1) a2(2) . . . an(n) ,
det(A) =

dove e` una permutazione di (1, 2, . . . , n) e () il suo segno. Se si considerano gli n


vettori riga x1 , x2 , . . . xn della matrice A, si pu`o quindi osservare che:
det(A) = (x1 , x2 , . . . , xn ),
dove e` la forma n-lineare antisimmetrica su Rn tale che:
(e1 , e2 , . . . , en ) = det(I) = 1
con (e1 , e2 , . . . , en ) base canonica di Rn .
Data la Definizione 8.19 si dimostra il teorema di seguito enunciato, gi`a noto dal Capitolo
4, in cui era stato ottenuto come conseguenza della relazione dim(L(x1 , x2 , . . . , xn )) =
dim(R(A)) = rank(A).
Teorema 8.34 Sia V uno spazio vettoriale reale di dimensione n. Dati n vettori di
V, x1 , x2 , . . . , xn , essi sono linearmente indipendenti se e solo se il loro determinante
relativo ad una qualsiasi base B = (e1 , e2 , . . . , en ) di V e` diverso da zero.
Dimostrazione
Se gli n vettori x1 , x2 , . . . , xn sono linearmente dipendenti, allora si
pu`o provare che il determinante degli n vettori si annulla. Questo fatto vale pi`u in generale
per ogni forma n-lineare antisimmetrica , infatti, poiche i vettori x1 , x2 , . . . , xn sono
linearmente dipendenti, allora almeno uno di essi, per esempio x1 , e` combinazione lineare
degli altri vettori, si ponga:
x 1 = 2 x 2 + . . . + n xn ,

Forme Bilineari e Forme Quadratiche

402

con i R e quindi:
(x1 , x2 , . . . , xn ) = 2 (x2 , x2 , . . . , xn ) + . . . + n (xn , x2 , . . . , xn ) = 0.
E` stato cos` dimostrato che, se il determinante degli n vettori x1 , x2 , . . . , xn non si annulla, allora gli n vettori sono linearmente indipendenti. Viceversa, si supponga che
linsieme {x1 , x2 , . . . , xn } sia libero e che per assurdo il loro determinante sia uguale a
zero. Poiche (x1 , x2 , . . . , xn ) e` una base di V, si possono scrivere i vettori della base
B = (e1 , e2 , . . . , en ) di V come combinazioni lineari di x1 , x2 , . . . , xn :

e1 = b11 x1 + b12 x2 + . . . + b1n xn ,

e2 = b21 x1 + b22 x2 + . . . + b2n xn ,


..

en = bn1 x1 + bn2 x2 + . . . + bnn xn .


Per definizione di determinante relativo alla base (e1 , e2 , . . . , en ) si avrebbe:
X
det(e1 , . . . , en ) = 1 =
()b1(1) . . . bn(n) det(x1 , . . . , xn )

e quindi si ottiene una contraddizione.


Dalla Definizione 8.19 e` finalmente possibile dimostrare agevolmente la Formula di Binet
relativa al determinante del prodotto di due matrici (cfr. Teor. 2.16).
Teorema 8.35 Se A, B Rn,n , allora det(AB) = det(A) det(B).
Dimostrazione
Sia V uno spazio vettoriale reale di dimensione n con base B =
(e1 , e2 , . . . , en ). Date le matrici A = (aij ) e B = (bij ) di Rn,n , si considerino i vettori
riga della matrice B :

v1 = b11 e1 + b12 e2 + . . . + b1n en ,

v2 = b21 e1 + b22 e2 + . . . + b2n en ,


..

vn = bn1 e1 + bn2 e2 + . . . + bnn en


ed i vettori:

u1 = a11 v1 + a12 v2 + . . . + a1n vn ,

u2 = a21 v1 + a22 v2 + . . . + a2n vn ,


..

un = an1 v1 + an2 v2 + . . . + ann vn ,

Capitolo 8

403

che non corrispondono ai vettori riga della matrice A. Sia la forma n-lineare alternata
tale che (e1 , e2 , . . . , en ) = 1. Per definizione di deteminante si ha:
(v1 , v2 , . . . , vn ) = det(B) (e1 , e2 , . . . , en ) = det(B),
(u1 , u2 , . . . , un ) = det(A) (v1 , v2 , . . . , vn ),
da cui si ottiene:
(u1 , u2 , . . . , un ) = det(A) det(B).
Se si esprimono i vettori u1 , u2 , . . . , un come combinazioni lineari dei vettori della base
B:
n
X
ui =
cik ek , i = 1, 2, . . . , n,
k=1

e si ricavano le espressioni dei coefficienti cik in termini di aij e bij , si ha:


cik =

n
X

aij bjk ,

i, k = 1, 2, . . . , n,

j=1

che e` esattamente lelemento di posto ik del prodotto delle due matrici A e B . Quindi
segue:
(u1 , u2 , . . . , un ) = det(AB)(e1 , e2 , . . . , en ) = det(AB),
ossia la tesi.

404

Forme Bilineari e Forme Quadratiche

Capitolo 9
Geometria Analitica nel Piano
Scopo della Geometria Analitica e` la rappresentazione, tramite equazioni, di luoghi geometrici del piano e dello spazio. In questo capitolo si presenta un rapido riassunto della
geometria analitica del piano, cercando di evidenziarne le caratteristiche salienti mediante
luso del calcolo vettoriale, trattato nel Capitolo 3, a cui si far`a costante riferimento. Gli
argomenti di seguito esposti fanno parte dei programmi delle scuole secondarie superiori, anche se in quella sede, non sono in generale introdotti con il metodo qui usato. Per
questo motivo, questo capitolo pu`o essere anche omesso nellinsegnamento di un corso
universitario. Daltra parte per`o lapproccio della geometria analitica nel piano tramite
il calcolo vettoriale sar`a fondamentale nello studio della geometria analitica nello spazio
(cfr. Cap. 11). Vengono, inoltre, definiti due tipi di sistemi di riferimento nel piano: il
riferimento cartesiano ed il riferimento polare. Il loro uso sar`a di primaria importanza in
questo capitolo ed in quello successivo.

9.1

Il riferimento cartesiano, generalit`a

Si inizia con lintroduzione del riferimento cartesiano, costituito da due rette perpendicolari orientate nel piano affine S2 (cfr. introduzione del Cap. 3). Il loro punto di incontro
O e` detto origine del riferimento, la retta orizzontale prende il nome di asse delle ascisse
o asse x, la retta verticale e` lasse delle ordinate o asse y . Si definisce lorientamento
verso destra sullasse x e verso lalto sullasse y , si rappresentano i numeri reali su entrambe le rette e si pone il numero 0 nel punto di intersezione delle due rette. Si viene
cos` a creare una corrispondenza biunivoca tra i punti del piano e le coppie di numeri reali
come rappresentato nella Figura 9.1. La coppia ordinata di numeri reali (x, y) individua
le coordiante cartesiane del punto P e si scrive:
P = (x, y),
405

Geometria Analitica nel Piano

406

II

I
P

x
O

III

IV

Figura 9.1: Riferimento cartesiano

Figura 9.2: Componenti del vettore AB

Capitolo 9

407

x e` lascissa di P e y e` lordinata di P. Il piano viene diviso in quattro regioni, dette


quadranti, che, per convenzione, sono numerate in senso antiorario, a partire dal semiasse
positivo delle x. Analogamente a quanto visto nel Paragrafo 3.1, se si indica con i il
versore a cui e` parallelo lasse x, concorde con lorientamento di x, e con j il versore a

cui e` parallelo lasse y , concorde con lorientamento di y , il segmento orientato OP si


pu`o ottenere come:

OP = xi + yj.
(9.1)

Ad ogni punto P del piano affine S2 si associa in modo biunivoco il vettore x = OP


dello spazio vettoriale euclideo di dimensione 2, con base ortonormale positiva B = (i, j),
che verr`a indicato con V2 . Di conseguenza, S2 coincide con linsieme dei vettori di V2 .
Si stabilisce anche una corrispondenza biunivoca tra i punti P del piano e le componenti
(x, y) del vettore x, scritte rispetto alla base ortonormale positiva B = (i, j).

Le componenti di un vettore x, con rappresentante il segmento orientato AB, che si pu`o


anche scrivere come B A, si possono ottenere in questo modo:
B A = (B O)(AO) = (xB xA )i + (yB yA )j.

(9.2)

Se A o B coincidono con lorigine del riferimento, la relazione (9.2) si riduce a (9.1). La


situazione geometrica e` illustrata nella Figura 9.2.
Il riferimento cartesiano sar`a indicato con il simbolo R = (O, x, y) o equivalentemente,
con R = (O, i, j), se si intende mettere in evidenza la base ortonormale positiva B = (i, j)
a cui e` riferito.
y
B
A

x
O

Figura 9.3: Distanza tra i punti A e B

Geometria Analitica nel Piano

408

9.1.1

Distanza tra due punti

Dati due punti A = (xA , yA ), B = (xB , yB ) nel piano, la loro distanza d(A, B) si ottiene
con la formula:
p
d(A, B) = (xB xA )2 + (yB yA )2 ,
(9.3)
la cui dimostrazione e` una conseguenza evidente del Teorema di Pitagora, la situazione
geometrica e` illustrata nella Figura 9.3.
La distanza d(A, B), dal punto di vista del calcolo vettoriale, pu`o essere anche inter
pretata come la norma del vettore AB le cui componenti sono date da (9.2), quindi, la
formula (9.3) segue dal calcolo della norma di un vettore mediante le sue componenti
scritte rispetto ad una base ortonormale (cfr. Oss. 3.14).
Esercizio 9.1 Calcolare le coordinate del punto P appartenente allasse x ed equidistante
dai punti A = (1, 3), B = (5, 1).
Soluzione Il punto P appartiene allasse x se ha ordinata uguale a 0, ossia P = (x, 0),
imponendo d(A, P ) = d(B, P ) si ha:
(x 1)2 + 32 = (x 5)2 + 12
da cui segue x = 2.

9.1.2

Punto medio di un segmento

Dati due punti A = (xA , yA ), B = (xB , yB ), il punto medio M del segmento AB e` :




xA + xB y A + y B
,
.
M=
2
2
Ad esempio il punto medio del segmento di estremi i punti A = (2, 2) e B = (0, 6) e` il
punto M = (1, 2).

9.1.3

Baricentro di un triangolo

Dati tre punti A = (xA , yA ), B = (xB , yB ), C = (xC , yC ) non allineati, il baricentro G


del triangolo da essi individuato e` :


xA + xB + xC y A + y B + y C
G=
,
.
3
3
Questa formula pu`o essere dimostrata con considerazioni geometriche elementari, a partire dalla Figura 9.4 oppure si pu`o ottenere come conseguenza della Definizione 11.1.

Capitolo 9

409

4
3
2
1
-1

G
1

-1

-2
-3

Figura 9.4: Baricentro del triangolo ABC

9.2

Luoghi geometrici del piano

Linsieme dei punti del piano che verificano una determinata propriet`a costituisce un luogo geometrico. In questo paragrafo si descrivono due luoghi geometrici del piano: lasse
di un segmento e la circonferenza. Si rimanda al Capitolo 9 del Volume II, per lo studio
di altri luoghi geometrici del piano.
Esempio 9.1 Asse di un segmento Dati due punti distinti nel piano A = (xA , yA ),
B = (xB , yB ), lasse del segmento AB e` il luogo geometrico dei punti P = (x, y)
equidistanti da A e da B . Quindi dalla relazione d(A, P ) = d(B, P ) segue:
(x xA )2 + (y yA )2 = (x xB )2 + (y yB )2 ,
da cui:
2(xA xB )x + 2(yA yB )y + x2B + yB2 x2A yA2 = 0,
che e` lequazione del luogo richiesto. Si osservi che si tratta di unequazione di primo
grado in x e y e si osservi anche che, dal punto di vista geometrico, lasse di un segmento
e` la retta perpendicolare al segmento nel suo punto medio M, come rappresentato nella
Figura 9.5. Si ritorner`a su questo argomento nel Paragrafo 9.9.
Esempio 9.2 La circonferenza La circonferenza di centro C e raggio r e` il luogo
dei punti P = (x, y) del piano aventi distanza r 0 dal punto C = (, ). Imponendo:
d(P, C)2 = r2

410

Geometria Analitica nel Piano

Figura 9.5: Asse del segmento AB

r
C

Figura 9.6: Circonferenza di centro C e raggio r

Capitolo 9

411

si ottiene:
x2 + y 2 2x 2y + 2 + 2 r2 = 0.
Si tratta di una particolare equazione di secondo grado in x e y che sar`a studiata in
dettaglio nel Paragrafo 10.1.
Ricordando che il gruppo delle matrici unitarie U (1) (cfr. Es. 5.22) e` definito da:
U (1) = {z C | |z| = 1}
ed usando lidentificazione tra i numeri complessi ed il punti del piano data da:
z = x + iy = (x, y),

z C,

segue che gli elementi di U (1) costituiscono la circonferenza nel piano di centro lorigine
e raggio 1.

Pu`o rivelarsi molto pi`u complicato il problema inverso, vale a dire, data unequazione in
x e y, studiare il luogo geometrico individuato dai punti P = (x, y) che la verificano. A
tale scopo si procede proponendo una serie di esempi ed esercizi.
Esercizio 9.2 Verificare che la curva di equazione:
y = x2 + x + 3

(9.4)

passa per i punti A = (1, 1), B = (2, 1), non passa per O = (0, 0) e nemmeno per
C = (5, 0).
Soluzione Un punto appartiene al luogo geometrico descritto dallequazione (9.4) se e
solo se le sue coordinate verificano lequazione stessa. Quindi A appartiene alla curva
data perche 1 1 + 3 = 1, verifica analoga per B . Lorigine, invece, non appartiene a
questa curva perche 3 6= 0, analoga verifica per C.
Esercizio 9.3 Come si fa a capire se lorigine del sistema di riferimento appartiene ad un
luogo geometrico?
Soluzione Dalle considerazioni precedenti segue che tutte e sole le equazioni in x, y
con termine noto uguale a zero rappresentano luoghi geometrici passanti per lorigine.
Per esempio x2 + 2x = 0 e` una curva passante per O.
Esercizio 9.4 Determinare i punti P = (a, a + 3), a R, appartenenti alla curva di
equazione:
2y 2 9(x + 2) = 0.
(9.5)

Geometria Analitica nel Piano

412

Soluzione

Sostituendo le coordinate di P nellequazione (9.5) si ha:


2(a + 3)2 9(a + 2) = 0

da cui segue a = 3/2 o a = 0. Quindi si ottengono i punti:




3 3
P1 = (0, 3), P2 = ,
.
2 2

9.3

Riferimento polare

Per rappresentare i punti nel piano si possono usare, oltre alle coordinate cartesiane, altri
tipi di coordinate, tra cui le coordinate polari, la scelta del sistema di riferimento e` legata
alla problematica che si sta studiando.
Si intende, quindi, introdurre la nozione di riferimento polare nel piano, che e` un sistema
di riferimento alternativo al riferimento cartesiano per individuare la posizione dei punti
nel piano. Esso e` costituito da un punto O, detto polo, e da una semiretta orientata
uscente da O, detta asse polare. E` chiaro che ogni punto P del piano (ad eccezione del
polo) si pu`o individuare mediante la sua distanza = d(P, O) dal polo e mediante la
misura dellangolo , detto anomalia, che il segmento OP forma con lasse polare, con
le condizioni 0 e 0 < 2 . Tale distanza prende il nome di raggio vettore.
Riassumendo ogni punto del piano, ad eccezione del polo, e` individuato da una sola
coppia di numeri:
P = (, ), 0, 0 < 2,
che ne costituiscono le sue coordinate polari nel piano. La situazione geometrica e`
illustrata nella Figura 9.7.
Per esempiola circonferenza di centro il polo e raggio 2 ha equazione, in coordinate
polari, = 2.
Si vogliono ora individuare le relazioni che legano le coordinate polari e le coordinate cartesiane di uno stesso punto rispetto ad un riferimento polare e ad un riferimento
cartesiano opportunamente posizionati. Introducendo, infatti, un sistema di riferimento
cartesiano R = (O, x, y) avente lorigine O coincidente con il polo e lasse x con lasse
polare, si perviene, facilmente, alle formule di passaggio dalle coordinate polari (, ) a
quelle cartesiane (x, y) di un generico punto P del piano, e precisamente:

x = cos
(9.6)
y = sin , 0, 0 < 2.
La situazione geometrica e` illustrata nella Figura 9.8.

Capitolo 9

Figura 9.7: Coordinate polari nel piano

Figura 9.8: Coordinate polari e coordinate cartesiane del punto P

413

414

Geometria Analitica nel Piano

Le limitazioni imposte a e a possono causare inconvenienti nello studio di determinati


fenomeni, dovuti, in particolare, al brusco passaggio di dal valore pi`u vicino a 2 o a
0. Per evitare questo problema, conviene introdurre le coordinate polari generalizzate
nel modo seguente. Se P e` un punto di coordinate polari (, ) e` chiaro che le coppie
di numeri reali (, + ) e (, + 2) corrispondono dal punto di vista geometrico,
allo stesso punto P. Si pu`o quindi associare allo stesso punto P un insieme di coordinate
polari tra di loro equivalenti e scrivere:
P = ((1)k , + k),

k Z,

che prendono il nome di coordinate polari generalizzate del punto P del piano.

9.4

Traslazione degli assi

Un altro metodo che pu`o essere utile nello studio dei luoghi geometrici e` quello di scrivere lequazione del luogo in un nuovo sistema di riferimento ottenuto mediante una
traslazione degli assi.

y
Y

P
O'

Figura 9.9: Traslazione degli assi


Nel riferimento R = (O, x, y) si definiscono una nuova origine nel punto O0 = (x0 , y0 )
e i nuovi assi X e Y, passanti per O0 , paralleli e concordi a x e a y . Si ottiene cos` un
nuovo riferimento cartesiano R0 = (O0 , X, Y ) che e` traslato rispetto al precedente. Si
vogliono determinare le relazioni che legano le coordinate di un generico punto P del
piano rispetto ai due riferimenti. Sia P = (x, y) nel riferimento R e P = (X, Y ) nel

Capitolo 9

riferimento R0 . Dalla Figura 9.9 segue:



x = X + x0
y = Y + y0 ,

415

(9.7)

oppure:


X = x x0
Y = y y0 .

Si consideri, per esempio, il punto O0 = (1, 2) e le equazioni della traslazione dal


riferimento R0 al riferimento R:


x=X +1
y = Y + 2,

da cui si deduce che lasse X, rispetto al riferimento R, ha equazione y = 2 e lasse Y


ha equazione x = 1.
Si osservi che nel riferimento R = (O, x, y) e nel riferimento traslato R0 = (O0 , X, Y )
la base ortonormale positiva B = (i, j) che li determina non cambia. In altri termini la
traslazione di assi non induce alcun cambiamento di base in V2 .
Esercizio 9.5 Data la curva di equazione:
9x2 + 9y 2 24x 30y 13 = 0,

(9.8)

determinare la sua equazione nel riferimento traslato R0 = (O0 , X, Y ), dove:




4 5
0
,
.
O =
3 3
Soluzione

Le equazioni della traslazione da R0 a R sono:

x=X+
3

y=Y + ,
3

che sostituite nellequazione assegnata portano a:


X 2 + Y 2 = 6.
Adesso e` chiaro che lequazione (9.8)
rappresenta una circonferenza di centro lorigine
0
O del nuovo riferimento e raggio 6.

Geometria Analitica nel Piano

416

Esercizio 9.6 Un punto P ha coordinate (2, 3) nel riferimento R = (O, x, y) e coordinate (4, 6) nel riferimento traslato R = (O0 , X, Y ). Determinare le coordinate del
punto O0 rispetto al sistema di riferimento R = (O, x, y).
Soluzione

Sostituendo le coordinate di P in (9.7) si ha:



2 = 4 + x0
3 = 6 + y0

da cui segue O0 = (6, 9).


Esercizio 9.7 Determinare la traslazione con cui si deve operare sugli assi affinche lequazione:
y = x2 + 3x 2
si trasformi in:
Y = X 2 .
Soluzione

Sostituendo (9.7) nella prima equazione si ha:


Y = X 2 + (2x0 + 3)X x20 + 3x0 2 y0 ,

da cui segue:


2x0 + 3 = 0
x20 3x0 + 2 + y0 = 0

quindi x0 = 3/2, y0 = 1/4.


Esercizio 9.8 Operando con il metodo del completamento dei quadrati, individuare unopportuna traslazione che permetta di studiare la curva di equazione:
x2 + y 2 + 2x + 3y = 0.
Soluzione Applicando il metodo del completamento dei quadrati (cfr. Esercizio 8.13)
in questo caso, si ha:


9
9
2
2
(x + 2x + 1) + y + 3y +
1 = 0,
4
4

2
3
13
2
(x + 1) + y +
= .
2
4

Capitolo 9

Tramite la traslazione:

417

X =x+1

Y =y+3
2
si ottiene, nel nuovo riferimento, lequazione:
X2 + Y 2 =

13
4

che quindi rappresenta la circonferenza di centro O0 =

9.5

3
1,
2


e raggio

13
.
2

Simmetrie

Un altro metodo per studiare il grafico di una curva, di cui si conosce lequazione, e`
cercarne le eventuali simmetrie rispetto agli assi coordinati o rispetto allorigine del riferimento.

P'

Figura 9.10: Curva simmetrica rispetto allasse delle ordinate

9.5.1

Curva simmetrica rispetto allasse delle ordinate

Una curva e` simmetrica rispetto allasse y se per ogni punto P = (x, y) appartenente
alla curva anche il punto P 0 = (x, y) appartiene alla curva. Per esempio la curva di
equazione x2 + y + 5 = 0 e` simmetrica rispetto allasse y mentre la curva di equazione
x2 + x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura 9.10.

418

9.5.2

Geometria Analitica nel Piano

Curva simmetrica rispetto allasse delle ascisse

Una curva e` simmetrica rispetto allasse x se per ogni punto P = (x, y) appartenente
alla curva anche il punto P 0 = (x, y) appartiene alla curva. Per esempio la curva di
equazione x + y 2 + 5 = 0 e` simmetrica rispetto allasse x mentre la curva di equazione
x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura 9.11.

P
x

P'
Figura 9.11: Curva simmetrica rispetto allasse delle ascisse

9.5.3

Curva simmetrica rispetto allorigine

Una curva e` simmetrica rispetto allorigine del riferimento se per ogni punto P = (x, y)
appartenente alla curva anche il punto P 0 = (x, y) appartiene alla curva. Per esempio
la curva di equazione x2 + y 2 = 5 e` simmetrica rispetto allorigine mentre la curva di
equazione x2 + x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura
9.12.
Esercizio 9.9 Verificare che la curva di equazione x3 + y 3 + 3x 2y = 0 e` simmetrica
rispetto allorigine.
Soluzione Si sostituiscono le coordinate del punto P 0 = (x, y) nellequazione della
curva e si ha:
(x)3 + (y)3 + 3(x) 2(y) = (x3 + y 3 + 3x 2y) = 0,
da cui si deduce che la curva assegnata e` simmetrica rispetto allorigine.
Pi`u in generale, come spiegato nellesercizio che segue, si pu`o considerare la simmetria
rispetto ad un punto qualsiasi del piano.

Capitolo 9

419

P'

Figura 9.12: Curva simmetrica rispetto allorigine


Esercizio 9.10 Verificare che la curva di equazione:
4x2 + 9y 2 + 8x + 36y 68 = 0

(9.9)

e` simmetrica rispetto al punto C = (1, 2).

Figura 9.13: Esercizio 9.10


Soluzione Il problema si risolve traslando la curva nel riferimento R0 = (C, X, Y ) e
poi dimostrando che lequazione ottenuta e` simmetrica rispetto allorigine. Le equazioni
della traslazione sono:

x=X 1
y =Y 2
e, se sostituite in (9.9), portano a:

420

Geometria Analitica nel Piano

4X 2 + 9Y 2 = 108
che definisce una curva simmetrica rispetto allorigine del riferimento R0 = (C, X, Y ),
si tratta dellellisse rappresentato in Figura 9.13.

9.6

Retta nel piano

In questo paragrafo sono descritti metodi diversi per rappresentare una retta nel piano
rispetto ad un riferimento cartesiano R = (O, x, y), o equivalentemente R = (O, i, j).
Una retta r nel piano si pu`o individuare, alternativamente, assegnando:
1. un punto P0 della retta r ed un vettore r non nullo parallelo a r;
2. un punto P0 della retta r ed un vettore n non nullo ortogonale a r;
3. due punti distinti A e B della retta r.
In particolare si dimostrer`a che ogni equazione lineare in x e y del tipo ax + by + c = 0,
con a, b, c R, (a, b) 6= (0, 0), rappresenta una retta. Viceversa ogni retta del piano e`
rappresentabile tramite unequazione lineare in x, y del tipo suddetto.

r
P
P0

Figura 9.14: Retta passante per il punto P0 e parallela al vettore r

Capitolo 9

9.6.1

421

Retta per un punto parallela ad un vettore

Sia r la retta passante per il punto P0 parallela ad un vettore r 6= o. Un punto P

appartiene alla retta r se e solo se il vettore P0 P e` parallelo al vettore r (cfr. Fig. 9.14).
Risulta:

r = {P S2 | P0 P = t r, t R},
ossia:
r : P = P0 + t r,

t R.

(9.10)

La relazione (9.10) e` detta equazione vettoriale parametrica di r mentre t R e` il


parametro al variare del quale P descrive la retta r.
Siano P0 = (x0 , y0 ) e P = (x, y) i punti P0 e P, le cui coordinate sono espresse rispetto
al riferimento cartesiano R = (O, x, y), siano (l, m) le componenti del vettore r relative
alla base ortonormale positiva B = (i, j) individuata da R. Lequazione (9.10) equivale
a:


x = x0 + lt
y = y0 + mt,

(9.11)

t R,

che sono le equazioni parametriche di r, le componenti (l, m) del vettore r prendono il


nome di parametri direttori di r.
Osservazione 9.1 Siano (l, m) i parametri direttori di una retta r, allora:
1. (l, m) 6= (0, 0) e sono individuati a meno di un fattore moltiplicativo. In altri
termini, fissato il punto P0 ogni vettore non nullo parallelo al vettore r individua la
retta r.
2. Se l = 0 (o m = 0) la retta r e` parallela allasse y (o allasse x).
3. La retta r ammette infinite equazioni parametriche diverse, e` sufficiente individuare
r mediante un suo punto qualsiasi e un qualsiasi vettore non nullo ad essa parallelo.
4. I coseni degli angoli che la retta r forma con gli assi coordinati prendono il nome di
coseni direttori della retta r, il loro valore e` calcolato mediante il generico vettore
r 6= o parallelo a r ed e` dato da:
b = l
,
cos(ri)
l 2 + m2

b =
cos(rj)

m
l2 + m2

(cfr. Oss. 3.14). Inoltre, i coseni direttori sono individuati a meno del segno.

Geometria Analitica nel Piano

422

Esercizio 9.11 Determinare le equazioni parametriche della retta r passante per il punto
P0 = (1, 3) e parallela al vettore r = 2i 5j e calcolarne i coseni direttori.
Soluzione

Le equazioni parametriche di r sono:



x = 1 + 2t
y = 3 5t, t R;

(9.12)

per i coseni direttori si ha:


b = 2 ,
cos(ri)
29

b = 5 .
cos(rj)
29

Si osservi che sostituendo t = 0 in (9.12) si ottiene il punto P0 . Per t = 1 si ottiene il


punto A = (1, 2), pertanto la retta r si pu`o anche rappresentare come:

x = 1 + 4t0
y = 2 10t0 , t0 R.
Osservazione 9.2 Se in (9.11) si limita il valore di t ad intervalli della retta reale si
rappresentano i punti di segmenti della retta r. Se, invece, si chiede che t assuma solo
valori reali positivi o nulli si rappresenta una semiretta di origine P0 , si ottiene la semiretta
opposta limitando t a valori reali negativi o nulli.

9.6.2

Retta per un punto ortogonale ad un vettore

Sia r la retta passante per il punto P0 ortogonale ad un vettore n 6= o. Un punto P

appartiene alla retta se e solo se il vettore P0 P e` ortogonale a n (cfr. Fig. 9.15) Si ha:

r = {P S2 | P0 P n = 0},
(9.13)

dove P0 P n indica il prodotto scalare tra i vettori P0 P e n (cfr. Oss. 3.14).


Siano P0 = (x0 , y0 ), P = (x, y) i punti P0 e P, siano (a, b) le componenti del vettore
n rispetto alla base ortonormale positiva B = (i, j) individuata dal riferimento cartesiano
considerato, lequazione (9.13) equivale a:
a(x x0 ) + b(y y0 ) = 0.

(9.14)

Ponendo il termine noto ax0 by0 = c, segue che lequazione richiesta e` :


ax + by + c = 0

(9.15)

che e` detta equazione cartesiana di r, dove (a, b) 6= (0, 0) sono le componenti di un qualsiasi vettore non nullo ortogonale a r e sono date a meno di una costante di proporzionalit`a
non nulla.

Capitolo 9

423

n
P
P0

Figura 9.15: Retta passante per il punto P0 e ortogonale al vettore n


Osservazione 9.3 I parametri direttori (l, m) della retta r e le componenti (a, b) di un
vettore ortogonale alla retta sono legati dalla relazione:
al + bm = 0
che esprime lannullarsi del prodotto scalare tra i vettori r, parallelo alla retta, e n
ortogonale alla retta. In altri termini:


a = m
b = l,

R {0}.

Il teorema che segue caratterizza tutte le rette del piano tramite equazioni lineari in x e y .
Teorema 9.1 Ogni equazione lineare in x e y del tipo (9.15) rappresenta una retta ed e`
individuata a meno di un fattore moltiplicativo non nullo.
Dimostrazione
Si e` gi`a dimostrato che una retta nel piano pu`o essere rappresentata
mediante unequazione lineare in x, y . Viceversa, considerata lequazione lineare (9.15),
se (a, b) 6= (0, 0) esiste almeno un punto P0 = (x0 , y0 ) del piano le cui coordinate la
verificano, ossia c = ax0 + by0 . Sostituendo in (9.15) si ha:
a(x x0 ) + b(y y0 ) = 0.

(9.16)

Geometria Analitica nel Piano

424

Lequazione (9.16) coincide con (9.14) e, quindi, rappresenta la retta passante per il punto
P0 ortogonale al vettore ai + bj. Inoltre, per 6= 0 le due equazioni (9.15) e
(ax + by + c) = 0
rappresentano la stessa retta.
Esercizio 9.12 Scrivere lequazione cartesiana della retta ottenuta nellEsercizio 9.11.
Soluzione

Dalle equazioni parametriche di r si ottiene:


x+1
y3
=
2
5

da cui:
5x + 2y 1 = 0.
Esercizio 9.13 Data la retta r di equazione 2x 7y + 5 = 0, determinare un vettore
parallelo a r ed un vettore ad essa ortogonale.
Soluzione I vettori richiesti sono ad esempio, rispettivamente, r = 7i + 2j, n =
4i 14j, ma ogni altro vettore ad essi parallelo (ad eccezione del vettore nullo) risolve
lesercizio.

9.6.3

Retta per due punti distinti

Dati due punti distinti A = (xA , yA ), B = (xB , yB ) nel piano, la retta r passante per A

e B e` parallela al vettore AB (cfr. Fig. 9.16) e ha equazioni parametriche:


(
x = xA + (xB xA )t
y = yA + (yB yA )t,

t R.

Se xB xA 6= 0 e yB yA 6= 0, ricavando il parametro t per esempio dalla prima


equazione e sostituendo il valore trovato nella seconda si ha:
x xA
y yA
=
.
xB xA
yB yA

(9.17)

Lequazione (9.17) cos` ottenuta e` lequazione cartesiana della retta passante per i punti A
e B . Se xB xA = 0, i punti A e B hanno la stessa ascissa e quindi la retta ha equazione
cartesiana x xA = 0. Analogamente se yB yA = 0, la retta ha equazione cartesiana
y yA = 0.

Capitolo 9

425

Figura 9.16: Retta passante per i punti A e B


Esercizio 9.14 E` ben noto che due punti distinti individuano una sola retta. Perche
nellequazione ax + by + c = 0 ci sono tre coefficienti a, b, c?
Osservazione 9.4 Lequazione (9.17) della retta r passante per due punti distinti A e B
si pu`o scrivere nella forma:


x y 1


xA yA 1 = 0,


xB yB 1
questespressione e` valida anche nel caso in cui xB xA = 0 o yB yA = 0. Si lascia la
dimostrazione al Lettore per esercizio.
Esercizio 9.15 Scrivere le equazioni parametriche e cartesiana della retta passante per i
punti A = (1, 2), B = (4, 5).
Soluzione

Le equazioni richieste sono, rispettivamente:



x = 1 + 5t
y = 2 7t, t R

(9.18)

e:
7x + 5y 3 = 0.
Si osservi che se in (9.18) si limita t allintervallo chiuso [0, 1] si descrivono tutti e soli i
punti del segmento AB , estremi compresi.

426

9.6.4

Geometria Analitica nel Piano

Rette particolari

Dal paragrafo precedente appare chiaro che tutti e soli i punti appartenenti allasse x sono
caratterizzati dallavere ordinata nulla, quindi lasse x ha equazione cartesiana y = 0. La
stessa equazione si ottiene se si considera che lasse x e` una retta, passante per lorigine,
parallela al versore i e perpendicolare al versore j. Analoga considerazione vale per lasse
y che ha equazione x = 0.
Di conseguenza, ogni retta parallela allasse x (e quindi al versore i) ha equazione cartesiana:
y = k,
con k R fissato, ed equazioni parametriche:

x = t,
y = k, t R,
cio`e x varia in R e y rimane costante.
Ogni retta parallela allasse y ha equazione cartesiana:
x = h,
con h R fissato, ed equazioni parametriche:

x=h
y = t, t R.
La bisettrice del primo e terzo quadrante passa per i punti P = (x, x) che hanno ascissa
uguale allordinata, quindi ha equazione:
y = x.
Infatti, questa retta e` parallela al vettore r = i+j. Analogamente, la bisettrice del secondo
e quarto quadrante passa per i punti P = (x, x), quindi ha equazione:
y = x
ed e` parallela al vettore r = i j.

9.6.5

Il coefficiente angolare ed il suo legame con a, b, c

Sia r una retta non parallela allasse delle ordinate:


r : ax + by + c = 0

Capitolo 9

427

q
A

Figura 9.17: Il significato geometrico di p = tan e di q


e, quindi, tale che b 6= 0. Allora lequazione cartesiana di r si pu`o scrivere anche nella
forma
y = px + q,
(9.19)
dove:

c
a
(9.20)
p= , q= .
b
b
Il numero p prende il nome di coefficiente angolare di r, tale denominazione e` motivata
dalle seguenti considerazioni geometriche. Si consideri una generica retta passante per
lorigine e per i punti A = (xA , yA ), B = (xB , yB ). Se e` langolo che la retta data
forma con lasse x e` chiaro che:
yA
yB
=
= tan .
xA
xB

Le coordinate (x, y) del generico punto P 6= O appartenente alla retta r verificano la


stessa relazione, ossia:
y
yA
yB
=
=
= tan .
x
xA
xB
Daltra parte, una generica retta passante per lorigine ha equazione:
y = px,

p R,

Geometria Analitica nel Piano

428

dove p e` il coefficiente angolare della retta. Si ha quindi:


p = tan ,
dove e` langolo che la retta forma con lasse x. Si osservi che lequazione y = px
rappresenta, al variare di p R, tutte le rette passanti per lorigine, tranne lasse y .
Per capire meglio il significato geometrico del numero q dato da (9.20) si consideri lintersezione della retta di equazione y = px+q con lasse y , si ottiene cos` il punto A = (0, q)
quindi q esprime la lunghezza (con segno) del segmento che la retta stacca sullasse y , a
partire dallorigine. La situazione geometrica e` illustrata nella Figura 9.17.

9.7

Parallelismo, ortogonalit`a, angoli e distanze

Il calcolo vettoriale risulta essere un strumento molto utile per studiare le questioni relative ad angoli tra rette, quindi in particolare il parallelismo e lortogonalit`a, trattate in
questo paragrafo.

9.7.1

Condizione di parallelismo tra rette

Due rette:
r : ax + by + c = 0,

r 0 : a0 x + b 0 y + c 0 = 0

sono parallele se e solo se i vettori n = ai + bj e n0 = a0 i + b0 j ad esse ortogonali sono


tra loro paralleli, cio`e se e solo se le loro componenti sono in proporzione, ossia:
ab0 a0 b = 0.

(9.21)

Equivalentemente se r = li+mj e r0 = l0 i+m0 j indicano i vettori paralleli rispettivamente


a r e r0 , le due rette sono parallele se e solo se i due vettori r e r0 sono paralleli, cio`e se
e solo se:
lm0 l0 m = 0.
In termini del loro coefficiente angolare, due rette non parallele allasse y :
r : y = px + q,

r 0 : y = p0 x + q 0

sono parallele se e solo se:


p = p0 ,
ossia se i loro coefficienti angolari coincidono.

Capitolo 9

9.7.2

429

Condizione di perpendicolarit`a tra rette

Due rette:
r : ax + by + c = 0,

r 0 : a0 x + b 0 y + c 0 = 0

sono perpendicolari se e solo se i vettori n = ai + bj e n0 = a0 i + b0 j ad esse ortogonali


sono tra loro ortogonali, cio`e se e solo se il loro prodotto scalare e` nullo, ossia:
aa0 + bb0 = 0.
Equivalentemente, se r = li + mj e r0 = l0 i + m0 j indicano due vettori paralleli rispettivamente a r e r0 , le due rette sono perpendicolari se e solo se i due vettori r e r0 sono
ortogonali, cio`e se e solo se:
ll0 + mm0 = 0.
In termini del loro coefficiente angolare, due rette non parallele allasse y :
r : y = px + q,

r 0 : y = p0 x + q 0

sono perpendicolari se e solo se:


pp0 = 1,
infatti:



= 1,
pp0 = tan tan 0 = tan tan +
2
dove e 0 indicano, rispettivamente, gli angoli che le rette r e r0 formano con lasse
delle ascisse.
Esercizio 9.16 Condurre dal punto A = (3/4, 2) la retta r parallela allasse y e dal
punto B = (2/5, 4/3) la retta s parallela allasse x. Detto C il loro punto di intersezione,
determinare la lunghezza del segmento OC .
Soluzione

Le rette richieste sono:


r: x=

3
,
4

s: y=

4
,
3

quindi C = (3/4, 4/3) da cui segue:


r
d(O, C) =

9
16
+
=
16
9

337
.
12

Esercizio 9.17 Determinare lequazione della retta passante per A = (2, 3) e perpendicolare alla retta di equazione y = 2x 1.

Geometria Analitica nel Piano

430

Soluzione La retta richiesta ha equazione y = px + q con 2p = 1, quindi p = 1/2.


Imponendo il passaggio per A segue q = 2.
Esercizio 9.18 Data la famiglia di rette:
F : (2 + a)x + (1 2a)y + 1 = 0,

a R,

(9.22)

determinare, in ciascuno dei casi seguenti, una retta di F in modo che:


1. passi per A = (2, 0);
2. sia parallela a y = 2x 1;
3. sia perpendicolare a 3x y + 1 = 0;
4. sia parallela alla bisettrice del primo e terzo quadrante;
5. formi un angolo acuto con lasse x (nel verso positivo).
Soluzione

1. Sostituendo in (9.22) le coordinate di A si ha a = 3/2.

2. Da (9.22) segue che il coefficiente angolare e` :


2a
,
1 2a

a 6=

1
,
2

imponendo che tale numero coincida con 2 segue a = 0.


3. Si deve imporre che:

3

2a
1 2a


= 1.

4. Si deve imporre il parallelismo con la retta y = x, ossia:


2a
= 1.
1 2a
5. Si deve imporre che:
2a
> 0.
1 2a
Esercizio 9.19 Svolgere il precedente esercizio usando le nozioni di calcolo vettoriale.

Capitolo 9

9.7.3

431

Angolo tra due rette

Siano:
r : ax + by + c = 0,

r 0 : a0 x + b 0 y + c 0 = 0

[
due rette nel piano. Langolo (r,
r0 ) tra le due rette coincide con langolo formato da
due vettori ad esse ortogonali. Da osservare quindi che se e` langolo tra i due vettori
n = (a, b), n0 = (a0 , b0 ), le due rette formano anche langolo , in quanto i due
vettori ortogonali alle due rette possono avere qualsiasi verso. Pertanto il valore di uno
dei due angoli tra le due rette r e r0 e` determinato da:
[
cos (r,
r0 ) =

aa0 + bb0
n n0

=
.
knk kn0 k
a2 + b2 a02 + b02

Valgono analoghe considerazioni se le due rette sono date in forma parametrica:



r:

x = x0 + lt
y = y0 + mt,

t R,

r :

x = x00 + l0 t0
y = y00 + m0 t0 ,

t0 R,

e considerando i due vettori r = (l, m) e r0 = (l0 , m0 ) ad esse paralleli si ha:


[
cos (r,
r0 ) =

9.7.4

r r0
ll0 + mm0
p

=
.
krk kr0 k
l2 + m2 (l0 )2 + (m0 )2

Posizione reciproca di due rette nel piano

Dalla geometria euclidea segue che due rette nel piano possono essere:
1. parallele e coincidenti;
2. parallele e distinte;
3. incidenti.
Dal punto di vista algebrico si risolve il problema della determinazione della posizione
reciproca di due rette r e r0 studiando le soluzioni del sistema lineare di due equazioni in
due incognite:

ax + by + c = 0
(9.23)
a0 x + b0 y + c0 = 0,
dato dalle equazioni delle due rette:
r : ax + by + c = 0,

r0 : a0 x + b0 y + c0 = 0.

432

Geometria Analitica nel Piano

Dal metodo di riduzione di Gauss, applicato alla matrice A dei coefficienti e alla matrice
(A | B) completa del sistema lineare (9.23), segue:




a b c

a
b
c
(A | B) =
.
a0 b0 c0
R2 aR2 a0 R1
0 ab0 a0 b ac0 + a0 c
Si distinguono cos` i due casi:
1. rank(A) = 1, cio`e a0 b ab0 = 0 (cfr. (9.21)), ossia se a0 6= 0, b0 6= 0:
a
b
=
,
a0
b0
vale a dire i vettori n e n0 ortogonali alle due rette sono paralleli che e` la condizione
di parallelismo tra le due rette. Si presentano due possibilit`a:
a. rank(A | B) = 1 cio`e ac0 a0 c = 0, ossia se a0 6= 0, c0 6= 0:
a
c
= 0,
0
a
c
il sistema lineare ammette infinite soluzioni che dipendono da unincognita libera, ma le condizioni poste equivalgono a richiedere che le due rette
siano coincidenti (i coefficienti delle loro equazioni sono ordinatamente in
proporzione).
b. rank(A | B) = 2 cio`e ac0 a0 c 6= 0, ossia (a/a0 ) 6= (c/c0 ); il sistema lineare
e` incompatibile. Le condizioni imposte equivalgono pertanto a richiedere che
le due rette siano parallele ma non coincidenti.
2. rank(A) = 2 cio`e a0 b ab0 6= 0, vale a dire i vettori n e n0 non sono paralleli, il sistema lineare ammette una sola soluzione. La condizione imposta equivale a richiedere che le due rette non siano parallele, quindi sono incidenti, e, di conseguenza,
si intersecano in un solo punto.
In modo equivalente a quanto descritto, anziche studiare il sistema lineare (9.23), per individuare la posizione reciproca delle rette r e r0 si pu`o considerare la posizione reciproca
dei due vettori n = (a, b) ortogonale ad r e n0 = (a0 , b0 ) ortogonale a r0 . Si presentano i
seguenti casi:
1. n e n0 sono paralleli (vale a dire hanno le componenti ordinatamente in proporzione), quindi le due rette sono parallele. Si consideri un punto P0 = (x0 , y0 ) qualsiasi
di r, se P0 appartiene anche alla retta r0 (in formule a0 x0 + b0 y0 + c0 = 0) allora r
e r0 sono coincidenti, altrimenti sono parallele e distinte.

Capitolo 9

433

2. n e n0 non sono paralleli, allora le due rette sono incidenti. Per determinare il loro
punto di intersezione si deve risolvere il sistema lineare (9.23) per esempio usando
il Teorema di Cramer (cfr. Teor. 2.20).
Esercizio 9.20 Discutere, al variare di k R, la posizione reciproca delle rette:
r : (2k 1)x + y 3k = 0,
Soluzione
incognite:

r0 : 3kx 2y + k 1 = 0.

Si tratta di studiare le soluzioni del sistema lineare di due equazioni in due




(2k 1)x + y 3k = 0
3kx 2y + k 1 = 0

al variare di k R. Procedendo con il metodo di riduzione di Gauss si ha:






3k

2k1 1
3k
2k1
1
.
3k
2 k+1
R2 R2 + 2R1
7k2 0 5k+1
Si distinguono cos` due casi:
1. se k 6= 2/7 esiste una sola soluzione, quindi le due rette sono incidenti.
2. Se k = 2/7 le rette sono parallele ma mai coincidenti in quanto 5k + 1 6= 0.
Esercizio 9.21 Date le rette:
r1 : 4x + y 8 = 0,

r2 : 3x 2y + 2 = 0

e il punto P = (2, 1), determinare:


1. la retta passante per P e parallela a r1 ;
2. la retta passante per il punto di intersezione di r1 e r2 e perpendicolare a r2 .
Soluzione 1. Tutte e solo le rette parallele a r1 hanno equazione del tipo 4x+y+c = 0,
al variare di c R. Imponendo il passaggio per il punto P si ricava c = 9.
2. Il sistema lineare:


4x + y 8 = 0
3x 2y + 2 = 0

ha soluzione (14/11, 32/11) che rappresenta le coordinate del punto di intersezione


di r1 e r2 . La retta richiesta ha equazione:


32
14
y
=p x
11
11
con (3/2)p = 1.

434

9.7.5

Geometria Analitica nel Piano

Distanza di un punto da una retta

P0

r
n
H
P1

Figura 9.18: Distanza del punto P0 dalla retta r


Dati una retta r : ax + by + c = 0 e un punto P0 = (x0 , y0 ), si vuole determinare, in
questo paragrafo, la distanza d(P0 , r) di P0 dalla retta r.
Per questo scopo, e` sufficiente scrivere lequazione della retta r0 passante per P0 e perpendicolare ad r e calcolare la distanza d(P0 , H) dove H e` il punto di intersezione tra r0
ed r. Si osservi che se P0 appartiene alla retta r si ottiene d(P0 , r) = 0, in quanto P0
coincide con H (cfr. Fig. 9.18).
Si risolve ora lo stesso problema applicando nozioni di calcolo vettoriale. Dati un generico
punto P1 = (x1 , y1 ) di r, quindi ax1 + by1 + c = 0, e un vettore n = (a, b) ortogonale
ad r, dal significato geometrico del prodotto scalare di due vettori (cfr. Teor. 3.10) segue:

P1 P0 n
d(P0 , r) =
.
(9.24)
knk
Si osservi che il valore d(P0 , r) cos` determinato esprime la distanza con segno del punto
P0 dalla retta r. Il segno e` positivo se P0 si trova nello stesso semipiano in cui punta il
verso del vettore n, altrimenti il segno e` negativo.
In coordinate, la formula (9.24) diventa:

Capitolo 9

1. a denominatore: knk =

435

a2 + b 2 ;

2. a numeratore:

P1 P0 n = a(x0 x1 ) + b(y0 y1 ) = ax0 + by0 ax1 by1 = ax0 + by0 + c.


Riassumendo si ottiene:
d(P0 , r) =

ax0 + by0 + c

.
a2 + b2

(9.25)

Il numeratore di (9.25) si annulla se e solo se P0 appartiene alla retta r e, quindi, se e


solo se d(P0 , r) = 0, inoltre il numeratore di (9.25) assume lo stesso segno per tutti e soli
i punti appartenenti allo stesso semipiano di origine la retta r.
Esempio 9.3 Data la retta r : 3x + 2y + 5 = 0, i punti del piano sono esattamente divisi
in tre parti cos` caratterizzate:
1. i punti P = (x, y) tali che 3x + 2y + 5 = 0, vale a dire i punti della retta r;
2. i punti P = (x, y) tali che 3x + 2y + 5 > 0, vale a dire i punti di un semipiano di
origine r;
3. i punti P = (x, y) tali che 3x + 2y + 5 < 0, vale a dire i punti del semipiano di
origine r, opposto al precedente.
Esercizio 9.22 Calcolare la distanza del punto P = (1, 2) dalla retta r : 2x y + 5 = 0.
Soluzione

Dalla formula (9.25) si ha:


22+5
= 5.
d(P, r) =
4+1

9.8

Fasci di rette

In geometria euclidea si definiscono due tipi di fasci di rette:


1. il fascio improprio di rette formato da tutte le rette parallele ad una retta assegnata;
la situazione geometrica e` illustrata nella Figura 9.19;
2. il fascio proprio di rette formato da tutte le rette passanti per un punto, detto centro
del fascio; la situazione geometrica e` illustrata nella Figura 9.20.

Geometria Analitica nel Piano

436

Dallequazione (9.19) si ha che una semplice rappresentazione di un fascio improprio di


rette e` :
y = px + q
con p fissato e q che assume ogni valore in R. Il fascio di rette parallele allasse y invece
e` rappresentato da:
k R.

x = k,

Per esempio y = 3x + q , per ogni q reale, individua tutte e sole le rette del piano parallele
alla retta y = 3x.
10

-10

-5

10

-5

-10

Figura 9.19: Fascio improprio di rette


Siano:
r : ax + by + c = 0,

r0 : a0 x + b0 y + c0 = 0

due rette incidenti nel punto P0 = (x0 , y0 ). Il fascio proprio di rette di centro P0 e` dato
dalla combinazione lineare:

F : (ax + by + c) + (a0 x + b0 y + c0 ) = 0,

, R, (, ) 6= (0, 0).

(9.26)

Per dimostrare questa affermazione si procede attraverso considerazioni successive:


1. lequazione (9.26) e` lineare in x, y , pertanto rappresenta una retta al variare di
, R.

Capitolo 9

437

2. Le rette r ed r0 fanno parte della famiglia F di rette individuata da (9.26), per


= 0 si ottiene la retta r e per = 0 la retta r0 .
3. I parametri e sono omogenei, nel senso che e` sufficiente assegnare il loro
rapporto per individuare la stessa retta, per esempio le coppie = 1, = 2 e
= 2, = 4 (insieme con le infinite altre coppie di numeri non nulli, proporzionali
rispettivamente a e a ) danno luogo alla stessa retta.
4. Il punto P0 appartiene a tutte le rette descritte da (9.26), infatti le sue coordinate
(x0 , y0 ) verificano sia lequazione di r sia lequazione di r0 e, di conseguenza,
verificano (9.26).
5. Lequazione (9.26) individua tutte le rette del piano passanti per P0 . Sia, infatti,
P1 = (x1 , y1 ) un punto del piano diverso da P0 , sostituendo le sue coordinate in
(9.26) si perviene ad unequazione del tipo + = 0, dove = ax1 + by1 + c e
= a0 x1 + b0 y1 + c0 , da cui si ricava, per esempio, = , = che sostituiti in
(9.26) danno luogo allequazione della retta passante per i punti P0 e P1 . Si osservi
che se P1 non appartiene ne ad r ne ad r0 allora e sono entrambi diversi da
zero.
Osservazione 9.5 Un fascio di rette riempie il piano nel senso che dato un punto generico
P1 = (x1 , y1 ) del piano e` possibile individuare un elemento del fascio passante per P1 ,
infatti e` sufficiente sostituire le coordinate di P1 nellequazione (9.26) e calcolare i valori
dei parametri e .
Esercizio 9.23 Dato il fascio proprio di rette:
(x 2y 2) + (x + y) = 0,

, R, (, ) 6= (0, 0),

(9.27)

individuare:
1. il centro del fascio;
2. la retta del fascio passante per il punto A = (0, 7);
3. la retta del fascio perpendicolare alla retta di equazione x + y + 1 = 0.
Soluzione 1. Il centro del fascio e` il punto C intersezione delle rette di equazione
x 2y 2 = 0 e x + y = 0, si ottiene C = (2/3, 2/3).
2. Nellequazione (9.27) si impone il passaggio per A, ottenendo 12 7 = 0, da
cui si ha, per esempio = 7, = 12 che sostituiti in (9.27) portano alla retta di
equazione 19x 2y 14 = 0.

Geometria Analitica nel Piano

438

-6

-4

-2

-2

-4

-6

-8

Figura 9.20: Fascio proprio di rette. Esercizio 9.23


3. Il coefficiente angolare della generica retta del fascio e` :
p=

+
2

(si osservi che per 2 = 0, ossia per = 1, = 2 si ha la retta 3x 2 = 0


parallela allasse y ). Imponendo la perpendicolarit`a alla retta x + y + 1 = 0 si ha:
+
=1
2
da cui = 2, = 1 che portano alla retta del fascio di equazione 3x 3y 4 = 0.

9.9

Esercizi di riepilogo svolti

Esercizio 9.24 Calcolare lequazione dellasse del segmento di estremi i punti:


A = (3, 5),

B = (2, 3).

Soluzione Il procedimento da usare e` gi`a stato spiegato nel Paragrafo 9.2, in alternativa
si pu`o determinare lequazione della retta perpendicolare al segmento AB nel suo punto
medio M dato da:

 

3 + 2 5 3
1
M=
,
= ,1 .
2
2
2

Capitolo 9

439

La retta passante per A e B ha equazione:


x+3
y5
=
,
2+3
3 5
ossia 8x + 5y 1 = 0, quindi e` perpendicolare al vettore n = (8, 5). Di conseguenza, le
equazioni parametriche dellasse del segmento AB sono:

x = + 8t
2

y = 1 + 5t,
t R,
e la sua equazione cartesiana e` 10x 16y + 21 = 0.
Esercizio 9.25 Date le rette:
s : 7x 24y 6 = 0

r : 3x + 4y + 2 = 0,

determinare le equazioni delle rette b1 e b2 bisettrici degli angoli da esse individuati.


Soluzione Le bisettrici di due rette r e s sono il luogo dei punti P = (x, y) equidistanti
dalle due rette, ossia tali che d(P, r) = d(P, s). Da (9.25) segue:
7x 24y 6
3x + 4y + 2

=
,
9 + 16
49 + 576
da cui si ottengono le rette:
b2 : 11x 2y + 2 = 0.

b1 : 2x + 11y + 4 = 0,

In modo alternativo, si possono ottenere le equazioni delle due bisettrici come le rette
passanti per il punto di intersezione delle due rette date e parallele ai vettori bisettori dei
vettori r e s rispettivamente paralleli alle rette r e s. Si ha r = (4, 3), s = (24, 7) e i
due vettori bisettori degli angoli formati da r e da s sono:

 
 

4 3
24 7
44
8
vers r + vers s =
,
+
,
=
,
,
5 5
25 25
25 25

vers r vers s =

4 3
,
5 5

24 7
,
25 25



4
22
= ,
.
25 25

Il punto di intersezione delle rette r e s e` la soluzione del sistema lineare delle loro
equazioni cartesiane ed e` (6/25, 8/25), di conseguenza le equazioni parametriche

Geometria Analitica nel Piano

440

delle due bisettici sono:

b1 :

x = 25 + 11t

y = 2t,
25

b2 :

x = 25 2t

y = 11t0 ,
25

t R,

t0 R.

Esercizio 9.26 Date le due rette:


r : x + 2y + 2 = 0,

s : x y 3 = 0,

determinare lequazione della retta t simmetrica di r rispetto ad s.

r
M
A

M'

M''
t

Figura 9.21: Esercizio 9.26


Soluzione Il punto di intersezione di r ed s e` A = (4/3, 5/3). Sia M = (0, 1) un
punto di r diverso da A. La retta per M perpendicolare a s che ha equazione x+y+1 = 0
incontra s nel punto M 0 = (1, 2). Il simmetrico M 00 di M rispetto a M 0, che ha
coordinate (2, 3) essendo M 0 il punto medio tra M e M 00 , appartiene alla retta t. La
retta t e` , quindi, la retta passante per A e per M 00 e ha equazione 2x + y 1 = 0. La
situazione geometrica e` illustrata nella Figura 9.21.

Capitolo 9

9.10

Per saperne di piu`

9.10.1

Rette immaginarie

441

Anche in geometria analitica, vengono considerati enti immaginari, daltra parte la


geometria analitica non fa altro che tradurre in algebra enti e relazioni geometriche.
I punti immaginari (o complessi) del piano sono caratterizzati dallavere rispetto ad un
riferimento cartesiano (reale) R = (O, x, y) almeno una coordinata complessa, mentre i
punti che sono stati trattati finora in tutto questo capitolo sono detti reali se hanno entrambe le coordinate x e y reali. Ovviamente rispetto al riferimento cartesiano R si possono
visualizzare nel piano solo i punti reali.
Analogamente al caso reale, le rette immaginarie sono rappresentate rispetto ad un riferimento cartesiano (reale) R = (O, x, y) da equazioni lineari:
ax + by + c = 0,
a coefficienti complessi, come ad esempio la retta di equazione:
y = 2i x + 1.
Se la terna (a, b, c) e` proporzionale (con coefficiente di proporzionalit`a complesso non
nullo) ad una terna di numeri reali allora r e` detta retta reale e si ha la retta usuale,
introdotta nel Paragrafo 9.6.
Data una retta immaginaria:
r : ax + by + c = 0,
con a, b, c C, ha pertanto senso introdurre la nozione di retta ad essa coniugata:
r : ax + by + c = 0,
dove a, b, c indicano, rispettivamente, i complessi coniugati di a, b, c. Pertanto due rette
si dicono coniugate se i coefficienti delluna sono i complessi coniugati dei coefficienti
dellaltra.
Esempio 9.4 La retta immaginaria di equazione y = 2i x + 1 ha come coniugata la
retta di equazione:
y = 2i x + 1.
Anche per le rette immaginarie, come per le rette reali considerate in questo capitolo, si
pu`o introdurre la nozione di rette parallele e incidenti.
Si pu`o dimostrare la seguente propriet`a.

Geometria Analitica nel Piano

442

Teorema 9.2 Una retta r e` reale se e solo se coincide con la propria coniugata r.
Dimostrazione
Si supponga che la retta r abbia equazione ax + by + c = 0, con
a, b, c C. Si vuole dimostrare che la terna (a, b, c) e` proporzionale (con coefficiente di
proporzionalit`a complesso non nullo) ad una terna di numeri reali se e solo se r = r. Le
due rette r e r coincidono se e solo se:


a b c
rank
= 1.
a b c
Osservando che:

rank

a b c
a b c

a+a b+b c+c


aa bb cc

Re(a) Re(b) Re(c)


Im(a) Im(b) Im(c)

= rank

= rank


,

dove con Re(a) si indica la parte reale di a e con Im(a) si indica la parte immaginaria di
a, si ha la tesi.
Osservazione 9.6 Ogni retta reale ha infiniti punti reali, ma contiene anche infiniti punti
immaginari. Inoltre, se P = (x0 , y0 ) e` un punto non reale, ovvero P 6= P , dove con P
di indica il punto coniugato di P avente coordinate (x0 , y 0 ), la retta passante per P e P
e` necessariamente reale.
Esempio 9.5 La retta passante per P = (1+i, 1+2i) e per P = (1i, 12i) ha
equazione 2x y + 1 = 0. Si osservi che la retta precedente contiene i punti immaginari:
(1 + i, 1 + 2i),
al variare di R {0}.
Esercizio 9.27 Verificare che lequazione x2 + y 2 = 0 rappresenta una coppia di rette
immaginarie coniugate.
Soluzione

Si ha:
x2 + y 2 = (x + iy)(x iy) = 0,

pertanto x2 + y 2 = 0 rappresenta la coppia di rette immaginarie coniugate x = iy . Si


osservi che lintersezione reale delle due rette immaginarie e` costituita dalla sola origine.
Vale la seguente propriet`a.

Capitolo 9

443

Teorema 9.3 Una retta immaginaria (o non reale) possiede al pi`u solo un punto reale.
Dimostrazione
Se una retta r : ax + by + c = 0 e` immaginaria e quindi non e` reale,
allora o le due rette r e r sono parallele non coincidenti, ossia non si intersecano in alcun
punto, oppure si intersecano in un solo punto, che deve essere reale. Infatti il punto P
intersezione di r e di r coincide con il punto P intersezione di r e r. Sia nel caso in cui
r e r siano parallele sia nel nel caso in cui non lo siano si ha:

rank

a b c
a b c


= 2,

ma nel primo caso:



rank

a b
a b


= 1,

da cui segue che le due rette r e r non si intersecano quindi sono prive di punti reali e
la coppia (a, b) e` proporzionale (con coefficiente di proporzionalit`a complesso non nullo)
ad una coppia di numeri reali. Nel secondo caso:

rank

a b
a b


=2

e le due rette si intersecano in un solo punto.


Esercizio 9.28 Si considerino le rette:
r1 : 3(2i 1)x + (2 4i)y 2i + 1 = 0,
r2 : x + iy 3 = 0,
r3 : x + y i = 0.
1. Verificare che la retta r1 e` reale.
2. Verificare che la retta r2 non e` reale ed ha come unico punto reale il punto di
coordinate (3, 0).
3. Verificare che la retta r3 non e` reale e non ha punti reali.
Soluzione 1. Dividendo entrambi i membri dellequazione di r1 per 2i 1 si ottiene
lequazione a coefficienti reali:
3x 2y 1 = 0.

444

Geometria Analitica nel Piano

2. La retta r2 coniugata di r2 ha equazione x iy 3 = 0. Il sistema lineare:



x + iy 3 = 0
x iy 3 = 0
ha matrice dei coefficienti di rango 2 e la sua unica soluzione e` (3, 0).
3. Le rette r3 e r3 : x + y + i = 0 sono entrambe parallele al vettore (1, 1) e non
hanno punti reali.

Capitolo 10
Riduzione a Forma Canonica delle
Coniche
Scopo di questo capitolo e` lo studio delle coniche nel piano, ossia di tutte le curve del
piano che sono rappresentabili mediante unequazione di secondo grado nelle incognite
x, y. Il primo esempio di conica presentato e` quello della circonferenza, la cui equazione
e` gi`a stata ottenuta nel Capitolo 9 come luogo geometrico di punti. Ma la parte determinante di questo capitolo e` lapplicazione della teoria di riduzione a forma canonica di una
forma quadratica (cfr. Cap. 8) allo studio delle coniche allo scopo di poter riconoscere,
a partire da una generica equazione di secondo grado in due incognite, la conica che essa
rappresenta. Questa teoria sar`a nuovamente applicata nel Capitolo 12 per lo studio delle quadriche nello spazio, che non sono altro che superfici che si possono rappresentare
mediante unequazione di secondo grado nelle incognite x, y, z ed e` facilmente generalizzabile anche nel caso di spazi affini di dimensione superiore a 3. In tutto il capitolo si far`a
uso delle notazioni introdotte nei capitoli precedenti, in particolare si considerer`a il piano
affine S2 su cui si introdurr`a un riferimento cartesiano R = (O, x, y), o equivalentemente
R = (O, i, j), dove B = (i, j) e` la base ortonormale positiva dello spazio vettoriale V2
definita dal riferimento R.

10.1

La circonferenza nel piano

In questo paragrafo si intende studiare lequazione della circonferenza nel piano affine S2
e le posizioni reciproche tra circonferenza e retta e anche tra due circonferenze. Successivamente, in modo analogo al caso dei fasci di rette definiti nel Capitolo 9, si introducono
i fasci di circonferenze e si ricavano le loro propriet`a.
Fissati un punto C nel piano e un numero reale positivo r, si e` gi`a visto nel Paragrafo 9.2
445

446

Riduzione a Forma Canonica delle Coniche

che la circonferenza di centro C e raggio r e` il luogo geometrico dei punti P del piano
tali che:
d(P, C) = r.
Se r = 0 la circonferenza si riduce ad un solo punto che coincide con C.
La circonferenza di centro C = (, ) e raggio r 0, rispetto ad un riferimento
cartesiano R = (O, x, y), ha equazione cartesiana:
(x )2 + (y )2 = r2 ,
che pu`o essere riscritta come:
x2 + y 2 2x 2y + = 0,

(10.1)

con = 2 + 2 r2 . Si osservi che lequazione (10.1) e` di secondo grado in x e in y ,


il coefficiente del termine xy e` uguale a 0 e i coefficienti dei termini x2 e y 2 sono uguali.
Viceversa, unequazione dello stesso tipo, vale a dire:
x2 + y 2 + ax + by + c = 0,

a, b, c R,

(10.2)

non sempre rappresenta una circonferenza nel piano. Infatti, confrontando le equazioni
(10.1) e (10.2) si ottiene che il centro C in (10.2) ha coordinate:


b
a
C = ,
2
2
e il raggio r in (10.2) e` dato da:
r
r=

a2 + b2 4c
,
4

(10.3)

pertanto lequazione (10.2) rappresenta una circonferenza se e solo se:


a2 + b2 4c 0.
Osservazione 10.1 Se a2 + b2 4c = 0, la circonferenza e` detta degenere e si riduce al
solo centro (a/2, b/2). Se a2 + b2 4c < 0 allora non ci sono punti del piano che
verificano lequazione (10.2) e la circonferenza viene detta immaginaria.
Esercizio 10.1 Determinare il centro e il raggio delle circonferenze:
C1 : x2 + y 2 + 4x + 6y = 0,
C2 : x2 + y 2 + 4x + 6y + 30 = 0.

Capitolo 10

447

Soluzione In C1 il centro e` C = (2, 3). Poiche la circonferenza passa per lorigine,


il suo raggio pu`o essere determinato calcolando la distanza del centro dallorigine, quindi:

r = d(C, O) = 13,
oppure applicando la formula (10.3).
In C2 il centro e` C = (2, 3), ma C2 e` una circonferenza immaginaria infatti si ha
16 + 36 120 < 0.

10.1.1

Posizione reciproca tra una retta e una circonferenza

La posizione reciproca tra una retta s e una circonferenza di centro C e raggio r si


determina calcolando la distanza del centro della circonferenza alla retta e confrontandola
con il raggio della circonferenza stessa. Si presentano tre possibilit`a:
1. |d(C, s)| > r: la retta e` esterna alla circonferenza (cfr. Fig. 10.1).

C
r

Figura 10.1: Retta esterna alla circonferenza


2. |d(C, s)| = r: la retta e` tangente alla circonferenza (cfr. Fig. 10.2).

448

Riduzione a Forma Canonica delle Coniche

C
r
s

Figura 10.2: Retta tangente alla circonferenza

s
C
r

Figura 10.3: Retta secante la circonferenza

Capitolo 10

449

3. |d(C, s)| < r: la retta e` secante la circonferenza e incontra la circonferenza in due


punti (cfr. Fig. 10.3).
Esercizio 10.2 Determinare per quali valori di k R la retta s : x 2y + k = 0 e`
secante, tangente o esterna alla circonferenza di equazione:
x2 + y 2 2x + 2y 2 = 0.
Soluzione Il centro della circonferenza e` C = (1, 1) e il raggio e` r = 2. Dalla
formula (9.24) si ottiene che la distanza del centro dalla retta e` :
3+k
d(C, s) = ,
5

da cui si deduce che s e` esterna alla circonferenza


se k < 3 2 5 e k > 3 + 2 5.
La retta s
e` tangente alla circonferenza
se k = 2 5 3 e s e` secante la circonferenza

se 3 2 5 < k < 3 + 2 5.

10.1.2

Retta tangente ad una circonferenza in un suo punto

Data una circonferenza C di centro C = (, ) e raggio r, la retta s tangente a C in un

suo punto P0 = (x0 , y0 ) e` la retta passante per P0 e ortogonale al vettore P0 C , quindi di


equazione cartesiana:
s : ( x0 )(x x0 ) + ( y0 )(y y0 ) = 0.

(10.4)

La situazione geometrica e` illustrata nella Figura 10.4.


Esercizio 10.3 Determinare lequazione della retta tangente nel punto P0 = (6, 4) alla
circonferenza di equazione:
x2 + y 2 + 6x 4y = 0.
Soluzione
Il centro della circonferenza e` C = (3, 2), quindi la retta tangente alla
circonferenza nel punto P0 ha equazione:
(3 + 6)(x + 6) + (2 4)(y 4) = 0,
ossia 3x 2y + 26 = 0.

450

Riduzione a Forma Canonica delle Coniche

s
P0

Figura 10.4: Retta tangente alla circonferenza nel punto P0

C'
r'

Figura 10.5: d(C, C 0 ) > r + r0 : circonferenze esterne

Capitolo 10

451

C'
r'

Figura 10.6: d(C, C 0 ) = r + r0 : circonferenze tangenti esternamente

C'
r'

Figura 10.7: r r0 < d(C, C 0 ) < r + r0 : circonferenze secanti

C'
r'

Figura 10.8: d(C, C 0 ) < r r0 : circonferenze interne

Riduzione a Forma Canonica delle Coniche

452

C'
r'

Figura 10.9: d(C, C 0 ) = r r0 : circonferenze tangenti internamente

10.1.3

Posizione reciproca di due circonferenze


Circonferenza per tre punti

La posizione reciproca di due circonferenze si discute confrontando la distanza tra i loro


centri C e C 0 e la somma e/o la differenza tra i loro raggi r e r0 . Assumendo r0 < r, si
presentano i casi illustrati nelle Figure 10.5, 10.6, 10.7, 10.8, 10.9, 10.10.

C=C'
r'

Figura 10.10: d(C, C 0 ) = 0 : circonferenze concentriche

Capitolo 10

453

Esercizio 10.4 Determinare lequazione della circonferenza passante per i punti:


A = (2, 3),

B = (4, 1),

D = (2, 1).

Soluzione E` ben noto che tre punti non allineati del piano individuano una sola circonferenza. Si lascia per esercizio la verifica che i punti A, B, D assegnati non sono allineati.
Per individuare lequazione della circonferenza passante per A, B, D si pu`o procedere in
due modi. Il centro C e` il circocentro (il punto di incontro degli assi dei lati) del triangolo
ABD, quindi se ne possono individuare le coordinate intersecando, per esempio lasse
del segmento AB con lasse del segmento AD. Il raggio e` la distanza, per esempio, da
C a B . Altrimenti, si possono sostituire in (10.2) le coordinate dei punti dati e risolvere
il sistema lineare cos` ottenuto:

2a + 3b + c = 13
4a + b + c = 17

2a b + c = 5.
La circonferenza richiesta ha pertanto equazione:
x2 + y 2 4x 2y + 1 = 0.
La situazione geometrica e` illustrata nella Figura 10.11.

10.1.4

Fasci di circonferenze

Date le due circonferenze:


C1 : x2 + y 2 21 x 21 y + 1 = 0,
C2 : x2 + y 2 22 x 22 y + 2 = 0,
la loro combinazione lineare:
(x2 + y 2 21 x 21 y + 1 ) + (x2 + y 2 22 x 22 y + 2 ) = 0,

(10.5)

con , R, (, ) 6= (0, 0), rappresenta il fascio di circonferenze individuato da C1 e


C2 . Si osservi che i parametri e sono omogenei, vale a dire e` sufficiente individuare il
loro rapporto per ottenere un solo elemento del fascio. Si osservi, inoltre, che per = 0
si ottiene la circonferenza C2 e per = 0 si ottiene C1 . Da (10.5) si ha:
( + )x2 + ( + )y 2 2(1 + 2 )x 2(1 + 2 )y + (1 + 2 ) = 0 (10.6)
da cui appare evidente la necessit`a di distinguere due casi:

454

Riduzione a Forma Canonica delle Coniche

Figura 10.11: Circonferenza passante per i punti A, B, D

Capitolo 10

455

1. + = 0;
2. + 6= 0,
che saranno discussi separatamente.
1. + = 0 per esempio = 1, = 1; lequazione (10.6) diventa:
2(1 2 )x + 2(1 2 )y 1 + 2 = 0.
Si tratta dellequazione di una retta, che prende il nome di asse radicale del fascio
di circonferenze, ed e` ortogonale al vettore n = (1 2 , 1 2 ). La retta passante
per i centri C1 = (1 , 1 ) e C2 = (2 , 2 ) delle circonferenze C1 e C2 e` parallela al
vettore n. Tale retta prende il nome di asse centrale del fascio di circonferenze. E`
evidente che lasse radicale e` perpendicolare allasse centrale. Nel Paragrafo 10.6.1
sono elencate altre propriet`a dellasse radicale di due circonferenze.
2. + 6= 0; lequazione (10.6) diventa:






1 + 2
1 + 2
1 + 2
2
2
x2
y+
=0
x +y 2
+
+
+
che rappresenta, al variare di e , infinite circonferenze del fascio, con centro:


1 + 2 1 + 2
,
C, =
.
(10.7)
+
+
Si tratta di circonferenze se il raggio e` positivo o nullo, altrimenti si ottengono
circonferenze immaginarie (cfr. Oss. 10.1).
Si elencano alcune propriet`a del fascio di circonferenze individuato da C1 e da C2 di facile
verifica:
1. i centri di tutte le circonferenze del fascio appartengono allasse centrale.
2. Se P0 = (x0 , y0 ) e` un punto appartenente allintersezione di C1 e di C2 , allora P0
verifica lequazione (10.5), quindi P0 e` un punto comune a tutti gli elementi del
fascio.
3. Il fascio di circonferenze riempie il piano nel senso che dato un generico punto
P1 = (x1 , y1 ) del piano e` possibile individuare un elemento del fascio passante
per P1 , infatti e` sufficiente sostituire le coordinate di P1 nellequazione (10.5) e
calcolare il valore dei parametri e .

456

Riduzione a Forma Canonica delle Coniche

Si esaminano ora le propriet`a precedenti in riferimento alla posizione delle circonferenze


C1 e C2 . Si presentano tre casi:
1. C1 e C2 si intersecano in due punti P1 e P2 . Lasse radicale e ogni altra circonferenza del fascio passano per P1 e P2 . I punti P1 e P2 prendono il nome di punti
base del fascio individuato dalle circonferenze C1 e C2 . La situazione geometrica e`
illustrata nella Figura 10.12.

P2

P1

Figura 10.12: Fascio di circonferenze che si intersecano in due punti


2. C1 e C2 si intersecano in un punto P. Lasse radicale e` la retta tangente ad entrambe
le circonferenze e ad ogni altra circonferenza del fascio in P. Il punto P prende il
nome di punto base del fascio individuato dalle circonferenze C1 e C2 . La situazione
geometrica e` illustrata nella Figura 10.13.
3. C1 e C2 non hanno punti di intersezione. Nessun elemento del fascio ha punti
in comune con un altro elemento del fascio, lasse radicale non incontra alcuna
circonferenza del fascio. In questo caso, quindi, non esistono punti base del fascio
individuato da C1 e C2 . La situazione geometrica e` illustrata nella Figura 10.14.
I fasci di circonferenze sono utili (ma non indispensabili) per risolvere alcuni esercizi.
I due esercizi che seguono ne costituiscono un esempio. Si consiglia di risolvere anche
questi esercizi senza fare uso del concetto di fascio di circonferenze.

Capitolo 10

Figura 10.13: Fascio di circonferenze che si intersecano in un punto

Figura 10.14: Fascio di circonferenze che non hanno punti di intersezione

457

Riduzione a Forma Canonica delle Coniche

458

Esercizio 10.5 Determinare lequazione della circonferenza avente centro sulla retta:
s : 2x y = 0
e tangente nel punto A = (2, 0) alla retta s0 : 3x 2y + 6 = 0.
Soluzione La circonferenza richiesta e` un elemento del fascio individuato dalla retta s0
(lasse radicale) e dalla circonferenza di centro A e raggio 0. Ossia:
[(x + 2)2 + y 2 ] + (3x 2y + 6) = 0,
vale a dire:
2

x +y +

4 + 3


x

, R, (, ) 6= (0, 0),

y+4+

6
= 0.

Il centro della generica circonferenza del fascio ha coordinate:




4 + 3
C, =
,
2

che, sostituite nellequazione di s, portano a + = 0. Scegliendo, per esempio, = 1


e = 1 si ha che la circonferenza richiesta ha equazione:
x2 + y 2 + x + 2y 2 = 0.
Si osservi che non ci sono problemi a calcolare il centro del fascio dividendo per . Infatti
per ogni circonferenza del fascio si ha che e` diverso da zero, per = 0 si ottiene solo
lasse radicale.
Esercizio 10.6 Determinare lequazione della circonferenza passante per i punti:
A = (3, 2),

B = (1, 1)

sapendo che lascissa del centro e` 0.


Soluzione La circonferenza richiesta e` un elemento del fascio individuato dalla retta
AB (lasse radicale) e dalla circonferenza di centro il punto medio tra A e B e diametro
AB . La retta AB ha equazione x 4y 5 = 0. Il punto medio tra A e B e` :


3
M = 1, ,
2

la distanza tra A e B e` 17, quindi il fascio considerato ha equazione:


(x2 + y 2 + 2x + 3y 1) + (x 4y 5) = 0,

, R, (, ) 6= (0, 0).

Capitolo 10

459

Il centro della generica circonferenza del fascio ha coordinate:




2 +
3 4
C, =
,
.
2
2
Imponendo:
2 +
=0
2
segue = 2, quindi la circonferenza richiesta e` :

x2 + y 2 + 11y + 9 = 0.

10.2

Le coniche: definizione e propriet`a focali

Si introducono, in questo paragrafo, alcune curve notevoli del piano: lellisse, liperbole e
la parabola, tutte appartenenti alla famiglia delle coniche, come sar`a meglio spiegato nel
Paragrafo 10.4. Le curve saranno presentate come luoghi geometrici di punti (cfr. Par.
10.3 e 10.4) e le loro equazioni saranno ricavate dalla definizione, dopo aver scelto un
opportuno riferimento cartesiano.

10.2.1

Lellisse

Definizione 10.1 Fissati due punti F e F 0 del piano, lellisse e` il luogo dei punti P tali
che:
d(P, F ) + d(P, F 0 ) = 2a,
(10.8)
dove a e` una costante positiva tale che 2a > d(F, F 0 ).
I punti F e F 0 prendono il nome di fuochi dellellisse. La situazione geometrica e`
illustrata nelle Figure 10.15 e 10.16.
Per ricavare lequazione cartesiana dellellisse si sceglie un opportuno sistema di riferimento ponendo lorigine nel punto medio tra F e F 0 e lasse x passante per F ed F 0 , di
conseguenza si assume che i fuochi siano:
F = (c, 0),
E` chiaro che 2c < 2a, il numero:
e=

F 0 = (c, 0).
c
<1
a

460

Riduzione a Forma Canonica delle Coniche

P
F

Figura 10.15: Lellisse come luogo geometrico

Figura 10.16: Rappresentazione grafica della relazione (10.8)

Capitolo 10

461

prende il nome di eccentricit`a dellellisse. Le rette di equazioni:


x=

a
e

sono le direttrici dellellisse, il loro significato geometrico verr`a spiegato nel Paragrafo
10.3. Sia P = (x, y) il generico punto dellellisse, il luogo richiesto ha equazione:
p
p
(x c)2 + y 2 + (x + c)2 + y 2 = 2a,
da cui si ha:
(a2 c2 )x2 + a2 y 2 = a2 (a2 c2 ).
Posto b2 = a2 c2 , si ottiene:

y2
x2
+
= 1,
(10.9)
a2
b2
che e` unequazione dellellisse in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto.
Osservazione 10.2 Per la definizione di equazione dellellisse in forma canonica ed il
suo legame con il concetto di forma quadratica scritta in forma canonica introdotto nel
Paragrafo 8.5 si veda il Paragrafo 10.4. Talvolta lellisse e` anche detta ellisse reale per distinguerla dallellisse immaginaria. Lellisse immaginaria e` rappresentata dallequazione
(in forma canonica):
y2
x2
+
= 1,
a2
b2
che non ammette soluzioni reali.
La curva di equazione (10.9) incontra lasse x nei punti A = (a, 0) e A0 = (a, 0) e
lasse y nei punti B = (0, b) e B 0 = (0, b), questi quattro punti prendono il nome di
vertici dellellisse; lorigine ne e` il centro.
Dallequazione (10.9) si deduce che si tratta di una curva simmetrica ripetto allasse x, allasse y e allorigine, e` pertanto sufficiente studiare la sua equazione nel primo quadrante.
Da (10.9) si ha:
x2
b2 y 2
=
a2
b2
quindi |y| b, analogamente si ottiene |x| a. Il grafico e` , quindi, compreso nel
rettangolo delimitato dalle rette di equazioni x = a e y = b. Poiche:
y=

b2 2
a x2 ,
a2

Riduzione a Forma Canonica delle Coniche

462

intuitivamente si ha che se lascissa del punto P, che descrive la curva, aumenta di valore,
allora la sua ordinata y diminuisce. Si osservi che se a = b, allora c = 0, ogni retta per
lorigine e` asse di simmetria ed in questo caso lellisse e` la circonferenza di centro O e
raggio a.
Esercizio 10.7 Determinare il centro, i fuochi e i vertici delle seguenti ellissi:
E1 : 3x2 + 8y 2 = 12,
E2 : 18x2 + y 2 = 9,
i cui grafici sono rappresentati nelle Figure 10.17 e 10.18, rispettivamente.

!3

!2

!1

!1

!2

Figura 10.17: Esercizio 10.7, ellisse E1


Soluzione

Lellisse E1 si pu`o scrivere come:


x2
y2
+
= 1,
3
4
2

da cui segue che il centro e` lorigine, i vertici sono:


A = (2, 0),

A0 = (2, 0),

B=

!
6
,
0,
2

Poiche c2 = a2 b2 = 5/2, i fuochi hanno coordinate:

B0 =

!
6
0,
.
2

Capitolo 10

463

!1.0 !0.5

0.5

1.0

!1

!2

!3

Figura 10.18: Esercizio 10.7, ellisse E2

F =

10
,0 ,
2

!
10

,0 .
2

F0 =

Lellisse E2 si pu`o scrivere come:


x2
y2
+
= 1,
1
9
2

(10.10)

da cui segue che il centro e` lorigine, ma i fuochi appartengono allasse y in quanto


9 > 1/2. I vertici sono:

A=

!
2
,0 ,
2

A0 =

!
2

,0 ,
2

B = (0, 3),

Poiche c2 = a2 b2 = 9 1/2, i fuochi hanno coordinate:


F =

!
17
0,
,
2

F0 =

!
17
0,
.
2

B 0 = (0, 3).

464

Riduzione a Forma Canonica delle Coniche

Si osservi che lequazione (10.10) non e` scritta nella stessa forma di (10.9). Se si vuole
passare dallequazione (10.10) ad unequazione dello stesso tipo di (10.9) e` necessario
effettuare una rotazione degli assi di /2, in senso antiorario, vale a dire porre:


x
y


=

0 1
1
0



X
Y


(10.11)

P
F

Figura 10.19: Teorema 10.1


e, nel riferimento R0 = (O, X, Y ), lequazione (10.10) diventa:
X2
Y2
+
= 1.
1
9
2
Per lellisse vale la seguente propriet`a, la cui dimostrazione segue da facili considerazioni
geometriche e si pu`o leggere, per esempio, in [8].
Teorema 10.1 La retta tangente ad unellisse, di fuochi F ed F 0, in un suo punto P, e` la
bisettrice delle rette P F e P F 0 .
La situazione geometrica descritta nel teorema e` illustrata nella Figura 10.19.

Capitolo 10

10.2.2

465

Liperbole

Definizione 10.2 Fissati due punti F e F 0 del piano, liperbole e` il luogo dei punti P
tali che:
| d(P, F ) d(P, F 0 ) | = 2a,
(10.12)
dove a e` una costante positiva tale che 2a < d(F, F 0 ).

P
F

Figura 10.20: Liperbole come luogo geometrico


I punti F e F 0 prendono il nome di fuochi delliperbole. La situazione geometrica e`
illustrata nelle Figure 10.20 e 10.21.
Come nel caso dellellisse, si sceglie un opportuno riferimento cartesiano avente lorigine
nel punto medio tra F ed F 0 e lasse x passante per F ed F 0 ; si pone F = (c, 0) e
F 0 = (c, 0). Sia P = (x, y) il generico punto delliperbole, allora (10.12) diventa:
|

(x c)2 + y 2

p
(x + c)2 + y 2 | = 2a.

(10.13)

Elevando due volte al quadrato si perviene a:


(c2 a2 )x2 a2 y 2 = a2 (c2 a2 ).
Poiche c2 > a2 , si pone b2 = c2 a2 , sostituendo nellequazione precedente si ottiene:
x2
y2

=1
a2
b2

(10.14)

466

Riduzione a Forma Canonica delle Coniche

Figura 10.21: Rappresentazione grafica della relazione (10.12)


che e` unequazione delliperbole in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto. Per la definizione di equazione delliperbole in forma
canonica si veda il Paragrafo 10.4. Il numero:
e=

c
>1
a

prende il nome di eccentricit`a delliperbole. Le rette di equazione:


x=

a
e

prendono il nome di direttrici delliperbole; il significato geometrico delleccentricit`a e


delle direttrici verr`a spiegato nel Paragrafo 10.3.
Lequazione (10.14) rappresenta una curva simmetrica rispetto allasse x, allasse y e
allorigine del riferimento. La curva incontra lasse x nei punti:
A1 = (a, 0),

A2 = (a, 0),

detti vertici delliperbole, non ha punti di intersezione con lasse y . Da:


y2
x 2 a2
=
,
b2
a2

Capitolo 10

467

ossia:
y=

b 2
x a2 ,
a

segue che |x| a, quindi non vi sono punti della curva compresi tra le rette di equazioni
x = a. Inoltre, tali rette intersecano la curva in due punti coincidenti, i vertici, quindi
esse sono tangenti alla curva. Da:
x2
y2
=
1
b2
a2
segue, intuitivamente, che il valore dellordinata (in valore assoluto) aumenta allaumentare del valore dellascissa (in valore assoluto). La curva e` cos` divisa in due parti
(simmetriche rispetto allasse y ) che prendono il nome di rami delliperbole.
Si studia lintersezione della curva con una generica retta passante per lorigine (ad eccezione dellasse y che non interseca la curva), quindi si studiano le soluzioni del sistema:
2
y2
x

2 2 =1
a
b

y = px,
al variare di p in R. Sostituendo la seconda equazione nella prima si ottiene:
ab
x = p
b 2 a2 p 2
da cui segue che lesistenza delle soluzioni dipende dal radicando b2 a2 p2 . Si distinguono i seguenti casi:
1. Se |p| < b/a, le rette incontrano la curva in due punti distinti.
2. Se |p| > b/a, le rette non intersecano la curva.
3. Le rette:
b
y= x
a
costituiscono un caso limite tra le due situazioni 1. e 2.. Tali rette prendono il
nome di asintoti delliperbole. Per meglio descrivere il comportamento della curva
rispetto agli asintoti si consideri la differenza tra le ordinate del punto P0 = (x, y0 )

468

Riduzione a Forma Canonica delle Coniche

appartenente allasintoto, e il punto P1 = (x, y1 ) appartenente alla curva aventi la


stessa ascissa, ossia:
y0 y1 =

b
ab

x x 2 a2 =
.
a
x + x 2 a2

Quando P1 si allontana indefinitamente sulliperbole, la sua ascissa x cresce sempre di pi`u ed allora lultima frazione, avendo il numeratore costante e il denominatore che aumenta via via, diminuisce sempre di pi`u. Pi`u precisamente:
lim

ab

= 0.
x + x 2 a2

La situazione geometrica e` illustrata nella Figura 10.22.

P0
P1

Figura 10.22: Liperbole e i suoi asintoti


Esercizio 10.8 Si calcolino i vertici, i fuochi e gli asintoti delle seguenti iperboli:
I1 :

4 2
x 25y 2 = 1,
9

I2 : 9x2 4y 2 = 36,
I3 : 4x2 3y 2 = 5,

Capitolo 10

469

i cui grafici sono rispettivamente rappresentati nelle Figure 10.23, 10.24 e 10.25.
2
1

!4

!2

!1
!2

Figura 10.23: Esercizio 10.8, iperbole I1

!6

!4

!2

!2

!4

Figura 10.24: Esercizio 10.8, iperbole I2


Soluzione

Per quanto riguarda liperbole I1 i vertici sono:






3
3
0
A=
,0 , A = ,0 ;
2
2

i fuochi sono:
F =

229
,0 ,
10

F0 =

!
229

,0 ,
10

Riduzione a Forma Canonica delle Coniche

470

!6

!4

!2

!2

!4

Figura 10.25: Esercizio 10.8, iperbole I3


gli asintoti hanno equazioni:
y=

2
x.
15

Per quanto
liperbole
I2 i vertici sono A = (2, 0), A0 = (2, 0); i fuochi sono

riguarda
0
F = ( 13, 0), F = ( 13, 0), gli asintoti hanno equazioni:
3
y = x,
2
si osservi che, in questo caso b > a, come si pu`o evincere dalla Figura 10.24, rispetto
alliperbole rappresentata nella Figura 10.23 in cui b < a.
Per quanto riguarda liperbole I3 lequazione diventa:
y2
x2

= 1;
5
5
3
4
analogamente al caso dellEsercizio 10.7, per scrivere lequazione nella forma (10.14) e`
necessario effettuare il cambiamento di riferimento dato da (10.11). Di conseguenza, nel
riferimento iniziale R = (O, x, y), i vertici sono:

Capitolo 10

A=

!
5
0, ,
3

471

A0 =

!
5
0, ,
3

F0 =

!
35
0,
12

i fuochi sono:
F =

!
35
0,
,
12

e gli asintoti hanno equazioni:

x=

3
y.
2

Se nellequazione (10.14) si pone a = b si ottiene:


x 2 y 2 = a2 ,

(10.15)

i fuochi hanno coordinate F = ( 2 a, 0) e F 0 = ( 2 a, 0), gli asintoti hanno equazioni


y = x, ossia coincidono con le bisettrici del I e III quadrante e del II e IV quadrante e
liperbole prende il nome di iperbole equilatera. La Figura 10.26 illustra alcune iperboli
equilatere, ottenute variando il p