Sei sulla pagina 1di 718

Algebra Lineare e Geometria Analitica

Volume I

E. Abbena, A.M. Fino, G.M. Gianella

24 settembre 2011
2
3

Prefazione
Con l’attivazione delle lauree triennali, i corsi universitari hanno subı̀to una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso l’Università di Torino, costituisce ora
un testo completo che può essere anche utilizzato nelle Facoltà di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo più tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
Il testo è di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po’ di-
verso per stile ed impostazione dagli usuali testi universitari del settore, al fine di soste-
nere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore
all’Università.
In quasi tutti i capitoli del primo volume è stato inserito un paragrafo dal titolo “Per
saperne di più” non solo per soddisfare la curiosità del Lettore ma con il preciso obiettivo
di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno
occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree
Triennali e Magistrali.
Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro,
saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base
per la maggior parte delle discipline scientifiche, rendendola appassionante.
La figure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico
Mathematica, versione 7. Alcuni esercizi proposti sono particolarmente adatti ad essere
risolti con Mathematica o con Maple.
Per suggerimenti, osservazioni e chiarimenti si invita a contattare gli Autori agli indirizzi
e-mail: elsa.abbena@unito.it, annamaria.fino@unito.it, gianmario.gianella@unito.it.
4

II di copertina: Ringraziamenti

Grazie ai Colleghi di Geometria del Dipartimento di Matematica dell’Università di Torino


per il loro prezioso contributo.
Grazie al Prof. S.M. Salamon per tanti utili suggerimenti e per la realizzazione di molti
grafici. Grazie ai Proff. Sergio Console, Federica Galluzzi, Sergio Garbiero e Mario
Valenzano per aver letto il manoscritto.
Un ringraziamento particolare agli Studenti del Corso di Studi in Fisica dell’Univer-
sità di Torino, la loro partecipazione attiva e il loro entusiasmo hanno motivato questa
esperienza.
5

IV di copertina

Gli autori
Elsa Abbena, professore associato di Geometria presso la Facoltà di Scienze Matematiche
Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca su argomenti
di geometria differenziale. Ha tenuto innumerevoli corsi di algebra e di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Anna Fino, professore associato di Geometria presso la Facoltà di Scienze Matematiche
Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca su argomenti
di geometria differenziale e complessa. Ha tenuto per vari anni un corso di geometria e
algebra lineare presso il corso di Laurea in Fisica.
Gian Mario Gianella, professore associato di Geometria presso la Facoltà di Scienze
Matematiche Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca
su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei grafi e
più recentemente della teoria dei numeri. Ha tenuto innumerevoli corsi di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.

L’opera
Con l’attivazione delle lauree triennali, i corsi universitari hanno subı̀to una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso l’Università di Torino, costituisce ora
un testo completo che può essere anche utilizzato nelle Facoltà di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo più tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
6
Indice

1 Sistemi Lineari 15
1.1 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . . 29

2 Matrici e Determinanti 33
2.1 Somma di matrici e prodotto di un numero reale per una matrice . . . . 33
2.2 Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 I sistemi lineari in notazione matriciale . . . . . . . . . . . . . . 40
2.3 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 La trasposta di una matrice . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . . . . . . 44
2.6 Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6.1 Calcolo della matrice inversa, primo metodo . . . . . . . . . . . 50
2.7 La traccia di una matrice quadrata . . . . . . . . . . . . . . . . . . . . 55
2.8 Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.8.1 I Teoremi di Laplace.
Un’altra definizione di rango di una matrice . . . . . . . . . . . 64
2.8.2 Calcolo della matrice inversa, secondo metodo . . . . . . . . . . 67
2.8.3 Il Teorema di Cramer . . . . . . . . . . . . . . . . . . . . . . . 69
2.9 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

3 Calcolo Vettoriale 75
3.1 Definizione di vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Somma di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3 Il prodotto di un numero reale per un vettore . . . . . . . . . . . . . . . 82
3.4 Dipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . . . . . . 84

7
8 INDICE

3.5 Il cambiamento di base in V3 . . . . . . . . . . . . . . . . . . . . . . . 97


3.6 Angolo tra due vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.7 Operazioni non lineari tra vettori . . . . . . . . . . . . . . . . . . . . . 101
3.7.1 Il prodotto scalare di due vettori . . . . . . . . . . . . . . . . . 101
3.7.2 Il prodotto vettoriale di due vettori . . . . . . . . . . . . . . . . 113
3.7.3 Il prodotto misto di tre vettori . . . . . . . . . . . . . . . . . . . 120
3.8 Cambiamento di basi ortonormali in V3 e in V2 . . . . . . . . . . . . . 124
3.9 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.10 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3.10.1 Un’altra definizione di vettore . . . . . . . . . . . . . . . . . . 132
3.10.2 Ulteriori proprietà delle operazioni tra vettori . . . . . . . . . . 133

4 Spazi Vettoriali e Sottospazi Vettoriali 137


4.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.2.1 Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . . . 141
4.2.2 Intersezione e somma di sottospazi vettoriali . . . . . . . . . . . 145
4.3 Generatori, basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . 151
4.3.1 Base di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 151
4.3.2 Basi e somma diretta . . . . . . . . . . . . . . . . . . . . . . . 164
4.3.3 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . 168
4.3.4 Il cambiamento di base . . . . . . . . . . . . . . . . . . . . . . 178
4.3.5 Iperpiani vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 180
4.4 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 182
4.5 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
4.5.1 Equazioni vettoriali e Teorema del Rango . . . . . . . . . . . . 190
4.5.2 Equivalenza tra due definizioni di rango di una matrice . . . . . 195
4.5.3 Spazi vettoriali complessi,
matrici hermitiane e anti-hermitiane . . . . . . . . . . . . . . . 197

5 Spazi Vettoriali Euclidei 203


5.1 Definizione di prodotto scalare . . . . . . . . . . . . . . . . . . . . . . 203
5.2 Norma di un vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
5.3 Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
5.4 Il complemento ortogonale . . . . . . . . . . . . . . . . . . . . . . . . 221
5.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 225
INDICE 9

5.5.1 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . 229


5.5.2 Spazi vettoriali hermitiani . . . . . . . . . . . . . . . . . . . . . 229

6 Applicazioni Lineari 237


6.1 Matrice associata ad un’applicazione lineare.
Equazioni di un’applicazione lineare . . . . . . . . . . . . . . . . . . . 240
6.2 Cambiamenti di base e applicazioni lineari . . . . . . . . . . . . . . . . 248
6.3 Immagine e controimmagine di sottospazi vettoriali . . . . . . . . . . . 250
6.4 Operazioni tra applicazioni lineari . . . . . . . . . . . . . . . . . . . . 262
6.5 Sottospazi vettoriali invarianti . . . . . . . . . . . . . . . . . . . . . . . 267
6.6 Applicazione lineare aggiunta.
Endomorfismi autoaggiunti . . . . . . . . . . . . . . . . . . . . . . . . 270
6.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 273
6.8 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
6.8.1 Forme lineari - dualità . . . . . . . . . . . . . . . . . . . . . . 278
6.8.2 Cambiamento di base in V ⇤ . . . . . . . . . . . . . . . . . . . . 281
6.8.3 Spazio vettoriale biduale . . . . . . . . . . . . . . . . . . . . . 283
6.8.4 Dualità nel caso degli spazi vettoriali euclidei . . . . . . . . . . 287
6.8.5 Trasposta di un’applicazione lineare . . . . . . . . . . . . . . . 288
6.8.6 Endomorfismi autoaggiunti e matrici hermitiane . . . . . . . . . 292
6.8.7 Isometrie, similitudini, trasformazioni unitarie . . . . . . . . . . 293

7 Diagonalizzazione 303
7.1 Autovalori e autovettori di un endomorfismo . . . . . . . . . . . . . . . 303
7.2 Determinazione degli autovalori e degli autospazi . . . . . . . . . . . . 307
7.3 Endomorfismi diagonalizzabili.
Matrici diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . 314
7.4 Il Teorema Spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
7.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 323
7.6 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
7.6.1 Diagonalizzazione simultanea . . . . . . . . . . . . . . . . . . . 328
7.6.2 Il Teorema di Cayley–Hamilton . . . . . . . . . . . . . . . . . . 333
7.6.3 Teorema Spettrale e endomorfismi autoaggiunti.
Caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . 336
7.6.4 Autovalori delle isometrie, similitudini,
trasformazioni unitarie . . . . . . . . . . . . . . . . . . . . . . 340
10 INDICE

8 Forme Bilineari e Forme Quadratiche 343


8.1 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . . . . 343
8.1.1 Matrice associata ad una forma bilineare simmetrica . . . . . . . 346
8.2 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
8.3 Nucleo e vettori isotropi . . . . . . . . . . . . . . . . . . . . . . . . . . 355
8.4 Classificazione di una forma quadratica . . . . . . . . . . . . . . . . . . 366
8.5 Forme canoniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
8.6 La segnatura di una forma quadratica . . . . . . . . . . . . . . . . . . . 379
8.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 384
8.8 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392
8.8.1 Forme bilineari simmetriche ed endomorfismi autoaggiunti . . . 392
8.8.2 Forme bilineari simmetriche e spazio vettoriale duale . . . . . . 395
8.8.3 Altri metodi di classificazione di una forma quadratica . . . . . 396
8.8.4 Il determinante come forma p-lineare . . . . . . . . . . . . . . 401

9 Geometria Analitica nel Piano 407


9.1 Il riferimento cartesiano, generalità . . . . . . . . . . . . . . . . . . . . 407
9.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 410
9.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . 410
9.1.3 Baricentro di un triangolo . . . . . . . . . . . . . . . . . . . . . 410
9.2 Luoghi geometrici del piano . . . . . . . . . . . . . . . . . . . . . . . . 411
9.3 Riferimento polare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
9.4 Traslazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416
9.5 Simmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
9.5.1 Curva simmetrica rispetto all’asse delle ordinate . . . . . . . . . 419
9.5.2 Curva simmetrica rispetto all’asse delle ascisse . . . . . . . . . 420
9.5.3 Curva simmetrica rispetto all’origine . . . . . . . . . . . . . . . 420
9.6 Retta nel piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
9.6.1 Retta per un punto parallela ad un vettore . . . . . . . . . . . . 423
9.6.2 Retta per un punto ortogonale ad un vettore . . . . . . . . . . . 424
9.6.3 Retta per due punti distinti . . . . . . . . . . . . . . . . . . . . 426
9.6.4 Rette particolari . . . . . . . . . . . . . . . . . . . . . . . . . . 428
9.6.5 Il coefficiente angolare ed il suo legame con a, b, c . . . . . . . . 428
9.7 Parallelismo, ortogonalità, angoli e distanze . . . . . . . . . . . . . . . 430
9.7.1 Condizione di parallelismo tra rette . . . . . . . . . . . . . . . . 430
INDICE 11

9.7.2 Condizione di perpendicolarità tra rette . . . . . . . . . . . . . . 431


9.7.3 Angolo tra due rette . . . . . . . . . . . . . . . . . . . . . . . . 433
9.7.4 Posizione reciproca di due rette nel piano . . . . . . . . . . . . 433
9.7.5 Distanza di un punto da una retta . . . . . . . . . . . . . . . . . 436
9.8 Fasci di rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
9.9 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 440
9.10 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
9.10.1 Rette immaginarie . . . . . . . . . . . . . . . . . . . . . . . . . 443

10 Riduzione a Forma Canonica delle Coniche 447


10.1 La circonferenza nel piano . . . . . . . . . . . . . . . . . . . . . . . . 447
10.1.1 Posizione reciproca tra una retta e una circonferenza . . . . . . . 449
10.1.2 Retta tangente ad una circonferenza in un suo punto . . . . . . . 451
10.1.3 Posizione reciproca di due circonferenze
Circonferenza per tre punti . . . . . . . . . . . . . . . . . . . . 454
10.1.4 Fasci di circonferenze . . . . . . . . . . . . . . . . . . . . . . . 455
10.2 Le coniche: definizione e proprietà focali . . . . . . . . . . . . . . . . . 461
10.2.1 L’ellisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461
10.2.2 L’iperbole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467
10.2.3 Iperbole equilatera riferita agli asintoti . . . . . . . . . . . . . . 476
10.2.4 La parabola . . . . . . . . . . . . . . . . . . . . . . . . . . . . 478
10.2.5 Coniche e traslazioni . . . . . . . . . . . . . . . . . . . . . . . 483
10.3 Le coniche: luoghi geometrici di punti . . . . . . . . . . . . . . . . . . 487
10.4 Le coniche: equazioni di secondo grado,
riduzione delle coniche in forma canonica . . . . . . . . . . . . . . . . 494
10.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 510
10.6 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514
10.6.1 Potenza di un punto rispetto ad una circonferenza . . . . . . . . 514
10.6.2 Equazioni parametriche delle coniche . . . . . . . . . . . . . . 516
10.6.3 Le coniche in forma polare . . . . . . . . . . . . . . . . . . . . 518
10.6.4 Retta tangente ad una conica in un suo punto . . . . . . . . . . . 520

11 Geometria Analitica nello Spazio 525


11.1 Il riferimento cartesiano nello spazio . . . . . . . . . . . . . . . . . . . 525
11.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 526
11.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . 527
12 INDICE

11.1.3 Baricentro di un triangolo e di un tetraedro . . . . . . . . . . . . 527


11.1.4 Area di un triangolo e volume di un tetraedro . . . . . . . . . . 527
11.2 Rappresentazione di un piano nello spazio . . . . . . . . . . . . . . . . 528
11.2.1 Piano per un punto ortogonale ad un vettore . . . . . . . . . . . 528
11.2.2 Piano per un punto parallelo a due vettori . . . . . . . . . . . . 530
11.2.3 Piano per tre punti non allineati . . . . . . . . . . . . . . . . . . 533
11.3 Rappresentazione della retta nello spazio . . . . . . . . . . . . . . . . . 535
11.3.1 Retta per un punto parallela ad un vettore . . . . . . . . . . . . 535
11.3.2 Retta per due punti distinti . . . . . . . . . . . . . . . . . . . . 538
11.3.3 Posizione reciproca di due piani.
Retta come intersezione di due piani . . . . . . . . . . . . . . . 540
11.4 Posizioni reciproche tra rette e piani . . . . . . . . . . . . . . . . . . . 542
11.4.1 Posizione reciproca di tre piani . . . . . . . . . . . . . . . . . . 543
11.4.2 Posizione reciproca tra retta e piano . . . . . . . . . . . . . . . 545
11.4.3 Posizione reciproca di due rette nello spazio . . . . . . . . . . . 547
11.5 Fasci di piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 549
11.6 Distanze e angoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552
11.6.1 Distanza di un punto da un piano . . . . . . . . . . . . . . . . . 553
11.6.2 Distanza di un punto da una retta . . . . . . . . . . . . . . . . . 555
11.6.3 Minima distanza tra due rette sghembe.
Perpendicolare comune a due rette sghembe . . . . . . . . . . . 555
11.6.4 Angolo tra due rette . . . . . . . . . . . . . . . . . . . . . . . . 560
11.6.5 Angolo tra retta e piano . . . . . . . . . . . . . . . . . . . . . . 560
11.6.6 Angolo tra due piani . . . . . . . . . . . . . . . . . . . . . . . . 560
11.7 Sfera e posizione reciproca con rette e piani . . . . . . . . . . . . . . . 563
11.7.1 Sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 563
11.7.2 Posizione reciproca tra piano e sfera . . . . . . . . . . . . . . . 564
11.7.3 Posizione reciproca tra retta e sfera . . . . . . . . . . . . . . . . 567
11.8 La circonferenza nello spazio . . . . . . . . . . . . . . . . . . . . . . . 569
11.9 Posizione reciproca tra due sfere.
Fasci di sfere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574
11.10 Coordinate sferiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583
11.11 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 586
11.12 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595
11.12.1 Baricentro geometrico di punti . . . . . . . . . . . . . . . . . . 595
INDICE 13

11.12.2 Potenza di un punto rispetto ad una sfera . . . . . . . . . . . . . 599


11.12.3 Sfere in dimensione quattro . . . . . . . . . . . . . . . . . . . . 601

12 Coni, Cilindri, Superfici di Rotazione e Quadriche 605


12.1 Cenni sulla rappresentazione di curve e superfici . . . . . . . . . . . . . 605
12.2 Il cono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 607
12.2.1 Cono tangente ad una sfera . . . . . . . . . . . . . . . . . . . . 618
12.2.2 Proiezione di una curva da un punto su un piano . . . . . . . . . 620
12.3 Il cilindro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 622
12.3.1 Cilindri con assi paralleli agli assi coordinati . . . . . . . . . . . 626
12.3.2 Cilindro circoscritto ad una sfera . . . . . . . . . . . . . . . . . 632
12.3.3 Proiezione di una curva su un piano secondo una direzione
assegnata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 636
12.3.4 Coordinate cilindriche . . . . . . . . . . . . . . . . . . . . . . . 638
12.4 Superfici di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 640
12.5 Cenni sulle superfici rigate . . . . . . . . . . . . . . . . . . . . . . . . 653
12.6 Quadriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 656
12.6.1 Quadriche rigate . . . . . . . . . . . . . . . . . . . . . . . . . . 673
12.6.2 L’iperboloide ad una falda . . . . . . . . . . . . . . . . . . . . 674
12.6.3 Il paraboloide iperbolico . . . . . . . . . . . . . . . . . . . . . 681
12.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 685
12.8 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 695
12.8.1 Piano tangente ad una quadrica in un suo punto . . . . . . . . . 695

Bibliografia 702

Indice dei Simboli 705

Indice Analitico 708


14 INDICE
Capitolo 1

Sistemi Lineari

In questo capitolo si introducono le nozioni di sistema lineare, di matrici associate ad un


sistema lineare e si enuncia il Teorema di Rouché–Capelli i cui dettagli e la dimostrazione
sono rimandate al Paragrafo 4.3. In tutto il testo, salvo indicazione contraria, il campo dei
numeri su cui sono introdotte le definizioni, su cui sono dimostrati i teoremi e risolti gli
esercizi è il campo dei numeri reali R.

1.1 Equazioni lineari


Definizione 1.1 Un’equazione lineare nelle incognite x1 , x2 , . . . , xn è un’espressione del
tipo:

a1 x1 + a2 x2 + . . . + an xn = b, (1.1)

dove i numeri reali ai , i = 1, 2, . . . , n, sono detti coefficienti e il numero reale b prende


il nome di termine noto. L’equazione si dice lineare in quanto ogni incognita xi compare
a primo grado.

Definizione 1.2 Una soluzione dell’equazione lineare (1.1) è una n-upla di numeri reali:

(x01 , x02 , . . . , x0n )


che, sostituita alle incognite x1 , x2 , . . . , xn , verifica l’equazione, cioè:

a1 x01 + a2 x02 + . . . + an x0n = b.

Risolvere un’equazione significa determinarne tutte le soluzioni.

15
16 Sistemi Lineari

Esempio 1.1 L’equazione lineare nelle incognite x1 , x2 , x3 , x4 :


2x1 + 3x2 x3 + 4x4 = 5
ammette infinite soluzioni, che dipendono da tre incognite libere, che per maggiore chia-
rezza si pongono uguali a tre parametri reali, si ha:
8
>
> x1 = t1
<
x2 = t2
>
> x3 = 5 + 2t1 + 3t2 + 4t3
:
x4 = t3 , t1 , t2 , t3 2 R;
oppure, equivalentemente, l’insieme delle soluzioni S è dato da:

S = {(x1 , x2 , x3 , x4 ) = (t1 , t2 , 5 + 2t1 + 3t2 + 4t3 , t3 ) | t1 , t2 , t3 2 R}.

Si osservi che, risolvendo l’equazione rispetto ad un’altra incognita, si ottiene lo stesso


insieme di soluzioni (solo rappresentato in modo diverso).
Definizione 1.3 L’equazione lineare (1.1) si dice omogenea se il termine noto b è nullo.
È chiaro che un’equazione lineare è omogenea se e solo se ammette la soluzione nulla,
cioè la soluzione formata da tutti zeri (0, 0, . . . , 0) ma, in generale, un’equazione lineare
omogenea può ammettere anche soluzioni non nulle, come nell’esempio seguente.
Esempio 1.2 L’equazione lineare omogenea nelle incognite x, y :
2x 3y = 0
ammette infinite soluzioni che dipendono da un’incognita libera, date da:
✓ ◆
2
(x, y) = t, t , t 2 R.
3
Si osservi che la soluzione nulla (0, 0) si ottiene ponendo t = 0.

1.2 Sistemi lineari


Un sistema lineare di m equazioni in n incognite x1 , x2 , . . . , xn è un insieme di equazioni
lineari del tipo:
8
>
> a11 x1 + a12 x2 + . . . . . . + a1n xn = b1
>
< a21 x1 + a22 x2 + . . . . . . + a2n xn = b2
.. (1.2)
>
> .
>
: a x + a x + . . . . . . + a x = b , a 2 R, b 2 R.
m1 1 m2 2 mn n m ij i
Capitolo 1 17

I coefficienti aij , i = 1, 2, . . . , m, j = 1, 2, . . . , n, sono dotati di due indici per agevolare


il riconoscimento della loro posizione nel sistema lineare. Il primo indice (indice di riga),
in questo caso i, indica il numero dell’equazione in cui il coefficiente compare, il secondo
indice (indice di colonna), in questo caso j , stabilisce il numero dell’incognita di cui aij
è il coefficiente. Per esempio a23 è il coefficiente della terza incognita nella seconda
equazione. I termini noti bi , i = 1, 2, . . . , m, hanno solo un’indice essendo unicamente
riferiti al numero dell’equazione in cui compaiono. Il sistema considerato è lineare in
quanto ogni equazione che lo compone è lineare. Analogamente al caso delle equazioni,
un sistema lineare si dice omogeneo se tutte le sue equazioni hanno termine noto nullo,
cioè se bi = 0, per ogni i = 1, 2, . . . , m.

Anche in questo caso vale la seguente definizione.

Definizione 1.4 Una soluzione di un sistema lineare di m equazioni in n incognite è una


n-upla di numeri reali:
(x01 , x02 , . . . , x0n )
che, sostituita ordinatamente alle incognite, verifica tutte le equazioni del sistema, cioè:
8
>
> a11 x01 + a12 x02 + . . . . . . + a1n x0n = b1
>
>
>
< a21 x01 + a22 x02 + . . . . . . + a2n x0n = b2
> ..
>
>
> .
>
: a x0 + a x0 + . . . . . . + a x0 = b .
m1 1 m2 2 mn n m

Risolvere un sistema lineare significa determinarne tutte le soluzioni.

È chiaro che ogni sistema lineare è omogeneo se e solo se ammette la soluzione nulla
(0, 0, . . . , 0), formata da tutti zeri.

Definizione 1.5 Un sistema lineare si dice compatibile se ammette soluzioni, altrimenti


è incompatibile.

Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si darà ampio spazio
al metodo di riduzione di Gauss in quanto più veloce (anche dal punto di vista computa-
zionale). L’idea di base del metodo di Gauss è quella di trasformare il sistema lineare di
partenza in un altro sistema lineare ad esso equivalente ma molto più semplice, tenendo
conto della seguente definizione.

Definizione 1.6 Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.
18 Sistemi Lineari

Prima di iniziare la trattazione teorica si consideri il seguente esempio.

Esempio 1.3 Risolvere il seguente sistema lineare di due equazioni in due incognite
usando il metodo di riduzione: ⇢
x+y =4
2x 3y = 7.

Il sistema lineare dato è equivalente a:



x+y =4
2(x + y) (2x 3y) = 2 · 4 7,

ossia: ⇢
x+y =4
5y = 1
che ammette come unica soluzione (19/5, 1/5).

Il metodo usato per risolvere l’esempio precedente è conseguenza del seguente teorema.

Teorema 1.1 Eseguendo un numero finito di volte le tre operazioni sotto elencate:
1. scambiare tra loro due equazioni,
2. moltiplicare un’equazione per un numero reale diverso da zero,
3. sostituire ad un’equazione la somma di se stessa con un’altra equazione moltipli-
cata per un qualsiasi numero reale
si ottiene un sistema lineare equivalente a quello di partenza.

Dimostrazione È ovvio che scambiando tra loro due equazioni si ottiene un sistema
lineare equivalente a (1.2).
Per la seconda operazione, si dimostra che il sistema lineare (1.2) è equivalente al siste-
ma lineare che si ottiene sostituendo alla prima equazione se stessa moltiplicata per un
numero reale 6= 0. Si osservi che se tale sostituzione avviene per la i-esima equazione
è sufficiente operare con la prima operazione per ricondursi al caso in esame. In altri
termini si prova che (1.2) è equivalente al sistema lineare:
8
>
> (a11 x1 + a12 x2 + . . . . . . + a1n xn ) = b1
>
< a21 x1 + a22 x2 + . . . . . . + a2n xn = b2
.. (1.3)
>
> .
>
: a x + a x + ...... + a x = b ,
m1 1 m2 2 mn n m 6= 0.

Per la dimostrazione si deve procedere in due passi.


Capitolo 1 19

1. Ipotesi: (x01 , x02 , . . . , x0n ) è soluzione di (1.2).


Tesi: (x01 , x02 , . . . , x0n ) è soluzione di (1.3).

2. Ipotesi: (x01 , x02 , . . . , x0n ) è soluzione di (1.3).


Tesi: (x01 , x02 , . . . , x0n ) è soluzione di (1.2).

1. La dimostrazione è ovvia e vale per ogni numero reale (non necessariamente


6= 0.)

2. È sufficiente dimostrare la tesi per la prima equazione di (1.2). Per ipotesi si ha:

(a11 x01 + a12 x02 + . . . . . . + a1n x0n ) = b1 ,

essendo 6= 0 si possono dividere ambo i membri dell’identità precedente per ,


da cui segue la tesi.

Per dimostrare l’equivalenza nel caso dell’operazione 3. si procede in modo analogo a


quanto descritto nel caso precedente.

Esempio 1.4 I due sistemi lineari seguenti non sono equivalenti:


⇢ ⇢
x+y =4 x+y =4
2x 3y = 7, 0(2x 3y) + 2(x + y) = 0 · 7 + 2 · 4.

Infatti non è consentito sostituire alla seconda equazione il prodotto di se stessa per il
numero 0, anche se si mantiene inalterata la prima equazione.

Si osservi che le operazioni descritte nel Teorema 1.1 agiscono linearmente solo sui coef-
ficienti del sistema lineare e non sulle incognite. Ciò suggerisce di sostituire ad un sistema
lineare una “tabella” dei coefficienti e dei temini noti ed operare solo su questa. Viene
illustrato ora questo procedimento mediante l’Esempio 1.3.
Al sistema lineare:

x+y =4
2x 3y = 7
si associa la tabella:
✓ ◆
1 1 4
(1.4)
2 3 7
20 Sistemi Lineari

con le due righe:

R1 = 1 1 | 4 , R2 = 2 3 | 7

e le tre colonne:
✓ ◆ ✓ ◆ ✓ ◆
1 1 4
C1 = , C2 = , C3 = .
2 3 7

Successivamente si opera su di essa sostituendo alla seconda riga R2 se stessa a cui si


sottrae il prodotto di due volte la prima, cioè R2 ! R2 2R1 , ottenendo cosı̀:
✓ ◆
1 1 4
,
0 5 1
che corrisponde al sistema lineare ridotto:

x+y =4
5y = 1.

Benché la definizione intuitiva di sistema lineare ridotto sia evidente, si enuncerà la


definizione formale più avanti.

La tabella (1.4) prende il nome di matrice completa del sistema lineare, o matrice dei
coefficienti e termini noti. Il tratto verticale prima dell’ultima sua colonna intende solo
distinguere i coefficienti del sistema lineare dai termini noti. Il termine matrice indica, in
generale, una tabella di numeri, a prescindere dall’uso relativo ai sistemi lineari. La trat-
tazione generale delle matrici è rimandata al capitolo successivo, introducendo ora solo
alcune nozioni elementari. È evidente che il numero delle righe della matrice completa
associata ad un sistema lineare coincide con il numero delle equazioni del sistema lineare,
il numero delle colonne è pari al numero delle incognite aumentato di una unità, che corri-
sponde alla colonna formata dai termini noti. Le operazioni di riduzione che permettono
di trasformare un sistema lineare in un sistema lineare ridotto ad esso equivalente (cfr.
Teor. 1.1) si traducono sulle righe della matrice in modo ovvio e si possono riassumere,
rispettivamente con le seguenti notazioni:

1. Ri ! Rj ,

2. Ri ! Ri , 2 R, 6= 0,

3. Ri ! Ri + Rj , 2 R, i 6= j,

dove Ri e Rj indicano rispettivamente la i–esima riga e la j –esima riga.


Capitolo 1 21

In generale, al sistema lineare (1.2) si associano due matrici, una matrice A di m righe e
n colonne: 0 1
a11 a12 . . . a1n
B a21 a22 . . . a2n C
B C
A = B .. .. .. C (1.5)
@ . . . A
am1 am2 · · · amn

detta matrice dei coefficienti, e una matrice (A | B) di m righe e n + 1 colonne:


0 1
a11 a12 . . . a1n b1
B a21 a22 . . . a2n b2 C
B C
(A | B) = B .. .. .. .. C
@ . . . . A
am1 am2 · · · amn bm
detta matrice completa.

Esempio 1.5 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
8
< x + y + 2z = 9
2x + 4y 3z = 1
:
3x + 6y 5z = 0
la matrice completa (formata da tre righe e quattro colonne) è:
0 1
1 1 2 9
@ 2 4 3 1 A.
3 6 5 0
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:
0 1 0 1
! 1 1 2 9 1 1 2 9
!
R2 ! R2 2R1 @ 0 2 7 17 A @ 0 2 7 17 A,
R3 ! 2R3 3R2
R3 ! R3 3R1 0 3 11 27 0 0 1 3
da cui si perviene al sistema lineare:
8
< x + y + 2z = 9
2y 7z = 17
:
z = 3,
che ammette una sola soluzione: 8
< x=1
y=2
:
z = 3.
22 Sistemi Lineari

Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
8
< x1 + x2 x3 = 1
2x1 + 2x2 + x3 = 0
:
x1 + x2 + 2x3 = 1

la matrice completa è: 0 1


1 1 1 1
@ 2 2 1 0 A.
1 1 2 1
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:
0 1 0 1
! 1 1 1 1 1 1 1 1
@ A ! @
R2 ! R2 2R1 0 0 3 2 0 0 3 2 A,
R3 ! R3 R2
R3 ! R3 R1 0 0 3 2 0 0 0 0
da cui si perviene al sistema lineare:

x1 + x2 x3 = 1
3x3 = 2,

che ammette infinite soluzioni che dipendono da un’incognita libera x2 , per maggiore
chiarezza si pone x2 uguale ad un parametro t che quindi può assumere ogni valore reale:
8
> x1 = 1 t
>
>
>
> 3
>
>
<
x2 = t
>
>
>
>
>
> 2
>
: x3 = , t 2 R.
3

Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
8
< x1 + x2 = 1
2x1 + x2 + 3x3 = 2
:
x1 + 2x2 + 3x3 = 1

la matrice completa è: 0 1


1 1 0 1
@ 2 1 3 2 A.
1 2 3 1
Capitolo 1 23

Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:


0 1 0 1
! 1 1 0 1 ! 1 1 0 1
R2 ! R2 + 2R1 @ 0 3 3 0 A R2 ! (1/3)R2 @ 0 1 1 0 A
R3 ! R3 + R1 0 3 3 2 R3 ! R3 R2 0 0 0 2
da cui si perviene al sistema lineare:
8
< x1 + x2 = 1
x2 + x3 = 0
:
0= 2
che è chiaramente incompatibile.
Gli esempi studiati impongono la definizione formale della matrice associata all’ultimo
sistema lineare che si ottiene, ossia della matrice associata ad un sistema lineare ridotto
equivalente a quello di partenza.
Definizione 1.7 Una matrice si dice ridotta per righe se in ogni sua riga non nulla esiste
un elemento non nullo al di sotto del quale vi sono tutti zeri.
Esempio 1.8 La matrice: 0 1
1 2 0
@ 1 0 1 A
1 0 0
è ridotta per righe, mentre la matrice:
0 1
1 2 1
@ 1 0 0 A
1 1 1
non lo è.
Segue, in modo naturale, la definizione annunciata di sistema lineare ridotto.
Definizione 1.8 Un sistema lineare si dice ridotto se la matrice dei coefficienti ad esso
associata è ridotta per righe.
Osservazione 1.1 Se la matrice dei coefficienti associata ad un sistema lineare è ridotta
per righe ma non lo è la matrice completa, è sufficiente operare sulla colonna dei termini
noti per pervenire ad una matrice completa ridotta per righe, per esempio:
0 1 0 1
1 2 3 1 1 2 3 1
B 0 1 2 2 C ! B 0 1 2 2 C
(A | B) = B
@ 0 0
C B C.
0 3 A R4 ! 4R3 3R4 @ 0 0 0 3 A
0 0 0 4 0 0 0 0
24 Sistemi Lineari

Invece, la matrice completa di un sistema lineare può essere ridotta per righe senza che
necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:
0 1
1 2 3 4
(A | B) = @ 7 6 5 0 A
9 8 0 0

è una matrice ridotta per righe, ma il sistema lineare associato non è ridotto perché la
matrice dei coefficienti non è ridotta per righe.

Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante
le operazioni consentite, ad una matrice dei coefficienti ridotta per righe. Dai teoremi che
seguono e anche dall’Osservazione 1.1, sarà chiaro che tra tutte le matrici complete ridotte
per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefficienti è
ridotta per righe. Si possono allora presentare queste possibilità:

a. quella illustrata nell’Esempio 1.5, ovvero il numero delle righe non nulle della ma-
trice completa ridotta per righe è uguale al numero delle righe non nulle della ma-
trice dei coefficienti ridotta per righe ed è uguale al numero delle incognite, quindi
l’ultima riga non nulla della matrice dei coefficienti contiene soltanto un numero
non nullo, allora il sistema lineare ridotto associato è compatibile e ha una sola
soluzione.

b. Quella illustrata nell’Esempio 1.6, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe è uguale al numero delle righe non nulle della
matrice dei coefficienti ed è minore del numero delle incognite; l’ultima riga non
nulla della matrice dei coefficienti contiene almeno un numero non nullo; allora il
sistema lineare ridotto è compatibile e ammette infinite soluzioni che dipendono da
almeno un’incognita libera.

c. Quella illustrata nell’Esempio 1.7, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe è maggiore (di una unità) del numero delle righe
non nulle della matrice dei coefficienti ridotta per righe e pertanto il sistema lineare
ridotto associato è incompatibile.

Le definizioni seguenti (che avranno un ruolo cruciale in tutto il testo) permettono, in


modo elementare, di distinguere le situazioni prima esposte.

Definizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non
nulle.
Capitolo 1 25

Definizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta
per righe da essa ottenuta.

Osservazione 1.2 In base alla precedente definizione il rango della matrice formata da
tutti zeri è 0.

In letteratura, le notazioni più comuni per indicare il rango di una matrice sono rank(A) =
rg(A) = r(A) = rk(A) = ⇢(A). Si userà la notazione rank(A).

Osservazione 1.3 È evidente che affinchè la Definizione 1.10 abbia senso è necessario
dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici
ridotte ottenute hanno lo stesso rango. In realtà, la Definizione 1.10 esprime il metodo di
calcolo del rango di una matrice. Per dimostrare l’affermazione appena citata è necessario
enunciare un’altra definizione di rango di una matrice e ciò sarà fatto nel Paragrafo 4.3
dopo aver introdotto nozioni adesso premature.

I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel
modo seguente:

a. rank(A) = rank(A | B) = 3; il rango delle due matrici è uguale e coincide con il


numero delle incognite;

b. rank(A) = rank(A | B) = 2; il rango delle due matrici è uguale ma è inferiore di


una unità al numero delle incognite;

c. rank(A) = 3, rank(A | B) = 4; i due ranghi sono diversi, il sistema lineare è


incompatibile.

Si è cosı̀ “quasi” dimostrato il seguente teorema.

Teorema 1.2 – Teorema di Rouché–Capelli – Un sistema lineare in n incognite è com-


patibile se e solo se il rango della matrice dei coefficienti A coincide con il rango della
matrice completa (A | B). In particolare, se rank(A) = rank(A | B) = n, il sistema
lineare ha un’unica soluzione. Se rank(A) = rank(A | B) = k < n, il sistema lineare
ammette infinite soluzioni che dipendono da n k incognite libere.

Si osservi, infatti, che il Teorema di Rouché–Capelli è banalmente dimostrato solo nel


caso dei sistemi lineari ridotti; per completare la dimostrazione è necessario, come già os-
servato, enunciare un’altra definizione di rango di una matrice e provare che le operazioni
di riduzione per righe di una matrice non ne alterano il rango (cfr. Teor. 4.21).
26 Sistemi Lineari

Osservazione 1.4 Un sistema lineare omogeneo è sempre compatibile, perciò è solo in-
teressante capire se ammetta una sola soluzione (quella nulla) o infinite soluzioni e ciò
dipende interamente dal rango della matrice dei coefficienti. Per la risoluzione di un si-
stema lineare omogeneo è sufficiente ridurre per righe la matrice dei coefficienti (questo
caso sarà esaminato in dettaglio nel Paragrafo 1.2.1).
Osservazione 1.5 Mentre segue dalla Definizione 1.10 che, per una matrice A con m
righe e n colonne, rank(A)  m, si dimostrerà formalmente che il rango della matrice
dei coefficienti di un sistema lineare è un numero inferiore o uguale al minore tra il numero
delle equazioni e il numero delle incognite, cioè rank(A)  m e rank(A)  n.
Osservazione 1.6 Al più il rango della matrice completa differisce di una unità dal rango
della matrice dei coefficienti, cioè rank(A | B)  rank(A) + 1.
Esempio 1.9 – Metodo di riduzione di Gauss–Jordan – Per determinare le soluzioni
di un sistema lineare si può procedere in modo leggermente diverso da quando si è visto
finora. Quando si perviene alla matrice completa ridotta per righe, anziché scrivere il si-
stema lineare ridotto associato si può, in modo equivalente, procedere allo stesso calcolo
mediante un’ulteriore riduzione della matrice completa allo scopo di pervenire alla lettura
nell’ultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo
metodo, detto anche metodo di riduzione di Gauss–Jordan, per differenziarlo dal metodo
di riduzione di Gauss introdotto in precedenza, è molto efficace quando si ha una sola so-
luzione, ma può presentare alcune difficoltà di calcolo negli altri casi. Viene ora illustrato
con un esempio e precisamente partendo dall’ultimo passaggio di riduzione nell’Esempio
1.5. La matrice dei coefficienti ha, in questo caso, lo stesso numero di righe e di colon-
ne. Pertanto ha senso considerare la sua diagonale principale, cioè l’insieme formato da
tutti gli elementi aii , i = 1, 2, 3 (tale nozione sarà ripresa e riformulata con maggiore
proprietà di linguaggio nell’Esempio 2.6). Quando la matrice dei coefficienti è ridotta
per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo
dall’ultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la
diagonale principale.
0 1 0 1
1 1 2 9 1 1 2 9
B C ! B C
B C B 7 17 C
B 0 2 7 C
17 C R2 ! (1/2)R2 B 0 1 B C
B 2 2 C
@ A R3 ! R3 @ A
0 0 1 3 0 0 1 3
0 1 0 1
1 1 0 3 1 0 0 1
! B C B C
B C ! B C
R2 ! R2 + (7/2)R3 B 0 1 0 2 C B 0 1 0 2 C.
@ A R1 ! R1 R2 @ A
R1 ! R1 2R3
0 0 1 3 0 0 1 3
Capitolo 1 27

Si osservi che sull’ultima colonna, si legge, in ordine, proprio la soluzione del sistema li-
neare dato. Si presti molta attenzione all’ordine con cui compaiono i valori delle incognite
nell’ultima colonna, che dipende dal metodo di riduzione seguito.

Esercizio 1.1 Discutere e risolvere, al variare del parametro a 2 R, il seguente sistema


lineare di tre equazioni in tre incognite:
8
< x + 2y 3z = 4
3x y + 5z = 2
:
4x + y + ( 14 + a2 )z = 2 + a.

Soluzione Si procede con la riduzione per righe della matrice completa (A | B), ripor-
tando solo i passaggi essenziali.

0 1
1 2 3 4 !
(A | B) = @ 3 1 5 2 A R2 ! R2 3R1
4 1 14 + a2 2+a R3 ! R3 4R1
0 1 0 1
1 2 3 4 1 2 3 4
@ 0 A ! @
7 14 10 0 7 14 10 A.
R3 ! R3 R2
0 7 2 + a2 14 + a 0 0 16 + a2 4+a

La matrice dei coefficienti A è ridotta per righe, quindi si presentano i seguenti casi:

1. rank(A) = 3 se e solo se a2 16 6= 0 ossia se e solo se a 2


/ { 4, 4};

2. rank(A) = 2 se e solo se a = 4 oppure a = 4.

Per determinare le soluzioni del sistema lineare si devono considerare tre casi:

1. a 2/ { 4, 4}, poiché rank(A) = 3 anche rank(A | B) = 3. Il sistema lineare è


compatibile e ammette una sola soluzione, che si determina o a partire dal sistema
lineare ridotto associato, oppure procedendo all’ulteriore riduzione della matrice
completa prima ottenuta nel modo seguente:
0 1
1 2 3 4
B C
! B C !
B 0 7 14 10 C
1 B C 1
R3 ! R3 B C R2 ! R2
16 + a2 @ 4+a A 7
0 0 1
(4 + a)( 4 + a)
28 Sistemi Lineari

0 1 0 1
1 2 3 4 19 + 4a
1 2 0
B C B 4+a C
B C B C
B 10 C ! B C
B 0 1 2 C R2 ! R2 + 2R3 B 54 + 10a C
B 7 C B 0 1 0 C
B C R1 ! R1 + 3R3 B 7(4 + a) C
@ A B C
1 @ 1 A
0 0 1 0 0 1
4+a 4+a

0 1
25 + 8a
1 0 0
B 7(4 + a) C
B C
B C
! B 54 + 10a C
B 0 1 0 C.
R1 ! R1 2R2 B 7(4 + a) C
B C
@ 1 A
0 0 1
4+a

In questo modo si leggono, ordinatamente in colonna, i valori delle tre incognite.

2. a = 4, sostituendo tale valore di a nell’ultimo passaggio di riduzione della


matrice completa (A | B) si ha:
0 1
1 2 3 4
@ 0 7 14 10 A
0 0 0 8

da cui segue che rank(A) = 2 mentre rank(A | B) = 3, il sistema lineare è quindi


incompatibile.

3. a = 4, sostituendo tale valore di a nell’ultimo passaggio di riduzione della matrice


completa (A | B) si ha:

0 1 0 1
1 2 3 4 1 2 3 4
B C ! B C
B C B 10 C
B 0 7 14 10 C 1 B 0 1 2 C,
@ A R2 ! R2 B
@ 7 C
A
7
0 0 0 0 0 0 0 0

da cui segue che rank(A) = rank(A | B) = 2 (2 < 3, con 3 numero delle


Capitolo 1 29

incognite) il sistema lineare è, quindi, compatibile e ammette infinite soluzioni:


8
>
> 8
>
> x = t
>
> 7
>
<
10
>
> y= + 2t
>
> 7
>
>
>
: z = t, t 2 R.

Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel
modo seguente:
✓ ◆ ✓ ◆
8 10 8 10
(x, y, z) = t, + 2t, t = , , 0 + t( 1, 2, 1), t 2 R,
7 7 7 7

mettendo cosı̀ meglio in evidenza la dipendenza dall’incognita libera z = t. Si osservi


inoltre che sostituendo a t un particolare valore si ottiene una soluzione particolare del
sistema lineare.

1.2.1 Sistemi lineari omogenei


Si ricordi che un sistema lineare omogeneo è un sistema lineare avente tutti i termini noti
uguali a zero, cioè del tipo:
8
>
> a11 x1 + a12 x2 + . . . . . . + a1n xn = 0
>
< a21 x1 + a22 x2 + . . . . . . + a2n xn = 0
.. (1.6)
>
> .
>
: a x + a x + . . . . . . + a x = 0, a 2 R,
m1 1 m2 2 mn n ij

la cui matrice dei coefficienti A coincide con (1.5) e quella completa (A |B) è:
0 1
a11 a12 . . . a1n 0
B a21 a22 . . . a2n 0 C
B C
(A | B) = B .. .. .. .. C;
@ . . . . A
am1 am2 · · · amn 0
quindi il rango della matrice dei coefficienti A coincide con il rango della matrice com-
pleta (A | B). Infatti, come si è già osservato, un sistema lineare omogeneo ammette
sempre almeno la soluzione nulla. È molto interessante distinguere il caso in cui si ha una
sola soluzione da quello con infinite soluzioni:
30 Sistemi Lineari

1. se il rango di A coincide con il numero delle incognite, allora esiste solo la solu-
zione (0, 0, . . . , 0);
2. se il rango di A è un numero k strettamente minore del numero delle incognite n,
allora esistono infinite soluzioni che dipendono da n k incognite libere.

Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque inco-
gnite: 8
>
> x3 + x4 + x5 = 0
<
x1 x2 + 2x3 3x4 + x5 = 0
>
> x1 + x2 2x3 x5 = 0
:
2x1 + 2x2 x3 + x5 = 0
ha come matrice dei coefficienti:
0 1
0 0 1 1 1
B 1 1 2 3 1 C
A=B
@ 1
C.
1 2 0 1 A
2 2 1 0 1

Procedendo alla sua riduzione per righe (si osservi che è inutile ridurre per righe la matrice
completa) si ha:
0 1 0 1
1 1 2 0 1 1 1 2 0 1
! B 0 !
0 1 1 1 C
C R3 ! R3 + R1 B 0 0
B 1 1 1 C
R3 $ R1 B @ 1
C
1 2 3 1 A @ 0 0 0 3 0 A
R2 $ R3 R4 ! R4 2R1
2 2 1 0 1 0 0 3 0 3
0 1
1 1 2 0 1
! B 0 0 1 1 1 C
R3 ! (1/3)R3 B @ 0 0
C
0 1 0 A
R4 ! (1/3)R4
0 0 1 0 1
0 1
1 1 2 0 1
! B 0 0 1 1 1 C
B C.
R4 ! R4 R2 @ 0 0 0 1 0 A
0 0 0 1 0

Si deduce che rank(A) = 3, esistono, quindi, infinite soluzioni che dipendono da 5 3 = 2


incognite libere. Il sistema lineare ridotto associato è:
8
< x1 + x2 2x3 x5 = 0
x3 + x4 + x5 = 0 (1.7)
:
x4 = 0
Capitolo 1 31

le cui soluzioni sono: 8


>
> x1 = t1 t2
>
>
< x2 = t2
x3 = t1
>
>
>
> x4 = 0
:
x5 = t1 , t1 , t2 2 R.

Osservazione 1.8 L’insieme delle soluzioni del sistema lineare precedente si può scrivere
come:
n
(x1 , x2 , x3 , x4 , x5 ) = ( t1 t2 , t2 , t1 , 0, t1 )
o
= t1 ( 1, 0, 1, 0, 1) + t2 ( 1, 1, 0, 0, 0) | t1 , t2 2 R .

Il seguente teorema mette in relazione le soluzioni di un sistema lineare compatibile qual-


siasi (1.2) con il sistema lineare omogeneo (1.6), che ha la stessa matrice dei coefficienti.
Tale sistema lineare (1.6) è anche detto il sistema lineare omogeneo associato a (1.2).

Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene
aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del
sistema lineare omogeneo associato (1.6).

Dimostrazione Sia (x⇤1 , x⇤2 , . . . , x⇤n ) una soluzione particolare di (1.2) e (x1 , x2 , . . . , xn )
una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verifica
immediatamente che (x1 + x⇤1 , x2 + x⇤2 , . . . , xn + x⇤n ) è ancora una soluzione di (1.2).
Viceversa, se (x01 , x02 , . . . , x0n ) e (x001 , x002 , . . . , x00n ) sono due soluzioni qualsiasi di (1.2),
delle quali (x01 , x02 , . . . , x0n ) è quella generale e (x001 , x002 , . . . , x00n ) è una soluzione partico-
lare, allora è facile verificare che (x01 x001 , x02 x002 , . . . , x0n x00n ) è soluzione del sistema
lineare omogeneo associato (1.6).

Esempio 1.11 Si consideri il sistema lineare:


8
< x1 + x2 2x3 x5 = 5
x3 + x4 + x5 = 4 (1.8)
:
x4 = 3
che ha come sistema lineare omogeneo associato (1.7). L’insieme delle sue soluzioni è:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 t1 t2 , t2 , 1 t1 , 3, t1 )
o
= (7, 0, 1, 3, 0) + t1 ( 1, 0, 1, 0, 1) + t2 ( 1, 1, 0, 0, 0) | t1 , t2 2 R .
32 Sistemi Lineari

Si osservi che (7, 0, 1, 3, 0) è una soluzione particolare del sistema lineare dato, mentre:

t1 ( 1, 0, 1, 0, 1) + t2 ( 1, 1, 0, 0, 0),

al variare di t1 e t2 in R, è la generica soluzione del sistema lineare omogeneo (1.7)


associato.
Analogamente, si verifichi per esercizio che il sistema lineare seguente:
8
< x1 + x2 2x3 x5 = 1
x3 + x4 + x5 = 2
:
x4 = 1,

che ha la stessa matrice dei coefficienti di (1.8) ma diversa matrice completa, ha come
insieme di soluzioni:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 t1 t2 , t2 , 3 t1 , 1, t1 )
o
= (7, 0, 3, 1, 0) + t1 ( 1, 0, 1, 0, 1) + t2 ( 1, 1, 0, 0, 0) | t1 , t2 2 R .
Capitolo 2

Matrici e Determinanti

Scopo di questo capitolo è quello di formalizzare il concetto di matrice già introdotto


nel capitolo precedente e studiare le proprietà essenziali dell’insieme delle matrici che
costituisce un valido esempio di spazio vettoriale, struttura algebrica che sarà definita nel
Capitolo 4.

2.1 Somma di matrici e prodotto di un numero reale per


una matrice
Definizione 2.1 Una matrice di m righe e di n colonne, ad elementi reali, è una tabella
del tipo:
0 1
a11 a12 . . . a1n
B a21 a22 . . . a2n C
B C
A=B .. .. .. C, (2.1)
@ . . . A
am1 am2 · · · amn

con aij 2 R, i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Per convenzione le matrici vengono indicate con le lettere maiuscole dell’alfabeto e l’in-
sieme della matrici di m righe ed n colonne sarà indicato con Rm,n o, talvolta, con
MR (m, n). In forma sintetica la matrice (2.1) si può anche scrivere come:

A = (aij ), 1  i  m, 1  j  n,

e aij è l’elemento della matrice A di posto (i, j).

33
34 Matrici e Determinanti

Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una
colonna, cioè come elementi di R1,1 . Quindi R è effettivamente uguale a R1,1 .

Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono
quadrate e tale numero si dice ordine della matrice. Per esempio:
✓ ◆
1 2
A=
3 4

è una matrice quadrata di ordine 2.

Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga. Per esempio:

A= 1 2 3 4 2 R1,4

è una matrice riga.

Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna. Per
esempio: 0 1
1
B 2 C
A=B C
@ 3 A2R
4,1

4
è una matrice colonna.

Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del
prodotto cartesiano:

Rn = {(x1 , x2 , . . . , xn ) | xi 2 R, i = 1, 2, . . . , n}

possono essere visti come matrici riga o colonna. Quindi Rn può essere identificato sia
con R1,n sia con Rn,1 .

Esempio 2.5 La matrice (aij ) 2 Rm,n , con tutti gli elementi aij = 0, si dice matrice
nulla e si indica con O, da non confondersi con il numero 0 2 R. È evidente che la
matrice nulla è l’unica matrice ad avere rango zero (cfr. Oss. 1.2).

Esempio 2.6 Nel caso di una matrice quadrata A = (aij ) di ordine n, tutti gli elementi
del tipo aii , al variare di i da 1 a n, costituiscono la diagonale principale. Rivestiranno
in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi
Capitolo 2 35

elementi tutti nulli al di fuori della diagonale principale cioè aij = 0 se i 6= j . L’insieme
delle matrici diagonali di ordine n sarà indicato con:
80 1 9
>
> a 11 0 . . . 0 >
>
>
<B 0 a22 . . . 0 C >
=
B C
n,n
D(R ) = B .. .. . . .. C | a ii 2 R, i = 1, 2, . . . , n . (2.2)
>
> @ . . . . A >
>
>
: >
;
0 0 . . . ann

Esempio 2.7 Casi particolari dell’esempio precedente sono la matrice unità I 2 Rn,n ,
ossia la matrice diagonale avente tutti 1 sulla diagonale principale:
0 1
1 0 ... 0
B 0 1 ... 0 C
B C
I = B .. .. . . .. C
@ . . . . A
0 0 ... 1

e la matrice quadrata nulla O 2 Rn,n , intendendosi come tale la matrice quadrata avente
tutti gli elementi uguali a 0.

La definizione che segue stabilisce la relazione di uguaglianza tra matrici.

Definizione 2.2 Due matrici A = (aij ) e B = (bij ) sono uguali se:

1. hanno lo stesso numero di righe e di colonne, cioè A e B appartengono entrambe


allo stesso insieme Rm,n ,

2. gli elementi di posto uguale coincidono, cioè:

aij = bij , i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Si introducono ora, sull’insieme Rm,n , le definizioni di somma di matrici e di prodotto di


un numero reale per una matrice.

Definizione 2.3 Si definisce somma delle due matrici A = (aij ), B = (bij ), entrambe
appartenenti a Rm,n , la matrice A + B 2 Rm,n data da:

A + B = (aij + bij ).

Esempio 2.8 Date le matrici:


✓ ◆ ✓ ◆
1 2 0 5
A= , B=
3 4 2 7
36 Matrici e Determinanti

la loro somma è la matrice: ✓ ◆


1 7
A+B = .
1 11

Se A e B non appartengono allo stesso insieme Rm,n , non è possibile definire la loro
somma. Ad esempio non è definita la somma della matrice A con la matrice:
✓ ◆
0 3 2
C= .
1 5 6

Teorema 2.1 Per l’operazione di somma di matrici definita sull’insieme Rm,n valgono
le proprietà di seguito elencate:

1. A + B = B + A, A, B 2 Rm,n (proprietà commutativa).

2. A + (B + C) = (A + B) + C, A, B, C 2 Rm,n (proprietà associativa).

3. O + A = A + O = A, A 2 Rm,n (esistenza dell’elemento neutro).

4. A + ( A) = O, A 2 Rm,n (esistenza dell’opposto).

Dimostrazione È lasciata per esercizio ed è la naturale conseguenza del fatto che la


somma di numeri reali soddisfa le stesse proprietà. L’elemento neutro per la somma di
matrici è la matrice nulla O 2 Rm,n introdotta nell’Esempio 2.5, l’opposto della matrice
A = (aij ) 2 Rm,n è la matrice A 2 Rm,n cosı̀ definita A = ( aij ).

Osservazione 2.2 Un insieme con un’operazione che verifichi le proprietà del teorema
precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le pro-
prietà 2., 3., 4. Pertanto (Rm,n , +) con l’operazione di somma di matrici ha la struttura di
gruppo commutativo.

Definizione 2.4 Si definisce prodotto di un numero reale per una matrice A = (aij ) di
Rm,n la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale ,
ossia:
A = ( aij ),

quindi A è ancora una matrice di Rm,n .

A volte si usa il termine scalare per indicare il numero reale e il prodotto di un numero
reale per una matrice è anche detto quindi prodotto di uno scalare per una matrice.
Capitolo 2 37

Esempio 2.9 Se:


✓ ◆
1 2
A= ,
3 4

il prodotto 3A è la matrice:
✓ ◆
3 6
3A = .
9 12

L’opposto della matrice A è dunque A = ( 1)A. Inoltre 0A = O, dove O indica la


matrice nulla.

Teorema 2.2 Per il prodotto di un numero reale per una matrice valgono le seguenti
proprietà che mettono in relazione la somma di matrici con la somma e il prodotto di
numeri reali:

1. (A + B) = A + B, 2 R, A, B 2 Rm,n ;

2. ( + µ)A = A + µA, , µ 2 R, A 2 Rm,n ;

3. ( µ)A = (µA), , µ 2 R, A 2 Rm,n ;

4. 1A = A, A 2 Rm,n .

Dimostrazione Si tratta di un semplice esercizio.

Osservazione 2.3 L’insieme delle matrici Rm,n , considerato congiuntamente con le ope-
razioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro
proprietà prima enunciate, dà luogo ad una struttura algebrica che è un esempio di spazio
vettoriale.

Gli spazi vettoriali, che costituiscono la base dell’algebra lineare, saranno studiati in mo-
do intensivo a partire dal Capitolo 4. Si è preferito, per ragioni didattiche, anteporre la
descrizione degli esempi più facili di spazi vettoriali alla loro stessa definizione. Que-
sto è il caso di Rm,n e nel prossimo capitolo la stessa idea sarà applicata all’insieme dei
vettori ordinari dello spazio in modo da permettere al Lettore di prendere confidenza con
nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola seconda-
ria superiore e di dare la possibilità di affrontare più agevolmente lo studio dei capitoli
successivi.
38 Matrici e Determinanti

2.2 Il prodotto di matrici


La definizione di prodotto di matrici, oggetto di questo paragrafo, trova una sua giustifica-
zione, per esempio, nella rappresentazione mediante matrici dei movimenti in uno spazio
vettoriale e nella loro composizione, problematiche che saranno trattate diffusamente nel
Capitolo 6.

A prescindere da argomenti più sofisticati, si introduce questa nuova operazione tra ma-
trici che, anche se a prima vista appare singolare, è comunque dotata di interessanti
proprietà, che rendono plausibile la seguente definizione.

Definizione 2.5 Il prodotto della matrice A = (aij ) di Rm,n con la matrice B = (bij ) di
Rn,p è la matrice C = AB = (cij ) di Rm,p i cui elementi sono dati da:
n
X
cij = ai1 b1j + ai2 b2j + . . . + ain bnj = aik bkj . (2.3)
k=1

Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve
avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice
prodotto avrà il numero di righe del primo fattore e il numero di colonne del secondo
fattore. Da questa definizione segue che il prodotto di due matrici non è commutativo. A
titolo di esempio, si calcoli il prodotto delle matrici:
0 1
✓ ◆ 1 1 2 3
1 2 3 @
A= , B= 0 1 2 4 A,
4 5 6
3 5 7 9

e si ricavino i primi due elementi della matrice C = (cij ) = AB 2 R2,4 :

c11 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della prima colonna di B : c11 = 1 · 1 + 2 · 0 + 3 · 3 = 10.

c12 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della seconda colonna di B : c12 = 1 · ( 1) + 2 · 1 + 3 · 5 = 16 e cosı̀ via.

La matrice C è dunque: ✓ ◆
10 16 27 38
C= .
22 31 60 86

Per la sua particolare definizione, questo tipo di prodotto di matrici prende il nome di
prodotto righe per colonne.
Capitolo 2 39

Osservazione 2.4 È chiaro che il prodotto di due matrici quadrate dello stesso ordine è
ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in
generale la proprietà commutativa, per esempio date:
✓ ◆ ✓ ◆
1 2 0 1
A= , B=
3 4 2 3
si ha: ✓ ◆
4 7
AB =
8 15
mentre: ✓ ◆
3 4
BA = .
11 16
Nel caso delle matrici quadrate di ordine 1 il prodotto è ovviamente commutativo perché
coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto
è commutativo, come si osserverà nel Paragrafo 2.5.

Osservazione 2.5 Il prodotto di matrici ha singolari particolarità. Per esempio:


✓ ◆✓ ◆ ✓ ◆
1 2 2 2 0 0
AB = = = O 2 R2,2 ,
1 2 1 1 0 0

in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora ne-
cessariamente o a = 0 o b = 0. Ovviamente se O 2 Rm,n è la matrice nulla e
A 2 Rn,p , B 2 Rk,m allora:

OA = O 2 Rm,p e BO = O 2 Rk,n .

Esempio 2.10 Si osservi che, date:


10
1
B 2 C
A= 1 2 3 4 2 R1,4 , B=B C
@ 3 A2R ,
4,1

4
allora:
AB = (30) 2 R1,1 ,
mentre: 0 1
1 2 3 4
B 2 4 6 8 C
BA = B
@ 3
C 2 R4,4 .
6 9 12 A
4 8 12 16
40 Matrici e Determinanti

Teorema 2.3 Per il prodotto di matrici valgono le seguenti proprietà:


1. (AB)C = A(BC), A 2 Rm,n , B 2 Rn,k , C 2 Rk,p (proprietà associativa);
2. A(B + C) = AB + AC, A 2 Rp,m , B, C 2 Rm,n e
(X + Y )Z = XZ + Y Z, X, Y 2 Rm,n , Z 2 Rn,k (proprietà distributive del
prodotto rispetto alla somma. Si osservi la necessità di enunciare entrambe le
proprietà per la mancanza della proprietà commutativa del prodotto);
3. ( A)B = (AB) = A( B), 2 R, A 2 Rm,n , B 2 Rn,k ;
4. AI = IA = A, A 2 Rn,n (le due uguaglianze occorrono solo nel caso del-
le matrici quadrate; la matrice unità I 2 Rn,n è l’elemento neutro rispetto al
prodotto).
Dimostrazione È lasciata per esercizio nei casi più semplici, per gli altri si rimanda al
Paragrafo 2.9.

È valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici
moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda
al Paragrafo 4.5.
Teorema 2.4 Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2 · · · An )  min{rank(A1 ), rank(A2 ), . . . , rank(An )}, (2.4)
quindi, in particolare, il rango del prodotto di matrici è minore o uguale del rango di
ciascun fattore.
Osservazione 2.6 È chiaro, anche se può sorprendere, che è necessario porre il segno di
disuguaglianza in (2.4), come si può per esempio notare dal fatto che:
✓ ◆✓ ◆ ✓ ◆
0 1 0 1 0 0
= ,
0 0 0 0 0 0
infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0.

2.2.1 I sistemi lineari in notazione matriciale


Usando la definizione di prodotto di matrici, si può scrivere in modo compatto un generico
sistema lineare di m equazioni in n incognite del tipo (1.2). Siano:
0 1
a11 a12 . . . a1n
B a21 a22 . . . a2n C
B C
.. C 2 R
m,n
A = B .. ..
@ . . . A
am1 am2 · · · amn
Capitolo 2 41

la matrice dei coefficienti,


0 1
x1
B x2 C
B C
X=B .. C 2 Rn,1
@ . A
xn
la matrice colonna delle incognite e:
0 1
b1
B b2 C
B C
B=B .. C 2 Rm,1
@ . A
bm

la matrice colonna dei termini noti, allora il sistema lineare (1.2) si può scrivere, in
notazione matriciale, come:

AX = B.

2.3 La matrice inversa


Avendo introdotto il prodotto di matrici (che generalizza il prodotto di numeri reali) ap-
pare naturale introdurre il concetto di inversa di una matrice quadrata; a differenza del
caso dei numeri è necessario prestare particolare attenzione alla definizione in quanto il
prodotto di matrici non è commutativo.

Definizione 2.6 Sia A 2 Rn,n una matrice quadrata di ordine n. A si dice invertibile se
esiste una matrice X 2 Rn,n tale che:

AX = XA = I, (2.5)

dove I indica la matrice unità di ordine n.

Teorema 2.5 Se A 2 Rn,n è invertibile, allora la matrice X, definita in (2.5), è unica.

Dimostrazione Si supponga per assurdo che esistano due matrici diverse X, X 0 2 Rn,n
che verificano la (2.5). Allora:

X 0 = IX 0 = (XA)X 0 = X(AX 0 ) = XI = X
42 Matrici e Determinanti

che è assurdo. Si osservi che, nella dimostrazione, si è usata la proprietà associativa del
prodotto di matrici.

La matrice X cosı̀ definita si dice matrice inversa di A e si indica con A 1


.

Per la matrice inversa valgono le seguenti proprietà la cui dimostrazione è lasciata per
esercizio.

Teorema 2.6 1. (AB) 1 = B 1 A 1 , con A, B 2 Rn,n matrici invertibili.


2. (A 1 ) 1 = A, con A 2 Rn,n matrice invertibile.

Osservazione 2.7 Segue dal punto 1. e dalle proprietà del prodotto di matrici che l’in-
sieme:
GL(n, R) = {A 2 Rn,n | A è invertibile}
è un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), noto come gruppo lineare
generale reale.

Nei paragrafi successivi si affronterà il problema di calcolare l’inversa di una matrice, di


conseguenza, si tratterà di capire, innanzi tutto, quando una matrice quadrata è invertibile.
Si consiglia, prima di continuare la lettura, di svolgere il seguente esercizio.

Esercizio 2.1 Determinare le condizioni affinché la matrice:


✓ ◆
a11 a12
A=
a21 a22

sia invertibile e, in questi casi, calcolare A 1


.

Si osservi che per risolvere l’esercizio si deve discutere e risolvere il sistema lineare
AX = I : ✓ ◆✓ ◆ ✓ ◆
a11 a12 x11 x12 1 0
=
a21 a22 x21 x22 0 1
di quattro equazioni nelle quattro incognite x11 , x12 , x21 , x22 , che sono gli elementi della
matrice X.

2.4 La trasposta di una matrice


Definizione 2.7 Data una matrice A 2 Rm,n si definisce trasposta di A, e la si indica con
t
A la matrice di Rn,m che si ottiene scambiando le righe con le colonne della matrice A,
in simboli se A = (aij ) allora tA = (bij ) con bij = aji , i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Capitolo 2 43

Esempio 2.11 Se:


✓ ◆
1 2 3
A=
4 5 6

allora:
0 1
1 4
t
A = @ 2 5 A.
3 6

Se:
A= 1 2 3 4

allora:
1 0
1
B 2 C
t
A=B C
@ 3 A.
4

Osservazione 2.8 1. Si osservi che se una matrice è quadrata, allora anche la sua
trasposta è una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla
matrice di partenza, per esempio:
✓ ◆ ✓ ◆
1 2 t 1 1
A= , A= .
1 0 2 0

2. Se una matrice è diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la
matrice stessa.

Per la trasposta di una matrice valgono le seguenti proprietà la cui dimostrazione è lasciata
per esercizio e si può leggere nel Paragrafo 2.9.

Teorema 2.7 1. t
(A + B) = tA + tB, A, B 2 Rm,n .

2. t ( A) = t
A, A 2 Rm,n , 2 R.

3. t (AB) = tB tA, A 2 Rm,n , B 2 Rn,k .

4. Se A 2 Rn,n è una matrice invertibile, allora (tA) 1


= t (A 1 ).
44 Matrici e Determinanti

2.5 Matrici quadrate di tipo particolare


1. L’insieme delle matrici matrici triangolari superiori di Rn,n definito da:
80 1 9
> a11 a12 . . . . . . . . . a1n >
>
> >
>
>
>B 0 a22 . . . . . . . . . a2n C >
>
>
>B . . . C >
>
<B . . ... . C =
B . . . C
n,n
T (R ) = B C 2 R | aij 2 R ;
n,n
(2.6)
>
>B 0 0 . . . akk . . . akn C >
>
>
>B . . . . . C >
>
>
>@ .
. .
. .
. . . .
. A >
>
>
: >
;
0 0 . . . 0 . . . ann

si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della
diagonale principale, vale a dire se A = (aij ) con i, j = 1, 2, . . . , n, allora aij = 0
se i > j . È facile osservare che la somma di due matrici triangolari superiori è
ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero
reale per una matrice triangolare superiore. Molto più sorprendente è il fatto che il
prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, è ancora
una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice
C = (cij ) 2 Rn,n prodotto delle matrici triangolari superiori A = (aij ) 2 T (Rn,n )
e B = (bij ) 2 T (Rn,n ). Per semplicità si calcola ora solo l’elemento c21 della
matrice prodotto C = AB , lasciando il calcolo in generale per esercizio. Da (2.3)
si ha:

c21 = a21 b11 + a22 b21 + . . . a2n bn1 = 0b11 + a22 0 + . . . + a2n 0 = 0,

in quanto aij = 0 e bij = 0 se i > j .


Si possono definire in modo analogo le matrici triangolari inferiori, con proprietà
simili a quelle descritte nel caso delle matrici triangolari superiori. Come è già stato
osservato nel Capitolo 1, il calcolo del rango di una matrice triangolare superiore è
molto semplice.

2. L’insieme delle matrici diagonali D(Rn,n ) introdotte nell’Esempio 2.6. La carat-


teristica principale di tali matrici è la loro analogia con il campo dei numeri reali,
infatti il prodotto di due matrici diagonali è ancora una matrice diagonale, avente
ordinatamente sulla diagonale principale il prodotto degli elementi corrispondenti
delle due matrici date. Le matrici diagonali sono, ovviamente, sia matrici triangola-
ri superiori sia matrici triangolari inferiori. Quindi una matrice diagonale è ridotta
per righe, di conseguenza, il suo rango è pari al numero degli elementi non nulli
della diagonale principale. Nel caso di rango massimo, la matrice diagonale è in-
vertibile e la sua inversa ha sulla diagonale principale ordinatamente gli inversi dei
Capitolo 2 45

corrispettivi elementi della matrice data, ossia se:


✓ ◆ ✓ ◆
a11 0 a111 0
A= , con a11 6= 0, a22 6= 0, allora A 1
= ,
0 a22 0 a221

la verifica di queste affermazioni è lasciata per esercizio.

3. L’insieme delle matrici simmetriche di Rn,n definito da:

S(Rn,n ) = {A 2 Rn,n | A = tA}; (2.7)

scrivendo esplicitamente la definizione si ottiene che una matrice simmetrica è del


tipo: 0 1
a11 a12 . . . a1n
B a12 a22 . . . a2n C
B C
A = B .. .. . . .. C;
@ . . . . A
a1n a2n . . . ann

in altri termini, una matrice A = (aij ) 2 Rn,n è simmetrica se e solo se:

aij = aji , i, j = 1, 2, . . . , n,

e ciò giustifica la sua denominazione.


Per esercizio si calcoli la somma di due matrici simmetriche, il prodotto di una
matrice simmetrica per un numero reale e la trasposta di una matrice simmetrica e si
stabilisca se si ottiene ancora una matrice simmetrica. Si osservi, in particolare, che
il prodotto di due matrici simmetriche non è, in generale, una matrice simmetrica.
Per esempio:
✓ ◆ ✓ ◆ ✓ ◆
1 1 3 1 2 2
A= , B= , AB = .
1 2 1 1 1 3

Per esercizio si individuino le condizioni necessarie e sufficienti affinché il prodotto


di due matrici simmetriche sia ancora una matrice simmetrica. Invece, se A è
una matrice simmetrica invertibile, la sua inversa è ancora una matrice simmetrica,
(cfr. Teor. 2.7, punto 4.). Le matrici diagonali sono ovviamente simmetriche e
una matrice triangolare superiore o inferiore è simmetrica se e solo se è diagonale.
Le matrici simmetriche saranno di importanza fondamentale sia nella teoria della
diagonalizzazione di una matrice (cfr. Cap. 7) sia nella teoria delle forme bilineari
simmetriche (cfr. Cap. 8).
46 Matrici e Determinanti

4. L’insieme delle matrici antisimmetriche di Rn,n definito da:

A(Rn,n ) = {A 2 Rn,n | A = t
A}; (2.8)

scrivendo esplicitamente la definizione si ottiene che una matrice antisimmetrica è


del tipo: 0 1
0 a12 . . . a1n
B a12 0 . . . a2n C
B C
A = B .. .. . . .. C;
@ . . . . A
a1n a2n . . . 0

in altri termini, una matrice A = (aij ) 2 Rn,n è antisimmetrica se e solo se:

aij = aji , i, j = 1, 2, . . . , n,

quindi, in particolare, aii = 0, i = 1, 2, . . . , n. Per esercizio si calcoli la somma


di due matrici antisimmetriche, il prodotto di una matrice antisimmetrica per un
numero reale, il prodotto di due matrici antisimmetriche, la trasposta di una matrice
antisimmetrica e si stabilisca se si ottiene ancora una matrice antisimmetrica.

5. L’insieme delle matrici ortogonali di Rn,n definito da:

O(n) = {A 2 Rn,n | tA A = I}, (2.9)

con I matrice unità di ordine n. Usando il fatto che, in modo equivalente alla de-
finizione, A è ortogonale se A tA = I , si verifichi per esercizio che ogni matrice
ortogonale A è invertibile con inversa A 1 = tA. Si verifichi inoltre che la traspo-
sta e l’inversa di una matrice ortogonale sono matrici ortogonali e che il prodotto
di due matrici ortogonali è ortogonale. Si stabilisca se la somma di due matrici
ortogonali è una matrice ortogonale e se il prodotto di una matrice ortogonale per
un numero reale è una matrice ortogonale. Le matrici ortogonali saranno di impor-
tanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le
loro proprietà saranno dimostrate nel Teorema 5.7.

2.6 Le equazioni matriciali


Per equazione matriciale si intende un’equazione la cui incognita è una matrice. Se si
escludono gli esempi banali di equazioni lineari (ogni numero reale può essere considerato
come una matrice), come già studiato nel Paragrafo 2.2.1, risolvendo un generico sistema
lineare si ha un esempio di equazione matriciale AX = B con A in Rm,n , X in Rn,1 ,
Capitolo 2 47

B in Rm,1 , dove X è la matrice incognita e A e B sono note. In questo paragrafo verrà


preso in esame lo studio di un’equazione matriciale del tipo:

AX = B (2.10)

con A 2 Rm,n , X 2 Rn,p , B 2 Rm,p . L’incognita X = (xij ) dell’equazione matriciale


è, quindi, una matrice con n righe e p colonne. In totale, si devono determinare gli np
elementi xij di X.
Si osservi che, se si è in grado di risolvere l’equazione (2.10), si è anche in grado di
risolvere un’equazione matriciale del tipo:

YC =D (2.11)

con incognita Y, infatti operando con la trasposta su ambo i membri di (2.11) si ha:
t
C t Y = tD,

cioè ci si riconduce ad un’equazione matriciale del tipo (2.10), avendo cura di notare che
l’incognita della nuova equazione sarà t Y.
Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np
incognite. Infatti posto:

0 1 0 1
a11 a12 . . . a1n x11 x12 . . . x1p
B a21 a22 . . . a2n C B x21 x22 . . . x2p C
B C B C
A=B .. .. .. C 2 Rm,n , X=B .. .. .. C 2 Rn,p ,
@ . . . A @ . . . A
am1 am2 . . . amn xn1 xn2 . . . xnp

0 1
b11 b12 . . . b1p
B b21 b22 . . . b2p C
B C
B=B .. .. .. C 2 Rm,p ,
@ . . . A
bm1 bm2 . . . bmp

la prima riga del prodotto AX = B corrisponde al seguente sistema lineare di p righe e


np incognite xij : 8
>
> a11 x11 + a12 x21 + . . . + a1n xn1 = b11
>
< a11 x12 + a12 x22 + . . . + a1n xn2 = b12
.. (2.12)
>
> .
>
: a x + a x + ... + a x = b .
11 1p 12 2p 1n np 1p
48 Matrici e Determinanti

In totale, da AX = B si hanno, quindi, mp equazioni in quanto A ha m righe. Mettendo


in evidenza le righe di X e di B nel modo seguente:
0 1 0 1 0 1 0 1
x11 x12 . . . x1p X1 b11 b12 . . . b1p B1
B x21 x22 . . . x2p C B X2 C B b21 b22 . . . b2p C B B2 C
B C B C B C B C
X = B .. .. .. C = B .. C, B = B .. .. .. C = B .. C,
@ . . . A @ . A @ . . . A @ . A
xn1 xn2 . . . xnp Xn bm1 bm2 . . . bmp Bm

il sistema lineare (2.12) si può scrivere come:

a11 X1 + a12 X2 + . . . + a1n Xn = B1 .

Ripetendo lo stesso calcolo per le altre righe di AX = B si ottiene che l’equazione


matriciale (2.10) equivale al sistema lineare di equazioni matriciali:
8
>
> a11 X1 + a12 X2 + . . . + a1n Xn = B1
>
< a21 X1 + a22 X2 + . . . + a2n Xn = B2
..
>
> .
>
: a X + a X + ... + a X = B ,
m1 1 m2 2 mn n m

con incognite le righe X1 , X2 , . . . , Xn della matrice X e termini noti le righe B1 , B2 , . . . ,


Bm della matrice B. Si noti, quindi, che il sistema lineare ottenuto è dello stesso tipo dei
sistemi lineari trattati nel Capitolo 1, con la differenza che le incognite sono le righe della
matrice, ossia sono elementi di Rp al posto di essere numeri reali.
Per il Teorema di Rouché–Capelli (cfr. Teor. 1.2), essendo tale sistema equivalente ad
un sistema lineare di mp equazioni in np incognite, esso ammette soluzioni se e solo
se il rango della matrice dei coefficienti A e il rango della matrice completa (A | B)
coincidono. Si procede, pertanto, alla riduzione per righe della matrice completa:
0 1
a11 a12 . . . a1n b11 b12 . . . b1p
B a21 a22 . . . a2n b21 b22 . . . b2p C
B C
(A | B) = B .. .. .. .. .. .. C.
@ . . . . . . A
am1 am2 . . . amn bm1 bm2 . . . bmp

Si distinguono tre casi:

1. rank(A) 6= rank(A | B): non esistono soluzioni;


2. rank(A) = rank(A | B) = n numero delle incognite: esiste una sola soluzione;
3. rank(A) = rank(A | B) = k < n: esistono infinite soluzioni che dipendono da
n k elementi di Rp .
Capitolo 2 49

Esempio 2.12 Per determinare le soluzioni dell’equazione matriciale AX = B , con:


0 1 0 1
2 3 1 1 2 2
A=@ 1 0 1 A, B = @ 0 1 1 A,
0 3 1 1 0 4

si procede con la riduzione per righe della matrice completa (A | B), per esempio nel
modo seguente:
0 1 0 1
2 3 1 1 2 2 2 3 1 1 2 2
@ !
(A | B) = 1 0 1 0 1 1 A @ 0 3 1 1 0 4 A,
R2 ! 2R2 R1
0 3 1 1 0 4 0 3 1 1 0 4

da cui si deduce che rank(A) = rank(A | B) = 2, si ottengono cosı̀ infinite soluzioni che
dipendono da un elemento qualsiasi (a, b, c) di R3 . Ponendo:
0 1
X1
X = @ X2 A 2 R3,3
X3

la matrice (A | B) ridotta per righe dà luogo al sistema lineare ridotto:



2X1 + 3X2 + X3 = (1, 2, 2)
3X2 + X3 = ( 1, 0, 4)

le cui soluzioni sono:


8
< X1 = (1 3a, 1 3b, 3 3c)
X2 = (a, b, c)
:
X3 = ( 1 + 3a, 3b, 4 + 3c), (a, b, c) 2 R3
e, quindi: 0 1
1 3a 1 3b 3 3c
X=@ a b c A, (a, b, c) 2 R3 .
1 + 3a 3b 4 + 3c

Esempio 2.13 Per determinare le soluzioni dell’equazione matriciale XA = B, con:


0 1
1 0 1 ✓ ◆
@ A 1 1 0
A= 1 1 0 , B= ,
0 1 1
1 0 0
si osserva che da XA = B , calcolando la trasposta delle matrici del primo e del secondo
membro, si ha tA tX = tB , pertanto ci si riconduce ad un’equazione matriciale dello
stesso tipo di quella studiata nell’esempio precedente. Ponendo:
50 Matrici e Determinanti

0 1
Y1
t
X = Y = @ Y2 A 2 R3,2
Y3
segue che l’equazione tAY = tB è equivalente al sistema lineare:
8
< Y1 + Y2 + Y3 = (1, 0)
Y2 = ( 1, 1)
:
Y1 = (0, 1),

che ha come unica soluzione:

Y1 = (0, 1), Y2 = ( 1, 1), Y3 = (2, 0)

e, quindi: ✓ ◆
0 1 2
X= .
1 1 0

2.6.1 Calcolo della matrice inversa, primo metodo


Come immediata conseguenza del paragrafo precedente si procede al calcolo dell’even-
tuale matrice inversa di una matrice quadrata A = (aij ) 2 Rn,n risolvendo l’equazione
matriciale:
AX = I.
Si deve, quindi, ridurre per righe la matrice completa:
0 1
a11 a12 . . . a1n 1 0 ... 0
B a21 a22 . . . a2n 0 1 ... 0 C
B C
(A | I) = B .. .. . . .. .. .. . . .. C.
@ . . . . . . . . A
an1 an2 . . . ann 0 0 ... 1

È evidente che rank(A | I) = n perché la matrice (A | I) è ridotta per righe in quanto


I è ridotta per righe e rank(I) = n, quindi si ottiene l’importante teorema di seguito
enunciato.

Teorema 2.8 Una matrice quadrata A 2 Rn,n è invertibile se e solo se rank(A) = n.

Dimostrazione Se esiste l’inversa A 1 di A allora l’equazione matriciale AX = I ha


un’unica soluzione e, quindi, dal Teorema di Rouché–Capelli segue rank(A) = n.
Capitolo 2 51

Il viceversa non può essere dimostrato a questo punto del corso, si rimanda al Paragrafo
4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X 2 Rn,n
tale che AX = I (per il Teorema di Rouché–Capelli, cfr. Teor. 1.2), ma per dimostrare
che anche XA = I e dedurre quindi che X = A 1 si deve risolvere l’equazione ma-
triciale tA tX = I . Pertanto è necessario dimostrare che anche tA ha lo stesso rango di
A, e ciò sarà oggetto del Teorema 4.19. D’altro canto, se esistono due matrici X e Y,
entrambe appartenti a Rn,n , tali che AX = I e Y A = I allora segue X = Y infatti:

Y = Y I = Y (AX) = (Y A)X = IX = X.

Da rank(A) = n si ha che esiste una sola matrice X tale che AX = I . Da rank(tA) = n


segue che esiste una sola matrice Z 2 Rn,n tale che tA Z = I. Considerando la trasposta
delle matrici a primo e a secondo membro dell’ultima uguaglianza si ha tZA = I, quindi,
dall’osservazione precedente si ottiene tZ = X = A 1 .

Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante
la risoluzione dell’equazione matriciale AX = I. Un secondo metodo sarà spiegato nel
Paragrafo 2.8.2.

Esercizio 2.2 Supponendo che esista, determinare l’inversa della matrice:

0 1
0 0 2 0
B 1 0 0 1 C
A=B
@ 0
C.
1 3 0 A
2 1 5 3

Soluzione Si procede alla riduzione per righe della matrice (A | I), il calcolo del rango
di A è contenuto in questo procedimento:

0 1 0 1
0 0 2 0 1 0 0 0 1 0 0 1 0 1 0 0
B C B C
B C B C
B 1 0 0 1 0 1 0 0 C ! B 0 1 3 0 0 0 1 0 C
B C B C
B C R1 $ R3 B C
B C B C
B 0 0 C B 0 0 C
B 1 3 0 0 0 1 C R2 $ R1 B 0 2 0 1 0 0 C
@ A @ A
2 1 5 3 0 0 0 1 2 1 5 3 0 0 0 1
52 Matrici e Determinanti

0 1
1 0 0 1 0 1 0 0
B C
! B C
B 0 1 3 0 0 0 1 0 C
R2 ! R2 B C
B C
R3 ! (1/2)R3 B 1 C
B 0 0 1 0 0 0 0 C
R4 ! R4 2R1 B 2 C
@ A
0 1 5 5 0 2 0 1

0 1
1 0 0 1 0 1 0 0
B C
B C
B 0 1 3 0 0 0 1 0 C
! B C
B C
R4 ! R4 R2 B 1 C
B 0 0 1 0 0 0 0 C
B 2 C
@ A
0 0 8 5 0 2 1 1

0 1
1 0 0 1 0 1 0 0
B C
B C
B 0 1 3 0 0 0 1 0 C
! B C
B C.
R4 ! R4 8R3 B 1 C
B 0 0 1 0 0 0 0 C
B 2 C
@ A
0 0 0 5 4 2 1 1

A questo punto dell’esercizio si deduce che rank(A) = 4, pertanto la matrice A è inver-


tibile. Per calcolare direttamente l’inversa conviene procedere riducendo ulteriormente
l’ultima matrice ottenuta, come descritto nell’Esempio 1.9 del Capitolo 1. Dall’ultimo
passaggio segue:
0 1
1 0 0 1 0 1 0 0
B C
B 0 1 3 0 0 0 1 0 C
B C
B C
! B C
B 1 C
R4 ! ( 1/5)R4 B 0 0 1 0 0 0 0 C
B 2 C
B C
@ 4 2 1 1 A
0 0 0 1
5 5 5 5
Capitolo 2 53

0 1
4 3 1 1
B 1 0 0 0
5 5 5 5 C
B C
B 3 C
! B 0 1 0 0 0 1 0 C
B 2 C
R1 ! R1 R4 B C.
B 1 C
R2 ! R2 + 3R3 B 0 0 1 0 0 0 0 C
B 2 C
B C
@ 4 2 1 1 A
0 0 0 1
5 5 5 5

Si legge cosı̀ nell’ultimo passaggio, a destra, l’espressione di A 1 , infatti le operazioni di


riduzione che iniziano dalla matrice completa (A | I), essendo rank(A) = rank(A | I) = n,
non possono far altro che portare a (I | A 1 ). In altri termini, moltiplicando a sinistra per
A 1 l’equazione matriciale AX = I si ottiene IX = A 1 .

Esercizio 2.3 Data la matrice:


0 1
1 3 1 2
B h 0 0 0 C
A=B
@ 1
C, h 2 R,
1 0 0 A
0 0 0 h

stabilire per quali valori di h esiste la sua inversa. Determinare esplicitamente A 1

quando possibile.

Soluzione Si procede, come nell’esercizio precedente, alla riduzione per righe della
matrice completa (A | I).
0 1
1 3 1 2 1 0 0 0
B h !
B 0 0 0 0 1 0 0 C
C R2 ! R2 hR1
@ 1 1 0 0 0 0 1 0 A
R3 ! R3 R1
0 0 0 h 0 0 0 1
0 1
1 3 1 2 1 0 0 0
B 0 3h h 2h h 1 0 0 C !
B C
@ 0 2 1 2 1 0 1 0 A R2 $ R3
0 0 0 h 0 0 0 1
0 1
1 3 1 2 1 0 0 0
B 0 2 1 2 1 0 1 0 C !
B C
@ 0 3h h 2h h 1 0 0 A R3 ! 2R3 3hR2
0 0 0 h 0 0 0 1
54 Matrici e Determinanti

0 1
1 3 1 2 1 0 0 0
B 0 2 1 2 1 0 1 0 C
B C,
@ 0 0 h 2h h 2 3h 0 A
0 0 0 h 0 0 0 1

a questo punto si deduce che rank(A) = 4 se e solo se h 6= 0, quindi solo in questo caso
esiste A 1 . Si assume perciò h 6= 0 e si procede con la riduzione per ottenere la matrice
inversa:
0 1
1 3 1 2 1 0 0 0
B C
! B C
B 1 1 1 C
B
R2 ! (1/2)R2 B 0 1 2 1 0 0 C
2 2 C
B C
B C
R3 ! (1/h)R3 B 2 C
B 0 0 1 2 1 3 0 C
B h C
R4 ! (1/h)R4 B @
C
1 A
0 0 0 1 0 0 0
h
0 1
2
B 1 3 1 0 1 0 0
h C
B C
! B C
B 1 1 1 1 C
R3 ! R3 2R4 BB
0 1 0 0 C
B 2 2 2 h C
C
R2 ! R2 + R4 B
B 2
C
2 C
B 0 0 1 0 1 3 C
R1 ! R1 2R4 BB
h h C
C
@ 1 A
0 0 0 1 0 0 0
h
0 1
2
B 1 3 0 0 0
h
3 0 C
B C
B C
B 1 C
! B 0 1 0 0 0 1 0 C
B h C
R2 ! R2 + (1/2)R3 B C,
B C
R1 ! R1 R3 B 2 2 C
B 0 0 1 0 1 3 C
B h h C
B C
@ 1 A
0 0 0 1 0 0 0
h
Capitolo 2 55

0 1
1
B 1 0 0 0 0
h
0 0 C
B C
B C
B 1 C
B 0 1 0 0 0 1 0 C
! B h C
B C,
R1 ! R1 + 3R2 B C
B 2 2 C
B 0 0 1 0 1 3 C
B h h C
B C
@ 1 A
0 0 0 1 0 0 0
h

A 1
si legge a destra nell’ultimo passaggio di riduzione.

Il teorema che segue è un corollario del Teorema 2.4, lo stesso risultato si otterrà, con
metodi diversi, nel Capitolo 7.

Teorema 2.9 1. Se A 2 Rm,n e Q 2 Rn,n è una matrice invertibile, allora:


rank(AQ) = rank(A).

2. Se A 2 Rm,n e P 2 Rm,m è una matrice invertibile, allora:


rank(P A) = rank(A).

3. Se A una matrice quadrata di ordine n e P una matrice invertibile di ordine n,


allora:
rank(A) = rank(P 1AP ).

Dimostrazione È sufficiente dimostrare 1., lo stesso metodo si può applicare a 2. e da


1. e 2. segue immediatamente 3. Il primo punto segue dal Teorema 2.4 e da:
rank(AQ)  rank(A) = rank(A(QQ 1 )) = rank((AQ)Q 1 )  rank(AQ),
da cui la tesi.

2.7 La traccia di una matrice quadrata


Definizione 2.8 Sia A una matrice quadrata, di ordine n, ad elementi reali. Si definisce
traccia di A, e si indica con tr(A) la somma degli elementi della sua diagonale principale.
Se A = (aij ) allora:
n
X
tr(A) = a11 + a22 + . . . + ann = aii .
i=1
56 Matrici e Determinanti

Le proprietà della traccia di una matrice quadrata sono elencate nel seguente teorema.

Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti proprietà:

1. tr(A + B) = tr(A) + tr(B),

2. tr( A) = tr(A),

3. tr(A B) = tr(B A),

4. tr( tA) = tr(A),

per ogni A, B 2 Rn,n , per ogni 2 R.

Dimostrazione È quasi un esercizio ed è riportata nel Paragrafo 2.9.

Come immediata conseguenza del punto 3. del teorema precedente, si ottiene:

tr(P 1A P ) = tr(A), (2.13)

per ogni A 2 Rn,n e per ogni matrice invertibile P di Rn,n , proprietà che sarà molto
importante nel Capitolo 7.

Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla è uguale a zero,
cosı̀ come è uguale a zero la traccia di una matrice antisimmetrica.

2.8 Il determinante
Scopo di questo paragrafo è quello di associare ad ogni matrice quadrata un particolare
numero reale detto determinante della matrice in modo da dimostrare il seguente teorema.

Teorema 2.11 Una matrice quadrata A è invertibile se e solo se il suo determinante non
è uguale a zero.

Si introdurrà la definizione di determinante in modo “sperimentale” senza troppo rigore


matematico; per una discussione precisa e per la dimostrazione di tutte le proprietà si
rimanda al Paragrafo 8.8.

Il determinante di una matrice quadrata è una funzione:

det : Rn,n ! R, A 7 ! det(A)

che verifica queste prime proprietà.


Capitolo 2 57

1. Se a è un numero reale, quindi identificabile con la matrice quadrata A = (a) di


ordine 1, allora det(A) = a.
✓ ◆
a11 a12
2. Se A = , allora det(A) = a11 a22 a12 a21 .
a21 a22

Il determinante di una matrice quadrata è anche spesso indicato con due tratti verticali che
sostituiscono le parentesi tonde della matrice. Nel caso della matrice A di ordine 2 si ha:

a11 a12
= a11 a22 a12 a21 .
a21 a22

Osservando con attenzione lo sviluppo del determinante nel caso della matrice quadrata
di ordine 2, si nota che compaiono due addendi, ciascuno dei quali è il prodotto di due
fattori il cui primo indice corrisponde alla sequenza (1, 2) e il secondo indice corrisponde
alle due permutazioni di (1, 2): (1, 2) e (2, 1). La prima permutazione (pari) impone
il segno positivo all’addendo a11 a22 , la seconda permutazione (dispari) impone il segno
negativo all’addendo a12 a21 .

Si può cosı̀ indovinare la regola per calcolare il determinante di una matrice quadrata
qualsiasi. A questo scopo, si controlli ancora lo sviluppo del determinante nel caso delle
matrici di ordine 3. L’esempio che segue riassume, nel caso particolare dell’ordine 3,
la teoria dei determinanti delle matrici di ordine n che verrà successivamente esposta. Si
consiglia di studiarlo con grande attenzione e farne riferimento per dimostrare le proprietà
generali dei determinanti che verranno man mano elencate.

Esempio 2.14 È noto dal calcolo combinatorio che le permutazioni dei numeri 1, 2, 3
sono 3! = 6, tre di esse sono pari e sono dette permutazioni circolari, ossia: (1, 2, 3),
(3, 1, 2), (2, 3, 1) e tre sono dispari: (1, 3, 2), (3, 2, 1), (2, 1, 3). Più precisamente, se a
partire dalla terna (1, 2, 3) si perviene alla terna (2, 1, 3) si è effettuato uno scambio che
comporta un segno negativo associato alla permutazione (2, 1, 3), effettuati due scambi si
ha segno positivo e cosı̀ via. Per meglio visualizzare le permutazioni e contare il numero
degli scambi intermedi in modo da ottenere il segno della permutazione finale è utile la
classica notazione del calcolo combinatorio:

1 2 3
# # #
(1) = 2 (2) = 1 (3) = 3,

dove indica una permutazione di 1, 2, 3 e non è altro che una funzione biiettiva dall’in-
sieme {1, 2, 3} in sé.
58 Matrici e Determinanti

Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2, “si indo-
vina” lo sviluppo del determinante di una matrice quadrata di ordine 3, ponendo:

a11 a12 a13


a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31
a31 a32 a33
a11 a23 a32 a13 a22 a31 a12 a21 a33
X
= ✏( )a1 (1) a2 (2) a3 (3) ,

dove indica una qualsiasi permutazione dei numeri 1, 2, 3 e ✏( ) è il suo segno. Si


osserva che, per costruzione, ogni addendo a1 (1) a2 (2) a3 (3) contiene un elemento ap-
partenente a ciascuna riga e a ciascuna colonna della matrice A. In altri termini in ogni
addendo non esistono due elementi appartenenti ad una stessa riga o ad una stessa colonna
di A, perché è una biiezione.

Si può cosı̀ enunciare la definizione di determinante di una matrice quadrata di ordine n.

Definizione 2.9 Il determinante di una matrice quadrata A = (aij ) di ordine n è dato


da: X
det(A) = ✏( )a1 (1) a2 (2) . . . an (n) , (2.14)

dove indica una qualsiasi permutazione dei numeri 1, 2, . . . , n e ✏( ) è il suo segno.

Osservazione 2.10 Come già osservato nell’Esempio 2.14, in ogni addendo della som-
ma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna
della matrice A, inoltre ogni addendo di (2.14) è il prodotto di n elementi della matrice
quadrata A appartenenti ad ogni riga e ad ogni colonna di A.

Dalla Definizione 2.9 si deducono le seguenti proprietà.

Teorema 2.12 1. Sia A una matrice quadrata di ordine n avente una riga (oppure
una colonna) formata da tutti 0, allora det(A) = 0.

2. Per ogni matrice quadrata A, det(A) = det(tA).

3. Se A = (aij ) 2 Rn,n è una matrice triangolare superiore allora:

det(A) = a11 a22 . . . ann ,

la stessa proprietà vale nel caso di una matrice triangolare inferiore.


Capitolo 2 59

Dimostrazione 1. È ovvia conseguenza della Definizione 2.9 e anche dell’Osserva-


zione 2.10.

2. Si consideri il caso del determinante di una matrice quadrata A di ordine 2, il caso


generale è una generalizzazione di questo ragionamento. Come già osservato:

det(A) = a11 a22 a12 a21 ,

mentre:
a11 a21
det( tA) = = a11 a22 a21 a12 = a11 a22 a12 a21 = det(A);
a12 a22

infatti il determinante della matrice trasposta si ottiene semplicemente applicando


la proprietà commutativa del prodotto ad ogni addendo della somma precedente.

3. Si dimostra per semplicità la proprietà solo nel caso di A 2 R4,4 , lasciando al


Lettore per esercizio la dimostrazione nel caso generale. Sia:
0 1
a11 a12 a13 a14
B 0 a22 a23 a24 C
A=B @ 0
C,
0 a33 a34 A
0 0 0 a44

dalla definizione di determinante (2.14) si ha:


X
det(A) = ✏( )a1 (1) a2 (2) a3 (3) a4 (4) .

Se a44 = 0 l’ultima riga è formata da tutti zeri e pertanto det(A) = 0, da cui la tesi.
Se a44 6= 0, l’unico elemento non nullo dell’ultima riga è a44 , quindi la formula
precedente si riduce a:
X
det(A) = ✏( )a1 (1) a2 (2) a3 (3) a44 , (2.15)

con permutazione dei numeri 1, 2, 3. Di nuovo, l’unico elemento di tale somma,


appartenente alla terza riga, che potrebbe essere non nullo è a33 , quindi (2.15) si
riduce a: X
det(A) = ✏( )a1 (1) a2 (2) a33 a44

con permutazione dei numeri 1, 2. Se fosse a33 = 0 allora det(A) = 0.


Procedendo allo stesso modo su a22 e su a11 si perviene alla tesi.
60 Matrici e Determinanti

È di importanza fondamentale il teorema che segue.

Teorema 2.13 Sia A una matrice quadrata di ordine n ridotta per righe, allora:
rank(A) = n () det(A) 6= 0
e, in modo equivalente:
rank(A) < n () det(A) = 0.

Dimostrazione La dimostrazione è ovvia se la matrice ridotta per righe è triangolare


superiore. In questo caso il determinante è dato dal prodotto degli elementi della diagona-
le principale, come osservato nel Teorema 2.12. Rimane da dimostrare che ogni matrice
ridotta per righe può essere trasformata in una matrice triangolare superiore mediante
l’applicazione delle tre operazioni di riduzione sulle righe (senza variarne il rango). An-
che questo fatto è ovvio, ma per maggiore chiarezza sul tipo di procedimento da seguire
si rimanda all’esercizio seguente che illustra, in un caso particolare, la procedura.

Esercizio 2.4 Si riconduca a forma triangolare superiore la matrice:


0 1
1 2 3 4
B 1 2 0 3 C
A=B @ 5 0 0 2 A
C

1 0 0 0
ridotta per righe e il cui rango è 4.

Soluzione Si procede con l’applicazione delle tre operazioni di riduzione alla matrice
A nel modo seguente:
0 1 0 1
1 2 3 4 ! 1 2 3 4
B 1 2 0 3 C R2 ! R2 R1 B 0 0 3 1 C
B C B C
@ 5 0 0 2 A R3 ! R3 5R1 @ 0 19 15 18 A
1 0 0 0 R4 ! R4 R1 0 2 3 4

! 0 1 0 1
1 2 3 4 1 2 3 4
R2 ! R2 B 0 19 15 18 C B 0 19 15 18 C
B C ! B C
R3 ! R3 @ 0 0 3 1 A R4 ! 19R4 2R2 @ 0 0 3 1 A
R4 ! R4
0 2 3 4 0 0 27 40
R2 $ R3
0 1
1 2 3 4
! B 0 19 15 18 C
B C,
R4 ! 3R4 27R3 @ 0 0 3 1 A
0 0 0 93
Capitolo 2 61

ottenendo cosı̀ una matrice triangolare superiore che ha, ovviamente, ancora rango 4.

Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni proprietà relativa al
calcolo del determinante dimostrata per le righe di una matrice quadrata è anche valida
per le colonne.

Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata
qualsiasi.

Teorema 2.14 1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una
matrice quadrata A per un numero reale , allora il determinante di A viene
moltiplicato per .

2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A,
allora il determinante di A cambia di segno.

3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo.

4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante
nullo.

5. Se alla riga Ri di una matrice quadrata A si sostituisce la particolare combinazio-


ne lineare Ri + Rj (dove Rj indica una riga parallela a Ri , i 6= j ) il determinante
di A non cambia, analoga proprietà vale per le colonne.

Dimostrazione 1. È ovvio dalla definizione di determinante.

2. È conseguenza della definizione di determinante e del fatto che lo scambio di due


righe comporta il cambiamento di segno di ciascuna permutazione. Per esempio,
nel caso della matrice quadrata di ordine 2 si ha:

a11 a12
= a11 a22 a12 a21 ,
a21 a22

invece:
a21 a22
= a21 a12 a22 a11 = a11 a22 + a12 a21 .
a11 a12

3. Segue dalla proprietà precedente, infatti scambiando due righe (colonne) uguali
di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio
det(A) = a, dopo lo scambio det(A) = a (per la proprietà precedente), ma
poiché la matrice non cambia allora a = a, da cui la tesi.
62 Matrici e Determinanti

4. Segue da 1. e da 3.

5. Si calcoli il determinante di una matrice quadrata di ordine n mettendo in evidenza


le sue righe e l’operazione richiesta Ri ! Ri + Rj , i 6= j :

R1 R1 R1
.. .. ..
. . .
R i + Rj Ri Rj
.. = .. + .. .
. . .
Rj Rj Rj
.. .. ..
. . .
Rn Rn Rn

L’uguaglianza precedente è una evidente conseguenza della definizione di determi-


nante, quindi la tesi segue dalla terza proprietà.

Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha il teorema che segue.

Teorema 2.15 Sia A una matrice quadrata di ordine n allora:

rank(A) = n () det(A) 6= 0

e, in modo equivalente:

rank(A) < n () det(A) = 0.

Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma trian-
golare superiore:
0 1
1 1 2 1
B 3 1 1 2 C
A=B @ 2
C.
2 2 1 A
1 0 1 1

Soluzione Per esempio si può procedere come segue:


Capitolo 2 63

1 1 2 1 1 1 2 1
!
3 1 1 2 ! 1 3 1 2
R2 ! R2 + R1
2 2 2 1 C1 $ C2 2 2 2 1
R3 ! R3 + 2R1
1 0 1 1 0 1 1 1

1 1 2 1 1 1 2 1
! 0 4 3 3 !
0 4 3 3
R3 ! R3 R2 0 0 1 0 R3 ! R3
0 4 2 3
R4 ! R4 (1/4)R2 1 7 R4 ! 4R4
0 1 1 1 0 0
4 4

1 1 2 1 1 1 2 1
1 0 4 3 3 ! 1 0 4 3 3
= 7.
4 0 0 1 0 R4 ! R4 R3 4 0 0 1 0
0 0 1 7 0 0 0 7

Il teorema che segue stabilisce importanti proprietà del determinante in relazione al pro-
dotto di una matrice per uno scalare e al prodotto di matrici.

Teorema 2.16 1. det( A) = n


det(A), A 2 Rn,n , 2 R;

2. Teorema di Binet: det(AB) = det(A) det(B), A, B 2 Rn,n ;

3. Se A è una matrice invertibile, allora det(A 1 ) = det(A) 1


.

Dimostrazione 1. È ovvia dalla Definizione 2.4 di prodotto di un numero reale per


una matrice e dalla Definizione 2.9 di determinante.

2. Si tratta di una proprietà sorprendente e di difficile dimostrazione. È vera nel caso


di matrici triangolari superiori, ricordando che il prodotto di due matrici triangolari
superiori è ancora una matrice dello stesso tipo e che il determinante di una matrice
triangolare superiore è il prodotto degli elementi della diagonale principale (analo-
gamente è anche vero nel caso delle matrici triangolari inferiori). Nel Capitolo 7 si
dimostrerà questa proprietà nel caso di matrici quadrate con particolari proprietà (le
matrici diagonalizzabili), ma solo nel Paragrafo 8.8 si arriverà ad una dimostrazione
nel caso generale.

3. È una conseguenza del Teorema di Binet applicato a AA 1


= I con I matrice
unità. Si ha det(A) det(A 1 ) = det(I) = 1 da cui la tesi.

Osservazione 2.12 1. Si deduce, dalla proprietà 3. del teorema precedente, che:


64 Matrici e Determinanti

se A 2 Rn,n è invertibile, allora det(A) 6= 0;

nel paragrafo che segue si dimostrerà anche il viceversa.


2. In generale, se A, B sono matrici di Rn,n allora det(A + B) 6= det(A) + det(B).
Infatti si considerino le matrici:
✓ ◆ ✓ ◆
1 2 1 2
A= , B=
3 4 4 5
per le quali det(A) = 2, det(B) = 13, ma:
✓ ◆
2 0
A+B =
7 9
e det(A + B) = 18.
Esercizio 2.6 Dimostrare che se A è una matrice antisimmetrica di ordine dispari, allora
det(A) = 0.

2.8.1 I Teoremi di Laplace.


Un’altra definizione di rango di una matrice
Esempio 2.15 Si consideri lo sviluppo del determinante di una matrice di ordine 3 de-
scritto nell’Esempio 2.14 e lo si trasformi applicando le proprietà commutativa e distribu-
tiva del prodotto rispetto alla somma di numeri reali nel modo seguente:

a11 a12 a13


a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 a11 a23 a32
a31 a32 a33 a13 a22 a31 a12 a21 a33

= a11 (a22 a33 a23 a32 ) a12 (a21 a33 a23 a31 )
+a13 (a21 a32 a22 a31 )

a22 a23 a21 a23 a21 a22


= a11 a12 + a13
a32 a33 a31 a33 a31 a32

a12 a13 a11 a13 a11 a12


= a31 a32 + a33
a22 a23 a21 a23 a21 a22

a21 a23 a11 a13 a11 a13


= a12 + a22 a32 .
a31 a33 a31 a33 a21 a23
Capitolo 2 65

L’espressione precedente permette di indovinare una regola di calcolo del determinante


per le matrici di ordine qualsiasi. Per fare ciò è necessario introdurre alcune definizioni.

Definizione 2.10 Sia A = (aij ) 2 Rn,n ; si definisce minore dell’elemento aij il determi-
nante Mij della matrice di ordine n 1 che si ottiene da A togliendo l’i-esima riga e la
j -esima colonna.

La definizione precedente si estende in modo naturale alla seguente.

Definizione 2.11 Un minore di ordine k, (k < m, k < n, k 6= 0) di una matrice A


di Rm,n è il determinante di una qualsiasi sottomatrice quadrata B di ordine k che si
ottiene da A togliendo m k righe e n k colonne.

Esempio 2.16 Data la matrice:


0 1
1 2 3 4
B C
B 5 6 7 8 C
B C
A=B C,
B 9 10 11 12 C
@ A
1 2 3 4

il minore M12 è:


5 7 8
M12 = 9 11 12 = 64.
1 3 4
Un minore di ordine 2 della matrice A è:
1 2
= 4,
5 6

infatti è il determinante della matrice quadrata di ordine 2 ottenuta togliendo la terza e la


quarta riga e la terza e la quarta colonna della matrice A. A partire dalla matrice A quanti
minori di ordine 2 si trovano? È evidente invece che i minori di ordine 1 di A sono 16 e
sono gli elementi di A.

Definizione 2.12 Sia A = (aij ) 2 Rn,n ; si definisce cofattore o complemento algebrico


dell’elemento aij il numero Aij dato da:

Aij = ( 1)i+j Mij .


66 Matrici e Determinanti

Esempio 2.17 Nell’Esempio 2.16 il cofattore dell’elemento a12 è A12 = M12 = 64.
L’Esempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante
di una matrice quadrata di ordine qualsiasi.
Teorema 2.17 – Primo Teorema di Laplace – Il determinante di una matrice quadrata
A = (aij ) 2 Rn,n è dato da:
n
X n
X
det(A) = aik Aik = ahj Ahj , (2.16)
k=1 h=1

per ogni i = 1, 2, . . . , n, j = 1, 2, . . . , n. In altri termini, il determinante della matri-


ce quadrata A si ottiene moltiplicando gli elementi di una riga fissata (nella formula
precedente è la i-esima) per i rispettivi cofattori, inoltre il valore ottenuto non dipende
dalla riga scelta. L’ultimo membro di (2.16) afferma che tale proprietà vale anche per la
j -esima colonna.
Dimostrazione È un calcolo che segue da (2.14), allo stesso modo con cui è stato
condotto nell’Esempio 2.15.
Esempio 2.18 Per calcolare il determinante della matrice, oggetto dell’Esercizio 2.5, si
può usare il Primo Teorema di Laplace 2.17. La presenza del numero 0 al posto (4, 2) di
tale matrice suggerisce di sviluppare il determinante rispetto alla seconda colonna oppure
rispetto alla quarta riga. Si riportano di seguito esplicitamente entrambi i calcoli:
3 1 2 1 2 1 1 2 1
det(A) = 2 2 1 + 2 2 1 2 3 1 2
1 1 1 1 1 1 1 1 1

2 1 2 1 2 2
= 3 +2
1 1 1 1 1 1

2 1 2 1 2 2
+ 2 +
1 1 1 1 1 1

1 2 3 2 3 1
2 2 +
1 1 1 1 1 1

1 2 1 1 1 1 1 1 2
= 1 1 2 3 1 2 3 1 1 ,
2 2 1 2 2 1 2 2 2
si lascia la conclusione al Lettore, osservando però che la determinazione dello stesso
determinante condotta nell’Esercizio 2.5 è stata molto più agevole.
Capitolo 2 67

Teorema 2.18 – Secondo Teorema di Laplace – In una matrice quadrata A = (aij ) di


Rn,n la somma dei prodotti degli elementi di una riga (o colonna) per i cofattori di una
riga (o una colonna) parallela è zero, in formule:
n
X n
X
aik Ajk = ahi Ahj = 0, i 6= j. (2.17)
k=1 h=1

Dimostrazione È evidente conseguenza della seconda proprietà del Teorema 2.14, in-
fatti (2.17) si può interpretare come lo sviluppo del determinante di un matrice in cui, nel
primo caso, la riga j -esima coincide con la riga i-esima e nel secondo caso, la colonna
j -esima coincide con la colonna i-esima.

Utilizzando la nozione di determinante e di minore si può enunciare una seconda defini-


zione di rango di una matrice A 2 Rm,n , equivalente a quella già introdotta (cfr. Def.
1.10). La dimostrazione dell’equivalenza tra le due definizioni di rango è rimandata al
Paragrafo 4.5.

Definizione 2.13 Il rango di una matrice A 2 Rm,n è pari al massimo ordine di un


minore non nullo di A.

Esempio 2.19 Si consideri la matrice:


0 1
1 2 1 2
A=@ 2 4 2 4 A
0 1 0 1

che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe.
Considerando, invece, la Definizione 2.13 di rango si vede subito che ogni minore di A
di ordine 3 è uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due
righe proporzionali. Invece:
2 4
=2
0 1
da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.

2.8.2 Calcolo della matrice inversa, secondo metodo


In questo paragrafo si introdurrà un altro metodo di calcolo della matrice inversa A 1 di
una matrice data A, facendo uso della nozione di determinante. Per questo scopo si inizia
con la definizione di una matrice particolare associata ad una qualsiasi matrice quadrata.
68 Matrici e Determinanti

Definizione 2.14 Data A 2 Rn,n , si consideri la matrice B = (Aij ) 2 Rn,n avente


ordinatamente come elementi i cofattori di A, la trasposta di tale matrice prende il nome
di aggiunta di A e si indica con adj(A).

Esempio 2.20 Data:


0 1
1 2 3
A=@ 1 2 5 A
0 1 2
la sua aggiunta è:
0 1
1 1 4
adj(A) = @ 2 2 8 A.
1 1 4

Teorema 2.19 Sia A una matrice quadrata di ordine n, se det(A) 6= 0 allora esiste
l’inversa di A e:
1
A 1= adj(A).
det(A)

Dimostrazione Sia:
1
B = (bij ) = adj(A),
det(A)
il teorema è dimostrato se AB = (cij ) = I , in altri termini se cij = ij , dove ij è il
simbolo di Kronecker, ossia ii = 1 e ij = 0, i 6= j . Si calcola:
n
X Xn
1 1
cii = aik bki = aik Aik = det(A) = 1;
k=1
det(A) k=1 det(A)

la precedente uguaglianza segue dal Primo Teorema di Laplace 2.17. Se i 6= j si ha


invece:
Xn Xn
1
cij = aik bkj = aik Ajk = 0,
k=1
det(A) k=1

per il Secondo Teorema di Laplace 2.18.

Osservazione 2.13 Il teorema precedente insieme con il Teorema 2.16 e il Teorema 2.13
permettono di concludere che, nel caso di una matrice quadrata A 2 Rn,n :
1
9A () det(A) 6= 0 () rank(A) = n.
Capitolo 2 69

Esempio 2.21 È agevole applicare il metodo di calcolo della matrice inversa appena
introdotto nel caso di una matrice quadrata di ordine 2, infatti se:
✓ ◆
a11 a12
A=
a21 a22

e det(A) 6= 0 allora: ✓ ◆
1 1 a22 a12
A = .
det(A) a21 a11

Esempio 2.22 Considerata la matrice A dell’Esercizio 2.2, se ne determini l’inversa


usando il procedimento descritto. Si tratta di calcolare i cofattori di tutti gli elementi
della matrice, ossia 16 determinanti di matrici quadrate di ordine 3 e, quindi, la matrice
aggiunta. Si ottiene:
0 1
8 6 2 2
1 1 BB 15 0 10 0 C
C.
A 1= adj(A) =
det(A) 10 @ 5 0 0 0 A
8 4 2 2

Osservazione 2.14 Dalla definizione di aggiunta di una matrice quadrata A di ordine n,


segue:
A adj(A) = det(A)I, (2.18)
dove I indica la matrice unità di Rn,n . Si osservi che la formula (2.18) vale per ogni
matrice A, anche se non è invertibile.

2.8.3 Il Teorema di Cramer


È conseguenza del paragrafo precedente un metodo di calcolo che permette di risolvere
i sistemi lineari compatibili che hanno il numero delle equazioni pari al numero delle
incognite, cioè del tipo:
8
>
> a11 x1 + a12 x2 + . . . . . . + a1n xn = b1
>
< a21 x1 + a22 x2 + . . . . . . + a2n xn = b2
.. (2.19)
>
> .
>
: a x + a x + ...... + a x = b .
n1 1 n2 2 nn n n

La matrice dei coefficienti A = (aij ) 2 Rn,n è quadrata. Se det(A) 6= 0 segue dal


Teorema di Rouché–Capelli 1.2 che il sistema lineare (2.19) è compatibile. In notazione
matriciale (cfr. Par. 2.2.1) il sistema lineare (2.19) equivale a:
AX = B, (2.20)
70 Matrici e Determinanti

dove X 2 Rn,1 è la matrice delle incognite e B 2 Rn,1 è la matrice colonna dei termini
noti. Poiché det(A) 6= 0, A è invertibile e quindi è possibile moltiplicare a sinistra ambo
i membri di (2.20) per A 1 , ottenendo cosı̀:

X = A 1 B.

Dal Teorema 2.19, sostituendo l’espressione di A 1


, si ha:
0 1 0 10 1
x1 A11 A21 . . . An1 b1
B x2 C B CB C
B C 1 B A12 A22 . . . An2 CB b2 C
X = B .. C = B . .. ... .. CB .. C
@ . A det(A) @ .. . . A@ . A
xn A1n A2n . . . Ann bn

da cui, uguagliando, si ricava:

b1 a12 . . . a1n
1 b2 a22 . . . a2n
x1 = .. .. ... .. .
det(A) . . .
bn an2 . . . ann

In generale si ha:

a11 a12 . . . b1 . . . a1n


a21 a22 . . . b2 . . . a2n
1 .. .. .. ..
xi = . . . . , i = 1, 2, . . . , n, (2.21)
det(A)
.. .. .. ..
. . . .
an1 an2 . . . bn . . . ann

dove l’i-esima colonna coincide con quella dei termini noti.

Teorema 2.20 – Teorema di Cramer – In un sistema lineare del tipo (2.19) di n equa-
zioni in n incognite la cui matrice A dei coefficienti ha determinante diverso da zero la
i-esima incognita si ottiene dalla formula (2.21).

Esempio 2.23 Dato il sistema lineare:


8
< 2x1 x2 + x3 = 0
3x1 + 2x2 5x3 = 1
:
x1 + 3x2 2x3 = 4,
Capitolo 2 71

il determinante della matrice A dei coefficienti è dato da:


2 1 1
det(A) = 3 2 5 = 28 6= 0.
1 3 2
Quindi esiste una sola soluzione che può essere determinata usando il Teorema di Cramer
nel modo seguente:
0 1 1 2 0 1 2 1 0
1 1 1
x1 = 1 2 5 , x2 = 3 1 5 , x3 = 3 2 1 .
28 28 28
4 3 2 1 4 2 1 3 4

Osservazione 2.15 Si osservi che ad ogni sistema lineare compatibile è applicabile il


Teorema di Cramer. Sia, infatti, AX = B un sistema lineare compatibile con A in Rm,n ,
X in Rn,1 , B in Rm,1 e sia r = rank(A | B) = rank(A). Riducendo eventualmente per
righe la matrice completa iniziale (A | B) e scambiando opportunamente le righe si può
ottenere una nuova matrice:
0 0 1
a11 a012 . . . a01n b01
B .. .. .. .. C
B . . . . C
B C
(A0 | B 0 ) = B a0r1 a0r2 . . . a0rn b0r C
B . .. .. .. C
@ .. . . . A
a0m1 a0m2 . . . a0mn b0m
tale che le prime r righe di A0 formino una matrice di rango r. Equivalentemente non
è restrittivo supporre che dalle prime r righe di A0 sia possibile estrarre una matrice
quadrata C di ordine r e di rango r. Infatti, se cosı̀ non fosse si avrebbe rank(A) =
rank(A0 )  r 1, perché ogni matrice quadrata di ordine r estratta da A0 avrebbe
determinante nullo (cfr. Def. 2.13). Portando a secondo membro le colonne di A0 diverse
da quelle di C si ottiene la matrice completa (C | B 00 ) di un nuovo sistema lineare con r
incognite e con det(C) 6= 0, equivalente a quello di partenza. Quest’ultima affermazione
è vera perché le operazioni di riduzione per righe trasformano il sistema lineare in un altro
ad esso equivalente e dal fatto che il rango di C sia r segue che il sistema lineare ammette
infinite soluzioni che dipendono da n r incognite libere che sono, con questo metodo,
proprio quelle portate a secondo membro (cfr. Cap.1). In questo modo, utilizzando il
Teorema di Cramer si possono esprimere le r incognite in funzione delle rimanenti n r
incognite libere. Segue un esempio di ciò che è stato appena osservato.

Esempio 2.24 Si consideri il sistema lineare:



x + 3y + z = 1
(2.22)
x + 2y z = 0,
72 Matrici e Determinanti

osservato che il rango della matrice dei coefficienti:


✓ ◆
1 3 1
A=
1 2 1

è 2 e assunta z come incognita libera, in questo caso la matrice C citata nell’osservazione


precedente è: ✓ ◆
1 3
C= .
1 2
Il sistema lineare (2.22) si può scrivere:

x + 3y = 1 z
(2.23)
x + 2y = z.

Ma a (2.23) è applicabile il Teorema di Cramer perché:


1 3
= 5.
1 2

La soluzione è:
1 z 3 1 1 z
z 2 2 1 z 1
x= = z , y= = , z 2 R.
5 5 5 5

2.9 Per saperne di più


In questo paragrafo sono riportate le dimostrazioni di alcune proprietà che nel paragrafo
precedente sono state lasciate al Lettore per esercizio.

Esercizio 2.7 Si dimostri che:


(AB)C = A(BC), A 2 Rm,n , B 2 Rn,p , C 2 Rp,l .

Soluzione Siano A = (aij ) 2 Rm,n , B = (bij ) 2 Rn,p , C = (cij ) 2 Rp,l .


Allora AB = (dij ) 2 Rm,p e:
Xn
dij = aik bkj .
k=1

Quindi (AB)C = (eij ) 2 Rm,l , con:


p p n
! p n
X X X X X
eij = dih chj = aik bkh chj = aik bkh chj
h=1 h=1 k=1 h=1 k=1
Capitolo 2 73

che è l’espressione del generico elemento della matrice a primo membro. Per il secondo
membro si ha BC = (fij ) 2 Rn,l , con:
p
X
fij = bih chj
h=1

e A(BC) = (gij ) 2 Rm,l , dove:


n n p
! p
n X
X X X X
gij = aik fkj = aik bkh chj = aik bkh chj ,
k=1 k=1 h=1 k=1 h=1

da cui segue la tesi.

Esercizio 2.8 Si dimostri che:

t
(AB) = tB tA, A 2 Rn,p , B 2 Rp,m .

Soluzione Date la matrici A = (aij ) 2 Rn,p e B = (bij ) 2 Rp,m , il loro prodotto è la


matrice C = AB = (cij ) 2 Rn,m , dove:
p
X
cij = aik bkj .
k=1

La matrice a primo membro t (AB) = (dij ) di Rm,n ha elementi del tipo:


p
X
dij = cji = ajk bki .
k=1

La matrice tA = (eij ) di Rp,n ha elementi del tipo eij = aji . La matrice tB = (fij )
di Rm,p ha elementi del tipo fij = bji . La matrice prodotto tB tA = (gij ) di Rm,n ha
elementi del tipo:
p p p
X X X
gij = fik ekj = bki ajk = ajk bki ,
k=1 k=1 k=1

da cui segue la tesi.

Esercizio 2.9 Si dimostri che:


(tA) 1
= t (A 1 ),
per ogni matrice invertibile A 2 Rn,n .
74 Matrici e Determinanti

Soluzione Si tratta di dimostrare che t (A 1 ) è l’inversa di tA, infatti:


t
(A 1 ) tA = t (A A 1 ) = t I = I.

Esercizio 2.10 Si dimostri che:

tr(A B) = tr(B A), A, B 2 Rn,n .

Soluzione Date le matrici A = (aij ) 2 Rn,n e B = (bij ) 2 Rn,n , gli elementi della
diagonale principale del prodotto AB sono:
n
X
cii = aih bhi ,
h=1

quindi:
n
X n
X
tr(A B) = cll = alh bhl . (2.24)
l=1 h,l=1

Siano dii gli elementi della diagonale principale del prodotto BA, si ha:
n
X
dii = bik aki ,
k=1

la traccia di BA diventa:
n
X n
X
tr(B A) = dmm = bmk akm
m=1 m,k=1

da cui, confrontando con (2.24), segue la tesi.


Capitolo 3

Calcolo Vettoriale

Il calcolo vettoriale elementare è l’argomento di base per lo studio dell’algebra linea-


re e della geometria analitica nella retta, nel piano e nello spazio, inoltre si rivela uno
strumento prezioso per la matematica applicata e la fisica in particolare.
In questo capitolo si assumono note le principali nozioni di geometria euclidea del piano
e dello spazio, cosı̀ come sono solitamente trattate nel primo biennio della scuola secon-
daria superiore. Vale a dire si assume che il Lettore abbia familiarità con i concetti di:
punto, retta, piano e le loro reciproche posizioni, nonché le loro principali proprietà. Sa-
ranno, pertanto, usate le notazioni tradizionali, indicando, quindi, con le lettere maiuscole
dell’alfabeto A, B, . . . , i punti, con le lettere minuscole r, s, . . . , le rette e con le lettere
minuscole dell’alfabeto greco ↵, , . . . , i piani. La retta (intesa come retta di punti) sarà
indicata con S1 , il piano (inteso come piano di punti) con S2 , lo spazio (inteso come
spazio di punti) con S3 . Gli spazi S1 , S2 , S3 sono esempi di spazi affini rispettivamente
di dimensione 1, 2, 3. Per la trattazione assiomatica degli spazi affini, che non è inserita
in questo testo, si rimanda ad esempio a [17], invece il concetto di dimensione di uno
spazio formato da vettori sarà introdotto in questo capitolo e poi definito formalmente
nel capitolo successivo Per il momento si raccomanda di non pensare al significato for-
male dei termini che sono stati usati, ma di limitarsi a richiamare le nozioni elementari
impartite nelle scuole secondarie su questi spazi. Man mano che si procederà con lo stu-
dio dell’algebra lineare, si preciseranno in modo corretto le terminologie comunemente
usate. Si assumono, inoltre, noti i primi rudimenti di trigonometria, quali, ad esempio, le
definizioni delle funzioni trigonometriche elementari e le loro principali proprietà.

3.1 Definizione di vettore


Definizione 3.1 Si consideri un segmento AB appartenente ad una retta r dello spazio
ambiente S3 . Ad AB si associa la direzione, quella della retta r, il verso, ad esempio,

75
76 Calcolo Vettoriale

quello da A verso B e la lunghezza indicata con kABk e detta norma o lunghezza di AB .


Un segmento di questo tipo si dice segmento orientato e sarà indicato con la simbologia
!
AB . La totalità di tutti i segmenti orientati aventi la stessa direzione, lo stesso verso e la
stessa lunghezza di AB , prende il nome di vettore x e sarà generalmente indicato con le
lettere minuscole in grassetto.

Riassumendo, ad ogni vettore x si associano tre entità:


8
< direzione di x
verso di x
:
norma di x indicata con kxk.
Per definizione, la norma di ogni vettore è un numero reale positivo, eventualmente nullo.
Se il vettore x è individuato dai punti A e B dello spazio, per indicarlo si potranno usare,
! !
indifferentemente, le seguenti notazioni: x, AB , B A, [AB]. Inoltre AB è detto un
rappresentante del vettore x; per abbreviare si scriverà:
!
x = AB.
Segue dalla definizione che lo stesso vettore x ammette infiniti rappresentanti, per esem-
pio la coppia di punti C, D dello spazio tali che i segmenti AB e CD siano paralleli,
! !
abbiano la stessa lunghezza e lo stesso verso, cioè x = AB = CD.
Se A = B , il segmento ottenuto, che ha come rappresentante A e anche un qualsiasi
punto dello spazio, si indica con o e prende il nome di vettore nullo. Il vettore nullo è
l’unico vettore di norma uguale a zero ed ha direzione e verso indeterminati.
Se kxk = 1, x si dice versore. Sarà molto utile il concetto di versore in quanto permetterà
di individuare agevolmente l’unità di misura.
Se si fissa un punto O nello spazio affine S3 e si identifica, di conseguenza, ogni vettore x
!
con il punto P dato da x = OP allora S3 coincide con l’insieme dei vettori dello spazio
che si indica con V3 , analogamente, S2 (fissato il punto O) si identifica con l’insieme
dei vettori V2 di un piano e S1 con l’insieme dei vettori V1 di una retta. Il significato dei
numeri 1, 2, 3 in V1 , V2 , V3 sarà discusso ampiamente in questo capitolo. Si osservi inoltre
che, se non viene fissato il punto O, V1 si può interpretare geometricamente come una
qualsiasi retta dello spazio di direzione uguale a quella dei suoi vettori, V2 invece si può
visualizzare geometricamente come un qualsiasi piano dello spazio parallelo ai vettori ad
esso appartenenti. I vettori per cui non è indicato il punto di applicazione prendono anche
il nome di vettori liberi. V1 e V2 vengono, rispettivamente, chiamati retta vettoriale e
piano vettoriale.
Nel Paragrafo 3.10 viene data una formulazione più rigorosa della Definizione 3.1; per
quello che segue, però, è sufficiente che il Lettore abbia un’idea intuitiva di questo con-
cetto.
Capitolo 3 77

Nei due paragrafi successivi si introdurranno alcune operazioni tra vettori, iniziando dalla
somma di vettori e dal prodotto di un numero reale per un vettore. È molto importante
osservare che queste operazioni (ovviamente con una definizione diversa da quella che
sarà di seguito presentata) sono già state introdotte nell’insieme delle matrici, nel capitolo
precedente. Sarà sorprendente notare che per le operazioni tra vettori saranno valide le
stesse proprietà dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo
sarà dedicato allo studio assiomatico degli insiemi su cui è possibile definire operazioni
di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui l’insieme delle
matrici Rm,n e gli insiemi dei vettori V3 , V2 , V1 sono esempi.

3.2 Somma di vettori


Definizione 3.2 La somma in V3 è l’operazione:

+ : V3 ⇥ V3 ! V3 , (x, y) 7 ! x + y,
! !
dove il vettore x + y è cosı̀ definito: fissato un punto O di S3 , siano OA e OB due
!
segmenti orientati rappresentanti di x e y, rispettivamente, allora x + y = OC , dove
!
OC è il segmento orientato che si determina con la regola del parallelogramma, illustrata
nella Figura 3.1.

B C

y x+y

O x A

Figura 3.1: Somma di due vettori

Osservazione 3.1 1. La definizione di somma di vettori è ben data. Vale a dire, facen-
do riferimento alle notazioni della Definizione 3.2, se si cambiano i rappresentanti
di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del
78 Calcolo Vettoriale

!
parallegramma, ha la stessa direzione, lo stesso verso e la stessa norma di OC . La
situazione geometrica è illustrata nella Figura 3.2, la dimostrazione di questa af-
fermazione, che segue in modo elementare dalle proprietà dei parallelogrammi, è
lasciata al Lettore.

2. Per definizione x + y è complanare a x e a y, dove con il temine complanare si


indicano i vettori che ammettono rappresentanti appartenenti allo stesso piano. Di
conseguenza l’operazione di somma di vettori è ben definita anche in V2 e anche in
V1 . Infatti se x e y sono paralleli, ossia se ammettono rappresentanti appartenenti
alla stessa retta, o, equivalentemente, se hanno la stessa direzione, allora la loro
somma x + y è ancora un vettore parallelo ad x e a y, la cui norma è pari alla
somma delle norme di x e di y se essi sono concordi (ossia se hanno lo stesso
verso), in caso contrario, ossia se i vettori sono discordi, la norma di x + y è la
differenza delle norme di x e y. Il verso di x + y è concorde con il verso del
vettore addendo di norma maggiore. L’evidente situazione geometrica è illustrata
nella Figura 3.3. Questo fatto si esprime anche dicendo che V2 e V1 sono chiusi
rispetto all’operazione di somma di vettori.

3. Il punto C è il simmetrico di O rispetto al punto medio del segmento AB, (cfr.


Fig. 3.1).

4. Per ogni vettore x (non nullo) esiste l’opposto x, che è il vettore parallelo ad x
avente la stessa norma di x ma verso opposto. Quindi:

x + ( x) = o.

Si osservi, inoltre, che anche il vettore nullo o ammette l’opposto, che coincide con
il vettore nullo stesso.

Teorema 3.1 Per la somma di vettori in V3 valgono le seguenti proprietà:

1. x + y = y + x, x, y 2 V3 (proprietà commutativa);

2. (x + y) + z = x + (y + z), x, y, z 2 V3 (proprietà associativa);

3. 9 o 2 V3 | x + o = x, x 2 V3 (esistenza dell’elemento neutro);

4. 8x 2 V3 , 9 x 2 V3 | x + ( x) = o (esistenza dell’opposto).

Inoltre:

5. kxk kyk  kx + yk  kxk + kyk, x, y 2 V3 .


Capitolo 3 79

B C

x+y
y

O x A
B' C'

x+y
y

O' x A'

Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti

x y x

y
x+y
x+y

Figura 3.3: Somma di due vettori paralleli


80 Calcolo Vettoriale

Dimostrazione La dimostrazione segue dalla definizione di somma di vettori e dalle


proprietà dei parallelogrammi ed è lasciata al Lettore. L’elemento neutro è il vettore nullo
o e l’opposto del vettore x coincide con il vettore x prima definito. Si osservi che le
due uguaglianze in 5. possono valere solo se i vettori x e y sono paralleli.

Osservazione 3.2 1. Dati due vettori x e y la loro somma x + y si può ottenere


mediante la regola della poligonale, cioè scelti due segmenti orientati consecutivi
! ! !
x = AB, y = BC , risulta x + y = AC .

2. La proprietà associativa permette di estendere la definizione di somma di vettori a


n addendi. Dati, quindi, i vettori x1 , x2 , . . . , xn , la loro somma x1 + x2 + . . . + xn
si può rappresentare agevolmente, tenendo conto dell’osservazione precedente, con
il segmento che chiude la poligonale ottenuta dai segmenti posti consecutivamen-
te, che rappresentano i vettori addendi. La situazione geometrica è illustrata nella
Figura 3.4.

3. È molto importante osservare che le proprietà della somma di vettori coincidono


con le proprietà della somma di numeri reali, in questo caso il vettore nullo è il
numero 0. In un certo senso, questo è un motivo che autorizza la denominazione
“somma” all’operazione tra vettori appena introdotta. Dal punto di vista “sperimen-
tale”, invece, la definizione di somma di vettori è giustificata dal comportamento
fisico della composizione di due forze applicate nello stesso punto.

4. Il teorema precedente, ha permesso di definire la differenza di due vettori, ossia:

x y = x + ( y).

La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresenta-
ta dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia
per esercizio la rappresentazione grafica della differenza di due vettori paralleli.

5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari
con x, esistono e sono unici due vettori x1 ed x2 in quelle direzioni, tali che:

x = x1 + x2 .

L’operazione prende il nome di decomposizione di un vettore lungo due direzioni


assegnate.

6. Si osservi che (V3 , + ) con l’operazione di somma di vettori ha la struttura di


gruppo commutativo (cfr. Oss. 2.2).
Capitolo 3 81

x4

x3
x1 + x2 + x3 + x4

x2

x1

Figura 3.4: Somma di quattro vettori

-y x-y

Figura 3.5: Differenza di due vettori


82 Calcolo Vettoriale

3.3 Il prodotto di un numero reale per un vettore


L’operazione che sta per essere definita trova giustificazione nel mondo in cui si vive, in
quanto formalizza il risultato che si ottiene quando una forza viene raddoppiata o molti-
plicata per un numero reale qualsiasi. D’altra parte, questa operazione è in un certo senso
singolare dal punto di vista algebrico perché gli elementi che concorrono alla sua defi-
nizione appartengono ad insiemi diversi. Inoltre, si può considerare come l’operazione
analoga al prodotto di un numero reale per una matrice introdotto nella Definizione 2.4.

Definizione 3.3 Il prodotto di un numero reale per un vettore x 2 V3 è l’operazione:

R ⇥ V3 ! V3 , ( , x) 7 ! x,

dove il vettore x (detto anche prodotto dello scalare per x) è definito nel modo
seguente:

1. se = 0 o x = o, allora x = o.

2. Se 6= 0 e x 6= o si pone x = y, dove:
la direzione di y coincide con la direzione di x;
il verso di y è concorde con quello di x se > 0, discorde se < 0;
kyk = | |kxk, dove | | indica il valore assoluto del numero reale .

Osservazione 3.3 Dalla definizione segue che x = o se e solo se = 0 oppure x = o.


Per la dimostrazione si veda l’Esercizio 4.23.

Sono valide le seguenti proprietà la cui dimostrazione è lasciata per esercizio.

Teorema 3.2 1. (x + y) = x + y, 2 R, x, y 2 V3 ;

2. ( + µ)x = x + µx, , µ 2 R, x 2 V3 ;

3. (µx) = ( µ)x, , µ 2 R, x 2 V3 ;

4. 1 x = x, x 2 V3 .

Osservazione 3.4 L’insieme V3 con le operazioni di somma di vettori e le relative quattro


proprietà e di prodotto di un numero reale per un vettore e le relative quattro proprietà,
è un esempio di spazio vettoriale su R. La definizione assiomatica di spazio vettoriale è
rimandata al capitolo successivo. Allo stesso modo, anche V2 e V1 sono esempi di spazi
vettoriali. In realtà, V2 e V1 sono esempi di sottospazi vettoriali di V3 perché sono chiusi
Capitolo 3 83

rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e
y in V2 e per ogni 2 R si ha che x + y 2 V2 e x 2 V2 (analogamente per V1 ). Inoltre,
in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti
ad un piano vettoriale qualsiasi) si può pensare che V1 ⇢ V2 ⇢ V3 .

Seguono alcune definizioni e proprietà di tipo teorico, che saranno riprese in modo com-
pleto nel capitolo successivo. Si è deciso di inserire in questo contesto ciò che segue,
anche se i risultati che si ottengono saranno conseguenza della teoria più generale degli
spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V3 è pos-
sibile rappresentare graficamente le nozioni man mano introdotte, aiutando cosı̀ la loro
comprensione.

Definizione 3.4 Dati k vettori v1 , v2 , . . . , vk di V3 , si dice che un vettore x 2 V3 è


combinazione lineare di v1 , v2 , . . . , vk se esistono k numeri reali x1 , x2 , . . . , xk tali che:

x = x1 v1 + x2 v2 + . . . + xk vk .

I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare.

Mediante la nozione di combinazione lineare di vettori si possono riformulare, in modo


più accurato dal punto di vista algebrico, le nozioni, già introdotte in modo geometrica-
mente intuitivo, di retta vettoriale e di piano vettoriale.

Definizione 3.5 Dato un vettore x 6= o, la retta vettoriale generata da x è l’insieme:

L(x) = { x | 2 R}.

Dati due vettori x e y non paralleli il piano vettoriale generato da x e da y è l’insieme:

L(x, y) = { x + µy | , µ 2 R}.

Osservazione 3.5 Segue in modo evidente dalla definizione che L(x, y) = L(y, x). Non
ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde,
usualmente usate per indicare che è importante l’ordine dei vettori; è una convenzione
usare questa notazione anche se non è corretta.

Scopo del prossimo paragrafo è mettere in relazione le nozioni algebriche e geometriche


enunciate nelle definizioni precedenti.
84 Calcolo Vettoriale

3.4 Dipendenza lineare e basi


Dalla Definizione 3.5 segue che il parallelismo e la complanarità tra vettori possono essere
letti in termini delle loro combinazioni lineari. Per differenziare ulteriormente le due
diverse situazioni geometriche è necessario introdurre la seguente definizione.

Definizione 3.6 Dati k vettori v1 , v2 , . . . , vk di V3 , essi si dicono linearmente indipen-


denti se l’unica loro combinazione lineare uguale al vettore nullo è quella con coefficienti
tutti nulli, vale a dire:

x1 v1 + x2 v2 + . . . + xk vk = o =) x1 = x2 = . . . = xk = 0. (3.1)

L’insieme {v1 , v2 , . . . , vk } di vettori linearmente indipendenti si dice libero.


Di conseguenza k vettori v1 , v2 , . . . , vk di V3 si dicono linearmente dipendenti se esiste
almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli,
cioè se si ha:
x1 v1 + x2 v2 + . . . + xk vk = o
con almeno uno tra i coefficienti x1 , x2 , . . . , xk non nullo.

Osservazione 3.6 1. Si osservi che in (3.1) vale anche l’implicazione opposta.

2. L’insieme {x} è libero se e solo se x 6= o.

Prima di proporre alcuni esempi conviene enunciare il teorema che segue, molto facile,
ma utile per riconoscere vettori linearmente dipendenti o linearmente indipendenti. Per la
dimostrazione si rimanda al Paragrafo 4.3.

Teorema 3.3 I vettori v1 , v2 , . . . , vk di V3 sono linearmente dipendenti se e solo se


almeno uno di essi si può esprimere come combinazione lineare dei rimanenti.

Esempio 3.1 1. Se x = 2y, allora x + µy = o con = 1, µ = 2. Pertanto i


vettori x e y sono linearmente dipendenti.

2. Il vettore nullo o è linearmente dipendente con ogni altro vettore x in quanto:

o + 0x = o,

per ogni 2 R, quindi anche per valori non nulli di . In particolare, l’insieme
contenente solo il vettore nullo {o} non è libero.
Capitolo 3 85

3. Gli elementi di L(x) sono tutti linearmente dipendenti tra di loro, ma la stessa
proprietà non vale per L(x, y), si vedrà infatti nel Teorema 3.4 che due vettori non
paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi
banale da considerazioni geometriche elementari.

Il teorema che segue conclude lo studio del parallelismo e della complanarità tra vettori
mediante la dipendenza lineare.

Teorema 3.4 1. Due vettori x e y di V3 sono linearmente dipendenti se e solo se


sono paralleli, ossia se e solo se appartengono alla stessa retta vettoriale.

2. Tre vettori x, y e z di V3 sono linearmente dipendenti se e solo se sono complanari,


ossia se e solo se appartengono allo stesso piano vettoriale.

3. Quattro vettori di V3 sono sempre linearmente dipendenti.

Segue subito dal teorema appena enunciato che:

1. il numero massimo di vettori linearmente indipendenti in una retta vettoriale


V1 è 1.

2. Il numero massimo di vettori linearmente indipendenti in un piano vettoriale


V2 è 2.

3. Il numero massimo di vettori linearmente indipendenti nello spazio vettoriale


V3 è 3.

Ecco, finalmente, una prima definizione algebrica del numero che si legge a pedice!

Dimostrazione 1. Si supponga che x e y siano paralleli. Se entrambi i vettori sono


il vettore nullo, o uno solo dei due è il vettore nullo, allora sono linearmente dipen-
denti. Si supponga ora che entrambi i vettori non siano nulli. Dalla Definizione 3.3
si ha che esiste un numero reale per cui x = y il cui valore assoluto è dato da:

kxk
| |=
kyk

e il segno di è positivo se x e y hanno verso concorde, altrimenti è negativo.


Dal Teorema 3.3 segue che i vettori x e y sono linearmente dipendenti. Viceversa,
se x e y sono linearmente dipendenti si perviene alla tesi applicando di nuovo il
Teorema 3.3.
86 Calcolo Vettoriale

K C

B z

O x A H

Figura 3.6: Complanarità di tre vettori

C
D
v3
x
v2
B

O
H

v1 A

Figura 3.7: Dipendenza lineare di quattro vettori


Capitolo 3 87

2. Si inizia a dimostrare che se i vettori x, y, z sono complanari, allora sono linear-


mente dipendenti. Si esamina solo il caso in cui x e y sono linearmente indipen-
denti, lasciando per esercizio gli altri casi. A tale scopo si considerino tre segmenti
orientati che li rappresentano, aventi tutti l’estremo O in comune (la situazione
geometrica è descritta nella Figura 3.6) si ha:
! ! !
OA = x, OB = y, OC = z.

Essendo i tre vettori complanari, i punti O, A, B, C appartengono allo stesso piano.


Si decomponga il vettore z lungo le direzioni di x e di y (cfr. Oss. 3.2, punto 4.),
individuando i punti H sulla retta OA e K sulla retta OB ; si ottiene:
! ! !
OC = OH + OK, (3.2)
! !
ma OH è il rappresentante di un vettore parallelo a x e OK è il rappresentante di
un vettore parallelo a y. La relazione (3.2) equivale alla dipendenza lineare dei tre
vettori dati. Il viceversa è lasciato per esercizio.

3. Siano v1 , v2 , v3 , x quattro vettori di V3 . Si supponga che v1 , v2 , v3 non siano com-


planari, quindi siano linearmente indipendenti, lasciando per esercizio tutti gli altri
casi particolari, da cui si perviene agevolmente alla tesi. Facendo riferimento alla
! ! ! !
Figura 3.7, si indichino con OA = v1 , OB = v2 , OC = v3 , OD = x i rap-
presentanti dei quattro vettori dati, aventi tutti un estremo in O. I punti O, A, B, C
non sono complanari, mentre i punti O, A, B individuano un piano ⇡ . Si supponga,
inoltre, che D non appartenga a ⇡ (in caso contrario il teorema sarebbe dimostra-
to). Si tracci dal punto D la parallela alla retta OC che incontra il piano ⇡ in H .
Per costruzione:
! ! !
OD = OH + HD. (3.3)
!
Decomponendo il vettore OH nelle direzioni dei vettori v1 e v2 , si individuano tre
numeri reali x1 , x2 , x3 che permettono di riscrivere la (3.3) come:

x = x1 v1 + x2 v2 + x3 v3 , (3.4)

e, quindi, segue la tesi.

La decomposizione di un generico vettore nello spazio, rispetto a tre vettori linearmente


indipendenti assegnati, ottenuta per costruzione nella dimostrazione dell’ultimo punto del
teorema precedente, è in realtà unica, come afferma il teorema che segue.

Teorema 3.5 In V3 , dati tre vettori linearmente indipendenti v1 , v2 , v3 , ogni vettore x


di V3 si scrive in modo unico come combinazione lineare dei tre vettori dati.
88 Calcolo Vettoriale

Dimostrazione È sufficiente dimostrare l’unicità della decomposizione (3.4). Si sup-


ponga che esistano altri numeri reali y1 , y2 , y3 tali che:

(x1 , x2 , x3 ) 6= (y1 , y2 , y3 )

e per cui:
x = y1 v1 + y2 v2 + y3 v3 . (3.5)
Uguagliando (3.4) e (3.5) segue:

o = (x1 y1 )v1 + (x2 y2 )v2 + (x3 y3 )v3 .

Poiché v1 , v2 , v3 sono linearmente indipendenti, si ha x1 = y1 , x2 = y2 , x3 = y3 .

Il teorema che segue riformula i risultati precedenti nei casi particolari di V2 e di V1 .

Teorema 3.6 1. Dati due vettori linearmente indipendenti v1 , v2 di un piano vetto-


riale V2 , ogni vettore x di V2 determina in modo unico la coppia di numeri reali
(x1 , x2 ) tale che:
x = x1 v1 + x2 v2 . (3.6)

2. Dato un vettore v1 non nullo in una retta vettoriale V1 , ogni vettore x 2 V1


determina in modo unico il numero reale x1 tale che:

x = x1 v1 . (3.7)

Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V3 è indi-
viduata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano
vettoriale V2 è sufficiente scegliere due vettori linearmente indipendenti per individuare
tutti i vettori di V2 e nel caso di una retta vettoriale V1 è sufficiente scegliere un qualsiasi
vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di
definire in modo inequivocabile i concetti fondamentali di base e di dimensione nel modo
che segue.

Definizione 3.7 1. Si dice base di V3 una qualsiasi terna ordinata di vettori linear-
mente indipendenti. Si dice dimensione di V3 il numero dei vettori di una base e si
indica con dim(V3 ) = 3.

2. Si dice base di un piano vettoriale V2 una qualsiasi coppia ordinata di vettori li-
nearmente indipendenti di V2 . Si dice dimensione di V2 il numero dei vettori di una
base e si indica con dim(V2 ) = 2.
Capitolo 3 89

3. Si dice base di una retta vettoriale V1 un suo qualsiasi vettore non nullo. Si dice
dimensione di V1 il numero dei vettori di una base e si indica con dim(V1 ) = 1.

Una base di V3 verrà indicata con la notazione B = (v1 , v2 , v3 ). In questo caso l’ordine
con cui si scrivono i vettori è importante perché determina l’ordine con cui si scrivono
i coefficienti (x1 , x2 , x3 ) della combinazione lineare (3.4). In modo analogo una base
di un piano vettoriale V2 sarà B 0 = (v1 , v2 ) e una base di una retta vettoriale V1 sarà
B 00 = (v1 ).

v3

v2
a

v1
Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari

Osservazione 3.7 In V3 , in V2 e in V1 esistono infinite basi ma il numero dei vettori che


le compongono è sempre pari alla dimensione dei rispettivi spazi vettoriali.

Osservazione 3.8 Dati tre vettori complanari (non paralleli) v1 , v2 , v3 si ha che ogni vet-
tore x appartenente al piano vettoriale individuato da v1 , v2 , v3 , si decompone in infiniti
modi diversi rispetto ai tre vettori dati. Per esempio è sufficiente scegliere una direzione
arbitraria individuata da un vettore a come combinazione lineare di v1 , v2 e decomporre
x rispetto alle direzioni individuate da v3 e a; oppure decomporre x rispetto ad una di-
rezione arbitraria b ottenuta come combinazione lineare di v2 e v3 e cosı̀ via (cfr. Oss.
3.2 punto 5.). La situazione geometrica è descritta nella Figura 3.8 in cui si è posto, per
esempio, a = v1 + v2 e x = a + µv3 ed inoltre si è posto b = v2 + v3 e x = ⌫b + 'v1 ,
dove , µ, ⌫, ' sono opportuni numeri reali.
90 Calcolo Vettoriale

I Teoremi 3.5 e 3.6 permettono di introdurre la seguente definizione.

Definizione 3.8 Fissata una base B = (v1 , v2 , v3 ) di V3 , per ogni vettore x di V3 gli
elementi dell’unica terna ordinata di numeri reali (x1 , x2 , x3 ) definita da (3.4) sono detti
le componenti di x rispetto alla base B. In modo analogo la formula (3.6) definisce
le componenti di un generico vettore x del piano vettoriale V2 rispetto alla base B 0 =
(v1 , v2 ) di V2 e la formula (3.7) definisce la componente di un generico vettore x di una
retta vettoriale V1 rispetto alla base B 00 = (v1 ).

Osservazione 3.9 Nel caso di V3 , fissata una base B = (v1 , v2 , v3 ), si è definita una
corrispondenza biunivoca tra V3 e R3 che associa ad ogni vettore x le sue componenti.
Spesso si scrive, con un abuso di notazione:

x = (x1 , x2 , x3 )

o, in forma matriciale, con: 0 1


x1
x = @ x2 A.
x3
Si vedrà, infatti, in seguito, come sia più conveniente nei calcoli utilizzare una matrice
colonna di R3,1 per indicare le componenti di un vettore di V3 , che è preferibile chiamare
X per distinguerla dal vettore x:
0 1
x1
X = @ x2 A.
x3

Analoghe considerazioni valgono per i casi particolari di V2 e di V1 .

Il teorema che segue, la cui dimostrazione è un facile esercizio, permette di calcola-


re la somma di due vettori e il prodotto di un numero reale per un vettore mediante le
componenti.

Teorema 3.7 In V3 , dati i vettori x = x1 v1 + x2 v2 + x3 v3 , y = y1 v1 + y2 v2 + y3 v3 ,


scritti rispetto alla base B = (v1 , v2 , v3 ), si ha:

x + y = (x1 + y1 )v1 + (x2 + y2 )v2 + (x3 + y3 )v3 ,

x = ( x1 )v1 + ( x2 )v2 + ( x3 )v3 ,

con 2 R; cioè le componenti della somma di due vettori si ottengono semplicemente


sommando le rispettive componenti, mentre le componenti del vettore x si ottengono
Capitolo 3 91

moltiplicando per ogni componente di x. In notazione matriciale, al vettore x + y si


associa la matrice colonna delle sue componenti rispetto alla base B:
0 1
x1 + y1
X + Y = @ x2 + y2 A.
x3 + y3

Al vettore x si associa la matrice colonna delle sue componenti rispetto alla base B:
0 1
x1
X = @ x2 A.
x3

Analoghe affermazioni valgono anche nel caso di un piano vettoriale V2 e di una retta
vettoriale V1 .

Osservazione 3.10 1. Il vettore nullo o è l’unico vettore di V3 avente componenti


tutte nulle o = (0, 0, 0), rispetto ad una qualsiasi base di V3 .

2. I vettori di una base B = (v1 , v2 , v3 ) di V3 hanno componenti, rispetto alla stessa


base B:
v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1).

3. Dal teorema precedente e dalla notazione matriciale usata per le componenti di un


vettore segue l’assoluta concordanza tra le definizioni di somma di matrici e di
prodotto di un numero reale per una matrice, introdotte nel capitolo precedente e la
somma di vettori in componenti e il prodotto di un numero reale per un vettore, in
componenti definite in questo capitolo.

Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare
dei vettori mediante le loro componenti. Si farà uso delle nozioni di rango di una matrice
e del Teorema di Rouché–Capelli introdotti nel Capitolo 1 per la risoluzione dei sistemi
lineari.

Esempio 3.2 1. In V3 , fissata una base B = (v1 , v2 , v3 ), si considerino i vettori x =


x1 v1 + x2 v2 + x3 v3 e y = y1 v1 + y2 v2 + y3 v3 . Dal Teorema 3.4 segue che x è
parallelo a y se e solo se x e y sono linearmente dipendenti, ossia se e solo se è
possibile determinare un numero reale tale che:

y = x.
92 Calcolo Vettoriale

Scrivendo questa relazione mediante le componenti dei due vettori segue:


8
< y 1 = x1
y 2 = x2
:
y 3 = x3
e, in termini matriciali, equivale a richiedere che:
✓ ◆
x1 x2 x3
rank  1.
y1 y2 y3

Per esempio i vettori x = (1, 2, 3) e y = (2, 4, 6) sono paralleli, mentre i vettori


x e z = (1, 0, 3) non lo sono. Il rango della matrice:
✓ ◆
x1 x2 x3
y1 y2 y3

è pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore
nullo. Il rango di questa matrice è 0 se e solo se x = y = o.

2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono
linearmente dipendenti, ossia per esempio se esistono i numeri reali e µ per cui:

z = x + µy. (3.8)

Fissata una base B = (v1 , v2 , v3 ) di V3 , si indichino con:

x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ), z = (z1 , z2 , z3 )

le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste
componenti, equivale al sistema lineare:
8
< z1 = x1 + µy1
z2 = x2 + µy2
:
z3 = x3 + µy3
e in termini matriciali equivale a:
0 1
x1 x2 x3
rank @ y1 y2 y3 A  2.
z1 z2 z3

Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta è
proprio 2, invece se i vettori x e y sono paralleli, allora anche il vettore z è ad essi
parallelo e il rango della matrice vale 1. Il rango è 0 se e solo se x = y = z = o.
Capitolo 3 93

Esercizio 3.1 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:


a = (1, 3, 1), b = (4, 1, 0), c = (2, 5, 2),
come sono posizionati questi tre vettori nello spazio vettoriale V3 ?

Soluzione Si consideri la matrice A, quadrata di ordine tre, le cui righe sono date dalle
componenti dei tre vettori: 0 1
1 3 1
A=@ 4 1 0 A,
2 5 2
riducendo A per righe si ha:
0 1 0 1
1 3 1 1 3 1
@ A ! @
A= 4 1 0 4 1 0 A.
R3 ! R3 + 2R1
2 5 2 4 1 0

Quindi rank(A) = 2 e ciò implica che i tre vettori sono complanari (infatti sono linear-
mente dipendenti). Poiché i vettori a e b non sono paralleli (infatti sono linearmente
indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due
numeri reali e µ tali che:
c = a + µb.
Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al
sistema lineare: 8
< + 4µ = 2
3 +µ= 5
:
=2
la cui soluzione è ( = 2, µ = 1), e perciò c = 2a + b.

Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere
riassunti nel seguente teorema.

Teorema 3.8 Sia B = (v1 , v2 , v3 ) una base di V3 , si considerino vettori:


x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ), z = (z1 , z2 , z3 )
scritti in componenti rispetto alla base B.
1. Un vettore non nullo x in V3 è linearmente indipendente se e solo se, indicata con
A la matrice avente come unica riga le componenti di x:
A= x1 x2 x3 ,
si ha rank(A) = 1. Equivalentemente x = o se e solo se rank(A) = 0.
94 Calcolo Vettoriale

2. Due vettori x e y di V3 sono linearmente indipendenti se e solo se, indicata con A


la matrice avente come righe le componenti dei due vettori:
✓ ◆
x1 x2 x3
A= ,
y1 y2 y3

si ha rank(A) = 2. Equivalentemente, i vettori x e y (entrambi non nulli) sono


linearmente dipendenti, vale a dire sono paralleli, se e solo se rank(A) = 1. Se
x = y = o, allora rank(A) = 0 e viceversa.

3. Tre vettori x, y, z sono linearmente indipendenti in V3 (vale a dire formano una


base di V3 ) se e solo se, indicata con A la matrice quadrata avente come righe le
componenti dei tre vettori:
0 1
x1 x2 x3
A = @ y1 y2 y3 A, (3.9)
z1 z2 z3

si ha:
1
rank(A) = 3 () 9 A () det(A) 6= 0.
Equivalentemente, i vettori x, y, z sono linearmente dipendenti se e solo se:

rank(A) < 3.

Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il
terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece
rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo)
sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o.

Dimostrazione La dimostrazione segue dall’Esempio 3.2. In alternativa, per dimostra-


re l’ultimo punto si può anche procedere esplicitando, mediante le componenti dei vettori,
la relazione:
1 x + 2 y + 3 z = o,

con 1, 2 3 2 R, che equivale al sistema lineare omogeneo:


8
< 1 x1 + 2 y1 + 3 z1 = 0
1 x2 + 2 y2 + 3 z2 = 0
:
1 x3 + 2 y3 + 3 z3 = 0.

Affinché i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo
deve ammettere la sola soluzione nulla. Questo accade se e solo se:
Capitolo 3 95

0 1
x1 y1 z1
rank @ x2 y2 z2 A = 3.
x3 y3 z3
Si osservi che la matrice ottenuta è la trasposta della matrice A in (3.9). Si dovrà attende-
re la dimostrazione del Teorema 4.19 per assicurare l’equivalenza dei due procedimenti
seguiti per pervenire alla tesi. Il risultato, in realtà, è intuitivamente accettabile, tenendo
conto che det(A) = det(tA).
Esercizio 3.2 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u1 = (1, 0, h), u2 = (2, 1, 1), u3 = (h, 1, 1),
stabilire per quali valori di h 2 R essi formano una base di V3 .
Soluzione I tre vettori dati formano una base di V3 se e solo se sono linearmente
indipendenti, ossia se la matrice:
0 1
1 0 h
A=@ 2 1 1 A
h 1 1
ha det(A) 6= 0. Poiché det(A) = h(2 + h) si ha che i vettori u1 , u2 , u3 formano una
base di V3 se e solo se h 2
/ { 2, 0}.
Esercizio 3.3 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = v1 v2 + 3v3 , v = 2v1 + v2 v3 , w = v1 + 2v2 + v3 ,
dimostrare che costituiscono una base di V3 .
Soluzione Si tratta di dimostrare che il rango della matrice:
0 1
1 1 3
A=@ 2 1 1 A
1 2 1
è 3. Riducendola per righe si ha:
0 1 0 1
1 1 3 ! 1 1 3
A= @ 2 1 1 A R2 ! R2 + R1 @ 3 0 2 A
1 2 1 R3 ! R3 + 2R1 3 0 7
0 1
1 1 3
! @ 3 0 2 A,
R3 ! R3 R2
0 0 5
96 Calcolo Vettoriale

da cui la tesi.
Esercizio 3.4 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = 2v1 + v2 v3 , quadv = v1 + v3 , w = v1 + v2 2v3 .
Verificare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come com-
binazione lineare dei rimanenti.
Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefficienti reali
, µ e ⌫ e la si ponga uguale al vettore nullo:
u + µv + ⌫w = o.
Sostituendo nella combinazione lineare l’espressione dei vettori scritta rispetto alla base
B, si ha:
(2v1 + v2 v3 ) + µ(v1 + v3 ) + ⌫(v1 + v2 2v3 )
= (2 + µ + ⌫)v1 + ( + ⌫)v2 + ( + µ 2⌫)v3 = o.
Si è cosı̀ ottenuta una combinazione lineare dei vettori della base B che è uguale al vettore
nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefficienti
di tale combinazione lineare devono essere nulli, ossia:
8
< 2 +µ+⌫ =0
+⌫ =0
:
+ µ 2⌫ = 0.
Il sistema lineare omogeneo cosı̀ ottenuto ha matrice dei coefficienti:
0 1
2 1 1
A=@ 1 0 1 A.
1 1 2
Riducendo A per righe si ha:
0 1 0 1
2 1 1 2 1 1
!
A=@ 1 0 1 A @ 1 0 1 A
R3 ! R3 R1
1 1 2 3 0 3
0 1
2 1 1
! @ 1 0 1 A,
R3 ! R3 + 3R2
0 0 0
ossia rank(A) = 2. Il sistema lineare omogeneo ammette, quindi, infinite soluzioni date
da ( , , ), 2 R. I vettori u, v, w sono perciò linearmente dipendenti e quindi, posto
per esempio = 1, si ottiene u = v + w. Come già osservato nella dimostrazione del
Teorema 3.8, si noti che la matrice A ha come colonne le componenti dei vettori u, v, w.
Capitolo 3 97

3.5 Il cambiamento di base in V3


Il problema del cambiamento di base in V3 consiste nel determinare la relazione che
intercorre tra le componenti di un qualsiasi vettore scritto rispetto a due basi diverse,
precedentemente assegnate.

Siano date due basi B = (v1 , v2 , v3 ) e B 0 = (v10 , v20 , v30 ) di V3 . Ogni vettore x 2 V3 si
scrive in componenti, rispetto alla due basi, nella forma:
x = x1 v1 + x2 v2 + x3 v3 = x01 v10 + x02 v20 + x03 v30 . (3.10)
Usando la notazione matriciale introdotta nel paragrafo precedente, si indichino con:
0 1 0 0 1
x1 x1
X = @ x2 A, X 0 = @ x02 A (3.11)
0
x3 x3
le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base B 0 è
nota quando sono note le componenti dei suoi vettori rispetto alla base B, ossia:
8 0
< v1 = p11 v1 + p21 v2 + p31 v3
v0 = p12 v1 + p22 v2 + p32 v3 (3.12)
: 20
v3 = p13 v1 + p23 v2 + p33 v3 .
In altri termini, la base B 0 è nota quando è assegnata la matrice:
0 1
p11 p12 p13
P = @ p21 p22 p23 A.
p31 p32 p33
P è invertibile perché le sue colonne sono le componenti di vettori linearmente indipen-
denti. La matrice P prende il nome di matrice del cambiamento di base da B a B 0 ed è
0
spesso anche indicata come P = M B,B proprio per mettere maggiormente in evidenza
la sua interpretazione geometrica. La scelta di porre in colonna, anziché in riga, le com-
ponenti dei vettori della base B 0 rende i calcoli più agevoli. Le equazioni (3.12) in forma
matriciale diventano: 0 0 1 0 1
v1 v1
@ v20 A = tP @ v2 A.
v30 v3
Sostituendo questa espressione in (3.10) si ha:
0 1 0 1 0 1
v1 v10 v1
x = x1 x2 x3 @ v2 A = x01 x02 x03 @ v20 A = x01 x02 x03 t @
P v2 A.
v3 v30 v3
98 Calcolo Vettoriale

Dal Teorema 3.5 segue:


t
x1 x2 x3 = x01 x02 x03 P,

da cui, considerando la trasposta di ambo i membri:


0 1 0 0 1
x1 x1
@ x2 A = P @ x02 A.
x3 x03

Usando le notazioni di (3.11) si ottiene:

X = P X 0,

che sono le relazioni richieste e che prendono il nome di equazioni del cambiamento di
base da B a B 0 .

Osservazione 3.11 1. È chiaro che se si esprimono i vettori della base B in compo-


nenti rispetto alla base B 0 si ottiene la matrice inversa P 1 , infatti le equazioni del
cambiamento di base da B 0 a B sono X 0 = P 1 X.

2. Si può trattare in modo analogo il problema del cambiamento di base nel caso del
piano vettoriale V2 . La matrice del cambiamento di base sarà una matrice invertibile
di ordine 2.

3. Nel caso della retta vettoriale V1 ogni numero reale non nullo esprime la compo-
nente del vettore della base B 0 = (v10 ) rispetto alla base B = (v1 ). Se per esempio
v10 = 2v1 , allora P = 2 , mentre le equazioni del cambiamento di base si
riducono all’unica equazione: x1 = 2x01 o x01 = 1/2 x1 . Infatti:
✓ ◆
1
x = x1 v1 = x01 v10 = x1 2v1 .
2

Esercizio 3.5 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:

u = 2v1 + v2 + v3 , v= v1 + 2v2 + v3 ,
w = v1 v2 2v3 , z= v1 2v2 + v3 .

Verificare che B 0 = (u, v, w) è una base di V3 e trovare le componenti di z rispetto alla


base B 0 .
Capitolo 3 99

Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono,
rispettivamente, le componenti dei vettori u, v, w.
0 1
2 1 1 !
P =@ 1 2 1 A R2 ! R2 + 2R1
1 1 2 R3 ! R3 + R1
0 1 0 1
2 1 1 2 1 1
@ 5 A ! @
0 1 5 0 1 A.
R3 ! R3 + R2
3 0 1 8 0 0

Allora rank(P ) = 3, quindi i vettori u, v, w sono linearmente indipendenti. La matrice


P è pertanto la matrice del cambiamento di base dalla base B alla base B 0. Si devono
determinare le componenti x01 , x02 , x03 del vettore z rispetto alla base B 0 , ossia:

z = x01 u + x02 v + x03 w.

Si tratta di risolvere l’equazione matriciale X = P X 0 , dove:


0 1 0 0 1
1 x1
X= @ A
2 , X = 0 @ x02 A,
1 x03

che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da
B a B0 : 8 0
< 2x1 x02 + x03 = 1
x0 + 2x02 x03 = 2
: 10
x1 + x02 2x03 = 1.
Riducendo per righe la matrice completa si ha:
0 1 0 1
2 1 1 1 ! 2 1 1 1
@ 1 A @ !
2 1 2 R2 ! R2 + 2R1 5 0 1 4 A
R3 ! R3 + R2
1 1 2 1 R3 ! R3 + R1 3 0 1 0
0 1 0 1
2 1 1 1 2 1 1 1
@ 5 A ! @ !
0 1 4 5 0 1 4 A
R3 ! (1/4)R3 R1 ! R1 R2
8 0 0 4 2 0 0 1
0 1 0 1
3 1 0 3 ! 0 2 0 3
@ 5 0 1 4 A R1 ! 2R1 + 3R3 @ 0 0 2 3 A.
2 0 0 1 R2 ! 2R2 5R3 2 0 0 1
100 Calcolo Vettoriale

Si perviene alla soluzione:


8
> 1
>
>
> x01 =
>
> 2
>
>
<
3
x02 =
>
> 2
>
>
>
>
>
> 3
: x03 = .
2
Allora:
1 3 3
z= u v w.
2 2 2

3.6 Angolo tra due vettori


Nei paragrafi precedenti si sono considerati solo il parallelismo e la complanarità di vettori
ma non l’angolo che questi formano; per esempio non è stata trattata l’ortogonalità tra
vettori. Per prendere in considerazione quest’aspetto geometrico è necessario introdurre
la nozione precisa di angolo tra due vettori nel modo seguente.

! !
Definizione 3.9 In V3 , considerati due vettori non nulli x = OA, y = OB , scelti i
rispettivi rappresentanti con l’estremo O in comune, si definisce angolo xy
c tra i due
vettori x e y l’angolo convesso ✓ = xy c di vertice O e compreso tra i segmenti OA,
OB . Di conseguenza 0  ✓  ⇡. La situazione geometrica è illustrata nella Figura 3.9.
Inoltre:

• se ✓ = 0 o se ✓ = ⇡ i vettori x e y si dicono paralleli.


• Se ✓ = i vettori x e y si dicono ortogonali (o perpendicolari).
2

• L’angolo tra il vettore nullo o e un qualunque altro vettore può assumere qualsiasi
valore, vale a dire il vettore nullo si può considerare parallelo e ortogonale ad ogni
altro vettore.

Si osservi che se ✓ = 0 i due vettori x e y hanno verso concorde, mentre se ✓ = ⇡


il verso è discorde. Nel Paragrafo 3.7.2 si dimostrerà che la definizione geometrica di
parallelismo di due vettori, intendendosi come tali due vettori che formano un angolo
✓ = 0 o ✓ = ⇡, coincide con la dipendenza lineare dei due vettori.
Capitolo 3 101

q
O x A

Figura 3.9: Angolo tra i due vettori x e y

3.7 Operazioni non lineari tra vettori


In questo paragrafo saranno introdotte tre particolari operazioni tra vettori di V3 che
coinvolgono la nozione di angolo, e precisamente:

1. il prodotto scalare tra due vettori (che a due vettori associa un numero reale);

2. il prodotto vettoriale o esterno tra due vettori (che a due vettori associa un vettore);

3. il prodotto misto tra tre vettori (che a tre vettori associa un numero reale).

Esse sono dette non lineari perché prevedono operazioni con le componenti dei vettori
che non sono di primo grado.

3.7.1 Il prodotto scalare di due vettori


Il prodotto scalare, introdotto in questo paragrafo, è una particolare operazione tra due
vettori mediante la quale sarà possibile calcolare la norma di ogni vettore e individuare
l’angolo tra essi formato. Inoltre, la sua particolare espressione permetterà di estenderla
anche al caso di spazi vettoriali di dimensione superiore a tre, ma questo argomento sarà
trattato nel Capitolo 5.

Definizione 3.10 Il prodotto scalare x · y di due vettori x e y in V3 in V3 è la funzione:

· : V3 ⇥ V3 ! R
102 Calcolo Vettoriale

cosı̀ definita:
c
x · y = kxkkyk cos(xy). (3.13)

Osservazione 3.12 1. La definizione di prodotto scalare di due vettori, appena intro-


dotta, coinvolge solo la lunghezza dei due vettori dati e l’angolo da essi formato,
quindi può essere ripetuta, allo stesso modo, per i vettori di un piano vettoriale V2 .
Vale a dire:
· : V2 ⇥ V2 ! R, x · y = kxkkyk cos(xy). c

2. Per definizione, il risultato del prodotto scalare di due vettori può essere un numero
reale qualsiasi il cui segno è esclusivamente legato all’ampiezza dell’angolo tra i
due vettori. Precisamente se x e y sono due vettori entrambi non nulli si ha:

a. 0  ✓ < se e solo se x · y > 0;
2

b. < ✓  ⇡ se e solo se x · y < 0;
2

c. se ✓ = allora x · y = 0.
2
Se, invece, uno almeno dei due vettori x e y è il vettore nullo, allora x · y = 0.

3. Da (3.13), ponendo x = y, si ottiene la formula che permette di calcolare la norma


del vettore x: p
kxk = x · x.

4. Da (3.13) segue l’espressione del coseno dell’angolo tra due vettori non nulli x e
y, in funzione del valore del loro prodotto scalare e delle loro norme:
x·y
c =
cos(xy) .
kxkkyk

Il teorema che segue, la cui dimostrazione è una semplice conseguenza delle osservazioni
precedenti, è però estremamente importante perché esprime una condizione equivalente
all’ortogonalità di due vettori.

Teorema 3.9 Due vettori di V3 sono ortogonali se e solo se il loro prodotto scalare è
uguale a zero, in formule:

x?y () x · y = 0, x, y 2 V3 .

Si procede ora con lo studio dell’interpretazione geometrica del numero reale che esprime
il prodotto scalare tra due vettori, nel caso in cui questo non sia uguale a zero.
Capitolo 3 103

O p x A
H

Figura 3.10: Vettore proiezione ortogonale di y su x con x · y > 0

H p O x A

Figura 3.11: Vettore proiezione ortogonale di y su x con x · y < 0


104 Calcolo Vettoriale

Teorema 3.10 – Significato geometrico del prodotto scalare – Il prodotto scalare di


due vettoridi V3 , non nulli e non ortogonali, è il prodotto della lunghezza di uno dei due
vettori per la proiezione ortogonale con segno dell’altro vettore sul primo.

Dimostrazione Segue da teoremi elementari di trigonometria. Dati due vettori x e y


non nulli e non ortogonali (in caso contrario il prodotto scalare si annulla) è necessario
distinguere due casi:

a. ✓ = xy
c< ,
2

b. ✓ = xy
c> .
2
In entrambi i casi, considerando i vettori x e y rappresentati mediante segmenti orientati
! !
aventi un estremo in comune, ossia ponendo x = OA e y = OB si ha:

x · y = kxk OH, (3.14)

dove H è la proiezione ortogonale di B sulla retta OA. Pertanto il prodotto scalare di


x e di y coincide con il prodotto della norma di x per la proiezione ortogonale di y su
x. Nel primo caso OH è proprio la lunghezza del segmento proiezione ortogonale di
OB sulla retta OA, nel secondo caso OA è l’opposto di tale lunghezza. La situazione
geometrica è illustrata nelle Figure 3.10 e 3.11. Da notare che i ruoli dei vettori x e y
possono essere scambiati, nel senso che il loro prodotto scalare è anche pari alla norma di
y per la proiezione ortogonale, con segno, di x su y.

Teorema 3.11 – Vettore proiezione ortogonale – Dati due vettori x e y non nulli, il
vettore proiezione ortogonale di y su x è:
x·y
p= x. (3.15)
kxk2

Il vettore proiezione ortogonale di x su y è:


x·y
p0 = y.
kyk2

Il vettore proiezione ortogonale di y su x è, quindi, un vettore parallelo a x, mentre il


vettore proiezione ortogonale di x su y è un vettore parallelo a y.

Dimostrazione È una facile conseguenza del teorema precedente. Innanzi tutto è evi-
dente che x e y sono ortogonali se e solo se p = p0 = o. Se x e y non sono ortogonali,
Capitolo 3 105

allora la lunghezza (con segno) della proiezione ortogonale di x su y si ricava da (3.14)


ed è:
x·y
OH = ,
kxk
che coincide con la norma, con segno, del vettore p. Tenendo conto che, per costruzione,
p è parallelo a x si ha la tesi. La situazione geometrica è illustrata nelle Figure 3.10 e
3.11. Il vettore p0 si ottiene in modo analogo a p scambiando i ruoli di x e di y.

Rimane da determinare l’espressione del prodotto scalare tra due vettori usando le loro
componenti, rispetto ad una base di V3 fissata, ma per fare ciò è necessario ricavare le
proprietà del prodotto scalare in relazione alla somma di vettori e al prodotto di un numero
reale per un vettore.

Teorema 3.12 Il prodotto scalare tra due vettori gode delle seguenti proprietà:
1. x · y = y · x, x, y 2 V3 ,
2. x · (y1 + y2 ) = x · y1 + x · y2 , x, y1 , y2 2 V3 ,
3. (x · y) = ( x) · y = x · ( y), 2 R, x, y 2 V3 .

Dimostrazione 1. È conseguenza immediata della definizione di prodotto scalare.


2. La dimostrazione si evince dalle Figure 3.12 e 3.13. In entrambi i casi sono rap-
! !
presentati i vettori con i punti indicati, in particolare y1 = AB e y2 = BC , quindi
!
y1 + y2 = AC . Dal Teorema 3.10 segue:
x · y1 = kxk AH, x · y2 = kxk HK, x · (y1 + y2 ) = kxk AK,
tenendo conto del segno legato alle lunghezze delle proiezioni ortogonali, si pervie-
ne alla tesi.
3. Occorre distinguere tre casi:
a. = 0;
b. > 0;
c. < 0.
I primi due casi sono molto semplici e vengono lasciati per esercizio.
Se < 0 si ha:
( x)·y = k( x)kkyk cos((\
x)y) = | |kxkkyk cos((\
x)y) = c
| |kxkkyk cos(xy),
in quanto, essendo < 0, l’angolo formato dai vettori x e y è supplementare
dell’angolo formato dai vettori x e y.
106 Calcolo Vettoriale

y2

y
2
+
y
1

B
y1
x
A H K

Figura 3.12: x · (y1 + y2 )

y2
y
2
+
y
1

H x
A K
y1

Figura 3.13: x · (y1 + y2 )


Capitolo 3 107

Sia B = (v1 , v2 , v3 ) una base di V3 . Dati i vettori:

x = x1 v1 + x2 v2 + x3 v3 , y = y1 v1 + y2 v2 + y3 v3

di V3 , tenendo conto delle proprietà dimostrate nel Teorema 3.12, il calcolo del loro
prodotto scalare mediante le componenti, rispetto a B, risulta essere:
3
X
x·y = xi yj vi · vj
i,j=1

da cui segue che il valore di x · y dipende dai prodotti scalari tra i vettori della base B.
In altri termini, per calcolare il prodotto scalare tra due vettori è necessario conoscere, in
modo preciso, l’angolo formato tra i vettori della base che si sta usando e la loro norma.
Per rendere più agevoli i calcoli si impone, pertanto, la scelta di particolari basi in cui
siano noti a priori le lunghezze dei vettori che le compongono e gli angoli tra di essi.

Definizione 3.11 1. Una base B = (v1 , v2 , v3 ) di V3 si dice ortogonale se vi · vj = 0


per ogni i, j = 1, 2, 3.

2. Una base B = (i, j, k) di V3 si dice ortonormale se:

a. i · j = i · k = j · k = 0,
b. kik = kjk = kkk = 1,

ossia i vettori della base B sono versori a due a due ortogonali.

3. Una base B = (i, j) di un piano vettoriale V2 si dice ortonormale se:

a. i · j = 0,
b. kik = kjk = 1,

ossia i vettori della base B sono versori ortogonali.

4. Una base B = (i) di una retta vettoriale V1 si dice ortonormale se kik = 1, ossia
se è formata da un versore.

Osservazione 3.13 1. Una base ortonormale è, quindi, una base ortogonale i cui vet-
tori sono anche versori.

2. È evidente che sia nello spazio vettoriale V3 sia in ogni piano vettoriale V2 sia in
ogni retta vettoriale V1 esistono infinite basi ortonormali.
108 Calcolo Vettoriale

3. Le basi ortonormali nello spazio vettoriale V3 possono essere schematizzate nei


due grafici rappresentati nella Figura 3.14. Si osservi che la definizione di base
ortonormale in V3 non permette di distinguere tra le due situazioni geometriche,
per questo si dovrà attendere il concetto di prodotto vettoriale, definito nel Paragrafo
3.7.2.

4. Le basi ortonormali in un piano vetttoriale V2 possono essere schematizzate nei


due grafici rappresentati nella Figura 3.15. Si osservi che, anche in questo caso,
la definizione di base ortonormale in V2 non permette di distinguere tra le due
situazioni geometriche.

j
j
i
i k
k

Figura 3.14: Basi ortonormali in V3

j i

i
j

Figura 3.15: Basi ortonormali in V2


Capitolo 3 109

Usando la definizione di base ortonormale è possibile semplificare il calcolo del prodotto


scalare tra due vettori, come risulta dal teorema seguente.

Teorema 3.13 – Prodotto scalare in componenti – Sia B = (i, j, k) una base ortonor-
male di V3 e siano:

x = x1 i + x2 j + x3 k, y = y1 i + y2 j + y3 k

due vettori di V3 le cui componenti possono essere rappresentate dalle matrici colonne:
0 1 0 1
x1 y1
X = @ x2 A, Y = @ y2 A.
x3 y3

Il prodotto scalare tra i vettori x e y è dato da:

x · y = x1 y1 + x2 y2 + x3 y3 = tX Y.

La norma del vettore x è:


q p
kxk = x21 + x22 + x23 = tXX.

Il coseno dell’angolo formato dai vettori x e y è:


t
x1 y1 + x2 y2 + x3 y3 XY
c = p
cos(xy) p = p p .
x21 + x22 + x23 y12 + y22 + y32 tXX tY Y

Dimostrazione La dimostrazione segue in modo evidente dalle proprietà del prodotto


scalare e dalla definizione di base ortonormale.

Osservazione 3.14 1. Si può ripetere il Teorema 3.13 nel caso particolare di un pia-
no vettoriale V2 . Precisamente, se B = (i, j) è una base ortonormale di un piano
vettoriale V2 e x = x1 i + x2 j e y = y1 i + y2 j sono due vettori di V2 , allora:

x · y = x1 y1 + x2 y2 ,
p
kxk = x21 + x22 ,
x1 y1 + x2 y2
c =p
cos(xy) p .
x21 + x22 y12 + y22
110 Calcolo Vettoriale

2. In V3 , dati una base ortonormale B = (i, j, k) e un vettore x = x1 i + x2 j + x3 k si


ha:
i · x = x1 , j · x = x2 , k · x = x3 .
Tenendo conto del significato geometrico del prodotto scalare, ne segue che le com-
ponenti di un vettore, rispetto ad una base ortonormale, coincidono con le lunghezze
(con segno) delle proiezioni ortogonali del vettore lungo le rette vettoriali individua-
te dai vettori della base. La situazione geometrica è illustrata nella Figura 3.16. In
formule si ha:
x = (x · i)i + (x · j)j + (x · k)k.
Calcolando, invece, il coseno degli angoli formati dal vettore x con i vettori della
base ortonormale B si ha:
b = x1 , cos(jx)
cos(ix) b = x2 , cos(kx) c = x3 .
kxk kxk kxk
I coseni appena determinati sono a volte indicati con il temine coseni direttori del
vettore x per sottolineare che la direzione di x è individuata dagli angoli formati da
x con i tre vettori della base. Dall’espressione dei coseni direttori appena ricavata
segue:
b + cos2 (jx)
cos2 (ix) b + cos2 (kx)c = 1. (3.16)

3. Il punto precedente si può ripetere, in modo totalmente analogo, nel caso di un


piano vettoriale V2 , riferito ad una base ortonormale B = (i, j). In particolare la
formula (3.16) si riduce a:
b + cos2 (jx)
cos2 (ix) b = 1,

che coincide con la ben nota relazione di trigonometria piana sin2 ↵ + cos2 ↵ = 1
valida per un angolo ↵ qualsiasi. La situazione geometrica è illustrata nella Figura
3.17.

Esercizio 3.6 In V3 , rispetto ad una base ortonormale B = (i, j, k), sono dati i vettori
u = (2, 1, 3) e v = (0, 2, 3), determinare il vettore x simmetrico di u rispetto a v.

Soluzione Indicato con p il vettore proiezione ortogonale di u su v, il vettore x,


simmetrico di u rispetto a v, è tale che:
x + u = 2p.
Dall’espressione del vettore proiezione ortogonale (3.15) si ha:
u·v 11
p= 2
v= (0, 2, 3),
kvk 13
Capitolo 3 111

k x3

j
i x1
x2

Figura 3.16: Componenti di x rispetto a B = (i, j, k)

x2
x

i x1

Figura 3.17: Componenti di x rispetto a B = (i, j)


112 Calcolo Vettoriale

quindi: ✓ ◆
31 27
x = 2p u= 2, , .
13 13

Esercizio 3.7 1. In V3 , riferito ad una base ortonormale B = (i, j, k), i vettori:

a = (1, 2, 0), b = (0, 1, 1)

possono rappresentare i lati di un rettangolo?

2. Determinare i vettori v paralleli alle altezze del parallelogramma individuato da a


e da b.

Soluzione 1. I vettori a e b possono rappresentare i lati di un rettangolo se e solo se


sono ortogonali, ma a · b = 2, quindi a e b possono rappresentano i lati di un
parallelogramma non rettangolo.

2. Si determina il vettore h rappresentato nella Figura 3.18 e si lascia al Lettore il


calcolo degli altri vettori che risolvono il problema. Per costruzione, se p indica il
vettore proiezione ortogonale di b su a si ha:

p + h = b.

Da (3.15) segue:
b·a 2
p= 2
a = (1, 2, 0)
kak 5
da cui: ✓ ◆
2 1
h=b p= , ,1 .
5 5

b
h

p a

Figura 3.18: Esercizio 3.7


Capitolo 3 113

3.7.2 Il prodotto vettoriale di due vettori


Il prodotto vettoriale di due vettori, oggetto di questo paragrafo, è un’operazione parti-
colare tra due vettori che, a differenza del prodotto scalare, può essere solo definita sullo
spazio vettoriale V3 . Esistono opportune generalizzazioni di questa operazione a spazi
vettoriali di dimensione maggiore di 3, ma solo in alcuni casi particolari. Lo studio di
queste generalizzazioni non è immediato e richiede nozioni inserite spesso in corsi più
avanzati. In realtà la definizione del prodotto vettoriale è estremamente importante per
descrivere in Fisica la rotazione dei corpi e il momento angolare.

Definizione 3.12 Il prodotto vettoriale (o esterno) è una funzione:

^ : V3 ⇥ V3 ! V3 , (x, y) 7 ! x ^ y.

Il vettore x ^ y (che si legge x vettoriale y o x esterno y) è cosı̀ definito:

a. la norma di x ^ y è kx ^ yk = kxk kyk sin(xy),


c

b. la direzione di x ^ y è ortogonale al piano vettoriale individuato da x e da y,

c. il verso di x ^ y rispetta la cosiddetta regola della mano destra, ossia ponendo


l’indice della mano destra parallelamente a x, il medio parallelamente a y, la
direzione assunta naturalmente dal pollice coincide con il verso di x ^ y.

xfly

Figura 3.19: Il prodotto vettoriale di x e di y


114 Calcolo Vettoriale

La situazione geometrica è rappresentata nella Figura 3.19.

Osservazione 3.15 La definizione di prodotto vettoriale di due vettori x e y è ancora


valida se entrambi i vettori o uno solo dei due è il vettore nullo. Infatti si ha subito che,
in questo caso, kx ^ yk = 0, rendendo di conseguenza non rilevanti le definizioni di
direzione e verso.

Come si può immediatamente dedurre dalla definizione di prodotto vettoriale e dall’os-


servazione precedente, il prodotto vettoriale di due vettori ha norma pari a zero non solo
nel caso in cui uno dei due vettori sia il vettore nullo o entrambi i vettori siano il vettore
nullo, infatti vale il seguente teorema la cui dimostrazione è conseguenza evidente della
definizione di prodotto vettoriale.

Teorema 3.14 Due vettori x, y di V3 sono paralleli se e solo se il loro prodotto vettoriale
è uguale al vettore nullo; in formule:

x k y () x ^ y = o.

H
A x B

Figura 3.20: Significato geometrico di kx ^ yk

Nel caso in cui il prodotto vettoriale di due vettori non sia il vettore nullo, la sua norma
assume un’interessante significato geometrico, vale, infatti, il seguente teorema.

Teorema 3.15 – Significato geometrico della norma del prodotto vettoriale – La nor-
ma del prodotto vettoriale di due vettori di V3 , non nulli e non paralleli, è pari al doppio
dell’area del triangolo individuato da due segmenti orientati, rappresentanti dei vettori
dati, aventi un estremo in comune.
Capitolo 3 115

! !
Dimostrazione Siano AB e AC rappresentanti dei vettori x e y rispettivamente. Con
riferimento alla Figura 3.20 e tenendo conto che:
! ! [
kx ^ yk = kABkkACk sin(BAC)

si ha la tesi.

Tramite il prodotto vettoriale di due vettori è possibile calcolare il vettore proiezione orto-
gonale di un vettore qualsiasi di V3 su un piano vettoriale, precisamente si ha il seguente
teorema.

Teorema 3.16 – Vettore proiezione ortogonale su un piano vettoriale – Dati due vetto-
ri u, v di V3 linearmente indipendenti, il vettore p proiezione ortogonale di un generico
vettore x di V3 sul piano vettoriale individuato da u e da v è dato da:

x · (u ^ v)
p=x (u ^ v).
ku ^ vk2
! !
Dimostrazione Siano AB, AC i segmenti orientati rappresentanti dei vettori u e v
!
rispettivamente. Sia AD rappresentante del vettore x. Dalla Figura 3.21 segue che
x = p + q. Ma il vettore q non è altro che il vettore proiezione ortogonale di x su
u ^ v. La tesi è conseguenza, quindi, del Teorema 3.11.

Osservazione 3.16 Se in un piano vettoriale si considera una base ortogonale, non è ne-
cessario usare la nozione di prodotto vettoriale di due vettori per determinare il vettore
proiezione ortogonale di ogni vettore di V3 su tale piano. Siano, infatti, a e b due vettori
ortogonali, ossia a · b = 0, la proiezione ortogonale p di un generico vettore x di V3 sul
piano vettoriale individuato da a e da b è data da:

x·a x·b
p= 2
a+ b.
kak kbk2

La formula appena citata è facile conseguenza del Teorema 3.11, ma è di grande impor-
tanza, perché si potrà facilmente estendere a spazi vettoriali di dimensione superiore a 3
(cfr. Teor. 5.5).

Teorema 3.17 Il prodotto vettoriale tra due vettori gode delle seguenti proprietà:

1. x ^ y = y ^ x, x, y 2 V3 ,

2. ( x) ^ y = x ^ ( y) = (x ^ y), x, y 2 V3 , 2 R,
116 Calcolo Vettoriale

x
q

uÔv

C
v
p H

A u B

Figura 3.21: Vettore proiezione ortogonale su un piano vettoriale


Capitolo 3 117

3. x ^ (y + z) = x ^ y + x ^ z, x, y, z 2 V3 .

Dimostrazione 1. È ovvia conseguenza della definizione di prodotto vettoriale.

2. Occorre distinguere tre casi:

a. = 0;
b. > 0;
c. < 0.

I primi due casi sono molto semplici e vengono lasciati per esercizio.
Se < 0 si deve dimostrare per esempio che:

( x) ^ y = (x ^ y), x, y 2 V3 .

Trattandosi di un’uguaglianza tra due vettori è necessario dimostrare che i vettori


a primo e a secondo membro abbiano la stessa lunghezza, la stessa direzione e lo
stesso verso. Per la lunghezza si ha:

k( x) ^ yk = k( x)k kyk sin((\


x)y) = | |kxk kyk sin(⇡ c = | |kx ^ yk.
xy)

Le verifiche riguardanti l’uguaglianza della direzione e del verso sono lasciate per
esercizio.

3. La dimostrazione di questa proprietà è proposta nell’Esercizio 3.10.

Allo scopo di determinare l’espressione del prodotto vettoriale in funzione delle compo-
nenti dei due vettori è necessario, come per il calcolo del prodotto scalare, fissare una
base ortonormale di V3 , ma è anche fondamentale, in questo caso, distinguere tra le due
possibili configurazioni di basi ortonormali schematizzate nella Figura 3.14. Nel primo
caso si osserva che i ^ j = k, nel secondo caso, invece, i ^ j = k. Si impone, quindi,
la necessità di introdurre la seguente definizione.

Definizione 3.13 1. Un base ortogonale B = (v1 , v2 , v3 ) di V3 si dice positiva se:

v1 ^ v2 · v3 > 0.

2. Un base ortogonale B = (v1 , v2 , v3 ) di V3 si dice negativa se:

v1 ^ v2 · v3 < 0.
118 Calcolo Vettoriale

3. Una base ortonormale B = (i, j, k) di V3 si dice positiva se:

i ^ j = k,

cioè se:
i ^ j · k = 1.

4. Una base ortonormale B = (i, j, k) di V3 si dice negativa se:

i^j= k,

cioè se:
i^j·k= 1.

Osservazione 3.17 Si osservi che la Definizione 3.13 può essere enunciata anche nel
caso di una base qualsiasi, non necessariamente ortogonale o ortonormale.

Fissando una base ortonormale positiva è possibile ricavare in modo agevole l’espressione
del prodotto vettoriale di due vettori in componenti, come risulta dal seguente teorema.

Teorema 3.18 – Prodotto vettoriale in componenti – Sia B = (i, j, k) una base orto-
normale positiva di V3 e siano:

x = x1 i + x2 j + x3 k, y = y1 i + y2 j + y3 k

due vettori di V3 . Il prodotto vettoriale dei vettori x e y è dato da:

x2 x3 x1 x3 x1 x2
x^y = i j+ k. (3.17)
y2 y3 y1 y3 y1 y2

Dimostrazione Essendo B = (i, j, k) una base ortonormale positiva si ha:

i ^ j = k, k ^ i = j, j ^ k = i,
j^i= k, i ^ k = j, k ^ j = i.

Inoltre dal Teorema 3.14 segue:

i ^ i = j ^ j = k ^ k = o.

Tenendo conto delle uguaglianze appena trascritte e applicando le proprietà del prodotto
vettoriale enunciate nel Teorema 3.17 si perviene facilmente alla tesi.
Capitolo 3 119

Osservazione 3.18 1. Si osservi che la formula (3.17) potrebbe essere scritta come
segue:
i j k
x ^ y = x1 x2 x3 , (3.18)
y1 y2 y3
anche se l’espressione a secondo membro è priva di significato matematico, in quan-
to si indica il calcolo del determinante di un oggetto che non è una matrice. D’altra
parte è molto più facile ricordare (3.18) anziché (3.17).
2. Si osservi che dal Teorema 3.14 e dalla formula (3.17) segue che, fissata una base
ortonormale positiva B = (i, j, k), due vettori:
x = x1 i + x2 j + x3 k, y = y1 i + y2 j + y3 k
sono paralleli se e solo se:
x2 x3 x1 x3 x1 x2
= = = 0.
y2 y3 y1 y3 y1 y2
Ciò equivale a richiedere che le componenti dei due vettori siano a due a due pro-
porzionali, ossia che i due vettori x e y siano linearmente dipendenti. A maggior
precisione si osservi che la condizione di dipendenza lineare letta sulle componenti
di due vettori è stata a suo tempo ricavata rispetto ad una base qualsiasi di V3 e non
solamente rispetto ad una base ortonormale positiva. Infatti la dipendenza lineare
equivale al parallelismo di due vettori anche in dimensione superiore a 3, come sarà
dimostrato nel Teorema 5.3.
Esercizio 3.8 Nel spazio vettoriale V3 , rispetto ad una base B = (i, j, k) ortonormale
positiva, sono dati i vettori:
a = (2, 1, 1), b = (0, 1, 1).
Determinare tutti i vettori x di V3 tali che la loro proiezione ortogonale sul piano vetto-
riale generato da a e da b sia il vettore a + b.
Soluzione I vettori richiesti sono dati da:
x = (a + b) + a ^ b, 2 R,
dove:
i j k
1 1 2 1 2 1
a^b= 2 1 1 = i j+ k= 2j + 2k.
1 1 0 1 0 1
0 1 1
Di conseguenza:
x = (a + b) + a ^ b = (2, 2 2 , 2 + 2 ), 2 R.
120 Calcolo Vettoriale

3.7.3 Il prodotto misto di tre vettori


L’operazione tra vettori che segue, e che è anche l’ultima proposta, non è nuova ma è
definita tramite le operazioni di prodotto scalare e di prodotto vettoriale.

Definizione 3.14 Il prodotto misto di tre vettori nello spazio vettoriale V3 è la funzione:

V3 ⇥ V3 ⇥ V3 ! R

cosı̀ definita:
(x, y, z) 7 ! x ^ y · z.

È chiaro dalla definizione appena scritta che le operazioni di prodotto vettoriale e di


prodotto scalare sono da eseguirsi nell’ordine indicato.

Il numero reale che si ottiene dal prodotto misto di tre vettori linearmente indipendenti
dello spazio vettoriale V3 ha un importante significato geometrico, come si evince dal
teorema che segue.

xÔy

D
H

y C

A
x
B

Figura 3.22: Significato geometrico del prodotto misto di tre vettori


Capitolo 3 121

Teorema 3.19 – Significato geometrico del prodotto misto – Il prodotto misto di tre
vettori non complanari di V3 è pari a 6 volte il volume, con segno, del tetraedro indivi-
duato da tre segmenti orientati, rappresentanti dei tre vettori dati, e aventi un estremo in
comune.
! ! !
Dimostrazione Siano AB, AC, AD tre segmenti orientati rappresentanti dei vettori
x, y, z rispettivamente. Essendo, per ipotesi, i tre vettori considerati linearmente indi-
pendenti, si può supporre che il punto D non appartenga al piano individuato dai punti
A, B, C . La situazione geometrica è rappresentata nella Figura 3.22. Dalla definizione di
prodotto scalare si ha:

(x ^ y) · z = kx ^ ykkzk cos((x\
^ y)z) = kx ^ ykAH, (3.19)

dove con AH si indica la lunghezza con segno della proiezione ortogonale del vettore
z su x ^ y. Come è noto, il segno della lunghezza della proiezione ortogonale dipende
dall’ampiezza dall’angolo che il vettore z forma con il vettore x ^ y, ossia se questo
angolo è acuto il segno è positivo (situazione geometrica descritta nella Figura 3.22), se
l’angolo è ottuso il segno è negativo. Non si considera il caso dell’angolo retto perché,
se cosı̀ fosse, il vettore z sarebbe complanare ai vettori x e y. Ricordando il significato
geometrico della norma del prodotto vettoriale di due vettori (cfr. Teor. 3.15) la formula
(3.19) diventa:
(x ^ y) · z = 2AABC AH = 6VABCD ,
dove AABC indica l’area del triangolo ABC e VABCD il volume (con segno) del tetraedro
ABCD.

Osservazione 3.19 1. Dalla prima proprietà del prodotto vettoriale del Teorema 3.17
e dalla prima proprietà del prodotto scalare del Teorema 3.12 si ottengono le se-
guenti proprietà del prodotto misto di tre vettori:

x^y·z=z·x^y (3.20)

x^y·z= y ^ x · z. (3.21)

2. Si osservi che il segno del prodotto misto di tre vettori x, y, z dipende dall’ordine
in cui sono considerati i tre vettori come si deduce da (3.21), mentre il valore as-
soluto del prodotto misto dei tre vettori non cambia, qualunque sia l’ordine in cui i
vettori sono considerati, infatti la medesima terna di vettori, qualunque sia l’ordine,
individua lo stesso tetraedro.

Nel caso in cui tre vettori di V3 siano complanari allora vale il seguente teorema la cui
dimostrazione è una facile conseguenza delle definizioni e delle proprietà del prodotto
vettoriale e del prodotto scalare ed è lasciata al Lettore.
122 Calcolo Vettoriale

Teorema 3.20 Tre vettori di V3 sono complanari se e solo se il loro prodotto misto si
annulla.

Il teorema che segue permette di calcolare il prodotto misto mediante le componen-


ti dei vettori e, di conseguenza, di controllare mediante il calcolo in componenti, che
l’annullarsi del prodotto misto di tre vettori equivale alla loro dipendenza lineare.

Teorema 3.21 – Prodotto misto in componenti – Sia B = (i, j, k) una base ortonor-
male positiva di V3 e siano:

x = x1 i + x2 j + x3 k, y = y1 i + y2 j + y3 k, z = z1 i + z2 j + z3 k

tre vettori di V3 . Il prodotto misto di x, y, z è dato da:

x1 x2 x3
x^y·z= y1 y2 y3 .
z1 z2 z3

Dimostrazione Dalle espressioni del prodotto vettoriale e del prodotto scalare in com-
ponenti si ha:
✓ ◆
x2 x3 x1 x3 x1 x2
x^y·z = i j+ k · (z1 i + z2 j + z3 k)
y2 y3 y1 y3 y1 y2

x2 x3 x1 x3 x1 x2
= z z2 + z,
y2 y3 1 y1 y3 y1 y2 3

dal Primo Teorema di Laplace (cfr. Teor. 2.17) segue la tesi.

Dal teorema appena dimostrato e da tutte le proprietà del calcolo del determinante di
una matrice quadrata di ordine 3, dimostrate nel Paragrafo 2.8, si ottengono le seguenti
proprietà del prodotto misto, alcune delle quali sono già state ricavate in precedenza e la
cui dimostrazione è lasciata al Lettore per esercizio.

Teorema 3.22 Per il prodotto misto di tre vettori valgono le seguenti proprietà:

1. x ^ y · z = x · y ^ z, x, y, z 2 V3 ;

2. x ^ y · z = z ^ x · y = y ^ z · x, x, y, z 2 V3 ;

3. x ^ y · z = 0 se e solo se i vettori x, y, z sono complanari.


Capitolo 3 123

Osservazione 3.20 La proprietà 1. del Teorema 3.22 può essere dimostrata, in generale,
indipendentemente dall’espressione in componenti dei tre vettori x, y, z. È facile dimo-
strare che, in valore assoluto, il primo membro di 1. coincide con il secondo membro,
in quanto i tre vettori individuano lo stesso tetraedro, pertanto, in valore assoluto, la pro-
prietà non esprime altro che il volume di questo tetraedro. Si perviene all’uguaglianza dei
segni dei due membri se si osserva che il segno del prodotto misto della terna di vettori
x, y, z è invariante per le loro permutazioni circolari. La dimostrazione completa si può
leggere, per esempio, in [7].

Esercizio 3.9 Nello spazio vettoriale V3 , rispetto ad una base B = (i, j, k), ortonormale
positiva, sono dati i vettori:

a = (1, 0, 1), b = ( 2, 1, 0), c = (h, k, 2), h, k 2 R.

Assegnati ad h e a k i valori
p per cui c è parallelo al vettore a^b, calcolare le componenti
del vettore x di norma 3, complanare ad a e a b e tale che il volume (con segno) del
tetraedro di spigoli a, c, x sia uguale a 2.

Soluzione Si ricava facilmente che a ^ b = i 2j + k, quindi c è parallelo a a ^ b se


e solo se h = 2 e k = 4, da cui c = (2, 4, 2). Sia x = x1 i + x2 j + x3 k, x è complanare
ad a e a b se e solo se x ^ a · b = 0 ossia, in componenti, se e solo se:

x1 x2 x3
1 0 1 = 0. (3.22)
2 1 0

Il volume con segno del tetraedro individuato dalla terna ordinata dei vettori a, c, x è
uguale a 2 se e solo se a ^ c · x = 12, che, in componenti, equivale a:

1 0 1
2 4 2 = 12. (3.23)
x1 x2 x3
p
La norma del vettore x è pari a 3 se e solo se:

x21 + x22 + x23 = 3. (3.24)

Risolvendo il sistema formato dalle equazioni (3.22), (3.23) e (3.24) si ha x = ( 1, 1, 1).

Esercizio 3.10 Usando il prodotto misto di tre vettori, si dimostri la proprietà distributiva
del prodotto vettoriale rispetto alla somma di vettori:

x ^ (y + z) = x ^ y + x ^ z, x, y, z 2 V3 . (3.25)
124 Calcolo Vettoriale

Soluzione Dimostrare la proprietà (3.25) equivale a provare che:

a · [x ^ (y + z)] = a · (x ^ y + x ^ z), x, y, z, a 2 V3 , (3.26)

ovvero a dimostrare che la proiezione ortogonale del vettore a primo membro su un gene-
rico vettore a di V3 coincide con la proiezione ortogonale del vettore a secondo membro
sullo stesso vettore a di V3 . È chiaro che ciò è vero solo perché il vettore a può variare
tra tutti i vettori di V3 , questa affermazione è palesemente falsa, in caso contrario. Per
verificare (3.26) è sufficiente procedere applicando ripetutamente le varie proprietà del
prodotto misto, del prodotto vettoriale e del prodotto scalare di vettori, precisamente si
ha:
a · [x ^ (y + z)] = (a ^ x) · (y + z)
= (a ^ x) · y + (a ^ x) · z
= a·x^y+a·x^z
= a · (x ^ y + x ^ z).

3.8 Cambiamento di basi ortonormali in V3 e in V2


Il teorema che segue permette di caratterizzare le matrici del cambiamento di base tra due
basi ortonormali.

Teorema 3.23 Sia B = (i, j, k) una base ortonormale di V3 , allora anche B 0 = (i0 , j0 , k0 )
è una base ortonormale di V3 se e solo se la matrice P del cambiamento di base da B a
B 0 verifica la condizione:
t
P P = I, (3.27)
dove I indica la matrice unità di ordine 3.

Dimostrazione Sia P = (pij ) la matrice del cambiamento di base ottenuta come


descritto nel Paragrafo 3.5, vale a dire:
8 0
< i = p11 i + p21 j + p31 k
>
j0 = p12 i + p22 j + p32 k (3.28)
>
: 0
k = p13 i + p23 j + p33 k.

Se sia B sia B 0 sono entrambe basi ortonormali allora:

kik2 = kjk2 = kkk2 = ki0 k2 = kj0 k2 = kk0 k2 = 1


(3.29)
i · j = i · k = j · k = i0 · j0 = i0 · k0 = j0 · k0 = 0.
Capitolo 3 125

Le precedenti relazioni, scritte in componenti, equivalgono alle seguenti equazioni:

ki0 k2 = p211 + p221 + p231 = 1,


kj0 k2 = p212 + p222 + p232 = 1,
kk0 k2 = p213 + p223 + p233 = 1,
(3.30)
i0 · j0 = j0 · i0 = p11 p12 + p21 p22 + p31 p32 = 0,
i0 · k0 = k0 · i0 = p11 p13 + p21 p23 + p31 p33 = 0,
j0 · k0 = k0 · j0 = p12 p13 + p22 p23 + p32 p33 = 0,

che equivalgono all’uguaglianza, elemento per elemento, delle matrici:


0 0 0 1
i ·i i0 · j0 i0 · k0
B C
B C
t
PP = B B j0
· i0
j 0
· j0
j0
· k0 C
C = I.
@ A
0 0 0 0 0 0
k ·i k ·j k ·k

Il viceversa si ottiene in modo analogo.

Osservazione 3.21 1. Si ricordi che le matrici P per cui vale la (3.27) prendono il
nome di matrici ortogonali (cfr. Par. 2.5), il Teorema 3.23 ne giustifica questa
particolare denominazione. Allora il Teorema 3.23 afferma che le matrici ortogo-
nali caratterizzano il cambiamento di base tra basi ortonormali. Si osservi anche
che le colonne di una matrice ortogonale di ordine 3 sono i vettori di una base
ortonormale.

2. Applicando il Teorema di Binet (cfr. Teor. 2.16) a (3.27) si ha:

det(tP P ) = det(tP ) det(P ) = (det(P ))2 = det(I) = 1,

quindi:
det(P ) = ±1.
Si perviene allo stesso risultato ricordando l’espressione in componenti del prodotto
misto di tre vettori, infatti:

det(P ) = i0 ^ j0 · k0 = ±1.

Quindi il cambiamento di base tra due basi ortonormali positive è caratterizza-


to da una matrice ortogonale con determinante uguale a 1, in caso contrario il
determinante della matrice ortogonale è 1.
126 Calcolo Vettoriale

3. Si osservi che è fondamentale richiedere nel Teorema 3.23 che entrambe le basi B e
B 0 siano basi ortonormali, infatti le relazioni (3.30) non sarebbero valide se B non
fosse una base ortonormale (cfr. Teor. 3.13), anche se B 0 fosse ortonormale.

4. Il Teorema 3.23 è valido anche nel caso del cambiamento di base tra due ba-
si ortonormali in ogni piano vettoriale V2 , si studierà di seguito l’interpretazione
geometrica in questo caso particolare.

5. Il Teorema 3.23 propone un’altra interpretazione del prodotto righe per colonne di
matrici quadrate di ordine 3 e di ordine 2; infatti il prodotto di una riga per una
colonna può essere considerato come il prodotto scalare tra la riga e la colonna se
i proprii elementi si interpretano come le componenti di un vettore rispetto ad una
base ortonormale.

j' i'

q
i

Figura 3.23: Cambiamento di basi ortonormali in V2 , primo caso

Si consideri ora il caso particolare del cambiamento di base tra basi ortonormali in un
piano vettoriale V2 con lo scopo di determinare gli elementi della matrice ortogonale
P = (pij ) 2 R2,2 che lo regola. Date due basi ortonormali B = (i, j) e B 0 = (i0 , j0 )
la seconda base si può ottenere dalla prima in uno dei modi rappresentati nelle Figure
3.23, 3.24, 3.25. Si osservi che le prime due figure sono in realtà dello stesso tipo e
corrispondono ad una rotazione che la base B compie per sovrapporsi alla base B 0 , invece
nella terza figura la base B deve effettuare un movimento di riflessione (non interno al
piano vettoriale V2 ) per sovrapporsi alla base B 0 .
Capitolo 3 127

j'

-q i

i'

Figura 3.24: Cambiamento di basi ortonormali in V2 , secondo caso

j
i' j'

Figura 3.25: Cambiamento di basi ortonormali in V2 , terzo caso


128 Calcolo Vettoriale

Nel primo caso (cfr. Fig. 3.23) si ha:


8 0
< i = cos ✓ i + sin ✓ j
>
⇣ ⌘ ⇣ ⌘
: j0 = cos ✓ + ⇡ i + sin ✓ + ⇡ j =
>
sin ✓ i + cos ✓ j,
2 2
quindi la matrice del cambiamento di base da B a B 0 è:
✓ ◆
cos ✓ sin ✓
P = . (3.31)
sin ✓ cos ✓

Si osservi che det(P ) = 1. In questo contesto, per mettere in evidenza la dipendenza


della matrice P dall’angolo ✓, è preferibile usare la notazione:

P = R[✓].

Nel secondo caso (cfr. Fig. 3.24), con un procedimento analogo a quello appena descritto,
si ottiene: ✓ ◆
cos ✓ sin ✓
R[ ✓] = , (3.32)
sin ✓ cos ✓
anche in questo caso det(R[ ✓]) = 1. Si osservi che la matrice (3.32) corrisponde alla
matrice (3.31) in cui al posto di ✓ si considera l’angolo ✓.

Nel terzo caso (cfr. Fig. 3.25) si ha:


✓ ◆
cos ✓ sin ✓
P = . (3.33)
sin ✓ cos ✓

invece, in questo caso det(P ) = 1.

Si conclude, quindi, in modo totalmente coerente con ciò che si è ottenuto nel caso dello
spazio vettoriale V3 , che il cambiamento di base tra due basi ortonormali positive nel
piano vettoriale si ottiene mediante una matrice ortogonale con determinante pari a 1 e,
in caso contrario tramite una matrice ortogonale con determinante pari a 1. Questa
osservazione, tenendo conto della Definizione 3.13, conduce in modo naturale ai concetti
di basi ortogonali, ortonormali positive e negative nel piano senza fare uso della nozione
di prodotto vettoriale, definibile solo nello spazio vettoriale V3 . Infatti si può enunciare la
seguente definizione.

Definizione 3.15 1. Un base ortogonale B = (v1 , v2 ) di V2 si dice positiva se il


vettore v1 si sovrappone al vettore v2 compiendo una rotazione antioraria di un
angolo retto.
Capitolo 3 129

2. Un base ortogonale B = (v1 , v2 ) di V2 si dice negativa se il vettore v1 si sovrap-


pone al vettore v2 compiendo una rotazione antioraria di tre angoli retti.

3. Una base ortonormale B = (i, j) di V2 si dice positiva se è una base ortogonale


positiva e se:
kik = kjk = 1,

ossia i vettori che la compongono sono versori (cfr. Fig. 3.23)

4. Una base ortonormale B = (i, j) di V2 si dice negativa se è una base ortogonale


negativa e se:
kik = kjk = 1,

ossia i vettori che la compongono sono versori (cfr. Fig. 3.25, base (i0 , j0 )).

Esercizio 3.11 Si dimostri che gli elementi di O(2), ovvero le matrici ortogonali di or-
dine 2, sono necessariamente o di tipo (3.31) o di tipo (3.33). Inoltre, si provi che
O(1) = { 1, 1}.

Esercizio 3.12 In un piano vettoriale V2 , a partire da B = (i, j), base ortonormale po-
sitiva, si consideri il cambiamento di base ottenuto mediante una rotazione di angolo ✓1
che conduce alla base ortonormale positiva B 0 = (i0 , j0 ) mediante la matrice ortogonale
R[✓1 ]. A partire dalla base ortonormale positiva B 0 = (i0 , j0 ) si consideri la rotazione di
angolo ✓2 che conduce alla base ortonormale positiva B 00 = (i00 , j00 ) mediante la matrice
ortogonale R[✓2 ]. Si dimostri che la matrice del cambiamento di base dalla base ortonor-
male positiva B = (i, j) alla base ortonormale positiva B 00 = (i00 , j00 ), corrispondente alla
rotazione di angolo ✓1 + ✓2 , è la matrice prodotto R[✓1 ]R[✓2 ]. Si ripeta lo stesso esercizio
dove, al posto delle rotazioni, si considerano riflessioni.

3.9 Esercizi di riepilogo svolti


Esercizio 3.13 Nello spazio vettoriale V3 si considerino i vettori x e y tali che:

kxk = 5, kyk = 7, kx + yk = 10.

Determinare kx yk.

Soluzione Applicando la definizione e le proprietà del prodotto scalare si ha:

kx + yk2 = (x + y) · (x + y) = kxk2 + 2x · y + kyk2 ,


130 Calcolo Vettoriale

d’altra parte:

kx yk2 = (x y) · (x y) = kxk2 2x · y + kyk2

e quindi:
kx + yk2 + kx yk2 = 2 (kxk2 + kyk2 )
da cui:
kx yk2 = 2(25 + 49) 100 = 48.

Esercizio 3.14 Siano u, v, w vettori linearmente indipendenti di V3 . Dimostrare che se


z è un vettore di V3 ortogonale a ciascuno di essi allora z = o.

Soluzione Osservato che (u, v, w) è una base di V3 è sufficiente dimostrare che se z è


ortogonale ad un generico vettore:

x = u + µv + ⌫ w

di V3 , con , µ, ⌫ 2 R, allora z = o. Infatti si ha:

z · x = z · ( u + µv + ⌫ w) = z · u + µ z · v + ⌫ z · w = 0,

in quanto, per ipotesi, z · u = z · v = z · w = 0. In particolare z · z = kzk2 = 0, quindi


z = o.

Esercizio 3.15 Dimostrare che, se i vettori a, b, c di V3 sono non nulli e a due a due
ortogonali, anche i vettori:
a ^ b, b ^ c, c ^ a
sono non nulli e a due a due ortogonali.

Soluzione Per definizione di prodotto vettoriale di due vettori, a ^ b è ortogonale sia


ad a sia a b, quindi è parallelo a c, da cui:

a^b= c,

dove è un numero reale non nullo. Analogamente si ha b ^ c = µ a e c ^ a = ⌫ b


con µ 6= 0, ⌫ 6= 0. Pertanto a ^ b, b ^ c, c ^ a sono non nulli e a due a due ortogonali
essendo paralleli a vettori non nulli, a due a due ortogonali.

Esercizio 3.16 In V3 , dimostrare che, se i vettori a ^ b, b ^ c, c ^ a sono linearmente


indipendenti anche i vettori a, b e c sono linearmente indipendenti.
Capitolo 3 131

Soluzione Se i vettori a, b, c fossero linearmente dipendenti essi sarebbero complanari


e quindi i vettori a ^ b, b ^ c, c ^ a, per definizione di prodotto vettoriale, sarebbero
paralleli che è assurdo.

Esercizio 3.17 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), sono dati i
vettori:
a = ( h, 3h, 1), b = (0, 3, h), c = (1, 1, h), h 2 R.

1. Determinare i valori di h per cui a, b, c non formano una base di V3 .

2. Determinare dei valori di h per cui esistono dei vettori x = (x1 , x2 , x3 ) tali che:

x^a=b

e calcolarne le componenti.

Soluzione 1. I vettori a, b, c non formano una base di V3 se sono linearmente dipen-


denti, ossia se la matrice:
0 1
h 3h 1
A=@ 0 3 h A
1 1 h

le cui righe sono date dalle componenti dei vettori a, b, c ha determinante uguale
p
a zero. Si ha che det(A) = h2 3, quindi i valori di h richiesti sono h = ± 3.

2. Da x ^ a = b si ha:
i j k
x1 x2 x3 = 3j + hk.
h 3h 1
Uguagliando ordinatamente le componenti del vettore a primo membro a quelle del
vettore a secondo membro si perviene al sistema lineare:
8
< x2 3hx3 = 0
x1 hx3 = 3
:
3hx1 + hx2 = h,

che non ammette soluzioni se h 6= 0; invece se h = 0 i vettori x = ( 3, 0, t), per


ogni t 2 R, verificano l’uguaglianza richiesta.
132 Calcolo Vettoriale

3.10 Per saperne di più


3.10.1 Un’altra definizione di vettore
In questo paragrafo viene introdotta una definizione di vettore più rigorosa, che si basa
sul concetto di relazione di equivalenza e di classi di equivalenza.

Definizione 3.16 Due segmenti orientati AB e CD dello spazio S3 sono detti equipol-
lenti se i punti medi dei segmenti AD e BC coincidono. La situazione geometrica è
illustrata nella Figura 3.26.

C D

A B
Figura 3.26: Segmenti orientati equipollenti

Per indicare che i segmenti orientati AB e CD sono equipollenti si userà la notazione


AB ⇠ CD.

Teorema 3.24 La relazione di equipollenza è una relazione di equivalenza.

Dimostrazione È sufficiente verificare che sono valide le seguenti proprietà:

1. la proprietà riflessiva: AB ⇠ AB , per ogni coppia di punti A e B ;

2. la proprietà simmetrica: se dati i segmenti orientati AB e CD per cui AB ⇠ CD


allora CD ⇠ AB ;

3. la proprietà transitiva: se dati i segmenti orientati AB , CD ed EF tali che


AB ⇠ CD e CD ⇠ EF allora AB ⇠ EF .
Capitolo 3 133

La dimostrazione segue dalla definizione di equipollenza ed è lasciata per esercizio.

Di conseguenza, l’insieme dei segmenti orientati dello spazio viene suddiviso nelle classi
di equivalenza determinate dalla relazione di equipollenza, dette classi di equipollenza,
ogni classe contiene tutti e soli i segmenti orientati equipollenti ad un segmento dato e
può essere rappresentata da un qualsiasi segmento che ad essa appartiene. Allora si ha la
seguente definizione.

Definizione 3.17 Le classi di equipollenza dello spazio S3 sono dette vettori.

È chiaro che la definizione intuitiva di vettore introdotta all’inizio di questo capitolo


coincide con la definizione più rigorosa di vettore appena enunciata.

3.10.2 Ulteriori proprietà delle operazioni tra vettori


In questo paragrafo verranno riassunte alcune proprietà delle operazioni tra vettori stu-
diate in questo capitolo e non introdotte in precedenza, che anche se hanno conseguenze
importanti nello studio approfondito di argomenti di geometria e di fisica, possono essere
omesse ad una prima lettura.

Teorema 3.25 Sono valide le seguenti proprietà per il prodotto vettoriale e scalare tra
vettori:

1. (x ^ y) ^ z = (x · z) y (y · z) x, x, y, z 2 V3 ;

2. (x ^ y) ^ (z ^ w) = (w · x ^ y) z (z · x ^ y) w, x, y, z, w 2 V3 ;

3. (x ^ y) · (z ^ w) = (x · z)(y · w) (x · w)(y.z), x, y, z, w 2 V3 ;

4. (x ^ y) ^ z + (y ^ z) ^ x + (z ^ x) ^ y = o, x, y, z 2 V3 .

Dimostrazione 1. Si supponga che x, y, z siano vettori di V3 non complanari, negli


altri casi si lascia per esercizio la dimostrazione dell’identità 1. Il vettore
(x ^ y) ^ z è ortogonale al vettore x ^ y e quindi appartiene al piano vettoriale
individuato da x e da y. Esistono pertanto due numeri reali , µ tali che:

(x ^ y) ^ z = x + µy. (3.34)

Se si moltiplicano ambo i membri di (3.34) scalarmente per z, si ottiene a primo


membro:
(x ^ y) ^ z · z = (x ^ y) · z ^ z = 0
134 Calcolo Vettoriale

e a secondo membro:
x · z + µy · z = 0,
da cui segue che è possibile determinare un numero reale ⇢ per cui:

= ⇢(y · z), µ = ⇢(x · z).

L’identità 1. è dimostrata se si verifica che ⇢ non dipende dalla scelta dei vettori
x, y, z. Supposto per assurdo che ⇢ dipenda, ad esempio, da z, si ponga:

(x ^ y) ^ z = ⇢(z)[(x · z)y (y · z)x]. (3.35)

Scelto un vettore arbitrario a di V3 , moltiplicando scalarmente ambo i membri di


(3.35) per a, si ha:

(z ^ a) · (y ^ x) = ⇢(z)[(x · z)(y · a) (y · z)(x · a)]. (3.36)

Scambiando nell’identità (3.36) i vettori z e a si ottiene:

⇢(z)[(x · z)(y · a) (y · z)(x · a)] = ⇢(a)[(x · z)(y · a) (y · z)(x · a)].

Quindi si deduce che ⇢(a) = ⇢(z). In modo analogo si dimostra che ⇢ non dipende
dai vettori x e w.

2. Segue da 1. sostituendo a z il vettore z ^ w e scambiando i ruoli di x e y con z e


w, rispettivamente.

3. Segue da 1. moltiplicando scalarmente ambo i membri per w.

4. Segue da 1. in modo immediato.

Osservazione 3.22 1. Siano x, y, z vettori di V3 non complanari. L’identità 1. del


Teorema 3.25 prende il nome di doppio prodotto vettoriale ed esprime il fatto che
il vettore (x ^ y) ^ z appartiene al piano vettoriale individuato dai vettori x e y.
È evidente da questa identità che non vale, in generale, la proprietà associativa del
prodotto vettoriale, infatti:

(x ^ y) ^ z 6= x ^ (y ^ z),

in quanto il vettore x ^ (y ^ z) appartiene al piano vettoriale individuato da y e da


z che, in generale, non coincide con il piano vettoriale individuato da x e da y.
Capitolo 3 135

2. Se nell’identità 3. del Teorema 3.25 si pone x = z e y = w si ha:

kx ^ yk2 = kxk2 kyk2 (x · y)2 .

La relazione appena ottenuta è nota come identità di Lagrange. È di grande im-


portanza nello studio delle proprietà delle superfici nello spazio, (cfr. per esem-
pio [11]), in quanto esprime la norma del prodotto vettoriale di due vettori solo
in termini del loro prodotto scalare. È anche doveroso osservare che l’identità di
Lagrange ha una dimostrazione elementare (che viene lasciata per esercizio) senza
necessariamente considerare la dimostrazione dell’identità 3.

3. La relazione 4. del Teorema 3.25 prende il nome di identità di Jacobi e riveste


un’importanza notevole nello studio delle algebre di Lie. Per maggiori approfondi-
menti sull’argomento si vedano per esempio [2] o [13].
136 Calcolo Vettoriale
Capitolo 4

Spazi Vettoriali e Sottospazi Vettoriali

4.1 Spazi vettoriali


In questo paragrafo viene introdotta la definizione di spazio vettoriale, concetto su cui
si basa l’algebra lineare. Nel testo si studieranno, salvo avviso contrario, solo gli spazi
vettoriali costruiti sul campo dei numeri reali, cioè solo spazi vettoriali reali. Cenni sugli
spazi vettoriali complessi sono stati inseriti nei paragrafi “Per saperne di più”.
La definizione di spazio vettoriale trae origine dal ben noto esempio dell’insieme dei vet-
tori V3 nello spazio tridimensionale ordinario, trattato nel capitolo precedente. Si intende
introdurre tale concetto in modo astratto con il duplice scopo di dimostrare teoremi dalle
conseguenze fondamentali nel caso dello spazio vettoriale ordinario V3 e di estendere tali
nozioni a spazi vettoriali di dimensione superiore a tre.

Definizione 4.1 Un insieme V si dice spazio vettoriale sul campo dei numeri reali R o
spazio vettoriale reale se sono definite su V le due operazioni seguenti:

A. la somma:
+:V ⇥V ! V, (x, y) 7 ! x + y
rispetto alla quale V ha la struttura di gruppo commutativo, ossia valgono le proprietà:

1. x + y = y + x, x, y 2 V (proprietà commutativa);

2. (x + y) + z = x + (y + z), x, y, z 2 V (proprietà associativa);

3. 9 o 2 V | x + o = x, x 2 V (esistenza dell’elemento neutro);

4. 8x 2 V 9 x 2 V | x + ( x) = o (esistenza dell’opposto);

137
138 Spazi Vettoriali e Sottospazi Vettoriali

B. il prodotto per numeri reali:


R⇥V ! V, ( , x) 7 ! x
per cui valgono le seguenti proprietà:

1. (x + y) = x + y, x, y 2 V, 2 R;
2. ( + µ)x = x + µx, x 2 V, , µ 2 R;
3. ( µ)x = (µx), x 2 V, , µ 2 R;
4. 1 x = x, x2V.

Gli elementi di V prendono il nome di vettori e saranno, in generale, indicati con le


lettere minuscole in grassetto. Gli elementi di R prendono il nome di scalari, quindi il
prodotto di un numero reale per un vettore è spesso anche detto prodotto di uno scalare
per un vettore. L’elemento neutro o di V è detto vettore nullo, mentre il vettore x è
l’opposto del vettore x.

Osservazione 4.1 Si può introdurre una definizione analoga di spazio vettoriale ma co-
struito su un qualsiasi campo, per esempio sul campo dei numeri razionali Q o dei numeri
complessi C. Nel caso della definizione su C, lo spazio vettoriale si dice anche spazio
vettoriale complesso.

Osservazione 4.2 È chiaro che il campo dei numeri reali R è un esempio evidente di
spazio vettoriale su R rispetto alle usuali operazioni di somma e di prodotto, come del
resto si otterrrà come caso particolare dell’Esempio 4.3, ma R è anche un esempio di
spazio vettoriale sul campo dei numeri razionali Q.

Osservazione 4.3 Si osservi che le proprietà B.1. e B.2., a differenza di quanto accade
per (R, +, · ) con l’usuale somma e prodotto di numeri reali, non possono essere chiama-
te proprietà distributive del prodotto rispetto alla somma, in quanto esse coinvolgono ele-
menti appartenenti ad insiemi diversi. Analogamente, la proprietà B.3. non è la proprietà
associativa.

Verranno descritti di seguito gli esempi ritenuti più significativi, si rimanda al Paragrafo
4.5 per ulteriori esempi ed esercizi.

Esempio 4.1 Si inizia con gli esempi che hanno dato il nome alla struttura di spazio
vettoriale appena definita. Gli insiemi dei vettori di una retta vettoriale V1 , di un piano
vettoriale V2 e dello spazio vettoriale ordinario V3 sono esempi di spazi vettoriali su R,
rispetto alle operazioni di somma di vettori e di prodotto di un numero reale per un vettore
definite nel Capitolo 3.
Capitolo 4 139

Esempio 4.2 Gli insiemi delle matrici Rm,n di m righe e n colonne, ad elementi reali,
definiti nel Capitolo 2, sono esempi di spazi vettoriali reali rispetto alle operazioni di
somma di matrici e di prodotto di un numero reale per una matrice là definite.

Esempio 4.3 L’esempio fondamentale:

Rn = {(x1 , x2 , . . . , xn ) | xi 2 R, i = 1, 2, . . . , n}

è un caso particolare dell’esempio precedente ma, visto il ruolo fondamentale che avrà in
tutto il testo, verrà trattato a parte.
La somma di due n-uple (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) di Rn è definita come:

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).

Il vettore nullo di Rn è dato dalla n-upla (0, 0,. . ., 0) e l’opposto del vettore (x1 , x2 ,. . ., xn )
è il vettore ( x1 , x2 , . . . , xn ). Il prodotto di un numero reale per un elemento
(x1 , x2 , . . . , xn ) di Rn è definito da:

(x1 , x2 , . . . , xn ) = ( x1 , x2 , . . . , xn ).

Esempio 4.4 Il campo dei numeri razionali Q è un esempio di spazio vettoriale su Q


(ma non su R), analogamente il campo dei numeri complessi C ha la struttura di spazio
vettoriale su se stesso e anche su R. Si lascia per esercizio la spiegazione dettagliata di
tali affermazioni.

Esempio 4.5 L’insieme delle funzioni reali di variabile reale F(R) = {f : R ! R} è


un esempio di spazio vettoriale su R, dove la somma di due elementi f e g di F(R) è
definita da:
(f + g)(x) = f (x) + g(x), x 2 R
e il prodotto di un numero reale per una funzione f 2 F(R) è:

( f )(x) = (f (x)), x 2 R.
Si verifica facilmente che il vettore nullo è la funzione nulla O, definita da O(x) = 0,
con x 2 R, l’opposto di f è la funzione f definita in modo evidente:

( f )(x) = f (x), x 2 R.
Più in generale, anche l’insieme delle funzioni F(I, V ) = {F : I ! V } da un insieme
I qualsiasi ad uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R in
cui la somma di funzioni ed il prodotto di un numero reale per una funzione sono definite
come nel caso di F(R) ma considerando le operazioni dello spazio vettoriale V.
140 Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.6 Sia R[x] l’insieme dei polinomi nella variabile x a coefficienti reali, ossia:

R[x] = {a0 + a1 x + . . . + an xn | n 2 N, ai 2 R, i = 0, 1, . . . , n},


(N = {0, 1, 2, . . .} indica l’insieme dei numeri naturali). Le usuali operazioni di somma
di polinomi e di prodotto di un numero reale per un polinomio conferiscono a R[x] la
struttura di spazio vettoriale reale. Il vettore nullo è dato dal numero reale 0 e l’opposto
del polinomio p(x) = a0 + a1 x + a2 x2 + . . . + an xn è il polinomio:

p(x) = a0 a1 x a2 x 2 ... an xn .

Vale il seguente teorema, il cui enunciato è naturalmente intuibile.

Teorema 4.1 In uno spazio vettoriale reale V si ha:

1. il vettore nullo o è unico;

2. per ogni vettore x 2 V l’opposto x è unico;

3. se per x, y, z 2 V si ha x + y = x + z, allora y = z;

4. x = o (con 2 R e x 2 V ) () = 0 oppure x = o;

5. ( 1)x = x, per ogni x 2 V.

Dimostrazione La dimostrazione, quasi un esercizio, si può leggere nel Paragrafo


4.5.

Osservazione 4.4 L’insieme {o} formato dal solo vettore nullo è un esempio di spazio
vettoriale reale. Si osservi che è l’unico spazio vettoriale reale con un numero finito di
elementi.

4.2 Sottospazi vettoriali


La nozione di sottospazio vettoriale di uno spazio vettoriale reale, oggetto di questo para-
grafo, intende estendere il concetto, già considerato nel capitolo precedente, degli insiemi
dei vettori di una retta vettoriale V1 e di un piano vettoriale V2 visti come sottoinsiemi
dello spazio vettoriale V3 .
Capitolo 4 141

4.2.1 Definizione ed esempi


Definizione 4.2 Sia V uno spazio vettoriale reale, un sottoinsieme W ✓ V è un sotto-
spazio vettoriale di V se W è uno spazio vettoriale rispetto alle stesse operazioni di V,
ossia se è chiuso rispetto alle operazioni di somma e di prodotto per scalari definite in V,
vale a dire:

8x, y 2 W =) x + y 2 W,

8 2 R, 8x 2 W =) x 2 W,
che equivale a:

8 , µ 2 R, 8x, y 2 W =) x + µy 2 W.

Osservazione 4.5 1. Un sottoinsieme H di un gruppo G è un sottogruppo se è un


gruppo con il prodotto definito in G. Pertanto, poiché uno spazio vettoriale V è un
gruppo commutativo rispetto all’operazione di somma, un sottospazio vettoriale W
di V è un sottogruppo di V.
2. Segue dalla Definizione 4.2 e dalla proprietà 4. del Teorema 4.1 che il vettore nullo
o di uno spazio vettoriale V deve necessariamente appartenere ad ogni sottospazio
vettoriale W di V.

Esempio 4.7 Ogni spazio vettoriale V ammette almeno due sottospazi vettoriali: V e
{o}. Essi coincidono se e solo se V = {o}. Tali sottospazi vettoriali si dicono improprii.

Esempio 4.8 L’insieme dei vettori ordinari di ogni piano vettoriale V2 è un sottospazio
vettoriale dell’insieme dei vettori dello spazio V3 . L’insieme dei vettori di una retta vet-
toriale V1 è un sottospazio vettoriale del piano vettoriale V2 che la contiene e ogni retta
vettoriale è un sottospazio vettoriale di V3 .

Esempio 4.9 Si osservi che, nonostante Q sia un sottoinsieme di R, l’insieme dei numeri
razionali Q (spazio vettoriale su Q) non è un sottospazio vettoriale dello spazio vettoriale
reale R, in quanto su Q non è definito lo stesso prodotto per scalari di R. Infatti, il
prodotto di un numero reale per un numero razionale non è necessariamente razionale.

Esempio 4.10 Sia a 2 R e fa : R ! R la funzione definita da fa (x) = ax; l’insieme:


W = {fa 2 F(R) | a 2 R}
è un sottospazio vettoriale dello spazio vettoriale reale F(R) introdotto nell’Esempio
4.5. Infatti se fa , fb 2 W , allora per ogni , µ 2 R, si ha che fa + µfb 2 W, poiché
fa + µfb = f a+µb . La verifica è lasciata al Lettore per esercizio.
142 Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.11 Sia R[x] lo spazio vettoriale dei polinomi nella variabile x a coefficienti
reali, introdotto nell’Esempio 4.6. Sottospazi vettoriali notevoli di R[x] sono gli insiemi
dei polinomi di grado non superiore ad un numero intero positivo fissato n. In formule, si
indica con:

Rn [x] = {a0 + a1 x + a2 x2 + . . . + an xn | ai 2 R, i = 0, 1, 2, . . . , n}

il sottospazio vettoriale dei polinomi di grado minore o uguale ad n. La verifica che


Rn [x] sia un sottospazio vettoriale di R[x] è lasciata per esercizio. In particolare, quindi,
l’insieme R è un sottospazio vettoriale di R[x] in quanto può essere visto come l’insieme
dei polinomi di grado zero. In generale, l’insieme dei polinomi di grado fissato n > 0
non è un sottospazio vettoriale di R[x], anche se è un sottoinsieme di Rn [x]. Infatti, per
esempio, l’insieme dei polinomi di grado 3:

P = {a0 + a1 x + a2 x2 + a3 x3 2 R3 [x] | ai 2 R, i = 0, 1, 2, 3, a3 6= 0}

non è un sottospazio vettoriale di R3 [x] in quanto non contiene il vettore nullo di R3 [x].

Viene trattata ora la rappresentazione mediante equazioni dei sottospazi vettoriali dello
spazio vettoriale Rn . Per capire meglio la teoria, si inizia con un esercizio.

Esercizio 4.1 Dati i seguenti sottoinsiemi di R3 :

A = {(x1 , x2 , x3 ) 2 R3 | 2x1 + 3x2 x3 = 0},

B = {(x1 , x2 , x3 ) 2 R3 | 2x1 + 3x2 x3 = x2 + x3 = 0},

C = {(x1 , x2 , x3 ) 2 R3 | 2x1 + 3x2 x3 = 5},

D = {(x1 , x2 , x3 ) 2 R3 | 2x21 + 3x2 x3 = 0},

dire quali sono sottospazi vettoriali di R3 giustificando la risposta.

Soluzione A è un sottospazio vettoriale di R3 . Infatti, siano (x1 , x2 , x3 ) e (y1 , y2 , y3 )


due elementi di A ossia tali che 2x1 + 3x2 x3 = 2y1 + 3y2 y3 = 0, si verifica che la
loro somma (x1 + y1 , x2 + y2 , x3 + y3 ) è un elemento di A, vale a dire:

2(x1 + y1 ) + 3(x2 + y2 ) (x3 + y3 ) = 0,

che è ovvia conseguenza dell’appartenenza ad A di (x1 , x2 , x3 ) e di (y1 , y2 , y3 ). Ana-


logamente si verifica che (x1 , x2 , x3 ) = ( x1 , x2 , x3 ) è un elemento di A per ogni
2 R e per ogni (x1 , x2 , x3 ) 2 A.
Capitolo 4 143

Si dimostra in modo analogo che B è un sottospazio vettoriale di R3 .


È facile osservare che C non è un sottospazio vettoriale di R3 perché non contiene il
vettore nullo di R3 , in altri termini l’equazione lineare che definisce C non è omogenea.
D non è un sottospazio vettoriale di R3 , pur contenendo il vettore nullo di R3 , infatti dati
(1, 0, 2), (2, 0, 8) 2 D la loro somma (3, 0, 10) non appartiene a D in quanto 2·32 10 6= 0.

L’esercizio precedente suggerisce il seguente risultato di carattere generale.

Esempio 4.12 – Esempio fondamentale di sottospazio vettoriale – L’insieme delle so-


luzioni di un sistema lineare omogeneo di m equazioni in n incognite è un sottospazio
vettoriale di Rn . La verifica, che è conseguenza evidente dell’esempio precedente, può
essere anche ottenuta procedendo in modo sintetico. Infatti, usando la notazione matri-
ciale di un sistema lineare omogeneo AX = O, con A 2 Rm,n , X 2 Rn,1 , O 2 Rm,1 (cfr.
Par. 2.2.1), si ha che l’insieme delle soluzioni del sistema lineare omogeneo AX = O
coincide con l’insieme:

N (A) = {X 2 Rn | AX = O},

dove si identifica Rn,1 con Rn . Dati X1 , X2 2 N (A), allora AX1 = AX2 = O. Si deve
dimostrare che X1 + µX2 2 N (A) per ogni , µ 2 R, ma:

A( X1 + µX2 ) = AX1 + µAX2 = O.

Il sottospazio vettoriale N (A) di Rn prende il nome di nullspace (o annullatore o nullifi-


catore) della matrice A 2 Rm,n .

Esercizio 4.2 Ogni sottospazio vettoriale, diverso da {o}, di uno spazio vettoriale reale
contiene sempre un numero infinito di vettori?

Si continua ora con un elenco di sottospazi vettoriali notevoli dello spazio vettoriale delle
matrici Rm,n . Le verifiche sono lasciate per esercizio.

Esempio 4.13 Il sottoinsieme D(Rn,n ) di Rn,n (spazio vettoriale delle matrici quadrate
di ordine n) formato dalle matrici diagonali, definito in (2.2), è un sottospazio vettoriale
di Rn,n .

Esempio 4.14 Il sottoinsieme T (Rn,n ) di Rn,n delle matrici triangolari superiori, definite
in (2.6), è un sottospazio vettoriale di Rn,n ; analoga affermazione vale per il sottoinsieme
delle matrici triangolari inferiori.
144 Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.15 L’insieme delle matrici simmetriche (cfr. (2.7)):

S(Rn,n ) = {A 2 Rn,n | tA = A}

è un sottospazio vettoriale di Rn,n , infatti se A1 , A2 2 S(Rn,n ) si ha che tA1 = A1 e


t
A2 = A2 , allora t (A1 + A2 ) = tA1 + tA2 = A1 + A2 , la dimostrazione della chiusura
rispetto al prodotto per un numero reale è lasciata per esercizio.

Esempio 4.16 L’insieme delle matrici antisimmetriche (cfr. (2.8)):

A(Rn,n ) = {A 2 Rn,n | tA + A = O}

è un sottospazio vettoriale di Rn,n (per la dimostrazione si procede in modo analogo


all’esempio precedente).

Osservazione 4.6 Si osservi che l’insieme delle matrici ortogonali (cfr. (2.9)):

O(n) = {A 2 Rn,n | tA A = I}

non è un sottospazio vettoriale di Rn,n , perché non contiene il vettore nullo di Rn,n .

Osservazione 4.7 Si osservi che l’insieme:

{A 2 Rn,n | det(A) = 0}

non è un sottospazio vettoriale di Rn,n , se n > 1. Perché?

Osservazione 4.8 Si osservi che l’insieme:

{A 2 Rn,n | tr(A) = 0}

è un sottospazio vettoriale di Rn,n , mentre l’insieme:

{A 2 Rn,n | tr(A) = 2}

non lo è.

Esempio 4.17 In R4 [x] si consideri l’insieme W dei polinomi divisibili per 3x 1.


Si può verificare che W è un sottospazio vettoriale di R4 [x]. Infatti ogni polinomio
p(x) 2 W è della forma p(x) = (3x 1)q(x), con q(x) polinomio di grado  3. Quindi,
per ogni p1 (x) = (3x 1)q1 (x), p2 (x) = (3x 1)q2 (x) 2 W e per ogni , µ 2 R, si ha:

p1 (x) + µp2 (x) = (3x 1)q1 (x) + µ(3x 1)q2 (x)


= (3x 1)( q1 (x) + µq2 (x)) 2 W.
Capitolo 4 145

4.2.2 Intersezione e somma di sottospazi vettoriali


Dati due sottospazi vettoriali W1 , W2 di uno spazio vettoriale reale V, si vuole stabilire
se la loro intersezione insiemistica e la loro unione insiemistica siano ancora sottospazi
vettoriali di V. Si inizia con il seguente teorema.

Teorema 4.2 L’intersezione insiemistica W1 \ W2 è un sottospazio vettoriale di V.

Dimostrazione È immediata conseguenza delle definizioni di sottospazio vettoriale e


di intersezione insiemistica.

Esempio 4.18 Si considerino i sottospazi vettoriali di R3 :


W1 = {(x1 , x2 , x3 ) 2 R3 | 3x1 + x2 + x3 = 0},

W2 = {(x1 , x2 , x3 ) 2 R3 | x1 x3 = 0}.

La loro intersezione è il sottospazio vettoriale:


W1 \ W2 = {(x1 , x2 , x3 ) 2 R3 | 3x1 + x2 + x3 = x1 x3 = 0}
= {(a, 4a, a) 2 R3 | a 2 R}.

Esempio 4.19 In V3 , spazio vettoriale reale dei vettori ordinari, riferito ad una base
ortonormale positiva B = (i, j, k), i sottospazi vettoriali:

W1 = L(i, j), W2 = L(i, k)

si intersecano nella retta vettoriale:

W1 \ W2 = L(i).

Si ricordi che la notazione L(a) indica l’insieme di tutti i vettori che sono paralleli ad a,
analogamente L(a, b) indica l’insieme dei vettori complanari ad a, b (cfr. Def. 3.5); nel
Paragrafo 4.3 si generalizzerà questa notazione.

Osservazione 4.9 L’unione insiemistica di due sottospazi vettoriali di uno spazio vetto-
riale V non è, in generale, un sottospazio vettoriale di V, come si deduce dagli esempi
prima citati. Infatti si ha:
nell’Esempio 4.18 l’unione W1 [ W2 non è un sottospazio vettoriale di R3 perché, per
esempio, la somma di (1, 2, 5) 2 W1 insieme con (2, 3, 2) 2 W2 non appartiene a
W1 [ W2 ;
nell’Esempio 4.19 il vettore v = (2i + 3j) + (4k) non appartiene a W1 [ W2 , pur essendo
somma di un vettore di W1 e di un vettore di W2 .
146 Spazi Vettoriali e Sottospazi Vettoriali

Esercizio 4.3 In quali casi l’unione di due sottospazi vettoriali di uno spazio vettoriale V
è un sottospazio vettoriale di V ?

Gli esempi precedenti giustificano la seguente definizione.

Definizione 4.3 Dati W1 e W2 sottospazi vettoriali di uno spazio vettoriale reale V, si


definisce somma di W1 e W2 l’insieme:

W1 + W2 = {x1 + x2 | x1 2 W1 , x2 2 W2 }.

Teorema 4.3 1. W1 + W2 è un sottospazio vettoriale di V.

2. W1 + W2 è il più piccolo sottospazio vettoriale di V contenente W1 e W2 .

Dimostrazione 1. Segue dalle definizioni di somma di sottospazi vettoriali e di sotto-


spazio vettoriale.

2. W1 ✓ W1 + W2 in quanto i suoi elementi possono essere scritti come x + o, per


ogni x 2 W1 , considerando il vettore nullo o come elemento di W2 . Dimostra-
zione analoga per W2 . La somma W1 + W2 è il più piccolo sottospazio vettoriale
contenente sia W1 sia W2 perché ogni altro sottospazio vettoriale con questa pro-
prietà deve necessariamente contenere tutte le combinazioni lineari di elementi di
W1 e di W2 e, quindi, deve contenere W1 + W2 .

La definizione di somma di due sottospazi vettoriali si estende in modo naturale a quella


di più di due sottospazi vettoriali.

Definizione 4.4 Siano Wi , i = 1, 2, . . . , k , sottospazi vettoriali di uno spazio vettoriale


reale V. La loro somma è data da:

W1 + W2 + . . . + Wk = {x1 + x2 + . . . + xk | xi 2 Wi , i = 1, 2, . . . k}.

Anche in questo caso si può dimostrare una proprietà analoga al Teorema 4.3.

Si presti particolare attenzione ai seguenti esempi.

Esempio 4.20 Si considerino i sottospazi vettoriali di R3 :

W1 = {(x1 , x2 , 0) 2 R3 | x1 , x2 2 R},

W2 = {(0, 0, x3 ) 2 R3 | x3 2 R}.
Capitolo 4 147

Si verifica che W1 \ W2 = {o} e W1 + W2 = R3 . Ogni elemento (x1 , x2 , x3 ) 2 R3


si scrive, in modo unico, come somma di un elemento di W1 e di un elemento di W2 ,
infatti:
(x1 , x2 , x3 ) = (x1 , x2 , 0) + (0, 0, x3 ).

Esempio 4.21 Si considerino i sottospazi vettoriali di R3 :

W1 = {(x1 , x2 , 0) 2 R3 | x1 , x2 2 R},

Z2 = {(x1 , 0, x3 ) 2 R3 | x1 , x3 2 R}.

Si verifica che W1 \ Z2 = {(x1 , 0, 0) 2 R3 | x1 2 R} e W1 + Z2 = R3 . In questo


caso, per esempio, (1, 2, 3) 2 R3 si può scrivere in infiniti modi diversi come somma di
un elemento di W1 e di un elemento di Z2 , infatti:

(1, 2, 3) = (a, 2, 0) + (b, 0, 3), con a, b 2 R | a + b = 1.

Ciò suggerisce la seguente definizione.

Definizione 4.5 Siano W1 , W2 sottospazi vettoriali di uno spazio vettoriale reale V, la


loro somma W1 + W2 si dice diretta e si scrive:

W1 W2

se ogni vettore x 2 W1 W2 si decompone in modo unico come x = x1 + x2 , con


x1 2 W1 e x2 2 W2 .

La precedente definizione si estende a più di due sottospazi vettoriali nel modo seguente.

Definizione 4.6 Siano Wi , i = 1, 2, . . . k , sottospazi vettoriali di uno spazio vettoriale


reale V, la loro somma si dice diretta e si scrive:

W1 W2 ... Wk

se ogni vettore x 2 W1 W2 ... Wk si decompone in modo unico come:

x = x1 + x2 + . . . + xk ,

con xi 2 Wi , i = 1, 2, . . . k .

Sarà utile la seguente definizione.


148 Spazi Vettoriali e Sottospazi Vettoriali

Definizione 4.7 W1 e W2 , sottospazi vettoriali di uno spazio vettoriale reale V, si dicono


supplementari in V se:
W1 W2 = V.

Osservazione 4.10 Dalla Definizione 3.5 segue che:

V3 = L(i) L(j) L(k) = L(i, j) L(k) = L(i, j) L(j + k) = . . . . . . .

In V3 esistono infiniti sottospazi vettoriali supplementari di L(i, j).

Come già intuibile dagli Esempi 4.20 e 4.21, il seguente teorema caratterizza la somma
diretta di due sottospazi vettoriali.

Teorema 4.4 La somma di due sottospazi vettoriali W1 e W2 di uno spazio vettoriale


reale V è diretta se e solo se la loro intersezione W1 \ W2 si riduce al solo vettore nullo.
In formule:

W = W1 W2 () W = W1 + W2 e W1 \ W2 = {o}.

Dimostrazione Sia W = W1 + W2 , si vuole provare che W = W1 W2 se e solo se


W1 \ W2 = {o}.
Si supponga che la somma dei due sottospazi vettoriali W1 + W2 = W sia diretta. Allora
ogni x 2 W si scrive in modo unico come x1 + x2 , con x1 2 W1 e x2 2 W2 . Per
assurdo, se esistesse un vettore non nullo y 2 W1 \ W2 allora l’espressione:

x = (x1 + y) + (x2 y)

contraddirebbe l’ipotesi. Pertanto si ha W1 \ W2 = {o}.


Viceversa, si supponga che W1 \ W2 = {o} e che per assurdo la somma W1 + W2 = W
non sia diretta, ovvero che esista x 2 W = W1 + W2 tale che:

x = x1 + x2 = y1 + y2 ,

con x1 , y1 2 W1 , x2 , y2 2 W2 e x1 6= y1 oppure (o anche) x2 6= y2 . Segue che


x1 y1 = x2 + y2 2 W1 \ W2 da cui si perviene ad una contraddizione dell’ipotesi
W1 \ W2 = {o}.

Si ha un’immediata applicazione di quanto appena dimostrato nel seguente teorema che


permette di decomporre in modo sorprendente lo spazio vettoriale delle matrici quadrate.
Capitolo 4 149

Teorema 4.5 Lo spazio vettoriale Rn,n delle matrici quadrate di ordine n si decompone
nel modo seguente:

Rn,n = S(Rn,n ) A(Rn,n ),


dove S(Rn,n ) indica il sottospazio vettoriale delle matrici simmetriche di Rn,n e A(Rn,n )
è il sottospazio vettoriale delle matrici antisimmetriche, definiti negli Esempi 4.15 e 4.16.

Dimostrazione È evidente che se A è una matrice appartenente a S(Rn,n ) \ A(Rn,n )


allora A deve essere necessariamente la matrice nulla. Infine la dimostrazione segue dalla
scrittura:
1 1
A = (A + tA) + (A tA), con A 2 Rn,n
2 2
e dal fatto che A + tA è una matrice simmetrica, mentre A A è antisimmetrica.
t

L’esempio che segue mostra che il Teorema 4.4 non può essere esteso in modo ovvio al
caso della somma diretta di più di due sottospazi vettoriali.

Esempio 4.22 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), si conside-
rino i seguenti sottospazi vettoriali:

W1 = L(i, j); W2 = L(i + k); W3 = L(j + k).

È chiaro che W1 \ W2 \ W3 = {o}, W1 \ W2 = W1 \ W3 = W2 \ W3 = {o}, e


W1 + W2 + W3 = V3 ma la loro somma W1 + W2 + W3 non è diretta; per esempio:

i + j + k = [ai + (1 a)j] + [(1 a)i + (1 a)k] + (aj + ak), con a 2 R,


contraddice la Definizione 4.6.

Il teorema (di cui si omette la dimostrazione) che caratterizza la somma diretta di più di
due sottospazi vettoriali mediante le loro intersezioni, è, infatti, il seguente.

Teorema 4.6 Sia V uno spazio vettoriale e siano W1 , W2 , . . . , Wk sottospazi vettoriali


di V, allora:

W = W1 W2 ... Wk
() W = W1 + W2 + . . . + Wk
ci + . . . + Wk ) = {o}, i = 1, 2, . . . k,
e Wi \ (W1 + W2 + . . . + W

ci indica che si deve escludere il sottospazio vettoriale Wi dalla somma).


(W
150 Spazi Vettoriali e Sottospazi Vettoriali

Per la dimostrazione si veda ad esempio [15].

Esercizio 4.4 Avvertenza Questo esercizio è risolto a titolo di esempio per chiarire i
concetti appena esposti. Nel paragrafo successivo verrà introdotto un metodo più rapido
per risolvere problemi analoghi.

In R4 si considerino i sottospazi vettoriali:

W1 = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 + 2x2 + 3x3 + x4 = 0},

W2 = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 + x2 = x1 + x3 = x1 x2 + x3 = 0},

dimostrare che W1 W2 = R4 .

Soluzione Innanzi tutto si osservi che effettivamente W1 e W2 sono sottospazi vetto-


riali di R4 essendo definiti tramite sistemi lineari omogenei. La loro intersezione W1 \W2
coincide con l’insieme delle soluzioni del sistema lineare omogeneo formato da tutte le
equazioni che definiscono W1 e da tutte le equazioni che definiscono W2 , nel nostro caso
si ha: 8
> x1 + 2x2 + 3x3 + x4 = 0
>
<
x1 + x2 = 0
>
> x1 + x3 = 0
:
x1 x2 + x3 = 0

le cui soluzioni, come spiegato nel Paragrafo 1.2, dipendono dal rango della matrice dei
coefficienti: 0 1
1 2 3 1
B 1 1 0 0 C
A=B @ 1
C.
0 1 0 A
1 1 1 0

Riducendo per righe la matrice A si ottiene rank(A) = 4 da cui segue W1 \ W2 = {o}.


Per dimostrare che W1 + W2 = R4 si devono scrivere esplicitamente le espressioni dei
vettori di W1 e di W2 . Nel primo caso, risolvendo l’equazione che definisce W1 , si
ottiene che (x1 , x2 , x3 , x4 ) 2 W1 se:

(x1 , x2 , x3 , x4 ) = ( 2t1 3t2 t3 , t1 , t2 , t3 ), con t1 , t2 , t3 2 R.

Invece, risolvendo il sistema lineare che definisce W2 , si ha che (x1 , x2 , x3 , x4 ) 2 W2 se:

(x1 , x2 , x3 , x4 ) = (0, 0, 0, ), con 2 R.


Capitolo 4 151

Si perviene alla tesi provando che un generico vettore (x1 , x2 , x3 , x4 ) 2 R4 si può scri-
vere come somma di un vettore di W1 e di un vettore di W2 , in altri termini dato
(x1 , x2 , x3 , x4 ) esistono opportuni valori di t1 , t2 , t3 , 2 R per cui:

(x1 , x2 , x3 , x4 ) = ( 2t1 3t2 t3 , t1 , t2 , t3 + ).

Si ricavano infatti t1 , t2 , t3 , 2 R dalla scrittura stessa. Il Teorema 4.4 e il calcolo


dell’intersezione dei due sottospazi vettoriali assicurano che tali valori sono unici.

4.3 Generatori, basi e dimensione


In questo paragrafo saranno ripetute, nel caso di un generico spazio vettoriale reale V,
alcune definizioni e proprietà già enunciate nel caso particolare di V3 (cfr. Par. 3.4). Si è
scelto questo approccio da un lato perché si ritiene didatticamente utile iniziare lo studio
di una teoria astratta e a volte ostica partendo dal caso, più facile, dello spazio vettoriale
V3 , dall’altro perché si è deciso di non far sempre riferimento al Capitolo 3 per rendere i
due capitoli indipendenti tra di loro e per non perdere la scansione logica del discorso.

4.3.1 Base di uno spazio vettoriale


Definizione 4.8 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, si dice che
un vettore x 2 V è combinazione lineare dei vettori v1 , v2 , . . . , vk se esistono k numeri
reali x1 , x2 , . . . xk tali che:

x = x1 v1 + x2 v2 + . . . + xk vk .

I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare.

Fissati i vettori v1 , v2 , . . . , vk in V si vogliono considerare tutte le loro combinazioni


lineari. Tale insieme indicato con:

L(v1 , v2 , . . . , vk ),

o con hv1 , v2 , . . . , vk i, in inglese prende il nome di span di v1 , v2 , . . . , vk , di cui

{v1 , v2 , . . . , vk }

è il sistema (o insieme) di generatori. È immediato dimostrare il seguente teorema.

Teorema 4.7 L(v1 , v2 , . . . , vk ) è un sottospazio vettoriale di V ed è il più piccolo sot-


tospazio vettoriale di V contenente i vettori v1 , v2 , . . . , vk .
152 Spazi Vettoriali e Sottospazi Vettoriali

Dimostrazione È un esercizio che segue dalla definizione di sottospazio vettoriale.

Osservazione 4.11 A differenza di ciò che la notazione usata potrebbe far pensare, si
osservi che le combinazioni lineari dei vettori v1 , v2 , . . . , vk non dipendono dall’ordine
in cui si considerano i vettori v1 , v2 , . . . , vk , cioè ad esempio:

L(v1 , v2 , . . . , vk ) = L(v2 , v1 , . . . , vk ).

È consuetudine, infatti, usare le parentesi tonde per indicare questo sottospazio vettoriale
anziché usare la notazione L{v1 , v2 , . . . , vk }, che sarebbe più corretta dal punto di vista
matematico.

Esempio 4.23 In R4 , dati i due vettori v1 = (1, 0, 0, 2) e v2 = ( 1, 2, 0, 0) il piano


vettoriale L(v1 , v2 ) è un sottospazio vettoriale di R4 .

Definizione 4.9 Sia V uno spazio vettoriale reale e siano v1 , v2 , . . . , vk vettori qualsiasi
di V. Si dice che un sottospazio vettoriale W di V ammette come sistema di generatori
l’insieme dei vettori {v1 , v2 , . . . , vk } se:

W = L(v1 , v2 , . . . , vk ).

Il teorema che segue, la cui dimostrazione è un esercizio, permette di cambiare i generatori


di un sottospazio vettoriale.

Teorema 4.8 Dato W = L(v1 , v2 , . . . , vk ), si possono aggiungere o sostituire più gene-


ratori di W con loro combinazioni lineari.

Ad esempio, come conseguenza del teorema precedente, si ottiene:

W = L(v1 , v2 , . . . , vi , . . . , vk , vl + µvm ) = L(v1 , v2 , . . . , v̂i , . . . , vk , vi + vj ),

per ogni , µ 2 R e per ogni l, m, i, j nell’insieme {1, 2, . . . , k} e dove con il simbolo


v̂i si indica che si è tolto il vettore vi dall’elenco dei generatori di W.

Osservazione 4.12 Come immediata conseguenza del teorema precedente si ottiene an-
che che W = L(v1 , v2 , . . . , vk ) ammette infiniti generatori e quindi ha infiniti sistemi di
generatori.

Osservazione 4.13 Nell’Esempio 4.23 l’insieme {i, j} è un sistema di generatori di L(i, j)


ma anche {2i, 3i + 2j} è un altro insieme di generatori di L(i, j) e cosı̀ via, ma {i} non
è un sistema di generatori di L(i, j).
Capitolo 4 153

Definizione 4.10 Uno spazio vettoriale reale V si dice finitamente generato se esistono
m vettori v1 , v2 , . . . , vm di V per cui:
L(v1 , v2 , . . . , vm ) = V.
Analogamente, un sottospazio vettoriale W di uno spazio vettoriale reale V si dice
finitamente generato se esistono k vettori v1 , v2 , . . . , vk tali che:
L(v1 , v2 , . . . , vk ) = W.

Esempio 4.24 Lo spazio vettoriale dei numeri reali può essere generato da un qualsiasi
numero non nullo: R = L(1) = L(35) e quindi è un esempio di spazio vettoriale rea-
le finitamente generato. Analogamente, l’insieme dei numeri complessi C è uno spazio
vettoriale reale finitamente generato in quanto C = L(1, i), dove con i si indica l’u-
nità immaginaria. D’altra parte C è anche uno spazio vettoriale complesso finitamente
generato perché, in questo caso, C = L(1).

Esempio 4.25 Rn è finitamente generato, per esempio:


R3 = L((1, 0, 0), (0, 1, 0), (0, 0, 1)) = L((1, 2, 3), (2, 3, 0), (0, 0, 2), (4, 5, 6)).

Esempio 4.26 R2,2 è generato, per esempio, dalle matrici:


✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
1 0 0 1 0 0 0 0
, , , ,
0 0 0 0 1 0 0 1
ma anche dalle matrici:
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
2 0 0 4 0 0 0 0 0 0 7 2
, , , , , .
0 0 0 0 7 0 0 8 0 0 0 9
Osservazione 4.14 Si osservi che uno spazio vettoriale finitamente generato ammette un
numero finito di generatori, ma ciò non significa che ogni suo sistema di generatori debba
avere un numero finito di elementi. Le combinazioni lineari dei vettori che si conside-
reranno nel testo saranno sempre somme finite. Le somme infinite, ossia le serie ed i
problemi di convergenza che ne scaturiscono, sono invece studiati in Analisi Funzionale
(cfr. per esempio [20]).

Esempio 4.27 Lo spazio vettoriale R[x] dei polinomi a coefficienti in R è un esempio


di spazio vettoriale reale non finitamente generato. Infatti, se p1 (x), p2 (x), . . . , pk (x)
sono k polinomi e d è il loro massimo grado, allora L(p1 (x), p2 (x), . . . , pk (x)) non
contiene polinomi di grado maggiore a d e quindi L(p1 (x), p2 (x), . . . , pk (x)) ⇢ R[x],
ma L(p1 (x), p2 (x), . . . , pk (x)) 6= R[x]. È facile, invece, verificare che il sottospazio
vettoriale Rn [x] dei polinomi di grado minore o uguale ad n è finitamente generato:
Rn [x] = L(1, x, x2 , . . . , xn ).
154 Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.28 Nel Paragrafo 4.5 si dimostra che anche lo spazio vettoriale delle funzioni
reali di variabile reale F(R) descritto nell’Esempio 4.5, non è finitamente generato.

Esempio 4.29 Per determinare un sistema di generatori del sottospazio vettoriale W di


R3 , introdotto nell’Esercizio 4.1, e dato da:

W = {(x1 , x2 , x3 ) 2 R3 | 2x1 + 3x2 x3 = x2 + x3 = 0},

si deve risolvere il sistema lineare omogeneo che definisce W . Come descritto nel
Paragrafo 1.2 si ottengono infinite soluzioni date da:
8
< x1 = 2t
x2 = t
:
x3 = t, t 2 R.

In altri termini, il generico vettore di W è del tipo (2t, t, t) = t(2, 1, 1), t 2 R, ossia
(2, 1, 1) è un generatore di W .

In questo testo si studieranno solo spazi vettoriali finitamente generati, le definizioni e le


proprietà che seguono sono da considerarsi in questo contesto, anche se alcune di esse
possono essere agevolmente riscritte nel caso di spazi vettoriali non finitamente generati,
ma in tutto il testo non saranno mai discusse tali generalizzazioni. Per uno studio appro-
fondito degli spazi vettoriali non finitamente generati si può far riferimento a testi di base
di Analisi Funzionale (ad esempio [20]).

Poiché si vuole enunciare la definizione rigorosa di dimensione di uno spazio vettoriale


V (finitamente generato), sono riprese e riformulate, in un contesto più generale, alcune
definizioni e proprietà già studiate nel capitolo precedente nel caso particolare dello spazio
vettoriale V3 .

Definizione 4.11 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi si


dicono linearmente indipendenti se l’unica loro combinazione lineare uguale al vettore
nullo ha coefficienti tutti nulli, vale a dire:

x1 v1 + x2 v2 + . . . + xk vk = o =) x1 = x2 = . . . = xk = 0. (4.1)

L’insieme {v1 , v2 , . . . , vk } di vettori linearmente indipendenti si dice libero.


Di conseguenza, k vettori v1 , v2 , . . . , vk di V si dicono linearmente dipendenti se esiste
almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli.

Osservazione 4.15 Si osservi che in (4.1) vale anche l’implicazione opposta.


Capitolo 4 155

Prima di proporre alcuni esempi conviene dimostrare la seguente proprietà, molto facile,
ma utile per riconoscere vettori linearmente indipendenti o linearmente dipendenti.

Teorema 4.9 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi sono li-
nearmente dipendenti se e solo se almeno uno di essi si può esprimere come combinazione
lineare dei rimanenti.

Dimostrazione Si supponga che, per ipotesi, i vettori v1 , v2 , . . . , vk siano linearmente


dipendenti, allora x1 v1 + x2 v2 + . . . + xk vk = o, con x1 6= 0 (se il coefficiente non nullo
non fosse x1 si potrebbe commutare in modo da porre al primo posto il coefficiente non
nullo), è perciò possibile ricavare:
x2 xk
v1 = v2 ... vk
x1 x1
da cui la tesi. Il viceversa è lasciato per esercizio.

La verifica degli esempi che seguono è lasciata per esercizio.

Esempio 4.30 Ogni insieme contenente un solo vettore I = {x} con x 6= o è libero.

Esempio 4.31 In V3 i vettori di una base ortonormale B = (i, j, k) sono linearmente


indipendenti, lo stesso vale per ogni sottoinsieme non vuoto di B.

Esempio 4.32 Se in un insieme di vettori I compare il vettore nullo, allora I non è


libero. L’insieme {o} non è libero.

Esempio 4.33 Se I è un insieme libero di vettori, allora ogni sottoinsieme non vuoto di
I è libero.

Esempio 4.34 Se I è un insieme di vettori linearmente dipendenti allora ogni insieme


che contiene I è formato da vettori linearmente dipendenti.

La definizione che segue estende la nozione di base già data nel capitolo precedente nel
caso particolare dello spazio vettoriale V3 (cfr. Def. 3.7).

Definizione 4.12 Sia V uno spazio vettoriale reale, un insieme finito e ordinato di vettori
B = (v1 ,v2 ,. . .,vn ) di V prende il nome di base di V se:

1. B è un insieme libero,

2. B è un sistema di generatori di V, ossia L(B) = V.


156 Spazi Vettoriali e Sottospazi Vettoriali

Osservazione 4.16 Si vedrà che sarà fondamentale l’ordine in cui sono considerati i
vettori di una base.

Esempio 4.35 1. Una base ortonormale positiva B = (i, j, k) è un esempio di base di


V3 , in quanto verifica la definizione appena enunciata.

2. In Rn una base è data da B = (e1 , e2 , . . . en ), dove:

e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), ..., en = (0, 0, . . . , 1).

Questa base particolare, molto naturale, prende il nome di base standard o base
canonica di Rn . Per esempio, nel caso particolare di R4 si ha che la quaterna:
(1, 2, 3, 4) si scrive come 1e1 + 2e2 + 3e3 + 4e4 , da cui la giustificazione della
particolare denominazione usata. Sempre in R4 se si considera, invece, la base
B 0 = (f1 , f2 , f3 , f4 ), dove:

f1 = (2, 0, 0, 0), f2 = (0, 3, 0, 0), f3 = (0, 0, 1, 0), f4 = (0, 0, 0, 4),

si ha:
1 2
(1, 2, 3, 4) =
f1 + f2 + 3f3 + 1f4
2 3
che è una decomposizione dello stesso vettore (1, 2, 3, 4) molto meno naturale della
precedente.

3. Analogamente al caso di Rn , la base canonica dello spazio vettoriale delle matrici


Rm,n è formata, ordinatamente, dalle mn matrici Eij aventi il numero 1 al posto ij
e 0 per ogni altro elemento. Nel caso particolare di R2,3 la base canonica è formata
dalle 6 matrici seguenti:
✓ ◆ ✓ ◆ ✓ ◆
1 0 0 0 1 0 0 0 1
E11 = , E12 = , E13 = ,
0 0 0 0 0 0 0 0 0
✓ ◆ ✓ ◆ ✓ ◆
0 0 0 0 0 0 0 0 0
E21 = , E22 = , E23 = ;
1 0 0 0 1 0 0 0 1

quindi:
✓ ◆
1 2 3
= E11 + 2E12 + 3E13 + 4E21 + 5E22 + 6E23 .
4 5 6

4. In Rn [x] una base è data dall’insieme B = (1, x, x2 , . . . , xn ).

Il teorema che segue caratterizza le basi di uno spazio vettoriale.


Capitolo 4 157

Teorema 4.10 1. Sia B = (v1 , v2 , . . . , vn ) una base dello spazio vettoriale reale V,
allora ogni vettore x di V si decompone in modo unico come:
x = x1 v1 + x2 v2 + . . . + xn vn , (4.2)

con (x1 , x2 , . . . , xn ) 2 Rn .
2. Se {v1 , v2 , . . . , vn } è un insieme di vettori di V tale che ogni vettore x di V si
decomponga in modo unico rispetto a tali vettori come in (4.2), allora l’insieme
{v1 , v2 , . . . , vn } è una base di V.
La dimostrazione è lasciata per esercizio.

Il teorema appena enunciato conduce alla definizione di componenti di un vettore rispetto


ad una base assegnata, nel modo seguente.
Definizione 4.13 Sia V uno spazio vettoriale di dimensione n. Fissata una base B =
(v1 , v2 , . . . , vn ) in V, per ogni vettore x di V i numeri reali x1 , x2 , . . . , xn individuati
univocamente da (4.2), si dicono componenti di x rispetto alla base B.
Osservazione 4.17 Fissata una base B in uno spazio vettoriale V, con un abuso di lin-
guaggio volto ad enfatizzare l’ordine delle componenti, si scriverà che la n-upla di Rn
(x1 , x2 , . . . , xn ) indica le componenti di x rispetto alla base B. In modo equivalente, ogni
vettore x di V si individua, rispetto alla base B, con la matrice colonna X 2 Rn,1 data
da: 0 1
x1
B x2 C
B C
X = B .. C.
@ . A
xn
Osservazione 4.18 Fissata una base B in V, dati due vettori x e y di V le cui matrici
colonne delle componenti, rispetto a B, sono:
0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X = B .. C, Y = B .. C,
@ . A @ . A
xn yn
il vettore x + y ha componenti, rispetto a B:
0 1
x1 + y1
B x2 + y2 C
B C
X +Y =B .. C
@ . A
xn + yn
158 Spazi Vettoriali e Sottospazi Vettoriali

e il vettore x ( 2 R) ha componenti, rispetto a B:


0 1
x1
B x2 C
B C
X = B .. C.
@ . A
xn

Si osservi, inoltre, l’assoluta coerenza tra le definizioni di somma di matrici e somma di


vettori e tra prodotto di un numero reale per una matrice e prodotto di un numero reale
per un vettore.

Dalla definizione di base di uno spazio vettoriale e dal Teorema 4.10 emergono in modo
naturale le seguenti domande:

1. in ogni spazio vettoriale esiste sempre almeno una base?


2. In caso affermativo, in uno spazio vettoriale quante basi esistono?
3. Nel caso in cui esistano molte basi in uno spazio vettoriale, quanti vettori conten-
gono ciascuna?

Nel caso particolare degli spazi vettoriali dei vettori ordinari V3 , V2 e V1 , aiutati dalla
visualizzazione geometrica, si conoscono già le risposte alle precedenti domande (cfr.
Teor. 3.4); i teoremi che seguono permettono di dare analoghe risposte nel caso particolare
degli spazi vettoriali finitamente generati, quali, ad esempio Rn e lo spazio delle matrici
Rm,n (cfr. Es. 4.35). Si enunciano ora uno di seguito all’altro i teoremi che caratterizzano
la struttura degli spazi vettoriali, anteponendo il commento e le loro conseguenze alle loro
dimostrazioni.

Teorema 4.11 – Teorema di esistenza di una base – Sia V uno spazio vettoriale rea-
le finitamente generato e sia G = {w1 , w2 , . . . , wm } un sistema di generatori di V.
L’insieme G contiene almeno una base di V.

Osservazione 4.19 Dal teorema precedente e dall’Osservazione 4.12 segue che, essendo
possibile ottenere infiniti sistemi di generatori di V a partire da G , esistono infinite basi
in uno spazio vettoriale finitamente generato.

Teorema 4.12 – Lemma di Steinitz – Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio
vettoriale reale V e sia I = {u1 , u2 , . . . , up } un insieme libero di V, allora p  n.

Teorema 4.13 – Teorema della dimensione – Tutte le basi di uno spazio vettoriale reale
V finitamente generato hanno lo stesso numero di vettori.
Capitolo 4 159

Definizione 4.14 In uno spazio vettoriale reale V finitamente generato il numero dei
vettori appartenenti ad una base prende il nome di dimensione di V e si indica con
dim(V ).

Se V è formato dal solo vettore nullo V = {o}, si pone dim({o}) = 0.

Dai teoremi elencati si ottiene in modo evidente il seguente teorema.

Teorema 4.14 Sia W un sottospazio vettoriale di uno spazio vettoriale reale V, allora:

1. se lo spazio vettoriale V è finitamente generato anche W è finitamente generato.

2. dim(W)  dim(V ).

3. dim(W) = dim(V ) () W = V.

Esempio 4.36 Segue dall’Esempio 4.35 che:

• dim(Rn ) = n.

• dim(Rm,n ) = mn.

• dim(Rn [x]) = n + 1.

Per dimostrare il Teorema 4.11 è necessario anteporre il seguente lemma tecnico.

Lemma 4.1 Sia I = {a1 , a2 , . . . , ak } un insieme libero di V. Sia x 2 V un vettore che


non è combinazione lineare dei vettori di I , allora l’insieme I [ {x} è libero in V.

Dimostrazione Si procede per assurdo, i dettagli sono lasciati al Lettore.

Dimostrazione del Teorema 4.11 La dimostrazione consiste in un numero finito di


passi applicati all’insieme G , procedimento autorizzato dal fatto che G è finito. Si inizia
supponendo che ogni vettore di G sia diverso dal vettore nullo, in caso contrario si toglie
il vettore nullo da G .
Primo passo: si considerano l’insieme I1 = {w1 } e i vettori rimanenti wi , i = 2, . . . , m.
Se ogni vettore wi è linearmente dipendente da w1 , ossia se esistono numeri reali i tali
che wi = i w1 , i = 2, . . . , m, allora I1 è una base di V e il teorema è dimostrato. In
caso contrario si considera il primo vettore di G che non verifica questa condizione. Sia,
per esempio w2 2 / L(w1 ), si procede con il:
secondo passo: si considera l’insieme libero (cfr. Lemma 4.1) I2 = {w1 , w2 }. Si pre-
sentano due possibilità: o ogni vettore rimanente in G è combinazione lineare dei vettori
160 Spazi Vettoriali e Sottospazi Vettoriali

di I2 , allora I2 è una base di V (quindi segue la tesi), oppure esiste almeno un vettore di
G che non è combinazione lineare dei vettori di I2 , si suppone che sia w3 ; in questo caso
si procede con il:
terzo passo: si considera l’insieme libero (cfr. Lemma 4.1) I3 = {w1 , w2 , w3 } e si
procede come nel secondo passo.
Il procedimento termina dopo un numero finito di passi, al più m. Si è cosı̀ costruita
una base di V a partire dal primo vettore w1 di G . È evidente che procedendo con lo
stesso metodo a partire da un altro vettore di G o da un’altro insieme di generatori di V
si ottengono infinite basi.

Osservazione 4.20 Il metodo descritto nella dimostrazione precedente prende il nome di


metodo degli scarti successivi per il procedimento di calcolo che prevede.

Esercizio 4.5 In A(R3,3 ), sottospazio vettoriale di R3,3 delle matrici antisimmetriche, si


consideri l’insieme G = {A1 , A2 , A3 , A4 , A5 , A6 , A7 } con:
0 1 0 1
0 1 2 0 0 1
A1 = @ 1 0 3 A, A2 = @ 0 0 1 A,
2 3 0 1 1 0
0 1 0 1
0 0 0 0 0 0
A3 = @ 0 0 5 A, A4 = @ 0 0 0 A,
0 5 0 0 0 0
0 1 0 1 (4.3)
0 1 2 0 1 1
A5 = @ 1 0 0 A, A6 = @ 1 0 4 A,
2 0 0 1 4 0
0 1
0 5 1
A7 = @ 5 0 2 A.
1 2 0

Si dimostri che G è un insieme di generatori di A(R3,3 ) e se ne estragga una base.

Soluzione Per rispondere al primo quesito si deve esprimere la generica matrice:


0 1
0 a12 a13
A = @ a12 0 a23 A (4.4)
a13 a23 0
di A(R3,3 ) come combinazione lineare:
A= 1 A1 + 2 A2 + 3 A3 + 4 A4 + 5 A5 + 6 A6 + 7 A7 (4.5)
Capitolo 4 161

degli elementi di G . Sostituendo in (4.5) le matrici (4.3) e (4.4) prima indicate, si perviene
al sistema lineare nelle incognite i , i = 1, 2, . . . , 7:
8
< 1+ 6 + 5 7 = a12 ,
5
2 1+ 2+2 5 6 + 7 = a13 ,
:
3 1 2 + 5 3 + 4 6 2 7 = a23 ,

le cui soluzioni sono lasciate da determinare al Lettore per esercizio.


Per estrarre una base da G si procede come nella dimostrazione del Teorema 4.11, si ha:
primo passo: sia I1 = {A1 }. Si verifica subito che {A1 , A2 } è un insieme libero in
A(R3,3 ), si passa quindi al:
secondo passo: sia I2 = {A1 , A2 }. Si verifica che {A1 , A2 , A3 } è un insieme libero, si
procede, quindi, con il:
terzo passo: sia I3 = {A1 , A2 , A3 }. Si verifica che ogni altro vettore di G è combinazione
lineare di I3 , si deduce, cosı̀ che I3 è una base di A(R3,3 ). Tutte le verifiche sono lasciate
al Lettore per esercizio.

Per la dimostrazione del Teorema 4.12 si rimanda al Paragrafo 4.5.

Dimostrazione del Teorema 4.13 Siano B = (v1 , v2 , . . . , vn ) e C = (w1 , w2 , . . . , wm )


due basi di V, si tratta di dimostrare che n = m. Si consideri B base di V e C insieme
libero di V , dal Teorema 4.12 segue che m  n, invertendo i ruoli di B e di C si perviene
alla tesi.

Osservazione 4.21 Si osservi l’importanza dell’ordine dei vettori della base che si riflette
sull’ordine delle componenti dei vettori. In altri termini, mentre lo spazio vettoriale V si
può scrivere indifferentemente come:

V = L(v1 , v2 , . . . , vn ) = L(v2 , v1 , . . . , vn ),

la base B = (v1 , v2 , . . . , vn ) è diversa dalla base B 0 = (v2 , v1 , . . . , vn ). Come cambiano


le componenti dei vettori di V quando sono scritti rispetto alla base B e alla base B 0 ?

Esempio 4.37 1. A partire dalla scrittura di una matrice diagonale si verifica facil-
mente che dim(D(Rn,n )) è n. Una sua base è formata ordinatamente dalle matrici
Eii , i = 1, 2, . . . , n, definite nell’Esempio 4.35.

2. A partire dalla scrittura di una matrice triangolare superiore, si verifica facilmente


che dim(T (Rn,n )) = n(n+1)/2 e una sua base è data, ordinatamente, dalle matrici
Eij con 1  i  j  n definite nell’Esempio 4.35.
162 Spazi Vettoriali e Sottospazi Vettoriali

3. A partire dalla scrittura di una matrice simmetrica si verifica facilmente che:

n(n + 1)
dim(S(Rn,n )) =
2
e una sua base è:
00 10 1 0 1
1 0 ... 0 0 1 ... 0 0 0 ... 1
BB 0 0 ... 0 CB 1 0 ... 0 C B 0 0 ... 0 C
BB CB C B C
BB .. .. .. .. C, B .... . . .. C, . . . , B .... . . .. C,
@@ . . . . A@ . . . . A @ . . . . A
0 0 ... 0 0 0 ... 0 1 0 ... 0
0 1 0 10 11
0 0 ... 0 0 ... 0 0 0 0 ... 0
B 0 1 ... 0 C B .. . . .... C B 0 0 ... 0 CC
.
C, . . . , B . . . C
B C B B CC
B .... . . .. C, B .... . . .. CC.
@ . . . .A @ 0 ... 0 1 A@ . . . . AA
0 0 ... 0 0 ... 1 0 0 0 ... 1

4. A partire dalla scrittura di una matrice antisimmetrica si verifica facilmente che:

n(n 1)
dim(A(Rn,n )) =
2
e una sua base è:
00 10 1 0 11
0 1 0 ... 0 0 0 1 ... 0 0 0 ... 0 0
BB 1 0 0 . . . 0 CB 0 0 0 ... 0 C B 0 0 ... 0 CC
0
BB CB C B CC
BB 0 0 0 . . . 0 CB 1 0 0 ... 0 C B .... . . .. ..
CC
BB C, B C, . . . , B . . . . CC.
.
BB .. .. .. . . .. CB .. .. .. .. .. C B CC
@@ . . . . . A@ . . . . . A @ 0 0 ... 0 1 AA
0 0 0 ... 0 0 0 0 ... 0 0 0 ... 1 0

Si conclude con l’enunciato di un teorema che sarà molto usato nel testo.

Teorema 4.15 – Teorema del completamento della base – Sia V uno spazio vettoriale
di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato l’insieme libero:
I = {a1 , a2 , . . . , ak }, k  n,
esiste una base B 0 di V contenente tutti i vettori di I e n k vettori di B.

Dimostrazione Si consideri l’insieme A = I [ B, poiché A contiene una base, allora


V = L(A). Si applichi il Teorema 4.11 ad A partendo dai vettori di I , segue cosı̀ la
tesi.
Capitolo 4 163

Esercizio 4.6 Nel sottospazio vettoriale S(R3,3 ) delle matrici simmetriche di ordine 3
completare l’insieme libero I = {I1 , I2 , I3 }, con:
0 1 0 1 0 1
1 2 0 1 0 0 0 1 1
I1 = @ A
2 0 0 , I2 = @ 0 A
1 0 , I3 = @ 1 0 0 A
0 0 0 0 0 1 1 0 0

fino ad ottenere una base di S(R3,3 ).

Soluzione Si consideri la base di S(R3,3 ) contenente ordinatamente le matrici:


0 1 0 1 0 1
1 0 0 0 1 0 0 0 1
A1 = @ 0 0 0 A, A2 = @ 1 0 0 A, A3 = @ 0 0 0 A,
0 0 0 0 0 0 1 0 0
0 1 0 1 0 1
0 0 0 0 0 0 0 0 0
A4 = @ 0 1 0 A, A5 = @ 0 0 1 A, A6 = @ 0 0 0 A,
0 0 0 0 1 0 0 0 1

allora si possono riscrivere (per comodità di calcolo) i vettori di I tramite le loro compo-
nenti rispetto alla base B. Si ha:

I1 = (1, 2, 0, 0, 0, 0), I2 = (1, 0, 0, 1, 0, 1), I3 = (0, 1, 1, 0, 0, 0).

Si applica il Teorema 4.11 all’insieme di generatori:

G = {I1 , I2 , I3 , A1 , A2 , A3 , A4 , A5 , A6 }

partendo dagli elementi di I . Si ottiene che (I1 , I2 , I3 , A1 , A4 , A5 ) è una base di S(R3,3 ).


I dettagli di calcolo sono lasciati al Lettore.

Nel caso di uno spazio vettoriale di dimensione n, come corollario dei teoremi precedenti
si può agevolmente dimostrare il seguente teorema.

Teorema 4.16 1. Sia V uno spazio vettoriale reale di dimensione n. Un insieme


libero I = {v1 , v2 , . . . , vn } di n vettori di V è una base di V.

2. Sia V uno spazio vettoriale reale di dimensione n. Un sistema di generatori


I = {v1 , v2 , . . . , vn } di n vettori di V è una base di V.

Dimostrazione 1. L(v1 , v2 , . . . , vn ) è un sottospazio vettoriale di V di dimensione n,


quindi per la proprietà 3. del Teorema 4.14 si ha L(v1 , v2 , . . . , vn ) = V. Pertanto
164 Spazi Vettoriali e Sottospazi Vettoriali

v1 , v2 , . . . , vn sono generatori di V.

2. Per ipotesi L(v1 , v2 , . . . , vn ) = V e dim(V ) = n. Applicando il Teorema 4.11 al


sistema di generatori {v1 , v2 , . . . , vn } di V si può estrarre da esso una base di V,
ma, essendo dim(V ) = n, l’insieme {v1 , v2 , . . . , vn } è una base di V.

Osservazione 4.22 Mediante il Teorema del Completamento della Base (cfr. Teor. 4.15)
si può agevolmente determinare un sottospazio vettoriale supplementare di un sottospazio
vettoriale W di uno spazio vettoriale V. Se dim(V ) = n e se (a1 , a2 , . . . , ak ) è una
base di W, (k < n), allora si perviene ad un sottospazio vettoriale supplementare di W
completando l’insieme libero (a1 , a2 , . . . , ak ) fino ad ottenere una base di V, data per
esempio da:
(a1 , a2 , . . . , ak , b1 , b2 , . . . , bn k ).
Infatti:
L(a1 , a2 , . . . , ak ) \ L(b1 , b2 , . . . , bn k ) = {o}
e L(b1 , b2 , . . . , bn k ) è un sottospazio vettoriale di V supplementare di W . Un esempio
di quanto osservato sarà trattato nell’Esercizio 4.12.

4.3.2 Basi e somma diretta


Sia V uno spazio vettoriale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base,
allora:
V = L(v1 ) L(v2 ) . . . L(vn ),
oppure, per esempio:

V = L(v1 , v2 ) L(v3 , v4 , v5 ) ... L(vn 1 , vn ).


Inoltre segue in modo evidente dalla definizione di somma di due o più sottospazi vet-
toriali dello spazio vettoriale V che essa è generata dall’unione dei medesimi, nel senso
che i vettori del sottospazio vettoriale somma sono combinazioni lineari dei vettori dei
sottospazi vettoriali addendi.

Alla luce di queste considerazioni, il teorema che segue indica un metodo per determinare
una base dello spazio vettoriale V (o più in generale di un sottospazio vettoriale W di V )
a partire dalle basi dei sottospazi vettoriali in cui V (o W) si decompone.

Teorema 4.17 Si supponga che lo spazio vettoriale reale V sia decomposto nella somma
diretta di k suoi sottospazi vettoriali:

V = W1 W2 ... Wk ,
Capitolo 4 165

allora è possibile formare una base di V mediante l’unione dei vettori appartenenti ad
una base di ciascuno dei sottospazi vettoriali Wi , i = 1, 2, . . . , k .

Dimostrazione Siano dim(W1 ) = n1 , dim(W2 ) = n2 , . . . , dim(Wk ) = nk le dimen-


sioni dei sottospazi vettoriali considerati e siano B1 = (a11 , a12 , . . . , a1n1 ) una base di
W1 , B2 = (a21 , a22 , . . . , a2n2 ) una base di W2 e cosı̀ via fino a Bk = (ak1 , ak2 , . . . , aknk )
base di Wk . Per definizione di somma diretta e di base, ogni vettore di V si scrive in
modo unico come combinazione lineare dei vettori delle basi dei sottospazi vettoriali Wi ,
i = 1, 2, . . . , k. Pertanto, l’insieme di vettori:

B1 [ B2 [ . . . [ Bk = {a11 , a12 , . . . , a1n1 , a21 , a22 , . . . , a2n2 , . . . , ak1 , ak2 , . . . , aknk }

è una base dello spazio vettoriale V.

Dal teorema precedente si ottiene il corollario di seguito enunciato.

Corollario 4.1 Se W = W1 W2 ... Wk , allora:

dim(W) = dim(W1 ) + dim(W2 ) + . . . + dim(Wk ).

Esercizio 4.7 Vale il viceversa del Corollario 4.1?

Osservazione 4.23 Come immediata conseguenza del Corollario 4.1 segue che, dato un
sottospazio vettoriale W di V con dim(V ) = n e dim(W) = k , k < n, un suo supple-
mentare W 0 (tale che W W 0 = V ) ha dimensione n k . Una base di W 0 può essere
formata dai vettori che si aggiungono ad una base di W per ottenere una base di V (cfr.
Oss. 4.22). Si ottiene, quindi, che esistono infiniti sottospazi vettoriali supplementari di
W , supponendo ovviamente che W = 6 V eW= 6 {o}.

Nel caso della somma di due sottospazi vettoriali è utile conoscere la formula che mette in
relazione le loro dimensioni con le dimensioni della loro intersezione e della loro somma,
per la dimostrazione si veda il Paragrafo 4.5.

Teorema 4.18 – Formula di Grassmann – Siano W1 e W2 due sottospazi vettoriali di


uno spazio vettoriale V, allora:

dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 \ W2 ).

Esercizio 4.8 In R5 si consideri il sottospazio vettoriale:

W = {(x1 , x2 , x3 , x4 , x5 ) 2 R5 | x1 + x2 + 2x3 + x4 x5 = 0}.


166 Spazi Vettoriali e Sottospazi Vettoriali

1. Si decomponga W nella somma diretta di due sottospazi vettoriali W1 e W2 .


2. Si scriva il vettore ( 5, 2, 1, 3, 2) di W come somma di un vettore di W1 e di
un vettore di W2 .

Soluzione 1. Per esempio si controlla che i sottospazi vettoriali:


W1 = L(( 1, 1, 0, 0, 0), ( 2, 0, 1, 0, 0)),

W2 = L(( 1, 0, 0, 1, 0), (1, 0, 0, 0, 1)),


verificano la condizione richiesta, infatti la loro intersezione si riduce al vettore
nullo e la loro somma riproduce W.
Quante sono le risposte possibili? Si provi ad elencarne almeno due diverse.

2. Dal calcolo diretto si ha:

( 5, 2, 1, 3, 2) = (0, 2, 1, 0, 0) + ( 5, 0, 0, 3, 2).

Esercizio 4.9 In R2,2 si considerino i sottospazi vettoriali:


⇢✓ ◆
x1 x2
W1 = 2 R2,2 | x1 + x4 = x2 + x3 = 0 ,
x3 x4
⇢✓ ◆
x1 x2
W2 = 2 R2,2 | x1 x4 = x2 x3 = 0 .
x3 x4

Dimostrare che W1 W2 = R2,2 .

Soluzione Per l’intersezione W1 \ W2 è sufficiente osservare che la matrice dei coef-


ficienti del sistema lineare omogeneo:
8
>
> x1 + x4 = 0
<
x2 + x3 = 0
>
> x1 x4 = 0
:
x2 x3 = 0

ha determinante non nullo. Rimane da dimostrare che W1 W2 = R2,2 . Si ottiene


facilmente che una generica matrice di R2,2 si può scrivere come:
✓ ◆ ✓ ◆ ✓ ◆
x1 x2 1 x1 x4 x2 x3 1 x1 + x4 x2 + x3
= +
x3 x4 2 x2 + x3 x1 + x4 2 x2 + x3 x1 + x4
e ciò prova la decomposizione (unica) di un vettore di R2,2 nella somma di due vettori di
W1 e W2 , rispettivamente.
Capitolo 4 167

Esercizio 4.10 In R3,3 si considerino i sottospazi vettoriali:


80 1 9
< 0 a b =
W1 = @ 0 0 c A 2 R3,3 | a, b, c 2 R ,
: ;
0 0 0

W2 = D(R3,3 ),
80 1 9
< x1 0 0 =
W3 = @ x2 x3 0 A 2 R3,3 | 2x1 x3 = x1 + 3x3 = 0 .
: ;
x4 x5 0

Dimostrare che W1 W2 W3 = R3,3 .

Soluzione Si può verificare direttamente che ogni vettore di R3,3 si decompone in mo-
do unico come somma di un vettore di W1 insieme con un vettore di W2 insieme con un
vettore di W3 .

Esercizio 4.11 In R3 [x] si consideri il sottospazio vettoriale W dei polinomi aventi una
radice uguale a 2.
1. Decomporre W nella somma diretta di due sottospazi vettoriali W1 e W2 .
2. Scrivere il polinomio 4 2x + x3 di W come somma di un polinomio di W1 e
di un polinomio di W2 .

Soluzione 1. Dal Teorema di Ruffini sui polinomi, si ha che ogni polinomio di W si


scrive come:
p(x) = (x 2)(a0 + a1 x + a2 x2 ), a0 , a1 , a2 2 R,
quindi W = L( 2 + x, ( 2 + x)x, ( 2 + x)x2 ) e dim(W) = 3.
Ad esempio si può porre W = W1 W2 , con:
W1 = L( 2 + x, ( 2 + x)x), W2 = L(( 2 + x)x2 ).
2. Si devono trovare i numeri reali i, i = 1, 2, 3, tali che:
4 2x + x3 = 1( 2 + x) + 2( 2 + x)x + 3( 2 + x)x2 .
Dall’uguaglianza dei coefficienti dei monomi di grado uguale segue:
1 = 2, 2 = 2, 3 = 1.
Pertanto 4 2x + x3 = p1 (x) + p2 (x), con p1 (x) = 4 2x + 2x2 2 W1 e
p2 (x) = 2x2 + x3 2 W2 .
168 Spazi Vettoriali e Sottospazi Vettoriali

Esercizio 4.12 Dato il sottospazio vettoriale H di R4 definito da:

H = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 + x2 + x4 = x3 = 0},

si determinino due sottospazi vettoriali diversi entrambi supplementari di H in R4 .

Soluzione Risolvendo il sistema lineare omogeneo che definisce H si ottiene che un


generico vettore di H è del tipo (t1 , t2 , 0, t1 t2 ) con t1 , t2 2 R da cui segue che
dim(H) = 2 ed i vettori a1 = (1, 0, 0, 1), a2 = (0, 1, 0, 1) formano una base di
H. Si verifica facilmente (usando il metodo degli scarti successivi descritto nella di-
mostrazione del Teorema 4.11) che, ad esempio, (a1 , a2 , e1 , e3 ), con e1 = (1, 0, 0, 0) e
e3 = (0, 0, 1, 0), è una base di R4 , ovvero che H L(e1 , e3 ) = R4 . Quindi un sottospazio
vettoriale supplementare di H in R4 è K1 = L(e1 , e3 ). Con un procedimento analogo si
verifica che, ad esempio, (a1 , a2 , e3 , e4 ), con e4 = (0, 0, 0, 1), è un’altra base di R4 . Si
può allora definire un altro sottospazio vettoriale, diverso dal precedente, supplementare
di H in R4 , dato da K2 = L(e3 , e4 ).

Osservazione 4.24 Nel paragrafo seguente si introdurrà il concetto di rango di una ma-
trice che permetterà di risolvere gli esercizi proposti in questo paragrafo in un altro modo,
a volte più rapido.

4.3.3 Rango di una matrice


In questo paragrafo verrà introdotta la definizione formale di rango di una matrice, mentre
la Definizione 1.10 inserita nel Capitolo 1 ne costituisce un metodo di calcolo.

Sia A = (aij ) 2 Rm,n una matrice di m righe e n colonne, le cui righe sono date dai
vettori:
R1 = (a11 , a12 , . . . , a1n ),
R2 = (a21 , a22 , . . . , a2n ),
..
.
Rm = (am1 , am2 , . . . , amn ).
I vettori Ri 2 Rn , i = 1, 2, . . . , m, prendono il nome di vettori riga della matrice A ed il
sottospazio vettoriale:
R(A) = L(R1 , R2 , . . . , Rm )

è lo spazio vettoriale delle righe di A. Per costruzione R(A) è un sottospazio vettoriale


di Rn , ed avendo m generatori, la sua dimensione sarà al più pari al minore tra i numeri
m ed n.
Capitolo 4 169

Si ripete lo stesso discorso per le colonne di A. Siano:

C1 = (a11 , a21 , . . . , am1 ),


C2 = (a12 , a22 , . . . , am2 ),
..
.
Cn = (a1n , a2n , . . . , amn )

i vettori colonna di A. Il sottospazio vettoriale:

C(A) = L(C1 , C2 , . . . , Cn )

è lo spazio vettoriale delle colonne di A. Per costruzione C(A) è un sottospazio vettoriale


di Rm , ed avendo n generatori la sua dimensione sarà al più pari al minore tra i numeri
m ed n.

Osservazione 4.25 1. Per una matrice A 2 Rm,n lo spazio vettoriale delle righe R(A)
è un sottospazio vettoriale di Rn , mentre lo spazio vettoriale delle colonne C(A)
è un sottospazio vettoriale di Rm , quindi R(A) e C(A) sono, in generale, spazi
vettoriali diversi. Se m 6= n, R(A) e C(A) sono sempre spazi vettoriali diversi.

2. Se A è una matrice qualsiasi di Rm,n , allora R(tA) = C(A), C(tA) = R(A), dove
t
A indica la trasposta della matrice A.
Se A 2 Rn,n è una matrice simmetrica, allora R(A) = C(A).
Se A 2 Rn,n è una matrice antisimmetrica, allora R( A) = R(A) = C(A).

Vale il seguente teorema.

Teorema 4.19 – Teorema del rango – Per ogni matrice A 2 Rm,n si ha:

dim(R(A)) = dim(C(A)).

Nel Paragrafo 4.5 si propone una dimostrazione di questo teorema, ma si dovrà aspettare
il Capitolo 6 per una dimostrazione alternativa, molto più sintetica.

Il teorema appena enunciato giustifica la seguente fondamentale definizione.

Definizione 4.15 Si definisce rango di una matrice A 2 Rm,n (e lo si indica con rank(A))
la dimensione dello spazio vettoriale delle righe (o delle colonne) di A:

rank(A) = dim(R(A)) = dim(C(A)).


170 Spazi Vettoriali e Sottospazi Vettoriali

Osservazione 4.26 Come conseguenza immediata del precedente teorema si ha anche


che:
rank(A) = rank( tA), A 2 Rm,n ,
e che rank(A) è minore o uguale del minimo tra m e n.

Le proprietà che seguono sono volte a dimostrare che la definizione di rango di una ma-
trice, appena enunciata, coincide con la Definizione 1.10 data nel Capitolo 1. Si procede
come segue.

1. Sia A una matrice ridotta per righe, si dimostrerà che il numero delle righe non
nulle di A coincide con la dimensione dello spazio vettoriale delle righe di A.
2. Si dimostrerà, inoltre, che il processo di riduzione di una matrice per righe descritto
nel Paragrafo 1.2 lascia invariata la dimensione dello spazio vettoriale delle righe
di A, pur cambiando la matrice A.
3. A corretta conclusione, si devono aggiungere la definizione di matrice ridotta per
colonne e il procedimento di riduzione per colonne.

Teorema 4.20 Se A 2 Rm,n è una matrice ridotta per righe, la Definizione 1.9 del Ca-
pitolo 1 coincide con la Definizione 4.15. Pertanto la definizione di rango di una matrice
è formulata in modo corretto.

Dimostrazione Poiché ogni matrice ridotta per righe può essere trasformata in una
matrice triangolare superiore mediante l’applicazione delle tre operazioni di riduzione
sulle righe senza alterarne il numero di righe non nulle (cfr. la dimostrazione del Teorema
2.13), si può supporre che una matrice ridotta per righe A 2 Rm,n con k righe non nulle
sia del tipo seguente: 0 1
a11 a12 . . . . . . . . . a1n
B 0 a22 . . . . . . . . . a2n C
B . .. C
B . ... C
B . . C
B C
B 0 . . . 0 akk . . . akn C,
B C
B 0 ... 0 ... 0 0 C
B . .. .. .. C
@ .. . . . A
0 ... 0 ... 0 0
con a11 a22 . . . akk 6= 0. Si tratta ora di dimostrare che il numero k delle righe non nulle di
A coincide con dim(R(A)), cioè che le prime k righe di A sono linearmente indipendenti
in Rn . Il risultato è quasi ovvio ed è la conseguenza della particolare posizione delle
componenti nulle nelle righe di A. Infatti, dall’equazione:

1 R1 + 2 R2 + ... + k Rk =o
Capitolo 4 171

nelle incognite 1, 2, . . . , k, con:


R1 = (a11 , a12 , . . . , a1n ),
R2 = (0, a22 , . . . , a2n ),
..
.
Rk = (0, . . . , 0, akk , . . . , akn )
e o 2 Rn , si ottiene un sistema lineare omogeneo la cui prima equazione è:

1 a11 = 0;
ma a11 6= 0 allora 1 = 0. Sostituendo questo risultato nella seconda equazione:

1 a12 + 2 a22 =0
si ottiene 2 = 0 e cosı̀ via, da cui segue che le righe non nulle della matrice A ridotta
per righe sono linearmente indipendenti.

Teorema 4.21 Le operazioni consentite per ridurre una matrice A 2 Rm,n per righe non
cambiano la dimensione dello spazio vettoriale delle righe di A.

Dimostrazione Si ricordino le operazioni, descritte nel Paragrafo 1.2, consentite per


ridurre per righe una matrice, e precisamente:

1. Ri ! Rj ;
2. Ri ! Ri , 2 R, 6= 0;
3. Ri ! Ri + Rj , 2 R, i 6= j.

La tesi segue allora in modo evidente dal Teorema 4.8.

Si può ripetere il procedimento di riduzione di una matrice sulle colonne, di conseguenza,


dopo aver ridotto per colonne la matrice, il suo rango sarà dato dal numero di colonne
non nulle. Più precisamente si può enunciare la seguente definizione.

Definizione 4.16 Una matrice A si dice ridotta per colonne se in ogni sua colonna non
nulla esiste un elemento non nullo a destra del quale ci sono tutti zeri.

Esempio 4.38 La matrice seguente è ridotta per colonne:


0 1
1 0 0
B 1 1 0 C
A=B @ 2 3 4 A.
C

5 6 7
172 Spazi Vettoriali e Sottospazi Vettoriali

Teorema 4.22 Il rango di una matrice A (inteso come la dimensione dello spazio vetto-
riale delle colonne di A) si calcola riducendo la matrice A per colonne, in altri termini
eseguendo sulle colonne, un numero finito di volte, le operazioni seguenti:
1. Ci ! Cj : scambiare tra di loro due colonne;
2. Ci ! Ci , 2 R, 6= 0 : moltiplicare tutti gli elementi di una colonna per un
numero reale non nullo;
3. Ci ! Ci + Cj , 2 R, i 6= j : sostituire ad una colonna una combinazione
lineare di se stessa con una colonna parallela
e poi contando il numero di colonne non nulle della matrice ridotta per colonne ottenuta.

La dimostrazione è un evidente esercizio.

Osservazione 4.27 Riducendo per righe una matrice A non cambia lo spazio vettoriale
R(A), anche se si ottengono matrici ridotte per righe tra di loro diverse.
Riducendo per righe una matrice A non cambia dim(C(A)) ma cambia invece lo spa-
zio vettoriale C(A). Analogamente, riducendo per colonne la matrice A non cambia
dim(R(A)) ma cambia R(A). In particolare, si osservi che riducendo per colonne la
matrice completa di una sistema lineare non si ottiene un sistema lineare equivalente al
sistema lineare dato.

Esercizio 4.13 Calcolare il rango della matrice:


0 1
1 2 1
B 1 1 0 C
B C
A=B B 1 2 4 C,
C
@ 1 1 1 A
3 1 2
riducendola per colonne; calcolare il rango di A riducendola per righe e osservare che si
ottiene lo stesso risultato ma la matrice ridotta per colonne ottenuta è diversa dalla matrice
ridotta per righe.

Esistono dei casi in cui le matrici ridotte per righe e per colonne a cui si perviene dalla
stessa matrice A coincidono?

Teorema 4.23 – Teorema di Nullità più Rango – Sia AX = O un sistema lineare


omogeneo con matrice dei coefficienti A 2 Rm,n , incognite X 2 Rn,1 e con colonna dei
termini noti la matrice nulla O 2 Rm,1 . Sia N (A) il sottospazio vettoriale di Rn delle
soluzioni del sistema lineare omogeneo (cfr. Es. 4.12) , allora:
rank(A) + dim(N (A)) = n.
Capitolo 4 173

Dimostrazione Segue dalla definizione di rango di una matrice e dalla risoluzione dei
sistemi lineari omogenei mediante il metodo di riduzione di Gauss. Si risolve, infatti, il
sistema lineare omogeneo AX = O riducendo per righe la matrice A. Supponendo che
rank(A) = k , non si perde in generalità (cfr. la dimostrazione del Teorema 2.13) se si
assume di pervenire al seguente sistema lineare omogeneo ridotto:
0 10 1 0 1
a11 a12 . . . . . . . . . a1n x1 0
B 0 a22 . . . . . . . . . a2n C B x2 C B 0 C
B .. .. .. .. C B C B C
B ... C B .. C B .. C
B . . . . CB . C B . C
B CB C B C
B 0 ... 0 akk . . . akn C B xk C=B 0 C, aii 6= 0, i = 1, 2, . . . , k.
B CB C B C
B 0 ... 0 ... 0 0 C B xk+1 C B 0 C
B .. .. .. .. C B . C B .. C
@ . . . . A @ .. A @ . A
0 ... 0 ... 0 0 xn 0

Si ottengono cosı̀ infinite soluzioni che dipendono da n k incognite libere. Ponendo:


8
>
> xk+1 = t1
>
< xk+2 = t2
..
>
> .
>
: x = t , t ,t ,...,t
n n k 1 2 n k 2 R,

sostituendo questi valori nella k -esima equazione si ha:


akk+1 akn
xk = t1 ... tn k
akk akk

e cosı̀ via per tutte le altre incognite. Di conseguenza il nullspace N (A) risulta essere:

N (A) = {t1 (b11 , b21 , . . . , bk1 , 1, 0, . . . , 0)

+t2 (b12 , b22 , . . . , bk2 , 0, 1, . . . , 0)

+...

+tn k (b1k 1 , b2k 1 , . . . , bkk 1 , 0, 0, . . . , 1), t1 , t2 , . . . , tn k 2 R},

dove i numeri reali bij indicano i coefficienti ottenuti dalla risoluzione del sistema lineare
omogeneo, per esempio:
akk+1
bk1 = .
akk
Segue subito che dim(N (A)) = n k.
174 Spazi Vettoriali e Sottospazi Vettoriali

Anche se la dimostrazione del teorema precedente è ovvia, la sua importanza sarà fon-
damentale nel resto del corso. La denominazione nullità deriva, come già osservato in
precedenza, dalla traduzione del termine “nullspace ”che indica in inglese il sottospazio
vettoriale N (A).

La formulazione del Teorema di Nullità più Rango appena presentato è quella classica,
che viene usata per le sue svariate applicazioni. In realtà l’enunciato completo del teorema
è il seguente.

Teorema 4.24 – Teorema di Nullità più Rango – Sia AX = O un sistema lineare


omogeneo con matrice dei coefficienti A 2 Rm,n , incognite X 2 Rn,1 e colonna dei
termini noti O 2 Rm,1 . Siano R(A) lo spazio vettoriale delle righe di A, C(A) lo spazio
vettoriale delle colonne di A e N (A) il sottospazio vettoriale di Rn delle soluzioni del
sistema lineare omogeneo, allora:
R(A) N (A) = Rn
e, equivalentemente,
C(A) N (tA) = Rm .

Dimostrazione Tenendo conto del Teorema 4.23 è sufficiente dimostrare che:


R(A) \ N (A) = {o}.
Per assurdo sia x = (x1 , x2 , . . . , xn ) un elemento non nullo di R(A) \ N (A). Si suppon-
ga per esempio che x = R1 + 2R2 , dove R1 e R2 sono le prime due righe della matrice
A. L’ipotesi non è restrittiva, si lasciano al Lettore le varie generalizzazioni. Il vettore
x verifica tutte le equazioni del sistema lineare AX = O, in particolare, verifica anche
l’equazione che si ottiene dalla somma della prima equazione del sistema lineare con il
doppio della seconda, se A = (aij ) e X = (xi ) significa che:
(a11 + 2a21 )x1 + (a12 + 2a22 )x2 + . . . + (a1n + 2a2n )xn = 0.
Sostituendo in tale equazione l’espressione di x segue:
(a11 + 2a21 )2 + (a12 + 2a22 )2 + . . . + (a1n + 2a2n )2 = 0,
da cui x = o, che è assurdo. La seconda affermazione del teorema si ottiene sostituendo
ad A la sua trasposta.

Osservazione 4.28 È fondamentale osservare che, anche se fosse possibile, come nel
caso delle matrici quadrate, il teorema precedente non vale se si invertono i ruoli di R(A)
e di C(A). Nel Capitolo 6 si presenterà un esempio di matrice in cui C(A) ✓ N (A) (cfr.
Oss. 6.10).
Capitolo 4 175

Osservazione 4.29 Una delle applicazioni della definizione di rango di una matrice è la
possibilità di risolvere in modo più agevole alcuni degli esercizi già proposti. Sia, infatti,
B = (v1 , v2 , . . . , vn ) una base di V e siano w1 , w2 , . . . , wk i generatori di un sottospazio
vettoriale W di V. Per trovare una base di W si può procedere considerando la matrice
A 2 Rk,n che ha come vettori riga i vettori wi , i = 1, 2, . . . , k, scritti in componenti
rispetto alla base B. Riducendo la matrice A per righe, segue che i vettori riga non nulli,
della matrice ridotta per righe cosı̀ ottenuta, costituiscono una base di W e la dimensione
di W coincide con il rango della matrice A. Attenzione al fatto che se si riduce la matrice
A per colonne i vettori riga della matrice ridotta per colonne non determinano più una
base di W . Analogamente se W1 e W2 sono due sottospazi vettoriali di V di cui si
conoscono le componenti dei vettori delle loro basi, per determinare la dimensione e una
base di W1 +W2 si può procedere scrivendo la matrice B che ha come vettori riga i vettori
delle basi di W1 e di W2 , scritti in componenti ripetto ad una base di V. Riducendo la
matrice B per righe si ha che il rango di B coincide con la dimensione di W1 + W2 e i
vettori riga non nulli della matrice ridotta per righe che si ottiene costituiscono una base
di W1 + W2 .

Esercizio 4.14 Determinare una base del sottospazio vettoriale H di R4 cosı̀ definito:

H = L((1, 2, 0, 1), (2, 4, 1, 1), (0, 0, 1, 1), (1, 2, 4, 5), (1, 1, 0, 5)).

Soluzione Si riduce per righe la matrice A ottenuta ponendo in riga i generatori di H.


Si ha:
0 1 0 1
1 2 0 1 1 2 0 1
B C ! B C
B 2 4 1 1 C R2 ! R2 2R1 B 0 0 1 1 C
A=B
B 0 0 1 1 C
C R4 ! R4 R1 B
B 0 0 1 1 C
C
@ 1 2 4 5 A @ 0 0 4 4 A
R5 ! R5 R1
1 1 0 5 0 3 0 4

0 1 0 1
1 2 0 1 1 2 0 1
B 0 3 0 4 C ! B 0 3 0 4 C
! B C B C
B 0 0 1 1 C R4 ! R4 4R3 B 0 0 1 1 C,
R2 $ R5 B C B C
@ 0 0 4 4 A R5 ! R5 + R3 @ 0 0 0 0 A
0 0 1 1 0 0 0 0
da cui segue che rank(A) = 3, quindi dim(H) = 3 e una sua base è data dalle prime tre
righe della matrice ridotta per righe ottenuta da A, cioè dai vettori:

z1 = (1, 2, 0, 1), z2 = (0, 3, 0, 4), z3 = (0, 0, 1, 1).


176 Spazi Vettoriali e Sottospazi Vettoriali

Osservazione 4.30 Si consiglia di rifare gli esercizi precedentemente svolti usando il


metodo proposto in questo paragrafo (Esercizi 4.5, 4.6, 4.9, 4.10).

Esercizio 4.15 Dato il sottospazio vettoriale di R4 :

K = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 x2 = x1 x3 = 0},

determinare la dimensione e una base di H+K e H\K, dove H è il sottospazio vettoriale


definito nell’Esercizio 4.14.

Soluzione Una base di K è data ad esempio da (w1 , w2 ) con w1 = (1, 1, 1, 0) e w2 =


(0, 0, 0, 1). Per trovare la dimensione e una base di H + K, si riduce per righe la matrice
B ottenuta ponendo in riga i vettori z1 , z2 , z3 , w1 , w2 :
0 1 0 1
1 2 0 1 1 2 0 1
B 0 3 0 4 C B 0 3 0 4 C
B C ! B C
B=B B 0 0 1 1 C
C R4 ! R4 R1 B
B 0 0 1 1 C
C
@ 1 1 1 0 A @ 0 1 1 1 A
0 0 0 1 0 0 0 1
0 1 0 1
1 2 0 1 1 2 0 1
B 0 3 0 4 C B 0 3 0 4 C
! B C ! B C
B 0 0 1 1 C B 0 0 1 1 C.
R4 ! 3R4 R2 B
@
C R4 ! R4 3R3 B
A @
C
A
0 0 3 7 0 0 0 10
0 0 0 1 0 0 0 1

Si vede che il rango di B è 4, cioè che H + K = R4 . Dalla Formula di Grassmann (cfr.


Teor. 4.18) si ha che dim(H \ K) = 3 + 2 4 = 1. Per trovare una base di H \ K si può
procedere in questo modo. Un generico vettore di H \ K è della forma:

1 z1 + 2 z2 + 3 z3 = µ1 w1 + µ2 w2 , (4.6)

con 1 , 2 3 , µ1 , µ2 2 R. Si deve perciò risolvere il sistema lineare omogeneo nelle in-


cognite ( 1 , 2 , 3 , µ1 , µ2 ) associato alla precedente equazione con la riduzione per righe
della corrispondente matrice dei coefficienti:
0 1
1 0 0 1 0
B 2 3 0 1 0 C
C=B @ 0
C.
0 1 1 0 A
1 4 1 0 1
Capitolo 4 177

Si trovano infinite soluzioni:


✓ ◆
1 10
1 = µ1 ,2 = µ1 , 3 = µ1 , µ2 = µ1 ,
3 3
con µ1 2 R. Sostituendo tali valori in (4.6) si ottiene che:
✓ ◆
10
w1 + w2
3
è una base di H \ K.
Esercizio 4.16 In R3 [x] si considerino i polinomi:
p1 (x) = 1 + x2 , p2 (x) = x + x3 , p3 (x) = 2 + x + x3 .
1. Verificare che l’insieme I = {p1 (x), p2 (x), p3 (x)} è libero.
2. Individuare una base di R3 [x] contenente I .
Soluzione 1. Sia B = (1, x, x2 , x3 ) una base di R3 [x]. Rispetto a B, i polinomi dati
hanno componenti:
p1 (x) = (1, 0, 1, 0), p2 (x) = (0, 1, 0, 1), p3 (x) = (2, 1, 0, 1).
Si consideri la matrice A di R3,4 avente come righe le componenti dei tre poli-
nomi e ne si calcoli il rango riducendola per righe:
0 1 0 1
1 0 1 0 1 0 1 0
!
A=@ 0 1 0 1 A @ 0 1 0 1 A
R3 ! R3 2R1
2 1 0 1 0 1 2 1
0 1
1 0 1 0
! @ 0 1 0 1 A.
R3 ! R3 R2
0 0 2 0
Segue che rank(A) = 3 e, quindi, la tesi.
2. Per ottenere una base di R3 [x] contenente I è sufficiente aggiungere ai polinomi
dati un polinomio in modo che i quattro polinomi siano linearmente indipendenti.
Allora, è sufficiente aggiungere all’ultima matrice ottenuta nel calcolo precedente
una riga in modo tale che la matrice quadrata di ordine 4 cosı̀ ottenuta sia ridotta
per righe e abbia rango 4, precisamente si ha:
0 1
1 0 1 0
B 0 1 0 1 C
B C,
@ 0 0 2 0 A
0 0 0 1
quindi un polinomio (ma non è l’unico) che risolve l’esercizio è x3 .
178 Spazi Vettoriali e Sottospazi Vettoriali

4.3.4 Il cambiamento di base


In questo paragrafo si presenta il problema del cambiamento di base in uno spazio vetto-
riale reale qualsiasi V, estendendo a V l’analogo problema risolto nel caso dello spazio
vettoriale dei vettori ordinari V3 nel Paragrafo 3.5.

Nello spazio vettoriale reale V, di dimensione n, si considerino due basi:


B = (v1 , v2 , . . . , vn ), B 0 = (v10 , v20 , . . . , vn0 ).
Si ponga: 8
>
> v10 = p11 v1 + p21 v2 + . . . + pn1 vn ,
>
< v0 = p12 v1 + p22 v2 + . . . + pn2 vn ,
2
.. (4.7)
>
> .
>
: v0 = p v + p v + . . . + p v .
n 1n 1 2n 2 nn n

La matrice:
0
P = M B,B = (pij ), i, j = 1, 2, . . . , n,
che è cosı̀ determinata, prende il nome di matrice del cambiamento di base da B a B 0,
0
come precisato nella notazione M B,B . La matrice P è ottenuta ponendo ordinatamente
in colonna le componenti dei vettori della base B 0 rispetto ai vettori della base B. La
ragione della scelta delle colonne è giustificata da una maggiore semplicità della formula
finale (4.9) che si ottiene. P è una matrice quadrata, ad elementi reali, di rango massimo
(rank(P ) = n) e, quindi, per i Teoremi 2.16 e 2.8, P è invertibile e det(P ) 6= 0. Le
equazioni (4.7) si possono scrivere, in notazione matriciale, come:
0 1 0 1
v10 v1
B v0 C B v2 C
B 2 C B C
B .. C = tP B .. C. (4.8)
@ . A @ . A
vn0 vn
Considerato un qualsiasi vettore x 2 V, il problema del cambiamento di base consiste
nel determinare le relazioni che intercorrono tra le componenti di x rispetto alle due basi
introdotte. Si supponga, quindi, che:

x = x1 v1 + x2 v2 + . . . + xn vn = x01 v10 + x02 v20 + . . . + x0n vn0 ,


vale a dire, in notazione matriciale:
0 1 0 1
v1 v10
B v2 C B v20 C
B C B C
x= x 1 x 2 . . . xn B .. C= x01 x02 ... x0n B .. C.
@ . A @ . A
vn vn0
Capitolo 4 179

Sostituendo le equazioni (4.8) nell’uguaglianza precedente e tenendo conto dell’unicità


delle componenti di un vettore rispetto alla base B si perviene alle relazioni:
0 1 0 1
x1 x01
B x2 C B x0 C
B C B 2 C
B .. C = P B .. C
@ . A @ . A
xn x0n

che saranno spesso indicate come:

X = P X 0, (4.9)

dove X e X 0 sono, rispettivamente, le matrici colonna delle componenti di x rispetto alla


base B e alla base B 0. Tali relazioni prendono il nome di equazioni del cambiamento di
base da B a B 0 e risolvono il problema posto.

Osservazione 4.31 La matrice del cambiamento di base da B 0 a B è P 1


, in quanto le
equazioni del cambiamento di base, in questo caso, sono X 0 = P 1 X .

Esercizio 4.17 1. Verificare che:


✓✓ ◆ ✓ ◆ ✓ ◆◆
0 1 2 2 1 4 1
B = , ,
2 1 1 3 1 5

è una base di S(R2,2 ).

2. Trovare le componenti della matrice:


✓ ◆
4 11
A=
11 7

rispetto alla base B 0 .

Soluzione 1. Sia:
✓✓ ◆ ✓ ◆ ✓ ◆◆
1 0 0 1 0 0
B= , ,
0 0 1 0 0 1

una base di S(R2,2 ). La matrice del cambiamento di base da B a B 0 , ottenuta


ponendo in colonna le componenti dei vettori di B 0 rispetto a B, è:
0 1
1 2 4
P =@ 2 1 1 A.
1 3 5
180 Spazi Vettoriali e Sottospazi Vettoriali

Si verifica che det(P ) = 52, quindi i tre vettori dati formano, effettivamente,
una base di S(R2,2 ).

2. Le componenti richieste sono la soluzione del sistema lineare:


0 1 0 0 1
4 x1
@ 11 A = P @ x02 A,
7 x03

ossia (x01 = 4, x02 = 2, x03 = 1).

4.3.5 Iperpiani vettoriali


Definizione 4.17 Sia V uno spazio vettoriale reale di dimensione n. Ogni sottospazio
vettoriale W di V tale che dim(W) = n 1 prende il nome di iperpiano vettoriale di V.

Per definizione, quindi, un iperpiano vettoriale è generato da n 1 vettori linearmente


indipendenti di V.

Esempio 4.39 In R4 l’iperpiano vettoriale W generato dai vettori:

a1 = (1, 0, 1, 4), a2 = (0, 1, 1, 2), a3 = (0, 0, 3, 4)

è il sottospazio vettoriale di R4 :

W = {(x1 , x2 , x3 , x4 ) = k1 a1 + k2 a2 + k3 a3 , k1 , k2 , k3 2 R}
= {(k1 , k2 , k1 + 3k3 , 4k1 + 2k2 + 4k3 ) | k1 , k2 , k3 2 R}.

Vale il seguente teorema.

Teorema 4.25 Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V di dimen-
sione n e siano (x1 , x2 , . . . , xn ) le componenti di un qualsiasi vettore x di V rispetto
alla base B.

1. Tutte e sole le equazioni lineari omogenee in (x1 , x2 , . . . , xn ) rappresentano, ri-


spetto alla base B, gli iperpiani vettoriali di V.

2. Ogni sottospazio vettoriale W di V di dimensione k è rappresentabile, rispetto alla


base B, mediante un sistema lineare omogeneo di n k equazioni nelle incognite
(x1 , x2 , . . . , xn ).

Dimostrazione 1. La dimostrazione è lasciata per esercizio.


Capitolo 4 181

2. Sia (a1 , a2 , . . . , ak ) una base di W, allora ogni vettore x di W è del tipo:


x= 1 a1 + 2 a2 + ... + k ak , 1, 2, . . . , k 2 R. (4.10)
Eliminando i parametri 1 , 2 , . . . , k tra le n equazioni che si ottengono scriven-
do in componenti l’equazione vettoriale (4.10) si perviene ad un sistema lineare
omogeneo di n k equazioni nelle componenti (x1 , x2 , . . . , xn ).

Come immediata conseguenza del secondo punto del teorema precedente si ottiene il
seguente corollario.
Corollario 4.2 Un sottospazio vettoriale W, di dimensione k, di uno spazio vettoriale
V, di dimensione n, è l’intersezione di n k iperpiani vettoriali di V.
Esempio 4.40 In R4 , l’equazione lineare omogenea:
x1 + x2 + 3x3 + 2x4 = 0,
rispetto alla base canonica B = (e1 , e2 , e3 , e4 ) di R4 , individua l’iperpiano vettoriale
generato, ad esempio, dai vettori:
( 1, 1, 0, 0), ( 3, 0, 1, 0), ( 2, 0, 0, 1).
Esercizio 4.18 Qual è l’equazione dell’iperpiano vettoriale considerato nell’Esempio 4.39
rispetto alla base canonica di R4 ?
Soluzione I vettori a1 , a2 , a3 , x = (x1 , x2 , x3 , x4 ) appartengono a W se e solo se sono
linearmente dipendenti, ossia se la matrice quadrata, di ordine 4, le cui righe sono le
componenti dei quattro vettori, ha determinante nullo. L’equazione richiesta è:
1 0 1 4
0 1 1 2
= 0.
0 0 3 4
x1 x2 x3 x4
La motivazione dell’ultimo passaggio è lasciata al Lettore.
Esempio 4.41 Nell’Esercizio 4.11 il sottospazio vettoriale W dei polinomi divisibili per
2 in R3 [x] è un iperpiano vettoriale, la cui equazione lineare omogenea nelle componenti
(a0 , a1 , a2 , a3 ) di un polinomio p(x) = a0 + a1 x + a2 x2 + a3 x3 2 R3 [x] rispetto alla base
B = (1, x, x2 , x3 ) è data da p(2) = a0 + 2a1 + 4a2 + 8a3 = 0.
Esempio 4.42 In Rn,n il sottospazio vettoriale:
W = {A 2 Rn,n | tr(A) = 0},
dove tr(A) indica la traccia della matrice A, è un iperpiano vettoriale di Rn,n .
182 Spazi Vettoriali e Sottospazi Vettoriali

4.4 Esercizi di riepilogo svolti


Esercizio 4.19 In R4 si considerino i vettori:
a1 = (1, 1, 0, 0), a2 = (0, 1, 0, 1), a3 = (1, 3, 0, 2).
Posto E1 = L(a1 ), E2 = L(a2 ), E3 = L(a3 ),
1. determinare i vettori che appartengono a H = E1 + E2 + E3 e verificare che la
somma non è diretta.
2. Dimostrare che v = (2, 5, 0, 3) è un elemento di H e scrivere v in due modi diversi
come combinazione lineare di vettori di E1 , E2 , E3 .

Soluzione 1. H = { 1 a1 + 2 a2 + 3 a3 | 1, 2, 3 2 R}

= {( 1 + 3, 1 + 2 + 3 3 , 0, 2 + 2 3) | 1, 2, 3 2 R}.

L’insieme {a1 , a2 , a3 } non è libero in quanto a3 = a1 + 2a2 . Quindi:


L(a3 ) = L(a1 + 2a2 ) ⇢ L(a1 ) + L(a2 ),
cioè E3 ⇢ E1 + E2 . Il sottospazio vettoriale H non è somma diretta di E1 , E2 , E3 .

2. Per definizione il vettore v appartiene ad H se esistono 1, 2, 3 2 R tali che:


8
< 2= 1+ 3
5= 1+ 2+3 3
:
3 = 2 + 2 3.

Risolvendo il sistema lineare si trova:

1 =2 t, 2 =3 2t, 3 = t, t 2 R.

Ponendo, per esempio, t = 0 si ottiene v = 2a1 + 3a2 , per t = 1 si ha:


v = a1 + a2 + a3 .

Esercizio 4.20 Data la matrice:


✓ ◆
6 9
A= ,
4 6
1. dimostrare che i sottoinsiemi:
F = {X 2 R2,2 | AX = XA}, G = {X 2 R2,2 | AX = XA}

sono sottospazi vettoriali di R2,2 e trovare una base per ciascuno di essi.
Capitolo 4 183

2. Determinare una base per i sottospazi vettoriali F \ G e F + G .

3. Data la matrice: ✓ ◆
0 h 2
C= , h 2 R,
0 h 3

stabilire per quale valore di h la matrice C appartiene al sottospazio vettoriale


F + G . Assegnato ad h tale valore, trovare due matrici C1 2 F e C2 2 G in modo
tale che C = C1 + C2 .

Soluzione 1. Siano X1 , X2 matrici di R2,2, appartenenti a F , allora AX1 = X1 A e


AX2 = X2 A. F è un sottospazio vettoriale di R2,2 se 1 X1 + 2 X2 2 F con
1 , 2 numeri reali qualsiasi, ossia se:

A( 1 X1 + 2 X2 ) = ( 1 X1 + 2 X2 )A.

La verifica è un facile esercizio. In modo analogo si dimostra che G è un sottospa-


zio vettoriale di R2,2 . Per determinare la dimensione e una base sia di F sia di G
è necessario scrivere esplicitamente le equazioni che li definiscono. Ponendo:
✓ ◆
x1 x2
X= ,
x3 x4

la condizione AX = XA equivale al sistema lineare omogeneo:


8
>
> 4x2 + 9x3 = 0
<
9x1 + 12x2 9x4 = 0
>
> 4x1 12x3 4x4 = 0
:
4x2 + 9x3 = 0,

le cui soluzioni sono:


✓ ◆
9
3 1+ 2, 1, 1, 2 , 1, 2 2 R,
4

quindi dim(F) = 2 e una base di F è:


✓✓ ◆✓ ◆◆
12 9 1 0
B= , .
4 0 0 1

Per determinare la dimensione e una base di G si procede allo stesso modo, la


184 Spazi Vettoriali e Sottospazi Vettoriali

condizione AX = XA equivale al sistema lineare omogeneo:


8
>
> 12x1 + 4x2 9x3 = 0
<
9x1 + 9x4 = 0
>
> 4x1 + 4x4 = 0
:
4x2 9x3 12x4 = 0,

le cui soluzioni sono:


✓ ◆
9
1, 3 1 + 2, 2, 1 , 1, 2 2 R,
4

quindi dim(G) = 2 e una base di G è:


✓✓ ◆✓ ◆◆
1 3 0 9
C= , .
0 1 4 0

2. Conviene, in generale, iniziare con il calcolo della somma dei due sottospazi vetto-
riali. Riducendo per righe la matrice quadrata di ordine 4 che si ottiene ponendo in
riga le componenti dei vettori di B e di C si ha che il rango di tale matrice è 3 e che
una base di F + G è:
✓✓ ◆✓ ◆✓ ◆◆
1 0 0 3 0 0
D= , , .
0 1 0 2 4 6

Dalla formula di Grassmann segue che dim(F \ G) = 1. Una generica matrice


appartenente a tale intersezione si deve poter scrivere come:
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
12 9 1 0 1 3 0 9
1 + 2 = µ1 + µ2 (4.11)
4 0 0 1 0 1 4 0

per qualche valore di 1 , 2 , µ1 , µ2 2 R. Il sistema lineare omogeneo che ne


deriva ha infinite soluzioni date da:
✓ ◆
1
1 = µ1 , 2 = µ1 , µ1 2 R.
6

Sostituendo questo risultato a primo membro di (4.11) si ottiene:


✓✓ ◆◆
6 9
F \G =L .
4 6
Capitolo 4 185

3. La matrice C appartiene a F + C se la matrice quadrata di ordine 4 le cui righe


sono date dalle componenti di C e dalle componenti degli elementi della base D
ha determinante uguale a zero, ossia:

1 0 0 1
0 3 0 2
= 0,
0 0 4 6
0 h 2 0 h 3

da cui segue h = 5. La matrice C è dunque:


✓ ◆
0 3
C=
0 2

e si decompone nella somma di infinite coppie di matrici C1 2 F e C2 2 G nel


modo seguente:

C = C1 + C2
 ✓ ◆ ✓ ◆  ✓ ◆ ✓ ◆
12 9 1 0 1 3 0 9
= 1 + 2 + µ1 + µ2 ,
4 0 0 1 0 1 4 0

con 1 , 2 , µ1 , µ2 2 R. Il sistema lineare che segue da tale scrittura ammette infinite


soluzioni che dipendono da un’incognita libera (essendo dim(F \ G) = 1), la
soluzione di questo sistema lineare e la conseguente determinazione di C1 e di C2
sono lasciate per esercizio.

4.5 Per saperne di più


In questo paragrafo sono inseriti alcuni esercizi che possono essere omessi ad una prima
lettura. Si propone anche la dimostrazione di qualche teorema citato nei paragrafi pre-
cedenti. Di grande importanza, invece, la parte finale del paragrafo, che è in generale
oggetto di corsi più avanzati di algebra lineare, dove vengono introdotti alcuni esempi di
spazi vettoriali complessi. Si studia lo spazio vettoriale Cn,n delle matrici quadrate ad
elementi nel campo complesso e si introducono due suoi sottospazi vettoriali reali: quel-
lo delle matrici hermitiane e quello delle matrici anti-hermitiane che sono l’analogo, in
campo complesso, degli spazi vettoriali delle matrici simmetriche e antisimmetriche.

Esercizio 4.21 1. Verificare che il campo dei numeri reali R dotato delle seguenti
operazioni:
186 Spazi Vettoriali e Sottospazi Vettoriali

p
x ⌃ y = 3px3 + y 3 ,
x = 3 x, 2 R, x, y 2 R,

è uno spazio vettoriale di dimensione 1 su R stesso.

2. Verificare se tale proprietà è ancora valida nel caso delle operazioni:


p
x4y = p
3
x3 + y 3 ,
x= x, 2 R, x, y 2 R.

Soluzione 1. Si ottiene facilmente che (R, ⌃) è un gruppo abeliano, con 0 elemento


neutro e x opposto di x 2 R. Anche la verifica delle quattro proprietà del
prodotto per scalari è semplice. Inoltre R = L(1), in quanto ogni x 2 R si può
scrivere come x3 1.

2. La definizione di prodotto per scalari x non verifica, per esempio, la seguente


proprietà:

( + µ) x=( x) 4 (µ x),

infatti: p
( + µ) x= + µ x,
mentre:
p qp
p p
( x) 4 (µ x) = x 4 µ x = 3 ( )3 x3 + ( µ)3 x3
qp
p
= 3 ( )3 + ( µ)3 x.

Esercizio 4.22 Si verifichi che lo spazio vettoriale F(R) delle funzioni reali di variabile
reale descritto nell’Esempio 4.5 non è finitamente generato.

Soluzione Sia S un sottoinsieme finito di R e si indichi con F(S, R) lo spazio vetto-


riale delle funzioni f : S ! R costruito in modo analogo all’Esempio 4.5. Tale spazio
vettoriale è finitamente generato, infatti una sua base è data dall’insieme delle funzioni
caratteristiche di S :
X = { s 2 F(S, R) | s 2 S},
dove: ⇢
1, t = s,
s (t) =
6 s.
0, t =
Capitolo 4 187

X genera F(S, R), infatti per ogni f 2 F(S, R), f = ⌃s2S f (s) s . Si controlla fa-
cilmente che X è un insieme libero. È evidente che con questo tipo di ragionamento si
perviene ad un sistema di generatori di F(R) formato da infiniti elementi.

Esercizio 4.23 Dimostrare il Teorema 4.1 di seguito riportato.

In V, spazio vettoriale reale, si ha:

1. il vettore nullo o è unico;

2. per ogni vettore x 2 V, l’opposto x è unico;

3. se x + y = x + z, allora y = z, per ogni x, y, z 2 V ;

4. x = o () = 0, oppure x = o, con 2R e x2V;

5. ( 1)x = x, per ogni x 2 V.

Soluzione 1. Per assurdo, siano o e o0 due vettori nulli, o 6= o0 . Allora o = o + o0


essendo o0 il vettore nullo, ma anche o + o0 = o0 essendo o il vettore nullo, da
cui la tesi.

2. Per assurdo, siano x1 e x2 due opposti di x, con x1 6= x2 , allora:

(x + x1 ) + x2 = o + x2 = x2 ,

ma anche:

(x + x1 ) + x2 = x + (x1 + x2 ) = x + (x2 + x1 ) = (x + x2 ) + x1 = x1 ,

da cui l’assurdo.

3. Segue in modo evidente dalla proprietà precedente, infatti da x + y = x + z si ha:


x + y x = x + z x da cui la tesi.

4. Si inizia con il dimostrare che 0 x = o e che o = o. Si ha:

0 x = (0 + 0)x = 0 x + 0 x,

applicando la proprietà precedente si ha 0 x = o. Analogamente:

o = (o + o) = o + o,

da cui o = o. Viceversa si dimostra che se x = o, allora, necessariamente = 0


oppure (non esclusivo) x = o. Nel punto precedente è stato provato che 0 x = o,
188 Spazi Vettoriali e Sottospazi Vettoriali

supposto, quindi, 6= 0, si prova che da x = o segue necessariamente x = o. Se


6= 0, allora esiste il suo inverso 1 . Da:
1 1 1
o= o= ( x) = ( )x = 1x

segue la tesi.
5. La tesi consiste nel provare che x + ( 1)x = o, infatti:

1x + ( 1)x = (1 1)x = 0 x = o.

Esercizio 4.24 Dimostrare la Formula di Grassmann 4.18 di seguito riportata.

Siano W1 e W2 sottospazi vettoriali di uno spazio vettoriale reale V, allora:

dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 \ W2 ).

Soluzione Siano dim(V ) = n, dim(W1 ) = l, dim(W2 ) = p, con l, p  n. Si ponga


dim(W1 \ W2 ) = k , dove k  l, p. Si lasciano per esercizio i casi particolari k = l e
k = p e si tratta solo il caso di k < l e k < p. Sia B = (a1 , a2 , . . . , ak ) una base di
W1 \ W2 . B è, quindi, un insieme libero sia in W1 sia in W2 . Dal Teorema 4.15 segue
che si possono costruire una base:

C = (a1 , . . . , ak , bk+1 , . . . , bl )

di W1 e una base:
D = (a1 , . . . , ak , ck+1 , . . . , cp )
di W2 . La tesi consiste, allora, nel dimostrare che:

E = (a1 , . . . , ak , bk+1 , . . . , bl , ck+1 , . . . , cp )

è una base di W1 + W2 . Per costruzione E è un sistema di generatori di W1 + W2 . Si


deve quindi provare che E è libero. A tale scopo si consideri la combinazione lineare a
coefficienti reali:

↵1 a1 + . . . + ↵k ak + k+1 bk+1 + ... + l bl + k+1 ck+1 + ... + p cp = o, (4.12)

con ↵1 , . . . , ↵k , k+1 , . . . , l, k+1 , . . . , p 2 R. Sia:

c= k+1 ck+1 ... p cp . (4.13)

Per definizione c 2 W2 , da (4.12) segue che c = ↵1 a1 +. . .+↵k ak + k+1 bk+1 +. . .+ l bl ,


quindi c 2 W1 , pertanto c 2 W1 \ W2 . Allora esistono opportuni coefficienti reali
i , i = 1, 2, . . . , k, tali che c = 1 a1 + . . . + k ak . Da (4.13) si ottiene:
Capitolo 4 189

1 a1 + ... + k ak + k+1 ck+1 + ... + p cp = o, (4.14)


ma i vettori che compaiono in (4.14) sono i vettori della base D, pertanto sono linearmente
indipendenti, da cui segue, tra l’altro, che k+1 = . . . = p = 0. Sostituendo in (4.12) e
ricordando che la combinazione lineare rimasta è formata dai vettori della base C, si ha
la tesi.

Esercizio 4.25 Dimostrare il Lemma di Steinitz 4.12 di seguito riportato.

Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V e sia I = {u1 , u2 , . . . , up }


un insieme libero di V, allora p  n.

Soluzione Siano ( 1 , 2 , . . . , n ) le componenti di u1 rispetto alla base B. Poiché I è


un insieme libero, u1 6= o, pertanto almeno una componente tra i , i = 1, 2, . . . , n, non
è nulla; si supponga che sia 1 6= 0 (in caso contrario si riordinano i vettori di B in modo
da porre al primo posto un coefficiente non nullo). Dalla relazione:

u1 = 1 v1 + 2 v2 + ... + n vn (4.15)
si ricava:
1 1 1
v1 = 1 u1 1 2 v2 ... 1 n vn .

In altri termini v1 2 L(u1 ,v2, . . . ,vn ). Si vuole dimostrare che l’insieme {u1 ,v2 ,. . . ,vn }
è una base di V. Si inizia con il provare che si tratta di un sistema di generatori di V. Da
(4.15) segue che, per ogni x 2 V, si ha:

x = x1 v1 + x2 v2 + . . . + xn vn
= x1 ( 1 1 u1 1
1
2 v2 ... 1
1
n vn ) + x2 v2 + . . . + xn vn
= µ1 u1 + µ2 v2 + . . . + µn vn
da cui la tesi. L’insieme {v2 , v3 , . . . , vn } è libero essendo un sottoinsieme non vuoto
di B (cfr. Es. 4.33). Il vettore u1 non appartiene a L(v2 , v3 , . . . , vn ), quindi l’insieme
{u1 , v2 , . . . , vn } è libero (cfr. Lemma 4.1). Si osservi che, a questo punto, partendo dalla
base B, si è ottenuta una nuova base B1 = (u1 , v2 , . . . , vn ) in cui si è sostituito al primo
vettore di B il primo vettore di I . Si itera questo procedimento, passando a considerare
il vettore u2 e lo si esprime come combinazione lineare dei vettori di B1 . Si ha:

u2 = 1 u1 + 2 v2 + ... + n vn .

Di nuovo, essendo u2 non nullo, esiste almeno una sua componente tra i , i = 1, 2, . . . , n,
non nulla. Non può succedere che sia 1 6= 0 e gli altri i = 0, i = 2, . . . , n, perché i
190 Spazi Vettoriali e Sottospazi Vettoriali

vettori u1 , u2 sono linearmente indipendenti, pertanto si può supporre 2 6= 0. Si ricava


v2 in funzione dei vettori rimanenti e si dimostra che B2 = (u1 , u2 , v3 , . . . , vn ) è una
base di V in modo analogo al caso precedente. Si procede di nuovo con un terzo vettore
di I, questo tipo di ragionamento è autorizzato dal fatto che B e I sono insiemi finiti. Il
procedimento descritto si può arrestare solo per due motivi:

a. si sono esauriti tutti i vettori di I e pertanto sono stati inseriti i vettori di I all’in-
terno di B, da cui segue la tesi;

b. si sono esauriti prima i vettori di B e rimangono ancora dei vettori in I , segue che
I contiene una base di V che è assurdo, essendo I libero.

4.5.1 Equazioni vettoriali e Teorema del Rango


Definizione 4.18 Dati i vettori a1 , a2 , . . . , am , b di uno spazio vettoriale reale V, la
relazione:
x1 a1 + x2 a2 + . . . + xm am = b (4.16)
è un’equazione vettoriale nell’incognita (x1 , x2 , . . . , xm ) 2 Rm .

Definizione 4.19 Una soluzione dell’equazione vettoriale (4.16) è una m–upla:

(x01 , x02 , . . . , x0m ) 2 Rm

che sostituita in (4.16) la verifica.

Esempio 4.43 Nei capitoli precedenti si sono incontrate più volte equazioni vettoriali,
per esempio la definizione di vettori linearmente indipendenti fa uso di un’equazione
vettoriale di cui si chiede che ammetta solo la soluzione nulla.

L’esempio precedente impone la seguente definizione.

Definizione 4.20 L’equazione vettoriale (4.16) si dice omogenea se b = o e o è il vettore


nullo di V.

Osservazione 4.32 È chiaro che un’equazione vettoriale omogenea ammette la soluzione


nulla (0, 0, . . . , 0) 2 Rm . L’equazione vettoriale (4.16) ammette solo la soluzione nulla se
e solo se i vettori a1 , a2 , . . . , am sono linearmente indipendenti, ovviamente supponendo
a priori che siano tutti diversi dal vettore nullo.

Il teorema che segue determina le condizioni affinché un’equazione vettoriale ammetta


soluzioni e propone anche il metodo per determinarle.
Capitolo 4 191

Teorema 4.26 – Teorema di Rouché–Capelli – L’equazione vettoriale (4.16) ammette


soluzioni se e solo se:

dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)).

Dimostrazione Innanzi tutto si osservi che L(a1 , a2 , . . . , am ) ✓ L(a1 , a2 , . . . , am , b)


e, se dim(L(a1 , a2 , . . . , am )) = k, allora k  dim(L(a1 , a2 , . . . , am , b))  k + 1. Si
supponga che l’equazione (4.16) ammetta soluzioni, si deve dimostrare che:

L(a1 , a2 , . . . , am , b) ✓ L(a1 , a2 , . . . , am ).
Per ipotesi esiste una m–upla di numeri reali (x01 , x02 , . . . , x0m ) tale che:

x01 a1 + x02 a2 + . . . x0m am = b,

da cui segue la tesi, (cfr. Teor. 4.8).


Viceversa, si supponga che dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)). Con-
viene distinguere due casi e analizzarli separatamente:

a. dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = m;

b. dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = k < m.

a. Se dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = m, i vettori a1 , a2 , . . . ,


am costituiscono una base sia di L(a1 , a2 , . . . , am ) sia di L(a1 , a2 , . . . , am , b), al-
lora il vettore b si esprime, in modo unico, come combinazione lineare dei vettori
a1 , a2 , . . . , am e, quindi, l’equazione (4.16) ammette una sola soluzione data dalle
componenti di b rispetto alla base (a1 , a2 , . . . , am ).

b. Dal Teorema 4.11 segue che esistono k vettori tra a1 , a2 , . . . , am che formano una
base di L(a1 , a2 , . . . , am ). Si supponga che siano i primi k (in caso contrario si rior-
dinano i vettori in modo da ottenere questo risultato), quindi L(a1 , a2 , . . . , ak ) =
L(a1 , a2 , . . . , am ), ma per ipotesi si ha anche che:

L(a1 , a2 , . . . , ak ) = L(a1 , a2 , . . . , am , b).

Segue che esistono k scalari x01 , x02 , . . . , x0k tali che:

b = x01 a1 + x02 a2 + . . . + x0k ak .

Il teorema è dimostrato perché la m–upla (x01 , x02 , . . . , x0k , 0, . . . , 0) 2 Rm è una


soluzione dell’equazione vettoriale (4.16). In questo caso, esistono infinite solu-
zioni che dipendono da m k incognite libere, infatti scelti ad arbitrio gli scalari
192 Spazi Vettoriali e Sottospazi Vettoriali

µk+1 , . . . , µm , il vettore b µk+1 ak+1 . . . µm am appartiene a L(a1 , a2 , . . . , ak )


pertanto:

b = x01 a1 + x02 a2 + . . . + x0k ak + µk+1 ak+1 + . . . + µm am

da cui segue la tesi.

Osservazione 4.33 Il Lettore verifichi per esercizio (usando la definizione di rango di una
matrice) che il Teorema di Rouché–Capelli appena dimostrato coincide con il Teorema di
Rouché–Capelli 1.2 enunciato nel Paragrafo 1.2.

Esercizio 4.26 Dimostrare il Teorema del rango 4.19, di seguito riportato.

Per ogni matrice A 2 Rm,n si ha:

dim(R(A)) = dim(C(A)).

Soluzione Sia:
0 1
a11 a12 . . . a1n
B a21 a22 . . . a2n C
B C
A=B .. .. .. .. C 2 Rm,n .
@ . . . . A
am1 am2 . . . amn
R(A) = L(R1 , R2 , . . . , Rm ) ✓ Rn è lo spazio vettoriale delle righe di A, dove:

R1 = (a11 , a12 , . . . , a1n )


R2 = (a21 , a22 , . . . , a2n )
..
.
Rm = (am1 , am2 , . . . , amn ).

C(A) = L(C1 , C2 , . . . , Cn ) ✓ Rm è lo spazio vettoriale delle colonne di A, dove:

C1 = (a11 , a21 , . . . , am1 )


C2 = (a12 , a22 , . . . , am2 )
..
.
Cn = (a1n , a2n , . . . , amn ).

Siano k = dim(C(A)) e h = dim(R(A)). La tesi si ottiene dimostrando che k  h,


infatti, per la disuguaglianza opposta è sufficiente considerare tA, per cui si ha R(A) =
C( tA) e C(A) = R( tA), applicando il fatto che k  h a tA segue h  k .
Capitolo 4 193

Si consideri il sistema lineare omogeneo AX = O avente A come matrice dei coefficien-


ti, O 2 Rm,1 matrice nulla dei termini noti e
0 1
x1
B x2 C
B C
X = B .. C 2 Rn,1
@ . A
xn
matrice delle incognite. Dalla sua scrittura esplicita:
8
>
> a11 x1 + a12 x2 + . . . + a1n xn = 0
>
< a21 x1 + a22 x2 + . . . + a2n xn = 0
.. (4.17)
>
> .
>
: a x + a x + ... + a x = 0
m1 1 m2 2 mn n

si deduce che esso è equivalente all’equazione vettoriale:

x1 C1 + x2 C2 + . . . + xn Cn = o,
(o 2 Rm ) le cui soluzioni dipendono da k vettori di C(A) linearmente indipendenti, dove
k = dim(C(A)), (cfr. Teor. 4.26). Essendo h = dim(R(A)), si supponga che le prime
h righe di A siano linearmente indipendenti, questa non è un’ipotesi restrittiva perché
in caso contrario si può effettuare un cambiamento dell’ordine in cui sono considerate le
righe. Si supponga, quindi, che l’insieme {R1 , R2 , . . . , Rh } sia libero. Dalla Definizione
1.6 e dal Teorema 1.1 segue che il sistema lineare (4.17) è equivalente al sistema lineare
omogeneo: 8
>
> a11 x1 + a12 x2 + . . . + a1n xn = 0
>
< a21 x1 + a22 x2 + . . . + a2n xn = 0
.. (4.18)
>
> .
>
: a x + a x + ... + a x = 0
h1 1 h2 2 hn n

che è, a sua volta, equivalente all’equazione vettoriale:

x1 a1 + x2 a2 + . . . + xn an = o,

dove:

a1 = (a11 , a21 , . . . , ah1 )


a2 = (a12 , a22 , . . . , ah2 )
..
.
an = (a1n , a2n , . . . , ahn ).
194 Spazi Vettoriali e Sottospazi Vettoriali

Dal fatto che i sistemi lineari (4.17) e (4.18) sono equivalenti segue:

dim(L(a1 , a2 , . . . , an )) = dim(C(A)) = k

ma L(a1 , a2 , . . . , an ) ✓ Rh , da cui la tesi.

Esercizio 4.27 Dimostrare il Teorema 2.4, di seguito riportato.

Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:

rank(A1 A2 · · · An )  min{rank(A1 ), rank(A2 ), . . . , rank(An )}.

Soluzione Si inizia con il dimostrare il teorema nel caso n = 2. È un esercizio osser-


vare che le colonne della matrice prodotto A1 A2 sono combinazione lineare delle colonne
della matrice A1 e che le righe della matrice prodotto A1 A2 sono combinazione lineare
delle righe della matrice A2 . Per semplicità e per capire meglio quanto appena osservato
si considera il caso del prodotto di due matrici quadrate di ordine 2:
✓ ◆✓ ◆
a1 a2 b1 b2
A1 A2 =
a3 a4 b3 b4

✓ ◆
a1 b 1 + a2 b 3 a1 b 2 + a2 b 4
=
a3 b 1 + a4 b 3 a3 b 2 + a4 b 4

✓ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ◆
a1 a2 a1 a2
= b1 + b3 b2 + b4
a3 a4 a3 a4

0 1
a1 b1 b2 + a2 b3 b4
= @ A.
a3 b1 b2 + a4 b3 b4
Di conseguenza si ha:

C(A1 A2 ) ✓ C(A1 ), R(A1 A2 ) ✓ R(A2 )

e, quindi:
rank(A1 A2 )  rank(A1 ), rank(A1 A2 )  rank(A2 )
da cui la tesi. Il caso del prodotto di n matrici si ottiene iterando il risultato appena
ottenuto.
Capitolo 4 195

Esercizio 4.28 Discutere, al variare di h 2 R, le soluzioni della seguente equazione


vettoriale di R4 :
x1 a1 + x2 a2 + x3 a3 = b,
dove:

a1 = (2, 1, 0, 4), a2 = ( 3, 2, 4, h), a3 = (5, 3, h, 1), b = (14, 8, h, 1).

Soluzione È sufficiente trasformare l’equazione vettoriale assegnata nel sistema linea-


re ad essa equivalente e risolvere quest’ultimo applicando i metodi descritti nel Capitolo
1. Si ha:

se h 2
/ { 2, 14} non esistono soluzioni;
✓ ◆
8 + 3h h 8+h
se h = 2 o h = 14, la soluzione è x1 = , x2 = , x3 = .
4+h 4+h 4+h

Se si vuole, invece usare il Teorema 4.26 si può procedere confrontando L(a1 , a2 , a3 ) e


L(a1 , a2 , a3 , b). Per L(a1 , a2 , a3 ) si ha:
0 1 0 1
2 1 0 4 ! 2 1 0 4
@ 3 2 4 h A R2 ! 2R2 + 3R1 @ 0 1 8 12 + 2h A
5 3 h 1 R3 ! 2R3 5R1 0 1 2h 22
0 1
2 1 0 4
! @ 0 1 8 12 + 2h A.
R3 ! R3 + R2
0 0 8 + 2h 10 + 2h

Quindi dim (L(a1 , a2 , a3 )) = 3 per ogni valore di h. Per L(a1 , a2 , a3 , b) si ha:

2 1 0 4
3 2 4 h
= h2 12h 28,
5 3 h 1
14 8 h 1

per cui dim (L(a1 , a2 , a3 , b)) = 3 se e solo se h = 2 o h = 14. Pertanto l’equazione


vettoriale è compatibile solo se h = 2 o h = 14. Sostituendo tali valori nei vettori dati
si ottengono le soluzioni cercate.

4.5.2 Equivalenza tra due definizioni di rango di una matrice


In questo paragrafo si intende dimostrare l’equivalenza tra la definizione di rango di una
matrice (cfr. Def. 4.15) inteso come dimensione dello spazio vettoriale delle righe o delle
196 Spazi Vettoriali e Sottospazi Vettoriali

colonne della matrice e la definizione di rango di una matrice (cfr. Def. 2.13) data tramite
l’uso dei minori. A questo proposito si ricordano i fatti seguenti.

Sia A una matrice quadrata di ordine n. Come conseguenza della Definizione 4.15 di
rango di A come la dimensione dello spazio vettoriale delle righe R(A) (o dello spazio
vettoriale delle colonne C(A)) e del Teorema di Nullità più Rango (cfr. Teor. 4.24) si ha
l’equivalenza tra le seguenti condizioni:

a. rank(A) < n;

b. i vettori riga di A sono linearmente dipendenti;

c. i vettori colonna di A sono linearmente dipendenti;

d. il sistema lineare omogeneo AX = O ha soluzioni non nulle;

e. det(A) = 0.

In generale nel caso di una matrice A 2 Rm,n , non necessariamente quadrata, si può
provare il seguente teorema.

Teorema 4.27 Sia A 2 Rm,n , le condizioni seguenti sono equivalenti:

1. rank(A) = r;

2. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine


r + 1 sono uguali a zero;

3. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine


p > r sono nulli.

Dimostrazione Per dimostrare l’equivalenza delle tre affermazioni si proveranno le


seguenti implicazioni:

1. =) 2. =) 3. =) 1.

Innanzitutto, si osservi che se la matrice A ha un minore non nullo di ordine k allora


le k righe corrispondenti a quelle del minore non nullo sono linearmente indipendenti.
Per dimostrare l’implicazione 1. =) 2. si supponga quindi che rank(A) = r. Sia B la
sottomatrice quadrata di A ottenuta intersecando r righe linearmente indipendenti di A
con r colonne linearmente indipendenti di A. Allora si ha rank(B) = dim(R(B)) = r
e pertanto det(B) 6= 0, ovvero la matrice A ha un minore non nullo di ordine r. D’altra
parte ogni minore di A di ordine r + 1 ha i vettori riga linearmente dipendenti e quindi
Capitolo 4 197

è nullo per l’equivalenza tra le condizioni b. ed e. prima elencate. Infatti, se esistesse un


minore di ordine r + 1 diverso da zero, allora la matrice A avrebbe rango r + 1, in quanto
avrebbe r + 1 righe linearmente indipendenti.
L’implicazione 2. =) 3. è una semplice conseguenza del Primo Teorema di Laplace (cfr.
Teor. 2.17).
Per dimostrare l’implicazione 3. =) 1. si supponga quindi che A abbia un minore
non nullo di ordine r e che tutti i minori di ordine p > r siano nulli. Le righe corri-
spondenti ad un minore non nullo di A sono pertanto linearmente indipendenti e quindi
dim(R(A)) r, ovvero rank(A) r. Se fosse rank(A) > r si avrebbe una riga linear-
mente indipendente con le righe di A corrispondenti a quelle del minore non nullo, allora
si avrebbe una sottomatrice C 2 Rr+1,n di rango r + 1. Per l’implicazione 1. =) 2. si
potrebbe allora estrarre dalla sottomatrice C (e quindi dalla matrice A) un minore non
nullo di ordine p > r, ma questo sarebbe assurdo.

L’equivalenza tra le due definizioni di rango (cfr. Def. 4.15 e Def. 2.13) è quindi una
semplice conseguenza del teorema precedente.

4.5.3 Spazi vettoriali complessi,


matrici hermitiane e anti-hermitiane
Come già visto nell’Osservazione 4.1, si può definire uno spazio vettoriale complesso,
ossia uno spazio vettoriale su C. Analogamente al caso degli spazi vettoriali reali anche
nel caso degli spazi vettoriali complessi si possono introdurre i concetti di sottospazio
vettoriale, somma e intersezione di sottospazi vettoriali, generatori, vettori linearmente
dipendenti e indipendenti, basi e dimensione.
L’insieme dei numeri complessi C, con le usuali operazioni di somma e prodotto di nu-
meri complessi, è l’esempio più semplice di spazio vettoriale complesso, ma C può essere
anche visto come spazio vettoriale reale. Come spazio vettoriale complesso C ha dimen-
sione 1 ed una sua base è ad esempio (1), mentre come spazio vettoriale reale C ha
dimensione 2 ed una sua base è ad esempio (1, i) (cfr. Es. 4.24).

Analogamente al caso reale, si hanno i due esempi fondamentali seguenti di spazi vetto-
riali complessi (cfr. Es. 4.3 e 4.2).

Esempio 4.44 L’insieme:


Cn = {(x1 , x2 , . . . , xn ) | xj 2 C, j = 1, 2, . . . , n}
è uno spazio vettoriale complesso. La somma di due n-uple di Cn è definita come:
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).
198 Spazi Vettoriali e Sottospazi Vettoriali

Il vettore nullo di Cn è la n-upla (0, 0,. . ., 0) e l’opposto del vettore (x1 , x2 ,. . ., xn ) è il


vettore ( x1 , x2 ,. . ., xn ). Il prodotto di un numero complesso per un elemento di
Cn è definito da:
(x1 , x2 , . . . , xn ) = ( x1 , x2 , . . . , xn ).
Cn , come spazio vettoriale complesso, ha dimensione n e gli n vettori:

e1 = (1, 0, . . . , , 0), e2 = (0, 1, 0, . . . , 0), ..., en = (0, 0, . . . , 1)

formano una base, detta base canonica o standard di Cn .

Esempio 4.45 Più in generale, se si indica con Cm,n l’insieme delle matrici con m righe
e n colonne ad elementi in C e si introducono le operazioni di somma di due matrici e di
prodotto di un numero complesso per una matrice come nel caso reale, è facile verificare
che Cm,n è uno spazio vettoriale complesso. Il vettore nullo di Cm,n è la matrice nulla.
Lo spazio vettoriale Cm,n , come spazio vettoriale complesso, ha dimensione mn ed una
sua base è data dalle mn matrici Eij aventi tutti gli elementi uguali a zero ad eccezione
di quello di posto ij che vale 1. Tale base è chiamata base canonica di Cm,n .

Esercizio 4.29 Determinare una base e la dimensione di Cm,n , pensato come spazio
vettoriale reale.

Soluzione Ogni matrice Z = (zhk ) ad elementi complessi si può scrivere come somma
di due matrici reali A = (ahk ) e B = (bhk ) dello stesso ordine:

Z = A + iB

ottenute, in modo naturale, dalla scrittura di ogni elemento Z come zhk = ahk + ibhk .
È evidente, quindi, che, come spazio vettoriale su R, dim(Cm,n ) = 2mn. Si lascia per
esercizio la determinazione di una sua base.

Se A 2 Cm,n , si indichi con A la matrice coniugata di A, ossia la matrice che ha come


elementi i coniugati degli elementi di A. Se A 2 Rm,n , cioè se A è reale, ovviamen-
te A = A. Per la coniugata di una matrice valgono ovvie proprietà che sono facile
conseguenza dell’operazione di coniugio sui numeri complessi, e precisamente:

1. A + B = A + B, A, B 2 Cm,n ;

2. A= A, 2 C, A 2 Cm,n ;

3. AB = A B, A 2 Cm,n , B 2 Cn,k ;

4. t
A = tA, A 2 Cm,n ;
Capitolo 4 199

5. det(A) = det(A), A 2 Cn,n .

Si introducono ora due sottoinsiemi dello spazio vettoriale delle matrici quadrate com-
plesse Cn,n , che sono l’analogo, nel caso di Rn,n , del sottospazio vettoriale delle matrici
simmetriche S(Rn,n ) e di quello delle matrici antisimmetriche A(Rn,n ) (cfr. Es. 4.15 e
4.16). Precisamente, si definiscono l’insieme delle matrici hermitiane:

H(Cn,n ) = {A 2 Cn,n | tA = A}

e l’insieme delle matrici anti-hermitiane:

AH(Cn,n ) = {A 2 Cn,n | tA = A}.


Chiaramente una matrice reale simmetrica A 2 S(Rn,n ) è hermitiana ed una matrice reale
antisimmetrica A 2 A(Rn,n ) è anti-hermitiana.
Ad esempio la matrice: ✓ ◆
2 1+i
1 i 3
è hermitiana. Si osservi che gli elementi sulla sua diagonale principale sono reali. Questa
proprietà non è casuale, infatti gli elementi sulla diagonale principale di una matrice her-
mitiana A sono necessariamente reali, in quanto devono coincidere, per definizione, con i
proprii coniugati. Si può verificare che la somma di due matrici hermitiane è hermitiana e
l’inversa di una matrice hermitiana invertibile è hermitiana. Analoghe proprietà valgono
per le matrici anti-hermitane. Come per le matrici reali simmetriche, la matrice prodotto
AB di due matrici hermitiane A e B è hermitiana solo se A e B commutano, cioè se e
solo se AB = BA.

Esercizio 4.30 Si verifichi che l’insieme delle matrici hermitiane H(Cn,n ), con le opera-
zioni di somma e prodotto per un numero reale, è uno spazio vettoriale su R di dimensione
n2 . Inoltre, si provi invece che H(Cn,n ), con le operazioni di somma e prodotto per un
numero complesso, non è un sottospazio vettoriale complesso di Cn,n .

Soluzione Siano A e B due matrici hermitiane, ossia tA = A e tB = B, si tratta di


dimostrare che la matrice A + B è hermitiana, infatti:
t
(A + B) = tA + tB = A + B = (A + B).

Sia 2 R, si deve dimostrare che A è una matrice hermitiana se A 2 H(Cn,n ), infatti:


t t
( A) = A = A = ( A),

in quanto = .
200 Spazi Vettoriali e Sottospazi Vettoriali

È evidente che questa proprietà è falsa se 2 C, quindi H(Cn,n ) è uno spazio vet-
toriale reale ed è un sottospazio vettoriale reale di Cn,n , inteso come spazio vettoriale
reale, ma non è un sottospazio vettoriale complesso di Cn,n inteso come spazio vettoriale
complesso.

Come già accennato in precedenza, una matrice hermitiana A è del tipo:


0 1
a11 a12 + ib12 . . . a1n + ib1n
B C
B C
B a12 ib12 a . . . a + ib C
B 22 2n 2n C
B C
A=B C,
B .. .. . . .. C
B . . . . C
B C
@ A
a1n ib1n a2n ib2n . . . ann
dove ahk , bhk , h, k = 1, 2, . . . , n sono numeri reali. È quindi un esercizio dimostrare che
una base di H(Cn,n ) è:
00 10 1 0 1
1 0 ... ... 0 0 1 ... ... 0 0 0 ... ... 1
BB 0 0 ... ... 0 CB 1 0 ... ... 0 C B 0 0 ... ... 0 C
BB CB C B C
BB .... . . .. CB .... . . .. C B .... . . .. C
BB . . . . C, B . . . . C, . . . , B . . . . C,
BB .... .. .. CB .... .. .. C B .... .. .. C
@@ . . . . A@ . . . . A @ . . . . A
0 0 ... ... 0 0 0 ... ... 0 1 0 ... ... 0
0 1 0 1 0 1
0 0 ... ... 0 0 ... ... 0 0 0 ... ... 0 0
B 0 1 ... ... 0 C B .. . . .. C B.. .. . . .. C ..
B C B . . . C B . . . . C .
B .... . . .. C B .. .. .. C B .. .. .. .. C ..
B . . . . C,...,B . . . C,B . . . . C, .
B .... .. .. C B C B C
@ . . . . A @ 0 ... ... 0 1 A @ 0 ... ... 0 0 A
0 0 ... ... 0 0 ... ... 1 0 0 ... ... 0 1
0 1 0 1 0 11
0 i ... ... 0 0 0 ... ... i 0 ... ... 0 0
B i 0 ... ... 0 C B 0 0 ... ... 0 C B .. . . .. ..
CC
B C B C B . . . CC.
B .. .. . . .. C B .. .. . . .. C B .. .. .. CC..
B . . . . C, . . . , B . . . . C, . . . , B . . . CC..
B .. .. .. .. C B .. .. .. .. C B CC
@ . . . . A @ . . . . A @ 0 ... ... 0 i AA
0 0 ... ... 0 i 0 ... ... 0 0 ... ... i 0

Da questo segue che:


n(n + 1) n(n 1)
dim(H(Cn,n )) = + = n2 .
2 2
Capitolo 4 201

Esercizio 4.31 Si verifichi che l’insieme delle matrici anti-hermitiane AH(Cn,n ), con le
operazioni di somma e prodotto per un numero reale, è uno spazio vettoriale su R di
dimensione n2 . Inoltre, si provi invece che AH(Cn,n ), con le operazioni di somma e
prodotto per un numero complesso, non è un sottospazio vettoriale complesso di Cn,n ..

Soluzione In modo analogo all’esercizio precedente si dimostra che AH(Cn,n ) è un


sottospazio vettoriale reale di Cn,n ma non è un sottospazio vettoriale complesso.

È facile verificare, a partire dalla definizione, che una matrice anti-hermitiana A è del
tipo:
0 1
ib11 a12 + ib12 . . . a1n + ib1n
B C
B C
B a12 + ib12 ib22 . . . a2n + ib2n C
B C
B C
A=B C,
B .. .. . . .. C
B . . . . C
B C
@ A
a1n + ib1n a2n + ib2n . . . ibnn

dove ahk , bhk , h, k = 1, 2, . . . , n sono numeri reali. È quindi un esercizio dimostrare che
una base di AH(Cn,n ) è:
0 0 1 0 10 1
0 1 ... ... 0 0 0 ... ... 1 0 ... ... 0 0
B B 1 0 ... ... 0 C B 0 0 ... ... 0 CB .. . . .. C..
B B C B CB . . . C .
B B .. .. . . .. C B .. .. . . .. CB .. .. .. C ..
B B . . . . C ,...,B . . . . C, B . . . C .
B B .. .. .. .. C B .. .. .. .. CB C
@ @ . . . . A @ . . . . A@ 0 ... ... 0 1 A
0 0 ... ... 0 1 0 ... ... 0 0 ... ... 1 0
0 1 0 10 1
i 0 ... ... 0 0 0 ... ... 0 0 ... ... 0 0
B 0 0 ... ... 0 C B 0 i ... ... 0 CB .. . . .. C ..
B C B CB . . . C .
B .... . . .. C B .... . . .. CB .. .. .. C ..
B . . . . C, . . . B . . . . C, B . . . C, .
B .... .. .. C B .... .. .. CB C
@ . . . . A @ . . . . A@ 0 ... ... 0 0 A
0 0 ... ... 0 0 0 ... ... 0 0 ... ... 0 i
0 1 0 1 0 11
0 i ... ... 0 0 0 ... ... i 0 ... ... 0 0
B i 0 ... ... 0 C B 0 0 ... ... 0 C B .. . . .. CC..
B C B C B . . . CC .
B .... . . .. C B .. .. . . .. C B .. .. .. CC ..
B . . . . C, . . . , B . . . . C, . . . , B . . . CC. .
B .... .. .. C B .. .. .. .. C B CC
@ . . . . A @ . . . . A @ 0 ... ... 0 i AA
0 0 ... ... 0 i 0 ... ... 0 0 ... ... i 0
202 Spazi Vettoriali e Sottospazi Vettoriali

Da questo segue che dim(AH(Cn,n )) = n2 . Si osservi, inoltre, che una matrice A 2 Cn,n
è hermitiana se e solo se iA è anti-hermitiana.

È valido, in campo complesso, il seguente teorema, analogo al Teorema 4.5 dimostrato


nel caso delle matrici quadrate ad elementi reali.

Teorema 4.28 Lo spazio vettoriale reale Cn,n si decompone nel modo seguente:

Cn,n = H(Cn,n ) AH(Cn,n ).

Dimostrazione Si procede come nella dimostrazione del Teorema 4.5, tenendo conto
che ogni matrice A 2 Cn,n si decompone come:
1 1
A = (A + tA) + (A tA)
2 2
e che (A + tA) 2 H(Cn,n ) e (A tA) 2 AH(Cn,n ).Inoltre, è facile dimostrare,

procedendo per assurdo, che H(Cn,n )\AH(Cn,n ) = {O} con O matrice nulla di Cn,n .

Osservazione 4.34 In letteratura è spesso usata la notazione:

A⇤ = tA,

pertanto una matrice A è hermitiana se e solo se A = A⇤ ed è anti-hermitiana se e solo


se A = A⇤ . Per maggiori proprietà ed esempi si veda per esempio [15].
Capitolo 5

Spazi Vettoriali Euclidei

Lo scopo di questo capitolo è quello di estendere il concetto di prodotto scalare, definito


nel Paragrafo 3.7.1 nel caso dello spazio vettoriale V3 , agli spazi vettoriali di dimensione
superiore a tre e, quindi, di introdurre le nozioni di perpendicolarità e di angolo in genera-
le, permettendo, di conseguenza, lo studio della geometria euclidea negli spazi vettoriali
di dimensione qualsiasi.

5.1 Definizione di prodotto scalare


Definizione 5.1 Sia V uno spazio vettoriale reale. Si definisce prodotto scalare su V la
funzione:

·:V ⇥V ! R, (x, y) 7 ! x · y
per cui valgano le seguenti proprietà:

1. x · y = y · x, x, y 2 V ;
2. (x + x0 ) · y = x · y + x0 · y, x, x0 , y 2 V ;
3. ( x) · y = (x · y) = x · ( y), 2 R, x, y 2 V ;
4. x · x 0, x 2 V e x · x = 0 () x = o.

Uno spazio vettoriale reale V su cui è definito un prodotto scalare “·” prende il nome di
spazio vettoriale euclideo e si indica, in generale, con la scrittura (V, · ).

Esempio 5.1 Il prodotto scalare x · y = kxkkyk cos(xy) c definito nel Paragrafo 3.7.1
conferisce a V3 la struttura di spazio vettoriale euclideo.

203
204 Spazi Vettoriali Euclidei

Esempio 5.2 Su Rn si definisce un prodotto scalare “naturale” che ricalca il calcolo


in componenti (rispetto ad una base ortonormale) del prodotto scalare standard su V3 ,
ricordato nell’esempio precedente. Precisamente si pone:
n
X
(x1 , x2 , . . . , xn ) · (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + . . . + xn yn = xi yi , (5.1)
i=1

per ogni (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) 2 Rn . Si lascia per esercizio la verifica delle


quattro proprietà di definizione di prodotto scalare. Con la notazione matriciale:
0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X = B .. C, Y = B .. C
@ . A @ . A
xn yn
la (5.1) si scrive come:

X · Y = t X Y. (5.2)
Il prodotto scalare (5.2) prende il nome di prodotto scalare standard su Rn , che viene
cosı̀ dotato della struttura di spazio vettoriale euclideo.

Esempio 5.3 Si consideri la funzione:


• : R3 ⇥ R3 ! R,

cosı̀ definita:
(x1 , x2 , x3 ) • (y1 , y2 , y3 ) = 3x1 y1 + 4x2 y2 + 5x3 y3 .
Si verifica facilmente che “•” è un altro prodotto scalare su R3 , chiaramente diverso dal
prodotto scalare standard.

L’esempio appena incontrato permette di affermare che, almeno su Rn , è possibile defi-


nire infiniti prodotti scalari, quindi infinite strutture euclidee.

Esempio 5.4 Si consideri la funzione:


⇤ : R3 ⇥ R3 ! R,

cosı̀ definita:
(x1 , x2 , x3 ) ⇤ (y1 , y2 , y3 ) = x1 y1 + x2 y2 x3 y3 .
Si osserva che “⇤” non è un prodotto scalare su R3 , per esempio (0, 0, 1)⇤(0, 0, 1) = 1
che contraddice il quarto assioma di definizione di prodotto scalare.
Capitolo 5 205

Esempio 5.5 Si consideri la funzione:

? : R3 ⇥ R3 ! R,

cosı̀ definita:
(x1 , x2 , x3 ) ? (y1 , y2 , y3 ) = x1 y1 + x2 y2 .
Anche “?” non è un prodotto scalare su R3 , per esempio (0, 0, 1) ? (0, 0, 1) = 0 che
contraddice il quarto assioma di definizione di prodotto scalare.

Il teorema seguente dimostra che uno spazio vettoriale reale, di dimensione finita, ammet-
te almeno un prodotto scalare.

Teorema 5.1 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Esiste un prodotto scalare su V tale che:

x · y = tX Y, x, y 2 V, (5.3)
dove:
0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X=B .. C, Y =B .. C
@ . A @ . A
xn yn
e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti, rispettivamente di x e y, rispetto
alla base B.

La dimostrazione è lasciata al Lettore per esercizio.

Dal teorema precedente segue che ogni spazio vettoriale reale è uno spazio vettoriale
euclideo e poiché esistono infinite basi su uno spazio vettoriale, esistono anche infiniti
prodotti scalari sullo stesso spazio vettoriale.

Esercizio 5.1 Verificare che la funzione:

· : Rm,n ⇥ Rm,n ! R,

definita da:
A · B = tr(tA B), (5.4)
è un prodotto scalare su Rm,n .
206 Spazi Vettoriali Euclidei

Esempio 5.6 Si consideri nel caso di R2,2 il prodotto scalare definito nell’esempio pre-
cedente. Si vuole calcolarne l’espressione esplicita rispetto a due matrici A = (aij ) e
B = (bij ) di R2,2 . Si ha:

✓✓ ◆✓ ◆◆
a11 a21 b11 b12
A · B = tr = a11 b11 + a12 b12 + a21 b21 + a22 b22 .
a12 a22 b21 b22

Quindi, se si interpretano gli elementi aij e bij delle matrici A e B come le componenti
delle matrici A e B rispetto alla base canonica (Eij ), i, j = 1, 2, di R2,2 , il precedente
prodotto scalare in componenti corrisponde al prodotto scalare standard su R4 . Si può
verificare che la stessa proprietà vale in generale su Rm,n , ovvero che il prodotto scala-
re (5.4) scritto in componenti rispetto alla base canonica (Eij ), i = 1, 2, . . . , m, j =
1, 2, . . . , n, corrisponde al prodotto scalare standard in Rm,n .

Esercizio 5.2 Posto:

p(x) = a0 + a1 x + . . . + an xn , q(x) = b0 + b1 x + . . . + bn xn ,

verificare che la funzione:


· : Rn [x] ⇥ Rn [x],
definita da: n
X
p(x) · q(x) = ai b i (5.5)
i=0

è un prodotto scalare sullo spazio vettoriale Rn [x] dei polinomi di grado minore o uguale
ad n. La funzione:
⇤ : Rn [x] ⇥ Rn [x] ! R,
definita da: n
X
p(x) ⇤ q(x) = ai b i
i=1

definisce un prodotto scalare su Rn [x]?

5.2 Norma di un vettore


Definizione 5.2 Sia (V, · ) uno spazio vettoriale euclideo. Si definisce norma di un
vettore x di V il numero reale positivo dato da:
p
kxk = x · x.
Capitolo 5 207

Si osservi che la precedente definizione ha senso perché, per il quarto assioma di defini-
zione del prodotto scalare, x · x 0, per ogni x 2 V.

Esempio 5.7 In V3 , dotato del prodotto scalare standard (cfr. Par. 3.7.1), la norma di un
vettore x coincide con la sua usuale lunghezza.

Esempio 5.8 Nello spazio vettoriale euclideo (R3 , · ), dotato del prodotto scalare stan-
dard, si ha: q
kxk = x21 + x22 + x23 ,
per ogni x = (x1 , x2 , x3 ) 2 R3 .

Esempio 5.9 Se si considera su R3 il prodotto scalare definito nell’Esempio 5.3 si ha


che: q
kxk = 3x21 + 4x22 + 5x23 ,
per ogni x = (x1 , x2 , x3 ) 2 R3 .

Esempio 5.10 Nello spazio vettoriale euclideo (Rn , · ), dotato del prodotto scalare stan-
dard, si ha: q
kxk = x21 + x22 + . . . + x2n ,

per ogni x = (x1 , x2 , . . . , xn ) 2 Rn .

Esempio 5.11 Se su uno spazio vettoriale V su R di dimensione n, riferito ad una base


B = (v1 , v2 , . . . , vn ), si considera il prodotto scalare (5.3), la norma del vettore x =
x1 v1 + x2 v2 + . . . + xn vn è data da:
p q
kxk = tX X = x21 + x22 + . . . + x2n .

Esempio 5.12 La norma della matrice A = (aij ) 2 R2,2 , rispetto al prodotto scalare
considerato nell’Esempio 5.6, è:
p q
kAk = tr(tA A) = a211 + a212 + a221 + a222 .

Esempio 5.13 La norma del polinomio p(x) = a0 + a1 x + . . . + an xn 2 Rn [x] rispetto


al prodotto scalare (5.5) è: v
u n
uX
kp(x)k = t a2i .
i=0
208 Spazi Vettoriali Euclidei

In generale, una funzione a valori reali prende il nome di “norma” solo se definisce un
numero reale positivo che verifica proprietà opportune, precisamente quelle enunciate nel
teorema seguente.

Teorema 5.2 Su uno spazio vettoriale euclideo (V, · ), la funzione:

k·k:V ! R, x 7 ! kxk

verifica le seguenti proprietà:

1. kxk 0, x 2 V e kxk = 0 () x = o.

2. k xk = | | kxk, 2 R, x 2 V.

3. Teorema di Pitagora: x · y = 0 () kx + yk2 = kxk2 + kyk2 .

4. Disuguaglianza di Cauchy–Schwarz: |x · y|  kxk kyk, x, y 2 V.

5. Disuguaglianza triangolare (o di Minkowski): kx + yk  kxk + kyk, x, y 2 V.

Dimostrazione 1. La dimostrazione è lasciata al Lettore per esercizio.

2. La dimostrazione segue da ( x) · ( x) = 2
kxk2 .

3. Segue da:

k(x + y)k2 = (x + y) · (x + y) = kxk2 + 2x · y + kyk2 . (5.6)

4. La disuguaglianza di Cauchy–Schwarz è banalmente soddisfatta se uno dei vettori


coincide con il vettore nullo. La si dimostra, quindi, nel caso in cui x e y siano
entrambi diversi dal vettore nullo. Per ogni 2 R si può considerare il polinomio
di secondo grado in :

k x + yk2 = ( x + y) · ( x + y) = 2
kxk2 + 2 x · y + kyk2 .

Per il punto 1. si ha che:


2
kxk2 + 2 x · y + kyk2 0

per ogni 2 R e, quindi, il trinomio di secondo grado deve avere discriminante


negativo, cioè:
(x · y)2 kxk2 kyk2  0,
per ogni x, y 2 V.
Capitolo 5 209

5. Usando (5.6) e la disuguaglianza di Cauchy-Schwarz si ha:

kx + yk2  kxk2 + 2kxk kyk + kyk2 = (kxk + kyk)2 ,

per ogni x, y 2 V .

Considerati due vettori non nulli x e y di uno spazio vettoriale euclideo (V, · ), come
conseguenza della disuguaglianza di Cauchy–Schwarz si ha che:
|x · y|
1
kxk kyk
e quindi:
x·y
1  1,
kxk kyk
si può allora enunciare la seguente definizione.

Definizione 5.3 Sia (V, · ) uno spazio vettoriale euclideo. Dati due vettori x, y 2 V non
nulli, si definisce angolo tra i due vettori x e y l’angolo ✓ 2 [0, ⇡] tale che:
x·y
cos ✓ = .
kxk kyk

Osservazione 5.1 1. È necessario osservare che la nozione di angolo ✓ tra due vettori,
appena introdotta, è coerente con la definizione di angolo tra vettori considerata nel
Paragrafo 3.6, cosı̀ come lo è la definizione di ortogonalità che segue. Inoltre, la
nozione di angolo tra due vettori non dipende dall’ordine dei due vettori.

2. Come in V3 , anche nel caso generale di uno spazio vettoriale euclideo V l’angolo
tra il vettore nullo o e un qualunque altro vettore è indeterminato, ossia può essere
un qualsiasi angolo ✓ 2 [0, ⇡].

Definizione 5.4 Due vettori non nulli x e y di uno spazio vettoriale euclideo (V, · ) si
dicono ortogonali o perpendicolari se l’angolo ✓ che essi determinano è ✓ = ⇡/2. Il
vettore nullo si considera ortogonale ad ogni altro vettore di V. Se ✓ = 0 o ✓ = ⇡ i due
vettori si dicono paralleli.

Di conseguenza, le nozioni di angolo e di ortogonalità permettono di introdurre gli usuali


concetti di geometria analitica del piano e dello spazio (cfr. Cap. 9, 10, 11 e 12) in spazi
vettoriali euclidei di dimensione maggiore di 3. Si vedrà, per esempio, nell’osservazione
che segue che la nozione di parallelismo di due vettori corrisponde alla dipendenza lineare
dei due vettori.
210 Spazi Vettoriali Euclidei

Osservazione 5.2 Fissati due vettori, la misura dell’angolo che essi determinano può
cambiare a seconda del prodotto scalare che si considera. Addirittura, dati due vettori
qualsiasi (non nulli e non paralleli) è possibile definire un prodotto scalare che li renda
ortogonali. Esempi di questo tipo si possono leggere nel Capitolo 8 (cfr. Es. 8.18), per-
ché non si è ancora in grado, in questo capitolo, di costruirli esplicitamente in quanto
non è ancora chiaro come, in generale, sia possibile verificare facilmente che una funzio-
ne qualsiasi di dominio V ⇥ V e codominio R sia o meno un prodotto scalare. È però
una semplice conseguenza della definizione di norma di un vettore il fatto che, per ogni
possibile prodotto scalare definito su uno spazio vettoriale V, il concetto di parallelismo
tra vettori rimane invariato, in altri termini se due vettori sono linearmente dipendenti lo
rimangono per tutti i possibili prodotti scalari che si possano definire su V. Infatti vale il
teorema seguente.
Teorema 5.3 In uno spazio vettoriale euclideo (V, · ) due vettori x e y, che individuano
l’angolo ✓, sono linearmente dipendenti se e solo ✓ = 0 o ✓ = ⇡ , cioè se e solo se:
x · y = ±kxk kyk.
Dimostrazione La proprietà è banalmente vera se uno dei due vettori coincide con il
vettore nullo. Si supponga allora che i due vettori siano entrambi non nulli. Se x e y
sono linearmente dipendenti esiste 2 R tale che y = x e la precedente uguaglianza è
verificata.
Viceversa, si supponga che per una coppia di vettori non nulli x e y valga l’uguaglianza
x · y = kxk kyk (il caso con il segno negativo è analogo), allora si ha:
2 ✓ ◆ ✓ ◆
x y x y x y
= ·
kxk kyk kxk kyk kxk kyk
x·x x·y y·y
= 2 + = 0.
kxk2 kxk kyk kyk2
Dal quarto assioma di definizione del prodotto scalare segue:
kyk
y= x,
kxk
cioè x e y sono linearmente dipendenti.

5.3 Basi ortonormali


I naturali concetti geometrici di base ortogonale e ortonormale in V3 , introdotti nel Para-
grafo 3.7.1, possono essere agevolmente estesi ad uno spazio vettoriale euclideo qualsiasi
con la seguente definizione.
Capitolo 5 211

Definizione 5.5 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Una base
B = (v1 , v2 , . . . , vn ) di V si dice ortogonale se i vettori che la definiscono verificano la
condizione:
vi · vj = 0, i 6= j, i, j = 1, 2, . . . , n.
In altri termini, una base si dice ortogonale se i vettori che la compongono sono a due a
due ortogonali.

Una base B = (e1 , e2 , . . . , en ) di V si dice ortonormale se i vettori che la definiscono


verificano entrambe le condizioni:

1. ei · ej = 0, i 6= j , i, j = 1, 2, . . . , n;
2. kei k = 1, i = 1, 2, . . . , n.

In altri termini, una base si dice ortonormale se è una base ortogonale ed ogni vettore
che la compone ha norma uguale a 1.

Esempio 5.14 In R3 la base canonica (e1 , e2 , e3 ), dove:

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1),

è ortonormale rispetto al prodotto scalare standard.

Più in generale, in Rn la base canonica (e1 , e2 , . . . , en ), dove:

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), ..., en = (0, . . . , 0, 1)

è anch’essa ortonormale rispetto al prodotto scalare standard.

Esercizio 5.3 Si determini in R3 una base ortonormale rispetto al prodotto scalare:

x · y = 2x1 y1 + 3x2 y2 + 4x3 y3 . (5.7)

Soluzione È immediato verificare che i vettori della base canonica (e1 , e2 , e3 ) di R3


sono a due a due ortogonali e quindi verificano la condizione 1. della Definizione 5.5. Se
si calcola la norma dei tre vettori, rispetto al prodotto scalare che si sta considerando, si
ha: p p
ke1 k = 2, ke2 k = 3, ke3 k = 2.
Quindi i vettori: ✓ ◆
1 1 1
p e 1 , p e2 , e3
2 3 2
formano una base ortonormale di R3 dotato del prodotto scalare (5.7).
212 Spazi Vettoriali Euclidei

Esempio 5.15 In Rm,n la base canonica (Eij ), i = 1, 2, . . . , m, j = 1, 2, . . . , n, è una


base ortonormale rispetto al prodotto scalare definito da (5.4).

Esempio 5.16 In Rn [x] la base (1, x, . . . , xn ) è ortonormale rispetto al prodotto scalare


definito da (5.5).

Se si scrive l’espressione del prodotto scalare in componenti rispetto ad una base ortonor-
male su uno spazio vettoriale euclideo di dimensione n, si ottiene la stessa espressione
del prodotto scalare standard su Rn , come si può dedurre dal seguente teorema, la cui
dimostrazione è un facile esercizio.

Teorema 5.4 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n.

1. Se B = (e1 , e2 , . . . , en ) è una base ortonormale e:

x = x 1 e 1 + x 2 e 2 + . . . + x n en , y = y 1 e1 + y 2 e2 + . . . + y n en

sono due vettori qualsiasi di V, allora il loro prodotto scalare è:

x · y = x1 y1 + x2 y2 + . . . + xn yn = tX Y, (5.8)

dove tX Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B.

2. Se B = (e1 , e2 , . . . , en ) è una base di V tale che, per ogni coppia di vettori:

x = x 1 e1 + x 2 e 2 + . . . + x n e n , y = y 1 e1 + y 2 e2 + . . . + y n en

di V si ha:
x · y = x1 y1 + x2 y2 + . . . + xn yn = tX Y, (5.9)
dove tX Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B, allora B è una
base ortonormale.

Osservazione 5.3 Si osservi che, in particolare, come conseguenza del teorema prece-
dente si ha che se B = (e1 , e2 , . . . , en ) è una base di uno spazio vettoriale V, allora esiste
su V un prodotto scalare che rende la base B ortonormale. Tale prodotto scalare è in-
fatti semplicemente definito da (5.9). Nell’Esercizio 5.13 si determinerà esplicitamente
l’espressione del prodotto scalare che rende ortonormale una particolare base di R3 .
Capitolo 5 213

Ora che si è in grado di scrivere l’espressione in componenti del prodotto scalare rispetto
ad una base ortonormale rimane da dimostrare l’esistenza di almeno una base ortonormale
rispetto ad ogni prodotto scalare definito su V. A tale scopo è necessario premettere il
seguente lemma.

Lemma 5.1 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Un insieme I di
k vettori di V :
I = {v1 , v2 , . . . , vk }
tale che:

1. k  n;

2. vi 6= o, i = 1, 2, . . . , k ;

3. vi · vj = 0, i 6= j , i, j = 1, 2, . . . , k

è un insieme libero. Se k = n allora I è una base ortogonale di V.

Dimostrazione Occorre dimostrare che i vettori v1 , v2 , . . . , vk sono linearmente indi-


pendenti, cioè che l’unica loro combinazione lineare uguale al vettore nullo è quella con
coefficienti tutti uguali a 0. Infatti, se si considera l’equazione vettoriale:

1 v1 + ... + k vk = o, i 2 R, i = 1, 2, . . . , k

e si moltiplicano scalarmente entrambi i membri per ogni vi , i = 1, 2, . . . , k , tenendo


conto dell’ipotesi di ortogonalità dei vettori, si ha:

i vi · vi = i kvi k2 = 0.

Dalla condizione 2. segue i = 0, per ogni i = 1, 2, . . . , k .

Teorema 5.5 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n e sia:

B = (v1 , v2 , . . . , vn )

una sua base. A partire da B è possibile costruire una base ortonormale:

B 0 = (e1 , e2 , . . . , en )

di V tale che:

L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ), k = 1, 2, . . . , n.
214 Spazi Vettoriali Euclidei

Dimostrazione Per dimostrare il teorema si utilizza un metodo di calcolo per co-


struire una base ortonormale a partire da una base assegnata noto come il processo di
ortonormalizzazione di Gram–Schmidt.

Data una base B = (v1 , v2 , . . . , vn ) si procede con un numero finito di passi, nel modo
seguente:

1. si sceglie come primo vettore della base ortonormale il versore:


v1
e1 = vers v1 = .
kv1 k

2. Per costruire il secondo vettore e2 si considera il vettore a2 = v2 + e1 , con 2 R


e si determina in modo tale che a2 sia ortogonale a e1 ossia a2 · e1 = 0. Si
ottiene:
= v2 · e1 .
Quindi:
e2 = vers(v2 (v2 · e1 ) e1 )
è un vettore di norma 1 e ortogonale a e1 .

3. Per costruire il terzo vettore e3 si considera il vettore a3 = v3 + 1 e1 + 2 e2 , con


1 , 2 2 R e si impongono le due condizioni di ortogonalità:

a3 · e1 = 0 = v3 · e1 + 1 ,
a3 · e2 = 0 = v3 · e2 + 2 .

Il terzo vettore è quindi:

e3 = vers(v3 (v3 · e1 ) e1 (v3 · e2 ) e2 ).

Iterando questo procedimento si ottiene un insieme di n vettori:

ek = vers(vk (vk · e1 ) e1 ... (vk · ek 1 ) ek 1 ), k = 1, 2, . . . , n,

a due a due ortogonali e di norma uguale a 1. Per il Lemma 5.1, i vettori (e1 , e2 , . . . , en )
costituiscono una base di V. Inoltre, ad ogni passo si ha:

L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ), k = 1, 2, . . . , n,

è cosı̀ dimostrato il teorema.


Capitolo 5 215

Osservazione 5.4 Se (e1 , e2 , . . . , en ) è una base ortonormale dello spazio vettoriale eu-
clideo (V, · ), ogni vettore v di V si può esprimere come:
v = (v · e1 ) e1 + (v · e2 ) e2 + . . . + (v · en ) en .

Il vettore:
(v · e1 ) e1 + (v · e2 ) e2 + . . . + (v · ek ) ek ,
con k < n, rappresenta, geometricamente, il vettore proiezione ortogonale di v sul sot-
tospazio vettoriale generato dai vettori e1 , e2 , . . . , ek . Si estende cosı̀, in dimensione
maggiore di 3, la situazione geometrica descritta nell’Osservazione 3.16.

Si osservi anche che si può applicare il processo di ortonormalizzazione di Gram–Schmidt


considerando come vettore e1 il versore di uno qualunque dei vettori della base assegnata
B. Poiché in ogni spazio vettoriale esistono infinite basi, si può concludere che sullo spa-
zio vettoriale euclideo (V, · ) esistono infinite basi ortonormali, ed è altrettanto chiaro che
una base ortonormale rispetto ad un prodotto scalare non è necessariamente ortonormale
rispetto ad un altro prodotto scalare definito sullo stesso spazio vettoriale euclideo (cfr.
Esercizio 5.3).

Esercizio 5.4 Nello spazio vettoriale euclideo (R4 , · ), dotato del prodotto scalare stan-
dard, è data la base B = (v1 , v2 , v3 , v4 ) con:
v1 = (1, 2, 0, 0), v2 = (0, 1, 1, 0), v3 = (0, 0, 1, 1), v4 = (0, 0, 0, 5).

Determinare una base ortonormale di R4 a partire da B.

Soluzione Si applica il procedimento di ortonormalizzazione di Gram–Schmidt alla


base B. Si può iniziare con:
v1 1
e1 = = p (1, 2, 0, 0).
kv1 k 5
Il secondo vettore e2 è dato dal versore di:
✓ ◆
2 1 2 1
v2 (v2 · e1 ) e1 = (0, 1, 1, 0) p p (1, 2, 0, 0) = , , 1, 0 .
5 5 5 5
Quindi: r r !
✓ ◆
5 2 1 2 1 5
e2 = p , , 1, 0 = ,p , ,0 .
30 5 5 15 30 6
Analogamente si considera come e3 il versore di:
v3 (v3 · e1 ) e1 (v3 · e2 ) e2 ,
216 Spazi Vettoriali Euclidei

dato da: r r !
2 1 1 6
e3 = ,p ,p , .
21 42 42 7
In modo analogo, a completamento della base ortonormale richiesta, si ottiene:
✓ ◆
2 1 1 1
e4 = p ,p ,p ,p .
7 7 7 7

Ci si vuole ora occupare dello studio delle proprietà della matrice del cambiamento di
base tra due basi ortonormali definite su uno spazio vettoriale euclideo (V, · ). Vale l’im-
portante teorema che segue, con l’avvertenza che, per capirne la dimostrazione, si deve
far riferimento alle nozioni spiegate nel Paragrafo 4.3.4.

Teorema 5.6 Sia B = (e1 , e2 , . . . , en ) una base ortonormale di uno spazio vettoriale
euclideo V di dimensione n, allora B 0 = (e01 , e02 , . . . , e0n ) è una base ortonormale di V
se e solo se la matrice del cambiamento di base da B a B 0 è una matrice ortogonale di
ordine n.

Dimostrazione In uno spazio vettoriale euclideo (V, · ) di dimensione n si consideri


la matrice P del cambiamento di base dalla base ortonormale B = (e1 , e2 , . . . , en ) ad
un’altra base ortonormale B 0 = (e01 , e02 , . . . , e0n ) di V. La matrice P è invertibile e ha
sulle colonne le componenti dei vettori e0i , i = 1, 2, . . . , n, rispetto alla base B, si può
verificare che l’elemento di posto ij del prodotto tP P è dato dal prodotto scalare e0i · e0j
scritto in componenti rispetto alla base B. Quindi tP P = I , cioè P è una matrice
ortogonale di ordine n. Il viceversa segue in modo analogo.

Osservazione 5.5 Se P 2 Rn,n è una matrice ortogonale, ossia se tP P = I , allora


t
P = P 1 , moltiplicando ambo i membri per P segue P tP = I ; in altri termini anche
la matrice tP è ortogonale. Applicando la dimostrazione del Teorema 5.6 a tP si ha che
non solo i vettori colonna ma anche i vettori riga della matrice P costituiscono una base
ortonormale dello spazio vettoriale euclideo Rn , rispetto al prodotto scalare standard. Per
maggiori chiarimenti si veda il Teorema 5.7 in cui sono elencate tutte le proprietà delle
matrici ortogonali.

Osservazione 5.6 Il Teorema 5.6 non è più valido se una delle due basi non è ortonorma-
le. La matrice P del cambiamento di base da una qualunque base B (non ortonormale)
ad una base ortonormale ottenuta da B mediante il processo di ortonormalizzazione di
Gram–Schmidt non è una matrice ortogonale, come si può osservare nell’esempio che
segue.
Capitolo 5 217

Esempio 5.17 In R3 si considerino i due prodotti scalari seguenti:

x · y = x1 y1 + x2 y2 + x3 y3 ,

x y = 3x1 y1 + 4x2 y2 + x3 y3 ,
dove x = x1 e1 + x2 e2 + x3 e3 , y = y1 e1 + y2 e2 + y3 e3 e B = (e1 , e2 , e3 ) con:

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)

base canonica di R3 . B è una base ortonormale rispetto al prodotto scalare “·” (cfr. Es.
5.14) ma non è ortonormale rispetto al prodotto scalare “ ”. La base B 0 = (v1 , v2 , v3 )
con: ✓ ◆ ✓ ◆
1 1
v1 = p , 0, 0 , v2 = 0, , 0 , v3 = (0, 0, 1)
3 2
è ortonormale rispetto al prodotto scalare “ ”, ma, ovviamente, la matrice:
0 1
1
p 0 0
B 3 C
B C
B C
B 1 C
P =B C
B 0 0 C
B 2 C
@ A
0 0 1

del cambiamento di base da B a B 0 non è ortogonale. Si osservi inoltre che se:

x = x01 v1 + x02 v2 + x03 v3 , y = y10 v1 + y20 v2 + y30 v3 ,

allora:
x y = x01 y10 + x02 y20 + x03 y30
essendo B 0 una base ortonormale rispetto al prodotto scalare “ ”.

Sia (a1 , a2 , a3 ) una base di R3 con:

a1 = (1, 0, 2), a2 = (1, 3, 4), a3 = (0, 3, 4).

A partire da tale base, usando il processo di ortonormalizzazione di Gram–Schmidt si


vogliono determinare una base ortonormale rispetto al prodotto scalare “·” e una base
ortonormale rispetto al prodotto scalare “ ”. Nel primo caso si ottiene la base:
✓ ◆ p ! ✓ ◆!
1 2 4 3 5 2 6 2 3
C= p , 0, p , p , , p , , , .
5 5 7 5 7 7 5 7 7 7
218 Spazi Vettoriali Euclidei

La matrice:

0 1
1 4 6
p p
B 5 7 5 7 C
B C
B p C
B C
B 3 5 2 C
Q=B 0 C
B 7 7 C
B C
B C
@ 2 2 3 A
p p
5 7 5 7
è ortogonale, essendo la matrice del cambiamento di base tra due basi ortonormali B e
C , rispetto allo stesso prodotto scalare. Rispetto al prodotto scalare “ ” si ottiene la base
ortonormale C 0 = (v10 , v20 , v30 ) con:
✓ ◆ r r r !
1 2 2 1 21 3
v10 = p , 0, p , v20 = , , ,
7 7 231 2 22 154
r !
2 1 3
v30 = , p ,p .
11 2 22 22

La matrice R che ha sulle colonne le componenti della base C 0 non è una matrice orto-
gonale, mentre lo deve essere la matrice del cambiamento di base da B 0 a C 0 , ottenuta dal
prodotto P 1 R. Si lascia per esercizio sia la verifica dell’ortogonalità dell’ultima matrice
sia la giustificazione del fatto che essa si ottenga proprio nel modo indicato.

Per le matrici ortogonali sono valide le seguenti proprietà, alcune delle quali sono già
state anticipate nel Paragrafo 2.5 e nel corso di questo capitolo.

Teorema 5.7 1. Il prodotto di due matrici ortogonali è una matrice ortogonale.

2. La matrice identità I è ortogonale.

3. L’inversa P 1
di una matrice ortogonale P è ortogonale.

4. La trasposta tP di una matrice ortogonale P è ortogonale.

5. Una matrice P 2 Rn,n è ortogonale se e solo se le righe e le colonne di P sono le


componenti di una base ortonormale in Rn , rispetto al prodotto scalare standard.

6. Il determinante di una matrice ortogonale P vale ±1.


Capitolo 5 219

Dimostrazione 1. Se P e Q sono matrici ortogonali si ha:


t
(P Q)P Q = tQ tP P Q = I

e quindi la matrice prodotto P Q è ortogonale.

2. La verifica è lasciata per esercizio.

3. Da tP = P 1
e dal Teorema 2.7 punto 4. segue che (tP ) 1
= (P 1
) 1
da cui la
tesi.

4. Da tP = P 1
segue che t (tP ) tP = P tP = P P 1
= I da cui la tesi.

5. La verifica è lasciata per esercizio.

6. Per il Teorema 2.16 punto 2. si ha che det(tP P ) = det(tP ) det(P ) = det(I) = 1.


Quindi (det(P ))2 = 1.

Osservazione 5.7 1. Non vale il viceversa del punto 6. del teorema precedente. Ad
esempio, se si considera la matrice:
✓ ◆
1 1
A=
0 1

si ha che il determinante di A è 1 ma A non è ortogonale.

2. Segue dai punti 1., 2. e 3. che l’insieme O(n) delle matrici ortogonali di ordine n
(cfr. (2.9)) è un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), O(n) prende
il nome di gruppo ortogonale. Si osservi inoltre che il gruppo O(2) è già stato
descritto nell’Esercizio 3.11.

3. Gli insiemi di matrici:

SL(n, R) = {A 2 Rn,n | det(A) = 1}

e:
SO(n) = {A 2 O(n) | det(A) = 1} = O(n) \ SL(n, R) (5.10)
sono entrambi gruppi rispetto al prodotto di matrici. SL(n, R) prende il nome di
gruppo lineare speciale e SO(n) è detto gruppo ortogonale speciale.
220 Spazi Vettoriali Euclidei

Osservazione 5.8 Si osservi che il valore del prodotto scalare di due vettori in uno spa-
zio vettoriale euclideo V non varia, qualunque sia la base ortonormale scelta per calco-
larlo. Infatti se si esprime la formula (5.8), scritta rispetto alla base ortonormale B =
(e1 , e2 , . . . , en ), rispetto ad un’altra base ortonormale B 0 = (e01 , e02 , . . . , e0n ) si ha:
x · y = tX 0 Y 0 ,
dove X 0 e Y 0 indicano, rispettivamente, le matrici colonne delle componenti dei vettori
x e y rispetto alla base ortonormale B 0 . Dalle equazioni del cambiamento di base si ha:
X = P X 0, Y = P Y 0,
dove P è la matrice ortogonale del cambiamento di base da B a B 0 , quindi:
x · y = tX Y = t (P X 0 )(P Y 0 ) = tX 0 (tP P ) Y 0 = tX 0 Y 0 .

Esercizio 5.5 Determinare una matrice ortogonale P in R3,3 in modo tale che il primo
vettore riga sia:
p p !
2 2
a = 0, , .
2 2

Soluzione Per determinare una matrice ortogonale con le caratteristiche richieste oc-
corre completare l’insieme libero {a} a una base ortonormale (a, b, c) di R3 . Si può, ad
esempio, usando il Teorema 4.15, costruire la base C = (a, e1 , e2 ) con :
e1 = (1, 0, 0), e2 = (0, 0, 1).
Per determinare una base ortonormale, è sufficiente applicare il processo di ortonormaliz-
zazione di Gram–Schmidt alla base C , considerando:
b = vers(e1 (e1 · a)a) = vers(1, 0, 0) = e1 ,
✓ ◆
1 1
c = vers(e2 (e2 · a)a (v3 · b)b) = vers 0, , .
2 2
La matrice ortogonale cercata è ad esempio:
0 p p 1
2 2
B 0 2 2 C
B C
B C
B C
P =B 1 0 0 C.
B C
B p p C
@ A
2 2
0
2 2
Capitolo 5 221

5.4 Il complemento ortogonale


Siano (V, · ) uno spazio vettoriale euclideo di dimensione n e W un suo sottospazio
vettoriale di dimensione k  n.

Definizione 5.6 Si dice complemento ortogonale di W e lo si denota con W ? il sottoin-


sieme di V formato da tutti i vettori di V ortogonali ad ogni vettore di W , cioè:

W ? = {x 2 V | x · y = 0, 8y 2 W}.

Osservazione 5.9 Per definizione, il complemento ortogonale W ? di un sottospazio vet-


toriale W di uno spazio vettoriale euclideo (V, · ) è unico. Inoltre, se W = {o}, allora
W ? = V e se W = V allora W ? = {o}.

Osservazione 5.10 Scelta una base (a1 , a2 , . . . , ak ) di W , la condizione x · y = 0, per


ogni y 2 W, è equivalente a:

x · ai = 0, i = 1, 2, . . . , k.

Infatti si ha:
x · ( 1 a1 + 2 a2 + ... + k ak ) = x · y = 0,
per ogni i 2 R, i = 1, 2, . . . , k . Ma questa condizione è verificata se e solo se x·ai = 0,
per ogni i = 1, 2, . . . , k .

Il teorema che segue elenca le proprietà fondamentali del complemento ortogonale di un


sottospazio vettoriale.

Teorema 5.8 Sia (V, · ) uno spazio vettoriale euclideo e sia W un suo sottospazio vet-
toriale, allora:

1. W ? ✓ V è un sottospazio vettoriale di V ;

2. W W? = V ;

3. (W ? )? = W.

Dimostrazione 1. La dimostrazione è lasciata al Lettore per esercizio.


222 Spazi Vettoriali Euclidei

2. Per dimostrare che W + W ? = V si può procedere in questo modo. Sia dim(V ) =


n, scelta una base (a1 , a2 , . . . , ak ) di W si costruisce la matrice A 2 Rk,n avente
come vettori riga le componenti dei vettori della base di W, rispetto ad una base
ortonormale B di (V, · ), cioè tale che R(A) = W , si ottiene che A ha rango k e
il suo nullspace N (A) coincide con W ? (cfr. Oss 5.10). Quindi dal Teorema 4.23
segue che dim(W ? ) + dim(W) = n = dim(V ). Dal Teorema 4.24 si ha anche
che la somma dei due sottospazi vettoriali è diretta. In aggiunta, si osservi che la
verifica che W \ W ? = {o} segue anche facilmente dal fatto che se x 2 W \ W ?
si ha che x · x = 0 e quindi x = o.
3. È ovvia conseguenza di 2. Infatti:
W? (W ? )? = V
ma si ha anche che W ? W = V e quindi segue la tesi per l’unicità del comple-
mento ortogonale.

Osservazione 5.11 È importante notare che W ? è un sottospazio vettoriale di V supple-


mentare di W in V, ma mentre esistono infiniti sottospazi vettoriali di V supplementari
di W in V, il complemento ortogonale è unico.

Esercizio 5.6 In (R3 , · ), dotato del prodotto scalare standard, determinare il comple-
mento ortogonale W ? del sottospazio vettoriale:
W = {(x1 , x2 , x3 ) 2 R3 | x1 + x2 + x3 = 0}.

Soluzione Per l’Osservazione 5.10 si può prima determinare una base di W e poi
l’insieme dei vettori x ortogonali a tutti i vettori di questa base. Una base di W è, ad
esempio, data dai due vettori:
a1 = ( 1, 1, 0), a2 = ( 1, 0, 1).
Il complemento ortogonale di W è formato da tutti i vettori y = (y1 , y2 , y3 ) 2 R3 che
verificano le due condizioni:

y · a1 = y1 + y2 = 0
y · a2 = y1 + y3 = 0.

Si vede che W ? corrisponde al nullspace della matrice:


✓ ◆
1 1 0
A= ,
1 0 1
cioè al complemento ortogonale dello spazio vettoriale delle righe R(A), si ottiene che
W ? = L((1, 1, 1)). Per ulteriori precisazioni sull’ultima osservazione si veda l’Esempio
5.18.
Capitolo 5 223

Osservazione 5.12 Da notare che, nell’esercizio precedente, una base di W ? è formata


dai vettori che hanno come componenti i coefficienti dell’equazione x1 + x2 + x3 = 0
che definisce W . Si giustifichi teoricamente questo fatto, ma si presti particolare atten-
zione a non applicare questa regola nel caso in cui W sia definito come l’insieme delle
combinazioni lineari di alcuni vettori.

Esercizio 5.7 In R2,2 si consideri il sottospazio vettoriale:

W = {A 2 R2,2 | tr(A) = 0}.

Si determinino due sottospazi vettoriali diversi supplementari di W e il suo complemento


ortogonale, rispetto al prodotto scalare definito in (5.4).

Soluzione Innanzi tutto si osservi che, per le proprietà della traccia di una matrice
quadrata, W è un sottospazio vettoriale. È facile ottenere che dim(W) = 3 e:
✓✓ ◆ ✓ ◆ ✓ ◆◆
1 0 0 1 0 0
W=L , , ,
0 1 0 0 1 0

pertanto W è un iperpiano vettoriale di R2,2 (cfr. Def. 4.17). I sottospazi vettoriali:


✓✓ ◆◆ ✓✓ ◆◆
1 0 0 0
W1 = L , W2 = L
0 1 0 1

sono diversi e entrambi supplementari di W ; il complemento ortogonale W ? coincide


con W1 .

Esercizio 5.8 Siano W1 e W2 sottospazi vettoriali di uno spazio vettoriale euclideo


(V, · ) di dimensione n. Dimostrare che:

(W1 + W2 )? = W1? \ W2? ,

(W1 \ W2 )? = W1? + W2? .


Se invece W1 ✓ W2 , allora dimostrare che:

W2? ✓ W1? .

Esercizio 5.9 In R4 , rispetto al prodotto scalare standard, determinare la proiezione or-


togonale del vettore a = (1, 2, 0, 1) sul sottospazio vettoriale:

W = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 + x2 + x3 = 0}.
224 Spazi Vettoriali Euclidei

Soluzione Per risolvere questo esercizio si deve tener conto dell’Osservazione 5.4. Si
tratta, quindi, di determinare una base ortonormale del sottospazio vettoriale W. W è un
iperpiano vettoriale di R4 generato dai vettori:

a1 = (0, 0, 0, 1), a2 = (1, 0, 1, 0), a3 = (0, 1, 1, 0).

Applicando il processo di ortonormalizzazione di Gram–Schmidt si perviene alla base


ortonormale di W data dai vettori:

b1 = a1 = (0, 0, 0, 1),
✓ ◆
1 1
b2 = vers(a2 (a2 · b1 )b1 ) = p , 0,
p ,0 ,
2 2
✓ ◆
1 2 1
b3 = vers(a3 (a3 · b1 )b1 (a3 · b2 )b2 ) = p ,p , p ,0 .
6 6 6
Il vettore p proiezione ortogonale di a su W è dato da:

p = (a · b1 )b1 + (a · b2 )b2 + (a · b3 )b3 = (0, 1, 1, 1).

In alternativa, tenendo conto che:

W ? = L((1, 1, 1, 0))

e che una sua base ortonormale è data da:


✓ ◆
1 1 1
b4 = vers((1, 1, 1, 0)) = p , p , p ,0 ,
3 3 3

la proiezione ortogonale di a su W ? è il vettore:

b = (a · b4 )b4 = (1, 1, 1, 0).

Poiché il vettore a si decompone, in modo unico, nella somma delle sue proiezioni
ortogonali su W e su W ? segue:

p=a b = (1, 2, 0, 1) (1, 1, 1, 0) = (0, 1, 1, 1).

Esercizio 5.10 Si dimostri che nello spazio vettoriale euclideo (Rn,n , · ) delle matrici
quadrate di ordine n, dotato del prodotto scalare standard definito in (5.4), il complemento
ortogonale del sottospazio vettoriale delle matrici simmetriche S(Rn,n ) è il sottospazio
vettoriale delle matrici antisimmetriche A(Rn,n ).
Capitolo 5 225

Soluzione Nel Teorema 4.5 si dimostra che Rn,n = S(Rn,n ) A(Rn,n ). Per comple-
tare l’esercizio è sufficiente verificare che ogni matrice simmetrica è ortogonale ad ogni
matrice antisimmetrica. Siano S 2 S(Rn,n ), S 6= O, e A 2 A(Rn,n ), A 6= O, dove
con O 2 Rn,n si indica la matrice nulla, allora tS = S e tA = A, quindi, ricordando le
proprietà della traccia di una matrice, si ha:
S · A = tr(tS A) = tr(S A) = tr(A S) = tr(tA S) = A · S,
da cui segue S · A = 0.

Esempio 5.18 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n e sia:
B = (e1 , e2 , . . . , en )
una sua base ortonormale. Sia W = L(a1 , a2 , . . . , ak ) un sottospazio vettoriale di V
generato da k vettori linearmente indipendenti a1 , a2 , . . . , ak dati da:
0 1 0 10 1 0 1
a1 a11 a12 . . . a1n e1 e1
B a2 C B a21 a22 . . . a2n C B e2 C B e2 C
B C B CB C B C
B .. C = B .. .. C B .. C = A B .. C.
@ . A @ . . A@ . A @ . A
ak ak1 ak2 . . . akn en en

A è dunque una matrice di Rk,n di rango k . Come già osservato nella dimostrazione del
Teorema 5.8, il complemento ortogonale di W è formato dai vettori x di V la cui matrice
X delle componenti è soluzione del sistema lineare omogeneo AX = O, dove O 2 Rn,1
è la matrice nulla. Pertanto il nullspace N (A) di A coincide con W ? . Se si indica con
R(A) lo spazio vettoriale delle righe di A e con C(A) lo spazio vettoriale delle colonne
di A (cfr. Cap. 4.3) segue:

R(A)? = N (A), C(A)? = N (tA).


Si osservi che nel Teorema 4.24 era già stato dimostrato che R(A) N (A) = Rn e che
C(A) N (tA) = Rk .

5.5 Esercizi di riepilogo svolti


Esercizio 5.11 Siano:
u1 = (1, 1, 1, 1), u2 = ( 3, 1, 1, 1), u3 = (0, 1, 1, 2)
elementi di uno spazio vettoriale euclideo (V4 , · ), riferiti ad una sua base ortonormale
B = (e1 , e2 , e3 , e4 ).
226 Spazi Vettoriali Euclidei

1. Verificare che i vettori u1 , u2 , u3 sono a due a due ortogonali.


p
2. Trovare le componenti, rispetto a B, di un vettore u4 , di norma 2, formante un
angolo acuto con e2 e tale che la quaterna (u1 , u2 , u3 , u4 ) sia una base ortogonale
di V4 .

Soluzione 1. Si verifica subito che:


0 1
3
B 1 C
u1 · u2 = 1 1 1 1 B C
@ 1 A = 0,
1
0 1
0
B 1 C
u1 · u3 = 1 1 1 1 B C
@ 1 A = 0,
2
0 1
0
B 1 C
u2 · u3 = 3 1 1 1 B C
@ 1 A = 0.
2

2. Sia u4 = (y1 , y2 , y3 , y4 ) il vettore da determinare. Affinché u4 sia ortogonale ai tre


vettori dati, le sue componenti (y1 , y2 , y3 , y4 ) devono essere soluzione del sistema
lineare omogeneo con matrice associata A le cui righe sono le componenti dei
vettori u1 , u2 , u3 . Poiché u1 , u2 , u3 sono linearmente indipendenti, rank(A) = 3.
Le soluzioni di tale sistema lineare omogeneo sono:

(y1 = 0, y2 = t, y3 = t, y4 = 0), t 2 R.

p
La condizione ku4 k = 2 equivale all’equazione t2 = 1, vale a dire a t = ±1.
Si ottengono cosı̀ due vettori di componenti (0, 1, 1, 0) e (0, 1, 1, 0). Il vetto-
re u4 cercato è il primo in quanto la seconda componente è positiva, condizione
equivalente al fatto che l’angolo tra u4 e e2 sia acuto.

Esercizio 5.12 Sia (V, · ) uno spazio vettoriale euclideo.

1. Verificare che l’insieme F formato dai vettori di un iperpiano vettoriale H che sono
ortogonali ad un vettore u di V è un sottospazio vettoriale di V.
Capitolo 5 227

2. Nel caso in cui V abbia dimensione 4 e B = (e1 , e2 , e3 , e4 ) sia una sua base
ortonormale, sono dati:

H = {x = x1 e1 + x2 e2 + x3 e3 + x4 e4 2 V | 2x1 x3 + x4 = 0}

e u = (0, 1, 2, 1), trovare una base ortogonale di F e completarla in modo da


ottenere una base ortogonale di H.

Soluzione 1. Se u è ortogonale ad H (in particolare se u = o) allora F = H. Se u


non è ortogonale ad H, F è l’intersezione di H con l’iperpiano vettoriale H0 =
L(u)? ortogonale a u, quindi è ancora un sottospazio vettoriale di V.

2. Poiché u non è ortogonale ad H, F = H \ H0 , dove H0 è l’iperpiano vettoriale


ortogonale a u, formato dai vettori x tali che x · u = 0, pertanto:

F = {x = x1 e1 + x2 e2 + x3 e3 + x4 e4 2 V | 2x1 x3 + x4 = x2 + 2x3 + x4 = 0}.

Una base di F è C = (a1 , a2 ) con a1 = (1, 4, 2, 0), a2 = ( 1, 2, 0, 2). Per ottenere


una base ortogonale di F si può mantenere il vettore a1 e sostituire al vettore a2
il vettore b2 = a2 + a1 , determinando in modo tale che b2 · a1 = 0. Si ha
= 1/3, da cui segue:
✓ ◆
4 2 2
b2 = , , ,2 .
3 3 3
Per completare la base (a1 , b2 ) di F ad una base ortogonale di H è sufficiente
aggiungere un vettore b3 = (y1 , y2 , y3 , y4 ) appartenente ad H e ortogonale a a1 e
a b2 , ossia tale che:
8
>
> y1 + 4y2 + 2y3 = 0
>
>
<
4 2 2
> y1 + y2 y3 + 2y4 = 0
>
> 3 3 3
>
:
2y1 y3 + y4 = 0,

da cui si ottiene b3 = ( 2t, 6t, 11t, 7t), t 2 R, t 6= 0. Assegnando al parame-


tro t un valore qualsiasi, non nullo, si ottiene una delle basi richieste.

Esercizio 5.13 In R3 si consideri il prodotto scalare x · y, con x, y 2 R3 , rispetto al


quale la base:
B 0 = ((1, 1, 1), (0, 2, 1), (0, 0, 1))
risulti ortonormale.
228 Spazi Vettoriali Euclidei

1. Determinare la matrice A 2 R3,3 che permette di esprimere in forma matriciale


t
XAY il prodotto scalare x·y considerato, dove X e Y indicano le matrici colonne
delle componenti del vettore x e del vettore y, rispetto alla base canonica B di R3 .
2. Verificare che i vettori a = (0, 1, 0) e b = (0, 1, 1) sono ortogonali rispetto al
prodotto scalare considerato.

Soluzione 1. Rispetto alla base B 0 il prodotto scalare in questione è dato da:


x · y = tX 0 Y 0 (5.11)
dove X 0 e Y 0 sono le matrici colonna delle componenti dei vettori x e y riferite a
B 0 . Sia P 2 GL(3, R) la matrice del cambiamento di base dalla base canonica B
di R3 alla base B 0 . Siano X = P X 0 e Y = P Y 0 le equazioni del cambiamento di
base che determinano le relazioni tra le componenti dei vettori x e y rispetto a B
e a B 0 . Si ricava quindi:
X0 = P 1
X, Y0 =P 1
Y
e, sostituendo in (5.11) si ottiene:
t
X0 Y 0 = t
(P 1
X)(P 1
Y ) = tX t (P 1
)P 1
Y
t
= X((tP ) 1 P 1
)Y = tX(P tP ) 1 Y.
Pertanto la matrice A cercata, che permette di esprimere il prodotto scalare richie-
sto rispetto alla base B, è:
A = (P tP ) 1 .
Tenendo conto che la matrice P, le cui colonne sono, ordinatamente, le componenti
dei vettori di B 0 , è data da:
0 1
1 0 0
P = @ 1 2 0 A,
1 1 1
si ricava: 0 1
3 1
B 0
B 2 2 C
C
B C
B 1 1 C
A = (P tP ) 1
=B
B 0 C.
B 2 2 C
C
B C
@ 1 1 A
1
2 2
Capitolo 5 229

2. È immediato verificare che i vettori a e b sono ortogonali rispetto a questo prodotto


scalare, infatti si ha:
0 10 1
3 1 0
B 2 0 CB C
B 2 CB C
B CB C
B 1 1 CB C
a·b= 0 1 0 B B 0 C B 1 C = 0.
CB C
B 2 2 CB C
B CB C
@ 1 1 A@ A
1 1
2 2

5.5.1 Per saperne di più


Lo scopo di questo paragrafo è quello di introdurre un “prodotto scalare” opportuno nel
caso degli spazi vettoriali complessi in modo da potere, anche in questo contesto, definire
il concetto di ortogonalità di due vettori.

5.5.2 Spazi vettoriali hermitiani


L’operazione di prodotto scalare (cfr. Def. 5.1) introdotta su uno spazio vettoriale reale
può essere estesa mediante la seguente definizione agli spazi vettoriali complessi.

Definizione 5.7 Sia V uno spazio vettoriale su C. Si definisce prodotto hermitiano su V


la funzione:

·:V ⇥V ! C, (x, y) 7 ! x · y,
per cui valgano le seguenti proprietà:

1. x · y = y · x x, y 2 V ;

2. (x1 + x2 ) · y = x1 · y + x2 · y, x1 , x2 , y 2 V ;

3. ( x) · y = (x · y), 2 C, x, y 2 V ;

4. x · x 0, x 2 V e x · x = 0 () x = o,

dove y · x indica il complesso coniugato di y · x.

Uno spazio vettoriale complesso V su cui è definito un prodotto hermitiano “·” prende il
nome di spazio vettoriale hermitiano o di spazio vettoriale euclideo complesso e si indica,
in generale, con la scrittura (V, · ).
230 Spazi Vettoriali Euclidei

Osservazione 5.13 1. Come conseguenza delle Proprietà 1. e 3. della Definizione 5.7


si ha:

x · ( y) = ( y) · x = (y · x) = (y · x) = (x · y), 2 C, x, y 2 V.

Inoltre, dalle Proprietà 1., 2. e 3 della Definizione 5.7 si ottiene:

x · ( 1 y1 + 2 y2 ) = 1 (x · y1 ) + 2 (x · y2 ), 1, 2 2 C, x, y1 , y2 2 V. (5.12)

2. La Proprietà 4. della Definizione 5.7 ha senso in quanto x · x = x · x e pertanto


x · x è un numero reale.

Nel caso degli spazi vettoriali hermitiani valgono esempi e teoremi analoghi a quelli già
dimostrati per gli spazi vettoriali euclidei.

Esempio 5.19 Sullo spazio vettoriale complesso Cn (cfr. Es. 4.44) si può definire un pro-
dotto hermitiano che, se ristretto a Rn , coincide con il prodotto scalare standard introdotto
nell’Esempio 5.2. Precisamente si pone:
n
X
(x1 , x2 , . . . , xn ) · (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + . . . + xn yn = xi yi , (5.13)
i=1

per ogni (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) 2 Cn . Con la notazione matriciale:


0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X = B .. C , Y = B .. C
@ . A @ . A
xn yn

la (5.13) si scrive come:


X · Y = tX Y ,
dove Y indica la matrice complessa coniugata di Y. È un esercizio dimostrare che (5.13)
è un prodotto hermitiano che, spesso, prende il nome di prodotto hermitiano standard
su Cn , che viene cosı̀ dotato della struttura di spazio vettoriale hermitiano. È ancora un
esercizio dimostrare che:
X · Y = tX Y
è un altro prodotto hermitiano su Cn , che coincide con il prodotto scalare standard di Rn ,
quando lo si riferisce a numeri reali.

Ogni spazio vettoriale complesso, di dimensione finita, ammette almeno un prodotto


hermitiano, vale infatti il seguente teorema.
Capitolo 5 231

Teorema 5.9 Sia V uno spazio vettoriale complesso di dimensione n. Data una base
B = (v1 , v2 , . . .,vn ) di V, la funzione:

·:V ⇥V ! C,

definita da:
x · y = tX Y ,
dove: 0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X=B .. C, Y =B .. C
@ . A @ . A
xn yn
e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti rispettivamente di x e y rispetto
alla base B, è un prodotto hermitiano su V.

La dimostrazione è un esercizio.

La proprietà 4. della Definizione 5.7 permette, come per gli spazi vettoriali euclidei, di
definire la norma di un vettore anche nel caso di uno spazio vettoriale hermitiano (V, · ).
Infatti si definisce norma di un vettore x di V il numero reale positivo dato da:
p
kxk = x · x

ed è lasciata al Lettore la verifica della proprieà:

k xk = | | kxk, x 2 V, 2 C,

dove | | indica il modulo del numero complesso .

Esempio 5.20 Nello spazio vettoriale hermitiano (Cn , · ) con il prodotto hermitiano stan-
dard (5.13), la norma di x è data da:
v v
u n u n
uX uX
kxk = t xi xi = t |xi |2 ,
i=1 i=1

dove |xi | indica il modulo del numero complesso xi , i = 1, 2, . . . , n.

Continuano a valere, anche nel caso degli spazi vettoriali hermitiani, la disuguaglianza
di Cauchy–Schwarz e la disuguaglianza triangolare (cfr. Teor. 5.2), anche se la loro
dimostrazione è più laboriosa rispetto a quella del caso euclideo. Precisamente, vale il
teorema seguente.
232 Spazi Vettoriali Euclidei

Teorema 5.10 Su uno spazio vettoriale hermitiano (V, · ), la funzione:

k·k:V ! R, x 7 ! kxk

verifica le seguenti proprietà:

1. Teorema di Pitagora: x · y = 0 () kx + yk2 = kxk2 + kyk2 .

2. Disuguaglianza di Cauchy–Schwarz: |x · y|  kxk kyk, x, y 2 V ,


dove |x · y| indica il modulo del numero complesso x · y.

3. Disuguaglianza triangolare (o di Minkowski): kx + yk  kxk + kyk, x, y 2 V.

Dimostrazione 1. Segue da:

kx + yk2 = (x + y) · (x + y) = kxk2 + x · y + x · y + kxk2 .

2. La disuguaglianza di Cauchy–Schwarz è banalmente verificata se uno dei due vet-


tori coincide con il vettore nullo. Si supponga, quindi, che x e y siano entrambi
diversi dal vettore nullo. Si inizia la dimostrazione nel caso particolare kyk = 1.
Si ha:

0  kx (x · y) yk2 = (x (x · y) y) · (x (x · y) y)
= kxk2 (x · y)(x · y) (x · y)(y · x)
+(x · y)(x · y)kyk2
= kxk2 2|x · y|2 + |x · y|2 kyk2 = kxk2 |x · y|2 .

Quindi |x · y|  kxk se kyk = 1. Se y 6= o, si può considerare il versore di y.


Applicando allora la precedente disuguaglianza si ottiene:

y
x·  kxk,
kyk

da cui la tesi.

3. La dimostrazione è analoga a quella vista nel caso di uno spazio vettoriale euclideo
se si tiene conto che:

x · y + y · x = x · y + x · y  2|x · y|. (5.14)


Capitolo 5 233

Infatti, dato un numero complesso z = a + ib, con a, b 2 R e a = Re(z), dove


Re(z) indica la parte reale di z, si ha:

|z|2 = z z = a2 + b2 a2 = (Re(z))2 .

D’altra parte 2 Re(z) = z + z da cui:

2 Re(z) = z + z  2|z|,

ossia la (5.14).

Considerati due vettori x e y non nulli di uno spazio vettoriale hermitiano (V, ·), dalla
disuguaglianza di Cauchy–Schwarz segue che:

|x · y|
 1,
kxk kyk

ma ciò significa solo che il modulo del numero complesso (x · y)/(kxk kyk) è minore o
uguale a 1. Pertanto non è possibile nel caso degli spazi vettoriali hermitiani introdurre
il concetto di angolo tra due vettori nello stesso modo in cui è stato definito per gli spazi
vettoriali euclidei. Nonostante ciò, sugli spazi vettoriali hermitiani, come nel caso reale,
si può introdurre il concetto di ortogonalità. Più precisamente, due vettori x e y di uno
spazio vettoriale hermitiano (V, · ) si dicono ortogonali se x · y = 0. Di conseguenza, è
valida anche in questo caso la definizione di base ortogonale e ortonormale e continua a
valere anche per uno spazio vettoriale hermitiano il Lemma 5.1. Una base ortonormale su
uno spazio vettoriale hermitiano è in generale chiamata base unitaria.

Esempio 5.21 La base canonica (e1 , e2 , . . . en ) di Cn è una base unitaria dello spazio
vettoriale hermitiano (Cn , · ) con il prodotto hermitiano standard (5.13).

Inoltre, analogamente a quanto dimostrato per uno spazio vettoriale euclideo, in uno spa-
zio vettoriale hermitiano (V, · ) utilizzando il processo di ortonormalizzazione di Gram–
Schmidt (che vale anche nel caso complesso) si può costruire una base unitaria a partire
da una base di V. La dimostrazione è analoga a quella vista per il Teorema 5.5, facendo
attenzione al fatto che, a differenza del caso reale, il prodotto hermitiano non è simme-
trico, ossia non vale la relazione x · y = y · x, 8x, y 2 V, ma vale la proprietà 1. della
Definizione 5.7.

Osservazione 5.14 La disuguaglianza di Cauchy–Schwarz può essere dimostrata in molti


modi diversi. Si propone di seguito una seconda versione della dimostrazione precedente,
che, anche se più lunga, è interessante per la sua interpretazione geometrica. Infatti,
sorprendentemente, anche se in uno spazio vettoriale hermitiano non è definito l’angolo
234 Spazi Vettoriali Euclidei

tra due vettori, il prodotto hermitiano permette di introdurre la nozione di proiezione


ortogonale di un vettore su un altro vettore. Sia x un vettore non nullo, si definisce il
vettore:
x·y
w=x y,
kyk2
che, nel caso di uno spazio vettoriale euclideo, rappresenterebbe un vettore ortogonale
a y in quanto w è la differenza di x con la sua proiezione ortogonale su y. Anche in
questo caso si dimostra che w · y = 0, infatti:
✓ ◆
x·y x·y
w·y = x 2
y ·y =x·y y · y = 0.
kyk kyk2

Dal fatto che kwk2 0 si ha:


✓ ◆
x·y kxk2 kyk2 |y · x|2
0w·w =w·x= x y · x = ,
kyk2 kyk2

ossia la tesi.

Dal Teorema 5.6 segue che le matrici ortogonali esprimono il cambiamento di base tra
coppie di basi ortonormali di uno spazio vettoriale euclideo. Un risultato analogo è valido
in uno spazio vettoriale hermitiano, con la differenza che la matrice P del cambiamento
di base deve verificare la relazione:
tP P = I.

Si può allora introdurre l’insieme delle matrici unitarie di Cn,n definito da:

U (n) = {P 2 Cn,n | tP P = I},

che è l’analogo, nel caso complesso, dell’insieme O(n) delle matrici ortogonali (cfr.
(2.9)).
Si osservi che dalla relazione tP P = I si ottiene tP P = I e P 1 = tP . Inoltre, una
matrice unitaria ad elementi reali è ovviamente ortogonale ed una matrice ortogonale,
considerata come matrice complessa, è unitaria. Per le matrici unitarie valgono le seguenti
proprietà.

Teorema 5.11 1. Il prodotto di due matrici unitarie è una matrice unitaria.

2. La matrice identità I è unitaria.

3. L’inversa P 1
di una matrice unitaria P è unitaria.
Capitolo 5 235

4. La trasposta tP di una matrice unitaria P è unitaria.

5. Una matrice P 2 Cn,n è unitaria se e e solo se le righe e le colonne di P so-


no le componenti di una base ortonormale di Cn , rispetto al prodotto hermitiano
standard.

6. Il determinante di una matrice unitaria P è un numero complesso di modulo 1.

La dimostrazione, analoga a quella vista per il Teorema 5.7, è lasciata al Lettore per
esercizio.

Osservazione 5.15 Segue dalle proprietà 1., 2., 3. del Teorema 5.11 che l’insieme delle
matrici unitarie U (n) è un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). U (n)
prende il nome di gruppo unitario.

Esempio 5.22 Le matrici unitarie di ordine 1 sono facilmente individuabili, infatti si ha:

U (1) = {z 2 C | z z = 1},

si tratta, quindi, dei numeri complessi di modulo 1. Nel Capitolo 10 si vedrà un’inter-
pretazione geometrica di tale insieme. È meno semplice individuare le matrici unitarie di
ordine 2. Si dimostra che sono tutte e sole le matrici:
✓ ◆
z1 z2
A=
z2 z1

dove , z1 , z2 sono numeri complessi tali che:

| | = 1, |z1 |2 + |z2 |2 = 1.

Nel Capitolo 11 si vedrà un’interessante rappresentazione geometrica dell’insieme degli


elementi di U (2) aventi determinante 1.

Siano (V, · ) uno spazio vettoriale hermitiano di dimensione n e W un suo sottospazio


vettoriale di dimensione k  n. Come nel caso degli spazi vettoriali euclidei si può
definire il complemento ortogonale W ? di W per cui valgono le stesse proprietà del caso
reale (cfr. Teor. 5.8).

Si conclude il capitolo osservando che la norma di un vettore individua il prodotto scalare


o hermitiano che la definisce. Infatti è un facile esercizio dimostrare che in uno spazio
vettoriale euclideo reale V vale la formula:
1
x·y = kx + yk2 kxk2 kyk2 , x, y 2 V.
2
236 Spazi Vettoriali Euclidei

Più complicata la relazione analoga che vale nel caso di uno spazio vettoriale hermitiano:
1
x·y = (ktx + yk2 kxk2 kyk2 )
2
(5.15)
i
+ (kx + iyk2 kxk2 kyk2 ), x, y 2 V.
2
Capitolo 6

Applicazioni Lineari

Lo scopo di questo capitolo è quello di introdurre la nozione di applicazione lineare tra


due spazi vettoriali, mettendoli cosı̀ in relazione l’un l’altro e in modo da poter definire,
come caso particolare, il concetto di movimento rigido o euclideo in uno spazio vettoriale.

Definizione 6.1 Dati due spazi vettoriali reali V e W, si dice applicazione lineare o
omomorfismo o trasformazione lineare da V in W una funzione f : V ! W che
verifica le seguenti proprietà:

f (x + y) = f (x) + f (y),
f ( x) = f (x),

per ogni x e y in V e per ogni in R, o, equivalentemente:

f ( x + µy) = f (x) + µf (y),

per ogni x e y in V e per ogni e µ in R.

Lo spazio vettoriale V prende il nome di dominio di f, mentre lo spazio vettoriale W è il


codominio di f ; f (x) 2 W è detto vettore immagine di x 2 V mediante f. Se w = f (x)
allora il vettore x 2 V è detto vettore controimmagine di w 2 W mediante f.

Definizione 6.2 Sia f : V ! V un’applicazione lineare in cui il dominio e il codominio


coincidono, allora f è detta endomorfismo o operatore lineare o trasformazione lineare
di V.

Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la


verifica dell’eventuale linearità.

237
238 Applicazioni Lineari

Esempio 6.1 La funzione:

id : V ! V, x 7 ! x,

detta applicazione lineare identica o identità, è un’endomorfismo.

Esempio 6.2 La funzione:

O:V ! W, x 7 ! oW ,

dove oW indica il vettore nullo di W, è un’applicazione lineare, detta applicazione li-


neare nulla. Se W = V, l’endomorfismo O : V ! V, x 7 ! oV , prende il nome di
endomorfismo nullo.

Esempio 6.3 La funzione:

f : R2 ! R, (x, y) 7 ! 3x + 2y

è un’applicazione lineare.

Esempio 6.4 La funzione:

f : R2 ! R, (x, y) 7 ! 3x + 2y + 5

non è un’applicazione lineare.

Esempio 6.5 La funzione:

f : R2 ! R, (x, y) 7 ! x2 + 2y

non è un’applicazione lineare.

Esempio 6.6 La funzione:

f : V3 ! R, x7 !a·x

con “·” prodotto scalare su V3 e a vettore fissato di V3 , è lineare. Se a = o allora


f (a) = 0, cioè f è l’applicazione lineare nulla.

Esempio 6.7 La funzione:

f : V3 ! V3 , x 7 ! a ^ x,

con “^” prodotto vettoriale e a vettore fissato di V3 , è un endomorfismo. Se a = o


allora f (a) = o, ossia f è l’endomorfismo nullo.
Capitolo 6 239

Esempio 6.8 La funzione:


f : Rn,n ! R, A 7 ! det(A),
dove det(A) è il determinante della matrice A, non è un’applicazione lineare se n > 1.

Esempio 6.9 La funzione:


f : Rn,n ! R, A 7 ! tr(A),
dove tr(A) è la traccia della matrice A, è un’applicazione lineare.

Esempio 6.10 Se lo spazio vettoriale V è dato dalla somma diretta di due sottospazi
vettoriali W1 e W2 , V = W1 W2 , allora dalla Definizione 4.5 si ha che ogni vettore
x di V si decompone in modo unico come x = x1 + x2 , con x1 2 W1 e x2 2 W2 . Le
funzioni:
f1 : V ! V, x 7 ! x1 e f2 : V ! V, x 7 ! x2
sono applicazioni lineari e prendono il nome di proiezioni di V su W1 e su W2 rispetti-
vamente.
In particolare, se W è un sottospazio vettoriale di uno spazio vettoriale euclideo (V, · ),
si ha che V = W W ? , dove W ? indica il complemento ortogonale di W, allora ogni
vettore x di V si decompone in modo unico come x = xW + xW ? , con xW 2 W e
xW ? 2 W ? . L’applicazione lineare:
p:V ! V, x 7 ! xW
prende il nome di proiezione ortogonale su W .

Esempio 6.11 La funzione:


f : V2 ! V2 , (x1 , x2 ) 7 ! ( x1 , x2 ),
dove (x1 , x2 ) sono le componenti di un qualsiasi vettore di un piano vettoriale V2 rispetto
ad una base ortonormale positiva B = (i, j) (cfr. Cap. 3), è un endomorfismo di V2 . Si
tratta dell’applicazione lineare che associa ad ogni vettore di V2 il suo simmetrico rispetto
a j.

Esempio 6.12 La funzione:


f : V3 ! V3 , (x1 , x2 , x3 ) 7 ! (x1 , x2 , x3 ),
dove (x1 , x2 , x3 ) sono le componenti di un qualsiasi vettore dello spazio vettoriale V3
rispetto ad una base ortonormale positiva B = (i, j, k) (cfr. Cap. 3), è un endomorfismo di
V3 . Si tratta dell’applicazione lineare che associa ad ogni vettore di V3 il suo simmetrico
rispetto al piano vettoriale generato da i e da j.
240 Applicazioni Lineari

Esempio 6.13 La funzione:

f : Rn ! Rn , X 7 ! AX,

dove X 2 Rn (ma è considerata come matrice colonna di Rn,1 ) e A 2 Rn,n , è un


endomorfismo di Rn . Più in generale:

f : Rn ! R m , X 7 ! AX,

con X 2 Rn e A 2 Rm,n , è anch’essa un’applicazione lineare.

La dimostrazione del seguente teorema è lasciata per esercizio.

Teorema 6.1 Sia f : V ! W un’applicazione lineare tra due spazi vettoriali V e W,


si ha:

1. f (oV ) = oW ,
dove oV indica il vettore nullo di V e oW indica il vettore nullo di W ;
2. f ( x) = f (x), x2V;
3. f ( 1 x1 + 2 x2 + ... + k xk ) = 1 f (x1 ) + 2 f (x2 ) + ... + k f (xk ),

i 2 R, xi 2 V, i = 1, 2, . . . , k .

6.1 Matrice associata ad un’applicazione lineare.


Equazioni di un’applicazione lineare
Il paragrafo inizia con la dimostrazione del teorema più importante sulle applicazioni
lineari, in cui si chiarisce come si possa assegnare un’applicazione lineare tra due spazi
vettoriali di dimensione finita. È fondamentale osservare, infatti, che il teorema seguente
è valido solo nel caso in cui il dominio sia finitamente generato.

Teorema 6.2 – Teorema fondamentale delle applicazioni lineari – Sia V uno spa-
zio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato
un insieme {a1 , a2 , . . . , an } di n vettori di uno spazio vettoriale W, esiste ed è unica
l’applicazione lineare:
f :V !W
tale che:
f (vi ) = ai , i = 1, 2, . . . , n.
Capitolo 6 241

In altri termini: per assegnare un’applicazione lineare tra due spazi vettoriali V e W,
di cui almeno V di dimensione finita, è sufficiente conoscere le immagini, mediante la
funzione f, dei vettori di una base di V.

Dimostrazione Sia x = x1 v1 + x2 v2 + . . . + xn vn 2 V, si definisce f ponendo:

f (x) = x1 a1 + x2 a2 + . . . + xn an .

La dimostrazione del teorema si ottiene dai quattro punti seguenti:

1. f è una funzione, infatti il vettore f (x) è definito per ogni vettore x di V ed è


univocamente determinato, per l’esistenza e l’unicità delle componenti di x rispetto
alla base B.

2. Dalla definizione di f si ha f (vi ) = ai , i = 1, 2, . . . , n. Per esempio, f (v1 ) = a1


in quanto v1 = (1, 0, . . . , 0) rispetto alla base B, e cosı̀ via.

3. Per dimostrare la linearità di f si deve verificare che:

f ( x + µy) = f (x) + µf (y), x, y 2 V, , µ 2 R.

La tesi segue dalla definizione di f, ponendo:

x = x1 v1 + x2 v2 + . . . + xn vn , y = y1 v1 + y2 v2 + . . . + yn vn .

Poiché:

x + µy = ( x1 + µy1 )v1 + ( x2 + µy2 )v2 + . . . + ( xn + µyn )vn ,

un semplice calcolo prova che:

f ( x+µy) = ( x1 +µy1 )a1 +( x2 +µy2 )a2 +. . .+( xn +µyn )an = f (x)+µf (y).

4. L’applicazione lineare f è unica. Infatti, se esistesse un’altra applicazione lineare


g : V ! W, tale che g(vi ) = ai , i = 1, 2, . . . , n, allora si avrebbe:

g(x) = g(x1 v1 + x2 v2 + . . . + xn vn )
= x1 g(v1 ) + x2 g(v2 ) + . . . + xn g(vn )
= x1 a1 + x2 a2 + . . . + xn an ,

per ogni x 2 V, ciò implicherebbe g(x) = f (x), per ogni x 2 V e quindi g = f .


242 Applicazioni Lineari

Dal Teorema 6.2 segue che definire un’applicazione lineare tra due spazi vettoriali di di-
mensione finita equivale a conoscere le immagini degli elementi di una base del dominio.
Siano, quindi, V uno spazio vettoriale reale di dimensione n e B = (v1 , v2 , . . . , vn ) una
sua base, e W uno spazio vettoriale reale di dimensione m e C = (w1 , w2 , . . . , wm ) una
sua base. Si intende definire l’applicazione lineare f : V ! W ponendo:
8
>
> f (v1 ) = a11 w1 + a21 w2 + . . . + am1 wm
>
< f (v2 ) = a12 w1 + a22 w2 + . . . + am2 wm
.. (6.1)
>
> .
>
: f (v ) = a w + a w + . . . + a w ,
n 1n 1 2n 2 mn m

con aij 2 R, i = 1, 2, . . . , m, j = 1, 2, . . . , n, che equivale ad assegnare la matrice:


0 1
a11 a12 . . . a1n
B a21 a22 . . . a2n C
B C
A=B .. .. .. C 2 Rm,n
@ . . . A
am1 am2 . . . amn

ottenuta mettendo, ordinatamente, in colonna le immagini dei vettori della base B espres-
se rispetto alla base C . La matrice A prende il nome di matrice associata all’applicazione
lineare f rispetto alle basi B e C e si indica come:

A = M B,C (f ).

La scelta di porre in colonna le componenti è una convenzione, che si ripercuote forte-


mente sulle considerazioni successive.

Osservazione 6.1 1. Fissata una base B nel dominio V e una base C nel codominio
W, segue dal Teorema 6.2 che la matrice A = M B,C (f ) determina in modo univoco
l’applicazione lineare f : V ! W.

2. Da notare, quindi, che la matrice A associata all’applicazione lineare f : V ! W


(rispetto ad una qualsiasi coppia di basi scelta) ha un numero di righe pari alla
dimensione del codominio W e un numero di colonne pari alla dimensione del
dominio V.

3. Se V = W, la matrice associata all’endomorfismo f : V ! V, rispetto ad una


base B di V, è la matrice quadrata A = M B,B (f ). Attenzione al fatto che si può an-
che in questo caso considerare una matrice M B,C (f ) con B =6 C, che, ovviamente,
sarà diversa dalla matrice A, come si vedrà nell’Esempio 6.14.
Capitolo 6 243

In notazione matriciale le relazioni (6.1) si scrivono come:


0 1 0 1
f (v1 ) w1
B f (v2 ) C B w2 C
B C B C
B .. C = tA B .. C. (6.2)
@ . A @ . A
f (vn ) wm

Dato un generico vettore x di V, ci si propone di calcolare la sua immagine f (x) me-


diante la matrice A. Sia: 0 1
x1
B x2 C
B C
X = B .. C
@ . A
xn
la matrice colonna delle componenti di x rispetto alla base B. Si ponga:

f (x) = y1 w1 + y2 w2 + . . . + ym wm ,

se si indica con: 0 1
y1
B y2 C
B C
Y =B .. C
@ . A
ym
la matrice colonna delle componenti di f (x) rispetto alla base C , allora:
0 1
w1
B w2 C
B C
t
f (x) = Y B .. C. (6.3)
@ . A
wm

Per la linearità di f si ha:

f (x) = f (x1 v1 + x2 v2 + . . . + xn vn )
= x1 f (v1 ) + x2 f (v2 ) + . . . + xn f (vn )
0 1
f (v1 )
B f (v2 ) C
tB C
= XB .. C.
@ . A
f (vn )
244 Applicazioni Lineari

Da (6.3) e da (6.2) segue:


0 1 0 1 0 1
w1 f (v1 ) w1
B w2 C B f (v2 ) C B w2 C
B
t C t B C t t B C
f (x) = Y B .. C= XB .. C = X AB .. C,
@ . A @ . A @ . A
wm f (vn ) wm

ossia, per l’unicità delle componenti di un vettore rispetto ad una base, si ottiene:
t
Y = tX tA

e quindi:
Y = A X, (6.4)
che è il legame cercato tra le componenti, rispetto alla base B, di un vettore x del dominio
V e le componenti della sua immagine f (x), rispetto alla base C . Il sistema lineare, di
m equazioni nelle n incognite (x1 , x2 , . . . , xn ), associato all’equazione matriciale (6.4)
prende il nome di sistema lineare delle equazioni dell’applicazione lineare f , rispetto
alle basi B e C .

Gli esempi che seguono mettono in luce la fondamentale importanza della matrice asso-
ciata ad un’applicazione lineare e delle sue equazioni.

Esempio 6.14 La matrice associata all’identità:

id : V ! V, x 7 ! x,

rispetto ad una qualsiasi base B = (v1 , v2 , . . . , vn ) di V, è la matrice unità I di ordine


n (cfr. Es. 6.1). Se si considera un’altra base B 0 = (v10 , v20 , . . . , vn0 ) di V, si ha, invece,
che la matrice associata all’identità rispetto alla base B nel dominio e alla base B 0 nel
0
codominio, M B,B (id), coincide con la matrice del cambiamento di base da B 0 a B. In-
0
fatti, id(vj ) = vj , per ogni j = 1, 2, . . . , n, e quindi per costruzione la matrice M B,B (id)
ha sulle colonne le componenti dei vettori vj della base B rispetto alla base B 0 . Sia
0
P = M B,B la matrice del cambiamento di base da B a B 0 (cfr. Par. 4.3.4), allora:
0
M B,B (id) = P 1 .

Ponendo:

id(x) = id(x1 v1 + x2 v2 + . . . + xn vn ) = x01 v10 + x02 v20 + . . . + x0n vn0

segue che le equazioni dell’applicazione lineare id in questo caso sono:

X0 = P 1
X,
Capitolo 6 245

dove con X si indica la matrice colonna delle componenti del vettore x rispetto alla
base B e con X 0 la matrice colonna delle componenti del vettore id(x) rispetto alla
base B 0 . Si osservi che le equazioni dell’endomorfismo id coincidono con le equazioni
del cambiamento di base da B 0 a B. In altri termini la matrice associata all’identità è
la matrice unità se e solo se essa è scritta rispetto alla stessa base nel dominio e nel
codominio.

Esempio 6.15 La matrice associata all’endomorfismo nullo:


O:V ! V, x 7 ! o,
rispetto ad una qualsiasi base B di V, è la matrice nulla O di ordine n se dim(V ) = n
(cfr. Es. 6.2).

Esempio 6.16 Le equazioni, rispetto alla base canonica B di R3 , dell’endomorfismo:


f : R3 ! R3 , (x, y, z) 7 ! (2x + 3y, y, 3x 2z)

sono: 8 0
< x = 2x + 3y
y0 = y (6.5)
: 0
z = 3x 2z,
dove (x0 , y 0 , z 0 ) = f ((x, y, z)). Quindi la matrice associata all’applicazione lineare f,
rispetto alla base canonica di R3 , è:
0 1
2 3 0
A=@ 0 1 0 A.
3 0 2

Di conseguenza, l’immagine del vettore (2, 0, 3) si calcola mediante il prodotto:


0 10 1
2 3 0 2
@ 0 1 0 A @ 0 A
3 0 2 3
oppure sostituendo ordinatamente in (6.5) i numeri 2, 0, 3 al posto di x, y, z , rispettiva-
mente.

Esempio 6.17 Si consideri di nuovo l’Esempio 6.7. In V3 , spazio vettoriale dei vettori
ordinari riferito ad una base ortonormale positiva B = (i, j, k), si definisce l’endomorfi-
smo:
f : V3 ! V3 , x 7 ! a ^ x,
con a vettore di V3 . La matrice associata ad f , rispetto alla base B, può essere determi-
nata in due modi:
246 Applicazioni Lineari

1. si calcola f (x), ponendo x = x1 i + x2 j + x3 k e a = a1 i + a2 j + a3 k. Si ha:

f (x) = ( a3 x2 + a2 x3 )i + (a3 x1 a1 x3 )j + ( a2 x1 + a1 x2 )k,

allora la matrice associata ad f, rispetto alla base B, è:


0 1
0 a3 a2
A = @ a3 0 a1 A.
a2 a1 0

Si osservi che A è una matrice antisimmetrica.

2. Si può pervenire alla matrice A calcolando le immagini dei vettori della base B
e mettendo sulle colonne, rispettivamente, le componenti di f (i), f (j), f (k), di
nuovo rispetto alla base B.

Se a è il vettore nullo, allora A coincide con la matrice nulla O 2 R3,3 e f è l’endomor-


fismo nullo.

Esempio 6.18 Rispetto alle basi canoniche B del dominio e C del codominio, la matrice
associata all’applicazione lineare f : R3 ! R2,2 definita da:
✓ ◆
a a+b
f ((a, b, c)) =
a+b+c 0

è la matrice appartenente a R4,3 data da:


0 1
1 0 0
B 1 1 0 C
A=B
@ 1
C.
1 1 A
0 0 0

Da notare che le equazioni dell’applicazione lineare f, rispetto alle basi B e C , sono:


8 0
>
> a =a
< 0
b =a+b
>
> c0 = a + b + c
: 0
d =0
con: ✓ ◆
a0 b 0
f ((a, b, c)) = .
c0 d0
Capitolo 6 247

Esercizio 6.1 Si scrivano le matrici associate alle applicazioni lineari introdotte negli
Esempi 6.3, 6.6, 6.9, 6.10, 6.11, 6.12, 6.13, dopo aver fissato basi opportune nel dominio
e nel codominio.

Esercizio 6.2 In R3 , rispetto alla base canonica B = (e1 , e2 , e3 ), è dato l’endomorfismo


f tale che: 8
< f (e1 ) f (e2 ) f (e3 ) = o
2f (e1 ) f (e2 ) = 3e1 + 2e2 e3
:
f (e1 ) + f (e2 ) = 3e1 e2 + 2e3 ,
determinare la matrice A = M B,B (f ) associata ad f rispetto alla base canonica B di R3
e scrivere le equazioni di f.

Soluzione Si osservi che si ottiene la matrice A risolvendo il sistema lineare di equa-


zioni vettoriali assegnato e si osservi anche che la soluzione esiste ed è unica se e solo se
la matrice dei coefficienti di tale sistema lineare ha rango massimo. Si proceda, quindi,
con la riduzione per righe della matrice completa:
0 1 0 1
1 1 1 0 0 0 1 1 1 0 0 0
@ 2 !
1 0 3 2 1 A @ 2 1 0 3 2 1 A
R3 ! R3 + R2
1 1 0 3 1 2 1 0 0 6 1 1

da cui si ha: 8
< f (e1 ) = (6, 1, 1)
2f (e1 ) f (e2 ) = (3, 2, 1)
:
f (e1 ) f (e2 ) f (e3 ) = (0, 0, 0),
quindi: 8
< f (e1 ) = 6e1 + e2 + e3
f (e2 ) = 9e1 + 3e3
:
f (e3 ) = 3e1 + e2 2e3 ,
di conseguenza la matrice cercata è:
0 1
6 9 3
A= @ 1 0 1 A.
1 3 2

Le equazioni di f, rispetto alla base canonica B di R3 , sono:


8
< y1 = 6x1 + 9x2 3x3
y2 = x1 + x3
:
y3 = x1 + 3x2 2x3 ,

con f ((x1 , x2 , x3 )) = (y1 , y2 , y3 ).


248 Applicazioni Lineari

6.2 Cambiamenti di base e applicazioni lineari


Per la lettura di questo paragrafo si deve fare costante riferimento al Paragrafo 4.3.4 sul
cambiamento di base in uno spazio vettoriale. Si vogliono, infatti, determinare le relazioni
che intercorrono tra tutte le matrici associate alla stessa applicazione lineare, costruite
cambiando base sia nel dominio sia nel codominio. Si ricordi ciò che è stato dimostrato
nel paragrafo precedente. Dati due spazi vettoriali reali V e W con dim(V ) = n e
base B = (v1 , v2 , . . . , vn ), con dim(W ) = m e base C = (w1 , w2 , . . . , wm ), si indichi
con A = M B,C (f ) 2 Rm,n la matrice associata ad un’applicazione lineare f : V ! W,
rispetto alle basi B e C. Sia X 2 Rn,1 la matrice colonna delle componenti di un generico
vettore x di V, rispetto alla base B, allora la matrice colonna Y delle componenti del
vettore f (x), rispetto alla base C, è data dall’equazione (6.4):
Y = AX.

Si inizia con l’effettuare un cambiamento di base in V. Sia B 0 = (v10 , v20 , . . . , vn0 ) un’altra
base di V, indicata con X 0 2 Rn,1 la matrice colonna delle componenti del vettore x,
rispetto alla base B 0 , le equazioni del cambiamento di base sono:
X = P X 0, (6.6)

dove P è la matrice invertibile di ordine n del cambiamento di base da B a B 0. Si effettua


anche un cambiamento di base in W. Sia C 0 = (w10 , w20 , . . . , wm
0
) un’altra base di W,
indicata con Y 0 2 Rm,1 la matrice colonna delle componenti del vettore f (x), rispetto
alla base C 0 , le equazioni del cambiamento di base sono:
Y = QY 0 , (6.7)

dove Q è la matrice invertibile di ordine m del cambiamento di base da C a C 0 . Di


0 0
conseguenza, indicata con A0 = M B ,C (f ) 2 Rm,n la matrice associata ad f, rispetto alle
basi B 0 e C 0 , le equazioni di f, rispetto a tali basi, sono:
Y 0 = A0 X 0 . (6.8)

Scopo di questo paragrafo è quello di individuare la relazione che intercorre tra le matrici
A e A0 . Sostituendo le equazioni (6.6) e (6.7) in (6.4) si ha:
QY 0 = AP X 0
da cui, tenendo conto che la precedente uguaglianza è valida per ogni X 0 2 Rn,1 , segue:
A0 = Q 1AP (6.9)

che stabilisce il legame cercato tra le matrici A e A0 associate all’applicazione lineare f .


Capitolo 6 249

Osservazione 6.2 Le matrici associate ad una applicazione lineare f : V ! W tra


due spazi vettoriali V e W sono infinite, in quanto le basi di V e di W sono infinite.
Due matrici A e A0 , entrambe appartenenti a Rm,n , rappresentano la stessa applicazione
lineare se e solo se esistono una matrice invertibile P 2 Rn,n e una matrice invertibile
Q 2 Rm,m per le quali vale la relazione (6.9).

Nel caso particolare di un endomorfismo f : V ! V ed effettuando un solo cambia-


mento di base nello spazio vettoriale V, cioè considerando nel dominio e nel codominio
lo stesso cambiamento di base, la (6.9) si riduce a:

A0 = P 1AP. (6.10)

Le matrici di questo tipo rivestono una grande importanza in algebra lineare e hanno una
particolare denominazione, come stabilisce la definizione che segue.

Definizione 6.3 Due matrici quadrate A e A0 , entrambe di ordine n, si dicono simili se


esiste una matrice invertibile P di ordine n tale che A0 = P 1AP.

Le matrici simili sono legate dalle seguenti proprietà.

Teorema 6.3 Matrici simili hanno:

1. determinante uguale,

2. traccia uguale.

Dimostrazione 1. Segue dal Teorema 2.16, punto 2.

2. È già stato dimostrato in (2.13) nel Capitolo 2.

Esercizio 6.3 In R4 sono dati i vettori:

v1 = (1, 2, 0, 1), v2 = (1, 0, 1, 0), v3 = ( 1, 0, 0, 2), v4 = (0, 1, 0, 1),

dopo aver verificato che essi costituiscono una base C di R4 , si consideri l’endomorfismo
g di R4 cosı̀ definito:

g(v1 ) = v1 , g(v2 ) = 2v1 + v2 , g(v3 ) = v2 + v3 , g(v4 ) = v3 .

Si scrivano le matrici associate a g sia rispetto alla base C sia rispetto alla base canonica
B di R4 .
250 Applicazioni Lineari

Soluzione La matrice P, ottenuta mettendo in colonna le componenti dei vettori di C


rispetto alla base B, è la matrice del cambiamento di base da B a C se e solo se ha rango
4, infatti si ha che: 0 1
1 1 1 0
B 2 0 0 1 C
P =B @ 0 1
C
0 0 A
1 0 2 1
e det(P ) = 1. La matrice associata a g rispetto alla base C è:
0 1
1 2 0 0
B 0 1 1 0 C
A0 = M C,C (g) = B @ 0 0
C.
1 1 A
0 0 0 0

Da (6.10) segue che la matrice A associata a g , rispetto alla base canonica B di R4 , si


ottiene dal prodotto:
A = P A0 P 1 .

6.3 Immagine e controimmagine di sottospazi vettoriali


Sia f : V ! W un’applicazione lineare tra due spazi vettoriali reali V e W. In questo
paragrafo si intendono studiare l’immagine mediante f di un generico sottospazio vetto-
riale H di V e la controimmagine mediante f di un generico sottospazio vettoriale K di
W. Si inizia con la seguente definizione.

Definizione 6.4 Sia f : V ! W un’applicazione lineare tra due spazi vettoriali V e


W e sia H un sottospazio vettoriale di V, il sottoinsieme di W :

f (H) = {f (x) 2 W | x 2 H}

prende il nome di immagine del sottospazio vettoriale H mediante f .

È molto facile e intuitivo il teorema che segue, la cui dimostrazione è lasciata al Let-
tore per esercizio ed è una conseguenza delle definizioni di sottospazio vettoriale e di
immagine di un sottospazio vettoriale.

Teorema 6.4 Sia H ✓ V un sottospazio vettoriale di V, allora l’insieme f (H), imma-


gine del sottospazio vettoriale H mediante un’applicazione lineare f : V ! W, è un
sottospazio vettoriale dello spazio vettoriale W.
Capitolo 6 251

Se dim(V ) = n e dim(H) = h con h  n, data una base (a1 , a2 , . . . , ah ) di H, allora


ogni vettore x di H si esprime come x = x1 a1 + x2 a2 + . . . + xh ah , con x1 , x2 , . . . , xh
numeri reali. Di conseguenza, per la linearità di f, si ha:

f (x) = x1 f (a1 ) + x2 f (a2 ) + . . . + xh f (ah )

da cui segue che i vettori f (a1 ), f (a2 ), . . . , f (ah ) sono generatori di f (H). In altri
termini:
dim(f (H))  h.
Per determinare una base di f (H) è sufficiente estrarre una base dal suo sistema di
generatori {f (a1 ), f (a2 ), . . . , f (ah )}.

Esercizio 6.4 Sia f : R3 ! R4 l’applicazione lineare definita da:

f ((x1 , x2 , x3 )) = (x1 + x2 , 2x1 + x2 + x3 , x1 + x3 , x2 x3 ),

calcolare una base e la dimensione di f (H), dove:

H = {(x1 , x2 , x3 ) 2 R3 | x1 + x2 + x3 = 0}.

Soluzione Si verifica che dim(H) = 2 e, rispetto alla base canonica di R3 , una base di
H è data da (a1 , a2 ), con:

a1 = (1, 0, 1), a2 = (0, 1, 1),

allora f (H) è generato dai vettori:

f (a1 ) = (1, 1, 0, 1), f (a2 ) = (1, 0, 1, 2),

scritti rispetto alla base canonica di R4 . Si tratta di due vettori linearmente indipendenti,
pertanto costituiscono una base di f (H) e dim(f (H)) = 2.

Data l’applicazione lineare f : V ! W tra due spazi vettoriali V e W, come caso


particolare di immagine di un sottospazio vettoriale di V si può considerare il sottospazio
vettoriale di W dato da f (V ), ciò suggerisce la seguente definizione.

Definizione 6.5 Si definisce sottospazio immagine e si indica con im f il sottospazio


vettoriale f (V ) di W.

In generale dim(im f )  dim(W ) e, in modo naturale, si ha il seguente teorema.

Teorema 6.5 Un’applicazione lineare f : V ! W tra due spazi vettoriali V e W è


suriettiva se e solo se im f = W.
252 Applicazioni Lineari

Osservazione 6.3 Se f : V ! W e se dim(V ) = n, data una base B = (v1 , v2 , . . . , vn )


di V, allora:
im f = L(f (v1 ), f (v2 ), . . . , f (vn ))
quindi:
dim(im f )  dim(V ).
Se dim(W ) = m e C = (w1 , w2 , . . . , wm ) è una base di W, indicata con A la matrice di
Rm,n associata ad f rispetto alle basi B e C , dal Paragrafo 6.1 segue che:
dim(im f ) = dim(C(A)) = rank(A),

dove C(A) indica lo spazio vettoriale delle colonne della matrice A.

Vale anche l’evidente ma importante teorema di seguito enunciato.

Teorema 6.6 Tutte le matrici associate alla stessa applicazione lineare hanno lo stesso
rango. In particolare matrici simili hanno lo stesso rango.

Osservazione 6.4 1. f : V ! W è suriettiva se e solo se:


rank(A) = dim(W )
dove A è una qualsiasi matrice associata ad f .
2. Non esiste alcuna applicazione lineare suriettiva da R2 in R3 . Perché?

Esercizio 6.5 Si calcoli im f, dove f : R3 ! R4 è l’applicazione lineare definita


nell’Esercizio 6.4.

Soluzione La matrice associata ad f, rispetto alle basi canoniche di R3 e di R4 , è:


0 1
1 1 0
B 2 1 1 C
A=B @ 1 0
C;
1 A
0 1 1
riducendo A per colonne si ottiene:

0 1 0 1 0 1
1 1 0 1 0 0 1 0 0
B 2 1 1 C ! B 2 1 1 C ! B 2 1 0 C
B C B C B C
@ 1 0 1 A C2 ! C2 C1 @ 1 1 1 A C3 ! C3 + C2 @ 1 1 0 A
0 1 1 0 1 1 0 1 0

quindi rank(A) = 2 da cui dim(im f ) = 2. Una base di im f è data dalle due colonne
non nulle della matrice ridotta per colonne, ossia im f = L((1, 2, 1, 0), (0, 1, 1, 1)).
Capitolo 6 253

Osservazione 6.5 Se si riduce per righe una qualsiasi matrice A associata ad un’appli-
cazione lineare f : V ! W si ottiene una matrice A0 , ridotta per righe, tale che
rank(A) = rank(A0 ) = dim(im f ) ma in generale lo spazio vettoriale C(A) delle co-
lonne di A è diverso dallo spazio vettoriale C(A0 ) delle colonne di A0 . Pertanto ci si deve
ricordare che per determinare una base di im f (e non solo la sua dimensione) si deve
ridurre la matrice A per colonne e non per righe.

Si intende ora discutere il problema analogo al calcolo dell’immagine di un sottospazio


vettoriale del dominio di un’applicazione lineare, ma relativo ad un sottospazio vettoriale
K del codominio. Si deve pertanto enunciare la seguente definizione.

Definizione 6.6 Sia f : V ! W un’applicazione lineare tra i due spazi vettoriali V


e W. Si definisce controimmagine di un sottospazio vettoriale K di W mediante f il
sottoinsieme di V dato da:
1
f (K) = {x 2 V | f (x) 2 K},

vale a dire l’insieme delle controimmagini di tutti i vettori di K.

Anche in questo caso si può dimostrare un teorema analogo al Teorema 6.4.

Teorema 6.7 La controimmagine f 1


(K) di un sottospazio vettoriale K di W è un
sottospazio vettoriale di V.

Dimostrazione Dalla definizione di sottospazio vettoriale (cfr. Def. 4.2) segue che è
necessario dimostrare che per ogni x1 , x2 2 f 1 (K) e per ogni , µ 2 R si ha:
1
x1 + µx2 2 f (K).

Ciò significa che si deve dimostrare che f ( x1 + µx2 ) è un vettore di K. Per la linearità
di f segue:
f ( x1 + µx2 ) = f (x1 ) + µf (x2 ).
Poiché x1 , x2 2 f 1 (K), le loro immagini f (x1 ) e f (x2 ) appartengono a K, cosı̀ come
la loro somma e il loro prodotto per numeri reali, essendo K un sottospazio vettoriale di
W.

Osservazione 6.6 Si faccia molta attenzione a non confondere (a causa della notazione
usata) il sottospazio vettoriale f 1 (K) con la funzione inversa f 1 (se esiste) di f che
sarà definita nel Paragrafo 6.4.

Esercizio 6.6 In quali casi la controimmagine di un sottospazio vettoriale coincide con


tutto il dominio? Invece è evidente che f 1 (K) = f 1 (K \ im f ).
254 Applicazioni Lineari

Esercizio 6.7 Data l’applicazione lineare f : R3 ! R4 introdotta nell’Esercizio 6.4 si


calcoli la controimmagine del sottospazio vettoriale K di R4 definito da:

K = {(y1 , y2 , y3 , y4 ) 2 R4 | y1 + y2 = 0}.

Soluzione Il sottospazio vettoriale K è dato da:

K = {(t1 , t1 , t2 , t3 ) | t1 , t2 , t3 2 R},

quindi i vettori x 2 R3 la cui immagine appartiene a K sono le soluzioni dell’equazione


matriciale AX = Y, con A matrice associata ad f (rispetto alle basi canoniche di R3 e
di R4 ), X matrice colonna delle componenti di x rispetto alla base canonica di R3 e Y
matrice colonna delle componenti, rispetto alla base canonica di R4 , del generico vettore
di K. In questo caso si ha:
0 1 0 1
1 1 0 t1 1 1 0 t1
B 2 C ! B
B 1 1 t1 C 0 1 1 3t1 C
@ 1 A R2 ! R2 2R1 B
@
C
0 1 t2 0 1 1 t2 t1 A
R3 ! R3 R1
0 1 1 t3 0 1 1 t3
0 1
1 1 0 t1
! B 0 1 1 3t1 C
R3 ! R3 R2 B @ 0
C
0 0 2t1 + t2 A
R4 ! R4 + R2
0 0 0 t3 3t1
da cui si ottiene che il sistema lineare è compatibile se e solo se:

2t1 + t2 = 0,
3t1 + t3 = 0,

ossia se t2 = 2t1 e t3 = 3t1 con t1 2 R.


Si controlli, per esercizio, che le condizioni ottenute coincidono con l’imporre che i vettori
(t1 , t1 , t2 , t3 ) appartengano a K \ im f. Risolvendo il sistema lineare associato alla
matrice ridotta per righe:
0 1
1 1 0 t1
B 0 1 1 3t1 C
B C
@ 0 0 0 0 A
0 0 0 0
Capitolo 6 255

si ottiene: 8
< x1 = t1
x2 =
:
x3 = 3t1 + , , t1 2 R,
da cui segue:
1
f (K) = L(( 1, 1, 1), (1, 0, 3)).
Si osservi che, in alternativa, in questo caso, si poteva pervenire allo stesso risultato
sostituendo nell’equazione di K : y1 + y2 = 0 le equazioni di f :
8
>
> y1 = x1 + x2
<
y2 = 2x1 + x2 + x3 ,
>
> y3 = x1 + x3 ,
:
y4 = x2 x3 ,
da cui segue:
3x1 + 2x2 + x3 = 0
che è l’equazione di f 1
(K), rispetto alla base canonica di R3 .

Estremamente importante è il caso particolare della controimmagine del sottospazio vet-


toriale improprio {oW } del codominio, per cui vale la seguente definizione.

Definizione 6.7 Il nucleo di un’applicazione lineare f : V ! W tra due spazi vetto-


riali V e W è il sottospazio vettoriale di V controimmagine del sottospazio vettoriale
{oW } del codominio W e si indica con:

ker f = {x 2 V | f (x) = oW }.

Osservazione 6.7 Il fatto che ker f sia un sottospazio vettoriale di V segue dal Teorema
6.7.

Esempio 6.19 Nel caso dell’identità, definita nell’Esempio 6.1, si ha che ker id = {o} e
im id = V.

Esempio 6.20 Nel caso dell’applicazione nulla, definita nell’Esempio 6.2, ker O = V e
im O = {oW }.

Esempio 6.21 L’applicazione lineare definita nell’Esempio 6.6 ha come nucleo il piano
vettoriale ortogonale al vettore a, cioè ker f = L(a)? , mentre im f = R.
256 Applicazioni Lineari

Il calcolo del sottospazio vettoriale im f costituisce un test per valutare l’eventuale su-
riettività dell’applicazione lineare f . Lo studio di ker f , invece, è legato all’iniettività di
f , e precisamente vale il seguente teorema.

Teorema 6.8 Sia f : V ! W un’applicazione lineare tra gli spazi vettoriali V e W,


f è iniettiva se e solo se ker f = {oV }.

Dimostrazione Se ker f = {oV } si tratta di dimostrare che f è iniettiva, ossia che se


f (x) = f (y), con x, y 2 V allora x = y. Ma da f (x) = f (y) segue, per la linearità di
f , che f (x y) = oW , cioè x y = oV da cui la tesi.
Viceversa, se f è iniettiva e se si suppone che x 2 ker f , allora f (x) = f (oV ) = oW , da
cui x = oV .

Per il calcolo esplicito di ker f, si consideri la matrice A = M B,C (f ) associata al-


l’applicazione lineare f : V ! W , rispetto alle basi B = (v1 , v2 , . . . , vn ) di V e
C = (w1 , w2 , . . . , wm ) di W. Per definizione, un vettore x 2 V appartiene a ker f se
f (x) = oW , che, usando le equazioni dell’applicazione lineare f scritte rispetto alle basi
B e C , equivale a:

AX = O, (6.11)
dove X indica la matrice colonna delle componenti di x rispetto alla base B e O 2 Rn,1
è la matrice colonna nulla. Quindi calcolare ker f equivale a risolvere il sistema lineare
omogeneo (6.11). Dal Teorema 4.23 segue:
dim(ker f ) = dim(V ) rank(A). (6.12)

Esempio 6.22 Si calcoli ker f nel caso dell’applicazione lineare introdotta nell’Esercizio
6.4 e studiata anche nell’Esercizio 6.5. Riducendo per righe la matrice A associata ad f ,
rispetto alle basi canoniche di R3 e R4 , si ha:
0 1 0 1
1 1 0 1 1 0
B 2 1 !
1 CC R2 ! R2 2R1 B 0
B 1 1 C
A=B @ 1 0
C
1 A @ 0 1 1 A
R3 ! R3 R1
0 1 1 0 1 1
0 1
1 1 0
! B 0 1 1 C
R3 ! R3 R2 B @ 0
C
0 0 A
R4 ! R4 + R2
0 0 0

da cui si ottiene che rank(A) = 2 = dim(im f ), mentre dim(ker f ) = 1 = 3 2. Risol-


vendo il sistema lineare omogeneo ridotto associato alla matrice ridotta per righe prima
Capitolo 6 257

ottenuta segue che ker f = L(( 1, 1, 1)). Si ricordi che, per determinare esplicitamente
im f , si deve ridurre la matrice A per colonne, come spiegato nell’Esercizio 6.5.

Esercizio 6.8 Sia f : R3 ! R3 l’endomorfismo definito da:


8
< f (e1 ) = 2e1
f (e2 ) = e1 + e2 + e3
:
f (e3 ) = e1 + e2 e3 ,

con B = (e1 , e2 , e3 ) base canonica di R3 . Calcolare ker f e im f .

Soluzione La matrice associata ad f, rispetto alla base canonica B di R3 , è:


0 1
2 1 1
A=@ 0 1 1 A.
0 1 1

Poiché det(A) = 4, il rango di A è 3, quindi dim(im f ) = 3, ossia im f = R3 e


dim(ker f ) = 0, da cui ker f = {o}. Quindi f è sia iniettiva sia suriettiva.

Il teorema che segue stabilisce che l’iniettività di un’applicazione lineare f è equivalente


al fatto che dim(f (H)) = dim(H), per ogni sottospazio vettoriale H del dominio.

Teorema 6.9 L’applicazione lineare f : V ! W tra due spazi vettoriali V e W è


iniettiva se e solo se l’immagine di ogni insieme libero di V è un insieme libero di W.

Dimostrazione Sia f : V ! W un’applicazione lineare iniettiva e sia {a1 , a2 , . . . , ak }


un insieme di vettori linearmente indipendenti di V, si tratta di dimostrare che l’insieme
di vettori {f (a1 ), f (a2 ), . . . , f (ak )} di W è libero. La tesi segue dalla definizione di vet-
tori linearmente indipendenti e dal Teorema 6.8. Infatti, se si considera la combinazione
lineare:
1 f (a1 ) + 2 f (a2 ) + . . . + k f (ak ) = oW ,

con 1, 2, . . . , k 2 R, per la linearità di f si ha:

f ( 1 a1 + 2 a2 + ... + k ak ) = oW

e, quindi, per l’iniettività di f segue 1 = 2 = . . . = k = 0.


Viceversa, sia x 6= oV , allora {x} è un insieme libero in V e quindi per ipotesi an-
che l’insieme {f (x)} è un insieme libero. Pertanto f (x) 6= oW , da cui segue che
necessariamente ker f = {oV }, quindi la tesi.
258 Applicazioni Lineari

Definizione 6.8 Dati due spazi vettoriali V e W, un’applicazione lineare f : V ! W


che sia biiettiva (cioè iniettiva e suriettiva) prende il nome di isomorfismo tra V e W. Se
è possibile definire un isomorfismo tra due spazi vettoriali, questi si dicono isomorfi. Un
endomorfismo f : V ! V biiettivo prende il nome di automorfismo di V.

Il teorema che segue stabilisce un’importante relazione tra le dimensioni di ker f e di V


ed il rango di una qualunque matrice associata all’applicazione lineare f : V ! W,
ottenendo in questo modo un’altra dimostrazione del Teorema del Rango 4.19.

Teorema 6.10 – Teorema del Rango – Sia f : V ! W un’applicazione lineare tra


due spazi vettoriali V e W, allora:

dim(ker f ) + dim(im f ) = dim(V ).

Dimostrazione Si supponga che dim(V ) = n e dim(ker f ) = h  n. Se h = 0 e se


h = n il teorema è dimostrato (perché?). Sia dunque h < n e sia (a1 , a2 , . . . , ah ) una
base di ker f . Usando il Teorema 4.15 si completi tale insieme libero di vettori fino ad
ottenere la base di V (a1 , a2 , . . . , ah , b1 , b2 , . . . , bn h ). Dall’Osservazione 6.3 si ha che:

{f (a1 ), f (a2 ), . . . , f (ah ), f (b1 ), f (b2 ), . . . , f (bn h )}

è un sistema di generatori di im f . Poiché f (a1 ) = oW , f (a2 ) = oW , . . . , f (ah ) = oW ,


la tesi segue se si dimostra che C = {f (b1 ), f (b2 ), . . . , f (bn h )} è un insieme libero di
W e, quindi, una base di im f . Per provare l’indipendenza lineare dei vettori di C si pone:

1 f (b1 ) + 2 f (b2 ) + ... + n h f (bn h ) = oW ,

con i 2 R, i = 1, 2, . . . , n h, ossia:

f ( 1 b1 + 2 b2 + ... + + n h bn h ) = oW ,

da cui segue che il vettore 1 b1 + 2 b2 + . . . + + n h bn h appartiene a ker f, come tale


si può scrivere come combinazione lineare dei vettori della base (a1 , a2 , . . . , ah ) di ker f .
Dall’espressione esplicita di tale combinazione lineare e dal fatto che (a1 , a2 , . . . , ah , b1 ,
b2 , . . . , bn h ) è una base di V segue che 1 = 2 = . . . = n h = 0, ovvero la tesi.

Osservazione 6.8 Si osservi che, nelle ipotesi del teorema precedente,

dim(ker f ) = dim(N (A)) = n dim(R(A)),

dove A indica una matrice associata ad f, rispetto ad una base di V e ad una base di
W, N (A) è il nullspace di A e R(A) indica lo spazio vettoriale delle righe di A. Dal
Capitolo 6 259

fatto che dim(im f ) = dim(C(A)), con C(A) spazio vettoriale delle colonne di A, segue
quindi che:
dim(R(A)) = dim(C(A)),
vale a dire il Teorema del Rango 4.19. Infatti ogni matrice A 2 Rm,n può sempre essere
considerata come associata ad un’applicazione lineare f : Rn ! Rm , rispetto alle basi
canoniche di Rn e di Rm .

Nel caso particolare di un endomorfismo di V, tutti i risultati man mano ottenuti si


possono riassumere nel seguente teorema, la cui dimostrazione è lasciata per esercizio.

Teorema 6.11 1. Sia f : V ! W un’applicazione lineare tra due spazi vettoriali


V e W con dim(V ) = dim(W ), allora f è iniettiva se e solo se f è suriettiva.
2. Sia f : V ! W un’applicazione lineare tra due spazi vettoriali V e W con
dim(V ) = dim(W ), allora:
a. f è un isomorfismo se e solo se ker f = {oV }.
b. f è un isomorfismo se e solo se im f = W.
3. Sia f : V ! V un endomorfismo di uno spazio vettoriale reale V, allora:
a. f è un automorfismo se e solo se ker f = {oV }.
b. f è un automorfismo se e solo se im f = V.

Osservazione 6.9 Il teorema precedente, il Teorema 6.8 e l’Osservazione 6.4 possono


essere riscritti in termini di una qualsiasi matrice associata ad un’applicazione lineare f
nel modo seguente.
1. Sia f : V ! W un’applicazione lineare tra due spazi vettoriali V e W, con
dim(V ) = n e sia B = (v1 , v2 , . . . , vn ) una base di V. Sia dim(W ) = m e
sia C = (w1 , w2 , . . . , wm ) una base di W. Si indichi con A 2 Rm,n la matrice
M B,C (f ) associata a f, rispetto alle basi B e C, allora:
rank(A) = n () f è iniettiva,
rank(A) = m () f è suriettiva.

2. Sia f : V ! W un’applicazione lineare tra due spazi vettoriali V e W tali


che dim(V ) = dim(W ) = n. Sia B = (v1 , v2 , . . . , vn ) una base di V e sia
C = (w1 , w2 , . . . , wn ) una base di W. Si indichi con A 2 Rn,n la matrice quadrata
M B,C (f ) associata a f, rispetto alle basi B e C, allora:
rank(A) = n () det(A) 6= 0 () f è un isomorfismo.
260 Applicazioni Lineari

3. Sia f : V ! V un’endomorfismo di uno spazio vettoriale V, con dim(V ) = n e


con B = (v1 , v2 , . . . , vn ) base di V. Si indichi con A 2 Rn,n la matrice quadrata
M B,B (f ) associata a f , rispetto alla base B, allora:

rank(A) = n () det(A) 6= 0 () f è un automorfismo.

A completamento, invece, dello studio della controimmagine di un sottospazio vettoriale


mediante un’applicazione lineare, è utile risolvere il seguente esercizio la cui soluzione è
lasciata al Lettore.

Esercizio 6.9 Sia f : V ! W un’applicazione lineare tra due spazi vettoriali V e W.


Sia K un sottospazio vettoriale di W allora:

1. ker f ✓ f 1
(K);

2. se K ✓ im f allora dim(f 1
(K)) = dim(ker f ) + dim(K);

3. in generale dim(f 1
(K \ im f )) = dim(ker f ) + dim(K \ im f ).

L’ultimo teorema di questo paragrafo stabilisce la condizione necessaria e sufficiente


affinché due spazi vettoriali siano isomorfi.

Teorema 6.12 Due spazi vettoriali sono isomorfi se e solo se essi hanno la stessa dimen-
sione.

Dimostrazione Il fatto che due spazi vettoriali isomorfi abbiano la stessa dimensione
segue in modo evidente dai teoremi precedenti.
Viceversa, si considerino due spazi vettoriali V e W tali che dim(V ) = dim(W ) = n, il
teorema è dimostrato se si è in grado di definire un isomorfismo tra di essi. Fissate dunque
una base B = (v1 , v2 , . . . , vn ) in V e una base C = (w1 , w2 , . . . , wn ) in W, si definisca
f : V ! W ponendo:

f (v1 ) = w1 , f (v2 ) = w2 , ..., f (vn ) = wn ,

f è un isomorfismo in quanto im f = W .

Osservazione 6.10 Si osservi che, anche nel caso di un endomorfismo f : V ! V dalla


relazione dim(ker f ) + dim(im f ) = dim(V ) non segue ker f im f = V. Si consideri,
per esempio, un endomorfismo f di V tale che f 2 = O con O : V ! V endomorfismo
nullo, dove f 2 è la composizione f f definita da f 2 (x) = f (f (x)) (cfr. Par. 6.4). Anche
Capitolo 6 261

se non è ancora stato formalmente introdotto il concetto di composizione di applicazioni


lineari la sua definizione è molto naturale. Dati x0 2 im f e x 2 V tali che f (x) = x0 ,
applicando f ad ambo i membri dell’ultima uguaglianza, segue f 2 (x) = f (x0 ) = o,
quindi im f ✓ ker f . Sia A una matrice associata a f rispetto ad una base di V, poiché
im f = C(A) (dove C(A) indica lo spazio vettoriale generato dalle colonne di A) e
ker f = N (A) (dove N (A) indica il nullspace di A), si è costruito un esempio in cui
C(A) ✓ N (A). Si tratta, infatti, di un esercizio che completa la trattazione del Teorema
4.24.

Esempio 6.23 Usando le stesse notazioni del Paragrafo 4.3.4, si considerino due basi
B = (v1 , v2 , . . . , vn ) e B 0 = (v10 , v20 , . . . , vn0 ) in uno spazio vettoriale V. Come già
0
osservato nell’Esempio 6.14, la matrice M B,B (id) associata all’identià di V rispetto alla
base B nel dominio e alla base B 0 nel codominio è la matrice del cambiamento di base
da B 0 a B (attenzione allo scambio dell’ordine delle due basi!) Invece se si considera
l’applicazione lineare:
p:V ! V, vi 7 ! vi0 , i = 1, 2, . . . , n,

segue, dalla sua definizione, che p è un automorfismo di V (cfr. Teor. 6.12). La matrice
ad essa associata, rispetto alla base B sia nel dominio sia nel codomino, è la matrice del
0
cambiamento di base P = M B,B , ottenuta, infatti, ponendo in colonna le componenti
dei vettori della base B 0 rispetto ai vettori della base B. Si osservi, invece, che la matrice
associata all’applicazione lineare p rispetto alla base B nel dominio e alla base B 0 nel
codominio è la matrice unità I di ordine n anche se p non è l’applicazione lineare iden-
tica. Si vuole in questo esempio approfondire il legame tra le equazioni del cambiamento
di base da B a B 0 e le equazioni dell’automorfismo p, riferite alla matrice P ad esso
associata. Si ricordi che (cfr. Par. 4.3.4), dato un vettore x di V le sue componenti:
0 1
x1
B x2 C
B C
X = B .. C,
@ . A
xn
scritte rispetto alla base B, e le sue componenti:
0 1
x01
B x0 C
B 2 C
X 0 = B .. C,
@ . A
x0n
scritte rispetto alla base B 0 , sono legate dalle equazioni del cambiamento di base:
X = P X 0. (6.13)
262 Applicazioni Lineari

D’altra parte, l’immagine del vettore x mediante l’automorfismo p è il vettore:


0 1
v1
B v2 C
B C
p(x) = y1 y2 . . . yn B .. C
@ . A
vn

tale che:
Y = P X, (6.14)
dove: 0 1
y1
B y2 C
B C
Y =B .. C.
@ . A
yn
Si osservi che le equazioni (6.13) e (6.14) sono in perfetto accordo in quanto:

p(x) = y1 v1 + y2 v2 + . . . + yn vn
= p(x1 v1 + x2 v2 + . . . + xn vn )
= x1 p(v1 ) + x2 p(v2 ) + . . . + xn p(vn )
= x1 v10 + x2 v20 + . . . + xn vn0 ,

ossia (x1 , x2 , . . . , xn ) sono le componenti di p(x) rispetto alla base B 0 e (y1 , y2 , . . . , yn )


sono le componenti di p(x) rispetto alla base B.

6.4 Operazioni tra applicazioni lineari


In questo paragrafo si inizia con il dimostrare che l’insieme delle applicazioni lineari tra
due spazi vettoriali reali V e W :

L(V, W ) = {f : V ! W | f è un’applicazione lineare}

è uno spazio vettoriale reale. Infatti, date f, g 2 L(V, W ), si definisce somma di f e di g


la funzione data da:
(f + g)(x) = f (x) + g(x),
per ogni x 2 V. La funzione f + g è ancora un elemento di L(V, W ), la verifica è lascia-
ta per esercizio. Si dimostra anche facilmente che per la somma di applicazioni lineari
appena definita valgono le proprietà commutativa ed associativa. Esiste, inoltre, l’elemen-
to neutro rispetto alla somma di applicazioni lineari dato dall’applicazione lineare nulla
Capitolo 6 263

O definita nell’Esempio 6.2 e l’applicazione lineare opposta di f 2 L(V, W ), data da


( f )(x) = f (x), con x 2 V.

In modo altrettanto naturale, è possibile definire il prodotto di un numero reale per una
applicazione lineare f 2 L(V, W ) come:

( f )(x) = f (x),

per ogni x 2 V. Si verifica che tale prodotto f è ancora un’applicazione lineare per cui
valgono le quattro proprietà di definizione di prodotto di un numero reale per un vettore
(la verifica è un facile esercizio). Segue che L(V, W ) è un esempio di spazio vettoriale
su R.

Siano dim(V ) = n e B = (v1 , v2 , . . . , vn ) una base di V. Inoltre, siano dim(W ) = m e


C = (w1 , w2 , . . . , wm ) una base di W. Siano A = M B,C (f ) 2 Rm,n la matrice associata
a f e B = M B,C (g) 2 Rm,n la matrice associata a g, è un esercizio dimostrare che A + B
è la matrice associata a f + g, rispetto alle basi B e C. Inoltre A è la matrice associata a
f, rispetto alle basi B e C. Fissate le basi B di V e C di W viene cosı̀ definita, in modo
naturale, la funzione:

: L(V, W ) ! Rm,n , f 7 ! M B,C (f ),

ossia è la funzione che associa ad ogni applicazione lineare f la matrice associata ad f


(rispetto alle basi B e C del dominio e del codominio). È di nuovo un esercizio verificare
che è un isomorfismo, quindi segue dal Teorema 6.12 che:

dim(L(V, W )) = mn. (6.15)

Ci si occuperà ora di studiare la composizione di due applicazioni lineari opportuna-


mente definite. Sia f : V ! W un’applicazione lineare tra due spazi vettoriali V
e W. Ponendo dim(V ) = n e B = (v1 , v2 , . . . , vn ) base di V, dim(W ) = m e
C = (w1 , w2 , . . . , wm ) base di W, si indichi con A 2 Rm,n la matrice associata ad f
rispetto alle basi B e C . Sia g : W ! Z un’altra applicazione lineare tra gli spazi
vettoriali W e Z. Posto dim(Z) = p e D = (z1 , z2 , . . . , zp ) una base di Z, si indichi con
B in Rp,m la matrice associata a g rispetto alle basi C e D. La funzione:

g f :V ! Z, x 7 ! g(f (x))

prende il nome di composizione delle applicazioni lineari f e g. È un facile esercizio


verificare che g f è un’applicazione lineare. Si vuole, quindi, determinare la matrice
ad essa associata, rispetto alle basi B e D. Le equazioni dell’applicazione lineare f sono
Y = AX , dove X indica la matrice colonna di Rn,1 delle componenti del generico vettore
264 Applicazioni Lineari

x di V rispetto alla base B e Y indica la matrice colonna di Rm,1 delle componenti di


f (x) rispetto alla base C . Calcolando l’immagine di f (x) mediante g si ottiene Z = BY
dove Z indica la matrice colonna di Rp,1 delle componenti di g(f (x)), rispetto alla base
D, sostituendo si ha:
Z = BY = BAX,
quindi la matrice C 2 Rp,n associata a g f , rispetto alle basi B e D è data dal prodotto:

C = BA. (6.16)

Osservazione 6.11 Questo risultato costituisce un’altra giustificazione della definizio-


ne di prodotto di matrici (righe per colonne) introdotto nel Capitolo 2 e permette di
dimostrare in modo alternativo a quanto visto nel Paragrafo 4.5.1 la relazione:

rank(BA)  min(rank(B), rank(A)).

Infatti, se f, g sono le applicazioni lineari rappresentate dalle matrici A e B si ha che il


prodotto BA, come è stato appena dimostrato, è la matrice associata alla composizione
g f . Dall’inclusione, di facile dimostrazione, im(g f ) ✓ im g , si ottiene:

rank(BA) = dim(im(g f ))  dim(im g) = rank(B).

Inoltre, dall’inclusione, anch’essa facilmente dimostrabile, ker f ✓ ker(g f ) e grazie al


Teorema del Rango 6.10 si ottiene l’altra disuguaglianza:

rank(BA) = dim(im(g f ))  dim(im f ) = rank(A).

Esercizio 6.10 Si considerino gli spazi vettoriali R2 , R3 , R4 riferiti alle rispettive basi
canoniche B, B 0 , B 00 . Date le applicazioni lineari:
✓ ◆
0 1 1 2
f : R3 ! R2 , con A = M B ,B (f ) = ,
1 2 3
✓ ◆
B00 ,B 3 4 3 0
g:R 4
!R ,2
con B = M (g) = ,
5 9 4 1

determinare, se esiste, un’applicazione lineare h : R4 ! R3 tale che f h = g.

Soluzione All’applicazione lineare h (rispetto alla basi canoniche del dominio e del
codominio) si associa una matrice X 2 R3,4 , tale che AX = B . Si tratta, quindi, di
risolvere l’equazione matriciale cosı̀ ottenuta usando il metodo descritto nel Capitolo 2.
Capitolo 6 265

Nel caso particolare di L(V, V ), ossia dello spazio vettoriale degli endomorfismi di V,
a volte anche indicato con il simbolo End(V ), la composizione di due endomorfismi è
un’operazione interna, per cui vale la proprietà associativa, esiste l’elemento neutro (l’ap-
plicazione lineare identica) ma non vale la proprietà commutativa. Da nozioni elementari
di algebra segue che una funzione è invertibile se e solo se è una biiezione. Si supponga
che f 2 End(V ) sia una biiezione, ossia che f sia un automorfismo di V, esiste allora la
funzione inversa f 1 di f definita come l’unica funzione per cui:
1 1
f f =f f = id,
con id identità di V. Nel caso degli automorfismi di End(V ) si può dimostrare il seguente
teorema.

Teorema 6.13 Sia V uno spazio vettoriale reale.


1. Se f è un automorfismo di V, anche f 1
è un automorfismo di V.
2. Se f e g sono automorfismi di V, la loro composizione g f è ancora un automor-
fismo di V, inoltre:
(g f ) 1 = f 1 g 1 . (6.17)

Dimostrazione Per dimostrare 1. è sufficiente dimostrare che f 1


è un endomorfismo
di V, ossia che per ogni x1 , x2 2 V e per ogni , µ 2 R allora:
1 1 1
f ( x1 + µx2 ) = f (x1 ) + µf (x2 ).
Ma l’uguaglianza è vera perché se si applica f ad ambo i membri si ha:
1 1 1 1 1
f (f ( x1 + µx2 )) = f ( f (x1 ) + µf (x2 )) = f (f (x1 )) + µf (f (x2 )).
La tesi segue dalla definizione di inversa di una funzione, dal fatto che una funzione
invertibile è necessariamente iniettiva e dalla linearità di f.
Per dimostrare 2. tenendo conto che la composizione di due endomorfismi è un endomor-
fismo, è sufficiente dimostrare che g f è iniettivo. Ma per l’iniettività di f e di g , si ha
(g f )(x) = o se e solo se x = o. La dimostrazione di (6.17) è lasciata al Lettore per
esercizio.

Osservazione 6.12 1. Più in generale, se f : V ! W è una biezione tra due spa-


zi vettoriali V e W diversi, si può ugualmente introdurre il concetto di funzione
inversa f 1 come l’unica funzione f 1 : W ! V tale che
1 1
f f = idV , f f = idW ,
dove idV e idW indicano, rispettivamente, l’identità di V e l’identità di W. Se f
è un isomorfismo si dimostra, come nel teorema precedente, che f 1 è ancora un
isomorfismo.
266 Applicazioni Lineari

2. Dal fatto che la matrice associata alla composizione di due applicazioni lineari è
il prodotto delle matrici associate alle due applicazioni lineari (scegliendo oppor-
tunamente le basi nel dominio e nel codominio) segue che all’applicazione lineare
inversa di f è associata la matrice inversa a quella associata ad f (rispetto alla
stessa scelta di basi in V ). Si noti l’assoluto accordo tra risultati noti sull’esistenza
dell’inversa di una matrice quadrata (rango massimo) e sull’esistenza dell’inverso di
un endomorfismo (biiettività quindi rango massimo della matrice associata). Si os-
servi, inoltre, che la relazione (6.17) corrisponde alla relazione (BA) 1 = A 1 B 1
(cfr. Teor. 2.6) se si considera A matrice associata ad f e B matrice associata a g .

Esercizio 6.11 Sia f : V ! W un isomorfismo tra due spazi vettoriali reali V e W.


Data una base C = (w1 , w2 , . . . , wn ) di W dimostrare che esiste una base B di V tale
che la matrice associata ad f rispetto alle basi B e C sia la matrice unità I di ordine n.

Soluzione La base B è data da:


1 1 1
B = (f (w1 ), f (w2 ), . . . , f (wn )),

dove per f 1 indica l’isomorfismo inverso di f. La dimostrazione del fatto che B sia una
base di V e che M B,C (f ) = I è lasciata al Lettore per esercizio.

Esempio 6.24 Si consideri la rotazione R[✓] : V2 ! V2 in senso antiorario di angolo ✓


di ogni vettore x del piano vettoriale V2 . Nel Paragrafo 3.8 è stata determinata la matrice
del cambiamento di base da una base ortonormale B = (i, j) di V2 alla base ortonormale
B 0 = (i0 , j0 ) ottenuta a partire dalla base B mediante la rotazione di angolo ✓. Pertanto la
matrice associata a R[✓], rispetto alla base B, coincide con la matrice del cambiamento
di base, ossia: ✓ ◆
B,B cos ✓ sin ✓
M (R[✓]) = ,
sin ✓ cos ✓
mentre le equazioni della rotazione R[✓], che applicata ad un vettore x = xi+yj permette
di ottenere il vettore R[✓](x) = x0 i + y 0 j, sono:

x0 = x cos ✓ y sin ✓
y 0 = x sin ✓ + y cos ✓.

Si lascia per esercizio la verifica del fatto che la composizione delle rotazioni R[✓1 ] e
R[✓2 ], rispettivamente di angoli ✓1 e ✓2 , è la rotazione R[✓1 + ✓2 ]. La rotazione R[✓] è un
automorfismo di V2 per ogni valore dell’angolo ✓, si verifichi per esercizio che l’inversa
della rotazione R[✓] è la rotazione R[ ✓].
Capitolo 6 267

L’insieme delle rotazioni del piano vettoriale V2 , studiate nell’esempio precedente, è un


esempio di gruppo commutativo (cfr. Oss. 2.2). Esso è in generale indicato come SO(2)
e denominato gruppo ortogonale speciale di ordine 2 (cfr. (5.10)):
⇢✓ ◆
cos ✓ sin ✓
SO(2) = {R[✓] | ✓ 2 [0, 2⇡)} = 2 R2,2 | ✓ 2 [0, 2⇡) .
sin ✓ cos ✓
In particolare, esso è un sottogruppo del gruppo O(2) delle matrici ortogonali di ordine
2, dove è chiaro che un sottogruppo di un gruppo è un sottoinsieme chiuso rispetto al-
l’operazione del gruppo e contenente l’inverso di ogni suo elemento (cfr. Oss. 4.5 per la
nozione di sottogruppo).

Dato uno spazio vettoriale reale V, l’insieme degli automorfismi di V, indicato come:
GL(V, R) = {f : V ! V | f è un automorfismo}
è un gruppo rispetto alla composizione di automorfismi e, in generale, non è commutativo.
Se dim(V ) = n e fissata una base B in V allora si può stabilire, in modo naturale, la
corrispondenza biunivoca tra GL(V, R) ed il gruppo lineare generale reale GL(n, R) (cfr.
Oss. 2.7) che associa ad ogni f 2 GL(V, R) la matrice A = M B,B (f ). Tale biiezione è un
automorfismo in quanto alla composizione di automorfismi si associa il prodotto di matrici
e all’inverso di un automorfismo si associa l’inversa della matrice. Per approfondimenti
sull’argomento e maggiori dettagli si rimanda a testi classici di teoria dei gruppi, quali ad
esempio [2] e [13].

6.5 Sottospazi vettoriali invarianti


Sia f : V ! V è un endomorfismo di uno spazio vettoriale reale V, il nucleo di f, ker f,
gode di un’interessante proprietà in quanto l’immagine di ogni suo elemento è ancora un
elemento di ker f , ossia:
f (ker f ) ✓ ker f,
infatti si ha banalmente f (ker f ) = {o}. Lo studio dei sottospazi vettoriali di V per cui
vale lo stesso tipo di proprietà rivestirà una grande importanza nel capitolo successivo, è
giustificata quindi la definizione che segue.
Definizione 6.9 Sia f : V ! V un endomorfismo di uno spazio vettoriale V e sia H
un sottospazio vettoriale di V, H si dice invariante per f se f (H) ✓ H.
Osservazione 6.13 La definizione precedente è ragionevole solo nel caso di un endomor-
fismo, infatti se f è un’applicazione lineare f : V ! W, tra due spazi vettoriali V e W
diversi, non ha senso confrontare un sottospazio vettoriale H di V con la sua immagine
f (H).
268 Applicazioni Lineari

Per i sottospazi vettoriali invarianti vale la seguente proprietà, la cui dimostrazione è


lasciata al Lettore per esercizio.

Teorema 6.14 Sia f un endomorfismo di uno spazio vettoriale V. Se H1 , H2 , . . . , Hk


sono sottospazi vettoriali di V invarianti per f, allora la loro somma H1 + H2 + . . . + Hk
è un sottospazio vettoriale di V invariante per f .

Esercizio 6.12 Sia f : V3 ! V3 l’endomorfismo, la cui matrice associata, rispetto ad


una base ortonormale positiva B = (i, j, k) di V3 , è:
0 1
cos ✓ sin ✓ 0
A = @ sin ✓ cos ✓ 0 A.
0 0 1

Si descriva il significato geometrico di f e si dimostri che il piano L(i, j) è un sottospazio


vettoriale di V3 invariante per f.

Esercizio 6.13 Sia f : R3 ! R3 un endomorfismo tale che f 3 = f f f = O


e per cui f 2 6= O, dove O indica l’applicazione nulla di R3 . Si dimostri che ker(f 2 )
è un sottospazio vettoriale invariante per f . Per svolgere l’esercizio si tenga conto che
ker f ✓ ker(f 2 ) e che f 3 (x) = (f f 2 )(x), x 2 V.

Data un’applicazione lineare f : V ! W tra due spazi vettoriali V e W ed un sotto-


spazio vettoriale H del dominio, si introduce in modo naturale il concetto di restrizione
di f a H nel modo seguente.

Definizione 6.10 Sia f : V ! W un’applicazione lineare tra due spazi vettoriali V e


W, sia H un sottospazio vettoriale di V, la restrizione di f a H è la funzione:

f |H : H ! W, x 7 ! f (x).

Il teorema che segue si ottiene in modo evidente dalla definizione di restrizione di un’ap-
plicazione lineare e dalla definizione di sottospazio vettoriale invariante per un endomor-
fismo.

Teorema 6.15 1. La restrizione di un’applicazione lineare f : V ! W tra due spa-


zi vettoriali V e W ad un sottospazio vettoriale H di V è ancora un’applicazione
lineare.
Capitolo 6 269

2. La restrizione di un endomorfismo f : V ! V ad un sottospazio vettoriale H di


V invariante per f è ancora un endomorfismo:

f |H : H ! H

tale che:
f |H (x) = f (x), x 2 H. (6.18)

Esercizio 6.14 Verificare che la restrizione f |H di un endomorfismo f di uno spazio


vettoriale reale V a H = ker f è l’applicazione lineare nulla su H.

Esercizio 6.15 Sia f : R4 ! R3 l’applicazione lineare definita da:

f ((x1 , x2 , x3 , x4 )) = (3x1 + 5x2 + x3 + 2x4 , 3x1 + 5x2 + 3x3 + 4x4 , x3 + x4 );

si consideri l’iperpiano vettoriale H di R4 di equazione x1 + x2 + x3 x4 = 0. Verificare


che l’insieme B = {(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1)} è una base di H e scrivere la ma-
trice A0 della restrizione di f ad H, rispetto alla base B del dominio e alla base canonica
del codominio.

Soluzione L’iperpiano vettoriale H ha dimensione 3, si verifica facilmente che B è


una sua base in quanto i vettori di B appartengono ad H e sono linearmente indipendenti.
La matrice A associata all’applicazione lineare f rispetto alle basi canoniche di R4 e di
R3 è:
0 1
3 5 1 2
A = @ 3 5 3 4 A.
0 0 1 1
Le immagini dei vettori di B mediante f sono:

1 0 1 0
0 1 1 0 1 0 0 1 0 1
3 5 1 2 B C 5 3 5 1 2 B C 7
@ 3 5 3 4 A B 0 C = @ 7 A, @ 3 5 3 4 A B 1 C = @ 9 A,
@ 0 A @ 0 A
0 0 1 1 1 0 0 1 1 1
1 1
1 0
0 0 1 0 1
3 5 1 2 B C 3
@ 3 5 3 4 A B 0 C = @ 7 A.
@ 1 A
0 0 1 1 2
1

Segue, quindi, che la matrice A0 richiesta è:


270 Applicazioni Lineari

0 1
5 7 3
A0 = @ 7 9 7 A.
1 1 2

6.6 Applicazione lineare aggiunta.


Endomorfismi autoaggiunti
Siano (V, · ) e (W, · ) due spazi vettoriali euclidei e sia f : V ! W un’applicazione
lineare. Tramite i prodotti scalari definiti su V e su W è possibile introdurre una nuova
applicazione lineare da W a V nel modo seguente.

Teorema 6.16 Siano (V, · ) e (W, · ) due spazi vettoriali euclidei di dimensione n e m,
rispettivamente. Data un’applicazione lineare f : V ! W, esiste un’unica applicazio-
ne lineare:
f † : W ! V,
detta applicazione lineare aggiunta di f , tale che:
f (x) · y = x · f † (y), x 2 V, y 2 W. (6.19)
Inoltre, se B = (v1 , v2 , . . . , vn ) e C = (w1 , w2 , . . . , wm ) sono basi ortonormali di V e
W rispettivamente, le matrici associate a f e f † verificano la seguente relazione:
M C,B (f † ) = t (M B,C (f )),
ossia la matrice associata a f † , rispetto alle basi ortonormali B e C, è la trasposta della
matrice associata a f rispetto alle stesse basi in ordine scambiato.

Dimostrazione La relazione (6.19) permette di dimostrare che f † è una funzione. In-


fatti, per ogni y 2 W esiste ed è unico f † (y), in quanto fissato x 2 V, il primo membro
di (6.19) è ben determinato. Inoltre f † è un’applicazione lineare, la verifica è un fa-
cile esercizio che segue dalla linearità di f e dalle proprietà del prodotto scalare. Sia
A = M B,C (f ) la matrice associata a f rispetto alle basi ortonormali B e C e siano
x = x1 v1 + x2 v2 + . . . + xn vn 2 V, y = y1 w1 + y2 w2 + . . . + ym wm 2 W. Per
l’ortonormalità di C si ha:
f (x) · y = t (AX)Y = tX tA Y,
dove X e Y sono le matrici colonna con elementi le componenti di x e di y rispettiva-
mente. Se si indicano con Z la matrice colonna con elementi le componenti di z = f † (y)
rispetto alla base B, per l’ortonormalità di B e dall’uguaglianza (6.19), si ottiene:
t
X tA Y = x · z = tX Z,
Capitolo 6 271

per ogni X , Y e Z , da cui Z = tA Y. Quindi si ha che la matrice associata a f † è


M C,B (f † ) = tA.

Osservazione 6.14 1. Come conseguenza del precedente teorema e dell’Osservazione


4.26 si ha dim(im f ) = dim(im f † ).

2. Dalla definizione di applicazione lineare aggiunta segue che (f † )† = f.

3. Se le basi B e C non sono ortonormali, la relazione tra le matrici associate a f e f †


è più complicata.

Esercizio 6.16 Siano (V, · ) e (W, · ) due spazi vettoriali euclidei. Verificare che, se
f : V ! W è un’applicazione lineare e f † : W ! V è l’applicazione lineare
aggiunta di f , allora:

1. V = im f † ker f,

2. W = im f ker f † ,

3. im f † = (ker f )? ,

4. im f = (ker f † )? .

Esercizio 6.17 Verificare che, se f, g sono endomorfismi di uno spazio vettoriale eucli-
deo (V, · ), allora:
(g f )† = f † g †
e che se f è invertibile, allora:
1 †
(f ) = (f † ) 1 .

Nel caso di un endomorfismo f di uno spazio vettoriale euclideo V ha senso confrontare


f con la propria applicazione lineare aggiunta f † ed è pertanto naturale enunciare la
seguente definizione.

Definizione 6.11 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, · ), f si


dice autoaggiunto (o simmetrico), se f † = f , ossia se:

f (x) · y = x · f (y), x, y 2 V.
272 Applicazioni Lineari

Esempio 6.25 Si consideri lo spazio vettoriale euclideo (R2 , · ) dotato del prodotto sca-
lare standard. L’endomorfismo

f : R 2 ! R2 , (x, y) 7 ! (y, x + 2y)

è autoaggiunto. Infatti:

f ((x, y)) · (x0 , y 0 ) = (y, x + 2y) · (x0 , y 0 ) = yx0 + xy 0 + 2yy 0 ,


(x, y) · f ((x0 , y 0 )) = (x, y) · (y 0 , x0 + 2y 0 ) = xy 0 + yx0 + 2yy 0 ,

per ogni (x, y), (x0 , y 0 ) appartenenti a R2 .

Esempio 6.26 Un esempio importante di endomorfismo autoaggiunto di uno spazio vet-


toriale euclideo (V, · ) è la proiezione ortogonale p su un sottospazio vettoriale W di V
(cfr. Es. 6.10). Infatti, posto p(x) = xW , si ha:

p(x) · y = xW · (yW + yW ? ) = xW · yW = x · p(y),

per ogni x, y in V.

Teorema 6.17 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, · ) di dimen-
sione n e sia B una base ortonormale di V. L’endomorfismo f è autoaggiunto se e solo
se la matrice A = M B,B (f ) 2 Rn,n è simmetrica.

Dimostrazione Poiché la base B è ortonormale, dal Teorema 6.16 si ottiene che


M (f ) = A. Pertanto f = f † se e solo se tA = A, ossia se e solo se la matrice
B,B † t

A è simmetrica.

Osservazione 6.15 Si osservi che dal Teorema 6.17 segue che la matrice associata ad un
endomorfismo autoaggiunto f : V ! V di uno spazio vettoriale euclideo (V, · ) di
dimensione n, rispetto ad una base B di V, è simmetrica solo se la base B è ortonormale.
Infatti, se si considera un’altra base C di V, allora si ha che la matrice associata a f
rispetto a C è A0 = P 1 AP, con P matrice del cambiamento di base da B a C. In
generale, A0 non è simmetrica nonostante A lo sia, in quanto
t
A0 = t (P 1
AP ) = t P tA t (P 1
) = t P A t (P 1
)

che non coincide con A0 a meno che tP = P 1 , ovvero a meno che P sia una matrice
ortogonale. In altri termini, affinché A0 sia simmetrica, anche la base C deve essere
ortonormale (cfr. Teor. 5.6).
Capitolo 6 273

Osservazione 6.16 Nel caso della proiezione ortogonale p su un sottospazio vettoriale


W di uno spazio vettoriale euclideo, considerata nell’Esempio 6.26, si ha non solo che
W è invariante per p (cfr. Def. 6.9) ma lo è anche il suo complemento ortogonale. Infatti
se x 2 W ? allora p(x) = o.

Vale il seguente teorema che estende la precedente osservazione ad ogni endomorfismo


autoaggiunto e ad ogni sottospazio vettoriale invariante.

Teorema 6.18 Se f è un endomorfismo autoaggiunto di uno spazio vettoriale eucli-


deo (V, · ) e se W è un sottospazio vettoriale di V invariante rispetto a f, anche il
complemento ortogonale W ? di W è invariante rispetto a f .

Dimostrazione Per ogni x 2 W ? e per ogni y 2 W si ha:

f (x) · y = x · f (y) = 0,

poiché f (y) 2 W per ipotesi. Quindi f (x) è ortogonale a tutti gli elementi di W e perciò
appartiene a W ? .

Esercizio 6.18 Sia V uno spazio vettoriale euclideo e siano W1 , W2 due suoi sottospazi
vettoriali supplementari, ossia V = W1 W2 . Si considerino i due endomorfismi f1
e f2 di V, proiezioni su W1 e su W2 rispettivamente. Vale a dire, se per ogni x in V,
x = x1 + x2 , (x1 2 W1 e x2 2 W2 ) allora si ha f1 (x) = x1 e f2 (x) = x2 (cfr. Es. 6.10).
Dire se e quando f1 e f2 sono endomorfismi autoaggiunti.

6.7 Esercizi di riepilogo svolti


Esercizio 6.19 In R3 , rispetto alla base canonica B = (e1 , e2 , e3 ), si consideri l’endo-
morfismo f definito, al variare di un parametro reale h, da:
8
< f (e1 ) = e1 + 2e2 e3
f (e2 ) = e1 + 2e2
:
f (e3 ) = 3e1 + he2 + (h + 1)e3 .

Determinare:

1. la matrice A associata ad f, rispetto alla base B;

2. l’espressione dell’immagine di un generico vettore di R3 ;

3. per quali valori di h f è un automorfismo;


274 Applicazioni Lineari

4. nel caso di h = 2 una base di ker f ed una base di im f ;


5. la matrice associata all’automorfismo f 1
, rispetto alla base B, nei casi in cui ciò
sia possibile.
Soluzione 1. È necessario osservare che le condizioni date definiscono un unico endo-
morfismo f, in quanto sono state assegnate le immagini dei vettori della base B.
(Perché?) Per costruzione, la matrice A associata ad f, rispetto alla base B, si ot-
tiene scrivendo in colonna, ordinatamente, le componenti dei vettori immagine dei
vettori della base, pertanto:
0 1
1 1 3
A = M B,B (f ) = @ 2 2 h A.
1 0 h+1

2. Se x = x1 e1 + x2 e2 + x3 e3 è un generico vettore di R3 , allora la sua immagine


f (x) = y1 e1 + y2 e2 + y3 e3 si ottiene mediante le equazioni di f scritte rispetto alla
base B, vale a dire: 8
< y1 = x1 x2 + 3x3
y2 = 2x1 + 2x2 + hx3
:
y3 = x1 + (h + 1)x3 .
3. L’endomorfismo f è un automorfismo se e solo se il rango della matrice A è massi-
mo, o, in modo equivalente, se e solo se det(A) 6= 0. Dal calcolo del determinante
della matrice A si ottiene det(A) = 5h + 10, di conseguenza f è un automorfismo
per ogni valore di h ad eccezione di h = 2.
4. Dal punto precedente segue che per h = 2 l’endomorfismo f non è un automor-
fismo. Riducendo la matrice A per righe si ha:
0 1 0 1
1 1 3 1 1 3
!
A = @ 2 2 2 A @ 1 1 1 A
R2 ! (1/2)R2
1 0 1 1 0 1
0 1
1 1 3
! @ 2 0 2 A,
R2 ! R2 + R1
1 0 1

da cui segue che rank(A) = 2, perciò dim(im f ) = 2 e dim(ker f ) = 1. Una


base del nucleo di f si ottiene risolvendo il sistema lineare omogeneo associato
alla matrice ridotta per righe ottenuta da A, ossia:

x1 x2 + 3x3 = 0
x1 + x3 = 0,
Capitolo 6 275

le cui soluzioni sono (x1 = t, x2 = 2t, x3 = t), con t 2 R, perciò:

ker f = L((1, 2, 1)).

Una base di im f è formata da due colonne linearmente indipendenti della matrice


A, per esempio:
im f = L((1, 2, 1), ( 1, 2, 0)).

5. Esiste f 1 se e solo se f è un automorfismo, ossia se e solo se h 6= 2. In questi


casi, la matrice associata a f 1 , rispetto alla base B, è A 1 data da:

0 1
2(1 + h) 1+h 6+h
B 5(2 + h) 5(2 + h) 5(2 + h) C
B C
B C
B 2 + 3h 4+h 6 h C
1 B C
A =B C.
B 5(2 + h) 5(2 + h) 5(2 + h) C
B C
B C
@ 2 1 4 A
5(2 + h) 5(2 + h) 5(2 + h)

Esercizio 6.20 Nello spazio vettoriale R3 siano B la base canonica e B 0 = (u1 , u2 , u3 )


la base formata dai vettori u1 = (1, 2, 3), u2 = (0, 1, 1), u3 = (2, 1, 0) e, nello
spazio vettoriale R4 , sia C la base canonica. Data l’applicazione lineare f : R3 ! R4
definita, per ogni parametro k reale, ponendo:

f (u1 ) = (1, 2, k, 1), f (u2 ) = (0, 2, 0, k), f (u3 ) = (0, 4, 0, 2),

1. scrivere la matrice A0 associata ad f rispetto alle basi B 0 e C ;

2. scrivere la matrice A associata ad f rispetto alle basi B e C ;

3. stabilire per quali valori di k l’applicazione lineare f non è iniettiva e determinare


in questi casi una base di ker f ;

4. stabilire per quali valori di k l’applicazione lineare è suriettiva;

5. posto k = 1, determinare la dimensione e una base di f 1


(K) con K = L(a.b),
dove a = (0, 1, 0, 1), b = (1, 4, 1, 3).
276 Applicazioni Lineari

Soluzione 1. La matrice A0 associata ad f, rispetto alle basi B 0 e C, si ottiene, per


costruzione, scrivendo in colonna le componenti, rispetto alla base C , dei vettori
immagine mediante f degli elementi di B 0 , pertanto:

0 1
1 0 0
0 B 2 2 4 C
A0 = M B ,C (f ) = B
@ k
C.
0 0 A
1 k 2

2. Sia P la matrice del cambiamento di base da B a B 0 , ottenuta ponendo in colonna


le componenti dei vettori della base B 0 rispetto alla base B, ossia:
0 1
1 0 2
P =@ 2 1 1 A.
3 1 0

Dal Paragrafo 6.2 segue che A0 = AP, da cui:


0 10 1 0 1 2 2
1
1 0 0 1 2 2
B CB 3 B 3 3 3 C
B CB 3 3 C
C B C
B 2 2 4 CB C B
B 4 4 2 C
C
B CB 1 1 C
A = A0 P 1
=B CB 2 C=B C.
B k 0 0 CB C B k 2k
C
2k C
B CB C B
B C
@ A@ 1 1 1 A @ 3 3 3 A
1 k 2 3 3 3 1+k 2k k

3. Riducendo per righe la matrice A si ottiene:

a. rank(A) = 3 se e solo se k 6= 1, in questo caso f è iniettiva.


b. rank(A) = 2 se e solo se k = 1, in questo caso dim(ker f ) = 1 e una base di
ker f è data dal vettore ( 2, 3, 2).

4. f non può essere suriettiva, in quanto dim(ker f ) + dim(im f ) = dim(R3 ) = 3.


Per stabilire l’esatta dimensione di im f, come nel punto precedente, è necessario
distinguere due casi:

a. se k 6= 1, allora dim(im f ) = rank(A) = 3, le tre colonne della matrice A


sono linearmente indipendenti e formano, quindi, una base di im f.
b. se k = 1 allora dim(im f ) = rank(A) = 2, per esempio le prime due colonne
della matrice A sono linearmente indipendenti e formano una base di im f.
Capitolo 6 277

5. I vettori x = (x1 , x2 , x3 ) appartenenti a f 1 (K) sono le soluzioni del sistema


lineare:
A X = Y,

dove:
0 1 0 1 0 1
1 2 2 0 1
0 1
B 3 3 3 C x1 B C B C
B C B C B C
B 4 4 2 C B C B 1 C B 4 C
B C B C B C B C
A=B
B
C,
C X=B
B x 2
C,
C Y = B
B
C+µ B C,
C B C , µ 2 R.
B 1 2 2 C @ A B 0 C B 1 C
B C B C B C
@ 3 3 3 A x3 @ A @ A
2 2 1 1 3

Si trova che il sistema lineare è compatibile se e solo se + 2µ = 0, condizione che


permette di individuare tutti e soli i vettori y = a + µb appartenenti a K \ im f,
vale a dire i vettori che ammettono controimmagine. Risolvendo si ottiene:
✓ ◆
5 3
x= 2µ t, µ t, t , µ, t 2 R,
2 2

ossia:
1
f (K) = ker f + L((4, 5, 0)),

in accordo con quanto affermato nell’Esercizio 6.9.

Esercizio 6.21 Sia f l’endomorfismo di R4 associato, rispetto alla base canonica di R4 ,


alla matrice: 0 1
0 2 4 2
B C
B 2 0 1 1 C
A=B B C.
@ 4 1 0 3 C A
2 1 3 0
Verificare che ker f e im f sono sottospazi vettoriali ortogonali rispetto al prodotto sca-
lare standard di R4 .

Soluzione Riducendo per righe la matrice A, si ottiene rank(A) = 2, quindi:


dim(ker f ) = 2, dim(im f ) = 2.
Le equazioni che determinano ker f sono per esempio:

4x1 x2 + 3x4 = 0
x2 + 2x3 + x4 = 0,
278 Applicazioni Lineari

da cui si legge che (ker f )? = L((4, 1, 0, 3), (0, 1, 2, 1)). I vettori della base di (ker f )?
appena determinata coincidono con due colonne linearmente indipendenti di A.

Esercizio 6.22 Prendendo spunto dall’esercizio precedente e dall’Esercizio 6.16, si stu-


dino le proprietà degli endomorfismi f : V ! V, con (V, · ) spazio vettoriale euclideo,
tali che:
(ker f )? = im f.

6.8 Per saperne di più


6.8.1 Forme lineari - dualità
In questo paragrafo si intendono studiare le particolari proprietà delle applicazioni lineari
aventi R come codominio, ricordando che il campo dei numeri reali è un esempio di
spazio vettoriale reale di dimensione uno.

Definizione 6.12 Sia V uno spazio vettoriale reale, un’applicazione lineare:

↵:V ! R,

cioè un elemento di L(V, R), si dice forma lineare su V. Lo spazio vettoriale L(V, R) si
dice spazio vettoriale duale di V e lo si indica con V ⇤.

Esempio 6.27 Una forma lineare ↵ su Rn è determinata da n numeri reali a1 , a2 , . . . , an


tali che:

↵((x1 , x2 , . . . , xn )) = a1 x1 + a2 x2 + . . . + an xn , ai 2 R, i = 1, 2, . . . , n, (6.20)

per ogni (x1 , x2 , . . . , xn ) 2 Rn . Rispetto alla base canonica B di Rn e alla base C = (1)
di R la matrice associata ad ↵ è dunque:

A = M B,C (↵) = a1 a2 . . . an .

Se ↵ non è la forma nulla (ossia se almeno uno tra gli ai , i = 1, 2, . . . , n, non è uguale a
zero) allora ↵ è suriettiva e il suo nucleo ha equazione, rispetto alla base B:

a1 x1 + a2 x2 + . . . + an xn = 0, (6.21)

si tratta, quindi, di un iperpiano vettoriale di Rn . Viceversa, dato un iperpiano vettoriale


H di Rn di equazione (6.21), esso è il nucleo della forma lineare ↵ definita da (6.20) ma
H è anche il nucleo delle forme lineari 2↵, 3↵, . . . , ↵ con 2 R, 6= 0. Perché?
Capitolo 6 279

Osservazione 6.17 Si osservi che in generale, in modo analogo all’esempio precedente,


si può provare che se ↵ è una forma lineare non nulla su uno spazio vettoriale reale V,
allora ↵ è suriettiva e il suo nucleo è un iperpiano vettoriale di V.

Esempio 6.28 In V3 , riferito alla base ortonormale B = (i, j, k), si consideri la funzione
definita nell’Esempio 6.6:

a · : V3 ! R, x 7 ! a · x.

È chiaro che a · è un esempio di forma lineare su V3 . Se a = a1 i + a2 j + a3 k, allora la


matrice A associata alla forma lineare a ·, rispetto alla base B di V3 e alla base canonica
di R, è:
A = a1 a2 a3 .
Si dimostrerà che per ogni spazio vettoriale euclideo (V, · ), fissato un vettore a 2 V , la
funzione a · : V ! R è una forma lineare su V (cfr. Es. 6.31).

Esempio 6.29 L’applicazione lineare:

Rn,n ! R, A 7 ! tr(A),

dove tr(A) indica la traccia della matrice A, è una forma lineare su Rn,n .

Poiché V ⇤ = L(V, R), se dim(V ) = n segue da (6.15) che anche dim(V ⇤ ) = n. Quindi
lo spazio vettoriale V e il suo spazio vettoriale duale V ⇤ hanno la stessa dimensione. Il
teorema che segue dimostra di nuovo questo risultato ed, inoltre, indica il metodo con cui
si può costruire esplicitamente una base di V ⇤ a partire da una base di V.

Teorema 6.19 Se V è uno spazio vettoriale reale di dimensione finita, allora:

dim(V ) = dim(V ⇤ ).

Dimostrazione Sia dim(V ) = n e sia B = (v1 , v2 , . . . , vn ) una sua base. Per il


Teorema 6.2, esistono e sono uniche le forme lineari ↵i : V ! R, i = 1, 2, . . . , n, cosı̀
definite: 8 8 8
>
> ↵ 1 (v1 ) = 1 >
> ↵ 2 (v1 ) = 0 >
> ↵n (v1 ) = 0
>
< ↵1 (v2 ) = 0 >
< ↵2 (v2 ) = 1 >
< ↵n (v2 ) = 0
.. .. ... ..
>
> . >
> . >
> .
> >
: ↵ (v ) = 0, : ↵ (v ) = 0, >
: ↵ (v ) = 1,
1 n 2 n n n

che si possono anche scrivere nella forma:

↵i (vj ) = ij ,
280 Applicazioni Lineari

dove ij è il simbolo di Kronecker ( ij = 0, se i 6= j e ii = 1). Di conseguenza per ogni


x 2 V scritto come x = x1 v1 + x2 v2 + . . . + xn vn risulta:
↵i (x) = xi , i = 1, 2, . . . , n.
In altri termini, la forma lineare ↵i associa ad ogni vettore di V la sua i–esima compo-
nente, calcolata rispetto alla base di V che ne determina la sua definizione.
Si perviene alla tesi se si dimostra che B ⇤ = (↵1 , ↵2 , . . . , ↵n ) è una base di V ⇤, ossia:
1. B ⇤ è un sistema di generatori di V ⇤. Infatti, per ogni forma lineare ↵ 2 V ⇤, posto:
↵(v1 ) = a1 , ↵(v2 ) = a2 , ..., ↵(vn ) = an ,
con a1 , a2 , . . . , an 2 R e per ogni vettore x = x1 v1 + x2 v2 + . . . + xn vn di V, si
ha:
↵(x) = x1 ↵(v1 ) + x2 ↵(v2 ) + . . . + xn ↵(vn )
= x 1 a1 + x 2 a2 + . . . + x n an
= a1 ↵1 (x) + a2 ↵2 (x) + . . . + an ↵n (x)
= (a1 ↵1 + a2 ↵2 + . . . + an ↵n )(x).
Allora:
↵ = a1 ↵1 + a2 ↵2 + . . . + an ↵n ,
ovvero la forma lineare ↵ è combinazione lineare degli elementi di B ⇤.
2. B ⇤ è un insieme di vettori linearmente indipendenti in V ⇤. Si consideri la combina-
zione lineare:
1 ↵1 + 2 ↵2 + . . . + n ↵n = oV ⇤ , (6.22)
con 1 , 2 , . . . , n 2 R e con oV ⇤ vettore nullo di V ⇤ , che non è altro che la forma
lineare nulla. Applicando ambo i membri di (6.22) agli elementi della base B segue:
( 1 ↵1 + 2 ↵2 + ... + n ↵n )(vj ) = oV ⇤ (vj ) = 0, j = 1, 2, . . . , n,
ossia j ↵j (vj ) = j = 0, j = 1, 2, . . . , n, da cui la tesi.
Definizione 6.13 La base B ⇤ dello spazio vettoriale duale V ⇤, definita nella dimostra-
zione del Teorema 6.19, è detta base duale della base B di V.
Esempio 6.30 Procedendo in modo analogo alla dimostrazione del Teorema 6.19 si ve-
rifica che la base duale B ⇤ = (↵1 , ↵2 , . . . , ↵n ) della base canonica B di Rn è data dal-
le forme lineari che associano ordinatamente ad ogni n–upla (x1 , x2 , . . . , xn ) di Rn le
rispettive componenti, ossia:
↵j ((x1 , x2 , . . . , xn )) = xj , j = 1, 2, . . . , n,
(cfr. Es. 6.27). Inoltre, se si considera V3 , riferito alla base ortonormale B = (i, j, k) (cfr.
Es. 6.28), si deduce facilmente che la base duale di B è B ⇤ = (i ·, j ·, k ·).
Capitolo 6 281

Il teorema seguente, la cui dimostrazione è lasciata per esercizio, è un corollario del


Teorema 6.19.
Teorema 6.20 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Data la forma lineare ↵ : V ! R associata alla matrice:
A= a1 a2 . . . an 2 R1,n
rispetto alla base B e alla base C = (1) di R, allora:
↵ = a1 ↵1 + a2 ↵2 + . . . + an ↵n
dove B ⇤ = (↵1 , ↵2 , . . . , ↵n ) è la base duale di B in V ⇤.
Osservazione 6.18 Dati due spazi vettoriali complessi V e W, come per il caso reale,
si può introdurre la nozione di applicazione lineare da V a W. Infatti un’applicazione
lineare tra due spazi vettoriali complessi V e W è una funzione f : V ! W tale che:
f ( x + µy) = f (x) + µf (y),
per ogni x e y in V e per ogni e µ in C. In particolare, un endomorfismo di V è
un’applicazione lineare da V in V. Come nel caso reale, si dimostrano teoremi analoghi
a quelli esposti in questo capitolo. Per esempio, vale il teorema fondamentale per le
applicazioni lineari (cfr. Teor. 6.2 ) da cui si deducono la nozione di matrice associata (ad
elementi complessi) ad un’applicazione lineare e di conseguenza la nozione di equazioni
di un’applicazione lineare. Inoltre, come nel caso reale, si possono definire immagine e
controimmagine di sottospazi vettoriali, somma e prodotto per un numero complesso di
applicazioni lineari, sottospazio vettoriale invariante per un endomorfismo.
Inoltre, se V è uno spazio vettoriale complesso, un’applicazione lineare ↵ : V ! C,
cioè un elemento di L(V, C), si dice forma lineare su V. Lo spazio vettoriale complesso
L(V, C) è lo spazio vettoriale duale di V e lo si indica con V ⇤. Come nel caso reale, se
dim(V ) = n, allora anche dim(V ⇤ ) = n.

6.8.2 Cambiamento di base in V ⇤


Si considerino due basi B = (v1 , v2 , . . . , vn ) e B 0 = (v10 , v20 , . . . , vn0 ) dello spazio vet-
toriale V di dimensione n e si indichi con P 2 GL(n, R) (cfr. Oss. 2.7) la matrice del
cambiamento di base da B a B 0 le cui colonne sono date dalle componenti dei vettori
della base B 0 scritti rispetto alla base B, ossia:
0 1 0 1
v10 v1
B v0 C B v2 C
B 2 C t B C
B .. C = P B .. C. (6.23)
@ . A @ . A
vn0 vn
282 Applicazioni Lineari

Siano B ⇤ = (↵1 , ↵2 , . . . , ↵n ) e (B 0 )⇤ = (↵10 , ↵20 , . . . , ↵n0 ) le basi duali di B e di B 0 rispet-


tivamente. Si indichi con Q 2 GL(n, R) la matrice del cambiamento di base da B ⇤ a
(B 0 )⇤, ossia: 0 1 0 1
↵10 ↵1
B ↵0 C B ↵2 C
B 2 C B C
B .. C = t Q B .. C. (6.24)
@ . A @ . A
↵n0 ↵n
Scopo di questo paragrafo è quello di determinare la relazione che lega le matrici P e Q.
In notazione matriciale, la dualità tra le basi B e B ⇤ si può esprimere come:
0 1
↵1
B ↵2 C
B C
B .. C v1 v2 . . . vn = I, (6.25)
@ . A
↵n

dove I è la matrice unità di ordine n. Analogamente, la dualità tra le basi B 0 e (B 0 )⇤


equivale alla relazione:
0 1
↵10
B ↵0 C
B 2 C
B .. C v10 v20 . . . vn0 = I. (6.26)
@ . A
↵n0

Sostituendo (6.24) e (6.23) in (6.26) si ha:


0 1
↵1
B ↵2 C
t B C
Q B .. C v1 v2 . . . vn P = I,
@ . A
↵n

da cui, tenendo conto di (6.25), segue t Q P = I e, quindi, ricordando la proprietà


t
(P 1 ) = (t P ) 1 , si ottiene:
Q = tP 1 , (6.27)
che è la relazione cercata.

Esercizio 6.23 In R2 si considerino due basi: la base canonica B = ((1, 0), (0, 1)) e
la base B 0 = (( 1, 2), (1, 1)). Nello spazio vettoriale duale (R2 )⇤ si consideri la base
B ⇤ = (↵1 , ↵2 ), duale della base B. Determinare le componenti dei vettori della base
(B 0 )⇤ = (↵10 , ↵20 ), duale della base B 0 , rispetto alla base B ⇤.
Capitolo 6 283

Soluzione In accordo con (6.27), la matrice del cambiamento di base da B ⇤ a (B 0 )⇤ è:


t✓ ◆ 1 ✓ ◆
1 1 1 2
Q= = .
2 1 1 1

Esercizio 6.24 Determinare la base duale (B 0 )⇤ della base B 0 = ((1, 0, 2), (0, 1, 1), (2, 1, 2))
dello spazio vettoriale R3 , rispetto alla base duale B ⇤ della base canonica B di R3 .

Soluzione Sia (B 0 )⇤ = (↵10 , ↵20 , ↵30 ) la base duale di B 0 , allora dalla formula (6.26) si
ha: ✓ ◆ ✓ ◆ ✓ ◆
0 3 2 2 0 2 6 1 0 2 1 1
↵1 = , , , ↵2 = , , , ↵3 = , , ,
7 7 7 7 7 7 7 7 7
dove le componenti sono date rispetto alla base duale B ⇤ della base canonica B di R3 .

6.8.3 Spazio vettoriale biduale


Fissato un vettore x 2 V, al variare di ↵ nello spazio vettoriale duale V ⇤ , i numeri reali
↵(x) definiscono una funzione:
e : V ⇤ ! R,
x ↵ 7 ! ↵(x). (6.28)

È naturale, quindi, introdurre la seguente definizione.

Definizione 6.14 Dato uno spazio vettoriale reale V, lo spazio vettoriale duale del suo
duale V ⇤ prende il nome di spazio vettoriale biduale e lo si indica con V ⇤⇤.

Osservazione 6.19 Poiché V ⇤⇤ = L(V ⇤, R), segue:


dim(V ) = dim(V ⇤ ) = dim(V ⇤⇤ ).

Teorema 6.21 Per ogni vettore x 2 V, la funzione:


e : V ⇤ ! R,
x ↵ 7 ! ↵(x),
è una forma lineare, cioè appartiene allo spazio vettoriale biduale V ⇤⇤.

Dimostrazione È conseguenza immediata della definizione.

Teorema 6.22 Siano V uno spazio vettoriale reale di dimensione n e V ⇤⇤ lo spazio


vettoriale biduale di V. La funzione:
:V ! V ⇤⇤, e
x7 !x (6.29)
è un isomorfismo, dove x
e è definito da (6.28).
284 Applicazioni Lineari

Dimostrazione La tesi segue in quanto:

a. è lineare, ossia per ogni x, y 2 V e per ogni , µ 2 R si deve dimostrare che:

( x + µy) = (x) + µ (y).

Infatti, per ogni ↵ 2 V ⇤ si ha:

^
( x + µy)(↵) = ( x + µy)(↵) = ↵( x + µy)

= e(↵) + µe
↵(x) + µ↵(y) = x y(↵)

= ( (x) + µ (y))(↵).

b. Si deve dimostrare che ker = {oV }. Infatti, se x


e = oV ⇤⇤ allora per ogni ↵ 2 V ⇤,
risulta x
e(↵) = ↵(x) = oV quindi x = oV .

Poiché dim(V ⇤⇤ ) = dim(V ) = n, per il Teorema 6.11, segue che è un isomorfismo.

Osservazione 6.20 1. Si osservi che l’isomorfismo non dipende dalla scelta di par-
ticolari basi in V e in V ⇤⇤, ma è definito in modo intrinseco, senza coinvolgere le
componenti dei vettori sia in V sia in V ⇤⇤, pertanto si tratta di un isomorfismo ca-
nonico. In altri termini, i due spazi vettoriali V e V ⇤⇤ sono uno la copia dell’altro,
rendendo cosı̀ inutile l’iterazione del processo di dualità a V ⇤⇤.

2. L’isomorfismo tra V e V ⇤⇤ vale se e solo se V ha dimensione finita. Se V non è


finitamente generato, la funzione (6.29) è iniettiva, ma non è detto che sia suriettiva.
Per maggiori dettagli nel caso di spazi vettoriali non finitamente generati, cioè di
dimensione infinita, si consulti ad esempio [20].

3. Se V è uno spazio vettoriale complesso di dimensione finita, si ha, come nel caso
reale, un isomorfismo canonico tra V e V ⇤⇤.

Osservazione 6.21 Si considerino una base B = (v1 , v2 , . . . , vn ) di V e la sua base


duale B ⇤ = (↵1 , ↵2 , . . . , ↵n ) in V ⇤ . I vettori cosı̀ definiti:

ee1 = (e1 ), ee2 = (e2 ), ..., een = (en )

formano una base Be di V ⇤⇤. Dal fatto che eei (↵j ) = ↵j (ei ) = ij , i, j = 1, 2, . . . , n, si ha
che Be è la base duale di B ⇤. Allora ogni elemento x e di V ⇤⇤ si decompone, rispetto alla
e come:
base B,
e = xe1 ee1 + xe2 ee2 + . . . + x
x fn een ,
Capitolo 6 285

dove le componenti xei sono date da xei = x e(↵i ). D’altra parte x


e(↵i ) = ↵i (x) = xi ,
quindi xei = xi , con i = 1, 2, . . . , n. È cosı̀ dimostrato che le componenti di x 2 V,
relative alla base B, sono anche le componenti dell’immagine di x tramite l’isomorfismo
canonico : V ! V ⇤⇤ , relativamente alla base B, e biduale della base B; perciò, anche
in questo senso, lo spazio vettoriale biduale V ⇤⇤ si può identificare con V. In altri termini,
la matrice associata a , rispetto alle basi B e B, e è la matrice unità I di ordine n. Si
noti che questa osservazione non può sostituire la dimostrazione del Teorema 6.21 perché
coinvolge l’uso delle basi.

Esercizio 6.25 Sia R2 [x] lo spazio vettoriale dei polinomi in x a coefficienti reali di
grado minore o uguale a 2 (cfr. Es. 4.11) e siano b0 , b1 , b2 tre numeri reali distinti. Si
considerino le tre forme lineari:
↵00 : R2 [x] ! R, p(x) 7 ! p(b0 ),
↵10 : R2 [x] ! R, p(x) 7 ! p(b1 ), (6.30)
↵20 : R2 [x] ! R, p(x) 7 ! p(b2 ),

1. Verificare che (B 0 )⇤ = (↵00 , ↵10 , ↵20 ) è una base di R2 [x]⇤ .

2. Trovare la base duale (B 0 )⇤⇤ di (B 0 )⇤ .

Soluzione 1. Si deve verificare che (B 0 )⇤ è un insieme di vettori linearmente indipen-


denti. A tale scopo si consideri la combinazione lineare:
0 0 0
1 ↵0 + 2 ↵1 + 3 ↵2 = oR2 [x]⇤ ,

con 1 , 2 , 3 2 R e oR2 [x]⇤ forma lineare nulla su R2 [x]. Sia B = (1, x, x2 ) una
base di R2 [x], tenendo conto delle relazioni (6.30), segue:

↵0 0 (1) = ↵0 1 (1) = ↵0 2 (1) = 1,


↵0 0 (x) = b0 , ↵0 1 (x) = b1 , ↵0 2 (x) = b2 ,
↵0 0 (x2 ) = b20 , ↵0 1 (x2 ) = b21 , ↵0 2 (x2 ) = b22 ,

da cui si ha:
8 0 0 0
< ( 1 ↵0 +
> 2 ↵1 + 3 ↵2 )(1) = 1 + 2 + 3 = 0,
( 1 ↵00 + 0
2 ↵1 + 0
3 ↵2 )(x) = 1 b0 + 2 b1 + 3 b2 = 0, (6.31)
>
:
( 1 ↵00 + 0
2 ↵1 + 0 2
3 ↵2 )(x ) = 2
1 b0 + 2
2 b1 + 2
3 b2 = 0.

Si ottiene un sistema lineare omogeneo la cui matrice dei coefficienti P ha deter-


286 Applicazioni Lineari

minante:

1 1 1
det(P ) = b0 b1 b2 = (b0 b1 )(b0 b2 )(b2 b1 ) 6= 0.
b20 b21 b22

Pertanto l’unica soluzione del sistema lineare omogeneo (6.31) è 1 = 2 = 3 = 0,


vale a dire ↵00 , ↵10 e ↵20 sono linearmente indipendenti. Si osservi che tP è la matrice
del cambiamento di base dalla base B ⇤ = (↵0 , ↵1 , ↵2 ), duale della base B, alla ba-
se (B 0 )⇤ , ovvero:
0 0 1 0 1
↵0 ↵0
@ ↵10 A = tP @ ↵1 A.
↵20 ↵2

2. Mediante l’isomorfismo canonico tra V e V ⇤⇤ si possono identificare i vettori


della base B = (1, x, x2 ) con i vettori della base B ⇤⇤ = ( (1), (x), (x2 )). Per-
tanto per determinare la base (B 0 )⇤⇤ di R2 [x]⇤⇤ duale della base (B 0 )⇤ = (↵00 , ↵10 , ↵20 )
è sufficiente determinare la base B 0 = (p0 (x), p1 (x), p2 (x)) la cui base duale è (B 0 )⇤
ossia tale che:

(↵i0 )(pj (x)) = pj (bi ) = ij , i, j = 0, 1, 2,

con ij simbolo di Kronecker, da cui segue:

1
p0 (x) = (b1 b2 (b1 + b2 )x + x2 ) ,
(b0 b1 )(b0 b2 )
1
p1 (x) = (b0 b2 (b0 + b2 )x + x2 ) ,
(b0 b1 )(b2 b1 )
1
p2 (x) = (b0 b1 (b0 + b1 )x + x2 ) .
(b0 b2 )(b1 b2 )

Si osservi che dalla relazione (6.27) segue che P 1


è la matrice del cambiamento
di base da B a B 0 e pertanto:

0 1 0
1
p0 (x) 1
@ p1 (x) A = P 1@
x A.
p2 (x) x2
Capitolo 6 287

6.8.4 Dualità nel caso degli spazi vettoriali euclidei


Scopo di questo paragrafo è quello di dimostrare che, se (V, · ) è uno spazio vettoriale
euclideo di dimensione finita, allora lo spazio vettoriale duale V ⇤ è canonicamente iso-
morfo a V. Si perviene a questo importante risultato estendendo l’Esempio 6.28 al caso
generale di uno spazio vettoriale euclideo V.

Esempio 6.31 Sia (V, · ) uno spazio vettoriale euclideo, fissato un vettore x in V, la
funzione:
x · : V ! R, y 7 ! x · y,
con “·” prodotto scalare su V, è una forma lineare. Infatti, dalle proprietà del prodotto
scalare si ha:

x · ( y1 + µy2 ) = x · y1 + µx · y2 ,
per ogni , µ 2 R e per ogni y1 , y2 2 V.

Teorema 6.23 Sia (V, · ) uno spazio vettoriale euclideo di dimensione finita, la funzione:

iV : V ! V ⇤, x7 !x· (6.32)
è un isomorfismo.

Dimostrazione Dalle proprietà del prodotto scalare segue che la funzione iV è un’ap-
plicazione lineare. L’iniettività di iV è conseguenza del calcolo di ker iV , ossia:

ker iV = {x 2 V | iV (x) = oV ⇤ } = {x 2 V | x · y = 0, 8y 2 V } = {oV }.


Dal Teorema 6.11 segue che iV è un isomorfismo.

Osservazione 6.22 Nel caso di uno spazio vettoriale euclideo (V, · ) è quindi possibile
definire, mediante (6.32), un isomorfismo canonico tra V e il suo duale V ⇤ che non dipen-
de dalla scelta delle basi nei due spazi vettoriali ma solo dal prodotto scalare che conferi-
sce a V la struttura di spazio vettoriale euclideo. Si osservi, che se B = (e1 , e2 , . . . , en )
è una base ortonormale di (V, · ) e se si indica con B ⇤ = (↵1 , ↵2 , . . . , ↵n ) la base duale
di B, si ha:

iV (ej )(ek ) = ej · ek = jk = ↵j (ek ), j, k = 1, 2, . . . , n,



dove jk è il simbolo di Kronecker. Pertanto la matrice M B,B (iV ) associata all’isomor-
fismo iV , rispetto alle basi B e B ⇤ , è la matrice unità I di ordine n.
288 Applicazioni Lineari

Osservazione 6.23 Nel caso di uno spazio vettoriale hermitiano (V, · ), la funzione:

x·:V ! C, y 7 ! x · y,

non è una forma lineare (cfr. (5.12)). Invece la funzione:

·x : V ! C, y 7 ! y · x,

è una forma lineare, ma la funzione:

V ! V ⇤, x 7 ! ·x

non è un’applicazione lineare. Pertanto, a differenza del caso reale, un prodotto hermi-
tiano non permette di definire un isomorfismo canonico (senza l’uso delle basi) tra uno
spazio vettoriale hermitiano ed il suo duale.

6.8.5 Trasposta di un’applicazione lineare


Lo scopo di questo paragrafo è quello di individuare il legame tra un’applicazione li-
neare associata ad una matrice A e l’applicazione lineare associata alla trasposta della
matrice A stessa, senza necessariamente introdurre un prodotto scalare, come nel caso
dell’endomorfismo autoaggiunto definito nel Paragrafo 6.6.

Sia f : V ! W un’applicazione lineare da uno spazio vettoriale reale V in uno spazio


vettoriale reale W. Data una generica forma lineare in W ⇤, la composizione f è una
forma lineare su V, ossia f 2 V . Si può, allora, enunciare la seguente definizione.

Definizione 6.15 Data un’applicazione lineare f : V ! W tra due spazi vettoriali V


e W, la funzione:
t
f : W ⇤ ! V ⇤, 7 ! (tf )( ) = f, (6.33)
si dice trasposta dell’applicazione lineare f .

Teorema 6.24 La funzione tf appena definita è un’applicazione lineare.

Dimostrazione È conseguenza evidente della definizione e delle linearità di e di f .

Osservazione 6.24 La denominazione “trasposta” per l’applicazione lineare tf è giusti-


ficata dal seguente teorema.
Capitolo 6 289

Teorema 6.25 Siano V uno spazio vettoriale reale di dimensione n e W uno spazio vet-
toriale reale di dimensione m. Data un’applicazione lineare f : V ! W, si indichi con
A = M B,C (f ) la matrice di Rm,n associata ad f rispetto alle basi B = (v1 , v2 , . . . , vn )
di V e C = (w1 , w2 , . . . , wm ) di W. Si considerino nello spazio vettoriale duale V ⇤ la
base B ⇤ = (↵1 , ↵2 , . . . , ↵n ) duale della base B e nello spazio vettoriale duale W ⇤ la
base C ⇤ = ( 1 , 2 , . . . , m ) duale di C. La matrice associata all’applicazione lineare:
f : W⇤ ! V ⇤
t

rispetto alle basi C ⇤ e B ⇤ è la trasposta della matrice A:


⇤ ⇤
M C ,B (tf ) = tA.

Dimostrazione La definizione di trasposta di un’applicazione lineare (6.33), applicata


ad un vettore x di V, restituisce il numero reale dato da:
((tf )( ))(x) = ( f )(x). (6.34)
Si indichino con G 2 Rn,m la matrice associata a tf rispetto alle basi C ⇤ e B ⇤ , con
B 2 Rn,1 la matrice associata alla forma lineare rispetto alla base C di W e alla base
D = (1) di R:
B = M C,D ( ) = b1 b2 . . . bm
e con: 0 1
x1
B x2 C
B C
X=B .. C
@ . A
xn
la matrice delle componenti del vettore x di V rispetto alla base B. Si vuole ora scrivere,
in notazione matriciale, la relazione (6.34). Si ha:
a. il secondo membro di (6.34) è il numero reale:
BAX, (6.35)
in quanto alla composizione di applicazioni lineari f si associa il prodotto di
matrici BA 2 R1,n come segue da (6.16).
b. Il calcolo del primo membro di (6.34) è più laborioso; la matrice colonna delle
componenti, rispetto alla base B ⇤, della forma lineare ↵ = (tf )( ) 2 V ⇤ si ottiene
applicando la matrice G (associata a tf ) alla matrice colonna delle componenti,
rispetto alla base C ⇤, del vettore ossia G tB . Quindi il primo membro di (6.34) si
riduce a ↵(x) ossia a:
t
(G tB)X. (6.36)
290 Applicazioni Lineari

Dall’uguaglianza di (6.36) con (6.35) si ottiene:


t
(G tB) = B tG = BA

da cui la tesi.

Osservazione 6.25 Dalla formula (6.35) si deduce che per calcolare l’immagine di un
vettore mediante la trasposta di un’applicazione lineare si effettua il prodotto della ma-
trice riga delle componenti del vettore a destra della matrice associata all’applicazione
lineare di partenza. Mentre per calcolare l’immagine di un vettore mediante un’applica-
zione lineare si effettua il prodotto a sinistra per la matrice colonna delle componenti del
vettore.

Seguono alcuni teoremi che mettono in relazione la trasposta di un’applicazione lineare


con la somma di applicazioni lineari, con il prodotto di un numero reale per un’applicazio-
ne lineare, con la composizione di applicazioni lineari e con l’inversa di un’applicazione
lineare invertibile. Tutte le dimostrazioni sono lasciate al Lettore per esercizio.

Teorema 6.26 Se f, g 2 L(V, W ) e 2 R, allora:

1. t (f + g) = tf + tg ,

2. t ( f ) = f.
t

Teorema 6.27 Siano V, W, Z spazi vettoriali reali, allora, per ogni f 2 L(V, W ) e per
ogni g 2 L(W, Z) si ha:
t
(g f ) = tf tg.

Se f è un endomorfismo di uno spazio vettoriale reale V, allora tf è un endomorfismo


dello spazio vettoriale duale V ⇤ di V, inoltre:

(t idV )(↵) = ↵ idV = idV ⇤ (↵), ↵ 2 V ⇤,

dove idV e idV ⇤ indicano, rispettivamente, l’identità in V e V ⇤. Pertanto t idV = idV ⇤ .

Da queste considerazioni e dal Teorema 6.27 si ottiene il seguente teorema.

Teorema 6.28 Se f è un automorfismo dello spazio vettoriale V allora tf è un automor-


fismo dello spazio vettoriale duale V ⇤ e:

(tf ) 1
= t (f 1
).
Capitolo 6 291

Esercizio 6.26 Siano f : R4 ! R3 l’applicazione lineare la cui matrice, rispetto alle


basi canoniche di R4 e di R3 , è:
0 1
1 2 1 2
A=@ 1 1 1 1 A
2 1 0 1

e : R3 ! R la forma lineare la cui matrice, rispetto alla base canonica di R3 e alla


base C = (1) di R, è:
M( ) = 1 2 2 .

Determinare la matrice associata alla forma lineare ↵ = (tf )( ).

Soluzione Per definizione di applicazione lineare trasposta (tf )( ) = f , la cui


matrice associata è data da M ( )A. Quindi la matrice associata alla forma lineare ↵,
rispetto alla base canonica di R4 e alla base C, è:
0 1
1 2 1 2
M ( )A = 1 2 2 @ 1 1 1 1 A= 1 2 3 2
2 1 0 1
e l’equazione di ↵ risulta essere:
0 1 0 1
x1 x1
B x2 C B x2 C
t
f( ) B C
@ x3 A = 1 2 3 2 B C
@ x3 A = x1 + 2x2 3x3 2x4 ,
x4 x4

dove (x1 , x2 , x3 , x4 ) è un generico elemento di R4 .

Osservazione 6.26 Nel Paragrafo 6.8.4 è stato dimostrato che la trasposta di una matrice,
associata ad un’applicazione lineare f : V ! W rispetto alle basi B di V e C di W, è
la matrice associata all’applicazione lineare trasposta tf : W ⇤ ! V ⇤ rispetto alle basi
duali C ⇤ di W ⇤ e B ⇤ di V ⇤ (cfr. Def. 6.15 e Teor. 6.25).
Data un’applicazione lineare f : V ! W tra due spazi vettoriali euclidei (V, · ) e
(W, · ), rispettivamente di dimensione n e m, si intende in questa osservazione, tramite
l’isomorfismo canonico tra uno spazio vettoriale euclideo ed il suo duale, determinare il
legame tra la trasposta tf : W ⇤ ! V ⇤ di f e l’aggiunta f † : W ! V di f (cfr. Teor.
6.16). Si ha infatti:

f (x) · y = iW (y)(f (x)) = (tf )(iW (y))(x),


292 Applicazioni Lineari

per ogni x in V e y in W. Dalla definizione di aggiunta, si ha pertanto che:

(tf )(iW (y))(x) = iV (f † (y))(x), x 2 V, y 2 W,

ossia:
(tf ) iW = iV f †. (6.37)
Si osservi che, fissate una base ortonormale B di (V, · ) ed una base ortonormale C di
(W, · ), se si indica con A la matrice associata a f rispetto alle basi B e C , la matrice
trasposta di A, che è la matrice associata a tf rispetto alle basi duali C ⇤ e B ⇤ (cfr. Teor.
6.25), è anche la matrice associata a f † rispetto alle basi C e B, ovvero:
⇤ ,B ⇤
MC (tf ) = M C,B (f † ) = tA.

In notazione matriciale, rispetto alle basi ortonormali B, C e alle loro basi duali B ⇤ , C ⇤ , la
relazione (6.37) si traduce nella relazione:
t
A Im = In tA

dove Im e In indicano la matrice unità di ordine m ed n rispettivamente (cfr. Par. 6.4 e


Oss. 6.22).

6.8.6 Endomorfismi autoaggiunti e matrici hermitiane


Analogamente a quanto visto nel Paragrafo 6.6 si può introdurre il concetto di aggiun-
ta di un’applicazione lineare tra spazi vettoriali hermitiani. Per semplicità si tratterà in
dettaglio solo il caso di un endomorfismo di uno spazio vettoriale hermitiano.
Sia (V, · ) uno spazio vettoriale hermitiano (cfr. Def. 5.7), analogamente al caso reale,
l’aggiunto di un endomorfismo f di V è l’endomorfismo f † di V tale che:

f (x) · y = x · f † (y), x, y 2 V. (6.38)

Si supponga che V abbia dimensione n e si indichino rispettivamente con A e A† le


matrici associate ad f e f † rispetto ad una base unitaria B = (e1 , e2 , . . . , en ) di V. Se
X 2 Cn,1 e Y 2 Cn,1 denotano, rispettivamente, la matrice colonna delle componenti dei
vettori x e y rispetto alla base B, l’equazione (6.38) è equivalente a:
t
(AX) Y = t XA† Y ,

da cui si ottiene:
t
X tA Y = t X A† Y ,
ossia A† = tA. Di conseguenza vale il seguente teorema, che è l’analogo del Teorema
6.16 in campo complesso.
Capitolo 6 293

Teorema 6.29 Sia (V, · ) uno spazio vettoriale hermitiano di dimensione n. Dato un’en-
domorfismo f di V, la matrice M B,B (f † ) associata all’endomorfismo aggiunto f † di f
rispetto ad una base unitaria B di (V, · ) è la trasposta coniugata della matrice M B,B (f )
associata a f rispetto alla stessa base.

In particolare, un endomorfismo f di uno spazio vettoriale hermitiano (V, · ) si dice


autoaggiunto o hermitiano se f † = f . In questo caso vale il seguente teorema che è
l’analogo, nel caso hermitiano, del Teorema 6.17.

Teorema 6.30 Sia (V, · ) uno spazio vettoriale hermitiano di dimensione n e sia B una
base unitaria di V. Un endomorfismo f di V è autoaggiunto se e solo se la matrice
A = M B,B (f ) 2 Cn,n è hermitiana, ossia se e solo se tA = A.

6.8.7 Isometrie, similitudini, trasformazioni unitarie


In questo paragrafo si intende estendere sia al caso degli spazi vettoriali euclidei sia al
caso degli spazi vettoriali hermitiani il concetto di movimento euclideo del piano, inten-
dendosi per tale il movimento “rigido” del piano che non cambia la lunghezza dei vettori
e l’ampiezza degli angoli. Si ricordi infatti che la geometria euclidea del piano è per
definizione l’insieme di assiomi e teoremi invarianti per effetto dei movimenti rigidi.

Sia (V, · ) uno spazio vettoriale euclideo di dimensione finita. La definizione seguente
estende (in modo naturale) a dimensioni superiori il concetto elementare di isometria o
movimento euclideo nel piano e nello spazio.

Definizione 6.16 Un endomorfismo f di uno spazio vettoriale euclideo (V, · ) prende il


nome di isometria o trasformazione ortogonale se:

f (x) · f (y) = x · y, x, y 2 V. (6.39)

Il teorema che segue afferma che la definizione di isometria impone che necessariamente
essa sia un’isomorfismo.

Teorema 6.31 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Se f è un’iso-
metria di (V, · ), allora f è un automorfismo di V.

Dimostrazione Per il Teorema 6.11 è sufficiente dimostrare che ker f = {o}. Se x è


un vettore di ker f si ha f (x) = o, d’altra parte essendo f un un’isometria segue:

f (x) · f (x) = kxk2 = kok2 = 0,


294 Applicazioni Lineari

quindi x = o.

Si può generalizzare la definizione precedente al caso di isomorfismi tra due spazi vet-
toriali euclidei in questo modo: dati due spazi vettoriali euclidei V e W, con la stessa
dimensione, un isomorfismo f : V ! W si dice isometria se “non cambia ” il prodotto
scalare.

Esempio 6.32 Ogni rotazione R[✓] (in senso antiorario) di angolo ✓ del piano vettoriale
V2 è un’isometria (cfr. Es. 6.24). Inoltre, come è già stato affermato, la matrice associata
a R[✓] (rispetto ad una base ortonormale (i, j) di V2 ) è la matrice ortogonale:
✓ ◆
cos ✓ sin ✓
.
sin ✓ cos ✓

Esempio 6.33 L’identità id : V ! V (cfr. Es. 6.1) è un’isometria rispetto ad ogni


prodotto scalare definito su V.

Esempio 6.34 L’applicazione id : V ! V definita da id(x) = x, x 2 V, è


un’isometria rispetto ad ogni prodotto scalare definito su V.

Alcune tra le principali proprietà delle isometrie sono riassunte nel seguente teorema.

Teorema 6.32 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n.

1. Un endomorfismo f di V è un’isometria se e solo se non cambia la norma dei


vettori:
kf (x)k = kxk, x 2 V. (6.40)

2. Se f è un’isometria di V, allora la misura dell’angolo individuato dai vettori x e


y di V coincide con la misura dell’angolo individuato dai vettori f (x) e f (y), per
ogni x, y 2 V.

3. La composizione di due isometrie è un’isometria.

4. L’inversa di un’isometria è un’isometria.

5. Un endomorfismo f di V è un’isometria di V se e solo se le immagini dei vettori


di una base ortonormale di V formano una base ortonormale di V.

6. Un endomorfismo f di V è un’isometria di V se e solo se la matrice associata ad


f , rispetto ad una base ortonormale di V, è una matrice ortogonale.
Capitolo 6 295

7. Un endomorfismo f di V è un’isometria se e solo se f 1


= f † , dove f † è
l’applicazione aggiunta di f .

Dimostrazione 1. Se f è un’isometria, la relazione (6.40) segue ponendo y = x in


(6.39). Viceversa, si dimostra che se vale (6.40) allora f è un’isometria. Dalla
formula (5.6) si ottiene:
1
x·y = kx + yk2 kxk2 kyk2
2
e:
1
f (x) · f (y) = kf (x) + f (y)k2 kf (x)k2 kf (y)k2 .
2
Pertanto per la linearità di f e da (6.40) segue la relazione (6.39).

2. Se f è un’isometria, da (6.39) e dal punto 2. segue:

kxk kyk cos(xy) \


c = kxk kyk cos(f (x)f (y)),

per ogni x, y 2 V, dove xy \


c e f (x)f (y) indicano, rispettivamente, l’angolo tra i
vettori x e y ed i vettori f (x) e f (y) (cfr. Def. 5.3). Pertanto:

\
c = cos(f (x)f
cos(xy) (y)). (6.41)

3. Se f e g sono isometrie, allora:

k(g f )(x)k = kg(f (x))k = kf (x)k = kxk,

per ogni x 2 V.

4. Sia f un’isometria. Si ha: kf (f 1


(x))k = kid(x)k, dove id è l’identità di V , ma
1 1
kf (f (x))k = kf (x)k = kxk,

per ogni x 2 V , da cui la tesi.

5. Se f è un’isometria e B = (e1 , e2 , . . . , en ) una base ortonormale di V, allora


B 0 = (f (e1 ), f (e2 ), . . . , f (en )) è una base ortonormale perché f mantiene im-
mutata sia la norma dei vettori sia i loro prodotti scalari. Viceversa, siano B =
(e1 , e2 , . . . , en ) e B 0 = (f (e1 ), f (e2 ), . . . , f (en )) due basi ortonormali di V. Dato:

x = x 1 e1 + x 2 e 2 + . . . + x n e n
296 Applicazioni Lineari

in V, allora:
kxk2 = x21 + x22 + . . . + x2n ,
d’altra parte, per la linearità di f :

f (x) = x1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ),

quindi:
kf (x)k2 = x21 + x22 + . . . + x2n ,
da cui kf (x)k = kxk. Si osservi che il calcolo della norma dei vettori x e f (x) ha
assunto l’espressione suddetta in quanto riferito a due basi ortonormali (cfr. Teor.
5.4).

6. Sia A la matrice associata ad f , rispetto ad una base ortonormale B di V, e siano


Y = AX le equazioni di f rispetto a B. Poiché, per ogni x 2 V, kf (x)k2 = kxk2
e ricordando che kxk2 = t XX si ha:
t
X 0 X 0 = t (AX)(AX) = tX tAAX = t XX,

da cui segue la tesi. Si osservi che kxk2 = t XX se e solo se X è la matrice


colonna delle componenti di x rispetto ad una base ortonormale.

7. Per definizione di f † , applicazione lineare aggiunta di f, si ha:

f (x) · f (y) = f † (f (x)) · y, x, y 2 V. (6.42)

Quindi, se f è un isometria, cioè se vale (6.39), si deve avere:

f † (f (x)) · y = x · y, x, y 2 V,

da cui
((f † f )(x) x) · y = 0,
per ogni x e y. Pertanto, f † f = id, ossia f † = f 1 . Viceversa, se f † = f 1
,
allora da (6.42) si ha immediatamente che f è un’isometria.

Osservazione 6.27 1. Dai punti 2. e 3. del teorema precedente segue che l’insieme
delle isometrie di uno spazio vettoriale euclideo (V, · ) è un gruppo (cfr. Oss. 2.2)
rispetto alla composizione di funzioni. Inoltre, fissata una base ortonormale B nello
spazio vettoriale euclideo (V, · ), per la proprietà 6. si può stabilire, in modo natu-
rale, un isomorfismo tra l’insieme delle isometrie di (V, · ) ed il gruppo ortogonale
O(n) associando ad ogni isometria f di V la matrice ortogonale A = M B,B (f ).
Capitolo 6 297

2. Si osservi che se un automorfismo di uno spazio vettoriale euclideo (V, · ) mantiene


invariati gli angoli tra i vettori di V allora non è necessariamente un’isometria. Un
esempio elementare è dato dall’automorfismo:

f :V ! V, x 7 ! 2x, (6.43)

ossia dalla funzione 2 id.

Esempio 6.35 Gli elementi di O(2), ovvero le matrici ortogonali di ordine 2, sono neces-
sariamente o di tipo (3.31) o di tipo (3.33) (cfr. Esercizio 3.11). Pertanto gli endomorfismi
del piano vettoriale V2 con matrice associata, rispetto ad una base ortonormale B = (i, j),
di tipo (3.31) o di tipo (3.33) sono isometrie di V2 . Nel caso di matrici di tipo (3.31) si
ottengono le rotazioni R[✓] già considerate nell’ Esempio 6.32. Se si considera invece
un endomorfismo r✓ del piano vettoriale V2 con matrice associata, rispetto ad una base
ortonormale B = (i, j), di tipo (3.33), ossia:
✓ ◆
cos ✓ sin ✓
A✓ = ,
sin ✓ cos ✓
si ha un’isometria di V2 tale che r✓ r✓ coincide con l’identità di V2 , ovvero per cui
r✓ 1 = r✓ .

Esercizio 6.27 Si consideri su R2 la struttura euclidea determinata dal prodotto scalare

(x1 , x2 ) · (x2 , y2 ) = x1 y1 + 4x2 y2 .

Verificare che l’automorfismo di R2 la cui matrice associata, rispetto alla base canonica
B = (e1 , e2 ) di R2 , è la matrice:
0 p 1
3
B 2 1 C
B C
A=B p C ,
@ A
1 3
4 2
è un’isometria di R2 . Per quale motivo A non è una matrice ortogonale?

Soluzione Le equazioni di f, rispetto alla base B, sono:


8 p
>
> 0 3
< x1 = 2 x1 + x2
>

> p
>
>
: x0 = 1 x + 3 x ,
2 1 2
4 2
298 Applicazioni Lineari

con (x01 , x02 ) = f ((x1 , x2 )). Per provare che f è un’isometria di (R2 , · ) è sufficiente
verificare che:
kf (x)k2 = (x01 )2 + 4(x02 )2 = x21 + 4x22 = kxk2 ,
con x = (x1 , x2 ) 2 R2 .
La matrice A non è un elemento di O(2) perché non è associata ad una base ortonormale
(rispetto al prodotto scalare introdotto), infatti ke2 k = 2.

Esercizio 6.28 Nello spazio vettoriale euclideo (V, · ) di dimensione 4, riferito alla base
ortonormale B = (e1 , e2 , e3 , e4 ), sono dati i vettori:

a = 2e1 e3 + 2e4 , b = e3 e4 .

1. Detto c il versore di a, verificare che la funzione

f :V ! V, x7 !x 2(x · c)c

è un isometria di V .

2. Calcolare kf 1
(b)k ed il coseno dell’angolo ✓ tra i vettori f 1
(a) e f 1
(b).

Soluzione 1. La funzione f è un endomorfismo in quanto:

f ( x + µy) = ( x + µy) 2 (( x + µy) · c) c


= x 2( x · c)c + µy 2(µy · c)c
= f (x) + µf (y),

per ogni , µ 2 R e per ogni x, y 2 V. Inoltre:

kf (x)k2 = f (x) · f (x) = (x 2(x · c)c) · (x 2(x · c)c)


= x · x 4(x · c)(x · c) + 4(x · c)2 (c · c) = kxk2 .

2. Essendo f un’isometria, anche f 1


è un’isometria. Quindi:
1
p
kf (b)k = kbk = 2,
\1 (b)) c = a·b 1
cos ✓ = cos(f 1 (a)f = cos(ab) = p .
kak kbk 2

Si lascia per esercizio la determinazione della matrice A associata a f rispetto alla base
B e la verifica del fatto che A sia una matrice ortogonale.
Capitolo 6 299

Osservazione 6.28 Siano (V, · ) uno spazio vettoriale euclideo di dimensione n e W un


iperpiano vettoriale di V. La funzione:

x, x2W
g : V ! V, x 7 !
x, x 2 W ?,

che coincide con l’identità su W e che associa ad ogni vettore del complemento orto-
gonale W ? di W il proprio opposto, è un endomorfismo di V. Infatti, si può verificare
che:
1
(x + g(x))
2
coincide con la proiezione ortogonale di x su W. L’endomorfismo g prende il nome
di simmetria ortogonale o riflessione rispetto all’iperpiano vettoriale W. È un esercizio
verificare che g è un’isometria dello spazio vettoriale euclideo (V, · ) e che g g coincide
con l’identità di V. Infine, se c è un versore ortogonale a W, allora:

g(x) = x 2(x · c)c.

Di conseguenza l’isometria f dell’esercizio precedente non è altro che la simmetria


ortogonale rispetto all’iperpiano vettoriale L(a)? di equazione:

2x1 x3 + 2x4 = 0.

Infine si può verificare che l’endomorfismo r✓ del piano vettoriale V2 , considerato nel-
l’Esempio 6.35, è una simmetria ortogonale rispetto ad una retta vettoriale. Infatti, si
ha: 0 1
2 ✓ ✓ ✓
B 1 2 sin 2 2 cos sin C
2 2 C
B
A✓ = B C
@ ✓ ✓ ✓ A
2 cos sin 1 2cos2
2 2 2
0 1 0 1
1 0 ✓
B C B sin C ✓ ◆
B C B 2 C ✓ ✓
= B C 2B C sin cos .
@ A @ ✓ A 2 2
0 1 cos
2

Automorfismi di uno spazio vettoriale euclideo che mantengano invariata la misura degli
angoli tra coppie di vettori e le loro immagini, ma in generale non le norme dei vettori, so-
no dati dalle similitudini, di cui l’automorfismo (6.43) ne è un esempio. Più precisamente
si può enunciare la seguente definizione.
300 Applicazioni Lineari

Definizione 6.17 Sia f : V ! V un automorfismo di uno spazio vettoriale euclideo


(V, · ), f prende il nome di similitudine di rapporto µ se:

kf (x)k = µkxk, x 2 V,

da cui si deduce che µ deve essere un numero reale positivo non nullo.

Osservazione 6.29 Ogni isometria è una similitudine di rapporto 1. Mentre l’automorfi-


smo definito da (6.43) è una similitudine di rapporto 2.

Il teorema che segue, la cui dimostrazione è lasciata al Lettore per esercizio, riassume
alcune tra le principali proprietà delle similitudini.

Teorema 6.33 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n.

1. Se f è una similitudine di V, allora la misura dell’angolo individuato dai vettori


x e y di V coincide con la la misura dell’angolo individuato dai vettori f (x) e
f (y), per ogni x, y 2 V.

2. La matrice associata ad una similitudine di rapporto µ, rispetto ad una base orto-


normale di V, è data dal prodotto µA con A 2 O(n).

Analogamente al caso reale, un endomorfismo f di uno spazio vettoriale hermitiano


(V, · ) si dice una trasformazione unitaria o operatore unitario o isometria complessa
se non cambia il prodotto hermitiano, cioè se vale la relazione (6.39). Come nel caso
delle isometrie si può dimostrare il teorema che segue.

Teorema 6.34 Sia (V, · ) uno spazio vettoriale hermitiano di dimensione n.

1. Un endomorfismo f : V ! V è una trasformazione unitaria se e solo se:

kf (x)k = kxk, x 2 V.

2. La composizione di due trasformazioni unitarie è una trasformazione unitaria.

3. L’inversa di una trasformazione unitaria è una trasformazione unitaria.

4. Un endomorfismo f di V è una trasformazione unitaria di V se e solo se le


immagini dei vettori di una base unitaria di V formano una base unitaria di V.

5. Un endomorfismo f di V è una trasformazione unitaria di V se e solo se la matrice


associata ad f, rispetto ad una base unitaria di V, è una matrice unitaria.
Capitolo 6 301

6. Un endomorfismo f di V è una trasformazione unitaria se e solo se f 1


= f†,
dove f † è l’aggiunto di f .

La dimostrazione del Teorema 6.34 è analoga a quella del Teorema 6.32 tenendo però
conto che in questo caso vale la relazione (5.15).

Osservazione 6.30 Come per le isometrie, dai punti 2. e 3. del Teorema 6.34 segue che
l’insieme delle trasformazioni unitarie di uno spazio vettoriale hermitiano (V, · ) è un
gruppo (cfr. Oss. 2.2) rispetto alla composizione di funzioni. Inoltre, fissata una base or-
tonormale B nello spazio vettoriale hermitiano (V, · ) per il punto 5. dello stesso teorema
si può stabilire, in modo naturale, un isomorfismo tra l’insieme delle trasformazioni unita-
rie di (V, · ) ed il gruppo unitario U (n) delle matrici unitarie (cfr. Oss. 5.15) associando
ad ogni trasformazione unitaria f di V la matrice unitaria A = M B,B (f ).
302 Applicazioni Lineari
Capitolo 7

Diagonalizzazione

Questo capitolo è di importanza fondamentale per le sue svariate applicazioni in mate-


matica, in fisica e in tutte quelle discipline a carattere scientifico e non, ad esempio la
musica. Nel caso di un endomorfismo si vuole determinare, tra le infinite matrici ad esso
associate, almeno una particolarmente semplice: una matrice diagonale. In altri termini
si vuole determinare una base opportuna dello spazio vettoriale V, su cui l’endomorfismo
è definito, rispetto alla quale la matrice ad esso associata sia diagonale; si vedrà però nel
corso del capitolo che questo scopo non può essere sempre raggiunto.

7.1 Autovalori e autovettori di un endomorfismo


Si inizia con l’introdurre una definizione che diventerà fondamentale per lo scopo che ci
si è proposti.

Definizione 7.1 Sia f : V ! V un endomorfismo di uno spazio vettoriale reale V. Un


vettore x non nullo di V si dice autovettore di f se esiste uno scalare 2 R tale che:

f (x) = x, (7.1)

si dice autovalore di f relativo all’autovettore x.

Osservazione 7.1 1. È evidente dalla definizione di autovettore la necessità di sce-


gliere x diverso dal vettore nullo di V, infatti o = o per ogni 2 R.

2. La precedente definizione può essere anche formulata nel modo seguente: 2 R è


un autovalore dell’endomorfismo f se e solo se esiste un vettore x non nullo di V
per cui valga l’uguaglianza (7.1).

303
304 Diagonalizzazione

3. Si osservi che se x è un autovettore di f relativo all’autovalore , allora anche µx


è un autovettore di f relativo all’autovalore , per ogni numero reale µ 6= 0.

Si antepongono due facili proprietà agli esempi, per poter meglio capire la definizione
appena enunciata.

Teorema 7.1 Sia x un autovettore di un endomorfismo f di uno spazio vettoriale V,


allora l’autovalore ad esso relativo è unico.

Dimostrazione Per assurdo siano 6= 0 due autovalori di f relativi allo stesso auto-
vettore x, allora f (x) = x = 0 x da cui ( 0
)x = o, quindi segue la tesi.

Teorema 7.2 Sia un autovalore di un endomorfismo f di uno spazio vettoriale V, tutti


gli autovettori relativi a insieme con il vettore nullo di V costituiscono un sottospazio
vettoriale di V, indicato esplicitamente come:

V = {x 2 V | f (x) = x},

detto autospazio di f relativo all’autovalore . Inoltre, V è un sottospazio vettoriale


invariante per f.

Dimostrazione Verificare che V è un sottospazio vettoriale di V invariante per f è un


facile esercizio che è conseguenza delle Definizioni 4.2 e 6.9.

Osservazione 7.2 Dal precedente teorema segue, quindi, che ogni combinazione lineare
↵x + y, con x, y autovettori di un endomorfismo f relativi allo stesso autovalore
e ↵, 2 R, è ancora un elemento dell’autospazio V . Se si considerano, invece, due
autovettori x e y relativi a due autovalori distinti e µ ( 6= µ), ossia tali che f (x) = x
e f (y) = µy si ha che la generica loro combinazione lineare non è più un autovettore di
f, in quanto:
f (↵x + y) = (↵x) + µ( y).

Definizione 7.2 Dato un endomorfismo f di uno spazio vettoriale reale V, l’insieme


degli autovalori di f prende il nome di spettro di f .

Questa definizione giustifica la particolare denominazione del Teorema 7.8.

Esempio 7.1 L’identità id : V ! V, definita nell’Esempio 6.1, ammette solo l’autova-


lore = 1. L’autospazio V relativo all’autovalore = 1 coincide con V. Si osservi che
la matrice ad essa associata, rispetto ad una qualunque base di V, è la matrice unità, che è
quindi una matrice diagonale avente il numero 1 (l’autovalore) sulla diagonale principale.
Capitolo 7 305

Esempio 7.2 L’applicazione lineare nulla, definita nell’Esempio 6.2, ammette solo l’au-
tovalore = 0. L’unico autospazio V , cioè l’autospazio relativo a = 0, coincide con
V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, è la
matrice nulla. Pertanto, anche in questo caso la matrice è diagonale con l’autovalore 0
sulla diagonale principale.

Osservazione 7.3 Sia f un endomorfismo non iniettivo di uno spazio vettoriale V. Dal
Teorema 6.8 si ha che ker f 6= {o}, allora f ammette l’autovalore 0 e l’autospazio ad
esso relativo coincide con ker f. Viceversa, se f è iniettivo, allora ker f = {o}, quindi il
numero 0 non può essere un autovalore di f .

Esempio 7.3 Si consideri, nello spazio dei vettori ordinari V3 , l’endomorfismo:

f : V3 ! V3 , x 7 ! (x · u)u,

con u vettore fissato e “·” prodotto scalare. Se u = o si ha l’endomorfismo nullo, già


considerato in precedenza. Se u è un versore f è la funzione che ad ogni vettore x di V3
associa la proiezione ortogonale di x sulla retta vettoriale L(u). Pertanto si vede che gli
unici autovalori di f sono 1 = 0 e 2 = 1. Infatti, si ha che f (x) = o se e solo se x
è un vettore perpendicolare a u. Quindi 1 = 0 è un autovalore di f e l’autospazio ad
esso relativo è V 1 = ker f, che coincide con il piano vettoriale ortogonale ad u. D’altra
parte, l’unica altra possibilità per avere f (x) = x è f (x) = x, che si ottiene solo se x
è parallelo ad u, pertanto esiste anche l’autovalore 2 = 1 e l’autospazio ad esso relativo
è la retta vettoriale V 2 = L(u). Si osservi che vale la decomposizione:

V 1 V 2 = V3

eV 2 = V ?1 .

Esempio 7.4 A titolo di esempio si procede con il calcolo degli eventuali autovalori della
rotazione, in senso antiorario, di angolo ✓ in un piano vettoriale V2 , (cfr. Es. 6.24) vale a
dire della trasformazione lineare:

R[✓] : V2 ! V2 , x 7 ! R[✓](x)

le cui equazioni, rispetto ad una base ortonormale B = (i, j) di V2 , sono:


⇢ 0
x = x cos ✓ y sin ✓
y 0 = x sin ✓ + y cos ✓,

dove x = xi + yj e R[✓](x) = x0 i + y 0 j. Se 2 R è un autovalore di R[✓] ed x è un


autovettore ad esso relativo, allora R[✓](x) = x, quindi:
306 Diagonalizzazione


x cos ✓ y sin ✓ = x
x sin ✓ + y cos ✓ = y.
Risolvendo il precedente sistema lineare omogeneo nelle incognite x e y si ottiene che
esistono soluzioni non nulle se e solo se il rango della matrice dei coefficienti:
✓ ◆
cos ✓ sin ✓
sin ✓ cos ✓

è 1, ossia se e solo se il determinante di tale matrice è uguale a zero, in altri termini, se e


solo se:
2
2 cos ✓ + 1 = 0.
Questa equazione di secondo grado in ha soluzioni reali se e solo se cos ✓ = ±1, da cui
segue ciò che era già intuibile geometricamente, ossia solo le rotazioni di angolo 0 e ⇡
ammettono autovalori. Tali rotazioni coincidono, rispettivamente, con l’identità id di V2 ,
già studiata nell’Esempio 7.1 e con l’endomorfismo id di equazioni:
⇢ 0
x = x
y0 = y

che ammette solo l’autovalore 1 perché definito da ( id)(x) = x, x 2 V2 (cfr. Par.


6.4) e che si può considerare geometricamente come un ribaltamento del vettore x sulla
retta che lo contiene.

Prima di procedere con il calcolo degli autovalori e degli autovettori di un generico en-
domorfismo, vale a dire prima di introdurre il procedimento che generalizza l’esempio
appena esposto, si vuole dimostrare con il Teorema 7.3 una conseguenza importante delle
definizioni date e precisamente: la somma degli autospazi di un endomorfismo è diretta.
A titolo di esercizio, si inizia con il provare questa proprietà per la somma di due auto-
spazi. In questo caso, dimostrare che la somma di due autospazi V 1 + V 2 , con 1 6= 2 ,
è diretta equivale a provare che V 1 \ V 2 = {o}, (cfr. Teor. 4.4). Se per assurdo esiste
x 2 V 1 \ V 2 , x 6= o, allora f (x) = 1 x = 2 x da cui segue ( 1 2 )x = o, quindi
1 = 2 , che è assurdo. Per dimostrare questa proprietà in generale è però necessario
anteporre il lemma che segue, la cui dimostrazione è rimandata al Paragrafo 7.6.3.

Lemma 7.1 Siano 1 , 2 , . . . , k autovalori distinti di un endomorfismo f : V ! V di


uno spazio vettoriale V e siano V 1 , V 2 , . . . , V k gli autospazi ad essi corrispondenti.
Scelti in modo arbitrario gli autovettori x1 , x2 , . . . , xk , uno per ciascun autospazio ad
esso relativo (xi 2 V i , i = 1, 2, . . . , k ), allora l’insieme I = {x1 , x2 , . . . , xk } è libero.

Come conseguenza si ha il seguente teorema.


Capitolo 7 307

Teorema 7.3 Sia f un endomorfismo di uno spazio vettoriale reale V e siano 1 , 2 , . . . ,


k gli autovalori distinti di f, allora la somma degli autospazi V 1 + V 2 + . . . + V k è
diretta.

Dimostrazione Provare che la somma V 1 + V 2 + . . . + V k è diretta equivale a dimo-


strare che ogni elemento x 2 V 1 + V 2 + . . . + V k ha un’unica decomposizione come
somma di vettori di ciascuno degli autospazi addendi (cfr. Def. 4.6). Sia allora x apparte-
nente a V 1 +V 2 +. . .+V k , si supponga per assurdo che x ammetta due decomposizioni
diverse del tipo:

x = x1 + x2 + . . . + xk = y1 + y2 + . . . + yk ,

dove xi , yi 2 V i , i = 1, 2, . . . , k, allora si ha:

(x1 y1 ) + (x2 y2 ) + . . . + (xk yk ) = o

in evidente contrasto con il Lemma 7.1.

Osservazione 7.4 Si osservi che il teorema appena enunciato afferma che, considerati
tutti gli autovalori distinti 1 , 2 , . . . , k di f , allora:

V 1 V 2 ... V k
✓V;

lo studio dell’uguaglianza tra questi due insiemi sarà oggetto del Paragrafo 7.3.

7.2 Determinazione degli autovalori e degli autospazi


Sia f : V ! V un endomorfismo di uno spazio vettoriale reale V. Si supponga che
dim(V ) = n e che B = (v1 , v2 , . . . , vn ) sia una base di V. Indicate con A 2 Rn,n la
matrice associata ad f rispetto alla base B e con X 2 Rn,1 la matrice colonna delle
componenti di un vettore x di V rispetto alla base B, e tenendo conto delle equazioni
dell’endomorfismo f scritte in forma matriciale (cfr. (6.4)), la formula (7.1) si traduce,
in componenti, nella relazione:
AX = X
vale a dire in:
(A I)X = O, (7.2)
dove I 2 Rn,n indica la matrice unità e O 2 Rn,1 la matrice colonna nulla. Dalla teoria
dei sistemi lineari omogenei descritta nel Paragrafo 1.2.1, segue che il sistema lineare
308 Diagonalizzazione

omogeneo (7.2) ammette soluzioni non nulle se e solo se rank(A I) < n, ossia se e
solo se:
det(A I) = 0. (7.3)
Si perviene allo stesso risultato facendo uso delle definizioni di somma e di prodotto per
scalari di endomorfismi introdotte nel Paragrafo 6.4 e riscrivendo (7.1) come:

(f id)(x) = o,

dove id indica l’identità di V. Pertanto gli autovettori di f, relativi all’autovalore ,


coincidono con gli elementi, diversi dal vettore nullo, di ker(f id), cioè:

V = ker(f id).

Si procede ora con lo studio dettagliato dell’equazione (7.3) che prende il nome di equa-
zione caratteristica della matrice A; (7.3) è anche detta equazione caratteristica dell’en-
domorfismo f, infatti si dimostrerà nel Teorema 7.4 che essa non dipende dalla scelta
della matrice associata ad f , ovvero che tutte le matrici associate allo stesso endomorfi-
smo (matrici simili) hanno la stessa equazione caratteristica. Il polinomio det(A I)
a primo membro di (7.3) è detto polinomio caratteristico di A (o dell’endomorfismo f )
e lo si indicherà con P ( ). Pertanto, gli autovalori di f coincidono con le radici reali di
P ( ). Per ogni radice reale = ↵, l’autospazio corrispondente V↵ è formato dai vet-
tori x di V tali che f (x) = ↵x, ossia dalle soluzioni X del sistema lineare omogeneo
(A ↵I)X = O. Per questo motivo anche se il calcolo degli autovalori è riferito ad un
endomorfismo f spesso si parla di calcolo degli autovalori di una matrice quadrata A,
intendendosi come tale il calcolo degli autovalori dell’endomorfismo f a cui la matrice
A è associata rispetto ad una base di V.

Con l’esempio che segue si vuole determinare, per iniziare a capire il tipo di calcolo che
si deve svolgere, il polinomio caratteristico nel caso particolare delle matrici quadrate di
ordine 2, ossia nel caso di endomorfismi di uno spazio vettoriale reale di dimensione 2.

Esempio 7.5 Sia: ✓ ◆


a11 a12
A= 2 R2,2 ,
a21 a22
il suo polinomio caratteristico è:

a11 a12
P ( ) = det(A I) = ,
a21 a22

da cui segue:
det(A I) = 2
tr(A) + det(A). (7.4)
Capitolo 7 309

Con un calcolo analogo si ha che il polinomio caratteristico di una matrice quadrata A di


ordine n è dato da:

P ( ) = det(A I) = ( 1)n n
+ ( 1)n 1
tr(A) n 1
+ . . . + det(A).

Infatti:

1. ciascun addendo nel calcolo del determinante della matrice quadrata A I di


ordine n è il prodotto di n fattori appartenenti a righe e colonne diverse (cfr. Par.
2.8), quindi il polinomio caratteristico in che si ottiene avrà necessariamente
grado n.

2. Il termine di grado massimo del polinomio caratteristico si ha solo dal prodotto


degli elementi sulla diagonale principale:

(a11 )(a22 ) . . . (ann ),

quindi il coefficiente di n
deve essere ( 1)n .

3. Anche il termine di grado n 1 del polinomio caratteristico si ottiene solo dal pro-
dotto degli elementi della diagonale principale (provare, per esempio, a fare il cal-
colo esplicito nel caso particolare delle matrici quadrate di ordine 3), è abbastanza
facile notare che il suo coefficiente deve essere ( 1)n 1 tr(A).

4. Il termine noto del polinomio caratteristico si ottiene ponendo = 0 nell’espres-


sione di P ( ), quindi deve essere det(A), cioè:

P (0) = det(A).

Di conseguenza l’equazione (7.3) ammette la soluzione = 0 se e solo se si ha


det(A) = 0, in assoluto accordo con ciò che era già stato osservato (cfr. Oss. 7.3),
vale a dire esiste l’autovalore = 0 di f se e solo se ker f 6= {o}.

5. Per il Teorema Fondamentale dell’Algebra in cui si afferma che ogni polinomio di


grado n, a coefficienti complessi, ammette n radici complesse, contate con le loro
molteplicità, segue che ogni matrice A 2 Rn,n ammette al più n autovalori. Per
la dimostrazione del Teorema Fondamentale dell’Algebra si veda ad esempio [5].
Si ricorda che una radice ↵ di un polinomio p( ) a coefficienti reali o complessi si
dice avere molteplicità h se il polinomio ( ↵)h divide p( ) ma ( ↵)h+1 non
divide p( ).

6. Se un’equazione a coefficienti reali in un’incognita ammette una radice complessa,


allora ammette anche una seconda radice complessa che è la complessa coniugata
310 Diagonalizzazione

della precedente (si pensi alla formula risolutiva delle equazioni di secondo grado),
pertanto una matrice reale quadrata di ordine pari può non ammettere autovalori
(non si dimentichi che si sta solo trattando il caso degli spazi vettoriali reali), mentre
una matrice reale quadrata di ordine dispari ammette almeno un autovalore.

Esempio 7.6 La matrice quadrata di ordine 2:


✓ ◆
2 2
A= ,
1 1

ha come polinomio caratteristico:


2
det(A I) = 3 +4

che non ha radici reali, pertanto la matrice A non ammette autovalori.

Esempio 7.7 Sia f : R4 ! R4 l’endomorfismo che, rispetto alla base canonica B di


R4 , è associato alla matrice:
0 1
2 0 0 0
B 0 2 6 6 C
A=B
@ 0
C,
0 3 3 A
0 0 2 2

si vogliono determinare gli autovalori e gli autospazi di f (o, equivalentemente, gli


autovalori e gli autospazi di A). Si inizia con il calcolo dell’equazione caratteristica:

2 0 0 0
0 2 6 6
det(A I) = =0
0 0 3 3
0 0 2 2
e si ha:

det(A I) = ( 1)( + 2)2 = 0


da cui si ottengono tre autovalori 1 = 0, 2 = 1, 3 = 2. Si avranno quindi tre
autospazi, si procede al loro calcolo uno alla volta.

V 1 coincide con ker f, che si ottiene riducendo per righe la matrice A. Si lasciano i
dettagli per esercizio, si ha rank(A) = 3, quindi dim(ker f ) = dim(V 1 ) = 1 e:

V 1 = L((0, 0, 1, 1)).
Capitolo 7 311

Per 2 = 1 si ottiene: 0 1
3 0 0 0
B 0 3 6 6 C
A I=B
@ 0
C,
0 2 3 A
0 0 2 3
da cui rank(A I) = 3 e, quindi, risolvendo il sistema lineare omogeneo corrispondente
all’equazione matriciale (A I)X = 0, si perviene a:

V 2 = L((0, 2, 3, 2)).

Nel caso di 3 = 2 invece:


0 1
0 0 0 0
B 0 0 6 6 C
A + 2I = B
@ 0
C
0 5 3 A
0 0 2 0

ha rank(A + 2I) = 2 e quindi:

V 3 = L((1, 0, 0, 0), (0, 1, 0, 0)).

Il risultato appena trovato sugli autovalori e autospazi di f sarà ridiscusso nell’Osserva-


zione 7.6.

Si dimostrerà ora il teorema già annunciato, vale a dire matrici simili hanno lo stesso
polinomio caratteristico.

Teorema 7.4 Sia f un endomorfismo di uno spazio vettoriale reale V di dimensione n.


Il polinomio caratteristico di f non dipende dalla base di V scelta per la sua determina-
zione.

Dimostrazione Considerate due basi B e B 0 di V, si indichino con A = M B,B (f ) e


B0 ,B0
0
A =M (f ) le matrici, quadrate di ordine n, associate ad f rispetto alle due basi B e
B 0 . Dalla relazione (6.10) si ha che le due matrici A e A0 sono simili e pertanto si ottiene
la tesi provando che:
det(A I) = det(P 1AP I)
con P matrice, invertibile di ordine n, del cambiamento di base da B a B 0 , I matrice
unità di ordine n e 2 R. Usando le proprietà del prodotto di matrici, la formula di
Binet e il calcolo del determinante dell’inversa di una matrice (cfr. Teor. 2.16) si ha:
312 Diagonalizzazione

det(P 1AP I) = det(P 1


(A I)P )
1
= det(P ) det(A I) det(P )
= det(A I),

dopo aver tenuto conto che I = P 1


IP e della proprietà det(P 1
) = det(P ) 1 .
Osservazione 7.5 Si osservi che esistono matrici che hanno lo stesso polinomio caratte-
ristico ma che non sono simili, per esempio le due matrici:
✓ ◆ ✓ ◆
1 0 1 1
I= , B= ,
0 1 0 1
in quanto P 1
IP = I , per ogni matrice invertibile P.
Il teorema che segue stabilisce un’importante relazione tra la dimensione di un autospazio
e la molteplicità del proprio autovalore nel polinomio caratteristico.
Teorema 7.5 Sia f un endomorfismo di uno spazio vettoriale reale V, sia ↵ un suo
autovalore di molteplicità m↵ e sia V↵ l’autospazio relativo ad ↵, allora:
1  dim(V↵ )  m↵ .
Dimostrazione Poiché ↵ è un autovalore, allora dim(V↵ ) 1. Per dimostrare la
seconda disuguaglianza della tesi si suppongano dim(V ) = n e dim(V↵ ) = k. Se k = n,
la tesi è ovvia perché f (x) = ↵x, per ogni x 2 V e pertanto V↵ = V. Sia, quindi, k < n
e sia (a1 , a2 , . . . , ak ) una base di V↵ . Si completi (cfr. Teor. 4.15) tale insieme libero fino
ad ottenere la base B di V data da B = (a1 , a2 , . . . , ak , bk+1 , . . . , bn ). Di conseguenza
la matrice associata A = M B,B (f ) assume la forma seguente:
0 1
↵ 0 ... 0 a1k+1 ... a1n
B 0 ↵ ... 0 a2k+1 ... a2n C
B .. .. . . .. .. .. C
B . ... C
B . . . . . C
B C
A=B 0 0 ... ↵ akk+1 . . . akn C
B C
B 0 0 ... 0 ak+1k+1 . . . ak+1n C
B .. .. . ... .. .. .. C
@ . . .
. . . . A
0 0 . . . 0 ank+1 . . . ann
il cui polinomio caratteristico è:
det(A I) = (↵ )k Q( )
dove Q( ) è un polinomio in di grado n k , ciò significa che la molteplicità di ↵ è
almeno k .
Capitolo 7 313

Osservazione 7.6 Si osservi che nell’Esempio 7.7 si sono ottenuti tre autovalori distinti
1 = 0 con molteplicità m 1 = 1, 2 = 1 con molteplicità m 2 = 1 e 3 = 2 con
molteplicità m 3 = 2. I tre autospazi V 1 , V 2 , V 3 avevano, rispettivamente, dimensione
1, 1, 2 e pertanto:
V 1 V 2 V 3 = R4 .
Inoltre, gli autovettori di f (o di A):

v1 = (0, 0, 1, 1), v2 = (0, 2, 3, 2), v3 = (1, 0, 0, 0), v4 = (0, 1, 0, 0)


0 0
formano una base B 0 di R4 . La matrice M B ,B (f ) associata ad f rispetto alla base
B 0 = (v1 , v2 , v3 , v4 ) di R4 è la matrice diagonale:
0 1
0 0 0 0
B 0 1 0 0 C
D=B @ 0 0
C,
2 0 A
0 0 0 2
in quanto:

f (v1 ) = o, f (v2 ) = v2 , f (v3 ) = 2v3 , f (v4 ) = 2v4 .

Di conseguenza A è simile alla matrice diagonale D, cioè P 1AP = D, dove P è la


matrice del cambiamento di base dalla base canonica B di R4 alla base B 0 di R4 formata
dai quattro autovettori di f prima indicati.

Esercizio 7.1 Si calcolino gli autovalori e gli autospazi della matrice:


0 1
2 0 0
A = @ 0 1 1 A.
0 0 1

Soluzione Il polinomio caratteristico della matrice A è dato da:

2 0 0
det(A I) = 0 1 1 = (2 )(1 )2 .
0 0 1
Si ottengono gli autovalori 1 = 2 con molteplicità m 1 =1e 2 = 1 con molteplicità
m 2 = 2. Gli autospazi relativi ai due autovalori sono:

V 1 = L((1, 0, 0)), V 2 = L((0, 1, 0)).

In questo caso si ha quindi che V 1 V 2 è un sottospazio vettoriale di R3 di dimensione


2 e pertanto V 1 V 2 6= R3 .
314 Diagonalizzazione

7.3 Endomorfismi diagonalizzabili.


Matrici diagonalizzabili
Il paragrafo inizia con due importanti definizioni, palesemente equivalenti.

Definizione 7.3 Un endomorfismo f : V ! V di uno spazio vettoriale reale V si dice


diagonalizzabile (o anche semplice) se esiste una base di V rispetto alla quale la matrice
associata ad f è diagonale.

Definizione 7.4 Una matrice quadrata A 2 Rn,n si dice diagonalizzabile se esiste una
matrice invertibile P di ordine n tale che:

P 1AP = D,

con D matrice diagonale di ordine n, o in altri termini, se A è simile ad una matrice


diagonale.

Nei precedenti paragrafi di questo capitolo si sono incontrati alcuni esempi di endomor-
fismi diagonalizzabili, quali l’applicazione identità, l’applicazione nulla, l’Esempio 7.7.
In questo paragrafo si cercherà di precisare quando un endomorfismo è diagonalizzabile
e come si procede, in pratica, alla diagonalizzazione di una matrice quadrata, dopo aver
controllato che ciò sia possibile.

Il primo teorema (la cui dimostrazione è conseguenza immediata della Definizione 7.3)
provvede a dare un metodo pratico, utile per riconoscere se un endomorfismo è diagona-
lizzabile.

Teorema 7.6 Un endomorfismo f : V ! V di uno spazio vettoriale reale V è diago-


nalizzabile se e solo se esiste una base di V formata da autovettori di f .

Osservazione 7.7 Dal precedente teorema è quindi evidente che se f è un endomorfismo


diagonalizzabile di uno spazio vettoriale reale V allora una base di V, rispetto alla quale
la matrice associata ad f sia diagonale, è formata da autovettori.

Si possono perciò enunciare quelli che usualmente vengono indicati come i criteri di
diagonalizzazione.

Teorema 7.7 Sia f : V ! V un endomorfismo di uno spazio vettoriale reale V. Le


seguenti affermazioni sono equivalenti:

1. f è diagonalizzabile.
Capitolo 7 315

2. V = V 1 V 2 . . . V k , dove 1 , 2 , . . . , k sono tutti gli autovalori distinti di


f e V 1 , V 2 , . . . , V k i relativi autospazi.
3. dim(V ) = dim(V 1 ) + dim(V 2 ) + . . . + dim(V k ), dove 1 , 2 , . . . , k sono tutti
gli autovalori distinti di f e V 1 , V 2 , . . . , V k i relativi autospazi.
4. Ogni radice del polinomio caratteristico P ( ) di f è reale e per ogni radice i
(cioè per ogni autovalore di f ) di molteplicità m i la dimensione dell’autospazio
V i coincide con la molteplicità m i , in formule:

dim(V i ) = m i , i = 1, 2, . . . , k.

Dimostrazione Per dimostrare l’equivalenza delle quattro affermazioni si proveranno


le seguenti implicazioni:

1. =) 4. =) 3. =) 2. =) 1.

Per dimostrare l’implicazione 1. =) 4. si supponga che f sia diagonalizzabile, cioè che


esista una base B di V formata da autovettori e quindi tale che la matrice A associata ad
f rispetto alla base B sia diagonale, con gli autovalori di f come elementi della diagonale
principale, scritti in ordine, in corrispondenza ai vettori della base B. Se si indicano con
1 , 2 , . . . , k gli autovalori distinti di f e con m 1 , m 2 , . . . , m k le relative molteplicità,
si ha che il polinomio caratteristico di f è dato da:

P ( ) = det(A I) = ( 1 )m 1 . . . ( k )m k ,

da cui segue che ogni radice del polinomio caratteristico è reale. Inoltre, per ogni autova-
lore i si ha:
dim(V i ) = n rank(A i I) = m i .

Per dimostrare l’implicazione 4. =) 3. si può osservare che, per ipotesi, ogni radice del
polinomio caratteristico è reale e quindi la somma delle moltiplicità delle radici distinte,
cioè degli autovalori distinti, coincide con il grado del polinomio caratteristico, ovvero:

m 1 +m 2 + ... + m k
= dim(V )

e quindi:
dim(V 1 ) + dim(V 2 ) + . . . + dim(V k ) = dim(V ).

Per dimostrare l’implicazione 3. =) 2., tenendo conto che per il Teorema 7.3 la somma
di tutti gli autospazi relativi agli autovalori distinti 1 , 2 , . . . , k è diretta e che dall’affer-
mazione 3. la somma delle dimensioni degli autospazi è pari alla dimensione di V, segue
che la somma di tutti gli autospazi coincide necessariamente con V.
316 Diagonalizzazione

Per provare l’ultima implicazione 2. =) 1. è sufficiente osservare che, se per ogni


autospazio V i , i = 1, 2, . . . , k si considera una base Bi , allora per il Teorema 4.17
l’unione:
B1 [ B2 [ . . . [ Bk
è una base di V in quanto la somma degli autospazi è diretta.

Osservazione 7.8 La decomposizione 2. del teorema precedente è anche nota come de-
composizione spettrale di V.

Osservazione 7.9 In base ai precedenti criteri segue che l’endomorfismo f dell’Esempio


7.7 è diagonalizzabile (o equivalentemente la sua matrice associata A è diagonalizzabi-
le). Le matrici diagonali simili ad A sono tutte le possibili matrici diagonali aventi sulla
diagonale principale gli autovalori di A. (Quante sono in totale?)
L’endomorfismo dell’Esercizio 7.1 non è diagonalizzabile, in quanto per l’autovalore
2 = 1 si ha che dim(V 2 ) < m 2 .

Come conseguenza immediata del Teorema 7.7 si ha il seguente corollario, la cui dimo-
strazione è lasciata al Lettore come esercizio.

Corollario 7.1 Se f è un endomorfismo di uno spazio vettoriale reale V di dimensione


n con n autovalori distinti, allora f è diagonalizzabile.

7.4 Il Teorema Spettrale


Nel caso particolare delle matrici simmetriche si può dimostrare il fondamentale teorema
spettrale.

Teorema 7.8 – Teorema Spettrale – 1. Sia A una matrice simmetrica, allora A è


diagonalizzabile, esistono quindi una matrice diagonale D e una matrice inverti-
bile P tali che:
D = P 1AP.

2. Sia A una matrice simmetrica, è sempre possibile individuare una matrice ortogo-
nale Q tale che:
D = Q 1AQ = t QAQ,
cioè A è diagonalizzabile mediante una matrice ortogonale.
Capitolo 7 317

3. Se A 2 Rn,n è una matrice diagonalizzabile e se esiste una matrice Q ortogonale


tale che
t
QAQ = D,
con D matrice diagonale, allora A è simmetrica.

Si ricordi che il Teorema 6.17 afferma che, fissata una base ortonormale B in uno spa-
zio vettoriale euclideo (V, · ), la matrice M B,B (f ) associata ad un endomorfismo f di V
è simmetrica se e solo se l’endomorfismo f è autoaggiunto. Di conseguenza, si dimo-
strerà, in questo paragrafo, che è possibile formulare il Teorema Spettrale 7.8 in termini
di endomorfismi autoaggiunti e che le due formulazioni sono equivalenti se e solo se si
considerano basi ortonormali dello spazio vettoriale euclideo (V, · ). Più precisamente si
dimostrerà il seguente teorema.

Teorema 7.9 – Teorema Spettrale – 1. Sia f : V ! V un endomorfismo autoag-


giunto di uno spazio vettoriale euclideo (V, · ) e siano 1 , 2 , . . . , k tutti i suoi
autovalori distinti, allora la somma diretta di tutti gli autospazi coincide con V :
V 1 V 2 ... V k
=V
e gli autospazi sono a due ortogonali, vale a dire:
V i ? V j, i 6= j, i, j = 1, 2, . . . , k,
nel senso che per ogni x 2 V i
e per ogni y 2 V j
si ha x · y = 0.

2. Sia (V, · ) uno spazio vettoriale euclideo e sia f un endomorfismo diagonalizzabile


di V e V = V 1 V 2 . . . V k la relativa decomposizione spettrale, dove
V i indica l’autospazio di f relativo all’autovalore i . Si supponga che per ogni
i, j , i 6= j , i, j = 1, 2, . . . , k si abbia V i ? V j . Allora f è un endomorfismo
autoaggiunto di (V, · ).

Osservazione 7.10 1. Si osservi che le due formulazioni del Teorema Spettrale 7.8 e
7.9 sono equivalenti solo se si sceglie nello spazio vettoriale euclideo (V, · ) una
base ortonormale. Pertanto dalla dimostrazione del Teorema 7.9 segue la dimostra-
zione del Teorema 7.8.
2. Per dimostrare il punto 3. del Teorema Spettrale 7.8 si può anche osservare che
dal fatto che esiste una matrice Q ortogonale tale che t QAQ = D, si deduce
A = QD t Q e quindi:
t
A = t (QD t Q) = QD t Q = A,
in quanto ovviamente tD = D.
318 Diagonalizzazione

Si inizia con enunciare una prima proprietà sulle radici del polinomio caratteristico di una
matrice simmetrica, la cui dimostrazione è rimandata al Paragrafo 7.6 in quanto essa segue
dal fatto che si dovrà considerare uno spazio vettoriale definito sul campo dei numeri
complessi C, invece che su R.

Lemma 7.2 Tutte le radici del polinomio caratteristico di una matrice simmetrica A di
ordine n sono reali, o in modo equivalente, tutte le radici del polinomio caratteristi-
co di un endomorfismo autoaggiunto f di uno spazio vettoriale euclideo (V, · ) sono
reali. In altri termini, se 1 , 2 , . . . , k sono tutti gli autovalori distinti di un endomor-
fismo autoaggiunto f di V con rispettive molteplicità m 1 , m 2 , . . . , m k , allora si ha
l’uguaglianza:
m 1 + m 2 + . . . + m k = n,
dove n è la dimensione di V.

In generale, per un endomorfismo qualsiasi di uno spazio vettoriale euclideo (V, · ) si


può solo affermare che due autovettori relativi a due autovalori distinti non sono paralleli
(cfr. Lemma 7.1). Nel caso particolare di endomorfismi autoaggiunti si può dimostrare
l’ortogonalità tra i due autovettori. Si ha infatti il seguente teorema.

Teorema 7.10 Se 1 e 2 sono due autovalori distinti di un endomorfismo autoaggiunto


f di uno spazio vettoriale euclideo (V, · ), allora i relativi autospazi V 1 e V 2 sono
ortogonali tra di loro, ossia:
x · y = 0,
per ogni x 2 V 1 e per ogni y 2 V 2 .

Dimostrazione Considerati x 2 V 1 e y 2 V 2 , dalla definizione di endomorfismo


autoaggiunto segue:

f (x) · y = ( 1 x) · y = 1 (x · y) = x · f (y) = x · ( 2 y) = 2 (x · y) = 2 (x · y).

Di conseguenza ( 1 2 )(x · y) = 0, ma 1 6= 2, perciò x · y = 0.

Dimostrazione del Teorema 7.9 1. Siano 1 , 2 , . . . , k tutti gli autovalori distinti di


f e siano V 1 , V 2 , . . . , V k i relativi autospazi, che sono tutti in somma diretta (cfr.
Teor. 7.3). Sia:
H = V 1 V 2 . . . V k,
si perviene alla tesi se si dimostra che H = V. Poiché ogni autospazio V i , i = 1,
2, . . . , k , è invariante per f (cfr. Teor. 7.2), segue dal Teorema 6.14 che anche H
Capitolo 7 319

è invariante per f , ossia:


f (H) ✓ H.
Si supponga per assurdo che H 6= V , allora:
V =H H? ,

dove H? indica il complemento ortogonale di H in V e H? 6= {o}. Per il Teorema


6.18 si ha che anche H? è un sottospazio vettoriale di V invariante per f. Sia:
f 0 : H? ! H?
la restrizione di f a H? , definita da (6.18), cioè da f 0 (x) = f (x), con x in H? .
Essendo f è autoaggiunto, anche f 0 è autoaggiunto sullo spazio vettoriale euclideo
(H? , · ) dotato dello stesso prodotto scalare di V. Poiché tutte le radici del polino-
mio caratteristico di f 0 sono reali (cfr. Lemma 7.2) esiste un vettore x 2 H? che
è un autovettore di f 0 , quindi x è un autovettore di f , da cui l’assurdo. L’ortogo-
nalità tra gli autospazi segue dal Teorema 7.10.
2. Si tratta di dimostrare che:
f (x) · y = x · f (y),
per ogni x, y 2 V. Dalla Definizione 4.6 segue che esiste una sola decomposizione
dei vettori x e y del tipo:
x = x1 + x2 + . . . + xk , y = y1 + y2 + . . . + yk ,
con xi , yi 2 V i , i = 1, 2, . . . , k. Si ha:
f (x) · y = f (x1 + x2 + . . . + xk ) · (y1 + y2 + . . . + yk )
= f (x1 ) · y1 + f (x2 ) · y2 + . . . + f (xk ) · yk ,
in quanto, per ipotesi, f (xi ) · yj = 0, per ogni i, j = 1, 2, . . . , k, i 6= j. Poiché
f (xi ) = i xi , la relazione precedente diventa:
f (x) · y = 1 x1 · y1 + 2 x2 · y2 + . . . + k xk · yk .
Procedendo con un conto analogo a secondo membro si perviene alla tesi.

Osservazione 7.11 Come già affermato, il Teorema 7.8 è conseguenza del Teorema 7.9.
Ma il Teorema 7.9 afferma che ogni matrice associata ad un endomorfismo autoaggiunto
di uno spazio vettoriale euclideo (V, · ) è diagonalizzabile, anche se la matrice associata
non è simmetrica. Un esempio significativo è studiato nell’Esercizio 8.19. Nel Teorema
8.28 sono determinate tutte le matrici associate ad un endomorfismo autoaggiunto rispetto
ad una base qualsiasi di V.
320 Diagonalizzazione

A corretta conclusione di questa trattazione si riportano i due teoremi seguenti.

Corollario 7.2 Sia f un endomorfismo autoaggiunto di uno spazio vettoriale euclideo


(V, · ), allora esiste una base ortonormale di V formata da autovettori.

Dimostrazione Siano 1 , 2 , . . . , k tutti gli autovalori (distinti) di f e V 1 , V 2 , . . . , V k


i relativi autospazi. Poiché f è autoaggiunto, f è diagonalizzabile (cfr. Teor. 7.9). Dalla
decomposizione:
V = V 1 V 2 ... V k
e dal fatto che gli autospazi sono ortogonali (cfr. Lemma 7.10) si può determinare una
base ortonormale di V formata da autovettori di f come unione di basi ortonormali per
ogni autospazio V i . Più precisamente, si trova una base per ciascun autospazio V i , i =
1, 2, . . . , k e la si normalizza con il metodo di Gram–Schmidt (cfr. Teor. 5.5), ottenendo
in questo modo una base ortonormale Bi per ogni autospazio V i . Per il Teorema 7.10,
se i 6= j allora V i ? V j , pertanto l’unione delle basi ortonormali B1 [ . . . [ Bk cosı̀
ottenute è una base ortonormale di V formata da autovettori di f .

Teorema 7.11 Ogni endomorfismo f : V ! V diagonalizzabile è autoaggiunto rispet-


to ad un opportuno prodotto scalare di V.

Dimostrazione Sia B una base di V formata da autovettori di f . Allora esiste su V


un prodotto scalare che rende B una base ortonormale (cfr. Oss. 5.3).

Esercizio 7.2 Sia f l’endomorfismo di R3 associato alla matrice:


0 1
2 1 0
A=@ 1 1 1 A (7.5)
0 1 2

rispetto alla base canonica di R3 . Dimostrare che f è autoaggiunto rispetto al prodotto


scalare standard di R3 e trovare una base ortonormale di R3 formata da autovettori di f .
Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale.

Soluzione L’endomorfismo f è autoaggiunto perché la matrice associata ad f è sim-


metrica e la base canonica di R3 è ortonormale, rispetto al prodotto scalare standard di
R3 .
Per trovare una base ortonormale di R3 , formata da autovettori di f , si devono de-
terminare gli autospazi di f . Procedendo con il metodo indicato nel Paragrafo 7.2 si
ha:

autovalori di f : 1 = 0, 2 = 2, 3 = 3, tutti di molteplicità 1;


Capitolo 7 321

autospazi di f : V 1 = L(( 1, 2, 1)), V 2 = L((1, 0, 1)), V 3 = L((1, 1, 1)).

Una base ortonormale richiesta si ottiene, semplicemente, considerando i versori di:

v1 = ( 1, 2, 1), v2 = (1, 0, 1), v3 = (1, 1, 1)

(perché?), quindi una matrice ortogonale che diagonalizza A è ad esempio:


0 1
1 1 1
p p p
B 6 2 3 C
B C
B C
B 2 1 C
B p C
P =B p 0 C
B 6 3 C
B C
B C
@ 1 1 1 A
p p p
6 2 3

da cui: 1 0
0 0 0
t
P AP = D = @ 0 2 0 A.
0 0 3

Esercizio 7.3 Sia f l’endomorfismo di R3 associato alla matrice:


0 1
1 2 2
A=@ 2 1 2 A (7.6)
2 2 1

rispetto alla base canonica di R3 . Dimostrare che f è autoaggiunto rispetto al prodotto


scalare standard di R3 e trovare una base ortonormale di R3 formata da autovettori di f .
Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale.

Soluzione Si verifica immediatamente che f è autoaggiunto in quanto la matrice asso-


ciata a f è simmetrica e la base canonica di R3 è ortonormale, rispetto al prodotto scalare
standard di R3 .
Per trovare una base ortonormale di R3 , formata da autovettori di f , si devono determi-
nare gli autospazi di f . Si ha:

autovalori di f : 1 = 3, 2 = 3, con rispettive molteplicità m 1 = 1, m 2 = 2;

autospazi di f : V 1 = L((1, 1, 1)), V 2 = L((1, 1, 0), (0, 1, 1)).


322 Diagonalizzazione

Si ottiene quindi una base di R3 formata dagli autovettori:

a = (1, 1, 1), b = (1, 1, 0), c = (0, 1, 1).

Pertanto una matrice P tale che P 1AP = D, con:


0 1
3 0 0
D = @ 0 3 0 A,
0 0 3

è data ad esempio da: 0 1


1 1 0
P = @ 1 1 1 A,
1 0 1
ma la matrice P cosı̀ ottenuta non è ortogonale.

Si perviene ad una base ortonormale di autovettori o equivalentemente una matrice or-


togonale Q tale che t QAQ = D, applicando il processo di ortonormalizzazione di
Gram–Schmidt separatamente ai due autospazi. Più precisamente si considerano i vettori:
✓ ◆
1 1 1
v1 = vers (a) = p , p , p ,
✓ 3 3 3◆
1 1
v2 = vers (b) = p , p , 0 ,
2 2 ✓ ◆ ✓ ◆
1 1 1 1 2
v3 = vers (c (c · v2 )v2 ) = vers , , 1 = p ,p , p ,
2 2 6 6 6

quindi una matrice ortogonale che diagonalizza A è ad esempio:


0 1
1 1 1
p p p
B 3 2 6 C
B C
B C
B 1 1 1 C
B p C
Q=B p p C,
B 3 2 6 C
B C
B C
@ 1 2 A
p 0 p
3 6

da cui:
t
QAQ = D.
Capitolo 7 323

7.5 Esercizi di riepilogo svolti


Esercizio 7.4 Data la matrice:
0 1
4 1 + a2 1
A=@ 2 5 2 A, a 2 R,
1 1 2

1. determinare il rango di A, al variare del parametro a nel campo reale R;

2. posto a = 0, determinare gli autovalori di A e una base per ciascun autospazio;

3. posto a = 0, verificare se A è diagonalizzabile e, in caso affermativo, scrivere la


matrice di cambiamento di base dalla base canonica B di R3 ad una base B 0 di R3
formata da autovettori.

4. Determinare, al variare di a 2 R, i casi in cui la matrice A è diagonalizzabile.

Soluzione 1. Si ha det(A) = 6a2 + 45, pertanto rank(A) = 3 se e solo se:


p
30
a 6= ± .
2

Sostituendo nella matrice A i valori per cui det(A) = 0 si ha:


0 1
17
4 1
B 2 C
B C
A=B
B 2 5 2 C
C
@ A
1 1 2

e con un semplice passaggio di riduzione per righe si ottiene che rank(A) = 2.

2. Dal punto precedente segue che per a = 0 il rango della matrice A è 3, pertanto
A è una matrice invertibile che quindi non ammette l’autovalore = 0. Infatti,
risolvendo l’equazione caratteristica det(A I) = 0, si ottiene che gli autovalori
di A sono 1 = 5 con molteplicità pari a 1 e 2 = 3 con molteplicità 2. Gli
autospazi corrispondenti sono dati da:

V 1 = L((1, 2, 1)), V 2 = L((1, 0, 1), ( 1, 1, 0)).


324 Diagonalizzazione

3. Dal punto precedente si ha che dim(V 2 ) = 2, pertanto A è diagonalizzabile. La


matrice richiesta è la matrice avente come colonne le componenti, rispetto alla base
B, dei vettori di una base di R3 formata da autovettori di A ossia ad esempio:
0 1
1 1 1
P =@ 2 0 1 A.
1 1 0

4. Le radici del polinomio caratteristico della matrice A del testo dell’esercizio sono:
p p
1 = 3, 2 = 4+ 1 + 2a2 , 3 = 4 1 + 2a2 .
Innanzi tutto si osserva che per ogni valore di a la quantità 1 + 2a2 è sempre stretta-
mente positiva, pertanto, per ogni valore di a, le radici 1 , 2 , 3 sono autovalori di
A. Si tratta di studiare la loro molteplicità al variare di a 2 R. Come
p già osservato,
non si hanno valori di a per cui 2 = 3 . Da 1 = 2 si ottiene 1 + 2a2 = 1,
caso che non si può verificare. Da 1 = 3 segue a = 0, che è il caso studiato nel
punto 3. Pertanto la matrice A è diagonalizzabile per ogni valore di a, infatti (ad
eccezione di a = 0) tutti gli autovalori sono distinti (cfr. Cor. 7.1).

Esercizio 7.5 Sia f l’endomorfismo di R4 definito, rispetto alla base canonica B di R4 ,


dalla matrice: 0 1
2 0 1 0
B 0 2 0 1 C
A=B @ 4 0
C.
2 0 A
0 4 0 2
1. Determinare la dimensione e una base sia di ker f sia di im f e verificare che
ker f = im f.
2. Determinare autovalori e autovettori di f.
3. Stabilire se f è diagonalizzabile.
4. Determinare una matrice simile a A.

Soluzione 1. È evidente che la matrice A ha rango 2, infatti la terza e la quarta riga


sono proporzionali, rispettivamente, alla prima e alla seconda riga e queste ultime
sono linearmente indipendenti. Di conseguenza il nucleo di f si ottiene risolvendo
il sistema lineare omogeneo:

2x1 x3 = 0
2x2 x4 = 0,
Capitolo 7 325

le cui soluzioni sono:


8
>
> x1 = t1
<
x2 = t2
>
> x3 = 2t1
:
x4 = 2t2 , t1 , t2 2 R,
quindi dim(ker f ) = 2 e ker f = L((1, 0, 2, 0), (0, 1, 0, 2)). Il sottospazio immagi-
ne im f ha dimensione 2 ed è generato da 2 colonne linearmente indipendenti
della matrice A. Considerando la prima e la seconda colonna di A segue che
im f = L((2, 0, 4, 0), (0, 2, 0, 4)), da cui è chiaro che im f coincide con ker f.
2. Prima di iniziare il calcolo degli autovalori si può già affermare che si troverà l’au-
tovalore = 0 di molteplicità almeno pari a 2, infatti l’autospazio ad esso relativo
è ker f, già calcolato nel punto 1. Il polinomio caratteristico di A è:
4
P( ) = .
Pertanto l’unico autovalore è = 0 di molteplicità 4. Di conseguenza l’unico
autospazio è ker f.
3. Poiché la dimensione di ker f è diversa dalla molteplicità dell’autovalore = 0,
l’endomorfismo f non è diagonalizzabile, ossia non è possibile trovare alcuna ma-
trice diagonale simile ad A. D’altra parte, solo la matrice nulla ammette come
unico autovalore il numero 0 ed è diagonalizzabile.
4. Una qualsiasi matrice A0 simile ad A è del tipo A0 = P 1
AP con P matrice
invertibile di ordine 4. Per esempio, ponendo:
0 1
1 0 0 0
B 0 0 1 0 C
P =B@ 0 1 0 0 A
C

0 0 0 1
si ha che: 0 1
2 1 0 0
B 4 2 0 0 C
A0 = P 1 AP = B
@ 0
C.
0 2 1 A
0 0 4 2
Si osservi che, ovviamente, non esiste una base di R4 formata da autovettori, ma,
per esempio, si può ottenere una base C di R4 , completando la base di ker f
ottenuta nel punto 1.. Ad esempio:
C = ((1, 0, 2, 0), (0, 1, 0, 2), (0, 0, 1, 0), (0, 0, 0, 1)).
326 Diagonalizzazione

La matrice associata ad f rispetto alla base C è:


0 1
0 0 1 0
B 0 0 0 1 C
M C,C (f ) = (P 0 ) 1 AP 0 = B
@ 0
C,
0 0 0 A
0 0 0 0

dove 0 1
1 0 0 0
B 0 1 0 0 C
P0 = B
@ 2
C
0 1 0 A
0 2 0 1

è la matrice del cambiamento di base dalla base canonica B di R4 alla base C . Si os-
servi anche che la matrice M C,C (f ) non è diagonale ma è diagonale “a metà”. Infatti
la restrizione di f a ker f (cfr. Def. 6.10) coincide ovviamente con l’endomorfismo
nullo di ker f .

Esercizio 7.6 Si consideri l’endomorfismo f : R4 ! R4 tale che:

a. l’autospazio relativo all’autovalore 1 sia:

H = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 = x2 x3 2x4 = 0};

b. l’autospazio relativo all’autovalore 1 sia:

K = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 2x2 = x2 + x3 = x4 = 0};

c. il nucleo sia dato da:

ker f = {(x1 , x2 , x3 , x4 ) 2 R4 | x2 = x3 = x4 = 0}.

1. Determinare la matrice A associata ad f, rispetto alla base canonica di R4 .

2. f è diagonalizzabile? In caso affermativo, scrivere una matrice diagonale D simile


ad A ed una matrice P tale che D = P 1 AP .

Soluzione È più facile procedere con la risoluzione del secondo punto e poi dedurre
da questa la soluzione del primo punto.
Capitolo 7 327

2. La dimensione di H è 2 e una sua base è data dai vettori:

a1 = (0, 1, 1, 0), a2 = (0, 2, 0, 1).

La dimensione di K è 1 e una sua base è data dal vettore a3 = ( 2, 1, 1, 0). La


dimensione di ker f è 1 e una sua base è data dal vettore a4 = (1, 0, 0, 0). Gli
autospazi sono in somma diretta (cfr. Teor. 7.3), pertanto (a1 , a2 , a3 , a4 ) formano
una base di autovettori di R4 , quindi f è diagonalizzabile. Di conseguenza la
matrice D richiesta è: 0 1
1 0 0 0
B 0 1 0 0 C
D=B @ 0 0
C
1 0 A
0 0 0 0

e una matrice P tale che D = P 1 AP si ottiene ponendo ordinatamente in colonna


le componenti della base di autovettori ricavata, ossia:
0 1
0 0 2 1
B 1 2 1 0 C
P =B @ 1 0
C.
1 0 A
0 1 0 0

1. Da D = P 1
AP segue:
0 1
0 1 1 2
B 0 0 1 2 C
A = P DP 1
=B
@ 0
C.
1 0 2 A
0 0 0 1

7.6 Per saperne di più


Esercizio 7.7 Si dimostri il Lemma 7.1, di seguito riportato.

Siano 1 , 2 , . . . , k autovalori distinti di un endomorfismo f : V ! V di uno spazio


vettoriale V e siano V 1 , V 2 , . . . , V k gli autospazi ad essi corrispondenti. Scelti in modo
arbitrario gli autovettori x1 , x2 , . . . , xk , uno per ciascun autospazio ad esso relativo (ossia
xi 2 V i , i = 1, 2, . . . , k ), allora l’insieme I = {x1 , x2 , . . . , xk } è libero.

Soluzione Si procede per induzione sul numero k di autospazi. Il caso k = 1 è ovvio,


in quanto, per definizione, ogni autovettore è diverso dal vettore nullo.
Si supponga, per ipotesi induttiva, che i vettori x1 , x2 , . . . , xk 1 siano linearmente indi-
pendenti, dove ogni xi è un autovettore di V i , i = 1, 2, . . . , k 1. Si tratta di dimostrare
328 Diagonalizzazione

che l’insieme {x1 , x2 , . . . , xk 1 , xk } è libero, con xk autovettore di V k . Per assurdo si


supponga che ciò non avvenga, vale a dire che:

xk = µ1 x1 + µ2 x2 + . . . + µk 1 xk 1 , (7.7)

con µi 2 R, i = 1, 2, . . . , k 1. Applicando l’endomorfismo f ad ambo i membri di


(7.7), dalla linearità di f e dal fatto che ogni vettore xi è un autovettore si perviene
all’uguaglianza:

k xk = µ1 1 x1 + µ2 2 x2 + . . . + µk 1 k 1 xk 1 . (7.8)

D’altra parte, moltiplicando invece ambo i membri di (7.7) per k si ottiene:

k xk = µ1 k x1 + µ2 k x2 + . . . + µk 1 k xk 1 . (7.9)

Uguagliando (7.8) e (7.9) segue:

µ1 ( 1 k )x1 + µ2 ( 2 k )x2 + . . . + µk 1 ( k 1 k )xk 1 = o.

I vettori coinvolti nella relazione precedente sono lineramente indipendenti per ipotesi
induttiva, quindi tutti i coefficienti sono nulli, ma, essendo gli autovalori distinti si ottiene
µ1 = µ2 = . . . = µk 1 = 0, risultato che sostituito nella formula 7.7 comporta xk = o,
che è assurdo, trattandosi di un autovettore.

7.6.1 Diagonalizzazione simultanea


Siano f e g due endomorfismi diagonalizzabili di uno spazio vettoriale V di dimensione
n e B una base di V. Indicate con A = M B,B (f ) e B = M B,B (g) le matrici associate
a f e g rispetto alla base B, per quanto dimostrato nei paragrafi precedenti, esistono due
matrici quadrate invertibili P e Q di ordine n tali che:

P 1
AP = D, Q 1 AQ = D0 ,

dove D e D0 sono matrici diagonali. Nasce quindi in modo naturale il problema di


trovare le condizioni che devono essere verificate affinché esista una matrice invertibile
P che diagonalizzi sia A sia B, ovvero tale che sia P 1 AP sia P 1 BP siano matrici
diagonali, ovviamente diverse. Questo problema ha conseguenze importanti per esempio
in meccanica quantistica ed in teoria delle rappresentazioni (cfr. per esempio [13]). Prima
di affrontare il problema posto si può introdurre la seguente definizione.

Definizione 7.5 Due endomorfismi diagonalizzabili f e g di uno spazio vettoriale reale


V si dicono simultaneamente diagonalizzabili se esiste una base di V i cui vettori sono
sia autovettori di f sia autovettori di g .
Capitolo 7 329

La definizione appena enunciata riscritta facendo uso delle matrici associate agli endo-
morfismi f e g rispetto ad una base di V si traduce nella seguente definizione.

Definizione 7.6 Due matrici A e B si dicono simultaneamente diagonalizzabili se esiste


una matrice P, invertibile, tale che:

A = P DP 1
, B = P D0 P 1
, (7.10)

con D e D0 matrici diagonali.

Il teorema seguente ha il duplice scopo di stabilire la condizione necessaria e sufficiente


affinché due endomorfismi diagonalizzabili siano simultaneamente diagonalizzabili e di
indicare un metodo pratico per determinare una matrice P che diagonalizzi simultanea-
mente le matrici associate ai due endomorfismi.

Teorema 7.12 Siano f e g due endomorfismi diagonalizzabili di uno spazio vettoriale


reale V di dimensione n. Essi sono simultaneamente diagonalizzabili se e solo se:

f g = g f,

ossia se e solo se le matrici associate A e B a f rispetto alla stessa base di V commu-


tano:
AB = BA.

Dimostrazione Se f e g sono simultaneamente diagonalizzabili, allora valgono le


relazioni (7.10) da cui:

AB = P D(P 1
P )D0 P 1
= P DD0 P 1
= (P D0 P 1
)(P DP 1
) = BA.

Viceversa, si supponga che gli endomorfismi f e g siano diagonalizzabili e che la loro


composizione commuti. Indicati con V 1 , V 2 , . . . , V k tutti gli autospazi relativi a f , vale
la decomposizione spettrale:

V =V 1 V 2 ... V k. (7.11)

Si osserva, per iniziare, che l’endomorfismo g trasforma ogni vettore dell’autospazio V i


relativo a f in un vettore dello stesso autospazio, ovvero che g(V i ) ✓ V i . In altri termini
gli autospazi V i di f non sono solo invarianti per f ma anche per g. Infatti, per ogni
vettore x 2 V i , risulta che:

f (g(x)) = (f g)(x) = (g f )(x) = g(f (x)) = g( i x) = i g(x),


330 Diagonalizzazione

quindi g(x) 2 V i , i = 1, 2, . . . , k. Sia ora y un autovettore di g , ossia g(y) = µy, con


µ 2 R. Come immediata conseguenza della decomposizione spettrale (7.11) di V negli
autospazi di f, il vettore y si può scrivere, in modo unico, come:

y = w1 + w2 + . . . + wk , wi 2 V i , i = 1, 2, . . . , k.

Poiché y è un autovettore dell’endomorfismo g, almeno uno tra i vettori wi è diverso dal


vettore nullo. Per quanto osservato e per la linearità di g , si ha:

g(y) = g(w1 ) + g(w2 ) + . . . + g(wk ) = µy = µw1 + µw2 + . . . + µwk ,

dove g(wi ) 2 V i , i = 1, 2, . . . , k . Inoltre, dall’unicità della decomposizione di un vettore


nella somma dei vettori degli autospazi, si ottiene:

g(w1 ) = µw1 , g(w2 ) = µw2 , ..., g(wk ) = µwk .

Questo prova che per ogni autovettore y di g è possibile determinare almeno un vettore
wi che sia simultaneamente autovettore di f e di g . Applicando questo metodo ad una
base (y1 , y2 , . . . , yn ) di autovettori di g , che esiste sicuramente in quanto g è diagona-
lizzabile, si ottengono almeno n vettori che sono simultaneamente autovettori di f e g .
Poiché i vettori yi sono combinazione lineare degli autovettori comuni ad f e a g, lo
spazio vettoriale da essi generato coincide con L(y1 , y2 , . . . , yn ) = V e perciò da essi si
può estrarre una base comune di autovettori di f e di g .

Osservazione 7.12 Per determinare una base comune di autovettori per due endomor-
fismi diagonalizzabili f e g che commutano è sufficiente estrarre una base dall’insieme
unione delle basi dei sottospazi vettoriali V i \V 0j ottenuti come intersezione di ogni auto-
spazio V i di f con ogni autospazio V 0j di g . Si noti che per alcuni indici i e j tale inter-
sezione può essere ridotta all’insieme {o}. Inoltre, appare evidente dalla dimostrazione
del Teorema 7.12 che la base comune di autovettori non è unica.

Esercizio 7.8 Dati due endomorfismi f e g su R3 le cui matrici, rispetto alla base cano-
nica di R3 , sono rispettivamente:
0 1 0 1
2 0 0 1 0 0
A= @ 0 2 0 A, B= @ 2 3 0 A,
1 0 3 2 0 3

si verifichi che f e g sono simultaneamente diagonalizzabili e si trovi una base comune


di autovettori.
Capitolo 7 331

Soluzione Innanzitutto si prova che f e g commutano, infatti:


0 1
2 0 0
AB = @ 4 6 0 A = BA.
7 0 9
L’endomorfismo f ha autovalori con relative molteplicità:

1 = 2, m 1 = 2; 2 = 3, m 2 =1

ed autospazi:
V 1 = L((1, 0, 1), (0, 1, 0)), V 2 = L((0, 0, 1));
mentre l’endomorfismo g ha autovalori con relative molteplicità:
0 0
1 = 1, m 0
1
= 1; 2 = 3, m 0
2
=2

ed autospazi:
V 0
1
= L((1, 1, 1)), V 0
2
= L((0, 1, 0), (0, 0, 1)).
Quindi i due endomorfismi sono diagonalizzabili, poiché commutano sono simultanea-
mente diagonalizzabili. Si vede subito che gli autovettori di g :
y1 = (1, 1, 1), y2 = (0, 1, 0), y3 = (0, 0, 1)
sono anche autovettori di f e, quindi, costituiscono una base di autovettori comune ad f
e a g. Si presti attenzione al fatto che, rispetto alla base comune (y1 , y2 , y3 ), la matrice:
0 1
2 0 0
D=@ 0 2 0 A
0 0 3
è associata a f , mentre la matrice:
0 1
1 0 0
D0 = @ 0 3 0 A
0 0 3
è associata a g .

Esercizio 7.9 Date le matrici:


0 1 0 1
16 16 4 16 9 12 3 12
B 0 0 0 0 C B 3 3 1 3 C
A=B
@ 48
C, B=B C,
48 12 48 A @ 12 12 4 12 A
0 0 0 0 9 12 3 12
332 Diagonalizzazione

provare che sono simultaneamente diagonalizzabili. Determinare, quindi, una matrice che
le diagonalizzi entrambe.

Soluzione Gli autovalori con relative molteplicità e gli autospazi di A sono:

1 = 0, m 1 = 3; 2 = 4, m 2 = 1;
V 1 = L(v1 , v2 , v3 ), V 2 = L(v4 ),

dove v1 = ( 1, 0, 0, 1), v2 = ( 1, 0, 4, 0), v3 = (1, 1, 0, 0), v4 = ( 1, 0, 3, 0), mentre


gli autovalori con relative molteplicità e gli autospazi di B sono:
0 0 0
1 = 0, m 0
1
= 2; 2 = 1, m 2 = 1; 3 = 3, m 3 = 1;
V 0
1
= L(v10 , v20 ), V 0
2
= L(v30 ), V 0
3
= L(v40 ),

con v10 = (0, 1, 0, 1), v20 = ( 1, 0, 3, 0), v30 = (0, 1, 4, 0), v40 = ( 1, 0, 0, 1). Le due
matrici A e B sono simultaneamente diagonalizzabili in quanto A e B commutano,
infatti:
AB = BA = O,
con O 2 R4,4 matrice nulla.

Il Teorema 7.12 assicura che, ad esempio, a partire dalla base B 0 = (v10 , v20 , v30 , v40 ) di R4
è possibile determinare una base comune di autovettori che si ottiene seguendo il metodo
esposto nella dimostrazione. Si decompongono i vettori della base B = (v1 , v2 , v3 , v4 )
di R4 attraverso i vettori della base B 0 , con l’avvertenza di raggruppare e sommare gli
autovettori appartenenti allo stesso autospazio. Si hanno le seguenti espressioni:
8 0
> v1 = v4 0
>
<
v2 = v1 + v30 + v40
>
> v3 = v10 v40
:
v4 = v20 ,

dalle quali risulta che (casualmente) i vettori della base B 0 sono autovettori comuni alle
due matrici. Scambiando il ruolo delle basi B e B 0 , si avrebbe:
8 0
>
> v = v1 + v3
< 10
v2 = v4
>
> v0 = v2 + v3
: 30
v4 = v1 ,

dove si osserva che una base comune è formata dai vettori v10 , v20 , v30 , v40 , ossia, nuova-
mente, la base B 0 .
Capitolo 7 333

Come già precisato nell’Osservazione 7.12 un altro modo per determinare una base co-
mune di autovettori delle due matrici A e B diagonalizzabili e che commutano, consiste
nell’estrarre una base dall’insieme unione delle basi dei sottospazi vettoriali: V i \ V 0j ,
i = 1, 2, j = 1, 2, 3, dove V i e V 0j rappresentano gli autospazi delle matrici A e B
rispettivamente. Nel caso in esame, ommettendo i calcoli per brevità, si ha:

V 1 \V 0
1
= L((0, 1, 0, 1)),
V 1 \V 0
2
= L((0, 1, 4, 0)),
V 1 \V 0
3
= L(( 1, 0, 0, 1)),
V 2 \V 0
1
= L(( 1, 0, 3, 0)),
V 2 \V 0
2
= {o},
V 2 \V 0
3
= {o},
e si ottengono nuovamente i vettori della base B 0 .

7.6.2 Il Teorema di Cayley–Hamilton


Il teorema che segue, di svariate applicazioni, è sorprendente, perché afferma, in pratica,
che sostituendo una matrice quadrata alla variabile del suo polinomio caratteristico si
ottiene la matrice nulla.

Teorema 7.13 – Teorema di Cayley–Hamilton – Ogni matrice quadrata A 2 Rn,n è


uno zero del suo polinomio caratteristico, ovvero se:

P ( ) = ( 1)n n
+ an 1
n 1
+ . . . + a1 + a0

è il polinomio caratteristico di A, allora:

P (A) = ( 1)n An + an 1 An 1
+ . . . + a1 A + a0 I = O,

con O 2 Rn,n matrice nulla.

Dimostrazione Sia P ( ) il polinomio caratteristico della matrice A 2 Rn,n :

P ( ) = det(A I) = ( 1)n n
+ an 1
n 1
+ . . . + a1 + a0 , (7.12)
con an 1 = ( 1)n 1 tr(A) e a0 = det(A). Sia B( ) l’aggiunta della matrice A I,
(cfr. Def. 2.14), gli elementi di B( ), essendo i cofattori della matrice A I, sono
polinomi in di grado non superiore a n 1. Quindi si può scrivere:

B( ) = Bn 1
n 1
+ . . . + B1 + B0 , (7.13)
334 Diagonalizzazione

dove gli elementi delle matrici Bi 2 Rn,n non dipendono da . Ricordando il calcolo
esplicito della matrice inversa (cfr. Teor. 2.19), segue che:

(A I)B( ) = det(A I)I.

Sostituendo le espressioni di (7.12) e (7.13) ed uguagliando i coefficienti dei termini di


ugual grado si ha:
Bn 1 = ( 1)n I
ABn 1 Bn 2 = an 1 I
ABn 2 Bn 3 = an 2 I
..
.
AB1 B0 = a1 I
AB0 = a0 I.
Moltiplicando le precedenti equazioni, rispettivamente, per An , An 1 , . . . , A, I e som-
mando segue la tesi, ossia:

O = ( 1)n An + an 1 An 1
+ . . . + a1 A + a0 I = P (A). (7.14)

Esempio 7.8 Per capire meglio la dimostrazione precedente, si riporta l’espressione di


B( ) (cfr. (7.13)) nel caso della matrice:
0 1
2 0 0
A= @ 1 3 0 A.
1 1 1

Il polinomio caratteristico di A è :
3 2
P( ) = +6 11 + 6.

Poiché: 0 1
2 0 0
A I=@ 1 3 0 A,
1 1 1
l’aggiunta B( ) della matrice (A I) è:
0 1
3 4 + 2 0 0
B( ) = @ 1+ 2 3 + 2
0 A
2
4 2+ 6 5 +
Capitolo 7 335

da cui:
2
B( ) = B2 + B1 + B0
0 1 0 1 0 1
1 0 0 4 0 0 3 0 0
= @ 0 1 0 A 2
+@ 1 3 0 A +@ 1 2 0 A.
0 0 1 1 1 5 4 2 6

Esempio 7.9 Sia A una matrice quadrata di ordine 2, dal Teorema di Cayley–Hamilton
7.13 e da (7.4) segue:

A2 = tr(A)A det(A)I.
Si possono cosı̀ ottenere le potenze di A in funzione delle potenze precedenti, per esem-
pio:

A3 = tr(A)A2 det(A)A, A4 = tr(A)A3 det(A)A2 ,


e cosı̀ via.

Esempio 7.10 Se A è invertibile, poiché da (7.14), si ha:


⇥ ⇤
A ( 1)n An 1 + an 1 An 2 + . . . + a1 I = det(A)I,

moltiplicando entrambi i membri per A 1 , si ottiene:


1
A = (det(A)) 1 (a0 An 1
+ a1 A n 2
+ . . . + a1 I).

Se A è una matrice quadrata di ordine 2, la formula precedente si riduce a:


1
A = (det(A)) 1 (A + tr(A)I).

Esercizio 7.10 Determinare l’inversa della matrice:


0 1
1 0 1
A=@ 0 2 1 A,
1 1 0
usando il Teorema di Cayley–Hamilton.
336 Diagonalizzazione

Soluzione Il polinomio caratteristico di A è:


3 2
P( ) = +3 2 1.
Usando il Teorema 7.13 si ricava:
A3 + 3A2 2A I = O,
con O matrice nulla di R3,3 , quindi:
1
A = A2 + 3A 2I,
da cui svolgendo i calcoli segue:
0 1
1 1 2
A 1
= @ 1 1 1 A.
2 1 2

7.6.3 Teorema Spettrale e endomorfismi autoaggiunti.


Caso complesso
Dato un endomorfismo f di uno spazio vettoriale complesso V, si introducono in modo
analogo alla Definizione 7.1 le nozioni di autovalori e di autovettori di f. Infatti, un
numero complesso 2 C è un autovalore di f se esiste un vettore non nullo x di V tale
che f (x) = x. Il vettore x è detto autovettore di f relativo all’autovalore . Come
nel caso reale si definisce l’autospazio V di f relativo all’autovalore come l’insieme
dei vettori x tali che f (x) = x e continuano a valere tutte le proprietà dimostrate nei
Paragrafi 7.1 e 7.2. Pertanto per il calcolo degli autovalori si procede come nel caso reale,
precisamente:

1. si determina la matrice A = M B,B (f ) associata a f rispetto a una qualsiasi base B


di V ; è chiaro che A è una matrice ad elementi complessi, quindi appartenente a
Cn,n ;
2. si calcola il polinomio caratteristico P ( ) = det(A I), che risulta essere un
polinomio in a coefficienti in C;
3. si trovano le radici del polinomio caratteristico.

Mentre nel caso reale solo le radici reali del polinomio caratteristico sono autovalori, nel
caso complesso, per il Teorema Fondamentale dell’Algebra, ogni radice del polinomio
caratteristico è un autovalore.

Per il calcolo degli autospazi si procede nello stesso modo del caso reale (cfr. Par. 7.2):
Capitolo 7 337

1. per ogni autovalore ↵ si calcola la matrice A ↵I;

2. si risolve il sistema lineare omogeneo (A ↵I)X = O.

Come nel caso reale si ha che la dimensione di un autospazio V , come spazio vettoriale
complesso, è data da dim(V ) = dim(V ) rank(A I).

Si possono quindi introdurre le nozioni di endomorfismo diagonalizzabile e di matrice


diagonalizzabile (cfr. Def. 7.3 e 7.4) e continua a valere il Teorema 7.6. Per quanto
riguarda il Teorema 7.7, ossia per i criteri di diagonalizzazione, si ha solo una variazione
nel punto 4.. Più precisamente si ha il seguente teorema.

Teorema 7.14 Sia f : V ! V un endomorfismo di uno spazio vettoriale complesso V.


Le seguenti affermazioni sono equivalenti:

1. f è diagonalizzabile.

2. V = V 1 V 2 . . . V k , dove 1 , 2 , . . . , k sono tutti gli autovalori distinti di


f e V 1 , V 2 , . . . , V k i relativi autospazi.

3. dim(V ) = dim(V 1 ) + dim(V 2 ) + . . . + dim(V k ), dove 1 , 2 , . . . , k sono tutti


gli autovalori distinti di f e V 1 , V 2 , . . . , V k i relativi autospazi.

4. Per ogni autovalore i di f la dimensione dell’autospazio V i coincide con la


molteplicità m i di i , ossia dim(V i ) = m i per ogni i = 1, 2, . . . , k .

Di conseguenza, anche per un endomorfismo di uno spazio vettoriale complesso vale il


Corollario 7.1.

Nel Paragrafo 7.4 è stato dimostrato che ogni matrice simmetrica è diagonalizzabile me-
diante una matrice ortogonale e che se f è un endomorfismo autoaggiunto di uno spazio
vettoriale euclideo (V, · ), esiste una base ortonormale di V formata da autovettori. Gli
autovalori e gli autovettori di un endomorfismo autoaggiunto di uno spazio vettoriale her-
mitiano (V, · ) (e di conseguenza di una matrice hermitiana) godono delle stesse proprietà
viste nel caso reale. Queste sono riassunte nel teorema che segue.

Teorema 7.15 1. Gli autovalori di un endomorfismo autoaggiunto f di uno spazio


vettoriale hermitiano (V, · ) sono reali.

2. Autovettori di un endomorfismo autoaggiunto f di uno spazio vettoriale hermitiano


(V, · ) relativi ad autovalori diversi sono ortogonali.
338 Diagonalizzazione

3. Sia f un endomorfismo autoaggiunto di uno spazio vettoriale hermitiano (V, · ) di


dimensione n, allora f è diagonalizzabile. Inoltre, esiste una base unitaria di V
formata da autovettori di f .

4. Ogni matrice hermitiana è diagonalizzabile mediante una matrice unitaria.

5. Ogni endomorfismo f di uno spazio vettoriale complesso è autoaggiunto rispetto


ad un opportuno prodotto hermitiano.

Dimostrazione Per dimostrare 1. si può osservare che se è un autovalore dell’endo-


morfismo autoaggiunto f e x è un autovettore relativo a , si ha:

f (x) · x = x · x. (7.15)

Poiché f è autoaggiunto risulta anche:

f (x) · x = x · f (x) = x · ( x) = x · x, (7.16)

dove indica il complesso coniugato di . Essendo x è un autovettore, segue x · x 6= 0


e pertanto, confrontando (7.15) con (7.16) si ottiene = .
Le dimostrazioni delle proprietà 2., 3., 4. e 5. sono analoghe al caso reale.

Osservazione 7.13 1. Come conseguenza del Teorema 7.15 si ottiene la dimostrazio-


ne del Lemma 7.2, in quanto dalla proprietà 1. si ha che ogni radice del polino-
mio caratteristico di una matrice hermitiana (e quindi in particolare di una matrice
simmetrica) è reale.

2. Ogni matrice hermitiana è pertanto simile ad una matrice diagonale reale tramite
una matrice unitaria. In altri termini, per ogni matrice hermitiana A esistono una
matrice unitaria P ed una diagonale reale D per cui
1
D=P AP = t P AP.

A differenza di ciò che succede nel caso reale per ciò che riguarda le matrici simmetriche
(cfr. Teor. 7.8), si proverà che se una matrice A 2 Cn,n è diagonalizzabile in campo
complesso mediante una matrice unitaria essa non è necessariamente hermitiana, ma ve-
rifica solo la relazione t A A = A t A (cfr. Teor. 7.16). Ad esempio si avrà che le matrici
ortogonali reali A (quindi tali che tA = A 1 ) sono diagonalizzabili in campo complesso
mediante una matrice unitaria (cfr. Esercizio 7.11).

In modo naturale è necessario quindi introdurre la seguente definizione.


Capitolo 7 339

Definizione 7.7 Una matrice quadrata complessa A 2 Cn,n di ordine n si dice normale
se:
t
A A = A t A.
Ricordando la notazione A⇤ = t A (cfr. Oss. 4.34) si ha che una matrice quadrata
complessa A 2 Cn,n di ordine n si dice normale se:

A⇤ A = A A⇤ .

Esercizio 7.11 Verificare che le matrici unitarie, le matrici reali ortogonali, le matrici
hermitiane e le matrici simmetriche (reali) sono esempi di matrici normali.

Soluzione Una matrice unitaria A è normale, in quanto da t A = A 1


, segue:

A t A = t A A = I.

Per le matrici ortogonali (reali) si ha che t A = tA = A 1


e pertanto:

A t A = t A A = I.

Per le matrici hermitiane si ha t A = A e quindi:

A t A = t A A = A2 .

Infine, una matrice simmetrica (reale) A è normale in quanto t A = tA = A e pertanto

A t A = t A A = A2 .

Il teorema spettrale, valido nel caso reale per le matrici simmetriche, in campo comples-
so non vale solo per le matrici hermitiane ma in generale per le matrici normali. Più
precisamente si ha il seguente teorema.

Teorema 7.16 – Teorema spettrale in campo complesso – 1. Sia A una matrice nor-
male, allora esistono una matrice unitaria P ed una matrice diagonale D tali che
P 1 AP = D.

2. Se A è una matrice diagonalizzabile mediante una matrice unitaria, allora A è


normale.
340 Diagonalizzazione

Dimostrazione La dimostrazione di 1. è più complicata del caso reale, per la sua


lettura si rimanda ad esempio a [14].
La dimostrazione di 2. è simile a quella nel caso reale per le matrici simmetriche. Infatti
dal fatto che esista una matrice P di ordine n unitaria tale che P 1 AP = D, si deduce
t 1
A = t (P D P ) = t P DP,

in quanto t D = D e t P = P 1
. Quindi:
t
AA = (t P DP )(P 1
DP ) = t P DDP = P 1
DDP,
A t A = (P 1
DP )(t P DP ) = P 1
DDP,

ma DD = DD.

Osservazione 7.14 1. Si osservi che gli autovalori di una matrice normale sono in
generale numeri complessi e quindi la matrice D non è necessariamente reale.

2. Tutte le matrici complesse normali possono quindi essere diagonalizzate in C con


una base unitaria di autovettori. Tuttavia, questo non si verifica nel caso reale.
Infatti, una matrice normale reale può avere autovalori immaginari, e quindi non
essere diagonalizzabile in campo reale (pur rimanendo diagonalizzabile in campo
complesso). Ne è un esempio la matrice di una rotazione del piano vettoriale V2 di
angolo diverso da 0 e ✓ (cfr. Es. 7.4).

7.6.4 Autovalori delle isometrie, similitudini,


trasformazioni unitarie
Gli autovalori delle isometrie e delle similitudini di uno spazio vettoriale euclideo (V, · ),
considerate nel Paragrafo 6.8.7, non possono assumere valori qualsiasi. Infatti si può
provare il seguente teorema.

Teorema 7.17 Sia (V, · ) uno spazio vettoriale euclideo,

1. gli autovalori di un’isometria f di (V, · ) sono 1 e 1.

2. Gli autovalori di una similitudine di rapporto µ di (V, · ) sono µ e µ.

Dimostrazione 1. Sia un autovalore di un’isometria f : V ! V, quindi f (x) = x.


Pertanto:
kf (x)k2 = k xk2 = 2
kxk2 = kxk2 ,
da cui la tesi. La dimostrazione di 2. è analoga ed è lasciata al Lettore per esercizio.
Capitolo 7 341

Osservazione 7.15 Si osservi che se un’automorfismo di uno spazio vettoriale euclideo


(V, · ) ha autovalori pari a 1 e 1 non è detto che sia un’isometria di (V, · ). Per esempio,
si consideri l’automorfismo di R2 definito dalla matrice:
✓ ◆
1 1
A=
0 1

rispetto alla base canonica B d R2 . Se si considera su R2 la struttura di spazio vettoriale


euclideo determinata dal prodotto scalare standard, si ha per il Teorema 6.32 che f non è
un isometria di R2 (perché?).

Nel caso di una trasformazione unitaria di uno spazio vettoriale hermitiano (cfr. Par. 5.5.2
e 6.8.7) valgono le seguenti proprietà, per la dimostrazione si rimanda ad esempio a [14].

Teorema 7.18 Sia f una trasformazione unitaria di uno spazio vettoriale hermitiano
(V, · ).

1. Se H è un sottospazio vettoriale invariante per f , anche il suo complemento orto-


gonale H? è invariante per f .

2. Se V ha dimensione finita, allora V ammette una base unitaria formata da auto-


vettori di f .

Si osservi che il fatto che esista una base unitaria di V formata da autovettori di f segue
anche dalla proprietà già enunciata che le matrici unitarie sono diagonalizzabili mediante
matrici unitarie (cfr. Teor. 7.16.)
342 Diagonalizzazione
Capitolo 8

Forme Bilineari e Forme Quadratiche

In questo capitolo vengono trattate le forme bilineari, particolari funzioni che estendono
il concetto di prodotto scalare definito nel Capitolo 5. Tra le innumerevoli applicazioni di
questo argomento si ha lo studio approfondito delle coniche nel piano e delle quadriche
nello spazio che saranno presentati nei Capitoli 10 e 12.

8.1 Forme bilineari simmetriche


Si inizia il paragrafo con la definizione di forma bilineare su uno spazio vettoriale reale.

Definizione 8.1 Una forma bilineare su uno spazio vettoriale reale V è una funzione:
':V ⇥V !R
per cui valgono le seguenti proprietà:
1. '(x + x0 , y) = '(x, y) + '(x0 , y);
2. '(x, y + y0 ) = '(x, y) + '(x, y0 );
3. '( x, y) = '(x, y) = '(x, y),
per ogni x, x0 , y, y0 2 V e per ogni 2 R.

Osservazione 8.1 Fissato un vettore x 2 V, la funzione:


'x : V ! R, y 7 ! '(x, y),
con ' forma bilineare su V, è una forma lineare su V. La stessa proprietà vale se si fissa
il vettore y e si considera la funzione:
'y : V ! R, x 7 ! '(x, y).

343
344 Forme Bilineari e Forme Quadratiche

Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la


verifica che si tratti o meno di forme bilineari.

Esempio 8.1 La funzione ' : R2 ⇥ R2 ! R definita da:

'(x, y) = x1 y1 2x2 y2 ,

con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , è una forma bilineare su R2 . Infatti:

'((x1 , x2 ) + (x01 , x02 ), (y1 , y2 )) = '((x1 + x01 , x2 + x02 ), (y1 , y2 ))


= (x1 + x01 )y1 2(x2 + x02 )y2
= '((x1 , x2 ), (y1 , y2 )) + '((x01 , x02 ), (y1 , y2 )),

per ogni (x1 , x2 ), (x01 , x02 ), (y1 , y2 ) 2 R2 . Analogamente si può dimostrare che ' verifica
le proprietà 2. e 3. della Definizione 8.1. Inoltre, si ha '(x, y) = '(y, x), per ogni
x, y 2 R2 .

Esempio 8.2 Si verifichi per esercizio che la funzione ' : R2 ⇥ R2 ! R definita da:

'(x, y) = x1 y1 + 2x2 y2 + 4,

con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , non è una forma bilineare su R2 .

Esempio 8.3 Si verifichi per esercizio che la funzione ' : R2 ⇥ R2 ! R definita da:

'(x, y) = x21 y1 + 2x2 y2 ,

con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , non è una forma bilineare su R2 .

Esempio 8.4 La funzione ' : R2 ⇥ R2 ! R definita da:

'(x, y) = x1 y1 + 2x1 y2 + 3x2 y1 + 4x2 y2 ,

con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , è una forma bilineare su R2 . Inoltre, si


ha '(x, y) '(y, x) = x1 y2 + 2x2 y1 . Pertanto, considerando per esempio x = (1, 1)
e y = (1, 2), in contrasto con l’Esempio 8.1, segue che '(x, y) 6= '(y, x).

In generale, data una forma bilineare ' su uno spazio vettoriale reale V non si ha ne-
cessariamente che '(x, y) = '(y, x), per ogni x, y 2 V. Si può quindi introdurre la
seguente definizione.
Capitolo 8 345

Definizione 8.2 Una forma bilineare ' su uno spazio vettoriale reale V si dice simme-
trica se:
'(x, y) = '(y, x),
per ogni x, y 2 V.

Esempio 8.5 Ogni prodotto scalare su uno spazio vettoriale reale V è un esempio di
forma bilineare simmetrica su V (cfr. Def. 5.1).

Esempio 8.6 La funzione ' : R2 ⇥ R2 ! R considerata nell’Esempio 8.1 è una forma


bilineare simmetrica, mentre la funzione ' dell’Esempio 8.4 non è una forma bilineare
simmetrica.

Poiché ci si propone di studiare opportune generalizzazioni del concetto di prodotto sca-


lare, si prenderanno in considerazione, in quasi tutto il capitolo, solo forme bilineari sim-
metriche. Nel Paragrafo 8.8.4 invece si studieranno particolari forme, non simmetriche,
che permettono di introdurre, in questo contesto, la nozione già nota di determinante di
una matrice quadrata.

L’insieme delle forme bilineari simmetriche su V sarà indicato con Bs (V, R). Su questo
insieme si può definire in modo naturale una struttura di spazio vettoriale su R. Infat-
ti, sull’insieme Bs (V, R) delle forme bilineari simmetriche si introduce l’operazione di
somma di due forme bilineari simmetriche '1 , '2 , come la funzione:

'1 + '2 : V ⇥ V ! R,

definita da:
('1 + '2 )(x, y) = '1 (x, y) + '2 (x, y), x, y 2 V, (8.1)
e l’operazione di prodotto di un numero reale 2 R per una forma bilineare simmetrica
come la funzione:
' : V ⇥ V ! R,
definita da:
( ')(x, y) = '(x, y), x, y 2 V, 2 R. (8.2)
È immediato verificare che '1 + '2 e ' sono forme bilineari simmetriche e che vale il
seguente teorema.

Teorema 8.1 L’insieme Bs (V, R) delle forme bilineari simmetriche ' : V ⇥ V ! R


su uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R, rispetto alle
operazioni di somma e prodotto per uno numero reale, definite rispettivamente in (8.1) e
(8.2).
346 Forme Bilineari e Forme Quadratiche

Osservazione 8.2 Si può definire, in modo analogo al caso reale, una forma bilineare
complessa ' su uno spazio vettoriale complesso V come la funzione:
':V ⇥V !C
per cui valgono le seguenti proprietà:
1. '(x + x0 , y) = '(x, y) + '(x0 , y);
2. '(x, y + y0 ) = '(x, y) + '(x, y0 );
3. '( x, y) = '(x, y) = '(x, y),
per ogni x, x0 , y, y0 2 V e per ogni 2 C. Si osservi che un prodotto hermitiano su uno
spazio vettoriale complesso V non è però una forma bilineare complessa su V in quanto
non è lineare nel secondo argomento (cfr. (5.12)).

8.1.1 Matrice associata ad una forma bilineare simmetrica


Sia V uno spazio vettoriale reale di dimensione n e sia ' una forma bilineare simmetrica
su V. Dati una base B = (v1 , v2 , . . . , vn ) di V ed una coppia di vettori x, y 2 V,
usando la bilinearità di ', è possibile esprimere '(x, y) in termini di '(vi , vj ), i, j =
1, 2, . . . , n, e delle componenti di x, y rispetto alla base B. Infatti, per ogni coppia di
vettori x, y 2 V, dati da:
x = x1 v1 + x2 v2 + . . . + xn vn , y = y1 v1 + y2 v2 + . . . + yn vn ,
l’espressione di '(x, y) si ottiene applicando le proprietà di bilinearità di ', e precisa-
mente:

'(x, y) = '(x1 v1 + x2 v2 + . . . + xn vn , y1 v1 + y2 v2 + . . . + yn vn )
= x1 y1 '(v1 , v1 ) + x1 y2 '(v1 , v2 ) + . . . + x1 yn '(v1 , vn )
+ x2 y1 '(v2 , v1 ) + x2 y2 '(v2 , v2 ) + . . . + x2 yn '(v2 , vn )
+ ... (8.3)
+ xn y1 '(vn , v1 ) + xn y2 '(vn , v2 ) + . . . + xn yn '(vn , vn )
n
X
= xi yj '(vi , vj ).
i,j=1

Posto aij = '(vi , vj ), i, j = 1, 2, . . . , n, e tenendo conto che:


'(vi , vj ) = '(vj , vi ),
Capitolo 8 347

per ogni i, j = 1, 2, . . . , n, alla forma bilineare simmetrica ' si associa pertanto la


matrice simmetrica di ordine n :
0 1
a11 a12 . . . a1n
B a12 a22 . . . a2n C
B C
A = B .. .. . . .. C
@ . . . . A
a1n a2n . . . ann
che prende il nome di matrice associata alla forma bilineare simmetrica ' rispetto alla
base B di V e la si indica con:
A = M B (').
La conoscenza della matrice A permette di calcolare '(x, y), qualunque siano i vettori
x e y in V. La relazione (8.3) diventa, quindi:
n
X
'(x, y) = aij xi yj , x, y 2 V, (8.4)
i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n.

Si può dimostrare che, fissata una base B dello spazio vettoriale V, la funzione che ad
ogni forma bilineare simmetrica ' associa la matrice simmetrica A ad essa associata è
un isomorfismo tra Bs (V, R) e il sottospazio vettoriale di Rn,n delle matrici simmetriche
S(Rn,n ). Infatti si è appena dimostrato che, fissata una base B di V, una forma bili-
neare simmetrica ' definita su V individua una matrice simmetrica di Rn,n . Viceversa,
assegnando una matrice simmetrica A = (aij ) 2 S(Rn,n ), da (8.4) viene individuata
una forma bilineare simmetrica ' su V. Inoltre è facile verificare che tale funzione è
un’applicazione lineare. Si ha quindi il seguente teorema.

Teorema 8.2 Sia V uno spazio vettoriale reale di dimensione n. Fissata una base di V,
lo spazio vettoriale Bs (V, R) delle forme bilineari simmetriche è isomorfo al sottospazio
vettoriale S(Rn,n ) delle matrici simmetriche di Rn,n ; esso ha quindi dimensione pari alla
dimensione di S(Rn,n ), ossia:

n(n + 1)
dim(Bs (V, R)) = .
2
La dimostrazione del teorema è lasciata come esercizio al Lettore.

L’espressione (8.4) prende il nome di forma o espressione polinomiale della forma bili-
neare simmetrica ' rispetto alla base B. Si tratta di un polinomio omogeneo di secondo
grado nelle componenti di x e y rispetto alla base B, dove per polinomio omogeneo si
intende un polinomio con termini tutti dello stesso grado.
348 Forme Bilineari e Forme Quadratiche

Esempio 8.7 La matrice associata alla forma bilineare dell’Esempio 8.1, rispetto alla
base canonica di R2 , è:
✓ ◆
1 0
A=
0 2

che, come previsto, è simmetrica.

Esempio 8.8 La matrice associata al prodotto scalare standard (5.1) su Rn , rispetto alla
base canonica B di Rn, è la matrice unità I. Mentre la matrice associata al prodotto
scalare dell’Esempio 5.3, rispetto alla base canonica di R3 , è la matrice diagonale:

0 1
3 0 0
A = @ 0 4 0 A.
0 0 5

Sia nell’Esempio 8.7 sia nell’Esempio 8.8 la matrice associata alla forma bilineare sim-
metrica è diagonale, si vedrà in questo capitolo che se la matrice associata ad una forma
bilineare simmetrica è diagonale sarà più facile classificarla e riconoscere se si tratti o
meno di un prodotto scalare.

Teorema 8.3 Siano V uno spazio vettoriale reale di dimensione n, B = (v1 , v2 , . . . , vn )


una base di V, ' 2 Bs (V, R) una forma bilineare simmetrica avente come matrice
associata rispetto a B la matrice simmetrica A = (aij ), i, j = 1, 2, . . . , n, e:

0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X=B .. C, Y =B .. C
@ . A @ . A
xn yn

le matrici colonna delle componenti dei vettori x, y 2 V rispetto alla base B di V. Si


ha:

'(x, y) = tXA Y = t Y A X. (8.5)


Capitolo 8 349

Dimostrazione Si tratta di esprimere in notazione matriciale la formula (8.4), infatti:


0 10 1
a11 a12 . . . a1n y1
B a12 a22 . . . a2n C B y2 C
t B CB C
XA Y = x1 x2 . . . xn B .. .. . . .. C B .. C
@ . . . . A@ . A
a1n a2n . . . ann yn
0 1
a11 y1 + a12 y2 + . . . + a1n yn
B a12 y1 + a22 y2 + . . . + a2n yn C
= x 1 x 2 . . . xn B C
@ .......................... A
a1n y1 + a2n y2 + . . . + ann yn
n
X
= aij xi yj = '(x, y),
i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n. Inoltre, poiché '(x, y) è un numero reale,
risulta:
'(x, y) = t ('(x, y)) = tXA Y = t ( tXA Y ) = t Y tA X,
e dalla simmetria di A segue la tesi.

L’espressione (8.5) è detta espressione matriciale della forma bilineare simmetrica '
rispetto alla base B.

Esempio 8.9 La forma bilineare simmetrica ' 2 Bs (R3 , R) con matrice associata rispet-
to alla base canonica di R3 : 0 1
1 0 2
A=@ 0 1 5 A
2 5 0
ha come espressione polinomiale rispetto alla base canonica di R3 :

'(x, y) = x1 y1 + 2(x1 y3 + x3 y1 ) x2 y2 + 5(x2 y3 + x3 y2 ).

Se x = (1, 2, 3) e y = (0, 3, 4), allora:


0 1
0
'(x, y) = 1 2 3 A @ 3 A = 87.
4

Ci si propone ora di determinare il legame che intercorre tra le matrici associate alla stessa
forma bilineare simmetrica su uno spazio vettoriale V, cambiando base in V.
350 Forme Bilineari e Forme Quadratiche

Teorema 8.4 Siano V uno spazio vettoriale reale, B e B 0 due basi di V, A = M B (') e
0
A0 = M B (') le matrici associate a ' rispetto a B e a B 0 rispettivamente. Se P indica
la matrice del cambiamento di base da B a B 0 , risulta:

A0 = tP AP.

Dimostrazione Siano X = P X 0 , Y = P Y 0 le equazioni del cambiamento di base da


B a B 0 (cfr. Par. 4.3.4), si ha:

'(x, y) = tXAY = t (P X 0 )A(P Y 0 ) = tX 0 tP AP Y 0 .

D’altra parte si può scrivere '(x, y) = tX 0 A0 Y 0 e, dal confronto delle due espressioni, si
ottiene:
t 0t
X P AP Y 0 = tX 0 A0 Y 0 ,
oppure:
X 0 ( tP AP
t
A0 )Y 0 = 0,
per ogni X 0 e per ogni Y 0 , da cui A0 = tP AP .

Osservazione 8.3 La matrice A0 è ancora simmetrica, infatti:


t 0
A = t ( tP AP ) = tP AP = A0 .

In generale, però A0 non è simile alla matrice A, lo è se P è una matrice ortogona-


le. Pertanto, in generale i determinanti delle matrici A e A0 sono diversi, infatti vale la
relazione:
det(A0 ) = det(A)(det(P ))2 .
Di conseguenza, non è detto che A e A0 abbiano gli stessi autovalori come si vedrà
nell’Esempio 8.10. Si dimostrerà però che A e A0 hanno lo stesso numero di autovalori
positivi e lo stesso numero di autovalori negativi (cfr. Teor. 8.20).

Esempio 8.10 Data la forma bilineare simmetrica su R2 :

'(x, y) = 3x1 y1 x1 y2 x2 y1 + 2x2 y2 ,

e assegnata la base B 0 = ((1, 2), ( 2, 1)) di R2 , la matrice P del cambiamento di base


dalla base canonica B di R2 alla base B 0 è:
✓ ◆
1 2
P = .
2 1

Quindi le matrici associate a ' rispettivamente rispetto a B e B 0 sono:


Capitolo 8 351

✓ ◆ ✓ ◆✓ ◆✓ ◆ ✓ ◆
3 1 0 1 2 3 1 1 2 7 1
A= , A = = .
1 2 2 1 1 2 2 1 1 18

Se si calcolano i polinomi caratteristici di A e A0 , si ottiene:


2
det(A I) = (3 )(2 ) 1= 5 + 5,
det(A0 I) = (7 )(18 ) 1= 2
25 + 125,
da cui segue che A e A0 non sono matrici simili, quindi non hanno gli stessi autovalori
ma hanno entrambe due autovalori positivi.

Esempio 8.11 Si consideri il prodotto scalare standard sullo spazio vettoriale V3 dei
vettori ordinari, definito nel Paragrafo 3.7.1:
c
'(x, y) = kxkkyk cos(xy), x, y 2 V3 .

Come già osservato nell’Esempio 8.8, la matrice associata a questo prodotto scalare
rispetto ad una base ortonormale B = (i, j, k) è:
0 1
1 0 0
M B (') = I = @ 0 1 0 A,
0 0 1
infatti:
'(x, y) = x1 y1 + x2 y2 + x3 y3 , (8.6)
se x = x1 i + x2 j + x3 k e y = y1 i + y2 j + y3 k. Sia B 0 = (2i, i + 5j, 2k) una nuova
base (non ortonormale) di V3 . La matrice associata al prodotto scalare standard rispetto
alla nuova base B 0 è la matrice simmetrica:
0 1
4 2 0
0
M B (') = tP IP = tP P = @ 2 26 0 A,
0 0 4

cioè se x, y hanno componenti rispettivamente (x01 , x02 , x03 ) e (y10 , y20 , y30 ) rispetto alla
base B 0 si ha:
'(x, y) = 4x0 y 0 + 2(x01 y20 + x02 y10 ) + 11x02 y20 + 4x03 y30 . (8.7)

Si pone quindi il problema, che sarà discusso nei paragrafi successivi, di riconoscere che
la forma bilineare ', definita rispetto alla base B 0 tramite l’espressione polinomiale (8.7),
coincida con il prodotto scalare (8.6), scritto rispetto alla base B.
352 Forme Bilineari e Forme Quadratiche

Osservazione 8.4 Segue dal Teorema 5.4 che se ' è un prodotto scalare su uno spazio
vettoriale reale V allora la matrice M B (') associata alla forma bilineare simmetrica '
rispetto ad una base B di V coincide con la matrice unità I se e solo se B è una base
ortonormale.

8.2 Forme quadratiche


Si vuole ora estendere il concetto di norma di un vettore kxk2 = x · x, definito su uno
spazio vettoriale euclideo, ad uno spazio vettoriale reale V su cui è assegnata una forma
bilineare simmetrica ' che non sia necessariamente un prodotto scalare. A tale scopo si
introduce la seguente definizione.

Definizione 8.3 Sia ' 2 Bs (V, R), una forma bilineare simmetrica la funzione:

Q:V ! R, x 7 ! '(x, x),

si dice forma quadratica associata alla forma bilineare simmetrica '. Analogamente, una
funzione Q : V ! R prende il nome di forma quadratica su V se esiste una forma
bilineare simmetrica ' su V tale che Q(x) = '(x, x), con x 2 V.

L’insieme delle forme quadratiche su V verrà indicato con Q(V, R). Si dimostri per
esercizio che Q(V, R) ha la struttura di spazio vettoriale reale, rispetto ad opportune
operazioni di somma e di prodotto per numeri reali.

Teorema 8.5 Sia Q una forma quadratica su uno spazio vettoriale reale V. Allora:

1. Q(x + y) = Q(x) + 2'(x, y) + Q(y),


2
2. Q( x) = Q(x),

per ogni x, y 2 V e per ogni 2 R.

Dimostrazione La proprietà 1. segue dall’uguaglianza:

Q(x + y) = '(x + y, x + y), x, y 2 V,

mentre la proprietà 2. è conseguenza dell’uguglianza:

Q( x) = '( x, x), x, y 2 V, 2 R.

Osservazione 8.5 1. Dal teorema precedente segue che una forma quadratica Q defi-
nita su uno spazio vettoriale reale V non è un’applicazione lineare da V in R.
Capitolo 8 353

2. La corrispondenza tra forme bilineari simmetriche e forme quadratiche associate


è biunivoca. Ogni forma bilineare simmetrica ' 2 Bs (V, R) individua una forma
quadratica Q 2 Q(V, R) e viceversa; infatti, data la forma quadratica Q, dalla
proprietà 1. del Teorema 8.5, si deduce:
1
'(x, y) = {Q(x + y) Q(x) Q(y)} , x, y 2 V. (8.8)
2
La relazione (8.8) è detta forma polare della forma quadratica Q.
3. Ponendo = 0, nella proprietà 2. del Teorema 8.5, si ottiene Q(o) = 0, dove o
indica il vettore nullo di V.

Definizione 8.4 Sia V uno spazio vettoriale reale di dimensione n e sia B una sua base,
la matrice simmetrica di ordine n associata ad una forma bilineare simmetrica ' definita
su V rispetto alla base B si dice anche matrice associata alla forma quadratica Q rispetto
alla base B e si indica pertanto con M B (Q).

Sia ' una forma bilineare simmetrica definita su uno spazio vettoriale reale V di dimen-
sione n. Fissata una base B = (v1 , v2 , . . . , vn ) di V si indichi con A = (aij ), i, j =
1, 2, . . . , n la matrice simmetrica associata a ' rispetto alla base B. Dalla formula (8.5)
segue che la forma quadratica Q associata a ' ha la seguente espressione matriciale,
scritta rispetto alla base B:
n
X
Q(x) = '(x, x) = aij xi xj = tXAX, (8.9)
i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n. Si osservi che Q(x) si esprime mediante un
polinomio omogeneo di secondo grado nelle componenti del vettore x rispetto alla base
B. Per questo motivo Q prende il nome di forma quadratica.

Esempio 8.12 L’espressione polinomiale della forma quadratica Q su R3 , avente come


matrice associata rispetto alla base canonica di R3 , la matrice simmetrica:
0 1
3 1 2
A=@ 1 0 1 A
2 1 1
è:
Q(x) = 3x21 + x23 2x1 x2 + 4x1 x3 + 2x2 x3 ,
mentre l’espressione polinomiale della relativa forma bilineare simmetrica ' è:

'(x, y) = 3x1 y1 + x3 y3 (x1 y2 + x2 y1 ) 2(x1 y3 + x3 y1 ) + x2 y3 + x3 y2 .


354 Forme Bilineari e Forme Quadratiche

Esercizio 8.1 Data la forma quadratica su R4 :

Q(x) = x21 + 4x23 + 3x24 4x1 x3 + 10x2 x4 ,

con x = (x1 , x2 , x3 , x4 ),

1. scrivere l’espressione polinomiale della forma bilineare simmetrica ' associata a


Q e la relativa matrice (rispetto alla base canonica B di R4 ).

2. Posto a = (1, 0, 1, 0) e b = (0, 1, 1, 0), calcolare '(a, b) e Q(a).

Soluzione 1. Dall’espressione polinomiale di Q segue:

'(x, y) = x1 y1 + 4x3 y3 + 3x4 y4 2(x1 y3 + x3 y1 ) + 5(x2 y4 + x4 y2 ),

dove x = (x1 , x2 , x3 , x4 ) e y = (y1 , y2 , y3 , y4 ). La matrice associata alla forma


quadratica Q è:
0 1
1 0 2 0
B 0 0 0 5 C
A=B
@ 2
C;
0 4 0 A
0 5 0 3
si osservi che a partire dall’espressione polinomiale della forma quadratica è neces-
sario dividere per 2 i coefficienti dei termini xi xj (i 6= j ) per ottenere gli elementi
della matrice A di posto aij .

2. Dalla formula (8.5) segue:

'(a, b) = '((1, 0, 1, 0), (0, 1, 1, 0))


0 10 1
1 0 2 0 0
B 0 0 0 C B
5 CB 1 C
= 1 0 1 0 B @ 2 0
C
4 0 A@ 1 A
0 5 0 3 0
0 1
0
B 1 C
= 1 0 2 0 B C
@ 1 A = 2;
0

mentre Q(a) = Q((1, 0, 1, 0)) = 1.


Capitolo 8 355

Osservazione 8.6 Se B = (v1 , v2 , . . . , vn ) è una base dello spazio vettoriale V su cui è


definita la forma quadratica Q con matrice associata A = M B (Q), allora tutte le matrici
associate a Q sono del tipo:
A0 = tP AP,
al variare di P in GL(n, R) (cfr. Teor. 8.4).

8.3 Nucleo e vettori isotropi


La definizione che segue intende estendere il concetto di ortogonalità tra vettori introdotto
per gli spazi vettoriali euclidei (cfr. Def. 5.4) al caso più generale delle forme bilineari
simmetriche.

Definizione 8.5 Data una forma bilineare simmetrica ' definita su uno spazio vettoriale
reale V, due vettori x, y 2 V si dicono ortogonali rispetto a ' (o più semplicemente
'-ortogonali) se:
'(x, y) = 0.

Osservazione 8.7 Se ' coincide con il prodotto scalare introdotto nel Capitolo 5 le due
definizioni di ortogonalità tra vettori coincidono.

Esempio 8.13 I vettori x = (1, 1) e y = (3, 4) sono ortogonali rispetto alla forma
bilineare simmetrica ' 2 Bs (R2 , R) cosı̀ definita:

'(x, y) = 3x1 y1 x1 y2 + 2x2 y2 x2 y1 .

Infatti '(x, y) = 3 · 1 · 3 1 · 4 + 2 · ( 1) · 4 ( 1) · 3 = 0.

Osservazione 8.8 Il vettore nullo o di uno spazio vettoriale V è ortogonale ad ogni vet-
tore di V, rispetto ad ogni forma bilineare simmetrica ' 2 Bs (V, R). Infatti, per ogni
forma bilineare ' 2 Bs (V, R), per ogni coppia di vettori x, y 2 V e per ogni scalare
2 R, si ha:
'(x, y) = '(x, y).
Posto = 0, si ottiene '(x, o) = 0, per ogni x 2 V.

Teorema 8.6 Sia A un sottoinsieme non vuoto di vettori di uno spazio vettoriale reale
V. L’insieme:
A? = {x 2 V | '(x, y) = 0, 8y 2 A}
dei vettori di V ortogonali, rispetto ad una forma bilineare simmetrica ' 2 Bs (V, R), ad
ogni vettore di A, è un sottospazio vettoriale di V.
356 Forme Bilineari e Forme Quadratiche

Dimostrazione Per ogni coppia di vettori x1 , x2 di A? e per ogni coppia di scalari


1 , 2 di R si ha:

'( 1 x1 + 2 x2 , y) = 1 '(x1 , y) + 2 '(x2 , y) = 0, y 2 A,

dunque 1 x1 + 2 x2 2 A? .

Come caso particolare si ha pertanto il seguente corollario di ovvia dimostrazione.

Corollario 8.1 Sia ' una forma bilineare simmetrica definita su uno spazio vettoriale
reale V e siano u1 , u2 , . . . , up vettori di V. Un vettore x 2 V è '-ortogonale a tutti
i vettori u1 , u2 , . . . , up , se e solo se x è '-ortogonale ad ogni vettore del sottospazio
vettoriale W = L(u1 , u2 , . . . , up ).

Si osservi che il corollario precedente estende l’analoga proprietà dimostrata per il com-
plemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo (cfr.
Oss. 5.10) al caso di una generica forma bilineare simmetrica che non sia necessariamente
un prodotto scalare.

Il sottospazio vettoriale ortogonale ad un sottospazio vettoriale W di V, rispetto ad una


forma bilineare simmetrica ', sarà indicato, in accordo con l’enunciato del Teorema 8.6,
con W ? . Su alcuni testi, per evitare confusione con il caso particolare del complemento
ortogonale W ? di un sottospazio vettoriale W di uno spazio vettoriale euclideo (V, · ),
si preferisce usare la notazione W 0 come verrà meglio precisato nell’Osservazione 8.9.

Definizione 8.6 Due sottospazi vettoriali W1 e W2 di uno spazio vettoriale reale V si


dicono ortogonali rispetto a ' 2 Bs (V, R) se ogni vettore di W1 è ortogonale ad ogni
vettore di W2 , cioè se e solo se '(x, y) = 0, per ogni x 2 W1 e per ogni y 2 W2 .

Osservazione 8.9 Se W è un sottospazio vettoriale di uno spazio vettoriale V e ' è un


prodotto scalare su V, allora la nozione di sottospazio vettoriale ortogonale rispetto al
prodotto scalare appena introdotta coincide con quella nota di complemento ortogonale
(cfr. Def. 5.6). In generale, però se ' non è un prodotto scalare, l’intersezione W \
W ? non è formata dal solo vettore nullo e non è detto che la somma dei due sottospazi
vettoriali W + W ? coincida con V, come nel caso dell’esempio che segue.

Esempio 8.14 Se si considera la forma bilineare ' su R3 con espressione polinomiale


rispetto alla base canonica di R3 :

'(x, y) = x1 y1 2x3 y3 2(x1 y2 + x2 y1 ) (x1 y3 + x3 y1 ) 2(x2 y3 + x3 y2 ),


Capitolo 8 357

dove x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ), ed il sottospazio vettoriale di R3 :

W = L(u1 , u2 ),

con u1 = (4, 1, 0), u2 = (3, 0, 1), si ha che il sottospazio ortogonale a W rispetto a ' è:

W ? = {x 2 R3 | '(x, u1 ) = '(x, u2 ) = 0}.

Poiché: (
'(x, u1 ) = 2x1 8x2 6x3
'(x, u2 ) = 2x1 8x2 5x3 ,
risolvendo il sistema lineare omogeneo:

2x1 8x2 6x3 = 0
2x1 8x2 5x3 = 0,

segue che W ? = L(u1 ) e quindi:

W \ W ? = W ?,
W + W ? = W ⇢ V.

Esercizio 8.2 Data la forma bilineare simmetrica ' su R3 con matrice associata rispetto
alla base canonica B di R3 :
0 1
3 a b
A=@ a 4 2 A, a, b, c 2 R,
b 2 c

stabilire per quali valori dei parametri a, b, c i due iperpiani vettoriali:

W1 = {(x1 , x2 , x3 ) 2 R3 | x1 2x2 + x3 = 0},


W2 = {(x1 , x2 , x3 ) 2 R3 | 2x1 x3 = 0}

sono ortogonali rispetto a '.

Soluzione L’espressione polinomiale associata a ' rispetto alla base B è:

'(x, y) = 3x1 y1 + a(x1 y2 + x2 y1 ) + b(x1 y3 + x3 y1 ) + 4x2 y2 2(x2 y3 + x3 y2 ) + cx3 y3 .

Una base dell’iperpiano vettoriale W1 è formata, ad esempio, dai vettori:

u1 = ( 1, 0, 1), u2 = (2, 1, 0).


358 Forme Bilineari e Forme Quadratiche

Una base dell’iperpiano vettoriale W2 è formata, ad esempio, dai vettori:

v1 = (1, 0, 2), v2 = (0, 1, 0).

I due iperpiani vettoriali W1 e W2 sono ortogonali rispetto a ' se e solo se:


8
>
> '(u1 , v1 ) = b + 2c 3 = 0
<
'(u1 , v2 ) = a 2 = 0
>
> '(u2 , v1 ) = a + +4b + 2 = 0
:
'(u2 , v2 ) = 2a + 4 = 0.

Risolvendo il sistema lineare cosı̀ ottenuto si perviene all’unica soluzione:


3
a= 2, b = 0, c= .
2

Esercizio 8.3 Si consideri la forma quadratica Q su R4 definita da:

Q(x) = 2x21 + 2( x1 x2 + x1 x3 + x1 x4 x2 x3 x2 x4 + hx3 x4 ), h 2 R,

con x = (x1 , x2 , x3 , x4 ). Trovare, per ogni valore di h, una base del sottospazio vetto-
riale ortogonale, rispetto alla forma bilineare simmetrica ' definita da Q, al sottospazio
vettoriale W = L(u1 , u2 ), dove:

u1 = (1, 0, 1, 0), u2 = (0, 1, 0, 1).

Soluzione La matrice associata a Q rispetto alla base canonica di R4 è:


0 1
2 1 1 1
B 1 0 1 1 C
A=B @ 1
C.
1 0 h A
1 1 h 0

Il sottospazio vettoriale ortogonale a W rispetto a ' è definito come:

W ? = {x 2 R4 | '(x, u1 ) = '(x, u2 ) = 0}.

Si ha: (
'(x, u1 ) = x1 + x3 + (1 h)x4 ,
'(x, u2 ) = x2 + ( 1 + h)x3 x4 .
Quindi:

W ? = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 + x3 + (1 h)x4 = x2 + ( 1 + h)x3 x4 = 0}.


Capitolo 8 359

La dimensione del sottospazio vettoriale W ? è 2 perché il rango della matrice associata


al sistema lineare omogeneo che lo definisce è 2 per ogni h 2 R e, ad esempio, una sua
base è costituita dai vettori:

a1 = ( 1, 1 + h, 1, 0), a2 = ( 1 + h, 1, 0, 1).

Definizione 8.7 Si dice nucleo di una forma bilineare simmetrica ' 2 Bs (V, R) il sot-
toinsieme V ? di V formato dai vettori ortogonali a tutti i vettori di V rispetto a ' e si
indica con ker ', in simboli:

ker ' = {x 2 V | '(x, y) = 0, 8 y 2 V }.

Osservazione 8.10 Si presti molta attenzione a non confondere la nozione di nucleo di


una forma bilineare simmetrica con quella di nucleo di un’applicazione lineare (cfr. Def.
6.7). La stessa denominazione data a due sottospazi vettoriali con diversa definizione
è giustificata dal metodo che si usa per la loro determinazione, come sarà spiegato nel
Teorema 8.8.

Teorema 8.7 Il nucleo di un forma bilineare simmetrica ' 2 Bs (V, R) è un sottospazio


vettoriale di V.

Dimostrazione È conseguenza del Teorema 8.6.

Esempio 8.15 Nel caso di un prodotto scalare ' definito su uno spazio vettoriale reale V
si ha ker ' = {o}, in quanto il sottospazio vettoriale V ? formato dai vettori ortogonali a
tutti i vettori di V si riduce a {o} (cfr. Teor. 5.8).

Esercizio 8.4 Applicando il Corollario 8.1 si dimostri che un vettore x appartiene a ker '
(ossia '(x, y) = 0, per ogni y 2 V ) se e solo se '(x, vj ) = 0, j = 1, 2, . . . , n, dove
B = (v1 , v2 , . . . , vn ) è una base dello spazio vettoriale V su cui è definita la forma
bilineare simmetrica '.

Si osservi che l’esercizio appena assegnato, e che segue facilmente dalle definizioni di
bilinearità di ' e di base di uno spazio vettoriale, è molto importante ai fini del calcolo
del nucleo di una forma bilineare simmetrica, come si dimostra nel seguente teorema.

Teorema 8.8 Sia ' un elemento di Bs (V, R) e sia A = (aij ), i, j = 1, 2, . . . , n, la


matrice simmetrica associata a ', rispetto ad una base B = (v1 , v2 , . . . , vn ) di V,
allora:
ker ' = N (A),
dove N (A) è il nullspace della matrice A.
360 Forme Bilineari e Forme Quadratiche

Dimostrazione Il nucleo ker ' della forma bilineare simmetrica ' è formato dai
vettori x di V tali che '(x, y) = 0, per ogni y 2 V o, equivalentemente, tali che
'(x, vj ) = 0, per ogni j = 1, 2, . . . , n. Posto x = x1 v1 + x2 v2 + . . . + xn vn , si ottiene:

'(x, vj ) = '(x1 v1 + x2 v2 + . . . + xn vn , vj )
n
X
= xi '(vi , vj )
i=1
Xn
= aij xi = 0, j = 1, 2, . . . , n,
i=1

che non è altro che il sistema lineare omogeneo:

AX = O

di n equazioni nelle n incognite x1 , x2 , . . . , xn , dove X 2 Rn,1 indica la matrice colonna


delle incognite e O 2 Rn,1 indica la matrice colonna nulla.

Definizione 8.8 Una forma bilineare simmetrica ' (o equivalentemente la forma qua-
dratica Q associata) definita su uno spazio vettoriale reale V si dice non degenere se
ker ' = {o} e degenere se ker ' 6= {o}, dove o indica il vettore nullo di V.

Osservazione 8.11 Segue dalla precedente definizione che un prodotto scalare su V è


una forma bilineare simmetrica non degenere, in quanto ker ' = {o} (cfr. Es. 8.15).

Corollario 8.2 Sia ' un elemento di Bs (V, R), allora ' è degenere se e soltanto se
det(A) = 0, dove A è la matrice associata a ', rispetto ad una base B = (v1 , v2 , . . . , vn )
di V.

Dimostrazione Come conseguenza del Teorema 8.8 si ha che il calcolo del nucleo di
' si riduce alla risoluzione del sistema lineare omogeneo AX = O di n equazioni nelle
n incognite (x1 , . . . , xn ). Tale sistema lineare ha soluzioni non nulle se e soltanto se il
rango della matrice A è minore di n o, equivalentemente, se e solo se il determinante di
A è uguale a zero (cfr. Teor. 1.2).

Osservazione 8.12 Sia ' una forma bilineare simmetrica definita su uno spazio vettoria-
le V. Se A è una matrice simmetrica associata a ', dal Teorema di Nullità più Rango (cfr.
Teor. 4.23) segue:
dim(ker ') = dim(V ) rank(A).
Capitolo 8 361

Inoltre ' è non degenere se e solo se dim(V ) = rank(A). Di conseguenza poiché


dim(ker ') è invariante per ogni matrice associata a ' tutte le matrici associate alla stessa
forma bilineare simmetrica hanno lo stesso rango, ossia:

rank(tP AP ) = rank(A),

per ogni matrice invertibile P (cfr. Teor. 8.4).

Tale osservazione permette di introdurre la seguente definizione.

Definizione 8.9 Si definisce rango di una forma bilineare simmetrica ' (o della forma
quadratica associata Q), e sarà indicato con rank(') (o con rank(Q)), il rango di una
qualunque matrice simmetrica associata a '.

Osservazione 8.13 Dal Teorema 2.9 si può dimostrare in un altro modo che il rango
della forma bilineare ' non dipende dalla scelta della matrice associata e quindi della
base usata per costruire tale matrice, infatti in particolare si ha:

rank( tP AP ) = rank(AP ) = rank(A),

per ogni matrice A 2 Rn,n e per ogni matrice invertibile P 2 Rn,n .

Esercizio 8.5 Determinare il nucleo della forma bilineare simmetrica ' 2 Bs (R3 , R) con
matrice associata rispetto alla base canonica B = (e1 , e2 , e3 ) di R3 :
0 1
1 0 2
A=@ 0 1 1 A.
2 1 5

Soluzione Si determina il nullspace N (A) della matrice A, ovvero si devono deter-


minare i vettori x = (x1 , x2 , x3 ) per cui '(x, ej ) = 0, j = 1, 2, 3. Si ottiene x =
(2x3 , x3 , x3 ), al variare di x3 2 R, e quindi ker ' = L((2, 1, 1)).

Esercizio 8.6 Sia ' una forma bilineare simmetrica su R3 . Determinare la matrice as-
sociata a ' rispetto alla base canonica di R3 sapendo che i vettori u = (1, 2, 1) e
v = (1, 1, 0) formano una base di ker ' e che Q(w) = 8, con w = (1, 0, 1), dove
Q è la forma quadratica associata a '.

Soluzione Si indichi con:


0 1
a11 a12 a13
A = @ a12 a22 a23 A
a13 a23 a33
362 Forme Bilineari e Forme Quadratiche

la matrice associata a ' rispetto alla base canonica di R3 . Poiché (u, v) è una base di
ker ' devono valere le condizioni:

'(e1 , u) = '(e2 , u) = '(e3 , u) = 0,


'(e1 , v) = '(e2 , v) = '(e3 , v) = 0,

che corrispondono al sistema lineare omogeneo:


8
>
> a11 + 2a12 + a13 = 0
>
>
>
> a12 + 2a22 + a23 = 0
<
a13 + 2a23 + a33 = 0
(8.10)
>
> a11 + a12 = 0
>
>
>
> a + a22 = 0
: 12
a13 + a23 = 0.

Dalla condizione Q(w) = 8 segue:

Q(w) = '(e1 , e1 ) + 2'(e1 , e3 ) + '(e3 , e3 ) = a11 + 2a13 + a33 = 8. (8.11)

Risolvendo quindi il sistema lineare formato dalle equazioni (8.10) e (8.11) si ha come
unica soluzione: 0 1
2 2 2
A= @ 2 2 2 A.
2 2 2

Sia ' una forma bilineare simmetrica su uno spazio vettoriale reale V e sia W un sot-
tospazio vettoriale di V. Se ' è un prodotto scalare il complemento ortogonale W ? di
W ha in comune con W solo il vettore nullo. In altri termini '(x, x) = 0 se e solo
se x = o. Dall’Esempio 8.14 segue invece che se ' non è un prodotto scalare possono
esistere vettori non nulli comuni a W e a W ? e ciò giustifica la definizione che segue.

Definizione 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V. Un
vettore x 2 V si dice isotropo per la forma quadratica Q se Q(x) = 0.

Se ' è la forma bilineare simmetrica associata a Q, si ha che x 2 V è isotropo se e solo


se '(x, x) = 0. L’insieme dei vettori isotropi della forma quadratica Q verrà indicato
con:
I = {x 2 V | Q(x) = '(x, x) = 0}.
Il nucleo della forma bilineare simmetrica ' associata alla forma quadratica Q e l’insieme
dei vettori isotropi sono legati dal seguente teorema.
Capitolo 8 363

Teorema 8.9 Data una forma bilineare simmetrica ' su uno spazio vettoriale reale V,
allora:
ker ' ✓ I,
con I insieme dei vettori isotropi della forma quadratica Q associata a '. Ovvero, se
un vettore x appartiene a ker ', allora x è un vettore isotropo per la forma quadratica
Q associata a '.

Dimostrazione Se per ogni vettore y di V si ha '(x, y) = 0, segue:

'(x, x) = Q(x) = 0.

Osservazione 8.14 1. L’insieme I dei vettori isotropi di una forma quadratica Q su uno
spazio vettoriale reale V, in generale, non è un sottospazio vettoriale di V, infatti
se x, y 2 I e '(x, y) 6= 0, allora x + y non è un vettore isotropo.

2. Fissata una base B = (v1 , v2 , . . . , vn ) di V, l’insieme I può essere descritto come:


( n
)
X
I = x = x1 v1 + x2 v2 + . . . + xn vn 2 V | aij xi xj = 0 ,
i,j=1

dove A = (aij ) è la matrice simmetrica associata a Q rispetto alla base B. Pertanto,


l’insieme I può essere visto come il luogo degli zeri di un polinomio omogeneo di
secondo grado che viene anche chiamato cono isotropo relativo alla forma quadrati-
ca Q o alla forma bilineare simmetrica associata '. Il motivo di tale denominazione
risiede nel fatto che, se si rappresentano i vettori di V con punti in uno spazio n-
dimensionale, si ottiene un cono con vertice l’origine. Per lo studio approfondito
dei coni nello spazio di punti di dimensione 3 si rimanda al Paragrafo 12.2.

3. In generale non vale il viceversa del Teorema 8.9. Gli esercizi che seguono mettono
in evidenza che ker ' non sempre coincide con l’insieme dei vettori isotropi I della
forma quadratica Q associata ma è solo contenuto in esso.

Esercizio 8.7 Si consideri la forma bilineare simmetrica ' su R3 con espressione poli-
nomiale rispetto alla base canonica di R3 :

'(x, y) = x1 y1 (x1 y2 + x2 y1 ) + x2 y2 x3 y3 ,

dove x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ), stabilire se l’insieme dei vettori isotropi per la


forma quadratica Q associata a ' è un sottospazio vettoriale di R3 .
364 Forme Bilineari e Forme Quadratiche

Soluzione Un vettore x è isotropo se:


Q(x) = x21 2x1 x2 + x22 x23 = 0.
L’insieme I dei vettori isotropi non è un sottospazio vettoriale di R3 , in quanto ad
esempio i vettori:
u = (1, 0, 1), v = (0, 1, 1),
sono isotropi, ma u + v non è isotropo.

Esempio 8.16 Su R3 è data, rispetto alla base canonica (e1 , e2 , e3 ) di R3 , la forma


quadratica:
Q(x) = x21 2x23 4x1 x2 2x1 x3 4x2 x3 ,
la cui forma bilineare simmetrica associata è:
'(x, y) = x1 y1 2x3 y3 2(x1 y2 + x2 y1 ) (x1 y3 + x3 y1 ) 2(x2 y3 + x3 y2 ),
con x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ). Il vettore a = (4, 1, 0) è isotropo per la forma
quadratica Q perché Q(a) = 0, ma a non appartiene a ker ' in quanto '(a, e1 ) = 2.

Osservazione 8.15 Come conseguenza del Teorema 8.9 si ha che se I = {o} allora la
forma bilineare simmetrica ' è non degenere. Attenzione però che non vale il vicever-
sa. Nel caso di un prodotto scalare l’insieme dei vettori isotropi per la forma quadratica
associata coincide con l’insieme formato dal solo vettore nullo, ma in generale nel caso
di una forma bilineare simmetrica non degenere l’insieme dei vettori isotropi I può non
ridursi all’insieme {o}.

Esempio 8.17 La forma quadratica su R2 definita da Q(x) = x21 x22 è associata, rispetto
alla base canonica di R2 , alla matrice invertibile:
✓ ◆
1 0
A= ;
0 1
' è non degenere, in quanto det(A) = 1, e pertanto ker ' = {o}. I vettori isotropi di Q
sono i vettori x = (x1 , x2 ) tali che x21 x22 = 0, da cui x1 = ±x2 , quindi x = (±x2 , x2 )
e formano l’insieme:
I = L((1, 1)) [ L(( 1, 1)),
che non è un sottospazio vettoriale trattandosi dell’unione di due sottospazi vettoriali
diversi, entrambi di dimensione 1.

A partire da un vettore non isotropo si ottiene una decomposizione dello spazio vettoriale
su cui è definita la forma quadratica, analoga a quella ottenuta nel caso di uno spazio
vettoriale euclideo che è somma diretta di un suo qualsiasi sottospazio vettoriale con il
proprio complemento ortogonale. Vale infatti il teorema che segue.
Capitolo 8 365

Teorema 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V di dimen-
sione n. Per ogni vettore u 2 V non isotropo si ha:
V = L(u) L(u)? ,
dove L(u)? = {u}? è il sottospazio vettoriale ortogonale al vettore u rispetto alla forma
bilineare simmetrica ' associata a Q.

Dimostrazione Si ha immediatamente:
L(u) \ L(u)? = {o},
in quanto u non è un vettore isotropo. È sufficiente quindi provare che L(u)? è un’i-
perpiano vettoriale di V. Siano B = (v1 , v2 , . . . , vn ) una base di V e A = M B (Q) la
matrice simmetrica associata a Q rispetto alla base B. Si indichi con:
0 1
u1
B u2 C
B C
U = B .. C
@ . A
un
la matrice colonna formata dalle componenti del vettore u rispetto alla base B. Si defini-
sce la forma lineare:
'u : V ! R, y 7 ! '(u, y), y 2 V,
dove ' è la forma bilineare simmetrica associata a Q (cfr. Oss. 8.1). Pertanto:
L(u)? = {y 2 V | '(u, y) = t U A Y = 0}
coincide con il nucleo della forma lineare 'u , la cui matrice associata rispetto alla B di
V e C = (1) di R è la matrice t U A. È importante osservare che la matrice riga t U A non
è nulla, poichè:
Q(u) = t U A U 6= 0.
Quindi la forma lineare 'u non coincide con forma lineare nulla essendo 'u (u) =
Q(u) 6= 0, e di conseguenza il suo nucleo è un iperpiano vettoriale di V (cfr. Oss.
6.17).

Esercizio 8.8 Sia Q una forma quadratica definita su uno spazio vettoriale reale V e
siano a e b due vettori di V linearmente indipendenti e isotropi. Stabilire se la somma:
L(a, b) + L(a, b)?
è diretta, dove L(a, b)? è il sottospazio vettoriale ortogonale a L(a, b) rispetto alla forma
bilineare simmetrica ' associata a Q.
366 Forme Bilineari e Forme Quadratiche

Nel caso delle forme bilineari non degeneri è possibile dimostrare il teorema che segue
e che, limitatamente al caso della dimensione, coincide con l’analogo risultato enunciato
nel punto 2. del Teorema 5.8 per il complemento ortogonale di un sottospazio vetto-
riale di uno spazio vettoriale euclideo. Si noti che la sua dimostrazione è la naturale
generalizzazione di quella indicata nell’ambito euclideo.
Teorema 8.11 Sia ' una forma bilineare simmetrica non degenere su uno spazio vetto-
riale V di dimensione n e siaW un sottospazio vettoriale di V, allora:
dim(W ? ) = n dim(W),
con W ? sottospazio vettoriale ortogonale di W ripetto a '.
Dimostrazione Siano dim(V ) = n e dim(W) = h e sia B = (v1 , v2 , ...., vn ) una
base di V. Se h = 0 allora W ? = V, da cui segue la tesi. Altrimenti si supponga che
(a1 , a2 , . . . , ah ) sia una base di W . Si indichi con A la matrice simmetrica di ordine n
associata a ' rispetto alla base B e con C la matrice appartenente a Rh,n le cui righe
sono le componenti dei vettori a1 , a2 , . . . , ah rispetto alla base B. Ricordando che:
W ? = {x 2 V | '(ai , x) = 0, i = 1, 2, . . . , h}
ed indicando con X la matrice colonna formata dalle componenti di x rispetto alla base
B segue che il sistema lineare '(ai , x) = 0, i = 1, 2, . . . , h, coincide con:
CAX = O,
dove O indica la matrice nulla di Rh,1 di conseguenza W ? è il nullspace della matrice
CA, ossia:
W ? = N (CA).
La matrice C ha rango h ed A è una matrice invertibile, in quanto ' è non degenere.
Pertanto rank(CA) = h (cfr. Teor. 2.9, punto 1.) e dim(W ? ) = n h.

8.4 Classificazione di una forma quadratica


È già stato osservato nel paragrafo precedente che se ' è un prodotto scalare, allora ' è
una forma bilineare simmetrica non degenere. Questa condizione però non è sufficiente
per definire il prodotto scalare in termini di una forma bilineare simmetrica, infatti in base
alla definizione di prodotto scalare (cfr. Def. 5.1) una forma bilineare simmetrica ' su
uno spazio vettoriale V è un prodotto scalare se e solo se Q(x) 0 per ogni x 2 V
e se l’unico vettore isotropo è il vettore nullo, Q indica la forma quadratica associata a
'. Per caratterizzare quindi un prodotto scalare è necessario aggiungere alla nozione di
forma bilineare simmetrica non degenere anche il segno della forma quadratica Q ad essa
associata. Più precisamente è necessario enunciare la seguente definizione.
Capitolo 8 367

Definizione 8.11 Una forma quadratica Q (o equivalentemente la forma bilineare sim-


metrica ' ad essa associata) su uno spazio vettoriale reale V si dice:

1. definita positiva (negativa) se:


Q(x) 0 ( 0), x 2 V e Q(x) = 0 () x = o;

2. semidefinita positiva (negativa) se:


Q(x) 0 ( 0), x 2 V,
ma non si esclude che esistano vettori x 2 V non nulli tali che Q(x) = 0, cioè che
esistano vettori isotropi non nulli;
3. indefinita se Q(x) ha segno variabile al variare del vettore x di V.

Osservazione 8.16 La forma quadratica nulla Q : V ! R definita da Q(x) = 0 per


ogni x di V può essere considerata sia semidefinita positiva sia semidefinita negativa.

Osservazione 8.17 In base alla definizione precedente ' è un prodotto scalare se e solo
se ' (o la forma quadratica associata Q) è definita positiva.

Esempio 8.18 Tenendo conto delle nozioni appena introdotte, è ora possibile costruire
un prodotto scalare ' che renda ortogonali due vettori qualsiasi u e v, non nulli e non
paralleli, di uno spazio vettoriale reale V di dimensione n 2. Completando l’insieme
libero {u, v} fino ad ottenere una base di V :
B = (u, v, b1 , . . . , bn 2 ),
la matrice A associata al prodotto scalare ' rispetto alla base B si ottiene imponendo che
' sia definita positiva, ovvero che valgano le condizioni:
8
>
> '(u, v) = 0,
>
>
>
> '(u, bi ) = 0, i = 1, 2, . . . , n 2,
>
>
>
>
< '(v, bi ) = 0, i = 1, 2, . . . , n 2,
>
'(bi , bj ) = 0, i, j = 1, 2, . . . , n 2,
>
>
>
> '(u, u) > 0,
>
>
>
>
>
> '(v, v) > 0,
>
:
'(bi , bi ) > 0, i = 1, 2, . . . , n 2.
Si può quindi osservare che A non è univocamente determinata, anche se si fissa la base
B, perché si hanno infinite scelte per le lunghezze dei vettori della base. Esistono quindi
infiniti prodotti scalari su V che rendono ortogonali i vettori u e v.
368 Forme Bilineari e Forme Quadratiche

Esercizio 8.9 Dati i vettori u = (1, 1) e v = (0, 1) in R2 determinare un prodotto


scalare ' su R2 tale che i due vettori u e v siano ortogonali rispetto a ' e rispettivamente
di lunghezza 1 e 2. Tale prodotto scalare è unico?

Soluzione Il prodotto scalare ' richiesto deve verificare le condizioni:


8
< '(u, v) = 0
'(u, u) = 1
:
'(v, v) = 4.

Indicata con A = (aij ) 2 R2,2 la matrice simmetrica associata a ' rispetto alla base
canonica di R2 , dalle equazioni precedenti si ottiene il sistema lineare:
8
< a12 + a22 = 0
a11 2a12 + a22 = 1
:
a22 = 4,

che ha come unica soluzione (a11 = 5, a12 = a22 = 4), da cui segue che l’espressione
polinomiale del prodotto scalare ' è:

'(x, y) = 5x1 y1 + 4x1 y2 + 4x2 y1 + 4x2 y2 ,

con x = (x1 , x2 ) e y = (y1 , y2 ). Di conseguenza esiste un unico prodotto scalare che


verifica le condizioni assegnate. Si osservi che i due vettori u e v sono ortogonali rispetto
al prodotto scalare ' appena determinato, ma non sono ortogonali rispetto al prodotto
scalare standard di R2 .

Osservazione 8.18 Una forma bilineare indefinita può essere in generale sia degenere sia
non degenere, ma si vedrà che il suo nucleo è sempre strettamente incluso nell’insieme
dei vettori isotropi I, ossia I =
6 {o}.

Teorema 8.12 Sia Q una forma quadratica su uno spazio vettoriale reale V. Se la forma
quadratica Q è definita (positiva o negativa), allora Q (o equivalentemente la forma
bilineare simmetrica ' ad essa associata) è non degenere.

Dimostrazione Si tratta di dimostrare che ker ' = {o}. Per ogni vettore x 2 ker ' e
per ogni vettore y 2 V si ha '(x, y) = 0, ciò implica che Q(x) = 0 ma Q è definita
positiva (o negativa), dunque x = o.

Osservazione 8.19 Non vale il viceversa del teorema precedente. Infatti, ad esempio, la
forma quadratica dell’Esempio 8.17 è non degenere ma è indefinita perché Q((1, 0)) = 1
e Q((0, 1)) = 1.
Capitolo 8 369

Esercizio 8.10 Data la forma bilineare simmetrica ' 2 Bs (R3 , R), definita da:

'(x, y) = x1 y1 x1 y2 x2 y1 ,

si determinino la matrice ad essa associata, rispetto alla base canonica di R3 , l’espres-


sione polinomiale della forma quadratica Q associata a ' e la si classifichi. Si individui
quindi l’insieme I dei vettori isotropi di Q e si stabilisca se I sia o meno un sottospazio
vettoriale di R3 .

Soluzione La matrice associata a ' rispetto alla base canonica di R3 è:


0 1
1 1 0
A = @ 1 0 0 A,
0 0 0

da cui segue che det(A) = 0, ker ' = L((0, 0, 1)), ' è quindi degenere. La forma
quadratica associata a ' è:
Q(x) = x21 2x1 x2 ,
pertanto Q(x) = 0 se e solo se x1 = 0 oppure x1 = 2x2 , quindi:

I = L((0, 0, 1), (0, 1, 0)) [ L((2, 1, 0), (0, 0, 1)),

di conseguenza I non è un sottospazio vettoriale di R3 . Q è indefinita perché per esempio


Q((1, 0, 0)) = 1 > 0 e Q((1, 1, 0)) = 1 < 0.

Osservazione 8.20 Non è sempre facile come nell’Esercizio 8.10 classificare una forma
quadratica senza usare metodi di carattere più generale che saranno studiati nel Paragrafo
8.5.

Anche per una forma quadratica si può introdurre, in modo analogo al caso delle ap-
plicazioni lineari (cfr. Def 6.10), il concetto di restrizione. Infatti, dati un sottospazio
vettoriale W di uno spazio vettoriale reale V e una forma quadratica Q su V, si può
definire la restrizione di Q a W come la funzione:

Q|W : W ! R, Q|W (x) = Q(x).

È lasciata per esercizio al Lettore la verifica che la restrizione di una forma quadratica Q
a W è una forma quadratica su W . Il teorema che segue, la cui dimostrazione è un facile
esercizio, mette in relazione la classificazione di una forma quadratica e la classificazione
di ogni sua restrizione.
370 Forme Bilineari e Forme Quadratiche

Teorema 8.13 Siano W un sottospazio vettoriale di uno spazio vettoriale reale V e Q


una forma quadratica su V allora:

• se Q è una forma quadratica definita positiva (definita negativa) su V, allora la


restrizione di Q a W è una forma quadratica definita positiva (definita negativa);

• se Q è una forma quadratica semidefinita positiva (semidefinita negativa) su V,


allora la restrizione di Q a W è una forma quadratica semidefinita positiva (se-
midefinita negativa); per ciò che riguarda il caso della forma quadratica nulla si
tenga conto dell’Osservazione 8.16;

• se Q è una forma quadratica indefinita su V, allora la restrizione di Q a W può


essere una forma quadratica definita positiva (definita negativa), semidefinita po-
sitiva (semidefinita negativa), indefinita; per ciò che riguarda il caso della forma
quadratica nulla si tenga conto dell’Osservazione 8.16.

Osservazione 8.21 Come già enunciato nel Teorema 8.13, a differenza di ciò che è affer-
mato nel caso delle forme quadratiche definite (positive o negative), la restrizione di una
forma quadratica indefinita non degenere ad un sottospazio vettoriale dello spazio vetto-
riale su cui è data è ancora una forma quadratica, ma non è detto che sia non degenere. Ad
esempio, se si considera la forma quadratica non degenere introdotta dell’Esempio 8.17
si ha che le sue restrizioni ai sottospazi vettoriali di R2 :

W1 = {(x1 , x2 ) 2 R2 | x1 x2 = 0},
W2 = {(x1 , x2 ) 2 R2 | x1 + x2 = 0},

sono entrambe degeneri e coincidono con la forma quadratica nulla.

Nel caso di una forma quadratica semidefinita positiva (o negativa) l’insieme dei vettori
isotropi coincide con il nucleo della forma bilineare simmetrica associata. Infatti, per una
forma bilineare simmetrica semidefinita positiva valgono, come per il prodotto scalare, la
disuguaglianza di Cauchy–Schwarz e la disuguaglianza triangolare (o di Minkowski), la
cui dimostrazione è analoga a quella già vista per il prodotto scalare nel Capitolo 5 (cfr.
Teor. 5.2).

Teorema 8.14 – Disuguaglianza di Cauchy–Schwarz – Sia ' 2 Bs (V, R) una forma


bilineare simmetrica semidefinita positiva su uno spazio vettoriale reale V e Q la forma
quadratica ad essa associata, allora:

['(x, y)]2  Q(x)Q(y), x, y 2 V.


Capitolo 8 371

Dimostrazione Se x è un vettore isotropo la disuguaglianza è verificata. Sia quindi x


un vettore non isotropo ossia Q(x) 6= 0, allora per ogni 2 R e per ogni y 2 V si ha:
Q( x + y) = 2
Q(x) + 2 '(x, y) + Q(y). (8.12)
Poiché Q è semidefinita positiva Q( x+y) 0, per ogni 2 R e quindi il discriminante
del trinomio di secondo grado (8.12) in deve essere negativo, cioè:
['(x, y)]2 Q(x)Q(y)  0, x, y 2 V.

Il teorema che segue è immediata conseguenza della precedente disuguaglianza.

Teorema 8.15 – Disuguaglianza triangolare (o di Minkowski) – Sia ' 2 Bs (V, R) una


forma bilineare simmetrica semidefinita positiva su uno spazio vettoriale reale V e Q la
forma quadratica associata, allora:
p p p
Q(x + y)  Q(x) + Q(y), x, y 2 V.

Dimostrazione La formula (8.12) scritta per = 1, diventa:


Q(x + y) = Q(x) + 2'(x, y) + Q(y);
dal Teorema 8.14 si ha:
p ⇣p p ⌘2
Q(x) + 2'(x, y) + Q(y)  Q(x) + 2 Q(x)Q(y) + Q(y) = Q(x) + Q(y)

da cui segue la tesi.

Osservazione 8.22 Le disuguaglianze di Cauchy–Schwarz e di Minkowski, nel caso in


cui ' sia un
pprodotto scalare, corrispondono alle omonime disuguaglianze già dimostrate,
in quanto Q(x) coincide con la norma del vettore x.

Segue dalla disuguaglianza di Cauchy–Schwarz che, nel caso di una forma ' bilineare
simmetrica semidefinita positiva, ker ' coincide con l’insieme dei vettori isotropi, che, in
questo caso, è un sottospazio vettoriale. Infatti, se x è isotropo, ossia Q(x) = 0, allora
'(x, y) = 0, per ogni y 2 V. Quindi, a differenza di ciò che è stato dimostrato nel caso
del prodotto scalare, il segno di uguaglianza nella disuguaglianza di Cauchy–Schwarz non
implica che i vettori x e y siano paralleli. Si ha pertanto il seguente teorema.

Teorema 8.16 Se ' è una forma bilineare simmetrica semidefinita positiva (o negativa)
su uno spazio vettoriale reale V , allora I =
6 {o}, inoltre I = ker ', quindi ' è degenere.

Si dimostrerà nell’Osservazione 8.27 il viceversa della precedente affermazione da cui si


deduce che tutte e sole le forme bilineari per cui l’insieme I è un sottospazio vettoriale
devono essere definite o semidefinite positive (o negative).
372 Forme Bilineari e Forme Quadratiche

8.5 Forme canoniche


In questo paragrafo si dimostrerà che data una forma quadratica Q su uno spazio vettoriale
reale V è sempre possibile trovare basi di V rispetto alle quali la matrice associata a Q
è diagonale. Rispetto a tali basi le corrispondenti espressioni polinomiali sono molto
più semplici e permettono agevolmente di classificare la forma quadratica. Viene cosı̀
giustificata la seguente definizione.

Definizione 8.12 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridot-
ta in forma canonica se esiste una base B di V rispetto alla quale la matrice D = (dij )
associata a Q sia diagonale. L’espressione polinomiale di Q rispetto alla base B:

Q(x) = d11 x21 + d22 x22 + . . . + dnn x2n ,

dove (x1 , x2 , . . . , xn ) sono le componenti di x rispetto a B, prende il nome di forma


canonica di Q.

Una forma canonica di una forma quadratica Q è quindi una rappresentazione di Q me-
diante un polinomio omogeneo privo di termini misti. Dal Teorema 8.4 segue che la
definizione precedente è equivalente alla seguente.

Definizione 8.13 Sia V uno spazio vettoriale reale di dimensione n. Data una forma
quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q
si dice ridotta in forma canonica se esiste una matrice invertibile P tale che tP AP = D,
con D matrice diagonale.

Si osservi che P è la matrice del cambiamento di base dalla base B ad una base B 0
rispetto alla quale Q ha come matrice associata la matrice diagonale D. Inoltre, il numero
degli zeri sulla diagonale di una qualsiasi matrice diagonale D associata a Q non cambia
essendo pari a dim(V ) rank(A), mentre cambiano gli elementi non nulli sulla diagonale
come si evince dall’esempio che segue.

Esempio 8.19 Si consideri la forma quadratica:

Q(x) = x1 x2 (8.13)

su R2 , con x = (x1 , x2 ), la cui matrice associata rispetto alla base canonica B di R2 è:
0 1 1
0
B 2 C
A=@ A.
1
0
2
Capitolo 8 373

L’espressione (8.13) non è una forma canonica di Q, mentre l’espressione polinomiale:

Q(x) = (x01 )2 (x02 )2 (8.14)

lo è; il vettore x, in questo caso, ha componenti (x01 , x02 ) rispetto ad una base che realizza
(8.14), infatti esiste una matrice invertibile:
!
1 1
P =
1 1

tale che !
t
1 0
P AP = D = .
0 1
Un’altra forma canonica di Q è, ad esempio,

Q(x) = 5y12 3y22 , (8.15)

infatti la si ottiene con il cambiamento di base:


! p p ! !
x1 5 3 y1
= p p .
x2 5 3 y2

Si verifica inoltre che tutti i cambiamenti di base:


! ! !
x1 a b y1
= ,
x2 a b y2

realizzano forme canoniche di Q per ogni a, b 2 R tali che ab 6= 0.

Esistono infinite forme canoniche di una forma quadratica Q, tra le quali ve ne sono
alcune particolari, come precisato dai seguenti teoremi.

Teorema 8.17 Sia V uno spazio vettoriale reale di dimensione n. Data una forma qua-
dratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q
ammette una forma canonica del tipo:

Q(x) = 2
1 y1 + 2
2 y2 + ... + 2
n yn , (8.16)

dove 1 , 2 , . . . , n sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicità) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x rispetto ad una base
ortonormale di autovettori di A.
374 Forme Bilineari e Forme Quadratiche

Dimostrazione La matrice A associata a Q, rispetto alla base B, è simmetrica. Per-


tanto esiste una matrice ortogonale P tale che:
0 1
1 0 ... 0
B 0 2 ... 0 C
t B C
P AP = P 1 AP = D = B .. .. . . .. C.
@ . . . . A
0 0 ... n

Con il cambiamento di base X = P Y, tenuto conto che P è ortogonale, si ricava:

Q(x) = tXAX = t (P Y )A(P Y ) = t Y ( tP AP )Y = t Y D Y


2 2 2
= 1 y1 + 2 y2 + ... + n yn ,

quindi la tesi.

Esempio 8.20 La matrice A associata alla forma quadratica Q considerata nell’Esempio


8.19 ha autovalori 1 = 1 e 2 = 1, mentre i coefficienti 5 e 3 della forma cano-
nica (8.15) di Q non sono autovalori di A. Infatti le matrici associate alla stessa forma
quadratica non sono tutte simili (cfr. Oss. 8.3).

Esercizio 8.11 Ridurre a forma canonica la seguente forma quadratica definita su R3 :

Q(x) = 2x21 + x22 4x1 x2 4x2 x3 ,

con x = (x1 , x2 , x3 ).

Soluzione La matrice A associata a Q rispetto alla base canonica B di R3 e la relativa


equazione caratteristica sono rispettivamente:
0 1
2 2 0
A=@ 2 1 2 A, det(A I) = 3 3 2 6 + 8 = 0.
0 2 0

Gli autovalori e gli autospazi di A sono:

1 = 1, 2 = 2, 3 = 4, tutti di molteplicità 1;

V 1 = L((2, 1, 2)), V 2 = L((1, 2, 2)), V 3 = L((2, 2, 1)),

dai quali si ottiene la base ortonormale B 0 = (f1 , f2 , f3 ) di autovettori con:


✓ ◆ ✓ ◆ ✓ ◆
2 1 2 1 2 2 2 2 1
f1 = , , , f2 = , , , f3 = , , .
3 3 3 3 3 3 3 3 3
Capitolo 8 375

Si osservi che B 0 è una base ortonormale rispetto al prodotto scalare standard di R3 . Di


conseguenza la matrice P del cambiamento di base da B a B 0 è una matrice ortogonale.
La forma quadratica Q, in forma canonica, è quindi:
0 10 1
1 0 0 y1
Q(x) = y1 y2 y3 @ 0 2 0 A @ y2 A = y12 2y22 + 4y32 ,
0 0 4 y3

dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base B 0 , ottenuta con il cambia-
mento di base: 0 1
2 1 2
1@
P = 1 2 2 A.
3
2 2 1

Definizione 8.14 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridot-
ta in forma normale se è ridotta a forma canonica ed i coefficienti del polinomio omoge-
neo che ne deriva sono 1, 0, 1. La sua espressione polinomiale prende il nome di forma
normale.

Per convenzione, nella forma normale di Q si ordinano i termini inserendo prima i coef-
ficienti pari a 1, poi quelli pari a 1 ed infine quelli nulli.

Teorema 8.18 Una forma quadratica Q definita su uno spazio vettoriale V, di dimensio-
ne n, ammette sempre una forma normale. Se Q(x) = tXAX, con A matrice associata
a Q rispetto ad una base B di V, il numero dei coefficienti pari a 1, che compare nella
forma normale, è uguale al numero di autovalori positivi della matrice A, contati con la
relativa molteplicità, il numero dei coefficienti pari a 1 è uguale al numero di autova-
lori negativi di A, contati con la relativa molteplicità, il numero dei coefficienti pari a 0
coincide con la molteplicità dell’autovalore 0 di A.

Dimostrazione Per il Teorema 8.17 la forma quadratica Q ammette una forma cano-
nica data da:
2 2 2
Q(x) = 1 y1 + 2 y2 + ... + n yn ,

dove 1 , 2 , . . . , n sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicità) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x di V rispetto ad una base
ortonormale C = (f1 , f2 , . . . , fn ) di autovettori di A. Il numero dei coefficienti i che
sono diversi da zero è uguale al rango r della forma quadratica Q, quindi è un invariante
di Q e non dipende dalla matrice A considerata. Salvo un cambiamento di ordine dei
vettori della base C, si può supporre che i primi r coefficienti siano diversi da zero e che
tra essi quelli positivi figurino per primi. Di conseguenza si può porre:

1 = ↵12 , ..., p = ↵p2 , p+1 = 2


↵p+1 , ..., r = ↵r2
376 Forme Bilineari e Forme Quadratiche

per un opportuno intero p  r e opportuni numeri reali positivi ↵1 , ↵2 , . . . , ↵r . Poiché:

Q(f1 ) = ↵12 , ..., Q(fp ) = ↵p2 ,


2
Q(fp+1 ) = ↵p+1 , ..., Q(fr ) = ↵r2 ,
Q(fr+1 ) = 0, ..., Q(fn ) = 0,

si verifica facilmente che, rispetto alla base C 0 = (f10 , f20 , . . . , fn0 ) con:
f1 f2 fr
f10 = , f20 = , ..., fr0 = , 0
fr+1 = fr+1 , ..., fn0 = fn ,
↵1 ↵2 ↵r

la forma polinomiale di Q è:

Q(x) = (y10 )2 + . . . + (yp0 )2 0


(yp+1 )2 ... (yr0 )2 , (8.17)

con x = y10 f10 + . . . + yn0 fn0 , da cui la tesi.

Osservazione 8.23 La forma normale di una forma quadratica Q, ottenuta con il pro-
cedimento indicato nella dimostrazione del Teorema 8.18, è unica, cioè tutte le matrici
associate a Q hanno lo stesso numero di autovalori positivi e lo stesso numero di auto-
valori negativi, come sarà dimostrato nel Teorema 8.20. È invece già stato dimostrato
che tutte le matrici associate a Q hanno lo stesso rango (cfr. Oss. 8.12) e pertanto la
molteplicità dell’autovalore 0 di A (se esso esiste) è invariante per Q.

I Teoremi 8.17 e 8.18 permettono di caratterizzare (in modo analogo al Teorema 5.4 nel
caso degli spazi vettoriali euclidei) le basi ortogonali e ortonormali rispetto ad una for-
ma bilineare simmetrica, le cui definizioni estendono nel modo seguente quelle di base
ortogonale e ortonormale rispetto ad un prodotto scalare (cfr. Def. 5.5).

Definizione 8.15 Sia V uno spazio vettoriale reale di dimensione n su cui è definita una
forma bilineare ' associata ad una forma quadratica Q.

• Una base B = (v1 , v2 , . . . , vn ) si dice ortogonale rispetto alla forma bilineare


simmetrica ' se:

'(vi , vj ) = 0, i, j = 1, 2, . . . , n, i 6= j.

• Una base B = (e1 , e2 , . . . , en ) si dice ortonormale rispetto alla forma bilineare


simmetrica ' se è ortogonale rispetto a ' e se:

Q(vi ) = 1, i = 1, 2, . . . , n.
Capitolo 8 377

Osservazione 8.24 1. Ogni base che permette di scrivere una forma quadratica Q in
forma canonica è una base ortogonale rispetto alla forma bilineare simmetrica '
associata alla forma quadratica. Quindi, dal Teorema 8.17 segue che, su uno spazio
vettoriale reale, esiste almeno una base ortogonale, rispetto ad ogni forma bilineare
simmetrica su di esso definita.
2. Se Q è la forma quadratica associata ad un prodotto scalare ', la base C, consi-
derata nella dimostrazione del Teorema 8.18, è solo una base ortogonale (rispetto a
'), ma non ortonormale (rispetto a '), in quanto:
'(fi , fj ) = 0, i 6= j, Q(fi ) = '(fi , fi ) = i > 0.
In questo caso infatti la matrice A ha n autovalori positivi, essendo ' definita
positiva, ma solo se i = 1, per ogni i = 1, 2, . . . , n, C è una base ortonormale
rispetto a '. La base C 0 è invece una base ortonormale per il prodotto scalare '.
3. La matrice del cambiamento di base dalla base C alla base C 0 , (cfr. dimostrazione
del Teorema 8.18 ) è una matrice diagonale. Come già osservato, esistono infinite
forme canoniche di una forma quadratica Q. In generale le forme canoniche di
una forma quadratica Q si possono ottenere una dall’altra mediante cambiamenti di
base simili a quelli utilizzati nella dimostrazione del Teorema 8.18, ovvero mediante
matrici del cambiamento di base in forma diagonale.
4. Dal Teorema 8.18 segue anche che solamente le forme quadratiche, che hanno come
forma normale quella avente tanti coefficienti pari a 1 quanto è la dimensione dello
spazio vettoriale V su cui sono definite, ammettono basi ortonormali (rispetto alle
forme bilineari simmetriche ad esse associate). Nell’Osservazione 8.26 si vedrà che
esse sono necessariamente dei prodotti scalari.

Esercizio 8.12 Si ricavi la forma normale della forma quadratica Q introdotta nell’Eser-
cizio 8.11.

Soluzione Avendo calcolato gli autovalori di A e avendo ottenuto che due sono positivi
e uno negativo, si ha subito che la forma normale di Q è:
0 10 1
1 0 0 z1
Q(x) = z1 z2 z3 @ 0 1 0 A @ z2 A = z12 + z22 z32 ,
0 0 1 z3
con x di componenti (z1 , z2 , z3 ) rispetto ad una base (f10 , f20 , f30 ) che permetta di realizzare
la forma normale di Q, con:
1 1
f10 = f1 , f20 = f3 , f30 = p f2 .
2 2
378 Forme Bilineari e Forme Quadratiche

Poiché le matrici associate ad una forma quadratica Q non sono tutte simili, il calcolo dei
loro autovalori non è l’unico modo per ridurre a forma canonica una forma quadratica. Nel
Paragrafo 8.8.3 si introdurranno metodi più sofisticati, ma l’esercizio che segue mostra
come sia possibile procedere alla riduzione a forma canonica di una forma quadratica
semplicemente utilizzando il metodo del completamento dei quadrati. Ciò è dovuto al
fatto che la forma polinomiale di Q non è altro che un polinomio omogeneo di secondo
grado. Il metodo del completamento dei quadrati (generalmente insegnato nelle scuole
superiori per dimostrare la formula risolutiva delle equazioni di secondo grado) consiste
nel sommare e sottrarre numeri opportuni in modo da far comparire dei quadrati di binomi.

Esercizio 8.13 Ricavare un’altra forma canonica della forma quadratica Q introdotta
nell’ Esercizio 8.11.

Soluzione Utilizzando il metodo del completamento dei quadrati si può procedere, per
esempio, come segue:

Q(x) = 2(x21 2x1 x2 ) + x22 4x2 x3


= 2(x21 2x1 x2 + x22 ) 2x22 + x22 4x2 x3
= 2(x1 x2 )2 (x22 + 4x2 x3 + 4x23 ) + 4x23
= 2(x1 x2 )2 (x2 + 2x3 )2 + 4x23 .

con x = (x1 , x2 , x3 ). Con il cambiamento di base di equazioni:


8 8
< y1 = x1 x2 < x1 = y1 + y2 2y3
y2 = x2 + 2x3 ossia x2 = y2 2y3
: :
y3 = x3 , x3 = y3 ,
che si può anche scrivere nella forma:
0 1 0 10 1
x1 1 1 2 y1
@ x2 A = @ 0 1 2 A @ y2 A,
x3 0 0 1 y3
la forma quadratica assume la forma canonica:

Q(x) = 2y12 y22 + 4y32 ,

con (y1 , y2 , y2 ) componenti di x rispetto alla base C = (c1 , c2 , c3 ) individuata dal cam-
biamento di base usato, ossia:

c1 = (1, 0, 0), c2 = (1, 1, 0), c3 = ( 2, 2, 1).


Capitolo 8 379

Si osservi che C non è una base ortonormale (rispetto al prodotto scalare standard di R3 ) e
che la matrice del cambiamento di base non è ortogonale. Procedendo come nell’Esercizio
8.12 si ricava la stessa forma normale di Q ottenuta in tale esercizio ma rispetto alla base:
✓ ◆
1 1
p c1 , c3 , c2 .
2 2

Si enuncia ora il Teorema di Gauss–Lagrange in cui si afferma che mediante il metodo


del completamento dei quadrati si implementa un algoritmo che si può applicare ad ogni
forma quadratica, permettendo cosı̀ la sua classificazione senza ricorrere al calcolo degli
autovalori della matrice ad essa associata, per la dimostrazione si veda ad esempio [18].

Teorema 8.19 – Teorema di Gauss–Lagrange – Sia Q una forma quadratica su uno


spazio vettoriale V, mediante il metodo del completamento dei quadrati applicato al-
l’espressione polinomiale di Q è possibile determinare una base di V che permette di
scrivere la forma quadratica Q in forma canonica.

8.6 La segnatura di una forma quadratica


È possibile a questo punto dello studio delle forme quadratiche enunciare e dimostrare il
fondamentale Teorema di Sylvester che rende plausibile una qualunque scelta di forma
canonica di una forma quadratica ai fini della sua classificazione.

Teorema 8.20 – Teorema di Sylvester – Sia V uno spazio vettoriale reale di dimensione
n. Tutte le forme canoniche di una forma quadratica Q su V hanno lo stesso numero p
di coefficienti positivi e lo stesso numero q di coefficienti negativi.

Dimostrazione Poiché p + q = rank(Q) si ponga p + q = r  n e si consideri la


forma normale (8.17) della forma quadratica Q ottenuta nel corso della dimostrazione
del Teorema 8.18 rispetto ad una base C 0 = (f10 , f20 , . . . , fn0 ) di V. Resta da dimostrare
che p dipende solo da Q e non dalla base C 0 . Si supponga allora che esista un’altra base
B = (b1 , b2 , . . . , bn ) di V rispetto alla quale la forma quadratica Q si esprima come:

Q(x) = z12 + . . . + zt2 2


zt+1 ... zr2 (8.18)

per un opportuno intero t  r. Si deve dimostrare che t = p. Si supponga per assurdo


che t 6= p e che sia t < p. Si considerino i sottospazi vettoriali:

S = L(f10 , f20 , . . . , fp0 ),


T = L(bt+1 , bt+2 , . . . , bn ).
380 Forme Bilineari e Forme Quadratiche

Poiché dim(S) + dim(T ) = p + n t > n, deve essere S \ T = 6 {o}. Si consideri


quindi un vettore x 2 S \ T , x 6= o, e lo si esprima sia rispetto alla base di S sia rispetto
alla base di T , si ha:
x = y10 f10 + y20 f20 + . . . + yp0 fp0 = zt+1 bt+1 + zt+2 bt+2 + . . . + zn bn .

Sia Q|S la restrizione della forma quadratica Q a S e tenendo conto del Teorema 8.13,
da (8.17) si ottiene:
Q|S (x) = Q(x) = (y10 )2 + (y20 )2 + . . . + (yp0 )2 > 0.
Invece, considerando la restrizione Q|T di Q a T e tenendo di nuovo conto del Teorema
8.13, da (8.18) si deduce che:
2
Q|T (x) = Q(x) = zt+1 ... zr2 < 0,
da cui l’assurdo, quindi p = t.

Il Teorema di Sylvester è anche spesso denominato come Legge di Inerzia in quanto ha


come conseguenza immediata il seguente corollario.

Corollario 8.3 Una forma quadratica Q definita su uno spazio vettoriale reale V di
dimensione n ammette una sola forma normale.

Il risultato enunciato nel Teorema 8.20 permette di introdurre la seguente definizione.

Definizione 8.16 Sia Q una forma quadratica definita su uno spazio vettoriale reale V
di dimensione n. Siano p il numero di autovalori positivi (contati con le relative molte-
plicità) di una qualsiasi matrice simmetrica associata a Q e q il numero di autovalori
negativi (contati con le relative molteplicità) della stessa matrice, allora la coppia (p, q)
prende il nome di segnatura di Q.

Osservazione 8.25 1. Segue subito dal Teorema 8.20 che la segnatura di una forma
quadratica Q non dipende dalla matrice scelta per la sua determinazione.
2. Da osservare che rispetto alla base C 0 = (f10 , f20 , . . . fn0 ) in cui Q si scrive in for-
ma normale (cfr. dimostrazione del Teorema 8.18) la matrice associata alla forma
quadratica Q è data da:
0 1
Ip 0 0
0 B C
M C (Q) = @ 0 Ir p 0 A,
0 0 On r

dove r è il rango di Q, Ij indica la matrice unità di ordine j e On r denota la


matrice nulla di ordine n r.
Capitolo 8 381

3. Una forma quadratica Q su uno spazio vettoriale reale V di dimensione n è non


degenere se e solo se la sua segnatura (p, q) è tale che p + q = n.

Grazie al Teorema 8.20 è evidente che per studiare il segno di una forma quadratica Q
è sufficiente conoscere i segni dei coefficienti di una forma canonica di Q, in particola-
re quindi i segni degli autovalori di una qualsiasi matrice A associata a Q. I segni degli
autovalori di A (non gli autovalori) si possono determinare agevolmente a partire dal poli-
nomio caratteristico della matrice A, utilizzando il seguente teorema, la cui dimostrazione
è spesso inserita nei testi di algebra della scuola secondaria superiore.

Teorema 8.21 – Regola dei segni di Cartesio – Sia f (x) = a0 + a1 x + . . . + an xn un


polinomio a coefficienti reali con tutte le radici reali. Allora le radici positive di f sono
tante quante sono le variazioni di segno della successione a0 , a1 , . . . , an .

Esempio 8.21 1. Il polinomio f (x) = 8+2x 5x2 +x3 ha le due radici reali positive 2
e 4. D’altra parte nella successione dei coefficienti 8, 2, 5, 1 ci sono due variazioni
di segno.

2. Il polinomio f (x) = (x + 1)(x 2)(x 4)(x 5)x3 ha radici 0, 1, 2, 4, 5 e le


radici positive sono tre. D’altra parte f (x) = 40x3 12x4 + 27x5 10x6 + x7 e
si vede che ci sono tre variazioni di segno nei coefficienti di f.

È chiaro che si può applicare questa regola al polinomio caratteristico di una qualsiasi
matrice associata a una forma quadratica perché esso, essendo la matrice simmetrica, ha
tutte le radici reali. Quindi per classificare una forma quadratica Q (o la forma bilineare
simmetrica ' ad essa associata) si può procedere nel modo seguente:

1. si determina una matrice A associata a Q e se ne calcola il polinomio caratteristico


P ( ) = det(A I).

2. Si scrive P ( ) = s
R( ), con R(0) 6= 0. Si osservi che:

rank(A) = rank(Q) = n s

e che s è la molteplicità dell’autovalore 0.

3. Poiché A è una matrice simmetrica, per il Teorema Spettrale 7.8 P ( ) ha tutte


radici reali e pertanto si può applicare la regola dei segni di Cartesio. Si contano
le variazioni di segno del polinomio R( ), se esse sono p allora R( ) ha p radici
positive. In conclusione P ( ) ha:
382 Forme Bilineari e Forme Quadratiche

s radici nulle;
p radici positive;
n (p + s) radici negative.

Esercizio 8.14 Determinare la segnatura della forma quadratica Q su R3 definita da:

Q(x) = 2x21 + x22 4x1 x2 4x2 x3 ,

con x = (x1 , x2 , x3 ).

Soluzione La matrice associata a Q rispetto alla base canonica B di R3 e il relativo


polinomio caratteristico P ( ) sono:
0 1
2 2 0
M B (Q) = @ 2 1 2 A, P( ) = 3
+3 2+6 8.
0 2 0

In P ( ) vi sono due variazioni di segno e 0 non è una radice. Quindi la forma quadratica
Q è indefinita, non degenere ed ha segnatura (2, 1).

Le proprietà che seguono, e che riassumono i risultati ottenuti in precedenza, in realtà


caratterizzano la segnatura di una forma quadratica attraverso il segno degli autovalori
della matrice ad essa associata.

Teorema 8.22 Una forma quadratica Q definita su uno spazio vettoriale reale V di di-
mensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, è definita positiva (negativa) se e soltanto se tutti gli autovalori della matrice A
sono strettamente positivi (negativi).

Dimostrazione Si supponga che Q sia definita positiva. Se per assurdo, fosse ad


esempio 1  0 si avrebbe, scelto x = (1, 0, . . . , 0), che Q(x) = 1  0, con x 6= o,
contro l’ipotesi. La dimostrazione nel caso in cui Q sia definita negativa è analoga. Il
viceversa è ovvia conseguenza dei teoremi di classificazione appena enunciati.

Osservazione 8.26 Conseguenza immediata del teorema precedente è che un prodotto


scalare su uno spazio vettoriale reale V di dimensione n è una forma bilineare simmetrica
associata ad una forma quadratica di segnatura (n, 0). Viceversa ogni forma bilineare
simmetrica associata ad una forma quadratica di segnatura (n, 0) è un prodotto scalare.
Capitolo 8 383

Teorema 8.23 Una forma quadratica Q definita su uno spazio vettoriale reale V di di-
mensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, è semidefinita positiva (negativa) se e solo se tutti gli autovalori della matrice A
sono non negativi (positivi) e = 0 è un autovalore di A di molteplicità almeno 1.

Teorema 8.24 Una forma quadratica Q definita su uno spazio vettoriale reale V di di-
mensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, è indefinita se e solo se la matrice simmetrica reale A ha autovalori di segno
contrario.

Le dimostrazioni dei due teoremi precedenti sono conseguenze delle definizioni di forma
quadratica semidefinita e indefinita e della formula (8.16) del Teorema 8.17.

Riassumendo, le possibili forme normali, le segnature e le classificazioni di una forma


quadratica Q su uno spazio vettoriale di dimensione n (cfr. Teor. 8.20) sono rispettiva-
mente:

• Q(x) = x21 + x22 + . . . + x2n (n, 0) definita positiva,


• Q(x) = x21 + x22 + . . . + x2p , p  n, (p, 0) semidefinita positiva,
• Q(x) = x21 x22 ... x2n (0, n) definita negativa,
• Q(x) = x21 x22 . . . x2q , q  n, (0, q) semidefinita negativa,
• Q(x) = x21 + . . . + x2p x2p+1 ... x2r ,
0<p<rn (p, r p) indefinita,

dove x è un qualsiasi vettore di V di componenti (x1 , x2 , . . . , xn ) rispetto ad una base


che permetta di scrivere Q in forma normale.

Osservazione 8.27 È molto più agevole calcolare l’insieme dei vettori isotropi I di una
forma quadratica Q partendo dalla sua forma normale, è necessario però dividere la
trattazione a seconda della classificazione di Q.

a. Se Q è una forma quadratica semidefinita positiva, di segnatura (p, 0), p  n, la


sua forma normale è:
Q(x) = x21 + x22 + . . . + x2p ,
dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette
di scrivere Q in forma normale. In questo caso, l’insieme dei vettori isotropi è:
I = {x 2 V | x21 + x22 + . . . + x2p = 0} = {x 2 V | x1 = x2 = . . . = xp = 0}
384 Forme Bilineari e Forme Quadratiche

e I è un sottospazio vettoriale di V. Il caso delle forme quadratiche semidefinite


negative è analogo.

b. Sia, invece, Q una forma quadratica, definita su uno spazio vettoriale V di dimen-
sione n, di segnatura (p, q), q 6= 0 e rango p + q = r  n, quindi di forma
normale:
Q(x) = x21 + . . . + x2p x2p+1 . . . x2r ,
dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette
di scrivere Q in forma normale. In questo caso, l’insieme dei vettori isotropi è:

I = {x 2 V | x21 + . . . + x2p x2p+1 ... x2r = 0}.

Pertanto I =
6 {o} e non è un sottospazio vettoriale di V. La verifica di quest’ultima
affermazione è un facile esercizio.

Osservazione 8.28 Come già annunciato all’inizio di questo capitolo, la riduzione di una
forma quadratica in forma canonica ottenuta attraverso gli autovalori assume notevole
importanza in geometria analitica, ad esempio, nella riduzione a forma canonica delle
coniche nel piano e delle quadriche nello spazio perché è legata a cambiamenti di basi
ortonormali e conseguentemente a cambiamenti di riferimento cartesiani del piano e dello
spazio. I Capitoli 10 e 12 tratteranno diffusamente questi argomenti.

8.7 Esercizi di riepilogo svolti


Esercizio 8.15 In R3 , riferito alla base canonica B = (e1 , e2 , e3 ),

1. scrivere, rispetto alla base B, la matrice A della forma bilineare simmetrica ' tale
che siano verificate le seguenti condizioni:

a. '(e1 , e1 ) + '(e3 , e3 ) = 3,
b. '(e1 , e1 ) = 2'(e3 , e3 ) = 4'(e2 , e3 ),
c. '(e1 , e2 ) = '(e2 , e3 ),
d. i vettori e3 e v = e1 + e2 + e3 sono ortogonali rispetto a ',
e. il vettore e2 è isotropo rispetto alla forma quadratica Q associata a '.

2. Scrivere l’espressione polinomiale della forma quadratica Q associata a '.

3. Classificare Q, determinandone la sua forma normale ed una base rispetto alla quale
Q assume tale forma.
Capitolo 8 385

4. Dire se i vettori e2 e u = e1 + e2 e3 sono ortogonali rispetto a '.

Soluzione 1. Si tratta di determinare gli elementi della matrice A associata a ' rispetto
alla base assegnata. Poiché A = (aij ) è una matrice simmetrica e aij = '(ei , ej ),
le condizioni a., b., c. equivalgono al sistema lineare:
8
< a11 + a33 = 3
a11 = 2a33 = 4a23
:
a12 = a23 ,
la cui soluzione è:
8
>
> a11 = 2
>
<
1
> a12 = a23 =
>
> 2
:
a33 = 1.
La condizione d. equivale a:
0 1 0 1 10 1
0 2 a13 0
B C B 2 CB C
B C B CB C
B C B CB C
B C B 1 1 CB C
1 1 1 AB 0 C = 1 1 1 B a22 C B 0 C = 0,
B C B 2 2 C B C
B C B CB C
@ A @ A@ A
1
1 a13 1 1
2
da cui si ottiene a13 = 3/2. La condizione e. equivale a a22 = 0. Allora, la matrice
A richiesta è:
0 1 3 1
2
B 2 2 C
B C
B C
B 1 1 C
A=B 0 C.
B 2 2 C
B C
@ A
3 1
1
2 2
2. Dalla matrice A appena ricavata segue che:
Q(x) = 2x21 + x1 x2 + 3x1 x3 + x2 x3 + x23 ,

con x = (x1 , x2 , x3 ).
386 Forme Bilineari e Forme Quadratiche

3. Il polinomio caratteristico P ( ) della matrice A è dato da:

3 2 3
P( ) = +3 + ,
4
da cui si deduce che la forma quadratica è degenere (il polinomio caratteristico ha
termine noto nullo); utilizzando la regola dei segni di Cartesio si vede una sola
variazione di segno tra i coefficienti di P ( ), quindi la segnatura di Q è (1, 1),
pertanto la forma quadratica è indefinita. La sua forma normale è:

Q(x) = z12 z22 ,

con (z1 , z2 , z3 ) componenti del vettore x rispetto ad una base di R3 secondo la qua-
le Q si scrive in forma normale. Questa base si può trovare determinando dapprima
una base ortonormale di autovettori di A, i cui autovalori sono:

1 p 1 p
1 = (3 + 2 3), 2 = (3 2 3), 3 = 0,
2 2
tutti di molteplicità 1; una base ortonormale di autovettori è data da (f1 , f2 , f3 ),
dove:

1 p p 1 p p
f1 = p (1 + 3, 1 + 3, 2), f2 = p (1 3, 1 3, 2),
2 3 2 3
1
f3 = p ( 1, 1, 1),
3
e poi operando sulla base ottenuta come spiegato nella dimostrazione del Teorema
8.18, si ottiene la base:
p p !
2 2
p p f1 , p p f2 , f3 ,
3+2 3 3+2 3
rispetto alla quale Q si scrive in forma normale.

4. I vettori dati sono ortogonali, rispetto a ', in quanto:


10
1
0 1 0 A @ 1 A = 0.
1
Capitolo 8 387

Esercizio 8.16 In R3 , riferito alla base canonica B = (e1 , e2 , e3 ), si consideri la forma


bilineare simmetrica ' definita da:

'(x, y) = x1 y1 + 6x2 y2 + 56x3 y3 2(x1 y2 + x2 y1 ) + 7(x1 y3 + x3 y1 ) 18(x2 y3 + x3 y2 ),

dove x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ).

1. Scrivere la matrice A associata a ' rispetto alla base B.

2. Provare che i vettori e01 = e1 , e02 = 2e1 + e2 , e03 = 3e1 + 2e2 + e3 formano una
base B 0 di R3 .

3. Scrivere la matrice A0 associata a ' rispetto alla base B 0 = (e01 , e02 , e03 ).

4. Scrivere le espressioni polinomiali della forma quadratica Q associata a ' rispetto


alle basi B e B 0 .

Soluzione 1. La matrice A associata alla forma bilineare ' rispetto alla base B è:
0 1
1 2 7
A=@ 2 6 18 A.
7 18 56

2. La matrice P avente sulle colonne, ordinatamente, le componenti dei vettori e01 , e02 , e03
rispetto alla base B : 0 1
1 2 3
P =@ 0 1 2 A,
0 0 1

ha det(P ) = 1, perciò i vettori e01 , e02 , e03 formano una base B 0 di R3 .

3. Poiché la matrice del cambiamento di base da B a B 0 è P, dal Teorema 8.4 segue


che la matrice A0 associata a ' rispetto alla base B 0 si ottiene come:
0 1
1 0 0
0 t
A = P AP = @ 0 2 0 A.
0 0 1

4. Rispetto alla base B, l’espressione polinomiale della forma quadratica Q associata


a ' è:
Q(x) = x21 + 6x22 + 56x23 4x1 x2 + 14x1 x3 36x23 .
388 Forme Bilineari e Forme Quadratiche

Tenendo conto della formula (8.9) l’espressione polinomiale della forma quadratica
Q, rispetto alla base B 0 , è:

Q(x) = y12 + 2y22 y32 ,

dove con (y1 , y2 , y3 ) si indicano le componenti di x rispetto alla base B 0 . Si osservi


che P non è una matrice ortogonale e che il polinomio caratteristico di A è:
3 2
det(A I) = + 63 21 2,

mentre quello di A0 è:


3 2
det(A I) = +2 + 2,

ossia A e A0 non sono matrici simili.

Esercizio 8.17 Sia V4 uno spazio vettoriale reale, di dimensione 4, riferito alla base B =
(v1 , v2 , v3 , v4 ).

1. Determinare la matrice A delle generica forma bilineare simmetrica ' su V4 tale


che:

a. le restrizioni di ' ai sottospazi vettoriali W1 = L(v1 , v2 ) e W2 = L(v3 , v4 )


siano le forme bilineari nulle,
b. il vettore u = v1 v2 + 2v4 appartenga a ker '.

2. Detto H il sottospazio vettoriale di Bs (V4 , R) generato dalle forme bilineari sim-


metriche ' determinate nel punto 1., individuare una base di H.

Soluzione 1. In analogia alla definizione di restrizione di forma quadratica ad un sot-


tospazio vettoriale introdotta nel Paragrafo 8.4, si può enunciare la definizione di
restrizione ad un sottospazio vettoriale W di uno spazio vettoriale V di una forma
bilineare simmetrica ' definita su V come la funzione:

'|W : W ⇥ W ! R,

data da:
'|W (x, y) = '(x, y), x, y 2 W.
Si verifichi per esercizio che '|W è una forma bilineare simmetrica su W. Sia
A = (aij ) la matrice simmetrica associata a ' rispetto alla base B. Le condizioni
Capitolo 8 389

richieste in a. equivalgono a:

'(v1 , v1 ) = '(v1 , v2 ) = '(v2 , v2 ) = 0,


'(v3 , v3 ) = '(v3 , v4 ) = '(v4 , v4 ) = 0,

che corrispondono a:
a11 = a12 = a22 = 0,
a33 = a34 = a44 = 0.
Di conseguenza la matrice A è del tipo:
0 1
0 0 a13 a14
B 0 0 a23 a24 C
A=B @ a13 a23 0
C.
A
0
a14 a24 0 0

La condizione b. equivale alle seguenti condizioni:

'(u, v1 ) = '(u, v2 ) = '(u, v3 ) = '(u, v4 ) = 0,

che corrispondono a:

a14 = a24 = 0, a13 = a23 = h,

con h 2 R. Quindi, concludendo, si trovano infinite matrici A, che dipendono da


h 2 R e che saranno indicate come:
0 1
0 0 h 0
B 0 0 h 0 C
A(h) = B C
@ h h 0 0 A, h 2 R.
0 0 0 0

2. Considerando l’isomorfismo tra Bs (V4 , R) e lo spazio vettoriale delle matrici sim-


metriche S(R4,4 ), definito dopo aver fissato la base B in V4 (cfr. Teor. 8.2) si
ha che il sottospazio vettoriale H richiesto è formato dalle forme bilineari simme-
triche associate alle matrici A(h) ricavate nel punto precedente. Di conseguenza
dim(H) = 1 ed una sua base è per esempio data dalla forma bilineare simmetrica
associata alla matrice A(1).

Esercizio 8.18 Si consideri la funzione:

' : R2,2 ⇥ R2,2 ! R, (A, B) 7 ! tr( tA tP B),

con P matrice appartenente a R2,2 .


390 Forme Bilineari e Forme Quadratiche

1. Verificare che ' è una forma bilineare.

2. Dimostrare, usando le proprietà della traccia e della trasposta di una matrice, che '
è una forma bilineare simmetrica se e solo se P è una matrice simmetrica.

3. Posto: ✓ ◆
0 1
P = ,
1 0
verificare che rispetto alla base canonica B di R2,2 la forma quadratica Q associata
a ' è data da:
Q(X) = 2x1 x3 2x2 x4 ,
con ✓ ◆
x1 x2
X= .
x3 x4

4. Classificare la forma quadratica Q del punto 3., determinare una forma canonica
ed una base B 0 di R2,2 rispetto alla quale Q si scrive in forma canonica.

Soluzione 1. Dalle proprietà della traccia e della trasposta di una matrice si ha:

'(A1 + A2 , B) = tr( t (A1 + A2 ) tP B) = tr( tA1 tP B + tA2 tP B)


= tr( tA1 tP B) + tr( tA2 tP B) = '(A1 , B) + '(A2 , B),

per ogni A1 , A2 , B 2 R2,2 . Analogamente si verifica che:

'(A, B1 + B2 ) = '(A, B1 ) + '(A, B2 ),


'( A, B) = '(A, B) = '(A, B),

per ogni A, B1 , B2 , B 2 R2,2 e per ogni 2 R. Perciò ' è una forma bilineare.

2. Dalle proprietà della traccia di una matrice si ha che:

'(A, B) = tr( tA tP B) = tr( t (tA tP B)) = tr( tBP A),

per ogni A, B 2 R2,2 . Pertanto, se P è una matrice simmetrica, ossia tP = P, si


verifica che:

'(A, B) = tr( tBP A)) = tr( tB tP A) = '(B, A), A, B 2 R2,2 .


Capitolo 8 391

Viceversa, se ' è una forma bilineare simmetrica, ossia '(A, B) = '(B, A) per
ogni A, B 2 R2,2 , dalle uguaglianze:

'(A, B) = tr( tBP A),


'(B, A) = tr( tB tP A), A, B 2 R2,2 ,

si ottiene tr( tBP A) = tr( tB tP A), vale a dire tr( tBP A B tP A) = 0, per ogni
t

A, B 2 R2,2 , da cui:

tr( tB(P t
P )A) = 0, A, B 2 R2,2 .

In particolare, ponendo A = I e B = P t
P , si ottiene:

tr( t (P t
P )(P t
P )) = 0.

Ma è noto che:
tr( tXX) = 0 () X = O,

dove O indica la matrice nulla di R2,2 e X una qualsiasi matrice di R2,2 , per questa
verifica si può ricordare l’Esempio 5.6. Pertanto P t
P = O, ossia la tesi.

3. Si ha:
✓ ◆
t t 2x1 x3 x1 x4 x2 x3
Q(X) = '( X P X) = tr = 2x1 x3 2x2 x4 .
x1 x4 x2 x3 2x2 x4

4. La matrice associata alla forma quadratica Q del punto 3., rispetto alla base cano-
nica B di R2,2 , è: 0 1
0 0 1 0
B 0 0 0 1 C
M B (Q) = B
@ 1
C.
0 0 0 A
0 1 0 0

con autovalori:
1 = 1, 2 = 1

entrambi di molteplicità 2 ed autospazi:

V 1 = L((1, 0, 1, 0), (0, 1, 0, 1)),


V 2 = L((1, 0, 1, 0), (0, 1, 0, 1)).
392 Forme Bilineari e Forme Quadratiche

La forma quadratica Q scritta in forma canonica è dunque:

Q(X) = y12 + y22 y32 y42 ,

con (y1 , y2 , y3 , y4 ) componenti di X rispetto alla base:

✓ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆◆
0 1 1 0 1 0 1 1 1 0 1 0 1
B = p , p , p , p .
2 1 0 2 0 1 2 1 0 2 0 1

Q è pertanto una forma quadratica indefinita, non degenere e di segnatura (2, 2).

8.8 Per saperne di più


8.8.1 Forme bilineari simmetriche ed endomorfismi autoaggiunti
In questo paragrafo si vuole definire una corrispondenza biunivoca tra endomorfismi au-
toaggiunti di uno spazio vettoriale euclideo e forme bilineari simmetriche e dimostrare
che, rispetto a basi opportune, essi sono associati alla stessa matrice. Valgono infatti i
seguenti teoremi.

Teorema 8.25 Se f è un endomorfismo di uno spazio vettoriale euclideo (V, · ) la fun-


zione ' : V ⇥ V ! R, definita da:

'(x, y) = x · f (y), x, y 2 V, (8.19)

è una forma bilineare su V. Viceversa se ' : V ⇥ V ! R è una forma bilineare su V


allora la relazione (8.19) definisce un endomorfismo f : V ! V.

Dimostrazione Se f è un endomorfismo di V allora si ha:

1. '(x1 + x2 , y) = (x1 + x2 ) · f (y) = x1 · f (y) + x2 · f (y) = '(x1 , y) + '(x2 , y),


per ogni x1 , x2 , y 2 V.

2. '(x, y1 + y2 ) = x · f (y1 + y2 ) = x · (f (y1 ) + f (y2 )) = x · f (y1 ) + x · f (y2 )


= '(x, y1 ) + '(x, y2 ),
per ogni x, y1 , y2 2 V.

3. '( x, y) = ( x) · f (y) = (x · f (y)) = '(x, y),


per ogni x, y 2 V e per ogni 2 R.
Capitolo 8 393

4. '(x, y) = x · f ( y) = x · f (y) = '(x, y),

per ogni x, y 2 V e per ogni 2 R.

Quindi la funzione ' : V ⇥ V ! R definita tramite (8.19) è una forma bilineare.


Viceversa, si consideri la relazione f : V ! V definita tramite (8.19). f è una fun-
zione, infatti per ogni y in V esiste ed è unico il vettore f (y) in quanto, fissato x in
V, il secondo membro di (8.19) è ben determinato. La verifica della linearità di f, del
tutto analoga alla verifica appena effettuata della bilinerità della forma ', è lasciata per
esercizio.

Ogni forma bilineare simmetrica può essere caratterizzate tramite un endomorfismo au-
toaggiunto (cfr. Def. 6.11) come afferma il seguente teorema.

Teorema 8.26 Siano f : V ! V l’endomorfismo della spazio vettoriale euclideo


(V, · ) e ' la forma bilineare su V definiti tramite la relazione (8.19), f è un endo-
morfismo autoaggiunto di V se e solo se la foma bilineare ' è simmetrica.

Dimostrazione Se f è un endomorfismo autoaggiunto di V si ha:

'(x, y) = x · f (y) = y · f (x) = '(y, x), x, y 2 V.

Il viceversa è analogo ed è lasciato per esercizio.

Il teorema che segue, e che conclude la trattazione proposta, mette in relazione la matrice
associata ad una forma bilineare simmetrica rispetto ad una base dello spazio vettoriale
su cui essa è definita con la matrice associata all’endomorfismo autoaggiunto, ottenuto
tramite la forma bilinere simmetrica mediante (8.19), rispetto alla stessa base.

Teorema 8.27 1. Sia ' una forma bilineare simmetrica definita su uno spazio vet-
toriale euclideo (V, · ) di dimensione n e sia B una base ortonormale di V. La
matrice simmetrica A associata a ' rispetto alla base B coincide con la matri-
ce associata, rispetto alla base B, all’endomorfismo autoaggiunto f di V definito
tramite la relazione (8.19).

2. Sia ' una forma bilineare simmetrica definita su uno spazio vettoriale V di dimen-
sione n, si indichi con A la matrice associata a ' rispetto ad una base B di V. Se
si considera su V il prodotto scalare che rende ortonormale la base B, allora la re-
lazione (8.19) definisce un endomorfismo autoaggiunto f (autoaggiunto rispetto al
prodotto scalare appena introdotto) tale che la matrice ad esso associata, rispetto
alla base B, sia A.
394 Forme Bilineari e Forme Quadratiche

Dimostrazione Le dimostrazioni delle due parti del teorema sono analoghe e sono
conseguenza della relazione:

'(x, y) = tXAY = x · f (y) = tXBY,

che esprime in forma matriciale la formula (8.19) scritta rispetto ad una base ortonormale,
dove con X e Y si indicano le matrici colonne delle componenti dei vettori x e y rispetto
alla base B, con A la matrice associata a ', rispetto alla base B e con B la matrice
associata ad f, rispetto a B.

Nell’esercizio proposto di seguito si intende evidenziare che una matrice simmetrica non
è necessariamente associata ad un endomorfismo autaggiunto, infatti la relazione tra la
simmetria di una matrice e un endomorfismo autoaggiunto è legata al prodotto scalare
che si sta considerando. Si conclude il paragrafo determinando, quindi, tutte le matrici
associate ad un endomorfismo autoaggiunto, qualunque sia la base dello spazio vettoriale
euclideo su cui esso è definito.

Esercizio 8.19 1. Verificare che la forma bilineare simmetrica ' : R2 ⇥ R2 ! R,


con matrice associata A rispetto alla base canonica B = (e1 , e2 ) di R2 data da:
✓ ◆
2 1
A= ,
1 1

è un prodotto scalare su R2 .

2. Dopo aver controllato che l’endomorfismo f di R2 con matrice associata B rispetto


alla base canonica di R2 data da:
✓ ◆
1 2
B=
2 1

non è autoaggiunto (rispetto al prodotto scalare definito in 1.), determinare la ma-


trice associata all’endomorfismo g aggiunto di f, rispetto alla base B.

Soluzione 1. La forma bilineare simmetrica ' è un prodotto scalare in quanto i due


autovalori della matrice A sono entrambi positivi.

2. Affinché f sia autoaggiunto rispetto al prodotto scalare ' deve valere la seguente
relazione:
'(f (x), y) = '(x, f (y)), x, y 2 R2 .
Capitolo 8 395

Ponendo x = e1 e y = e2 si verifica che '(f (e1 ), e2 ) = 1 invece '(e1 , f (e2 )) = 3


quindi f non è autoaggiunto rispetto al prodotto scalare '. L’endomorfismo g di
R2 aggiunto di f deve verificare la relazione:
'(f (x), y) = '(x, g(y)), x, y 2 R2 ,

da cui segue che la matrice C associata a g, rispetto alla base B è:


✓ ◆
3 0
C= .
6 1

Teorema 8.28 Sia V uno spazio vettoriale reale di dimensione n su cui è definito un
prodotto scalare ' a cui è associata la matrice simmetrica A 2 Rn,n rispetto ad una
base B di V. La matrice B 2 Rn,n associata ad un endomorfismo f di V autoaggiunto
rispetto al prodotto scalare ', ossia tale che:
'(f (x), y) = '(x, f (y)), x, y 2 V, (8.20)

rispetto alla base B, verifica la relazione:


t
B A = A B.

La dimostrazione del Teorema 8.28 è un esercizio, è infatti sufficiente esprimere la for-


mula (8.20) in componenti. È evidente che se la forma bilineare ' è scritta in forma
normale, ossia A = I, con I matrice unità di Rn,n , allora la matrice B è simmetrica.
Si lascia anche per esercizio la determinazione di tutti gli altri casi in cui la matrice B è
simmetrica.

8.8.2 Forme bilineari simmetriche e spazio vettoriale duale


Dal Teorema 6.19 si ottiene che uno spazio vettoriale reale V di dimensione finita è
isomorfo al suo spazio vettoriale duale V ⇤ . L’isomorfismo tra i due spazi vettoriali non
è però canonico, perché per definirlo occorre effettuare la scelta di una base di V, infatti
scelte diverse di basi determinano isomorfismi diversi. In questo paragrafo si dimostra
come si possa introdurre un isomorfismo canonico tra V e il suo duale V ⇤ tramite una
forma bilineare simmetrica non degenere.

Ogni forma bilineare ' su uno spazio vettoriale reale V definisce una coppia di appli-
cazioni lineari f1 , f2 : V ! V ⇤ da V nel suo duale V ⇤ (cfr. Def. 6.12), nel modo
seguente:
f1 (x)(y) = '(x, y),
(8.21)
f2 (x)(y) = '(y, x), x, y 2 V.
396 Forme Bilineari e Forme Quadratiche

L’Osservazione 8.1 garantisce che f1 (x) e f2 (x) sono forme lineari su V, in quanto
f1 (x)(y) = 'x (y) e f2 (x)(y) = 'y (x).

Viceversa, è un facile esercizio verificare che ogni applicazione lineare f : V ! V⇤


definisce una forma bilineare ' su V ponendo:

'(x, y) = f (x)(y). (8.22)

Se ' è una forma bilineare simmetrica, allora le due applicazioni lineari f1 , f2 definite da
(8.21) coincidono con l’applicazione lineare f definita da (8.22), inoltre:

f (x)(y) = f (y)(x), x, y 2 V.

Nel caso particolare delle forme bilineari simmetriche non degeneri vale il seguente teo-
rema.

Teorema 8.29 Sia V uno spazio vettoriale reale di dimensione n. Ogni forma bilineare
simmetrica non degenere ' su V determina un isomorfismo f : V ! V ⇤ , definito da
(8.22). Viceversa, ogni isomorfismo f : V ! V ⇤ definisce mediante (8.22) una forma
bilineare simmetrica non degenere ' su V .

Dimostrazione Per dimostrare il teorema è sufficiente provare che, se ' e f sono


legati tra di loro dalla relazione (8.22), allora ker ' = ker f . Infatti se x 2 ker ', allora
'(x, y) = 0 per ogni y 2 V, quindi f (x)(y) = 0, per ogni y 2 V , ossia f (x) è la
forma lineare nulla, pertanto x 2 ker f . Analogamente, si prova che se x 2 ker f , allora
x 2 ker '.

8.8.3 Altri metodi di classificazione di una forma quadratica


Poiché le matrici associate alla stessa forma bilineare simmetrica non sono tutte simili tra
di loro, il calcolo degli autovalori non è l’unico metodo per classificare una forma qua-
dratica, come già osservato nell’Esercizio 8.13. In questo paragrafo si introdurranno due
metodi diversi per classificare una forma quadratica che non si basano sul procedimento
di diagonalizzazione di una matrice associata, infatti nel primo metodo si utilizza il cal-
colo dei minori mentre per il secondo si procede con una opportuna riduzione per righe e
per colonne.

Il concetto di minore di ordine k < n di una matrice A 2 Rn,n è stato introdotto nella
Definizione 2.11 ed è il determinante di una sottomatrice (quadrata) di ordine k di A.
Capitolo 8 397

Definizione 8.17 Sia A 2 S(Rn,n ) una matrice simmetrica. I minori principali di ordine
k (k < n) di A sono i minori che si ottengono considerando sottomatrici formate da k
righe e dalle corrispondenti k colonne. Il minore principale di ordine n coincide con
det(A). I minori principali di Nord–Ovest (N.O.) di ordine k di una matrice simmetrica
A sono i minori principali che si ottengono considerando le prime k righe (e di conse-
guenza le prime k colonne), vale a dire sono i minori che si ottengono cancellando le
ultime n k righe e le ultime n k colonne.

Esempio 8.22 Si consideri la matrice:


0 1
1 2 3
A = @ 2 1 2 A,
3 2 2

i minori principali di ordine 1 di A sono gli elementi sulla diagonale principale (dati
dall’intersezione della prima riga con la prima colonna, oppure seconda riga e seconda
colonna, oppure terza riga e terza colonna):

1, 1, 2.

I minori principali di ordine 2 di A sono tre e sono i determinanti delle matrici ottenute
dalla prima e seconda riga intersecate con la prima e seconda colonna, ossia cancellando
la terza riga e la terza colonna, dalla prima e terza riga con la prima e terza colonna,
cancellando quindi la seconda riga e la seconda colonna, dalla seconda e terza riga con la
seconda e terza colonna, cancellando quindi la prima riga e la prima colonna, vale a dire:

1 2 1 3 1 2
= 3, = 7, = 2.
2 1 3 2 2 2

Il minore principale di ordine 3 (tutte e tre le righe) è det(A) = 5. I minori principali di


N.O. sono invece soltanto:
1 2
1 (di ordine 1), = 3 (di ordine 2), det(A) = 5 (di ordine 3).
2 1

Usando i minori principali di N.O. si può pervenire agevolmente alla classificazione di


una forma quadratica, come afferma il teorema che segue, per la sua dimostrazione si
veda ad esempio [4].

Teorema 8.30 Sia V uno spazio vettoriale reale di dimensione n e B una base di V.
Una forma quadratica Q(x) = tXAX su V con A matrice associata a Q rispetto alla
base B è:
398 Forme Bilineari e Forme Quadratiche

1. definita positiva se e solo se tutti i minori principali di N.O. di A sono positivi;

2. definita negativa se e solo se tutti i minori principali di N.O. di A di ordine pari


sono positivi e tutti i minori principali di N.O. di A di ordine dispari sono negativi;

3. semidefinita positiva se e solo se tutti i minori principali di A sono non negativi e


det(A) = 0;

4. semidefinita negativa se e solo se tutti i minori principali di A di ordine pari sono


non negativi, tutti i minori principali di A di ordine dispari sono non positivi e
det(A) = 0;

5. indefinita se e solo se non si verifica alcuna delle situazioni precedenti.

Esempio 8.23 Si consideri la forma quadratica su R3 , definita rispetto alla base canonica
B = (e1 , e2 , e3 ) di R3 , da:

Q(x) = 4x21 2x1 x2 + 2x22 + 2x2 x3 + 2x23 ,

con x = (x1 , x2 , x3 ). La matrice A associata alla forma quadratica Q rispetto alla base
B è: 0 1
4 1 0
A=@ 1 2 1 A.
0 1 2
I tre minori principali di N.O. sono 4, 7 e 10, quindi la forma quadratica Q è definita
positiva.

Esempio 8.24 Si consideri la forma quadratica su R4 :

Q(x) = 4x1 x2 + 2x22 + 2x2 x3 + x23 + 4x3 x4 + 2x24 ,

con x = (x1 , x2 , x3 , x4 ). La matrice A associata alla forma quadratica Q rispetto alla


base canonica B = (e1 , e2 , e3 , e4 ) di R4 è:
0 1
0 2 0 0
B 2 2 1 0 C
A=B @ 0 1 1 2 A.
C

0 0 2 2

La forma quadratica Q è indefinita, poiché il minore principale di N.O. di ordine 1 (dato


del determinante dell’intersezione della prima riga e della prima colonna) è uguale a zero
ed il minore principale di N.O. di ordine 2 è negativo.
Capitolo 8 399

Si può agevolmente ridurre a forma canonica una forma quadratica anche con una tecnica
che si basa sul metodo di riduzione delle matrici. A questo scopo è necessario osser-
vare che, in generale, la matrice B ottenuta da una matrice A mediante l’operazione di
colonna:
Ci ! Ci + Cj , 2 R,
coincide con la matrice prodotto AEi dove Ei è la matrice che si ottiene dalla matrice
unità I sulla quale è stata eseguita la medesima operazione di colonna.
Analogamente la matrice B ottenuta da una matrice A mediante l’operazione di riga:

Ri ! Ri + Rj , 2 R,

coincide con la matrice prodotto tEi A, La matrice tEi non è altro che la matrice che si
ottiene dalla matrice unità sulla quale è stata eseguita la medesima operazione di riga.
Con le usuali notazioni Ri e Ci si indicano, rispettivamente, le righe e le colonne della
matrice A considerata.

Esempio 8.25 Data la matrice A:


✓ ◆
1 2
A= ,
2 3

mediante l’operazione di riduzione C2 ! C2 2C1 si ottiene da essa la matrice:


✓ ◆
1 0
B= .
2 1

Operando la stessa operazione di riduzione alla matrice unità I si ottiene la matrice:


✓ ◆
1 2
E2 = .
0 1

Si verifica facilmente che AE2 = B.

Ciò premesso si eseguano contemporaneamente su una matrice simmetrica A le stesse


operazioni sia per le righe sia per le colonne fino a ottenere una matrice diagonale D; le
matrici A e D risultano allora legate dalla relazione:

D = tEn . . . tE2 tE1 AE1 E2 . . . En = t (E1 E2 . . . En ) A( E1 E2 . . . En ). (8.23)

Posto P = E1 E2 . . . En , si osserva che la matrice P si può ottenere dalla matrice unità


I sulla quale si siano eseguite, nell’ordine, le operazioni di colonna considerate. Se A è
400 Forme Bilineari e Forme Quadratiche

la matrice associata ad una forma quadratica Q rispetto ad una base fissata, la formula
(8.23) assicura che anche la matrice D è associata alla stessa forma quadratica Q rispetto
alla base che si ottiene applicando alla base iniziale la matrice del cambiamento di base
P. La verifica che P sia una matrice invertibile è un semplice esercizio. È cosı̀ possibile
applicare il metodo appena descritto per classificare la forma quadratica Q.

Esercizio 8.20 Si riduca a forma canonica la forma quadratica su R3 , definita rispetto


alla base canonica di R3 da:

Q(x) = 4x1 x2 + x22 2x1 x3 + 4x2 x3 ,

con x = (x1 , x2 , x3 ).

Soluzione Sulla matrice:


0 1
0 2 1
A= @ 2 1 2 A,
1 2 0

associata alla forma quadratica Q, rispetto alla base canonica di R3 , si operi come segue:
0 1 0 1
0 2 1 1 0 1
B C ! B C !
@ 2 1 2 A @ 2 1 2 A
R1 ! R1 R3 C1 ! C1 C3
1 2 0 1 2 0
0 1
0 1 2 0 1
2 0 1 B C
B C ! B 0 1 2 C !
@ 0 1 2 A B C
R3 ! R3 + (1/2) R1 @ 1 A C3 ! C3 + (1/2) C1
1 2 0 0 2
2
0 1 0 1 0 1
2 0 0 2 0 0 2 0 0
B C B C B C
B 0 1 2 C ! B 0 1 2 C ! B 0 1 0 C
B C B C B C.
@ 1 A R3 ! R3 2R2 @ 9 A C3 ! C3 2 C2 @ 9 A
0 2 0 0 0 0
2 2 2

Una forma canonica di Q è allora:

9 2
Q(x) = 2y12 + y22 y
2 3
Capitolo 8 401

dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base ottenuta tramite la matrice P
nel modo seguente:
0 1 0 1 1
1 0 0 1 0
B C ! B 2 C
B C C1 ! C1 C3 B C
B 0 1 0 C B 0 1 2 C = P.
B C C3 ! C3 + (1/2) C1 B C
@ A @ A
C3 ! C3 2 C2 1
0 0 1 1 0
2
Attenzione al fatto che 2, 1, 9/2 non sono gli autovalori di A!

8.8.4 Il determinante come forma p-lineare


Estendendo in modo naturale la Definizione 8.1 si può introdurre il concetto di forma
p-lineare che conduce, in un caso particolare, alla definizione di determinante di una
matrice quadrata. Questo approccio permette di dimostrare agevolmente le proprietà dei
determinanti elencate nel Paragrafo 2.8.

Definizione 8.18 Sia V uno spazio vettoriale reale. Ogni applicazione:

{z. . . ⇥ V} ! R,
| ⇥V ⇥
':V
p volte
lineare in ciascun argomento, prende il nome di forma p-lineare su V.

Osservazione 8.29 La definizione precedente generalizza la definizione di forma bilinea-


re (cfr. Def. 8.1).

Esempio 8.26 Il prodotto misto di tre vettori nello spazio vettoriale V3 , definito come la
funzione:
V3 ⇥ V3 ⇥ V3 ! R, (x, y, z) 7 ! x ^ y · z
(cfr. Def. 3.14) è un esempio di forma trilineare su V3 .

Il prodotto misto dei vettori dello spazio ordinario è proprio l’esempio da cui trae spunto
la definizione che segue.

Definizione 8.19 Una forma p-lineare ' su uno spazio vettoriale reale V si dice anti-
simmetrica o alternata se:

'(x1 , . . . , xi , . . . , xj , . . . , xp ) = '(x1 , . . . , xj , . . . , xi , . . . , xp ),

per ogni x1 , x2 , . . . , xp in V e per ogni i, j = 1, 2, . . . , p.


402 Forme Bilineari e Forme Quadratiche

Si ottiene subito il seguente teorema.

Teorema 8.31 Sia ' una forma p-lineare antisimmetrica su uno spazio vettoriale reale
V. Se xi = xj , per una qualche scelta di i, j = 1, 2, . . . , p, allora '(x1 , x2 , . . . , xp ) = 0.

Esempio 8.27 Sia V uno spazio vettoriale di dimensione 2 con base B = (v1 , v2 ). Dati
i vettori x1 = a11 v1 + a12 v2 , x2 = a21 v1 + a22 v2 , si vuole calcolare l’espressione di una
forma bilineare antisimmetrica ' : R ⇥ R ! R, utilizzando lo stesso metodo introdotto
nel Paragrafo 8.1.1 per le forme bilineari simmetriche, ossia si ha:
!✓ ◆
'(v1 , v1 ) '(v1 , v2 ) a21
'(x1 , x2 ) = a11 a12
'(v2 , v1 ) '(v2 , v2 ) a22
!✓ ◆
0 '(v1 , v2 ) a21
= a11 a12
'(v1 , v2 ) 0 a22

= (a11 a22 a12 a21 )'(v1 , v2 )

a11 a12
= '(v1 , v2 ).
a21 a22

In pratica, il valore di '(x1 , x2 ) è determinato dal suo valore sugli elementi della ba-
se '(v1 , v2 ), mentre il coefficiente moltiplicativo è il determinante della matrice avente
come righe le componenti dei vettori. Si osservi inoltre che la matrice:
!
0 '(v1 , v2 )
'(v1 , v2 ) 0

è la matrice associata alla forma bilineare antisimmetrica ' rispetto alla base B e si
osservi anche che è una matrice antisimmetrica.

La situazione descritta nell’esempio precedente si ripete nel caso di dim(V ) = n, come


afferma il teorema seguente, la cui dimostrazione, solo un lungo calcolo, è lasciata al
Lettore per esercizio.

Teorema 8.32 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Dati i vettori:
Capitolo 8 403

x1 = a11 v1 + a12 v2 + . . . + a1n vn ,


x2 = a21 v1 + a22 v2 + . . . + a2n vn ,
..
.
xn = an1 v1 + an2 v2 + . . . + ann vn
e la forma n-lineare antisimmetrica:

{z. . . ⇥ V} ! R,
| ⇥V ⇥
':V
n volte
allora:
X
'(x1 , x2 , . . . , xn ) = ✏( )a1 (1) a2 (2) . . . an (n) '(v1 , v2 , . . . , vn ), (8.24)

dove è una permutazione di (1, 2, . . . , n) e ✏( ) il suo segno. Di conseguenza ogni


forma n-lineare antisimmetrica ' sullo spazio vettoriale V è univocamente determinata
dal valore '(v1 , v2 , . . ., vn ).

Vale anche il reciproco del teorema precedente, la cui dimostrazione è di nuovo un lungo
calcolo lasciato per esercizio.

Teorema 8.33 Sia V uno spazio vettoriale di dimensione n e sia B = (v1 , v2 , . . . , vn )


una sua base. Dato un numero reale , esite ed è unica la forma n-lineare antisimmetrica
' su V tale che '(v1 , v2 , . . . , vn ) = .

Se V è uno spazio vettoriale reale di dimensione n con base B = (v1 , v2 , . . . , vn ) si può


enunciare la definizione di determinante in questo modo.

Definizione 8.20 Si dice determinante degli n vettori x1 , x2 , . . . , xn di uno spazio vetto-


riale reale V di dimensione n rispetto alla base B = (v1 , v2 , . . . , vn ) il numero reale
'(x1 , x2 , . . . , xn ) tale che '(v1 , v2 . . . , vn ) = 1.

Esempio 8.28 Se si considera lo spazio ordinario V3 con una base ortonormale positiva
B = (i, j, k), allora il determinante dei tre vettori x, y, z coincide con il loro prodotto
misto:
det(x, y, z) = x ^ y · z, x, y, z 2 V3 ,
in quanto i ^ j · k = 1, per definizione di base ortonormale positiva.
404 Forme Bilineari e Forme Quadratiche

Se si considerano le componenti degli n vettori x1 , x2 , . . . , xn dello spazio vettoriale


reale V rispetto alla base B = (v1 , v2 , . . . , vn ) si ottiene una matrice A = (aij ) di Rn,n ,
i cui vettori riga sono:
x1 = (a11 , . . . , a1n ),
x2 = (a21 , . . . , a2n ),
..
.
xn = (an1 , . . . , ann ),
si dimostra facilmente che la Definizione 8.20 di determinante degli n vettori coincide
con la definizione di determinante della matrice A che è stata enunciata nel Capitolo 2
(cfr. Def. 2.9). Infatti, data una matrice A 2 Rn,n , il det(A) è stato definito come:
X
det(A) = ✏( )a1 (1) a2 (2) . . . an (n) ,

dove è una permutazione di (1, 2, . . . , n) e ✏( ) il suo segno. Se si considerano gli n


vettori riga x1 , x2 , . . . xn della matrice A, si può quindi osservare che:

det(A) = '(x1 , x2 , . . . , xn ),

dove ' è la forma n-lineare antisimmetrica su Rn tale che:

'(e1 , e2 , . . . , en ) = det(I) = 1

con (e1 , e2 , . . . , en ) base canonica di Rn .

Data la Definizione 8.20 si dimostra il teorema di seguito enunciato, già noto dal Capitolo
4, in cui era stato ottenuto come conseguenza della relazione dim(L(x1 , x2 , . . . , xn )) =
dim(R(A)) = rank(A).

Teorema 8.34 Sia V uno spazio vettoriale reale di dimensione n. Dati n vettori di
V, x1 , x2 , . . . , xn , essi sono linearmente indipendenti se e solo se il loro determinante
relativo ad una qualsiasi base B = (e1 , e2 , . . . , en ) di V è diverso da zero.

Dimostrazione Se gli n vettori x1 , x2 , . . . , xn sono linearmente dipendenti, allora si


può provare che il determinante degli n vettori si annulla. Questo fatto vale più in generale
per ogni forma n-lineare antisimmetrica ', infatti, poiché i vettori x1 , x2 , . . . , xn sono
linearmente dipendenti, allora almeno uno di essi, per esempio x1 , è combinazione lineare
degli altri vettori, si ponga:

x1 = ↵2 x2 + . . . + ↵n xn ,
Capitolo 8 405

con ↵i 2 R e quindi:
'(x1 , x2 , . . . , xn ) = ↵2 '(x2 , x2 , . . . , xn ) + . . . + ↵n '(xn , x2 , . . . , xn ) = 0.
È stato cosı̀ dimostrato che, se il determinante degli n vettori x1 , x2 , . . . , xn non si an-
nulla, allora gli n vettori sono linearmente indipendenti. Viceversa, si supponga che
l’insieme {x1 , x2 , . . . , xn } sia libero e che per assurdo il loro determinante sia uguale a
zero. Poiché (x1 , x2 , . . . , xn ) è una base di V, si possono scrivere i vettori della base
B = (e1 , e2 , . . . , en ) di V come combinazioni lineari di x1 , x2 , . . . , xn :
8
> e1 = b11 x1 + b12 x2 + . . . + b1n xn ,
>
>
>
< e2 = b21 x1 + b22 x2 + . . . + b2n xn ,
> ..
>
> .
>
:
en = bn1 x1 + bn2 x2 + . . . + bnn xn .
Per definizione di determinante relativo alla base (e1 , e2 , . . . , en ) si avrebbe:
X
det(e1 , . . . , en ) = 1 = ✏( )b1 (1) . . . bn (n) det(x1 , . . . , xn )

e quindi si ottiene una contraddizione.

Dalla Definizione 8.20 è finalmente possibile dimostrare agevolmente la Formula di Binet


relativa al determinante del prodotto di due matrici (cfr. Teor. 2.16).

Teorema 8.35 Se A, B 2 Rn,n , allora det(AB) = det(A) det(B).

Dimostrazione Sia V uno spazio vettoriale reale di dimensione n con base B =


(e1 , e2 , . . . , en ). Date le matrici A = (aij ) e B = (bij ) di Rn,n , si considerino i vettori
riga della matrice B :
8
>
> v1 = b11 e1 + b12 e2 + . . . + b1n en ,
>
>
< v2 = b21 e1 + b22 e2 + . . . + b2n en ,
> ..
>
> .
>
:
vn = bn1 e1 + bn2 e2 + . . . + bnn en
ed i vettori: 8
>
> u1 = a11 v1 + a12 v2 + . . . + a1n vn ,
>
>
< u2 = a21 v1 + a22 v2 + . . . + a2n vn ,
> ..
>
> .
>
:
un = an1 v1 + an2 v2 + . . . + ann vn ,
406 Forme Bilineari e Forme Quadratiche

che non corrispondono ai vettori riga della matrice A. Sia ' la forma n-lineare alternata
tale che '(e1 , e2 , . . . , en ) = 1. Per definizione di deteminante si ha:

'(v1 , v2 , . . . , vn ) = det(B) '(e1 , e2 , . . . , en ) = det(B),


'(u1 , u2 , . . . , un ) = det(A) '(v1 , v2 , . . . , vn ),

da cui si ottiene:
'(u1 , u2 , . . . , un ) = det(A) det(B).
Se si esprimono i vettori u1 , u2 , . . . , un come combinazioni lineari dei vettori della base
B: n
X
ui = cik ek , i = 1, 2, . . . , n,
k=1

e si ricavano le espressioni dei coefficienti cik in termini di aij e bij , si ha:


n
X
cik = aij bjk , i, k = 1, 2, . . . , n,
j=1

che è esattamente l’elemento di posto ik del prodotto delle due matrici A e B . Quindi
segue:
'(u1 , u2 , . . . , un ) = det(AB)'(e1 , e2 , . . . , en ) = det(AB),
ossia la tesi.
Capitolo 9

Geometria Analitica nel Piano

Scopo della Geometria Analitica è la rappresentazione, tramite equazioni, di luoghi geo-


metrici del piano e dello spazio. In questo capitolo si presenta un rapido riassunto della
geometria analitica del piano, cercando di evidenziarne le caratteristiche salienti mediante
l’uso del calcolo vettoriale, trattato nel Capitolo 3, a cui si farà costante riferimento. Gli
argomenti di seguito esposti fanno parte dei programmi delle scuole secondarie superio-
ri, anche se in quella sede, non sono in generale introdotti con il metodo qui usato. Per
questo motivo, questo capitolo può essere anche omesso nell’insegnamento di un corso
universitario. D’altra parte però l’approccio della geometria analitica nel piano tramite
il calcolo vettoriale sarà fondamentale nello studio della geometria analitica nello spazio
(cfr. Cap. 11). Vengono, inoltre, definiti due tipi di sistemi di riferimento nel piano: il
riferimento cartesiano ed il riferimento polare. Il loro uso sarà di primaria importanza in
questo capitolo ed in quello successivo.

9.1 Il riferimento cartesiano, generalità


Si inizia con l’introduzione del riferimento cartesiano, costituito da due rette perpendico-
lari orientate nel piano affine S2 (cfr. introduzione del Cap. 3). Il loro punto di incontro
O è detto origine del riferimento, la retta orizzontale prende il nome di asse delle ascisse
o asse x, la retta verticale è l’asse delle ordinate o asse y . Si definisce l’orientamento
verso destra sull’asse x e verso l’alto sull’asse y , si rappresentano i numeri reali su en-
trambe le rette e si pone il numero 0 nel punto di intersezione delle due rette. Si viene
cosı̀ a creare una corrispondenza biunivoca tra i punti del piano e le coppie di numeri reali
come rappresentato nella Figura 9.1. La coppia ordinata di numeri reali (x, y) individua
le coordinate cartesiane del punto P e si scrive:

P = (x, y),

407
408 Geometria Analitica nel Piano

y
II I
P

x
O

III IV

Figura 9.1: Riferimento cartesiano

!
Figura 9.2: Componenti del vettore AB
Capitolo 9 409

x è l’ascissa di P e y è l’ordinata di P. Il piano viene diviso in quattro regioni, dette


quadranti, che, per convenzione, sono numerate in senso antiorario, a partire dal semiasse
positivo delle x. Analogamente a quanto visto nel Paragrafo 3.1, se si indica con i il
versore a cui è parallelo l’asse x, concorde con l’orientamento di x, e con j il versore a
!
cui è parallelo l’asse y , concorde con l’orientamento di y , il segmento orientato OP si
può ottenere come:
!
OP = xi + yj. (9.1)
!
Ad ogni punto P del piano affine S2 si associa in modo biunivoco il vettore x = OP
dello spazio vettoriale euclideo di dimensione 2, con base ortonormale positiva B = (i, j),
che verrà indicato con V2 . Di conseguenza, S2 coincide con l’insieme dei vettori di V2 .
Si stabilisce anche una corrispondenza biunivoca tra i punti P del piano e le componenti
(x, y) del vettore x, scritte rispetto alla base ortonormale positiva B = (i, j).
!
Le componenti di un vettore x, con rappresentante il segmento orientato AB, che si può
anche scrivere come B A, si possono ottenere in questo modo:

B A = (B O) (A O) = (xB xA )i + (yB yA )j. (9.2)

Se A o B coincidono con l’origine del riferimento, la relazione (9.2) si riduce a (9.1). La


situazione geometrica è illustrata nella Figura 9.2.
Il riferimento cartesiano sarà indicato con il simbolo R = (O, x, y) o equivalentemente,
con R = (O, i, j), se si intende mettere in evidenza la base ortonormale positiva B = (i, j)
a cui è riferito.

y
B

x
O

Figura 9.3: Distanza tra i punti A e B


410 Geometria Analitica nel Piano

9.1.1 Distanza tra due punti


Dati due punti A = (xA , yA ), B = (xB , yB ) nel piano, la loro distanza d(A, B) si ottiene
con la formula: p
d(A, B) = (xB xA )2 + (yB yA )2 , (9.3)
la cui dimostrazione è una conseguenza evidente del Teorema di Pitagora, la situazione
geometrica è illustrata nella Figura 9.3.
La distanza d(A, B), dal punto di vista del calcolo vettoriale, può essere anche inter-
!
pretata come la norma del vettore AB le cui componenti sono date da (9.2), quindi, la
formula (9.3) segue dal calcolo della norma di un vettore mediante le sue componenti
scritte rispetto ad una base ortonormale (cfr. Oss. 3.14).

Esercizio 9.1 Calcolare le coordinate del punto P appartenente all’asse x ed equidistante


dai punti A = (1, 3), B = (5, 1).

Soluzione Il punto P appartiene all’asse x se ha ordinata uguale a 0, ossia P = (x, 0),


imponendo d(A, P ) = d(B, P ) si ha:
(x 1)2 + 32 = (x 5)2 + 12
da cui segue x = 2.

9.1.2 Punto medio di un segmento


Dati due punti A = (xA , yA ), B = (xB , yB ), il punto medio M del segmento AB è:
✓ ◆
xA + xB yA + yB
M= , .
2 2

Ad esempio il punto medio del segmento di estremi i punti A = (2, 2) e B = (0, 6) è il


punto M = (1, 2).

9.1.3 Baricentro di un triangolo


Dati tre punti A = (xA , yA ), B = (xB , yB ), C = (xC , yC ) non allineati, il baricentro G
del triangolo da essi individuato è:
✓ ◆
xA + xB + xC yA + yB + yC
G= , .
3 3
Questa formula può essere dimostrata con considerazioni geometriche elementari, a par-
tire dalla Figura 9.4 oppure si può ottenere come conseguenza della Definizione 11.1.
Capitolo 9 411

5
C
4

2
A G
1

-1 O 1 2 3 4 5 6 7

-1
B
-2

-3

Figura 9.4: Baricentro del triangolo ABC

9.2 Luoghi geometrici del piano


L’insieme dei punti del piano che verificano una determinata proprietà costituisce un luo-
go geometrico. In questo paragrafo si descrivono due luoghi geometrici del piano: l’asse
di un segmento e la circonferenza. Si rimanda al Capitolo 9 del Volume II, per lo studio
di altri luoghi geometrici del piano.

Esempio 9.1 – Asse di un segmento – Dati due punti distinti nel piano A = (xA , yA ),
B = (xB , yB ), l’asse del segmento AB è il luogo geometrico dei punti P = (x, y)
equidistanti da A e da B . Quindi dalla relazione d(A, P ) = d(B, P ) segue:

(x xA )2 + (y yA )2 = (x xB )2 + (y yB )2 ,

da cui:
2(xA xB )x + 2(yA yB )y + x2B + yB2 x2A yA2 = 0,
che è l’equazione del luogo richiesto. Si osservi che si tratta di un’equazione di primo
grado in x e y e si osservi anche che, dal punto di vista geometrico, l’asse di un segmento
è la retta perpendicolare al segmento nel suo punto medio M, come rappresentato nella
Figura 9.5. Si ritornerà su questo argomento nel Paragrafo 9.9.

Esempio 9.2 – La circonferenza – La circonferenza di centro C e raggio r è il luogo


dei punti P = (x, y) del piano aventi distanza r 0 dal punto C = (↵, ). Imponendo:

d(P, C)2 = r2
412 Geometria Analitica nel Piano

A M B

Figura 9.5: Asse del segmento AB

Figura 9.6: Circonferenza di centro C e raggio r


Capitolo 9 413

si ottiene:
x2 + y 2 2↵x 2 y + ↵2 + 2
r2 = 0.
Si tratta di una particolare equazione di secondo grado in x e y che sarà studiata in
dettaglio nel Paragrafo 10.1.
Ricordando che il gruppo delle matrici unitarie U (1) (cfr. Es. 5.22) è definito da:

U (1) = {z 2 C | |z| = 1}

ed usando l’identificazione tra i numeri complessi ed il punti del piano data da:

z = x + iy = (x, y), z 2 C,

segue che gli elementi di U (1) costituiscono la circonferenza nel piano di centro l’origine
e raggio 1.

Può rivelarsi molto più complicato il problema inverso, vale a dire, data un’equazione in
x e y, studiare il luogo geometrico individuato dai punti P = (x, y) che la verificano. A
tale scopo si procede proponendo una serie di esempi ed esercizi.

Esercizio 9.2 Verificare che la curva di equazione:

y= x2 + x + 3 (9.4)

passa per i punti A = ( 1, 1), B = (2, 1), non passa per O = (0, 0) e nemmeno per
C = (5, 0).

Soluzione Un punto appartiene al luogo geometrico descritto dall’equazione (9.4) se e


solo se le sue coordinate verificano l’equazione stessa. Quindi A appartiene alla curva
data perché 1 1 + 3 = 1, verifica analoga per B . L’origine, invece, non appartiene a
questa curva perché 3 6= 0, analoga verifica per C.

Esercizio 9.3 Come si fa a capire se l’origine del sistema di riferimento appartiene ad un


luogo geometrico?

Soluzione Dalle considerazioni precedenti segue che tutte e sole le equazioni in x, y


con termine noto uguale a zero rappresentano luoghi geometrici passanti per l’origine.
Per esempio x2 + 2x = 0 è una curva passante per O.

Esercizio 9.4 Determinare i punti P = (a, a + 3), a 2 R, appartenenti alla curva di


equazione:
2y 2 9(x + 2) = 0. (9.5)
414 Geometria Analitica nel Piano

Soluzione Sostituendo le coordinate di P nell’equazione (9.5) si ha:

2(a + 3)2 9(a + 2) = 0

da cui segue a = 3/2 o a = 0. Quindi si ottengono i punti:


✓ ◆
3 3
P1 = (0, 3), P2 = , .
2 2

9.3 Riferimento polare


Per rappresentare i punti nel piano si possono usare, oltre alle coordinate cartesiane, altri
tipi di coordinate, tra cui le coordinate polari, la scelta del sistema di riferimento è legata
alla problematica che si sta studiando.
Si intende, quindi, introdurre la nozione di riferimento polare nel piano, che è un sistema
di riferimento alternativo al riferimento cartesiano per individuare la posizione dei punti
nel piano. Esso è costituito da un punto O, detto polo, e da una semiretta orientata
uscente da O, detta asse polare. È chiaro che ogni punto P del piano (ad eccezione del
polo) si può individuare mediante la sua distanza ⇢ = d(P, O) dal polo e mediante la
misura dell’angolo ✓, detto anomalia, che il segmento OP forma con l’asse polare, con
le condizioni ⇢ 0 e 0  ✓ < 2⇡ . Tale distanza ⇢ prende il nome di raggio vettore.
Riassumendo ogni punto del piano, ad eccezione del polo, è individuato da una sola
coppia di numeri:
P = (⇢, ✓), ⇢ 0, 0  ✓ < 2⇡,
che ne costituiscono le sue coordinate polari nel piano. La situazione geometrica è
illustrata nella Figura 9.7.
Per esempiopla circonferenza di centro il polo e raggio 2 ha equazione, in coordinate
polari, ⇢ = 2.

Si vogliono ora individuare le relazioni che legano le coordinate polari e le coordina-


te cartesiane di uno stesso punto rispetto ad un riferimento polare e ad un riferimento
cartesiano opportunamente posizionati. Introducendo, infatti, un sistema di riferimento
cartesiano R = (O, x, y) avente l’origine O coincidente con il polo e l’asse x con l’asse
polare, si perviene, facilmente, alle formule di passaggio dalle coordinate polari (⇢, ✓) a
quelle cartesiane (x, y) di un generico punto P del piano, e precisamente:

x = ⇢ cos ✓
(9.6)
y = ⇢ sin ✓, ⇢ 0, 0  ✓ < 2⇡.

La situazione geometrica è illustrata nella Figura 9.8.


Capitolo 9 415

P
Ρ

Θ
O

Figura 9.7: Coordinate polari nel piano

Ρ
y

Figura 9.8: Coordinate polari e coordinate cartesiane del punto P


416 Geometria Analitica nel Piano

Le limitazioni imposte a ⇢ e a ✓ possono causare inconvenienti nello studio di determinati


fenomeni, dovuti, in particolare, al brusco passaggio di ✓ dal valore più vicino a 2⇡ o a
0. Per evitare questo problema, conviene introdurre le coordinate polari generalizzate
nel modo seguente. Se P è un punto di coordinate polari (⇢, ✓) è chiaro che le coppie
di numeri reali ( ⇢, ✓ + ⇡) e (⇢, ✓ + 2⇡) corrispondono dal punto di vista geometrico,
allo stesso punto P. Si può quindi associare allo stesso punto P un insieme di coordinate
polari tra di loro equivalenti e scrivere:

P = (( 1)k ⇢, ✓ + k⇡), k 2 Z,

che prendono il nome di coordinate polari generalizzate del punto P del piano.

9.4 Traslazione
Un altro metodo che può essere utile nello studio dei luoghi geometrici è quello di scri-
vere l’equazione del luogo in un nuovo sistema di riferimento ottenuto mediante una
traslazione degli assi cartesiani.

y
Y

O' X

O x

Figura 9.9: Traslazione degli assi cartesiani

Nel riferimento R = (O, x, y) si definiscono una nuova origine nel punto O0 = (x0 , y0 )
e i nuovi assi X e Y, passanti per O0 , paralleli e concordi a x e a y . Si ottiene cosı̀ un
nuovo riferimento cartesiano R0 = (O0 , X, Y ) che è traslato rispetto al precedente. Si
vogliono determinare le relazioni che legano le coordinate di un generico punto P del
piano rispetto ai due riferimenti. Sia P = (x, y) nel riferimento R e P = (X, Y ) nel
Capitolo 9 417

riferimento R0 . Dalla Figura 9.9 segue:



x = X + x0
(9.7)
y = Y + y0 ,
oppure: ⇢
X=x x0
Y =y y0 .
Si consideri, per esempio, il punto O0 = (1, 2) e le equazioni della traslazione dal
riferimento R0 al riferimento R:

x=X +1
y = Y + 2,
da cui si deduce che l’asse X, rispetto al riferimento R, ha equazione y = 2 e l’asse Y
ha equazione x = 1.

Si osservi che nel riferimento R = (O, x, y) e nel riferimento traslato R0 = (O0 , X, Y )


la base ortonormale positiva B = (i, j) che li determina non cambia. In altri termini la
traslazione di assi non induce alcun cambiamento di base in V2 .

Esercizio 9.5 Data la curva di equazione:

9x2 + 9y 2 24x 30y 13 = 0, (9.8)

determinare la sua equazione nel riferimento traslato R0 = (O0 , X, Y ), dove:


✓ ◆
0 4 5
O = , .
3 3

Soluzione Le equazioni della traslazione da R0 a R sono:


8
> 4
>
< x=X+
3
>
> 5
: y=Y + ,
3
che sostituite nell’equazione assegnata portano a:

X 2 + Y 2 = 6.

Adesso è chiaro che l’equazione (9.8)


p rappresenta una circonferenza di centro l’origine
O del nuovo riferimento e raggio 6.
0
418 Geometria Analitica nel Piano

Esercizio 9.6 Un punto P ha coordinate ( 2, 3) nel riferimento R = (O, x, y) e coor-


dinate (4, 6) nel riferimento traslato R = (O0 , X, Y ). Determinare le coordinate del
punto O0 rispetto al sistema di riferimento R = (O, x, y).

Soluzione Sostituendo le coordinate di P in (9.7) si ha:



2 = 4 + x0
3 = 6 + y0

da cui segue O0 = ( 6, 9).

Esercizio 9.7 Determinare la traslazione con cui si deve operare sugli assi affinché l’e-
quazione:
y = x2 + 3x 2
si trasformi in:
Y = X 2.

Soluzione Sostituendo (9.7) nella prima equazione si ha:

Y = X 2 + ( 2x0 + 3)X x20 + 3x0 2 y0 ,

da cui segue:

2x0 + 3 = 0
x20 3x0 + 2 + y0 = 0
quindi x0 = 3/2, y0 = 1/4.

Esercizio 9.8 Operando con il metodo del completamento dei quadrati, individuare un’op-
portuna traslazione che permetta di studiare la curva di equazione:

x2 + y 2 + 2x + 3y = 0.

Soluzione Applicando il metodo del completamento dei quadrati (cfr. Esercizio 8.13)
in questo caso, si ha:
✓ ◆
2 2 9 9
(x + 2x + 1) + y + 3y + 1 = 0,
4 4
✓ ◆2
2 3 13
(x + 1) + y + = .
2 4
Capitolo 9 419

Tramite la traslazione: 8
< X =x+1
>

: Y =y+3
>
2
si ottiene, nel nuovo riferimento, l’equazione:
13
X2 + Y 2 =
4
✓ ◆ p
3 13
che quindi rappresenta la circonferenza di centro O0 = 1, e raggio .
2 2

9.5 Simmetrie
Un altro metodo per studiare il grafico di una curva, di cui si conosce l’equazione, è
cercarne le eventuali simmetrie rispetto agli assi coordinati o rispetto all’origine del rife-
rimento.

P' P

Figura 9.10: Curva simmetrica rispetto all’asse delle ordinate

9.5.1 Curva simmetrica rispetto all’asse delle ordinate


Una curva è simmetrica rispetto all’asse y se per ogni punto P = (x, y) appartenente
alla curva anche il punto P 0 = ( x, y) appartiene alla curva. Per esempio la curva di
equazione x2 + y + 5 = 0 è simmetrica rispetto all’asse y mentre la curva di equazione
x2 + x + y + 5 = 0 non lo è. La situazione geometrica è illustrata nella Figura 9.10.
420 Geometria Analitica nel Piano

9.5.2 Curva simmetrica rispetto all’asse delle ascisse

Una curva è simmetrica rispetto all’asse x se per ogni punto P = (x, y) appartenente
alla curva anche il punto P 0 = (x, y) appartiene alla curva. Per esempio la curva di
equazione x + y 2 + 5 = 0 è simmetrica rispetto all’asse x mentre la curva di equazione
x + y + 5 = 0 non lo è. La situazione geometrica è illustrata nella Figura 9.11.

P
x

P'

Figura 9.11: Curva simmetrica rispetto all’asse delle ascisse

9.5.3 Curva simmetrica rispetto all’origine

Una curva è simmetrica rispetto all’origine del riferimento se per ogni punto P = (x, y)
appartenente alla curva anche il punto P 0 = ( x, y) appartiene alla curva. Per esempio
la curva di equazione x2 + y 2 = 5 è simmetrica rispetto all’origine mentre la curva di
equazione x2 + x + y + 5 = 0 non lo è. La situazione geometrica è illustrata nella Figura
9.12.

Esercizio 9.9 Verificare che la curva di equazione x3 + y 3 + 3x 2y = 0 è simmetrica


rispetto all’origine.

Soluzione Si sostituiscono le coordinate del punto P 0 = ( x, y) nell’equazione della


curva e si ha:

( x)3 + ( y)3 + 3( x) 2( y) = (x3 + y 3 + 3x 2y) = 0,

da cui si deduce che la curva assegnata è simmetrica rispetto all’origine.

Più in generale, come spiegato nell’esercizio che segue, si può considerare la simmetria
rispetto ad un punto qualsiasi del piano.
Capitolo 9 421

P'

Figura 9.12: Curva simmetrica rispetto all’origine

Esercizio 9.10 Verificare che la curva di equazione:

4x2 + 9y 2 + 8x + 36y 68 = 0 (9.9)

è simmetrica rispetto al punto C = ( 1, 2).

Figura 9.13: Esercizio 9.10

Soluzione Il problema si risolve traslando la curva nel riferimento R0 = (C, X, Y ) e


poi dimostrando che l’equazione ottenuta è simmetrica rispetto all’origine. Le equazioni
della traslazione sono: ⇢
x=X 1
y=Y 2
e, se sostituite in (9.9), portano a:
422 Geometria Analitica nel Piano

4X 2 + 9Y 2 = 108
che definisce una curva simmetrica rispetto all’origine del riferimento R0 = (C, X, Y ),
si tratta dell’ellisse rappresentato in Figura 9.13.

9.6 Retta nel piano


In questo paragrafo sono descritti metodi diversi per rappresentare una retta nel piano
rispetto ad un riferimento cartesiano R = (O, x, y), o equivalentemente R = (O, i, j).

Una retta r nel piano si può individuare, alternativamente, assegnando:

1. un punto P0 della retta r ed un vettore r non nullo parallelo a r;


2. un punto P0 della retta r ed un vettore n non nullo ortogonale a r;
3. due punti distinti A e B della retta r.

In particolare si dimostrerà che ogni equazione lineare in x e y del tipo ax + by + c = 0,


con a, b, c 2 R, (a, b) 6= (0, 0), rappresenta una retta. Viceversa ogni retta del piano è
rappresentabile tramite un’equazione lineare in x, y del tipo suddetto.

r
P

P0

Figura 9.14: Retta passante per il punto P0 e parallela al vettore r


Capitolo 9 423

9.6.1 Retta per un punto parallela ad un vettore


Sia r la retta passante per il punto P0 parallela ad un vettore r 6= o. Un punto P
!
appartiene alla retta r se e solo se il vettore P0 P è parallelo al vettore r (cfr. Fig. 9.14).
Risulta:
!
r = {P 2 S2 | P0 P = t r, t 2 R},
ossia:

r : P = P0 + t r, t 2 R. (9.10)
La relazione (9.10) è detta equazione vettoriale parametrica di r mentre t 2 R è il
parametro al variare del quale P descrive la retta r.

Siano P0 = (x0 , y0 ) e P = (x, y) i punti P0 e P, le cui coordinate sono espresse rispetto


al riferimento cartesiano R = (O, x, y), siano (l, m) le componenti del vettore r relative
alla base ortonormale positiva B = (i, j) individuata da R. L’equazione (9.10) equivale
a:

x = x0 + lt
(9.11)
y = y0 + mt, t 2 R,
che sono le equazioni parametriche di r, le componenti (l, m) del vettore r prendono il
nome di parametri direttori di r.

Osservazione 9.1 Siano (l, m) i parametri direttori di una retta r, allora:


1. (l, m) 6= (0, 0) e sono individuati a meno di un fattore moltiplicativo. In altri
termini, fissato il punto P0 ogni vettore non nullo parallelo al vettore r individua la
retta r.
2. Se l = 0 (o m = 0) la retta r è parallela all’asse y (o all’asse x).
3. La retta r ammette infinite equazioni parametriche diverse, è sufficiente individuare
r mediante un suo punto qualsiasi e un qualsiasi vettore non nullo ad essa parallelo.
4. I coseni degli angoli che la retta r forma con gli assi coordinati prendono il nome di
coseni direttori della retta r, il loro valore è calcolato mediante il generico vettore
r 6= o parallelo a r ed è dato da:

b = p l b = p m
cos(ri) , cos(rj)
l 2 + m2 l 2 + m2
(cfr. Oss. 3.14). Inoltre, i coseni direttori sono individuati a meno del segno.
424 Geometria Analitica nel Piano

Esercizio 9.11 Determinare le equazioni parametriche della retta r passante per il punto
P0 = ( 1, 3) e parallela al vettore r = 2i 5j e calcolarne i coseni direttori.

Soluzione Le equazioni parametriche di r sono:



x = 1 + 2t
(9.12)
y = 3 5t, t 2 R;
per i coseni direttori si ha:

b = p2 ,
cos(ri) b =
cos(rj)
5
p .
29 29
Si osservi che sostituendo t = 0 in (9.12) si ottiene il punto P0 . Per t = 1 si ottiene il
punto A = (1, 2), pertanto la retta r si può anche rappresentare come:

x = 1 + 4t0
y = 2 10t0 , t0 2 R.
Osservazione 9.2 Se in (9.11) si limita il valore di t ad intervalli della retta reale si
rappresentano i punti di segmenti della retta r. Se, invece, si chiede che t assuma solo
valori reali positivi o nulli si rappresenta una semiretta di origine P0 , si ottiene la semiretta
opposta limitando t a valori reali negativi o nulli.

9.6.2 Retta per un punto ortogonale ad un vettore


Sia r la retta passante per il punto P0 ortogonale ad un vettore n 6= o. Un punto P
!
appartiene alla retta se e solo se il vettore P0 P è ortogonale a n (cfr. Fig. 9.15) Si ha:
!
r = {P 2 S2 | P0 P · n = 0}, (9.13)
! !
dove P0 P · n indica il prodotto scalare tra i vettori P0 P e n (cfr. Oss. 3.14).

Siano P0 = (x0 , y0 ), P = (x, y) i punti P0 e P, siano (a, b) le componenti del vettore


n rispetto alla base ortonormale positiva B = (i, j) individuata dal riferimento cartesiano
considerato, l’equazione (9.13) equivale a:
a(x x0 ) + b(y y0 ) = 0. (9.14)
Ponendo il termine noto ax0 by0 = c, segue che l’equazione richiesta è:
ax + by + c = 0 (9.15)
che è detta equazione cartesiana di r, dove (a, b) 6= (0, 0) sono le componenti di un qual-
siasi vettore non nullo ortogonale a r e sono date a meno di una costante di proporzionalità
non nulla.
Capitolo 9 425

P0

Figura 9.15: Retta passante per il punto P0 e ortogonale al vettore n

Osservazione 9.3 I parametri direttori (l, m) della retta r e le componenti (a, b) di un


vettore ortogonale alla retta sono legati dalla relazione:
al + bm = 0
che esprime l’annullarsi del prodotto scalare tra i vettori r, parallelo alla retta, e n
ortogonale alla retta. In altri termini:

a = ⇢m
b = ⇢l, ⇢2R {0}.

Il teorema che segue caratterizza tutte le rette del piano tramite equazioni lineari in x, y .

Teorema 9.1 Ogni equazione lineare in x, y del tipo (9.15), , con (a, b) 6= (0, 0),
rappresenta una retta ed è individuata a meno di un fattore moltiplicativo non nullo.

Dimostrazione Si è già dimostrato che una retta nel piano può essere rappresentata
mediante un’equazione lineare in x, y . Viceversa, considerata l’equazione lineare (9.15),
se (a, b) 6= (0, 0) esiste almeno un punto P0 = (x0 , y0 ) del piano le cui coordinate la
verificano, ossia c = ax0 + by0 . Sostituendo in (9.15) si ha:
a(x x0 ) + b(y y0 ) = 0. (9.16)
426 Geometria Analitica nel Piano

L’equazione (9.16) coincide con (9.14) e, quindi, rappresenta la retta passante per il punto
P0 ortogonale al vettore ai + bj. Inoltre, per ⇢ 6= 0, le due equazioni (9.15) e:

⇢(ax + by + c) = 0

rappresentano la stessa retta.

Esercizio 9.12 Scrivere l’equazione cartesiana della retta ottenuta nell’Esercizio 9.11.

Soluzione Dalle equazioni parametriche di r si ottiene:

x+1 y 3
=
2 5
da cui:
5x + 2y 1 = 0.

Esercizio 9.13 Data la retta r di equazione 2x 7y + 5 = 0, determinare un vettore


parallelo a r ed un vettore ad essa ortogonale.

Soluzione I vettori richiesti sono ad esempio, rispettivamente, r = 7i + 2j, n =


4i 14j, ma ogni altro vettore ad essi parallelo (ad eccezione del vettore nullo) risolve
l’esercizio.

9.6.3 Retta per due punti distinti


Dati due punti distinti A = (xA , yA ), B = (xB , yB ) nel piano, la retta r passante per A
!
e B è parallela al vettore AB (cfr. Fig. 9.16) e ha equazioni parametriche:
(
x = xA + (xB xA )t
y = yA + (yB yA )t, t 2 R.

Se xB xA 6= 0 e yB yA 6= 0, ricavando il parametro t per esempio dalla prima


equazione e sostituendo il valore trovato nella seconda si ha:
x xA y yA
= . (9.17)
xB xA yB yA
L’equazione (9.17) cosı̀ ottenuta è l’equazione cartesiana della retta passante per i punti A
e B . Se xB xA = 0, i punti A e B hanno la stessa ascissa e quindi la retta ha equazione
cartesiana x xA = 0. Analogamente se yB yA = 0, la retta ha equazione cartesiana
y yA = 0.
Capitolo 9 427

Figura 9.16: Retta passante per i punti A e B

Esercizio 9.14 È ben noto che due punti distinti individuano una sola retta. Perché
nell’equazione ax + by + c = 0 ci sono tre coefficienti a, b, c?

Osservazione 9.4 L’equazione (9.17) della retta r passante per due punti distinti A e B
si può scrivere nella forma:
x y 1
xA yA 1 = 0,
xB yB 1
quest’espressione è valida anche nel caso in cui xB xA = 0 o yB yA = 0. Si lascia la
dimostrazione al Lettore per esercizio.

Esercizio 9.15 Scrivere le equazioni parametriche e cartesiana della retta passante per i
punti A = ( 1, 2), B = (4, 5).

Soluzione Le equazioni richieste sono, rispettivamente:



x = 1 + 5t
(9.18)
y = 2 7t, t 2 R
e:
7x + 5y 3 = 0.
Si osservi che se in (9.18) si limita t all’intervallo chiuso [0, 1] si descrivono tutti e soli i
punti del segmento AB , estremi compresi.
428 Geometria Analitica nel Piano

9.6.4 Rette particolari


Dal paragrafo precedente appare chiaro che tutti e soli i punti appartenenti all’asse x sono
caratterizzati dall’avere ordinata nulla, quindi l’asse x ha equazione cartesiana y = 0. La
stessa equazione si ottiene se si considera che l’asse x è una retta, passante per l’origine,
parallela al versore i e perpendicolare al versore j. Analoga considerazione vale per l’asse
y che ha equazione x = 0.

Di conseguenza, ogni retta parallela all’asse x (e quindi al versore i) ha equazione carte-


siana:
y = k,
con k 2 R fissato, ed equazioni parametriche:

x = t,
y = k, t 2 R,
cioè x varia in R e y rimane costante.

Ogni retta parallela all’asse y ha equazione cartesiana:


x = h,
con h 2 R fissato, ed equazioni parametriche:

x=h
y = t, t 2 R.

La bisettrice del primo e terzo quadrante passa per i punti P = (x, x) che hanno ascissa
uguale all’ordinata, quindi ha equazione:
y = x.
Infatti, questa retta è parallela al vettore r = i+j. Analogamente, la bisettrice del secondo
e quarto quadrante passa per i punti P = (x, x), quindi ha equazione:
y= x
ed è parallela al vettore r = i j.

9.6.5 Il coefficiente angolare ed il suo legame con a, b, c


Sia r una retta non parallela all’asse delle ordinate:
r : ax + by + c = 0
Capitolo 9 429

A Α

Figura 9.17: Il significato geometrico di p = tan ↵ e di q

e, quindi, tale che b 6= 0. Allora l’equazione cartesiana di r si può scrivere anche nella
forma
y = px + q, (9.19)
dove:
a c
p= , q= . (9.20)
b b
Il numero p prende il nome di coefficiente angolare di r, tale denominazione è motivata
dalle seguenti considerazioni geometriche. Si consideri una generica retta passante per
l’origine e per i punti A = (xA , yA ), B = (xB , yB ). Se ↵ è l’angolo che la retta data
forma con l’asse x è chiaro che:
yA yB
= = tan ↵.
xA xB
Le coordinate (x, y) del generico punto P 6= O appartenente alla retta r verificano la
stessa relazione, ossia:
y yA yB
= = = tan ↵.
x xA xB
D’altra parte, una generica retta passante per l’origine ha equazione:

y = px, p 2 R,
430 Geometria Analitica nel Piano

dove p è il coefficiente angolare della retta. Si ha quindi:

p = tan ↵,

dove ↵ è l’angolo che la retta forma con l’asse x. Si osservi che l’equazione y = px
rappresenta, al variare di p 2 R, tutte le rette passanti per l’origine, tranne l’asse y .

Per capire meglio il significato geometrico del numero q dato da (9.20) si consideri l’inter-
sezione della retta di equazione y = px+q con l’asse y , si ottiene cosı̀ il punto A = (0, q)
quindi q esprime la lunghezza (con segno) del segmento che la retta stacca sull’asse y , a
partire dall’origine. La situazione geometrica è illustrata nella Figura 9.17.

9.7 Parallelismo, ortogonalità, angoli e distanze


Il calcolo vettoriale risulta essere un strumento molto utile per studiare le questioni re-
lative ad angoli tra rette, quindi in particolare il parallelismo e l’ortogonalità, trattate in
questo paragrafo.

9.7.1 Condizione di parallelismo tra rette


Due rette:
r : ax + by + c = 0, r 0 : a0 x + b 0 y + c 0 = 0
sono parallele se e solo se i vettori n = ai + bj e n0 = a0 i + b0 j ad esse ortogonali sono
tra loro paralleli, cioè se e solo se le loro componenti sono in proporzione, ossia:

ab0 a0 b = 0. (9.21)

Equivalentemente se r = li+mj e r0 = l0 i+m0 j indicano i vettori paralleli rispettivamente


a r e r0 , le due rette sono parallele se e solo se i due vettori r e r0 sono paralleli, cioè se
e solo se:
lm0 l0 m = 0.
In termini del loro coefficiente angolare, due rette non parallele all’asse y :

r : y = px + q, r 0 : y = p0 x + q 0

sono parallele se e solo se:


p = p0 ,
ossia se i loro coefficienti angolari coincidono.
Capitolo 9 431

9.7.2 Condizione di perpendicolarità tra rette


Due rette:
r : ax + by + c = 0, r 0 : a0 x + b 0 y + c 0 = 0
sono perpendicolari se e solo se i vettori n = ai + bj e n0 = a0 i + b0 j ad esse ortogonali
sono tra loro ortogonali, cioè se e solo se il loro prodotto scalare è nullo, ossia:

aa0 + bb0 = 0.

Equivalentemente, se r = li + mj e r0 = l0 i + m0 j indicano due vettori paralleli rispet-


tivamente a r e r0 , le due rette sono perpendicolari se e solo se i due vettori r e r0 sono
ortogonali, cioè se e solo se:
ll0 + mm0 = 0.
In termini del loro coefficiente angolare, due rette non parallele all’asse y :

r : y = px + q, r 0 : y = p0 x + q 0
sono perpendicolari se e solo se:
pp0 = 1,
infatti: ⇣ ⇡⌘
pp0 = tan ↵ tan ↵0 = tan ↵ tan ↵ + = 1,
2
dove ↵ e ↵0 indicano, rispettivamente, gli angoli che le rette r e r0 formano con l’asse
delle ascisse.

Esercizio 9.16 Condurre dal punto A = (3/4, 2) la retta r parallela all’asse y e dal
punto B = (2/5, 4/3) la retta s parallela all’asse x. Detto C il loro punto di intersezione,
determinare la lunghezza del segmento OC .

Soluzione Le rette richieste sono:


3 4
r: x= , s: y= ,
4 3
quindi C = (3/4, 4/3) da cui segue:
r p
9 16 337
d(O, C) = + = .
16 9 12

Esercizio 9.17 Determinare l’equazione della retta passante per A = (2, 3) e perpen-
dicolare alla retta di equazione y = 2x 1.
432 Geometria Analitica nel Piano

Soluzione La retta richiesta ha equazione y = px + q con 2p = 1, quindi p = 1/2.


Imponendo il passaggio per A segue q = 2.

Esercizio 9.18 Data la famiglia di rette:

F : ( 2 + a)x + (1 2a)y + 1 = 0, a 2 R, (9.22)


determinare, in ciascuno dei casi seguenti, una retta di F in modo che:

1. passi per A = (2, 0);

2. sia parallela alla retta di equazione y = 2x 1;

3. sia perpendicolare alla retta di equazione 3x y + 1 = 0;

4. sia parallela alla bisettrice del primo e terzo quadrante;

5. formi un angolo acuto con l’asse x (nel verso positivo).

Soluzione 1. Sostituendo in (9.22) le coordinate di A si ha a = 3/2.

2. Da (9.22) segue che il coefficiente angolare è:


2 a 1
, a 6= ,
1 2a 2
imponendo che tale numero coincida con 2 segue a = 0.

3. Si deve imporre che: ✓ ◆


2 a
3 = 1.
1 2a

4. Si deve imporre il parallelismo con la retta y = x, ossia:


2 a
= 1.
1 2a

5. Si deve imporre che:


2 a
> 0.
1 2a

Esercizio 9.19 Svolgere il precedente esercizio usando le nozioni di calcolo vettoriale.


Capitolo 9 433

9.7.3 Angolo tra due rette


Siano:
r : ax + by + c = 0, r 0 : a0 x + b 0 y + c 0 = 0

due rette nel piano. L’angolo (r, [ r0 ) tra le due rette coincide con l’angolo formato da
due vettori ad esse ortogonali. Da osservare quindi che se ↵ è l’angolo tra i due vettori
n = (a, b), n0 = (a0 , b0 ), le due rette formano anche l’angolo ⇡ ↵, in quanto i due
vettori ortogonali alle due rette possono avere qualsiasi verso. Pertanto il valore di uno
dei due angoli tra le due rette r e r0 è determinato da:

[ n · n0 aa0 + bb0
cos (r, r0 ) = = p p .
knk kn0 k a2 + b2 a02 + b02
Valgono analoghe considerazioni se le due rette sono date in forma parametrica:
⇢ ⇢
x = x0 + lt 0 x = x00 + l0 t0
r: r :
y = y0 + mt, t 2 R, y = y00 + m0 t0 , t0 2 R,
e considerando i due vettori r = (l, m) e r0 = (l0 , m0 ) ad esse paralleli si ha:

[ r · r0 ll0 + mm0
cos (r, r0 ) = = p p .
krk kr0 k l2 + m2 (l0 )2 + (m0 )2

9.7.4 Posizione reciproca di due rette nel piano


Dalla geometria euclidea segue che due rette nel piano possono essere:

1. parallele e coincidenti;

2. parallele e distinte;

3. incidenti.

Dal punto di vista algebrico si risolve il problema della determinazione della posizione
reciproca di due rette r e r0 studiando le soluzioni del sistema lineare di due equazioni in
due incognite: ⇢
ax + by + c = 0
(9.23)
a0 x + b0 y + c0 = 0,
dato dalle equazioni delle due rette:

r : ax + by + c = 0, r0 : a0 x + b0 y + c0 = 0.
434 Geometria Analitica nel Piano

Dal metodo di riduzione di Gauss, applicato alla matrice A dei coefficienti e alla matrice
(A | B) completa del sistema lineare (9.23), segue:
✓ ◆ ✓ ◆
a b c ! a b c
(A | B) = .
a0 b 0 c0 R2 ! aR2 a0 R1 0 ab0 a0 b ac0 + a0 c

Si distinguono cosı̀ i due casi:

1. rank(A) = 1, cioè a0 b ab0 = 0 (cfr. (9.21)), ossia se a0 6= 0, b0 6= 0:

a b
= ,
a0 b0
vale a dire i vettori n e n0 ortogonali alle due rette sono paralleli che è la condizione
di parallelismo tra le due rette. Si presentano due possibilità:

a. rank(A | B) = 1 cioè ac0 a0 c = 0, ossia se a0 6= 0, c0 6= 0:


a c
0
= 0,
a c
il sistema lineare ammette infinite soluzioni che dipendono da un’incogni-
ta libera, ma le condizioni poste equivalgono a richiedere che le due rette
siano coincidenti (i coefficienti delle loro equazioni sono ordinatamente in
proporzione).
b. rank(A | B) = 2 cioè ac0 a0 c 6= 0, ossia (a/a0 ) 6= (c/c0 ); il sistema lineare
è incompatibile. Le condizioni imposte equivalgono pertanto a richiedere che
le due rette siano parallele ma non coincidenti.

2. rank(A) = 2 cioè a0 b ab0 6= 0, vale a dire i vettori n e n0 non sono paralleli, il si-
stema lineare ammette una sola soluzione. La condizione imposta equivale a richie-
dere che le due rette non siano parallele, quindi sono incidenti, e, di conseguenza,
si intersecano in un solo punto.

In modo equivalente a quanto descritto, anziché studiare il sistema lineare (9.23), per indi-
viduare la posizione reciproca delle rette r e r0 si può considerare la posizione reciproca
dei due vettori n = (a, b) ortogonale ad r e n0 = (a0 , b0 ) ortogonale a r0 . Si presentano i
seguenti casi:

1. n e n0 sono paralleli (vale a dire hanno le componenti ordinatamente in proporzio-


ne), quindi le due rette sono parallele. Si consideri un punto P0 = (x0 , y0 ) di r, se
P0 appartiene anche alla retta r0 (in formule a0 x0 + b0 y0 + c0 = 0) allora r e r0 sono
coincidenti, altrimenti sono parallele e distinte.
Capitolo 9 435

2. n e n0 non sono paralleli, allora le due rette sono incidenti. Per determinare il loro
punto di intersezione si deve risolvere il sistema lineare (9.23) per esempio usando
il Teorema di Cramer (cfr. Teor. 2.20).
Esercizio 9.20 Discutere, al variare di k 2 R, la posizione reciproca delle rette:
r : (2k 1)x + y 3k = 0, r0 : 3kx 2y + k 1 = 0.
Soluzione Si tratta di studiare le soluzioni del sistema lineare di due equazioni in due
incognite: ⇢
(2k 1)x + y 3k = 0
3kx 2y + k 1=0
al variare di k 2 R. Procedendo con il metodo di riduzione di Gauss si ha:
✓ ◆ ✓ ◆
2k 1 1 3k ! 2k 1 1 3k
.
3k 2 k+1 R2 ! R2 + 2R1 7k 2 0 5k+1
Si distinguono cosı̀ due casi:
1. se k 6= 2/7 esiste una sola soluzione, quindi le due rette sono incidenti.
2. Se k = 2/7 le rette sono parallele ma mai coincidenti in quanto 5k + 1 6= 0.
Esercizio 9.21 Date le rette:
r1 : 4x + y 8 = 0, r2 : 3x 2y + 2 = 0
e il punto P = (2, 1), determinare:
1. la retta passante per P e parallela a r1 ;
2. la retta passante per il punto di intersezione di r1 e r2 e perpendicolare a r2 .
Soluzione 1. Tutte e solo le rette parallele a r1 hanno equazione del tipo 4x+y+c = 0,
al variare di c 2 R. Imponendo il passaggio per il punto P si ricava c = 9.
2. Il sistema lineare:

4x + y 8 = 0
3x 2y + 2 = 0
ha soluzione (14/11, 32/11) che rappresenta le coordinate del punto di intersezione
di r1 e r2 . La retta richiesta ha equazione:
✓ ◆
32 14
y =p x
11 11
con (3/2)p = 1.
436 Geometria Analitica nel Piano

9.7.5 Distanza di un punto da una retta

P0

P1

Figura 9.18: Distanza del punto P0 dalla retta r

Dati una retta r : ax + by + c = 0 e un punto P0 = (x0 , y0 ), si vuole determinare, in


questo paragrafo, la distanza d(P0 , r) di P0 dalla retta r.

Per questo scopo, è sufficiente scrivere l’equazione della retta r0 passante per P0 e per-
pendicolare ad r e calcolare la distanza d(P0 , H) dove H è il punto di intersezione tra r0
ed r. Si osservi che se P0 appartiene alla retta r si ottiene d(P0 , r) = 0, in quanto P0
coincide con H (cfr. Fig. 9.18).

Si risolve ora lo stesso problema applicando nozioni di calcolo vettoriale. Dati un generico
punto P1 = (x1 , y1 ) di r, quindi ax1 + by1 + c = 0, e un vettore n = (a, b) ortogonale
ad r, dal significato geometrico del prodotto scalare di due vettori (cfr. Teor. 3.10) segue:
!
P1 P0 · n
d(P0 , r) = . (9.24)
knk
Si osservi che il valore d(P0 , r) cosı̀ determinato esprime la distanza con segno del punto
P0 dalla retta r. Il segno è positivo se P0 si trova nello stesso semipiano in cui punta il
verso del vettore n, altrimenti il segno è negativo.

In coordinate, la formula (9.24) diventa:


Capitolo 9 437

p
1. a denominatore: knk = a2 + b 2 ;

2. a numeratore:
!
P1 P0 · n = a(x0 x1 ) + b(y0 y1 ) = ax0 + by0 ax1 by1 = ax0 + by0 + c.

Riassumendo si ottiene:
ax0 + by0 + c
d(P0 , r) = p . (9.25)
a2 + b2
Il numeratore di (9.25) si annulla se e solo se P0 appartiene alla retta r e, quindi, se e
solo se d(P0 , r) = 0, inoltre il numeratore di (9.25) assume lo stesso segno per tutti e soli
i punti appartenenti allo stesso semipiano di origine la retta r.

Esempio 9.3 Data la retta r : 3x + 2y + 5 = 0, i punti del piano sono esattamente divisi
in tre parti cosı̀ caratterizzate:

1. i punti P = (x, y) tali che 3x + 2y + 5 = 0, vale a dire i punti della retta r;

2. i punti P = (x, y) tali che 3x + 2y + 5 > 0, vale a dire i punti di un semipiano di


origine r;

3. i punti P = (x, y) tali che 3x + 2y + 5 < 0, vale a dire i punti del semipiano di
origine r, opposto al precedente.

Esercizio 9.22 Calcolare la distanza del punto P = (1, 2) dalla retta r : 2x y + 5 = 0.

Soluzione Dalla formula (9.25) si ha:


2 2+5 p
d(P, r) = p = 5.
4+1

9.8 Fasci di rette


In geometria euclidea si definiscono due tipi di fasci di rette:

1. il fascio improprio di rette formato da tutte le rette parallele ad una retta assegnata;
la situazione geometrica è illustrata nella Figura 9.19;

2. il fascio proprio di rette formato da tutte le rette passanti per un punto, detto centro
del fascio; la situazione geometrica è illustrata nella Figura 9.20.
438 Geometria Analitica nel Piano

Dall’equazione (9.19) si ha che una semplice rappresentazione di un fascio improprio di


rette è:
y = px + q

con p fissato e q che assume ogni valore in R. Il fascio di rette parallele all’asse y invece
è rappresentato da:

x = k, k 2 R.

Per esempio y = 3x + q , per ogni q reale, individua tutte e sole le rette del piano parallele
alla retta y = 3x.

10

-10 -5 5 10

-5

-10

Figura 9.19: Fascio improprio di rette

Siano:
r : ax + by + c = 0, r0 : a0 x + b0 y + c0 = 0
due rette incidenti nel punto P0 = (x0 , y0 ). Il fascio proprio di rette di centro P0 è dato
dalla combinazione lineare:

F: (ax + by + c) + µ(a0 x + b0 y + c0 ) = 0, , µ 2 R, ( , µ) 6= (0, 0). (9.26)

Per dimostrare questa affermazione si procede attraverso considerazioni successive:

1. l’equazione (9.26) è lineare in x, y , pertanto rappresenta una retta al variare di


, µ 2 R.
Capitolo 9 439

2. Le rette r ed r0 fanno parte della famiglia F di rette individuata da (9.26), per


µ = 0 si ottiene la retta r e per = 0 la retta r0 .

3. I parametri e µ sono omogenei, nel senso che è sufficiente assegnare il loro


rapporto per individuare la stessa retta, per esempio le coppie = 1, µ = 2 e
= 2, µ = 4 (insieme con le infinite altre coppie di numeri non nulli, proporzionali
rispettivamente a e a µ) danno luogo alla stessa retta.

4. Il punto P0 appartiene a tutte le rette descritte da (9.26), infatti le sue coordinate


(x0 , y0 ) verificano sia l’equazione di r sia l’equazione di r0 e, di conseguenza,
verificano (9.26).

5. L’equazione (9.26) individua tutte le rette del piano passanti per P0 . Sia, infatti,
P1 = (x1 , y1 ) un punto del piano diverso da P0 , sostituendo le sue coordinate in
(9.26) si perviene ad un’equazione del tipo ↵ + µ = 0, dove ↵ = ax1 + by1 + c e
= a0 x1 + b0 y1 + c0 , da cui si ricava, per esempio, = , µ = ↵ che sostituiti in
(9.26) danno luogo all’equazione della retta passante per i punti P0 e P1 . Si osservi
che se P1 non appartiene né ad r né ad r0 allora ↵ e sono entrambi diversi da
zero.

Osservazione 9.5 Un fascio di rette riempie il piano nel senso che dato un punto generico
P1 = (x1 , y1 ) del piano è possibile individuare un elemento del fascio passante per P1 ,
infatti è sufficiente sostituire le coordinate di P1 nell’equazione (9.26) e calcolare i valori
dei parametri e µ.

Esercizio 9.23 Dato il fascio proprio di rette:

(x 2y 2) + µ(x + y) = 0, , µ 2 R, ( , µ) 6= (0, 0), (9.27)

individuare:

1. il centro del fascio;

2. la retta del fascio passante per il punto A = (0, 7);

3. la retta del fascio perpendicolare alla retta di equazione x + y + 1 = 0.

Soluzione 1. Il centro del fascio è il punto C intersezione delle rette di equazione


x 2y 2 = 0 e x + y = 0, si ottiene C = (2/3, 2/3).

2. Nell’equazione (9.27) si impone il passaggio per A, ottenendo 12 7µ = 0, da


cui si ha, per esempio = 7, µ = 12 che sostituiti in (9.27) portano alla retta di
equazione 19x 2y 14 = 0.
440 Geometria Analitica nel Piano

C
-6 -4 -2 2 4 6

-2

-4

-6
A

-8

Figura 9.20: Fascio proprio di rette. Esercizio 9.23

3. Il coefficiente angolare della generica retta del fascio è:


p=
2 µ

(si osservi che per 2 µ = 0, ossia per = 1, µ = 2 si ha la retta 3x 2 = 0


parallela all’asse y ). Imponendo la perpendicolarità alla retta x + y + 1 = 0 si ha:


=1
2 µ

da cui = 2, µ = 1 che portano alla retta del fascio di equazione 3x 3y 4 = 0.

9.9 Esercizi di riepilogo svolti


Esercizio 9.24 Calcolare l’equazione dell’asse del segmento di estremi i punti:

A = ( 3, 5), B = (2, 3).

Soluzione Il procedimento da usare è già stato spiegato nel Paragrafo 9.2, in alternativa
si può determinare l’equazione della retta perpendicolare al segmento AB nel suo punto
medio M dato da: ✓ ◆ ✓ ◆
3+2 5 3 1
M= , = ,1 .
2 2 2
Capitolo 9 441

La retta passante per A e B ha equazione:

x+3 y 5
= ,
2+3 3 5

ossia 8x + 5y 1 = 0, quindi è perpendicolare al vettore n = (8, 5). Di conseguenza, le


equazioni parametriche dell’asse del segmento AB sono:
8
> 1
< x= + 8t
2
>
:
y = 1 + 5t, t 2 R,

e la sua equazione cartesiana è 10x 16y + 21 = 0.

Esercizio 9.25 Date le rette:

r : 3x + 4y + 2 = 0, s : 7x 24y 6=0

determinare le equazioni delle rette b1 e b2 bisettrici degli angoli da esse individuati.

Soluzione Le bisettrici di due rette r e s sono il luogo dei punti P = (x, y) equidistanti
dalle due rette, ossia tali che d(P, r) = d(P, s). Da (9.25) segue:

3x + 4y + 2 7x 24y 6
p =± p ,
9 + 16 49 + 576
da cui si ottengono le rette:

b1 : 2x + 11y + 4 = 0, b2 : 11x 2y + 2 = 0.

In alternativa si possono ottenere le equazioni delle due bisettrici come le rette passanti
per il punto di intersezione delle due rette date e parallele ai vettori bisettori dei vettori r
e s rispettivamente paralleli alle rette r e s. Si ha r = (4, 3), s = (24, 7) e i due vettori
bisettori degli angoli formati da r e da s sono:
✓ ◆ ✓ ◆ ✓ ◆
4 3 24 7 44 8
vers r + vers s = , + , = , ,
5 5 25 25 25 25
✓ ◆ ✓ ◆ ✓ ◆
4 3 24 7 4 22
vers r vers s = , , = , .
5 5 25 25 25 25
442 Geometria Analitica nel Piano

Il punto di intersezione delle rette r e s è la soluzione del sistema lineare delle loro
equazioni cartesiane ed è ( 6/25, 8/25), di conseguenza le equazioni parametriche
delle due bisettici sono:
8 8
>
> 6 >
> 6 0
< x = 25 + 11t
> < x = 25 2t
>
b1 : b2 :
>
> 8 >
> 8
>
: y= 2t, t 2 R, >
: y= 11t0 , t0 2 R.
25 25

Esercizio 9.26 Date le due rette:

r : x + 2y + 2 = 0, s: x y 3 = 0,

determinare l’equazione della retta t simmetrica di r rispetto ad s.

A M' s

M''
t

Figura 9.21: Esercizio 9.26

Soluzione Il punto di intersezione di r ed s è A = (4/3, 5/3). Sia M = (0, 1) un


punto di r diverso da A. La retta per M perpendicolare a s che ha equazione x+y+1 = 0
incontra la retta s nel punto M 0 = (1, 2). Il simmetrico M 00 di M rispetto a M 0,
che ha coordinate (2, 3) essendo M 0 il punto medio del segmento di estremi M, M 00 ,
appartiene alla retta t. La retta t è, quindi, la retta passante per A e per M 00 e ha equazione
2x + y 1 = 0. La situazione geometrica è illustrata nella Figura 9.21.
Capitolo 9 443

9.10 Per saperne di più


9.10.1 Rette immaginarie
Anche in geometria analitica, vengono considerati enti “immaginari”, d’altra parte la
geometria analitica non fa altro che tradurre in algebra enti e relazioni geometriche.
I punti immaginari (o complessi) del piano sono caratterizzati dall’avere rispetto ad un
riferimento cartesiano (reale) R = (O, x, y) almeno una coordinata complessa, mentre i
punti che sono stati trattati finora in tutto questo capitolo sono detti reali se hanno entram-
be le coordinate x e y reali. Ovviamente rispetto al riferimento cartesiano R si possono
visualizzare nel piano solo i punti reali.
Analogamente al caso reale, le rette immaginarie sono rappresentate rispetto ad un riferi-
mento cartesiano (reale) R = (O, x, y) da equazioni lineari:

ax + by + c = 0, (a, b) 6= (0, 0),

a coefficienti complessi, come ad esempio la retta di equazione:

y= 2i x + 1.

Se la terna (a, b, c) è proporzionale (con coefficiente di proporzionalità complesso non


nullo) ad una terna di numeri reali allora r è detta retta reale e si ha la retta usuale,
introdotta nel Paragrafo 9.6.
Data una retta immaginaria:
r : ax + by + c = 0,
con a, b, c 2 C, (a, b) 6= (0, 0), ha pertanto senso introdurre la nozione di retta ad essa
coniugata:
r : ax + by + c = 0,
dove a, b, c indicano, rispettivamente, i complessi coniugati di a, b, c. Pertanto due rette
si dicono coniugate se i coefficienti dell’una sono i complessi coniugati dei coefficienti
dell’altra.

Esempio 9.4 La retta immaginaria di equazione y = 2i x + 1 ha come coniugata la


retta di equazione:
y = 2i x + 1.

Anche per le rette immaginarie, come per le rette reali considerate in questo capitolo, si
possono introdurre le nozioni di parallelismo e di incidenza.

Le rette reali sono caratterizzate dalla seguente proprietà.


444 Geometria Analitica nel Piano

Teorema 9.2 Una retta r è reale se e solo se coincide con la propria coniugata r.

Dimostrazione Si supponga che la retta r abbia equazione ax + by + c = 0, con


a, b, c 2 C. Si vuole dimostrare che la terna (a, b, c) è proporzionale (con coefficiente di
proporzionalità complesso non nullo) ad una terna di numeri reali se e solo se r = r. Le
due rette r e r coincidono se e solo se:
✓ ◆
a b c
rank = 1.
a b c

Osservando che:
✓ ◆ ✓ ◆
a b c a+a b+b c+c
rank = rank
a b c a a b b c c
✓ ◆
Re(a) Re(b) Re(c)
= rank ,
Im(a) Im(b) Im(c)

dove con Re(a) si indica la parte reale di a e con Im(a) si indica la parte immaginaria di
a, si ha la tesi.

Osservazione 9.6 Ogni retta reale ha infiniti punti reali, ma contiene anche infiniti punti
immaginari. Inoltre, se P = (x0 , y0 ) è un punto non reale, ovvero P 6= P , dove con P
di indica il punto coniugato di P avente coordinate (x0 , y 0 ), la retta passante per P e P
è necessariamente reale.

Esempio 9.5 La retta passante per P = ( 1+i, 1+2i) e per P = ( 1 i, 1 2i) ha


equazione 2x y + 1 = 0. Si osservi che la retta precedente contiene i punti immaginari:

( 1 + i, 1 + 2 i),

al variare di 2R {0}.

Esercizio 9.27 Verificare che l’equazione x2 + y 2 = 0 rappresenta una coppia di rette


immaginarie coniugate.

Soluzione Si ha:
x2 + y 2 = (x + iy)(x iy) = 0,
pertanto x2 + y 2 = 0 rappresenta la coppia di rette immaginarie coniugate x = ±iy . Si
osservi che l’intersezione reale delle due rette immaginarie è costituita dalla sola origine.

Dal Teorema 9.2 si deduce la seguente proprietà.


Capitolo 9 445

Teorema 9.3 Una retta immaginaria (o non reale) possiede al più solo un punto reale.

Dimostrazione Se una retta r : ax + by + c = 0 è immaginaria e quindi non è reale,


allora o le due rette r e r sono parallele non coincidenti, ossia non si intersecano in alcun
punto, oppure si intersecano in un solo punto, che deve essere reale. Infatti il punto P
intersezione di r e di r coincide con il punto P intersezione di r e r. Sia nel caso in cui
r e r siano parallele sia nel nel caso in cui non lo siano si ha:
✓ ◆
a b c
rank = 2,
a b c
ma nel primo caso:
✓ ◆
a b
rank = 1,
a b
da cui segue che le due rette r e r non si intersecano quindi sono prive di punti reali e
la coppia (a, b) è proporzionale (con coefficiente di proporzionalità complesso non nullo)
ad una coppia di numeri reali. Nel secondo caso:
✓ ◆
a b
rank =2
a b
e le due rette si intersecano in un solo punto.

Esercizio 9.28 Si considerino le rette:


r1 : 3(2i 1)x + (2 4i)y 2i + 1 = 0,
r2 : x + iy 3 = 0,
r3 : x + y i = 0.

1. Verificare che la retta r1 è reale.

2. Verificare che la retta r2 non è reale ed ha come unico punto reale il punto di
coordinate (3, 0).

3. Verificare che la retta r3 non è reale e non ha punti reali.

Soluzione 1. Dividendo entrambi i membri dell’equazione di r1 per 2i 1 si ottiene


l’equazione a coefficienti reali:

3x 2y 1 = 0.
446 Geometria Analitica nel Piano

2. La retta r2 coniugata di r2 ha equazione x iy 3 = 0. Il sistema lineare:



x + iy 3 = 0
x iy 3 = 0

ha matrice dei coefficienti di rango 2 e la sua unica soluzione è (3, 0).

3. Le rette r3 e r3 : x + y + i = 0 sono entrambe parallele al vettore (1, 1) e non


hanno punti reali.
Capitolo 10

Riduzione a Forma Canonica delle


Coniche

Scopo di questo capitolo è lo studio delle coniche nel piano, ossia di tutte le curve del
piano che sono rappresentabili mediante un’equazione di secondo grado nelle incognite
x, y. Il primo esempio di conica presentato è quello della circonferenza, la cui equazione
è già stata ottenuta nel Capitolo 9 come luogo geometrico di punti. Ma la parte determi-
nante di questo capitolo è l’applicazione della teoria di riduzione a forma canonica di una
forma quadratica (cfr. Cap. 8) allo studio delle coniche allo scopo di poter riconoscere,
a partire da una generica equazione di secondo grado in due incognite, la conica che essa
rappresenta. Questa teoria sarà nuovamente applicata nel Capitolo 12 per lo studio del-
le quadriche nello spazio, che non sono altro che superfici che si possono rappresentare
mediante un’equazione di secondo grado nelle incognite x, y, z ed è facilmente generaliz-
zabile anche nel caso di spazi affini di dimensione superiore a 3. In tutto il capitolo si farà
uso delle notazioni introdotte nei capitoli precedenti, in particolare si considererà il piano
affine S2 su cui si introdurrà un riferimento cartesiano R = (O, x, y), o equivalentemente
R = (O, i, j), dove B = (i, j) è la base ortonormale positiva dello spazio vettoriale V2
definita dal riferimento R.

10.1 La circonferenza nel piano


In questo paragrafo si intende studiare l’equazione della circonferenza nel piano affine S2
e le posizioni reciproche tra circonferenza e retta e anche tra due circonferenze. Successi-
vamente, in modo analogo al caso dei fasci di rette definiti nel Capitolo 9, si introducono
i fasci di circonferenze e si ricavano le loro proprietà.

Fissati un punto C nel piano e un numero reale positivo r, si è già visto nel Paragrafo 9.2

447
448 Riduzione a Forma Canonica delle Coniche

che la circonferenza di centro C e raggio r è il luogo geometrico dei punti P del piano
tali che:
d(P, C) = r.
Se r = 0 la circonferenza si riduce ad un solo punto che coincide con C.

La circonferenza di centro C = (↵, ) e raggio r 0, rispetto ad un riferimento


cartesiano R = (O, x, y), ha equazione cartesiana:
(x ↵)2 + (y )2 = r2 ,
che può essere riscritta come:
x2 + y 2 2↵x 2 y+ = 0, (10.1)
con = ↵2 + 2 r2 . Si osservi che l’equazione (10.1) è di secondo grado in x, y , il
coefficiente del termine xy è uguale a 0 e i coefficienti dei termini x2 , y 2 sono uguali.

Viceversa, un’equazione dello stesso tipo, vale a dire:


x2 + y 2 + ax + by + c = 0, a, b, c 2 R, (10.2)
non sempre rappresenta una circonferenza nel piano. Infatti, confrontando le equazioni
(10.1) e (10.2) si ottiene che il centro C in (10.2) ha coordinate:
✓ ◆
a b
C= ,
2 2
e il raggio r in (10.2) è dato da:
r
a2 + b 2 4c
r= , (10.3)
4
pertanto l’equazione (10.2) rappresenta una circonferenza se e solo se:
a2 + b 2 4c 0.

Osservazione 10.1 Se a2 + b2 4c = 0, la circonferenza è detta degenere e si riduce al


solo centro ( a/2, b/2). Se a2 + b2 4c < 0 allora non ci sono punti del piano che
verificano l’equazione (10.2) e la circonferenza viene detta immaginaria.

Esercizio 10.1 Determinare il centro e il raggio delle circonferenze:

C1 : x2 + y 2 + 4x + 6y = 0,

C2 : x2 + y 2 + 4x + 6y + 30 = 0.
Capitolo 10 449

Soluzione In C1 il centro è C = ( 2, 3). Poiché la circonferenza passa per l’origine,


il suo raggio può essere determinato calcolando la distanza del centro dall’origine, quindi:
p
r = d(C, O) = 13,

oppure applicando la formula (10.3).

In C2 il centro è C = ( 2, 3), ma C2 è una circonferenza immaginaria infatti si ha


16 + 36 120 < 0.

10.1.1 Posizione reciproca tra una retta e una circonferenza


La posizione reciproca tra una retta s e una circonferenza di centro C e raggio r si
determina calcolando la distanza del centro della circonferenza alla retta e confrontandola
con il raggio della circonferenza stessa. Si presentano tre possibilità:

1. |d(C, s)| > r: la retta è esterna alla circonferenza (cfr. Fig. 10.1).

C
r

Figura 10.1: Retta esterna alla circonferenza

2. |d(C, s)| = r: la retta è tangente alla circonferenza (cfr. Fig. 10.2).


450 Riduzione a Forma Canonica delle Coniche

C
r

Figura 10.2: Retta tangente alla circonferenza

C
r

Figura 10.3: Retta secante la circonferenza


Capitolo 10 451

3. |d(C, s)| < r: la retta è secante la circonferenza e incontra la circonferenza in due


punti (cfr. Fig. 10.3).

Esercizio 10.2 Determinare per quali valori di k 2 R la retta s : x 2y + k = 0 è


secante, tangente o esterna alla circonferenza di equazione:

x2 + y 2 2x + 2y 2 = 0.

Soluzione Il centro della circonferenza è C = (1, 1) e il raggio è r = 2. Dalla


formula (9.24) si ottiene che la distanza del centro dalla retta è:

3+k
d(C, s) = p ,
5
p p
da cui si deduce che s è esterna alla circonferenza p
se k < 3 2 5 e k > 3 + 2 5.
La retta s p
è tangente alla circonferenza
p se k = ±2 5 3 e s è secante la circonferenza
se 3 2 5 < k < 3 + 2 5.

10.1.2 Retta tangente ad una circonferenza in un suo punto


Data una circonferenza C di centro C = (↵, ) e raggio r, la retta s tangente a C in un
!
suo punto P0 = (x0 , y0 ) è la retta passante per P0 e ortogonale al vettore P0 C , quindi di
equazione cartesiana:

s : (↵ x0 )(x x0 ) + ( y0 )(y y0 ) = 0. (10.4)

La situazione geometrica è illustrata nella Figura 10.4.

Esercizio 10.3 Determinare l’equazione della retta tangente nel punto P0 = ( 6, 4) alla
circonferenza di equazione:

x2 + y 2 + 6x 4y = 0.

Soluzione Il centro della circonferenza è C = ( 3, 2), quindi la retta tangente alla


circonferenza nel punto P0 ha equazione:

( 3 + 6)(x + 6) + (2 4)(y 4) = 0,

ossia 3x 2y + 26 = 0.
452 Riduzione a Forma Canonica delle Coniche

s
P0

Figura 10.4: Retta tangente alla circonferenza nel punto P0

C C'
r'
r

Figura 10.5: d(C, C 0 ) > r + r0 : circonferenze esterne


Capitolo 10 453

C C'
r'
r

Figura 10.6: d(C, C 0 ) = r + r0 : circonferenze tangenti esternamente

C C'
r'
r

Figura 10.7: r r0 < d(C, C 0 ) < r + r0 : circonferenze secanti

C C'
r'
r

Figura 10.8: d(C, C 0 ) < r r0 : circonferenze interne


454 Riduzione a Forma Canonica delle Coniche

C C'
r'
r

Figura 10.9: d(C, C 0 ) = r r0 : circonferenze tangenti internamente

10.1.3 Posizione reciproca di due circonferenze


Circonferenza per tre punti
La posizione reciproca di due circonferenze si discute confrontando la distanza tra i loro
centri C e C 0 e la somma e/o la differenza tra i loro raggi r e r0 . Assumendo r0 < r, si
presentano i casi illustrati nelle Figure 10.5, 10.6, 10.7, 10.8, 10.9, 10.10.

r C=C'

r'

Figura 10.10: d(C, C 0 ) = 0 : circonferenze concentriche


Capitolo 10 455

Esercizio 10.4 Determinare l’equazione della circonferenza passante per i punti:


A = (2, 3), B = (4, 1), D = (2, 1).

Soluzione È ben noto che tre punti non allineati del piano individuano una sola circon-
ferenza. Si lascia per esercizio la verifica che i punti A, B, D assegnati non sono allineati.
Per individuare l’equazione della circonferenza passante per A, B, D si può procedere in
due modi. Il centro C è il circocentro (il punto di incontro degli assi dei lati) del triangolo
ABD, quindi se ne possono individuare le coordinate intersecando, per esempio l’asse
del segmento AB con l’asse del segmento AD. Il raggio è la distanza, per esempio, da
C a B . Altrimenti, si possono sostituire in (10.2) le coordinate dei punti dati e risolvere
il sistema lineare cosı̀ ottenuto:
8
< 2a + 3b + c = 13
4a + b + c = 17
:
2a b + c = 5.
La circonferenza richiesta ha pertanto equazione:

x2 + y 2 4x 2y + 1 = 0.
La situazione geometrica è illustrata nella Figura 10.11.

10.1.4 Fasci di circonferenze


Date le due circonferenze:
C1 : x2 + y 2 2↵1 x 2 1y + 1 = 0,

C2 : x2 + y 2 2↵2 x 2 2y + 2 = 0,
la loro combinazione lineare:
(x2 + y 2 2↵1 x 2 1y + 1) + µ(x2 + y 2 2↵2 x 2 2y + 2) = 0, (10.5)

con , µ 2 R, ( , µ) 6= (0, 0), rappresenta il fascio di circonferenze individuato da C1 e


C2 . Si osservi che i parametri e µ sono omogenei, vale a dire è sufficiente individuare il
loro rapporto per ottenere un solo elemento del fascio. Si osservi, inoltre, che per = 0
si ottiene la circonferenza C2 e per µ = 0 si ottiene C1 . Da (10.5) si ha:
( + µ)x2 + ( + µ)y 2 2( ↵1 + µ↵2 )x 2( 1 + µ 2 )y + ( 1 + µ 2 ) = 0 (10.6)
da cui appare evidente la necessità di distinguere due casi:
456 Riduzione a Forma Canonica delle Coniche

Figura 10.11: Circonferenza passante per i punti A, B, D


Capitolo 10 457

1. + µ = 0;

2. + µ 6= 0,

che saranno discussi separatamente.

1. + µ = 0 per esempio = 1, µ = 1; l’equazione (10.6) diventa:

2(↵1 ↵2 )x + 2( 1 2 )y 1 + 2 = 0.

Si tratta dell’equazione di una retta, che prende il nome di asse radicale del fascio
di circonferenze, ed è ortogonale al vettore n = (↵1 ↵2 , 1 2 ). La retta passante
per i centri C1 = (↵1 , 1 ) e C2 = (↵2 , 2 ) delle circonferenze C1 e C2 è parallela al
vettore n. Tale retta prende il nome di asse centrale del fascio di circonferenze. È
evidente che l’asse radicale è perpendicolare all’asse centrale. Nel Paragrafo 10.6.1
sono elencate altre proprietà dell’asse radicale di due circonferenze.

2. + µ 6= 0; l’equazione (10.6) diventa:


✓ ◆ ✓ ◆ ✓ ◆
2 2 ↵1 + µ↵2 1 +µ 2 1 +µ 2
x +y 2 x 2 y+ =0
+µ +µ +µ

che rappresenta, al variare di e µ, infinite circonferenze del fascio, con centro:


✓ ◆
↵1 + µ↵2 1+µ 2
C ,µ = , . (10.7)
+µ +µ

Si tratta di circonferenze se il raggio è positivo o nullo, altrimenti si ottengono


circonferenze immaginarie (cfr. Oss. 10.1).

Si elencano alcune proprietà del fascio di circonferenze individuato da C1 e da C2 di facile


verifica:

1. i centri di tutte le circonferenze del fascio appartengono all’asse centrale.

2. Se P0 = (x0 , y0 ) è un punto appartenente all’intersezione di C1 e di C2 , allora P0


verifica l’equazione (10.5), quindi P0 è un punto comune a tutti gli elementi del
fascio.

3. Il fascio di circonferenze riempie il piano nel senso che dato un generico punto
P1 = (x1 , y1 ) del piano è possibile individuare un elemento del fascio passante
per P1 , infatti è sufficiente sostituire le coordinate di P1 nell’equazione (10.5) e
calcolare il valore dei parametri e µ.
458 Riduzione a Forma Canonica delle Coniche

Si esaminano ora le proprietà precedenti in riferimento alla posizione delle circonferenze


C1 e C2 . Si presentano tre casi:

1. C1 e C2 si intersecano in due punti P1 e P2 . L’asse radicale e ogni altra circonfe-


renza del fascio passano per P1 e P2 . I punti P1 e P2 prendono il nome di punti
base del fascio individuato dalle circonferenze C1 e C2 . La situazione geometrica è
illustrata nella Figura 10.12.

P2

P1

Figura 10.12: Fascio di circonferenze che si intersecano in due punti

2. C1 e C2 si intersecano in un punto P. L’asse radicale è la retta tangente ad entrambe


le circonferenze e ad ogni altra circonferenza del fascio in P. Il punto P prende il
nome di punto base del fascio individuato dalle circonferenze C1 e C2 . La situazione
geometrica è illustrata nella Figura 10.13.

3. C1 e C2 non hanno punti di intersezione. Nessun elemento del fascio ha punti


in comune con un altro elemento del fascio, l’asse radicale non incontra alcuna
circonferenza del fascio. In questo caso, quindi, non esistono punti base del fascio
individuato da C1 e C2 . La situazione geometrica è illustrata nella Figura 10.14.

I fasci di circonferenze sono utili (ma non indispensabili) per risolvere alcuni esercizi.
I due esercizi che seguono ne costituiscono un esempio. Si consiglia di risolvere anche
questi esercizi senza fare uso del concetto di fascio di circonferenze.
Capitolo 10 459

Figura 10.13: Fascio di circonferenze che si intersecano in un punto

Figura 10.14: Fascio di circonferenze che non hanno punti di intersezione


460 Riduzione a Forma Canonica delle Coniche

Esercizio 10.5 Determinare l’equazione della circonferenza avente centro sulla retta:

s : 2x y=0

e tangente nel punto A = ( 2, 0) alla retta s0 : 3x 2y + 6 = 0.

Soluzione La circonferenza richiesta è un elemento del fascio individuato dalla retta s0


(l’asse radicale) e dalla circonferenza di centro A e raggio 0, di equazione:

[(x + 2)2 + y 2 ] + µ(3x 2y + 6) = 0, , µ 2 R, ( , µ) 6= (0, 0),

vale a dire: ✓ ◆ ✓ ◆
2 2 4 + 3µ 2µ 6µ
x +y + x y+4+ = 0.

Il centro della generica circonferenza del fascio ha coordinate:


✓ ◆
4 + 3µ µ
C ,µ = ,
2

che, sostituite nell’equazione di s, portano a + µ = 0. Scegliendo, per esempio, =1


e µ = 1 si ha che la circonferenza richiesta ha equazione:

x2 + y 2 + x + 2y 2 = 0.

Si osservi che non ci sono problemi a calcolare il centro del fascio dividendo per . Infatti
per ogni circonferenza del fascio si ha che è diverso da zero, per = 0 si ottiene solo
l’asse radicale.

Esercizio 10.6 Determinare l’equazione della circonferenza passante per i punti:

A = ( 3, 2), B = (1, 1)

sapendo che l’ascissa del centro è 0.

Soluzione La circonferenza richiesta è un elemento del fascio individuato dalla retta


AB (l’asse radicale) e dalla circonferenza di centro il punto medio del segmento di estremi
A, B e diametro AB . La retta AB ha equazione x 4y 5 = 0. Il punto medio del
segmento di estremi A, B è:
✓ ◆
3
M= 1, ,
2
Capitolo 10 461

p
la distanza tra A e B è 17, quindi il fascio considerato ha equazione:

(x2 + y 2 + 2x + 3y 1) + µ(x 4y 5) = 0, , µ 2 R, ( , µ) 6= (0, 0).

Il centro della generica circonferenza del fascio ha coordinate:


✓ ◆
2 +µ 3 4µ
C ,µ = , .
2 2

Imponendo:
2 +µ
=0
2
segue µ = 2 , quindi la circonferenza richiesta è:

x2 + y 2 + 11y + 9 = 0.

10.2 Le coniche: definizione e proprietà focali


Si introducono, in questo paragrafo, alcune curve notevoli del piano: l’ellisse, l’iperbole e
la parabola, tutte appartenenti alla famiglia delle coniche, come sarà meglio spiegato nel
Paragrafo 10.3. Le curve saranno presentate come luoghi geometrici di punti (cfr. Par.
10.3 e 10.4) e le loro equazioni saranno ricavate dalla definizione, dopo aver scelto un
opportuno riferimento cartesiano.

10.2.1 L’ellisse
Definizione 10.1 Fissati due punti F e F 0 del piano, l’ellisse è il luogo dei punti P tali
che:
d(P, F ) + d(P, F 0 ) = 2a, (10.8)

dove a è una costante positiva tale che 2a > d(F, F 0 ).

I punti F e F 0 prendono il nome di fuochi dell’ellisse. Se F = F 0 si ottiene una


circonferenza. La situazione geometrica è illustrata nelle Figure 10.15 e 10.16.

Per ricavare l’equazione cartesiana dell’ellisse si sceglie un opportuno sistema di rife-


rimento ponendo l’origine nel punto medio del segmento di estremi F, F 0 e l’asse x
passante per F ed F 0 , di conseguenza si assume che i fuochi siano:

F = (c, 0), F 0 = ( c, 0).


462 Riduzione a Forma Canonica delle Coniche

F’ F

Figura 10.15: L’ellisse come luogo geometrico

F’ F

Figura 10.16: Rappresentazione grafica della relazione (10.8)


Capitolo 10 463

È chiaro che 2c < 2a, il numero:


c
e= <1
a
prende il nome di eccentricità dell’ellisse. Le rette di equazioni:
a
x=±
e
sono le direttrici dell’ellisse, il loro significato geometrico verrà spiegato nel Paragrafo
10.3. Sia P = (x, y) il generico punto dell’ellisse, il luogo richiesto ha equazione:
p p
(x c)2 + y 2 + (x + c)2 + y 2 = 2a,

da cui si ha:
(a2 c2 )x2 + a2 y 2 = a2 (a2 c2 ).

Posto b2 = a2 c2 , si ottiene:
x2 y2
+ = 1, (10.9)
a2 b2
che è un’equazione dell’ellisse in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto.

Osservazione 10.2 Per la definizione di equazione dell’ellisse in forma canonica ed il


suo legame con il concetto di forma quadratica scritta in forma canonica introdotto nel
Paragrafo 8.5 si veda il Paragrafo 10.4. Talvolta l’ellisse è anche detta ellisse reale per di-
stinguerla dall’ellisse immaginaria. L’ellisse immaginaria è rappresentata dall’equazione
(in forma canonica):
x2 y2
+ = 1,
a2 b2
che non ammette soluzioni reali.

La curva di equazione (10.9) incontra l’asse x nei punti A = (a, 0) e A0 = ( a, 0) e


l’asse y nei punti B = (0, b) e B 0 = (0, b), questi quattro punti prendono il nome di
vertici dell’ellisse, l’origine ne è il centro.

Dall’equazione (10.9) si deduce che si tratta di una curva simmetrica ripetto all’asse x, al-
l’asse y e all’origine, è pertanto sufficiente studiare la sua equazione nel primo quadrante.
Da (10.9) si ha:

x2 b2 y 2
=
a2 b2
464 Riduzione a Forma Canonica delle Coniche

quindi |y|  b, analogamente si ottiene |x|  a. Di conseguenza il grafico è compreso


nel rettangolo delimitato dalle rette di equazioni x = ±a e y = ±b. Poiché:

b2 p 2
y=± a x2 ,
a2
intuitivamente si ha che se l’ascissa del punto P, che descrive la curva, aumenta di valore,
allora la sua ordinata y diminuisce. Si osservi che se a = b, allora c = 0, ogni retta per
l’origine è asse di simmetria ed in questo caso l’ellisse è la circonferenza di centro O e
raggio a.

Esercizio 10.7 Determinare il centro, i fuochi e i vertici delle seguenti ellissi:

E1 : 3x2 + 8y 2 = 12,

E2 : 18x2 + y 2 = 9,

i cui grafici sono rappresentati nelle Figure 10.17 e 10.18, rispettivamente.

!3 !2 !1 1 2 3

!1

!2

Figura 10.17: Esercizio 10.7, ellisse E1

Soluzione L’ellisse E1 si può scrivere come:

x2 y2
+ = 1,
4 3
2
da cui segue che il centro è l’origine, i vertici sono:
Capitolo 10 465

!1.0 !0.5 0.5 1.0

!1

!2

!3

Figura 10.18: Esercizio 10.7, ellisse E2

p ! p !
6 6
A = (2, 0), A0 = ( 2, 0), B= 0, , B0 = 0, .
2 2

Poiché c2 = a2 b2 = 5/2, i fuochi hanno coordinate:


p ! p !
10 0 10
F = ,0 , F = ,0 .
2 2
L’ellisse E2 si può scrivere come:

x2 y2
+ = 1, (10.10)
1 9
2
da cui segue che il centro è l’origine, ma i fuochi appartengono all’asse y in quanto
9 > 1/2. I vertici sono:
p ! p !
2 2
A= , 0 , A0 = , 0 , B = (0, 3), B 0 = (0, 3).
2 2

Poiché c2 = a2 b2 = 9 1/2, i fuochi hanno coordinate:


466 Riduzione a Forma Canonica delle Coniche

p ! p !
17 17
F = 0, p , F0 = 0, p .
2 2
Si osservi che l’equazione (10.10) non è scritta nella stessa forma di (10.9). Se si vuole
passare dall’equazione (10.10) ad un’equazione dello stesso tipo di (10.9) è necessario
effettuare una rotazione degli assi di ⇡/2, in senso antiorario, vale a dire porre:
✓ ◆ ✓ ◆✓ ◆
x 0 1 X
= (10.11)
y 1 0 Y

F’ F

Figura 10.19: Teorema 10.1


e, nel riferimento R0 = (O, X, Y ), l’equazione (10.10) diventa:

X2 Y2
+ = 1.
9 1
2

Per l’ellisse vale la seguente proprietà, la cui dimostrazione segue da facili considerazioni
geometriche e si può leggere, per esempio, in [8].
Teorema 10.1 La retta tangente ad un’ellisse, di fuochi F ed F 0, in un suo punto P, è la
bisettrice delle rette P F e P F 0 .
La situazione geometrica descritta nel teorema è illustrata nella Figura 10.19.
Capitolo 10 467

10.2.2 L’iperbole
Definizione 10.2 Fissati due punti F e F 0 del piano, l’iperbole è il luogo dei punti P
tali che:
| d(P, F ) d(P, F 0 ) | = 2a, (10.12)
dove a è una costante positiva tale che 2a < d(F, F 0 ).

F’ F

Figura 10.20: L’iperbole come luogo geometrico

I punti F e F 0 prendono il nome di fuochi dell’iperbole. La situazione geometrica è


illustrata nelle Figure 10.20 e 10.21.

Come nel caso dell’ellisse, si sceglie un opportuno riferimento cartesiano avente l’origine
nel punto medio del segmento di estremi F, F 0 e l’asse x passante per F ed F 0 ; si pone
F = (c, 0) e F 0 = ( c, 0). Sia P = (x, y) il generico punto dell’iperbole, allora (10.12)
diventa: p p
| (x c)2 + y 2 (x + c)2 + y 2 | = 2a, (10.13)
da cui segue:
(c2 a2 )x2 a2 y 2 = a2 (c2 a2 ).
Poiché c2 > a2 , si pone b2 = c2 a2 , sostituendo nell’equazione precedente si ottiene:
x2 y2
=1 (10.14)
a2 b2
che è un’equazione dell’iperbole in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto. Per la definizione di equazione dell’iperbole in forma
468 Riduzione a Forma Canonica delle Coniche

F’ F

Figura 10.21: Rappresentazione grafica della relazione (10.12)

canonica si veda il Paragrafo 10.4. Il numero:


c
e= >1
a
prende il nome di eccentricità dell’iperbole. Le rette di equazione:
a
x=±
e
prendono il nome di direttrici dell’iperbole; il significato geometrico dell’eccentricità e
delle direttrici verrà spiegato nel Paragrafo 10.3.

L’equazione (10.14) rappresenta una curva simmetrica rispetto all’asse x, all’asse y e


all’origine del riferimento. La curva incontra l’asse x nei punti:

A1 = (a, 0), A2 = ( a, 0),

detti vertici dell’iperbole, non ha punti di intersezione con l’asse y, mentre l’origine ne è
il suo centro. Da:

y2 x 2 a2
= ,
b2 a2
Capitolo 10 469

ossia:

bp 2
y=± x a2 ,
a
segue che |x| a, quindi non vi sono punti della curva compresi tra le rette di equazioni
x = ±a. Inoltre, tali rette intersecano la curva in due punti coincidenti, i vertici, quindi
esse sono tangenti alla curva. Da:

y2 x2
= 1
b2 a2
segue, intuitivamente, che il valore dell’ordinata (in valore assoluto) aumenta all’au-
mentare del valore dell’ascissa (in valore assoluto). La curva è cosı̀ divisa in due parti
(simmetriche rispetto all’asse y ) che prendono il nome di rami dell’iperbole.

Si studia l’intersezione della curva con una generica retta passante per l’origine (ad ecce-
zione dell’asse y che non interseca la curva), quindi si studiano le soluzioni del sistema:
8 2
> x y2
< 2 =1
a b2
>
:
y = px,

al variare di p in R. Sostituendo la seconda equazione nella prima si ottiene:

ab
x = ±p
b2 a2 p 2

da cui segue che l’esistenza delle soluzioni dipende dal radicando b2 a2 p2 . Si distinguo-
no i seguenti casi:

1. Se |p| < b/a, le rette incontrano la curva in due punti distinti.

2. Se |p| > b/a, le rette non intersecano la curva.

3. Le rette:

b
y=± x
a
costituiscono un caso “limite” tra le due situazioni 1. e 2.. Tali rette prendono il
nome di asintoti dell’iperbole. Per meglio descrivere il comportamento della curva
rispetto agli asintoti si consideri la differenza tra le ordinate del punto P0 = (x, y0 )
470 Riduzione a Forma Canonica delle Coniche

appartenente all’asintoto, e il punto P1 = (x, y1 ) appartenente alla curva e aventi la


stessa ascissa, ossia:

b⇣ p ⌘ ab
y0 y1 = x x2 a2 = p .
a x + x2 a2
Quando P1 si allontana indefinitamente sull’iperbole, la sua ascissa x cresce sem-
pre di più ed allora l’ultima frazione, avendo il numeratore costante e il denomina-
tore che aumenta via via, diminuisce sempre di più. Più precisamente:

ab
lim p = 0.
x!±1 x + x2 a2
La situazione geometrica è illustrata nella Figura 10.22.

P0

P1

Figura 10.22: L’iperbole e i suoi asintoti

Esercizio 10.8 Si calcolino i vertici, i fuochi e gli asintoti delle seguenti iperboli:

4 2
I1 : x 25y 2 = 1,
9

I2 : 9x2 4y 2 = 36,

I3 : 4x2 3y 2 = 5,
Capitolo 10 471

i cui grafici sono rispettivamente rappresentati nelle Figure 10.23, 10.24 e 10.25.

!4 !2 2 4

!1

!2

Figura 10.23: Esercizio 10.8, iperbole I1

!6 !4 !2 2 4 6

!2

!4

Figura 10.24: Esercizio 10.8, iperbole I2

Soluzione Per quanto riguarda l’iperbole I1 i vertici sono:


✓ ◆ ✓ ◆
3 0 3
A= ,0 , A = ,0 ;
2 2
i fuochi sono:
p ! p !
229 229
F = ,0 , F0 = ,0 ,
10 10
472 Riduzione a Forma Canonica delle Coniche

!6 !4 !2 2 4 6

!2

!4

Figura 10.25: Esercizio 10.8, iperbole I3

gli asintoti hanno equazioni:

2
y=± x.
15

Per quanto
p riguarda l’iperbole
p I2 i vertici sono A = (2, 0), A0 = ( 2, 0); i fuochi sono
0
F = ( 13, 0), F = ( 13, 0), gli asintoti hanno equazioni:

3
y = ± x,
2
si osservi che, in questo caso b > a, come si può evincere dalla Figura 10.24, rispetto
all’iperbole rappresentata nella Figura 10.23 in cui b < a.

Per quanto riguarda l’iperbole I3 l’equazione diventa:

y2 x2
= 1;
5 5
3 4
analogamente al caso dell’Esercizio 10.7, per scrivere l’equazione nella forma (10.14) è
necessario effettuare il cambiamento di riferimento dato da (10.11). Di conseguenza, nel
riferimento iniziale R = (O, x, y), i vertici sono:
Capitolo 10 473

p ! p !
5 5
A= 0, p , A0 = 0, p ,
3 3
i fuochi sono:
p ! p !
35 35
F = 0, p , F0 = 0, p
12 12
e gli asintoti hanno equazioni:
p
3
x=± y.
2

Se nell’equazione (10.14) si pone a = b si ottiene:

x2 y 2 = a2 , (10.15)
p p
i fuochi hanno coordinate F = ( 2 a, 0) e F 0 = ( 2 a, 0), gli asintoti hanno equazioni
y = ±x, ossia coincidono con le bisettrici del I e III quadrante e del II e IV quadrante e
l’iperbole prende il nome di iperbole equilatera. La Figura 10.26 illustra alcune iperboli
equilatere, ottenute variando il parametro a, aventi tutte gli stessi asintoti, ma vertici
diversi. Gli asintoti, comuni a tutte le iperboli equilatere, possono essere pensati come
l’iperbole “degenere” di equazione (x y)(x + y) = 0.

Per l’iperbole valgono le seguenti proprietà, la cui dimostrazione segue da facili conside-
razioni geometriche e si può leggere, per esempio, in [8].

Teorema 10.2 Data un’iperbole di fuochi F ed F 0, la retta tangente in un suo punto P


è la bisettrice delle rette P F e P F 0.

La situazione geometrica descritta nel teorema appena enunciato è illustrata nella Figura
10.27.

Teorema 10.3 Si consideri una qualsiasi retta che intersechi un ramo di un’iperbole nei
punti P1 e P2 e gli asintoti nei punti Q1 e Q2 , allora i segmenti Q1 P1 e Q2 P2 hanno la
stessa lunghezza. In particolare, la retta tangente in un punto P all’iperbole incontra gli
asintoti nei punti Q1 e Q2 e P è il punto medio del segmento di estremi Q1 , Q2 ..

La situazione geometrica descritta nel teorema appena enunciato è illustrata nelle Figure
10.28 e 10.29.
474 Riduzione a Forma Canonica delle Coniche

Figura 10.26: Una famiglia di iperboli equilatere

F’ F

Figura 10.27: Rappresentazione grafica del Teorema 10.2


Capitolo 10 475

Q1
P1

P2
Q2

Figura 10.28: Rappresentazione grafica del Teorema 10.3

Q1

P1!P2

Q2

Figura 10.29: Rappresentazione grafica del Teorema 10.3


476 Riduzione a Forma Canonica delle Coniche

Teorema 10.4 Per ogni punto P di un’iperbole, tutti i parallelogrammi formati dagli
asintoti e dalle parallele ad essi condotte da P hanno la stessa area.

La situazione descritta nel teorema precedente è illustrata nella Figura 10.30 in cui i
rettangoli colorati hanno la stessa area.

Figura 10.30: Rappresentazione grafica del Teorema 10.4

10.2.3 Iperbole equilatera riferita agli asintoti


Si vuole studiare il caso particolare dell’iperbole equilatera e scrivere la sua equazione
nel riferimento avente come assi gli asintoti. Per risolvere il problema, si può procede-
re ruotando gli assi cartesiani del riferimento R = (O, x, y) di ⇡/4 in senso orario e
mantenendo fissa l’origine, pervenendo cosı̀ al riferimento R0 = (O, X, Y ), e scrivendo
l’equazione dell’iperbole (10.15) nel riferimento R0 .

In alternativa, si può operare come segue. Se si immagina che gli asintoti coincidano con
gli assi cartesiani, i fuochi dell’iperbole diventano i punti della retta y = x di coordinate
F = (a, a), Fp0 = ( a, a), infatti, per il teorema di Pitagora, la loro distanza dall’o-
rigine è c = 2a. Si ripetono i calcoli descritti a partire da (10.13) in questo caso, e
precisamente (10.13) diventa:
p p
(x a)2 + (y a)2 (x + a)2 + (y + a)2 = 2a,
Capitolo 10 477

da cui si ottiene l’equazione:

a2
xy = , (10.16)
2
che risponde al problema posto. Si osservi che questa rappresentazione permette di di-
mostrare più agevolmente il comportamento dell’asintoto (l’asse x per esempio) rispetto
alla curva. Infatti se P1 = (x, y) è un punto della curva e P0 = (x, 0) è il punto dell’asse
x di uguale ascissa, allora è evidente che:

a2
lim y = lim = 0.
x!1 x!±1 2x
Al variare di a in (10.16) si hanno iperboli con rami nel primo e terzo quadrante, i cui
asintoti sono gli assi cartesiani, con i vertici che variano sulla bisettrice y = x.

-8 -6 -4 -2 2 4 6 8

-2

-4

-6

-8

Figura 10.31: Iperboli di equazione xy = k 2 , k 2 R

La curva:

xy = 0

rappresenta la conica “degenere” unione degli assi cartesiani, invece la famiglia di curve
(al variare di a):
478 Riduzione a Forma Canonica delle Coniche

-8 -6 -4 -2 2 4 6 8

-2

-4

-6

-8

Figura 10.32: Iperboli di equazione xy = k2, k 2 R

a2
xy =
2
si può ottenere con lo stesso procedimento appena descritto, dopo aver effettuato il cam-
biamento di riferimento:

x= Y
y = X;

di conseguenza, nel riferimento originale, i rami della curva si trovano nel secondo e
quarto quadrante e i vertici variano sulla bisettrice y = x. Le situazioni descritte sono
illustrate nelle Figure 10.31 e 10.32.

10.2.4 La parabola
Definizione 10.3 La parabola è il luogo dei punti P del piano equidistanti da una retta
f fissata e da un punto F fissato.

La retta f prende il nome di direttrice della parabola e il punto F è il fuoco della parabola.
Capitolo 10 479

Come nel caso dell’ellisse e dell’iperbole, per ricavare l’equazione della parabola si sce-
glie un riferimento cartesiano opportuno. Si può procedere nei due modi di seguito
descritti.

Primo Caso Si sceglie il riferimento in modo tale che il fuoco F appartenga all’asse
x e abbia coordinate F = (0, c), con c > 0, e la direttrice abbia equazione y = c,
pertanto l’origine è un punto appartenente al luogo richiesto. Imponendo che:

d(P, F ) = d(P, f )

si ha:
p
x2 + (y c)2 = |y + c|,

elevando al quadrato si ottiene:

y = ax2 , (10.17)

dove a = 1/4c. Allora (10.17) è un’equazione della parabola in forma canonica.

Secondo Caso Si sceglie il fuoco sull’asse y ponendo F = (c, 0), con c > 0, e la
direttrice di equazione x = c, procedendo come nel caso precedente si perviene a:

x = ay 2 , (10.18)

che è un’altra equazione della parabola in forma canonica.

Analogamente usando valori negativi per il numero c si ottengono le equazioni:

y= ax2 (10.19)

e:

x= ay 2 . (10.20)

Due situazioni geometriche sono illustrate nelle Figure 10.33 e 10.34.


Tutte le parabole di equazioni (10.17), (10.18), (10.19), (10.20) passano per l’origine, che
è il loro vertice. Tra tutti i punti della parabola, il vertice è quello avente distanza minore
dal fuoco (e dalla direttrice). Per quanto riguarda lo studio del grafico della parabola, per
esempio da (10.18), si deduce che la curva è simmetrica rispetto all’asse x, le ascisse
dei suoi punti sono sempre numeri positivi e l’ascissa aumenta all’aumentare (in valore
assoluto) dell’ordinata.
480 Riduzione a Forma Canonica delle Coniche

Figura 10.33: La parabola come luogo di punti, di equazione y = ax2 , a > 0

Figura 10.34: La parabola come luogo di punti, di equazione y = ax2 , a < 0


Capitolo 10 481

Per capire l’andamento della curva al variare del parametro a si osservi la Figura 10.35
in cui sono riportati i grafici delle parabole di equazioni y = (1/2)x2 (quella esterna),
y = x2 , (quella centrale), y = 2x2 (quella interna).

-4 -2 2 4

Figura 10.35: Le parabole y = (1/2)x2 , y = x2 , y = 2x2

Esercizio 10.9 Determinare il vertice, il fuoco e la direttrice delle parabole:

P1 : 3x 2y 2 = 0,

P2 : 2x2 + 9y = 0,
che sono rappresentate nelle Figure 10.36 e 10.37.

Soluzione Entrambe le parabole hanno vertice nell’origine, nel caso di P1 il fuoco è


F = (3/8, 0) e la direttrice ha equazione x = 3/8.
Nel caso di P2 il fuoco è F = (0, 9/8) e la direttrice ha equazione y = 9/8.

Per la parabola vale la seguente proprietà, la cui dimostrazione segue da facili considera-
zioni geometriche e si può leggere, per esempio, in [8].

Teorema 10.5 La retta tangente ad una parabola in un suo punto P è la bisettrice del-
l’angolo formato dalla retta passante per P e per il fuoco e dalla retta per P perpendi-
colare alla direttrice.
482 Riduzione a Forma Canonica delle Coniche

1 2 3 4 5 6 7

-1

-2

-3

Figura 10.36: Esercizio 10.9, parabola P1

-6 -4 -2 2 4 6

-2

-4

-6

-8

-10

Figura 10.37: Esercizio 10.9, parabola P2


Capitolo 10 483

P
F

Figura 10.38: Rappresentazione grafica del Teorema 10.5

La situazione geometrica descritta nel teorema appena enunciato è illustrata nella Figura
10.38.

10.2.5 Coniche e traslazioni


Gli esercizi che seguono sono volti a studiare l’equazione di una conica scritta in un
riferimento cartesiano traslato rispetto al riferimento iniziale in cui essa si presenta in
forma canonica. Se nell’equazione (10.9) dell’ellisse in forma canonica si opera con una
traslazione degli assi:

x = X + x0
y = Y + y0 ,
(cfr. Par. 9.4), l’equazione diventa:

(X + x0 )2 (Y + y0 )2
+ = 1. (10.21)
a2 b2
Svolgendo i calcoli, si ottiene un’equazione del tipo:

↵x2 + y 2 + ✏x + y + = 0, (10.22)
con ↵, , ✏, , 2 R, ↵ 6= 0, 6= 0, che, rispetto alla più generale equazione di secondo
grado nelle indeterminate x e y , ha il coefficiente del termine in xy pari a zero. In questo
caso particolare, se si ha l’equazione della conica nella forma (10.22), con il metodo
484 Riduzione a Forma Canonica delle Coniche

del completamento dei quadrati (cfr. Esercizio 8.13) è facile risalire alla forma (10.21), e,
quindi, all’equazione iniziale che meglio consente di studiare la conica. Analogo discorso
vale per l’iperbole e la parabola. Nel Paragrafo 10.4 si studieranno le equazioni di secondo
grado complete in x, y , di cui, quelle appena descritte, sono un caso particolare.

Esempio 10.1 Nel riferimento R = (O, x, y) è data la conica di equazione:


x2 + 2y 2 + 4x + 4y 2 = 0.
Completando i quadrati, si ha:

(x2 + 4x + 4 4) + 2(y 2 + 2y + 1 1) 2 = 0,

(x + 2)2 + 2(y + 1)2 = 8,


e, quindi:

(x + 2)2 (y + 1)2
+ = 1.
8 4
Pertanto con la traslazione:

X =x+2
Y = y + 1,
si ottiene:

X2 Y2
+ = 1,
8 4
che è l’equazione di un’ellisse. Si osservi che il centro O0 dell’ellisse è l’origine del
riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate ( 2, 1) rispetto al riferimento
R. Gli assi che hanno equazione Y = 0 e X = 0 nel riferimento R0 = (O0 , X, Y ) hanno
invece, rispettivamente, equazione y +1 = 0 e x+2 = 0 nel riferimento R. La situazione
geometrica è illustrata nella Figura 10.39.

Esempio 10.2 Nel riferimento R = (O, x, y) è data la conica:


x2 2y 2 + 6x 8y 5 = 0.
Completando i quadrati, si ha:

(x2 + 6x + 9 9) 2(y 2 + 4y + 4 4) 5 = 0,

(x + 3)2 2(y + 2)2 = 6,


Capitolo 10 485

-4 -2 2

-1

-2

-3

Figura 10.39: Esempio 10.1

e, quindi:

(x + 3)2 (y + 2)2
= 1.
6 3
Pertanto con la traslazione:

X =x+3
Y = y + 2,
si ottiene:

X2 Y2
= 1,
6 3
che è l’equazione di un’iperbole. Si osservi che il centro O0 dell’iperbole è l’origine del
riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate ( 3, 2) rispetto al riferimento
R. Gli asintoti che hanno equazioni:
1 1
Y = p X, Y = p X
2 2
nel riferimento R0 = (O0 , X, Y ), hanno invece equazioni:
1 1
y = p (x + 3) 2, y= p (x + 3) 2
2 2
nel riferimento R. La situazione geometrica è illustrata nella Figura 10.40.
486 Riduzione a Forma Canonica delle Coniche

2.5

-10 -5 5 10

-2.5

-5

-7.5

-10

Figura 10.40: Esempio 10.2

!6 !4 !2 2

!2

!4

Figura 10.41: Esempio 10.3


Capitolo 10 487

Esempio 10.3 Nel riferimento R = (O, x, y) è data la conica:

2y 2 8y + 5x 9 = 0.

Completando i quadrati, si ha:

2(y 2 4y + 4 4) + 5x 9 = 0,
✓ ◆
2 17
2(y 2) + 5 x = 0,
5
Pertanto con la traslazione:
8
> 17
< X=x
5
>
:
Y =y 2,
si ottiene:

2Y 2 + 5X = 0
che è l’equazione di una parabola. Il vertice della parabola O0 è l’origine del riferimen-
to traslato R0 = (O0 , X, Y ) ed ha coordinate (17/5, 2) rispetto al riferimento R. La
situazione geometrica è illustrata nella Figura 10.41.

Osservazione 10.3 È fondamentale ricordare che per applicare il metodo del completa-
mento dei quadrati e poi effetture l’opportuna traslazione si devono sempre mettere in
evidenza i coefficienti di x2 e di y 2 (perché?).

10.3 Le coniche: luoghi geometrici di punti


La definizione che segue giustifica la denonimazione conica assegnata alle curve intro-
dotte nel Paragrafo 10.2.

Definizione 10.4 Si dicono coniche tutte le curve piane che si possono ottenere interse-
cando un cono circolare retto con un piano.

Per cono circolare retto si intende il luogo delle rette dello spazio che si appoggiano su
di una circonferenza e passano tutte per il vertice, punto appartenente alla retta perpendi-
colare al piano della circonferenza nel suo centro, questa retta prende il nome di asse del
cono. Per lo studio approfondito dei coni nello spazio si rimanda al Paragrafo 12.2.
488 Riduzione a Forma Canonica delle Coniche

È chiaro che, secondo la definizione proposta, il termine conica comprende: la circonfe-


renza, l’ellisse, l’iperbole e la parabola, come illustrato nelle Figure 10.42, 10.43, 10.44
e 10.45. Inoltre, se il piano secante il cono passa per il vertice, allora si ottengono anche
coppie di rette incidenti e coppie di rette coincidenti pertanto anche questi sono esempi
di coniche che prendono il nome di coniche degeneri. Se il piano secante passa per il
vertice (e, per esempio, è perpendicolare all’asse del cono) allora interseca il cono solo
nel vertice, che risulta anche essere una particolare conica degenere.

Figura 10.42: La circonferenza

Con questo metodo non si può visualizzare la conica degenere formata da due rette paral-
lele. Per ottenerla è necessario usare metodi di Geometria Proiettiva, in questo ambito an-
che le rette parallele si incontrano in punti particolari, “all’infinito”, detti punti improprii;
per uno studio approfondito di questi argomenti si rimanda, per esempio, a [17].

Scopo di questo paragrafo è quello di introdurre un luogo geometrico di punti nel piano
che comprenda tutte le coniche, tranne ovviamente il caso degenere appena citato.

Definizione 10.5 Una conica è il luogo dei punti del piano per cui si mantiene costante
il rapporto tra la distanza di tali punti da un punto fissato e da una retta fissata.

Detti P il punto generico della conica, F il punto assegnato, f la retta assegnata ed e la


costante, la definizione precedente equivale a:
d(P, F )
= e. (10.23)
d(P, f )
Capitolo 10 489

Figura 10.43: L’ellisse

Figura 10.44: L’iperbole


490 Riduzione a Forma Canonica delle Coniche

Figura 10.45: La parabola

Il punto F prende il nome di fuoco della conica, la retta f è la direttrice della conica e
la costante e è l’eccentricità della conica. Se si assume che la distanza del punto F dalla
retta f sia positiva (mai nulla), allora è chiaro dalla definizione che e > 0. La situazione
geometrica è illustrata nella Figura 10.46.

Si procede ora alla determinazione dell’equazione del luogo geometrico dei punti P che
verificano la formula (10.23). Fissato un riferimento cartesiano R = (O, x, y), si pon-
gono P = (x, y), F = (x0 , y0 ) e f : ax + by + c = 0, per cui la relazione (10.23)
diventa:
p
(x x0 )2 + (y y0 )2
= e,
|ax + by + c|
p
a2 + b 2
elevando al quadrato, si ottiene:

(ax + by + c)2
(x x0 )2 + (y y0 )2 = e2 . (10.24)
a2 + b 2
Si distinguono i due casi seguenti:

1. F 2 f : il fuoco appartiene alla direttrice.


Capitolo 10 491

Figura 10.46: Un punto P di una conica di fuoco F e direttrice f

2. F 2
/ f : il fuoco non appartiene alla direttrice.

In ciascuno dei due casi elencati si esamineranno i sottocasi:

a. e = 1;

b. e > 1;

c. e < 1.

Primo Caso F 2 f : il fuoco appartiene alla direttrice. Si sceglie un sistema di riferi-


mento opportuno, ponendo l’origine coincidente con F e la direttrice f coincidente con
l’asse y , pertanto il fuoco avrà coordinate F = (0, 0) ed f equazione x = 0. L’equazione
(10.24) diventa:
x2 + y 2 = e2 x2 ,
ossia:
(1 e2 )x2 + y 2 = 0. (10.25)

Si inizia lo studio dei tre sottocasi:

a. e = 1. L’equazione (10.25) si riduce a y 2 = 0, si tratta dell’asse x contato due


volte; è una conica degenere e, in un riferimento qualsiasi, consiste nell’equazione
di una retta elevata al quadrato, per esempio (x y + 5)2 = 0.
492 Riduzione a Forma Canonica delle Coniche

b. e > 1. In questo caso si ha 1 e2 < 0, pertanto l’equazione (10.25) è una differenza


di quadrati che può essere espressa come:

p p
(y + e2 1 x)(y e2 1 x) = 0.

Si tratta, quindi, dell’unione di due rette incidenti e, di nuovo, di una conica dege-
nere.

c. e < 1. Allora si ha 1 e2 > 0, pertanto l’equazione (10.25) rappresenta la somma


di due quadrati, ossia un unico punto reale, in questo caso l’origine. Si tratta, di
nuovo, di una conica degenere, interpretata come l’unione di due rette immaginarie
coniugate (cfr. Par. 9.10.1) incidenti in un punto reale (è il vertice del cono citato
in precedenza).

Riassumendo: se F 2 f allora si ottengono solo coniche degeneri date dall’unione di


due rette coincidenti, o dall’unione di due rette incidenti. Si osservi, di nuovo, che, per
ottenere il caso della conica degenere formata da due rette parallele, è necessario usare
metodi di geometria proiettiva, in questo ambiente si deve porre la direttrice coincidente
con la retta impropria, ossia la retta contenente tutti i punti improprii.

Secondo Caso / f : il fuoco non appartiene alla direttrice. Si sceglie un riferimento


F 2
opportuno ponendo F sull’asse x e la direttrice f ortogonale all’asse x. Siano (c, 0) le
coordinate di F e x = h l’equazione di f , con c 6= h. L’equazione (10.23) diventa:

(1 e2 )x2 + y 2 2(c e2 h)x + c2 e2 h2 = 0. (10.26)

Si inizia lo studio dei tre sottocasi:

a. e = 1. Dall’equazione (10.26) si ha:

y2 2(c h)x + c2 h2 = 0. (10.27)

Si sceglie l’origine del sistema di riferimento in modo che c + h = 0, vale a dire


l’origine O coincide con il punto medio del segmento di estremi il fuoco F e il
punto di incontro della direttrice con l’asse x. Allora l’equazione (10.27) si riduce
a:
y 2 = 4cx,
e, ponendo a = 1/4c, si perviene alla nota forma canonica della parabola:

x = ay 2 .
Capitolo 10 493

b. e c. e 6= 1. Si determinano le intersezioni della curva di equazione (10.26) con l’asse


x. Ponendo y = 0 nell’equazione (10.26) si ha:

(1 e2 )x2 2(c e2 h)x + c2 e2 h2 = 0. (10.28)

Indicati con A1 = (x1 , 0) e A2 = (x2 , 0) i due punti cercati, dall’equazione


precedente segue che:
✓ ◆
c e2 h
x1 + x2 = 2 .
1 e2

(Si controlli per esercizio che l’equazione (10.28) ammette sempre due soluzioni
reali e distinte). Si pone l’origine del riferimento nel punto medio del segmento di
estemi A1 , A2 , ossia, si pone c e2 h = 0, da cui:
c
h= . (10.29)
e2

Sia a = x1 , quindi A1 = (a, 0) e A2 = ( a, 0). Il prodotto delle soluzioni


dell’equazione (10.28) è:

c2 e2 h2
x1 x2 = a2 =
1 e2
e, tenendo conto di (10.29), si perviene alla formula:

c
e= .
a
Sostituendo i risultati ottenuti in (10.26) segue:

(a2 c2 )x2 + a2 y 2 = a2 (a2 c2 ). (10.30)

Si possono distinguere i due ultimi casi:

b. e > 1. Allora e = c/a > 1 e c > a, si può porre b2 = c2 a2 , quindi l’equazione


(10.30) diventa:

x2 y2
= 1,
a2 b2
che è un’equazione dell’iperbole in forma canonica.
494 Riduzione a Forma Canonica delle Coniche

c. e < 1. Allora e = c/a < 1 e c < a, si può porre b2 = a2 c2 , quindi l’equazione


(10.30) diventa:

x2 y2
+ = 1,
a2 b2
che è un’equazione dell’ellisse in forma canonica. In entrambi i casi si ottengono
(per simmetria) due direttrici e due fuochi, per esempio la direttrice relativa al fuoco
F = (c, 0) ha equazione:

a2
x=h= .
c
Nel caso dell’ellisse, h > a, le due direttrici sono esterne alla figura, nel caso
dell’iperbole h < a, le due direttrici sono posizionate tra l’asse y e i vertici.

Si osservi che per c = 0 e, quindi, e = 0, si ottiene la circonferenza che risulta esclusa


da questo luogo di punti in quanto e = 0 implica P = F. In conclusione, anche il
luogo considerato non comprende tutte le coniche, mancando la circonferenza e la coppia
di rette parallele. Una rappresentazione comune di tutte le coniche si vedrà nel paragrafo
che segue, dimostrando che le coniche sono tutte rappresentate da una generica equazione
di secondo grado in x, y .

10.4 Le coniche: equazioni di secondo grado,


riduzione delle coniche in forma canonica
Scopo di questo paragrafo è dimostrare il seguente teorema.

Teorema 10.6 Nel piano, ogni equazione di secondo grado nelle incognite x, y , scritta
rispetto ad un riferimento cartesiano R = (O, x, y), rappresenta una conica.

Si premette la seguente definizione.

Definizione 10.6 Si dice che l’equazione di una conica è scritta in forma canonica se la
sua equazione di secondo grado assume una delle seguenti forme:

↵x2 + y 2 + = 0, ↵x2 + y = 0, y 2 + ✏x = 0,

con ↵, , , , ✏ coefficienti reali e ↵ 6= 0, 6= 0.


Capitolo 10 495

Sono esempi di equazioni di coniche scritte in forma canonica (10.9), (10.14), (10.17) e
(10.18). Nella dimostrazione del Teorema 10.6 viene anche indicato il metodo da seguire
per passare da un’equazione di secondo grado in x, y alla forma canonica di una conica.
Per questo motivo e per aiutare la comprensione del procedimento usato, all’interno della
dimostrazione sono inseriti esempi numerici di riduzione a forma canonica di coniche
particolari.

Dimostrazione del Teorema 10.6 Sia:

C : a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0 (10.31)


un’equazione di secondo grado in x, y con coefficienti aij 2 R, i, j = 1, 2, 3, tali che
a211 + a212 + a222 6= 0. Si introducono le due matrici simmetriche definite tramite (10.31):
0 1
✓ ◆ a11 a12 a13
a11 a12
A= , B = @ a12 a22 a23 A,
a12 a22
a13 a23 a33
che vengono spesso dette matrici associate alla conica C di equazione (10.31). L’equa-
zione di C si può scrivere in notazione matriciale come:
0 1
x
x y 1 B @ y A = 0, (10.32)
1
oppure come:
✓ ◆ ✓ ◆
x x
x y A +2 a13 a23 + a33 = 0. (10.33)
y y

Si vuole studiare il luogo dei punti P = (x, y) che verficano l’equazione (10.31), rispetto
ad un riferimento cartesiano fissato R = (O, x, y) che determina la base ortonormale
positiva B = (i, j) del piano vettoriale V2 .

Esempio 10.4 La circonferenza C di equazione:

C : x2 + y 2 + ax + by + c = 0

con centro C e raggio r dati da:


✓ ◆
a b a2 b2
C= , , r2 = + c,
2 2 4 4
496 Riduzione a Forma Canonica delle Coniche

individua le matrici:
0 a 1
1 0
B 2 C
B C
✓ ◆ B C
1 0 B b C
A= , B=B
B 0 1 C.
0 1 B 2 C
C
B C
@ a b A
c
2 2

Si osservi che A è in forma diagonale, det(A) > 0 e:


a2 b2
det(B) = c = r2 .
4 4
Pertanto, se:
a2 b2
+ 6= c
4 4
allora det(B) 6= 0. Si osservi anche che se:
a2 b2
+ =c
4 4
si ha la circonferenza degenere di centro il punto ( a/2, b/2) e raggio pari a zero (ossia
il punto ( a/2, b/2)), in questo caso det(B) = 0. Se:
a2 b2
+ <c
4 4
si ottiene la circonferenza immaginaria (cfr. Oss. 10.1).

Esempio 10.5 L’ellisse di equazione (in forma canonica):


x2 y2
+ =1
a2 b2
individua le matrici:
0 1
1
0 1 0 0 C
1 B a2
0 C B C
B a2 B C
B C B 1 C
A=B C, B=B 0 0 C.
@ 1 A B C
B b2 C
0 @ A
b2
0 0 1
Capitolo 10 497

Si osservi che A è in forma diagonale ed inoltre:

det(A) > 0, det(B) 6= 0.

Esempio 10.6 L’ellisse immaginaria di equazione (in forma canonica):

x2 y2
+ = 1
a2 b2
individua le matrici:
0 1
1
0 1 0 0 C
1 B a2
0 C B C
B a2 B C
B C B 1 C
A=B C, B=B 0 0 C.
@ 1 A B C
B b2 C
0 @ A
b2
0 0 1
Si osservi che A è in forma diagonale ed inoltre:

det(A) > 0, det(B) 6= 0.

Esempio 10.7 L’iperbole di equazione (in forma canonica):

x2 y2
=1
a2 b2
individua le matrici:
0 1
1
0 1 0 0 C
1 B a2
0 B C
B a2 C B C
B C B 1 C
A=B C, B=B 0 0 C.
@ 1 A B C
B b2 C
0 @ A
b2
0 0 1

Si osservi che A è in forma diagonale ed inoltre:

det(A) < 0, det(B) 6= 0.


498 Riduzione a Forma Canonica delle Coniche

Esempio 10.8 La parabola, di equazione (in forma canonica):

y 2 = 2px
individua le matrici:
0 1
✓ ◆ 0 0 p
0 0 B C
A= , B=B
@ 0 1 0 C
A.
0 1
p 0 0

Si osservi che, anche in questo caso, A è in forma diagonale ed inoltre:

det(A) = 0, det(B) 6= 0.

Analogamente la parabola, di equazione (in forma canonica):

x2 = 2py

individua le matrici:
0 1
✓ ◆ 1 0 0
1 0 B C
A= , B=B
@ 0 0 p C
A.
0 0
0 p 0

Si osservi che, anche in questo caso, A è in forma diagonale ed inoltre:

det(A) = 0, det(B) 6= 0.

Esempio 10.9 La conica degenere di equazione:

4x2 + y 2 + 4xy = 0,
ossia (2x + y)2 = 0, rappresenta la retta di equazione 2x + y = 0 contata due volte ed
individua le matrici:
0 1
✓ ◆ 4 2 0
4 2 @
A= , B= 2 1 0 A.
2 1
0 0 0
Si osservi che rank(A) = rank(B) = 1 e pertanto det(A) = 0 e det(B) = 0.
Capitolo 10 499

Esempio 10.10 La conica degenere di equazione:

y2 9=0

rappresenta la coppia di rette reali y = 3 e y = 3 ed individua le matrici:


0 1
✓ ◆ 0 0 0
0 0
A= , B=@ 0 1 0 A.
0 1
0 0 9

Si osservi che rank(A) = 1 e rank(B) = 2 e pertanto det(A) = 0 e det(B) = 0.

Esempio 10.11 La conica degenere di equazione:

y2 + 9 = 0

rappresenta una coppia di rette immaginarie coniugate di equazioni y = 3i e y = 3i.


(cfr. Par. 9.10.1) ed individua le matrici:
0 1
✓ ◆ 0 0 0
0 0
A= , B = @ 0 1 0 A.
0 1
0 0 9

Analogamente all’esempio precedente si osservi che rank(A) = 1 e rank(B) = 2.

Si riprende ora la dimostrazione del teorema, suddividendo il procedimento di riduzione


a forma canonica in due casi.

Primo caso a12 = 0, la matrice A associata al luogo dei punti P = (x, y) rappresen-
tato dall’equazione (10.31) si presenta in forma diagonale:
!
a11 0
A=
0 a22
e l’equazione (10.31) assume la forma:

a11 x2 + a22 y 2 + 2a13 x + 2a23 y + a33 = 0.


Operando con una opportuna traslazione degli assi si perviene all’annullarsi dei coeffi-
cienti a13 e a23 . Questo caso è stato discusso nel Paragrafo 10.2.5 a cui si rimanda per il
metodo da seguire e per gli esempi inseriti.
500 Riduzione a Forma Canonica delle Coniche

Secondo caso a12 6= 0. Si vuole effettuare un opportuno cambiamento della base


ortonormale positiva B = (i, j) determinata dal riferimento cartesiano R = (O, x, y) nel
quale è scritta l’equazione C e quindi un’opportuna rotazione degli assi coordinati x e y
in modo da trasformare l’equazione (10.33) in una nuova equazione:
✓ ◆ ✓ ◆
0 x0 x0
x 0
y 0
A +2 a013 a023 + a033 = 0,
y0 y0
con A0 matrice diagonale.

Dapprima si vuole quindi studiare come cambia l’equazione (10.33) se si opera mediante
un cambiamento di base. Sia B 0 = (i0 , j0 ) una base ortonormale positiva e si indichino
con: ✓ ◆ ✓ 0 ◆
x x
=P (10.34)
y y0
le equazioni del cambiamento d base da B a B 0 , dove:
✓ ◆ ✓ 0 ◆
x x
,
y y0

sono le matrici colonna delle componenti di un generico vettore x scritte rispetto alla base
B e alla base B 0 , rispettivamente, e P è la matrice del cambiamento di base da B a B 0 .
Sostituendo le equazioni del cambiamento di base (10.34) in (10.33), l’equazione (10.33)
si trasforma in:
✓ ◆ ✓ ◆
0 0 t x0 x0
x y ( P AP ) +2 a13 a23 P + a33 = 0.
y0 y0
Si osservi perciò che il termine noto rimane invariato. Poiché A è una matrice simmetrica,
esiste, per il Teorema 7.8, una matrice ortogonale P che permette di ottenere la matrice
diagonale: ✓ ◆
t 1 0
D = P AP = ,
0 2

con 1 e 2 autovalori di A. Pertanto, scegliendo come nuova base B 0 una base ortonor-
male positiva di autovettori di A, ovvero una base ortonormale di autovettori di A tale
che la matrice del cambiamento di base P abbia determinante uguale a 1, rispetto al nuo-
vo riferimento R0 = (O, x0 , y 0 ), con assi x0 e y 0 nella direzione degli autovettori di A,
l’equazione (10.33) si trasforma in:
✓ ◆ ✓ ◆
x0 x0
x 0
y 0
D +2 a013 a023 + a33 = 0, (10.35)
y0 y0
Capitolo 10 501

con:
a013 a023 = a13 a23 P.
Le equazioni (10.34) corrispondono quindi ad una rotazione nel piano (cfr. Es. 6.24) e
nelle nuove coordinate (x0 , y 0 ) l’equazione (10.33) si trasforma in:

0 2 0 2
1 (x ) + 2 (y ) + 2a013 x0 + 2a023 y 0 + a33 = 0. (10.36)
Inoltre, da (10.34) si ottiene:
0 1 0 10 0 1
x 0 x
@ y A=@ P 0 A @ y 0 A.
1 0 0 1 1

Posto: 0 1
0
P
Q=@ 0 A,
0 0 1
l’equazione (10.32), mediante il cambiamento di base effettuato, si trasforma in:
0 0 1
x
0 0 0@ 0 A
x y 1 B y = 0,
1
con: 0 1
1 0 a013
B C
B0 = @ 0 2 a023 A = t QBQ.
a013 a023 a33
Confrontando le due equazioni (10.33) e (10.35), poiché det(D) = det(A), si ha che la
rotazione non cambia il determinante della matrice A. Inoltre:

det(B 0 ) = det(B), (10.37)

essendo det(Q) = det(P ) = 1.

Infine, operando mediante un completamento dei quadrati e quindi applicando una trasla-
zione opportuna del tipo: ⇢ 0
x = X + x0
y 0 = Y + y0 ,
come descritto nel Paragrafo 10.2.5, si completa la riduzione a forma canonica, trasfor-
mando l’equazione (10.35) in un’equazione in forma canonica nel nuovo riferimento
cartesiano R00 = (O0 , X, Y ).
502 Riduzione a Forma Canonica delle Coniche

Prima di continuare con la dimostrazione del teorema, vengono inseriti alcuni esempi
numerici per capire meglio il procedimento di riduzione a forma canonica di una conica
appena descritto.

Esempio 10.12 Si riduca a forma canonica la conica di equazione:


p
3x2 + 2xy + 3y 2 + 2 2x = 0. (10.38)
Le matrici A e B associate alla conica sono date da:
0 p 1
✓ ◆ 3 1 2
3 1 B C
A= , B=@ 1 3 0 A
1 3 p
2 0 0

e (10.38) si può scrivere come:


✓ ◆ ✓ ◆
x p x
x y A + 2 2 0 = 0. (10.39)
y y
Si osservi che det(A) = 8 e det(B) 6= 0, ci sono, quindi, ragionevoli motivi per pensare
che si tratti di un’ellisse. Gli autovalori di A sono 1 = 2 e 2 = 4, i corrispondenti
autovettori (di norma unitaria per ottenere una matrice ortogonale del cambiamento di
base) sono:
✓ ◆ ✓ ◆
0 1 1 0 1 1
i = p , p , j = p ,p ,
2 2 2 2
vale a dire, le equazioni della rotazione sono:
0 1 1 0 1 0 1 10 0 1
x p x0 p x
B C B C B 2 2 C B C
B C=PB C=B
B
CB
C@ C,
@ A @ A @ A A
1 1
y y 0 p p y 0
2 2
che sostituite in (10.39) portano all’equazione:

0 10 1 0 1 1 10 0 1
2 0 x0 p p x
B CB C B 2 2 C
B CB C+
p B CB C
x0 y 0 @ A@ A 2 2 0 B CB@
C = 0,
A
@ 1 1 A
0 4 y0 p p y0
2 2
Capitolo 10 503

ossia:

2(x0 )2 + 4(y 0 )2 + 2x0 + 2y 0 = 0.


Operando con il metodo del completamento dei quadrati mediante la traslazione:
8
>
> 0 1
< X=x +2
>

>
> 1
>
: Y = y0 +
4
si ottiene:

X2 Y2
+ = 1.
3 3
8 16
Si tratta proprio di un’ellisse. Per calcolarne le coordinate del centro, dei vertici e le
equazioni degli assi è necessario determinare le equazioni complessive del movimento
rigido del piano dato dalla composizione della rotazione e della traslazione e che a volte
viene anche denominato rototraslazione. Si ha:
0 1 0 1 1 0 1 1 20 1 0 13
x p x0 p X 1
B C B C B 2 2 C 6
C 6B C B 2 C7
B C=PB C=B
B C 6B C B
B
C7
C7
@ A @ A @ @ A
1 1 A4 @ 1 A5
y y 0 p p Y
2 2 4

0 1 1 10 1 0 3 1
p p X p
B 2 2 C B 4 2 C
B CB C B C
=B CB@
C
A B C.
@ 1 1 A @ 1 A
p p Y p
2 2 4 2
Quindi il centro O0 dell’ellisse, rispetto al riferimento R = (O, x, y), ha coordinate:
✓ ◆
0 3 1
O = p , p ,
4 2 4 2
gli assi, che, nel riferimento R00 = (O0 , X, Y ), hanno equazioni X = 0, Y = 0, hanno
equazioni, nel riferimento iniziale R = (O, x, y), rispettivamente:
p p
2 2
x y+ = 0, x + y + = 0.
2 4
504 Riduzione a Forma Canonica delle Coniche

Con lo stesso procedimento si possono ricavare le coordinate dei vertici e dei fuochi
dell’ellisse.

Esempio 10.13 Si riduca a forma canonica la conica di equazione:

4x2 4xy + y 2 + 6x + 2y 3 = 0. (10.40)

Le matrici A e B associate alla conica sono date da:


0 1
✓ ◆ 4 2 3
4 2 @
A= , B= 2 1 1 A
2 1
3 1 3
e (10.40) si può scrivere come:
✓ ◆ ✓ ◆
x x
x y A + 6 2 3 = 0. (10.41)
y y
Si osservi che det(A) = 0 e det(B) 6= 0, ci sono, quindi, ragionevoli motivi per pensare
che si tratti di una parabola. Gli autovalori di A sono 1 = 0 e 2 = 5, i corrispondenti
autovettori (di norma unitaria per avere una matrice del cambiamento di base che sia
ortogonale) sono:
✓ ◆ ✓ ◆
0 1 2 0 2 1
i = p ,p , j = p ,p ,
5 5 5 5
vale a dire, le equazioni della rotazione sono:
0 1 0 1 0 1 2 10 0 1
x p x0 p x
B C B C B
B 5 5 C
CBB C
B C=PB C=B C@ C,
@ A @ A @ A A
2 1
y y0 p p y0
5 5
che sostituite in (10.41) portano all’equazione:

0 10 1 0 1 2 10 0 1
0 0 x0 p p x
B CB C B 5 5 C
B CB C+ B CB C
x0 y 0 @ A@ A 6 2 B CB@
C
A 3 = 0,
@ 2 1 A
0 5 y0 p p y0
5 5
ossia:
Capitolo 10 505

p p
5(y 0 )2 + 2 5x0 2 5y 0 3 = 0. (10.42)
Operando con il metodo del completamento dei quadrati l’equazione (10.42) si trasforma
nel modo seguente:
✓ ◆
0 2 2p 0 1 p
5 (y ) 5y + = 2 5 x0 + 4,
5 5
✓ ◆2 ✓ ◆
0 1 p 0 2
5 y p = 2 5 x p ,
5 5
vale a dire, con la traslazione: 8
> 2
>
> X = x0 p
< 5
>
> 1
>
: Y = y0 p
5
si ottiene: p
2 2 5
Y = X.
5
Si tratta proprio di una parabola. Per calcolare le coordinate del vertice, e le equazioni
dell’asse e della direttrice è necessario determinare le equazioni della rototraslazione del
piano che ha permesso di ricavare tale equazione, e precisamente:

0 1 0 10 1 2 1 20 1 0 2 13
x p x0 p X p
B C B C B 5 5 C 6
C 6B C B 5 C 7
B C = PB C=B
B C 6B C+B C7
@ A @ A @ A 4@ A B
@
C7
2 1 1 A5
y y0 p p Y p
5 5 5
0 1 2 10 1 0 1
p p X 0
B 5 5 C B C B C
B CB C + B C.
= B C@ A @ A
@ 2 1 A
p p Y 1
5 5
Di conseguenza il vertice della parabola O0 ha coordinate (0, 1) rispetto al riferimento
R = (O, x, y) e l’asse, che, nel riferimento R00 = (O0 , X, Y ), ha equazione Y = 0, ha
equazione:

2x y+1=0
506 Riduzione a Forma Canonica delle Coniche

nel riferimento iniziale R = (O, x, y). Con lo stesso procedimento si possono ricavare le
coordinate del fuoco e l’equazione della direttrice.

Si riprende ora la dimostrazione del Teorema 10.6. Dall’equazione (10.36) si ottiene:


0 1
1 0 a013
B C
B0 = @ 0 2 a023 A
a013 a023 a33
il cui determinante è:

det(B 0 ) = 1 2 a33
0 2
1 (a23 )
0 2
2 (a13 ) . (10.43)
Allo scopo di poter scrivere l’equazione della conica in forma canonica si deve effettuare
la traslazione:

x0 = X + x0
(10.44)
y 0 = Y + y0
in modo da annullare i termini di primo grado. Per calcolare il valore di x0 , y0 si sostitui-
scono le equazioni della traslazione (10.44) in (10.36), si ottiene:

1X
2
+ 2Y
2
+ 2(x0 1 + a013 )X + 2(y0 2 + a023 )Y + =0 (10.45)
e il temine noto è dato da:

= 2
1 x0 + 2
2 y0 + 2a013 x0 + 2a023 y0 + a33 . (10.46)

Si distinguono i seguenti casi:

1. 1 6= 0, 2 6= 0;

2. 1 = 0, 2 6= 0;

3. 1 6= 0, 2 = 0.

1. Essendo 1 6= 0, 2 6= 0, allora 1 2 = det(D) = det(A) 6= 0. Si pone:

a013 a023
x0 = , y0 = , (10.47)
1 2

sostituendo (10.47) in (10.45) si ha:


Capitolo 10 507

2 2
1X + 2Y + = 0,

e sostituendo in (10.46) si ottiene:

det(B 0 )
= . (10.48)
1 2

Si perviene quindi alla seguente classificazione, tenendo conto che, per la relazione
(10.37), det(B) = det(B 0 ) :

a. se 1 e 2 hanno lo stesso segno e det(B) 6= 0, si ottiene un’ellisse reale o


immaginaria;
b. se 1 e 2 hanno segno opposto e det(B) 6= 0, si ottiene un’iperbole;
c. se 1 e 2 hanno lo stesso segno e det(B) = 0 (ossia = 0, cfr. (10.48)),
si ottiene una conica degenere formata da un solo punto reale (intersezione di
due rette le cui equazioni hanno coefficienti in campo complesso);
d. se 1 e 2 hanno segno opposto e det(B) = 0 (ossia = 0, cfr. (10.48)), si
ottiene una conica degenere formata da due rette reali incidenti.

Si osservi che nei due ultimi casi il rango della matrice B è 2.

2. 1 = 0, 2 6= 0, l’equazione (10.36) diventa:


0 2
2 (y ) + 2a013 x0 + 2a023 y 0 + a33 = 0.

Sostituendo le equazioni della traslazione (10.44) si ottiene:

2Y
2
+ 2(y0 2 + a023 )Y + 2a013 X + = 0, (10.49)

e il temine noto è dato da:

= 2
2 y0 + 2a013 x0 + 2a023 y0 + a33 .

Si distinguono i due sottocasi:

a. a013 = 0: segue che:

a023
y0 = ;
2
508 Riduzione a Forma Canonica delle Coniche

operando quindi con una traslazione in cui x0 può assumere qualsiasi valore,
da (10.49) si ha:

2Y
2
+ = 0. (10.50)

Si ottiene, inoltre, da (10.43) che det(B 0 ) = 0. Se 6= 0, allora il rango di


B 0 è 2 e l’equazione (10.50) rappresenta due rette parallele (con equazioni a
coefficienti reali o complessi). Se anche = 0, allora il rango di B 0 è 1 e si
ottengono due rette coincidenti.
b. a013 6= 0: segue, di nuovo, che:

a023
y0 =
2

e l’equazione (10.49) si riduce a:

2Y
2
+ 2a013 X + = 0,

ossia:
✓ ◆
2Y
2
+ 2a013 X+ = 0.
2a013
Dall’equazione = 0 si ottiene anche il valore di x0 , pertanto è univocamente
definita la traslazione cercata. La conica è una parabola. Si osservi che:
0 2
det(B) = 2 (a13 ) 6= 0.

3. 1 6= 0, 2 = 0, l’equazione (10.36) diventa:


0 2
1 (x ) + 2a013 x0 + 2a023 y 0 + a33 = 0.

Sostituendo le equazioni della traslazione (10.44) si ottiene:

1X
2
+ 2(x0 1 + a013 )X + 2a023 Y + = 0, (10.51)

e il temine noto è dato da:

= 2
1 x0 + 2a013 x0 + 2a023 y0 + a33 .

Si distinguono i due sottocasi:


Capitolo 10 509

a. a023 = 0: segue che:


a013
x0 = ,
1
operando quindi con una traslazione in cui y0 può assumere qualsiasi valore,
da (10.51) si ha:

1X
2
+ = 0. (10.52)
Si ottiene, inoltre, da (10.43) che det(B 0 ) = 0. Se 6= 0, allora il rango
di B 0 è 2 (si ricordi che 1 = 0) e l’equazione (10.52) rappresenta due rette
parallele (con equazione a coefficienti reali o immaginarie). Se anche = 0,
allora il rango di B 0 è 1 e si ottengono due rette coincidenti.
b. a023 6= 0: segue, di nuovo, che:

a013
x0 =
1

e l’equazione (10.51) diventa:

1X
2
+ 2a023 Y + = 0,
ossia:
✓ ◆
1X
2
+ 2a023 Y + = 0.
2a023
Dall’equazione = 0 si ottiene anche il valore di y0 , pertanto è univocamen-
te definita la traslazione cercata. La conica è una parabola. Si osservi che
0 2
det(B) = 1 (a23 ) 6= 0.

A partire dall’equazione (10.31) si sono cosı̀ ottenute tutte le coniche degeneri e non
degeneri scritte in forma canonica secondo la Definizione 10.6. Si osservi che tutte le co-
niche degeneri sono caratterizzate da det(B) = 0 e classificate dal rango di B ; mentre se
det(B) 6= 0, allora le coniche non degeneri sono caratterizzate da det(A); e precisamente
det(A) = 0 corrisponde alla parabola, det(A) > 0 all’ellisse, det(A) < 0 all’iperbole.

Osservazione 10.4 Come già affermato all’inizio del Paragrafo 10.3, si dicono coniche
degeneri quelle coniche costituite da: due rette immaginarie coniugate, due rette reali
e distinte, due rette parallele, due rette coincidenti. La caratterizzazione delle coniche
degeneri attraverso la condizione det(B) = 0 si ottiene facilmente dopo aver ridotto le
coniche in forma canonica e ricordando che det(B) = det(B 0 ).
510 Riduzione a Forma Canonica delle Coniche

Riassumendo i risultati ottenuti nella dimostrazione precedente, si può procedere nel mo-
do seguente alla classificazione delle coniche attraverso il rango e il determinante delle
matrici A e B ad esse associate, tenuto conto che rank(A), det(A) sono invarianti per
rotazioni e rank(B), det(B) sono invarianti per rototraslazioni nel piano. Per completare
la classificazione è necessario anche considerare la traccia della matrice A, come si evin-
ce dalla tabella che segue. Si ricordi che tr(A) è un’invariante per le rotazioni del piano
(cfr. (2.13)) e che la matrice A non cambia quando si opera mediante una traslazione.

8 8
>
> >
> det(A) > 0, tr(A) det(B) < 0 : ellisse,
>
> >
>
>
> < ⇢
>
> ellisse
< rank(A) = 2 : det(A) > 0, tr(A) det(B) > 0 :
• rank(B) = 3 >
> immaginaria,
> >
>
>
> :
>
> det(A) < 0 : iperbole;
>
>
>
: rank(A) = 1 (det(A) = 0) : parabola.

8 8 ⇢
>
> >
> due rette immaginarie
>
> < det(A) > 0 :
>
> incidenti in un punto reale,
> rank(A) = 2 :
>
< >
>
: det(A) < 0 : due rette incidenti;
• rank(B) = 2
>
>
>
>
>
> ⇢
>
> due rette parallele
: rank(A) = 1(det(A) = 0) :
(reali o immaginarie).

• rank(B) = rank(A) = 1 (det(A) = 0) : due rette coincidenti.

10.5 Esercizi di riepilogo svolti


Esercizio 10.10 Rispetto ad un riferimento cartesiano R = (O, x, y) o equivalentemente
R = (O, i, j), scrivere l’equazione dell’ellisse avente centro nell’origine e vertici:
p p p p p p p p
A1 = (4 2, 4 2), A2 = ( 4 2, 4 2), B1 = ( 2, 2), B2 = ( 2, 2),

indicando esplicitamente le equazioni del cambiamento di riferimento usato.

Soluzione Le coppie di vertici A1 , A2 e B1 , B2 appartengono rispettivamente alle


rette:
X: x y = 0, Y : x + y = 0,
Capitolo 10 511

le quali, con l’origine O, si possono assumere come assi del nuovo riferimento cartesiano
R0 = (O, X, Y ) o equivalentemente R0 = (O, i0 , j0 ), dove:

1 1
i0 = p (i + j), j0 = p ( i + j).
2 2

Tenuto conto che l’ellisse ha semiassi:

a = d(A1 , O) = 8

b = d(B1 , O) = 2,

la sua equazione, nel riferimento R0 , è:

X2 Y2
+ = 1. (10.53)
64 4
Sia: 0 1 1 1
p p
B 2 2 C
B C
P =B C
@ 1 1 A
p p
2 2
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base
ortonormale positiva B = (i, j) alla base ortonormale positiva B 0 = (i0 , j0 ), si ha:
✓ ◆ ✓ ◆
x X
=P
y Y

e: ✓ ◆ ✓ ◆
X t x
= P ,
Y y
(si ricordi che tP = P 1
). Sostituendo in (10.53) si ottiene:

17x2 + 17y 2 30xy 128 = 0

che è l’equazione dell’ellisse richiesta.

Esercizio 10.11 Rispetto ad un riferimento cartesiano R = (O, x, y) o equivalentemente


R = (O, i, j), scrivere l’equazione della parabola avente come asse la retta r : x 2y = 0,
il vertice nell’origine ed il fuoco nel punto F = (2, 1).
512 Riduzione a Forma Canonica delle Coniche

Soluzione I vettori r = 2i+j parallelo alla retta r, s = i+2j ortogonale ad r e l’ori-


gine O individuano un nuovo riferimento cartesiano R0 = (O, X, Y ) o equivalentemente
R0 = (O, i0 , j0 ), dove:

r 2 1 s 1 2
i0 = = p i + p j, j0 = = p i + p j.
krk 5 5 ksk 5 5
p
In tale riferimento, poiché d(O, F ) = 5, l’equazione della parabola è:
p
Y 2 = 4 5X. (10.54)
Indicata con:
0 2 1 1
p p
B 5 5 C
B C
P =B C
@ 1 2 A
p p
5 5
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base
ortonormale positiva B = (i, j) alla base ortonormale positiva B 0 = (i0 , j0 ), si ha:
✓ ◆ ✓ ◆
x X
=P
y Y
e:
✓ ◆ ✓ ◆
X t x
= P ,
Y y
(si ricordi che tP = P 1
). Sostituendo in (10.54) si ottiene:

x2 4xy + 4y 2 40x 20y = 0

che è l’equazione della parabola richiesta.

Esercizio 10.12 Rispetto al riferimento cartesiano R = (O, x, y), scrivere l’equazione


della parabola avente fuoco F = (2, 1) e direttrice la retta f : 2x + y + 5 = 0.

Soluzione Il punto generico P = (x, y) della parabola verifica la condizione:

d(P, F ) = d(P, f ), (10.55)


ossia:
Capitolo 10 513

✓ ◆2
2 2 2x + y + 5
(x 2) + (y 1) = p ,
5
vale a dire:

x2 4xy + 4y 2 40x 20y = 0.


Nel riferimento R0 = (O, X, Y ) che ha l’asse X coincidente con la retta OF di equazio-
ne x p2y = 0 e l’asse Y passante per O ed ortogonale all’asse X , il fuoco ha coordinate
F = ( 5, 0) e l’equazione della parabola è:
p
Y 2 = 4 5X.
p
La stessa equazione si p
ottiene nel riferimento R0 dove la retta f ha equazione X = 5,
il fuoco ha cordinate ( 5, 0), quindi da (10.55) segue:
p p
(X 5)2 + Y 2 = (X + 5)2 .

Esercizio 10.13 Verificare che la conica di equazione:


2x2 5xy 3y 2 + 7y 2=0 (10.56)
è degenere e scriverla come unione di due rette.

Soluzione La matrice B a cui è associata la conica:


0 1
5
B 2 0 C
B 2 C
B C
B 5 7 C
B=B
B 2 3 C
B 2 C
C
B C
@ 7 A
0 2
2
ha rango 2. Si tratta quindi dell’unione di due rette incidenti. Per determinarne le equa-
zioni si può, per esempio, ricavare il valore di x, rispetto ad y , nell’equazione (10.56),
ottenendo:
p
5y ± 25y 2 8( 3y 2 + 7y 2)
x1,2 =
4
5y ± (7y 4)
= ,
4
514 Riduzione a Forma Canonica delle Coniche

da cui segue:

2 2 y+2
2x 5xy 3y + 7y 2 = 2 [x (3y 1)] x = 0,
2
che è la decomposizione cercata.

10.6 Per saperne di più


10.6.1 Potenza di un punto rispetto ad una circonferenza
In questo paragrafo si introduce il concetto di potenza di un punto rispetto ad una cir-
conferenza mediante il quale si perviene ad un’altra definizione di asse radicale di due
circonferenze.

Definizione 10.7 La potenza di un punto P0 = (x0 , y0 ) rispetto ad una circonferenza


C di equazione x2 + y 2 2↵x 2 y + = 0 è il numero reale p(P0 ) che si ottiene
sostituendo il valore delle coordinate del punto P0 nell’equazione della circonferenza,
ovvero:
p(P0 ) = x20 + y02 2↵x0 2 y0 + .

Il teorema che segue permette di interpretare geometricamente la potenza di un punto


rispetto ad una circonferenza.

Teorema 10.7 Data la circonferenza C di centro C e raggio r, la potenza di un punto


P0 rispetto a C è data da:
p(P0 ) = d(P0 , C)2 r2
dove d(P0 , C) indica la distanza del punto P0 dal centro C .

Dimostrazione La dimostrazione è ovvia tenendo conto che la circonferenza C è il


luogo dei punti P tale che d(P, C)2 = r2 .

Osservazione 10.5 1. Nonostante il teorema precedente sia di ovvia dimostrazione,


esso è molto importante perché assicura un metodo facile per individuare la posi-
zione dei punti nel piano rispetto ad una circonferenza assegnata. Infatti la potenza
di un punto rispetto ad una circonferenza è un numero strettamente positivo se e
solo se il punto è esterno alla circonferenza, la potenza di un punto rispetto ad una
circonferenza è uguale a 0 se e solo se il punto giace sulla circonferenza, la potenza
Capitolo 10 515

di un punto rispetto ad una circonferenza è negativa se e solo se il punto è interno


alla circonferenza. Per esempio, data la circonferenza:
C : x2 + y 2 2x 4y + 1 = 0,
si ha che il punto A = (2, 4) ha potenza pari a 1 rispetto a C e, quindi, è esterno
a C , invece il punto B = (1, 0) ha potenza pari a 0, quindi appartiene a C . In altri
termini si può immaginare che la circonferenza divida il piano in tre regioni: quella
dei punti di potenza zero (appartenenti alla circonferenza), quella dei punti con
potenza negativa (interni alla circonferenza) e quella dei punti a potenza positiva
(esterni alla circonferenza).
2. È evidente che il luogo dei punti che hanno uguale potenza rispetto a due circon-
ferenze assegnate coincide con l’asse radicale definito dalla due circonferenze (cfr.
Par. 10.1.4).

C3

C1

C2

Figura 10.47: Esercizio 10.14

Nell’esercizio che segue si vuole determinare la potenza di un punto rispetto a tre circon-
ferenze assegnate. Dall’ultima osservazione segue che tale punto deve essere necessaria-
mente l’intersezione degli assi radicali delle coppie di circonferenze individuate dalle tre
circonferenze date. Questo punto, se esiste, prende il nome di centro radicale delle tre
circonferenze. Si lascia al Lettore per esercizio la discussione dell’esistenza del centro
radicale di tre circonferenze in base alla loro posizione reciproca.
516 Riduzione a Forma Canonica delle Coniche

Esercizio 10.14 Determinare, se esiste, il centro radicale delle tre circonferenze:


C1 : x2 + y 2 5x y 8=0
C2 : x2 + y 2 + y 36 = 0
C3 : x2 + y 2 8x 12y + 51 = 0.

Soluzione L’asse radicale r1 delle circonferenze C1 e C2 ha equazione:

r1 : 5x + 2y 28 = 0.

L’asse radicale r2 delle circonferenze C1 e C3 ha equazione:

r2 : 3x + 11y 59 = 0.

Le rette r1 e r2 sono incidenti nel punto:


✓ ◆
190 211
C= ,
49 49
che è il centro radicale delle tre circonferenze date. Si osserva che l’asse radicale r3 delle
circonferenze C2 e C3 , che ha equazione:

r3 : 8x + 13y 87 = 0,

passa per il punto C. La situazione geometrica è illustrata nella Figura 10.47.

10.6.2 Equazioni parametriche delle coniche


Come si è già osservato nel caso della retta (cfr. (9.11)) anche le coniche possono essere
rappresentate mediante due equazioni parametriche scritte in funzione di un parametro t
reale che varia in un opportuno intervallo della retta reale. È chiaro però che, ad eccezione
delle coniche degeneri, le equazioni parametriche delle coniche non saranno lineari in t
(cfr. Teor. 10.6).

1. La circonferenza di centro l’origine e raggio r si può scrivere in forma parametrica


come: ⇢
x = r cos t
y = r sin t, 0  t < 2⇡.
La circonferenza di centro C = (↵, ) e raggio r ha equazioni parametriche:

x = ↵ + r cos t
y = + r sin t, 0  t < 2⇡.
Capitolo 10 517

Figura 10.48: Costruzione dell’ellisse

Ciò segue in modo evidente dal Paragrafo 9.3.


È chiaro che le equazioni parametriche di una curva non sono uniche, per esempio
un arco di circonferenza di centro l’origine e raggio r si può anche rappresentare
come: 8 2
> x=r1
>
< 1+ 2
>
: y=r 2 ,
>
2 R.
1+ 2

La rappresentazione della circonferenza appena indicata non comprende il punto di


coordinate ( r, 0).

2. L’ellisse di centro l’origine e semiassi a e b si può scrivere in forma parametrica


come: ⇢
x = a cos t
y = b sin t, 0  t < 2⇡.

Si osservi che i punti dell’ellisse hanno ascissa uguale a quella dei punti della cir-
conferenza di centro l’origine e raggio a e ordinata uguale a quella dei punti della
518 Riduzione a Forma Canonica delle Coniche

circonferenza di centro l’origine e raggio b; si può cosı̀ ricavare un metodo interes-


sante per disegnare i punti dell’ellisse. La situazione geometrica è illustrata nella
Figura 10.48.
L’ellisse di centro C = (↵, ) e semiassi a e b ha equazioni parametriche:

x = ↵ + a cos t
y = + b sin t, 0  t < 2⇡.

3. L’iperbole di centro l’origine e semiassi a e b si può scrivere in forma parametrica


come: ⇢
x = ±a cosh t
y = b sinh t, t 2 R.

L’iperbole di centro C = (↵, ) e semiassi a e b ha equazioni parametriche:



x = ↵ ± a cosh t
y = + b sinh t, t 2 R.

4. La parabola di vertice l’origine e asse l’asse x si può scrivere in forma parametrica


come: 8 2
< x= t
>
2p
>
:
y = t, t 2 R, p = 6 0.

Per maggiori dettagli sulla rappresentazione parametrica delle coniche e delle curve nel
piano in generale si rimanda, per esempio, a [11].

10.6.3 Le coniche in forma polare


Scopo di questo paragrafo è rappresentare le coniche mediante le coordinate polari ge-
neralizzate (⇢, ✓), introdotte nel Paragrafo 9.3. Come dimostrato nel Paragrafo 10.3, le
coniche possono essere definite come il luogo dei punti P del piano tali che:
d(P, F )
= e,
d(P, f )

dove F è il fuoco, f la direttrice ed e l’eccentricità. Se si sceglie un riferimento cartesiano


R = (O, x, y) avente l’origine O coincidente con il fuoco e la direttrice parallela all’asse
y di equazione: x = k , allora le coniche possono essere definite come il luogo dei punti
P = (x, y) che verificano l’equazione:

x2 + y 2 = e2 (x k)2 . (10.57)
Capitolo 10 519

Ci si propone di scrivere l’equazione (10.57) in coordinate polari generalizzate. Sosti-


tuendo in (10.57) la formula (9.6), si ha:
⇢2 = e2 (⇢ cos ✓ k)2 ,

da cui, estraendo la radice quadrata, segue:


⇢ = ±e(⇢ cos ✓ k).

Si ottengono cosı̀, sorpendentemente, due equazioni in coordinate polari:


⇢(1 e cos ✓) = ek, (10.58)

e:
⇢(1 + e cos ✓) = ek. (10.59)
Se si considera, però, un generico punto P = (⇢0 , ✓0 ) appartenente alla conica di equa-
zione (10.58), quindi:
ek
⇢0 = ,
1 e cos ✓0
P0 può essere anche rappresentato, in modo equivalente, come ( ⇢0 , ✓0 + ⇡). È imme-
diato verificare che questi valori verificano (10.59), e viceversa, pertanto (10.58) e (10.59)
rappresentano lo stesso luogo di punti.

Si distinguono i seguenti casi:


1. e = 1: parabola. L’equazione in coordinate polari è:
k
⇢=
1 + cos ✓
oppure:
k
⇢= .
1 cos ✓
Si osservi che, in entrambi i casi, il denominatore si annulla per ✓ = 0+2n⇡ oppure
✓ = ⇡ + 2n⇡ (con n numero intero) che corrisponde all’angolo formato dal raggio
vettore con l’asse x, vale a dire il raggio vettore è parallelo all’asse x.
2. e < 1: ellisse.
Si osservi che non esistono valori di ✓ per cui 1 ± e cos ✓ = 0.
3. e > 1: iperbole.
In questo caso i valori di ✓ per cui 1 ± e cos ✓ = 0 corrispondono alle direzioni
degli asintoti.
520 Riduzione a Forma Canonica delle Coniche

10.6.4 Retta tangente ad una conica in un suo punto


Lo scopo di questo paragrafo è quello di ricavare, con metodi di tipo elementare, l’equa-
zione della retta tangente ad una conica non degenere in un suo punto. Nel Paragrafo
10.1.2 si è trovato che la retta s di equazione (10.4) è tangente nel punto P0 = (x0 , y0 )
alla circonferenza C di centro C = (↵, ) e raggio r. L’equazione della circonferenza:

C : x2 + y 2 2↵x 2 y+ =0

si può scrivere in notazione matriciale come:


0 10 1
1 0 ↵ x
C: x y 1 @ 0 1 A @ y A = 0,
↵ 1

invece, sviluppando i calcoli nell’equazione (10.4) si ha che la retta s si può scrivere


come: 0 10 1
1 0 ↵ x
s : x0 y0 1 @ 0 1 A @ y A = 0.
↵ 1
Il teorema che segue estende il risultato appena ottenuto al caso delle coniche non dege-
neri, ma prima di enunciarlo è necessario formalizzare la definizione di retta tangente ad
una conica in un suo punto.

Definizione 10.8 Sia C una conica non degenere, la retta tangente a C in un punto P0 ad
essa appartenente è la retta che interseca la conica C solo nel punto P0 .

Teorema 10.8 Sia C una conica non degenere del piano, che, rispetto ad un riferimento
cartesiano R = (O, x.y), ha equazione:
0 1
x
C: x y 1 B @ y A = 0, (10.60)
1

dove B = (aij ) 2 R3,3 indica la matrice simmetrica associata a C per cui det(B) 6= 0.
La retta s tangente alla conica C in un suo punto P0 = (x0 , y0 ) ha equazione:
0 1
x
s : x0 y0 1 B @ y A = 0. (10.61)
1
Capitolo 10 521

Dimostrazione Si consideri l’equazione (10.60) scritta come:

C : a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0, (10.62)

(cfr. (10.31) ), siano: ⇢


x = x0 + lt
s: (10.63)
y = y0 + mt, t 2 R,
le equazioni parametriche della retta s, passante per il punto P0 . Sostituendo le equazioni
(10.63) in (10.62) e tenendo conto del fatto che il punto P0 appartiene alla conica C, si
ottiene la seguente equazione di secondo grado in t:

(a11 l2 + 2a12 lm + a22 m2 )t2 + 2(a11 x0 l + a12 x0 m + a12 y0 l + a22 y0 m + a13 l + a23 m)t = 0,

che ammette due soluzioni coincidenti se e solo se:

a11 x0 l + a12 x0 m + a12 y0 l + a22 y0 m + a13 l + a23 m = 0, (10.64)


in quanto il coefficiente del termine t2 non può essere identicamente nullo (perché?).
Sostituendo in (10.64) al posto di l il termine x x0 e al posto di m il termine y y0 e
tenendo nuovamente conto del fatto che il punto P0 appartiene a C si perviene alla tesi.

Osservazione 10.6 L’equazione della retta s tangente, nel punto P0 = (x0 , y0 ) alla
conica C di equazione (10.62) è (10.61), ossia:

s : a11 xx0 + a12 (x0 y + xy0 ) + a22 yy0 + a13 (x + x0 ) + a23 (y + y0 ) + a33 = 0. (10.65)

La particolarità di questa equazione (10.65), confrontata con l’equazione della conica


(10.62), consiste nel fatto che essa si può ricavare direttamente dall’equazione (10.62)
di C mediante lo sdoppiamento di x2 , y 2 nei prodotti x0 x, y0 y, di 2xy nella somma
xy0 + x0 y, e di 2x, 2y nelle somme x + x0 , y + y0 , rispettivamente, ossia applicando
all’equazione di C la cosiddetta regola degli sdoppiamenti.

Esempio 10.14 Si consideri la conica:


p
C : 3x2 + 2xy 3y 2 + 2 2x = 0, (10.66)

che si può scrivere in forma matriciale come:


0 p 10 1
3 1 2 x
B CB C
C: x y 1 B @ 1 3 0 C B C
A @ y A = 0.
p
2 0 0 1
522 Riduzione a Forma Canonica delle Coniche

p p
La retta s tangente a C nel suo punto P0 = ( 2, 2) è:
0 p 10 1
3 1 2 x
p p B CB C
s: 2 2 1 B @ 1 3 0 C B C
A @ y A = 0,
p
2 0 0 1
ossia: p p
s : 3 2x + 4 2y + 2 = 0.
L’equazione di s si può anche ottenere dall’equazione (10.66) di C applicando la regola
degli sdoppiamenti, vale a dire:
p p p p p p
s : 3 2 x + ( 2 y + x( 2)) 3( 2)y + 2(x + 2) = 0.

Gli esempi che seguono sono volti a determinare i punti di una conica degenere in cui il
procedimento appena descritto può o non può essere applicato.
Esempio 10.15 Si consideri la conica degenere C : (y 3)(y + 3) = 0 studiata nell’E-
sempio 10.10 che si può scrivere, in forma matriciale, come:
0 10 1
0 0 0 x
C: x y 1 @ 0 1 0 A @ y A = 0.
0 0 9 1
La retta s tangente a C nel suo punto P0 = (1, 3) è:
0 10 1
0 0 0 x
s: 1 3 1 @ 0 1 0 A @ y A = 0,
0 0 9 1
vale a dire s : y 3 = 0, cioè la retta che compone C a cui appartiene il punto P0 .
Esempio 10.16 Si consideri al conica C : (2x + y)2 = 0 studiata nell’Esempio 10.9 che
si può scrivere, in forma matriciale, come:
0 10 1
4 2 0 x
C : x y 1 @ 2 1 0 A@ y A = 0.
0 0 0 1
Se si vuole calcolare la retta s tangente a C nel suo punto P0 = (1, 2) ponendo:
0 10 1
4 2 0 x
s: 1 2 1 @ 2 1 0 A @ y A = 0,
0 0 0 1
si ottiene 0 = 0, ciò significa che tutti i punti della conica C sono singolari.
Capitolo 10 523

Infatti, gli esempi precedenti conducono alla definizione di punto singolare di una curva
algebrica nel piano, ossia di una curva la cui equazione si ottiene uguagliando a zero
un polinomio di grado qualsiasi in x, y, definizione che può essere enunciata nel modo
seguente.

Definizione 10.9 Sia C una curva nel piano di equazione f (x, y) = 0, dove f (x, y) indi-
ca un polinomio di grado qualsiasi nelle variabili x, y, scritta rispetto ad un riferimento
cartesiano R = (O, x, y). Un punto P0 appartenente a C si dice singolare se:
✓ ◆
@f @f
(P0 ), (P0 ) = (0, 0),
@x @y

dove @f /@x indica la derivata parziale della funzione f rispetto ad x e @f /@y indica
la derivata parziale della funzione f rispetto a y. In caso contrario un punto P0 si dice
regolare o liscio o non singolare.

Per lo studio approfondito delle curve algebriche si rimanda a testi di livello superiore, per
esempio a [17]. Si dimostra che il Teorema 10.8 si applica anche alle coniche degeneri
solo nei punti non singolari. È infatti un esercizio verificare che le coniche non degeneri
sono prive di punti singolari. Invece se la conica è degenere ed è l’unione di due rette
parallele distinte, allora ogni suo punto è non singolare, se essa è l’unione di due rette
incidenti solo il loro punto di intersezione è singolare, infine se la conica è data da una
retta contata due volte, allora tutti i suoi punti sono singolari.

Il concetto di retta tangente ad una curva in suo punto, di cui la retta tangente ad una
conica è un caso particolare, anche se è intuitivo esula dagli argomenti inseriti in questo
testo, in quanto è necessario introdurre opportune ipotesi, di tipo analitico, sulle equazioni
che definiscono una curva; per approfondimenti si vedano ad esempio [6] o [11].
524 Riduzione a Forma Canonica delle Coniche
Capitolo 11

Geometria Analitica nello Spazio

In questo capitolo viene trattata la rappresentazione di piani, rette, sfere e circonferenze


nello spazio mediante equazioni cartesiane e parametriche. Sono queste le nozioni di base
di Geometria Analitica nello Spazio che saranno completate nel capitolo successivo. In
una breve appendice nell’ultimo paragrafo si presenta, tra l’altro, la nozione di baricen-
tro geometrico di n punti dello spazio, nozione che, come casi particolari, vedrà la sua
naturale applicazione al calcolo del baricentro di un triangolo e di un tetraedro. Per i si-
gnificati fisici del concetto di baricentro si rimanda ai testi classici di meccanica. In tutto
il capitolo saranno usate le notazioni introdotte nei capitoli precedenti ed in particolare
nel Capitolo 3, per esempio S3 indicherà lo spazio affine di punti considerato. Come nel
Capitolo 9, per individuare le rappresentazioni di piani, rette, sfere e circonferenze si farà
uso delle nozioni di calcolo vettoriale introdotte nel Capitolo 3.

11.1 Il riferimento cartesiano nello spazio


In modo analogo al caso della geometria analitica nel piano (cfr. Par. 9.1) si definisce il
riferimento cartesiano nello spazio R = (O, i, j, k) come l’insieme formato da un punto
detto origine del riferimento e indicato con la lettera O e una base ortonormale positiva
B = (i, j, k) dello spazio vettoriale V3 (cfr. Def. 3.13). Le rette orientate individuate dai
vettori i, j e k, che si intersecano tutte nel punto O, prendono, rispettivamente, il nome
di asse delle ascisse o asse x, asse delle ordinate o asse y , asse delle quote o asse z .
In questo modo si definisce una corrispondenza biunivoca tra i punti P dello spazio e le
!
componenti del vettore OP = P O dello spazio vettoriale V3 . Ponendo:
!
OP = xi + yj + zk,
al punto P si associa in modo univoco la terna di numeri reali (x, y, z) e si scrive:
P = (x, y, z),

525
526 Geometria Analitica nello Spazio

precisamente x è l’ascissa del punto P, y è la sua ordinata e z è la sua quota. La


terna ordinata di numeri reali (x, y, z) individua le coordinate cartesiane del punto P nel
riferimento R. La situazione geometrica è illustrata nella Figura 11.1.

z
P

O y

Figura 11.1: Il riferimento cartesiano nello spazio

Il riferimento cartesiano determina, in modo naturale, tre piani, detti piani coordinati e
precisamente:

1. il piano individuato dal punto O e dai versori i, j, anche denominato piano xy ;

2. il piano individuato dal punto O e dai versori i, k, anche denominato piano xz ;

3. il piano individuato dal punto O e dai versori j, k, anche denominato piano yz .

Il riferimento cartesiano sarà anche indicato con il simbolo R = (O, x, y, z).

11.1.1 Distanza tra due punti


Dati due punti A = (xA , yA , zA ), B = (xB , yB , zB ) dello spazio la loro distanza è data
da: p
d(A, B) = (xB xA )2 + (yB yA )2 + (zB zA )2 .
Capitolo 11 527

Infatti, analogamente al caso del piano (cfr. Par. 9.1.1), la distanza d(A, B) coincide con
!
la norma del vettore AB le cui componenti, rispetto alla base ortonormale positiva B,
sono:
!
AB = (xB xA )i + (yB yA )j + (zB zA )k.

11.1.2 Punto medio di un segmento


Dati due punti A = (xA , yA , zA ), B = (xB , yB , zB ) dello spazio, il punto medio M del
segmento AB è: ✓ ◆
xA + xB yA + yB zA + zB
M= , , .
2 2 2
Ad esempio il punto medio del segmento di estremi A = (2, 2, 1), B = (0, 6, 3) è il
punto M = (1, 2, 1).

11.1.3 Baricentro di un triangolo e di un tetraedro


Dati tre punti A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ) non allineati, il
baricentro G del triangolo da essi individuato è:
✓ ◆
xA + xB + xC yA + yB + yC zA + zB + zC
G= , , .
3 3 3

Per la dimostrazione si veda il Paragrafo 11.12.1.

Dati quattro punti nello spazio A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ),


D = (xD , yD , zD ) non allineati e non tutti complanari, il baricentro G del tetraedro da
essi individuato è:
✓ ◆
xA + xB + xC + xD yA + yB + yC + yD zA + zB + zC + zD
G= , , .
4 4 4

Per la dimostrazione si veda il Paragrafo 11.12.1.

11.1.4 Area di un triangolo e volume di un tetraedro


Dati tre punti nello spazio A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ) non
allineati, l’area del del triangolo da essi individuato è data da:

1 ! !
AABC = kAB ^ AC k.
2
528 Geometria Analitica nello Spazio

Per la dimostrazione si veda il Teorema 3.15.

Dati quattro punti nello spazio A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ),


D = (xD , yD , zD ) non allineati e non tutti complanari, il volume del tetraedro da essi
individuato è dato da:
1 ! ! !
VABCD = | AB ^ AC · AD |.
6
Per la dimostrazione si veda il Teorema 3.19.

11.2 Rappresentazione di un piano nello spazio


In questo paragrafo sono descritti modi diversi per rappresentare un piano nello spazio ri-
spetto ad un riferimento cartesiano R = (O, i, j, k), o equivalentemente R = (O, x, y, z).
Infatti un piano ⇡ nello spazio si può individuare assegnando:

1. un punto P0 del piano ⇡ ed un vettore n non nullo ortogonale a ⇡ ;

2. un punto P0 del piano ⇡ e due vettori u e v paralleli a ⇡ e linearmente indipendenti


tra di loro;

3. tre punti A, B e C non allineati appartenenti al piano ⇡.

Si dimostrerà che ogni equazione di primo grado in x, y e z del tipo:

ax + by + cz + d = 0,

con a, b, c, d 2 R e a, b, c non contemporaneamente tutti uguali a zero, rappresenta un


piano. Viceversa, ogni piano dello spazio è rappresentabile tramite un’equazione lineare
in x, y, z del tipo suddetto.

11.2.1 Piano per un punto ortogonale ad un vettore


Sia ⇡ il piano passante per un punto P0 ortogonale ad un vettore n 6= o. Allora ⇡ è
!
il luogo dei punti P dello spazio S3 tali che il vettore P0 P è ortogonale al vettore n,
ovvero:
!
⇡ = {P 2 S3 | P0 P · n = 0}. (11.1)
La situazione geometrica è illustrata nella Figura 11.2.

Siano P0 = (x0 , y0 , z0 ) e P = (x, y, z) i punti P0 e P, le cui coordinate sono date


rispetto al riferimento cartesiano R, siano (a, b, c) le componenti del vettore n, rispetto
Capitolo 11 529

P0

Figura 11.2: Piano passante per il punto P0 e ortogonale al vettore n

!
alla base B = (i, j, k) individuata dal riferimento R. L’equazione vettoriale P0 P · n = 0,
in componenti, equivale a:

a(x x0 ) + b(y y0 ) + c(z z0 ) = 0

e quindi ad un’equazione del tipo:

ax + by + cz + d = 0, (11.2)

con d = ax0 by0 cz0 , detta equazione cartesiana del piano ⇡ in cui (a, b, c) sono le
componenti (non contemporaneamente tutte uguali a zero) di un vettore ortogonale a ⇡.

Esempio 11.1 Il piano passante per il punto P0 = (1, 0, 1) e ortogonale al vettore


n = j + 2k ha equazione cartesiana y + 2z + 2 = 0.

Il teorema che segue dimostra che tutte e solo le equazioni lineari in x, y, z determinano
un piano nello spazio. Questo risultato è analogo a quello ottenuto nel Teorema 9.1 nel
caso delle rette nel piano e si può agevolmente estendere a dimensioni superiori.

Teorema 11.1 Ogni equazione lineare in x, y, z del tipo (11.2), con (a, b, c) 6= 0, rap-
presenta, a meno di un fattore moltiplicativo non nullo, l’equazione cartesiana di un piano
nello spazio S3 .

Dimostrazione Poiché (a, b, c) 6= (0, 0, 0) esiste almeno un punto P0 = (x0 , y0 , z0 )


del piano le cui coordinate soddisfano l’equazione (11.2). Quindi d = ax0 by0 cz0
530 Geometria Analitica nello Spazio

e si può riscrivere l’equazione (11.2) nella forma a(x x0 ) + b(y y0 ) + c(z z0 ) = 0,


che rappresenta il piano passante per il punto P0 ortogonale al vettore n = ai + bj + ck.
Inoltre, per ogni numero reale ⇢, con ⇢ 6= 0, le due equazioni (11.2) e:

⇢(ax + by + cz + d) = 0

rappresentano lo stesso piano.

Esempio 11.2 L’equazione 3y+6z+6 = 0 rappresenta il piano considerato nell’Esempio


11.1.

Osservazione 11.1 1. L’origine O appartiene al piano di equazione (11.2) se e solo


se d = 0.

2. Il piano coordinato xy ha equazione cartesiana z = 0, in quanto è ortogonale al


versore k e contiene l’origine O. Analogamente i piani coordinati xz e yz hanno,
rispettivamente, equazioni cartesiane y = 0 e x = 0.

3. Intuitivamente si capisce che l’equazione z = k con k 2 R rappresenta un pia-


no parallelo al piano xy , analogamente l’equazione x = k rappresenta un piano
parallelo al piano yz e l’equazione y = k rappresenta un piano parallelo al piano
xz. Per la definizione precisa di parallelismo tra due piani si rimanda al Paragrafo
11.3.3.

4. L’equazione ax + by + d = 0, con i coefficienti a, b non nulli, rappresenta, nello


spazio, un piano ⇡ ortogonale al vettore n = ai+bj, pertanto ⇡ è un piano parallelo
all’asse z . Se d = 0, allora ⇡ contiene l’asse z. Si presti molta attenzione a non
confondere l’equazione del piano ⇡ con l’equazione di una retta scritta nel piano
S2 . Per la discussione precisa del parallelismo tra una retta e un piano si rimanda
al Paragrafo 11.4. Si lascia al Lettore, per esercizio, la descrizione della posizione
dei piani di equazione ax + cz + d = 0 e by + cz + d = 0 al variare di a, b, c, d in
modo opportuno in R.

11.2.2 Piano per un punto parallelo a due vettori


Sia ⇡ il piano passante per il punto P0 e parallelo a due vettori linearmente indipendenti
!
u e v. Allora ⇡ è il luogo dei punti P dello spazio tali che i vettori P0 P , u, v sono
linearmente dipendenti, vale a dire:
!
⇡ = {P 2 S3 | P0 P = tu + sv, t, s 2 R},
ossia:
Capitolo 11 531

P0 P
v

Figura 11.3: Piano passante per il punto P0 e parallelo ai vettori u e v

⇡ : P = P0 + tu + sv, t, s 2 R. (11.3)
!
Quindi un punto P = (x, y, z) appartiene al piano ⇡ se e solo se il vettore P0 P è
complanare ad u e a v. La (11.3) è detta equazione vettoriale parametrica di ⇡ men-
tre t, s 2 R sono i parametri al variare dei quali il punto P descrive il piano ⇡ . La
situazione geometrica è illustrata nella Figura 11.3.

Siano P0 = (x0 , y0 , z0 ) e P = (x, y, z) i punti P0 e P le cui coordinate sono date nel


riferimento cartesiano R = (O, i, j, k) e u = (l, m, n) e v = (l0 , m0 , n0 ) i vettori u e v
le cui componenti sono riferite alla base ortonormale positiva B = (i, j, k). Si verifica
che l’equazione (11.3) equivale a:
8
< x = x0 + lt + l0 s
y = y0 + mt + m0 s, (11.4)
:
z = z0 + nt + n0 s, t, s 2 R,

che sono le equazioni parametriche del piano ⇡ . Si osservi che il piano ⇡ ammette infinite
equazioni parametriche diverse, è sufficiente scegliere, per la loro determinazione, un altro
punto e un’altra coppia di vettori appartenenti al piano ⇡ .

Dal Teorema 3.22 risulta che tre vettori dello spazio vettoriale V3 sono complanari se e
solo se il loro prodotto misto è uguale a zero, pertanto è condizione equivalente alla (11.3)
l’equazione:
!
P0 P · u ^ v = 0, (11.5)
che, a differenza di (11.3), non dipende da alcun parametro e, in componenti, equivale a:
532 Geometria Analitica nello Spazio

x x0 y y0 z z0
l m n = 0, (11.6)
l0 m0 n0

che rappresenta l’equazione cartesiana del piano passante per il punto P0 = (x0 , y0 , z0 ) e
parallelo ai vettori u = (l, m, n) e v = (l0 , m0 , n0 ). Sviluppando il determinante appena
ottenuto secondo la prima riga si ha:

m n l n l m
(x x0 ) (y y0 ) + (z z0 ) = 0. (11.7)
m0 n0 l 0 n0 l 0 m0
Si noti che l’equazione (11.7) coincide con l’equazione (11.2) in cui le componenti del
vettore n ortogonale al piano sono proporzionali alle componenti del vettore u ^ v.

Esempio 11.3 Il piano ⇡ passante per il punto P0 = ( 1, 3, 1) e parallelo ai vettori:

u = 2i j + k, v =i+j

ha equazioni parametriche:
8
< x = 1 + 2t + s
y = 3 t + s, (11.8)
:
z = 1 + t, t, s 2 R.

Si verifica facilmente che il punto A = (0, 1, 2) appartiene a ⇡ , infatti le sue coordinate


si ottengono ponendo t = 1 e s = 1 in (11.8). Invece l’origine O non appartiene a ⇡
perché il sistema lineare: 8
< 0 = 1 + 2t + s
0=3 t+s
:
0=1+t
è incompatibile. Non è difficile verificare che i vettori u0 = (1, 1, 0), v0 = ( 1, 2 1)
sono paralleli al piano ⇡ , di conseguenza anche:
8
< x= µ
y = 1 + + 2µ
:
z = 2 µ, ,µ 2 R

sono equazioni parametriche di ⇡.

Per ottenere l’equazione cartesiana di ⇡ si può procedere in modi diversi:


Capitolo 11 533

1. si possono eliminare i due parametri t e s nelle equazioni parametriche (11.8).


Per esempio si può prima ricavare dalla terza equazione parametrica t = z 1,
dalla seconda si ha s = y + z 4 e quindi sostituendo nella prima si perviene
all’equazione cartesiana di ⇡ :
x 2(z 1) (y + z 4) + 1 = 0.

2. Usando il calcolo vettoriale si ha che il prodotto vettoriale u ^ v è un vettore


ortogonale al piano ⇡ . Poiché:
i j k
u^v = 2 1 1 = i + j + 3k
1 1 0
si ottiene quindi come equazione cartesiana di ⇡ :
(x + 1) + (y 3) + 3(z 1) = 0.

3. Sostituendo i dati dell’esercizio in (11.6) si ha:


x+1 y 3 z 1
2 1 1 = 0.
1 1 0

Si osservi che, qualunque sia il metodo seguito, si perviene ad una sola equazione carte-
siana di ⇡ , a meno di un coefficiente di proporzionalità non nullo.

11.2.3 Piano per tre punti non allineati


Dati tre punti non allineati A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ), il
! !
piano ⇡ passante per A, B e C è parallelo ai vettori AB e AC e quindi ha, ad esempio,
equazioni parametriche:
! !
P = A + t AB + s AC, t, s 2 R,

in accordo con (11.3). Un vettore ortogonale al piano ⇡ passante per A, B e C è il vettore


! !
AB ^ AC, di conseguenza ⇡ può essere descritto come il luogo geometrico dei punti P
tali che:
! ! !
AP · AB ^ AC = 0.
Esplicitando questo prodotto misto in componenti si trova l’equazione cartesiana di ⇡ :
x xA y yA z zA
xB xA yB yA zB zA = 0.
xC xA yC yA zC zA
534 Geometria Analitica nello Spazio

Esercizio 11.1 Tre punti non allineati individuano un solo piano. Perché nell’equazione
ax + by + cz + d = 0 ci sono quattro parametri a, b, c, d?
Esempio 11.4 Il piano passante per i tre punti:
A = ( 1, 2, 1), B = (2, 3, 0), C = (1, 0, 0)
ha equazioni parametriche:
8
< x = 1 + t + 2s
y = 2 t 2s
:
z = 1 t s, t, s 2 R,
ed equazione cartesiana:
3x + y + 4z 3 = 0.
Esercizio 11.2 Determinare l’equazione del piano parallelo all’asse x e passante per i
punti P0 = (1, 0, 2), P1 = ( 2, 1, 1).
Soluzione Il piano richiesto è formato dai punti P dello spazio per cui:
! !
P 0 P · i ^ P0 P 1 = 0
e quindi ha equazione cartesiana:

x 1 y z 2
1 0 0 = 0,
3 1 1
cioè:
y+z 2 = 0.

Esercizio 11.3 A partire dalla generica equazione cartesiana di un piano:


⇡ : ax + by + cz + d = 0,
supponendo che a, b, c siano tutti diversi da zero, si perviene all’equazione:
x y z
⇡: + + = 1. (11.9)
p q r
Si interpretino geometricamente i numeri p, q, r cosı̀ determinati.
Soluzione I punti A = (p, 0, 0), B = (0, q, 0), C = (0, 0, r) appartengono al pia-
no ⇡ individuato dall’equazione (11.9), pertanto p è la distanza, con segno, del punto A
dall’origine del riferimento, q è la distanza, con segno, del punto B dall’origine, r è la
distanza, con segno, del punto C dall’origine. In altri termini, p, q, r sono le lunghezze,
con segno, dei segmenti che il piano ⇡ intercetta, rispettivamente, sugli assi delle ascis-
se, delle ordinate e delle quote. Per questo motivo (11.9) prende il nome di equazione
segmentaria del piano.
Capitolo 11 535

11.3 Rappresentazione della retta nello spazio


Una retta r nello spazio, rispetto ad un riferimento cartesiano R = (O, i, j, k) o equiva-
lentemente R = (O, x, y, z), si può individuare assegnando:

1. un punto P0 della retta r ed un vettore r non nullo parallelo a r;


2. due punti A e B distinti della retta r;
3. due piani ⇡1 e ⇡2 incidenti lungo r.

Si vedrà che, mentre la rappresentazione parametrica di un piano nello spazio è analoga


a quella di una retta nel piano, la rappresentazione cartesiana di una retta nello spazio
cambia notevolmente. Infatti, come è già stato osservato nel paragrafo precedente, l’e-
quazione cartesiana ax + by + c = 0 di una retta r nel piano corrisponde, nello spazio,
all’equazione cartesiana di un piano ⇡ parallelo all’asse z. La retta r risulta essere, nello
spazio, l’intersezione del piano ⇡ con il piano coordinato xy . Maggiori dettagli e spiega-
zioni di questa situazione geometrica, descritta solo intuitivamente, si avranno nel corso
di tutto il paragrafo.

11.3.1 Retta per un punto parallela ad un vettore


Sia r la retta passante per il punto P0 parallela ad un vettore r 6= o. Allora la retta r è
!
il luogo geometrico dei punti P dello spazio tali da rendere paralleli i vettori P0 P e r,
ossia:
!
r = {P 2 S3 | P0 P = tr, t 2 R},
o anche:

r : P = P0 + tr, t 2 R. (11.10)
La (11.10) è detta equazione vettoriale parametrica di r, t 2 R è il parametro al variare
del quale in R il punto P descrive la retta r. Segmenti della retta r si possono ottenere
per valori di t limitati ad intervalli di R. Se t assume solo valori positivi, compreso il
numero zero, si ha una semiretta di origine P0 , l’altra semiretta si ottiene per valori di t
negativi, zero compreso, se si vuole includere anche l’origine P0 .

Siano P0 = (x0 , y0 , z0 ) e P = (x, y, z) due punti nello spazio le cui coordinate sono
assegnate nel riferimento cartesiano R = (O, i, j, k) e r = (l, m, n) un vettore le cui
componenti sono date rispetto alla base B = (i, j, k) che R determina. Si verifica che
l’equazione (11.10) equivale a:
536 Geometria Analitica nello Spazio

8
< x = x0 + lt
y = y0 + mt (11.11)
:
z = z0 + nt, t 2 R,

che sono le equazioni parametriche di r e le componenti (l, m, n) prendono il nome di


parametri direttori della retta r.

Osservazione 11.2 Siano (l, m, n) i parametri direttori di una retta r, allora:

1. (l, m, n) non sono contemporaneamente nulli e sono individuati a meno di un fat-


tore moltiplicativo, cioè (⇢l, ⇢m, ⇢n), con ⇢ 6= 0, sono anche parametri direttori
della retta r;

2. se l = 0 e m = 0 la retta r è parallela all’asse z, se m = 0 e n = 0 la retta r è


parallela all’asse x, se l = 0 e n = 0 la retta r è parallela all’asse y ;

3. i coseni direttori della retta r, ossia i coseni degli angoli che la retta r forma con
gli assi coordinati coincidono (a meno del segno) con i coseni degi angoli che un
generico vettore r parallelo alla retta r forma rispettivamente con i versori i, j, k
della base ortonormale che individua il sistema di riferimento usato, ossia:

b =p l
cos(ri) ,
l2
+ m2 + n2
b =p m
cos(rj) ,
l 2 + m2 + n2
c =p n
cos(rk) .
l 2 + m2 + n2
b 2 +cos(rj)
Si osservi che cos(ri) b 2 +cos(rk)
c 2 = 1, maggiori dettagli sulla definizione
e il calcolo degli angoli individuati da due rette si vedranno nel Paragrafo 11.6.4.

Esercizio 11.4 Determinare le equazioni parametriche della retta r parallela al vettore


r = i j + 2k e passante per il punto P0 = (1, 2, 3); determinare, inoltre, i coseni
direttori di r.

Soluzione Le equazioni parametriche di r sono:


8
< x=1+t
y=2 t
:
z = 3 + 2t, t 2 R;
Capitolo 11 537

per i coseni direttori si ha:

b = p1 ,
cos(ri) b =
cos(rj)
1
p , c = p2 .
cos(rk)
6 6 6

Osservazione 11.3 1. Ponendo t = 1 nelle equazioni parametriche della retta r otte-


nuta nell’esercizio precedente si trova il punto P1 = (2, 1, 5) e quindi la retta r ha
anche equazioni parametriche:
8
< x=2+
y=1
:
z =5+2 , 2 R.

2. Per t 2 [0, 1] si ha il segmento sulla retta r di estremi i punti P0 e P1 .

3. Per t 0 si ottiene una semiretta su r di origine il punto P0 .

Se nessuno dei parametri direttori (l, m, n) di una retta r è uguale a zero, dalle equa-
zioni parametriche (11.11), eliminando il parametro t allo scopo di trovare le equazioni
cartesiane di r, si ottiene:
x x0 y y0 z z0
= = .
l m n
Quindi una rappresentazione cartesiana di una retta r passante per il punto P0 = (x0 , y0 , z0 )
e parallela al vettore r = (l, m, n), con l 6= 0, m 6= 0, n 6= 0, è:
8
> x x0 y y0
< =
l m
>
: x x 0 z z0
= .
l n
Si noti che il sistema lineare cosı̀ ottenuto rappresenta geometricamente l’intersezione di
due piani nello spazio, trattandosi delle soluzioni comuni a due equazioni lineari.

Se un parametro direttore è uguale a zero, ad esempio l = 0, la retta r, passante per il


punto P0 = (x0 , y0 , z0 ), ha rappresentazione cartesiana:
8
< x = x0
: y y0
=
z z0
m n
e anche in questo caso la retta è data dall’intersezione di due piani.
538 Geometria Analitica nello Spazio

Se due parametri direttori sono uguali a zero, ad esempio l = m = 0, la retta r, passante


per il punto P0 = (x0 , y0 , z0 ), è parallela all’asse z (al versore k) ed ha rappresentazione
cartesiana: ⇢
x = x0
y = y0 .
In particolare l’asse z ha, quindi, equazioni cartesiane x = y = 0. Analogamente le
equazioni cartesiane dell’asse x e y sono rispettivamente y = z = 0 e x = z = 0.

Osservazione 11.4 I punti P = (x, y, z) di una retta r nello spazio corrispondono al-
le soluzioni di un sistema lineare compatibile di due equazioni nelle tre incognite x, y,
z . Infatti, è ben noto dal primo capitolo che un sistema lineare di due equazioni in tre
incognite, compatibile, ammette infinite soluzioni che dipendono da una variabile e che
quindi concidono con le equazioni parametriche della retta r. Pertanto una retta nello spa-
zio si può rappresentare geometricamente come intersezione di due piani o meglio come
l’intersezione di infinite coppie di piani. La situazione geometrica è illustrata nella Figura
11.4, ma si completerà lo studio della posizione reciproca di due piani nello spazio nel
Paragrafo 11.3.3.

Esempio 11.5 La retta r dell’Esercizio 11.4 può essere rappresentata non solo come
l’intersezione dei due piani: ⇢
x+y 3=0
2x z + 1 = 0,
ma, per esempio, anche come intersezione dei due piani:

x+y 3=0
2y + z 7 = 0.

11.3.2 Retta per due punti distinti


Dati due punti distinti A = (xA , yA , zA ), B = (xB , yB , zB ), la retta r passante per A e
!
B è parallela al vettore AB dato da:
!
AB = (xB x A , yB yA , zB zA ),

rispetto alla base ortonormale positiva B = (i, j, k) che individua il riferimento cartesiano
scelto. Dunque r ha equazioni parametriche:
8
>
> x = xA + (xB xA )t
<
y = yA + (yB yA )t
>
>
: z = y + (z z )t, t 2 R.
A B A
Capitolo 11 539

Figura 11.4: La retta come intersezione di coppie di piani


540 Geometria Analitica nello Spazio

I parametri direttori sono quindi (xB xA , yB yA , zB zA ) e, se sono tutti e tre diversi


da zero, la retta r passante per i due punti distinti A e B ha come rappresentazione
cartesiana: 8
> x xA y yA
>
< x =
B xA yB yA
>
> x xA z zA
: = .
xB xA zB zA
Se, ad esempio xB xA = 0, si deve porre x xA = 0 che rappresenta uno dei due piani
che individuano la retta, che ha, quindi, equazioni cartesiane (in questo caso):
8
>
< x xA = 0
> y yA z zA
: = .
yB yA zB zA

Esempio 11.6 La retta r passante per i punti A = (1, 1, 0), B = (2, 3, 1) è parallela al
!
vettore AB = (1, 4, 1) e quindi ha equazioni parametriche:
8
< x=1+t
y = 1 + 4t
:
z = t, t 2 R,
ed equazioni cartesiane: ⇢
4x y 5 = 0
x z 1 = 0.

11.3.3 Posizione reciproca di due piani.


Retta come intersezione di due piani
Dal punto di vista geometrico, due piani nello spazio possono essere:
1. coincidenti,
2. paralleli e non coincidenti,
3. incidenti, in questo caso la loro intersezione è una retta.
Dal punto di vista algebrico, l’intersezione dei due piani:
⇡ : ax + by + cz + d = 0, ⇡ 0 : a0 x + b0 y + c0 z + d0 = 0
è data da tutti i punti P = (x, y, z) che sono soluzioni del sistema lineare:

ax + by + cz + d = 0
(11.12)
a0 x + b0 y + c0 z + d0 = 0.
Capitolo 11 541

Siano A e (A | B), rispettivamente, la matrice dei coefficienti e la matrice completa del


sistema lineare (11.12) vale a dire:
✓ ◆ ✓ ◆
a b c a b c d
A= , (A | B) = .
a0 b 0 c 0 a0 b0 c0 d0

Dal Teorema di Rouché–Capelli (cfr. Teor. 1.2) e confrontando i ranghi di A e di (A | B)


si distinguono i seguenti casi:

1. rank(A) = 1 : indicati con n = (a, b, c) e con n0 = (a0 , b0 , c0 ) i vettori ortogonali


rispettivamente a ⇡ e a ⇡ 0 , la condizione rank(A) = 1 significa che n e n0 sono
paralleli, quindi i due piani ⇡ e ⇡ 0 sono paralleli essendo ortogonali a vettori tra di
loro paralleli. È necessario distinguere ancora tra le situazioni seguenti:

a. rank(A) = rank(A | B) = 1 : il sistema lineare (11.12) è compatibile, i due


piani sono coincidenti.
b. rank(A) = 1 e rank(A | B) = 2 : il sistema lineare (11.12) è incompatibile, i
due piani sono paralleli ma non coincidenti.

2. rank(A) = 2 : di conseguenza anche rank(A | B) = 2, quindi il sistema lineare


(11.12) è compatibile e ammette infinite soluzioni che dipendono da un’incognita
libera. I vettori n e n0 non sono paralleli, di conseguenza le soluzioni del sistema
lineare (11.12) sono tutti e soli i punti della retta r intersezione dei due piani ⇡ e
⇡0.

Il teorema che segue spiega come determinare un vettore parallelo ad una retta data
dall’intersezione di due piani.

Teorema 11.2 Sia r la retta rappresentata come intersezione di due piani nel modo
seguente:

ax + by + cz + d = 0
r:
a0 x + b0 y + c0 z + d0 = 0.

Indicati con ⇡ il piano di equazione ax + by + cz + d = 0 e con n = (a, b, c) un vettore


non nullo ad esso ortogonale, con ⇡ 0 il piano di equazione a0 x + b0 y + c0 z + d0 = 0 e con
n0 = (a0 , b0 , c0 ) un vettore non nullo ad esso ortogonale, allora un vettore r parallelo alla
retta r si ottiene come:
r = n ^ n0 .
542 Geometria Analitica nello Spazio

Dimostrazione La dimostrazione segue da evidenti condizioni geometriche, essendo


il prodotto vettoriale di due vettori un vettore ortogonale ad entrambi e di conseguenza
parallelo all’intersezione dei due piani ⇡ e ⇡ 0 . Il vettore r è quindi:
i j k
0
r=n^n = a b c .
a0 b 0 c 0
La retta r ha come parametri direttori la terna di numeri (l, m, n) data da:
b c c a a b
l= , m= , n= ,
b0 c 0 c 0 a0 a0 b 0
o qualsiasi terna di numeri proporzionali a (l, m, n) mediante un coefficiente di propor-
zionalità diverso da zero.

Esercizio 11.5 Studiare al variare di h, k 2 R la posizione reciproca dei due piani:


⇡ : 2x + hy 2z + 3 = 0, ⇡ 0 : x + 2y + kz + 1 = 0.

Soluzione Per studiare la posizione reciproca dei due piani ⇡ e ⇡ 0 è sufficiente studiare
le soluzioni del sistema lineare formato dalle loro equazioni, ossia calcolare il rango della
sua matrice completa: ✓ ◆
2 h 2 3
(A | B) =
1 2 k 1
e confrontarlo con il rango della sua matrice A dei coefficienti. Riducendo per righe la
matrice (A | B) con l’operazione sulle righe R2 ! 2R2 + R1 si ottiene:
✓ ◆
2 h 2 3
0 4+h 2 2k 1
e quindi rank(A | B) = 2, per ogni h e k . Si hanno allora le due seguenti possibilitá:
1. se h 6= 4 oppure k 6= 1 i due piani si intersecano lungo una retta;
2. se h = 4 e k = 1 i due piani sono paralleli.

11.4 Posizioni reciproche tra rette e piani


Nel paragrafo precedente è stata esaminata la posizione reciproca di due piani, di seguito
si studieranno le posizioni reciproche di tre piani, di una retta e di un piano e di due rette,
privilegiando l’approccio di tipo algebrico (applicando quindi la teoria nota dello studio
dell’esistenza delle soluzioni dei sistemi lineari) e poi deducendo dai risultati ottenuti le
situazioni geometriche.
Capitolo 11 543

11.4.1 Posizione reciproca di tre piani


Per esaminare la posizione reciproca di tre piani ⇡1 , ⇡2 , ⇡3 dati da:
⇡1 : a1 x + b1 y + c1 z + d1 = 0,
⇡2 : a2 x + b2 y + c2 z + d2 = 0,
⇡3 : a3 x + b3 y + c3 z + d3 = 0,
si risolve il sistema lineare formato dalle loro tre equazioni. Applicando il Teorema
di Rouché–Capelli (cfr. Teor 1.2), confrontando i ranghi della matrice dei coefficienti
rank(A) e della matrice completa rank(A | B), e tenendo conto che i vettori:
n1 = (a1 , b1 , c1 ), n2 = (a2 , b2 , c2 ), n3 = (a3 , b3 , c3 )
sono ortogonali, rispettivamente, ai piani ⇡1 , ⇡2 , ⇡3 , si presentano le seguenti possibilità:
1. rank(A) = 1 : i tre vettori n1 , n2 , n3 sono paralleli, di conseguenza anche i tre
piani ⇡1 , ⇡2 , ⇡3 sono paralleli; si distinguono i due sottocasi:
a. rank(A | B) = 1 : il sistema lineare è compatibile, infatti i tre piani sono
coincidenti.
b. rank(A | B) = 2 : il sistema lineare è incompatibile, i tre piani sono paralleli
ma non sono tutti e tre coincidenti.
2. rank(A) = 2 : due tra i vettori n1 , n2 , n3 sono linearmente indipendenti e il terzo
è linearmente dipendente da essi; si distinguono i due sottocasi:

a. rank(A | B) = 2 : il sistema lineare è compatibile, i tre piani ⇡1 , ⇡2 , ⇡3 si


intersecano in una retta, è il caso illustrato nella Figura 11.4, se la si limita a
tre piani.
b. rank(A | B) = 3 : il sistema lineare è incompatibile, i piani si intersecano
a due a due in una retta e il terzo piano non ha punti comuni con tale retta,
quindi è ad essa parallelo. La situazione geometrica è illustrata nella Figura
11.5.

3. rank(A) = 3 : di conseguenza anche rank(A | B) = 3, il sistema lineare ammette


una sola soluzione, i tre piani ⇡1 , ⇡2 , ⇡3 si intersecano in un punto.

Esercizio 11.6 Studiare al variare di h, k 2 R la posizione reciproca dei tre piani:


⇡1 : x + hy + z = 0,
⇡2 : x y + hz 1 = 0,
⇡3 : 2x + hy + z + k = 0.
544 Geometria Analitica nello Spazio

Figura 11.5: Tre piani nello spazio: caso 2.b


Capitolo 11 545

Soluzione Per studiarne la posizione reciproca dei piani ⇡1 , ⇡2 , ⇡3 si considera il si-


stema lineare formato dalle tre equazioni dei piani e si calcola il rango della matrice
completa: 0 1
1 h 1 0
(A | B) = @ 1 1 h 1 A.
2 h 1 k
Riducendo per righe la matrice (A | B) si ottiene rank(A) = rank(A | B) = 3 per ogni
h e k , quindi i tre piani, per ogni valore reale di h e k, si intersecano in un punto.

11.4.2 Posizione reciproca tra retta e piano


Per esaminare la posizione reciproca tra una retta e un piano si può procedere o alge-
bricamente (usando una rappresentazione cartesiana sia della retta sia del piano), oppure
geometricamente (usando una rappresentazione parametrica della retta). Si distinguono i
due casi seguenti, che sono equivalenti tra di loro nel risultato a cui si perviene ma sono
diversi nel metodo seguito per raggiungere tale risultato.

Primo caso Dati la retta r e il piano ⇡ di equazioni:



a1 x + b1 y + c1 z + d1 = 0
r:
a2 x + b2 y + c2 z + d2 = 0,

⇡ : ax + by + cz + d = 0,
il problema è ricondotto allo studio del sistema lineare:
8
< a1 x + b1 y + c1 z + d1 = 0
a2 x + b2 y + c2 z + d2 = 0 (11.13)
:
ax + by + cz + d = 0,

cioè allo studio dell’intersezione di tre piani già esaminata nel paragrafo precedente, con
la condizione aggiuntiva che la matrice dei coefficienti abbia rango maggiore o uguale a
2 (perché?). Dal Teorema di Rouché–Capelli (cfr. Teor. 1.2) si distinguono le seguenti
possibilità:

1. il sistema lineare (11.13) è incompatibile, cioè la retta r è parallela al piano ⇡ e


non ha punti in comune con ⇡ ;

2. il sistema lineare (11.13) ammette una sola soluzione, cioè la retta ed il piano si
intersecano in un punto;
546 Geometria Analitica nello Spazio

3. il sistema lineare (11.13) ammette infinite soluzioni che dipendono da un’incognita


libera, allora la retta r giace sul piano ⇡.

Secondo Caso Data la retta r passante per il punto P0 = (x0 , y0 , z0 ) e parallela al


vettore r = (l, m, n) scritta in foma parametrica come:
8
< x = x0 + lt
r: y = y0 + mt
:
z = z0 + nt, t 2 R,
ed il piano ⇡, ortogonale al vettore n = (a, b, c), di equazione:
⇡ : ax + by + cz + d = 0,
i punti che appartengono all’intersezione di r con ⇡ si possono determinare cercando i
valori del parametro t che verificano la seguente equazione:
a(x0 + lt) + b(y0 + mt) + c(z0 + nt) + d = 0.
Il problema è quindi ricondotto allo studio delle soluzioni dell’equazione lineare:
(al + bm + cn)t = ax0 by0 cz0 d,
nell’incognita t. Osservando che:
al + bm + cn = r · n,
inoltre:
ax0 + by0 + cz0 + d = 0
se e solo il punto P0 appartiene al piano ⇡ e tenendo conto che l’annullarsi del prodotto
scalare tra due vettori esprime la loro ortogonalità, si distinguono le seguenti possibilità:

1. r · n 6= 0, cioè la retta ed il piano si intersecano in un punto;


2. r · n = 0 e P0 2 ⇡ , cioè la retta r giace sul piano ⇡ ;
3. r · n = 0 e P0 2
/ ⇡ , cioè la retta r è parallela al piano ⇡ e non ha punti in comune
con ⇡.

Esercizio 11.7 Studiare la posizione reciproca della retta r e del piano ⇡ di equazioni:

x hz 2 = 0
r:
3x + y = 0,

⇡ : kx y + hz 1 = 0,
al variare di h, k 2 R.
Capitolo 11 547

Soluzione Si studiano le soluzioni del sistema lineare:


8
< x hz 2 = 0
3x + y = 0 (11.14)
:
kx y + hz 1 = 0

al variare di h e k in R. Dal calcolo del rango della matrice dei coefficienti e della matrice
completa al variare di h e k si ha:

1. h 6= 0 e k 6= 4 : r e ⇡ si intersecano in un punto;

2. h = 0 e k 6= 5/2 : r è parallela a ⇡ ;

3. h = 0 e k = 5/2 : r giace su ⇡ ;

4. k = 4, 8h 2 R : r è parallela a ⇡ .

In alternativa, osservando che il piano ⇡ è ortogonale al vettore n = (k, 1, h) e la retta


r è parallela al vettore:

r = (1, 0, h) ^ (3, 1, 0) = (h, 3h, 1),

si ha che r · n = 0 se e solo se h(4 + k) = 0. Inoltre il punto P0 = (2, 6, 0) della retta


r appartiene al piano ⇡ se e solo se 2k + 5 = 0. Si perviene in questo modo alle stesse
soluzioni del sistema lineare (11.14).

11.4.3 Posizione reciproca di due rette nello spazio


Dalla geometria euclidea è noto che due rette r e r0 nello spazio possono essere:

1. coincidenti,

2. parallele,

3. incidenti,

4. sghembe (o non complanari).

Da notare che rette parallele e incidenti sono necessariamente complanari.

Analogamente al caso della posizione reciproca tra una retta e un piano, studiato nel pa-
ragrafo precedente, per individuare la posizione di due rette nello spazio si può procedere
in modo algebrico, per esempio rappresentando le due rette come intersezione di due
548 Geometria Analitica nello Spazio

piani ciascuna, o in modo geometrico, per esempio considerando le due rette in forma
parametrica.

Date due rette r e r0 in rappresentazione cartesiana:


⇢ ⇢
a1 x + b1 y + c1 z + d1 = 0 0 a01 x + b01 y + c01 z + d01 = 0
r: r :
a2 x + b2 y + c2 z + d2 = 0, a02 x + b02 y + c02 z + d02 = 0,
la loro posizione reciproca si ottiene studiando le soluzioni del sistema lineare delle quat-
tro equazioni nelle tre incognite ottenuto dalle equazioni dei quattro piani dati. Questo
metodo non è cosı̀ semplice da applicare ed è anche difficile riuscire ad indovinare la posi-
zione reciproca delle due rette solo guardando la loro rappresentazione, prima di iniziare
a svolgere i calcoli, come si può osservare dall’esempio che segue.

Esempio 11.7 Date le rette:


⇢ ⇢
x y+z =0 0 x+y 1=0
r: r :
y + 3z = 0, y + 3z 2 = 0,

per determinare la loro posizione reciproca si risolve il sistema lineare:


8
>
> x y+z =0
<
y + 3z = 0
>
> x+y 1=0
:
y + 3z 2 = 0.

Si ottiene che il rango della matrice completa è 4 (ossia, trattandosi di una matrice quadra-
ta di ordine 4, il suo determinante è diverso da 0) quindi il sistema lineare è incompatibile.
Le due rette r e r0 sono sghembe. Le due rette non sono parallele perché il rango della
matrice dei coefficienti è 3.

Se si rappresentano, invece, le due rette r e r0 in forma parametrica:


8 8
< x = x0 + lt < x = x1 + l 0
0
r: y = y0 + mt r : y = y1 + m0
: :
z = z0 + nt, t 2 R, z = z1 + n0 , 2 R,

osservando che le rette r e r0 sono parallele, rispettivamente, ai vettori r = (l, m, n),


r0 = (l0 , m0 , n0 ) e passano, rispettivamente, per i punti P0 = (x0 , y0 , z0 ), P1 = (x1 , y1 , z1 )
si ha un metodo molto più agevole per studiarne la loro posizione reciproca. Innanzi
tutto è evidente se le due rette siano o meno parallele a seconda che i vettori r e r0 siano
paralleli. Nel caso in cui esse siano parallele, si distingue il caso delle rette coincidenti da
Capitolo 11 549

quello delle rette parallele ma ad intersezione vuota, semplicemente controllando se, per
esempio il punto P0 appartenga o meno alla retta r0 . Ma, in generale, tenendo conto che
!
che r e r0 sono complanari se e solo se i vettori P0 P1 , r, s sono complanari, ossia:

x1 x0 y1 y0 z1 z0
!
P0 P1 · r ^ r 0 = l m n = 0,
l0 m0 n0

si distinguono i seguenti casi:

1. r = r0 se e solo se r e r0 sono paralleli e ad esempio P0 2 r0 ;

2. r e r0 sono parallele se e solo se r e r0 sono paralleli e P0 2


/ r0 ;
!
3. r e r0 sono incidenti se e solo se P0 P1 · r ^ r0 = 0, ma con r ^ r0 6= o;
!
4. r e r0 sono sghembe se e solo se P0 P1 · r ^ r0 6= 0.

Infine, nel caso in cui le rette r e r0 siano una in rappresentazione cartesiana e l’altra in
rappresentazione parametrica, cioè ad esempio se r0 = ⇡1 \ ⇡2 , si può osservare che se
si indicano con A e B i punti di intersezione di r con ⇡1 e con ⇡2 , rispettivamente, se
A 6= B allora le due rette sono sghembe. Se invece A = B allora r \ r0 = A.

Esempio 11.8 Scrivendo in forma parametrica le rette r e r0 considerate nell’Esempio


11.7, si ha: 8 8
< x = 4t < x= 1+3
0
r: y = 3t r : y=2 3
: :
z = t, t 2 R, z= , 2 R,
si ricava che le rette r e r0 sono parallele ai vettori r = ( 4, 3, 1) e r0 = (3, 3, 1) e
passano rispettivamente per i punti O = (0, 0, 0) e P1 = ( 1, 2, 0). Si osserva subito che
!
le due rette non sono parallele, non essendolo i vettori r e r0 . Poiché OP1 · r ^ r0 6= 0, si
ha che le due rette sono sghembe.

11.5 Fasci di piani


In questo paragrafo sono studiati i fasci di piani, la cui trattazione è analoga a quella dei
fasci di rette nel piano introdotta nel Paragrafo 9.8.

Si definiscono due tipi di fasci di piani:

1. il fascio improprio formato da tutti i piani paralleli ad un piano assegnato;


550 Geometria Analitica nello Spazio

2. il fascio proprio formato da tutti i piani passanti per una retta.

Il fascio improprio di piani paralleli ad un piano assegnato ⇡ : ax + by + cz + d = 0 ha


equazione cartesiana:
ax + by + cz + k = 0, k 2 R,
in quanto si deve mantenere fisso il vettore n = (a, b, c) ortogonale a tutti i piani del
fascio e, al variare di k 2 R, si determinano tutti e soli i piani paralleli a ⇡ .

Nel caso di un fascio proprio di piani, si dimostra che dati due piani ⇡ e ⇡ 0 non paralleli:

⇡ : ax + by + cz + d = 0, ⇡ 0 : a0 x + b0 y + c0 z + d0 = 0,

il fascio di piani F generato da ⇡ e ⇡ 0 , cioè formato da tutti e soli i piani passanti per la
retta r = ⇡\⇡ 0 , è l’insieme di tutti i piani aventi per equazione cartesiana la combinazione
lineare:

F : (ax+by+cz+d)+µ(a0 x+b0 y+c0 z+d0 ) = 0, , µ 2 R, ( , µ) 6= (0, 0), (11.15)

che prende il nome di equazione del fascio di piani. Infatti si ha:

1. per ogni valore di ( , µ) 6= (0, 0) da (11.15) si ottiene un piano, trattandosi di


un’equazione lineare in x, y, z.
2. I parametri e µ sono omogenei, cioè, per ogni ⇢ 6= 0, ( , µ) e (⇢ , ⇢µ) indivi-
duano lo stesso piano.
3. Se P0 = (x0 , y0 , z0 ) 2 ⇡ \⇡ 0 , allora (x0 , y0 , z0 ) è soluzione dell’equazione (11.15),
per ogni ( , µ). Quindi ogni piano del fascio F contiene la retta r = ⇡ \ ⇡ 0 .
4. Se P1 = (x1 , y1 , z1 ) è un punto qualsiasi dello spazio (non appartenente alla retta
r) l’equazione:

(ax1 + by1 + cz1 + d) + µ(a0 x1 + b0 y1 + c0 z1 + d0 ) = 0

di incognite e µ permette di individuare i valori di e µ che sostituiti in (11.15)


portano all’equazione dell’unico piano del fascio F passante per P1 .

Osservazione 11.5 Si osservi che, dati un fascio di piani F, un piano ⇡ non appartenente
ad F e una retta r che non sia l’asse del fascio, esistono un piano di F parallelo ad r
e un piano di F ortogonale a ⇡. Mentre, salvo casi particolari, non esiste un piano di F
ortogonale a r e un piano di F parallelo a ⇡.

Esercizio 11.8 Dato il punto P0 = (2, 1, 1), determinare il piano ⇡, passante per P0 ,
in ciascuno dei seguenti casi:
Capitolo 11 551

1. ⇡ sia anche parallelo al piano ⇡ 0 : 2x y + 3z 1 = 0;

2. ⇡ contenga anche la retta:



x y+2=0
r:
2x y 3z = 0;

3. ⇡ sia anche ortogonale alla retta:



0 y = 2x 1
r :
z = x + 3;

4. ⇡ sia anche ortogonale al piano:

⇡ 00 : 2x + y 3z + 1 = 0

e contenga il punto A = (3, 1, 0).

Soluzione 1. Il piano ⇡ appartiene al fascio improprio dei piani paralleli a ⇡ 0 che


ha pertanto ha equazione cartesiana:

2x y + 3z + k = 0, k 2 R.

Imponendo il passaggio per il punto P0 si ha k = 0 e quindi ⇡ : 2x y + 3z = 0.

2. Il piano ⇡ appartiene al fascio proprio di piani passanti per r che ha equazione


cartesiana:

(x y + 2) + µ(2x y 3z) = 0, , µ 2 R, ( , µ) 6= (0, 0). (11.16)

Imponendo il passaggio per P0 si ha 3 + 6µ = 0 e quindi l’equazione di ⇡ si


ottiene, ad esempio, sostituendo = 2 e µ = 1 in (11.16).

3. La retta r0 è parallela al vettore r0 = (1, 2, 1), quindi il piano ⇡ è ortogonale a r0


e passa per P0 , cioè ha equazione x + 2y z 5 = 0.

4. Il piano ⇡ 00 è ortogonale al vettore n00 = (2, 1, 3), pertanto il piano ⇡ è formato da


! !
tutti i punti P per cui i vettori AP , P0 A e n00 sono complanari, cioè ha equazione:

x 3 y+1 z
2 1 3 = 0.
1 2 1
552 Geometria Analitica nello Spazio

Esercizio 11.9 Dati la retta:


8
< x = 1 + 2t
r: y = 3 + 2t
:
z = 1 + 3t, t2R

e il punto A = (2, 1, 0), determinare le equazioni della retta s passante per A, perpendi-
colare ed incidente la retta r.

Soluzione La retta s può essere determinata come intersezione dei due piani ⇡1 e ⇡2 ,
dove ⇡1 è il piano passante per r e per il punto A e ⇡2 è il piano passante per A e
ortogonale a r; si ha:

x y+2=0
r:
3x 2z 1 = 0.

Di conseguenza, il fascio di piani passanti per r ha equazione:

F : (x y + 2) + µ(3x 2z 1) = 0, , µ 2 R, ( , µ) 6= (0, 0).

Pertanto il piano ⇡1 si ottiene imponendo il passaggio di F per A, da cui si deduce


3 + 5µ = 0. Quindi ⇡1 ha equazione cartesiana 5(x y + 2) + ( 3)(3x 2z 1) = 0.
Per determinare ⇡2 , invece, si devono calcolare i parametri direttori della retta r e si
ottiene che r è parallela al vettore r = (2, 2, 3). Quindi ⇡2 appartiene al fascio improprio
di piani:
2x + 2y + 3z + k = 0, k 2 R,

da cui, imponendo il passaggio per il punto A, segue k = 6. Concludendo, la retta s


ha equazioni:

4x + 5y 6z 13 = 0
s:
2x + 2y + 3z 6 = 0.

11.6 Distanze e angoli


In questo paragrafo sono affrontati i problemi metrici riguardanti punti, rette, piani nello
spazio. Si determineranno, infatti, le distanze di un punto da un piano e di un punto da
una retta, la distanza minima tra due rette sghembe e le equazioni della retta perpendico-
lare e incidente due rette sghembe, inoltre si calcoleranno gli angoli formati da due rette
incidenti o sghembe, da una retta e un piano incidenti e da due piani incidenti.
Capitolo 11 553

11.6.1 Distanza di un punto da un piano


La distanza con segno d(P0 , ⇡) di un punto P0 da un piano ⇡ è per definizione la distanza,
con segno, d(P0 , H) di P0 dal punto H proiezione ortogonale di P0 su ⇡ . La situazione
geometrica è illustrata nella Figura 11.6. Se n è un vettore ortogonale a ⇡ si ha che:
!
P0 H · n
d(P0 , H) = . (11.17)
knk
!
Si osservi che il segno della distanza d(P0 , H) è determinato dal prodotto scalare P0 H · n
che è positivo se P0 appartiene al semispazio individuato da ⇡ orientato come n, come
nella Figura 11.6, negativo se P0 appartiene al semispazio opposto. Il prodotto scalare
!
P0 H ·n si annulla se e solo se i due vettori sono ortogonali ossia se e solo se P0 appartiene
al piano ⇡.

Allo scopo di scrivere mediante le componenti dei vettori e le coordinate dei punti la
formula (11.17), si considerino, rispetto al riferimento cartesiano R = (O, i, j, k), il
punto P0 = (x0 , y0 , z0 ) ed il piano ⇡ : ax + b + cz + d = 0. Dall’espressione del prodotto
scalare in componenti (cfr. Teor. 3.13) si ottiene:

ax0 + by0 + cz0 + d


d(P0 , ⇡) = p , (11.18)
a2 + b 2 + c 2

che è una formula analoga a quella già ricavata per il calcolo della distanza di un punto
da una retta nel piano (cfr. Par. 9.7.5).

Esercizio 11.10 Data la retta:



x+z 1=0
r:
y + 1 = 0,

determinare i punti di r aventi distanza pari a 4 (in valore assoluto) dal piano:

⇡ : 2x y 2z + 1 = 0.

Soluzione I punti della retta r hanno coordinate (t, 1, t + 1), t 2 R, per cui, dalla
formula (11.18) segue:
|2t + 1 2( t + 1) + 1|
p = 4.
4+1+4
I due valori di t che cosı̀ si trovano permettono di individuare i due punti P1 e P2 della
retta r che risolvono il problema. La situazione geometrica è illustrata nella Figura 11.7.
554 Geometria Analitica nello Spazio

P0

Π
H

Figura 11.6: Distanza del punto P0 dal piano ⇡

P1

P2

Figura 11.7: Esercizio 11.10


Capitolo 11 555

11.6.2 Distanza di un punto da una retta


La distanza d(P0 , r) di un punto P0 da una retta r nello spazio è per definizione la di-
stanza d(P0 , H) tra i punti P0 e H , dove H è il punto proiezione ortogonale di P0 su r.
Il punto H è l’intersezione della retta r con il piano ⇡ passante per P0 e ortogonale a r.
In alternativa, si può determinare la distanza d(P0 , H) cosiderando un punto P1 apparte-
nente a r e un vettore r 6= o parallelo a r. Indicato con ✓ l’angolo compreso tra i vettori
!
P0 P1 e r, dalla definizione di prodotto vettoriale (cfr. Par. 3.7.2) si ha:
! !
kP0 P1 ^ rk = kP0 P1 k krk sin ✓,

e quindi:
!
kP0 P1 ^ rk
d(P0 , r) = d(P0 , H) = , (11.19)
krk
la situazione geometrica è illustrata nella Figura 11.8. Si osservi che la distanza di un
punto da una retta nello spazio è sempre un numero positivo o nullo.

Esempio 11.9 La distanza dell’origine O dalla retta r di equazioni parametriche:


8
< x=t
y = 1 + 2t
:
z = 1 + 3t, t 2 R,

è la distanza di O dal punto H ottenuto dall’intersezione della retta r con il piano


passante per O perpendicolare a r, si ha:
✓ ◆
1 8 11
H= , , .
14 7 14

In alternativa, si può considerare un qualsiasi punto di r, ad esempio A = (0, 1, 1) ed


un vettore r parallelo alla retta r, per esempio r = (1, 2, 3), e utilizzando la formula
(11.19) si ottiene:
! r
kOA ^ rk k(5, 1, 1)k 27
d(O, r) = = = .
krk k(1, 2, 3)k 14

11.6.3 Minima distanza tra due rette sghembe.


Perpendicolare comune a due rette sghembe
Un noto teorema di geometria euclidea afferma che date due rette sghembe r e r0 esiste
ed è unica la retta perpendicolare e incidente sia r sia r0 , tale retta prende il nome di
556 Geometria Analitica nello Spazio

P0

P1 q H
r

Figura 11.8: Distanza di un punto da una retta


Capitolo 11 557

perpendicolare comune a due rette sghembe. La distanza tra i due punti di intersezione
della perpendicolare comune con le due rette sghembe è la minima distanza tra le rette
sghembe d(r, r0 ) nel senso che ogni segmento che unisce due punti qualsiasi, uno su r e
uno su r0 , ha lunghezza maggiore di tale distanza. In questo paragrafo si indicheranno
alcuni metodi per determinare sia la perpendicolare comune a due rette sghembe sia la
loro minima distanza.

Siano P (t) = P0 + tr e P (t0 ) = P00 + t0 r0 due rappresentazioni parametriche rispet-


tivamente di r e r0 . Per determinare l’equazione della perpendicolare comune a r e a
!
r0 si possono imporre le due condizioni di ortogonalità tra i vettori P (t)P (t0 ) e r e tra
!
P (t)P (t0 ) e r0 : ⇢
(P (t0 ) P (t)) · r = 0
(11.20)
(P (t0 ) P (t)) · r0 = 0.
Il precedente sistema lineare nelle due incognite t e t0 ha un’unica soluzione (t = t0 , t0 =
t00 ) e la perpendicolare comune è pertanto la retta passante per i due punti R, su r ottenuto
ponendo t0 nelle equazioni parametriche di r, e R0 , su r0 , ottenuto ponendo t00 nelle
equazioni parametriche di r0 . La minima distanza tra le due rette r e r0 sarà dunque
d(R, R0 ). In alternativa si può determinare la minima distanza tra le due rette sghembe
r e r0 senza necessariamente calcolare le equazioni della loro perpendicolare comune. È
sufficiente infatti determinare l’equazione del piano ⇡ passante per r e parallelo ad r0 e
poi calcolare la distanza (in valore assoluto) di un qualunque punto di r0 da ⇡ e questa
è la minima distanza tra le due rette sghembe. Oppure si può osservare che la minima
distanza tra le due rette sghembe r ed r0 non è altro che la proiezione ortogonale su r ^ r0
del vettore che unisce un punto P1 fissato su r ad un punto P2 fissato su r0 , ossia:
!
0 |P1 P2 · r ^ r0 |
d(r, r ) = .
kr ^ r0 k

La perpendicolare comune a r e a r0 si può anche determinare come intersezione dei due


piani ⇡1 e ⇡2 entrambi paralleli al vettore r ^ r0 e complanari uno con r e l’altro con r0 .
La situazione geometrica è illustrata nella Figura 11.9.

Esercizio 11.11 1. Date le due rette:


8 8
< x=t+2 < x = t0
0
r: y=t r : y = t0 1
: :
z = 2t, t 2 R, z = t0 + 2, t0 2 R,

verificare che r e r0 sono sghembe e determinare la loro perpendicolare comune.

2. Calcolare la distanza minima di r e r0 .


558 Geometria Analitica nello Spazio

r' r'
R'
P!t'"

r#r'

r
R r
P!t"
Π

Figura 11.9: Perpendicolare comune a due rette sghembe


Capitolo 11 559

Soluzione 1. Le rette r e r0 sono rispettivamente parallele ai vettori r = (1, 1, 2) e


r0 = (1, 1, 1). Inoltre, considerati i punti P1 = (2, 0, 0) in r e P2 = (0, 1, 2) in
!
r0 , poiché P1 P2 ^ r · r0 6= 0, le rette r e r0 non sono complanari. Per determinare
la loro perpendicolare comune si può osservare che indicati con:

P (t) = (t + 2, t, 2t), P (t0 ) = (t0 , t0 1, t0 + 2)

i generici punti di r e di r0 rispettivamente, il sistema lineare (11.20) diventa in


questo caso:
⇢ 0
4t 6t 7 = 0
3t0 4t 5 = 0

ed ha come un’unica soluzione (t = 1/2, t0 = 1). La perpendicolare comune alle


rette r e r0 è allora la retta passante per i due punti:
✓ ◆
3 1
R= , , 1 2 r, R0 = (1, 0, 1) 2 r0 ,
2 2

ossia la retta p di equazioni:


8
< x=1
p: y=
:
z = 1, 2 R.

Si perviene allo stesso risultato considerando la retta p come intersezione dei piani
⇡1 e ⇡2 cosı̀ determinati: ⇡1 è il piano parallelo al vettore r ^ r0 = i j e apparte-
nente al fascio di piani di asse la retta r, si ottiene ⇡1 : x + y + z 2 = 0. In modo
analogo, ⇡2 è il piano parallelo a r ^ r0 e appartenente al fascio di piani di asse la
retta r0 , si ha ⇡2 : x + y + 2z 3 = 0.

2. La distanza minima di r e r0 è:


p
2
d(R, R0 ) = .
2

Si perviene allo stesso risultato determinando l’equazione del piano ⇡3 appartenen-


te al fascio di piani di asse la retta r e parallelo alla retta r0 , si ha ⇡3 : x y 2 = 0,
infine calcolando la distanza (in valore assoluto) di un generico punto di r0 , per
esempio A = (0, 1, 2), dal piano ⇡3 .
560 Geometria Analitica nello Spazio

11.6.4 Angolo tra due rette


[
Per definizione, l’angolo (r, r0 ) tra due rette r e r0 nello spazio è l’angolo formato tra un
vettore r parallelo alla retta r ed un vettore r0 parallelo alla retta r0 . Da osservare quindi
che se ✓ è l’angolo tra i due vettori r e r0 , le due rette formano anche l’angolo ⇡ ✓.
Inoltre, in base a questa definizione, che peraltro coincide con la definizione di angolo
tra due rette nel piano (cfr. Par. 9.7.3), ha anche senso la nozione di angolo tra due rette
sghembe. Pertanto, dalla definizione di prodotto scalare tra due vettori (cfr. Par. 3.7.1)
segue:
[ \ r · r0
cos (r, r0 ) = ± cos (r 0 , r) = ± .
krk kr0 k

11.6.5 Angolo tra retta e piano


L’angolo tra una retta r ed un piano ⇡ nello spazio è per definizione l’angolo ✓ 2 [0, ⇡/2]
che la retta r forma con la retta r0 , proiezione ortogonale di r su ⇡. L’angolo ✓ è pertanto
complementare all’angolo ' 2 [0, ⇡/2] che un vettore r parallelo alla retta r forma con
un vettore n ortogonale a ⇡, quindi si ha:

[ |n · r|
sin (r, ⇡) = sin ✓ = .
knk krk

La situazione geometrica è illustrata nella Figura 11.10.

11.6.6 Angolo tra due piani


Dalla geometria euclidea è noto che l’ampiezza dei diedri formati da due piani ⇡1 e ⇡2
incidenti in una retta r è calcolata mediante la loro sezione normale. Per sezione normale
di un diedro individuato dai piani ⇡1 e ⇡2 si intende un piano ⇡ che intersechi ortogo-
nalmente la retta r = ⇡1 \ ⇡2 . Gli angoli sul piano ⇡ individuati dalle due rette r1 e
r2 rispettivamente intersezione di ⇡ con ⇡1 e con ⇡2 corrispondono agli angoli formati
dai piani ⇡1 e ⇡2 . La situazione geometrica è illustrata nella Figura 11.11. Dalla rap-
presentazione in pianta dell’angolo ✓ indicato nella Figura 11.11 (cfr. Fig. 11.12) si
osserva che l’angolo ✓ individuato da ⇡1 e ⇡2 è il supplementare dell’angolo ' formato
dai vettori n1 e n2 , vettori normali, rispettivamente, a ⇡1 e a ⇡2 . D’altra parte, cambiando
l’orientamento di n1 o di n2 , essi formano anche l’angolo ⇡ '. Pertanto:

\ \ n1 · n2
cos (⇡ 1 , ⇡2 ) = ± cos (n1 , n2 ) = ± .
kn1 k kn2 k
Capitolo 11 561

n
j
q

r'

Figura 11.10: Angolo tra la retta r e il piano ⇡


562 Geometria Analitica nello Spazio

r1 r2

Π1
Π2

Figura 11.11: Sezione normale di un diedro

r2

n1

"

n2
Θ

r1

Figura 11.12: Angolo ✓ tra due piani


Capitolo 11 563

11.7 Sfera e posizione reciproca con rette e piani


In questo paragrafo si introduce la rappresentazione della sfera nello spazio mediante
un’equazione cartesiana di tipo particolare, che è analoga a quella della circonferenza nel
piano. Le equazioni parametriche della sfera saranno introdotte nel Paragrafo 11.10. La
rappresentazione di una circonferenza nello spazio è invece più complicata e sarà discussa
nel Paragrafo 11.8. Saranno anche studiate le posizioni reciproche tra una sfera e un piano,
tra una sfera e una retta con le relative condizioni di tangenza.

11.7.1 Sfera
Fissati un punto C e un numero reale positivo R, la sfera o superficie sferica ⌃ di centro
C e raggio R è il luogo geometrico dei punti P dello spazio tali che:
d(P, C) = R.
Se R = 0 la sfera si riduce ad un solo punto che coincide con C .

Rispetto ad un riferimento cartesiano R = (0, x, y, z), la sfera di centro C = (↵, , ) e


raggio R 0 ha quindi equazione:
(x ↵)2 + (y )2 + (z )2 = R2 ,

che può essere riscritta come:

x2 + y 2 + z 2 2↵x 2 y 2 z + = 0, (11.21)
con = ↵2 + 2 + 2 R2 . Si osservi che l’equazione (11.21) è di secondo grado in x,
y, z , i coefficienti dei termini xy , xz , yz sono tutti nulli e i coefficienti dei termini x2 ,
y 2 , z 2 sono uguali. Viceversa, un’equazione dello stesso tipo, vale a dire:

x2 + y 2 + z 2 + ax + by + cz + d = 0, a, b, c, d 2 R, (11.22)
non sempre rappresenta una sfera nello spazio. Infatti, per confronto con (11.21), da
(11.22) il centro C ha coordinate:
✓ ◆
a b c
C= , , (11.23)
2 2 2
e il raggio è dato da: r
a2 + b2 + c2 4d
R= , (11.24)
4
pertanto l’equazione (11.22) rappresenta una sfera se e solo se a2 + b2 + c2 4d 0.
564 Geometria Analitica nello Spazio

Osservazione 11.6 Se a2 + b2 + c2 4d = 0, la sfera è detta degenere e si riduce al solo


centro di coordinate ( a/2, b/2, c/2). Se a2 + b2 + c2 4d < 0 allora non ci sono
punti dello spazio che verificano l’equazione (11.22) e la sfera viene detta immaginaria.

Esercizio 11.12 Determinare il centro e il raggio delle due sfere:

⌃1 : x2 + y 2 + z 2 + 2x y + z = 0,
⌃2 : x2 + y 2 + z 2 + 2x y + z + 4 = 0.

Soluzione ⌃1 è una sfera con centro nel punto:


✓ ◆
1 1
C= 1, ,
2 2

e raggio (cfr. (11.24)):


s ✓ ◆2 ✓ ◆2 p
1 1 6
R1 = ( 1)2 + + = .
2 2 2

Da notare che il raggio R1 coincide con la distanza d(O, C), in quanto la sfera passa per
l’origine O, essendo la sua equazione priva di termine noto. Il centro di ⌃2 è C , ma ⌃2
non è una sfera poiché, da (11.24) si ha che il radicando vale 3/2 4 < 0. In base alla
precedente osservazione ⌃2 è infatti una sfera immaginaria.

Esercizio 11.13 Si studino le posizioni delle sfere nello spazio, rappresentate dall’equa-
zione (11.22), al variare di a, b, c, d in R.

11.7.2 Posizione reciproca tra piano e sfera


La posizione reciproca di una sfera ⌃ e di un piano ⇡ è determinata dal confronto tra la
distanza del centro C della sfera dal piano e il valore del suo raggio R. Più precisamente
si presentano i seguenti casi:

1. se |d(C, ⇡)| > R l’intersezione di ⇡ con ⌃ è l’insieme vuoto, il piano ⇡ si dice


esterno alla sfera ⌃ (cfr. Fig. 11.13);

2. se |d(C, ⇡)| = R l’intersezione di ⇡ con ⌃ è un punto P0 , il piano ⇡ si dice


tangente alla sfera ⌃ in P0 (cfr. Fig. 11.14);

3. se |d(C, ⇡)| < r l’intersezione di ⇡ con ⌃ è una circonferenza, il piano ⇡ si dice


secante la sfera ⌃ (cfr. Fig. 11.15).
Capitolo 11 565

Figura 11.13: Piano esterno ad una sfera

P0
p

Figura 11.14: Piano tangente ad una sfera


566 Geometria Analitica nello Spazio

Figura 11.15: Piano secante una sfera

Si osservi che la circonferenza intersezione di un piano ⇡ secante una sfera ⌃ può essere
rappresentata dal sistema delle equazioni di ⇡ e di ⌃, come si vedrà con maggiori dettagli
nel Paragrafo 11.8.

Dato un punto P0 = (x0 , y0 , z0 ) appartenente alla sfera ⌃ di centro C = (↵, , ) e


raggio R, esiste un solo piano tangente a ⌃ in P0 , dato dal piano passante per P0 e
!
ortogonale al vettore CP0 = (x0 ↵, y0 , z0 ), che ha quindi equazione:
(x0 ↵)(x x0 ) + (y0 )(y y0 ) + (z0 )(z z0 ) = 0.

Esercizio 11.14 Determinare l’equazione della sfera passante per il punto A = (3, 1, 1)
e tangente al piano ⇡ : x + y z 1 = 0 nel punto B = (1, 1, 1).

Soluzione Il centro C della sfera richiesta appartiene alla retta r passante per B e
ortogonale a ⇡ , di equazioni parametriche:
8
< x=1+t
r: y =1+t
:
z = 1 t, t 2 R,
pertanto il generico punto C della retta r ha coordinate C = (1 + t, 1 + t, 1 t). Im-
ponendo la condizione d(C, A) = d(C, B) si ha t = 1 e quindi si determina il centro
C = (2, 2, 0) della sfera che ha, di conseguenza, equazione cartesiana:
(x 2)2 + (y 2)2 + z 2 = 3.
Capitolo 11 567

11.7.3 Posizione reciproca tra retta e sfera

Figura 11.16: Retta esterna ad una sfera

Per determinare i punti di intersezione di una sfera:

⌃ : x2 + y 2 + z 2 + ax + by + cz + d = 0

con una retta r di equazioni parametriche:


8
< x = x0 + lt
r: y = y0 + mt
:
z = z0 + nt, t 2 R,

è sufficiente risolvere l’equazione di secondo grado in t che si ottiene sostituendo le


equazioni di r nell’equazione di ⌃:

(x0 + lt)2 + (y0 + mt)2 + (z0 + nt)2 + a(x0 + lt) + b(y0 + mt) + c(z0 + nt) + d = 0,

che può avere:

1. due soluzioni complesse e coniugate, quindi la retta r è esterna alla sfera ⌃ (cfr.
Fig. 11.16);

2. due soluzioni reali concidenti, cioè la retta r è tangente alla sfera ⌃ (r interseca ⌃
in due punti coincidenti, cfr. Fig. 11.17);
568 Geometria Analitica nello Spazio

Figura 11.17: Retta tangente ad una sfera

Figura 11.18: Retta secante una sfera


Capitolo 11 569

3. due soluzioni reali distinte, cioè la retta r è secante la sfera ⌃ (r interseca ⌃ in due
punti distinti, cfr. Fig. 11.18).

Osservazione 11.7 Geometricamente i casi di intersezione di una retta r con una sfera
⌃ appena descritti possono essere interpretati in termini della distanza d(C, r) del centro
C della sfera dalla retta r nel modo seguente:

1. la retta r è esterna alla sfera ⌃ se e solo se d(C, r) > R;

2. la retta r è tangente alla sfera ⌃ se e solo se d(C, r) = R;

3. la retta r è secante la sfera ⌃ se e solo se d(C, r) < R.

Si osservi inoltre che in ogni punto P0 di una sfera ⌃ si hanno infinite rette tangenti a ⌃,
tutte e sole quelle appartenenti al fascio di rette di centro P0 che giace sul piano tangente
a ⌃ nel punto P0 .

11.8 La circonferenza nello spazio


Una circonferenza C di centro C e raggio r è il luogo geometrico dei punti P dello spazio
che appartengono ad un piano ⇡ passante per C e che hanno distanza r da C :

C = {P 2 ⇡ | d(P, C) = r}.

Una circonferenza C è quindi individuata dal suo centro, dal suo raggio e dal piano su cui
essa giace.

Esempio 11.10 a. La circonferenza C di centro il punto C = (↵, , ), raggio r e


appartenente al piano ⇡ di equazione ax + by + cz + d = 0 è data, ad esempio,
dall’intersezione del piano ⇡ con la sfera di centro C e raggio r, pertanto C ha
equazioni cartesiane:

(x ↵)2 + (y )2 + (z )2 = r2
C:
ax + by + cz + d = 0.

b. La circonferenza C è anche data dall’intersezione del piano ⇡ con infinite altre


sfere, aventi il centro sulla retta passante per C, ortogonale a ⇡ .

c. La cironferenza C è anche data dall’intersezione di due sfere che in essa si interse-


cano.
570 Geometria Analitica nello Spazio

Figura 11.19: La circonferenza C del piano ⇡


Capitolo 11 571

d. La circonferenza C è anche data dall’intersezione del piano ⇡ con una opportuna


superficie (non necessariamente una sfera) come sarà spiegato meglio nel Capitolo
12.

La situazione geometrica è illustrata nella Figura 11.19.

R
r
Q
p

Figura 11.20: Il centro e il raggio della circonferenza

In generale, un sistema di due equazioni nelle incognite x, y, z del tipo:


⇢ 2
x + y 2 + z 2 2↵x 2 y 2 z + = 0
ax + by + cz + d = 0

rappresenta una circonferenza C se e solo se ⌃ : x2 + y 2 + z 2 2↵x 2 y 2 z + = 0


è una sfera e ⇡ : ax + by + cz + d = 0 è un piano secante la sfera ⌃. In tale caso si ha:

1. il centro Q di C è l’intersezione del piano ⇡ con la retta ortogonale a ⇡, passante


per il centro C della sfera ⌃;
2. il raggio r della circonferenza C si ottiene applicando il Teorema di Pitagora ed è
dato da: p
r = R2 (d(C, ⇡))2 , (11.25)
572 Geometria Analitica nello Spazio

dove R indica il raggio della sfera ⌃ e d(C, ⇡) la distanza di C da ⇡ . La situazione


geometrica è illustrata nella Figura 11.20.

Esercizio 11.15 Determinare il centro Q e il raggio r della circonferenza intersezione


della sfera ⌃ : x2 + y 2 + z 2 4x = 0 con il piano ⇡ : z + 1 = 0.

Soluzione La sfera ⌃ ha centro C = (2, 0, 0) e raggio R = 2. Il centro Q della circon-


ferenza appartiene all’intersezione del piano ⇡ con la retta passante per C e ortogonale
al piano ⇡, di equazioni parametriche:
8
< x=2
y=0
:
z = t, t 2 R.
Si ottiene
p Q = (2, 0, 1) e, dalla formula (11.25) si ha che il raggio della circonferenza
è r = 3.

Esercizio 11.16 Data la circonferenza C intersezione della sfera ⌃ : x2 + y 2 + z 2 2=0


con il piano ⇡ : x + y + z = 0,

1. verificare che il punto A = (2, 0, 2) del piano ⇡ è esterno alla circonferenza C .


2. Determinare le equazioni delle rette del piano ⇡ uscenti da A e tangenti a C .

Soluzione 1. Il centro Q della circonferenza C è l’intersezione del piano ⇡ con la ret-


ta ortogonale a ⇡ e passante per il centro C della sfera ⌃. Poiché il centro C coinci-
de con l’origine e il piano ⇡ passa per l’origine segue che la circonferenza C è un
p
cerchio massimo di ⌃ e Q = C, il raggio di C è r = 2, ossia è il raggio di ⌃. Il
p p
punto A è esterno a C in quanto d(A, C) = 2 2 > 2.

2. Le rette cercate
p giacciono sul piano ⇡ 0 passante per A ortogonale a ⇡ e tale che
d(C, ⇡ 0 ) = 2. Il piano ⇡ 0 appartiene al fascio proprio F di piani di asse la retta
passante per A ortogonale a ⇡ di equazioni cartesiane:

x y 2=0
y z 2 = 0.
Il fascio F ha pertanto equazione:

F : (x y 2) + µ(y z
2) = 0, , µ 2 R, ( , µ) 6= (0, 0).
p
Imponendo la condizione d(C, ⇡ 0 ) = 2 si ottiene:

µ = 0,
Capitolo 11 573

e quindi i due piani:

x y 2 = 0, y z 2 = 0.

Le due rette cercate hanno quindi equazioni:


⇢ ⇢
x y 2=0 y z 2=0
x + y + z = 0, x + y + z = 0.

Nell’esercizio seguente si intendono ricavare le equazioni parametriche di una circonfe-


renza rappresentata come intersezione di un piano e di una sfera, allo scopo, per esempio,
di disegnarla agevolmente usando un programma di calcolo simbolico.

Esercizio 11.17 Trovare le equazioni parametriche della circonferenza C , appartenente


al piano ⇡ di equazione 2x y + z = 0, di centro C = (1, 2, 0) e raggio 2.

Soluzione Un vettore parallelo al piano ⇡ è v1 = j + k. Un vettore parallelo a ⇡ e


ortogonale a v1 invece è:

v2 = v1 ^ (2i j + k) = 2i + 2j 2k.

Si considerino i loro versori:


v1 j+k v2 i+j k
u1 = = p , u2 = = p .
kv2 k 2 kv2 k 3

Una rappresentazione vettoriale parametrica di C è:

P = C + 2((cos t)u1 + (sin t)u2 ), 0  t < 2⇡,

che in componenti, rispetto alla base ortonormale positiva B = (i, j, k), diventa:
8
> 2
>
> x = 1 + p sin t
>
> 3
>
>
>
>
< 2 2
y = 2 + p cos t + p sin t
>
> 3 3
>
>
>
>
>
> 2 2
>
: z = p cos t p sin t, 0  t < 2⇡.
2 3
574 Geometria Analitica nello Spazio

11.9 Posizione reciproca tra due sfere.


Fasci di sfere
Geometricamente è evidente che l’intersezione di due sfere diverse ⌃1 e ⌃2 nello spazio
può essere:

1. l’insieme vuoto;

2. un punto, nel qual caso le sfere si dicono tangenti;

3. una circonferenza, nel qual caso le sfere si dicono secanti.

La posizione reciproca tra due sfere nello spazio si può determinare confrontando la di-
stanza tra i loro centri con la somma e la differenza dei loro raggi, in modo totalmen-
te analogo a quanto illustrato per la determinazione della posizione reciproca di due
circonferenze nel piano (cfr. Par. 10.1.3).

Figura 11.21: Due sfere secanti e il loro piano radicale


Capitolo 11 575

Figura 11.22: Due sfere tangenti esternamente e il loro piano radicale

Figura 11.23: Due sfere tangenti internamente e il loro piano radicale


576 Geometria Analitica nello Spazio

Figura 11.24: Due sfere ad intersezione vuota e il loro piano radicale

Figura 11.25: Due sfere ad intersezione vuota e il loro piano radicale


Capitolo 11 577

Date le due sfere ⌃1 e ⌃2 di equazioni:

⌃1 : x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0,
⌃2 : x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,

si può anche studiare la loro intersezione considerando le soluzioni del sistema formato
dalle due equazioni:
⇢ 2
x + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0
x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,

che, sottraendo membro a membro, è equivalente al sistema:


⇢ 2
x + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0
(a1 a2 )x + (b1 b2 )y + (c1 c2 )z + d1 d2 = 0.

Se le due sfere ⌃1 e ⌃2 non sono concentriche, la seconda equazione del sistema pre-
cedente rappresenta un piano ⇡ , detto piano radicale della coppia di sfere. Si osserva
che:

1. il piano radicale è ortogonale al vettore:

n = (a1 a2 , b 1 b 2 , c1 c2 )

che è parallelo alla retta che unisce i centri delle due sfere, detta asse centrale.

2. Se ⌃1 \ ⌃2 è una circonferenza C , allora il piano radicale coincide con il piano su


cui giace C . La situazione geometrica è illustrata nella Figura 11.21.

3. Se ⌃1 e ⌃2 sono tangenti in un punto P0 , il piano radicale è tangente ad entrambe


le sfere nel punto P0 . La situazione geometrica è illustrata nelle Figure 11.22 e
11.23.

4. Se le due sfere ⌃1 e ⌃2 non hanno punti in comune, anche il loro piano radicale
non ha punti in comune con le due sfere. La situazione geometrica è illustrata nelle
Figure 11.24 e 11.25.

Come nel caso del fascio di circonferenze nel piano (cfr. Par. 10.1.4) date due sfere:

⌃1 : x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0,
⌃2 : x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,
578 Geometria Analitica nello Spazio

la loro combinazione lineare, al variare dei parametri e µ:

(x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 )
(11.26)
+µ(x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 ) = 0, , µ 2 R, ( , µ) 6= (0, 0),
rappresenta il fascio di sfere individuato da ⌃1 e ⌃2 . Si osservi che i parametri e µ
sono omogenei, vale a dire è sufficiente individuare il loro rapporto per ottenere un solo
elemento del fascio. Si osservi, inoltre, che per = 0 si ha la sfera ⌃2 e per µ = 0 si
ottiene la sfera ⌃1 . Da (11.26) si ha:
( + µ)x2 + ( + µ)y 2 + ( + µ)z 2 + ( a1 + µ a2 )x + ( b1 + µb2 )y
(11.27)
+( c1 + µc2 )z + ( d1 + µd2 ) = 0.
Pertanto, se = µ e le due sfere ⌃1 e ⌃2 non sono concentriche, l’equazione (11.27)
rappresenta il piano radicale individuato dalla coppia di sfere che quindi prende il nome
di piano radicale del fascio. Per 6= µ si trova in generale una sfera se il raggio è
positivo o nullo, altrimenti si ottengono sfere immaginarie (cfr. Oss. 11.6). Come nel
caso del fascio di circonferenze nel piano. anche per il fascio di sfere si hanno le seguenti
proprietà legate alla posizione reciproca, prima descritta, delle due sfere ⌃1 e ⌃2 :

1. se ⌃1 e ⌃2 hanno il centro nello stesso punto C , il fascio generato da ⌃1 e ⌃2 è


l’insieme di tutte le sfere di centro C . Questo fascio non definisce alcun piano ra-
dicale, a meno di studiare le proprietà dei fasci di sfere nell’ambito della geometria
proiettiva, non trattata in questo testo. Per la definizione e le maggiori proprietà
degli spazi proiettivi si veda ad esempio [17].
2. Se ⌃1 e ⌃2 hanno centri diversi C1 e C2 rispettivamente, il centro di ogni sfera del
fascio individuato da ⌃1 e ⌃2 appartiene alla retta passante per C1 e C2 , detta asse
centrale del fascio. Inoltre l’asse centrale è ortogonale al piano radicale. La verifica
di quanto appena affermato è un semplice esercizio. Si distinguono i seguenti casi.

2a. Se ⌃1 \ ⌃2 è una circonferenza C, tutti gli elementi del fascio individuato da


⌃1 e da ⌃2 contengono C , il fascio contiene il piano radicale di ⌃1 e ⌃2 e
tutte e sole le sfere contenti C e aventi centro sull’asse centrale (compresa la
sfera che ha C come cerchio massimo e centro sul piano radicale stesso). La
situazione geometrica è illustrata nella Figura 11.26.
2b. Se ⌃1 \⌃2 sono tangenti nel punto P0 , tutti gli elementi del fascio individuato
da ⌃1 e da ⌃2 sono tangenti in P0 . In questo caso il fascio contiene il piano
radicale ⇡ di ⌃1 e ⌃2 e tutte e sole le sfere tangenti a ⇡ in P0 (compresa
quella di centro P0 e raggio nullo, che per convenzione si considera tangente
a ⇡ in P0 ). La situazione geometrica è illustrata nella Figura 11.27.
Capitolo 11 579

2c. Se le due sfere ⌃1 e ⌃2 non hanno punti in comune, il fascio da esse individua-
to contiene il loro piano radicale e tutte e sole le sfere aventi centro sull’asse
centrale del fascio e nessun punto in comune tra di loro e con il piano radicale,
La situazione geometrica è illustrata nella Figura 11.28.

3. Il fascio di sfere riempie lo spazio nel senso che dato un punto P1 = (x1 , y1 , z1 )
dello spazio è possibile individuare un elemento del fascio passante per P1 , infatti è
sufficiente sostituire le coordinate di P1 nell’equazione (11.26) e calcolare i valori
dei parametri e µ.

Esempio 11.11 L’esercizio 11.14 può essere risolto anche tramite la nozione di fascio di
sfere. Infatti la sfera passante per A = (3, 1, 1) e tangente al piano ⇡ : x + y z 1 = 0
nel punto B = (1, 1, 1) appartiene al fascio di tutte le sfere tangenti a ⇡ nel punto B ,
individuato dal piano ⇡ e dalla sfera di centro B e raggio 0, di equazione:
((x 1)2 + (y 1)2 + (z 1)2 ) + µ(x + y z 1) = 0, , µ 2 R, ( , µ) 6= (0, 0).
Imponendo il passaggio per il punto A si ha 4 + 2µ = 0, da cui ponendo = 1 e
µ = 2 si ritrova la sfera:
x2 + y 2 + z 2 4x 4y + 5 = 0.
Esercizio 11.18
p Data la circonferenza C del piano z + 1 = 0 di centro Q = (2, 3, 1)
e raggio r = 3, determinare le equazioni delle sfere passanti per C e tangenti alla retta
t : x = y 3 = 0.
Soluzione Le sfere passanti per la circonferenza C appartengono al fascio di sfere
equazione:
[(x 2)2 + (y 3)2 + (z + 1)2 3] + µ(z + 1) = 0, , µ 2 R, ( , µ) 6= (0, 0),
o, equivalentemente (tenendo conto che in questo caso non si sta cercando il piano radicale
tra le soluzioni) di equazione:
x2 + y 2 + z 2 4x 6y + 2z + 11 + k(z + 1) = 0, k 2 R, (11.28)
con k = /µ. Intersecando la generica sfera del fascio, rappresentato per semplicità
mediante (11.28), con la retta t si ottiene l’equazione di secondo grado in z :
z 2 + (k + 2)z + 2 + k = 0,
che ha due soluzioni coincidenti se e solo se si annulla il suo discriminante:
= (k + 2)2 4(k + 2),
cioè se e solo se k = ±2. Le sfere cercate hanno allora equazioni:
x2 + y 2 + z 2 4x 6y + 2z + 11 ± 2(z + 1) = 0.
580 Geometria Analitica nello Spazio

Figura 11.26: Fascio di sfere passanti per una circonferenza


Capitolo 11 581

Figura 11.27: Fascio di sfere tangenti in un punto


582 Geometria Analitica nello Spazio

Figura 11.28: Fascio di sfere non aventi punti in comune


Capitolo 11 583

11.10 Coordinate sferiche


Come nel caso del piano in cui sono state introdotte, per ogni punto P, oltre alla coor-
dinate cartesiane P = (x, y) anche le coordinate polari P = (⇢, ✓) (cfr. Par. 9.3), in
modo analogo, nello spazio, si possono definire sistemi di coordinate diversi da quello
cartesiano. In questo paragrafo saranno descritte le coordinate sferiche, che diventeranno
fondamentali per la rappresentazione parametrica di figure aventi un centro di simmetria,
come ad esempio la sfera, da cui la loro denominazione.

Un sistema di coordinate sferiche è formato da:

1. un punto O, detto polo,

2. una retta orientata p passante per O, detta asse polare,

3. un semipiano ⇡ di origine la retta p, detto semipiano polare.

Ad ogni punto P dello spazio (non appartenente all’asse polare) si può associare in modo
unico la terna di numeri (⇢, ', ✓), dove:

1. ⇢ è la distanza d(O, P ) dal punto P al polo ed è quindi un numero reale positivo;

2. ' 2 [0, 2⇡) è l’angolo della rotazione antioraria intorno alla retta p che il semipiano
⇡ deve compiere per sovrapporsi al semipiano individuato dalla retta p e dal punto
P;
!
3. ✓ 2 [0, ⇡] è l’angolo tra la retta p ed il vettore OP .

La terna di numeri (⇢, ', ✓) costituisce le coordinate sferiche di P. Per l’analogia con il
metodo comunemente usato per determinare la posizione dei punti sulla terra, ⇢ prende il
nome di raggio vettore, ' è la longitudine e ✓ è la colatitudine essendo il complementare
della latitudine del punto P. La situazione geometrica è illustrata nella Figura 11.29.

Osservazione 11.8 Se il punto P appartiene all’asse polare, ' è indeterminato e ✓ = 0


o ✓ = ⇡ . Se P = O, ✓ e ' sono entrambi indeterminati.

Se si considera un riferimento cartesiano posizionato in modo opportuno rispetto al rife-


rimento sferico si possono determinare, mediante semplici considerazioni geometriche,
le relazioni che intercorrono tra le coordinate cartesiane e le coordinate sferiche di ogni
punto P (non appartenente all’asse polare). Precisamente si pongono:

a. il polo O coincidente con l’origine O del sistema di riferimento cartesiano R =


(O, x, y, z);
584 Geometria Analitica nello Spazio

Π Θ

"

Figura 11.29: Sistema di coordinate sferiche


Capitolo 11 585

b. l’asse polare p coincidente con l’asse z ;

c. il semipiano polare ⇡ coincidente con il semipiano coordinato yz (dalla parte delle


y positive).

Ρ
Θ
O
y
#

x P'

Figura 11.30: Coordinate cartesiane e coordinate sferiche di P

Sia P 0 il punto, proiezione ortogonale di P sul piano coordinato xy , come illustrato


!
nella Figura 11.30 la lunghezza della proiezione ortogonale del vettore OP sul piano
!
coordinato xy è kOP 0 k = ⇢ sin ✓ e quindi le relazioni tra le coordinate cartesiane (x, y, z)
586 Geometria Analitica nello Spazio

e le coordinate sferiche (⇢, ', ✓) di P sono:


8
< x = ⇢ sin ✓ cos '
y = ⇢ sin ✓ sin ' (11.29)
:
z = ⇢ cos ✓.

Rispetto al sistema di coordinate sferiche appena introdotto, la sfera ⌃ di centro O e


raggio R ha equazione ⇢ = R. Utilizzando il cambiamento di coordinate (11.29) si trova
per ⌃ la rappresentazione parametrica (con parametri ' e ✓) data da:
8
< x = R sin ✓ cos '
y = R sin ✓ sin '
:
z = R cos ✓, ' 2 [0, 2⇡), ✓ 2 [0, ⇡].

Quindi, la sfera ⌃ di centro nel punto C = (↵, , ) e raggio R ha equazioni parametri-


che:
8
< x = R sin ✓ cos ' + ↵
y = R sin ✓ sin ' + (11.30)
:
z = R cos ✓ + , ' 2 [0, 2⇡), ✓ 2 [0, ⇡].

A tali equazioni si perviene operando mediante una traslazione degli assi, cioè conside-
rando un nuovo riferimento cartesiano R0 = (C, X, Y, Z), con origine il centro C della
sfera e gli assi X , Y, Z passanti per C , paralleli e concordi rispettivamente a x, y, z .
Analogamente al caso delle traslazioni degli assi nel piano (cfr. Par. 9.4) le relazioni che
legano le coordinate del generico punto P rispetto ai due riferimenti sono:
8
< x=X +↵
y=Y +
:
z=Z+ .

11.11 Esercizi di riepilogo svolti


Esercizio 11.19 Date le tre rette:

⇢ ⇢ ⇢
x y=0 x y+6=0 3x 2z + 2 = 0
r: s: t:
2x z + 5 = 0, x 2y + z 6 = 0, 3y + z 4 = 0,

determinare la retta incidente r e s e parallela a t.


Capitolo 11 587

Soluzione La retta cercata è l’intersezione dei due piani ⇡1 e ⇡2 , dove ⇡1 è il piano per
r parallelo a t e ⇡2 è il piano per s parallelo a t. Per determinare l’equazione ad esempio
del piano ⇡1 si può osservare che esso appartiene al fascio di piani di equazione:

(x y) + µ(2x z + 5) = 0, , µ 2 R, ( , µ) 6= (0, 0).

Poiché ogni piano del fascio è ortogonale al vettore ( + 2µ, , µ) e la retta t è


parallela al vettore t = ( 2, 1, 3), si ha che il piano cercato si ottiene imponendo la
condizione:
( + 2µ, , µ) · t = 3 µ = 0,
da cui ad esempio = 1, µ = 3. Per determinare ⇡2 si procede in modo analogo
considerando il fascio di piani passanti per la retta s:

1 (x y + 6) + µ1 (x 2y + z 6) = 0, , µ 2 R, ( , µ) 6= (0, 0).

Esercizio 11.20 – Piano assiale di un segmento – Calcolare l’equazione del piano as-
siale del segmento di estremi A = ( 3, 5, 1), B = (2, 3, 1).

Soluzione Il procedimento da usare è simile a quello spiegato nel Paragrafo 9.2 nel
caso di un asse di un segmento nel piano, in alternativa si può determinare l’equazione
del piano ortogonale ad AB nel suo punto medio. Imponendo, invece, che il piano assiale
sia il luogo dei punti P = (x, y, z) equidistanti da A e B si ha:
p p
(x + 3)2 + (y 5)2 + (z 1)2 = (x 2)2 + (y + 3)2 + (z 1)2

da cui segue che l’equazione del piano assiale è 10x 16y + 21 = 0.

Esercizio 11.21 – Punto simmetrico di un altro punto rispetto ad una retta – Deter-
minare le coordinate del punto O0 simmetrico dell’origine O rispetto alla retta

x + y + z = 0,
r:
x + y 1 = 0.

Soluzione Il punto medio M del segmento di estremi O e O0 è il punto di intersezione


della retta r con il piano ⇡ passante per O e ortogonale a r. Il piano ⇡ ha equazione
cartesiana x y = 0, pertanto il punto M è:
✓ ◆
1 1
M= , , 1 ,
2 2
quindi si ha O0 = (1, 1, 2). La situazione geometrica è illustrata nella Figura 11.31.
588 Geometria Analitica nello Spazio

O'
M
O

Figura 11.31: Simmetrico del punto O rispetto alla retta r


Capitolo 11 589

K H

A'

Figura 11.32: Esercizio 11.20


590 Geometria Analitica nello Spazio

Esercizio 11.22 – Retta simmetrica di un’altra retta rispetto ad un piano – Data la


retta: ⇢
x+y+z 1=0
r:
x y = 0,
determinare le equazioni della retta s, simmetrica di r rispetto al piano:
⇡ :x+y z 1=0
e scrivere l’equazione del piano che contiene sia r sia s.

Soluzione Sia K il punto di intersezione della retta r con il piano ⇡, dato da:
✓ ◆
1 1
K= , ,0
2 2
e sia A = (0, 0, 1) un punto di r. La retta s, simmetrica di r rispetto a ⇡, è la retta
passante per K e per il punto A0 simmetrico di A rispetto al piano ⇡ . Per determinare
il punto A0 si può osservare che il punto medio H del segmento di estremi A e A0 è
l’intersezione della retta passante per A ortogonale al piano ⇡ con il piano ⇡ stesso.
Quindi, risolvendo il sistema lineare:
8
>
> x=t
<
y=t
>
> z=1 t
:
x + y z 1 = 0,
si ottiene: ✓ ◆
2 2 1
H= , , .
3 3 3
Imponendo che H sia il punto medio del segmento di estremi A e A0 si ha:
✓ ◆
0 4 4 1
A = , , .
3 3 3
La retta s è allora la retta passante per K e A0 . Il piano che contiene r e s è il piano
passante per i tre punti A, K e A0 , la cui equazione cartesiana è:
x y z 1

1 1
0 = 0.
2 2
4 4 1
3 3 3
La situazione geometrica è illustrata nella Figura 11.32.
Capitolo 11 591

Esercizio 11.23 Determinare l’equazione della sfera passante per i punti A = (1, 1, 2),
B = (2, 1, 1) e tangente alla retta:

3x 2z + 2 = 0
r:
3y + z 4 = 0

nel punto H = (0, 1, 1).

Soluzione Il centro Q della sfera appartiene alla retta intersezione del piano ⇡1 per H
ortogonale a r e del piano assiale ⇡2 del segmento AB . Il piano ⇡1 è dunque ortogonale
al vettore n1 = (2, 1, 3) ed ha equazione:

2(x 0) + ( 1)(y 1) + 3(z 1) = 0.

Il piano ⇡2 invece, per quanto visto nell’Esercizio 11.20, è il piano passante per il punto
medio M del segmento AB : ✓ ◆
3 3
M= , 1,
2 2
!
e ortogonale al vettore AB = (1, 0, 1). Pertanto un punto Q appartenente alla retta
intersezione di ⇡1 e ⇡2 ha coordinate (t, 5t 2, t), con t 2 R. Imponendo che Q sia
equidistante da A e da H si ottiene t = 1. La sfera cercata ha quindi equazione:

(x 1)2 + (y 3)2 + (z 1)2 = 5.

Esercizio 11.24 – Circonferenza per tre punti – Determinare le equazioni della circon-
ferenza passante per i tre punti A = (1, 1, 5), B = (2, 2, 1), C = (1, 2, 2).

Soluzione La circonferenza è l’intersezione del piano ⇡ per A, B, C con la sfera ⌃ che


ha come centro l’intersezione Q dei tre piani assiali relativi ai segmenti AB , AC, BC .
Più precisamente il piano ⇡ è ortogonale al vettore:
! !
AB ^ AC = ( 15, 3, 3)

e quindi ha equazione cartesiana ⇡ : 5x y + z 9 = 0. La sfera ⌃ ha centro nel punto


Q, intersezione dei quattro piani:
8
>
> x + y 4z + 9 = 0
<
y+z 3=0
>
> x + 4y z = 0
:
5x y + z 9 = 0
p
e raggio d(A, Q) = 6.
592 Geometria Analitica nello Spazio

Esercizio 11.25 Dati i punti A = (2, 0, 0), B = (0, 2, 0), C = (0, 0, 2),

1. determinare il luogo dei punti equidistanti da A, B, C .

2. Tra tutte le sfere passanti per A, B, C determinare quella che ha volume minimo.

Soluzione 1. Il luogo richiesto è dato dall’insieme dei punti P = (x, y, z) tali che:

d(P, A) = d(P, B) = d(P, C).

Si tratta, cioè, della retta r in cui si intersecano i piani assiali dei segmenti AB, BC
(e ovviamente AC ). Infatti da d2 (P, A) = d2 (P, B) segue:

(x 2)2 + y 2 + z 2 = x2 + (y 2)2 + z 2 ,

da cui:
x y = 0,
che è l’equazione del piano ⇡1 , piano assiale del segmento AB . Analogamente si
ricava l’equazione del piano ⇡2 , piano assiale del segmento BC :

⇡2 : y z = 0.

La retta r = ⇡1 \ ⇡2 ha, pertanto, equazioni parametriche:


8
< x=t
y=t
:
z = t, t 2 R.

2. Il centro Q di ogni sfera ⌃ passante per i punti A, B, C appartiene alla retta r


determinata nel punto precedente. La sfera di volume minimo è quella di raggio
!
minimo ⇢, dove ⇢ = kAQk. Per trovare il punto Q della retta r che rende minimo
il raggio ⇢ si può procedere in due modi.

a. Si osserva che, essendo il piano ⇡1 ortogonale alla retta AB e il piano ⇡2


ortogonale alla retta BC, la retta r è ortogonale al piano passante per i tre
punti A, B, C di equazione x + y + z 2 = 0 e lo interseca nel punto:
✓ ◆
2 2 2
Q0 = , , ,
3 3 3
che è il centro della sfera ⌃0 di raggio minimo. Infatti, qualunque sia il punto
Q della retta r, con Q 6= Q0 , si ha:
! !
kQ0 Ak < kQAk
Capitolo 11 593

perché Q0 A è il cateto del triangolo rettangolo AQ0 Q di ipotenusa QA. Il


raggio di ⌃0 è: p
! 2 6
⇢0 = kQ0 Ak = .
3
b. Se Q = (t, t, t), t 2 R, è un punto della retta r, si ha:
!
⇢2 = kQAk = 3t2 4t + 4.
Per determinare il raggio minimo si calcola il valore di t che annulla la deri-
vata prima di ⇢2 :
d⇢2
= 6t 4,
dt
da cui si trova t = 2/3 e si verifica che per questo valore la funzione ⇢2 (t) ha
un minimo. Si perviene cosı̀ ai risultati dedotti in precedenza.

Esercizio 11.26 Data la sfera ⌃ : x2 + y 2 + z 2 = 2,


1. studiare, al variare di k 2 R, l’intersezione di ⌃ con il piano ⇡ : y + z = k.
2. Posto k = 4, trovare il punto P di ⇡ che ha distanza minima da ⌃.

Soluzione 1. Per studiare la posizione reciproca del piano ⇡ con la sfera ⌃ è sufficien-
te confrontare la distanza del centro C di ⌃ dal piano ⇡ con il raggio r di ⌃.
Si ha:
| k| p
d(C, ⇡) = p , r = 2.
2
Segue che:
se k = ±2 il piano ⇡ è tangente alla sfera ⌃;
se 2 < k < 2, il piano ⇡ interseca la sfera ⌃ in una circonferenza;
se k < 2 oppure k > 2 il piano ⇡ è esterno alla sfera ⌃.
2. Poiché il piano ⇡ : y + z = 4 è esterno alla sfera ⌃, il punto P richiesto appartiene
alla retta passante per il centro della sfera ⌃ e ortogonale al piano ⇡ . Si trova
P = (0, 2, 2).

Esercizio 11.27 Determinare le equazioni della circonferenza C passante per il punto


A = (2, 1, 0) e tangente alla retta:

x+y 2=0
r:
2x + z 3 = 0
nel punto B = (0, 2, 3).
594 Geometria Analitica nello Spazio

Soluzione La circonferenza C richiesta può essere individuata come intersezione del


piano ⇡, passante per A e contenente r, con la sfera ⌃ avente C come cerchio massimo.
Il piano ⇡ ha equazione:
x y + z 1 = 0.
Il centro C di ⌃, che coincide con il centro di C, è il punto comune ai piani ⇡, ⇡1
piano per B perpendicolare alla retta r e ⇡2 piano
p assiale del segmento AB. Si trova
C = (7, 9, 3). Il raggio di ⌃ è ⇢ = d(C, A) = 7 2. Le equazioni della circonferenza
sono: ⇢ 2
x + y 2 + z 2 14x 18y 6z + 41 = 0
C:
x y + z 1 = 0.

Esercizio 11.28 Trovare le sfere tangenti nel punto A = (1, 1, 2) al piano:


⇡1 : y + z 1 = 0,
che intersecano il piano ⇡2 : z = 0 secondo circonferenze di raggio r = 1.

Soluzione Le sfere richieste sono elementi del fascio F individuato dalla sfera di
centro A e raggio uguale a 0 e dal piano ⇡1 :
F : (x2 + y 2 + z 2 2x + 2y 4z + 6) + µ(y + z 1) = 0, , µ 2 R, ( , µ) 6= (0, 0).
La generica sfera del fascio ha centro nel punto:
✓ ◆
2 +µ 4 µ
Q = 1, ,
2 2
e raggio: p

⇢= ,
2
per = 0 si ha solo il piano ⇡1 . Le sfere che intersecano il piano ⇡2 secondo circonfe-
renze di raggio r = 1 sono quelle che verificano la condizione:
d2 (Q, ⇡) + r2 = ⇢2 ,
cioè: ✓ ◆2
4 µ 2µ2
+1=.
2 4 2
Si trova = 1, µ = 2 e anche = 1, µ = 10. Sostituendo questi valori nell’equazione
del fascio F si ottengono le due sfere ⌃1 e ⌃2 richiesta dal problema e date da:
⌃1 : x 2 + y 2 + z 2 2x + 4y 2z + 4 = 0,
⌃2 : x 2 + y 2 + z 2 2x 8y 14z + 16 = 0.
Capitolo 11 595

Esercizio 11.29 Fra tutte le sfere passanti per la circonferenza:


⇢ 2
x + y2 + z2 9 = 0
C:
2x + 4y + 4z 9 = 0
p
determinare quelle di raggio pari a 3 3.

Soluzione Le sfere cercate appartengono al fascio F di sfere passanti per la circonfe-


renza C di equazione:

F : (x2 + y 2 + z 2 9) + µ(2x + 4y + 4z 9) = 0, , µ 2 R, ( , µ) 6= (0, 0).

Poiché nella soluzione dell’esercizio non potrà assumere il valore 0, che corrisponde
al piano radicale del fascio, conviene, per semplificare i calcoli, riscrivere l’equazione del
fascio di sfere usando il solo parametro k = µ/ , vale a dire:

x2 + y 2 + z 2 9 + k(2x + 4y + 4z 9) = 0, k 2 R,

da cui si ottiene:

x2 + y 2 + z 2 + 2kx + 4ky + 4kz 9(1 + k) = 0, k 2 R.

Il raggio r della generica sfera del fascio risulta verificare la relazione r2 = 9k 2 +9(1+k).
Imponendo la condizione richiesta si ottiene k 2 + (1 + k) 3 = 0 le cui soluzioni sono
k = ±2 che danno luogo alle due sfere:

⌃1 : x 2 + y 2 + z 2 4x 8y 8x + 9 = 0
⌃2 : x2 + y 2 + z 2 + 2x + 4y + 4z 18 = 0,

che risolvono il problema.

11.12 Per saperne di più


11.12.1 Baricentro geometrico di punti
In questo paragrafo si introduce la definizione di baricentro (geometrico) di n punti nel-
lo spazio e se ne studiano le proprietà, per ottenere, come caso particolare, le formu-
le mediante le quali si determinano le coordinate del punto medio di un segmento, del
baricentro di un triangolo e del baricentro di un tetraedro.
596 Geometria Analitica nello Spazio

Definizione 11.1 Il baricentro (geometrico) di n punti P1 , P2 , . . . , Pn nello spazio è il


punto G cosı̀ definito:

! 1⇣ ! ! !

OG = OP1 + OP2 + . . . + OPn , (11.31)
n
con O punto fissato.

La definizione di baricentro di n punti, appena enunciata, sembra dipendere in modo


essenziale dalla scelta del punto O, invece il teorema che segue afferma il contrario.

Teorema 11.3 La formula (11.31) che definisce il baricentro degli n punti P1 , P2 , . . . , Pn


non dipende dal punto O scelto.

Dimostrazione Sia O0 un punto diverso da O, si ponga:


! 1 ⇣ 0! ! !⌘
O 0 G0 = O P1 + O 0 P2 + . . . + O 0 Pn , (11.32)
n
la tesi consiste nel dimostrare che G = G0 . Tenendo conto che dalla definizione di somma
di vettori si ha per ogni punto Pi con i = 1, 2, . . . , n:
! ! !
O0 Pi = OPi + OO0 ,

da (11.32) segue:

0 !0 !0 1 ⇣ ! ! !
⌘ ! !
O G = OO + OP1 + OP2 + . . . + OPn = OO0 + OG,
n
da cui la tesi.

Essendo indifferente la scelta del punto O per la determinazione del baricentro di n


punti P1 , P2 , . . . , Pn si può scegliere O = G, infatti vale il seguente teorema la cui
dimostrazione è lasciata al Lettore per esercizio.

Teorema 11.4 G è il baricentro dei punti P1 , P2 , . . . , Pn se e solo se:


! ! !
GP1 + GP2 + . . . + GPn = o, (11.33)

dove con o si indica il vettore nullo dello spazio vettoriale V3 .

Si procede ora con la determinazione del baricentro di due punti, di tre punti e di quattro
punti come esempi della definizione e dei teoremi appena enunciati.
Capitolo 11 597

Baricentro di due punti P1 , P2 – Da (11.33) si ha che il baricentro di due punti P1 , P2


verifica la relazione:
! !
GP1 + GP2 = o (11.34)
da cui segue che G è il punto medio del segmento di estremi P1 , P2 .

Baricentro di tre punti P1 , P2 , P3 – Da (11.33) segue che il baricentro di tre punti P1 ,


P2 , P3 verifica la relazione:
! ! !
GP1 + GP2 + GP3 = o. (11.35)

Se G1 è il baricentro dei punti P1 , P2 , da (11.34) e da (11.35) si ottiene:


! ! !
GP1 + GP2 + GP3
! ! ! ! ! !
= G 1 P1 + G 1 G + G 1 P2 + G 1 G + G 1 P3 + G 1 G
! !
= 3 G1 G + G1 P3 = o,

da cui:
! !
G1 P3 = 3 GG1 ,

che esprime una ben nota proprietà che caratterizza il baricentro di un triangolo, provando
cosı̀ che la definizione (11.31) coincide con l’usuale concetto di baricentro di un triangolo.
La situazione geometrica descritta è illustrata nella Figura 11.33.

P2

G1

P1
P3

Figura 11.33: Baricentro dei tre punti P1 , P2 , P3


598 Geometria Analitica nello Spazio

Baricentro di quattro punti P1 , P2 , P3 , P4 – Da (11.33) segue che il baricentro di


quattro punti P1 , P2 , P3 , P4 verifica la relazione:
! ! ! !
GP1 + GP2 + GP3 + GP4 = o. (11.36)
Procedendo come nel caso del calcolo del baricentro di tre punti descritto in precedenza
e indicando con G1 il baricentro dei tre punti P1 , P2 , P3 si ottiene:
! !
G1 P4 = 4 GG1 ,
che corrisponde ad una ben nota proprietà geometrica che caratterizza il baricentro del
tetraedro di vertici P1 , P2 , P3 , P4 . La situazione geometrica è illustrata nella Figura
11.34.
P4

G
P3

G1
P2
P1

Figura 11.34: Baricentro dei quattro punti P1 , P2 , P3 , P4

Infine si osservi che dalla formula (11.31) si ottengono le espressioni in coordinate del
baricentro di due punti, di tre punti e di quattro punti elencate all’inizio di questo capitolo.
Capitolo 11 599

11.12.2 Potenza di un punto rispetto ad una sfera


In questo paragrafo si introduce il concetto di potenza di un punto rispetto ad una sfera,
concetto analogo a quello di potenza di un punto rispetto ad una circonferenza nel piano
definito nel Paragrafo 10.6.1.

Definizione 11.2 La potenza di un punto P0 = (x0 , y0 , z0 ) rispetto ad una sfera ⌃ di


equazione x2 + y 2 + z 2 2↵x 2 y 2 z + = 0 è il numero reale p(P0 ) che si ottiene
sostituendo il valore delle coordinate del punto P0 nell’equazione della sfera, ossia:
p(P0 ) = x20 + y02 + z02 2↵x0 2 y0 2 z0 + .

Il teorema che segue permette di interpretare geometricamente la potenza di un punto


rispetto ad una sfera.

Teorema 11.5 Data la sfera ⌃ di centro C e raggio r, la potenza di un punto P0 rispetto


a ⌃ è data da:
p(P0 ) = d(P0 , C)2 r2
dove d(P0 , C) indica la distanza del punto P0 dal centro C .

Dimostrazione La dimostrazione è ovvia tenendo conto che la sfera ⌃ è il luogo dei


punti P tale che d(P, C)2 = r2 .

Osservazione 11.9 1. Benché il teorema precedente sia di ovvia dimostrazione, esso


è molto importante perché assicura un metodo facile per individuare la posizione
dei punti nello spazio rispetto ad una sfera assegnata. Infatti la potenza di un punto
rispetto ad una sfera è un numero strettamente positivo se e solo se il punto è esterno
alla sfera, la potenza di un punto rispetto ad una sfera è uguale a 0 se e solo se il
punto giace sulla superficie sferica, la potenza di un punto rispetto ad una sfera è
negativa se e solo se il punto è interno alla superficie sferica. Per esempio, data la
sfera:
⌃ : x2 + y 2 + z 2 2x 4y 2z + 5 = 0,
si ha che il punto A = (2, 4, 3) ha potenza pari a 8 rispetto a ⌃ e, quindi, è esterno
a ⌃, invece il punto B = (1, 3, 1) ha potenza pari a 0, quindi appartiene a ⌃. In
altri termini si può immaginare che la sfera divida lo spazio in tre regioni: quella
dei punti di potenza zero (appartenenti alla sfera), quella dei punti con potenza ne-
gativa (interni alla sfera) e quella dei punti a potenza positiva (esterni alla sfera). Si
osservi infine che questa caratterizzazione dei punti dello spazio, rispetto ad una su-
perficie assegnata, è già stata ottenuta nel Paragrafo 11.18 considerando un piano e
la distanza, con segno, di ogni punto dello spazio dal piano, e si può dimostrare che
è valida anche per altre superfici chiuse. D’altra parte, nel Paragrafo 10.6.1 è stata
ricavata la stessa caratterizzazione dei punti del piano rispetto ad una circonferenza.
600 Geometria Analitica nello Spazio

Figura 11.35: Esercizio 11.29


Capitolo 11 601

2. È evidente che il luogo dei punti che hanno uguale potenza rispetto a due sfere
assegnate coincide con il piano radicale definito dalla due sfere (cfr. Par. 11.9).
Invece, l’esercizio seguente è volto a determinare i punti di uguale potenza rispetto
a tre sfere.

Esercizio 11.30 Determinare il luogo dei punti P dello spazio aventi la stessa potenza
rispetto alle tre sfere:
11
⌃1 : x 2 + y 2 + z 2 2y 4z + =0
4
31
⌃2 : x 2 + y 2 + z 2 2x 2z =0
25
59
⌃3 : x 2 + y 2 + z 2 4x 2y + = 0.
100

Soluzione Il luogo dei punti richiesto è formato dai punti P = (x, y, z) che apparten-
gono all’intersezione dei tre piani radicali determinati da ⌃1 , ⌃2 e ⌃3 , vale a dire:
8
> 399
>
> 2x 2y 2z + =0
>
> 100
>
<
216
4x 4z + =0
>
> 100
>
>
>
: 2x + 2y 2z 183 = 0
>
100
I tre piani appartengono allo stesso fascio proprio, l’asse di questo fascio è il luogo dei
punti richiesto. La situazione geometrica è illustrata nella Figura 11.35.

Esercizio 11.31 Il luogo dei punti di uguale potenza rispetto a tre sfere assegnate è sem-
pre una retta?

11.12.3 Sfere in dimensione quattro


In questo paragrafo si intende dare qualche cenno, molto intuitivo e a volte poco rigoroso,
di geometria analitica in dimensione maggiore di 3. Per una trattazione approfondita si
rimanda a testi più avanzati, quali ad esempio [11] e [13].

Si immagini di costruire uno spazio affine (di punti) analogo a quanto descritto all’inizio
di questo capitolo, basato però su uno spazio vettoriale euclideo di dimensione 4 riferito
ad una base ortonormale B. Si definisce un riferimento cartesiano fissando un punto O
a cui si immaginano applicati i vettori della base B, O è l’origine del riferimento. Ad
602 Geometria Analitica nello Spazio

ogni punto P di questo spazio si possono associare quattro coordinate cartesiane che
!
coincidono con le componenti del vettore OP rispetto alla base B, sia, ad esempio P =
(x, y, z, t). In questo ambiente è quindi possibile, grazie al prodotto scalare, introdurre
in modo totalmente analogo a quanto visto nel caso della dimensione 3, il concetto di
iperpiano, che sarà quindi rappresentato da un’equazione lineare del tipo:

ax + by + cz + dt + e = 0, a, b, c, d, e 2 R,

l’intersezione di due iperpiani non paralleli sarà un piano affine (proprio lo stesso tipo di
piano caratterizzato dal Teorema 11.1 nel caso dello spazio affine S3 ), l’intersezione di
tre iperpiani opportunamente scelti sarà una retta affine.
!
La distanza tra due punti P1 e P2 è pari alla norma del vettore P1 P2 . È quindi possibile, in
questo ambiente, che per analogia al caso dello spazio ordinario e del piano, si indicherà
con S4 , introdurre il concetto di ipersfera, definita come il luogo dei punti P tali da
mantenere fissa la distanza di P da un punto fissato C , il centro. Per esempio, l’ipersfera
⌃ di centro l’origine e raggio R ha equazione:

⌃ : x2 + y 2 + z 2 + t2 = R2 .

L’intersezione di una ipersfera con un iperpiano (se essi si intesecano) darà luogo alla
sfera introdotta nel Paragrafo 11.7.1. Si intende ora mettere in relazione l’ipersfera di
centro O e raggio 1 con il gruppo di matrici:

SU (2) = {P 2 C2,2 | tP P = I, det(P ) = 1}

introdotto nel Paragrafo 5.5.2 e dimostrare che i due insiemi in realtà coincidono. In altri
termini il gruppo SU (2), cosı̀ come il gruppo U (1) (cfr. Cap. 9) è identificabile ad una
sfera opportuna.

Sia: ✓ ◆
z1 z2
P = , z1 , z2 , z3 , z4 2 C,
z3 z4
una generica matrice appartenente ad SU (2). La condizione:
✓ ◆✓ ◆ ✓ ◆
t z1 z3 z1 z2 1 0
PP = =
z2 z4 z3 z4 0 1

si traduce nel sistema: 8


< z1 z1 + z3 z3 = 1
z1 z2 + z3 z4 = 0 (11.37)
:
z2 z2 + z4 z4 = 1.
Capitolo 11 603

Supponendo che tutti gli elementi della matrice P non siano nulli (si lasciano per esercizio
i vari casi particolari), dalla seconda equazione di (11.37) si ricava:
z3 z4
z1 = (11.38)
z2
e:
z1 z2
z3 = . (11.39)
z4
Sostituendo (11.38) nella condizione ulteriore:

det(P ) = z1 z4 z2 z3 = 1 (11.40)

segue:
z3 = z2 .
Sostituendo (11.39) in (11.40) si ha anche:

z1 = z4 .

Di conseguenza si ottiene che le generiche matrici P di SU (2) devono essere del tipo:
✓ ◆
z1 z2
P = ,
z2 z1

con det(P ) = z1 z1 + z2 z2 = 1. Ponendo:

z1 = x + iy, z2 = z + it, x, y, z, t 2 R,

e sostituendo nella condizione det(P ) = 1 si ottiene:

z1 z1 + z2 z2 = x2 + y 2 + z 2 + t2 = 1,

pervendo cosı̀ all’identificazione di SU (2) con l’ipersfera di centro O e raggio 1 in S4 .

Mentre è facilmente intuibile che si possano definire ipersfere in spazi affini associati
a spazi vettoriali di dimensione superiore a 4 non è in generale possibile identificare i
loro punti con gruppi di matrici. Infatti un famosissimo teorema (Teorema di Adams
[13]) afferma che ciò è solo possibile nei tre casi descritti in questo testo e precisamente
U (1), SU (2) e, ovviamente O(1) = { 1, 1} che rappresenta la circonferenza di centro
l’origine e raggio pari a 1 sulla retta affine S1 .
604 Geometria Analitica nello Spazio
Capitolo 12

Coni, Cilindri, Superfici di Rotazione e


Quadriche

Nel capitolo precedente si sono studiate le rappresentazioni in forma cartesiana e para-


metrica delle rette, dei piani, delle sfere e delle circonferenze nello spazio. Le rette e le
circonferenze sono esempi di curve, i piani e le sfere sono esempi di superfici. In que-
sto capitolo si affronteranno, in generale, alcuni aspetti elementari della rappresentazione
delle curve e delle superfici nello spazio, esaminandone facili problemi di intersezione
e di proiezione. In particolare, si studieranno le equazioni dei coni, dei cilindri e delle
superfici di rotazione in due modi diversi a seconda della rappresentazione cartesiana o
parametrica di una curva che concorre alla loro determinazione. Si accennerà, inoltre, allo
studio delle superfici rigate. Invece si proporrà in modo completo la classificazione delle
quadriche, che sono le superfici rappresentabili mediante equazioni di secondo grado, con
una trattazione simile a quella già vista nel Capitolo 10 nel caso delle coniche per la loro
riduzione in forma canonica. Questo capitolo vuole essere un primo approccio, a volte
solo intuitivo, come per esempio nel caso della definizione proposta di piano tangente ad
una superficie, allo studio delle curve e delle superfici nello spazio, argomento di estrema
complessità ma di grande fascino, accresciuto ultimamente dalle sorprendenti applicazio-
ni che sono derivate dalla rappresentazione grafica di curve e superfici mediante adeguati
programmi di calcolo simbolico.

12.1 Cenni sulla rappresentazione di curve e superfici


In tutto questo capitolo, a meno di dichiarazione contraria, si considera un riferimento
cartesiano R = (O, x, y, z) o, in modo equivalente, un riferimento R = (O, i, j, k),
intendendosi con B = (i, j, k) una base ortonormale positiva dello spazio vettoriale V3
dei vettori ordinari su cui è costruito lo spazio affine di punti che si sta considerando.

605
606 Coni, Cilindri, Superfici di Rotazione e Quadriche

Nel Capitolo 11 si è visto che un piano o una sfera, rispetto ad un sistema di riferimento
cartesiano R = (O, x, y, z), si possono rappresentare nei due modi seguenti:

1. in forma parametrica mediante tre equazioni in x, y, z contenenti due parametri


indipendenti,
2. in forma cartesiana, mediante un’unica equazione nelle tre coordinate x, y, z .

Infatti, in generale, tre equazioni con due parametri indipendenti u e v definiti su un


sottoinsieme D di R2 del tipo:
8
< x = x(u, v)
y = y(u, v)
:
z = z(u, v), (u, v) 2 D ✓ R2
rappresentano una superficie S dello spazio e si dicono equazioni parametriche di S .
Sono esempi di rappresentazione parametrica di una superficie le equazioni parametriche
del piano (11.4) e le equazioni parametriche della sfera (11.30). Inoltre, una superficie si
può anche rappresentare mediante un’equazione del tipo:
f (x, y, z) = 0,
con f : R3 ! R funzione qualsiasi, tale rappresentazione prende il nome di equazione
cartesiana della superficie.

Come già visto per le rette e le circonferenze, una curva C nello spazio può essere rap-
presentata, rispetto ad un riferimento cartesiano R = (O, x, y, z), in due modi diversi, o
come intersezione di due superfici:

f (x, y, z) = 0
C:
g(x, y, z) = 0,
dove sia f sia g sono funzioni qualsiasi di dominio R3 e codominio R, o in forma para-
metrica, mediante le equazioni parametriche date al variare di un solo parametro t in un
intervallo I di R:
8
< x = x(t)
C: y = y(t)
:
z = z(t), t 2 I ✓ R.
In generale, non è semplice passare da una rappresentazione parametrica di una curva o
di una superficie alla sua equazione cartesiana o viceversa, infatti potrebbero sorgere pro-
blemi. Per esempio, anche nel caso più semplice delle curve piane, la curva di equazioni
parametriche:
Capitolo 12 607

8
< x = 1 + t + t5
y = 1 + 2t + 3t5
:
z = 0, t 2 R,
non ha una ovvia rappresentazione come intersezione di superfici. Anche la circonferenza
appartenente al piano xy , di centro l’origine e raggio r, che si può rappresentare in forma
cartesiana come intersezione della sfera e del piano dati dal sistema:
⇢ 2
x + y 2 r2 = 0
z = 0,

può costituire un problema, infatti essa ammette infinite rappresentazioni parametriche,


anche molto dissimili, per esempio:
8
< x = r cos t
y = r sin t
:
z = 0, t 2 R,
oppure: 8
>
> 1 s2
>
> x = r
>
< 1 + s2
2s
>
> y = r
>
> 1 + s2
>
:
z = 0, s 2 R.

12.2 Il cono
In questo paragrafo si introducono i coni come luoghi geometrici dello spazio definiti da
funzioni omogenee di grado k nelle variabili x, y, z . In particolare si studieranno i coni
circoscritti ad una sfera e la proiezione di una curva da un punto su di un piano.

Definizione 12.1 Sia C una curva nello spazio e V un punto non appartenente a C . Il
cono di vertice V e direttrice C è il luogo delle rette dello spazio che uniscono V ad ogni
punto di C. Le rette sono dette generatrici del cono e ogni curva (non solo C ) che incontra
tutte le generatrici prende il nome di direttrice del cono.

Si procede ora con la determinazione dell’equazione cartesiana e delle equazioni parame-


triche del cono, distinguendo i casi in cui la direttrice sia data come intersezione di due
superfici o in forma parametrica.
608 Coni, Cilindri, Superfici di Rotazione e Quadriche

P0

Figura 12.1: Generatrici del cono di vertice V

Primo Caso Sia C la direttrice di un cono data dall’intersezione di due superfici nella
forma:


f (x, y, z) = 0
C:
g(x, y, z) = 0,

con f e g funzioni da R3 in R, sia P0 = (x0 , y0 , z0 ) un punto di C e V = (↵, , ) il


vertice del cono, la retta P0 V è dunque una generatrice del cono. Se P = (x, y, z) è il
generico punto del cono, la condizione di allineamento dei punti P0 , P, V si ottiene dalle
seguenti equazioni in forma parametrica:
8
< x0 = ↵ + t(x ↵)
y0 = + t(y )
:
z0 = + t(z ), t 2 R,

dove le coordinate di P0 variano su C, perciò:


f (x0 , y0 , z0 ) = 0
g(x0 , y0 , z0 ) = 0.

La situazione geometrica è illustrata nella Figura 12.1. Eliminando i parametri x0 , y0 , z0


e t dal sistema:
Capitolo 12 609

8
>
> x0 = ↵ + t(x ↵)
>
>
< y0 = + t(y )
z0 = + t(z )
>
>
>
> f (x0 , y0 , z0 ) = 0
:
g(x0 , y0 , z0 ) = 0
si ottiene l’equazione cartesiana del cono. Si osservi che, anche se esistono infinite ge-
neratrici e infinite direttrici, l’equazione del cono cosı̀ ottenuta non dipende dalla scelta
della direttrice e della generatrice.

Figura 12.2: Esercizio 12.1


610 Coni, Cilindri, Superfici di Rotazione e Quadriche

Esercizio 12.1 Scrivere l’equazione del cono avente come direttrice la curva:

x2 + y 2 + z 2 9 = 0
C:
x+y 2=0
e vertice V = (0, 0, 0).

Soluzione Se P0 = (x0 , y0 , z0 ) è un punto di C, i punti P0 , P, V sono allineati se e solo


se:
8
< x0 = xt
y0 = yt
:
z0 = zt, t 2 R,
da cui si perviene al sistema:
8
>
> x0 = xt
>
>
< y0 = yt
z0 = zt
>
>
>
> x2 + y02 + z02 9 = 0
: 0
x0 + y0 2 = 0.
Eliminando i parametri x0 , y0 , z0 , segue:

t2 (x2 + y 2 + z 2 ) 9 = 0
t(x + y) 2 = 0,
ricavando t dalla seconda equazione e sostituendo tale valore nella prima si ottiene:

5x2 + 5y 2 4z 2 + 18xy = 0
che è l’equazione del cono, rappresentato nella Figura 12.2.

Si osservi che l’equazione del cono ottenuta nell’esercizio precedente è di secondo grado
ed è omogenea in x, y, z nel senso che è somma di monomi dello stesso grado; la defini-
zione che segue chiarisce questo concetto e subito dopo si dimostra che ogni equazione
omogenea in x, y, z rappresenta un cono di vertice l’origine O del riferimento cartesiano
R = (O, x, y, z) e viceversa.

Definizione 12.2 Una funzione f : R3 ! R nelle variabili x, y, z , si dice omogenea di


grado k , (k 2 R), se:

f (tx, ty, tz) = tk f (x, y, z),


Capitolo 12 611

per ogni valore reale di t, x, y, z .

Esempio 12.1 1. I polinomi che sono somma di monomi dello stesso grado k e con
termine noto uguale a zero sono funzioni omogenee di grado k . Per esempio il
polinomio x3 4y 3 xyz è una funzione omogenea di grado 3.
2. Ogni applicazione lineare f : R ! R è una funzione omogenea di grado 1.
3. Se : R2 ! R è una funzione qualsiasi, allora la funzione:
⇣x y⌘
f : R ⇥ R ⇥ (R {0}) ! R, (x, y, z) 7 ! ,
z z
è omogenea di grado zero, vale a dire f (tx, ty, tz) = f (x, y, z) per ogni t reale.

Teorema 12.1 In un riferimento cartesiano R = (O, x, y, z), tutti e soli i luoghi geome-
trici dei punti P = (x, y, z) dello spazio tali che:
f (x, y, z) = 0,
dove f : R3 ! R è una qualsiasi funzione omogenea di grado k (k 2 R), rappresenta-
no un cono di vertice l’origine O del riferimento.

Dimostrazione Sia P0 = (x0 , y0 , z0 ) un punto della superficie S di equazione:


S : f (x, y, z) = 0,
con f funzione da R3 in R omogenea di grado k . La retta r che unisce il punto P0 con
l’origine O ha equazioni parametriche:
8
< x = tx0
r: y = ty0
:
z = tz0 , t 2 R,
cioè le coordinate di ogni suo punto sono date da (tx0 , ty0 , tz0 ), al variare del parametro
t 2 R. Per l’omogeneità di f il punto (tx0 , ty0 , tz0 ) appartiene alla superficie S in quanto
f (tx0 , ty0 , tz0 ) = 0. Ne segue che la retta r giace sulla superficie S . Variando il punto
P0 sulla superficie, tutte le rette che uniscono P0 all’origine del riferimento O giacciono
sulla superficie stessa e ciò prova che S è un cono con vertice in O.
Viceversa, si tratta di dimostrare che un cono di vertice l’origine O è rappresentato da
un’equazione del tipo f (x, y, z) = 0, con f funzione omogenea da R3 in R. Infatti se
g(x, y, z) = 0 è l’equazione cartesiana di un cono di vertice O, allora la curva:

g(x, y, z) = 0
C:
z 1=0
612 Coni, Cilindri, Superfici di Rotazione e Quadriche

è una direttrice del cono. Procedendo con il metodo descritto in questo paragrafo, per
calcolare l’equazione cartesiana del cono di direttrice C e vertice l’origine O, si consideri
un punto P1 = (x1 , y1 , z1 ) appartenente a C ossia:

g(x1 , y1 , z1 ) = 0
z1 1 = 0.

Sia P = (x, y, z) il generico punto del cono, le condizioni di allineamento dei punti
O, P1 , P sono date da: 8
< x1 = tx
y1 = ty (12.1)
:
z1 = tz, t 2 R.
Dalle equazioni z1 = 1 e da z1 = tz segue:
1
t= . (12.2)
z
Sostituendo in g(x1 , y1 , z1 ) = 0 le equazioni (12.1) e (12.2) si ha:
⇣x y ⌘
g(x1 , y1 , z1 ) = g , ,1 .
z z
Ponendo: ⇣x y ⌘
f (x, y, z) = g , ,1
z z
si ottiene che la funzione f, che definisce il cono, è una funzione omogenea di grado zero
(cfr. Esercizio 12.1).

Esempio 12.2 L’equazione x2 + y 2 = z 2 rappresenta il cono di vertice l’origine illustrato


nella Figura 12.3 Le circonferenze di equazioni:

z=k
x2 + y 2 = k 2 , k 2 R,

sono direttrici del cono. Si tratta di un cono circolare retto (cfr. Par. 10.3) e lo si può
anche ottenere dalla rotazione completa della retta passante per l’origine del riferimento
e per il punto di coordinate (1, 0, 1) intorno all’asse z (cfr. Par. 12.4), per questo motivo
l’asse z è l’asse del cono.

p
Esempio 12.3 Si osservi che l’equazione z = x2 + y 2 rappresenta solo la metà supe-
riore (verso il semiasse positivo delle quote) del cono descritto nell’esempio precedente.
Capitolo 12 613

Figura 12.3: Esempio 12.2


614 Coni, Cilindri, Superfici di Rotazione e Quadriche

Osservazione 12.1 L’equazione di un cono di vertice V = (↵, , ) che non sia l’origine
del riferimento è anch’essa determinata da una funzione con particolari proprietà. Infat-
ti se si considera il riferimento cartesiano R0 = (V, X, Y, Z) ottenuto, dal riferimento
cartesiano R = (O, x, y, z), mediante la traslazione di equazioni:
8
< x=X +↵
y=Y +
:
z=Z+

in cui l’origine del riferimento R0 coincide con il vertice V del cono, l’equazione del
cono di vertice V, scritta nel riferimento R0 , è:

f (X, Y, Z) = 0,

con f : R3 ! R funzione omogenea di grado k , k 2 R. Sostituendo le equazioni della


traslazione si ha:
f (x ↵, y ,z )=0
che è l’equazione del cono di vertice V nel riferimento R, pertanto f è una funzione
omogenea di grado k nelle variabili (x ↵, y ,z ).
Per esempio (x 1) + (y + 1) = z è l’equazione del cono circolare retto con vertice
2 2 2

nel punto V = (1, 1, 0).

Secondo Caso Se la direttrice C del cono è data in forma parametrica:


8
< x = x(t)
C: y = y(t) (12.3)
:
z = z(t), t 2 I ✓ R,
la retta passante per il punto generico P di C e per il vertice V = (↵, , ) del cono è
descritta dalle equazioni:
8
< x = ↵ + s(x(t) ↵)
y = + s(y(t) ) (12.4)
:
z = + s(z(t) ), s 2 R,
che rappresentano le equazioni parametriche del cono di vertice V e direttrice C . Elimi-
nando da tali equazioni i parametri t ed s si ottiene l’equazione cartesiana del cono.

Si osservi che se in (12.4):

1. si fissa t = t0 si hanno le equazioni parametriche della generatrice P0 V del cono,


dove P0 è il punto di C che si ottiene sostituendo in (12.3) al parametro t il valore
t0 ;
Capitolo 12 615

2. si fissa s = s0 si hanno le equazioni parametriche di una curva direttrice del cono.

Esercizio 12.2 Scrivere l’equazione del cono di vertice V = (0, 0, 0) e direttrice la curva:
8
< x=t+1
C: y=t 1 (12.5)
:
z=t 2
1, t 2 R.

Soluzione Osservato che V 2 / C , si considera il punto generico P = (t+1, t 1, t2 1)


di C e si scrivono le equazioni parametriche della retta P V :
8
< x = (t + 1)s
y = (t 1)s
:
z = (t2 1)s, t, s 2 R,
che rappresentano anche le equazioni parametriche del cono e che sono utili, per esempio,
per rappresentare graficamente il cono mediante programmi di calcolo simbolico (cfr.
Fig. 12.4). Per pervenire, invece, all’equazione cartesiana del cono si devono eliminare i
parametri t, s dalle equazioni parametriche, per esempio procedendo in questo modo, da
(12.5) si ha:
y z x
= = ,
t 1 t2 1 t+1
ossia:

(t + 1)y (t 1)x = 0
(t + 1)z (t2 1)x = 0.
Dalla prima equazione si deduce:

x+y
t= ,
x y
che, sostituita nella seconda, dà luogo all’equazione cartesiana del cono:

2x2 z 2xyz 4x2 y = 0.

Esempio 12.4 L’equazione x + y + z = 0 rappresenta un piano ⇡ passante per l’origine,


ma è anche un cono (infatti è un’equazione omogenea). Il suo vertice è un punto qualsiasi
del piano ⇡, una direttrice è una qualsiasi circonferenza di ⇡ avente il vertice nel suo
interno, oppure contenente il vertice. Si osservi che il cono di vertice un punto del piano
e direttrice una retta dello stesso piano non contenente il vertice è il piano stesso privato
di una retta (quale?).
616 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.4: Esercizio 12.2


Capitolo 12 617

Figura 12.5: Esempio 12.5


618 Coni, Cilindri, Superfici di Rotazione e Quadriche

Esempio 12.5 L’equazione xyz = 0 rappresenta un cono essendo un’equazione omoge-


nea, d’altra parte essa è anche l’unione dei tre piani coordinati. Si può vedere come il
cono di vertice l’origine e direttrice la curva:

xyz = 0
x2 + y 2 + z 2 = 1,

sia l’unione di tre circonferenze. Il cono considerato è rappresentato nella Figura 12.5.

12.2.1 Cono tangente ad una sfera


Dati una sfera ⌃ di equazione x2 +y 2 +z 2 +ax+by+cz +d = 0 e un punto V = (↵, , )
esterno a ⌃, si vuole determinare l’equazione del cono di vertice V circoscritto alla sfera
⌃, beninteso dopo aver risolto l’esercizio che segue.

Esercizio 12.3 Come si fa a verificare che V è esterno a ⌃?

Intersecando la generica retta passante per il vertice V, di equazioni parametriche:


8
< x = ↵ + lt
y = + mt
:
z = + nt, t 2 R,

con la sfera ⌃ si ottiene un’equazione di secondo grado nel parametro t. Si hanno due
intersezioni coincidenti (ossia la retta tangente a ⌃) imponendo che il discriminante
dell’equazione di secondo grado in t cosı̀ ottenuta si annulli:

=0 (12.6)

e questa non è altro che un’equazione di secondo grado in l, m, n. Poiché:

x ↵ y z
= =
l m n
si sostituisce a l: x ↵, a m: y , a n: z . Tale sostituzione è possibile in quanto
l’equazione (12.6) è omogenea. Si perviene cosı̀ all’equazione del cono cercata.

Esercizio 12.4 Scrivere l’equazione del cono di vertice V = (2, 0, 0) circoscritto alla
sfera:
⌃ : x2 + y 2 + z 2 1 = 0.
Capitolo 12 619

Figura 12.6: Esercizio 12.4


620 Coni, Cilindri, Superfici di Rotazione e Quadriche

Soluzione La generica retta r passante per V ha equazioni parametriche:


8
< x = 2 + lt
y = mt
:
z = nt, t 2 R.
Intersecando r con ⌃ si ha l’equazione di secondo grado:

(l2 + m2 + n2 )t2 + 4lt + 3 = 0,

il cui discriminante è:

= l2 3m2 3n2 = 0.
4
Con la sostituzione di x 2, y, z al posto di l, m, n, rispettivamente, si ha l’equazione del
cono cercata:

(x 2)2 3y 2 3z 2 = 0. (12.7)

Si osservi che si ottiene un’equazione omogenea in x 2, y, z , in accordo con l’Osser-


vazione 12.1. La superficie è rappresentata nella Figura 12.6. Anche in questo caso il
cono di equazione (12.7) è circolare retto (cfr. Es. 12.2) in quanto le sue direttrici sono
le circonferenze che appartengono a piani paralleli con i centri sulla retta, ortogonale a
questi piani, che unisce il vertice V del cono al centro della sfera ⌃, tale retta coincide
con l’asse del cono.

12.2.2 Proiezione di una curva da un punto su un piano


Data una curva C nello spazio la sua proiezione da un punto P su un piano ⇡ è la curva
che si ottiene dall’intersezione del piano ⇡ con il cono di vertice P e direttrice C.

Esercizio 12.5 Determinare le equazioni della curva proiezione di:


8
>
> x=t
>
>
<
C: 1
> y=
>
> t
>
:
z = t3 , t2R {0}

sul piano ⇡ : x y + 2z 1 = 0 dal punto P = (2, 4, 6).


Capitolo 12 621

Figura 12.7: Esercizio 12.5


622 Coni, Cilindri, Superfici di Rotazione e Quadriche

Soluzione Si scrivono le equazioni parametriche del cono:


8
>
> x = 2 + (t 2)s
>
>
< ✓ ◆
S: 1
> y =4+ 4 s
>
> t
>
:
z = 6 + (t3 + 6)s, s 2 R, t 2 R {0}
di vertice P e direttrice la curva C. Per ottenere la curva proiezione richiesta si interseca
il cono S con il piano ⇡ :
✓ ◆
1
2 + (t 2)s 4 4 s 12 + 2(t3 + 6)s 1 = 0,
t

da cui segue:
s[t(t 2) 1 + 4t + 2t(t3 + 6)] = 15t.
Si ricava s in funzione di t e si sostituisce nelle equazioni parametriche di S , perve-
nendo cosı̀ alle equazioni parametriche della curva richiesta. La situazione geometrica è
illustrata nella Figura 12.7.

12.3 Il cilindro
In questo paragrafo sono trattati i cilindri ed in particolare i cilindri aventi generatrici
parallele agli assi coordinati. Analogamente a quanto visto per il cono, saranno anche
studiati i cilindri circoscritti ad una sfera e la proiezione di una curva su un piano, secondo
una direzione assegnata. Vengono poi presentate le coordinate cilindriche che sono una
naturale generalizzazione, al caso dello spazio, delle coordinate polari nel piano (cfr. Par.
9.3).

Definizione 12.3 Data una curva C nello spazio ed un vettore u, il cilindro di direttrice
C e generatrici parallele ad u è il luogo delle rette dello spazio passanti per tutti i punti
di C e parallele al vettore u.

La Figura 12.8 riproduce una rappresentazione grafica della Definizione 12.3.

Per determinare l’equazione di un cilindro si procede come per il cono.

Primo Caso Sia C una curva nello spazio rappresentata nella forma:

f (x, y, z) = 0
C:
g(x, y, z) = 0,
Capitolo 12 623

-1

11

Figura 12.8: Un cilindro

dove f e g sono funzioni da R3 in R, sia u = (l, m, n) un vettore e P0 = (x0 , y0 , z0 ) un


punto di C. Si vuole ricavare l’equazione del cilindro di direttrice C e generatrice la retta
per P0 , parallela ad u. È evidente che, sullo stesso cilindro, esistono infinite direttrici
e infinite generatrici e che il procedimento indicato per ricavare l’equazione del cilindro
non dipende dalla scelta della direttrice e della generatrice. Le equazioni parametriche
della retta per P0 parallela ad u sono:
8
< x = x0 + lt
y = y0 + mt
:
z = z0 + nt, t 2 R,
dove le coordinate di P0 verificano le identità:

f (x0 , y0 , z0 ) = 0
g(x0 , y0 , z0 ) = 0.
Considerando il sistema: 8
>
> x = x0 + lt
>
>
< y = y0 + mt
z = z0 + nt
>
>
> f (x0 , y0 , z0 ) = 0
>
:
g(x0 , y0 , z0 ) = 0
624 Coni, Cilindri, Superfici di Rotazione e Quadriche

ed eliminando in esso i parametri x0 , y0 , z0 , t, si ottiene l’equazione cartesiana del cilin-


dro.

Esercizio 12.6 Determinare l’equazione del cilindro avente generatrici parallele all’asse
z e direttrice la circonferenza C appartenente al piano 2x z = 0, di centro l’origine O
e raggio 1.

Soluzione La circonferenza C ha equazioni:



2x z = 0
C:
x2 + y 2 + z 2 = 1.
Se P0 = (x0 , y0 , z0 ) appartiene a C, la retta per P0 parallela all’asse z ha equazioni:
8
< x = x0
y = y0
:
z = z0 + t, t 2 R
e si ha il sistema:
8
>
> x = x0
>
>
< y = y0
z = z0 + t
>
>
>
> 2x z =0
: 2 0 20 2
x0 + y0 + z0 1 = 0.
Eliminando i parametri x0 , y0 , z0 si ottiene:

2x (z t) = 0
x2 + y 2 + (z t)2 1 = 0,
da cui, ricavando t dalla prima equazione e sostituendo l’espressione ottenuta nella se-
conda, si ha:

5x2 + y 2 = 1
che è l’equazione del cilindro, rappresentato nella Figura 12.9.

Secondo Caso Sia C una curva dello spazio data in forma parametrica:
8
< x = x(t)
C: y = y(t)
:
z = z(t), t 2 I ✓ R,
Capitolo 12 625

Figura 12.9: Esercizio 12.6


626 Coni, Cilindri, Superfici di Rotazione e Quadriche

e sia u = (l, m, n) un vettore. La retta passante per il generico punto P = (x(t), y(t), z(t))
di C, parallela ad u, ha equazioni:
8
< x = x(t) + ls
y = y(t) + ms (12.8)
:
z = z(t) + ns, s, t 2 R,
che non sono altro che le equazioni parametriche del cilindro di direttrice C e generatrici
parallele al vettore u, nei parametri s, t. Volendo determinare l’equazione cartesiana del
cilindro è sufficiente eliminare s e t tra le equazioni parametriche (12.8). Come nel caso
del cono, si osservi che, fissando t in (12.8) si hanno le equazioni parametriche di una
direttrice, invece, fissando s si hanno le equazioni parametriche di una generatrice.

Esercizio 12.7 Determinare l’equazione del cilindro avente generatrici parallele al vetto-
re v = (2, 1, 1) e direttrice la curva:
8
< x = t2
C: y=t
:
z = t 1, t 2 R.

Soluzione Sia P = (t2 , t, t 1) un punto qualsiasi di C , le equazioni parametriche


della generica generatrice sono:
8
< x = t2 + 2
y=t
:
z =t 1+ , t, 2 R,
che rappresentano anche le equazioni parametriche del cilindro. Si ottiene l’equazione
cartesiana del cilindro:
✓ ◆2 ✓ ◆
y+z+1 y z 1
x +2 = 0,
2 2
eliminando i parametri t e dalle sue equazioni parametriche. La rappresentazione
grafica (cfr. Fig. 12.10) del cilindro è stata, invece, ottenuta usando le sue equazioni
parametriche.

12.3.1 Cilindri con assi paralleli agli assi coordinati


Nell’equazione 5x2 + y 2 = 1 del cilindro ottenuta nell’Esercizio 12.6 si osserva che
non compare la coordinata z, questa è condizione necessaria e sufficiente affinché le
Capitolo 12 627

Figura 12.10: Esercizio 12.7


628 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.11: Esempio 12.6

generatrici del cilindro siano parallele all’asse z . Infatti se le generatrici sono parallele
all’asse z e la direttrice del cilindro è una curva C del piano coordinato xy di equazioni:

f (x, y) = 0
C:
z = 0,

con f funzione da R2 in R, per ogni punto P0 = (x0 , y0 , z0 ) appartenente a C si ha che


anche i punti P00 = (x0 , y0 , z0 ) appartengono a C per ogni valore reale di .

Esempio 12.6 y = sin x è l’equazione di un cilindro con generatrici parallele all’asse z


la cui rappresentazione grafica è illustrata nella Figura 12.11.

Analogamente, se le generatrici di un cilindro sono parallele all’asse x e la direttrice è


una curva del piano coordinato yz di equazioni f (y, z) = x = 0, l’equazione cartesiana
del cilindro è f (y, z) = 0.

Esempio 12.7 y 2 + z 2 = 5 è l’equazione di un cilindro con generatrici parallele all’asse


x la cui rappresentazione grafica è illustrata nella Figura 12.12.

Infine se le generatrici di un cilindro sono parallele all’asse y e la direttrice è una curva


del piano coordinato xz di equazioni f (x, z) = y = 0 l’equazione cartesiana del cilindro
è f (x, z) = 0.
Capitolo 12 629

Figura 12.12: Esempio 12.7

Figura 12.13: Esempio 12.8


630 Coni, Cilindri, Superfici di Rotazione e Quadriche

Esempio 12.8 x2 z 2 = 2 è l’equazione di un cilindro con generatrici parallele all’asse


y la cui rappresentazione grafica è illustrata nella Figura 12.13.

Se un cilindro ha come direttrice la curva:


8
< x = x(u)
C: y = y(u)
:
z = z(u), u 2 I ✓ R,

e generatrici parallele all’asse z , eliminando il parametro u tra due equazioni para-


metriche e sostituendo l’espressione ottenuta nella terza si perviene alla sua equazione
cartesiana.

Esercizio 12.8 Scrivere l’equazione cartesiana del cilindro avente come direttrice la cur-
va C di equazioni: 8
< x = u3
C: y = u2
:
z = u, u 2 R
e generatrici parallele all’asse z .

Soluzione Dalle equazioni della curva segue x2 = u6 , y 3 = u6 , allora:

x2 y3 = 0

è l’equazione cercata. La curva di equazioni:



x2 y 3 = 0
z=0

è la proiezione di C sul piano xy . Il cilindro cosı̀ ottenuto e la curva C sono rappresentati


nella Figura 12.14.

Il cilindro che ha come direttrice la curva C di equazioni:



f (x, y, z) = 0
C:
g(x, y, z) = 0,

con f e g funzioni da R3 in R, e generatrici parallele all’asse z ha equazione cartesiana


che si ottiene eliminando l’incognita z tra le equazioni di C .
Capitolo 12 631

Figura 12.14: Esercizio 12.8


632 Coni, Cilindri, Superfici di Rotazione e Quadriche

Esercizio 12.9 Determinare l’equazione del cilindro che proietta la curva:



x2 + y 2 + z 2 = 1
C:
2x + y z = 0
parallelamente all’asse z .

Soluzione Eliminando z tra le due equazioni di C si ottiene:

x2 + y 2 + (2x + y)2 = 1.

Si procede in modo analogo per determinare l’equazione cartesiana di un cilindro con


generatrici parallele agli altri assi coordinati.

Come nel caso del cono, anche per il cilindro si può dimostrare il seguente teorema che
ne caratterizza l’equazione cartesiana. Per la sua dimostrazione si veda ad esempio [12].

Teorema 12.2 1. Sia:



a1 x + b1 y + c1 z + d1 = 0
r:
a2 x + b2 y + c2 z + d2 = 0

una retta e sia (u, v) una funzione di due variabili reali a valori reali. Allora
l’equazione:

(a1 x + b1 y + c1 z + d1 , a2 x + b2 y + c2 z + d2 ) = 0 (12.9)

rappresenta un cilindro con generatrici parallele a r.

2. Viceversa, se f (x, y, z) = 0 è l’equazione di un cilindro con generatrici parallele


ad una retta r, allora esiste una funzione di due variabili reali (u, v) a valori
reali tale che il cilindro abbia anche equazione (12.9).

12.3.2 Cilindro circoscritto ad una sfera


Dati una sfera:
⌃ : x2 + y 2 + z 2 2↵x 2 y 2 z+ =0
e un vettore u = (l, m, n), si vuole determinare l’equazione del cilindro circoscritto a ⌃
con generatrici parallele ad u. La generica retta parallela ad u e passante per un punto
P = (x0 , y0 , z0 ) di ⌃ ha equazioni:
Capitolo 12 633

8
< x = x0 + lt
y = y0 + mt (12.10)
:
z = z0 + nt, t 2 R,
dove (x, y, z) sono le coordinate di un punto generico della retta, vale a dire le coordinate
del generico punto della superficie cercata. Analogamente a quanto già visto per il cono,
se si interseca ⌃ con la retta di equazioni parametriche (12.10) si ottiene un’equazione di
secondo grado in t, le cui soluzioni portano ai punti di intersezione tra la sfera e la retta.
Le generatrici sono tangenti a ⌃ se le intersezioni coincidono, ovvero se il discriminante
dell’equazione è nullo. L’equazione in x, y, z che cosı̀ si ottiene rappresenta, come è
visualizzato nella Figura 12.15, il cilindro circoscritto a ⌃ con generatrici parallele al
vettore u. In geometria euclidea questo cilindro è detto cilindro circolare retto in quanto
ha come direttrici le circonferenze che appartengono a piani paralleli, tutte con lo stesso
raggio e con i centri tutti su una retta, detta asse del cilindro, ortogonale ai piani a cui esse
appartengono. Nel Paragrafo 12.4 si vedrà che un cilindro circolare retto si può anche
ottenere dalla rotazione completa di una retta intorna ad un’altra retta ad essa parallela
che è l’asse del cilindro.

Esercizio 12.10 Scrivere l’equazione del cilindro circoscritto alla sfera:

⌃ : (x 1)2 + y 2 + z 2 = 3

ed avente le generatrici parallele al vettore u = (1, 0, 1).

Soluzione Le equazioni della retta passante per un punto generico P = (x0 , y0 , z0 ) di


⌃ e parallela al vettore u sono date da:
8
< x = x0 + t
y = y0
:
z = z0 + t, t 2 R.

Intersecando ⌃ con r si ottiene l’equazione di secondo grado in t:

2t2 + 2(x 1 + z)t + (x2 2x 2 + y 2 + z 2 ) = 0.

Imponendo la tangenza tra r e ⌃ segue:

= (x + z 1)2 2(x2 + y 2 + z 2 2x 2) = 0
4
che è l’equazione del cilindro cercata.
634 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.15: Cilindro circoscritto ad una sfera


Capitolo 12 635

Figura 12.16: La curva di Viviani


636 Coni, Cilindri, Superfici di Rotazione e Quadriche

Curiosità È famosa la curva che si ottiene intersecando il cilindro circolare retto di


equazione:
(x a)2 + y 2 = a2
con la sfera:
x2 + y 2 + z 2 = 4a2 .
La curva, rappresentata nella Figura 12.16, prende il nome di curva di Viviani, in quanto
Vincenzo Viviani (1622 – 1703), studente di Galileo scoprı̀ che questa curva risolve il
seguente problema: quanto misura il lato di quattro finestre uguali, costruite su un emi-
sfero in modo che la parte di esso rimanente abbia l’area di un quadrato? Per maggiori
dettagli ed approfondimenti si veda ad esempio [11].

12.3.3 Proiezione di una curva su un piano secondo una direzione


assegnata
Data una curva C nello spazio, la proiezione di C su un piano ⇡ secondo la direzione di
un vettore u, non parallelo a ⇡ , è la curva ottenuta dall’intersezione del piano ⇡ con il
cilindro di direttrice C e generatrici parallele al vettore u.

Esercizio 12.11 Data la curva:


8
< x = 1 t2
C: y = 2t
:
z = t + 2, t 2 R,
determinare la proiezione ortogonale C 0 di C sul piano ⇡ : x 2y = 0.

Soluzione La curva C 0 è l’intersezione del piano ⇡ con il cilindro S avente le gene-


ratrici parallele al vettore u = (1, 2, 0), ortogonale al piano ⇡ , e direttrice C . Dalle
equazioni parametriche del cilindro:
8
< x = 1 t2 + s
S: y = 2t 2s
:
z = t + 2, t, s 2 R,

ricavando dalla terza equazione t = z 2 e dalla seconda equazione:


y + 2z 4
s= ,
2
quindi sostituendo nella prima, si ottiene l’equazione cartesiana del cilindro:
2z 4 y
S: x=1 (z 2)2 + .
2
Capitolo 12 637

Figura 12.17: Esercizio 12.11


638 Coni, Cilindri, Superfici di Rotazione e Quadriche

La curva C 0 è quindi data da:


8 2z 4 y
< x = 1 (z 2)2 +
C0 : 2
:
x 2y = 0
ed è rappresentata nella Figura 12.17.

12.3.4 Coordinate cilindriche


In questo paragrafo si introduce un altro sistema di coordinate, che estende al caso dello
spazio, in modo diverso dal sistema di coordinate sferiche (cfr. Par. 11.10), la nozione di
coordinate polari nel piano.

Si consideri un sistema di riferimento cartesiano R = (O, x, y, z), o, equivalentemente


R = (O, i, j, k), ed il riferimento polare del piano associato a quello cartesiano (O, i, j)
definito nel Paragrafo 9.3. Se (x, y, z) sono le coordinate cartesiane di un punto P dello
spazio (non appartenente all’asse z ) e (⇢, ✓) sono le coordinate polari della sua proiezio-
ne ortogonale P 0 sul piano z = 0, la terna di numeri reali (⇢, ✓, z), nell’ordine scritto,
individua le coordinate cilindriche del punto P . Il relativo riferimento si ottiene aggiun-
gendo al riferimento polare del piano xy (che determina ⇢ e ✓) l’asse z del riferimento
cartesiano associato. Si ha allora una corrispondenza biunivoca tra i punti dello spazio e
le terne ordinate (⇢, ✓, z), dove:
⇢ 0, 0  ✓ < 2⇡,

con l’eccezione dei punti dell’asse z per i quali ✓ è indeterminata. La situazione geome-
trica è illustrata nella Figura 12.18.

Le relazioni che legano le coordinate cilindriche alle coordinate cartesiane del medesimo
punto P sono: 8
< x = ⇢ cos ✓
y = ⇢ sin ✓
:
z = z;
per le formule inverse si trova:
8 p
>
> ⇢ = x2 + y 2
>
>
<
y
> tan ✓ =
>
> x
>
:
z = z.
Capitolo 12 639

q
r

x
P'

Figura 12.18: Coordinate cilindriche del punto P


640 Coni, Cilindri, Superfici di Rotazione e Quadriche

Osservazione 12.2 I punti P = (⇢, ✓, z), con ⇢ = r costante, appartengono al cilindro


circolare retto S di asse z e raggio r, perciò:
⇢=r
rappresenta l’equazione di S in coordinate cilindriche. Le sue equazioni parametriche
sono: 8
< x = r cos ✓
S: y = r sin ✓
:
z = t, t 2 R, 0  ✓ < 2⇡,
mentre è immediato verificare che:
x2 + y 2 = r 2
è la sua equazione cartesiana.
Osservazione 12.3 Un punto P = (⇢0 , ✓0 , z0 ) è pertanto l’intersezione di tre superfici:
un cilindro circolare retto di asse l’asse z e raggio r = ⇢0 , un semipiano per l’asse z
formante un angolo ✓0 con il piano y = 0 e il piano z = z0 , del relativo riferimento
cartesiano associato.

12.4 Superfici di rotazione


In questo paragrafo si introduce il concetto, del resto molto intuitivo, di superficie di
rotazione di una curva intorno ad una retta e se ne ricavano le equazioni, studiando diversi
casi particolari.
Definizione 12.4 Date una retta a e una curva C la superficie S generata dalla rotazione
completa della curva C intorno alla retta a prende il nome di superficie di rotazione di
asse di rotazione a. Ogni punto P di C, ad eccezione dei punti di intersezione di C con la
retta a che sono punti di S, descrive una circonferenza appartenente al piano ortogonale
alla retta a passante per P. Tali circonferenze prendono il nome di paralleli di S , mentre
le curve ottenute intersecando S con i piani passanti per a sono dette curve meridiane.
La situazione geometrica è illustrata nella Figura 12.19.
Esempio 12.9 1. Una sfera è una superficie di rotazione avente per asse di rotazione
una qualunque retta passante per il suo centro. Quali sono le sue curve meridiane?
2. Il cilindro x2 + y 2 = 4 è una superficie di rotazione avente per asse di rotazione
l’asse z . Se P0 = (x0 , y0 , z0 ) è un qualunque punto del cilindro, l’intersezione
del cilindro con il piano ⇡ : z = z0 (piano per P0 ortogonale all’asse z ) è la
circonferenza C : z z0 = x2 + y 2 4 = 0. In questo caso, quali sono le curve
meridiane?
Capitolo 12 641

Figura 12.19: Una generica superficie di rotazione


642 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.20: Le rette a e r e il cono ottenuto dalla rotazione di r intorno ad a

In questo paragrafo sarà anche studiato il caso particolare in cui la curva C è piana, gia-
ce su un piano coordinato e ruota intorno ad un asse coordinato. Particolari esempi di
questo tipo sono le rotazioni di un’ellisse, di un’iperbole e di una parabola intorno ad un
opportuno asse coordinato, ottenendo alcune superficie di rotazione che sono esempi di
quadriche. Le quadriche sono superfici che si possono esprimere mediante equazioni di
secondo grado e saranno studiate nel Paragrafo 12.6. Si esaminerà, infine, la rotazione
intorno all’asse z di una circonferenza posta sul piano x = 0, avente il centro nel punto di
coordinate (0, a, 0) e raggio r; la superficie che ne risulta è detta toro o superficie torica
(cfr. Def. 12.5).

Esempio 12.10 Se la curva C della Definizione 12.4 è una retta r incidente l’asse di
rotazione a, allora la superficie di rotazione è un cono circolare retto (cfr. Par. 10.3). La
Figura 12.20 rappresenta le rette incidenti r e a e il cono ottenuto dalla rotazione di r
intorno ad a.

Esempio 12.11 Se la curva C della Definizione 12.4 è una retta r parallela all’asse di
rotazione a, allora la superficie di rotazione è un cilindro circolare retto (cfr. Par. 12.3.2).
La Figura 12.21 rappresenta le rette parallele r e a e il cilindro ottenuto dalla rotazione
di r intorno ad a.
Capitolo 12 643

Figura 12.21: Le rette a e r e il cilindro ottenuto dalla rotazione di r intorno ad a

Esempio 12.12 Se la curva C della Definizione 12.4 è una retta r sghemba con l’asse di
rotazione a allora la superficie di rotazione è un iperboloide di rotazione ad una falda,
superficie che sarà studiata in dettaglio nel Paragrafo 12.6. La Figura 12.22 rappresenta
le rette sghembe r e a e l’iperboloide ad una falda ottenuto dalla rotazione di r intorno
ad a.

Per pervenire all’equazione di una superficie di rotazione S è sufficiente scrivere le


equazioni di un suo generico parallelo, come si vedrà negli esempi e negli esercizi che
seguono.

Esercizio 12.12 Date le rette:


⇢ ⇢
2x y + z 4 = 0 x 1=0
r: s:
y + z 2 = 0, x + z 1 = 0,

determinare la superficie generata dalla rotazione di r intorno a s e decidere di quale


superficie si tratta.

Soluzione Il punto generico P della retta r descrive la circonferenza C intersezione del


piano ⇡ passante per P e ortogonale a s con la sfera ⌃ di centro C , punto di intersezione
tra ⇡ e s, e raggio la distanza d(P, C) da P a C. Il punto P di r ha coordinate:

P = (t + 1, t, t + 2),
644 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.22: Le rette a e r e l’iperboloide ottenuto dalla rotazione di r intorno ad a

il piano ⇡ passante per P perpendicolare ad un vettore parallelo a s, quindi di componenti


per esempio (0, 1, 0), ha equazione y t = 0. Il centro C della circonferenza C è
l’intersezione di ⇡ con la retta s e perciò C = (1, t, 0), il raggio di C è:
p
d(C, P ) = t2 + ( t + 2)2 .

Si può allora scrivere la circonferenza C come intersezione di ⌃ con ⇡ nel modo seguente:

y t=0
C: (12.11)
(x 1)2 + (y t)2 + z 2 = t2 + ( t + 2)2 .

Eliminando il parametro t tra le due equazioni di (12.11) si ottiene l’equazione della


superficie di rotazione:

(x 1)2 + z 2 2(y 1)2 2=0


che è l’iperboloide di rotazione ad una falda rappresentato nella Figura 12.23.

L’esercizio precedente indica il metodo con cui si possono ricavare le equazioni di tutte
le superfici di rotazione ottenute dalla rotazione completa di una retta intorno all’asse di
rotazione. Viene ora affrontato il caso della rotazione di una curva piana C che non sia
necessariamente una retta e che ruota intorno ad una retta contenuta nello stesso piano
a cui appartiene C. Ci si può ridurre, con un opportuno cambiamento di riferimento, a
Capitolo 12 645

Figura 12.23: Esercizio 12.12


646 Coni, Cilindri, Superfici di Rotazione e Quadriche

studiare la rotazione di una curva C appartenente al piano coordinato xz intorno all’asse


z, quindi di equazioni del tipo:

f (x, z) = 0
C:
y = 0,
dove f indica una funzione nelle variabili x e z, a valori reali. Un generico punto P di C
è del tipo P = (X, 0, Z), con f (X, Z) = 0. Sia Q = (x, y, z) un punto appartenente al
parallelo della superficie S, ottenuta dalla rotazione di C intorno all’asse z, passante per
P . Le equazioni del parallelo per Q sono date dall’intersezione del piano ⇡ passante per
P = (X, 0, Z) e perpendicolare al vettore k = (0, 0, 1), che ha equazione z = Z, con la
sfera di centro C = (0, 0, z) e raggio:
p
d(P, C) = X 2 = |X|,
ossia:

z=Z
x2 + y 2 + (z Z)2 = X 2 ,
da cui:
⇢ p
X = ± x2 + y 2
Z = z.
Di conseguenza, per ottenere l’equazione della superficie di rotazione S è sufficiente
sostituire in f (X, Z) = 0 le equazioni:
p
X = ± x2 + y 2 , Z = z,

ovvero, la superficie di rotazione ha equazione:


p
f (± x2 + y 2 , z) = 0.

In modo analogo si possono scrivere le equazioni delle superfici di rotazione ottenute


dalla rotazione di una curva appartenente agli altri piani coordinati e che ruoti intorno ad
un asse coordinato dello stesso piano a cui la curva appartiene.

Esercizio 12.13 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa
dell’iperbole, appartenente al piano coordinato xz, di equazione:
8 2
< x z2
=1
a2 c2 (12.12)
:
y=0
Capitolo 12 647

Figura 12.24: Iperbole di equazione (12.12) e iperboloide di equazione (12.13)

intorno all’asse z .

Soluzione Da quanto precede è sufficiente sostituire a x2 l’espressione x2 + y 2 , si


ricava:

x2 + y 2 z2
S: = 1, (12.13)
a2 c2
che è di nuovo un iperboloide di rotazione ad una falda. Nella Figura 12.24 sono rap-
presentati sia un’iperbole di equazione (12.12) sia la superficie di rotazione di equazione
(12.13).

Esercizio 12.14 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa
dell’ellisse, appartenente al piano coordinato xz, di equazione:
8 2 2
< x +z =1
a2 c2 (12.14)
:
y=0

intorno all’asse z .

Soluzione È sufficiente sostituire al posto di x2 l’espresssione x2 + y 2 e si ottiene:

x2 + y 2 z2
S: + = 1, (12.15)
a2 c2
648 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.25: Ellisse di equazione (12.14) ed ellissoide di rotazione di equazione (12.15)

che rappresenta una superficie detta ellissoide di rotazione e che sarà studiata dettagliata-
mente nel Paragrafo 12.6. Nella Figura 12.25 si vedono un’ellisse di equazione (12.14) e
un ellissoide di rotazione di equazione (12.15).

Esercizio 12.15 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa
dell’iperbole del piano xz di equazione (12.12) intorno all’asse x.

Soluzione È sufficiente sostituire al posto di z 2 nell’equazione (12.12) l’espressione


y 2 + z 2 e si ottiene:

x2 y2 + z2
S: 2 =1 (12.16)
a c2
che rappresenta una superficie detta iperboloide di rotazione a due falde che si può vedere
nella Figura 12.26 e che sarà studiata dettagliatamente nel Paragrafo 12.6.

Esercizio 12.16 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa
della parabola del piano xz di equazione:
8 2
< x = 2z
a2 (12.17)
:
y=0
intorno all’asse z .
Capitolo 12 649

Figura 12.26: Iperbole di equazione (12.12) e iperboloide a due falde di equazione (12.16)

Soluzione È sufficiente sostituire al posto di x2 l’espressione x2 + y 2 e si ottiene:

x2 + y 2
S: = 2z (12.18)
a2
che rappresenta una superficie detta paraboloide di rotazione. Nella Figura 12.27 si
vedono una parabola di equazione (12.17) e un paraboloide di rotazione di equazione
(12.18).

Si affronta ora lo studio delle superfici che si possono ottenere dalla rotazione di una
circonferenza intorno ad una retta ad essa complanare, di cui, per esempio, la sfera è un
esempio (cfr. Es. 12.9, punto 1.), si inizia con la seguente definizione.

Definizione 12.5 Si dice toro o superficie torica la superficie ottenuta dalla rotazione
completa di una circonferenza C di raggio r intorno ad una retta appartenente al piano
della circonferenza e avente distanza a dal centro di C.

Osservazione 12.4 1. Se nella definizione precedente si pone a = r si ottiene una


sfera.

2. Se a > r si ottiene la superficie rappresentata nella Figura 12.28 la cui conforma-


zione giustifica la denominazione di superficie torica assegnata a questa superficie.

3. Se a < r si ottiene la superficie rappresentata nella Figura 12.29.


650 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.27: Parabola di equazione (12.17) e paraboloide di equazione (12.18)

Figura 12.28: Il toro con a > r e una sua sezione


Capitolo 12 651

Figura 12.29: Il toro con a < r e una sua sezione

Per ricavare l’equazione del toro si può procedere come segue. Sia C la circonferenza,
di raggio r, appartenente al piano coordinato yz e con centro nel punto C = (0, a, 0),
quindi di equazioni:


(y a)2 + z 2 = r2
C:
x = 0.

Per ottenere l’equazione della superficie generata dallap rotazione completa di C intorno
all’asse z è sufficiente sostituire a y l’espressione ± x2 + y 2 e quindi l’equazione del
toro è:

p
(± x2 + y 2 a)2 + z 2 = r2 .

Si può pervenire allo stesso risultato anche seguendo il metodo generale, che consiste
nello scrivere le equazioni del generico parallelo della superficie di rotazione che si ottiene
intersecando il piano passante per il punto P0 = (0, y0 , z0 ) di C ortogonale all’asse z con
la sfera di centro C = (0, 0, z0 ) e raggio d(C, P0 ) = |y0 |, ossia:


z z0 = 0
x2 + y 2 + (z z0 )2 = y02 ,
652 Coni, Cilindri, Superfici di Rotazione e Quadriche

p
da cui si ricava y0 = ± x2 + y 2 . Sostituendo nella relazione:

(y0 a)2 + z02 = r2
x0 = 0
che esprime l’appartenenza di P0 a C si ottiene di nuovo l’equazione del toro. Per
maggiori dettagli sullo studio delle superfici toriche si veda ad esempio [11].

Si conclude il paragrafo proponendo la risoluzione di un esercizio di determinazione del-


l’equazione di una generica superficie di rotazione, che non rientra nei casi particolari
precedentemente introdotti.

Esercizio 12.17 Determinare l’equazione della superficie generata dalla rotazione della
parabola:

y x2 = 0
P:
z=0
intorno alla retta a : x = y z = 0.

Soluzione È facile osservare che ogni punto P di P ha coordinate P = (t, t2 , 0), t 2 R


e la retta a è parallela al vettore a = (0, 1, 1). Si vogliono determinare le equazioni del
generico parallelo della superficie di rotazione, appartenente quindi al piano ⇡ per P
ortogonale ad a, ossia ⇡ : y t2 + z = 0. Il centro C del parallelo C passante per P è
dato dall’intersezione:
8
< y + z t2 = 0
x=0
:
y = z,
da cui si ottiene: ✓ ◆
t2 t2
C= 0, , ,
2 2
allora il raggio di C è: r
1 4
d(C, P ) = t2 + t.
2
Di conseguenza, il parallelo C ha equazioni:
8
> y + z t2 = 0
<
C: ✓ ◆2 ✓ ◆2
> 1 2 1 2 1
: x + y
2
t + z t = t2 + t4 ,
2 2 2
Capitolo 12 653

da cui, eliminando il parametro t, si ottiene l’equazione della superficie di rotazione


cercata:

1 1
x2 + (y z)2 (y + z)2 (y + z) = 0.
2 2

12.5 Cenni sulle superfici rigate


I piani, i coni, i cilindri, gli iperboloidi di rotazione ad una falda sono esempi di particolari
superfici formate da un’infinità di rette, che prendono il nome di superfici rigate. In
questo breve paragrafo si intende introdurre la definizione di superficie rigata, senza però
affrontare lo studio delle sue particolari proprietà. Ulteriori esempi significativi saranno
descritti nei Paragrafi 12.6.1 e 12.7.

Definizione 12.6 Una superficie S si dice rigata se per ogni punto di S passa almeno una
retta interamente contenuta in S. La superficie S si può individuare tramite una curva
C che le appartenga, la curva direttrice, associando, mediante un’opportuna legge, per
ogni punto P0 di C almeno una retta di S passante per P0 . Di conseguenza le equazioni
parametriche di S sono del tipo:
8
< x = h1 (u) + tl(u)
S: y = h2 (u) + tm(u) (12.19)
:
z = h3 (u) + tn(u), u 2 I ✓ R, t 2 R,

dove (h1 (u), h2 (u), h3 (u)), u 2 I ✓ R, sono le equazioni parametriche della curva
direttrice C.

Osservazione 12.5 1. Il cilindro di equazioni parametriche (12.8) è un esempio di


superficie rigata, in cui le rette che lo definiscono sono parallele al vettore di com-
ponenti (l, m, n).

2. Il cono di equazioni parametriche (12.4) è un esempio di superficie rigata in cui la


direttrice, che si riduce ad un punto, è il vertice del cono.

3. Si riconosce che le equazioni parametriche (12.19) definiscono una superficie ri-


gata in quanto uno dei due parametri, in questo caso t, compare a primo grado
in ciascuna delle tre equazioni parametriche. Se P0 è il punto di C che si ottiene
ponendo u = u0 allora la retta appartenente a S e passante per P0 ha equazioni
parametriche:
654 Coni, Cilindri, Superfici di Rotazione e Quadriche

8
< x = h1 (u0 ) + tl(u0 )
y = h2 (u0 ) + tm(u0 )
:
z = h3 (u0 ) + tn(u0 ), t 2 R.

4. Si osservi che il vettore (l(u), m(u), n(u)) in (12.19), identificato con il punto dello
spazio di coordinate (l(u), m(u), n(u)), descrive a sua volta, al variare di u 2 I,
una curva nello spazio.

Esercizio 12.18 Si consideri la superficie S di equazione:


8
< x = 1 + uv
S: y = u2 v + u (12.20)
:
z = (u2 + 1)v, u, v 2 R.
1. Stabilire se S è una superficie rigata.
2. Decidere se esistono rette appartenenti a S parallele al piano ⇡ di equazione:
y 2x = 0.

3. Posto v = 1, scrivere la proiezione ortogonale della curva C di S sul piano


coordinato xy e riconoscere che C è una conica.

Soluzione 1. Se nell’equazione (12.20) si considera u costante, allora il parametro v


compare solo a primo grado, quindi S è una superficie rigata e si può anche definire
come il luogo delle rette per P = (1, u, 0), parallele al vettore (u, u2 , u2 + 1). La
superficie S è rappresentata nella Figura 12.30.

2. Determinare le rette appartenenti alla superficie S e parallele al piano ⇡ equivale a


trovare u in modo che i vettori (u, u2 , u2 + 1) e ( 2, 1, 0) siano perpendicolari. Si
ha che 2u + u2 = 0, da cui u = 0 e u = 2. Di conseguenza, si ottengono le due
rette:
8 8
< x=1 < x=1+2
r1 : y=0 r2 : y =2+4
: :
z = t, t 2 R, z=5 , 2 R.
3. Posto v = 1 si ricava la curva:
8
< x=1+u
C: y = u2 + u
:
z = u2 + 1,
Capitolo 12 655

Figura 12.30: Esercizio 12.18


656 Coni, Cilindri, Superfici di Rotazione e Quadriche

della quale si cerca la proiezione ortogonale sul piano z = 0. Eliminando u tra le


equazioni:

x=1+u
y = u2 + u

si ottiene la parabola di equazione y = (x 1)2 + x 1.

12.6 Quadriche
In questo paragrafo vengono studiate le superfici che estendono al caso dello spazio il
concetto di conica introdotto nel piano, infatti esse si possono rappresentare mediante
un’equazione di secondo grado nelle variabili x, y, z e prendono il nome di quadriche. In
modo analogo al caso delle coniche (cfr. Par. 10.4) si dimostrerà un teorema di classifica-
zione che permetterà di scrivere l’equazione di una quadrica in forma canonica, rispetto
ad un opportuno sistema di riferimento. Infine ogni tipo di quadrica verrà studiato nei
dettagli e se ne ricaveranno anche le equazioni parametriche.

Definizione 12.7 Fissato un sistema di riferimento cartesiano R = (O, x, y, z) nello


spazio, una superficie Q rappresentata da un’equazione di secondo grado in x, y, z del
tipo:
Q : a11 x2 + 2a12 xy + a22 y 2 + 2a13 xz + 2a23 yz + a33 z 2
(12.21)
+2a14 x + 2a24 y + 2a34 z + a44 = 0,
prende il nome di quadrica.

L’equazione (12.21) può essere anche scritta in forma matriciale come:


0 1
x
B y C
Q: x y z 1 BB C
@ z A = 0,
1
dove B è la matrice simmetrica di ordine 4 data da:
0 1
a11 a12 a13 a14
B a12 a22 a23 a24 C
B=B
@ a13
C
a23 a33 a34 A
a14 a24 a34 a44
Capitolo 12 657

e che spesso viene anche indicata come la matrice associata alla quadrica Q.
Se ci si limita a considerare il gruppo di termini di secondo grado dell’equazione (12.21),
si può introdurre la forma quadratica Q : R3 ! R associata a Q, ponendo:
0 1
x
Q((x, y, z)) = x y z A @ y A,
z
dove A è la matrice simmetrica di ordine 3 data da:
0 1
a11 a12 a13
A = @ a12 a22 a23 A.
a13 a23 a33
Sovente, le due matrici simmetriche A 2 R3,3 e B 2 R4,4 vengono indicate come le
matrici associate alla quadrica Q di equazione (12.21), anche se A è in realtà la matrice
associata alla forma quadratica definita da Q.

Esempio 12.13 Il paraboloide di rotazione, ottenuto nell’Esercizio 12.16, di equazione


(12.17) è associato alle matrici:
0 1
1
0 0 0 C 0 1
B a2 1
B C 0 0 C
B C B a2
B 1 C B C
B 0 0 0 C B C
B a2 C B 1 C
B=B C, A=B 0 0 C.
B C B C
B C B a2 C
B 0 0 0 1 C @ A
B C
@ A 0 0 0
0 0 1 0

Esempio 12.14 Il cilindro di equazione:

x2 z2 = 2
è associato alle matrici:
0 1
1 0 0 0 0 1
B 0 1 0 0
0 0 0 C
B=B
@ 0
C, A= @ 0 0 0 A.
0 1 0 A
0 0 1
0 0 0 2
658 Coni, Cilindri, Superfici di Rotazione e Quadriche

Il teorema che segue indica un metodo per scrivere in forma più semplice le equazioni
delle quadriche e si basa sulla teoria della riduzione a forma canonica di una forma qua-
dratica introdotta nel Capitolo 8. È perciò necessario anteporre la definizione di equazione
di una quadrica in forma canonica. Si osservi che il procedimento che sarà descritto è
analogo a quello usato, nel caso della geometria analitica piana, per ridurre le equazioni
delle coniche a forma canonica, di conseguenza, lo stesso tipo di procedimento può essere
esteso allo studio di superfici scritte mediante equazioni di secondo grado in spazi affini
associati a spazi vettoriali euclidei di dimensione maggiore di 3. Per questo motivo si
propone una dimostrazione del Teorema 12.3 molto sintetica, senza troppi dettagli, che
sono analoghi a quelli della dimostrazione del Teorema 10.6 e pertanto sono lasciati al
Lettore per esercizio.

Definizione 12.8 Una quadrica si dice scritta in forma canonica se la sua equazione è
del tipo:
↵x2 + y 2 + z 2 + = 0, (12.22)
con ↵, , , 2 R e (↵, , ) 6= (0, 0, 0), oppure del tipo:

↵x2 + y 2 + 2 z = 0, (12.23)

con ↵, , , 2 R e (↵, ) 6= (0, 0).

Teorema 12.3 Sia Q una quadrica di equazione (12.21) scritta in un riferimento car-
tesiano R = (O, x, y, z). È possibile determinare un sistema di riferimento cartesiano
R00 = (O0 , X, Y, Z) in cui Q si rappresenta in forma canonica o del tipo (12.22) oppure
del tipo (12.23) dove ↵, , sono gli autovalori della matrice A associata all’equazione
di Q.

Dimostrazione L’equazione (12.21) della quadrica Q si può anche scrivere come:

Q : Q((x, y, z)) + L(x, y, z) = 0,


dove Q è la forma quadratica associata a Q e L rappresenta il polinomio in x, y, z di
grado minore o uguale a 1 dato da:

L(x, y, z) = 2a14 x + 2a24 y + 2a34 z + a44 .

Sia B = (i, j, k) la base ortonormale positiva determinata dal riferimento cartesiano R.


Dalla teoria della riduzione a forma canonica delle forme quadratiche si deduce che esiste
un cambiamento di base ortonormale con matrice ortogonale P (scelta in modo tale che
det(P ) = 1) per cui tP AP = D, dove D è una matrice diagonale avente gli autovalori
Capitolo 12 659

di A sulla diagonale principale. Mediante il cambiamento di coordinate indotto dalla


matrice P dato da:
0 1 0 0 1
x x
@ y A = P @ y 0 A, (12.24)
z z0

la forma quadratica assume, nel nuovo riferimento R0 = (O, x0 , y 0 , z 0 ), la seguente espres-


sione in forma canonica:
0 1
x0
Q((x0 , y 0 , z 0 )) = x0 y 0 z 0 t
P AP @ y 0 A = ↵(x0 )2 + (y 0 )2 + (z 0 )2 ,
z0

dove ↵, , indicano gli autovalori della matrice A, eventualmente uguali tra di loro
ma non tutti nulli, essendo la matrice A non nulla. Nel riferimento cartesiano R0 =
(O, x0 , y 0 , z 0 ) l’equazione (12.21) di Q diventa:

Q : ↵(x0 )2 + (y 0 )2 + (z 0 )2 + L0 (x0 , y 0 , z 0 ) = 0,

dove L0 (x0 , y 0 , z 0 ) è il polinomio, in x0 , y 0 , z 0 , di grado minore o uguale a 1, ottenuto da


L(x, y, z) dopo aver sostituito a x, y, z le equazioni (12.24).

La matrice P ha, quindi, determinato una rotazione degli assi cartesiani x, y, z negli assi
cartesiani x0 , y 0 , z 0 passanti per l’origine e paralleli agli autovettori della matrice A le cui
componenti sono le colonne di P.

Se ↵ 6= 0, si può annullare il coefficiente del termine di primo grado in x operando


con una traslazione lungo l’asse x0 (per esempio, con il metodo del completamento dei
quadrati). Si ripete la stessa operazione se 6= 0 e se 6= 0. Il riferimento cartesiano
finale R00 = (O0 , X, Y, Z) cosı̀ ottenuto risulta essere, quindi, la composizione di una
rotazione e di una traslazione.

Si presentano i seguenti casi:

1. tre autovalori della matrice A, (contati con le loro molteplicità) non sono nulli,
allora l’equazione di Q diventa di tipo (12.22);

2. solamente due autovalori della matrice A, (contati con le loro moltelicità) non sono
nulli (per esempio ↵ e ) e la variabile (relativa a = 0), per esempio z , com-
pare a primo grado. Allora con una traslazione di assi si annulla il termine noto e
l’equazione di Q è di tipo (12.23);
660 Coni, Cilindri, Superfici di Rotazione e Quadriche

3. solamente un autovalore di A non è nullo, ossia l’equazione di Q è di tipo:

↵(x0 )2 + ay 0 + bz 0 + c = 0.
Con una rotazione nel piano coordinato y 0 z 0 intorno all’asse x0 e con una eventuale
traslazione, l’equazione si riduce a ↵x02 z 0 = 0 che è ancora del tipo (12.23).

Si osservi che det(A) = det(D), ma è un esercizio dimostrare che anche la matrice


simmetrica di ordine 4 associata a Q nei due riferimenti cartesiani man mano ottenuti ha
determinante che coincide con det(B).

Definizione 12.9 Le quadriche per cui tutti i coefficienti delle equazioni (12.22) e (12.23)
sono diversi da zero si dicono proprie o non degeneri o non singolari. In caso contrario
le quadriche si dicono non proprie o degeneri o singolari.

Osservazione 12.6 Nel caso di quadriche proprie, il determinante della matrice simme-
trica B, di ordine 4, associata alla quadrica è non nullo, det(B) 6= 0.

Sia Q una quadrica propria che si rappresenta con un’equazione di tipo (12.22) allora Q
è una delle seguenti superfici:

1. ellissoide di equazione in forma canonica:

x2 y2 z2
+ + = 1, (12.25)
a2 b2 c2
rappresentato nella Figura 12.31. Si osservi che l’ellissoide di rotazione di equa-
zione (12.15) è un caso particolare di questa superficie, in cui un autovalore della
matrice A associata alla forma quadratica che definisce la superficie ha moltepli-
cità 2. Se, invece, la matrice A ha un solo autovalore (positivo) di molteplicità
3 allora si ottiene la sfera di centro l’origine e di raggio pari alla radice quadrata
dell’autovalore di A.

La superficie è simmetrica rispetto ai piani coordinati, agli assi coordinati e al-


l’origine. L’ellissoide (12.25) interseca l’asse x nei punti A = (a, 0, 0), A0 =
( a, 0, 0), l’asse y nei punti B = (0, b, 0), B 0 = (0, b, 0) e l’asse z nei pun-
ti C = (0, 0, c), C 0 = (0, 0, c). Questi sei punti prendono il nome di vertici
dell’ellissoide.

Poichè le coordinate (x, y, z) dei punti dell’ellissoide sono tali da verificare le


limitazioni:
|x|  a, |y|  b, |z|  c,
Capitolo 12 661

Figura 12.31: Ellissoide

la superficie è interamente contenuta dal parallelepipedo rettangolo le cui facce


sono determinate dai piani x = ±a, y = ±b, z = ±c che sono anche i piani
tangenti all’ellissoide nei suoi vertici. Le intersezioni dell’ellissoide con i piani
x = h, a < h < a, con y = k, b < k < b, e con z = l, c < l < c, sono tutte
ellissi, si lascia per esercizio lo studio della variazione dei loro diametri in relazione
alle equazioni dei piani a cui appartengono.

Nel caso dell’ellissoide, la segnatura della forma quadratica associata alla sua equa-
zione può essere (3, 0) oppure (0, 3) mentre il determinante della matrice simme-
trica B di ordine 4 ad esso associata è strettamente negativo, det(B) < 0.

Si verifica facilmente che le equazioni parametriche dell’ellissoide sono:


8
< x = a cos v cos u
y = b cos v sin u
:
z = c sin v, 0  u, v < 2⇡.

2. Ellissoide immaginario di equazione in forma canonica:


x2 y2 z2
= 1.
a2 b2 c2
662 Coni, Cilindri, Superfici di Rotazione e Quadriche

È evidente che se a = b = c si ottiene la sfera immaginaria.

Nel caso dell’ellissoide immaginario, la segnatura della forma quadratica associa-


ta alla sua equazione può essere (3, 0) oppure (0, 3) mentre il determinante della
matrice simmetrica B di ordine 4 ad esso associata è sempre strettamente positivo,
det(B) > 0.
3. Iperboloide ad una falda o iperboloide iperbolico di equazione in forma canoni-
ca:

x2 y2 z2
+ = 1,
a2 b2 c2
si tratta della superficie rappresentata all’esterno nella Figura 12.32.
Si osservi che l’iperboloide di rotazione ad una falda introdotto nell’Esempio 12.12
è un caso particolare di questa superficie in cui a = b. La stessa superficie di
rotazione si è anche ottenuta, in modo diverso, nell’equazione (12.12). Si lascia per
esercizio, invece, lo studio della superficie in cui a = b = c.

L’iperboloide ad una falda è una superficie simmetrica rispetto ai piani coordinati,


agli assi coordinati e all’origine del sistema di riferimento. Due assi soltanto inter-
secano la superficie e precisamente l’asse x nei punti A = (a, 0, 0), A0 = ( a, 0, 0)
e l’asse y nei punti B = (0, b, 0), B 0 = (0, b, 0), pertanto la superficie ha solo
quattro vertici. Nel Paragrafo 12.6.1 si dimostrerà che l’iperboloide ad una falda
non solo è una superficie rigata ma è doppiamente rigata, ossia per ogni suo punto
passano due rette ad essa appartenenti.

Le intersezioni dell’iperboloide ad una falda con i piani x = h, h 2 R, sono


ellissi (delle quali la più piccola ha centro nell’origine e viene detta linea di gola
o linea di strizione), mentre le sue intersezioni con i piani y = k, k 2 R, e z =
l, l 2 R, sono iperboli. Si lascia per esercizio la determinazione delle equazioni
delle coniche cosı̀ ottenute e il confronto tra le lunghezze dei diametri delle ellissi
e delle iperboli in relazione alle equazioni dei piani a cui esse appartengono. I
piani passanti per l’asse z intersecano l’iperboloide ad una falda in iperboli i cui
asintoti individuano un cono con vertice nell’origine, detto cono asintotico, che è
di conseguenza posizionato all’interno della superficie ed ha equazione:

x2 y 2 z2
+ 2 = 0.
a2 b c2
Nella Figura 12.32 sono rappresentati sia un iperboloide ad una falda sia il suo cono
asintotico.
Capitolo 12 663

Figura 12.32: Iperboloide ad una falda e il suo cono asintotico


664 Coni, Cilindri, Superfici di Rotazione e Quadriche

Nel caso dell’iperboloide ad una falda, la segnatura della forma quadratica asso-
ciata alla sua equazione può essere (2, 1) oppure (1, 2) mentre il determinante
della matrice simmetrica B di ordine 4 ad esso associata è strettamente positivo,
det(B) > 0.
Si verifica facilmente le equazioni parametriche dell’iperboloide ad una falda sono:
8
< x = a cosh v cos u
y = b cosh v sin u
:
z = c sinh v, 0  u < 2⇡, v 2 R.

4. Iperboloide a due falde di equazione in forma canonica:

x2 y2 z2
= 1,
a2 b2 c2
si tratta della superficie rappresentata all’interno del cono nella Figura 12.33. Si
osservi che l’iperboloide di rotazione a due falde di equazione (12.16) è un caso
particolare di questa superficie in cui b = c.

Anche l’iperboloide a due falde è una superficie simmetrica rispetto ai piani coordi-
nati, agli assi coordinati e all’origine, un solo asse la interseca, precisamente l’asse
x nei punti A = (a, 0, 0), A0 = ( a, 0, 0) pertanto la superficie ha solo due ver-
tici. Le sue sezioni con i piani x = h, dove h > a e h < a, sono ellissi; con i
piani y = k e z = l sono iperboli, mentre i piani passanti per l’asse x intersecano
l’iperboloide a due falde in iperboli i cui asintoti costituiscono un cono, detto an-
che in questo caso cono asintotico, che racchiude la superficie al suo interno ed ha
equazione:

x2 y2 z2
= 0.
a2 b2 c2
Nel caso dell’iperboloide a due falde, la segnatura della forma quadratica associa-
ta alla sua equazione può essere (1, 2) oppure (2, 1) mentre il determinante del-
la matrice B, simmetrica di ordine 4, ad esso associata è strettamente negativo,
det(B) < 0.
Si verifica facilmente che le equazioni parametriche dell’iperboloide a due falde
sono:
8
< x = a cosh u cosh v
y = b sinh u cosh v
:
z = c sinh v, u, v 2 R.
Capitolo 12 665

Figura 12.33: Iperboloide a due falde e il suo cono asintotico


666 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.34: Paraboloide ellittico

Se Q è una quadrica propria e si rappresenta con un’equazione di tipo (12.23) Q è una


delle seguenti superfici.

5. Paraboloide ellittico di equazione in forma canonica:

x2 y2
+ = 2z,
a2 b2

rappresentato nella Figura 12.34. Si osservi che il paraboloide di rotazione di equa-


zione (12.17) è un esempio di paraboloide ellittico, in cui la matrice A ad esso asso-
ciata ha un autovalore di molteplicità 2 (a = b). Il paraboloide ellittico è una super-
ficie simmetrica rispetto ai piani coordinati di equazioni x = 0, y = 0 e all’asse z ,
è contenuta nel semispazio della semiretta positiva dell’asse z ed ha perciò un solo
vertice nell’origine. Le curve intersezione della superficie con i piani di equazione
x = h, h 2 R, h > 0, sono ellissi, si lascia per esercizio la determinazione dei
vertici e dei diametri di queste ellissi in relazione al piano a cui esse appartengono,
invece il piano x = 0 è tangente alla superficie nell’origine. Le curve intersezione
del paraboloide ellittico con i piani di equazione y = k e z = l, k, l 2 R sono
parabole.
Capitolo 12 667

Nel caso del paraboloide ellittico, la segnatura della forma quadratica associata alla
sua equazione può essere (2, 0) oppure (0, 2), quindi la forma quadratica è dege-
nere (det(A) = 0, con A matrice associata alla forma quadratica) mentre il deter-
minante della matrice simmetrica B di ordine 4 ad esso associata è strettamente
negativo, det(B) < 0.
Si verifica facilmente che le equazioni parametriche del paraboloide ellittico sono:
8
< x=au
y=bv
:
z = 12 (u2 + v 2 ), u, v 2 R.

6. Paraboloide iperbolico o a sella di equazione in forma canonica:

x2 y2
= 2z,
a2 b2
rappresentato nella Figura 12.35. Si nota subito che questa superficie non può esse-
re una superficie di rotazione, perché? La superficie è simmetrica rispetto ai piani
coordinati yz e xz, è anche simmetrica rispetto all’asse x. Se si interseca la super-
ficie con il piano coordinato xy di equazione z = 0 si ottiene la conica degenere di
equazione: 8
< z=0
>
2
: x
> y2
=0
a2 b2
formata dall’unione di due rette incidenti, che quindi appartengono al paraboloi-
de iperbolico. Nel Paragrafo 12.6.1 si dimostrerà che effettivamente il paraboloi-
de iperbolico è un esempio di superficie rigata e, come l’iperboloide iperbolico, è
doppiamente rigata.
L’intersezione del paraboloide iperbolico con il piano coordinato yz è la parabola
di equazioni:

y=0
(12.26)
x2 = 2a2 z,

mentre l’intersezione del paraboloide iperbolico con il piano coordinato yz è la


parabola di equazioni: ⇢
x=0
(12.27)
y 2 = 2b2 z.
668 Coni, Cilindri, Superfici di Rotazione e Quadriche

-1

-1
-2
0

1 -1
0
1

Figura 12.35: Paraboloide iperbolico o a sella

Se si interseca, invece, il paraboloide iperbolico con i piani di equazione x = k, k 2


R, k 6= 0, si ottengono le parabole di equazioni:
8
< x=k
>
✓ ◆ (12.28)
> 2 2 k2
: y = 2b z .
2a2

Operando mediante la traslazione di equazioni:


8
>
> x=X
>
>
<
y=Y
>
>
>
> k2
: z =Z
2a2

si ottiene che, nel riferimento R0 = (O, X, Y, Z), la parabola (12.28) ha equazioni:


(
X=k
Y2 = 2b2 Z,
Capitolo 12 669

quindi essa coincide con la parabola di equazioni (12.27) ma con il vertice nel punto
✓ ◆
k2
V = k, 0, 2 ,
2a

scritto nel riferimento R = (O, x, y, z). Situazione analoga si verifica intersecando


il paraboloide iperbolico con i piani di equazione y = h, h 2 R, h 6= 0, ottenendo
parabole tutte uguali a quella di equazioni (12.26). Se si interseca, invece, il para-
boloide iperbolico con i piani di equazione z = l, l 2 R, l 6= 0 si ottengono delle
iperboli. Si lascia per esercizio la determinazione dei loro vertici e la verifica che
essi appartengono (nel caso di l > 0) alla parabola di equazioni (12.26). Che cosa
succede nel caso l < 0? Gli asintoti di tali iperboli originano un cono degenere di
equazione:

x2 y2
=0
a2 b2
che in realtà consiste nell’unione di due piani incidenti.
Nel caso del paraboloide iperbolico, la segnatura della forma quadratica associata
alla sua equazione è (1, 1), quindi la forma quadratica è degenere (det(A) = 0,
con A matrice associata alla forma quadratica) mentre il determinante della matrice
simmetrica B di ordine 4 ad esso associata è strettamente positivo, det(B) > 0.
Le equazioni parametriche del paraboloide iperbolico sono:
8
< x=au
>
y=bv
: z = 1 (u2
>
v 2 ), u, v 2 R.
2

Se la quadrica Q è degenere, cioè se il determinante della matrice simmetrica B di ordine


4 ad essa associata si annulla, det(B) = 0, allora Q è una delle seguenti superfici:

1. cono quadrico di equazione in forma canonica:

↵x2 + y 2 + z 2 = 0

con ↵ 6= 0, 6= 0, 6= 0. In questo caso la quadrica è un cono. Si usa il termine


“quadrico” solo per indicare che questo cono si rappresenta mediante un’equazione
di secondo grado nelle variabili x, y, z. Si osservi che si ottengono coni quadrici di
rotazione per coppie di coefficienti uguali tra di loro (cfr. Es. 12.10).
670 Coni, Cilindri, Superfici di Rotazione e Quadriche

Nel caso del cono quadrico la segnatura della forma quadratica ad esso associata
può essere (3, 0) o (0, 3), in questo caso si ottiene un cono immaginario, oppure la
segnatura può essere (2, 1) o (1, 2) allora si ottiene un cono reale.

2. Cilindro quadrico le cui equazioni, in forma canonica, possono essere del tipo
seguente:

x2 y2
+ = 1,
a2 b2

ossia il cilindro immaginario;

x2 y2
+ = 1,
a2 b2

ossia il cilindro ellittico;. Se a = b si ottiene il cilindro quadrico di rotazione (cfr.


Es. 12.11).

x2 y2
= 1,
a2 b2

ossia il cilindro iperbolico;

x2 = 2py,

ossia il cilindro parabolico;


Le denominazioni di cilindro ellittico, iperbolico, parabolico dipendono dal fatto
che ogni piano, non parallelo ad una generatrice, interseca il cilindro rispettivamen-
te secondo un’ellisse, un’iperbole, una parabola.
Le forme quadratiche associate ai cilindri quadrici sono degeneri (det(A) = 0
con A matrice associata alla forma quadratica). Se la segnatura è (2, 0) o (0, 2)
si ottengono sia il cilindro immaginario sia il cilindro ellittico. Le due superfici
possono essere classificate in modo diverso solo considerando la segnatura della
forma quadratica associata alla matrice simmetrica B di ordine 4 che individua le
loro equazioni che nel caso del cilindro immaginario è (3, 0) e nel caso del cilindro
ellittico è (2, 1).
Se la segnatura della forma quadratica associata ai cilindri quadrici è (1, 1) si
ottiene il cilindro iperbolico, se la segnatura è (1, 0) si ottiene il cilindro parabolico.
Capitolo 12 671

3. Unione di due piani incidenti, paralleli o coincidenti, anche immaginari, con equa-
zioni, in forma canonica del tipo:

↵x2 + y 2 = 0, ↵, 2 R, ↵ 6= 0, 6= 0,

x 2 = a2 , a 2 R, a 6= 0

x2 = 0.

Riassumendo, si può ottenere la classificazione delle quadriche attraverso il determinante


della matrice B e il rango delle matrici A e B ad esse associate nel modo seguente, tenuto
conto che det(B), rank(A), rank(B) sono invarianti per rototraslazioni nello spazio.
8 8 ⇢
>
> >
> ellissoide, sfera,
>
> >
> det(B) < 0 :
>
> < iperboloide a due falde,
>
>
>
> rank(A) = 3 : ⇢
>
> >
>
>
> >
> ellissoide immaginario,
< : det(B) > 0 :
rank(B) = 4 iperboloide ad una falda;
• :
(det(B) 6= 0) > >
>
>
>
> 8
>
> < det(B) < 0 : paraboloide ellittico,
>
>
>
> rank(A) = 2 :
>
> :
: det(B) > 0 : paraboloide iperbolico.

(
rank(B) = 3 rank(A) = 3 : cono reale o immaginario;
• :
(det(B) = 0) rank(A) = 2 : cilindro reale o immaginario.

(
rank(B) = 2 rank(A) = 2 : unione di due piani incidenti reali o immaginari;
• :
(det(B) = 0) rank(A) = 1 : unione di due piani paralleli reali o immaginari.

rank(B) = 1
• : rank(A) = 1 : unione di due piani coincidenti reali o immaginari.
(det(B) = 0)
672 Coni, Cilindri, Superfici di Rotazione e Quadriche

Osservazione 12.7 Per differenziare ulteriormente, per esempio, le superfici elencate nel
primo caso della tabella precedente, vale a dire ellissoide, sfera, iperboloide a due falde,
tutte ugualmente caratterizzate dall’avere rank(A) = 3, det(B) > 0, è necessario consi-
derare la segnatura della forma quadratica a cui la matrice A è associata, come specificato
nell’elenco delle quadriche scritte in forma canonica.

Esercizio 12.19 Ridurre in forma canonica la quadrica Q di equazione:

Q : 4x2 + 4xy + 4xz + 4y 2 + 4yz + 4z 2 + 4x + 4y + 8z + 3 = 0.

Soluzione Le matrici A e B associate alla quadrica sono:


0 1
0 1 4 2 2 2
4 2 2 B 2 4 2 2 C
A= @ 2 4 2 A, B=B
@ 2
C.
2 4 4 A
2 2 4
2 2 4 3
Poiché det(B) = 32, det(A) = 32, la quadrica Q può essere un ellissoide o un
iperboloide ad una o due falde. Gli autovalori di A con le rispettivie molteplicità sono:

1 = 2, m 1 = 2; 2 = 8, m 2 = 1;
quindi Q è un ellissoide di rotazione. Una base ortonormale di autovettori è:
✓✓ ◆ ✓ ◆ ✓ ◆◆
1 1 1 2 1 1 1 1
p , 0, p , p ,p , p , p ,p ,p .
2 2 6 6 6 3 3 3
Si definisce quindi la rotazione degli assi cartesiani di equazioni:
0 1 0 1 0 10 1
1 0 1 1
x x p p p x0
B C B C B 2 6 3 C
CB C
B C B C B
B CB C
B C B C B C
B C B 0 C B 2 C
1 CB C
B y C=PB y C=B 0 p p CB y C
0
B C B C B B C
B C B C B 6 3 CB C
B C B C B CB C
@ A @ A B
@
C@
A A
1 1 1
z z0 p p p z 0
2 6 3
e l’equazione della quadrica nel riferimento R0 = (O, x0 , y 0 , z 0 ) è:
0 10 0 1 0 1
2 0 0 x x0
x0 y 0 z 0 @ 0 2 0 A @ y0 A + 4 4 8 P @ y0 A + 3 = 0
0 0 8 z0 z0
Capitolo 12 673

ossia:

4 4 16
2(x0 )2 + 2(y 0 )2 + 8(z 0 )2 p x0 p y 0 + p z 0 + 3 = 0.
2 6 3
Operando con il metodo del completamento dei quadrati si ha:
✓ ◆2 ✓ ◆2 ✓ ◆2
0 1 0 1 10
2 x p +2 y p +8 z + p 1 = 0.
2 6 3
Mediante la traslazione di equazioni:
0 1 0 1 0 1
0 1
X x p
B C B C B 2 C
B C B C B C
B C B C B C
B C B 0 C B 1 C
B Y C=B y C+B p C C,
B C B C B
B C B C B 6 C
B C B C B C
@ A @ A B
@
C
1 A
Z z0 p
3
la quadrica assume, nel riferimento R00 = (O0 , X, Y, Z) l’equazione:

2X 2 + 2Y 2 + 8Z 2 = 1.
Si tratta proprio di un ellissoide di rotazione. La rototraslazione che permette di passare
dal riferimento iniziale R al riferimento R00 è:
0 1 0 1 1 1
10 1 0 1
x p p p X 0
B C B 2 6 3 C
CB C B C
B C B B CB C B C
B C B C B C B C
B C B 2 1 C B C B C
B y C=B 0 p p C B Y C + B 0 C,
B C B 6 3 CB C B C
B C B CB C B C
B C B C@ B C B C
@ A @ A A @ A
1 1 1
z p p p Z 1
2 6 3
quindi l’origine O0 del riferimento R, che è anche il centro dell’ellissoide, ha coordinate
(0, 0, 1) nel riferimento iniziale R.

12.6.1 Quadriche rigate


Lo scopo di questo paragrafo è quello di dimostrare che due quadriche proprie, preceden-
temente introdotte, l’iperboloide ad una falda e il paraboloide iperbolico, sono esempi di
674 Coni, Cilindri, Superfici di Rotazione e Quadriche

superfici rigate (cfr. Par. 12.5) essendo interamente costituite da una doppia famiglia di
rette. D’altra parte, entrambe queste superfici possono essere ottenute anche come luogo
geometrico di punti, come sarà specificato nel Teoremi 12.4 e 12.5.

12.6.2 L’iperboloide ad una falda


L’equazione dell’iperboloide ad una falda:

x2 y2 z2
I: + = 1,
a2 b2 c2
superficie già studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.32, si può anche
scrivere come:
⇣x z⌘⇣x z⌘ ⇣ y⌘⇣ y⌘
I: + = 1+ 1 . (12.29)
a c a c b b
Dalla precedente uguaglianza di due prodotti si ricavano, per esempio, le espressioni:
x z y
1
a c b
1. = = 1, 1 2 R,
y x z
1+ +
b a c
(12.30)
x z y
1+
a c b
2. = = 2, 2 2 R,
y x z
1 +
b a c
ciascuna delle quali conduce alle due famiglie di rette seguenti:
8 x z ⇣ y⌘
>
< a c = 1 1+ b
>
1. ⇣ ⌘
>
: 1 y = 1 x+z ,
>
b a c
8 x z ⇣ ⌘ (12.31)
> y
< a c = 2 1 b
>
2. ⇣ ⌘
>
: 1+ y = 2 x + z ,
>
b a c
che, al variare di 1 , 2 2 R appartengono all’iperboloide I. Si osservi che, a partire
da (12.29), ogni altra combinazione dell’uguaglianza darebbe luogo alle stesse equazioni
ottenute in (12.30). Per ogni punto P0 2 I si individuano due parametri 1 e 2 , di
Capitolo 12 675

conseguenza si determinano due rette passanti per P0 , una per ogni famiglia di rette in
(12.31) ma entrambe appartenenti a I , pertanto I è una superficie doppiamente rigata. Le
due famiglie di rette di equazioni (12.31) prendono il nome di schiere di rette appartenenti
all’iperboloide I.
Si vuole, ora, studiare la posizione reciproca di due rette r1 e r10 appartenenti alla stessa
schiera, per esempio alla schiera 1. in (12.31), corrispondenti ai parametri 1 e 01 ; siano:
8 x z ⇣ y⌘
>
> = 1 +
< a c 1
b
r1 : ⇣ ⌘
>
: 1 y = 1 x+z ,
>
b a c
8 x z ⇣ y⌘
> 0
< a c = 1 1+ b
>
0
r1 : ⇣ ⌘
>
: 1 y = 0 x+z .
>
1
b a c

Esse non sono incidenti perché ogni punto P0 di I determina un solo valore di 1 , quindi
una sola retta della schiera considerata. Le rette r1 e r10 non sono parallele infatti r1 è
parallela al vettore:

i j k

1 1 ✓ 2 2

1
1 +1 2 1 1+ 1
a b c = , , ,
bc ac ab
1 1 1
a b c
mentre r10 è parallela al vettore:

i j k

1 0
1 ✓ 02 02 ◆
1 1 +1 2 01 1 + 1
a b c = , , ,
bc ac ab
0 0
1 1 1
a b c

di conseguenza le rette r1 e r10 sono sghembe. Concludendo, le rette appartenenti alla


stessa schiera di rette sull’iperboloide iperbolico sono tra loro sghembe, mentre per ogni
punto dell’iperboloide iperbolico passano due rette, una di una schiera e l’altra dell’altra
676 Coni, Cilindri, Superfici di Rotazione e Quadriche

4
2

-2

-4

-2

-4

-4
-2
0

Figura 12.36: Iperboloide ad una falda con le due schiere di rette


Capitolo 12 677

schiera, interamente contenute sull’iperboloide iperbolico stesso. La situazione geome-


trica è molto ben illustata nella Figura 12.36 realizzata con il programma di calcolo sim-
bolico Mathematica dal Prof. S. Berardi del Dipartimento di Informatica dell’Università
di Torino.

Esercizio 12.20 Dato l’iperboloide ad una falda:

x2 y2
I: + z 2 = 1, (12.32)
4 9
ricavare le equazioni delle rette r e s che passano per il punto P = (2, 3, 1) 2 I e che
giacciono sull’iperboloide. Determinare, inoltre, l’equazione del piano ⇡ contenente le
rette r e s.

Soluzione Sia r la retta generica passante per il punto P :


8
< x = 2 + lt
r: y = 3 + mt (12.33)
:
z = 1 + nt, t 2 R,

si vogliono determinare i suoi parametri direttori (l, m, n) in modo tale che r appartenga
ad I . Sostituendo le equazioni (12.33) in (12.32) si ha:

(2 + lt)2 (3 + mt)2
+ (1 + nt)2 = 1,
4 9
da cui: ✓ ◆ ✓ ◆
l2 m2 2 2 2
+ n t + l+ m 2n t = 0.
4 9 3
Si perviene quindi al sistema di secondo grado:
8
> 2
> l + m 2n = 0
< 3
> 2 2
: l +m
>
n2 = 0,
4 9
le cui due soluzioni sono:
⇢ ⇢
m=0 m 3n = 0
l = 2n, l = 0,

in corrispondenza delle quali si ottengono le rette r passante per P = (2, 3, 1), parallela
al vettore r = (2, 0, 1) e s passante per P = (2, 3, 1), parallela al vettore s = (0, 3, 1).
678 Coni, Cilindri, Superfici di Rotazione e Quadriche

Si ottiene lo stesso risultato decomponendo l’equazione dell’iperboloide (12.32) nel modo


seguente:
⇣x ⌘⇣x ⌘ ⇣ y⌘⇣ y⌘
z +z = 1 1+
2 2 3 3
e ricavando le equazioni delle due schiere di rette ad esso appartenenti:

8 x ⇣y⌘ 8 x ⇣ y⌘
>
> z= 1 >
> z= 1+
< 2 1
3 < 2 2
3
> ⇣ ⌘ > ⇣x ⌘
: 1+ y = 1 x +z ,
>
1 2 R,
>
: 1 y
= 2 +z , 2 2 R.
3 2 3 2

Sostituendo in entrambe le equazioni delle schiere di rette le coordinate del punto P si


ricavano i valori di 1 e di 2 e si perviene cosı̀ alle equazioni delle rette r e s, una per
ciascuna schiera.

Il piano ⇡ passante per P = (2, 3, 1) e parallelo ad r e a s ha equazione:

x 2 y 3 z 1
2 0 1 = 3x + 2y 6z 6 = 0.
0 3 1

Il teorema che segue afferma che l’iperboloide ad una falda può anche essere ottenuto
come luogo geometrico di punti. Anziché proporre la dimostrazione (che è comunque
un esercizio e viene lasciata al Lettore) si preferisce ricavare, nell’Esercizio 12.21, un
esempio dello stesso luogo geometrico.

Teorema 12.4 L’iperboloide ad una falda è il luogo delle rette che si appoggiano con-
temporaneamente a tre rette che sono sghembe a due a due.

Esercizio 12.21 Date le rette:


8 8 8
< x=0 < x = t0 < x= 1
r: y=0 s: y=1 h: y = t00
: : :
z = t, t 2 R, z = 0, t0 2 R, z = 1, t00 2 R,

verificare che sono sghembe a due a due e determinare il luogo delle rette che si appog-
giano contemporaneamente ad r, s, h.
Capitolo 12 679

Soluzione È immediato verificare che le rette date sono a due a due sghembe (è suf-
ficiente notare che non sono parallele e che per esempio le rette s e h non passano per
l’origine, a differenza della retta r, e che s e h non sono incidenti).

La retta che unisce il punto generico di s con il punto generico di h ha equazione:

x t0 y 1 z
= = . (12.34)
t0 + 1 1 t00 1
Se si impone che questa retta passi per il punto generico di r si ottengono le uguaglianze:

t0 1
0
= = t,
t +1 1 t00
che stabiliscono la condizione che devono verificare i parametri t, t0 e t00 affinché siano
allineati tre punti di r, s ed h rispettivamente. Da esse si ottengono le relazioni:

t 1+t
t0 = , t00 = .
1 t t
Sostituendo nell’equazione (12.34), segue:

t
x+
1+t = y 1 = z,
t t+1
+1 1
1 t t
o, con ovvie semplificazioni, l’espressione:

x(1 + t) + t = t(y 1) = z

che rappresenta la generica retta del luogo richiesto, al variare del parametro t. La retta
precedente si può scrivere come intersezione dei due piani:

x + z = t(x + 1)
t(y 1) = z,
dai quali si elimina facilmente il parametro t e si ottiene l’equazione cartesiana del luogo:

S : xy + xz + yz x = 0.

Si tratta, evidentemente, di una quadrica che si può identificare con la riduzione a forma
canonica della sua equazione. A tale scopo si considera la matrice A associata alla forma
quadratica di S :
680 Coni, Cilindri, Superfici di Rotazione e Quadriche

0 1
1 1
0
B 2 2 C
B C
B C
B 1 1 C
A=B 0 C
B 2 2 C
B C
@ 1 1 A
0
2 2
i cui autovalori, con le rispettive molteplicità, sono:

1
1 = , m 1 = 2; 2 = 1, m 2 = 1.
2
Gli autospazi corrispondenti sono rispettivamente V 1 = L(u1 , u2 ), V 2 = L(u3 ), con:

u1 = ( 1, 1, 0), u2 = ( 1, 0, 1), u3 = (1, 1, 1).

Utilizzando il processo di ortonormalizzazione di Gram–Schmidt per il primo autospa-


zio e calcolando il versore di u3 si ottiene una base ortonormale B 0 = (u01 , u02 , u03 ) di
autovettori la cui matrice ortogonale P (con det(P ) = 1) del cambiamento di base da
B = (i, j, k) a B 0 è:
0 1
1 1 1
p p p
B 2 6 3 C
B C
B C
B 1 1 1 C
B p C
P =B p p C.
B 2 6 3 C
B C
B C
@ 2 1 A
0 p p
6 3
Operando su R = (O, x, y, z) con il cambiamento di riferimento dato dalla rotazione di
equazioni:
0 1 0 0 1
x x
@ y A = P @ y0 A
z z0
si perviene all’equazione della quadrica:

1 0 2 1 0 2 1 1 1
(x ) (y ) + (z 0 )2 + p x0 p y0 p z 0 = 0.
2 2 2 6 3
Procedendo con il metodo del completamento dei quadrati si ha:
Capitolo 12 681

✓ ◆2 ✓ ◆2 ✓ ◆2
1 0 1 1 0 1 0 1 1
x p y +p + z p + =0
2 2 2 6 2 3 4
ed applicando la traslazione di equazioni:
0 1 0 1 0 1
X x0 1
B C B C B p C
B C B C B 2 C
B C B C B 1 C
B C B 0 C B p C
B Y =
C B y C+B C
B C B C B 6 C
B C B C B C
@ A @ A @ 1 A
0 p
Z z 2 3
si ha l’equazione della quadrica in forma canonica:

2X 2 + 2Y 2 4Z 2 = 1.

Si tratta, pertanto, di un iperboloide ad una falda.

12.6.3 Il paraboloide iperbolico


L’equazione del paraboloide iperbolico:

x2 y2
P: 2 = 2z,
a b2
superficie già studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.35, può essere
decomposta come:
⇣x y⌘⇣x y⌘
+ = 2z. (12.35)
a b a b
L’equazione (12.35), in realtà, equivale alle due equazioni seguenti:

x y 2z
+ = x y = 1, 1 2R (12.36)
a b
a b
e:
x y 2z
= x y = 2, 2 2 R. (12.37)
a b +
a b
D’altra parte, (12.36) può essere scritta come:
682 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.37: Le due schiere di rette sul paraboloide iperbolico

8 x y
>
< a+b = 1
>
⇣ (12.38)
>
: 2z = 1 x
> y⌘
, 1 2R
a b
e (12.37) come: 8 x
> y
>
< a = 2
b
⇣x (12.39)
>
>
: 2z = y⌘
2 + , 2 2 R.
a b
I due sistemi lineari (12.38) e (12.39) rappresentano due famiglie di rette che, al variare
di 1 e 2 in R appartengono al paraboloide iperbolico, in quanto ne verificano la sua
equazione. Il paraboloide iperbolico, con le due famiglie di rette appena determinate, è
rappresentato nella Figura 12.37, tratta da [11].
Come nel caso dell’iperboloide iperbolico, ciascuna di queste famiglie di rette prende il
nome di schiera di rette del paraboloide iperbolico, Si vuole ora studiare la posizione
reciproca delle rette all’interno della stessa schiera. Si consideri, per esempio, la schiera
di rette (12.38). Tutte le rette di tale schiera, al variare di 1 in R, appartengono al piano:
x y
+ = 1,
a b
Capitolo 12 683

quindi appartengono a piani paralleli ma sono rette sghembe perchè i piani:


⇣x y⌘
2z = 1
a b
non sono paralleli. Lo stessa situazione si verifica per le rette appartenenti alla schiera
(12.39). Inoltre, coppie di rette di schiere diverse sono complanari, infatti per ogni punto
P0 del paraboloide P esistono due rette (una appartenente a (12.38) una appartenente
a (12.39)) passanti per P0 e interamente contenute in P , pertanto P è una superficie
doppiamente rigata.
Esercizio 12.22 Nello spazio sono date le rette sghembe:
8 8
>
< x=0 < x= 1
r: s: 2
> 1 :
: y= , z = 0.
2
Determinare il luogo dei centri delle sfere tangenti, contemporaneamente, a r e a s.
Soluzione Il centro C = (x0 , y0 , z0 ) della sfera deve verificare la condizione d(C, r) =
d(C, s). Sia ⇡1 il piano per C ortogonale ad r, che ha ha equazione z = z0 , l’intersezione
di ⇡1 con r è il punto A dato da:
✓ ◆
1
A = 0, , z0 .
2
Sia ⇡2 il piano per C ortogonale a s, che ha equazione x = x0 , l’intersezione di ⇡2 con
s è il punto B dato da: ✓ ◆
1
B = x0 , ,0 .
2
Allora d(C, r) = d(C, A) e d(C, s) = d(C, B), perciò da d(C, A) = d(C, B) si ottiene:

x20 z02 = 2y0


che è l’equazione cartesiana di un paraboloide iperbolico. La situazione geometrica è
illustrata nella Figura 12.38.

Il teorema che segue afferma che il paraboloide iperbolico può anche essere ottenuto
come luogo geometrico di punti. Anziché proporre la dimostrazione (che è comunque
un esercizio e viene lasciata al Lettore) si preferisce ricavare, nell’Esercizio 12.23, un
esempio di tale luogo geometrico.
Teorema 12.5 Il paraboloide iperbolico si può ottenere come luogo geometrico delle
rette che si appoggiano a due rette sghembe e sono tutte parallele ad un piano.
684 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.38: Esercizio 12.22


Capitolo 12 685

12.7 Esercizi di riepilogo svolti


Esercizio 12.23 Dati il piano ⇡ : x y = 0 e le rette:
⇢ p ⇢ p
x
p y p 2z = 0 x
p y +p 2z = 0
r: s:
2x + 2y 1 = 0, 2x + 2y + 1 = 0,
verificare che r e s sono sghembe e determinare il luogo delle rette che si appoggiano
contemporaneamente ad r e a s e sono parallele al piano ⇡ .

Soluzione Si vede facilmente che le rette r e s sono sghembe perché giacciono su piani
paralleli e sono ottenute dall’intersezione con altri due piani tra di loro non paralleli. Le
equazioni parametriche di r e di s sono:
8 8
> 1 + 2t >
> 1 2t0
>
> x = p >
> x = p
>
< 2 2 >
< 2 2
r: 1 2t s: 1 + 2t0
> y = p > y = p
>
> 2 2 >
> 2 2
>
: >
>
z = t, t 2 R; : z = t , t0 2 R.
0

La retta che unisce il punto generico di r con il punto generico di s ha perciò equazione:

1 + 2t 1 2t
x p y p
2 2 2 2 z t
0 = 0 = ,
1 + 2t 1 + 2t 1 2t 1 2t t t0
p + p p + p
2 2 2 2 2 2 2 2
che si semplifica nell’espressione seguente:
p p
2 2x (1 + 2t) 2 2y (1 2t) z t
0
= 0
= .
2 + 2t + 2t 2 2t 2t t t0
Se si impone poi che tale retta sia parallela al piano ⇡ , si ottiene t = t0 , che permette di
scrivere l’equazione precedente nella forma:
p p z t
2 2x (1 + 2t) = 2 2y (1 2t) =
t
e rappresenta, al variare del parametro t, la generica retta del luogo geometrico richiesto.
Essa si può anche scrivere come intersezione dei due piani:
⇢ p p
2 p2x (1 + 2t) 2 2y + (1 2t) = 0
t( 2y 1 + 2t) z + t = 0.
686 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.39: Esercizio 12.24

Dall’equazione del primo piano si ricava:


p
2t = 2(x y)

e sostituendo l’espressione di t nell’equazione del secondo piano si perviene a:

x2 y 2 = z,

che rappresenta l’equazione del luogo geometrico. Come si può osservare, si ottiene un
paraboloide iperbolico.

Esercizio 12.24 – Il cono-cuneo di Wallis – Sono dati una retta a, una circonferenza C
che giace su un piano ⇡ , parallelo ad a, il cui centro appartiene alla retta ortogonale a ⇡
condotta da un punto di a ad un piano ⇡ 0 perpendicolare ad a. Determinare l’equazione
del luogo geometrico delle rette che si appoggiano alla circonferenza C , alla retta a e
sono parallele a ⇡ 0 .

Soluzione Per semplicità si scelga a coincidente con l’asse z del riferimento cartesiano
e la circonferenza C sul piano y = k , con centro sull’asse y e raggio r. Detti P un punto
generico di C e Q un punto generico di a, la retta P Q ha equazioni:
Capitolo 12 687

X Y Z z
= = = t.
r cos ' k r sin ' z
Se si impone che a sia parallela al piano z = 0, segue:

r sin ' z = 0, z = r sin '


e quindi le equazioni del luogo richiesto sono:
8
< X = tr cos '
Y = tk
:
Z = r sin ', t 2 R, 0  ' < 2⇡.
Per pervenire all’equazione cartesiana si ricava:
8
>
> kX
>
< = cos '
rY
>
> Z
>
: = sin ',
r
ossia:

(kX)2 Z2
+ = 1,
(rY )2 r2
da cui si ottiene:

Z 2Y 2 + k2X 2 r2 Y 2 = 0.
La superficie appena descritta, che prende il nome di cono-cuneo di Wallis è rappresentata
nella Figura 12.39, si osservi, inoltre, che si tratta di una superficie rigata.

Esercizio 12.25 – Il conoide retto di Plücker – Si considerino


p un’ellisse E con le lun-
ghezze dei semiassi a, b legate dalla relazione a = 2 b e i vertici nei punti A e A0
sull’asse maggiore e nei punti B e B 0 sull’asse minore, il piano ⇡ passante per l’asse
minore AB di E sia inclinato di ⇡/4 sul piano di E e si consideri, inoltre, una retta r
per A ortogonale a ⇡ . (Si osservi che E si proietta ortogonalmente sul piano ⇡ in una
circonferenza). Determinare l’equazione del luogo delle rette che si appoggiano ad E e
ad r e sono parallele al piano ⇡ .

Soluzione Si scelgano il punto A come origine, le rette AB ed r quali assi x e z


rispettivamente. Detti P = (b(1 cos '), b sin ', b sin ') un punto generico dell’ellisse
E e Q = (0, 0, ) un punto generico di r, la retta P Q ha equazione:
688 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.40: Esercizio 12.25

Figura 12.41: Esercizio 12.25


Capitolo 12 689

x y z
= = = t.
b(1 cos ') b sin ' b sin '
Imponendo il parallelismo al piano ⇡ (z = 0), si ricava = b sin ' e le equazioni
parametriche del luogo richiesto sono:
8
< x = tb(1 cos ')
y = tb sin '
:
z = b sin ', t 2 R, 0  ' < 2⇡.
Per ottenere l’equazione cartesiana si calcola:

x2 + y 2 = t2 b2 (1 + cos2 ' 2 cos ' + sin2 ')


= t2 b2 (2 2 cos ') = 2tb[tb(1 cos ')] = 2tbx.
Poichè t = y/z , sostituendo nell’espressione precedente si ha:

(x2 + y 2 )z = 2bxy,
che è l’equazione cercata. La superficie cosı̀ ottenuta prende il nome di conoide retto di
Plücker ed è rappresentata, da due diverse angolazioni, nelle Figure 12.40 e 12.41. Anche
il conoide di Plücker è un esempio di superficie rigata.

Esercizio 12.26 – La superficie dalla volta a sbieco – Si considerino due coniche C1 e


C2 , aventi due punti in comune, situate in piani diversi e sia d una retta che non incontri le
due coniche date. Dimostrare che il luogo geometrico delle rette che si appoggiano con-
temporaneamente a C1 , C2 , d è una superficie rigata, la cui equazione in forma implicita è
un polinomio di sesto grado in x, y, z .

Soluzione Come caso particolare si supponga che C1 e C2 siano due circonferenze,


aventi lo stesso raggio, di centro i punti O1 e O2 , rispettivamente. Gli altri casi sono
lasciati al Lettore per esercizio. Si supponga, inoltre, che C1 e C2 appartengano a piani
paralleli e non perpendicolari alla retta O1 O2 che unisce i loro centri. Si consideri come
direttrice la retta d normale ai due piani, contenenti le circonferenze, e passante per il
punto medio O del segmento O1 O2 . Per ragioni di simmetria il cono che da O proietta C1
contiene anche C2 e, quindi, fa parte del luogo geometrico cercato; escludendolo, rimane,
come elemento dello stesso luogo, una superficie, che si vedrà avere un’equazione di
quarto grado che, per la sua forma particolare, viene detta volta a sbieco. Per ricavare
esplicitamente l’equazione del luogo geometrico si posizioni il riferimento cartesiano con
l’origine nel punto O, la retta d quale asse y e il piano xy contenente O1 , O2 . Siano:
⇢ 2 ⇢ 2
x + z 2 2hx + h2 r2 = 0 x + z 2 + 2hx + h2 r2 = 0
C1 : C2 :
y + k = 0, y k = 0,
690 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.42: Esercizio 12.26

le equazioni di C1 e di C2 . Il piano x = mz , passante per la retta d, incontra C1 e C2 ,


rispettivamente nei punti P = (m , k, ) e Q = (m , k, ) con e che verificano le
equazioni:
8
2 2
>
< (1 + m ) 2hm + h2 r2 = 0
2hm (12.40)
>
: = .
1 + m2
La retta P Q ha equazioni:
(
x = mz
(12.41)
( )(y + k) = 2k(z ).

Eliminando tra le equazioni (12.40) e (12.41) i parametri m, e si ottiene l’equazione


cercata:

[k(x2 + z 2 ) + hxy]2 k 2 [r2 x2 + (r2 h2 )z 2 ] = 0.

Nel Figura 12.42 è rappresentata la volta a sbieco ottenuta ponendo k = 1, h = 2, r = 1.


Capitolo 12 691

Figura 12.43: Elica cilindrica

Esercizio 12.27 – Elicoide retto – Trovare il luogo geometrico delle rette che si appog-
giano all’elica circolare cilindrica di equazioni parametriche:
8
< x = R cos '
y = R sin ' (12.42)
:
z = h', ' 2 R,
e all’asse z e sono parallele al piano xy , al variare del parametro reale '.

Soluzione L’elica circolare cilindrica, rappresentata nella Figura 12.43, è una curva
nello spazio, dalle sue equazioni parametriche (12.42) si vede che, in senso figurato, si
tratta di una circonferenza del piano xy che si avvolge intorno all’asse z con un passo
che varia al variare di h, pertanto la curva giace sul cilindro di equazione x2 + y 2 = R2
da cui la sua denominazione. La retta generica del luogo geometrico richiesto unisce i
punti P e Q dati da:

P = (R cos ', R sin ', h'), Q = (0, 0, h')


ed ha perciò equazioni:
8
< x R cos '
=
y R sin '
=u
R cos ' R sin '
:
z = h', u 2 R.
692 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.44: Esercizio 12.27

Essa si può anche scrivere nella forma parametrica seguente:


8
< x = R cos ' + uR cos '
y = R sin ' + uR sin '
:
z = hu, u, ' 2 R,
che rappresenta, al variare dei parametri reali ' e u, il luogo geometrico richiesto. Si può
vedere questa superficie, detta elicoide retto, rappresentata nella Figura 12.44. Anche
l’elicoide retto è un esempio di superficie rigata.

Esercizio 12.28 – Vite di Saint Gilles – Determinare l’equazione del luogo geometrico
descritto da una circonferenza C avente raggio r, centro in un punto generico dell’elica
circolare cilindrica di equazioni (12.42) e appartenente ad un piano passante per l’asse z.

Soluzione Il piano ⇡, passante per un punto C dell’elica e per l’asse z, ha equazione:

⇡ : x sin ' y cos ' = 0.

Su ⇡ si sceglie il riferimento ortonormale formato da un vettore u1 parallelo a ⇡, sia


u1 = cos 'i + sin 'j, e da un vettore u2 parallelo a ⇡ ed ortogonale a u1 , ad esempio
Capitolo 12 693

Figura 12.45: Esercizio 12.28

u2 = u1 ^ (sin 'i cos 'j) = k. Perciò due versori ortogonali tra di loro e paralleli a
⇡ sono:
u1 u2
v1 = = cos 'i + sin 'j, v2 = = k.
ku1 k ku2 k
Una rappresentazione vettoriale parametrica della circonferenza C sul piano ⇡ è quindi:
P = C + r(cos uv1 + sin uv2 ),

ossia:

P = R cos 'i + R sin 'j + h'k + r[cos u(cos 'i + sin 'j) sin uk],
dalla quale si ottiene la rappresentazione parametrica:
8
< x = R cos ' + r cos ' cos u
S: y = R sin ' + r sin ' cos u
:
z = h' r sin u, u, ' 2 R,

che, al variare di ' e di u, descrive una superficie S, che è il luogo geometrico richiesto
e che, per la sua conformazione, viene detta vite di Saint Gilles ed è rappresentata nella
Figura 12.45.
694 Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.46: Esercizio 12.29

Esercizio 12.29 – Colonna torsa – Determinare l’equazione del luogo geometrico de-
scritto da una circonferenza C, di raggio r, con il centro in un punto generico dell’elica
circolare cilindrica di equazioni (12.42) e appartenente ad un piano ⇡ che si mantiene
ortogonale all’asse z, al variare del parametro ' in R.

Soluzione Sul piano ⇡ passante per un punto C di C ed ortogonale all’asse z si può


scegliere come base ortonormale (i, j). Di conseguenza, la rappresentazione vettoriale
parametrica della circonferenza C di ⇡ con centro C e raggio r è:

P = C + r(cos u i + sin u j),

ossia:

P = R cos ' i + R sin ' j + h' k + r cos u i + r sin u j,

dalla quale si ottiene la rappresentazione cartesiana parametrica:


8
< x = R cos ' + r cos u
S: y = R sin ' + r sin u
:
z = h', u, ' 2 R,
Capitolo 12 695

che, al variare dei parametri ' ed u, genera il luogo geometrico S richiesto che è la
superficie rappresentata nella Figura 12.46 e che prende il nome di colonna torsa per la
sua particolare conformazione.

12.8 Per saperne di più


12.8.1 Piano tangente ad una quadrica in un suo punto
In questo paragrafo si accenna in modo molto intuitivo, senza alcuna pretesa di rigore
matematico, al procedimento da seguire per determinare l’equazione del piano tangente
ad una quadrica in un suo punto, e più in generale del piano tangente ad una superficie in
suo punto. Si otterrà un risultato che estende in modo naturale la formula che permette
di determinare la retta tangente ad una conica in un suo punto non singolare (cfr. Par.
10.6.4). Un esempio di questo tipo è il piano tangente ad una sfera in un suo punto che è
stato ricavato mediante semplici considerazioni geometriche nel Paragrafo 11.7.2. Se ⌃
è la sfera di equazione:

⌃ : x2 + y 2 + z 2 2↵x 2 y 2 z + = 0,

il piano tangente a ⌃ in P0 = (x0 , y0 , z0 ) 2 ⌃ ha equazione (cfr. Par.11.7.2):

(x0 ↵)(x x0 ) + (y0 )(y y0 ) + (z0 )(z z0 ) = 0.

Sviluppando i calcoli indicati si ottiene:

x0 x + y0 y + z0 z ↵x y z x20 y02 z02 + ↵x0 + y0 + z0 = 0

e, tenuto conto dell’appartenenza di P0 a ⌃, segue:

x0 x + y0 y + z0 z ↵(x + x0 ) (y + y0 ) (z + z0 ) + = 0. (12.43)

Se si scrive l’equazione di ⌃ in notazione matriciale:


0 1
x
B y C
x y z 1 BB C
@ z A = 0,
1
con: 0 1
1 0 0 ↵
B 0 1 0 C
B=B
@ 0
C,
A
0 1

696 Coni, Cilindri, Superfici di Rotazione e Quadriche

l’equazione (12.43) del piano tangente a ⌃ in P0 diventa:


0 1
x
B y C
x0 y0 z0 1 B B C
@ z A = 0. (12.44)
1
Si intende dimostrare un teorema che estende la formula (12.44) al caso del piano tangente
ad una quadrica in un suo punto di tipo particolare. Si devono però premettere sia la
definizione formale di piano tangente ad una superficie sia la definizione dei punti della
superficie in cui è possibile considerare il piano tangente, per esempio intuitivamente
è chiaro che non è possibile definire il piano tangente ad un cono nel suo vertice. Si
inizia quindi con la definizione di punto singolare di una quadrica, che estende l’analoga
definizione di punto singolare di una conica (cfr. Def. 10.9).

Definizione 12.10 Sia Q una quadrica di equazione f (x, y, z) = 0, dove f (x, y, z) è il


polinomio di secondo grado in x, y, z che definisce Q, e sia P0 un suo punto. P0 è un
punto singolare di Q se il vettore:
✓ ◆
@f @f @f
(P0 ), (P0 ), (P0 )
@x @y @z
è uguale al vettore nullo, dove con @f /@x,@f /@y , @f /@z si indicano, rispettivamente,
le derivate parziali di f rispetto a x, y, z . In caso contrario il punto P0 si dice regolare.

Esercizio 12.30 1. Si verifichi che il vertice di un cono è un punto singolare.


2. Si verifichi che tutti i punti di una quadrica non degenere sono regolari.

Anche la definizione di piano tangente ad una quadrica in suo punto non singolare estende
la definizione di retta tangente ad una conica in un suo punto (cfr. Def. 10.8) nel modo
seguente.

Definizione 12.11 Il piano tangente ad una quadrica Q in un suo punto non singolare
P0 è il luogo delle rette tangenti in P0 a tutte le curve che giacciono sulla superficie Q e
che passano per P0 .

Osservazione 12.8 È chiaro che una retta r si dice tangente ad una quadrica Q in un suo
punto P0 se la retta r ha due intersezioni coincidenti in P0 con la quadrica Q. Invece se
una retta r interseca una quadrica Q in un solo punto non è detto che sia tangente a Q
in quel punto. Si consideri, ad esempio, l’asse di rotazione di un paraboloide di rotazione
che interseca solo nel vertice del paraboloide il paraboloide stesso senza essere ad esso
tangente.
Capitolo 12 697

Il paragrafo si conclude con la dimostrazione del teorema annunciato.

Teorema 12.6 Sia Q la quadrica di equazione:


0 1
x
B y C
Q: x y z 1 BB C
@ z A = 0,
1

dove 0 1
a11 a12 a13 a14
B a12 a22 a23 a24 C
B=B
@ a13
C
a23 a33 a34 A
a14 a24 a34 a44
indica la matrice simmetrica di ordine 4 ad essa associata. Sia P0 = (x0 , y0 , z0 ) un
punto di Q non singolare, allora il piano ⇡ tangente alla quadrica Q nel suo punto P0
è: 0 1
x
B y C
⇡ : x0 y0 z0 1 B B C
@ z A = 0. (12.45)
1

Dimostrazione Si calcolino le intersezioni della generica retta r passante per P0 di


equazioni parametriche: 8
< x = x0 + lt
r: y = y0 + mt
:
z = z0 + nt, t 2 R,
con la quadrica Q e poichè P0 2 Q, con semplici calcoli si ottiene la seguente equazione
di secondo grado in t:

(a11 l2 + 2a12 lm + a22 m2 + 2a13 ln + a33 n2 + 2a23 mn)t2


+2[a11 x0 l + a12 (x0 m + y0 l) + a22 y0 m + a13 (x0 n + z0 l) + a33 z0 n (12.46)
+a23 (y0 n + z0 m) + a14 l + a24 m + a34 n]t = 0.

Affinché la retta r sia tangente alla quadrica Q nel punto P0 , essa deve avere riunite in
P0 due intersezioni con Q, ciò implica che si annulli il coefficiente di t nell’equazione
(12.46), ossia:

a11 x0 l + a12 (x0 m + y0 l) + a22 y0 m + a13 (x0 n + z0 l) + a33 z0 n + a23 (y0 n + z0 m)


+a14 l + a24 m + a34 n = 0.
698 Coni, Cilindri, Superfici di Rotazione e Quadriche

Tenendo conto delle equazioni parametriche della retta r e del fatto che P0 appartiene
alla superficie Q, svolgendo i calcoli, si ricava:

a11 x x0 + a22 y y0 + a33 z z0 + a12 (x0 y + x y0 ) + a13 (x0 z + x z0 )


(12.47)
+a23 (y0 z + y z0 ) + a14 (x + x0 ) + a24 (y + y0 ) + a34 (z + z0 ) + a44 = 0,

che coincide con l’equazione (12.45).

Osservazione 12.9 1. Si osservi che l’equazione (12.47) si può ottenere estendendo


in modo evidente la regola degli sdoppiamenti introdotta nel Paragrafo 10.8 per
ricavare la retta tangente ad una conica in suo punto, con l’avvertenza che, in questo
caso si devono sdoppiare i termini x2 , y 2 , z 2 nei prodotti x0 x, y0 y, z0 z , i termini
2xy, 2xz, 2yz nelle somme xy0 + x0 y, xz0 + x0 z, y0 z + yz0 e i termini 2x, 2y, 2z
nelle somme x + x0 , y + y0 , z + z0 .

2. L’equazione del piano tangente ad una sfera ⌃ scritta come f (x, y, z) = 0 in un


suo punto P0 = (x0 , y0 , z0 ) si può anche ottenere come:

@f @f @f
(P0 )(x x0 ) + (P0 )(y y0 ) + (P0 )(z z0 ) = 0, (12.48)
@x @y @z

il vettore: ✓ ◆
@f @f @f
(P0 ), (P0 ), (P0 )
@x @y @z

prende il nome di gradiente di f calcolato nel punto P0 .

3. Si dimostra che, nel caso di una superficie S di equazione cartesiana f (x, y, z) = 0,


con f : R3 ! R funzione differenziabile, se per un punto P0 appartenente a S
esistono e non sono nulle le derivate parziali di f, cioè se:
✓ ◆
@f @f @f
(P0 ), (P0 ), (P0 ) 6= o
@x @y @z

allora il piano tangente a S in P0 ha equazione (12.48). Per maggiori dettagli si


rimanda a testi classici di teoria delle superfici differenziabili, quali, ad esempio,
[6] o [11].

Esercizio 12.31 Data la quadrica Q di equazione:

Q : x2 + 2y 2 z 2 + 4x 2y 6z 9 = 0,
Capitolo 12 699

1. precisare di quale tipo di quadrica si tratta.


2. Verificare che il punto A = (1, 1, 0) appartiene a Q e determinare le equazioni
delle rette tangenti in A a Q e delle rette passanti per A e appartenenti a Q.
3. Scrivere l’equazione del piano ⇡ luogo delle rette tangenti a Q nel punto A e
verificare che ⇡ si può determinare mediante la regola degli sdoppiamenti applicata
all’equazione di Q in relazione al punto A.

Soluzione 1. A partire dall’equazione di Q, utilizzando il metodo del completamento


dei quadrati, si ha:
✓ ◆2
2 1 9
(x + 2) + 2 y (z + 3)2 = ,
2 2
Q è quindi un iperboloide ad una falda con centro nel punto ( 2, 1/2, 3).
2. Si verifica immediatamente che A = (1, 1, 0) 2 Q. Scelta una retta qualsiasi r
passante per A: 8
< x = 1 + lt
r: y = 1 + mt (12.49)
:
z = nt, t 2 R,
la si interseca con Q e si ottiene l’equazione:
(l2 + 2m2 n2 )t2 + (6l 6m 6n)t = 0.

La retta r è tangente a Q in A se e solo se t = 0 è soluzione doppia, ossia se e solo


se:

l m n = 0.
La retta r è contenuta in Q se e solo se:

l2 + 2m2 n2 = 0
l m n = 0,
da cui si hanno le due soluzioni:
⇢ ⇢
m=0 m = 2l
n = l, n = 3l,
in corrispondenza alle quali si ottengono le due rette r1 , parallela a r1 = (1, 0, 1) e
r2 parallela a r2 = (1, 2, 3) che appartengono a Q.
700 Coni, Cilindri, Superfici di Rotazione e Quadriche

3. Imponendo che la retta r di equazioni (12.49) sia tangente a Q nel punto A si


ottiene la relazione l m n = 0 da cui segue che il piano ⇡ è:

⇡ : (x 1) (y + 1) z = 0,

che coincide con l’equazione del piano tangente all’iperboloide nel punto A rica-
vata con la regola degli sdoppiamenti.

Nella Figura 12.47 sono rappresentati l’iperboloide e il piano ad esso tangente nel punto
A. Si vedono anche le due rette di intersezione del piano tangente con la superficie ed è
evidente che il piano tangente all’iperboloide interseca la superficie in più di un punto. Si
può infatti dimostrare che, nel caso dell’iperboloide ad una falda, il piano tangente in ogni
suo punto interseca la superficie nelle due rette (una per ciascuna schiera) passanti per tale
punto e la superficie si dispone in entrambi i semispazi in cui il piano tangente divide lo
spazio. È molto intuitivo riconoscere che questa situazione, invece, non si presenta nel
caso dell’ellissoide in cui il piano tangente in ogni suo punto interseca la superficie solo
nel punto di tangenza e la superficie si dispone in uno solo dei due semispazi in cui il
piano tangente divide lo spazio. La differenza tra le due situazioni geometriche è legata
al concetto di curvatura Gaussiana della superficie, che è una funzione che ad ogni punto
della superficie associa un numero reale che in qualche modo precisa come la superficie
si incurvi in quel punto, nel caso dell’ellissoide la curvatura Gaussiana è positiva in ogni
punto invece nel caso dell’iperboloide ad una falda la curvatura Gaussiana è negativa. Si
possono leggere i dettagli di ciò che è stato ora accennato per esempio su [6] o su [11].
Capitolo 12 701

Figura 12.47: Esercizio 12.30


702 Bibliografia
Bibliografia

[1] H. Anton, C. Rorres: Elementary Linear Algebra: Application Version, Editrice


Wiley, John & Sons, 1991.

[2] A. Baker: Matrix Groups: An Introduction to Lie Group Theory, Springer


Undergraduate Mathematics Series, Editrice Springer, London, 2002.

[3] R.Bellman: Introduction to Matrix Analysis, Editrice McGraw-Hill, New York,


1960.

[4] M. Bramanti, C. D. Pagani, S. Salsa: Matematica Calcolo Infinitesimale e Algebra


Lineare, seconda edizione, Editrice Zanichelli, Bologna, 2004.

[5] H. Cartan: Elementary theory of analytic functions of one or several complex va-
riables translated from the French. Reprint of the 1973 edition. Dover Publications,
Inc., New York, 1995.

[6] M.P. do Carmo: Differential Geometry of Curves and Surfaces, Editrice Prentice
Hall, Inc., Upper Saddle River New Jersey, 1976.

[7] F. Fava, F. Tricerri: Geometria e Algebra lineare, Editrice Levrotto e Bella, Torino,
1987.

[8] F. Fava: Lezioni di Geometria analitica, Editrice Levrotto e Bella, Torino, 1960.

[9] F. Fava: Lezioni di Geometria, Editrice Levrotto e Bella, Torino, 1973.

[10] F. Fava: Elementi di Algebra Lineare e Geometria, Editrice Levrotto e Bella, Torino,
1976.

[11] A. Gray, E. Abbena, S. Salamon: Modern Differential Geometry of Curves and


Surfaces with Mathematica,Third Edition, Editrice CRC Press, Boca Raton, 2006.

[12] S. Greco, P. Valabrega: Lezioni di Geometria, Voll.I e II, Editrice Levrotto e Bella,
Torino, 1999.

703
704 Bibliografia

[13] B.C. Hall: Lie Groups, Lie Algebras and Representations, Graduate Texts in
Mathematics 222, Editrice Springer, New York, 2003.

[14] S. Lang: Linear Algebra, Editrice Addison Wesley, New York, 1966.

[15] S. Roman: Advanced Linear Algebra, Editrice Springer, Berlin, 2008.

[16] A. Sanini: Lezioni di Geometria, Editrice Levrotto e Bella, Torino , 1993.

[17] E. Sernesi: Geometria 1 e 2, Editrice Bollati Boringhieri, 1989.

[18] M. Stoka: Corso di Geometria, Editrice Cedam, Padova, 1995.

[19] A. Sheldon, Linear Algebra Done Right, Editrice Springer, 1997.

[20] A. E. Taylor: Introduction to Functional Analysis, Editrice John Wiley & Sons,
Inc., New York; Chapman & Hall, Ltd., London, 1958.
Indice dei Simboli

R campo dei numeri reali 15


Ri i-esima riga di una matrice 20
Ci i-esima colonna di una matrice 20
A matrice dei coefficienti di un sistema lineare 20
(A | B) matrice completa di un sistema lineare 21
rank(A) rango della matrice A 25
aij elemento della matrice A di posto ij 33
Rm,n spazio vettoriale delle matrici con m righe e n colonne, ad elementi reali 33, 141
O matrice nulla 34
D(Rn,n ) sottospazio vettoriale delle matrici diagonali di ordine n 35, 141
I matrice unità 35
A+B somma delle matrici A e B 35
A prodotto di un numero reale per una matrice A 36
AB prodotto delle matrici A e B 38
A 1 matrice inversa di A 42
GL(n, R) gruppo lineare generale reale 42
tA trasposta della matrice A 42
T (Rn,n ) sottospazio vettoriale delle matrici triangolari superiori di ordine n 44, 141
S(Rn,n ) sottospazio vettoriale delle matrici simmetriche di ordine n 45, 142
A(Rn,n ) sottospazio vettoriale delle matrici antisimmetriche di ordine n 46, 142
O(n) gruppo ortogonale delle matrici ortogonali di ordine n 46
tr(A) traccia della matrice A 55
det(A) determinante della matrice A 56
Mij minore dell’elemento aij della matrice A 65
Aij cofattore dell’elemento aij della matrice A 65
adj(A) matrice aggiunta della matrice A 68
x vettore 76
kxk norma del vettore x 76, 204
o vettore nullo in V3 76
!
AB vettore con rappresentante il segmento orientato AB 76
L(x) retta vettoriale individuata dal vettore x 83
L(x, y) piano vettoriale individuato dai vettori x, y 83
0
M B,B matrice del cambiamento di base da B a B 0 97, 175

705
706 Indice dei Simboli

x·y prodotto scalare di x e y 101, 201


x^y prodotto vettoriale di x e y in V3 113
x^y·z prodotto misto di x, y e z in V3 120
x opposto del vettore x in uno spazio vettoriale V 135
C campo dei numeri complessi 136
Q campo dei numeri razionali 136
Rn spazio vettoriale delle n-uple di numeri reali 137
F(R) spazio vettoriale delle funzioni reali di variabile reale 137
R[x] spazio vettoriale dei polinomi nella variabile x a coefficienti reali 138
N insieme dei numeri naturali 138
Rn [x] spazio vettoriale dei polinomi di grado minore o uguale a n,
nella variabile x, a coefficienti reali 140
N (A) nullspace della matrice A 141
W1 \ W2 intersezione dei due sottospazi vettoriali W1 e W2 143
W1 + W2 somma dei due sottospazi vettoriali W1 e W2 144
W1 + W2 + . . . + Wk somma dei sottospazi vettoriali W1 , W2 , . . . , Wk 144
W1 W2 somma diretta dei due sottospazi vettoriali W1 e W2 145
W1 W2 . . . Wk somma diretta dei sottospazi vettoriali W1 , W2 , . . . , Wk 145
L(v1 , v2 , . . . , vk ) sottospazio vettoriale generato dai vettori v1 , v2 , . . . , vk 149
dim(V ) dimensione di uno spazio vettoriale V 157
R(A) spazio vettoriale delle righe della matrice A 166
C(A) spazio vettoriale delle colonne della matrice A 167
Cn spazio vettoriale delle n-uple di numeri complessi 195
Cm,n spazio vettoriale delle matrici con m righe e n colonne, ad
elementi complessi 196
A matrice coniugata di A 2 Cm,n 196
H(Cm,n ) sottospazio vettoriale delle matrici hermitiane di ordine n 197
AH(Cm,n ) sottospazio vettoriale delle matrici antihermitiane di ordine n 197
SL(n, R) gruppo lineare speciale reale di ordine n 217
SO(n) gruppo ortogonale speciale reale di ordine n 217
W? complemento ortogonale del sottospazio vettoriale W 218
U (n) gruppo unitario 232
f (x) vettore immagine di x mediante l’applicazione lineare f 235
id identità 236
M B,C (f ) matrice associata all’applicazione lineare f rispetto
alle basi B e C 240
f (H) immagine del sottospazio vettoriale H mediante l’applicazione
lineare f 248
im f sottospazio immagine 249
Indice dei Simboli 707

f 1 (K) controimmagine del sottospazio vettoriale K mediante


l’applicazione lineare f 251
ker f nucleo dell’applicazione lineare f 253
L(V, W ) spazio vettoriale delle applicazioni lineari da V a W 261
f +g somma delle applicazioni lineari f e g 262
f prodotto di un numero reale per un’applicazione lineare f 263
g f composizione delle applicazioni lineari f e g 263
SO(2) gruppo ortogonale speciale di ordine 2 265
f |H restrizione dell’applicazione lineare f al sottospazio vettoriale H 266
f† aggiunta dell’applicazione lineare f 268
V⇤ spazio vettoriale duale di V 276
V ⇤⇤ spazio vettoriale biduale di V 281
isomorfismo canonico tra uno spazio vettoriale V ed il suo spazio
vettoriale biduale V ⇤⇤ 281
tf trasposta dell’applicazione lineare f 286
U (n) gruppo unitario 299
V autospazio relativo all’autovalore 302
P( ) polinomio caratteristico 306
' forma bilineare su uno spazio vettoriale V 341
Bs (V, R) spazio vettoriale delle forme bilineari simmetriche su V 343
M B (') matrice associata alla forma bilineare simmetrica ' rispetto alla base B 349
Q forma quadratica 352
Q(V, R) spazio vettoriale delle forme quadratiche su V 352
M B (Q) matrice associata alla forma quadratica Q rispetto alla base B 353
W? sottospazio vettoriale ortogonale al sottospazio vettoriale W rispetto
ad una forma bilineare simmetrica 355
ker ' nucleo della forma bilineare simmetrica ' 359
I insieme dei vettori isotropi 362
Q|H restrizione della forma quadratica Q al sottospazio vettoriale H 369
(p, q) segnatura di una forma quadratica 380
d(A, B) distanza tra i punti A e B 410, 526
\
(r, r0 ) angolo tra le due rette r e r0 433, 560
d(P, r) distanza del punto P dalla retta r 436, 555
e eccentricità di una conica 461
d(P, ⇡) distanza del punto P dal piano ⇡ 553
d(r, r0 ) minima distanza tra le due rette sghembe r e r0 557
\
(⇡, ⇡0) angolo tra i due piani ⇡ e ⇡ 0 560
[
(r, ⇡) angolo tra la retta r ed il piano ⇡ 560
Indice analitico

aggiunta di un’applicazione lineare, 270 autospazio di un endomorfismo su uno spazio


aggiunta di una matrice quadrata, 68 vettoriale complesso, 337
angolo tra due piani, 560 autospazio di una matrice quadrata, 308
angolo tra due rette nel piano, 433 autovalore di un endomorfismo, 303
angolo tra due rette nello spazio, 560 autovalore di un endomorfismo su uno spazio
angolo tra due vettori in V3 , 100 vettoriale complesso, 336
angolo tra due vettori in uno spazio vettoriale autovalore di una matrice quadrata, 308
euclideo, 209 autovettore di un endomorfismo, 303
angolo tra una retta e un piano, 560 autovettore di un endomorfismo su uno spazio
anomalia, 414 vettoriale complesso, 336
applicazione lineare identica, 238 autovettore di una matrice quadrata, 308
applicazione lineare nulla, 238
applicazione lineare tra due spazi vettoriali, 237 baricentro di n punti, 596
applicazione lineare tra due spazi vettoriali com- baricentro di un tetraedro, 527
plessi, 281 baricentro di un triangolo, 410, 527
area di un triangolo, 527 base dello spazio vettoriale V3 , 88
ascissa di un punto nel piano, 409 base di Cn , 198
ascissa di un punto nello spazio, 526 base di Cm,n , 198
asintoti di un’iperbole, 469 base di Rn , 156
asse centrale del fascio di sfere, 577 base di Rm,n , 156
asse centrale di un fascio di circonferenze, 457 base di Rn [x], 156
asse delle ascisse (asse x) nello spazio, 525 base di A(Rn,n ), 162
asse delle ascisse (asse x) nel piano, 407 base di D(Rn,n ), 161
asse delle ordinate (asse y ) nello spazio, 525 base di S(Rn,n ), 162
asse delle ordinate (asse y ) nel piano, 407 base di T (Rn,n ), 161
asse delle quote (asse z ), 525 base di un piano vettoriale V2 , 88
asse di un cono circolare retto, 487 base di una retta vettoriale V1 , 89
asse di un cilindro circolare retto, 633 base di uno spazio vettoriale, 155
asse di un segmento, 411, 440 base duale, 280
asse polare nel piano, 414 base ortogonale in V3 , 107
asse polare nel riferimento sferico, 583 base ortogonale in uno spazio vettoriale eucli-
asse radicale di un fascio di circonferenze, 457 deo, 211
automorfismo di uno spazio vettoriale, 258 base ortogonale positiva (negativa) in V2 , 128
autospazio di un endomorfismo, 304 base ortogonale positiva (negativa) in V3 , 117

708
Indice Analitico 709

base ortogonale rispetto ad una forma bilineare circonferenza passante per tre punti nello spa-
simmetrica, 376 zio, 591
base ortonormale in V1 , 107 classi di equipollenza in S3 , 133
base ortonormale in V2 , 107 classificazione delle coniche nel piano, 510
base ortonormale in V3 , 107 classificazione delle quadriche, 671
base ortonormale in in uno spazio vettoriale eu- codominio di un’applicazione lineare, 237
clideo, 211 coefficiente angolare di una retta nel piano, 429
base ortonormale positiva (negativa) in V2 , 128 coefficienti delle equazioni di un sistema linea-
base ortonormale positiva (negativa) in V3 , 117 re, 17
base ortonormale rispetto ad una forma bilinea- coefficienti di un’equazione lineare, 15
re simmetrica, 376 coefficienti di una combinazione lineare di vet-
base unitaria, 233 tori, 151
coefficienti di una combinazione lineare di vet-
calcolo degli autovalori di una matrice quadrata, tori in V3 , 83
307 cofattore di un elemento di una matrice, 65
calcolo dell’inversa di una matrice, 50, 67 colatitudine, 583
cambiamento di base in V3 , 97 colonna torsa, 695
cambiamento di base in uno spazio vettoriale, combinazione lineare di vettori, 151
178 combinazione lineare di vettori in V3 , 83
cambiamento di base nello spazio vettoriale dua- complemento algebrico di un elemento di una
le di uno spazio vettoriale, 281 matrice, 65
cambiamento di base ortonormale in V3 e in V2 , complemento ortogonale, 221
124 componente di un vettore in V1 , 90
centro di un fascio di rette nel piano, 437 componenti di un vettore in V2 , 90
centro di un’ellisse, 463 componenti di un vettore in V3 , 90
centro di un’iperbole, 468 componenti di un vettore rispetto ad una base,
centro radicale di tre cinconferenze, 515 157
cilindri con assi paralleli agli assi coordinati, composizione di applicazioni lineari, 263
626 condizione di parallelismo tra rette nel piano,
cilindro, 622 430
cilindro circolare retto, 633 condizione di perpendicolarità tra rette nel pia-
cilindro circoscritto ad una sfera, 632 no, 431
cilindro ellittico, 670 coniche come equazioni di secondo grado, 494
cilindro immaginario, 670 coniche come intersezione di un cono con un
cilindro iperbolico, 670 piano, 487
cilindro parabolico, 670 coniche come luoghi di punti nel piano, 488
cilindro quadrico, 670 coniche degeneri, 488
circonferenza degenere, 448 coniche in forma polare, 518
circonferenza immaginaria, 448 cono, 607
circonferenza nel piano, 411, 447 cono asintotico ad un iperboloide a due falde,
circonferenza nello spazio, 569 664
circonferenza passante per tre punti nel piano, cono asintotico ad un iperboloide ad una falda,
455 662
710 Indice Analitico

cono circolare retto, 487 direttrice di una parabola, 478


cono isotropo, 363 direttrici di un’ellisse, 463
cono quadrico, 669 direttrici di un’iperbole, 468
cono tangente ad una sfera, 618 direzione di un vettore in V3 , 75
cono–cuneo di Wallis, 686 distanza di due punti nel piano, 410
conoide retto di Plücker, 688 distanza di due punti nello spazio, 526
controimmagine di un sottospazio vettoriale, 253 distanza di un punto da un piano, 553
coordinate cartesiane di un punto nel piano, 407 distanza di un punto da una retta nel piano, 436
coordinate cartesiane di un punto nello spazio, distanza di un punto da una retta nello spazio,
526 555
coordinate cilindriche, 638 disuguaglianza di Cauchy–Schwarz per una for-
coordinate polari generalizzate, 416 ma bilineare simmetrica semidefinita po-
coordinate polari nel piano, 414 sitiva (negativa), 370
coordinate sferiche, 583 disuguaglianza di Cauchy–Schwarz su uno spa-
coseni direttori di un vettore in V3 , 110 zio vettoriale euclideo, 208
coseni direttori di una retta nel piano, 423 disuguaglianza di Cauchy–Schwarz su uno spa-
coseni direttori di una retta nello spazio, 536 zio vettoriale euclideo complesso, 232
criteri di diagonalizzazione, 314 disuguaglianza triangolare (di Minkowski) per
curva di Viviani, 636 una forma bilineare simmetrica semi-
curva simmetrica rispetto all’asse delle ascisse, definita positiva (semidefinita negati-
420 va), 370
curva simmetrica rispetto all’asse delle ordina- disuguaglianza triangolare (di Minkowski) su uno
te, 419 spazio vettoriale euclideo, 208
curva simmetrica rispetto all’origine, 420 disuguaglianza triangolare (di Minkowski) su uno
curve meridiane di una superficie di rotazione, spazio vettoriale euclideo complesso,
640 232
dominio di un’applicazione lineare, 237
decomposizione di un vettore, 80 doppio prodotto vettoriale, 134
decomposizione spettrale, 316 dualità nel caso degli spazi vettoriali euclidei,
determinante di n vettori, 403 287
determinante di una matrice quadrata, 56
diagonale principale di una matrice quadrata, 34 eccentricità di un’ellisse, 463
differenza di due vettori in V3 , 80 eccentricità di un’iperbole, 468
dimensione dello spazio duale di uno spazio vet- eccentricità di una conica, 490
toriale, 279 elementi di una matrice, 33
dimensione di V1 , 89 elica circolare cilindrica, 691
dimensione di V2 , 88 elicoide retto, 692
dimensione di V3 , 88 ellisse immaginaria, 463
dimensione di un autospazio, 312 ellisse in forma canonica, 463
dimensione di uno spazio vettoriale, 159 ellisse, come luogo di punti nel piano, 461
direttrice del cono, 607 ellissoide, 660
direttrice di un cilindro, 622 ellissoide di rotazione, 648
direttrice di una conica, 490 ellissoide immaginario, 661
Indice Analitico 711

endomorfismi simultaneamente diagonalizzabi- equazioni parametriche di una retta nel piano,


li, 328 423
endomorfismo, 237 equazioni parametriche di una retta nello spa-
endomorfismo autoaggiunto (hermitiano) in uno zio, 536
spazio vettoriale hermitiano, 293, 337 equazioni parametriche di una superficie, 606
endomorfismo autoaggiunto (simmetrico), 271 espressione matriciale di una forma bilineare sim-
endomorfismo definito da una forma bilineare metrica, 349
simmetrica, 392 espressione matriciale di una forma quadratica,
endomorfismo diagonalizzabile (semplice), 314 353
endomorfismo diagonalizzabile nel caso com- espressione polinomiale di una forma bilineare
plesso, 337 simmetrica, 347
endomorfismo nel caso complesso, 281 espressione polinomiale di una forma quadrati-
endomorfismo nullo, 238 ca, 353
equazione caratteristica di un endomorfismo, 308
fascio di circonferenza nel piano, 455
equazione caratteristica di una matrice quadrata,
fascio di sfere, 574, 578
308
fascio improprio di piani, 549
equazione cartesiana della retta nel piano, 424
fascio improprio di rette nel piano, 437
equazione cartesiana di un cilindro, 624
fascio proprio di piani, 550
equazione cartesiana di un cono, 609
fascio proprio di rette nel piano, 437
equazione cartesiana di un piano, 532
forma p-lineare, 401
equazione cartesiana di una superficie, 606
forma p-lineare antisimmetrica (alternata), 401
equazione del fascio di piani, 550
forma bilineare, 343
equazione di una conica in forma canonica, 494 forma bilineare complessa, 346
equazione di una parabola in forma canonica, forma bilineare simmetrica, 345
479 forma bilineare simmetrica degenere, 360
equazione lineare, 15 forma bilineare simmetrica non degenere, 360
equazione lineare omogenea, 16 forma canonica di una forma quadratica, 372
equazione matriciale, 46 forma lineare, 278
equazione segmentaria del piano, 534 forma lineare su uno spazio vettoriale comples-
equazione vettoriale, 190 so, 281
equazione vettoriale omogenea, 190 forma normale di una forma quadratica, 375
equazione vettoriale parametrica di un piano, 531 forma polare di una forma quadratica, 353
equazione vettoriale parametrica di una retta nel forma polinomiale di una forma bilineare sim-
piano, 423 metrica, 347
equazione vettoriale parametrica di una retta nel- forma quadratica, 352
lo spazio, 535 forma quadratica associata ad una forma bili-
equazioni del cambiamento di base, 179 neare simmetrica, 352
equazioni del cambiamento di base in V3 , 98 forma quadratica associata alla quadrica, 657
equazioni di un’applicazione lineare, 244 forma quadratica definita positiva (negativa), 367
equazioni parametriche delle coniche, 516 forma quadratica indefinita, 367
equazioni parametriche di un cilindro, 626 forma quadratica ridotta in forma canonica, 372
equazioni parametriche di un piano, 531 forma quadratica ridotta in forma normale, 375
712 Indice Analitico

forma quadratica semidefinita positiva (semide- iperboloide di rotazione ad una falda, 643
finita negativa), 367 iperpiano vettoriale, 180
formula di Grassmann, 165, 188 isometria, 293
funzione nulla, 139 isometria complessa, 300
funzione omogenea di grado k , 610 isomorfismo canonico tra uno spazio vettoriale
fuochi di un’ellisse, 461 ed il suo biduale, 284
fuochi di un’iperbole, 467 isomorfismo canonico tra uno spazio vettoriale
fuoco di una conica, 490 ed il suo duale, 283
fuoco di una parabola, 478 isomorfismo tra due spazi vettoriali, 258

generatrice di un cono, 607 legge d’inerzia di Sylvester, 379


generatrice di un cilindro, 622 lemma di Steinitz, 158, 189
gradiente di una funzione, 698 linea di gola o di strizione di un’iperboloide iper-
gruppo, 36 bolico, 662
gruppo commutativo, 36 longitudine, 583
gruppo delle rotazioni di V2 , 267 luogo geometrico di punti nel piano, 411
gruppo lineare generale degli automorfismi di
uno spazio vettoriale, 267 matrice associata ad un’applicazione lineare, 242
gruppo lineare generale reale, 42 matrice associata ad una forma bilineare sim-
gruppo lineare speciale, 219 metrica, 347
gruppo ortogonale, 219 matrice associata ad una forma quadratica, 353
gruppo ortogonale speciale, 219 matrice colonna, 34
gruppo ortogonale speciale di ordine 2, 267 matrice completa di un sistema lineare, 21
gruppo unitario, 235 matrice con m righe e n colonne, 21, 33
matrice coniugata, 198
identità , 238 matrice dei coefficienti di un sistema lineare, 21
identità di Jacobi, 135 matrice dei coefficienti e temini noti, 20
identità di Lagrange, 135 matrice del cambiamento di base, 178
immagine di un sottospazio vettoriale mediante matrice del cambiamento di base in V3 , 97
un’applicazione lineare, 250 matrice diagonalizzabile, 314
insieme di generatori, 151 matrice diagonalizzabile nel caso complesso, 337
insieme libero di vettori, 154 matrice inversa, 41
insieme libero di vettori in V3 , 84 matrice invertibile, 41
intersezione di due sottospazi vettoriali, 145 matrice normale, 339
iperbole equilatera, 473 matrice nulla, 34
iperbole equilatera riferita agli asintoti, 476 matrice quadrata di ordine n, 34
iperbole in forma canonica, 467 matrice ridotta per colonne, 171
iperbole, come luogo di punti nel piano, 467 matrice ridotta per righe, 23
iperboloide a due falde, 664 matrice riga, 34
iperboloide ad una falda (iperbolico), 662 matrice trasposta, 42
iperboloide ad una falda come superficie rigata, matrice unità, 35
674 matrici simultaneamente diagonalizzabili, 329
iperboloide di rotazione a due falde, 648 matrici anti-hermitiane, 199
Indice Analitico 713

matrici antisimmetriche, 46 paraboloide ellittico, 666


matrici associate ad una conica, 495 paraboloide iperbolico come superficie rigata,
matrici associate ad una quadrica, 657 681
matrici diagonali, 34 paraboloide iperbolico o a sella, 667
matrici hermitiane, 199 paralleli di una superficie di rotazione, 640
matrici ortogonali, 46 parametri direttori di una retta nel piano, 423
matrici simili, 249 parametri direttori di una retta nello spazio, 536
matrici simmetriche, 45 perpendicolare comune a due rette sghembe, 555
matrici triangolari superiori (inferiori), 44 piani coordinati, 526
matrici uguali, 35 piano assiale di un segmento, 587
matrici unitarie, 234 piano esterno ad una sfera, 564
metodo degli scarti successivi, 160 piano passante per tre punti, 533
metodo di riduzione di Gauss, 17 piano per un punto ortogonale ad un vettore,
metodo di riduzione di Gauss–Jordan, 26 528
minima distanza tra due rette sghembe, 555 piano per un punto parallelo a due vettori, 530
minore di ordine k , 65 piano radicale, 577
minore di un elemento di una matrice, 65 piano secante una sfera, 564
minori principali, 397 piano tangente ad una quadrica in un suo punto,
minori principali di Nord-Ovest, 397 697
molteplicità di un autovalore, 309 piano tangente ad una sfera, 564
piano vettoriale in V3 , 76, 83
norma di un vettore in V3 , 76 polinomio caratteristico di una matrice quadra-
norma di un vettore in uno spazio vettoriale, 206 ta, 308
norma di un vettore in uno spazio vettoriale eu- polinomio caratteristico di una matrice quadrata
clideo complesso, 231 in caso complesso, 336
nucleo di un’applicazione lineare, 255 polinomio omogeneo, 347
nucleo di una forma bilineare simmetrica, 359 polo del riferimento cilindrico, 638
nullspace, 143 polo del riferimento polare nel piano, 414
omomorfismo tra due spazi vettoriali, 237 polo del riferimento sferico, 583
operatore lineare, 237 posizione reciproca di due circonferenze nel pia-
operatore unitario, 300 no, 454
opposto di un vettore in V3 , 78 posizione reciproca di due piani, 540
opposto di un vettore in uno spazio vettoriale, posizione reciproca di due rette nel piano, 433
137 posizione reciproca di due rette nello spazio, 547
ordinata di un punto nel piano, 409 posizione reciproca di due sfere, 574
ordinata di un punto nello spazio, 526 posizione reciproca di tre piani, 543
ordine di una matrice quadrata, 34 posizione reciproca tra piano e sfera, 564
origine del riferimento cartesiano nel piano, 407 posizione reciproca tra retta e piano, 545
origine del riferimento cartesiano nello spazio, posizione reciproca tra retta e sfera, 567
525 potenza di un punto rispetto ad una circonferen-
za, 514
parabola, come luogo di punti nel piano, 478 potenza di un punto rispetto ad una sfera, 599
paraboloide di rotazione, 649 primo teorema di Laplace, 66
714 Indice Analitico

processo di ortonormalizzazione di Gram–Schmidt,punto singolare di una curva, 523


214 punto singolare di una quadrica, 696
prodotto di matrici (righe per colonne), 38
prodotto di un numero reale per un vettore in quadrica in forma canonica, 658
V3 , 82 quadriche, 642, 656
prodotto di un numero reale per un’applicazione quadriche non proprie (degeneri, singolari), 660
lineare, 263 quadriche proprie (non degeneri, non singolari),
prodotto di un numero reale per una forma bili- 660
neare simmetrica, 345 quadriche rigate, 673
prodotto di un numero reale per una matrice, 36 quota di un punto, 526
prodotto di uno scalare per un vettore in uno
spazio vettoriale, 138 raggio vettore, 414, 583
prodotto hermitiano su uno spazio vettoriale com- rami di un’iperbole, 469
plesso, 229 rango di una forma bilineare simmetrica, 361
prodotto misto di tre vettori, 120 rango di una matrice, 25, 67, 169
prodotto misto in componenti, 122 rango di una matrice ridotta per colonne, 172
prodotto scalare di due vettori in V2 , 102 rango di una matrice ridotta per righe, 24
prodotto scalare di due vettori in V3 , 101 rappresentante di un vettore in V3 , 76
prodotto scalare di due vettori in componenti in rappresentazione della retta nello spazio, 535
V2 , 109 rappresentazione di un piano, 528
prodotto scalare di due vettori in componenti in regola degli sdoppiamenti per il piano tangente
V3 , 109 ad una quadrica in un suo punto, 699
prodotto scalare standard su R , 204
n regola degli sdopppiamenti per la retta tangente
prodotto scalare su uno spazio vettoriale reale, ad una conica, 521
203 regola dei segni di Cartesio, 381
prodotto vettoriale (esterno) di due vettori, 113 restrizione di un’applicazione lineare, 268
prodotto vettoriale (esterno) di due vettori in com- restrizione di una forma quadratica ad un sotto-
ponenti, 118 spazio vettoriale, 369
proiezione di una curva da un punto su un piano, retta esterna ad una circonferenza nel piano, 449
620 retta esterna ad una sfera, 567
proiezione di una curva su un piano secondo una retta immaginaria coniugata nel piano, 443
direzione assegnata, 636 retta immaginaria nel piano, 443
proiezione ortogonale su un sottospazio vetto- retta intersezione di due piani, 540
riale, 239 retta nel piano, 422
proiezioni su sottospazi vettoriali, 239 retta per due punti distinti nel piano, 426
punti base di un fascio di circonferenze, 458 retta per due punti distinti nello spazio, 538
punti immaginari nel piano, 443 retta per un punto ortogonale ad un vettore nel
punto medio di un segmento, 410, 527 piano, 424
punto regolare (liscio, non singolare) di una cur- retta per un punto parallela ad un vettore nel
va, 523 piano, 423
punto regolare di una quadrica, 696 retta per un punto parallela ad un vettore nello
punto simmetrico di un altro punto rispetto ad spazio, 535
una retta, 587 retta secante una circonferenza nel piano, 451
Indice Analitico 715

retta secante una sfera, 569 sfera, 563


retta simmetrica di un’altra retta rispetto ad unsfere secanti, 574
piano, 590 sfere tangenti, 574
significato geometrico del prodotto misto, 121
retta simmetrica di una retta rispetto ad un’altra
retta nel piano, 442 significato geometrico del prodotto scalare in V3 ,
retta tangente ad una circonferenza in un suo 104
punto nel piano, 449 significato geometrico della norma del prodotto
retta tangente ad una conica in un suo punto, vettoriale, 114
520 similitudine, 300
retta tangente ad una quadrica in un suo punto, simmetria ortogonale rispetto ad un iperpiano
697 vettoriale, 299
retta tangente ad una sfera, 567 sistema di generatori, 151
retta vettoriale in V3 , 76, 83 sistema lineare, 16
sistema lineare compatibile, 17
rette bisettrici degli angoli di due rette nel piano,
441 sistema lineare incompatibile, 17
rette coincidenti nel piano, 433 sistema lineare omogeneo, 17
rette coincidenti nello spazio, 547 sistema lineare ridotto, 23
rette complanari, 547 sistemi lineari equivalenti, 17
rette incidenti nel piano, 433 sistemi lineari in forma matriciale, 40
rette incidenti nello spazio, 547 soluzione di un sistema lineare, 17
rette parallele nel piano, 433 soluzione di un’equazione lineare, 15
rette parallele nello spazio, 547 soluzione di un’equazione vettoriale, 190
rette sghembe, 547 somma di k sottospazi vettoriali, 146
riferimento cartesiano nel piano, 407 somma di applicazioni lineari, 262
riferimento cartesiano nello spazio, 525 somma di due forme bilineari simmetriche, 345
riferimento cilindrico, 638 somma di due sottospazi vettoriali, 146
riferimento polare nel piano, 414 somma di matrici, 35
riferimento sferico, 583 somma di vettori in V3 , 77
riflessione rispetto ad un iperpiano vettoriale, somma di vettori in uno spazio vettoriale, 137
299 somma diretta di k sottospazi vettoriali, 147
rotazione in V2 , 266 somma diretta di due sottospazi vettoriali, 147
rototraslazione nel piano, 503 sottogruppo, 141
sottospazi vettoriali improprii, 141
scalari in uno spazio vettoriale, 138 sottospazi vettoriali ortogonali rispetto ad una
schiere di rette del paraboloide iperbolico, 682 forma bilineare simmetrica, 356
schiere di rette dell’iperboloide ad una falda, sottospazi vettoriali supplementari, 148
675 sottospazio vettoriale, 141
secondo teorema di Laplace, 67 sottospazio vettoriale invariante, 267
segmenti orientati equipollenti, 132 sottospazio vettoriale dei polinomi, di grado mi-
segmento orientato in V3 , 76 nore o uguale ad n, con una variabile,
segnatura di una forma quadratica, 380 a coefficienti reali, 142
semipiano polare, 583 sottospazio vettoriale delle matrici antisimme-
sezione normale di un diedro, 560 triche, 144
716 Indice Analitico

sottospazio vettoriale delle matrici diagonali, 143 teorema dell’esistenza di una base, 158
sottospazio vettoriale delle matrici simmetriche, teorema della dimensione, 158
144 teorema di Cayley–Hamilton, 333
sottospazio vettoriale delle matrici triangolari su- teorema di Cramer, 70
periori (inferiori), 143 teorema di Gauss–Lagrange, 379
sottospazio vettoriale finitamente generato, 153 teorema di nullità più rango, 172, 174
sottospazio vettoriale immagine del dominio di teorema di Pitagora, 208
un’applicazione lineare, 251 teorema di Pitagora nel caso hermitiano, 232
sottospazio vettoriale ortogonale ad un sottospa- teorema di Rouché–Capelli, 25, 191
zio vettoriale rispetto ad una forma bi- teorema di Sylvester, 379
lineare simmetrica, 356 teorema fondamentale delle applicazioni linea-
span di k vettori, 151 ri, 240
spazi vettoriali isomorfi, 258 teorema spettrale, 316
spazio vettoriale Cn , 197 teorema spettrale in campo complesso, 337
spazio vettoriale Cm,n , 198 termine noto di un’equazione lineare, 15
spazio vettoriale Q, 139 toro (superficie torica), 642
spazio vettoriale Rn , 139 traccia di una matrice quadrata, 55
spazio vettoriale Rm,n , 139 trasformazione lineare tra due spazi vettoriali,
spazio vettoriale F(R), 139 237
spazio vettoriale biduale, 283 trasformazione ortogonale, 293
spazio vettoriale complesso, 138 trasformazione unitaria, 300
spazio vettoriale dei polinomi con una variabile traslazione nel piano, 416
a coefficienti reali, 140 traslazione nello spazio, 586
),
spazio vettoriale delle applicazioni lineari L(V, W trasposta di un’applicazione lineare, 288
263
spazio vettoriale delle colonne di una matrice,
unione di due sottospazi vettoriali, 145
169
spazio vettoriale delle righe di una matrice, 168
spazio vettoriale duale, 278 verso di un vettore in V3 , 75
spazio vettoriale duale di uno spazio vettoriale versore di un vettore in V3 , 76
complesso, 281 vertice del cono, 607
spazio vettoriale euclideo, 203 vertice di una parabola, 479
spazio vettoriale finitamente generato, 153 vertici di un’ellisse, 463
spazio vettoriale hermitiano (euclideo comples- vertici di un’iperbole, 468
so), 229 vettore controimmagine di un vettore mediante
spazio vettoriale reale, 137 un’applicazione lineare, 237
spettro di un endomorfismo, 304 vettore immagine di un vettore mediante un’ap-
superficie dalla volta a sbieco, 690 plicazione lineare, 237
superficie di rotazione, 640 vettore in V3 , 76
superficie rigata, 653 vettore in uno spazio vettoriale, 138
vettore isotropo, 362
teorema del completamento della base, 162 vettore nullo di V3 , 76
teorema del rango, 169, 192, 258 vettore nullo in uno spazio vettoriale, 138
Indice Analitico 717

vettore proiezione ortogonale su un altro vettore


in V3 , 104
vettore proiezione ortogonale su un piano vetto-
riale in V3 , 115
vettori colonna di una matrice, 169
vettori complanari in V3 , 78
vettori concordi in V3 , 78
vettori discordi in V3 , 78
vettori liberi, 76
vettori linearmente dipendenti in V3 , 84
vettori linearmente dipendenti in uno spazio vet-
toriale, 154
vettori linearmente indipendenti in V3 , 84
vettori linearmente indipendenti in uno spazio
vettoriale, 154
vettori ortogonali in V3 , 100
vettori ortogonali in uno spazio vettoriale eucli-
deo, 209
vettori ortogonali in uno spazio vettoriale her-
mitiano, 233
vettori ortogonali rispetto ad una forma bilinea-
re simmetrica, 355
vettori paralleli in V3 , 78
vettori paralleli in uno spazio vettoriale eucli-
deo, 209
vettori riga di una matrice, 168
vite di Saint Gilles, 693
volume di un tetraedro, 527

Potrebbero piacerti anche