Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Volume I
E. Abbena, A.M. Fino, G.M. Gianella
12 marzo 2011
Prefazione
Con lattivazione delle lauree triennali, i corsi universitari hanno sub`to una notevole riduzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di Geometria e Algebra Lineare I che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso lUniversit`a di Torino, costituisce ora
un testo completo che pu`o essere anche utilizzato nelle Facolt`a di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo pi`u tratti dai testi desame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
Il testo e` di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po diverso per stile ed impostazione dagli usuali testi universitari del settore, al fine di sostenere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore
allUniversit`a.
In quasi tutti i capitoli del primo volume e` stato inserito un paragrafo dal titolo Per
saperne di pi`u non solo per soddisfare la curiosit`a del Lettore ma con il preciso obiettivo
di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno
occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree
Triennali e Magistrali.
Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro,
saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base
per la maggior parte delle discipline scientifiche, rendendola appassionante.
La figure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico
Mathematica, versione 7. Alcuni esercizi proposti sono particolarmente adatti ad essere
risolti con Mathematica o con Maple.
Per suggerimenti, osservazioni e chiarimenti si invita a contattare gli Autori agli indirizzi
e-mail: elsa.abbena@unito.it, annamaria.fino@unito.it, gianmario.gianella@unito.it.
II di copertina: Ringraziamenti
Grazie ai Colleghi di Geometria del Dipartimento di Matematica dellUniversit`a di Torino
per il loro prezioso contributo.
Grazie al Prof. S.M. Salamon per tanti utili suggerimenti e per la realizzazione di molti
grafici. Grazie ai Proff. Sergio Console, Federica Galluzzi, Sergio Garbiero e Mario
Valenzano per aver letto il manoscritto.
Un ringraziamento particolare agli Studenti del Corso di Studi in Fisica dellUniversit`a di Torino, la loro partecipazione attiva e il loro entusiasmo hanno motivato questa
esperienza.
IV di copertina
Gli autori
Elsa Abbena, professore associato di Geometria presso la Facolt`a di Scienze Matematiche
Fisiche e Naturali dellUniversit`a di Torino, svolge la sua attivit`a di ricerca su argomenti
di geometria differenziale. Ha tenuto innumerevoli corsi di algebra e di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Anna Fino, professore associato di Geometria presso la Facolt`a di Scienze Matematiche
Fisiche e Naturali dellUniversit`a di Torino, svolge la sua attivit`a di ricerca su argomenti
di geometria differenziale e complessa. Ha tenuto per vari anni un corso di geometria e
algebra lineare presso il corso di Laurea in Fisica.
Gian Mario Gianella, professore associato di Geometria presso la Facolt`a di Scienze
Matematiche Fisiche e Naturali dellUniversit`a di Torino, svolge la sua attivit`a di ricerca
su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei grafi e
pi`u recentemente della teoria dei numeri. Ha tenuto innumerevoli corsi di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Lopera
Con lattivazione delle lauree triennali, i corsi universitari hanno sub`to una notevole riduzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di Geometria e Algebra Lineare I che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso lUniversit`a di Torino, costituisce ora
un testo completo che pu`o essere anche utilizzato nelle Facolt`a di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo pi`u tratti dai testi desame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
Indice
1 Sistemi Lineari
1.1
Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2
Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . .
15
15
16
29
2 Matrici e Determinanti
2.1
Somma di matrici e prodotto di un numero reale per una matrice
2.2
Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 I sistemi lineari in notazione matriciale . . . . . . . . . .
2.3
La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . .
2.4
La trasposta di una matrice . . . . . . . . . . . . . . . . . . . .
2.5
Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . .
2.6
Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Calcolo della matrice inversa, primo metodo . . . . . . .
2.7
La traccia di una matrice quadrata . . . . . . . . . . . . . . . .
2.8
Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.1 I Teoremi di Laplace
Unaltra definizione di rango di una matrice . . . . . . .
2.8.2 Calcolo della matrice inversa, secondo metodo . . . . . .
2.8.3 Il Teorema di Cramer . . . . . . . . . . . . . . . . . . .
2.9
Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . .
3 Calcolo Vettoriale
3.1
Definizione di vettore . . . . . . . . . . . .
3.2
Somma di vettori . . . . . . . . . . . . . .
3.3
Il prodotto di un numero reale per un vettore
3.4
Dipendenza lineare e basi . . . . . . . . . .
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
38
40
41
42
44
46
50
55
56
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
64
67
69
72
.
.
.
.
75
75
77
82
84
.
.
.
.
.
.
.
.
.
.
.
.
INDICE
3.5
3.6
3.7
3.8
3.9
3.10
Il cambiamento di base in V3 . . . . . . . . . . . . .
Angolo tra due vettori . . . . . . . . . . . . . . . . .
Operazioni non lineari tra vettori . . . . . . . . . . .
3.7.1 Il prodotto scalare di due vettori . . . . . . .
3.7.2 Il prodotto vettoriale di due vettori . . . . . .
3.7.3 Il prodotto misto di tre vettori . . . . . . . . .
Cambiamenti di basi ortonormali in V3 e in V2 . . . .
Esercizi di riepilogo svolti . . . . . . . . . . . . . . .
Per saperne di pi`u . . . . . . . . . . . . . . . . . . .
3.10.1 Unaltra definizione di vettore . . . . . . . .
3.10.2 Ulteriori propriet`a delle operazioni tra vettori
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
97
100
101
101
113
120
124
129
131
131
132
.
.
.
.
.
.
.
.
.
.
.
.
.
.
135
135
138
139
143
149
149
162
166
176
178
180
183
188
193
. . . . . 195
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
201
201
204
208
218
223
INDICE
5.5.1
5.5.2
6 Applicazioni Lineari
6.1
Matrice associata ad unapplicazione lineare
Equazioni di unapplicazione lineare . . . . . . . . . .
6.2
Cambiamenti di base e applicazioni lineari . . . . . . .
6.3
Immagine e controimmagine di sottospazi vettoriali . .
6.4
Operazioni tra applicazioni lineari . . . . . . . . . . .
6.5
Sottospazi vettoriali invarianti . . . . . . . . . . . . . .
6.6
Applicazione lineare aggiunta
Endomorfismi autoaggiunti . . . . . . . . . . . . . . .
6.7
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . .
6.8
Per saperne di pi`u . . . . . . . . . . . . . . . . . . . .
6.8.1 Forme lineari dualit`a . . . . . . . . . . . . .
6.8.2 Cambiamento di base in V . . . . . . . . . . .
6.8.3 Spazio vettoriale biduale . . . . . . . . . . . .
6.8.4 Dualit`a nel caso degli spazi vettoriali euclidei .
6.8.5 Trasposta di unapplicazione lineare . . . . . .
6.8.6 Endomorfismi autoaggiunti e matrici hermitiane
6.8.7 Isometrie, similitudini, trasformazioni unitarie .
7 Diagonalizzazione
7.1
Autovalori e autovettori di un endomorfismo . . . . . .
7.2
Determinazione degli autovalori e degli autospazi . . .
7.3
Endomorfismi diagonalizzabili
Matrici diagonalizzabili . . . . . . . . . . . . . . . . .
7.4
Il teorema spettrale . . . . . . . . . . . . . . . . . . .
7.5
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . .
7.6
Per saperne di pi`u . . . . . . . . . . . . . . . . . . . .
7.6.1 Diagonalizzazione simultanea . . . . . . . . . .
7.6.2 Il Teorema di CayleyHamilton . . . . . . . . .
7.6.3 Teorema spettrale e endomorfismi autoaggiunti
Caso complesso . . . . . . . . . . . . . . . . .
7.6.4 Autovalori delle isometrie, similitudini,
trasformazioni unitarie . . . . . . . . . . . . .
235
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
238
246
248
260
265
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
268
271
276
276
279
281
285
286
290
291
301
. . . . . . . . . 301
. . . . . . . . . 305
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
312
314
321
325
326
331
. . . . . . . . . 334
. . . . . . . . . 338
10
INDICE
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
341
341
344
350
353
364
370
376
381
389
389
392
393
398
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
405
405
408
408
408
409
412
414
417
417
418
418
420
421
422
424
426
426
428
428
INDICE
9.8
9.9
9.10
11
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
429
431
431
434
435
438
441
441
445
. . . . . . . 445
. . . . . . . 447
. . . . . . . 449
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
452
453
459
459
465
474
476
481
485
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
492
508
512
512
514
516
517
12
INDICE
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
523
523
524
524
526
529
531
531
534
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
536
538
539
541
543
545
548
549
551
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
551
556
556
556
559
559
560
563
565
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
570
579
583
592
592
INDICE
13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
601
601
603
614
616
618
622
628
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
632
634
636
649
652
668
668
676
680
690
690
Bibliografia
697
699
Indice Analitico
702
14
INDICE
Capitolo 1
Sistemi Lineari
In questo capitolo si introducono le nozioni di sistema lineare, di matrici associate ad un
sistema lineare e si enuncia il Teorema di RoucheCapelli i cui dettagli e la dimostrazione
sono rimandate al Paragrafo 4.3. In tutto il testo, salvo indicazione contraria, il campo dei
numeri su cui sono introdotte le definizioni, su cui sono dimostrati i teoremi e risolti gli
esercizi e` il campo dei numeri reali R.
1.1
Equazioni lineari
(1.1)
Sistemi Lineari
16
x1 = t1
x2 = t2
x3 = 5 + 2t1 + 3t2 + 4t3
x4 = t3 ,
t1 , t2 , t3 R;
oppure, equivalentemente, linsieme delle soluzioni S e` dato da:
S = {(x1 , x2 , x3 , x4 ) = (t1 , t2 , 5 + 2t1 + 3t2 + 4t3 , t3 ) | t1 , t2 , t3 R}.
Si osservi che, risolvendo lequazione rispetto ad unaltra incognita, si ottiene lo stesso
insieme di soluzioni (solo rappresentato in modo diverso).
Definizione 1.3 Lequazione lineare (1.1) si dice omogenea se il termine noto b e` nullo.
E` chiaro che unequazione lineare e` omogenea se e solo se ammette la soluzione nulla,
cio`e la soluzione formata da tutti zeri (0, 0, . . . , 0) ma, in generale, unequazione lineare
omogenea pu`o ammettere anche soluzioni non nulle, come nellesempio seguente.
Esempio 1.2 Lequazione lineare omogenea nelle incognite x, y :
2x 3y = 0
ammette infinite soluzioni che dipendono da unincognita libera, date da:
2
(x, y) = t, t , t R.
3
Si osservi che la soluzione nulla (0, 0) si ottiene ponendo t = 0.
1.2
Sistemi lineari
a x + a x + . . . . . . + a x = b , a R, b R.
m1 1
m2 2
mn n
ij
Capitolo 1
17
a x 0 + a x0 + . . . . . . + a x0 = b .
m1 1
m2 2
mn n
m
Risolvere un sistema lineare significa determinarne tutte le soluzioni.
E` chiaro che ogni sistema lineare e` omogeneo se e solo se ammette la soluzione nulla
(0, 0, . . . , 0), formata da tutti zeri.
Definizione 1.5 Un sistema lineare si dice compatibile se ammette soluzioni, altrimenti
e` incompatibile.
Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si dar`a ampio spazio
al metodo di riduzione di Gauss in quanto pi`u veloce (anche dal punto di vista computazionale). Lidea di base del metodo di Gauss e` quella di trasformare il sistema lineare di
partenza in un altro sistema lineare ad esso equivalente ma molto pi`u semplice, tenendo
conto della seguente definizione.
Definizione 1.6 Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.
Sistemi Lineari
18
x+y =4
5y = 1
a x + a x + . . . . . . + a x = b , 6= 0.
m1 1
m2 2
mn n
Capitolo 1
19
x+y =4
2x 3y = 7
1
1 4
2 3 7
si associa la tabella:
(1.4)
1 1 | 4 ,
R2 =
2 3 | 7
Sistemi Lineari
20
e le tre colonne:
C1 =
1
2
,
C2 =
1
3
,
C3 =
4
7
.
A = ..
(1.5)
..
..
.
.
.
am1 am2 amn
Capitolo 1
a11 a12 . . .
a21 a22 . . .
(A | B) = ..
..
.
.
am1 am2
21
di m righe e n + 1 colonne:
a1n b1
a2n b2
.. ..
. .
amn bm
x + y + 2z = 9
2x + 4y 3z = 1
3x + 6y 5z = 0
la matrice completa (formata da tre righe e quattro colonne) e` :
1 1
2 9
2 4 3 1 .
3 6 5 0
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:
1 1
2
9
1 1
2
R2 R2 2R1
0 2 7 17
0 2 7
R3 2R3 3R2
R3 R3 3R1
0 3 11 27
0 0 1
9
17 ,
3
x + y + 2z = 9
2y 7z = 17
z = 3,
che ammette una sola soluzione:
x=1
y=2
z = 3.
Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
x1 + x2 x3 = 1
2x1 + 2x2 + x3 = 0
x1 + x2 + 2x3 = 1
Sistemi Lineari
22
la matrice completa e` :
1
2
1
1 1 1
2
1 0 .
1
2 1
1 1 1 1
1 1 1 1
0 0
R2 R2 2R1 0 0
3 2
3 2 ,
R
R
3
3
2
R3 R3 R1
0 0
3 2
0 0
0 0
da cui si perviene al sistema lineare:
x1 + x 2 x3 = 1
3x3 = 2,
che ammette infinite soluzioni che dipendono da unincognita libera x2 , per maggiore
chiarezza si pone x2 uguale ad un parametro t che quindi pu`o assumere ogni valore reale:
x1 = t
x2 = t
x3 = , t R.
3
Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
x1 + x2 = 1
2x1 + x2 + 3x3 = 2
x1 + 2x2 + 3x3 = 1
la matrice completa e` :
1
2
1
1
1
2
0
3
3
1
2 .
1
1 1 0 1
1 1 0 1
R2 R2 + 2R1 0 3 3 0 R2 (1/3)R2 0 1 1 0
R3 R3 + R1
0 3 3 2
R3 R3 R2
0 0 0 2
Capitolo 1
23
x1 + x2 = 1
x2 + x3 = 0
0 = 2
che e` chiaramente incompatibile.
Gli esempi studiati impongono la definizione formale della matrice associata allultimo
sistema lineare che si ottiene, ossia della matrice associata ad un sistema lineare ridotto
equivalente a quello di partenza.
Definizione 1.7 Una matrice si dice ridotta per righe se in ogni sua riga non nulla esiste
un elemento non nullo al di sotto del quale vi sono tutti zeri.
Esempio 1.8 La matrice:
1
1
1
e` ridotta per righe, mentre la matrice:
1
1
1
2
0
0
0
1
0
2
1
0
0
1 1
non lo e` .
Segue, in modo naturale, la definizione annunciata di sistema lineare ridotto.
Definizione 1.8 Un sistema lineare si dice ridotto se la matrice dei coefficienti ad esso
associata e` ridotta per righe.
Osservazione 1.1 Se la matrice dei coefficienti associata ad un sistema lineare e` ridotta
per righe ma non lo e` la matrice completa, e` sufficiente operare sulla colonna dei termini
noti per pervenire ad una matrice completa ridotta per righe, per esempio:
1 2
3 1
1 2
3 1
0 1 2 2
0 1 2 2
.
(A | B) =
0 0
0 3 R4 4R3 3R4 0 0
0 3
0 0
0 4
0 0
0 0
24
Sistemi Lineari
Invece, la matrice completa di un sistema lineare pu`o essere ridotta per righe senza che
necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:
1 2 3 4
(A | B) = 7 6 5 0
9 8 0 0
e` una matrice ridotta per righe, ma il sistema lineare associato non e` ridotto perche la
matrice dei coefficienti non e` ridotta per righe.
Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante
le operazioni consentite, ad una matrice dei coefficienti ridotta per righe. Dai teoremi che
seguono e anche dallOsservazione 1.1, sar`a chiaro che tra tutte le matrici complete ridotte
per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefficienti e`
ridotta per righe. Si possono allora presentare queste possibilit`a:
a. quella illustrata nellEsempio 1.5, ovvero il numero delle righe non nulle della matrice completa ridotta per righe e` uguale al numero delle righe non nulle della matrice dei coefficienti ridotta per righe ed e` uguale al numero delle incognite, quindi
lultima riga non nulla della matrice dei coefficienti contiene soltanto un numero
non nullo, allora il sistema lineare ridotto associato e` compatibile e ha una sola
soluzione.
b. Quella illustrata nellEsempio 1.6, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe e` uguale al numero delle righe non nulle della
matrice dei coefficienti ed e` minore del numero delle incognite; lultima riga non
nulla della matrice dei coefficienti contiene almeno un numero non nullo; allora il
sistema lineare ridotto e` compatibile e ammette infinite soluzioni che dipendono da
almeno unincognita libera.
c. Quella illustrata nellEsempio 1.7, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe e` maggiore (di una unit`a) del numero delle righe
non nulle della matrice dei coefficienti ridotta per righe e pertanto il sistema lineare
ridotto associato e` incompatibile.
Le definizioni seguenti (che avranno un ruolo cruciale in tutto il testo) permettono, in
modo elementare, di distinguere le situazioni prima esposte.
Definizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non
nulle.
Capitolo 1
25
Definizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta
per righe da essa ottenuta.
Osservazione 1.2 In base alla precedente definizione il rango della matrice formata da
tutti zeri e` 0.
In letteratura, le notazioni pi`u comuni per indicare il rango di una matrice sono rank(A) =
rg(A) = r(A) = rk(A) = (A). Si user`a la notazione rank(A).
Osservazione 1.3 E` evidente che affinch`e la Definizione 1.10 abbia senso e` necessario
dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici
ridotte ottenute hanno lo stesso rango. In realt`a, la Definizione 1.10 esprime il metodo di
calcolo del rango di una matrice. Per dimostrare laffermazione appena citata e` necessario
enunciare unaltra definizione di rango di una matrice e ci`o sar`a fatto nel Paragrafo 4.3
dopo aver introdotto nozioni adesso premature.
I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel
modo seguente:
a. rank(A) = rank(A | B) = 3; il rango delle due matrici e` uguale e coincide con il
numero delle incognite;
b. rank(A) = rank(A | B) = 2; il rango delle due matrici e` uguale ma e` inferiore di
una unit`a al numero delle incognite;
c. rank(A) = 3, rank(A | B) = 4; i due ranghi sono diversi, il sistema lineare e`
incompatibile.
Si e` cos` quasi dimostrato il seguente teorema.
Teorema 1.2 Teorema di RoucheCapelli Un sistema lineare in n incognite e` compatibile se e solo se il rango della matrice dei coefficienti A coincide con il rango della
matrice completa (A | B). In particolare, se rank(A) = rank(A | B) = n, il sistema
lineare ha ununica soluzione. Se rank(A) = rank(A | B) = k < n, il sistema lineare
ammette infinite soluzioni che dipendono da n k incognite libere.
Si osservi, infatti, che il Teorema di RoucheCapelli e` banalmente dimostrato solo nel
caso dei sistemi lineari ridotti; per completare la dimostrazione e` necessario, come gi`a osservato, enunciare unaltra definizione di rango di una matrice e provare che le operazioni
di riduzione per righe di una matrice non ne alterano il rango (cfr. Teor. 4.21).
Sistemi Lineari
26
Osservazione 1.4 Un sistema lineare omogeneo e` sempre compatibile, perci`o e` solo interessante capire se ammetta una sola soluzione (quella nulla) o infinite soluzioni e ci`o
dipende interamente dal rango della matrice dei coefficienti. Per la risoluzione di un sistema lineare omogeneo e` sufficiente ridurre per righe la matrice dei coefficienti (questo
caso sar`a esaminato in dettaglio nel Paragrafo 1.2.1).
Osservazione 1.5 Mentre segue dalla Definizione 1.10 che, per una matrice A con m
righe e n colonne, rank(A) m, si dimostrer`a formalmente che il rango della matrice
dei coefficienti di un sistema lineare e` un numero inferiore o uguale al minore tra il numero
delle equazioni e il numero delle incognite, cio`e rank(A) m e rank(A) n.
Osservazione 1.6 Al pi`u il rango della matrice completa differisce di una unit`a dal rango
della matrice dei coefficienti, cio`e rank(A | B) rank(A) + 1.
Esempio 1.9 Metodo di riduzione di GaussJordan Per determinare le soluzioni
di un sistema lineare si pu`o procedere in modo leggermente diverso da quando si e` visto
finora. Quando si perviene alla matrice completa ridotta per righe, anziche scrivere il sistema lineare ridotto associato si pu`o, in modo equivalente, procedere allo stesso calcolo
mediante unulteriore riduzione della matrice completa allo scopo di pervenire alla lettura
nellultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo
metodo, detto anche metodo di riduzione di GaussJordan, per differenziarlo dal metodo
di riduzione di Gauss introdotto in precedenza, e` molto efficace quando si ha una sola soluzione, ma pu`o presentare alcune difficolt`a di calcolo negli altri casi. Viene ora illustrato
con un esempio e precisamente partendo dallultimo passaggio di riduzione nellEsempio
1.5. La matrice dei coefficienti ha, in questo caso, lo stesso numero di righe e di colonne. Pertanto ha senso considerare la sua diagonale principale, cio`e linsieme formato da
tutti gli elementi aii , i = 1, 2, 3 (tale nozione sar`a ripresa e riformulata con maggiore
propriet`a di linguaggio nellEsempio 2.6). Quando la matrice dei coefficienti e` ridotta
per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo
dallultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la
diagonale principale.
9
1 1
2
1 1
2
9
0 2 7 17 R2 (1/2)R2 0 1 7 17
2
2
R3 R3
0 0 1
3
0 0
1
3
R2 R2 + (7/2)R3
R1 R1 2R3
1
1
0
0 3
0 2
1 3
R1 R1 R2
0
1
0
0 1
0 2
1 3
Capitolo 1
27
Si osservi che sullultima colonna, si legge, in ordine, proprio la soluzione del sistema lineare dato. Si presti molta attenzione allordine con cui compaiono i valori delle incognite
nellultima colonna, che dipende dal metodo di riduzione seguito.
Esercizio 1.1 Discutere e risolvere, al variare del parametro a R, il seguente sistema
lineare di tre equazioni in tre incognite:
x + 2y 3z = 4
3x y + 5z = 2
4x + y + (14 + a2 )z = 2 + a.
Soluzione Si procede con la riduzione per righe della matrice completa (A | B), riportando solo i passaggi essenziali.
1
2
3
4
3 1
5
2
R2 R2 3R1
(A | B) =
4
1 14 + a2 2 + a
R3 R3 4R1
1
2
3
4
1
2
3
0 7
0 7
14
10
14
R3 R3 R2
2
0 7 2 + a
14 + a
0
0 16 + a2
4
10 .
4 + a
La matrice dei coefficienti A e` ridotta per righe, quindi si presentano i seguenti casi:
1. rank(A) = 3 se e solo se a2 16 6= 0 ossia se e solo se a
/ {4, 4};
2. rank(A) = 2 se e solo se a = 4 oppure a = 4.
Per determinare le soluzioni del sistema lineare si devono considerare tre casi:
1. a
/ {4, 4}, poiche rank(A) = 3 anche rank(A | B) = 3. Il sistema lineare e`
compatibile e ammette una sola soluzione, che si determina o a partire dal sistema
lineare ridotto associato, oppure procedendo allulteriore riduzione della matrice
completa prima ottenuta nel modo seguente:
1
R3
R3
16 + a2
7 14
0
4
10
4 + a
(4 + a)(4 + a)
R2 R2
Sistemi Lineari
28
2 3
4
10
7
1 2
0
1
4+a
R2 R2 + 2R3
R1 R1 + 3R3
0
R1 R1 2R2
19 + 4a
4+a
54 + 10a
7(4 + a)
1
4+a
25 + 8a
7(4 + a)
54 + 10a
.
7(4 + a)
1
4+a
1
0
0
2 3 4
7 14 10
0
0 8
0
7 14 10
1
R2 R2
7
0
0 0
0
2 3
1 2
10
7
Capitolo 1
29
x
=
t
10
+ 2t
y=
z = t,
t R.
Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel
modo seguente:
8
10
8 10
(x, y, z) =
t,
+ 2t, t =
, , 0 + t(1, 2, 1), t R,
7
7
7 7
mettendo cos` meglio in evidenza la dipendenza dallincognita libera z = t. Si osservi
inoltre che sostituendo a t un particolare valore si ottiene una soluzione particolare del
sistema lineare.
1.2.1
Si ricordi che un sistema lineare omogeneo e` un sistema lineare avente tutti i termini noti
uguali a zero, cio`e del tipo:
a x + a x + . . . . . . + a x = 0, a R,
m1 1
m2 2
mn n
ij
la cui matrice dei coefficienti A coincide con (1.5) e quella completa (A |B) e` :
(A | B) = ..
..
.. .. ;
.
.
. .
am1 am2 amn 0
quindi il rango della matrice dei coefficienti A coincide con il rango della matrice completa (A | B). Infatti, come si e` gi`a osservato, un sistema lineare omogeneo ammette
sempre almeno la soluzione nulla. E` molto interessante distinguere il caso in cui si ha una
sola soluzione da quello con infinite soluzioni:
Sistemi Lineari
30
1. se il rango di A coincide con il numero delle incognite, allora esiste solo la soluzione (0, 0, . . . , 0);
2. se il rango di A e` un numero k strettamente minore del numero delle incognite n,
allora esistono infinite soluzioni che dipendono da n k incognite libere.
Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque incognite:
x3 + x4 + x5 = 0
x1 x2 + 2x3 3x4 + x5 = 0
x1 + x2 2x3 x5 = 0
2x1 + 2x2 x3 + x5 = 0
ha come matrice dei coefficienti:
0
0
1
1
1
1 1
2 3
1
.
A=
1
1 2
0 1
2
2 1
0
1
Procedendo alla sua riduzione per righe (si osservi che e` inutile ridurre per righe la matrice
completa) si ha:
1
1 2
0 1
1 1 2
0 1
0
1
1
1
1
1
1
R3 R3 + R1 0 0
R3 R1
1 1
0 0
2 3
1
0 3
0
R2 R3
R4 R4 2R1
2
2 1
0
1
0 0
3
0
3
1 1 2 0 1
0 0
1 1
1
R3 (1/3)R3
0 0
0 1
0
R4 (1/3)R4
0 0
1 0
1
1 1 2
0 1
0 0
1
1
1
.
R4 R4 R2 0 0
0
1
0
0 0
0 1
0
Si deduce che rank(A) = 3, esistono, quindi, infinite soluzioni che dipendono da 53 = 2
incognite libere. Il sistema lineare ridotto associato e` :
x1 + x2 2x3 x5 = 0
x3 + x4 + x5 = 0
(1.7)
x4 = 0
Capitolo 1
31
x1 = t1 t2
x2 = t2
x3 = t1
4 = 0
x5 = t1 , t1 , t2 R.
Osservazione 1.8 Linsieme delle soluzioni del sistema lineare precedente si pu`o scrivere
come:
n
(x1 , x2 , x3 , x4 , x5 ) = (t1 t2 , t2 , t1 , 0, t1 )
o
= t1 (1, 0, 1, 0, 1) + t2 (1, 1, 0, 0, 0) | t1 , t2 R .
Il seguente teorema mette in relazione le soluzioni di un sistema lineare compatibile qualsiasi (1.2) con il sistema lineare omogeneo (1.6), che ha la stessa matrice dei coefficienti.
Tale sistema lineare (1.6) e` anche detto il sistema lineare omogeneo associato a (1.2).
Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene
aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del
sistema lineare omogeneo associato (1.6).
Dimostrazione Sia (x1 , x2 , . . . , xn ) una soluzione particolare di (1.2) e (x1 , x2 , . . . , xn )
una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verifica
immediatamente che (x1 + x1 , x2 + x2 , . . . , xn + xn ) e` ancora una soluzione di (1.2).
Viceversa, se (x01 , x02 , . . . , x0n ) e (x001 , x002 , . . . , x00n ) sono due soluzioni qualsiasi di (1.2),
delle quali (x01 , x02 , . . . , x0n ) e` quella generale e (x001 , x002 , . . . , x00n ) e` una soluzione particolare, allora e` facile verificare che (x01 x001 , x02 x002 , . . . , x0n x00n ) e` soluzione del sistema
lineare omogeneo associato (1.6).
Esempio 1.11 Si consideri il sistema lineare:
x1 + x2 2x3 x5 = 5
x3 + x4 + x5 = 4
x4 = 3
(1.8)
che ha come sistema lineare omogeneo associato (1.7). Linsieme delle sue soluzioni e` :
n
(x1 , x2 , x3 , x4 , x5 ) = (7 t1 t2 , t2 , 1 t1 , 3, t1 )
o
= (7, 0, 1, 3, 0) + t1 (1, 0, 1, 0, 1) + t2 (1, 1, 0, 0, 0) | t1 , t2 R .
32
Sistemi Lineari
Si osservi che (7, 0, 1, 3, 0) e` una soluzione particolare del sistema lineare dato, mentre:
t1 (1, 0, 1, 0, 1) + t2 (1, 1, 0, 0, 0),
al variare di t1 e t2 in R, e` la generica soluzione del sistema lineare omogeneo (1.7)
associato.
Analogamente, si verifichi per esercizio che il sistema lineare seguente:
x1 + x2 2x3 x5 = 1
x3 + x4 + x 5 = 2
x4 = 1,
che ha la stessa matrice dei coefficienti di (1.8) ma diversa matrice completa, ha come
insieme di soluzioni:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 t1 t2 , t2 , 3 t1 , 1, t1 )
o
= (7, 0, 3, 1, 0) + t1 (1, 0, 1, 0, 1) + t2 (1, 1, 0, 0, 0) | t1 , t2 R .
Capitolo 2
Matrici e Determinanti
Scopo di questo capitolo e` quello di formalizzare il concetto di matrice gi`a introdotto
nel capitolo precedente e studiare le propriet`a essenziali dellinsieme delle matrici che
costituisce un valido esempio di spazio vettoriale, struttura algebrica che sar`a definita nel
Capitolo 4.
2.1
Definizione 2.1 Una matrice di m righe e di n colonne, ad elementi reali, e` una tabella
del tipo:
A=
a11
a21
..
.
a12
a22
..
.
. . . a1n
. . . a2n
..
.
(2.1)
con aij R, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Per convenzione le matrici vengono indicate con le lettere maiuscole dellalfabeto e linsieme della matrici di m righe ed n colonne sar`a indicato con Rm,n o, talvolta, con
MR (m, n). In forma sintetica la matrice (2.1) si pu`o anche scrivere come:
A = (aij ),
1 i m, 1 j n,
Matrici e Determinanti
34
Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una
colonna, cio`e come elementi di R1,1 . Quindi R e` effettivamente uguale a R1,1 .
Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono
quadrate e tale numero si dice ordine della matrice. Per esempio:
1 2
A=
3 4
e` una matrice quadrata di ordine 2.
Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga. Per esempio:
A = 1 2 3 4 R1,4
e` una matrice riga.
Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna. Per
esempio:
1
2
4,1
A=
3 R
4
e` una matrice colonna.
Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del
prodotto cartesiano:
Rn = {(x1 , x2 , . . . , xn ) | xi R, i = 1, 2, . . . , n}
possono essere visti come matrici riga o colonna. Quindi Rn pu`o essere identificato sia
con R1,n sia con Rn,1 .
Esempio 2.5 La matrice (aij ) Rm,n , con tutti gli elementi aij = 0, si dice matrice
nulla e si indica con O, da non confondersi con il numero 0 R. E` evidente che la
matrice nulla e` lunica matrice ad avere rango zero (cfr. Oss. 1.2).
Esempio 2.6 Nel caso di una matrice quadrata A = (aij ) di ordine n, tutti gli elementi
del tipo aii , al variare di i da 1 a n, costituiscono la diagonale principale. Rivestiranno
in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi
Capitolo 2
35
elementi tutti nulli al di fuori della diagonale principale cio`e aij = 0 se i 6= j . Linsieme
delle matrici diagonali di ordine n sar`a indicato con:
a
0
.
.
.
0
11
0 a22 . . . 0
n,n
|
a
R,
i
=
1,
2,
.
.
.
,
n
.
(2.2)
D(R ) = ..
.. . .
..
ii
.
.
.
0
0 . . . ann
Esempio 2.7 Casi particolari dellesempio precedente sono la matrice unit`a I Rn,n ,
ossia la matrice diagonale avente tutti 1 sulla diagonale principale:
1 0 ... 0
0 1 ... 0
I = .. .. . . ..
. .
. .
0 0 ... 1
e la matrice quadrata nulla O Rn,n , intendendosi come tale la matrice quadrata avente
tutti gli elementi uguali a 0.
La definizione che segue stabilisce la relazione di uguaglianza tra matrici.
Definizione 2.2 Due matrici A = (aij ) e B = (bij ) sono uguali se:
1. hanno lo stesso numero di righe e di colonne, cio`e A e B appartengono entrambe
allo stesso insieme Rm,n ,
2. gli elementi di posto uguale coincidono, cio`e:
aij = bij ,
i = 1, 2, . . . , m, j = 1, 2, . . . , n.
1
3
2
4
,
B=
0
2
5
7
Matrici e Determinanti
36
1 7
1 11
.
Se A e B non appartengono allo stesso insieme Rm,n , non e` possibile definire la loro
somma. Ad esempio non e` definita la somma della matrice A con la matrice:
0 3 2
C=
.
1 5 6
Teorema 2.1 Per loperazione di somma di matrici definita sullinsieme Rm,n valgono
le propriet`a di seguito elencate:
1. A + B = B + A,
2. A + (B + C) = (A + B) + C,
3. O + A = A + O = A,
4. A + (A) = O,
Dimostrazione
E` lasciata per esercizio ed e` la naturale conseguenza del fatto che la
somma di numeri reali soddisfa le stesse propriet`a. Lelemento neutro per la somma di
matrici e` la matrice nulla O Rm,n introdotta nellEsempio 2.5, lopposto della matrice
A = (aij ) Rm,n e` la matrice A Rm,n cos` definita A = (aij ).
Osservazione 2.2 Un insieme con unoperazione che verifichi le propriet`a del teorema
precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le propriet`a 2., 3., 4. Pertanto (Rm,n , +) con loperazione di somma di matrici ha la struttura di
gruppo commutativo.
Definizione 2.4 Si definisce prodotto di un numero reale per una matrice A = (aij ) di
Rm,n la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale ,
ossia:
A = (aij ),
quindi A e` ancora una matrice di Rm,n .
A volte si usa il termine scalare per indicare il numero reale e il prodotto di un numero
reale per una matrice e` anche detto quindi prodotto di uno scalare per una matrice.
Capitolo 2
37
1 2
3 4
3 6
9 12
A=
,
il prodotto 3A e` la matrice:
3A =
.
R, A, B Rm,n ;
2. ( + )A = A + A,
, R, A Rm,n ;
3. ()A = (A),
4. 1A = A,
Dimostrazione
, R, A Rm,n ;
A Rm,n .
Si tratta di un semplice esercizio.
Osservazione 2.3 Linsieme delle matrici Rm,n , considerato congiuntamente con le operazioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro
propriet`a prima enunciate, d`a luogo ad una struttura algebrica che e` un esempio di spazio
vettoriale.
Gli spazi vettoriali, che costituiscono la base dellalgebra lineare, saranno studiati in modo intensivo a partire dal Capitolo 4. Si e` preferito, per ragioni didattiche, anteporre la
descrizione degli esempi pi`u facili di spazi vettoriali alla loro stessa definizione. Questo e` il caso di Rm,n e nel prossimo capitolo la stessa idea sar`a applicata allinsieme dei
vettori ordinari dello spazio in modo da permettere al Lettore di prendere confidenza con
nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola secondaria superiore e di dare la possibilit`a di affrontare pi`u agevolmente lo studio dei capitoli
successivi.
Matrici e Determinanti
38
2.2
Il prodotto di matrici
La definizione di prodotto di matrici, oggetto di questo paragrafo, trova una sua giustificazione, per esempio, nella rappresentazione mediante matrici dei movimenti in uno spazio
vettoriale e nella loro composizione, problematiche che saranno trattate diffusamente nel
Capitolo 6.
A prescindere da argomenti pi`u sofisticati, si introduce questa nuova operazione tra matrici che, anche se a prima vista appare singolare, e` comunque dotata di interessanti
propriet`a, che rendono plausibile la seguente definizione.
Definizione 2.5 Il prodotto della matrice A = (aij ) di Rm,n con la matrice B = (bij ) di
Rn,p e` la matrice C = AB = (cij ) di Rm,p i cui elementi sono dati da:
cij = ai1 b1j + ai2 b2j + . . . + ain bnj =
n
X
aik bkj .
(2.3)
k=1
Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve
avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice
prodotto avr`a il numero di righe del primo fattore e il numero di colonne del secondo
fattore. Da questa definizione segue che il prodotto di due matrici non e` commutativo. A
titolo di esempio, si calcoli il prodotto delle matrici:
A=
1 2 3
,
4 5 6
1 1
0
1
B=
3
5
2
2
7
3
4 ,
9
10 16 27 38
22 31 60 86
.
Per la sua particolare definizione, questo tipo di prodotto di matrici prende il nome di
prodotto righe per colonne.
Capitolo 2
39
Osservazione 2.4 E` chiaro che il prodotto di due matrici quadrate dello stesso ordine e`
ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in
generale la propriet`a commutativa, per esempio date:
1 2
0 1
A=
, B=
3 4
2 3
si ha:
4 7
8 15
3 4
11 16
.
AB =
mentre:
BA =
Nel caso delle matrici quadrate di ordine 1 il prodotto e` ovviamente commutativo perche
coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto
e` commutativo, come si osserver`a nel Paragrafo 2.5.
Osservazione 2.5 Il prodotto di matrici ha singolari particolarit`a. Per esempio:
1 2
2 2
0 0
AB =
=
= O R2,2 ,
1 2
1 1
0 0
in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora necessariamente o a = 0 o b = 0. Ovviamente se O Rm,n e` la matrice nulla e
A Rn,p , B Rk,m allora:
OA = O Rm,p
e BO = O Rk,n .
1
2
4,1
B=
3 R ,
4
A=
1 2 3 4
R1,4 ,
allora:
AB = (30) R1,1 ,
mentre:
1
2
BA =
3
4
2 3 4
4 6 8
R4,4 .
6 9 12
8 12 16
Matrici e Determinanti
40
2. A(B + C) = AB + AC,
A Rp,m , B, C Rm,n e
R, A Rm,n , B Rn,k ;
4. AI = IA = A, A Rn,n (le due uguaglianze occorrono solo nel caso delle matrici quadrate; la matrice unit`a I Rn,n e` lelemento neutro rispetto al
prodotto).
Dimostrazione
Paragrafo 2.9.
E` lasciata per esercizio nei casi pi`u semplici, per gli altri si rimanda al
E` valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici
moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda
al Paragrafo 4.5.
Teorema 2.4 Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2 An ) min{rank(A1 ), rank(A2 ), . . . , rank(An )},
(2.4)
quindi, in particolare, il rango del prodotto di matrici e` minore o uguale del rango di
ciascun fattore.
Osservazione 2.6 E` chiaro, anche se pu`o sorprendere, che e` necessario porre il segno di
disuguaglianza in (2.4), come si pu`o per esempio notare dal fatto che:
0 1
0 1
0 0
=
,
0 0
0 0
0 0
infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0.
2.2.1
m,n
A = ..
..
.. R
.
.
.
am1 am2 amn
Capitolo 2
41
X=
x1
x2
..
.
Rn,1
xn
la matrice colonna delle incognite e:
B=
b1
b2
..
.
Rm,1
bm
la matrice colonna dei termini noti, allora il sistema lineare (1.2) si pu`o scrivere, in
notazione matriciale, come:
AX = B.
2.3
La matrice inversa
Avendo introdotto il prodotto di matrici (che generalizza il prodotto di numeri reali) appare naturale introdurre il concetto di inversa di una matrice quadrata; a differenza del
caso dei numeri e` necessario prestare particolare attenzione alla definizione in quanto il
prodotto di matrici non e` commutativo.
Definizione 2.6 Sia A Rn,n una matrice quadrata di ordine n. A si dice invertibile se
esiste una matrice X Rn,n tale che:
AX = XA = I,
(2.5)
42
Matrici e Determinanti
che e` assurdo. Si osservi che, nella dimostrazione, si e` usata la propriet`a associativa del
prodotto di matrici.
La matrice X cos` definita si dice matrice inversa di A e si indica con A1 .
Per la matrice inversa valgono le seguenti propriet`a la cui dimostrazione e` lasciata per
esercizio.
Teorema 2.6 1. (AB)1 = B 1 A1 , con A, B Rn,n matrici invertibili.
2. (A1 )1 = A, con A Rn,n matrice invertibile.
Osservazione 2.7 Segue dal punto 1. e dalle propriet`a del prodotto di matrici che linsieme:
GL(n, R) = {A Rn,n | A e` invertibile}
e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), noto come gruppo lineare
generale reale.
Nei paragrafi successivi si affronter`a il problema di calcolare linversa di una matrice, di
conseguenza, si tratter`a di capire, innanzi tutto, quando una matrice quadrata e` invertibile.
Si consiglia, prima di continuare la lettura, di svolgere il seguente esercizio.
Esercizio 2.1 Determinare le condizioni affinche la matrice:
a11 a12
A=
a21 a22
sia invertibile e, in questi casi, calcolare A1 .
Si osservi che per risolvere lesercizio si deve discutere e risolvere il sistema lineare
AX = I :
a11 a12
x11 x12
1 0
=
a21 a22
x21 x22
0 1
di quattro equazioni nelle quattro incognite x11 , x12 , x21 , x22 , che sono gli elementi della
matrice X.
2.4
Definizione 2.7 Data una matrice A Rm,n si definisce trasposta di A, e la si indica con
t
A la matrice di Rn,m che si ottiene scambiando le righe con le colonne della matrice A,
in simboli se A = (aij ) allora tA = (bij ) con bij = aji , i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Capitolo 2
43
1 2 3
4 5 6
allora:
1 4
t
A = 2 5 .
3 6
Se:
A=
1 2 3 4
allora:
1
2
t
A=
3 .
4
Osservazione 2.8
1. Si osservi che se una matrice e` quadrata, allora anche la sua
trasposta e` una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla
matrice di partenza, per esempio:
A=
1
1
2
0
,
A=
1 1
2
0
.
2. Se una matrice e` diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la
matrice stessa.
Per la trasposta di una matrice valgono le seguenti propriet`a la cui dimostrazione e` lasciata
per esercizio e si pu`o leggere nel Paragrafo 2.9.
Teorema 2.7 1.
(A + B) = tA + tB,
2. t (A) = tA,
3. t (AB) = tB tA,
A, B Rm,n .
A Rm,n , R.
A Rm,n , B Rn,k .
Matrici e Determinanti
44
2.5
0 a22 . . . . . . . . . a2n
.
.
.
...
.
.
.
.
.
.
n,n
n,n
T (R ) =
R | aij R ;
0 . . . akk . . . akn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 . . . 0 . . . ann
(2.6)
si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della
diagonale principale, vale a dire se A = (aij ) con i, j = 1, 2, . . . , n, allora aij = 0
se i > j . E` facile osservare che la somma di due matrici triangolari superiori e`
ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero
reale per una matrice triangolare superiore. Molto pi`u sorprendente e` il fatto che il
prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, e` ancora
una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice
C = (cij ) Rn,n prodotto delle matrici triangolari superiori A = (aij ) T (Rn,n )
e B = (bij ) T (Rn,n ). Per semplicit`a si calcola ora solo lelemento c21 della
matrice prodotto C = AB , lasciando il calcolo in generale per esercizio. Da (2.3)
si ha:
c21 = a21 b11 + a22 b21 + . . . a2n bn1 = 0b11 + a22 0 + . . . + a2n 0 = 0,
in quanto aij = 0 e bij = 0 se i > j .
Si possono definire in modo analogo le matrici triangolari inferiori, con propriet`a
simili a quelle descritte nel caso delle matrici triangolari superiori. Come e` gi`a stato
osservato nel Capitolo 1, il calcolo del rango di una matrice triangolare superiore e`
molto semplice.
2. Linsieme delle matrici diagonali D(Rn,n ) introdotte nellEsempio 2.6. La caratteristica principale di tali matrici e` la loro analogia con il campo dei numeri reali,
infatti il prodotto di due matrici diagonali e` ancora una matrice diagonale, avente
ordinatamente sulla diagonale principale il prodotto degli elementi corrispondenti
delle due matrici date. Le matrici diagonali sono, ovviamente, sia matrici triangolari superiori sia matrici triangolari inferiori. Quindi una matrice diagonale e` ridotta
per righe, di conseguenza, il suo rango e` pari al numero degli elementi non nulli
della diagonale principale. Nel caso di rango massimo, la matrice diagonale e` invertibile e la sua inversa ha sulla diagonale principale ordinatamente gli inversi dei
Capitolo 2
45
(2.7)
A = ..
.. . .
.. ;
.
.
.
.
a1n a2n . . . ann
in altri termini, una matrice A = (aij ) Rn,n e` simmetrica se e solo se:
aij = aji ,
i, j = 1, 2, . . . , n,
Matrici e Determinanti
46
(2.8)
0
a12 . . . a1n
a12
0
. . . a2n
A = ..
..
.. ;
.
.
.
. .
.
a1n a2n . . . 0
in altri termini, una matrice A = (aij ) Rn,n e` antisimmetrica se e solo se:
aij = aji ,
i, j = 1, 2, . . . , n,
(2.9)
con I matrice unit`a di ordine n. Usando il fatto che, in modo equivalente alla definizione, A e` ortogonale se A tA = I , si verifichi per esercizio che ogni matrice
ortogonale A e` invertibile con inversa A1 = tA. Si verifichi inoltre che la trasposta e linversa di una matrice ortogonale sono matrici ortogonali e che il prodotto
di due matrici ortogonali e` ortogonale. Si stabilisca se la somma di due matrici
ortogonali e` una matrice ortogonale e se il prodotto di una matrice ortogonale per
un numero reale e` una matrice ortogonale. Le matrici ortogonali saranno di importanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le
loro propriet`a saranno dimostrate nel Teorema 5.7.
2.6
Le equazioni matriciali
Capitolo 2
47
(2.10)
(2.11)
con incognita Y, infatti operando con la trasposta su ambo i membri di (2.11) si ha:
t
C t Y = tD,
cio`e ci si riconduce ad unequazione matriciale del tipo (2.10), avendo cura di notare che
lincognita della nuova equazione sar`a t Y.
Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np
incognite. Infatti posto:
A=
a11
a21
..
.
a12
a22
..
.
. . . a1n
. . . a2n
..
.
Rm,n ,
X=
B=
b11
b21
..
.
b12
b22
..
.
. . . b1p
. . . b2p
..
.
Rn,p ,
Rm,p ,
a x + a x + ... + a x = b .
11 1p
12 2p
1n np
1p
Matrici e Determinanti
48
X = ..
=
,
B
=
..
..
..
..
..
.. = .. ,
.
.
.
. .
.
. .
xn1 xn2 . . . xnp
Xn
bm1 bm2 . . . bmp
Bm
il sistema lineare (2.12) si pu`o scrivere come:
a11 X1 + a12 X2 + . . . + a1n Xn = B1 .
Ripetendo lo stesso calcolo per le altre righe di AX = B si ottiene che lequazione
matriciale (2.10) equivale al sistema lineare di equazioni matriciali:
a X + a X + ... + a X = B ,
m1
m2
mn
(A | B) = ..
..
.. ..
..
.. .
.
.
. .
.
.
am1 am2 . . . amn bm1 bm2 . . . bmp
Si distinguono tre casi:
1. rank(A) 6= rank(A | B): non esistono soluzioni;
2. rank(A) = rank(A | B) = n numero delle incognite: esiste una sola soluzione;
3. rank(A) = rank(A | B) = k < n: esistono infinite soluzioni che dipendono da
n k elementi di Rp .
Capitolo 2
49
2 3
1
1 2
2
1 , B = 0 1 1 ,
A= 1 0
0 3 1
1 0
4
si procede con la riduzione per
modo seguente:
2 3
1 1
1 0
(A | B) = 1 0
0 3 1 1
2
2
2 3 1
1 1
0 3 1
R2 2R2 R1
0
4
0 3 1
1
1
1
2 2
0 4 ,
0 4
da cui si deduce che rank(A) = rank(A | B) = 2, si ottengono cos` infinite soluzioni che
dipendono da un elemento qualsiasi (a, b, c) di R3 . Ponendo:
X1
X = X2 R3,3
X3
la matrice (A | B) ridotta per righe d`a luogo al sistema lineare ridotto:
2X1 + 3X2 + X3 = (1, 2, 2)
3X2 + X3 = (1, 0, 4)
le cui soluzioni sono:
(a, b, c) R3
e, quindi:
1 3a 1 3b 3 3c
,
a
b
c
X=
1 + 3a
3b
4 + 3c
(a, b, c) R3 .
1 0 1
1 1 0
1 1
0 , B=
A=
,
0
1 1
1 0
0
si osserva che da XA = B , calcolando la trasposta delle matrici del primo e del secondo
membro, si ha tA tX = tB , pertanto ci si riconduce ad unequazione matriciale dello
stesso tipo di quella studiata nellesempio precedente. Ponendo:
Matrici e Determinanti
50
Y1
t
X = Y = Y2 R3,2
Y3
segue che lequazione tAY = tB e` equivalente al sistema lineare:
Y1 + Y2 + Y3 = (1, 0)
Y2 = (1, 1)
Y1 = (0, 1),
che ha come unica soluzione:
Y1 = (0, 1),
Y2 = (1, 1),
Y3 = (2, 0)
e, quindi:
X=
2.6.1
0 1
1
1
2
0
.
Come immediata conseguenza del paragrafo precedente si procede al calcolo delleventuale matrice inversa di una matrice quadrata A = (aij ) Rn,n risolvendo lequazione
matriciale:
AX = I.
Si deve, quindi, ridurre per righe la matrice completa:
(A | I) = ..
.. . .
.. ..
.
.
.
. .
an1 an2 . . . ann 0
0 ...
1 ...
.. . .
.
.
0 ...
0
0
..
.
Capitolo 2
51
Il viceversa non pu`o essere dimostrato a questo punto del corso, si rimanda al Paragrafo
4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X Rn,n
tale che AX = I (per il Teorema di RoucheCapelli, cfr. Teor. 1.2), ma per dimostrare
che anche XA = I e dedurre quindi che X = A1 si deve risolvere lequazione matriciale tA tX = I . Pertanto e` necessario dimostrare che anche tA ha lo stesso rango di
A, e ci`o sar`a oggetto del Teorema 4.19. Daltro canto, se esistono due matrici X e Y,
entrambe appartenti a Rn,n , tali che AX = I e Y A = I allora segue X = Y infatti:
Y = Y I = Y (AX) = (Y A)X = IX = X.
Da rank(A) = n si ha che esiste una sola matrice X tale che AX = I . Da rank(tA) = n
segue che esiste una sola matrice Z Rn,n tale che tA Z = I. Considerando la trasposta
delle matrici a primo e a secondo membro dellultima uguaglianza si ha tZA = I, quindi,
dallosservazione precedente si ottiene tZ = X = A1 .
Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante
la risoluzione dellequazione matriciale AX = I. Un secondo metodo sar`a spiegato nel
Paragrafo 2.8.2.
0
0
1
0
A=
0 1
2
1
2
0
0
1
.
3
0
5 3
Soluzione Si procede alla riduzione per righe della matrice (A | I), il calcolo del rango
di A e` contenuto in questo procedimento:
1 0
0 1
2 1
5 3
R1 R3
0
R2 R1
0 1 3 0
0 0 2 0
2 1 5 3
Matrici e Determinanti
52
R2 R2
R3 (1/2)R3
R4 R4 2R1
R4 R4 R2
R4 R4 8R3
1 3
0 1
1
2
5 5
0 2
1
0
1 3
0 1
1
2
8 5
0 2
1 3
0 1
1
2
0 5 4 2
1
0
A questo punto dellesercizio si deduce che rank(A) = 4, pertanto la matrice A e` invertibile. Per calcolare direttamente linversa conviene procedere riducendo ulteriormente
lultima matrice ottenuta, come descritto nellEsempio 1.9 del Capitolo 1. Dallultimo
passaggio segue:
R4 (1/5)R4
1 3
1
2
4
5
0
0 0
2
1 1
5
5 5
0
0
1
Capitolo 2
R1 R1 R4
R2 R2 + 3R3
5
3
2
1
2
4
5
53
3
5
1
5
2
5
1
5
5 5
1 3
h
0
A=
1 1
0
0
1
0
0
0
2
0
,
0
h
h R,
1 3 1 2 1
h
0 0 0 0
1 1 0 0 0
0
0 0 h 0
0
R2 R2 hR1
0
R3 R3 R1
1
0
0
1
0
1 3
1
2 1
0 3h h 2h h
0 2 1 2 1
0 0
0
h 0
0
1
0
0
0
0
1
0
0
0
0 R2 R3
1
1 3
1
2 1
0 2 1 2 1
0 3h h 2h h
0 0
0
h 0
0
0
1
0
0
1
0
0
0
0
0 R3 2R3 3hR2
1
Matrici e Determinanti
54
1 3
1
2 1
0
2 1 2 1
0
0
h 2h h
0
0
0
h 0
0
0
0
1
2 3h
0
0
0
0
,
0
1
a questo punto si deduce che rank(A) = 4 se e solo se h 6= 0, quindi solo in questo caso
esiste A1 . Si assume perci`o h 6= 0 e si procede con la riduzione per ottenere la matrice
inversa:
1 3 1
2
1 0
0 0
1
1
1
0
0
R2 (1/2)R2 0 1 2 1 2
R3 (1/h)R3
2
0 0 1
2
1
3 0
R4 (1/h)R4
1
0 0 0
1
0 0
0
h
1 3 1
0 1
R3 R3 2R4
R2 R2 + R4
0 0 1
R1 R1 2R4
0 0 0
R2 R2 + (1/2)R3
R1 R1 R3
1
2
2
h
1 3
0 1
0 0
0 0
2
0
h
1
1
2 h
2
3
h
1
0
h
2
0 0
h
0 0
1
h
0 1
2
h
1 0
1
0
2
3
h
1
0
h
Capitolo 2
R1 R1 + 3R2
55
0 0
1
h
0 0
1
h
0 1
2
h
1 0
1
0
2
3
h
1
0
h
2.7
Definizione 2.8 Sia A una matrice quadrata, di ordine n, ad elementi reali. Si definisce
traccia di A, e si indica con tr(A) la somma degli elementi della sua diagonale principale.
Se A = (aij ) allora:
tr(A) = a11 + a22 + . . . + ann =
n
X
i=1
aii .
Matrici e Determinanti
56
Le propriet`a della traccia di una matrice quadrata sono elencate nel seguente teorema.
Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti propriet`a:
1. tr(A + B) = tr(A) + tr(B),
2. tr(A) = tr(A),
3. tr(A B) = tr(B A),
4. tr( tA) = tr(A),
per ogni A, B Rn,n , per ogni R.
Dimostrazione
(2.13)
per ogni A Rn,n e per ogni matrice invertibile P di Rn,n , propriet`a che sar`a molto
importante nel Capitolo 7.
Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla e` uguale a zero,
cos` come e` uguale a zero la traccia di una matrice antisimmetrica.
2.8
Il determinante
A 7 det(A)
Capitolo 2
57
58
Matrici e Determinanti
Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2, si indovina lo sviluppo del determinante di una matrice quadrata di ordine 3, ponendo:
a11 a12 a13
a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31
a31 a32 a33
a11 a23 a32 a13 a22 a31 a12 a21 a33
X
dove indica una qualsiasi permutazione dei numeri 1, 2, 3 e () e` il suo segno. Si
osserva che, per costruzione, ogni addendo a1(1) a2(2) a3(3) contiene un elemento appartenente a ciascuna riga e a ciascuna colonna della matrice A. In altri termini in ogni
addendo non esistono due elementi appartenenti ad una stessa riga o ad una stessa colonna
di A, perche e` una biiezione.
Si pu`o cos` enunciare la definizione di determinante di una matrice quadrata di ordine n.
Definizione 2.9 Il determinante di una matrice quadrata A = (aij ) di ordine n e` dato
da:
X
det(A) =
()a1(1) a2(2) . . . an(n) ,
(2.14)
dove indica una qualsiasi permutazione dei numeri 1, 2, . . . , n e () e` il suo segno.
Osservazione 2.10 Come gi`a osservato nellEsempio 2.14, in ogni addendo della somma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna
della matrice A, inoltre ogni addendo di (2.14) e` il prodotto di n elementi della matrice
quadrata A appartenenti ad ogni riga e ad ogni colonna di A.
Dalla Definizione 2.9 si deducono le seguenti propriet`a.
Teorema 2.12
1. Sia A una matrice quadrata di ordine n avente una riga (oppure
una colonna) formata da tutti 0, allora det(A) = 0.
2. Per ogni matrice quadrata A, det(A) = det(tA).
3. Se A = (aij ) Rn,n e` una matrice triangolare superiore allora:
det(A) = a11 a22 . . . ann ,
la stessa propriet`a vale nel caso di una matrice triangolare inferiore.
Capitolo 2
59
Dimostrazione
1. E` ovvia conseguenza della Definizione 2.9 e anche dellOsservazione 2.10.
2. Si consideri il caso del determinante di una matrice quadrata A di ordine 2, il caso
generale e` una generalizzazione di questo ragionamento. Come gi`a osservato:
det(A) = a11 a22 a12 a21 ,
mentre:
a
a
det( A) = 11 21
a12 a22
t
= a11 a22 a21 a12 = a11 a22 a12 a21 = det(A);
Se a44 = 0 lultima riga e` formata da tutti zeri e pertanto det(A) = 0, da cui la tesi.
Se a44 6= 0, lunico elemento non nullo dellultima riga e` a44 , quindi la formula
precedente si riduce a:
X
det(A) =
()a1(1) a2(2) a3(3) a44 ,
(2.15)
con permutazione dei numeri 1, 2. Procedendo allo stesso modo si perviene alla
tesi.
Matrici e Determinanti
60
1 2 3 4
1 2 0 3
A=
5 0 0 2
1 0 0 0
ridotta per righe e il cui rango e` 4.
Soluzione Si procede con lapplicazione delle tre operazioni di riduzione alla matrice
A nel modo seguente:
1 2 3 4
1
2
3
4
1 2 0 3 R2 R2 R1 0
0 3 1
5 0 0 2 R3 R3 5R1 0 19 15 18
1 0 0 0
R4 R4 R1
0 2 3 4
R2
R3
R4
R2
R2
R3
R4
R3
1 2 3 4
0 19 15 18
0 0 3 1 R4 19R4 2R2
0 2 3 4
1 2 3 4
0 19 15 18
,
R4 3R4 27R3 0 0 3 1
0 0 0 93
1 2 3 4
0 19 15 18
0 0 3 1
0 0 27 40
Capitolo 2
61
ottenendo cos` una matrice triangolare superiore che ha, ovviamente, ancora rango 4.
Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni propriet`a relativa al
calcolo del determinante dimostrata per le righe di una matrice quadrata e` anche valida
per le colonne.
Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata
qualsiasi.
Teorema 2.14
1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una
matrice quadrata A per un numero reale , allora il determinante di A viene
moltiplicato per .
2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A,
allora il determinante di A cambia di segno.
3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo.
4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante
nullo.
5. Se alla riga Ri di una matrice quadrata A si sostituisce la particolare combinazione lineare Ri +Rj (dove Rj indica una riga parallela a Ri , i 6= j ) il determinante
di A non cambia, analoga propriet`a vale per le colonne.
Dimostrazione
a21 a22
a11 a12
= a21 a12 a22 a11 = a11 a22 + a12 a21 .
3. Segue dalla propriet`a precedente, infatti scambiando due righe (colonne) uguali
di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio
det(A) = a, dopo lo scambio det(A) = a (per la propriet`a precedente), ma
poiche la matrice non cambia allora a = a, da cui la tesi.
Matrici e Determinanti
62
4. Segue da 1. e da 3.
5. Si calcoli il determinante di una matrice quadrata di ordine n mettendo in evidenza
le sue righe e loperazione richiesta Ri Ri + Rj , i 6= j :
R1
..
.
Ri + Rj
..
.
R
j
..
.
Rn
R1
..
.
Ri
..
.
Rj
..
.
Rn
R1
..
.
Rj
..
.
Rj
..
.
Rn
Luguaglianza precedente e` una evidente conseguenza della definizione di determinante, quindi la tesi segue dalla terza propriet`a.
Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha il teorema che segue.
Teorema 2.15 Sia A una matrice quadrata di ordine n allora:
rank(A) = n det(A) 6= 0
e, in modo equivalente:
rank(A) < n det(A) = 0.
Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma triangolare superiore:
1 1
2
1
3
1
1
2
.
A=
2
2 2
1
1
0
1 1
Soluzione
Capitolo 2
1 1
2
1
3
1
1
2
2
2 2
1
1
0
1 1
1
0
0
0
1
4
4
1
1
1 0
4 0
0
2
1
3
3
2
3
1 1
1
4
0
0
C1 C2
1
1
2
0
R3 R3 R2
R4 R4 (1/4)R2
2
1
3
3
1
0
1 7
R4 R4 R3
63
1
2
1
3
1
2
2 2
1
1
1 1
1
0
0
0
R2 R2 + R1
R3 R3 + 2R1
1
2
1
4
3
3
0 1
0
7
1
0
4
4
1
1 0
4 0
0
1
4
0
0
R3 R3
R4 4R4
2
1
3
3
1
0
0 7
= 7.
Il teorema che segue stabilisce importanti propriet`a del determinante in relazione al prodotto di una matrice per uno scalare e al prodotto di matrici.
Teorema 2.16
1. det(A) = n det(A),
A Rn,n , R;
A, B Rn,n ;
Matrici e Determinanti
64
0
9
e det(A + B) = 18.
Esercizio 2.6 Dimostrare che se A e` una matrice antisimmetrica di ordine dispari, allora
det(A) = 0.
2.8.1
I Teoremi di Laplace
Unaltra definizione di rango di una matrice
Esempio 2.15 Si consideri lo sviluppo del determinante di una matrice di ordine 3 descritto nellEsempio 2.14 e lo si trasformi applicando le propriet`a commutativa e distributiva del prodotto rispetto alla somma di numeri reali nel modo seguente:
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11 a22 a33 + a13 a21 a32 + a12 a23 a31 a11 a23 a32
a13 a22 a31 a12 a21 a33
= a11 (a22 a33 a23 a32 ) a12 (a21 a33 a23 a31 )
+a13 (a21 a32 a22 a31 )
a
a
= a11 22 23
a32 a33
a12 a21 a23
a31 a33
+ a13 a21 a22
a31 a32
a
a
= a31 12 13
a22 a23
a32 a11 a13
a21 a23
+ a33 a11 a12
a21 a22
a
a
= a12 21 23
a31 a33
+ a22 a11 a13
a31 a33
a32 a11 a13
a21 a23
Capitolo 2
65
A=
9
M12
3 4
5 7
8
= 9 11 12
1 3 4
,
12
10 11
1 2
il minore M12 e` :
= 64.
= 4,
66
Matrici e Determinanti
Esempio 2.17 NellEsempio 2.16 il cofattore dellelemento a12 e` A12 = M12 = 64.
LEsempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante
di una matrice quadrata di ordine qualsiasi.
Teorema 2.17 Primo Teorema di Laplace Il determinante di una matrice quadrata
A = (aij ) Rn,n e` dato da:
det(A) =
n
X
aik Aik =
k=1
n
X
ahj Ahj ,
(2.16)
h=1
per ogni i = 1, 2, . . . , n, j = 1, 2, . . . , n. In altri termini, il determinante della matrice quadrata A si ottiene moltiplicando gli elementi di una riga fissata (nella formula
precedente e` la i-esima) per i rispettivi cofattori, inoltre il valore ottenuto non dipende
dalla riga scelta. Lultimo membro di (2.16) afferma che tale propriet`a vale anche per la
j -esima colonna.
Dimostrazione
E` un calcolo che segue da (2.14), allo stesso modo con cui e` stato
condotto nellEsempio 2.15.
Esempio 2.18 Per calcolare il determinante della matrice, oggetto dellEsercizio 2.5, si
pu`o usare il Primo Teorema di Laplace 2.17. La presenza del numero 0 al posto (4, 2) di
tale matrice suggerisce di sviluppare il determinante rispetto alla seconda colonna oppure
rispetto alla quarta riga. Si riportano di seguito esplicitamente entrambi i calcoli:
3
1
1 2
1
2
2
1
1
1 + 2 2
1 2 3 1
2
det(A) = 2 2
1
1 1 1
1 1 1
1 1
2
1
=
3
1 1
2
1
1 1
+ 2 2 2
1
1
2
1
+
1 1
1
2 2
1 1
2 2
+
1
1
1
2
2
1 1
2
2 3
1 1
3
+
1
1
2
1
= 1
2 2
1
2
1
1 1
3
1
2
2
1
2
1
1
1
1 1
2
3
1
1
2
2 2
Capitolo 2
67
aik Ajk =
n
X
ahi Ahj = 0,
i 6= j.
(2.17)
h=1
Dimostrazione E` evidente conseguenza della seconda propriet`a del Teorema 2.14, infatti (2.17) si pu`o interpretare come lo sviluppo del determinante di un matrice in cui, nel
primo caso, la riga j -esima coincide con la riga i-esima e nel secondo caso, la colonna
j -esima coincide con la colonna i-esima.
Utilizzando la nozione di determinante e di minore si pu`o enunciare una seconda definizione di rango di una matrice A Rm,n , equivalente a quella gi`a introdotta (cfr. Def.
1.10). La dimostrazione dellequivalenza tra le due definizioni di rango e` rimandata al
Paragrafo 4.5.
Definizione 2.13 Il rango di una matrice A Rm,n e` pari al massimo ordine di un
minore non nullo di A.
Esempio 2.19 Si consideri la matrice:
1 2 1 2
A= 2 4 2 4
0 1 0 1
che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe.
Considerando, invece, la Definizione 2.13 di rango si vede subito che ogni minore di A
di ordine 3 e` uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due
righe proporzionali. Invece:
2 4
0 1 =2
da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.
2.8.2
Matrici e Determinanti
68
1
A = 1
0
2
2
1
3
5
2
la sua aggiunta e` :
1 1
4
2 8 .
adj(A) = 2
1 1
4
Teorema 2.19 Sia A una matrice quadrata di ordine n, se det(A) 6= 0 allora esiste
linversa di A e:
1
adj(A).
A1 =
det(A)
Dimostrazione
Sia:
B = (bij ) =
1
adj(A),
det(A)
n
X
1
1
aik bki =
aik Aik =
det(A) = 1;
cii =
det(A) k=1
det(A)
k=1
Capitolo 2
69
Esempio 2.21 E` agevole applicare il metodo di calcolo della matrice inversa appena
introdotto nel caso di una matrice quadrata di ordine 2, infatti se:
a11 a12
A=
a21 a22
e det(A) 6= 0 allora:
1
1
=
det(A)
a22 a12
a21
a11
.
8 6
2
2
1
1
0
15 0 10
.
adj(A) =
A1 =
0
0
det(A)
10 5 0
8 4 2 2
Osservazione 2.14 Dalla definizione di aggiunta di una matrice quadrata A di ordine n,
segue:
A adj(A) = det(A)I,
(2.18)
dove I indica la matrice unit`a di Rn,n . Si osservi che la formula (2.18) vale per ogni
matrice A, anche se non e` invertibile.
2.8.3
Il Teorema di Cramer
a x + a x + ...... + a x = b .
n1 1
n2 2
nn n
n
La matrice dei coefficienti A = (aij ) Rn,n e` quadrata. Se det(A) 6= 0 segue dal
Teorema di RoucheCapelli 1.2 che il sistema lineare (2.19) e` compatibile. In notazione
matriciale (cfr. Par. 2.2.1) il sistema lineare (2.19) equivale a:
AX = B,
(2.20)
Matrici e Determinanti
70
dove X Rn,1 e` la matrice delle incognite e B Rn,1 e` la matrice colonna dei termini
noti. Poiche det(A) 6= 0, A e` invertibile e quindi e` possibile moltiplicare a sinistra ambo
i membri di (2.20) per A1 , ottenendo cos`:
X = A1 B.
Dal Teorema 2.19, sostituendo lespressione di
x1
A11
x2
A12
X = .. =
.
. det(A) ..
xn
A1n
A1 , si ha:
A21 . . . An1
A22 . . . An2
..
..
...
.
.
A2n . . . Ann
b1
b2
..
.
bn
b1 a12
b2 a22
..
..
.
.
bn an2
. . . a1n
. . . a2n
.. .
...
.
. . . ann
In generale si ha:
1
xi =
det(A)
..
.
..
.
..
.
..
.
..
.
..
.
..
.
i = 1, 2, . . . , n,
(2.21)
2x1 x2 + x3 = 0
3x1 + 2x2 5x3 = 1
x1 + 3x2 2x3 = 4,
Capitolo 2
71
0
a11 a012 . . . a01n b01
..
.. ..
..
.
. .
.
m2
mn
tale che le prime r righe di A0 formino una matrice di rango r. Equivalentemente non
e` restrittivo supporre che dalle prime r righe di A0 sia possibile estrarre una matrice
quadrata C di ordine r e di rango r. Infatti, se cos` non fosse si avrebbe rank(A) =
rank(A0 ) r 1, perche ogni matrice quadrata di ordine r estratta da A0 avrebbe
determinante nullo (cfr. Def. 2.13). Portando a secondo membro le colonne di A0 diverse
da quelle di C si ottiene la matrice completa (C | B 00 ) di un nuovo sistema lineare con r
incognite e con det(C) 6= 0, equivalente a quello di partenza. Questultima affermazione
e` vera perche le operazioni di riduzione per righe trasformano il sistema lineare in un altro
ad esso equivalente e dal fatto che il rango di C sia r segue che il sistema lineare ammette
infinite soluzioni che dipendono da n r incognite libere che sono, con questo metodo,
proprio quelle portate a secondo membro (cfr. Cap.1). In questo modo, utilizzando il
Teorema di Cramer si possono esprimere le r incognite in funzione delle rimanenti n r
incognite libere. Segue un esempio di ci`o che e` stato appena osservato.
Esempio 2.24 Si consideri il sistema lineare:
x + 3y + z = 1
x + 2y z = 0,
(2.22)
Matrici e Determinanti
72
(2.23)
2.9
1 1z
1
z
1
y=
= ,
5
5
z R.
In questo paragrafo sono riportate le dimostrazioni di alcune propriet`a che nel paragrafo
precedente sono state lasciate al Lettore per esercizio.
Esercizio 2.7 Si dimostri che:
(AB)C = A(BC),
p
X
h=1
dih chj =
p
n
X
X
h=1
k=1
!
aik bkh chj =
p
n
X
X
h=1 k=1
Capitolo 2
73
che e` lespressione del generico elemento della matrice a primo membro. Per il secondo
membro si ha BC = (fij ) Rn,l , con:
fij =
p
X
bih chj
h=1
n
X
aik fkj =
k=1
n
X
aik
k=1
p
X
!
bkh chj
h=1
p
n X
X
k=1 h=1
(AB) = tB tA,
A Rn,p , B Rp,m .
Soluzione
Date la matrici A = (aij ) Rn,p e B = (bij ) Rp,m , il loro prodotto e` la
matrice C = AB = (cij ) Rn,m , dove:
cij =
p
X
aik bkj .
k=1
p
X
ajk bki .
k=1
La matrice tA = (eij ) di Rp,n ha elementi del tipo eij = aji . La matrice tB = (fij )
di Rm,p ha elementi del tipo fij = bji . La matrice prodotto tB tA = (gij ) di Rm,n ha
elementi del tipo:
p
p
p
X
X
X
gij =
fik ekj =
bki ajk =
ajk bki ,
k=1
k=1
k=1
Matrici e Determinanti
74
Soluzione
(A1 ) tA = t (A A1 ) = t I = I.
A, B Rn,n .
Soluzione
Date le matrici A = (aij ) Rn,n e B = (bij ) Rn,n , gli elementi della
diagonale principale del prodotto AB sono:
cii =
n
X
aih bhi ,
h=1
quindi:
tr(A B) =
n
X
cll =
n
X
alh bhl .
h,l=1
l=1
Siano dii gli elementi della diagonale principale del prodotto BA, si ha:
dii =
n
X
bik aki ,
k=1
la traccia di BA diventa:
tr(B A) =
n
X
dmm =
m=1
n
X
m,k=1
bmk akm
(2.24)
Capitolo 3
Calcolo Vettoriale
Il calcolo vettoriale elementare e` largomento di base per lo studio dellalgebra lineare e della geometria analitica nella retta, nel piano e nello spazio, inoltre si rivela uno
strumento prezioso per la matematica applicata e la fisica in particolare.
In questo capitolo si assumono note le principali nozioni di geometria euclidea del piano
e dello spazio, cos` come sono solitamente trattate nel primo biennio della scuola secondaria superiore. Vale a dire si assume che il Lettore abbia familiarit`a con i concetti di:
punto, retta, piano e le loro reciproche posizioni, nonche le loro principali propriet`a. Saranno, pertanto, usate le notazioni tradizionali, indicando, quindi, con le lettere maiuscole
dellalfabeto A, B, . . . , i punti, con le lettere minuscole r, s, . . . , le rette e con le lettere
minuscole dellalfabeto greco , , . . . , i piani. La retta (intesa come retta di punti) sar`a
indicata con S1 , il piano (inteso come piano di punti) con S2 , lo spazio, inteso come
spazio di punti, con S3 . Gli spazi S1 , S2 , S3 sono esempi di spazi affini rispettivamente
di dimensione 1, 2, 3. Per la trattazione assiomatica degli spazi affini, che non e` inserita
in questo testo, si rimanda ad esempio a [17], invece il concetto di dimensione di uno
spazio formato da vettori sar`a introdotto in questo capitolo e poi definito formalmente
nel capitolo successivo Per il momento si raccomanda di non pensare al significato formale dei termini che sono stati usati, ma di limitarsi a richiamare le nozioni elementari
impartite nelle scuole secondarie su questi spazi. Man mano che si proceder`a con lo studio dellalgebra lineare, si preciseranno in modo corretto le terminologie comunemente
usate. Si assumono, inoltre, noti i primi rudimenti di trigonometria, quali, ad esempio, le
definizioni delle funzioni trigonometriche elementari e le loro principali propriet`a.
3.1
Definizione di vettore
76
Calcolo Vettoriale
direzione di x
verso di x
x = AB.
Segue dalla definizione che lo stesso vettore x ammette infiniti rappresentanti, per esempio la coppia di punti C, D dello spazio tali che i segmenti AB e CD siano paralleli,
abbiano la stessa lunghezza e lo stesso verso, cio`e x = AB = CD.
Se A = B , il segmento ottenuto, che ha come rappresentante A e anche un qualsiasi
punto dello spazio, si indica con o e prende il nome di vettore nullo. Il vettore nullo o e`
lunico vettore di norma uguale a zero ed ha direzione e verso indeterminati.
Se kxk = 1, x si dice versore. Sar`a molto utile il concetto di versore in quanto permetter`a
di individuare agevolmente lunit`a di misura.
Se si fissa un punto O nello spazio S3 e si identifica, di conseguenza, ogni vettore x con il
punto P dato da x = OP allora lo spazio S3 coincide con linsieme dei vettori dello spazio che si indica con V3 , analogamente, S2 (fissato il punto O) si identifica con linsieme
dei vettori V2 di un piano e S1 con linsieme dei vettori V1 di una retta. Il significato dei
numeri 1, 2, 3 in V1 , V2 , V3 sar`a discusso ampiamente in questo capitolo. Si osservi inoltre che, se non viene fissato il punto O, V1 si pu`o interpretare geometricamente come una
qualsiasi retta dello spazio di direzione uguale a quella dei suoi vettori, V2 invece si pu`o
visualizzare geometricamente come un qualsiasi piano dello spazio parallelo ai vettori ad
esso appartenenti. I vettori per cui non e` indicato il punto di applicazione prendono anche
il nome di vettori liberi. V1 e V2 vengono, rispettivamente, chiamati retta vettoriale e
piano vettoriale.
Nel Paragrafo 3.10 viene data una formulazione pi`u rigorosa della Definizione 3.1; per
quello che segue, per`o, e` sufficiente che il Lettore abbia unidea intuitiva di questo concetto.
Capitolo 3
77
Nei due paragrafi successivi si introdurranno alcune operazioni tra vettori, iniziando dalla
somma di vettori e dal prodotto di un numero reale per un vettore. E` molto importante
osservare che queste operazioni (ovviamente con una definizione diversa da quella che
sar`a di seguito presentata) sono gi`a state introdotte nellinsieme delle matrici, nel capitolo
precedente. Sar`a sorprendente notare che per le operazioni tra vettori saranno valide le
stesse propriet`a dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo
sar`a dedicato allo studio assiomatico degli insiemi su cui e` possibile definire operazioni
di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui linsieme delle
matrici Rm,n e gli insiemi dei vettori V3 , V2 , V1 sono esempi.
3.2
Somma di vettori
(x, y) 7 x + y,
dove il vettore x + y e` cos` definito: fissato un punto O di S3 , siano OA e OB due
x+y
Osservazione 3.1
1. La definizione di somma di vettori e` ben data. Vale a dire, facendo riferimento alle notazioni della Definizione 3.2, se si cambiano i rappresentanti
di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del
Calcolo Vettoriale
78
x, y V3 (propriet`a commutativa);
2. (x + y) + z = x + (y + z),
3. o V3 | x + o = x,
x, y, z V3 (propriet`a associativa);
x, y V3 .
Capitolo 3
79
C
x+y
y
x
B'
x+y
y
x
O'
C'
A'
Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti
x
y
x+y
x+y
80
Calcolo Vettoriale
Dimostrazione
La dimostrazione segue dalla definizione di somma di vettori e dalle
propriet`a dei parallelogrammi ed e` lasciata al Lettore. Lelemento neutro e` il vettore nullo
o e lopposto del vettore x coincide con il vettore x prima definito. Si osservi che le
due uguaglianze in 5. possono valere solo se i vettori x e y sono paralleli.
Osservazione 3.2
1. Dati due vettori x e y la loro somma x + y si pu`o ottenere
mediante la regola della poligonale, cio`e scelti due segmenti orientati consecutivi
x = AB, y = BC , risulta x + y = AC .
2. La propriet`a associativa permette di estendere la definizione di somma di vettori a
n addendi. Dati, quindi, i vettori x1 , x2 , . . . , xn , la loro somma x1 + x2 + . . . + xn
si pu`o rappresentare agevolmente, tenendo conto dellosservazione precedente, con
il segmento che chiude la poligonale ottenuta dai segmenti posti consecutivamente, che rappresentano i vettori addendi. La situazione geometrica e` illustrata nella
Figura 3.4.
3. E` molto importante osservare che le propriet`a della somma di vettori coincidono
con le propriet`a della somma di numeri reali, in questo caso il vettore nullo e` il
numero 0. In un certo senso, questo e` un motivo che autorizza la denominazione
somma alloperazione tra vettori appena introdotta. Dal punto di vista sperimentale, invece, la definizione di somma di vettori e` giustificata dal comportamento
fisico della composizione di due forze applicate nello stesso punto.
4. Il teorema precedente, ha permesso di definire la differenza di due vettori, ossia:
x y = x + (y).
La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresentata dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia
per esercizio la rappresentazione grafica della differenza di due vettori paralleli.
5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari
con x, esistono e sono unici due vettori x1 ed x2 in quelle direzioni, tali che:
x = x1 + x2 .
Loperazione prende il nome di decomposizione di un vettore lungo due direzioni
assegnate.
6. Si osservi che (V3 , + ) con loperazione di somma di vettori ha la struttura di
gruppo commutativo (cfr. Oss. 2.2).
Capitolo 3
81
x4
x3
x1 + x2 + x3 + x4
x2
x1
Figura 3.4: Somma di quattro vettori
x
-y
x-y
Calcolo Vettoriale
82
3.3
Loperazione che sta per essere definita trova giustificazione nel mondo in cui si vive, in
quanto formalizza il risultato che si ottiene quando una forza viene raddoppiata o moltiplicata per un numero reale qualsiasi. Daltra parte, questa operazione e` in un certo senso
singolare dal punto di vista algebrico perche gli elementi che concorrono alla sua definizione appartengono ad insiemi diversi. Inoltre, si pu`o considerare come loperazione
analoga al prodotto di un numero reale per una matrice introdotto nella Definizione 2.4.
Definizione 3.3 Il prodotto di un numero reale per un vettore x V3 e` loperazione:
R V3 V3 ,
(, x) 7 x,
dove il vettore x (detto anche prodotto dello scalare per x) e` definito nel modo
seguente:
1. se = 0 o x = o, allora x = o.
2. Se 6= 0 e x 6= o si pone x = y, dove:
la direzione di y coincide con la direzione di x;
il verso di y e` concorde con quello di x se > 0, discorde se < 0;
kyk = ||kxk, dove || indica il valore assoluto del numero reale .
Osservazione 3.3 Dalla definizione segue che x = o se e solo se = 0 oppure x = o.
Per la dimostrazione si veda lEsercizio 4.23.
Sono valide le seguenti propriet`a la cui dimostrazione e` lasciata per esercizio.
Teorema 3.2
1. (x + y) = x + y,
2. ( + )x = x + x,
3. (x) = ()x,
4. 1 x = x,
R, x, y V3 ;
, R, x V3 ;
, R, x V3 ;
x V3 .
Capitolo 3
83
rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e
y in V2 e per ogni R si ha che x + y V2 e x V2 (analogamente per V1 ). Inoltre,
in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti
ad un piano vettoriale qualsiasi) si pu`o pensare che V1 V2 V3 .
Seguono alcune definizioni e propriet`a di tipo teorico, che saranno riprese in modo completo nel capitolo successivo. Si e` deciso di inserire in questo contesto ci`o che segue,
anche se i risultati che si ottengono saranno conseguenza della teoria pi`u generale degli
spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V3 e` possibile rappresentare graficamente le nozioni man mano introdotte, aiutando cos` la loro
comprensione.
Definizione 3.4 Dati k vettori v1 , v2 , . . . , vk di V3 , si dice che un vettore x V3 e`
combinazione lineare di v1 , v2 , . . . , vk se esistono k numeri reali x1 , x2 , . . . , xk tali che:
x = x1 v 1 + x2 v 2 + . . . + xk v k .
I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare.
Mediante la nozione di combinazione lineare di vettori si possono riformulare, in modo
pi`u accurato dal punto di vista algebrico, le nozioni, gi`a introdotte in modo geometricamente intuitivo, di retta vettoriale e di piano vettoriale.
Definizione 3.5 Dato un vettore x 6= o, la retta vettoriale generata da x e` linsieme:
L(x) = {x | R}.
Dati due vettori x e y non paralleli il piano vettoriale generato da x e da y e` linsieme:
L(x, y) = {x + y | , R}.
Osservazione 3.5 Segue in modo evidente dalla definizione che L(x, y) = L(y, x). Non
ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde,
usualmente usate per indicare che e` importante lordine dei vettori; e` una convenzione
usare questa notazione anche se non e` corretta.
Scopo del prossimo paragrafo e` mettere in relazione le nozioni algebriche e geometriche
enunciate nelle definizioni precedenti.
Calcolo Vettoriale
84
3.4
Dalla Definizione 3.5 segue che il parallelismo e la complanarit`a tra vettori possono essere
letti in termini delle loro combinazioni lineari. Per differenziare ulteriormente le due
diverse situazioni geometriche e` necessario introdurre la seguente definizione.
Definizione 3.6 Dati k vettori v1 , v2 , . . . , vk di V3 , essi si dicono linearmente indipendenti se lunica loro combinazione lineare uguale al vettore nullo e` quella con coefficienti
tutti nulli, vale a dire:
x1 v 1 + x2 v 2 + . . . + xk v k = o
x1 = x2 = . . . = xk = 0.
(3.1)
Capitolo 3
85
3. Gli elementi di L(x) sono tutti linearmente dipendenti tra di loro, ma la stessa
propriet`a non vale per L(x, y), si vedr`a infatti nel Teorema 3.4 che due vettori non
paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi
banale da considerazioni geometriche elementari.
Il teorema che segue conclude lo studio del parallelismo e della complanarit`a tra vettori
mediante la dipendenza lineare.
Teorema 3.4
1. Due vettori x e y di V3 sono linearmente dipendenti se e solo se
sono paralleli, ossia se e solo se appartengono alla stessa retta vettoriale.
2. Tre vettori x, y e z di V3 sono linearmente dipendenti se e solo se sono complanari,
ossia se e solo se appartengono allo stesso piano vettoriale.
3. Quattro vettori di V3 sono sempre linearmente dipendenti.
Segue subito dal teorema appena enunciato che:
1. il numero massimo di vettori linearmente indipendenti in una retta vettoriale
V1 e` 1.
2. Il numero massimo di vettori linearmente indipendenti in un piano vettoriale
V2 e` 2.
3. Il numero massimo di vettori linearmente indipendenti nello spazio vettoriale
V3 e` 3.
Ecco, finalmente, una prima definizione algebrica del numero che si legge a pedice!
Dimostrazione
1. Si supponga che x e y siano paralleli. Se entrambi i vettori sono
il vettore nullo, o uno solo dei due e` il vettore nullo, allora sono linearmente dipendenti. Si supponga ora che entrambi i vettori non siano nulli. Dalla Definizione 3.3
si ha che esiste un numero reale per cui x = y il cui valore assoluto e` dato da:
|| =
kxk
kyk
Calcolo Vettoriale
86
C
z
B
y
O
C
D
v3
x
v2
H
v1
Capitolo 3
87
2. Si inizia a dimostrare che se i vettori x, y, z sono complanari, allora sono linearmente dipendenti. Si esamina solo il caso in cui x e y sono linearmente indipendenti, lasciando per esercizio gli altri casi. A tale scopo si considerino tre segmenti
orientati che li rappresentano, aventi tutti lestremo O in comune (la situazione
geometrica e` descritta nella Figura 3.6) si ha:
OA = x,
OB = y,
OC = z.
(3.2)
Figura 3.7, si indichino con OA = v1 , OB = v2 , OC = v3 , OD = x i rappresentanti dei quattro vettori dati, aventi tutti un estremo in O. I punti O, A, B, C
non sono complanari, mentre i punti O, A, B individuano un piano . Si supponga,
inoltre, che D non appartenga a (in caso contrario il teorema sarebbe dimostrato). Si tracci dal punto D la parallela alla retta OC che incontra il piano in H .
Per costruzione:
OD = OH + HD.
(3.3)
(3.4)
Calcolo Vettoriale
88
Dimostrazione
E` sufficiente dimostrare lunicit`a della decomposizione (3.4). Si supponga che esistano altri numeri reali y1 , y2 , y3 tali che:
(x1 , x2 , x3 ) 6= (y1 , y2 , y3 )
e per cui:
x = y1 v1 + y2 v2 + y3 v3 .
(3.5)
(3.7)
Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V3 e` individuata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano
vettoriale V2 e` sufficiente scegliere due vettori linearmente indipendenti per individuare
tutti i vettori di V2 e nel caso di una retta vettoriale V1 e` sufficiente scegliere un qualsiasi
vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di
definire in modo inequivocabile i concetti fondamentali di base e di dimensione nel modo
che segue.
Definizione 3.7
1. Si dice base di V3 una qualsiasi terna ordinata di vettori linearmente indipendenti. Si dice dimensione di V3 il numero dei vettori di una base e si
indica con dim(V3 ) = 3.
2. Si dice base di un piano vettoriale V2 una qualsiasi coppia ordinata di vettori linearmente indipendenti di V2 . Si dice dimensione di V2 il numero dei vettori di una
base e si indica con dim(V2 ) = 2.
Capitolo 3
89
3. Si dice base di una retta vettoriale V1 un suo qualsiasi vettore non nullo. Si dice
dimensione di V1 il numero dei vettori di una base e si indica con dim(V1 ) = 1.
Una base di V3 verr`a indicata con la notazione B = (v1 , v2 , v3 ). In questo caso lordine
con cui si scrivono i vettori e` importante perche determina lordine con cui si scrivono
i coefficienti (x1 , x2 , x3 ) della combinazione lineare (3.4). In modo analogo una base
di un piano vettoriale V2 sar`a B 0 = (v1 , v2 ) e una base di una retta vettoriale V1 sar`a
B 00 = (v1 ).
x
b
v3
v2
v1
Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari
Osservazione 3.7 In V3 , in V2 e in V1 esistono infinite basi ma il numero dei vettori che
le compongono e` sempre pari alla dimensione dei rispettivi spazi vettoriali.
Osservazione 3.8 Dati tre vettori complanari (non paralleli) v1 , v2 , v3 si ha che ogni vettore x appartenente al piano vettoriale individuato da v1 , v2 , v3 , si decompone in infiniti
modi diversi rispetto ai tre vettori dati. Per esempio e` sufficiente scegliere una direzione
arbitraria individuata da un vettore a come combinazione lineare di v1 , v2 e decomporre
x rispetto alle direzioni individuate da v3 e a; oppure decomporre x rispetto ad una direzione arbitraria b ottenuta come combinazione lineare di v2 e v3 e cos` via (cfr. Oss.
3.2 punto 5.). La situazione geometrica e` descritta nella Figura 3.8 in cui si e` posto, per
esempio, a = v1 + v2 e x = a + v3 ed inoltre si e` posto b = v2 + v3 e x = b + v1 ,
dove , , , sono opportuni numeri reali.
Calcolo Vettoriale
90
x1
x = x2 .
x3
Si vedr`a, infatti, in seguito, come sia pi`u conveniente nei calcoli utilizzare una matrice
colonna di R3,1 per indicare le componenti di un vettore di V3 , che e` preferibile chiamare
X per distinguerla dal vettore x:
x1
X = x2 .
x3
Analoghe considerazioni valgono per i casi particolari di V2 e di V1 .
Il teorema che segue, la cui dimostrazione e` un facile esercizio, permette di calcolare la somma di due vettori e il prodotto di un numero reale per un vettore mediante le
componenti.
Teorema 3.7 In V3 , dati i vettori x = x1 v1 + x2 v2 + x3 v3 , y = y1 v1 + y2 v2 + y3 v3 ,
scritti rispetto alla base B = (v1 , v2 , v3 ), si ha:
x + y = (x1 + y1 )v1 + (x2 + y2 )v2 + (x3 + y3 )v3 ,
x = (x1 )v1 + (x2 )v2 + (x3 )v3 ,
con R; cio`e le componenti della somma di due vettori si ottengono semplicemente
sommando le rispettive componenti, mentre le componenti del vettore x si ottengono
Capitolo 3
91
x1 + y 1
X + Y = x2 + y2 .
x3 + y 3
Al vettore x si associa la matrice colonna delle sue componenti rispetto alla base B:
x1
X = x2 .
x3
Analoghe affermazioni valgono anche nel caso di un piano vettoriale V2 e di una retta
vettoriale V1 .
Osservazione 3.10
1. Il vettore nullo o e` lunico vettore di V3 avente componenti
tutte nulle o = (0, 0, 0), rispetto ad una qualsiasi base di V3 .
2. I vettori di una base B = (v1 , v2 , v3 ) di V3 hanno componenti, rispetto alla stessa
base B:
v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1).
3. Dal teorema precedente e dalla notazione matriciale usata per le componenti di un
vettore segue lassoluta concordanza tra le definizioni di somma di matrici e di
prodotto di un numero reale per una matrice, introdotte nel capitolo precedente e la
somma di vettori in componenti e il prodotto di un numero reale per un vettore, in
componenti definite in questo capitolo.
Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare
dei vettori mediante le loro componenti. Si far`a uso delle nozioni di rango di una matrice
e del Teorema di RoucheCapelli introdotti nel Capitolo 1 per la risoluzione dei sistemi
lineari.
Esempio 3.2
1. In V3 , fissata una base B = (v1 , v2 , v3 ), si considerino i vettori x =
x1 v1 + x2 v2 + x3 v3 e y = y1 v1 + y2 v2 + y3 v3 . Dal Teorema 3.4 segue che x e`
parallelo a y se e solo se x e y sono linearmente dipendenti, ossia se e solo se e`
possibile determinare un numero reale tale che:
y = x.
92
Calcolo Vettoriale
y1 = x1
y2 = x2
y3 = x3
e, in termini matriciali, equivale a richiedere che:
x1 x2 x3
rank
1.
y1 y2 y3
Per esempio i vettori x = (1, 2, 3) e y = (2, 4, 6) sono paralleli, mentre i vettori
x e z = (1, 0, 3) non lo sono. Il rango della matrice:
x1 x2 x3
y1 y2 y3
e` pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore
nullo. Il rango di questa matrice e` 0 se e solo se x = y = o.
2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono
linearmente dipendenti, ossia per esempio se esistono i numeri reali e per cui:
z = x + y.
(3.8)
y = (y1 , y2 , y3 ),
z = (z1 , z2 , z3 )
le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste
componenti, equivale al sistema lineare:
z1 = x1 + y1
z2 = x2 + y2
z3 = x3 + y3
e in termini matriciali equivale a:
x1 x2 x3
rank y1 y2 y3 2.
z1 z2 z3
Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta e`
proprio 2, invece se i vettori x e y sono paralleli, allora anche il vettore z e` ad essi
parallelo e il rango della matrice vale 1. Il rango e` 0 se e solo se x = y = z = o.
Capitolo 3
93
b = (4, 1, 0),
c = (2, 5, 2),
1
3 1
1
0 ,
A= 4
2 5
2
riducendo A per righe si ha:
1
3 1
1
4
1
0
4
A=
R3 R3 + 2R1
2 5
2
4
3 1
1
0 .
1
0
Quindi rank(A) = 2 e ci`o implica che i tre vettori sono complanari (infatti sono linearmente dipendenti). Poiche i vettori a e b non sono paralleli (infatti sono linearmente
indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due
numeri reali e tali che:
c = a + b.
Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al
sistema lineare:
+ 4 = 2
3 + = 5
= 2
la cui soluzione e` ( = 2, = 1), e perci`o c = 2a + b.
Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere
riassunti nel seguente teorema.
Teorema 3.8 Sia B = (v1 , v2 , v3 ) una base di V3 , si considerino vettori:
x = (x1 , x2 , x3 ),
y = (y1 , y2 , y3 ),
z = (z1 , z2 , z3 )
Calcolo Vettoriale
94
x1 x2 x3
A = y1 y2 y3 ,
(3.9)
z1 z2 z3
si ha:
rank(A) = 3 A1 det(A) 6= 0.
Equivalentemente, i vettori x, y, z sono linearmente dipendenti se e solo se:
rank(A) < 3.
Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il
terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece
rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo)
sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o.
Dimostrazione La dimostrazione segue dallEsempio 3.2. In alternativa, per dimostrare lultimo punto si pu`o anche procedere esplicitando, mediante le componenti dei vettori,
la relazione:
1 x + 2 y + 3 z = o,
con 1 , 2 3 R, che equivale al sistema lineare omogeneo:
1 x1 + 2 y1 + 3 z1 = 0
1 x2 + 2 y2 + 3 z2 = 0
1 x3 + 2 y3 + 3 z3 = 0.
Affinche i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo
deve ammettere la sola soluzione nulla. Questo accade se e solo se:
Capitolo 3
95
x1 y1 z1
rank x2 y2 z2 = 3.
x3 y3 z3
Si osservi che la matrice ottenuta e` la trasposta della matrice A in (3.9). Si dovr`a attendere la dimostrazione del Teorema 4.19 per assicurare lequivalenza dei due procedimenti
seguiti per pervenire alla tesi. Il risultato, in realt`a, e` intuitivamente accettabile, tenendo
conto che det(A) = det(tA).
Esercizio 3.2 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u1 = (1, 0, h),
u2 = (2, 1, 1),
u3 = (h, 1, 1),
1
0 h
1
A = 2 1
h
1 1
ha det(A) 6= 0. Poiche det(A) = h(2 + h) si ha che i vettori u1 , u2 , u3 formano una
base di V3 se e solo se h
/ {2, 0}.
Esercizio 3.3 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = v1 v2 + 3v3 ,
v = 2v1 + v2 v3 ,
w = v1 + 2v2 + v3 ,
1 1
3
1 1
A= 2
1
2
1
1 1
3
1 1
2
1 1
R2 R2 + R1
3
0
A=
1
2
1
R3 R3 + 2R1
3
0
1 1
3
0
R3 R3 R2
0
0
3
2 ,
5
3
2
7
Calcolo Vettoriale
96
da cui la tesi.
Esercizio 3.4 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = 2v1 + v2 v3 , v = v1 + v3 , w = v1 + v2 2v3 .
Verificare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come combinazione lineare dei rimanenti.
Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefficienti reali
, e e la si ponga uguale al vettore nullo:
u + v + w = o.
Sostituendo nella combinazione lineare lespressione dei vettori scritta rispetto alla base
B, si ha:
(2v1 + v2 v3 ) + (v1 + v3 ) + (v1 + v2 2v3 )
= (2 + + )v1 + ( + )v2 + ( + 2)v3 = o.
Si e` cos` ottenuta una combinazione lineare dei vettori della base B che e` uguale al vettore
nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefficienti
di tale combinazione lineare devono essere nulli, ossia:
2 + + = 0
+ =0
+ 2 = 0.
Il sistema lineare omogeneo cos` ottenuto ha matrice dei coefficienti:
2 1
1
1 .
A= 1 0
1 1 2
Riducendo A per righe si ha:
2 1
1
2
1
1
A= 1 0
R3 R3 R1
1 1 2
3
1
R3 R3 + 3R2
0
1
0
0
1
1
0
1
0 3
1
1 ,
0
ossia rank(A) = 2. Il sistema lineare omogeneo ammette, quindi, infinite soluzioni date
da (, , ), R. I vettori u, v, w sono perci`o linearmente dipendenti e quindi, posto
per esempio = 1, si ottiene u = v + w. Come gi`a osservato nella dimostrazione del
Teorema 3.8, si noti che la matrice A ha come colonne le componenti dei vettori u, v, w.
Capitolo 3
3.5
97
Il cambiamento di base in V3
(3.10)
0
x1
x1
(3.11)
X = x2 , X 0 = x02
0
x3
x3
le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base B 0 e`
nota quando sono note le componenti dei suoi vettori rispetto alla base B, ossia:
0
v1 = p11 v1 + p21 v2 + p31 v3
v0 = p12 v1 + p22 v2 + p32 v3
(3.12)
20
v3 = p13 v1 + p23 v2 + p33 v3 .
In altri termini, la base B 0 e` nota quando e` assegnata la matrice:
v1
v1
v20 = tP v2 .
v30
v3
Sostituendo questa espressione in (3.10) si ha:
0
v
1
v1
x = x1 x2 x3 v2 = x01 x02 x03 v20 =
v30
v3
x01 x02
v
1
x03 tP v2 .
v3
Calcolo Vettoriale
98
x1 x2 x3
t
P,
0
x1
x1
x2 = P x02 .
x3
x03
x01 v10
=
1
x1 2v1 .
2
v = v1 + 2v2 + v3 ,
w = v1 v2 2v3 ,
z = v1 2v2 + v3 .
Capitolo 3
99
Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono,
rispettivamente, le componenti dei vettori u, v, w.
2 1
1
2 1 R2 R2 + 2R1
P = 1
1
1 2
R3 R3 + R1
2 1
1
2 1
0
1
5
0
R3 R3 + R2
3
0 1
8
0
1
1 .
0
0
1
x1
0
x02 ,
X = 2 , X =
1
x03
che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da
B a B0 :
0
2x1 x02 + x03 = 1
x0 + 2x02 x03 = 2
10
x1 + x02 2x03 = 1.
Riducendo per righe la matrice completa si ha:
2 1
1 1
2 1
1 1
1
2 1 2 R2 R2 + 2R1 5
0
1 4
R3 R3 + R2
1
1 2
1
R3 R3 + R1
3
0 1
0
2 1
5
0
8
0
3 1
5
0
2
0
1 1
2 1
1 4
5
0
R3 (1/4)R3
0 4
2
0
1 1
1 4
R1 R1 R2
0 1
0 2
0
1 4 R1 2R1 + 3R3 0
0
0 1
R2 2R2 5R3
2
0
0
3
2 3 .
0 1
Calcolo Vettoriale
100
x
=
3
x02 =
x03 = 3 .
2
Allora:
3
3
1
z = u v w.
2
2
2
3.6
Langolo tra il vettore nullo o e un qualunque altro vettore pu`o assumere qualsiasi
valore, vale a dire il vettore nullo si pu`o considerare parallelo e ortogonale ad ogni
altro vettore.
Si osservi che se = 0 i due vettori x e y hanno verso concorde, mentre se =
il verso e` discorde. Nel Paragrafo 3.7.2 si dimostrer`a che la definizione geometrica di
parallelismo di due vettori, intendendosi come tali due vettori che formano un angolo
= 0 o = , coincide con la dipendenza lineare dei due vettori.
Capitolo 3
101
3.7
In questo paragrafo saranno introdotte tre particolari operazioni tra vettori di V3 che
coinvolgono la nozione di angolo, e precisamente:
1. il prodotto scalare tra due vettori (che a due vettori associa un numero reale);
2. il prodotto vettoriale o esterno tra due vettori (che a due vettori associa un vettore);
3. il prodotto misto tra tre vettori (che a tre vettori associa un numero reale).
Esse sono dette non lineari perche prevedono operazioni con le componenti dei vettori
che non sono di primo grado.
3.7.1
Il prodotto scalare, introdotto in questo paragrafo, e` una particolare operazione tra due
vettori mediante la quale sar`a possibile calcolare la norma di ogni vettore e individuare
langolo tra essi formato. Inoltre, la sua particolare espressione permetter`a di estenderla
anche al caso di spazi vettoriali di dimensione superiore a tre, ma questo argomento sar`a
trattato nel Capitolo 5.
Definizione 3.10 Il prodotto scalare x y di due vettori x e y in V3 in V3 e` la funzione:
: V3 V3 R
Calcolo Vettoriale
102
cos` definita:
c
x y = kxkkyk cos(xy).
(3.13)
Osservazione 3.12
1. La definizione di prodotto scalare di due vettori, appena introdotta, coinvolge solo la lunghezza dei due vettori dati e langolo da essi formato,
quindi pu`o essere ripetuta, allo stesso modo, per i vettori di un piano vettoriale V2 .
Vale a dire:
c
: V2 V2 R, x y = kxkkyk cos(xy).
2. Per definizione, il risultato del prodotto scalare di due vettori pu`o essere un numero
reale qualsiasi il cui segno e` esclusivamente legato allampiezza dellangolo tra i
due vettori. Precisamente se x e y sono due vettori entrambi non nulli si ha:
a. 0 <
se e solo se x y > 0;
2
c. se =
allora x y = 0.
2
b.
Se, invece, uno almeno dei due vettori x e y e` il vettore nullo, allora x y = 0.
3. Da (3.13), ponendo x = y, si ottiene la formula che permette di calcolare la norma
del vettore x:
kxk = x x.
4. Da (3.13) segue lespressione del coseno dellangolo tra due vettori non nulli x e
y, in funzione del valore del loro prodotto scalare e delle loro norme:
c =
cos(xy)
xy
.
kxkkyk
Il teorema che segue, la cui dimostrazione e` una semplice conseguenza delle osservazioni
precedenti, e` per`o estremamente importante perche esprime una condizione equivalente
allortogonalit`a di due vettori.
Teorema 3.9 Due vettori di V3 sono ortogonali se e solo se il loro prodotto scalare e`
uguale a zero, in formule:
xy
x y = 0,
x, y V3 .
Si procede ora con lo studio dellinterpretazione geometrica del numero reale che esprime
il prodotto scalare tra due vettori, nel caso in cui questo non sia uguale a zero.
Capitolo 3
103
B
y
B
y
104
Calcolo Vettoriale
,
2
c> .
b. = xy
2
c<
a. = xy
(3.14)
xy
x.
kxk2
(3.15)
xy
y.
kyk2
Capitolo 3
105
x, y V3 ,
2. x (y1 + y2 ) = x y1 + x y2 ,
x, y1 , y2 V3 ,
3. (x y) = (x) y = x (y),
R, x, y V3 .
Dimostrazione
2. La dimostrazione si evince dalle Figure 3.12 e 3.13. In entrambi i casi sono rap
x y2 = kxk HK,
tenendo conto del segno legato alle lunghezze delle proiezioni ortogonali, si perviene alla tesi.
3. Occorre distinguere tre casi:
a. = 0;
b. > 0;
c. < 0.
I primi due casi sono molto semplici e vengono lasciati per esercizio.
Se < 0 si ha:
\ = ||kxkkyk cos((x)y)
\ = ||kxkkyk cos(xy),
c
(x)y = k(x)kkyk cos((x)y)
in quanto, essendo < 0, langolo formato dai vettori x e y e` supplementare
dellangolo formato dai vettori x e y.
Calcolo Vettoriale
106
y2
B
y1
A
x
H
y2
H
K
y1
B
Figura 3.13: x (y1 + y2 )
Capitolo 3
107
y = y1 v1 + y2 v2 + y3 v3
di V3 , tenendo conto delle propriet`a dimostrate nel Teorema 3.12, il calcolo del loro
prodotto scalare mediante le componenti, rispetto a B, risulta essere:
xy =
3
X
xi y j v i v j
i,j=1
da cui segue che il valore di x y dipende dai prodotti scalari tra i vettori della base B.
In altri termini, per calcolare il prodotto scalare tra due vettori e` necessario conoscere, in
modo preciso, langolo formato tra i vettori della base che si sta usando e la loro norma.
Per rendere pi`u agevoli i calcoli si impone, pertanto, la scelta di particolari basi in cui
siano noti a priori le lunghezze dei vettori che le compongono e gli angoli tra di essi.
Definizione 3.11
1. Una base B = (v1 , v2 , v3 ) di V3 si dice ortogonale se vi vj = 0
per ogni i, j = 1, 2, 3.
2. Una base B = (i, j, k) di V3 si dice ortonormale se:
a. i j = i k = j k = 0,
b. kik = kjk = kkk = 1,
ossia i vettori della base B sono versori a due a due ortogonali.
3. Una base B = (i, j) di un piano vettoriale V2 si dice ortonormale se:
a. i j = 0,
b. kik = kjk = 1,
ossia i vettori della base B sono versori ortogonali.
4. Una base B = (i) di una retta vettoriale V1 si dice ortonormale se kik = 1, ossia
se e` formata da un versore.
Osservazione 3.13
1. Una base ortonormale e` , quindi, una base ortogonale i cui vettori sono anche versori.
2. E` evidente che sia nello spazio vettoriale V3 sia in ogni piano vettoriale V2 sia in
ogni retta vettoriale V1 esistono infinite basi ortonormali.
Calcolo Vettoriale
108
j
i
i
i
i
Capitolo 3
109
y = y1 i + y2 j + y3 k
due vettori di V3 le cui componenti possono essere rappresentate dalle matrici colonne:
x1
y1
X = x2 , Y = y2 .
x3
y3
Il prodotto scalare tra i vettori x e y e` dato da:
x y = x1 y1 + x2 y2 + x3 y3 = tX Y.
La norma del vettore x e` :
kxk =
c = p
=
.
cos(xy)
tXX
tY Y
x21 + x22 + x23 y12 + y22 + y32
Calcolo Vettoriale
110
11
uv
v=
(0, 2, 3),
2
kvk
13
Capitolo 3
111
x
x3
x1
x2
x2
x1
Calcolo Vettoriale
112
quindi:
31 27
x = 2p u = 2, ,
.
13 13
Esercizio 3.7
b = (0, 1, 1)
2
ba
a = (1, 2, 0)
2
kak
5
2 1
h = b p = , ,1 .
5 5
h
p
a
Figura 3.18: Esercizio 3.7
Capitolo 3
3.7.2
113
Il prodotto vettoriale di due vettori, oggetto di questo paragrafo, e` unoperazione particolare tra due vettori che, a differenza del prodotto scalare, pu`o essere solo definita sullo
spazio vettoriale V3 . Esistono opportune generalizzazioni di questa operazione a spazi
vettoriali di dimensione maggiore di 3, ma solo in alcuni casi particolari. Lo studio di
queste generalizzazioni non e` immediato e richiede nozioni inserite spesso in corsi pi`u
avanzati. In realt`a la definizione del prodotto vettoriale e` estremamente importante per
descrivere in Fisica la rotazione dei corpi e il momento angolare.
Definizione 3.12 Il prodotto vettoriale (o esterno) e` una funzione:
: V3 V3 V3 ,
(x, y) 7 x y.
xy
y
Calcolo Vettoriale
114
C
y
H
A
Capitolo 3
115
Dimostrazione Siano AB e AC rappresentanti dei vettori x e y rispettivamente. Con
riferimento alla Figura 3.20 e tenendo conto che:
[
kx yk = kABkkACk sin(BAC)
si ha la tesi.
Tramite il prodotto vettoriale di due vettori e` possibile calcolare il vettore proiezione ortogonale di un vettore qualsiasi di V3 su un piano vettoriale, precisamente si ha il seguente
teorema.
Teorema 3.16 Vettore proiezione ortogonale su un piano vettoriale Dati due vettori u, v di V3 linearmente indipendenti, il vettore p proiezione ortogonale di un generico
vettore x di V3 sul piano vettoriale individuato da u e da v e` dato da:
p=x
x (u v)
(u v).
ku vk2
Dimostrazione Siano AB, AC i segmenti orientati rappresentanti dei vettori u e v
rispettivamente. Sia AD rappresentante del vettore x. Dalla Figura 3.21 segue che
x = p + q. Ma il vettore q non e` altro che il vettore proiezione ortogonale di x su
u v. La tesi e` conseguenza, quindi, del Teorema 3.11.
Osservazione 3.16 Se in un piano vettoriale si considera una base ortogonale, non e` necessario usare la nozione di prodotto vettoriale di due vettori per determinare il vettore
proiezione ortogonale di ogni vettore di V3 su tale piano. Siano, infatti, a e b due vettori
ortogonali, ossia a b = 0, la proiezione ortogonale p di un generico vettore x di V3 sul
piano vettoriale individuato da a e da b e` data da:
p=
xb
xa
a+
b.
2
kak
kbk2
La formula appena citata e` facile conseguenza del Teorema 3.11, ma e` di grande importanza, perche si potr`a facilmente estendere a spazi vettoriali di dimensione superiore a 3
(cfr. Teor. 5.5).
Teorema 3.17 Il prodotto vettoriale tra due vettori gode delle seguenti propriet`a:
1. x y = y x,
x, y V3 ,
x, y V3 , R,
Calcolo Vettoriale
116
uv
C
v
p
A
Capitolo 3
3. x (y + z) = x y + x z,
Dimostrazione
117
x, y, z V3 .
x, y V3 .
Allo scopo di determinare lespressione del prodotto vettoriale in funzione delle componenti dei due vettori e` necessario, come per il calcolo del prodotto scalare, fissare una
base ortonormale di V3 , ma e` anche fondamentale, in questo caso, distinguere tra le due
possibili configurazioni di basi ortonormali schematizzate nella Figura 3.14. Nel primo
caso si osserva che i j = k, nel secondo caso, invece, i j = k. Si impone, quindi,
la necessit`a di introdurre la seguente definizione.
Definizione 3.13
Calcolo Vettoriale
118
y = y1 i + y2 j + y3 k
(3.17)
k i = j,
j k = i,
j i = k, i k = j, k j = i.
Inoltre dal Teorema 3.14 segue:
i i = j j = k k = o.
Tenendo conto delle uguaglianze appena trascritte e applicando le propriet`a del prodotto
vettoriale enunciate nel Teorema 3.17 si perviene facilmente alla tesi.
Capitolo 3
Osservazione 3.18
segue:
119
i j k
x y = x1 x2 x3 ,
(3.18)
y1 y2 y3
anche se lespressione a secondo membro e` priva di significato matematico, in quanto si indica il calcolo del determinante di un oggetto che non e` una matrice. Daltra
parte e` molto pi`u facile ricordare (3.18) anziche (3.17).
2. Si osservi che dal Teorema 3.14 e dalla formula (3.17) segue che, fissata una base
ortonormale positiva B = (i, j, k), due vettori:
x = x1 i + x2 j + x3 k,
sono paralleli se e solo se:
x2 x3
y2 y3
y = y1 i + y2 j + y3 k
x1 x3 x1 x2
=
y1 y3 = y1 y2 = 0.
Ci`o equivale a richiedere che le componenti dei due vettori siano a due a due proporzionali, ossia che i due vettori x e y siano linearmente dipendenti. A maggior
precisione si osservi che la condizione di dipendenza lineare letta sulle componenti
di due vettori e` stata a suo tempo ricavata rispetto ad una base qualsiasi di V3 e non
solamente rispetto ad una base ortonormale positiva. Infatti la dipendenza lineare
equivale al parallelismo di due vettori anche in dimensione superiore a 3, come sar`a
dimostrato nel Teorema 5.3.
Esercizio 3.8 Nel spazio vettoriale V3 , rispetto ad una base B = (i, j, k) ortonormale
positiva, sono dati i vettori:
a = (2, 1, 1),
b = (0, 1, 1).
Determinare tutti i vettori x di V3 tali che la loro proiezione ortogonale sul piano vettoriale generato da a e da b sia il vettore a + b.
Soluzione
R,
dove:
i j k
a b = 2 1 1
0 1 1
1 1
=
1 1
i 2 1
0 1
j + 2 1
0 1
k = 2j + 2k.
Di conseguenza:
x = (a + b) + a b = (2, 2 2, 2 + 2),
R.
Calcolo Vettoriale
120
3.7.3
Loperazione tra vettori che segue, e che e` anche lultima proposta, non e` nuova ma e`
definita tramite le operazioni di prodotto scalare e di prodotto vettoriale.
Definizione 3.14 Il prodotto misto di tre vettori nello spazio vettoriale V3 e` la funzione:
V3 V3 V3 R
cos` definita:
(x, y, z) 7 x y z.
E` chiaro dalla definizione appena scritta che le operazioni di prodotto vettoriale e di
prodotto scalare sono da eseguirsi nellordine indicato.
Il numero reale che si ottiene dal prodotto misto di tre vettori linearmente indipendenti
dello spazio vettoriale V3 ha un importante significato geometrico, come si evince dal
teorema che segue.
xy
D
H
z
A
x
B
Figura 3.22: Significato geometrico del prodotto misto di tre vettori
Capitolo 3
121
Teorema 3.19 Significato geometrico del prodotto misto Il prodotto misto di tre
vettori non complanari di V3 e` pari a 6 volte il volume, con segno, del tetraedro individuato da tre segmenti orientati, rappresentanti dei tre vettori dati, e aventi un estremo in
comune.
Dimostrazione
Siano AB, AC, AD tre segmenti orientati rappresentanti dei vettori
x, y, z rispettivamente. Essendo, per ipotesi, i tre vettori considerati linearmente indipendenti, si pu`o supporre che il punto D non appartenga al piano individuato dai punti
A, B, C . La situazione geometrica e` rappresentata nella Figura 3.22. Dalla definizione di
prodotto scalare si ha:
(x y) z = kx ykkzk cos((x\
y)z) = kx ykAH,
(3.19)
dove con AH si indica la lunghezza con segno della proiezione ortogonale del vettore
z su x y. Come e` noto, il segno della lunghezza della proiezione ortogonale dipende
dallampiezza dallangolo che il vettore z forma con il vettore x y, ossia se questo
angolo e` acuto il segno e` positivo (situazione geometrica descritta nella Figura 3.22), se
langolo e` ottuso il segno e` negativo. Non si considera il caso dellangolo retto perche,
se cos` fosse, il vettore z sarebbe complanare ai vettori x e y. Ricordando il significato
geometrico della norma del prodotto vettoriale di due vettori (cfr. Teor. 3.15) la formula
(3.19) diventa:
(x y) z = 2AABC AH = 6VABCD ,
dove AABC indica larea del triangolo ABC e VABCD il volume (con segno) del tetraedro
ABCD.
Osservazione 3.19
1. Dalla prima propriet`a del prodotto vettoriale del Teorema 3.17
e dalla prima propriet`a del prodotto scalare del Teorema 3.12 si ottengono le seguenti propriet`a del prodotto misto di tre vettori:
xyz=zxy
(3.20)
x y z = y x z.
(3.21)
2. Si osservi che il segno del prodotto misto di tre vettori x, y, z dipende dallordine
in cui sono considerati i tre vettori come si deduce da (3.21), mentre il valore assoluto del prodotto misto dei tre vettori non cambia, qualunque sia lordine in cui i
vettori sono considerati, infatti la medesima terna di vettori, qualunque sia lordine,
individua lo stesso tetraedro.
Nel caso in cui tre vettori di V3 siano complanari allora vale il seguente teorema la cui
dimostrazione e` una facile conseguenza delle definizioni e delle propriet`a del prodotto
vettoriale e del prodotto scalare ed e` lasciata al Lettore.
Calcolo Vettoriale
122
Teorema 3.20 Tre vettori di V3 sono complanari se e solo se il loro prodotto misto si
annulla.
Il teorema che segue permette di calcolare il prodotto misto mediante le componenti dei vettori e, di conseguenza, di controllare mediante il calcolo in componenti, che
lannullarsi del prodotto misto di tre vettori equivale alla loro dipendenza lineare.
Teorema 3.21 Prodotto misto in componenti Sia B = (i, j, k) una base ortonormale positiva di V3 e siano:
x = x1 i + x2 j + x3 k,
y = y1 i + y2 j + y3 k,
z = z1 i + z2 j + z3 k
x1 x3
x1 x2
x2 x3
xyz =
y2 y3 i y1 y3 j + y1 y2 k (z1 i + z2 j + z3 k)
x2 x3
x1 x3
x1 x 2
z
z +
z ,
=
y2 y3 1 y1 y3 2 y1 y2 3
dal Primo Teorema di Laplace (cfr. Teor. 2.17) segue la tesi.
Dal Teorema appena dimostrato e da tutte le propriet`a del calcolo del determinante di
una matrice quadrata di ordine 3, dimostrate nel Paragrafo 2.8, si ottengono le seguenti
propriet`a del prodotto misto, alcune delle quali sono gi`a state ricavate in precedenza e la
cui dimostrazione e` lasciata al Lettore per esercizio.
Teorema 3.22 Per il prodotto misto di tre vettori valgono le seguenti propriet`a:
1. x y z = x y z,
x, y, z V3 ;
2. x y z = z x y = y z x,
x, y, z V3 ;
Capitolo 3
123
Osservazione 3.20 La propriet`a 1. del Teorema 3.22 pu`o essere dimostrata, in generale,
indipendentemente dallespressione in componenti dei tre vettori x, y, z. E` facile dimostrare che, in valore assoluto, il primo membro di 1. coincide con il secondo membro,
in quanto i tre vettori individuano lo stesso tetraedro, pertanto, in valore assoluto, la propriet`a non esprime altro che il volume di questo tetraedro. Si perviene alluguaglianza dei
segni dei due membri se si osserva che il segno del prodotto misto della terna di vettori
x, y, z e` invariante per le loro permutazioni circolari. La dimostrazione completa si pu`o
leggere, per esempio, in [7].
Esercizio 3.9 Nello spazio vettoriale V3 , rispetto ad una base B = (i, j, k), ortonormale
positiva, sono dati i vettori:
a = (1, 0, 1),
b = (2, 1, 0),
c = (h, k, 2),
h, k R.
Assegnati ad h e a k i valori
per cui c e` parallelo al vettore ab, calcolare le componenti
del vettore x di norma 3, complanare ad a e a b e tale che il volume (con segno) del
tetraedro di spigoli a, c, x sia uguale a 2.
Soluzione Si ricava facilmente che a b = i 2j + k, quindi c e` parallelo a a b se
e solo se h = 2 e k = 4, da cui c = (2, 4, 2). Sia x = x1 i + x2 j + x3 k, x e` complanare
ad a e a b se e solo se x a b = 0 ossia, in componenti, se e solo se:
x1 x2 x3
1 0 1 = 0.
(3.22)
2 1 0
Il volume con segno del tetraedro individuato dalla terna ordinata dei vettori a, c, x e`
uguale a 2 se e solo se a c x = 12, che, in componenti, equivale a:
1 0 1
2 4 2 = 12.
(3.23)
x1 x2 x3
(3.24)
Risolvendo il sistema formato dalle equazioni (3.22), (3.23) e (3.24) si ha x = (1, 1, 1).
Esercizio 3.10 Usando il prodotto misto di tre vettori, si dimostri la propriet`a distributiva
del prodotto vettoriale rispetto alla somma di vettori:
x (y + z) = x y + x z,
x, y, z V3 .
(3.25)
Calcolo Vettoriale
124
Soluzione
x, y, z, a V3 ,
(3.26)
ovvero a dimostrare che la proiezione ortogonale del vettore a primo membro su un generico vettore a di V3 coincide con la proiezione ortogonale del vettore a secondo membro
sullo stesso vettore a di V3 . E` chiaro che ci`o e` vero solo perche il vettore a pu`o variare
tra tutti i vettori di V3 , questa affermazione e` palesemente falsa, in caso contrario. Per
verificare (3.26) e` sufficiente procedere applicando ripetutamente le varie propriet`a del
prodotto misto, del prodotto vettoriale e del prodotto scalare di vettori, precisamente si
ha:
a [x (y + z)] = (a x) (y + z)
= (a x) y + (a x) z
= axy+axz
= a (x y + x z).
3.8
Il teorema che segue permette di caratterizzare le matrici del cambiamento di base tra due
basi ortonormali.
Teorema 3.23 Sia B = (i, j, k) una base ortonormale di V3 , allora anche B 0 = (i0 , j0 , k0 )
e` una base ortonormale di V3 se e solo se la matrice P del cambiamento di base da B a
B 0 verifica la condizione:
t
P P = I,
(3.27)
dove I indica la matrice unit`a di ordine 3.
Dimostrazione Sia P = (pij ) la matrice del cambiamento di base ottenuta come
descritto nel Paragrafo 3.5, vale a dire:
0
0
k = p13 i + p23 j + p33 k.
(3.28)
(3.29)
Capitolo 3
125
(3.30)
i i
i0 j0 i0 k0
t
0
0
0
0
0
0
j
i
j
j
j
k
PP =
= I.
0
0
0
0
0
0
k i k j k k
Il viceversa si ottiene in modo analogo.
Osservazione 3.21
1. Si ricordi che le matrici P per cui vale la (3.27) prendono il
nome di matrici ortogonali (cfr. Par. 2.5), il Teorema 3.23 ne giustifica questa
particolare denominazione. Allora il Teorema 3.23 afferma che le matrici ortogonali caratterizzano il cambiamento di base tra basi ortonormali. Si osservi anche
che le colonne di una matrice ortogonale di ordine 3 sono i vettori di una base
ortonormale.
2. Applicando il Teorema di Binet (cfr. Teor. 2.16) a (3.27) si ha:
det(tP P ) = det(tP ) det(P ) = (det(P ))2 = det(I) = 1,
quindi:
det(P ) = 1.
Si perviene allo stesso risultato ricordando lespressione in componenti del prodotto
misto di tre vettori, infatti:
det(P ) = i0 j0 k0 = 1.
Quindi il cambiamento di base tra due basi ortonormali positive e` caratterizzato da una matrice ortogonale con determinante uguale a 1, in caso contrario il
determinante della matrice ortogonale e` 1.
Calcolo Vettoriale
126
3. Si osservi che e` fondamentale richiedere nel Teorema 3.23 che entrambe le basi B e
B 0 siano basi ortonormali, infatti le relazioni (3.30) non sarebbero valide se B non
fosse una base ortonormale (cfr. Teor. 3.13), anche se B 0 fosse ortonormale.
4. Il Teorema 3.23 e` valido anche nel caso del cambiamento di base tra due basi ortonormali in ogni piano vettoriale V2 , si studier`a di seguito linterpretazione
geometrica in questo caso particolare.
5. Il Teorema 3.23 propone unaltra interpretazione del prodotto righe per colonne di
matrici quadrate di ordine 3 e di ordine 2; infatti il prodotto di una riga per una
colonna pu`o essere considerato come il prodotto scalare tra la riga e la colonna se
i proprii elementi si interpretano come le componenti di un vettore rispetto ad una
base ortonormale.
j
i'
j'
i
Figura 3.23: Cambiamento di basi ortonormali in V2 , primo caso
Si consideri ora il caso particolare del cambiamento di base tra basi ortonormali in un
piano vettoriale V2 con lo scopo di determinare gli elementi della matrice ortogonale
P = (pij ) R2,2 che lo regola. Date due basi ortonormali B = (i, j) e B 0 = (i0 , j0 )
la seconda base si pu`o ottenere dalla prima in uno dei modi rappresentati nelle Figure
3.23, 3.24, 3.25. Si osservi che le prime due figure sono in realt`a dello stesso tipo e
corrispondono ad una rotazione che la base B compie per sovrapporsi alla base B 0 , invece
nella terza figura la base B deve effettuare un movimento di riflessione (non interno al
piano vettoriale V2 ) per sovrapporsi alla base B 0 .
Capitolo 3
127
j
j'
i'
j
i'
j'
i
Figura 3.25: Cambiamento di basi ortonormali in V2 , terzo caso
128
Calcolo Vettoriale
i = cos i + sin j
(3.31)
cos
sin
sin cos
.
(3.33)
Capitolo 3
129
che conduce alla base ortonormale positiva B 0 = (i0 , j0 ) mediante la matrice ortogonale
R[1 ]. A partire dalla base ortonormale positiva B 0 = (i0 , j0 ) si consideri la rotazione di
angolo 2 che conduce alla base ortonormale positiva B 00 = (i00 , j00 ) mediante la matrice
ortogonale R[2 ]. Si dimostri che la matrice del cambiamento di base dalla base ortonormale positiva B = (i, j) alla base ortonormale positiva B 00 = (i00 , j00 ), corrispondente alla
rotazione di angolo 1 + 2 , e` la matrice prodotto R[1 ]R[2 ]. Si ripeta lo stesso esercizio
dove, al posto delle rotazioni, si considerano riflessioni.
3.9
kyk = 7,
kx + yk = 10.
Determinare kx yk.
Soluzione
daltra parte:
kx yk2 = (x y) (x y) = kxk2 2x y + kyk2
e quindi:
kx + yk2 + kx yk2 = 2 (kxk2 + kyk2 )
da cui:
kx yk2 = 2(25 + 49) 100 = 48.
Esercizio 3.14 Siano u, v, w vettori linearmente indipendenti di V3 . Dimostrare che se
z e` un vettore di V3 ortogonale a ciascuno di essi allora z = o.
Soluzione Osservato che (u, v, w) e` una base di V3 e` sufficiente dimostrare che se z e`
ortogonale ad un generico vettore:
x = u + v + w
di V3 , con , , R, allora z = o. Infatti si ha:
z x = z (u + v + w) = z u + z v + z w = 0,
in quanto, per ipotesi, z u = z v = z w = 0. In particolare z z = kzk2 = 0, quindi
z = o.
Calcolo Vettoriale
130
Esercizio 3.15 Dimostrare che, se i vettori a, b, c di V3 sono non nulli e a due a due
ortogonali, anche i vettori:
a b, b c, c a
sono non nulli e a due a due ortogonali.
Soluzione Per definizione di prodotto vettoriale di due vettori, a b e` ortogonale sia
ad a sia a b, quindi e` parallelo a c, da cui:
a b = c,
dove e` un numero reale non nullo. Analogamente si ha b c = a e c a = b
con 6= 0, 6= 0. Pertanto a b, b c, c a sono non nulli e a due a due ortogonali
essendo paralleli a vettori non nulli, a due a due ortogonali.
Esercizio 3.16 In V3 , dimostrare che, se i vettori a b, b c, c a sono linearmente
indipendenti anche i vettori a, b e c sono linearmente indipendenti.
Soluzione Se i vettori a, b, c fossero linearmente dipendenti essi sarebbero complanari
e quindi i vettori a b, b c, c a, per definizione di prodotto vettoriale, sarebbero
paralleli che e` assurdo.
Esercizio 3.17 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), sono dati i
vettori:
a = (h, 3h, 1), b = (0, 3, h), c = (1, 1, h), h R.
1. Determinare i valori di h per cui a, b, c non formano una base di V3 .
2. Determinare dei valori di h per cui esistono dei vettori x = (x1 , x2 , x3 ) tali che:
xa=b
e calcolarne le componenti.
Soluzione 1. I vettori a, b, c non formano una base di V3 se sono linearmente dipendenti, ossia se la matrice:
h 3h 1
3 h
A= 0
1
1 h
le cui righe sono date dalle componenti dei vettori a, b, c ha determinante uguale
Capitolo 3
2. Da x a = b si ha:
131
i
j k
x1 x2 x3 = 3j + hk.
h 3h 1
x2 3hx3 = 0
x1 hx3 = 3
3hx1 + hx2 = h,
che non ammette soluzioni se h 6= 0; invece se h = 0 i vettori x = (3, 0, t), per
ogni t R, verificano luguaglianza richiesta.
3.10
3.10.1
In questo paragrafo viene introdotta una definizione di vettore pi`u rigorosa, che si basa
sul concetto di relazione di equivalenza e di classi di equivalenza.
Definizione 3.15 Due segmenti orientati AB e CD dello spazio S3 sono detti equipollenti se i punti medi dei segmenti AD e BC coincidono. La situazione geometrica e`
illustrata nella Figura 3.26.
B
Figura 3.26: Segmenti orientati equipollenti
Calcolo Vettoriale
132
3.10.2
In questo paragrafo verranno riassunte alcune propriet`a delle operazioni tra vettori studiate in questo capitolo e non introdotte in precedenza, che anche se hanno conseguenze
importanti nello studio approfondito di argomenti di geometria e di fisica, possono essere
omesse ad una prima lettura.
Teorema 3.25 Sono valide le seguenti propriet`a per il prodotto vettoriale e scalare tra
vettori:
1. (x y) z = (x z) y (y z) x,
x, y, z V3 ;
2. (x y) (z w) = (w x y) z (z x y) w,
x, y, z, w V3 ;
3. (x y) (z w) = (x z)(y w) (x w)(y.z),
x, y, z, w V3 ;
4. (x y) z + (y z) x + (z x) y = o,
x, y, z V3 .
Capitolo 3
133
Dimostrazione
1. Si supponga che x, y, z siano vettori di V3 non complanari, negli
altri casi si lascia per esercizio la dimostrazione dellidentit`a 1. Il vettore
(x y) z e` ortogonale al vettore x y e quindi appartiene al piano vettoriale
individuato da x e da y. Esistono pertanto due numeri reali , tali che:
(x y) z = x + y.
(3.34)
= (x z).
Lidentit`a 1. e` dimostrata se si verifica che non dipende dalla scelta dei vettori
x, y, z. Supposto per assurdo che dipenda, ad esempio, da z, si ponga:
(x y) z = (z)[(x z)y (y z)x].
(3.35)
(3.36)
134
Calcolo Vettoriale
Osservazione 3.22
1. Siano x, y, z vettori di V3 non complanari. Lidentit`a 1. del
Teorema 3.25 prende il nome di doppio prodotto vettoriale ed esprime il fatto che
il vettore (x y) z appartiene al piano vettoriale individuato dai vettori x e y.
E` evidente da questa identit`a che non vale, in generale, la propriet`a associativa del
prodotto vettoriale, infatti:
(x y) z 6= x (y z),
in quanto il vettore x (y z) appartiene al piano vettoriale individuato da y e da
z che, in generale, non coincide con il piano vettoriale individuato da x e da y.
2. Se nellidentit`a 3. del Teorema 3.25 si pone x = z e y = w si ha:
kx yk2 = kxk2 kyk2 (x y)2 .
La relazione appena ottenuta e` nota come identit`a di Lagrange. E` di grande importanza nello studio delle propriet`a delle superfici nello spazio, (cfr. per esempio [11]), in quanto esprime la norma del prodotto vettoriale di due vettori solo
in termini del loro prodotto scalare. E` anche doveroso osservare che lidentit`a di
Lagrange ha una dimostrazione elementare (che viene lasciata per esercizio) senza
necessariamente considerare la dimostrazione dellidentit`a 3.
3. La relazione 4. del Teorema 3.25 prende il nome di identit`a di Jacobi e riveste
unimportanza notevole nello studio delle algebre di Lie. Per maggiori approfondimenti sullargomento si vedano per esempio [2] o [13].
Capitolo 4
Spazi Vettoriali e Sottospazi Vettoriali
4.1
Spazi vettoriali
(x, y) 7 x + y
x, y V (propriet`a commutativa);
2. (x + y) + z = x + (y + z),
3. o V | x + o = x,
x, y, z V (propriet`a associativa);
136
(, x) 7 x
x, y V, R;
2. ( + )x = x + x,
x V, , R;
3. ()x = (x),
4. 1 x = x,
x V, , R;
xV.
Capitolo 4
137
Esempio 4.2 Gli insiemi delle matrici Rm,n di m righe e n colonne, ad elementi reali,
definiti nel Capitolo 2, sono esempi di spazi vettoriali reali rispetto alle operazioni di
somma di matrici e di prodotto di un numero reale per una matrice l`a definite.
Esempio 4.3 Lesempio fondamentale:
Rn = {(x1 , x2 , . . . , xn ) | xi R, i = 1, 2, . . . , n}
e` un caso particolare dellesempio precedente ma, visto il ruolo fondamentale che avr`a in
tutto il testo, verr`a trattato a parte.
La somma di due n-uple (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) di Rn e` definita come:
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).
Il vettore nullo di Rn e` dato dalla n-upla (0, 0,. . ., 0) e lopposto del vettore (x1 , x2 ,. . ., xn )
e` il vettore (x1 , x2 , . . . , xn ). Il prodotto di un numero reale per un elemento
(x1 , x2 , . . . , xn ) di Rn e` definito da:
(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ).
Esempio 4.4 Il campo dei numeri razionali Q e` un esempio di spazio vettoriale su Q
(ma non su R), analogamente il campo dei numeri complessi C ha la struttura di spazio
vettoriale su se stesso e anche su R. Si lascia per esercizio la spiegazione dettagliata di
tali affermazioni.
Esempio 4.5 Linsieme delle funzioni reali di variabile reale F(R) = {f : R R} e`
un esempio di spazio vettoriale su R, dove la somma di due elementi f e g di F(R) e`
definita da:
(f + g)(x) = f (x) + g(x), x R
e il prodotto di un numero reale per una funzione f F(R) e` :
(f )(x) = (f (x)),
x R.
x R.
138
Esempio 4.6 Sia R[x] linsieme dei polinomi nella variabile x a coefficienti reali, ossia:
R[x] = {a0 + a1 x + . . . + an xn | n N, ai R, i = 0, 1, . . . , n},
(N = {0, 1, 2, . . .} indica linsieme dei numeri naturali). Le usuali operazioni di somma
di polinomi e di prodotto di un numero reale per un polinomio conferiscono a R[x] la
struttura di spazio vettoriale reale. Il vettore nullo e` dato dal numero reale 0 e lopposto
del polinomio p(x) = a0 + a1 x + a2 x2 + . . . + an xn e` il polinomio:
p(x) = a0 a1 x a2 x2 . . . an xn .
Vale il seguente teorema, il cui enunciato e` naturalmente intuibile.
Teorema 4.1 In uno spazio vettoriale reale V si ha:
1. il vettore nullo o e` unico;
2. per ogni vettore x V lopposto x e` unico;
3. se per x, y, z V si ha x + y = x + z, allora y = z;
4. x = o (con R e x V ) = 0 oppure x = o;
5. (1)x = x, per ogni x V.
Dimostrazione
4.5.
Osservazione 4.4 Linsieme {o} formato dal solo vettore nullo e` un esempio di spazio
vettoriale reale. Si osservi che e` lunico spazio vettoriale reale con un numero finito di
elementi.
4.2
Sottospazi vettoriali
La nozione di sottospazio vettoriale di uno spazio vettoriale reale, oggetto di questo paragrafo, intende estendere il concetto, gi`a considerato nel capitolo precedente, degli insiemi
dei vettori di una retta vettoriale V1 e di un piano vettoriale V2 visti come sottoinsiemi
dello spazio vettoriale V3 .
Capitolo 4
4.2.1
139
Definizione ed esempi
Definizione 4.2 Sia V uno spazio vettoriale reale, un sottoinsieme W V e` un sottospazio vettoriale di V se W e` uno spazio vettoriale rispetto alle stesse operazioni di V,
ossia se e` chiuso rispetto alle operazioni di somma e di prodotto per scalari definite in V,
vale a dire:
x, y W = x + y W,
R, x W = x W,
che equivale a:
, R, x, y W = x + y W.
Osservazione 4.5
1. Un sottoinsieme H di un gruppo G e` un sottogruppo se e` un
gruppo con il prodotto definito in G. Pertanto, poiche uno spazio vettoriale V e` un
gruppo commutativo rispetto alloperazione di somma, un sottospazio vettoriale W
di V e` un sottogruppo di V.
2. Segue dalla Definizione 4.2 e dalla propriet`a 4. del Teorema 4.1 che il vettore nullo
o di uno spazio vettoriale V deve necessariamente appartenere ad ogni sottospazio
vettoriale W di V.
Esempio 4.7 Ogni spazio vettoriale V ammette almeno due sottospazi vettoriali: V e
{o}. Essi coincidono se e solo se V = {o}. Tali sottospazi vettoriali si dicono improprii.
Esempio 4.8 Linsieme dei vettori ordinari di ogni piano vettoriale V2 e` un sottospazio
vettoriale dellinsieme dei vettori dello spazio V3 . Linsieme dei vettori di una retta vettoriale V1 e` un sottospazio vettoriale del piano vettoriale V2 che la contiene e ogni retta
vettoriale e` un sottospazio vettoriale di V3 .
Esempio 4.9 Si osservi che, nonostante Q sia un sottoinsieme di R, linsieme dei numeri
razionali Q (spazio vettoriale su Q) non e` un sottospazio vettoriale dello spazio vettoriale
reale R, in quanto su Q non e` definito lo stesso prodotto per scalari di R. Infatti, il
prodotto di un numero reale per un numero razionale non e` necessariamente razionale.
Esempio 4.10 Sia a R e fa : R R la funzione definita da fa (x) = ax; linsieme:
W = {fa F(R) | a R}
e` un sottospazio vettoriale dello spazio vettoriale reale F(R) introdotto nellEsempio
4.5. Infatti se fa , fb W , allora per ogni , R, si ha che fa + fb W, poiche
fa + fb = fa+b . La verifica e` lasciata al Lettore per esercizio.
140
Esempio 4.11 Sia R[x] lo spazio vettoriale dei polinomi nella variabile x a coefficienti
reali, introdotto nellEsempio 4.6. Sottospazi vettoriali notevoli di R[x] sono gli insiemi
dei polinomi di grado non superiore ad un numero intero positivo fissato n. In formule, si
indica con:
Rn [x] = {a0 + a1 x + a2 x2 + . . . + an xn | ai R, i = 0, 1, 2, . . . , n}
il sottospazio vettoriale dei polinomi di grado minore o uguale ad n. La verifica che
Rn [x] sia un sottospazio vettoriale di R[x] e` lasciata per esercizio. In particolare, quindi,
linsieme R e` un sottospazio vettoriale di R[x] in quanto pu`o essere visto come linsieme
dei polinomi di grado zero. In generale, linsieme dei polinomi di grado fissato n > 0
non e` un sottospazio vettoriale di R[x], anche se e` un sottoinsieme di Rn [x]. Infatti, per
esempio, linsieme dei polinomi di grado 3:
P = {a0 + a1 x + a2 x2 + a3 x3 R3 [x] | ai R, i = 0, 1, 2, 3, a3 6= 0}
non e` un sottospazio vettoriale di R3 [x] in quanto non contiene il vettore nullo di R3 [x].
Viene trattata ora la rappresentazione mediante equazioni dei sottospazi vettoriali dello
spazio vettoriale Rn . Per capire meglio la teoria, si inizia con un esercizio.
Esercizio 4.1 Dati i seguenti sottoinsiemi di R3 :
A = {(x1 , x2 , x3 ) R3 | 2x1 + 3x2 x3 = 0},
B = {(x1 , x2 , x3 ) R3 | 2x1 + 3x2 x3 = x2 + x3 = 0},
C = {(x1 , x2 , x3 ) R3 | 2x1 + 3x2 x3 = 5},
D = {(x1 , x2 , x3 ) R3 | 2x21 + 3x2 x3 = 0},
dire quali sono sottospazi vettoriali di R3 giustificando la risposta.
Soluzione A e` un sottospazio vettoriale di R3 . Infatti, siano (x1 , x2 , x3 ) e (y1 , y2 , y3 )
due elementi di A ossia tali che 2x1 + 3x2 x3 = 2y1 + 3y2 y3 = 0, si verifica che la
loro somma (x1 + y1 , x2 + y2 , x3 + y3 ) e` un elemento di A, vale a dire:
2(x1 + y1 ) + 3(x2 + y2 ) (x3 + y3 ) = 0,
che e` ovvia conseguenza dellappartenenza ad A di (x1 , x2 , x3 ) e di (y1 , y2 , y3 ). Analogamente si verifica che (x1 , x2 , x3 ) = (x1 , x2 , x3 ) e` un elemento di A per ogni
R e per ogni (x1 , x2 , x3 ) A.
Capitolo 4
141
142
Capitolo 4
4.2.2
143
Dati due sottospazi vettoriali W1 , W2 di uno spazio vettoriale reale V, si vuole stabilire
se la loro intersezione insiemistica e la loro unione insiemistica siano ancora sottospazi
vettoriali di V. Si inizia con il seguente teorema.
Teorema 4.2 Lintersezione insiemistica W1 W2 e` un sottospazio vettoriale di V.
Dimostrazione
E` immediata conseguenza delle definizioni di sottospazio vettoriale e
di intersezione insiemistica.
Esempio 4.18 Si considerino i sottospazi vettoriali di R3 :
W1 = {(x1 , x2 , x3 ) R3 | 3x1 + x2 + x3 = 0},
W2 = {(x1 , x2 , x3 ) R3 | x1 x3 = 0}.
La loro intersezione e` il sottospazio vettoriale:
W1 W2 = {(x1 , x2 , x3 ) R3 | 3x1 + x2 + x3 = x1 x3 = 0}
= {(a, 4a, a) R3 | a R}.
Esempio 4.19 In V3 , spazio vettoriale reale dei vettori ordinari, riferito ad una base
ortonormale positiva B = (i, j, k), i sottospazi vettoriali:
W1 = L(i, j),
W2 = L(i, k)
144
Esercizio 4.3 In quali casi lunione di due sottospazi vettoriali di uno spazio vettoriale V
e` un sottospazio vettoriale di V ?
Gli esempi precedenti giustificano la seguente definizione.
Definizione 4.3 Dati W1 e W2 sottospazi vettoriali di uno spazio vettoriale reale V, si
definisce somma di W1 e W2 linsieme:
W1 + W2 = {x1 + x2 | x1 W1 , x2 W2 }.
Teorema 4.3
1. W1 + W2 e` un sottospazio vettoriale di V.
Capitolo 4
145
146
e W1 W2 = {o}.
Capitolo 4
147
W2 = L(i + k);
W3 = L(j + k).
W = W1 + W2 + . . . + Wk
ci + . . . + Wk ) = {o}, i = 1, 2, . . . k,
e Wi (W1 + W2 + . . . + W
148
x1 + 2x2 + 3x3 + x4 = 0
x1 + x2 = 0
x1 + x3 = 0
x1 x2 + x 3 = 0
le cui soluzioni, come spiegato nel Paragrafo 1.2, dipendono dal rango della matrice dei
coefficienti:
1
2 3 1
1
1 0 0
.
A=
1
0 1 0
1 1 1 0
Riducendo per righe la matrice A si ottiene rank(A) = 4 da cui segue W1 W2 = {o}.
Per dimostrare che W1 + W2 = R4 si devono scrivere esplicitamente le espressioni dei
vettori di W1 e di W2 . Nel primo caso, risolvendo lequazione che definisce W1 , si
ottiene che (x1 , x2 , x3 , x4 ) W1 se:
(x1 , x2 , x3 , x4 ) = (2t1 3t2 t3 , t1 , t2 , t3 ), con t1 , t2 , t3 R.
Invece, risolvendo il sistema lineare che definisce W2 , si ha che (x1 , x2 , x3 , x4 ) W2 se:
(x1 , x2 , x3 , x4 ) = (0, 0, 0, ), con R.
Si perviene alla tesi provando che un generico vettore (x1 , x2 , x3 , x4 ) R4 si pu`o scrivere come somma di un vettore di W1 e di un vettore di W2 , in altri termini dato
(x1 , x2 , x3 , x4 ) esistono opportuni valori di t1 , t2 , t3 , R per cui:
(x1 , x2 , x3 , x4 ) = (2t1 3t2 t3 , t1 , t2 , t3 + ).
Si ricavano infatti t1 , t2 , t3 , R dalla scrittura stessa. Il Teorema 4.5 e il calcolo
dellintersezione dei due sottospazi vettoriali assicurano che tali valori sono unici.
Capitolo 4
4.3
149
In questo paragrafo saranno ripetute, nel caso di un generico spazio vettoriale reale V,
alcune definizioni e propriet`a gi`a enunciate nel caso particolare di V3 (cfr. Par. 3.4). Si e`
scelto questo approccio da un lato perche si ritiene didatticamente utile iniziare lo studio
di una teoria astratta e a volte ostica partendo dal caso, pi`u facile, dello spazio vettoriale
V3 , dallaltro perche si e` deciso di non far sempre riferimento al Capitolo 3 per rendere i
due capitoli indipendenti tra di loro e per non perdere la scansione logica del discorso.
4.3.1
Definizione 4.8 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, si dice che
un vettore x V e` combinazione lineare dei vettori v1 , v2 , . . . , vk se esistono k numeri
reali x1 , x2 , . . . xk tali che:
x = x1 v 1 + x2 v 2 + . . . + xk v k .
I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare.
Fissati i vettori v1 , v2 , . . . , vk in V si vogliono considerare tutte le loro combinazioni
lineari. Tale insieme indicato con:
L(v1 , v2 , . . . , vk ),
o con hv1 , v2 , . . . , vk i, in inglese prende il nome di span di v1 , v2 , . . . , vk , di cui
{v1 , v2 , . . . , vk }
e` il sistema (o insieme) di generatori. E` immediato dimostrare il seguente teorema.
Teorema 4.7 L(v1 , v2 , . . . , vk ) e` un sottospazio vettoriale di V ed e` il pi`u piccolo sottospazio vettoriale di V contenente i vettori v1 , v2 , . . . , vk .
Dimostrazione
Osservazione 4.11 A differenza di ci`o che la notazione usata potrebbe far pensare, si
osservi che le combinazioni lineari dei vettori v1 , v2 , . . . , vk non dipendono dallordine
in cui si considerano i vettori v1 , v2 , . . . , vk , cio`e ad esempio:
L(v1 , v2 , . . . , vk ) = L(v2 , v1 , . . . , vk ).
E` consuetudine, infatti, usare le parentesi tonde per indicare questo sottospazio vettoriale
anziche usare la notazione L{v1 , v2 , . . . , vk }, che sarebbe pi`u corretta dal punto di vista
matematico.
150
Capitolo 4
151
Esempio 4.24 Lo spazio vettoriale dei numeri reali pu`o essere generato da un qualsiasi
numero non nullo: R = L(1) = L(35) e quindi e` un esempio di spazio vettoriale reale finitamente generato. Analogamente, linsieme dei numeri complessi C e` uno spazio
vettoriale reale finitamente generato in quanto C = L(1, i), dove con i si indica lunit`a immaginaria. Daltra parte C e` anche uno spazio vettoriale complesso finitamente
generato perche, in questo caso, C = L(1).
Esempio 4.25 Rn e` finitamente generato, per esempio:
R3 = L((1, 0, 0), (0, 1, 0), (0, 0, 1)) = L((1, 2, 3), (2, 3, 0), (0, 0, 2), (4, 5, 6)).
Esempio 4.26 R2,2 e` generato, per esempio, dalle matrici:
1 0
0 0
,
0 1
0 0
,
0 0
1 0
,
0 0
0 1
,
152
x1 = 2t
x2 = t
x3 = t, t R.
In altri termini, il generico vettore di W e` del tipo (2t, t, t) = t(2, 1, 1), t R, ossia
(2, 1, 1) e` un generatore di W .
In questo testo si studieranno solo spazi vettoriali finitamente generati, le definizioni e le
propriet`a che seguono sono da considerarsi in questo contesto, anche se alcune di esse
possono essere agevolmente riscritte nel caso di spazi vettoriali non finitamente generati,
ma in tutto il testo non saranno mai discusse tali generalizzazioni. Per uno studio approfondito degli spazi vettoriali non finitamente generati si pu`o far riferimento a testi di base
di Analisi Funzionale (ad esempio [20]).
Poiche si vuole enunciare la definizione rigorosa di dimensione di uno spazio vettoriale
V (finitamente generato), sono riprese e riformulate, in un contesto pi`u generale, alcune
definizioni e propriet`a gi`a studiate nel capitolo precedente nel caso particolare dello spazio
vettoriale V3 .
Definizione 4.11 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi si
dicono linearmente indipendenti se lunica loro combinazione lineare uguale al vettore
nullo ha coefficienti tutti nulli, vale a dire:
x1 v1 + x2 v2 + . . . + xk vk = o = x1 = x2 = . . . = xk = 0.
(4.1)
Capitolo 4
153
Teorema 4.9 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi sono linearmente dipendenti se e solo se almeno uno di essi si pu`o esprimere come combinazione
lineare dei rimanenti.
Dimostrazione Si supponga che, per ipotesi, i vettori v1 , v2 , . . . , vk siano linearmente
dipendenti, allora x1 v1 + x2 v2 + . . . + xk vk = o, con x1 6= 0 (se il coefficiente non nullo
non fosse x1 si potrebbe commutare in modo da porre al primo posto il coefficiente non
nullo), e` perci`o possibile ricavare:
v1 =
xk
x2
v2 . . .
vk
x1
x1
154
Esempio 4.35
1. Una base ortonormale positiva B = (i, j, k) e` un esempio di base di
V3 , in quanto verifica la definizione appena enunciata.
2. In Rn una base e` data da B = (e1 , e2 , . . . en ), dove:
e1 = (1, 0, . . . , 0),
e2 = (0, 1, . . . , 0),
...,
en = (0, 0, . . . , 1).
Questa base particolare, molto naturale, prende il nome di base standard o base
canonica di Rn . Per esempio, nel caso particolare di R4 si ha che la quaterna:
(1, 2, 3, 4) si scrive come 1e1 + 2e2 + 3e3 + 4e4 , da cui la giustificazione della
particolare denominazione usata. Sempre in R4 se si considera, invece, la base
B 0 = (f1 , f2 , f3 , f4 ), dove:
f1 = (2, 0, 0, 0),
f2 = (0, 3, 0, 0),
si ha:
(1, 2, 3, 4) =
f3 = (0, 0, 1, 0),
f4 = (0, 0, 0, 4),
1
2
f1 + f2 + 3f3 + 1f4
2
3
che e` una decomposizione dello stesso vettore (1, 2, 3, 4) molto meno naturale della
precedente.
3. Analogamente al caso di Rn , la base canonica dello spazio vettoriale delle matrici
Rm,n e` formata, ordinatamente, dalle mn matrici Eij aventi il numero 1 al posto ij
e 0 per ogni altro elemento. Nel caso particolare di R2,3 la base canonica e` formata
dalle 6 matrici seguenti:
E11 =
E21 =
1 0 0
0 0 0
,
0 0 0
1 0 0
,
E12 =
E22 =
0 1 0
0 0 0
,
0 0 0
0 1 0
,
0 0 1
0 0 0
,
0 0 0
0 0 1
;
E13 =
E23 =
quindi:
1 2 3
4 5 6
= E11 + 2E12 + 3E13 + 4E21 + 5E22 + 6E23 .
Capitolo 4
155
Teorema 4.10
1. Sia B = (v1 , v2 , . . . , vn ) una base dello spazio vettoriale reale V,
allora ogni vettore x di V si decompone in modo unico come:
x = x1 v 1 + x2 v 2 + . . . + xn v n ,
(4.2)
con (x1 , x2 , . . . , xn ) Rn .
2. Se {v1 , v2 , . . . , vn } e` un insieme di vettori di V tale che ogni vettore x di V si
decomponga in modo unico rispetto a tali vettori come in (4.2), allora linsieme
{v1 , v2 , . . . , vn } e` una base di V.
La dimostrazione e` lasciata per esercizio.
Il teorema appena enunciato conduce alla definizione di componenti di un vettore rispetto
ad una base assegnata, nel modo seguente.
Definizione 4.13 Sia V uno spazio vettoriale di dimensione n. Fissata una base B =
(v1 , v2 , . . . , vn ) in V, per ogni vettore x di V i numeri reali x1 , x2 , . . . , xn individuati
univocamente da (4.2), si dicono componenti di x rispetto alla base B.
Osservazione 4.17 Fissata una base B in uno spazio vettoriale V, con un abuso di linguaggio volto ad enfatizzare lordine delle componenti, si scriver`a che la n-upla di Rn
(x1 , x2 , . . . , xn ) indica le componenti di x rispetto alla base B. In modo equivalente, ogni
vettore x di V si individua, rispetto alla base B, con la matrice colonna X Rn,1 data
da:
x1
x2
X = .. .
.
xn
Osservazione 4.18 Fissata una base B
colonne delle componenti, rispetto a B,
x1
x2
X = ..
.
xn
y1
y2
, Y = .. ,
.
yn
X +Y =
x1 + y 1
x2 + y 2
..
.
xn + y n
156
x1
x2
X = .. .
.
xn
Si osservi, inoltre, lassoluta coerenza tra le definizioni di somma di matrici e somma di
vettori e tra prodotto di un numero reale per una matrice e prodotto di un numero reale
per un vettore.
Dalla definizione di base di uno spazio vettoriale e dal Teorema 4.10 emergono in modo
naturale le seguenti domande:
1. in ogni spazio vettoriale esiste sempre almeno una base?
2. In caso affermativo, in uno spazio vettoriale quante basi esistono?
3. Nel caso in cui esistano molte basi in uno spazio vettoriale, quanti vettori contengono ciascuna?
Nel caso particolare degli spazi vettoriali dei vettori ordinari V3 , V2 e V1 , aiutati dalla
visualizzazione geometrica, si conoscono gi`a le risposte alle precedenti domande (cfr.
Teor. 3.4); i teoremi che seguono permettono di dare analoghe risposte nel caso particolare
degli spazi vettoriali finitamente generati, quali, ad esempio Rn e lo spazio delle matrici
Rm,n (cfr. Es. 4.35). Si enunciano ora uno di seguito allaltro i teoremi che caratterizzano
la struttura degli spazi vettoriali, anteponendo il commento e le loro conseguenze alle loro
dimostrazioni.
Teorema 4.11 Teorema di esistenza di una base Sia V uno spazio vettoriale reale finitamente generato e sia G = {w1 , w2 , . . . , wm } un sistema di generatori di V.
Linsieme G contiene almeno una base di V.
Osservazione 4.19 Dal teorema precedente e dallOsservazione 4.12 segue che, essendo
possibile ottenere infiniti sistemi di generatori di V a partire da G , esistono infinite basi
in uno spazio vettoriale finitamente generato.
Teorema 4.12 Lemma di Steinitz Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio
vettoriale reale V e sia I = {u1 , u2 , . . . , up } un insieme libero di V, allora p n.
Teorema 4.13 Teorema della dimensione Tutte le basi di uno spazio vettoriale reale
V finitamente generato hanno lo stesso numero di vettori.
Capitolo 4
157
Definizione 4.14 In uno spazio vettoriale reale V finitamente generato il numero dei
vettori appartenenti ad una base prende il nome di dimensione di V e si indica con
dim(V ).
Se V e` formato dal solo vettore nullo V = {o}, si pone dim({o}) = 0.
Dai teoremi elencati si ottiene in modo evidente il seguente teorema.
Teorema 4.14 Sia W un sottospazio vettoriale di uno spazio vettoriale reale V, allora:
1. se lo spazio vettoriale V e` finitamente generato anche W e` finitamente generato.
2. dim(W) dim(V ).
3. dim(W) = dim(V ) W = V.
Esempio 4.36 Segue dallEsempio 4.35 che:
dim(Rn ) = n.
dim(Rm,n ) = mn.
dim(Rn [x]) = n + 1.
Per dimostrare il Teorema 4.11 e` necessario anteporre il seguente lemma tecnico.
Lemma 4.1 Sia I = {a1 , a2 , . . . , ak } un insieme libero di V. Sia x V un vettore che
non e` combinazione lineare dei vettori di I , allora linsieme I {x} e` libero in V.
Dimostrazione
158
di I2 , allora I2 e` una base di V (quindi segue la tesi), oppure esiste almeno un vettore di
G che non e` combinazione lineare dei vettori di I2 , si suppone che sia w3 ; in questo caso
si procede con il:
terzo passo: si considera linsieme libero (cfr. Lemma 4.1) I3 = {w1 , w2 , w3 } e si
procede come nel secondo passo.
Il procedimento termina dopo un numero finito di passi, al pi`u m. Si e` cos` costruita
una base di V a partire dal primo vettore w1 di G . E` evidente che procedendo con lo
stesso metodo a partire da un altro vettore di G o da unaltro insieme di generatori di V
si ottengono infinite basi.
Osservazione 4.20 Il metodo descritto nella dimostrazione precedente prende il nome di
metodo degli scarti successivi per il procedimento di calcolo che prevede.
Esercizio 4.5 In A(R3,3 ), sottospazio vettoriale di R3,3 delle matrici antisimmetriche, si
consideri linsieme G = {A1 , A2 , A3 , A4 , A5 , A6 , A7 } con:
0
1 2
0 0
1
0 3 , A2 = 0 0 1 ,
A1 = 1
2 3 0
1 1
0
0
5 ,
0
2
0 ,
0
5
1
0 2 .
2
0
0
0
0
0
A3 =
0 5
0
A4 =
0
0
0
0
0
0 ,
0
(4.3)
0 1
1
0
A5 =
2
0
0
A7 = 5
1
0
1 1
0
4 ,
A6 = 1
1 4
0
0
a12 a13
0
a23
A = a12
(4.4)
a13 a23 0
(4.5)
Capitolo 4
159
degli elementi di G . Sostituendo in (4.5) le matrici (4.3) e (4.4) prima indicate, si perviene
al sistema lineare nelle incognite i , i = 1, 2, . . . , 7:
1 5 + 6 + 57 = a12 ,
21 + 2 + 25 6 + 7 = a13 ,
31 2 + 53 + 46 27 = a23 ,
le cui soluzioni sono lasciate da determinare al Lettore per esercizio.
Per estrarre una base da G si procede come nella dimostrazione del Teorema 4.11, si ha:
primo passo: sia I1 = {A1 }. Si verifica subito che {A1 , A2 } e` un insieme libero in
A(R3,3 ), si passa quindi al:
secondo passo: sia I2 = {A1 , A2 }. Si verifica che {A1 , A2 , A3 } e` un insieme libero, si
procede, quindi, con il:
terzo passo: sia I3 = {A1 , A2 , A3 }. Si verifica che ogni altro vettore di G e` combinazione
lineare di I3 , si deduce, cos` che I3 e` una base di A(R3,3 ). Tutte le verifiche sono lasciate
al Lettore per esercizio.
Per la dimostrazione del Teorema 4.12 si rimanda al Paragrafo 4.5.
Dimostrazione del Teorema 4.13 Siano B = (v1 , v2 , . . . , vn ) e C = (w1 , w2 , . . . , wm )
due basi di V, si tratta di dimostrare che n = m. Si consideri B base di V e C insieme
libero di V , dal Teorema 4.12 segue che m n, invertendo i ruoli di B e di C si perviene
alla tesi.
Osservazione 4.21 Si osservi limportanza dellordine dei vettori della base che si riflette
sullordine delle componenti dei vettori. In altri termini, mentre lo spazio vettoriale V si
pu`o scrivere indifferentemente come:
V = L(v1 , v2 , . . . , vn ) = L(v2 , v1 , . . . , vn ),
la base B = (v1 , v2 , . . . , vn ) e` diversa dalla base B 0 = (v2 , v1 , . . . , vn ). Come cambiano
le componenti dei vettori di V quando sono scritti rispetto alla base B e alla base B 0 ?
Esempio 4.37
1. A partire dalla scrittura di una matrice diagonale si verifica facilmente che dim(D(Rn,n )) e` n. Una sua base e` formata ordinatamente dalle matrici
Eii , i = 1, 2, . . . , n, definite nellEsempio 4.35.
2. A partire dalla scrittura di una matrice triangolare superiore, si verifica facilmente
che dim(T (Rn,n )) = n(n+1)/2 e una sua base e` data, ordinatamente, dalle matrici
Eij con 1 i j n definite nellEsempio 4.35.
160
1 0
0 0
.. ..
. .
0 0
...
...
..
.
0
0
..
.
dim(S(Rn,n )) =
n(n + 1)
2
0
0
..
.
0
1
..
.
1 ...
0 ...
.. . .
.
.
0 0 ...
... 0
0
0
..
.
0 ...
1 ...
.. . .
.
.
0 0 ...
0 ...
.. . .
.
, . . . , .
0 ...
0
0 ...
0
0
..
.
, . . . ,
0
..
.
,
0 1
1 0
0
..
.
0
0
..
.
0 ...
0 ...
.. . .
.
.
1 0 ...
0
0
..
.
0 ...
0 ...
.. . .
.
.
0 0 ...
1
0
..
.
0
0
0
..
.
0 1 0 ...
1 0 0 . . .
0 0 0 . . .
.. .. .. . .
. . .
.
0
0
0
0
..
.
0 0 ... 0
0
0
1
..
.
0
0
0
0
..
.
1
0
0
..
.
...
...
...
..
.
n(n 1)
2
0
0
0
..
.
, . . . ,
0 0 ... 0
0
0
..
.
0 ... 0
0 ... 0
.. . .
.
. ..
.
0 0 ... 0
0 0 . . . 1
0
0
..
.
1
0
Si conclude con lenunciato di un teorema che sar`a molto usato nel testo.
Teorema 4.15 Teorema del completamento della base Sia V uno spazio vettoriale
di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato linsieme libero:
I = {a1 , a2 , . . . , ak },
k n,
Capitolo 4
161
Esercizio 4.6 Nel sottospazio vettoriale S(R3,3 ) delle matrici simmetriche di ordine 3
completare linsieme libero I = {I1 , I2 , I3 }, con:
1 2 0
1
0 0
0 1 1
0
I1 = 2 0 0 , I2 = 0 1 0 , I3 = 1 0
0 0 0
0
0 1
1 0
0
fino ad ottenere una base di S(R3,3 ).
Si consideri la base di S(R3,3 ) contenente ordinatamente le matrici:
1 0 0
0 1 0
0 0 1
A1 = 0 0 0 ,
A2 = 1 0 0 ,
A3 = 0 0 0 ,
0 0 0
0 0 0
1 0 0
Soluzione
0 0 0
A4 = 0 1 0 ,
0 0 0
0 0 0
A5 = 0 0 1 ,
0 1 0
0 0 0
A6 = 0 0 0 ,
0 0 1
allora si possono riscrivere (per comodit`a di calcolo) i vettori di I tramite le loro componenti rispetto alla base B. Si ha:
I1 = (1, 2, 0, 0, 0, 0),
I2 = (1, 0, 0, 1, 0, 1),
I3 = (0, 1, 1, 0, 0, 0).
162
v1 , v2 , . . . , vn sono generatori di V.
2. Per ipotesi L(v1 , v2 , . . . , vn ) = V e dim(V ) = n. Applicando il Teorema 4.11 al
sistema di generatori {v1 , v2 , . . . , vn } di V si pu`o estrarre da esso una base di V,
ma, essendo dim(V ) = n, linsieme {v1 , v2 , . . . , vn } e` una base di V.
Osservazione 4.22 Mediante il Teorema del Completamento della Base (cfr. Teor. 4.15)
si pu`o agevolmente determinare un sottospazio vettoriale supplementare di un sottospazio
vettoriale W di uno spazio vettoriale V. Se dim(V ) = n e se (a1 , a2 , . . . , ak ) e` una
base di W, (k < n), allora si perviene ad un sottospazio vettoriale supplementare di W
completando linsieme libero (a1 , a2 , . . . , ak ) fino ad ottenere una base di V, data per
esempio da:
(a1 , a2 , . . . , ak , b1 , b2 , . . . , bnk ).
Infatti:
L(a1 , a2 , . . . , ak ) L(b1 , b2 , . . . , bnk ) = {o}
e L(b1 , b2 , . . . , bnk ) e` un sottospazio vettoriale di V supplementare di W . Un esempio
di quanto osservato sar`a trattato nellEsercizio 4.12.
4.3.2
Sia V uno spazio vettoriale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base,
allora:
V = L(v1 ) L(v2 ) . . . L(vn ),
oppure, per esempio:
V = L(v1 , v2 ) L(v3 , v4 , v5 ) . . . L(vn1 , vn ).
Inoltre segue in modo evidente dalla definizione di somma di due o pi`u sottospazi vettoriali dello spazio vettoriale V che essa e` generata dallunione dei medesimi, nel senso
che i vettori del sottospazio vettoriale somma sono combinazioni lineari dei vettori dei
sottospazi vettoriali addendi.
Alla luce di queste considerazioni, il teorema che segue indica un metodo per determinare
una base dello spazio vettoriale V (o pi`u in generale di un sottospazio vettoriale W di V )
a partire dalle basi dei sottospazi vettoriali in cui V (o W) si decompone.
Teorema 4.17 Si supponga che lo spazio vettoriale reale V sia decomposto nella somma
diretta di k suoi sottospazi vettoriali:
V = W1 W2 . . . Wk ,
Capitolo 4
163
allora e` possibile formare una base di V mediante lunione dei vettori appartenenti ad
una base di ciascuno dei sottospazi vettoriali Wi , i = 1, 2, . . . , k .
Dimostrazione Siano dim(W1 ) = n1 , dim(W2 ) = n2 , . . . , dim(Wk ) = nk le dimensioni dei sottospazi vettoriali considerati e siano B1 = (a11 , a12 , . . . , a1n1 ) una base di
W1 , B2 = (a21 , a22 , . . . , a2n2 ) una base di W2 e cos` via fino a Bk = (ak1 , ak2 , . . . , aknk )
base di Wk . Per definizione di somma diretta e di base, ogni vettore di V si scrive in
modo unico come combinazione lineare dei vettori delle basi dei sottospazi vettoriali Wi ,
i = 1, 2, . . . , k. Pertanto, linsieme di vettori:
B1 B2 . . . Bk = {a11 , a12 , . . . , a1n1 , a21 , a22 , . . . , a2n2 , . . . , ak1 , ak2 , . . . , aknk }
e` una base dello spazio vettoriale V.
Dal teorema precedente si ottiene il corollario di seguito enunciato.
Corollario 4.1 Se W = W1 W2 . . . Wk , allora:
dim(W) = dim(W1 ) + dim(W2 ) + . . . + dim(Wk ).
Esercizio 4.7 Vale il viceversa del Corollario 4.1?
Osservazione 4.23 Come immediata conseguenza del Corollario 4.1 segue che, dato un
sottospazio vettoriale W di V con dim(V ) = n e dim(W) = k , k < n, un suo supplementare W 0 (tale che W W 0 = V ) ha dimensione n k . Una base di W 0 pu`o essere
formata dai vettori che si aggiungono ad una base di W per ottenere una base di V (cfr.
Oss. 4.22). Si ottiene, quindi, che esistono infiniti sottospazi vettoriali supplementari di
W , supponendo ovviamente che W =
6 V eW=
6 {o}.
Nel caso della somma di due sottospazi vettoriali e` utile conoscere la formula che mette in
relazione le loro dimensioni con le dimensioni della loro intersezione e della loro somma,
per la dimostrazione si veda il Paragrafo 4.5.
Teorema 4.18 Formula di Grassmann Siano W1 e W2 due sottospazi vettoriali di
uno spazio vettoriale V, allora:
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 W2 ).
Esercizio 4.8 In R5 si consideri il sottospazio vettoriale:
W = {(x1 , x2 , x3 , x4 , x5 ) R5 | x1 + x2 + 2x3 + x4 x5 = 0}.
164
x1 x2
x3 x4
2,2
| x1 x4 = x2 x3 = 0 .
x1 + x4 = 0
x2 + x3 = 0
x1 x4 = 0
x2 x3 = 0
ha determinante non nullo. Rimane da dimostrare che W1 W2 = R2,2 . Si ottiene
facilmente che una generica matrice di R2,2 si pu`o scrivere come:
1 x1 + x4 x2 + x3
1
x1 x4
x2 x3
x1 x2
+
=
x3 x4
2 x2 + x3 x1 + x4
2 x2 + x3 x1 + x4
e ci`o prova la decomposizione (unica) di un vettore di R2,2 nella somma di due vettori di
W1 e W2 , rispettivamente.
Capitolo 4
165
0 a b
W1 = 0 0 c R3,3 | a, b, c R ,
0 0 0
W2 = D(R3,3 ),
x1 0 0
3,3
x2 x3 0
W3 =
R | 2x1 x3 = x1 + 3x3 = 0 .
x4 x5 0
Dimostrare che W1 W2 W3 = R3,3 .
Soluzione Si pu`o verificare direttamente che ogni vettore di R3,3 si decompone in modo unico come somma di un vettore di W1 insieme con un vettore di W2 insieme con un
vettore di W3 .
Esercizio 4.11 In R3 [x] si consideri il sottospazio vettoriale W dei polinomi aventi una
radice uguale a 2.
1. Decomporre W nella somma diretta di due sottospazi vettoriali W1 e W2 .
2. Scrivere il polinomio 4 2x + x3 di W come somma di un polinomio di W1 e
di un polinomio di W2 .
Soluzione 1. Dal Teorema di Ruffini sui polinomi, si ha che ogni polinomio di W si
scrive come:
p(x) = (x 2)(a0 + a1 x + a2 x2 ),
a0 , a1 , a2 R,
W2 = L((2 + x)x2 ).
2 = 2,
3 = 1.
166
4.3.3
In questo paragrafo verr`a introdotta la definizione formale di rango di una matrice, mentre
la Definizione 1.10 inserita nel Capitolo 1 ne costituisce un metodo di calcolo.
Sia A = (aij ) Rm,n una matrice di m righe e n colonne, le cui righe sono date dai
vettori:
R1 = (a11 , a12 , . . . , a1n ),
R2 = (a21 , a22 , . . . , a2n ),
..
.
Rm = (am1 , am2 , . . . , amn ).
I vettori Ri Rn , i = 1, 2, . . . , m, prendono il nome di vettori riga della matrice A ed il
sottospazio vettoriale:
R(A) = L(R1 , R2 , . . . , Rm )
e` lo spazio vettoriale delle righe di A. Per costruzione R(A) e` un sottospazio vettoriale
di Rn , ed avendo m generatori, la sua dimensione sar`a al pi`u pari al minore tra i numeri
m ed n.
Capitolo 4
167
168
.
.
0 . . . 0 akk . . . akn ,
0
0 ... 0 ... 0
.
..
..
..
..
.
.
.
0 ... 0 ... 0
0
con a11 a22 . . . akk 6= 0. Si tratta ora di dimostrare che il numero k delle righe non nulle di
A coincide con dim(R(A)), cio`e che le prime k righe di A sono linearmente indipendenti
in Rn . Il risultato e` quasi ovvio ed e` la conseguenza della particolare posizione delle
componenti nulle nelle righe di A. Infatti, dallequazione:
1 R1 + 2 R2 + . . . + k Rk = o
Capitolo 4
169
1 0 0
1 1 0
A=
2 3 4 .
5 6 7
170
Teorema 4.22 Il rango di una matrice A (inteso come la dimensione dello spazio vettoriale delle colonne di A) si calcola riducendo la matrice A per colonne, in altri termini
eseguendo sulle colonne, un numero finito di volte, le operazioni seguenti:
1. Ci Cj : scambiare tra di loro due colonne;
2. Ci Ci , R, 6= 0 : moltiplicare tutti gli elementi di una colonna per un
numero reale non nullo;
3. Ci Ci + Cj , R, i 6= j : sostituire ad una colonna una combinazione
lineare di se stessa con una colonna parallela
e poi contando il numero di colonne non nulle della matrice ridotta per colonne ottenuta.
La dimostrazione e` un evidente esercizio.
Osservazione 4.27 Riducendo per righe una matrice A non cambia lo spazio vettoriale
R(A), anche se si ottengono matrici ridotte per righe tra di loro diverse.
Riducendo per righe una matrice A non cambia dim(C(A)) ma cambia invece lo spazio vettoriale C(A). Analogamente, riducendo per colonne la matrice A non cambia
dim(R(A)) ma cambia R(A). In particolare, si osservi che riducendo per colonne la
matrice completa di una sistema lineare non si ottiene un sistema lineare equivalente al
sistema lineare dato.
Esercizio 4.13 Calcolare il rango della matrice:
1
2 1
1
1
0
2
4
A = 1
,
1
1 1
3 1
2
riducendola per colonne; calcolare il rango di A riducendola per righe e osservare che si
ottiene lo stesso risultato ma la matrice ridotta per colonne ottenuta e` diversa dalla matrice
ridotta per righe.
Esistono dei casi in cui le matrici ridotte per righe e per colonne a cui si perviene dalla
stessa matrice A coincidono?
Teorema 4.23 Teorema di Nullit`a piu` Rango Sia AX = O un sistema lineare
omogeneo con matrice dei coefficienti A Rm,n , incognite X Rn,1 e con colonna dei
termini noti la matrice nulla O Rm,1 . Sia N (A) il sottospazio vettoriale di Rn delle
soluzioni del sistema lineare omogeneo (cfr. Es. 4.12) , allora:
rank(A) + dim(N (A)) = n.
Capitolo 4
171
Dimostrazione Segue dalla definizione di rango di una matrice e dalla risoluzione dei
sistemi lineari omogenei mediante il metodo di riduzione di Gauss. Si risolve, infatti, il
sistema lineare omogeneo AX = O riducendo per righe la matrice A. Supponendo che
rank(A) = k , non si perde in generalit`a (cfr. la dimostrazione del Teorema 2.13) se si
assume di pervenire al seguente sistema lineare omogeneo ridotto:
a11 a12 . . .
0 a22 . . .
..
...
.
0 ... 0
0 ... 0
..
..
.
.
0
...
. . . . . . a1n
x1
x2
. . . . . . a2n
..
..
..
..
.
.
. .
akk . . . akn xk
... 0
0 xk+1
.
..
..
.
. ..
... 0
0
xn
0
0
..
.
0
0
..
.
aii 6= 0, i = 1, 2, . . . , k.
xk+1 = t1
xk+2 = t2
..
x = t , t ,t ,...,t
R,
n
nk
nk
akn
akk+1
t1 . . .
tnk
akk
akk
e cos` via per tutte le altre incognite. Di conseguenza il nullspace N (A) risulta essere:
N (A) = {t1 (b11 , b21 , . . . , bk1 , 1, 0, . . . , 0)
+t2 (b12 , b22 , . . . , bk2 , 0, 1, . . . , 0)
+...
+tnk (b1k1 , b2k1 , . . . , bkk1 , 0, 0, . . . , 1), t1 , t2 , . . . , tnk R},
dove i numeri reali bij indicano i coefficienti ottenuti dalla risoluzione del sistema lineare
omogeneo, per esempio:
akk+1
bk1 =
.
akk
Segue subito che dim(N (A)) = n k .
172
Anche se la dimostrazione del teorema precedente e` ovvia, la sua importanza sar`a fondamentale nel resto del corso. La denominazione nullit`a deriva, come gi`a osservato in
precedenza, dalla traduzione del termine nullspace che indica in inglese il sottospazio
vettoriale N (A).
La formulazione del Teorema di Nullit`a pi`u Rango appena presentato e` quella classica,
che viene usata per le sue svariate applicazioni. In realt`a lenunciato completo del teorema
e` il seguente.
Teorema 4.24 Teorema di Nullit`a piu` Rango Sia AX = O un sistema lineare
omogeneo con matrice dei coefficienti A Rm,n , incognite X Rn,1 e colonna dei
termini noti O Rm,1 . Siano R(A) lo spazio vettoriale delle righe di A, C(A) lo spazio
vettoriale delle colonne di A e N (A) il sottospazio vettoriale di Rn delle soluzioni del
sistema lineare omogeneo, allora:
R(A) N (A) = Rn
e, equivalentemente,
C(A) N (tA) = Rm .
Dimostrazione
Per assurdo sia x = (x1 , x2 , . . . , xn ) un elemento non nullo di R(A) N (A). Si supponga per esempio che x = R1 + 2R2 , dove R1 e R2 sono le prime due righe della matrice
A. Lipotesi non e` restrittiva, si lasciano al Lettore le varie generalizzazioni. Il vettore
x verifica tutte le equazioni del sistema lineare AX = O, in particolare, verifica anche
lequazione che si ottiene dalla somma della prima equazione del sistema lineare con il
doppio della seconda, se A = (aij ) e X = (xi ) significa che:
(a11 + 2a21 )x1 + (a12 + 2a22 )x2 + . . . + (a1n + 2a2n )xn = 0.
Sostituendo in tale equazione lespressione di x segue:
(a11 + 2a21 )2 + (a12 + 2a22 )2 + . . . + (a1n + 2a2n )2 = 0,
da cui x = o, che e` assurdo. La seconda affermazione del teorema si ottiene sostituendo
ad A la sua trasposta.
Osservazione 4.28 E` fondamentale osservare che, anche se fosse possibile, come nel
caso delle matrici quadrate, il teorema precedente non vale se si invertono i ruoli di R(A)
e di C(A). Nel Capitolo 6 si presenter`a un esempio di matrice in cui C(A) N (A) (cfr.
Oss. 6.10).
Capitolo 4
173
Osservazione 4.29 Una delle applicazioni della definizione di rango di una matrice e` la
possibilit`a di risolvere in modo pi`u agevole alcuni degli esercizi gi`a proposti. Sia, infatti,
B = (v1 , v2 , . . . , vn ) una base di V e siano w1 , w2 , . . . , wk i generatori di un sottospazio
vettoriale W di V. Per trovare una base di W si pu`o procedere considerando la matrice
A Rk,n che ha come vettori riga i vettori wi , i = 1, 2, . . . , k, scritti in componenti
rispetto alla base B. Riducendo la matrice A per righe, segue che i vettori riga non nulli,
della matrice ridotta per righe cos` ottenuta, costituiscono una base di W e la dimensione
di W coincide con il rango della matrice A. Attenzione al fatto che se si riduce la matrice
A per colonne i vettori riga della matrice ridotta per colonne non determinano pi`u una
base di W . Analogamente se W1 e W2 sono due sottospazi vettoriali di V di cui si
conoscono le componenti dei vettori delle loro basi, per determinare la dimensione e una
base di W1 +W2 si pu`o procedere scrivendo la matrice B che ha come vettori riga i vettori
delle basi di W1 e di W2 , scritti in componenti ripetto ad una base di V. Riducendo la
matrice B per righe si ha che il rango di B coincide con la dimensione di W1 + W2 e i
vettori riga non nulli della matrice ridotta per righe che si ottiene costituiscono una base
di W1 + W2 .
Esercizio 4.14 Determinare una base del sottospazio vettoriale H di R4 cos` definito:
H = L((1, 2, 0, 1), (2, 4, 1, 1), (0, 0, 1, 1), (1, 2, 4, 5), (1, 1, 0, 5)).
Soluzione
Si ha:
A=
1
2
0
2
4 1
0
0
1
1
2
4
1 1
0
R2 R5
1
1
1
5
5
R2 R2 2R1
R4 R4 R1
R5 R5 R1
1
2
0
1
0 3
0
4
0
0
1
1
0
0
4
4
0
0 1 1
1
2
0
1
0
0 1 1
0
0
1
1
0
0
4
4
0 3
0
4
R4 R4 4R3
R5 R5 + R3
1
2
0 3
0
0
0
0
0
0
0
0
1
0
0
1
4
1
0
0
da cui segue che rank(A) = 3, quindi dim(H) = 3 e una sua base e` data dalle prime tre
righe della matrice ridotta per righe ottenuta da A, cio`e dai vettori:
z1 = (1, 2, 0, 1),
z2 = (0, 3, 0, 4),
z3 = (0, 0, 1, 1).
174
1
2 0 1
1
2 0
1
0 3 0 4
0 3 0
4
0
0
1
1
0
1
1
B=
R4 R4 R1
1
0 1 1 1
1 1 0
0
0 0 1
0
0 0
1
R4 3R4 R2
1
2
0 3
0
0
0
0
0
0
0
1
0
4
1
1
3 7
0
1
R4 R4 3R3
1
2
0 3
0
0
0
0
0
0
0
1
0
4
1
1
0 10
0
1
(4.6)
con 1 , 2 3 , 1 , 2 R. Si deve perci`o risolvere il sistema lineare omogeneo nelle incognite (1 , 2 , 3 , 1 , 2 ) associato alla precedente equazione con la riduzione per righe
della corrispondente matrice dei coefficienti:
1
0 0 1
0
2 3 0 1
0
.
C=
0
0 1 1
0
1
4 1
0 1
Capitolo 4
175
p2 (x) = x + x3 ,
p3 (x) = 2 + x + x3 .
Si consideri la matrice A di R3,4 avente come righe le componenti dei tre polinomi e ne si calcoli il rango riducendola per righe:
1 0
1 0
1 0 1 0
0 1
0 1
A= 0 1 0 1
R3 R3 2R1
0 1 2 1
2 1 0 1
0
R3 R3 R2
0
0
1
1
0
0 2
0
1 .
0
1 0
1 0
0 1
0 1
0 0 2 0 ,
0 0
0 1
quindi un polinomio (ma non e` lunico) che risolve lesercizio e` x3 .
176
4.3.4
Il cambiamento di base
In questo paragrafo si presenta il problema del cambiamento di base in uno spazio vettoriale reale qualsiasi V, estendendo a V lanalogo problema risolto nel caso dello spazio
vettoriale dei vettori ordinari V3 nel Paragrafo 3.5.
Nello spazio vettoriale reale V, di dimensione n, si considerino due basi:
B 0 = (v10 , v20 , . . . , vn0 ).
B = (v1 , v2 , . . . , vn ),
Si ponga:
v0 = p v + p v + . . . + p v .
n
1n 1
La matrice:
2n 2
(4.7)
nn n
P = M B,B = (pij ), i, j = 1, 2, . . . , n,
che e` cos` determinata, prende il nome di matrice del cambiamento di base da B a B 0,
0
come precisato nella notazione M B,B . P e` ottenuta ponendo ordinatamente in colonna
le componenti dei vettori della base B 0 rispetto ai vettori della base B. La ragione della
scelta delle colonne e` giustificata da una maggiore semplicit`a della formula finale (4.9)
che si ottiene. P e` una matrice quadrata, ad elementi reali, di rango massimo (rank(P ) =
n) e, quindi, per i Teoremi 2.16 e 2.8, P e` invertibile e det(P ) 6= 0. Le equazioni (4.7)
si possono scrivere, in notazione matriciale, come:
v1
v10
v2
v0
2
(4.8)
.. = tP .. .
.
.
vn0
vn
Considerato un qualsiasi vettore x V, il problema del cambiamento di base consiste
nel determinare le relazioni che intercorrono tra le componenti di x rispetto alle due basi
introdotte. Si supponga, quindi, che:
x = x1 v1 + x2 v2 + . . . + xn vn = x01 v10 + x02 v20 + . . . + x0n vn0 ,
vale a dire, in notazione matriciale:
x=
x1 x2
. . . xn
v1
v2
..
.
vn
x01
x02
...
x0n
v10
v20
..
.
vn0
Capitolo 4
177
x1
x01
x2
x0
2
.. = P ..
.
.
xn
x0n
che saranno spesso indicate come:
X = P X 0,
(4.9)
1. Verificare che:
1 2
2
0
B =
,
2
1
1
1
3
4 1
,
1 5
4 11
11 7
1. Sia:
B=
1 0
0 0
0 1
0 0
,
,
1 0
0 1
1 2
4
P = 2 1 1 .
1 3 5
178
Si verifica che det(P ) = 52, quindi i tre vettori dati formano, effettivamente,
una base di S(R2,2 ).
2. Le componenti richieste sono la soluzione del sistema lineare:
0
4
x1
11 = P x02 ,
7
x03
ossia x01 = 4, x02 = 2, x03 = 1.
4.3.5
Iperpiani vettoriali
Definizione 4.17 Sia V uno spazio vettoriale reale di dimensione n. Ogni sottospazio
vettoriale W di V tale che dim(W) = n 1 prende il nome di iperpiano vettoriale di V.
Per definizione, quindi, un iperpiano vettoriale e` generato da n 1 vettori linearmente
indipendenti di V.
Esempio 4.39 In R4 liperpiano vettoriale W generato dai vettori:
a1 = (1, 0, 1, 4),
a2 = (0, 1, 1, 2),
a3 = (0, 0, 3, 4)
e` il sottospazio vettoriale di R4 :
W = {(x1 , x2 , x3 , x4 ) = k1 a1 + k2 a2 + k3 a3 , k1 , k2 , k3 R}
= {(k1 , k2 , k1 + 3k3 , 4k1 + 2k2 + 4k3 ) | k1 , k2 , k3 R}.
Vale il seguente teorema.
Teorema 4.25 Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V di dimensione n e siano (x1 , x2 , . . . , xn ) le componenti di un qualsiasi vettore x di V rispetto
alla base B.
1. Tutte e sole le equazioni lineari omogenee in (x1 , x2 , . . . , xn ) rappresentano, rispetto alla base B, gli iperpiani vettoriali di V.
2. Ogni sottospazio vettoriale W di V di dimensione k e` rappresentabile, rispetto alla
base B, mediante un sistema lineare omogeneo di n k equazioni nelle incognite
(x1 , x2 , . . . , xn ).
Dimostrazione
Capitolo 4
179
1 , 2 , . . . , k R.
(4.10)
Eliminando i parametri 1 , 2 , . . . , k tra le n equazioni che si ottengono scrivendo in componenti lequazione vettoriale (4.10) si perviene ad un sistema lineare
omogeneo di n k equazioni nelle componenti (x1 , x2 , . . . , xn ).
Come immediata conseguenza del secondo punto del teorema precedente si ottiene il
seguente corollario.
Corollario 4.2 Un sottospazio vettoriale W, di dimensione k, di uno spazio vettoriale
V, di dimensione n, e` lintersezione di n k iperpiani vettoriali di V.
Esempio 4.40 In R4 , lequazione lineare omogenea:
x1 + x2 + 3x3 + 2x4 = 0,
rispetto alla base canonica B = (e1 , e2 , e3 , e4 ) di R4 , individua liperpiano vettoriale
generato, ad esempio, dai vettori:
(1, 1, 0, 0),
(3, 0, 1, 0),
(2, 0, 0, 1).
180
4.4
a2 = (0, 1, 0, 1),
a3 = (1, 3, 0, 2).
1. H = {1 a1 + 2 a2 + 3 a3 | 1 , 2 , 3 R}
= {(1 + 3 , 1 + 2 + 33 , 0, 2 + 23 ) | 1 , 2 , 3 R}.
2 = 1 + 3
5 = 1 + 2 + 33
3 = 2 + 23 .
Risolvendo il sistema lineare si trova:
1 = 2 t,
2 = 3 2t,
3 = t,
t R.
6 9
4 6
,
G = {X R2,2 | AX = XA}
sono sottospazi vettoriali di R2,2 e trovare una base per ciascuno di essi.
Capitolo 4
181
0 h2
0 h3
,
h R,
4x2 + 9x3 = 0
4x2 + 9x3 = 0,
le cui soluzioni sono:
9
31 + 2 , 1 , 1 , 2 ,
4
1 , 2 R,
12 9
4
0
1
,
0
0
1
.
182
9x1 + 9x4 = 0
4x
1 + 4x4 = 0
1 , 2 R,
1
0
3
1
0
,
4
9
0
.
2. Conviene, in generale, iniziare con il calcolo della somma dei due sottospazi vettoriali. Riducendo per righe la matrice quadrata di ordine 4 che si ottiene ponendo in
riga le componenti dei vettori di B e di C si ha che il rango di tale matrice e` 3 e che
una base di F + G e` :
1 0
0 3
0
0
D=
,
,
.
0 1
0 2
4 6
Dalla formula di Grassmann segue che dim(F G) = 1. Una generica matrice
appartenente a tale intersezione si deve poter scrivere come:
1
12 9
4
0
+ 2
1
0
0
1
= 1
1
0
3
1
+ 2
0
4
9
0
(4.11)
6
4
9
6
.
Capitolo 4
183
1
12 9
4
0
+ 2
1
0
0
1
+ 1
1
0
3
1
+ 2
0
4
9
0
,
4.5
In questo paragrafo sono inseriti alcuni esercizi che possono essere omessi ad una prima
lettura. Si propone anche la dimostrazione di qualche teorema citato nei paragrafi precedenti. Di grande importanza, invece, la parte finale del paragrafo, che e` in generale
oggetto di corsi pi`u avanzati di algebra lineare, dove vengono introdotti alcuni esempi di
spazi vettoriali complessi. Si studia lo spazio vettoriale Cn,n delle matrici quadrate ad
elementi nel campo complesso e si introducono due suoi sottospazi vettoriali reali: quello delle matrici hermitiane e quello delle matrici anti-hermitiane che sono lanalogo, in
campo complesso, degli spazi vettoriali delle matrici simmetriche e antisimmetriche.
Esercizio 4.21
1. Verificare che il campo dei numeri reali R dotato delle seguenti
operazioni:
184
p
x y = 3x3 + y 3 ,
x = 3 x,
R, x, y R,
R, x, y R.
Soluzione
1. Si verifica facilmente che (R, ) e` un gruppo abeliano, con 0 elemento
neutro e x opposto di x R. Anche la verifica delle quattro propriet`a del
prodotto per scalari e` semplice. Inoltre R = L(1), in quanto ogni x R si pu`o
scrivere come x3 1.
2. La definizione di prodotto per scalari x non verifica, per esempio, la seguente
propriet`a:
( + ) x = ( x) 4 ( x),
infatti:
( + ) x =
p
+ x,
mentre:
( x) 4 ( x) =
x 4 x = 3 ( )3 x3 + ( )3 x3
q
= 3 ( )3 + ( )3 x.
Esercizio 4.22 Si verifichi che lo spazio vettoriale F(R) delle funzioni reali di variabile
reale descritto nellEsempio 4.5 non e` finitamente generato.
Soluzione Sia S un sottoinsieme finito di R e si indichi con F(S, R) lo spazio vettoriale delle funzioni f : S R costruito in modo analogo allEsempio 4.5. Tale spazio
vettoriale e` finitamente generato, infatti una sua base e` data dallinsieme delle funzioni
caratteristiche di S :
X = {s F(S, R) | s S},
dove:
s (t) =
1, t = s,
0, t =
6 s.
Capitolo 4
185
X genera F(S, R), infatti per ogni f F(S, R), f = sS f (s)s . Si controlla facilmente che X e` un insieme libero. E` evidente che con questo tipo di ragionamento si
perviene ad un sistema di generatori di F(R) formato da infiniti elementi.
Esercizio 4.23 Dimostrare il Teorema 4.1 di seguito riportato.
In V, spazio vettoriale reale, si ha:
1. il vettore nullo o e` unico;
2. per ogni vettore x V, lopposto x e` unico;
3. se x + y = x + z, allora y = z, per ogni x, y, z V ;
4. x = o = 0, oppure x = o, con R e x V ;
5. (1)x = x, per ogni x V.
Soluzione
1. Per assurdo, siano o e o0 due vettori nulli, o 6= o0 . Allora o = o + o0
essendo o0 il vettore nullo, ma anche o + o0 = o0 essendo o il vettore nullo, da
cui la tesi.
2. Per assurdo, siano x1 e x2 due opposti di x, con x1 6= x2 , allora:
(x + x1 ) + x2 = o + x2 = x2 ,
ma anche:
(x + x1 ) + x2 = x + (x1 + x2 ) = x + (x2 + x1 ) = (x + x2 ) + x1 = x1 ,
da cui lassurdo.
3. Segue in modo evidente dalla propriet`a precedente, infatti da x + y = x + z si ha:
x + y x = x + z x da cui la tesi.
4. Si inizia con il dimostrare che 0 x = o e che o = o. Si ha:
0 x = (0 + 0)x = 0 x + 0 x,
applicando la propriet`a precedente si ha 0 x = o. Analogamente:
o = (o + o) = o + o,
da cui o = o. Viceversa si dimostra che se x = o, allora, necessariamente = 0
oppure (non esclusivo) x = o. Nel punto precedente e` stato provato che 0 x = o,
186
(4.12)
(4.13)
Capitolo 4
1 a1 + . . . + k ak + k+1 ck+1 + . . . + p cp = o,
187
(4.14)
ma i vettori che compaiono in (4.14) sono i vettori della base D, pertanto sono linearmente
indipendenti, da cui segue, tra laltro, che k+1 = . . . = p = 0. Sostituendo in (4.12) e
ricordando che la combinazione lineare rimasta e` formata dai vettori della base C, si ha
la tesi.
Esercizio 4.25 Dimostrare il Lemma di Steinitz 4.12 di seguito riportato.
Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V e sia I = {u1 , u2 , . . . , up }
un insieme libero di V, allora p n.
Soluzione Siano (1 , 2 , . . . , n ) le componenti di u1 rispetto alla base B. Poiche I e`
un insieme libero, u1 6= o, pertanto almeno una componente tra i , i = 1, 2, . . . , n, non
e` nulla; si supponga che sia 1 6= 0 (in caso contrario si riordinano i vettori di B in modo
da porre al primo posto un coefficiente non nullo). Dalla relazione:
u1 = 1 v1 + 2 v2 + . . . + n vn
(4.15)
si ricava:
1
1
v1 = 1
1 u1 1 2 v2 . . . 1 n vn .
In altri termini v1 L(u1 ,v2, . . . ,vn ). Si vuole dimostrare che linsieme {u1 ,v2 ,. . . ,vn }
e` una base di V. Si inizia con il provare che si tratta di un sistema di generatori di V. Da
(4.15) segue che, per ogni x V, si ha:
x = x1 v 1 + x2 v 2 + . . . + xn v n
1
1
= x1 (1
1 u1 1 2 v2 . . . 1 n vn ) + x2 v2 + . . . + xn vn
= 1 u1 + 2 v2 + . . . + n vn
da cui la tesi. Linsieme {v2 , v3 , . . . , vn } e` libero essendo un sottoinsieme non vuoto
di B (cfr. Es. 4.33). Il vettore u1 non appartiene a L(v2 , v3 , . . . , vn ), quindi linsieme
{u1 , v2 , . . . , vn } e` libero (cfr. Lemma 4.1). Si osservi che, a questo punto, partendo dalla
base B, si e` ottenuta una nuova base B1 = (u1 , v2 , . . . , vn ) in cui si e` sostituito al primo
vettore di B il primo vettore di I . Si itera questo procedimento, passando a considerare
il vettore u2 e lo si esprime come combinazione lineare dei vettori di B1 . Si ha:
u2 = 1 u1 + 2 v2 + . . . + n vn .
Di nuovo, essendo u2 non nullo, esiste almeno una sua componente tra i , i = 1, 2, . . . , n,
non nulla. Non pu`o succedere che sia 1 6= 0 e gli altri i = 0, i = 2, . . . , n, perche i
188
4.5.1
Capitolo 4
189
190
Sia:
A=
a11
a21
..
.
a12
a22
..
.
am1 am2
. . . a1n
. . . a2n
..
..
.
.
. . . amn
Rm,n .
Capitolo 4
x1
x2
X = ..
.
191
Rn,1
xn
matrice delle incognite. Dalla sua scrittura esplicita:
a x + a x + ... + a x = 0
m1 1
m2 2
mn n
(4.17)
a x + a x + ... + a x = 0
h1 1
h2 2
hn n
che e` , a sua volta, equivalente allequazione vettoriale:
x1 a1 + x2 a2 + . . . + xn an = o,
dove:
a1 = (a11 , a21 , . . . , ah1 )
a2 = (a12 , a22 , . . . , ah2 )
..
.
an = (a1n , a2n , . . . , ahn ).
192
Dal fatto che i sistemi lineari (4.17) e (4.18) sono equivalenti segue:
dim(L(a1 , a2 , . . . , an )) = dim(C(A)) = k
ma L(a1 , a2 , . . . , an ) Rh , da cui la tesi.
Esercizio 4.27 Dimostrare il Teorema 2.4, di seguito riportato.
Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2 An ) min{rank(A1 ), rank(A2 ), . . . , rank(An )}.
Soluzione
Si inizia con il dimostrare il teorema nel caso n = 2. E` un esercizio osservare che le colonne della matrice prodotto A1 A2 sono combinazione lineare delle colonne
della matrice A1 e che le righe della matrice prodotto A1 A2 sono combinazione lineare
delle righe della matrice A2 . Per semplicit`a e per capire meglio quanto appena osservato
si considera il caso del prodotto di due matrici quadrate di ordine 2:
a1 a2
a3 a4
a1 b 1 + a2 b 3 a1 b 2 + a2 b 4
a3 b 1 + a4 b 3 a3 b 2 + a4 b 4
A1 A2 =
=
b1 b2
b3 b4
b1
a1
a3
a1
b1 b2
b1 b2
+ b3
=
a3
+ a2
+ a4
a2
a4
b2
a1
a3
b3 b4
b3 b4
+ b4
a2
a4
Di conseguenza si ha:
C(A1 A2 ) C(A1 ),
R(A1 A2 ) R(A2 )
e, quindi:
rank(A1 A2 ) rank(A1 ),
rank(A1 A2 ) rank(A2 )
da cui la tesi. Il caso del prodotto di n matrici si ottiene iterando il risultato appena
ottenuto.
Capitolo 4
193
a2 = (3, 2, 4, h),
a3 = (5, 3, h, 1),
b = (14, 8, h, 1).
Soluzione E` sufficiente trasformare lequazione vettoriale assegnata nel sistema lineare ad essa equivalente e risolvere questultimo applicando i metodi descritti nel Capitolo
1. Si ha:
se h
/ {2, 14} non esistono soluzioni;
8 + 3h
h
8+h
se h = 2 o h = 14, la soluzione e` x1 =
, x2 =
, x3 =
.
4+h
4+h
4+h
Se si vuole, invece usare il Teorema 4.26 si pu`o procedere confrontando L(a1 , a2 , a3 ) e
L(a1 , a2 , a3 , b). Per L(a1 , a2 , a3 ) si ha:
2 1 0 4
2 1 0
4
3
2 4 h R2 2R2 + 3R1 0
1 8 12 + 2h
5 3 h 1
R3 2R3 5R1
0 1 2h 22
2 1
0
4
0
1
8
12 + 2h .
R3 R3 + R2
0
0 8 + 2h 10 + 2h
Quindi dim (L(a1 , a2 , a3 )) = 3 per ogni valore di h. Per L(a1 , a2 , a3 , b) si ha:
2 1 0
4
3
2 4
h
2
5 3 h 1 = h 12h 28,
14 8 h 1
per cui dim (L(a1 , a2 , a3 , b)) = 3 se e solo se h = 2 o h = 14. Pertanto lequazione
vettoriale e` compatibile solo se h = 2 o h = 14. Sostituendo tali valori nei vettori dati
si ottengono le soluzioni cercate.
4.5.2
194
colonne della matrice e la definizione di rango di una matrice (cfr. Def. 2.13) data tramite
luso dei minori. A questo proposito si ricordano i fatti seguenti.
Sia A una matrice quadrata di ordine n. Come conseguenza della Definizione 4.15 di
rango di A come la dimensione dello spazio vettoriale delle righe R(A) (o dello spazio
vettoriale delle colonne C(A)) e del Teorema di Nullit`a pi`u Rango (cfr. Teor. 4.24) si ha
lequivalenza tra le seguenti condizioni:
a. rank(A) < n;
b. i vettori riga di A sono linearmente dipendenti;
c. i vettori colonna di A sono linearmente dipendenti;
d. il sistema lineare omogeneo AX = O ha soluzioni non nulle;
e. det(A) = 0.
In generale nel caso di una matrice A Rm,n , non necessariamente quadrata, si pu`o
provare il seguente teorema.
Teorema 4.27 Sia A Rm,n , le condizioni seguenti sono equivalenti:
1. rank(A) = r;
2. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine
r + 1 sono uguali a zero;
3. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine
p > r sono nulli.
Dimostrazione
Per dimostrare lequivalenza delle tre affermazioni si proveranno le
seguenti implicazioni:
1.
2.
3.
1.
Capitolo 4
195
4.5.3
Come gi`a visto nellOsservazione 4.1, si pu`o definire uno spazio vettoriale complesso,
ossia uno spazio vettoriale su C. Analogamente al caso degli spazi vettoriali reali anche
nel caso degli spazi vettoriali complessi si possono introdurre i concetti di sottospazio
vettoriale, somma e intersezione di sottospazi vettoriali, generatori, vettori linearmente
dipendenti e indipendenti, basi e dimensione.
Linsieme dei numeri complessi C, con le usuali operazioni di somma e prodotto di numeri complessi, e` lesempio pi`u semplice di spazio vettoriale complesso, ma C pu`o essere
anche visto come spazio vettoriale reale. Come spazio vettoriale complesso C ha dimensione 1 ed una sua base e` ad esempio (1), mentre come spazio vettoriale reale C ha
dimensione 2 ed una sua base e` ad esempio (1, i) (cfr. Es. 4.24).
Analogamente al caso reale, si hanno i due esempi fondamentali seguenti di spazi vettoriali complessi (cfr. Es. 4.3 e 4.2).
Esempio 4.44 Linsieme:
Cn = {(x1 , x2 , . . . , xn ) | xj C, j = 1, 2, . . . , n}
e` uno spazio vettoriale complesso. La somma di due n-uple di Cn e` definita come:
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).
196
e2 = (0, 1, 0, . . . , 0),
...,
en = (0, 0, . . . , 1)
A = tA,
A, B Cm,n ;
C, A Cm,n ;
A Cm,n , B Cn,k ;
A Cm,n ;
Capitolo 4
5. det(A) = det(A),
197
A Cn,n .
Si introducono ora due sottoinsiemi dello spazio vettoriale delle matrici quadrate complesse Cn,n , che sono lanalogo, nel caso di Rn,n , del sottospazio vettoriale delle matrici
simmetriche S(Rn,n ) e di quello delle matrici antisimmetriche A(Rn,n ) (cfr. Es. 4.15 e
4.16). Precisamente, si definiscono linsieme delle matrici hermitiane:
H(Cn,n ) = {A Cn,n | tA = A}
e linsieme delle matrici anti-hermitiane:
AH(Cn,n ) = {A Cn,n | tA = A}.
Chiaramente una matrice reale simmetrica A S(Rn,n ) e` hermitiana ed una matrice reale
antisimmetrica A A(Rn,n ) e` anti-hermitiana.
Ad esempio la matrice:
2
1+i
1 i 3
e` hermitiana. Si osservi che gli elementi sulla sua diagonale principale sono reali. Questa
propriet`a non e` casuale, infatti gli elementi sulla diagonale principale di una matrice hermitiana A sono necessariamente reali, in quanto devono coincidere, per definizione, con i
proprii coniugati. Si pu`o verificare che la somma di due matrici hermitiane e` hermitiana e
linversa di una matrice hermitiana invertibile e` hermitiana. Analoghe propriet`a valgono
per le matrici anti-hermitane. Come per le matrici reali simmetriche, la matrice prodotto
AB di due matrici hermitiane A e B e` hermitiana solo se A e B commutano, cio`e se e
solo se AB = BA.
Esercizio 4.30 Si verifichi che linsieme delle matrici hermitiane H(Cn,n ), con le operazioni di somma e prodotto per un numero reale, e` uno spazio vettoriale su R di dimensione
n2 . Inoltre, si provi invece che H(Cn,n ), con le operazioni di somma e prodotto per un
numero complesso, non e` un sottospazio vettoriale complesso di Cn,n .
Soluzione Siano A e B due matrici hermitiane, ossia tA = A e tB = B, si tratta di
dimostrare che la matrice A + B e` hermitiana, infatti:
t
(A + B) = tA + tB = A + B = (A + B).
in quanto = .
(A) = tA = A = (A),
198
E` evidente che questa propriet`a e` falsa se C, quindi H(Cn,n ) e` uno spazio vettoriale reale ed e` un sottospazio vettoriale reale di Cn,n , inteso come spazio vettoriale
reale, ma non e` un sottospazio vettoriale complesso di Cn,n inteso come spazio vettoriale
complesso.
Come gi`a accennato in precedenza, una matrice hermitiana A e` del tipo:
a11
a12 + ib12 . . . a1n + ib1n
a12 ib12
a
.
.
.
a
+
ib
22
2n
2n
A=
,
..
..
..
.
.
.
.
.
.
1
0
..
.
..
.
0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...
0
0
..
.
..
.
0 ... ...
1 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...
0
i
..
.
..
.
0
0
0
..
.
..
.
0
0
..
.
..
.
1 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...
0
..
.
..
.
0
0
..
.
..
.
,...,
i ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0
1
..
.
..
.
0
0
..
.
..
.
0
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0 ... ...
, . . . ,
0
0
..
.
..
.
, . . . ,
0
0
..
.
..
.
,
0 1
1 0
0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
i 0 . . . . . .
i
0
..
.
..
.
0
0
0
..
.
..
.
0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
1 0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0 ... ...
, . . . ,
0
0
..
.
..
.
0 0
0 1
0 ... ... 0
.. . .
..
.
.
.
..
.
..
. ..
.
0 ... ... 0
0 . . . . . . i
0
..
.
..
.
1
0
..
.
..
.
n(n + 1)
n(n 1)
+
= n2 .
2
2
0
..
.
..
.
i
0
Capitolo 4
199
Esercizio 4.31 Si verifichi che linsieme delle matrici anti-hermitiane AH(Cn,n ), con le
operazioni di somma e prodotto per un numero reale, e` uno spazio vettoriale su R di
dimensione n2 . Inoltre, si provi invece che AH(Cn,n ), con le operazioni di somma e
prodotto per un numero complesso, non e` un sottospazio vettoriale complesso di Cn,n ..
Soluzione In modo analogo allesercizio precedente si dimostra che AH(Cn,n ) e` un
sottospazio vettoriale reale di Cn,n ma non e` un sottospazio vettoriale complesso.
E` facile verificare, a partire dalla definizione, che una matrice anti-hermitiana A e` del
tipo:
ib11
a12 + ib12 . . . a1n + ib1n
a12 + ib12
ib22
. . . a2n + ib2n
A=
,
..
..
..
.
.
.
.
.
.
0
1
..
.
..
.
0
1 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
i
0
..
.
..
.
0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...
0
0
..
.
..
.
0
i
..
.
..
.
0
0
..
.
..
.
i ... ...
0 ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...
,...,
, . . .
0
0
..
.
..
.
0
0
..
.
..
.
0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
1 0 . . . . . .
0
0
..
.
..
.
0 ... ...
i ... ...
.. . .
.
.
..
..
.
.
0 0 ... ...
, . . . ,
0
0
..
.
..
.
0 ... ...
0 ... ...
.. . .
.
.
..
..
.
.
i 0 ... ...
0
0
..
.
..
.
0
i
0
..
.
..
.
0
1
0
..
.
..
.
0 ... ... 0
.. . .
..
.
.
.
..
.
..
. ..
.
0 ... ... 0
0 . . . . . . 1
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0 ... ...
, . . . ,
0
..
.
..
.
0
..
.
..
.
0
..
.
..
.
1
0
0 0
0 i
0 ... ...
.. . .
.
.
..
..
.
.
0 ... ...
0 ... ...
0
..
.
..
.
0
..
.
..
.
0 i
i 0
200
Da questo segue che dim(AH(Cn,n )) = n2 . Si osservi, inoltre, che una matrice A Cn,n
e` hermitiana se e solo se iA e` anti-hermitiana.
E` valido, in campo complesso, il seguente teorema, analogo al Teorema 4.4 dimostrato
nel caso delle matrici quadrate ad elementi reali.
Teorema 4.28 Lo spazio vettoriale reale Cn,n si decompone nel modo seguente:
Cn,n = H(Cn,n ) AH(Cn,n ).
Dimostrazione Si procede come nella dimostrazione del Teorema 4.4, tenendo conto
che ogni matrice A Cn,n si decompone come:
1
1
A = (A + tA) + (A tA)
2
2
e che (A + tA) H(Cn,n ) e (A tA) AH(Cn,n ).
Osservazione 4.34 In letteratura e` spesso usata la notazione:
A = tA,
pertanto una matrice A e` hermitiana se e solo se A = A ed e` anti-hermitiana se e solo
se A = A . Per maggiori propriet`a ed esempi si veda per esempio [15].
Capitolo 5
Spazi Vettoriali Euclidei
Lo scopo di questo capitolo e` quello di estendere il concetto di prodotto scalare, definito
nel Paragrafo 3.7.1 nel caso dello spazio vettoriale V3 , agli spazi vettoriali di dimensione
superiore a tre e, quindi, di introdurre le nozioni di perpendicolarit`a e di angolo in generale, permettendo, di conseguenza, lo studio della geometria euclidea negli spazi vettoriali
di dimensione qualsiasi.
5.1
Definizione 5.1 Sia V uno spazio vettoriale reale. Si definisce prodotto scalare su V la
funzione:
: V V R,
(x, y) 7 x y
x, y V ;
2. (x + x0 ) y = x y + x0 y,
3. (x) y = (x y) = x (y),
4. x x 0, x V
x, x0 , y V ;
R, x, y V ;
e x x = 0 x = o.
Uno spazio vettoriale reale V su cui e` definito un prodotto scalare prende il nome di
spazio vettoriale euclideo e si indica, in generale, con la scrittura (V, ).
c definito nel Paragrafo 3.7.1
Esempio 5.1 Il prodotto scalare x y = kxkkyk cos(xy)
conferisce a V3 la struttura di spazio vettoriale euclideo.
201
202
n
X
xi y i ,
(5.1)
i=1
x1
y1
x2
y2
X = .. , Y = ..
.
.
xn
yn
la (5.1) si scrive come:
X Y = t X Y.
(5.2)
Il prodotto scalare (5.2) prende il nome di prodotto scalare standard su Rn , che viene
cos` dotato della struttura di spazio vettoriale euclideo.
Esempio 5.3 Si consideri la funzione:
: R3 R3 R,
cos` definita:
(x1 , x2 , x3 ) (y1 , y2 , y3 ) = 3x1 y1 + 4x2 y2 + 5x3 y3 .
Si verifica facilmente che e` un altro prodotto scalare su R3 , chiaramente diverso dal
prodotto scalare standard.
Lesempio appena incontrato permette di affermare che, almeno su Rn , e` possibile definire infiniti prodotti scalari, quindi infinite strutture euclidee.
Esempio 5.4 Si consideri la funzione:
: R3 R3 R,
cos` definita:
(x1 , x2 , x3 ) (y1 , y2 , y3 ) = x1 y1 + x2 y2 x3 y3 .
Si osserva che non e` un prodotto scalare su R3 , per esempio (0, 0, 1)(0, 0, 1) = 1
che contraddice il quarto assioma di definizione di prodotto scalare.
Capitolo 5
203
x, y V,
(5.3)
dove:
X=
x1
x2
..
.
Y =
xn
y1
y2
..
.
yn
(5.4)
204
Esempio 5.6 Si consideri nel caso di R2,2 il prodotto scalare definito nellesempio precedente. Si vuole calcolarne lespressione esplicita rispetto a due matrici A = (aij ) e
B = (bij ) di R2,2 . Si ha:
A B = tr
a11 a21
a12 a22
b11 b12
b21 b22
= a11 b11 + a12 b12 + a21 b21 + a22 b22 .
Quindi, se si interpretano gli elementi aij e bij delle matrici A e B come le componenti
delle matrici A e B rispetto alla base canonica (Eij ), i, j = 1, 2, di R2,2 , il precedente
prodotto scalare in componenti corrisponde al prodotto scalare standard su R4 . Si pu`o
verificare che la stessa propriet`a vale in generale su Rm,n , ovvero che il prodotto scalare (5.4) scritto in componenti rispetto alla base canonica (Eij ), i = 1, 2, . . . , m, j =
1, 2, . . . , n, corrisponde al prodotto scalare standard in Rmn .
Esercizio 5.2 Posto:
p(x) = a0 + a1 x + . . . + an xn ,
q(x) = b0 + b1 x + . . . + bn xn ,
n
X
ai b i
(5.5)
i=0
e` un prodotto scalare sullo spazio vettoriale Rn [x] dei polinomi di grado minore o uguale
ad n. La funzione:
: Rn [x] Rn [x] R,
definita da:
p(x) q(x) =
n
X
ai b i
i=1
5.2
Norma di un vettore
Definizione 5.2 Sia (V, ) uno spazio vettoriale euclideo. Si definisce norma di un
vettore x di V il numero reale positivo dato da:
kxk = x x.
Capitolo 5
205
Si osservi che la precedente definizione ha senso perche, per il quarto assioma di definizione del prodotto scalare, x x 0, per ogni x V.
Esempio 5.7 In V3 , dotato del prodotto scalare standard (cfr. Par. 3.7.1), la norma di un
vettore x coincide con la sua usuale lunghezza.
Esempio 5.8 Nello spazio vettoriale euclideo (R3 , ), dotato del prodotto scalare standard, si ha:
q
kxk = x21 + x22 + x23 ,
per ogni x = (x1 , x2 , x3 ) R3 .
Esempio 5.9 Se si considera su R3 il prodotto scalare definito nellEsempio 5.3 si ha
che:
q
kxk = 3x21 + 4x22 + 5x23 ,
per ogni x = (x1 , x2 , x3 ) R3 .
Esempio 5.10 Nello spazio vettoriale euclideo (Rn , ), dotato del prodotto scalare standard, si ha:
q
kxk =
206
In generale, una funzione a valori reali prende il nome di norma solo se definisce un
numero reale positivo che verifica propriet`a opportune, precisamente quelle enunciate nel
teorema seguente.
Teorema 5.2 Su uno spazio vettoriale euclideo (V, ), la funzione:
k k : V R,
x 7 kxk
R, x V.
x, y V.
x, y V.
(5.6)
Capitolo 5
207
xy
1,
kxk kyk
xy
.
kxk kyk
Osservazione 5.1
1. E` necessario osservare che la nozione di angolo tra due vettori,
appena introdotta, e` coerente con la definizione di angolo tra vettori considerata nel
Paragrafo 3.6, cos` come lo e` la definizione di ortogonalit`a che segue. Inoltre, la
nozione di angolo tra due vettori non dipende dallordine dei due vettori.
2. Come in V3 , anche nel caso generale di uno spazio vettoriale euclideo V langolo
tra il vettore nullo o e un qualunque altro vettore e` indeterminato, ossia pu`o essere
un qualsiasi angolo [0, ].
Definizione 5.4 Due vettori non nulli x e y di uno spazio vettoriale euclideo (V, ) si
dicono ortogonali o perpendicolari se langolo che essi determinano e` = /2. Il
vettore nullo si considera ortogonale ad ogni altro vettore di V. Se = 0 o = i due
vettori si dicono paralleli.
Di conseguenza, le nozioni di angolo e di ortogonalit`a permettono di introdurre gli usuali
concetti di geometria analitica del piano e dello spazio (cfr. Cap. 9, 10, 11 e 12) in spazi
vettoriali euclidei di dimensione maggiore di 3. Si vedr`a, per esempio, nellosservazione
che segue che la nozione di parallelismo di due vettori corrisponde alla dipendenza lineare
dei due vettori.
208
Osservazione 5.2 Fissati due vettori, la misura dellangolo che essi determinano pu`o
cambiare a seconda del prodotto scalare che si considera. Addirittura, dati due vettori
qualsiasi (non nulli e non paralleli) e` possibile definire un prodotto scalare che li renda
ortogonali. Esempi di questo tipo si possono leggere nel Capitolo 8 (cfr. Es. 8.18), perche non si e` ancora in grado, in questo capitolo, di costruirli esplicitamente in quanto
non e` ancora chiaro come, in generale, sia possibile verificare facilmente che una funzione qualsiasi di dominio V V e codominio R sia o meno un prodotto scalare. E` per`o
una semplice conseguenza della definizione di norma di un vettore il fatto che, per ogni
possibile prodotto scalare definito su uno spazio vettoriale V, il concetto di parallelismo
tra vettori rimane invariato, in altri termini se due vettori sono linearmente dipendenti lo
rimangono per tutti i possibili prodotti scalari che si possano definire su V. Infatti vale il
teorema seguente.
Teorema 5.3 In uno spazio vettoriale euclideo (V, ) due vettori x e y, che individuano
langolo , sono linearmente dipendenti se e solo = 0 o = , cio`e se e solo se:
x y = kxk kyk.
Dimostrazione
La propriet`a e` banalmente vera se uno dei due vettori coincide con il
vettore nullo. Si supponga allora che i due vettori siano entrambi non nulli. Se x e y
sono linearmente dipendenti esiste R tale che y = x e la precedente uguaglianza e`
verificata.
Viceversa, si supponga che per una coppia di vettori non nulli x e y valga luguaglianza
x y = kxk kyk (il caso con il segno negativo e` analogo), allora si ha:
2
x
y
x
y
y
x
kxk kyk =
kxk kyk
kxk kyk
=
xx
xy
yy
2
+
= 0.
2
kxk
kxk kyk kyk2
kyk
x,
kxk
5.3
Basi ortonormali
I naturali concetti geometrici di base ortogonale e ortonormale in V3 , introdotti nel Paragrafo 3.7.1, possono essere agevolmente estesi ad uno spazio vettoriale euclideo qualsiasi
con la seguente definizione.
Capitolo 5
209
Definizione 5.5 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Una base
B = (v1 , v2 , . . . , vn ) di V si dice ortogonale se i vettori che la definiscono verificano la
condizione:
vi vj = 0, i 6= j, i, j = 1, 2, . . . , n.
In altri termini, una base si dice ortogonale se i vettori che la compongono sono a due a
due ortogonali.
Una base B = (e1 , e2 , . . . , en ) di V si dice ortonormale se i vettori che la definiscono
verificano entrambe le condizioni:
1. ei ej = 0, i 6= j , i, j = 1, 2, . . . , n;
2. kei k = 1, i = 1, 2, . . . , n.
In altri termini, una base si dice ortonormale se e` una base ortogonale ed ogni vettore
che la compone ha norma uguale a 1.
Esempio 5.14 In R3 la base canonica (e1 , e2 , e3 ), dove:
e1 = (1, 0, 0),
e2 = (0, 1, 0),
e3 = (0, 0, 1),
e2 = (0, 1, 0, . . . , 0),
...,
en = (0, . . . , 0, 1)
(5.7)
1
1
1
e1 , e2 , e3
2
2
3
210
y = y1 e1 + y2 e2 + . . . + yn en
(5.8)
dove tX Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B.
2. Se B = (e1 , e2 , . . . , en ) e` una base di V tale che, per ogni coppia di vettori:
x = x1 e1 + x2 e2 + . . . + xn en ,
y = y 1 e1 + y 2 e2 + . . . + y n en
di V si ha:
x y = x1 y1 + x2 y2 + . . . + xn yn = tX Y,
(5.9)
dove tX Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B, allora B e` una
base ortonormale.
Osservazione 5.3 Si osservi che, in particolare, come conseguenza del teorema precedente si ha che se B = (e1 , e2 , . . . , en ) e` una base di uno spazio vettoriale V, allora esiste
su V un prodotto scalare che rende la base B ortonormale. Tale prodotto scalare e` infatti semplicemente definito da (5.9). NellEsercizio 5.13 si determiner`a esplicitamente
lespressione del prodotto scalare che rende ortonormale una particolare base di R3 .
Capitolo 5
211
Ora che si e` in grado di scrivere lespressione in componenti del prodotto scalare rispetto
ad una base ortonormale rimane da dimostrare lesistenza di almeno una base ortonormale
rispetto ad ogni prodotto scalare definito su V. A tale scopo e` necessario premettere il
seguente lemma.
Lemma 5.1 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Un insieme I di
k vettori di V :
I = {v1 , v2 , . . . , vk }
tale che:
1. k n;
2. vi 6= o, i = 1, 2, . . . , k ;
3. vi vj = 0, i 6= j , i, j = 1, 2, . . . , k
e` un insieme libero. Se k = n allora I e` una base ortogonale di V.
Dimostrazione Occorre dimostrare che i vettori v1 , v2 , . . . , vk sono linearmente indipendenti, cio`e che lunica loro combinazione lineare uguale al vettore nullo e` quella con
coefficienti tutti uguali a 0. Infatti, se si considera lequazione vettoriale:
1 v1 + . . . + k vk = o,
i R, i = 1, 2, . . . , k
k = 1, 2, . . . , n.
212
Dimostrazione
Per dimostrare il teorema si utilizza un metodo di calcolo per costruire una base ortonormale a partire da una base assegnata noto come il processo di
ortonormalizzazione di GramSchmidt.
Data una base B = (v1 , v2 , . . . , vn ) si procede con un numero finito di passi, nel modo
seguente:
1. si sceglie come primo vettore della base ortonormale il versore:
e1 = vers v1 =
v1
.
kv1 k
k = 1, 2, . . . , n,
a due a due ortogonali e di norma uguale a 1. Per il Lemma 5.1, i vettori (e1 , e2 , . . . , en )
costituiscono una base di V. Inoltre, ad ogni passo si ha:
L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ),
k = 1, 2, . . . , n.
Osservazione 5.4 Se (e1 , e2 , . . . , en ) e` una base ortonormale dello spazio vettoriale euclideo (V, ), ogni vettore v di V si pu`o esprimere come:
v = (v e1 ) e1 + (v e2 ) e2 + . . . + (v en ) en .
Capitolo 5
213
Il vettore:
(v e1 ) e1 + (v e2 ) e2 + . . . + (v ek ) ek ,
con k < n, rappresenta, geometricamente, il vettore proiezione ortogonale di v sul sottospazio vettoriale generato dai vettori e1 , e2 , . . . , ek . Si estende cos`, in dimensione
maggiore di 3, la situazione geometrica descritta nellOsservazione 3.16.
Si osservi anche che si pu`o applicare il processo di ortonormalizzazione di GramSchmidt
considerando come vettore e1 il versore di uno qualunque dei vettori della base assegnata
B. Poiche in ogni spazio vettoriale esistono infinite basi, si pu`o concludere che sullo spazio vettoriale euclideo (V, ) esistono infinite basi ortonormali, ed e` altrettanto chiaro che
una base ortonormale rispetto ad un prodotto scalare non e` necessariamente ortonormale
rispetto ad un altro prodotto scalare definito sullo stesso spazio vettoriale euclideo (cfr.
Es. 5.3).
Esercizio 5.4 Nello spazio vettoriale euclideo (R4 , ), dotato del prodotto scalare standard, e` data la base B = (v1 , v2 , v3 , v4 ) con:
v1 = (1, 2, 0, 0),
v2 = (0, 1, 1, 0),
v3 = (0, 0, 1, 1),
v4 = (0, 0, 0, 5).
1
v1
= (1, 2, 0, 0).
kv1 k
5
2 1
, , 1, 0 .
5 5
Quindi:
5
e2 =
30
2 1
, , 1, 0 =
5 5
!
r
2
1
5
, ,
,0 .
15
6
30
r !
2
1
1
6
, , ,
.
21
7
42
42
214
Capitolo 5
215
e2 = (0, 1, 0),
e3 = (0, 0, 1)
base canonica di R3 . B e` una base ortonormale rispetto al prodotto scalare (cfr. Es.
5.14) ma non e` ortonormale rispetto al prodotto scalare . La base B 0 = (v1 , v2 , v3 )
con:
1
1
v1 = , 0, 0 , v2 = 0, , 0 , v3 = (0, 0, 1)
2
3
e` ortonormale rispetto al prodotto scalare , ma, ovviamente, la matrice:
1
P =
0
1
2
allora:
x y = x01 y10 + x02 y20 + x03 y30
essendo B 0 una base ortonormale rispetto al prodotto scalare .
Sia (a1 , a2 , a3 ) una base di R3 con:
a1 = (1, 0, 2),
a2 = (1, 3, 4),
a3 = (0, 3, 4).
La matrice:
1
2
, 0, ,
5
5
!
!
4 3 5 2
6
2 3
,
, , , ,
.
7
7 7
7 5 7 7 5
216
1
4
6
5
7
7 5
3 5
2
Q= 0
7
7
2
2
3
7
5 7 5
e` ortogonale, essendo la matrice del cambiamento di base tra due basi ortonormali B e
C , rispetto allo stesso prodotto scalare. Rispetto al prodotto scalare si ottiene la base
ortonormale C 0 = (v10 , v20 , v30 ) con:
!
r
r
r
1
2
2
1
21
3
v10 = , 0, , v20 =
,
,
,
231 2 22
154
7
7
!
r
2
1
3
v30 =
, ,
.
11 2 22 22
La matrice R che ha sulle colonne le componenti della base C 0 non e` una matrice ortogonale, mentre lo deve essere la matrice del cambiamento di base da B 0 a C 0 , ottenuta dal
prodotto P 1 R. Si lascia per esercizio sia la verifica dellortogonalit`a dellultima matrice
sia la giustificazione del fatto che essa si ottenga proprio nel modo indicato.
Per le matrici ortogonali sono valide le seguenti propriet`a, alcune delle quali sono gi`a
state anticipate nel Paragrafo 2.5 e nel corso di questo capitolo.
Teorema 5.7
(P Q)P Q = tQ tP P Q = I
Capitolo 5
217
(5.10)
Y = P Y 0,
218
Esercizio 5.5 Determinare una matrice ortogonale P in R3,3 in modo tale che il primo
vettore riga sia:
!
2
2
a = 0,
,
.
2
2
Soluzione
Per determinare una matrice ortogonale con le caratteristiche richieste occorre completare linsieme libero {a} a una base ortonormale (a, b, c) di R3 . Si pu`o, ad
esempio, usando il Teorema 4.15, costruire la base C = (a, e1 , e2 ) con :
e1 = (1, 0, 0),
e2 = (0, 0, 1).
Per determinare una base ortonormale, e` sufficiente applicare il processo di ortonormalizzazione di GramSchmidt alla base C , considerando:
b = vers(e1 (e1 a)a) = vers(1, 0, 0) = e1 ,
1 1
c = vers(e2 (e2 a)a (v3 b)b) = vers 0, ,
.
2 2
La matrice ortogonale cercata e` ad esempio:
2
2
0 2 2
0 .
P = 1 0
2
2
0
2
2
5.4
Il complemento ortogonale
Capitolo 5
219
i = 1, 2, . . . , k.
Infatti si ha:
x (1 a1 + 2 a2 + . . . + k ak ) = x y = 0,
per ogni i R, i = 1, 2, . . . , k . Ma questa condizione e` verificata se e solo se xai = 0,
per ogni i = 1, 2, . . . , k .
Il teorema che segue elenca le propriet`a fondamentali del complemento ortogonale di un
sottospazio vettoriale.
Teorema 5.8 Sia (V, ) uno spazio vettoriale euclideo e sia W un suo sottospazio vettoriale, allora:
1. W V e` un sottospazio vettoriale di V ;
2. W W = V ;
3. (W ) = W.
Dimostrazione
220
Osservazione 5.11 E` importante notare che W e` un sottospazio vettoriale di V supplementare di W in V, ma mentre esistono infiniti sottospazi vettoriali di V supplementari
di W in V, il complemento ortogonale e` unico.
Esercizio 5.6 In (R3 , ), dotato del prodotto scalare standard, determinare il complemento ortogonale W del sottospazio vettoriale:
W = {(x1 , x2 , x3 ) R3 | x1 + x2 + x3 = 0}.
Soluzione
Per lOsservazione 5.10 si pu`o prima determinare una base di W e poi
linsieme dei vettori x ortogonali a tutti i vettori di questa base. Una base di W e` , ad
esempio, data dai due vettori:
a1 = (1, 1, 0),
a2 = (1, 0, 1).
Capitolo 5
221
Soluzione
Innanzi tutto si osservi che, per le propriet`a della traccia di una matrice
quadrata, W e` un sottospazio vettoriale. E` facile ottenere che dim(W) = 3 e:
1 0
0 1
0 0
W=L
,
,
,
0 1
0 0
1 0
pertanto W e` un iperpiano vettoriale di R2,2 (cfr. Def. 4.17). I sottospazi vettoriali:
1 0
0 0
W1 = L
, W2 = L
0 1
0 1
sono diversi e entrambi supplementari di W ; il complemento ortogonale W coincide
con W1 .
Esercizio 5.8 Siano W1 e W2 sottospazi vettoriali di uno spazio vettoriale euclideo
(V, ) di dimensione n. Dimostrare che:
(W1 + W2 ) = W1 W2 ,
(W1 W2 ) = W1 + W2 .
Se invece W1 W2 , allora dimostrare che:
W2 W1 .
Esercizio 5.9 In R4 , rispetto al prodotto scalare standard, determinare la proiezione ortogonale del vettore a = (1, 2, 0, 1) sul sottospazio vettoriale:
W = {(x1 , x2 , x3 , x4 ) R4 | x1 + x2 + x3 = 0}.
Soluzione
Per risolvere questo esercizio si deve tener conto dellOsservazione 5.4. Si
tratta, quindi, di determinare una base ortonormale del sottospazio vettoriale W. W e` un
iperpiano vettoriale di R4 generato dai vettori:
a1 = (0, 0, 0, 1),
a2 = (1, 0, 1, 0),
a3 = (0, 1, 1, 0).
222
a1
a11 a12 . . . a1n
e1
e1
a2 a21 a22 . . . a2n e2
e2
.. = ..
.. .. = A .. .
. .
.
. .
ak
ak1 ak2 . . . akn
en
en
A e` dunque una matrice di Rk,n di rango k . Come gi`a osservato nella dimostrazione del
Teorema 5.8, il complemento ortogonale di W e` formato dai vettori x di V la cui matrice
X delle componenti e` soluzione del sistema lineare omogeneo AX = O, dove O Rn,1
e` la matrice nulla. Pertanto il nullspace N (A) di A coincide con W . Se si indica con
R(A) lo spazio vettoriale delle righe di A e con C(A) lo spazio vettoriale delle colonne
di A (cfr. Cap. 4.3) segue:
R(A) = N (A),
C(A) = N (tA).
Si osservi che nel Teorema 4.24 era gi`a stato dimostrato che R(A) N (A) = Rn e che
C(A) N (tA) = Rk .
Capitolo 5
5.5
223
u2 = (3, 1, 1, 1),
u3 = (0, 1, 1, 2)
elementi di uno spazio vettoriale euclideo (V4 , ), riferiti ad una sua base ortonormale
B = (e1 , e2 , e3 , e4 ).
1. Verificare che i vettori u1 , u2 , u3 sono a due a due ortogonali.
u1 u2 =
3
1
1 1 1 1
1 = 0,
1
u1 u3 =
0
1
1 1 1 1
1 = 0,
2
u2 u3 =
0
1
3 1 1 1
1 = 0.
2
224
y1 + 4y2 + 2y3 = 0
4
2
2
y1 + y2 y3 + 2y4 = 0
3
3
3
2y1 y3 + y4 = 0,
da cui si ottiene b3 = (2t, 6t, 11t, 7t), t R, t 6= 0. Assegnando al parametro t un valore qualsiasi, non nullo, si ottiene una delle basi richieste.
Capitolo 5
225
(5.11)
Y 0 = P 1 Y
(P 1 X)(P 1 Y ) = tX t (P 1 )P 1 Y
X((tP )1 P 1 )Y = tX(P tP )1 Y.
Pertanto la matrice A cercata, che permette di esprimere il prodotto scalare richiesto rispetto alla base B, e` :
A = (P tP )1 .
Tenendo conto che la matrice P, le cui colonne sono, ordinatamente, le componenti
dei vettori di B 0 , e` data da:
1 0 0
P = 1 2 0 ,
1 1 1
226
si ricava:
A = (P tP )1
3
2
1
2
1
1
2
2
1
2
1
.
2
1
3
0
0
2
2
1
1
1 = 0.
ab= 0 1 0
2
2
1
1
1
1
2
2
5.5.1
5.5.2
Loperazione di prodotto scalare (cfr. Def. 5.1) introdotta su uno spazio vettoriale reale
pu`o essere estesa mediante la seguente definizione agli spazi vettoriali complessi.
Definizione 5.7 Sia V uno spazio vettoriale su C. Si definisce prodotto hermitiano su V
la funzione:
: V V C,
(x, y) 7 x y,
x, y V ;
2. (x1 + x2 ) y = x1 y + x2 y,
x1 , x 2 , y V ;
Capitolo 5
3. (x) y = (x y),
227
C, x, y V ;
4. x x 0, x V e x x = 0
x = o,
C, x, y V.
1 , 2 C, x, y1 , y2 V. (5.12)
n
X
xi yi ,
i=1
x1
y1
x2
y2
X = .. , Y = ..
.
.
xn
yn
la (5.13) si scrive come:
X Y = tX Y ,
(5.13)
228
X=
x1
x2
..
.
Y =
xn
y1
y2
..
.
yn
kxk = x x
ed e` lasciata al Lettore la verifica della proprie`a:
kxk = || kxk,
x V, C,
Capitolo 5
229
Esempio 5.20 Nello spazio vettoriale hermitiano (Cn , ) con il prodotto hermitiano standard (5.13), la norma di x e` data da:
v
v
u n
u n
uX
uX
t
kxk =
xi xi = t
|xi |2 ,
i=1
i=1
x 7 kxk
1. Segue da:
230
(5.14)
Capitolo 5
231
Inoltre, analogamente a quanto dimostrato per uno spazio vettoriale euclideo, in uno spazio vettoriale hermitiano (V, ) utilizzando il processo di ortonormalizzazione di Gram
Schmidt (che vale anche nel caso complesso) si pu`o costruire una base unitaria a partire
da una base di V. La dimostrazione e` analoga a quella vista per il Teorema 5.5, facendo
attenzione al fatto che, a differenza del caso reale, il prodotto hermitiano non e` simmetrico, ossia non vale la relazione x y = y x, x, y V, ma vale la propriet`a 1. della
Definizione 5.7.
Osservazione 5.14 La disuguaglianza di CauchySchwarz pu`o essere dimostrata in molti
modi diversi. Si propone di seguito una seconda versione della dimostrazione precedente,
che, anche se pi`u lunga, e` interessante per la sua interpretazione geometrica. Infatti,
sorprendentemente, anche se in uno spazio vettoriale hermitiano non e` definito langolo
tra due vettori, il prodotto hermitiano permette di introdurre la nozione di proiezione
ortogonale di un vettore su un altro vettore. Sia x un vettore non nullo, si definisce il
vettore:
xy
y,
w =x
kyk2
che, nel caso di uno spazio vettoriale euclideo, rappresenterebbe un vettore ortogonale
a y in quanto w e` la differenza di x con la sua proiezione ortogonale su y. Anche in
questo caso si dimostra che w y = 0, infatti:
xy
xy
wy = x
y y =xy
y y = 0.
2
kyk
kyk2
Dal fatto che kwk2 0 si ha:
0ww =wx=
xy
kxk2 kyk2 |y x|2
x
y
x
=
,
kyk2
kyk2
ossia la tesi.
Dal Teorema 5.6 segue che le matrici ortogonali esprimono il cambiamento di base tra
coppie di basi ortonormali di uno spazio vettoriale euclideo. Un risultato analogo e` valido
in uno spazio vettoriale hermitiano, con la differenza che la matrice P del cambiamento
di base deve verificare la relazione:
tP
P = I.
Si pu`o allora introdurre linsieme delle matrici unitarie di Cn,n definito da:
U (n) = {P Cn,n | tP P = I},
232
che e` lanalogo, nel caso complesso, dellinsieme O(n) delle matrici ortogonali (cfr.
(2.9)).
Si osservi che dalla relazione tP P = I si ottiene tP P = I e P 1 = tP . Inoltre, una
matrice unitaria ad elementi reali e` ovviamente ortogonale ed una matrice ortogonale,
considerata come matrice complessa, e` unitaria. Per le matrici unitarie valgono le seguenti
propriet`a.
Teorema 5.11
|z1 |2 + |z2 |2 = 1.
Capitolo 5
233
1
kx + yk2 kxk2 kyk2 ,
2
x, y V.
Pi`u complicata la relazione analoga che vale nel caso di uno spazio vettoriale hermitiano:
xy =
1
(ktx + yk2 kxk2 kyk2 )
2
i
+ (kx + iyk2 kxk2 kyk2 ),
2
(5.15)
x, y V.
234
Capitolo 6
Applicazioni Lineari
Lo scopo di questo capitolo e` quello di introdurre la nozione di applicazione lineare tra
due spazi vettoriali, mettendoli cos` in relazione lun laltro e in modo da poter definire,
come caso particolare, il concetto di movimento rigido o euclideo in uno spazio vettoriale.
Definizione 6.1 Dati due spazi vettoriali reali V e W, si dice applicazione lineare o
omomorfismo o trasformazione lineare da V in W una funzione f : V W che
verifica le seguenti propriet`a:
f (x + y) = f (x) + f (y),
f (x) = f (x),
per ogni x e y in V e per ogni in R, o, equivalentemente:
f (x + y) = f (x) + f (y),
per ogni x e y in V e per ogni e in R.
Lo spazio vettoriale V prende il nome di dominio di f, mentre lo spazio vettoriale W e` il
codominio di f ; f (x) W e` detto vettore immagine di x V mediante f. Se w = f (x)
allora il vettore x V e` detto vettore controimmagine di w W mediante f.
Definizione 6.2 Sia f : V V unapplicazione lineare in cui il dominio e il codominio
coincidono, allora f e` detta endomorfismo o operatore lineare o trasformazione lineare
di V.
Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la
verifica delleventuale linearit`a.
235
Applicazioni Lineari
236
x 7 x,
x 7 oW ,
dove oW indica il vettore nullo di W, e` unapplicazione lineare, detta applicazione lineare nulla. Se W = V, lendomorfismo O : V V, x 7 oV , prende il nome di
endomorfismo nullo.
Esempio 6.3 La funzione:
f : R2 R,
(x, y) 7 3x + 2y
e` unapplicazione lineare.
Esempio 6.4 La funzione:
f : R2 R,
(x, y) 7 3x + 2y + 5
(x, y) 7 x2 + 2y
x 7 a x
x 7 a x,
Capitolo 6
237
A 7 det(A),
A 7 tr(A),
x 7 xW
(x1 , x2 ) 7 (x1 , x2 ),
(x1 , x2 , x3 ) 7 (x1 , x2 , x3 ),
Applicazioni Lineari
238
X 7 AX,
X 7 AX,
xV;
6.1
Il paragrafo inizia con la dimostrazione del teorema pi`u importante sulle applicazioni
lineari, in cui si chiarisce come si possa assegnare unapplicazione lineare tra due spazi
vettoriali di dimensione finita. E` fondamentale osservare, infatti, che il teorema seguente
e` valido solo nel caso in cui il dominio sia finitamente generato.
Teorema 6.2 Teorema fondamentale delle applicazioni lineari Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato
un insieme {a1 , a2 , . . . , an } di n vettori di uno spazio vettoriale W, esiste ed e` unica
lapplicazione lineare:
f : V W
tale che:
f (vi ) = ai ,
i = 1, 2, . . . , n.
Capitolo 6
239
In altri termini: per assegnare unapplicazione lineare tra due spazi vettoriali V e W,
di cui almeno V di dimensione finita, e` sufficiente conoscere le immagini, mediante la
funzione f, dei vettori di una base di V.
Dimostrazione
x, y V, , R.
y = y1 v1 + y2 v2 + . . . + yn vn .
Poiche:
x + y = (x1 + y1 )v1 + (x2 + y2 )v2 + . . . + (xn + yn )vn ,
un semplice calcolo prova che:
f (x+y) = (x1 +y1 )a1 +(x2 +y2 )a2 +. . .+(xn +yn )an = f (x)+f (y).
4. Lapplicazione lineare f e` unica. Infatti, se esistesse unaltra applicazione lineare
g : V W, tale che g(vi ) = ai , i = 1, 2, . . . , n, allora si avrebbe:
g(x) = g(x1 v1 + x2 v2 + . . . + xn vn )
= x1 g(v1 ) + x2 g(v2 ) + . . . + xn g(vn )
= x1 a1 + x2 a2 + . . . + xn an ,
per ogni x V, ci`o implicherebbe g(x) = f (x), per ogni x V e quindi g = f .
Applicazioni Lineari
240
Dal Teorema 6.2 segue che definire unapplicazione lineare tra due spazi vettoriali di dimensione finita equivale a conoscere le immagini degli elementi di una base del dominio.
Siano, quindi, V uno spazio vettoriale reale di dimensione n e B = (v1 , v2 , . . . , vn ) una
sua base, e W uno spazio vettoriale reale di dimensione m e C = (w1 , w2 , . . . , wm ) una
sua base. Si intende definire lapplicazione lineare f : V W ponendo:
f (v ) = a w + a w + . . . + a w ,
n
1n 1
2n 2
mn m
con aij R, i = 1, 2, . . . , m, j = 1, 2, . . . , n, che equivale ad assegnare la matrice:
A=
a11
a21
..
.
a12
a22
..
.
. . . a1n
. . . a2n
..
.
Rm,n
Capitolo 6
241
f (v1 )
w1
f (v2 )
w2
.. = tA .. .
.
.
f (vn )
wm
(6.2)
Dato un generico vettore x di V, ci si propone di calcolare la sua immagine f (x) mediante la matrice A. Sia:
x1
x2
X = ..
.
xn
la matrice colonna delle componenti di x rispetto alla base B. Si ponga:
f (x) = y1 w1 + y2 w2 + . . . + ym wm ,
se si indica con:
Y =
y1
y2
..
.
ym
la matrice colonna delle componenti di f (x) rispetto alla base C , allora:
f (x) = Y
w1
w2
..
.
wm
Per la linearit`a di f si ha:
f (x) = f (x1 v1 + x2 v2 + . . . + xn vn )
= x1 f (v1 ) + x2 f (v2 ) + . . . + xn f (vn )
f (v1 )
f (v2 )
..
.
f (vn )
(6.3)
Applicazioni Lineari
242
f (x) = Y
w1
w2
..
.
t
= X
wm
f (v1 )
f (v2 )
..
.
t
t
= X A
f (vn )
w1
w2
..
.
wm
ossia, per lunicit`a delle componenti di un vettore rispetto ad una base, si ottiene:
t
Y = tX tA
e quindi:
Y = A X,
(6.4)
che e` il legame cercato tra le componenti, rispetto alla base B, di un vettore x del dominio
V e le componenti della sua immagine f (x), rispetto alla base C . Il sistema lineare, di
m equazioni nelle n incognite (x1 , x2 , . . . , xn ), associato allequazione matriciale (6.4)
prende il nome di sistema lineare delle equazioni dellapplicazione lineare f , rispetto
alle basi B e C .
Gli esempi che seguono mettono in luce la fondamentale importanza della matrice associata ad unapplicazione lineare e delle sue equazioni.
Esempio 6.14 La matrice associata allidentit`a:
id : V V,
x 7 x,
M B,B (id) = P1 .
Ponendo:
id(x) = id(x1 v1 + x2 v2 + . . . + xn vn ) = x01 v10 + x02 v20 + . . . + x0n vn0
segue che le equazioni dellapplicazione lineare id in questo caso sono:
X 0 = P 1 X,
Capitolo 6
243
dove con X si indica la matrice colonna delle componenti del vettore x rispetto alla
base B e con X 0 la matrice colonna delle componenti del vettore id(x) rispetto alla
base B 0 . Si osservi che le equazioni dellendomorfismo id coincidono con le equazioni
del cambiamento di base da B 0 a B. In altri termini la matrice associata allidentit`a e`
la matrice unit`a se e solo se essa e` scritta rispetto alla stessa base nel dominio e nel
codominio.
Esempio 6.15 La matrice associata allendomorfismo nullo:
O : V V,
x 7 o,
(6.5)
2 3
0
0 .
A= 0 1
3 0 2
Di conseguenza, limmagine del vettore (2, 0, 3) si calcola mediante il prodotto:
2 3
0
2
0 1
0
0
3 0 2
3
oppure sostituendo ordinatamente in (6.5) i numeri 2, 0, 3 al posto di x, y, z , rispettivamente.
Esempio 6.17 Si consideri di nuovo lEsempio 6.7. In V3 , spazio vettoriale dei vettori
ordinari riferito ad una base ortonormale positiva B = (i, j, k), si definisce lendomorfismo:
f : V3 V3 , x 7 a x,
con a vettore di V3 . La matrice associata ad f , rispetto alla base B, pu`o essere determinata in due modi:
244
Applicazioni Lineari
0 a3 a2
0 a1 .
A = a3
a2 a1
0
Si osservi che A e` una matrice antisimmetrica.
2. Si pu`o pervenire alla matrice A calcolando le immagini dei vettori della base B
e mettendo sulle colonne, rispettivamente, le componenti di f (i), f (j), f (k), di
nuovo rispetto alla base B.
Se a e` il vettore nullo, allora A coincide con la matrice nulla O R3,3 e f e` lendomorfismo nullo.
Esempio 6.18 Rispetto alle basi canoniche B del dominio e C del codominio, la matrice
associata allapplicazione lineare f : R3 R2,2 definita da:
a
a+b
f ((a, b, c)) =
a+b+c
0
e` la matrice appartenente a R4,3 data da:
1
1
A=
1
0
0
1
1
0
0
0
.
1
0
0
b =a+b
c0 = a + b + c
0
d =0
con:
f ((a, b, c)) =
a0 b 0
c0 d0
.
Capitolo 6
245
Esercizio 6.1 Si scrivano le matrici associate alle applicazioni lineari introdotte negli
Esempi 6.3, 6.6, 6.9, 6.10, 6.11, 6.12, 6.13, dopo aver fissato basi opportune nel dominio
e nel codominio.
Esercizio 6.2 In R3 , rispetto alla base canonica B = (e1 , e2 , e3 ), e` dato lendomorfismo
f tale che:
1 1 1 0
0
0
1 1 1 0 0
0
2 1
2 1
0 3
2 1
0 3 2 1
R
R
+
R
3
3
2
1
1
0 3 1
2
1
0
0 6 1
1
da cui si ha:
f (e1 ) = (6, 1, 1)
2f (e1 ) f (e2 ) = (3, 2, 1)
quindi:
f (e1 ) = 6e1 + e2 + e3
f (e2 ) = 9e1 + 3e3
1
A=
1
9 3
0
1 .
3 2
y3 = x1 + 3x2 2x3 ,
con f ((x1 , x2 , x3 )) = (y1 , y2 , y3 ).
246
6.2
Applicazioni Lineari
Per la lettura di questo paragrafo si deve fare costante riferimento al Paragrafo 4.3.4 sul
cambiamento di base in uno spazio vettoriale. Si vogliono, infatti, determinare le relazioni
che intercorrono tra tutte le matrici associate alla stessa applicazione lineare, costruite
cambiando base sia nel dominio sia nel codominio. Si ricordi ci`o che e` stato dimostrato
nel paragrafo precedente. Dati due spazi vettoriali reali V e W con dim(V ) = n e
base B = (v1 , v2 , . . . , vn ), con dim(W ) = m e base C = (w1 , w2 , . . . , wm ), si indichi
con A = M B,C (f ) Rm,n la matrice associata ad unapplicazione lineare f : V W,
rispetto alle basi B e C. Sia X Rn,1 la matrice colonna delle componenti di un generico
vettore x di V, rispetto alla base B, allora la matrice colonna Y delle componenti del
vettore f (x), rispetto alla base C, e` data dallequazione (6.4):
Y = AX.
Si inizia con leffettuare un cambiamento di base in V. Sia B 0 = (v10 , v20 , . . . , vn0 ) unaltra
base di V, indicata con X 0 Rn,1 la matrice colonna delle componenti del vettore x,
rispetto alla base B 0 , le equazioni del cambiamento di base sono:
X = P X 0,
(6.6)
(6.7)
(6.8)
Scopo di questo paragrafo e` quello di individuare la relazione che intercorre tra le matrici
A e A0 . Sostituendo le equazioni (6.6) e (6.7) in (6.4) si ha:
QY 0 = AP X 0
da cui, tenendo conto che la precedente uguaglianza e` valida per ogni X 0 Rn,1 , segue:
A0 = Q1AP
(6.9)
Capitolo 6
247
(6.10)
Le matrici di questo tipo rivestono una grande importanza in algebra lineare e hanno una
particolare denominazione, come stabilisce la definizione che segue.
Definizione 6.3 Due matrici quadrate A e A0 , entrambe di ordine n, si dicono simili se
esiste una matrice invertibile P di ordine n tale che A0 = P 1AP.
Le matrici simili sono legate dalle seguenti propriet`a.
Teorema 6.3 Matrici simili hanno:
1. determinante uguale,
2. traccia uguale.
Dimostrazione
v2 = (1, 0, 1, 0),
v3 = (1, 0, 0, 2),
v4 = (0, 1, 0, 1),
dopo aver verificato che essi costituiscono una base C di R4 , si consideri lendomorfismo
g di R4 cos` definito:
g(v1 ) = v1 ,
g(v2 ) = 2v1 + v2 ,
g(v3 ) = v2 + v3 ,
g(v4 ) = v3 .
Si scrivano le matrici associate a g sia rispetto alla base C sia rispetto alla base canonica
B di R4 .
248
Applicazioni Lineari
1 1 1
0
2 0
0
1
P =
0 1
0
0
1 0 2 1
e det(P ) = 1. La matrice associata a g rispetto alla base C e` :
1 2
0 0
0 1 1 0
.
A0 = M C,C (g) =
0 0
1 1
0 0
0 0
Da (6.10) segue che la matrice A associata a g , rispetto alla base canonica B di R4 , si
ottiene dal prodotto:
A = P A0 P 1 .
6.3
Capitolo 6
249
a2 = (0, 1, 1),
scritti rispetto alla base canonica di R4 . Si tratta di due vettori linearmente indipendenti,
pertanto costituiscono una base di f (H) e dim(f (H)) = 2.
Data lapplicazione lineare f : V W tra due spazi vettoriali V e W, come caso
particolare di immagine di un sottospazio vettoriale di V si pu`o considerare il sottospazio
vettoriale di W dato da f (V ), ci`o suggerisce la seguente definizione.
Definizione 6.5 Si definisce sottospazio immagine e si indica con im f il sottospazio
vettoriale f (V ) di W.
In generale dim(im f ) dim(W ) e, in modo naturale, si ha il seguente teorema.
Teorema 6.5 Unapplicazione lineare f : V W tra due spazi vettoriali V e W e`
suriettiva se e solo se im f = W.
Applicazioni Lineari
250
1 1
0
2 1
1
;
A=
1 0
1
0 1 1
1
2
1
0
1
0
1
1
0
1 C2 C2 C 1
1 1
1
0
0
2 1
1
1 1
1 C3 C3 + C 2
0
1 1
1
0
2 1
1 1
0
1
0
0
0
0
quindi rank(A) = 2 da cui dim(im f ) = 2. Una base di im f e` data dalle due colonne
non nulle della matrice ridotta per colonne, ossia im f = L((1, 2, 1, 0), (0, 1, 1, 1)).
Capitolo 6
251
Osservazione 6.5 Se si riduce per righe una qualsiasi matrice A associata ad unapplicazione lineare f : V W si ottiene una matrice A0 , ridotta per righe, tale che
rank(A) = rank(A0 ) = dim(im f ) ma in generale lo spazio vettoriale C(A) delle colonne di A e` diverso dallo spazio vettoriale C(A0 ) delle colonne di A0 . Pertanto ci si deve
ricordare che per determinare una base di im f (e non solo la sua dimensione) si deve
ridurre la matrice A per colonne e non per righe.
Si intende ora discutere il problema analogo al calcolo dellimmagine di un sottospazio
vettoriale del dominio di unapplicazione lineare, ma relativo ad un sottospazio vettoriale
K del codominio. Si deve pertanto enunciare la seguente definizione.
Definizione 6.6 Sia f : V W unapplicazione lineare tra i due spazi vettoriali V
e W. Si definisce controimmagine di un sottospazio vettoriale K di W mediante f il
sottoinsieme di V dato da:
f 1 (K) = {x V | f (x) K},
vale a dire linsieme delle controimmagini di tutti i vettori di K.
Anche in questo caso si pu`o dimostrare un teorema analogo al Teorema 6.4.
Teorema 6.7 La controimmagine f 1 (K) di un sottospazio vettoriale K di W e` un
sottospazio vettoriale di V.
Dimostrazione Dalla definizione di sottospazio vettoriale (cfr. Def. 4.2) segue che e`
necessario dimostrare che per ogni x1 , x2 f 1 (K) e per ogni , R si ha:
x1 + x2 f 1 (K).
Ci`o significa che si deve dimostrare che f (x1 + x2 ) e` un vettore di K. Per la linearit`a
di f segue:
f (x1 + x2 ) = f (x1 ) + f (x2 ).
Poiche x1 , x2 f 1 (K), le loro immagini f (x1 ) e f (x2 ) appartengono a K, cos` come
la loro somma e il loro prodotto per numeri reali, essendo K un sottospazio vettoriale di
W.
Osservazione 6.6 Si faccia molta attenzione a non confondere (a causa della notazione
usata) il sottospazio vettoriale f 1 (K) con la funzione inversa f 1 (se esiste) di f che
sar`a definita nel Paragrafo 6.4.
Esercizio 6.6 In quali casi la controimmagine di un sottospazio vettoriale coincide con
tutto il dominio? Invece e` evidente che f 1 (K) = f 1 (K im f ).
Applicazioni Lineari
252
Soluzione
1
2
1
0
1
0
1
1
0
1
1 1
t1
t1
R2 R2 2R1
t2
R3 R3 R1
t3
0
R3 R3 R2
0
R4 R4 + R2
0
1
1
0
0 1
1
0 1
1
0
1 1
1
0
t1
1 1
3t1
0
0 2t1 + t2
0
0 t3 3t1
t1
3t1
t2 t1
t3
1
0
0
0
1
0 t1
1 1 3t1
0
0 0
0
0 0
Capitolo 6
si ottiene:
x1 = t1
x2 =
x3 = 3t1 + ,
253
, t1 R,
da cui segue:
f 1 (K) = L((1, 1, 1), (1, 0, 3)).
Si osservi che, in alternativa, in questo caso, si poteva pervenire allo stesso risultato
sostituendo nellequazione di K : y1 + y2 = 0 le equazioni di f :
y1
y2
y3
y4
= x1 + x2
= 2x1 + x2 + x3 ,
= x1 + x3 ,
= x2 x 3 ,
da cui segue:
3x1 + 2x2 + x3 = 0
che e` lequazione di f 1 (K), rispetto alla base canonica di R3 .
Estremamente importante e` il caso particolare della controimmagine del sottospazio vettoriale improprio {oW } del codominio, per cui vale la seguente definizione.
Definizione 6.7 Il nucleo di unapplicazione lineare f : V W tra due spazi vettoriali V e W e` il sottospazio vettoriale di V controimmagine del sottospazio vettoriale
{oW } del codominio W e si indica con:
ker f = {x V | f (x) = oW }.
Osservazione 6.7 Il fatto che ker f sia un sottospazio vettoriale di V segue dal Teorema
6.7.
Esempio 6.19 Nel caso dellidentit`a, definita nellEsempio 6.1, si ha che ker id = {o} e
im id = V.
Esempio 6.20 Nel caso dellapplicazione nulla, definita nellEsempio 6.2, ker O = V e
im O = {oW }.
Esempio 6.21 Lapplicazione lineare definita nellEsempio 6.6 ha come nucleo il piano
vettoriale ortogonale al vettore a, cio`e ker f = L(a) , mentre im f = R.
254
Applicazioni Lineari
Il calcolo del sottospazio vettoriale im f costituisce un test per valutare leventuale suriettivit`a dellapplicazione lineare f . Lo studio di ker f , invece, e` legato alliniettivit`a di
f , e precisamente vale il seguente teorema.
Teorema 6.8 Sia f : V W unapplicazione lineare tra gli spazi vettoriali V e W,
f e` iniettiva se e solo se ker f = {oV }.
Dimostrazione
Se ker f = {oV } si tratta di dimostrare che f e` iniettiva, ossia che se
f (x) = f (y), con x, y V allora x = y. Ma da f (x) = f (y) segue, per la linearit`a di
f , che f (x y) = oW , cio`e x y = oV da cui la tesi.
Viceversa, se f e` iniettiva e se si suppone che x ker f , allora f (x) = f (oV ) = oW , da
cui x = oV .
Per il calcolo esplicito di ker f, si consideri la matrice A = M B,C (f ) associata allapplicazione lineare f : V W , rispetto alle basi B = (v1 , v2 , . . . , vn ) di V e
C = (w1 , w2 , . . . , wm ) di W. Per definizione, un vettore x V appartiene a ker f se
f (x) = oW , che, usando le equazioni dellapplicazione lineare f scritte rispetto alle basi
B e C , equivale a:
AX = O,
(6.11)
dove X indica la matrice colonna delle componenti di x rispetto alla base B e O Rn,1
e` la matrice colonna nulla. Quindi calcolare ker f equivale a risolvere il sistema lineare
omogeneo (6.11). Dal Teorema 4.23 segue:
dim(ker f ) = dim(V ) rank(A).
(6.12)
Esempio 6.22 Si calcoli ker f nel caso dellapplicazione lineare introdotta nellEsercizio
6.4 e studiata anche nellEsercizio 6.5. Riducendo per righe la matrice A associata ad f ,
rispetto alle basi canoniche di R3 e R4 , si ha:
1 1
0
1
1
0
2 1
1
1
R2 R2 2R1 0 1
A=
0 1
1 0
1
1
R3 R3 R1
0 1 1
0
1 1
1
1
0 1
R3 R3 R2
0
0
R4 R4 + R2
0
0
0
1
0
0
da cui si ottiene che rank(A) = 2 = dim(im f ), mentre dim(ker f ) = 1 = 3 2. Risolvendo il sistema lineare omogeneo ridotto associato alla matrice ridotta per righe prima
Capitolo 6
255
ottenuta segue che ker f = L((1, 1, 1)). Si ricordi che, per determinare esplicitamente
im f , si deve ridurre la matrice A per colonne, come spiegato nellEsercizio 6.5.
Esercizio 6.8 Sia f : R3 R3 lendomorfismo definito da:
f (e1 ) = 2e1
f (e2 ) = e1 + e2 + e3
f (e3 ) = e1 + e2 e3 ,
con B = (e1 , e2 , e3 ) base canonica di R3 . Calcolare ker f e im f .
Soluzione
2 1 1
1 .
A= 0 1
0 1 1
256
Applicazioni Lineari
Capitolo 6
257
fatto che dim(im f ) = dim(C(A)), con C(A) spazio vettoriale delle colonne di A, segue
quindi che:
dim(R(A)) = dim(C(A)),
vale a dire il Teorema del Rango 4.19. Infatti ogni matrice A Rm,n pu`o sempre essere
considerata come associata ad unapplicazione lineare f : Rn Rm , rispetto alle basi
canoniche di Rn e di Rm .
Nel caso particolare di un endomorfismo di V, tutti i risultati man mano ottenuti si
possono riassumere nel seguente teorema, la cui dimostrazione e` lasciata per esercizio.
Teorema 6.11
1. Sia f : V W unapplicazione lineare tra due spazi vettoriali
V e W con dim(V ) = dim(W ), allora f e` iniettiva se e solo se f e` suriettiva.
2. Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W con
dim(V ) = dim(W ), allora:
a. f e` un isomorfismo se e solo se ker f = {oV }.
b. f e` un isomorfismo se e solo se im f = W.
3. Sia f : V V un endomorfismo di uno spazio vettoriale reale V, allora:
a. f e` un automorfismo se e solo se ker f = {oV }.
b. f e` un automorfismo se e solo se im f = V.
Osservazione 6.9 Il teorema precedente, il Teorema 6.8 e lOsservazione 6.4 possono
essere riscritti in termini di una qualsiasi matrice associata ad unapplicazione lineare f
nel modo seguente.
1. Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W, con
dim(V ) = n e sia B = (v1 , v2 , . . . , vn ) una base di V. Sia dim(W ) = m e
sia C = (w1 , w2 , . . . , wm ) una base di W. Si indichi con A Rm,n la matrice
M B,C (f ) associata a f, rispetto alle basi B e C, allora:
rank(A) = n
f e` iniettiva,
rank(A) = m
f e` suriettiva.
det(A) 6= 0
f e` un isomorfismo.
Applicazioni Lineari
258
det(A) 6= 0
f e` un automorfismo.
f (v2 ) = w2 ,
...,
f (vn ) = wn ,
f e` un isomorfismo in quanto im f = W .
Osservazione 6.10 Si osservi che, anche nel caso di un endomorfismo f : V V dalla
relazione dim(ker f ) + dim(im f ) = dim(V ) non segue ker f im f = V. Si consideri,
per esempio, un endomorfismo f di V tale che f 2 = O con O : V V endomorfismo
nullo, dove f 2 e` la composizione f f definita da f 2 (x) = f (f (x)) (cfr. Par. 6.4). Anche
Capitolo 6
259
vi 7 vi0 ,
i = 1, 2, . . . , n,
x1
x2
X = .. ,
.
xn
scritte rispetto alla base B, e le sue componenti:
x01
x0
2
0
X = ..
.
x0n
scritte rispetto alla base B 0 , sono legate dalle equazioni del cambiamento di base:
X = P X 0.
(6.13)
Applicazioni Lineari
260
v1
v2
p(x) = y1 y2 . . . yn ..
.
vn
tale che:
Y = P X,
dove:
Y =
y1
y2
..
.
(6.14)
yn
Si osservi che le equazioni (6.13) e (6.14) sono in perfetto accordo in quanto:
p(x) = y1 v1 + y2 v2 + . . . + yn vn
= p(x1 v1 + x2 v2 + . . . + xn vn )
= x1 p(v1 ) + x2 p(v2 ) + . . . + xn p(vn )
= x1 v10 + x2 v20 + . . . + xn vn0 ,
ossia (x1 , x2 , . . . , xn ) sono le componenti di p(x) rispetto alla base B 0 e (y1 , y2 , . . . , yn )
sono le componenti di p(x) rispetto alla base B.
6.4
In questo paragrafo si inizia con il dimostrare che linsieme delle applicazioni lineari tra
due spazi vettoriali reali V e W :
L(V, W ) = {f : V W | f e` unapplicazione lineare}
e` uno spazio vettoriale reale. Infatti, date f, g L(V, W ), si definisce somma di f e di g
la funzione data da:
(f + g)(x) = f (x) + g(x),
per ogni x V. La funzione f + g e` ancora un elemento di L(V, W ), la verifica e` lasciata per esercizio. Si dimostra anche facilmente che per la somma di applicazioni lineari
appena definita valgono le propriet`a commutativa ed associativa. Esiste, inoltre, lelemento neutro rispetto alla somma di applicazioni lineari dato dallapplicazione lineare nulla
Capitolo 6
261
f 7 M B,C (f ),
(6.15)
x 7 g(f (x))
Applicazioni Lineari
262
(6.16)
Osservazione 6.11 Questo risultato costituisce unaltra giustificazione della definizione di prodotto di matrici (righe per colonne) introdotto nel Capitolo 2 e permette di
dimostrare in modo alternativo a quanto visto nel Paragrafo 4.5.1 la relazione:
rank(BA) min(rank(B), rank(A)).
Infatti, se f, g sono le applicazioni lineari rappresentate dalle matrici A e B si ha che il
prodotto BA, come e` stato appena dimostrato, e` la matrice associata alla composizione
g f . Dallinclusione, di facile dimostrazione, im(g f ) im g , si ottiene:
rank(BA) = dim(im(g f )) dim(im g) = rank(B).
Inoltre, dallinclusione, anchessa facilmente dimostrabile, ker f ker(g f ) e grazie al
Teorema del Rango 6.10 si ottiene laltra disuguaglianza:
rank(BA) = dim(im(g f )) dim(im f ) = rank(A).
Esercizio 6.10 Si considerino gli spazi vettoriali R2 , R3 , R4 riferiti alle rispettive basi
canoniche B, B 0 , B 00 . Date le applicazioni lineari:
1
1
2
0
f : R3 R2 , con A = M B ,B (f ) =
,
1 2 3
4
g : R R ,
con B = M
B00 ,B
(g) =
3 4
5 9
3
0
4 1
,
Capitolo 6
263
Nel caso particolare di L(V, V ), ossia dello spazio vettoriale degli endomorfismi di V,
a volte anche indicato con il simbolo End(V ), la composizione di due endomorfismi e`
unoperazione interna, per cui vale la propriet`a associativa, esiste lelemento neutro (lapplicazione lineare identica) ma non vale la propriet`a commutativa. Da nozioni elementari
di algebra segue che una funzione e` invertibile se e solo se e` una biiezione. Si supponga
che f End(V ) sia una biiezione, ossia che f sia un automorfismo di V, esiste allora la
funzione inversa f 1 di f definita come lunica funzione per cui:
f 1 f = f f 1 = id,
con id identit`a di V. Nel caso degli automorfismi di End(V ) si pu`o dimostrare il seguente
teorema.
Teorema 6.13 Sia V uno spazio vettoriale reale.
1. Se f e` un automorfismo di V, anche f 1 e` un automorfismo di V.
2. Se f e g sono automorfismi di V, la loro composizione g f e` ancora un automorfismo di V, inoltre:
(g f )1 = f 1 g 1 .
(6.17)
Dimostrazione Per dimostrare 1. e` sufficiente dimostrare che f 1 e` un endomorfismo
di V, ossia che per ogni x1 , x2 V e per ogni , R allora:
f 1 (x1 + x2 ) = f 1 (x1 ) + f 1 (x2 ).
Ma luguaglianza e` vera perche se si applica f ad ambo i membri si ha:
f (f 1 (x1 + x2 )) = f (f 1 (x1 ) + f 1 (x2 )) = f (f 1 (x1 )) + f (f 1 (x2 )).
La tesi segue dalla definizione di inversa di una funzione, dal fatto che una funzione
invertibile e` necessariamente iniettiva e dalla linearit`a di f.
Per dimostrare 2. tenendo conto che la composizione di due endomorfismi e` un endomorfismo, e` sufficiente dimostrare che g f e` iniettivo. Ma per liniettivit`a di f e di g , si ha
(g f )(x) = o se e solo se x = o. La dimostrazione di (6.17) e` lasciata al Lettore per
esercizio.
Osservazione 6.12
1. Pi`u in generale, se f : V W e` una biezione tra due spazi vettoriali V e W diversi, si pu`o ugualmente introdurre il concetto di funzione
inversa f 1 come lunica funzione f 1 : W V tale che
f 1 f = idV ,
f f 1 = idW ,
Applicazioni Lineari
264
2. Dal fatto che la matrice associata alla composizione di due applicazioni lineari e`
il prodotto delle matrici associate alle due applicazioni lineari (scegliendo opportunamente le basi nel dominio e nel codominio) segue che allapplicazione lineare
inversa di f e` associata la matrice inversa a quella associata ad f (rispetto alla
stessa scelta di basi in V ). Si noti lassoluto accordo tra risultati noti sullesistenza
dellinversa di una matrice quadrata (rango massimo) e sullesistenza dellinverso di
un endomorfismo (biiettivit`a quindi rango massimo della matrice associata). Si osservi, inoltre, che la relazione (6.17) corrisponde alla relazione (BA)1 = A1 B 1
(cfr. Teor. 2.6) se si considera A matrice associata ad f e B matrice associata a g .
Esercizio 6.11 Sia f : V W un isomorfismo tra due spazi vettoriali reali V e W.
Data una base C = (w1 , w2 , . . . , wn ) di W dimostrare che esiste una base B di V tale
che la matrice associata ad f rispetto alle basi B e C sia la matrice unit`a I di ordine n.
Soluzione
dove per f 1 indica lisomorfismo inverso di f. La dimostrazione del fatto che B sia una
base di V e che M B,C (f ) = I e` lasciata al Lettore per esercizio.
Esempio 6.24 Si consideri la rotazione R[] : V2 V2 in senso antiorario di angolo
di ogni vettore x del piano vettoriale V2 . Nel Paragrafo 3.8 e` stata determinata la matrice
del cambiamento di base da una base ortonormale B = (i, j) di V2 alla base ortonormale
B 0 = (i0 , j0 ) ottenuta a partire dalla base B mediante la rotazione di angolo . Pertanto la
matrice associata a R[], rispetto alla base B, coincide con la matrice del cambiamento
di base, ossia:
cos sin
B,B
M (R[]) =
,
sin
cos
mentre le equazioni della rotazione R[], che applicata ad un vettore x = xi+yj permette
di ottenere il vettore R[](x) = x0 i + y 0 j, sono:
x0 = x cos y sin
y 0 = x sin + y cos .
Si lascia per esercizio la verifica del fatto che la composizione delle rotazioni R[1 ] e
R[2 ], rispettivamente di angoli 1 e 2 , e` la rotazione R[1 + 2 ]. La rotazione R[] e` un
automorfismo di V2 per ogni valore dellangolo , si verifichi per esercizio che linversa
della rotazione R[] e` la rotazione R[].
Capitolo 6
265
cos sin
sin
cos
2,2
| [0, 2) .
In particolare, esso e` un sottogruppo del gruppo O(2) delle matrici ortogonali di ordine
2, dove e` chiaro che un sottogruppo di un gruppo e` un sottoinsieme chiuso rispetto alloperazione del gruppo e contenente linverso di ogni suo elemento (cfr. Oss. 4.5 per la
nozione di sottogruppo).
Dato uno spazio vettoriale reale V, linsieme degli automorfismi di V, indicato come:
GL(V, R) = {f : V V | f e` un automorfismo}
e` un gruppo rispetto alla composizione di automorfismi e, in generale, non e` commutativo.
Se dim(V ) = n e fissata una base B in V allora si pu`o stabilire, in modo naturale, la
corrispondenza biunivoca tra GL(V, R) ed il gruppo lineare generale reale GL(n, R) (cfr.
Oss. 2.7) che associa ad ogni f GL(V, R) la matrice A = M B,B (f ). Tale biiezione
e` un automorfismo in quanto alla composizione di automorfismi si associa il prodotto di
matrici e allinverso di un automorfismo si associa linversa della matrice. Un importante
sottogruppo di GL(n, R) e` il gruppo ortogonale O(n) delle matrici ortogonali di Rn.n ,
definito in (2.9). Per approfondimenti sullargomento e maggiori dettagli si rimanda a
testi classici di teoria dei gruppi, quali ad esempio [2] e [13].
6.5
266
Applicazioni Lineari
cos sin
sin cos
A=
0
0
0
0 .
1
Data unapplicazione lineare f : V W tra due spazi vettoriali V e W ed un sottospazio vettoriale H del dominio, si introduce in modo naturale il concetto di restrizione
di f a H nel modo seguente.
Definizione 6.10 Sia f : V W unapplicazione lineare tra due spazi vettoriali V e
W, sia H un sottospazio vettoriale di V, la restrizione di f a H e` la funzione:
f |H : H W,
x 7 f (x).
Il teorema che segue si ottiene in modo evidente dalla definizione di restrizione di unapplicazione lineare e dalla definizione di sottospazio vettoriale invariante per un endomorfismo.
Teorema 6.15
1. La restrizione di unapplicazione lineare f : V W tra due spazi vettoriali V e W ad un sottospazio vettoriale H di V e` ancora unapplicazione
lineare.
Capitolo 6
267
x H.
(6.18)
3 5 1 2
A = 3 5 3 4 .
0 0 1 1
Le immagini dei vettori di B mediante f sono:
1
3 5 1 2
5
3 5 3 4 0 = 7 ,
0
0 0 1 1
1
1
0
3
3 5 1 2
3 5 3 4 0 = 7 .
1
0 0 1 1
2
1
0
3 5 1 2
7
3 5 3 4 1 = 9 ,
0
0 0 1 1
1
1
Applicazioni Lineari
268
5 7 3
A0 = 7 9 7 .
1 1 2
6.6
x V, y W.
(6.19)
X tA Y = x z = tX Z,
Capitolo 6
269
x, y V.
Applicazioni Lineari
270
Esempio 6.25 Si consideri lo spazio vettoriale euclideo (R2 , ) dotato del prodotto scalare standard. Lendomorfismo
f : R2 R2 ,
e` autoaggiunto. Infatti:
f ((x, y)) (x0 , y 0 ) = (y, x + 2y) (x0 , y 0 ) = yx0 + xy 0 + 2yy 0 ,
(x, y) f ((x0 , y 0 )) = (x, y) (y 0 , x0 + 2y 0 ) = xy 0 + yx0 + 2yy 0 ,
per ogni (x, y), (x0 , y 0 ) appartenenti a R2 .
Esempio 6.26 Un esempio importante di endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, ) e` la proiezione ortogonale p su un sottospazio vettoriale W di V
(cfr. Es. 6.10). Infatti, posto p(x) = xW , si ha:
p(x) y = xW (yW + yW ) = xW yW = x p(y),
per ogni x, y in V.
Teorema 6.17 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, ) di dimensione n e sia B una base ortonormale di V. Lendomorfismo f e` autoaggiunto se e solo
se la matrice A = M B,B (f ) Rn,n e` simmetrica.
Dimostrazione
Poiche la base B e` ortonormale, dal Teorema 6.16 si ottiene che
B,B
t
M (f ) = A. Pertanto f = f se e solo se tA = A, ossia se e solo se la matrice
A e` simmetrica.
Osservazione 6.15 Si osservi che dal Teorema 6.17 segue che la matrice associata ad un
endomorfismo autoaggiunto f : V V di uno spazio vettoriale euclideo (V, ) di
dimensione n, rispetto ad una base B di V, e` simmetrica solo se la base B e` ortonormale.
Infatti, se si considera unaltra base C di V, allora si ha che la matrice associata a f
rispetto a C e` A0 = P 1 AP, con P matrice del cambiamento di base da B a C. In
generale, A0 non e` simmetrica nonostante A lo sia, in quanto
t
A0 = t (P 1 AP ) = t P tA t (P 1 ) = t P A t (P 1 )
che non coincide con A0 a meno che tP = P 1 , ovvero a meno che P sia una matrice
ortogonale. In altri termini, affinche A0 sia simmetrica, anche la base C deve essere
ortonormale (cfr. Teor. 5.6).
Capitolo 6
271
poiche f (y) W per ipotesi. Quindi f (x) e` ortogonale a tutti gli elementi di W e perci`o
appartiene a W .
Esercizio 6.18 Sia V uno spazio vettoriale euclideo e siano W1 , W2 due suoi sottospazi
vettoriali supplementari, ossia V = W1 W2 . Si considerino i due endomorfismi f1
e f2 di V, proiezioni su W1 e su W2 rispettivamente. Vale a dire, se per ogni x in V,
x = x1 + x2 , (x1 W1 e x2 W2 ) allora si ha f1 (x) = x1 e f2 (x) = x2 (cfr. Es. 6.10).
Dire se e quando f1 e f2 sono endomorfismi autoaggiunti.
6.7
Esercizio 6.19 In R3 , rispetto alla base canonica B = (e1 , e2 , e3 ), si consideri lendomorfismo f definito, al variare di un parametro reale h, da:
f (e1 ) = e1 + 2e2 e3
f (e2 ) = e1 + 2e2
272
Applicazioni Lineari
1 1
3
2
h .
A = M B,B (f ) = 2
1
0 h+1
2. Se x = x1 e1 + x2 e2 + x3 e3 e` un generico vettore di R3 , allora la sua immagine
f (x) = y1 e1 + y2 e2 + y3 e3 si ottiene mediante le equazioni di f scritte rispetto alla
base B, vale a dire:
y1 = x1 x2 + 3x3
y2 = 2x1 + 2x2 + hx3
y3 = x1 + (h + 1)x3 .
3. Lendomorfismo f e` un automorfismo se e solo se il rango della matrice A e` massimo, o, in modo equivalente, se e solo se det(A) 6= 0. Dal calcolo del determinante
della matrice A si ottiene det(A) = 5h + 10, di conseguenza f e` un automorfismo
per ogni valore di h ad eccezione di h = 2.
4. Dal punto precedente segue che per h = 2 lendomorfismo f non e` un automorfismo. Riducendo la matrice A per righe si ha:
1 1
3
1 1
3
1
2 2
1 1
A = 2
R2 (1/2)R2
1
0 1
1
0 1
1 1
3
2
0
2 ,
R2 R2 + R1
1
0 1
da cui segue che rank(A) = 2, perci`o dim(im f ) = 2 e dim(ker f ) = 1. Una
base del nucleo di f si ottiene risolvendo il sistema lineare omogeneo associato
alla matrice ridotta per righe ottenuta da A, ossia:
x1 x2 + 3x3 = 0
x1 + x3 = 0,
Capitolo 6
273
2 + 3h
=
5(2 + h)
2
5(2 + h)
A1
1+h
6+h
5(2 + h)
5(2 + h)
4+h
6h
.
5(2 + h) 5(2 + h)
1
4
5(2 + h) 5(2 + h)
Applicazioni Lineari
274
0
2
A0 = M B ,C (f ) =
k
1
0
2
0
k
0
4
.
0
2
1
0 2
P = 2 1 1 .
3
1 0
Dal Paragrafo 6.2 segue che A0 = AP, da cui:
1
2
2
2
2
1
3
3
3
3 3 3
4
2 2 4
4
2
1 2 1
=
=
k 0 0
2k
2k
k
1
3
3
3
1
1
1 k 2
3
3
3
1 + k 2k k
A = A0 P 1
1 0 0
Capitolo 6
275
A=
2
2
1
3
3
3
4 4 2
1
2
2
3
3
3
2 2 1
x1
,
x
X=
2
x3
1
4
+ ,
Y =
0
1
1
3
, R.
0
2 4 2
2
0
1 1
.
A=
0
3
4 1
2
1 3
0
Verificare che ker f e im f sono sottospazi vettoriali ortogonali rispetto al prodotto scalare standard di R4 .
Soluzione
dim(im f ) = 2.
276
Applicazioni Lineari
da cui si legge che (ker f ) = L((4, 1, 0, 3), (0, 1, 2, 1)). I vettori della base di (ker f )
appena determinata coincidono con due colonne linearmente indipendenti di A.
Esercizio 6.22 Prendendo spunto dallesercizio precedente e dallEsercizio 6.16, si studino le propriet`a degli endomorfismi f : V V, con (V, ) spazio vettoriale euclideo,
tali che:
(ker f ) = im f.
6.8
6.8.1
ai R, i = 1, 2, . . . , n,
(6.20)
per ogni (x1 , x2 , . . . , xn ) Rn . Rispetto alla base canonica B di Rn e alla base C = (1)
di R la matrice associata ad e` dunque:
A = M B,C () = a1 a2 . . . an .
Se non e` la forma nulla (ossia se almeno uno tra gli ai , i = 1, 2, . . . , n, non e` uguale a
zero) allora e` suriettiva e il suo nucleo ha equazione, rispetto alla base B:
a1 x1 + a2 x2 + . . . + an xn = 0,
(6.21)
Capitolo 6
277
x 7 a x.
A 7 tr(A),
dove tr(A) indica la traccia della matrice A, e` una forma lineare su Rn,n .
Poiche V = L(V, R), se dim(V ) = n segue da (6.15) che anche dim(V ) = n. Quindi
lo spazio vettoriale V e il suo spazio vettoriale duale V hanno la stessa dimensione. Il
teorema che segue dimostra di nuovo questo risultato ed, inoltre, indica il metodo con cui
si pu`o costruire esplicitamente una base di V a partire da una base di V.
Teorema 6.19 Se V e` uno spazio vettoriale reale di dimensione finita, allora:
dim(V ) = dim(V ).
Dimostrazione Sia dim(V ) = n e sia B = (v1 , v2 , . . . , vn ) una sua base. Per il
Teorema 6.2, esistono e sono uniche le forme lineari i : V R, i = 1, 2, . . . , n, cos`
definite:
(v
)
=
1
(v
)
=
0
n (v1 ) = 0
1
1
2
1
1 (v2 ) = 0
2 (v2 ) = 1
n (v2 ) = 0
...
..
..
..
.
.
.
(v ) = 0, (v ) = 0,
(v ) = 1,
1
278
Applicazioni Lineari
i = 1, 2, . . . , n.
In altri termini, la forma lineare i associa ad ogni vettore di V la sua iesima componente, calcolata rispetto alla base di V che ne determina la sua definizione.
Si perviene alla tesi se si dimostra che B = (1 , 2 , . . . , n ) e` una base di V , ossia:
1. B e` un sistema di generatori di V . Infatti, per ogni forma lineare V , posto:
(v1 ) = a1 ,
(v2 ) = a2 ,
...,
(vn ) = an ,
j = 1, 2, . . . , n,
j = 1, 2, . . . , n,
(cfr. Es. 6.27). Inoltre, se si considera V3 , riferito alla base ortonormale B = (i, j, k) (cfr.
Es. 6.28), si deduce facilmente che la base duale di B e` B = (i , j , k ).
Capitolo 6
279
6.8.2
Cambiamento di base in V
Si considerino due basi B = (v1 , v2 , . . . , vn ) e B 0 = (v10 , v20 , . . . , vn0 ) dello spazio vettoriale V di dimensione n e si indichi con P GL(n, R) (cfr. Oss. 2.7) la matrice del
cambiamento di base da B a B 0 le cui colonne sono date dalle componenti dei vettori
della base B 0 scritti rispetto alla base B, ossia:
v10
v1
v0
v2
2
t
(6.23)
.. = P .. .
.
.
vn0
vn
280
Applicazioni Lineari
Siano B = (1 , 2 , . . . , n ) e (B 0 ) = (10 , 20 , . . . , n0 ) le basi duali di B e di B 0 rispettivamente. Si indichi con Q GL(n, R) la matrice del cambiamento di base da B a
(B 0 ), ossia:
10
1
0
2
2
(6.24)
.. = t Q .. .
.
.
n0
n
Scopo di questo paragrafo e` quello di determinare la relazione che lega le matrici P e Q.
In notazione matriciale, la dualit`a tra le basi B e B si pu`o esprimere come:
1
2
(6.25)
.. v1 v2 . . . vn = I,
.
n
dove I e` la matrice unit`a di ordine n. Analogamente, la dualit`a tra le basi B 0 e (B 0 )
equivale alla relazione:
10
0
2
(6.26)
.. v10 v20 . . . vn0 = I.
.
n0
Sostituendo (6.24) e (6.23) in (6.26) si ha:
1
2
t
Q .. v1 v2 . . . vn P = I,
.
n
da cui, tenendo conto di (6.25), segue t Q P = I e, quindi, ricordando la propriet`a
t
(P 1 ) = (t P )1 , si ottiene:
Q = tP 1 ,
(6.27)
che e` la relazione cercata.
Esercizio 6.23 In R2 si considerino due basi: la base canonica B = ((1, 0), (0, 1)) e
la base B 0 = ((1, 2), (1, 1)). Nello spazio vettoriale duale (R2 ) si consideri la base
B = (1 , 2 ), duale della base B. Determinare le componenti dei vettori della base
(B 0 ) = (10 , 20 ), duale della base B 0 , rispetto alla base B .
Capitolo 6
Soluzione
281
Esercizio 6.24 Determinare la base duale (B 0 ) della base B 0 = ((1, 0, 2), (0, 1, 1), (2, 1, 2))
dello spazio vettoriale R3 , rispetto alla base duale B della base canonica B di R3 .
Sia (B 0 ) = (10 , 20 , 30 ) la base duale di B 0 , allora dalla formula (6.26) si
2
2
1
3
2 6
2 1 1
0
0
0
1 =
, , , 2 = , , , 3 =
, ,
,
7
7
7
7 7
7
7 7 7
Soluzione
ha:
dove le componenti sono date rispetto alla base duale B della base canonica B di R3 .
6.8.3
7 (x).
(6.28)
7 (x),
e
x 7 x
(6.29)
Applicazioni Lineari
282
Dimostrazione
ee2 = (e2 ),
...,
een = (en )
Capitolo 6
283
p(x) 7 p(b0 ),
10 : R2 [x] R,
p(x) 7 p(b1 ),
20 : R2 [x] R,
p(x) 7 p(b2 ),
(6.30)
0
0
0
(1 0 + 2 1 + 3 2 )(1) = 1 + 2 + 3 = 0,
(1 00 + 2 10 + 3 20 )(x) = 1 b0 + 2 b1 + 3 b2 = 0,
(6.31)
Applicazioni Lineari
284
minante:
1 1 1
det(P ) = b0 b1 b2 = (b0 b1 )(b0 b2 )(b2 b1 ) 6= 0.
b2 b2 b2
0
1
2
Pertanto lunica soluzione del sistema lineare omogeneo (6.31) e` 1 = 2 = 3 = 0,
vale a dire 00 , 10 e 20 sono linearmente indipendenti. Si osservi che tP e` la matrice
del cambiamento di base dalla base B = (0 , 1 , 2 ), duale della base B, alla base (B 0 ) , ovvero:
0
0
10 = tP 1 .
20
2
2. Mediante lisomorfismo canonico tra V e V si possono identificare i vettori
della base B = (1, x, x2 ) con i vettori della base B = ((1), (x), (x2 )). Pertanto per determinare la base (B 0 ) di R2 [x] duale della base (B 0 ) = (00 , 10 , 20 )
e` sufficiente determinare la base B 0 = (p0 (x), p1 (x), p2 (x)) la cui base duale e` (B 0 )
ossia tale che:
(i0 )(pj (x)) = pj (bi ) = ij ,
i, j = 0, 1, 2,
Si osservi che dalla relazione (6.27) segue che P 1 e` la matrice del cambiamento
di base da B a B 0 e pertanto:
p0 (x)
1
p1 (x) = P 1 x .
p2 (x)
x2
Capitolo 6
6.8.4
285
Scopo di questo paragrafo e` quello di dimostrare che, se (V, ) e` uno spazio vettoriale
euclideo di dimensione finita, allora lo spazio vettoriale duale V e` canonicamente isomorfo a V. Si perviene a questo importante risultato estendendo lEsempio 6.28 al caso
generale di uno spazio vettoriale euclideo V.
Esempio 6.31 Sia (V, ) uno spazio vettoriale euclideo, fissato un vettore x in V, la
funzione:
x : V R, y 7 x y,
con prodotto scalare su V, e` una forma lineare. Infatti, dalle propriet`a del prodotto
scalare si ha:
x (y1 + y2 ) = x y1 + x y2 ,
per ogni , R e per ogni y1 , y2 V.
Teorema 6.23 Sia (V, ) uno spazio vettoriale euclideo di dimensione finita, la funzione:
iV : V V ,
x 7 x
(6.32)
e` un isomorfismo.
Dimostrazione Dalle propriet`a del prodotto scalare segue che la funzione iV e` unapplicazione lineare. Liniettivit`a di iV e` conseguenza del calcolo di ker iV , ossia:
ker iV = {x V | iV (x) = oV } = {x V | x y = 0, y V } = {oV }.
Dal Teorema 6.11 segue che iV e` un isomorfismo.
Osservazione 6.22 Nel caso di uno spazio vettoriale euclideo (V, ) e` quindi possibile
definire, mediante (6.32), un isomorfismo canonico tra V e il suo duale V che non dipende dalla scelta delle basi nei due spazi vettoriali ma solo dal prodotto scalare che conferisce a V la struttura di spazio vettoriale euclideo. Si osservi, che se B = (e1 , e2 , . . . , en )
e` una base ortonormale di (V, ) e se si indica con B = (1 , 2 , . . . , n ) la base duale
di B, si ha:
iV (ej )(ek ) = ej ek = jk = j (ek ),
j, k = 1, 2, . . . , n,
dove jk e` il simbolo di Kronecker. Pertanto la matrice M B,B (iV ) associata allisomorfismo iV , rispetto alle basi B e B , e` la matrice unit`a I di ordine n.
Applicazioni Lineari
286
Osservazione 6.23 Nel caso di uno spazio vettoriale hermitiano (V, ), la funzione:
x : V C,
y 7 x y,
y 7 y x,
x 7 x
non e` unapplicazione lineare. Pertanto, a differenza del caso reale, un prodotto hermitiano non permette di definire un isomorfismo canonico (senza luso delle basi) tra uno
spazio vettoriale hermitiano ed il suo duale.
6.8.5
Lo scopo di questo paragrafo e` quello di individuare il legame tra unapplicazione lineare associata ad una matrice A e lapplicazione lineare associata alla trasposta della
matrice A stessa, senza necessariamente introdurre un prodotto scalare, come nel caso
dellendomorfismo autoaggiunto definito nel Paragrafo 6.6.
Sia f : V W unapplicazione lineare da uno spazio vettoriale reale V in uno spazio
vettoriale reale W. Data una generica forma lineare in W , la composizione f e` una
forma lineare su V, ossia f V . Si pu`o, allora, enunciare la seguente definizione.
Definizione 6.15 Data unapplicazione lineare f : V W tra due spazi vettoriali V
e W, la funzione:
t
f : W V , 7 (tf )() = f,
(6.33)
si dice trasposta dellapplicazione lineare f .
Teorema 6.24 La funzione tf appena definita e` unapplicazione lineare.
Dimostrazione
Osservazione 6.24 La denominazione trasposta per lapplicazione lineare tf e` giustificata dal seguente teorema.
Capitolo 6
287
Teorema 6.25 Siano V uno spazio vettoriale reale di dimensione n e W uno spazio vettoriale reale di dimensione m. Data unapplicazione lineare f : V W, si indichi con
A = M B,C (f ) la matrice di Rm,n associata ad f rispetto alle basi B = (v1 , v2 , . . . , vn )
di V e C = (w1 , w2 , . . . , wm ) di W. Si considerino nello spazio vettoriale duale V la
base B = (1 , 2 , . . . , n ) duale della base B e nello spazio vettoriale duale W la
base C = (1 , 2 , . . . , m ) duale di C. La matrice associata allapplicazione lineare:
f : W V
M C ,B (tf ) = tA.
Dimostrazione La definizione di trasposta di unapplicazione lineare (6.33), applicata
ad un vettore x di V, restituisce il numero reale dato da:
((tf )())(x) = ( f )(x).
(6.34)
X=
x1
x2
..
.
xn
la matrice delle componenti del vettore x di V rispetto alla base B. Si vuole ora scrivere,
in notazione matriciale, la relazione (6.34). Si ha:
a. il secondo membro di (6.34) e` il numero reale:
BAX,
(6.35)
Applicazioni Lineari
288
(G tB) = B tG = BA
da cui la tesi.
Osservazione 6.25 Dalla formula (6.35) si deduce che per calcolare limmagine di un
vettore mediante la trasposta di unapplicazione lineare si effettua il prodotto della matrice riga delle componenti del vettore a destra della matrice associata allapplicazione
lineare di partenza. Mentre per calcolare limmagine di un vettore mediante unapplicazione lineare si effettua il prodotto a sinistra per la matrice colonna delle componenti del
vettore.
Seguono alcuni teoremi che mettono in relazione la trasposta di unapplicazione lineare
con la somma di applicazioni lineari, con il prodotto di un numero reale per unapplicazione lineare, con la composizione di applicazioni lineari e con linversa di unapplicazione
lineare invertibile. Tutte le dimostrazioni sono lasciate al Lettore per esercizio.
Teorema 6.26 Se f, g L(V, W ) e R, allora:
1. t (f + g) = tf + tg ,
2. t (f ) = tf .
Teorema 6.27 Siano V, W, Z spazi vettoriali reali, allora, per ogni f L(V, W ) e per
ogni g L(W, Z) si ha:
t
(g f ) = tf tg.
Se f e` un endomorfismo di uno spazio vettoriale reale V, allora tf e` un endomorfismo
dello spazio vettoriale duale V di V, inoltre:
(t idV )() = idV = idV (),
V ,
Capitolo 6
289
1 2 1
2
1
1
A = 1 1
2 1
0 1
e : R3 R la forma lineare la cui matrice, rispetto alla base canonica di R3 e alla
base C = (1) di R, e` :
M () = 1 2 2 .
Determinare la matrice associata alla forma lineare = (tf )().
Soluzione
Per definizione di applicazione lineare trasposta (tf )() = f , la cui
matrice associata e` data da M ()A. Quindi la matrice associata alla forma lineare ,
rispetto alla base canonica di R4 e alla base C, e` :
M ()A =
1 2
1
1
2
2 1
2
1
1
1 = 1
1
0 1
x1
x1
x
2
t
x2
f ()
x3 = 1 2 3 2 x3
x4
x4
2 3 2
Applicazioni Lineari
290
x V, y W,
ossia:
(tf ) iW = iV f .
(6.37)
Si osservi che, fissate una base ortonormale B di (V, ) ed una base ortonormale C di
(W, ), se si indica con A la matrice associata a f rispetto alle basi B e C , la matrice
trasposta di A, che e` la matrice associata a tf rispetto alle basi duali C e B (cfr. Teor.
6.25), e` anche la matrice associata a f rispetto alle basi C e B, ovvero:
MC
,B
In notazione matriciale, rispetto alle basi ortonormali B, C e alle loro basi duali B , C , la
relazione (6.37) si traduce nella relazione:
A Im = In tA
6.8.6
Analogamente a quanto visto nel Paragrafo 6.6 si pu`o introdurre il concetto di aggiunta di unapplicazione lineare tra spazi vettoriali hermitiani. Per semplicit`a si tratter`a in
dettaglio solo il caso di un endomorfismo di uno spazio vettoriale hermitiano.
Sia (V, ) uno spazio vettoriale hermitiano (cfr. Def. 5.7), analogamente al caso reale,
laggiunto di un endomorfismo f di V e` lendomorfismo f di V tale che:
f (x) y = x f (y),
x, y V.
(6.38)
(AX) Y = t XA Y ,
da cui si ottiene:
t
X tA Y = t X A Y ,
ossia A = tA. Di conseguenza vale il seguente teorema, che e` lanalogo del Teorema
6.16 in campo complesso.
Capitolo 6
291
Teorema 6.29 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n. Dato unendomorfismo f di V, la matrice associata M B,B (f ) allendomorfismo aggiunto f di f
rispetto ad una base unitaria B di (V, ) e` la trasposta coniugata della matrice associata
M B,B (f ) a f rispetto alla stessa base.
In particolare, un endomorfismo f di uno spazio vettoriale hermitiano (V, ) si dice
autoaggiunto o hermitiano se f = f . In questo caso vale il seguente teorema che e`
lanalogo, nel caso hermitiano, del Teorema 6.17.
Teorema 6.30 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n e sia B una
base unitaria di V. Un endomorfismo f di V e` autoaggiunto se e solo se la matrice
A = M B,B (f ) Cn,n e` hermitiana, ossia se e solo se tA = A.
6.8.7
In questo paragrafo si intende estendere sia al caso degli spazi vettoriali euclidei sia al
caso degli spazi vettoriali hermitiani il concetto di movimento euclideo del piano, intendendosi per tale il movimento rigido del piano che non cambia la lunghezza dei vettori
e lampiezza degli angoli. Si ricordi infatti che la geometria euclidea del piano e` per
definizione linsieme di assiomi e teoremi invarianti per effetto dei movimenti rigidi.
Sia (V, ) uno spazio vettoriale euclideo di dimensione finita. La definizione seguente
estende (in modo naturale) a dimensioni superiori il concetto elementare di isometria o
movimento euclideo nel piano e nello spazio.
Definizione 6.16 Un endomorfismo f di uno spazio vettoriale euclideo (V, ) prende il
nome di isometria o trasformazione ortogonale se:
f (x) f (y) = x y,
x, y V.
(6.39)
Il teorema che segue afferma che la definizione di isometria impone che necessariamente
essa sia unisomorfismo.
Teorema 6.31 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Se f e` unisometria di (V, ), allora f e` un automorfismo di V.
Dimostrazione
Per il Teorema 6.11 e` sufficiente dimostrare che ker f = {o}. Se x e`
un vettore di ker f si ha f (x) = o, daltra parte essendo f un unisometria si ha:
f (x) f (x) = kxk2 = kok2 = 0,
292
Applicazioni Lineari
quindi x = o.
Si pu`o generalizzare la definizione precedente al caso di isomorfismi tra due spazi vettoriali euclidei in questo modo: dati due spazi vettoriali euclidei V e W, con la stessa
dimensione, un isomorfismo f : V W si dice isometria se non cambia il prodotto
scalare.
Esempio 6.32 Ogni rotazione R[] (in senso antiorario) di angolo del piano vettoriale
V2 e` unisometria (cfr. Es. 6.24). Inoltre, come e` gi`a stato affermato, la matrice associata
a R[] (rispetto ad una base ortonormale (i, j) di V2 ) e` la matrice ortogonale:
cos sin
.
sin
cos
Esempio 6.33 Lidentit`a id : V V (cfr. Es. 6.1) e` unisometria rispetto ad ogni
prodotto scalare definito su V.
Esempio 6.34 Lapplicazione id : V V definita da id(x) = x, x V, e`
unisometria rispetto ad ogni prodotto scalare definito su V.
Alcune tra le principali propriet`a delle isometrie sono riassunte nel seguente teorema.
Teorema 6.32 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Un endomorfismo f di V e` unisometria se e solo se non cambia la norma dei
vettori:
kf (x)k = kxk, x V.
(6.40)
2. Se f e` unisometria di V, allora la misura dellangolo individuato dai vettori x e
y di V coincide con la misura dellangolo individuato dai vettori f (x) e f (y), per
ogni x, y V.
3. La composizione di due isometrie e` unisometria.
4. Linversa di unisometria e` unisometria.
5. Un endomorfismo f di V e` unisometria di V se e solo se le immagini dei vettori
di una base ortonormale di V formano una base ortonormale di V.
6. Un endomorfismo f di V e` unisometria di V se e solo se la matrice associata ad
f , rispetto ad una base ortonormale di V, e` una matrice ortogonale.
Capitolo 6
293
1
kx + yk2 kxk2 kyk2
2
e:
1
kf (x) + f (y)k2 kf (x)k2 kf (y)k2 .
2
Pertanto per la linearit`a di f e da (6.40) segue quindi la (6.39).
f (x) f (y) =
(6.41)
Applicazioni Lineari
294
in V, allora:
kxk2 = x21 + x22 + . . . + x2n ,
daltra parte, per la linearit`a di f :
f (x) = x1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ),
quindi:
kf (x)k2 = x21 + x22 + . . . + x2n ,
da cui kf (x)k = kxk. Si osservi che il calcolo della norma dei vettori x e f (x) ha
assunto lespressione suddetta in quanto riferito a due basi ortonormali (cfr. Teor.
5.4).
6. Sia A la matrice associata ad f , rispetto ad una base ortonormale B di V, e siano
Y = AX le equazioni di f rispetto a B. Poiche, per ogni x V, kf (x)k2 = kxk2
e ricordando che kxk2 = t XX si ha:
t
x, y V.
(6.42)
x, y V,
da cui
((f f )(x) x) y = 0,
per ogni x e y. Pertanto, f f = id, ossia f = f 1 . Viceversa, se f = f 1 ,
allora da (6.42) si ha immediatamente che f e` unisometria.
Osservazione 6.27
1. Dai punti 2. e 3. del teorema precedente segue che linsieme
delle isometrie di uno spazio vettoriale euclideo (V, ) e` un gruppo (cfr. Oss. 2.2)
rispetto alla composizione di funzioni. Inoltre, fissata una base ortonormale B nello spazio vettoriale euclideo (V, ), allora per la propriet`a 6. si pu`o stabilire, in
modo naturale, un isomorfismo tra linsieme delle isometrie di (V, ) ed il gruppo ortogonale O(n) associando ad ogni isometria f di V la matrice ortogonale
A = M B,B (f ).
Capitolo 6
295
x 7 2x,
(6.43)
3
1
2
,
A=
1
3
4
2
e` unisometria di R2 . Per quale motivo A non e` una matrice ortogonale?
Soluzione
x1 = 2 x1 + x2
x0 = 1 x + 3 x ,
1
2
2
4
2
Applicazioni Lineari
296
con (x01 , x02 ) = f ((x1 , x2 )). Per provare che f e` unisometria di (R2 , ) e` sufficiente
verificare che:
kf (x)k2 = (x01 )2 + 4(x02 )2 = x21 + 4x22 = kxk2 ,
con x = (x1 , x2 ) R2 .
La matrice A non e` un elemento di O(2) perche non e` associata ad una base ortonormale
(rispetto al prodotto scalare introdotto), infatti ke2 k = 2.
Esercizio 6.28 Nello spazio vettoriale euclideo (V, ) di dimensione 4, riferito alla base
ortonormale B = (e1 , e2 , e3 , e4 ), sono dati i vettori:
a = 2e1 e3 + 2e4 ,
b = e3 e4 .
x 7 x 2(x c)c
e` un isometria di V .
2. Calcolare kf 1 (b)k ed il coseno dellangolo tra i vettori f 1 (a) e f 1 (b).
Soluzione
2,
1 (b)) = cos(ab)
\
c =
cos = cos(f 1 (a)f
ab
1
= .
kak kbk
2
Si lascia per esercizio la determinazione della matrice A associata a f rispetto alla base
B e la verifica del fatto che A sia una matrice ortogonale.
Capitolo 6
297
2
2 cos sin
1 2 sin 2
2
2
A =
2 cos sin
1 2cos2
2
2
2
sin
2
.
sin
cos
2
2
cos
2
Automorfismi di uno spazio vettoriale euclideo che mantengano invariata la misura degli
angoli tra coppie di vettori e le loro immagini, ma in generale non le norme dei vettori, sono dati dalle similitudini, di cui lautomorfismo (6.43) ne e` un esempio. Pi`u precisamente
si pu`o enunciare la seguente definizione.
298
Applicazioni Lineari
x V,
da cui si deduce che deve essere un numero reale positivo non nullo.
Osservazione 6.29 Ogni isometria e` una similitudine di rapporto 1. Mentre lautomorfismo definito da (6.43) e` una similitudine di rapporto 2.
Il teorema che segue, la cui dimostrazione e` lasciata al Lettore per esercizio, riassume
alcune tra le principali propriet`a delle similitudini.
Teorema 6.33 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Se f e` una similitudine di V, allora la misura dellangolo individuato dai vettori
x e y di V coincide con la la misura dellangolo individuato dai vettori f (x) e
f (y), per ogni x, y V.
2. La matrice associata ad una similitudine di rapporto , rispetto ad una base ortonormale di V, e` data dal prodotto A con A O(n).
Analogamente al caso reale, un endomorfismo f di uno spazio vettoriale hermitiano
(V, ) si dice una trasformazione unitaria o operatore unitario o isometria complessa
se non cambia il prodotto hermitiano, cio`e se vale la relazione (6.39). Come nel caso
delle isometrie si pu`o dimostrare il teorema che segue.
Teorema 6.34 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n.
1. Un endomorfismo f : V V e` una trasformazione unitaria se e solo se:
kf (x)k = kxk,
x V.
Capitolo 6
299
300
Applicazioni Lineari
Capitolo 7
Diagonalizzazione
Questo capitolo e` di importanza fondamentale per le sue svariate applicazioni in matematica, in fisica e in tutte quelle discipline a carattere scientifico e non, ad esempio la
musica. Nel caso di un endomorfismo si vuole determinare, tra le infinite matrici ad esso
associate, almeno una particolarmente semplice: una matrice diagonale. In altri termini
si vuole determinare una base opportuna dello spazio vettoriale V, su cui lendomorfismo
e` definito, rispetto alla quale la matrice ad esso associata sia diagonale; si vedr`a per`o nel
corso del capitolo che questo scopo non pu`o essere sempre raggiunto.
7.1
Si inizia con lintrodurre una definizione che diventer`a fondamentale per lo scopo che ci
si e` proposti.
Definizione 7.1 Sia f : V V un endomorfismo di uno spazio vettoriale reale V. Un
vettore x non nullo di V si dice autovettore di f se esiste uno scalare R tale che:
f (x) = x,
(7.1)
302
Diagonalizzazione
Capitolo 7
303
Esempio 7.2 Lapplicazione lineare nulla, definita nellEsempio 6.2, ammette solo lautovalore = 0. Lunico autospazio V , cio`e lautospazio relativo a = 0, coincide con
V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, e` la
matrice nulla. Pertanto, anche in questo caso la matrice e` diagonale con lautovalore 0
sulla diagonale principale.
Osservazione 7.3 Sia f un endomorfismo non iniettivo di uno spazio vettoriale V. Dal
Teorema 6.8 si ha che ker f 6= {o}, allora f ammette lautovalore 0 e lautospazio ad
esso relativo coincide con ker f. Viceversa, se f e` iniettivo, allora ker f = {o}, quindi il
numero 0 non pu`o essere un autovalore di f .
Esempio 7.3 Si consideri, nello spazio dei vettori ordinari V3 , lendomorfismo:
f : V3 V3 ,
x 7 (x u)u,
x 7 R[](x)
Diagonalizzazione
304
x cos y sin = x
x sin + y cos = y.
Capitolo 7
305
7.2
(7.2)
dove I Rn,n indica la matrice unit`a e O Rn,1 la matrice colonna nulla. Dalla teoria
dei sistemi lineari omogenei descritta nel Paragrafo 1.2.1, segue che il sistema lineare
Diagonalizzazione
306
omogeneo (7.2) ammette soluzioni non nulle se e solo se rank(A I) < n, ossia se e
solo se:
det(A I) = 0.
(7.3)
Si perviene allo stesso risultato facendo uso delle definizioni di somma e di prodotto per
scalari di endomorfismi introdotte nel Paragrafo 6.4 e riscrivendo (7.1) come:
(f id)(x) = o,
dove id indica lidentit`a di V. Pertanto gli autovettori di f, relativi allautovalore ,
coincidono con gli elementi, diversi dal vettore nullo, di ker(f id), cio`e:
V = ker(f id).
Si procede ora con lo studio dettagliato dellequazione (7.3) che prende il nome di equazione caratteristica della matrice A; (7.3) e` anche detta equazione caratteristica dellendomorfismo f, infatti si dimostrer`a nel Teorema 7.4 che non dipende dalla scelta della
matrice associata ad f , ovvero che tutte le matrici associate allo stesso endomorfismo
(matrici simili) hanno lo stesso polinomio caratteristico. Il polinomio det(A I) a
primo membro di (7.3) e` detto polinomio caratteristico di A (o dellendomorfismo f ) e
lo si indicher`a con P (). Pertanto, gli autovalori di f coincidono con le radici reali di
P (). Per ogni radice reale = , lautospazio corrispondente V e` formato dai vettori x di V tali che f (x) = x, ossia dalle soluzioni X del sistema lineare omogeneo
(A I)X = O. Per questo motivo anche se il calcolo degli autovalori e` riferito ad un
endomorfismo f spesso si parla di calcolo degli autovalori di una matrice quadrata A,
intendendosi come tale il calcolo degli autovalori dellendomorfismo f a cui la matrice
A e` associata rispetto ad una base di V.
Con lesempio che segue si vuole determinare, per iniziare a capire il tipo di calcolo che
si deve svolgere, il polinomio caratteristico nel caso particolare delle matrici quadrate di
ordine 2, ossia nel caso di endomorfismi di uno spazio vettoriale reale di dimensione 2.
Esempio 7.5 Sia:
A=
a11 a12
a21 a22
R2,2 ,
da cui segue:
det(A I) = 2 tr(A) + det(A).
(7.4)
Capitolo 7
307
Diagonalizzazione
308
della precedente (si pensi alla formula risolutiva delle equazioni di secondo grado),
pertanto una matrice reale quadrata di ordine pari pu`o non ammettere autovalori
(non si dimentichi che si sta solo trattando il caso degli spazi vettoriali reali), mentre
una matrice reale quadrata di ordine dispari ammette almeno un autovalore.
Esempio 7.6 La matrice quadrata di ordine 2:
2
A=
1
2
1
,
2
0
0
0
0 2
6
6
,
A=
0
0
3
3
0
0 2 2
si vogliono determinare gli autovalori e gli autospazi di f (o, equivalentemente, gli
autovalori e gli autospazi di A). Si inizia con il calcolo dellequazione caratteristica:
2
0
0
0
0
2
6
6
=0
det(A I) =
0
0
3
3
0
0
2 2
e si ha:
det(A I) = ( 1)( + 2)2 = 0
da cui si ottengono tre autovalori 1 = 0, 2 = 1, 3 = 2. Si avranno quindi tre
autospazi, si procede al loro calcolo uno alla volta.
V1 coincide con ker f, che si ottiene riducendo per righe la matrice A. Si lasciano i
dettagli per esercizio, si ha rank(A) = 3, quindi dim(ker f ) = dim(V1 ) = 1 e:
V1 = L((0, 0, 1, 1)).
Capitolo 7
309
Per 2 = 1 si ottiene:
3
0
0
0
0 3
6
6
,
AI =
0
0
2
3
0
0 2 3
da cui rank(A I) = 3 e, quindi, risolvendo il sistema lineare omogeneo corrispondente
allequazione matriciale (A I)X = 0, si perviene a:
V2 = L((0, 2, 3, 2)).
Nel caso di 3 = 2 invece:
0
0
A + 2I =
0
0
0
0
0
6
0
5
0 2
0
6
3
0
Si dimostrer`a ora il teorema gi`a annunciato, vale a dire matrici simili hanno lo stesso
polinomio caratteristico.
Teorema 7.4 Sia f un endomorfismo di uno spazio vettoriale reale V di dimensione n.
Il polinomio caratteristico di f non dipende dalla base di V scelta per la sua determinazione.
Dimostrazione
Considerate due basi B e B 0 di V, si indichino con A = M B,B (f ) e
0
B0 ,B0
A =M
(f ) le matrici, quadrate di ordine n, associate ad f rispetto alle due basi B e
B 0 . Dalla relazione (6.10) si ha che le due matrici A e A0 sono simili e pertanto si ottiene
la tesi provando che:
det(A I) = det(P 1AP I)
con P matrice, invertibile di ordine n, del cambiamento di base da B a B 0 , I matrice
unit`a di ordine n e R. Usando le propriet`a del prodotto di matrici, la formula di
Binet e il calcolo del determinante dellinversa di una matrice (cfr. Teor. 2.16) si ha:
Diagonalizzazione
310
A=
0 ...
0 ...
.. .. . .
.
. .
0 0 ...
0 0 ...
.. .. . .
.
. .
0
0
..
.
a1k+1
a2k+1
..
.
akk+1
0 ak+1k+1
..
..
.
.
0 0 . . . 0 ank+1
...
...
...
a1n
a2n
..
.
. . . akn
. . . ak+1n
..
..
.
.
. . . ann
Capitolo 7
311
Osservazione 7.6 Si osservi che nellEsempio 7.7 si sono ottenuti tre autovalori distinti
1 = 0 con molteplicit`a m1 = 1, 2 = 1 con molteplicit`a m2 = 1 e 3 = 2 con
molteplicit`a m3 = 2. I tre autospazi V1 , V2 , V3 avevano, rispettivamente, dimensione
1, 1, 2 e pertanto:
V1 V2 V3 = R4 .
Inoltre, gli autovettori di f (o di A):
v1 = (0, 0, 1, 1),
v2 = (0, 2, 3, 2),
v3 = (1, 0, 0, 0),
0
v4 = (0, 1, 0, 0)
0 0
0
0
0 1
0
0
,
D=
0 0 2
0
0 0
0 2
in quanto:
f (v1 ) = o,
f (v2 ) = v2 ,
f (v3 ) = 2v3 ,
f (v4 ) = 2v4 .
2 0 0
A = 0 1 1 .
0 0 1
Soluzione
V2 = L((0, 1, 0)).
Diagonalizzazione
312
7.3
Endomorfismi diagonalizzabili
Matrici diagonalizzabili
Capitolo 7
313
i = 1, 2, . . . , k.
4.
3.
2.
1.
314
Diagonalizzazione
7.4
Il teorema spettrale
Nel caso particolare delle matrici simmetriche si pu`o dimostrare il fondamentale teorema
spettrale.
Teorema 7.8 Teorema Spettrale 1. Sia A una matrice simmetrica, allora A e`
diagonalizzabile, esistono quindi una matrice diagonale D e una matrice invertibile P tali che:
D = P 1AP.
2. Sia A una matrice simmetrica, e` sempre possibile individuare una matrice ortogonale Q tale che:
D = Q1AQ = t QAQ,
cio`e A e` diagonalizzabile mediante una matrice ortogonale.
Capitolo 7
315
i 6= j,
i, j = 1, 2, . . . , k,
A = t (QD t Q) = QD t Q = A,
in quanto ovviamente tD = D.
Diagonalizzazione
316
Si inizia con enunciare una prima propriet`a sulle radici del polinomio caratteristico di una
matrice simmetrica, la cui dimostrazione e` rimandata al Paragrafo 7.6 in quanto essa segue
dal fatto che si dovr`a considerare uno spazio vettoriale definito sul campo dei numeri
complessi C, invece che su R.
Lemma 7.2 Tutte le radici del polinomio caratteristico di una matrice simmetrica A di
ordine n sono reali, o in modo equivalente, tutte le radici del polinomio caratteristico di un endomorfismo autoaggiunto f di uno spazio vettoriale euclideo (V, ) sono
reali. In altri termini, se 1 , 2 , . . . , k sono tutti gli autovalori distinti di un endomorfismo autoaggiunto f di V con rispettive molteplicit`a m1 , m2 , . . . , mk , allora si ha
luguaglianza:
m1 + m2 + . . . + mk = n,
dove n e` la dimensione di V.
In generale, per un endomorfismo qualsiasi di uno spazio vettoriale euclideo (V, ) si
pu`o solo affermare che due autovettori relativi a due autovalori distinti non sono paralleli
(cfr. Lemma 7.1). Nel caso particolare di endomorfismi autoaggiunti si pu`o dimostrare
lortogonalit`a tra i due autovettori. Si ha infatti il seguente teorema.
Teorema 7.10 Se 1 e 2 sono due autovalori distinti di un endomorfismo autoaggiunto
f di uno spazio vettoriale euclideo (V, ), allora i relativi autospazi V1 e V2 sono
ortogonali tra di loro, ossia:
x y = 0,
per ogni x V1 e per ogni y V2 .
Dimostrazione
Considerati x V1 e y V2 , dalla definizione di endomorfismo
autoaggiunto segue:
f (x) y = (1 x) y = 1 (x y) = x f (y) = x (2 y) = 2 (x y) = 2 (x y).
Di conseguenza (1 2 )(x y) = 0, ma 1 6= 2 , perci`o x y = 0.
Dimostrazione del Teorema 7.9
1. Siano 1 , 2 , . . . , k tutti gli autovalori distinti di
f e siano V1 , V2 , . . . , Vk i relativi autospazi, che sono tutti in somma diretta (cfr.
Teor. 7.3). Sia:
H = V1 V2 . . . Vk ,
si perviene alla tesi se si dimostra che H = V. Poiche ogni autospazio Vi , i = 1,
2, . . . , k , e` invariante per f (cfr. Teor. 7.2), segue dal Teorema 6.14 che anche H
Capitolo 7
317
y = y1 + y2 + . . . + y k ,
con xi , yi Vi , i = 1, 2, . . . , k. Si ha:
f (x) y = f (x1 + x2 + . . . + xk ) (y1 + y2 + . . . + yk )
= f (x1 ) y1 + f (x2 ) y2 + . . . + f (xk ) yk ,
in quanto, per ipotesi, f (xi ) yj = 0, per ogni i, j = 1, 2, . . . , k, i 6= j. Poiche
f (xi ) = i xi , la relazione precedente diventa:
f (x) y = 1 x1 y1 + 2 x2 y2 + . . . + k xk yk .
Procedendo con un conto analogo a secondo membro si perviene alla tesi.
Osservazione 7.11 Come gi`a affermato, il Teorema 7.8 e` conseguenza del Teorema 7.9.
Ma il Teorema 7.9 afferma che ogni matrice associata ad un endomorfismo autoaggiunto
di uno spazio vettoriale euclideo (V, ) e` diagonalizzabile, anche se la matrice associata
non e` simmetrica. Un esempio significativo e` studiato nellEsercizio 8.19. Nel Teorema
8.28 sono determinate tutte le matrici associate ad un endomorfismo autoaggiunto rispetto
ad una base qualsiasi di V.
318
Diagonalizzazione
2
1
0
1 1
A= 1
0 1
2
(7.5)
Capitolo 7
319
v2 = (1, 0, 1),
v3 = (1, 1, 1)
P =
da cui:
1
0
1
1
2
3
0 0 0
t
P AP = D = 0 2 0 .
0 0 3
1 2 2
1 2
A = 2
2 2
1
(7.6)
Diagonalizzazione
320
b = (1, 1, 0),
c = (0, 1, 1).
3 0 0
D = 0 3 0 ,
0 0 3
e` data ad esempio da:
1
1
0
1 ,
P = 1 1
1
0 1
ma la matrice P cos` ottenuta non e` ortogonale.
Si perviene ad una base ortonormale di autovettori o equivalentemente una matrice ortogonale Q tale che t QAQ = D, applicando il processo di ortonormalizzazione di
GramSchmidt separatamente ai due autospazi. Pi`u precisamente si considerano i vettori:
1 1 1
v1 = vers (a) = , , ,
3 3 3
1
1
v2 = vers (b) = , , 0 ,
2
2
1 1
2
1 1
, , 1 = , , ,
v3 = vers (c (c v2 )v2 ) = vers
2 2
6 6
6
quindi una matrice ortogonale che diagonalizza A e` ad esempio:
1
1
1
3
2
6
1
1
1
Q =
3
2
6
1
2
0
3
6
da cui:
t
QAQ = D.
Capitolo 7
7.5
321
4 1 + a2 1
5
2 ,
A= 2
1
1
2
a R,
a 6=
30
.
2
A=
2
17
1
5 2
1
2
322
Diagonalizzazione
1 1 1
1 .
P = 2 0
1 1
0
4. Le radici del polinomio caratteristico della matrice A del testo dellesercizio sono:
1 = 3, 2 = 4 + 1 + 2a2 , 3 = 4 1 + 2a2 .
Innanzi tutto si osserva che per ogni valore di a la quantit`a 1 + 2a2 e` sempre strettamente positiva, pertanto, per ogni valore di a, le radici 1 , 2 , 3 sono autovalori di
A. Si tratta di studiare la loro molteplicit`a al variare di a R. Come
gi`a osservato,
non si hanno valori di a per cui 2 = 3 . Da 1 = 2 si ottiene 1 + 2a2 = 1,
caso che non si pu`o verificare. Da 1 = 3 segue a = 0, che e` il caso studiato nel
punto 3. Pertanto la matrice A e` diagonalizzabile per ogni valore di a, infatti (ad
eccezione di a = 0) tutti gli autovalori sono distinti (cfr. Cor. 7.1).
Esercizio 7.5 Sia f lendomorfismo di R4 definito, rispetto alla base canonica B di R4 ,
dalla matrice:
2 0 1
0
0 2
0 1
.
A=
4 0 2
0
0 4
0 2
1. Determinare la dimensione e una base sia di ker f sia di im f e verificare che
ker f = im f.
2. Determinare autovalori e autovettori di f.
3. Stabilire se f e` diagonalizzabile.
4. Determinare una matrice simile a A.
Soluzione
1. E` evidente che la matrice A ha rango 2, infatti la terza e la quarta riga
sono proporzionali, rispettivamente, alla prima e alla seconda riga e queste ultime
sono linearmente indipendenti. Di conseguenza il nucleo di f si ottiene risolvendo
il sistema lineare omogeneo:
2x1 x3 = 0
2x2 x4 = 0,
Capitolo 7
323
x1
x2
x3
x4
= t1
= t2
= 2t1
= 2t2 ,
t1 , t2 R,
quindi dim(ker f ) = 2 e ker f = L((1, 0, 2, 0), (0, 1, 0, 2)). Il sottospazio immagine im f ha dimensione 2 ed e` generato da 2 colonne linearmente indipendenti
della matrice A. Considerando la prima e la seconda colonna di A segue che
im f = L((2, 0, 4, 0), (0, 2, 0, 4)), da cui e` chiaro che im f coincide con ker f.
2. Prima di iniziare il calcolo degli autovalori si pu`o gi`a affermare che si trover`a lautovalore = 0 di molteplicit`a almeno pari a 2, infatti lautospazio ad esso relativo
e` ker f, gi`a calcolato nel punto 1. Il polinomio caratteristico di A e` :
P () = 4 .
Pertanto lunico autovalore e` = 0 di molteplicit`a 4. Di conseguenza lunico
autospazio e` ker f.
3. Poiche la dimensione di ker f e` diversa dalla molteplicit`a dellautovalore = 0,
lendomorfismo f non e` diagonalizzabile, ossia non e` possibile trovare alcuna matrice diagonale simile ad A. Daltra parte, solo la matrice nulla ammette come
unico autovalore il numero 0 ed e` diagonalizzabile.
4. Una qualsiasi matrice A0 simile ad A e` del tipo A0 = P 1 AP con P matrice
invertibile di ordine 4. Per esempio, ponendo:
1 0 0 0
0 0 1 0
P =
0 1 0 0
0 0 0 1
si ha che:
2 1
4 2
A0 = P 1 AP =
0
0
0
0
0
0
0
0
.
2 1
4 2
Si osservi che, ovviamente, non esiste una base di R4 formata da autovettori, ma,
per esempio, si pu`o ottenere una base C di R4 , completando la base di ker f
ottenuta nel punto 1.. Ad esempio:
C = ((1, 0, 2, 0), (0, 1, 0, 2), (0, 0, 1, 0), (0, 0, 0, 1)).
Diagonalizzazione
324
0
M C,C (f ) = (P 0 )1 AP 0 =
0
0
0 1
0
0
0 1
,
0
0
0
0
0
0
dove
0
P0 =
2
0
0
1
0
2
0
0
1
0
0
0
0
1
e` la matrice del cambiamento di base dalla base canonica B di R4 alla base C . Si osservi anche che la matrice M C,C (f ) non e` diagonale ma e` diagonale a met`a. Infatti
la restrizione di f a ker f (cfr. Def. 6.10) coincide ovviamente con lendomorfismo
nullo di ker f .
Esercizio 7.6 Si consideri lendomorfismo f : R4 R4 tale che:
a. lautospazio relativo allautovalore 1 sia:
H = {(x1 , x2 , x3 , x4 ) R4 | x1 = x2 x3 2x4 = 0};
b. lautospazio relativo allautovalore 1 sia:
K = {(x1 , x2 , x3 , x4 ) R4 | x1 2x2 = x2 + x3 = x4 = 0};
c. il nucleo sia dato da:
ker f = {(x1 , x2 , x3 , x4 ) R4 | x2 = x3 = x4 = 0}.
1. Determinare la matrice A associata ad f, rispetto alla base canonica di R4 .
2. f e` diagonalizzabile? In caso affermativo, scrivere una matrice diagonale D simile
ad A ed una matrice P tale che D = P 1 AP .
Soluzione
E` pi`u facile procedere con la risoluzione del secondo punto e poi dedurre
da questa la soluzione del primo punto.
Capitolo 7
325
a2 = (0, 2, 0, 1).
1 0
0 0
0 1
0 0
D=
0 0 1 0
0 0
0 0
e una matrice P tale che D = P 1 AP si ottiene ponendo ordinatamente in colonna
le componenti della base di autovettori ricavata, ossia:
0 0 2 1
1 2 1 0
.
P =
1 0
1 0
0 1
0 0
1. Da D = P 1 AP segue:
A = P DP 1
7.6
0 1
0
0
=
0
1
0
0
1
2
1
2
.
0 2
0
1
Diagonalizzazione
326
(7.7)
(7.8)
(7.9)
7.6.1
Diagonalizzazione simultanea
Q1 AQ = D0 ,
Capitolo 7
327
La definizione appena enunciata riscritta facendo uso delle matrici associate agli endomorfismi f e g rispetto ad una base di V si traduce nella seguente definizione.
Definizione 7.6 Due matrici A e B si dicono simultaneamente diagonalizzabili se esiste
una matrice P, invertibile, tale che:
A = P DP 1 ,
B = P D0 P 1 ,
(7.10)
(7.11)
Diagonalizzazione
328
wi Vi , i = 1, 2, . . . , k.
g(w2 ) = w2 ,
...,
g(wk ) = wk .
Questo prova che per ogni autovettore y di g e` possibile determinare almeno un vettore
wi che sia simultaneamente autovettore di f e di g . Applicando questo metodo ad una
base (y1 , y2 , . . . , yn ) di autovettori di g , che esiste sicuramente in quanto g e` diagonalizzabile, si ottengono almeno n vettori che sono simultaneamente autovettori di f e g .
Poiche i vettori yi sono combinazione lineare degli autovettori comuni ad f e a g, lo
spazio vettoriale da essi generato coincide con L(y1 , y2 , . . . , yn ) = V e perci`o da essi si
pu`o estrarre una base comune di autovettori di f e di g .
Osservazione 7.12 Per determinare una base comune di autovettori per due endomorfismi diagonalizzabili f e g che commutano e` sufficiente estrarre una base dallinsieme
unione delle basi dei sottospazi vettoriali Vi V0j ottenuti come intersezione di ogni autospazio Vi di f con ogni autospazio V0j di g . Si noti che per alcuni indici i e j tale intersezione pu`o essere ridotta allinsieme {o}. Inoltre, appare evidente dalla dimostrazione
del Teorema 7.12 che la base comune di autovettori non e` unica.
Esercizio 7.8 Dati due endomorfismi f e g su R3 le cui matrici, rispetto alla base canonica di R3 , sono rispettivamente:
0
A=
1
0
2
0
0
0 ,
3
B = 2
2
0
3
0
0
0 ,
3
Capitolo 7
329
Soluzione
AB = 4
7
0
0 = BA.
9
0
6
0
2 = 3, m2 = 1
ed autospazi:
V1 = L((1, 0, 1), (0, 1, 0)),
V2 = L((0, 0, 1));
02 = 3, m02 = 2
ed autospazi:
V01 = L((1, 1, 1)),
Quindi i due endomorfismi sono diagonalizzabili, poiche commutano sono simultaneamente diagonalizzabili. Si vede subito che gli autovettori di g :
y1 = (1, 1, 1),
y2 = (0, 1, 0),
y3 = (0, 0, 1)
2 0 0
D= 0 2 0
0 0 3
e` associata a f , mentre la matrice:
1 0 0
D0 = 0 3 0
0 0 3
e` associata a g .
Esercizio 7.9 Date le matrici:
16 16
4
16
0
0
0
0
,
A=
48
48 12 48
0
0
0
0
9
12 3 12
3 3
1
3
,
B=
12 12
4
12
9 12
3
12
Diagonalizzazione
330
provare che sono simultaneamente diagonalizzabili. Determinare, quindi, una matrice che
le diagonalizzi entrambe.
Soluzione
2 = 4, m2 = 1;
V1 = L(v1 , v2 , v3 ),
V2 = L(v4 ),
dove v1 = (1, 0, 0, 1), v2 = (1, 0, 4, 0), v3 = (1, 1, 0, 0), v4 = (1, 0, 3, 0), mentre
gli autovalori con relative molteplicit`a e gli autospazi di B sono:
01 = 0, m01 = 2;
02 = 1, m2 = 1;
03 = 3, m3 = 1;
V02 = L(v30 ),
V03 = L(v40 ),
con v10 = (0, 1, 0, 1), v20 = (1, 0, 3, 0), v30 = (0, 1, 4, 0), v40 = (1, 0, 0, 1). Le due
matrici A e B sono simultaneamente diagonalizzabili in quanto A e B commutano,
infatti:
AB = BA = O,
con O R4,4 matrice nulla.
Il Teorema 7.12 assicura che, ad esempio, a partire dalla base B 0 = (v10 , v20 , v30 , v40 ) di R4
e` possibile determinare una base comune di autovettori che si ottiene seguendo il metodo
esposto nella dimostrazione. Si decompongono i vettori della base B = (v1 , v2 , v3 , v4 )
di R4 attraverso i vettori della base B 0 , con lavvertenza di raggruppare e sommare gli
autovettori appartenenti allo stesso autospazio. Si hanno le seguenti espressioni:
v1 = v4 0
v2 = v1 + v30 + v40
v3 = v10 v40
v4 = v20 ,
dalle quali risulta che (casualmente) i vettori della base B 0 sono autovettori comuni alle
due matrici. Scambiando il ruolo delle basi B e B 0 , si avrebbe:
0
v = v1 + v3
10
v2 = v4
v 0 = v2 + v3
30
v 4 = v1 ,
dove si osserva che una base comune e` formata dai vettori v10 , v20 , v30 , v40 , ossia, nuovamente, la base B 0 .
Capitolo 7
331
Come gi`a precisato nellOsservazione 7.12 un altro modo per determinare una base comune di autovettori delle due matrici A e B diagonalizzabili e che commutano, consiste
nellestrarre una base dallinsieme unione delle basi dei sottospazi vettoriali: Vi V0j ,
i = 1, 2, j = 1, 2, 3, dove Vi e V0j rappresentano gli autospazi delle matrici A e B
rispettivamente. Nel caso in esame, ommettendo i calcoli per brevit`a, si ha:
V 1
V 1
V 1
V 2
V 2
V 2
V01
V02
V03
V01
V02
V03
= L((0, 1, 0, 1)),
= L((0, 1, 4, 0)),
= L((1, 0, 0, 1)),
= L((1, 0, 3, 0)),
= {o},
= {o},
7.6.2
Il Teorema di CayleyHamilton
(7.12)
con an1 = (1)n1 tr(A) e a0 = det(A). Sia B() laggiunta della matrice A I ,
(cfr. Def. 2.14), gli elementi di B(), essendo i cofattori della matrice A I, sono
polinomi in di grado non superiore a n 1. Quindi si pu`o scrivere:
B() = Bn1 n1 + . . . + B1 + B0 ,
(7.13)
Diagonalizzazione
332
dove gli elementi delle matrici Bi Rn,n non dipendono da . Ricordando il calcolo
esplicito della matrice inversa (cfr. Teor. 2.19), segue che:
(A I)B() = det(A I)I.
Sostituendo le espressioni di (7.12) e (7.13) ed uguagliando i coefficienti dei termini di
ugual grado si ha:
Bn1 = (1)n I
ABn1 Bn2 = an1 I
ABn2 Bn3 = an2 I
..
.
AB1 B0 = a1 I
AB0 = a0 I.
Moltiplicando le precedenti equazioni, rispettivamente, per An , An1 , . . . , A, I e sommando segue la tesi, ossia:
O = (1)n An + an1 An1 + . . . + a1 A + a0 I = P (A).
Esempio 7.8 Per capire meglio la dimostrazione
B() (cfr. (7.13)) nel caso della matrice:
2 0
1 3
A=
1 1
0
0 .
1
Il polinomio caratteristico di A e` :
P () = 3 + 62 11 + 6.
Poiche:
(7.14)
2
0
0
3
0 ,
A I = 1
1
1
1
3 4 + 2
0
0
2 3 + 2
0
B() = 1 +
2
4
2 +
6 5 +
Capitolo 7
333
da cui:
B() = B2 2 + B1 + B0
1
= 0
0
0
1
0
0
4
0
0
3
0
0 2 + 1 3
0 + 1
2
1
1
1 5
4 2
0
0 .
6
Esempio 7.9 Sia A una matrice quadrata di ordine 2, dal Teorema di CayleyHamilton
7.13 e da (7.4) segue:
A2 = tr(A)A det(A)I.
Si possono cos` ottenere le potenze di A in funzione delle potenze precedenti, per esempio:
A3 = tr(A)A2 det(A)A,
A4 = tr(A)A3 det(A)A2 ,
e cos` via.
1
0
2
A= 0
1 1
usando il Teorema di CayleyHamilton.
1
1 ,
0
Diagonalizzazione
334
Soluzione
Il polinomio caratteristico di A e` :
P () = 3 + 32 2 1.
A1
7.6.3
1
1
2
1
1 .
= 1
2 1 2
Capitolo 7
335
336
Diagonalizzazione
(7.15)
(7.16)
Capitolo 7
337
Definizione 7.7 Una matrice quadrata complessa A Cn,n di ordine n si dice normale
se:
t
A A = A t A.
Ricordando la notazione A = t A (cfr. Oss. 4.34) si ha che una matrice quadrata
complessa A Cn,n di ordine n si dice normale se:
A A = A A .
Esercizio 7.11 Verificare che le matrici unitarie, le matrici reali ortogonali, le matrici
hermitiane e le matrici simmetriche (reali) sono esempi di matrici normali.
Soluzione
Il teorema spettrale, valido nel caso reale per le matrici simmetriche, in campo complesso non vale solo per le matrici hermitiane ma in generale per le matrici normali. Pi`u
precisamente si ha il seguente teorema.
Teorema 7.16 Teorema spettrale in campo complesso 1. Sia A una matrice normale, allora esistono una matrice unitaria P ed una matrice diagonale D tali che
P 1 AP = D.
2. Se A e` una matrice diagonalizzabile mediante una matrice unitaria, allora A e`
normale.
Diagonalizzazione
338
Dimostrazione
La dimostrazione di 1. e` pi`u complicata del caso reale, per la sua
lettura si rimanda ad esempio a [14].
La dimostrazione di 2. e` simile a quella nel caso reale per le matrici simmetriche. Infatti
dal fatto che esista una matrice P di ordine n unitaria tale che P 1 AP = D, si deduce
t
A = t (P
D P ) = t P DP,
in quanto t D = D e t P = P 1 . Quindi:
t
A t A = (P 1 DP )(t P DP ) = P 1 DDP,
ma DD = DD.
Osservazione 7.14
1. Si osservi che gli autovalori di una matrice normale sono in
generale numeri complessi e quindi la matrice D non e` necessariamente reale.
2. Tutte le matrici complesse normali possono quindi essere diagonalizzate in C con
una base ortonormale di autovettori. Tuttavia, questo non si verifica nel caso reale.
Infatti, una matrice normale reale pu`o avere autovalori immaginari, e quindi non
essere diagonalizzabile in campo reale (pur rimanendo diagonalizzabile in campo
complesso). Ne e` un esempio la matrice di una rotazione del piano vettoriale V2 di
angolo diverso da 0 e (cfr. Es. 7.4).
7.6.4
Gli autovalori delle isometrie e delle similitudini di uno spazio vettoriale euclideo (V, ),
considerate nel Paragrafo 6.8.7, non possono assumere valori qualsiasi. Infatti si pu`o
provare il seguente teorema.
Teorema 7.17 Sia (V, ) uno spazio vettoriale euclideo,
1. gli autovalori di unisometria f di (V, ) sono 1 e 1.
2. Gli autovalori di una similitudine di rapporto di (V, ) sono e .
Dimostrazione
Pertanto:
Capitolo 7
339
340
Diagonalizzazione
Capitolo 8
Forme Bilineari e Forme Quadratiche
In questo capitolo vengono trattate le forme bilineari, particolari funzioni che estendono
il concetto di prodotto scalare definito nel Capitolo 5. Tra le innumerevoli applicazioni di
questo argomento si ha lo studio approfondito delle coniche nel piano e delle quadriche
nello spazio che saranno presentati nei Capitoli 10 e 12.
8.1
Si inizia il paragrafo con la definizione di forma bilineare su uno spazio vettoriale reale.
Definizione 8.1 Una forma bilineare su uno spazio vettoriale reale V e` una funzione:
: V V R
per cui valgono le seguenti propriet`a:
1. (x + x0 , y) = (x, y) + (x0 , y);
2. (x, y + y0 ) = (x, y) + (x, y0 );
3. (x, y) = (x, y) = (x, y),
per ogni x, x0 , y, y0 V e per ogni R.
Osservazione 8.1 Fissato un vettore x V, la funzione:
x : V R,
y 7 (x, y),
con forma bilineare su V, e` una forma lineare su V. La stessa propriet`a vale se si fissa
il vettore y e si considera la funzione:
y : V R,
x 7 (x, y).
341
342
Capitolo 8
343
Definizione 8.2 Una forma bilineare su uno spazio vettoriale reale V si dice simmetrica se:
(x, y) = (y, x),
per ogni x, y V.
Esempio 8.5 Ogni prodotto scalare su uno spazio vettoriale reale V e` un esempio di
forma bilineare simmetrica su V (cfr. Def. 5.1).
Esempio 8.6 La funzione : R2 R2 R considerata nellEsempio 8.1 e` una forma
bilineare simmetrica, mentre la funzione dellEsempio 8.4 non e` una forma bilineare
simmetrica.
Poiche ci si propone di studiare opportune generalizzazioni del concetto di prodotto scalare, si prenderanno in considerazione, in quasi tutto il capitolo, solo forme bilineari simmetriche. Nel Paragrafo 8.8.4 invece si studieranno particolari forme, non simmetriche,
che permettono di introdurre, in questo contesto, la nozione gi`a nota di determinante di
una matrice quadrata.
Linsieme delle forme bilineari simmetriche su V sar`a indicato con Bs (V, R). Su questo
insieme si pu`o definire in modo naturale una struttura di spazio vettoriale su R. Infatti, sullinsieme Bs (V, R) delle forme bilineari simmetriche si introduce loperazione di
somma di due forme bilineari simmetriche 1 , 2 , come la funzione:
1 + 2 : V V R,
definita da:
(1 + 2 )(x, y) = 1 (x, y) + 2 (x, y),
x, y V,
(8.1)
x, y V, R.
(8.2)
344
Osservazione 8.2 Si pu`o definire, in modo analogo al caso reale, una forma bilineare
complessa su uno spazio vettoriale complesso V come la funzione:
: V V C
per cui valgono le seguenti propriet`a:
1. (x + x0 , y) = (x, y) + (x0 , y);
2. (x, y + y0 ) = (x, y) + (x, y0 );
3. (x, y) = (x, y) = (x, y),
per ogni x, x0 , y, y0 V e per ogni C. Si osservi che un prodotto hermitiano su uno
spazio vettoriale complesso V non e` per`o una forma bilineare complessa su V in quanto
non e` lineare nel secondo argomento (cfr. (5.12)).
8.1.1
Sia V uno spazio vettoriale reale di dimensione n e sia una forma bilineare simmetrica
su V. Dati una base B = (v1 , v2 , . . . , vn ) di V ed una coppia di vettori x, y V,
usando la bilinearit`a di , e` possibile esprimere (x, y) in termini di (vi , vj ), i, j =
1, 2, . . . , n, e delle componenti di x, y rispetto alla base B. Infatti, per ogni coppia di
vettori x, y V, dati da:
x = x1 v 1 + x2 v 2 + . . . + xn v n ,
y = y1 v1 + y2 v2 + . . . + yn vn ,
+ ...
+ xn y1 (vn , v1 ) + xn y2 (vn , v2 ) + . . . + xn yn (vn , vn )
=
n
X
xi yj (vi , vj ).
i,j=1
Capitolo 8
345
A = ..
.. . .
..
.
.
.
.
a1n a2n . . . ann
che prende il nome di matrice associata alla forma bilineare simmetrica rispetto alla
base B di V e la si indica con:
A = M B ().
La conoscenza della matrice A permette di calcolare (x, y), qualunque siano i vettori
x e y in V. La relazione (8.3) diventa, quindi:
(x, y) =
n
X
aij xi yj ,
x, y V,
(8.4)
i,j=1
n(n + 1)
.
2
346
Esempio 8.7 La matrice associata alla forma bilineare dellEsempio 8.1, rispetto alla
base canonica di R2 , e` :
1
0
A=
0 2
che, come previsto, e` simmetrica.
Esempio 8.8 La matrice associata al prodotto scalare standard (5.1) su Rn , rispetto alla
base canonica B di Rn, e` la matrice unit`a I. Mentre la matrice associata al prodotto
scalare dellEsempio 5.3, rispetto alla base canonica di R3 , e` la matrice diagonale:
3 0 0
A = 0 4 0 .
0 0 5
Sia nellEsempio 8.7 sia nellEsempio 8.8 la matrice associata alla forma bilineare simmetrica e` diagonale, si vedr`a in questo capitolo che se la matrice associata ad una forma
bilineare simmetrica e` diagonale sar`a pi`u facile classificarla e riconoscere se si tratti o
meno di un prodotto scalare.
X=
x1
x2
..
.
xn
Y =
y1
y2
..
.
yn
(8.5)
Capitolo 8
Dimostrazione
XA Y
347
a12 a22 . . . a2n y2
x1 x2 . . . xn ..
=
.. . .
.. ..
.
.
.
. .
a1n a2n . . . ann
yn
x1 x2
n
X
. . . xn
..........................
a1n y1 + a2n y2 + . . . + ann yn
i,j=1
con aij = aji , per ogni i, j = 1, 2, . . . , n. Inoltre, poiche (x, y) e` un numero reale,
risulta:
(x, y) = t ((x, y)) = tXA Y = t ( tXA Y ) = t Y tA X,
e dalla simmetria di A segue la tesi.
Lespressione (8.5) e` detta espressione matriciale della forma bilineare simmetrica
rispetto alla base B.
Esempio 8.9 La forma bilineare simmetrica Bs (R3 , R) con matrice associata rispetto alla base canonica di R3 :
1
0 2
A = 0 1 5
2
5 0
ha come espressione polinomiale rispetto alla base canonica di R3 :
(x, y) = x1 y1 + 2(x1 y3 + x3 y1 ) x2 y2 + 5(x2 y3 + x3 y2 ).
Se x = (1, 2, 3) e y = (0, 3, 4), allora:
(x, y) =
0
1 2 3 A 3 = 87.
4
Ci si propone ora di determinare il legame che intercorre tra le matrici associate alla stessa
forma bilineare simmetrica su uno spazio vettoriale V, cambiando base in V.
348
A = t ( tP AP ) = tP AP = A0 .
In generale, per`o A0 non e` simile alla matrice A, lo e` se P e` una matrice ortogonale. Pertanto, in generale i determinanti delle matrici A e A0 sono diversi, infatti vale la
relazione:
det(A0 ) = det(A)(det(P ))2 .
Di conseguenza, non e` detto che A e A0 abbiano gli stessi autovalori come si vedr`a
nellEsempio 8.10. Si dimostrer`a per`o che A e A0 hanno lo stesso numero di autovalori
positivi e lo stesso numero di autovalori negativi (cfr. Teor. 8.20).
Esempio 8.10 Data la forma bilineare simmetrica su R2 :
(x, y) = 3x1 y1 x1 y2 x2 y1 + 2x2 y2 ,
e assegnata la base B 0 = ((1, 2), (2, 1)) di R2 , la matrice P del cambiamento di base
dalla base canonica B di R2 alla base B 0 e` :
1 2
P =
.
2
1
Quindi le matrici associate a rispettivamente rispetto a B e B 0 sono:
Capitolo 8
A=
3 1
1
2
1
0
, A =
2
2
1
3 1
1
2
349
1 2
2
1
=
7 1
1 18
.
x, y V3 .
Come gi`a osservato nellEsempio 8.8, la matrice associata a questo prodotto scalare
rispetto ad una base ortonormale B = (i, j, k) e` :
1 0 0
M B () = I = 0 1 0 ,
0 0 1
infatti:
(x, y) = x1 y1 + x2 y2 + x3 y3 ,
(8.6)
4 2 0
0
M B () = tP IP = tP P = 2 26 0 ,
0 0 4
cio`e se x, y hanno componenti rispettivamente (x01 , x02 , x03 ) e (y10 , y20 , y30 ) rispetto alla
base B 0 si ha:
(x, y) = 4x0 y 0 + 2(x01 y20 + x02 y10 ) + 11x02 y20 + 4x03 y30 .
(8.7)
Si pone quindi il problema, che sar`a discusso nei paragrafi successivi, di riconoscere che
la forma bilineare , definita rispetto alla base B 0 tramite lespressione polinomiale (8.7),
coincida con il prodotto scalare (8.6), scritto rispetto alla base B.
350
Osservazione 8.4 Segue dal Teorema 5.4 che se e` un prodotto scalare su uno spazio
vettoriale reale V allora la matrice M B () associata alla forma bilineare simmetrica
rispetto ad una base B di V coincide con la matrice unit`a I se e solo se B e` una base
ortonormale.
8.2
Forme quadratiche
x 7 (x, x),
si dice forma quadratica associata alla forma bilineare simmetrica . Analogamente, una
funzione Q : V R prende il nome di forma quadratica su V se esiste una forma
bilineare simmetrica su V tale che Q(x) = (x, x), con x V.
Linsieme delle forme quadratiche su V verr`a indicato con Q(V, R). Si dimostri per
esercizio che Q(V, R) ha la struttura di spazio vettoriale reale, rispetto ad opportune
operazioni di somma e di prodotto per numeri reali.
Teorema 8.5 Sia Q una forma quadratica su uno spazio vettoriale reale V. Allora:
1.
2.
Q(x) = 2 Q(x),
x, y V,
x, y V, R.
Osservazione 8.5
1. Dal teorema precedente segue che una forma quadratica Q definita su uno spazio vettoriale reale V non e` unapplicazione lineare da V in R.
Capitolo 8
351
1
{Q(x + y) Q(x) Q(y)} ,
2
x, y V.
(8.8)
n
X
aij xi xj = tXAX,
(8.9)
i,j=1
con aij = aji , per ogni i, j = 1, 2, . . . , n. Si osservi che Q(x) si esprime mediante un
polinomio omogeneo di secondo grado nelle componenti del vettore x rispetto alla base
B. Per questo motivo Q prende il nome di forma quadratica.
Esempio 8.12 Lespressione polinomiale della forma quadratica Q su R3 , avente come
matrice associata rispetto alla base canonica di R3 , la matrice simmetrica:
3 1 2
A = 1 0 1
2 1 1
e` :
Q(x) = 3x21 + x23 2x1 x2 + 4x1 x3 + 2x2 x3 ,
mentre lespressione polinomiale della relativa forma bilineare simmetrica e` :
(x, y) = 3x1 y1 + x3 y3 (x1 y2 + x2 y1 ) 2(x1 y3 + x3 y1 ) + x2 y3 + x3 y2 .
352
1
0
A=
2
0
0 2
0
0
0
4
5
0
0
5
,
0
3
1 0 2
0 0
0
1 0 1 0
=
2 0
4
0 5
0
0
1
= 1 0 2 0
1 = 2;
0
mentre Q(a) = Q((1, 0, 1, 0)) = 1.
0
0
5 1
0 1
3
0
Capitolo 8
353
8.3
La definizione che segue intende estendere il concetto di ortogonalit`a tra vettori introdotto
per gli spazi vettoriali euclidei (cfr. Def. 5.4) al caso pi`u generale delle forme bilineari
simmetriche.
Definizione 8.5 Data una forma bilineare simmetrica definita su uno spazio vettoriale
reale V, due vettori x, y V si dicono ortogonali rispetto a (o pi`u semplicemente
-ortogonali) se:
(x, y) = 0.
Osservazione 8.7 Se coincide con il prodotto scalare introdotto nel Capitolo 5, le due
definizioni di ortogonalit`a tra vettori coincidono.
Esempio 8.13 I vettori x = (1, 1) e y = (3, 4) sono ortogonali rispetto alla forma
bilineare simmetrica Bs (R2 , R) cos` definita:
(x, y) = 3x1 y1 x1 y2 + 2x2 y2 x2 y1 .
Infatti (x, y) = 3 1 3 1 4 + 2 (1) 4 (1) 3 = 0.
Osservazione 8.8 Il vettore nullo o di uno spazio vettoriale V e` ortogonale ad ogni vettore di V, rispetto ad ogni forma bilineare simmetrica Bs (V, R). Infatti, per ogni
forma bilineare Bs (V, R), per ogni coppia di vettori x, y V e per ogni scalare
R, si ha:
(x, y) = (x, y).
Posto = 0, si ottiene (x, o) = 0, per ogni x V.
Teorema 8.6 Sia A un sottoinsieme non vuoto di vettori di uno spazio vettoriale reale
V. Linsieme:
A = {x V | (x, y) = 0, y A}
dei vettori di V ortogonali, rispetto ad una forma bilineare simmetrica Bs (V, R), ad
ogni vettore di A, e` un sottospazio vettoriale di V.
354
Dimostrazione
Per ogni coppia di vettori x1 , x2 di A e per ogni coppia di scalari
1 , 2 di R si ha:
(1 x1 + 2 x2 , y) = 1 (x1 , y) + 2 (x2 , y) = 0, y A,
dunque 1 x1 + 2 x2 A .
Come caso particolare si ha pertanto il seguente corollario di ovvia dimostrazione.
Corollario 8.1 Sia una forma bilineare simmetrica definita su uno spazio vettoriale
reale V e siano u1 , u2 , . . . , up vettori di V. Un vettore x V e` -ortogonale a tutti
i vettori u1 , u2 , . . . , up , se e solo se x e` -ortogonale ad ogni vettore del sottospazio
vettoriale W = L(u1 , u2 , . . . , up ).
Si osservi che il corollario precedente estende lanaloga propriet`a dimostrata per il complemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo (cfr.
Oss. 5.10) al caso di una generica forma bilineare simmetrica che non sia necessariamente
un prodotto scalare.
Il sottospazio vettoriale ortogonale ad un sottospazio vettoriale W di V, rispetto ad una
forma bilineare simmetrica , sar`a indicato, in accordo con lenunciato del Teorema 8.6,
con W . Su alcuni testi, per evitare confusione con il caso particolare del complemento
ortogonale W di un sottospazio vettoriale W di uno spazio vettoriale euclideo (V, ),
si preferisce usare la notazione W 0 come verr`a meglio precisato nellOsservazione 8.9.
Definizione 8.6 Due sottospazi vettoriali W1 e W2 di uno spazio vettoriale reale V si
dicono ortogonali rispetto a Bs (V, R) se ogni vettore di W1 e` ortogonale ad ogni
vettore di W2 , cio`e se e solo se (x, y) = 0, per ogni x W1 e per ogni y W2 .
Osservazione 8.9 Se W e` un sottospazio vettoriale di uno spazio vettoriale V e e`
un prodotto scalare su V, allora la nozione di sottospazio ortogonale rispetto al prodotto
scalare appena introdotta coincide con quella nota di complemento ortogonale (cfr. Def.
5.6). In generale, per`o se non e` un prodotto scalare, lintersezione W W non e`
formata dal solo vettore nullo e non e` detto che la somma dei due sottospazi vettoriali
W + W coincida con V, come nel caso dellesempio che segue.
Esempio 8.14 Se si considera la forma bilineare su R3 con espressione polinomiale
rispetto alla base canonica di R3 :
(x, y) = x1 y1 2x3 y3 2(x1 y2 + x2 y1 ) (x1 y3 + x3 y1 ) 2(x2 y3 + x3 y2 ),
Capitolo 8
355
3
a
b
4 2 , a, b, c R,
A= a
b 2
c
stabilire per quali valori dei parametri a, b, c i due iperpiani vettoriali:
W1 = {(x1 , x2 , x3 ) R3 | x1 2x2 + x3 = 0},
W2 = {(x1 , x2 , x3 ) R3 | 2x1 x3 = 0}
sono ortogonali rispetto a .
Soluzione
u2 = (2, 1, 0).
356
v2 = (0, 1, 0).
(u1 , v1 ) = b + 2c 3 = 0
(u1 , v2 ) = a 2 = 0
(u2 , v1 ) = a + +4b + 2 = 0
(u2 , v2 ) = 2a + 4 = 0.
Risolvendo il sistema lineare cos` ottenuto si perviene allunica soluzione:
a = 2,
b = 0,
3
c= .
2
h R,
con x = (x1 , x2 , x3 , x4 ). Trovare, per ogni valore di h, una base del sottospazio vettoriale ortogonale, rispetto alla forma bilineare simmetrica definita da Q, al sottospazio
vettoriale W = L(u1 , u2 ), dove:
u1 = (1, 0, 1, 0),
Soluzione
u2 = (0, 1, 0, 1).
2 1
1
1
1
0 1 1
.
A=
1 1
0
h
1 1
h
0
(x, u1 ) = x1 + x3 + (1 h)x4 ,
(x, u2 ) = x2 + (1 + h)x3 x4 .
Quindi:
W = {(x1 , x2 , x3 , x4 ) R4 | x1 + x3 + (1 h)x4 = x2 + (1 + h)x3 x4 = 0}.
Capitolo 8
357
a2 = (1 + h, 1, 0, 1).
Definizione 8.7 Si dice nucleo di una forma bilineare simmetrica Bs (V, R) il sottoinsieme V di V formato dai vettori ortogonali a tutti i vettori di V rispetto a e si
indica con ker , in simboli:
ker = {x V | (x, y) = 0, y V }.
Osservazione 8.10 Si presti molta attenzione a non confondere la nozione di nucleo di
una forma bilineare simmetrica con quella di nucleo di unapplicazione lineare (cfr. Def.
6.7). La stessa denominazione data a due sottospazi vettoriali con diversa definizione
e` giustificata dal metodo che si usa per la loro determinazione, come sar`a spiegato nel
Teorema 8.8.
Teorema 8.7 Il nucleo di un forma bilineare simmetrica Bs (V, R) e` un sottospazio
vettoriale di V.
Dimostrazione
Esempio 8.15 Nel caso di un prodotto scalare definito su uno spazio vettoriale reale V
si ha ker = {o}, in quanto il sottospazio vettoriale V formato dai vettori ortogonali a
tutti i vettori di V si riduce a {o} (cfr. Teor. 5.8).
Esercizio 8.4 Applicando il Corollario 8.1 si dimostri che un vettore x appartiene a ker
(ossia (x, y) = 0, per ogni y V ) se e solo se (x, vj ) = 0, j = 1, 2, . . . , n, dove
B = (v1 , v2 , . . . , vn ) e` una base dello spazio vettoriale V su cui e` definita la forma
bilineare simmetrica .
Si osservi che lesercizio appena assegnato, e che segue facilmente dalle definizioni di
bilinearit`a di e di base di uno spazio vettoriale, e` molto importante ai fini del calcolo
del nucleo di una forma bilineare simmetrica, come si dimostra nel seguente teorema.
Teorema 8.8 Sia un elemento di Bs (V, R) e sia A = (aij ), i, j = 1, 2, . . . , n, la
matrice simmetrica associata a , rispetto ad una base B = (v1 , v2 , . . . , vn ) di V,
allora:
ker = N (A),
dove N (A) e` il nullspace della matrice A.
358
Dimostrazione
Il nucleo ker della forma bilineare simmetrica e` formato dai
vettori x di V tali che (x, y) = 0, per ogni y V o, equivalentemente, tali che
(x, vj ) = 0, per ogni j = 1, 2, . . . , n. Posto x = x1 v1 + x2 v2 + . . . + xn vn , si ottiene:
(x, vj ) = (x1 v1 + x2 v2 + . . . + xn vn , vj )
=
=
n
X
i=1
n
X
xi (vi , vj )
aij xi = 0,
j = 1, 2, . . . , n,
i=1
Capitolo 8
359
1
A= 0
2
0 2
1
1 .
1
5
Soluzione
Si determina il nullspace N (A) della matrice A, ovvero si devono determinare i vettori x = (x1 , x2 , x3 ) per cui (x, ej ) = 0, j = 1, 2, 3. Si ottiene x =
(2x3 , x3 , x3 ), al variare di x3 R, e quindi ker = L((2, 1, 1)).
Esercizio 8.6 Sia una forma bilineare simmetrica su R3 . Determinare la matrice associata a rispetto alla base canonica di R3 sapendo che i vettori u = (1, 2, 1) e
v = (1, 1, 0) formano una base di ker e che Q(w) = 8, con w = (1, 0, 1), dove
Q e` la forma quadratica associata a .
Soluzione
Si indichi con:
360
la matrice associata a rispetto alla base canonica di R3 . Poiche (u, v) e` una base di
ker devono valere le condizioni:
(e1 , u) = (e2 , u) = (e3 , u) = 0,
(e1 , v) = (e2 , v) = (e3 , v) = 0,
che corrispondono al sistema lineare omogeneo:
a + a22 = 0
12
a13 + a23 = 0.
(8.10)
(8.11)
Risolvendo quindi il sistema lineare formato dalle equazioni (8.10) e (8.11) si ha come
unica soluzione:
2 2
2
2 2 .
A = 2
2 2
2
Sia una forma bilineare simmetrica su V e sia W un sottospazio vettoriale di V. Se
e` un prodotto scalare il complemento ortogonale W di W ha in comune con W solo il
vettore nullo. In altri termini (x, x) = 0 se e solo se x = o. DallEsempio 8.14 segue
invece che se non e` un prodotto scalare possono esistere vettori non nulli comuni a W
e a W e ci`o giustifica la definizione che segue.
Definizione 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V. Un
vettore x V si dice isotropo per la forma quadratica Q se Q(x) = 0.
Se e` la forma bilineare simmetrica associata a Q, si ha che x V e` isotropo se e solo
se (x, x) = 0. Linsieme dei vettori isotropi della forma quadratica Q verr`a indicato
con:
I = {x V | Q(x) = (x, x) = 0}.
Il nucleo della forma bilineare simmetrica associata alla forma quadratica Q e linsieme
dei vettori isotropi sono legati dal seguente teorema.
Capitolo 8
361
Teorema 8.9 Data una forma bilineare simmetrica su uno spazio vettoriale reale V,
allora:
ker I,
con I insieme dei vettori isotropi della forma quadratica Q associata a . Ovvero, se
un vettore x appartiene a ker , allora x e` un vettore isotropo per la forma quadratica
Q associata a .
Dimostrazione
Osservazione 8.14 1. Linsieme I dei vettori isotropi di una forma quadratica Q su uno
spazio vettoriale reale V, in generale, non e` un sottospazio vettoriale di V, infatti
se x, y I e (x, y) 6= 0, allora x + y non e` un vettore isotropo.
2. Fissata una base B = (v1 , v2 , . . . , vn ) di V, linsieme I pu`o essere descritto come:
(
)
n
X
I = x = x1 v 1 + x2 v 2 + . . . + xn v n V |
aij xi xj = 0 ,
i,j=1
362
Soluzione
Capitolo 8
363
Teorema 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V di dimensione n. Per ogni vettore u V non isotropo si ha:
V = L(u) L(u) ,
dove L(u) = {u} e` il sottospazio vettoriale ortogonale al vettore u rispetto alla forma
bilineare simmetrica associata a Q.
Dimostrazione
Si ha immediatamente:
L(u) L(u) = {o},
in quanto u non e` un vettore isotropo. E` sufficiente quindi provare che L(u) e` uniperpiano vettoriale di V. Siano B = (v1 , v2 , . . . , vn ) una base di V e A = M B (Q) la
matrice simmetrica associata a Q rispetto alla base B. Si indichi con:
u1
u2
U = ..
.
un
la matrice colonna formata dalle componenti del vettore u rispetto alla base B. Si definisce la forma lineare:
u : V R,
y 7 (u, y),
y V,
364
Nel caso delle forme bilineari non degeneri e` possibile dimostrare il teorema che segue
e che, limitatamente al caso della dimensione, coincide con lanalogo risultato enunciato
nel punto 2. del Teorema 5.8 per il complemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo. Si noti che la sua dimostrazione e` la naturale
generalizzazione di quella indicata nellambito euclideo.
Teorema 8.11 Sia una forma bilineare simmetrica non degenere su uno spazio vettoriale V di dimensione n e siaW un sottospazio vettoriale di V, allora:
dim(W ) = n dim(W),
con W sottospazio vettoriale ortogonale di W ripetto a .
Dimostrazione Siano dim(V ) = n e dim(W) = h e sia B = (v1 , v2 , ...., vn ) una
base di V. Se h = 0 allora W = V, da cui segue la tesi. Altrimenti si supponga che
(a1 , a2 , . . . , ah ) sia una base di W . Si indichi con A la matrice simmetrica di ordine n
associata a rispetto alla base B e con C la matrice appartenente a Rh,n le cui righe
sono le componenti dei vettori a1 , a2 , . . . , ah rispetto alla base B. Ricordando che:
W = {x V | (ai , x) = 0, i = 1, 2, . . . , h}
ed indicando con X la matrice colonna formata dalle componenti di x rispetto alla base
B segue che il sistema lineare (ai , x) = 0, i = 1, 2, . . . , h, coincide con:
CAX = O,
dove O indica la matrice nulla di Rh,1 di conseguenza W e` il nullspace della matrice
CA, ossia:
W = N (CA).
La matrice C ha rango h ed A e` una matrice invertibile, in quanto e` non degenere.
Pertanto rank(CA) = h (cfr. Teor. 2.9, punto 1.) e dim(W ) = n h.
8.4
E` gi`a stato osservato nel paragrafo precedente che se e` un prodotto scalare, allora e`
una forma bilineare simmetrica non degenere. Questa condizione per`o non e` sufficiente
per definire il prodotto scalare in termini di una forma bilineare simmetrica, infatti in base
alla definizione di prodotto scalare (cfr. Def. 5.1) una forma bilineare simmetrica su
uno spazio vettoriale V e` un prodotto scalare se e solo se Q(x) 0 per ogni x V
e se lunico vettore isotropo e` il vettore nullo, Q indica la forma quadratica associata a
. Per caratterizzare quindi un prodotto scalare e` necessario aggiungere alla nozione di
forma bilineare simmetrica non degenere anche il segno della forma quadratica Q ad essa
associata. Pi`u precisamente e` necessario enunciare la seguente definizione.
Capitolo 8
365
Definizione 8.11 Una forma quadratica Q (o equivalentemente la forma bilineare simmetrica ad essa associata) su uno spazio vettoriale reale V si dice:
1. definita positiva (negativa) se:
Q(x) 0 ( 0), x V
e Q(x) = 0 x = o;
x V,
ma non si esclude che esistano vettori x V non nulli tali che Q(x) = 0, cio`e che
esistano vettori isotropi non nulli;
3. indefinita se Q(x) ha segno variabile al variare del vettore x di V.
Osservazione 8.16 La forma quadratica nulla Q : V R definita da Q(x) = 0 per
ogni x di V pu`o essere considerata sia semidefinita positiva sia semidefinita negativa.
Osservazione 8.17 In base alla definizione precedente e` un prodotto scalare se e solo
se (o la forma quadratica associata Q) e` definita positiva.
Esempio 8.18 Tenendo conto delle nozioni appena introdotte, e` ora possibile costruire
un prodotto scalare che renda ortogonali due vettori qualsiasi u e v, non nulli e non
paralleli, di uno spazio vettoriale reale V di dimensione n 2. Completando linsieme
libero {u, v} fino ad ottenere una base di V :
B = (u, v, b1 , . . . , bn2 ),
la matrice A associata al prodotto scalare rispetto alla base B si ottiene imponendo che
sia definita positiva, ovvero che valgano le condizioni:
(u, v) = 0,
(u, bi ) = 0, i = 1, 2, . . . , n 2,
(v, bi ) = 0, i = 1, 2, . . . , n 2,
(bi , bj ) = 0, i, j = 1, 2, . . . , n 2,
(u, u) > 0,
(v, v) > 0,
(bi , bi ) > 0, i = 1, 2, . . . , n 2.
Si pu`o quindi osservare che A non e` univocamente determinata, anche se si fissa la base
B, perche si hanno infinite scelte per le lunghezze dei vettori della base. Esistono quindi
infiniti prodotti scalari su V che rendono ortogonali i vettori u e v.
366
(u, v) = 0
(u, u) = 1
(v, v) = 4.
Indicata con A = (aij ) R2,2 la matrice simmetrica associata a rispetto alla base
canonica di R2 , dalle equazioni precedenti si ottiene il sistema lineare:
a12 + a22 = 0
a11 2a12 + a22 = 1
a22 = 4,
che ha come unica soluzione a11 = 5, a12 = a22 = 4, da cui segue che lespressione
polinomiale del prodotto scalare e` :
(x, y) = 5x1 y1 + 4x1 y2 + 4x2 y1 + 4x2 y2 ,
con x = (x1 , x2 ) e y = (y1 , y2 ). Di conseguenza esiste un unico prodotto scalare che
verifica le condizioni assegnate. Si osservi che i due vettori u e v sono ortogonali rispetto
al prodotto scalare appena determinato, ma non sono ortogonali rispetto al prodotto
scalare standard di R2 .
Osservazione 8.18 Una forma bilineare indefinita pu`o essere in generale sia degenere sia
non degenere, ma si vedr`a che il suo nucleo e` sempre strettamente incluso nellinsieme
dei vettori isotropi I, ossia I =
6 {o}.
Teorema 8.12 Sia Q una forma quadratica su uno spazio vettoriale reale V. Se la forma
quadratica Q e` definita (positiva o negativa), allora Q (o equivalentemente la forma
bilineare simmetrica ad essa associata) e` non degenere.
Dimostrazione
Si tratta di dimostrare che ker = {o}. Per ogni vettore x ker e
per ogni vettore y V si ha (x, y) = 0, ci`o implica che Q(x) = 0 ma Q e` definita
positiva (o negativa), dunque x = o.
Osservazione 8.19 Non vale il viceversa del teorema precedente. Infatti, ad esempio, la
forma quadratica dellEsempio 8.17 e` non degenere ma e` indefinita perche Q((1, 0)) = 1
e Q((0, 1)) = 1.
Capitolo 8
367
Esercizio 8.10 Data la forma bilineare simmetrica Bs (R3 , R), definita da:
(x, y) = x1 y1 x1 y2 x2 y1 ,
si determinino la matrice associata, rispetto alla base canonica di R3 , lespressione polinomiale della forma quadratica Q associata a e la si classifichi. Si individui quindi linsieme I dei vettori isotropi di Q e si stabilisca se I sia o meno un sottospazio vettoriale
di R3 .
Soluzione
1 1 0
A = 1 0 0 ,
0 0 0
da cui segue che det(A) = 0, ker = L((0, 0, 1)), e` quindi degenere. La forma
quadratica associata a e` :
Q(x) = x21 2x1 x2 ,
pertanto Q(x) = 0 se e solo se x1 = 0 oppure x1 = 2x2 , quindi:
I = L((0, 0, 1), (0, 1, 0)) L((2, 1, 0), (0, 0, 1)),
di conseguenza I non e` un sottospazio vettoriale di R3 . Q e` indefinita perche per esempio
Q((1, 0, 0)) = 1 > 0 e Q((1, 1, 0)) = 1 < 0.
Osservazione 8.20 Non e` sempre facile come nellEsercizio 8.10 classificare una forma
quadratica senza usare metodi pi`u generali che saranno studiati nel Paragrafo 8.5.
Anche per una forma quadratica si pu`o introdurre, in modo analogo al caso delle applicazioni lineari (cfr. Def 6.10), il concetto di restrizione. Infatti, dati un sottospazio
vettoriale W di uno spazio vettoriale reale V e una forma quadratica Q su V, si pu`o
definire la restrizione di Q a W come la funzione:
Q|W : W R,
E` lasciata per esercizio al Lettore la verifica che la restrizione di una forma quadratica Q
a W e` una forma quadratica su W . Il teorema che segue, la cui dimostrazione e` un facile
esercizio, mette in relazione la classificazione di una forma quadratica e la classificazione
di ogni sua restrizione.
Teorema 8.13 Siano W un sottospazio vettoriale di uno spazio vettoriale reale V e Q
una forma quadratica su V allora:
368
x, y V.
(8.12)
Capitolo 8
369
x, y V.
p
2
p
p
Q(x)Q(y) + Q(y) =
Q(x) + Q(y)
370
8.5
Forme canoniche
In questo paragrafo si dimostrer`a che data una forma quadratica Q su uno spazio vettoriale
reale V e` sempre possibile trovare basi di V rispetto alle quali la matrice associata a Q
e` diagonale. Rispetto a tali basi le corrispondenti espressioni polinomiali sono molto
pi`u semplici e permettono agevolmente di classificare la forma quadratica. Viene cos`
giustificata la seguente definizione.
Definizione 8.12 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridotta in forma canonica se esiste una base B di V rispetto alla quale la matrice D = (dij )
associata a Q sia diagonale. Lespressione polinomiale di Q rispetto alla base B:
Q(x) = d11 x21 + d22 x22 + . . . + dnn x2n ,
dove (x1 , x2 , . . . , xn ) sono le componenti di x rispetto a B, prende il nome di forma
canonica di Q.
Una forma canonica di una forma quadratica Q e` quindi una rappresentazione di Q mediante un polinomio omogeneo privo di termini misti. Dal Teorema 8.4 segue che la
definizione precedente e` equivalente alla seguente.
Definizione 8.13 Sia V uno spazio vettoriale reale di dimensione n. Data una forma
quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q
si dice ridotta in forma canonica se esiste una matrice invertibile P tale che tP AP = D,
con D matrice diagonale.
Si osservi che P e` la matrice del cambiamento di base dalla base B ad una base B 0
rispetto alla quale Q ha come matrice associata la matrice diagonale D. Inoltre, il numero
degli zeri sulla diagonale di una qualsiasi matrice diagonale D associata a Q non cambia
essendo pari a dim(V )rank(A), mentre cambiano gli elementi non nulli sulla diagonale
come si evince dallesempio che segue.
Esempio 8.19 Si consideri la forma quadratica:
Q(x) = x1 x2
(8.13)
1
0
2
A=
.
1
0
2
Capitolo 8
371
(8.14)
lo e` ; il vettore x, in questo caso, ha componenti (x01 , x02 ) rispetto ad una base che realizza
(8.14), infatti esiste una matrice invertibile:
!
1
1
P =
1 1
tale che
t
P AP = D =
0 1
!
.
!
x1
5
3
=
x2
5 3
Si verifica inoltre che tutti i cambiamenti di base:
!
!
x1
a
b
=
x2
a b
(8.15)
y1
!
.
y2
y1
y2
!
,
Esistono infinite forme canoniche di una forma quadratica Q, tra le quali ve ne sono
alcune particolari, come precisato dai seguenti teoremi.
Teorema 8.17 Sia V uno spazio vettoriale reale di dimensione n. Data una forma quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q
ammette una forma canonica del tipo:
Q(x) = 1 y12 + 2 y22 + . . . + n yn2 ,
(8.16)
dove 1 , 2 , . . . , n sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicit`a) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x rispetto ad una base
ortonormale di autovettori di A.
372
Dimostrazione
La matrice A associata a Q, rispetto alla base B, e` simmetrica. Pertanto esiste una matrice ortogonale P tale che:
1 0 . . . 0
0 2 . . . 0
t
P AP = P 1 AP = D = ..
.. . .
.. .
.
. .
.
0 0 . . . n
Con il cambiamento di base X = P Y, tenuto conto che P e` ortogonale, si ricava:
Q(x) = tXAX = t (P Y )A(P Y ) = t Y ( tP AP )Y = t Y D Y
= 1 y12 + 2 y22 + . . . + n yn2 ,
quindi la tesi.
Esempio 8.20 La matrice A associata alla forma quadratica Q considerata nellEsempio
8.19 ha autovalori 1 = 1 e 2 = 1, mentre i coefficienti 5 e 3 della forma canonica (8.15) di Q non sono autovalori di A. Infatti le matrici associate alla stessa forma
quadratica non sono tutte simili (cfr. Oss. 8.3).
Esercizio 8.11 Ridurre a forma canonica la seguente forma quadratica definita su R3 :
Q(x) = 2x21 + x22 4x1 x2 4x2 x3 ,
con x = (x1 , x2 , x3 ).
Soluzione La matrice A associata a Q rispetto alla base canonica B di R3 e la relativa
equazione caratteristica sono rispettivamente:
2 2
0
1 2 ,
A = 2
det(A I) = 3 32 6 + 8 = 0.
0 2
0
Gli autovalori e gli autospazi di A sono:
1 = 1, 2 = 2, 3 = 4, tutti di molteplicit`a 1;
V1 = L((2, 1, 2)), V2 = L((1, 2, 2)), V3 = L((2, 2, 1)),
dai quali si ottiene la base ortonormale B 0 = (f1 , f2 , f3 ) di autovettori con:
2
1 2 2
2
2 1
2 1
, , , f2 =
, ,
, f3 =
, ,
.
f1 =
3 3
3
3 3 3
3
3 3
Capitolo 8
373
0 0
y1
1
Q(x) = y1 y2 y3 0 2 0 y2 = y12 2y22 + 4y32 ,
0
0 4
y3
dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base B 0 , ottenuta con il cambiamento di base:
2 1
2
1
P = 1 2 2 .
3
2 2
1
Definizione 8.14 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridotta in forma normale se e` ridotta a forma canonica ed i coefficienti del polinomio omogeneo che ne deriva sono 1, 0, 1. La sua espressione polinomiale prende il nome di forma
normale.
Per convenzione, nella forma normale di Q si ordinano i termini inserendo prima i coefficienti pari a 1, poi quelli pari a 1 ed infine quelli nulli.
Teorema 8.18 Una forma quadratica Q definita su uno spazio vettoriale V, di dimensione n, ammette sempre una forma normale. Se Q(x) = tXAX, con A matrice associata
a Q rispetto ad una base B di V, il numero dei coefficienti pari a 1, che compare nella
forma normale, e` uguale al numero di autovalori positivi della matrice A, contati con la
relativa molteplicit`a, il numero dei coefficienti pari a 1 e` uguale al numero di autovalori negativi di A, contati con la relativa molteplicit`a, il numero dei coefficienti pari a 0
coincide con la molteplicit`a dellautovalore 0 di A.
Dimostrazione
nica data da:
Per il Teorema 8.17 la forma quadratica Q ammette una forma canoQ(x) = 1 y12 + 2 y22 + . . . + n yn2 ,
dove 1 , 2 , . . . , n sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicit`a) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x di V rispetto ad una base
ortonormale C = (f1 , f2 , . . . , fn ) di autovettori di A. Il numero dei coefficienti i che
sono diversi da zero e` uguale al rango r della forma quadratica Q, quindi e` un invariante
di Q e non dipende dalla matrice A considerata. Salvo un cambiamento di ordine dei
vettori della base C, si pu`o supporre che i primi r coefficienti siano diversi da zero e che
tra essi quelli positivi figurino per primi. Di conseguenza si pu`o porre:
1 = 12 ,
...,
p = p2 ,
2
p+1 = p+1
,
...,
r = r2
374
...,
2
,
Q(fp+1 ) = p+1
Q(fr+1 ) = 0,
...,
Q(fp ) = p2 ,
...,
Q(fr ) = r2 ,
Q(fn ) = 0,
si verifica facilmente che, rispetto alla base C 0 = (f10 , f20 , . . . , fn0 ) con:
f10 =
f1
,
1
f20 =
f2
,
2
...,
fr0 =
fr
,
r
0
fr+1
= fr+1 ,
...,
fn0 = fn ,
la forma polinomiale di Q e` :
0
Q(x) = (y10 )2 + . . . + (yp0 )2 (yp+1
)2 . . . (yr0 )2 ,
(8.17)
Capitolo 8
375
Esercizio 8.12 Si ricavi la forma normale della forma quadratica Q introdotta nellEsercizio 8.11.
Soluzione Avendo calcolato gli autovalori di A e avendo ottenuto che due sono positivi
e uno negativo, si ha subito che la forma normale di Q e` :
1
0
0
z
1
0 z2 = z12 + z22 z32 ,
Q(x) = z1 z2 z3 0 1
0 0 1
z3
con x di componenti (z1 , z2 , z3 ) rispetto ad una base (f10 , f20 , f30 ) che permetta di realizzare
la forma normale di Q, con:
f10 = f1 ,
f20 =
1
f3 ,
2
1
f30 = f2 .
2
Poiche le matrici associate ad una forma quadratica Q non sono tutte simili, il calcolo dei
loro autovalori non e` lunico modo per ridurre a forma canonica una forma quadratica. Nel
Paragrafo 8.8.3 si introdurranno metodi pi`u sofisticati, ma lesercizio che segue mostra
come sia possibile procedere alla riduzione a forma canonica di una forma quadratica
semplicemente utilizzando il metodo del completamento dei quadrati. Ci`o e` dovuto al
fatto che la forma polinomiale di Q non e` altro che un polinomio omogeneo di secondo
grado. Il metodo del completamento dei quadrati (generalmente insegnato nelle scuole
superiori per dimostrare la formula risolutiva delle equazioni di secondo grado) consiste
nel sommare e sottrarre numeri opportuni in modo da far comparire dei quadrati di binomi.
Esercizio 8.13 Ricavare unaltra forma canonica della forma quadratica Q introdotta
nell Esercizio 8.11.
Soluzione Utilizzando il metodo del completamento dei quadrati si pu`o procedere, per
esempio, come segue:
Q(x) = 2(x21 2x1 x2 ) + x22 4x2 x3
= 2(x21 2x1 x2 + x22 ) 2x22 + x22 4x2 x3
= 2(x1 x2 )2 (x22 + 4x2 x3 + 4x23 ) + 4x23
= 2(x1 x2 )2 (x2 + 2x3 )2 + 4x23 .
con x = (x1 , x2 , x3 ). Con il cambiamento di base di equazioni:
376
y1 = x1 x2
y2 = x2 + 2x3
y3 = x3 ,
x1 = y1 + y2 2y3
x2 = y2 2y3
x3 = y3 ,
ossia
x1
1
x2 = 0
x3
0
1 2
y1
1 2 y2 ,
0
1
y3
c2 = (1, 1, 0),
c3 = (2, 2, 1).
Si osservi che C non e` una base ortonormale. Procedendo come nellEsercizio 8.12 si
ricava la stessa forma normale di Q ottenuta in tale esercizio ma rispetto alla base:
1
1
c1 , c3 , c2 .
2
2
Nel paragrafo che segue si dimostrer`a che la forma normale di una forma quadratica e`
unica.
Si enuncia ora il Teorema di GaussLagrange in cui si afferma che mediante il metodo
del completamento dei quadrati si implementa un algoritmo che si pu`o applicare ad ogni
forma quadratica, permettendo cos` la sua classificazione senza ricorrere al calcolo degli
autovalori della matrice ad essa associata, per la dimostrazione si veda ad esempio [18].
Teorema 8.19 Teorema di GaussLagrange Sia Q una forma quadratica su uno
spazio vettoriale V, mediante il metodo del completamento dei quadrati applicato allespressione polinomiale di Q e` possibile determinare una base di V che permette di
scrivere la forma quadratica Q in forma canonica.
8.6
E` possibile a questo punto dello studio delle forme quadratiche enunciare e dimostrare il
fondamentale Teorema di Sylvester che rende plausibile una qualunque scelta di forma
canonica di una forma quadratica ai fini della sua classificazione.
Capitolo 8
377
Teorema 8.20 Teorema di Sylvester Sia V uno spazio vettoriale reale di dimensione
n. Tutte le forme canoniche di una forma quadratica Q su V hanno lo stesso numero p
di coefficienti positivi e lo stesso numero q di coefficienti negativi.
Dimostrazione
Poiche p + q = rank(Q) si ponga p + q = r n e si consideri la
forma normale (8.17) della forma quadratica Q ottenuta nel corso della dimostrazione
del Teorema 8.18 rispetto ad una base C 0 = (f10 , f20 , . . . , fn0 ) di V. Resta da dimostrare
che p dipende solo da Q e non dalla base C 0 . Si supponga allora che esista unaltra base
B = (b1 , b2 , . . . , bn ) di V rispetto alla quale la forma quadratica Q si esprima come:
2
. . . zr2
Q(x) = z12 + . . . + zt2 zt+1
(8.18)
378
Definizione 8.15 Sia Q una forma quadratica definita su uno spazio vettoriale reale V
di dimensione n. Siano p il numero di autovalori positivi (contati con le relative molteplicit`a) di una qualsiasi matrice simmetrica associata a Q e q il numero di autovalori
negativi (contati con le relative molteplicit`a) della stessa matrice, allora la coppia (p, q)
prende il nome di segnatura di Q.
Osservazione 8.24
1. Segue subito dal Teorema 8.20 che la segnatura di una forma
quadratica Q non dipende dalla matrice scelta per la sua determinazione.
2. Da osservare che rispetto alla base C 0 = (f10 , f20 , . . . fn0 ) in cui Q si scrive in forma normale (cfr. dimostrazione del Teorema 8.18) la matrice associata alla forma
quadratica Q e` data da:
Ip
0
0
0
0 ,
M C (Q) = 0 Irp
0
Onr
Capitolo 8
379
E` chiaro che si pu`o applicare questa regola al polinomio caratteristico di una qualsiasi
matrice associata a una forma quadratica perche esso, essendo la matrice simmetrica, ha
tutte le radici reali. Quindi per classificare una forma quadratica Q (o la forma bilineare
simmetrica ad essa associata) si pu`o procedere nel modo seguente:
1. si determina una matrice A associata a Q e se ne calcola il polinomio caratteristico
P () = det(A I).
2. Si scrive P () = s R(), con R(0) 6= 0. Si osservi che:
rank(A) = rank(Q) = n s
e che s e` la molteplicit`a dellautovalore 0.
3. Poiche A e` una matrice simmetrica, per il Teorema Spettrale 7.8 P () ha tutte
radici reali e pertanto si pu`o applicare la regola dei segni di Cartesio. Si contano
le variazioni di segno del polinomio R(), se esse sono p allora R() ha p radici
positive. In conclusione P () ha:
s radici nulle;
p radici positive;
n (p + s) radici negative.
Esercizio 8.14 Determinare la segnatura della forma quadratica Q su R3 definita da:
Q(x) = 2x21 + x22 4x1 x2 4x2 x3 ,
con x = (x1 , x2 , x3 ).
Soluzione
La matrice associata a Q rispetto alla base canonica B di R3 e il relativo
polinomio caratteristico P () sono:
2 2
0
1 2 ,
M B (Q) = 2
P () = 3 + 32 + 6 8.
0 2
0
In P () vi sono due variazioni di segno e 0 non e` una radice. Quindi la forma quadratica
Q e` indefinita, non degenere ed ha segnatura (2, 1).
Le propriet`a che seguono, e che riassumono i risultati ottenuti in precedenza, in realt`a
caratterizzano la segnatura di una forma quadratica attraverso il segno degli autovalori
della matrice ad essa associata.
380
Teorema 8.22 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, e` definita positiva (negativa) se e soltanto se tutti gli autovalori della matrice A
sono strettamente positivi (negativi).
Dimostrazione
Si supponga che Q sia definita positiva. Se per assurdo, fosse ad
esempio 1 0 si avrebbe, scelto x = (1, 0, . . . , 0), che Q(x) = 1 0, con x 6= o,
contro lipotesi. La dimostrazione nel caso in cui Q sia definita negativa e` analoga. Il
viceversa e` ovvia conseguenza dei teoremi di classificazione appena enunciati.
Osservazione 8.25 Conseguenza immediata del teorema precedente e` che un prodotto
scalare su uno spazio vettoriale reale V di dimensione n e` una forma bilineare simmetrica
associata ad una forma quadratica di segnatura (n, 0). Viceversa ogni forma bilineare
simmetrica associata ad una forma quadratica di segnatura (n, 0) e` un prodotto scalare.
Teorema 8.23 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, e` semidefinita positiva (negativa) se e solo se tutti gli autovalori della matrice A
sono non negativi (positivi) e = 0 e` un autovalore di A di molteplicit`a almeno 1.
Teorema 8.24 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, e` indefinita se e solo se la matrice simmetrica reale A ha autovalori di segno
contrario.
Le dimostrazioni dei due teoremi precedenti sono conseguenze delle definizioni di forma
quadratica semidefinita e indefinita e della formula (8.16) del Teorema 8.17.
Riassumendo, le possibili forme normali, le segnature e le classificazioni di una forma
quadratica Q su uno spazio vettoriale di dimensione n (cfr. Teor. 8.20) sono rispettivamente:
(n, 0)
definita positiva,
(p, 0)
semidefinita positiva,
(0, n)
definita negativa,
(0, q)
semidefinita negativa,
indefinita,
0<p<rn
Capitolo 8
381
8.7
382
1. scrivere, rispetto alla base B, la matrice A della forma bilineare simmetrica tale
che siano verificate le seguenti condizioni:
a. (e1 , e1 ) + (e3 , e3 ) = 3,
b. (e1 , e1 ) = 2(e3 , e3 ) = 4(e2 , e3 ),
c. (e1 , e2 ) = (e2 , e3 ),
d. i vettori e3 e v = e1 + e2 + e3 sono ortogonali rispetto a ,
e. il vettore e2 e` isotropo rispetto alla forma quadratica Q associata a .
2. Scrivere lespressione polinomiale della forma quadratica Q associata a .
3. Classificare Q, determinandone la sua forma normale ed una base rispetto alla quale
Q assume tale forma.
4. Dire se i vettori e2 e u = e1 + e2 e3 sono ortogonali rispetto a .
Soluzione
1. Si tratta di determinare gli elementi della matrice A associata a rispetto
alla base assegnata. Poiche A = (aij ) e` una matrice simmetrica e aij = (ei , ej ),
le condizioni a., b., c. equivalgono al sistema lineare:
a11 + a33 = 3
a11 = 2a33 = 4a23
a12 = a23 ,
la cui soluzione e` :
a11 = 2
1
a
=
a
=
12
23
a33 = 1.
La condizione d. equivale a:
1 1 1 A 0 =
1
da cui si ottiene a13
1
1 1 1
2
a13
1
2
a22
a13
1
0 = 0,
2
1
1
1
2
= 3/2. La condizione e. equivale a a22 = 0. Allora, la matrice
Capitolo 8
383
A richiesta e` :
1
2
1
A=
2
3
2
3
2
1
.
2
0
1
2
3
,
4
1
(3 + 2 3),
2
2 =
1
(3 2 3),
2
3 = 0,
1
f1 = (1 + 3, 1 + 3, 2),
2 3
1
f3 = (1, 1, 1),
3
1
f2 = (1 3, 1 3, 2),
2 3
384
e poi operando sulla base ottenuta come spiegato nella dimostrazione del Teorema
8.18, si ottiene la base:
p
f1 , p
f2 , f3 ,
3+2 3
3 + 2 3
rispetto alla quale Q si scrive in forma normale.
4. I vettori dati sono ortogonali, rispetto a , in quanto:
1
0 1 0 A 1 = 0.
1
Esercizio 8.16 In R3 , riferito alla base canonica B = (e1 , e2 , e3 ), si consideri la forma
bilineare simmetrica definita da:
(x, y) = x1 y1 + 6x2 y2 + 56x3 y3 2(x1 y2 + x2 y1 ) + 7(x1 y3 + x3 y1 ) 18(x2 y3 + x3 y2 ),
dove x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ).
1. Scrivere la matrice A associata a rispetto alla base B.
2. Provare che i vettori e01 = e1 , e02 = 2e1 + e2 , e03 = 3e1 + 2e2 + e3 formano una
base B 0 di R3 .
3. Scrivere la matrice A0 associata a rispetto alla base B 0 = (e01 , e02 , e03 ).
4. Scrivere le espressioni polinomiali della forma quadratica Q associata a rispetto
alle basi B e B 0 .
Soluzione
1 2
7
6 18 .
A = 2
7 18
56
2. La matrice P avente sulle colonne, ordinatamente, le componenti dei vettori e01 , e02 , e03
rispetto alla base B :
1 2 3
2 ,
P = 0 1
0 0
1
ha det(P ) = 1, perci`o i vettori e01 , e02 , e03 formano una base B 0 di R3 .
Capitolo 8
385
1
A0 = tP AP = 0
0
0
0
2
0 .
0 1
Esercizio 8.17 Sia V4 uno spazio vettoriale reale riferito alla base B = (v1 , v2 , v3 , v4 ).
1. Determinare la matrice A delle generica forma bilineare simmetrica su V4 tale
che:
a. le restrizioni di ai sottospazi vettoriali W1 = L(v1 , v2 ) e W2 = L(v3 , v4 )
siano le forme bilineari nulle,
b. il vettore u = v1 v2 + 2v4 appartenga a ker .
2. Detto H il sottospazio vettoriale di Bs (V4 , R) generato dalle forme bilineari simmetriche determinate nel punto 1., individuare una base di H.
386
Soluzione
1. In analogia alla definizione di restrizione di forma quadratica ad un sottospazio vettoriale introdotta nel Paragrafo 8.4, si pu`o enunciare la definizione di
restrizione ad un sottospazio vettoriale W di uno spazio vettoriale V di una forma
bilineare simmetrica definita su V come la funzione:
|W : W W R,
data da:
|W (x, y) = (x, y),
x, y W.
0
0 a13 a14
0
0 a23 a24
A=
a13 a23 0
0
a14 a24 0
0
a13 = a23 = h,
0 0 h 0
0 0 h 0
A(h) =
h h 0 0 , h R.
0 0 0 0
Capitolo 8
387
2. Considerando lisomorfismo tra Bs (V4 , R) e lo spazio vettoriale delle matrici simmetriche S(R4,4 ), definito dopo aver fissato la base B in V4 (cfr. Teor. 8.2) si
ha che il sottospazio vettoriale H richiesto e` formato dalle forme bilineari simmetriche associate alle matrici A(h) ricavate nel punto precedente. Di conseguenza
dim(H) = 1 ed una sua base e` per esempio data dalla forma bilineare simmetrica
associata alla matrice A(1).
Esercizio 8.18 Si consideri la funzione:
: R2,2 R2,2 R,
P =
0 1
1
0
,
verificare che rispetto alla base canonica B di R2,2 la forma quadratica Q associata
a e` data da:
Q(X) = 2x1 x3 2x2 x4 ,
con
X=
x1 x2
x3 x4
.
4. Classificare la forma quadratica Q del punto 3., determinare una forma canonica
ed una base B 0 di R2,2 rispetto alla quale Q si scrive in forma canonica.
Soluzione
388
A, B R2,2 .
A, B R2,2 ,
si ottiene tr( tBP A) = tr( tB tP A), vale a dire tr( tBP A tB tP A) = 0, per ogni
A, B R2,2 , da cui:
tr( tB(P tP )A) = 0,
A, B R2,2 .
X = O,
dove O indica la matrice nulla di R2,2 e X una qualsiasi matrice di R2,2 , per questa
verifica si pu`o ricordare lEsempio 5.6. Pertanto P tP = O, ossia la tesi.
3. Si ha:
t
Q(X) = ( X P X) = tr
2x1 x3
x1 x4 x2 x3
x1 x4 x2 x3
2x2 x4
= 2x1 x3 2x2 x4 .
4. La matrice associata alla forma quadratica Q del punto 3., rispetto alla base canonica B di R2,2 , e` :
0
0 1
0
0
0
0 1
.
M B (Q) =
1
0
0
0
0 1
0
0
Capitolo 8
389
con autovalori:
1 = 1,
2 = 1
B =
1
1
1
2
0
0
1
1
0 1
1
,
,
0
1
2
2 1
0
0
1
0
,
2 0
1
1
.
Q e` pertanto una forma quadratica indefinita, non degenere e di segnatura (2, 2).
8.8
8.8.1
In questo paragrafo si vuole definire una corrispondenza biunivoca tra endomorfismi autoaggiunti di uno spazio vettoriale euclideo e forme bilineari simmetriche e dimostrare
che, rispetto a basi opportune, essi sono associati alla stessa matrice. Valgono infatti i
seguenti teoremi.
Teorema 8.25 Se f e` un endomorfismo di uno spazio vettoriale euclideo (V, ) la funzione : V V R, definita da:
(x, y) = x f (y),
x, y V,
(8.19)
390
x, y V.
Capitolo 8
391
2. Sia una forma bilineare simmetrica definita su uno spazio vettoriale V di dimensione n, si indichi con A la matrice associata a rispetto ad una base B di V. Se
si considera su V il prodotto scalare che rende ortonormale la base B, allora la relazione (8.19) definisce un endomorfismo autoaggiunto f (autoaggiunto rispetto al
prodotto scalare appena introdotto) tale che la matrice ad esso associata, rispetto
alla base B, sia A.
Dimostrazione Le dimostrazioni delle due parti del teorema sono analoghe e sono e`
conseguenza della relazione:
(x, y) = tXAY = x f (y) = tXBY,
che esprime in forma matriciale la formula (8.19) scritta rispetto ad una base ortonormale,
dove con X e Y si indicano le matrici colonne delle componenti dei vettori x e y rispetto
alla base B, con A la matrice associata a , rispetto alla base B e con B la matrice
associata ad f, rispetto a B.
Nellesercizio proposto di seguito si intende evidenziare che una matrice simmetrica non
e` necessariamente associata ad un endomorfismo autaggiunto, infatti la relazione tra la
simmetria di una matrice e un endomorfismo autoaggiunto e` legata al prodotto scalare
che si sta considerando. Si conclude il paragrafo determinando, quindi, tutte le matrici
associate ad un endomorfismo autoaggiunto, qualunque sia la base dello spazio vettoriale
euclideo su cui esso e` definito.
Esercizio 8.19
1. Verificare che la forma bilineare simmetrica : R2 R2 R,
con matrice associata A rispetto alla base canonica B = (e1 , e2 ) di R2 data da:
2 1
A=
,
1
1
e` un prodotto scalare su R2 .
2. Dopo aver controllato che lendomorfismo f di R2 con matrice associata B rispetto
alla base canonica di R2 data da:
1 2
B=
2 1
non e` autoaggiunto (rispetto al prodotto scalare definito in 1.), determinare la matrice associata allendomorfismo g aggiunto di f, rispetto alla base B.
Soluzione 1. La forma bilineare simmetrica e` un prodotto scalare in quanto i due
autovalori della matrice A sono entrambi positivi.
392
x, y R2 ,
Teorema 8.28 Sia V uno spazio vettoriale reale di dimensione n su cui e` definito un
prodotto scalare a cui e` associata la matrice simmetrica A Rn,n rispetto ad una
base B di V. La matrice B Rn,n associata ad un endomorfismo f di V autoaggiunto
rispetto al prodotto scalare , ossia tale che:
(f (x), y) = (x, f (y)),
x, y V,
(8.20)
B A = A B.
La dimostrazione del Teorema 8.28 e` un esercizio, e` infatti sufficiente esprimere la formula (8.20) in componenti. E` evidente che se la forma bilineare e` scritta in forma
normale, ossia A = I, con I matrice unit`a di Rn,n , allora la matrice B e` simmetrica.
Si lascia anche per esercizio la determinazione di tutti gli altri casi in cui la matrice B e`
simmetrica.
8.8.2
Dal Teorema 6.19 si ottiene che uno spazio vettoriale reale V di dimensione finita e`
isomorfo al suo spazio vettoriale duale V . Lisomorfismo tra i due spazi vettoriali non
e` per`o canonico, perche per definirlo occorre effettuare la scelta di una base di V, infatti
scelte diverse di basi determinano isomorfismi diversi. In questo paragrafo si dimostra
come si possa introdurre un isomorfismo canonico tra V e il suo duale V tramite una
forma bilineare simmetrica non degenere.
Capitolo 8
393
Ogni forma bilineare su uno spazio vettoriale reale V definisce una coppia di applicazioni lineari f1 , f2 : V V da V nel suo duale V (cfr. Def. 6.12), nel modo
seguente:
f1 (x)(y) = (x, y),
(8.21)
f2 (x)(y) = (y, x), x, y V.
LOsservazione 8.1 garantisce che f1 (x) e f2 (x) sono forme lineari su V, in quanto
f1 (x)(y) = x (y) e f2 (x)(y) = y (x).
Viceversa, e` un facile esercizio verificare che ogni applicazione lineare f : V V
definisce una forma bilineare su V ponendo:
(x, y) = f (x)(y).
(8.22)
x, y V.
Nel caso particolare delle forme bilineari simmetriche non degeneri vale il seguente teorema.
Teorema 8.29 Sia V uno spazio vettoriale reale di dimensione n. Ogni forma bilineare
simmetrica non degenere su V determina un isomorfismo f : V V , definito da
(8.22). Viceversa, ogni isomorfismo f : V V definisce mediante (8.22) una forma
bilineare simmetrica non degenere su V .
Dimostrazione
Per dimostrare il teorema e` sufficiente provare che, se e f sono
legati tra di loro dalla relazione (8.22), allora ker = ker f . Infatti se x ker , allora
(x, y) = 0 per ogni y V, quindi f (x)(y) = 0, per ogni y V , ossia f (x) e` la
forma lineare nulla, pertanto x ker f . Analogamente, si prova che se x ker f , allora
x ker .
8.8.3
Poiche le matrici associate alla stessa forma bilineare simmetrica non sono tutte simili tra
di loro, il calcolo degli autovalori non e` lunico metodo per classificare una forma quadratica, come gi`a osservato nellEsercizio 8.13. In questo paragrafo si introdurranno due
metodi diversi per classificare una forma quadratica che non si basano sul procedimento
di diagonalizzazione di una matrice associata, infatti nel primo metodo si utilizza il calcolo dei minori mentre per il secondo si procede con una opportuna riduzione per righe e
per colonne.
394
Il concetto di minore di ordine k < n di una matrice A Rn,n e` stato introdotto nella
Definizione 2.11 ed e` il determinante di una sottomatrice (quadrata) di ordine k di A.
Definizione 8.16 Sia A S(Rn,n ) una matrice simmetrica. I minori principali di ordine
k (k < n) di A sono i minori che si ottengono considerando sottomatrici formate da k
righe e dalle corrispondenti k colonne. Il minore principale di ordine n coincide con
det(A). I minori principali di NordOvest (N.O.) di ordine k di una matrice simmetrica
A sono i minori principali che si ottengono considerando le prime k righe (e di conseguenza le prime k colonne), vale a dire sono i minori che si ottengono cancellando le
ultime n k righe e le ultime n k colonne.
Esempio 8.22 Si consideri la matrice:
1 2 3
A = 2 1 2 ,
3 2 2
i minori principali di ordine 1 di A sono gli elementi sulla diagonale principale (dati
dallintersezione della prima riga con la prima colonna, oppure seconda riga e seconda
colonna, oppure terza riga e terza colonna):
1,
1,
2.
I minori principali di ordine 2 di A sono tre e sono i determinanti delle matrici ottenute
dalla prima e seconda riga intersecate con la prima e seconda colonna, ossia cancellando
la terza riga e la terza colonna, dalla prima e terza riga con la prima e terza colonna,
cancellando quindi la seconda riga e la seconda colonna, dalla seconda e terza riga con la
seconda e terza colonna, cancellando quindi la prima riga e la prima colonna, vale a dire:
1 2
1 3
1 2
2 1 = 3, 3 2 = 7, 2 2 = 2.
Il minore principale di ordine 3 (tutte e tre le righe) e` det(A) = 5. I minori principali di
N.O. sono invece soltanto:
1 2
= 3 (di ordine 2), det(A) = 5 (di ordine 3).
1 (di ordine 1),
2 1
Usando i minori principali di N.O. si pu`o pervenire agevolmente alla classificazione di
una forma quadratica, come afferma il teorema che segue, per la sua dimostrazione si
veda ad esempio [4].
Capitolo 8
395
Teorema 8.30 Sia V uno spazio vettoriale reale di dimensione n e B una base di V.
Una forma quadratica Q(x) = tXAX su V con A matrice associata a Q rispetto alla
base B e` :
1. definita positiva se e solo se tutti i minori principali di N.O. di A sono positivi;
2. definita negativa se e solo se tutti i minori principali di N.O. di A di ordine pari
sono positivi e tutti i minori principali di N.O. di A di ordine dispari sono negativi;
3. semidefinita positiva se e solo se tutti i minori principali di A sono non negativi e
det(A) = 0;
4. semidefinita negativa se e solo se tutti i minori principali di A di ordine pari sono
non negativi, tutti i minori principali di A di ordine dispari sono non positivi e
det(A) = 0;
5. indefinita se e solo se non si verifica alcuna delle situazioni precedenti.
Esempio 8.23 Si consideri la forma quadratica su R3 , definita rispetto alla base canonica
B = (e1 , e2 , e3 ) di R3 , da:
Q(x) = 4x21 2x1 x2 + 2x22 + 2x2 x3 + 2x23 ,
con x = (x1 , x2 , x3 ). La matrice A associata alla forma quadratica Q rispetto alla base
B e` :
4 1 0
2 1 .
A = 1
0
1 2
I tre minori principali di N.O. sono 4, 7 e 10, quindi la forma quadratica Q e` definita
positiva.
Esempio 8.24 Si consideri la forma quadratica su R4 :
Q(x) = 4x1 x2 + 2x22 + 2x2 x3 + x23 + 4x3 x4 + 2x24 ,
con x = (x1 , x2 , x3 , x4 ). La matrice A associata alla forma quadratica Q rispetto alla
base canonica B = (e1 , e2 , e3 , e4 ) di R4 e` :
0 2 0 0
2 2 1 0
A=
0 1 1 2 .
0 0 2 2
396
R,
coincide con la matrice prodotto tEi A, La matrice tEi non e` altro che la matrice che si
ottiene dalla matrice unit`a sulla quale e` stata eseguita la medesima operazione di riga.
Con le usuali notazioni Ri e Ci si indicano, rispettivamente, le righe e le colonne della
matrice A considerata.
Esempio 8.25 Data la matrice A:
A=
1
2
2
3
,
(8.23)
Capitolo 8
397
Sulla matrice:
2 1
1
2 ,
2
0
2
A=
1
associata alla forma quadratica Q, rispetto alla base canonica di R3 , si operi come segue:
2 1
0 1
1
2
R1 R1 R3
1
0 1
1 R3 R3 2R2
2
2
C1 C1 C3
1 C3 C3 + (1/2) C1
2
2
0
0
2 0 0
0 1 0
1
2
9 C3 C3 2 C2
9
0
0 0
2
2
R3 R3 + (1/2) R1
0
9 2
y
2 3
398
dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base ottenuta tramite la matrice P
nel modo seguente:
1
1 0 0
1
0
C1 C1 C3
0 1 0
0 1 2 = P.
C3 C3 + (1/2) C1
1
C3 C3 2 C2
1 0
0 0 1
2
Attenzione al fatto che 2, 1, 9/2 non sono gli autovalori di A!
8.8.4
Capitolo 8
399
a11 a12
(v1 , v1 ) (v1 , v2 )
!
(v2 , v1 ) (v2 , v2 )
a11 a12
(v1 , v2 )
(v1 , v2 )
a21
a22
!
a21
a22
(v1 , v2 ).
In pratica, il valore di (x1 , x2 ) e` determinato dal suo valore sugli elementi della base (v1 , v2 ), mentre il coefficiente moltiplicativo e` il determinante della matrice avente
come righe le componenti dei vettori. Si osservi inoltre che la matrice:
0
(v1 , v2 )
(v1 , v2 )
400
(8.24)
Capitolo 8
401
402
con i R e quindi:
(x1 , x2 , . . . , xn ) = 2 (x2 , x2 , . . . , xn ) + . . . + n (xn , x2 , . . . , xn ) = 0.
E` stato cos` dimostrato che, se il determinante degli n vettori x1 , x2 , . . . , xn non si annulla, allora gli n vettori sono linearmente indipendenti. Viceversa, si supponga che
linsieme {x1 , x2 , . . . , xn } sia libero e che per assurdo il loro determinante sia uguale a
zero. Poiche (x1 , x2 , . . . , xn ) e` una base di V, si possono scrivere i vettori della base
B = (e1 , e2 , . . . , en ) di V come combinazioni lineari di x1 , x2 , . . . , xn :
Capitolo 8
403
che non corrispondono ai vettori riga della matrice A. Sia la forma n-lineare alternata
tale che (e1 , e2 , . . . , en ) = 1. Per definizione di deteminante si ha:
(v1 , v2 , . . . , vn ) = det(B) (e1 , e2 , . . . , en ) = det(B),
(u1 , u2 , . . . , un ) = det(A) (v1 , v2 , . . . , vn ),
da cui si ottiene:
(u1 , u2 , . . . , un ) = det(A) det(B).
Se si esprimono i vettori u1 , u2 , . . . , un come combinazioni lineari dei vettori della base
B:
n
X
ui =
cik ek , i = 1, 2, . . . , n,
k=1
n
X
aij bjk ,
i, k = 1, 2, . . . , n,
j=1
che e` esattamente lelemento di posto ik del prodotto delle due matrici A e B . Quindi
segue:
(u1 , u2 , . . . , un ) = det(AB)(e1 , e2 , . . . , en ) = det(AB),
ossia la tesi.
404
Capitolo 9
Geometria Analitica nel Piano
Scopo della Geometria Analitica e` la rappresentazione, tramite equazioni, di luoghi geometrici del piano e dello spazio. In questo capitolo si presenta un rapido riassunto della
geometria analitica del piano, cercando di evidenziarne le caratteristiche salienti mediante
luso del calcolo vettoriale, trattato nel Capitolo 3, a cui si far`a costante riferimento. Gli
argomenti di seguito esposti fanno parte dei programmi delle scuole secondarie superiori, anche se in quella sede, non sono in generale introdotti con il metodo qui usato. Per
questo motivo, questo capitolo pu`o essere anche omesso nellinsegnamento di un corso
universitario. Daltra parte per`o lapproccio della geometria analitica nel piano tramite
il calcolo vettoriale sar`a fondamentale nello studio della geometria analitica nello spazio
(cfr. Cap. 11). Vengono, inoltre, definiti due tipi di sistemi di riferimento nel piano: il
riferimento cartesiano ed il riferimento polare. Il loro uso sar`a di primaria importanza in
questo capitolo ed in quello successivo.
9.1
Si inizia con lintroduzione del riferimento cartesiano, costituito da due rette perpendicolari orientate nel piano affine S2 (cfr. introduzione del Cap. 3). Il loro punto di incontro
O e` detto origine del riferimento, la retta orizzontale prende il nome di asse delle ascisse
o asse x, la retta verticale e` lasse delle ordinate o asse y . Si definisce lorientamento
verso destra sullasse x e verso lalto sullasse y , si rappresentano i numeri reali su entrambe le rette e si pone il numero 0 nel punto di intersezione delle due rette. Si viene
cos` a creare una corrispondenza biunivoca tra i punti del piano e le coppie di numeri reali
come rappresentato nella Figura 9.1. La coppia ordinata di numeri reali (x, y) individua
le coordiante cartesiane del punto P e si scrive:
P = (x, y),
405
406
II
I
P
x
O
III
IV
Capitolo 9
407
OP = xi + yj.
(9.1)
(9.2)
x
O
408
9.1.1
Dati due punti A = (xA , yA ), B = (xB , yB ) nel piano, la loro distanza d(A, B) si ottiene
con la formula:
p
d(A, B) = (xB xA )2 + (yB yA )2 ,
(9.3)
la cui dimostrazione e` una conseguenza evidente del Teorema di Pitagora, la situazione
geometrica e` illustrata nella Figura 9.3.
La distanza d(A, B), dal punto di vista del calcolo vettoriale, pu`o essere anche inter
pretata come la norma del vettore AB le cui componenti sono date da (9.2), quindi, la
formula (9.3) segue dal calcolo della norma di un vettore mediante le sue componenti
scritte rispetto ad una base ortonormale (cfr. Oss. 3.14).
Esercizio 9.1 Calcolare le coordinate del punto P appartenente allasse x ed equidistante
dai punti A = (1, 3), B = (5, 1).
Soluzione Il punto P appartiene allasse x se ha ordinata uguale a 0, ossia P = (x, 0),
imponendo d(A, P ) = d(B, P ) si ha:
(x 1)2 + 32 = (x 5)2 + 12
da cui segue x = 2.
9.1.2
9.1.3
Baricentro di un triangolo
Capitolo 9
409
4
3
2
1
-1
G
1
-1
-2
-3
9.2
Linsieme dei punti del piano che verificano una determinata propriet`a costituisce un luogo geometrico. In questo paragrafo si descrivono due luoghi geometrici del piano: lasse
di un segmento e la circonferenza. Si rimanda al Capitolo 9 del Volume II, per lo studio
di altri luoghi geometrici del piano.
Esempio 9.1 Asse di un segmento Dati due punti distinti nel piano A = (xA , yA ),
B = (xB , yB ), lasse del segmento AB e` il luogo geometrico dei punti P = (x, y)
equidistanti da A e da B . Quindi dalla relazione d(A, P ) = d(B, P ) segue:
(x xA )2 + (y yA )2 = (x xB )2 + (y yB )2 ,
da cui:
2(xA xB )x + 2(yA yB )y + x2B + yB2 x2A yA2 = 0,
che e` lequazione del luogo richiesto. Si osservi che si tratta di unequazione di primo
grado in x e y e si osservi anche che, dal punto di vista geometrico, lasse di un segmento
e` la retta perpendicolare al segmento nel suo punto medio M, come rappresentato nella
Figura 9.5. Si ritorner`a su questo argomento nel Paragrafo 9.9.
Esempio 9.2 La circonferenza La circonferenza di centro C e raggio r e` il luogo
dei punti P = (x, y) del piano aventi distanza r 0 dal punto C = (, ). Imponendo:
d(P, C)2 = r2
410
r
C
Capitolo 9
411
si ottiene:
x2 + y 2 2x 2y + 2 + 2 r2 = 0.
Si tratta di una particolare equazione di secondo grado in x e y che sar`a studiata in
dettaglio nel Paragrafo 10.1.
Ricordando che il gruppo delle matrici unitarie U (1) (cfr. Es. 5.22) e` definito da:
U (1) = {z C | |z| = 1}
ed usando lidentificazione tra i numeri complessi ed il punti del piano data da:
z = x + iy = (x, y),
z C,
segue che gli elementi di U (1) costituiscono la circonferenza nel piano di centro lorigine
e raggio 1.
Pu`o rivelarsi molto pi`u complicato il problema inverso, vale a dire, data unequazione in
x e y, studiare il luogo geometrico individuato dai punti P = (x, y) che la verificano. A
tale scopo si procede proponendo una serie di esempi ed esercizi.
Esercizio 9.2 Verificare che la curva di equazione:
y = x2 + x + 3
(9.4)
passa per i punti A = (1, 1), B = (2, 1), non passa per O = (0, 0) e nemmeno per
C = (5, 0).
Soluzione Un punto appartiene al luogo geometrico descritto dallequazione (9.4) se e
solo se le sue coordinate verificano lequazione stessa. Quindi A appartiene alla curva
data perche 1 1 + 3 = 1, verifica analoga per B . Lorigine, invece, non appartiene a
questa curva perche 3 6= 0, analoga verifica per C.
Esercizio 9.3 Come si fa a capire se lorigine del sistema di riferimento appartiene ad un
luogo geometrico?
Soluzione Dalle considerazioni precedenti segue che tutte e sole le equazioni in x, y
con termine noto uguale a zero rappresentano luoghi geometrici passanti per lorigine.
Per esempio x2 + 2x = 0 e` una curva passante per O.
Esercizio 9.4 Determinare i punti P = (a, a + 3), a R, appartenenti alla curva di
equazione:
2y 2 9(x + 2) = 0.
(9.5)
412
Soluzione
9.3
Riferimento polare
Per rappresentare i punti nel piano si possono usare, oltre alle coordinate cartesiane, altri
tipi di coordinate, tra cui le coordinate polari, la scelta del sistema di riferimento e` legata
alla problematica che si sta studiando.
Si intende, quindi, introdurre la nozione di riferimento polare nel piano, che e` un sistema
di riferimento alternativo al riferimento cartesiano per individuare la posizione dei punti
nel piano. Esso e` costituito da un punto O, detto polo, e da una semiretta orientata
uscente da O, detta asse polare. E` chiaro che ogni punto P del piano (ad eccezione del
polo) si pu`o individuare mediante la sua distanza = d(P, O) dal polo e mediante la
misura dellangolo , detto anomalia, che il segmento OP forma con lasse polare, con
le condizioni 0 e 0 < 2 . Tale distanza prende il nome di raggio vettore.
Riassumendo ogni punto del piano, ad eccezione del polo, e` individuato da una sola
coppia di numeri:
P = (, ), 0, 0 < 2,
che ne costituiscono le sue coordinate polari nel piano. La situazione geometrica e`
illustrata nella Figura 9.7.
Per esempiola circonferenza di centro il polo e raggio 2 ha equazione, in coordinate
polari, = 2.
Si vogliono ora individuare le relazioni che legano le coordinate polari e le coordinate cartesiane di uno stesso punto rispetto ad un riferimento polare e ad un riferimento
cartesiano opportunamente posizionati. Introducendo, infatti, un sistema di riferimento
cartesiano R = (O, x, y) avente lorigine O coincidente con il polo e lasse x con lasse
polare, si perviene, facilmente, alle formule di passaggio dalle coordinate polari (, ) a
quelle cartesiane (x, y) di un generico punto P del piano, e precisamente:
x = cos
(9.6)
y = sin , 0, 0 < 2.
La situazione geometrica e` illustrata nella Figura 9.8.
Capitolo 9
413
414
k Z,
che prendono il nome di coordinate polari generalizzate del punto P del piano.
9.4
Un altro metodo che pu`o essere utile nello studio dei luoghi geometrici e` quello di scrivere lequazione del luogo in un nuovo sistema di riferimento ottenuto mediante una
traslazione degli assi.
y
Y
P
O'
Capitolo 9
415
(9.7)
oppure:
X = x x0
Y = y y0 .
x=X +1
y = Y + 2,
(9.8)
x=X+
3
y=Y + ,
3
416
Esercizio 9.6 Un punto P ha coordinate (2, 3) nel riferimento R = (O, x, y) e coordinate (4, 6) nel riferimento traslato R = (O0 , X, Y ). Determinare le coordinate del
punto O0 rispetto al sistema di riferimento R = (O, x, y).
Soluzione
da cui segue:
2x0 + 3 = 0
x20 3x0 + 2 + y0 = 0
Capitolo 9
Tramite la traslazione:
417
X =x+1
Y =y+3
2
si ottiene, nel nuovo riferimento, lequazione:
X2 + Y 2 =
13
4
9.5
3
1,
2
e raggio
13
.
2
Simmetrie
Un altro metodo per studiare il grafico di una curva, di cui si conosce lequazione, e`
cercarne le eventuali simmetrie rispetto agli assi coordinati o rispetto allorigine del riferimento.
P'
9.5.1
Una curva e` simmetrica rispetto allasse y se per ogni punto P = (x, y) appartenente
alla curva anche il punto P 0 = (x, y) appartiene alla curva. Per esempio la curva di
equazione x2 + y + 5 = 0 e` simmetrica rispetto allasse y mentre la curva di equazione
x2 + x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura 9.10.
418
9.5.2
Una curva e` simmetrica rispetto allasse x se per ogni punto P = (x, y) appartenente
alla curva anche il punto P 0 = (x, y) appartiene alla curva. Per esempio la curva di
equazione x + y 2 + 5 = 0 e` simmetrica rispetto allasse x mentre la curva di equazione
x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura 9.11.
P
x
P'
Figura 9.11: Curva simmetrica rispetto allasse delle ascisse
9.5.3
Una curva e` simmetrica rispetto allorigine del riferimento se per ogni punto P = (x, y)
appartenente alla curva anche il punto P 0 = (x, y) appartiene alla curva. Per esempio
la curva di equazione x2 + y 2 = 5 e` simmetrica rispetto allorigine mentre la curva di
equazione x2 + x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura
9.12.
Esercizio 9.9 Verificare che la curva di equazione x3 + y 3 + 3x 2y = 0 e` simmetrica
rispetto allorigine.
Soluzione Si sostituiscono le coordinate del punto P 0 = (x, y) nellequazione della
curva e si ha:
(x)3 + (y)3 + 3(x) 2(y) = (x3 + y 3 + 3x 2y) = 0,
da cui si deduce che la curva assegnata e` simmetrica rispetto allorigine.
Pi`u in generale, come spiegato nellesercizio che segue, si pu`o considerare la simmetria
rispetto ad un punto qualsiasi del piano.
Capitolo 9
419
P'
(9.9)
420
4X 2 + 9Y 2 = 108
che definisce una curva simmetrica rispetto allorigine del riferimento R0 = (C, X, Y ),
si tratta dellellisse rappresentato in Figura 9.13.
9.6
In questo paragrafo sono descritti metodi diversi per rappresentare una retta nel piano
rispetto ad un riferimento cartesiano R = (O, x, y), o equivalentemente R = (O, i, j).
Una retta r nel piano si pu`o individuare, alternativamente, assegnando:
1. un punto P0 della retta r ed un vettore r non nullo parallelo a r;
2. un punto P0 della retta r ed un vettore n non nullo ortogonale a r;
3. due punti distinti A e B della retta r.
In particolare si dimostrer`a che ogni equazione lineare in x e y del tipo ax + by + c = 0,
con a, b, c R, (a, b) 6= (0, 0), rappresenta una retta. Viceversa ogni retta del piano e`
rappresentabile tramite unequazione lineare in x, y del tipo suddetto.
r
P
P0
Capitolo 9
9.6.1
421
appartiene alla retta r se e solo se il vettore P0 P e` parallelo al vettore r (cfr. Fig. 9.14).
Risulta:
r = {P S2 | P0 P = t r, t R},
ossia:
r : P = P0 + t r,
t R.
(9.10)
x = x0 + lt
y = y0 + mt,
(9.11)
t R,
b =
cos(rj)
m
l2 + m2
(cfr. Oss. 3.14). Inoltre, i coseni direttori sono individuati a meno del segno.
422
Esercizio 9.11 Determinare le equazioni parametriche della retta r passante per il punto
P0 = (1, 3) e parallela al vettore r = 2i 5j e calcolarne i coseni direttori.
Soluzione
(9.12)
b = 5 .
cos(rj)
29
9.6.2
appartiene alla retta se e solo se il vettore P0 P e` ortogonale a n (cfr. Fig. 9.15) Si ha:
r = {P S2 | P0 P n = 0},
(9.13)
(9.14)
(9.15)
che e` detta equazione cartesiana di r, dove (a, b) 6= (0, 0) sono le componenti di un qualsiasi vettore non nullo ortogonale a r e sono date a meno di una costante di proporzionalit`a
non nulla.
Capitolo 9
423
n
P
P0
a = m
b = l,
R {0}.
Il teorema che segue caratterizza tutte le rette del piano tramite equazioni lineari in x e y .
Teorema 9.1 Ogni equazione lineare in x e y del tipo (9.15) rappresenta una retta ed e`
individuata a meno di un fattore moltiplicativo non nullo.
Dimostrazione
Si e` gi`a dimostrato che una retta nel piano pu`o essere rappresentata
mediante unequazione lineare in x, y . Viceversa, considerata lequazione lineare (9.15),
se (a, b) 6= (0, 0) esiste almeno un punto P0 = (x0 , y0 ) del piano le cui coordinate la
verificano, ossia c = ax0 + by0 . Sostituendo in (9.15) si ha:
a(x x0 ) + b(y y0 ) = 0.
(9.16)
424
Lequazione (9.16) coincide con (9.14) e, quindi, rappresenta la retta passante per il punto
P0 ortogonale al vettore ai + bj. Inoltre, per 6= 0 le due equazioni (9.15) e
(ax + by + c) = 0
rappresentano la stessa retta.
Esercizio 9.12 Scrivere lequazione cartesiana della retta ottenuta nellEsercizio 9.11.
Soluzione
da cui:
5x + 2y 1 = 0.
Esercizio 9.13 Data la retta r di equazione 2x 7y + 5 = 0, determinare un vettore
parallelo a r ed un vettore ad essa ortogonale.
Soluzione I vettori richiesti sono ad esempio, rispettivamente, r = 7i + 2j, n =
4i 14j, ma ogni altro vettore ad essi parallelo (ad eccezione del vettore nullo) risolve
lesercizio.
9.6.3
Dati due punti distinti A = (xA , yA ), B = (xB , yB ) nel piano, la retta r passante per A
t R.
(9.17)
Lequazione (9.17) cos` ottenuta e` lequazione cartesiana della retta passante per i punti A
e B . Se xB xA = 0, i punti A e B hanno la stessa ascissa e quindi la retta ha equazione
cartesiana x xA = 0. Analogamente se yB yA = 0, la retta ha equazione cartesiana
y yA = 0.
Capitolo 9
425
(9.18)
e:
7x + 5y 3 = 0.
Si osservi che se in (9.18) si limita t allintervallo chiuso [0, 1] si descrivono tutti e soli i
punti del segmento AB , estremi compresi.
426
9.6.4
Rette particolari
Dal paragrafo precedente appare chiaro che tutti e soli i punti appartenenti allasse x sono
caratterizzati dallavere ordinata nulla, quindi lasse x ha equazione cartesiana y = 0. La
stessa equazione si ottiene se si considera che lasse x e` una retta, passante per lorigine,
parallela al versore i e perpendicolare al versore j. Analoga considerazione vale per lasse
y che ha equazione x = 0.
Di conseguenza, ogni retta parallela allasse x (e quindi al versore i) ha equazione cartesiana:
y = k,
con k R fissato, ed equazioni parametriche:
x = t,
y = k, t R,
cio`e x varia in R e y rimane costante.
Ogni retta parallela allasse y ha equazione cartesiana:
x = h,
con h R fissato, ed equazioni parametriche:
x=h
y = t, t R.
La bisettrice del primo e terzo quadrante passa per i punti P = (x, x) che hanno ascissa
uguale allordinata, quindi ha equazione:
y = x.
Infatti, questa retta e` parallela al vettore r = i+j. Analogamente, la bisettrice del secondo
e quarto quadrante passa per i punti P = (x, x), quindi ha equazione:
y = x
ed e` parallela al vettore r = i j.
9.6.5
Capitolo 9
427
q
A
c
a
(9.20)
p= , q= .
b
b
Il numero p prende il nome di coefficiente angolare di r, tale denominazione e` motivata
dalle seguenti considerazioni geometriche. Si consideri una generica retta passante per
lorigine e per i punti A = (xA , yA ), B = (xB , yB ). Se e` langolo che la retta data
forma con lasse x e` chiaro che:
yA
yB
=
= tan .
xA
xB
p R,
428
9.7
Il calcolo vettoriale risulta essere un strumento molto utile per studiare le questioni relative ad angoli tra rette, quindi in particolare il parallelismo e lortogonalit`a, trattate in
questo paragrafo.
9.7.1
Due rette:
r : ax + by + c = 0,
r 0 : a0 x + b 0 y + c 0 = 0
(9.21)
r 0 : y = p0 x + q 0
Capitolo 9
9.7.2
429
Due rette:
r : ax + by + c = 0,
r 0 : a0 x + b 0 y + c 0 = 0
r 0 : y = p0 x + q 0
= 1,
pp0 = tan tan 0 = tan tan +
2
dove e 0 indicano, rispettivamente, gli angoli che le rette r e r0 formano con lasse
delle ascisse.
Esercizio 9.16 Condurre dal punto A = (3/4, 2) la retta r parallela allasse y e dal
punto B = (2/5, 4/3) la retta s parallela allasse x. Detto C il loro punto di intersezione,
determinare la lunghezza del segmento OC .
Soluzione
3
,
4
s: y=
4
,
3
9
16
+
=
16
9
337
.
12
Esercizio 9.17 Determinare lequazione della retta passante per A = (2, 3) e perpendicolare alla retta di equazione y = 2x 1.
430
a R,
(9.22)
a 6=
1
,
2
2a
1 2a
= 1.
Capitolo 9
9.7.3
431
Siano:
r : ax + by + c = 0,
r 0 : a0 x + b 0 y + c 0 = 0
[
due rette nel piano. Langolo (r,
r0 ) tra le due rette coincide con langolo formato da
due vettori ad esse ortogonali. Da osservare quindi che se e` langolo tra i due vettori
n = (a, b), n0 = (a0 , b0 ), le due rette formano anche langolo , in quanto i due
vettori ortogonali alle due rette possono avere qualsiasi verso. Pertanto il valore di uno
dei due angoli tra le due rette r e r0 e` determinato da:
[
cos (r,
r0 ) =
aa0 + bb0
n n0
=
.
knk kn0 k
a2 + b2 a02 + b02
x = x0 + lt
y = y0 + mt,
t R,
r :
x = x00 + l0 t0
y = y00 + m0 t0 ,
t0 R,
9.7.4
r r0
ll0 + mm0
p
=
.
krk kr0 k
l2 + m2 (l0 )2 + (m0 )2
Dalla geometria euclidea segue che due rette nel piano possono essere:
1. parallele e coincidenti;
2. parallele e distinte;
3. incidenti.
Dal punto di vista algebrico si risolve il problema della determinazione della posizione
reciproca di due rette r e r0 studiando le soluzioni del sistema lineare di due equazioni in
due incognite:
ax + by + c = 0
(9.23)
a0 x + b0 y + c0 = 0,
dato dalle equazioni delle due rette:
r : ax + by + c = 0,
r0 : a0 x + b0 y + c0 = 0.
432
Dal metodo di riduzione di Gauss, applicato alla matrice A dei coefficienti e alla matrice
(A | B) completa del sistema lineare (9.23), segue:
a b c
a
b
c
(A | B) =
.
a0 b0 c0
R2 aR2 a0 R1
0 ab0 a0 b ac0 + a0 c
Si distinguono cos` i due casi:
1. rank(A) = 1, cio`e a0 b ab0 = 0 (cfr. (9.21)), ossia se a0 6= 0, b0 6= 0:
a
b
=
,
a0
b0
vale a dire i vettori n e n0 ortogonali alle due rette sono paralleli che e` la condizione
di parallelismo tra le due rette. Si presentano due possibilit`a:
a. rank(A | B) = 1 cio`e ac0 a0 c = 0, ossia se a0 6= 0, c0 6= 0:
a
c
= 0,
0
a
c
il sistema lineare ammette infinite soluzioni che dipendono da unincognita libera, ma le condizioni poste equivalgono a richiedere che le due rette
siano coincidenti (i coefficienti delle loro equazioni sono ordinatamente in
proporzione).
b. rank(A | B) = 2 cio`e ac0 a0 c 6= 0, ossia (a/a0 ) 6= (c/c0 ); il sistema lineare
e` incompatibile. Le condizioni imposte equivalgono pertanto a richiedere che
le due rette siano parallele ma non coincidenti.
2. rank(A) = 2 cio`e a0 b ab0 6= 0, vale a dire i vettori n e n0 non sono paralleli, il sistema lineare ammette una sola soluzione. La condizione imposta equivale a richiedere che le due rette non siano parallele, quindi sono incidenti, e, di conseguenza,
si intersecano in un solo punto.
In modo equivalente a quanto descritto, anziche studiare il sistema lineare (9.23), per individuare la posizione reciproca delle rette r e r0 si pu`o considerare la posizione reciproca
dei due vettori n = (a, b) ortogonale ad r e n0 = (a0 , b0 ) ortogonale a r0 . Si presentano i
seguenti casi:
1. n e n0 sono paralleli (vale a dire hanno le componenti ordinatamente in proporzione), quindi le due rette sono parallele. Si consideri un punto P0 = (x0 , y0 ) qualsiasi
di r, se P0 appartiene anche alla retta r0 (in formule a0 x0 + b0 y0 + c0 = 0) allora r
e r0 sono coincidenti, altrimenti sono parallele e distinte.
Capitolo 9
433
2. n e n0 non sono paralleli, allora le due rette sono incidenti. Per determinare il loro
punto di intersezione si deve risolvere il sistema lineare (9.23) per esempio usando
il Teorema di Cramer (cfr. Teor. 2.20).
Esercizio 9.20 Discutere, al variare di k R, la posizione reciproca delle rette:
r : (2k 1)x + y 3k = 0,
Soluzione
incognite:
r0 : 3kx 2y + k 1 = 0.
(2k 1)x + y 3k = 0
3kx 2y + k 1 = 0
2k1 1
3k
2k1
1
.
3k
2 k+1
R2 R2 + 2R1
7k2 0 5k+1
Si distinguono cos` due casi:
1. se k 6= 2/7 esiste una sola soluzione, quindi le due rette sono incidenti.
2. Se k = 2/7 le rette sono parallele ma mai coincidenti in quanto 5k + 1 6= 0.
Esercizio 9.21 Date le rette:
r1 : 4x + y 8 = 0,
r2 : 3x 2y + 2 = 0
4x + y 8 = 0
3x 2y + 2 = 0
434
9.7.5
P0
r
n
H
P1
P1 P0 n
d(P0 , r) =
.
(9.24)
knk
Si osservi che il valore d(P0 , r) cos` determinato esprime la distanza con segno del punto
P0 dalla retta r. Il segno e` positivo se P0 si trova nello stesso semipiano in cui punta il
verso del vettore n, altrimenti il segno e` negativo.
In coordinate, la formula (9.24) diventa:
Capitolo 9
1. a denominatore: knk =
435
a2 + b 2 ;
2. a numeratore:
ax0 + by0 + c
.
a2 + b2
(9.25)
9.8
Fasci di rette
436
x = k,
Per esempio y = 3x + q , per ogni q reale, individua tutte e sole le rette del piano parallele
alla retta y = 3x.
10
-10
-5
10
-5
-10
r0 : a0 x + b0 y + c0 = 0
due rette incidenti nel punto P0 = (x0 , y0 ). Il fascio proprio di rette di centro P0 e` dato
dalla combinazione lineare:
F : (ax + by + c) + (a0 x + b0 y + c0 ) = 0,
, R, (, ) 6= (0, 0).
(9.26)
Capitolo 9
437
, R, (, ) 6= (0, 0),
(9.27)
individuare:
1. il centro del fascio;
2. la retta del fascio passante per il punto A = (0, 7);
3. la retta del fascio perpendicolare alla retta di equazione x + y + 1 = 0.
Soluzione 1. Il centro del fascio e` il punto C intersezione delle rette di equazione
x 2y 2 = 0 e x + y = 0, si ottiene C = (2/3, 2/3).
2. Nellequazione (9.27) si impone il passaggio per A, ottenendo 12 7 = 0, da
cui si ha, per esempio = 7, = 12 che sostituiti in (9.27) portano alla retta di
equazione 19x 2y 14 = 0.
438
-6
-4
-2
-2
-4
-6
-8
+
2
9.9
B = (2, 3).
Soluzione Il procedimento da usare e` gi`a stato spiegato nel Paragrafo 9.2, in alternativa
si pu`o determinare lequazione della retta perpendicolare al segmento AB nel suo punto
medio M dato da:
3 + 2 5 3
1
M=
,
= ,1 .
2
2
2
Capitolo 9
439
x = + 8t
2
y = 1 + 5t,
t R,
e la sua equazione cartesiana e` 10x 16y + 21 = 0.
Esercizio 9.25 Date le rette:
s : 7x 24y 6 = 0
r : 3x + 4y + 2 = 0,
=
,
9 + 16
49 + 576
da cui si ottengono le rette:
b2 : 11x 2y + 2 = 0.
b1 : 2x + 11y + 4 = 0,
In modo alternativo, si possono ottenere le equazioni delle due bisettrici come le rette
passanti per il punto di intersezione delle due rette date e parallele ai vettori bisettori dei
vettori r e s rispettivamente paralleli alle rette r e s. Si ha r = (4, 3), s = (24, 7) e i
due vettori bisettori degli angoli formati da r e da s sono:
4 3
24 7
44
8
vers r + vers s =
,
+
,
=
,
,
5 5
25 25
25 25
vers r vers s =
4 3
,
5 5
24 7
,
25 25
4
22
= ,
.
25 25
Il punto di intersezione delle rette r e s e` la soluzione del sistema lineare delle loro
equazioni cartesiane ed e` (6/25, 8/25), di conseguenza le equazioni parametriche
440
b1 :
x = 25 + 11t
y = 2t,
25
b2 :
x = 25 2t
y = 11t0 ,
25
t R,
t0 R.
s : x y 3 = 0,
r
M
A
M'
M''
t
Capitolo 9
9.10
9.10.1
Rette immaginarie
441
442
Teorema 9.2 Una retta r e` reale se e solo se coincide con la propria coniugata r.
Dimostrazione
Si supponga che la retta r abbia equazione ax + by + c = 0, con
a, b, c C. Si vuole dimostrare che la terna (a, b, c) e` proporzionale (con coefficiente di
proporzionalit`a complesso non nullo) ad una terna di numeri reali se e solo se r = r. Le
due rette r e r coincidono se e solo se:
a b c
rank
= 1.
a b c
Osservando che:
rank
a b c
a b c
= rank
= rank
,
dove con Re(a) si indica la parte reale di a e con Im(a) si indica la parte immaginaria di
a, si ha la tesi.
Osservazione 9.6 Ogni retta reale ha infiniti punti reali, ma contiene anche infiniti punti
immaginari. Inoltre, se P = (x0 , y0 ) e` un punto non reale, ovvero P 6= P , dove con P
di indica il punto coniugato di P avente coordinate (x0 , y 0 ), la retta passante per P e P
e` necessariamente reale.
Esempio 9.5 La retta passante per P = (1+i, 1+2i) e per P = (1i, 12i) ha
equazione 2x y + 1 = 0. Si osservi che la retta precedente contiene i punti immaginari:
(1 + i, 1 + 2i),
al variare di R {0}.
Esercizio 9.27 Verificare che lequazione x2 + y 2 = 0 rappresenta una coppia di rette
immaginarie coniugate.
Soluzione
Si ha:
x2 + y 2 = (x + iy)(x iy) = 0,
Capitolo 9
443
Teorema 9.3 Una retta immaginaria (o non reale) possiede al pi`u solo un punto reale.
Dimostrazione
Se una retta r : ax + by + c = 0 e` immaginaria e quindi non e` reale,
allora o le due rette r e r sono parallele non coincidenti, ossia non si intersecano in alcun
punto, oppure si intersecano in un solo punto, che deve essere reale. Infatti il punto P
intersezione di r e di r coincide con il punto P intersezione di r e r. Sia nel caso in cui
r e r siano parallele sia nel nel caso in cui non lo siano si ha:
rank
a b c
a b c
= 2,
a b
a b
= 1,
da cui segue che le due rette r e r non si intersecano quindi sono prive di punti reali e
la coppia (a, b) e` proporzionale (con coefficiente di proporzionalit`a complesso non nullo)
ad una coppia di numeri reali. Nel secondo caso:
rank
a b
a b
=2
444
Capitolo 10
Riduzione a Forma Canonica delle
Coniche
Scopo di questo capitolo e` lo studio delle coniche nel piano, ossia di tutte le curve del
piano che sono rappresentabili mediante unequazione di secondo grado nelle incognite
x, y. Il primo esempio di conica presentato e` quello della circonferenza, la cui equazione
e` gi`a stata ottenuta nel Capitolo 9 come luogo geometrico di punti. Ma la parte determinante di questo capitolo e` lapplicazione della teoria di riduzione a forma canonica di una
forma quadratica (cfr. Cap. 8) allo studio delle coniche allo scopo di poter riconoscere,
a partire da una generica equazione di secondo grado in due incognite, la conica che essa
rappresenta. Questa teoria sar`a nuovamente applicata nel Capitolo 12 per lo studio delle quadriche nello spazio, che non sono altro che superfici che si possono rappresentare
mediante unequazione di secondo grado nelle incognite x, y, z ed e` facilmente generalizzabile anche nel caso di spazi affini di dimensione superiore a 3. In tutto il capitolo si far`a
uso delle notazioni introdotte nei capitoli precedenti, in particolare si considerer`a il piano
affine S2 su cui si introdurr`a un riferimento cartesiano R = (O, x, y), o equivalentemente
R = (O, i, j), dove B = (i, j) e` la base ortonormale positiva dello spazio vettoriale V2
definita dal riferimento R.
10.1
In questo paragrafo si intende studiare lequazione della circonferenza nel piano affine S2
e le posizioni reciproche tra circonferenza e retta e anche tra due circonferenze. Successivamente, in modo analogo al caso dei fasci di rette definiti nel Capitolo 9, si introducono
i fasci di circonferenze e si ricavano le loro propriet`a.
Fissati un punto C nel piano e un numero reale positivo r, si e` gi`a visto nel Paragrafo 9.2
445
446
che la circonferenza di centro C e raggio r e` il luogo geometrico dei punti P del piano
tali che:
d(P, C) = r.
Se r = 0 la circonferenza si riduce ad un solo punto che coincide con C.
La circonferenza di centro C = (, ) e raggio r 0, rispetto ad un riferimento
cartesiano R = (O, x, y), ha equazione cartesiana:
(x )2 + (y )2 = r2 ,
che pu`o essere riscritta come:
x2 + y 2 2x 2y + = 0,
(10.1)
a, b, c R,
(10.2)
non sempre rappresenta una circonferenza nel piano. Infatti, confrontando le equazioni
(10.1) e (10.2) si ottiene che il centro C in (10.2) ha coordinate:
b
a
C = ,
2
2
e il raggio r in (10.2) e` dato da:
r
r=
a2 + b2 4c
,
4
(10.3)
Capitolo 10
447
r = d(C, O) = 13,
oppure applicando la formula (10.3).
In C2 il centro e` C = (2, 3), ma C2 e` una circonferenza immaginaria infatti si ha
16 + 36 120 < 0.
10.1.1
C
r
448
C
r
s
s
C
r
Capitolo 10
449
se 3 2 5 < k < 3 + 2 5.
10.1.2
(10.4)
450
s
P0
C'
r'
Capitolo 10
451
C'
r'
C'
r'
C'
r'
452
C'
r'
10.1.3
C=C'
r'
Capitolo 10
453
B = (4, 1),
D = (2, 1).
Soluzione E` ben noto che tre punti non allineati del piano individuano una sola circonferenza. Si lascia per esercizio la verifica che i punti A, B, D assegnati non sono allineati.
Per individuare lequazione della circonferenza passante per A, B, D si pu`o procedere in
due modi. Il centro C e` il circocentro (il punto di incontro degli assi dei lati) del triangolo
ABD, quindi se ne possono individuare le coordinate intersecando, per esempio lasse
del segmento AB con lasse del segmento AD. Il raggio e` la distanza, per esempio, da
C a B . Altrimenti, si possono sostituire in (10.2) le coordinate dei punti dati e risolvere
il sistema lineare cos` ottenuto:
2a + 3b + c = 13
4a + b + c = 17
2a b + c = 5.
La circonferenza richiesta ha pertanto equazione:
x2 + y 2 4x 2y + 1 = 0.
La situazione geometrica e` illustrata nella Figura 10.11.
10.1.4
Fasci di circonferenze
(10.5)
454
Capitolo 10
455
1. + = 0;
2. + 6= 0,
che saranno discussi separatamente.
1. + = 0 per esempio = 1, = 1; lequazione (10.6) diventa:
2(1 2 )x + 2(1 2 )y 1 + 2 = 0.
Si tratta dellequazione di una retta, che prende il nome di asse radicale del fascio
di circonferenze, ed e` ortogonale al vettore n = (1 2 , 1 2 ). La retta passante
per i centri C1 = (1 , 1 ) e C2 = (2 , 2 ) delle circonferenze C1 e C2 e` parallela al
vettore n. Tale retta prende il nome di asse centrale del fascio di circonferenze. E`
evidente che lasse radicale e` perpendicolare allasse centrale. Nel Paragrafo 10.6.1
sono elencate altre propriet`a dellasse radicale di due circonferenze.
2. + 6= 0; lequazione (10.6) diventa:
1 + 2
1 + 2
1 + 2
2
2
x2
y+
=0
x +y 2
+
+
+
che rappresenta, al variare di e , infinite circonferenze del fascio, con centro:
1 + 2 1 + 2
,
C, =
.
(10.7)
+
+
Si tratta di circonferenze se il raggio e` positivo o nullo, altrimenti si ottengono
circonferenze immaginarie (cfr. Oss. 10.1).
Si elencano alcune propriet`a del fascio di circonferenze individuato da C1 e da C2 di facile
verifica:
1. i centri di tutte le circonferenze del fascio appartengono allasse centrale.
2. Se P0 = (x0 , y0 ) e` un punto appartenente allintersezione di C1 e di C2 , allora P0
verifica lequazione (10.5), quindi P0 e` un punto comune a tutti gli elementi del
fascio.
3. Il fascio di circonferenze riempie il piano nel senso che dato un generico punto
P1 = (x1 , y1 ) del piano e` possibile individuare un elemento del fascio passante
per P1 , infatti e` sufficiente sostituire le coordinate di P1 nellequazione (10.5) e
calcolare il valore dei parametri e .
456
P2
P1
Capitolo 10
457
458
Esercizio 10.5 Determinare lequazione della circonferenza avente centro sulla retta:
s : 2x y = 0
e tangente nel punto A = (2, 0) alla retta s0 : 3x 2y + 6 = 0.
Soluzione La circonferenza richiesta e` un elemento del fascio individuato dalla retta s0
(lasse radicale) e dalla circonferenza di centro A e raggio 0. Ossia:
[(x + 2)2 + y 2 ] + (3x 2y + 6) = 0,
vale a dire:
2
x +y +
4 + 3
x
, R, (, ) 6= (0, 0),
y+4+
6
= 0.
B = (1, 1)
, R, (, ) 6= (0, 0).
Capitolo 10
459
x2 + y 2 + 11y + 9 = 0.
10.2
Si introducono, in questo paragrafo, alcune curve notevoli del piano: lellisse, liperbole e
la parabola, tutte appartenenti alla famiglia delle coniche, come sar`a meglio spiegato nel
Paragrafo 10.4. Le curve saranno presentate come luoghi geometrici di punti (cfr. Par.
10.3 e 10.4) e le loro equazioni saranno ricavate dalla definizione, dopo aver scelto un
opportuno riferimento cartesiano.
10.2.1
Lellisse
Definizione 10.1 Fissati due punti F e F 0 del piano, lellisse e` il luogo dei punti P tali
che:
d(P, F ) + d(P, F 0 ) = 2a,
(10.8)
dove a e` una costante positiva tale che 2a > d(F, F 0 ).
I punti F e F 0 prendono il nome di fuochi dellellisse. La situazione geometrica e`
illustrata nelle Figure 10.15 e 10.16.
Per ricavare lequazione cartesiana dellellisse si sceglie un opportuno sistema di riferimento ponendo lorigine nel punto medio tra F e F 0 e lasse x passante per F ed F 0 , di
conseguenza si assume che i fuochi siano:
F = (c, 0),
E` chiaro che 2c < 2a, il numero:
e=
F 0 = (c, 0).
c
<1
a
460
P
F
Capitolo 10
461
a
e
sono le direttrici dellellisse, il loro significato geometrico verr`a spiegato nel Paragrafo
10.3. Sia P = (x, y) il generico punto dellellisse, il luogo richiesto ha equazione:
p
p
(x c)2 + y 2 + (x + c)2 + y 2 = 2a,
da cui si ha:
(a2 c2 )x2 + a2 y 2 = a2 (a2 c2 ).
Posto b2 = a2 c2 , si ottiene:
y2
x2
+
= 1,
(10.9)
a2
b2
che e` unequazione dellellisse in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto.
Osservazione 10.2 Per la definizione di equazione dellellisse in forma canonica ed il
suo legame con il concetto di forma quadratica scritta in forma canonica introdotto nel
Paragrafo 8.5 si veda il Paragrafo 10.4. Talvolta lellisse e` anche detta ellisse reale per distinguerla dallellisse immaginaria. Lellisse immaginaria e` rappresentata dallequazione
(in forma canonica):
y2
x2
+
= 1,
a2
b2
che non ammette soluzioni reali.
La curva di equazione (10.9) incontra lasse x nei punti A = (a, 0) e A0 = (a, 0) e
lasse y nei punti B = (0, b) e B 0 = (0, b), questi quattro punti prendono il nome di
vertici dellellisse; lorigine ne e` il centro.
Dallequazione (10.9) si deduce che si tratta di una curva simmetrica ripetto allasse x, allasse y e allorigine, e` pertanto sufficiente studiare la sua equazione nel primo quadrante.
Da (10.9) si ha:
x2
b2 y 2
=
a2
b2
quindi |y| b, analogamente si ottiene |x| a. Il grafico e` , quindi, compreso nel
rettangolo delimitato dalle rette di equazioni x = a e y = b. Poiche:
y=
b2 2
a x2 ,
a2
462
intuitivamente si ha che se lascissa del punto P, che descrive la curva, aumenta di valore,
allora la sua ordinata y diminuisce. Si osservi che se a = b, allora c = 0, ogni retta per
lorigine e` asse di simmetria ed in questo caso lellisse e` la circonferenza di centro O e
raggio a.
Esercizio 10.7 Determinare il centro, i fuochi e i vertici delle seguenti ellissi:
E1 : 3x2 + 8y 2 = 12,
E2 : 18x2 + y 2 = 9,
i cui grafici sono rappresentati nelle Figure 10.17 e 10.18, rispettivamente.
!3
!2
!1
!1
!2
A0 = (2, 0),
B=
!
6
,
0,
2
B0 =
!
6
0,
.
2
Capitolo 10
463
!1.0 !0.5
0.5
1.0
!1
!2
!3
F =
10
,0 ,
2
!
10
,0 .
2
F0 =
(10.10)
A=
!
2
,0 ,
2
A0 =
!
2
,0 ,
2
B = (0, 3),
!
17
0,
,
2
F0 =
!
17
0,
.
2
B 0 = (0, 3).
464
Si osservi che lequazione (10.10) non e` scritta nella stessa forma di (10.9). Se si vuole
passare dallequazione (10.10) ad unequazione dello stesso tipo di (10.9) e` necessario
effettuare una rotazione degli assi di /2, in senso antiorario, vale a dire porre:
x
y
=
0 1
1
0
X
Y
(10.11)
P
F
Capitolo 10
10.2.2
465
Liperbole
Definizione 10.2 Fissati due punti F e F 0 del piano, liperbole e` il luogo dei punti P
tali che:
| d(P, F ) d(P, F 0 ) | = 2a,
(10.12)
dove a e` una costante positiva tale che 2a < d(F, F 0 ).
P
F
(x c)2 + y 2
p
(x + c)2 + y 2 | = 2a.
(10.13)
=1
a2
b2
(10.14)
466
c
>1
a
a
e
A2 = (a, 0),
Capitolo 10
467
ossia:
y=
b 2
x a2 ,
a
segue che |x| a, quindi non vi sono punti della curva compresi tra le rette di equazioni
x = a. Inoltre, tali rette intersecano la curva in due punti coincidenti, i vertici, quindi
esse sono tangenti alla curva. Da:
x2
y2
=
1
b2
a2
segue, intuitivamente, che il valore dellordinata (in valore assoluto) aumenta allaumentare del valore dellascissa (in valore assoluto). La curva e` cos` divisa in due parti
(simmetriche rispetto allasse y ) che prendono il nome di rami delliperbole.
Si studia lintersezione della curva con una generica retta passante per lorigine (ad eccezione dellasse y che non interseca la curva), quindi si studiano le soluzioni del sistema:
2
y2
x
2 2 =1
a
b
y = px,
al variare di p in R. Sostituendo la seconda equazione nella prima si ottiene:
ab
x = p
b 2 a2 p 2
da cui segue che lesistenza delle soluzioni dipende dal radicando b2 a2 p2 . Si distinguono i seguenti casi:
1. Se |p| < b/a, le rette incontrano la curva in due punti distinti.
2. Se |p| > b/a, le rette non intersecano la curva.
3. Le rette:
b
y= x
a
costituiscono un caso limite tra le due situazioni 1. e 2.. Tali rette prendono il
nome di asintoti delliperbole. Per meglio descrivere il comportamento della curva
rispetto agli asintoti si consideri la differenza tra le ordinate del punto P0 = (x, y0 )
468
b
ab
x x 2 a2 =
.
a
x + x 2 a2
Quando P1 si allontana indefinitamente sulliperbole, la sua ascissa x cresce sempre di pi`u ed allora lultima frazione, avendo il numeratore costante e il denominatore che aumenta via via, diminuisce sempre di pi`u. Pi`u precisamente:
lim
ab
= 0.
x + x 2 a2
P0
P1
4 2
x 25y 2 = 1,
9
I2 : 9x2 4y 2 = 36,
I3 : 4x2 3y 2 = 5,
Capitolo 10
469
i cui grafici sono rispettivamente rappresentati nelle Figure 10.23, 10.24 e 10.25.
2
1
!4
!2
!1
!2
!6
!4
!2
!2
!4
i fuochi sono:
F =
229
,0 ,
10
F0 =
!
229
,0 ,
10
470
!6
!4
!2
!2
!4
2
x.
15
Per quanto
liperbole
I2 i vertici sono A = (2, 0), A0 = (2, 0); i fuochi sono
riguarda
0
F = ( 13, 0), F = ( 13, 0), gli asintoti hanno equazioni:
3
y = x,
2
si osservi che, in questo caso b > a, come si pu`o evincere dalla Figura 10.24, rispetto
alliperbole rappresentata nella Figura 10.23 in cui b < a.
Per quanto riguarda liperbole I3 lequazione diventa:
y2
x2
= 1;
5
5
3
4
analogamente al caso dellEsercizio 10.7, per scrivere lequazione nella forma (10.14) e`
necessario effettuare il cambiamento di riferimento dato da (10.11). Di conseguenza, nel
riferimento iniziale R = (O, x, y), i vertici sono:
Capitolo 10
A=
!
5
0, ,
3
471
A0 =
!
5
0, ,
3
F0 =
!
35
0,
12
i fuochi sono:
F =
!
35
0,
,
12
x=
3
y.
2
(10.15)
472
Capitolo 10
473
Q1
P1
P2
Q2
Q1
P1!P2
Q2
474
Teorema 10.4 Per ogni punto P di uniperbole, tutti i parallelogrammi formati dagli
asintoti e dalle parallele ad essi condotte da P hanno la stessa area.
La situazione descritta nel teorema precedente e` illustrata nella Figura 10.30 in cui i
rettangoli colorati hanno la stessa area.
10.2.3
(x a)2 + (y a)2
p
(x + a)2 + (y + a)2 = 2a.
Capitolo 10
475
(10.16)
che risponde al problema posto. Si osservi che questa rappresentazione permette di dimostrare pi`u agevolmente il comportamento dellasintoto (lasse x per esempio) rispetto
alla curva. Infatti se P1 = (x, y) e` un punto della curva e P0 = (x, 0) e` il punto dellasse
x di uguale ascissa, allora e` evidente che:
lim y = lim
a2
= 0.
2x
Al variare di a in (10.16) si hanno iperboli con rami nel primo e terzo quadrante, i cui
asintoti sono gli assi cartesiani, con i vertici che variano sulla bisettrice y = x.
8
-8
-6
-4
-2
-2
-4
-6
-8
476
-8
-6
-4
-2
-2
-4
-6
-8
xy =
a2
2
si pu`o ottenere con lo stesso procedimento appena descritto, dopo aver effettuato il cambiamento di riferimento:
x = Y
y = X;
di conseguenza, nel riferimento originale, i rami della curva si trovano nel secondo e
quarto quadrante e i vertici variano sulla bisettrice y = x. Le situazioni descritte sono
illustrate nelle Figure 10.31 e 10.32.
10.2.4
La parabola
Definizione 10.3 La parabola e` il luogo dei punti P equidistanti da una retta f fissata e
da un punto F fissato.
La retta f prende il nome di direttrice della parabola e il punto F e` il fuoco della parabola.
Capitolo 10
477
Come nel caso dellellisse e delliperbole, per ricavare lequazione della parabola si sceglie un riferimento cartesiano opportuno. Si pu`o procedere nei due modi di seguito
descritti.
Primo Caso Si sceglie il riferimento in modo tale che il fuoco F appartenga allasse
x e abbia coordinate F = (0, c), con c > 0, e la direttrice abbia equazione y = c,
pertanto lorigine e` un punto appartenente al luogo richiesto. Imponendo che:
d(P, F ) = d(P, f )
si ha:
p
x2 + (y c)2 = |y + c|,
elevando al quadrato si ottiene:
y = ax2 ,
(10.17)
(10.18)
(10.19)
x = ay 2 .
(10.20)
e:
478
Capitolo 10
479
Per capire landamento della curva al variare del parametro a si osservi la Figura 10.35
in cui sono riportati i grafici delle parabole di equazioni y = (1/2)x2 (quella esterna),
y = x2 , (quella centrale), y = 2x2 (quella interna).
-4
-2
480
3
2
1
-1
-2
-3
-6
-4
-2
-2
-4
-6
-8
-10
Capitolo 10
481
P
F
f
10.2.5
Coniche e traslazioni
Gli esercizi che seguono sono volti a studiare lequazione di una conica scritta in un
riferimento cartesiano traslato rispetto al riferimento iniziale in cui essa si presenta in
forma canonica. Se nellequazione (10.9) dellellisse in forma canonica si opera una
traslazione degli assi:
x = X + x0
y = Y + y0 ,
(10.21)
(10.22)
482
completamento dei quadrati (cfr. Es. 8.13) e` facile risalire alla forma (10.21), e, quindi,
allequazione iniziale che meglio consente di studiare la conica. Analogo discorso vale
per liperbole e la parabola. Nel Paragrafo 10.4 si studieranno le equazioni di secondo
grado complete in x, y , di cui, quelle appena descritte, sono un caso particolare.
Esempio 10.1 Nel riferimento R = (O, x, y) e` data la conica di equazione:
x2 + 2y 2 + 4x + 4y 2 = 0.
Completando i quadrati, si ha:
(x2 + 4x + 4 4) + 2(y 2 + 2y + 1 1) 2 = 0,
(x + 2)2 + 2(y + 1)2 = 8,
e, quindi:
(x + 2)2
(y + 1)2
+
= 1.
8
4
Pertanto con la traslazione:
X =x+2
Y = y + 1,
si ottiene:
Y2
X2
+
= 1,
8
4
che e` lequazione di unellisse. Si osservi che il centro O0 dellellisse e` lorigine del
riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate (2, 1) rispetto al riferimento
R. Gli assi che hanno equazione Y = 0 e X = 0 nel riferimento R0 = (O0 , X, Y ) hanno
invece, rispettivamente, equazione y +1 = 0 e x+2 = 0 nel riferimento R. La situazione
geometrica e` illustrata nella Figura 10.39.
Esempio 10.2 Nel riferimento R = (O, x, y) e` data la conica:
x2 2y 2 + 6x 8y 5 = 0.
Completando i quadrati, si ha:
(x2 + 6x + 9 9) 2(y 2 + 4y + 4 4) 5 = 0,
(x + 3)2 2(y + 2)2 = 6,
Capitolo 10
483
-4
-2
2
-1
-2
-3
= 1.
6
3
Pertanto con la traslazione:
X =x+3
Y = y + 2,
si ottiene:
X2
Y2
= 1,
6
3
che e` lequazione di uniperbole. Si osservi che il centro O0 delliperbole e` lorigine del
riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate (3, 2) rispetto al riferimento
R. Gli asintoti che hanno equazioni:
1
Y = X,
2
1
Y = X
2
1
y = (x + 3) 2
2
484
5
2.5
-5
-10
10
-2.5
-5
-7.5
-10
!6
!4
!2
!2
!4
Capitolo 10
485
17
X =x
5
Y = y 2,
si ottiene:
2Y 2 + 5X = 0
che e` lequazione di una parabola. Il vertice della parabola O0 e` lorigine del riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate (17/5, 2) rispetto al riferimento R. La
situazione geometrica e` illustrata nella Figura 10.41.
Osservazione 10.3 E` fondamentale ricordare che per applicare il metodo del completamento dei quadrati e poi effetture lopportuna traslazione si devono sempre mettere in
evidenza i coefficienti di x2 e di y 2 (perche?).
10.3
La definizione che segue giustifica la denonimazione conica assegnata alle curve introdotte nel Paragrafo 10.2.
Definizione 10.4 Si dicono coniche tutte le curve piane che si possono ottenere intersecando un cono circolare retto con un piano.
Per cono circolare retto si intende il luogo delle rette dello spazio che si appoggiano su
di una circonferenza e passano tutte per il vertice, punto appartenente alla retta perpendicolare al piano della circonferenza nel suo centro, questa retta prende il nome di asse del
cono. Per lo studio approfondito dei coni nello spazio si rimanda al Paragrafo 12.2.
486
E` chiaro che, secondo la definizione proposta, il termine conica comprende: la circonferenza, lellisse, liperbole e la parabola, come illustrato nelle Figure 10.42, 10.43, 10.44
e 10.45. Inoltre, se il piano secante il cono passa per il vertice, allora si ottengono anche
coppie di rette incidenti e coppie di rette coincidenti pertanto anche questi sono esempi
di coniche che prendono il nome di coniche degeneri. Se il piano secante passa per il
vertice (e, per esempio, e` perpendicolare allasse del cono) allora interseca il cono solo
nel vertice, che risulta anche essere una particolare conica degenere.
(10.23)
Capitolo 10
487
488
a2 + b 2
elevando al quadrato, si ottiene:
(x x0 )2 + (y y0 )2 = e2
Si distinguono i due casi seguenti:
1. F f : il fuoco appartiene alla direttrice.
(ax + by + c)2
.
a2 + b 2
(10.24)
Capitolo 10
489
(10.25)
490
b. e > 1. In questo caso si ha 1e2 < 0, pertanto lequazione (10.25) e` una differenza
di quadrati che pu`o essere espressa come:
(y +
e2 1 x)(y e2 1 x) = 0.
Si tratta, quindi, del prodotto di due rette incidenti e, di nuovo, di una conica
degenere.
c. e < 1. Allora si ha 1 e2 > 0, pertanto lequazione (10.25) rappresenta la somma
di due quadrati, ossia un unico punto reale, in questo caso lorigine. Si tratta, di
nuovo, di una conica degenere, interpretata come prodotto di due rette immaginarie
coniugate (cfr. Par. 9.10.1) incidenti in un punto reale (`e il vertice del cono citato
in precedenza).
Riassumendo: se F f allora si ottengono solo coniche degeneri date dal prodotto di
due rette coincidenti, o dal prodotto di due rette incidenti. Si osservi, di nuovo, che, per
ottenere il caso della conica degenere formata da due rette parallele, e` necessario usare
metodi di geometria proiettiva, in questo ambiente si deve porre la direttrice coincidente
con la retta impropria, ossia la retta contenente tutti i punti improprii.
Secondo Caso
F
/ f : il fuoco non appartiene alla direttrice. Si sceglie un riferimento
opportuno ponendo F sullasse x e la direttrice f ortogonale allasse x. Siano (c, 0) le
coordinate di F e x = h lequazione di f , con c 6= h. Lequazione (10.23) diventa:
(1 e2 )x2 + y 2 2(c e2 h)x + c2 e2 h2 = 0.
(10.26)
(10.27)
Capitolo 10
491
(10.28)
c e2 h
.
1 e2
(Si controlli per esercizio che lequazione (10.28) ammette sempre due soluzioni
reali e distinte). Si pone lorigine del riferimento nel punto medio tra A1 e A2 ,
ossia, si pone c e2 h = 0, da cui:
h=
c
.
e2
(10.29)
c2 e2 h2
1 e2
c
.
a
(10.30)
= 1,
a2
b2
che e` lequazione delliperbole in forma canonica.
492
a2
.
c
Nel caso dellellisse, h > a, le due direttrici sono esterne alla figura, nel caso
delliperbole h < a, le due direttrici sono posizionate tra lasse y e i vertici.
Si osservi che per c = 0 e, quindi, e = 0, si ottiene la circonferenza che risulta esclusa
da questo luogo di punti in quanto e = 0 implica P = F. In conclusione, anche il
luogo considerato non comprende tutte le coniche, mancando la circonferenza e la coppia
di rette parallele. Una rappresentazione comune di tutte le coniche si vedr`a nel paragrafo
che segue, dimostrando che le coniche sono tutte rappresentate da una generica equazione
di secondo grado in x, y .
10.4
x2 + y = 0,
y 2 + x = 0,
Capitolo 10
493
Sono esempi di equazioni di coniche scritte in forma canonica (10.9), (10.14), (10.17) e
(10.18). Nella dimostrazione del Teorema 10.6 viene anche indicato il metodo da seguire
per passare da unequazione di secondo grado in x, y alla forma canonica di una conica.
Per questo motivo e per aiutare la comprensione del procedimento usato, allinterno della
dimostrazione sono inseriti esempi numerici di riduzione a forma canonica di coniche
particolari.
Dimostrazione del Teorema 10.6
Sia:
(10.31)
a11 a12
a12 a22
,
che vengono spesso dette matrici associate alla conica C di equazione (10.31). Lequazione di C si pu`o scrivere in notazione matriciale come:
x
x y 1 B y = 0,
1
(10.32)
oppure come:
x y
A
x
y
+2
a13 a23
x
y
+ a33 = 0.
(10.33)
Si vuole studiare il luogo dei punti P = (x, y) che verficano lequazione (10.31), rispetto
ad un riferimento cartesiano fissato R = (O, x, y) che determina la base ortonormale
positiva B = (i, j) del piano vettoriale V2 .
Esempio 10.4 La circonferenza C di equazione:
C : x2 + y 2 + ax + by + c = 0
con centro C e raggio r dati da:
a
b
C = , ,
2
2
r2 =
a2
b2
+
c,
4
4
494
individua le matrici:
A=
1 0
0 1
B=
0
a
2
,
a
2
b
.
2
0
1
b
2
a2
b2
= r2 .
4
4
Pertanto, se:
b2
a2
+
6= c
4
4
allora det(B) 6= 0. Si osservi anche che se:
b2
a2
+
=c
4
4
si ha la circonferenza degenere di centro il punto (a/2, b/2) e raggio pari a zero (ossia
il punto (a/2, b/2)), in questo caso det(B) = 0. Se:
a2
b2
+
<c
4
4
si ottiene la circonferenza immaginaria (cfr. Oss. 10.1).
Esempio 10.5 Lellisse di equazione (in forma canonica):
y2
x2
+
=1
a2
b2
individua le matrici:
1
a2
A=
,
1
b2
1
a2
B= 0
0
1
b2
0
.
0
Capitolo 10
495
det(B) 6= 0.
1
a2
A=
,
1
b2
1
a2
B= 0
0
1
b2
0
.
0
det(B) 6= 0.
=1
a2
b2
individua le matrici:
1
a2
A=
,
1
2
b
1
a2
B= 0
det(B) 6= 0.
1
b2
.
0
496
A=
0 0
0 1
,
B=
0
p
0 p
0
.
0
1
0
det(B) 6= 0.
A=
1 0
,
0 0
.
0
0
p
B=
0 p
0
det(B) 6= 0.
4 2
,
2 1
2
B=
0
2
1
0
0
0 .
0
Capitolo 10
497
0 0
0
0 0
0 .
A=
, B= 0 1
0 1
0 0 9
Si osservi che rank(A) = 1 e rank(B) = 2 e pertanto det(A) = 0 e det(B) = 0.
0 0 0
0 0
A=
, B = 0 1 0 .
0 1
0 0 9
Analogamente allesempio precedente si osservi che rank(A) = 1 e rank(B) = 2.
Si riprende ora la dimostrazione del teorema, suddividendo il procedimento di riduzione
a forma canonica in due casi.
Primo caso a12 = 0, la matrice A associata al luogo dei punti P = (x, y) rappresentato dallequazione (10.31) si presenta in forma diagonale:
A=
a11
a22
498
x0
y0
+2
a013
a023
x0
y0
+ a033 = 0,
( P AP )
x0
y0
+2
a13 a23
P
x0
y0
+ a33 = 0.
Si osservi perci`o che il termine noto rimane invariato. Poiche A e` una matrice simmetrica,
esiste, per il Teorema 7.8, una matrice ortogonale P che permette di ottenere la matrice
diagonale:
1 0
t
D = P AP =
,
0 2
con 1 e 2 autovalori di A. Pertanto, scegliendo come nuova base B 0 una base ortonormale positiva di autovettori di A, ovvero una base ortonormale di autovettori di A tale
che la matrice del cambiamento di base P abbia determinante uguale a 1, rispetto al nuovo riferimento R0 = (O, x0 , y 0 ), con assi x0 e y 0 nella direzione degli autovettori di A,
lequazione (10.33) si trasforma in:
x
D
x0
y0
+2
a013
a023
x0
y0
+ a33 = 0,
(10.35)
Capitolo 10
499
con:
a013 a023
a13 a23
P.
Le equazioni (10.34) corrispondono quindi ad una rotazione del piano (cfr. Es. 6.24) e
nelle nuove coordinate (x0 , y 0 ) lequazione (10.33) si trasforma in:
1 (x0 )2 + 2 (y 0 )2 + 2a013 x0 + 2a023 y 0 + a33 = 0.
Inoltre, da (10.34) si ottiene:
0
0
x
0
y 0 .
1
1
x
y = P
1
0 0
Posto:
Q=
0
(10.36)
0
0 ,
1
a013
B0 = 0
a023 = t QBQ.
(10.37)
500
Prima di continuare con la dimostrazione del teorema, vengono inseriti alcuni esempi
numerici per capire meglio il procedimento di riduzione a forma canonica di una conica
appena descritto.
Esempio 10.12 Si riduca a forma canonica la conica di equazione:
3x2 + 2xy + 3y 2 + 2 2x = 0.
Le matrici A e B associate alla conica sono date da:
3
3 1
A=
, B= 1
1 3
(10.38)
3
0
1
A
x
y
+
2 2 0
x
y
= 0.
(10.39)
Si osservi che det(A) = 8 e det(B) 6= 0, ci sono, quindi, ragionevoli motivi per pensare
che si tratti di unellisse. Gli autovalori di A sono 1 = 2 e 2 = 4, i corrispondenti
autovettori (di norma unitaria per ottenere una matrice ortogonale del cambiamento di
base) sono:
1
1
1
1
0
0
i = , , j = , ,
2
2
2
2
vale a dire, le equazioni della rotazione sono:
1 0
x
1
0
y
2
=P
=
1
0
y
y
2
x0
x0 y 0
x0
y0
2
2 2 0
1
1 0
x
= 0,
y0
2
Capitolo 10
501
ossia:
2(x0 )2 + 4(y 0 )2 + 2x0 + 2y 0 = 0.
Operando con il metodo del completamento dei quadrati mediante la traslazione:
X=x +2
Y = y0 +
4
si ottiene:
X2
Y2
+
= 1.
3
3
8
16
Si tratta proprio di unellisse. Per calcolarne le coordinate del centro, dei vertici e le
equazioni degli assi e` necessario determinare le equazioni complessive del movimento
rigido del piano dato dalla composizione della rotazione e della traslazione e che a volte
viene anche denominato rototraslazione. Si ha:
1
=P
=
1
0
y
y
2
x0
=
1
1
X
Y
2
1
3
X
2
4 2
1
1
Y
2
4 2
1
4
2
2
xy+
= 0, x + y +
= 0.
2
4
502
Con lo stesso procedimento si possono ricavare le coordinate dei vertici e dei fuochi
dellellisse.
Esempio 10.13 Si riduca a forma canonica la conica di equazione:
4x2 4xy + y 2 + 6x + 2y 3 = 0.
(10.40)
4 2
3
1
1
B = 2
3
1 3
4 2
,
2
1
A
x
y
+
6 2
x
y
3 = 0.
(10.41)
Si osservi che det(A) = 0 e det(B) 6= 0, ci sono, quindi, ragionevoli motivi per pensare
che si tratti di una parabola. Gli autovalori di A sono 1 = 0 e 2 = 5, i corrispondenti
autovettori (di norma unitaria per avere una matrice del cambiamento di base che sia
ortogonale) sono:
2
1
2
1
0
0
i = , , j = , ,
5
5
5
5
vale a dire, le equazioni della rotazione sono:
1
2 0
x
5
5
=
=P
2
1
y0
y
y0
5
5
x0
x0 y 0
x0
ossia:
y0
1
2 0
x
5
5
6 2
2
1
y0
5
5
3 = 0,
Capitolo 10
503
5(y 0 )2 + 2 5x0 2 5y 0 3 = 0.
(10.42)
Operando con il metodo del completamento dei quadrati lequazione (10.42) si trasforma
nel modo seguente:
2 0 1
0 2
5 (y )
5y +
= 2 5 x0 + 4,
5
5
2
1
2
0
0
5 y
= 2 5 x ,
5
5
vale a dire, con la traslazione:
X = x0
Y = y0
5
si ottiene:
2 5
X.
Y =
5
2
Si tratta proprio di una parabola. Per calcolare le coordinate del vertice, e le equazioni
dellasse e della direttrice e` necessario determinare le equazioni della rototraslazione del
piano che ha permesso di ricavare tale equazione, e precisamente:
1
2
2
X
5
5
5
+
= P
=
1
1
0
y
y
Y
5
5
5
x0
1
2
X
5
5
2
1
Y
5
5
504
nel riferimento iniziale R = (O, x, y). Con lo stesso procedimento si possono ricavare le
coordinate del fuoco e lequazione della direttrice.
Si riprende ora la dimostrazione del Teorema 10.6. Dallequazione (10.36) si ottiene:
1
a013
B0 = 0
a023
(10.43)
Allo scopo di poter scrivere lequazione della conica in forma canonica si deve effettuare
la traslazione:
x0 = X + x0
y 0 = Y + y0
(10.44)
in modo da annullare i termini di primo grado. Per calcolare il valore di x0 , y0 si sostituiscono le equazioni della traslazione (10.44) in (10.36), si ottiene:
1 X 2 + 2 Y 2 + 2(x0 1 + a013 )X + 2(y0 2 + a023 )Y + = 0
(10.45)
(10.46)
a013
,
1
y0 =
a023
,
2
(10.47)
Capitolo 10
505
1 X 2 + 2 Y 2 + = 0,
e sostituendo in (10.46) si ottiene:
det(B 0 )
=
.
1 2
(10.48)
Si perviene quindi alla seguente classificazione, tenendo conto che det(B) = det(B 0 )
per la relazione (10.37):
a. se 1 e 2 hanno lo stesso segno e det(B) 6= 0, si ottiene unellisse reale o
immaginaria;
b. se 1 e 2 hanno segno opposto e det(B) 6= 0, si ottiene uniperbole;
c. se 1 e 2 hanno lo stesso segno e det(B) = 0 (ossia = 0, cfr. (10.48)),
si ottiene una conica degenere formata da un solo punto reale (intersezione di
due rette le cui equazioni hanno coefficienti in campo complesso);
d. se 1 e 2 hanno segno opposto e det(B) = 0 (ossia = 0, cfr. (10.48)), si
ottiene una conica degenere formata da due rette reali incidenti.
Si osservi che nei due ultimi casi il rango della matrice B e` 2.
2. 1 = 0, 2 6= 0, lequazione (10.36) diventa:
2 (y 0 )2 + 2a013 x0 + 2a023 y 0 + a33 = 0.
Sostituendo le equazioni della traslazione (10.44) si ottiene:
2 Y 2 + 2(y0 2 + a023 )Y + 2a013 X + = 0,
e il temine noto e` dato da:
= 2 y02 + 2a013 x0 + 2a023 y0 + a33 .
Si distinguono i due sottocasi:
a. a013 = 0: segue che:
a023
;
y0 =
2
(10.49)
506
operando quindi con una traslazione in cui x0 pu`o assumere qualsiasi valore,
da (10.49) si ha:
2 Y 2 + = 0.
(10.50)
a023
2
2 Y +
2a013
X+ 0
2a13
= 0.
(10.51)
Capitolo 10
507
a013
x0 =
,
1
operando quindi con una traslazione in cui y0 pu`o assumere qualsiasi valore,
da (10.51) si ha:
1 X 2 + = 0.
(10.52)
a013
1
1 X +
2a023
= 0.
Y + 0
2a23
508
Riassumendo i risultati ottenuti nella dimostrazione precedente, si pu`o procedere nel modo seguente alla classificazione delle coniche attraverso il rango rank(A) e rank(B)
delle matrici ad esse associate, tenuto conto che il rango di A ed il rango di B sono
invarianti per rototraslazioni nel piano.
rank(B) = 3
rank(B) = 2
10.5
Y : x + y = 0,
le quali, con lorigine O, si possono assumere come assi del nuovo riferimento cartesiano
R0 = (O, X, Y ) o equivalentemente R0 = (O, i0 , j0 ), dove:
1
i0 = (i + j),
2
1
j0 = (i + j).
2
Capitolo 10
509
X2
Y2
+
= 1.
64
4
Sia:
(10.53)
1
1
2
2
P =
1
1
2
2
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base
ortonormale positiva B = (i, j) alla base ortonormale positiva B 0 = (i0 , j0 ), si ha:
x
X
=P
y
Y
e:
X
Y
= P
x
y
,
Y 2 = 4 5X.
Indicata con:
(10.54)
510
2
1
5
5
P =
1
2
5
5
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base
ortonormale positiva B = (i, j) alla base ortonormale positiva B 0 = (i0 , j0 ), si ha:
x
y
X
Y
=P
X
Y
e:
= P
x
y
,
(10.55)
ossia:
2
(x 2) + (y 1) =
2
2x + y + 5
,
5
vale a dire:
x2 4xy + 4y 2 40x 20y = 0.
Nel riferimento R0 = (O, X, Y ) che ha lasse X coincidente con la retta OF di equazione x 2y = 0 e lasse Y passante per O ed ortogonale allasse X , il fuoco ha coordinate
F = ( 5, 0) e lequazione della parabola e` :
Capitolo 10
511
Y 2 = 4 5X.
La stessa equazione si
ottiene nel riferimento R0 dove la retta f ha equazione X = 5,
il fuoco ha cordinate ( 5, 0), quindi da (10.55) segue:
(X
5)2 + Y 2 = (X +
2
5) .
(10.56)
Soluzione
5
B=
2
2
3
7
2
ha rango 2. Si tratta quindi del prodotto di due rette incidenti. Per determinarne le equazioni si pu`o, per esempio, ricavare il valore di x, rispetto ad y , nellequazione (10.56),
ottenendo:
x1,2 =
=
5y
25y 2 8(3y 2 + 7y 2)
4
5y (7y 4)
,
4
da cui segue:
y + 2
= 0,
2x 5xy 3y + 7y 2 = 2 [x (3y 1)] x
2
2
512
10.6
10.6.1
In questo paragrafo si introduce il concetto di potenza di un punto rispetto ad una circonferenza mediante il quale si perviene ad unaltra definizione di asse radicale di due
circonferenze.
Definizione 10.7 La potenza di un punto P0 = (x0 , y0 ) rispetto ad una circonferenza
C di equazione x2 + y 2 2x 2y + = 0 e` il numero reale p(P0 ) che si ottiene
sostituendo il valore delle coordinate del punto P0 nellequazione della circonferenza,
ovvero:
p(P0 ) = x20 + y02 2x0 2y0 + .
Il teorema che segue permette di interpretare geometricamente la potenza di un punto
rispetto ad una circonferenza.
Teorema 10.7 Data la circonferenza C di centro C e raggio r, la potenza di un punto
P0 rispetto a C e` data da:
p(P0 ) = d(P0 , C)2 r2
dove d(P0 , C) indica la distanza del punto P0 dal centro C .
Dimostrazione La dimostrazione e` ovvia tenendo conto che la circonferenza C e` il
luogo dei punti P tale che d(P, C)2 = r2 .
Osservazione 10.5
1. Nonostante il teorema precedente sia di ovvia dimostrazione,
esso e` molto importante perche assicura un metodo facile per individuare la posizione dei punti nel piano rispetto ad una circonferenza assegnata. Infatti la potenza
di un punto rispetto ad una circonferenza e` un numero strettamente positivo se e
solo se il punto e` esterno alla circonferenza, la potenza di un punto rispetto ad una
circonferenza e` uguale a 0 se e solo se il punto giace sulla circonferenza, la potenza
di un punto rispetto ad una circonferenza e` negativa se e solo se il punto e` interno
alla circonferenza. Per esempio, data la circonferenza:
C : x2 + y 2 2x 4y + 1 = 0,
si ha che il punto A = (2, 4) ha potenza pari a 1 rispetto a C e, quindi, e` esterno
a C , invece il punto B = (1, 0) ha potenza pari a 0, quindi appartiene a C . In altri
termini si pu`o immaginare che la circonferenza divida il piano in tre regioni: quella
dei punti di potenza zero (appartenenti alla circonferenza), quella dei punti con
potenza negativa (interni alla circonferenza) e quella dei punti a potenza positiva
(esterni alla circonferenza).
Capitolo 10
513
2. E` evidente che il luogo dei punti che hanno uguale potenza rispetto a due circonferenze assegnate coincide con lasse radicale definito dalla due circonferenze (cfr.
Par. 10.1.4).
C3
C1
C2
514
10.6.2
Come si e` gi`a osservato nel caso della retta (cfr. (9.11)) anche le coniche possono essere
rappresentate mediante due equazioni parametriche scritte in funzione di un parametro t
reale che varia in un opportuno intervallo della retta reale. E` chiaro per`o che, ad eccezione
delle coniche degeneri, le equazioni parametriche delle coniche non saranno lineari in t
(cfr. Teor. 10.6).
1. La circonferenza di centro lorigine e raggio r si pu`o scrivere in forma parametrica
come:
x = r cos t
y = r sin t, 0 t < 2.
La circonferenza di centro C = (, ) e raggio r ha equazioni parametriche:
x = + r cos t
y = + r sin t, 0 t < 2.
Ci`o segue in modo evidente dal Paragrafo 9.3.
E` chiaro che le equazioni parametriche di una curva non sono uniche, per esempio
un arco di circonferenza di centro lorigine e raggio r si pu`o anche rappresentare
come:
1 2
x
=
r
1 + 2
y = r 2 , R.
1 + 2
La rappresentazione della circonferenza appena indicata non comprende il punto di
coordinate (r, 0).
Capitolo 10
515
516
x= t
2p
y = t, t R, p =
6 0.
Per maggiori dettagli sulla rappresentazione parametrica delle coniche e delle curve nel
piano in generale si rimanda, per esempio, a [11].
10.6.3
Scopo di questo paragrafo e` rappresentare le coniche mediante le coordinate polari generalizzate (, ), introdotte nel Paragrafo 9.3. Come dimostrato nel Paragrafo 10.3, le
coniche possono essere definite come il luogo dei punti P del piano tali che:
d(P, F )
= e,
d(P, f )
dove F e` il fuoco, f la direttrice ed e leccentricit`a. Se si sceglie un riferimento cartesiano
R = (O, x, y) avente lorigine O coincidente con il fuoco e la direttrice parallela allasse
y di equazione: x = k , allora le coniche possono essere definite come il luogo dei punti
P = (x, y) che verificano lequazione:
x2 + y 2 = e2 (x k)2 .
(10.57)
Ci si propone di scrivere lequazione (10.57) in coordinate polari generalizzate. Sostituendo in (10.57) la formula (9.6), s si ha:
2 = e2 ( cos k)2 ,
da cui, estraendo la radice quadrata, segue:
= e( cos k).
Si ottengono cos`, sorpendentemente, due equazioni in coordinate polari:
(1 e cos ) = ek,
(10.58)
Capitolo 10
517
e:
(1 + e cos ) = ek.
(10.59)
Se si considera, per`o, un generico punto P = (0 , 0 ) appartenente alla conica di equazione (10.58), quindi:
ek
,
0 =
1 e cos 0
P0 pu`o essere anche rappresentato, in modo equivalente, come (0 , 0 + ). E` immediato verificare che questi valori verificano (10.59), e viceversa, pertanto (10.58) e (10.59)
rappresentano lo stesso luogo di punti.
Si distinguono i seguenti casi:
1. e = 1: parabola. Lequazione in coordinate polari e` :
=
k
1 + cos
k
.
1 cos
oppure:
10.6.4
Lo scopo di questo paragrafo e` quello di ricavare, con metodi di tipo elementare, lequazione della retta tangente ad una conica non degenere in un suo punto. Nel Paragrafo
10.1.2 si e` trovato che la retta s di equazione (10.4) e` tangente nel punto P0 = (x0 , y0 )
alla circonferenza C di centro C = (, ) e raggio r. Lequazione della circonferenza:
C : x2 + y 2 2x 2y + = 0
518
1
0
x
1 y = 0,
C: x y 1 0
1
invece, sviluppando i calcoli nellequazione (10.4) si ha che la retta s si pu`o scrivere
come:
1
0
x
0
1
y = 0.
s : x0 y 0 1
1
Il teorema che segue estende il risultato appena ottenuto al caso delle coniche non degeneri, ma prima di enunciarlo e` necessario formalizzare la definizione di retta tangente ad
una conica in un suo punto.
Definizione 10.8 Sia C una conica non degenere, la retta tangente a C in un punto P0
ad essa appartenente e` la retta che interseca la conica C solo nel punto P0 .
Teorema 10.8 Sia C una conica non degenere del piano, che, rispetto ad un riferimento
cartesiano R = (O, x.y), ha equazione:
x
y = 0,
(10.60)
C: x y 1 B
1
dove B = (aij ) R3,3 indica la matrice simmetrica associata a C per cui det(B) 6= 0.
La retta s tangente alla conica C in un suo punto P0 = (x0 , y0 ) ha equazione:
x
s : x0 y0 1 B y = 0.
(10.61)
1
Dimostrazione
(10.62)
x = x0 + lt
y = y0 + mt,
t R,
(10.63)
Capitolo 10
519
(10.64)
in quanto il coefficiente del termine t2 non pu`o essere identicamente nullo (perche?).
Sostituendo in (10.64) al posto di l il termine x x0 e al posto di m il termine y y0 e
tenendo nuovamente conto del fatto che il punto P0 appartiene a C si perviene alla tesi.
Osservazione 10.6 Lequazione della retta s tangente, nel punto P0 = (x0 , y0 ) alla
conica C di equazione (10.62) e` (10.61), ossia:
s : a11 xx0 + a12 (x0 y + xy0 ) + a22 yy0 + a13 (x + x0 ) + a23 (y + y0 ) + a33 = 0. (10.65)
La particolarit`a di questa equazione (10.65), confrontata con lequazione della conica
(10.62), consiste nel fatto che essa si pu`o ricavare direttamente dallequazione (10.62)
di C mediante lo sdoppiamento di x2 , y 2 nei prodotti x0 x, y0 y, di 2xy nella somma
xy0 + x0 y, e di 2x, 2y nelle somme x + x0 , y + y0 , rispettivamente, ossia applicando
allequazione di C la cosiddetta regola degli sdoppiamenti.
Gli esempi che seguono sono volti a determinare i punti di una conica degenere in cui il
procedimento appena descritto pu`o o non pu`o essere applicato.
Esempio 10.14 Si consideri la conica degenere C : (y 3)(y + 3) = 0 studiata nellEsempio 10.10 che si pu`o scrivere come:
0
0
0
x
0 1
0
y = 0.
C: x y 1
0 0 9
1
La retta s tangente a C nel punto P0 = (1, 3) e` :
0
x
0 0
0 1
0
y = 0,
s: 1 3 1
0 0 9
1
vale a dire s : y 3 = 0, cio`e la retta che compone C a cui appartiene il punto P0 .
Esempio 10.15 Si consideri al conica C : (2x + y)2 = 0
si pu`o scrivere come:
4
2
0
C : x y 1 2 1 0
0 0 0
x
y = 0.
1
520
4
2
0
x
s : 1 2 1 2 1 0 y = 0,
0 0 0
1
si ottiene 0 = 0, ci`o significa che tutti i punti della conica C sono singolari.
Gli esempi precedenti conducono alla definizione di punto singolare di una curva algebrica nel piano, ossia di una curva la cui equazione si ottiene uguagliando a zero
un polinomio di grado qualsiasi in x, y, definizione che pu`o essere enunciata nel modo
seguente.
Definizione 10.9 Sia C una curva nel piano di equazione f (x, y) = 0, dove f (x, y) indica un polinomio di grado qualsiasi nelle variabili x, y, scritta rispetto ad un riferimento
cartesiano R = (O, x, y). Un punto P0 appartenente a C si dice singolare se:
f
f
(P0 ),
(P0 ) = (0, 0),
x
y
dove f /x indica la derivata parziale della funzione f rispetto ad x e f /y indica
la derivata parziale della funzione f rispetto a y. In caso contrario un punto P0 si dice
liscio o non singolare.
Per lo studio approfondito delle curve algebriche si rimanda a testi di livello superiore, per
esempio a [17]. Si dimostra che il Teorema 10.8 si applica anche alle coniche degeneri
solo nei punti non singolari. E` infatti un esercizio verificare che le coniche non degeneri
sono prive di punti singolari. Invece se la conica e` degenere ed e` lunione di due rette
parallele distinte, allora ogni suo punto e` non singolare, se essa e` lunione di due rette
incidenti solo il loro punto di intersezione e` singolare, infine se la conica e` data da una
retta contata due volte, allora tutti i suoi punti sono singolari.
Capitolo 11
Geometria Analitica nello Spazio
In questo capitolo viene trattata la rappresentazione di piani, rette, sfere e circonferenze
nello spazio mediante equazioni cartesiane e parametriche. Sono queste le nozioni di base
di Geometria Analitica nello Spazio che saranno completate nel capitolo successivo. In
una breve appendice nellultimo paragrafo si presenta, tra laltro, la nozione di baricentro geometrico di n punti dello spazio, nozione che, come casi particolari, vedr`a la sua
naturale applicazione al calcolo del baricentro di un triangolo e di un tetraedro. Per i significati fisici del concetto di baricentro si rimanda ai testi classici di meccanica. In tutto
il capitolo saranno usate le notazioni introdotte nei capitoli precedenti ed in particolare
nel Capitolo 3, per esempio S3 indicher`a lo spazio affine di punti considerato. Come nel
Capitolo 9, per individuare le rappresentazioni di piani, rette, sfere e circonferenze si far`a
uso delle nozioni di calcolo vettoriale introdotte nel Capitolo 3.
11.1
In modo analogo al caso della geometria analitica nel piano (cfr. Par. 9.1) si definisce il
riferimento cartesiano nello spazio R = (O, i, j, k) come linsieme formato da un punto
detto origine del riferimento e indicato con la lettera O e una base ortonormale positiva
B = (i, j, k) dello spazio vettoriale V3 (cfr. Def. 3.13). Le rette orientate individuate
dai vettori i, j e k, che si intersecano tutte nel punto O, prendono, rispettivamente, il
nome di asse delle ascisse, asse delle ordinate, asse delle quote. In questo modo si
definisce una corrispondenza biunivoca tra i punti P dello spazio e le componenti del
OP = xi + yj + zk,
al punto P si associa in modo univoco la terna di numeri reali (x, y, z) e si scrive:
P = (x, y, z),
521
522
Il riferimento cartesiano determina, in modo naturale, tre piani, detti piani coordinati e
precisamente:
1. il piano individuato dal punto O e dai versori i, j, anche denominato piano xy ;
2. il piano individuato dal punto O e dai versori i, k, anche denominato piano xz ;
3. il piano individuato dal punto O e dai versori j, k, anche denominato piano yz .
Il riferimento cartesiano sar`a anche indicato con il simbolo R = (O, x, y, z).
11.1.1
Dati due punti A = (xA , yA , zA ), B = (xB , yB , zB ) dello spazio la loro distanza e` data
da:
p
d(A, B) = (xB xA )2 + (yB yA )2 + (zB zA )2 .
Capitolo 11
523
Infatti, analogamente al caso del piano (cfr. Par. 9.1.1), la distanza d(A, B) coincide con
la norma del vettore AB le cui componenti, rispetto alla base ortonormale positiva B,
sono:
11.1.2
Dati due punti A = (xA , yA , zA ), B = (xB , yB , zB ) dello spazio, il punto medio M del
segmento AB e` :
xA + xB yA + yB zA + zB
M=
,
,
.
2
2
2
Ad esempio il punto medio del segmento di estremi A = (2, 2, 1), B = (0, 6, 3) e` il
punto M = (1, 2, 1).
11.1.3
11.1.4
1
kAB AC k.
2
524
11.2
In questo paragrafo sono descritti modi diversi per rappresentare un piano nello spazio rispetto ad un riferimento cartesiano R = (O, i, j, k), o equivalentemente R = (O, x, y, z).
Infatti un piano nello spazio si pu`o individuare assegnando:
1. un punto P0 del piano ed un vettore n non nullo ortogonale a ;
2. un punto P0 del piano e due vettori u e v paralleli a e linearmente indipendenti
tra di loro;
3. tre punti A, B e C non allineati appartenenti al piano .
Si dimostrer`a che ogni equazione di primo grado in x, y e z del tipo:
ax + by + cz + d = 0,
con a, b, c, d R e a, b, c non contemporaneamente tutti uguali a zero, rappresenta un
piano. Viceversa, ogni piano dello spazio e` rappresentabile tramite unequazione lineare
in x, y, z del tipo suddetto.
11.2.1
il luogo dei punti P dello spazio S3 tali che il vettore P0 P e` ortogonale al vettore n,
ovvero:
= {P S3 | P0 P n = 0}.
(11.1)
La situazione geometrica e` illustrata nella Figura 11.2.
Siano P0 = (x0 , y0 , z0 ) e P = (x, y, z) i punti P0 e P, le cui coordinate sono date
rispetto al riferimento cartesiano R, siano (a, b, c) le componenti del vettore n, rispetto
Capitolo 11
525
n
P0
P
(11.2)
con d = ax0 by0 cz0 , detta equazione cartesiana del piano in cui (a, b, c) sono le
componenti (non contemporaneamente tutte uguali a zero) di un vettore ortogonale a .
Esempio 11.1 Il piano passante per il punto P0 = (1, 0, 1) e ortogonale al vettore
n = j + 2k ha equazione cartesiana y + 2z + 2 = 0.
Il teorema che segue dimostra che tutte e solo le equazioni lineari in x, y, z determinano
un piano nello spazio. Questo risultato e` analogo a quello ottenuto nel Teorema 9.1 nel
caso delle rette nel piano e si pu`o agevolmente estendere a dimensioni superiori.
Teorema 11.1 Ogni equazione lineare in x, y e z del tipo (11.2) rappresenta, a meno di
un fattore moltiplicativo non nullo, lequazione cartesiana di un piano nello spazio S3 .
Dimostrazione Se (a, b, c) 6= (0, 0, 0) esiste almeno un punto P0 = (x0 , y0 , z0 ) del
piano le cui coordinate soddisfano lequazione (11.2). Quindi d = ax0 by0 cz0 e
si pu`o riscrivere lequazione (11.2) nella forma a(x x0 ) + b(y y0 ) + c(z z0 ) = 0,
526
11.2.2
Sia il piano passante per il punto P0 e parallelo a due vettori linearmente indipendenti
u e v. Allora e` il luogo dei punti P dello spazio tali che i vettori P0 P , u, v sono
linearmente dipendenti, vale a dire:
= {P S3 | P0 P = tu + sv, t, s R},
ossia:
Capitolo 11
527
u
P0
: P = P0 + tu + sv,
t, s R.
(11.3)
x = x0 + lt + l0 s
y = y0 + mt + m0 s,
z = z0 + nt + n0 s,
(11.4)
t, s R,
che sono le equazioni parametriche del piano . Si osservi che il piano ammette infinite
equazioni parametriche diverse, e` sufficiente scegliere, per la loro determinazione, un altro
punto e unaltra coppia di vettori appartenenti al piano .
Dal Teorema 3.22 risulta che tre vettori dello spazio vettoriale V3 sono complanari se e
solo se il loro prodotto misto e` uguale a zero, pertanto e` condizione equivalente alla (11.3)
lequazione:
P0 P u v = 0,
(11.5)
che, a differenza di (11.3), non dipende da alcun parametro e, in componenti, equivale a:
528
x x0 y y0 z z0
l
m
n
l0
m0
n0
= 0,
(11.6)
che rappresenta lequazione cartesiana del piano passante per il punto P0 = (x0 , y0 , z0 ) e
parallelo ai vettori u = (l, m, n) e v = (l0 , m0 , n0 ). Sviluppando il determinante appena
ottenuto secondo la prima riga si ha:
m n
0 0 (x x0 ) l0 n0 (y y0 ) + l0 m0 (z z0 ) = 0.
(11.7)
m n
l n
l m
Si noti che lequazione (11.7) coincide con lequazione (11.2) in cui le componenti del
vettore n ortogonale al piano sono proporzionali alle componenti del vettore u v.
Esempio 11.3 Il piano passante per il punto P0 = (1, 3, 1) e parallelo ai vettori:
u = 2i j + k,
v =i+j
ha equazioni parametriche:
x = 1 + 2t + s
y = 3 t + s,
z = 1 + t,
t, s R.
(11.8)
0 = 1 + 2t + s
0=3t+s
0=1+t
e` incompatibile. Non e` difficile verificare che i vettori u0 = (1, 1, 0), v0 = (1, 2 1)
sono paralleli al piano , di conseguenza anche:
x=
y = 1 + + 2
z = 2 ,
, R
sono equazioni parametriche di .
Per ottenere lequazione cartesiana di si pu`o procedere in modi diversi:
Capitolo 11
529
k
1
0
= i + j + 3k
= 0.
Si osservi che, qualunque sia il metodo seguito, si perviene ad una sola equazione cartesiana di , a meno di un coefficiente di proporzionalit`a non nullo.
11.2.3
P = A + t AB + s AC,
(xB , yB , zB ), C = (xC , yC , zC ), il
AB e AC e quindi ha, ad esempio,
t, s R,
530
Esercizio 11.1 Tre punti non allineati individuano un solo piano. Perche nellequazione
ax + by + cz + d = 0 ci sono quattro parametri a, b, c, d?
Esempio 11.4 Il piano passante per i tre punti:
A = (1, 2, 1),
B = (2, 3, 0),
C = (1, 0, 0)
ha equazioni parametriche:
x = 1 + t + 2s
y = 2 t 2s
z = 1 t s,
t, s R,
ed equazione cartesiana:
3x + y + 4z 3 = 0.
Esercizio 11.2 Determinare lequazione del piano parallelo allasse x e passante per i
punti P0 = (1, 0, 2), P1 = (2, 1, 1).
Soluzione
P 0 P i P0 P 1 = 0
= 0,
cio`e:
y + z 2 = 0.
Esercizio 11.3 A partire dalla generica equazione cartesiana di un piano:
: ax + by + cz + d = 0,
supponendo che a, b, c siano tutti diversi da zero, si perviene allequazione:
x
y
z
:
+ + = 1.
p
q
r
(11.9)
Capitolo 11
11.3
531
Una retta r nello spazio, rispetto ad un riferimento cartesiano R = (O, i, j, k) o equivalentemente R = (O, x, y, z), si pu`o individuare assegnando:
1. un punto P0 della retta r ed un vettore r non nullo parallelo a r;
2. due punti A e B distinti della retta r;
3. due piani 1 e 2 incidenti lungo r.
Si vedr`a che, mentre la rappresentazione parametrica di un piano nello spazio e` analoga
a quella di una retta nel piano, la rappresentazione cartesiana di una retta nello spazio
cambia notevolmente. Infatti, come e` gi`a stato osservato nel paragrafo precedente, lequazione cartesiana ax + by + c = 0 di una retta r nel piano corrisponde, nello spazio,
allequazione cartesiana di un piano parallelo allasse z. La retta r risulta essere, nello
spazio, lintersezione del piano con il piano coordinato xy . Maggiori dettagli e spiegazioni di questa situazione geometrica, descritta solo intuitivamente, si avranno nel corso
di tutto il paragrafo.
11.3.1
il luogo geometrico dei punti P dello spazio tali da rendere paralleli i vettori P0 P e r,
ossia:
r = {P S3 | P0 P = tr, t R},
o anche:
r : P = P0 + tr,
t R.
(11.10)
532
x = x0 + lt
y = y0 + mt
z = z0 + nt,
(11.11)
t R,
x=1+t
y =2t
z = 3 + 2t, t R;
Capitolo 11
533
b = 1 ,
cos(rj)
6
c = 2 .
cos(rk)
6
Osservazione 11.3
1. Ponendo t = 1 nelle equazioni parametriche della retta r ottenuta nellesercizio precedente si trova il punto P1 = (2, 1, 5) e quindi la retta r ha
anche equazioni parametriche:
x=2+
y =1
z = 5 + 2, R.
2. Per t [0, 1] si ha il segmento sulla retta r di estremi i punti P0 e P1 .
3. Per t 0 si ottiene una semiretta su r di origine il punto P0 .
Se nessuno dei parametri direttori (l, m, n) di una retta r e` uguale a zero, dalle equazioni parametriche (11.11), eliminando il parametro t allo scopo di trovare le equazioni
cartesiane di r, si ottiene:
y y0
z z0
x x0
=
=
.
l
m
n
Quindi una rappresentazione cartesiana di una retta r passante per il punto P0 = (x0 , y0 , z0 )
e parallela al vettore r = (l, m, n), con l 6= 0, m 6= 0, n 6= 0, e` :
y y0
x x0
=
l
m
x
x
z
z0
=
.
l
n
Si noti che il sistema lineare cos` ottenuto rappresenta geometricamente lintersezione di
due piani nello spazio, trattandosi delle soluzioni comuni a due equazioni lineari.
Se un parametro direttore e` uguale a zero, ad esempio l = 0, la retta r, passante per il
punto P0 = (x0 , y0 , z0 ), ha rappresentazione cartesiana:
x = x0
y y0 = z z0
m
n
e anche in questo caso la retta e` data dallintersezione di due piani.
534
11.3.2
B e` parallela al vettore AB :
AB = (xB xA , yB yA , zB zA ),
rispetto alla base ortonormale positiva B = (i, j, k) che individua il riferimento cartesiano
scelto. Dunque r ha equazioni parametriche:
x = xA + (xB xA )t
y = yA + (yB yA )t
z = y + (z z )t, t R.
A
Capitolo 11
535
536
x xA
y yA
x x = y y
B
A
B
A
x xA
z zA
=
.
xB xA
zB zA
Se, ad esempio xB xA = 0, si deve porre x xA = 0 che rappresenta uno dei due piani
che individuano la retta, che ha, quindi, equazioni cartesiane (in questo caso):
x xA = 0
z zA
y yA
=
.
yB yA
zB zA
Esempio 11.6 La retta r passante per i punti A = (1, 1, 0), B = (2, 3, 1) e` parallela al
x=1+t
y = 1 + 4t
z = t,
t R,
ed equazioni cartesiane:
11.3.3
4x y 5 = 0
x z 1 = 0.
Dal punto di vista geometrico, due piani nello spazio possono essere:
1. coincidenti,
2. paralleli e non coincidenti,
3. incidenti, in questo caso la loro intersezione e` una retta.
Dal punto di vista algebrico, lintersezione dei due piani:
: ax + by + cz + d = 0,
0 : a0 x + b0 y + c0 z + d0 = 0
e` data da tutti i punti P = (x, y, z) che sono soluzioni del sistema lineare:
ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0.
(11.12)
Capitolo 11
537
a b c
a0 b 0 c 0
,
(A | B) =
a b c d
a0 b0 c0 d0
.
Il teorema che segue spiega come determinare un vettore parallelo ad una retta data
dallintersezione di due piani.
Teorema 11.2 Sia r la retta rappresentata come intersezione di due piani nel modo
seguente:
ax + by + cz + d = 0
r:
a0 x + b0 y + c0 z + d0 = 0.
Indicati con il piano di equazione ax + by + cz + d = 0 e con n = (a, b, c) un vettore
non nullo ad esso ortogonale, con 0 il piano di equazione a0 x + b0 y + c0 z + d0 = 0 e con
n0 = (a0 , b0 , c0 ) un vettore non nullo ad esso ortogonale, allora un vettore r parallelo alla
retta r si ottiene come:
r = n n0 .
538
0 : x + 2y + kz + 1 = 0.
Soluzione Per studiare la posizione reciproca dei due piani e 0 e` sufficiente studiare
le soluzioni del sistema lineare formato dalle loro equazioni, ossia calcolare il rango della
sua matrice completa:
2 h 2 3
(A | B) =
1 2
k 1
e confrontarlo con il rango della sua matrice A dei coefficienti. Riducendo per righe la
matrice (A | B) con loperazione sulle righe R2 2R2 + R1 si ottiene:
3
2
h
2
0 4 + h 2 2k 1
e quindi rank(A | B) = 2, per ogni h e k . Si hanno allora le due seguenti possibilita:
1. se h 6= 4 oppure k 6= 1 i due piani si intersecano lungo una retta;
2. se h = 4 e k = 1 i due piani sono paralleli.
11.4
Nel paragrafo precedente e` stata esaminata la posizione reciproca di due piani, di seguito
si studieranno le posizioni reciproche di tre piani, di una retta e di un piano e di due rette,
privilegiando lapproccio di tipo algebrico (applicando quindi la teoria nota dello studio
dellesistenza delle soluzioni dei sistemi lineari) e poi deducendo dai risultati ottenuti le
situazioni geometriche.
Capitolo 11
11.4.1
539
n2 = (a2 , b2 , c2 ),
n3 = (a3 , b3 , c3 )
540
Capitolo 11
541
Soluzione Per studiarne la posizione reciproca dei piani 1 , 2 , 3 si considera il sistema lineare formato dalle tre equazioni dei piani e si calcola il rango della matrice
completa:
1
h 1 0
(A | B) = 1 1 h 1 .
2
h 1 k
Riducendo per righe la matrice (A | B) si ottiene rank(A) = rank(A | B) = 3 per ogni
h e k , quindi i tre piani, per ogni valore reale di h e k, si intersecano in un punto.
11.4.2
Per esaminare la posizione reciproca tra una retta e un piano si pu`o procedere o algebricamente (usando una rappresentazione cartesiana sia della retta sia del piano), oppure
geometricamente (usando una rappresentazione parametrica della retta). Si distinguono i
due casi seguenti, che sono equivalenti tra di loro nel risultato a cui si perviene ma sono
diversi nel metodo seguito per raggiungere tale risultato.
Primo caso
a1 x + b 1 y + c 1 z + d 1 = 0
a2 x + b2 y + c2 z + d2 = 0,
: ax + by + cz + d = 0,
il problema e` ricondotto allo studio del sistema lineare:
a1 x + b 1 y + c 1 z + d 1 = 0
a2 x + b 2 y + c 2 z + d 2 = 0
ax + by + cz + d = 0,
(11.13)
cio`e allo studio dellintersezione di tre piani gi`a esaminata nel paragrafo precedente, con
la condizione aggiuntiva che la matrice dei coefficienti abbia rango maggiore o uguale a
2 (perche?). Dal Teorema di RoucheCapelli (cfr. Teor. 1.2) si distinguono le seguenti
possibilit`a:
1. il sistema lineare (11.13) e` incompatibile, cio`e la retta r e` parallela al piano e
non ha punti in comune con ;
2. il sistema lineare (11.13) ammette una sola soluzione, cio`e la retta ed il piano si
intersecano in un punto;
542
x = x0 + lt
y = y0 + mt
r:
z = z0 + nt, t R,
ed il piano , ortogonale al vettore n = (a, b, c), di equazione:
: ax + by + cz + d = 0,
i punti che appartengono allintersezione di r con si possono determinare cercando i
valori del parametro t che verificano la seguente equazione:
a(x0 + lt) + b(y0 + mt) + c(z0 + nt) + d = 0.
Il problema e` quindi ricondotto allo studio delle soluzioni dellequazione lineare:
(al + bm + cn)t = ax0 by0 cz0 d,
nellincognita t. Osservando che:
al + bm + cn = r n,
inoltre:
ax0 + by0 + cz0 + d = 0
se e solo il punto P0 appartiene al piano e tenendo conto che lannullarsi del prodotto
scalare tra due vettori esprime la loro ortogonalit`a, si distinguono le seguenti possibilit`a:
1. r n 6= 0, cio`e la retta ed il piano si intersecano in un punto;
2. r n = 0 e P0 , cio`e la retta r giace sul piano ;
3. r n = 0 e P0
/ , cio`e la retta r e` parallela al piano e non ha punti in comune
con .
Esercizio 11.7 Studiare la posizione reciproca della retta r e del piano di equazioni:
x hz 2 = 0
r:
3x + y = 0,
: kx y + hz 1 = 0,
al variare di h, k R.
Capitolo 11
Soluzione
x hz 2 = 0
3x + y = 0
kx y + hz 1 = 0
543
(11.14)
al variare di h e k in R. Dal calcolo del rango della matrice dei coefficienti e della matrice
completa al variare di h e k si ha:
1. h 6= 0 e k 6= 4 : r e si intersecano in un punto;
2. h = 0 e k 6= 5/2 : r e` parallela a ;
3. h = 0 e k = 5/2 : r giace su ;
4. k = 4, r e` parallela a .
In alternativa, osservando che il piano e` ortogonale al vettore n = (k, 1, h) e la retta
r e` parallela al vettore:
r = (1, 0, h) (3, 1, 0) = (h, 3h, 1),
si ha che r n = 0 se e solo se h(4 + k) = 0. Inoltre il punto P0 = (2, 6, 0) della retta
r appartiene al piano se e solo se 2k + 5 = 0. Si perviene in questo modo alle stesse
soluzioni del sistema lineare (11.14).
11.4.3
Dalla geometria euclidea e` noto che due rette r e r0 nello spazio possono essere:
1. coincidenti,
2. parallele,
3. incidenti,
4. sghembe (o non complanari).
Da notare che rette parallele e incidenti sono necessariamente complanari.
Analogamente al caso della posizione reciproca tra una retta e un piano, studiato nel paragrafo precedente, per individuare la posizione di due rette nello spazio si pu`o procedere
in modo algebrico, per esempio rappresentando le due rette come intersezione di due
544
piani ciascuna, o in modo geometrico, per esempio considerando le due rette in forma
parametrica.
Date due rette r e r0 in rappresentazione cartesiana:
r:
a1 x + b 1 y + c 1 z + d 1 = 0
a2 x + b2 y + c2 z + d2 = 0,
r :
la loro posizione reciproca si ottiene studiando le soluzioni del sistema lineare delle quattro equazioni nelle tre incognite ottenuto dalle equazioni dei quattro piani dati. Questo
metodo non e` cos` semplice da applicare ed e` anche difficile riuscire ad indovinare la posizione reciproca delle due rette solo guardando la loro rappresentazione, prima di iniziare
a svolgere i calcoli, come si pu`o osservare dallesempio che segue.
Esempio 11.7 Date le rette:
xy+z =0
r:
y + 3z = 0,
r :
x+y1=0
y + 3z 2 = 0,
xy+z =0
y + 3z = 0
x
+y1=0
y + 3z 2 = 0.
Si ottiene che il rango della matrice completa e` 4 (ossia, trattandosi di una matrice quadrata di ordine 4, il suo determinante e` diverso da 0) quindi il sistema lineare e` incompatibile.
Le due rette r e r0 sono sghembe. Le due rette non sono parallele perche il rango della
matrice dei coefficienti e` 3.
Se si rappresentano, invece, le due rette r e r0 in forma parametrica:
x = x0 + lt
x = x1 + l 0
0
y = y0 + mt
y = y1 + m0
r:
r :
z = z0 + nt, t R,
z = z1 + n0 , R,
osservando che le rette r e r0 sono parallele, rispettivamente, ai vettori r = (l, m, n),
r0 = (l0 , m0 , n0 ) e passano, rispettivamente, per i punti P0 = (x0 , y0 , z0 ), P1 = (x1 , y1 , z1 )
si ha un metodo molto pi`u agevole per studiarne la loro posizione reciproca. Innanzi
tutto e` evidente se le due rette siano o meno parallele a seconda che i vettori r e r0 siano
paralleli. Nel caso in cui esse siano parallele, si distingue il caso delle rette coincidenti da
Capitolo 11
545
quello delle rette parallele ma ad intersezione vuota, semplicemente controllando se, per
esempio il punto P0 appartenga o meno alla retta r0 . Ma, in generale, tenendo conto che
= 0,
l
m
n
P0 P1 r r0 =
0
0
0
l
m
n
si distinguono i seguenti casi:
1. r = r0 se e solo se r e r0 sono paralleli e ad esempio P0 r0 ;
2. r e r0 sono parallele se e solo se r e r0 sono paralleli e P0
/ r0 ;
x = 4t
x = 1 + 3
0
y = 3t
y = 2 3
r:
r :
z = t, t R,
z = ,
R,
si ricava che le rette r e r0 sono parallele ai vettori r = (4, 3, 1) e r0 = (3, 3, 1) e
passano rispettivamente per i punti O = (0, 0, 0) e P1 = (1, 2, 0). Si osserva subito che
le due rette non sono parallele, non essendolo i vettori r e r0 . Poiche OP1 r r0 6= 0, si
ha che le due rette sono sghembe.
11.5
Fasci di piani
In questo paragrafo sono studiati i fasci di piani, la cui trattazione e` analoga a quella dei
fasci di rette nel piano introdotta nel Paragrafo 9.8.
Si definiscono due tipi di fasci di piani:
1. il fascio improprio formato da tutti i piani paralleli ad un piano assegnato;
546
0 : a0 x + b0 y + c0 z + d0 = 0,
il fascio di piani F generato da e 0 , cio`e formato da tutti e soli i piani passanti per la
retta r = 0 , e` linsieme di tutti i piani aventi per equazione cartesiana la combinazione
lineare:
F : (ax+by+cz+d)+(a0 x+b0 y+c0 z+d0 ) = 0,
Capitolo 11
547
xy+2=0
2x y 3z = 0;
r :
y = 2x 1
z = x + 3;
k R.
, R, (, ) 6= (0, 0).
(11.16)
548
x = 1 + 2t
y = 3 + 2t
r:
z = 1 + 3t,
tR
e il punto A = (2, 1, 0), determinare le equazioni della retta s passante per A, perpendicolare ed incidente la retta r.
Soluzione La retta s pu`o essere determinata come intersezione dei due piani 1 e 2 ,
dove 1 e` il piano passante per r e per il punto A e 2 e` il piano passante per A e
ortogonale a r; si ha:
xy+2=0
r:
3x 2z 1 = 0.
Di conseguenza, il fascio di piani passanti per r ha equazione:
F : (x y + 2) + (3x 2z 1) = 0,
, R, (, ) 6= (0, 0).
k R,
11.6
Distanze e angoli
In questo paragrafo sono affrontati i problemi metrici riguardanti punti, rette, piani nello
spazio. Si determineranno, infatti, le distanze di un punto da un piano e di un punto da
una retta, la distanza minima tra due rette sghembe e le equazioni della retta perpendicolare e incidente due rette sghembe, inoltre si calcoleranno gli angoli formati da due rette
incidenti o sghembe, da una retta e un piano incidenti e da due piani incidenti.
Capitolo 11
11.6.1
549
P0 H n
.
d(P0 , H) =
knk
(11.17)
Si osservi che il segno della distanza d(P0 , H) e` determinato dal prodotto scalare P0 H n
che e` positivo se P0 appartiene al semispazio individuato da orientato come n, come
nella Figura 11.6, negativo se P0 appartiene al semispazio opposto. Il prodotto scalare
,
a2 + b 2 + c 2
(11.18)
che e` una formula analoga a quella gi`a ricavata per il calcolo della distanza di un punto
da una retta nel piano (cfr. Par. 9.7.5).
Esercizio 11.10 Data la retta:
r:
x+z1=0
y + 1 = 0,
determinare i punti di r aventi distanza pari a 4 (in valore assoluto) dal piano:
: 2x y 2z + 1 = 0.
Soluzione I punti della retta r hanno coordinate (t, 1, t + 1), t R, per cui, dalla
formula (11.18) segue:
|2t + 1 2(t + 1) + 1|
= 4.
4+1+4
I due valori di t che cos` si trovano permettono di individuare i due punti P1 e P2 della
retta r che risolvono il problema. La situazione geometrica e` illustrata nella Figura 11.7.
550
P0
P1
r
P2
Capitolo 11
11.6.2
551
La distanza d(P0 , r) di un punto P0 da una retta r nello spazio e` per definizione la distanza d(P0 , H) tra i punti P0 e H , dove H e` il punto proiezione ortogonale di P0 su r.
Il punto H e` lintersezione della retta r con il piano passante per P0 e ortogonale a r.
In alternativa, si pu`o determinare la distanza d(P0 , H) cosiderando un punto P1 appartenente a r e un vettore r 6= o parallelo a r. Indicato con langolo compreso tra i vettori
kP0 P1 rk
,
d(P0 , r) = d(P0 , H) =
krk
(11.19)
x=t
y = 1 + 2t
z = 1 + 3t, t R,
e` la distanza di O dal punto H ottenuto dallintersezione della retta r con il piano
passante per O perpendicolare a r, si ha:
11
1 8
, ,
.
H=
14 7
14
In alternativa, si pu`o considerare un qualsiasi punto di r, ad esempio A = (0, 1, 1) ed
un vettore r parallelo alla retta r, per esempio r = (1, 2, 3), e utilizzando la formula
(11.19) si ottiene:
r
kOA rk
k(5, 1, 1)k
27
d(O, r) =
=
=
.
krk
k(1, 2, 3)k
14
11.6.3
Un noto teorema di geometria euclidea afferma che date due rette sghembe r e r0 esiste
ed e` unica la retta perpendicolare e incidente sia r sia r0 , tale retta prende il nome di
552
P0
P1
Capitolo 11
553
perpendicolare comune a due rette sghembe. La distanza tra i due punti di intersezione
della perpendicolare comune con le due rette sghembe e` la minima distanza tra le rette
sghembe d(r, r0 ) nel senso che ogni segmento che unisce due punti qualsiasi, uno su r e
uno su r0 , ha lunghezza maggiore di tale distanza. In questo paragrafo si indicheranno
alcuni metodi per determinare sia la perpendicolare comune a due rette sghembe sia la
loro minima distanza.
Siano P (t) = P0 + tr e P (t0 ) = P00 + t0 r0 due rappresentazioni parametriche rispettivamente di r e r0 . Per determinare lequazione della perpendicolare comune a r e a
r0 si possono imporre le due condizioni di ortogonalit`a tra i vettori P (t)P (t0 ) e r e tra
P (t)P (t0 ) e r0 :
(P (t0 ) P (t)) r = 0
(11.20)
(P (t0 ) P (t)) r0 = 0.
Il precedente sistema lineare nelle due incognite t e t0 ha ununica soluzione (t = t0 , t0 =
t00 ) e la perpendicolare comune e` pertanto la retta passante per i due punti R, su r ottenuto
ponendo t0 nelle equazioni parametriche di r, e R0 , su r0 , ottenuto ponendo t00 nelle
equazioni parametriche di r0 . La minima distanza tra le due rette r e r0 sar`a dunque
d(R, R0 ). In alternativa si pu`o determinare la minima distanza tra le due rette sghembe
r e r0 senza necessariamente calcolare le equazioni della loro perpendicolare comune. E`
sufficiente infatti determinare lequazione del piano passante per r e parallelo ad r0 e
poi calcolare la distanza (in valore assoluto) di un qualunque punto di r0 da e questa
e` la minima distanza tra le due rette sghembe. Oppure si pu`o osservare che la minima
distanza tra le due rette sghembe r ed r0 non e` altro che la proiezione ortogonale su r r0
del vettore che unisce un punto P1 fissato su r ad un punto P2 fissato su r0 , ossia:
|P1 P2 r r0 |
.
d(r, r ) =
kr r0 k
0
x=t+2
y=t
r:
z = 2t, t R,
x = t0
0
y = t0 1
r :
z = t0 + 2,
t0 R,
554
r'
R'
r'
P!t'"
r#r'
r
P!t"
Capitolo 11
555
Soluzione
1. Le rette r e r0 sono rispettivamente parallele ai vettori r = (1, 1, 2) e
r0 = (1, 1, 1). Inoltre, considerati i punti P1 = (2, 0, 0) in r e P2 = (0, 1, 2) in
P (t0 ) = (t0 , t0 1, t0 + 2)
3
1
, , 1 r,
2
2
R0 = (1, 0, 1) r0 ,
x=1
y=
p:
z = 1, R.
Si perviene allo stesso risultato considerando la retta p come intersezione dei piani
1 e 2 cos` determinati: 1 e` il piano parallelo al vettore r r0 = i j e appartenente al fascio di piani di asse la retta r, si ottiene 1 : x + y + z 2 = 0. In modo
analogo, 2 e` il piano parallelo a r r0 e appartenente al fascio di piani di asse la
retta r0 , si ha 2 : x + y + 2z 3 = 0.
2. La distanza minima di r e r0 e` :
d(R, R0 ) =
2
.
2
Si perviene allo stesso risultato determinando lequazione del piano 3 appartenente al fascio di piani di asse la retta r e parallelo alla retta r0 , si ha 3 : xy 2 = 0,
infine calcolando la distanza (in valore assoluto) di un generico punto di r0 , per
esempio A = (0, 1, 2), dal piano 3 .
556
11.6.4
[
Per definizione, langolo (r,
r0 ) tra due rette r e r0 nello spazio e` langolo formato tra un
vettore r parallelo alla retta r ed un vettore r0 parallelo alla retta r0 . Da osservare quindi
che se e` langolo tra i due vettori r e r0 , le due rette formano anche langolo .
Inoltre, in base a questa definizione, che peraltro coincide con la definizione di angolo
tra due rette nel piano (cfr. Par. 9.7.3), ha anche senso la nozione di angolo tra due rette
sghembe. Pertanto, dalla definizione di prodotto scalare tra due vettori (cfr. Par. 3.7.1)
segue:
r r0
0 , r) =
[
\
.
cos (r,
r0 ) = cos (r
krk kr0 k
11.6.5
Langolo tra una retta r ed un piano nello spazio e` per definizione langolo [0, /2]
che la retta r forma con la retta r0 , proiezione ortogonale di r su . Langolo e` pertanto
complementare allangolo [0, /2] che un vettore r parallelo alla retta r forma con
un vettore n ortogonale a , quindi si ha:
|n r|
[
.
sin (r,
) = sin =
knk krk
La situazione geometrica e` illustrata nella Figura 11.10.
11.6.6
Dalla geometria euclidea e` noto che lampiezza dei diedri formati da due piani 1 e 2
incidenti in una retta r e` calcolata mediante la loro sezione normale. Per sezione normale
di un diedro individuato dai piani 1 e 2 si intende un piano che intersechi ortogonalmente la retta r = 1 2 . Gli angoli sul piano individuati dalle due rette r1 e
r2 rispettivamente intersezione di con 1 e con 2 corrispondono agli angoli formati
dai piani 1 e 2 . La situazione geometrica e` illustrata nella Figura 11.11. Dalla rappresentazione in pianta dellangolo indicato nella Figura 11.11 (cfr. Fig. 11.12) si
osserva che langolo individuato da 1 e 2 e` il supplementare dellangolo formato
dai vettori n1 e n2 , vettori normali, rispettivamente, a 1 e a 2 . Daltra parte, cambiando
lorientamento di n1 o di n2 , essi formano anche langolo . Pertanto:
\
\
cos (
1 , 2 ) = cos (n1 , n2 ) =
n1 n2
.
kn1 k kn2 k
Capitolo 11
557
n
j
r'
558
r1
r2
r2
n1
"
n2
r1
Capitolo 11
11.7
559
11.7.1
Sfera
(11.21)
a, b, c, d R,
(11.22)
non sempre rappresenta una sfera nello spazio. Infatti, per confronto con (11.21), da
(11.22) il centro C ha coordinate:
b
c
a
(11.23)
C = , ,
2
2
2
e il raggio e` dato da:
r
a2 + b2 + c2 4d
,
(11.24)
4
pertanto lequazione (11.22) rappresenta una sfera se e solo se a2 + b2 + c2 4d 0.
R=
560
(1)2
2
2
1
1
6
.
+
+
=
2
2
2
Da notare che il raggio R1 coincide con la distanza d(O, C), in quanto la sfera passa per
lorigine O, essendo la sua equazione priva di termine noto. Il centro di 2 e` C , ma 2
non e` una sfera poiche, da (11.24) si ha che il radicando vale 3/2 4 < 0. In base alla
precedente osservazione 2 e` infatti una sfera immaginaria.
Esercizio 11.13 Si studino le posizioni delle sfere nello spazio, rappresentate dallequazione (11.22), al variare di a, b, c, d in R.
11.7.2
Capitolo 11
561
P0
562
x=1+t
y =1+t
r:
z = 1 t, t R,
pertanto il generico punto C della retta r ha coordinate C = (1 + t, 1 + t, 1 t). Imponendo la condizione d(C, A) = d(C, B) si ha t = 1 e quindi si determina il centro
C = (2, 2, 0) della sfera che ha, di conseguenza, equazione cartesiana:
(x 2)2 + (y 2)2 + z 2 = 3.
Capitolo 11
11.7.3
563
x = x0 + lt
y = y0 + mt
r:
z = z0 + nt,
t R,
564
Capitolo 11
565
3. due soluzioni reali distinte, cio`e la retta r e` secante la sfera (r interseca in due
punti distinti, cfr. Fig. 11.18).
Osservazione 11.7 Geometricamente i casi di intersezione di una retta r con una sfera
appena descritti possono essere interpretati in termini della distanza d(C, r) del centro
C della sfera dalla retta r nel modo seguente:
1. la retta r e` esterna alla sfera se e solo se d(C, r) > R;
2. la retta r e` tangente alla sfera se e solo se d(C, r) = R;
3. la retta r e` secante la sfera se e solo se d(C, r) < R.
Si osservi inoltre che in ogni punto P0 di una sfera si hanno infinite rette tangenti a ,
tutte e sole quelle appartenenti al fascio di rette di centro P0 che giace sul piano tangente
a nel punto P0 .
11.8
Una circonferenza C di centro C e raggio r e` il luogo geometrico dei punti P dello spazio
che appartengono ad un piano passante per C e che hanno distanza r da C :
C = {P | d(P, C) = r}.
Una circonferenza C e` quindi individuata dal suo centro, dal suo raggio e dal piano su cui
essa giace.
Esempio 11.10
a. La circonferenza C di centro il punto C = (, , ), raggio r e
appartenente al piano di equazione ax + by + cz + d = 0 e` data, ad esempio,
dallintersezione del piano con la sfera di centro C e raggio r, pertanto C ha
equazioni cartesiane:
(x )2 + (y )2 + (z )2 = r2
C:
ax + by + cz + d = 0.
b. La circonferenza C e` anche data dallintersezione del piano con infinite altre
sfere, aventi il centro sulla retta passante per C, ortogonale a .
c. La cironferenza C e` anche data dallintersezione di due sfere che in essa si intersecano.
566
Capitolo 11
567
C
R
r
568
x=2
y=0
z = t, t R.
Si ottiene
Q = (2, 0, 1) e, dalla formula (11.25) si ha che il raggio della circonferenza
e` r = 3.
Esercizio 11.16 Data la circonferenza C intersezione della sfera : x2 + y 2 + z 2 2 = 0
con il piano : x + y + z = 0,
1. verificare che il punto A = (2, 0, 2) del piano e` esterno alla circonferenza C .
2. Determinare le equazioni delle rette del piano uscenti da A e tangenti a C .
Soluzione 1. Il centro Q della circonferenza C e` lintersezione del piano con la retta ortogonale a e passante per il centro C della sfera . Poiche il centro C coincide con lorigine e il piano passa per lorigine segue che la circonferenza C e` un
Capitolo 11
569
y z 2 = 0.
Nellesercizio seguente si intendono ricavare le equazioni parametriche di una circonferenza rappresentata come intersezione di un piano e di una sfera, allo scopo, per esempio,
di disegnarla agevolmente usando un programma di calcolo simbolico.
Esercizio 11.17 Trovare le equazioni parametriche della circonferenza C , appartenente
al piano di equazione 2x y + z = 0, di centro C = (1, 2, 0) e raggio 2.
Soluzione Un vettore parallelo al piano e` v1 = j + k. Un vettore parallelo a e
ortogonale a v1 invece e` :
v2 = v1 (2i j + k) = 2i + 2j 2k.
Si considerino i loro versori:
u1 =
v1
j+k
= ,
kv2 k
2
u2 =
v2
i+jk
=
.
kv2 k
3
0 t < 2,
che in componenti, rispetto alla base ortonormale positiva B = (i, j, k), diventa:
x = 1 + sin t
2
2
y = 2 + cos t + sin t
3
3
2
2
570
11.9
Capitolo 11
571
572
Capitolo 11
573
Come nel caso del fascio di circonferenze nel piano (cfr. Par. 10.1.4) date due sfere:
1 : x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0,
2 : x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,
574
, R, (, ) 6= (0, 0),
(11.26)
(11.27)
Capitolo 11
575
, R, (, ) 6= (0, 0).
, R, (, ) 6= (0, 0),
o, equivalentemente (tenendo conto che in questo caso non si sta cercando il piano radicale
tra le soluzioni) di equazione:
x2 + y 2 + z 2 4x 6y + 2z + 11 + k(z + 1) = 0,
k R.
(11.28)
576
Capitolo 11
577
578
Capitolo 11
579
11.10
Come nel caso del piano in cui sono state introdotte, per ogni punto P, oltre alla coordinate cartesiane P = (x, y) anche le coordinate polari P = (, ) (cfr. Par. 9.3), in modo
analogo, nello spazio, si possono definire sistemi di coordinate diversi da quello cartesiano. In questo paragrafo saranno descritte le coordinate polari sferiche, che diventeranno
fondamentali per la rappresentazione parametrica di figure aventi un centro di simmetria,
come ad esempio la sfera, da cui la loro denominazione.
Un sistema di coordinate polari sferiche nello spazio e` formato da:
1. un punto O, detto polo,
2. una retta orientata p passante per O, detta asse polare,
3. un semipiano di origine la retta p, detto semipiano polare.
Ad ogni punto P dello spazio (non appartenente allasse polare) si pu`o associare in modo
unico la terna di numeri (, , ), dove:
1. e` la distanza d(O, P ) dal punto P al polo ed e` quindi un numero reale positivo;
2. [0, 2) e` langolo della rotazione antioraria intorno alla retta p che il semipiano
deve compiere per sovrapporsi al semipiano individuato dalla retta p e dal punto
P;
580
P
p
"
Capitolo 11
581
nella Figura 11.30 la lunghezza della proiezione ortogonale del vettore OP sul piano
x = sin cos
y = sin sin
(11.29)
z = cos .
Rispetto al sistema di coordinate polari sferiche appena introdotto, la sfera di centro
O e raggio R ha equazione = R. Utilizzando il cambiamento di coordinate (11.29) si
trova per la rappresentazione parametrica (con parametri e ) data da:
x = R sin cos
y = R sin sin
z = R cos ,
[0, 2), [0, ].
Quindi, la sfera di centro nel punto C = (, , ) e raggio R ha equazioni parametriche:
x = R sin cos +
y = R sin sin +
(11.30)
z = R cos + ,
[0, 2), [0, ].
A tali equazioni si perviene operando mediante una traslazione degli assi, cio`e considerando un nuovo riferimento cartesiano R0 = (C, X, Y, Z), con origine il centro C della
582
O
y
#
P'
Capitolo 11
583
x=X +
y =Y +
z = Z + .
11.11
xy =0
2x z + 5 = 0,
s:
xy+6=0
x 2y + z 6 = 0,
t:
3x 2z + 2 = 0
3y + z 4 = 0,
, R, (, ) 6= (0, 0).
, R, (, ) 6= (0, 0).
Esercizio 11.20 Piano assiale di un segmento Calcolare lequazione del piano assiale del segmento di estremi A = (3, 5, 1), B = (2, 3, 1).
Soluzione
Il procedimento da usare e` simile a quello spiegato nel Paragrafo 9.2 nel
caso di un asse di un segmento nel piano, in alternativa si pu`o determinare lequazione
del piano ortogonale ad AB nel suo punto medio. Imponendo, invece, che il piano assiale
sia il luogo dei punti P = (x, y, z) equidistanti da A e B si ha:
p
p
(x + 3)2 + (y 5)2 + (z 1)2 = (x 2)2 + (y + 3)2 + (z 1)2
584
O'
H
O
Capitolo 11
585
A
K
H
A'
586
Esercizio 11.21 Punto simmetrico di un altro punto rispetto ad una retta Determinare le coordinate del punto O0 simmetrico dellorigine O rispetto alla retta
x + y + z = 0,
r:
x + y 1 = 0.
Soluzione
Il punto medio M di O e O0 e` il punto di intersezione della retta r con il
piano passante per O e ortogonale a r. Il piano ha equazione cartesiana x y = 0,
pertanto il punto medio M tra O e O0 e` :
1 1
M=
, , 1 ,
2 2
quindi si ha O0 = (1, 1, 2). La situazione geometrica e` illustrata nella Figura 11.31.
Esercizio 11.22 Retta simmetrica di unaltra retta rispetto ad un piano Data la
retta:
x+y+z1=0
r:
x y = 0,
determinare le equazioni della retta s, simmetrica di r rispetto al piano:
:x+yz1=0
e scrivere lequazione del piano che contiene sia r sia s.
Soluzione
x=t
y=t
z =1t
x + y z 1 = 0,
Capitolo 11
si ottiene:
H=
587
2 2 1
, ,
.
3 3 3
588
Esercizio 11.24 Circonferenza per tre punti Determinare le equazioni della circonferenza passante per i tre punti A = (1, 1, 5), B = (2, 2, 1), C = (1, 2, 2).
Soluzione La circonferenza e` lintersezione del piano per A, B, C con la sfera che
ha come centro lintersezione Q dei tre piani assiali relativi ai segmenti AB , AC, BC .
Pi`u precisamente il piano e` ortogonale al vettore:
AB AC = (15, 3, 3)
e quindi ha equazione cartesiana : 5x y + z 9 = 0. La sfera ha centro nel punto
Q, intersezione dei quattro piani:
x + y 4z + 9 = 0
y+z3=0
x + 4y z = 0
5x y + z 9 = 0
e raggio d(A, Q) = 6.
Esercizio 11.25 Dati i punti A = (2, 0, 0), B = (0, 2, 0), C = (0, 0, 2),
1. determinare il luogo dei punti equidistanti da A, B, C .
2. Tra tutte le sfere passanti per A, B, C determinare quella che ha volume minimo.
Soluzione
Si tratta, cio`e, della retta r in cui si intersecano i piani assiali dei segmenti AB, BC
(e ovviamente AC ). Infatti da d2 (P, A) = d2 (P, B) segue:
(x 2)2 + y 2 + z 2 = x2 + (y 2)2 + z 2 ,
da cui:
x y = 0,
che e` lequazione del piano 1 , piano assiale del segmento AB . Analogamente si
ricava lequazione del piano 2 , piano assiale del segmento BC :
2 : y z = 0.
La retta r = 1 2 ha, pertanto, equazioni parametriche:
x=t
y=t
z = t, t R.
Capitolo 11
589
minimo , dove = kAQk. Per trovare il punto Q della retta r che rende minimo
il raggio si pu`o procedere in due modi.
a. Si osserva che, essendo il piano 1 ortogonale alla retta AB e il piano 2
ortogonale alla retta BC, la retta r e` ortogonale al piano passante per i tre
punti A, B, C di equazione x + y + z 2 = 0 e lo interseca nel punto:
2 2 2
, ,
,
Q0 =
3 3 3
che e` il centro della sfera 0 di raggio minimo. Infatti, qualunque sia il punto
Q della retta r, con Q 6= Q0 , si ha:
2 6
0 = kQ0 Ak =
.
3
b. Se Q = (t, t, t), t R, e` un punto della retta r, si ha:
2 = kQAk = 3t2 4t + 4.
Per determinare il raggio minimo si calcola il valore di t che annulla la derivata prima di 2 :
d2
= 6t 4,
dt
da cui si trova t = 2/3 e si verifica che per questo valore la funzione 2 (t) ha
un minimo. Si perviene cos` ai risultati dedotti in precedenza.
Esercizio 11.26 Data la sfera : x2 + y 2 + z 2 = 2,
1. studiare, al variare di k R, lintersezione di con il piano : y + z = k.
2. Posto k = 4, trovare il punto P di che ha distanza minima da .
Soluzione 1. Per studiare la posizione reciproca del piano con la sfera e` sufficiente confrontare la distanza del centro C di dal piano con il raggio r di .
590
Si ha:
| k|
d(C, ) = ,
2
r=
2.
Segue che:
se k = 2 il piano e` tangente alla sfera ;
se 2 < k < 2, il piano interseca la sfera in una circonferenza;
se k < 2 oppure k > 2 il piano e` esterno alla sfera .
2. Poiche il piano : y + z = 4 e` esterno alla sfera , il punto P richiesto appartiene
alla retta passante per il centro della sfera e ortogonale al piano . Si trova
P = (0, 2, 2).
Esercizio 11.27 Determinare le equazioni della circonferenza C passante per il punto
A = (2, 1, 0) e tangente alla retta:
x+y2=0
r:
2x + z 3 = 0
nel punto B = (0, 2, 3).
Soluzione La circonferenza C richiesta pu`o essere individuata come intersezione del
piano , passante per A e contenente r, con la sfera avente C come cerchio massimo.
Il piano ha equazione:
x y + z 1 = 0.
Il centro C di , che coincide con il centro di C, e` il punto comune ai piani , 1
piano per B perpendicolare alla retta r e 2 piano
assiale del segmento AB. Si trova
C = (7, 9, 3). Il raggio di e` = d(C, A) = 7 2. Le equazioni della circonferenza
sono:
2
x + y 2 + z 2 14x 18y 6z + 41 = 0
C:
x y + z 1 = 0.
Esercizio 11.28 Trovare le sfere tangenti nel punto A = (1, 1, 2) al piano:
1 : y + z 1 = 0,
che intersecano il piano 2 : z = 0 secondo circonferenze di raggio r = 1.
Soluzione Le sfere richieste sono elementi del fascio F individuato dalla sfera di
centro A e raggio uguale a 0 e dal piano 1 :
F : (x2 + y 2 + z 2 2x + 2y 4z + 6) + (y + z 1) = 0,
, R, (, ) 6= (0, 0).
Capitolo 11
591
2
,
2
per = 0 si ha solo il piano 1 . Le sfere che intersecano il piano 2 secondo circonferenze di raggio r = 1 sono quelle che verificano la condizione:
=
d2 (Q, ) + r2 = 2 ,
cio`e:
2
22
4
+1=
.
2
42
Si trova = 1, = 2 e anche = 1, = 10.
, R, (, ) 6= (0, 0).
Poiche nella soluzione dellesercizio non potr`a assumere il valore 0, che corrisponde
al piano radicale del fascio, conviene, per semplificare i calcoli, riscrivere lequazione del
fascio di sfere usando il solo parametro k = /, vale a dire:
x2 + y 2 + z 2 9 + k(2x + 4y + 4z 9) = 0,
k R,
da cui si ottiene:
x2 + y 2 + z 2 + 2kx + 4ky + 4kz 9(1 + k) = 0,
k R.
Il raggio r della generica sfera del fascio risulta verificare la relazione r2 = 9k 2 +9(1+k).
Imponendo la condizione richiesta si ottiene k 2 + (1 + k) 3 = 0 le cui soluzioni sono
k = 2 che danno luogo alle due sfere:
1 : x2 + y 2 + z 2 4x 8y 8x + 9 = 0
2 : x2 + y 2 + z 2 + 2x + 4y + 4z 18 = 0,
che risolvono il problema.
592
11.12
11.12.1
1
O0 G0 =
O 0 P1 + O 0 P2 + . . . + O 0 Pn ,
n
(11.32)
la tesi consiste nel dimostrare che G = G0 . Tenendo conto che dalla definizione di somma
di vettori si ha per ogni punto Pi con i = 1, 2, . . . , n:
0 0
O Pi = OPi + OO ,
da (11.32) segue:
1
O0 G0 = OO0 +
OP1 + OP2 + . . . + OPn = OO0 + OG,
n
da cui la tesi.
Essendo indifferente la scelta del punto O per la determinazione del baricentro di n
punti P1 , P2 , . . . , Pn si pu`o scegliere O = G, infatti vale il seguente teorema la cui
dimostrazione e` lasciata al Lettore per esercizio.
Capitolo 11
593
(11.33)
(11.35)
G1 P3 = 3 GG1 ,
che esprime una ben nota propriet`a che caratterizza il baricentro di un triangolo, provando
cos` che la definizione (11.31) coincide con lusuale concetto di baricentro di un triangolo.
La situazione geometrica descritta e` illustrata nella Figura 11.33.
Baricentro di quattro punti P1 , P2 , P3 , P4 Da (11.33) segue che il baricentro di
quattro punti P1 , P2 , P3 , P4 verifica la relazione:
GP1 + GP2 + GP3 + GP4 = o.
(11.36)
Procedendo come nel caso del calcolo del baricentro di tre punti descritto in precedenza
e indicando con G1 il baricentro dei tre punti P1 , P2 , P3 si ottiene:
G1 P4 = 4 GG1 ,
594
P2
G1
G
P1
P3
Figura 11.33: Baricentro dei tre punti P1 , P2 , P3
che corrisponde ad una ben nota propriet`a geometrica che caratterizza il baricentro del
tetraedro di vertici P1 , P2 , P3 , P4 . La situazione geometrica e` illustrata nella Figura
11.34.
Infine si osservi che dalla formula (11.31) si ottengono le espressioni in coordinate del
baricentro di due punti, di tre punti e di quattro punti elencate allinizio di questo capitolo.
11.12.2
Capitolo 11
595
P4
P3
G1
P2
P1
596
Capitolo 11
597
598
Soluzione Il luogo dei punti richiesto e` formato dai punti P = (x, y, z) che appartengono allintersezione dei tre piani radicali determinati da 1 , 2 e 3 , vale a dire:
399
2x 2y 2z +
=0
100
216
=0
4x 4z +
100
2x + 2y 2z 183 = 0
100
I tre piani appartengono allo stesso fascio proprio, lasse di questo fascio e` il luogo dei
punti richiesto. La situazione geometrica e` illustrata nella Figura 11.35.
Esercizio 11.31 Il luogo dei punti di uguale potenza rispetto a tre sfere assegnate e` sempre una retta?
11.12.3
In questo paragrafo si intende dare qualche cenno, molto intuitivo e a volte poco rigoroso,
di geometria analitica in dimensione maggiore di 3. Per una trattazione approfondita si
rimanda a testi pi`u avanzati, quali ad esempio [11] e [13].
Si immagini di costruire uno spazio affine (di punti) analogo a quanto descritto allinizio
di questo capitolo, basato per`o su uno spazio vettoriale euclideo di dimensione 4 riferito
ad una base ortonormale B. Si definisce un riferimento cartesiano fissando un punto O
a cui si immaginano applicati i vettori della base B, O e` lorigine del riferimento. Ad
ogni punto P di questo spazio si possono associare quattro coordinate cartesiane che
coincidono con le componenti del vettore OP rispetto alla base B, sia, ad esempio P =
(x, y, z, t). In questo ambiente e` quindi possibile, grazie al prodotto scalare, introdurre
in modo totalmente analogo a quanto visto nel caso della dimensione 3, il concetto di
iperpiano, che sar`a quindi rappresentato da unequazione lineare del tipo:
ax + by + cz + dt + e = 0,
a, b, c, d, e R,
lintersezione di due iperpiani non paralleli sar`a un piano affine (proprio lo stesso tipo di
piano caratterizzato dal Teorema 11.1 nel caso dello spazio affine S3 ), lintersezione di
tre iperpiani opportunamente scelti sar`a una retta affine.
La distanza tra due punti P1 e P2 e` pari alla norma del vettore P1 P2 . E` quindi possibile, in
questo ambiente, che per analogia al caso dello spazio ordinario e del piano, si indicher`a
con S4 , introdurre il concetto di ipersfera, definita come il luogo dei punti P tali da
Capitolo 11
599
P =
z1 z2
z3 z4
,
z1 , z2 , z3 , z4 C,
z1 z1 + z3 z3 = 1
z1 z2 + z3 z4 = 0
z2 z2 + z4 z4 = 1.
(11.37)
Supponendo che tutti gli elementi della matrice P non siano nulli (si lasciano per esercizio
i vari casi particolari), dalla seconda equazione di (11.37) si ricava:
z1 =
z3 z4
z2
(11.38)
z3 =
z1 z2
.
z4
(11.39)
e:
(11.40)
600
z2 = z + it,
x, y, z, t R,
Capitolo 12
Coni, Cilindri, Superfici di Rotazione e
Quadriche
Nel capitolo precedente si sono studiate le rappresentazioni in forma cartesiana e parametrica delle rette, dei piani, delle sfere e delle circonferenze nello spazio. Le rette e le
circonferenze sono esempi di curve, i piani e le sfere sono esempi di superfici. In questo capitolo si affronteranno, in generale, alcuni aspetti elementari della rappresentazione
delle curve e delle superfici nello spazio, esaminandone facili problemi di intersezione
e di proiezione. In particolare, si studieranno le equazioni dei coni, dei cilindri e delle
superfici di rotazione in due modi diversi a seconda della rappresentazione cartesiana o
parametrica di una curva che concorre alla loro determinazione. Si accenner`a, inoltre, allo
studio delle superfici rigate. Invece si proporr`a in modo completo la classificazione delle
quadriche, che sono le superfici rappresentabili mediante equazioni di secondo grado, con
una trattazione simile a quella gi`a vista nel Capitolo 10 nel caso delle coniche per la loro
riduzione in forma canonica. Questo capitolo vuole essere un primo approccio, a volte
solo intuitivo, come per esempio nel caso della definizione proposta di piano tangente ad
una superficie, allo studio delle curve e delle superfici nello spazio, argomento di estrema
complessit`a ma di grande fascino, accresciuto ultimamente dalle sorprendenti applicazioni che sono derivate dalla rappresentazione grafica di curve e superfici mediante adeguati
programmi di calcolo simbolico.
12.1
602
Nel Capitolo 11 si e` visto che un piano o una sfera, rispetto ad un sistema di riferimento
cartesiano R = (O, x, y, z), si possono rappresentare nei due modi seguenti:
1. in forma parametrica mediante tre equazioni in x, y, z contenenti due parametri
indipendenti,
2. in forma cartesiana, mediante ununica equazione nelle tre coordinate x, y, z .
Infatti, in generale, tre equazioni con due parametri indipendenti u e v definiti su un
sottoinsieme D di R2 del tipo:
x = x(u, v)
y = y(u, v)
f (x, y, z) = 0
g(x, y, z) = 0,
dove sia f sia g sono funzioni qualsiasi di dominio R3 e codominio R, o in forma parametrica, mediante le equazioni parametriche date al variare di un solo parametro t in un
intervallo I di R:
x = x(t)
y = y(t)
C:
z = z(t), t I R.
In generale, non e` semplice passare da una rappresentazione parametrica di una curva o
di una superficie alla sua equazione cartesiana o viceversa, infatti potrebbero sorgere problemi. Per esempio, anche nel caso pi`u semplice delle curve piane, la curva di equazioni
parametriche:
Capitolo 12
603
x = 1 + t + t5
y = 1 + 2t + 3t5
z = 0,
t R,
non ha una ovvia rappresentazione come intersezione di superfici. Anche la circonferenza
appartenente al piano xy , di centro lorigine e raggio r, che si pu`o rappresentare in forma
cartesiana come intersezione della sfera e del piano dati dal sistema:
2
x + y 2 r2 = 0
z = 0,
pu`o costituire un problema, infatti essa ammette infinite rappresentazioni parametriche,
anche molto dissimili, per esempio:
x = r cos t
y = r sin t
z = 0,
t R,
oppure:
1 s2
x
=
r
1 + s2
2s
y
=
r
1 + s2
z = 0,
s R.
12.2
Il cono
In questo paragrafo si introducono i coni come luoghi geometrici dello spazio definiti da
funzioni omogenee di grado k nelle variabili x, y, z . In particolare si studieranno i coni
circoscritti ad una sfera e la proiezione di una curva da un punto su di un piano.
Definizione 12.1 Sia C una curva nello spazio e V un punto non appartenente a C . Il
cono di vertice V e direttrice C e` il luogo delle rette che uniscono V ad ogni punto di
C. Le rette sono dette generatrici del cono e ogni curva (non solo C ) che incontra tutte le
generatrici prende il nome di direttrice del cono.
Si procede ora con la determinazione dellequazione cartesiana e delle equazioni parametriche del cono, distinguendo i casi in cui la direttrice sia data come intersezione di due
superfici o in forma parametrica.
604
P
P0
C:
f (x, y, z) = 0
g(x, y, z) = 0,
x0 = + t(x )
y0 = + t(y )
z0 = + t(z ),
t R,
f (x0 , y0 , z0 ) = 0
g(x0 , y0 , z0 ) = 0.
Capitolo 12
605
x0 = + t(x )
y
0 = + t(y )
z0 = + t(z )
f (x0 , y0 , z0 ) = 0
g(x0 , y0 , z0 ) = 0
si ottiene lequazione cartesiana del cono. Si osservi che, anche se esistono infinite generatrici e infinite direttrici, lequazione del cono cos` ottenuta non dipende dalla scelta
della direttrice e della generatrice.
606
Esercizio 12.1 Scrivere lequazione del cono avente come direttrice la curva:
C:
x2 + y 2 + z 2 9 = 0
x+y2=0
x0 = xt
y0 = yt
z0 = zt,
t R,
x0 = xt
y0 = yt
z0 = zt
x2 + y02 + z02 9 = 0
0
x0 + y0 2 = 0.
Eliminando i parametri x0 , y0 , z0 , segue:
t2 (x2 + y 2 + z 2 ) 9 = 0
t(x + y) 2 = 0,
ricavando t dalla seconda equazione e sostituendo tale valore nella prima si ottiene:
5x2 + 5y 2 4z 2 + 18xy = 0
che e` lequazione del cono, rappresentato nella Figura 12.2.
Si osservi che lequazione del cono ottenuta nellesercizio precedente e` di secondo grado
ed e` omogenea in x, y, z nel senso che e` somma di monomi dello stesso grado; la definizione che segue chiarisce questo concetto e subito dopo si dimostra che ogni equazione
omogenea in x, y, z rappresenta un cono di vertice lorigine O = (0, 0, 0) del riferimento
cartesiano R = (O, x, y, z) e viceversa.
Definizione 12.2 Una funzione f : R3 R nelle variabili x, y, z , si dice omogenea di
grado k , (k R), se:
f (tx, ty, tz) = tk f (x, y, z),
Capitolo 12
607
(x, y, z) 7
x y
,
z z
e` omogenea di grado zero, vale a dire f (tx, ty, tz) = f (x, y, z) per ogni t reale.
Teorema 12.1 In un riferimento cartesiano R = (O, x, y, z), tutti e soli i luoghi geometrici dei punti P = (x, y, z) dello spazio tali che:
f (x, y, z) = 0,
dove f : R3 R e` una qualsiasi funzione omogenea di grado k (k R), rappresentano un cono di vertice lorigine O del riferimento.
Dimostrazione
x = tx0
y = ty0
r:
z = tz0 , t R,
cio`e le coordinate di ogni suo punto sono date da (tx0 , ty0 , tz0 ), al variare del parametro
t R. Per lomogeneit`a di f il punto (tx0 , ty0 , tz0 ) appartiene alla superficie S in quanto
f (tx0 , ty0 , tz0 ) = 0. Ne segue che la retta r giace sulla superficie S . Variando il punto
P sulla superficie, tutte le rette che uniscono P allorigine del riferimento O giacciono
sulla superficie stessa e ci`o prova che S e` un cono con vertice in O.
Viceversa, si tratta di dimostrare che un cono di vertice lorigine O e` rappresentato da
unequazione del tipo f (x, y, z) = 0, con f funzione omogenea da R3 in R. Infatti se
g(x, y, z) = 0 e` lequazione cartesiana di un cono di vertice O, allora la curva:
g(x, y, z) = 0
C:
z1=0
608
e` una direttrice del cono. Procedendo con il metodo descritto in precedenza per calcolare
lequazione cartesiana del cono di direttrice C e vertice lorigine O, si consideri un punto
P0 = (x0 , y0 , z0 ) appartenente a C ossia:
g(x0 , y0 , z0 ) = 0
z0 1 = 0
e si scrivano le equazioni parametriche della retta OP date da:
x0 = tx
y0 = ty
z0 = tz, t R.
(12.1)
1
.
z
(12.2)
x y
f (x, y, z) = g
, ,1
z z
si ottiene che la funzione f, che definisce il cono, e` una funzione omogenea di grado zero
(cfr. Es. 12.1).
Esempio 12.2 Lequazione x2 + y 2 = z 2 rappresenta il cono di vertice lorigine illustrato
nella Figura 12.3 Le circonferenze di equazioni:
z=k
x2 + y 2 = k 2 , k R,
sono direttrici del cono. Si tratta di un cono circolare retto (cfr. Par. 10.3) e lo si pu`o
anche ottenere dalla rotazione completa della retta passante per lorigine del riferimento
e per il punto di coordinate (1, 0, 1) intorno allasse z (cfr. Par. 12.4), per questo motivo
lasse z e` lasse del cono.
p
Esempio 12.3 Si osservi che lequazione z = x2 + y 2 rappresenta solo la met`a superiore (verso il semiasse positivo delle quote) del cono descritto nellesempio precedente.
Capitolo 12
609
610
Osservazione 12.1 Lequazione di un cono di vertice V = (, , ) che non sia lorigine del riferimento e` anchessa determinata da una funzione con particolari propriet`a.
Infatti se si considera il riferimento cartesiano R0 = (V, X, Y, Z) ottenuto mediante la
traslazione del riferimento cartesiano R = (O, x, y, z) di equazioni:
x=X +
y =Y +
z =Z +
in cui lorigine del riferimento R0 coincide con il vertice V del cono, lequazione del
cono di vertice V, scritta nel riferimento R0 , e` :
f (X, Y, Z) = 0,
con f : R3 R funzione omogenea di grado k , k R. Sostituendo le equazioni della
traslazione si ha:
f (x , y , z ) = 0
che e` lequazione del cono di vertice V nel riferimento R, pertanto f e` una funzione
omogenea di grado k nelle variabili (x , y , z ).
Per esempio (x 1)2 + (y + 1)2 = z 2 e` lequazione del cono circolare retto con vertice
nel punto V = (1, 1, 0).
Secondo Caso
x = x(t)
y = y(t)
C:
z = z(t), t I R,
(12.3)
x = + s(x(t) )
y = + s(y(t) )
(12.4)
z = + s(z(t) ), s R,
che rappresentano le equazioni parametriche del cono di vertice V e direttrice C . Eliminando da tali equazioni i parametri t ed s si ottiene lequazione cartesiana del cono.
Si osservi che se in (12.4):
1. si fissa t = t0 si hanno le equazioni parametriche della generatrice P0 V del cono,
dove P0 e` il punto di C che si ottiene sostituendo in (12.3) al parametro t il valore
t0 ;
Capitolo 12
611
x=t+1
y =t1
C:
(12.5)
2
z = t 1, t R.
Soluzione Osservato che V
/ C , si considera il punto generico P = (t+1, t1, t2 1)
di C e si scrivono le equazioni parametriche della retta P V :
x = (t + 1)s
y = (t 1)s
z = (t2 1)s, t, s R,
che rappresentano anche le equazioni parametriche del cono e che sono utili, per esempio,
per rappresentare graficamente il cono mediante programmi di calcolo simbolico (cfr.
Fig. 12.4). Per pervenire, invece, allequazione cartesiana del cono si devono eliminare i
parametri t, s dalle equazioni parametriche, per esempio procedendo in questo modo, da
(12.5) si ha:
z
x
y
= 2
=
,
t1
t 1
t+1
ossia:
(t + 1)y (t 1)x = 0
(t + 1)z (t2 1)x = 0.
x+y
,
xy
che, sostituita nella seconda, d`a luogo allequazione cartesiana del cono:
2x2 z 2xyz 4x2 y = 0.
Esempio 12.4 Lequazione x + y + z = 0 rappresenta un piano passante per lorigine,
ma e` anche un cono (infatti e` unequazione omogenea). Il suo vertice e` un punto qualsiasi
del piano , una direttrice e` una qualsiasi circonferenza di avente il vertice nel suo
interno, oppure contenente il vertice. Si osservi che il cono di vertice un punto del piano
e direttrice una retta dello stesso piano non contenente il vertice e` il piano stesso privato
di una retta (quale?).
612
Capitolo 12
613
614
Esempio 12.5 Lequazione xyz = 0 rappresenta un cono essendo unequazione omogenea, daltra parte essa e` anche lunione dei tre piani coordinati. Si pu`o vedere come il
cono di vertice lorigine e direttrice la curva:
xyz = 0
x2 + y 2 + z 2 = 1,
sia lunione di tre circonferenze. Il cono considerato e` rappresentato nella Figura 12.5.
12.2.1
x = + lt
y = + mt
z = + nt,
t R,
con la sfera si ottiene unequazione di secondo grado nel parametro t. Si hanno due
intersezioni coincidenti (ossia la retta tangente a ) imponendo che il discriminante
dellequazione cos` ottenuta si annulli:
=0
(12.6)
Capitolo 12
615
616
Soluzione
x = 2 + lt
y = mt
z = nt,
t R.
= l2 3m2 3n2 = 0.
4
Con la sostituzione di x 2, y, z al posto di l, m, n, rispettivamente, si ha lequazione del
cono cercata:
(x 2)2 3y 2 3z 2 = 0.
Si osservi che si ottiene unequazione omogenea in x 2, y, z , in accordo con lOsservazione 12.1. La superficie e` rappresentata nella Figura 12.6.
12.2.2
Data una curva C nello spazio la sua proiezione da un punto P su un piano e` la curva
che si ottiene dallintersezione del piano con il cono di vertice P e direttrice C.
Esercizio 12.5 Determinare le equazioni della curva proiezione di:
x=t
1
C:
y=
z = t3 ,
t R {0}
Capitolo 12
617
618
x = 2 + (t 2)s
1
S:
y =4+
4 s
z = 6 + (t3 + 6)s,
s R, t R {0}
12.3
Il cilindro
Capitolo 12
619
-1
11
0
1
2
x = x0 + lt
y = y0 + mt
z = z0 + nt, t R,
dove le coordinate di P0 verificano le identit`a:
Considerando il sistema:
f (x0 , y0 , z0 ) = 0
g(x0 , y0 , z0 ) = 0.
x = x0 + lt
y = y0 + mt
z = z0 + nt
f (x0 , y0 , z0 ) = 0
g(x0 , y0 , z0 ) = 0
620
La circonferenza C ha equazioni:
C:
2x z = 0
x2 + y 2 + z 2 = 1.
x = x0
y = y0
z = z0 + t, t R
e si ha il sistema:
x = x0
y = y0
z = z0 + t
2x z = 0
2 0 20 2
x0 + y0 + z0 1 = 0.
Eliminando i parametri x0 , y0 , z0 si ottiene:
2x (z t) = 0
x2 + y 2 + (z t)2 1 = 0,
da cui, ricavando t dalla prima equazione e sostituendo lespressione ottenuta nella seconda, si ha:
5x2 + y 2 = 1
che e` lequazione del cilindro, rappresentato nella Figura 12.9.
Secondo Caso
x = x(t)
y = y(t)
C:
z = z(t), t I R,
Capitolo 12
621
622
e sia u = (l, m, n) un vettore. La retta passante per il generico punto P = (x(t), y(t), z(t))
di C, parallela ad u, ha equazioni:
x = x(t) + ls
y = y(t) + ms
z = z(t) + ns,
(12.7)
s, t R,
che non sono altro che le equazioni parametriche del cilindro di direttrice C e generatrici
parallele al vettore u, nei parametri s, t. Volendo determinare lequazione cartesiana del
cilindro e` sufficiente eliminare s e t tra le equazioni parametriche (12.7). Come nel caso
del cono, si osservi che, fissando t in (12.7) si hanno le equazioni parametriche di una
direttrice, invece, fissando s si hanno le equazioni parametriche di una generatrice.
Esercizio 12.7 Determinare lequazione del cilindro avente generatrici parallele al vettore v = (2, 1, 1) e direttrice la curva:
x = t2
y=t
C:
z = t 1,
t R.
x = t2 + 2
y =t
z = t 1 + ,
t, R,
y+z+1
2
2
+2
yz1
2
= 0,
12.3.1
Capitolo 12
623
624
Capitolo 12
625
626
x = x(u)
y = y(u)
C:
z = z(u),
u I R,
e generatrici parallele allasse z , eliminando il parametro u tra due equazioni parametriche e sostituendo lespressione ottenuta nella terza si perviene alla sua equazione
cartesiana.
Esercizio 12.8 Scrivere lequazione cartesiana del cilindro avente come direttrice la curva C di equazioni:
x = u3
y = u2
C:
z = u, u R
e generatrici parallele allasse z .
Soluzione
x2 y 3 = 0
z=0
f (x, y, z) = 0
g(x, y, z) = 0,
Capitolo 12
627
628
x2 + y 2 + z 2 = 1
2x + y z = 0
parallelamente allasse z .
Soluzione
1. Sia:
r:
a1 x + b 1 y + c 1 z + d 1 = 0
a2 x + b 2 y + c 2 z + d 2 = 0
una retta e sia (u, v) una funzione di due variabili reali a valori reali. Allora
lequazione:
(a1 x + b1 y + c1 z + d1 , a2 x + b2 y + c2 z + d2 ) = 0
(12.8)
12.3.2
Capitolo 12
x = x0 + lt
y = y0 + mt
z = z0 + nt,
629
(12.9)
t R,
dove (x, y, z) sono le coordinate di un punto generico della retta, vale a dire le coordinate
del generico punto della superficie cercata. Analogamente a quanto gi`a visto per il cono,
se si interseca con la retta di equazioni parametriche (12.9) si ottiene unequazione di
secondo grado in t, le cui soluzioni portano ai punti di intersezione tra la sfera e la retta.
Le generatrici sono tangenti a se le intersezioni coincidono, ovvero se il discriminante
dellequazione e` nullo. Lequazione in x, y, z che cos` si ottiene rappresenta, come e`
visualizzato nella Figura 12.15, il cilindro circoscritto a con generatrici parallele al
vettore u. In geometria euclidea questo cilindro e` detto cilindro circolare retto in quanto
ha come direttrici le circonferenze che appartengono a piani paralleli, tutte con lo stesso
raggio e con i centri tutti su una retta, detta asse del cilindro, ortogonale ai piani a cui esse
appartengono. Nel Paragrafo 12.4 si vedr`a che un cilindro circolare retto si pu`o anche
ottenere dalla rotazione completa di una retta intorna ad unaltra retta ad essa parallela
che e` lasse del cilindro.
Esercizio 12.10 Scrivere lequazione del cilindro circoscritto alla sfera:
: (x 1)2 + y 2 + z 2 = 3
ed avente le generatrici parallele al vettore u = (1, 0, 1).
Soluzione Le equazioni della retta passante per un punto generico P = (x0 , y0 , z0 ) di
e parallela al vettore u sono date da:
x = x0 + t
y = y0
z = z0 + t, t R.
Intersecando con r si ottiene lequazione di secondo grado in t:
2t2 + 2(x 1 + z)t + (x2 2x 2 + y 2 + z 2 ) = 0.
Imponendo la tangenza tra r e segue:
= (x + z 1)2 2(x2 + y 2 + z 2 2x 2) = 0
4
che e` lequazione del cilindro cercata.
630
Capitolo 12
631
632
Curiosit`a
equazione:
con la sfera:
x2 + y 2 + z 2 = 4a2 .
La curva, rappresentata nella Figura 12.16, prende il nome di curva di Viviani, in quanto
Vincenzo Viviani (1622 1703), studente di Galileo scopr` che questa curva risolve il
seguente problema: quanto misura il lato di quattro finestre uguali, costruite su un emisfero in modo che la parte di esso rimanente abbia larea di un quadrato? Per maggiori
dettagli ed approfondimenti si veda ad esempio [11].
12.3.3
x = 1 t2
y = 2t
C:
z = t + 2,
t R,
x = 1 t2 + s
y = 2t 2s
S:
z = t + 2,
t, s R,
ricavando, dalla terza equazione t = z 2 e dalla seconda equazione:
s=
y + 2z 4
,
2
2z 4 y
.
2
Capitolo 12
633
634
x = 1 (z 2)2 + 2z 4 y
2
C0 :
x 2y = 0
ed e` rappresentata nella Figura 12.17.
12.3.4
Coordinate cilindriche
In questo paragrafo si introduce un altro sistema di coordinate, che estende al caso dello
spazio, in modo diverso dal sistema di coordinate polari sferiche (cfr. Par. 11.10), la
nozione di coordinate polari nel piano.
Si consideri il sistema di riferimento cartesiano R = (O, i, j, k) dello spazio ordinario ed
il riferimento polare del piano associato a quello cartesiano (O, i, j) definito nel Paragrafo
9.3. Se (x, y, z) sono le coordinate cartesiane di un punto P dello spazio (non appartenente allasse z ) e (, ) sono le coordinate polari della sua proiezione ortogonale P 0 sul
piano z = 0, la terna di numeri reali (, , z), nellordine scritto, individua le coordinate
cilindriche del punto P . Il relativo riferimento si ottiene aggiungendo al riferimento polare del piano xy (che determina e ) lasse z del riferimento cartesiano associato. Si
ha allora una corrispondenza biunivoca tra i punti dello spazio e le terne ordinate (, , z),
dove:
0, 0 < 2,
con leccezione dei punti dellasse z per i quali e` indeterminata. La situazione geometrica e` illustrata nella Figura 12.18.
Le relazioni che legano le coordinate cilindriche alle coordinate cartesiane del medesimo
punto P sono:
x = cos
y = sin
z = z;
per le formule inverse si trova:
= x2 + y 2
y
tan =
z = z.
Capitolo 12
635
z
y
P'
636
x = r cos
y = r sin
S:
z = t,
t R, 0 < 2,
mentre e` immediato verificare che:
x2 + y 2 = r 2
e` la sua equazione cartesiana.
Osservazione 12.3 Un punto P = (0 , 0 , z0 ) e` pertanto lintersezione di tre superfici:
un cilindro circolare retto di asse lasse z e raggio r = 0 , un semipiano per lasse z
formante un angolo 0 con il piano y = 0 e il piano z = z0 , del relativo riferimento
cartesiano associato.
12.4
Superfici di rotazione
Capitolo 12
637
638
Capitolo 12
639
s:
x1=0
x + z 1 = 0,
640
f (x, z) = 0
y = 0,
Capitolo 12
641
642
dove f indica una funzione nelle variabili x e z, a valori reali. Un generico punto P
di C ha coordinate del tipo P = (x, 0, z). Sia Q = (X, Y, Z) un punto appartenente al
parallelo della superficie S, ottenuta dalla rotazione di C intorno allasse z, passante per
P . Le equazioni del parallelo per Q sono date dallintersezione del piano passante per
P = (x, 0, z) e perpendicolare al vettore k = (0, 0, 1), che ha equazione Z = z, con la
sfera di centro C = (0, 0, Z) e raggio:
d(P, C) = x2 = |x|,
ossia:
Z=z
X 2 + Y 2 + (Z Z)2 = x2 ,
da cui:
x = X2 + Y 2
z = Z.
x = X 2 + Y 2 , z = Z.
In modo analogo si possono scrivere le equazioni delle superfici di rotazione ottenute
dalla rotazione di una curva appartenente agli altri piani coordinati e che ruoti intorno ad
un asse coordinato dello stesso piano a cui la curva appartiene.
Esercizio 12.13 Scrivere lequazione della superficie S ottenuta dalla rotazione completa
delliperbole, appartenente al piano coordinato xz, di equazione:
2
2
x z =1
a2
c2
y=0
(12.11)
intorno allasse z .
Soluzione
ricava:
S:
x2 + y 2
z2
= 1,
a2
c2
(12.12)
Capitolo 12
643
y=0
intorno allasse z .
Soluzione
(12.14)
che rappresenta una superficie detta ellissoide di rotazione e che sar`a studiata dettagliatamente nel Paragrafo 12.6. Nella Figura 12.25 si vedono unellisse di equazione (12.13) e
un ellissoide di rotazione di equazione (12.14).
Esercizio 12.15 Scrivere lequazione della superficie S ottenuta dalla rotazione completa
delliperbole del piano xz di equazione (12.11) intorno allasse x.
644
=1
(12.15)
a2
c2
che rappresenta una superficie detta iperboloide di rotazione a due falde che si pu`o vedere
nella Figura 12.26 e che sar`a studiata dettagliatamente nel Paragrafo 12.6.
S:
Esercizio 12.16 Scrivere lequazione della superficie S ottenuta dalla rotazione completa
della parabola del piano xz di equazione:
2
x = 2z
a2
y=0
(12.16)
intorno allasse z .
Soluzione
x2 + y 2
= 2z
(12.17)
a2
che rappresenta una superficie detta paraboloide di rotazione. Nella Figura 12.27 si
vedono una parabola di equazione (12.16) e un paraboloide di rotazione di equazione
(12.17).
S:
Capitolo 12
645
Figura 12.26: Iperbole di equazione (12.11) e iperboloide a due falde di equazione (12.15)
646
Osservazione 12.4
sfera.
2. Se a > r si ottiene la superficie rappresentata nella Figura 12.28 la cui conformazione giustifica la denominazione di superficie torica assegnata a questa superficie.
3. Se a < r si ottiene la superficie rappresentata nella Figura 12.29.
Per ricavare lequazione del toro si pu`o procedere come segue. Sia C la circonferenza,
di raggio r, appartenente al piano coordinato yz e con centro nel punto C = (0, a, 0),
quindi di equazioni:
C:
(y a)2 + z 2 = r2
x = 0.
Capitolo 12
647
da cui si ricava y0 =
z z0 = 0
x2 + y 2 + (z z0 )2 = y02 ,
p
x2 + y 2 . Sostituendo nella relazione:
648
Si conclude il paragrafo proponendo la risoluzione di un esercizio di determinazione dellequazione di una generica superficie di rotazione, che non rientra nei casi particolari
precedentemente introdotti.
Esercizio 12.17 Determinare lequazione della superficie generata dalla rotazione della
parabola:
P:
y x2 = 0
z=0
y + z t2 = 0
x=0
y = z,
da cui si ottiene:
2 2
t t
C = 0, ,
,
2 2
allora il raggio di C e` :
r
d(C, P ) =
t2 +
1 4
t.
2
y + z t2 = 0
2
2
C:
1
1
1
x2 + y t2 + z t2 = t2 + t4 ,
2
2
2
da cui, eliminando il parametro t, si ottiene lequazione della superficie di rotazione
cercata:
x2 +
1
1
(y z)2 (y + z)2 (y + z) = 0.
2
2
Capitolo 12
12.5
649
I piani, i coni, i cilindri gli iperboloidi di rotazione ad una falda sono esempi di particolari
superfici formate da uninfinit`a di rette, che prendono il nome di superfici rigate. In
questo breve paragrafo si intende introdurre la definizione di superficie rigata, senza per`o
affrontare lo studio delle sue particolari propriet`a. Ulteriori esempi significativi saranno
descritti nei Paragrafi 12.6.1 e 12.7.
Definizione 12.6 Una superficie S si dice rigata se per ogni punto di S passa almeno una
retta interamente contenuta in S. La superficie S si pu`o individuare tramite una curva
C che le appartenga, la curva direttrice, associando, mediante unopportuna legge, per
ogni punto P0 di C almeno una retta di S passante per P0 . Di conseguenza le equazioni
parametriche di S sono del tipo:
x = h1 (u) + tl(u)
y = h2 (u) + tm(u)
S:
z = h3 (u) + tn(u),
(12.18)
u I R, t R,
dove (h1 (u), h2 (u), h3 (u)), u I R, sono le equazioni parametriche della curva
direttrice C.
Osservazione 12.5
1. Il cilindro di equazioni parametriche (12.7) e` un esempio di
superficie rigata, in cui le rette che lo definiscono sono parallele al vettore di componenti (l, m, n).
2. Il cono di equazioni parametriche (12.3) e` un esempio di superficie rigata in cui la
direttrice si riduce ad un punto che e` il vertice del cono.
3. Si riconosce che le equazioni parametriche (12.18) definiscono una superficie rigata in quanto uno dei due parametri, in questo caso t, compare a primo grado
in ciascuna delle tre equazioni parametriche. Se P0 e` il punto di C che si ottiene
ponendo u = u0 allora la retta appartenente a S e passante per P0 ha equazioni
parametriche:
x = h1 (u0 ) + tl(u0 )
y = h2 (u0 ) + tm(u0 )
z = h3 (u0 ) + tn(u0 ),
t R.
4. Si osservi che il vettore (l(u), m(u), n(u)) in (12.18), identificato con il punto dello
spazio di coordinate (l(u), m(u), n(u)), descrive a sua volta, al variare di u I,
una curva nello spazio.
650
x = 1 + uv
y = u2 v + u
S:
z = (u2 + 1)v, u, v R.
(12.19)
x=1
y=0
r1 :
z = t,
t R,
x = 1 + 2
y = 2 + 4
r2 :
z = 5, R.
x=1+u
y = u2 + u
C:
z = u2 + 1,
della quale si cerca la proiezione ortogonale sul piano z = 0. Eliminando u tra le
equazioni:
x=1+u
y = u2 + u
Capitolo 12
651
652
12.6
Quadriche
In questo paragrafo vengono studiate le superfici che estendono al caso dello spazio il
concetto di conica introdotto nel piano, infatti esse si possono rappresentare mediante
unequazione di secondo grado nelle variabili x, y, z e prendono il nome di quadriche. In
modo analogo al caso delle coniche (cfr. Par. 10.4) si dimostrer`a un teorema di classificazione che permetter`a di scrivere lequazione di una quadrica in forma canonica, rispetto
ad un opportuno sistema di riferimento. Infine ogni tipo di quadrica verr`a studiato nei
dettagli e se ne ricaveranno anche le equazioni parametriche.
Definizione 12.7 Fissato un sistema di riferimento cartesiano R = (O, x, y, z) nello
spazio, una superficie Q rappresentata da unequazione di secondo grado in x, y, z del
tipo:
Q : a11 x2 + 2a12 xy + a22 y 2 + 2a13 xz + 2a23 yz + a33 z 2
(12.20)
+2a14 x + 2a24 y + 2a34 z + a44 = 0,
prende il nome di quadrica.
Lequazione (12.20) pu`o essere anche scritta nella forma:
Q:
x
y
x y z 1 B
z = 0,
1
a11
a12
B=
a13
a14
a12
a22
a23
a24
a13
a23
a33
a34
a14
a24
a34
a44
e che spesso viene anche indicata come la matrice associata alla quadrica Q.
Se ci si limita a considerare il gruppo di termini di secondo grado dellequazione (12.20),
si pu`o introdurre la forma quadratica Q : R3 R associata a Q, ponendo:
Q((x, y, z)) =
x
x y z A y ,
z
Capitolo 12
653
1
a2
B=
1
a2
1
a2
A= 0
0
1
a2
0
.
0
1
0
B=
0
0
0
0
0
0
0
0
,
0 1
0
0
0 2
0
A=
0
0
0
0
0 .
0 1
Il teorema che segue indica un metodo per scrivere in forma pi`u semplice le equazioni
delle quadriche e si basa sulla teoria della riduzione a forma canonica di una forma quadratica introdotta nel Capitolo 8. E` perci`o necessario anteporre la definizione di equazione
di una quadrica in forma canonica. Si osservi che il procedimento che sar`a descritto e`
analogo a quello usato, nel caso della geometria analitica piana, per ridurre le equazioni
delle coniche a forma canonica, di conseguenza, lo stesso tipo di procedimento pu`o essere
esteso allo studio di superfici scritte mediante equazioni di secondo grado in spazi affini
654
(12.22)
Teorema 12.3 Sia Q una quadrica di equazione (12.20) scritta in un riferimento cartesiano R = (O, x, y, z). E` possibile determinare un sistema di riferimento cartesiano
R00 = (O0 , X, Y, Z) in cui Q si rappresenta in forma canonica o del tipo (12.21) oppure
del tipo (12.22) dove , e sono gli autovalori della matrice A associata allequazione
di Q.
Dimostrazione
0
x
x
y = P y 0 ,
z
z0
(12.23)
Capitolo 12
655
la forma quadratica assume, nel nuovo riferimento R0 = (O, x0 , y 0 , z 0 ), la seguente espressione in forma canonica:
x0
t
P AP y 0 = (x0 )2 + (y 0 )2 + (z 0 )2 ,
z0
Q((x0 , y 0 , z 0 )) =
x0 y 0 z 0
dove , , indicano gli autovalori della matrice A, eventualmente uguali tra di loro
ma non tutti nulli, essendo la matrice A non nulla. Nel riferimento cartesiano R0 =
(O, x0 , y 0 , z 0 ) lequazione (12.20) di Q diventa:
Q : (x0 )2 + (y 0 )2 + (z 0 )2 + L0 (x0 , y 0 , z 0 ) = 0,
dove L0 (x0 , y 0 , z 0 ) e` il polinomio, in x0 , y 0 , z 0 , di grado minore o uguale a 1, ottenuto da
L(x, y, z) dopo aver sostituito a x, y, z le equazioni (12.23).
La matrice P ha, quindi, determinato una rotazione degli assi cartesiani x, y, z negli assi
cartesiani x0 , y 0 , z 0 passanti per lorigine e paralleli agli autovettori della matrice A le cui
componenti sono le colonne di P.
Se 6= 0, si pu`o annullare il coefficiente del termine di primo grado in x operando
con una traslazione lungo lasse x0 (per esempio, con il metodo del completamento dei
quadrati). Si ripete la stessa operazione se 6= 0 e se 6= 0. Il riferimento cartesiano
finale R00 = (O0 , X, Y, Z) cos` ottenuto risulta essere, quindi, la composizione di una
rotazione e di una traslazione.
Si presentano i seguenti casi:
1. tre autovalori della matrice A, (contati con le loro molteplicit`a) non sono nulli,
allora lequazione di Q diventa di tipo (12.21);
2. solamente due autovalori della matrice A, (contati con le loro moltelicit`a) non sono
nulli (per esempio e ) e la variabile (relativa a = 0), per esempio z , compare a primo grado. Allora con una traslazione di assi si annulla il termine noto e
lequazione di Q e` di tipo (12.22);
3. solamente un autovalore di A non e` nullo, ossia lequazione di Q e` di tipo:
(x0 )2 + ay 0 + bz 0 + c = 0.
Con una rotazione nel piano coordinato y 0 z 0 intorno allasse x0 e con una eventuale
traslazione, lequazione si riduce a x02 z 0 = 0 che e` ancora del tipo (12.22).
656
Si osservi che det(A) = det(D), ma e` un esercizio dimostrare che anche la matrice associata a Q nei due riferimenti cartesiani man mano ottenuti ha determinante che coincide
con det(B).
Definizione 12.9 Le quadriche per cui tutti i coefficienti delle equazioni (12.21) e (12.22)
sono diversi da zero si dicono proprie o non degeneri o non singolari. In caso contrario
le quadriche si dicono non proprie o degeneri o singolari.
Osservazione 12.6 Nel caso di quadriche proprie, il determinante della matrice B associata alla quadrica e` non nullo, det(B) 6= 0.
Sia Q una quadrica propria che si rappresenta con unequazione di tipo (12.21) allora Q
e` una delle seguenti superfici:
1. ellissoide di equazione in forma canonica:
y2
z2
x2
+
+
= 1,
a2
b2
c2
(12.24)
rappresentato nella Figura 12.31. Si osservi che lellissoide di rotazione di equazione (12.14) e` un caso particolare di questa superficie, in cui un autovalore della
matrice A associata alla forma quadratica che definisce la superficie ha molteplicit`a 2. Se, invece, la matrice A ha un solo autovalore (positivo) di molteplicit`a
3 allora si ottiene la sfera di centro lorigine e di raggio pari alla radice quadrata
dellautovalore di A.
La superficie e` simmetrica rispetto ai piani coordinati, agli assi coordinati e allorigine. Lellissoide (12.24) interseca lasse x nei punti A = (a, 0, 0), A0 =
(a, 0, 0), lasse y nei punti B = (0, b, 0), B 0 = (0, b, 0) e lasse z nei punti C = (0, 0, c), C 0 = (0, 0, c). Questi sei punti prendono il nome di vertici
dellellissoide.
Poich`e le coordinate x, y, z dei punti dellellissoide sono tali da verificare le limitazioni:
|x| a, |y| b, |z| c,
la superficie e` interamente contenuta dal parallelepipedo rettangolo le cui facce
sono determinate dai piani x = a, y = b, z = c che sono anche i piani
tangenti allellissoide nei suoi vertici. Le intersezioni dellellissoide con i piani
x = h, a < h < a, con y = k, b < k < b, e con z = l, c < l < c, sono tutte
ellissi, si lascia per esercizio lo studio della variazione dei loro diametri in relazione
alle equazioni dei piani a cui appartengono.
Capitolo 12
657
x = a cos v cos u
y = b cos v sin u
z = c sin v,
0 u, v < 2.
2. ellissoide immaginario di equazione in forma canonica:
x2
y2
z2
= 1.
a2
b2
c2
= 1,
a2
b2
c2
si tratta della superficie rappresentata allesterno nella Figura 12.32.
658
Capitolo 12
659
x = a cosh v cos u
y = b cosh v sin u
z = c sinh v, 0 u < 2, v R.
4. iperboloide a due falde di equazione in forma canonica:
x2
y2
z2
= 1,
a2
b2
c2
si tratta della superficie rappresentata allinterno del cono nella Figura 12.33. Si
osservi che liperboloide di rotazione a due falde di equazione (12.15) e` un caso
particolare di questa superficie in cui b = c.
660
Capitolo 12
661
Anche liperboloide a due falde e` una superficie simmetrica rispetto ai piani coordinati, agli assi coordinati e allorigine, un solo asse lo interseca, precisamente lasse
x nei punti A = (a, 0, 0), A0 = (a, 0, 0) pertanto la superficie ha solo due vertici.
Le sue sezioni: con i piani x = h, dove h > a e h < a, sono ellissi; con i
piani y = k e z = l sono iperboli, mentre i piani passanti per lasse x intersecano
liperboloide a due falde in iperboli i cui asintoti costituiscono un cono, detto anche in questo caso cono asintotico, che racchiude la superficie al suo interno ed ha
equazione:
x2 y 2 z 2
2 2 = 0.
a2
b
c
Si verifica facilmente che le equazioni parametriche delliperboloide a due falde
sono:
x = a cosh u cosh v
y = b sinh u cosh v
z = c sinh v, u, v R.
Se Q e` una quadrica propria e si rappresenta con unequazione di tipo (12.22) Q e` una
delle seguenti superfici.
5. paraboloide ellittico di equazione in forma canonica:
y2
x2
+
= 2z,
a2
b2
rappresentato nella Figura 12.34. Si osservi che il paraboloide di rotazione di equazione (12.16) e` un esempio di paraboloide ellittico, in cui la matrice A ad esso
associata ha un autovalore di molteplicit`a 2. Il paraboloide ellittico e` una superficie
simmetrica rispetto ai piani coordinati di equazioni x = 0, y = 0 e allasse z , e`
contenuta nel semispazio della semiretta positiva dellasse z ed ha perci`o un solo
vertice nellorigine. Le curve intersezione della superficie con i piani di equazione
x = h, h R, h > 0, sono ellissi, si lascia per esercizio la determinazione dei
vertici e dei diametri di queste ellissi in relazione al piano a cui esse appartengono,
invece il piano x = 0 e` tangente alla superficie nellorigine. Le curve intersezione
del paraboloide ellittico con i piani di equazione y = k e z = l, k, l R sono
parabole.
Si verifica facilmente che le equazioni parametriche del paraboloide ellittico sono:
662
x=au
y=bv
z = 12 (u2 + v 2 ),
u, v R.
= 2z,
a2
b2
rappresentato nella Figura 12.35. Si nota subito che questa superficie non pu`o essere una superficie di rotazione, perche? La superficie e` simmetrica rispetto ai piani
coordinati yz e xz, e` anche simmetrica rispetto allasse x. Se si interseca la superficie con il piano coordinato xy di equazione z = 0 si ottiene la conica degenere di
equazione:
z=0
2
2
x y =0
a2
b2
formata da una coppia di rette incidenti, che quindi appartengono al paraboloide iperbolico. Nel Paragrafo 12.6.1 si dimostrer`a che effettivamente il paraboloi-
Capitolo 12
663
-1
-1
-2
0
1
-1
y=0
x2 = 2a2 z,
(12.25)
x=k
(12.27)
k2
2
2
y = 2b z
.
2a2
664
x=X
y=Y
z k =Z
2a2
si ottiene che, nel riferimento R0 = (O, X, Y, Z), la parabola (12.27) ha equazioni:
X=k
Y 2 = 2b2 Z,
quindi essa coincide con la parabola di equazioni (12.26) ma con il vertice nel punto
k2
V = k, 0, 2 ,
2a
scritto nel riferimento R = (O, x, y, z). Situazione analoga si verifica intersecando
il paraboloide iperbolico con i piani di equazione y = h, h R, h 6= 0, ottenendo
parabole tutte uguali a quella di equazioni (12.25). Se si interseca, invece, il paraboloide iperbolico con i piani di equazione z = l, l R, l 6= 0 si ottengono delle
iperboli. Si lascia per esercizio la determinazione dei loro vertici e la verifica che
essi appartengono (nel caso di l > 0) alla parabola di equazioni (12.25). Che cosa
succede nel caso l < 0? Gli asintoti di tali iperboli originano un cono degenere di
equazione:
y2
x2
=0
a2
b2
che in realt`a consiste in due piani incidenti.
Le equazioni parametriche del paraboloide iperbolico sono:
x=au
y=bv
z = 1 (u2 v 2 ),
2
u, v R.
Se la quadrica Q e` degenere, cio`e se uno dei coefficienti della sua equazione in forma
canonica si annulla, allora essa e` una delle seguenti superfici:
Capitolo 12
665
= 1,
a2
b2
ossia il cilindro iperbolico;
x2 = 2py,
ossia il cilindro parabolico;
Le denominazioni dei tre tipi di cilindri quadrici dipendono dal fatto che ogni piano, non parallelo ad una generatrice, interseca il cilindro rispettivamente secondo
unellisse, uniperbole, una parabola.
3. Unione di due piani incidenti, paralleli o coincidenti, anche immaginari, con equazioni, in forma canonica del tipo:
x2 + y 2 = 0,
x 2 = a2 ,
, R, 6= 0, 6= 0,
a R, a 6= 0
x2 = 0.
Riassumendo, si pu`o ottenere la classificazione delle quadriche attraverso il rango delle
matrici A e B ad esse associate nel modo seguente, tenuto conto che il rango di A ed il
rango di B sono invarianti per rototraslazioni nello spazio.
666
rank(A) = 3 : cono;
rank(B) = 3
rank(A) = 2 : cilindro.
(
rank(B) = 2
rank(A) = 1 : due piani paralleli.
rank(B) = rank(A) = 1 : due piani coincidenti.
4 2 2
2 4 2 ,
A=
2 2 4
4
2
B=
2
2
2
4
2
2
2
2
4
4
2
2
.
4
3
2 = 8, m2 = 1,
1
1
2
1
1
1
1
1
, 0, , , , , , ,
.
2
2
6
6
6
3
3
3
Capitolo 12
667
1
1
x
x
2
6
2
y = P y0 =
1
1
z0
z
2
6
1
x0
1
0
1
0
z
3
z
0 2 0
y0 +
z0
0 0 8
x0 y 0
0
x
4 4 8 P y0 + 3 = 0
z0
ossia:
4
4
16
2(x0 )2 + 2(y 0 )2 + 8(z 0 )2 x0 y 0 + z 0 + 3 = 0.
2
6
3
Operando con il metodo del completamento dei quadrati si ha:
2
2
2
1
1
1
0
0
0
2 x
+2 y
+8 z +
1 = 0.
2
6
3
Mediante la traslazione di equazioni:
0
1
Y = y +
,
Z
z0
3
x0
668
2
6
2
y = 0
6
1
1
z
2
6
1
X
0
1
+ 0
Y
3
Z
1
3
12.6.1
Quadriche rigate
Lo scopo di questo paragrafo e` quello di dimostrare che due quadriche proprie, precedentemente introdotte, liperboloide ad una falda e il paraboloide iperbolico, sono esempi di
superfici rigate (cfr. Par. 12.5) essendo interamente costituite da una doppia famiglia di
rette. Daltra parte, entrambe queste superfici possono essere ottenute anche come luogo
geometrico di punti, come sar`a specificato nel Teoremi 12.4 e 12.5.
12.6.2
I:
y2
z2
x2
+
= 1,
a2
b2
c2
superficie gi`a studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.32, si pu`o anche
scrivere come:
I:
x
a
zx
z
y
y
= 1+
1
.
c
a
c
b
b
(12.28)
Capitolo 12
669
1.
x z
y
1
a c
b
=
= 1 ,
x z
y
+
1+
b
a c
1 R,
2.
x z
y
1+
a c
b
=
= 2 ,
x z
y
1
+
b
a c
2 R,
(12.29)
1.
2.
x z
1 1+
a c
1 y = 1 x +
b
a
x z
a c = 2 1
1 + y = 2 x +
b
a
y
b
z
,
c
y
(12.30)
b
z
,
c
a c = 1 1 + b
r1 :
1 y = 1 x + z ,
b
a c
x z
y
0
1
+
1
a c
b
0
r1 :
1 y = 0 x + z .
1
b
a c
670
4
2
0
-2
-4
-2
-4
-4
-2
0
2
4
Capitolo 12
671
Esse non sono incidenti perche ogni punto P0 di I determina un solo valore di 1 , quindi
una sola retta della schiera considerata. Le rette r1 e r10 non sono parallele infatti r1 e`
parallela al vettore:
i
j
k
1
1
1
21 + 1
21 1 + 21
,
,
,
a
b
c =
bc
ac
ab
1
1
1
a
b
c
mentre r10 e` parallela al vettore:
i
j
k
0
02
02
1
0
1
1
+
1
2
1
+
1
1
1
,
,
,
a b c =
bc
ac
ab
0
1
01
1
a
b
c
di conseguenza le rette r1 r r10 sono sghembe. Concludendo, le rette appartenenti alla
stessa schiera di rette sulliperboloide iperbolico sono tra loro sghembe, mentre per ogni
punto delliperboloide iperbolico passano due rette, una di una schiera e laltra dellaltra
schiera, interamente contenute sulliperboloide iperbolico stesso. La situazione geometrica e` molto ben illustata nella Figura 12.26 realizzata con il programma di calcolo simbolico Mathematica dal Prof. S. Berardi del Dipartimento di Informatica dellUniversit`a
di Torino.
Esercizio 12.20 Dato liperboloide:
y2
x2
+
z 2 = 1,
(12.31)
4
9
ricavare le equazioni delle rette r e s che passano per il punto P = (2, 3, 1) I e che
giacciono sulliperboloide. Determinare, inoltre, lequazione del piano contenente le
rette r e s.
I:
Soluzione
x = 2 + lt
y = 3 + mt
r:
z = 1 + nt, t R,
(12.32)
672
si vogliono determinare i suoi parametri direttori (l, m, n) in modo tale che r appartenga
ad I . Sostituendo le equazioni (12.32) in (12.31) si ha:
(2 + lt)2
(3 + mt)2
+
(1 + nt)2 = 1,
4
9
da cui:
l2
2
m2
2
2
+
n t + l + m 2n t = 0.
4
9
3
l + m 2n = 0
3
2
2
l + m n2 = 0,
4
9
le cui due soluzioni sono:
m=0
l = 2n,
m 3n = 0
l = 0,
in corrispondenza delle quali si ottengono le rette r passante per P = (2, 3, 1), parallela
al vettore r = (2, 0, 1) e s passante per P = (2, 3, 1), parallela al vettore s = (0, 3, 1).
Si ottiene lo stesso risultato decomponendo lequazione delliperboloide (12.31) nel modo
seguente:
x
x
y
y
z
+z = 1
1+
2
2
3
3
e ricavando le equazioni delle due schiere di rette ad esso appartenenti:
x
y
z
=
1
2
3
1 + y = 1 x + z ,
3
2
1 R,
x
y
z
=
1
+
2
2
3
1 y = 2 x + z ,
3
2
2 R.
Capitolo 12
x2 y3 z1
2
0
1
0
3
1
673
= 3x + 2y 6z 6 = 0.
Il teorema che segue afferma che liperboloide ad una falda pu`o anche essere ottenuto
come luogo geometrico di punti. Anziche proporre la dimostrazione (che e` comunque
un esercizio e viene lasciata al Lettore) si preferisce ricavare, nellEsercizio 12.21, un
esempio dello stesso luogo geometrico.
Teorema 12.4 Liperboloide ad una falda e` il luogo delle rette che si appoggiano contemporaneamente a tre rette che sono sghembe a due a due.
Esercizio 12.21 Date le rette:
x=0
x = t0
y=0
y=1
r:
s:
z = t, t R,
z = 0, t0 R,
x = 1
y = t00
h:
z = 1, t00 R,
verificare che sono sghembe a due a due e determinare il luogo delle rette che si appoggiano contemporaneamente ad r, s, h.
Soluzione E` immediato verificare che le rette date sono a due a due sghembe (`e sufficiente notare che non sono parallele e che per esempio le rette s e h non passano per
lorigine, a differenza della retta r, e che s e h non sono incidenti).
La retta che unisce il punto generico di s con il punto generico di h ha equazione:
z
y1
x t0
=
=
.
t0 + 1
1 t00
1
(12.33)
Se si impone che questa retta passi per il punto generico di r si ottengono le uguaglianze:
t0
1
=
= t,
t0 + 1
1 t00
che stabiliscono la condizione che devono verificare i parametri t, t0 e t00 affinche siano
allineati tre punti di r, s ed h rispettivamente. Da esse si ottengono le relazioni:
t0 =
t
,
1t
t00 =
1+t
.
t
674
t
1 + t = y 1 = z,
t
t+1
+1
1
1t
t
x+
x + z = t(x + 1)
t(y 1) = z,
dai quali si elimina facilmente il parametro t e si ottiene lequazione cartesiana del luogo:
S : xy + xz + yz x = 0.
Si tratta, evidentemente, di una quadrica che si pu`o identificare con la riduzione a forma
canonica della sua equazione. A tale scopo si considera la matrice A associata alla forma
quadratica di S :
1
A=
2
1
2
1
2
0
1
2
1
2
2 = 1, m2 = 1.
u2 = (1, 0, 1),
u3 = (1, 1, 1).
Utilizzando il processo di ortonormalizzazione di GramSchmidt per il primo autospazio e calcolando il versore di u3 si ottiene una base ortonormale B 0 = (u01 , u02 , u03 ) di
autovettori la cui matrice ortogonale P del cambiamento di base da B = (i, j, k) a B 0 e` :
Capitolo 12
1
1
2
6
1
1
P =
2
6
2
0
675
1
.
3
0
x
x
y = P y0
z0
z
2
2
2
1
1
1
1
1
0
0
0
+ z
+ =0
x
y +
2
4
2
6
2 3
x0
0
Y
y
=
0
Z
z
2
1
6
1
2 3
676
12.6.3
Il paraboloide iperbolico
= 2z,
a2
b2
superficie gi`a studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.35, pu`o essere
decomposta come:
x
yx
y
+
= 2z.
(12.34)
a
b
a
b
Lequazione (12.34), in realt`a, equivale alle due equazioni seguenti:
P:
x
y
2z
+ = x
y = 1 ,
a
b
a
b
e:
1 R
(12.35)
y
2z
x
= x
(12.36)
y = 2 , 2 R.
a
b
+
a
b
Daltra parte, (12.35) pu`o essere scritta come:
x y
a + b = 1
(12.37)
x y
2z = 1
, 1 R
a b
e (12.36) come:
x y
a b = 2
(12.38)
2z = 2 x + y , 2 R.
a b
I due sistemi lineari (12.37) e (12.38) rappresentano due famiglie di rette che, al variare
di 1 e 2 in R appartengono al paraboloide iperbolico, in quanto ne verificano la sua
equazione. Il paraboloide iperbolico, con le due famiglie di rette appena determinate, e`
rappresentato nella Figura 12.37, tratta da [11].
Come nel caso delliperboloide iperbolico, ciascuna di queste famiglie di rette prende il
nome di schiera di rette del paraboloide iperbolico, Si vuole ora studiare la posizione
reciproca delle rette allinterno della stessa schiera. Si consideri, per esempio, la schiera
di rette (12.35). Tutte le rette di tale schiera, al variare di 1 in R, appartengono al piano:
x
y
+ = 1 ,
a
b
Capitolo 12
677
2z = 1
a
b
non sono paralleli. Lo stessa situazione si verifica per le rette appartenenti alla schiera
(12.36). Inoltre, coppie di rette di schiere diverse sono complanari, infatti per ogni punto
P0 del paraboloide P esistono due rette (una appartenente a (12.35) una appartenente
a (12.36)) passanti per P0 e interamente contenute in P , pertanto P e` una superficie
doppiamente rigata.
Esercizio 12.22 Nello spazio sono date le rette sghembe:
x = 1
x=0
2
r:
s:
1
y= ,
z = 0.
2
Determinare il luogo dei centri delle sfere tangenti, contemporaneamente, a r e a s.
Soluzione Il centro C = (x0 , y0 , z0 ) della sfera deve verificare la condizione d(C, r) =
d(C, s). Sia 1 il piano per C ortogonale ad r, che ha ha equazione z = z0 , lintersezione
678
2z = 0
2x + 2y 1 = 0,
s:
y
+
2z = 0
2x + 2y + 1 = 0,
verificare che r e s sono sghembe e determinare il luogo delle rette che si appoggiano
contemporaneamente ad r e a s e sono parallele al piano .
Soluzione Si vede facilmente che le rette r e s sono sghembe perche giacciono su piani
paralleli e sono ottenute dallintersezione con altri due piani tra di loro non paralleli. Le
equazioni parametriche di r e di s sono:
1
+
2t
1 2t0
x
=
x
=
2 2
2 2
1 2t
1 + 2t0
r:
s:
y
=
y
=
2 2
2
2
z = t0 , t0 R.
z = t, t R;
Capitolo 12
679
680
La retta che unisce il punto generico di r con il punto generico di s ha perci`o equazione:
1 + 2t
1 2t
y
zt
2 2
2 2
,
0 =
0 =
1 + 2t
1 2t
1 + 2t
1 2t
t t0
+
+
2 2
2 2
2 2
2 2
x
2 2x (1 + 2t)
2 2y (1 2t)
zt
=
=
.
0
0
2 + 2t + 2t
2 2t 2t
t t0
Se si impone poi che tale retta sia parallela al piano , si ottiene t = t0 , che permette di
scrivere lequazione precedente nella forma:
zt
2 2x (1 + 2t) = 2 2y (1 2t) =
t
e rappresenta, al variare del parametro t, la generica retta del luogo geometrico richiesto.
Essa si pu`o anche scrivere come intersezione dei due piani:
2 2x (1 + 2t) 2 2y + (1 2t) = 0
t( 2y 1 + 2t) z + t = 0.
Dallequazione del primo piano si ricava:
2t =
2(x y)
12.7
Esercizio 12.24 Il cono-cuneo di Wallis Sono dati una retta a, una circonferenza C
che giace su un piano , parallelo ad a, il cui centro appartiene alla retta ortogonale a
condotta da un punto di a ad un piano 0 perpendicolare ad a. Determinare lequazione
del luogo geometrico delle rette che si appoggiano alla circonferenza C , alla retta a e
sono parallele a 0 .
Capitolo 12
681
z = r sin
X = tr cos
Y = tk
Z = r sin , t R, 0 < 2.
Per pervenire allequazione cartesiana si ricava:
682
kX
rY = cos
= sin ,
r
ossia:
(kX)2
Z2
+
= 1,
(rY )2
r2
da cui si ottiene:
Z 2 Y 2 + k 2 X 2 r2 Y 2 = 0.
La superficie appena descritta, che prende il nome di cono-cuneo di Wallis e` rappresentata
nella Figura 12.39, si osservi, inoltre, che si tratta di una superficie rigata.
x = tb(1 cos )
y = tb sin
z = b sin , t R, 0 < 2.
Per ottenere lequazione cartesiana si calcola:
Capitolo 12
683
684
Capitolo 12
685
paralleli e non perpendicolari alla retta O1 O2 che unisce i loro centri. Si consideri come
direttrice la retta d normale ai due piani, contenenti le circonferenze, e passante per il
punto medio O del segmento O1 O2 . Per ragioni di simmetria il cono che da O proietta C1
contiene anche C2 e, quindi, fa parte del luogo geometrico cercato; escludendolo, rimane,
come elemento dello stesso luogo, una superficie, che si vedr`a avere unequazione di
quarto grado che, per la sua forma particolare, viene detta volta a sbieco. Per ricavare
esplicitamente lequazione del luogo geometrico si posizioni il riferimento cartesiano con
lorigine nel punto O, la retta d quale asse y e si faccia passare il piano z = 0 per O1 ed
O2 . Siano:
2
2
x + z 2 2hx + h2 r2 = 0
x + z 2 + 2hx + h2 r2 = 0
C1 :
C2 :
y + k = 0,
y k = 0,
le equazioni di C1 e di C2 . Il piano x = mz , passante per la retta d, incontra C1 e C2 ,
rispettivamente nei punti P = (m, k, ) e Q = (m, k, ) con e che verificano le
equazioni:
2 2
2
2
(1 + m ) 2hm + h r = 0
2hm
=
.
1 + m2
(12.39)
La retta P Q ha equazioni:
x = mz
( )(y + k) = 2k(z ).
(12.40)
x = R cos
y = R sin
(12.41)
z = h,
R,
e allasse z e sono parallele al piano xy , al variare del parametro reale .
686
Capitolo 12
687
Soluzione Lelica circolare cilindrica, rappresentata nella Figura 12.43, e` una curva
nello spazio, dalle sue equazioni parametriche (12.41) si evince che si tratta semplicemente di una circonferenza del piano xy che si avvolge intorno allasse z con un passo
che varia al variare di h, pertanto la curva giace sul cilindro di equazione x2 + y 2 = R2
da cui la sua denominazione. La retta generica del luogo geometrico richiesto unisce i
punti P e Q dati da:
P = (R cos , R sin , h),
Q = (0, 0, h)
ed ha perci`o equazioni:
x R cos
y R sin
=
=u
R cos
R sin
z = h, u R.
Essa si pu`o anche scrivere nella forma parametrica seguente:
x = R cos + uR cos
y = R sin + uR sin
z = hu,
u, R,
che rappresenta il luogo geometrico, al variare dei parametri reali e u. Si pu`o vedere
questa superficie, detta elicoide retto, rappresentata nella Figura 12.44. Anche lelicoide
retto e` un esempio di superficie rigata.
Esercizio 12.28 Vite di Saint Gilles Determinare lequazione del luogo geometrico
descritto da una circonferenza C avente raggio r, centro in un punto generico dellelica
circolare cilindrica di equazioni (12.41) e appartenente ad un piano passante per lasse z.
Soluzione
688
z = h r sin u, u, R,
che, al variare di e di u, descrive una superficie S, che e` il luogo geometrico richiesto
e che, per la sua conformazione, viene detta vite di Saint Gilles ed e` rappresentata nella
Figura 12.45.
Esercizio 12.29 Colonna torsa Determinare lequazione del luogo geometrico descritto da una circonferenza C, di raggio r, con il centro in un punto generico dellelica
circolare cilindrica di equazioni (12.41) e appartenente ad un piano che si mantiene
ortogonale allasse z, al variare del parametro in R.
Capitolo 12
689
x = R cos + r cos u
y = R sin + r sin u
S:
z = h,
u, R,
che, al variare dei parametri ed u, genera il luogo geometrico S richiesto che e` la
superficie rappresentata nella Figura 12.46 e che prende il nome di colonna torsa per la
sua particolare conformazione.
690
12.8
12.8.1
In questo paragrafo si accenna in modo molto intuitivo, senza alcuna pretesa di rigore
matematico, al procedimento da seguire per determinare lequazione del piano tangente
ad una quadrica in un suo punto, e pi`u in generale del piano tangente ad una superficie in
suo punto. Si otterr`a un risultato che estende in modo naturale la formula che permette di
determinare la retta tangente ad una conica in un suo punto non singolare (cfr. Par. 10.8).
Un esempio di questo tipo e` il piano tangente ad una sfera in un suo punto che e` stato
ricavato mediante semplici considerazioni geometriche nel Paragrafo 11.7.2. Se e` la
sfera di equazione:
: x2 + y 2 + z 2 2x 2y 2z + = 0,
il piano tangente a in P0 = (x0 , y0 , z0 ) ha equazione (cfr. Par.11.7.2):
(x0 )(x x0 ) + (y0 )(y y0 ) + (z0 )(z z0 ) = 0.
Sviluppando i calcoli indicati si ottiene:
x0 x + y0 y + z0 z x y z x20 y02 z02 + x0 + y0 + z0 = 0
e, tenuto conto dellappartenenza di P0 a , segue:
x0 x + y0 y + z0 z (x + x0 ) (y + y0 ) (z + z0 ) + = 0.
(12.42)
x y z 1 B
z =0
1
con:
1
0
0
0
1
0
,
B=
0
0
1
x0 y0 z0 1 B
z = 0.
1
(12.43)
Capitolo 12
691
Si intende dimostrare un teorema che estende la formula (12.43) al caso del piano tangente
ad una quadrica in un suo punto di tipo particolare. Si devono per`o premettere sia la
definizione formale di piano tangente ad una superficie sia la definizione dei punti della
superficie in cui e` possibile considerare il piano tangente, per esempio intuitivamente
e` chiaro che non e` possibile definire il piano tangente ad un cono nel suo vertice. Si
inizia quindi con la definizione di punto singolare di una quadrica, che estende lanaloga
definizione di punto singolare di una conica (cfr. Def. 10.9).
Definizione 12.10 Sia Q una quadrica di equazione f (x, y, z) = 0, dove f (x, y, z) e` il
polinomio di secondo grado in x, y, z che definisce Q, e sia P0 un suo punto. P0 e` un
punto singolare di Q se il vettore:
f
f
f
(P0 ),
(P0 ),
(P0 )
x
y
z
e` uguale al vettore nullo, dove con f /x,f /y , f /z si indicano, rispettivamente,
le derivate parziali di f rispetto a x, y, z . In caso contrario il punto P0 si dice regolare.
Esercizio 12.30
2. Si verifichi che tutti i punti di una quadrica non degenere sono regolari.
Anche la definizione di piano tangente ad una quadrica in suo punto non singolare estende
la definizione di retta tangente ad una conica in un suo punto (cfr. Def. 10.8) nel modo
seguente.
Definizione 12.11 Il piano tangente ad una quadrica Q in un suo punto non singolare
P0 e` il luogo delle rette tangenti in P0 a tutte le curve che giacciono sulla superficie Q e
che passano per P0 .
Osservazione 12.7 E` chiaro che una retta r si dice tangente ad una quadrica Q in un suo
punto P0 se la retta r ha due intersezioni riunite in P0 con la quadrica Q. Invece se una
retta r interseca una quadrica Q in un solo punto non e` detto che sia tangente a Q in
quel punto. Si consideri, ad esempio, lasse di rotazione di un paraboloide di rotazione
che interseca solo nel vertice del paraboloide il paraboloide stesso senza essere ad esso
tangente.
Il paragrafo si conclude con la dimostrazione del teorema annunciato.
692
Q:
x
y
x y z 1 B
z = 0,
1
dove
a11
a12
B=
a13
a14
a12
a22
a23
a24
a13
a23
a33
a34
a14
a24
a34
a44
: x0 y0 z0 1 B
(12.44)
z = 0.
1
Dimostrazione Si calcolino le intersezioni della generica retta r passante per P0 di
equazioni parametriche:
x = x0 + lt
y = y0 + mt
r:
z = z0 + nt, t R,
con la quadrica Q e poich`e P0 Q, con semplici calcoli si ottiene la seguente equazione
di secondo grado in t:
(a11 l2 + 2a12 lm + a22 m2 + 2a13 ln + a33 n2 + 2a23 mn)t2
+2[a11 x0 l + a12 (x0 m + y0 l) + a22 y0 m + a13 (x0 n + z0 l) + a33 z0 n
(12.45)
Capitolo 12
693
Tenendo conto delle equazioni parametriche della retta r e del fatto che P0 appartiene
alla superficie Q, svolgendo i calcoli, si ricava:
a11 x x0 + a22 y y0 + a33 z z0 + a12 (x0 y + x y0 ) + a13 (x0 z + x z0 )
(12.46)
(12.47)
f
f
f
(P0 ),
(P0 ),
(P0 )
x
y
z
694
x = 1 + lt
y = 1 + mt
r:
(12.48)
z = nt, t R,
la si interseca con Q e si ottiene lequazione:
(l2 + 2m2 n2 )t2 + (6l 6m 6n)t = 0.
La retta r e` tangente a Q in A se e solo se t = 0 e` soluzione doppia, ossia se e solo
se:
l m n = 0.
La retta r e` contenuta in Q se e solo se:
l2 + 2m2 n2 = 0
l m n = 0,
m=0
n = l,
m = 2l
n = 3l,
Capitolo 12
695
696
Bibliografia
[1] H. Anton, C. Rorres: Elementary Linear Algebra: Application Version, Editrice
Wiley, John & Sons, 1991.
[2] A. Baker: Matrix Groups: An Introduction to Lie Group Theory, Springer
Undergraduate Mathematics Series, Editrice Springer, London, 2002.
[3] R.Bellman: Introduction to Matrix Analysis, Editrice McGraw-Hill, New York,
1960.
[4] M. Bramanti, C. D. Pagani, S. Salsa: Matematica Calcolo Infinitesimale e Algebra
Lineare, seconda edizione, Editrice Zanichelli, Bologna, 2004.
[5] H. Cartan: Elementary theory of analytic functions of one or several complex variables translated from the French. Reprint of the 1973 edition. Dover Publications,
Inc., New York, 1995.
[6] M.P. do Carmo: Differential Geometry of Curves and Surfaces, Editrice Prentice
Hall, Inc., Upper Saddle River New Jersey, 1976.
[7] F. Fava, F. Tricerri: Geometria e Algebra lineare, Editrice Levrotto e Bella, Torino,
1987.
[8] F. Fava: Lezioni di Geometria analitica, Editrice Levrotto e Bella, Torino, 1960.
[9] F. Fava: Lezioni di Geometria, Editrice Levrotto e Bella, Torino, 1973.
[10] F. Fava: Elementi di Algebra Lineare e Geometria, Editrice Levrotto e Bella, Torino,
1976.
[11] A. Gray, E. Abbena, S. Salamon: Modern Differential Geometry of Curves and
Surfaces with Mathematica,Third Edition, Editrice CRC Press, Boca Raton, 2006.
[12] S. Greco, P. Valabrega: Lezioni di Geometria, Voll.I e II, Editrice Levrotto e Bella,
Torino, 1999.
697
698
Bibliografia
[13] B.C. Hall: Lie Groups, Lie Algebras and Representations, Graduate Texts in
Mathematics 222, Editrice Springer, New York, 2003.
[14] S. Lang: Linear Algebra, Editrice Addison Wesley, New York, 1966.
[15] S. Roman: Advanced Linear Algebra, Editrice Springer, Berlin, 2008.
[16] A. Sanini: Lezioni di Geometria, Editrice Levrotto e Bella, Torino , 1993.
[17] E. Sernesi: Geometria 1 e 2, Editrice Bollati Boringhieri, 1989.
[18] M. Stoka: Corso di Geometria, Editrice Cedam, Padova, 1995.
[19] A. Sheldon, Linear Algebra Done Right, Editrice Springer, 1997.
[20] A. E. Taylor: Introduction to Functional Analysis, Editrice John Wiley & Sons,
Inc., New York; Chapman & Hall, Ltd., London, 1958.
AB
L(x)
0
M B,B
L(x, y)
xy
xy
699
15
20
20
20
21
25
33
33, 141
34
33, 141
35
37
41
41
42
43, 141
44, 142
45, 142
45
55
56
64
65
67
76
76, 204
76
76
83
97, 175
83
101, 201
113
700
xyz
C
x
Q
Rn
F(R)
N
R[x]
Rn [x]
N (A)
W1 W2
W1 + W2
W1 + W2 + . . . + Wk
W1 W2
W1 W2 . . . Wk
L(v1 , v2 , . . . , vn )
dim(V )
R(A)
C(A)
Cn
Cm,n
A
H(Cm,n )
AH(Cm,n )
SL(n, R)
SO(n)
W
U (n)
f (x)
id
M B,C (f )
f (H)
im f
f 1 (K)
ker f
prodotto misto di x, y e z in V3
campo dei numeri complessi
opposto del vettore x in uno spazio vettoriale V
campo dei numeri razionali
spazio vettoriale delle n-uple di numeri reali
spazio vettoriale delle funzioni reali di variabile reale
insieme dei numeri naturali
spazio vettoriale dei polinomi nella variabile x a coefficienti reali
spazio vettoriale dei polinomi di grado minore o uguale a n,
nella variabile x, a coefficienti reali
nullspace della matrice A
intersezione dei due sottospazi vettoriali W1 e W2
somma dei due sottospazi vettoriali W1 e W2
somma dei sottospazi vettoriali W1 , W2 , . . . , Wk
somma diretta dei due sottospazi vettoriali W1 e W2
somma diretta dei sottospazi vettoriali W1 , W2 , . . . , Wk
sottospazio vettoriale generato dai vettori v1 , v2 , . . . , vn
dimensione di uno spazio vettoriale V
spazio vettoriale delle righe della matrice A
spazio vettoriale delle colonne della matrice A
spazio vettoriale delle n-uple di numeri complessi
spazio vettoriale delle matrici con m righe e n colonne, ad
elementi complessi
matrice coniugata di A Cm,n
sottospazio vettoriale delle matrici hermitiane di ordine n
sottospazio vettoriale delle matrici antihermitiane di ordine n
gruppo lineare speciale reale di ordine n
gruppo ortogonale speciale reale di ordine n
complemento ortogonale del sottospazio vettoriale W
gruppo unitario
vettore immagine di x mediante lapplicazione lineare f
identit`a
matrice associata allapplicazione lineare f rispetto
alle basi B e C
immagine del sottospazio vettoriale H mediante lapplicazione
lineare f
sottospazio immagine
controimmagine del sottospazio vettoriale K mediante
lapplicazione lineare f
nucleo dellapplicazione lineare f
120
136
135
136
137
137
138
138
140
141
143
144
144
145
145
149
156
166
166
194
195
195
196
196
217
217
219
232
235
236
240
248
249
249
253
L(V, W )
gf
SO(2)
f |H
f
V
V
tf
U (n)
V
P ()
Bs (V, R)
M B ()
Q
M B (Q)
Q(V, R)
W
I
Q|H
d(A, B)
\
(r,
r0 )
\
(,
0)
d(P, r)
e
d(P, )
d(r, r0 )
[
(r,
)
701
261
261
264
266
267
274
279
280
284
294
298
302
337
339
346
346
346
346
350
356
368
400, 510
422, 542
422, 542
427, 537
451
536
540
542
Indice analitico
aggiunta di unapplicazione lineare, 268
aggiunta di una matrice quadrata, 68
angolo tra due piani, 556
angolo tra due rette nel piano, 431
angolo tra due rette nello spazio, 556
angolo tra due vettori in (V, ), 207
angolo tra due vettori in V3 , 100
angolo tra una retta e un piano, 556
anomalia, 412
applicazione lineare identica, 236
applicazione lineare nulla, 236
applicazione lineare tra due spazi vettoriali, 235
applicazione lineare tra due spazi vettoriali complessi, 279
area del triangolo, 523
ascissa di un punto nel piano, 407
ascissa di un punto nello spazio, 522
asintoti delliperbole, 467
asse x nel piano, 405
asse x nello spazio, 521
asse y nel piano, 405
asse y nello spazio, 521
asse z , 521
asse centrale del fascio di circonferenze, 455
asse centrale del fascio di sfere, 573
asse del cono circolare retto, 485
asse delle ascisse nel piano, 405
asse delle ascisse nello spazio, 521
asse delle ordinate nel piano, 405
asse delle ordinate nello spazio, 521
asse delle quote, 521
asse di un cilindro circolare retto, 629
asse di un segmento, 409, 438
asse polare, 412, 579
asse radicale del fascio di circonferenze, 455
702
Indice analitico
703
704
Indice analitico
Indice analitico
705
706
Indice analitico
Indice analitico
707
708
Indice analitico
Indice analitico
709
spazio vettoriale delle matrici con m righe e n vettore AB con rappresentante il segmento orientato AB , 76
colonne Rm,n , 137
spazio vettoriale delle righe di una matrice, 166 vettore controimmagine di un vettore mediante
unapplicazione lineare, 235
spazio vettoriale duale di uno spazio vettoriale
vettore immagine di un vettore mediante unapcomplesso, 279
710
vettori paralleli in V3 , 78
vettori riga di una matrice, 166
volume del tetraedro, 523
Indice analitico