Sei sulla pagina 1di 363

Scienza e tecnica 6

Il volume corredato da materiali consultabili on line


sul nostro sito internet, segnalati dal simbolo
allinterno del testo.
I lettori che desiderano informazioni sui volumi
pubblicati dalla casa editrice
possono rivolgersi direttamente a:
Carocci editore
Via Sardegna, 50
tel. 06 42 81 84 17
fax 06 42 74 79 31

Visitateci sul nostro sito Internet


http://www.carocci.it

Flaminio Flamini

Alessandro Verra

Matrici e vettori
Corso di base di geometria
e algebra lineare

Carocci editore

1a edizione, dicembre 2007


copyright 2007 by Carocci editore s.p.a., Roma
Realizzazione editoriale CompoMat s.r.l., Congni (RI)
Finito di stampare nel dicembre 2007
dalle Arti Grache Editoriali s.r.l., Urbino
ISBN 978-88-430-4466-5
Riproduzione vietata ai sensi di legge
(art. 171 della legge 22 aprile 1941, n. 633)
Senza regolare autorizzazione, vietato
riprodurre questo volume anche parzialmente
e con qualsiasi mezzo, compresa la fotocopia,
anche per uso interno o didattico.

Indice
1
1.1
1.2
1.3
1.4

Sistemi di equazioni lineari e matrici 15


Sistemi di equazioni lineari 15
Matrici 19
Riduzione per righe di una matrice 22
Risoluzione dei sistemi di equazioni lineari 30
Quesiti ed esercizi 36

2
2.1
2.2
2.3
2.4

Matrici e loro rango 39


Prodotto di matrici 39
Matrici invertibili 42
Rango di una matrice 50
Teorema di Rouch-Capelli 54
Quesiti ed esercizi 56

3
3.1
3.2
3.3
3.4

Matrici quadrate e determinanti 57


Determinanti 57
Calcolo dei determinanti 62
Determinanti e matrici invertibili 64
Complementi ed applicazioni 66
Quesiti ed esercizi 69

4
4.1
4.2
4.3
4.4
4.5

Spazi vettoriali 71
Lorigine della nozione di vettore 71
Denizione ed esempi di spazi vettoriali 75
Sistemi di vettori linearmente indipendenti 83
Spazi vettoriale di dimensione nita 87
Componenti di un vettore e cambiamenti di base 93
Quesiti ed esercizi 99

5
5.1

Prodotti scalari 101


Prodotto scalare geometrico 101

5.2
5.3
5.4
5.5

Prodotti scalari 103


Prodotti scalari e matrici simmetriche 106
Perpendicolarit e basi ortogonali 111
Basi ortonormali e matrici ortogonali 115
Quesiti ed esercizi 122

6
6.1
6.2
6.3
6.4
6.5
6.6

Spazi euclidei 123


Lo spazio della geometria euclidea 123
Coordinate cartesiane 128
Alcune propriet metriche 133
Trasformazioni afni 135
Isometrie 143
Orientazione di spazi vettoriali 147
Quesiti ed esercizi 149

Geometria del piano cartesiano 151

7.1

Interpretazione geometrica di angoli convessi fra vettori di R2 151

7.2
7.3

Punti e rette del piano cartesiano R2 152


Intersezioni 160

7.4
7.5
7.6
7.7

Formule di geometria in R2 163


Fasci di rette 166
Trasformazioni del piano cartesiano 171
Circonferenze 181
Quesiti ed esercizi 186

Geometria dello spazio cartesiano 189

8.1

Prodotto vettoriale e prodotto misto dello spazio vettoriale R3 .


Interpretazioni geometriche 189

8.2
8.3
8.4

Punti, rette e piani dello spazio cartesiano R3 194


Intersezioni 208
Fasci e stelle di piani, stelle di rette, fasci di rette su un piano 214

8.5

Formule di geometria di R3 220

8.6
8.7

Trasformazioni dello spazio cartesiano 227


Sfere e circonferenze 237
Quesiti ed esercizi 242

9
9.1
9.2
9.3
9.4

Applicazioni lineari 243


Denizioni ed esempi 243
Nucleo ed immagine di unapplicazione lineare 247
Applicazioni lineari e matrici 250
Operazioni tra applicazioni lineari 255
Quesiti ed esercizi 257

10
10.1
10.2
10.3
10.4
10.5

Operatori lineari 259


Generalit su operatori lineari e diagonalizzazione 259
Autovalori ed autovettori 262
Ricerca di autovalori ed autovettori 267
Polinomio caratteristico 270
Complementi ed ulteriori esempi 271
Quesiti ed esercizi 276

11
11.1
11.2
11.3
11.4
11.5
11.6

Matrici ortogonali, simmetriche ed operatori associati 279


Operatori e matrici ortogonali 279
Operatori autoaggiunti e matrici simmetriche 280
Operatori autoaggiunti e forme quadratiche 283
Autovalori di una matrice simmetrica 289
Teorema spettrale degli operatori autoaggiunti 292
Forme canoniche delle forme quadratiche reali 296
Quesiti ed esercizi 299

12
12.1
12.2
12.3
12.4

Coniche del piano cartesiano R2 301


Preliminari sui polinomi in due indeterminate 302
Prime denizioni 303
Alcune propriet metriche ed afni delle coniche 308
Forme canoniche metriche delle coniche 312

12.5 Riduzione a forma canonica metrica delle coniche.


Classicazione metrica 319
12.6 Forme canoniche afni delle coniche 323
12.7 Riduzione a forma canonica afne delle coniche.
Classicazione afne 325
Quesiti ed esercizi 327
Quadriche dello spazio cartesiano R3 329
Prime denizioni 330
Forme canoniche euclidee delle quadriche 336
Riduzione a forma canonica metrica delle quadriche.
Classicazione metrica 350
13.4 Forme canoniche afni delle quadriche 356
13.5 Riduzione a forma canonica afne delle quadriche.
Classicazione afne 358
Quesiti ed esercizi 360
13
13.1
13.2
13.3

Bibliograa 363

Introduzione
Matrici e vettori sono due termini che ben rappresentano quel pi vasto sistema di
nozioni, esercizi ed esempi da cui abitualmente costituito un primo corso universitario dedicato allapprendimento degli strumenti di base dellalgebra lineare e della
geometria.
Tali termini, che concorrono a formare il titolo di questo libro, possono allora servire per indicarne, anche se molto sinteticamente, le finalit. Esso si propone, infatti, di offrire una trattazione ampia e sistematica, ma nello stesso tempo di carattere
elementare, dei principali capitoli della geometria e dellalgebra lineare di base.
Il libro dunque rivolto agli studenti ed ai docenti delle facolt di area scientifica e
tecnica delle nostre universit e specialmente agli studenti dei vari corsi di studio di
Ingegneria e di Scienze Matematiche, Fisiche e Naturali.
Esso si colloca, per quanto riguarda i contenuti, in un ambito ben conosciuto e sperimentato. Una grossa parte della trattazione riguarda infatti i seguenti argomenti:
lo studio dei sistemi di equazioni lineari e delle matrici, il calcolo dei determinanti,
la teoria degli spazi vettoriali, le nozioni di prodotto scalare e di base ortonormale,
la geometria analitica piana e spaziale, la nozione di applicazione lineare, lo studio
degli autovettori di un endomorfismo, la diagonalizzazione di matrici, le forme quadratiche reali e la loro classificazione e la classificazione delle coniche del piano e delle
quadriche dello spazio.
Pertanto, prima di descrivere la successione dei capitoli del testo ed il dettaglio del
loro contenuto, ci sembra maggiormente utile fornire alcune indicazioni sullimpostazione generale di questo testo e su ci che pu caratterizzarlo tra gli altri dello
stesso tipo.
Tre sono le esigenze, certamente collegate, a cui abbiamo sentito di dover dare maggiore soddisfazione: una di natura prevalentemente scientifica, una seconda di tipo didattico ed una terza connessa al sistema, scolastico e culturale, in cui operano
docenti e studenti.
Innanzitutto ci siamo proposti di non trascurare le esigenze e le necessit di un ragionamento e di un metodo che devono procedere per dimostrazioni. Abbiamo dunque
dato il dovuto risalto a questo aspetto scientifico fondamentale, cercando di produrre
argomenti semplici ma completi e svolgendoli con un linguaggio piano e consequenziale, depurato da ogni espressione tecnica superflua. In tal modo abbiamo cercato
di delineare e di rendere evidente, per gli studenti che leggeranno questo libro, il
metodo scientifico generale su cui si fondano le scienze matematiche.
11

Daltra parte del tutto ovvio che, fatta salva questa non modificabile esigenza scientifica, un libro di testo deve sempre tenere conto dei mutamenti che avvengono nel
sistema scolastico e culturale e nellorganizzazione didattica dei corsi universitari. Di
tali profondi mutamenti si in effetti tenuto qui un gran conto ed anzi essi hanno
costituito una importante e fondamentale motivazione per scrivere questo libro.
Abbiamo scelto, in particolare, di utilizzare il pi possibile argomenti e riferimenti
di carattere elementare, cercando cos di rendere accessibile il testo anche a lettori e
studenti che abbiano ricevuto una formazione matematica limitata. Il carattere elementare, che pi in generale d forma e sostanza a tutta la trattazione, ci sembrato
una scelta didattica di primaria e fondamentale importanza. Lorganizzazione dei vari capitoli poi stata pensata per permettere una notevole e maggiore flessibilit, in
funzione dei diversi percorsi didattici che possono essere presenti allinterno dei corsi
di laurea triennale.
In geometria inoltre, forse pi che in altre scienze matematiche, il rigore logicodeduttivo pu e deve accompagnarsi con una grande ricchezza di esempi proposti
e di esercizi significativi, che servono a rendere pi salda e profonda la comprensione
di tutta la teoria trattata. Si tratta di unesigenza didattica e conoscitiva ben nota e di
assoluta importanza per questa materia. Tale esigenza trova ampia soddisfazione nel
testo: oltre ai numerosi esercizi ed esempi svolti allinterno dei capitoli, sono quasi
un centinaio gli esercizi proposti al termine dei capitoli (Quesiti ed esercizi).
Per ridurre lampiezza del volume lo svolgimento di questi ultimi esercizi stato posto
su un apposito sito web (debitamente indicato alla fine di ciascun capitolo), al quale
lo studente potr accedere per verificare la correttezza dei risultati a cui pervenuto
ed anche per trovare ulteriore materiale didattico disponibile.
In conclusione coltiviamo la speranza che questo libro possa essere uno strumento
rinnovato ed utile per costruire, in un mutato contesto di esigenze didattiche e culturali, un corso di geometria che mantenga il proprio valore e la propria identit.
Auspichiamo inoltre che il lettore possa trarne interesse e curiosit per la geometria,
preparandosi cos a nuovi passi nello studio di questa affascinante parte della natura
e delle scienze.
Veniamo ora ad una breve descrizione dei capitoli di questo volume.
I temi trattati si susseguono, a partire dallo studio dei sistemi di equazioni lineari,
secondo lordine classico di questo tipo di corsi. Dopo una prima parte di algebra lineare vera e propria, che include la teoria delle matrici e dei determinanti, il discorso
si sviluppa in unampia trattazione degli spazi vettoriali e delle nozioni di prodotto
scalare e di base ortonormale su uno spazio vettoriale reale. Una volta stabilite con
sufficiente chiarezza e generalit tali nozioni, il testo sviluppa la geometria euclidea
vera e propria, curando soprattutto lo studio concreto della geometria euclidea del
12

piano e dello spazio e delle isometrie. La parte finale del testo affronta alcuni aspetti
fondamentali della teoria sviluppata nella prima parte: vengono qui studiate le nozioni di autovalore ed autovettore e viene esposto il teorema fondamentale che riguarda
la diagonalizzazione di un operatore lineare. In seguito viene sviluppata la teoria delle
forme quadratiche fino alla dimostrazione del cosiddetto teorema spettrale. Il testo si
conclude infine con un ritorno alla geometria vera e propria: la classificazione delle
coniche e delle quadriche rispettivamente in un piano ed in uno spazio euclideo.
Come accennato in precedenza, a complemento della teoria svolta, sono presenti sul
sito web www.carocci.it approfondimenti di alcuni argomenti trattati nel testo.
Vi potranno accedere sia lo studente interessato, per trovare punti di vista e spiegazioni alternative di argomenti considerati nel testo, sia il docente, per avere eventuali
ulteriori spunti per lorganizzazione didattica del corso.
Nello stesso modo, si operato per le soluzioni dettagliate degli esercizi proposti
alla fine di ciascun capitolo (Quesiti ed esercizi). Il rimando a tali soluzioni e agli
.
approfondimenti indicato con il simbolo

Gli autori desiderano ringraziare il primo luogo il dott. Carlo Ciliberto, per aver contribuito con competenza alla realizzazione di alcune delle figure contenute nel testo e
per fondamentali suggerimenti su tipi di softwares utili agli autori per la realizzazione
di altre figure presenti.
Ringraziamenti dovuti e sinceri vanno ai colleghi, prof.ssa Maria Lucia Fania e dott.
Alberto Calabri, non solo per laiuto fondamentale dato agli autori nella risoluzione
di problemi legati alla realizzazione di alcune figure presenti nel testo, ma anche per
aver fornito esempi di figure da loro realizzate.
Ringraziamenti vanno anche alla dott.ssa Marly Grasso Nunes ed al dott. Andreas
L. Knusten, per precise e preziose consulenze sullutilizzo dei softwares per lelaborazioni di immagini grafiche in vari possibili formati, e alla collega prof.ssa Laura
Geatti, per aver fornito utili links da dove esportare le figure in formato jpeg delle
quadriche.

13

1
Sistemi di equazioni lineari
e matrici
1.1

Sistemi di equazioni lineari

I numeri a cui si far riferimento in questo testo sono i numeri reali, linsieme dei
numeri reali verr indicato con il simbolo usuale R.

Numeri

I simboli N, Z, Q indicheranno rispettivamente, linsieme dei numeri naturali, linsieme dei numeri interi e linsieme dei numeri razionali, si ricordi che si hanno le
inclusioni di insiemi N Z Q R.
I numeri reali che non appartengono a Q vengono chiamati numeri irrazionali. Sono
2 
2
per esempio elementi di R i numeri 0, 2, 3 , 2, 2 , tra questi 0, 2, 3 apparten
gono rispettivamente a N, Z, Q e sono quindi tutti numeri razionali. I numeri 2
e2 costituiscono invece due ben noti esempi di numeri irrazionali. In particolare
2 la lunghezza della diagonale di un quadrato il cui lato abbia lunghezza 1 mentre
2 la lunghezza di una circonferenza di raggio 1.
Nel seguito useremo i simboli X 1 , X 2 , X 3 , X 4 , X 5 , . . . per indicare quei termini di
una formula matematica ai quali possono essere assegnati valori numerici arbitrari.
Poich il valore numerico di tali termini indeterminato essi vengono chiamati indeterminate. In alternativa alcune indeterminate potranno talvolta essere indicate con
delle lettere come X , Y, Z o altre. Le indeterminate X , Y, Z compaiono per esempio
nella formula X 2 + Y 2 = Z 2 ; tale uguaglianza sar poi vera o falsa a seconda dei
valori assegnati a X , Y, Z.
Sia q un numero naturale non nullo, indicheremo con Rq linsieme delle q -uple
ordinate di numeri reali. Per definizione una q -upla ordinata di numeri reali una
successione di numeri reali t1 , t2 , . . . , tq . Ci vuol dire che t1 , t2 , . . . , tq sono numeri
reali e che si tiene conto dellordine in cui essi sono elencati. Una tale successione verr
indicata con (t1 , t2 , . . . , tq ) per brevit di scrittura la stessa q -upla (t1 , . . . , tq ) verr
anche indicata con t.
Se q = 1 la successione si riduce ad un solo numero reale. Gli elementi (t1 , t2 ) di
R2 vengono chiamati coppie ordinate di numeri reali, gli elementi (t1 , t2 , t3 ) di R3
terne ordinate di numeri reali ecc. Si osservi che le terne (1, 2, 3), (1, 3, 2), (3, 2, 1),
(2, 1, 3), (2, 3, 1), (3, 1, 2) sono sei distinti elementi di R3 perch si tiene conto
15

Indeterminate

q-uple

1 Sistemi di equazioni lineari e matrici


dellordine in cui i numeri si succedono. Per lo stesso motivo (, 0) e (0, ) sono
coppie ordinate distinte.
definizione 1.1 Siano t = (t1 , . . . , tq ) e u = (u 1 , . . . , u q ) due elementi di

Rq , la somma di t con u la q -upla ordinata di numeri reali t + u = (t1 +


u 1 , . . . , tq + u q ).

Il lettore potr verificare facilmente che valgono le uguaglianze t + u = u + t e


(t + u) + v = t + (u + v), qualunque siano t, u, v Rq . In altre parole loperazione
di somma di q -uple gode delle propriet commutativa ed associativa.

Rq , il prodotto
di per t la q -upla ordinata di numeri reali t = (t1 , . . . , tq ).

definizione 1.2 Sia un numero reale e sia t = (t1 , . . . , tq )

Altre propriet della somma di q -uple e del prodotto di un numero per una q -upla
verranno considerate successivamente. Per avere qualche semplice esempio delle operazioni appena definite si osservi che (0, ) + (, 0) = (, ) e che (1, 2, 3) =
(, 2, 3 ) e inoltre che (1, 2, 3) + (1, 3, 2) + (3, 2, 1) + (2, 1, 3) + (2, 3, 1) +
(3, 1, 2) = (12, 12, 12).
Equazioni lineari

Stabilite le precedenti convenzioni e notazioni possiamo cominciare lo studio dei


sistemi di equazioni lineari. Unequazione lineare in q indeterminate unespressione
a1 X 1 + + aq X q = b
dove a 1 , . . . , a q , b sono numeri reali e X 1 , . . . , X q indeterminate. Un sistema di p
equazioni lineari in q indeterminate X 1 , . . . , X q non altro che una successione
a 11 X 1 + + a 1q X q = b 1
a 21 X 1 + + a 2q X q = b 2
...
a p1 X 1 + + a pq X q = b q
di p equazioni lineari in q indeterminate. I valori numerici b 1 , . . . , b p si chiamano termini noti del sistema, mentre a 11 , . . . a pq sono i coefficienti delle incognite. La
matrice dei coefficienti del sistema la tabella di numeri

a 11 . . . a 1q
. . . . . . . . .
a p1 . . . a pq
si chiama invece matrice completa del sistema la tabella

a 11 . . . a 1q b 1
. . . . . . . . . . . . . . . . . . .
a p1 . . . a pq b q

16

1.1 Sistemi di equazioni lineari


Linsieme delle soluzioni del sistema non altro che linsieme S delle q -uple ordinate
di numeri reali (t1 , t2 , . . . , tq ) tali che

Insieme delle soluzioni

a 11 t1 + + a 1q tq = b 1
a 21 t1 + + a 2q tq = b 2
...
a p1 t1 + + a pq tq = b p
in particolare ogni elemento di S verr detto una soluzione del sistema. Se (t1 ,
t2 , . . . , tq ) una soluzione diremo che le equazioni del sistema sono soddisfatte da
(t1 , . . . , tq ) o anche che una soluzione del sistema si ottiene ponendo
X 1 = t1 ,

X 2 = t2 ,

...,

X q = tq

Pu accadere che S sia linsieme vuoto e quindi che non esistano soluzioni.
definizione 1.3 Un sistema di equazioni lineari si dice compatibile se esistono

Sistemi compatibili

soluzioni del sistema. In caso contrario si dir che il sistema incompatibile o


che non ammette soluzioni.
definizione 1.4 Un sistema si dice omogeneo se i suoi termini noti sono tutti

Sistemi omogenei

uguali a zero.
Una soluzione di un sistema omogeneo si ottiene ponendo
X 1 = 0,

X 2 = 0,

...,

Xq = 0

in particolare ne segue che un sistema omogeneo sempre compatibile. La precedente


soluzione del sistema viene chiamata la soluzione nulla.
Assegnato il sistema di equazioni lineari
a 11 X 1 + + a 1q X q = b 1 ,

...,

a p1 X 1 + + a pq X q = b p

...,

a p1 X 1 + + a pq X q = 0

Sistema omogeneo
associato
a un sistema assegnato

diremo che il sistema


a 11 X 1 + + a 1q X q = 0,

il suo sistema omogeneo associato. Conoscendo linsieme delle soluzioni del sistema
omogeneo associato e almeno una soluzione del sistema di partenza possibile descrivere tutte le soluzioni del sistema di partenza. Siano infatti S Rq linsieme delle
soluzioni del sistema di partenza e So Rq linsieme delle soluzioni del sistema
omogeneo associato. Per ogni c Rq possiamo considerare il seguente sottoinsieme
di Rq :
c + So = {c + z, z So }
17

1 Sistemi di equazioni lineari e matrici


Vale allora la seguente propriet:
proposizione 1.1 Se c appartiene a S si ha S = c + So .

Per ogni t Rq abbiamo t = c +z, dove z = t c . Basta quindi provare


che t appartiene a S se, e solo se, z appartiene a So . Siano c = (c 1 , . . . , c q ), t = (t1 , . . . , tq )
e z = (z1 , . . . , zq ) allora zi = ti c i , per ogni i = 1, . . . , p; inoltre a i1 z1 + + a iq zq =
(a i1 t1 + + a iq tq ) (a i1 c 1 + + a iq c q ). Poich a i1 c 1 + + a iq c q = bi ne segue
che a i1 t1 + + a iq tq = bi se, e solo se, a i1 z1 + + a iq zq = 0, quindi t appartiene a S
se e solo se z appartiene a S0 .


Dimostrazione

Esempio 1.1 Insieme delle soluzioni di un sistema


La proposizione ci dice che, se conosciamo una soluzione c di un sistema di equazioni lineari, allora tutte le altre soluzioni si ottengono sommando a c le soluzioni del sistema
omogeneo associato. Per esempio (1,1,1) una soluzione del sistema di due equazioni in
tre indeterminate
X Y + Z = 1,

X 2Y + Z = 0

Inoltre linsieme So delle soluzioni del sistema omogeneo associato


X Y + Z = 0,

X 2Y + Z = 0

costituito dalle terne (t, 0, t) al variare del numero reale t. Quindi le terne
(1 + t, 1, 1 t ) = (1, 1, 1) + (t, 0, t )
costituiscono linsieme S delle soluzioni del sistema di partenza.

Nel paragrafo 1.3 vedremo in dettaglio un metodo, noto come procedimento di GaussJordan, per determinare linsieme delle soluzioni di un sistema. Concludiamo invece
questo paragrafo con una serie di osservazioni pratiche, definizioni ed esempi che si
riveleranno utili per lo stesso scopo.
Osservazione 1.1
Equazioni di un sistema
Sia a1 X1 + + aq Xq = b una equazione lineare in q inde- 2.
terminate, due casi molto particolari di una tale equazione
sono i seguenti:
1.

quando si ha a1 = = aq = 0 e b = 0.
In questo caso lequazione non mai soddisfatta,
qualunque sia il valore assegnato alle indeterminate X1 , . . . , Xq . Un sistema che ha tra le sue equazioni

18

una tale equazione dunque incompatibile;


quando si ha a1 = = aq = b = 0. In questo caso lequazione sempre soddisfatta, qualunque sia
il valore assegnato alle indeterminate X1 , . . . , Xq .

Matrice completa di un sistema


Le seguenti tabelle sono le matrici complete di altrettanti sistemi, molto semplici, di tre equazioni lineari in tre
indeterminate:

1.2 Matrici
I lettori familiari con la geometria analitica del piano noteranno che le equazioni considerate sono le equazio1 0 0 1
0 0 0 1
ni di due rette parallele e che le soluzioni del siste

1 1 2 1 , 0 1 0 1
ma sarebbero le coordinate dei punti comuni alle due
0 0 1 1
1 2 1 1
rette (par. 7.3).
Il lettore scriva per esercizio i sistemi corrispondenti e de- Non esistono quindi soluzioni. altrettanto evidente che
termini tra di essi quello incompatibile, quello con ununica il sistema
soluzione e quello con innite soluzioni.
X + Y + Z = 1, X + Y + Z = 2

Sistemi incompatibili
Tra i sistemi incompatibili non ci sono soltanto quelli che incompatibile e che, per analoghi motivi, anche il sistema
contengono unequazione lineare del tipo 0X1 + + 0Xq =
X1 + + Xq = 1,
b con b = 0. Per esempio il sistema
X1 + + Xq = 2,
..
X Y = 0, X Y = 1
.
X1 + + Xq = p
incompatibile. Le soluzioni della prima equazione sono infatti le coppie (t, t ) mentre le soluzioni della seconda so incompatibile per ogni p 2.
no le coppie (t + 1, t ), al variare di t in R (figura 1.1 ).
facile concludere che nessuna coppia soddisfa entrambe le
Numero di equazioni e numero di indeterminate
equazioni.
Gli ultimi esempi mostrano che sarebbe ingenuo, e soprattutto sbagliato, pensare che un sistema debba essere compatibile se il numero delle sue indeterminate maggiore del
numero delle equazioni.
(1, 2)
(1, 1)

Altrettanto sbagliato sarebbe pensare che un sistema debba essere incompatibile se il numero delle sue equazioni
maggiore del numero delle indeterminate. Per esempio il
sistema di 5 equazioni e 4 indeterminate
X = 1, Y = 1, Z = 1,
X + Y + Z = 3,

figura 1.1 Le soluzioni (t, t) e (t + 1, t), al variare di t R

1.2

X + 2Y + 3Z + 4T = 0

compatibile e la sua unica soluzione (1, 1, 1, 32 ).

Matrici

Nel precedente paragrafo abbiamo gi preso in considerazione tabelle di numeri

Tabelle di numeri

a 11 . . . a 1q
. . . . . . . . . . . . . .
a p1 . . . a pq
19

1 Sistemi di equazioni lineari e matrici


costituite da un certo numero p di righe su ognuna delle quali sono disposti ordinatamente q numeri reali. Una tale tabella contiene dunque p righe e q colonne di
numeri reali.
La matrice dei coefficienti di un sistema di p equazioni lineari in q indeterminate
un esempio di tabella di questo tipo. La matrice completa dello stesso sistema un
ulteriore esempio; in questultimo caso la tabella ha p righe e q + 1 colonne. Luso di
tabelle di questo tipo fondamentale non solo nello studio dei sistemi di equazioni
lineari ma anche in moltissimi altri settori della matematica.
A tali tabelle ed al loro uso corrispondono, se si vuole passare ad una forma pi
adeguata e rigorosa di linguaggio matematico, la definizione di matrice e tutta la
conseguente teoria che descrive le propriet delle matrici.
In ogni caso, per gli scopi di questo testo e non solo, sar sufficiente pensare ad
una matrice come ad una tabella di numeri del tipo precedente. Il lettore pu quindi
eventualmente ignorare la successiva definizione.
Per ogni numero naturale p 1 indicheremo con N p linsieme i cui elementi sono i
numeri 1, 2, . . . , p. Il prodotto cartesiano N p Nq pertanto linsieme delle coppie
ordinate di numeri interi (i, j ) tali che 1 i p e 1 j q .
definizione 1.5 Una matrice p q una collezione di numeri a i j assegnati in

funzione delle coppie ordinate (i, j ) N p Nq .

I numeri a i j vengono chiamati termini della matrice. In particolare a i j detto termine


di posto i, j o anche termine i, j . La coppia ordinata (i, j ) la coppia di indici di a i j .
Il modo pi naturale ed efficace di rappresentare una matrice consiste nello scrivere
i suoi termini su una tabella formata da p righe e q colonne: in modo tale che il
termine di posto i, j si trovi sulla riga numero i e sulla colonna numero j . Dora in
poi sar quindi conveniente, come si detto, pensare
p q come ad

a una matrice
una tabella A di numeri del seguente tipo: A =

a 11 ... a 1q

.......

a p1 ... a pq

. Una matrice 1 1

evidentemente una tabella (a 11 ) formata da un solo numero.


Come naturale vengono chiamate righe della matrice A le seguenti matrici 1
q , (a 11 . . . a 1q ), . . . , (a p1 . . . a pq ). Analogamente vengono chiamate colonne della
a
a
1q
..11
..
.
,...,
matrice A le seguenti matrici q 1, 2
. .
a p1

a pq

Seguendo luso comune utilizzeremo frequentemente la notazione abbreviata A =


(a i j ) per indicare la precedente tabella.
20

1.2 Matrici
Una matrice che abbia lo stesso numero di righe e di colonne si dice matrice quadrata.
Inoltre il numero di tali righe o colonne lordine della matrice quadrata considerata.
In altre parole una matrice quadrata di ordine n una matrice n n. Se A una
matrice quadrata di ordine n
la diagonale principale di A la sequenza dei termini
a i j tali che i = j :

a 11 .........
...a 22 ......
............
.........a nn

Matrici quadrate

Pensando alla tabella A come ad un quadrato, la diagonale principale la diagonale


che congiunge il vertice a 11 con il vertice a nn . La maggiore importanza di questa
diagonale di A rispetto allaltra risulter in molte circostanze.
definizione 1.6 Una matrice diagonale una matrice quadrata che ha nulli tutti
i termini che non si trovano sulla sua diagonale principale.

definizione 1.7 Una matrice triangolare superiore (rispettivamente, inferiore),

una matrice quadrata nella quale sono nulli tutti i termini di posto i, j con
i > j (rispettivamente, i < j ).
In una matrice triangolare superiore (inferiore) sono nulli tutti i termini che si trovano
al di sotto (al di sopra) dei termini sulla diagonale principale. Le matrici triangolari
superiori e inferiori sono le matrici diagonali.
Nel seguito linsieme di tutte le matrici p q verr sempre indicato con M pq .
Analogamente al modo in cui sono stati definiti una somma di elementi di Rq e un
prodotto di un numero reale per un elemento di Rq , verranno ora definiti una somma
di matrici p q e un prodotto di un numero per una matrice p q .
definizione 1.8 Siano A = (a i j ) e B = (b i j ) due elementi di M pq , la matrice

(a i j + bi j ) per definizione la matrice somma di A con B, essa verr indicata


con A + B.

A + B dunque quella matrice il cui termine di posto (i, j ) il numero a i j + bi j .


definizione 1.9 Sia un numero reale e sia A = (a i j ) M pq , la matrice

(a i j ) per definizione il prodotto di con A, essa verr indicata con A.

A dunque quella matrice il cui termine di posto (i, j ) il numero a i j .


Avremo modo di esaminare successivamente, nel capitolo sugli spazi vettoriali, le propriet delle operazioni ora definite. comunque facile verificare che, come la somma
di q -uple, anche la somma di matrici commutativa ed associativa. Una matrice i cui
21

Somma di matrici
e moltiplicazione
di una matrice
per un numero

1 Sistemi di equazioni lineari e matrici


termini siano tutti
uguali a zero si dice matrice nulla. Sono esempi di matrici nulle

 0 0 0
(0), 0 0 , 0 , 0 0 .
Per ogni coppia ( p, q ) di interi positivi esiste evidentemente ununica matrice p
q che nulla, tale matrice sar indicata con O pq . Si noti che A + O pq = A =
O pq + A, A M pq . Ci vuol dire, se ci si vuole esprimere con il linguaggio
dellalgebra, che O pq lelemento neutro per loperazione di somma tra matrici p q .
La matrice opposta di una matrice A = (a i j ) quella matrice B = (bi j ) in cui
bi j = a i j per ogni coppia (i, j ). Evidentemente si ha A + B = O pq .
Trasposta di una matrice

Sia A una matrice p q ; si indica con t A la matrice q p il cui termine di posto i, j


il termine di posto j, i di A. Se A = (a i j ) e t A = (a i j ) avremo quindi a i j = a j i .
La matrice t A viene chiamata matrice trasposta di A oppure trasposta di A. Essa giocher un ruolo importante in molti punti della teoria che svilupperemo nel seguito.
Vediamo alcuni esempi:

0 1 0
0 1 0 0
1 0 0

A = 1 0 3 0 , t A =
0 3 0 ,
0 0 0 1
0 0 1

1


B = 1 2 3 , t B = 2 ,
3

a b
0 b
t
C=
, C = C, D =
, t D = D.
b d
b 0
Si osservi infine che, se R 1 , . . . , R p sono le righe di A, allora le trasposte t R 1 , . . . ,t R p
sono le colonne di t A. Nello stesso modo, se C 1 , . . . , C q sono le colonne di A, allora
t C , . . . ,t C sono le righe di t A. Per questo motivo si dice a volte che t A ottenuta
q
1
da A scambiando le righe con le colonne.
definizione 1.10 Sia A = (a i j ) una matrice quadrata: A si dice simmetrica se

Matrici simmetriche
e antisimmetriche

tA

= A mentre si dice antisimmetrica se t A = A.

In altre parole A simmetrica se e solo se a i j = a j i per ogni coppia di indici i, j . A


invece antisimmetrica se e solo se a i j = a j i per ogni coppia di indici i, j .

1.3
Modicazioni delle righe
di una matrice

Riduzione per righe di una matrice

In molte situazioni concrete, in particolare nello studio di un sistema di equazioni


lineari, molto utile poter sostituire una matrice A con unaltra matrice B, che sia
22

1.3 Riduzione per righe di una matrice


stata ottenuta da A con una procedura opportuna e che sia inoltre pi semplice da
usare. Per precisare adeguatamente questo discorso definiremo innanzitutto alcune
operazioni di modifica delle righe di una matrice.
definizione 1.11 Sia A una matrice e siano R 1 , . . . , R p le sue righe; una matrice

B si dir modificazione elementare di una riga di A se ottenuta in uno dei


modi seguenti:
B ottenuta da A scambiando tra di loro due righe R i e R j ;
B ottenuta da A moltiplicando una riga R i per un numero reale
non nullo;
B ottenuta da A sostituendo una riga R i con R i + R j , dove
un numero reale ed inoltre si richiede che sia i = j .

1.
2.
3.

Per brevit diremo pi semplicemente che B una modificazione elementare di A.


Loperazione necessaria per passare da A a B verr indicata nei modi seguenti:
r i r j

A B

r i

A B

r i +r j

A B

a seconda che B sia ottenuta come in 1, 2 o 3. Essa verr chiamata operazione su una
riga di A, rispettivamente di tipo 1, 2, 3. Si noti che, per ognuna delle precedenti
operazioni su una riga, esiste una operazione inversa che fa passare da B ad A:
r i r j

B A

1
ri

B A

r i r j

B A

Se dunque B modificazione elementare di una riga di A allora A modificazione


elementare di una riga di B e viceversa. Infine sar talvolta conveniente indicare A
nei modi seguenti:

R1

..
A = . = C1 . . . Cq
Rp
dove R 1 , . . . , R p indicano le righe e C 1 , . . . , C q le colonne della matrice A.

Esempio 1.2
Sia A una matrice 3 q e siano R1 , R2 , R3 le sue righe, allora A =

R1
R2
e tra le modicaR3



R3
R1
R2 , B2 =
R2
,
R1
R3

zioni elementari di una riga di A abbiamo le seguenti matrici: B1 =

R1
B3 = R2 + 13 R1 . B1 si ottiene scambiando la prima e la terza riga di A. B2 si ottiene
R3

23

1 Sistemi di equazioni lineari e matrici


moltiplicando la terza riga di A per il numero . B3 si ottiene sostituendo la seconda riga
di A con la somma della seconda riga R2 con la prima riga R1 moltiplicata per 13 .

Il passaggio da una matrice A ad una modificazione elementare B di una riga di A


pu essere iterato: ripartendo da B si pu costruire una modificazione elementare di
una riga di B e cos via.
definizione 1.12 Diremo che B una modificazione delle righe di A se esiste

una successione finita A 1 , . . . , A n di matrici tali che:

la successione inizia con A e finisce con B cio A = A 1 e B = A n ;


per ogni i = 2, . . . , n la matrice Ai modificazione elementare di una
riga di Ai1 .

1.
2.

Termini pivots
di una matrice

Il nostro scopo, in vista delle applicazioni che ci interessano, costruire, per ogni
matrice A, una matrice B che sia modificazione delle righe di A ed abbia, per quanto
possibile, molti termini uguali a zero. Per dare un senso pi preciso a questo discorso
introdurremo ora alcune definizioni.
definizione 1.13 Un termine m s t di una matrice M un termine pivot se m s t =

0 e se, sulla colonna in cui m s t si trova, non ci sono termini diversi da zero al
di sotto di m s t .
Un termine

pivot verr anche chiamato, pi semplicemente, un pivot. Nella matrice



0516
0407
sono pivots i termini 4, 1 e 8 e cio i termini rispettivamente di posto
0008

(2, 2), (1, 3) e (3, 4).


definizione 1.14 Una matrice si dice ridotta per righe se su ogni sua riga non
nulla esiste un termine pivot.

Dora in poi useremo lespressione matrice ridotta come sinonimo di matrice ridotta
per righe.

Esempio 1.3
Sono ridotte le seguenti matrici:



0 0


1 2

1 1 2 1
0 4
0 0

24

0
1

3
0

0
1
0
0

0
0

1
0

0
0

1
2
0
0

1
2
1
0

2
4

1.3 Riduzione per righe di una matrice


Non sono ridotte per righe le seguenti matrici:

0 0



0 1
1 1
1
0 4

2 1
1
1 2
3 0
0 1
0 5

0
0

1
0

0
1

1
2
0
2

1
2
1
3

2
4

Osservazione 1.2
Se la matrice completa di un sistema di equazioni lineari ri- ogni sistema di equazioni lineari equivalente, come avredotta per righe, risulta pi facile determinare le soluzioni del mo modo di vedere, ad un sistema la cui matrice completa
sistema oppure concludere che non ne esistono. Per di pi ridotta per righe. Ci spiega limportanza di tali matrici.

Supponiamo ora che, per una data matrice A = (a i j ) e per una data coppia di indici
(s , t), il termine a s t sia diverso da zero. Utilizzando le notazioni abituali potremo
scrivere

a 11 . . . a 1t . . . a 1,q
R1

..
.
.
.. ...
..


A=
as 1 . . . as t . . . as q = Rs
..
..
.. ..
.
.
. .
a p1 . . . a pt . . . a p,q
Rp
dove R 1 , . . . , R p sono le righe di A. Per costruire una modificazione delle righe di A
che sia anche ridotta per righe cominceremo con la costruzione di una nuova matrice
B: poniamo
R i = R i + i R i ,

i = 1, . . . , p

dove 1 = . . . s = 0, s +1 =

a s +1,t
as t , . . . , p

R 1

.
..

Poi poniamo per definizione B = R.s
..

= a sptt .

. Si noti che R 1 = R 1 , . . . , R s = R s

R p

visto che abbiamo posto 1 = = s = 0.


proposizione 1.2 Siano A e B come sopra, B ha le seguenti propriet:

1.
2.

B una modificazione delle righe di A;


il termine di posto (s , t) di B un pivot.

25

1 Sistemi di equazioni lineari e matrici


Dimostrazione
1.

2.

Sia i = 1, . . . , p e sia Ai la matrice le cui prime i righe sono R 1 , . . . , R i , mentre le


rimanenti sono uguali alle righe di A. chiaro che A 1 modificazione elementare
della prima riga di A. Inoltre, per ogni i = 2, . . . , p, Ai si ottiene da Ai1 sosti . A quindi modificazione elementare di una riga di A
tuendo R i1 con R i1
i
i1 .
Si noti infine che A p = B. Nella successione di matrici A, A 1 , . . . , A p = B ogni
matrice dunque una modificazione elementare di una riga della matrice precedente.
Ci prova la 1.
Poich R i = R i + i R s = (a i1 + i a s 1 , . . . , a i p + i a s p ), il termine di posto
i, t di B a it + i a s t , per ogni i = 1, . . . , p. Se i > s si ha i = aasitt e dunque
a it + i a s t = 0. Se i s si ha i = 0 e perci a s t + s a s t = a s t = 0. Ne segue
che il termine di posto s , t di B un pivot.


Siano C 1 , . . . , C q le colonne di B; dalla dimostrazione della propriet segue anche


a 1t
..
.
a
che C t = 0s t .
..
.
0

Algoritmo di riduzione
per righe di una matrice
(o di Gauss-Jordan)

Il procedimento con il quale siamo passati da A a B alla base di un metodo effettivo


di calcolo, in altri termini di un algoritmo, dotato della seguente propriet:
data una matrice A = (a i j ) M pq lalgoritmo costruisce una successione A, M1 ,
M2 , . . . , M p di matrici p q tali che:
1.
2.

ogni matrice Mn , n = 1, . . . , p, una modificazione delle righe di A;


ogni riga non nulla delle prime n righe di Mn contiene un pivot.

Si noti che M p ha p righe, quindi 2 implica che M p ridotta per righe. Daltra parte
M p una modificazione delle righe di A per costruzione. Quindi:
lalgoritmo termina con la costruzione di una matrice che sia modificazione delle righe di A sia ridotta per righe.
In questa propriet risiede limportanza dellalgoritmo di riduzione, noto anche come
metodo di Gauss-Jordan per ridurre una matrice.
Vediamo come si deve operare in concreto per far funzionare lalgoritmo: le matrici M1 , . . . , M p si costruiscono luna dalla precedente con il procedimento per
induzione che ora esporremo:
26

1.3 Riduzione per righe di una matrice


Siano R 1 , . . . , R p le righe di A, se la prima riga R 1 nulla oppure se contiene un
termine pivot si pone M1 = A. In entrambi i casi infatti evidente che una tale M1
soddisfa 1 e 2. Se invece R 1 non nulla e non contiene termini pivot si sceglie un
suo termine a 1,t = 0 e si pone

R1
R 2 + 2 R 1

M1 =

..

Costruzione di M1

R p + p R1

dove i = ai,t , i 2. Si noti che M1 non altro che la matrice B della Propo1t
sizione 1.2 nel caso in cui s = 1. M1 dunque modificazione delle righe di A ed il
suo termine 1, t un pivot, quindi M1 soddisfa 1 e 2.
Per induzione abbiamo gi costruito una matrice Mn1 soddisfacente alle condizioni
1 e 2. Sia Mn1 = (m i j ) e siano S1 , . . . , S p le sue righe. Se la riga Sn nulla poniamo
Mn = Mn1 : ovvio che in tal caso Mn soddisfa 1 e 2. Se Sn non nulla scegliamo
su Sn un termine m n,v = 0 e poniamo per definizione

S1

..

S
n1

Mn =
Sn + n Sn1

..

.
S p + p Sn1
m

i,v
, i = n, . . . , p.
dove i valori n , n+1 , . . . , p sono ora cos definiti: i = m n,v

Rimane da provare che Mn soddisfa le condizioni 1 e 2:


1.

2.

chiaro che Mn modificazione delle righe di Mn1 . Daltra parte Mn1


modificazione delle righe di A per ipotesi. Quindi Mn modificazione delle
righe di A, cio soddisfa 1;
le prime n righe di Mn sono S1 , . . . , Sn1 , Sn + n Sn1 : dobbiamo provare
che ogni riga non nulla tra queste ha un pivot. Per prima cosa osserviamo che
Mn la matrice B della Proposizione 1.2 nel caso in cui sia s = 1 e v = t. In
particolare il termine di posto n, v di Mn un pivot, quindi la riga numero
n di Mn ha un pivot.
Le righe precedenti di Mn sono anche le prime n 1 righe di Mn1 . Sia Sk
una riga non nulla di queste, poich Mn1 soddisfa la condizione 2 esiste un
termine m ku di Sk che pivot per Mn1 . Proviamo che, come termine di
posto k, u su Mn , m k,u un pivot per Mn . Esaminiamo la colonna di Mn su
cui si trova m ku : vista la definizione di Mn tale colonna
27

Costruzione di Mn , n 2

1 Sistemi di equazioni lineari e matrici

m nu

m pu

m 1u
..
.

m ku

m k+1,u

..

m n1,u

+ n m n1,u

..

.
+ p m n1,u

Se i numeri m k+1,u , . . . , m n1,u , m nu . . . m pu sono tutti nulli allora m ku un pivot


per Mn . Ora tali numeri sono anche termini di Mn1 posti al di sotto di m ku nella
colonna di m ku . Poich m ku pivot per Mn1 essi sono nulli.
Il successivo teorema una importante, ed a questo punto immediata, conseguenza
dellesistenza dellalgoritmo di riduzione per righe di una matrice.
teorema 1.1 Per ogni matrice A esiste una matrice M che sia modificazione delle

righe di A sia ridotta per righe.


Esercizio 1.1 Algoritmo di riduzione per righe
Lalgoritmo di riduzione per righe andr soprattutto applicato e in molti casi si riveler
utile e rapido; a titolo di esempio applichiamo lalgoritmo a due matrici. Per maggiore
dettaglio indicheremo la successione di tutte le trasformazioni elementari effettuate, usando
le notazioni precedentemente denite.




1
4 3 1 2 r2 4 r1 4 3 1 2

7
0 54 11
1 2 3 4
4
2
Qui si scelto il termine 4 sulla prima riga della prima matrice e, con la trasformazione
elementare indicata, lo si reso pivot. Non vietato scegliere diversamente: se per esempio
si sceglie sulla prima riga il termine 1 si ottiene




4
3 1
2
4 3 1 2 r2 3r1

11 7 0 2
1 2 3 4
Applichiamo ora lalgoritmo di riduzione a questa seconda matrice:

1 1 r r 0
1 1
0 1 1 r r 0
3 2

2 1

1 0 1 1 1 0 1 1 0
1
1 0
0
2 0
1 1 0
Da tale matrice si ottiene una matrice ridotta anche nel modo seguente:

0 1 1 r r 1 1 0 r r 1 0 1
1 3
2 3

1 0 1 0 1 0 0 1 1
1 1 0
0 1 1
0 1 0

28

1.3 Riduzione per righe di una matrice


A volte dunque lalgoritmo pu essere variato o abbreviato convenientemente: con scambi
di righe od una scelta diversa delle modicazioni elementari.

Riassumiamo una variante quasi ovvia dellalgoritmo precedente che abbrevia il numero di passaggi necessari per ottenere una matrice ridotta per righe a partire da una
matrice A. Il nuovo algoritmo costruisce una successione di matrici N1 , . . . , Nh ,
con h < p, nel modo seguente:
1.

per costruire N1 si sceglie la prima riga non nulla di A che sia priva di termini
pivot. Se tale riga non esiste allora A gi ridotta per righe, in tal caso si pone
A = N1 e non si procede ulteriormente. In caso contrario sia R k la prima
riga non nulla di A priva di termini pivot e sia a k,t un suo termine non nullo,
allora si pone

R1

..

R
k

N1 =
R k+1 + k+1 R k

..

.
R p + p Rk
a

2.

dove R 1 . . . R p sono le righe di A e i = ai,t


, i k + 1;
kt
si procede poi con N1 nello stesso modo: si considera su N1 la prima riga non
nulla che sia priva di termini pivot. Se tale riga non esiste N1 gi ridotta e
non si procede ulteriormente. In caso contrario sia Sc tale riga e sia a c ,r un
suo termine non nullo, allora si procede esattamente come in 1 ponendo

S1

..

S
c

N2 =
Sc +1 + c +1 Sc

..

.
S p + p Sc
dove S1 . . . S p sono le righe di A e i = aacirr , i c + 1.

Procedendo come sopra lalgoritmo costruisce in successione le matrici N1 , . . . , Nh


e si arresta quando lultima matrice costruita ridotta per righe.
A titolo di esempio si consideri la seguente applicazione dellalgoritmo abbreviato:

1 1 1 1
1 1 1 1
2 1 3 0 r 4 2r 3 2 1 3 0

1 4 0 0 1 3 0 0
2 7 0 0
0 1 0 0
29

Lalgoritmo di riduzione
abbreviato

1 Sistemi di equazioni lineari e matrici


Si noti che bastata una sola operazione per ridurre la matrice e che le modalit di
costruzione di una matrice dalla precedente sono identiche a quelle dellalgoritmo di
riduzione precedente.
Osservazione 1.3
Quante somme, prodotti, sottrazioni, divisioni servono per
ottenere Mp1 ?
Quando si usa un algoritmo importante avere informazioni
di questo tipo. Esse infatti danno indicazioni sui tempi necessari ad una macchina calcolatrice per applicare lalgorit-

1.4

mo al problema considerato. Nel caso dellalgoritmo di riduzione di una matrice possibile dimostrare, con argomenti
elementari, che il numero di operazioni di calcolo effettivamente necessarie per passare da A alla matrice ridotta per
righe Mp1 non superiore a pq.

Risoluzione dei sistemi di equazioni lineari

Risolvere un sistema di equazioni lineari significa determinare linsieme delle sue soluzioni: si tratta di un problema importante, anche se completamente risolto sul piano
teorico, di quella parte della matematica nota come Algebra Lineare.
In questo paragrafo affronteremo tale problema in modo operativo, costruiremo cio
un procedimento effettivo per la risoluzione di un sistema. Il procedimento spesso noto come metodo di eliminazione di Gauss-Jordan. Esso consiste nellapplicare
lalgoritmo di riduzione per righe alla matrice completa del sistema.
Sistemi equivalenti
e modicazioni
delle righe
di una matrice

definizione 1.15 Due sistemi di equazioni lineari si dicono equivalenti se hanno

lo stesso insieme di soluzioni.


Fissiamo un primo sistema di equazioni lineari e denotiamo con E 1 , . . . , E p la
sequenza delle sue equazioni. E i sar dunque unequazione del tipo
a i1 X 1 + + a iq X q = bi
e la matrice completa del sistema sar

a 11 . . .
a 21 . . .

C = ..
..
.
.
a p1 . . .

a 1q
a 2q
..
.

b1
b2

..
.

a pq b p

Ogni modificazione elementare C  di una riga di C la matrice completa di un


secondo sistema di equazioni E 1 , . . . , E p .
30

1.4 Risoluzione dei sistemi di equazioni lineari


La forma che assumono le equazioni E 1 , . . . , E p dipende dal tipo di modificazione

R
R1
..
..1
elementare adottata. Pi precisamente siano C =
e C =
.
. ; facile
Rp

R p

osservare che:
1.

2.

3.

se C  si ottiene da C scambiando le righe R i e R j allora la sequenza di


equazioni E 1 , . . . , E q si ottiene dalla sequenza di equazioni E 1 , . . . , E q
scambiando le equazioni E i e E j ;
se C  si ottiene da C moltiplicando la riga R i per una costante c (c = 0), allora la sequenza di equazioni E 1 , . . . , E q si ottiene dalla sequenza di equazioni
E 1 , . . . , E q moltiplicando lequazione E i per c ;
se C  si ottiene da C sostituendo la riga R i di C con la riga R i = R i + R j
(i = j ), allora la sequenza di equazioni E 1 , . . . , E q si ottiene dalla sequenza
di equazioni E 1 , . . . , E q sostituendo lequazione E i con lequazione E i =
E i + E j , dove con E i + E j indichiamo lequazione
(a i1 + a j 1 )X 1 + + (a iq + a j q )X q = bi + b j

Esempio 1.4
Consideriamo per esempio il sistema di equazioni
X1 + X2 + X3 + X4 = 1
2X1 + 2X2 + 4X3 + 3X4 = 0


la matrice completa del sistema C = 11 11 14 13 10
1.

Se C  ottenuta da C scambiando le due righe di C allora il sistema


2X1 + 2X2 + 4X3 + 3X4 = 0
X1 + X2 + X3 + X4 = 1

2.

ha come matrice completa C  .



Se C  ottenuta moltiplicando la prima riga di C per 3 allora il sistema





3X1 + 3X2 + 3X3 + 3X4 = 3
2X1 + 2X2 + 4X3 + 3X4 = 0

3.

ha come matrice completa C  .


Se C  ottenuta da C sostituendo la seconda riga R2 con R2 12 R1 allora il sistema
X1 + X2 + X3 + X4 = 1
3
2X3 + X4 = 0
2
ha come matrice completa C  .

31

1 Sistemi di equazioni lineari e matrici


Non difficile verificare che tutti i sistemi di equazioni considerati nel precedente
esempio sono equivalenti. In realt vale pi in generale il seguente
teorema 1.2 Sia C la matrice completa di un sistema di equazioni lineari, ogni
modificazione delle righe di C la matrice completa di un sistema equivalente.

Dimostrazione

sufficiente provare il teorema nel caso di una modificazione elementare


delle righe di C . Per definizione ogni modificazione C  delle righe di C infatti determinata
da una successione C 1 , . . . , C n di matrici tali che C  = C n e C i una modificazione elementare delle righe della matrice precedente. Sia dunque C  una modificazione elementare
di una riga della matrice C M pq e siano E 1 , . . . , E p e E 1 , . . . , E p le sequenze delle
equazioni dei sistemi che hanno rispettivamente C e C  come matrice completa. Abbiamo
gi osservato in precedenza che la sequenza di equazioni E 1 , . . . , E p appartiene ad uno dei
tipi seguenti:
1.
2.
3.

E 1 , . . . , E p ottenuta da E 1 , . . . , E p scambiando E i con E j , per una data coppia


di indici i, j {1, . . . , p}.
E 1 , . . . , E p ottenuta da E 1 , . . . , E p moltiplicando E i per c , per un dato indice
i {1, . . . , p} ed un dato numero reale c = 0.
E 1 , . . . , E p ottenuta da E 1 , . . . , E p sostituendo E i con lequazione E i cos definita:
(a i1 X 1 + + a iq X q ) + (a j 1 X 1 + + a j q X q ) = bi + b j
per una data coppia di indici i, j {1, . . . , p} e tali che i = j .

Nei casi 1 e 2 immediato osservare che i due sistemi considerati sono equivalenti. Proviamo
che la stessa propriet vale nel caso 3: sia s = (s 1 , . . . , s q ) una soluzione del sistema di
equazioni E 1 , . . . , E p . In particolare ne segue che (a i1 s 1 + + a iq s q ) + (a j 1 s 1 +
. . . a j q s q ) = bi + b j essendo (a i1 s 1 + + a iq s q ) = bi e (a j 1 s 1 + . . . a j q s q ) = b j .
Quindi s soddisfa lequazione E i del sistema E 1 , . . . , E p . Poich vale E k = E k per ogni
k = i, ne segue che s soddisfa tutte le equazioni E 1 , . . . , E p ed quindi una soluzione
di tale sistema. Viceversa sia s una soluzione del sistema di equazioni E 1 , . . . , E p , allora s
soddisfa lequazione
(a i1 X 1 + + a iq X q ) + (a j 1 X 1 + + a j q X q ) = bi + b j
e tutte le equazioni E k con i = k. Essendo in particolare i = j ne segue a j 1 s 1 +. . . a j q s q = b j .
Daltra parte (a i1 s 1 + + a iq s q ) + (a j 1 s 1 + . . . a j q s q ) = bi + b j , poich s soddisfa
la precedente equazione E i . Le due ultime uguaglianze implicano a i1 s 1 + + a iq s q = bi
e cio che s soddisfa E i . Poich E k = E k , i = k, ne segue che s una soluzione del sistema
di equazioni E 1 , . . . , E p . Quindi i due sistemi sono equivalenti.


Sistemi ridotti

Sia C la matrice completa di un sistema di p equazioni lineari in q indeterminate e


sia A la matrice dei coefficienti. A allora formata dalle prime q colonne di C .
32

1.4 Risoluzione dei sistemi di equazioni lineari


facile applicare a C lalgoritmo di riduzione per righe in modo tale che esso funzioni
simultaneamente anche per A. Vediamo come: sia C, M1 , . . . , M p1 la successione
di matrici costruite dallalgoritmo; ricordiamo che Mk , si ottiene dalla matrice precedente considerando su questa la riga k-esima Sk . Se Sk nulla si pone Mk+1 = Mk .
Se Sk non nulla si sceglie un suo termine non nullo m k,t e poi si costruisce Mk+1 come prescritto dallalgoritmo. In questo caso il termine prescelto m k,t ricomparir su
Mk+1 come pivot di posto k, t. Nulla vieta allora di adottare lulteriore prescrizione
seguente:
(*)

per ogni k si sceglie leventuale termine non nullo di Sk su una colonna


diversa dallultima, salvo il caso in cui lunico termine non nullo di Sk
sia lultimo.

Questo accorgimento basta per produrre il risultato desiderato. Supponiamo infatti


di avere seguito la prescrizione (*) e consideriamo la successione di matrici A, N1 ,
. . . , N p1 , dove Nk la matrice formata dalle prime q colonne di Mk . Non difficile
concludere che tale successione quella che si ottiene applicando ad A lalgoritmo
di riduzione. Quindi la matrice N p1 , formata dalle prime q colonne di M p1 ,
ridotta per righe ed una modificazione delle righe di A.
Dal Teorema 1.2, M p1 la matrice completa di un sistema equivalente a quello
che ha come matrice completa C . Inoltre N p1 la matrice dei coefficienti di tale
sistema equivalente: perch la matrice formata dalle prime q colonne di M p1 .
Poich M p1 e N p1 sono ridotte per righe, vale dunque il seguente:
teorema 1.3 Ogni sistema di equazioni lineari equivalente ad un sistema per il

quale la matrice completa e la matrice dei coefficienti sono ridotte per righe.

definizione 1.16 Un sistema di equazioni lineari si dice ridotto se la sua matrice

completa e la sua matrice dei coefficienti sono ridotte per righe.

Esempio 1.5
La matrice completa C del sistema di due equazioni in q indeterminate
X1 + + Xq = 1
X1 + + Xq = 0
ridotta per righe, mentre quella dei coefcienti non lo . Il sistema quindi non ridotto.
Applicando a C lalgoritmo di riduzione con la prescrizione (*) si ottiene una matrice C  che
la matrice completa del sistema ridotto
X1 + + Xq = 1
0 = 1

33

1 Sistemi di equazioni lineari e matrici


ormai chiaro come costruire un sistema ridotto equivalente ad un dato sistema:
basta applicare lalgoritmo di riduzione alla matrice completa di questultimo, rispettando la prescrizione (*) sopra indicata. La domanda allora : per risolvere il sistema tutto questo serve a qualcosa? certa la risposta: sicuramente s. Vediamo allora di
studiare in dettaglio i sistemi ridotti.
Sistemi a gradini

Consideriamo un sistema di r equazioni e q indeterminate


a 11 X 1 + a 12 X 2 + + + + . . . + a 1q X q = b 1
a 22 X 2 + + + + . . . + a 2q X q = b 2
a 33 X 3 + + + . . . + a 3q X q = b 3
...
a r r X r + + . . . + a r q X q = br
dove i coefficienti a 11 , . . . , a r r sono diversi da zero. La matrice completa C del sistema
ha i termini a 11 , . . . , a r r come termini pivots. chiaro che il sistema ridotto. Questi
particolari sistemi vengono spesso chiamati sistemi a gradini, vediamo come costruire
linsieme delle soluzioni del precedente.

Sia q > r e sia t = (tr +1 , . . . , tq ) Rq r allora esiste ununica s Rq che


soluzione del sistema ed inoltre tale che s = (s 1 , . . . , s r , tr +1 , . . . , tq ).
Per provare che una tale s esiste ed unica baster provare che i valori s 1 ,
. . . , s r esistono e sono univocamente determinati da t. Ora, posto X q =
tq , . . . , X r +1 = tr +1 si vede subito che s una soluzione del sistema se e solo
se i suoi termini s 1 , . . . , s r sono determinati nel seguente modo: dallultima
1

equazione si ha s r = a r r (br + a r +1,r +1 tr +1 + + a r q tq ) una volta de1

terminato s r la penultima equazione implica che s r 1 = a


(br 1 +
r 1,r 1
a r,r s r + a r +1,r +1 tr +1 + + a r q tq ).
Procedendo a ritroso in tal modo avremo determinato, dopo r passaggi di
questo tipo, i valori s 1 , . . . , s r in modo tale che s sia una soluzione del sistema. Non difficile dedurre che, facendo variare t in Rq r , si ottengono in
tal modo tutte le soluzioni del sistema.
Sia q = r , allora il sistema ha ununica soluzione. Sia infatti s = (s 1 , . . . , s r )
b

una soluzione; essendo q = r lultima equazione implica che s q = a qqq .


Procedendo a ritroso come sopra ne segue che sono univocamente determinati anche gli altri termini s 1 , . . . , s q 1 .
Sistemi ridotti
e loro risoluzione

Ricordiamo che ogni sistema di equazioni lineari equivalente a un sistema ridotto: baster infatti applicare lalgoritmo di riduzione alla sua matrice completa per ottenere
un sistema ridotto equivalente. I sistemi ridotti sono dunque importanti per questo
motivo e perch si possono risolvere con maggiore facilit. Essi non presentano differenze sostanziali rispetto ai sistemi a gradini che sono stati ora considerati, salvo il
fatto di essere eventualmente incompatibili.
34

1.4 Risoluzione dei sistemi di equazioni lineari


Il metodo precedente per determinare le soluzioni di un sistema a gradini si applica
senza differenze sostanziali ad ogni sistema ridotto. Vediamo come si deve procedere,
distinguendo il caso in cui il sistema compatibile dallaltro. Sia

a 11 . . . a 1q b 1
. . . . . . . . . . . . . . . . . . .
C = . . . . . . . . . . . . . . . . . . .
a p1 . . . a pq b q
la matrice completa di un sistema ridotto. La matrice A dei coefficienti del sistema
e la matrice C sono allora ridotte, indicheremo con r (A) e r (C ) rispettivamente il
numero delle righe non nulle di A e di C .
Ovviamente abbiamo r (A) r (C ) poich ogni riga non nulla di A una riga non
nulla di C .
teorema 1.4 Il sistema ridotto considerato compatibile se e solo se r (A) = r (C ).

Dimostrazione
Discutiamo in dettaglio la risoluzione del sistema nei due casi possibili:
r (A) < r (C ) e r (A) = r (C ), dalla discussione seguir anche la dimostrazione del teorema.
1.

r (A) < r (C )

2.

r (A) = r (C ) In questo caso il sistema compatibile, vediamo come si trovano


le sue soluzioni. Poich A contenuta in C e r (A) = r (C ), le righe non nulle di
A e di C sono le stesse: supporremo che esse siano r . Essendo A ridotta su ognuna
possiamo scegliere un termine pivot che stia su A. Indicheremo i termini pivot scelti
con a i1 j1 , . . . , a ir jr e supporremo di averli scritti in modo tale che i 1 < < ir .
Si noti che tali termini sono non nulli e occupano r righe e r colonne distinte di
A. Inoltre i termini di A che si trovano su una delle colonne di a i1 j1 , . . . , a ir jr ed
al di sotto del termine pivot che la occupa sono tutti uguali a zero. Ne segue che,
ponendo

In questo caso esiste una riga R i di B che non nulla e che


 ha
nulli tutti i termini che si trovano su A. In altre parole R i = a i1 . . . a iq bi con
a i1 = = a iq = 0 e bi = 0. Lequazione corrispondente a questa riga 0 = bi e
non ha soluzioni. Quindi il sistema non ha soluzioni.

Pim = (a im 1 X 1 +a im 2 X 2 + +a im q X q ) (a im i1 X j1 + +a im jr X jr )
per ognuna delle righe R im (m = 1, . . . , r ), il sistema assumer la forma:
a i1 j1 X j1 + a i1 j2 X j2 + + + a i1 jr X jr + Pi1 = bi1
a i2 j2 X j2 + + + a i2 jr X jr + Pi2 = bi2
a i3 j3 X j3 + + a i3 jr X jr + Pi3 = bi3
...
a ir jr X jr + Pir = bir

35

1 Sistemi di equazioni lineari e matrici


Si noti che Pim un polinomio, di grado uno e privo di termine noto, in q r indeterminate. Tali indeterminate sono esattamente quelle diverse da X j1 , . . . , X jr nellinsieme {X 1 . . . X q } di tutte le indeterminate: le indicheremo con X k1 , . . . , X kq r .
Dopo aver riscritto come sopra il sistema possiamo calcolarne effettivamente le soluzioni. A seguito di ci risulter anche provata la sua compatibilit e quindi risulter
provato il precedente il teorema.
Sia q r > 0 e sia t = (tk1 , . . . , tkq r ) Rq r ; ponendo nel precedente sistema
X k1 = tk1 , . . . , X kq r = tkq r otteniamo un sistema a gradini di r equazioni nelle r
indeterminate X j1 , . . . , X jr . Abbiamo gi visto che un tale sistema compatibile e
ha ununica soluzione (s j1 , . . . , s jr ) Rr . Il sistema dunque soddisfatto ponendo
X j1 = s j1 , . . . , X jr = s jr

Xk1 = tk1 , . . . , Xkqr = tkqr

Scrivendo i numeri reali s j1 , . . . , s jr , tk1 , . . . , s tq r nellordine indicato dai loro indici, si ottiene dunque una q -upla s che soluzione del sistema. Tale costruzione
determina, al variare di t in Rq r , tutte le possibili soluzioni del sistema. Sia infatti
s Rq una soluzione del sistema e sia t = (tk1 , . . . , ttq r ) la (q r )-upla dei suoi
termini di posto k1 , . . . , kq r . Ponendo X k1 = tk1 , . . . , X kq r = tkq r si ottiene un
sistema a gradini come sopra. Tale sistema a gradini ha r equazioni e r indeterminate
e quindi ununica soluzione. Allora questa necessariamente la r -upla (s j1 , . . . , s jr )
dei termini di posto j1 , . . . , jr di s . Quindi s si pu determinare a partire da t con
la costruzione precedente.


Soluzioni

Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. Bibliografia [2], [4]
e [10]).

Quesiti ed esercizi
1.
Trovare x,y, z, t R
tra
 di modo
 che
 valga leguaglianza

4 x+y
x y
x 6
matrici: 3 z t = 1 2t + z+t 3 .
2.
Sia data una qualsiasi matrice quadrata A. Vericare che la
matrice B := A + t A sempre una matrice simmetrica e
che invece la matrice C := A t A sempre una matrice
antisimmetrica.
3.
Determinare matrici triangolari superiori equivalenti
per ri

ghe, rispettivamente, alle seguenti matrici: A =

36

11 1
1 0 1
0 1 1

eB=

1 122
2 1 1 0 .
1 1 1 1
2 231

4.

Determinare una matrice A


a gradini,

che sia equivalente


1 0 1 1
per righe alla matrice A = 1 0 2 1 . 5.
02 1 0

assegnato il sistema lineare omogeneo a gradini di 3


equazioni e 5 indeterminate:
X1 + X2 X3 + X4 X5 = 2X2 X3 + X4 =
= X3 X4 + X5 = 0

1.4 Risoluzione dei sistemi di equazioni lineari


Descrivere linsieme delle soluzioni del sistema, determinando lespressione della sua soluzione generale.
6.
Risolvere, se possibile, con il metodo di eliminazione
di Gauss-Jordan il sistema lineare non omogeneo di 3
equazioni e 3 indeterminate:

X2 + 2X3 = 1
X2 + X3 = 0

X2 = 1

7.
Risolvere, se possibile, con il metodo di eliminazione
di Gauss-Jordan il sistema lineare non omogeneo di 4
equazioni e 4 indeterminate:

X1 + 2X2 + 3X3 + 4X4

X3 + 4X4

X1 + 2X2 + 2X4

X3 + X4

37

=1
=0
=1
=0

2
Matrici e loro rango
2.1

Prodotto di matrici

Cominciamo questo secondo capitolo con la definizione di prodotto di matrici. Limportanza e lutilit del prodotto di matrici cos definito risulteranno chiaramente nel
seguito.
definizione 2.1 Siano A = (a il ) una matrice p s e B = (bl j ) una matrice

s q . Il
prodotto di A con B la matrice C = (c i j ) in cui c i j definito come
cij =
l =1,...,s a il bl j . Il prodotto di A con B verr dora in poi indicato
con A B.

Scrivendo in modo pi esplicito luguaglianza precedente otteniamo c i j = a i1 b 1 j +


a i2 b 2 j + + a is b s j . Lindice i indica una riga di A quindi varia tra 1 e p. Lindice
j indica invece una colonna di B e quindi varia tra 1 e q . Ne segue che A B una
matrice p q . Per capire meglio loperazione di prodotto tra matrici conviene innanzitutto considerare una matrice riga ed una matrice colonna: M = (m 1 . . . m s )e
n
1
N = ... . Poich M 1 s ed N s 1 il loro prodotto M N sar una matrice
1 1:

ns


n1
..
M N = (m 1 . . . m s ) . = (m 1 n 1 + m 2 n 2 + + m s n s )
ns

Se allora R i la riga i-esima di A e C j la colonna j -esima di B avremo



b1 j

..
R i C j = (a i1 . . . a is ) . =
a il bl j = c i j
l
=1,...,s
bs j
In altre parole il termine di posto i, j di A B non altro che il prodotto della riga
i-esima di A con la colonna j -esima di B e cio vale la formula A B = (R i C j ).
Per questo il prodotto di matrici ora definito viene anche chiamato prodotto riga per
colonna.
Osservazione 2.1
il caso di richiamare lattenzione sul fatto che il prodotto di uguale al numero delle righe di B. Per esempio se A 3 4
due matrici A e B non sempre possibile: la denizione di e B 2 3 il prodotto AB non denito. Sempre in questo
prodotto prescrive infatti che il numero delle colonne di A sia caso invece denito il prodotto BA che una matrice 2 4.

39

2 Matrici e loro rango

Esempio 2.1
Siano M e N le precedenti matrici riga e colonna, se invertiamo lordine dei fattori otteniamo
la matrice NM, che una matrice ss ed quindicompletamente diversa da MN. Abbiamo
n
n1 m1 ... n1 ms
1

n2 m1 ... n2 ms

infatti NM = ... (m1 . . . ms ) =


................ = (ni mj ) 1 i, j s.
ns

ns m1 ... ns ms

Esercizio 2.1

Calcolare i seguenti prodotti di matrici

Propriet associativa
e distributiva
del prodotto di matrici

123
456

 1


 
 14

1 1
1 2
123
1 ,
25 .
,
1 1
1 2
456
1

36

Qualunque siano A M p,s , B Ms ,t e C Mt,q si ha


A(BC ) = (A B)C .

proposizione 2.1

Dimostrazione
Abbiamo A = (a ik ), B = (b km ) e C = (c m j ) con gli indici i, k, m, j
che variano nel seguente modo: 1 i p, 1 k s , 1 m t e 1 j q .

Fissati gli indici i e j consideriamo il numero reale p i j = 1ks ,1mt a ik b km c m j ; per
dimostrare la propriet basta provare che p i j il termine di posto i, j sia su A(BC ) sia su
(A B)C . A tale scopo riscriviamo la sommatoria in due modi:
1.

2.



mettendo in evidenza i termini a i1 , . . . , a is abbiamo p i j = a i1
m=1,...,t b 1m c m j +




a i2
m=1,...,t b 2m c m j + + a is
m=1,...,t b s m c m j ; per ogni k = 1, . . . , s il

secondo fattore delladdendo a ik ( m=1...t b km c m j ) esattamente il termine di po

sto k, j del prodotto BC . Ne segue che p i j il prodotto della riga a i1 . . . a is di
A con la colonna j -esima di BC . Quindi p i j il termine di posto i, j della matrice
A(BC );


mettendo in evidenza i termini c 1 j , . . . , c t j abbiamo p i j =
a
b
k=1,...,s ik k1 c 1 j +




k=1,...,s a ik b k2 c 2 j + +
k=1,...,s a ik b kt c t j ; per ogni m = 1, . . . , t il

primo fattore delladdendo ( k=1,...,t a im b km )c m j esattamente il termine di posto
i, m del prodotto A B. Ne segue che p i j il prodotto della i-esima riga del prodotto
A B per la j-esima colonna di C . Quindi p i j anche il termine di posto i, j della
matrice (A B)C .


Per ovvi motivi la propriet precedente si chiama propriet associativa del prodotto di
matrici.
40

2.1 Prodotto di matrici


proposizione 2.2 Qualunque siano A M p,s e B, C Ms ,q si ha A(B +C ) =

A B + AC .

Siano A = (a il ), B = (bl j ) e C = (c l j ), allora B + C = (bl j + c l j ).


Sia poi di j il termine di posto i, j di A(B + C ) e siano e i j e f i j i termini di posto i, j di
A B e di AC : dobbiamo provare che di j = e i j + f i j . Ci segue dalle uguaglianze di j =



l =...s a il (bl j + c l j ) =
l =1,...,s a il bl j +
l =1...s a il c l j = e i j + f i j .


Dimostrazione

Naturalmente la propriet dimostrata si chiama propriet distributiva del prodotto rispetto alla somma di matrici. Nel seguito denoteremo con Ui e V j le seguenti matrici:
0
...

Ui = ( 0 ... 1 ...0 ) e Vj = 1 .
.
..
0

Ui la matrice riga 1 p il cui termine di posto 1, i 1 mentre gli altri termini


sono nulli. V j la matrice colonna q 1 il cui termine di posto j, 1 1 mentre gli
altri termini sono nulli. Utilizzeremo tali matrici in varie occasioni, per ora ci serve
osservare che vale la seguente propriet:
proposizione 2.3 Sia A = (a i j ) una matrice p q allora si ha Ui AV j = a i j .

Dimostrazione

Basta osservare che Ui A





a i1 . . . a iq e che a i1 . . . a iq

V j = ai j .


molto importante sapere che: loperazione di passaggio alla matrice trasposta agisce
su un prodotto di matrici invertendo lordine dei fattori. In altre parole vale il seguente:
teorema 2.1
t (A B)

Assegnate le matrici A M ps e B Ms q vale luguaglianza

(t B)(t A).

Il termine i, j di t (A B)
non
altro che il termine j, i di A B, cio

 a j1
..
+ + a j s b s i = b 1i . . . b s i
. Daltra parte i due fattori a destra di
.

Dimostrazione
a j 1 b 1i

a js

questultima uguaglianza sono la riga i-esima di t B e la colonna j -esima di t A. Quindi il loro


prodotto il termine di posto i, j di (t B)(t A). Ne segue che le matrici t (A B) e (t B)(t A)
hanno gli stessi termini. Quindi sono uguali.


41

Matrice trasposta
di un prodotto

2 Matrici e loro rango


Sia A 1 A n un prodotto di matrici, allora t (A 1 A n ) =
(t A n ) (t A 1 ).

corollario 2.1

La propriet si dimostra per induzione sul numero n 2 dei fattori,


Dimostrazione
utilizzando il precedente teorema. Poich la dimostrazione molto semplice omettiamo ogni
ulteriore dettaglio.


2.2

Matrici invertibili

Per ogni n 1 possiamo considerare la matrice quadrata n n

1 0 ... 0
0 1 . . . 0

In =

..

.
0 0 ... 1

in cui i termini sulla diagonale principale sono uguali a 1 e gli altri sono nulli. In
svolge per il prodotto di matrici il ruolo svolto dal numero 1 per la moltiplicazione.
definizione 2.2 In viene detta matrice identit di ordine n. Talvolta il termine
di posto i, j della matrice In viene indicato con i j e prende il nome di indice
di Kronecker. Lindice di Kronecker i j vale dunque 1 se i = j e 0 se i = j .

Matrice identit.
Indice di Kronecker

proposizione 2.4 Sia A una matrice p q allora I p A = A = A Iq .

Dimostrazione

Conseguenza immediata della definizione di prodotto di matrici.




definizione 2.3 Una matrice quadrata A di ordine n si dice invertibile se esiste

Matrice inversa

B tale che A B = B A = In . B si dir matrice inversa di A e verr indicata


con A 1 .

proposizione 2.5 Se uninversa B di A esiste allora essa unica.

Siano B e B  inverse di A, allora A B  = In e B A = In . Dalla propriet


associativa del prodotto di matrici segue allora che B = B In = B(A B  ) = (B A)B  =
In B  = B  .


Dimostrazione

42

2.2 Matrici invertibili

Osservazione 2.2
Vedremo tra poco una serie di esempi di matrici invertibili.
Prima bene per fare qualche considerazione sul fatto che 3.
non tutte le matrici sono invertibili:
1.

2.

le matrici non quadrate non sono invertibili. La denizione di matrice invertibile riguarda infatti solo
le matrici quadrate;
4.
la matrice nulla On,n non invertibile. Infatti
AOn,n = On,n per ogni matrice quadrata A di ordine

n, quindi On,n non ha uninversa;


se una matrice n n A ha una riga o una colonna
nulla allora non invertibile. Se per esempio la riga i-esima di A nulla anche la riga i-esima di AB
nulla, qualunque sia la matrice n n B. Quindi
AB = In e uninversa di A non esiste;
per esercizio il lettore provi a vericare

lesistenza o
meno della matrice inversa di

Negli esempi successivi caratterizzeremo le matrici invertibili tra tutte le matrici di


un certo tipo.
Esempio 2.2 Matrici invertibili 1 1 e 2 2
1.
2.

Matrici invertibili 1 1.
(a11 ) invertibile se e solo se a11 = 0 e la sua inversa evidentemente (1/a11 ).
Matrici invertibili


22

ab
d c

e calcolando il prodotto A A si ottiene


Sia A =
, ponendo A =
b a
cd

adbc 0

AA = A A =
= (ad bc)I2 .
0
adbc

Usando questa uguaglianza possiamo provare la seguente


proposizione 2.6 A =

si ha inoltre

A 1

a b 
c d

invertibile se, e solo se, a d bc = 0. Se A invertibile

d
c
a d bc a d bc
b
a
a d bc a d bc

Sia a d bc = 0. Allora la precedente uguaglianza implica che a d bc A


linversa di A. Sia viceversa A invertibile. Allora, moltiplicando la stessa uguaglianza per
A 1 , si ha A = (a d bc )A 1 . Ora A non nulla: in tal caso infatti ne seguirebbe
a = b = c = d = 0 e A sarebbe nulla. Ci impossibile perch A invertibile. Poich A
non nulla. a d bc = 0.


Dimostrazione

Esempio 2.3 Matrici diagonali invertibili


Il prodotto riga per colonna di due matrici diagonali A = (aij ) e B = (bij ) si esegue pi
semplicemente, il termine di posto i,j di AB infatti pij = ai1 b1j + + ain bnj ; se i = j ogni

43

2
1

1
1
2

2 Matrici e loro rango


addendo ha un fattore nullo e quindi pij = 0. Se i = j lunico addendo non necessariamente
nullo aii bii e pii = aii bii . Quindi AB diagonale ed il suo termine di posto i,i aii bii . Se
ne deduce facilmente che
proposizione 2.7 Una matrice diagonale A = (a i j ) di ordine n invertibile se, e solo

se, a 11 a nn = 0. In tal caso si ha A 1

1
a 11 ... ...

... 1 ...

a 22
=
.
..
..
.
.
.
.

1
...
...
a nn

Vedremo tra breve, e poi in seguito con la teoria dei determinanti, un metodo generale
per svolgere il calcolo di uneventuale matrice inversa. Prima esamineremo alcune
propriet di notevole importanza che le matrici invertibili hanno.
Matrici invertibili
e sistemi di n equazioni
in n indeterminate

Le matrici invertibili sono le matrici dei coefficienti dei sistemi di n equazioni in n


indeterminate che ammettono una e una sola soluzione, vale infatti il seguente:
teorema 2.2 Per una matrice quadrata A di ordine n sono equivalenti le condi-

zioni:
1.
2.

A invertibile;
un sistema di equazioni lineari di cui A matrice dei coefficienti ha
ununica soluzione;
ogni sistema di equazioni lineari di cui A matrice dei coefficienti ha
ununica soluzione;
ogni sistema di equazioni lineari di cui A matrice dei coefficienti
compatibile.

3.
4.

Dimostrazione
1 2. Se A invertibile il sistema omogeneo di equazioni lineari
X 0
1
A

..
.

Xn

..
.

, ha come unica soluzione quella nulla. Sia infatti (t1 , . . . , tn ) una solu t

0
zione del sistema, allora A .. = ... , A invertibile, moltiplicando ambo i membri
.
tn
0
0
t t
1
1
di tale uguaglianza per la matrice A 1 otteniamo A 1 A .. = .. = A 1 ... =
.
.
1

tn

44

tn

2.2 Matrici invertibili


0
.. . Quindi (t1 , . . . , tn ) = (0, . . . , 0) e possiamo concludere che il sistema ha ununica
.
0

soluzione.
2 3. Supponiamo che un sistema di cui A matrice dei coefficienti e b colonna dei termini noti abbia ununica soluzione. Allora, applicando il procedimento di Gauss-Jordan alla
matrice completa (A, b) del sistema, otterremo una matrice ridotta (A  b  ) che la matrice
completa di un sistema equivalente a quello assegnato. Tale matrice inoltre dotata della
seguente propriet: A  ridotta e ha n righe non nulle. Se A  avesse infatti una riga nulla
il sistema non avrebbe soluzioni oppure ne avrebbe infinite. Cambiando b con una colonna
d di termini noti scelti a piacere ed applicando ad (Ad ) lo stesso identico procedimento, si
otterr infine una matrice (A  d  ). Questa la matrice completa di un sistema equivalente a
quello che ha come matrice completa (Ad ). Poich A  ridotta e ha n righe non nulle anche
il sistema di matrice completa (Ad ) ha ununica soluzione.
3 4. Ovvio.
4 1. Sia X = (X i j ) una matrice n n i cui termini sono indeterminate. Per provare
che A invertibile sufficiente provare che lequazione A X = In ammette soluzioni. Ora la
condizione che sia A X = In equivale alle condizioni


X 11
1
0
X 1n
.. ..
.. ..
A . = . , . . . , A . = . .
X n1

X nn

Ognuna di queste ultime uguaglianze un sistema di equazioni con matrice dei coefficienti
A. Ognuno di tali sistemi compatibile perch per ipotesi vale la 4. Quindi A X = In ha
una soluzione e pertanto la matrice A invertibile.


Ogni matrice che sia una modificazione delle righe di una matrice A sempre uguale
al prodotto di A per una opportuna matrice invertibile E . Vediamo per prima cosa di
verificare tale importante propriet nel caso delle modificazioni elementari delle righe
di una matrice. A tale scopo descriviamo senzaltro le matrici E che entrano in gioco
in tal caso:
Sia A = (a i j ) una matrice p q e siano R 1 , . . . , R p le righe di A, ricordiamo che
le matrici B che sono modificazioni elementari di una riga di A sono suddivise in
tre tipi 1, 2 e 3. Per ognuno di questi tipi descriveremo ora brevemente la matrice
invertibile E tale che B = E A.
1.

Scambio delle righe R i e R j .


Scambiando le righe i e j della matrice identit I p si ottiene una matrice che
indicheremo con E i j .
45

Matrici invertibili
e modicazioni
elementari

2 Matrici e loro rango

2.

3.

La matrice E i j A la matrice ottenuta da A scambiando le righe R i e R j .


Si osservi infatti che le righe U1 , . . . , U p di I p sono tali che Us A s = R s
per ogni s = 1, . . . , p. Daltra parte le righe di E i j sono, nellordine dalla
prima allultima, E 1 , . . . , E p dove E i = U j , E j = Ui e E s = Us , s =
i, j . Poich le righe di E i j A sono, nel solito ordine dalla prima allultima,
E 1 A, . . . , E p A ne segue che E A ottenuta da A scambiando le righe i e j .
Si noti infine che E i j invertibile. Infatti E i j E i j la matrice ottenuta da
E i j scambiando le righe i e j , cio E i j E i j = I p .
Moltiplicazione della riga R i per un numero reale = 0
Moltiplicando la riga i di I p per si ottiene una matrice che indicheremo
con E i .
La matrice E i A ottenuta da A moltiplicando per la sua riga R i .
La verifica di questa propriet immediata. Altrettanto facile verificare che
E i invertibile: la sua inversa E 1 i .

Sostituzione di R i con R i + R j .
Sostituendo la riga R i con R i + R j , ( j = i), si ottiene una matrice che
indicheremo con E i+j .

lemma 2.1 La matrice E i+j A ottenuta da A sostituendo la riga R i con R i +

R j .

Si osservi che E i+j = I p + Ni j , doveNi j la matrice le cui righe


Dimostrazione
sono tutte nulle salvo la riga i-esima che la riga U j il cui termine di posto j 1 mentre
gli altri termini sono nulli. Da questa osservazione e dalla propriet distributiva del prodotto
di matrici segue facilmente che E i+j A = (I p + Ni j )A = A + Ni j A = B dove B
ottenuta da A sostituendo R i con R i + R j . Rimane da provare che E i+j invertibile.
A tale scopo si noti che, essendo per ipotesi i = j , il prodotto Ni j Ni j la matrice nulla.
Pertanto si ha (I p + Ni j )(I p Ni j ) = I p 2 Ni j Ni j = I p quindi E i+j invertibile
e la sua inversa la matrice E ij = I p Ni j .


Sia B una modificazione delle righe di una matrice A, allora B =


E A, dove E una matrice invertibile.

teorema 2.3

Per ipotesi esiste una successione di matrici A = A 1 , . . . , A m = B tali


che A k modificazione elementare di una riga di A k1 per ogni k = 2, . . . , m. Per ogni
k = 2, . . . , m esister dunque, a causa delle osservazioni precedenti, una matrice invertibile
E k tale che A k = E k A k1 . Da queste ultime uguaglianze si ottiene

Dimostrazione

B = E m A m1 = E m E m1 A m2 = = E m E m1 E 2 A

46

2.2 Matrici invertibili


Posto quindi E = E m E m1 , , E 2 si ha B = E A. Si noti infine che E invertibile:
infatti E 2 , . . . , E m sono matrici invertibili ed il prodotto di matrici di questo tipo ancora
una matrice invertibile. Pi precisamente si osservi che linversa di E la matrice prodotto
1
1
1
E 2 E m1 E m .


Vogliamo ora usare le relazioni appena descritte tra modificazioni delle righe di una
matrice e matrici invertibili per uno scopo preciso: costruire linversa, se esiste, di una
matrice quadrata A.

Costruzione della matrice


inversa e algoritmo
di riduzione di una
matrice

Siano M e N due matrici di p righe, indicheremo con (M N) la matrice di p righe ottenuta aggiungendo N a destra di M. Si noti che P (M N) = (P M P N)
qualunque sia la matrice quadrata P di ordine p.
Sia ora A = (a i j )una matrice quadrata di ordine p, se esiste la matrice inversa A 1
allora A 1 A In = In A 1 .
Il procedimento che vogliamo descrivere per costruire, se esiste, linversa di A si basa
proprio su questultima osservazione e sulla seguente propriet:
Supponiamo che sia possibile costruire, a partire da (A In ), una
matrice (In B) che sia modificazione delle righe di (A In ). Allora A invertibile
e B la sua inversa.

teorema 2.4

Ricordiamo che, se una matrice M  modificazione delle righe di M,


allora esiste una matrice invertibile E tale che M  = E M. Se quindi (In B) una modificazione delle righe di (A In ) allora esiste una matrice E invertibile tale che E (A In ) =
(E A E ) = (In B). Quindi E A = In ed A invertibile.


Dimostrazione

Il teorema suggerisce la seguente procedura concreta per determinare l eventuale


inversa di A:
applicare lalgoritmo di riduzione a (A In ) fino a ottenere, sempre che
ci sia possibile, una matrice (In B). B sar allora linversa di A.
Descriveremo ora un algoritmo che, partendo da (A In ), permette: o di costruire una
matrice (In B) come sopra oppure di concludere che A non invertibile. Tale algoritmo non una novit: si tratta di una semplice variante dellalgoritmo di riduzione.
Per esporre pi comodamente il procedimento introduciamo la seguente
definizione 2.4 Diremo che un termine di una matrice un pivot completo se
tale termine diverso da zero e tutti gli altri termini sulla sua colonna sono
nulli.

47

Pivot completo

2 Matrici e loro rango


per esempio un pivot completo il 5 che compare nella seguente matrice

0
0

0
0
Sar inoltre utile tenere presente la successiva semplice propriet:
lemma 2.2 Sia M = (m i j ) una matrice p q e sia m s t = 0, allora esiste una

modificazione M  delle righe di M tale che:


1.
2.

m s t anche il termine di posto s , t di M  ;


m s t un pivot completo di M  .

Siano R 1 , . . . , R p le righe di M, per dimostrare la propriet enunciata


basta considerare la matrice M  le cui righe R 1 , . . . , R p sono cos definite: R s = R s e inoltre
m it
R i = R i i R s , dove i = m
se i = s e s = 0.
st


Dimostrazione

La dimostrazione del lemma ci indica anche un modo per costruire M  : basta utilizzare lalgoritmo di riduzione avendo m s t come pivot. Questa volta per si tratta di
operare su tutte le righe di M diverse dalla riga di m s t e non solo, come di solito, su
quelle ad essa successive.
Fatte queste premesse vediamo di riassumere brevemente una procedura per costruire,se
esiste, la matrice inversa di una matrice quadrata A di ordine p . Si costruisce una
successione (A I p ), (M1 B1 ), . . . , (Mr Br ), di matrici p 2 p che risulter essere
dotata delle seguenti propriet:
a)
b)
c)
d)

per ogni k = 1, . . . , r (Mk Bk ) una modificazione delle righe della matrice


precedente;
per ogni k = 1, . . . , r le prime k colonne di Mk sono le prime k colonne di
Ip;
se r = p allora A invertibile e B p = A 1 ;
Se r < p allora A non invertibile.

Indicheremo con V1 , . . . , V p le colonne di I p . Per costruire la successione si procede


cos:
Passo numero 1: Si considera la prima colonna di (A I p ): se questa nulla A non
invertibile. In tal caso si pone (M1 B1 ) = (A I p ) e la successione viene arrestata al
primo passo.
48

2.2 Matrici invertibili


Se invece la prima colonna di (A I p ) non nulla si porta, con uno scambio di righe,
un suo termine non nullo c al posto del primo termine e si divide per c la prima
riga della matrice cos ottenuta. Il risultato sar una matrice (A  I p ) il cui termine di
posto 1, 1 uguale a 1. Procedendo su (A  I p ) con le solite modificazioni elementari
delle righe si costruisce poi una matrice (M1 B1 ) il cui termine di posto 1, 1 uguale
a 1 ed un pivot completo. La prima colonna di (M1 B1 ) dunque V1 .
Passo numero k : Supponiamo ora di avere costruito la matrice (Mk1 Bk1 ) per un
dato k 2. La costruzione della successione deve allora procedere nel modo seguente: si considera la colonna k-esima della matrice (Mk1 Bk1 ) e i suoi termini posti
sulle righe k, k + 1, . . . , p. Se tutti questi termini sono nulli allora la successione viene arrestata al passo k 1. In questo caso infatti A non invertibile: poich vogliamo
procedere rapidamente nella descrizione, ci verr dimostrato nellosservazione successiva. Se invece tra i suddetti termini c un termine c = 0 allora, con uno scambio
di righe, si porta c al posto del termine k, k e si divide per c la matrice cos ottenuta.
In questa il termine di posto k, k uguale a 1 e, procedendo con le solite modificazioni delle righe come indicato nel Lemma 2.2, si costruisce una nuova matrice
in cui tale termine sia un pivot completo. Otterremo cos una matrice (Mk Bk ) le
cui prime k colonne sono 1 V1 , . . . , k1 Vk1 , dove 1 , . . . , k1 sono fattori non

 )
Bk1
nulli determinati dalle operazioni sulle righe. La colonna k-esima di (Mk1
invece Vk . Sia i = 1, . . . , k 1: dividendo per i la riga i-esima di tale matrice si
ottiene infine una matrice (Mk Bk ) che modificazione delle righe di (Mk1 , Bk1 )
e le cui prime k colonne sono V1 , . . . , Vk .
Conclusione: se la costruzione della precedente successione si sar arrestata ad un passo
k < p allora A non invertibile. In caso contrario avremo costruito una successione
di matrici (A I p ), (M1 B1 ), . . . , (M p B p ), dove M p la matrice identit I p .
In tal caso, poich ogni matrice della successione una modificazione delle righe di
(A I p ), segue dal Teorema 2.3 che esiste una matrice invertibile E tale che (I p B p ) =
E (A I p ). Ne segue che E A = I p e B p = E I p = E , quindi A invertibile e la sua
inversa B p .

Osservazione 2.3
Per completezza dimostriamo la propriet enunciata nel passo k. Dimostriamo cio che A non invertibile se Mk1
ha uguali a zero i termini di posto k, k + 1, . . . , p della propria k-esima colonna. Dimostriamo innanzitutto che
Mk1 non invertibile. Tra le soluzioni del sistema omoge
0
X1
.
neo Mk1 .. = ... abbiamo infatti, sotto le ipotesi
0
Xp
enunciate per la colonna k di Mk1 , anche la soluzione

X1 = c1k , . . . , Xk1 = ck1,k ,


Xk = = Xp = 1,
dove cij indica il termine di posto i, j di Mk1 . Se questa soluzione uguale a quella nulla, ne segue che Mk1 ha una
colonna nulla e quindi non invertibile. Se invece tale soluzione diversa da quella nulla allora il precedente sistema
omogeneo non ha soltanto la soluzione nulla.

49

2 Matrici e loro rango


Quindi, per il Teorema 2.2, Mk1 non invertibile. Inne la Teorema 2.3 che Mk1 = EA, dove E invertibile. Se A fosse
non invertibilit di Mk1 implica la non invertibilit di A. In- invertibile, avremmo dunque M A1 E1 = EAA1 E1 =
k1
fatti Mk1 modicazione delle righe di A. Segue allora da I e M
sarebbe
invertibile,
cosa
che invece non .
p
k1

Esempio 2.4 Calcolo di A1


La cosa pi utile vericare su alcuni esempi
procedura di costruzione della matrice
1 1la1

inversa e renderla quindi familiare. Sia A = 0 1 1 . Per costruire A1 procediamo con le


001

seguenti trasformazioni elementari della matrice

1 1 1 1 0 0

(A I3 ) = 0 1 1 0 1 0
0 0 1 0 0 1
Con il primo passo dellalgoritmo si costruisce la matrice (M1 B1 ) da (A Ip ). Nel caso in
esame immediato vericare che (M1 B1 ) = (A I3 ). Siano ora R1 , R2 , R3 le righe di A; nel
caso in esame il secondo passo si riduce a sostituire R1 con R1 R2 e si ottiene (M2 B2 ) =
1 0 0 1 1 0

0 1 1 0
1 0 . Per compiere il terzo passo, nel caso in esame baster sostituire R2
0 0 1 0
0 1
1 0 0 1 1 0

con R2 R3 ; si ottiene cos (M3 B3 ) = 0 1 0 0 1 1 . Possiamo inne leggere A1


0 0 1 0

sulla met destra dellultima matrice costruita, i.e.

1 1
0

A1 = 0
1 1
0
0
1

2.3
Sottomatrici invertibili
e denizione di rango

Rango di una matrice

Sia A una matrice p q e siano R 1 , . . . , R p e C 1 , . . . , C q rispettivamente le righe


e le colonne di A. Siano poi i 1 , . . . , i s elementi distinti dellinsieme di numeri interi
{1, . . . , p} e j1 , . . . , jt elementi distinti dellinsieme {1, . . . , q }. Indicheremo con
A(i 1 , . . . , i s ; j1 , . . . , jt )
la matrice s t che si ottiene cancellando sulla matrice A le righe diverse da R i1 ,
. . . , R is e le colonne diverse da C j1 , . . . , C jt . La matrice cos ottenuta quella formata da tutti i termini di A che sono situati allincrocio di una delle righe R i1 , . . . , R is
con una delle colonne C j1 , . . . , C jt .
definizione 2.5 Si dice sottomatrice di A ogni matrice A(i 1 , . . . , i s ; j1 , . . . , jt )

definite come in precedenza.

50

2.3 Rango di una matrice


Le sottomatrici 1 1 sono i termini di A, per esempio A(1; 1) = (a 11 ). Le righe e
le colonne di A sono invece le sottomatrici 1 q e p 1 di A.
Esempio 2.5 Sottomatrici 2 2 di una matrice 2 3



 
Le sottomatrici 2 2 della matrice A = 20 20 31 sono le seguenti A(1, 2; 1, 2) = 20 20 ,
 
 
A(1, 2; 1, 3) = 20 31 , A(1, 2; 2, 3) = 20 31 .
Come si vede in questo esempio, righe o colonne distinte di una matrice A possono determinare la stessa sottomatrice. Per esercizio il lettore determini tutte le quindici sottomatrici
distinte di A

Tra le sottomatrici di A importante conoscere quelle invertibili. Ancora pi importante conoscere il massimo ordine possibile che una sottomatrice invertibile di A pu
raggiungere.
definizione 2.6 Sia A una matrice: se A non nulla il rango di A il massimo

degli ordini delle sottomatrici invertibili di A. Se A nulla il rango di A zero.


Il rango di A verr indicato con r (A). Poich una sottomatrice quadrata di A ha
ordine minore o uguale al minimo tra p e q chiaro che r (A) min( p, q ).
Osservazione 2.4
Sia A una matrice quadrata di ordine n, come conseguenza se, e solo se, r(A) = n.
immediata della denizione di rango si ha che A invertibile

Esempio 2.6 Ranghi di matrici




ab
cd

invertibile se e solo se ad bc = 0. Usando tale propriet


 
delle matrici 2 2 facile calcolare il rango delle seguenti matrici: A = 11 11 , B =
111



121
111 .
,
C
=
120
Si gi osservato che

000

B ha tre sottomatrici 2 2 e di queste

21
20


e

11
10

sono invertibili, quindi r(B) = 2.

Invece r(A) = r(C) = 1: lasciamo queste due semplicissime veriche al lettore.

La definizione data di rango di una matrice rende semplice la dimostrazione della


seguente
proposizione 2.8 Una matrice A e la sua trasposta t A hanno lo stesso rango.

51

2 Matrici e loro rango


Si noti che: (i) le sottomatrici di t A sono le trasposte delle sottomatrici di
A, (ii) una matrice quadrata invertibile se, e solo se, lo la sua trasposta. Da (i) e (ii) segue
che le sottomatrici invertibili di ordine massimo di t A sono le trasposte delle sottomatrici
invertibili di ordine massimo di A. Quindi r (A) = r (t A).


Dimostrazione

lemma 2.3 Siano a i 1 , j1 , . . . , a i k , jk termini pivot posti su k righe distinte di una

matrice A, allora invertibile la sottomatrice S = A(i 1 , . . . , i k ; j1 , . . . , jk ).

Preliminarmente osserviamo che gli indici j1 , . . . , jk sono distinti: se


due di essi fossero uguali avremmo due pivots situati su una stessa colonna di A, il che
impossibile. Poich, per ipotesi, anche gli indici i 1 , . . . , i k sono distinti ne segue che S
effettivamente una matrice quadrata di ordine k. Ora a i1 j1 , . . . , a ik jk sono termini pivot
anche per S e quindi S una matrice ridotta. Poich S ridotta e inoltre priva di righe nulle,

X1
b1
.. ..
ogni sistema S . = . di cui S sia matrice dei coefficienti compatibile. Quindi,

Dimostrazione

Xk
bk
per il Teorema 2.2, S invertibile.

teorema 2.5 Siano B una matrice ridotta per righe e r (B) il suo rango. Allora
r (B) uguale al numero delle righe non nulle di B.

Siano k le righe non nulle di B e tali righe siano le righe i 1 , . . . , i k .


Poich B ridotta, su ognuna di esse possiamo scegliere un termine pivot di posto i t , jt ,
t = 1, . . . , k. Allora, per il lemma precedente, la sottomatrice S = B(i 1 , . . . , i k ; j1 , . . . , jk )
invertibile e quindi r (B) k. Daltra parte sia M una sottomatrice quadrata di B di ordine
s > k. Poich le righe non nulle di A sono k, M deve avere almeno una riga nulla e perci
non invertibile. Quindi r (B) = k.


Dimostrazione

Rango e algoritmo
di riduzione

La definizione che abbiamo dato di rango non ne facilita il calcolo, infatti non
in generale un procedimento semplice quello di determinare tutte le sottomatrici
invertibili di A. Una procedura semplice ed effettiva per calcolare il rango di una
matrice tuttavia possibile a causa del precedente teorema e di quello successivo:
teorema 2.6

Sia B una modificazione delle righe di A; allora A e B hanno lo

stesso rango.
Dai due ultimi teoremi segue che, per calcolare il rango di A, basta costruire una
matrice ridotta B che sia modificazione delle righe di A, magari utilizzando ancora
una volta lalgoritmo di riduzione. Una volta determinata B il calcolo del rango di
52

2.3 Rango di una matrice


A diventa, grazie ai due teoremi menzionati, immediato:
rango di A = numero di righe non nulle della matrice ridotta B.
Per dimostrare il Teorema 2.6 ci baster dimostrare quanto segue:
Siano A e B matrici quadrate e sia B = E A dove E invertibile.
Allora A invertibile se, e solo se, B invertibile.

lemma 2.4

Sia A invertibile, allora B = E A ha come inversa A 1 E 1 ed invertibile. Viceversa sia B invertibile, allora A = B E 1 ha come inversa E B 1 ed invertibile.


Dimostrazione

lemma 2.5 Sia B una modificazione elementare di una riga di una matrice A e sia

S una sottomatrice di A. Allora S invertibile se, e solo se, esiste una sottomatrice
T di B che invertibile e ha lo stesso ordine di S.
Dimostrazione

Ricordiamo che, se B modificazione elementare di una riga di A, allora


A modificazione elementare di una riga di B. Per questo motivo sufficiente provare che,
se S una sottomatrice invertibile di A, allora esiste una sottomatrice invertibile di B che ha
lo stesso ordine di S. Le modificazioni elementari di una riga sono di tre tipi. Per ognuno di
questi dimostreremo separatamente questultima propriet. Indicheremo con R 1 , . . . , R p le
righe di A.
1.

2.

3.

B ottenuta da A con lo scambio delle righe R i e R j : Lo scambio sposta S in una


sottomatrice S  di B le cui righe sono le stesse di S, disposte eventualmente in un
ordine diverso. Pertanto S  si ottiene con scambi di righe di S ed una modificazione
delle righe di S. Dal Teorema 2.3 segue che S  = E S dove E invertibile. Per il
lemma precedente S  invertibile.
Supporremo ora che sia S = A(i 1 , . . . , i k ; j1 . . . jk ) e porremo T = B(i 1 ,. . . , i k ;
j1 . . . jk ).
B ottenuta da A moltiplicando R i per = 0: Si noti che o T uguale a S, e R i non
interseca S, oppure T si ottiene da S moltiplicando per la riga di S contenuta in
R i . Quindi o T = S oppure T modificazione delle righe di S e la dimostrazione
si completa come in (1).
B ottenuta da A sostituendo R i con R i +R j : Se R i non interseca S la modificazione
di A in B non cambia le righe di S. Quindi S = T ed il lemma ovvio. Se R i e R j
intersecano entrambe S allora T si ottiene da S sostituendo Pu con Pu + Pv , dove
Pu e Pv indicano le righe di S rispettivamente contenute in R i e R j . In tal caso T
modificazione di una riga di S e la dimostrazione si completa come sopra.

Rimane il caso in cui solo R i interseca S. Siano P1 . . . Pk le righe di S e sia Q j lintersezione


di R j con la sottomatrice formata dalle colonne di A che intersecano S. In questo caso la
modificazione di A in B cambia la riga Pu di S nella riga Pu + Q j di T e lascia invariate

53

2 Matrici e loro rango


le altre. Per semplicit di esposizione supporremo che sia u = k. Se S invertibile allora il
sistema di equazioni X 1 P1 + + X k Pk = Q j ha ununica soluzione (c 1 , . . . , c k ). Ci
segue dal Teorema 2.2 in quanto la matrice dei coefficienti del sistema la trasposta di S ed
perci invertibile. Pertanto la riga k-esima di T Pk + Q j = (1 + c k )Pk + c 1 P1 +
+ c k1 Pk1 .
Se 1 + c k = 0 allora T la modificazione delle righe di S. In particolare i sistemi omogenei
che hanno S e T come matrici dei coefficienti sono equivalenti. Poich S invertibile il
primo sistema ha ununica soluzione. Ma allora lo stesso vale per il secondo e dunque T
invertibile.
Se 1 + c k = 0 si ha c k = 0 e luguaglianza precedente implica che Pk = c 1 P1 +
+ c k1 Pk1 Q j . Poich = 0 ne segue che S e modificazione delle righe della
sottomatrice Tj di B formata da P1 . . . Pk1 Q j . Come sopra sono allora equivalenti i due
sistemi omogenei che hanno S e Tj come matrici dei coefficienti; inoltre ne segue che Tj
invertibile.


Completata la dimostrazione del lemma possiamo facilmente concludere questa sezione con la:
Dimostrazione del Teorema 2.5

Per ipotesi B ottenuta da A mediante una successione


di matrici A = M1 , . . . , Mh = B, tali che Mi modificazione elementare di una riga
di Mi1 per ogni i = 2, . . . , h. Basta dunque provare il teorema nel caso in cui B sia
una modificazione elementare di una riga di A: per il lemma precedente B contiene una
sottomatrice invertibile di ordine k se, e solo se, A contiene una sottomatrice invertibile di
ordine k. Ci implica che A e B hanno lo stesso rango e completa la dimostrazione.


2.4

Teorema di Rouch-Capelli

Il lavoro fin qui svolto si sviluppato intorno al problema di studiare i sistemi di equazioni lineari e di determinarne le soluzioni. Il teorema che ora esporremo, noto come
teorema di Rouch-Capelli, riassume questo lavoro esponendo i punti fondamentali
della teoria che riguarda tali sistemi.
definizione 2.7 Sia S

Rq linsieme delle soluzioni di un sistema compatibile

in q indeterminate.
a)

S dipende da m parametri, se i suoi elementi sono tutte e sole le q -uple


s = (u 11 t1 + +u 1m tm +v1 , . . . , u q 1 t1 + +u q m tm +vm ),
dove (t1 , . . . , tm ) varia liberamente in Rm e u 11 , . . . , u q m , v1 , . . . ,
vm sono opportune costanti.

54

2.4 Teorema di Rouch-Capelli


b)

S dipende da m parametri indipendenti, se non dipende da n < m


parametri.

Osservazione 2.5
Tradizionalmente si usava l espressione: il sistema ammet- indipendenti. Il simbolo m veniva letto infinito a m.
te m soluzioni per dire che S dipendeva da m parametri

teorema 2.7 (teorema di rouch-capelli) Un sistema di p equazioni lineari in q

indeterminate compatibile se, e solo se, la sua matrice completa e la sua matrice
dei coefficienti hanno lo stesso rango r . In tal caso linsieme S delle soluzioni del
sistema dipende da q r parametri indipendenti.
Come al solito indicheremo con r (M) il rango di una matrice M. Siano A
e C , rispettivamente, la matrice dei coefficienti e la matrice completa del sistema considerato.
Ricordiamo innanzitutto che tale sistema equivalente a un sistema per il quale la matrice dei
coefficienti B e la matrice completa D sono ridotte e sono inoltre modificazioni delle righe
di A e di C rispettivamente. Ci stato provato nei Teoremi 1.2 e 1.3. Per il Teorema 1.4,
questo secondo sistema compatibile se, e solo se, B e D hanno lo stesso numero di righe
non nulle. Daltra parte il Teorema 2.5 stabilisce che il rango di una matrice ridotta per righe
proprio il numero delle sue righe non nulle. Quindi il sistema considerato compatibile
se, e solo se, r (B) = r (D). Infine, essendo B e D, rispettivamente, modificazioni delle righe
di A e C , abbiamo r (A) = r (B) e r (C ) = r (D) per il Teorema 2.6. Pertanto il sistema
assegnato compatibile se, e solo se, r (A) = r (C ).

Dimostrazione

Per provare la seconda parte dellenunciato consideriamo come sopra il sistema equivalente
che ha B e D, rispettivamente, come matrice dei coefficienti e come matrice completa. Poich
per ipotesi il sistema ora compatibile, le righe nulle di D hanno la stessa posizione delle
righe nulle di B e sono in numero di r , dove r = r (B) = r (D). Cancellando da B e D le
righe nulle, otterremo dunque la matrice dei coefficenti e la matrice completa di un sistema
equivalente. Possiamo quindi senzaltro supporre che B e D non abbiano righe nulle e che
siano perci matrici r q . Proveremo, per induzione su q r , che le soluzioni del sistema
dipendono da q r parametri indipendenti.

Sia q r = 0, allora B una matrice quadrata di ordine q e di rango q . Segue


allora, dalla prima parte dellenunciato, che ogni sistema che ha B come matrice
dei coefficienti compatibile. Infatti, per una tale sistema, la matrice completa E
si ottiene aggiungendo a destra di B una colonna che la colonna dei termini noti
del sistema. Ne segue subito che r (B) = r (E ) = q e quindi questo sistema
compatibile. Allora, per il Teorema 2.2, il nostro sistema ha ununica soluzione che
si ottiene ponendo X 1 = v1 , . . . , X q = vq . In altre parole le soluzioni del sistema
dipendono da zero parametri e perci anche da zero parametri indipendenti.

55

2 Matrici e loro rango

Sia ora q r > 0 e sia b e f un termine pivot di B. Supponiamo che le soluzioni s del
sistema dipendano da m parametri indipendenti (t1 , . . . , tm ): s = (u 11 t1 + +
u 1m tm +v1 , . . . , u q 1 t1 + +u q m tm +vm ) e consideriamo il sistema di r equazioni
in q 1 incognite che ha come matrice dei coefficienti e come matrice dei termini
noti rispettivamente le matrici B  e D ottenute cancellando da B e D la colonna
f . Si osservi che tutte le soluzioni di tale sistema si ottengono ponendo t f = 0 nelle
precedenti uguaglianze. Quindi esse dipendono da m 1 parametri. Daltra parte le
matrici B  e D hanno ancora rango r e, per lipotesi di induzione, le soluzioni del
sistema dipendono ora da q 1 r parametri indipendenti; ne segue quindi che
m 1 q 1 r e cio che m q r . Per provare che m = q r baster infine
provare che le soluzioni del nostro sistema dipendono da q r parametri. Ci segue
subito dal modo in cui sono state determinate le soluzioni di un sistema compatibile
nel paragrafo 1.4.


Soluzioni

Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero o esame in corsi universitari (cfr. e.g. [2], [4] e [10]).

Quesiti ed esercizi
1.
Si considerino le due matrici quadrate, 33, A =
3 1 0

e B = 2 0 3 :
(i)
(ii)
(iii)

0 2
0 3 1
2 1 0

4.
Calcolare il rango della matrice A :=

(ii)

5.
Vericare che, per ogni a R \ {0, 32 }, la matrice A =
0 2 1
12 0

0 a 1 invertibile determinando esplicitamente la sua


stabilire se la matrice A e la matrice B sono
1 1 2
simmetriche;
inversa A1 . Cosa accade per i valori a = 0 e a = 32 ?
vericare che AB = BA;
6.
 
calcolare t B t A.
01
Stabilire se la matrice A = 3 1 invertibile ed, in caso

2.
Vericare che ogni matrice M Mnn pu essere scritta
come somma di una matrice simmetrica e di una matrice
antisimmetrica.
3.
Vericare le seguenti affermazioni:
(i)

23 0 1
1 2 1 0
2 0 0 1

Una matrice A Mnn simmetrica se e solo se,


data una qualsiasi matrice B Mnn , la matrice
t BAB M
nn simmetrica.
Una matrice A Mnn antisimmetrica se e solo
se, data una qualsiasi matrice B Mnn , t BAB
Mnn antisimmetrica.

56

affermativo, trovare linversa.


7.
Discutere la compatibilit o meno del sistema parametrico
di 3 equazioni e 4 indeterminate:

X
2 2

+ 2 X3 + X4 =

X1 X2 + X4 =

1
3

X1 + X2 X3 X4 = 2

al variare del parametro reale .


Per i valori di per cui il sistema risulta compatibile, stabilire da quanti parametri indipendenti dipendono le sue
soluzioni.

3
Matrici quadrate e determinanti
3.1

Determinanti

Alcune particolari funzioni f : Mnn R, dallinsieme Mnn delle matrici di


ordine n allinsieme R dei numeri reali, sono molto importanti nello studio delle
propriet delle matrici. Sono esempi di questo tipo le funzioni f che soddisfano alla
propriet f (M) = f (A 1 M A), qualunque siano M Mnn ed A invertibile di
ordine n. Tra questi esempi c la funzione determinante
det : Mnn R
Tale funzione associa ad ogni matrice quadrata M di ordine n un numero reale che
viene chiamato determinante di M ed indicato con det(M) (oppure con det M). Per
definire det(M), e quindi la funzione determinante, conviene innanzitutto introdurre
la seguente
definizione 3.1 Diremo che una funzione : Mnn

R un determinante

di ordine n se essa soddisfa le seguenti propriet :


a)
b)
c)
d)

per la matrice identit In vale (In ) = 1;


sia M Mnn e sia N ottenuta da M scambiando tra di loro due
diverse righe di M. Allora vale (N) = (M);
sia M Mnn e sia N ottenuta da M moltiplicando una riga di M
per un numero reale . Allora vale (N) = (M);
sia M Mnn e siano R 1 , . . . , R n le sue righe. Se una riga R i la
somma S + T delle matrici riga S e T allora vale

R1
R1
R1
..
..
..
.
.
.

S + T = S + T

..
..
..
.
.
.
Rn

e)

Rn

Rn

sia M Mnn , per le colonne di M valgono le stesse propriet ora


enunciate per le righe.

Osservazione 3.1
Si pu dimostrare che e) conseguenza di a), b), c) e denizione, tuttavia ci servir a semplicare il discorso.
d). Sarebbe quindi superuo inserire tale propriet nella

57

3 Matrici quadrate e determinanti


La sola definizione naturalmente non basta a garantirci che esista un determinante
di ordine n. Dimostreremo tra poco che una tale funzione effettivamente esiste e che
inoltre ne esiste una sola. Preliminarmente vediamo qualche conseguenza immediata
della definizione:
proposizione 3.1 Sia M Mnn una matrice con una riga od una colonna nulla

e sia un determinante di ordine n, allora (M) = 0.

Dimostrazione Se R una riga o colonna nulla di M si ha N = M, dove N ottenuta


da M moltiplicando R per 1. Dalla propriet c) segue (N) = (M). Daltra parte
(N) = (M) poich N = M, quindi (M) = 0.

proposizione 3.2 Sia M Mnn una matrice con due righe oppure due colonne

uguali e sia un determinante di ordine n, allora (M) = 0.

Siano R e R  due righe o colonne di M di indici distinti. Se R = R 


allora N = M, dove N ottenuta da M scambiando R con R  . Dalla propriet b) segue
(N) = (M). Daltra parte (N) = (M) poich N = M, quindi (M) = 0.


Dimostrazione

Esempio 3.1 Determinante di ordine 1


Lunico determinante di ordine 1 la funzione 1 : M11 R che alla matrice M = (m11 )
associa m11 . Abbiamo infatti M = m11 I1 , dove I1 = (1) la matrice identit. Sia ora un
determinante di ordine 1, poich soddisfa a) e c), segue che (M) = m11 (I1 ) = m11 .
Quindi e 1 sono la stessa funzione. evidente che tale funzione soddisfa a), b), c), d)
ed e).

Esempio 3.2 Determinante di ordine 2


Esiste uno ed un solo determinante di ordine 2. Sia infatti : M22 R un determinante
di ordine 2 e sia M M22 ; possiamo scrivere M nel modo seguente:

a11
M=
a21

a12
a22



a11 U1 + a12 U2
=
a21 U1 + a22 U2





dove U1 = 1 0 e U2 = 0 1 . Poich soddisfa la propriet d) abbiamo

(M) =

a11 U1
a21 U1 + a22 U2

a12 U2
a21 U1 + a22 U2

Applicando d) alle seconde righe delle matrici considerate e poi applicando c) si ottiene

58

3.1 Determinanti



U1
U1
U2
(M) = a11 a21
+ a11 a22
+ a12 a21
+
U1
U2
U1

U2
+ a12 a22
U2
Osserviamo inoltre che valgono le uguaglianze




U2
U1
U2
U1
= 0,
= 0,
= 1,
= 1

U1
U2
U2
U1
Le prime due seguono perch le matrici hanno righe uguali, la terza perch la matrice a cui
si applica lidentit, la quarta segue da b). Sostituendo nellultima espressione di (M)
si ha (M) = a11 a22 a12 a21 .
Lunica funzione che pu essere un determinante di ordine 2 dunque la funzione denita
come sopra. Si verica facilmente che un determinante in quanto soddisfa a), b), c), d)
ed e).

Ci che avviene nei casi n = 1 e n = 2 in realt si verifica sempre, proveremo infatti


che: per ogni n, una funzione determinante esiste ed unica.
Per cominciare proveremo che, se esiste un unico determinante di ordine n 1, allora
esiste un unico determinante di ordine n:
lemma 3.1 Supponiamo che esista un unico determinante di ordine n1, denotato

con n1 : Mn1n1 R; allora per ogni determinante : Mnn R di


ordine n valgono le uguaglianze


(1)i+ j a i j n1 (M i j ) =
(1)i+ j a i j n1 (M i j )
(M) =
j =1,...,n

i=1,...,n

dove M = (a i j ) e M i j ottenuta da M cancellando la riga i e la colonna j .


Dimostrazione


Proveremo
la prima uguaglianza, la dimostrazione della seconda simile.

Sia Uk = 0 . . . 1 . . . 0 la matrice 1 n che ha tutti i termini nulli salvo il k-esimo che 1:
possiamo scrivere la riga R i di M come R i = a i1 U1 + + a in Un . Applicando le propriet

c) e d) a questa riga otteniamo (M) =
j =1,...,n a i j (M j ), dove con M j indichiamo la
matrice ottenuta da M sostituendo la riga R i con U j . Si noti che il termine di posto i, j della
j -esima colonna di M j uguale a 1. Se k = i il termine di posto k, j invece a k j . Applicando
1j

le stesse propriet c) e d) alla j -esima colonna di M j otteniamo allora (M j ) = a 1 j (M+ )+


ij

nj

kj

+(M+ )+ +a n j (M+ ), dove M+ indica la matrice ottenuta sostituendo la j -esima

59

3 Matrici quadrate e determinanti


kj

colonna di M j con la colonna t Uk , trasposta della riga Uk . La matrice M+ ha nulla la i-esima


kj
ij
riga se k = i. Pertanto si ha (M+ ) = 0 per k = i e quindi (M j ) = (M+ ).
ij

Per concludere la dimostrazione baster allora provare che

(M+ )
(1)i+ j

ij

= n1 (M i j ).
ij

A tale scopo si consideri la funzione + : Mn1n1 R cos definita: + (P ) =


dove P una qualsiasi matrice di ordine n 1 e dove
che:
1.
2.

ij
P+

ij

(P+ )
(1)i+ j

lunica matrice di ordine n tale

ij

cancellando da P+ la riga i e la colonna j si ottiene P ;


ij
la i-esima riga e la j -esima colonna di P+ sono Ui e t U j .
ij

Se la funzione + un determinante di ordine n1 allora, essendo un tale determinante unico


per ipotesi, vale luguaglianza richiesta. Per completare la dimostrazione proviamo dunque
ij
ij
che + un determinante. Ora le propriet b), c), d), e) seguono per + dal fatto che le stesse
ij
propriet valgono per . Sia infine I = In1 : si pu calcolare che (I+ ) = (1)i+ j , quindi
ij

+ (In1 ) =

ij

(I+ )
(1)i+ j

= 1 e anche a) soddisfatta.


Il lemma appena dimostrato il passo essenziale per dimostrare il seguente


teorema 3.1 Per ogni n esiste un determinante di ordine n ed unico.

Dimostriamo il teorema per induzione su n 1. Per n = 1 lesistenza


Dimostrazione
e lunicit del determinante sono state provate negli esempi precedenti. Supponiamo che il
teorema sia vero per k n, allora esiste ununico determinante k : Mkk R, k n.
Per provare che esiste un determinante di ordine n + 1 si consideri la funzione n+1 :
M
R cos definita: per ogni matrice M = (a i j ) di ordine n + 1 n+1 (M) =
n+1n+1
1j
1j
j =1,...,n+1 a 1 j n (M ) dove M la matrice ottenuta cancellando la riga 1 e la colonna
j di M. Tale funzione infatti un determinante ovvero soddisfa a), . . . , e):
a)
b)

sia M = In+1 , allora la riga j 1 di M 1 j nulla per j > 1 e M 11 = In . Ne segue


che n (M 1 j ) = 0 per j > 1 e n (M 11 ) = 1. Quindi n+1 (In+1 ) = 1;
sia M = (a i j ) una matrice di ordine n+1 e sia N la matrice ottenuta da M scambiando la riga u con la riga v, dove u = v. Sia poi N i j la matrice ottenuta cancellando la
riga i e la colonna j di N. Se 1 diverso da u, v chiaro che n (N 1 j ) = n (M 1 j )
ed immediato dedurre che n+1 (N) = n+1 (M). Supporremo allora che u
oppure v, per esempio u, sia 1. In tal caso abbiamo

n+1 (N) =
(1)1+ j a 1 j n (N 1 j ).
j =1,...,n+1

60

3.1 Determinanti
Daltra parte, per lipotesi di induzione, k , lunico determinante di ordine k n.
Per il lemma sopra dimostrato avremo dunque

(1)v1+h a 1h n1 (N 1, j,v1,h )
n (N 1 j ) =
h=1,..., j 1

(1)v1+h a 1h n1 (N 1, j,v1,h )

h= j +1,...,n+1

dove N 1, j,v1,h (v 1, h) indica la sottomatrice di N 1 j ottenuta cancellando la riga


v 1 e la colonna h. Daltra parte calcolando n+1 (M) si ottiene

n+1 (M) =
(1)1+ j a 1 j n (M 1 j )
j =1,...,n+1

ed inoltre, applicando di nuovo il lemma sopra dimostrato, abbiamo



(1)v+h n1 (M 1, j,v,h )
n (M 1 j ) =
h=1,..., j 1

(1)v+h n1 (M 1, j,v,h )

h= j +1,...,n+1

c)

d)

dove M 1, j,v1,h (v1, h) indica la sottomatrice di M 1 j ottenuta cancellando la riga


v e la colonna h. Le matrici M 1, j,v,h e N 1, j,v1,h sono ottenute rispettivamente da
M e da N cancellando le righe 1 e v e le stesse colonne. Quindi queste due matrici
sono uguali e n1 (M 1, j,v,h ) = n1 (N 1, j,v1,h ).
Da questa uguaglianza segue che le precedenti espressioni per n+1 (M) e n+1 (N)
differscono per un fattore 1.
Sia M come sopra e sia N ottenuta da M moltiplicando per la riga di indice u. Se
u = 1 abbiamo N 1 j = M 1 j mentre il termine di posto 1 j di N 1 j . Se u = 1
allora N 1 j ottenuta moltiplicando per la riga di indice u di M i j . In questultimo
caso, essendo n un determinante, si ha n (N 1 j ) = n (M i j ). In entrambi i casi
immediato dedurre che (N) = (M).
Sia M come sopra, supponiamo che sia R u = (s 1 + t1 , . . . , s n+1 + tn+1 ) = S + T,
dove R u indica la riga di indice u di M. Indichiamo poi con MS e MT le matrici che si
ottengono da M sostituendo R u rispettivamente con (s 1 . . . s n+1 ) e (t1 . . . tn+1 ). Se
u = 1 segue immediatamente dalla definizione di n+1 che n+1 (M) = n+1 (MS )+
n+1 (MT ).
Quindi la propriet d) risulta provata in questo caso. Se invece u = 1 si osservi che
la riga u di N 1 j somma delle matrici riga S 1 j e T 1 j . Poich n un determinante
ne segue che

(1)1+ j a 1 j n (N 1 j ) = =
n+1 (M) =
j =1,...,n+1

= n+1 (MS ) + n+1 (MT )


e)

Bisogna infine provare che le propriet precedenti valgono ancora se in esse si sostituisce la parola riga con la parola colonna. Ci segue immediatamente dalla definzione
di n+1 .

61

3 Matrici quadrate e determinanti


Abbiamo dunque provato che esiste un determinante di ordine n + 1: la funzione
n+1 ne costituisce infatti un esempio. Per completare la dimostrazione del teorema bisogna infine provare che n+1 lunico determinante di ordine n + 1: per
lipotesi di induzione esiste un unico determinante di ordine k n. Segue allora
dal lemma precedente che, per un qualsiasi determinante di ordine n + 1, si ha

1+ j a (M 1 j ), per ogni matrice M M
(M) =
1j n
n+1n+1 .
j =1,...,n+1 (1)
Quindi (M) = n+1 (M) e = n+1 .


Dora in poi il numero n (M) verr chiamato determinante di M e indicato con


det M.

3.2

Calcolo dei determinanti


definizione 3.2 Sia M = (a i j ) una matrice quadrata di ordine n. Il cofattore

o complemento algebrico del termine di posto i, j il numero reale Ai j :=


(1)i+ j det(M i j ) dove M i j indica la matrice ottenuta cancellando la riga i e
la colonna j di M.

Sviluppo
del determinante
rispetto a una riga

Il problema principale che vogliamo ora affrontare quello di calcolare il determinante


di una matrice, possibilmente in modo semplice. Esaminiamo alcune vie ammissibili:


La riga i-esima di M a i1 . . . a in . Ricordando le uguaglianze espresse nel Teorema
3.1 e la definizione di complemento algebrico abbiamo det M = a i1 Ai1 + +
a in Ain .
Possiamo quindi scegliere una riga conveniente, per esempio una riga in cui compaiano molti termini uguali a zero, e calcolare det M con tale formula. Nel linguaggio
tradizionale tale procedura di calcolo si chiama sviluppo del det M rispetto alla riga i
(detto anche sviluppo di Laplace rispetto alla riga i).

Sviluppo
del determinante
rispetto a una colonna

Possiamo procedere nello stesso modo con una colonna invece di una riga. Dalle
uguaglianze del Teorema 3.1 segue infatti la formula det M = a 1 j A 1 j + +a n j A n j .
In questo caso il determinante stato sviluppato rispetto alla colonna j (equivalentemente, stato sviluppato con il metodo di Laplace rispetto alla colonna j ).

Esercizio 3.1 Calcolo di determinanti con metodo di Laplace


456

Si calcoli opportunamente il determinante delle matrici

62

123
078

10000
1 1 1 0
21000
, 21 22 23 04 , 3 0 1 0 0 .
41010
43 21
10105

3.2 Calcolo dei determinanti


Sia M una matrice quadrata di ordine n e siano R 1 , . . . , R n le sue righe. Sia poi N
una matrice che sia una modificazione elementare di una riga di M: vogliamo vedere
come cambia il determinante di N rispetto al determinante di M. Come al solito
abbiamo tre diversi casi da considerare:
1.
2.
3.

N ottenuta da M scambiando due righe distinte. In questo caso det N =


det M per la propriet b).
N ottenuta da M moltiplicando una riga di M per c . In questo caso det N =
c det M per la propriet c).
N ottenuta da M sostituendo la riga R i con R i + R j , i = j . Dalla
propriet d) segue

R1
R1
R1
..
..

.
.
.
.

det N = det R i + R j = det R i + det


R j = det M
..
..

..
.
.

.
Rn

Rn

Rn

Nella somma precedente, infatti, il secondo determinante il determinante


di una matrice che ha due righe uguali: si tratta della riga i e della riga j che
sono entrambe uguali a R j . Quindi esso zero e det N = det M.
Il fatto che nel caso 3 si ha det N = det M del massimo interesse al fine di calcolare det M. Lalgoritmo di riduzione per righe visto in 1.3 funziona infatti per
una matrice M anche se si procede soltanto con modificazioni elementari di una riga
come nel punto 3. Applicando lalgoritmo dunque possibile costruire una successione di matrici M = M0 , . . . , Mn = B tali che: (i) B ridotta per righe, (ii) per
i = 1, . . . , n Mi ottenuta da Mi1 come in (3). Viste le precedenti osservazioni
possiamo allora concludere che det M = det M1 = = det B. Ora il punto che
il determinante di una matrice ridotta per righe si calcola pi facilmente:
lemma 3.2 Sia B = (b i j ) una matrice quadrata di ordine n, ridotta per righe e

di rango r :
1.
2.

se r < n allora det B = 0,


se r = n allora det B = 0 e inoltre | det B |=| b 1, j1 b n, jn |,
dove b 1, j1 . . . b n, jn sono n termini pivot di B, scelti ciascuno su una riga
diversa.

Dimostrazione
1.
2.

Se r < n, essendo B ridotta per righe, B ha una riga nulla. Quindi det B = 0.
Dimostriamo la propriet per induzione su n. Se n = 1 allora B = (b 11 ) e b 11 = 0.
Poich det B = b 11 la propriet segue immediatamente. Sia ora B di ordine n > 1,
poich r = n possiamo scegliere n termini pivot b 1, j1 , . . . , b n. jn posti ciascuno su

63

Algoritmo di riduzione
per righe e calcolo
dei determinanti

3 Matrici quadrate e determinanti


una riga diversa di B. In particolare abbiamo allora che b 1, j1 = 0 e che gli altri
termini della colonna j1 sono nulli. Sviluppando il determinante di B rispetto alla
colonna j1 avremo dunque
det B = (1)1+ j1 b 1, j1 det C,
dove la matrice C ottenuta cancellando da B la riga 1 e la colonna j1 . Si osservi
che, essendo B ridotta per righe, anche C lo e che inoltre i suoi termini pivot lo
sono anche per B. Quindi | det C |=| b 2, j2 b n, jn | per ipotesi induttiva e perci
| det B |=| b 1, j1 b n, jn |.


In particolare il lemma stabilisce che det B = 0 se e solo se r = q . Viste le considerazioni che abbiamo appena svolto facile estendere questultima propriet ad ogni
matrice quadrata:
Sia M una matrice quadrata di ordine n e di rango r . Allora
det M = 0 se, e solo se, r = n.

teorema 3.2

Dimostrazione

Abbiamo osservato che, applicando opportunamente lalgoritmo di riduzione per righe, da M si ottiene una matrice B, ridotta per righe e che ha inoltre lo stesso
rango r e lo stesso determinante di M. Segue allora dal lemma che det M = 0 se, e solo se,
r = n.


Osservazione 3.2
Se r = n e B ridotta per righe possibile scegliere n ter- j1 < < jn . Con poco lavoro in pi si prova allora che
mini pivot b1,j1 , . . . , bn,j di B non solo in modo che cian
1+j ++jn
b1,j1 bn,j .
det B = (1) 1
scuno sia su una riga diversa, ma anche in modo tale che
n

Esercizio 3.2
Utilizzando il metodo di riduzione di Gauss-Jordan si calcolino i seguenti determinanti:

1 2 3 4 5
1 2 3 4
1 1 2 5 7
1 3 5 7

det 1 2 2 2 2 , det

1 5 9 13
0 0 1 2 3
1 9 17 25
5 4 3 2 1

3.3

Determinanti e matrici invertibili

Il ruolo del determinante per capire se una matrice invertibile va subito messo in
evidenza anche se, dopo il lavoro svolto della precedente sezione, quanto stiamo per
enunciare ormai scontato:
64

3.3 Determinanti e matrici invertibili


teorema 3.3 Una matrice M invertibile se, e solo se, det M = 0.

Dimostrazione Siano r il rango e n lordine di M. Per definizione il rango di una matrice


il massimo ordine di una sua sottomatrice quadrata invertibile. Quindi, essendo M quadrata,
M invertibile se e solo se r = n. Per il Teorema 3.2 r = n se, e solo se, det M = 0.

Vedremo ora di sviluppare qualche altra considerazione sui determinanti che ci porter a ricavare una formula per calcolare linversa di una matrice invertibile M. Sia
M = (a i j ) una matrice quadrata di ordine n, la matrice dei cofattori di M: (Ai j )
semplicemente la matrice il cui termine di posto i, j il cofattore Ai j di a i j . La trasposta della matrice dei cofattori una matrice particolarmente importante e merita
unulteriore definizione:
definizione 3.3 Si dice aggiunta di M la matrice trasposta della matrice dei

cofattori di M.
Tale matrice dunque la matrice t (Ai j ), dora in poi essa verr indicata con M .
Esempio 3.3 Aggiunta di una matrice 2 2
Si consideri la matrice di ordine due A =
facile calcolare che AA = A* A =

ab
cd

allora laggiunta di A A =

adbc 0
0 adbc

d b
c a

= (adbc)I2 . AA* dunque la matrice

identit I2 moltiplicata per det A = ad bc (cfr. Prop. 2.6).

La propriet delle matrici 2 2 che ora abbiamo osservato vale pi in generale:


teorema 3.4

(det M) In .

Per ogni matrice quadrata M di ordine n si ha MM* = M* M =

Dimostrazione

Sia p i j il termine di posto i, j della matrice prodotto M M , allora p i j =

( a i1 ...a in )

A j1

..
.

= a i1 A j 1 + + a in A j n . Infatti p i j il prodotto della riga i di M

A jn

con
 la colonna j di M e tale colonna proprio la matrice trasposta della riga di cofattori
A j 1 . . . A j n . Se i = j la precedente espressione il determinante di M, sviluppato rispetto
alla riga i-esima. Se i = j la precedente espressione invece zero. Per provarlo osserviamo
che, pi in generale, 1 A j 1 + + n A j n il determinante della matrice ottenuta da M


sostituendo la sua j -esima riga con 1 . . . n . Se allora sostituiamo la j -esima riga di M

65

Matrice dei cofattori

3 Matrici quadrate e determinanti




con a i1 . . . a in otteniamo una matrice in cui due righe distinte, le righe i e j , sono uguali.
Il determinante p i j di tale matrice dunque zero. In conclusione i termini p ii di M M sono
tutti ugali a det(M) e gli altri sono nulli: ne segue che M M = (det M)In .


Formula per la matrice


inversa

Dal precedente teorema segue immediatamente che i termini della matrice inversa di
una matrice invertibile M = (a i j ) sono espressi dalla formula enunciata nel modo
seguente:
Sia M una matrice invertibile, allora il termine di posto i, j di
dove A j i il complemento algebrico di posto j, i di M.

proposizione 3.3

M 1

A ji
det M

Dimostrazione
che
i, j

Poich M invertibile si ha det M = 0. Dal Teorema 3.4 segue subito


il termine di posto

1
1

1 =

det M M M = In e quindi che M


det M M . Come sappiamo
A i
di M A j i , quindi il termine di posto i, j di M 1 det jM

La precedente formula non sempre di facile uso e spesso lalgoritmo di Gauss-Jordan


funziona meglio per costruire M 1 . In alcuni casi essa tuttavia conveniente:

Esercizio 3.3
111

Si calcolino le inverse delle seguenti matrici:

3.4

011
001

11111
1000
01111

1
1
0
0
, 1 1 1 0 , 0 0 1 1 1 .
00011
1111
00001

Complementi ed applicazioni

Determinanti e sistemi
di equazioni lineari

I determinanti sono molto utili nello studio di un sistema lineare A

X1

..
.

Xn

b1

..
.

bn

di n equazioni in n indeterminate. In questo caso la matrice dei coefficienti quadrata


e ha quindi senso utilizzare le propriet del suo determinante.
Se det A = 0 allora A invertibile ed il suo rango n. In particolare A una sottomatrice invertibile di ordine n della matrice completa C del sistema. Poich C una
matrice n (n + 1) ne segue che il rango di C n. Il teorema di Rouch-Capelli ci
dice allora che il sistema compatibile e che ammette una ed una sola soluzione. Tutto questo si pu verificare in modo pi diretto: moltiplicando per A 1 entrambe le
66

3.4 Complementi ed applicazioni



parti della precedente uguaglianza otteniamo

X1

..
.

Xn


= A 1

b1

..
.


, quindi lunica

bn

soluzione del sistema considerato la n-upla i cui termini si trovano sulla colonna
a destra di tale uguaglianza. Scrivendo in modo esplicito il termine i-esimo di tale
colonna si ha
Xi =

b 1 A 1i + + b n A ni
.
det A

Ci dovuto al fatto che A 1 = det A A e che la riga i-esima di A (A 1i . . . A ni ).


Daltra parte b 1 A 1i + +b n A ni = det Bi , dove Bi la matrice ottenuta da A sostituendo la i-esima colonna di A con la colonna dei termini b 1 , . . . , b n . Riassumendo
vale dunque, nel caso in cui det A = 0, la seguente propriet nota come
1

teorema 3.5 (regola di cramer)

Se det A = 0, il sistema ammette una ed una

sola soluzione che la seguente:


X1 =

det B1
det Bn
, . . . , Xn =
det A
det A

dove Bi la matrice che si ottiene da A sostituendo la i-esima colonna di A con


la colonna dei termini noti del sistema.

R un minore di
ordine k di A se m il determinante di una sottomatrice quadrata di ordine k
di A.

definizione 3.4 Sia A una matrice p q , diremo che m

Poich una matrice quadrata M invertibile se e solo se det M = 0, chiaro che


sono uguali i due seguenti numeri:
1.
2.

il massimo ordine possibile di una sottomatrice invertibile di A;


il massimo ordine possibile di un minore non nullo di A.

Il numero considerato in 1 non altro che il rango di M, cos come stato definito
nel paragrafo 2.3. Possiamo perci concludere questa sezione affermando che
teorema 3.6 Il rango di M il massimo ordine possibile di un minore non nullo

di M.
Teoricamente tale risultato indica unaltra via per determinare il rango di una matrice
M: calcolare i minori di M e poi il massimo intero r per il quale esistono minori di
M che hanno ordine r e sono non nulli. Allora r sar il rango di M. In generale
una tale procedura poco praticabile e conviene ricorrere ad altre come quelle gi
67

Minori di una matrice


e rango

3 Matrici quadrate e determinanti


considerate. Una sua parziale semplificazione costituita dal principio dei minori orlati
(detto anche Teorema di Kronecher):
teorema 3.7 Siano M una matrice e S una sua sottomatrice quadrata di ordine
r ed inoltre tale che:

1.
2.

det S = 0,
det T = 0 per ogni sottomatrice quadrata T di M di cui S sia una
sottomatrice.

Allora r il rango di M.
Determinante
di un prodotto

Concludiamo questo capitolo, con un ultimo risultato legato ai determinanti, che va


sotto il nome di Teorema di Binet: esso sar utile in molte occasioni.
Siano A e B matrici quadrate di ordine n, allora det(A B) =
(det A)(det B).
teorema 3.8

Distinguiamo due casi: det B = 0 e det B = 0. Se det B = 0 allora B


non invertibile e nemmeno A B. Se infatti A B avesse uninversa M avremmo (M A)B = In
e B sarebbe invertibile. Poich A B non invertibile det(A B) = 0 e dunque vale lasserto.

Dimostrazione

Supponiamo ora det B = 0 e consideriamo la funzione B : Mnn R cos definita:


det(M B)
M Mnn , B (M) := det B . Proveremo che B soddisfa le propriet a), b), c), d),
e). Ci implica che B uguale alla funzione determinante d e t : Mnn R, poich
det(A B)
questa lunica che soddisfa tali propriet. Ma allora B (A) = det B = det A e quindi
det(A B) = (det A)(det B). Rimane da provare che B soddisfa le suddette propriet:
a)
b)

c)

d)

B (In ) = det(In B)/ det B = 1;


sia N ottenuta da M scambiando le righe di indici i e j ; dalla definizione di prodotto
riga per colonna segue che N B ottenuta da M B scambiando le righe di indici i e
j di M B. Pertanto B (N) = B (M);
sia N ottenuta da M moltiplicando la riga i di M per un numero reale . Dalla definizione di prodotto riga per colonna segue che N B ottenuta da M B moltiplicando
la riga di M B per . Pertanto B (N) = B (M);
siano R 1 , . . . , R n le righe di M e assumiamo che la riga R i somma S + T delle
matrici riga S e T. Dalla definizione di prodotto riga per colonna si ha:

R1
R1
R1
..
..
..
.
.
.

S + T B = S B + T B

.
.
.
..
..
..
Rn
Rn
Rn

68

3.4 Complementi ed applicazioni


In altre parole la riga i della matrice M B, data dalla matrice riga (S + T)B, somma
delle matrici riga S B e T B. Pertanto, dalle propriet del determinate, vale


R1
R1
R1
..
..
..
.
.
.


det S + T B = det S B + det


T B .
.
.
.
..
..
..
Rn

Rn

Rn

e)

Poich det B un numero reale, le medesime propriet valgono per la funzione B ;


un ragionamento analogo a quello utilizzato per dimostrare d), si applica al caso delle
colonne di M. Lasciamo al lettore, per esercizio, di considerare i dettagli.


Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [4] e [10]).

Soluzioni

Quesiti ed esercizi
1.
Calcolare il determinante della matrice

a11 a12 0
0
a
a
0
0

A = 21 22
M44
0 a33 a34
0
0
0 a43 a44

sia massimo.
4.
In M35 assegnata la matrice parametrica

1 0

A = 1
0 0
1 1
0

esprimendolo in funzione delle sottomatrici A(1, 2; 1, 2) e


Calcolare in funzione di lordine massimo r dei minori
A(3, 4; 3, 4) di A.
non nulli di A, esibendo esplicitamente una sottomatrice di
2.
ordine r con determinante non nullo, per ogni valore di .
Data la matrice parametrica

5.
1 1
1
Data la matrice

M = 2 1 2

1
4
1 0 2 4

32
A = 32 2 11
5
5
dipendente dal parametro reale R, determinare per
0 5
2 1
quali valori di tale matrice invertibile. In tali casi
determinarne linversa.
vericare che r(A) = 2 e determinare una relazione della
3.
forma R2 = R1 + R3 , dove le Ri sono le righe di A, 1
Trovare i valori del parametro k R afnch il rango della
i 3, e dove , R da determinare opportunatamente.
matrice
6.

Risolvere, al variare del parametro R, il sistema li1/2 1 5/3 2

neare di 3 equazioni e 4 indeterminate, avente per matrice


A = k 1 1 1
0
completa la matrice
3
1
0
k

69

3 Matrici quadrate e determinanti

1 0

C = 1
0 0
1 1
0
7.
Sia assegnato il seguente sistema lineare

aX1 + X2 = 0

X + aX = 0
1
2

bX
+
X
3
4 = 0

X + bX = 0,
3
4

70

dipendente dai parametri reali a e b.

(i)

(ii)

Stabilire, al variare di (a, b) R2 , quando il sistema compatibile e, in tal caso, da quanti parametri indipendenti dipendono le soluzioni del sistema
lineare;
Determinare esplicitamente le soluzioni del sistema lineare dato, per tutte le coppie (a, b) R2
per cui tali soluzioni dipendano da 2 parametri
indipendenti.

4
Spazi vettoriali
4.1

Lorigine della nozione di vettore

Le origini della nozione di vettore vanno rintracciate nelle ricerche dei matematici
e dei fisici del XIX secolo. Come conseguenza di tali ricerche furono introdotti, in
matematica ed in fisica, quelli che oggi sono chiamati vettori geometrici. I vettori
geometrici possono essere sommati, oppure moltiplicati per un numero, seguendo
regole piuttosto naturali. Richiameremo queste nozioni per la loro utilit didattica e
storica. bene tuttavia avvertire che linsieme dei vettori geometrici va considerato
come un esempio particolare della nozione, molto pi generale ed efficace, di spazio
vettoriale. Questa sar il vero oggetto di questo capitolo.
Per costruire i vettori geometrici lavoreremo con i punti dello spazio ordinario S
della geometria di Euclide, dove supporremo fissata una misura della lunghezza dei
segmenti. In questo paragrafo ricorreremo spesso allintuizione geometrica.
Siano A, B S due punti dello spazio, indicheremo con A B il segmento di estremi
i punti A e B sul quale sia stato scelto come verso di percorrenza quello in cui A
precede B. Ricordiamo che su un segmento di estremi A e B esistono due versi di
percorrenza: quello in cui A precede B e il suo opposto in cui B precede A. La
notazione B A indicher lo stesso segmento sul quale stato per scelto il verso di
percorrenza opposto. Nel caso particolare in cui A = B il segmento formato da
un unico punto e i suoi versi di percorrenza sono uguali. Po essere utile pensare a
un segmento orientato A B come a una freccia con la punta in B. Il punto A verr
detto origine del segmento orientato A B. La lunghezza del segmento orientato A B la
lunghezza del segmento di estremi i punti A e B.

Vettori geometrici

definizione 4.1 Due segmenti orientati A B e C D si dicono equipollenti se:

1.
2.
3.

hanno la stessa lunghezza;


esistono due rette parallele contenenti luna A, B e laltra C, D;
esistono due rette parallele contenenti luna A, B e laltra C, D ed
inoltre:

Segmenti orientati

se r una retta contenente A, C i punti B e D si trovano su


uno stesso semipiano dei due definiti da r (figura 4.1a);
se r una retta contenente A, C i punti B e D si trovano su
uno stesso semipiano dei due definiti da r (figura 4.1a);
71

4 Spazi vettoriali

se r una retta contenente A, B, C, D esiste un verso di percorrenza di r nel quale A precede B e C precede D (figura 4.1b).

Per indicare che A B e C D sono equipollenti scriveremo A B C D.


A
C r

(a)
r
D

Si noti che, qualunque siano i segmenti orientati A B, C D ed E F , valgono le propriet seguenti, di cui omettiamo la semplice dimostrazione:
1.
2.
3.

A B A B;
A B C D implica C D A B;
Se A B C D e C D E F allora A B E F .

Il lettore in possesso di nozioni matematiche di base avr riconosciuto in 1, 2 e 3 le


propriet riflessiva, simmetrica e transitiva della relazione considerata.

definizione 4.2 Un vettore geometrico linsieme di tutti i segmenti orientati

equipollenti a un segmento orientato assegnato.

(b)

figura 4.1 Segmenti orientati equipollenti come in 3.

Linsieme dei vettori geometrici verr indicato con V, i vettori geometrici verranno
indicati con una lettera minuscola in grassetto: u, v, w . . . .

Osservazione 4.1
importante sottolineare che un vettore geometrico non ver che, essendo le precedenti propriet 1, 2 e 3 soddisfatte,
un segmento orientato ma un insieme di segmenti orientati la relazione di equipollenza una relazione di equivalenza
denito come sopra.
e che V non altro che linsieme delle classi di equivalenza
di tale relazione. Per questo motivo i vettori geometrici sono
Il lettore in possesso di nozioni matematiche di base osser- anche chiamati classi di equipollenza.

In pratica converr lavorare con i vettori geometrici scegliendo opportunamente, per


ogni vettore geometrico considerato, un segmento orientato che lo rappresenta: diremo che il segmento orientato P Q rappresenta il vettore geometrico v se P Q uno dei
segmenti orientati dellinsieme v.

Q
v
P
v

proposizione 4.1 Siano P un punto e v un vettore geometrico, allora esiste uno e


un solo punto Q tale che il segmento orientato P Q rappresenta v (figura 4.2).

figura 4.2 Il segmento orientato PQ rappresenta v

a
A

figura 4.3 I segmenti orientati AB e BC

Per brevit non dimosteremo tale proposizione, evidente a livello intuitivo. Essa
utile per definire le successive operazioni tra vettori geometrici.
Siano a e b due vettori geometrici. Scelto un punto A S consideriamo prima il
segmento orientato A B che rappresenta a e ha origine in A e poi il segmento orientato
BC che rappresenta b e ha origine in B (figura 4.3).
72

4.1 Lorigine della nozione di vettore


Cambiando A con un altro punto A  scelto a piacere possiamo costruire, nello stesso
modo, prima il segmento orientato A  B  che rappresenta a e poi il segmento orientato
B  C  che rappresenta b. possibile dimostrare che i segmenti orientati AC e A  C 
sono equipollenti (figura 4.4).

B'

C'

a
A'

c
b

Sia c il vettore geometrico rappresentato dal segmento orientato AC abbiamo osservato che c non cambia cambiando la scelta del punto A, questo vuol dire che c
definito in modo unico dalla coppia di vettori geometrici a, b. dunque appropriato
introdurre la seguente
definizione 4.3 La somma dei vettori geometrici a e b il vettore geometrico

a+b rappresentato dal segmento orientato ottenuto nel modo seguente. Siano:

figura 4.4 I segmenti orientati AC e A C sono equipollenti

Somma di vettori
geometrici

A un punto scelto a piacere;


A B il segmento orientato di origine A che rappresenta a;
BC il segmento orientato di origine B che rappresenta b;

allora a + b il vettore geometrico rappresentato dal segmento orientato AC .


proposizione 4.2 La somma di vettori geometrici associativa e commutativa.

Ricorriamo di nuovo a dei disegni per descrivere, senza dimostrazione, alcune propriet; nella figura 4.5 rappresentata la propriet associativa.
(a + b) + c

a + (b + c)

a + (b + c) = (a + b) + c

c
c

b+ c

b+ c

c
a+ b

a+ b
a

a
b

a
b

figura 4.5 La propriet associativa

Nella figura 4.6, i punti A, B, C, D sono i vertici di un parallelogramma:


a)

b)

per calcolare a + b fissiamo A, poi costruiamo il rappresentante A B di a di


origine A e infine il rappresentante BC di b di origine B. Il risultato che
a + b rappresentato da AC ;
per calcolare b + a fissiamo A, poi costruiamo il rappresentante A D di b di
origine A e infine il rappresentante DC di a di origine D. Il risultato che
b + a rappresentato da AC ;
73

Regola
del parallelolgramma

4 Spazi vettoriali

D
a

C
a+

Ne segue che a + b = b + a e quindi la figura 4.6 illustra la propriet commutativa.


La figura mette inoltre in evidenza un modo di costruire la somma di due vettori
geometrici, convenzione nota come regola del parallelogramma:

siano a e b rappresentati rispettivamente da A B e A D dove A, B, D sono punti non allineati. Allora la somma a+b rappresentata dal segmento orientato AC diagonale del parallelogramma A BC D individuato dai
punti A, B, D.

figura 4.6 La regola del parallelogramma

Il vettore geometrico
nullo

Chiameremo vettore geometrico nullo il vettore geometrico o che rappresentato da


un qualunque segmento orientato A A. Dalla definizione di somma segue che v
V, v + o = o + v = v.
o lunico vettore geometrico ad avere tale propriet. Sia infatti o un vettore geometrico tale che v + o = o = o + v per ogni v V. Allora si ha in particolare
o = o + o = o.
Il vettore geometrico nullo svolge dunque il ruolo dello zero per la somma tra numeri.
Diremo che o lelemento neutro della somma di vettori geometrici.

Opposto di un vettore
geometrico

molto semplice osservare che, per ogni v V, esiste un x V tale che v + x =


x + v = o. Se infatti v rappresentato da A B baster scegliere come x il vettore
geometrico rappresentato da B A. Sia x un secondo vettore tale che v+x = x +v =
o, applicando le propriet associativa e commutativa si ha x = o+x = (v+x )+x =
(v + x) + x = o + x = x .
Per ogni v esiste dunque un unico vettore x soddisfacente alla precedente uguaglianza.
x verr chiamato vettore opposto di v e sar pi naturalmente indicato con v.
Con il linguaggio dellalgebra possiamo concludere dicendo ch loperazione di somma di vettori geometrici ha le seguenti propriet:
V1)
V2)
V3)
V4)

associativa;
commutativa;
esiste lelemento neutro o;
v V esiste lopposto v.

Sempre con il linguaggio dellalgebra possiamo concludere che loperazione di somma


di vettori geometrici definisce su V una struttura di gruppo commutativo (equivalentemente, abeliano).
Due segmenti orientati equipollenti hanno la stessa lunghezza. Possiamo quindi definire come lunghezza di un vettore geometrico a la lunghezza di un qualunque segmento
orientato che lo rappresenti. La lunghezza di a sar indicata con | a |.
74

4.2 Denizione ed esempi di spazi vettoriali


Due vettori geometrici si dicono paralleli o proporzionali se sono rappresentati da
segmenti orientati contenuti in rette parallele. Due vettori paralleli e non nulli si
dicono poi concordi se sono rappresentati da segmenti orientati O A e O B tali che
A e B si trovano in una stessa semiretta di origine il punto O. Gli stessi vettori si
diranno discordi in caso contrario.

R e sia a V, la moltiplicazione del numero reale


per a il vettore geometrico a definito dalle seguenti condizioni:
definizione 4.4 Sia

1.

se = 0 e a = o, allora:

2.

a un vettore parallelo ad a;
la lunghezza di a | || a |;
a e a sono concordi se > 0, discordi se < 0;

se = 0 oppure a = o allora a = o.

Concludiamo questo paragrafo enunciando altre quattro propriet che sono soddisfatte dalla moltiplicazione di un numero reale per un vettore geometrico e che sono
importanti per il discorso che svilupperemo nelle sezioni successive:
V5)
V6)

1v = v, v V;
()v = (v), , R

V7)
V8)

(v + w) = v + w), R e v, w V;
( + )v = v + v, , R e v V.

v V;

La propriet V5) ovvia, mentre le propriet V6) e V7) seguono facilmente dalla
definizione di moltiplicazione di un vettore geometrico per un numero reale.

4.2

Denizione ed esempi di spazi vettoriali

Dopo avere studiato i vettori geometrici introdurremo ora la definizione generale di


spazio vettoriale. Tale definizione fondata su una formulazione astratta delle propriet V 1, . . . , V 8 che abbiamo considerato nel caso dei vettori geometrici e che
verranno ora incorporate nella definizione di spazio vettoriale. A seguito di tale definizione lo spazio dei vettori geometrici diventer semplicemente uno dei tanti esempi
di spazi vettoriali.
definizione 4.5 Uno spazio vettoriale un insieme non vuoto V sul quale sono

assegnate due operazioni:


1.
2.

una somma tra elementi di V indicata con +;


una moltiplicazione tra elementi di V e numeri reali indicata con ;
75

Moltiplicazione
di un vettore geometrico
per un numero reale

4 Spazi vettoriali
Inoltre le operazioni + e devono soddisfare le seguenti propriet:
V1)
V2)
V3)
V4)
V5)
V6)
V7)
V8)

associativa della somma: u, v, t V si ha (u +v)+t = u +(v +t);


commutativa della somma: u, v V si ha u + v = v + u;
esistenza di un elemento o tale che u V u + o = o + u = u;
per ogni u V esistenza di un v V tale che u + v = o ;
u V si ha 1 u = u;
, R e u V si ha ( u) = () u;
distributiva di rispetto alla somma di elementi di V : (u + v) =
u + v, R e u, v V ;
distributiva di rispetto alla somma di numeri reali: ( + ) u =
u + u, , Re u V

Osservazione 4.2
Esiste un unico elemento o dotato della propriet enuncia- u + v = o. Tale elemento si chiama anche elemento oppota in c). Se infatti o  un elemento di V dotato della stessa sto a u. facile dimostrare che esiste un unico opposto di u.
propriet avremo o  = o + o  = o  .
Siano infatti v e v  due opposti di u, applicando la propriet
associativa si ottiene
Nel linguaggio dellalgebra lelemento o lelemento neuv = v + o = v + (u + v  ) = (v + u) + v  =
tro delloperazione di somma di elementi di V. Sia u V, la
condizione d) prescrive lesistenza di un elemento v tale che
= o +v = v

Gli elementi di uno spazio vettoriale V vengono chiamati vettori di V . Essi saranno
di solito indicati, come abbiamo gi fatto, nel seguente modo: u, v, t . . . .
Lelemento neutro rispetto alla somma di vettori di V viene chiamato vettore nullo
di V . Esso verr talvolta indicato con o V ma molto pi spesso soltanto con o per
semplificare la scrittura. Per ogni u V lopposto di u verr indicato con u.
Osservazione 4.3
Facciamo alcune precisazioni: il simbolo + per la somma di
elementi di V ambiguo perch + viene anche usato per
indicare la somma di numeri. Sarebbe preferibile usare una
notazione distinta e che sottolinei il fatto che loperazione si
svolge tra elementi dellinsieme V: per esempio si potrebbe usare la notazione +V . Per analoghi motivi ambigua la
notazione a e potrebbe per esempio essere sostituita con

V v. Proseguendo su questa strada sarebbe pi rigoroso denire uno spazio vettoriale come una terna (V, +V , V ) dove
V un insieme non vuoto e +V e V sono le due operazioni considerate. In pratica per si preferisce non appesantire
le notazioni e si usano le espressioni e i simboli introdotti
pocanzi. Il lettore sapr interpretarli correttamente.

A scopo di ulteriore semplificazione useremo dora in poi la notazione u invece della


notazione u per indicare la moltiplicazione del vettore u di V per il numero reale
. Esaminiamo infine alcuni dei pi importanti spazi vettoriali.
76

4.2 Denizione ed esempi di spazi vettoriali


Su Rn abbiamo gi considerato una operazione di somma: la somma delle n-uple
a = (a 1 , . . . , a n ) e b = (b 1 , . . . , b n ) stata infatti definita come la n-upla a + b =
(a 1 + b 1 , . . . , a n + b n ).
Tale operazione associativa, per provarlo basta osservare che (a + b) + c = ((a 1 +
b 1 ) + c 1 , . . . , (a n + b n ) + c n ) e a + (b + c ) = (a 1 + (b 1 + c 1 ), . . . , a n + (b n + c n ))
qualunque siano a = (a 1 , . . . , a n ), b = (b 1 , . . . , b n ), c = (c 1 , . . . , c n ). Poich,
per ogni i = 1, . . . , n, si ha (a i +bi )+c i = a i +(bi +c i ) ne segue che (a +b)+c =
a + (b + c ).
Analogamente si prova che loperazione commutativa: per provare che vale a + b =
b + a basta utilizzare luguaglianza a i + bi = bi + a i , i = 1, . . . , n.
Lelemento neutro per la somma di n-uple poi, evidentemente, la n-upla 0 = (0, . . . , 0)
i cui termini sono tutti nulli. Assegnata infine una n-upla a = (a 1 , . . . , a n ) Rn la
n-upla opposta ad a rispetto alla somma di n-uple non altro che (a 1 , . . . , a n ).
Possiamo quindi concludere che loperazione di somma tra n-uple soddisfa alle propriet V1), V2), V3) e V4) della definizione di spazio vettoriale.
Abbiamo inoltre gi considerato una operazione di moltiplicazione di una n-upla a
per un numero reale . Il risultato di tale operazione stato a suo tempo indicato
con a e definito nel modo seguente a = (a 1 , . . . , a n ).
Tale moltiplicazione distributiva rispetto alla somma di n-uple: qualunque siano
R e a , b Rn abbiamo infatti (a +b) = ((a 1 +b 1 ), . . . , (a n +b n )) e a +b =
(a 1 + b 1 , . . . , a n + b n ).
Poich (a i + bi ) = a i + bi , (i = 1, . . . , n), ne segue che (a + b) = a + b.
In modo molto semplice e del tutto simile si prova che tale moltiplicazione distributiva rispetto alla somma di numeri reali: , R e a Rn si ha ( + )a =
a + a .
Lasciamo le verifiche al lettore, altrettanto semplice osservare che
()a = (()a 1 , . . . , ()a n ) = (a 1 , . . . , a n ) = (a )
ed semplicissimo calcolare che 1a = a . Per le operazioni considerate valgono
dunque le propriet V5), V6), V7) e V8) oltre alle precedenti V1), V2), V3) e V4).
Possiamo quindi concludere che Rn , con queste operazioni di somma e di moltiplicazione per un reale, uno spazio vettoriale. Dora in poi il simbolo Rn indicher
tale spazio. I vettori di Rn vengono a volte chiamati vettori numerici.
77

Lo spazio vettoriale Rn
delle n-uple di numeri
reali

4 Spazi vettoriali
Lo spazio vettoriale Mpq
delle matrici pq

Sullinsieme delle matrici p q abbiamo gi considerato le seguenti operazioni:

somma di matrici p q ;
moltiplicazione di un numero reale per una matrice p q .

Con argomenti del tutto simili a quelli utilizzati nel caso di Rn si pu dimostrare
che per tali operazioni sono soddisfatte le propriet V1), . . . , V8) della definizione
di spazio vettoriale. Lasciamo in questultimo caso tutte le verifiche al lettore.
La terna formata dallinsieme delle matrici p q e dalle due precedenti operazioni
dunque un esempio di spazio vettoriale che indicheremo con il simbolo M pq .
I vettori di M pq sono evidentemente matrici p q . Si noti che il vettore nullo di
M pq la matrice nulla 0 pq . Lopposto del vettore A la matrice A.
Prodotto di due spazi
vettoriali

Assegnati due spazi vettoriali V e W possiamo sempre considerare linsieme prodotto


cartesiano V W.
Gli elementi di tale insieme sono le coppie ordinate di vettori (v, w), dove v
V e w W. Su V W esiste una struttura molto naturale di spazio vettoriale:
loperazione di somma tra coppie ordinate di vettori di V W viene cos definita:
(v 1 , w 2 ) + (v 2 , w 2 ) := (v 1 + v 2 , w1 + w2 )
qualunque siano (v 1 , w1 ) e (v 2 , w 2 ) V W. Analogamente la moltiplicazione
di un numero reale per una coppia (v, w) per definizione
(v, w) = (v, w)
definizione 4.6 Con le due operazioni considerate, linsieme V W risulta

essere uno spazio vettoriale. Esso viene chiamato spazio prodotto di V e W e


indicato con V W.
Si noti che il vettore nullo di questo spazio la coppia (0V , 0W ) e che il vettore
opposto a (v, w) (v, w). Utilizzeremo questo esempio di spazio vettoriale in
qualche successiva occasione.
Lo spazio vettoriale
delle funzioni a valori
reali
in una variabile reale

Un altro insieme sul quale possibile costruire, definendo le operazioni in modo


semplice e naturale, una struttura di spazio vettoriale linsieme F delle funzioni
reali di variabile reale. Gli elementi di F sono dunque le funzioni f : R R.
Una funzione f : R R associa ad ogni x R un numero reale, indicato con
f (x ), secondo una legge assegnata. Se per esempio f la funzione che a ogni x R
1
1
associa il suo quadrato x 2 , allora f (1) = 1, f ( 2 ) = 4 , f (3) = 9 ecc.
78

4.2 Denizione ed esempi di spazi vettoriali


Per le funzioni reali di variabile reale esistono, in un certo senso, operazioni naturali
di somma e di moltiplicazione per un numero reale:
definizione 4.7 La somma di due elementi f e g di F la funzione, denotata

f + g : R R, che ad ogni x R associa il numero reale f (x ) + g (x ).

R per una f F la funzione


f : R R che ad ogni x R associa il numero reale f (x ).

definizione 4.8 La moltiplicazione di un

di nuovo possibile verificare che la terna costituita da F e dalle operazioni ora definite un esempio di spazio vettoriale. Di nuovo le verifiche della validit delle propriet
V 1, . . . , V 8 sono noiose e del tutto simili alle precedenti.
Con una certa dose di semplificazione definiremo come polinomio a coefficienti reali
in una indeterminata T unespressione
P (T) = a 0 + a 1 T + a 2 T 2 + + a d T d
dove a 0 . . . a d sono numeri reali e inoltre a d = 0 se d 1. ricordiamo che:
1.
2.
3.

il grado di P (T) d ;
il coefficiente direttore di P (T) a d ;
il coefficiente di grado n di P (T) : il coefficiente di T n se n d , 0 se n > d .

Ricordiamo che, assegnati due polinomi qualsiasi P (T) = a 0 + a 1 T + a 2 T 2 +


2

+ a d T d e Q(T) = b 0 + b 1 T + b T + + b d  T d la loro somma il polinomio


P (T) + Q(T) il cui coefficiente n-esimo la somma a n + b n dei coefficienti n-esimi
di P (T) e Q(T). Ricordiamo anche che la moltiplicazione per un numero reale di un
polinomio P (T) = a 0 + + a d T d il polinomio P (T) = a 0 + + a d T d .
La terna costituita dallinsieme dei polinomi a coefficienti reali in una indeterminata
e dalle operazioni di somma di polinomi e di moltiplicazione di un polinomio per un
numero reale un ulteriore esempio di spazio vettoriale. Tale spazio verr indicato
con il simbolo P.
Il vettore nullo di P non altro che il polinomio nullo, i cui coefficienti sono tutti
uguali a zero. Lopposto del vettore a 0 + a 1 T + + a d T d il vettore a 0 a 1 T
ad Td .
Altri esempi di spazi vettoriali sono forniti da sottoinsiemi particolari di uno spazio
vettoriale assegnato.
definizione 4.9 Sia S un sottoinsieme non vuoto di uno spazo vettoriale V :

1.

S si dice chiuso rispetto alla somma se s 1 , s 2 S, s 1 + s 2 S;


79

Lo spazio vettoriale P
dei polinomi a
coefcienti reali
in una indeterminata

4 Spazi vettoriali
2.

S si dice chiuso rispetto alla moltiplicazione se R e s S,


s S.

definizione 4.10 Sia S un sottoinsieme non vuoto di uno spazio vettoriale V , S

Sottospazio vettoriale

si dice sottospazio di V se chiuso rispetto alla somma e alla moltiplicazione.


Se su S fissiamo, come operazioni di somma e moltiplicazione per un reale, quelle
che abbiamo su V otteniamo un esempio di spazio vettoriale. Infatti le propriet V1),
. . . , V8) sono a maggior ragione soddisfatte su S in quanto valgono su V .

Esempio 4.1 Il sottospazio vettoriale nullo


Sia V un qualsiasi spazio vettoriale e sia S = {0} V. Allora S soddisfa le condizioni di Denizione 4.9. Pertanto, linsieme {0} un sottospazio di ogni spazio vettoriale V,
detto sottospazio nullo. Se in particolare V = {0} allora V detto lo spazio vettoriale
nullo.

Esempio 4.2 n-uple con lultimo termine nullo


Sia S Rn il sottoinsieme delle n-uple il cui ultimo termine 0. chiaro che sommando
due n-uple il cui ultimo termine 0 si ottiene una n-upla il cui ultimo termine 0 e che lo
stesso avviene moltiplicando una n-upla il cui ultimo termine 0 per un numero reale .
Perci S un sottospazio vettoriale di Rn .

Esempio 4.3 Spazio vettoriale delle soluzioni di un sistema omogeneo


Sia ora S linsieme delle soluzioni di un sistema omogeneo di p equazioni in q indeterminate. Ricordiamo che, nel caso di un sistema omogeneo, la somma di due soluzioni del sistema
ancora una soluzione del sistema e la moltiplicazione di una soluzione del sistema per un
numero reale ancora una soluzione del sistema. Possiamo quindi concludere che S un
sottospazio vettoriale di Rq .
Si noti che il precedente esempio 2 un caso particolare di questo esempio: quello in cui il
sistema omogeneo formato dalla sola equazione Xn = 0.

Esempio 4.4 Sottospazi di matrici


Molti esempi particolari di matrici determinano sottospazi di Mpq . A titolo di esempio si
consideri il sottoinsieme S Mnn delle matrici simmetriche(Denizione 1.10). Per una
tale matrice A = (aij ) si ha aij = aji ed quindi immediato dedurre che la somma di
due matrici simmetriche simmetrica e che, se A simmetrica, anche A simmetrica
qualunque sia R. Il sottoinsieme S delle matrici simmetriche di ordine n dunque un
sottospazio di Mnn .

80

4.2 Denizione ed esempi di spazi vettoriali


Il lettore verichi per esercizio che sono sottospazi di Mnn i sottoinsiemi:
insieme delle matrici diagonali, insieme delle matrici triangolari superiori, insieme delle
matrici triangolari inferiori, insieme delle matrici antisimmetriche.

Esempio 4.5 Lo spazio Pd dei polinomi di grado d


Fissato un numero naturale d indicheremo con Pd il sottoinsieme di P costituito dai polinomi
di grado d. Evidentemente la somma di due polinomi di grado d e la moltiplicazione
di un polinomio di grado d per un numero reale hanno grado d. Pd dunque un
sottospazio.

Altri esempi di sottospazi vettoriali si possono costruire a partire da due sottospazi S


e T di uno stesso spazio vettoriale V :
Siano S e T due sottoinsiemi non vuoti di V , per definizione porremo

Sottospazio somma
e sottospazio
intersezione
di due sottospazi

S + T = {s + t, s S, t T}.
S + T dunque un sottoinsieme dello spazio vettoriale V .
Se S e T sono sottospazi vettoriali di V allora S + T un
sottospazio vettoriale di V .

proposizione 4.3

Dimostrazione
Basta provare che S + T chiuso rispetto a somma e moltiplicazione.
Siano v e v  vettori di S + T allora si ha v = s + t e v  = s  + t  , dove s , s  S e
t, t  T. Ne segue dunque che v + v  = (s + s  ) + (t + t  ).
Daltra parte S e T sono chiusi rispetto alla somma e pertanto abbiamo (s + s  ) S e (t +
t  ) T.
Quindi v + v  S + T e ci prova che S + T chiuso rispetto alla somma. Siano ora R
e v S + T allora v = s + t, dove s S e t T, e dunque v = s + t.
Essendo S e T chiusi rispetto alla moltiplicazione ne segue che v S + T e ci prova che
S + T chiuso rispetto alla moltiplicazione.

definizione 4.11 Siano S e T sottospazi di uno spazi vettoriale V , il sottospazio

S + T verr chiamato sottospazio somma di S e T.

Siano S e T sottospazi vettoriali di V , allora linsieme S T


un sottospazio vettoriale di V .
proposizione 4.4

81

4 Spazi vettoriali
S T non vuoto in quanto contiene almeno il vettore nullo, che
appartiene ad ogni sottospazio di V . Siano v, v  S T, poich S e T sono chiusi rispetto
alla somma ne segue che v + v  appartiene sia a S che a T. Quindi S T chiuso rispetto
alla somma. Per quanto riguarda la moltiplicazione la dimostrazione del tutto simile e viene
lasciata al lettore.


Dimostrazione

definizione 4.12 Siano S e T sottospazi di V , il sottospazio ST verr chiamato

sottospazio intersezione di S e T.

definizione 4.13 Siano S e T due sottospazi vettoriali di V . Se S T = {0},

Somma diretta
di sottospazi

allora il sottospazio somma S +T si denota con S T e viene chiamato somma


diretta dei sottospazi S e T.

proposizione 4.5 Dati S e T due sottospazio vettoriali di V , ciascun vettore del

sottospazio S + T si scrive in modo unico come somma di un vettore di S e di uno


di T se, e solo se, S + T = S T.

) Per assurdo, supponiamo che S + T non sia somma diretta, i.e.


S T = {0}. Poich {0} sempre sottospazio di un qualsiasi spazio vettoriale (Esempio
4.1), allora linclusione di sottospazi {0} S T propria, i.e. S T contiene anche
vettori diversi dal vettore nullo. Per ciascun w S T di questi vettori non nulli si ha
w = 0 + w = w + 0 S + T, dato che in tale situazione 0 e w appartengono sia a S sia
a T. Questo comporta che w si scrive in due modi distinti come vettore di S + T, questo
contraddice lipotesi. Pertanto, necessariamente si ha S T = {0}.

Dimostrazione

) Supponiamo per assurdo che un vettore w S + T si scriva in due modi distinti


w = u 1 + v 1 = u 2 + v 2 , dove u 1 = u 2 S e v 1 = v 2 T. Dallultima eguaglianza
precedente abbiamo che
[4.1]

u 1 u 2 = v2 v1

Poich S e T sono sottospazi, si ha che 0 = u 1 u 2 S e 0 = v 2 v 1 T; dalla [4.1]


si ha pertanto che 0 = u 1 u 2 = v 2 v 1 S T. Questo contraddice lipotesi che
S + T = S T.

definizione 4.14 Due sottospazi vettoriali S e T di V si dicono supplementari

se S T = V .

82

4.3 Sistemi di vettori linearmente indipendenti

4.3

Sistemi di vettori linearmente indipendenti


definizione 4.15 Un sistema di vettori una successione finita v 1 , . . . , vr di

vettori appartenenti a uno spazio vettoriale V .


Questo vuol dire che i vettori considerati, e cio v 1 , . . . , vr , sono assegnati secondo
un ordine di successione prestabilito che quello dei loro indici.
In particolare possibile che due vettori di indici diversi siano uguali. Si pensi per
esempio ad una matrice con due righe uguali ed al sistema di vettori costituito dalla
successione delle sue righe, ordinate dalla prima allultima.
Nel seguito lespressione il sistema di vettori v 1 , . . . , vr verr usata per riferirsi alla
successione finita dei vettori v 1 , . . . , vr di V . Ancora pi semplicemente verr dora
in poi usata con lo stesso significato lespressione i vettori v 1 , . . . , vr .
Per indicare invece il sottoinsieme finito di V i cui elementi sono i vettori che compaiono nella successione considerata useremo la notazione {v 1 , . . . , vr }.
Possiamo ora cominciare questa sezione considerando lequazione vettoriale X 1 v 1 +
+X r vr = u, dove u e v 1 . . . vr sono vettori di uno spazio vettoriale V e X 1 . . . X r
sono delle indeterminate. Linsieme delle soluzioni di tale equazione linsieme S
Rr delle r -uple ordinate (1 , . . . , r ) di numeri reali tali che 1 v 1 + +r vr = u.
Come nel caso dei sistemi di equazioni lineari S pu essere vuoto oppure costituito
da una sola r -upla oppure infinito. Vediamo alcuni semplici esempi:

Esempio 4.6 Quattro punti nello spazio

Siano O, A, B, C quattro punti dello spazio ordinario, non contenuti in uno stesso piano.
Siano poi a, b, c i vettori geometrici rappresentati rispettivamente dai segmenti orientati
OA, OB, OC.
Allora lequazione vettoriale X a + Y b = c non ha soluzioni. Infatti ogni vettore geometrico
a + b rappresentato da un unico segmento orientato OD tale che O, A, B, D sono punti
di uno stesso piano (figura 4.8). Poich C non nel piano determinato da O, A, B ne segue
che a + b = c, qualunque siano e . Quindi lequazione non ha soluzioni.

Esempio 4.7 Tre vettori in R4


In R4 consideriamo i vettori a = (1, 1, 1, 1), b = (1, 1, 1, 0), c = (1, 1, 0, 0). facile
vericare che esiste ununica soluzione dellequazione vettoriale X a + Yb + Z c = 0.
Per determinarne le soluzioni basta infatti osservare che X a + Yb + Z c = (X + Y + Z, X +
Y + Z, X + Y, X).

83

c
a

Ob B

figura 4.8 Quattro punti dello spazio ordinario non in uno


stesso piano

4 Spazi vettoriali
Quindi lequazione vettoriale considerata equivalente allequazione (X + Y + Z, X + Y +
Z, X + Y, X) = (0, 0, 0, 0) e cio al sistema di equazioni lineari X + Y + Z = 0, X + Y + Z =
0, X + Y = 0, X = 0 la cui unica soluzione si ottiene ponendo X = Y = Z = 0.

Esempio 4.8 r vettori in V


Siano v1 , . . . , vr vettori di uno spazio vettoriale V e sia vr = v1 + + vr1 ,, dove r 2.
Allora lequazione vettoriale X1 v1 + + Xr vr = 0 ha innite soluzioni. Sostituendo infatti
vr con v1 + + vr1 si ottiene lequazione
(X1 + Xr )v1 + + (Xr1 + Xr )vr1 = 0
che equivale alla precedente e le cui soluzioni sono quelle del sistema
X1 + Xr = = Xr1 + Xr = 0
Le soluzioni sono quindi le innite r-uple del tipo (t, . . . , t, t), t R. La soluzione nulla
X1 = = Xr = 0 una delle soluzioni dellequazione X1 v1 + + Xr vr = 0.
Assegnati i vettori v1 , . . . , vr di fondamentale importanza, come vedremo subito, distinguere il caso in cui essa lunica soluzione dal caso in cui essa non lo sia.

definizione 4.16 Una combinazione lineare dei vettori v 1 , . . . , vr un vettore

u = 1 v 1 + + vr , dove 1 , . . . , r sono numeri reali.

1 , . . . , r vengono chiamati i coefficienti della combinazione lineare considerata.


Dalla definizione segue immediatamente che
Siano u e v 1 , . . . , vr vettori di uno spazio vettoriale V . Allora u
una combinazione lineare dei vettori v 1 , . . . , vr se e solo se lequazione X 1 v 1 +
+ X r vr = u ha almeno una soluzione.

proposizione 4.6

definizione 4.17 Siano v 1 , . . . , vr vettori di uno spazio vettoriale V . Si dice

Vettori linearmente
indipendenti

che tali vettori sono linearmente indipendenti se la soluzione nulla lunica


soluzione dellequazione X 1 v 1 + + X r vr = 0.
In caso contrario tali vettori si diranno linearmente dipendenti: v 1 , . . . , vr sono dunque linearmente dipendenti se, e solo se, esiste una combinazione lineare
1 v 1 + + r vr = 0
in cui almeno un coefficiente i diverso da 0.
84

4.3 Sistemi di vettori linearmente indipendenti

Osservazione 4.4
certamente utile sottolineare il fatto che il vettore nullo ce linearmente indipendenti se, e solo se, v1 + +r vr =
in ogni caso una combinazione lineare dei vettori v1 , . . . , vr , 0 1 = = r = 0.
semplicemente perch 0v1 + + 0vr = 0.
Questultima implicazione infatti vera se e solo se lunica
Naturalmente questo non implica che siano linearmente di- soluzione dellequazione X1 v1 + +Xr vr = 0 la soluzione
pendenti i vettori v1 , . . . , vr . I vettori v1 , . . . , vr saranno inve- nulla.

Esempio 4.9 Vettori linearmente dipendenti


Il vettore nullo 0 linearmente dipendente perch 10 = 0. Pi in generale se uno dei vettori
v1 , . . . , vr il vettore nullo allora tali vettori sono linearmente dipendenti. Se per esempio
vr = 0 allora si ha
0v1 + + 0vr1 + 1vr = 0
e quindi v1 , . . . , vr sono linearmente dipendenti.

I vettori v 1 , . . . , vr sono linearmente dipendenti se, e solo se,


uno di essi combinazione lineare dei rimanenti.

proposizione 4.7

Dimostrazione
Se v 1 , . . . , vr sono linearmente dipendenti, esiste una combinazione
lineare u 1 v 1 + . . . u r vr = 0 tale che almeno un coefficiente u i non nullo. Allora si ha
1 
evidentemente v i = u i
j =i u j v j .


Viceversa sia v i =
j =i t j v j allora v i
j =i t j v j = 0. In tale combinazione lineare il
coefficiente di v i 1, quindi v 1 , . . . , vr sono linearmente dipendenti.


Esempio 4.10 Sistemi formati da uno e da due vettori


1.

2.

Sia v un solo vettore. Se v = 0 gi sappiamo che v linearmente dipendente.


Se viceversa v linearmente dipendente, allora esiste = 0 tale che v = 0.
Moltiplicando i membri di tale uguaglianza per 1 si ottiene v = 0. Possiamo quindi
concludere che un solo v linearmente indipendente se e solo se v = 0.
Due vettori v1 , v2 si dicono proporzionali o paralleli se v1 = 2 v2 oppure v2 =
1 v1 , dove 1 , 2 sono numeri reali. Ci equivale a dire che uno dei due vettori
combinazione lineare dellaltro. Per la precedente proposizione possiamo quindi
concludere che v1 , v2 sono linearmente dipendenti se e solo se sono paralleli.

85

4 Spazi vettoriali

Esempio 4.11 Vettori geometrici


Siano a, b, c e d quattro vettori geometrici rappresentati rispettivamente dai segmenti orientati OA, OB, OC, OD: allora essi sono linearmente dipendenti. Dimostreremo tale propriet
nel caso in cui O, A, B e C non sono contenuti in uno stesso piano, lasciando al lettore la verica degli altri casi. Siano , , i piani determinati rispettivamente dai punti: OBC, OAC,
OAB. Siano poi D , D , D i piani per D rispettivamente paralleli a , , . Si consideri il
parallelepipedo i cui vertici sono i punti O, D e inoltre i punti A = OA D , B = OB D ,
C = OC D e E = D , F = D , G = D .
Si ha allora d = a + b + c , dove a = a , b = b, c = c perch i vettori a e a , b e b ,
c e c sono paralleli. Ne segue che a + b + c d = 0.
Il coefciente di d diverso da 0 quindi a, b, c e d sono linearmente dipendenti.

Dora in poi indicheremo linsieme delle combinazioni lineari di v1 , . . . , vr con


[4.2]

Lin(v1 , . . . , vr ).

proposizione 4.8

Lin(v 1 , . . . , vr ) un sottospazio vettoriale di V .

Siano u, t due vettori qualsiasi appartenenti a Lin(v 1 , . . . , vr ) allora


u = 1 v 1 + + r vr e t = 1 v 1 + + r vr e quindi u + t = (1 + 1 )v 1 + +
(r + r )vr Lin(v 1 , . . . , vr ).

Dimostrazione

Per ogni t = 1 v 1 + + r vr Lin(v 1 , . . . , vr ) e per ogni R si ha inoltre


t = (1 )v 1 + + (r )vr Lin(v 1 , . . . , vr ).
Lin(v 1 , . . . , vr ) dunque un sottoinsieme chiuso di V rispetto alle operazioni di somma e
di moltiplicazione per un reale, quindi un sottospazio di V .


Righe e colonne
di una matrice
e indipendenza lineare

Siano R 1 , . . . , R p e C 1 , . . . , C q le righe e le colonne di una matrice A. R 1 , . . . , R p


sono allora vettori dello spazio vettoriale M1q delle matrici 1 q . C 1 , . . . , C q sono
invece vettori dello spazio vettoriale M p1 . In entrambi i casi naturale chiedersi se
i vettori considerati siano linearmente dipendenti.
Le colonne C 1 , . . . , C q sono linearmente dipendenti se, e solo se,

X1
0
.
..
ha soluzioni diverse dalla soluzione nulla il sistema omogeneo A
. = .. .

proposizione 4.9

Xq

86

4.4 Spazi vettoriale di dimensione nita


Nello stesso modo le righe R 1 , . . . , R p sono linearmente dipendenti se, e solo se, ha


soluzioni diverse dalla soluzione nulla il sistema omogeneo Y1 . . . Y p A =


0 ... 0 .
Dimostrazione

X
..1
Basta osservare che A
= X 1 C 1 +. . . X q C q e quindi che linsieme
.
Xq

delle soluzioni del primo sistema omogeneo non


altro che linsieme delle soluzioni delle0
.
quazione vettoriale X 1 C 1 + + X q C q = .. . Quindi C 1 , . . . , C q sono linearmente
0

dipendenti se, e solo se, il sistema omogeneo ha soluzioni non nulle. Per le righe R 1 , . . . , R p
la dimostrazione analoga.


4.4

Spazi vettoriale di dimensione nita

Nel seguito studieremo soprattutto quegli spazi vettoriali V per i quali ogni vettore
u combinazione lineare di un sistema di vettori v 1 , . . . , vr .
definizione 4.18 Un sistema di vettori v 1 , . . . , vr di uno spazio vettoriale V

un sistema di generatori di V se V = Lin(v1 , . . . , vr ).

definizione 4.19 Uno spazio vettoriale ha dimensione finita se per esso esiste un

sistema di generatori.
Se il sistema di vettori v 1 , . . . , vr un sistema di generatori di V diremo che V
generato dai vettori v 1 , . . . , vr od anche che i vettori v 1 , . . . , vr generano V . Hanno
dimensione finita quasi tutti gli esempi finora considerati:
Esempio 4.12 Spazi vettoriali di dimensione nita
1.
2.

3.

0 = {0}: Lo spazio nullo, il cui unico elemento il vettore nullo, ovviamente


generato dal vettore nullo e quindi ha dimensione nita.
Rq : Sia i = 1, . . . , q e sia ei la q-upla il cui termine i-esimo 1 mentre gli altri
sono nulli. Allora i vettori e1 , . . . , eq sono un sistema di generatori di Rq . Infatti
si verica facilmente che, per ogni u = (u 1 , . . . , u q ) Rq , vale luguaglianza
u = u1 e1 + + uq eq .
Mpq : Sia Eij la matrice p q i cui termini sono tutti nulli salvo quello di posto i, j che uguale a 1. Allora per ogni matrice A = (aij ) Mpq si ha A =

1ip,1jq aij Eij .
Le matrici E11 , E12 , . . . , Ep,q1 , Ep,q sono dunque un sistema di generatori per lo
spazio vettoriale delle matrici p q, che ha pertanto dimensione nita.

87

Sistema di generatori

4 Spazi vettoriali
4.

V: Fissiamo per semplicit un cubo di vertici i punti O, A, B, C: un sistema di generatori di V allora costituito dai vettori a, b, c rispettivamente rappresentati dai segmenti orientati OA, OB, OC. Sia infatti u un vettore geometrico e sia OU il segmento
orientato di origine O che lo rappresenta. Consideriamo:

il punto H, proiezione ortogonale (i.e. perpendicolare) di U sul piano


determinato dai punti O, A, B;
il vettore n rappresentato dal segmento orientato HU.

Si noti che HU e OC giacciono su rette parallele, quindi n = u3 c. Daltra parte


h = u n il vettore rappresentato dal segmento orientato OH. Poich H tale
vettore combinazione lineare di a e b: si considerino infatti i punti A , B proiezioni
perpendicolari di H sulle rette OA e OB. Indicando con a e b i vettori rappresentati
da OA e OB otteniamo h = a + b = u1 a + u2 b.
Ne segue che u = h + n = u1 a + u2 b + u3 c.

Spazio vettoriale che


non ha dimensione nita

Non ha dimensione finita lo spazio P dei polinomi a coefficienti reali in una indeterminata T. Per dimostrarlo baster provare che ogni sistema di vettori P1 (T), . . . ,
Pr (T) di P non un sistema di generatori. A tale scopo si noti che il vettore Pi (T),
essendo un polinomio, ha un grado di . Sia d il massimo di tali gradi, allora T d +1
non combinazione lineare dei vettori P1 (T), . . . , Pr (T). Una tale combinazione
u 1 P1 (T) + + u r P (T) infatti un polinomio di grado d e non pu quindi
essere T d +1 . Il sistema di vettori P1 (T), . . . , Pr (T) non dunque un sistema di
generatori di P.
definizione 4.20 Una base di uno spazio vettoriale V un sistema di generatori

Base

v 1 , . . . , vr tale che i vettori v 1 , . . . , vr sono linearmente indipendenti.

Nel seguito proveremo varie caratterizzazioni della nozione di base, che una delle
pi importanti nella teoria degli spazi vettoriali. Pi precisamente sia
v = v 1 , . . . , vr
un sistema di vettori di uno spazio vettoriale V e sia V diverso dallo spazio nullo.
Proveremo che sono equivalenti le seguenti propriet:
1.
2.
3.

v una base;
v un sistema di generatori formato dal minimo numero possibile di vettori;
v formato dal massimo numero possibile di vettori linearmente indipendenti.

Tutto ci verr ulteriormente precisato e dimostrato nel corso di questa sezione.


lemma 4.1 Siano w 1 , . . . , w q vettori di uno spazio vettoriale V e sia v 1 , . . . , v p

un sistema di generatori di V . Se q > p, allora w1 , . . . , wq sono linearmente


dipendenti.
88

4.4 Spazi vettoriale di dimensione nita


Poich v 1 , . . . , v p un sistema di generatori avremo w j = a 1 j v 1 +
+ a p j v p per ogni j = 1, . . . , q . Consideriamo la matrice A = (a i j ) i cui termini
sono i precedenti coefficienti a i j , i = 1, . . .
, p. Eseguendo

u il prodotto di A per la colonna
X1
..1
..
di indeterminate X 1 , . . . , X q otteniamo A
=
. , dove u i = a i1 X 1 + +
.

Dimostrazione

up

Xq

a iq X q , i = 1, . . . , p.

Il prodotto della riga di vettori (v 1 . . . v p ) per A d invece ( v 1

... v p

) A = ( w1

... wq

).

Da tali uguaglianze e dalla propriet associativa del prodotto di matrici segue




v1

...

vp

u1

..
. = v1

...

vp

X1

A ... =

up

Xq


= w1

...

wq

X1
..
.
Xq

e quindi u 1 v 1 + + u p v p = X 1 w 1 + + X q wq .
Poich si ha q > p il sistema omogeneo di p equazioni lineari in q incognite u 1 = =
u q = 0 ammette, come sappiamo, una soluzione non nulla. Sia (c 1 , . . . , c q ) una tale soluzione: sostituendo nella penultima uguaglianza c i con X i si ottiene c 1 w 1 + +c q wq = 0.
Quindi i vettori w1 , . . . , wq sono linearmente dipendenti.

teorema 4.1 Sia v 1 , . . . , v p una base di uno spazio vettoriale V e sia w 1 , . . . , w q

un sistema di generatori di V , allora p q .

In particolare tutte le basi sono costituite da uno stesso numero di vettori.

Per il lemma precedente non si pu avere p > q : altrimenti i vettori


v 1 , . . . , v p sarebbero linearmente dipendenti e non formerebbero una base. Quindi p q .
Se anche w1 , . . . , wq una base allora, per ci che si appena dimostrato, vale sia p q
sia q p. Quindi p = q e tutte le basi hanno lo stesso numero di elementi.


Dimostrazione

Dal teorema segue che, se esistono delle basi di uno spazio vettoriale V , allora queste
sono esattamente i sistemi di generatori di V costituiti dal minimo numero possibile
di elementi.
89

4 Spazi vettoriali
Non abbiamo ancora esaminato il problema della esistenza di una base per uno spazio
vettoriale V di dimensione finita:
Sia V uno spazio vettoriale non nullo e di dimensione finita, allora
esistono delle basi di V .

teorema 4.2

Sia v = v1 , . . . , vr un sistema di generatori di V . Indicheremo con m il


numero massimo di vettori linearmente indipendenti di questa successione. Poich V uno
spazio vettoriale non nullo almeno uno dei generatori v 1 , . . . , vr non nullo e dunque un
vettore linearmente indipendente. Ne segue che m 1. A meno di riordinare in un altro
modo i vettori del sistema possiamo supporre che i primi m siano linearmente indipendenti.
Proviamo allora che il sistema di vettori b = v1 , . . . , v m una base di V . Gi sappiamo
che v 1 , . . . , v m sono linearmente indipendenti, resta quindi da provare che essi generano
V . Cominciamo a dimostrare che v i combinazione lineare di v 1 , . . . , v m per ogni i =
m +1, . . . , r . A tale scopo notiamo che, essendo m il massimo numero di vettori linearmente
indipendenti del sistema, i vettori v 1 , . . . , v m v i sono linearmente dipendenti. Quindi esiste
una combinazione lineare a i1 v 1 + + a im v m + ti v i = 0 in cui almeno un coefficiente
non nullo. In particolare si ha ti = 0: infatti ti = 0 implica a i1 v 1 + + a im v m = 0
e quindi a i1 = = a im = 0 poich v 1 , . . . , v m sono linearmente indipendenti. Ci
assurdo perch un coefficiente della precedente combinazione lineare non nullo. Poich
a
ti = 0 abbiamo v i = ti1i v 1 atim
vm .
i

Dimostrazione

Sia ora u V ; poich v 1 , . . . , vr un sistema di generatori abbiamo u = u 1 v 1 + +


u m v m + u m+1 v m+1 + + u r vr .
a

Sostituendo v i con ti1i v 1 atim


v m per ogni i = m + 1, . . . , r otteniamo infine
i




a1 1
a m+1 1
a
a
m
u = u1 t t
v 1 + + u m t1mm m+1
vm .
tm
1

Ogni vettore u V dunque combinazione lineare di v 1 , . . . , v m .



definizione 4.21 Siano a = a 1 , . . . , a s e b = b 1 , . . . , b r sistemi di vettori di

uno spazio vettoriale V , diremo che a contenuto in b o che b contiene a se


a 1 = bi1 , . . . , a s = bis , dove 1 i 1 < i 2 < < i s r .

Sia V uno spazio vettoriale non nullo, allora ogni suo sistema di
generatori contiene una base.

teorema 4.3

Basta applicare la dimostrazione del teorema precedente: in essa si coDimostrazione


struisce infatti, per ogni sistema di generatori v, una base contenuta in v.


90

4.4 Spazi vettoriale di dimensione nita


Lenunciato del successivo teorema tavolta chiamato Teorema di completamento a
una base di un sistema di vettori linearmente indipendenti.
teorema 4.4 Sia V uno spazio vettoriale di dimensione finita, allora ogni suo
sistema di vettori linearmente indipendenti contenuto in una base.

Dimostrazione
Siano v 1 , . . . , vr vettori linearmente indipendenti di V , se Lin(v 1 ,
. . . ,vr ) = V , v 1 , . . . , vr gi una base di V e non c altro da dimostrare. In caso contrario
esiste un vettore vr +1 di V che non appartiene a Lin(v 1 , . . . , vr ). Proviamo che i vettori
v 1 , . . . , vr +1 sono linearmente indipendenti. Sia infatti u 1 v 1 + + u r +1 vr +1 = 0, se
u
u r +1 = 0 allora vr +1 = u 1 v 1 uu r vr e quindi vr +1 Lin(v 1 , . . . , vr ). Poich
r +1

r +1

questo escluso per ipotesi abbiamo u r +1 = 0 e quindi u 1 v 1 + + u r vr = 0.


Poich v 1 , . . . , vr sono linearmente indipendenti ne segue che u 1 = = u r = u r +1 = 0.
Quindi i vettori v 1 , . . . , vr +1 sono linearmente indipendenti. Sia ora d il minimo numero di vettori di un sistema di generatori di V : ripetendo lo stesso argomento per i vettori
v 1 , . . . , vr +1 si otterr, dopo un numero finito di passaggi, un sistema di vettori linearmente indipendenti v = v 1 , . . . , v d . Proviamo allora che v un sistema di generatori di V : per
ogni u V si ha che i d + 1 vettori del sistema v 1 , . . . , v d , u sono in numero strettamente
maggiore del numero di vettori di un sistema di generatori. Per il Lemma 4.1 essi sono dunque linearmente dipendenti ed esiste una combinazione lineare u 1 v 1 + + u d v d + tu = 0
con qualche coefficiente nullo. Se t = 0 allora u 1 v 1 + + u d v d = 0 e, essendo v 1 , . . . , v d
linearmente indipendenti, u 1 = = u d = t = 0. Poich questo impossibile, si ha t = 0
u
e u = t1 v 1 utd v d . I vettori di v sono dunque un sistema di generatori linearmente
indipendenti e quindi v una base.


Per i precedenti teoremi ogni spazio vettoriale non nullo di dimensione finita ha delle
basi e queste hanno lo stesso numero di vettori m, in particolare m 1.
definizione 4.22 Sia V uno spazio vettoriale di dimensione finita, la dimensione

di V il numero di elementi di una sua base se V non lo spazio nullo.


Se V lo spazio nullo la dimensione di V 0.
La dimensione di V verr spesso indicata con dimV.
Osservazione 4.5
Uno spazio nullo ha dimensione nita ma non ha basi. linearmente indipendente.
Lunico suo vettore 0 genera infatti tale spazio ma non

teorema 4.5 Sia v = v 1 , . . . , v d un sistema di vettori linearmente indipendenti

di uno spazio vettoriale V di dimensione finita. Se d = dim V allora v una


base di V .
91

4 Spazi vettoriali
Sia u V . Per il Lemma 4.1 i vettori v 1 , . . . , v d , u sono linearmente
dipendenti. Stabilito questo, si applichi parola per parola lo stesso argomento usato al termine
della dimostrazione del Teorema 4.4 per provare che u combinazione lineare di v 1 , . . . , v d .


Dimostrazione

teorema 4.6 Sia W un sottospazio di uno spazio vettoriale V di dimensione finita.

Allora W ha dimensione finita e vale la disuguaglianza dim W dim V .


Se inoltre dim W = dim V , allora V = W.

Dimostrazione

Dal Lemma 4.1 segue che il numero dei vettori di un sistema di vettori
linearmente indipendenti e appartenenti a W dim V . Ci implica che esiste un massimo m per il numero di vettori di un tale sistema. Sia allora w = w1 , . . . , w m un sistema
di vettori linearmente indipendenti di W, applicando ancora una volta lultima parte della
dimostrazione del Teorema 4.4 si pu provare che w un sistema di generatori. Quindi w
una base e possiamo concludere che dim W = m dim V . Se infine m = dim V allora,
per il Teorema 4.5, i vettori w 1 , . . . , wm sono anche una base di V .


Dimensione degli spazi


conosciuti

Determineremo ora la dimensione degli spazi vettoriali di dimensione finita che pi


frequentemente abbiamo incontrato. Per calcolare la dimensione baster, per ognuno
di tali spazi, produrre una base e contare il numero dei suoi vettori.

dim 0 = 0
Abbiamo gi convenuto che tale spazio ha dimensione zero.
dim Rq = q
Sia e i la q -upla il cui termine i-esimo 1 mentre gli altri sono nulli. Abbiamo
gi osservato che per ogni u = (u 1 , . . . , u q ) Rq vale luguaglianza u 1 e 1 +
+ u q e q = (u 1 , . . . , u q ).
Da questa uguaglianza possiamo dedurre che il sistema di vettori e := e 1 ,
. . . , e q una base di Rq . Infatti ogni u Rq combinazione lineare dei
vettori di e , quindi e un sistema di generatori. Da essa segue inoltre che
u 1 e 1 + + u q e q = 0 (u 1 , . . . , u q ) = 0 u 1 = = u q = 0.
Quindi i vettori e 1 , . . . , e q sono linearmente indipendenti ed e una base.
definizione 4.23 La base e = e 1 , . . . , e q di Rq si dice base canonica di Rq .

92

dim M pq = pq
Siano i {1, . . . , p}, j {1, . . . , q } e sia E i j la matrice il cui termine di
posto i, j 1 mentre
 gli altri sono nulli. Abbiamo gi osservato in precedenza
che si ha A =
a i j E i j per ogni matrice A = (a i j ) M pq . Con gli stessi
argomenti del caso precedente si prova che il sistema di vettori costituito dalle

4.5 Componenti di un vettore e cambiamenti di base


matrici E 11 , . . . , E pq una base per lo spazio vettoriale M pq . Le matrici
E i j sono tante quanti i termini di una matrice p q . Quindi il loro numero
pq e tale la dimensione di M pq .

dim V = 3
Una base dello spazio dei vettori geometrici e costituita dalle classi di equipollenza dei segmenti orientati O A, O B, OC dove O, A, B, C sono quattro
punti non contenuti in uno stesso piano. Si pensi per esempio ai vertici di un
cubo.

dim Pd = d + 1
Come esercizio il lettore provi che il sottoinsieme Pd P i cui elementi
sono i polinomi di grado d un sottospazio vettoriale di P. Il lettore
verifichi che una base di Pd il sistema di vettori costituito dai polinomi
1, T, T 2 , . . . , T d .
Tali polinomi sono in numero di d + 1 e quindi Pd ha dimensione d + 1.

dim V W = dim V + dim W


Siano V e W due spazi vettoriali di dimensioni, rispettivamente, m e n.
Consideriamo lo spazio vettoriale prodotto V W (Definizione 4.6). Sia
v = v 1 , . . . , v m una base per V e w = w1 , . . . , wm una base per W. Presi
1 , . . . , m , 1 , . . . , n
due qualsiasi vettori
mv V e w W, esisteranno
n
R tali che v = i=1
i v i e w =

w
j =1 j j . Consideriamo V W.
Pertanto, i 
vettori comesopra, definiscono il vettore di V W dato da:
m
i v i , nj=1 j w j ).
(v, w) = ( i=1
Con semplici conti, osserviamo che la precedente equaglianza si scrive come:
(v, w) = 1 (v 1 , 0) + + m (v m , 0) + 1 (0, w1 ) + + n (0, wn ).
La precedente combinazione lineare contiene m + n addendi. Pertanto, visto
che v e w sono per ipotesi due basi e data la definizione di V W, la base
per V W determinata da v e w costituita da: z 1 := (v 1 , 0), . . . , z m :=
(v m , 0), z m+1 := (0, w 1 ), . . . , z m+n := (0, w n ) . Pertanto dim V W =
m + n.
Se V e W sono sottospazi di uno spazio vettoriale U , ci si pu chiedere per
esempio quanto la dimensione del sottospazio somma V + W o del sottospazio intersezione V W, conoscendo le dimensioni di V e W. La risposta non sempre cosi` immediata, come nel caso del prodotto V W.
Per affrontare questo argomento, che verr dimostrato nel Teorema 9.4, servono ulteriori preliminari che verranno introdotti nel corso dei successivi
capitoli.

4.5

Componenti di un vettore e cambiamenti di base

Sia v = v 1 , . . . , v q un sistema di generatori di uno spazio vettoriale V . Allora per


ogni u V esiste una q -upla (1 , . . . , q ) Rq tale che u = 1 v 1 + + q v q .
93

4 Spazi vettoriali
La q -upla (1 , . . . , q ) non necessariamente unica perch lequazione X 1 v 1 +
+ X q v q = u pu avere pi di una soluzione. Le basi di V sono esattamente quei
sistemi di generatori per i quali la precedente q -upla (1 , . . . , q ) unica per ogni u:

teorema 4.7 Sia v = v 1 , . . . , v q un sistema di generatori di uno spazio vettoriale

V . Sono equivalenti le condizioni:


1.
2.

v una base di V ;
per ogni u V esiste una e una sola q -upla (u 1 , . . . , u q ) Rq tale che
u = u 1v1 + + u q vq .

Dimostrazione
1 2: sia u V , supponiamo di avere 1 v 1 + + q v q = u =
1 v 1 + + q v q .
Allora (1 1 , . . . , q q ) soluzione dellequazione X 1 v 1 + + X q v q = 0. Essendo
v una base v 1 , . . . , v q sono linearmente indipendenti e lunica soluzione dellequazione
quella nulla, quindi 1 = 1 , . . . , q = q e ci implica 2.
2 1: 2 vale per u = 0 quindi lequazione X 1 v 1 + + X q v q = 0 ha come unica soluzione
quella nulla e v 1 , . . . , v q sono linearmente indipendenti.

definizione 4.24 Sia v = v 1 , . . . , v q una base di V e sia u = u 1 v 1 + +u q v q ;

diremo che u i la componente i-esima di u rispetto alla base v.

Esempio 4.13 Componenti di un vettore di Rq rispetto alla base canonica


Sia u = (u1 , . . . , uq ) Rq , abbiamo gi osservato che vale luguaglianza u = u1 e1 + +
uq eq , dove e = e1 , . . . , eq la base canonica di Rq . La base canonica ha dunque questa
specialissima propriet:
per ogni i = 1, . . . , q la componente i-esima del vettore u = (u1 , . . . , uq ) Rq ui .
Tale propriet vale soltanto per la base canonica di Rq e non per altre sue basi: si vedano i
vari esempi ed esercizi successivi.

Esempio 4.14 Componenti di un vettore di Rq rispetto a basi non canoniche


Considerando altre basi di Rq , diverse dalla base canonica, le componenti di un vettore
cambiano. A titolo di esempio consideriamo il sistema di vettori di R3 :
f1 = e1 , f2 = e1 + e2 , f3 = e1 + e2 + e3

94

4.5 Componenti di un vettore e cambiamenti di base


Lasciamo al lettore come esercizio la verica del fatto che i vettori f1 , f2 , f3 sono linearmente
indipendenti. Per il Teorema 4.5 tali vettori, essendo in numero uguale alla dimensione
dello spazio, costituiscono anche una base f di R3 . Si noti che
e1 = f1 , e2 = f2 f1 , e3 = f3 f2
Usando queste ultime uguaglianze, dato un qualsiasi vettore u che supponiamo abbia componenti u1 , u 2 , u 3 rispetto a e, possiamo calcolare le componenti di u rispetto alla base f.
Sostituendo ogni ei con la sua espressione come combinazione lineare dei vettori f1 , f2 , f3
si ottiene infatti
u = u1 e1 + u2 e2 + u3 e3 = (u1 u2 )f1 + (u2 u3 )f2 + u3f3
Le componenti di u rispetto alla base f sono pertanto u1 u2 , u2 u3 , u3 .

Esercizio 4.1
1.
2.

3.

4.

Sia f la base considerata nellesempio precedente, si scriva esplicitamente la terna


ordinata u R3 le cui componenti rispetto a f sono tutte uguali a 1.
Si verifichi che i polinomi: b1 = 1, b2 = 1 + T, b3 = 1 + T + T 2 formano una
base dello spazio vettoriale P2 dei polinomi di grado 2 in una indeterminata T.
Si calcolino le componenti del vettore T 2 rispetto a tale base.
Sia b = b1 , . . . , bq una base di uno spazio vettoriale V. Si provi che il sistema di
vettori c ottenuto moltiplicando per 2 i vettori di b una base. Per ogni vettore
u = u1b1 + + uqbq si calcolino le componenti di u rispetto a c.
Si determini almeno una base di R4 rispetto alla quale il vettore u = (1, 2, 3, 4)
abbia componenti tutte uguali a 1.

Sia V uno spazio vettoriale di dimensione finita. Assegnato un sistema di vettori


v = v 1 , . . . , v p di V naturale chiedersi se esiste un metodo semplice per:
1.
2.
3.

decidere se v un sistema di vettori linearmente indipendenti;


calcolare la dimensione di Lin(v 1 , . . . , v p );
determinare una base di Lin(v 1 , . . . , v p ).

A tale scopo spesso utile fissare una base di V b = b 1 , . . . , b q .


definizione 4.25 La matrice delle componenti di v rispetto alla base b la ma-

trice A = (a i j ) le cui colonne sono le componenti di v 1 , . . . , v p rispetto a b.


Ci vuol dire che v i = a 1i b 1 + + a q i b q , i = 1, . . . , p.

Il fatto che le componenti dei vettori di v rispetto a b costituiscano le colonne della matrice A dipende da motivazioni pi generali che verranno affrontate a breve
(Definizione 4.26, Proposizione 4.10 e Teorema 4.9).
95

Matrice delle componenti


di un sistema di vettori
rispetto a una base

4 Spazi vettoriali
Per rispondere con facilit alle questioni 1, 2 e 3, vogliamo adottare il procedimento di riduzione di Gauss-Jordan (Par. 1.3), che si considera sulle righe di una matrice. Pertanto, esclusivamente per questo motivo tecnico, data A come nella Definizione 4.25, nel risultato seguente passeremo da A ad t A. Come vedremo nelle
conseguenze (Corollari 4.1, 4.2 e 4.3), tutto sar formulato in termini di A.
teorema 4.8 Sia B = (b i j ) una matrice ridotta per righe e ottenuta da t A con il

procedimento di riduzione di Gauss-Jordan (par. 1.3). Allora una base di Lin(v)


costituita dai vettori w1 = bi1 1 b 1 + + bi1 q b q , . . . , wir = bir 1 b 1 + +
bir q b q , dove i 1 , . . . , ir sono gli indici delle r righe non nulle di B.

Dalla definizione di A, le righe di t A sono le componenti di v rispetto a


b. Sia A  una matrice ottenuta da t A mediante una modificazione elementare di una riga e
sia v  = v 1 , . . . , v p il sistema di vettori le cui componenti sono le righe di A  . sufficiente
provare che v e v  generano lo stesso spazio e cio che Lin(v) = Lin(v  ). Supponiamo che
A  sia ottenuta sostituendo la riga R i di t A con la riga R i + c R j , i = j . Ci vuol dire che,
per quanto riguarda i sistemi di vettori v e v  si ha v i = v i + c v j , mentre v k = v k per
ogni k = i. Si noti allora che u = u 1 v 1 + + u p v p u = u 1 v 1 + + u q v q dove
u k = u k per k = j e u j = u j + c . Ma allora u Lin(v) se e solo se u Lin(v  ) e quindi
Lin(v) = Lin(v  ). Se la modificazione elementare con cui si ottiene A  da t A lo scambio
di due righe oppure la moltiplicazione di una riga per una costante k = 0, allora immediato
oppure molto facile dimostrare che Lin(v) = Lin(v  ). Pertanto la dimostrazione di questi
ultimi due casi lasciata al lettore.


Dimostrazione

Poich il numero di righe non nulle di B il rango di t A, e poich, dalla Proposizione 2.8, A e t A hanno lo stesso rango, il successivo corollario immediato.
La dimensione di Lin(v) uguale al rango r della matrice A
nella Definizione 4.25.

corollario 4.1

I vettori v 1 , . . . , v p sono vettori linearmente indipendenti se, e


solo se, il rango r di A uguale a p.

corollario 4.2

Se r = p allora, per il Teorema 4.8, Lin(v) ha dimensione p. Daltra


Dimostrazione
parte v un sistema di generatori di Lin(v) e quindi, dal Teorema 4.3, esso contiene una
base u di Lin(v). Poich u formata da p elementi ne segue che u = v. I vettori di v
sono dunque una base e quindi linearmente indipendenti. Viceversa se i vettori di v sono
linearmente indipendenti allora v una base di Lin(v), quindi p = dim Lin(v). Dal
Teorema 4.8, segue allora p = r .


96

4.5 Componenti di un vettore e cambiamenti di base


In particolare si ha
corollario 4.3 Sia p = dim V . Allora un sistema di p vettori v 1 , . . . , v p una

base di V se, e solo se, det A = 0.

Dimostrazione Basta ricordare che det A = 0 se, e solo se, il rango di A p e applicare
il corollario precedente.

Abbiamo gi osservato che esistono pi basi per uno spazio vettoriale di V di dimensione finita. Vogliamo ora affrontare il seguente problema:
Assegnate su V due basi a e b come determinare le componenti di un
vettore rispetto alla base b in funzione delle sue componenti rispetto alla
base a ?
Pi precisamente sia v V e dim V = n; allora abbiamo
[4.3]

x 1a 1 + + x n a n = v = y 1b 1 + + y n b n

Vogliamo scrivere la n-upla di componenti (y 1 , . . . , y n ) in funzione di x 1 , . . . , x n .


A tale scopo consideriamo la matrice delle componenti di b rispetto alla base a
come nella Definizione 4.25. Questa la matrice quadrata di ordine n Ma b :=
dei vet(m i j ), 1 i, j n le cui colonne sono ordinatamente le componenti

m1 j
..
tori b 1 , . . . , b n rispetto alla base a . Pertanto, la j -esima colonna di Ma b
.
mn j

dove b j = m 1 j a 1 + + m n j a n .
definizione 4.26 La matrice Ma b definita come sopra si chiama la matrice del

cambiamento di base (o di passaggio) dalla base a alla base b.

Notiamo che, dalla Definizione 4.26, Ma b definita anche dalla seguente equaglianza
matriciale:
[4.4]

(a 1 . . . a n ) Ma b = (b 1 . . . b n )

dove (a 1 . . . a n ) e (b 1 . . . b n ) devono intendersi come matrici 1n con gli elementi


di riga che sono vettori e dove al primo membro si considera lusuale prodotto righe
per colonne.
97

Matrice cambiamento
di base e cambiamenti
di componenti

4 Spazi vettoriali

Osservazione 4.6
Notiamo che, poich le colonne di Mab sono date dalle componenti dei vettori della base b espresse rispetto alla base a ,
dal Teorema 3.3 e dal Corollario 4.3, la matrice Mab invertibile. Pertanto, moltiplicando a destra ambo i membri della
1
[4.4] per Mab , si ottiene lequaglianza matriciale:
[4.5]

se, se consideriamo vicendevolmente la matrice Mba che la


matrice cambiamento di base dalla base b alla base a , i.e.
quella matrice che ha per colonne le componenti dei vettori della base a espressi rispetto alla base b, da quanto
sopra discusso, essa lunica matrice a soddisfare la relazione

(a1 . . . an ) = (b1 . . . bn )Mab

(b 1 . . . b n ) Mba = (a 1 . . . a n )

[4.6]

Daltra parte, per denizione di matrice cambiamento di ba-

Confrontando ambo i membri di [4.5] e [4.6], abbiamo la seguente:


Siano a e b due basi di uno spazio vettoriale V . Sia Ma b la
1
matrice cambiamento di base dalla base a alla base b. Allora, Mba = Ma b .

proposizione 4.10

A cosa servono le matrici cambiamento di base per le questioni che ci siamo posti?
Per comprenderlo, consideriamo lespressione di v come in [4.3] in forma matriciale:


x1
y1
..
..
[4.7]
v = (a 1 . . . a n ) . = (b 1 . . . b n ) .
xn

yn

ottenuta moltiplicando la matrice riga di ciascuna base per la matrice colonna delle
componenti di v espresse nella rispettiva base. Se consideriamo [4.4], lidentit [4.7]
diventa:


x1
y1
..
..
v = (a 1 . . . a n ) . = (a 1 . . . a n ) Ma b .
[4.8]
xn

yn

Pertanto, gli ultimi due membri delle eguaglianze in [4.8] esprimono il medesimo
vettore v in funzione delle sue componenti rispetto alla medesima base a . Poich le
componenti di un vettore rispetto

data base
y 1sono

univocamente determinate,
xa1 una
.
.
vuol dire che vale leguaglianza: .. = Ma b .. .
xn

Poich, come abbiamo visto, Ma b

yn

x1

y1

..
..
1
invertibile vale anche . = Ma b
. .
yn

xn

Utilizzando quanto discusso fino ad ora, abbiamo quindi provato il seguente:


98

4.5 Componenti di un vettore e cambiamenti di base


Siano a e b due basi di uno spazio vettoriale V di dimensione n.
Sia Ma b (rispettivamente, Mba ) la matrice
del cambiamento di base da a a b
x1

..
(rispettivamente, da b ad a ). Sia . la colonna delle componenti di un vettore
teorema 4.9

xn

v V rispetto ad a .

Allora la colonna delle componenti di v rispetto a b

1
Ma b

x1

x1

..
.
. = Mba .. .
xn

xn

y1

..
la colonna delle componenti di v rispetto a b, allora la
Viceversa, se
.
yn
x1

x1

..
.
1
colonna delle componenti di v rispetto ad a Mba
. = Ma b .. .
xn

xn

Notiamo pertanto che, data la matrice Ma b di passaggio dalla base a alla base b, per
vedere come si trasformano le componenti di un vettore, date rispetto ad a , nella
base b si deve usare linversa di Ma b , o equivalentemente la matrice del passaggio da
b ad a . Analogo discorso per Mba .
Esercizio 4.2 Trasformazione di coordinate in R3
Consideriamo le basi
1 1e1e
f dellEsempio 4.14. La matrice cambiamento di base da e a f
la matrice Mef = 0 1 1 . Ricordiamo che u il vettore che, rispetto a e, ha componenti
001

u1
u2
u3

. Poich detMef = 1, la matrice inversa coincider con la trasposta della matrice C


1 00

1
dei cofattori di Mef . Pertanto, svolgendo i conti, si trova che C = 1 1 0 , quindi Mef =
0 1 1
1 1 0

0 1 1 . Pertanto, le coordinate di u rispetto a f si ottengono calcolando il prodotto tra


0 0 1
1 1 0
u1 u1 u2
u2
= u2 u3 Ritroviamo quindi lo stesso risultato che, con altro
matrici 0 1 1
0 0 1

u3

u3

metodo, abbiamo determinato nellEsempio 4.14.

Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero o esame in corsi universitari (cfr. e.g. [2], [4] e [10]).

Soluzioni

Quesiti ed esercizi
1.
Dire se i seguenti sottoinsiemi di R3 sono spazi vettoriali:

(i)
(ii)

W1 = {(a, b, c) R3 | a + b + c = 0};
W2 = {(a, b, c) R3 | a + b + c 1};

99

4 Spazi vettoriali
(iii)

W3 = {(a, b, c) R3 | a2 + b2 + c2 = 0}.

2.
(ii)
Sia W = Lin(w1 , w2 , w3 , w4 ) il sottospazio vettoriale di R4
generato dai quattro vettori indicati che, rispetto alla base
canonica e di R4 , hanno componenti
(iii)
w1 = (0, 1, 1, 1), w2 = (1, 0, 1, 2),
w3 = (1, 1, 2, 1), w4 = (0, 0, 2, 0)

stabilire se essi sono linearmente indipendenti


in P3 ;
determinare la dimensione del sottospazio vettoriale Lin(P(T), Q(T)) e stabilire se T 2 3T
Lin(P(T), Q(T));
determinare la dimensione del sottospazio vettoriale Lin(Q(T), R(T)) e stabilire se T 2 3T + 2
Lin(Q(T), R(T)).

estrarre da tale sistema di generatori una base w di 5.


Determinare per quali valori del parametro k R i seguenW e determinare quindi dimW;
ti vettori di R3 , di componenti rispetto alla base canonica e
(ii)
completare la base w ad una base b di R4 .
v1 = (1, 2k, 0), v2 = (2, 1, 3k), v3 = (1, 0, 2), costituiscono
3.
una base di R3 .
4
Si consideri in R il sottoinsieme W := {(a, b, a b, 0) | 6.
a, b R}:
In R3 , munito della base canonica e, siano assegnati i seguenti vettori: v1 = (0, 1, 1), v2 = (1, 0, 1), v3 =
(i)
vericare che W un sottospazio vettoriale di R4 e
(1, 1, 3), le cui componenti sono espresse rispetto ad e.
calcolarne la dimensione;
(ii)
vericare che U := Lin(e1 , e4 ), dove ei denota li(i)
vericare che v1 , v2 e v3 sono generatori per R3 e che
esimo vettore della base canonica e di R4 , un
sono linearmente indipendenti;
sottospazio di R4 che supplementare a W.
(ii)
considerato il vettore w che, rispetto ad e, ha com(iii)
determinare il valore del parametro reale k, in moponenti w = (1, 0, 2), calcolare le componenti di w
do che il vettore parametrico, che ha componenti
rispetto alla base v data dai vettori v1 , v2 , v3 ;
rispetto alla base e
(iii)
determinare le componenti del vettore u R3 riuk := (3k 2, k + 4, k 7, 0)
spetto alla base e sapendo che, rispetto alla base v,
esso ha coordinate (1, 2, 1).
formi con i vettori v = (5, 2, 3, 0) e w =
(4, 3, 1, 0), espressi rispetto ad e, un insieme di
7.
vettori linearmente dipendenti in R4 .
In R4 , munito della base canonica e, siano assegnati i vettori
v1 = e1 e3 +e4 , v2 = e2 e4 , e v3 = e3 +e4 . Vericare che
4.
Sia P3 lo spazio vettoriale dei polinomi in unindeterminata i tre vettori sono linearmente indipendenti e determinare un
vettore v4 R4 tale che valgano contemporaneamente le
T e di grado 3:
condizioni:
(i)
considerati i seguenti polinomi
(i)

P(T) = T 2 T 3 , Q(T) = 1 T,
R(T) = T 2 T

100

(i)
(ii)

v := v1 , v2 , v3 , v4 sia una base di R4 , e


il vettore w, di componenti (1,0, 1,0) rispetto ad e,
abbia componenti (0, 1, 1, 1) in base v.

5
Prodotti scalari
5.1

Prodotto scalare geometrico

Come abbiamo visto, lo spazio vettoriale V dei vettori geometrici pu essere considerato come un prototipo della nozione pi generale di spazio vettoriale. Esattamente
la stessa cosa avviene per la nozione generale di prodotto scalare, che storicamente
preceduta dallesempio particolare del prodotto scalare di vettori geometrici. Ricorderemo ora brevemente, e senza approfondire tutte le dimostrazioni, la definizione
ed alcune propriet del prodotto scalare di vettori geometrici. Avremo cura di mettere in evidenza quelle propriet che verranno poi inserite nella definizione generale
di prodotto scalare.
il numero reale
Assegnati due vettori geometrici non nulli a e b indicheremo con ab
compreso tra 0 e che misura langolo definito dalle semirette O A e O B, dove il
punto O scelto a piacere e O A, O B sono segmenti orientati che rappresentano
non dipende dalla
rispettivamente a e b (figura 5.1). Non difficile verificare che ab
= 0.
scelta del punto O. Se a oppure b nullo converremo che ab

Il coseno dellangolo compreso tra a e b il numero reale cos (ab).


definizione 5.1 Sia V lo spazio vettoriale dei vettori geometrici e siano a e b due

suoi vettori. Il prodotto scalare geometrico di a e b il numero reale ab =

| a || b | cos (ab).

Il prodotto scalare geometrico , come si gi osservato, un esempio particolare di una


pi generale definizione di prodotto scalare. Nei testi in cui soltanto questo particolare esempio viene considerato esso viene semplicemente chiamato prodotto scalare.
Abbiamo qui aggiunto laggettivo geometrico per distinguere con un nome diverso
lesempio particolare dalla definizione generale: esattamente come abbiamo fatto nel
caso dei termini vettori geometrici e vettori.
Poich aa
langolo nullo il suo coseno 1 e quindi a a =| a |2 .
Il prodotto scalare geometrico ha la seguente interpretazione geometrica: sia a non
ab
nullo allora il vettore p = aa a rappresentato dal segmento orientato OC , dove C
la proiezione perpendicolare del punto B sulla retta O A. La trigonometria ci dice
ab
infatti che |a| ha come valore assoluto la lunghezza del segmento OC ed positivo
a

se OC e O A hanno lo stesso verso, negativo in caso contrario. Daltra parte |a|


un vettore di lunghezza 1 che parallelo ad a e ne ha lo stesso verso. Utilizzando
101

^
ab
O
b

figura 5.1 Langolo denito


da OA e OB

5 Prodotti scalari
queste due osservazioni, il lettore potr comprendere la precedente uguaglianza. Naturalmente p parallelo al vettore a. utile osservare, in vista di alcune applicazioni
successive, che n = b p un vettore perpendicolare ad a. Ricordiamo che
definizione 5.2 Due vettori geometrici u e v si dicono perpendicolari se sono

non nulli e hanno direzioni perpendicolari oppure se uno di essi nullo.


Da cos( 2 ) = 0 e dalla definizione segue immediatamente che: u e v sono perpendicolari se, e solo se, u v = 0.
Il prodotto scalare geometrico determina, ed determinato, dalla funzione
G :VVR
che ad ogni coppia ordinata (a, b) V V associa il numero reale G(a, b) =| a |

| b | cos(ab).
Ogni propriet del prodotto scalare di vettori geometrici pu dunque essere descritta nei termini di una corrispondente propriet della funzione G. Esaminiamo da
entrambi i punti di vista le propriet che ci interessano:
Propriet commutativa
a, b V, a b = b a,

ovvero

G(a, b) = G(b, a)

La propriet segue subito dalla definizione di prodotto scalare geometrico e dal fatto
= ba.

che ab
Propriet distributiva rispetto alla somma di vettori geometrici
a, b, c V, a (b + c) = a b + a c ovvero
G(a, b + c) = G(a, b) + G(a, c)
Si noti che, essendo valida la propriet commutativa, vale anche G(b + c, a) =
G(b, a) + G(c, a).
Propriet di bilinearit
a, b V e R, (a) b = (a b) = a (b), ovvero
G(a, b) = G(a, b) = G(a, b)

 = a(b)
 e che | v |=| | | v |, dove | |
La propriet segue osservando che (a)b
il valore assoluto del numero reale .
Propriet di positivit
a V, a = 0,

aa>0

La propriet segue dalluguaglianza a a =| a |2 .


102

5.2 Prodotti scalari


Un modo conveniente per calcolare un prodotto scalare geometrico consiste nel fissare una base i, j, k di V costituita da vettori di lunghezza 1 ed a due a due perpendicolari. Questo significa che i tre vettori della base sono rappresentati rispettivamente
dai segmenti orientati O I, O J , O K , dove i punti O, I, J , K sono vertici di uno
stesso cubo e O I , O J , O K sono lati questo cubo. Poich i vettori sono a due a due
perpendicolari abbiamo i j = i k = j k = 0; poich i vettori considerati
hanno lunghezza 1 avremo inoltre i i = j j = k k = 1.
Siano ora a = a 1 i + a 2 j + a 3 k e b = b 1 i + b 2 j + b 3 k, per calcolare a b possiamo
calcolare esplicitamente (a 1 i + a 2 j + a 3 k) (b 1 i + b 2 j + b 3 k). Applicando la propriet distributiva del prodotto scalare rispetto alla somma, utilizzando le precedenti
uguaglianze e svolgendo i calcoli si ottiene che (a 1 i+a 2 j+a 3 k)(b 1 i+b 2 j+b 3 k) =
a 1b1 + a 2b2 + a 3b3.
definizione 5.3 Una base ortonormale di V una base di V costituita da tre
vettori i, j, k che sono a due a due perpendicolari e di lungezza 1.

Sulla base delle ultime osservazioni svolte possiamo concludere questo paragrafo con
la propriet seguente:
proposizione 5.1 Se i, j, k una base ortonormale di V e se a = a 1 i+a 2 j+a 3 k

e b = b 1 i + b 2 j + b 3 k, allora il prodotto scalare geometrico a b la somma dei


prodotti delle componenti dello stesso indice, i.e. a b = a 1 b 1 + a 2 b 2 + a 3 b 3 .

5.2

Prodotti scalari

La nozione di prodotto scalare su uno spazio vettoriale qualsiasi la seguente.


definizione 5.4 Un prodotto scalare su uno spazio vettoriale V una funzione

F :V V R
dotata delle seguenti propriet:
1.
2.
3.
4.

propriet commutativa: x , y V , F (x , y ) = F (y , x );
propriet distributiva rispetto alla somma: x , y , z V , F (x , y +
z) = F (x , y ) + F (x , y ) e F (y + z, x ) = F (y , x ) + F (z, x );
propriet di bilinearit : x , y V e R, F (x , y ) = F (x , y ) =
F (x , y );
positivit: deve valere F (x , x ) > 0 per ogni x = 0 e F (0, 0) = 0.

103

5 Prodotti scalari
Per quanto riguarda la propriet distributiva si noti che la seconda parte di tale propriet segue dalla prima parte e dalla propriet commutativa. Essa poteva quindi
essere omessa dalla definizione, ma abbiamo preferito lasciarla in evidenza.
Sia b = b 1 , . . . , b q una base di uno spazio vettoriale V di dimensione q e sia
Fb : V V R
la funzione cos definita: (u, v) V V , Fb (u, v) = u 1 v1 + + u q vq =

i=1,...,q u i vi , dove u = u 1 b 1 + + u q b q e v = v1 b 1 + + vq b q .
La funzione Fb un esempio di prodotto scalare, infatti:


1.
Fb commutativa, infatti Fb (u, v) = u i vi = vi u i = Fb (v, u);
2.
per Fb vale la propriet distributiva, basti osservare che



Fb (u, v + t) =
u i (vi + ti ) =
u i vi +
u i ti =
i=1,...,q

3.

i=1,...,q

i=1,...,q

= Fb (u, v) + Fb (u, t)



qualunque siano i vettori u = u i b i , v = vi b i , t = ti b i ;
per quanto riguarda la propriet di bilinearit abbiamo



(u i )vi =
u i vi = Fb (u, v) =
u i (vi ) =
Fb (u, v) =
= Fb (u, v)

Cambiando la base b con unaltra base a ci si deve aspettare che il prodotto scalare
Fa : V V R
sia diverso dal prodotto scalare Fb . Su uno stesso spazio vettoriale V esistono in effetti
infiniti prodotti scalari. Per convincersene basta considerare un qualsiasi numero reale
k > 0 e la funzione
k Fb : V V R
che associa ad ogni coppia ordinata (u, v) V V il numero reale k Fb (u, v). Per
ogni k > 0 si verifica con molta facilit che la funzione k Fb un prodotto scalare.
Vediamo qualche altro esempio di prodotto scalare.

Esempio 5.1 Integrale di un prodotto di polinomi


Sia P lo spazio vettoriale dei polinomi in una indeterminata T e sia F : P P R la
funzione che alla coppia di polinomi (P(T ), Q(T )) = (P, Q) P P associa lintegrale
 1
PQdT.
0

104

5.2 Prodotti scalari


F un esempio di prodotto scalare su P. Poich PQ = QP ovvio che la propriet commutati1
1
1
va soddisfatta. Daltra parte si ha F(P, Q1 +Q2 ) = 0 P(Q1 +Q2 )dT = 0 PQ1 dT+ 0 PQ2 dT
1
poich lintegrale commuta con la somma di funzioni. Sia poi R, allora 0 GdT =
1
0 GdT per ogni funzione G, integrabile tra 0 e 1 e quindi F(P, Q) = F(P, Q) = F(P, Q).
Se inne P un polinomio non nullo, P 2 non nullo ed assume un valore 0 per ogni
numero reale. Inoltre P 2 si annulla soltanto per un numero nito di valori reali che sono le
1
radici di P. Usando tali osservazioni si pu provare che F(P, P) = 0 P 2 dT > 0, P P. Si
ha dunque F(P, P) 0 e F(P, P) = 0 se, e solo se, P nullo.

Esempio 5.2 Prodotto scalare standard su Rq


Su Rq abbiamo la base canonica e, quindi abbiamo il prodotto scalare
Fe : Rq Rq R
Siano x = (x1 , . . . xq ) e y = (y1 , . . . , yq ); allora x =
quindi Fe (x, y) = x1 y1 + + xq yq .

i=1,...,q xi ei

ey =

i=1,...,q yi ei ,

Questo particolare esempio si chiama prodotto scalare standard su Rq .

Esempio 5.3 Prodotto scalare determinato da tA A


Sia A una matrice quadrata di ordine q e di rango q, un ulteriore esempio di prodotto scalare
si denisce a partire da A nel modo indicato dal seguente
teorema 5.1 Sia A una matrice quadrata di ordine e di rango q e sia

F : Rq Rq R
la funzione cos definita: qualunque siano x = (x 1 , . . . , x q ) e y = (y 1 , . . . , y q )
y
.1
F (x , y ) = (x , . . . , x q )t A A .. . Allora F un prodotto scalare.
1

yq

Dimostrazione La propriet distributiva e la bilinearit di F sono di facile verifica con


un calcolo diretto, le lasciamo perci al lettore. Per verificare la propriet commutativa si
osservi che la matrice prodotto che si trova a destra nellultima uguaglianza uguale alla propria trasposta: semplicemente perch si tratta di una matrice 1 1. Daltra parte
la trasposta di tale matrice prodotto il prodotto in ordine
delle matrici traspo x inverso

1


.
ste dei fattori (Teorema 2.1) e cio y 1 , . . . , y q t A A .. . Poich tale espressione
xq

F (y , x ) ne segue che F (x , y ) = F (y , x ). Infine si deve verificare che F (x , x ) > 0, per


ogni x = (x 1 , . . . , x q ) non nullo. Sia (x 1 , . . . , x q )t A = (y 1 , . . . , y q ), passando da questa

105

5 Prodotti scalari
x y
.1
..1
uguaglianza alluguaglianza tra matrici trasposte otteniamo A ..
=
. . Quindi si
xq
yq
y
x
1
.
.1
2
2
t
.
ha F (x , x ) = ( x 1 ,...,x q ) A A . = ( y 1 ,...,y q ) .. = y + + y q .
xq

yq

Si noti che A ha rango q e che quindi lunica soluzione del sistema omogeneo determinato
da A la soluzione nulla. Poich x non nullo, x non una soluzione del sistema e quindi
 2
almeno un y i diverso da zero. Possiamo dedurre da ci che F (x , x ) =
y i > 0.

Se A = Iq la costruzione riproduce esattamente il prodotto scalare standard dellesempio
precedente. Avremo modo di vedere che ogni prodotto scalare su uno spazio vettoriale di
dimensione nita pu essere denito a partire da una matrice A come la precedente.

5.3

Prodotti scalari e matrici simmetriche

Sia V uno spazio vettoriale di dimensione q e sia u = u 1 , . . . , u q una sua base.


Assegnato un prodotto scalare F : V V R possiamo considerare la matrice
Bu (F ) il cui termine di posto i, j bi j = F (u i , u j ).
definizione 5.5 Bu (F ) la matrice del prodotto scalare F rispetto alla base u.

chiaro che Bu (F ) una matrice quadrata di ordine q . Si noti inoltre che Bu (F )


una matrice simmetrica, poich F (u i , u j ) = F (u j , u i ) per ogni coppia i, j di indici.
Limportanza della matrice Bu (F ) dovuta alla seguente propriet:

proposizione 5.2 Si ha F (x , y ) = x 1 . . . x q

y
.1
Bu (F ) .. , quali che siano i
yq

vettori x = x 1 u 1 + + x q u q e y = y 1 u 1 + + u q u q di V .
Dimostrazione

La dimostrazione consiste di applicazioni successive della propriet distributiva e di linearit. Indicheremo i passi da compiere tralasciando i dettagli. Innanzitutto si ha


F (x , y ) = F (x , j =1,...,q y j u j ) =
j F (x , u j ) =
j =1,...,q y j F (x , u j ). Daltra parte y 


y j F ( i=1,...,q x i u i , u j ) = y j i=1,...,q x i F (u i , u j ) e quindi F (x , y ) =
y

j =1,...,q j


x i y j bi j . Calcolando infine x 1 , . . . , x q Bu (F ) si
i=1,...,q x i F (u i , u j ) =
y
y i, j =1,...,q
1
.
.1
ottiene ( x 1 ,...,x q ) Bu (F ) ..
= ( x 1 b11 ++x q bq 1 ... x 1 b1q ++x q bq q ) .. . Per concluyq

y

.1
dere basta osservare che ( x 1 b11 ++x q bq 1 ... x 1 b1q ++x q bq q ) .. =
yq

106

yq

i, j =1,...,q

x i y j bi j .


5.3 Prodotti scalari e matrici simmetriche


La matrice Bu (F ) permette di calcolare facilmente il prodotto scalare F (x , y ) una
volta che siano note le componenti dei vettori x e y rispetto alla base u. Bu (F )
simmetrica, dunque naturale chiedersi quanto segue:
Quali sono le matrici simmetriche S tali che S = Bu (F ), dove F un
prodotto scalare ed u una base su V ?
La risposta piuttosto semplice se teniamo conto del fatto che, per un prodotto
scalare F , si deve avere F (x , x ) > 0 per ogni x = 0.
definizione
5.6 Una
matrice simmetrica S di ordine q definita positiva se

( x 1 ...x q

)S

y1

..
.

yq

> 0 per ogni q -upla non nulla (x 1 , . . . , x q ) Rq .

Sia S = (s i j ) una matrice simmetrica di ordine q , allora le


seguenti condizioni sono equivalenti:

proposizione 5.3

1.
2.

S = Bu (F ), dove F un prodotto scalare ed u una base su uno spazio


vettoriale V di dimensione q ;
S definita positiva.

Dimostrazione
1 2: segue dalla precedente proposizione e dal fatto che F (x , x )
> 0 per ogni x = x 1 u 1 + + x q u q V ;
2 1: fissati uno spazio vettoriale V di dimensione q ed una sua base u = u 1 , . . . , u q
sufficiente considerare la funzione F : V V R cos definita: qualunque
siano
y1


x = x 1 u 1 + + x q u q e y = y 1 u 1 + + y q u q , F (x , y ) = x 1 . . . x q S ... .
yq

F un prodotto scalare su V : ometteremo di provare che F soddisfa le propriet commutativa, distributiva e di linearit, poich la dimostrazione si basa su argomenti standard gi
considerati. Per concludere che F un prodotto scalare rimane allora solo da provare che
F (x , x ) > 0, x = 0. Ma questo segue dalla definizione della funzione F e dal fatto che S
definita positiva. F dunque un prodotto scalare. Per concludere la dimostrazione proviamo che S = Bu (F ) e cio che s i j = F (u i , u j ). A tale scopo si noti che le componenti di
u i (rispettivamente, di u j ) rispetto alla base u sono nulle salvo la i-esima (rispettivamente,
0
..
.

la j -esima) che 1. Si pu allora calcolare che F (u i , u j ) = ( 0...1i ...0 ) S


1..j = s i j , dove
.
0

1i e 1 j stanno ad indicare che 1 in i-esima (rispettivamente, in j -esima) posizione.




Assegnare un prodotto scalare significa dunque, fissata una base u, assegnare una
matrice simmetrica definita positiva. quindi importante avere dei criteri per ri107

5 Prodotti scalari
conoscere, nellinsieme di tutte le matrici simmetriche di ordine q , quelle definite
positive. Siano S una matrice simmetrica e M una matrice qualsiasi di ordine q ,
facile verificare che allora la matrice t MS M uguale alla propria trasposta e quindi
simmetrica. La successiva propriet sar utile per caratterizzare le matrici simmetriche
definite positive.
proposizione 5.4 Una matrice simmetrica S definita positiva se, e solo se, t MS M

definita positiva per ogni matrice invertibile M.

Se t MS M definita positiva qualunque sia la matrice invertibile M,


allora definita positiva la matrice t In S In = S. Viceversa sia S definita positiva e sia M una
x1


..
qualsiasi matrice invertibile. Dobbiamo dimostrare che x 1 . . . x q tMS M
> 0
.
xq




per ogni x = (x 1 , . . . , x q ) Rq . A tale scopo poniamo x 1 . . . x q tM = t1 . . . tq e
x t
.1
.1
quindi M .. = .. . La q -upla t = (t1 , . . . , tq ) non nulla: altrimenti (x 1 , . . . , x q )

Dimostrazione

xq

tq

sarebbe
X una
soluzione
non nulla del sistema omogeneo di q equazioni in q indeterminate
0
1
..
..
M
=
. ; ci impossibile perch la matrice M dei coefficienti del sistema
.
0

Xq

invertibile. Poich S definita positiva e t non nulla possiamo concludere che




x1 . . . xq



t1
x1


..
..
t
MS M . = t1 . . . tq S . > 0
xq

tq


Esempio 5.4 Matrici simmetriche 2 2 denite positive




ab
 bx d
( x1 x2 ) S x1
2

Sia S =

. S denita positiva se, e solo se, per ogni x = 0, x = (x1 , x2 ) R2 , si ha


> 0.

 x 

2
2
2
Poich x1 x2 S x1 = ax1 +2bx1 x2 +cx2 , S denita positiva se, e solo se, ax1 +2bx1 x2 +
2

cx2 > 0 per ogni x = (x1 , x2 ) non nullo. Sia x2 = 0; condizione necessaria e sufciente
afnch valga la disuguaglianza che sia a > 0. Sia x2 = 0; dividendo la disuguaglianza per
2

x2 e ponendo t = x1 /x2 , si ottiene come condizione equivalente at 2 + 2bt + c > 0, t R,


e cio che lequazione di secondo grado at 2 + 2bt + c = 0 non deve avere soluzioni. Il
discriminante di tale equazione = 4(b2 ac) = 4 det S.
Se x2 = 0 la disuguaglianza pertanto soddisfatta se e solo se detS > 0. A seguito delle
precedenti osservazioni risulta quindi dimostrato che

108

5.3 Prodotti scalari e matrici simmetriche


proposizione 5.5 Una matrice S =

det S > 0.

a b 
b d

definita positiva se e solo se a > 0 e

La condizione ora osservata nel caso delle matrici simmetriche di ordine due si generalizza ad una condizione valida per matrici simmetriche di ogni ordine. Ricordiamo
innanzitutto la nozione di minore principale di una matrice quadrata.
definizione 5.7 Sia A = (a i j ) una matrice quadrata di ordine q , i minori principali di A sono i determinanti delle sottomatrici di A che si trovano sulla
intersezione delle prime k righe con le prime k colonne, k = 1, . . . , q .

Se per esempio A =

a b 
c d

, i minori principali di A sono a e det A.

La positivit dei minori principali di una matrice simmetrica S quanto ci basta per
concludere che S definita positiva. Ci esposto nel successivo teorema, noto come
teorema dei minori principali.
teorema 5.2 Una matrice simmetrica S definita positiva se, e solo se, i suoi
minori principali sono tutti positivi.

Si procede per induzione sullordine q della matrice simmetrica A =


(a i j ). Per q = 1 lunico minore principale di A a 11 . In questo caso ovvio che A definita
positiva se, e solo se, a 11 > 0. Sia ora q > 1, per dimostrare il teorema per le matrici
simmetriche di ordine q , consideriamo una soluzione non nulla n = (n 1 , . . . , n q ) Rq del
sistema omogeneo di q 1 equazioni in q indeterminate

Dimostrazione

a 11

...
..
.

a q 1,1 . . .

a 1q


X1
0
.. ..
. = .

a q 1,q

Xq

che ha come matrice dei coefficienti la sottomatrice formata dalle prime q 1 righe di A.
Osserviamo in primo luogo che n q = 0. Se infatti fosse n q = 0, allora (n 1 , . . . , n q 1 )
sarebbe una (q 1)-upla non nulla ed inoltre sarebbe una soluzione non nulla del sistema
di q 1 equazioni in q 1 indeterminate

a 11

...
..
.

a q 1,1 . . .

a 1,q 1
a q 1,q 1


X1
0
.. ..
. = .
X q 1

Tale sistema ha come matrice dei coefficienti la sottomatrice A q di ordine q 1, intersezione


delle prime q 1 righe di A con le prime q 1 colonne. Ora d e t A q un minore principale
quindi non nullo e perci lunica soluzione del sistema quella nulla. Ne segue che n q = 0.

109

Teorema dei minori


principali

5 Prodotti scalari
Si consideri allora la matrice

1 0 ...
0 1 . . .

..
M=
.

0 . . . . . .
0 ... ...

n1
n2

1 n q 1
0 nq

0
0


 A O
q
, dove
Calcolando il prodotto di t M per S e poi per M si ottiene t MS M = O1,q 1 q 1,1
c
c una costante e O1.q 1 e Oq 1,1 indicano, come al solito una riga ed una colonna formate
da q 1 zeri. Si osservi che det M = n q = 0 e che quindi M invertibile. Allora, per la Proposizione 5.4, se t MS M definita positiva anche S lo sar. Per concludere la dimostrazione
proveremo dunque che t MS M definita positiva. A tale scopo si osservi che c > 0, infatti
si ha det( t MS M) = (det tM) (det S) (det M) = (det M)2 (det S) = c (det A q ).
Essendo minori principali, det S e det A q sono per ipotesi positivi; lultima uguaglianza
implica quindi c > 0. Si osservi inoltre che, a causa degli zeri disposti sullultima riga e
sullultima colonna di t MS M, si ha

x1
x1

t


2
.
.
x 1 . . . x q MS M .. = x 1 . . . x q 1 A q .. + c x q
xq
x q 1
A q una matrice simmetrica di ordine q 1 i cui minori principali sono positivi per
ipotesi.
x1


..
Per lipotesi di induzione, segue che A q definita positiva e quindi x 1 . . . x q 1 A q
. >
x q 1

0 se (x 1 , . . . , x q 1 ) non nulla. Da questa disuguaglianza e da c > 0 segue che la penultima


espressione positiva se la q -upla (x 1 , . . . , x q ) non nulla.


Esercizio 5.1 Matrici simmetriche denite positive


1.

Riconoscere le matrici simmetriche definite positive tra queste:

1 1 1
1


1 0 1

2
0
0
1 2
1

, 0 1 2 ,

0
3
1
2 4
1
1 2 6
1
0
1
6

2.

Determinare i valori di x e y per i quali la matrice

1 y x

0 1 2
x 2 5
la matrice Be (F) di un prodotto scalare di R3 rispetto alla base canonica.

110

5.4 Perpendicolarit e basi ortogonali

5.4

Perpendicolarit e basi ortogonali

In questo paragrafo, ed in varie occasioni successive, lavoreremo su uno spazio vettoriale V sul quale fissato una volta per tutte un prodotto scalare F : V V R scelto tra gli infiniti prodotti scalari definiti su V . Lavoreremo quindi avendo assegnato
la coppia (V, F ) e non solo lo spazio vettoriale V .
definizione 5.8 Uno spazio vettoriale euclideo una coppia (V, F ) dove V

uno spazio vettoriale e F un prodotto scalare su V .

Spazio vettoriale
euclideo

Nel seguito, per indicare il prodotto scalare F (x , y ) dei vettori x e y , useremo spesso
la notazione x , y .
Il simbolo  ,  indicher la funzione prodotto scalare F : V V R. La nozione
di perpendicolarit tra vettori pu essere agevolmente introdotta imitando il caso del
prodotto scalare geometrico:
definizione 5.9 Due vettori u e v di uno spazio vettoriale euclideo V si dicono

Vettori ortogonali

perpendicolari (equivalentemente, ortogonali) se u, v = 0.

Pi in generale vale la seguente


definizione 5.10 Un sistema di vettori v = v 1 , . . . , vr si dice un sistema di

vettori ortogonali se i suoi elementi sono a due a due ortogonali, cio se


i = j v i , v j  = 0, i, j {1, . . . , r }
Una base ortogonale una base di V formata da un sistema di vettori ortogonali.
I sistemi di vettori ortogonali sono spesso pi facili da studiare e pi convenienti nelle
applicazioni. Si consideri per esempio la seguente:
proposizione 5.6 Sia v = v 1 , . . . , vr un sistema di vettori ortogonali. Se v i = 0

per ogni i = 1, . . . , r , allora i vettori v 1 , . . . , vr sono linearmente indipendenti.

Dobbiamo provare che 1 v 1 + + r vr = 0 1 = = r = 0.



A tale scopo osserviamo che 0 = v i , 0 = v i , 1 v 1 + +r vr  = j =1,...,r j v i , v j .

Dimostrazione

Daltra parte v i , v j  = 0 se i = j e quindi 0 =

j =1,...,r

j v i , v j  = i v i , v i .

Infine, essendo v i = 0, si ha v i , v i  = 0 e quindi i = 0, (i = 1, . . . , r ).




111

Basi ortogonali

5 Prodotti scalari
Procedimento
di ortogonalizzazione
di Gram-Schmidt

Il problema che vogliamo affrontare quello di costruire una base ortogonale di


uno spazio vettoriale euclideo. Il procedimento di Gram-Schmidt un algoritmo
che permette, in particolare, di risolvere tale problema.
lemma 5.1 Sia w = w 1 , . . . , w s un sistema ortogonale di vettori non nulli di V

e sia S = Lin(w1 , . . . , ws , v). Allora il vettore


n=v


i=1,...,s

v, wi 
wi
wi , wi 

perpendicolare ai vettori w 1 , . . . , w s ed inoltre S = Lin(w 1 , . . . , w s , n).


Sia w j uno dei vettori di w, per i = j si ha wi , w j  = 0 e quindi

Dimostrazione

i=1,...,s

v, wi 
wi , w j  = v, w j 
wi , wi 

Ci implica n, w j  = v, w j v, w j  = 0 e pertanto n ortogonale ad ogni w j . Per provare la seconda parte dellenunciato osserviamo innanzitutto che Lin(w1 , . . . , ws , n) S.
Ogni vettore u = u 1 w 1 + + u s ws + u s +1 n di Lin(n, w 1 , . . . , ws ) infatti anche un vettore di S: per verificarlo basta sostituire, in questultima combinazione lineare, n con la sua espressione come combinazione lineare di v, w1 , . . . , ws data nellenunciato. Nello stesso modo si prova che S Lin(w1 , . . . , ws , v). Infatti v combinazione lineare di n, w1 , . . . , ws , come si evince subito dallenunciato. Sia allora t = t1 w 1 +
+ ts w s + ts +1 v S, sostituendo v con la sua espressione come combinazione lineare di n, w1 , . . . , w s , segue che t combinazione lineare di n, w 1 , . . . , w s . Perci t
Lin(n, w1 , . . . , ws ) e vale la precedente inclusione.


Per rendere piu familiare la formula che appare nellenunciato del precedente lemma,
il lettore osservi che per due vettori v, w si ha
n=v

w, v
w
w, w

La formula generale che appare nellenunciato del lemma viene utilizzata, nella dimostrazione del successivo teorema, per costruire un sistema di vettori ortogonali che
generi lo stesso spazio generato da un sistema di vettori assegnato. Tale costruzione
nota come procedimento di Gram-Schmidt.
Sia v = v 1 , . . . , v n un sistema di vettori non tutti nulli di uno
spazio vettoriale euclideo e sia S = Lin(v 1 , . . . , v n ). Allora esiste una base
ortogonale w = w 1 , . . . , ws di S.

teorema 5.3

Procediamo per induzione su n: se n = 1 v 1 non nullo ed una


base di S. Una base formata da un solo vettore sempre ortogonale quindi v 1 una ba-

Dimostrazione

112

5.4 Perpendicolarit e basi ortogonali


se ortogonale di S. Sia ora n > 1, consideriamo i vettori v 1 , . . . , v n1 ed il sottospazio
T da essi generato. Per ipotesi induttiva esiste una base ortogonale w1 , . . . , w t del sottospazio T. Si noti che w1 , . . . , w t e v 1 , . . . , v n1 generano lo stesso spazio. Quindi anche
i sistemi di vettori w1 , . . . , wt , v n e v 1 , . . . , v n1 , v n generano lo stesso spazio e perci
S = Lin(w 1 , . . . , w t , v n ).
Per il Lemma 5.1, il vettore


w t+1 = v n

i=1,...,s

v, wi 
wi
wi , wi 

ortogonale a w 1 , . . . , w t e S = Lin(w 1 , . . . , w t+1 ).


Se wt+1 = 0 allora w1 , . . . , wt una base ortogonale di S. Se w t+1 = 0 allora i vettori
w 1 , . . . , w t+1 sono non nulli ed a due a due perpendicolari. Per la Proposizione 5.6, essi
sono linearmente indipendenti. Quindi sono una base ortogonale di S.


La cosa importante applicare la dimostrazione, od il lemma che la precede, in modo


concreto tutte le volte che sia assegnato un sistema di vettori v = v 1 , . . . , v n .
Supporremo non tutti nulli i vettori di v e, a meno di riassegnare gli indici, v 1 = 0.
Indichiamo i passi da compiere:
1.

porre w 1 = v 1 ;

2.

porre w 2 = v 2

..
.
k.
..
.
n.

porre w k = v k

w 1 ,v 2 
w1 ,w 1  w 1 ;

wi ,v k 
i=1,...,k1, wi =0 wi ,wi  w i ;

dopo n passi il procedimento termina avendo costruito un sistema di vettori


w = w1 , . . . , wn .
Si noti che, per ogni k = 1, . . . , n, la costruzione tale che
Lin(v 1 , . . . , v k ) = Lin(w1 , . . . , wk )
Ci segue immediatamente dalla dimostrazione del precedente teorema.

I vettori w 1 , . . . , wn generano dunque Lin(v 1 , . . . , v n ) e sono inoltre, per come


sono stati costruiti, a due a due perpendicolari. Non escluso che alcuni dei vettori
costruiti possano essere nulli, infine:
eliminando da w i vettori nulli si ottiene una base ortogonale di
Lin(v 1 , . . . , v n ).
Nel seguito applicare il procedimento di Gram-Schmidt ad un sistema di vettori v rispetto
ad un prodotto scalare assegnato ,  vorr dire che si tratta di procedere come sopra
per costruire una base ortogonale di Lin(v).
113

5 Prodotti scalari

Esercizio 5.2 Procedimento di Gram-Schmidt


1.

2.

Su R3 si scelgano a piacere quattro vettori v1 , . . . , v4 e si applichi ad essi il procedimento di Gram-Schmidt, rispetto al prodotto scalare standard. Si verifichi che
uno dei 4 vettori ottenuti a seguito del procedimento nullo.
Si dia una giustificazione alla seguente propriet: sia V uno spazio vettoriale euclideo e sia v = v1 , . . . , vn un sistema di vettori di V. Se n > dimV allora, dopo
avere applicato il procedimento di Gram-Schmidt a v, qualcuno dei vettori ottenuti
nullo.

definizione 5.11 Sia V uno spazio vettoriale euclideo e sia S V un sottoinsieme non vuoto. Linsieme S := {v V | v, w = 0, u S} un
sottospazio vettoriale di V detto sottospazio ortogonale a S.

Sottospazio ortogonale
aS

In altri termini, anche se S solo un sottoinsieme, S ha sempre una struttura di


sottospazio vettoriale di V . Se in particolare S = {u}, per qualche u V , allora
scriveremo u invece di {u} ; in particolare, vale u = Lin(u) .
facile verificare che, se S V anchesso un sottospazio vettoriale, allora S S =

{0}. Inoltre, se u = u 1 , . . . , u n una base per S, risulta S = u


1 un .
proposizione 5.7 Sia V uno spazio vettoriale euclideo di dimensione n. Sia S V
un sottospazio vettoriale s dimensionale di V . Allora, V = S S . In particolare,
dim S = n s .

Dimostrazione
Sia u = u 1 , . . . , u s una base per S. A meno di applicare il Teorema
5.3, possiamo supporre che u sia una base ortogonale. Dai Teoremi 4.4 e 5.3, u si estende
ad una base ortogonale v = u 1 , . . . , u s , u s +1 , . . . , u n per V . Per definizione di base ortogonale, u s +1 , . . . , u n S . Pertanto, V = S + S ed i vettori u s +1 , . . . , u n S sono
linearmente indipendenti in S perch lo sono in V .
Da quanto osservato precedentemente, poich si ha S S = {0}, allora V = S
S ed il sistema di vettori linearmente indipendenti w = u s +1 , . . . , u n una base per
S .

definizione 5.12 Dato S un sottospazio vettoriale di uno spazio vettoriale eu-

Complemento ortogonale
di S

clideo V , S viene detto il complemento ortogonale di S.

114

5.5 Basi ortonormali e matrici ortogonali

5.5

Basi ortonormali e matrici ortogonali

Nel seguito useremo il simbolo di Kronecker i j per indicare il termine di posto i, j


della matrice identit di ordine assegnato; questo vuol dire che i j = 0 se i = j e
che i j = 1 se i = j (par. 2.2).
definizione 5.13 Sia V uno spazio vettoriale euclideo di dimensione n. Diremo

che una base v = v 1 , . . . , v n ortonormale se v i , v j  = i j .

Si noti che una base ortonormale v = v 1 , . . . , v n certamente una base ortogonale,


segue infatti dalla definizione che v i , v j  = 0 se i = j . La propriet in pi che
caratterizza le basi ortonormali tra tutte le basi ortogonali che v i , v i  = 1, i =
1, . . . , n.
Sia V lo spazio dei vettori geometrici e siano O I, O J , O K tre segmenti orientati
che coincidono con i tre lati di un cubo di vertice nel punto O. Allora le classi di
equipollenza i, j, k di O I, O J , O K sono un esempio di base ortonormale di V per
il prodotto scalare geometrico.
facile verificare che la base canonica di Rn una base ortonormale per il prodotto
scalare standard di Rn .
Sia V uno spazio vettoriale euclideo di dimensione n; per costruire una base ortonormale di V sufficiente costruire una base ortogonale w = w 1 , . . . , wn di V con
il procedimento di Gram-Schmidt. Ponendo poi, per ogni i = 1, . . . , n,
ui =

1
wi
wi , wi 

si ottiene una base ortonormale u = u 1 , . . . , u n dedotta da w. Basta osservare infatti


1

wi , w j  = i j .
che u i , u j  =
wi ,wi 

w j ,w j 

In particolare i vettori u 1 , . . . , u n sono non nulli, a due a due perpendicolari e tali


che u i , u i  = 1. Le prime due propriet implicano che tali vettori sono linearmente
indipendenti. Quindi, essendo in numero uguale alla dimensione di V , essi formano
una base ortogonale. Lultima propriet ci dice che tale base ortonormale.
Sia v = v 1 , . . . , v n una base di V e sia Bv = Bv ( , ) la matrice del prodotto
scalare  ,  rispetto alla base v. Poich il termine di posto i, j di Bv il prodotto
scalare v i , v j  chiaro che:
proposizione 5.8 v una base ortonormale se, e solo se, Bv la matrice identit.

Una buona propriet delle basi ortonormali la seguente: siano x , y V e sia


u = u 1 , . . . , u n una base ortonormale di V e sia Bu la matrice del prodotto
115

5 Prodotti scalari
scalare rispetto ad u.
Allora, il prodotto scalare x , y  il numero reale x , y  =
y1


x 1 , . . . , x n Bu ... . Poich u ortonormale, Bu la matrice identit In quindi
yn
y
y1
1

x , y  = ( x 1 ,...,x n ) In ... = ( x 1 ,...,x n ) ... = i=1,...,n x i y i .
yn

yn

La precedente propriet viene spesso riassunta a parole nel modo seguente:


se u una base ortonormale il prodotto scalare x , y  la somma dei
prodotti delle componenti omonime di x e y rispetto ad u.
Componenti omonime vuol dire in questo caso componenti di x e di y aventi indice
uguale e cio x i e y i , 1 i n.
Unulteriore buona propriet di una base ortonormale che le componenti di un
vettore v V sono determinate dal prodotto scalare:
proposizione 5.9 Sia V uno spazio vettoriale euclideo e sia u = u 1 , . . . , u n una

sua base ortonormale. Per ogni vettore v V la componente j -esima di v rispetto


alla base u il prodotto scalare v, u j .

Dimostrazione Sia v = x 1 u 1 + + x n u n . Per provare la propriet basta osservare che





v, u j  =  i=1,...,n x i u i , u j  = i=1,...,n x i u i , u j  = i=1,...,n x i i j = x j .

Assegnate due basi ortonormali u = u 1 , . . . , u n e v = v 1 , . . . , v n di V , le matrici Muv e Mvu rispettivamente, del cambiamento di base da u a v e da v ad u
(Definizione 4.26) hanno unimportanza particolare.
definizione 5.14 Una matrice quadrata A si dice ortogonale se t A A = In .

Matrice ortogonale

Equivalentemente A una matrice ortogonale se, e solo se, A invertibile e linversa


di A coincide la trasposta di A; i.e. A 1 = t A.
Perch interessarsi alle matrici ortogonali e non, tanto per fare un esempio, alle matrici che hanno come inversa se stessa? Il fatto che le matrici ortogonali sono, come vedremo tra poco, esattamente le matrici del cambiamento di base tra due basi
ortonormali.
teorema 5.4 Sia V uno spazio vettoriale di dimensione finita e siano u e v due sue

basi qualsiasi. Sia poi  ,  un prodotto scalare su V e siano Bu e Bv rispettivamente le matrici di tale prodotto scalare rispetto alle basi u e v. Allora la relazione
tra le matrici Bu e Bv :
116

5.5 Basi ortonormali e matrici ortogonali


[5.1]

Bv = tMuv Bu Muv ,

dove Muv la matrice del cambiamento di base da u a v.


Siano u = u 1 , . . . , u n , v = v 1 , . . . , v n e siano assegnati due vettori
qualsiasi x = x 1 v 1 + + x n v n e y = y 1 v 1 + + y n v n espressi mediante le loro
componenti rispetto alla base v. Allora
x le colonne
ydelle
componenti di x e y rispetto alla
1
1
.
.
base u sono, rispettivamente, Muv .. e Muv .. (Teorema 4.9).

Dimostrazione

xn

yn



Si osservi inoltre che la trasposta del primo prodotto x 1 , . . . , x n tMuv .
rispetto alla base u, in base u si ha pertanto che x , y  =
Poich Bu la matrice di  , 
y1


.
x 1 , . . . , x n tMuv Bu Muv .. .
yn

Poich la precedente eguaglianza vale qualunque siano i vettori x e y , possiamo dedurre che
Bv = tMuv Bu Muv . Si osservi infatti che le componenti di v i (rispettivamente, di v j ) rispetto
a v sono nulle salvo quella i-esima (rispettivamente, la j -esima), che
vale
1. La penultima
0

...



eguaglianza implica allora v i , v j  = 0 . . . 1i . . . 0 t Muv Bu Muv 1 j .
..
.
0

Lespressione a destra di questultima uguaglianza esattamente il termine di posto i, j della


matrice prodotto t Muv Bu Muv (Proposizione 2.3). Daltra parte Bv , per definizione di matrice associata a un prodotto scalare rispetto ad una base, esattamente la matrice il cui termine
di posto i, j v i , v j . Per ogni i, j , tMuv Bu Muv e Bv hanno dunque lo stesso termine
i, j . Quindi sono matrici uguali.


La relazione [5.1] tra le matrici Bu e Bv molto importante e svolger un ruolo fondamentale anche in altri argomenti che affronteremo in seguito (cap. 11). Abbiamo
infatti la seguente situazione pi generale:
definizione 5.15 Due matrici A e B, n n, si dicono congruenti se esiste una

matrice invertibile M, n n, tale che valga


[5.2]

B = tM A M.

Se A e B soddisfano la relazione [5.2], e si dicono congruenti per mezzo di M.

117

Matrici congruenti

5 Prodotti scalari
Dal Teorema 5.4 abbiamo quindi che, dato uno spazio vettoriale euclideo V , le
matrici di un prodotto scalare rispetto a due qualsiasi basi di V sono congruenti.
In particolare, rispetto a basi ortonormali si ha:
teorema 5.5 Sia V uno spazio vettoriale di dimensione finita e siano u e v due
sue basi ortonormali rispetto ad uno stesso prodotto scalare  ,  su V . Allora la
matrice del cambiamento di base Muv una matrice ortogonale.

Dimostrazione

Siano Bu e Bv rispettivamente le matrici del prodotto scalare considerato


rispetto alle basi u e v. Poich u e v sono ortonormali si ha che Bu = In = Bv . Applicando
1
[5.1], segue allora che In = tMuv In Muv = tMuv Muv . In altri termini Muv = tMuv ,
quindi Muv una matrice ortogonale.


Dato V uno spazio vettoriale euclideo, in cui si assume fissato una volta per tutte
un prodotto scalare  , , vogliamo discutere alcune propriet notevoli di tale spazio
che assumono delle formulazioni particolarmente semplici nel caso in cui su V si
consideri fissata una base ortogonale (in particolare, ortonormale). Abbiamo bisogno
prima di alcuni preliminari.
Norma di un vettore

In uno spazio vettoriale euclideo si pu introdurre la nozione di lunghezza di vettori.


Infatti abbiamo:
definizione 5.16 Sia V uno spazio vettoriale euclideo e sia v V un qualsiasi

vettore.
La norma (o lunghezza) di v il numero reale non negativo || v ||:=

v, v.

Notiamo che, se dim V = n, data u una base ortonormale per V e (y 1 , . . . , y n ) le


componenti di v rispetto ad u, allora

|| v ||=

Disuguaglianza
di Schwarz

y1 + + yn

Sia V uno spazio vettoriale euclideo. Qualunque siano i vettori


u, v V si ha u, v2 || u ||2 || v ||2 . Inoltre vale luguaglianza se, e
solo se, u e v sono linearmente dipendenti.
teorema 5.6

Al variare di t in R consideriamo il vettore tu + v ed osserviamo che


Dimostrazione
tu + v, tu + v 0 in quanto  ,  un prodotto scalare. Daltra parte si calcola
facilmente che tu + v, tu + v = a t 2 + 2bt + c , dove a = u, u, b = u, v, c = v, v.

118

5.5 Basi ortonormali e matrici ortogonali


Se a = 0 allora u = 0 e la disuguaglianza diventa luguaglianza 0 = 0: in tal caso non c
altro da dimostrare. Consideriamo allora il caso rimanente e cio a > 0: per il polinomio
di secondo grado a t 2 + 2bt + c sappiamo che vale a t 2 + 2bt + c 0 qualunque sia t.
Equivalentemente il discriminante 4(b 2 a c ) di tale polinomio deve essere 0. Ma allora
abbiamo b 2 a c = u, v2 u, u v, v 0; utilizzando la definizione di norma, ci
prova la prima parte del teorema.
Si noti infine che lultima disuguaglianza unuguaglianza se, e solo se, b 2 a c = 0 e cio
se, e solo se, lequazione a t 2 + 2bt + c = 0 ha ununica radice t0 = ab . Ci avviene se, e
solo se, t0 u + v, t0 u + v = 0 ovvero se, e solo se, t0 u + v = 0. Essendo u = 0 la condizione
t0 u + v = 0 equivale alla condizione che u e v siano linearmente dipendenti.


A partire dalla disuguaglianza di Schwarz, possiamo dare una nozione di angolo convesso fra due vettori non nulli di uno spazio vettoriale euclideo V , estendendo cos quanto considerato nel caso di vettori geometrici (par. 5.1). Siano u e v due
vettori non nulli di V . immediato verificare che la diseguaglianza di Schwarz
equivalente a:
[5.3]

Angoli e proiezioni
ortogonali di vettori
su sottospazi

|u, v| ||u|| ||v||

Da [5.3] segue immediatamente che


[5.4]

u, v
1
||u|| ||v||

per ogni u e v come sopra. Grazie al fatto che la funzione coseno monotona
strettamente decrescente (quindi invertibile) nellintervallo reale [0, ], abbiamo:
definizione 5.17 Dati due vettori non nulli u e v in uno spazio vettoriale eucli-

deo V , definiamo langolo convesso = (u, v) da essi formato quellunico


numero reale [0, ] tale che
[5.5]

cos :=

u, v
.
||u|| ||v||

In altre parole, denotata con arccos : [1, 1] [0, ] la funzione inversa della
u,v
funzione coseno nellintervallo in questione, abbiamo che := arccos( ||u||||v||
).
Osservazione 5.1
Come semplici conseguenze della precedente denizione, ri- tra i due vettori, langolo convesso da essi formato e le loro
troviamo che u e v sono ortogonali se, e solo se, langolo con- norme:
vesso da essi formato = /2. Inoltre, da [5.5], otteniamo
una semplice relazione che lega il prodotto scalare
[5.6]
u, v = ||u|| ||v|| cos (u, v)

119

5 Prodotti scalari
Proiezioni ortogonali
su sottospazi

Quanto osservato precedentemente, permette di dare ulteriori importanti definizioni.


definizione 5.18 Dati due vettori non nulli u e v in uno spazio vettoriale eucli-

deo V , definiamo la proiezione ortogonale di u lungo la direzione determinata


da v (i.e. lungo il sottospazio Lin(v)) il vettore v (u) definito dalla condizione
u v (u), v = 0

[5.7]

Ovviamente se u e v sono linearmente dipendenti, allora chiaramente v (u) = u.


Pertanto, la precedente definizione di interessante utilizzo principalmente quando
u e v sono linearmente indipendenti. Utilizzando [5.5] e [5.6], abbiamo il seguente
semplice risultato.
proposizione 5.10 Dati due vettori non nulli u e v, linearmente indipendenti, in

uno spazio vettoriale euclideo V , allora:


(i)

v (u) = u v, dove
[5.8]

(ii)

u :=

u, v
||u||
=
cos (u, v) R
||v||
||v||2

la proiezione ortogonale [5.7] determina una decomposizione ortogonale


del vettore u in un vettore parallelo a v, i.e. v (u) come in (i), e di un
vettore perpendicolare a v, i.e. n v (u) := u v (u) = u u v. In
altri termini, u si esprime in modo unico come u = v (u) + n v (u), con
v (u) Lin(v) e n v (u) Lin(v) .

chiaro che si pu definire, vicendevolmente, la proiezione ortogonale di v su u.


Dimostrazione della Proposizione 5.10
(i)

(ii)

Per la definizione di proiezione ortogonale su v, il vettore v (u) dovr appartenere


a Lin(v). In tal caso esiste, ed univocamente determinato, uno scalare non nullo
R tale che v (u) = v. Vogliamo determinare tale in funzione di u e
v. Per fare questo, utilizziamo [5.7]: 0 = u v (u), v = u, v v, v =
u, v ||v||2 , che fornisce la prima eguaglianza in [5.8]. La seconda eguaglianza
chiaramente conseguenza della prima e di [5.6].
ovvia conseguenza di (i) e di [5.7].


Pi in generale, sia U un sottospazio vettoriale di V . Dalla Proposizione 5.7, si ha la


decomposizione ortogonale V = U U , dove U il complemento ortogonale
120

5.5 Basi ortonormali e matrici ortogonali


di U rispetto al prodotto scalare  ,  fissato su V (Definizione 5.12). Allora, dalla
Proposizione 4.5, ogni vettore v V si scrive in modo unico come
[5.9]

v = vU + vU , con vU U, vU U

in particolare, poich la decomposizione ortogonale, vale anche ||v||2 = ||vU ||2 +


||vU ||2 .
definizione 5.19 Dato un vettore v ed un sottospazio vettoriale U non nulli in

uno spazio vettoriale euclideo V , definiamo le proiezioni ortogonali di v sui


sottospazi U e U , rispettivamente, i vettori U (v) := vU e U (v) :=
vU come nella [5.9].

proposizione 5.11 Siano U e v come sopra. Sia dim U = k < n = dim(V ).

Sia u = u 1 , u 2 , . . . , u k una qualsiasi base ortogonale per U . La proiezione


ortogonale di v su U il vettore
[5.10]

U (v) =

v, u 1 
v, u 2 
v, u k 
u1 +
u2 + . . . +
uk
u 1 , u 1 
u 2 , u 2 
u k , u k 

Equivalentemente, U (v) il vettore la cui i-esima componente rispetto alla base


v,u i 
, 1 i k.
u di U : u
i ,u i 

In modo analogo, da [5.9], la proiezione ortogonale di v su U sar data da v


U (v). Notiamo inoltre che, nel caso in cui u sia una base ortonormale, per U (v)
ritroviamo quanto dimostrato nella Proposizione 5.9.
Dimostrazione della Proposizione 5.11

Dai Teoremi 4.4 e 5.3, troviamo una base


v = u 1 , u 2 , . . . , u k , u k+1 , . . . , u n di V che ortogonale e che completa la base data di U ;
in particolare, u  := u k+1 , u k+2 , . . . , u n una base ortogonale per U . Rispetto a tale base
di V , ragionando come nelle Proposizioni 5.9 e 5.10-(i), la i-esima coordinata di v rispetto
alla base u data da
v, u i 
, 1i n
u i , u i 
Pertanto, per lunicit della decomposizione [5.9], abbiamo lasserto.


Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).
121

Soluzioni

5 Prodotti scalari

Quesiti ed esercizi
1.
Nello spazio vettoriale euclideo R2 , munito di base canonica e, e di prodotto scalare standard, si consideri il vettore
u = (1, 1) espresso nelle sue componenti rispetto ad e.
Determinare tutti i vettori x che sono ortogonali ad u e con
norma uguale a 2.

4.
Nello spazio vettoriale euclideo R3 , munito del prodotto scalare standard, siano dati i vettori v1 = (1, 2, 1), v2 =
(1, 0, 1), v3 = (1, 2, 0) espressi rispetto alla base
canonica e:

(i)
determinare ||v1 ||, il prodotto scalare v1 , v2  ed il
2.
3
coseno dellangolo formato da v2 e v3 ;
Sia R lo spazio vettoriale euclideo, munito di prodotto
(ii)
determinare tutti i vettori ortogonali a Lin (v1 , v2 ) e
scalare standard e di base canonica e.
tutti i vettori ortogonali a v3 .
Sia U R3 il sottoinsieme delle soluzioni del sistema
lineare X1 + X2 + 2X3 = X1 X2 + X3 = 0:
5.
(i)
giusticare che U un sottospazio vettoriale di R3 ; Nello spazio vettoriale euclideo R3 , munito del prodotto sca(ii)
determinare una base ortonormale di U;
lare standard, determinare il vettore proiezione ortogonale
(iii)
denotato con U il complemento ortogonale di U in del vettore v1 = (1, 1, 0) sul vettore v2 = (1, 0, 1), dove
R3 , determinare unequazione lineare in X1 , X2 e X3 ambedue i vettori sono espressi rispetto alla base canonica e.
6.
che rappresenti U ;
(iv)
utilizzando il procedimento di ortonormalizzazio- Sia R3 lo spazio vettoriale euclideo, munito di base canonica
ne di Gram-Schmidt, estendere la base ortonor- e, e prodotto scalare standard:
male di U determinata nel punto (ii) ad una base
ortonormale di R3 .
(i)
determinare una base ortonormale f di R3 costruita
a partire dalla base b := v1 , v2 , v3 , dove
3.
Sia F : R2 R2 R la funzione sullo spazio vettoriale R2
v1 = (1, 0, 1), v2 = (0, 1, 1), v3 = (0, 1, 1)
2
denita da: x, y R , F(x, y) := 2x1 y1 +x2 y1 +x1 y2 +x2 y2 ,
vericare che la matrice cambiamento di base Mef
dove x = (x1 , x2 ) e y = (y1 , y2 ) denotano le componenti dei (ii)
ortogonale.
vettori dati rispetto alla base canonica e:
(i)
(ii)

vericare che F un prodotto scalare su R2 e


determinare la matrice Be (F) di F in base e;
considerata la base b data dai vettori v1 := e1 +
e2 , v2 := 2e1 e2 di R2 , determinare la matrice
Bb (F) di F in base b.

122

7.
Nello spazio vettoriale euclideo R3 , munito del prodotto scalare standard, determinare la proiezione ortogonale del vettore v = (0, 1, 2) sul sottospazio W generato dai vettori
v1 = (1, 1, 0) e v2 = (0, 0, 1).

6
Spazi euclidei
6.1

Lo spazio della geometria euclidea

I capitoli precedenti di questo testo di geometria sono stati dedicati allo studio di
argomenti solo in parte geometrici, come per esempio le matrici od i sistemi di equazioni lineari. ora tempo di utilizzare il lavoro svolto per fare della geometria vera e
propria: a tale scopo necessario aggiungere le nozioni di punto e di spazio a fianco
delle nozioni gi considerate di vettore e di spazio vettoriale.
La nozione generale di spazio affine la prima che dobbiamo introdurre: ancora
una volta sar conveniente premettere alcune osservazioni riguardanti lo spazio V
dei vettori geometrici e lo spazio S dei punti della geometria di Euclide.
Ricordiamo che per ogni coppia (v, P ), costituita dal vettore geometrico v e dal
punto P di S, esiste un unico punto Q S tale che v la classe di equipollenza del
segmento orientato P Q. Dora in poi Q verr indicato con la notazione v +t P e si
chiama traslato di P parallelamente al vettore geometrico v. Ogni vettore geometrico
v determina in particolare una corrispondenza biunivoca t v : S S cos definita:
P S, t v (P ) = v +t P . La corrispondenza t v si chiama traslazione parallela a v.
Possiamo riassumere in una forma pi astratta le precedenti costruzioni considerando
il prodotto cartesiano V S e la funzione t : V S S definita nel seguente modo:
(v, P ) V S : t (v, P ) = v +t P .
Le propriet di t rilevanti per il seguito sono semplicemente le seguenti:
1.
2.
3.
4.

P S: 0 +t P = P ;
v, w V e P S: v +t (w +t P ) = (v + w) +t P ;
v, w V e P S: v +t P = w +t P = v = w;
(P , Q) S S: v V t.c.v +t P = Q.

Le propriet 1, 2, 3 e 4 sono il fondamento della successiva definizione di azione


per traslazioni di uno spazio vettoriale qualsiasi V su un insieme non vuoto S. In
particolare, poich t soddisfa 1, 2, 3 e 4, ne segue che la funzione t un azione
per traslazioni dello spazio V dei vettori geometrici sullo spazio S dei punti della
geometria di Euclide.
Siano S un insieme non vuoto, V uno spazio vettoriale e a : V S S una
funzione. Per ogni coppia (v, P ) V S indicheremo dora in poi con
v +a P
lelemento a (v, P ) dellinsieme S, in analogia con la notazione precedente.
123

6 Spazi euclidei
definizione 6.1 Una funzione a : V S S unazione per traslazioni dello

spazio vettoriale V sullinsieme S se a soddisfa alle propriet seguenti:


1.
2.
3.
4.

sia P S allora 0 +a P = P ;
siano v, w V e sia P S allora v +a (w +a P ) = (v + w) +a P ;
siano v, w V e sia P S allora v +a P = w +a P = v = w;
per ogni coppia ordinata (P , Q) S S esiste v V tale che v +a
P = Q.

Per i punti 3 e 4 esiste un unico vettore v V tale che v +a P = Q. Nel seguito


tale vettore sar indicato con Q a P .
Si osservi anche che valgono le seguenti uguaglianze: v +a Q = v +a (v +a P ) =
(v + v) +a P = 0 +a P = P .
Osservazione 6.1
Per il lettore al corrente di alcuni elementi di teoria dei grup- priet 1 e 2 dicono esattamente che a unazione del gruppo
pi aggiungiamo quanto segue: loperazione di somma di vet- V sullinsieme S.
tori denisce sullinsieme V una struttura di gruppo. Le pro-

Esempio 6.1 Azione per traslazioni di vettori geometrici


Siano S lo spazio dei punti della geometria euclidea e V lo spazio dei vettori geometrici.
Come si gi osservato, la funzione t : S V S pocanzi denita un esempio di azione
per traslazioni di V su S.

Esempio 6.2 Azione per traslazioni e sistemi lineari


Per avere altri esempi, si considerino il sottoinsieme S Rq delle soluzioni di un sistema compatibile di equazioni lineari ed il sottospazio V Rq delle soluzioni del sistema
omogeneo associato. Si ricordi che la somma di un elemento v di V con un elemento s di
S ancora una soluzione del sistema di partenza e cio appartiene a S (Proposizione 1.1).
Sia allora a : V S S la funzione che alla coppia (v, s) V S associa la q-upla somma
v + s: immediato vericare che a un esempio di azione per traslazioni di V su S.

Esempio 6.3 Azione per traslazioni e sottospazi


Siano W un sottospazio vettoriale di V, c un vettore di V e S = {y + c, y W}. Si noti che
x + s S, qualunque sia la coppia (x, s ) W S. Infatti si ha s = y + c dove y W e
quindi x + s = z + c, dove z = x + y W. Unazione per traslazioni di W su S allora la
funzione a : W S S che associa alla coppia (x, s) la somma x + s.

124

6.1 Lo spazio della geometria euclidea

Esempio 6.4 Azione per traslazioni di V su se stesso


Se nellesempio precedente c = 0 e W = V allora anche S = V. In questo caso V agisce per
traslazioni su se stesso e la funzione a : V V V la funzione somma che, a ogni coppia
(v, p) V V, associa v + p.

definizione 6.2 Uno spazio affine relativo ad uno spazio vettoriale V un in-

sieme non vuoto S sul quale sia stata fissata unazione per traslazioni

Spazio afne

a :V SS
La dimensione dello spazio affine S per definizione la dimensione di V .
Pi precisamente si dovrebbe dire che uno spazio affine relativo a V una coppia
(S, a ), dove S un insieme non vuoto ed a unazione per traslazioni di V su S. La definizione data tuttavia pi maneggevole per lesposizione. Gli elementi dellinsieme
S verranno chiamati dora in poi punti dello spazio affine S.
Sia v V . La traslazione parallela a v la funzione tv : S S cos definita: per
ogni P S, t v (P ) = v +a P .
Si noti che t0 (P ) = P per ogni P , in altre parole to la funzione identit di S.
definizione 6.3 Sia S un insieme e f : S S una funzione. Ogni elemento

x S tale che f (x ) = x si dir punto fisso di f .

Sia v = 0, allora t v priva di punti fissi ed inoltre una


corrispondenza biunivoca tra i punti di S.

proposizione 6.1

Se P un un punto fisso di t v allora v +a P = P = 0 +a P e quindi


v = 0 per la propriet 3 della definizione di azione per traslazioni. Daltra parte vale v = 0 e
quindi non esistono punti fissi di t v . Dimostriamo ora che t v iniettiva e suriettiva, cio che
una corrispondenza biunivoca. Sia Q S; posto P = v +a Q si ha t v (P ) = Q. Quindi
t v suriettiva. Siano P1 , P2 S, se t v (P1 ) = t v (P2 ) = Q allora P1 = v +a Q = P2 .
Quindi t v iniettiva.


Dimostrazione

Un esempio geometrico elementare di funzioni dotate di un unico punto fisso rappresentato dalle omotetie. Siano C un punto di S e k una costante reale diversa da 0
e 1, una omotetia di centro C e rapporto k la funzione o C,k : S S cos definita:
P S, o C,k (P ) = C +a k(P a C ).
125

Traslazione e omotetie
di uno spazio afne

6 Spazi euclidei
proposizione 6.2 Ogni omotetia o C,k ha come unico punto fisso il centro C ed

inoltre una corrispondenza biunivoca tra i punti di S.


Sia P un punto fisso di o C,k allora o C,k (P ) = P = C +a k(P a C )
e cio (P a C ) = k(P a C ). Poich k = 1, questa uguaglianza vale se e solo se P = C .
1
Quindi C lunico punto fisso di o C,k . Sia ora Q S; posto P = C + k (Q a C ) si ha

1
(Q a C ) = C +a (Q a C ) = Q
o C,k (P ) = C +a k
k

Dimostrazione

Quindi o C,k suriettiva. Siano P1 , P2 S, se o C,k (P1 ) = o C,k (P2 ) = Q allora k (Q a


C ) +a C = P1 = P2 e o C,k anche iniettiva. Quindi o C,k biunivoca.


Un caso particolare di omotetia si ottiene se k = 1, in questo caso o C,k verr


chiamata simmetria di centro C .
Le traslazioni e le omotetie sono esempi di una famiglia pi grande di corrispondenze biunivoche dello spazio affine S note come trasformazioni affini. Esse verranno
studiate successivamente in questo capitolo.
Rette in uno spazio afne

Considereremo ora alcuni enti geometrici fondamentali contenuti in uno spazio


affine, la cui definizione non richiede luso di un sistema di coordinate.
definizione 6.4 Assegnati un vettore non nullo v V ed un punto Q S si

dice retta passante per Q e parallela al vettore v linsieme r = {P S | P =


tv +a Q, t R}.
Si noti che per t = 0 si ottiene il punto Q.
Siano r 1 e r 2 due rette; diremo che:
1.
2.
3.

r 1 e r 2 sono parallele se sono parallele ad uno stesso vettore;


r 1 e r 2 sono incidenti se sono distinte e hanno un punto in comune;
r 1 e r 2 sono sghembe se non sono parallele n incidenti.
proposizione 6.3 Due rette parallele e distinte non hanno punti in comune.

Dimostrazione

Basta dimostrare che se due rette parallele r 1 e r 2 hanno un punto Q in


comune sono uguali. Questo ovvio perch r 1 e r 2 sono parallele ad uno stesso vettore v e
quindi r 1 = {P S | P a Q = tv} = r 2 .


La posizione di due rette sghembe in uno spazio affine descritta dalla seguente
126

6.1 Lo spazio della geometria euclidea


proposizione 6.4 Sia r i la retta passante per Q i e parallela a v i , i = 1, 2. Allora r 1

e r 2 sono rette sghembe se, e solo se, i tre vettori v 1 , v 2 , Q 1 a Q 2 sono linearmente
indipendenti.
Dimostrazione
Baster provare che v 1 , v 2 , Q 1 a Q 2 sono linearmente dipendenti se,
e solo se, r 1 e r 2 sono parallele oppure incidenti. Ora questi tre vettori sono linearmente
dipendenti se, e solo se, lequazione t1 v 1 + t2 v 2 + t3 (Q 1 a Q 2 ) = 0 ha una soluzione non
nulla. Equivalentemente: o t3 = 0 oppure t3 = 0 e v 1 , v 2 sono vettori paralleli. Questultimo
caso si verifica se, e solo se, r 1 e r 2 sono parallele e distinte. Invece il caso t3 = 0 si verifica se,
t

e solo se, t1 v 1 +a Q 1 = R = t2 v 2 +a Q 2 e cio se, e solo se, r 1 e r 2 hanno in comune il


3
3
punto R. I tre vettori sono quindi linearmente dipendenti se, e solo se, r 1 e r 2 sono parallele
oppure incidenti.


Uno spazio vettoriale di dimensione due non contiene tre vettori linearmente indipendenti. Quindi un piano affine non contiene rette sghembe e vale il seguente
corollario 6.1 In un piano affine due rette o sono parallele o sono incidenti.

Se S ha dimensione almeno tre esistono in S coppie di rette sghembe, infatti in questo


caso esistono tre vettori linearmente indipendenti v 1 , v 2 , v 3 V . Scelti due punti
Q 1 , Q 2 S tali che Q 2 a Q 1 = v 3 possiamo considerare la retta r i per Q i parallela
a v i , i = 1, 2. Per la proposizione precedente, r 1 e r 2 sono sghembe.

Segmenti e simplessi

definizione 6.5 Siano A, B punti di S. Il segmento di estremi A, B linsieme

A B = {P S | P = t (B a A) +a A, 0 t 1}.

Se A e B sono distinti segue immediatamente dalla definizione che A B r , dove r


la retta per A parallela al vettore B a A. Il baricentro o punto medio del segmento
1
1
A B il punto M = 2 (B a A) + A = 2 (A a B) + B.
Si noti che per questa definizione non necessario introdurre una nozione di distanza
tra punti dello spazio affine S. Il lettore potr provare per esercizio che
A B = {u 1 (Aa O)+u 2 (B a O), dove u 1 +u 2 = 1

u 1 , u 2 0}

e che inoltre si ha M = 2 [(A a O) + (B a O)] +a O, qualunque sia il punto O


scelto su S. Si possono dimostrare anche propriet pi generali.
definizione 6.6 Sia Q S e siano W V un sottospazio vettoriale. La variet

lineare passante per Q e parallela al sottospazio W linsieme L := {P S |


P = w +a Q, w W}. W viene chiamato giacitura di L o sottospazio dei
vettori paralleli a L. La dimensione di L per definizione la dimensione di W.

127

Inviluppo convesso e
coordinate baricentriche

Variet lineari

6 Spazi euclidei

Lunico sottospazio W di dimensione zero quello generato da 0. In questo caso L costituito da un solo punto Q e quindi le variet lineari di
dimensione zero sono i punti dello spazio affine S.
Le variet lineari di dimensione uno sono esattamente le rette. Precisamente,
una variet lineare L ha dimensione uno se, e solo se, W generato da un
vettore non nullo v. Ci equivale a dire che
L = {P S | P = tv +a Q, t R}

la retta passante per un dato punto Q L e parallela al vettore v. La


giacitura della retta il sottospazio vettoriale W di V , di dimensione 1, che
viene anche detta retta vettoriale.
Una variet lineare di dimensione due viene chiamata piano e la sua giacitura
piano vettoriale.
Per definizione, un iperpiano di S una variet lineare L tale che dim(L) =
dim(S) 1.

Per esempio le rette contenute in un piano affine S sono gli iperpiani di S, i piani di
uno spazio affine tridimensionale S sono gli iperpiani di S e cos via. Si osservi infine
che la dimensione di una variet lineare sempre inferiore alla dimensione dello
spazio ambiente in cui essa contenuta. Ci segue dal fatto che ogni sottospazio
W V ha dimensione inferiore a quella di V .
Lo studio di una variet lineare L contenuta in S potr essere compiuto pi concretamente dopo che avremo fissato su S un sistema di riferimento cartesiano. Vedremo
allora che i punti di L sono esattamente quei punti di S le cui coordinate cartesiane
soddisfano un dato sistema di equazioni lineari. Per questo motivo L prende il nome
di variet lineare e rappresenta, in un certo senso, una maniera pi geometrica di
pensare allinsieme delle soluzioni di tale sistema.
Pi in generale lo studio geometrico di uno spazio affine pu essere affrontato usando
il metodo delle coordinate cartesiane.
In uno spazio affine comunque possibile ragionare di geometria anche per via sintetica e cio senza ricorrere alluso di un sistema di riferimento, dimostrando in modo
elegante molte propriet e teoremi. Questo ed altri aspetti maggiormente astratti della
teoria degli spazi affini esulano tuttavia dalle finalit del testo.

6.2

Coordinate cartesiane
definizione 6.7 Un sistema di riferimento cartesiano su uno spazio affine S

Sistema
di riferimento cartesiano

una coppia (O, u) dove O un punto di S ed u una base ordinata di V .

128

6.2 Coordinate cartesiane


Ricordiamo che una base ordinata semplicemente una base u di V ai cui vettori
stata assegnata una numerazione da 1 a n, dove n = dim V . Nel seguito u i indicher
il vettore di u a cui stata assegnata la posizione (od il numero) i, 1 i n.
Sia ora P un punto di S; poich u una base abbiamo P a O = x 1 u 1 + + x n u n
dove il coefficiente x i univocamente determinato da P a O per ogni u i . Segue
quindi che P determina univocamente la n-upla ordinata di numeri reali
c (P ) := (x 1 , . . . , x n )
che ha come termine di posto i il coefficiente x i di u i . Naturalmente c (P ) univocamente determinata una volta che sia stata fissato il riferimento (O, u).
definizione 6.8 Sia P un punto di S e sia (O, u) un sistema di riferimento

cartesiano su S. Diremo che P ha coordinate cartesiane (x 1 , . . . , x n ) se


P a O = x 1 u 1 + + x n u n
In particolare diremo che x i la coordinata cartesiana i-esima di P .

Useremo spesso le espressioni abbreviate coordinate e sistema di riferimento, omettendo laggettivo cartesiano. il caso inoltre di sottolineare che (x 1 , . . . , x n ) una
singola n-upla ordinata di numeri reali. Tuttavia per tale n-upla si usa lespressione
coordinate cartesiane di P perch, con qualche imprecisione, si fa riferimento allinsieme costituito dai termini x 1 , . . . , x n pi che alla singola n-upla. Il punto O viene
chiamato origine del sistema di riferimento (O, u). Poich O a O il vettore nullo
le coordinate di O sono tutte uguali a zero.
Fissato un sistema di riferimento (O, u) sia c : S Rn la funzione che ad ogni
punto P S associa la n-upla c (P ) delle sue coordinate rispetto a (O, u). Vale
allora la seguente

Rn stabilisce una corrispondenza biunivoca tra linsieme dei punti di S e linsieme delle n-uple ordinate di numeri reali.

proposizione 6.5 c : S

Si tratta di provare che c iniettiva e suriettiva. Sia (x 1 , . . . , x n ) Rn ;


sappiamo che esiste uno ed un solo punto P tale che P a O = x 1 u 1 + + x n u n . Ma
allora c (P ) = (x 1 , . . . , x n ) e c suriettiva. Per provare che c iniettiva basta provare che
c (P ) = c (P  ) implica P = P  . Siano c (P ) = (x 1 , . . . , x n ) e c (P  ) = (x 1 , . . . , x n ); se
queste due n-uple sono uguali allora P a O = x 1 u 1 + + x n u n = x 1 u 1 + + x n u n =
P  a O. Quindi P = P  e c iniettiva.


Dimostrazione

La proposizione asserisce che, fissato un sistema di riferimento (O, u), ogni punto P dello spazio S completamente individuato dalle sue coordinate c (P ) =
129

Coordinate cartesiane

6 Spazi euclidei
( p 1 , . . . , p n ). In particolare linsieme costituito dal solo punto P pu anche essere definito come linsieme dei punti di S le cui coordinate soddisfano al sistema di
equazioni:
X 1 p 1 = 0, . . . , X n p n = 0
Pi in generale, dopo avere fissato un sistema di riferimento e coordinate per i punti
di S, avremo la possibilit di descrivere vari sottoinsiemi di S mediante opportuni
sistemi di equazioni. Sia per esempio T S il sottoinsieme dei punti P S che
hanno almeno una coordinata uguale a zero. Allora T non altro che linsieme dei
punti che soddisfano allequazione X 1 X n = 0.
Sia invece S un piano affine e sia D linsieme costituito dai due punti di coordinate
(1, 1) e (1, 1), non difficile verificare che D linsieme dei punti di S le cui
2
2
coordinate soddisfano alle equazioni X 1 + X 2 = 2 , X 1 X 2 = 0.
Viceversa sia S uno spazio affine sul quale sia stato fissato un sistema di riferimento
(O, u). Assegnato un sistema di p equazioni
F1 (X 1 , . . . , X n ) = = F p (X 1 , . . . , X n ) = 0
nelle indeterminate X 1 , . . . , X n , si pone il problema di descrivere il sottoinsieme
T S costituito dai punti P le cui coordinate soddisfano le precedenti equazioni.
definizione 6.9 Seguendo luso diremo che T il luogo definito dal sistema

di equazioni (o semplicemente, dalle equazioni) F1 (X 1 , . . . , X n ) = 0, . . . ,


F p (X 1 , . . . , X n ) = 0.

Il caso pi agevole da studiare naturalmente quello in cui le equazioni considerate


sono lineari: esso verr risolto nella parte conclusiva di questa sezione.
Consideriamo un sistema di p equazioni lineari in n indeterminate
a 11 X 1 + + a 1n X n b 1 = = a p1 X 1 + + a pn X n b n = 0
Consideriamo poi il luogo L S costituito dai punti P le cui coordinate c (P ) =
( p 1 , . . . , p n ), rispetto ad un prestabilito sistema di riferimento (O, u), soddisfano
alle equazioni del sistema. L sar linsieme vuoto se il sistema non ammette soluzioni;
supporremo dunque che il sistema ammetta soluzioni. Per capire in generale che cosa
L conviene fissare un suo punto U L di coordinate c (U ) = (u 1 , . . . , u n ) e
considerare linsieme di vettori W = {P a U, P L}.
una conseguenza immediata della definizione di W che L = {P S | P =
U +a w, w W}.
130

6.2 Coordinate cartesiane


Se W fosse un sottospazio vettoriale di V , L sarebbe allora una variet lineare: precisamente la variet lineare passante per U e parallela a W. Il successivo lemma ci dice
che ci troviamo esattamente in questa situazione
lemma 6.1 W un sottospazio vettoriale di V .

Dimostrazione Sia t = t1 u 1 + + tn u n un vettore di V . Preliminarmente osserviamo


che t W se, e solo se, (t1 , . . . , tn ) una soluzione del sistema omogeneo
a i1 X 1 + + a in X n = 0, i = 1, . . . , p
Infatti a i1 t1 + +a in tn = 0, i = 1, . . . , p, se e solo se a i1 (u 1 +t1 )+ +a in (u n +tn ) =
bi , i = 1, . . . , p, e cio se, e solo se, il punto P = U +a t appartiene a L; equivalentemente,
se e solo se il vettore t = P a U appartiene a W. Proviamo ora che W un sottospazio:
consideriamo due vettori qualsiasi di W t = t1 u 1 + + tn u n e t  = t1 u 1 + + tn u n .
Allora le n-uple (t1 , . . . , tn ) e (t1 , . . . , tn ) sono soluzioni del precedente sistema omogeneo.
Poich il sistema omogeneo, anche la somma (t1 + t1 , . . . , tn + tn ) soluzione del sistema.

Segue quindi che t + t  = (t1 + t1 )u 1 + + (tn + tn )u n W e che W un sottoinsieme


chiuso rispetto alla somma di vettori. Analogamente si prova che W chiuso rispetto alla
moltiplicazione di un vettore per un numero reale: lasciamo al lettore la facile verifica di
questo punto. Possiamo pertanto concludere che W un sottospazio vettoriale di V .


Il lemma e losservazione precedente al lemma implicano quanto segue:


proposizione 6.6 Sia S uno spazio affine di dimensione n sul quale sia stato fissato

un riferimento cartesiano. Sia poi L S il luogo costituito dai punti P le cui


coordinate soddisfano un dato sistema di equazioni lineari
a 11 X 1 + + a 1n X n b 1 = 0, . . . , a p1 X 1 + + a in X n b p = 0
Se il sistema ammette soluzioni allora il luogo L una variet lineare.

Naturalmente L vuoto se il sistema non ammette soluzioni. Abbiamo appena provato che il luogo definito da un sistema compatibile di equazioni lineari una variet
lineare. Viceversa abbiamo:
proposizione 6.7 Ogni variet lineare L S il luogo dei punti P di S le cui

coordinate, rispetto ad un sistema di riferimento (O, u), soddisfano un sistema di


equazioni lineari.

Sia W la giacitura di L e sia w1 , . . . , w k una base ordinata di W. Per il


Teorema di completamento (Teorema 4.4), esiste una base ordinata w 1 , . . . , w n i cui primi

Dimostrazione

131

6 Spazi euclidei
k vettori sono proprio w 1 , . . . , w k . Indichiamo con w tale base ordinata e consideriamo il
sistema di riferimento (U, w) dove U un punto di L. Rispetto a tale sistema di riferimento,
L il luogo dei punti P di coordinate c (P ) = (y 1 , . . . , y n ) tali che y k+1 = 0, . . . , y n = 0.
Osserviamo infatti che per ogni punto P di coordinate (y 1 , . . . , y n ) si ha P a U = y 1 w1 +
+ y n wn .
Ora P appartiene a L se e solo se P a U W e cio se e solo se P a U combinazione
lineare dei primi k vettori w 1 , . . . , wk . Ci equivale a dire che y k+1 = = y n = 0.
Indicando con (x 1 , . . . , x n ) le coordinate di P rispetto al sistema di riferimento (O, u)
abbiamo daltra parte P a U = (x 1 u 1 )u 1 + + (x n u n )u n dove (u 1 , . . . , u n )
sono le coordinate di U rispetto a (O, u). Sia infine A la matrice del cambiamento di base
dalla base ordinata
base ordinata
y w; dalla propriet fondamentale di tale matrice segue
u alla
x 1 u 1
.1
..
= .. .
luguaglianza A
.
x n u n

yn

In particolare, indicando con a i j i termini di A, abbiamo a i1 (x 1 u 1 )+ +a in (x n u n ) =


y i per ogni i = 1, . . . , n. Segue quindi che L il luogo dei punti P le cui coordinate
(x 1 , . . . , x n ) rispetto a (O, u) soddisfano al sistema di n k equazioni lineari
a i,1 (X 1 u 1 ) + + a i,n (X n u n ) = 0, i = k + 1, . . . , n
nelle indeterminate X 1 , . . . , X n . Ci completa la dimostrazione.


I risultati dimostrati nelle due ultime proposizioni caratterizzano in modo completo


le variet lineari, essi possono essere cos riassunti:
Sia T un sottoinsieme non vuoto di uno spazio affine S, allora le
seguenti due condizioni sono equivalenti:

teorema 6.1

1.
2.

T una variet lineare;


fissato su S un sistema di riferimento, T il luogo dei punti P le cui
coordinate soddisfano un sistema compatibile di equazioni lineari.

Vedremo in qualche caso che le cose si complicano se si considerano luoghi definiti da


equazioni che non siano lineari. Per esempio lo studio dei luoghi Q S che siano
definiti, rispetto ad un sistema di riferimento, da unequazione di secondo grado
richiede, come vedremo, unelaborazione molto maggiore (cap. 12 e 13).
Ricordiamo che ogni variet lineare ha una dimensione, per definizione uguale alla dimensione della sua giacitura W. Come calcolare la dimensione di L avendo a disposizione le sue equazioni? La risposta, di cui omettiamo per brevit lovvia dimostrazione
la seguente:
132

6.3 Alcune propriet metriche


proposizione 6.8 Sia L una variet lineare in uno spazio affine di dimensione n

e siano
a 11 X 1 + + a 1n X n b 1 = = a p1 X 1 + + a pn X n b p = 0
le sue equazioni rispetto ad un sistema di riferimento assegnato. Allora la dimensione di L n r , dove r il rango della matrice dei coefficienti del precedente
sistema di equazioni lineari.

6.3

Alcune propriet metriche

La geometria di Euclide fa uso della nozione di distanza tra punti e fissa quindi, sullo
spazio S, una unit di misura della lunghezza dei segmenti. Le propriet metriche
sono, in senso lato, quelle che hanno a che fare con la distanza. Pi precisamente,
si pu considerare linsieme delle isometrie di S, cio linsieme delle corrispondenze
biunivoche f : S S che preservano la distanza: ci vuol dire che per ogni coppia
di punti P , Q S la distanza di P da Q deve essere uguale alla distanza di f (P ) da
f (Q). Due sottoinsiemi di S si dicono congruenti o isometrici se luno immagine
dellaltro mediante una isometria. Le propriet metriche di un sottoinsieme T di S
sono infine quelle comuni a T e ad ogni sottoinsieme T  congruente a T. Lo studio
della geometria di Euclide si basa proprio sul principio di determinare le propriet
metriche dei sottoinsiemi di S.
Ancora una volta ci proponiamo di estendere e studiare tutte queste nozioni in un ambito pi vasto (par. 6.5, in particolare Definizione 6.23). Per fare questo, dobbiamo
quindi introdurre in uno spazio affine S la nozione di distanza tra punti.
Nel caso particolare di S e dello spazio V dei vettori geometrici possiamo osservare che
la distanza d (P , Q) tra i punti P e Q pu essere anche definita nel modo seguente:

sia v la classe di equipollenza del segmento orientato P Q allora d (P , Q) = v v,


dove, come nel paragrafo 5.1, indica il prodotto scalare geometrico e luguaglianza
segue subito dalla definizione di tale prodotto. In questa sezione useremo la nozione
generale di prodotto scalare e di norma (Definizione 5.16) per definire, in modo
del tutto analogo, la distanza tra punti di uno spazio affine e per studiarne alcune
propriet.
definizione 6.10 Uno spazio euclideo uno spazio affine sul cui spazio dei

vettori V sia stato scelto un prodotto scalare.


Se V lo spazio dei vettori di uno spazio euclideo S, indicheremo con  ,  il prodotto
scalare scelto su V .
133

Spazio euclideo

6 Spazi euclidei

definizione 6.11 Siano P , Q due punti dello spazio euclideo S; si definisce la

Distanza tra due punti


di S

distanza di P da Q il numero reale non negativo



d (P , Q) = P a Q, P a Q = || P a Q ||

Possiamo dunque dire che la distanza di P da Q la lunghezza del vettore P a Q


di V . La distanza tra due punti P e Q soddisfa alle propriet seguenti:
1.
2.
3.

d (P , Q) 0;
d (P , Q) = d (Q, P );
d (P , Q) = 0 se, e solo se, P = Q.

Il lettore potr dedurre immediatamente tali propriet dalle corrispondenti propriet


del prodotto scalare  , .
Disuguaglianza
triangolare

Unaltra propriet fondamentale della distanza d , valida per ogni spazio euclideo S,
la cosiddetta disuguaglianza triangolare: siano A, B, C punti qualsiasi di S allora
d (A, C ) d (A, B) + d (B, C ).
Per dimostrarla, possiamo utilizzare la diseguaglianza di Schwarz (Teorema 5.6). Posto infatti u := C a B e v := B a A abbiamo d (A, C )2 = u + v, u + v =
d (A, B)2 + d (B, C )2 + 2u, v.
Per la disuguaglianza di Schwarz, abbiamo u, v2 u, u v, v = d (A, B)2
d (B, C )2 e cio u, v | u, v | d (A, B)d (B, C ).
Da questultima disuguaglianza e dalla prima uguaglianza segue allora
d (A, C )2 d (A, B)2 + d (B, C )2 + 2d (A, B)d (B, C ) =
= (d (A, B) + d (B, C ))2
che prova lasserto. Il lettore potr determinare facilmente tutti i casi in cui vale
luguaglianza.
definizione 6.12 Sia S uno spazio euclideo; un sistema di riferimento ortonor-

male di S un sistema di riferimento cartesiano (S, u) tale che u una base


ortonormale per il prodotto scalare  , .

Vogliamo ora brevemente mettere in evidenza alcune formule ed anche lutilit di


usare un sistema di riferimento ortonormale. Supporremo dunque che il sistema
di riferimento considerato (O, u) sia ortonormale ed indicheremo con u 1 , . . . , u n
i vettori della base ordinata u.
134

6.4 Trasformazioni afni


Siano P e Q punti di coordinate ( p 1 , . . . , p n ) e (q 1 , . . . , q n ), allora d (P , Q) =

( p 1 q 1 )2 + + ( p n q n )2 .

Formula della distanza


tra due punti

Abbiamo infatti che P a Q = ( p 1 q 1 )u 1 + + ( p n q n )u n ed inoltre vale


d (P , Q)2 = P a Q, P a Q = ( p 1 q 1 )2 + + ( p n q n )2 .
La seconda uguaglianza vale perch u una base ortonormale. Ricordiamo infatti che
per una tale base vale la propriet x , y  = x 1 y 1 + + x n y n qualunque siano i
vettori x = x 1 u 1 + + x n u n e y = y 1 u 1 + + y n u n .
Una ipersfera di raggio r > 0 e di centro C per definizione il sottoinsieme

Ipersfere

= {P S | d (P , C ) = r }.

viene chiamata circonferenza se dimS = 2, cio se S un piano euclideo. Se S ha


dimensione 3,
viene chiamata sfera. In un sistema di riferimento ortonormale

definita dalla seguente equazione:
(X 1 c 1 )2 + + (X n c n )2 = r 2
dove (c 1 , . . . , c n ) sono le coordinate di C . Sia infatti P un punto di coordinate
( p 1 , . . . , p n ); poich u una base ortonormale la distanza al quadrato di P da C
( p 1 c 1 )2 + +( p n c n )2 . Quindi P appartiene a
se, e solo se, le sue coordinate
soddisfano alla precedente equazione. Studieremo in dettaglio circonferenze e sfere
nei successivi capitoli (capp. 7 e 8).

6.4

Trasformazioni afni

Tra le corrispondenze biunivoche di uno spazio affine S ve ne sono alcune che hanno
un particolare significato geometrico e talvolta maggiore semplicit. Tra queste abbiamo gi incontrato le traslazioni e le omotetie. Nel caso poi in cui S sia uno spazio
euclideo S, abbiamo inoltre menzionato le isometrie, ovvero quelle corrispondenze
biunivoche che preservano la distanza tra due punti (par. 6.3).
Tutte queste corrispondenze rappresentano esempi particolari della pi generale nozione di trasformazione affine, che verr definita e studiata in questa sezione.
Nel seguito diremo che una funzione (equivalentemente, unapplicazione) f : S S
trasforma il sottoinsieme I di S in I  se I  linsieme immagine di I mediante la
funzione f ovvero se I  = f (I ).
135

6 Spazi euclidei
definizione 6.13 Sia f : S S una corrispondenza biunivoca. Diremo che

f unaffinit (equivalentemente, trasformazione affine) se f ha la seguente


propriet:
() (D a C ) = t (B a A) = f (D) a f (C ) = t ( f (B) a f (A))
qualunque siano i punti A, B, C, D di S e qualunque sia t R.
Introduciamo ora una terminologia che svolger un ruolo fondamentale nei capitoli 12 e 13.
definizione 6.14 Siano I e I  due sottoinsiemi qualsiasi di uno spazio affine S.

Sottoinsiemi afnemente
equivalenti.
Propriet afni

I e I  si dicono affinemente equivalenti se esiste unaffinit f : S S tale


che f (I ) = I  .
Una propriet affine di un sottoinsieme I S una propriet che comune
a tutti i sottoinsiemi di S affinemente equivalenti ad I .
Al fine di mettere in maggiore evidenza i risvolti geometrici di queste definizioni,
esamineremo ora alcune delle propriet che le trasformazioni affini preservano.
definizione 6.15 Sia g : S S una corrispondenza biunivoca, diremo che g

trasforma rette parallele in rette parallele se:


1.
2.

g trasforma ogni retta in una retta;


g trasforma due rette parallele in due rette parallele.

proposizione 6.9 Unaffinit f trasforma rette parallele in rette parallele.

Dimostrazione Sia r la retta passante per il punto C e parallela al vettore v: al variare di


t in R r linsieme dei punti Dt = C +a tv. Siano A, B due punti tale che B a A = v,
poich f unaffinit abbiamo f (Dt ) = f (C ) +a t ( f (B) a f (A)).
Pertanto f (r ) la retta passante per f (C ) e parallela a w = f (B) a f (A).
Sia ora r  una retta parallela a r e sia C  r  , allora r  linsieme dei punti Dt = C  +a
t (B a A), t R. Poich f unaffinit abbiamo f (Dt ) = f (C  ) +a t ( f (B) a f (A)).
Quindi f (r  ) parallela a f (r ) e f trasforma rette parallele in rette parallele.


Osservazione 6.2
La propriet di trasformare rette parallele in rette parallele per esempio c un numero reale non nullo e sia g : S S
condizione necessaria ma non sufciente a caratterizza- una corrispondenza biunivoca soddisfacente alla seguente
re le afnit tra tutte le corrispondenze biunivoche di S. Sia propriet:

136

6.4 Trasformazioni afni


qualunque siano A, B, C, D S e t R. Con una dimo()c : (D a C) = t(B a A) = f(D) a g(C) = strazione del tutto analoga alla precedente si prova che g
= ct(gB) a g(A))
trasforma rette parallele in rette parallele.

proposizione 6.10 Unaffinit f trasforma il segmento di estremi A e B nel segmento di estremi f (A) e f (B).

Il segmento di estremi A e B linsieme dei punti Pt = A + t (B a A),


0 t 1. Poich f un affinit f (Pt ) = f (A) +a t ( f (B) a f (A), al variare di t il
punto f (Pt ) descrive quindi il segmento di estremi f (A) e f (B).


Dimostrazione

Diremo che due segmenti A B e C D sono paralleli se A = B, C = D e se vale


t (B a A) = (D a C ).
In tal caso porremo | t |= CA D
e chiameremo tale valore assoluto fattore di proporzione
B
di C D su A B. Si noti che esso dipende solo da A B e C D e non dallordine in cui
sono scritti i loro estremi.
definizione 6.16 Diremo che una corrispondenza biunivoca g : S S preser-

va le proporzioni tra segmenti paralleli se

CD
AB

g (C )g (D)
g (A)g (B)

qualunque siano i

segmenti paralleli A B e C D.
Tra gli ordinamenti che possibile fissare sullinsieme dei punti di un segmento di
estremi A e B ci sono in particolare i due cos definiti:

orientamento naturale da A a B : per definizione P1 P2 se e solo se t1 t2 ,


dove P1 = A +a t1 (B a A) e P2 = A +a t2 (B a A);
orientamento naturale da B ad A : per definizione P1 P2 se e solo se u 1
u 2 , dove P1 = B +a u 1 (A a B) e P2 = B +a u 2 (A a B).

Se, in uno dei due ordinamenti, P1 P2 diremo che P1 precede P2 .


Osservazione 6.3
Si osservi che ti (B a A) = (B a A) (Pi a B) = precede P2 in un orientamento se, e solo se, P2 precede P1
(B a A) ui (B a A) e quindi che ti + ui = 1. Essendo nellaltro. Per questo motivo si dice che i due orientamenti
ui , ti 0, segue che t1 t2 se, e solo se, u2 u1 . Quindi P1 sono opposti.

definizione 6.17 Un segmento orientato un segmento I di estremi A e B

sul quale sia stato fissato uno dei due orientamenti naturali. Per indicare che

lorientamento fissato su I da A a B indicheremo tale segmento con A B.


137

6 Spazi euclidei

Diremo che i segmenti orientati A B e C D sono concordi se A = B, C = D e se vale

t (B a A) = (D a C ), con t > 0. In caso contrario A B e C D si dicono discordi.
definizione 6.18 Diremo che una corrispondenza biunivoca g : S S trasfor-

ma segmenti orientati concordi in segmenti orientati concordi se f (A) f (B)

e f (C ) f (D) sono concordi, qualunque siano i segmenti orientati concordi



A B e C D.

In conclusione le affinit di S possono essere cos caratterizzate:


teorema 6.2 Una corrispondenza biunivoca g : S S unaffinit se, e solo se,

soddisfa alle seguenti condizioni:


1.
2.
3.

g trasforma rette parallele in rette parallele;


g preserva le proporzioni tra segmenti paralleli;
g trasforma segmenti orientati concordi in segmenti orientati concordi.

Ometteremo la non difficile dimostrazione di questo teorema per passare allo studio
delle trasformazioni affini dal punto di vista delle loro equazioni.
Equazioni
di una trasformazione
afne

Il modo pi efficace di studiare e comprendere una trasformazione affine consiste nel


considerarne le equazioni dopo avere fissato un sistema di riferimento (O, u) su S.
Supporremo dunque fissato una volta per tutte (O, u) e indicheremo con u 1 , . . . , u n
i vettori della base ordinata u. Consideriamo una funzione qualsiasi f : S S. Una
volta fissato (O, u) possiamo associare a f le funzioni
f i : Rn R,

i = 1, . . . , n

definite nel modo seguente: per ogni ( p 1 , . . . , p n ) Rn poniamo


f i ( p 1, . . . , p n ) = qi
dove q i la i-esima coordinata di f (P ) e dove P il punto di coordinate ( p 1 , . . . ,
p n ). Diremo che f 1 , . . . , f n sono le funzioni coordinate di f rispetto al riferimento
(O, u). In molti casi la funzione f i pu essere definita mediante unequazione
Yi = f i (X 1 , . . . , X n )
dove Yi , X 1 , . . . , X n sono indeterminate. Questo vorr dire che ponendo X 1 =
p 1 , . . . , X n = p n si otterr Yi = q i . In tal caso diremo che f ha equazioni
Y1 = f 1 (X 1 , . . . , X n ), . . . , Yn = f n (X 1 , . . . , X n )
rispetto al sistema di riferimento (O, u). chiaro che una tale n-upla determina completamente la funzione f .
138

6.4 Trasformazioni afni

Esempio 6.5 Equazioni di traslazioni ed omotetie


1.

Sia tv la traslazione parallela al vettore b = b1 u1 + +bn un , allora tv ha equazioni


Y1 = b1 + X1 , . . . , Yn = bn + Xn
Se infatti P = (p1 , . . . , pn ) allora tv (P) = (b1 + p1 , . . . , bn + pn ).

2.

Sia oC,k lomotetia di centro il punto C = (c1 , . . . , cn ) e rapporto k, allora oC,k ha


equazioni
Y1 = (1 k)c1 + kX1 , . . . , Yn = (1 k)cn + kXn
Sia infatti f la funzione denita dalle precedenti equazioni: se P = (p1 , . . . , pn )
allora f(P) = ((1 k)c1 + kp1 , . . . , (1 k)cn + kpn ) e quindi
f(P) a P = k(c1 p1 )u1 + + k(cn pn )un = k(P a C).
Perci f proprio lomotetia oC,k . Per k = 1 si ottengono le equazioni della
simmetria di centro il punto C.

Rn R si dice lineare se pu essere definita


mediante unequazione Y = b+a 1 X 1 + +a n X n , dove b+a 1 X 1 + +a n X n
un polinomio di primo grado in X 1 , . . . , X n .
definizione 6.19 Una funzione h :

definizione 6.20 Diremo che una funzione f : S S ha equazioni lineari se


le sue funzioni coordinate f 1 , . . . , f n sono funzioni lineari rispetto al sistema
di riferimento assegnato.

Traslazioni ed omotetie sono esempi di questo tipo; come abbiamo visto esse possono
essere definite mediante un sistema di equazioni lineari
Y1 = b 1 + a 11 X 1 + + a 1n X n , . . . , Yn = b n + a n1 X 1 + + a nn X n
Questa propriet caratterizza le trasformazioni affini tra tutte le corrispondenze biunivoche di S ed questa propriet che le rende particolarmente importanti.
teorema 6.3 Una corrispondenza biunivoca f : S S unaffinit se, e solo
se, ha equazioni lineari rispetto al sistema di riferimento assegnato.

Sia f : S S unaffinit. Fissato un sistema di riferimento (O, u)


siano U0 , . . . , Un i punti cos definiti:

Dimostrazione

U0 = O,

U1 = u 1 +a O,

U2 = u 2 +a U1 , . . . , Un = u n +a Un1

139

6 Spazi euclidei
Sia poi P il punto di coordinate ( p 1 , . . . , p n ); analogamente siano
P0 = O,

P1 = p 1 u 1 +a O,

P2 = p 2 u 2 +a P1 , . . . , Pn = p n u n +a Pn1

Si noti che Pi a Pi1 = p i (Ui a Ui1 ) = p i u i per i = 1, . . . , n e quindi che P = Pn : ci




segue dalle uguaglianze Pn a O = i=1,...,n (Pi a Pi1 ) = i=1,...,n p i (Ui Ui1 ) =
P a O.
Pertanto f (P ) = f (Pn ) e perci abbiamo f (Pn ) a f (O) =
f (Pi1 )) = f (P ) a f (O).

i=1,...,n ( f (P )i

Daltra parte f unaffinit e dunque f (Pi ) a f (Pi1 ) = p i ( f (Ui ) a f (Ui1 ), i =


1, . . . , n.
Posto v i = f (Ui ) a f (Ui1 ) possiamo concludere che f (P ) a f (O) =


i=1,...,n

p i vi .

Poich u una base abbiamo v i = a 1i u 1 + + a ni u n , i = 1, . . . , n. Sostituendo tale


espressione di v i nella precedente uguaglianza, si ottiene f (P ) a f (O) = (a 11 p 1 + +
a 1n p n )u 1 + + (a n1 p 1 + + a nn p n )u n .
Daltra parte siano f (P ) = (q 1 , . . . , q n ) e f (O) = (b 1 , . . . , b n ) allora f (P ) a f (O) =
(q 1 b 1 )u 1 + + (q n b n )u n e quindi q i = bi + a i1 p 1 + + a in p n . Ci prova che
f ha equazioni lineari
Y1 = b 1 + a 11 X 1 + + a 1n X n , . . . , Yn = b n + a n1 X 1 + + a nn X n
Viceversa sia f : S S una corrispondenza biunivoca che ha equazioni come le precedenti
rispetto a (O, u). Siano E = (e 1 , . . . , e n ), F = ( f 1 , . . . , f n ), G = (g 1 , . . . , g n ), H =

(h 1 , . . . , h n ) punti di S; allora: f (F )a f (E ) = i=1,...,n [a i1 (e 1 f 1 )+ +(e n f n )]u i

e f (H) a f (G) = i=1,...,n [a i1 (h 1 g 1 ) + + (h n g n )]u i .
Inoltre abbiamo F a E =

i=1,...,n ( f i

e i )u i , H a G =

i=1,...,n (h i

g i )u i .

Dalle ultime quattro uguaglianze segue subito che (H a G) = t (F a E ) = (h i g i ) =


t ( f i e i ) = ( f (H) a f (G)) = t ( f (F ) a f (E )). Quindi f unaffinit.


Afnit e matrici

Abbiamo visto nel corso della dimostrazione precedente che, fissato un qualunque
riferimento (O, u) su S, una trasformazione affine ha equazioni lineari
Yi = bi + a i1 X 1 + + a in X n

i = 1, . . . , n

Riscrivendo il tutto nella forma di un prodotto di matrici abbiamo:




Y1
b1
X1
.. ..
..
[6.1]
. = . + A .
Yn
bn
Xn
dove A = (a i j ).
140

6.4 Trasformazioni afni

definizione 6.21 Se in particolare b i = 0, per ogni i = 1, . . . , n, allora laffinit

Afnit lineari

f si dice affinit lineare.


Osservazione 6.4
Osserviamo che unafnit f lineare se, e solo se, f(O) = O. afne di S che preserva lo spazio vettoriale V dei vettori di S,
Dalla Proposizione 6.10 e dal Teorema 6.2, discende allora i.e. trasforma vettori di V in vettori di V.
che unafnit lineare in particolare una trasformazione

Sia f unaffinit di equazioni come in [6.1]. Poich f una corrispondenza biunivoca


di S, possiamo considerare la sua corrispondenza biunivoca inversa f 1 : S S.
Come sappiamo f 1 associa ad un punto Q S quellunico punto P = f 1 (Q)
tale che f (P ) = Q. Vogliamo ora descrivere le equazioni di f 1 ; a tale scopo
osserviamo innanzitutto che
Data f unaffinit, di equazioni come in [6.1], la matrice A

proposizione 6.11

invertibile.
Dimostrazione

Ricordiamo che una matrice quadrata A invertibile se


il suo
se

e solo
X1
0
..
..
= .
rango massimo e cio se e solo se lunica soluzione del sistema omogeneo A .
Xn

la soluzione nulla. Sia ( p 1 , . . . , p n ) una soluzione del sistema; applicando f al punto


P = ( p 1 , . . . , p n ) si ottiene f (P ) = f (O). Poich f iniettiva, segue che P = O e
che ( p 1 , . . . , p n ) la soluzione nulla. Quindi A invertibile.


q1
b1
.
..
Sia P = f 1 (Q), questo vuol dire che f (P ) = Q e cio che .. =
. +
qn
bn
p1

.
A .. , dove P = ( p 1 , . . . , p n ) e Q = (q 1 , . . . , q n ). Moltiplicando per A 1 , si
pn
c
b
q1
c 1
p 1

1
1
.
.
.
ottiene A 1 .. + .. = .. , dove abbiamo posto ... = A 1 ... .
q
p
c
n

f 1

cn

bn

La corrispondenza biunivoca
dunque definita dalle equazioni lineari


Y1
c1
X1
.. ..
1 ..
. = . + A .
Yn
cn
Xn
In particolare ci prova che f 1 unaffinit. Dora in poi indicheremo con A f f (S)
linsieme delle affinit di S e lo chiameremo gruppo delle affinit di S. Sia poi G L(n)
141

6 Spazi euclidei
il gruppo lineare, cio linsieme delle matrici invertibili di ordine n. Fissato un sistema
di riferimento (O, u) possiamo considerare la funzione
: A f f (S) G L(n)
che ad una affinit f A f f (S) associa la matrice A = ( f ) costruita come sopra
a partire da f . Vediamo come propriet particolari di f corrispondono a propriet
particolari di A in vari casi.
1.

2.

3.

Traslazioni: A = In .
Se A la matrice identit le equazioni di f sono Yi = bi + X i , i = 1, . . . , n.
In particolare f la traslazione parallela al vettore b 1 u 1 + + b n u n .
Omotetie: A = k In , k = 0, 1.
Le equazioni di f sono Yi = bi + k X i , i = 1, . . . , n. In particolare f fissa
b1
bn
, . . . , 1k
) ed lomotetia di centro C e rapporto k.
il punto C = ( 1k
Involuzioni: A A = In .
Le involuzioni sono quelle affinit f : S S tali che f f la funzione
identica, in altre parole esse sono caratterizzate dalla propriet seguente: P
S, f ( f (P )) = P . Ponendo, nel caso precedente, k = 1 si ottiene la
simmetria di centro C che un semplice esempio di involuzione.
Fissando un sistema di riferimento e scrivendo le equazioni di f nella forma
di un prodotto
che valga f ( f (P )) = P per ogni
di matrici,
la condizione

p1

p1

b1
b1
..
..
..
..
P diventa:
=
per le coordinate
+ AA .
.
. + A .
pn
pn
bn
bn

b1
.
=
( p 1 , . . . , p n ) di P . Questo equivale a dire che A A = In e che A ..

b1

..
.

bn

.Queste due condizioni caratterizzano le involuzioni nellinsieme di

bn

tutte le affinit.
Punti ssi di unafnit

Sia f : S S unaffinit e sia F = {P S | f (P ) = P } linsieme dei suoi punti


fissi. Concludiamo questo paragrafo con una semplice descrizione di F .
teorema 6.4 Linsieme dei punti fissi di unaffinit una variet lineare oppure

linsieme vuoto.
Sia f unaffinit e siano Yi = bi + a i1 X 1 + + a in X n , i = 1, . . . , n,
le sue equazioni rispetto ad un sistema di riferimento assegnato. Un punto P S soddisfa
la condizione f (P ) = P se, e solo se, le sue coordinate soddisfano il sistema di equazioni
lineari X i = bi + a i1 X 1 + + a in X n , i = 1, . . . , n.

Dimostrazione

Linsieme F dei punti fissi di f dunque definito da tali equazioni ed quindi una variet
lineare se il sistema compatibile. In caso contrario F vuoto.


142

6.5 Isometrie

6.5

Isometrie

In questa sezione S sar uno spazio euclideo; sar dunque fissato sullo spazio V dei
vettori di S un prodotto scalare  , . Vogliamo estendere alcuni dei concetti introdotti allinizio del paragrafo 6.3, nel caso in cui S = S era lo spazio dei punti della
geometria euclidea.
Come sappiamo dalla Definizione 6.11, la nozione di distanza si ha pi generalmente
in un qualsiasi spazio euclideo S. evidente che, tra le corrispondenze biunivoche g :
S S, hanno particolare interesse quelle che preservano la distanza. Una propriet
in qualche misura inaspettata che tali funzioni sono tutte trasformazioni affini e
quindi definite da equazioni lineari.
definizione 6.22 Una corrispondenza biunivoca g : S S si dice isometria se

d (P , Q) = d (g (P ), g (Q)), qualunque siano i punti P , Q S.

In altri termini unisometria una corrispondenza biunivoca che preserva la lunghezza


dei segmenti. Osserviamo inoltre che unisometria preserva il prodotto scalare di vettori
nel senso precisato dalla propriet seguente:
proposizione 6.12 Una corrispondenza biunivoca g : S S una isometria se,

e solo se,
[]

P a R, Q a R = g (P ) a g (R), g (Q) a g (R)

qualunque siano i punti P , Q, R appartenenti a S.


Se [] vale, ponendo P = Q si ottiene che, qualunque siano P e R,
Dimostrazione
P a R, P a R = g (P ) a g (R), g (P ) a g (R).
Quindi g una isometria. Per provare il viceversa osserviamo che vale lidentit P a
Q, P a Q = P a R, P a R+Ra Q, Ra Q2P a R, Qa R, qualunque siano
P , Q, R S. Essa segue da (P a R)+(R a Q) = (P a Q) e dalle propriet del prodotto
scalare. In altri termini abbiamo 2P a R, Q a R = d (P , Q)2 d (P , R)2 d (Q, R)2 .
Se g unisometria, [] dunque soddisfatta.


Come fatto nella Definizione 6.14 per le affinit, introduciamo una terminologia
fondamentale per gli argomenti trattati nei capitoli 12, 13 e che estende al caso generale di S spazio euclideo quanto introdotto allinizio di paragrafo 6.3, nel caso di
S spazio dei punti della geometria euclidea.
143

Isometrie

6 Spazi euclidei

definizione 6.23 Siano I e I  due sottoinsiemi qualsiasi di uno spazio eucli-

Sottoinsiemi congruenti
(o isometrici).
Propriet metriche

deo S. I e I  si dicono congruenti (equivalentemente, isometrici) se esiste


unisometria f : S S tale che f (I ) = I  .

Una propriet metrica di un sottoinsieme I S una propriet che comune


a tutti i sottoinsiemi di S congruenti ad I .
La profonda analogia con quanto definito per le affinit non un caso. Infatti:
teorema 6.5 Ogni isometria g : S S unaffinit.

Data g unisometria, fissiamo arbitrariamente un punto O S e definiamo unapplicazione g : V V ponendo, per ogni punto P S, g (P a O) :=
g (P ) a g (O).

Dimostrazione

Per definizione di S e V , ogni vettore di v V della forma v = P a O, per un qualche


P S, pertanto g ben definita; inoltre g (0) = g (O a O) = g (O) a g (O) = 0.
Vogliamo ora dimostrare che, presi comunque v = P a O e w = Q a O vettori in V ,
per P , Q S, e t R, valgono g (v + w) = g (v) + g (w) e g (t v) = t g (v).
Dalla Proposizione 6.12 e da come abbiamo definito g , si ha
|| g (v + w) g (v) g (w) ||2 =|| g (v + w) ||2 + || g (v) ||2 +
+ || g (w) ||2 +2g (v), g (w) 2g (v), g (v + w)+
2g (v + w), g (w) || v + w ||2 + || v ||2 + || w ||2 +2v, w+
2v, v + w 2v + w, w = v + w, v + w + v, v+
+ w, w 2v, v + w 2v + w, w = 0
dove lultima eguaglianza discende dalla bilinearit del prodotto scalare. Per le ovvie propriet
della norma, si ha pertanto che g (v + w) g (v) g (w) = 0.
Considerando ora || g (t v) t g (v) ||2 , con conti analoghi ai precedenti, si dimostra
anche che g (t v) = t g (v), per ogni t R e per ogni v V .
Prendiamo ora P , Q, R, T S punti arbitrari e t R, tali che T a R = t (Q a P ).
Ricordiamo che Q a P = (Q a O) + (O a P ) e, analogamente, T a R = (T a
O) + (O a R). Pertanto, dalle ipotesi fatte, deve valere anche
g ((T a O) (R a O)) = g (t (Q a O) (P a O))
Per le propriet precedentemente dimostrate, abbiamo g ((T a O) (R a O)) =
(g (T) a g (O)) (g (R) a g (O)) = g (T) a g (R) e g (t ((Q a O) (P a O)) =
t g ((Q a O) (P a O)) = t (g (Q) a g (P )).

144

6.5 Isometrie
Pertanto, g (T) a g (R) = t (g (Q) a g (P )); dalla Definizione 6.13, questo mostra che g
unaffinit.


Non vero invece che ogni affinit unisometria. Per esempio tutte le omotetie di
rapporto k, con k = 1, sono esempi di affinit che non possono essere isometrie, dato che la distanza dal centro C non viene conservata. Nei successivi capitoli
studieremo anche altre trasformazioni che sono prettamente delle affinit (par. 7.6 e
par. 8.6).
Ricordando la Definizione 5.14, vogliamo dimostrare che in un riferimento ortonormale per S le isometrie corrispondono alle matrici ortogonali. Precisamente:
teorema 6.6 Sia (O, u) un sistema di riferimento ortonormale e sia f : S S

laffinit di equazioni

[6.2]



Y1
b1
X1
.. ..
..
. = . + A .
Yn
bn
Xn

Allora f una isometria se, e solo se, A una matrice ortogonale.

Siano P , Q punti qualsiasi di S e siano c (P ) = ( p 1 , . . . , p n ) e c (Q) =


(q 1 , . . . , q n ) le loro coordinate cartesiane. Poich u una base ortonormale (par. 6.3), la
formula della distanza tra due punti ci dice che

Dimostrazione

p 1 q1

d (P , Q)2 = P a Q, P a Q = ( p 1 q 1 , . . . , p n q n ) ...
p n qn
p
Si osservi daltra parte che la colonna delle componenti di f (P ) a f (Q) A

1 q 1

..
.

p n q n

e che la trasposta di questultimo prodotto ( p 1 q 1 , . . . , p n q n )t A. Possiamo quindi


concludere che

p 1 q1

d ( f (P ), f (Q))2 = ( p 1 q 1 , . . . , p n q n ) tA A ... =
=

p n qn
m i j ( p i q i )( p j q j )

1i, j n

dove m i j indica il termine di posto i, j della matrice tA A.

145

Isometrie e matrici
ortogonali

6 Spazi euclidei
Dopo queste osservazioni preliminari, possiamo passare alla dimostrazione del teorema. Se
A ortogonale tA A = In e, dalla precedente uguaglianza, abbiamo d (P , Q)2 = d ( f (P ),
f (Q))2 quindi f unisometria. Se viceversa f unisometria allora d ( f (P ), f (Q))2 =
d (P , Q)2 qualunque siano i punti P e Q. Per la precedente uguaglianza ci vuol dire che


2
i=1,...,n ( p i q i ) =
1i, j n m i j ( p i q i )( p j q j ) qualunque siano P e Q. Ponendo in


2
particolare Q = O vale allora i=1,...,n p i = 1i, j n m i j p i p j per ogni ( p 1 , . . . , p n )
Rn . Da ci segue subito che m ii = 1 e che m i j = 0 se i = j . Quindi tA A = (m i j ) = In
ed A una matrice ortogonale.


Notiamo che, una matrice ortogonale A ha necessariamente determinante uguale a


1. Infatti, ricordando che una qualsiasi matrice invertibile ha determinante uguale
a quello della sua trasposta, applicando il Teorema di Binet (Teorema 3.8) alla condizione tA A = A tA = In di ortogonalit di A, otteniamo che (det A)2 = 1, quindi
lasserto. Abbiamo pertanto, la seguente:
definizione 6.24 Sia f unisometria come in [6.2]. f si dice isometria diretta

(rispettivamente, inversa) se det A = 1 (rispettivamente, det A = 1).

Osservazione 6.5
Notiamo che, sempre dal Teorema di Binet, la composizione nale speciale, mentre quella di unisometria inversa si didi due isometrie dirette (rispettivamente, inverse) sempre ce ortogonale non speciale. Pertanto le matrici ortogonali
unisometria diretta.
si suddividono in due classi disgiunte: le speciali e le non
speciali. In particolare, la matrice identit In appartiene alla
La matrice A di unisometria diretta si dice matrice ortogo- classe delle matrici ortogonali speciali.

Come nella Definizione 6.21 concludiamo con il menzionare alcuni casi particolari,
ma importanti, di isometrie.
definizione 6.25 Sia f unisometria come in [6.2]. Se b i = 0, per ogni i =

Isometrie lineari

1, . . . , n, f si dice isometria lineare.

Osservazione 6.6
Come nellOsservazione 6.4, unisometria f lineare se, e so- mazione afne di S che preserva lo spazio vettoriale V dei
lo se, f(O) = O. Pertanto, dalla Proposizione 6.10 e dal Teo- vettori di S.
rema 6.2, unisometria lineare in particolare una trasfor-

146

6.6 Orientazione di spazi vettoriali

6.6

Orientazione di spazi vettoriali

In questo paragrafo facciamo un piccolo passo indietro, tornando a considerare gli


spazi vettoriali ed introducendo la nozione di orientazione di un sistema di n vettori
in uno spazio vettoriale V di dimensione n 2. Questa nozione sar ampiamente
usata nei capitoli 7 e 8.
Il motivo per cui trattiamo questi argomenti alla fine di questo capitolo dipende dal
fatto che, per le applicazioni fondamentale stabilire come cambia la nozione di
orientazione quando sui vettori del sistema dato agiscono delle affinit lineari o delle
isometrie lineari studiate nei due paragrafi precedenti (Osservazioni 6.4 e 6.6).
Supponiamo fissata, una volta per tutte, su V una base e . Siano dati n vettori v 1 ,
v 2 , . . . , v n non nulli in V .
definizione 6.26 Con notazioni come sopra si definisce lorientazione del siste-

ma ordinato di vettori v = v 1 , v 2 , . . . , v n rispetto alla base e , denotata con


Or (v 1 , v 2 , . . . , v n ), il segno del determinante della matrice A, n n, delle
componenti di v rispetto ad e (Definizione 4.25).

In altre parole, se supponiamo che le componenti di v i rispetto alla base e sono



a 1i
a 2i

[6.3]
vi =
,1 i n

a ni
allora:
(i)
(ii)

Or (v 1 , v 2 , . . . , v n ) = 0, se v non una base;


se invece v una base, la matrice A := (a i j ), 1 i, j n, ha per iesima colonna le componenti di v i come in [6.3]. Pertanto essa non altro
che la matrice cambiamento di base Me v (Definizione 4.26). Denotato con
det A
A := | det A| = 1.

il segno del determinante di A, allora


[6.4]

Or (v 1 , v 2 , . . . , v n ) = A

Notiamo che lorientazione di e (rispetto ad e ) Or (e 1 , e 2 , . . . , e n ) = 1, dato che


in tal caso A = In . Notiamo inoltre che lorientazione di una qualsiasi base dipende
strettamente dallordine scelto dei vettori della base. Per esempio, se v = v 1 , v 2 ,
. . . , v n una qualsiasi base per V , si ha Or (v 1 , v 2 , . . . , v i , . . . , v j , . . . , v n ) =
Or (v 1 , v 2 , . . . , v j , . . . , v i , . . . , v n ) per ciascun 1 i = j n. Pertanto, ogni
147

6 Spazi euclidei
volta che scambiamo di posto a due vettori della base, bisogna moltiplicare per 1 il
precedente valore di orientazione.
In particolare, abbiamo anche:
definizione 6.27 Sia v = v 1 , v 2 , . . ., v n una base per V . Se Or (v 1 , v 2 , . . . , v n )

uguale a:
(i)
(ii)

1, la base v si dir orientata positivamente (od equiorientata con la base


e );
1, la base v si dir orientata negativamente (o non equiorientata con
la base e );

Date ora due basi v e w di V , se sia v che w sono (rispettivamente, non sono)
equiorientate con e , allora diremo che v e w sono equiorientate fra loro. In effetti,
questa definizione naturale dato che compatibile con il fatto che, in tale situazione, si ha: Mvw = Mve Me w . Pertanto, dal Teorema di Binet (Teorema 3.8),
det M
det Mvw = (det Mve )(det Me w ) = det Meewv , che sempre positivo. In definitiva,
lequiorientazione di basi una relazione di equivalenza sullinsieme BV delle basi di
V . Precisamente, V possiede esattamente due orientazioni, cio BV ripartito in due
insiemi disgiunti BV+ , contenente tutte le basi equiorientate con e , e BV , contenente tutte quelle non equiorientate con e . Per ogni coppia di basi v e w prese in BV+
(rispettivamente, BV ) esse sono equiorientate fra loro.
Esempio 6.6 Basi di Rn ed orientazione
Nei capitoli successivi, utilizzeremo queste nozioni principalmente nel caso V = Rn ed e la
base canonica. Se per esempio v = v1 , v2 , . . . , vn una qualsiasi base ortonormale di Rn ,
rispetto al prodotto scalare standard, se A = Mev allora Or(v1 , v2 , . . . , vn ) = detA, dato
che in tal caso A una matrice ortogonale, quindi il suo determinante 1. Il fatto che v
stia in B +n o meno dipender dal fatto che A sia una matrice ortogonale speciale o meno
R

(Osservazione 6.5).

Vediamo ora come varia la propriet di orientazione rispetto alla base e quando applichiamo delle affinit lineari o delle isometrie lineari ai vettori della base v (Osservazioni 6.4 e 6.6). Il seguente risultato immediata conseguenza del Teorema di
Binet (Teorema 3.8) e della Definizione 6.26.
proposizione 6.13 Siano V , e e v come sopra. Sia B una qualsiasi matrice n n
det B

invertibile. Allora, detto B = | det B| = 1 il segno del determinante di B,


si ha: Or (Bv 1 , Bv 2 , . . . , Bv n ) = B Or (v 1 , v 2 , . . . , v n ).
148

6.6 Orientazione di spazi vettoriali


Il precedente risultato in altri termini stabilisce il fatto che se abbiamo una base v
di uno spazio vettoriale e consideriamo i trasformati dei vettori della base v per
mezzo di unaffinit lineare B che opera su V , allora si ottiene una nuova base
w = Bv 1 , . . . , Bv n che sar equiorientata a v o meno a seconda che il determinante
di B sia positivo o negativo.
Esempio 6.7 Orientazione di basi in R2


2
2
2

due vettori di R2 espressi rispetto alla base

Siano dati v1 =
e v2 =
2
2


2
2
= 1 > 0; pertanto anche

canonica e = e1 , e2 di R2 . Notiamo che det 2

Or(v1 , v2 ) = 1. In altri termini, v = v1 , v2 una base ortonormale equiorientata con e.


Anticipando alcune cose che verranno discusse in dettaglio nei capitoli successivi, possiamo
dare una giusticazione geometrica di quanto asserito. In effetti, la base v ottenuta da
e facendo ruotare sia e1 che e2 di 45 gradi (i.e. /4) in modo antiorario attorno a 0. Se
R la matrice che rappresenta in base e questa rotazione (Proposizione 7.7) abbiamo che
det R = 1 (come ogni rotazione, Corollario 7.5).

Se invece prendiamo w1 =

e w2 =

abbiamo che det

Or (w1 ,w2 ) = 1, cio w = w1 ,w2 una base ortonormale non equiorientata con e. In
effetti, come otteniamo la base w dalla base canonica e, per mezzo di unisometria lineare?
Per esempio, compiamo prima la rotazione R in senso antiorario di angolo /4 portando
la base canonica e nella base v, come sopra. Poi, alla base v applichiamo la trasformazione S di riessione rispetto al vettore v1 . In particolare avremo w1 = S(v1 ) = v1 mentre
w2 = S(v2 ) = v1 . Perci w ottenuta da e prima per mezzo della rotazione R e poi applicando alla base intermedia v la riessione S. facile vericare che det S = 1 (come
ogni riessione ha, Corollario 7.6). Pertanto la trasformazione composta che porta e in w
la trasformazione S R che, per il Teorema di Binet (Teorema 3.8), ha determinate 1.

Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).

Soluzioni

Quesiti ed esercizi
1.
Nello spazio afne R3 , con riferimento (O, e), siano date:
(i)

(ii)

rispetto ad e (1, 1, 1);


la retta s, denita dal sistema di equazioni X1 2 =
2X2 X3 2 = 0.

la retta r passante per il punto P, di coordinate


(1, 1, 1), e parallela al vettore v, di componenti Stabilire se r e s sono rette sghembe.

149

6 Spazi euclidei
2.
Nel piano afne R2 , con riferimento (O, e), sono assegnati i punti P = (1, 2), Q = (2, 1) e R = (1, 0). Dopo aver
vericato che i 3 punti formano i vertici di un triangolo , determinare le coordinate del baricentro B di . Determinare
inne equazioni che descrivano le tre mediane di .
3.
Nel piano afne R2 , con riferimento (O, e), sia dato il triangolo di vertici O = (0, 0), A = (1, 0) e B = (0, 1). Si
considerino i parallelogrammi:

Vericare che L1 e L2 sono variet lineari di R4 e determinare


la loro mutua posizione in R4 .
5.
Nello spazio vettoriale R3 , dotato di base canonica e, determinare equazioni che deniscano il sottospazio vettoriale W
generato dai vettoriw1 = (1, 2, 1) ew2 = (1, 1, 2).

6.
Nel piano afne R2 , con riferimento cartesiano (O, e), data
la retta r rappresentata dallequazione X1 + X2 = 1. Determinare tutte le afnit di R2 che ssano tutti i punti di r e

OABC, avente OA ed AB per lati ed OB per diagonale; che trasformano il punto P = (1, 2) nel punto Q = (2, 1).

OADB, avente OB ed OA per lati ed AB per diagonale. 7.


Siano v = (1, 2) e w = (1, 1) vettori di R2 , espressi
Sia E il punto di intersezione tra le rette rAC e rOD . Dimostrare
rispetto alla base canonica e:
che B, E ed il punto medio F del segmento OA sono allineati.
4.
(i)
Consideriamo nello spazio afne R4 , con riferimento
cartesiano (O, e), i due sottoinsiemi:
(ii)

L1 := {(1 + + , 2 + , 3 + , 4) | , R};

L2 := {(4, 3, 2, + 1) | R}.

150

calcolare lorientazione della coppia ordinata v,


w;
sia S lisometria lineare data dalla riessione rispetto allasse x1 , i.e. rispetto a Lin(e1 ). Calcolare
Or(S(v), S(w)).

7
Geometria del piano cartesiano
In questo capitolo focalizzeremo la nostra attenzione sulla geometria del piano cartesiano.

7.1

Interpretazione geometrica di angoli convessi fra vettori di R2

Vogliamo qui discutere alcuni semplici aspetti della geometria dello spazio vettoriale
euclideo (R2 ,  , ), dotato del prodotto scalare standard  ,  come nellEsempio 5.2 e della base canonica e come nella Definizione 4.23.
proposizione 7.1 Siano dati due vettori non nulli 
u e v, linearmente

 indipendenti

nello spazio vettoriale euclideo R2 . Siano u =


componenti rispetto alla base e . Allora:
(i)

(ii)

u1
u2

ev =

v1
v2

le relative

larea a del parallelogramma di vertici


 determinati
 dagli estremi dei vettori
u 1 v1 

0, u, v e u + v data da a := det u 2 v2 .
In particolare, se u, v una base ortonormale, allora a = |Or (u, v)| = 1;
dagli estremi dei vettori 0, u
larea a  del triangolodi vertici
 u vdeterminati



1
1
1
e v data da a  = 2 det u 2 v2 .
In particolare, se u, v una base ortonormale, allora a  = 2 .
1

Dimostrazione
Dimostriamo esclusivamente (i), essendo (ii) una sua conseguenza immediata. Sia a larea del parallelogramma in questione. Come nella Definizione 5.17, sia
langolo convesso formato dai vettori u e v. Se prendiamo il segmento dato da u come base del parallelogramma, dalla geometria piana elementare, laltezza del parallelogramma h := ||v|| | sin |. Pertanto a = ||u|| ||v|| | sin |. Se eleviamo ambo i membri
al quadrato ed utilizziamo le ovvie formule trigonometriche, dalla [5.6] otteniamo a 2 =
||u||2 ||v||2 (1 cos2 ) = ||u||2 ||v||2 (u, v)2 .
2

Passando in coordinate, da questultima eguaglianza otteniamo a 2 = (u 1 + u 2 )(v1 + v2 )


(u 1 v1 + u 2 v2 )2 = (u 1 v2 u 2 v1 )2 . Estraendo da ambo i membri la radice quadrata,
otteniamo lasserto.
Lultima parte di (i) diretta conseguenza della Definizione 6.26 e del fatto che, per ipotesi,
si assume che u e v formino una base ortonormale.


151

7 Geometria del piano cartesiano

7.2

Punti e rette del piano cartesiano R2

Dora in poi, consideriamo la geometria del piano cartesiano. Pertanto, come osservato nella Proposizione 6.5, potremo denotare senza ambiguit con R2 il piano
cartesiano in cui assumeremo fissato una volta per tutte un riferimento cartesiano
(O, e ) dove:

O lorigine del riferimento; la base e = e 1 , e 2 , come nella Definizione 4.23, la base canonica;
quando necessario, confonderemo il punto P di R2 con il vettore P a O
dello spazio vettoriale R2 . In tale identificazione, tale vettore verr denotato
brevemente con P . Le coordinate cartesiane del punto P rispetto al riferimento (O, e ) (equivalentemente, le componenti di P rispetto
 base e ),
 alla
p

x2

verrano pertanto denotate con notazione di matrice colonna p 12 ;


corrispondentemente,
 le coordinate cartesiane del riferimento (O, e ) verranx

no denotate con x 12 . Le rispettive indeterminate saranno denotate con


X 1 , X 2 . In notazione vettoriale pi compatta il vettore delle indeterminate,
X 
con componenti X 12 , verr denotato con X ;

P=

p1
p2

x1

figura 7.1 Piano cartesiano


R2

la struttura di R2 come piano euclideo (nel senso della Definizione 6.10) sar
implicitamente considerata sempre relativamente al prodotto scalare standard
 ,  dello spazio vettoriale R2 come nellEsempio 5.2.

Dalle precedenti assunzioni, possiamo rappresentare il piano cartesiano R2 come


nella figura 7.1.
Lasse orizzontale (o delle x 1 ) viene usualmente chiamato lasse delle ascisse, mentre
lasse verticale (o delle x 2 ) lasse delle ordinate. Insieme, essi vengono chiamati gli assi
coordinati del riferimento.

Equazioni degli assi


coordinati e del punto
origine

Lassedelleascisse formato da tutti quei punti P le cui coordinate sono della forma
p1
P = 0 , con p 1 R. In particolare, unequazione lineare che rappresenta lasse
x 1 lequazione
[7.1]

X2 = 0

Ovviamente [7.1] non lunica equazione che rappresenta lasse x 1 : una qualsiasi
equazione della forma X 2 = 0, R \ {0}, rappresenta sempre lasse x 1 .
Perci dora in poi [7.1] sar considerata come lequazione lineare fondamentale (i.e.
pi semplice possibile) che definisce lasse x 1 . Con lo stesso tipo di ragionamento,
lequazione lineare fondamentale che definisce lasse x 2 :
[7.2]

152

X1 = 0

7.2 Punti e rette del piano cartesiano R2

Osservazione 7.1
Poich [7.1] e [7.2] sono equazioni lineari ed omogenee, dal- di sottospazio vettoriale dello spazio vettoriale R2 .
lEsempio 4.3 , sia lasse x1 che lasse x2 hanno una struttura

Il punto
O del piano cartesiano R2 , per definizione, il punto di coordinate

 origine
O =

0
0

rispetto al riferimento fissato. In particolare, come si evince anche dalla


figura 7.1, lorigine O esattamente lintersezione dei due assi coordinati quindi il
sistema fondamentale di equazioni lineari che rappresenta O dato da
[7.3]

X1 = X2 = 0

Osservazione 7.2
Come osservato nel capitolo 1, [7.3] non lunico sistema
lineare che rappresenta lorigine di R2 , i.e. che ha come
unica soluzione il punto O. Infatti O determinato da un
qualsiasi sistema lineare della forma: X1 = X2 = 0,
, R \ {0}. Ma queste non sono le uniche possibilit.
A titolo di esempio, lorigine anche lunica soluzione del
sistema lineare omogeneo:

riale U := Lin(u), dove u =

1
1


. Analogamente, la retta

X1 X2 = 0 determina il sottospazio vettoriale W := Lin(w),


 
dovew = 11 . Notiamo quindi che, per esempio, il sistema

lineare omogeneo 2X1 = X2 = X1 X2 = X1 + X2 = 0 ha


come unica soluzione O. per questo motivo che [7.3] viene
chiamato sistema fondamentale di equazioni lineari che rappresenta O, dato che il sistema pi semplice possibile e con
[7.4]
X1 X2 = X1 + X2 = 0
il numero minimo di equazioni necessarie per determinare
Come discuteremo nel seguito, ciascuna delle equazioni univocamente O.
componenti il sistema [7.4] corrisponde ad una retta passanx2
te per lorigine che forma un angolo di 45 gradi (i.e. 4 ) con
6
entrambi gli assi cartesiani (figura 7.2). In conclusione, lorigine non univocamente determinata da ununica coppia
di equazioni lineari cartesiane (a meno di proporzionalit),
ma esistono innite coppie non proporzionali di equazioni
@
x1
@
lineari che determinano sempre e soltanto lorigine.
@
@
Esattamente come nellOsservazione 7.1, la retta determinafigura 7.2 Rette X1 + X2 = 0 e X1 X2 = 0
ta dallequazione X1 + X2 = 0 denisce il sottospazio vetto-

Le semplici osservazioni considerate precedentemente, si estendono facilmente a situazioni leggermente pi generali.


  Supponiamo di avere un punto P = O del piano,
p

che abbia coordinate P = p 12 . La retta parallela allasse x 1 passante per il punto P ,


la sottovariet lineare passante per P e parallela al sottospazio definito da X 2 = 0.
In altri termini, X 2 = 0 la giacitura di tale sottovariet lineare (Definizione 6.6).
In particolare, lequazione lineare fondamentale che definisce tale retta :
[7.5]

X 2 = p2
153

Equazioni di rette
parallele agli assi
e di punti del piano

7 Geometria del piano cartesiano


che manifestamente non omogenea appena p 2 = 0. Analogamente, la retta parallela
allasse x 2 passante per P ha per equazione lineare fondamentale:
x2

6
P=

p1
p2

X 1 = p1

[7.6]

mentre il sistema fondamentale di equazioni lineari che rappresenta P dato da


-

x1

X 1 p1 = X 2 p2 = 0

[7.7]

figura 7.3 Rette passanti per


P e parallele agli assi coordinati

(rappresentata nella figura 7.3). In altri termini, P lintersezione delle due sottovariet lineari date, rispettivamente, dalle equazioni [7.5] e [7.6]. Come discusso nellOsservazione 7.2 per O, questo non sar lunico modo per determinare P come
intersezione di due rette affini di R2 .

Equazioni di rette
del piano cartesiano

Studiamo ora in modo pi generale le equazioni che definiscono rette qualsiasi del
piano cartesiano. Ci sono due modi distinti, e concettualmente diversi, per descrivere una retta in R2 : mediante una equazione cartesiana e mediante una equazione
parametrica vettoriale (equivalentemente, coppie di equazioni parametriche scalari).

Equazioni cartesiane
di rette

Cominciamo con il descrivere le equazioni cartesiane di rette e le loro propriet affini


ed euclidee.
definizione 7.1 Unequazione cartesiana di una retta r di

R2 unequazione

lineare della forma


[7.8]

a X1 + bX2 + c = 0

dove a , b, c R, tali che (a , b) = (0, 0).


Nella precedente
definizione implicito che r viene considerata come luogo di punti
 
p

P = p 12 le cui coordinate soddisfano lequazione suddetta, i.e. tali che a p 1 +


bp 2 + c = 0.

Notiamo immediatamente che quando, per esempio, a = 0 otteniamo unequazione


della forma X 2 = k, con k = bc (per ipotesi (a , b) = (0, 0)). Questa lequazione
cartesiana di una retta parallela allasse delle x 1 (o coincide con lasse x 1 quando
c = 0). Analogo discorso si ha quando b = 0. Pertanto le equazioni [7.1], [7.2], [7.5]
e [7.6] sono casi particolari dellequazione [7.8].
Osserviamo inoltre che [7.8] lequazione con cui si possono descrivere effettivamente tutte le rette del piano cartesiano. Infatti, equazioni cartesiane che usualmente
vengono scritte in forma esplicita in funzione di X 1 , i.e.
[7.9]
154

X2 = mX1 + q

7.2 Punti e rette del piano cartesiano R2


dove m R \ {0} il coefficiente angolare e q R il termine noto, non possono
descrivere tutte le rette di R2 : nessuna retta parallela allasse delle x 2 esprimibile
nella forma [7.9] (Osservazione 7.4).
Osservazione 7.3
Come per le rette parallele agli assi cartesiani, non esiste le equazioni aX1 + bX2 + c = 0 e aX1 + bX2 + c = 0
una corrispondenza biunivoca tra rette di R2 ed equazioni sono proporzionali (non uguali, se = 1) ma descrivono la
cartesiane della forma [7.8]. Infatti, per ogni R \ {0}, stessa retta.

Sia data una retta r di equazione cartesiana come in [7.8]. Dal Lemma 6.1 e dalle
Proposizioni 6.6 e 6.7, la giacitura di r la retta r 0 di equazione cartesiana
[7.10]

a X1 + bX2 = 0

in altre parole r 0 la retta parallela a r e passante per O, equivalentemente, r


ottenuta per unopportuna traslazione di r 0 . Dal Lemma 6.1, r 0 ha una struttura di
sottospazio vettoriale 1-dimensionale dello spazio vettoriale R2 . Pertanto, possiamo
dare la seguente:
definizione 7.2 Un vettore direttore di una retta r di equazione cartesiana [7.8]

un qualsiasi vettore v che costituisce una base per la giacitura r 0 . Il vettore


b
[7.11]
r0 =
a

verr chiamato il vettore direttore di r . Le componenti di r 0 vengono chiamate


i parametri direttori della retta r . Ogni altro vettore direttore v di r della
forma v = r 0 , per R \ {0}.

r0

figura 7.4 La retta r ed il suo


vettore direttore r0

Notare che [7.11] discende direttamente da un calcolo esplicito di una base del sottospazio vettoriale definito come in [7.10] e che lultima parte della definizione
conseguenza del fatto che r 0 ha dimensione uno. La nozione di vettore direttore
una nozione affine, in particolare anche euclidea.
Osservazione 7.4
Consideriamo una retta r come in [7.8]. Supponiamo b = 0. del secondo parametro direttore di r sul primo. Osserviamo
Allora possiamo esplicitare lequazione in funzione di X 1 ot- inoltre che mentre un vettore direttore di r non univocatenendo lequazione X2 = ba X1 bc , che della forma [7.9], mente determinato (precisamente determinato a meno di
proporzionalit), se r esprimibile nella forma [7.9], il suo
dove m = ba e q = bc . Pertanto, quando r esprimicoefciente angolare univocamente determinato.
bile in forma esplicita, il coefciente angolare il rapporto

155

7 Geometria del piano cartesiano


Infatti, per ogni R \ {0} si ha m = ba = ba . Se allasse x2 . Queste considerazioni confermano ulteriormen 
0
te che [7.8] effettivamente lequazione con cui si possono
invece la retta r ha come vettore direttore 1 , essa non
descrivere tutte le rette del piano.
esprimibile nella forma [7.9]: una retta siffata parallela

Concludiamo questi preliminari dando una nozione puramente euclidea. Dato un


qualsiasi vettore direttore v di una retta r , si definisce il versore direttore di r associato
a v, il versore
[7.12]

e v :=

v
||v||

Se f un qualsiasi versore direttore di r , allora ovviamente si ha o f = e v oppure


f = e v .
Equazioni parametriche
di rette

Per introdurre le equazioni parametriche di rette faremo uso della Definizione 6.4.
Infatti, una retta r in R2 univocamente determinata una volta che si assegnano un
punto Q r ed un vettore direttore v = 0 per r . Pertanto, abbiamo:

R2 e con un
 0, unequazione parametrica vettoriale per r
vettore direttore v =

definizione 7.3 Data una retta r passante per un punto Q

[7.13]

X = Q + t v, t R

Notiamo che [7.13] descrive i punti di r come estremi liberi di vettori geometrici
orientati, tutti con punto di applicazione O, ciascuno di tali vettori ottenuti come
combinazione lineare di un vettore fisso, Q, ed uno variabile, t v, al variare di t
R. Ovviamente, ricordando la notazione nella Definizione 6.4, [7.13] lanaloga
vettoriale dellequazione X = t v +a Q, dove X si deve intendere in tale formula
come punto indeterminato di R2 .
Osservazione 7.5
Esattamente a quanto notato per le equazioni cartesiane di volta che i punti Q e P sono punti su r ed i vettori v ew sono
rette, due equazioni parametriche vettoriali X = Q + t v e paralleli, equivalentemente proporzionali.
X = P + k w, t, k R, descrivono la stessa retta r ogni

Considerando le componenti dei vettori coinvolti nella [7.13], abbiamo immediatamente:


definizione 7.4 Data una retta r passante per un punto Q =

con parametri direttori


scalari per r
156


l
m

=

 
0
0

q 
1

q2

R2 e

, una coppia di equazioni parametriche

7.2 Punti e rette del piano cartesiano R2

[7.14]

X 1 = q 1 + tl
X 2 = q 2 + tm, t R

Notiamo che le equazioni parametriche come in [7.14] descrivono la retta r come


luogo di punti di R2 le cui ascisse variano come la funzione lineare in t data dalla
prima equazione di [7.14] e le cui ordinate variano come la funzione lineare in t data
dalla seconda equazione di [7.14].
Come passare da equazioni parametriche ad unequazione cartesiana
Supponiamo di avere equazioni parametriche di una retta r come in [7.14] e di voler
determinare unequazione cartesiana di r . Ci sono vari modi per determinarla:
1.

un primo modo (ingenuo) quello di sfruttare il legame che c tra le due


equazioni in [7.14] in funzione del parametro t. Precisamente, si utilizza una
delle due equazioni di [7.14], per esempio la seconda, per determinare t in
funzione di X 2 (quando possibile) e poi si sostituisce nellaltra equazione,
trovando cos una relazione lineare tra X 1 ed X 2 che pertanto unequazione
cartesiana di r . istruttivo vedere un tale procedimento direttamente in un
esempio concreto.

Esempio 7.1 Equazioni di una stessa retta


Sia r la retta di equazioni parametriche X1 = 1 + 2t, X2 = 2 t, t R. Dalla seconda
equazione otteniamo t = 2 X2 . Sostituendo nella prima equazione, si ha X1 = 1 + 2(2
X2 ), i.e. r ha equazione cartesiana X1 + 2X2 5 = 0.

2.

Ovviamente bisogna prestare attenzione al tipo di equazioni parametriche


che ci vengono fornite dal problema. Per esempio, se consideriamo la retta s
di equazioni parametriche X 1 = 1 + 2t, X 2 = 2, t R, la soluzione gi
data dalla seconda equazione parametrica, i.e. X 2 = 2. Infatti s il luogo di
punti di R2 la cui ordinata sempre 2 mentre la prima equazione parametrica
stabilisce soltanto che lascissa dei punti su s variabile in modo lineare in t;
un secondo modo per passare da equazioni parametriche ad unequazione
cartesiana utilizza la Definizione 7.2. Sia r di
 equazioni parametriche come in
l
[7.14]. Il vettore direttore di r quindi m . Vogliamo trovare unequazione
della forma a X 1 + b X 2 + c = 0, determinata a meno di proporzionalit. Da


[7.11] e da questultima precisazione, possiamo porre allora ab = ml ,
i.e. a = m, b = l . Quindi, lequazione cartesiana m X 1 +l X 2 + c = 0,
con c ancora da determinare. Per fare ci, usiamo lulteriore
 informazione
q

3.

contenuta nella [7.14] e cio che r passa per il punto Q = q 12 . Imponendo


il passaggio per Q otteniamo c = mq 1 lq 2 ;
un terzo ed ultimo modo utilizza i due seguenti semplici risultati.

157

7 Geometria del piano cartesiano


lemma 7.1 Sia r una retta di vettore direttore v. Siano P e Q due qualsiasi punti

distinti su r e siano P = P a O e Q = Q a O i rispettivi vettori applicati


in O. Allora il vettore Q P sempre proporzionale a v (figura 7.5).

r
OQ
OP

OQ OQ
OP

figura 7.5 Q P parallelo


av

Dimostrazione

Poich P e Q sono punti di r , dalla [7.13], devono esistere un punto


P0 r e due scalari distinti = R tali che P = P0 + v, Q = P0 + v (il fatto
che = discende direttamente dallipotesi P = Q). Pertanto Q P = ( ) v, con
( ) R \ {0}.

proposizione 7.2 Sia r di equazioni parametriche come in [7.14]. Unequazione

cartesiana per r data da


X 1 q1 X 2 q2
[7.15]
det
=0
l
m

Dimostrazione
La dimostrazione diretta conseguenza del Lemma 7.1. Infatti, la condizione [7.15] equivalente a stabilire che le due righe della matrice sono proporzionali.
Pertanto, [7.15] determina tutti quei vettori incogniti X di R2 tali che, per Q r , il vettore
X Q proporzionale al vettore direttore di r . Poich Q r per ipotesi, concludiamo.

Come passare da unequazione cartesiana ad equazioni parametriche
Supponiamo di avere una retta r in equazione cartesiana come in [7.8].

Vettore normale
ad una retta

Per determinare unequazione parametrica vettoriale di r come in [7.13], basta


scegliere ad arbitrio un punto Q le cui coordinate soddisfano [7.8], i.e. Q
r , e per vettore direttore basta prendere r 0 come in [7.11] (o un suo altro
multiplo non nullo) e poi utilizzare [7.13], dove sceglieremo v = r 0 .
Per determinare una coppia di equazioni parametriche scalari come in [7.14],
come sopra basta scegliere ad arbitrio un punto Q r , e per parametri
direttori basta prendere l = b ed m = a .

Introduciamo ora un concetto puramente euclideo.


definizione 7.5 Un vettore normale ad una retta r un qualsiasi vettore n =
0 che ortogonale ad un qualsiasi vettore direttore v di r (figura 7.6), i.e.

v, n = 0.

158

7.2 Punti e rette del piano cartesiano R2

proposizione 7.3 Sia r una retta di equazione cartesiana come in [7.8]. Allora, il

vettore
[7.16]

a
n :=
b

un vettore normale a r . Il vettore n come in [7.16] verr chiamato il vettore


normale a r . Ogni altro vettore normale a r della forma n  = n, per
R \ {0}.

figura 7.6 Un vettore normale alla retta r

Notiamo che n = 0 perch per ipotesi (a , b) = (0, 0) (Definizione


Dimostrazione
7.1). Concludiamo ricordando lultima parte della Definizione 7.2 ed osservando che n
manifestamente ortogonale a r 0 .


Osservazione 7.6


Notiamo che, con la scelta di r0 come in [7.11] e di n come in
b a
det
= a2 + b2 = ||r0 ||2 = ||n||2 > 0
[7.16], si determina la base b = r0 , n per lo spazio vettoriale [7.17]
a
b
R2 che orientata positivamente cio equiorientata rispetto
ad e (Denizione 6.27). Infatti, abbiamo
Pertanto Or(r0 , n) = 1 (Denizione 6.26).

Analogamente, avremo:
proposizione 7.4 Sia r una retta di equazioni parametriche come in [7.14]. Allora,

il vettore

[7.18]

n :=

m
l

un vettore normale a r .
La dimostrazione analoga alla precedente. Inoltre, come nellOsservazione 7.6, con
la scelta di r 0 come in [7.14] e di n come in [7.18], la base b = r 0 , n anches

sa orientata positivamente, poich abbiamo di nuovo det ml ml = l 2 + m 2 =
||r 0 ||2 = ||n||2 > 0.
Osserviamo che, se avessimo scelto come vettore normale il vettore
ottenuto una base non equiorientata con e .

m 
l

, avremmo

Come osservato per i versori direttori di rette, abbiamo le seguenti definizioni. Sia r
una retta di R2 e sia n un suo vettore normale. Si definisce il versore normale associato
159

7 Geometria del piano cartesiano


a n, il versore
[7.19]

e n :=

n
||n||

Se f un qualsiasi versore normale a r allora, o f = e n oppure f = e n In


particolare, se supponiamo che n come in [7.16], abbiamo che

a

a 2 + b2

[7.20]
e n :=
b


a 2 + b2
Analogamente, se n come in [7.18], si ha:
m

l 2 + m2

e n :=
[7.21]
l


l 2 + m2
Infine, abbiamo:

R2 si dicono perpendicolari se un qualsiasi


vettore direttore r 0 di r ortogonale ad un qualsiasi vettore direttore s 0 di s ,
i.e. r 0 , s 0  = 0.

definizione 7.6 Due rette r e s di

Poich siamo in R2 , un vettore direttore di una retta ed un suo vettore normale


formano sempre una base ortogonale per lo spazio vettoriale R2 . Pertanto, lanaloga
condizione della Definizione 7.6 vale sui rispettivi vettori normali delle rette.

7.3

Intersezioni

Come osservato nella Definizione 6.4, date due rette in R2 ci sono tre possibilit:
o le rette si intersecano in un punto i.e. sono incidenti, o sono parallele e quindi
non si intersecano, oppure sono coincidenti. Vediamo come si manifestano tutte le
possibilit, a seconda di come siano presentate le due rette in questione. Supponiamo
quindi di avere due rette r e s in R2 .
r e s entrambi in equazioni cartesiane
In tal caso, supponiamo di avere r : a X 1 + b X 2 + c = 0 e s : d X 1 + e X 2 + f = 0
per a , b, c , d , e , f R tali che (a , b), (d , e ) = (0, 0) Per quanto descritto nel
capitolo 1, trovare leventuale intersezione tra r e s equivale a trovare le soluzioni del
sistema lineare a X 1 + b X 2 + c = d X 1 + e X 2 + f = 0 dato dalle due equazioni che
determinano le rette in questione. Pertanto, entrano in gioco tutti i risultati relativi
alla risoluzione dei sistemi lineari.
160

7.3 Intersezioni
Denotiamo con A la matrice 2 2 dei coefficienti del precedente sistema e con B la
matrice completa del sistema (par.1.1):

se il sistema non compatibile, le due rette sono necessariamente parallele.


Questo avviene precisamente quando r (A) < r (B);
se il sistema compatibile, quindi r (A) = r (B), e se tale rango massimo,
i.e. 2, allora il sistema ammette ununica soluzione; questo significa che le
due rette sono incidenti;
se il sistema compatibile ma r (A) = r (B) = 1, vuol dire che le due
equazioni componenti il sistema sono equazioni proporzionali e che il sistema
ammette soluzioni dipendenti da un parametro. Pertanto, il luogo geometrico individuato da queste due equazioni lo stesso, i.e. la retta s e la retta r
coincidono.

r in equazione cartesiana e s in equazioni parametriche


In tal caso, supponiamo di avere r : a X 1 + b X 2 + c = 0, per a , b, c R tali che
q 

(a , b) = (0, 0), e s : X = q 12 + t ml , t R. Poich dallequazione parametrica vettoriale di s si ha: X 1 = q 1 + l t, X 2 = q 2 + m t, per determinare leventuale
intersezione tra r e s , si sostituiscono tali espressioni nellequazione cartesiana che
definisce r , ottenendo lequazione lineare in t:
[7.22]

(al + bm)t + aq 1 + bq 2 + c = 0
se nella [7.22] si ha (al + bm) = 0, allora esiste lunica soluzione t0 =

aq 1 +bq 2 +c
al +bm .

Le rette r e s sono allora incidenti e le coordinate dellunico


q 

punto di intersezione saranno date da q 12 + t0 ml , con t0 come sopra;

se nella [7.22] si ha (al + bm) = 0 ma aq 1 + bq 2 + c = 0, allora si ottiene


una relazione incompatibile della forma 1 = 0. Questo significa che le rette
r e s non si intersecano, pertanto sono parallele;
se nella [7.22] si ha (al + bm) = aq 1 + bq 2 + c = 0, allora si ha unidentit
della forma 0 = 0 soddisfatta per qualsiasi valore di t R. Geometricamente
questo significa che la retta r e la retta s coincidono.

r e s entrambi in equazioni parametriche

p 

q 

In tal caso, supponiamo di avere r : X =


e s : X = q 12 +
+t
k ( uv ) , t, k R. Per determinare leventuale intersezione tra r e s , si deve stabilire
se esistono valori dei parametri t e k, rispettivamente, per cui un punto di r possa
essere anche punto di s ; in altre parole, tali che valgano le relazioni p 1 + tl = q 1 +
ku, p 2 + tm = q 2 + kv.
1
p2

l
m

Notiamo che queste relazioni forniscono il sistema lineare di due equazioni nelle due
indeterminate t e k, l t uk + ( p 1 q 1 ) = mt vk + ( p 2 q 2 ) = 0;

se il sistema lineare non compatibile, non esistono siffatti valori di parametri. Pertanto le due rette, non intersecandosi, sono necessariamente parallele;
161

7 Geometria del piano cartesiano

se il sistema compatibile e di rango massimo, i.e. 2, questo vuol dire che


esistono e sono univocamente determinati valori t0 e k0 , tali che il punto di r
p 

di coordinate p 12 + t0 ml appartiene anche a s e, viceversa, che il punto
q 
di s di coordinate q 12 + k0 ( uv ) appartiene anche a r . Ovviamente, queste
due espressioni descrivono il medesimo punto, una volta visto come punto
su r ed una volta visto come punto su s ;
se il sistema compatibile ma di rango 1, vuol dire che le due equazioni
componenti il precedente sistema sono proporzionali. A meno di cambiare
equazione, possiamo supporre l = 0; pertanto, dalla prima equazione del
1
sistema otteniamo t = l (uk + q 1 p 1 ). Dalle ipotesi fatte, anche u = 0.
Questo significa che il parametro t, con cui descriviamo la retta r , legato al
parametro k, con cui descriviamo la retta s , per mezzo di una relazione lineare
della forma t = k + , R \ {0}, R, detta riparametrizzazione (o
cambiamento di parametro). Quindi r e s coincidono come luoghi geometrici
ma le equazioni parametriche differiscono per la precedente riparametrizzazione.

Esempio 7.2 Mutue posizioni di rette


1.

2.

Prendiamo le rette r e s, di equazioni cartesiane X1 2X2 + 3 = 0 e 8X2 4X1 +


5 = 0, rispettivamente. Osserviamo che la giacitura di r la retta r0 di equazione
cartesiana X1 2X2 = 0. Analogamente, lequazione cartesiana per una giacitura di
s 8X2 4X1 = 0. Se dividiamo questultima equazione lineare per 2 riotteniamo
esattamente lequazione della giacitura di r. Poich per lequazione di r non
proporzionale a quella di s, allora il sistema da esse denito incompatibile, quindi
r e s sono necessariamente parallele.
Sia di nuovo r di equazione cartesiana X1 2X2 + 3 = 0 e sia ora s la retta di
equazioni parametriche X1 = 1 + t, X2 = 3 2t, t R. Notiamo che i parametri
direttori di s coincidono con i coefcienti di X1 e X2 dellequazione cartesiana che
denisce r. Pertanto, dalla Proposizione 7.3, la retta s sicuramente perpendicolare
a r quindi r e s sono necessariamente incidenti. Sostituendo le equazioni di s nella
equazione di r, otteniamo la relazione 1 + t 2(3 2t) + 3 = 0 che ha soluzione
t = 25 . Le coordinate del punto P = r s si ottengono quindi sostituendo il valore
t=

3.

2
5

nelle equazioni parametriche che descrivono s.

Siano ora r di equazioni parametriche X1 = 32 t, X2 = 5 + 3t, t R e s di


equazioni parametriche X1 = 1+k, X2 = 32k, k R. Otteniamo le due relazioni
32 t = 1+k e 5+3t = 32k. Entrambi forniscono la medesima equazione lineare
2k + 3t + 2 = 0. Questo signica che r e s sono coincidenti, infatti le equazioni
parametriche date per s si ottengono sostituendo nelle equazioni parametriche di
r la relazione t = 23 (k + 1).

162

7.4 Formule di geometria in R2

7.4

Formule di geometria in R2

Negli argomenti che seguono, applichiamo i concetti fin qui esposti per la risoluzione
di alcuni problemi geometrici nel piano.
Siano P e Q due punti distinti in R2 . Come possiamo calcolare equazioni parametriche ed unequazione cartesiana della retta r passante per P e Q?

Retta per due punti


distinti

Per ottenere unequazione parametrica vettoriale di r , basta prendere Q come


punto su r e come vettore direttore di r basta considerare v := Q P
(Lemma 7.1).

Per ottenere direttamente unequazione cartesiana, basta usare la Proposizione 7.2 in cui q 1 e q 2 sono le coordinate per esempio di Q e dove l ed m sono
le coordinate del vettore v := Q P .
q 
Supponiamo di avere un punto Q = q 12 ed una retta s e supponiamo di voler
trovare la retta r passante per Q e parallela a s . Abbiamo le seguenti possibilit:

supponiamo s sia data in equazione parametrica vettoriale X = P + t v,


t R (o, equivalentemente in equazioni parametriche scalari) dove P =


p1
l
p2 s e v = m :
a)

b)

Retta per un punto


e parallela
ad una retta data

per lequazione parametrica vettoriale di r , basta considerare X =


Q + t v, t R; analogamente, per le equazioni parametriche scalari
avremo X 1 = q 1 + t l , X 2 = q 2 + t m, t R;
se vogliamo trovare r in equazione cartesiana, basta applicare [7.15];

supponiamo s sia data in equazione cartesiana d X 1 + e X 2 + f = 0:


a)

b)

per lequazione parametrica vettoriale


e  di r , basta considerare X =
Q + t s 0 , t R, dove s 0 := d come ricordato in [7.11]. Analogamente, per le equazioni parametriche scalari avremo X 1 = q 1 +t e ,
X 2 = q 2 t d , t R;
se vogliamo trovare r in equazione cartesiana, allora basta applicare
[7.15], dove porremo l = e ed m = d .

Siano r e s due rette di R2 . Esse sono parallele se, e solo se, hanno vettori direttori
proporzionali (dato che devono avere la medesima giacitura), pertanto:
p 


se le rette sono date in equazioni parametriche r : X = p 12 + t ml e


q 
 

1
s : X = q 2 + k ml  , t, k R la condizione di parallelismo tra r e s
data da:

l l
[7.23]
det
=0
m m
la quale esprime che i due vettori direttori sono linearmente dipendenti;
163

Condizione
di parallelismo
fra due rette

7 Geometria del piano cartesiano

se le rette sono date in equazioni cartesiane r : a X 1 + b X 2 + c = 0 e


s : a  X 1 + b  X 2 + c  = 0, la condizione di parallelismo :

a b
[7.24]
det
=0
a  b
che esprime appunto che le due giaciture di r e s hanno equazioni rappresentative che sono proporzionali (equivalentemente, che i vettori normali di
r e s come in [7.16] scritti per riga sono proporzionali);
se da ultimo r data in equazione cartesiana e s in equazioni parametriche,
come sopra, allora la condizione di parallelismo :
[7.25]

al  + bm  = 0

Questultima formula discende direttamente da [7.11] e da [7.23]; infatti, riconosciamo che [7.25] esprime la condizione che il vettore normale di r
perpendicolare al vettore direttore di s . Pertanto, r e s sono necessariamente
parallele.
Angolo convesso tra due
rette orientate

Siano r e s due rette distinte di R2 . Per definire langolo convesso tra r e s dobbiamo
fissare delle orientazioni di tali rette, i.e. dei vettori direttori. Siano questi r 0 e s 0 ,
rispettivamente. Definiamo quindi langolo convesso fra le due rette orientate r e s
come langolo tra i due vettori direttori fissati (come nella Definizione 5.17), =
(r, s ) := (r 0 , s 0 ), cio mediante le condizioni:
[7.26]

0 , cos =

r 0 , s 0 
||r 0 || ||s 0 ||

Questa definizione dipende ovviamente dalla scelta di r 0 e di s 0 . Langolo cos


definito viene sostituito da se uno dei due vettori direttori viene moltiplicato
per uno scalare negativo.
p 

Se abbiamo per esempio r : X = p 12 + t ml ,
 

k ml  , k R allora per quanto definito avremo
[7.27]

t Res : X =

q 
1

q2

ll  + mm 
(r, s ) = 

l 2 + m 2 (l  )2 + (m  )2

Dalla Definizione 7.6, ritroviamo in particolare che le due rette sono perpendicolari
se, e solo se, langolo convesso esattamente /2 dato che, in [0, ], arccos(0) = /2.
Retta per un punto
e perpendicolare
ad una retta data

q 
Supponiamo di avere un punto Q = q 12 ed una retta s e supponiamo di voler
trovare la retta r passante per Q e perpendicolare a s . Abbiamo le seguenti possibilit:

164

supponiamo s sia data in equazione parametrica vettoriale X = P + t v,


t R, (o, equivalentemente in equazioni parametriche scalari) con P =


p1
l
p2 s e v = m :

7.4 Formule di geometria in R2


a)

b)

se vogliamo trovare lequazione parametrica vettoriale di r , basta considerare


un qualsiasi vettore n = 0 tale che v, n = 0, per esempio
n = lm , e scrivere X = Q + t n, t R.
Analogamente, per le equazioni parametriche scalari avremo: X 1 =
q 1 + t m, X 2 = q 2 t l , t R;
se vogliamo trovare r in equazione
 cartesiana, basta considerare la
X q X q

1
1 2
2
Proposizione 7.2 e calcolare det
m
l
vettore direttore di r dovr essere n come sopra;

= 0, dato che il

supponiamo s sia data in equazione cartesiana d X 1 + e X 2 + f = 0:


a)

b)

se vogliamo trovare lequazione parametrica vettoriale di r , basta considerare la Proposizione


7.3 concludendo che il vettore normale a s

n = de ; pertanto, lequazione parametrica vettoriale cercata :
X = Q + t n, t R.
Analogamente, per le equazioni parametriche scalari avremo: X 1 =
q 1 + t d , X 2 = q 2 + t e , t R;
se vogliamo trovare r in equazione cartesiana, allora basta applicare
[7.15], dove porremo l = d ed m = e .

Siano r e s due rette di R2 . Dalla Definizione 7.6, esse sono perpendicolari se, e solo
se, cos( (r, s )) = r 0 , s 0  = 0:

p 
se pertanto le rette sono date in equazioni parametriche r : X = p 12 +
 
q 

l
, t, k R la condizione di
t ml e s : X = q 12 + k
m
perpendicolarit tra r e s :
[7.28]

se le rette sono date in equazioni cartesiane r : a X 1 + b X 2 + c = 0, e


s : a  X 1 + b  X 2 + c  = 0 la condizione di perpendicolarit :
[7.29]

ll  + mm  = 0

a a  + bb  = 0

la quale esprime che i vettori direttori di r e s come nella [7.11] sono ortogonali (equivalentemente che i vettori normali di r e s come in [7.16] sono
ortogonali);
se da ultimo r data in equazione cartesiana e s data in equazioni parametriche, come sopra, la condizione di perpendicolarit :
[7.30]

bl  a m  = 0

Questultima formula discende direttamente dalla [7.11] e dalla condizione


di ortogonalit dei vettori direttori.

165

Condizione
di perpendicolarit
tra due rette

7 Geometria del piano cartesiano


Proiezione ortogonale
di un punto su una retta

Supponiamo di avere un punto Q R2 ed una retta r che non contenga Q (se


Q r la sua proiezione ortogonale su r gi Q). Vogliamo determinare il punto
Q  := r (Q) ottenuto per proiezione ortogonale di Q su r (figura 7.7). Per fare
questo, si applicano tutte le formule descritte in precedenza. Infatti, in primo luogo
si considera la retta s , passante per Q e perpendicolare a r ; infine avremo Q  = s r .

Distanza punto-retta

Consideriamo ora un caso particolare di quanto descritto nel paragrafo 6.3. Supponiamo di avere un punto Q R2 ed una retta r non contenente Q. Con la notazione
del punto precedente, avremo che la distanza di Q da r non altro che

Q
s

d (Q, r ) := d (Q, r (Q))

(se ammettiamo anche il caso in cui Q r banalmente abbiamo d (Q, r ) = 0).


Pertanto il calcolo della distanza di un punto da una retta si riduce al calcolo della
usuale distanza tra due punti di R2 , dove il primo punto in questione Q mentre
il secondo punto la proiezione di Q sulla retta data, come trovato in precedenza
figura 7.7 Proiezione ortogo- (figura 7.8).
Q'

nale di Q sulla retta r

Nel caso in cui la retta r sia data in forma cartesiana,


 c una formula particolarmenq

Q
r
Q'

figura 7.8 Distanza di Q da r

Distanza tra due rette


parallele

te semplice da ricordare per d (Q, r ). Sia Q = q 12 e sia r : a X 1 + b X 2 + c =


0. Unequazione parametrica
s , passante per Q e perpendicolare a r
 q della retta

1
a
(Proposizione 7.3) X = q 2 + t b , t R. Se ora calcoliamo lintersezione tra

r e s , troveremo che il punto Q  = r (Q), proiezione ortogonale di Q su r , sar


aq +bq +c
ottenuto come punto su s per il valore del parametro t0 := 1a 2 +b22 . Pertanto,
il calcolo di d (Q, Q  ) fornisce la formula
|aq 1 + bq 2 + c |

a 2 + b2
Supponiamo di avere due rette parallele r e s . Si pu definire la distanza d (r, s )tra le
due rette nel modo seguente. Scegliamo un arbitrario punto Q appartenente ad una
delle due rette, per esempio r . Infine poniamo d (r, s ) := d (Q, s ), dove d (Q, s )
la distanza punto-retta come descritta precedentemente. Poich r e s sono parallele,
osserviamo che questa una buona definizione, cio non dipende dalla scelta del
punto Q.

[7.31]

7.5
Fascio di rette proprio
o a centro

d (Q, r ) :=

Fasci di rette

In questo paragrafo studiamo interessanti insiemi di rette del piano. Siano r e s due
rette non parallele in R2 (in particolare non coincidenti).
definizione 7.7 Si chiama fascio di rette proprio, , definito da r e s linsieme
di tutte le rette di R2 contenenti il punto P := r s , che viene detto centro
del fascio .

166

7.5 Fasci di rette


Poich  definito come sopra costituito da tutte le rette di R2 passanti per il centro
P , i fasci di rette propri vengono chiamati anche fasci di rette a centro (figura 7.9).
Vogliamo descrivere come si rappresenta un fascio di rette proprio.
proposizione 7.5 Siano r : a X 1 + b X 2 + c = 0 e s : d X 1 + e X 2 + f = 0

rette come sopra. Sia  il fascio proprio determinato da esse. Tutte e sole le rette
del fascio  sono le rette , di equazione cartesiana

[7.32]

x2

LL

s 
@


@L


L P

@
L@

rL

x1

figura 7.9 Fascio di rette di


centro P

(a X 1 + b X 2 + c ) + (d X 1 + e X 2 + f ) = 0,
(, ) R2 \ {(0, 0)}

In altri termini, al variare di (, ) R2 \{(0, 0) lequazione [7.32], detta equazione di , descrive tutte le rette , del fascio. Inoltre, presi (, ), (, )
R2 \ {(0, 0), la retta , coincide con la retta , se, e solo se, le coppie (, )
e (, ) sono proporzionali.
Prima di tutto notiamo che, per ogni scelta di (, ) R2 \ {(0, 0)},
[7.32] fornisce lequazione cartesiana di una retta che passa per P , dato che entrambi le equazioni cartesiane di r e s vengono annullate dalle coordinate di P . Pertanto, lo stesso accade
per ciascuna equazione in [7.32].

Dimostrazione

Viceversa, sia h una qualsiasi retta di , diversa da r e da s . Sia u X 1 +v X 2 +w = 0 unequazione cartesiana di h. Consideriamo il sistema lineare di tre equazioni e due indeterminate
dato da a X 1 + b X 2 + c = d X 1 + e X 2 + f = u X 1 + v X 2 + w = 0.
Per le ipotesi fatte, tale sistema compatibile e ha esattamente ununica soluzione: il punto
P centro del fascio. Dal Teorema di Rouch-Capelli (par 2.4) e dal fatto che r e s sono due
rette distinte di un fascio proprio, segue che lequazione che definisce h necessariamente
combinazione lineare delle equazioni che definiscono r e s rispettivamente. Per concludere,
osserviamo che la retta , coincide con la retta , se, e solo se, il sistema lineare
(a X 1 + b X 2 + c ) + (d X 1 + e X 2 + f ) =
= (a X 1 + b X 2 + c ) + (d X 1 + e X 2 + f ) = 0
compatibile e ha soluzioni dipendenti da un parametro, i.e. ha 1 soluzioni (Osservazione 2.5). Siano




a + d b + e
a + d b + e c + f
A :=
e C :=
a + d b + e
a + d b + e c + f
rispettivamente la matrice dei coefficienti e la matrice completa di detto sistema lineare. Allora, avere 1 soluzioni equivalente alla condizione r (A) = r (C ) = 1. Dalle ipotesi su r
e s , questo quindi equivalente al fatto che esiste R \ {0} tale che (, ) = ( , )
(questultima immediata verifica viene lasciata al lettore per esercizio).


167

7 Geometria del piano cartesiano

Osservazione 7.7
Osserviamo subito alcune conseguenze del precedente
risultato.
(i)

(ii)

(iii)

(iv)

[7.33]

Notiamo che, con le notazioni della Proposizione 7.5, r = ,0 , per ogni = 0, e s = 0, ,


per ogni = 0.
Il centro P di  intersezione di due qualsiasi rette distinte di . Ritroviamo, in particolare, quanto
discusso nellOsservazione 7.2 nel caso in cui P = O.
Se r1 e s1 sono due ulteriori rette distinte del fascio
 generato da r e s come nella Proposizione 7.5,
allora r1 e s1 generano lo stesso fascio .
Notiamo che nellequazione del fascio [7.32] sono
presenti due parametri e , con (, ) = (0, 0),
che sono deniti a meno di proporzionalit. Questo ci assicura che descriviamo effettivamente tutte
le rette di . In effetti se, date r ed s come nella Proposizione 7.5, usiamo come equazione del fascio per
esempio lequazione

t : aX1 + bX2 + c + t(dX1 + eX2 + f) = 0

con t R come unico parametro variabile, sempre vero che descriviamo 1 rette passanti per il
centro P = r s e tali che, per t = t , la retta t
diversa dalla retta t . Per, in tal modo non stiamo
descrivendo tutte le rette passanti per P, cio tutte le
rette di . Infatti, con unequazione del tipo [7.33],
non otteniamo mai lequazione della retta s . Analogo discorso se avessimo preso unequazione del
tipo
[7.34]

k : k(aX1 + bX2 + c) + dX1 + eX2 + f = 0

con k R unico parametro variabile. Pertanto, per descrivere la totalit delle rette del fascio
, abbiamo effettivamente bisogno dellequazione
[7.32].

Vediamo alcune conseguenze immediate della Proposizione 7.5.


corollario 7.1 Sia P =

p 
1

p2

un punto di R2 . Allora, lequazione del fascio di

rette proprio di centro P :


[7.35]

(X 1 p 1 ) + (X 2 p 2 ) = 0, (, ) R2 \ {(0, 0}

Dimostrazione

Discende direttamente dallOsservazione 7.7-(iii) e dal fatto che le rette


X 1 p 1 = 0 e X 2 p 2 = 0 sono due particolari rette non parallele n coincidenti che
passano per il punto P .


R2 diverso da P , il centro del fascio , esiste


una ed una sola retta di  passante per Q.

corollario 7.2 Per ogni punto Q

Dimostrazione

Se sostituiamo al posto di X 1 e X 2 in [7.32] le coordinate del punto


Q = P , otteniamo una relazione lineare non banale della forma m + n = 0, con m e n
numeri reali tali che (m, n) = (0, 0) proprio perch Q non pu appartenere a tutte le rette
di .

168

7.5 Fasci di rette


Supponiamo che sia m = 0, allora otteniamo che = n
m . Sostituendo tale relazione in
n
[7.32], otteniamo m (a X 1 + b X 2 + c ) + (d X 1 + e X 2 + f ) = 0. Poich le equazioni di
rette sono definite a meno di proporzionalit, lunica retta di  passante per Q ha pertanto
equazione cartesiana (md na )X 1 + (me nb)X 2 + m f nc = 0.


Vediamo diversi esempi in cui, imponendo opportune condizioni ad un fascio di rette proprio, si determina ununica retta del fascio che soddisfa tale condizione.

Esercizio 7.1 Condizioni su fasci di rette a centro


Siano r e s le due rette di equazioni cartesiane rispettivamente r : X1 X2 = 0, s :
X1 + X2 2 = 0.
i)
ii)

Determinare lequazione del fascio proprio  di rette generato da r e s e le coordinate del centro di ;
 
determinare lunica retta di  passante per il punto Q = 21 ;

iii)

determinarelunica
 retta
 di  parallela alla retta s di equazione parametrica vet1
toriale X = 0 + t 12 , t R;

iv)

determinare lunica retta del fascio  perpendicolare alla retta h di equazione


cartesiana 3X1 + 2X2 1 = 0.

(i)

Notiamo che r e s sono perpendicolari, dato che i loro vettori normali lo sono.
Pertantoformano
un fascio proprio . Ovviamente il centro di  il punto P =

1
r s = 1 . Da [7.32], lequazione del fascio ( + )X1 + ( )X2 2 = 0.

(ii)

Imponiamo allequazione del fascio il passaggio per Q ed otteniamo 2( + ) +


( ) 2 = 0 che determina la relazione + = 0, i.e. = . Sostituendo
tale relazione nellequazione del fascio otteniamo 2X2 2 = 0. Quindi lunica
retta di  passante per Q la retta di equazione cartesiana X2 = 1.
Dallequazione del fascio trovata 
al punto
 (i), notiamo che il vettore normale del+
larbitraria retta di  n, = . Pertanto, visto che vogliamo imporre il
 
parallelismo con s, se s0 = 12 il vettore direttore di s, allora dovremo imporre

(iii)

(iv)

0 = n, , s0  = 1 ( + ) + 2 ( ) = 3 . In denitiva, sostituendo la relazione = 3 nellequazione del fascio, si trova lunica retta di 
cercata.
 
Analogamente al punto (iii), il vettore normale di h nh = 32 ; poich vogliamo imporre la condizione di perpendicolarit con h allora dovremo imporre
0 = n, , nh  = 3 ( + ) + 2 ( ) = + 5. Concludiamo come al solito
sostituendo nellequazione del fascio la relazione = 5.

169

7 Geometria del piano cartesiano


Sia r una retta di R2 .
definizione 7.8 Si chiama fascio di rette improprio, , definito da r linsieme
di tutte le rette di R2 parallele a r (figura 7.10).

Fascio di rette improprio


o di rette parallele
x
62

x1

Poich  definito come sopra costituito da rette tutte parallele fra loro, le rette
formanti il fascio  avranno tutte quante la medesima giacitura r 0 . Per meglio dire,
la retta r 0 lunica retta del fascio  passante per lorigine O. Vogliamo descrivere
come si rappresenta un fascio di rette improprio.
proposizione 7.6 Sia r una retta di equazione cartesiana r : a X 1 +b X 2 +c = 0.

Sia  il fascio improprio determinato da essa. Tutte e sole le rette del fascio  sono
le rette t di equazione cartesiana

figura 7.10 Fascio di rette improprio

[7.36]

a X 1 + b X 2 + t = 0, t R

In altri termini, al variare di t R lequazione [7.36], detta equazione di ,


descrive tutte le rette t del fascio. Inoltre, presi t = t  R , si ha che la retta t
diversa dalla retta t  .
Una retta t di equazione cartesiana [7.36] chiaramente parallela a r . Viceversa, sia h una qualsiasi retta del fascio  diversa da r . Supponiamo che la sua equazione
cartesiana sia della forma u X 1 + v X 2 + w = 0. Consideriamo il sistema lineare di due

equazioni e due indeterminate a X 1 + b X 2 + c = u X 1 + v X 2 + z = 0. Sia A := ua vb
la matrice dei coefficienti di detto sistema lineare. Poich h deve essere parallela a r allora si
deve avere r (A) = 1. Pertanto, deve esistere R \ {0} tale che u = a , v = b. Quindi,
lequazione di h della forma [7.36], dove t = z .


Dimostrazione

Osservazione 7.8
Osserviamo alcune conseguenze del risultato precedente:
(i)

con le notazioni della Proposizione 7.6, si ha che


r = c e che la giacitura di tutte le rette di 
la retta 0 di equazione cartesiana aX1 + bX2 = 0;

(ii)

se r1 unulteriore retta di  generato da r come nella Proposizione 7.6, allora r1 genera lo stesso
fascio .

Vediamo alcune conseguenze immediate della Proposizione 7.6.


l
corollario 7.3 Sia v =
un vettore non nullo dello spazio vettoriale R2 .
m
Allora, lequazione del fascio di rette improprio con vettore direttore v :
[7.37]
170

m X 1 + l X 2 + t = 0,

t R

7.6 Trasformazioni del piano cartesiano


Dimostrazione

Discende direttamente dalle Proposizioni 7.3, 7.4 e dalla [7.36].




corollario 7.4 Per ogni punto Q

R2 esiste una ed una sola retta del fascio 

passante per Q.

Dimostrazione

Ovvia. Lasciata al lettore.




7.6

Trasformazioni del piano cartesiano

In questo paragrafo approfondiamo alcuni argomenti discussi nei Paragrafi 6.4 e 6.5,
considerando lo studio di alcune funzioni o trasformazioni f : R2 R2 che hanno
un particolare significato geometrico. Data la vastit dellargomento, ispirandosi a
[7], si sono fatte alcune scelte sugli argomenti da trattare in dettaglio. Tali argomenti
sono quelli maggiormente usati per la risoluzione degli esercizi.
Le trasformazioni f : R2 R2 , che studieremo, verranno chiamate con terminologia equivalente anche applicazioni (par 6.4); esse saranno isometrie ed affinit
particolarmente importanti di R2 .
Alcune isometrie fondamentali del piano cartesiano
Cominciamo con alcune isometrie di R2 .
Come nel par. 6.1, se P R2 un punto del piano cartesiano e P = P a O il corrispondente vettore, denoteremo con t P la traslazione di passo P , che chiaramente
unisometria quindi anche unaffinit. In coordinate avremo che
[7.38]

Equazioni di traslazioni
di R2

x1
x1 + p1
=
x2
x2 + p2

Le principali propriet delle traslazioni sono state elencate allinizio di par. 6.1. In particolare ricordiamo che, per ogni P , Q R2 , t P t Q = t P +Q , i.e. la composizione
di due traslazioni ancora una traslazione.
Introduciamo adesso alcune isometrie lineari notevoli (Definizione 6.25): le rotazioni
attorno allorigine O.

R. Denotiamo con R = R,O lapplicazione di R2


in s che ad un arbitrario punto P R2 associa il punto Q = Q P R2 ,
estremo libero del vettore Q ottenuto ruotando il vettore P di un angolo
attorno al vettore nullo 0. R si chiama rotazione attorno allorigine O di
angolo .
definizione 7.9 Sia

171

Equazioni di rotazioni
attorno ad O

7 Geometria del piano cartesiano


proposizione 7.7 Sia x =

x 
1

x2

R2 arbitrario. Allora



x
cos
R 1 =
x2
sin

[7.39]

In altri termini, se

x

sin
cos

= R (x ) =

x 1

x1
x2

x 2

, le equazioni per la rotazione R sono

date da:

[7.40]

x 1 = cos x 1 sin x 2

x 2 = sin x 1 + cos x 2

In particolare,
se = 0, allora R = Id;
se > 0, la rotazione di x in senso antiorario rispetto al vettore e 1 ;
se < 0, la rotazione di x in senso orario rispetto al vettore e 1 .

Sia langolo convesso fra il vettore x e lasse delle x 1 . Precisamente, se


x si trova nel I o I V quadrante, allora langolo convesso fra i vettori x ed e 1 ; se x si trova
invece nel I I o I I I quadrante, allora langolo convesso fra i vettori x e e 1 . In ogni
caso, si ha che x 1 = ||x || cos , x 2 = ||x || sin .

Dimostrazione

Il vettore x  = R (x ) tale che ||x  || = ||x || e forma con lasse delle x 1 un angolo pari a
+ . Pertanto x 1 = ||x || cos( + ), x 2 = ||x || sin( + ). Per le formule di addizione
delle funzioni trigonometriche e per le precedenti relazioni, abbiamo quindi:
x 1 = ||x ||(cos cos sin sin ) = x 1 cos x 2 sin
x 2 = ||x ||(sin cos cos sin ) = x 1 sin + x 2 cos
onde lasserto.


R, le rotazioni R attorno allorigine sono isometrie


lineari dirette (Definizione 6.24). Equivalentemente, sono isometrie che fissano
lorigine O e la cui matrice rappresentativa come in [7.39] speciale ortogonale.

corollario 7.5 Per ogni

Il fatto che siano isometrie lineari discende direttamente dal Teorema


Dimostrazione
6.6 e dalla Definizione 6.25, dato che la matrice rappresentativa di R manifestamente
ortogonale e che fissano O. Infine, il determinate della matrice rappresentativa di R dato
da cos2 + sin2 = 1 (Osservazione 6.5).


172

7.6 Trasformazioni del piano cartesiano

Osservazione 7.9
Da quanto dimostrato nella Proposizione 6.13 e dal Corolla- vettoriale R2 , i.e. Or (v,w) = Or(R (v), R (w)), per ogni
rio 7.5, notiamo subito che le rotazioni R attorno allorigine coppia di vettori linearmente indipendenti v,w di R2 e per
in particolare conservano lorientazione di basi dello spazio ogni R.

Concludiamo osservando che le rotazioni attorno allorigine godono delle seguenti


ovvie propriet che discendono immediatamente da [7.39].
proposizione 7.8

(i)

Per , R, si ha R R = R R = R + .

(ii)

Per ogni R, R = R .

Consideriamo adesso altre isometrie lineari fondamentali: le riflessioni (o simmetrie)


rispetto a rette vettoriali, i.e. rette passanti per O (par. 6.1).

R2 orientata in modo tale che


formi con il vettore e 1 un angolo convesso 0 /2. Denotiamo con
S = S,O lapplicazione di R2 in s che ad un arbitrario punto P R2
associa il punto Q = Q P , estremo libero del vettore Q ottenuto per riflessione
di P rispetto ad r . S viene detta riflessione (o simmetria) definita dalla retta
vettoriale (orientata) r .
definizione 7.10 Sia r una retta vettoriale di

In altri termini, se H = r (P ) denota la proiezione ortogonale del punto


P sulla retta r , il punto Q definito dalleguaglianza fra vettori Q a H =
H a P .

x1
R2 arbitrario. Allora
proposizione 7.9 Sia x =
x2

x1
x1
cos 2
sin 2
[7.41]
=
S
x2
x2
sin 2 cos 2

x 1
In particolare, se
, le equazioni per la riflessione rispetto
= S (x ) =
x 2
alla retta vettoriale r sono:
x


[7.42]

x 1 = cos 2x 1 + sin 2x 2
x 2 = sin 2x 1 cos 2x 2
173

Equazioni di riflessioni
rispetto a rette vettoriali

7 Geometria del piano cartesiano


Dimostrazione

Costruiamo in modo vettoriale tale riflessione. A meno di normalizzare


il vettore direttore
 di r, dalle ipotesi fatte, possiamo supporre che il vettore direttore di r sia

il versore u =

. Denotiamo con n un vettore ortogonale ad u in modo che la base




sin
ortonormale {u, n} sia equiorientata con la base canonica e di R2 . Pertanto, n :=
cos .
Utilizzando la Proposizione 5.10, possiamo scrivere x come somma dei due vettori ottenuti
per proiezione ortogonale di x su u e su n; precisamente avremo:

x
u

cos
sin

S(x)
n

figura 7.11 Il riflesso S (x)

x = x , u u + x , n n

[7.43]

Applicando la regola del parallelogramma, abbiamo immediatamente S (x ) = x , u u


x , n n (figura 7.11, dove S(x) = S (x ) e = ).
Da [7.43], abbiamo che x , u u = x x , n n. Quindi lequazione vettoriale per la
riflessione S :

S (x ) = x 2x , n n

[7.44]

Osserviamo che x , n = sin x 1 + cos x 2 . Passando in coordinate nellequazione



x  x 

sin
vettoriale [7.44], otteniamo S x 12 = x 12 2( sin x 1 + cos x 2 )
cos .
Quindi



x1
(1 2 sin2 ) x 1 + 2 sin cos x 2
S
=
x2
2 sin cos x 1 + (1 2 cos2 ) x 2

Ricordando che 2 sin cos = sin(2), cos2 sin2 = cos(2), sin2 + cos2 = 1
otteniamo [7.42].


Per ogni R, le riflessioni S rispetto a rette vettoriali sono


isometrie lineari inverse (Definizione 6.24). Equivalentemente, sono isometrie di
R2 che fissano O e la cui matrice rappresentativa come in [7.41] ortogonale non
speciale.
corollario 7.6

Dimostrazione

La dimostrazione simile a quella del Corollario 7.5. La sola differenza


che il determinate di S dato da cos2 (2) sin2 (2) = 1 (Osservazione 6.5).


Osservazione 7.10
Differentemente da quanto discusso nellOsservazione 7.9, no lorientazione di basi dello spazio vettoriale R2 , i.e.
dalla Proposizione 6.13 e dal Corollario 7.6 notiamo su- Or(S (v), S (w)) = Or(v,w), per ogni coppia di vettori
bito che le riessioni S in particolare non conserva- linearmente indipendenti v, w di R2 e per ogni R.

Le riflessioni rispetto a rette vettoriali godono di ovvie propriet che discendono


immeditamente da [7.41].
174

7.6 Trasformazioni del piano cartesiano


proposizione 7.10

(i)
(ii)
(iii)

S0 la riflessione rispetto allasse


x mentre S
la riflessione rispetto
 x 1  x /2
 x   x 
1
1
1
allasse x 2 . In altri termini S0 x 2 = x 2 e S/2 x 12 =
x2 .
Per ogni R, S involutoria i.e. S S = Id. In particolare,
1
S = S .
Per = R, si ha S S = R2() . In particolare, se =
+ k , k Z, allora S S = Id.

In altri termini:

a differenza delle rotazioni attorno allorigine, la composizione di riflessioni


non gode della propriet commutativa, i.e. in generale si ha S S =
S S ;
la composizione di due riflessioni rispetto a rette vettoriali distinte una rotazione. Il fatto che una tale composizione venga unisometria lineare diretta (e
non pi inversa) chiaro dal Teorema di Binet (Teorema 3.8) e dal fatto che
ogni riflessione rispetto ad una retta vettoriale, essendo unisometria lineare
inversa, ha determinante 1.

Vediamo ora un caso particolare di quanto discusso prima.

Equazioni di riflessioni
rispetto allorigine

S O lapplicazione di R2 in s che ad un arbitrario punto P associa il punto estremo libero del vettore P . S O detta
riflessione rispetto allorigine.

definizione 7.11 Denotiamo con

chiaro dalla definizione che S O non altro che la rotazione attorno allorigine di
angolo = . Pertanto, S O unisometria lineare diretta di R2 . In particolare, essa
conserva lorientazione di basi dello spazio vettoriale R2 . Inoltre, le sue equazioni
sono chiaramente:

x1
x1
1
0
[7.45]
=
SO
x2
x2
0 1

Osservazione 7.11
Le isometrie lineari no ad ora studiate, insieme con le traslazioni, possono considerarsi come i mattoni di tutte le isometrie del piano cartesiano R2 . Per vedere questo, basta
osservare le seguenti cose:
(i)

le matrici ortogonali 2 2 sono tutte e sole della


forma

[7.46]


cos
sin

sin
cos


cos
e
sin

sin
cos

per un qualche R; quelle del primo tipo sono ortogonali speciali, quelle del secondo tipo sono
ortogonali non speciali.

175

7 Geometria del piano cartesiano


Questa affermazione si verica facilmente
  utilizzando il fatto che una matrice A = ac bd per essere (ii)
ortogonale deve soddisfare t AA = At A = I2 (Denizione 5.14). Troviamo quindi relazioni su a, b, c
(iii)
e d che obbligano A ad essere come una delle due

precedenti;
da (i), abbiamo che le rotazioni attorno allorigine
e le riessioni rispetto a rette vettoriali esauriscono
tutte le isometrie lineari di R2 ;
si conclude ricordando il teorema di classicazione
di tutte le isometrie di R2 (Teorema 6.6).

Affrontiamo ora il problema di trovare le equazioni delle isometrie di R2 analoghe


alle isometrie lineari fino ad ora studiate.
Equazioni di rotazioni
del piano cartesiano

Sia R e sia P un punto di R2 . Denotiamo con R,P lisometria di R2 data dalla


rotazione di angolo attorno al punto P . Per ottenere le equazioni di tale rotazione,
si procede nel modo seguente:
prima si considera la traslazione tP di passo P , che porta quindi il punto
P nellorigine O di R2 ;
poi si compie la rotazione lineare R intorno ad O, come nella Definizione 7.9;
infine si riapplica la traslazione t P di passo P che riporta cos O in P .

In definitiva, lisometria cercata si pu scrivere come:

R,P = t

[7.47]

R tP .

2
Per determinare
esplicitamente
che
 
 le equazionidi tale isometria

di R , supponiamo


p

x p

cos sin

x p

1
1
P = p 12 . Pertanto R,P x 12 = t P R x 12 p 12 = t P sin cos
,
x2 p2
che fornisce le equazioni della rotazione attorno a P :

x1
x1
q
cos sin
R,P
=
+ 1
[7.48]
x2
x2
q2
sin
cos
q 

  p   p 
cos sin
1
1
dove q 12 := sin cos
p 2 + p 2 . Notiamo che lespressione [7.48] conferma quanto dimostrato nel Teorema 6.6: R,P composizione di una traslazione
e di unisometria lineare diretta.

Equazioni di riflessioni
di R2

Sia r una qualsiasi retta del piano cartesiano R2 . Denotiamo con Sr lisometria di
R2 data dalla riflessione rispetto alla retta r . Per ottenere le equazioni di tale riflessione,
possiamo procedere in due modi differenti:
a)

il primo modo molto simile a quello utilizzato per le rotazioni attorno ad


un punto P . Infatti:

176

si fissa un punto arbitrario P sulla retta r ;


si considera la traslazione tP di passo P , che porta quindi il punto
P nellorigine O di R2 . Pertanto, la trasformata della retta r mediante
la traslazione t P sar la retta r 0 , giacitura di r ;

7.6 Trasformazioni del piano cartesiano

in seguito, si orienta r 0 di modo che soddisfi le ipotesi nella Definizione 7.10. Sia langolo convesso formato da tale vettore direttore
preso su r 0 ed il vettore e 1 . Applichiamo quindi la riflessione S come
nella Definizione 7.10;
infine si riapplica la traslazione t P di passo P che riporta cos O nel
punto P scelto allinizio.

In definitiva, lisometria cercata si pu scrivere come:

Sr = t

[7.49]

S tP

e non dipende dalla scelta del punto P . Pertanto, per determinare le equazioni
di taleisometria
di R2 , analogamente

  a come fatto prima
 per le rotazioni, se
p

P = p 12 , considereremo Sr x 12 = t P S tP x 12 che fornisce le


equazioni della riflessione rispetto a r date da:

x1
x1
q
cos 2
sin 2
[7.50]
=
+ 1 ,
Sr
x2
x2
q2
sin 2 cos 2
q 

  p   p 
cos 2 sin 2
1
1
dove q 12 := sin 2 cos 2
p 2 + p 2 . Notiamo che lespressione

b)

[7.50] composizione di una traslazione e di unisometria lineare inversa;


il secondo modo, un modo pi geometrico. Infatti, supponiamo che r abbia equazione cartesiana a X 1 + b X 2 + c = 0. Consideriamo lequazione
x 
parametrica vettoriale della retta s passante per un punto arbitrario x 12
di R2 e perpendicolare
[7.16], tale retta ha equazione parametrica
 x  a r . Dalla
x 

1
a
vettoriale X = x 2 + t b , t R. La proiezione ortogonale di x 12
su r il punto di intersezione H = r s , ottenuto
 come
 punto su s per
a x +bx +c

il valore del parametro t0 := 1a 2 +b22 . Poich x 12 si ottiene su s per


t = 0, allora il suo simmetrico rispetto a r sar determinato come punto
a x +bx +c
su s per il valore del parametro 2t0 = 2 1a 2 +b22 . Quindi, avremo che
x  x 
a x +bx +c a 
Sr x 12 = x 12 2 1a 2 +b22
b . Sviluppando tutti i conti, otteniamo
che le equazioni per tale riflessione sono:

b a2
2a c
2a b

2
2 + b2
x
a + b2 a 2 + b2 x1 +
[7.51]
Sr 1 =

a2bc
2
2

x2
x2
2a b
a b
a 2 + b2
a 2 + b2 a 2 + b2
Esercizio 7.2 Alcune isometrie di R2
Siano dati in R2 la retta r : X1 2X2 1 = 0 ed il punto P =
(i)

 
1
2

Scrivere le formule di riflessione rispetto a r e le formule di rotazione di centro P


ed angolo = /2.

177

7 Geometria del piano cartesiano


(ii)

Denotati con Sr e con RP,/2 , rispettivamente, la riflessione e la rotazione trovate al punto (i), determinare le coordinate del punto (Sr RP,/2 )(P1 ), dove
 
P1 = 01 .

(i)

Per trovare le equazioni della riessione, conviene utilizzare il metodo geometrico


b) esposto sopra. Infatti, osserviamo che la giacitura di r la retta di equazione
 
cartesiana X1 2X2 = 0. Pertanto un suo vettore direttore il vettore 21 , e il

2 5
coseno dellangolo che esso forma con il vettore e1 5 , che non un angolo
elementare.
Utilizzando invece la procedura geometrica descritta sopra, da [7.51] si ottiene pi
facilmente che le equazioni della riessione sono
x1 = 1/5 (31 + 4x2 + 2),

x2 = 1/5 (4x1 3x2 4)

Le equazioni della rotazione sono invece

(ii)

x1 = 3 x2 , x2 = x1 + 1
 
  

2
RP,/2 (P1 ) = 1 , quindi (Sr RP,/2 )(P1 ) = Sr 21 = 12/5
.
1/5

Sia ora P un qualsiasi punto del piano cartesiano R2 . Denotiamo con S P lisometria di R2 data dalla riflessione rispetto al punto P . Per ottenere le equazioni di tale
riflessione, si ragiona in modo simile al procedimento a) usato per Sr :

si considera la traslazione tP di passo P , che porta quindi il punto P


nellorigine O;
si applica la riflessione S O , come nella Definizione 7.11;
infine si riapplica la traslazione t P di passo P che riporta cos O nel punto
P.

In definitiva, lisometria cercata si pu scrivere come:


[7.52]

SP = t

S O tP

Alcune affinit fondamentali del piano cartesiano


Le isometrie di R2 descritte precedentemente sono ovviamente anche affinit di R2 .
Consideriamo ora le equazioni di due tipi fondamentali di affinit lineari che non
sono isometrie lineari.
definizione 7.12 Siano ,

R+ . Denotiamo con D, laffinit lineare

definita da
[7.53]

178

x1
x1
0
=
D,
x2
x2
0

7.6 Trasformazioni del piano cartesiano


Una tale trasformazione viene chiamata dilatazione lineare. Notare che quando =
abbiamo in particolare unomotetia di modulo positivo (par. 6.4). Ovviamente quando e sono negativi, la trasformazione D, verr detta contrazione lineare.

Dilatazioni lineari

Notare che per esempio, quando = sono diversi da 1 allora la dilatazione


lineare D, non conserva n gli angoli n tanto meno le lunghezze. Pertanto un
sicuro esempio di affinit lineare che non unisometria lineare. Se invece =
R+ , nel qual caso D, unomotetia di modulo positivo, allora gli angoli vengono
conservati ma non viene conservata la lunghezza.
definizione 7.13 Sia

[7.54]

R. Denotiamo con T laffinit lineare definita da

x1
x1
1
=
T
x2
x2
0 1

Una tale trasformazione viene chiamata deformazione lineare (o shear). Ovviamente, se = 0, una deformazione lineare non conserva mai n angoli n tantomeno
lunghezze.

Deformazioni lineari

Questi sono ulteriori esempi di affinit lineari che non sono isometrie lineari. Per
quanto dimostrato nella Proposizione 6.13, sia le dilatazioni lineari sia le deformazioni lineari conservano lorientazione di basi dello spazio vettoriale R2 . Da quanto
osservato dopo la Proposizione 7.1, le deformazioni lineari conservano anche le aree;
invece le dilatazioni conservano le aree se, e solo se, = 1/.
Data una retta r di R2 di equazione cartesiana a X 1 + b X 2 + c = 0, come trovare
lequazione cartesiana della retta s , trasformata di r mediante una qualsiasi isometria
od una qualsiasi affinit di R2 ?
La risoluzione di questo problema molto semplice. Basta considerare due punti
arbitrari P e Q distinti su r . Se f lisometria o laffinit data dal problema, consideriamo i trasformati di questi punti mediante f , i.e. f (P ) e f (Q). Concludiamo
calcolando lequazione cartesiana della retta per i due punti distinti f (P ) e f (Q). Infatti, poich f biiettiva, P = Q implica f (P ) = f (Q). Vediamo questa semplice
strategia con lo svolgimento di un esercizio.

Esercizio 7.3 Riflessione di una retta rispetto ad unaltra


Sia s la retta di equazione cartesiana 2X1 + 3X2 = 0. Determinare lequazione cartesiana della retta s ottenuta per riflessione della retta s rispetto alla retta r, di equazione
cartesiana r : X1 X2 + 1 = 0.

179

Trasformate di rette
del piano cartesiano

7 Geometria del piano cartesiano


Prima di tutto dobbiamo determinare le equazioni della riessione

Sr . Utilizziamo una variazione del metodo geometrico b) sopra descritto. Sia P =

x1
x2

un punto arbitrario di R2 .

La retta h passante per P e perpendicolare a r ha equazione cartesiana X1 + X2 = x1 + x2 .






1
x
(
x
+
x
1)
1
2
2

Sia H = r h, che ha coordinate H = 1
. Allora il punto P := 1 sar il
x2
(x +x2 +1)
2 1

x 1
simmetrico di P rispetto a r se, e solo, se P = 2H P = x2 +1 . Questo signica che le
1

equazioni della riessione sono x1 = x2 1, x2 = x1 + 1. Ora prendiamo due punti arbitrari
sulla retta s. Poich s passa per lorigine, uno di 
tali punti
 sar per comodit
  O.
 Laltro
 punto possiamo prenderlo ad arbitrio, per esempio 23 . Pertanto, Sr 00 = 11 mentre
 
   
Sr 23 = 34 . Quindi, un vettore direttore per s sar dato da v = 23 . Lequazio

X +1 X2 1
= 0, che
ne cartesiana di s si ottiene quindi considerando per esempio det 1
determina s : 3X1 + 2X2 + 1 = 0.

Quanto discusso precedentemente ha come conseguenza un fatto molto importante.


Precisamente, ricordando le Definizioni 6.14 e 6.23, si ha:

R2 sono sempre fra di loro


congruenti (in particolare, anche affinemente equivalenti).

teorema 7.1 Due qualsiasi rette del piano cartesiano

Siano r e s due rette di R2 . sufficiente assumere che una delle due, per
esempio s , sia lasse delle ascisse. Infatti, se troviamo unisometria f r di R2 che trasforma r
nellasse delle ascisse ed analogamente unisometria f s di R2 che trasforma s nellasse delle
1
ascisse, allora lisometria f s f r sar unisometria che trasforma r in s .

Dimostrazione

Consideriamo allora un punto arbitrario P su r e poi la traslazione tP di passo P . La trasformata di r coincider con la giacitura r 0 di r . Scegliamo unorientazione su r 0 e calcoliamo
langolo convesso fra la retta orientata ed e 1 . Sia questo . Se consideriamo la rotazione attorno allorigine di angolo allora tutti i punti di r 0 verranno ruotati di modo che vadano
a finire sullasse delle ascisse.


La dimostrazione del precedente risultato ha la seguente conseguenza.


corollario 7.7 Data una qualsiasi retta r del piano cartesiano, esiste sempre un
opportuno
riferimento cartesiano di R2 , con origine O  e coordinate cartesiane
y 
1
y 2 , in cui lequazione cartesiana di r Y2 = 0.

Lequazione cartesiana come sopra viene chiamata equazione canonica metrica (rispettivamente, affine) delle rette del piano cartesiano.
180

7.7 Circonferenze
Il precedente corollario asserisce che, quale che sia la retta di partenza, esiste sempre
un riferimento cartesiano in cui questa retta ha unequazione cartesiana pi semplice possibile. Come vedremo nel capitolo 12, una propriet analoga varr anche
per altri luoghi geometrici definiti da equazioni polinomiali di secondo grado: le coniche. Anche in questo caso, troveremo un metodo per determinare un opportuno
riferimento cartesiano in cui queste curve piane abbiano unequazione cartesiana pi
semplice possibile. Quello che non sar pi vero lequivalente del Teorema 7.1: non
vero cio che tutte le coniche del piano sono affinemente equivalenti, e quindi in
particolare non saranno nemmeno congruenti.

7.7

Circonferenze

In questo paragrafo studiamo le circonferenze. Esse sono un primo esempio di luoghi


geometrici che non sono variet lineari in R2 . Le circonferenze appartengono ad una
pi ampia famiglia di curve piane, dette coniche, che verranno studiate in dettaglio
nel capitolo 12.

R2 e sia r R+ . Una circonferenza C in


di centro C e raggio r il luogo geometrico dei punti del piano che hanno
distanza da C uguale a r . In altri termini, i punti P su C sono tutti e soli quei
punti per cui
definizione 7.14 Sia C un punto di

R2

d (P , C ) = r

[7.55]

Il punto C si dir centro della circonferenza C .


Sia P =

x 
1

x2

un punto arbitrario di R2 e sia C =

c 
1

c2

. Come usuale, siano P

e C i corrispondenti vettori associati. Allora, [7.55] si traduce in ||P C || = r .


Quindi, elevando ambo i membri al quadrato e scrivendo tutto in componenti, si
ottiene (x 1 c 1 )2 + (x 2 c 2 )2 = r 2 . Pertanto, da questultima eguaglianza, deduciamo che lequazione cartesiana della circonferenza C di centro C e raggio r lequazione
[7.56]

(1,0)

(X 1 c 1 )2 + (X 2 c 2 )2 = r 2

che manifestamente un polinomio di secondo grado nelle indeterminate X 1 e X 2


(par. 6.3 per le ipersfere in generale).
Analogamente a quanto osservato per le rette, ogni altra equazione proporzionale a [7.56] descriver sempre la stessa circonferenza C . In particolare, una qualsiasi
2
2
equazione cartesiana che rappresenta C avr i coefficienti di X 1 e X 2 uguali.
181

figura 7.12 La circonferenza


C di centro O e raggio 1

7 Geometria del piano cartesiano


(X c )

(X c )

Ponendo 1r 1 := cos t, 1r 1 := sin t, t [0, 2 ],[7.56] soddisfatta e, al


variare di t [0, 2 ], descriviamo tutti i punti sulla circonferenza C . Pertanto, le
equazioni parametriche della circonferenza C di centro C e raggio r sono
[7.57]

X 1 = c 1 + r cos t
t [0, 2 ]
X 2 = c 2 + r sin t

Viceversa, dato un sistema di equazioni parametriche come nella [7.57], banale trovare lequazione cartesiana di C come nella [7.56]. Basta fare il ragionamento inverso
del precedente.
Studiamo ora alcune propriet geometriche delle circonferenze, in particolare quelle
che si possono affrontare dal punto di vista della geometria analitica.
Intersezioni fra
circonferenza e retta

Date una retta r ed una circonferenza C nel piano, ci sono tre differenti possibilit:
1.
2.

3.

r e C si intersecano in due punti distinti, nel qual caso r si dice retta secante
per C ;
esse si intersecano in un unico punto P , per meglio dire si toccano in P , dato
che lintersezione non trasversa come nel caso della retta secante. In tal
caso r si dice la retta tangente a C in P ;
r e C non si intersecano affatto, nel qual caso r si dice retta esterna a C .

Vediamo in dettaglio le varie possibilit.

C e r in equazioni
cartesiane

Supponiamo che r sia data in equazione cartesiana a X 1 + b X 2 + c = 0 e che C sia


come in [7.56]. Per studiare le eventuali intersezioni r C si tratta di considerare il
sistema (non lineare) di due equazioni:

a X1 + bX2 + c = 0
[7.58]
(X 1 c 1 )2 + (X 2 c 2 )2 = r 2
Per risolvere tale sistema, abbiamo le due seguenti eventualit:

se b = 0, allora consideriamo X 1 = c /a dalla prima equazione; sostituiamo nella seconda equazione al posto di X 1 il valore c /a e ci riduciamo a
risolvere unequazione di secondo grado nella sola indeterminata X 2 ;

se invece b = 0, abbiamo X 2 = b 1 ; sostituiamo nella seconda equazione al posto di X 2 tale espressione e ci riconduciamo di nuovo a risolvere
unequazione di secondo grado in X 1 .

c +a X

Alla fine, in ciascuno dei due casi, avremo unequazione del tipo Z 2 + Z + = 0,
, , R, dove Z = X 2 nel primo caso e Z = X 1 nel secondo caso. A seconda
del segno del discriminante  := 2 4 di questa equazione di secondo grado
avremo le possibilit elencate precedentemente. In particolare:
182

7.7 Circonferenze
(i)

(ii)

(iii)

se  > 0, avremo due valori reali distinti per Z e quindi due punti distinti di
R2 le cui coordinate soddisfano il sistema [7.58] (ovviamente per determinare
laltra coordinata dei punti in questione, si sostituiscono i valori trovati per
Z nellequazione lineare del sistema [7.58]);
se  = 0, avremo ununica soluzione reale per Z e quindi ununico punto
P di R2 soluzione del sistema. Il fatto che la soluzione reale per Z unica,
ma contata con molteplicit due (i.e. sono due soluzioni coincidenti), si legge
geometricamente nel fatto che P un punto di tangenza tra r e C .
se  < 0, allora non esistono soluzioni reali per lequazione di secondo grado
in Z e quindi tantomeno per [7.58].

Esempio 7.3 Retta tangente ad una circonferenza


Vogliamo determinare lintersezione fra la retta r di equazione cartesiana X1 = 1 e la circonferenza di centro O e raggio 1. Tale circonferenza ha equazione cartesiana X1 2 +X2 2 = 1. Se
poniamo X1 = 1, si ha X2 2 = 0. Pertanto, utilizzando le notazioni precedenti, lequazione
di secondo grado Z 2 = 0, con Z = X2 . Tale equazione manifestamente ammette lunica
soluzione
  Z = 0 ma contata con molteplicit due. Quindi, la retta r tangente a C nel punto
P = 10 .

p 

Se ora r data in equazioni parametriche X = p 12 + t ml , t R, per trovare
le eventuali intersezioni tra r e C basta sostituire nellequazione di C , X 1 = p 1 + l t,
X 2 = p 2 + m t. Si ottiene unequazione di secondo grado in t cui applicare quanto
discusso precedentemente.

C in equazione
cartesiana e r in
equazioni parametriche

Esempio 7.4 Retta secante di una circonferenza

 
Vogliamo determinare lintersezione fra la retta r, di equazioni parametriche X = 00 +
 
2
2
t 11 , t R, e la circonferenza di centro O e raggio 1. Allora nellequazione X1 + X2 = 1
poniamo X1 = t, X2 = t. Otteniamo lequazione 2t2 1 = 0 che fornisce i due valori

2
t = 2 . Pertanto la retta r secante la circonferenza C ed i punti di intersezione sono


2

P1 =

e P2 =

Quale che sia la rappresentazione di r , o in equazione cartesiana o in equazioni parametriche, se C in equazioni parametriche, conviene sempre portare C in forma
cartesiana e poi operare come in uno dei due modi sopra descritti.
183

C in equazioni
parametriche e r data
in qualsiasi forma

7 Geometria del piano cartesiano


Intersezioni fra due
circonferenze

Supponiamo di avere due circonferenze date in equazioni cartesiane (ci possiamo


sempre ricondurre ad una tale eventualit)

C : (X 1 c 1 )2 +(X 2 c 2 )2 = r 2 e C  : (X 1 d1 )2 +(X 2 d2 )2 = R 2
d 
c 
di centri C = c 12 e D = d12 e di raggi r e R, rispettivamente. Per determinare
le eventuali intersezioni tra C e C  , dobbiamo considerare il sistema (non lineare)

(X 1 c 1 )2 + (X 2 c 2 )2 = r 2
[7.59]
(X 1 d1 )2 + (X 2 d2 )2 = R 2
Osserviamo subito che, se C = D (i.e. se le due circonferenze sono concentriche), il
precedente sistema ammette soluzione solo se anche r = R. Questo significa che due
circonferenze concentriche o coincidono oppure non si intersecano in alcun punto.
Possiamo allora supporre che C = D. Se in [7.59] sottraiamo la seconda equazione
2
2
dalla prima, otteniamo unequazione lineare, poich i termini X 1 e X 2 sono sempre
con coefficiente 1. Lequazione che si ottiene :
[7.60]

2(d1 c 1 )X 1 +2(d2 c 2 )X 2 =r 2 R 2 + (d1 c 1 )+ (d2 c 2 ) = 0

Possiamo considerare il sistema

(X c 1 )2 + (X 2 c 2 )2 = r 2

1
2
2
2(d1 c 1 )X 1 + 2(d2 c 2 )X 2 = r 2 R 2 + (d1 c 1 )+
[7.61]

2
2

+ (d c ) = 0
2

che equivalente a [7.59]. Notiamo in particolare che [7.60] lequazione cartesiana


di una retta perpendicolare alla retta passante per i due centri C e D: infatti, un
vettore direttore della retta congiungente C e D D C e le componenti di tale
vettore sono, a meno del termine di proporzionalit 2, i coefficienti dellequazione
[7.60] (Proposizione 7.3).
In definitiva, ricordando tutte le eventualit di intersezione tra una circonferenza ed
una retta sopra descritte, abbiamo che le due circonferenze C e C  :

184

si intersecano in due punti distinti, quando la retta [7.60] secante C ;


si intersecano in un unico punto P ; questo accade quando la retta [7.60]
tangente C in P . Come si vede facilmente, tale retta deve essere allora tangente in P anche a C  . Quindi, in tal caso le circonferenze sono tangenti una
allaltra in P (i.e. si toccano), nel senso che si spartiscono la medesima retta
tangente in P ;
lultima eventualit che le due circonferenze non si intersecano. Questo
accade quando la retta [7.60] esterna a C .

7.7 Circonferenze
Dora in poi fissiamo una circonferenza C di R2 .
a)

Supponiamo prima di tutto di avere un punto P C e di voler determinare


lequazione cartesiana dellunica tangente a C in P (figura 7.13). Abbiamo la
seguente:
proposizione
7.11
 
p1
p2

Rette tangenti
ad una circonferenza

T2

Sia C di equazione cartesiana come in [7.56] e sia P =

C . Allora, unequazione cartesiana per la retta tangente a C nel punto

T1

P :
P

[7.62]

( p 1 c 1 )(X 1 p 1 ) + ( p 2 c 2 )(X 2 p 2 ) = 0

Dimostrazione Poich per ipotesi P C , notiamo che il segmento


 p c C P proprio
il raggio di C passante per P . Pertanto, il vettore P C = p 12 c 12 parallelo a
tale segmento orientato.
Sia P la retta tangente a C in P che vogliamo determinare. Per le ben note propriet
elementari sulle circonferenze, il raggio passante per P un segmento perpedicolare
a P . Quindi, il vettore P 
C un
 vettore normale per P . Segue che un vettore
direttore per P il vettore

b)

p 2 c 2
c 1 p1

. Per concludere, applichiamo la formula [7.15].




Supponiamo ora di avere invece un punto Q che non appartiene a C e di voler


determinare se esistono tangenti a C passanti per Q ed, in caso affermativo,
calcolare quali sono i punti di tangenza su C (che dipendono ovviamente
dalla scelta di Q). Una volta determinati questi punti di tangenza, potremo
in seguito determinare lequazione della tangente in ciascuno di tali punti
come fatto nel punto a) precedente. Sia C di equazione cartesiana come in
[7.56]. Abbiamo due eventualit.
Se Q un punto interno alla circonferenza (cio se contenuto nella porzione di piano formata dai punti le cui coordinate soddisfano la relazione
(X 1 c 1 )2 + (X 2 c 2 )2 < r 2 ), allora tutte le rette uscenti da Q sono
necessariamente secanti C ma mai tangenti. Perci in questo caso non si ha
alcuna tangente.
Se invece Q un punto esterno a C (cio contenuto nella porzione di piano
(X 1 c 1 )2 + (X 2 c 2 )2 > r 2 ) allora ben noto dalla geometria elementare
che esistono esattamente due rette tangenti a C distinte ed uscenti da Q. Vogliamo determinare i punti di tangenza (e quindi anche le equazioni delle due
tangenti) in funzione di Q e della circonferenza C . Vediamo subito che questo problema si traduce in un problema di intersezione fra due circonferenze,
e quindi in unintersezione fra una circonferenza ed una retta come discusso
precedentemente. Infatti, dette 1,Q e 2,Q le due tangenti a C uscenti da
185

figura 7.13 La tangente in P


C e le due tangenti a C uscenti
da Q

7 Geometria del piano cartesiano


Q, sia Ti C il punto per cui i,Q tangente in Ti a C , con 1 i 2,
dove T1 = T2 . Allora T1 e T2 devono stare sia sulla circonferenza C sia sulla

circonferenza C  di centro Q e raggio R := d (C, Q)2 r 2 . Per quanto osservato prima sulle intersezioni fra due circonferenze, dobbiamo quindi
avere {T1 , T2 } = C C  .
Esempio 7.5 Tangenti a C da un punto esterno
Sia C la circonferenza di centro

 
2
1

e raggio 3. Sia Q =

1
5


. Lequazione cartesiana di

C (X1 2)2 + (X2 1)2 = 9. Sostituendo in tale equazione le coordinate di P otteniamo


9 + 16 9 > 0, che ci assicura che Q esterno a C . Ora d(C, Q) = 5 quindi, se utilizziamo
la notazione come sopra, abbiamo R = 4. Allora dobbiamo risolvere il sistema

(X1 2)2 + (X2 1)2 = 9
(X1 + 1)2 + (X2 5)2 = 16.
Sottraendo la seconda equazione dalla prima, otteniamo la retta di equazione cartesiana
3X1 4X2 + 7 = 0. Pertanto, risolviamo il sistema equivalente:

(X1 2)2 + (X2 1)2 = 9
3X1 4X2 = 7
Le soluzioni che si trovano sono T1 =

1
1

e T2 =

71/25
9/25

. Per determinare le equazioni


 
per esempio parametriche delle due rette tangenti, consideriamo C T1 = 30 e C T2 =




5071
21
 
0
25
25

il
vettore
=
.
Pertanto,
un
vettore
direttore
di

mentre un
1,Q
2597
72
1
25
25
 
24
vettore direttore di 2,Q 7
. Quindi le due rette saranno:





1
0
71/25
24
+t
, e 2,Q : X =
+t
, tR
1,Q : X =
1
1
9/25
7

Soluzioni

Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).

Quesiti ed esercizi
1.
2.
Determinare tutte
 le rette del piano cartesiano passanti per Siano assegnate le rette s1 , di equazioni parametriche X1 =
il punto P = 12 e formanti con lasse x1 un angolo con- 1 2t, X2 = 2t, t R, e s2 , s3 di equazioni cartesiane,
vesso pari a /3. Determinare inoltre gli angoli convessi fra rispettivamente, X1 2X2 + 1 = 0 e 2X1 + X2 2 = 0:
tutte le rette ottenute.

186

7.7 Circonferenze
(i)
(ii)
(iii)
(iv)

bilire se il sistema di vettori f := R /2 (v), R /2 (w)


determinare unequazione cartesiana di s1 ;
determinare unequazione cartesiana della retta r
determina una base equiorientata ad e.
parallela a s1 e passante per P0 = s2 s3 ;
determinare le equazioni parametriche della retta n
5.

passante per P1 = s1 s2 e perpendicolare a s3 ;


x1
 
Scrivere
le
formule
della
rotazione
R
di angolo
1
/2,P
vericare che la retta per i punti Q1 = 1/4 e
x2


 
1
2
Q2 = 1/4
parallela a s2 . Stabilire se tale retta /2 attorno a P = 1 . In seguito, si consideri l la retta di
   
coincide con s2 .
equazione parametrica vettoriale X = 11 +t 21 , t R.

3.
 
Sia P0 = 12 un punto di R2 :
(i)
(ii)

Determinare unequazione cartesiana della retta R/2,P (l).

6.
 
 
Siano dati in R2 i tre punti P = 21 , Q = 12 ed
 
di
R = 11 :

scrivere le equazioni della rotazione RP ,/6


0
centro P ed angolo /6;
sia Sr la riessione rispetto alla retta r : X1
X2 + 1 = 0. Sia s la retta di equazione cartesia- (i)


na (2 3)X1 X2 + 3 = 0. Denotata con Ss la
riessione rispetto a tale retta s, vericare che si ha (ii)
Sr Ss = RP0 ,/6 .

determinare lequazione cartesiana dellunica circonferenza C passante per i tre punti dati;
determinare lequazione cartesiana della retta
tangente a C nel punto P .

4.
Si consideri R2 con riferimento cartesiano ortonormale 7.
Siano s1 e s2 due rette di R2 passanti ambedue per il punto
(O, e), dove e la base canonica:
 


18/5
2

P
=
e,
rispettivamente,
per
Q
la prima
=
1
x1
1/5
1
 
di
(i)
scrivere le formule di rotazione R/2
x2
e per Q2 = 21 la seconda. Assumiamo che le rette s1 e
angolo /2 attorno
ad O;  
 
s2 siano tangenti ad una circonferenza C , rispettivamente, in
(ii)
dati i vettori v = 12 ew = 1
dello
spazio
vetQ1 la prima ed in Q2 la seconda. Determinare il centro C, il
1
toriale R2 , le cui componenti sono rispetto ad e, sta- raggio r e lequazione cartesiana di C .

187

8
Geometria dello spazio cartesiano
Come fatto per il capitolo 7, in questo capitolo focalizzeremo la nostra attenzione
sullo studio della geometria dello spazio cartesiano.

8.1

Prodotto vettoriale e prodotto misto dello spazio vettoriale R3 .


Interpretazioni geometriche

In questo paragrafo consideriamo alcune propriet dello spazio vettoriale euclideo


(R3 ,  , ), dotato del prodotto scalare standard  ,  come nellEsempio 5.2 e della
base canonica e come nella Definizione 4.23. Le propriet che considereremo sono
il prodotto vettoriale ed il prodotto misto tra vettori di R3 . Tali definizioni, fra le altre
cose, hanno interessanti risvolti geometrici relativi ad opportuni solidi dello spazio
cartesiano associato.
Introduciamo dapprima la nozione di prodotto vettoriale in R3 . Per come sar definita,
sar subito chiaro che questa una propriet esclusiva di R3 (Osservazione 8.1).
definizione 8.1 Siano u =

u2
u3

ev =

v2
v3

due vettori di R3 , espressi in

componenti rispetto alla base e . Il prodotto vettoriale di u e v, denotato con


u v, il vettore di R3 di componenti rispetto ad e

u 2 v3 u 3 v2
u v := u 1 v3 + u 3 v2
[8.1]
u 1 v2 u 2 v1
Dalla precedente definizione notiamo che il prodotto vettoriale in R3 associa a due
vettori di R3 un terzo vettore di R3 , univocamente determinato, con particolari
propriet geometriche che ora andremo a descrivere.
Da [8.1], chiaro che se uno dei due vettori il vettore nullo allora il relativo prodotto
vettoriale automaticamente il vettore nullo.
proposizione 8.1 Il prodotto vettoriale gode delle seguenti propriet:

(i)

lineare, i.e. per ogni terna di vettori u, v e w di R3 e per ogni coppia di


scalari , R si ha:

189

8 Geometria dello spazio cartesiano


u (v + w) = (u v) + (u w) e
(u + v) w = (u w) + (v w)

(ii)
(iii)

(iv)

in particolare, se u e v sono vettori non nulli, allora u v = 0 se, e solo


se, u e v sono linearmente dipendenti;
per ogni coppia di vettori u e v di R3 , u v = v u;
se u e v sono vettori linearmente indipendenti, allora il vettore u v
ortogonale ad entrambi i vettori u e v, i.e. ortogonale al piano vettoriale
Lin(u, v) di R3 . In particolare, b := u, v, u v una base di R3 ;
con ipotesi come in (iii), si ha ||u v|| = ||u||||v||| sin |, dove =
(u, v) langolo convesso tra i vettori u e v come nella Definizione 5.17.

In particolare, se u, v un sistema ortogonale (rispettivamente, ortonormale) di


vettori di R3 , allora b = u, v, u v una base ortogonale (rispettivamente,
ortonormale) di R3 .
Dimostrazione
(i)

Ponendo w =

w2
w3

, la prima parte dellaffermazione discende direttamente dal-

lapplicazione della formula [8.1]. Se ora u e v sono non nulli e linearmente dipendenti, esister un opportuno R\{0} tale che v = u. Per la propriet di linearit,
u (u) = (u u). Basta applicare allora [8.1] per notare che u u = 0, per ogni
vettore non nullo u di R3. Viceversa,
 se u v = 0, si ha che [8.1] equivalente a
u u u

(ii)
(iii)

(iv)

dire che la matrice A := v11 v22 v33 , che ha per righe le componenti dei vettori u
e v rispetto alla base e , ha tutti i minori 2 2 a determinante nullo, i.e. r (A) = 1.
Questo significa che u e v sono linearmente dipendenti.
Laffermazione segue direttamente da [8.1],
Utilizzando [8.1], notiamo che u, u v = u 1 (u 2 v3 u 3 v2 )+u 2 (u 1 v3 +u 3 v2 )+
u 3 (u 1 v2 u 2 v1 ) = 0.
Un conto analogo mostra che anche v, uv = 0. Quindi uv, essendo ortogonale
sia a u che a v ortogonale al piano vettoriale Lin(u, v). In particolare, u v non
appartiene a tale piano vettoriale. Quindi, u, v, u v forma una base di R3 .
Per la prima parte dellaffermazione, ricordando [5.6], consideriamo:
||u||2 ||v||2 sin2 = ||u||2 ||v||2 (1 cos2 ) =
= ||u||2 ||v||2 (u, v)2 =
2

= (u 1 + u 2 + u 3 )(v1 + v2 + v3 )
+ (u 1 v1 + u 2 v2 + u 3 v3 )2 =
= (u 1 v2 u 2 v1 )2 + (u 1 v3 + u 3 v2 )2 +
+ (u 2 v3 u 3 v2 )2 = ||u v||2
dove lultima eguaglianza discende direttamente da come sono definite le coordinate
di u v in [8.1]. Estraendo la radice quadrata ad i membri estremi della precedente
catena di eguaglianze, troviamo leguaglianza voluta.

190

8.1 Prodotto vettoriale e prodotto misto dello spazio vettoriale R3


Se ora u, v un sistema ortogonale di vettori, da (ii) u, v, u v una base ortogonale, con
||u v|| = ||u|| ||v|| dato che, in tal caso, = /2. Se inoltre, u e v sono versori, allora
u, v, u v una base ortonormale di R3 .


Osservazione 8.1
La Proposizione 8.1 chiarica quanto asserito allinizio di
questo paragrafo i.e. che, per come denito, il prodotto vettoriale una propriet esclusiva di R3 . Infatti, possiamo considerare astrattamente il prodotto vettoriale come unapplicazione che associa ad una coppia di vettori u e v di uno
spazio vettoriale euclideo V un (ed un solo) terzo vettore di
V, i.e. (u, v) := u v V. Dalla Proposizione 8.1-(i), se
almeno uno dei due vettori u e v il vettore nullo oppure
se u e v sono linearmente dipendenti in V, banalmente lassociazione (u, v) = 0. Se invece u e v sono linearmente
definizione 8.2 Siano u, v e w tre vettori di

della terna ordinata u, v e w come

indipendenti, dalla Proposizione 8.1-(iii), (u, v) deve essere uno specico generatore del complemento ortogonale del
piano vettoriale Lin(u, v) (Denizione 5.12). In altri termini,
Lin(u, v) = Lin((u, v)) = Lin(u v).
quindi chiaro che il complemento ortogonale in uno spazio vettoriale euclideo V
= Rn di un dato piano vettoriale U una retta vettoriale se, e solo se, n = 3: per
n = 2, essendo U = V non esiste U mentre, per n > 3,
dim(U ) = n 2 > 1.

R3 . Definiamo il prodotto misto

[u, v, w] := u v, w

[8.2]

proposizione 8.2 Il prodotto misto gode delle seguenti propriet:

(i)

(ii)

lineare, i.e. per ogni quaterna di vettori u, v, w e z di R3 e per ogni


coppia di scalari , R si ha:
[u + v, w, z] = [u, w, z] + [v, w, z]
[u, v + w, z] = [u, v, z] + [u, w, z]
[u, v, w + z] = [u, v, w] + [u, v, z]
u

1
1
1
v
u
2
2
,v =
, w = w2 ,
se, rispetto alla base e , si ha u =
u3

v3

w3

allora:

u 1 v1 w1
[u, v, w] = det u 2 v2 w2
u 3 v3 w3

[8.3]

(iii)

in particolare, se u, v e w sono non nulli, [u, v, w] = 0 se, e solo se, u, v


e w sono linearmente dipendenti in R3 ;
per ogni terna u, v e w di vettori di R3 si ha [u, v, w] = [v, w, u] =
[w, u, v].
191

8 Geometria dello spazio cartesiano


Dimostrazione
(i)
(ii)

(iii)

Laffermazione discende direttamente dalla linearit sia del prodotto scalare sia del
prodotto vettoriale.
La prima parte dellaffermazione segue da un calcolo diretto che utilizza la definizione del prodotto scalare standard  ,  e [8.1]. Lequivalenza di affermazioni discende
invece dalle propriet dei determinanti ed il legame con lindipendenza lineare di
vettori.
Discende sempre da [8.3] e dalle propriet dei determinanti.


Concludiamo con uninterpretazione geometrica di quanto discusso fino ad ora.


proposizione 8.3 Siano dati tre vettori u, v e w linearmente indipendenti in R3 .

Allora:
(i)
(ii)

larea a del parallelogramma di vertici determinati dagli estremi dei vettori


0, u, v e u + v data a = ||u v||;
il volume V del parallelepipedo di spigoli determinati dai vettori u, v e w
dato da
[8.4]

V = |[u, v, w]|

Dimostrazione
(i)

(ii)

Come nella dimostrazione della Proposizione 7.1, larea del parallelogramma data
da a = ||u|| ||v|| | sin |, con langolo convesso tra u e v. Concludiamo utilizzando
Proposizione 8.1-(iv).
Il volume V del suddetto parallelepipedo dato dal prodotto tra larea del parallelogramma di base, di vertici come in (i), moltiplicata per laltezza h, relativa a tale
parallelogramma. h uguale alla norma del vettore ottenuto per proiezione ortogonale di w sul vettore u v. Detto langolo convesso formato dai vettori w e u v,
allora h = ||w|| | cos |. In definitiva, da (i) e dal conto appena svolto, il volume V
dato da:

V = a h = ||u|| ||v|| | sin | ||w|| | cos | =


= ||u v|| ||w|| | cos | = |u v, w| = |[u, v, w]|
dove la penultima eguaglianza discende da [5.6].




u1 v1 w1 



Nelle ipotesi della Proposizione 8.3-(ii), e con componenti particolare V = det u2 v2 w2 , che fornisce uninterpretau3 v3 w3
rispetto ad e come nella Proposizione 8.2-(ii), otteniamo in

Osservazione 8.2

192

8.1 Prodotto vettoriale e prodotto misto dello spazio vettoriale R3


tazione geometrica del valore assoluto del determinante di me discende direttamente dalla denizione di orientazione
una matrice 3 3. In particolare, se u, v e w formano una (Denizione 6.26).
base ortonormale di R3 , allora V = 1 = |Or(u, v,w)|, co-

corollario 8.1

(i)
(ii)

Sia u, v un qualsiasi sistema di vettori linearmente indipendenti di R3 .


Allora, b := u, v, u v una base di R3 orientata positivamente.
Se f 1 , f 2 un qualsiasi sistema ortogonale (rispettivamente, ortonormale) di R3 , allora f := f 1 , f 2 , f 1 f 2 una base ortogonale (rispettivamente, ortonormale) di R3 orientata positivamente.

Dimostrazione
(i)

Il fatto che sia una base di R3 esattamente la Proposizione 8.1-(iii). Dalla Definizio-

(ii)

ne 6.26 e da [8.2], [8.3], abbiamo che Or (u, v, u v) =


questo mostra che lorientazione sempre positiva.
Segue direttamente da (i) e dalla Proposizione 8.1-(iv).

[u,v,uv]
|[u,v,uv]|

||uv||2
||uv||2

= 1,

Esercizio 8.1 Una base ortonormale di R3


Nello spazio vettoriale euclideo R3 , sia dato il sottospazio vettoriale U di equazioni cartesiane X1 + X2 = X1 X2 = 0. Si determini una base ortonormale b di R3 , orientata
positivamente ed il cui primo versore appartenga ad U.
Notiamo che U una retta vettoriale. Un vettore direttore di U si trova risolvendo il sistema lineare omogeneo che denisce U. Per esempio, una soluzione
data dal vettore
1

1/ 3

v = 1 . Perci, versorizzando v si ottiene f1 := || vv || = 1/ 3 . Possiamo ora

1
1/

R3

che sia manifestamente


ad U, per
scegliere opportunamente un vettore di
ortogonale

1

1/ 2

esempiow = 1 . Versorizzandow otteniamo f2 = || ww || = 1/ 2 . Tali due versori


0

sono i primi due vettori


della
b da determinare. Per il terzo vettore di b basta consibase
derare f3 := f1 f2 =

1/
1/
2/

6
. Dal Corollario 8.1, tale base sicuramente ortonormale
6
6

ed orientata positivamente.

193

8 Geometria dello spazio cartesiano

8.2

Punti, rette e piani dello spazio cartesiano R3

Analogamente a quanto fatto nel paragrafo 7.2 per R2 , consideriamo dora in poi la
geometria dello spazio cartesiano. Come osservato nella Proposizione 6.5, potremo
denotare senza ambiguit con R3 lo spazio cartesiano in cui assumeremo fissato una
volta per tutte un riferimento cartesiano (O, e ) dove:

O lorigine del riferimento; la base e = e 1 , e 2 , e 3 , come nella Definizione 4.23, la base canonica;
quando necessario, confonderemo il punto P di R3 con il vettore P a O
dello spazio vettoriale R3 . In tale identificazione, tale vettore verr denotato
brevemente con P . Le coordinate cartesiane del punto P rispetto al riferimento (O, e ) (equivalentemente, le componenti di P rispetto alla
base e ),
verranno pertanto denotate con notazione di matrice colonna

p1
p2
p3

corrispondentemente,
le coordinate cartesiane del riferimento (O, e ) verran x

1
no denotate con x 2 . Le rispettive indeterminate saranno denotate con
x3

X 1 , X 2 , X 3 . In notazione vettoriale pi compatta il vettore delle indetermi


nate, con componenti

X1
X2
X3

, verr denotato con X .

La struttura di R3 come spazio euclideo (nel senso della Definizione 6.10) sar implicitamente considerata sempre relativamente al prodotto scalare standard  ,  dello spazio vettoriale R3 , come nellEsempio 5.2.

Dalle precedenti assunzioni, possiamo rappresentare lo spazio cartesiano R3 come


nella figura 8.1.
x3 6


p1



 O



P=p2
p3

x2





x1

figura 8.1 Spazio cartesiano R3

Lasse delle x 1 viene chiamato lasse delle ascisse, lasse delle x 2 viene chiamato lasse
delle ordinate, lasse delle x 3 viene chiamato lasse delle altezze. Insieme essi vengono
chiamati gli assi coordinati del riferimento.
194

8.2 Punti, rette e piani dello spazio cartesiano R3


Notiamo che, in R3 esistono anche dei piani coordinati: nella figura 8.1, il piano
(x 1 , x 2 ) il piano orizzontale, il piano (x 2 , x 3 ) il piano verticale ed il piano (x 1 , x 3 )
il piano trasversale.
Il piano (x 1 , x 2 ) formato dai punti P di R3 le cui coordinate, rispetto al riferimento
p1

fissato, sono P = p 2 , con p 1 , p 2 R. In particolare, unequazione lineare che


0

rappresenta tale piano :

Equazioni dei piani


coordinati, degli assi
coordinati e del punto
origine

X3 = 0

[8.5]

Esattamente come nel paragrafo 7.2, [8.5] non lunica equazione che rappresenta
tale piano: una qualsiasi equazione ad essa proporzionale rappresenter lo stesso piano. Dora in poi [8.5] sar considerata come lequazione lineare fondamentale (i.e. pi
semplice possibile) che definisce il piano (x 1 , x 2 ). Con lo stesso tipo di ragionamenti,
il piano (x 2 , x 3 ) sar definito dallequazione lineare fondamentale:
X1 = 0

[8.6]

mentre il piano (x 1 , x 3 ) sar definito dallequazione lineare fondamentale:


X2 = 0

[8.7]

Per quanto riguarda gli assi coordinati, osserviamo che lasse x 1 formato dai punti
p1

0 , con p 1 R. Pertanto, come evidente anche da figura 8.1, lasse x 1


P =
0

sar intersezione in R3 del piano (x 1 , x 3 ) e del piano (x 1 , x 2 ). Quindi un sistema


fondamentale di equazioni lineari che rappresenta lasse x 1 dato dal sistema lineare
definito dalle equazioni [8.5] e [8.7], i.e.
X2 = X3 = 0

[8.8]

Analogamente, lasse x 2 sar determinato dal sistema fondamentale di equazioni:


X1 = X3 = 0

[8.9]

mentre lasse x 3 sar determinato da:


X1 = X2 = 0

[8.10]

Osservazione 8.3
Come discusso nellOsservazione 7.1 per R2 , sia i piani coor- vettoriali rispetto alla struttura di spazio vettoriale che ha R3 .
dinati sia gli assi coordinati hanno una struttura di sottospazi

Il punto
O dello spazio cartesiano R3 , per definizione, il punto di coordinate

origine
O=

0
0
0

rispetto al riferimento fissato. In particolare, esso lintersezione dei tre

195

8 Geometria dello spazio cartesiano


piani coordinati. Quindi, il sistema fondamentale di equazioni lineari che rappresenta
O dato dal sistema lineare omogeneo di tre equazioni in tre indeterminate
[8.11]

X1 = X2 = X3 = 0

Ogni coppia di equazioni in [8.11] descrive uno ed uno solo dei tre assi coordinati
passanti per O.
Osservazione 8.4
Come discusso nellOsservazione 7.2, il sistema di equazioni lineari [8.11] non lunico sistema lineare che rappresenta lorigine di R3 . Per esempio, lorigine anche lunica
soluzione del sistema lineare omogeneo vspace4pt
[8.12]

X1 X2 = X1 + X2 = X1 X2 + X3 = 0

Come discuteremo nel seguito, ciascuna delle equazioni

Equazioni di rette e piani


paralleli ai coordinati
e di punti

componenti [8.12] corrisponder ad un piano di R3 passante per O e ciascuna coppia di equazioni denir una
ben determinata retta di R3 passante per O. Per esempio, il sistema X1 X2 = X1 + X2 = 0 estratto
da [8.12] chiaramente equivalente al sistema lineare [8.10],
pertanto esso un sistema lineare che denisce sempre
lasse x3 .

Le semplici osservazioni considerate precedentemente, si estendono facilmente a situazioni leggermente pi generali. Supponiamo infatti

di avere un punto P = O
dello spazio cartesiano che abbia coordinate P =

p1
p2
p3

rispetto al riferimento fis-

sato. Il piano parallelo al piano (x 1 , x 2 ) passante per P , non altro che la sottovariet
lineare passante per P e parallela al piano vettoriale definito da [8.5]. In altri termini,
il piano vettoriale X 3 = 0 la giacitura di tale sottovariet lineare (Definizione 6.6)
e lequazione lineare fondamentale che definisce tale sottovariet lineare passante per
P :
[8.13]

X 3 = p3

lequazione manifestamente non omogenea appena p 3 = 0. Analogamente, il piano


parallelo al piano (x 1 , x 3 ) passante per P , ha per equazione lineare fondamentale:
[8.14]

X 2 = p2

e la sua giacitura X 2 = 0; mentre il piano parallelo al piano (x 2 , x 3 ) passante per il


punto P , ha per equazione lineare fondamentale lequazione lineare:
[8.15]

X 1 = p1

e la sua giacitura X 1 = 0.
Da quanto osservato per i piani, chiaro che la retta parallela allasse x 1 passante per
P definita dal sistema lineare fondamentale non omogeneo:
[8.16]
196

X 2 p2 = X 3 p3 = 0

8.2 Punti, rette e piani dello spazio cartesiano R3


e che la sua giacitura lasse x 1 , i.e. X 2 = X 3 = 0; la retta parallela allasse x 2 passante
per P definita dal sistema lineare fondamentale non omogeneo:
[8.17]

X 1 p1 = X 3 p3 = 0

e che la sua giacitura lasse x 2 , X 1 = X 3 = 0 ed, infine, la retta parallela allasse x 3


passante per P definita dal sistema lineare fondamentale non omogeneo:
[8.18]

X 1 p1 = X 2 p2 = 0

e che la sua giacitura lasse x 3 , X 1 = X 2 = 0.


Da ultimo, il sistema fondamentale non omogeneo di equazioni lineari che rappresenta P dato da
[8.19]

X 1 p1 = X 2 p2 = X 3 p3 = 0

Come discusso nellOsservazione 8.4, questi non saranno gli unici modi per determinare P come intersezione di tre piani in R3 n per determinare una retta come
intersezione di due piani di R3 .
Studiamo pi in generale le equazioni che definiscono piani dello spazio cartesiano e le loro propriet affini ed euclidee. Esattamente come nel paragrafo 7.2, possiamo descrivere un piano in R3 sia mediante una equazione parametrica vettoriale
(equivalentemente, terne di equazioni parametriche scalari) sia mediante unequazione
cartesiana.

Equazioni di piani
dello spazio cartesiano

Analizziamo le equazioni parametriche di piani: la situazione molto simile a quanto


svolto per R2 . Infatti, un piano in R3 univocamente determinato una volta che
si assegnano un punto Q ed una base per la giacitura 0 di . Ricordiamo che la
giacitura 0 di il piano parallelo a passante per lorigine. 0 ha una struttura di
sottospazio vettoriale per la struttura di spazio vettoriale che ha R3 ; quindi ha senso
considerare basi di 0 . Pertanto:

Equazioni parametriche
di piani

x3 6


 O



x2






x1

figura 8.2 Il piano passante per Q e con giacitura 0

197

8 Geometria dello spazio cartesiano

R3 e con giacitura il
piano vettoriale 0 = Lin(u, v) ha equazione parametrica vettoriale

definizione 8.3 Il piano passante per un punto Q

[8.20]

X = Q + tu + kv, t, k R

Notiamo che [8.20] descrive i punti di come estremi liberi di vettori geometrici
orientati, tutti con punto di applicazione O, ciascuno di tali vettori ottenuti come
combinazione lineare di un vettore fisso, Q, e di due variabili indipendentemente,
t u e k v, al variare dei parametri reali t e k.
Osservazione 8.5
Ovviamente due equazioni parametriche vettoriali X = Q + ti Q e P sono punti su e le due coppie di basi u, v e w, z
tu + kv e X = P + tw + k z, con t, k, t , k R, descrivono lo generano la medesima giacitura, i.e. Lin(u, v ) = Lin(w, z ).
stesso piano , ogni volta che, contemporaneamente, i pun-

Considerando le componenti dei vettori coinvolti nella [8.25], abbiamo immediatamente:


definizione 8.4 Dato un piano passante per Q =

tura 0 con base data dai vettori u =

parametriche scalari per sono:

u2
u3

ev =

q2
R3 e
q3
v

1
v2 , allora
v3

con giaciequazioni

X 1 = q 1 + t u 1 + k v1
[8.21]

X 2 = q 2 + t m + k v2
X 3 = q 3 + t n + k v3 , t,

kR

Dato il piano come in [8.21], le componenti dei vettori u e v vengono chiamate i


parametri di giacitura di . Essi sono ovviamente una nozione affine.
Come dimostrato nel Lemma 7.1 per le rette in R2 , abbiamo il seguente risultato:
Sia un piano di R3 di giacitura 0 . Siano P e Q due qualsiasi
punti distinti su e siano P = P a O e Q = Q a O i rispettivi vettori
applicati in O. Il vettore Q P contenuto sempre nella giacitura 0 .

lemma 8.1

Dimostrazione
Sia u, v una base per la giacitura 0 . Poich P e Q sono punti di
, da [8.20], devono esistere un punto P0 e scalari , ,  ,  R, con (, ) =
( ,  ) R, tali che P = P0 + u + v, Q = P0 +  u +  v. Pertanto
Q P = ( ) u + (  ) v.

198

8.2 Punti, rette e piani dello spazio cartesiano R3


Concludiamo questi argomenti osservando delle questioni puramente euclidee. Dato
un piano di R3 con giacitura 0 , sia b = u, v una qualsiasi base di 0 . Applicando
lalgoritmo di Gram-Schmidt (Teorema 5.3) a b, si ottiene sempre da essa una base
ortonormale di giacitura per , che denoteremo con
[8.22]

o b := f 1 , f 2

Vogliamo studiare ora come si rappresentano i piani di R3 mediante equazioni lineari.


Diamo subito la seguente
definizione 8.5 Unequazione cartesiana di un piano unequazione lineare

della forma
a X1 + bX2 + c X3 + d = 0

[8.23]

dove a , b, c , d R, tali che (a , b, c ) = (0, 0, 0).


Nella precedente
implicito che il piano viene considerato come luogo

definizione
di punti P =

p1
p2
p2

dello spazio cartesiano le cui coordinate soddisfano lequazione

suddetta, i.e. tali che a p 1 + bp 2 + c p 3 + d = 0.


Sia dato come in [8.23]. Da quanto dimostrato nel Lemma 6.1 e nelle Proposizioni 6.6 e 6.7, unequazione cartesiana per la giacitura di , i.e. per 0 , :
[8.24]

a X1 + bX2 + c X3 = 0

Il fatto che unequazione della forma [8.23] rappresenti effettivamente un piano,


si vede facilmente risolvendo il sistema lineare [8.23] costituito da una sola equazione e tre indeterminate. Le soluzioni di questo sistema lineare dipenderanno da
due parametri indipendenti (equivalentemente, il sistema ammetter 2 soluzioni;
Osservazione 2.5).
Esempio 8.1 Un piano in R3
Supponiamo di avere in R3 il luogo denito da X1 + 2X2 + 3X3 1 = 0. Per trovare
le soluzioni di tale equazione, poniamo per esempio X2 = t e X3 = k, con t, k R
parametri indipendenti. Quindi avremo X1 = 1 2t 3k, con t, k R. Possiamo scrivere in
1

1 +k
0 . Da
forma vettoriale le soluzioni di questo sistema come X = 0 + t
0

Denizioni 8.3 e 8.4, deduciamo che il luogo



geometrico descritto dallequazione cartesiana
1

data il piano , passante per P = 0 e con giacitura 0 = Lin(u, v ), dove u :=


0
2

1
0 . Calcolando lequazione cartesiana del sottospazio vettoriale di R3
e v :=
0

199

Equazioni cartesiane
di piani

8 Geometria dello spazio cartesiano


dato da Lin(u, v ), facilmente si verica che la giacitura 0 ha in effetti equazione cartesiana
X1 + 2X2 + 3X3 = 0.

Osservazione 8.6
Esattamente come discusso per le equazioni dei piani pa- e a X1 + b X2 + c X3 + d = 0 sono due equazioni proralleli ai piani coordinati, dato un piano non esiste unu- porzionali (non uguali, se = 1) che descrivono lo stesso
nica equazione cartesiana che lo descriva: per ogni piano.
R \ {0}, le equazioni cartesiane aX1 + bX2 + c X3 + d = 0

Equazioni di rette
dello spazio cartesiano

Come fatto per i piani, studiamo le equazioni che definiscono rette dello spazio cartesiano. Esattamente come nel paragrafo 7.2, possiamo descrivere una retta in R3 sia
mediante una equazione parametrica vettoriale (equivalentemente, terne di equazioni
parametriche scalari) sia mediante un sistema di equazioni cartesiane.

Equazioni parametriche
di rette

Una retta r in R3 univocamente determinata una volta che si assegnano un punto


Q r ed un vettore direttore v = 0 per r . Pertanto:

R3 e con un
 0, unequazione parametrica vettoriale per r
vettore direttore v =

definizione 8.6 Data una retta r passante per un punto Q

[8.25]

X = Q + t v, t R

Osservazione 8.7
Ovviamente due equazioni parametriche vettoriali X = Q + volta che i punti Q e P sono punti su r ed i vettori v ew sono
t v e X = P + kw, t, k R descrivono la stessa retta r, ogni proporzionali.

Considerando le componenti dei vettori coinvolti nella [8.25], abbiamo immediatamente:


definizione 8.7 Data una retta r passante per un punto Q =

con vettore direttore v =

 
l
m
n

=

0
0

per r sono:
X 1 = q1 + t l
[8.26]

X 2 = q2 + t m
X 3 = q 3 + t n,

200

t R

q2
q3

R3 e

, allora equazioni parametriche scalari

8.2 Punti, rette e piani dello spazio cartesiano R3


Come nella Definizione 7.14, le componenti di v =
direttori di r .

 
l
m
n

vengono dette parametri

Analogamente al caso di rette in R2 , abbiamo una nozione puramente euclidea. Dato


un qualsiasi vettore direttore v di una retta r , si definisce il versore direttore di r
associato a v, il versore
v
e v :=
[8.27]
||v||
Se f un qualsiasi versore direttore di r , allora ovviamente si ha o f = e v oppure
f = e v .
Da quanto descritto per gli assi coordinati, chiaro che una qualsiasi retta r di R3
sar ottenuta per intersezione di (almeno) due piani (par. 8.3). Abbiamo infatti:

Equazioni cartesiane
di rette

definizione 8.8 Sia r una retta in R3 . Un sistema di equazioni cartesiane per r

un sistema della forma



a X1 + bX2 + c X3 + d
[8.28]
a  X 1 + b X 2 + c  X 3 + d 

= 0
= 0

dove a , b, c , d , a  , b  , c  , d  R, tali che


a b c
[8.29]
r
=2
a  b c 
Osservazione 8.8
Facciamo subito alcuni necessari commenti relativi a quanto
introdotto:
(i)

(ii)

nella precedente denizione implicito che la retta


r viene considerata come luogo di punti dello spazio cartesiano le cui coordinate soddisfano il sistema
non omogeneo [8.28];
notiamo che la condizione [8.29] ci assicura che il
sistema lineare dato da [8.28] rappresenta effettivamente una retta. Infatti, la suddetta condizione assicura sia la compatibilit del sistema lineare sia il
fatto che le soluzioni dipendano da un parametro.
Per esempio, il sistema X1 X2 = X1 + X3 1 = 0
si risolve semplicemente ponendo X1 = t, t R
parametro, e quindi si ha anche X2 = t e X3 =
1
t, che forniscono
lequazione vettoriale X =

1
0
0

+t

1
1
1

presenta appunto la retta passante per P =


1

1 .
con vettore direttore v =

0
0

Analizziamo i casi in cui [8.29] non soddisfatta, per avere


unidea precisa di cosa accade. Se consideriamo per esempio
il sistema X1 X2 = X1 X2 + 3 = 0, questo chiaramente incompatibile (il rango della matrice dei coefcienti uno
mentre quello della matrice completa due). Pertanto il luogo geometrico descritto da tale sistema linsieme vuoto e
non una retta. In effetti, ciascuna equazione del precedente
sistema rappresenta un piano con data giacitura 0 : il primo piano proprio 0 , il secondo il piano passante per
0

esempio per Q = 3 e con giacitura 0 . Poich Q non


0

appartiene anche a 0 , allora i due piani sono paralleli e


. Da Denizione 8.25, questa rap- distinti, quindi la loro intersezione chiaramente vuota.

201

8 Geometria dello spazio cartesiano


Se invece consideriamo un sistema del tipo X1 + X2 + 3 =
2X1 + 2X2 + 6 = 0 ovviamente la seconda equazione del
sistema lineare proporzionale alla prima, quindi il rango
della matrice dei coefcienti e della matrice completa sono
entrambi uguali ad uno. In tal caso il sistema ammette soluzione, per le soluzioni dipenderanno da due parametri
indipendenti, quindi il sistema non pu descrivere una retta
di R3 . DallOsservazione 8.6, entrambi le equazioni del sistema lineare descrivono lo stesso piano di R3 , quindi il
luogo geometrico che deniscono insieme sar sempre .
(iii)

Come discusso nellOsservazione 8.4 per gli assi


coordinati, una retta r non sar descritta solo da un
sistema lineare della forma [8.28], a meno di equazioni proporzionali. Ciascun sistema lineare equivalente ad uno che descrive r, descriver sempre r.

Pertanto esisteranno innite coppie di equazioni lineari come in [8.28] che descriveranno la medesima
retta (par. 8.4). Inoltre, per descrivere una retta in
equazioni cartesiane, abbiamo bisogno di almeno
due equazioni lineari come nella Denizione 8.8, ma
il sistema che denisce una retta pu avere anche
pi di due equazioni. Per esempio, data una retta r
in R3 se consideriamo n 2 sistemi lineari equivalenti, formati ciascuno da due equazioni lineari,
ciascun sistema denente la retta r, allora il sistema di 2n equazioni in tre indeterminate, ottenuto
mettendo insieme tutte le n coppie di equazioni degli n sistemi dati, denisce come luogo geometrico
sempre la retta r. Questo ha uninterpretazione geometrica legata ai fasci di piani di asse una retta in
R3 che studieremo in seguito (par. 8.4).

Sia data una retta r con equazioni cartesiane come in [8.28]. Da quanto dimostrato
nel Lemma 6.1 e nelle Proposizioni 6.6 e 6.7, sono equazioni cartesiane per la giacitura
r 0 di r :
[8.30]


a X1 + bX2 + c X3
a  X 1 + b X 2 + c  X 3

= 0
= 0

Un vettore direttore di r , di equazioni cartesiane come in [8.28], un qualsiasi vettore


v che una base per il sottospazio vettoriale di R3 associato a r 0 come in [8.30] e
le sue coordinate sono parametri direttori di r . Ricordando la notazione come nella
Definizione 2.5, abbiamo:
definizione 8.9 Sia r una retta di equazioni cartesiane come in [8.28]. Detta A

la matrice dei coefficienti di [8.28] (equivalentemente, di [8.30]), i numeri reali

l := det A(1, 2; 2, 3) = bc  c b 
m := det A(1, 2; 1, 3) = a  c a c 
[8.31]
n := det A(1, 2; 1, 2) = a b  a  b
 
l
sono i parametri direttori di r ed il vettore r 0 := m il vettore direttore di
n
r . Ogni altro vettore direttore v di r della forma v = r 0 , per R \ {0}.
Notare che le espressioni in [8.31] discendono direttamente da un calcolo esplicito di
una soluzione del sistema lineare omogeneo [8.30] che, grazie a [8.29], definisce una
base di r 0 .
202

8.2 Punti, rette e piani dello spazio cartesiano R3


Consideriamo ora un concetto puramente euclideo.

Vettore normale
ad un piano

definizione 8.10 Un vettore normale ad un piano di R3 un qualsiasi vettore

n = 0 che perpendicolare alla giacitura 0 , i.e. Lin(n) = 0 . In altre parole,


per ogni u 0 , si ha n, u = 0 (figura 8.3).

x3 6


 C

x2

Cn
C
CW









x1

figura 8.3 Un vettore normale al piano


proposizione 8.4 Sia un piano di equazione cartesiana come in [8.23]. Allora,

il vettore
[8.32]


a
n := b
c

un vettore normale a , che verr chiamato il vettore normale a . Ogni altro


vettore normale a della forma n  = n, R \ {0}.
Dimostrazione

La dimostrazione simile a quella della Proposizione 7.3. Notiamo che


n = 0 perch per ipotesi (a , b, c ) = (0, 0, 0) (Definizione 8.5). Ora, dati due punti qualsiasi
P e Q su , dal Lemma 8.1 abbiamo
P un

che Q

vettore parallelo a , i.e. appartiene alla


giacitura 0 di . Siano P =

p1
p2
p3

eQ=

q1
q2
q3

le coordinate di tali punti. Osserviamo

allora che
Q P , n = (q 1 p 1 )a + (q 2 p 2 )b + (q 3 p 3 )c =
= (aq 1 + bq 2 + c q 3 ) (a p 1 + bp 2 + c p 3 ) = d d = 0
dove la penultima eguaglianza discende da [8.23] e dal fatto che P , Q .
Poich tutti i vettori di 0 sono della forma Q P , al variare di P e Q punti su , il vettore
n ortogonale a tutti i vettori di 0 , quindi un vettore normale.


203

8 Geometria dello spazio cartesiano

Osservazione 8.9
Supponiamo che aX1 + bX2 + cX3 + d = 0 e X = P + tore normale n, come in [8.32], perpendicolare sia ad u
tu + kv, t, k R rappresentino lo stesso piano . Allo- sia a v. In particolare, n proporzionale al vettore u v
ra, da Denizione 8.10, segue immediatamente che il vet- (Proposizione 8.1-(iii)).

Pertanto, avremo:
Sia un piano di equazione parametrica vettoriale come in
[8.20]. Allora, il vettore

proposizione 8.5

[8.33]

n := u v

un vettore normale a . Inoltre, la base per lo spazio vettoriale R3 data da


{u, v, n} sempre orientata positivamente.
Dimostrazione
La prima affermazione diretta conseguenza della Proposizione 8.1(iii). Il fatto che {u, v, n} sia una base equiorientata con la base canonica dato dal Corollario 8.1-(i).

Come osservato per i versori direttori di rette in R2 , abbiamo le seguenti definizioni.
Sia un piano di R3 e sia n un suo vettore normale. Si definisce il versore normale
associato a n, il versore
[8.34]

e n :=

n
||n||

Se f un qualsiasi versore normale a allora, o f = e n oppure f = e n . In


particolare, supponiamo che n sia come in [8.32]; pertanto, in tal caso, abbiamo che

a

a 2 + b2 + c 2


[8.35]
e n :=
a 2 + b2 + c 2


2
2
2
a +b +c
Analogamente, se n come in [8.33], in tal caso si ha:
[8.36]

e n :=

uv
||u v||

R3 il piano
vettoriale r perpendicolare ad un qualsiasi vettore direttore v di r . In altre
parole, r = Lin(v) .

definizione 8.11 Il piano vettoriale normale ad una retta r di

Piano vettoriale normale


ad una retta

204

8.2 Punti, rette e piani dello spazio cartesiano R3


Dalla sua definizione, immediato osservare che questa una nozione puramente
euclidea. Operativamente, se una retta r data in equazione parametrica vettoriale
X = P + t v, t R, per determinare il piano vettoriale normale a r , basta prendere
come primo generatore per r un qualsiasi vettore w di R3 ortogonale a v e come
secondo generatore il vettore v w. Avremo quindi r = Lin(w, v w).
Sia r una retta in
R3 di

equazioni cartesiane come in [8.28].


a 

a
Allora i vettori n := b e n  := b  sono una base del piano normale r

proposizione 8.6

c

a r , i.e. r = Lin(n, n  ). In particolare, il vettore n n  un vettore direttore


per r .

Dimostrazione
La retta r contenuta sia nel piano , di equazione cartesiana a X 1 +
b X 2 + c X 3 + d = 0, sia nel piano  , di equazione cartesiana a  X 1 + b  X 2 + c  X 3 + d  = 0.
Da Definizione 8.10 e da [8.32], segue che un qualsiasi vettore direttore di r perpendicolare
sia al vettore n sia al vettore n  , quindi perpendicolare anche a Lin(n, n  ). Pertanto si ha
r = Lin(n, n  ).
Ora, dalla Proposizione 8.1-(iii), il vettore n n  ortogonale a r . Poich siamo in R3 , il
complemento ortogonale (Definizione 5.12) del piano vettoriale r necessariamente la retta
vettoriale Lin(n n  ), che coincide quindi con la giacitura di r .


Come passare da equazioni parametriche ad equazioni cartesiane


Supponiamo di avere in R3 una
parametrica vettoriale X =

r , in equazione
p retta
 
1
l
P + t w, t R, con P = p 2 r e w = m un vettore direttore ([8.25]
n

p3

e [8.26]), ed un piano ,

in equazione parametrica
vettoriale


X = Q + t u + kv,
t, k R, con Q =

q1
q2
q3

eu =

u1
u2
u3

,v =

v1
v2
v3

due vettori di una base

per la giacitura 0 di ([8.20] e [8.21]).


Vogliamo determinare, da queste, equazioni cartesiane per r ed unequazione cartesiana per . Cominciamo con il caso del piano :
a)

un modo pi computazionale quello di sfruttare il legame che c tra le tre


equazioni parametriche [8.21] in funzione dei parametri indipendenti t e k.
Precisamente, si utilizzano due delle tre equazioni di [8.21], per esempio la
prima e la seconda, per determinare t e k in funzione di X 1 e X 2 . Quindi si
tratta di risolvere (quando possibile) il sistema lineare

u 1 t + v1 k = X 1 q 1
u 2 t + v2 k = X 2 q 1
205

8 Geometria dello spazio cartesiano


di due equazioni nelle due indeterminate t e k, con termini noti che contengono rispettivamente X 1 e X 2 . Ovviamente, si deve avere laccortezza di
scegliere coppie di equazioni parametriche di r che determinino un sistema come sopra che sia compatibile. Una volta trovati i valori di t e di k in
funzione di X 1 e X 2 , si vanno a sostituire tali valori nella terza equazione
parametrica scalare, fino ad ora non utilizzata, per determinare quindi una
relazione lineare tra X 1 , X 2 e X 3 ;
Esempio 8.2 Equazioni di un piano in R3
Sia il piano di equazioni parametriche X1 = 1 + t, X2 = 2 k, X3 = 1 + t + k,
t, k R. Dalle prime due equazioni t = X1 1 e k = 2 X2 . Sostituendo nella terza
equazione, si ha X3 = X1 + 2 X2 , i.e. ha equazione cartesiana X1 X2 X3 + 2 = 0.

b)

un secondo modo utilizza la Proposizione 8.4 e lOsservazione 8.9. Vogliamo


trovare, a meno di proporzionalit, unequazione della forma a X 1 + b X 2 +
c X 3 + d = 0, con a , b, c , d R da determinare. I coefficienti a , b e c
sono dati dalle coordinate del vettore u v che, dallOsservazione 8.9, sar
sicuramente un vettore normale a . In seguito, per determinare anche d ,
basta imporre il passaggio per il punto Q;

Esempio 8.3 Equazioni del precedente piano di R3


1

0
1
1

Sia come nel precedente esempio; allora Q = 2 , u = 0 , v =


. Quindi,
1
1
1

uv = 1 . Pertanto lequazione cartesiana di sar della forma X1 X2 X3 +d = 0,


1

con d ancora da determinare. Il passaggio per Q determina 1 2 1 + d = 0, i.e. d = 2


come trovato precedentemente.

c)

un terzo ed ultimo modo utilizza il Lemma 8.1; infatti abbiamo:


Sia di equazioni parametriche come sopra. Unequazione
cartesiana per data da

proposizione 8.7

[8.37]

Dimostrazione

X 1 q1 X 2 q2 X 3 q3
u2
u3 = 0
det u 1
v1
v2
v3

La condizione in [8.37] equivalente a stabilire che le tre righe della


matrice in questione sono linearmente dipendenti. Pertanto, tale condizione determina tutti

206

8.2 Punti, rette e piani dello spazio cartesiano R3


i vettori X tali che, per Q , il vettore X Q appartiene alla giacitura di . Poich Q
per ipotesi, concludiamo.


Vediamo ora il caso della retta r :


a)

come prima, c un modo pi computazionale che sfrutta il legame che c


tra le tre equazioni parametriche scalari, come in [8.26], in funzione del parametro t. Si utilizza una delle tre equazioni di [8.26], per esempio la prima,
per determinare t in funzione di X 1 (se possibile). Fatto questo, si va a sostituire lespressione di t cos trovata nella seconda e nella terza equazione
parametrica scalare, fino ad ora non utilizzate; questo determina due relazioni lineari, una tra X 1 e X 2 ed una tra X 1 e X 3 . Poich la prima equazione
ottenuta non contiene X 3 mentre la seconda non contiene X 2 , queste sono
manifestamente due equazioni indipendenti, ciascuna delle quali determina
pertanto un piano contenente r . Le due equazioni determineranno quindi
un sistema di equazioni cartesiane per r ;

Esempio 8.4 Equazioni di una retta in R3


Sia r la retta di equazioni parametriche X1 = t 1, X2 = 2 + t, X3 = 3 + 2t, t R. Dalla
prima equazione si ha t = X1 + 1. Sostituendo nella seconda equazione, si ha X2 = 3 + X1 ,
mentre nella terza si ha X3 = 2X1 + 5. Pertanto, equazioni cartesiane per r sono date da
X1 X2 + 3 = 2X1 X3 + 5 = 0.

b)

un secondo ed ultimo modo utilizza:


lemma 8.2 Sia r una retta in R3 , di vettore direttore w. Siano P e Q due qualsiasi

punti distinti su r . Il vettore Q P sempre proporzionale a w.

La dimostrazione di questo risultato identica a quella del Lemma 7.1.


proposizione 8.8 Sia r data in equazioni parametriche come in [8.26]. Equazioni
cartesiane per r si ottengono dalla condizione


[8.38]

X 1 q1 X 2 q2 X 3 q3
l
m
n

=1

Precisamente, due qualsiasi relazioni non nulle scelte tra le tre equazioni lineari
date da [8.38] forniranno equazioni cartesiane per r .
Dimostrazione

La condizione in [8.38] equivalente a stabilire che le due righe della


matrice in questione sono proporzionali. Concludiamo come nella Proposizione 7.2.


207

8 Geometria dello spazio cartesiano


Come passare da equazioni cartesiane ad equazioni parametriche
Ora supponiamo di avere il piano dato in equazione cartesiana a X 1 + bx 2 +
c X 3 + d = 0 e la retta r data in equazioni cartesiane e X 1 + f x 2 + g X 3 + h =
X 1 + f  x 2 + g  X 3 + h  = 0, con a , b, . . . , g  , h  R ([8.23] e [8.28]). Vogliamo
determinare equazioni parametriche per e per r .
Per il piano basta considerare un qualsiasi punto Q su e calcolare una qualsiasi
base per la sua giacitura 0 . Per la retta r basta considerare un qualsiasi punto P su r
e, per determinare un vettore direttore, utilizziamo o [8.31] oppure lultima asserzione
 
della Proposizione 8.6, i.e. un vettore direttore di r w := n n  , dove n =


e

e n = f .

e
f
g

g

8.3

Intersezioni

In questo paragrafo vogliamo studiare le possibili intersezioni in R3 dei luoghi geometrici fino ad ora descritti. Abbiamo varie casistiche da considerare, a seconda di
come sono presentati tali luoghi geometrici.
Intersezione tra due piani

Supponiamo di avere due piani e  in R3 . Avremo le seguenti possibilit: o i due


piani non si intersecano, ed allora saranno due piani paralleli; se invece si intersecano,
o si intersecano lungo una retta, nel qual caso sono detti piani incidenti, oppure si
intersecano lungo un piano, nel qual caso e  sono piani coincidenti.
Vediamo come affrontare tutte le possibilit nei vari casi:
(i)

e  entrambi in equazioni cartesiane: supponiamo di avere e  di equazioni, rispettivamente, a X 1 + b X 2 + c X 3 + d = 0 e a  X 1 + b  X 2 + c  X 3 +


d  = 0, con a , b, . . . , c  , d  R tali che (a , b, c ), (a  , b  , c  ) = (0, 0, 0).
Per quanto descritto nel capitolo 1, trovare leventuale intersezione tra e 
equivale a trovare le soluzioni del sistema lineare:
a X 1 + b X 2 + c X 3 + d = a  X 1 + b X 2 + c  X 3 + d  = 0
Pertanto, entrano in gioco tutti i risultati relativi alla risoluzione di sistemi
lineari. Denotiamo con A la matrice 2 3 dei coefficienti del precedente
sistema e con B la matrice completa del sistema:

208

se il sistema non compatibile, i due piani sono necessariamente


paralleli. Questo avviene precisamente quando r (A) < r (B);
se il sistema compatibile, quindi r (A) = r (B) e se tale rango massimo, i.e. 2, allora il sistema ammette soluzioni dipendenti da un parametro; questo significa che i due piani sono incidenti e si intersecano
lungo la retta s :=  ;

8.3 Intersezioni

(ii)

se il sistema compatibile ma r (A) = r (B) = 1, vuol dire che le


due equazioni componenti il sistema sono equazioni proporzionali
e che il sistema ammette soluzioni dipendenti da due parametri indipendenti. Pertanto, il luogo geometrico individuato da queste due
equazioni lo stesso, i.e. e  coincidono.

in equazione cartesiana e  in equazioni


in tal
caso,

supponia parametriche:
mo di avere come sopra e  : X =

q1
q2
q3

+t

u1
u2
u3


+k

v1
v2
v3

, t, k R.

Per determinare le eventuali intersezioni tra e


ovviamente si pu por
tare in equazione cartesiana, come spiegato alla fine del paragrafo 8.2, e
procedere come nel caso sopra descritto. Altrimenti, poich dallequazione
parametrica vettoriale di  si ha:
X 1 = q 1 +u 1 t +v1 k,

X 2 = q 2 +u 2 t +v2 k,

X 3 = q 3 +u 3 t +v3 k

per determinare leventuale intersezione tra e  , si sostituiscono tali espressioni nellequazione cartesiana che definisce , ottenendo lequazione lineare
in t e k:
(a u 1 + bu 2 + c u 3 )t + (a v1 + bv2 + c v3 )k+

[8.39]

+ aq 1 + bq 2 + c q 3 + d = 0
se in [8.39] si hanno (a u 1 + bu 2 + c u 3 ), (a v1 + bv2 + c v3 ) = 0,
allora si pu ricavare una relazione lineare della forma t = k + ,
a v +bv +c v
aq +bq +c q +d
dove = a u 1+bu2 +c u3 e = a1u +bu2 +c3u R, che esprime
1
2
3
1
2
3
il parametro t in funzione del parametro k. Sostituendo al posto di
t tale relazione nellequazione parametrica vettoriale di  , abbiamo
eliminato uno dei due parametri dallequazione di  . In tal modo
abbiamo determinato unequazione parametrica vettoriale per la retta
s :=  , che in modo intrinseco viene descritta dalla relazione
t = k + .
Analogamente, se uno dei due coefficienti in [8.39] nullo, e.g.
(a u 1 + bu 2 + c u 3 ) = 0, si trova comunque una relazione k =

aq 1 +bq 2 +c q 3 +d
a v1 +bv2 +c v3 che, sostituita
per  , permette di eliminare

nellequazione parametrica vettoria-

le
il parametro k. Pertanto si conclude
come sopra;
se in [8.39] si hanno a u 1 + bu 2 + c u 3 = a v1 + bv2 + c v3 =
0 ma aq 1 + bq 2 + c q 3 + d = 0, allora si ottiene una relazione
incompatibile della forma 1 = 0. Questo significa che i piani e 
non si intersecano, pertanto sono paralleli;
se in [8.39] si hanno a u 1 + bu 2 + c u 3 = (a v1 + bv2 + c v3 ) =
aq 1 + bq 2 + c q 3 + d = 0, allora si ha unidentit della forma 0 = 0
soddisfatta per qualsiasi valore di t, k R. Geometricamente questo
significa che i due piani sono coincidenti.
209

8 Geometria dello spazio cartesiano


(iii)

tal caso,
supponiamo
di
e  entrambi in equazioni parametriche: in
u

vave

q1

1
1

v
q
u
2
2
2
re e di equazioni, rispettivamente, X =
+t
+k
v3
q3
u3



q1

u1

v1

q 3

u 3

v3

e X = q 2 + t  u 2 + k  v2 , con t, k, t  , k  R. Per determinare leventuale intersezione tra e  , ovviamente si possono portare od
entrambi od uno solo di essi in equazione cartesiana e ragionare come nei passi precedenti. Altrimenti, si vuole stabilire se esistono valori delle coppie di
parametri (t, k) e (t  , k  ), rispettivamente, per cui punti di possano essere
anche punti di  ; in altre parole, tali che valgano le relazioni:
q 1 + tu 1 + kv1 = q 1 + t  u 1 + k  v1
q 2 + tu 2 + kv2 = q 2 + t  u 2 + k  v2
q 3 + tu 3 + kv3 = q 3 + t  u 3 + k  v3
Notiamo che queste relazioni forniscono un sistema lineare di tre equazioni
nelle indeterminate t, k, t  e k  cui applicare la teoria dei sistemi lineari. Poich
si applicano ragionamenti analoghi a quanto fatto per le intersezioni di due
rette in R2 , tutte e due in equazioni parametriche, lasciamo al lettore per
esercizio di verificare tutte le possibili eventualit.
Intersezione retta-piano

Supponiamo di avere ora un piano ed una retta r in R3 . Avremo le seguenti possibilit: o la retta ed il piano non si intersecano, ed allora r sar contenuta in un piano
 parallelo a . In tal caso, r si dir parallela a . Se invece si intersecano, allora o
si intersecano in un punto, nel qual caso il piano e la retta sono incidenti, oppure si
intersecano lungo una retta, nel qual caso la retta intersezione proprio r , cio r
contenuta in .
Vediamo le possibilit nei vari casi:
(i)

e r entrambi in equazioni cartesiane: supponiamo di avere e r di equazioni, rispettivamente, a X 1 + b X 2 + c X 3 + d = 0 e



a  X 1 + b X 2 + c  X 3 + d 
= 0




= 0
r a X1 + b X2 + c X3 + d
tali che (a , b, c ) = (0, 0, 0) ed il rango della matrice dei coefficienti del
sistema lineare che determina r sia 2. Trovare leventuale intersezione tra e
r equivale a trovare le soluzioni del sistema lineare:
a X 1 + b X 2 + c X 3 + d = a  X 1 + b X 2 + c  X 3 + d  =
= a  X 1 + b  X 2 + c  X 3 + d  = 0
Denotiamo con A la matrice 3 3 dei coefficienti del precedente sistema e
con B la matrice completa del sistema:

210

8.3 Intersezioni

(ii)

se il sistema non compatibile la retta ed il piano non si intersecano.


Questo avviene precisamente quando r (A) = 2 ed r (B) = 3. Poich
per ipotesi r (A(2, 3; 1, 2, 3)) = 2, dato che A(2, 3; 1, 2, 3) la
matrice dei coefficienti del sistema che definisce r , abbiamo che il
piano ha giacitura la cui equazione cartesiana proporzionale a
quella della giacitura di uno dei due piani che determinano r (sia tale
piano per esempio il primo, che denotiamo con ), per lequazione
di non invece proporzionale alla prima delle due equazioni che
descrivono r (i.e. allequazione che definisce ). Questo significa che
r contenuta nel piano e che tale piano parallelo a . Pertanto,
r parallela a ;
se il sistema compatibile, quindi r (A) = r (B) e se tale rango
massimo, i.e. 3, allora il sistema ammette ununica soluzione; questo
significa che la retta ed il piano sono incidenti e si intersecano nel
punto T := r ;
se il sistema compatibile, i.e. r (A) = r (B), ma tale rango non
massimo, allora si deve avere necessariamente r (A) = r (B) = 2.
Questo implica che il sistema lineare di tre equazioni in tre indeterminate ammette soluzioni dipendenti da un parametro; in altre parole tale sistema equivalente al sistema che definisce r . Pertanto r
contenuta in .

in equazione cartesiana e r in equazioni


parametriche: in tal caso, supponia q

 
1
l
mo di avere come sopra e r : X = q 2 +t m , t R. Per determinare
q3

le eventuali intersezioni tra e r , a parte ridursi al caso precedente, si procede in questo modo. Poich dallequazione parametrica vettoriale di r si ha
X 1 = q 1 + l t, X 2 = q 2 + m t, X 3 = q 3 + n t, per determinare leventuale intersezione tra e r , si sostituiscono tali espressioni nellequazione
cartesiana che definisce , ottenendo lequazione lineare in t:
[8.40]

(al + bm + c n)t + aq 1 + bq 2 + c q 3 + d = 0
se in [8.40] si ha al + bm + c n = 0, allora si pu ricavare t =
aq +bq 2 +c q 3 +d
1al +bm+c
n . Sostituendo tale valore di t nellequazione parametrica vettoriale di r , otteniamo le coordinate del punto P = r
;
se in [8.40] si hanno al + bm + c n = 0 ma aq 1 + bq 2 + c q 3 + d = 0,
allora si ottiene una relazione incompatibile della forma 1 = 0. Questo significa che il piano e la retta r non si intersecano. Da quanto
discusso prima, la retta ed il piano sono necessariamente paralleli;
se in [8.40] si hanno al +bm +c n = aq 1 +bq 2 +c q 3 +d = 0, allora
si ha unidentit della forma 0 = 0 soddisfatta per qualsiasi valore di
t R. Geometricamente questo significa che la retta r contenuta
nel piano .
211

8 Geometria dello spazio cartesiano


(iii)

in equazioni parametriche
equazioni
cartesiane:
q
e r in
v
in tal caso, supponiau1

1
1
mo di avere : X = q 2 + t u 2 + k v2 , t, k R e r come nel
q3

u3

v3

caso (i). Per determinare leventuale intersezione tra e r , ovviamente si pu


portare in equazione cartesiana e ragionare come nel primo passo.
Alternativamente, si possono sostituire nelle due equazioni cartesiane che definiscono r le relazioni che si ottengono dalle equazioni parametriche di ,
i.e. X 1 = q 1 +tu 1 +kv1 , X 2 = q 2 +tu 2 +kv2 , X 3 = q 3 +tu 3 +kv3 . Questo determiner un sistema lineare di due equazioni nelle due indeterminate
t e k, cui applicare la teoria dei sistemi lineari:

(iv)

se tale sistema risulta incompatibile, non esistono valori dei parametri t e k che diano soluzioni. Quindi la retta r ed il piano non si
intersecano, cio r parallela a ;
se tale sistema ammette una sola soluzione (t0 , k0 ), tale soluzione
corrisponder ad uno ed un solo punto T sul piano il cui vettore
corrispondente T = Q + t0 u + k0 v. Pertanto r e sono incidenti;
se da ultimo tale sistema ammette 1 soluzioni, chiaramente vuol
dire che r contenuta in .

e r entrambi in equazioni parametriche: in tal

caso, supponiamo
di avere
u


q1
v1

1
e r di equazioni, rispettivamente, X = q 2 + t u 2 + k v2 e
v3
q3
u3
p

 
1
l
X = p 2 + t  m , t, k, t  R. Aldil di ricondursi a metodi risolup3

tivi descritti nei casi precedenti, ci si chiede se esistono valori dei parametri
t, k, t  , rispettivamente, per cui punti della retta r possano essere anche punti
del piano ; in altre parole, tali che valgano le relazioni:
q 1 + tu 1 + kv1 = p 1 + t l ,

q 2 + tu 2 + kv2 = p 2 + t  m

q 3 + tu 3 + kv3 = p 3 + t  n
Notiamo che queste relazioni forniscono quindi un sistema lineare di tre
equazioni nelle indeterminate t, k e t  cui applicare di nuovo la teoria dei
sistemi lineari. Lasciamo al lettore per esercizio di verificare tutte le possibili
eventualit.
Intersezione tra due rette

Supponiamo ora di avere due rette r e r  in R3 . Abbiamo quattro possibilit differenti. Se le due rette si intersecano, allora o si intersecano in un punto, e saranno
quindi incidenti, oppure si intersecano lungo una retta, i.e. sono coincidenti. Se invece le due rette non si intersecano, o sono parallele oppure sono sghembe, i.e. sono due
rette non parallele ma tali che r , r   , dove e  sono due piani paralleli
(Definizione 6.4). Vediamo tutte le eventualit nei vari casi possibili:
(i)

212

r e r  entrambi in equazioni cartesiane: in tal caso, supponiamo di avere r ed


r  date, rispettivamente, da

8.3 Intersezioni

a X1 + bX2 + c X3 + d = 0
e X1 + f X2 + g X3 + h = 0

a  X 1 + b X 2 + c  X 3 + d  = 0
e  X 1 + f  X 2 + g  X 3 + h = 0

Trovare leventuale intersezione tra r e r  equivale a trovare le soluzioni del sistema lineare di quattro equazioni in tre indeterminate determinato dal mettere a sistema le quattro equazioni precedenti. Denotiamo con A la matrice
4 3 dei coefficienti e con B la matrice 4 4 completa del sistema cos
determinato. Notiamo che 2 r (A) 3 e 2 r (B) 4:

(ii)

Supponiamo che il sistema non sia compatibile. Allora deve essere


r (A) < r (B).
a)
Se r (A) = 2, vuol dire che le giaciture dei due piani che individuano r e che denotiamo con e , coincidono con le
giaciture dei due piani  e  che individuano r  . Quindi
avremo per esempio che sar parallelo a  e sar parallelo a  . Da [8.31], le rette r ed r  avranno stessi parametri
direttori, quindi saranno rette parallele.
b)
Se r (A) = 3 (e quindi necessariamente r (B) = 4), vuol dire
che la retta vettoriale 0 0 , dove 0 e 0 rispettivamente le
giaciture di e , ha vettore direttore che non proporzionale
a quello della retta vettoriale 0 0 . Quindi r ed r  non sono
parallele e non si intersecano, pertanto sono sghembe.
Se il sistema compatibile, quindi r (A) = r (B), e se tale rango
massimo, i.e. 3, allora il sistema ammette ununica soluzione; questo
significa che le due rette sono incidenti.
Se il sistema compatibile ma r (A) = r (B) = 2, vuol dire che la prima coppia di equazioni componenti il sistema, cio le equazioni che
definiscono r , linearmente dipendente alla coppia di equazioni che
definiscono r  . Questo significa che la retta r e la retta r  coincidono.

supponiar in equazione cartesiana e r  in equazioni parametriche:

tal caso,
q in
 
1
l
mo di avere r come sopra e r  di equazione X = q 2 + t m , t R.
r

q3

Poich dallequazione parametrica vettoriale di si ha X 1 = q 1 + l t,


X 2 = q 2 + m t, X 3 = q 3 + n t, per determinare leventuale intersezione tra
r ed r  si sostituiscono tali espressioni nel sistema di equazioni cartesiane che
definisce r , ottenendo un sistema lineare in t:
[8.41]

(al + bm + c n)t + aq 1 + bq 2 + c q 3 + d = 0
(el + f m + g n)t + e q 1 + f q 2 + g q 3 + h = 0

213

8 Geometria dello spazio cartesiano


se in [8.41] esiste ununica soluzione, le rette r ed r  sono incidenti;
se [8.41] soddisfatto per tutti i possibili valori di t, allora r ed r 
sono coincidenti;
se [8.41] non ammette soluzioni, allora basta calcolare i parametri
direttori di r per mezzo di [8.31]: se questi risultano proporzionali rispettivamente a l , m e n, allora le due rette saranno parallele,
altrimenti saranno sghembe.

(iii)

r e r  entrambi in equazioni parametriche: in tal


caso, supponiamo di

r
qavere
 
p1
1
l
e r  di equazioni, rispettivamente, X = p 2 + t m e X = q 2 +
n
p3
q3


l
k m  , t, k R. Per determinare leventuale intersezione tra r e r  , ci
n

si chiede se esistono valori dei parametri t e k, rispettivamente, per cui un


punto di r possa essere anche punto di r  ; in altre parole, tali che valgano le
relazioni:
p 1 + tl = q 1 + kl  ,

p 2 + tm = q 2 + km  ,

p 3 + tn = q 3 + kn 

Notiamo che queste relazioni forniscono quindi un sistema lineare di tre


equazioni nelle due indeterminate t e k. Lasciamo al lettore per esercizio di
concludere i ragionamenti per ottenere tutte le eventualit.

Esempio 8.5 Due rette sghembe in R3


Prendiamo la retta r, di equazione cartesiana X1 2X2 + X3 1 = X1 + X3 = 0 e la
retta r di equazioni parametriche X1 = 1, X2 = t, X3 = 1, t R. Sostituendo tali valori nel
precedente sistema, otteniamo il sistema incompatibile 12t+11 = 1+1 = 0; pertanto
r r = . Ora,
per esempio le [8.31], notiamo
utilizzando

che un vettore direttore per r

il vettore v =

8.4

1
0
1

mentre r ha vettore direttorew =

0
1
0

. Quindi r e r sono sghembe.

Fasci e stelle di piani, stelle di rette, fasci di rette su un piano

Come fatto nel paragrafo 7.5 per le rette di R2 , in questo paragrafo studiamo interessanti insiemi di piani o di rette dello spazio.
Fascio di piani proprio
o di asse una retta

Siano e due piani non paralleli in R3 (in particolare non coincidenti).


definizione 8.12 Si chiama fascio di piani proprio, , definito da e linsie-

me di tutti i piani di R3 contenenti la retta r := , che viene detta asse


del fascio .
214

8.4 Fasci e stelle di piani, stelle di rette, fasci di rette su un piano

@

@ 



@



@

@
@

@
@

r 
@
@

@
@

@ 
@

@

 
@


@  


@



figura 8.4 Fascio di piani di asse r

Poich  costituito da tutti i piani di R3 passanti per r , il fascio di piani proprio


viene chiamato anche fascio di piani di asse r . Vogliamo descrivere come si rappresenta
un fascio di piani proprio.
proposizione 8.9

(i)

Siano : a X 1 +b X 2 +c X 3 +d = 0 e : e X 1 + f X 2 +g X 3 +h = 0
piani come sopra. Sia  il fascio proprio determinato da essi. Tutti e soli i
piani di  sono i piani , di equazione cartesiana
[8.42]

(ii)

(a X 1 +b X 2 +c X 3 +d )+ (e X 1 + f X 2 +g X 3 +h) = 0
(, ) R2 \ {(0, 0)}

In altri termini, al variare di (, ) R2 \ {(0, 0) lequazione [8.42],


detta lequazione di , descrive tutti i piani , del fascio. Inoltre, presi
(, ), (, ) R2 \ {(0, 0) , si ha che il piano , coincide con il
piano , se, e solo se, le coppie (, ) e (, ) sono proporzionali.
Data una retta r di R3 , di equazioni cartesiane
r : a X 1 +b X 2 +c X 3 +d = e X 1 + f X 2 +g X 3 +h = 0
lequazione del fascio proprio di piani di asse r [8.42].

La dimostrazione della precedente proposizione concettualmente identica a quella


della Proposizione 7.5 per i fasci di rette a centro in R2 e, pertanto, la omettiamo.
Osservazione 8.10
Osserviamo invece alcune conseguenze del precedente (i)
risultato:

con le notazioni della Proposizione 8.9, si ha che


= ,0 , per ogni = 0, e = 0, , per ogni
= 0;

215

8 Geometria dello spazio cartesiano


(ii)

(iii)

lasse r di  intersezione di due qualsiasi piani


distinti di . Ritroviamo, in particolare, quanto di- (iv)
scusso nellOsservazione 8.4 nel caso in cui lasse r
di  coincide con lasse cartesiano x3 ;
se 1 e 1 sono due ulteriori piani distinti del fascio
 generato da e come nella Proposizione 8.9,

allora 1 e 1 generano lo stesso fascio ;


nellequazione del fascio [8.42] sono presenti due
parametri e , tali che (, ) = (0, 0), deniti a meno di proporzionalit. Questo assicura che
descriviamo effettivamente tutti i piani del fascio 
(Osservazione 7.7-(iv) per i fasci di rette a centro).

Unimmediata conseguenza della Proposizione 8.9 :


corollario 8.2 Sia  il fascio di piani di asse una retta r di R3 . Per ogni punto

Q non appartenente a r esiste uno ed un solo piano di  passante per Q.

La dimostrazione analoga a quella del Corollario 7.2, pertanto viene omessa.


Vedremo pi avanti alcuni altri esempi in cui, imponendo opportune condizioni ad
un fascio di piani proprio si determina ununico piano del fascio che soddisfa tale
condizione (Esempio 8.6).
Sia un piano di R3 .
definizione 8.13 Si chiama fascio di piani improprio, , definito da linsieme
di tutti i piani di R3 paralleli a .

Fascio di piani improprio


o fascio di piani paralleli

1
figura 8.5 Fascio di piani improprio

Poich  costituito da piani di R3 tutti paralleli fra loro, i piani formanti il fascio 
avranno tutti quanti la medesima giacitura 0 . Per meglio dire, il piano 0 lunico
piano del fascio  passante per lorigine O. Vogliamo descrivere come si rappresenta
un fascio di piani improprio.
proposizione 8.10 Sia un piano di equazione cartesiana a X 1 + b X 2 + c X 3 +

d = 0. Sia  il fascio improprio determinato da esso. Tutti e soli i piani di 


sono i piani t di equazione cartesiana

216

8.4 Fasci e stelle di piani, stelle di rette, fasci di rette su un piano

[8.43]

a X 1 + b X 2 + c X 3 + t = 0,

t R

In altri termini, al variare di t R lequazione [8.43], detta lequazione di ,


descrive tutti i piani t del fascio. Inoltre, presi t = t  R , si ha che il piano t
distinto dal piano t  .
La dimostrazione concettualmente identica a quella della Proposizione 7.6, pertanto
viene omessa.
Osservazione 8.11
Osserviamo subito alcune conseguenze del precedente
risultato:
(i)

con le notazioni della Proposizione 8.10, si ha che


In particolare, tutti
tali
piani avranno lo stesso (ii)
vettore normale n =

a
b
c

= d , e che la giacitura di tutti i piani del fascio


 il piano 0 di equazione cartesiana aX1 +bX2 +
cX3 = 0.
se 1 un ulteriore piano del fascio  generato da
come nella Proposizione 8.10, allora 1 genera lo
stesso fascio .

Vediamo alcune conseguenze immediate della Proposizione 8.10, le cui ovvie dimostrazioni sono lasciate al lettore per esercizio.
a 
Sia n = b un vettore non nullo dello spazio vettoriale R3 .
c
Allora, lequazione del fascio di piani impropri, con vettore normale n :

corollario 8.3

[8.44]

a X 1 + b X 2 + c X 3 + t = 0, t R

corollario 8.4

Per ogni punto Q R2 esiste un ed un solo piano del fascio 

passante per Q.
Sia P un punto di R3 .

Stella di piani
per un punto

definizione 8.14 Si chiama stella di piani per il punto P ,  P , linsieme di tutti

i piani di R3 passanti per P .

La seguente proposizione stabilisce come si rappresenta una stella di piani per un


punto P .
proposizione 8.11 Sia P =

p2
p3

R3 . Tutti e soli i piani della stella  P sono

i piani ,, di equazione cartesiana


217

8 Geometria dello spazio cartesiano

(X 1 p 1 ) + (X 2 p 2 ) + (X 3 p 3 ) = 0

[8.45]

(, , ) R3 \ {(0, 0, 0)}

In altri termini, al variare di (, , ) R3 \ {(0, 0, 0)} lequazione [8.45],


detta equazione di  P , descrive tutti i piani ,, della stella. Inoltre, presi
(, , ), (, , ) R3 \ {(0, 0, 0), il piano ,, coincide con il piano
,, se, e solo se, le terne (, , ) e (, , ) sono proporzionali.
Ovviamente, al variare di (, , ) R3 \ {(0, 0, 0)}, [8.45] descrive
tutti piani che passano per P , dato che le coordinate di P annullano ciascuna equazione
lineare in [8.45]. Viceversa, se a X 1 + b X 2 + c X 3 + d = 0 lequazione cartesiana di un
piano passante per P , in particolare si ha d = a p 1 bp 2 c p 3 . Notiamo allora che sussiste
lidentit polinomiale: a X 1 +b X 2 +c X 3 +d = a (X 1 p 1 )+b(X 2 p 2 )+c (X 3 p 3 ); in
altri termini, = a ,b,c un piano della stella. Lultima affermazione dellenunciato ovvia.


Dimostrazione

Vediamo alcune conseguenze immediate della Proposizione 8.11.


corollario 8.5 Sia P un punto di R3 e sia  P la stella di piani per P .

(i)

(ii)

Per ogni punto Q = P di R3 esistono 1 piani di  P passanti per Q.


Tali piani formano precisamente il fascio proprio di piani di asse la retta
r , che la retta per P e Q.
Per ogni retta r non passante per P esiste un ed un solo piano di  P
contenente r .

Dimostrazione
(i)

Imporre allequazione della stella  P il passaggio per il punto Q =

q2
q3

determina

unequazione lineare della forma (q 1 p 1 )+(q 2 p 2 )+(q 3 p 3 ) = 0, dove per


qualche 1 i 3 si ha q i p i = 0, visto che Q = P . Supponiamo q 1 p 1 = 0;
allora otteniamo =

(ii)

(q 2 p 2 )+(q 3 p 3 )
. Questo permette di eliminare il parametro
p 1 q 1

da [8.45], ottenendo unequazione lineare con parametri solamente e . Ciascun


piano descritto da questa equazione , per costruzione, un piano che passa per P e
per Q, quindi che contiene la retta r congiungente P e Q. Pertanto, tale equazione
con parametri e determina lequazione del fascio proprio di piani di asse tale
retta.
Imporre allequazione della stella  P di contenere la retta r equivale a prendere due
punti distinti ed arbitrari su r , Q e S, ed imporre il passaggio per Q e per S. Notiamo
in particolare che i tre punti P , Q e S non sono allineati. Si ottiene cos un sistema
lineare della forma
(q 1 p 1 ) + (q 2 p 2 ) + (q 3 p 3 ) =
= (s 1 p 1 ) + (22 p 2 ) + (s 3 p 3 ) = 0

218

8.4 Fasci e stelle di piani, stelle di rette, fasci di rette su un piano


di rango due nelle indeterminate , , . Tale sistema omogeneo ammetter soluzioni dipendenti da un parametro , della forma = a , = b , = c . Poich
unequazione cartesiana di un piano definita a meno di proporzionalit, il piano
che si determina a (X 1 p 1 ) + b(X 2 p 2 ) + c (X 3 p 3 ) = 0.


Sia P un punto di R3 .

Stella di rette
per un punto

definizione 8.15 Si chiama stella di rette per il punto P ,  P , linsieme di tutte

le rette di R3 passanti per P .

La seguente proposizione spiega come si rappresenta una stella di rette per un punto P .
Sia P =

proposizione 8.12

p2
p3

R3 . Tutte e sole le rette della stella  P

sono le rette v di equazioni cartesiane


[8.46]


(X 1 p 1 ) + (X 2 p 2 ) + (X 3 p 3 )
 (X 1 p 1 ) +  (X 2 p 2 ) +  (X 3 p 3 )

= 0
= 0

con v := (, , . . . ,  ,  ) R6 \ D, dove D il sottoinsieme di R6 determinato dalle condizioni



[8.47]


  

In altri termini, lequazione [8.46], detta anche equazione di  P , descrive tutte


le rette v della stella. Inoltre, presi v, w R6 \ D, la retta v coincide con la
retta w se, e solo se, i sistemi lineari corrispondenti sono sistemi equivalenti.
Notiamo subito, che se scegliamo dei parametri v nel luogo D descritto
da [8.47], allora [8.46] non determina una retta [8.29]. Pertanto v deve variare in R6 \ D per
avere rette. Il resto dellasserto segue direttamente dal fatto che ciascuna delle due equazioni
di [8.46] determina un piano nella stella di piani  P .


Dimostrazione

Supponiamo di avere un piano in R3 ed un punto P . Vogliamo scrivere le


equazioni del fascio proprio di rette nel piano di centro P . Per fare questo, basta
semplicemente procedere nel modo seguente:

si prende una qualsiasi retta r di R3 , passante per P e non contenuta in ;


si scrive lequazione del fascio di asse r , come nella Proposizione 8.9-(ii);
219

Fasci propri di rette


su un piano

8 Geometria dello spazio cartesiano

Fasci impropri di rette


su un piano

si mettono a sistema lequazione del fascio di piani di asse r e lequazione


di .

Sia un piano in R3 e sia r una retta contenuta in . Vogliamo trovare le equazioni


del fascio improprio di rette su tutte parallele a r . Come al punto precedente, si
procede in questo modo:

si prende un qualsiasi piano del fascio di piani di asse r , tale che = ;


si scrive lequazione del fascio improprio di piani determinato da , come
nella Proposizione 8.10;
si mettono a sistema lequazione del fascio improprio di piani e lequazione
di .

8.5

Formule di geometria di R3

Negli argomenti che seguono, applichiamo i concetti fin qui esposti per la risoluzione
di alcuni fondamentali problemi geometrici nello spazio cartesiano. Ulteriori possibili
problemi geometrici sono facilmente riconducibili ad uno o pi di quelli trattati di
seguito.
Retta passante per due
punti distinti

Dati due punti distinti P e Q in R3 , per calcolare unequazione parametrica ed


unequazione cartesiana della retta r passante per P e Q, ragioniamo come quanto
fatto per le rette di R2 :

per ottenere unequazione parametrica di r , basta prendere Q come un punto


su r e come vettore direttore di r basta considerare v := Q P (Lemma 8.2);
per ottenere direttamente unequazione cartesiana, basta usare la Proposizione 8.8 in cui q 1 , q 2 e q 3 sono le coordinate per esempio di Q e dove l , m e
n sono le componenti del vettore v := Q P .

Condizione
di parallelismo
tra due rette

di parallelismo tra
Siano r e s due rette di R3 . Vogliamo determinare la condizione
 
l

r e s . Supponiamo che r abbia vettore direttore v = m ed equazione cartesiana


ln

1
come in [8.28] mentre s abbia vettore direttore w = m 1 ed equazione cartesiana
n1

a 1 X 1 + b 1 X 2 + c 1 X 3 + d1 = 0
a 1 X 1 + b 1 X 2 + c 1 X 3 + d1 = 0

. Allora r parallela a s se, e solo se, i due vettori

direttori sono proporzionali. Pertanto, a seconda del caso parametrico o cartesiano,


avremo

a b c

a  b c 
l m n

r ||s r
= 1 oppure r
a 1 b 1 c 1 = 2
l1 m1 n1
a 1 b 1 c 1
220

8.5 Formule di geometria di R3


In particolare, le rette coincidonoquando hanno
vettori direttori proporzionali ed
r s = . Pertanto: r = s r

a
a
a1
a 1

a
a 
r ||s e r s = r
a 1
a 1

b
b
b1
b 1

b
b
b1
b 1

c
c
c1
c 1

d
d
d1
d1

= 2 mentre

c
c
= 2
c 1
c 1

a
a 
e r
a 1
a 1

b
b
b1
b 1

c
c
c1
c 1

d
d
= 3
d1
d1

Siano r e s due rette come al punto precedente. Esse sono incidenti (ma non coincidenti) se, e solo se, r s = ed i rispettivi vettori direttori sono linearmente
indipendenti. Pertanto, nel caso cartesiano avremo:

r s =

a
a 
e r =
 s r
a 1
a 1

b
b
b1
b 1

c
c
=r
c 1
c 1

a
a 

a 1
a 1

b
b
b1
b 1

c
c
c1
c 1

Condizione di incidenza
fra due rette

d
d
= 3
d1
d1

Date r e s come sopra, le due rette si diranno complanari, se esiste un piano tale
che r, s . Quindi, le quattro equazioni date da r e s devono formare un sistema
lineare di quattro equazioni non indipendenti. Pertanto, abbiamo:

Condizione
di complanarit
tra due rette

a b c d
a  b c  d 

t.c. r, s det
a 1 b 1 c 1 d1 = 0
a 1 b 1 c 1 d1

Dal caso precedente, notiamo in particolare che due rette incidenti sono allora sempre complanari. Ovviamente non vale il viceversa: r e s complanari possono essere
parallele.
Date r e s come sopra, esse sono sghembe se r s = ma r e s non sono parallele.
Questo equivale a dire che le equazioni cartesiane di r e di s devono formare un
sistema lineare di quattro equazioni indipendenti in tre indeterminate, i.e. un sistema
incompatibile. Pertanto, abbiamo:

Condizione
di due rette sghembe

a b c d
a  b c  d 

r ed s sghembe det
a 1 b 1 c 1 d1 = 0
a 1 b 1 c 1 d1
Siano dati tre punti distinti P , Q e R in R3 che non siano tutti e tre allineati. Come
possiamo calcolare unequazione parametrica ed unequazione cartesiana del piano
passante per i tre punti?
221

Piano per tre punti


non allineati

8 Geometria dello spazio cartesiano

Per ottenere unequazione parametrica di , basta prendere per esempio Q


come punto su e come generatori della giacitura, dal Lemma 8.1, basta
prendere i vettori u := Q P e v := Q R. Il fatto che i tre punti non
sono allineati assicura che Lin(u, v) un piano vettoriale.
Per ottenere direttamente unequazione cartesiana, basta usare la Proposizione 8.7 in cui q 1 , q 2 e q 3 sono le coordinate per esempio di Q e dove i parametri di giacitura (Definizione 8.4 e seguente) sono dati dalle coordinate dei
vettori u := Q P e v := Q R.

Condizione
di parallelismo
tra due piani

Supponiamo di avere due piani e di R3 . Sia di equazione cartesiana come in


[8.23] e di equazioni parametriche [8.21]. Sia invece di equazione cartesiana a  X 1 +


b X

+cX

+ d

= 0 ed equazioni parametriche X = Q

u1
v1




u
v  ,
+k
+t
2

u 3

v3

t  , k  R. I due piani sono paralleli se, e solo se, hanno la medesima giacitura.
Pertanto, a seconda del caso parametrico o cartesiano, avremo

u1 u2 u3

v v v
a b c
1 2 3
|| r u  u  u  = 2 oppure r
=1
a  b c 
1 2 3
v1 v2 v3
In particolare, e coincidono

quando hanno medesima giacitura e = .
Pertanto: = r aa bb cc dd = 1 mentre


a b c d
a b c
=1 e r
=2
|| e = r
a  b c  d 
a  b c 
Condizione
di parallelismo
retta-piano

Siano r una retta e un piano di R3 . Supponiamo che abbia equazioni parametriche come in [8.21] ed equazione cartesiana e X 1 + f X 2 + g X 3 + h = 0 mentre
r abbia equazioni parametriche [8.26] ed equazioni cartesiane [8.28]. La retta r e il
piano sono paralleli se, e solo se, un qualsiasi vettore direttore di r appartiene alla
giacitura di . Pertanto, a seconda del caso parametrico o cartesiano, avremo

u1 u2 u3
a b c
||r r v1 v2 v3 = 2 oppure r a  b  c  = 2
e f g
l m n
mentre nel caso r sia in equazioni parametriche e in equazione cartesiana avremo
el + f m + g n = 0
notiamo che questultima relazione equivalente al fatto che il vettore normale a ,
come in [8.32], perpendicolare al vettore direttore di r . La retta r , in particolare,
contenuta
in
se r parallela a e se inoltre r =
. Pertanto:
r


r
222

a b c d
a  b c  d 
e f g h

= 2 mentre r || e r = r

a bc
a  b c 
e f g

=2 e r

a bc d
a  b c  d 
e f g h

= 3.

8.5 Formule di geometria di R3


Sia P =

p2
p3

un punto di R3 e un piano di equazioni parametrica vettoriale

come in [8.20] e di equazione cartesiana come in [8.23]. Vogliamo determinare le


equazioni della retta r passante per P e perpendicolare a , i.e. la retta per P e con
vettore direttore un qualsiasi vettore normale a :

se vogliamo r in equazione parametrica vettoriale, allora abbiamo r : X =


parametrica vettoriale (ProP + t (u v), t R se dato in equazione
a 
p1

posizione 8.5); altrimenti r : X = p 2 + t b , t R se data in


p3

Retta per un punto


perpendicolare
ad un piano

equazione cartesiana (Proposizione 8.4);


se vogliamo r in equazioni cartesiane,
8.8, consi
 utilizzando la Proposizione
deriamo le relazioni date da r : r

X 1 p1 X 2 p2 X 3 p3
a
b
c

= 1.

Sia r una retta di R3 , con equazioni cartesiane [8.28] ed equazioni parametriche


[8.26]. Vogliamo determinare lequazione

cartesiana e le equazioni parametriche del
piano passante per un punto P =

p1
p2
p3

R3 e perpendicolare a r . Tale piano

Piano perpendicolare
ad una retta e passante
per un punto

sar il piano passante per P e con giacitura il piano vettoriale normale alla retta data
(Definizione 8.11):

se r data in equazioni parametriche, allora lequazione cartesiana di sar


[8.48]

l (X p 1 ) + m(X 2 p 2 ) + n(X 3 p 3 ) = 0

Se invece vogliamo unequazione parametrica vettoriale per , detto w il


vettore direttore di r , basta considerare un qualsiasi vettore u ortogonale a
w e poi il vettore v := u w. Lequazione parametrica vettoriale di sar
quindi X = P + t u + kv, t, k R;
se r data in equazione cartesiana e vogliamo in equazione parametrica
vettoriale, allora abbiamo : X = P + tn + kn  , t, k R dove n e n  sono
come nella Proposizione 8.6. Se invece vogliamo in equazioni cartesiane,
riutilizziamo [8.48], dove l , m e n sono come in [8.31].

Supponiamo di avere due piani e di R3 . Sia di equazione cartesiana come


in [8.23] e di equazioni parametriche [8.20]. Sia invece di equazione cartesiana

a  X 1 + b  X 2 + c  X 3 + d  = 0 ed equazioni parametriche X = Q + t  u  + k  v  ,
t  , k  R. I due piani si diranno perpendicolari (in simboli, ) se, e solo se, un
qualsiasi vettore normale a perpendicolare ad un qualsiasi vettore normale a .
Pertanto:

se e sono entrambi in equazioni parametriche vettoriali, siano n = u v


e n  = u  v  i rispettivi vettori normali come nella Proposizione 8.5. Allora
n, n   = 0;
se e sono entrambi in equazione cartesiana, la condizione precedente si
traduce in a a  + bb  + c c  = 0.

223

Condizione
di perpendicolarit
tra due piani

8 Geometria dello spazio cartesiano


Condizione
di perpendicolarit
tra una retta
ed un piano

Siano r una retta e un piano di R3 . Supponiamo che abbia equazioni parametriche come in [8.21] ed equazione cartesiana e X 1 + f X 2 + g X 3 + h = 0 mentre
r abbia equazioni parametriche [8.26] ed equazioni cartesiane [8.28]. La retta r sar
perpendicolare a se, e solo se, detto w un qualsiasi vettore direttore di r e n un
qualsiasi vettore normale a , w proporzionale
 Pertanto, quale che siano le
a ba n.
c
espressioni di r e di , avremo r r l m n = 1, dove l , m e n sono i
parametri direttori di r (dati o calcolabili come in [8.31]) mentre a , b e c sono le
componenti del vettore normale al piano (date o calcolabili come in [8.33]).

Condizione
di perpendicolarit
tra due rette

Date due rette r e s , esse sono perpendicolari (in simboli, r s ) se preso un qualsiasi
vettore direttore v di r ed un qualsiasi vettore direttore
  w di s , si ha v, w = 0.
Supponiamo che r abbia vettore direttore v =

in [8.28], mentre s abbia vettore direttore w =



dal sistema

a 1 X 1 + b 1 X 2 + c 1 X 3 + d1

= 0

a 1 X 1

= 0

mm 1 + nn 1 = 0.

+ b 1 X 2

+ c 1 X 3

+ d1

l
m ed equazioni cartesiane come
n
l

1
m1
ed equazioni cartesiane date
n1

. Allora, avremo r s ll 1 +

Quando r e s sono date entrambi in equazioni cartesiane, allora le quantit coinvolte


nella relazione ll 1 + mm 1 + nn 1 = 0 sono quelle calcolabili come in [8.31].
Angolo convesso
tra due rette orientate

Siano r e s come sopra. Come osservato nel caso di rette in R2 , per definire langolo convesso tra r e s dobbiamo fissare delle orientazioni di tali rette, i.e. dei vettori direttori. Siano questi v e w, rispettivamente. Definiamo langolo convesso fra le
due rette orientate r e s come langolo tra i due vettori direttori fissati (come nella
Definizione 5.17) = (r, s ) := (v, w), cio mediante le condizioni:
[8.49]

0 , cos =

v, w
||v|| ||w||

Questa definizione dipende ovviamente dalla scelta di v e di w. Langolo cos definito viene sostituito da se uno dei due vettori direttori viene moltiplicato per
uno scalare negativo. In particolare, ritroviamo che le due rette sono perpendicolari
se, e solo se, langolo convesso esattamente /2. Se i vettori direttori di r e s hanno
componenti come nel punto precedente, allora
[8.50]

Angolo convesso
tra due piani orientati

ll 1 + mm 1 + nn 1

(r, s ) = 
2
2
2
l 2 + m2 + n2 l1 + m1 + n1

Supponiamo di avere due piani e di R3 . Sia di equazione cartesiana come


in [8.23] e di equazioni parametriche [8.20]. Sia invece di equazione cartesiana

a  X 1 + b  X 2 + c  X 3 + d  = 0 ed equazioni parametriche X = Q + t  u  + k  v  ,
t  , k  R. Siano n e n  i relativi vettori normali, calcolabili come in [8.32] o come
in [8.33] a seconda di come siano dati i piani e . In questo modo, avendo fissato
224

8.5 Formule di geometria di R3


un ben determinato vettore normale a ciascun piano, consideriamo i due piani come
orientati. Definiamo langolo convesso fra i due piani orientati e come langolo tra
i due vettori normali scelti (come nella Definizione 5.17), = (, ) := (n, n  ),
cio mediante le condizioni:
[8.51]

0 , cos =

n, n  
||n|| ||n  ||

Questa definizione dipende ovviamente dalla scelta di n e di n  , in particolare dalle


equazioni cartesiane dei due piani. Moltiplicando una delle due equazioni cartesiane
per uno scalare negativo, verr sostituito da .
Se e sono dati in equazioni cartesiane come sopra, abbiamo quindi:
[8.52]

a a  + bb  + c c 
(, ) = 

a 2 + b 2 + c 2 (a  )2 + (b  )2 + (c  )2

In particolare, ritroviamo che due piani sono perpendicolari se, e solo se, langolo
convesso esattamente /2 i.e. se, e solo se, a a  + bb  + c c  = 0 come trovato
precedentemente.
Siano r una retta e un piano di R3 . Supponiamo che abbia equazioni parametriche come in [8.21] ed equazione cartesiana e X 1 + f X 2 + g X 3 + h = 0 mentre
r abbia equazioni parametriche [8.26] ed equazioni cartesiane [8.28]. Sia n il vettore
normale al , determinato come in [8.32] o in [8.33] a seconda di come sia dato , e
sia w il vettore direttore di r , determinato come in [8.26] o come in [8.31], a seconda
di come sia data r . Langolo tra r e langolo una cui determinazione (cio, a
meno di multipli di 2 ) = 2 , dove langolo convesso tra n e w. Quindi,
a 
 
l
b
e se w = m , langolo definito dalle condizioni:
se n =
c

Angolo tra una retta


ed un piano

al + bm + c n


, sin = 
2
2
a 2 + b2 + c 2 l 2 + m2 + n2

Se = 2 , ritroviamo che e r sono perpendicolari. Mentre, ponendo sin = 0,


si ritrova la condizione di parallelismo retta-piano al + bm + c n = 0.
Siano P un punto e un piano di R3 . Denotiamo con P  = (P ) la proiezione ortogonale di P su . Pertanto P  := s , dove s la retta passante per P e
perpendicolare a .

Proiezione ortogonale
di un punto su un piano

Siano P un punto e r una retta di R3 . Denotiamo con P  = r (P ) la proiezione


ortogonale di P su r . Pertanto P  := r , dove il piano passante per P e
perpendicolare a r .

Proiezione ortogonale
di un punto su una retta

Siano r e una retta ed un piano di R3 , tale che r non sia contenuta in . Vogliamo
determinare la proiezione ortogonale di r su , che denotiamo con (r ):

Proiezione ortogonale
di una retta su un piano

225

8 Geometria dello spazio cartesiano

se r e sono paralleli, allora la proiezione (r ) la retta r  := , dove


il piano del fascio proprio di piani di asse la retta r e perpendicolare a ;
se r e sono perpendicolari, allora la proiezione (r ) il punto P  = r ;
siano allora r e non paralleli n perpendicolari e sia M = r il punto di
intersezione. La proiezione di r su una retta r  di cui vogliamo determinare
le equazioni. Supponiamo che abbia equazione parametrica vettoriale come
in [8.20] ed equazione cartesiana e X 1 + f X 2 + g X 3 + h = 0 mentre r abbia
vettore direttore w ed equazioni cartesiane [8.28]:
se r e sono dati in equazioni parametriche, allora r  la retta passante per M e con vettore direttore il vettore U (w), definito come nella
Definizione 5.19 e nella Proposizione 5.11, dove U = Lin(u, v)
la giacitura di ;
se r e sono dati in equazioni cartesiane, per determinare r  si opera
nel modo che andiamo a descrivere. Si considera in primo luogo il
fascio proprio di piani  di asse r , i.e.

(i)

(ii)

(a X 1 +b X 2 +c X 3 +d )+(a  X 1 +b  X 2 +c  X 3 +d ) = 0
Si determina lunico piano del fascio  che perpendicolare a ; sia
tale piano. Allora r  = .

Esempio 8.6 Proiezione ortogonale di una retta su un piano


Sia r la retta di equazione cartesiana X1 1 = 2X2 X3 + 1 = 0 e sia il piano di
equazione cartesiana 2X1 + 3X2 1 = 0. Vogliamo determinare la proiezione ortogonale
di r su . Il fascio  di piani di asse r dato da X1 + 2X2 X3 + = 0. Il vettore

. Il vettore normale al piano


normale ad un arbitrario piano di tale fascio n, =

invece n = 3 . Pertanto, il piano del fascio  che perpendicolare a si ottiene se


0

imponiamo la condizione 0 = n, , n = 2 + 6. Troviamo la relazione = 3 che,


sostituita nellequazione del fascio, determina il piano : 3X1 2X2 +X3 4 = 0. Pertanto,
le equazioni cartesiane per la retta r sono 3X1 2X2 + X3 4 = 2X1 + 3X2 1 = 0.

Distanza punto-piano

Supponiamo di avere un punto Q R3 ed un piano non contenente Q. Ricordando la proiezione ortogonale di un punto su un piano, la distanza di Q da
non altro che d (Q, ) := d (Q, (Q)) (se ammettiamo anche il caso in cui
Q banalmente abbiamo d (Q, ) = 0). Pertanto il calcolo della distanza di
un punto da un piano si riduce al calcolo della usuale distanza tra due punti di R3 ,
dove il primo punto in questione Q mentre il secondo punto la proiezione di
Q sul piano dato. Nel caso in cui il piano sia dato in forma cartesiana,

una
c
formula particolarmente semplice da ricordare per d (Q, ). Sia Q =
226

q1
q2
q3

e sia

8.6 Trasformazioni dello spazio cartesiano


: a X 1 + b X 2 + c X 3 + d = 0. Unequazione parametrica della retta s , passante
q

a 
1
per Q e perpendicolare a X = q 2 + t b , t R. Se ora calcoliamo linterq3

Q

sezione tra s e , troveremo che il punto


= (Q) sar ottenuto come punto su
aq 1 +bq 2 +c q 3 +d
s per il valore del parametro t := a 2 +b 2 +c 2 . Pertanto, il calcolo di d (Q, Q  )
fornisce la formula

[8.53]

d (Q, ) :=

|aq 1 + bq 2 + c q 3 + d |

a 2 + b2 + c 2

Siano date due rette r e s sghembe in R3 . Vogliamo calcolare la distanza tra queste
due rette. Tale problema si riconduce facilmente al precedente calcolo. Infatti si pu
procedere cos: si determina unequazione cartesiana del piano , appartenente al
fascio di piani di asse una delle due rette, per esempio r , e parallelo allaltra, i.e. s .
In tale situazione, la distanza di r da s , denotata come d (r, s ), uguale alla distanza
fra un qualsiasi punto Q su s e il piano . In altre parole, per ogni scelta di Q s ,
d (r, s ) := d (Q, ).

Distanza tra due rette


sghembe

Siano P e r rispettivamente un punto ed una retta in R3 . Vogliamo calcolare la


distanza di P da r . Tale distanza sar data banalmente dalla distanza fra due punti,
un punto P e laltro punto r (P ), proiezione ortogonale di P su r , descritta
precedentemente. In altre parole, d (P , r ) := d (P , r (P )).

Distanza punto-retta

8.6

Trasformazioni dello spazio cartesiano

In questo paragrafo approfondiamo alcuni argomenti discussi nei Paragrafi 6.4 e 6.5,
considerando lo studio di alcune funzioni o trasformazioni f : R3 R3 che hanno un particolare significato geometrico. Data la vastit dellargomento, ispirandosi
a [7], si sono fatte alcune scelte sugli argomenti da trattare in dettaglio. Tali argomenti
sono quelli maggiormente usati per la risoluzione di esercizi.
Le trasformazioni f : R3 R3 che studieremo verranno chiamate con terminologia equivalente anche applicazioni (par. 6.4); esse saranno isometrie ed affinit
particolarmente importanti di R3 .
Alcune isometrie fondamentali di R3
Iniziamo con il descrivere alcune isometrie di R3 .
Come nel paragrafo 6.1, se P R3 un punto dello spazio cartesiano e P =
P a O il corrispondente vettore dello spazio vettoriale R3 , denoteremo con t P
la traslazione di passo P , che chiaramente unisometria dello spazio cartesiano. In
227

Equazioni di traslazioni
dello spazio cartesiano
R3

8 Geometria dello spazio cartesiano


coordinate avremo che

x1
x1 + p1
[8.54]
t P x 2 = x 2 + p 2
x3
x3 + p3
Le principali propriet delle traslazioni sono state elencate allinizio del paragrafo 6.1.
In particolare la composizione di due traslazioni ancora una traslazione.
Equazioni di rotazioni
attorno a rette vettoriali

Come fatto per R2 , cominciamo con il considerare alcune isometrie lineari notevoli:
le rotazioni attorno ad una retta vettoriale. La teoria un p pi complicata di quella
sviluppata per R2 . Diamo la seguente:

R. Denotiamo con R = R,e 1 lapplicazione di R3


in s che ad un arbitrario punto P R3 associa il punto Q = Q P , estremo
libero del vettore Q ottenuto ruotando il vettore P di un angolo attorno
al vettore e 1 della base canonica e . R si chiama rotazione attorno alla retta
vettoriale (orientata) Lin(e 1 ) di angolo .
definizione 8.16 Sia

R3 arbitrario. Allora


x1
x1
1
0
0

x2
R x 2 = 0 cos sin
0 sin cos
x3
x3


proposizione 8.13 Sia x =

[8.55]

In altri termini, se

x

x2
x3

x1

= R (x ) = x 2 , le equazioni per la rotazione R


x 3

sono:

x 1 = x 1
x 2 = cos x 2 sin x 3

x  = sin x 2 + cos x 3
3

[8.56]

In particolare:

se = 0, allora R = Id;
se > 0, la rotazione indotta sul piano vettoriale (x 2 , x 3 ) in senso
antiorario rispetto al vettore e 2 ;
se < 0, la rotazione indotta sul piano vettoriale (x 2 , x 3 ) in senso
orario rispetto al vettore e 2 .

Osserviamo che la rotazione R per costruzione fissa il vettore e 1 della


base e , mentre sul piano vettoriale (x 2 , x 3 ) si comporta come una rotazione di R2 attor-

Dimostrazione

228

8.6 Trasformazioni dello spazio cartesiano


no al vettore nullo. Pertanto, le formule precedenti discendono immediatamente da questa
osservazione e dalla dimostrazione della Proposizione 7.7.


Abbiamo le ovvie conseguenze della precedente proposizione, le cui dimostrazioni


sono identiche a quelle svolte per le rotazioni in R2 attorno allorigine.
Per ogni R, le rotazioni R attorno al vettore e 1 sono isometrie lineari dirette (Definizione 6.24). Equivalentemente, sono isometrie che
fissano lorigine O e la cui matrice rappresentativa come in [8.55] speciale ortogonale.

corollario 8.6

Osservazione 8.12
Da quanto dimostrato nella Proposizione 6.13 e dal Corol- vettoriale R3 , i.e. Or(u, v,w) = Or(R (u), R (v), R (w)),
lario 8.6, notiamo subito che le rotazioni R attorno a e1 per ogni terna di vettori linearmente indipendenti u, v,w di
in particolare conservano lorientazione di basi dello spazio R3 e per ogni R.

proposizione 8.14

(i)

Per , R, si ha R R = R R = R + .

(ii)

Per ogni R, R = R .

Tuttavia, non tutte le rotazioni lineari coinvolte in possibili problemi di geometria


in R3 saranno necessariamente attorno al vettore e 1 . Vogliamo quindi determinare
le formule di rotazione attorno ad una retta vettoriale qualsiasi utilizzando quanto
dimostrato nella Proposizione 8.13.
Supponiamo di avere una retta vettoriale r di R3 ; vogliamo determinare le formule
della rotazione di angolo attorno a r . Prima di tutto, affinch il problema sia ben
posto, dobbiamo avere unorientazione di r : se r non orientata, non chiaro in
quale direzione si deve fare la rotazione nel piano vettoriale r . Pertanto, fissiamo
su r un vettore direttore v. Per fissare il senso della rotazione parleremo quindi di
rotazione di angolo attorno al vettore v e la denoteremo con R,v . Un modo naturale
per ottenere le formule di una tale rotazione descritta nel seguente procedimento:
1.

in primo luogo, sia f 1 il versore direttore di r associato a v, i.e. f 1 =


v
||v|| ([8.27]). Scegliamo poi due altri versori f 2 e f 3 , di modo che f :=
f 1 , f 2 , f 3 sia una base ortonormale di R3 ed equiorientata con la base canonica e (Definizione 6.27-(i)). Ricordando il Corollario 8.1-(ii), trovare una
tale base f molto semplice: il secondo versore f 2 di f si determina prendendo un qualsiasi vettore non nullo w scelto ad arbitrio tra tutti quei vettori
w
di R3 ortogonali a v e poi si considera il versore associato a w, i.e. f 2 = ||w||
;
229

8 Geometria dello spazio cartesiano


il terzo ed ultimo versore di f dato direttamente da f 3 = f 1 f 2 . Notiamo
quindi che basi
siffatte possono essere scelte in infiniti modi;
2.

siano ora

y1
y2
y3

le componenti di un arbitrario vettore x di R3 espresse ri-

spetto alla base f precedentemente determinata. In tale base, la rotazione


R,v la rotazione di angolo attorno a f 1 . Quindi, nelle notazioni della
f

Proposizione 8.13, questa non altro che la rotazione R = R, f , dove


1

lapice in alto sta a ricordare che stiamo vedendo tutto relativamente alla base
f . Abbiamo quindi dalla Proposizione 8.13:


y1
y1
1
0
0
f

y 2
R y 2 = 0 cos sin
[8.57]
0 sin
cos
y3
y3
In altre parole, la matrice rappresentativa di R,v in base f :

1
0
0
A f := 0 cos sin
0 sin
cos
3.

lobiettivo finale quello di determinare la matrice A := A e della rotazione cercata, espressa rispetto alla base e di partenza. Per fare questo, sia
M := Me f la matrice cambiamento di base dalla base e alla base f (Definizione 4.26). Poich e ed f sono ambedue basi ortonormali, dal Teorema
5.5, M una matrice 3 3 ortogonale, i.e. t M M = I3 (Definizione 5.14).
x

1
1
Sia x = (e 1 e 2 e 3 ) x 2 = ( f 1 f 2 f 3 ) y 2 un vettore arbitrario di R3
x3

y3

espresso nelle sue componenti sia rispetto alla base e che alla base f , e sia


y1
x1

f

y2
= ( f 1 f 2 f 3) A
x = R,v (x ) = (e 1 e 2 e 3 ) A x 2
x3
y3
il vettore trasformato mediante la rotazione considerata, espresso nei diversi sistemi di coordinate. Ricordiamo che, per definizione di M = Me f si
ha (e 1 e 2 e 3 )M = ( f 1 f 2 f 3 ). Pertanto, dalla precedente eguaglianza
vettoriale abbiamo:


y1
x1

f

y2
= (e 1 e 2 e 3 )M A
[8.58] x = R,v (x ) = (e 1 e 2 e 3 ) A x 2
x3
y3
x

1
Poich x 2 la colonna delle componenti del vettore x rispetto ad e e
x3
y

1
y2
la colonna delle componenti del medesimo vettore rispetto a f , dal
y3

230

8.6 Trasformazioni dello spazio cartesiano


y

= M 1

x2 =
Teorema 4.9 e dalla definizione di M = Me f abbiamo
x3
x

1
t M x 2 , dato che M 1 = t M. Da [8.58], otteniamo quindi leguaglianza
y2
y3

x3



x1
x1
(e 1 e 2 e 3 ) A x 2 = (e 1 e 2 e 3 )M A f t M x 2
x3
x3

[8.59]

valida per ogni x R3 . Pertanto, [8.59] induce la seguente eguaglianza fra


matrici:
A = M Af tM

[8.60]

che determina lespressione della matrice di rotazione R,v in base e come


voluto.
Osservazione 8.13
La relazione 8.60 dipende da motivi pi generali che dimostreremo nei successivi capitoli (Teorema 10.1).

Utilizzando il Corollario 8.6 e la Proposizione 8.14, abbiamo il seguente risultato


immediato:
Per ogni R, le rotazioni R,v di angolo attorno ad una
qualsiasi retta vettoriale orientata r = Lin(v) sono isometrie lineari dirette
(Definizione 6.24). In particolare, tali rotazioni conservano lorientazione di basi
dello spazio vettoriale R3 e godono delle seguenti propriet:

corollario 8.7

(i)
(ii)

se = 0, allora R0,v = Id;


per , R, si ha R,v R,v = R,v R,v = R+,v ;

(iii)

per ogni R, R,v = R,v .

Dimostrazione

Notiamo che, da [8.60], per il Teorema di Binet (Teorema 3.8), si ha


det A = (det M)(det A f )(det t M) = (det M)(det A f )(det M)1 = det A f , dove la penultima eguaglianza discende direttamente dal fatto che M ortogonale e dalla propriet del
determinante della matrice inversa. Pertanto, per concludere basta applicare il Corollario 8.6,
lOsservazione 8.12 e la Proposizione 8.14.


Esempio 8.7 Formula di rotazione attorno ad un vettore


A titolo di esempio, scriviamo le formule di rotazione R ,v di angolo 2 attorno al vettore
2
1

v = 1 . Da quanto descritto sopra, vogliamo determinare f = f1 , f2 , f3 una base or1

231

8 Geometria dello spazio cartesiano



1/ 3

v
tonormale di R3 positivamente orientata e con f1 =
= 1/ 3 . Per prendere un

||v||
1/

vettore w ortogonale a f1 , notiamo per esempio che le coordinate di f1 sono tutte uguali;
1

perci una scelta possibile e naturale prenderew = 1 , almeno avremo sicuramente


0


1/ 6
1/ 2

 f1 ,w = 0. Con tale scelta, abbiamo f2 = 1/ 2 , f3 = f1 f2 = 1/ 6 . In

0
2/ 6
10 0

base f, la matrice della rotazione R/2,v Af = 0 0 1 . Perci, visto che M = Mef ha


01 0

come colonne
le componenti
vettori della base f espresse in funzione della base e, si

dei
1/ 3 1/ 2 1/ 6

ha M = 1/ 3 1/ 2 1/ 6 , che una matrice ortogonale. Pertanto, la matrice della

1/

2/

rotazione R/2,v in base e :



1/3
(1 3)/3 (1 + 3)/3

A = MAf t M =
1/3
1/3
3/3


1/3
(1 3)/3 (1 + 3)/3

Equazioni di riflessioni
rispetto a rette vettoriali

Consideriamo adesso altre isometrie lineari fondamentali: le riflessioni (o simmetrie)


rispetto a rette vettoriali.
definizione 8.17 Sia r una retta vettoriale di R3 . Denotiamo con Sr,O lappli-

cazione di R3 che ad un arbitrario punto P R3 associa il punto Q = Q P ,


estremo libero del vettore Q ottenuto per riflessione di P rispetto a r .

Notiamo subito che la riflessione rispetto ad una retta vettoriale r un particolare tipo
di rotazione lineare, precisamente la rotazione di angolo intorno a r . In questo
caso, immediato osservare che il risultato non dipende dallorientazione di r . Da
ultimo, per ogni retta vettoriale r , Sr,O chiaramente unisometria lineare diretta;
in particolare, conserva lorientazione di basi di R3 .
Equazioni di riflessioni
rispetto allorigine

definizione 8.18 Denotiamo con S O lapplicazione di R3 in s definita in modo

che, per ogni punto P R3 si associa il punto estremo libero del vettore P .
S O detta riflessione rispetto allorigine.
Le equazioni della riflessione rispetto ad O sono chiaramente:

x1
x1
x 1
1
0
0
0 x 2 = x 2
[8.61]
S O x 2 = 0 1
0
0 1
x3
x3
x 3

Pertanto, S O unisometria lineare inversa di R3 . In particolare, essa non conserva


lorientazione di basi dello spazio vettoriale R3 .
232

8.6 Trasformazioni dello spazio cartesiano


Per quanto riguarda le riflessioni rispetto a piani vettoriali, discuteremo in seguito un
procedimento geometrico pi generale per determinare la riflessione rispetto ad un
qualsiasi piano dello spazio cartesiano R3 .

Riflessioni rispetto
a piani vettoriali

Affrontiamo il problema di trovare le equazioni delle isometrie dello spazio cartesiano


R3 analoghe a quelle lineari fino ad ora studiate.
Sia R e sia r una qualsiasi retta orientata dello spazio cartesiano R3 non passante
per lorigine. Sia P R un qualsiasi punto su r e sia v il vettore direttore fissato per
lorientazione di r . In particolare, avremo che r ha equazione parametrica vettoriale
r : X = P + t v, t R. Denotiamo con R,r lisometria di R3 data dalla rotazione
di angolo attorno alla retta orientata r . Per ottenere le equazioni di tale rotazione, si
procede nel modo seguente:

Equazioni di rotazioni
attorno a rette

prima si considera la traslazione tP di passo P , che porta il punto P r


nellorigine O di R3 ;
poi si compie la rotazione lineare R,v intorno alla giacitura r 0 = Lin(v) di
r , come descritto precedentemente;
infine si riapplica la traslazione t P di passo P che riporta cos O in P .

In definitiva, lisometria cercata si pu scrivere come:


[8.62]

R,r = t P R,v tP

3 supponiamo che
Per determinare
equazioni di tale isometria
le

di R ,


esplicitamente

P =

p1
p2
p3

. Pertanto R,r

x1
x2
x3

= t P R,v

x1 p1
x2 p2
x3 p3

= tP

x1 p1
x2 p2
x3 p3

con A calcolata come in [8.60]. Questo fornisce le equazioni della rotazione attorno
alla retta orientata r date da:


x1
x1
q1
[8.63]
R,r x 2 = A x 2 + q 2
x3
x3
q3
q

dove

1
q2
q3

p1

:= A

p2
p3

p2
p3

. Notiamo che essa composizione di una

traslazione e di unisometria lineare diretta (Osservazione 6.5 e Corollario 8.7).


Per quanto riguarda le riflessioni rispetto a rette non passanti per lorigine, si utilizza
lo stesso procedimento delle rotazioni qui sopra descritto. Se la retta r non passa per
O e P r un suo punto arbitrario, baster considerare che la riflessione rispetto
a r : Sr,P := t P Sr 0 ,O tP , dove r 0 la giacitura di r . Abbiamo gi discusso
precedentemente che la riflessione Sr 0 ,O non altro che una rotazione di angolo .
Per quanto riguarda la simmetria rispetto ad un qualsiasi punto P R3 , baster
considerare S P := t P S O tP .
233

Equazioni di riflessioni
rispetto a rette o punti
dello spazio cartesiano

8 Geometria dello spazio cartesiano


Un altro modo pi geometrico quello di osservare che il centro di riflessione, i.e.
il punto P , il punto medio fra un qualsiasi punto Q di R3 e il suo simmetrico
S P (Q) rispetto a P . Di conseguenza, abbiamo leguaglianza tra i vettori
associati

P = 2 (Q + S P (Q)). Se al posto di Q, prendiamo il vettore incognito


p

1
P = p 2 , otteniamo

x1
x2
x3

e se

p3

[8.64]
Equazioni di riflessioni
rispetto a piani dello
spazio cartesiano

x1
2 p1 x1
S P x 2 = 2 p 2 x 2
x3
2 p3 x3

Sia un arbitrario piano di R3 . Vogliamo determinare le equazioni della riflessione


rispetto a , denotata con S . Un modo geometrico analogo alla costruzione b)
vista per le formule di riflessione in R2 rispetto ad una retta qualsiasi di R2 . Infatti,
si considera un punto arbitrario P di R3 ed in seguito la sua proiezione ortogonale H
su . Il riflesso (o simmetrico) S (P ) sar, per definizione, quellunico punto sulla
retta passante per P e H in posizione tale che H sia il punto medio fra P e S (P ).
Vediamo in dettaglio questa costruzione.
Supponiamo che abbia per esempio equazione cartesiana a X 1 +b X 2 +c X 3 +d = 0
(dalla costruzione, vedremo che immediato considerare il caso analogo quando
dato in equazione parametrica vettoriale). Consideriamo

lequazione parametrica
x1
x2
x3

di R3 e perpendicolare
x

a 
1
a . Tale retta ha equazione parametrica vettoriale X = x 2 + t b , t R. La
c
x3
x

1
proiezione ortogonale di x 2 su si ottiene allora come punto su s per il valore
x3
x

1
a x 1 +bx 2 +c x 3 +d
del parametro t0 := a 2 +b 2 +c 2 . Poich il punto x 2 si ottiene su s per
vettoriale della retta s passante per un punto arbitrario

x3

t = 0, allora il suo simmetrico rispetto a sar determinato come punto su s


per
x1
a x +bx +c x +d
il valore del parametro 2t0 = 2 1a 2 +b2 2 +c 23 . Quindi, avremo che S x 2 =
x3
x



1
a
a x +bx 2 +c x 3 +d
x 2 2 1
b . Sviluppando tutti i conti, otteniamo che le equazioni
a 2 +b 2 +c 2
x3

per tale riflessione sono:


2 2 2
2a b
b +c a

2
2 +c 2
x1
a 2 +b 2 +c 2
a +b
2a b
a 2 +c 2 b 2
S x 2 =
a 2 +b 2 +c 2 a 2 +b 2 +c 2
2a c
2bc
x3
a 2 +b 2 +c 2 a 2 +b 2 +c 2
[8.65]
2a d
+c
a +b
2bd

+
a 2 +b 2 +c 2
2

2c d
a 2 +b 2 +c 2

234

2a c

x1
a 2 +b 2 +c 2
2bc
x2 +
a 2 +b 2 +c 2
2
2
2
x3
a +b c
a 2 +b 2 +c 2

8.6 Trasformazioni dello spazio cartesiano


Alcune affinit fondamentali del piano cartesiano
Le isometrie dello spazio cartesiano R3 descritte precedentemente sono ovviamente
anche affinit di R3 . Come fatto per R2 , consideriamo ora le equazioni di due tipi
fondamentali di affinit lineari che non sono isometrie lineari.
definizione 8.19 Siano , e

R+ . Denotiamo con D,, laffinit lineare

Dilatazioni lineari

definita da
[8.66]



x1
x1
0 0
D,, x 2 = 0 0 x 2
0 0
x3
x3

Una tale trasformazione viene chiamata dilatazione lineare. Notare che quando =
= abbiamo in particolare unomotetia di modulo positivo (par. 6.4). Ovviamente quando , e sono negativi, la trasformazione D,, verr detta contrazione
lineare.
Notare che per esempio, quando , , sono diversi da 1 ed almeno due diversi
fra loro, la dilatazione lineare D,, non conserva n gli angoli n tanto meno le
lunghezze. Pertanto un sicuro esempio di affinit lineare che non unisometria
lineare. Se invece = = R+ , nel qual caso D,, unomotetia di modulo positivo, allora gli angoli vengono conservati. Ci che non viene conservata la
lunghezza.
definizione 8.20 Siano , ,

R. Denotiamo con T,, laffinit lineare

Deformazioni lineari

definita da

[8.67]



x1
x1
1
T x 2 = 0 1 x 2
0 0 1
x3
x3

Come nel caso di R2 , una tale trasformazione viene chiamata deformazione lineare (o
shear). Ovviamente, se (, , ) = (0, 0, 0), una deformazione lineare non conserva
mai n angoli n tantomeno lunghezze. Questi sono ulteriori esempi di affinit lineari
che non sono isometrie lineari. Per quanto dimostrato nella Proposizione 6.13, sia le
dilatazioni che le deformazioni lineari conservano lorientazione di basi dello spazio
vettoriale R3 . Dalla Proposizione 8.3-(ii) e dallOsservazione 8.2, le deformazioni
lineari conservano anche i volumi; invece le dilatazioni conservano i volumi se, e
solo se, = 1.
Data una retta r , rispettivamente, un piano nello spazio cartesiano R3 , come trovare lequazione della retta s , rispettivamente, del piano , ottenuti per trasformazione
di r , rispettivamente di , mediante una qualsiasi isometria od una qualsiasi affinit
di R3 ?
235

Trasformati di luoghi
geometrici dello spazio
cartesiano R3

8 Geometria dello spazio cartesiano


La risoluzione di questo problema molto semplice. Per la trasformata di r , basta
considerare due punti arbitrari P e Q distinti su r ; per il trasformato di , basta
considerare tre punti arbitrari e non allineati su , P1 , Q 1 e R 1 . Se f lisometria o
laffinit data dal problema, allora consideriamo i trasformati di questi punti mediante f . Concludiamo calcolando lequazione della retta per i due punti distinti f (P )
e f (Q), per trovare lequazione di s , e lequazione del piano per i tre punti distinti e
non allineati f (P1 ), f (Q 1 ) e f (R 1 ), per trovare lequazione di .
Come nel caso di R2 , questa semplice osservazione ha come conseguenza un fatto
molto importante. Precisamente, ricordando le Definizioni 6.14 e 6.23, si ha:
teorema 8.1

(i)
(ii)

Due qualsiasi rette dello spazio cartesiano R3 sono sempre fra di loro
congruenti (in particolare, affinemente equivalenti);
due qualsiasi piani dello spazio cartesiano R3 sono sempre fra di loro
congruenti (in particolare, affinemente equivalenti).

La dimostrazione concettualmente uguale a quella di Teorema 7.1, pertanto lasciata al lettore per esercizio. In particolare, utilizzando la stessa analisi, abbiamo come
conseguenza:
corollario 8.8 Dato una qualsiasi piano dello spazio cartesiano, esiste sempre

un opportuno
riferimento cartesiano di R3 , con origine O  e coordinate cartesiane


y1
y 2 , in cui lequazione cartesiana di Y = 0.
3
y3

Lequazione cartesiana come sopra viene chiamata lequazione canonica metrica (rispettivamente, affine) dei piani dello spazio cartesiano.
Il precedente corollario asserisce che, quale che sia il piano di partenza, esiste sempre
un riferimento cartesiano in cui questo piano ha unequazione cartesiana pi semplice
possibile.
Come vedremo nel capitolo 13, una propriet analoga varr anche per altre superfici
definite da equazioni polinomiali di secondo grado: le quadriche. Anche in questo
caso, troveremo un metodo per determinare un opportuno riferimento cartesiano in
cui queste superfici abbiano unequazione cartesiana pi semplice possibile. Quello
che non sar pi vero lequivalente del Teorema 8.1: non vero cio che tutte
le quadriche dello spazio sono affinemente equivalenti, e quindi in particolare non
saranno nemmeno congruenti.

236

8.7 Sfere e circonferenze

8.7

Sfere e circonferenze

In questo paragrafo studiamo particolari luoghi geometrici del piano: le sfere e le


circonferenze. Esse sono primi esempi di luoghi geometrici di dimensione 2 e 1,
rispettivamente, che non sono variet lineari in R3 .
Iniziamo con lo studiare alcune propriet geometriche delle sfere. Tali superfici appartengono ad una pi ampia famiglia di superfici di R3 , dette quadriche, che verranno
trattate in maggior dettaglio nel capitolo 13.

R3 e sia r R+ . Una sfera S in R3 di


centro C e raggio r il luogo geometrico dei punti dello spazio che hanno
distanza uguale a r da C . In altri termini, i punti P su S sono tutti e soli quei
punti per cui
definizione 8.21 Sia C un punto di

d (P , C ) = r

[8.68]

figura 8.6 La sfera S

Il punto C si dir centro della sfera S .


Sia P =

x2
x3

un punto arbitrario di R3

e sia C =

c2
c3

. Siano P e C i corrispon-

denti vettori dello spazio vettoriale R3 associati a tali punti. Allora, la formula [8.68]
si traduce in ||P C || = r . Passando tutto in componenti, otteniamo la relazione
(x 1 c 1 )2 + (x 2 c 2 )2 + (x 3 c 3 )2 = r 2 . Pertanto, da questultima eguaglianza,
deduciamo che lequazione cartesiana della sfera S di centro C e raggio r lequazione
[8.69]

(X 1 c 1 )2 + (X 2 c 2 )2 + (X 3 c 3 )2 = r 2

che manifestamente un polinomio di secondo grado nelle indeterminate X 1 , X 2 e


X 3 (par. 6.3 per ipersfere in generale).
Ogni altra equazione proporzionale a [8.69] descriver sempre la stessa sfera S . In
particolare, una qualsiasi equazione cartesiana che rappresenta S avr i coefficienti
2
2
2
di X 1 , X 2 e X 3 uguali.
Per determinare equazioni parametriche della sfera di centro C e raggio r , osserviamo
che una tale superficie si otterr per esempio facendo ruotare attorno alla retta X 1
c 1 = X 2 c 2 = 0, che detta asse di rotazione, la semicirconferenza di centro
C e raggio r contenuta nel semi-piano U di R3 definito dalle condizioni x 1 c 1 ,
x 2 = c 2 . Una tale semicirconferenza C + avr equazioni parametriche in R3 date da
X 1 = c 1 + r cos s
[8.70]

X2 = c2

s [/2, /2]

X 3 = c 3 + r sin s
237

8 Geometria dello spazio cartesiano


Sia P un punto arbitrario della semicirconferenza C + . Il piano passante per P e
perpendicolare allasse di rotazione il piano di equazione cartesiana X 3 = c 3 +
r sin s , che taglia lasse di rotazione in un punto H. La distanza di P dallasse di
rotazione, i.e. d (P , H), r  := r cos s . Pertanto, la rotazione di P attorno a H
descrive una circonferenza di centro H e raggio r  , contenuta nel piano X 3 = c 3 +
r sin s . Otteniamo quindi che le equazioni parametriche di S sono:
X 1 = c 1 + r cos s cos t
[8.71]

X 2 = c 2 + r cos s sin t

s [/2, /2],

t [0, 2 )

X 3 = c 3 + r sin s
In relazione alla ben nota applicazione alla sfera terrestre, i parametri s e t vengono anche detti rispettivamente latitudine e longitudine della rappresentazione parametrica di S . Osserviamo che, dato un sistema di equazioni parametriche come in
[8.71], banale trovare lequazione cartesiana di S come in [8.69]: basta portare al
primo membro le coordinate del centro, elevare al quadrato le tre relazioni ottenute
e sommarle fra loro.
Studiamo ora alcune propriet geometriche delle sfere, in particolare quelle propriet
che si possono affrontare dal punto di vista della geometria analitica.
Intersezioni tra sfera
e piano

Data una sfera S ed un piano , vogliamo verificare che abbiamo tre diverse possibilit per la loro eventuale intersezione:

e S si intersecano in pi di un punto. Allora lintersezione S sar


precisamente una circonferenza C , nel qual caso il piano si dice secante S ;
essi si intersecano in un unico punto P . In tal caso il piano si dice piano
tangente a S in P (figura 8.7);
non si intersecano affatto, nel qual caso il piano si dice esterno a S .

Vediamo per quale motivo queste sono effettivamente le uniche possibilit. Fissiamo
un sistema di riferimento cartesiano in cui lorigine di tale riferimento sia il centro
C della sfera S di raggio r e siano x 1 , x 2 e x 3 le coordinate in tale riferimento. Da
figura 8.7 La sfera S ed un
suo piano tangente

[8.69], lequazione di S in tale riferimento X 1 + X 2 + X 3 = r 2 . Pertanto, in forma


vettoriale, questa equazione descritta da
[8.72]

||X ||2 = r 2

Sia ora X = Q + t u + k v, t, k R unequazione parametrica vettoriale del


piano , dove Q un punto e dove possiamo assumere che {u, v} sia una base
ortonormale della giacitura 0 di . Sostituendo tale espressione in [8.72], otteniamo
[8.73]

(t + u, Q)2 + (k + v, Q)2 = r 2 ||Q||2 + u, Q2 + v, Q2

Poich il secondo membro di [8.73] indipendente da t e da k, se tale secondo membro positivo allora [8.73] lequazione di una circonferenza sul piano dato (e
238

8.7 Sfere e circonferenze


questo quindi il caso in cui secante S ). Se invece il secondo membro di [8.73]
nullo, allora lunica soluzione si ha per (t0 , k0 ) = (u, Q, v, Q); in tal caso il
piano tangente a S nel punto P  S , che ha coordinate determinate dai rispettivi valori dei parametri t0 e k0 , i.e. Q  = Q u, Q u v, Q v. Da ultimo, se il
secondo membro di [8.73] negativo, tale equazione non mai soddisfatta, pertanto
non esistono soluzione ed il piano esterno a S .
Osserviamo inoltre, che se il punto Q di appartiene anche a S , i.e. ||Q||2 = r 2 ,
lintersezione determinata da [8.73] si riduce solo al punto Q se, e solo se, valgono
u, Q = v, Q = 0, i.e. se, e solo se, il piano ortogonale al vettore Q =
Q a O che, dalle ipotesi fatte, il raggio vettore della sfera S . In generale avremo
quindi che, data una sfera S di centro C e raggio r , il piano tangente in un punto
Q S il piano passante per Q ed ortogonale alla retta congiungente C e Q.
Pertanto, ricordando [8.32], abbiamo dimostrato anche la seguente:
proposizione 8.15
Sia

e sia Q =

q1
q2
q3

S una sfera di R3 di equazione cartesiana come in [8.69]

S . Allora, unequazione cartesiana del piano tangente a S

in Q :
[8.74]

(q 1 c 1 )(X 1 q 1 ) + (q 2 c 2 )(X 2 q 2 ) + (q 3 c 3 )(X 3 q 3 ) = 0

Da quanto discusso precedentemente, se abbiamo una sfera S di centro C e raggio


r ed un piano che sappiamo essere secante la sfera S , allora lintersezione una
circonferenza C contenuta in . Pertanto, se S ha equazione cartesiana come in [8.69]
e se ha equazione cartesiana per esempio a X 1 + b X 2 + c X 3 + d = 0, le equazioni
cartesiane di C in R3 saranno date dal sistema di equazioni:

a X1 + bX2 + c X3 + d = 0
[8.75]
(X 1 c 1 )2 + (X 2 c 2 )2 + (X 3 c 3 )2 = r 2
Viceversa, supponiamo di avere una circonferenza C in R3 di centro C e raggio r .
Per definizione di circonferenza, essa una curva piana. Quindi esister un piano
di R3 , tale che C . Possiamo scegliere un riferimento cartesiano per R3 tale
che C coincida con lorigine O del riferimento e, dette x 1 , x 2 e x 3 le coordinate di
questo riferimento, il piano coincida con il piano di equazione cartesiana X 3 = 0.
Pertanto, in tale riferimento, possiamo ottenere la circonferenza C con le equazioni
cartesiane:

X3 = 0
[8.76]
2
2
X1 + X2 = r 2
infatti la seconda equazione del sistema [8.76] e proprio lequazione cartesiana di C
come in [7.56] nel piano coordinato (x 1 , x 2 ).
239

Circonferenze in R3

8 Geometria dello spazio cartesiano

Osservazione 8.14
Notiamo che lequazione X1 2 +X2 2 = r 2 della circonferenza
nel piano coordinato (x1 , x2 ) letta in R3 non lequazione
cartesiana di una curva ma lequazione cartesiana di una
supercie, dato che le sue soluzioni dipendono da
due para

metri indipendenti e t: ogni punto della forma

r cos
r sin
t

cilindro circolare retto  che ha come curva base la circonferenza C in [8.76] e, per ogni punto P di C , la retta passante
per P e parallela allasse x3 (detta generatrice del cilindro
passante per P) contenuta in . In

altre parole, se pren-

, diamo per esempio il punto P =

r
0
0

in R3 , il cilindro 

con , t R, soddisfano tale equazione. Precisamente, il si ottiene facendo ruotare attorno allasse x3 la generatrice g
luogo dei punti di R3 che soddisfano questa equazione un di equazioni cartesiane X1 r = X2 = 0.

Ovviamente, per ottenere la circonferenza C nel medesimo riferimento, potevamo


equivalentemente considerare la sfera S di centro O e raggio r intersecata con il
piano X 3 = 0, che fornisce le equazioni cartesiane

X3 = 0
[8.77]
2
2
2
X1 + X2 + X3 = r 2
immediato verificare che [8.77] equivalente a [8.76].
Pertanto, data una circonferenza C in R3 , impossibile descrivere C mediante ununica equazione di secondo grado ma abbiamo bisogno di almeno due equazioni indipendenti. Inoltre, il sistema di due equazioni indipendenti che determina C si pu
sempre ottenere considerando il sistema tra lequazione cartesiana del piano contentente C e lequazione cartesiana di una sfera avente medesimo centro e medesimo
raggio di C .
Centro e raggio
di una circonferenza
sezione in R3

Dati una sfera S , di centro C e raggio r , ed un piano secante S (ma non necessariamente passante per C ) come possiamo calcolare il centro ed il raggio della
circonferenza sezione C = S ?
Se passa per C , la circonferenza sezione C sar una circonferenza massima (o equatoriale), i.e. di raggio massimo su S : C avr centro C e raggio r .
Se invece non passa per il centro di S (figura 8.8), possiamo usare le seguenti
procedure:

figura 8.8 La circonferenza


sezione di una sfera ed un
piano

240

per calcolare il centro C  di C , baster determinare il punto di intersezione


tra il piano e la retta s , passante per il centro C della sfera e perpendicolare
a ;
per determinare il raggio r  di C , usiamo il Teorema di Pitagora. Sia P un
qualsiasi punto su C . Il raggio r  pertanto sar d (C  , P ). Per determinare tale
distanza, osserviamo che il segmento C  P cateto del triangolo rettangolo
di vertici C , C  e P (dove langolo /2 langolo in C  tra i segmenti C C 

8.7 Sfere e circonferenze


e C  P ). Pertanto, poich d (C, P ) = r e poich d (C, C  ) si calcola semplicemente con la formula della distanza punto-piano d (C, ) in R3 , abbiamo
che (r  )2 = r 2 d (C, )2 .
Esempio 8.8 Centro e raggio di una circonferenza in R3
Determiniamo il centro e il raggio della circonferenza C di equazioni cartesiane
2

2X1 + 2X2 1 = X1 + X2 + X3 1 = 0
La sfera S centrata in O e ha raggio unitario. Il piano , di equazione cartesiana 2x1+2X2+
1 = 0, non passa per O. La retta per O perpendicolare a ha equazioni parametriche X1 = t,
X2 = t, X3 = 0, t R. Pertanto, sostituendo nellequazione di , il centro C si ottiene per il
1/4

valore del parametro t0 = 14 , i.e. C = 1/4 . Applicando la formula di distanza punto-piano


0


2
14
|1|
2
[8.53], abbiamo d(O, ) = = 4 . Quindi, r = 1 16
= 4 il raggio di C .
8

Supponiamo ora di avere una retta s ed una sfera S . Vogliamo vedere come sono le
loro possibili intersezioni. Poich una qualsiasi retta di R3 determinata come intersezione di due piani incidenti, allora possiamo utilizzare quanto discusso precedentemente sullintersezione tra una sfera ed un piano. Infatti, ponendo s = , dove
e due qualsiasi piani del fascio proprio di asse s , le possibilit sono le seguenti:
s e S si intersecano in esattamente due punti distinti, i.e. S s = {Q 1 , Q 2 };
in tal caso s si dir retta secante la sfera S . Tale eventualit accade quando ambedue i piani e sono secanti S . In particolare, le circonferenze sezionali
C := S e C := S sono tali che C C = {Q 1 , Q 2 };

s e S si intersecano in un unico punto P . In tal caso la retta s si dice tangente


a S in P . Questo accade quando uno dei due piani che determinano s , per
esempio , coincide con il piano tangente a S nel punto P e la retta s passa
per P ed contenuta in ; in altre parole, s intersezione del piano tangente
a S in P e di un arbitrario piano appartenente alla stella di piani per
il punto P . In particolare, la retta s sar la retta tangente alla circonferenza
sezionale C := S in P ;

s e S non si intersecano affatto, nel qual caso la retta s si dice esterna a S . Ci


accade quando almeno uno dei due piani che determinano s esterno a S .
Per vedere le tre possibilit da un punto di vista computazionale, supponiamo che
come in [8.69] e che la retta s abbia equazioni
la sfera S abbia equazione
p
cartesiana
 
1
l
parametriche X = p 2 + t m , t R. Per determinare le eventuali intersezioni

p3

tra s e S , basta sostituire nellequazione cartesiana di S le relazioni che si ottengono


dalle tre equazioni parametriche di s , ottenendo cos:
[8.78]

( p 1 c 1 + l t)2 + ( p 2 c 2 + mt)2 + ( p 3 c 3 + nt)2 = r 2


241

Intersezioni tra sfera


e retta

8 Geometria dello spazio cartesiano


Pertanto, [8.78] determina unequazione di secondo grado in t, della forma t 2 +
t + = 0, dove il coefficiente direttore = l 2 + m 2 + n 2 = 0. Tale equazione
di secondo grado avr quindi o due soluzioni reali e distinte, o due soluzioni reali e
coincidenti oppure nessuna soluzione reale a seconda del segno del suo discriminante
 := 2 4 .
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).

Soluzioni

Quesiti ed esercizi
metriche della retta che si ottiene applicando R/2,v
1.
3
Nello spazio cartesiano R sia il piano di equazione cara r.
tesiana X1 + X2 = 1 e sia r la retta di equazioni cartesiane

4.
X1 + X2 + 2X3 = 0
Nello spazio cartesiano R3 con riferimento cartesiano orX2 + X3 = 1
tonormale (O, e), dove e la base canonica, siano  e r

cartesiane, rispettivamen(i)
trovare le equazioni cartesiane della retta r , che il piano e la retta di equazioni

X1 +X2 +2X3 = 0
proiezione ortogonale di r su ;
te, X1 + X2 + X3 = 0 e
. Sia
X2 +X3 = 1
(ii)
calcolare le equazioni parametriche della retta
S (r), che la retta ottenuta per riessione rispetto S la riessione rispetto al piano . Calcolare le equazioni parametriche della retta m = S (r), riessa di r
al piano della retta r.
rispetto a .
2.

5.
X1 X2 = 1
3
ed il piano Nello spazio vettoriale R sia U il sottospazio
Sono assegnate la retta r :
1vettoriale,

dato

2
X3 = 0
in equazione parametrica vettoriale X = s 2 + t 1 ,
 : X1 + 2X2 X3 = 0:
1
0
s, t R. Determinare una base ortonormale b di R3 , positi(i)
determinare il piano  contenente r ed ortogonale
vamente orientata ed avente i primi due versori appartenenti
a ;
ad U.
(ii)
determinare la retta s , proiezione ortogonale di r su
6.
;
Nello spazio cartesiano R3 , sia dato il piano di equazione
1

(iii)
determinare langolo convesso (r, s) tra r e s.
cartesiana 2X1 X2 + 3X3 = 0 ed un suo punto P = 5 .
3.
1
1

Trovare lequazione del fascio di rette proprio contenuto nel


Sia l = Lin(v) la retta vettoriale, dove v = 1 rispetto
piano e di centro P.
1
7.
alla base e:

(i)
(ii)

3
scrivere le formule per la rotazione R/2,v di angolo Dati i tre punti in R , A =

/2 attorno alla retta vettoriale l orientata con v;


(i)
sia
1r
la retta
2
di equazioni parametriche X =
(ii)
1 +t 1 , t R. Calcolare le equazioni para0

242

0
1
0

,B=

1
1
1

,C=

2
0
1

vericare che i tre punti non sono allineati;


scrivere lequazione dellunica circonferenza C passante per i 3 punti.

9
Applicazioni lineari
9.1

Denizioni ed esempi

Le funzioni (equivalentemente, applicazioni) f : V W da uno spazio vettoriale


V ad uno spazio vettoriale W, possono essere di diversi tipi, come naturale aspettarsi. Quelle che qui ci interessano si chiamano applicazioni lineari e sono soggette a
particolari condizioni che ne rendono pi semplice lo studio. Le applicazioni lineari
sono strettamente collegate, come molte altre nozioni introdotte in questo testo, alla
teoria dei sistemi di equazioni lineari ed alle matrici.
Prima di introdurre la definizione di applicazione lineare sar istruttivo fare qualche
considerazione sul caso in cui V = Rq e W = R p e cio sulle funzioni f : Rq
Rp.
Una funzione f : Rq R p di solito definita mediante p equazioni
Y1 = F1 (X 1 , . . . , X q ), . . . , Y p = F p (X 1 , . . . , X q )
Ci vuol dire che:

Y1 , . . . ,Y p e X 1 , . . . , X q sono indeterminate;
F1 (X 1 , . . . , X q ), . . . , F p (X 1 , . . . ,X q ) sono opportune espressioni in X 1 , . . . ,
. . . , Xq;
Fi (v1 , . . . , vq ) un ben definito numero reale per ogni q -upla (v1 , . . . , vq )
Rq ;
f definita nel modo seguente: v = (v1 , . . . , vq ) Rq , f (v) = (F1 (v1 , . . . ,
vq ), . . . , F p (v1 , . . . , vq )).

Nel seguito diremo che f definita dal sistema di equazioni


Y1 = F1 (X 1 , . . . , X p ), . . . , Y p = F p (X 1 , . . . , X q )
Diremo anche, indicando Fi (X 1 , . . . , X p ) con Fi , che le equazioni di f sono F1 , . . . ,
Fp.
Queste ultime possono essere, evidentemente, del tipo pi vario. Per fissare le idee si
considerino, tra gli innumerevoli esempi, le seguenti funzioni:
1.

la funzione f : R4 R3 definita dal sistema di equazioni



Y1 = X 1 + X 2 + X 3 ,

Y2 =

X 1 + X 2,

Y3 = log

1
1+

2
X1

243

9 Applicazioni lineari
2.

la funzione g : R5 R5 definita dal sistema di equazioni


Y1 =| X 1 X 2 X 3 X 4 X 5 |,
Y3 = X 3 ,

3.

Y4 =

1
2

1 + X1

Y5 = 3

la funzione h : R3 R2 definita dal sistema di equazioni


Y1 = X 1 + 2X 2 X 3 ,

4.

Y2 = sin(X 1 ),

Y2 = 3X 1 + X 2

1
X3
2

la funzione i : R3 R2 definita dal sistema di equazioni


Y1 = X 1 + X 3 + 1,

Y2 = X 1 + X 2

h ed i hanno la particolarit che le loro equazioni sono tutte equazioni lineari. Precisamente le equazioni di h sono equazioni lineari omogenee. Pi in generale possiamo
allora considerare tutte quelle funzioni a : Rq R p definite da un sistema di
equazioni lineari omogenee e cio da equazioni
Y1 = a 11 X 1 + + a p1 X q , . . . , Y p = a p1 X 1 + + a pq X q
dove i coefficienti a i j sono numeri reali. Le funzioni definite come a sono, come
avremo modo di vedere, proprio le applicazioni lineari dallo spazio vettoriale Rq allo
spazio vettoriale R p .
Pi in generale vedremo che lo studio di unapplicazione lineare tra due spazi vettoriali qualsiasi di dimensione finita, V e W, sempre riconducibile allo studio di un
sistema di equazioni come quelle precedenti.
definizione 9.1 Siano V e W due spazi vettoriali. Una funzione f : V W
una applicazione lineare se sono soddisfatte le seguenti propriet:

(AL 1)
(AL 2)

a , b V, f (a + b) = f (a ) + f (b);
a V e R, f (a ) = f (a ).

f si dir compatibile con la somma di vettori se vale (AL1) e compatibile con


la moltiplicazione di un numero reale per un vettore se vale (AL2).
Cominciamo a vedere alcuni esempi molto semplici di funzioni f : V W ed il
loro comportamento rispetto alle propriet (AL1) e (AL2):
Esempio 9.1 Particolari applicazioni
1.

244

Funzione nulla. La funzione o : V W che ad ogni v V associa il vettore nullo 0W


di W si dice funzione nulla da V a W. Si verica facilmente che o unapplicazione
lineare.

9.1 Denizioni ed esempi


2.

3.

Funzioni costanti. Una funzione f : V W si dice costante se f(v ) costantemente


lo stesso vettore c, qualunque sia v V. Se c = 0W f la funzione nulla da V a W.
Se c = 0W , f non soddisfa (AL1). Infatti in tal caso si ha f(a + b) = c = c + c =
f(a )+f(b), qualunque siano a, b V. In particolare f non unapplicazione lineare
se c = 0W . Altrettanto facilmente si prova che per f non vale (AL2).
Moltiplicazione per una costante k. Fissato k R consideriamo f : V V la
funzione cos denita: v V, f(v ) = kv. f una applicazione lineare, valgono
infatti:
(AL1)
(AL2)

4.

a, b V, f(a ) + f(b) = ka + kb = k(a + b) = f(a + b);


a V e R, f(a ) = ka = f(a ).

Se k = 0, f la funzione nulla. Se k = 1, f la funzione identit cio f(v ) = v.


Applicazioni lineari da R a R. R, con le usuali operazioni di somma e moltiplicazione, uno spazio vettoriale. Non difcile capire che tipo di funzione unapplicazione lineare f : R R; 1 infatti un vettore di R. Sia allora k = f(1) e sia x
un qualsiasi altro elemento di R. Poich f soddisfa (AL2) abbiamo f(x) = f(x1) =
xf(1) = kx. Le applicazioni lineari f : R R sono dunque quelle semplicissime
funzioni che sono denite da unequazione del tipo Y = kX.

Quasi sempre avremo a che fare con applicazioni lineari f : V W, dove V ha


dimensione finita ed non nullo. In tal caso molto conveniente fissare una base
di V per capire in concreto il funzionamento di f . In proposito le osservazione pi
importanti sono enunciate nel lemma e nel teorema successivi.
lemma 9.1 Sia v 1 , . . . , v n un sistema di generatori di uno spazio vettoriale V e

sia f : V W unapplicazione lineare. Se x = x 1 v 1 + + x n v n , allora


f (x ) = x 1 f (v 1 ) + + x n f (v n ).

Per induzione su n: per n = 1 si ha f (x ) = x 1 f (v 1 ) perch f soddisfa


(AL2). Sia ora n 2 e sia x = x 1 v 1 + + x n v n ; poich f soddisfa (AL1) si ha

Dimostrazione

f (x ) = f (x 1 v 1 + x n1 v n1 ) + f (x n v n )
Daltra parte segue da (AL2) che f (x n v n ) = x n f (v n ) e segue per induzione che x 1 f (v 1 ) +
+ x n1 f (v n1 ) = f (x 1 v 1 + x n1 v n1 ).
Dalle ultime tre uguaglianze segue allora che f (x ) = x 1 f (v 1 ) + + x n f (v n ).

teorema 9.1 Siano b = b 1 , . . . , b n una base di V e w 1 , . . . , w n un sistema di

vettori di W. Allora esiste una ed una sola applicazione lineare f : V W tale


che f (b 1 ) = w1 , . . . , f (b n ) = wn .
245

9 Applicazioni lineari
Inoltre tale f la funzione definita nel modo seguente:
x = x 1 b 1 + + x n b n V,

f (x ) := x 1 w 1 + + x n w n

Sia f : V W la funzione che al vettore x = x 1 b 1 + + x n b n


associa il vettore f (x ) = x 1 w 1 + + x n wn . Allora f soddisfa le propriet (AL1) e (AL2):



xi bi e y =
y i b i , allora x + y = (x i + y i )b i e quindi f (x ) =
(AL1) siano x =



x i wi , f (y ) =
y i wi , f (x + y ) = (x i + y i )wi



(AL2) siano x =
x i b i e R allora x =
x i b i e quindi f (x ) =
x i b i =

x i b i = f (x ).

Dimostrazione

Ci prova che f unapplicazione lineare. Proveremo ora che f (b i ) = wi , i = 1, . . . , n.



A tale scopo si noti che b i =
i j b j , dove i j lindice di Kronecker (dopo Definizione

2.2). Dalla definizione stessa di f segue allora f (b i ) = i j w j = wi .
Ci prova lesistenza di unapplicazione lineare f tale che f (b i ) = wi , i = 1, . . . , n.
Proveremo infine che f lunica applicazione lineare con tale propriet. Sia g : V W
unapplicazione lineare con la stessa propriet, dal lemma precedente e dal fatto che g (b i ) =




wi , i = 1, . . . , n, segue allora che g
xi bi =
x i wi , per ogni x =
x i g (b i ) =


x i b i V . Quindi g (x ) =
x i wi = f (x ) e pertanto f = g .


Osservazione 9.1
Il teorema stabilisce che per denire unapplicazione lineare de poi per linearit, infatti per ogni x =

f : V W basta denire quali sono i vettori f(b1 ), . . . , f(bn ), f(x ) = xi f(bi ).
dove b1 , . . . , bn una base di V: automaticamente f si esten-

xibi deve essere

Esercizio 9.1 Alcune applicazioni lineari


1.

Sia b1 , b2 una base di V e sia f : V R3 lapplicazione lineare tale che f(b1 ) =


(1, 1, 1), f(b2 ) = (1, 0, 1). Si calcoli f(x ) per x = b1 + b2 , x = b1 b2 , x = b1 ,
x = 12 b1 + b2 .

2.

Sia e1 , e2 la base canonica di R2 e sia f : R2 R lapplicazione lineare tale che


f(e1 ) = 1 e f(e2 ) = 1. Per ogni vettore x = x1 e1 + x2 e2 si scriva il numero reale
y = f(x ) in funzione di (x1 , x2 ).

3.

Sia e1 , e2 la base canonica di R2 e sia f : R2 R2 l applicazione lineare tale che


f(e1 ) = f(e2 ) = e1 + e2 . Si determini (y1 , y2 ) = f(x ) se x = (x1 , x2 ).

Il discorso iniziato ora verr sviluppato nel paragrafo 9.3, dove lo studio di unapplicazione lineare tra due spazi vettoriali di dimensione finita verr posto in relazione con
lo studio concreto di una matrice e dei sistemi lineari che hanno essa come matrice
dei coefficienti.
246

9.2 Nucleo ed immagine di unapplicazione lineare

9.2

Nucleo ed immagine di unapplicazione lineare

Alcune altre nozioni preliminari sulle applicazioni lineari sono necessarie.


definizione 9.2 Il nucleo di unapplicazione lineare f : V W linsieme
Ker f = {v V | f (v) = 0W }.
definizione 9.3 Limmagine di unapplicazione lineare f : V W linsieme

Im f = { f (v), v V }.

Si tenga ben presente che Ker f V e che invece Im f W.


Osservazione 9.2
Luso di indicare il nucleo di f con Ker f trae origine dalla parola tedesca Kernel, che in tale lingua vuol dire nucleo.

proposizione 9.1

Ker f un sottospazio vettoriale di V e Im f un sottospazio

vettoriale di W.
Siano a , b Ker f allora f (a ) = f (b) = 0W . Poich f unapplicazione lineare, f (a + b) = f (a ) + f (b) = 0W e quindi a + b Ker f . Siano R
e a Ker f , allora f (a ) = f (a ) = 0W = 0W e quindi a Ker f . Ci prova che
Ker f chiuso rispetto alla somma ed alla moltiplicazione di un vettore per un numero reale,
quindi Ker f un sottospazio vettoriale di V .

Dimostrazione

Siano ora c , d Im f , allora c = f (a ) e d = f (b) dove a , b V . Poich f unapplicazione lineare f (a + b) = f (a ) + f (b) = c + d e quindi c + d Im f . Sia R e sia
c = f (a ) Im f , allora c = f (a ) = f (a ) e c Im f . Come nel caso precedente ne
segue che Im f un sottospazio vettoriale di V .

proposizione 9.2 Sia f : V W unapplicazione lineare, allora:

1.
2.

f iniettiva se, e solo se, Ker f = {0V };


f suriettiva se, e solo se, Im f = V .

Dimostrazione
1.

2.

Sia Ker f = {0V } e siano x , y due vettori distinti qualsiasi. Allora x y = 0V e


quindi f (x y ) = f (x ) f (y ) = 0W . Ne segue che f (x ) = f (y ) e che f
iniettiva. Viceversa sia f iniettiva, allora lunico x V tale che f (x ) = 0W 0V e
quindi Ker f = {0V }.
Segue immediatamente dalla definizione di applicazione suriettiva.


247

9 Applicazioni lineari
proposizione 9.3 Sia f : V W unapplicazione lineare. Se V ha dimensione

finita allora Im f ha dimensione finita.

Dimostrazione
Sia v 1 , . . . , v n un sistema di generatori di V , baster provare che i vettori
w1 = f (v 1 ), . . . , wn = f (v n ) costituiscono un sistema di generatori di Im f . Sia c
Im f allora esiste a V tale che c = f (a ) ed inoltre a = a 1 v 1 + + a n v n poich
v 1 , . . . , v n un sistema di generatori di V . Infine, essendo f unapplicazione lineare, si ha
c = f (a 1 v 1 + + a n v n ) = a 1 f (v 1 ) + + a n f (v n ) = a 1 w 1 + + a n wn . I vettori
w1 , . . . , wn costituiscono dunque un sistema di generatori per Im f .

teorema 9.2 Sia f : V W unapplicazione lineare. Se V ha dimensione finita

allora dim V = dim Ker f + dim Im f .

Dimostrazione
Poich V ha dimensione finita anche il suo sottospazio Ker f ha dimensione finita, (Teorema 4.6). Sia s = dim Ker f e sia u 1 , . . . , u s una sua base. Per il
Teorema 4.4 sappiamo che questa pu essere estesa ad una base u 1 , . . . , u s , v 1 , . . . , v t di
V , che avr in particolare dimensione s + t. Dalla proposizione precedente sappiamo che
i vettori 0 = f (u 1 ), . . . , 0 = f (u n ), w1 = f (v 1 ), . . . , wt = f (v t ) costituiscono un
sistema di generatori di Im f . Tra i precedenti vettori i primi s sono uguali al vettore nullo.
Ricordiamo ora che, eliminando il vettore nullo da un sistema di generatori, si ottiene ancora
un sistema di generatori. Quindi i vettori w 1 , . . . , wt sono ancora un sistema di generatori
di Im f . Supponiamo che tali vettori siano linearmente indipendenti, allora essi costituiscono una base di Im f che avr quindi dimensione t. Ci implica il teorema perch allora
dim Im f + dim Ker f = t + s = dim V .
Per completare la dimostrazione rimane quindi da provare che w 1 , . . . , w t sono linearmente
indipendenti. A tale scopo sia 1 w1 + + t wt = 0W ; dobbiamo provare che 1 =
= t = 0. Poich f un applicazione lineare e poich wi = f (v i ) avremo 1 f (v 1 ) +
+ t f (v t ) = f (1 v 1 + + t v t ) = 0W . Dallultima uguaglianza segue che 1 v 1 +
+ t v t appartiene a Ker f ed dunque combinazione lineare di u 1 , . . . , u t , cio vale
1 u 1 + + s u s = 1 v 1 + + t v t , per opportuni i R, 1 i s . Tale
uguaglianza equivale a 1 u 1 + + s u s 1 v 1 t v t = 0V . Si noti che i vettori
u 1 , . . . , u s , v 1 , . . . , v t sono una base di V e quindi linearmente indipendenti. In particolare
segue che 1 = = s = 1 = = t = 0. Ci prova che w1 , . . . , w t sono vettori
linearmente indipendenti di Im f .

definizione 9.4 Unapplicazione lineare f : V W si dice isomorfismo se
iniettiva e suriettiva.

Isomorsmi

Due spazi vettoriali V e W si diranno isomorfi se esiste un isomorfismo f : V W.


248

9.2 Nucleo ed immagine di unapplicazione lineare


Un isomorfismo dunque unapplicazione lineare f : V W che anche una
corrispondenza biunivoca. Per spazi vettoriali di dimensione finita la propriet di
avere la stessa dimensione e la propriet di essere isomorfi sono equivalenti:
teorema 9.3 Due spazi vettoriali di dimensione finita V e W sono isomorfi se, e
solo se, hanno la stessa dimensione.

Se esiste un isomorfismo f : V W si ha Ker f = {0V } e Im f = W.


Dimostrazione
Dal precedente teorema segue allora che dim V = dim Im f + dim Ker f = dim Im f =
dim W. Viceversa sia dim V = dim W = n. Fissate le basi b = b 1 , . . . , b n di V e w =
w 1 , . . . , w n di W consideriamo lapplicazione lineare f : V W tale che f (b i ) = wi .
Tale f un isomorfismo. Infatti Im f generato da f (b 1 ), . . . , f (b n ) che la base w di

W, dunque Im f = W e f suriettiva. Daltra parte sia x =
x i b i Ker f , allora

f (x ) =
x i wi = 0W . Poich w una base ne segue che x 1 = = x n = 0, dunque
Ker f = {0V } e f iniettiva. Pertanto f un isomorfismo.

corollario 9.1 Sia f : V W un isomorfismo. Se v = b 1 , . . . , b n una base

di V allora f (b 1 ), . . . , f (b n ) una base di W.


w = f (b 1 ), . . . , f (b n ) un sistema di generatori di W. Per il Teorema 9.3, dim V = dim W = n. Quindi w un sistema di generatori formato da n = dim W
vettori, dunque una base.


Dimostrazione

Unulteriore applicazione della formula dim V = dim Ker f + dim Im f la formula


di Grassmann. Ricordiamo che, dati i sottospazi S e T di uno spazio vettoriale V ,
sono stati definiti il sottospazio somma S + T ed il sottospazio intersezione S T
(si veda a fine paragrafo 4.2). La formula di Grassmann asserisce quanto segue:
teorema 9.4 Siano S e T due sottospazi di dimensione finita di uno spazio vetto-

riale V , allora dim(S + T ) + dim(S T ) = dim S + dim T

Si consideri lo spazio vettoriale prodotto S T i cui vettori sono le


coppie ordinate (s , t), dove s S e t T (Definizione 4.6). Abbiamo visto che dim S T =
dim S + dim T (a fine paragrafo 4.4). Sia ora f : S T S + T la funzione cos definita:
(s , t) S T, f (s , t) = s t. Tale funzione unapplicazione lineare: ometteremo per
brevit la semplice dimostrazione di questo fatto.

Dimostrazione

Lapplicazione lineare f suriettiva: infatti per ogni x S + T si ha x = s + t per qualche


s S e t T. Ne segue che f (s , t) = x e quindi che Im f = S + T.

249

Formula di Grassmann

9 Applicazioni lineari
Riguardo a Ker f abbiamo: (s , t) Ker f s t = 0 s = t cio (s , t) Ker f
(s , t) = (z, z), dove z S T. Pertanto abbiamo
Ker f = {(z, z), z S T }
Si osservi inoltre che, se z 1 , . . . , z k una base di ST, allora (z 1 , z 1 ), . . . , (z k , z k ) una base
di Ker f . Quindi dim Ker f = dim S T. Applicando la formula del Teorema 9.2, otteniamo
infine dim(S + T) + dim(S T) = dim Im f + dim Ker f = dim S T = dim S + dim T


9.3

Applicazioni lineari e matrici

Le matrici sono lo strumento migliore per studiare unapplicazione lineare f : V


W tra due spazi vettoriali V e W di dimensione finita. Vediamo come si deve procedere per fare di esse un buon uso: innanzitutto necessario fissare una base v =
v 1 , . . . , v q di V ed una base w = w1 , . . . , w p di W. Per ogni j = 1, . . . , q , si considera il vettore f (v j ); tale vettore appartiene a W ed quindi una combinazione
lineare dei vettori della base w: f (v j ) = a 1 j w1 + + a p j w p .
Definiamo la matrice Mw,v ( f ) come quella matrice che ha per j -esima colonna,
1 j q , la colonna delle componenti del vettore f (v j ) rispetto alla base w di
W.
definizione 9.5 Mw,v ( f ) si dice matrice dellapplicazione lineare f rispetto alle

basi v e w.

Una volta definita Mw,v ( f ), vediamo come usare tale matrice per studiare f :
teorema 9.5 Sia Mw,v ( f ) la matrice dellapplicazione lineare f : V W
rispetto alle basi v di V e w di W, come sopra. Siano poi x = x 1 v 1 + + x q v q
e f (x ) = y 1 w1 + + y p w p . Allora vale luguaglianza

y1
x1
.. ..
Mw,v ( f ) . = .
xq
yp

Dimostrazione
[9.1]

250

Si osservi innanzitutto che, per la linearit di f , valgono le uguaglianze



 x1

.
e
f (v 1 ) . . . f (v q ) .. = x 1 f (v 1 ) + + x q f (v q ) = f (x )
xq

9.3 Applicazioni lineari e matrici


[9.2]

w1 . . . w p

y1
..
. = y 1 w1 + + y p w p = f (x )

yp
Daltra parte valgono anche le uguaglianze

[9.3]

w1 , . . . , w p

a 11 . . .a 1q

Mw,v ( f ) = w 1 . . . wq
...
=
a pq . . . a pq


= f (v 1 ) . . . f (v q )


La prima uguaglianza nella [9.3] infatti ovvia e la seconda si verifica direttamente eseguendo
il prodotto della riga (w1 , . . . , wq ) per le colonne della matrice Mw,v ( f ). Sostituendo in
[9.1] la riga ( f (v 1 ), . . . , f (v q )) con (w1 , . . . , w p ) Mw,v ( f ) otteniamo


w1 , . . . , w p


x1
..
Mw,v ( f ) . = f (x )
xq

x
.1
Quindi la colonna di numeri reali Mw,v ( f ) .. la colonna delle componenti di f (x )
rispetto alla base w. Ci prova lasserto.

xq

Descriveremo ora qualche applicazione pratica della formula enunciata nel teorema.
Nel seguito indicheremo sempre con f : V W unapplicazione lineare tra due
spazi vettoriali V e W la cui dimensione finita. Supporremo fissate una base v =
v 1 , . . . , v q di V ed una base w = w1 , . . . , w p di W. Per semplicit di scrittura
porremo A = Mw,v ( f ) ed indicheremo i termini di tale matrice con a i j . Per tutte
le applicazioni considerate proporremo alcuni semplici esercizi od esempi.
Sia b W. Linsieme delle controimmagini di b mediante f linsieme f 1 (b) :=
{t V | f (t) = b}.
1
usando
Non difficile descrivere linsieme
f (b)
la matrice A, si consideri infatti
X1
b1
..
..
il sistema di equazioni lineari A
=
.
. dove b = b 1 w1 + + b p w p .
Xq

bp

Per la formula enunciata nel Teorema 9.5, un vettore t = t1 v 1 + +tq v q appartiene


a f 1 (b) se e solo se la q -upla (t1 , . . . , tq ) una soluzione del precedente sistema.
Le soluzioni del sistema sono le q -uple delle componenti, rispetto alla base
v, dei vettori di f 1 (b).
251

Insieme delle
controimmagini
di un vettore

9 Applicazioni lineari

Esempio 9.2 Controimmagini di un vettore


Sia dimV = 3, dimW = 2 ed inoltre si abbia A =

111
111

. Per descrivere linsieme f 1 (b)

delle controimmagini del vettore b = 3w1 + 3w2 si risolve innanzitutto il sistema




X

1 1 1 1
3
X2 =
1 1 1
3
X3
Le soluzioni del sistema sono le terne (t1 , t2 , 3 t1 t2 ) al variare di t1 , t2 in R. Linsieme
f 1 (b) non linsieme di tali terne ma linsieme di tutti i vettori t1 v1 + t2 v2 + (3 t1 t2 )v3
al variare di t1 , t2 in R. Il lettore verichi per esercizio che f 1 (w1 ) = e che f 1 (0) =
{t1 v1 + t2 v2 (t2 + t3 )v3 | t1 , t2 R}.

Calcolo del nucleo di f

Per determinare Ker f si osservi innanzitutto che Ker f = f 1 (0).


Tale uguaglianza segue infatti immediatamente dalle definizioni di nucleo di una
applicazione lineare e di insieme delle controimmagini di un vettore. Per descrivere
Ker f baster dunque procedere come nel caso precedente, tenendo conto che questa
volta il precedente vettore b il vettore nullo. Di conseguenza il sistema
che
dobbiamo

X1
0
.
...
= .. .
risolvere per determinare Ker f ora il sistema omogeneo A
Xq

Le soluzioni di tale sistema sono le q -uple delle componenti dei vettori t Ker f .
Esempio 9.3 Vettori nel nucleo di f
Sia per esempio V = P2 lo spazio vettoriale dei polinomi a coefcienti reali e di grado 2 in
una indeterminata T. Siano poi v la base di V costituita dai polinomi v1 = 1, v2 = T, v3 = T 2
e w la base costituita dai polinomiw1 = 1 + T,w2 = 1 T,w3 = 1 + T 2 . Supponiamo inne
che la matrice di f rispetto alle basi v e w sia

0
1 1

Mw,v (f ) = A = 1
0
2
1 2
0
Per determinare il nucleo di f prima si risolve il sistema omogeneo X2 X3 = X1 +
2X3 = X1 2X2 = 0, la cui matrice dei coefcienti A. Le soluzioni del sistema sono le
terne ( 2k , k, k), k R. Questo vuol dire che i vettori del nucleo sono esattamente i vettori


2
k
1
v
+
kv
+
kv
,
con
k

R
,
e
cio
i
polinomi
k
+
T
+
T
, k R. I vettori di Ker f sono
2
3
2 1
2
tutti i multipli di 12 + T + T 2 . Tale polinomio una base di Ker f che perci ha dimensione 1.

252

9.3 Applicazioni lineari e matrici


Abbiamo gi dimostrato altrove che il sistema di vettori f (v 1 ), . . . , f (v q ) un sistema di generatori di Im f . allora naturale chiedersi: come si fa a costruire una base
di Im f a partire da f (v 1 ), . . . , f (v q )?
Proponiamo due metodi per risolvere il problema, basati su risultati gi dimostrati in
precedenza ed applicabili non solo a questo caso ma a qualunque sistema di generatori
di uno spazio vettoriale:
1.
si fissa su W un prodotto scalare e si applica il procedimento di Gram-Schmidt
(Teorema 5.3) ai vettori f (v 1 ), . . . , f (v q ). In tal modo si otterr una base
ortogonale di Im f ;
2.
si applica il procedimento di Gauss-Jordan (paragrafo 1.3) alla matrice trasposta
di A, i.e. a t A. Si otterr in tal modo da t A una matrice ridotta per righe B.
Il numero r di righe non nulle di B il rango sia di A sia di B. Se r = 0, A
e B sono nulle: in tal caso Im f = {0} e non c altro da dire. Supporremo
quindi r 1. B ci d tutti i dati necessari per costruire immediatamente
una base di Im f . Siano infatti s 1 , . . . , s r i vettori non nulli della colonna di

w1
..
vettori B
. . Vale allora la seguente
wp

proposizione 9.4 Il precedente sistema di vettori s 1 , . . . , s r una base di Im f .

Dimostrazione Dobbiamo provare che s = s 1 , . . . , s r un sistema di generatori di Im f .


A tale scopo si noti che, essendo B ottenuta da t A con il procedimento di Gauss-Jordan, si
ha B = P t A dove P una matrice invertibile (Teorema 2.3). Il Teorema 9.6, successivo
a questa proposizione, implica allora che s 1 , . . . , s r costituiscono un sistema di generatori
di Im f . Per provare che i vettori di s sono linearmente indipendenti consideriamo una loro
combinazione lineare nulla 1 s 1 + + r s r = 0. Tale combinazione si pu riscrivere come
w
..1
= 0, dove Br indica la sottomatrice di B formata dalle righe non nulle.
( 1 ...r ) Br
.
wp

Poich i vettori w 1 , . . . , w p sono linearmente indipendenti, la riga (1 . . . r )Br la riga


nulla. Passando alle matrici trasposte ci equivale a dire che (1 , . . . , r ) una soluzione

X1
0
.
..
del sistema omogeneo in r indeterminate t B
= .. . Daltra parte t B ha rango r ,
.
Xr

come B, quindi tale sistema omogeneo ha ununica soluzione che quella nulla. Ne segue che
1 = = r = 0 e che i vettori s 1 , . . . , s r sono linearmente indipendenti. Ci completa
la dimostrazione.

teorema 9.6 Sia w = w 1 , . . . , w p una base di uno spazio vettoriale W e siano


w1
u1
.. ..
M . = .

wp

ur


w1
t1
.. ..
N . = .
wp

tr

253

Calcolo di una base


di Im f

9 Applicazioni lineari
Sia poi M = P N, dove P una matrice invertibile. Allora i sistemi di vettori
u = u 1 , . . . , u r e t = t 1 , . . . , t r generano lo stesso sottospazio vettoriale di W.
Dimostrazione

sufficiente provare che i vettori


di u sono combinazioni
w lineari
dei

u1
t1
1
..
..
..
vettori di t e viceversa. A tale scopo basta osservare che . = P N
=P . ,
.
ur

wp

tr

in quanto M = P N. In particolare ne segue che il vettore u i uguale al prodotto della riga


i-esima di P per la colonna dei vettori t 1 , . . . , t r , i = 1, . . . , r . Pertanto u i combinazione
lineare dei vettori di t. Daltra parte P invertibile e quindi vale anche luguaglianza N =
P 1 M. Applicando lo stesso argomento si pu allora dimostrare che ogni ti combinazione
lineare dei vettori di u. (Per ottenere la dimostrazione basta scambiare u con t e M con N
nel testo precedente e sostituire P con P 1 ).


Calcolo di una base


di Ker f

La dimensione del nucleo di f si ottiene dalla formula dim Ker f + dim Im f =


dim V e dalla formula dim Im f = r (A), dove r (A) il rango di A, dimostrata
pocanzi. Poich dim V = q abbiamo dim Ker f = q r .

Per determinare una base di Ker f conviene innanzitutto risolvere il sistema A

0
.
= .. .

X1

..
.

Xq

Poich A ha rango r le soluzioni (u 1 , . . . , u q ) del precedente sistema dipendono da


q r parametri indipendenti t1 , . . . , tq r che variano in R:
u 1 = c 11 t1 + + c 1q r tq r , . . . , u q = c q ,1 t1 + + c qr tq r
Sappiamo che ogni soluzione (u 1 , . . . , u q ) determina un vettore u =
Ker f e viceversa.

u i v i di

Sia C j = (c 1 j , . . . , c q , j ) la soluzione del sistema ottenuta ponendo t j = 1 e ti = 0


per i = j e sia u j = c 1 j v 1 + + c q j v q , j = 1, . . . , q r .
Al variare di t1 , . . . , tq r in R il vettore
u = t1 u 1 + + tq r u q r =
= (c 11 t1 + +c 1q r tq r )v 1 + +(c q ,1 t1 + +c q ,q r tq r )v q
descrive evidentemente tutti i vettori di Ker f . Quindi u = u 1 , . . . , u q r un sistema di q r generatori di Ker f . Poich dim Ker f = q r , u una base di
Ker f .
254

9.4 Operazioni tra applicazioni lineari

9.4

Operazioni tra applicazioni lineari

Siano f : V W e g : V W due applicazioni lineari; lapplicazione lineare


somma ( f + g ) : V W la funzione cos definita: x V, ( f + g )(x ) =
f (x ) + g (x ).
Omettiamo per brevit la semplice verifica del fatto che ( f + g ) unapplicazione
lineare. altrettanto semplice verificare che, se V e W hanno dimensione finita,
allora la matrice associata a ( f + g ) rispetto alle basi v e w Mw,v ( f + g ) =
Mw,v ( f ) + Mw,v (g ).
Nel seguito useremo le notazioni ( f + g ) e f + g in modo equivalente.
In modo del tutto analogo il prodotto di unapplicazione lineare per una costante k R:
si indica con k f : V W ed definito come la funzione che ad ogni vettore
x V associa il vettore k f (x ). Se v e w sono rispettivamente basi di V e W allora
Mw,v (k f ) = k Mw,v ( f ).
Va da s che potremo considerare nel seguito applicazioni lineari a f + bg , dove f e
g sono come sopra e a , b sono costanti.
Un altro tipo di operazione che avremo modo di usare la composizione di applicazioni
lineari. Siano f : U S e g : S T due applicazioni lineari. La funzione
composta g f : U T la funzione che cos definita: u U, f g (u) = f (s ),
dove s = g (u).
In altre parole prima si determina limmagine f (u) del vettore u mediante f e
poi limmagine del vettore f (u) mediante g . Anche in questo caso ometteremo per
brevit la tediosa dimostrazione della seguente
Siano f : U S e g : S T due applicazioni lineari;
allora la funzione composta g f unapplicazione lineare.
proposizione 9.5

Il successivo teorema mette in relazione la composizione di applicazioni lineari con il


prodotto di matrici. La definizione di prodotto di matrici (par. 2.1), che certamente
sar sembrata un po astrusa al lettore, trova qui una minima motivazione.
teorema 9.7 Siano f : U S e g : S T due applicazioni lineari tra spazi
vettoriali di dimensione finita e siano u, s , t basi di U, S, T rispettivamente. Vale
allora luguaglianza Mt,u (g f ) = B A, dove A = Ms ,u ( f ) e B = Mt,s (g ).

Siano A = (a i j ) e B = (b ki ), con j = 1, . . . , p, i = 1, . . . , q ,
k = 1, . . . , r , dove p, q , r sono, rispettivamente, le dimensioni di U, S, T. Siano u =

Dimostrazione

255

9 Applicazioni lineari
u 1 , . . . , u p , s = s 1 , . . . , s q e t = t 1 , . . . , t r le basi date. Abbiamo allora
f (u j ) = a 1 j s 1 + + a q j s q

g (s i ) = b 1i t 1 + + br i t r

e quindi

q
q
q
r




ai j s i =
a i j g (s i ) =
ai j
b ki t k
g f (u j ) = g
i=1

i=1

i=1

k=1

Raccogliendo i coefficienti di t 1 , . . . , t r si ottiene

g f (u j ) =

q


q

b 1i a i j t 1 + +
br i a i j t r

i=1

i=1

Ora i coefficienti di t 1 , . . . , t r nella precedente espressione sono le componenti del vettore


g f (u i ) rispetto alla base t, e quindi sono i termini della i-esima colonna della matrice
Mt,u (g f ). Daltra parte il coefficiente b k1 a 1 j + + b kq a q j il termine di posto k, j
della colonna della matrice prodotto B A. Ne segue che B A e Mt,u (g f ) hanno la stessa
colonna j -esima, per ogni j = 1, . . . , p. Quindi B A = Mt,u (g f ).


Concludiamo questa sezione descrivendo come cambia la matrice Mw,v ( f ) cambiando la scelta delle basi v e w, rispettivamente, su V e su W.
Siano u e v basi di uno spazio vettoriale V e sia Pvu la matrice del
cambiamento di base da v ad u (Definizione 4.26). Sia poi id V : V V la
funzione identit. Allora Mv,u (id V ) = Pvu .

lemma 9.2

Dimostrazione
Sia u = u 1 , . . . , u q ; basta ricordare che la j -esima colonna di Pvu la
colonna delle componenti del vettore u j rispetto a v. Daltra parte la j -esima colonna di
Mv,u (id V ) la colonna delle componenti di id V (u j ) rispetto a v. Poich id V (u j ) = u j le
due matrici sono la stessa.

In altre parole la matrice del cambiamento di base da v ad u non altro che la matrice
associata allapplicazione lineare id V rispetto alle basi u e v.
teorema 9.8 Sia f : V W unapplicazione lineare tra due spazi di dimensione

finita. Siano v e v  basi di V e w e w basi di W. Allora si ha


Mw ,v  ( f ) = Pw w Mw,v ( f )Pvv 

dove Pw w e Pvv  sono, rispettivamente, le matrici dei cambiamenti di base da w 


a w su W e da v a v  su V .
256

9.4 Operazioni tra applicazioni lineari


Dimostrazione

Consideriamo il diagramma
f

(V, v  ) (W, w )
id V
id W
(V, v)

(W, w)

dove si sono esplicitate le basi considerate per dominio e codominio delle varie applicazioni.
ovvio che vale f = id W f id V . Segue allora dal Teorema 9.7 e dal Lemma 9.2 che
Mw ,v  ( f ) = Mw ,w (id W )Mw,v ( f )Mv,v  (id V ) = Pw w Mw,v ( f )Pvv 


Ricordiamo che se f : V W unapplicazione lineare e se v = v 1 , . . . , v q e


w = w 1 , . . . , w p sono, rispettivamente, una base per V ed una per W, allora t =
f (v 1 ), . . . , f (v q ) un sistema di generatori di Im( f ) W. Se inoltre Mw,v ( f ) =
A, allora dim(Im f ) = r (A) (Proposizione 9.4). Poich dim(Im f ) non dipende
per dalla scelta delle basi v e w, il rango di ogni matrice Mw,v ( f ) che rappresenta
f in due qualsiasi basi v e w di V e di W, rispettivamente, un invariante di f . In
altri termini per ogni scelta di basi v, v  di V e w, w di W, si ha r (Mw ,v  ( f )) =
r (Mw,v ( f )).
Pertanto, possiamo dare la seguente
definizione 9.6 Sia f : V W unapplicazione lineare tra due spazi di di-

mensione finita. Si definisce il rango di f , denotato con r ( f ), la dimensione del sottospazio vettoriale Im f W. In particolare, r ( f ) = r (A), dove
A = Mw,v ( f ) la matrice che rappresenta f in una qualsiasi base v di V ed
una qualsiasi base w di W.

Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).

Soluzioni

Quesiti ed esercizi
1.
Siano dati gli spazi vettoriali R2 e R3 e siano e, la base canonica su R2 , ed e , la base canonica su R3 . Sia data la funzione f : R2 R3 denita in modo che, per ogni vettore
x = (x1 , x2 ) R2 , espresso nelle sue componenti in base e,
si abbia
f(x ) = (x1 + 2x2 , 3x2 , x1 x2 )

dove il secondo membro lespressione in componenti


rispetto alla base e :
(i)
(ii)
(iii)

vericare che f unapplicazione lineare;


determinare limmagine del vettore v = (1, 2);
determinare la matrice Me,e(f ) che rappresenta f
nelle due basi date.

257

9 Applicazioni lineari
w = w1 ,w2 ,w3 una base di W. Sia f : V W lapplicazione
2.
Siano V e W due spazi vettoriali di dimensioni, rispettiva- lineare denita sulle basi date in tal modo:
mente, 3 e 2. Siano date in seguito v = v1 , v2 , v3 una base di
f(v1 + v3 ) =w1 +w2 , f(v2 ) =w3 ,
V e w =w1 ,w2 una base di W. Sia f : V W lapplicazione
f(v2 v3 ) =w1 w2 +w3
lineare denita sulle basi date in tal modo:
Determinare la matrice Mw,v (f ) e stabilire se f un
isomorsmo.
f(v3 ) = 2w2
5.
3
2
Determinare la matrice Mw,v (f ) e le equazioni di f (rispetto Sia f : R R lapplicazione lineare di spazi vettoriali, la
cui matrice rappresentativa
rispetto alle rispettive basi canoalle basi date).


121
niche A = 1 2 1 . Dati i vettori u = (2, 1) ew = (3, 3),
3.
f(v1 ) =w1 + 2w2 , f(v2 ) = 2w1 ,

Siano dati gli spazi vettoriali R2 e R3 e siano e, la base trovare se esiste f 1 (u ) e f 1 (w ).


canonica su R2 , ed e , la base canonica su R3 . Sia data 6.
lapplicazione lineare f : R3 R2 denita da:
Nello spazio vettoriale R5 , dotato della base canonica e,
siano assegnati i sottospazi vettoriali U e W rappresentati,
rispettivamente, dai sistemi di equazioni
f((1, 0, 0)) = (1, 1), f((0, 1, 0)) = (1, 0),
f((0, 0, 1)) = (1, 1)

X1 X5 = X2 + X3 = 0 e
X1 X2 X3 + X4 X5 = X3 = X4 = 0

in cui tutte le componenti sono rispetto alle due basi date:


(i)
(ii)

(iii)
(iv)

determinare la matrice Me, e(f );


determinare la dimensione dei sottospazi Ker f
R3 e Im f R2 e stabilire se f iniettiva e se f
suriettiva;
determinare una base per i sottospazi Ker f R3 e
Im f R2 ;
dato il sottospazio vettoriale W = Lin((1, 0, 1),
(1, 1, 0)) determinare f(W ).

(i)
(ii)

determinare generatori per U e per W;


determinare generatori ed equazioni, rispetto alla
base e, che rappresentino U + W.

7.
Sia f : R3 R2 lapplicazione lineare di spazi vettoriali, la cui matrice rappresentativa

 rispetto alle rispettive basi canoniche A = 12 01 10 . Siano date ora, rispettiva-

mente, b = (0, 1, 0), (1, 0, 1), (0, 1, 1) una base per R3


e c = (1, 1), (0, 1) una base per R2 , dove le componen4.
Siano V e W due spazi vettoriali entrambi di dimensione ti dei precedenti vettori sono espresse rispetto alle relative
3. Siano date in seguito v = v1 , v2 , v3 una base di V e basi canoniche. Determinare la matrice Mc,b (f ).

258

10
Operatori lineari
10.1 Generalit su operatori lineari e diagonalizzazione
Questo capitolo dedicato alle applicazioni lineari di uno spazio vettoriale V in s.
Vista la loro particolare importanza, anche a tali applicazioni viene riservato un nome
speciale:
definizione 10.1 Un operatore lineare su V unapplicazione lineare f : V

Operatore lineare

V.
Osservazione 10.1
Il nome di operatore trae origine dallidea tradizionale che vettori, pi precisamente trasformando il vettore v nel vettouna qualsiasi funzione f : V V dovesse essere considera- re f(v ). Laggettivo lineare era poi riservato agli operatori su
ta come un meccanismo che opera su V trasformando i suoi V dotati della propriet di essere applicazioni lineari.

Sia f un operatore lineare su V . Se V ha dimensione finita e v, w sono due basi


di V lo studio di f avr avuto veramente inizio quando sar iniziato lo studio della
matrice Mw,v ( f ), definita nel precedente capitolo per qualsiasi applicazione lineare
tra due spazi vettoriali di dimensione finita. Quando v e w sono la stessa base la
matrice Mw,v ( f ) meritevole di particolare attenzione.
definizione 10.2 Sia v una base di uno spazio vettoriale V e sia f un operato-

re lineare su V . Diremo matrice associata a f rispetto alla base v la matrice


Mv,v ( f ).

Per semplicit di scrittura indicheremo quasi sempre la matrice Mv,v ( f ) con la


notazione Mv ( f ).
Nel seguito di questa sezione V sar uno spazio vettoriale di dimensione finita n
mentre f sar un operatore lineare su V . La prima domanda che proponiamo al
lettore la seguente:
Come cambia Mv ( f ) cambiando la base v con unaltra base u?
teorema 10.1 Siano u e v basi di V e sia f un operatore lineare su V . Allora

Mv ( f ) = P 1 Mu ( f )P
dove P = Puv la matrice del cambiamento di base dalla base u alla base v.
259

10 Operatori lineari
Dimostrazione

Applicando la formula generale del Teorema 9.8, si ha

Mv,v ( f ) = Pvu Mu,u ( f )Puv


Tale uguaglianza ed il fatto che Pvu linversa di Puv (Proposizione 4.10) implicano lasserto.


Mv ( f ) una matrice quadrata di ordine n = dim V , la seconda domanda che


proponiamo :
Quali matrici M sono tali che M = Mu ( f ), per una data base u di V ?
Siano v una base di V e f un operatore lineare su V . Per una
matrice M sono equivalenti le condizioni:

teorema 10.2

1.
2.

M = Mu ( f ) per una data base u di V ;


M = P 1 Mv ( f )P dove P invertibile.

Se vale il punto 1 allora, per il Teorema 10.1, M = P 1 Mv ( f )P , dove


P = Pvu la matrice cambiamento di base da v ad u. Quindi 1 implica 2. Se vale il punto
2 si consideri la riga di vettori (u 1 , . . . , u n ) = (v 1 , . . . , v n )P . Poich P invertibile e v
una base, u = u 1 , . . . , u n una base di V . Si noti anche che, per ogni j = 1, . . . , n, la
colonna j -esima di P la colonna delle componenti di u j rispetto alla base v. Ne segue che
P = Pvu e perci M = Mu ( f ). Quindi 2 implica 1


Dimostrazione

Indicheremo linsieme di tutte le matrici Mu ( f ), dove u varia nellinsieme delle basi


di V , con M( f ).
Il precedente teorema asserisce che, fissata a piacere una base v su V di dimensione
n, vale luguaglianza

M( f ) = {P 1 Mv ( f )P , dove P una matrice invertibile di ordine n}


La terza domanda che ora proporremo quella che ha come risposta questo intero
capitolo:
Per quali operatori f linsieme M( f ) contiene una matrice diagonale ?
Assegnato un operatore lineare f su V la questione principale dunque se, tra le basi
di V , ci sia una base u tale che Mu ( f ) una matrice diagonale.
Operatore
diagonalizzabile

definizione 10.3 Un operatore lineare f su V si dice diagonalizzabile se esiste

una base u di V tale che Mu ( f ) una matrice diagonale.

260

10.1 Generalit su operatori lineari e diagonalizzazione


Per il momento due esempi di operatori lineari su R2 (gi incontrati implicitamente nei precedenti capitoli), uno diagonalizzabile e laltro no, saranno sufficienti per
chiarire le diverse possibilit ed il fatto che non sempre queste sono evidenti.
Esempio 10.1 Un operatore su R2 diagonalizzabile
Sia f : R2 R2 la funzione cos denita: x = (x1 , x2 ), f(x ) = (x2 , x1 ). Il lettore vericher facilmente che f un operatore lineare. La matrice di f rispetto alla base canonica e
di R2 non diagonale; infatti, dalla denizione di f, f(e1 ) = e2 e f(e2 ) = e1 . Calcolando
 
la matrice associata si ottiene la matrice Me (f ) = 01 10 , che pertanto non diagonale.
Tuttavia esiste una base u tale che Mu (f ) diagonale: si consideri infatti la base u formata
dai vettori u1 = (1, 1) e u2 = (1, 1), le cui componenti sono espresse rispetto ad e, e
si osservi che f(u1 ) = u1 e f(u2 ) = u2 . La matrice di f rispetto a questa base la matri

ce diagonale Mu (f ) = 10 10 ; possiamo quindi concludere che f un operatore lineare
diagonalizzabile.

Esempio 10.2 Un operatore su R2 non diagonalizzabile


Sia f : R2 R2 la funzione cos denita: x = (x1 , x2 ), f(x ) = (x2 , x1 ). f un operatore


lineare. Sia e la base canonica, si verica facilmente che allora Me (f ) = 10 10 . Vericheremo ora che f non diagonalizzabile. Per il precedente teorema f diagonalizzabile se, e
solo se, esiste una matrice invertibile P tale che P1 Me (f )P diagonale. Proviamo allora
che una tale P non esiste. Possiamo indicare nel seguente modo P e P1 :




1
d b
a b
1
P=
e P =
d
c d
ad bc c
dove det P = ad bc = 0. Allora, eseguendo il prodotto P1 Me (f )P, si ottiene:


1
ab cd d 2 + b2
1
P Me (f )P =
ad bc a2 + c2 cd ab
Questultima matrice diagonale se, e solo se, a2 + c2 = 0, d 2 + b2 = 0 e ad bc = 0. Le
prime due equazioni sono somma di quadrati e dunque sono soddisfatte solo da a = c = 0
e b = d = 0. Tali valori non soddisfano ad bc = 0. Quindi P non esiste e f non
diagonalizzabile.

Lo stesso tipo di questioni pu essere riproposto, ad un livello di linguaggio pi


elementare, per una matrice quadrata di ordine n.
definizione 10.4 Siano M e N due matrici quadrate di ordine n. Diremo che

M e N sono simili se esiste una matrice invertibile P tale che N =

P 1 M P .

261

Matrici simili

10 Operatori lineari

Osservazione 10.2
Dal Teorema 10.1, due matrici che rappresentano lo stesso operatore lineare in 2 basi distinte di V sono sempre simili.

Sia Mnn linsieme delle matrici quadrate di ordine n. Per ogni M Mnn abbiamo
linsieme S (M) = {N Mnn | M simile a N}.
Una domanda naturale allora:
Per quali M Mnn linsieme S (M) contiene una matrice diagonale?

definizione 10.5 Una matrice quadrata si dice diagonalizzabile se simile ad

Matrice diagonalizzabile

una matrice diagonale.

Osservazione 10.3
Assegnata una matrice quadrata M ci si chiede dunque se M
simile ad una matrice diagonale. Tale domanda strettamente collegata alle domande precedenti che riguardano gli operatori lineari. Assegnato infatti uno spazio vettoriale V ed una sua base v = v1 , . . . , vn possiamo sempre
considerare loperatore lineare f su V cos denito: per ogni
j = 1, . . . , n, f(vj ) = m1j v1 + + m nj vn , dove mij indica il
termine di posto i, j della matrice M. immediato vericare

che M = Mv (f ). Possiamo perci concludere che M simile


ad una matrice diagonale se, e solo se, f diagonalizzabile.
La nozione di operatore lineare e lo studio delle propriet
di tali operatori serviranno per capire quando una matrice
diagonalizzabile. Tra le matrici diagonalizzabili ci sono, come vedremo, le matrici simmetriche (capitolo 11). Ad esse
sar dedicata buona parte dei capitoli successivi.

Osservazione 10.4
transitiva L, M, N Mnn , L M e M N
Se M simile a N scriveremo M N, il lettore verichi per 3.
esercizio che la condizione di essere simili ha le propriet
L N.
seguenti:
La condizione di essere simili stabilisce dunque una rela1.
riflessiva M Mnn , M M;
zione di equivalenza sullinsieme Mnn che viene chiamata
2.
simmetrica M, N Mnn , M N N M;
relazione di similitudine.

10.2 Autovalori ed autovettori


In questa e nelle successive sezioni introdurremo i concetti ed i teoremi necessari per
risolvere i problemi di diagonalizzazione, di un operatore lineare o di una matrice,
che abbiamo proposto.
262

10.2 Autovalori ed autovettori


Tra i pi semplici operatori lineari ci sono le omotetie di V e cio gli operatori del tipo
id V : V V , dove una costante. Un tale operatore associa ad ogni vettore v
il suo multiplo v. Se f un operatore lineare qualsiasi, uno dei problemi principali
nello studio di f consiste proprio nel determinare quei vettori non nulli v per i quali
f (v) ancora un multiplo di v.
definizione 10.6 Sia f un operatore lineare su V :

(i)
(ii)

un vettore non nullo v V un autovettore di f se esiste un numero


reale tale che f (v) = v,
un numero reale un autovalore di f se esiste un vettore non nullo
v tale che f (v) = v.

Infine diremo che un autovettore v di f un autovettore di autovalore se


f (v) = v.
Linsieme degli autovalori di un operatore f viene talvolta chiamato spettro di f .
Avremo modo di vedere tra breve che se V ha dimensione finita allora lo spettro
un insieme finito.
proposizione 10.1 Se v un autovettore di f , allora esiste un unico

che f (v) = v.

Dimostrazione

R tale

Sia f (v) = v e f (v) = v. Essendo f (v) unico, v = v. Essendo

v = 0, = .


Esempio 10.3 Rotazioni e riflessioni di vettori geometrici


Possiamo estendere quanto discusso nel paragrafo 7.6 per R2 ad una situazione pi generale. Sia un piano euclideo e sia O . Sia poi V lo spazio vettoriale costituito dai vettori
geometrici v = P a O, P . Fissata un retta a per O, la riessione : di asse
a determina loperatore lineare f : V V cos denito: v = P a O, f(v) = Q a O dove
Q = (P) il simmetrico di P rispetto ad a. In due soli casi f(v) si mantiene parallelo a v:
1.
2.

se v parallelo ad a;
se v perpendicolare ad a.

Nel primo caso si ha f(v) = v e nel secondo f(v) = v. Gli autovalori di f sono dunque 1 e
1 e gli autovettori sono i vettori non nulli paralleli o perpendicolari ad a.
Sia : una rotazione di centro O e di angolo = k. Sia poi f : V V loperatore
lineare cos denito: v = P a O V, f(v) = Q a O, dove Q = (P). Notiamo che f(v) non
mai parallelo a v se v = 0. Non esistono quindi autovettori, e tantomeno autovalori, per f.

263

Autovalori
ed autovettori
di un operatore

10 Operatori lineari
Vogliamo ora studiare in generale le famiglie di autovettori di un operatore lineare.
definizione 10.7 Siano V uno spazio vettoriale qualsiasi ed f un operatore

Autospazi

lineare su V . Per ogni autovalore di f , si dir autospazio di linsieme


V ( f ) := {v V | f (v) = v}

Si noti che, essendo un autovalore, V ( f ) non mai costituito dal solo vettore nullo.
Gli elementi non nulli di V ( f ) sono infatti gli autovettori di f di autovalore .
Nel paragrafo 9.4, sono state definite lapplicazione lineare prodotto di unapplicazione lineare per una costante e la somma di applicazioni lineari. La funzione identit
id V : V V e f : V V possono dunque essere moltiplicate per delle costanti e
poi sommate. Mantenendo tali notazioni ci serve ora considerare loperatore lineare
f id V : V V
Per definizione, tale operatore lineare associa al vettore x V il vettore f (x ) x .
proposizione 10.2 V ( f ) = Ker( f id V ). In particolare V ( f ) un sotto-

spazio di V .
chiaro che x V ( f ) f (x ) x = 0 x Ker( f id V ).
Dimostrazione
Pertanto V ( f ) il nucleo di f id V e, per la Proposizione 9.1, un sottospazio di V .


Esempio 10.4 Alcuni autovalori ed autospazi


1.

2.

Sia f loperatore lineare considerato per primo nellEsempio 10.3. f determinato


dalla riessione di asse la retta a ed i suoi autovalori sono 1 e 1. Sia a un vettore
non nullo parallelo ad a; allora V1 (f ) linsieme dei multipli di a. Invece V1 (f )
linsieme dei multipli di n, dove n un vettore perpendicolare ad a.
Sia V uno spazio vettoriale e sia f : V V loperatore lineare cos denito: x V,
f(x ) = 12 x. Allora 12 un autovalore di f e V 1 (f ) = V.
2

I due lemmi successivi sono particolarmente importanti.


lemma 10.1 Sia f un operatore lineare su V e siano a 1 , . . . , a k autovettori di f

rispettivamente di autovalori 1 , . . . , k . Se tali autovalori sono distinti allora i


vettori a 1 , . . . , a k sono linearmente indipendenti.

264

10.2 Autovalori ed autovettori


Dimostrazione

Dimostriamo la propriet per induzione sul numero k degli autovettori


considerati. Per k = 1 si ha un solo autovettore a 1 . In particolare a 1 non nullo e quindi
linearmente indipendente. Sia ora k 2, dobbiamo dimostrare che c 1 a 1 + + c k a k =
0 = c 1 = = c k = 0.
Preliminarmente osserviamo che a 1 , . . . , a k1 sono autovalori di f i cui autovalori 1 , . . . ,
k1 sono distinti. Per ipotesi induttiva tali vettori sono quindi linearmente indipendenti.
Applicando f alla precedente uguaglianza otteniamo f (c 1 a 1 + + c k a k ) = c 1 1 a 1 +
+ c k k a k = f (0) = 0.
Daltra parte k (c 1 a 1 + + c k a k ) = k 0 = 0 e quindi k (c 1 a 1 + + c k a k ) =
c 1 1 a 1 + + c k k a k .
Tale uguaglianza equivalente a (k 1 )c 1 a 1 + + (k k1 c k1 )a k1 = 0.
Poich a 1 , . . . , a k1 sono linearmente indipendenti e poich k i = 0 per i = 1, . . . , k
1, ne segue che c 1 = = c k1 = 0 e quindi che c k a k = 0. Infine, essendo a k = 0, anche
c k = 0.


Pi in generale:
lemma 10.2 Siano 1 , . . . , k autovalori distinti di un operatore lineare f su V .

Per ogni i = 1, . . . , k sia poi Ai un insieme finito di n i autovettori di autovalore


i . Se, per ogni i, gli autovettori di Ai sono linearmente indipendenti allora gli
autovettori dellinsieme unione A 1 A k sono linearmente indipendenti ed
inoltre il loro numero n 1 + + n k .
Per ogni i = 1, . . . , k sia Ai = {a i,1 , . . . , a i,ni }, dobbiamo dimostrare che i vettori dellinsieme A 1 A k sono linearmente indipendenti e cio che


i=1,...,k
ji=1,...,n i c i, ji a i, ji = 0 = c i, ji = 0, i = 1, . . . , k, ji = 1, . . . , n i .

Dimostrazione

A tale scopo per ogni i = 1, . . . , k poniamo a i = c i,1 a i,1 + +c i,ni a i,ni ; osserviamo che a i
appartiene allautospazio Vi ( f ) e riscriviamo la prima uguaglianza come a 1 + +a k = 0.

Dimostriamo innanzitutto che ogni addendo a i nullo. Se non nullo a i un autovettore


di autovalore i . Supponiamo che esistano per assurdo degli a i non nulli e che questi siano
esattamente a i1 , . . . , a it . Allora lultima uguaglianza diventa a i1 + + a it = 0.
Daltra parte a i1 , . . . , a it sono autovettori i cui rispettivi autovalori i1 , . . . , it sono distinti
e quindi sono linearmente indipendenti: ci contraddice lultima uguaglianza. Essendo a i
nullo abbiamo c i,1 a i,1 + + c i,ni a i,ni = 0.
Infine a i1 . . . a is i sono linearmente indipendenti per ipotesi, possiamo quindi concludere
che c i,1 = = c i,ni = 0, i = 1, . . . , k.

265

10 Operatori lineari
Per completare la dimostrazione rimane da provare che il numero di elementi di A 1 A k

i=1,...,k n i . A tale scopo basta provare che Ai A j = per ogni coppia di indici distinti i
e j . Ora un elemento di Ai A j un autovettore di autovalore sia i sia j . Ci impossibile
perch ogni autovettore ha un unico autovalore e per ipotesi i = j .


Applicheremo ora le propriet dimostrate allo studio di autovalori ed autovettori di


un operatore lineare su uno spazio vettoriale di dimensione finita.
Sia f un operatore lineare su uno spazio vettoriale V di dimensione finita e siano 1 , . . . , k i suoi autovalori, allora

proposizione 10.3

k dim V1 ( f ) + + dim Vk ( f ) dim V

Dimostrazione
Un autospazio non mai ridotto al solo vettore nullo e ha quindi dimensione 1. Ci implica la prima disuguaglianza. Per provare la seconda sia Ai una base
di Vi ( f ), i = 1, . . . , k. Per il lemma precedente A 1 A k un sistema di vettori

linearmente indipendenti ed il numero di tali vettori m = i=1,...,k dim Vi ( f ). Poich
i vettori del sistema sono linearmente indipendenti il Teorema 4.6 ci dice che m dim V .

Sia f un operatore lineare su V di dimensione finita. Se esiste una base u di V i cui
vettori sono autovettori di f diremo che u una base di autovettori di f .
proposizione 10.4 Sia f un operatore lineare su uno spazio vettoriale V di dimen-

sione finita. f diagonalizzabile se, e solo se, esiste una base di autovettori di f .
Sia dim V = n. Se f diagonalizzabile esiste una base u = u 1 , . . . , u n
di V tale che Mu ( f ) una matrice diagonale. Sappiamo daltra parte che la colonna j esima di Mu ( f ) la colonna delle componenti di f (u j ) rispetto alla base u. Poich Mu ( f )
diagonale, tali componenti sono tutte nulle salvo la j -esima che indicheremo con j . Ne
segue quindi che f (u j ) = j u j , per ogni j = 1, . . . , n. Quindi u una base di autovettori
di f . Viceversa supponiamo che esista una base u = u 1 , . . . , u n di autovettori di f . Allora
f (u j ) = j u j per un dato autovalore j , per j = 1, . . . , n. Le componenti di f (u j ) sono
quindi tutte nulle salvo la j -esima che j . La matrice Mu ( f ) allora una matrice diagonale
e sulla sua diagonale principale ci sono i termini 1 , . . . , n , alcuni fra essi eventualmente
coincidenti (cio ripetuti sulla diagonale principale). In altre parole,

1 0 0 . . . 0
0 2 0 . . . 0

Mu ( f ) = .
.. ..
..
..
..
. .
.
.

Dimostrazione

0 ...

n


266

10.3 Ricerca di autovalori ed autovettori


Gli operatori lineari diagonalizzabili sono caratterizzati dal seguente teorema fondamentale:
teorema 10.3 Sia f un operatore lineare su uno spazio vettoriale V di dimensione

finita e sia {1 , . . . , k } linsieme degli autovalori di f . Allora f diagonalizzabile se, e solo se, dim V1 ( f ) + + dim Vk ( f ) = dim V .

Sia Ai una base di Vi ( f ), i = 1, . . . , k. Per il Lemma 10.2, linsieme


a = A 1 A k un sistema di n autovettori linearmente indipendenti dove n =
k
i=1 dim Vi ( f ). Poich n = dim V , il Teorema 4.5 assicura che a una base di V . Quindi
a una base di autovettori di f e, per la proposizione precedente, f diagonalizzabile.
Viceversa se f diagonalizzabile, esiste una base u = u 1 , . . . , u n tale che

0
d11 0 0 . . .
0 d22 0 . . .
0

Mu ( f ) = D = .
.
.
.
..
..
..
..
..
.
0
0 0 . . . dnn

Dimostrazione

una matrice diagonale. I termini dii , 1 i n, eventualmente possono non essere distinti;
indicheremo con 1 , . . . , k i numeri reali distinti che compaiono sulla diagonale principale
di D. A meno di riordinare la successione u 1 , . . . , u n possiamo inoltre supporre, per ogni
j = 1, . . . , k, che j si ripeta n j volte di seguito: dal termine di posto i j 1 + 1, i j 1 + 1 al
termine di posto i j , i j (dove i 0 = 0 < i 1 , . . . , < i k = n). Si noti infine che n 1 + +n k =
n = dim V .
Per concludere la dimostrazione baster allora provare che gli autovalori di f sono 1 , . . . , k
e che dim V j ( f ) = n j . Innanzitutto da f (u i ) = dii u i segue che ogni u i un autovettore
e quindi che ogni j un autovalore, j = 1, . . . , k. Siano poi un autovalore di f e t =



t j u j un suo autovettore, allora si ha f (t) =
dii ti u i = ti u i e quindi dii ti = ti
per i = 1, . . . , n. Daltra parte t = 0, quindi ti = 0 e dii = per qualche i: ci prova che
{1 , . . . , k }. Sia = j allora dii = j , per i j 1 < i i j , e ti = 0, per i i j 1
e i > i j . Ne segue che una base di V j ( f ) formata dai vettori u i , con i j 1 < i i j .
Quindi dim V j ( f ) = n j .


10.3 Ricerca di autovalori ed autovettori


In questo paragrafo V indicher uno spazio vettoriale di dimensione finita. Dopo
avere esposto una parte importante della teoria che riguarda condizioni di diagonalizzabilit di un operatore lineare f su V , ora descriveremo le procedure usuali per
calcolare, in concreto e se possibile, autovalori ed autovettori di f . A tale scopo fissiamo una base v = v 1 , . . . , v n di V e consideriamo ancora una volta la matrice
M = Mv ( f ).
267

10 Operatori lineari
Come si ricercano gli autovalori di f?
di f se, e solo se, esiste un vettore t = 0
Sia R, allora un autovalore
n
tale che f (t) = t. Sia t = i=1 ti v i , come sappiamo la condizione f (t) = t

t1

t1
.
..
dunque un autovalore di f
equivalente alluguaglianza M .. =
.
tn
tn

X1
..
=
se, e solo se, esiste una soluzione non nulla (t1 , . . . , tn ) per il sistema M
.

X 1

..
.

Xn

X n

Raccogliendo a sinistra le indeterminate X 1 , . . . , X n e uguagliando a zero, il sistema



X1
0
.
.
= .. .
si riscrive come (M In ) ..
0

Xn

Si tratta di un sistema omogeneo di n equazioni in n indeterminate, la cui matrice


dei coefficienti M In .
Ricordiamo che un sistema omogeneo di n equazioni in n indeterminate ha soluzioni non nulle se, e solo se, il determinante della matrice dei coefficienti nullo
(paragrafo 2.4). Possiamo quindi concludere che
proposizione 10.5 Un numero reale un autovalore di f se, e solo se, det(M

In ) = 0.

Scelta unindeterminata T, poniamo P (T ) := det(M T In ).


P (T ) un polinomio nellindeterminata T, a coefficienti reali. chiaro che un
autovalore di f se, e solo se, una radice di P (T ). Possiamo quindi concludere
che:
gli autovalori di f sono le radici di P (T ) e per determinarli bisogna
risolvere lequazione P (T ) = 0.

Esempio 10.5 Calcolo di autovalori


1.

Calcoliamo gli autovalori di f come nellEsempio


10.1. Ricordiamo che la matrice di
 
01
f rispetto alla base canonica e M = 1 0 ; di conseguenza


T
1
det(M TI2 ) = det
= T21
1 T

268

10.3 Ricerca di autovalori ed autovettori

2.

Gli autovalori sono le radici di T 2 1, cio 1 e 1.


Per f come nellEsempio 10.2, abbiamo visto chela matrice
 di f rispetto ad e
T 1
01
M = 1 0 ; di conseguenza det(M TI2 ) = det 1 T = T 2 + 1. T 2 + 1 non
ha radici reali e dunque non esistono autovalori di f.

Come determinare gli autovettori di autovalore ?



ti v i ; la discussione svolta pocanzi ci dice che t appartiene a V ( f ) se, e
Sia t =
solo se, (t1 , . . . , tn ) una soluzione del sistema
X 0
1
.
= ... .
(M In ) ..
Xn

Per determinare gli autovettori di autovalore bisogna risolvere il precedente


sistema:
ad ogni sua soluzione non nulla (t1 , . . . , tn ) corrisponde un autovettore t =
ti v i e
viceversa.
Come determinare la dimensione ed una base di V (f )?
Sia f id V : V V loperatore lineare che a x V associa f (x ) x ; allora
V ( f ) = Ker( f id V ). Di conseguenza, per il Teorema 9.2, abbiamo
dim V ( f ) = dim Ker( f id V ) = n dim Im( f id V )
La matrice di f id V rispetto alla base v M In ; quindi, il rango di tale matrice
dim Im( f id V ) (Corollario 4.1). Possiamo allora concludere che
dim V ( f ) = n rango di (M In )
Abbiamo gi indicato, nel capitolo precedente, come procedere per costruire una
base per il nucleo di unapplicazione lineare. Per avere una base di V ( f ) baster
procedere nello stesso modo.
Esempio 10.6 Basi di autospazi in R3
Sia f : R3 R3 loperatore lineare cos denito: x = (x1 , x2 , x3 ), f(x ) = (x1 + x2 , x2 +
101

x3 , x3 ). La matrice di f rispetto alla base canonica e M = 0 1 1 .


001

Ne segue che det (M TI3 ) = (1 T )3 . 1 lunica radice di tale polinomio e quindi 1


001

lunico autovalore di f. Ponendo T = 1 in M TI3 , si ottiene la matrice M I3 = 0 0 1


000

che ha rango 1. Quindi dim V1 (f ) = 2, in particolare segue dal Teorema 10.3 che f non
diagonalizzabile. Si verica subito che una base di V1 (f ) formata dai vettori e1 ed e2 .

269

10 Operatori lineari
Se f diagonalizzabile come determinare una base di autovettori?

f diagonalizzabile se, e solo se, i=1,...,k dim Vi ( f ) = n, dove 1 , . . . , k sono
gli autovalori distinti di f e n = dim V . Se f diagonalizzabile, le dimostrazioni
del Lemma 10.2 e del Teorema 10.3 indicano anche come costruire una base di
autovettori:
per ogni i = 1, . . . , k si costruisce un insieme di vettori Ai i cui elementi siano una base di Vi ( f ). I vettori dellinsieme A 1 A k
costituiscono una base di autovettori di f .

10.4 Polinomio caratteristico


Nella sezione precedente abbiamo utilizzato il polinomio det(M T In ), vedremo
ora di studiare pi in dettaglio qualche sua propriet.
Polinomio caratteristico
di una matrice

definizione 10.8 Sia M una matrice quadrata di ordine n. Il polinomio caratte-

ristico di M P M (T ) = det(M T In ).

Naturalmente T una indeterminata. Sia M = (m i j ), 1 i, j n; si pu verificare


senza troppa difficolt che
det(M T In ) = (1)n T n + monomi in T di grado < n
Ogni addendo di det(M T In ) infatti il prodotto, eventualmente cambiato di
segno, di n termini di M T In posti su n righe distinte. T compare una sola volta
su ogni riga quindi ognuno di tali addendi un polinomio in T di grado n. Lunico
addendo di grado n poi necessariamente
(m 11 T ) (m nn T ) = (1)n T n + monomi in T di grado < n
Quindi P M (T ) un polinomio di grado n ed il coefficiente di T n (1)n . Il termine
noto di P M (T ) det M: ometteremo per brevit la dimostrazione di tale propriet,
lasciandola come esercizio non completamente elementare.
Matrici diverse possono benissimo avere lo stesso polinomio caratteristico; un caso
in cui ci avviene e che maggiormente ci interessa il seguente.
teorema 10.4

Due matrici simili hanno lo stesso polinomio caratteristico.

Siano M  e M due matrici simili di ordine n. Allora M  = P 1 M P , dove


P una matrice invertibile di ordine n. Si noti che valgono le uguaglianze

Dimostrazione

(M  T In ) = (P 1 M P T In ) = P 1 (M T In )P

270

10.5 Complementi ed ulteriori esempi


Dal Teorema di Binet (Teorema 3.8) segue allora che det(M  T In ) = (det P 1 )(det(M
T In ))(det P ). Sempre dal Teorema di Binet e dal fatto che P invertibile, i.e. P 1 P =
1
In , si ha 1 = det(P 1 P ) = (det P 1 )(det P ), i.e. det(P 1 ) = det P . Quindi, per la
commutativit del prodotto in R, si ha det(M  T In ) = det(M T In ).


Sia ora f un operatore lineare su V e siano v e v  due basi qualsiasi di V . Posto


M = Mv ( f ) e M  = Mv  ( f ), come nellOsservazione 10.2, M e M  sono simili.
Possiamo quindi concludere che P M (T ) = P M  (T ).
Abbiamo provato il seguente
teorema 10.5 Sia f un operatore lineare su V e sia u una base di V . Al variare

di u nellinsieme delle basi di V il polinomio caratteristico della matrice Mu ( f )


rimane invariato.

Si pu anche dire che il polinomio caratteristico di Mu ( f ) collegato in modo


intrinseco a f , senza dipendere dalla scelta di u. Tutto questo giustifica la seguente
definizione 10.9 Sia V uno spazio vettoriale di dimensione finita. Il polinomio

caratteristico P f (T ) di un operatore lineare f su V il polinomio caratteristico della matrice Mu ( f ), dove u una base di V scelta a piacere.
Possiamo infine riassumere quanto gi dimostrato sugli autovalori di f con la seguente frase: gli autovalori di f sono le radici del polinomio caratteristico di f .

10.5 Complementi ed ulteriori esempi


Data M una matrice quadrata di ordine n, come capire se M diagonalizzabile?
Ricordiamo che, dalla Definizione 10.5, diagonalizzabile vuol dire che M simile
ad una matrice diagonale D, i.e. P 1 M P = D, dove P invertibile di ordine n.
Ricordiamo che, fissato uno spazio vettoriale V di dimensione n ed una sua base v,
sempre possibile costruire un operatore lineare f su V tale che M = Mv ( f ) (Teorema 10.2). Inoltre f diagonalizzabile se, e solo se, M diagonalizzabile (Definizione 10.3). Per rispondere alla domanda bisogna dunque capire se f diagonalizzabile.
Ora f diagonalizzabile se, e solo se,
dim V1 ( f ) + + dim Vk ( f ) = n
dove 1 , . . . , k sono gli autovalori distinti di f . Inoltre sappiamo che dim Vi ( f ) =
n r (i ), dove r (i ) il rango della matrice M i In . Per capire se M diagonalizzabile baster quindi:
271

Polinomio caratteristico
di un operatore

10 Operatori lineari
1.
2.

calcolare le radici del polinomio P M (T ), cio gli autovalori 1 , . . . , k di f ,


k n;
calcolare il rango r (i ) di ogni matrice M i In , i = 1, . . . , k.
definizione 10.10 Siano f e M come sopra. Sia un autovalore di f e sia

Molteplicit geometrica
di un autovalore

r () il rango della matrice (M In ). Si dice molteplicit geometrica di il


valore g () := n r ().

proposizione 10.6 La molteplicit geometrica g () di un qualsiasi autovalore

di f non altro che la dimensione dellautospazio V ( f ).

Si osservi che il nucleo delloperatore f id V esattamente lautospazio


V ( f ). Un vettore x appartiene infatti a Ker( f id V ) se, e solo se, f (x ) x = 0 cio
se e solo se f (x ) = x . Questultima uguaglianza equivale allappartenenza di x a V ( f ).


Dimostrazione

Pertanto, presa M come sopra se consideriamo la molteplicit geometrica g (i ) =


n r (i ), per ogni 1 i k, M sar diagonalizzabile se e solo se
[10.1]

g (1 ) + + g (k ) = n

In tal caso, ogni termine sulla diagonale principale di D una radice di P M (T ).


Come collegare g() con Pf (T )?
Vogliamo ora capire quale il legame tra il comportamento delle radici del polinomio
P f (T ) e la validit della condizione [10.1], che ci assicura la diagonalizzabilit di f
e quindi di M. Abbiamo la seguente:
definizione 10.11 Sia P (T ) un qualsiasi polinomio a coefficienti reali ed in

Molteplicit algebrica
di un autovalore

unindeterminata T. Il numero R si dice una radice di molteplicit h


per P (T ), dove h un intero non negativo, se (T )h un fattore di P (T )
mentre (T )h+1 non lo ; in altri termini, se si ha
P (T ) = (T )h Q(T )

con Q(T ) un polinomio (eventualmente costante) a coefficienti reali nellindeterminata T t.c. Q() = 0. In particolare h = 0 se, e solo se, non radice
di P (T ), i.e. P () = 0.
Sia ora f un operatore lineare su V e sia un qualsiasi autovalore di f . Si
definisce la molteplicit algebrica di , denotata con a () la molteplicit di
come radice del polinomio caratteristico P f (T ).
272

10.5 Complementi ed ulteriori esempi


teorema 10.6 Per ogni autovalore di un operatore lineare f su V si ha: g ()

a ().

Dalla Proposizione 10.6, g = dim V ( f ). Sia v = v 1 , . . . , v g () una


Dimostrazione
base per V ( f ). Se n = dim V , possiamo estendere la base v ad una base per V aggiungendo
ai vettori di v altri n g () vettori w1 , . . . , w ng () di V , linearmente indipendenti fra loro
e dai vettori di v. Sia w = v 1 , . . . , v g () , w 1 , . . . , w ng () una tale base. Per definizione di
autospazio, in base w abbiamo

...
m 1n
0 ... 0
m 1g ()+1
0 . . . 0
m 2g ()+1
...
m 2n

. .

.
.
.
.
..
.. ..

..
..
..
..
.

Mw ( f ) = 0 0 . . . m g ()g ()+1 . . .
m g ()n

0 0 . . . 0 m g ()+1g ()+1 . . . m g ()+1n

..
..
..
..
..
.. ..

. .

.
.
.
.
.
...
m nn
0 0 ... 0
m ng ()+1
Per calcolare P f (T ), dal Teorema 10.5, basta che consideriamo det(Mw ( f ) T In ). Se sviluppiamo il calcolo di questo determinate rispetto alle colonne della matrice Mw ( f ) T In
immediato accorgersi che si ottiene P f (T ) = ( T )g () Q(T ), dove Q(T ) il minore
della sottomatrice (Mw ( f ) T In )(g () + 1, . . . , n; g () + 1, . . . , n). Pertanto, g ()
a () e vale leguaglianza se, e solo se, Q() = 0.


Conclusioni
Data quindi la matrice M come allinizio di questo paragrafo, possiamo finalmente
rispondere completamente alla domanda che ci siamo posti. Sia infatti f loperatore lineare su V , spazio vettoriale di dimensione n, associato alla matrice M. Siano 1 , . . . , k tutti gli autovalori distinti di f , k n. Sia P f (T ) il polinomio
caratteristico di f . Supponiamo che P f (T ) si fattorizzi in:
[10.2]

P f (T ) = (1 T )a (1 ) (k T )a (k ) Q(T )

k
a (i ) tale
dove Q(T ) un polinomio (eventualmente costante) di grado n i=1
che, per definizione di molteplicit algebrica, Q(i ) = 0, per ogni i = 1, . . . , k. Poich per ipotesi 1 , . . . , k sono tutti e soli gli autovalori distinti di f , allora abbiamo
due possibilit per Q(T ):
a)

se Q(T ) non una costante, allora Q(T ) necessariamente un polinomio di


grado 2 che non ammette radici in R;

Se Q(T ) fosse lineare sarebbe della forma Q(T ) = T, ma allora


Dimostrazione
R sarebbe radice di Q(T ) e quindi di P f (T ): non pu essere = i per un qualche i =
1, . . . , k, dalla definizione di molteplicit algebrica; ma allora sarebbe un altro autovalore
di f , che contraddice le ipotesi fatte. Pertanto il grado di Q(T ) almeno 2.

273

10 Operatori lineari
Inoltre, Q(T ) non pu avere radici in R. Altrimenti, come nella Definizione 10.11, potremmo fattorizzare ulteriormente Q(T ), e quindi anche P f (T ) nella [10.2], con un certo
numero di potenze di fattori lineari, contro lipotesi.


In questo caso, dai Teoremi 10.3 e 10.6, f non mai diagonalizzabile dato che
k
k
i=1 g (i )
i=1 a (i ) < n = dim V ;
b)

[10.3]

se invece Q(T ) come nella [10.2] il polinomio costante (i.e. P f (T ) fattok


rizzato esclusivamente in potenze di fattori lineari e dunque i=1
a (i ) = n),
allora f (e quindi M ) sar diagonalizzabile se, e solo se,
a (i ) = g (i ), i = 1, . . . k

Se f diagonalizzabile, dai Teoremi 10.3 e 10.6 si ha n =


k
k
k
a
(
)

i
i=1
i=1 g (i ) = n. Pertanto,
i=1 a (i ) =
i=1 g (i ). Essendo a (i )
g (i ), per ogni i = 1, . . . , k, allora abbiamo la [10.3].

Dimostrazione
k

k
k
a (i ) = n, allora anche i=1
g (i ) = n e quindi,
Viceversa se vale la [10.3], poich i=1
dal Teorema 10.3 f diagonalizzabile.


Se vale la [10.3], sia v la base data dallunione ordinata delle k basi di V1 ( f ), . . . ,


Vk ( f ). Essa determina unidentificazione (equiv. isomorfismo) di V con Rn . Sia
P = Pe v la matrice cambiamento di base dalla base e alla base v di Rn . Pertanto

[10.4]

1 0
0 1

.
..
..
.

0 0
P 1 M P = D =
0 0

0 0

..
..
.
.
0 0

...
...
..
.
...
...
...
..
.
...

0 0 0
0 0 0
..
..
..
.
.
.
1 0 0
0 2 0
0 0 2
..
..
..
.
.
.
0 0 0

...
...
..
.
...
...
...
..
.
...

0
0

..
.

..
.
k

dove ciascun i viene ripetuto consecutivamente a (i ) = g (i )-volte sulla diagonale


di D, i = 1, . . . , k.
Osservazione 10.5
Concludiamo con alcuni ovvi commenti alla condizione [10.3]
di diagonalizzabilit di un operatore f:
(i)

se una radice di molteplicit algebrica 1 per

274

Pf (T ), lautovalore di f si dice autovalore semplice di f. Per ciascun autovalore semplice di f, vale


ovviamente che a() = g() = 1;

10.5 Complementi ed ulteriori esempi


(ii)

se in particolare abbiamo un operatore lineare f


su V di dimensione n (equivalentemente, una matrice quadrata M di ordine n) e se f (equivalentemente, M) ammette esattamente n autovalori distinti, allora ogni autovalore di f (rispettivamente, di M)

semplice e f (rispettivamente, M) sicuramente


diagonalizzabile. In tal caso, la matrice D = P1 MP
avr tutti gli elementi diagonali dii , 1 i n,
distinti.

Applichiamo ora tutti i precedenti risultati e commenti al calcolo concreto di autovalori ed autovettori ed al problema di diagonalizzabilit di matrici.

Esercizio 10.1 Diagonalizzabilit di una matrice 3 3


Sia f : R3 R3 loperatore
la cui matrice, rispetto alla base canonica e di R3 la

1 0lineare
1
matrice simmetrica M = 0 1 1 . Per determinare gli autovalori di f calcoliamo innanzitutto
110

il polinomio caratteristico:

1T
0
1

PM (T ) = det(M TI3 ) = det 0


1 T 1 = (T 1)2 (T + 2)
1
1
T

Pertanto, 1 = 2 un autovalore semplice di M mentre lautovalore 2 = 1 tale che


a(2 ) = 2. Lasciamo per esercizio al lettore di vericare che anche g(2 ) = 2 (questo
dipende da motivi pi generali legati alle matrici simmetriche, che verranno affrontati nel
capitolo successivo).
Pertanto M diagonalizzabile ed, in un opportuna base, simile alla

matrice D =

2 0 0
010
001

a b
Se dim V = 2 le matrici da considerare sono di ordine due M =
e MT I2 =
c d

a T
b
.
c
d T
Calcolando il determinante di questultima matrice si ottiene T 2 (a + d )T +
a d bc . Quindi un autovalore di M se, e solo se, una radice dellequazione
di secondo grado T 2 (a +b)T +a d bc = 0. Considerando la formula risolutiva
di tale equazione ed il suo discriminante :

se  > 0 lequazione ha due radici distinte 1 e 2 , che sono quindi due


autovalori semplici. DallOsservazione 10.5, M diagonalizzabile;
se  < 0 lequazione non ha soluzioni reali, quindi non esistono autovalori
e M non diagonalizzabile;
se  = 0, allora esiste ununica radice e quindi un unico autospazio V .
Abbiamo due possibilit:
275

Autovettori ed autovalori
in dimensione due

10 Operatori lineari
(i)

(ii)
Soluzioni



b
dim V = 2: in questo caso r () = 0 cio la matrice a
c d
nulla. Ci implica a = d = e b = c = 0. M definisce quindi
unomotetia;
dim V = 1: M non diagonalizzabile.

Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).

Quesiti ed esercizi
1.


Sia data la matrice A = 43 12 :
(i)
(ii)
(iii)

determinare gli autovalori di A, stabilendo per


ciascun autovalore la molteplicit algebrica;
determinare gli autospazi di A, fornendo per ciascun
autospazio una base;
stabilire se A diagonalizzabile ed, in caso affermativo, trovare la matrice diagonale D simile ad A e la
(i)
matrice M tale che D = M1 A M.

2.


Sia data la matrice A = 51 13 :
(i)
(ii)
(iii)

4.
Sia dato loperatore lineare f su R3 , denito sui vettori della
base canonica e nel seguente modo:

(ii)

(i)

(i)

(ii)

(iii)

f(e2 ) = 3e1 + 2e2 + e3 ,


f(e3 ) = 3e1 + e2 + 2e3
determinare il polinomio caratteristico di f, gli autovalori di f ed i rispettivi autospazi, specicando
per ogni autovalore la molteplicit geometrica ed
algebrica;
stabilire se f diagonalizzabile ed, in caso affermativo, trovare una base v per R3 di autovettori di f e
la matrice Mv (f ).

determinare gli autovalori di A, stabilendo per


ciascun autovalore la molteplicit algebrica;
determinare gli autospazi di A, fornendo per ciascun
5.
autospazio una base;
Sia f loperatore lineare su R3 la cui matrice rappresentativa,

stabilire se A diagonalizzabile ed, in caso af0 1 3


3
1 1 2 :
fermativo, trovare la matrice diagonale D simile rispetto alla base canonica e di R A =
1 0 3
ad A.

3.


Sia data la matrice A = 32 5
:
3

(ii)

f(e1 ) = 2e1 + e2 + e3 ,

determinare gli autovalori di A, stabilendo per


ciascun autovalore la molteplicit algebrica;
determinare gli autospazi di A, fornendo per ciascun
autospazio una base;
stabilire se A diagonalizzabile ed, in caso affermativo, trovare la matrice diagonale D simile
ad A.

276

determinare gli autovalori di f ed i rispettivi


autospazi, specicando per ogni autovalore la
molteplicit geometrica ed algebrica;
stabilire se f diagonalizzabile ed, in caso affermativo, trovare una base v per R3 di autovettori di f e
la matrice Mv (f ).

6.
Sia P2 lo spazio vettoriale dei polinomi in unindeterminata
Y, a coefcienti reali e di grado al pi 2. Sia b = 1, Y, Y 2 una
base per P2 e sia f loperatore lineare su P2 denito da

10.5 Complementi ed ulteriori esempi

f(1) = Y ,

f(Y) = Y + Y 1,

f(Y ) = Y

tiva, rispetto alla base canonica e A =

(i)
(ii)

1 1 2 a
0 0 2 b ,
0 01c
0 000

con

calcolare gli autovalori e gli autovettori di f;


a, b, c R parametri indipendenti.
stabilire se f diagonalizzabile. In caso affermativo, trovare una base v di autovettori di f e la matrice
(i)
determinare i valori di a, b e c per cui f risulti essere
Mv (f ).
diagonalizzabile;
(ii)
per siffatti valori, determinare una base v di R4 di
7.
autovettori di f e scrivere la matrice Mv (f ).
Sia f loperatore lineare su R4 la cui matrice rappresenta-

277

11
Matrici ortogonali, simmetriche
ed operatori associati
In questo capitolo studieremo alcune propriet fondamentali delle matrici ortogonali
e di quelle simmetriche definite su uno spazio vettoriale euclideo V . Assoceremo a tali matrici degli opportuni operatori lineari su V . Nel caso delle matrici simmetriche,
questo permetter di dimostrare due risultati fondamentali (Teoremi 11.1 e 11.3):
il primo stabilisce che le matrici simmetriche ammettono tutti autovalori reali, il
secondo assicura che tali matrici sono sempre diagonalizzabili su R e che la diagonalizzazione avviene in una base ortonormale per V . Discuteremo in seguito alcune
conseguenze geometriche di questultima affermazione (paragrafo 11.6).
Quanto contenuto in questo capitolo sar particolarmente utile nei capitoli 12 e 13
dove, tra le altre cose, daremo uninterpretazione geometrica di alcuni dei risultati
qui considerati (e.g. Osservazione 12.9).
Come nel paragrafo 5.4, per tutto il capitolo sar notazionalmente pi conveniente
considerare la n-upla di componenti di un vettore rispetto ad una base data come
una matrice colonna.

11.1 Operatori e matrici ortogonali


definizione 11.1 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n.

Sia F un operatore lineare su V . F si dice operatore ortogonale (rispetto a , )


se, per ogni x , y V , vale:
[11.1]

F (x ), F (y ) = x , y 

Un tale operatore in letteratura viene denominato anche operatore unitario. Nel


presente testo, prediligeremo la terminologia di operatore ortogonale.
proposizione 11.1 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n. Un

operatore F ortogonale se, e solo se, un operatore invertibile (i.e. esiste linverso
F 1 ) e se, in ciascuna base ortonormale f di V , la matrice rappresentativa B :=
M f (F ) di F una matrice ortogonale.

Sia f una qualsiasi base ortonormale di V e sia B = M f (F ). Poich la


nozione di rango di una matrice indipendente dalla scelta di una base (Definizione 9.6),

Dimostrazione

279

Operatore ortogonale

11 Matrici ortogonali, simmetriche ed operatori associati


per dimostrare contemporaneamente che F invertibile e che B ortogonale basta verificare
che tB B = In , cio che per ogni x V , si ha t B(B(x )) = x .
(y )
=
Siano x e y due vettori arbitrari di V . Visto che F ortogonale, abbiamo
x F
(x ), F
y1
1
.
.
x , y . Ora, rispetto alla base f , supponiamo di avere componenti x = .. e y = .. .
yn

xn

Poich f per ipotesi ortonormale, la matrice del prodotto scalare B f (, ) la


matrice

y1
..
t
identit (Proposizione 5.8). Pertanto, in base f , F (x ),F (y )= (x 1 . . . x n ) B In B . .
yn
y
1
.
Poich, per ipotesi, questultimo deve essere uguale a x , y  = (x 1 . . . x n )In .. , per ogni

scelta di x e y in V , otteniamo lidentit tra matrici t B B = In .

yn

Supponiamo ora che F sia invertibile. Sia f una qualsiasi base ortonormale di V e sia B =
M f (F ). La matrice di F 1 in base f quindi B 1 =t B, per le ipotesi su B. Per ogni x
e y in V , con componenti
rispetto a f come
y sopra, dalle ipotesi su F e su B si ha x , y  =

y1
.
.1
(x 1 . . . x n )In .. = (x 1 . . . x n )t B B .. = F (x ), F (y ), cio F ortogonale.
yn

yn

Osservazione 11.1
a)

b)

Dalla condizione [11.1], osserviamo che un opera- c)


tore ortogonale conserva il prodotto scalare tra vettori. Quindi conserva la norma di un vettore e conserva langolo convesso tra due vettori non nulli. In
particolare, un operatore ortogonale trasforma basi
ortonormali in basi ortonormali (Teorema 5.5).
Se un operatore ortogonale ha autovalori reali, allora essi sono solamente 1. Infatti, sia un autovalore reale di F e sia x un relativo autovettore, i.e. F(x ) = x. Allora, poich da a) abbiamo
||F(x )|| = ||x || = ||||x || = ||x ||, si ha che
|| = 1 (Esempio 10.3).

Tuttavia, possono esistere operatori ortogonali che


non hanno mai autovalori reali (e pertanto sono sicuramente non diagonalizzabili). Per esempio,
prendiamo R2 con prodotto scalare standard e ssiamo la base canonica e come base
 di riferimento.
Consideriamo la matrice A = 01 10 . Essa ortogonale. Per la Proposizione 11.1, A denisce un
operatore ortogonale F = FA su R2 . Per tale operatore F privo di autovalori reali, infatti il polinomio caratteristico di A PA (T ) = T 2 + 1 che non ha
soluzioni reali (Esempio 10.2).

11.2 Operatori autoaggiunti e matrici simmetriche


definizione 11.2 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n.

Operatore autoaggiunto

Sia F un operatore lineare su V . Allora, F si dice operatore autoaggiunto


(rispetto a , ) se, per ogni x , y V , vale:
[11.2]
280

F (x ), y  = x , F (y )

11.2 Operatori autoaggiunti e matrici simmetriche


A volte un tale operatore viene chiamato anche operatore simmetrico, per via della
simmetria nella [11.2]. Tuttavia, come vedremo in seguito (Esempio 11.1), il termine
simmetrico potrebbe generare confusione. Pertanto, in tale testo preferiamo utilizzare
la terminologia di operatore autoaggiunto.
Come per gli operatori ortogonali, vogliamo stabilire come si rappresentano gli operatori autoaggiunti rispetto ad opportune basi. Per fare questo, dobbiamo considerare
alcune questioni preliminari.
Sia M una matrice ortogonale n n. Allora, per ogni matrice A
n n, si ha la seguente identit:

lemma 11.1

M 1 A M = t M A M

[11.3]
Dimostrazione
M 1 .

Discende dal fatto immediato che, essendo M ortogonale, allora t M =




corollario 11.1 Date due matrici A e B, n n, esse sono congruenti per mezzo
di una matrice ortogonale M, n n, se e solo se sono simili per mezzo di M.

Dimostrazione

Discende direttamente dal Lemma 11.1 e dalle nozioni di congruenza e


di similitudine (Definizioni 5.15 e 10.4).


Posti questi preliminari, possiamo stabilire come si presentano gli operatori autoaggiunti in opportune basi.
proposizione 11.2 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n e

sia F un operatore autoaggiunto:


(i)
(ii)

sia f una qualsiasi base ortonormale di (V, , ). Sia A = M f (F ).


Allora A una matrice simmetrica;
se f  unaltra base ortonormale, sia B = M f  (F ). Allora, B essa stessa
una matrice simmetrica, che inoltre congruente ad A. Precisamente, se
M = M f f  la matrice cambiamento di base da f a f  , allora B =
t M A M.

Dimostrazione
(i)

Sia f j un qualsiasi vettore della base f , 1 j n. Se A = (a i j ), 1 i, j n,


abbiamo per definizione che
[11.4]

F ( f j ) = a1 j f 1 + a2 j f 2 + . . . + an j f n , 1 j n

281

11 Matrici ortogonali, simmetriche ed operatori associati


Il fatto che f ortonormale, determina B f (, ) = In (Proposizione 5.8). Pertanto,
dalla [11.4] vediamo subito che F ( f j ), f i  = a i j f i , f i  = a i j , 1 i, j n.
Daltra parte, sempre dalla [11.4] dove utilizziamo lindice i al posto dellindice j ,
abbiamo  f j , F ( f i ) =  f j , a j i f j  = a j i 1 i, j n.

(ii)

Dalla condizione [11.2] che stabilisce che F autoaggiunto, abbiamo quindi che
a i j = a j i , 1 i, j n. Pertanto A simmetrica.
Poich la base f  ortonormale, per (i) B = M f  (F ) simmetrica. Ora, dato
che A e B sono due matrici (simmetriche) che rappresentano lo stesso operatore
F in due basi diverse, allora esse sono coniugate mediante la matrice cambiamento
di base M := M f f  , i.e. vale B = M 1 A M (Osservazione 10.2). Poich f e f 
sono inoltre ortonormali, dal Teorema 5.5 M una matrice ortogonale. Pertanto,
dal Corollario 11.1, B =t M A M, i.e. A e B sono congruenti per mezzo di M.


Osservazione 11.2
Notiamo che il fatto che B sia simmetrica discende automaticamente dalla relazione di congruenza tra A e B e dal fatto [11.5]
che A simmetrica; infatti abbiamo:

B =t (t MAM) =t Mt At (t M) =
=t Mt At (t M) =t MAM = B

Osservazione 11.3
do per linearit le relazioni [11.4] valide per i versori di f.In
altri termini, parlare di operatori autoaggiunti su V, spazio
euclideo di dimensione n, o di matrici simmetriche reali di
ordine n relativamente a basi ortonormali di V, sono cose
equivalenti. Inoltre, dalla Proposizione 11.2-(ii), in differenti basi dovr valere la relazione di congruenza fra le varie
f
Tale operatore autoaggiunto F = FA sar denito estenden- matrici rappresentative.

Possiamo invertire la corrispondenza precedentemente descritta. Infatti, se A una matrice simmetrica di ordine n, dal
Teorema 10.2 e dalla Proposizione 11.2, possiamo considerare A come la matrice associata ad un operatore autoaggiunto
in unopportuna base ortonormale f di (V, , ).

In particolare, abbiamo dimostrato quindi:


corollario 11.2 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n:

(i)
(ii)

un operatore F su V autoaggiunto se, e solo se, la matrice rappresentativa


di F in ciascuna base ortonormale di V una matrice simmetrica;
due matrici simmetriche A e B, n n, rappresentano lo stesso operatore
autoaggiunto rispetto a due diverse basi ortonormali di V se, e solo se, sono
congruenti.

Come nella Definizione 9.6, il rango delloperatore autoaggiunto F il rango della matrice simmetrica A = M f (F ) che lo rappresenta in una qualsiasi base ortonormale
f di V .
282

11.3 Operatori autoaggiunti e forme quadratiche


Osserviamo che la Proposizione 11.2 e quanto discusso nellOsservazione 11.3 valgono sotto le ipotesi che f sia ortonormale. Precisamente, non vero in generale che un
operatore autoaggiunto ha, in ciascuna possibile base di V , una matrice rappresentativa che simmetrica. Viceversa, non vero che una matrice simmetrica rappresenti,
in ciascuna base di Rn , un operatore autoaggiunto. Vediamo i seguenti esempi.
Esempio 11.1 Operatore autoaggiunto in R2
Sia R2 lo spazio vettoriale euclideo, con prodotto scalare ,  standard
  come nellEsempio 5.2
e con base canonica e come base ortonormale ssata. Sia A := 12 21 . Tale matrice denisce
e

loperatore F = FA che, in base e, determinato dalle condizioni F(e1 ) = e1 + 2e2 , F(e2 ) =


2e1 + e2 .
Tale operatore denito su tutto lo spazio vettoriale R2 per le propriet di linearit di F.
DallOsservazione 11.3, poich A simmetrica ed e ortonormale, loperatore F autoaggiunto. Sia ora g la base data dai vettori g1 e g2 , le cui componenti rispetto ad e sono
 
 
g1 = 11 , g2 = 21 . La base g manifestamente non ortonormale. Pertanto, se denotiamo con M = Me g la matrice cambiamento di base da e a g, loperatore autoaggiunto F
ha in base g la matrice rappresentativa





1
2
1 2
1 2
3
6
=
B=M AM=
1 1
2 1
1 1
0 1
1

(Teorema 10.1) che non simmetrica.

Esempio 11.2 Operatore non autoaggiunto in R2


Sia R2 lo spazio vettoriale euclideo munito di prodotto scalare standard, con base canonica
e ssata. Sia g la base denita nellEsempio 11.1. Sia S loperatore di R2 denito in base
g dalle condizioni S(g1 ) = g1 + g2 , S(g2 ) = g1 g2 . In base g, loperatore S ha matrice


rappresentativa C := Mg (S ) = 11 11 , che simmetrica. Per, S non un operatore

autoaggiunto. Infatti S(g1 ), g2  = g1 , g2  + g2 , g2 , e g1 , S(g2 ) = g1 , g1  g1 , g2 ;


utilizzando le coordinate dei vettori di g rispetto ad e, notiamo che S(g1 ), g2  = 8 =
g1 , S(g2 ) = 1. Si pu vericare (lasciamo il compito al lettore) che in effetti Me (S ) non
simmetrica, come ci si doveva aspettare dal Corollario 11.2.

11.3 Operatori autoaggiunti e forme quadratiche


Consideriamo ora un altro oggetto fondamentale collegato alle matrici simmetriche
ed agli operatori autoaggiunti.
283

11 Matrici ortogonali, simmetriche ed operatori associati


definizione 11.3 Sia A = (a i j ), 1 i, j n, una matrice simmetrica n n.

x1

.
Sia x = .. un arbitrario vettore di Rn , espresso nelle componenti rispetto

Forma quadratica
di una matrice
simmetrica

xn

alla base canonica e . Definiamo la forma quadratica Q A di ordine n, associata


ad A, lapplicazione Q A : Rn R definita da:

x1
..
t
Q A (x ) : = x Ax = (x 1 . . . x n )A . =
xn
[11.6]

=
a i j x i x j , x Rn
1i, j n

Lespressione di Q A (x ), nelle coordinate di Rn date rispetto ad e , un polinomio


Q A (x 1 , . . . , x n ) omogeneo di secondo grado in tali coordinate (il termine omogeneo significa che ogni monomio del polinomio di grado due). In particolare,
facilmente si vede che vale:
[11.7]

Q A (x ) = 2 Q A (x ), R, x Rn

da questo discende il termine forma quadratica.


Poich A una matrice simmetrica, denotate con X 1 , X 2 , . . . , X n le indeterminate
associate alle coordinate fissate su Rn , possiamo scrivere in forma pi compatta tale
espressione come un polinomio in n indeterminate:
2

[11.8]

Q A (X 1 , . . . , X n ) = (a 11 X 1 + a 22 X 2 + . . . + a nn X n )+


+ 2
ai j X i X j
1i< j n

Data A come sopra, si usa quindi il termine forma quadratica per riferirsi indifferentemente sia allapplicazione Q A come nella [11.6] sia al polinomio omogeneo
Q A (X 1 , . . . , X n ) come nella [11.8]. Viceversa, abbiamo:
definizione 11.4 Una forma quadratica (reale) Q di ordine n un polinomio
omogeneo, di secondo grado, in n indeterminate ed a coefficienti reali, come nella [11.8], o equivalentemente, unespressione come nellultimo membro
della [11.6] nelle coordinate di Rn determinate rispetto alla base e .

Forma quadratica
di ordine n

Notiamo che, da come definita, vale di nuovo una relazione della forma [11.7].
Possiamo associare ad una forma quadratica Q di ordine n come nella Definizione 11.4 una matrice simmetrica A = A Q , n n, nel seguente modo:
284

11.3 Operatori autoaggiunti e forme quadratiche


(i)
(ii)

nel posto i, i di A mettiamo il coefficiente a ii del polinomio, per ogni 1


i n;
nel posto i, j e nel posto j, i mettiamo il coefficiente a i j del polinomio,
per ogni 1 i < j n. Notiamo infatti che i termini misti X i X j del
polinomio nella [11.8], i.e. con 1 i < j n, hanno tutti coefficiente
2a i j .

Pertanto, A cos costruita banalmente simmetrica.


definizione 11.5 Data una forma quadratica Q di ordine n, la matrice simmetri-

ca n n, A = A Q , determinata come in (i) e (ii), si dice la matrice simmetrica


associata a Q (nella base canonica e ), i.e. che rappresenta Q in base e .

Matrice simmetrica
di una forma quadratica

Esempio 11.3 Alcune forme quadratiche


1.

Se n = 1, una forma quadratica non altro che Q(X1 ) = a X1 , con a = 0.


2

Se n = 2, abbiamo Q(X1 , X2 ) = a X1 + 2bX1 X2 + c X2 . La matrice associata


 
A = AQ = ba bc .
2.

Troviamo la matrice simmetrica A associata alla forma quadratica di ordine 3:


Q(X1 , X2 , X3 ) = X12 + X22 + X1 X2 X2 X3 + 2X1 X3 . Da quanto spiegato prece 1 1/2 1

dentemente, si ha A := 1/2 1 1/2 .


1 1/2

Osservazione 11.4
Dalle denizioni date no ad ora notiamo che, ssata la ba- forme quadratiche di ordine n e matrici simmetriche n n.
se canonica e su Rn , esiste una corrispondenza biunivoca tra Vediamo subito che tutto ci leggermente pi intrinseco.

Sia Q(x ) una forma quadratica di ordine n e


sia A la sua
x1
.
matrice rappresentativa in base e , i.e. Q(x ) = (x 1 . . . x n )A .. . Sia b una

proposizione 11.3

xn

qualsiasi altra base di


Rn e
sia C = Me
b la matrice cambiamento di base da e
y1
x1
.
..
a b. Considerato x = . = C .. il relativo cambiamento di coordinate
xn

yn

in Rn (Teorema 4.9), in tali nuove coordinate si ha



y1
..
[11.9]
Q(x ) = (y 1 . . . y n )B . , dove
yn

B =t C AC

i.e. B congruente ad A per mezzo di C .


285

11 Matrici ortogonali, simmetriche ed operatori associati


Dimostrazione

Utilizzando la rappresentazione in base e , il cambiamento di coordinate


relativo e le regole di trasposizione di matrici, si ha Q(x ) = (x 1 . . . x n )
x x
y y
y t
x
..1
..1
..1
..1
..1
..1
t
t
t
=
A .
=
C .
A C .
=
A .
.
.
yn
yn
yn
xn
xn
xn
y
y
..1
.1
C AC . = (y 1 , . . . , y n )B .. .
yn

yn

Osservazione 11.5
Notiamo che quanto stabilito nella Proposizione 11.3 compatibile con quanto discusso no ad ora. Infatti, come visto nella [11.5] (con M da sostituirsi con C), sappiamo che
la matrice B come nella [11.9] sicuramente una matrice
simmetrica n n, visto che A lo era.

voca tra forme quadratiche di ordine n e matrici simmetriche


n n.

Effettivamente, la nozione di forma quadratica si pu dare in


modo pi intrinseco. Per il lettore interessato a tali approfondimenti, rimandiamo per esempio a [11, par. 15] (anche [1,
Ricordando lOsservazione 11.4 abbiamo inoltre che, ssata par. 16]).
una qualsiasi base b di Rn , esiste una corrispondenza biuni-

Per collegare le forme quadratiche di ordine n con gli operatori autoaggiunti in spazi
vettoriali euclidei, dalle corrispondenze biunivoche che scaturiscono dalla Proposizione 11.2, lOsservazione 11.3 e il Corollario 11.2, ci possiamo limitare a considerare basi ortonormali per Rn e passare attraverso le matrici simmetriche. Tuttavia, vogliamo osservare che una direzione di questa corrispondenza pi intrinseca.
Infatti, dato un operatore autoaggiunto F , associare ad esso una forma quadratica
indipendente dal fatto di doversi limitare a basi ortonormali. Abbiamo infatti la
seguente:
definizione 11.6 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n.

Forma quadratica
di un operatore
autoaggiunto

Sia F un operatore autoaggiunto. Definiamo la forma quadratica Q F di ordine


n associata alloperatore autoaggiunto F lapplicazione Q F : V R definita
da
[11.10]

Q F (x ) := F (x ), x , x V

Notiamo che, come nella [11.7], se nella [11.10] sostituiamo x con x , per un qualsiasi R, allora dalla linearit di F e del prodotto scalare si ha che Q F (x ) =
2 Q F (x ). Notiamo inoltre che, poich F autoaggiunto, si ha anche
[11.11]

286

Q F (x ) = x , F (x ), x V

11.3 Operatori autoaggiunti e forme quadratiche

Esempio 11.4 Norme e forme quadratiche


Lapplicazione || ||2 : V R che ad ogni vettore associa la sua norma al quadrato, una
forma quadratica associata alloperatore autoaggiunto F = Id, cio alla matrice identit.

Osservazione 11.6
Notiamo che lassociazione considerata nella Denizione 11.6 non richiede la scelta di una base, a fortiori di una
base ortonormale. Ovviamente, una volta ssata f una base ortonormale, sia A = Mf (F ). Utilizzando il fatto che la
matrice del prodotto scalare in base f la matrice identit
In (Proposizione 5.8), insieme con le condizioni equivalenti
[11.10] e [11.11], otteniamo:

riamente ortonormale, siano G = Mb (F ) e P = Bb (, ),


rispettivamente, le matrici che rappresentano F ed il prodotto scalare in base b. Se b non ortonormale, P non la
matrice identit ma sicuramente una matrice simmetrica
mentre G non necessariamente simmetrica. Tuttavia, dalle
condizioni equivalenti [11.10] e [11.11], otteniamo in base b:
b

QF (x ) =t x t G P x =t xP Gx, x Rn

QF (x ) =t x t Ax =t xAx, x Rn

cio ritroviamo esattamente il fatto che A simme- i.e. t G P = P G. Pertanto, notiamo che la matrice che rappretrica (Corollario 11.2) e che QF = QA come nella senta QF in base b la matrice C := P G che simmetrica;
Denizione 11.3.
infatti abbiamo
t

Se invece ssiamo una qualsiasi base b di V, non necessa-

C =t (P G ) =t Gt P =t G P = P G = C

proposizione 11.4 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n e

sia f una qualsiasi base ortonormale di V .


(i)

Dato F un operatore autoaggiunto su V , la forma quadratica Q F associata a F come nella [11.10] ha, in base f , matrice rappresentativa
f
A := A Q F la matrice simmetrica M f (F ) (Proposizione 11.2-(i)).
Se f  unaltra base ortonormale di V , sia M = M f f  la matrice camf

biamento di base. La forma quadratica QF := Q F di ordine n, associata


f

(ii)

a F in base f  , ha matrice associata la matrice simmetrica B = BQ :=


M f  (F ) =t M A M.
Viceversa, consideriamo lidentificazione di V con Rn data dalla base f
di V . Data una forma quadratica Q di ordine n, con matrice simmetrica
f
associata A = A Q , esiste un unico operatore autoaggiunto F = FQ
f

sullo spazio euclideo (V, , ): questo loperatore F = F A associato alla


matrice simmetrica A in base f .
Dimostrazione
(i)

La prima parte dellenunciato discende direttamente dallOsservazione 11.6. Per


quanto riguarda la seconda parte, una riformulazione della Proposizione 11.2-(ii)
e di un caso particolare della Proposizione 11.3.

287

11 Matrici ortogonali, simmetriche ed operatori associati


(ii)

Discende direttamente dalla Definizione 11.5 e da quanto discusso nellOsservazione 11.3.



corollario 11.3 Sia (V, , ) uno spazio vettoriale euclideo n-dimensionale. Due

matrici simmetriche A e B rappresentano una medesima forma quadratica Q F


su V come sopra se, e solo se, sono congruenti.
Osservazione 11.7

Osserviamo che, dalla Proposizione 11.4, discende diretta- trici simmetriche di ordine n rispetto a basi ortonormali di V
mente che in uno spazio vettoriale euclideo (V, , ) di di- o forme quadratiche di ordine n rispetto a basi ortonormali
mensione n, considerare operatori autoaggiunti su V, o ma- di V sono tutte formulazioni equivalenti.

Dalla Definizione 9.6 e dalle Proposizioni 11.3, 11.4, abbiamo:

Q una forma quadratica di ordine n come nella [11.8].


Definiamo il rango della forma quadratica Q, denotato con r (Q), il rango
delloperatore autoaggiunto F associato a Q (equivalentemente, il rango della
matrice simmetrica A ad essa associata in una qualsiasi base di V ). La forma
quadratica Q si dir:

definizione 11.7 Sia

(i)
(ii)

degenere, se r (Q) < n, in altre parole se F (equivalentemente, A) non


invertibile;
non-degenere se r (Q) = n, i.e. se F (equivalentemente, A) invertibile.

Concludiamo dando una definizione relativa al segno dei possibili valori assunti da
una forma quadratica Q (per ulteriori definizioni equivalenti, si veda e.g. [5, par. 20.3
e 20.4]).
definizione 11.8 Una forma quadratica Q di ordine n si dice:

definita positiva se, per ogni x = 0, Q(x ) > 0;


semi-definita positiva se, per ogni x = 0, Q(x ) 0;
definita negativa se, per ogni x = 0, Q(x ) < 0;
semi-definita negativa se, per ogni x = 0, Q(x ) 0;
indefinita se, al variare di x = 0, Q(x ) assume sia valori positivi sia
valori negativi.

Osservazione 11.8
Da quanto dimostrato nella Proposizione 11.3, il valore che Pertanto, se abbiamo una forma quadratica Q per esempio
una forma quadratica Q assume su un vettore x indipen- denita positiva, lo stesso sar la forma quadratica Q che
dente dalle componenti di x e quindi dallespressione di Q. si ottiene trasformando Q in unaltra base b.

288

11.4 Autovalori di una matrice simmetrica


Nel paragrafo 11.6, discuteremo ancora sul segno dei valori che una forma quadratica
Q pu assumere.

11.4 Autovalori di una matrice simmetrica


Abbiamo visto nel paragrafo 11.1 che le matrici ortogonali possono non ammettere
autovalori reali (in particolare possono non essere diagonalizzabili). In questo paragrafo dimostriamo che una tale situazione non capita mai per gli autovalori di matrici
simmetriche. Questo avr conseguenze fondamentali sia sugli operatori autoaggiunti
e forme quadratiche associate (par. 11.5 e par. 11.6), sia sullo studio della geometria
delle coniche (cap. 12) e delle quadriche (cap. 13).
Una breve nota su come sar organizzato questo paragrafo. Per le conseguenze sugli operatori autoaggiunti, avremo bisogno di dimostrare che una qualsiasi matrice
simmetrica n n ammette esclusivamente autovalori reali, per ogni n 1. Il modo
pi breve per dimostrare questo risultato utilizza i numeri complessi (Teorema 11.1).
Invece, per quanto riguarda lo studio delle coniche e delle quadriche, sar sufficiente
dimostrare il medesimo risultato per n 3 intero positivo. In questo caso, si possono utilizzare tecniche pi elementari. Pertanto, per facilitare il lettore eventualmente
poco avvezzo ad i numeri complessi e pi interessato allutilizzo di questo risultato
per lo studio della geometria di coniche e quadriche, nel Teorema 11.2 tratteremo
per via elementare i casi particolari con n 3.
teorema 11.1 Sia n 1 un intero. Sia A una matrice simmetrica n n. Allora

A ha esclusivamente autovalori reali.

Se n = 1, non c nulla da dimostrare. Pertanto, assumiamo dora in poi


n > 1. Se A la matrice nulla, essa ha tutti gli autovalori uguali a zero, i.e. 0 un autovalore di
molteplicit algebrica n. Assumiamo quindi che A sia una matrice non identicamente nulla.
Sia T unindeterminata e sia

Dimostrazione

P (T) = P A (T) = a n T n + a n1 T n1 + + a 1 T + a 0
il polinomio caratteristico di A, con a n = 1 e a j R opportuni, per 0 j n 1. Tale
polinomio non nullo ed a coefficienti reali perch A una matrice reale, non nulla.
Ora, sia C linsieme dei numeri complessi. ben noto che R C. Pertanto il polinomio
P (T) si pu vedere come un particolare polinomio a coefficienti complessi: precisamente i
coefficienti di P (T) sono tutti numeri complessi della forma c j := a j + i 0, dove i lunit
immaginaria; in altri termini i c j hanno parte immaginaria nulla, per ogni 0 j n.
Ricordiamo che C algebricamente chiuso, i.e. ogni polinomio in una indeterminata T ed
a coefficienti in C ha tutte le sue radici in C (per una dimostrazione di questo risultato e
per formulazioni pi forti, rimandiamo il lettore a [8, app. 2, par. F] e [11, app. A: Teoremi

289

11 Matrici ortogonali, simmetriche ed operatori associati


A.6 e A.7]). Pertanto, il polinomio P (T) ha sicuramente tutte le sue radici in C. Si tratta di
dimostrare che, per ogni radice di P (T), si ha R.
Come fatto per il polinomio caratteristico, possiamo considerare la matrice A come una
particolare matrice n n su C: gli elementi della matrice A sono particolari numeri complessi
che hanno la parte immaginaria nulla, dato che per ipotesi A era una matrice reale. In tal
modo, possiamo considerare F = F A loperatore lineare sullo spazio vettoriale complesso
Cn associato ad A rispetto alla base canonica e C di Cn . Poich un autovalore di A, e
quindi di F (strategia analoga al Teorema 10.5), esiste un autovettore z Cn di F tale che
F (z) = Az = z. Moltiplichiamo a sinistra lultima eguaglianza per t z, dove z il vettore
coniugato di z, i.e. il vettore le cui componenti rispetto ad e C sono le coordinate coniugate di
quelle di z (ricordiamo che il coniugato a
+ i b del numero complesso a + i b il numero
t

complesso a i b). Si ha pertanto z Az =t zz = t z z.
z
..1
Se, rispetto ad e C , abbiamo componenti z =
. , dove z j = a j + i b j , a j , b j R
t
zz

n

n

zn

2
j =1 (a j

+ b j ) R \ {0}, per ogni z Cn .


t
Perci poich = tzAz , sufficiente dimostrare che anche t z Az R. Ricordiamo che un
zz
numero complesso a + i b reale se, e solo se, a + i b = a
+ i b e che il coniugio di

numeri complessi involutorio, i.e. a
+ i b = a + i b. Perci, poich A una matrice reale

t
t
e simmetrica, si ha: t z Az = z Az = z t Az =t (t z Az) =t z Az, dove lultima eguaglianza
discende dal fatto che, essendo t z Az uno scalare, loperazione di trasposizione opera come
per 1 j n, allora

zjzj
j =1 

lidentit.


Osservazione 11.9
Se A una matrice simmetrica n n, il suo polinomio caratteristico PA (T ) un polinomio di grado n. Ricordando la
notazione nel paragrafo 10.5, se 1 , . . . k , k n, sono tutti
gli autovalori distinti di A il precedente risultato afferma che
k
n = i=1 a(i ).

Pertanto, la fattorizzazione di P(T ) = PA (T ) come nella [10.2] tale che Q(T ) il polinomio costante (Caso b)
discusso dopo la [10.2]). In particolare, PA (T ) ha n radici
distinte se, e solo se, tutti gli autovalori di A sono semplici.

Esempio 11.5 Una matrice simmetrica di ordine 3


Consideriamo la matrice simmetrica A =

002

020
200

. Il polinomio caratteristico di A PA (T ) =

(2T)(T 2 4). Vediamo subito che A ha tutti autovalori reali: lautovalore 1 = 2 semplice
mentre lautovalore 2 = 2 di molteplicit algebrica 2. Pertanto, il numero di autovalori
distinti di A k = 2, ma se ciascuno di essi viene contato con la relativa molteplicit algebrica
otteniamo che il numero delle radici (non distinte) di Pa (T ) 3, come il grado di PA (T ).

290

11.4 Autovalori di una matrice simmetrica


Come specificato allinizio di questo paragrafo, nei capitoli 12 e 13, avremo bisogno
del precedente risultato soltanto per i casi 2 n 3. Pertanto, per queste necessit, esso si pu dimostrare con tecniche pi elementari e senza invocare i numeri
complessi.
teorema 11.2 Sia n 3 un intero positivo. Sia A una matrice simmetrica n n
reale. Allora A ha esclusivamente autovalori reali.

Se n = 1 non c nulla da dimostrare. Pertanto, assumiamo dora in poi


2 n 3. Se A la matrice nulla, essa ha tutti gli autovalori uguali a zero, i.e. 0 un autovalore di molteplicit algebrica n, con n = 2 o 3. Assumiamo quindi che A sia una matrice
non identicamente nulla.

Dimostrazione

Vediamo prima il caso n = 2. Dalle ipotesi su A, esistono a , b, c R, con (a , b, c ) =



(0, 0, 0), tali che A = ab bc . Il polinomio caratteristico P A (T) = T 2 (a + c )T
(b 2 a c ). Notiamo subito che, il discriminante dellequazione di secondo grado data da
P A (t) = 0
 = (a + c )2 + 4(b 2 a c ) = a 2 + c 2 + 2a c + 4b 2 4a c =
= (a c )2 + 4b 2
Lunica possibilit per avere  = 0 b = a c = 0: in tal caso, necessariamente si deve
avere a = 0; ma allora A = a I2 , che pertanto ha due autovalori reali e coincidenti.
In tutti gli altri casi si ha necessariamente  > 0, dato che  somma di due quadrati dove
almeno uno tra a c e b diverso da zero. In tale eventualit, P A (T) ha due soluzioni reali
e distinte.
Supponiamo ora n = 3. Data A simmetrica non nulla 3 3, il suo polinomio caratteristico
ha grado tre. ben noto che un qualsiasi polinomio cubico ammette almeno una radice
reale. Pertanto, nella nostra situazione, A ammette almeno un autovalore reale . Sia v un
v
autovettore di A relativamente a . Sia e v il versore ad esso associato, i.e. e v = ||v||
.
Sia ora v il complemento ortogonale in R3 della retta vettoriale Lin(v). Prendiamo una


qualsiasi base ortonormale di v , sia essa b = f , f . Pertanto, g := e v , f , f una base
ortonormale per R3 . Sia M = Me g la matrice cambiamento di base dalla base canonica e a
g . Poich e e g sono basi ortonormali, M ortogonale. Pertanto, in base g la matrice A si
trasforma in B =t M A M che quindi una matrice simmetrica (e.g. [11.5]).
Il fatto che e v un autovettore di A relativo allautovalore implica che B =

x y
0 a b
0d c

, con

x , y , a , b, c , d R. Poich per, B deve essere

simmetrica allora necessariamente x = y =


00
0 e b = d , i.e. B della forma B = 0 a b . Ricordiamo che il polinomio caratteristico di
0 b c

291

11 Matrici ortogonali, simmetriche ed operatori associati


una matrice invariante per la relazione di similitudine (Teorema 10.4). Poich e e g sono
basi ortonormali, dal Corollario 11.1, in tal caso il polinomio caratteristico invariante pure
rispetto alla congruenza tra A e B, quindi
P A (T) = P B (T) = ( T) (T 2 (a + c )T (b 2 a c ))
Dalla fattorizzazione precedente del polinomio, vediamo che il fattore lineare (T) fornisce
la radice R considerata in precedenza, per il fattore quadratico si ragiona esattamente
come nel caso n = 2, discusso in precedenza. In particolare, anche per n = 3, tutti gli
autovalori di A sono reali.


11.5 Teorema spettrale degli operatori autoaggiunti


In questo paragrafo consideriamo il problema dellesistenza di basi diagonalizzanti
per operatori autoaggiunti in uno spazio vettoriale euclideo (V, , ). Queste basi
diagonalizzanti sono basi in cui la matrice associata alloperatore autoaggiunto sar
una matrice diagonale (Definizioni 10.3 e 10.5).
Abbiamo bisogno preliminarmente del seguente:
Sia (V, , ) uno spazio vettoriale euclideo di dimensione n 1.
Sia F un operatore autoaggiunto su V e sia u un suo autovettore, relativo ad un
autovalore R. Allora, denotato con u il complemento ortogonale in V di
Lin(u), si ha:

lemma 11.2

[11.12]

F (u ) u

Per ipotesi, F (u) = u. Per ogni v u , poich F autoaggiunto, si


ha F (v), u = v, F (u) = v, u = v, u = 0, cio F (v) u .


Dimostrazione

Possiamo finalmente dimostrare il seguente:


teorema 11.3 ( teorema spettrale degli operatori autoaggiunti) Sia (V, , ) uno

spazio vettoriale euclideo di dimensione n 1. Sia F un operatore autoaggiunto


su V . Allora esiste una base f , ortonormale per V , che costituita da autovettori
di F .

Si procede per induzione su n = dim V . Se n = 1, non c nulla da


Dimostrazione
dimostrare: un qualsiasi f R tale che f = 1 la base voluta.
Supponiamo n 2 e assumiamo vero lasserto per n 1. Se F loperatore nullo, non c
niente da dimostrare perch la sua matrice associata la matrice nulla. Sia pertanto F non

292

11.5 Teorema spettrale degli operatori autoaggiunti


identicamente nullo. Sia e una qualsiasi base ortonormale per V . Poich F autoaggiunto,
dalla Proposizione 11.2, A := Me (F ) una matrice simmetrica. Dal Teorema 11.1, la matrice A ha tutti autovalori reali. Dal Teorema 10.5 gli autovalori delloperatore F coincidono
con quelli di A, quindi sono tutti reali. Sia 1 uno di tali autovalori e sia f 1 un autovettore
ad esso associato. A meno di normalizzare, si pu supporre che || f 1 || = 1.

Osserviamo che, con notazioni come nel Lemma 11.2, f 1 un sottospazio vettoriale di V

di dimensione n 1. In base alla [11.12], F ( f 1 ) f 1 , cio la restrizione delloperato

re F al sottospazio f 1 definisce un operatore F1 : f 1 f 1 che ovviamente ancora

autoaggiunto, in quanto F1 = F | f , quindi esso agisce come F sui vettori di f 1 .


1

Per ipotesi induttiva, esiste una base ortonormale di f 1 che costituita da autovettori di F1 .
Denotiamo tale base con f 2 , . . . , f n . Per come costruito il tutto, f := f 1 , f 2 , . . . , f n
una base ortonormale di V perch i vettori sono a due a due ortogonali fra loro e ciascuno
di norma unitaria. Inoltre essi sono, per costruzione, tutti autovettori di F .


Osservazione 11.10
Il termine spettrale collegato allo spettro delloperatore lineare F, denito allinizio del paragrafo 10.2. Il precedente
teorema determina delle condizioni pi forti di quelle discusse nellOsservazione 11.9. Infatti, dato F autoaggiunto,
ssiamo una base ortonormale per V, sia essa e. Otteniamo una matrice simmetrica A = Me (F ) di ordine n. Per

il Teorema 11.1, A ammette tutti autovalori reali, ciascuno


contato con la propria molteplicit algebrica; il precedente
risultato ci assicura inoltre che, per ogni autovalore di A,
a() = g(). Pertanto, dalla condizione [10.3], A nella base
f del teorema spettrale si diagonalizza come nella [10.4].

corollario 11.4 Sia f una base di V come nella dimostrazione del Teorema 11.3.

Allora M f (F ) una matrice diagonale D, i cui elementi diagonali sono tutti gli
autovalori distinti 1 , . . . , k di F , k n, e dove ciascun i comparir sulla
diagonale principale di D tante volte quanto la sua molteplicit algebrica (equiv.
geometrica), 1 i k.
Dimostrazione
Il fatto che la matrice D = M f (F ) sia diagonale discende direttamente dai Teoremi 10.3 e 11.3. La seconda parte dellenunciato discende direttamente dalla
definizione di base di autovettori di F e di molteplicit geometrica di un autovalore.

Dal Corollario 11.4, abbiamo quindi la seguente:
definizione 11.9 Una siffatta base f di V viene chiamata base ortonormale

diagonalizzante F .

293

Base ortonormale
diagonalizzante

11 Matrici ortogonali, simmetriche ed operatori associati

Osservazione 11.11
a)

Osserviamo che, nella dimostrazione del Teorema


11.3, A e D sono simili per mezzo della matrice cambiamento di base M = Mef (Osservazione 10.2). Poich per le basi e ed f sono ortonormali, allora M b)
ortogonale. In particolare, dal Lemma 11.1, A e D sono congruenti; in altri termini la diagonalizzazione
di A si ha in una base ortonormale di V ed avviene per mezzo di una matrice ortogonale M. Per cui,
al livello computazionale, per passare da A a D ba-

sta calcolare solo la trasposta di una matrice, che


un calcolo molto pi rapido di quello necessario per
determinare una matrice inversa.
Non esiste un teorema spettrale per gli operatori ortogonali. Ricordiamo infatti che per esempio
nellOsservazione 11.1-c) abbiamo visto operatori ortogonali non diagonalizzabili, poich privi di
autovalori reali.

Abbiamo diverse formulazioni equivalenti del teorema spettrale degli operatori autoaggiunti, la cui dimostrazione discende direttamente da quanto discusso fino ad
ora.
teorema 11.4

(i)
(ii)

(iii)

Per ogni matrice simmetrica reale A, n n, esiste una matrice ortogonale


M, n n, tale che t M A M diagonale.
Sia Q una forma quadratica di ordine n. Allora esiste sempre una base
ortonormale f di Rn che diagonalizza la forma quadratica Q, i.e. tale
che la matrice associata a Q in tale base f una matrice diagonale D
come nel Corollario 11.4.
Il rango della matrice simmetrica A come in (i) (equivalentemente, della forma quadratica Q come in (ii)) uguale al numero di elementi i
non nulli che sono sulla diagonale principale della matrice D come nel
Corollario 11.4.

Concludiamo osservando che, come diretta conseguenza della dimostrazione del Teorema 11.3, abbiamo il seguente risultato che suggerir una procedura operativa per
determinare una base ortonormale diagonalizzante come nel teorema spettrale e quindi la forma precisa della matrice diagonale D.
proposizione 11.5 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n 1

e sia F un operatore autoaggiuntov su V . Se x e y sono due autovettori di F


relativi a due autovalori distinti di F allora x e y sono ortogonali. Ne segue che,
gli autospazi di F sono a due a due ortogonali.
Sia F (x ) = x e F (y ) = y , con = i relativi autovalori reali. Ora
F (x ), y  = x , y  e x , F (y ) = x , y . Poich F autoaggiunto, allora deve valere
x , y  = x , y . Dal fatto che = , segue che x , y  = 0.


Dimostrazione

294

11.5 Teorema spettrale degli operatori autoaggiunti

Osservazione 11.12
Data una matrice simmetrica A n n (equivalentemente,
una forma quadratica Q di ordine n), il precedente risultato fornisce un metodo operativo per calcolare la base f ore)
tonormale che diagonalizza A e la matrice M che rende A
congruente ad una matrice diagonale D. Questo permetter inoltre di precisare ulteriormente quanto dimostrato nel
Corollario 11.4. Si procede nel modo seguente:
f)
a)

b)

si calcola il polinomio caratteristico di A e tutte le


sue radici reali, contate con la relativa molteplicit algebrica (Denizione 10.11, Teorema 11.1 e
Osservazione 11.9);
si sceglie una fra queste radici come primo autovalore di A; sia esso 1 e sia a(1 ) la sua molteplicit algebrica. Lautospazio V ha anche esso dimensione

normalizziamo mediante il procedimento di Gram- g)


Schmidt applicato nel sottospazio V (Teorema 5.3).
1

Otteniamo una base ortonormale per V della


h)

tra gli autovalori residui di A (i.e. distinti da 1 ) ne


prendiamo un secondo, sia esso 2 di molteplicit
algebrica a(2 ). Per esso, ripercorriamo i punti b)

determina una base ortonormale f

:=

k

i=1

a(i ),

quindi f una base di Rn . Tale base , per costruzione, di autovettori di A ed inoltre ortonormale,
dato che gli autospazi determinati sono a due a due
ortogonali fra loro (Proposizione 11.5) e dato che
in ciascun autospazio abbiamo usato nel punto c) il
procedimento di Gram-Schmidt per avere una base
ortonormale in ciascuno degli autospazi;
per costruzione e dalla teoria generale, senza dover
quindi fare alcun calcolo, sappiamo che la matrice A
nella base f diventa la matrice D come nella [10.4];
da ultimo, la matrice M che determina la congruenza tra la matrice A e la matrice D come in g), i.e.
D =t MAM, la matrice M = Mef cambiamento
di base dalla base canonica e alla base (ordinata)
f come nel punto f).

Esempio 11.6 Diagonalizzazione di una forma quadratica


2
2
Sia data la forma quadratica di ordine 2, Q(X1 , X2 ) = 7X1 10 3X1 X2 3X2 . La matrice

7 5 3

simmetrica associata a Q A =
. Notiamo che det A = 0, pertanto Q
5

e di tutte le loro rispettive basi ortonormali calcolate


come nel punto c);
grazie al Lemma 10.2 ed alla Proposizione 11.5, lunione della base ortonormale
di V , di quella di V , . . ., di quella di

come nel teorema spettrale. Infatti, n =

d)

k
1
1
2
2
k
k
f1 , . . . , fa( ) , f1 , . . . , fa( ) , . . . , f1 , . . . , fa( )
k
1
2

zioni che rappresentano il sottospazio Ker (A1 In ),


i.e. risolviamo il sistema lineare omogeneo scritto in
forma vettoriale (A 1 In )X = 0;
scegliamo una qualsiasi base per V e la orto-

procedendo cos come in b), c) e d) per tutti gli autovalori distinti di A, esauriamo il calcolo di tutti gli
autospazi di A, V , V , . . ., V , per qualche k n,

a(1 ) (Osservazione 11.10). Determiniamo le equazioni che rappresentano V considerando le equa-

1
1
forma f1 , . . . , fa( ) ;
1

V della forma f1 , . . . , fa( ) ;

c)

e c). Alla ne, otteniamo una base ortonormale per

3 3

non degenere. Il polinomio caratteristico di A PA (T ) = det (A T I ) = T 2 4T 96. Le


soluzioni di PA (T ) = 0 sono 1 = 12 e 2 = 8. Lautovettore, relativo al primo autovalore
1 = 12, si determina considerando il sistema


5 5 3 = 0

5 3 15 = 0

295

11 Matrici ortogonali, simmetriche ed operatori associati


che fornisce lautovettore v =

 
3
1

, le cui componenti sono espresse rispetto alla base

canonica e. Poich 2 = 1 , dalla Proposizione 11.5, lautovettore relativo allaltro autovalore 2 = 8 sicuramente ortogonale a v. Quindi, senza bisogno di calcolare direttamente
lautospazio V8 , basta prendere un qualsiasi vettorew ortogonale a v: questo sar automaticamente un generatore di V8 . La base ortonormale di R2 costituita da autovettori di
 
 1/2 
v
3/2
, f2 =
. La matrice cam=
A per esempio la base f formata da f1 =
3/2
1/2

||v
||

3/2 1/2

, che una matrice ovviamente


biamento di base M = Mef pertanto M :=
1/2

3/2

ortogonale. Dalla teoria generale, senza dover fare necessariamente il calcolo


fra
 matrici, in

base f la matrice A sar congruente per mezzo di M alla matrice D := 120 80 dato che il

primo versore di f era stato scelto a partire dallautovettore relativo a 1 = 12 ed il secondo


versore di f a partire dallautovettore relativo a 1 = 8.
In particolare, se in base f prendiamo coordinate y1 , y2 e quindi relative indeterminate Y1 ,

Y2 , la forma quadratica in tale base diventa Q (Y1 , Y2 ) = 12Y1 8Y2 . Notiamo che questa
assume sia valori positivi sia negativi. Pertanto essa, e quindi anche la forma quadratica
di partenza Q(X1 , X2 ), manifestamente indenita (Osservazione 11.8). Lasciamo al lettore lesercizio di procedere come nella dimostrazione della Proposizione 11.3 per ottenere tale espressione di Q(Y1 , Y2 ): basta prendere il relativo cambiamento di indeterminate

X1
Y1
=
M
e sostituire nel polinomio dato.
X
Y
2

11.6 Forme canoniche delle forme quadratiche reali


Come nel Teorema 11.4-(ii), data una qualsiasi forma quadratica (reale) Q di ordine
n il teorema spettrale implica lesistenza di una base ortonormale f diagonalizzante
per Q. Precisamente, dal Corollario 11.4 e dallOsservazione 11.12, prese coordinate
y 1 , y 2 , . . . , y n rispetto a f , la forma quadratica Q di partenza diventa
[11.13]

Q := 1 Y1 + + 1 Ya (1 ) + + k Y k1
2

i=1

a (i ))+1

+ + k Yn

dove i i , 1 i k, sono tutti gli autovalori distinti della matrice simmetrica


A = A Q che rappresenta Q nella base di partenza e dove le Y j , 1 j n, sono le
indeterminate associate alle coordinate determinate da tale base.
Poich, dal Teorema 11.4-(iii), r (Q) = r (Q ), il numero dei coefficienti non nulli
nella [11.13] coincide con r (Q). Inoltre, dalla Proposizione 11.3 i valori che la forma
quadratica Q di partenza assume sui vettori di V , espressi nelle coordinate in cui
Q si rappresenta, sono gli stessi valori assunti dalla forma Q , sui medesimi vettori
espressi nella base ortonormale f . In particolare, dallespressione [11.13] e ricordando
296

11.6 Forme canoniche delle forme quadratiche reali


la Definizione 11.8, una forma quadratica Q sar definita positiva (rispettivamente,
negativa, semi-definita positiva ecc.) a seconda del segno degli autovalori non nulli
i di A = A Q (equivalentemente, dei coefficienti del polinomio [11.13]).
Precisamente, dalla Definizione 11.8 e da quanto detto pocanzi, abbiamo il seguente
ovvio risultato.
proposizione 11.6 Una forma quadratica Q di ordine n :

definita positiva (risp., definita negativa) se, e solo se, tutti gli autovalori
di A = A Q sono positivi (risp., negativi);
semi-definita positiva (risp., semi-definita negativa) se, e solo se, tutti gli
autovalori di A sono non negativi (risp., non positivi);
indefinita se, e solo se, A ha sia autovalori positivi sia negativi.

Possiamo determinare delle espressioni ancora pi semplici per una forma quadratica.

Q una forma quadratica di ordine n e


di rango r . Sia A = A Q la matrice simmetrica associata a Q. Allora, esistono un
intero non negativo p r ed una base s di Rn tali che, rispetto alla base s , la
matrice rappresentativa di Q

Ip
O
O
O Ir p O
[11.14]
O
O
O

teorema 11.5 (teorema di sylvester) Sia

dove il simbolo O denota matrici nulle degli ordini opportuni. Inoltre,

lintero p coincide con il numero di autovalori positivi di A, ciascun


autovalore contato con la relativa molteplicit algebrica;
lintero r p coincide con il numero di autovalori negativi di A, ciascun
autovalore contato con la relativa molteplicit algebrica;
lintero n r coincide con la molteplicit algebrica dellautovalore nullo
di A.

Prima di vedere la dimostrazione del teorema di Sylvester, analizziamo alcune sue


importanti conseguenze. Se rispetto alla base s abbiamo coordinate z1 , z2 , . . . , zn ,
il teorema di Sylvester asserisce che in tale base la forma quadratica Q si scrive come
[11.15]

Q(Z1 , Z2 , . . . , Zn ) = Z1 + . . . + Z p Z p+1 . . . Zr

definizione 11.10 Lespressione nella [11.15], si dice forma canonica di Sylvester

della forma quadratica Q di partenza. La base s viene detta la base di Sylvester.

297

Forma canonica
di Sylvester e segnatura
di una forma quadratica

11 Matrici ortogonali, simmetriche ed operatori associati


Gli interi p e r p si dicono rispettivamente indice di positivit ed indice di
negativit della forma quadratica Q, mentre lintero n r si dice lindice di
nullit di Q. La coppia ( p, r p) detta la segnatura di Q.
Il termine segnatura dovuto a quanto segue: ricordando la Definizione 11.8 e la Proposizione 11.6, la natura di una forma quadratica Q (i.e. definita positiva, negativa
ecc.) stabilita direttamente dalla sua forma canonica di Sylvester equivalentemente
dalla sua segnatura; abbiamo infatti che Q :

definita positiva se, e solo se, la segnatura (n, 0) e quindi la forma canonica
2
2
di Sylvester Z1 + . . . + Zn ;
semidefinita positiva se, e solo se, la segnatura (r, 0), con r = r g (Q) n,
2
2
e quindi la forma canonica di Sylvester Z1 + . . . + Zr ;
definita negativa se, e solo se, la segnatura (0, n) e quindi la forma canonica
2
2
di Sylvester Z1 . . . Zn ;
semidefinita negativa se, e solo se, la segnatura (0, r ), con r = r g (Q) n,
2
2
e quindi la forma canonica di Sylvester Z1 . . . Zr ;
indefinita se, e solo se, esiste 0 < p < r n intero, tale che la segnatura
2
2
2
2
( p, r p) e la forma canonica di Sylvester Z1 +. . .+ Z p Z p+1 . . . Zr .

Dimostrazione del teorema di Sylvester

Dal Teorema 11.4-(ii), arriviamo alla base


ortonormale diagonalizzante f = f 1 , . . . , f n , rispetto alla quale Q si esprime come nella [11.13]. Come osservato, il numero dei coefficienti che sono diversi da zero pari al rango
di Q e quindi dipende solo da Q e non dalla specifica base f . Salvo riordinare la base, possiamo supporre che i primi r coefficienti siano diversi da zero e che tra essi figurino prima quelli
positivi, che sono in numero p r . Potremo dunque supporre che la [11.13] sia della forma
2
2
2
2 2
1 Y1 + . . . + p Y p p+1 Y p+1 . . . r Yr per opportuni numeri reali j , 1 j r ,
non necessariamente tutti distinti. Prendiamo i vettori di Rn definiti da:
gi =

1
f ,
i i

1 i r,

g j = f j,

r +1 j n

Ovviamente essi formano una base s ortogonale di Rn , poich f era una base ortonormale.
1
Inoltre g i , g i  = 2 , g j , g j  = 1.
i

Quindi, la forma quadratica ha lespressione come nella [11.15] (Proposizione 11.3). Pertanto
s la base di Sylvester cercata.
Resta da dimostrare che p dipende solo da Q e non dalla base s . Supponiamo di avere in
unaltra base b = b 1 , . . . , b n che la forma quadratica Q si esprima come:
2

Qb (W1 , W2 , . . . , Wn ) = W1 + . . . + W j W j +1 . . . Wr
per un opportuno intero j r . Dobbiamo verificare che j = p.

298

11.6 Forme canoniche delle forme quadratiche reali


Supponiamo per assurdo che j = p; si pu supporre che j < p. Prendiamo i sottospazi
di Rn : U = Lin(g 1 , . . . , g p ) e V = Lin(b j +1 , . . . , b n ). Poich dim(U ) + dim(V ) =
p + n j > n dalla formula di Grassmann (Teorema 9.4) segue che U V = {0}.
Esiste quindi un vettore non nullo k U V . Ma allora, si avrebbe contemporaneamente
Q(k) > 0 e Q(k) < 0, che assurdo. Perci j = p.


Dal teorema di Sylvester, abbiamo in particolare:


corollario 11.5 Ogni matrice simmetrica A, nn, di rango r congruente ad una
matrice della forma come nella [11.14]. Il numero p univocamente determinato
da A e coincide con lindice di positivit della forma quadratica Q A associata
ad A.

Dimostrazione
di base C = C e s

Basta prendere la base di Sylvester s , considerare la matrice cambiamento


e poi applicare la Proposizione 11.3.


Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).

Soluzioni

Quesiti ed esercizi
(i)
1.
3
Sia R dotato del prodotto scalare standard e sia F loperatore autoaggiunto che, rispetto alla base canonica e, (ii)
associato alla forma quadratica

Q(x1 , x2 , x3 ) = x21 + x23 2x1 x2 2x1 x3 + 2x2 x3

scrivere lequazione della forma quadratica Q


associata a F;
utilizzando il teorema Spettrale degli operatori autoaggiunti, diagonalizzare A determinando la base ortonormale di autovettori di A in cui Q risulta
essere una forma quadratica diagonale;
dedurre la forma canonica di Sylvester di Q,
determinando esplicitamente la segnatura di Q.

(i)

scrivere la matrice di F in base e;

(ii)

determinare gli autovalori di F e la matrice


di F rispetto ad una sua base f ortonormale 3.
1

diagonalizzante;
3
2 . Sia F
In R si consideri ssato il vettore u0 =
scrivere lespressione della forma quadratica Q in
1
base f. Determinarne il rango, la segnatura e lindice loperatore lineare di R3 , denito da
di nullit.
F(x ) = x u0 , x R3

(iii)

(iii)

2.
Sia F loperatore autoaggiunto di R4 denito, rispetto alla
(i)
stabilire se F un operatore autoaggiunto;
base canonica, dalla matrice simmetrica

(ii)
calcolare la matrice di F rispetto alla base canonica
1
0 0 0
e confrontare con la risposta in (i).
0 1 0 0

A :=

4.
0 0 1
0
Sia data la forma quadratica di ordine 3
0
0 1 0

299

11 Matrici ortogonali, simmetriche ed operatori associati


Q(X1 , X2 , X3 ) = 3X21 + 4X1 X2 + 8X1 X3 +

F(e1 ) = F(e3 ) =e1 + e3 , F(e2 ) = F(e4 ) =e2 +e4

+ 4X2 X3 + 3X3
(i)

(ii)

(iii)

determinare il rango, la segnatura e lindice di nullit di Q. Dedurre che tipo di forma quadratica
;
determinare una base ortonormale di R3 in cui Q si
diagonalizza e la matrice ortogonale che determina
la congruenza con la relativa matrice diagonale;
determinare la base di Sylvester e la relativa forma
canonica di Sylvester di Q.

(i)
(ii)

stabilire che F un operatore autoaggiunto rispetto


a , ;
determinare una base ortonormale di R4 di autovettori di F e stabilire il rango di F.

6.


Sia data la matrice simmetrica A = 21 2
. Determina2
re una matrice ortogonale M tale che t MAM sia una matrice
diagonale.

5.
Nello spazio vettoriale euclideo R4 , dotato del prodotto sca- 7.
lare standard , , sia dato loperatore F denito, rispetto alla Diagonalizzare la forma quadratica Q(X1 , X2 , X3 ) = X1 X2 +
X1 X3 + X2 X3 . Dedurre il rango e la segnatura di Q.
base canonica e, da:

300

12
Coniche del piano cartesiano R2
In questo capitolo studieremo le coniche del piano cartesiano R2 . In sommi capi, esse
si possono considerare come oggetti geometrici rappresentati da equazioni cartesiane di secondo grado, nelle indeterminate X 1 e X 2 , analogamente a quanto visto
nel capitolo 7 in cui abbiamo studiato le rette del piano come luoghi geometrici
rappresentati da equazioni cartesiane lineari.
Dopo alcune definizioni di base, considereremo nel paragrafo 12.4, le equazioni pi
semplici che definiscono tutti i possibili tipi di coniche C dal punto di vista della
geometria euclidea (Corollario 7.7, dove abbiamo il risultato analogo per le rette di
R2 ). Tali equazioni saranno dette forme canoniche metriche o euclidee delle coniche.
Nel paragrafo 12.6 affronteremo il problema analogo considerando per le equazioni
pi semplici dal punto di vista della geometria affine. Le equazioni che otterremo
verranno dette forme canoniche affini delle coniche. Studieremo le fondamentali propriet geometriche delle coniche, definite da queste forme canoniche metriche ed
affini, ed alcune ulteriori conseguenze fondamentali (Corollari 12.2 e 12.4).
Nei paragrafi 12.5 e 12.7, ci porremo i seguenti problemi; data una conica C di R2 ,
definita dallannullarsi di un polinomio P (X 1 , X 2 ) di secondo grado:
(i)
(ii)
(iii)
(iv)
(v)

che tipo di conica (i.e. unellisse, uniperbole, una parabola ecc.)?


Qual la sua forma canonica metrica?
Qual la sua forma canonica affine?
Quali sono le propriet geometriche di C ?
Come possiamo disegnare precisamente C nel riferimento (x 1 , x 2 ) di R2
prefissato?

Se il polinomio P (X 1 , X 2 ) molto complicato, non semplice poter rispondere


immediatamente a tali domande e soprattutto disegnare la conica C .
Descriveremo lalgoritmo di riduzione a forma canonica metrica (rispettivamente, affine ) grazie al quale lequazione di partenza P (X 1 , X 2 ) = 0 diventa via via sempre
pi semplice, fino a ricondursi ad una ed una sola delle forme canoniche metriche (rispettivamente, affini) delle coniche. Fra le altre cose, questo permetter di rispondere
a tutte le precedenti domande (i)-(v).
Dora in poi in questo capitolo considereremo il piano R2 in cui assumeremo fissato
una volta per tutte un riferimento cartesiano (O, e ), con notazioni ed assunzioni
come allinizio del paragrafo 7.2.
301

12 Coniche del piano cartesiano R2

12.1 Preliminari sui polinomi in due indeterminate


Cominciamo con il ricordare brevemente alcune nozioni fondamentali sui polinomi
in due indeterminate. Sia P (X 1 , X 2 ) un polinomio a coefficienti reali nelle due in
j
determinate X 1 e X 2 ; quindi P (X 1 , X 2 ) = i, j i j X 1i X 2 una somma finita dei
j

monomi i j X 1i X 2 , con i, j interi non negativi e i j R. Quando i = j = 0,


abbiamo 00 che il termine noto di P (X 1 , X 2 ). Le coppie (i, j ) = (1, 0) e (0, 1)
determinano i monomi lineari di P (X 1 , X 2 ), i.e. 10 X 1 , e 01 X 2 , e cos via.
j

Dato i j R non nullo, il grado del monomio i j X 1i X 2 , denotato con


j

deg(i j X 1i X 2 ) e definito come lintero i + j . Pertanto, definiamo il grado di un polinomio P (X 1 , X 2 ), denotato con deg (P (X 1 , X 2 )), il massimo dei gradi dei monomi
che compaiono nellespressione di P (X 1 , X 2 ), i.e. tali che i j = 0.
Esempio 12.1 Grado di un polinomio P(x1 , x2 )
4 3

Il polinomio P(X1 , X2 ) = X1 X2 + X1 X1 X2 + X2 un polinomio di grado 7, dato che il


4 3

monomio X1 X2 quello di grado massimo; tale polinomio privo di termine noto, come
monomio lineare ha X2 , come monomio quadratico ha X1 X2 e come monomio di grado
5

cinque ha X1 .

Notiamo che un polinomio costante, i.e. costituito dal solo termine noto non nullo,
un polinomio di grado 0; mentre il polinomio nullo, i.e. con tutti i coefficienti nulli,
ha grado indeterminato.
Dati due polinomi non nulli P (X 1 , X 2 ) e Q(X 1 , X 2 ), essi si dicono proporzionali,
se esiste R \ {0} tale che P (X 1 , X 2 ) = Q(X 1 , X 2 ) La proporzionalit di
polinomi banalmente una relazione di equivalenza.
Dato un polinomio P (X 1 , X 2 ) non costante, di grado n 1, linsieme di tutti i
polinomi Q(X 1 , X 2 ) proporzionali a P (X 1 , X 2 ) viene detto classe di proporzionalit
di polinomi definita da P (X 1 , X 2 ) e denotato con il simbolo [P (X 1 , X 2 )]; in altri
termini
[P (X 1 , X 2 )] : = {Q(X 1 , X 2 ) polinomio| R \ {0} t.c. Q(X 1 , X 2 ) =
= P (X 1 , X 2 )}
In tale espressione, il polinomio P (X 1 , X 2 ) viene detto rappresentante della classe di
proporzionalit. Notiamo in particolare che [P (X 1 , X 2 )] costituito da tutti polinomi non costanti e di grado n. Inoltre, per ogni Q(X 1 , X 2 ) [P (X 1 , X 2 )], abbiamo
che [P (X 1 , X 2 )] = [Q(X 1 , X 2 )], cio ogni elemento della classe pu essere preso
come rappresentante della classe stessa.
302

12.2 Prime denizioni

12.2 Prime denizioni


Da questo paragrafo in poi, ci concentriamo sui polinomi di secondo grado.

R2 una classe di proporzionalit di polinomi non costanti, di secondo grado, a coefficienti reali e nelle indeterminate X 1 , X 2 . Se P (X 1 , X 2 ) un rappresentante della conica, lequazione
quadratica

definizione 12.1 Una conica di

[12.1]

Conica di R2

P (X 1 , X 2 ) = 0

si dice equazione cartesiana della conica (o che definisce la conica). Il luogo


geometrico C R2 di punti del piano le cui coordinate soddisfano la [12.1]
detto il supporto di C .
Dalla precedente definizione, notiamo subito che le coniche sono particolari esempi
di curve algebriche piane, i.e. definite dallannullarsi di un polinomio in due indeterminate (per maggiori dettagli e generalit, e.g. [11, cap. 4]). Precisamente, una conica una curva algebrica piana di grado due, dato che una sua equazione cartesiana
sempre un polinomio di secondo grado.
Ogni polinomio P (X 1 , X 2 ) di secondo grado, a coefficienti reali, si pu scrivere
come
2

P (X 1 , X 2 ) := a 11 X 1 + 2a 12 X 1 X 2 + a 22 X 2 + 2b 1 X 1 + 2b 2 X 2 + c

[12.2]

con a i j , b h , c R, 1 i < j 2, 1 h 2, tali che (a 11 , a 12 , a 22 ) = (0, 0, 0)


(affinch sia effettivamente un polinomio di secondo grado).
definizione 12.2 Data una conica C di R2 definita da un polinomio P (X 1 , X 2 )

come nella [12.2], le tre componenti omogenee di P (X 1 , X 2 ), di gradi rispettivamente due, uno e zero, sono:
(i)

(ii)
(iii)

Q(X 1 , X 2 ) := a 11 X 1 + 2a 12 X 1 X 2 + a 22 X 2 , che detta forma quadratica dellequazione di C ; la matrice simmetrica associata alla forma
quadratica verr denotata con A := A Q (Definizione 11.5);
L(X 1 , X 2 ) := 2b 1 X 1 + 2b 2 X 2 , che detta forma lineare dellequazione di C ;
c , che detto termine noto dellequazione di C .

Data C come sopra, possiamo associare alla sua equazione cartesiana P (X 1 , X 2 ) = 0


la matrice simmetrica:
303

Equazione cartesiana
di una conica

12 Coniche del piano cartesiano R2

c b1 b2
A := b 1 a 11 a 12
b 2 a 12 a 22

Matrice completa
di una conica

Espressione matriciale
di una conica

[12.3]

che chiameremo la matrice simmetrica completa dellequazione di C . In tal modo,


possiamo scrivere in forma pi compatta lequazione cartesiana di C :

1


[12.4]
P (X 1 , X 2 ) = (1X 1 X 2 ) A X 1 = 0
X2

Osservazione 12.1
Dalla Denizione 12.2, notiamo che la sottomatrice Q(X1 , X2 ) come sopra si pu scrivere in forma compatta
 3; 2, 3) coincide con la matrice A = A . Inoltre,
A(2,
Q
X 
dalla [11.6], anche lequazione della forma quadratica [12.5]
Q(X1 , X2 ) = (X1 X2 )A X1 = 0
2

Osservazione 12.2
Se P(X1 , X2 ) = 0 lequazione cartesiana di una conica il
cui supporto C R2 , ogni altro polinomio nella classe [P(X1 , X2 )] determina unaltra equazione cartesiana della
stessa conica; in particolare allequazione cartesiana denita
da P(X1 , X2 ), per ogni R \ {0}, si associa ovviamente
 e la matrice della forma quadratila matrice completa A

ca A. Ciascuna di queste equazioni denir lo stesso supporto C . per questo motivo che per brevit, con abuso di
linguaggio, si denoter spesso la conica di equazione cartesiana P(X1 , X2 ) = 0 e con supporto C , semplicemente con la
lettera C quando sar chiaro che stata gi assegnata una
sua equazione cartesiana.

Identificare una classe di proporzionalit di equazioni cartesiane con il suo supporto


pu, a prima vista, sembrare sempre un procedimento reversibile. Questo capita per
esempio quando andiamo a considerare le coniche note gi dalle scuole superiori: per
esempio

2
X1

X2
4

= 1 chiaramente unellisse, quindi identificare il supporto con


2

la classe di proporzionalit [X 1 + 42 1] una corrispondenza biunivoca. Analogamente per iperbole e parabola. Consideriamo per ulteriori esempi che mostrano
che, in generale, bisogna prestare molta attenzione per una tale identificazione.
Esempio 12.2 Equazioni e supporti di coniche
1.

304

Sia r R2 la retta denita dallequazione cartesiana Q(X1 , X2 ) = 2X1 +X2 1 = 0.


Sia ora P(X1 , X2 ) := (2X1 + X2 1)2 . La conica denita da P(X1 , X2 ) ha come supporto r. Quindi le curve algebriche denite da Q(X1 , X2 ) e P(X1 , X2 ) sono distinte,
perch la prima di grado uno e la seconda di grado due, ma i supporti sono gli
stessi. Nel secondo caso, la conica intuitivamente la dobbiamo considerare come
una retta in cui ciascun punto viene contato doppiamente, i.e. una retta doppia;

12.2 Prime denizioni


2.

3.

per ogni numero reale c > 0, lequazione X1 + X2 + c = 0 non ha soluzioni


reali. Pertanto, tale polinomio denisce una conica il cui supporto C = . In altri
termini, si dice che denisce la conica vuota. Inoltre, due diversi valori di c > 0
deniscono due coniche distinte perch i corrispondenti polinomi, non essendo
proporzionali, non appartengono alla medesima classe ma il supporto sempre lo
stesso: linsieme vuoto;
2
2
lequazione a2 X1 + b2 X2 = 0, per ogni scelta di a e b, denisce invece una conica il
cui supporto ridotto solo ad un punto: lorigine del riferimento cartesiano (x1 , x2 )
di R2 . Brevemente, si dice che denisce una conica puntiforme.

Osservazione 12.3
I fenomeni che si presentano nei precedenti esempi 2 e 3 rappresentate nel piano R2 . Per ulteriori approfondimenti,
dipendono strettamente dal fatto che consideriamo coniche rimandiamo il lettore interessato a [11, cap. 4 e app. A].
reali, cio polinomi a coefcienti reali le cui soluzioni sono

Ricordiamo che, dalle Definizioni 6.14 e 6.23, abbiamo la nozione di sottoinsiemi


del piano cartesiano che sono affinemente equivalenti oppure che sono congruenti
(equivalentemente, isometrici). Poich per, come abbiamo visto negli esempi precedenti, una conica non si riduce al suo supporto ma definita da unequazione
cartesiana, le nozioni di congruenza ed equivalenza affine vanno definite in relazione
ai polinomi che rappresentano le coniche.
Sia F : R2 R2unaqualsiasi
isometria (rispettivamente,
affinit) del piano carte

siano, tale che F

x1
x2

m 11 x 1 +m 12 x 2 +d1
m 21 x 1 +m 22 x 2 +d2

. Per i nostri scopi, notazionalmente

pi conveniente usare un vero e proprio cambiamento di coordinate in R2 , quello


dettato da F come sopra. Pertanto, scriveremo:
[12.6]

x 1 =m 11 y 1 + m 12 y 2 + d1
x 2 =m 21 y 1 + m 22 y 2 + d2

dove y 1 e y 2 sono le nuove coordinate di R2 date da F .


Se denotiamo con

m 11 m 12
[12.7]
M :=
m 21 m 22
la matrice dei coefficienti e con d =

d 
1

d2

il vettore dei termini noti della [12.6],

allora in forma matriciale la [12.6] :


[12.8]

x = My +d
305

12 Coniche del piano cartesiano R2


Siano Y1 , Y2 le indeterminate corrispondenti alle nuove coordinate y 1 e y 2 di R2 . Pertanto, la relazione che intercorre tra le indeterminate X 1 , X 2 e Y1 , Y2 esattamente
quella della [12.6] (equivalentemente, della [12.8]).
Sia ora P (X 1 , X 2 ) un polinomio di secondo grado come nella [12.2].
definizione 12.3 Il polinomio Q(Y1 , Y2 ) si dir ottenuto da P (X 1 , X 2 ) per

sostituzione ortogonale (rispettivamente, affine) di indeterminate se vale


[12.9]

Q(Y1 , Y2 ) = P (m 11 Y1 + m 12 Y2 + d1 , m 21 Y1 + m 22 Y2 + d2 )

dove [12.6] dato da unisometria (rispettivamente, unaffinit) F . In altri termini, la sostituzione ortogonale (rispettivamente, affine), se la matrice M
come nella [12.7] una qualsiasi matrice ortogonale (rispettivamente, invertibile). La sostituzione di indeterminate come sopra verr denotata con M,d ,
cosicch potremo scrivere Q(Y1 , Y2 ) = M,d (P (X 1 , X 2 ))
Notiamo che, poich le sostituzioni sono sempre lineari e poich M sempre di
rango massimo, anche il polinomio Q(Y1 , Y2 ) di secondo grado. Inoltre, poich la
trasformazione F sempre invertibile, linversa F 1 avr equazioni
[12.10]

y = M 1 x M 1 d

dove M 1 = t M se F unisometria (Teorema 6.6). Pertanto, potremo definire la


sostituzione inversa tale che M 1 ,M 1 d (Q(Y1 , Y2 )) = P (X 1 , X 2 ).
definizione 12.4 Due polinomi di secondo grado P (X 1 , X 2 ) e Q(X 1 , X 2 ) si

dicono metricamente equivalenti o, pi brevemente, congruenti od isometrici


(rispettivamente, affinemente equivalenti), se esistono uno scalare R \ {0}
ed una sostituzione ortogonale (rispettivamente, affine) di indeterminate M,d
tale che Q(Y1 , Y2 ) = M,d (P (X 1 , X 2 )).
Esempio 12.3 Polinomi congruenti e non
2

I polinomi P(X1 , X2 ) = X1 +X2 e Q(Y1 , Y2 ) = Y1 +Y2 +2Y1 +4 sono congruenti quindi anche
afnemente equivalenti. Infatti, basta porre X1 = Y1 + 2, X2 = Y2 . Notiamo infatti che
questo cambiamento di indeterminate corrisponde banalmente ad unisometria. Provare,
2
2
2
2
per esercizio, che invece i due polinomi P(X1 , X2 ) = X1 2X2 4 e Q(Y1 , Y2 ) = Y1 +Y2 1 =
0 non possono essere afnemente equivalenti e quindi tantomeno congruenti.

Osservazione 12.4
Notiamo che se Q(X1 , X2 ) = P(X1 , X2 ) per un qualche ti. Infatti, Q(Y1 , Y2 ) = I ,0 (P(X1 , X2 ). In particolare essi
2
R \ {0}, allora i due polinomi sono sempre congruen- saranno anche afnemente equivalenti.

306

12.2 Prime denizioni


Prima di stabilire quando due coniche sono congruenti (rispettivamente, affinemente
equivalenti), introduciamo alcune ulteriori nozioni utili. Come per la matrice completa A dellequazione di una conica, data unisometria (rispettivamente, unaffinit)
F come nella [12.6], definiamo la matrice completa di F come

1
0
0
 := d1 m 11 m 12
[12.11] M
d2 m 21 m 22

Matrice completa
di una trasformazione

Osservazione 12.5
 3; 2, 3) = M come nel- viamo inoltre che, nel caso in cui F sia una isometria, M
Come nellOsservazione 12.1, M(2,
 lo sia; in
la [12.7] la matrice della parte lineare della trasformazione ortogonale per niente ci assicura che anche M
 = det M = 0. Osser- generale M
 sar solo una matrice invertibile.
F. In particolare, notiamo che det M

C di equazione cartesiana P (X 1 , X 2 ) = 0
ed unisometria (rispettivamente, unaffinit) F come nella [12.6], la trasformata di C tramite F , denotata con C F , la conica di equazione cartesiana
M,d (P (X 1 , X 2 )) = 0.
definizione 12.5 Data una conica

Dalla Proposizione 11.3 e dalla [12.4], lequazione cartesiana per C F si pu scrivere


in forma matriciale come:

1
 A M
 Y1 = 0
[12.12] C F : (1Y1 Y2 ) t M
Y2
Contestualmente, dallequazione [12.5] della forma quadratica e dalla forma della ma avremo che la forma quadratica Q F dellequazione di C F come nella [12.12]
trice M,
sar data da:

Y1
F
t
[12.13] Q : (Y1 Y2 ) M A M
=0
Y2
 3; 2, 3) la matrice simmetrica associata
dove M come nella [12.7] e dove A = A(2,
alla forma quadratica Q dellequazione data di C .
Osservazione 12.6
Ricordiamo che il polinomio caratteristico invariante per no gli stessi autovalori. Invece, come discusso nellOsserva AM
 non sono
la relazione di similitudine (Teorema 10.4). Pertanto, quan- zione 12.5, gli autovalori di A e quelli di t M
t
do F unisometria, le matrici A e MAM hanno lo stesso necessariamente uguali.
polinomio caratteristico (Corollario 11.1). Quindi esse han-

307

12 Coniche del piano cartesiano R2

C e D. Esse si diranno congruenti o


isometriche (rispettivamente, affinemente equivalenti) se esiste unisometria
(rispettivamente, unaffinit) F tale che D = C F . In altri termini, sono congruenti (rispettivamente, affinemente equivalenti) se lo sono due polinomi che
le definiscono.

definizione 12.6 Siano date due coniche

Coniche congruenti
ed afnemente
equivalenti

Notiamo che
se C ha equazione come nella [12.4] e D definita analogamente da
1
= 0, dalla [12.12] e da quanto detto fino ad ora immediato
(1Y1 Y2 ) B Y1
Y2

osservare che D congruente (rispettivamente, affinemente equivalente) a C se, e


solo se, esiste R \ {0} per cui
[12.14]

 A M

B = t M

Osserviamo che, date C e D coniche congruenti (rispettivamente, affinemente equivalenti), se F lisometria (rispettivamente,
laffinit) t.c. D = C F , dalla [12.9] si ha

che preso un qualsiasi punto R = D, i.e. le cui coordinate nel riferimento
(O; y 1 , y 2 ) annullano lequazione di D come sopra, allora F (R) C . Viceversa, per
ogni R 1 C , dalla [12.10] si ha che F 1 (R 1 ) D. Quindi, al livello di supporti
delle due coniche, le notazioni che valgono sono F (D) = C e F 1 (C ) = D. Per
evitare eventuale confusione nel lettore, per questo motivo che abbiamo preferito
usare come notazione per la trasformata di C tramite F il simbolo C F piuttosto che
F 1 (C ).
Osservazione 12.7
In denitiva i supporti di due coniche congruenti (rispet- te, afnemente equivalenti) come nella Denizione 6.23
tivamente, afnemente equivalenti) nel senso della De- (rispettivamente, Denizione 6.14).
nizione 12.6 sono essi stessi congruenti (rispettivamen-

12.3 Alcune propriet metriche ed afni delle coniche


Da quanto discusso nel paragrafo 12.2, naturale considerare le propriet che una
conica C ha in comune con tutte le coniche ad essa congruenti (rispettivamente,
affinemente equivalenti). Tali propriet vengono dette propriet metriche od euclidee
(rispettivamente, propriet affini ) di C .
Rango di una conica

Una fondamentale propriet metrica (equivalentemente, affine) di una conica la


nozione di rango. Sia C definita come nella [12.4]. La matrice A avr un certo rango;
poich ogni altra conica congruente (equivalentemente, affinemente equivalente) a
308

12.3 Propriet metriche ed afni di coniche

C deve soddisfare la relazione [12.14], per un qualche R \ {0}, e poich dal invertibile, allora r ( A)
 = r ( B)
 = r ( B),

lOsservazione 12.5 sappiamo che M
R \ {0}. Daltra parte, se moltiplichiamo lequazione cartesiana di C per un
qualsiasi R \ {0}, la matrice corrispondente A quindi, il rango ovviamente
rimane uguale. Pertanto:

definizione 12.7 Data C una conica di equazione cartesiana [12.4], il rango di A

una propriet metrica (rispettivamente, affine) di C . Esso viene denominato


il rango di C e denotato con r (C ). La conica C si dice:
(i)
(ii)
(iii)

generale (o non degenere), se r (C ) = 3;


semplicemente degenere, se r (C ) = 2;
doppiamente degenere, se r (C ) = 1.

Altre fondamentali propriet metriche (equivalentemente, affini) di una conica sono


le seguenti. Sia C definita dallequazione [12.4], consideriamo la sua forma quadratica
Q(X 1 , X 2 ), come nella [12.5]. Sia D una conica congruente (equivalentemente, affinemente equivalente) a C per mezzo di unisometria (rispettivamente, unaffinit) F .
Se B denota la matrice completa dellequazione di D, abbiamo la relazione [12.14].
 come nella [12.11], se denotiamo con B := B(2,
 3; 2, 3) la maDalla forma di M
trice della forma quadratica dellequazione di D, abbiamo contestualmente la stessa
relazione tra B e la matrice A di Q(X 1 , X 2 ), i.e.
[12.15]

Interpretazione
geometrica del rango
di una conica

Ulteriori propriet
metriche ed afni

B = t M A M

 3; 2, 3) la matrice della parte lineare della trasformazione F . In


dove M = M(2,
particolare, poich M invertibile, A e B hanno lo stesso rango. Daltra parte, se
moltiplichiamo lequazione cartesiana di C per un qualsiasi R \ {0}, la matrice
corrispondente A. Quindi, il rango ovviamente uguale.
Osserviamo inoltre che, quando A di rango massimo, il segno del determinate di A
coincide con il segno di quello di B. Infatti, dal Teorema di Binet (Teorema 3.8),
si ha det(t M A M) = (det M)2 (det A). Dalla [12.15], abbiamo che det(B) =
2 (det B) = 2 (det M)2 (det A) pertanto A e B hanno determinante dello stesso
segno. Daltra parte, se moltiplichiamo lequazione cartesiana di C per un qualsiasi
R \ {0}, la matrice corrispondente A. Quindi, i ranghi sono ovviamente
uguali. Se inoltre A di rango massimo, notiamo che det( A) = 2 (det A). In
conclusione, quando A di rango massimo, il segno del determinate di A rimane
sempre lo stesso.

C una conica di equazione cartesiana come nella [12.4]


ed avente A come matrice simmetrica della forma quadratica Q come nella
Definizione 12.2, allora:
definizione 12.8 Data

309

Parabola, ellisse
ed iperbole

12 Coniche del piano cartesiano R2

il rango di A una propriet metrica (rispettivamente, affine) di C . La


conica C si dice:
(i)
(ii)

parabola, se r (A) = 1;
conica a centro, se r (A) = 2;

se r (A) = 2, il segno del determinante di A una propriet metrica


(rispettivamente, affine) di C . In tale eventualit, C si dice:
a)
b)

ellisse, se det A > 0;


iperbole, se det A < 0.

Analogamente a quanto osservato per il rango di una conica, le precedenti nozioni


sono state date utilizzando esclusivamente matrici e determinanti, quindi potrebbero
sembrare puramente algebriche. Invece hanno un risvolto geometrico importante.
Per dimostrarlo sono necessari per preliminari di geometria proiettiva, che esulano
dagli obiettivi di questo testo. Rimandiamo il lettore interessato a [11, par. 31.2].
Da quanto discusso fino ad ora, uno dei problemi fondamentali nello studio delle
coniche il problema di catalogare la totalit delle coniche stesse tenendo conto delle
loro propriet geometriche caratterizzanti. In altri termini, classificare le coniche di
R2 unoperazione che comporta le seguenti scelte preliminari:
a)
b)

Classicazione metrica
o euclidea delle coniche

in primo luogo si deve decidere quando due coniche si considerano due


rappresentazioni distinte di un medesimo oggetto geometrico;
una volta stabilito quale relazione di equivalenza si vuole usare, classificare le
coniche vuol dire: (b.1) trovare una procedura (o algoritmo) per decidere se
due coniche sono equivalenti rispetto alla relazione scelta, e (b.2) individuare
una lista di coniche a due a due non equivalenti e tali che ogni altra conica
sia equivalente ad una, ed una sola, di quelle presenti in tale lista. Per tali fini,
utile la nozione di equivalenza tra due coniche data nella Definizione 12.6
che tiene conto della struttura di piano cartesiano che si vuole considerare,
i.e. di quali trasformazioni del piano si considerano ammissibili.

Quando in R2 cerchiamo le classi di equivalenza di coniche rispetto allazione di


tutte le isometrie del piano, vuol dire che stiamo cercando una classificazione delle
coniche dal punto di vista della geometria euclidea. Questa detta la classificazione
metrica delle coniche di R2 . Precisamente, data una conica C con una sua qualsiasi
equazione, la sua classe di equivalenza metrica, denotata con [C ]m , sar costituita da
tutte le coniche D isometriche ad essa, nel senso della Definizione 12.6, dove F varia
in tutte le possibili isometrie di R2 .
Nellespressione [C ]m per la classe di equivalenza metrica, C viene chiamato rappresentante della classe [C ]m ; cio abbiamo scelto unequazione cartesiana data di C e
questo polinomio usato per indicare tutte le coniche che fanno parte di questa classe (Definizioni 12.1, 12.4 e 12.6). Ovviamente, per come sono definite le cose, ogni
elemento della classe di equivalenza metrica pu essere preso come rappresentante.
310

12.3 Propriet metriche ed afni di coniche


Due classi di equivalenza metrica [C ]m e [G ]m si dicono distinte, i.e. [C ]m = [G ]m ,
se per ciascun rappresentante di ciascuna delle due classi, non esiste mai unisometria
F che trasformi il rappresentante scelto della prima classe nel rappresentante scelto
della seconda classe. Pertanto, [C ]m [G ]m = .
definizione 12.9 Un insieme di forme canoniche metriche delle coniche di R2

un insieme di rappresentanti per le distinte classi di equivalenza metrica di


coniche di R2 . Pertanto, queste forme canoniche metriche sono uninsieme di
coniche di R2 tali che:
(i)
(ii)

Forme canoniche
metriche delle coniche

le coniche di questo insieme sono a due a due non congruenti;


ogni conica di R2 congruente ad una ed una sola di esse.

In particolare, in una qualsiasi classe di equivalenza metrica [C ]m , potremo scegliere,


come forma canonica metrica C0 di questa classe, una conica che abbia unequazione
cartesiana la pi semplice possibile tra tutte le coniche della classe data.
Quando in R2 cerchiamo invece le classi di equivalenza di coniche, pi in generale,
rispetto allazione di tutte le affinit del piano, vuol dire che stiamo cercando una
classificazione delle coniche dal punto di vista della geometria affine. Questa detta
classificazione affine delle coniche di R2 .

Classicazione afne
delle coniche

Esattamente come sopra, data una conica C , la sua classe di equivalenza affine, denotata con [C ]a , sar costituita da tutte le coniche D affinemente equivalenti ad essa,
nel senso della Definizione 12.6, dove stavolta F varia in tutte le possibili affinit
di R2 . La nozione di classi di equivalenza affine [C ]a e [G ]a distinte, analoga alla
precedente, dove F affinit.
definizione 12.10 Un insieme di forme canoniche affini delle coniche di R2 un

insieme di rappresentanti per le distinte classi di equivalenza affine di coniche


di R2 . Pertanto, queste forme canoniche affini sono uninsieme di coniche di
R2 tali che:
(i)
(ii)

Forme canoniche afni


delle coniche

le coniche di questo insieme sono a due a due non affinemente equivalenti;


ogni conica di R2 affinemente equivalente ad una ed una sola di esse.

La fondamentale differenza tra lequivalenza metrica e lequivalenza affine di coniche


che due coniche isometriche sono, a tutti gli effetti, lo stesso supporto disegnato
per in posizioni diverse in R2 , mentre due coniche affinemente equivalenti hanno
soltanto la stessa forma. Per meglio dire, lequivalenza affine conserva le propriet
affini quali lappartenenza, la limitatezza o meno del supporto, il parallelismo, lessere generale o degenere, lessere a centro o meno ecc. mentre lequivalenza metrica
conserva tutte le precedenti propriet pi le propriet prettamente euclidee (distanza
311

Differenze tra
classicazione metrica
ed afne

12 Coniche del piano cartesiano R2


fra punti, angoli ecc.). Per esempio, due circonferenze di raggio differente saranno
due coniche affinemente equivalenti, perch hanno sostanzialmente la stessa forma
a meno di una dilatazione dei punti sulla circonferenza rispetto al centro, ma non
sono isometriche perch avendo raggi diversi la distanza dal centro non conservata
(Proposizione 12.1).

12.4 Forme canoniche metriche delle coniche


In questo paragrafo elenchiamo i polinomi che sono i candidati naturali per le forme
canoniche metriche delle coniche, e per ciascuno di essi, ne studiamo le principali
propriet geometriche.
definizione 12.11 Dati a , b

Equazione
2

Condizioni

Denominazione

ab>0

ellisse generale

ab>0

ellisse generale a punti non reali

a>0

ellisse degenere

a, b > 0

iperbole generale

a>0

iperbole degenere

a>0

parabola generale
parabola semplicemente degenere
parabola semplicemente
degenere a punti non reali

(6)

X1
X2
2 + 2 = 1
a
b
2
2
X1
X2
2 + 2 = 1
a
b
2
X1
2
X1 + 2 = 0
a
2
2
X1
X2

2
2 = 1
a
b
2
X
2
X1 22 = 0
a
2
aX1 = X2

(7)

2
X1

=a

a>0

(8)

X1 = a2

a>0

(9)

2
X1

(1)
(2)
(3)
(4)
(5)

R+ , definiamo la seguente tabella:

=0

parabola doppiamente degenere

detta tabella fondamentale della classificazione metrica delle coniche di R2 .


Notiamo che, dalle condizioni sui parametri, la tabella precedente non contiene
ripetizioni.
Grazie al Teorema 12.1 dimostreremo che, per ogni scelta di a e b come sopra, le
coniche contenute nella tabella precedente sono tutte e sole le forme canoniche (e
quindi le classi di equivalenza) metriche delle coniche di R2 nel senso della Definizione 12.9. Discuteremo inoltre alcune importanti conseguenze di questo risultato
(Corollario 12.2). In questo paragrafo, vogliamo invece studiare le propriet geometriche delle coniche descritte nella tabella della Definizione 12.11. Tale studio,
312

12.4 Forme canoniche metriche delle coniche


insieme al Teorema 12.1, si pu utilizzare come strumento per dedurre le propriet
geometriche di tutte le coniche di R2 .
Dalla tabella fondamentale della Definizione 12.11, vediamo che le coniche generali a
punti reali corrispondono a quelle di tipologie (1), (4) e (6). Notiamo infatti che, dalle
equazioni cartesiane corrispondenti a ciascuno dei tre i casi, il rango della conica C
sempre 3 (Definizione 12.7). Il termine a punti reali specifica il fatto che ciascuno
dei supporti di queste coniche sar una curva in R2 .

Coniche euclidee
generali (a punti reali)

Sia C come in tipologia (1). Notiamo subito che se a = b, una tale conica la circonferenza di centro O e raggio a ([7.56]). In generale, invece immediato osservare che
il supporto dellellisse una curva chiusa, contenuta nella porzione di piano determinata dalle condizioni |x 1 | a e |x 2 | b, cio delimitata dalle rette di equazioni
cartesiane X 1 = a , X 2 = b. Le intersezioni di C con gli assi coordinati, i.e. i
   
a
0
, sono detti i vertici dellellisse.
punti di coordinate 0 e b

Ellisse generale

Ricordando la Definizione 12.8, lellisse una conica a centro. Infatti, dalla forma
dellequazione dellellisse, C simmetrica rispetto allorigine O (ricordare la Definizione 7.11); O quindi sar il suo centro di simmetria. Notare che in particolare il
centro di simmetria unico.
Analogamente, C simmetrica rispetto agli assi coordinati (Proposizione 7.10), che
vengono chiamati quindi assi di simmetria di C ( semplice notare che nel caso a = b,
i.e. C circonferenza, ciascuna retta per lorigine asse di simmetria). Si chiamano
semiassi dellellisse C i quattro segmenti di estremi lorigine O ed uno dei vertici
dellellisse. I numeri a e b sono le lunghezze di questi semiassi. Il supporto dellellisse
come nella figura 12.1.

Grazie alle ipotesi
a

b
>
0,
si
pu
considerare
c
:=
a 2 b 2 . I punti di

c
coordinate 0 sono detti i fuochi dellellisse C ed il numero e := c /a la sua
eccentricit. Si ha sempre 0 e < 1; in particolare, e = 0 se, e solo se, C una
circonferenza: in tal caso i due fuochi vanno a coincidere con il centro O. Se invece
e = 0, la retta di equazione cartesiana X 1 = a /e detta direttrice dellellisse relativa
 
c
al fuoco 0 .

(0,b)
O

(a,0)

(a,0)

(0,b)

figura 12.1 Lellisse generale a punti reali


con a b > 0

X21
2

Come nel caso delle circonferenze (formula [7.57]), abbastanza immediato osservare
che dallequazione cartesiana data si deducono facilmente le equazioni parametriche
per lellisse:
X 1 = a cos t,

X 2 = b sin t,

t [0, 2 ],

con a b > 0

Sia C come nella tipologia (4). Quando in particolare a = b, liperbole si dice equilatera. Come nel caso dellellisse, per ogni a , b > 0, si vede facilmente che O il centro
313

Iperbole generale

X22
b2

= 1,

12 Coniche del piano cartesiano R2


di simmetria di C e che esso unico; in effetti, dalla Definizione 12.8, sappiamo che
liperbole una conica a centro.
Anche gli assi coordinati sono assi di simmetria di C . Lasse di simmetria X 2 = 0
 
a
incontra liperbole C nei punti di coordinate 0 , che si chiamano vertici di C ,
mentre lasse di simmetria X 1 = 0 non interseca C (il sistema tra queste due equazioni non ammette soluzioni reali); pertanto il primo asse viene detto asse di simmetria
reale (o trasverso) delliperbole mentre il secondo, asse di simmetria immaginario (o
non trasverso)
immediato osservare che il supporto delliperbole una curva contenuta nei due
semipiani disgiunti  e + definiti, rispettivamente, dalle condizioni x 1 a e
x 1 a . Ne segue che C ha un supporto sconnesso, cio costituito da due componenti disgiunte. Tali componenti sono C  e C + che vengono dette i rami
delliperbole C .

(a,0)

(a,0)

figura 12.2 Liperbole generale

X21
2

X22
b2

= 1, con a, b >

0, e la sua coppia di asintoti


2
Dallequazione cartesiana di C troviamo X 2 = ab X 1 a 2 . Visto che per ogni

2
|x 1 | a si ha | ab x 1 a 2 | < | ab x 1 |, allora C contenuta nella porzione illimitata
di piano data dalle condizioni |X 2 | | ab X 1 |. Le due rette di equazioni cartesiane
X 2 = ab X 1 sono detti gli asintoti delliperbole C : sono due rette passanti per il centro di simmetria O e, al crescere di |x 1 |, il supporto di C tende ad avvicinarsi sempre
di pi ad essi senza per mai intersecarli. Il supporto di C come nella figura 12.2.
 

c
Posto c := a 2 + b 2 , i punti di coordinate 0 sono detti i fuochi delliperbole
C ed il numero e := c /a la sua eccentricit; ovviamente si ha sempre e > 1. La
retta di equazione cartesiana X 1 = a /e detta direttrice delliperbole relativa al
 
c
fuoco 0 .
Una comoda rappresentazione parametrica delliperbole si ottiene per mezzo delle
funzioni iperboliche. Dato t R, ricordiamo che si definisce il coseno iperbolico di t
t
t
la funzione reale di variabile reale cosh t := e +e
2 , dove e il numero di Nepero.
Analogamente, il seno iperbolico di t la funzione sinh t :=

e t e t
2

Notiamo imme-

diatamente che vale la relazione cosh2 t sinh2 t = 1. La funzione cosh t positiva,


con un minimo assoluto per t = 0, il cui valore 1; inoltre, limt cosh t = +.
Invece, la funzione sinh t monotona, strettamente crescente, si annulla per t = 0
e limt sinh t = . Da queste propriet, vediamo subito che equazioni pa2

X1

X2

rametriche per i due rami delliperbole di equazione cartesiana a 2 b 2 = 1, sono


X 1 = a cosh t, X 2 = b sinh t, t R, con a , b > 0 per il ramo C + , e
X 1 = a cosh t, X 2 = b sinh t, t R, con a , b > 0 per il ramo C  .
314

12.4 Forme canoniche metriche delle coniche


Sia C come nella tipologia (6). Poich nellequazione cartesiana di C lunico termine in cui compare lindeterminata X 1 quadratico, allora la parabola simmetrica
rispetto allasse di equazione cartesiana X 1 = 0, che sar appunto detto asse di simmetria. Tale asse incontra la parabola nellorigine O, che viene detto vertice della
parabola.
Dalla sua equazione cartesiana, notiamo subito che C non ha punti per cui x 2 < 0,
e quindi essa contenuta nel semipiano definito dalla condizione x 2 0. Pertanto,

X
abbiamo che lequazione cartesiana si pu esplicitare in X 1 = a2 . Deduciamo
quindi che quando x 2 tende a +, i punti su C hanno ascissa che tende a .
0
Il punto di coordinate a viene detto fuoco di C e la retta X 2 = a4 la sua

Parabola generale

direttrice. Leccentricit della parabola per definizione e = 1. Il supporto di C


come nella figura 12.3.

Dallequazione cartesiana data, vediamo subito che le equazioni parametriche per tale
parabola sono date da X 1 = t, X 2 = a t 2 , t R, con a > 0

figura 12.3 La parabola ge2


nerale a punti reali aX1 = X2 ,
con a > 0

A complemento di quanto discusso, si pu facilmente vedere che ellisse, iperbole e


parabola generali ( a punti reali) sono strettamente imparentate dato che si possono definire come luoghi geometrici del piano, utilizzando esclusivamente i fuochi e
leccentricit.

Propriet focali delle


coniche generali (a punti
reali)

Dalla tabella nella Definizione 12.11, le coniche semplicemente degeneri (a punti


reali) sono quelle nelle tipologie (3), (5) e (7). Notiamo infatti che tutte e tre le
equazioni definiscono una matrice simmetrica completa come nella [12.3] di rango 2.

Coniche euclidee
semplicemente degeneri
(a punti reali)

Sia C come nella tipologia (3). Visto che, per ogni a > 0, lequazione cartesiana
esprime uneguaglianza a zero di una somma di due quadrati, C ha ovviamente supporto costituito da un solo punto, lorigine O. Per questo motivo viene chiamata
anche conica puntiforme. Essendo costituita da un solo punto, il supporto coincide
con il suo centro di simmetria.

Ellisse degenere o conica


puntiforme

Il motivo per cui viene chiamata ellisse degenere discende dal fatto che lequazione
cartesiana ha il primo membro identico a quello di unellisse generale.
Sia C come nella tipologia (5). Per ogni a > 0, lequazione cartesiana di C unespressione polinomiale che si fattorizza in

X2
X2
X1 +
X1
=0
a
a
Il supporto di C quindi costituito dallunione di due rette r 1 e r 2 , di equazioni
cartesiane r 1 :

X1 +

X2
a

= 0 e r2 :

X1

X2
a

= 0. Queste due rette sono


315

Iperbole degenere
(o coppia di rette
incidenti)

12 Coniche del piano cartesiano R2


distinte e si intersecano nellorigine (figura 12.4), che il centro di simmetria della
conica (dalla Definizione 12.8, questa infatti una conica a centro). Ovviamente tale
centro, essendo lunico punto di intersezione delle due rette, unico.
O

Il motivo per cui viene chiamata iperbole degenere discende dal fatto che lequazione
cartesiana ha il primo membro identico a quello di uniperbole generale. Per essere pi
precisi, lequazione delliperbole semplicemente degenere lequazione complessiva

figura 12.4 Liperbole degenere

2
X1

X22
a2

= 0, con a > 0

degli asintoti delliperbole generale X 1

X2
a2

= 1.

Osservazione 12.8
Una piccola osservazione per giusticare per quale motivo to che ambedue le equazioni non contengono termine noto.
nei casi (3) e (5) le equazioni contengono un solo parametro Pertanto, dallOsservazione [12.4], i due polinomi sono cona differenza delle equazioni di tipo (1), (2) e (4) nora incontrate. Vediamo per esempio il caso (5). Se consideriamo gruenti. In effetti, il supporto esattamente la stessa conica.
2
2
X
X
Questa semplicazione di uno dei due denominatori ovvialequazione 12 22 = 0, c, d > 0, questa ovviamenc
d
mente non vale per i casi (1), (2) e (4), dove al termine noto
2
X2
2
d
= 0, non appena = a da- presente 1.
te proporzionale a X
1

Parabola semplicemente
degenere (o coppia
di rette parallele distinte)

(a,0)

a2

(a,0)

figura 12.5 Parabola sempli2


cemente degenere X1 = a2 ,
con a > 0

Coniche euclidee a punti


non reali

Sia C come nella tipologia (7). Lequazione di C si fattorizza nel prodotto (X 1


a ) (X 1 + a ) = 0, con a > 0 per ipotesi. Nuovamente, C lunione di due rette
s 1 : X 1 a = 0 e s 2 : X 1 + a = 0, non coincidenti e parallele allasse delle x 2
(figura 12.5). Lasse x 2 quindi asse di simmetria per le due rette.
Il motivo per cui si chiama parabola semplicemente degenere discende dal fatto che
tale conica ha equazione cartesiana il cui primo membro simile a quello della para2
1
bola generale a punti reali; infatti della forma b 2 X 1 , dove b = a . Per comprendere
invece i motivi geometrici per cui unesempio di conica semplicemente degenere,
come detto precedentemente servono ulteriori argomenti preliminari come la geometria proiettiva, che esulano un po dagli intenti di questo testo. Pertanto, rimandiamo
il lettore eventualmente interessato ad e.g. [11, par. 30].
Dalla tabella nella Definizione 12.11, le coniche a punti non reali sono quelle delle
tipologie (2) e (8). Per come abbiamo definito il rango di una conica C , ovviamente la
conica di tipo (2) di rango 3 mentre quella di tipo (8) manifestamente di rango 2
([12.3] e Definizione 12.7). Quindi, la prima una conica generale mentre la seconda
semplicemente degenere.
La conica di tipo (2) ha equazione cartesiana il cui membro contenente le indeterminate identico a quello dellellisse generale a punti reali. Per poich in tale equazione,
la somma di due quadrati posta uguale a 1, una tale equazione non ammette soluzioni reali. Inoltre, si vede che tale equazione manifestamente simmetrica rispetto
316

12.4 Forme canoniche metriche delle coniche


al cambiamento di indeterminate F ((X 1 , X 2 )) = (X 1 , X 2 ). Una tale trasformazione F rappresenta la simmetria nel piano rispetto ad O. Pertanto, per questo
motivo che si dice che la conica a centro. Da questanalisi, si comprende il nome di
ellisse generale a punti non reali.
Discorso analogo per la conica di tipo (8). Ovviamente, anche questa conica ha
supporto vuoto.
Una conica doppiamente degenere quella di tipologia (9) nella tabella nella Definizione 12.11. Notiamo che la conica ha rango 1. Il supporto costituito dalla retta
di equazione cartesiana X 1 = 0.

Conica euclidea
doppiamente degenere
(o retta doppia)

Geometricamente, una tale conica si pu vedere come posizione limite di una famiglia di parabole semplicemente degeneri a punti reali che tendono alla parabola
doppiamente degenere. Infatti, quando |a | tende a zero, le due rette parallele X 1 = a
e X 1 = a vanno a coincidere ambedue con lasse delle x 2 (figura 12.6).
Concludiamo con unosservazione importante, che in seguito sar utile quando discuteremo la procedura generale di riduzione a forma canonica metrica delle coniche
(Teorema 12.1).
proposizione 12.1 Si consideri la tabella fondamentale nella Definizione 12.11:

le tipologie (1)-(9) elencate nella tabella descrivono coniche a due a due


non congruenti. In altri termini, per ogni 1 i = j 9, una qualsiasi
conica di tipo (i) non mai congruente ad una qualsiasi conica di tipo ( j );
per ogni i tale che 1 i 8, al variare dei parametri a e b (rispettivamente, a ) come nella tipologia (i) si descrivono coniche a due a due non
congruenti.

Dimostrazione

Dalla Definizione 12.7, il rango di una conica una propriet metrica.


Quindi, una prima distinzione tra le varie tipologie si ha utilizzando il rango. A parit di
rango, dallOsservazione 12.7, ricordiamo che due coniche isometriche devono avere supporti
congruenti. Pertanto, ricordando tutte le propriet geometriche descritte precedentemente
per le coniche della tabella si riesce semplicemente a concludere che, per ogni 1 i = j 9,
una conica di tipo (i) non mai congruente ad una conica di tipo ( j ).
Per quanto riguarda il resto dellenunciato, dobbiamo porci il problema di poter distinguere
due coniche appartenenti ad una medesima tipologia (i), per ogni 1 i 8, ma che non
sono isometriche. Prese C e C  due coniche dello stesso tipo (i) ma definite da equazioni cartesiane aventi parametri distinti, per stabilire che esse non sono congruenti, possiamo utilizzare
lOsservazione 12.7. Infatti, due coniche isometriche devono avere supporti congruenti; in
particolare, laddove i supporti sono reali, devono essere conservate per esempio le distanze
fra i punti, gli angoli ecc.

317

figura 12.6 Parabola doppia2


mente degenere, X1 = 0

12 Coniche del piano cartesiano R2


Supponiamo quindi di avere i = 1 o 4 e di avere nella medesima tipologia (i), la conica Ca ,b ,
definita per mezzo dei parametri a e b, e la conica Cc ,d , definita per mezzo dei parametri c
e d , con (a , b) = (c , d ). Grazie al fatto che in questi casi i supporti sono a punti reali e
sono curve (i.e. non sono puntiformi), concludiamo subito ricordando che per due supporti
isometrici le distanze fra punti, gli angoli ecc. si devono conservare.
X

Se prendessimo per esempio i = 1, abbiamo le ellissi Ca ,b : a 21 + b 22 = 1 e Cc ,d : c 21 + d 22 =


1. Pertanto, se (a , b) = (c , d ), le due ellissi non possono essere congruenti, dato che esiste
almeno una coppia di semiassi per Ca ,b che hanno lunghezza diversa dalle lunghezze dei
semiassi di Cc ,d . Analogamente, se i = 4 con (a , b) = (c , d ), comunque orientiamo gli
asintoti delle coniche, langolo convesso formato dalle due rette determinate da Ca ,b diverso
dallangolo convesso formato dalle due rette determinate da Cc ,d . Stesso discorso si applica
ovviamente per il caso (5).
Consideriamo il caso i = 2. Prendiamo le coniche Ca ,b e Cc ,d del medesimo tipo 2, con
(a , b) = (c , d ). Supponiamo per assurdo che F sia unisometria della forma F (x ) =
M x + k, con M matrice 2 2 ortogonale e k un vettore di R2 . In ciascun caso le coniche sono a centro e, dalla loro equazione, il centro di simmetria lorigine O. Pertanto F
deve trasformare O in O quindi k = 0, i.e. F lisometria lineare F (x ) = M x . Ricordando

 := t 1 O , dove O
la [12.11], abbiamo quindi che la matrice completa dellisometria M
O M

denota la matrice 1 2 con le due colonne


nulle. Ora le matrici

complete associate alle due
coniche sono Aa ,b :=

1 0
0
0 1/a 2 0
0 0 1/b 2

e Ac ,d :=

1 0
0
0 1/c 2 0
0 0 1/d 2

. Dalla [12.14] e dalla forma

di queste matrici, vediamo che Ca ,b sar congruente a Cc ,d se, e solo se, esiste la relazione:
[12.16]

M Aa ,b (2, 3; 2, 3)M = Ac ,d (2, 3; 2, 3)

infatti, poich il termine di posto 1, 1 nelle due matrici come sopra sempre 1, necessariamente nella formula [12.14] si deve avere = 1. Poich M ortogonale 2 2, abbiamo
che M come nella [7.46], per un qualche R. In ciascuno dei due casi, se imponiamo
la condizione data dalla [12.16], otteniamo sempre 1/a 2 = 1/c 2 e 1/b 2 = 1/d 2 , cio lisometria F lidentit e le due coniche coincidono. In modo perfettamente analogo si tratta il
caso (3).
Nei casi i = 6, 7 abbiamo parabole a punti reali. Pertanto, se a = c , le parabole Ca e Cc ,
ambedue con asse di simmetria la retta X 1 = 0, hanno punti a differente distanza dai punti
dellasse, quindi non possono essere congruenti.
Nel caso
le parabole
i = 8, abbiamo
Ca e Cc con matrici simmetriche complete associate
a2 0 0
c2 0 0
Aa := 0 0 0 e Ac := 0 0 0 . Supponendo che esista unisometria F (x ) = Mx + k
0 01

0 01

 :=
che trasforma una nellaltra, poniamo allora M

1 O
k M

, dove O denota la matrice 1 2

con le due colonne nulle e k la matrice 2 1 data dalla colonna delle coordinate di k in base
e . Si ragiona come nel caso 2 visto prima e si trova a 2 = c 2 .


318

12.5 Classicazione metrica delle coniche


Nel prossimo paragrafo, vedremo che queste classi distinte di equivalenza metrica di
coniche di R2 sono esattamente tutte e sole le classi di equivalenza metrica.

12.5 Riduzione a forma canonica metrica delle coniche.


Classicazione metrica
Trattiamo ora il risultato fondamentale della teoria delle coniche euclidee. La sua
dimostrazione costruttiva, nel senso che descrive la cosiddetta procedura (o algoritmo) di riduzione a forma canonica metrica di una qualsiasi conica C di R2 . Questo algoritmo tra le varie cose dimostra che le coniche considerate nella tabella della
Definizione 12.11 sono esattamente le forme canoniche metriche come nella Definizione 12.9. Esso inoltre permette di determinare una successione di isometrie, per
cui una qualsiasi conica C si riduce ad una ed una sola di quelle della tabella della
Definizione 12.11, e di stabilire precisamente il riferimento di R2 in cui C assume
lequazione della sua forma canonica metrica.
Ogni conica C definita da un polinomio come nella [12.2] congruente ad una, ed una sola, delle coniche contenute nella tabella della Definizione 12.11.

teorema 12.1

Dimostrazione
[12.17]

Sia C una qualsiasi conica di equazione cartesiana


2

P (X 1 , X 2 ) = a 11 X 1 + 2a 12 X 1 X 2 + a 22 X 2 + b 1 X 1 + b 2 X 2 + c = 0

con a i j , bi , c R, t.c. 1 i < j 2, 1 h 2, e (a 11 , a 12 , a 22 ) = (0, 0, 0). La


procedura che ci apprestiamo a descrivere, si pu suddividere in due passi:
1.

il primo passo consiste nel determinare un opportuno cambiamento di coordinate


di R2 che elimina il termine misto di secondo grado 2a 12 X 1 X 2 della [12.17]. Consideriamo la forma quadratica associata allequazione di C (Definizione 12.2), i.e.
2
2
Q(X 1 , X 2 ) = a 11 X 1 + 2a 12 X 1 X 2 + a 22 X 2 . Dalla Definizione 11.5, possiamo
a a 
12
associare a Q la matrice A = A Q = a 11
. Poich A una matrice simmetrica
12 a 22
2 2, dal Teorema 11.2 (pi in generale dal Teorema 11.1), A ha esclusivamente 2
autovalori reali (eventualmente coincidenti). Siano essi 1 e 2 . Dal Teorema 11.4(i), sappiamo che esiste una base ortonormale f = f 1 , f 2 per R2 che costituita
da autovettori di A. Sia f i lautovettore
relativo allautovalore i , 1 i 2.

m

12
Denotata con M = Me f = m 11
la matrice ortogonale cambiamento di
21 m 22
base dalla base canonica
 e allabase ortonormale f , dal Corollario 11.4, abbiamo

che t M A M = D :=

1 0
0 2

(Osservazione 11.12). Pertanto, se consideriamo il

relativo cambiamento di coordinate e quindi di indeterminate


[12.18]

X = MY

319

12 Coniche del piano cartesiano R2


i.e. come nella [12.6], otteniamo che in queste nuove indeterminate la forma qua2
2
dratica Q(X 1 , X 2 ) diventa semplicemente Q (Y1 , Y2 ) = 1 Y1 + 2 Y2 .
Sostituendo la [12.18] nel polinomio P (X 1 , X 2 ), lequazione cartesiana di C si trasforma in
P  (Y1 , Y2 ) = 1 Y1 + 2 Y2 + D1 Y1 + D2 Y2 + c = 0
2

[12.19]

dove D1 := b 1 m 11 + b 2 m 21 e D2 = b 1 m 12 + b 2 m 22 ;
2.

il secondo passo dellalgoritmo che vogliamo descrivere consiste nel trovare unopportuna traslazione nel riferimento (O, f ) di R2 , con coordinate (y 1 , y 2 ), di modo
che nella [12.19] spariscano o entrambi i termini lineari oppure uno dei due termini
lineari insieme al termine noto. Abbiamo le seguenti eventualit:
2.1.

entrambi gli autovalori sono diversi da zero: consideriamo il cambiamento


di coordinate y 1 = z1 + , y 2 = z2 + , con e parametri reali.
Considerando le stesse relazioni tra le rispettive indeterminate e sostituendo
nella [12.19], otteniamo
P  (Z1 , Z2 ) = 1 Z1 + 2 Z2 +
2

+ (21 + D1 )Z1 + (22 + D2 )Z2 +

[12.20]

+ (1 2 + 2 2 + D1 + D2 + c ) = 0
Allora per determinare i valori dei parametri e che eliminano i termini
D
D
lineari, basta scegliere := 21 e := 22 . Con tale scelta, la [12.20]
1
2
non altro che:
[12.21]

P  (Z1 , Z2 ) = 1 Z1 + 2 Z2 + E = 0
2

D 2 +D 1 4c 1 2

2
dove E := 1
, che lespressione che si trova quan41 2
do si sostituiscono i valori trovati per i parametri e nel termine noto
della [12.20]:

se 1 e 2 sono ambedue positivi, a meno di scambiare le due


indeterminate, possiamo supporre 1 2 . Osserviamo che lo
scambio di indeterminate dettato dallisometria di R2che scam
01

bia le coordinate; tale trasformazione ha matrice S = 1 0 che


appunto ortogonale. Se E negativo, nelle medesime coordinate, possiamo dividere la precedente equazione per E , ottenendo
1 2
2 2
E Z1 + E Z2 1 = 0. Dalle ipotesi su i i e su E , notiamo che
i
E

> 0, per ogni 1 i 2. Pertanto, se 0 < E 1, dallipo

tesi 1 2 , abbiamo E1 E2 e quindi ponendo a = E


1

E
e b =
, otteniamo a b > 0. In tal modo, ottenia2

320

12.5 Classicazione metrica delle coniche

mo lequazione cartesiana di tipo (1) nella tabella della Definizione 12.11, con a e b univocamente determinati come sopra. Se invece E 1, si ricompie uno scambio di indeterminate, che
sempre unisometria, e si ricade in quanto appena discusso;
se 1 e 2 sono ambedue positivi ed E positivo, si divide la [12.21]
per E . Svolgendo analoghi conti come sopra, otteniamo in questo
caso unequazione del tipo (2) nella tabella della Definizione 12.11,
con a e b univocamente determinati;
se 1 e 2 sono ambedue negativi, quale che sia il segno di E , basta
moltiplicare per 1 lequazione [12.21], e ci si riconduce ai due casi
fino ad ora descritti;
se 1 e 2 sono di segno discorde, a meno di moltiplicare per 1
lequazione [12.21], possiamo sempre supporre che 1 > 0. Se E

negativo, dividendo come sopra per E e ponendo a = E
1

E
e b = | | , si ottiene lequazione di tipo (4), con a e b univo2

camente determinati come sopra.


E positivo, si divide
 Se invece
la [12.21] per E e si sceglie a = E e b = |E | ; questo determi1

Z1

Z2

na unequazione del tipo a 2 b 2 + 1 = 0. Moltiplichiamo per 1


e poi compiamo uno scambio di variabili (che, come al solito, collegato ad unisometria), ponendo Z1 = W2 , Z2 = W1 . Otteniamo
W

cos lequazione b 21 a 22 1 = 0 che pertanto di tipo (4);


se E = 0, quale che siano i segni di 1 e 2 , dalla [12.21] abbiamo
2

lequazione 1 Z1 + 2 Z2 = 0. Poniamo =

2
1

cos, dividendo

2
Z1

per 1 la precedente equazione, otteniamo


+ Z2 = 0. Se

> 0, allora poniamo a = 1/ e siamo nella tipologia (3). Se

invece < 0 poniamo a = |1/ | e siamo nella tipologia (5);
2.2.

uno dei due autovalori nullo: a meno di scambiare le indeterminate (e quindi sempre applicando unisometria), possiamo supporre che sia 2 = 0. In
tal caso, vuol dire che la [12.19] :
[12.22]

1 Y1 + D1 Y1 + D2 Y2 + c = 0

Come prima, consideriamo il cambiamento di coordinate y 1 = z1 + ,


y 2 = z2 +, con e parametri reali. Sostituendo nella [12.22], otteniamo
P  (Z1 , Z2 ) = 1 Z1 + (21 + D1 )Z1 + D2 Z2 +
2

[12.23]

+ (1 2 + D1 + D2 + c ) = 0

Allora per determinare i valori del parametro che elimina il termine lineare
D
in Y1 , basta scegliere come prima := 21 ;
1

se D2 = 0, possiamo trovare il valore di che annulla il termine


noto della [12.23]. Pertanto, si ha =

c +1 2 +D1
,
D2

con come

321

12 Coniche del piano cartesiano R2


sopra. Con tali scelte per e , lequazione diventa: P  (Z1 , Z2 ) =

1 Z1 + D2 Z2 = 0 Dividiamo per D2 , ottenendo D1 Z1 = Z2 .


2

Se D1 > 0, basta denominarlo a ed otteniamo lequazione di


2

tipo (6) nella tabella della Definizione 12.11. Se invece D1 < 0,


2
compiamo il cambiamento di variabili Z1 = W1 e Z2 = W2 ,
dettato da unisometria inversa, ottenendo di nuovo unequazione
di tipo (6);
se ora anche D2 = 0, allora = 0. Perci, stavolta la [12.23], di2

venta P  (Z1 , Z2 ) = 1 Z1 + F = 0 dove F si ottiene sostituendo


il valore di trovato nel termine noto della [12.23].
Se F = 0, abbastanza chiaro che, dividendo per F ed utilizzando le tecniche considerate fino ad ora, da questa equazione ci
si pu sempre ricondurre mediante isometrie ad unequazione o di
tipo (7) o di tipo (8) nella tabella della Definizione 12.11. Se invece
F = 0, necessariamente siamo nel caso (9).


Osservazione 12.9
Il signicato geometrico del precedente algoritmo il seguente. Prima operiamo con unisometria lineare dello spazio vettoriale R2 in modo tale da compiere un cambiamento
di riferimento che fa coincidere i nuovi assi (rispettivamente, uno dei nuovi assi) di questo riferimento con le giacitu-

re degli assi (rispettivamente, dellasse) di simmetria della


conica. In seguito, si compie una traslazione opportuna, in
modo tale da traslare lorigine del riferimento no nel centro
di simmetria (rispettivamente, nel vertice) della conica.

Facciamo qualche commento sul Teorema 12.1. In primo luogo, esso permette di
classificare una qualsiasi conica C di R2 , i.e. di stabilire se essa unellisse, uniperbole o una parabola e se generale, semplicemente o doppiamente degenere. Per, tale
risultato determina conseguenze molto pi forti della semplice classificazione. Infatti,
seguendo la strategia della dimostrazione del Teorema 12.1, una qualsiasi conica di
R2 si riduce mediante lalgoritmo descritto ad una, ed una sola, delle coniche elencate nella tabella fondamentale per la classificazione metrica; dalla Proposizione 12.1,
sappiamo che le coniche in tale tabella sono a due a due non congruenti, al variare
delle tipologie metriche (i) di coniche, con 1 i 9, ed al variare dei parametri
presenti in ciascuna tipologia (i). Pertanto, abbiamo:
Le coniche della tabella fondamentale nella Definizione 12.11
sono le forme canoniche metriche (o euclidee) delle coniche di R2 nel senso della
Definizione 12.9.

corollario 12.1

Per questo motivo, il Teorema 12.1 si chiama anche Teorema di riduzione a forma
canonica metrica di una conica C .
322

12.6 Forme canoniche afni delle coniche


Esistono 9 tipologie differenti ed infinite classi distinte di equivalenza metrica (equivalentemente, di forme canoniche metriche) di coniche di
R2 .
corollario 12.2

Dimostrazione

Discende direttamente dal Teorema 12.1 e da quanto discusso subito

dopo.


Osservazione 12.10
Altre conseguenze dellalgoritmo di riduzione a forma canonica metrica sono le seguenti: data una conica C , esso individua la sua forma canonica metrica, stabilendo quindi la
sua classicazione e le sue propriet metriche. Inoltre, esso
individua il riferimento di R2 in cui C assume lequazione
della forma canonica metrica e la successione di isometrie
che sono state necessarie per arrivare a questo riferimento.
Pertanto da quanto discusso nel paragrafo 12.4, conosciamo
le propriet geometriche necessarie per eventualmente disegnare una qualsiasi delle forme canoniche metriche. Una
volta che abbiamo scoperto la forma canonica metrica M di

C , conosciamo tutti i dati necessari per poter disegnare M


nel riferimento (z1 , z2 ) di R2 dato dallalgoritmo. Se ripercorriamo a ritroso tutte le isometrie introdotte utilizzando la
procedura del Teorema 12.1 per portare C in M, individuiamo tutte le informazioni geometriche per C nelle coordinate
(x1 , x2 ) di partenza. Pertanto possiamo disegnare C nel suo
riferimento originario (x1 , x2 ).
Questo conferma ulteriormente che le conseguenze del Teorema 12.1 sono molto pi forti della pura e semplice
classicazione.

Osservazione 12.11
Vogliamo concludere il paragrafo osservando che, se si richiede la pura e semplice classicazione metrica di una coni- b)
ca C , ma non si richiede esplicitamente il riferimento in cui C
si riduce in forma canonica n la successione di isometrie
necessarie, allora si possono utilizzare strade alternative pi c)
rapide di quella dellalgoritmo di riduzione. Queste strade
alternative utilizzano la tabella della Denizione 12.11, insieme con il Corollario 12.1, ed alcuni risultati che abbiamo d)
dimostrato nei precedenti paragra. Infatti, data una conica
C come nella [12.4]:
a)

sappiamo se generale o meno;


calcoliamo il rango della matrice A, come nella Denizione 12.8, almeno sappiamo se C a centro
oppure se una parabola;
se A di rango massimo, a seconda del segno di
questo determinante sappiamo se C unellisse o
uniperbole;
dallOsservazione 12.6, sappiamo anche la traccia
della matrice A unaltro strumento che ci permette
di classicare C e gli autovalori di A.

come primo passo determiniamo subito il suo ran- Applicheremo tale metodo anche nella risoluzione di alcuni
go, come nella Denizione 12.7. A questo punto degli esercizi proposti a ne capitolo.

12.6 Forme canoniche afni delle coniche


Esattamente come nel caso delle forme canoniche metriche, in questo paragrafo elenchiamo i polinomi che sono i candidati naturali per le forme canoniche affini delle
coniche.
323

12 Coniche del piano cartesiano R2


definizione 12.12 Definiamo la seguente tabella:

Equazione

Denominazione

(1)

X1 + X2 = 1

ellisse generale

(2)

2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1

2
+ X2
2
+ X2
2
X2
2
X2

= 1

ellisse generale a punti non reali

=0

ellisse degenere

=1

iperbole generale

=0

iperbole degenere

(3)
(4)
(5)
(6)
(7)
(8)
(9)

= X2

parabola generale

=1

parabola semplicemente degenere

= 1

parabola semp. degenere a punti non reali

=0

parabola doppiamente degenere

detta tabella fondamentale per la classificazione affine delle coniche di R2 .

Notiamo che, a differenza della tabella nella Definizione 12.11, la precedente lista
costituita da un numero finito di coniche; esattamente 9 coniche, una per ciascuna
tipologia.
Grazie al Teorema 12.2 dimostreremo che le coniche contenute nella tabella precedente sono effettivamente tutte e sole le forme canoniche (e quindi le classi di
equivalenza) affini delle coniche di R2 .
I supporti delle coniche descritte nella tabella precedente hanno propriet analoghe a
quelle descritte per le coniche nella tabella nella Definizione 12.11. Per meglio dire,
tutte le propriet affini (che non coinvolgono quindi la perpendicolarit, la distanza,
gli angoli ecc.) delle coniche elencate nella Definizione 12.11 valgono corrispondentemente per quelle della lista della Definizione 12.12. Quindi, se nel paragrafo 12.4,
nella parte che abbiamo dedicato alla discussione delle propriet geometriche delle
forme canoniche metriche, andiamo a sostituire ovunque nelle equazioni a = b = 1,
continueranno a valere parola per parola tutte quelle propriet che coinvolgono le nozioni legate alla tipologia di supporto (a punti reali, puntiforme o vuoto), agli asintoti,
alleventuale centro di simmetria, alla limitatezza o meno del supporto, al numero di
componenti disgiunte in cui si decompone una conica ecc. Invece, non avranno pi
senso tutte quelle propriet in cui viene coinvolta per esempio la nozione di distanza,
di norma, di angolo.
A differenza del caso euclideo, nel caso affine si dimostra molto rapidamente la
seguente:
324

12.7 Classicazione afne delle coniche


proposizione 12.2 Si consideri la tabella fondamentale nella Definizione 12.12.

Le tipologie di coniche (1)-(9) elencate nella tabella descrivono coniche a due a due
non affinemente equivalenti.
In altri termini, per ogni 1 i = j 9, una conica di tipo (i) non mai
affinemente equivalente ad una conica di tipo ( j ).
Dimostrazione

Per quanto ricordato sopra, dalle Definizioni 12.7 e 12.8, i ranghi della
matrice simmetrica completa A e della matrice simmetrica A della forma quadratica di una
conica C , cos come il segno di det A, sono anche propriet affini di C . Poich nelle equazioni
cartesiane presenti nella tabella non compaiono parametri, basta applicare la prima parte della
dimostrazione della Proposizione 12.1.


Nel prossimo paragrafo, vedremo che queste 9 classi distinte di equivalenza affine di
coniche di R2 sono esattamente tutte e sole le classi di equivalenza affine.

12.7 Riduzione a forma canonica afne delle coniche.


Classicazione afne
Abbiamo, come nel caso metrico, il seguente risultato:
Ogni conica C definita da un polinomio come nella [12.2], affinemente equivalente ad una, ed una sola, delle coniche contenute nella tabella
fondamentale per la classificazione affine della Definizione 12.12.

teorema 12.2

Sia C come nella [12.17]. Applichiamo lalgoritmo nel Teorema 12.1.


Arriviamo ad una, ed una sola, forma canonica metrica di quelle nella tabella della Definizione 12.11, dove al posto delle indeterminate X 1 e X 2 in tali equazioni dobbiamo sostituire
indeterminate Z1 e Z2 , che sono relative alle coordinate del riferimento in cui C si esprime
in forma canonica metrica. Sia Q(Z1 , Z2 ) = 0 la forma canonica metrica e denotiamo con
M la conica corrispondente. Sia e z la base canonica del riferimento (z1 , z2 ) di R2 trovato
grazie allalgoritmo.

Dimostrazione

Se M di tipo (9), abbiamo finito dato che questa anche lequazione di tipo (9) nella
tabella nella Definizione 12.12.
Supponiamo quindi che M sia di tipo (i), con 1 i 8. A questo punto, possiamo
applicare anche le affinit di R2 . A tal proposito, prendiamo la forma quadratica Q = QM
dellequazione di M, come nella Definizione 12.2. Applichiamo il Teorema 11.5 alla base e z ,
rispetto alla forma quadratica Q e determiniamo cos la base di Sylvester s . Siano (w1 , w2 )
le coordinate rispetto al riferimento (O, s ) e siano W1 e W2 le relative indeterminate.

325

12 Coniche del piano cartesiano R2


Se M di tipo (i), con 1 i 5, ovvero a centro, il cambiamento di base da e z alla
base di Sylvester s comporta il cambiamento di coordinate Z1 = a W1 , Z2 = bW2 , che
una dilatazione lineare (Definizione 7.12). Essa trasforma Q(Z1 , Z2 ) nel primo membro
della corrispondente equazione (i) della tabella nella Definizione 12.12, a patto di rileggere
le indeterminate W1 e W2 al posto di X 1 e X 2 .
W

Se M di tipo (6), allora abbiamo la dilatazione lineare Z1 = a1 , Z2 = W2 , che trasforma


quindi Q(Z1 , Z2 ) nel primo membro della corrispondente equazione (6) della tabella nella
Definizione 12.12, a patto di rileggere le indeterminate W1 e W2 al posto di X 1 e X 2 .
Se infine M di tipo (7) (rispettivamente, (8)), il cambiamento di coordinate Z1 = a W1 ,
2

Z2 = W2 trasforma Q(Z1 , Z2 ) in a 2 Z1 . Semplificando per a 2 le corrispettive equazioni


ottenute, determiniamo lequazione (7) (rispettivamente, (8)) della tabella nella Definizione 12.12, a patto di rileggere le indeterminate W1 e W2 al posto di X 1 e X 2 .


In definitiva, dal Teorema 12.2 deduciamo che una qualsiasi conica C di R2 si riduce
mediante affinit ad una, ed una sola, delle coniche elencate nella tabella fondamentale per la classificazione affine; inoltre, dalla Proposizione 12.2, sappiamo che le
coniche in tale tabella sono a due a due non affinemente equivalenti. Pertanto, dalla
Definizione 12.10, abbiamo:
Le coniche della tabella fondamentale nella Definizione 12.12
sono le forme canoniche affini delle coniche di R2 .

corollario 12.3

Per questo motivo, il Teorema 12.2 si chiama anche Teorema di riduzione a forma
canonica affine di una conica C .
Esistono 9 tipologie differenti e 9 classi distinte di equivalenza
affine (equiv., di forme canoniche affini) di coniche di R2 .
corollario 12.4

Dimostrazione

Discende direttamente dal Teorema 12.2 e da quanto discusso subito

dopo.


In altri termini, nel caso affine, tipologie affini e classi di equivalenza affine di coniche
coincidono.
Osservazione 12.12
Notiamo quindi che, esattamente per i motivi discussi pocanzi, ciascun tipo (i ) della tabella nella Denizione 12.11
corrisponde al relativo tipo (i ) della tabella nella Denizione 12.12, per 1 i 9, per le innite classi di equiva-

326

lenza metrica distinte contenute nella medesima tipologia


(i ), 1 i 8, diventano tutte quante afnemente equivalenti allunica classe di equivalenza afne (i ) relativa nella
Denizione 12.12.

12.7 Classicazione afne delle coniche


Come osservato per le coniche euclidee, il Teorema 12.2 permette di classificare da un
punto di vista affine una qualsiasi conica C di R2 , di comprendere come orientativamente la forma del supporto di una tale conica ed inoltre determina il riferimento
in cui la conica assume la sua forma canonica affine e la successione di affinit che
hanno portato al cambiamento di riferimento.
Il precedente risultato quindi uno strumento leggermente pi debole della riduzione a forma canonica metrica, i.e. determina una classificazione meno fine delle
coniche. chiaro infatti che oggetti che non sono congruenti possono essere affinemente equivalenti. Per esempio, se fissiamo la tipologia (1) delle ellissi generali, il
precedente risultato stabilisce che, a differenza di quanto avviene per le forme canoniche metriche, per ogni possibile scelta di parametri a b > 0 lellisse definita da
2

X1

X2

+ b 2 = 1 sempre affinemente equivalente alla circonferenza X 1 + X 2 = 1.


In particolare, dal punto di vista affine, tutte le ellissi (in particolare, tutte le circonferenze di un qualsiasi raggio), saranno affinemente equivalenti alla circonferenza di
centro O e raggio 1. Discorso simile per iperboli e parabole (generali e non). Questa differenza risulta abbastanza naturale se si pensa che le affinit costituiscono un
insieme di trasformazioni di R2 molto pi grande di quello delle isometrie.
a2

Concludiamo osservando che, come nel caso euclideo (Osservazione 12.11), se si


richiede la pura e semplice classificazione affine di una conica C , ma non si richiede
esplicitamente il riferimento in cui C si riduce in forma canonica n la successione
di affinit necessarie, allora si possono utilizzare tutte le propriet affini precedenti
(Definizioni 12.7 e 12.8) per compiere la classificazione.
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).

Soluzioni

Quesiti ed esercizi
1.
Classicare dal punto di vista metrico la conica C , di equa2
2
zione cartesiana, X1 + X2 4X1 6X2 = 3, individuando la
sua forma canonica metrica.
2.
2
Sia data la conica C di equazione cartesiana 7X1


2
10 3X1 X2 3X2 + 12 3X1 12X2 12 = 0:
(i)

(ii)

scrivere le equazioni cartesiane degli eventuali assi di simmetria, delleventuale centro di simmetria e
degli eventuali asintoti di C .

3.
2
2
data la conica C di equazione cartesiana X1 +4X2 4X1 X2 +
6X1 12X2 + 9 = 0. Ridurre la conica C a forma canoridurre la conica C a forma canonica metrica M. nica metrica M. Stabilire la classicazione metrica di C e
Stabilire quindi la classicazione metrica di C e determinare esplicitamente lisometria che trasforma C in
M.
determinare lisometria che trasforma C in M;

327

12 Coniche del piano cartesiano R2


si di simmetria, delleventuale centro di simmetria e
4.
degli eventuali asintoti della conica C ;
Classicare dal punto di vista afne la conica C , di equazione
2
2
cartesiana X1 X2 4X1 6X2 23 = 0, determinando (iv)
ridurre C nella sua forma canonica afne A,
trovando esplicitamente lafnit che trasforma C
esplicitamente la sua forma canonica afne.
in A.
5.
Classicare dal punto di vista afne la conica C , di equazio2
2
ne cartesiana X1 + 2X2 = 0, determinando esplicitamente 7.
il cambiamento di coordinate che la porta nella sua forma Sia data la conica C di equazione cartesiana 12 X12 X1 X2 +
canonica afne.
1 2
X 7 X1 + 1 X2 + 7 = 0
2 2
2
2
6.
2
Sia data la conica C di equazione cartesiana X1 X1 X2 +
(i)
classicare C ;
2
X2 4X1 3 = 0:
(ii)
ridurre C nella sua forma canonica metrica M. Determinare inoltre tutte le isometrie coinvolte in tale
(i)
classicare C ;
riduzione, stabilendo che tipo di isometrie sono;
(ii)
ridurre C nella sua forma canonica metrica M, troscrivere le equazioni cartesiane degli eventuali assi
vando esplicitamente lisometria che trasforma C (iii)
di simmetria, delleventuale centro di simmetria o
in M;
delleventuale vertice.
(iii)
scrivere le equazioni cartesiane degli eventuali as-

328

13
Quadriche dello spazio cartesiano R3
In questo capitolo studieremo le quadriche dello spazio cartesiano R3 . Analogamente
alle coniche, una quadrica si pu considerare come un oggetto geometrico rappresentato da un polinomio P (X 1 , X 2 , X 3 ) di secondo grado ed a coefficienti reali. In
altri termini, a parte casi particolari (e.g. quadriche a punti non reali, quadriche puntiformi ecc. esattamente come nel caso delle coniche), questi polinomi determinano
superfici, i.e. luoghi geometrici bidimensionali, in R3 . Il discorso quindi analogo
a quanto fatto nel Capitolo 8, dove si sono studiati i piani di R3 come superfici
rappresentate da equazioni cartesiane lineari.
Esempi di quadriche sono gi stati dati implicitamente nei precedenti capitoli di
questo libro: le sfere (Definizione 8.21) ed i cilindri circolari (Osservazione 8.14).
Dallanalisi di questi semplici esempi risulta abbastanza chiaro che, a parte i possibili
casi patologici sopra menzionati, il fatto che una quadrica  sia rappresentata da un
polinomio di secondo grado ha il seguente risvolto geometrico: lintersezione con un
piano sufficientemente generale e non esterno a  una conica su e lintersezione
di  con due piani e sufficientemente generali (in particolare, non paralleli n
coincidenti) e non esterni a  costituito da due punti di : questi sono i punti di
intersezione tra  e la retta r := .
Data la profonda analogia con il caso delle coniche, tratteremo in modo abbastanza
sintetico tutti quegli aspetti e quei risultati che sono una pura e semplice estensione
a tre indeterminate di risultati considerati nel Capitolo 12. Al contrario, porremo
laccento su tutti quei risultati che non sono invece facilmente deducibili da quanto
trattato per le coniche.
Dopo alcune definizioni di base, considereremo nel paragrafo 13.2 le equazioni cartesiane pi semplici che definiscono tutti i possibili tipi di quadriche  dal punto di
vista della geometria euclidea (Corollario 8.8, dove abbiamo il risultato analogo per i
piani di R3 ). Analogamente al caso delle coniche, tali equazioni saranno dette forme
canoniche metriche od euclidee delle quadriche di R3 . Nel paragrafo 13.4 affronteremo il problema analogo considerando per il punto di vista della geometria affine.
Le equazioni che otterremo verranno dette forme canoniche affini delle quadriche di
R3 . Studieremo alcune fondamentali propriet geometriche delle quadriche definite
da queste forme canoniche metriche ed affini ed alcune fondamentali conseguenze
(Corollari 13.2 e 13.4).
Nei paragrafi 13.3 e 13.5, descriveremo lalgoritmo di riduzione a forma canonica metrica (rispettivamente, affine) grazie al quale lequazione di partenza,P (X 1 , X 2 , X 3 )=
0, di una quadrica  diventa via via sempre pi semplice fino a ricondursi ad una,
329

13 Quadriche dello spazio cartesiano R3


ed una sola, delle forme canoniche metriche (rispettivamente, affini). Tale procedimento, tra le varie cose, permette di dare la classificazione metrica (equivalentemente,
affine) di , i.e. si potr stabilire che tipo di quadrica sia dal punto di vista metrico
che da quello affine.
Dora in poi in questo capitolo, considereremo lo spazio R3 in cui assumeremo, una
volta per tutte, fissato un riferimento cartesiano (O, e ), con notazioni ed assunzioni
come allinizio del paragrafo 8.2.

13.1 Prime denizioni


Cominciamo con osservare brevemente alcune propriet fondamentali dei polinomi
a tre indeterminate analoghe a quelle osservate nel paragrafo 12.1 per le coniche.
Sia P (X 1 , X 2 , X 3 ) un polinomio a coefficienti reali nelle indeterminate X 1 , X 2 e

i j k
X 3 ; quindi P (X 1 , X 2 , X 3 ) =
i, j,k i j k X 1 X 2 X 3 una somma finita dei moj

nomi i j k X 1i X 2 X 3k , con i, j e k interi non negativi e i j k R. Il termine noto


di P (X 1 , X 2 , X 3 ) 000 mentre i monomi lineari di P (X 1 , X 2 , X 3 ) sono 100 X 1 ,
010 X 2 e 001 X 3 , e cos via. Analogamente al caso dei polinomi in due indetermij

nate, il grado del monomio i j k X 1i X 2 X 3k , con i j k = 0, i + j + k ed il grado di un


polinomio P (X 1 , X 2 , X 3 ), denotato come al solito con deg (P (X 1 , X 2 , X 3 )), il
massimo dei gradi dei monomi che compaiono nellespressione di P (X 1 , X 2 , X 3 ),
i.e. tali che i j k = 0.
La relazione di proporzionalit tra due polinomi e le nozioni di classe di proporzionalit definita da un polinomio P (X 1 , X 2 , X 3 ) e di rappresentante di una classe sono
identiche a quelle viste nel caso di due indeterminate. Rimandiamo pertanto il lettore
al paragrafo 12.1.
Quadrica di R3

definizione 13.1 Una quadrica di R3 una classe di proporzionalit di polinomi

non costanti, di secondo grado, a coefficienti reali e nelle indeterminate X 1 ,


X 2 e X 3 . Se P (X 1 , X 2 , X 3 ) un rappresentante della quadrica, lequazione
quadratica
[13.1]

P (X 1 , X 2 , X 3 ) = 0

si dice equazione cartesiana della quadrica (o che definisce la quadrica). Il luogo


geometrico  R3 di punti dello spazio le cui coordinate soddisfano la [13.1]
detto il supporto della quadrica.
Dalla precedente definizione, notiamo subito che le quadriche sono particolari esempi di superfici algebriche dello spazio cartesiano R3 , i.e. definite dallannullarsi di
un polinomio in tre indeterminate (per maggiori dettagli e generalit, cf. e.g. [9,
330

13.1 Prime denizioni


par. 7-IV], [11, parr. 31.4 e 32.3.3]. Per lo studio dettagliato di quadriche per mezzo
di equazioni parametriche, cf. e.g. [3, par. 9] e [12, par. 35.9.8]). Precisamente, una
quadrica una superficie algebrica di grado due, dato che una sua equazione cartesiana
sempre un polinomio di secondo grado.
Ogni polinomio P (X 1 , X 2 , X 3 ) di secondo grado, a coefficienti reali si pu scrivere
come
2

[13.2]

Equazione cartesiana
di una quadrica

P (X 1 , X 2 , X 3 ) := a 11 X 1 + a 22 X 2 + a 33 X 3 + 2a 12 X 1 X 2 + 2a 12 X 1 X 3 +
+ 2a 23 X 2 X 3 + 2b 1 X 1 + 2b 2 X 2 + 2b 3 X 3 + c

con a i j , b h , c R, 1 i < j 3, 1 h 3, tali che almeno un a i j = 0.

R3 definita da P (X 1 , X 2 , X 3 ) come
nella [13.2], le tre componenti omogenee di P (X 1 , X 2 , X 3 ), di gradi rispettivamente due, uno e zero, sono:

definizione 13.2 Data una quadrica di

(i)

(ii)
(iii)

Q(X 1 , X 2 , X 3 ) := a 11 X 1+a 22 X 2+a 33 X 3+2a 12 X 1 X 2+2a 13 X 1 X 3 +


2a 23 X 2 X 3 , che detta forma quadratica della quadrica; la matrice simmetrica associata alla forma quadratica verr denotata con A := A Q
(Definizione 11.5);
L(X 1 , X 2 ) := 2b 1 X 1 + 2b 2 X 2 + 2b 3 X 3 , che detta forma lineare
della quadrica;
c , che detto termine noto della quadrica.

Data  una quadrica, possiamo allora associare alla sua equazione cartesiana
P (X 1 , X 2 , X 3 ) = 0 la matrice simmetrica:

c b1 b2 b3
b 1 a 11 a 12 a 13

A :=
b 2 a 12 a 22 a 23
b 2 a 13 a 23 a 33

[13.3]

Matrice completa
di una quadrica

che chiameremo la matrice simmetrica completa dellequazione di . In tal modo,


lequazione cartesiana di  si pu scrivere in forma pi compatta:

1
X 1

P (X 1 , X 2 , X 3 ) = (1X 1 X 2 X 3 ) A
X 2 = 0
X3

[13.4]

331

13 Quadriche dello spazio cartesiano R3

Osservazione 13.1
 scrivere in forma compatta
Ricordando la Denizione 13.2, la sottomatrice 3 3 di A

 3, 4; 2, 3, 4) coincide con la matrice A della fordata da A(2,
X1

ma quadratica della conica. In particolare, dalla [11.6], an- [13.5]
Q(X1 , X2 , X3 ) = (X1 X2 X3 )A X2 = 0
che lequazione della forma quadratica Q(X1 , X2 , X3 ) si pu
X
3

Osservazione 13.2
Come nellOsservazione 12.2 , se P(X1 , X2 , X3 ) determina
unequazione cartesiana di una quadrica il cui supporto
 R3 , ogni altro polinomio nella classe di proporzionalit [P(X1 , X2 , X3 )] determina unaltra equazione cartesiana
della stessa quadrica e denir lo stesso supporto. Quindi
anche in questo caso, per brevit, si denoter spesso la quadrica di equazione cartesiana P(X1 , X2 , X3 ) = 0 e con supporto  semplicemente con la lettera , quando risulter
chiaro che unequazione cartesiana della quadrica stata
gi assegnata.

quadrica, ha come supporto il piano di equazione cartesiana X1 = 0, pertanto possiamo vedere questa quadrica come
un piano contato due volte (o piano doppio). Passiamo alla
seconda quadrica:

Ovviamente, per quanto riguarda leventuale possibilit di


confondere una classe di proporzionalit di polinomi con il
supporto che essi deniscono, ci sono sempre le dovute precauzioni da prendere. Basti pensare per esempio alle qua-
2
2
2
2
driche X1 = 0 e X1 + X2 + X3 + c = 0, c R che sono
lanalogo delle coniche descritte nellEsempio 12.2. La prima

per ogni c R+ , la quadrica ha sempre supporto vuoto; inoltre, sebbene con medesimo supporto,
due diversi valori positivi di c deniscono due quadriche distinte perch i polinomi non sono proporzionali. In particolare, ogni quadrica di questo tipo
ha un contenuto puramente algebrico, in quanto il
suo supporto sempre vuoto;
se invece c R allora, dalla [8.69],
 la quadrica
una sfera di centro O e raggio r = c;
da ultimo, se c = 0, lunica soluzione possibile lorigine O, pertanto la quadrica si dice anche quadrica
puntiforme.

Alcuni dei fenomeni che si presentano nei precedenti esempi dipendono dal fatto
che consideriamo quadriche reali, cio polinomi a coefficienti reali, e vogliamo le
soluzioni reali delle equazioni corrispondenti in R3 .
Quadriche congruenti
ed afnemente
equivalenti

Visto che, da quanto osservato nei precedenti esempi, le quadriche come le coniche
non si riducono esclusivamente al loro supporto, anche per esse dovremo brevemente
richiamare le nozioni di congruenza ed equivalenza affine definite in relazione ai
polinomi che le rappresentano. Ci rifaremo sostanzialmente al paragrafo 12.2.
Sia F : R3 R3 una qualsiasi isometria (rispettivamente, affinit) dello spazio
cartesiano, cui associato il cambiamento di coordinate
x 1 = m 11 y 1 + m 12 y 2 + m 13 y 3 + d1
[13.6]

x 2 = m 21 y 1 + m 22 y 2 + m 23 y 3 + d2
x 3 = m 31 y 1 + m 32 y 2 + m 33 y 3 + d3

332

13.1 Prime denizioni


dove y 1 , y 2 e y 3 sono le nuove coordinate di R3 date da F . Se denotiamo con

[13.7]

m 11 m 12 m 13
M := m 21 m 22 m 23
m 31 m 32 m 33

la matrice dei coefficienti della trasformazione F e con d il vettore colonna dei termini
noti, allora in forma matriciale [13.6] :
[13.8]

x = My +d

Sia  una quadrica di equazione cartesiana [13.1]. Allora, le nozioni di sostituzione


ortogonale (rispettivamente, affine) di indeterminate e di polinomi isometrici (rispettivamente, affinemente equivalenti) sono perfettamente simili a quelle introdotte per
le coniche; pertanto, rimandiamo il lettore alle Definizioni 12.3 e 12.4.
Osservazione 13.3
Ovviamente, anche in questo caso se abbiamo che, due po- In particolare, i polinomi saranno anche afnemente
linomi sono proporzionali per un qualche R \ {0}, equivalenti.
allora essi sono sempre congruenti (Osservazione 12.4).

Come fatto per la matrice A dellequazione di una quadrica, data unisometria (equivalentemente, unaffinit) F come nella [13.6], definiamo la matrice completa di F
come

1
0
0
0

 := d1 m 11 m 12 m 13
M
d2 m 21 m 22 m 23
d3 m 31 m 32 m 33

[13.9]

Matrice completa
di una trasformazione

 3, 4; 2, 3, 4) = M, che la matrice della parte lineare di F , e


Notiamo che M(2,
 = det M = 0.
che det M
Data allora una quadrica  di equazione cartesiana come nella [13.4] ed unisometria
(rispettivamente, unaffinit) F come nella [13.6], la trasformata di  tramite F ,
denotata con  F , la quadrica di equazione cartesiana

[13.10]

Y
 A M
 1 = 0
 F : (1Y1 Y2 Y3 )tM
Y2
Y3

Contestualmente, dallequazione matriciale [13.5] della forma quadratica e dalla for avremo che la forma quadratica Q F dellequazione di  F sar
ma della matrice M,
333

13 Quadriche dello spazio cartesiano R3


data da:
[13.11]


Y1
F
t

Q : (Y1 Y2 Y3 ) M A M Y2 = 0
Y3

 3, 4; 2, 3, 4) la matrice simmetrica
dove M come nella [13.7] e dove A = A(2,
associata alla forma quadratica Q dellequazione data di .
Quadriche congruenti
ed afnemente
equivalenti

definizione 13.3 Sia  una quadrica di R3 . Una quadrica


si dice congruente

o isometrica (rispettivamente, affinemente equivalente) a  se esiste unisometria (rispettivamente, unaffinit) F di R3 tale che  =
F .

Osservazione 13.4
Esattamente come nellOsservazione 12.7, i supporti di equivalenti) sono essi stessi congruenti (rispettivamente,
due quadriche congruenti (rispettivamente, afnemente afnemente equivalenti).

Notiamo che se  ha equazione


matriciale come nella [13.4] e se
definita analo
1

Y1
gamente da (1Y1 Y2 , Y3 ) B Y2 = 0, dalla [13.10] e da quanto detto fino ad ora,
Y3

congruente (rispettivamente, affinemente equivalente) a  se, e solo se, esiste


R \ {0} tale che
[13.12]

 A M

B = t M

Le propriet che una quadrica  ha in comune con tutte le quadriche ad essa congruenti (rispettivamente, affinemente equivalenti) vengono dette propriet metriche
od euclidee (rispettivamente, propriet affini ) di . Introduciamo alcune di queste
propriet.
Rango di una quadrica

La stessa dimostrazione fatta nel caso delle coniche ([12.14] e seguente) permette di
dare la seguente:
 codefinizione 13.4 Data  una quadrica con matrice simmetrica completa A

Interpretazione
geometrica del rango
di una quadrica

me nella [13.3], allora il rango di A una propriet metrica (rispettivamente,


affine) di . Tale rango viene denominato il rango di  e denotato con r ().
La quadrica  si dice:
(i)
(ii)
(iii)
(iii)

334

generale (o non degenere), se r () = 4;


semplicemente degenere, se r () = 3;
doppiamente degenere, se r () = 2;
triplamente degenere, se r () = 1.

13.1 Prime denizioni

Osservazione 13.5
 e quelli di B
 come nella [13.12] in generale non sono uguali.
Come discusso nellOsservazione 12.6, gli autovalori di A

Come nel caso delle coniche, esistono altre fondamentali propriet metriche (equivalentemente, affini) di una quadrica.

Ulteriori propriet
metriche ed afni

Per esempio nel caso di quadrica generale, se consideriamo A e B come nella [13.12], il
segno del determinate di A coincide con il segno di quello di B (dal Teorema di Binet
 Daltra parte, se moltiplichiamo lequazione cartesiana
 2 (det A)).
det B = (det M)
 perci il
di  per un qualsiasi R \ {0} la matrice corrispondente sar A;
4

determinate di questa matrice si ottiene moltiplicando per il determinante di A.
Abbiamo quindi:
definizione 13.5 Data una quadrica  generale con matrice simmetrica com-

 il segno del determinate di A una propriet metrica (rispettivamente,


pleta A,
affine) di .

Nel caso delle coniche, il segno del determinate della matrice simmetrica completa
non era una propriet metrica (equivalentemente, affine); ricordiamo che lo era invece il segno del determinate della matrice A della forma quadratica associata alla
conica (Definizione 12.8).
Abbiamo unaltra importante propriet metrica (equivalentemente, affine). Consi come nella [13.12]. Siano A(2,
 3, 4; 2, 3, 4) = A e
deriamo le matrici A e M
 3, 4; 2, 3, 4) = M, i.e. rispettivamente la matrice della forma quadratica Q
M(2,
e la matrice dei coefficienti dellisometria (equivalentemente, affinit) F come nel 3, 4; 2, 3, 4), vale la
la [13.6]. Se B come nella [13.12] allora, posto B = B(2,
relazione analoga:
[13.13]

B = t M A M

e B la matrice della forma quadratica associata allequazione della quadrica


.
Abbiamo:
definizione 13.6 Sia  una quadrica di equazione come nella [13.4] e sia A

la matrice simmetrica della forma quadratica Q di , come nella Definizione 13.2. Allora il rango di A una propriet metrica (rispettivamente, affine)
di .
(i)

Se la quadrica  generale, i.e. r () = 4, allora  si dice:


(i.1)

paraboloide, se r (A) = 2;
335

Paraboloidi, ellissoidi,
iperboloidi, coni
e cilindri

13 Quadriche dello spazio cartesiano R3


quadrica a centro, se r (A) = 3. In tale eventualit, Q(X 1 ,
X 2 , X 3 ) pertanto una forma quadratica non degenere e  si
dice:
a)
ellissoide, se lequazione quadratica omogenea Q(X 1 ,
X 2 , X 3 ) = 0 non ammette altre soluzioni reali al di
fuori della soluzione nulla;
b)
iperboloide, se lequazione quadratica omogenea Q(X 1 ,
X 2 , X 3 ) = 0 ammette soluzioni reali non nulle;
se la quadrica  semplicemente degenere, i.e. r () = 3, si dice:

(i.2)

(ii)

(ii.1)
(ii.2)

cono, se r (A) = 3;
cilindro, se r (A) < 3.

Esattamente come nel caso delle coniche, le precedenti nozioni hanno profondi risvolti geometrici; per dimostrarlo sono necessari per preliminari di geometria proiettiva, che esulano dagli obiettivi di questo testo.
Da quanto discusso fino ad ora, chiaro che classificare le quadriche di R3 sar una
procedura molto pi impegnativa e pi ricca di casi da discutere, rispetto a quanto
fatto per le coniche.
Esattamente come nel caso delle coniche (fine del paragrafo 12.3), considereremo la
classificazione metrica delle quadriche di R3 , determinando le loro forme canoniche
metriche, e la classificazione affine delle quadriche di R3 , con il calcolo esplicito di
tutte le loro forme canoniche affini. Definiamo infatti:
definizione 13.7 Un insieme di forme canoniche metriche (rispettivamente, affini) delle quadriche di R3 un insieme di rappresentanti per le distinte classi
di equivalenza metrica di quadriche di R3 . Pertanto, queste forme canoniche
metriche (rispettivamente, affini) sono un insieme di quadriche di R3 tali che:

(i)
(ii)

le quadriche di questo insieme sono a due a due non congruenti (rispettivamente, non affinemente equivalenti);
ogni quadrica di R3 congruente (rispettivamente, affinemente equivalenti) ad una ed una sola di esse.

13.2 Forme canoniche euclidee delle quadriche


In questo paragrafo elenchiamo i polinomi che sono i candidati naturali per le forme
canoniche metriche delle quadriche, e per ciascuno di essi, ne studiamo le principali
propriet geometriche.
336

13.2 Forme canoniche euclidee delle quadriche


definizione 13.8 Dati a , b, c

Equazione
2

(1)

X1

(2)

X1

X2

X2

2
1
2

X3
X3

2
2
2

X3

2
2
2

X3

2
2
2

2
2

Condizioni

Denominazione

abc>0

ellissoide generale

= 1 a b c > 0

ellissoide generale
immaginario

R+ , definiamo la seguente tabella:

=1

=1

iperboloide generale
a > 0, b c > 0 ellittico

=1

a b, c > 0

iperboloide generale
iperbolico

= X3

ab>0

paraboloide generale
ellittico

= X3

a, b > 0

paraboloide generale
iperbolico

=0

ab>0

cono immaginario

=0

a, b > 0

cono

= 1

ab>0

cilindro immaginario

=1

ab>0

cilindro ellittico

a>0

cilindro parabolico

=1

a, b > 0

cilindro iperbolico

=0

a>0

2 piani complessi
e coniugati incidenti

=0

a>0

2 piani incidenti

(15) X1 = a2

a>0

2 piani complessi
e coniugati paralleli

a>0

2 piani paralleli

(3)
(4)
(5)

2
1
2

2
1
2

b
b
X

X1

X2

(7)

X1 +

X2

(8)

X1 +

(9)

X1

(10)

X1

X2

X3

X3

X2

X2

(6)

2
2

(11) aX1 = X2
2

X1

X2

(13) X1 +

X2

(12)

(14) X1

X2

(16) X1 = a2
(17)

2
X1

=0

2 piani coincidenti

detta tabella fondamentale per la classificazione metrica delle quadriche di R3 .


Notiamo che, dalle condizioni sui parametri, la tabella precedente non contiene
ripetizioni.
337

13 Quadriche dello spazio cartesiano R3


Grazie al Teorema 13.1 dimostreremo che, per ogni scelta di a , b e c come sopra, le
quadriche contenute nella tabella precedente sono tutte e sole le forme canoniche (e
quindi le classi di equivalenza) metriche delle quadriche di R3 . Discuteremo inoltre
alcune importanti conseguenze di questo risultato (Corollario 13.2).
In questo paragrafo, vogliamo invece studiare le propriet geometriche delle quadriche descritte nella tabella della Definizione 13.8. Tale studio, insieme al Teorema 13.1, si pu utilizzare come strumento per dedurre le propriet geometriche di
tutte le quadriche di R3 . Per una dettagliata analisi di equazioni parametriche di tali
quadriche, rimandiamo il lettore interessato ad e.g. [3] e [12].
Quadriche euclidee
generali (a punti reali)

Dalla tabella della Definizione 13.8, vediamo che le quadriche generali a punti reali
corrispondono a quelle di tipologie (1), (3), (4), (5) e (6). Notiamo infatti che, dalle
equazioni cartesiane corrispondenti a ciascuno dei casi, il rango della quadrica 
sempre 4 (Definizione 12.7). Il termine a punti reali specifica che ciascuno dei
supporti di queste quadriche sar una superficie in R3 .

Ellissoide generale

Sia  come in tipologia (1). Notiamo subito che, se a = b = c , allora  la sfera


di centro O e raggio a ([8.69]). In generale, lellissoide

sei vertici,

che sono

possiede
i punti di intersezione con i tre assi coordinati:

a
0
0

0
b
0

0
0
c

. imme-

diato osservare che il supporto dellellissoide una superficie a punti reali, chiusa e
limitata, infatti contenuta nel parallelepipedo dello spazio determinato dalle condizioni |x 1 | a , |x 2 | b, |x 3 | c cio delimitato dai piani di equazioni cartesiane
X 1 = a , X 2 = b, X 3 = c . In particolare lellissoide non pu contenere rette.
Si chiamano semiassi dellellissoide  i sei segmenti di estremi lorigine O ed uno dei
vertici dellellissoide. I numeri a , b e c sono le rispettive lunghezze di questi semiassi.
Osservando che nellequazione cartesiana dellellissoide compaiono solo i quadrati
delle indeterminate, si ha immediatamente che lellissoide una superficie simmetrica rispetto ai piani ed alle rette coordinate cos come rispetto allorigine. Pertanto essi
si dicono, rispettivamente, piani ed assi principali (o di simmetria) e centro di simmetria dellellissoide. semplice notare che nel caso a = b = c , i.e.  una sfera, allora
ciascuna retta per lorigine asse principale e ciascun piano per lorigine piano principale. Osserviamo che lellissoide  ha uno ed un solo centro di simmetria, come
dovevamo aspettarci dalla Definizione 13.6-(i.2). Se consideriamo inoltre la condizione a) nella Definizione 13.6-(i.2), notiamo che lequazione della forma quadratica
X

associata a , i.e. Q(X 1 , X 2 , X 3 ) = a 21 + b 22 + c 23 = 0, essendo uneguaglianza


a zero di una somma di tre quadrati, ammette come soluzione (reale) esclusivamente
la soluzione nulla (0, 0, 0); pertanto la condizione della Definizione 13.6 di essere
ellissoide soddisfatta.
338

13.2 Forme canoniche euclidee delle quadriche


Le intersezioni dellellissoide con i piani principali sono delle ellissi che vengono dette
2

ellissi principali, e sono C1 :


e C3 :

2
X1
a2

2
X2
b2

X2
b2

X3
c2

1 = X 1 = 0, C2 :

X1
a2

X3
c2

1 = X2 = 0

1 = X 3 = 0.

Ci si rende conto facilmente della forma del supporto dellellissoide sezionandolo con
piani paralleli ai piani principali. Per esempio, sezionando con i piani della forma
X 3 = k, troviamo dei supporti non vuoti se, e solo se, c k c . La sezione
2

X1

a2

b2

(1

k2
2)
c

= X 3 = 0; per c < k < c , tale



2
2
sezione un ellisse i cui semiassi a  := a 1 kc 2 e b  := b 1 kc 2 , variano
proporzionalmente ad a e b, decrescendo al crescere di |k|, mentre i vertici scorrono
lungo le ellissi principali C1 e C2 . Per ciascun valore di k = c lellisse sezione
invece unellisse puntiforme, i.e. lintersezione costituita da uno dei vertici di .
Pertanto, il supporto dellellissoide come nella figura 13.1.

ha equazione cartesiana

X2

Sia  come in tipologia (3). Questo viene denominato classicamente iperboloide


ellittico. Osservando che nellequazione cartesiana di  compaiono solo i quadrati
delle indeterminate, si ottiene immediatamente che  una superficie simmetrica
rispetto ai piani ed alle rette coordinate cos come rispetto allorigine. Essi si dicono, rispettivamente, piani ed assi principali (o di simmetria) e centro di simmetria
delliperboloide.
In sostanza  ha uno ed un solo centro di simmetria, come dovevamo aspettarci
dalla Definizione 13.6-(i.2). Se consideriamo inoltre la condizione b) nella Definizione 13.6-(i.2), notiamo che lequazione della forma quadratica associata a , i.e.
2

Q(X 1 , X 2 , X 3 ) =
2
X1
a2

X1
a2
2
X2

X2
b2

X3
c2

= 0, contiene nel suo supporto per esempio la

conica X 3 =
b 2 = 0 che uniperbole degenere, i.e. una coppia di rette incidenti in O. Quindi le soluzioni di tale equazione non si riducono esclusivamente alla
soluzione nulla. Pertanto la condizione di essere iperboloide della Definizione 13.6
soddisfatta.
Notiamo che liperboloide ellittico  possiede un solo asse reale (o trasverso), i.e. solo
lasse x 1 interseca liperboloide, Lintersezione costituita dai vertici delliperboloide,
a

0
. Gli altri due assi di simmetria sono quini.e. dai due punti di coordinate
0

di detti assi immaginari (o non trasversi ) per liperboloide ellittico. La sezione di 


con il piano principale X 1 = 0 vuota (i.e. non ha punti reali), mentre le sezioni con i piani principali X 2 = 0 e X 3 = 0 sono iperboli generali a punti reali,
aventi ambedue per asse di simmetria reale lasse x 1 . Pi precisamente,  non ha
supporto nella parte di spazio definita dalle diseguaglianze |x 1 | < a mentre intersecato da ogni piano della forma X 1 = h, per |h| > a , nellellisse di equazione
339

figura 13.1 Lellissoide generale a punti reali

Iperboloide generale
ellittico o a due falde

13 Quadriche dello spazio cartesiano R3


2

X2

+ c 23 +1 ah 2 = X 1 h = 0. Ovviamente, per h = a tale ellisse si riduce, corrib2


spondentemente, ad uno dei due vertici delliperboloide. Pertanto,  una quadrica
a punti reali ed costituito da due componenti disgiunte (cio che non si intersecano),
le quali si estendono allinfinito al crescere di |x i |, 1 i 3. Per questi motivi, 
viene denominato anche iperboloide a due falde. In particolare, liperboloide ellittico
non pu contenere rette. Riassumendo, il supporto delliperbolide ellittico come
nella figura 13.2.
figura 13.2 Liperboloide generale ellittico o a due falde

Iperboloide generale
iperbolico o ad una falda

Sia  come in tipologia (4). Questo viene denominato classicamente iperboloide


iperbolico. Per gli stessi motivi discussi per liperboloide ellittico,  una superficie simmetrica rispetto ai piani,alle rette coordinate ed allorigine. Essi si dicono, rispettivamente, piani ed assi principali (o di simmetria) e centro di simmetria
delliperboloide.
Anche liperbolide iperbolico ha un solo centro di simmetria come dovevamo aspettarci dalla Definizione 13.6-(i.2). Se consideriamo inoltre la condizione b) nella Definizione 13.6-(i.2) di essere iperboloide, notiamo che lequazione della forma qua2

dratica associata Q(X 1 , X 2 , X 3 ) =


2
X2
b2

X1

a2
2
X3

X2
b2

X3
c2

= 0, contiene nel suo supporto

per esempio la conica X 1 =


c 2 = 0 che di nuovo uniperbole degenere.
Pertanto, la condizione b) precedentemente ricordata soddisfatta.
Notiamo che liperboloide iperbolico  possiede due assi reali (o trasversi ). Infatti,
gli assi x 1 e x 2 intersecano liperboloide nei vertici delliperboloide, i.e. i quattro punti
a

0
di coordinate 0 e b . Il terzo asse di simmetria ha intersezione vuota con
0

, ed quindi detto asse immaginario (o non trasverso) per liperboloide.


La sezione di  con il piano principale X 3 = 0 lellisse di equazioni cartesiane
2

X1

X2

+ b 2 1 = X 3 = 0, che viene chiamata lellisse di gola; invece le sezioni con i


a2
piani principali X 1 = 0 e X 2 = 0 sono le iperboli generali a punti reali, di equazioni
X

cartesiane, rispettivamente, b 22 c 23 1 = X 1 = 0 e a 21 c 23 1 = X 2 = 0,
ambedue aventi per asse immaginario (o non trasverso) lasse x 3 . Pi in generale, le
X

sezioni con i piani X 3 = k, per un qualsiasi k R, sono le ellissi a 21 + b 22 1 kc 2 =


X 3 k = 0, i cui semiassi variano proporzionalmente ad a e b, crescendo al crescere
di |k|. In particolare per k = 0 riotteniamo lellisse di gola, che quindi lellisse,
fra queste ottenute, con semiassi minimi.
Si deduce che liperboloide iperbolico ha supporto che costituito da ununica componente che si estende indefinitamente. Per questo motivo,  viene denominato
anche iperboloide ad una falda. Liperboloide iperbolico non ha punti allinterno
340

13.2 Forme canoniche euclidee delle quadriche


x

della porzione di spazio delimitata dalla condizione a 12 + b22 < 1. Per rendersi conto
pi accuratamente della forma della superficie, si pu intersecare  con i piani della
forma X 1 = h e X 2 = k, per h, k R. Per esempio, intersecando con il piano
2

X2

X3

X 1 = h, si ottiene b 2 c 2 1 + ah 2 = X 1 h = 0. Per ogni scelta di h, con


h = a , questa intersezione definisce uniperbole generale. Per |h| < a , ciascuna
di queste iperbole ha come asse reale (o trasverso) lasse x 2 , mentre per |h| > a ha
asse trasverso lasse x 3 . Invece, per h = a , tale intersezione si riduce ad una iperbole degenere, i.e. ad una coppia di rette uscenti da due dei vertici delliperboloide.
Questo dimostra intanto che  contiene delle rette.
Pi in generale, possiamo verificare che  contiene due differenti insiemi costituiti,
ciascuno, da infinite rette. Ciascuno di questi insiemi di rette viene chiamato schiera o
rigatura di . Vediamo subito come si determinano le due schiere. Possiamo scrivere
lequazione cartesiana di  anche come


X1
X2
X3
X2
X3
X1
1
=
+

[13.14]
1+
a
a
b
c
b
c
La [13.14] si pu pensare come ottenuta per eliminazione sia di un parametro t
R \ {0} tra le equazioni:

X1
X2
X3
X1
X3
1 X2
[13.15] 1 +
=t
+
e 1
=

a
b
c
a
t
b
c
sia di un parametro s R \ {0} tra le equazioni

X1
X2
X3
X1
X3
1 X2
[13.16] 1 +
=s

e 1
=
+
a
b
c
a
s
b
c
Per ogni fissato valore di t (rispettivamente, di s ) come sopra, il sistema lineare di
due equazioni e tre indeterminate costituito dalle due equazioni nella [13.15] (rispettivamente, nella [13.16]) determina le equazioni cartesiane di una retta r t (rispettivamente, r s ) contenuta in . Al variare dei parametri t, s R \ {0}, abbiamo le due
schiere di rette T := {r t }tR\{0} e S := {r s }s R\{0} . Ciascuna schiera costituita da
1 rette contenute in . Per questi motivi,  si dice anche iperboloide doppiamente
rigato.
Notiamo la seguente propriet interessante:

le rette di una medesima schiera sono sghembe mentre le rette di due schiere diverse
sono incidenti.

Prendiamo due qualsiasi valori distinti t = t  e consideriamo le rette r t , r t  T


come nella [13.15]. Considerando il relativo sistema di quattro equazioni in tre indeterminate, notiamo che esso soddisfa la condizione di rette sghembe considerata nel
341

13 Quadriche dello spazio cartesiano R3


paragrafo 8.5. Discorso analogo per due qualsiasi rette distinte della schiera S come
nella [13.16].

figura 13.3
Liperboloide
iperbolico o ad una falda

Paraboloide generale
ellittico

Al contrario, per ogni punto P , esistono, e sono univocamente determinate,


una retta della schiera T ed una della schiera S che passano per P (basta sostituire
le coordinate di P nelle precedenti equazioni per trovare univocamente i valori dei
parametri t e s ). Viceversa, presi comunque s e t in R \ {0} e considerando il sistema
lineare di quattro equazioni in tre indeterminate formato dalle equazioni cartesiane di
r t e di r s rispettivamente come nella [13.15] e [13.16], vediamo che la matrice dei coefficienti e la matrice completa di questo sistema soddisfano la condizione di incidenza
fra due rette considerata nel paragrafo 8.5. Riassumendo, il supporto delliperbolide
iperbolico come nella figura 13.3.
Sia  come in tipologia (5). Questo viene denominato classicamente paraboloide ellittico. Osservando che nellequazione cartesiana di  compaiono i quadrati delle
indeterminate X 1 e X 2 , si ottiene immediatamente che  una superficie simmetrica rispetto ai piani coordinati X 1 = 0 e X 2 = 0 e rispetto allasse x 3 . Si hanno
pertanto solamente due piani principali (o di simmetria) ed un solo asse principale
(o di simmetria). Lintersezione di  con il suo asse di simmetria lorigine che
detto vertice del paraboloide. Notiamo inoltre che la condizione (i.1) della Definizione 13.6 soddisfatta dalla matrice simmetrica A della forma quadratica associata
a .
Dalla sua equazione cartesiana, notiamo che  situato tutto nel semispazio x 3
0. Le sezioni con i piani principali X 1 = 0 e X 2 = 0 sono le parabole principali
1 2
X
b2 2

X 3 = X 1 = 0 e a 2 X 1 X 3 = X 2 = 0, mentre la sezione con il piano


coordinato X 3 = 0 si riduce al solo vertice del paraboloide.
Le sezioni con i piani della forma X 3 = k, con k > 0, sono ellissi con semiassi
proporzionali ad a e b, crescenti al crescere di k; in particolare, per k = 0 invece si
riottiene il vertice, i.e. unellisse puntiforme. Invece, le sezioni con i piani X 1 = h
e X 2 = k sono parabole rappresentate da
figura 13.4 Il paraboloide ellittico

Paraboloide generale
iperbolico o a sella

1 2
X
a2 1

k2

1 2
X
b2 2

X3 +

h2
a2

= X1 h = 0 e

X 3 + b 2 = X 2 k = 0; queste sono parabole congruenti alle parabole


principali. Riassumendo, il supporto del paraboloide ellittico come nella figura 13.4.
Sia  come in tipologia (6). Questo viene denominato classicamente paraboloide
iperbolico. Per gli stessi motivi discussi per il paraboloide ellittico,  una superficie
simmetrica rispetto ai piani coordinati X 1 = 0 e X 2 = 0 e rispetto allasse x 3 ;
pertanto anche in questo caso si hanno solamente due piani principali (o di simmetria)
ed un solo asse principale (o di simmetria). Il vertice del paraboloide sempre lorigine
O, intersezione di  con il suo asse di simmetria. Notiamo che, anche in questo caso,
la condizione (i.1) della Definizione 13.6 soddisfatta dalla matrice simmetrica A
della forma quadratica associata a , come deve essere.
342

13.2 Forme canoniche euclidee delle quadriche


Le sezioni con i piani principali sono anche in questo caso le parabole principali
1 2
1 2
X + X 3 = X 1 = 0 e a 2 X 1 X 3 = X 2 = 0. Lasse di ambedue le parabob2 2
le lasse x 3 , ma la prima parabola contenuta nel semispazio x 3 0 mentre laltra
nel semispazio x 3 0. Per la posizione di queste parabole principali, ne deriva per il
paraboloide iperbolico la caratteristica forma che appare nella figura 13.5. Per questo
motivo,  viene anche detto paraboloide a sella.
2

Notiamo invece che i piani X 3 = k tagliano su  liperbole generale


X 3 k = 0, se k = 0, e liperbole degenere

2
X1
a2

2
X2
b2

X1
a2

X2
b2

k =
figura 13.5
iperbolico

= X 3 = 0, per k = 0.

Esattamente come liperboloide iperbolico, il paraboloide iperbolico contiene due


schiere di rette. Infatti, lequazione cartesiana di  si pu pensare come ottenuta per
eliminazione sia di un parametro t R \ {0} tra le equazioni:
[13.17]

X1
X2
+
= t X3
a
b

X1
X2
1

=
a
b
t

sia di un parametro s R \ {0} tra le equazioni


[13.18]

X1
X2
1
+
=
a
b
s

X1
X2

= s X3
a
b

Per fissati t e s , le equazioni [13.17] e [13.18] definiscono due rette r t e r s , rispettivamente. Al variare dei parametri t, s R \ {0}, abbiamo le due schiere di rette
T := {r t }tR\{0} e S := {r s }s R\{0} , ciascuna delle quali costituita da 1 rette tutte contenute in . Per questi motivi,  si dice anche paraboloide doppiamente
rigato.
Notiamo la seguenti propriet interessanti:

le rette di una medesima schiera sono sghembe mentre le rette di due schiere diverse
sono incidenti;
le rette di una medesima schiera hanno vettori direttori appartenenti alla medesima giacitura.

La prima delle precedenti propriet si dimostra esattamente come nel caso delliperboloide iperbolico. Per la seconda, basta osservare che le rette definite dalla [13.17]
X
X
sono tutte parallele al piano vettoriale di equazione cartesiana a1 b2 = 0, mentre quelle definite dalla [13.18] sono tutte parallele al piano vettoriale di equazione
X
X
cartesiana a1 + b2 = 0.
343

Il paraboloide

13 Quadriche dello spazio cartesiano R3


Quadriche euclidee
semplicemente degeneri
a punti reali

Dalla tabella fondamentale contenuta nella Definizione 13.8, vediamo che le quadriche semplicemente degeneri a punti reali corrispondono a quelle di tipologie (8),
(10), (11) e (12). Notiamo infatti che, dalle equazioni cartesiane corrispondenti a
ciascuno dei casi, il rango della quadrica  sempre 3 (Definizione 12.7). Il termine
a punti reali specifica il fatto che ciascuno dei supporti di queste quadriche sar una
superficie in R3 .

Cono (quadrico)

Sia  come in tipologia (8). Questo viene denominato cono quadrico. Notiamo che
detta A la matrice simmetrica della forma quadratica associata a  essa ha rango
3, come deve essere dalla condizione (ii.1) della Definizione 13.6. Dallequazione
cartesiana di , vediamo che lintersezione del cono con il piano X 3 = 0 unellisse
degenere, i.e. puntiforme. Infatti, tale intersezione si riduce allorigine O, che detto
vertice del cono. Notare che il vertice anche centro di simmetria per il cono.
Al contrario, le intersezioni con i piani X 1 = 0 e X 2 = 0 determinano ambedue
delle iperboli degeneri, quindi coppie di rette incidenti nel vertice O del cono. Pi
in generale, al variare dei piani nel fascio proprio di asse lasse x 3 (Definizione 8.12),
otteniamo intersezioni con  che sono sempre coppie di rette incidenti in O. Ciascuna retta di una qualsiasi di queste coppie viene chiamata generatrice del cono. Il
motivo del nome generatrice risiede nel fatto che  si pu generare per rotazione
attorno allasse x 3 (detto pertanto asse del cono) di una qualsiasi di queste rette.
Le sezioni con piani della forma X 3 = h, h R \ {0}, sono delle ellissi generali a
punti reali. Poich una qualsiasi di queste ellissi viene intersecata in uno ed un solo
punto da ogni generatrice di  allora, scelta arbitrariamente una di queste ellissi, essa
si dice direttrice del cono. Sia E una direttrice del cono. Notiamo che, per ogni punto
P E passa una, ed una sola, generatrice di : questa la retta g P passante per
O e per P . Poich tutte le generatrici di  si ottengono cos, allora  contiene 1
generatrici, parametrizzate dai punti di E , ciascuna delle quali passa per il vertice del
cono. Per questi motivi, il cono si dice rigato.
I parametri direttori della generatrice g P coincidono con le coordinate di P . Ogni
altro punto Q = P sulla generatrice g P determina unaltro vettore direttore per
la retta g P ; quindi le coordinate di Q devono essere proporzionali a quelle di P .
Pertanto, il cono  se contiene il vettore P , per un qualche P , allora contiene
tutti i punti corrispondenti agli estremi liberi dei vettori della forma P , per ogni
R. In effetti, questo garantito dal fatto che lequazione cartesiana del cono 
unequazione omogenea nelle tre indeterminate.

figura 13.6 Il cono

Da ultimo, osserviamo che le sezioni con i piani della forma X i = k, con 1 i 2


e con k R \{0}, sono delle iperboli generali. Ci si pu rendere conto facilmente che
tra le sezioni piane non degeneri del cono ci sono anche delle parabole. In definitiva,
il supporto del cono come nella figura 13.6.

344

13.2 Forme canoniche euclidee delle quadriche


Le superfici descritte nelle tipologie (10), (11) e (12) fanno parte tutte e tre della famiglia dei cilindri. Un cilindro (reale) per definizione una superficie luogo geometrico
di 1 rette parallele, dette generatrici del cilindro, ciascuna delle quali interseca in
uno ed in un solo punto una curva C contenuta in , che viene chiamata una direttrice del cilindro. I parametri direttori l , m e n delle generatrici del cilindro sono
quindi costanti, i.e. uguali per tutte le generatrici. Per ogni Q C , la generatrice
individuata da Q, che denoteremo con g Q , non altro che la retta passante per Q
e con parametri direttori l , m e n dati. Come nel caso del cono, il cilindro quindi
rigato.
Supponiamo di avere in R3 unequazione della forma P (X 1 , X 2 ) = 0, dove P (X 1 ,
X 2 ) un polinomio di secondo grado, a coefficienti reali (come accade per esempio
nelle tipologie (10), (11) e (12)). Se P (X 1 , X 2 ) = 0 semplicemente degenere ed
a punti reali, allora tale equazione descrive un cilindro  con generatrici parallele
allasse x 3 , i.e. l = 0, m = 0 ed n = 1, ed una direttrice data dalla curva C , che ha
la stessa equazione di  ma letta nel piano X 3 = 0; in altri termini la direttrice C , di
equazioni P (X 1 , X 2 ) = X 3 = 0, una sezione piana di . Poich  per ipotesi
semplicemente degenere e poich P (X 1 , X 2 ) indipendente da X 3 , ne segue che C
generale.
Per ogni k R \ {0}, ogni altra sezione piana di  della forma P (X 1 , X 2 ) =
X 3 k = 0 unaltra direttrice, congruente a C , perch ottenuta per traslazione di
C su un piano parallelo al piano coordinato X 3 = 0.
Se invece consideriamo le sezioni piane della forma X 1 = h o X 2 = h  , h, h  R,
abbiamo varie possibilit. Consideriamo per esempio una sezione di  con un piano
della forma X 1 = h, per un qualche h R. Sia r la retta di equazione cartesiana
X 1 h = X 3 = 0 e denotiamo con il piano X 3 = 0 e con il piano X 1 = h.
Pertanto la direttrice C complanare con r . Possiamo considerare allora le mutue
posizioni di r rispetto a C sul piano :

se r secante C , poich essa una conica, allora r C = {Q 1 , Q 2 } costituita da due punti distinti. Pertanto, litersezione di  con una parabola
semplicemente degenere a punti reali, in altri termini costituita da due rette
parallele che sono le due generatrici g Q 1 e g Q 2 di ;
se r tangente la direttrice C in un punto Q, allora la molteplicit di intersezione tra r e C 2 (Definizione 1.2 e Proposizione 1.1 dellApprofondimento
sul web Interpretazione geometrica del rango di una conica). Tale punto Q si
ottiene da  , in altri termini si ottiene considerando il sistema di
tre equazioni P (X 1 , X 2 ) = X 3 = X 1 h = 0. Pertanto, il punto Q avr

h
coordinate della forma Q = q , con q tale che P (h, q ) = 0. Poich
0

questa intersezione di molteplicit due, prendendo equazioni parametriche della retta r , X 1 = h, X 2 = q + t, X 3 = 0, con h fissato e t R
un parametro, se sostituiamo nel polinomio P (X 1 , X 2 ) = 0 queste espres345

Vari tipi di cilindri


(quadrici)

13 Quadriche dello spazio cartesiano R3

Cilindro ellittico

Cilindro parabolico

Cilindro iperbolico

figura 13.7 Cilindri quadrici

Quadriche euclidee
doppiamente degeneri
(a punti reali)

sioni, otteniamo un polinomio (t) := P (h, q + t) che della forma in


(t) = t 2 , con una costante non nulla (Definizione 1.2 dellApprofondimento sul web Interpretazione geometrica del rango di una conica). Poich
per il polinomio P (X 1 , X 2 ) indipendente da X 3 , il medesimo comportamento si ha per lintersezione P (X 1 , X 2 ) = X 1 h = 0. In altri termini,
lintersezione tra  e il piano determina una parabola doppiamente degenere, i.e. la generatrice g Q contata con molteplicit 2. Si pu dimostrare
che la motivazione per cui la generatrice g Q contata doppiamente discende
dal fatto che il piano allora un piano che tangente al cilindro lungo tutta la generatrice del cilindro. Questo per richiederebbe ulteriori argomenti
preliminari sulla teoria delle superfici. Rimandiamo il lettore eventualmente interessato ad approfondimenti a e.g. [9, par. 7.11] o [12, parr. 33.5.2 e
35.9.2].
Se infine la retta r esterna a C , allora abbiamo ovviamente  = .
Quanto discusso in generale sui cilindri si applica ai casi particolari (10), (11)
e (12) della tabella nella Definizione 13.8. Sia  uno qualsiasi di questi cilindri. Notiamo prima di tutto che la matrice simmetrica A della forma quadratica associata a  o di rango 2, nei tipi (10) e (12), o di rango 1, nel tipo
(11). In ogni caso, la condizione (ii.2) della Definizione 13.6 soddisfatta.
Essendo tutti cilindri descritti da un polinomio della forma P (X 1 , X 2 ) = 0,
in tutti e tre i casi le generatrici sono sempre parallele allasse x 3 .
Nel caso (10), la direttrice C sul piano X 3 = 0 unellisse generale a punti
reali, da qui il nome di cilindro ellittico (figura 13.7). Tutte le sezioni parallele
al piano X 3 = 0 sono sempre ellissi congruenti a C . Pertanto tale cilindro
costituito da una sola componente, o falda, illimitata nelle x 3 .
Nel caso (11), la direttrice C sul piano X 3 = 0 una parabola, da qui il
nome di cilindro parabolico (figura 13.7). Anche in questo caso, tale cilindro
costituito da una sola falda illimitata.
Nel caso (12), la direttrice C sul piano X 3 = 0 uniperbole, da qui il nome
di cilindro iperbolico (figura 13.7). Differentemente dai due casi precedenti,
visto che la direttrice C uniperbole, il cilindro  costituito da due falde
disgiunte ed illimitate.

Dalla tabella contenuta nella Definizione 13.8, vediamo subito che le quadriche doppiamente degeneri a punti reali corrispondono ai casi (14) e (16). In effetti, in ogni
caso la matrice simmetrica completa associata alla quadrica ha rango 2.
2

Nel caso (14), notiamo che lequazione cartesiana si pu fattorizzare in X 1


(X 1

X2
a )(X 1

X2
a )

a2

= 0. quindi chiaro che la quadrica  costituita da due

piani distinti 1 e 2 , di equazioni rispettivam