Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Flaminio Flamini
Alessandro Verra
Matrici e vettori
Corso di base di geometria
e algebra lineare
Carocci editore
Indice
1
1.1
1.2
1.3
1.4
2
2.1
2.2
2.3
2.4
3
3.1
3.2
3.3
3.4
4
4.1
4.2
4.3
4.4
4.5
Spazi vettoriali 71
Lorigine della nozione di vettore 71
Denizione ed esempi di spazi vettoriali 75
Sistemi di vettori linearmente indipendenti 83
Spazi vettoriale di dimensione nita 87
Componenti di un vettore e cambiamenti di base 93
Quesiti ed esercizi 99
5
5.1
5.2
5.3
5.4
5.5
6
6.1
6.2
6.3
6.4
6.5
6.6
7.1
7.2
7.3
7.4
7.5
7.6
7.7
8.1
8.2
8.3
8.4
8.5
8.6
8.7
9
9.1
9.2
9.3
9.4
10
10.1
10.2
10.3
10.4
10.5
11
11.1
11.2
11.3
11.4
11.5
11.6
12
12.1
12.2
12.3
12.4
Bibliograa 363
Introduzione
Matrici e vettori sono due termini che ben rappresentano quel pi vasto sistema di
nozioni, esercizi ed esempi da cui abitualmente costituito un primo corso universitario dedicato allapprendimento degli strumenti di base dellalgebra lineare e della
geometria.
Tali termini, che concorrono a formare il titolo di questo libro, possono allora servire per indicarne, anche se molto sinteticamente, le finalit. Esso si propone, infatti, di offrire una trattazione ampia e sistematica, ma nello stesso tempo di carattere
elementare, dei principali capitoli della geometria e dellalgebra lineare di base.
Il libro dunque rivolto agli studenti ed ai docenti delle facolt di area scientifica e
tecnica delle nostre universit e specialmente agli studenti dei vari corsi di studio di
Ingegneria e di Scienze Matematiche, Fisiche e Naturali.
Esso si colloca, per quanto riguarda i contenuti, in un ambito ben conosciuto e sperimentato. Una grossa parte della trattazione riguarda infatti i seguenti argomenti:
lo studio dei sistemi di equazioni lineari e delle matrici, il calcolo dei determinanti,
la teoria degli spazi vettoriali, le nozioni di prodotto scalare e di base ortonormale,
la geometria analitica piana e spaziale, la nozione di applicazione lineare, lo studio
degli autovettori di un endomorfismo, la diagonalizzazione di matrici, le forme quadratiche reali e la loro classificazione e la classificazione delle coniche del piano e delle
quadriche dello spazio.
Pertanto, prima di descrivere la successione dei capitoli del testo ed il dettaglio del
loro contenuto, ci sembra maggiormente utile fornire alcune indicazioni sullimpostazione generale di questo testo e su ci che pu caratterizzarlo tra gli altri dello
stesso tipo.
Tre sono le esigenze, certamente collegate, a cui abbiamo sentito di dover dare maggiore soddisfazione: una di natura prevalentemente scientifica, una seconda di tipo didattico ed una terza connessa al sistema, scolastico e culturale, in cui operano
docenti e studenti.
Innanzitutto ci siamo proposti di non trascurare le esigenze e le necessit di un ragionamento e di un metodo che devono procedere per dimostrazioni. Abbiamo dunque
dato il dovuto risalto a questo aspetto scientifico fondamentale, cercando di produrre
argomenti semplici ma completi e svolgendoli con un linguaggio piano e consequenziale, depurato da ogni espressione tecnica superflua. In tal modo abbiamo cercato
di delineare e di rendere evidente, per gli studenti che leggeranno questo libro, il
metodo scientifico generale su cui si fondano le scienze matematiche.
11
Daltra parte del tutto ovvio che, fatta salva questa non modificabile esigenza scientifica, un libro di testo deve sempre tenere conto dei mutamenti che avvengono nel
sistema scolastico e culturale e nellorganizzazione didattica dei corsi universitari. Di
tali profondi mutamenti si in effetti tenuto qui un gran conto ed anzi essi hanno
costituito una importante e fondamentale motivazione per scrivere questo libro.
Abbiamo scelto, in particolare, di utilizzare il pi possibile argomenti e riferimenti
di carattere elementare, cercando cos di rendere accessibile il testo anche a lettori e
studenti che abbiano ricevuto una formazione matematica limitata. Il carattere elementare, che pi in generale d forma e sostanza a tutta la trattazione, ci sembrato
una scelta didattica di primaria e fondamentale importanza. Lorganizzazione dei vari capitoli poi stata pensata per permettere una notevole e maggiore flessibilit, in
funzione dei diversi percorsi didattici che possono essere presenti allinterno dei corsi
di laurea triennale.
In geometria inoltre, forse pi che in altre scienze matematiche, il rigore logicodeduttivo pu e deve accompagnarsi con una grande ricchezza di esempi proposti
e di esercizi significativi, che servono a rendere pi salda e profonda la comprensione
di tutta la teoria trattata. Si tratta di unesigenza didattica e conoscitiva ben nota e di
assoluta importanza per questa materia. Tale esigenza trova ampia soddisfazione nel
testo: oltre ai numerosi esercizi ed esempi svolti allinterno dei capitoli, sono quasi
un centinaio gli esercizi proposti al termine dei capitoli (Quesiti ed esercizi).
Per ridurre lampiezza del volume lo svolgimento di questi ultimi esercizi stato posto
su un apposito sito web (debitamente indicato alla fine di ciascun capitolo), al quale
lo studente potr accedere per verificare la correttezza dei risultati a cui pervenuto
ed anche per trovare ulteriore materiale didattico disponibile.
In conclusione coltiviamo la speranza che questo libro possa essere uno strumento
rinnovato ed utile per costruire, in un mutato contesto di esigenze didattiche e culturali, un corso di geometria che mantenga il proprio valore e la propria identit.
Auspichiamo inoltre che il lettore possa trarne interesse e curiosit per la geometria,
preparandosi cos a nuovi passi nello studio di questa affascinante parte della natura
e delle scienze.
Veniamo ora ad una breve descrizione dei capitoli di questo volume.
I temi trattati si susseguono, a partire dallo studio dei sistemi di equazioni lineari,
secondo lordine classico di questo tipo di corsi. Dopo una prima parte di algebra lineare vera e propria, che include la teoria delle matrici e dei determinanti, il discorso
si sviluppa in unampia trattazione degli spazi vettoriali e delle nozioni di prodotto
scalare e di base ortonormale su uno spazio vettoriale reale. Una volta stabilite con
sufficiente chiarezza e generalit tali nozioni, il testo sviluppa la geometria euclidea
vera e propria, curando soprattutto lo studio concreto della geometria euclidea del
12
piano e dello spazio e delle isometrie. La parte finale del testo affronta alcuni aspetti
fondamentali della teoria sviluppata nella prima parte: vengono qui studiate le nozioni di autovalore ed autovettore e viene esposto il teorema fondamentale che riguarda
la diagonalizzazione di un operatore lineare. In seguito viene sviluppata la teoria delle
forme quadratiche fino alla dimostrazione del cosiddetto teorema spettrale. Il testo si
conclude infine con un ritorno alla geometria vera e propria: la classificazione delle
coniche e delle quadriche rispettivamente in un piano ed in uno spazio euclideo.
Come accennato in precedenza, a complemento della teoria svolta, sono presenti sul
sito web www.carocci.it approfondimenti di alcuni argomenti trattati nel testo.
Vi potranno accedere sia lo studente interessato, per trovare punti di vista e spiegazioni alternative di argomenti considerati nel testo, sia il docente, per avere eventuali
ulteriori spunti per lorganizzazione didattica del corso.
Nello stesso modo, si operato per le soluzioni dettagliate degli esercizi proposti
alla fine di ciascun capitolo (Quesiti ed esercizi). Il rimando a tali soluzioni e agli
.
approfondimenti indicato con il simbolo
Gli autori desiderano ringraziare il primo luogo il dott. Carlo Ciliberto, per aver contribuito con competenza alla realizzazione di alcune delle figure contenute nel testo e
per fondamentali suggerimenti su tipi di softwares utili agli autori per la realizzazione
di altre figure presenti.
Ringraziamenti dovuti e sinceri vanno ai colleghi, prof.ssa Maria Lucia Fania e dott.
Alberto Calabri, non solo per laiuto fondamentale dato agli autori nella risoluzione
di problemi legati alla realizzazione di alcune figure presenti nel testo, ma anche per
aver fornito esempi di figure da loro realizzate.
Ringraziamenti vanno anche alla dott.ssa Marly Grasso Nunes ed al dott. Andreas
L. Knusten, per precise e preziose consulenze sullutilizzo dei softwares per lelaborazioni di immagini grafiche in vari possibili formati, e alla collega prof.ssa Laura
Geatti, per aver fornito utili links da dove esportare le figure in formato jpeg delle
quadriche.
13
1
Sistemi di equazioni lineari
e matrici
1.1
I numeri a cui si far riferimento in questo testo sono i numeri reali, linsieme dei
numeri reali verr indicato con il simbolo usuale R.
Numeri
I simboli N, Z, Q indicheranno rispettivamente, linsieme dei numeri naturali, linsieme dei numeri interi e linsieme dei numeri razionali, si ricordi che si hanno le
inclusioni di insiemi N Z Q R.
I numeri reali che non appartengono a Q vengono chiamati numeri irrazionali. Sono
2
2
per esempio elementi di R i numeri 0, 2, 3 , 2, 2 , tra questi 0, 2, 3 apparten
gono rispettivamente a N, Z, Q e sono quindi tutti numeri razionali. I numeri 2
e2 costituiscono invece due ben noti esempi di numeri irrazionali. In particolare
2 la lunghezza della diagonale di un quadrato il cui lato abbia lunghezza 1 mentre
2 la lunghezza di una circonferenza di raggio 1.
Nel seguito useremo i simboli X 1 , X 2 , X 3 , X 4 , X 5 , . . . per indicare quei termini di
una formula matematica ai quali possono essere assegnati valori numerici arbitrari.
Poich il valore numerico di tali termini indeterminato essi vengono chiamati indeterminate. In alternativa alcune indeterminate potranno talvolta essere indicate con
delle lettere come X , Y, Z o altre. Le indeterminate X , Y, Z compaiono per esempio
nella formula X 2 + Y 2 = Z 2 ; tale uguaglianza sar poi vera o falsa a seconda dei
valori assegnati a X , Y, Z.
Sia q un numero naturale non nullo, indicheremo con Rq linsieme delle q -uple
ordinate di numeri reali. Per definizione una q -upla ordinata di numeri reali una
successione di numeri reali t1 , t2 , . . . , tq . Ci vuol dire che t1 , t2 , . . . , tq sono numeri
reali e che si tiene conto dellordine in cui essi sono elencati. Una tale successione verr
indicata con (t1 , t2 , . . . , tq ) per brevit di scrittura la stessa q -upla (t1 , . . . , tq ) verr
anche indicata con t.
Se q = 1 la successione si riduce ad un solo numero reale. Gli elementi (t1 , t2 ) di
R2 vengono chiamati coppie ordinate di numeri reali, gli elementi (t1 , t2 , t3 ) di R3
terne ordinate di numeri reali ecc. Si osservi che le terne (1, 2, 3), (1, 3, 2), (3, 2, 1),
(2, 1, 3), (2, 3, 1), (3, 1, 2) sono sei distinti elementi di R3 perch si tiene conto
15
Indeterminate
q-uple
Rq , il prodotto
di per t la q -upla ordinata di numeri reali t = (t1 , . . . , tq ).
Altre propriet della somma di q -uple e del prodotto di un numero per una q -upla
verranno considerate successivamente. Per avere qualche semplice esempio delle operazioni appena definite si osservi che (0, ) + (, 0) = (, ) e che (1, 2, 3) =
(, 2, 3 ) e inoltre che (1, 2, 3) + (1, 3, 2) + (3, 2, 1) + (2, 1, 3) + (2, 3, 1) +
(3, 1, 2) = (12, 12, 12).
Equazioni lineari
a 11 . . . a 1q
. . . . . . . . .
a p1 . . . a pq
si chiama invece matrice completa del sistema la tabella
a 11 . . . a 1q b 1
. . . . . . . . . . . . . . . . . . .
a p1 . . . a pq b q
16
a 11 t1 + + a 1q tq = b 1
a 21 t1 + + a 2q tq = b 2
...
a p1 t1 + + a pq tq = b p
in particolare ogni elemento di S verr detto una soluzione del sistema. Se (t1 ,
t2 , . . . , tq ) una soluzione diremo che le equazioni del sistema sono soddisfatte da
(t1 , . . . , tq ) o anche che una soluzione del sistema si ottiene ponendo
X 1 = t1 ,
X 2 = t2 ,
...,
X q = tq
Pu accadere che S sia linsieme vuoto e quindi che non esistano soluzioni.
definizione 1.3 Un sistema di equazioni lineari si dice compatibile se esistono
Sistemi compatibili
Sistemi omogenei
uguali a zero.
Una soluzione di un sistema omogeneo si ottiene ponendo
X 1 = 0,
X 2 = 0,
...,
Xq = 0
...,
a p1 X 1 + + a pq X q = b p
...,
a p1 X 1 + + a pq X q = 0
Sistema omogeneo
associato
a un sistema assegnato
il suo sistema omogeneo associato. Conoscendo linsieme delle soluzioni del sistema
omogeneo associato e almeno una soluzione del sistema di partenza possibile descrivere tutte le soluzioni del sistema di partenza. Siano infatti S Rq linsieme delle
soluzioni del sistema di partenza e So Rq linsieme delle soluzioni del sistema
omogeneo associato. Per ogni c Rq possiamo considerare il seguente sottoinsieme
di Rq :
c + So = {c + z, z So }
17
Dimostrazione
X 2Y + Z = 0
X 2Y + Z = 0
costituito dalle terne (t, 0, t) al variare del numero reale t. Quindi le terne
(1 + t, 1, 1 t ) = (1, 1, 1) + (t, 0, t )
costituiscono linsieme S delle soluzioni del sistema di partenza.
Nel paragrafo 1.3 vedremo in dettaglio un metodo, noto come procedimento di GaussJordan, per determinare linsieme delle soluzioni di un sistema. Concludiamo invece
questo paragrafo con una serie di osservazioni pratiche, definizioni ed esempi che si
riveleranno utili per lo stesso scopo.
Osservazione 1.1
Equazioni di un sistema
Sia a1 X1 + + aq Xq = b una equazione lineare in q inde- 2.
terminate, due casi molto particolari di una tale equazione
sono i seguenti:
1.
quando si ha a1 = = aq = 0 e b = 0.
In questo caso lequazione non mai soddisfatta,
qualunque sia il valore assegnato alle indeterminate X1 , . . . , Xq . Un sistema che ha tra le sue equazioni
18
1.2 Matrici
I lettori familiari con la geometria analitica del piano noteranno che le equazioni considerate sono le equazio1 0 0 1
0 0 0 1
ni di due rette parallele e che le soluzioni del siste
1 1 2 1 , 0 1 0 1
ma sarebbero le coordinate dei punti comuni alle due
0 0 1 1
1 2 1 1
rette (par. 7.3).
Il lettore scriva per esercizio i sistemi corrispondenti e de- Non esistono quindi soluzioni. altrettanto evidente che
termini tra di essi quello incompatibile, quello con ununica il sistema
soluzione e quello con innite soluzioni.
X + Y + Z = 1, X + Y + Z = 2
Sistemi incompatibili
Tra i sistemi incompatibili non ci sono soltanto quelli che incompatibile e che, per analoghi motivi, anche il sistema
contengono unequazione lineare del tipo 0X1 + + 0Xq =
X1 + + Xq = 1,
b con b = 0. Per esempio il sistema
X1 + + Xq = 2,
..
X Y = 0, X Y = 1
.
X1 + + Xq = p
incompatibile. Le soluzioni della prima equazione sono infatti le coppie (t, t ) mentre le soluzioni della seconda so incompatibile per ogni p 2.
no le coppie (t + 1, t ), al variare di t in R (figura 1.1 ).
facile concludere che nessuna coppia soddisfa entrambe le
Numero di equazioni e numero di indeterminate
equazioni.
Gli ultimi esempi mostrano che sarebbe ingenuo, e soprattutto sbagliato, pensare che un sistema debba essere compatibile se il numero delle sue indeterminate maggiore del
numero delle equazioni.
(1, 2)
(1, 1)
Altrettanto sbagliato sarebbe pensare che un sistema debba essere incompatibile se il numero delle sue equazioni
maggiore del numero delle indeterminate. Per esempio il
sistema di 5 equazioni e 4 indeterminate
X = 1, Y = 1, Z = 1,
X + Y + Z = 3,
1.2
X + 2Y + 3Z + 4T = 0
Matrici
Tabelle di numeri
a 11 . . . a 1q
. . . . . . . . . . . . . .
a p1 . . . a pq
19
a una matrice
una tabella A di numeri del seguente tipo: A =
a 11 ... a 1q
.......
a p1 ... a pq
. Una matrice 1 1
a pq
1.2 Matrici
Una matrice che abbia lo stesso numero di righe e di colonne si dice matrice quadrata.
Inoltre il numero di tali righe o colonne lordine della matrice quadrata considerata.
In altre parole una matrice quadrata di ordine n una matrice n n. Se A una
matrice quadrata di ordine n
la diagonale principale di A la sequenza dei termini
a i j tali che i = j :
a 11 .........
...a 22 ......
............
.........a nn
Matrici quadrate
una matrice quadrata nella quale sono nulli tutti i termini di posto i, j con
i > j (rispettivamente, i < j ).
In una matrice triangolare superiore (inferiore) sono nulli tutti i termini che si trovano
al di sotto (al di sopra) dei termini sulla diagonale principale. Le matrici triangolari
superiori e inferiori sono le matrici diagonali.
Nel seguito linsieme di tutte le matrici p q verr sempre indicato con M pq .
Analogamente al modo in cui sono stati definiti una somma di elementi di Rq e un
prodotto di un numero reale per un elemento di Rq , verranno ora definiti una somma
di matrici p q e un prodotto di un numero per una matrice p q .
definizione 1.8 Siano A = (a i j ) e B = (b i j ) due elementi di M pq , la matrice
Somma di matrici
e moltiplicazione
di una matrice
per un numero
0 1 0
0 1 0 0
1 0 0
A = 1 0 3 0 , t A =
0 3 0 ,
0 0 0 1
0 0 1
1
B = 1 2 3 , t B = 2 ,
3
a b
0 b
t
C=
, C = C, D =
, t D = D.
b d
b 0
Si osservi infine che, se R 1 , . . . , R p sono le righe di A, allora le trasposte t R 1 , . . . ,t R p
sono le colonne di t A. Nello stesso modo, se C 1 , . . . , C q sono le colonne di A, allora
t C , . . . ,t C sono le righe di t A. Per questo motivo si dice a volte che t A ottenuta
q
1
da A scambiando le righe con le colonne.
definizione 1.10 Sia A = (a i j ) una matrice quadrata: A si dice simmetrica se
Matrici simmetriche
e antisimmetriche
tA
1.3
Modicazioni delle righe
di una matrice
1.
2.
3.
A B
r i
A B
r i +r j
A B
a seconda che B sia ottenuta come in 1, 2 o 3. Essa verr chiamata operazione su una
riga di A, rispettivamente di tipo 1, 2, 3. Si noti che, per ognuna delle precedenti
operazioni su una riga, esiste una operazione inversa che fa passare da B ad A:
r i r j
B A
1
ri
B A
r i r j
B A
Esempio 1.2
Sia A una matrice 3 q e siano R1 , R2 , R3 le sue righe, allora A =
R1
R2
e tra le modicaR3
R3
R1
R2 , B2 =
R2
,
R1
R3
R1
B3 = R2 + 13 R1 . B1 si ottiene scambiando la prima e la terza riga di A. B2 si ottiene
R3
23
1.
2.
Termini pivots
di una matrice
Il nostro scopo, in vista delle applicazioni che ci interessano, costruire, per ogni
matrice A, una matrice B che sia modificazione delle righe di A ed abbia, per quanto
possibile, molti termini uguali a zero. Per dare un senso pi preciso a questo discorso
introdurremo ora alcune definizioni.
definizione 1.13 Un termine m s t di una matrice M un termine pivot se m s t =
0 e se, sulla colonna in cui m s t si trova, non ci sono termini diversi da zero al
di sotto di m s t .
Un termine
Dora in poi useremo lespressione matrice ridotta come sinonimo di matrice ridotta
per righe.
Esempio 1.3
Sono ridotte le seguenti matrici:
0 0
1 2
1 1 2 1
0 4
0 0
24
0
1
3
0
0
1
0
0
0
0
1
0
0
0
1
2
0
0
1
2
1
0
2
4
0 0
0 1
1 1
1
0 4
2 1
1
1 2
3 0
0 1
0 5
0
0
1
0
0
1
1
2
0
2
1
2
1
3
2
4
Osservazione 1.2
Se la matrice completa di un sistema di equazioni lineari ri- ogni sistema di equazioni lineari equivalente, come avredotta per righe, risulta pi facile determinare le soluzioni del mo modo di vedere, ad un sistema la cui matrice completa
sistema oppure concludere che non ne esistono. Per di pi ridotta per righe. Ci spiega limportanza di tali matrici.
Supponiamo ora che, per una data matrice A = (a i j ) e per una data coppia di indici
(s , t), il termine a s t sia diverso da zero. Utilizzando le notazioni abituali potremo
scrivere
a 11 . . . a 1t . . . a 1,q
R1
..
.
.
.. ...
..
A=
as 1 . . . as t . . . as q = Rs
..
..
.. ..
.
.
. .
a p1 . . . a pt . . . a p,q
Rp
dove R 1 , . . . , R p sono le righe di A. Per costruire una modificazione delle righe di A
che sia anche ridotta per righe cominceremo con la costruzione di una nuova matrice
B: poniamo
R i = R i + i R i ,
i = 1, . . . , p
dove 1 = . . . s = 0, s +1 =
a s +1,t
as t , . . . , p
R 1
.
..
Poi poniamo per definizione B = R.s
..
= a sptt .
. Si noti che R 1 = R 1 , . . . , R s = R s
R p
1.
2.
25
2.
Algoritmo di riduzione
per righe di una matrice
(o di Gauss-Jordan)
Si noti che M p ha p righe, quindi 2 implica che M p ridotta per righe. Daltra parte
M p una modificazione delle righe di A per costruzione. Quindi:
lalgoritmo termina con la costruzione di una matrice che sia modificazione delle righe di A sia ridotta per righe.
In questa propriet risiede limportanza dellalgoritmo di riduzione, noto anche come
metodo di Gauss-Jordan per ridurre una matrice.
Vediamo come si deve operare in concreto per far funzionare lalgoritmo: le matrici M1 , . . . , M p si costruiscono luna dalla precedente con il procedimento per
induzione che ora esporremo:
26
R1
R 2 + 2 R 1
M1 =
..
Costruzione di M1
R p + p R1
dove i = ai,t , i 2. Si noti che M1 non altro che la matrice B della Propo1t
sizione 1.2 nel caso in cui s = 1. M1 dunque modificazione delle righe di A ed il
suo termine 1, t un pivot, quindi M1 soddisfa 1 e 2.
Per induzione abbiamo gi costruito una matrice Mn1 soddisfacente alle condizioni
1 e 2. Sia Mn1 = (m i j ) e siano S1 , . . . , S p le sue righe. Se la riga Sn nulla poniamo
Mn = Mn1 : ovvio che in tal caso Mn soddisfa 1 e 2. Se Sn non nulla scegliamo
su Sn un termine m n,v = 0 e poniamo per definizione
S1
..
S
n1
Mn =
Sn + n Sn1
..
.
S p + p Sn1
m
i,v
, i = n, . . . , p.
dove i valori n , n+1 , . . . , p sono ora cos definiti: i = m n,v
2.
Costruzione di Mn , n 2
m nu
m pu
m 1u
..
.
m ku
m k+1,u
..
m n1,u
+ n m n1,u
..
.
+ p m n1,u
7
0 54 11
1 2 3 4
4
2
Qui si scelto il termine 4 sulla prima riga della prima matrice e, con la trasformazione
elementare indicata, lo si reso pivot. Non vietato scegliere diversamente: se per esempio
si sceglie sulla prima riga il termine 1 si ottiene
4
3 1
2
4 3 1 2 r2 3r1
11 7 0 2
1 2 3 4
Applichiamo ora lalgoritmo di riduzione a questa seconda matrice:
1 1 r r 0
1 1
0 1 1 r r 0
3 2
2 1
1 0 1 1 1 0 1 1 0
1
1 0
0
2 0
1 1 0
Da tale matrice si ottiene una matrice ridotta anche nel modo seguente:
0 1 1 r r 1 1 0 r r 1 0 1
1 3
2 3
1 0 1 0 1 0 0 1 1
1 1 0
0 1 1
0 1 0
28
Riassumiamo una variante quasi ovvia dellalgoritmo precedente che abbrevia il numero di passaggi necessari per ottenere una matrice ridotta per righe a partire da una
matrice A. Il nuovo algoritmo costruisce una successione di matrici N1 , . . . , Nh ,
con h < p, nel modo seguente:
1.
per costruire N1 si sceglie la prima riga non nulla di A che sia priva di termini
pivot. Se tale riga non esiste allora A gi ridotta per righe, in tal caso si pone
A = N1 e non si procede ulteriormente. In caso contrario sia R k la prima
riga non nulla di A priva di termini pivot e sia a k,t un suo termine non nullo,
allora si pone
R1
..
R
k
N1 =
R k+1 + k+1 R k
..
.
R p + p Rk
a
2.
S1
..
S
c
N2 =
Sc +1 + c +1 Sc
..
.
S p + p Sc
dove S1 . . . S p sono le righe di A e i = aacirr , i c + 1.
1 1 1 1
1 1 1 1
2 1 3 0 r 4 2r 3 2 1 3 0
1 4 0 0 1 3 0 0
2 7 0 0
0 1 0 0
29
Lalgoritmo di riduzione
abbreviato
1.4
mo al problema considerato. Nel caso dellalgoritmo di riduzione di una matrice possibile dimostrare, con argomenti
elementari, che il numero di operazioni di calcolo effettivamente necessarie per passare da A alla matrice ridotta per
righe Mp1 non superiore a pq.
Risolvere un sistema di equazioni lineari significa determinare linsieme delle sue soluzioni: si tratta di un problema importante, anche se completamente risolto sul piano
teorico, di quella parte della matematica nota come Algebra Lineare.
In questo paragrafo affronteremo tale problema in modo operativo, costruiremo cio
un procedimento effettivo per la risoluzione di un sistema. Il procedimento spesso noto come metodo di eliminazione di Gauss-Jordan. Esso consiste nellapplicare
lalgoritmo di riduzione per righe alla matrice completa del sistema.
Sistemi equivalenti
e modicazioni
delle righe
di una matrice
a 11 . . .
a 21 . . .
C = ..
..
.
.
a p1 . . .
a 1q
a 2q
..
.
b1
b2
..
.
a pq b p
R p
osservare che:
1.
2.
3.
Esempio 1.4
Consideriamo per esempio il sistema di equazioni
X1 + X2 + X3 + X4 = 1
2X1 + 2X2 + 4X3 + 3X4 = 0
la matrice completa del sistema C = 11 11 14 13 10
1.
2.
3.
31
Dimostrazione
Nei casi 1 e 2 immediato osservare che i due sistemi considerati sono equivalenti. Proviamo
che la stessa propriet vale nel caso 3: sia s = (s 1 , . . . , s q ) una soluzione del sistema di
equazioni E 1 , . . . , E p . In particolare ne segue che (a i1 s 1 + + a iq s q ) + (a j 1 s 1 +
. . . a j q s q ) = bi + b j essendo (a i1 s 1 + + a iq s q ) = bi e (a j 1 s 1 + . . . a j q s q ) = b j .
Quindi s soddisfa lequazione E i del sistema E 1 , . . . , E p . Poich vale E k = E k per ogni
k = i, ne segue che s soddisfa tutte le equazioni E 1 , . . . , E p ed quindi una soluzione
di tale sistema. Viceversa sia s una soluzione del sistema di equazioni E 1 , . . . , E p , allora s
soddisfa lequazione
(a i1 X 1 + + a iq X q ) + (a j 1 X 1 + + a j q X q ) = bi + b j
e tutte le equazioni E k con i = k. Essendo in particolare i = j ne segue a j 1 s 1 +. . . a j q s q = b j .
Daltra parte (a i1 s 1 + + a iq s q ) + (a j 1 s 1 + . . . a j q s q ) = bi + b j , poich s soddisfa
la precedente equazione E i . Le due ultime uguaglianze implicano a i1 s 1 + + a iq s q = bi
e cio che s soddisfa E i . Poich E k = E k , i = k, ne segue che s una soluzione del sistema
di equazioni E 1 , . . . , E p . Quindi i due sistemi sono equivalenti.
Sistemi ridotti
quale la matrice completa e la matrice dei coefficienti sono ridotte per righe.
Esempio 1.5
La matrice completa C del sistema di due equazioni in q indeterminate
X1 + + Xq = 1
X1 + + Xq = 0
ridotta per righe, mentre quella dei coefcienti non lo . Il sistema quindi non ridotto.
Applicando a C lalgoritmo di riduzione con la prescrizione (*) si ottiene una matrice C che
la matrice completa del sistema ridotto
X1 + + Xq = 1
0 = 1
33
Ricordiamo che ogni sistema di equazioni lineari equivalente a un sistema ridotto: baster infatti applicare lalgoritmo di riduzione alla sua matrice completa per ottenere
un sistema ridotto equivalente. I sistemi ridotti sono dunque importanti per questo
motivo e perch si possono risolvere con maggiore facilit. Essi non presentano differenze sostanziali rispetto ai sistemi a gradini che sono stati ora considerati, salvo il
fatto di essere eventualmente incompatibili.
34
a 11 . . . a 1q b 1
. . . . . . . . . . . . . . . . . . .
C = . . . . . . . . . . . . . . . . . . .
a p1 . . . a pq b q
la matrice completa di un sistema ridotto. La matrice A dei coefficienti del sistema
e la matrice C sono allora ridotte, indicheremo con r (A) e r (C ) rispettivamente il
numero delle righe non nulle di A e di C .
Ovviamente abbiamo r (A) r (C ) poich ogni riga non nulla di A una riga non
nulla di C .
teorema 1.4 Il sistema ridotto considerato compatibile se e solo se r (A) = r (C ).
Dimostrazione
Discutiamo in dettaglio la risoluzione del sistema nei due casi possibili:
r (A) < r (C ) e r (A) = r (C ), dalla discussione seguir anche la dimostrazione del teorema.
1.
r (A) < r (C )
2.
Pim = (a im 1 X 1 +a im 2 X 2 + +a im q X q ) (a im i1 X j1 + +a im jr X jr )
per ognuna delle righe R im (m = 1, . . . , r ), il sistema assumer la forma:
a i1 j1 X j1 + a i1 j2 X j2 + + + a i1 jr X jr + Pi1 = bi1
a i2 j2 X j2 + + + a i2 jr X jr + Pi2 = bi2
a i3 j3 X j3 + + a i3 jr X jr + Pi3 = bi3
...
a ir jr X jr + Pir = bir
35
Scrivendo i numeri reali s j1 , . . . , s jr , tk1 , . . . , s tq r nellordine indicato dai loro indici, si ottiene dunque una q -upla s che soluzione del sistema. Tale costruzione
determina, al variare di t in Rq r , tutte le possibili soluzioni del sistema. Sia infatti
s Rq una soluzione del sistema e sia t = (tk1 , . . . , ttq r ) la (q r )-upla dei suoi
termini di posto k1 , . . . , kq r . Ponendo X k1 = tk1 , . . . , X kq r = tkq r si ottiene un
sistema a gradini come sopra. Tale sistema a gradini ha r equazioni e r indeterminate
e quindi ununica soluzione. Allora questa necessariamente la r -upla (s j1 , . . . , s jr )
dei termini di posto j1 , . . . , jr di s . Quindi s si pu determinare a partire da t con
la costruzione precedente.
Soluzioni
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. Bibliografia [2], [4]
e [10]).
Quesiti ed esercizi
1.
Trovare x,y, z, t R
tra
di modo
che
valga leguaglianza
4 x+y
x y
x 6
matrici: 3 z t = 1 2t + z+t 3 .
2.
Sia data una qualsiasi matrice quadrata A. Vericare che la
matrice B := A + t A sempre una matrice simmetrica e
che invece la matrice C := A t A sempre una matrice
antisimmetrica.
3.
Determinare matrici triangolari superiori equivalenti
per ri
36
11 1
1 0 1
0 1 1
eB=
1 122
2 1 1 0 .
1 1 1 1
2 231
4.
X2 + 2X3 = 1
X2 + X3 = 0
X2 = 1
7.
Risolvere, se possibile, con il metodo di eliminazione
di Gauss-Jordan il sistema lineare non omogeneo di 4
equazioni e 4 indeterminate:
X3 + 4X4
X1 + 2X2 + 2X4
X3 + X4
37
=1
=0
=1
=0
2
Matrici e loro rango
2.1
Prodotto di matrici
Cominciamo questo secondo capitolo con la definizione di prodotto di matrici. Limportanza e lutilit del prodotto di matrici cos definito risulteranno chiaramente nel
seguito.
definizione 2.1 Siano A = (a il ) una matrice p s e B = (bl j ) una matrice
s q . Il
prodotto di A con B la matrice C = (c i j ) in cui c i j definito come
cij =
l =1,...,s a il bl j . Il prodotto di A con B verr dora in poi indicato
con A B.
ns
n1
..
M N = (m 1 . . . m s ) . = (m 1 n 1 + m 2 n 2 + + m s n s )
ns
39
Esempio 2.1
Siano M e N le precedenti matrici riga e colonna, se invertiamo lordine dei fattori otteniamo
la matrice NM, che una matrice ss ed quindicompletamente diversa da MN. Abbiamo
n
n1 m1 ... n1 ms
1
n2 m1 ... n2 ms
ns m1 ... ns ms
Esercizio 2.1
Calcolare i seguenti prodotti di matrici
Propriet associativa
e distributiva
del prodotto di matrici
123
456
1
14
1 1
1 2
123
1 ,
25 .
,
1 1
1 2
456
1
36
proposizione 2.1
Dimostrazione
Abbiamo A = (a ik ), B = (b km ) e C = (c m j ) con gli indici i, k, m, j
che variano nel seguente modo: 1 i p, 1 k s , 1 m t e 1 j q .
Fissati gli indici i e j consideriamo il numero reale p i j = 1ks ,1mt a ik b km c m j ; per
dimostrare la propriet basta provare che p i j il termine di posto i, j sia su A(BC ) sia su
(A B)C . A tale scopo riscriviamo la sommatoria in due modi:
1.
2.
mettendo in evidenza i termini a i1 , . . . , a is abbiamo p i j = a i1
m=1,...,t b 1m c m j +
a i2
m=1,...,t b 2m c m j + + a is
m=1,...,t b s m c m j ; per ogni k = 1, . . . , s il
secondo fattore delladdendo a ik ( m=1...t b km c m j ) esattamente il termine di po
sto k, j del prodotto BC . Ne segue che p i j il prodotto della riga a i1 . . . a is di
A con la colonna j -esima di BC . Quindi p i j il termine di posto i, j della matrice
A(BC );
mettendo in evidenza i termini c 1 j , . . . , c t j abbiamo p i j =
a
b
k=1,...,s ik k1 c 1 j +
k=1,...,s a ik b k2 c 2 j + +
k=1,...,s a ik b kt c t j ; per ogni m = 1, . . . , t il
primo fattore delladdendo ( k=1,...,t a im b km )c m j esattamente il termine di posto
i, m del prodotto A B. Ne segue che p i j il prodotto della i-esima riga del prodotto
A B per la j-esima colonna di C . Quindi p i j anche il termine di posto i, j della
matrice (A B)C .
Per ovvi motivi la propriet precedente si chiama propriet associativa del prodotto di
matrici.
40
A B + AC .
Dimostrazione
Naturalmente la propriet dimostrata si chiama propriet distributiva del prodotto rispetto alla somma di matrici. Nel seguito denoteremo con Ui e V j le seguenti matrici:
0
...
Ui = ( 0 ... 1 ...0 ) e Vj = 1 .
.
..
0
Dimostrazione
a i1 . . . a iq e che a i1 . . . a iq
V j = ai j .
molto importante sapere che: loperazione di passaggio alla matrice trasposta agisce
su un prodotto di matrici invertendo lordine dei fattori. In altre parole vale il seguente:
teorema 2.1
t (A B)
(t B)(t A).
Il termine i, j di t (A B)
non
altro che il termine j, i di A B, cio
a j1
..
+ + a j s b s i = b 1i . . . b s i
. Daltra parte i due fattori a destra di
.
Dimostrazione
a j 1 b 1i
a js
41
Matrice trasposta
di un prodotto
corollario 2.1
2.2
Matrici invertibili
1 0 ... 0
0 1 . . . 0
In =
..
.
0 0 ... 1
in cui i termini sulla diagonale principale sono uguali a 1 e gli altri sono nulli. In
svolge per il prodotto di matrici il ruolo svolto dal numero 1 per la moltiplicazione.
definizione 2.2 In viene detta matrice identit di ordine n. Talvolta il termine
di posto i, j della matrice In viene indicato con i j e prende il nome di indice
di Kronecker. Lindice di Kronecker i j vale dunque 1 se i = j e 0 se i = j .
Matrice identit.
Indice di Kronecker
Dimostrazione
Matrice inversa
Dimostrazione
42
Osservazione 2.2
Vedremo tra poco una serie di esempi di matrici invertibili.
Prima bene per fare qualche considerazione sul fatto che 3.
non tutte le matrici sono invertibili:
1.
2.
le matrici non quadrate non sono invertibili. La denizione di matrice invertibile riguarda infatti solo
le matrici quadrate;
4.
la matrice nulla On,n non invertibile. Infatti
AOn,n = On,n per ogni matrice quadrata A di ordine
lesistenza o
meno della matrice inversa di
Matrici invertibili 1 1.
(a11 ) invertibile se e solo se a11 = 0 e la sua inversa evidentemente (1/a11 ).
Matrici invertibili
22
ab
d c
adbc 0
AA = A A =
= (ad bc)I2 .
0
adbc
si ha inoltre
A 1
a b
c d
d
c
a d bc a d bc
b
a
a d bc a d bc
Dimostrazione
43
2
1
1
1
2
1
a 11 ... ...
... 1 ...
a 22
=
.
..
..
.
.
.
.
1
...
...
a nn
Vedremo tra breve, e poi in seguito con la teoria dei determinanti, un metodo generale
per svolgere il calcolo di uneventuale matrice inversa. Prima esamineremo alcune
propriet di notevole importanza che le matrici invertibili hanno.
Matrici invertibili
e sistemi di n equazioni
in n indeterminate
zioni:
1.
2.
A invertibile;
un sistema di equazioni lineari di cui A matrice dei coefficienti ha
ununica soluzione;
ogni sistema di equazioni lineari di cui A matrice dei coefficienti ha
ununica soluzione;
ogni sistema di equazioni lineari di cui A matrice dei coefficienti
compatibile.
3.
4.
Dimostrazione
1 2. Se A invertibile il sistema omogeneo di equazioni lineari
X 0
1
A
..
.
Xn
..
.
, ha come unica soluzione quella nulla. Sia infatti (t1 , . . . , tn ) una solut
0
zione del sistema, allora A .. = ... , A invertibile, moltiplicando ambo i membri
.
tn
0
0
t t
1
1
di tale uguaglianza per la matrice A 1 otteniamo A 1 A .. = .. = A 1 ... =
.
.
1
tn
44
tn
soluzione.
2 3. Supponiamo che un sistema di cui A matrice dei coefficienti e b colonna dei termini noti abbia ununica soluzione. Allora, applicando il procedimento di Gauss-Jordan alla
matrice completa (A, b) del sistema, otterremo una matrice ridotta (A b ) che la matrice
completa di un sistema equivalente a quello assegnato. Tale matrice inoltre dotata della
seguente propriet: A ridotta e ha n righe non nulle. Se A avesse infatti una riga nulla
il sistema non avrebbe soluzioni oppure ne avrebbe infinite. Cambiando b con una colonna
d di termini noti scelti a piacere ed applicando ad (Ad ) lo stesso identico procedimento, si
otterr infine una matrice (A d ). Questa la matrice completa di un sistema equivalente a
quello che ha come matrice completa (Ad ). Poich A ridotta e ha n righe non nulle anche
il sistema di matrice completa (Ad ) ha ununica soluzione.
3 4. Ovvio.
4 1. Sia X = (X i j ) una matrice n n i cui termini sono indeterminate. Per provare
che A invertibile sufficiente provare che lequazione A X = In ammette soluzioni. Ora la
condizione che sia A X = In equivale alle condizioni
X 11
1
0
X 1n
.. ..
.. ..
A . = . , . . . , A . = . .
X n1
X nn
Ognuna di queste ultime uguaglianze un sistema di equazioni con matrice dei coefficienti
A. Ognuno di tali sistemi compatibile perch per ipotesi vale la 4. Quindi A X = In ha
una soluzione e pertanto la matrice A invertibile.
Ogni matrice che sia una modificazione delle righe di una matrice A sempre uguale
al prodotto di A per una opportuna matrice invertibile E . Vediamo per prima cosa di
verificare tale importante propriet nel caso delle modificazioni elementari delle righe
di una matrice. A tale scopo descriviamo senzaltro le matrici E che entrano in gioco
in tal caso:
Sia A = (a i j ) una matrice p q e siano R 1 , . . . , R p le righe di A, ricordiamo che
le matrici B che sono modificazioni elementari di una riga di A sono suddivise in
tre tipi 1, 2 e 3. Per ognuno di questi tipi descriveremo ora brevemente la matrice
invertibile E tale che B = E A.
1.
Matrici invertibili
e modicazioni
elementari
2.
3.
Sostituzione di R i con R i + R j .
Sostituendo la riga R i con R i + R j , ( j = i), si ottiene una matrice che
indicheremo con E i+j .
R j .
teorema 2.3
Dimostrazione
B = E m A m1 = E m E m1 A m2 = = E m E m1 E 2 A
46
Vogliamo ora usare le relazioni appena descritte tra modificazioni delle righe di una
matrice e matrici invertibili per uno scopo preciso: costruire linversa, se esiste, di una
matrice quadrata A.
Siano M e N due matrici di p righe, indicheremo con (M N) la matrice di p righe ottenuta aggiungendo N a destra di M. Si noti che P (M N) = (P M P N)
qualunque sia la matrice quadrata P di ordine p.
Sia ora A =
(a i j )una
matrice quadrata di ordine p, se esiste la matrice inversa A 1
allora A 1 A In = In A 1 .
Il procedimento che vogliamo descrivere per costruire, se esiste, linversa di A si basa
proprio su questultima osservazione e sulla seguente propriet:
Supponiamo che sia possibile costruire, a partire da (A In ), una
matrice (In B) che sia modificazione delle righe di (A In ). Allora A invertibile
e B la sua inversa.
teorema 2.4
Dimostrazione
47
Pivot completo
0
0
0
0
Sar inoltre utile tenere presente la successiva semplice propriet:
lemma 2.2 Sia M = (m i j ) una matrice p q e sia m s t = 0, allora esiste una
Dimostrazione
La dimostrazione del lemma ci indica anche un modo per costruire M : basta utilizzare lalgoritmo di riduzione avendo m s t come pivot. Questa volta per si tratta di
operare su tutte le righe di M diverse dalla riga di m s t e non solo, come di solito, su
quelle ad essa successive.
Fatte queste premesse vediamo di riassumere brevemente una procedura per costruire,se
esiste, la matrice inversa di una matrice quadrata A di ordine p . Si costruisce una
successione (A I p ), (M1 B1 ), . . . , (Mr Br ), di matrici p 2 p che risulter essere
dotata delle seguenti propriet:
a)
b)
c)
d)
Osservazione 2.3
Per completezza dimostriamo la propriet enunciata nel passo k. Dimostriamo cio che A non invertibile se Mk1
ha uguali a zero i termini di posto k, k + 1, . . . , p della propria k-esima colonna. Dimostriamo innanzitutto che
Mk1 non invertibile. Tra le soluzioni del sistema omoge
0
X1
.
neo Mk1 .. = ... abbiamo infatti, sotto le ipotesi
0
Xp
enunciate per la colonna k di Mk1 , anche la soluzione
49
1 1 1 1 0 0
(A I3 ) = 0 1 1 0 1 0
0 0 1 0 0 1
Con il primo passo dellalgoritmo si costruisce la matrice (M1 B1 ) da (A Ip ). Nel caso in
esame immediato vericare che (M1 B1 ) = (A I3 ). Siano ora R1 , R2 , R3 le righe di A; nel
caso in esame il secondo passo si riduce a sostituire R1 con R1 R2 e si ottiene (M2 B2 ) =
1 0 0 1 1 0
0 1 1 0
1 0 . Per compiere il terzo passo, nel caso in esame baster sostituire R2
0 0 1 0
0 1
1 0 0 1 1 0
1 1
0
A1 = 0
1 1
0
0
1
2.3
Sottomatrici invertibili
e denizione di rango
50
Le sottomatrici 2 2 della matrice A = 20 20 31 sono le seguenti A(1, 2; 1, 2) = 20 20 ,
A(1, 2; 1, 3) = 20 31 , A(1, 2; 2, 3) = 20 31 .
Come si vede in questo esempio, righe o colonne distinte di una matrice A possono determinare la stessa sottomatrice. Per esercizio il lettore determini tutte le quindici sottomatrici
distinte di A
Tra le sottomatrici di A importante conoscere quelle invertibili. Ancora pi importante conoscere il massimo ordine possibile che una sottomatrice invertibile di A pu
raggiungere.
definizione 2.6 Sia A una matrice: se A non nulla il rango di A il massimo
ab
cd
121
111 .
,
C
=
120
Si gi osservato che
000
21
20
e
11
10
51
Dimostrazione
Dimostrazione
Xk
bk
per il Teorema 2.2, S invertibile.
teorema 2.5 Siano B una matrice ridotta per righe e r (B) il suo rango. Allora
r (B) uguale al numero delle righe non nulle di B.
Dimostrazione
Rango e algoritmo
di riduzione
La definizione che abbiamo dato di rango non ne facilita il calcolo, infatti non
in generale un procedimento semplice quello di determinare tutte le sottomatrici
invertibili di A. Una procedura semplice ed effettiva per calcolare il rango di una
matrice tuttavia possibile a causa del precedente teorema e di quello successivo:
teorema 2.6
stesso rango.
Dai due ultimi teoremi segue che, per calcolare il rango di A, basta costruire una
matrice ridotta B che sia modificazione delle righe di A, magari utilizzando ancora
una volta lalgoritmo di riduzione. Una volta determinata B il calcolo del rango di
52
lemma 2.4
Sia A invertibile, allora B = E A ha come inversa A 1 E 1 ed invertibile. Viceversa sia B invertibile, allora A = B E 1 ha come inversa E B 1 ed invertibile.
Dimostrazione
lemma 2.5 Sia B una modificazione elementare di una riga di una matrice A e sia
S una sottomatrice di A. Allora S invertibile se, e solo se, esiste una sottomatrice
T di B che invertibile e ha lo stesso ordine di S.
Dimostrazione
2.
3.
53
Completata la dimostrazione del lemma possiamo facilmente concludere questa sezione con la:
Dimostrazione del Teorema 2.5
2.4
Teorema di Rouch-Capelli
Il lavoro fin qui svolto si sviluppato intorno al problema di studiare i sistemi di equazioni lineari e di determinarne le soluzioni. Il teorema che ora esporremo, noto come
teorema di Rouch-Capelli, riassume questo lavoro esponendo i punti fondamentali
della teoria che riguarda tali sistemi.
definizione 2.7 Sia S
in q indeterminate.
a)
54
Osservazione 2.5
Tradizionalmente si usava l espressione: il sistema ammet- indipendenti. Il simbolo m veniva letto infinito a m.
te m soluzioni per dire che S dipendeva da m parametri
indeterminate compatibile se, e solo se, la sua matrice completa e la sua matrice
dei coefficienti hanno lo stesso rango r . In tal caso linsieme S delle soluzioni del
sistema dipende da q r parametri indipendenti.
Come al solito indicheremo con r (M) il rango di una matrice M. Siano A
e C , rispettivamente, la matrice dei coefficienti e la matrice completa del sistema considerato.
Ricordiamo innanzitutto che tale sistema equivalente a un sistema per il quale la matrice dei
coefficienti B e la matrice completa D sono ridotte e sono inoltre modificazioni delle righe
di A e di C rispettivamente. Ci stato provato nei Teoremi 1.2 e 1.3. Per il Teorema 1.4,
questo secondo sistema compatibile se, e solo se, B e D hanno lo stesso numero di righe
non nulle. Daltra parte il Teorema 2.5 stabilisce che il rango di una matrice ridotta per righe
proprio il numero delle sue righe non nulle. Quindi il sistema considerato compatibile
se, e solo se, r (B) = r (D). Infine, essendo B e D, rispettivamente, modificazioni delle righe
di A e C , abbiamo r (A) = r (B) e r (C ) = r (D) per il Teorema 2.6. Pertanto il sistema
assegnato compatibile se, e solo se, r (A) = r (C ).
Dimostrazione
Per provare la seconda parte dellenunciato consideriamo come sopra il sistema equivalente
che ha B e D, rispettivamente, come matrice dei coefficienti e come matrice completa. Poich
per ipotesi il sistema ora compatibile, le righe nulle di D hanno la stessa posizione delle
righe nulle di B e sono in numero di r , dove r = r (B) = r (D). Cancellando da B e D le
righe nulle, otterremo dunque la matrice dei coefficenti e la matrice completa di un sistema
equivalente. Possiamo quindi senzaltro supporre che B e D non abbiano righe nulle e che
siano perci matrici r q . Proveremo, per induzione su q r , che le soluzioni del sistema
dipendono da q r parametri indipendenti.
55
Sia ora q r > 0 e sia b e f un termine pivot di B. Supponiamo che le soluzioni s del
sistema dipendano da m parametri indipendenti (t1 , . . . , tm ): s = (u 11 t1 + +
u 1m tm +v1 , . . . , u q 1 t1 + +u q m tm +vm ) e consideriamo il sistema di r equazioni
in q 1 incognite che ha come matrice dei coefficienti e come matrice dei termini
noti rispettivamente le matrici B e D ottenute cancellando da B e D la colonna
f . Si osservi che tutte le soluzioni di tale sistema si ottengono ponendo t f = 0 nelle
precedenti uguaglianze. Quindi esse dipendono da m 1 parametri. Daltra parte le
matrici B e D hanno ancora rango r e, per lipotesi di induzione, le soluzioni del
sistema dipendono ora da q 1 r parametri indipendenti; ne segue quindi che
m 1 q 1 r e cio che m q r . Per provare che m = q r baster infine
provare che le soluzioni del nostro sistema dipendono da q r parametri. Ci segue
subito dal modo in cui sono state determinate le soluzioni di un sistema compatibile
nel paragrafo 1.4.
Soluzioni
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero o esame in corsi universitari (cfr. e.g. [2], [4] e [10]).
Quesiti ed esercizi
1.
Si considerino le due matrici quadrate, 33, A =
3 1 0
e B = 2 0 3 :
(i)
(ii)
(iii)
0 2
0 3 1
2 1 0
4.
Calcolare il rango della matrice A :=
(ii)
5.
Vericare che, per ogni a R \ {0, 32 }, la matrice A =
0 2 1
12 0
2.
Vericare che ogni matrice M Mnn pu essere scritta
come somma di una matrice simmetrica e di una matrice
antisimmetrica.
3.
Vericare le seguenti affermazioni:
(i)
23 0 1
1 2 1 0
2 0 0 1
56
X
2 2
+ 2 X3 + X4 =
X1 X2 + X4 =
1
3
X1 + X2 X3 X4 = 2
3
Matrici quadrate e determinanti
3.1
Determinanti
R un determinante
R1
R1
R1
..
..
..
.
.
.
S + T = S + T
..
..
..
.
.
.
Rn
e)
Rn
Rn
Osservazione 3.1
Si pu dimostrare che e) conseguenza di a), b), c) e denizione, tuttavia ci servir a semplicare il discorso.
d). Sarebbe quindi superuo inserire tale propriet nella
57
Dimostrazione
a12
a22
a11 U1 + a12 U2
=
a21 U1 + a22 U2
dove U1 = 1 0 e U2 = 0 1 . Poich soddisfa la propriet d) abbiamo
(M) =
a11 U1
a21 U1 + a22 U2
a12 U2
a21 U1 + a22 U2
Applicando d) alle seconde righe delle matrici considerate e poi applicando c) si ottiene
58
3.1 Determinanti
U1
U1
U2
(M) = a11 a21
+ a11 a22
+ a12 a21
+
U1
U2
U1
U2
+ a12 a22
U2
Osserviamo inoltre che valgono le uguaglianze
U2
U1
U2
U1
= 0,
= 0,
= 1,
= 1
U1
U2
U2
U1
Le prime due seguono perch le matrici hanno righe uguali, la terza perch la matrice a cui
si applica lidentit, la quarta segue da b). Sostituendo nellultima espressione di (M)
si ha (M) = a11 a22 a12 a21 .
Lunica funzione che pu essere un determinante di ordine 2 dunque la funzione denita
come sopra. Si verica facilmente che un determinante in quanto soddisfa a), b), c), d)
ed e).
i=1,...,n
Proveremo
la prima uguaglianza, la dimostrazione della seconda simile.
Sia Uk = 0 . . . 1 . . . 0 la matrice 1 n che ha tutti i termini nulli salvo il k-esimo che 1:
possiamo scrivere la riga R i di M come R i = a i1 U1 + + a in Un . Applicando le propriet
c) e d) a questa riga otteniamo (M) =
j =1,...,n a i j (M j ), dove con M j indichiamo la
matrice ottenuta da M sostituendo la riga R i con U j . Si noti che il termine di posto i, j della
j -esima colonna di M j uguale a 1. Se k = i il termine di posto k, j invece a k j . Applicando
1j
nj
kj
59
(M+ )
(1)i+ j
ij
= n1 (M i j ).
ij
ij
P+
ij
(P+ )
(1)i+ j
ij
+ (In1 ) =
ij
(I+ )
(1)i+ j
= 1 e anche a) soddisfatta.
60
3.1 Determinanti
Daltra parte, per lipotesi di induzione, k , lunico determinante di ordine k n.
Per il lemma sopra dimostrato avremo dunque
(1)v1+h a 1h n1 (N 1, j,v1,h )
n (N 1 j ) =
h=1,..., j 1
(1)v1+h a 1h n1 (N 1, j,v1,h )
h= j +1,...,n+1
(1)v+h n1 (M 1, j,v,h )
h= j +1,...,n+1
c)
d)
Bisogna infine provare che le propriet precedenti valgono ancora se in esse si sostituisce la parola riga con la parola colonna. Ci segue immediatamente dalla definzione
di n+1 .
61
3.2
Sviluppo
del determinante
rispetto a una riga
Sviluppo
del determinante
rispetto a una colonna
Possiamo procedere nello stesso modo con una colonna invece di una riga. Dalle
uguaglianze del Teorema 3.1 segue infatti la formula det M = a 1 j A 1 j + +a n j A n j .
In questo caso il determinante stato sviluppato rispetto alla colonna j (equivalentemente, stato sviluppato con il metodo di Laplace rispetto alla colonna j ).
62
123
078
10000
1 1 1 0
21000
, 21 22 23 04 , 3 0 1 0 0 .
41010
43 21
10105
R1
R1
R1
..
..
.
.
.
.
..
.
.
.
Rn
Rn
Rn
di rango r :
1.
2.
Dimostrazione
1.
2.
Se r < n, essendo B ridotta per righe, B ha una riga nulla. Quindi det B = 0.
Dimostriamo la propriet per induzione su n. Se n = 1 allora B = (b 11 ) e b 11 = 0.
Poich det B = b 11 la propriet segue immediatamente. Sia ora B di ordine n > 1,
poich r = n possiamo scegliere n termini pivot b 1, j1 , . . . , b n. jn posti ciascuno su
63
Algoritmo di riduzione
per righe e calcolo
dei determinanti
In particolare il lemma stabilisce che det B = 0 se e solo se r = q . Viste le considerazioni che abbiamo appena svolto facile estendere questultima propriet ad ogni
matrice quadrata:
Sia M una matrice quadrata di ordine n e di rango r . Allora
det M = 0 se, e solo se, r = n.
teorema 3.2
Dimostrazione
Abbiamo osservato che, applicando opportunamente lalgoritmo di riduzione per righe, da M si ottiene una matrice B, ridotta per righe e che ha inoltre lo stesso
rango r e lo stesso determinante di M. Segue allora dal lemma che det M = 0 se, e solo se,
r = n.
Osservazione 3.2
Se r = n e B ridotta per righe possibile scegliere n ter- j1 < < jn . Con poco lavoro in pi si prova allora che
mini pivot b1,j1 , . . . , bn,j di B non solo in modo che cian
1+j ++jn
b1,j1 bn,j .
det B = (1) 1
scuno sia su una riga diversa, ma anche in modo tale che
n
Esercizio 3.2
Utilizzando il metodo di riduzione di Gauss-Jordan si calcolino i seguenti determinanti:
1 2 3 4 5
1 2 3 4
1 1 2 5 7
1 3 5 7
det 1 2 2 2 2 , det
1 5 9 13
0 0 1 2 3
1 9 17 25
5 4 3 2 1
3.3
Il ruolo del determinante per capire se una matrice invertibile va subito messo in
evidenza anche se, dopo il lavoro svolto della precedente sezione, quanto stiamo per
enunciare ormai scontato:
64
cofattori di M.
Tale matrice dunque la matrice t (Ai j ), dora in poi essa verr indicata con M .
Esempio 3.3 Aggiunta di una matrice 2 2
Si consideri la matrice di ordine due A =
facile calcolare che AA = A* A =
ab
cd
allora laggiunta di A A =
adbc 0
0 adbc
d b
c a
(det M) In .
Dimostrazione
Sia p i j il termine di posto i, j della matrice prodotto M M , allora p i j =
( a i1 ...a in )
A j1
..
.
A jn
con
la colonna j di M e tale colonna proprio la matrice trasposta della riga di cofattori
A j 1 . . . A j n . Se i = j la precedente espressione il determinante di M, sviluppato rispetto
alla riga i-esima. Se i = j la precedente espressione invece zero. Per provarlo osserviamo
che, pi in generale, 1 A j 1 + + n A j n il determinante della matrice ottenuta da M
sostituendo la sua j -esima riga con 1 . . . n . Se allora sostituiamo la j -esima riga di M
65
Dal precedente teorema segue immediatamente che i termini della matrice inversa di
una matrice invertibile M = (a i j ) sono espressi dalla formula enunciata nel modo
seguente:
Sia M una matrice invertibile, allora il termine di posto i, j di
dove A j i il complemento algebrico di posto j, i di M.
proposizione 3.3
M 1
A ji
det M
Dimostrazione
che
i, j
1
1
1 =
Esercizio 3.3
111
3.4
011
001
11111
1000
01111
1
1
0
0
, 1 1 1 0 , 0 0 1 1 1 .
00011
1111
00001
Complementi ed applicazioni
Determinanti e sistemi
di equazioni lineari
X1
..
.
Xn
b1
..
.
bn
X1
..
.
Xn
= A 1
b1
..
.
, quindi lunica
bn
soluzione del sistema considerato la n-upla i cui termini si trovano sulla colonna
a destra di tale uguaglianza. Scrivendo in modo esplicito il termine i-esimo di tale
colonna si ha
Xi =
b 1 A 1i + + b n A ni
.
det A
det B1
det Bn
, . . . , Xn =
det A
det A
R un minore di
ordine k di A se m il determinante di una sottomatrice quadrata di ordine k
di A.
Il numero considerato in 1 non altro che il rango di M, cos come stato definito
nel paragrafo 2.3. Possiamo perci concludere questa sezione affermando che
teorema 3.6 Il rango di M il massimo ordine possibile di un minore non nullo
di M.
Teoricamente tale risultato indica unaltra via per determinare il rango di una matrice
M: calcolare i minori di M e poi il massimo intero r per il quale esistono minori di
M che hanno ordine r e sono non nulli. Allora r sar il rango di M. In generale
una tale procedura poco praticabile e conviene ricorrere ad altre come quelle gi
67
1.
2.
det S = 0,
det T = 0 per ogni sottomatrice quadrata T di M di cui S sia una
sottomatrice.
Allora r il rango di M.
Determinante
di un prodotto
Dimostrazione
c)
d)
R1
R1
R1
..
..
..
.
.
.
S + T B = S B + T B
.
.
.
..
..
..
Rn
Rn
Rn
68
R1
R1
R1
..
..
..
.
.
.
Rn
Rn
e)
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [4] e [10]).
Soluzioni
Quesiti ed esercizi
1.
Calcolare il determinante della matrice
a11 a12 0
0
a
a
0
0
A = 21 22
M44
0 a33 a34
0
0
0 a43 a44
sia massimo.
4.
In M35 assegnata la matrice parametrica
1 0
A = 1
0 0
1 1
0
5.
1 1
1
Data la matrice
M = 2 1 2
1
4
1 0 2 4
32
A = 32 2 11
5
5
dipendente dal parametro reale R, determinare per
0 5
2 1
quali valori di tale matrice invertibile. In tali casi
determinarne linversa.
vericare che r(A) = 2 e determinare una relazione della
3.
forma R2 = R1 + R3 , dove le Ri sono le righe di A, 1
Trovare i valori del parametro k R afnch il rango della
i 3, e dove , R da determinare opportunatamente.
matrice
6.
69
1 0
C = 1
0 0
1 1
0
7.
Sia assegnato il seguente sistema lineare
aX1 + X2 = 0
X + aX = 0
1
2
bX
+
X
3
4 = 0
X + bX = 0,
3
4
70
(i)
(ii)
Stabilire, al variare di (a, b) R2 , quando il sistema compatibile e, in tal caso, da quanti parametri indipendenti dipendono le soluzioni del sistema
lineare;
Determinare esplicitamente le soluzioni del sistema lineare dato, per tutte le coppie (a, b) R2
per cui tali soluzioni dipendano da 2 parametri
indipendenti.
4
Spazi vettoriali
4.1
Le origini della nozione di vettore vanno rintracciate nelle ricerche dei matematici
e dei fisici del XIX secolo. Come conseguenza di tali ricerche furono introdotti, in
matematica ed in fisica, quelli che oggi sono chiamati vettori geometrici. I vettori
geometrici possono essere sommati, oppure moltiplicati per un numero, seguendo
regole piuttosto naturali. Richiameremo queste nozioni per la loro utilit didattica e
storica. bene tuttavia avvertire che linsieme dei vettori geometrici va considerato
come un esempio particolare della nozione, molto pi generale ed efficace, di spazio
vettoriale. Questa sar il vero oggetto di questo capitolo.
Per costruire i vettori geometrici lavoreremo con i punti dello spazio ordinario S
della geometria di Euclide, dove supporremo fissata una misura della lunghezza dei
segmenti. In questo paragrafo ricorreremo spesso allintuizione geometrica.
Siano A, B S due punti dello spazio, indicheremo con A B il segmento di estremi
i punti A e B sul quale sia stato scelto come verso di percorrenza quello in cui A
precede B. Ricordiamo che su un segmento di estremi A e B esistono due versi di
percorrenza: quello in cui A precede B e il suo opposto in cui B precede A. La
notazione B A indicher lo stesso segmento sul quale stato per scelto il verso di
percorrenza opposto. Nel caso particolare in cui A = B il segmento formato da
un unico punto e i suoi versi di percorrenza sono uguali. Po essere utile pensare a
un segmento orientato A B come a una freccia con la punta in B. Il punto A verr
detto origine del segmento orientato A B. La lunghezza del segmento orientato A B la
lunghezza del segmento di estremi i punti A e B.
Vettori geometrici
1.
2.
3.
Segmenti orientati
4 Spazi vettoriali
se r una retta contenente A, B, C, D esiste un verso di percorrenza di r nel quale A precede B e C precede D (figura 4.1b).
(a)
r
D
Si noti che, qualunque siano i segmenti orientati A B, C D ed E F , valgono le propriet seguenti, di cui omettiamo la semplice dimostrazione:
1.
2.
3.
A B A B;
A B C D implica C D A B;
Se A B C D e C D E F allora A B E F .
(b)
Linsieme dei vettori geometrici verr indicato con V, i vettori geometrici verranno
indicati con una lettera minuscola in grassetto: u, v, w . . . .
Osservazione 4.1
importante sottolineare che un vettore geometrico non ver che, essendo le precedenti propriet 1, 2 e 3 soddisfatte,
un segmento orientato ma un insieme di segmenti orientati la relazione di equipollenza una relazione di equivalenza
denito come sopra.
e che V non altro che linsieme delle classi di equivalenza
di tale relazione. Per questo motivo i vettori geometrici sono
Il lettore in possesso di nozioni matematiche di base osser- anche chiamati classi di equipollenza.
Q
v
P
v
a
A
Per brevit non dimosteremo tale proposizione, evidente a livello intuitivo. Essa
utile per definire le successive operazioni tra vettori geometrici.
Siano a e b due vettori geometrici. Scelto un punto A S consideriamo prima il
segmento orientato A B che rappresenta a e ha origine in A e poi il segmento orientato
BC che rappresenta b e ha origine in B (figura 4.3).
72
B'
C'
a
A'
c
b
Sia c il vettore geometrico rappresentato dal segmento orientato AC abbiamo osservato che c non cambia cambiando la scelta del punto A, questo vuol dire che c
definito in modo unico dalla coppia di vettori geometrici a, b. dunque appropriato
introdurre la seguente
definizione 4.3 La somma dei vettori geometrici a e b il vettore geometrico
a+b rappresentato dal segmento orientato ottenuto nel modo seguente. Siano:
Somma di vettori
geometrici
Ricorriamo di nuovo a dei disegni per descrivere, senza dimostrazione, alcune propriet; nella figura 4.5 rappresentata la propriet associativa.
(a + b) + c
a + (b + c)
a + (b + c) = (a + b) + c
c
c
b+ c
b+ c
c
a+ b
a+ b
a
a
b
a
b
b)
Regola
del parallelolgramma
4 Spazi vettoriali
D
a
C
a+
siano a e b rappresentati rispettivamente da A B e A D dove A, B, D sono punti non allineati. Allora la somma a+b rappresentata dal segmento orientato AC diagonale del parallelogramma A BC D individuato dai
punti A, B, D.
Il vettore geometrico
nullo
Opposto di un vettore
geometrico
associativa;
commutativa;
esiste lelemento neutro o;
v V esiste lopposto v.
1.
se = 0 e a = o, allora:
2.
a un vettore parallelo ad a;
la lunghezza di a | || a |;
a e a sono concordi se > 0, discordi se < 0;
se = 0 oppure a = o allora a = o.
Concludiamo questo paragrafo enunciando altre quattro propriet che sono soddisfatte dalla moltiplicazione di un numero reale per un vettore geometrico e che sono
importanti per il discorso che svilupperemo nelle sezioni successive:
V5)
V6)
1v = v, v V;
()v = (v), , R
V7)
V8)
(v + w) = v + w), R e v, w V;
( + )v = v + v, , R e v V.
v V;
La propriet V5) ovvia, mentre le propriet V6) e V7) seguono facilmente dalla
definizione di moltiplicazione di un vettore geometrico per un numero reale.
4.2
Moltiplicazione
di un vettore geometrico
per un numero reale
4 Spazi vettoriali
Inoltre le operazioni + e devono soddisfare le seguenti propriet:
V1)
V2)
V3)
V4)
V5)
V6)
V7)
V8)
Osservazione 4.2
Esiste un unico elemento o dotato della propriet enuncia- u + v = o. Tale elemento si chiama anche elemento oppota in c). Se infatti o un elemento di V dotato della stessa sto a u. facile dimostrare che esiste un unico opposto di u.
propriet avremo o = o + o = o .
Siano infatti v e v due opposti di u, applicando la propriet
associativa si ottiene
Nel linguaggio dellalgebra lelemento o lelemento neuv = v + o = v + (u + v ) = (v + u) + v =
tro delloperazione di somma di elementi di V. Sia u V, la
condizione d) prescrive lesistenza di un elemento v tale che
= o +v = v
Gli elementi di uno spazio vettoriale V vengono chiamati vettori di V . Essi saranno
di solito indicati, come abbiamo gi fatto, nel seguente modo: u, v, t . . . .
Lelemento neutro rispetto alla somma di vettori di V viene chiamato vettore nullo
di V . Esso verr talvolta indicato con o V ma molto pi spesso soltanto con o per
semplificare la scrittura. Per ogni u V lopposto di u verr indicato con u.
Osservazione 4.3
Facciamo alcune precisazioni: il simbolo + per la somma di
elementi di V ambiguo perch + viene anche usato per
indicare la somma di numeri. Sarebbe preferibile usare una
notazione distinta e che sottolinei il fatto che loperazione si
svolge tra elementi dellinsieme V: per esempio si potrebbe usare la notazione +V . Per analoghi motivi ambigua la
notazione a e potrebbe per esempio essere sostituita con
V v. Proseguendo su questa strada sarebbe pi rigoroso denire uno spazio vettoriale come una terna (V, +V , V ) dove
V un insieme non vuoto e +V e V sono le due operazioni considerate. In pratica per si preferisce non appesantire
le notazioni e si usano le espressioni e i simboli introdotti
pocanzi. Il lettore sapr interpretarli correttamente.
Lo spazio vettoriale Rn
delle n-uple di numeri
reali
4 Spazi vettoriali
Lo spazio vettoriale Mpq
delle matrici pq
somma di matrici p q ;
moltiplicazione di un numero reale per una matrice p q .
Con argomenti del tutto simili a quelli utilizzati nel caso di Rn si pu dimostrare
che per tali operazioni sono soddisfatte le propriet V1), . . . , V8) della definizione
di spazio vettoriale. Lasciamo in questultimo caso tutte le verifiche al lettore.
La terna formata dallinsieme delle matrici p q e dalle due precedenti operazioni
dunque un esempio di spazio vettoriale che indicheremo con il simbolo M pq .
I vettori di M pq sono evidentemente matrici p q . Si noti che il vettore nullo di
M pq la matrice nulla 0 pq . Lopposto del vettore A la matrice A.
Prodotto di due spazi
vettoriali
di nuovo possibile verificare che la terna costituita da F e dalle operazioni ora definite un esempio di spazio vettoriale. Di nuovo le verifiche della validit delle propriet
V 1, . . . , V 8 sono noiose e del tutto simili alle precedenti.
Con una certa dose di semplificazione definiremo come polinomio a coefficienti reali
in una indeterminata T unespressione
P (T) = a 0 + a 1 T + a 2 T 2 + + a d T d
dove a 0 . . . a d sono numeri reali e inoltre a d = 0 se d 1. ricordiamo che:
1.
2.
3.
il grado di P (T) d ;
il coefficiente direttore di P (T) a d ;
il coefficiente di grado n di P (T) : il coefficiente di T n se n d , 0 se n > d .
1.
Lo spazio vettoriale P
dei polinomi a
coefcienti reali
in una indeterminata
4 Spazi vettoriali
2.
Sottospazio vettoriale
80
Sottospazio somma
e sottospazio
intersezione
di due sottospazi
S + T = {s + t, s S, t T}.
S + T dunque un sottoinsieme dello spazio vettoriale V .
Se S e T sono sottospazi vettoriali di V allora S + T un
sottospazio vettoriale di V .
proposizione 4.3
Dimostrazione
Basta provare che S + T chiuso rispetto a somma e moltiplicazione.
Siano v e v vettori di S + T allora si ha v = s + t e v = s + t , dove s , s S e
t, t T. Ne segue dunque che v + v = (s + s ) + (t + t ).
Daltra parte S e T sono chiusi rispetto alla somma e pertanto abbiamo (s + s ) S e (t +
t ) T.
Quindi v + v S + T e ci prova che S + T chiuso rispetto alla somma. Siano ora R
e v S + T allora v = s + t, dove s S e t T, e dunque v = s + t.
Essendo S e T chiusi rispetto alla moltiplicazione ne segue che v S + T e ci prova che
S + T chiuso rispetto alla moltiplicazione.
definizione 4.11 Siano S e T sottospazi di uno spazi vettoriale V , il sottospazio
81
4 Spazi vettoriali
S T non vuoto in quanto contiene almeno il vettore nullo, che
appartiene ad ogni sottospazio di V . Siano v, v S T, poich S e T sono chiusi rispetto
alla somma ne segue che v + v appartiene sia a S che a T. Quindi S T chiuso rispetto
alla somma. Per quanto riguarda la moltiplicazione la dimostrazione del tutto simile e viene
lasciata al lettore.
Dimostrazione
sottospazio intersezione di S e T.
Somma diretta
di sottospazi
Dimostrazione
u 1 u 2 = v2 v1
se S T = V .
82
4.3
Siano O, A, B, C quattro punti dello spazio ordinario, non contenuti in uno stesso piano.
Siano poi a, b, c i vettori geometrici rappresentati rispettivamente dai segmenti orientati
OA, OB, OC.
Allora lequazione vettoriale X a + Y b = c non ha soluzioni. Infatti ogni vettore geometrico
a + b rappresentato da un unico segmento orientato OD tale che O, A, B, D sono punti
di uno stesso piano (figura 4.8). Poich C non nel piano determinato da O, A, B ne segue
che a + b = c, qualunque siano e . Quindi lequazione non ha soluzioni.
83
c
a
Ob B
4 Spazi vettoriali
Quindi lequazione vettoriale considerata equivalente allequazione (X + Y + Z, X + Y +
Z, X + Y, X) = (0, 0, 0, 0) e cio al sistema di equazioni lineari X + Y + Z = 0, X + Y + Z =
0, X + Y = 0, X = 0 la cui unica soluzione si ottiene ponendo X = Y = Z = 0.
proposizione 4.6
Vettori linearmente
indipendenti
Osservazione 4.4
certamente utile sottolineare il fatto che il vettore nullo ce linearmente indipendenti se, e solo se, v1 + +r vr =
in ogni caso una combinazione lineare dei vettori v1 , . . . , vr , 0 1 = = r = 0.
semplicemente perch 0v1 + + 0vr = 0.
Questultima implicazione infatti vera se e solo se lunica
Naturalmente questo non implica che siano linearmente di- soluzione dellequazione X1 v1 + +Xr vr = 0 la soluzione
pendenti i vettori v1 , . . . , vr . I vettori v1 , . . . , vr saranno inve- nulla.
proposizione 4.7
Dimostrazione
Se v 1 , . . . , vr sono linearmente dipendenti, esiste una combinazione
lineare u 1 v 1 + . . . u r vr = 0 tale che almeno un coefficiente u i non nullo. Allora si ha
1
evidentemente v i = u i
j =i u j v j .
Viceversa sia v i =
j =i t j v j allora v i
j =i t j v j = 0. In tale combinazione lineare il
coefficiente di v i 1, quindi v 1 , . . . , vr sono linearmente dipendenti.
2.
85
4 Spazi vettoriali
Lin(v1 , . . . , vr ).
proposizione 4.8
Dimostrazione
Righe e colonne
di una matrice
e indipendenza lineare
proposizione 4.9
Xq
86
X
..1
Basta osservare che A
= X 1 C 1 +. . . X q C q e quindi che linsieme
.
Xq
dipendenti se, e solo se, il sistema omogeneo ha soluzioni non nulle. Per le righe R 1 , . . . , R p
la dimostrazione analoga.
4.4
Nel seguito studieremo soprattutto quegli spazi vettoriali V per i quali ogni vettore
u combinazione lineare di un sistema di vettori v 1 , . . . , vr .
definizione 4.18 Un sistema di vettori v 1 , . . . , vr di uno spazio vettoriale V
definizione 4.19 Uno spazio vettoriale ha dimensione finita se per esso esiste un
sistema di generatori.
Se il sistema di vettori v 1 , . . . , vr un sistema di generatori di V diremo che V
generato dai vettori v 1 , . . . , vr od anche che i vettori v 1 , . . . , vr generano V . Hanno
dimensione finita quasi tutti gli esempi finora considerati:
Esempio 4.12 Spazi vettoriali di dimensione nita
1.
2.
3.
87
Sistema di generatori
4 Spazi vettoriali
4.
V: Fissiamo per semplicit un cubo di vertici i punti O, A, B, C: un sistema di generatori di V allora costituito dai vettori a, b, c rispettivamente rappresentati dai segmenti orientati OA, OB, OC. Sia infatti u un vettore geometrico e sia OU il segmento
orientato di origine O che lo rappresenta. Consideriamo:
Non ha dimensione finita lo spazio P dei polinomi a coefficienti reali in una indeterminata T. Per dimostrarlo baster provare che ogni sistema di vettori P1 (T), . . . ,
Pr (T) di P non un sistema di generatori. A tale scopo si noti che il vettore Pi (T),
essendo un polinomio, ha un grado di . Sia d il massimo di tali gradi, allora T d +1
non combinazione lineare dei vettori P1 (T), . . . , Pr (T). Una tale combinazione
u 1 P1 (T) + + u r P (T) infatti un polinomio di grado d e non pu quindi
essere T d +1 . Il sistema di vettori P1 (T), . . . , Pr (T) non dunque un sistema di
generatori di P.
definizione 4.20 Una base di uno spazio vettoriale V un sistema di generatori
Base
Nel seguito proveremo varie caratterizzazioni della nozione di base, che una delle
pi importanti nella teoria degli spazi vettoriali. Pi precisamente sia
v = v 1 , . . . , vr
un sistema di vettori di uno spazio vettoriale V e sia V diverso dallo spazio nullo.
Proveremo che sono equivalenti le seguenti propriet:
1.
2.
3.
v una base;
v un sistema di generatori formato dal minimo numero possibile di vettori;
v formato dal massimo numero possibile di vettori linearmente indipendenti.
Dimostrazione
up
Xq
a iq X q , i = 1, . . . , p.
... v p
) A = ( w1
... wq
).
v1
...
vp
u1
..
. = v1
...
vp
X1
A ... =
up
Xq
= w1
...
wq
X1
..
.
Xq
e quindi u 1 v 1 + + u p v p = X 1 w 1 + + X q wq .
Poich si ha q > p il sistema omogeneo di p equazioni lineari in q incognite u 1 = =
u q = 0 ammette, come sappiamo, una soluzione non nulla. Sia (c 1 , . . . , c q ) una tale soluzione: sostituendo nella penultima uguaglianza c i con X i si ottiene c 1 w 1 + +c q wq = 0.
Quindi i vettori w1 , . . . , wq sono linearmente dipendenti.
teorema 4.1 Sia v 1 , . . . , v p una base di uno spazio vettoriale V e sia w 1 , . . . , w q
Dimostrazione
Dal teorema segue che, se esistono delle basi di uno spazio vettoriale V , allora queste
sono esattamente i sistemi di generatori di V costituiti dal minimo numero possibile
di elementi.
89
4 Spazi vettoriali
Non abbiamo ancora esaminato il problema della esistenza di una base per uno spazio
vettoriale V di dimensione finita:
Sia V uno spazio vettoriale non nullo e di dimensione finita, allora
esistono delle basi di V .
teorema 4.2
Dimostrazione
Sia V uno spazio vettoriale non nullo, allora ogni suo sistema di
generatori contiene una base.
teorema 4.3
90
Dimostrazione
Siano v 1 , . . . , vr vettori linearmente indipendenti di V , se Lin(v 1 ,
. . . ,vr ) = V , v 1 , . . . , vr gi una base di V e non c altro da dimostrare. In caso contrario
esiste un vettore vr +1 di V che non appartiene a Lin(v 1 , . . . , vr ). Proviamo che i vettori
v 1 , . . . , vr +1 sono linearmente indipendenti. Sia infatti u 1 v 1 + + u r +1 vr +1 = 0, se
u
u r +1 = 0 allora vr +1 = u 1 v 1 uu r vr e quindi vr +1 Lin(v 1 , . . . , vr ). Poich
r +1
r +1
Per i precedenti teoremi ogni spazio vettoriale non nullo di dimensione finita ha delle
basi e queste hanno lo stesso numero di vettori m, in particolare m 1.
definizione 4.22 Sia V uno spazio vettoriale di dimensione finita, la dimensione
4 Spazi vettoriali
Sia u V . Per il Lemma 4.1 i vettori v 1 , . . . , v d , u sono linearmente
dipendenti. Stabilito questo, si applichi parola per parola lo stesso argomento usato al termine
della dimostrazione del Teorema 4.4 per provare che u combinazione lineare di v 1 , . . . , v d .
Dimostrazione
Dimostrazione
Dal Lemma 4.1 segue che il numero dei vettori di un sistema di vettori
linearmente indipendenti e appartenenti a W dim V . Ci implica che esiste un massimo m per il numero di vettori di un tale sistema. Sia allora w = w1 , . . . , w m un sistema
di vettori linearmente indipendenti di W, applicando ancora una volta lultima parte della
dimostrazione del Teorema 4.4 si pu provare che w un sistema di generatori. Quindi w
una base e possiamo concludere che dim W = m dim V . Se infine m = dim V allora,
per il Teorema 4.5, i vettori w 1 , . . . , wm sono anche una base di V .
dim 0 = 0
Abbiamo gi convenuto che tale spazio ha dimensione zero.
dim Rq = q
Sia e i la q -upla il cui termine i-esimo 1 mentre gli altri sono nulli. Abbiamo
gi osservato che per ogni u = (u 1 , . . . , u q ) Rq vale luguaglianza u 1 e 1 +
+ u q e q = (u 1 , . . . , u q ).
Da questa uguaglianza possiamo dedurre che il sistema di vettori e := e 1 ,
. . . , e q una base di Rq . Infatti ogni u Rq combinazione lineare dei
vettori di e , quindi e un sistema di generatori. Da essa segue inoltre che
u 1 e 1 + + u q e q = 0 (u 1 , . . . , u q ) = 0 u 1 = = u q = 0.
Quindi i vettori e 1 , . . . , e q sono linearmente indipendenti ed e una base.
definizione 4.23 La base e = e 1 , . . . , e q di Rq si dice base canonica di Rq .
92
dim M pq = pq
Siano i {1, . . . , p}, j {1, . . . , q } e sia E i j la matrice il cui termine di
posto i, j 1 mentre
gli altri sono nulli. Abbiamo gi osservato in precedenza
che si ha A =
a i j E i j per ogni matrice A = (a i j ) M pq . Con gli stessi
argomenti del caso precedente si prova che il sistema di vettori costituito dalle
dim V = 3
Una base dello spazio dei vettori geometrici e costituita dalle classi di equipollenza dei segmenti orientati O A, O B, OC dove O, A, B, C sono quattro
punti non contenuti in uno stesso piano. Si pensi per esempio ai vertici di un
cubo.
dim Pd = d + 1
Come esercizio il lettore provi che il sottoinsieme Pd P i cui elementi
sono i polinomi di grado d un sottospazio vettoriale di P. Il lettore
verifichi che una base di Pd il sistema di vettori costituito dai polinomi
1, T, T 2 , . . . , T d .
Tali polinomi sono in numero di d + 1 e quindi Pd ha dimensione d + 1.
w
j =1 j j . Consideriamo V W.
Pertanto, i
vettori comesopra, definiscono il vettore di V W dato da:
m
i v i , nj=1 j w j ).
(v, w) = ( i=1
Con semplici conti, osserviamo che la precedente equaglianza si scrive come:
(v, w) = 1 (v 1 , 0) + + m (v m , 0) + 1 (0, w1 ) + + n (0, wn ).
La precedente combinazione lineare contiene m + n addendi. Pertanto, visto
che v e w sono per ipotesi due basi e data la definizione di V W, la base
per V W determinata da v e w costituita da: z 1 := (v 1 , 0), . . . , z m :=
(v m , 0), z m+1 := (0, w 1 ), . . . , z m+n := (0, w n ) . Pertanto dim V W =
m + n.
Se V e W sono sottospazi di uno spazio vettoriale U , ci si pu chiedere per
esempio quanto la dimensione del sottospazio somma V + W o del sottospazio intersezione V W, conoscendo le dimensioni di V e W. La risposta non sempre cosi` immediata, come nel caso del prodotto V W.
Per affrontare questo argomento, che verr dimostrato nel Teorema 9.4, servono ulteriori preliminari che verranno introdotti nel corso dei successivi
capitoli.
4.5
4 Spazi vettoriali
La q -upla (1 , . . . , q ) non necessariamente unica perch lequazione X 1 v 1 +
+ X q v q = u pu avere pi di una soluzione. Le basi di V sono esattamente quei
sistemi di generatori per i quali la precedente q -upla (1 , . . . , q ) unica per ogni u:
v una base di V ;
per ogni u V esiste una e una sola q -upla (u 1 , . . . , u q ) Rq tale che
u = u 1v1 + + u q vq .
Dimostrazione
1 2: sia u V , supponiamo di avere 1 v 1 + + q v q = u =
1 v 1 + + q v q .
Allora (1 1 , . . . , q q ) soluzione dellequazione X 1 v 1 + + X q v q = 0. Essendo
v una base v 1 , . . . , v q sono linearmente indipendenti e lunica soluzione dellequazione
quella nulla, quindi 1 = 1 , . . . , q = q e ci implica 2.
2 1: 2 vale per u = 0 quindi lequazione X 1 v 1 + + X q v q = 0 ha come unica soluzione
quella nulla e v 1 , . . . , v q sono linearmente indipendenti.
definizione 4.24 Sia v = v 1 , . . . , v q una base di V e sia u = u 1 v 1 + +u q v q ;
94
Esercizio 4.1
1.
2.
3.
4.
Il fatto che le componenti dei vettori di v rispetto a b costituiscano le colonne della matrice A dipende da motivazioni pi generali che verranno affrontate a breve
(Definizione 4.26, Proposizione 4.10 e Teorema 4.9).
95
4 Spazi vettoriali
Per rispondere con facilit alle questioni 1, 2 e 3, vogliamo adottare il procedimento di riduzione di Gauss-Jordan (Par. 1.3), che si considera sulle righe di una matrice. Pertanto, esclusivamente per questo motivo tecnico, data A come nella Definizione 4.25, nel risultato seguente passeremo da A ad t A. Come vedremo nelle
conseguenze (Corollari 4.1, 4.2 e 4.3), tutto sar formulato in termini di A.
teorema 4.8 Sia B = (b i j ) una matrice ridotta per righe e ottenuta da t A con il
Dimostrazione
Poich il numero di righe non nulle di B il rango di t A, e poich, dalla Proposizione 2.8, A e t A hanno lo stesso rango, il successivo corollario immediato.
La dimensione di Lin(v) uguale al rango r della matrice A
nella Definizione 4.25.
corollario 4.1
corollario 4.2
96
Dimostrazione Basta ricordare che det A = 0 se, e solo se, il rango di A p e applicare
il corollario precedente.
Abbiamo gi osservato che esistono pi basi per uno spazio vettoriale di V di dimensione finita. Vogliamo ora affrontare il seguente problema:
Assegnate su V due basi a e b come determinare le componenti di un
vettore rispetto alla base b in funzione delle sue componenti rispetto alla
base a ?
Pi precisamente sia v V e dim V = n; allora abbiamo
[4.3]
x 1a 1 + + x n a n = v = y 1b 1 + + y n b n
dove b j = m 1 j a 1 + + m n j a n .
definizione 4.26 La matrice Ma b definita come sopra si chiama la matrice del
Notiamo che, dalla Definizione 4.26, Ma b definita anche dalla seguente equaglianza
matriciale:
[4.4]
(a 1 . . . a n ) Ma b = (b 1 . . . b n )
Matrice cambiamento
di base e cambiamenti
di componenti
4 Spazi vettoriali
Osservazione 4.6
Notiamo che, poich le colonne di Mab sono date dalle componenti dei vettori della base b espresse rispetto alla base a ,
dal Teorema 3.3 e dal Corollario 4.3, la matrice Mab invertibile. Pertanto, moltiplicando a destra ambo i membri della
1
[4.4] per Mab , si ottiene lequaglianza matriciale:
[4.5]
(b 1 . . . b n ) Mba = (a 1 . . . a n )
[4.6]
proposizione 4.10
A cosa servono le matrici cambiamento di base per le questioni che ci siamo posti?
Per comprenderlo, consideriamo lespressione di v come in [4.3] in forma matriciale:
x1
y1
..
..
[4.7]
v = (a 1 . . . a n ) . = (b 1 . . . b n ) .
xn
yn
ottenuta moltiplicando la matrice riga di ciascuna base per la matrice colonna delle
componenti di v espresse nella rispettiva base. Se consideriamo [4.4], lidentit [4.7]
diventa:
x1
y1
..
..
v = (a 1 . . . a n ) . = (a 1 . . . a n ) Ma b .
[4.8]
xn
yn
Pertanto, gli ultimi due membri delle eguaglianze in [4.8] esprimono il medesimo
vettore v in funzione delle sue componenti rispetto alla medesima base a . Poich le
componenti di un vettore rispetto
data base
y 1sono
univocamente determinate,
xa1 una
.
.
vuol dire che vale leguaglianza: .. = Ma b .. .
xn
yn
x1
y1
..
..
1
invertibile vale anche . = Ma b
. .
yn
xn
..
(rispettivamente, da b ad a ). Sia . la colonna delle componenti di un vettore
teorema 4.9
xn
v V rispetto ad a .
1
Ma b
x1
x1
..
.
. = Mba .. .
xn
xn
y1
..
la colonna delle componenti di v rispetto a b, allora la
Viceversa, se
.
yn
x1
x1
..
.
1
colonna delle componenti di v rispetto ad a Mba
. = Ma b .. .
xn
xn
Notiamo pertanto che, data la matrice Ma b di passaggio dalla base a alla base b, per
vedere come si trasformano le componenti di un vettore, date rispetto ad a , nella
base b si deve usare linversa di Ma b , o equivalentemente la matrice del passaggio da
b ad a . Analogo discorso per Mba .
Esercizio 4.2 Trasformazione di coordinate in R3
Consideriamo le basi
1 1e1e
f dellEsempio 4.14. La matrice cambiamento di base da e a f
la matrice Mef = 0 1 1 . Ricordiamo che u il vettore che, rispetto a e, ha componenti
001
u1
u2
u3
1
dei cofattori di Mef . Pertanto, svolgendo i conti, si trova che C = 1 1 0 , quindi Mef =
0 1 1
1 1 0
u3
u3
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero o esame in corsi universitari (cfr. e.g. [2], [4] e [10]).
Soluzioni
Quesiti ed esercizi
1.
Dire se i seguenti sottoinsiemi di R3 sono spazi vettoriali:
(i)
(ii)
W1 = {(a, b, c) R3 | a + b + c = 0};
W2 = {(a, b, c) R3 | a + b + c 1};
99
4 Spazi vettoriali
(iii)
W3 = {(a, b, c) R3 | a2 + b2 + c2 = 0}.
2.
(ii)
Sia W = Lin(w1 , w2 , w3 , w4 ) il sottospazio vettoriale di R4
generato dai quattro vettori indicati che, rispetto alla base
canonica e di R4 , hanno componenti
(iii)
w1 = (0, 1, 1, 1), w2 = (1, 0, 1, 2),
w3 = (1, 1, 2, 1), w4 = (0, 0, 2, 0)
P(T) = T 2 T 3 , Q(T) = 1 T,
R(T) = T 2 T
100
(i)
(ii)
5
Prodotti scalari
5.1
Come abbiamo visto, lo spazio vettoriale V dei vettori geometrici pu essere considerato come un prototipo della nozione pi generale di spazio vettoriale. Esattamente
la stessa cosa avviene per la nozione generale di prodotto scalare, che storicamente
preceduta dallesempio particolare del prodotto scalare di vettori geometrici. Ricorderemo ora brevemente, e senza approfondire tutte le dimostrazioni, la definizione
ed alcune propriet del prodotto scalare di vettori geometrici. Avremo cura di mettere in evidenza quelle propriet che verranno poi inserite nella definizione generale
di prodotto scalare.
il numero reale
Assegnati due vettori geometrici non nulli a e b indicheremo con ab
compreso tra 0 e che misura langolo definito dalle semirette O A e O B, dove il
punto O scelto a piacere e O A, O B sono segmenti orientati che rappresentano
non dipende dalla
rispettivamente a e b (figura 5.1). Non difficile verificare che ab
= 0.
scelta del punto O. Se a oppure b nullo converremo che ab
| a || b | cos (ab).
^
ab
O
b
5 Prodotti scalari
queste due osservazioni, il lettore potr comprendere la precedente uguaglianza. Naturalmente p parallelo al vettore a. utile osservare, in vista di alcune applicazioni
successive, che n = b p un vettore perpendicolare ad a. Ricordiamo che
definizione 5.2 Due vettori geometrici u e v si dicono perpendicolari se sono
| b | cos(ab).
Ogni propriet del prodotto scalare di vettori geometrici pu dunque essere descritta nei termini di una corrispondente propriet della funzione G. Esaminiamo da
entrambi i punti di vista le propriet che ci interessano:
Propriet commutativa
a, b V, a b = b a,
ovvero
G(a, b) = G(b, a)
La propriet segue subito dalla definizione di prodotto scalare geometrico e dal fatto
= ba.
che ab
Propriet distributiva rispetto alla somma di vettori geometrici
a, b, c V, a (b + c) = a b + a c ovvero
G(a, b + c) = G(a, b) + G(a, c)
Si noti che, essendo valida la propriet commutativa, vale anche G(b + c, a) =
G(b, a) + G(c, a).
Propriet di bilinearit
a, b V e R, (a) b = (a b) = a (b), ovvero
G(a, b) = G(a, b) = G(a, b)
= a(b)
e che | v |=| | | v |, dove | |
La propriet segue osservando che (a)b
il valore assoluto del numero reale .
Propriet di positivit
a V, a = 0,
aa>0
Sulla base delle ultime osservazioni svolte possiamo concludere questo paragrafo con
la propriet seguente:
proposizione 5.1 Se i, j, k una base ortonormale di V e se a = a 1 i+a 2 j+a 3 k
5.2
Prodotti scalari
F :V V R
dotata delle seguenti propriet:
1.
2.
3.
4.
propriet commutativa: x , y V , F (x , y ) = F (y , x );
propriet distributiva rispetto alla somma: x , y , z V , F (x , y +
z) = F (x , y ) + F (x , y ) e F (y + z, x ) = F (y , x ) + F (z, x );
propriet di bilinearit : x , y V e R, F (x , y ) = F (x , y ) =
F (x , y );
positivit: deve valere F (x , x ) > 0 per ogni x = 0 e F (0, 0) = 0.
103
5 Prodotti scalari
Per quanto riguarda la propriet distributiva si noti che la seconda parte di tale propriet segue dalla prima parte e dalla propriet commutativa. Essa poteva quindi
essere omessa dalla definizione, ma abbiamo preferito lasciarla in evidenza.
Sia b = b 1 , . . . , b q una base di uno spazio vettoriale V di dimensione q e sia
Fb : V V R
la funzione cos definita: (u, v) V V , Fb (u, v) = u 1 v1 + + u q vq =
i=1,...,q u i vi , dove u = u 1 b 1 + + u q b q e v = v1 b 1 + + vq b q .
La funzione Fb un esempio di prodotto scalare, infatti:
1.
Fb commutativa, infatti Fb (u, v) = u i vi = vi u i = Fb (v, u);
2.
per Fb vale la propriet distributiva, basti osservare che
Fb (u, v + t) =
u i (vi + ti ) =
u i vi +
u i ti =
i=1,...,q
3.
i=1,...,q
i=1,...,q
= Fb (u, v) + Fb (u, t)
qualunque siano i vettori u = u i b i , v = vi b i , t = ti b i ;
per quanto riguarda la propriet di bilinearit abbiamo
(u i )vi =
u i vi = Fb (u, v) =
u i (vi ) =
Fb (u, v) =
= Fb (u, v)
Cambiando la base b con unaltra base a ci si deve aspettare che il prodotto scalare
Fa : V V R
sia diverso dal prodotto scalare Fb . Su uno stesso spazio vettoriale V esistono in effetti
infiniti prodotti scalari. Per convincersene basta considerare un qualsiasi numero reale
k > 0 e la funzione
k Fb : V V R
che associa ad ogni coppia ordinata (u, v) V V il numero reale k Fb (u, v). Per
ogni k > 0 si verifica con molta facilit che la funzione k Fb un prodotto scalare.
Vediamo qualche altro esempio di prodotto scalare.
104
i=1,...,q xi ei
ey =
i=1,...,q yi ei ,
F : Rq Rq R
la funzione cos definita: qualunque siano x = (x 1 , . . . , x q ) e y = (y 1 , . . . , y q )
y
.1
F (x , y ) = (x , . . . , x q )t A A .. . Allora F un prodotto scalare.
1
yq
105
5 Prodotti scalari
x y
.1
..1
uguaglianza alluguaglianza tra matrici trasposte otteniamo A ..
=
. . Quindi si
xq
yq
y
x
1
.
.1
2
2
t
.
ha F (x , x ) = ( x 1 ,...,x q ) A A . = ( y 1 ,...,y q ) .. = y + + y q .
xq
yq
Si noti che A ha rango q e che quindi lunica soluzione del sistema omogeneo determinato
da A la soluzione nulla. Poich x non nullo, x non una soluzione del sistema e quindi
2
almeno un y i diverso da zero. Possiamo dedurre da ci che F (x , x ) =
y i > 0.
Se A = Iq la costruzione riproduce esattamente il prodotto scalare standard dellesempio
precedente. Avremo modo di vedere che ogni prodotto scalare su uno spazio vettoriale di
dimensione nita pu essere denito a partire da una matrice A come la precedente.
5.3
proposizione 5.2 Si ha F (x , y ) = x 1 . . . x q
y
.1
Bu (F ) .. , quali che siano i
yq
vettori x = x 1 u 1 + + x q u q e y = y 1 u 1 + + u q u q di V .
Dimostrazione
La dimostrazione consiste di applicazioni successive della propriet distributiva e di linearit. Indicheremo i passi da compiere tralasciando i dettagli. Innanzitutto si ha
F (x , y ) = F (x , j =1,...,q y j u j ) =
j F (x , u j ) =
j =1,...,q y j F (x , u j ). Daltra parte y
y j F ( i=1,...,q x i u i , u j ) = y j i=1,...,q x i F (u i , u j ) e quindi F (x , y ) =
y
j =1,...,q j
x i y j bi j . Calcolando infine x 1 , . . . , x q Bu (F ) si
i=1,...,q x i F (u i , u j ) =
y
y i,j =1,...,q
1
.
.1
ottiene ( x 1 ,...,x q ) Bu (F ) ..
= ( x 1 b11 ++x q bq 1 ... x 1 b1q ++x q bq q ) .. . Per concluyq
y
.1
dere basta osservare che ( x 1 b11 ++x q bq 1 ... x 1 b1q ++x q bq q ) .. =
yq
106
yq
i, j =1,...,q
x i y j bi j .
( x 1 ...x q
)S
y1
..
.
yq
proposizione 5.3
1.
2.
Dimostrazione
1 2: segue dalla precedente proposizione e dal fatto che F (x , x )
> 0 per ogni x = x 1 u 1 + + x q u q V ;
2 1: fissati uno spazio vettoriale V di dimensione q ed una sua base u = u 1 , . . . , u q
sufficiente considerare la funzione F : V V R cos definita: qualunque
siano
y1
x = x 1 u 1 + + x q u q e y = y 1 u 1 + + y q u q , F (x , y ) = x 1 . . . x q S ... .
yq
F un prodotto scalare su V : ometteremo di provare che F soddisfa le propriet commutativa, distributiva e di linearit, poich la dimostrazione si basa su argomenti standard gi
considerati. Per concludere che F un prodotto scalare rimane allora solo da provare che
F (x , x ) > 0, x = 0. Ma questo segue dalla definizione della funzione F e dal fatto che S
definita positiva. F dunque un prodotto scalare. Per concludere la dimostrazione proviamo che S = Bu (F ) e cio che s i j = F (u i , u j ). A tale scopo si noti che le componenti di
u i (rispettivamente, di u j ) rispetto alla base u sono nulle salvo la i-esima (rispettivamente,
0
..
.
Assegnare un prodotto scalare significa dunque, fissata una base u, assegnare una
matrice simmetrica definita positiva. quindi importante avere dei criteri per ri107
5 Prodotti scalari
conoscere, nellinsieme di tutte le matrici simmetriche di ordine q , quelle definite
positive. Siano S una matrice simmetrica e M una matrice qualsiasi di ordine q ,
facile verificare che allora la matrice t MS M uguale alla propria trasposta e quindi
simmetrica. La successiva propriet sar utile per caratterizzare le matrici simmetriche
definite positive.
proposizione 5.4 Una matrice simmetrica S definita positiva se, e solo se, t MS M
Dimostrazione
xq
tq
sarebbe
X una
soluzione
non nulla del sistema omogeneo di q equazioni in q indeterminate
0
1
..
..
M
=
. ; ci impossibile perch la matrice M dei coefficienti del sistema
.
0
Xq
x1 . . . xq
t1
x1
..
..
t
MS M . = t1 . . . tq S . > 0
xq
tq
ab
bx d
( x1 x2 ) S x1
2
Sia S =
x
2
2
2
Poich x1 x2 S x1 = ax1 +2bx1 x2 +cx2 , S denita positiva se, e solo se, ax1 +2bx1 x2 +
2
cx2 > 0 per ogni x = (x1 , x2 ) non nullo. Sia x2 = 0; condizione necessaria e sufciente
afnch valga la disuguaglianza che sia a > 0. Sia x2 = 0; dividendo la disuguaglianza per
2
108
det S > 0.
a b
b d
La condizione ora osservata nel caso delle matrici simmetriche di ordine due si generalizza ad una condizione valida per matrici simmetriche di ogni ordine. Ricordiamo
innanzitutto la nozione di minore principale di una matrice quadrata.
definizione 5.7 Sia A = (a i j ) una matrice quadrata di ordine q , i minori principali di A sono i determinanti delle sottomatrici di A che si trovano sulla
intersezione delle prime k righe con le prime k colonne, k = 1, . . . , q .
Se per esempio A =
a b
c d
La positivit dei minori principali di una matrice simmetrica S quanto ci basta per
concludere che S definita positiva. Ci esposto nel successivo teorema, noto come
teorema dei minori principali.
teorema 5.2 Una matrice simmetrica S definita positiva se, e solo se, i suoi
minori principali sono tutti positivi.
Dimostrazione
a 11
...
..
.
a q 1,1 . . .
a 1q
X1
0
.. ..
. = .
a q 1,q
Xq
che ha come matrice dei coefficienti la sottomatrice formata dalle prime q 1 righe di A.
Osserviamo in primo luogo che n q = 0. Se infatti fosse n q = 0, allora (n 1 , . . . , n q 1 )
sarebbe una (q 1)-upla non nulla ed inoltre sarebbe una soluzione non nulla del sistema
di q 1 equazioni in q 1 indeterminate
a 11
...
..
.
a q 1,1 . . .
a 1,q 1
a q 1,q 1
X1
0
.. ..
. = .
X q 1
109
5 Prodotti scalari
Si consideri allora la matrice
1 0 ...
0 1 . . .
..
M=
.
0 . . . . . .
0 ... ...
n1
n2
1 n q 1
0 nq
0
0
A O
q
, dove
Calcolando il prodotto di t M per S e poi per M si ottiene t MS M = O1,q 1 q 1,1
c
c una costante e O1.q 1 e Oq 1,1 indicano, come al solito una riga ed una colonna formate
da q 1 zeri. Si osservi che det M = n q = 0 e che quindi M invertibile. Allora, per la Proposizione 5.4, se t MS M definita positiva anche S lo sar. Per concludere la dimostrazione
proveremo dunque che t MS M definita positiva. A tale scopo si osservi che c > 0, infatti
si ha det( t MS M) = (det tM) (det S) (det M) = (det M)2 (det S) = c (det A q ).
Essendo minori principali, det S e det A q sono per ipotesi positivi; lultima uguaglianza
implica quindi c > 0. Si osservi inoltre che, a causa degli zeri disposti sullultima riga e
sullultima colonna di t MS M, si ha
x1
x1
t
2
.
.
x 1 . . . x q MS M .. = x 1 . . . x q 1 A q .. + c x q
xq
x q 1
A q una matrice simmetrica di ordine q 1 i cui minori principali sono positivi per
ipotesi.
x1
..
Per lipotesi di induzione, segue che A q definita positiva e quindi x 1 . . . x q 1 A q
. >
x q 1
1 1 1
1
1 0 1
2
0
0
1 2
1
, 0 1 2 ,
0
3
1
2 4
1
1 2 6
1
0
1
6
2.
1 y x
0 1 2
x 2 5
la matrice Be (F) di un prodotto scalare di R3 rispetto alla base canonica.
110
5.4
In questo paragrafo, ed in varie occasioni successive, lavoreremo su uno spazio vettoriale V sul quale fissato una volta per tutte un prodotto scalare F : V V R scelto tra gli infiniti prodotti scalari definiti su V . Lavoreremo quindi avendo assegnato
la coppia (V, F ) e non solo lo spazio vettoriale V .
definizione 5.8 Uno spazio vettoriale euclideo una coppia (V, F ) dove V
Spazio vettoriale
euclideo
Nel seguito, per indicare il prodotto scalare F (x , y ) dei vettori x e y , useremo spesso
la notazione x , y .
Il simbolo , indicher la funzione prodotto scalare F : V V R. La nozione
di perpendicolarit tra vettori pu essere agevolmente introdotta imitando il caso del
prodotto scalare geometrico:
definizione 5.9 Due vettori u e v di uno spazio vettoriale euclideo V si dicono
Vettori ortogonali
Dimostrazione
j =1,...,r
j v i , v j = i v i , v i .
111
Basi ortogonali
5 Prodotti scalari
Procedimento
di ortogonalizzazione
di Gram-Schmidt
i=1,...,s
v, wi
wi
wi , wi
Dimostrazione
i=1,...,s
v, wi
wi , w j = v, w j
wi , wi
Ci implica n, w j = v, w j v, w j = 0 e pertanto n ortogonale ad ogni w j . Per provare la seconda parte dellenunciato osserviamo innanzitutto che Lin(w1 , . . . , ws , n) S.
Ogni vettore u = u 1 w 1 + + u s ws + u s +1 n di Lin(n, w 1 , . . . , ws ) infatti anche un vettore di S: per verificarlo basta sostituire, in questultima combinazione lineare, n con la sua espressione come combinazione lineare di v, w1 , . . . , ws data nellenunciato. Nello stesso modo si prova che S Lin(w1 , . . . , ws , v). Infatti v combinazione lineare di n, w1 , . . . , ws , come si evince subito dallenunciato. Sia allora t = t1 w 1 +
+ ts w s + ts +1 v S, sostituendo v con la sua espressione come combinazione lineare di n, w1 , . . . , w s , segue che t combinazione lineare di n, w 1 , . . . , w s . Perci t
Lin(n, w1 , . . . , ws ) e vale la precedente inclusione.
Per rendere piu familiare la formula che appare nellenunciato del precedente lemma,
il lettore osservi che per due vettori v, w si ha
n=v
w, v
w
w, w
La formula generale che appare nellenunciato del lemma viene utilizzata, nella dimostrazione del successivo teorema, per costruire un sistema di vettori ortogonali che
generi lo stesso spazio generato da un sistema di vettori assegnato. Tale costruzione
nota come procedimento di Gram-Schmidt.
Sia v = v 1 , . . . , v n un sistema di vettori non tutti nulli di uno
spazio vettoriale euclideo e sia S = Lin(v 1 , . . . , v n ). Allora esiste una base
ortogonale w = w 1 , . . . , ws di S.
teorema 5.3
Dimostrazione
112
w t+1 = v n
i=1,...,s
v, wi
wi
wi , wi
porre w 1 = v 1 ;
2.
porre w 2 = v 2
..
.
k.
..
.
n.
porre w k = v k
w 1 ,v 2
w1 ,w 1 w 1 ;
wi ,v k
i=1,...,k1, wi =0 wi ,wi w i ;
5 Prodotti scalari
2.
Su R3 si scelgano a piacere quattro vettori v1 , . . . , v4 e si applichi ad essi il procedimento di Gram-Schmidt, rispetto al prodotto scalare standard. Si verifichi che
uno dei 4 vettori ottenuti a seguito del procedimento nullo.
Si dia una giustificazione alla seguente propriet: sia V uno spazio vettoriale euclideo e sia v = v1 , . . . , vn un sistema di vettori di V. Se n > dimV allora, dopo
avere applicato il procedimento di Gram-Schmidt a v, qualcuno dei vettori ottenuti
nullo.
definizione 5.11 Sia V uno spazio vettoriale euclideo e sia S V un sottoinsieme non vuoto. Linsieme S := {v V | v, w = 0, u S} un
sottospazio vettoriale di V detto sottospazio ortogonale a S.
Sottospazio ortogonale
aS
Dimostrazione
Sia u = u 1 , . . . , u s una base per S. A meno di applicare il Teorema
5.3, possiamo supporre che u sia una base ortogonale. Dai Teoremi 4.4 e 5.3, u si estende
ad una base ortogonale v = u 1 , . . . , u s , u s +1 , . . . , u n per V . Per definizione di base ortogonale, u s +1 , . . . , u n S . Pertanto, V = S + S ed i vettori u s +1 , . . . , u n S sono
linearmente indipendenti in S perch lo sono in V .
Da quanto osservato precedentemente, poich si ha S S = {0}, allora V = S
S ed il sistema di vettori linearmente indipendenti w = u s +1 , . . . , u n una base per
S .
definizione 5.12 Dato S un sottospazio vettoriale di uno spazio vettoriale eu-
Complemento ortogonale
di S
114
5.5
1
wi
wi , wi
wi , w j = i j .
che u i , u j =
wi ,wi
w j ,w j
5 Prodotti scalari
scalare rispetto adu.
Allora, il prodotto scalare x , y il numero reale x , y =
y1
x 1 , . . . , x n Bu ... . Poich u ortonormale, Bu la matrice identit In quindi
yn
y
y1
1
x , y = ( x 1 ,...,x n ) In ... = ( x 1 ,...,x n ) ... = i=1,...,n x i y i .
yn
yn
Matrice ortogonale
basi qualsiasi. Sia poi , un prodotto scalare su V e siano Bu e Bv rispettivamente le matrici di tale prodotto scalare rispetto alle basi u e v. Allora la relazione
tra le matrici Bu e Bv :
116
Bv = tMuv Bu Muv ,
Dimostrazione
xn
yn
Si osservi inoltre che la trasposta del primo prodotto x 1 , . . . , x n tMuv .
rispetto alla base u, in base u si ha pertanto che x , y =
Poich Bu la matrice di ,
y1
.
x 1 , . . . , x n tMuv Bu Muv .. .
yn
Poich la precedente eguaglianza vale qualunque siano i vettori x e y , possiamo dedurre che
Bv = tMuv Bu Muv . Si osservi infatti che le componenti di v i (rispettivamente, di v j ) rispetto
a v sono nulle salvo quella i-esima (rispettivamente, la j -esima), che
vale
1. La penultima
0
...
eguaglianza implica allora v i , v j = 0 . . . 1i . . . 0 t Muv Bu Muv 1 j .
..
.
0
La relazione [5.1] tra le matrici Bu e Bv molto importante e svolger un ruolo fondamentale anche in altri argomenti che affronteremo in seguito (cap. 11). Abbiamo
infatti la seguente situazione pi generale:
definizione 5.15 Due matrici A e B, n n, si dicono congruenti se esiste una
B = tM A M.
117
Matrici congruenti
5 Prodotti scalari
Dal Teorema 5.4 abbiamo quindi che, dato uno spazio vettoriale euclideo V , le
matrici di un prodotto scalare rispetto a due qualsiasi basi di V sono congruenti.
In particolare, rispetto a basi ortonormali si ha:
teorema 5.5 Sia V uno spazio vettoriale di dimensione finita e siano u e v due
sue basi ortonormali rispetto ad uno stesso prodotto scalare , su V . Allora la
matrice del cambiamento di base Muv una matrice ortogonale.
Dimostrazione
Dato V uno spazio vettoriale euclideo, in cui si assume fissato una volta per tutte
un prodotto scalare , , vogliamo discutere alcune propriet notevoli di tale spazio
che assumono delle formulazioni particolarmente semplici nel caso in cui su V si
consideri fissata una base ortogonale (in particolare, ortonormale). Abbiamo bisogno
prima di alcuni preliminari.
Norma di un vettore
vettore.
La norma (o lunghezza) di v il numero reale non negativo || v ||:=
v, v.
Disuguaglianza
di Schwarz
y1 + + yn
118
A partire dalla disuguaglianza di Schwarz, possiamo dare una nozione di angolo convesso fra due vettori non nulli di uno spazio vettoriale euclideo V , estendendo cos quanto considerato nel caso di vettori geometrici (par. 5.1). Siano u e v due
vettori non nulli di V . immediato verificare che la diseguaglianza di Schwarz
equivalente a:
[5.3]
Angoli e proiezioni
ortogonali di vettori
su sottospazi
u, v
1
||u|| ||v||
per ogni u e v come sopra. Grazie al fatto che la funzione coseno monotona
strettamente decrescente (quindi invertibile) nellintervallo reale [0, ], abbiamo:
definizione 5.17 Dati due vettori non nulli u e v in uno spazio vettoriale eucli-
cos :=
u, v
.
||u|| ||v||
In altre parole, denotata con arccos : [1, 1] [0, ] la funzione inversa della
u,v
funzione coseno nellintervallo in questione, abbiamo che := arccos( ||u||||v||
).
Osservazione 5.1
Come semplici conseguenze della precedente denizione, ri- tra i due vettori, langolo convesso da essi formato e le loro
troviamo che u e v sono ortogonali se, e solo se, langolo con- norme:
vesso da essi formato = /2. Inoltre, da [5.5], otteniamo
una semplice relazione che lega il prodotto scalare
[5.6]
u, v = ||u|| ||v|| cos (u, v)
119
5 Prodotti scalari
Proiezioni ortogonali
su sottospazi
[5.7]
v (u) = u v, dove
[5.8]
(ii)
u :=
u, v
||u||
=
cos (u, v) R
||v||
||v||2
(ii)
v = vU + vU , con vU U, vU U
U (v) =
v, u 1
v, u 2
v, u k
u1 +
u2 + . . . +
uk
u 1 , u 1
u 2 , u 2
u k , u k
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).
121
Soluzioni
5 Prodotti scalari
Quesiti ed esercizi
1.
Nello spazio vettoriale euclideo R2 , munito di base canonica e, e di prodotto scalare standard, si consideri il vettore
u = (1, 1) espresso nelle sue componenti rispetto ad e.
Determinare tutti i vettori x che sono ortogonali ad u e con
norma uguale a 2.
4.
Nello spazio vettoriale euclideo R3 , munito del prodotto scalare standard, siano dati i vettori v1 = (1, 2, 1), v2 =
(1, 0, 1), v3 = (1, 2, 0) espressi rispetto alla base
canonica e:
(i)
determinare ||v1 ||, il prodotto scalare v1 , v2 ed il
2.
3
coseno dellangolo formato da v2 e v3 ;
Sia R lo spazio vettoriale euclideo, munito di prodotto
(ii)
determinare tutti i vettori ortogonali a Lin (v1 , v2 ) e
scalare standard e di base canonica e.
tutti i vettori ortogonali a v3 .
Sia U R3 il sottoinsieme delle soluzioni del sistema
lineare X1 + X2 + 2X3 = X1 X2 + X3 = 0:
5.
(i)
giusticare che U un sottospazio vettoriale di R3 ; Nello spazio vettoriale euclideo R3 , munito del prodotto sca(ii)
determinare una base ortonormale di U;
lare standard, determinare il vettore proiezione ortogonale
(iii)
denotato con U il complemento ortogonale di U in del vettore v1 = (1, 1, 0) sul vettore v2 = (1, 0, 1), dove
R3 , determinare unequazione lineare in X1 , X2 e X3 ambedue i vettori sono espressi rispetto alla base canonica e.
6.
che rappresenti U ;
(iv)
utilizzando il procedimento di ortonormalizzazio- Sia R3 lo spazio vettoriale euclideo, munito di base canonica
ne di Gram-Schmidt, estendere la base ortonor- e, e prodotto scalare standard:
male di U determinata nel punto (ii) ad una base
ortonormale di R3 .
(i)
determinare una base ortonormale f di R3 costruita
a partire dalla base b := v1 , v2 , v3 , dove
3.
Sia F : R2 R2 R la funzione sullo spazio vettoriale R2
v1 = (1, 0, 1), v2 = (0, 1, 1), v3 = (0, 1, 1)
2
denita da: x, y R , F(x, y) := 2x1 y1 +x2 y1 +x1 y2 +x2 y2 ,
vericare che la matrice cambiamento di base Mef
dove x = (x1 , x2 ) e y = (y1 , y2 ) denotano le componenti dei (ii)
ortogonale.
vettori dati rispetto alla base canonica e:
(i)
(ii)
122
7.
Nello spazio vettoriale euclideo R3 , munito del prodotto scalare standard, determinare la proiezione ortogonale del vettore v = (0, 1, 2) sul sottospazio W generato dai vettori
v1 = (1, 1, 0) e v2 = (0, 0, 1).
6
Spazi euclidei
6.1
I capitoli precedenti di questo testo di geometria sono stati dedicati allo studio di
argomenti solo in parte geometrici, come per esempio le matrici od i sistemi di equazioni lineari. ora tempo di utilizzare il lavoro svolto per fare della geometria vera e
propria: a tale scopo necessario aggiungere le nozioni di punto e di spazio a fianco
delle nozioni gi considerate di vettore e di spazio vettoriale.
La nozione generale di spazio affine la prima che dobbiamo introdurre: ancora
una volta sar conveniente premettere alcune osservazioni riguardanti lo spazio V
dei vettori geometrici e lo spazio S dei punti della geometria di Euclide.
Ricordiamo che per ogni coppia (v, P ), costituita dal vettore geometrico v e dal
punto P di S, esiste un unico punto Q S tale che v la classe di equipollenza del
segmento orientato P Q. Dora in poi Q verr indicato con la notazione v +t P e si
chiama traslato di P parallelamente al vettore geometrico v. Ogni vettore geometrico
v determina in particolare una corrispondenza biunivoca t v : S S cos definita:
P S, t v (P ) = v +t P . La corrispondenza t v si chiama traslazione parallela a v.
Possiamo riassumere in una forma pi astratta le precedenti costruzioni considerando
il prodotto cartesiano V S e la funzione t : V S S definita nel seguente modo:
(v, P ) V S : t (v, P ) = v +t P .
Le propriet di t rilevanti per il seguito sono semplicemente le seguenti:
1.
2.
3.
4.
P S: 0 +t P = P ;
v, w V e P S: v +t (w +t P ) = (v + w) +t P ;
v, w V e P S: v +t P = w +t P = v = w;
(P , Q) S S: v V t.c.v +t P = Q.
6 Spazi euclidei
definizione 6.1 Una funzione a : V S S unazione per traslazioni dello
sia P S allora 0 +a P = P ;
siano v, w V e sia P S allora v +a (w +a P ) = (v + w) +a P ;
siano v, w V e sia P S allora v +a P = w +a P = v = w;
per ogni coppia ordinata (P , Q) S S esiste v V tale che v +a
P = Q.
124
definizione 6.2 Uno spazio affine relativo ad uno spazio vettoriale V un in-
sieme non vuoto S sul quale sia stata fissata unazione per traslazioni
Spazio afne
a :V SS
La dimensione dello spazio affine S per definizione la dimensione di V .
Pi precisamente si dovrebbe dire che uno spazio affine relativo a V una coppia
(S, a ), dove S un insieme non vuoto ed a unazione per traslazioni di V su S. La definizione data tuttavia pi maneggevole per lesposizione. Gli elementi dellinsieme
S verranno chiamati dora in poi punti dello spazio affine S.
Sia v V . La traslazione parallela a v la funzione tv : S S cos definita: per
ogni P S, t v (P ) = v +a P .
Si noti che t0 (P ) = P per ogni P , in altre parole to la funzione identit di S.
definizione 6.3 Sia S un insieme e f : S S una funzione. Ogni elemento
proposizione 6.1
Dimostrazione
Un esempio geometrico elementare di funzioni dotate di un unico punto fisso rappresentato dalle omotetie. Siano C un punto di S e k una costante reale diversa da 0
e 1, una omotetia di centro C e rapporto k la funzione o C,k : S S cos definita:
P S, o C,k (P ) = C +a k(P a C ).
125
Traslazione e omotetie
di uno spazio afne
6 Spazi euclidei
proposizione 6.2 Ogni omotetia o C,k ha come unico punto fisso il centro C ed
1
(Q a C ) = C +a (Q a C ) = Q
o C,k (P ) = C +a k
k
Dimostrazione
Dimostrazione
La posizione di due rette sghembe in uno spazio affine descritta dalla seguente
126
e r 2 sono rette sghembe se, e solo se, i tre vettori v 1 , v 2 , Q 1 a Q 2 sono linearmente
indipendenti.
Dimostrazione
Baster provare che v 1 , v 2 , Q 1 a Q 2 sono linearmente dipendenti se,
e solo se, r 1 e r 2 sono parallele oppure incidenti. Ora questi tre vettori sono linearmente
dipendenti se, e solo se, lequazione t1 v 1 + t2 v 2 + t3 (Q 1 a Q 2 ) = 0 ha una soluzione non
nulla. Equivalentemente: o t3 = 0 oppure t3 = 0 e v 1 , v 2 sono vettori paralleli. Questultimo
caso si verifica se, e solo se, r 1 e r 2 sono parallele e distinte. Invece il caso t3 = 0 si verifica se,
t
Uno spazio vettoriale di dimensione due non contiene tre vettori linearmente indipendenti. Quindi un piano affine non contiene rette sghembe e vale il seguente
corollario 6.1 In un piano affine due rette o sono parallele o sono incidenti.
Segmenti e simplessi
A B = {P S | P = t (B a A) +a A, 0 t 1}.
u 1 , u 2 0}
127
Inviluppo convesso e
coordinate baricentriche
Variet lineari
6 Spazi euclidei
Lunico sottospazio W di dimensione zero quello generato da 0. In questo caso L costituito da un solo punto Q e quindi le variet lineari di
dimensione zero sono i punti dello spazio affine S.
Le variet lineari di dimensione uno sono esattamente le rette. Precisamente,
una variet lineare L ha dimensione uno se, e solo se, W generato da un
vettore non nullo v. Ci equivale a dire che
L = {P S | P = tv +a Q, t R}
Per esempio le rette contenute in un piano affine S sono gli iperpiani di S, i piani di
uno spazio affine tridimensionale S sono gli iperpiani di S e cos via. Si osservi infine
che la dimensione di una variet lineare sempre inferiore alla dimensione dello
spazio ambiente in cui essa contenuta. Ci segue dal fatto che ogni sottospazio
W V ha dimensione inferiore a quella di V .
Lo studio di una variet lineare L contenuta in S potr essere compiuto pi concretamente dopo che avremo fissato su S un sistema di riferimento cartesiano. Vedremo
allora che i punti di L sono esattamente quei punti di S le cui coordinate cartesiane
soddisfano un dato sistema di equazioni lineari. Per questo motivo L prende il nome
di variet lineare e rappresenta, in un certo senso, una maniera pi geometrica di
pensare allinsieme delle soluzioni di tale sistema.
Pi in generale lo studio geometrico di uno spazio affine pu essere affrontato usando
il metodo delle coordinate cartesiane.
In uno spazio affine comunque possibile ragionare di geometria anche per via sintetica e cio senza ricorrere alluso di un sistema di riferimento, dimostrando in modo
elegante molte propriet e teoremi. Questo ed altri aspetti maggiormente astratti della
teoria degli spazi affini esulano tuttavia dalle finalit del testo.
6.2
Coordinate cartesiane
definizione 6.7 Un sistema di riferimento cartesiano su uno spazio affine S
Sistema
di riferimento cartesiano
128
Useremo spesso le espressioni abbreviate coordinate e sistema di riferimento, omettendo laggettivo cartesiano. il caso inoltre di sottolineare che (x 1 , . . . , x n ) una
singola n-upla ordinata di numeri reali. Tuttavia per tale n-upla si usa lespressione
coordinate cartesiane di P perch, con qualche imprecisione, si fa riferimento allinsieme costituito dai termini x 1 , . . . , x n pi che alla singola n-upla. Il punto O viene
chiamato origine del sistema di riferimento (O, u). Poich O a O il vettore nullo
le coordinate di O sono tutte uguali a zero.
Fissato un sistema di riferimento (O, u) sia c : S Rn la funzione che ad ogni
punto P S associa la n-upla c (P ) delle sue coordinate rispetto a (O, u). Vale
allora la seguente
Rn stabilisce una corrispondenza biunivoca tra linsieme dei punti di S e linsieme delle n-uple ordinate di numeri reali.
proposizione 6.5 c : S
Dimostrazione
La proposizione asserisce che, fissato un sistema di riferimento (O, u), ogni punto P dello spazio S completamente individuato dalle sue coordinate c (P ) =
129
Coordinate cartesiane
6 Spazi euclidei
( p 1 , . . . , p n ). In particolare linsieme costituito dal solo punto P pu anche essere definito come linsieme dei punti di S le cui coordinate soddisfano al sistema di
equazioni:
X 1 p 1 = 0, . . . , X n p n = 0
Pi in generale, dopo avere fissato un sistema di riferimento e coordinate per i punti
di S, avremo la possibilit di descrivere vari sottoinsiemi di S mediante opportuni
sistemi di equazioni. Sia per esempio T S il sottoinsieme dei punti P S che
hanno almeno una coordinata uguale a zero. Allora T non altro che linsieme dei
punti che soddisfano allequazione X 1 X n = 0.
Sia invece S un piano affine e sia D linsieme costituito dai due punti di coordinate
(1, 1) e (1, 1), non difficile verificare che D linsieme dei punti di S le cui
2
2
coordinate soddisfano alle equazioni X 1 + X 2 = 2 , X 1 X 2 = 0.
Viceversa sia S uno spazio affine sul quale sia stato fissato un sistema di riferimento
(O, u). Assegnato un sistema di p equazioni
F1 (X 1 , . . . , X n ) = = F p (X 1 , . . . , X n ) = 0
nelle indeterminate X 1 , . . . , X n , si pone il problema di descrivere il sottoinsieme
T S costituito dai punti P le cui coordinate soddisfano le precedenti equazioni.
definizione 6.9 Seguendo luso diremo che T il luogo definito dal sistema
Naturalmente L vuoto se il sistema non ammette soluzioni. Abbiamo appena provato che il luogo definito da un sistema compatibile di equazioni lineari una variet
lineare. Viceversa abbiamo:
proposizione 6.7 Ogni variet lineare L S il luogo dei punti P di S le cui
Dimostrazione
131
6 Spazi euclidei
k vettori sono proprio w 1 , . . . , w k . Indichiamo con w tale base ordinata e consideriamo il
sistema di riferimento (U, w) dove U un punto di L. Rispetto a tale sistema di riferimento,
L il luogo dei punti P di coordinate c (P ) = (y 1 , . . . , y n ) tali che y k+1 = 0, . . . , y n = 0.
Osserviamo infatti che per ogni punto P di coordinate (y 1 , . . . , y n ) si ha P a U = y 1 w1 +
+ y n wn .
Ora P appartiene a L se e solo se P a U W e cio se e solo se P a U combinazione
lineare dei primi k vettori w 1 , . . . , wk . Ci equivale a dire che y k+1 = = y n = 0.
Indicando con (x 1 , . . . , x n ) le coordinate di P rispetto al sistema di riferimento (O, u)
abbiamo daltra parte P a U = (x 1 u 1 )u 1 + + (x n u n )u n dove (u 1 , . . . , u n )
sono le coordinate di U rispetto a (O, u). Sia infine A la matrice del cambiamento di base
dalla base ordinata
base ordinata
y w; dalla propriet fondamentale di tale matrice segue
u alla
x 1 u 1
.1
..
= .. .
luguaglianza A
.
x n u n
yn
teorema 6.1
1.
2.
e siano
a 11 X 1 + + a 1n X n b 1 = = a p1 X 1 + + a pn X n b p = 0
le sue equazioni rispetto ad un sistema di riferimento assegnato. Allora la dimensione di L n r , dove r il rango della matrice dei coefficienti del precedente
sistema di equazioni lineari.
6.3
La geometria di Euclide fa uso della nozione di distanza tra punti e fissa quindi, sullo
spazio S, una unit di misura della lunghezza dei segmenti. Le propriet metriche
sono, in senso lato, quelle che hanno a che fare con la distanza. Pi precisamente,
si pu considerare linsieme delle isometrie di S, cio linsieme delle corrispondenze
biunivoche f : S S che preservano la distanza: ci vuol dire che per ogni coppia
di punti P , Q S la distanza di P da Q deve essere uguale alla distanza di f (P ) da
f (Q). Due sottoinsiemi di S si dicono congruenti o isometrici se luno immagine
dellaltro mediante una isometria. Le propriet metriche di un sottoinsieme T di S
sono infine quelle comuni a T e ad ogni sottoinsieme T congruente a T. Lo studio
della geometria di Euclide si basa proprio sul principio di determinare le propriet
metriche dei sottoinsiemi di S.
Ancora una volta ci proponiamo di estendere e studiare tutte queste nozioni in un ambito pi vasto (par. 6.5, in particolare Definizione 6.23). Per fare questo, dobbiamo
quindi introdurre in uno spazio affine S la nozione di distanza tra punti.
Nel caso particolare di S e dello spazio V dei vettori geometrici possiamo osservare che
la distanza d (P , Q) tra i punti P e Q pu essere anche definita nel modo seguente:
Spazio euclideo
6 Spazi euclidei
d (P , Q) 0;
d (P , Q) = d (Q, P );
d (P , Q) = 0 se, e solo se, P = Q.
Unaltra propriet fondamentale della distanza d , valida per ogni spazio euclideo S,
la cosiddetta disuguaglianza triangolare: siano A, B, C punti qualsiasi di S allora
d (A, C ) d (A, B) + d (B, C ).
Per dimostrarla, possiamo utilizzare la diseguaglianza di Schwarz (Teorema 5.6). Posto infatti u := C a B e v := B a A abbiamo d (A, C )2 = u + v, u + v =
d (A, B)2 + d (B, C )2 + 2u, v.
Per la disuguaglianza di Schwarz, abbiamo u, v2 u, u v, v = d (A, B)2
d (B, C )2 e cio u, v | u, v | d (A, B)d (B, C ).
Da questultima disuguaglianza e dalla prima uguaglianza segue allora
d (A, C )2 d (A, B)2 + d (B, C )2 + 2d (A, B)d (B, C ) =
= (d (A, B) + d (B, C ))2
che prova lasserto. Il lettore potr determinare facilmente tutti i casi in cui vale
luguaglianza.
definizione 6.12 Sia S uno spazio euclideo; un sistema di riferimento ortonor-
Ipersfere
= {P S | d (P , C ) = r }.
6.4
Trasformazioni afni
Tra le corrispondenze biunivoche di uno spazio affine S ve ne sono alcune che hanno
un particolare significato geometrico e talvolta maggiore semplicit. Tra queste abbiamo gi incontrato le traslazioni e le omotetie. Nel caso poi in cui S sia uno spazio
euclideo S, abbiamo inoltre menzionato le isometrie, ovvero quelle corrispondenze
biunivoche che preservano la distanza tra due punti (par. 6.3).
Tutte queste corrispondenze rappresentano esempi particolari della pi generale nozione di trasformazione affine, che verr definita e studiata in questa sezione.
Nel seguito diremo che una funzione (equivalentemente, unapplicazione) f : S S
trasforma il sottoinsieme I di S in I se I linsieme immagine di I mediante la
funzione f ovvero se I = f (I ).
135
6 Spazi euclidei
definizione 6.13 Sia f : S S una corrispondenza biunivoca. Diremo che
Sottoinsiemi afnemente
equivalenti.
Propriet afni
Osservazione 6.2
La propriet di trasformare rette parallele in rette parallele per esempio c un numero reale non nullo e sia g : S S
condizione necessaria ma non sufciente a caratterizza- una corrispondenza biunivoca soddisfacente alla seguente
re le afnit tra tutte le corrispondenze biunivoche di S. Sia propriet:
136
proposizione 6.10 Unaffinit f trasforma il segmento di estremi A e B nel segmento di estremi f (A) e f (B).
Dimostrazione
CD
AB
g (C )g (D)
g (A)g (B)
qualunque siano i
segmenti paralleli A B e C D.
Tra gli ordinamenti che possibile fissare sullinsieme dei punti di un segmento di
estremi A e B ci sono in particolare i due cos definiti:
sul quale sia stato fissato uno dei due orientamenti naturali. Per indicare che
6 Spazi euclidei
Diremo che i segmenti orientati A B e C D sono concordi se A = B, C = D e se vale
t (B a A) = (D a C ), con t > 0. In caso contrario A B e C D si dicono discordi.
definizione 6.18 Diremo che una corrispondenza biunivoca g : S S trasfor-
Ometteremo la non difficile dimostrazione di questo teorema per passare allo studio
delle trasformazioni affini dal punto di vista delle loro equazioni.
Equazioni
di una trasformazione
afne
i = 1, . . . , n
2.
Traslazioni ed omotetie sono esempi di questo tipo; come abbiamo visto esse possono
essere definite mediante un sistema di equazioni lineari
Y1 = b 1 + a 11 X 1 + + a 1n X n , . . . , Yn = b n + a n1 X 1 + + a nn X n
Questa propriet caratterizza le trasformazioni affini tra tutte le corrispondenze biunivoche di S ed questa propriet che le rende particolarmente importanti.
teorema 6.3 Una corrispondenza biunivoca f : S S unaffinit se, e solo
se, ha equazioni lineari rispetto al sistema di riferimento assegnato.
Dimostrazione
U0 = O,
U1 = u 1 +a O,
U2 = u 2 +a U1 , . . . , Un = u n +a Un1
139
6 Spazi euclidei
Sia poi P il punto di coordinate ( p 1 , . . . , p n ); analogamente siano
P0 = O,
P1 = p 1 u 1 +a O,
P2 = p 2 u 2 +a P1 , . . . , Pn = p n u n +a Pn1
i=1,...,n ( f (P )i
i=1,...,n
p i vi .
i=1,...,n ( f i
e i )u i , H a G =
i=1,...,n (h i
g i )u i .
Afnit e matrici
Abbiamo visto nel corso della dimostrazione precedente che, fissato un qualunque
riferimento (O, u) su S, una trasformazione affine ha equazioni lineari
Yi = bi + a i1 X 1 + + a in X n
i = 1, . . . , n
Afnit lineari
proposizione 6.11
invertibile.
Dimostrazione
q1
b1
.
..
Sia P = f 1 (Q), questo vuol dire che f (P ) = Q e cio che .. =
. +
qn
bn
p1
.
A .. , dove P = ( p 1 , . . . , p n ) e Q = (q 1 , . . . , q n ). Moltiplicando per A 1 , si
pn
c
b
q1
c 1
p 1
1
1
.
.
.
ottiene A 1 .. + .. = .. , dove abbiamo posto ... = A 1 ... .
q
p
c
n
f 1
cn
bn
La corrispondenza biunivoca
dunque definita dalle equazioni lineari
Y1
c1
X1
.. ..
1 ..
. = . + A .
Yn
cn
Xn
In particolare ci prova che f 1 unaffinit. Dora in poi indicheremo con A f f (S)
linsieme delle affinit di S e lo chiameremo gruppo delle affinit di S. Sia poi G L(n)
141
6 Spazi euclidei
il gruppo lineare, cio linsieme delle matrici invertibili di ordine n. Fissato un sistema
di riferimento (O, u) possiamo considerare la funzione
: A f f (S) G L(n)
che ad una affinit f A f f (S) associa la matrice A = ( f ) costruita come sopra
a partire da f . Vediamo come propriet particolari di f corrispondono a propriet
particolari di A in vari casi.
1.
2.
3.
Traslazioni: A = In .
Se A la matrice identit le equazioni di f sono Yi = bi + X i , i = 1, . . . , n.
In particolare f la traslazione parallela al vettore b 1 u 1 + + b n u n .
Omotetie: A = k In , k = 0, 1.
Le equazioni di f sono Yi = bi + k X i , i = 1, . . . , n. In particolare f fissa
b1
bn
, . . . , 1k
) ed lomotetia di centro C e rapporto k.
il punto C = ( 1k
Involuzioni: A A = In .
Le involuzioni sono quelle affinit f : S S tali che f f la funzione
identica, in altre parole esse sono caratterizzate dalla propriet seguente: P
S, f ( f (P )) = P . Ponendo, nel caso precedente, k = 1 si ottiene la
simmetria di centro C che un semplice esempio di involuzione.
Fissando un sistema di riferimento e scrivendo le equazioni di f nella forma
di un prodotto
che valga f ( f (P )) = P per ogni
dimatrici,
la condizione
p1
p1
b1
b1
..
..
..
..
P diventa:
=
per le coordinate
+ AA .
.
. + A .
pn
pn
bn
bn
b1
.
=
( p 1 , . . . , p n ) di P . Questo equivale a dire che A A = In e che A ..
b1
..
.
bn
bn
tutte le affinit.
Punti ssi di unafnit
linsieme vuoto.
Sia f unaffinit e siano Yi = bi + a i1 X 1 + + a in X n , i = 1, . . . , n,
le sue equazioni rispetto ad un sistema di riferimento assegnato. Un punto P S soddisfa
la condizione f (P ) = P se, e solo se, le sue coordinate soddisfano il sistema di equazioni
lineari X i = bi + a i1 X 1 + + a in X n , i = 1, . . . , n.
Dimostrazione
Linsieme F dei punti fissi di f dunque definito da tali equazioni ed quindi una variet
lineare se il sistema compatibile. In caso contrario F vuoto.
142
6.5 Isometrie
6.5
Isometrie
In questa sezione S sar uno spazio euclideo; sar dunque fissato sullo spazio V dei
vettori di S un prodotto scalare , . Vogliamo estendere alcuni dei concetti introdotti allinizio del paragrafo 6.3, nel caso in cui S = S era lo spazio dei punti della
geometria euclidea.
Come sappiamo dalla Definizione 6.11, la nozione di distanza si ha pi generalmente
in un qualsiasi spazio euclideo S. evidente che, tra le corrispondenze biunivoche g :
S S, hanno particolare interesse quelle che preservano la distanza. Una propriet
in qualche misura inaspettata che tali funzioni sono tutte trasformazioni affini e
quindi definite da equazioni lineari.
definizione 6.22 Una corrispondenza biunivoca g : S S si dice isometria se
e solo se,
[]
Come fatto nella Definizione 6.14 per le affinit, introduciamo una terminologia
fondamentale per gli argomenti trattati nei capitoli 12, 13 e che estende al caso generale di S spazio euclideo quanto introdotto allinizio di paragrafo 6.3, nel caso di
S spazio dei punti della geometria euclidea.
143
Isometrie
6 Spazi euclidei
Sottoinsiemi congruenti
(o isometrici).
Propriet metriche
Data g unisometria, fissiamo arbitrariamente un punto O S e definiamo unapplicazione g : V V ponendo, per ogni punto P S, g (P a O) :=
g (P ) a g (O).
Dimostrazione
144
6.5 Isometrie
Pertanto, g (T) a g (R) = t (g (Q) a g (P )); dalla Definizione 6.13, questo mostra che g
unaffinit.
Non vero invece che ogni affinit unisometria. Per esempio tutte le omotetie di
rapporto k, con k = 1, sono esempi di affinit che non possono essere isometrie, dato che la distanza dal centro C non viene conservata. Nei successivi capitoli
studieremo anche altre trasformazioni che sono prettamente delle affinit (par. 7.6 e
par. 8.6).
Ricordando la Definizione 5.14, vogliamo dimostrare che in un riferimento ortonormale per S le isometrie corrispondono alle matrici ortogonali. Precisamente:
teorema 6.6 Sia (O, u) un sistema di riferimento ortonormale e sia f : S S
laffinit di equazioni
[6.2]
Y1
b1
X1
.. ..
..
. = . + A .
Yn
bn
Xn
Dimostrazione
p 1 q1
d (P , Q)2 = P a Q, P a Q = ( p 1 q 1 , . . . , p n q n ) ...
p n qn
p
Si osservi daltra parte che la colonna delle componenti di f (P ) a f (Q) A
1 q 1
..
.
p n q n
p 1 q1
d ( f (P ), f (Q))2 = ( p 1 q 1 , . . . , p n q n ) tA A ... =
=
p n qn
m i j ( p i q i )( p j q j )
1i, j n
145
Isometrie e matrici
ortogonali
6 Spazi euclidei
Dopo queste osservazioni preliminari, possiamo passare alla dimostrazione del teorema. Se
A ortogonale tA A = In e, dalla precedente uguaglianza, abbiamo d (P , Q)2 = d ( f (P ),
f (Q))2 quindi f unisometria. Se viceversa f unisometria allora d ( f (P ), f (Q))2 =
d (P , Q)2 qualunque siano i punti P e Q. Per la precedente uguaglianza ci vuol dire che
2
i=1,...,n ( p i q i ) =
1i, j n m i j ( p i q i )( p j q j ) qualunque siano P e Q. Ponendo in
2
particolare Q = O vale allora i=1,...,n p i = 1i, j n m i j p i p j per ogni ( p 1 , . . . , p n )
Rn . Da ci segue subito che m ii = 1 e che m i j = 0 se i = j . Quindi tA A = (m i j ) = In
ed A una matrice ortogonale.
Osservazione 6.5
Notiamo che, sempre dal Teorema di Binet, la composizione nale speciale, mentre quella di unisometria inversa si didi due isometrie dirette (rispettivamente, inverse) sempre ce ortogonale non speciale. Pertanto le matrici ortogonali
unisometria diretta.
si suddividono in due classi disgiunte: le speciali e le non
speciali. In particolare, la matrice identit In appartiene alla
La matrice A di unisometria diretta si dice matrice ortogo- classe delle matrici ortogonali speciali.
Come nella Definizione 6.21 concludiamo con il menzionare alcuni casi particolari,
ma importanti, di isometrie.
definizione 6.25 Sia f unisometria come in [6.2]. Se b i = 0, per ogni i =
Isometrie lineari
Osservazione 6.6
Come nellOsservazione 6.4, unisometria f lineare se, e so- mazione afne di S che preserva lo spazio vettoriale V dei
lo se, f(O) = O. Pertanto, dalla Proposizione 6.10 e dal Teo- vettori di S.
rema 6.2, unisometria lineare in particolare una trasfor-
146
6.6
[6.3]
vi =
,1 i n
a ni
allora:
(i)
(ii)
Or (v 1 , v 2 , . . . , v n ) = A
6 Spazi euclidei
volta che scambiamo di posto a due vettori della base, bisogna moltiplicare per 1 il
precedente valore di orientazione.
In particolare, abbiamo anche:
definizione 6.27 Sia v = v 1 , v 2 , . . ., v n una base per V . Se Or (v 1 , v 2 , . . . , v n )
uguale a:
(i)
(ii)
Date ora due basi v e w di V , se sia v che w sono (rispettivamente, non sono)
equiorientate con e , allora diremo che v e w sono equiorientate fra loro. In effetti,
questa definizione naturale dato che compatibile con il fatto che, in tale situazione, si ha: Mvw = Mve Me w . Pertanto, dal Teorema di Binet (Teorema 3.8),
det M
det Mvw = (det Mve )(det Me w ) = det Meewv , che sempre positivo. In definitiva,
lequiorientazione di basi una relazione di equivalenza sullinsieme BV delle basi di
V . Precisamente, V possiede esattamente due orientazioni, cio BV ripartito in due
insiemi disgiunti BV+ , contenente tutte le basi equiorientate con e , e BV , contenente tutte quelle non equiorientate con e . Per ogni coppia di basi v e w prese in BV+
(rispettivamente, BV ) esse sono equiorientate fra loro.
Esempio 6.6 Basi di Rn ed orientazione
Nei capitoli successivi, utilizzeremo queste nozioni principalmente nel caso V = Rn ed e la
base canonica. Se per esempio v = v1 , v2 , . . . , vn una qualsiasi base ortonormale di Rn ,
rispetto al prodotto scalare standard, se A = Mev allora Or(v1 , v2 , . . . , vn ) = detA, dato
che in tal caso A una matrice ortogonale, quindi il suo determinante 1. Il fatto che v
stia in B +n o meno dipender dal fatto che A sia una matrice ortogonale speciale o meno
R
(Osservazione 6.5).
Vediamo ora come varia la propriet di orientazione rispetto alla base e quando applichiamo delle affinit lineari o delle isometrie lineari ai vettori della base v (Osservazioni 6.4 e 6.6). Il seguente risultato immediata conseguenza del Teorema di
Binet (Teorema 3.8) e della Definizione 6.26.
proposizione 6.13 Siano V , e e v come sopra. Sia B una qualsiasi matrice n n
det B
2
2
2
Siano dati v1 =
e v2 =
2
2
2
2
= 1 > 0; pertanto anche
Se invece prendiamo w1 =
e w2 =
Or (w1 ,w2 ) = 1, cio w = w1 ,w2 una base ortonormale non equiorientata con e. In
effetti, come otteniamo la base w dalla base canonica e, per mezzo di unisometria lineare?
Per esempio, compiamo prima la rotazione R in senso antiorario di angolo /4 portando
la base canonica e nella base v, come sopra. Poi, alla base v applichiamo la trasformazione S di riessione rispetto al vettore v1 . In particolare avremo w1 = S(v1 ) = v1 mentre
w2 = S(v2 ) = v1 . Perci w ottenuta da e prima per mezzo della rotazione R e poi applicando alla base intermedia v la riessione S. facile vericare che det S = 1 (come
ogni riessione ha, Corollario 7.6). Pertanto la trasformazione composta che porta e in w
la trasformazione S R che, per il Teorema di Binet (Teorema 3.8), ha determinate 1.
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).
Soluzioni
Quesiti ed esercizi
1.
Nello spazio afne R3 , con riferimento (O, e), siano date:
(i)
(ii)
149
6 Spazi euclidei
2.
Nel piano afne R2 , con riferimento (O, e), sono assegnati i punti P = (1, 2), Q = (2, 1) e R = (1, 0). Dopo aver
vericato che i 3 punti formano i vertici di un triangolo , determinare le coordinate del baricentro B di . Determinare
inne equazioni che descrivano le tre mediane di .
3.
Nel piano afne R2 , con riferimento (O, e), sia dato il triangolo di vertici O = (0, 0), A = (1, 0) e B = (0, 1). Si
considerino i parallelogrammi:
6.
Nel piano afne R2 , con riferimento cartesiano (O, e), data
la retta r rappresentata dallequazione X1 + X2 = 1. Determinare tutte le afnit di R2 che ssano tutti i punti di r e
OABC, avente OA ed AB per lati ed OB per diagonale; che trasformano il punto P = (1, 2) nel punto Q = (2, 1).
L1 := {(1 + + , 2 + , 3 + , 4) | , R};
L2 := {(4, 3, 2, + 1) | R}.
150
7
Geometria del piano cartesiano
In questo capitolo focalizzeremo la nostra attenzione sulla geometria del piano cartesiano.
7.1
Vogliamo qui discutere alcuni semplici aspetti della geometria dello spazio vettoriale
euclideo (R2 , , ), dotato del prodotto scalare standard , come nellEsempio 5.2 e della base canonica e come nella Definizione 4.23.
proposizione 7.1 Siano dati due vettori non nulli
u e v, linearmente
indipendenti
(ii)
u1
u2
ev =
v1
v2
le relative
Dimostrazione
Dimostriamo esclusivamente (i), essendo (ii) una sua conseguenza immediata. Sia a larea del parallelogramma in questione. Come nella Definizione 5.17, sia
langolo convesso formato dai vettori u e v. Se prendiamo il segmento dato da u come base del parallelogramma, dalla geometria piana elementare, laltezza del parallelogramma h := ||v|| | sin |. Pertanto a = ||u|| ||v|| | sin |. Se eleviamo ambo i membri
al quadrato ed utilizziamo le ovvie formule trigonometriche, dalla [5.6] otteniamo a 2 =
||u||2 ||v||2 (1 cos2 ) = ||u||2 ||v||2 (u, v)2 .
2
151
7.2
Dora in poi, consideriamo la geometria del piano cartesiano. Pertanto, come osservato nella Proposizione 6.5, potremo denotare senza ambiguit con R2 il piano
cartesiano in cui assumeremo fissato una volta per tutte un riferimento cartesiano
(O, e ) dove:
O lorigine del riferimento; la base e = e 1 , e 2 , come nella Definizione 4.23, la base canonica;
quando necessario, confonderemo il punto P di R2 con il vettore P a O
dello spazio vettoriale R2 . In tale identificazione, tale vettore verr denotato
brevemente con P . Le coordinate cartesiane del punto P rispetto al riferimento (O, e ) (equivalentemente, le componenti di P rispetto
base e ),
alla
p
x2
P=
p1
p2
x1
la struttura di R2 come piano euclideo (nel senso della Definizione 6.10) sar
implicitamente considerata sempre relativamente al prodotto scalare standard
, dello spazio vettoriale R2 come nellEsempio 5.2.
Lassedelleascisse formato da tutti quei punti P le cui coordinate sono della forma
p1
P = 0 , con p 1 R. In particolare, unequazione lineare che rappresenta lasse
x 1 lequazione
[7.1]
X2 = 0
Ovviamente [7.1] non lunica equazione che rappresenta lasse x 1 : una qualsiasi
equazione della forma X 2 = 0, R \ {0}, rappresenta sempre lasse x 1 .
Perci dora in poi [7.1] sar considerata come lequazione lineare fondamentale (i.e.
pi semplice possibile) che definisce lasse x 1 . Con lo stesso tipo di ragionamento,
lequazione lineare fondamentale che definisce lasse x 2 :
[7.2]
152
X1 = 0
Osservazione 7.1
Poich [7.1] e [7.2] sono equazioni lineari ed omogenee, dal- di sottospazio vettoriale dello spazio vettoriale R2 .
lEsempio 4.3 , sia lasse x1 che lasse x2 hanno una struttura
Il punto
O del piano cartesiano R2 , per definizione, il punto di coordinate
origine
O =
0
0
X1 = X2 = 0
Osservazione 7.2
Come osservato nel capitolo 1, [7.3] non lunico sistema
lineare che rappresenta lorigine di R2 , i.e. che ha come
unica soluzione il punto O. Infatti O determinato da un
qualsiasi sistema lineare della forma: X1 = X2 = 0,
, R \ {0}. Ma queste non sono le uniche possibilit.
A titolo di esempio, lorigine anche lunica soluzione del
sistema lineare omogeneo:
1
1
. Analogamente, la retta
X 2 = p2
153
Equazioni di rette
parallele agli assi
e di punti del piano
6
P=
p1
p2
X 1 = p1
[7.6]
x1
X 1 p1 = X 2 p2 = 0
[7.7]
(rappresentata nella figura 7.3). In altri termini, P lintersezione delle due sottovariet lineari date, rispettivamente, dalle equazioni [7.5] e [7.6]. Come discusso nellOsservazione 7.2 per O, questo non sar lunico modo per determinare P come
intersezione di due rette affini di R2 .
Equazioni di rette
del piano cartesiano
Studiamo ora in modo pi generale le equazioni che definiscono rette qualsiasi del
piano cartesiano. Ci sono due modi distinti, e concettualmente diversi, per descrivere una retta in R2 : mediante una equazione cartesiana e mediante una equazione
parametrica vettoriale (equivalentemente, coppie di equazioni parametriche scalari).
Equazioni cartesiane
di rette
R2 unequazione
a X1 + bX2 + c = 0
X2 = mX1 + q
Sia data una retta r di equazione cartesiana come in [7.8]. Dal Lemma 6.1 e dalle
Proposizioni 6.6 e 6.7, la giacitura di r la retta r 0 di equazione cartesiana
[7.10]
a X1 + bX2 = 0
b
[7.11]
r0 =
a
r0
Notare che [7.11] discende direttamente da un calcolo esplicito di una base del sottospazio vettoriale definito come in [7.10] e che lultima parte della definizione
conseguenza del fatto che r 0 ha dimensione uno. La nozione di vettore direttore
una nozione affine, in particolare anche euclidea.
Osservazione 7.4
Consideriamo una retta r come in [7.8]. Supponiamo b = 0. del secondo parametro direttore di r sul primo. Osserviamo
Allora possiamo esplicitare lequazione in funzione di X 1 ot- inoltre che mentre un vettore direttore di r non univocatenendo lequazione X2 = ba X1 bc , che della forma [7.9], mente determinato (precisamente determinato a meno di
proporzionalit), se r esprimibile nella forma [7.9], il suo
dove m = ba e q = bc . Pertanto, quando r esprimicoefciente angolare univocamente determinato.
bile in forma esplicita, il coefciente angolare il rapporto
155
e v :=
v
||v||
Per introdurre le equazioni parametriche di rette faremo uso della Definizione 6.4.
Infatti, una retta r in R2 univocamente determinata una volta che si assegnano un
punto Q r ed un vettore direttore v = 0 per r . Pertanto, abbiamo:
R2 e con un
0, unequazione parametrica vettoriale per r
vettore direttore v =
[7.13]
X = Q + t v, t R
Notiamo che [7.13] descrive i punti di r come estremi liberi di vettori geometrici
orientati, tutti con punto di applicazione O, ciascuno di tali vettori ottenuti come
combinazione lineare di un vettore fisso, Q, ed uno variabile, t v, al variare di t
R. Ovviamente, ricordando la notazione nella Definizione 6.4, [7.13] lanaloga
vettoriale dellequazione X = t v +a Q, dove X si deve intendere in tale formula
come punto indeterminato di R2 .
Osservazione 7.5
Esattamente a quanto notato per le equazioni cartesiane di volta che i punti Q e P sono punti su r ed i vettori v ew sono
rette, due equazioni parametriche vettoriali X = Q + t v e paralleli, equivalentemente proporzionali.
X = P + k w, t, k R, descrivono la stessa retta r ogni
l
m
=
0
0
q
1
q2
R2 e
[7.14]
X 1 = q 1 + tl
X 2 = q 2 + tm, t R
2.
3.
157
r
OQ
OP
OQ OQ
OP
Dimostrazione
X 1 q1 X 2 q2
[7.15]
det
=0
l
m
Dimostrazione
La dimostrazione diretta conseguenza del Lemma 7.1. Infatti, la condizione [7.15] equivalente a stabilire che le due righe della matrice sono proporzionali.
Pertanto, [7.15] determina tutti quei vettori incogniti X di R2 tali che, per Q r , il vettore
X Q proporzionale al vettore direttore di r . Poich Q r per ipotesi, concludiamo.
Come passare da unequazione cartesiana ad equazioni parametriche
Supponiamo di avere una retta r in equazione cartesiana come in [7.8].
Vettore normale
ad una retta
v, n = 0.
158
proposizione 7.3 Sia r una retta di equazione cartesiana come in [7.8]. Allora, il
vettore
[7.16]
a
n :=
b
Osservazione 7.6
Notiamo che, con la scelta di r0 come in [7.11] e di n come in
b a
det
= a2 + b2 = ||r0 ||2 = ||n||2 > 0
[7.16], si determina la base b = r0 , n per lo spazio vettoriale [7.17]
a
b
R2 che orientata positivamente cio equiorientata rispetto
ad e (Denizione 6.27). Infatti, abbiamo
Pertanto Or(r0 , n) = 1 (Denizione 6.26).
Analogamente, avremo:
proposizione 7.4 Sia r una retta di equazioni parametriche come in [7.14]. Allora,
il vettore
[7.18]
n :=
m
l
un vettore normale a r .
La dimostrazione analoga alla precedente. Inoltre, come nellOsservazione 7.6, con
la scelta di r 0 come in [7.14] e di n come in [7.18], la base b = r 0 , n anches
sa orientata positivamente, poich abbiamo di nuovo det ml ml = l 2 + m 2 =
||r 0 ||2 = ||n||2 > 0.
Osserviamo che, se avessimo scelto come vettore normale il vettore
ottenuto una base non equiorientata con e .
m
l
, avremmo
Come osservato per i versori direttori di rette, abbiamo le seguenti definizioni. Sia r
una retta di R2 e sia n un suo vettore normale. Si definisce il versore normale associato
159
e n :=
n
||n||
a
a 2 + b2
[7.20]
e n :=
b
a 2 + b2
Analogamente, se n come in [7.18], si ha:
m
l 2 + m2
e n :=
[7.21]
l
l 2 + m2
Infine, abbiamo:
7.3
Intersezioni
Come osservato nella Definizione 6.4, date due rette in R2 ci sono tre possibilit:
o le rette si intersecano in un punto i.e. sono incidenti, o sono parallele e quindi
non si intersecano, oppure sono coincidenti. Vediamo come si manifestano tutte le
possibilit, a seconda di come siano presentate le due rette in questione. Supponiamo
quindi di avere due rette r e s in R2 .
r e s entrambi in equazioni cartesiane
In tal caso, supponiamo di avere r : a X 1 + b X 2 + c = 0 e s : d X 1 + e X 2 + f = 0
per a , b, c , d , e , f R tali che (a , b), (d , e ) = (0, 0) Per quanto descritto nel
capitolo 1, trovare leventuale intersezione tra r e s equivale a trovare le soluzioni del
sistema lineare a X 1 + b X 2 + c = d X 1 + e X 2 + f = 0 dato dalle due equazioni che
determinano le rette in questione. Pertanto, entrano in gioco tutti i risultati relativi
alla risoluzione dei sistemi lineari.
160
7.3 Intersezioni
Denotiamo con A la matrice 2 2 dei coefficienti del precedente sistema e con B la
matrice completa del sistema (par.1.1):
(al + bm)t + aq 1 + bq 2 + c = 0
se nella [7.22] si ha (al + bm) = 0, allora esiste lunica soluzione t0 =
aq 1 +bq 2 +c
al +bm .
p
q
l
m
Notiamo che queste relazioni forniscono il sistema lineare di due equazioni nelle due
indeterminate t e k, l t uk + ( p 1 q 1 ) = mt vk + ( p 2 q 2 ) = 0;
se il sistema lineare non compatibile, non esistono siffatti valori di parametri. Pertanto le due rette, non intersecandosi, sono necessariamente parallele;
161
2.
3.
2
5
162
7.4
Formule di geometria in R2
Negli argomenti che seguono, applichiamo i concetti fin qui esposti per la risoluzione
di alcuni problemi geometrici nel piano.
Siano P e Q due punti distinti in R2 . Come possiamo calcolare equazioni parametriche ed unequazione cartesiana della retta r passante per P e Q?
Per ottenere direttamente unequazione cartesiana, basta usare la Proposizione 7.2 in cui q 1 e q 2 sono le coordinate per esempio di Q e dove l ed m sono
le coordinate del vettore v := Q P .
q
Supponiamo di avere un punto Q = q 12 ed una retta s e supponiamo di voler
trovare la retta r passante per Q e parallela a s . Abbiamo le seguenti possibilit:
b)
b)
Siano r e s due rette di R2 . Esse sono parallele se, e solo se, hanno vettori direttori
proporzionali (dato che devono avere la medesima giacitura), pertanto:
p
l l
[7.23]
det
=0
m m
la quale esprime che i due vettori direttori sono linearmente dipendenti;
163
Condizione
di parallelismo
fra due rette
a b
[7.24]
det
=0
a b
che esprime appunto che le due giaciture di r e s hanno equazioni rappresentative che sono proporzionali (equivalentemente, che i vettori normali di
r e s come in [7.16] scritti per riga sono proporzionali);
se da ultimo r data in equazione cartesiana e s in equazioni parametriche,
come sopra, allora la condizione di parallelismo :
[7.25]
al + bm = 0
Questultima formula discende direttamente da [7.11] e da [7.23]; infatti, riconosciamo che [7.25] esprime la condizione che il vettore normale di r
perpendicolare al vettore direttore di s . Pertanto, r e s sono necessariamente
parallele.
Angolo convesso tra due
rette orientate
Siano r e s due rette distinte di R2 . Per definire langolo convesso tra r e s dobbiamo
fissare delle orientazioni di tali rette, i.e. dei vettori direttori. Siano questi r 0 e s 0 ,
rispettivamente. Definiamo quindi langolo convesso fra le due rette orientate r e s
come langolo tra i due vettori direttori fissati (come nella Definizione 5.17), =
(r, s ) := (r 0 , s 0 ), cio mediante le condizioni:
[7.26]
0 , cos =
r 0 , s 0
||r 0 || ||s 0 ||
t Res : X =
q
1
q2
ll + mm
(r, s ) =
l 2 + m 2 (l )2 + (m )2
Dalla Definizione 7.6, ritroviamo in particolare che le due rette sono perpendicolari
se, e solo se, langolo convesso esattamente /2 dato che, in [0, ], arccos(0) = /2.
Retta per un punto
e perpendicolare
ad una retta data
q
Supponiamo di avere un punto Q = q 12 ed una retta s e supponiamo di voler
trovare la retta r passante per Q e perpendicolare a s . Abbiamo le seguenti possibilit:
164
b)
1
1 2
2
Proposizione 7.2 e calcolare det
m
l
vettore direttore di r dovr essere n come sopra;
= 0, dato che il
b)
Siano r e s due rette di R2 . Dalla Definizione 7.6, esse sono perpendicolari se, e solo
se, cos( (r, s )) = r 0 , s 0 = 0:
p
se pertanto le rette sono date in equazioni parametriche r : X = p 12 +
q
l
, t, k R la condizione di
t ml e s : X = q 12 + k
m
perpendicolarit tra r e s :
[7.28]
ll + mm = 0
a a + bb = 0
la quale esprime che i vettori direttori di r e s come nella [7.11] sono ortogonali (equivalentemente che i vettori normali di r e s come in [7.16] sono
ortogonali);
se da ultimo r data in equazione cartesiana e s data in equazioni parametriche, come sopra, la condizione di perpendicolarit :
[7.30]
bl a m = 0
165
Condizione
di perpendicolarit
tra due rette
Distanza punto-retta
Consideriamo ora un caso particolare di quanto descritto nel paragrafo 6.3. Supponiamo di avere un punto Q R2 ed una retta r non contenente Q. Con la notazione
del punto precedente, avremo che la distanza di Q da r non altro che
Q
s
Q
r
Q'
[7.31]
7.5
Fascio di rette proprio
o a centro
d (Q, r ) :=
Fasci di rette
In questo paragrafo studiamo interessanti insiemi di rette del piano. Siano r e s due
rette non parallele in R2 (in particolare non coincidenti).
definizione 7.7 Si chiama fascio di rette proprio, , definito da r e s linsieme
di tutte le rette di R2 contenenti il punto P := r s , che viene detto centro
del fascio .
166
rette come sopra. Sia il fascio proprio determinato da esse. Tutte e sole le rette
del fascio sono le rette , di equazione cartesiana
[7.32]
x2
LL
s
@
@L
L P
@
L@
rL
x1
(a X 1 + b X 2 + c ) + (d X 1 + e X 2 + f ) = 0,
(, ) R2 \ {(0, 0)}
In altri termini, al variare di (, ) R2 \{(0, 0) lequazione [7.32], detta equazione di , descrive tutte le rette , del fascio. Inoltre, presi (, ), (, )
R2 \ {(0, 0), la retta , coincide con la retta , se, e solo se, le coppie (, )
e (, ) sono proporzionali.
Prima di tutto notiamo che, per ogni scelta di (, ) R2 \ {(0, 0)},
[7.32] fornisce lequazione cartesiana di una retta che passa per P , dato che entrambi le equazioni cartesiane di r e s vengono annullate dalle coordinate di P . Pertanto, lo stesso accade
per ciascuna equazione in [7.32].
Dimostrazione
Viceversa, sia h una qualsiasi retta di , diversa da r e da s . Sia u X 1 +v X 2 +w = 0 unequazione cartesiana di h. Consideriamo il sistema lineare di tre equazioni e due indeterminate
dato da a X 1 + b X 2 + c = d X 1 + e X 2 + f = u X 1 + v X 2 + w = 0.
Per le ipotesi fatte, tale sistema compatibile e ha esattamente ununica soluzione: il punto
P centro del fascio. Dal Teorema di Rouch-Capelli (par 2.4) e dal fatto che r e s sono due
rette distinte di un fascio proprio, segue che lequazione che definisce h necessariamente
combinazione lineare delle equazioni che definiscono r e s rispettivamente. Per concludere,
osserviamo che la retta , coincide con la retta , se, e solo se, il sistema lineare
(a X 1 + b X 2 + c ) + (d X 1 + e X 2 + f ) =
= (a X 1 + b X 2 + c ) + (d X 1 + e X 2 + f ) = 0
compatibile e ha soluzioni dipendenti da un parametro, i.e. ha 1 soluzioni (Osservazione 2.5). Siano
a + d b + e
a + d b + e c + f
A :=
e C :=
a + d b + e
a + d b + e c + f
rispettivamente la matrice dei coefficienti e la matrice completa di detto sistema lineare. Allora, avere 1 soluzioni equivalente alla condizione r (A) = r (C ) = 1. Dalle ipotesi su r
e s , questo quindi equivalente al fatto che esiste R \ {0} tale che (, ) = ( , )
(questultima immediata verifica viene lasciata al lettore per esercizio).
167
Osservazione 7.7
Osserviamo subito alcune conseguenze del precedente
risultato.
(i)
(ii)
(iii)
(iv)
[7.33]
con t R come unico parametro variabile, sempre vero che descriviamo 1 rette passanti per il
centro P = r s e tali che, per t = t , la retta t
diversa dalla retta t . Per, in tal modo non stiamo
descrivendo tutte le rette passanti per P, cio tutte le
rette di . Infatti, con unequazione del tipo [7.33],
non otteniamo mai lequazione della retta s . Analogo discorso se avessimo preso unequazione del
tipo
[7.34]
con k R unico parametro variabile. Pertanto, per descrivere la totalit delle rette del fascio
, abbiamo effettivamente bisogno dellequazione
[7.32].
p
1
p2
(X 1 p 1 ) + (X 2 p 2 ) = 0, (, ) R2 \ {(0, 0}
Dimostrazione
Dimostrazione
168
Vediamo diversi esempi in cui, imponendo opportune condizioni ad un fascio di rette proprio, si determina ununica retta del fascio che soddisfa tale condizione.
Determinare lequazione del fascio proprio di rette generato da r e s e le coordinate del centro di ;
determinare lunica retta di passante per il punto Q = 21 ;
iii)
determinarelunica
retta
di parallela alla retta s di equazione parametrica vet1
toriale X = 0 + t 12 , t R;
iv)
(i)
Notiamo che r e s sono perpendicolari, dato che i loro vettori normali lo sono.
Pertantoformano
un fascio proprio . Ovviamente il centro di il punto P =
1
r s = 1 . Da [7.32], lequazione del fascio ( + )X1 + ( )X2 2 = 0.
(ii)
(iii)
(iv)
0 = n, , s0 = 1 ( + ) + 2 ( ) = 3 . In denitiva, sostituendo la relazione = 3 nellequazione del fascio, si trova lunica retta di
cercata.
Analogamente al punto (iii), il vettore normale di h nh = 32 ; poich vogliamo imporre la condizione di perpendicolarit con h allora dovremo imporre
0 = n, , nh = 3 ( + ) + 2 ( ) = + 5. Concludiamo come al solito
sostituendo nellequazione del fascio la relazione = 5.
169
x1
Poich definito come sopra costituito da rette tutte parallele fra loro, le rette
formanti il fascio avranno tutte quante la medesima giacitura r 0 . Per meglio dire,
la retta r 0 lunica retta del fascio passante per lorigine O. Vogliamo descrivere
come si rappresenta un fascio di rette improprio.
proposizione 7.6 Sia r una retta di equazione cartesiana r : a X 1 +b X 2 +c = 0.
Sia il fascio improprio determinato da essa. Tutte e sole le rette del fascio sono
le rette t di equazione cartesiana
[7.36]
a X 1 + b X 2 + t = 0, t R
Dimostrazione
Osservazione 7.8
Osserviamo alcune conseguenze del risultato precedente:
(i)
(ii)
se r1 unulteriore retta di generato da r come nella Proposizione 7.6, allora r1 genera lo stesso
fascio .
l
corollario 7.3 Sia v =
un vettore non nullo dello spazio vettoriale R2 .
m
Allora, lequazione del fascio di rette improprio con vettore direttore v :
[7.37]
170
m X 1 + l X 2 + t = 0,
t R
passante per Q.
Dimostrazione
7.6
In questo paragrafo approfondiamo alcuni argomenti discussi nei Paragrafi 6.4 e 6.5,
considerando lo studio di alcune funzioni o trasformazioni f : R2 R2 che hanno
un particolare significato geometrico. Data la vastit dellargomento, ispirandosi a
[7], si sono fatte alcune scelte sugli argomenti da trattare in dettaglio. Tali argomenti
sono quelli maggiormente usati per la risoluzione degli esercizi.
Le trasformazioni f : R2 R2 , che studieremo, verranno chiamate con terminologia equivalente anche applicazioni (par 6.4); esse saranno isometrie ed affinit
particolarmente importanti di R2 .
Alcune isometrie fondamentali del piano cartesiano
Cominciamo con alcune isometrie di R2 .
Come nel par. 6.1, se P R2 un punto del piano cartesiano e P = P a O il corrispondente vettore, denoteremo con t P la traslazione di passo P , che chiaramente
unisometria quindi anche unaffinit. In coordinate avremo che
[7.38]
Equazioni di traslazioni
di R2
x1
x1 + p1
=
x2
x2 + p2
Le principali propriet delle traslazioni sono state elencate allinizio di par. 6.1. In particolare ricordiamo che, per ogni P , Q R2 , t P t Q = t P +Q , i.e. la composizione
di due traslazioni ancora una traslazione.
Introduciamo adesso alcune isometrie lineari notevoli (Definizione 6.25): le rotazioni
attorno allorigine O.
171
Equazioni di rotazioni
attorno ad O
x
1
x2
R2 arbitrario. Allora
x
cos
R 1 =
x2
sin
[7.39]
In altri termini, se
x
sin
cos
= R (x ) =
x 1
x1
x2
x 2
date da:
[7.40]
x 1 = cos x 1 sin x 2
x 2 = sin x 1 + cos x 2
In particolare,
se = 0, allora R = Id;
se > 0, la rotazione di x in senso antiorario rispetto al vettore e 1 ;
se < 0, la rotazione di x in senso orario rispetto al vettore e 1 .
Dimostrazione
Il vettore x = R (x ) tale che ||x || = ||x || e forma con lasse delle x 1 un angolo pari a
+ . Pertanto x 1 = ||x || cos( + ), x 2 = ||x || sin( + ). Per le formule di addizione
delle funzioni trigonometriche e per le precedenti relazioni, abbiamo quindi:
x 1 = ||x ||(cos cos sin sin ) = x 1 cos x 2 sin
x 2 = ||x ||(sin cos cos sin ) = x 1 sin + x 2 cos
onde lasserto.
172
Osservazione 7.9
Da quanto dimostrato nella Proposizione 6.13 e dal Corolla- vettoriale R2 , i.e. Or (v,w) = Or(R (v), R (w)), per ogni
rio 7.5, notiamo subito che le rotazioni R attorno allorigine coppia di vettori linearmente indipendenti v,w di R2 e per
in particolare conservano lorientazione di basi dello spazio ogni R.
(i)
Per , R, si ha R R = R R = R + .
(ii)
Per ogni R, R = R .
x1
R2 arbitrario. Allora
proposizione 7.9 Sia x =
x2
x1
x1
cos 2
sin 2
[7.41]
=
S
x2
x2
sin 2 cos 2
x 1
In particolare, se
, le equazioni per la riflessione rispetto
= S (x ) =
x 2
alla retta vettoriale r sono:
x
[7.42]
x 1 = cos 2x 1 + sin 2x 2
x 2 = sin 2x 1 cos 2x 2
173
Equazioni di riflessioni
rispetto a rette vettoriali
il versore u =
x
u
cos
sin
S(x)
n
x = x , u u + x , n n
[7.43]
S (x ) = x 2x , n n
[7.44]
x1
(1 2 sin2 ) x 1 + 2 sin cos x 2
S
=
x2
2 sin cos x 1 + (1 2 cos2 ) x 2
Ricordando che 2 sin cos = sin(2), cos2 sin2 = cos(2), sin2 + cos2 = 1
otteniamo [7.42].
Dimostrazione
Osservazione 7.10
Differentemente da quanto discusso nellOsservazione 7.9, no lorientazione di basi dello spazio vettoriale R2 , i.e.
dalla Proposizione 6.13 e dal Corollario 7.6 notiamo su- Or(S (v), S (w)) = Or(v,w), per ogni coppia di vettori
bito che le riessioni S in particolare non conserva- linearmente indipendenti v, w di R2 e per ogni R.
(i)
(ii)
(iii)
In altri termini:
Equazioni di riflessioni
rispetto allorigine
S O lapplicazione di R2 in s che ad un arbitrario punto P associa il punto estremo libero del vettore P . S O detta
riflessione rispetto allorigine.
chiaro dalla definizione che S O non altro che la rotazione attorno allorigine di
angolo = . Pertanto, S O unisometria lineare diretta di R2 . In particolare, essa
conserva lorientazione di basi dello spazio vettoriale R2 . Inoltre, le sue equazioni
sono chiaramente:
x1
x1
1
0
[7.45]
=
SO
x2
x2
0 1
Osservazione 7.11
Le isometrie lineari no ad ora studiate, insieme con le traslazioni, possono considerarsi come i mattoni di tutte le isometrie del piano cartesiano R2 . Per vedere questo, basta
osservare le seguenti cose:
(i)
[7.46]
cos
sin
sin
cos
cos
e
sin
sin
cos
per un qualche R; quelle del primo tipo sono ortogonali speciali, quelle del secondo tipo sono
ortogonali non speciali.
175
precedenti;
da (i), abbiamo che le rotazioni attorno allorigine
e le riessioni rispetto a rette vettoriali esauriscono
tutte le isometrie lineari di R2 ;
si conclude ricordando il teorema di classicazione
di tutte le isometrie di R2 (Teorema 6.6).
R,P = t
[7.47]
R tP .
2
Per determinare
esplicitamente
che
le equazionidi tale isometria
di R , supponiamo
p
x p
cos sin
x p
1
1
P = p 12 . Pertanto R,P x 12 = t P R x 12 p 12 = t P sin cos
,
x2 p2
che fornisce le equazioni della rotazione attorno a P :
x1
x1
q
cos sin
R,P
=
+ 1
[7.48]
x2
x2
q2
sin
cos
q
p p
cos sin
1
1
dove q 12 := sin cos
p 2 + p 2 . Notiamo che lespressione [7.48] conferma quanto dimostrato nel Teorema 6.6: R,P composizione di una traslazione
e di unisometria lineare diretta.
Equazioni di riflessioni
di R2
Sia r una qualsiasi retta del piano cartesiano R2 . Denotiamo con Sr lisometria di
R2 data dalla riflessione rispetto alla retta r . Per ottenere le equazioni di tale riflessione,
possiamo procedere in due modi differenti:
a)
176
in seguito, si orienta r 0 di modo che soddisfi le ipotesi nella Definizione 7.10. Sia langolo convesso formato da tale vettore direttore
preso su r 0 ed il vettore e 1 . Applichiamo quindi la riflessione S come
nella Definizione 7.10;
infine si riapplica la traslazione t P di passo P che riporta cos O nel
punto P scelto allinizio.
Sr = t
[7.49]
S tP
e non dipende dalla scelta del punto P . Pertanto, per determinare le equazioni
di taleisometria
di R2 , analogamente
a come fatto prima
per le rotazioni, se
p
x1
x1
q
cos 2
sin 2
[7.50]
=
+ 1 ,
Sr
x2
x2
q2
sin 2 cos 2
q
p p
cos 2 sin 2
1
1
dove q 12 := sin 2 cos 2
p 2 + p 2 . Notiamo che lespressione
b)
b a2
2a c
2a b
2
2 + b2
x
a + b2 a 2 + b2 x1 +
[7.51]
Sr 1 =
a2bc
2
2
x2
x2
2a b
a b
a 2 + b2
a 2 + b2 a 2 + b2
Esercizio 7.2 Alcune isometrie di R2
Siano dati in R2 la retta r : X1 2X2 1 = 0 ed il punto P =
(i)
1
2
177
Denotati con Sr e con RP,/2 , rispettivamente, la riflessione e la rotazione trovate al punto (i), determinare le coordinate del punto (Sr RP,/2 )(P1 ), dove
P1 = 01 .
(i)
2 5
coseno dellangolo che esso forma con il vettore e1 5 , che non un angolo
elementare.
Utilizzando invece la procedura geometrica descritta sopra, da [7.51] si ottiene pi
facilmente che le equazioni della riessione sono
x1 = 1/5 (31 + 4x2 + 2),
(ii)
x1 = 3 x2 , x2 = x1 + 1
2
RP,/2 (P1 ) = 1 , quindi (Sr RP,/2 )(P1 ) = Sr 21 = 12/5
.
1/5
Sia ora P un qualsiasi punto del piano cartesiano R2 . Denotiamo con S P lisometria di R2 data dalla riflessione rispetto al punto P . Per ottenere le equazioni di tale
riflessione, si ragiona in modo simile al procedimento a) usato per Sr :
SP = t
S O tP
definita da
[7.53]
178
x1
x1
0
=
D,
x2
x2
0
Dilatazioni lineari
[7.54]
x1
x1
1
=
T
x2
x2
0 1
Una tale trasformazione viene chiamata deformazione lineare (o shear). Ovviamente, se = 0, una deformazione lineare non conserva mai n angoli n tantomeno
lunghezze.
Deformazioni lineari
Questi sono ulteriori esempi di affinit lineari che non sono isometrie lineari. Per
quanto dimostrato nella Proposizione 6.13, sia le dilatazioni lineari sia le deformazioni lineari conservano lorientazione di basi dello spazio vettoriale R2 . Da quanto
osservato dopo la Proposizione 7.1, le deformazioni lineari conservano anche le aree;
invece le dilatazioni conservano le aree se, e solo se, = 1/.
Data una retta r di R2 di equazione cartesiana a X 1 + b X 2 + c = 0, come trovare
lequazione cartesiana della retta s , trasformata di r mediante una qualsiasi isometria
od una qualsiasi affinit di R2 ?
La risoluzione di questo problema molto semplice. Basta considerare due punti
arbitrari P e Q distinti su r . Se f lisometria o laffinit data dal problema, consideriamo i trasformati di questi punti mediante f , i.e. f (P ) e f (Q). Concludiamo
calcolando lequazione cartesiana della retta per i due punti distinti f (P ) e f (Q). Infatti, poich f biiettiva, P = Q implica f (P ) = f (Q). Vediamo questa semplice
strategia con lo svolgimento di un esercizio.
179
Trasformate di rette
del piano cartesiano
x1
x2
un punto arbitrario di R2 .
1
x
(
x
+
x
1)
1
2
2
Sia H = r h, che ha coordinate H = 1
. Allora il punto P := 1 sar il
x2
(x +x2 +1)
2 1
x 1
simmetrico di P rispetto a r se, e solo, se P = 2H P = x2 +1 . Questo signica che le
1
equazioni della riessione sono x1 = x2 1, x2 = x1 + 1. Ora prendiamo due punti arbitrari
sulla retta s. Poich s passa per lorigine, uno di
tali punti
sar per comodit
O.
Laltro
punto possiamo prenderlo ad arbitrio, per esempio 23 . Pertanto, Sr 00 = 11 mentre
Sr 23 = 34 . Quindi, un vettore direttore per s sar dato da v = 23 . Lequazio
X +1 X2 1
= 0, che
ne cartesiana di s si ottiene quindi considerando per esempio det 1
determina s : 3X1 + 2X2 + 1 = 0.
Siano r e s due rette di R2 . sufficiente assumere che una delle due, per
esempio s , sia lasse delle ascisse. Infatti, se troviamo unisometria f r di R2 che trasforma r
nellasse delle ascisse ed analogamente unisometria f s di R2 che trasforma s nellasse delle
1
ascisse, allora lisometria f s f r sar unisometria che trasforma r in s .
Dimostrazione
Consideriamo allora un punto arbitrario P su r e poi la traslazione tP di passo P . La trasformata di r coincider con la giacitura r 0 di r . Scegliamo unorientazione su r 0 e calcoliamo
langolo convesso fra la retta orientata ed e 1 . Sia questo . Se consideriamo la rotazione attorno allorigine di angolo allora tutti i punti di r 0 verranno ruotati di modo che vadano
a finire sullasse delle ascisse.
Lequazione cartesiana come sopra viene chiamata equazione canonica metrica (rispettivamente, affine) delle rette del piano cartesiano.
180
7.7 Circonferenze
Il precedente corollario asserisce che, quale che sia la retta di partenza, esiste sempre
un riferimento cartesiano in cui questa retta ha unequazione cartesiana pi semplice possibile. Come vedremo nel capitolo 12, una propriet analoga varr anche
per altri luoghi geometrici definiti da equazioni polinomiali di secondo grado: le coniche. Anche in questo caso, troveremo un metodo per determinare un opportuno
riferimento cartesiano in cui queste curve piane abbiano unequazione cartesiana pi
semplice possibile. Quello che non sar pi vero lequivalente del Teorema 7.1: non
vero cio che tutte le coniche del piano sono affinemente equivalenti, e quindi in
particolare non saranno nemmeno congruenti.
7.7
Circonferenze
R2
d (P , C ) = r
[7.55]
x
1
x2
c
1
c2
(1,0)
(X 1 c 1 )2 + (X 2 c 2 )2 = r 2
(X c )
X 1 = c 1 + r cos t
t [0, 2 ]
X 2 = c 2 + r sin t
Viceversa, dato un sistema di equazioni parametriche come nella [7.57], banale trovare lequazione cartesiana di C come nella [7.56]. Basta fare il ragionamento inverso
del precedente.
Studiamo ora alcune propriet geometriche delle circonferenze, in particolare quelle
che si possono affrontare dal punto di vista della geometria analitica.
Intersezioni fra
circonferenza e retta
Date una retta r ed una circonferenza C nel piano, ci sono tre differenti possibilit:
1.
2.
3.
r e C si intersecano in due punti distinti, nel qual caso r si dice retta secante
per C ;
esse si intersecano in un unico punto P , per meglio dire si toccano in P , dato
che lintersezione non trasversa come nel caso della retta secante. In tal
caso r si dice la retta tangente a C in P ;
r e C non si intersecano affatto, nel qual caso r si dice retta esterna a C .
C e r in equazioni
cartesiane
se b = 0, allora consideriamo X 1 = c /a dalla prima equazione; sostituiamo nella seconda equazione al posto di X 1 il valore c /a e ci riduciamo a
risolvere unequazione di secondo grado nella sola indeterminata X 2 ;
se invece b = 0, abbiamo X 2 = b 1 ; sostituiamo nella seconda equazione al posto di X 2 tale espressione e ci riconduciamo di nuovo a risolvere
unequazione di secondo grado in X 1 .
c +a X
Alla fine, in ciascuno dei due casi, avremo unequazione del tipo Z 2 + Z + = 0,
, , R, dove Z = X 2 nel primo caso e Z = X 1 nel secondo caso. A seconda
del segno del discriminante := 2 4 di questa equazione di secondo grado
avremo le possibilit elencate precedentemente. In particolare:
182
7.7 Circonferenze
(i)
(ii)
(iii)
se > 0, avremo due valori reali distinti per Z e quindi due punti distinti di
R2 le cui coordinate soddisfano il sistema [7.58] (ovviamente per determinare
laltra coordinata dei punti in questione, si sostituiscono i valori trovati per
Z nellequazione lineare del sistema [7.58]);
se = 0, avremo ununica soluzione reale per Z e quindi ununico punto
P di R2 soluzione del sistema. Il fatto che la soluzione reale per Z unica,
ma contata con molteplicit due (i.e. sono due soluzioni coincidenti), si legge
geometricamente nel fatto che P un punto di tangenza tra r e C .
se < 0, allora non esistono soluzioni reali per lequazione di secondo grado
in Z e quindi tantomeno per [7.58].
p
Se ora r data in equazioni parametriche X = p 12 + t ml , t R, per trovare
le eventuali intersezioni tra r e C basta sostituire nellequazione di C , X 1 = p 1 + l t,
X 2 = p 2 + m t. Si ottiene unequazione di secondo grado in t cui applicare quanto
discusso precedentemente.
C in equazione
cartesiana e r in
equazioni parametriche
Vogliamo determinare lintersezione fra la retta r, di equazioni parametriche X = 00 +
2
2
t 11 , t R, e la circonferenza di centro O e raggio 1. Allora nellequazione X1 + X2 = 1
poniamo X1 = t, X2 = t. Otteniamo lequazione 2t2 1 = 0 che fornisce i due valori
2
t = 2 . Pertanto la retta r secante la circonferenza C ed i punti di intersezione sono
2
P1 =
e P2 =
Quale che sia la rappresentazione di r , o in equazione cartesiana o in equazioni parametriche, se C in equazioni parametriche, conviene sempre portare C in forma
cartesiana e poi operare come in uno dei due modi sopra descritti.
183
C in equazioni
parametriche e r data
in qualsiasi forma
C : (X 1 c 1 )2 +(X 2 c 2 )2 = r 2 e C : (X 1 d1 )2 +(X 2 d2 )2 = R 2
d
c
di centri C = c 12 e D = d12 e di raggi r e R, rispettivamente. Per determinare
le eventuali intersezioni tra C e C , dobbiamo considerare il sistema (non lineare)
(X 1 c 1 )2 + (X 2 c 2 )2 = r 2
[7.59]
(X 1 d1 )2 + (X 2 d2 )2 = R 2
Osserviamo subito che, se C = D (i.e. se le due circonferenze sono concentriche), il
precedente sistema ammette soluzione solo se anche r = R. Questo significa che due
circonferenze concentriche o coincidono oppure non si intersecano in alcun punto.
Possiamo allora supporre che C = D. Se in [7.59] sottraiamo la seconda equazione
2
2
dalla prima, otteniamo unequazione lineare, poich i termini X 1 e X 2 sono sempre
con coefficiente 1. Lequazione che si ottiene :
[7.60]
(X c 1 )2 + (X 2 c 2 )2 = r 2
1
2
2
2(d1 c 1 )X 1 + 2(d2 c 2 )X 2 = r 2 R 2 + (d1 c 1 )+
[7.61]
2
2
+ (d c ) = 0
2
184
7.7 Circonferenze
Dora in poi fissiamo una circonferenza C di R2 .
a)
Rette tangenti
ad una circonferenza
T2
T1
P :
P
[7.62]
( p 1 c 1 )(X 1 p 1 ) + ( p 2 c 2 )(X 2 p 2 ) = 0
b)
p 2 c 2
c 1 p1
2
1
e raggio 3. Sia Q =
1
5
. Lequazione cartesiana di
1
1
e T2 =
71/25
9/25
il
vettore
=
.
Pertanto,
un
vettore
direttore
di
mentre un
1,Q
2597
72
1
25
25
24
vettore direttore di 2,Q 7
. Quindi le due rette saranno:
1
0
71/25
24
+t
, e 2,Q : X =
+t
, tR
1,Q : X =
1
1
9/25
7
Soluzioni
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).
Quesiti ed esercizi
1.
2.
Determinare tutte
le rette del piano cartesiano passanti per Siano assegnate le rette s1 , di equazioni parametriche X1 =
il punto P = 12 e formanti con lasse x1 un angolo con- 1 2t, X2 = 2t, t R, e s2 , s3 di equazioni cartesiane,
vesso pari a /3. Determinare inoltre gli angoli convessi fra rispettivamente, X1 2X2 + 1 = 0 e 2X1 + X2 2 = 0:
tutte le rette ottenute.
186
7.7 Circonferenze
(i)
(ii)
(iii)
(iv)
3.
Sia P0 = 12 un punto di R2 :
(i)
(ii)
6.
Siano dati in R2 i tre punti P = 21 , Q = 12 ed
di
R = 11 :
determinare lequazione cartesiana dellunica circonferenza C passante per i tre punti dati;
determinare lequazione cartesiana della retta
tangente a C nel punto P .
4.
Si consideri R2 con riferimento cartesiano ortonormale 7.
Siano s1 e s2 due rette di R2 passanti ambedue per il punto
(O, e), dove e la base canonica:
18/5
2
P
=
e,
rispettivamente,
per
Q
la prima
=
1
x1
1/5
1
di
(i)
scrivere le formule di rotazione R/2
x2
e per Q2 = 21 la seconda. Assumiamo che le rette s1 e
angolo /2 attorno
ad O;
s2 siano tangenti ad una circonferenza C , rispettivamente, in
(ii)
dati i vettori v = 12 ew = 1
dello
spazio
vetQ1 la prima ed in Q2 la seconda. Determinare il centro C, il
1
toriale R2 , le cui componenti sono rispetto ad e, sta- raggio r e lequazione cartesiana di C .
187
8
Geometria dello spazio cartesiano
Come fatto per il capitolo 7, in questo capitolo focalizzeremo la nostra attenzione
sullo studio della geometria dello spazio cartesiano.
8.1
u2
u3
ev =
v2
v3
u 2 v3 u 3 v2
u v := u 1 v3 + u 3 v2
[8.1]
u 1 v2 u 2 v1
Dalla precedente definizione notiamo che il prodotto vettoriale in R3 associa a due
vettori di R3 un terzo vettore di R3 , univocamente determinato, con particolari
propriet geometriche che ora andremo a descrivere.
Da [8.1], chiaro che se uno dei due vettori il vettore nullo allora il relativo prodotto
vettoriale automaticamente il vettore nullo.
proposizione 8.1 Il prodotto vettoriale gode delle seguenti propriet:
(i)
189
(ii)
(iii)
(iv)
Ponendo w =
w2
w3
lapplicazione della formula [8.1]. Se ora u e v sono non nulli e linearmente dipendenti, esister un opportuno R\{0} tale che v = u. Per la propriet di linearit,
u (u) = (u u). Basta applicare allora [8.1] per notare che u u = 0, per ogni
vettore non nullo u di R3. Viceversa,
se u v = 0, si ha che [8.1] equivalente a
u u u
(ii)
(iii)
(iv)
dire che la matrice A := v11 v22 v33 , che ha per righe le componenti dei vettori u
e v rispetto alla base e , ha tutti i minori 2 2 a determinante nullo, i.e. r (A) = 1.
Questo significa che u e v sono linearmente dipendenti.
Laffermazione segue direttamente da [8.1],
Utilizzando [8.1], notiamo che u, u v = u 1 (u 2 v3 u 3 v2 )+u 2 (u 1 v3 +u 3 v2 )+
u 3 (u 1 v2 u 2 v1 ) = 0.
Un conto analogo mostra che anche v, uv = 0. Quindi uv, essendo ortogonale
sia a u che a v ortogonale al piano vettoriale Lin(u, v). In particolare, u v non
appartiene a tale piano vettoriale. Quindi, u, v, u v forma una base di R3 .
Per la prima parte dellaffermazione, ricordando [5.6], consideriamo:
||u||2 ||v||2 sin2 = ||u||2 ||v||2 (1 cos2 ) =
= ||u||2 ||v||2 (u, v)2 =
2
= (u 1 + u 2 + u 3 )(v1 + v2 + v3 )
+ (u 1 v1 + u 2 v2 + u 3 v3 )2 =
= (u 1 v2 u 2 v1 )2 + (u 1 v3 + u 3 v2 )2 +
+ (u 2 v3 u 3 v2 )2 = ||u v||2
dove lultima eguaglianza discende direttamente da come sono definite le coordinate
di u v in [8.1]. Estraendo la radice quadrata ad i membri estremi della precedente
catena di eguaglianze, troviamo leguaglianza voluta.
190
Osservazione 8.1
La Proposizione 8.1 chiarica quanto asserito allinizio di
questo paragrafo i.e. che, per come denito, il prodotto vettoriale una propriet esclusiva di R3 . Infatti, possiamo considerare astrattamente il prodotto vettoriale come unapplicazione che associa ad una coppia di vettori u e v di uno
spazio vettoriale euclideo V un (ed un solo) terzo vettore di
V, i.e. (u, v) := u v V. Dalla Proposizione 8.1-(i), se
almeno uno dei due vettori u e v il vettore nullo oppure
se u e v sono linearmente dipendenti in V, banalmente lassociazione (u, v) = 0. Se invece u e v sono linearmente
definizione 8.2 Siano u, v e w tre vettori di
indipendenti, dalla Proposizione 8.1-(iii), (u, v) deve essere uno specico generatore del complemento ortogonale del
piano vettoriale Lin(u, v) (Denizione 5.12). In altri termini,
Lin(u, v) = Lin((u, v)) = Lin(u v).
quindi chiaro che il complemento ortogonale in uno spazio vettoriale euclideo V
= Rn di un dato piano vettoriale U una retta vettoriale se, e solo se, n = 3: per
n = 2, essendo U = V non esiste U mentre, per n > 3,
dim(U ) = n 2 > 1.
[u, v, w] := u v, w
[8.2]
(i)
(ii)
1
1
1
v
u
2
2
,v =
, w = w2 ,
se, rispetto alla base e , si ha u =
u3
v3
w3
allora:
u 1 v1 w1
[u, v, w] = det u 2 v2 w2
u 3 v3 w3
[8.3]
(iii)
(iii)
Laffermazione discende direttamente dalla linearit sia del prodotto scalare sia del
prodotto vettoriale.
La prima parte dellaffermazione segue da un calcolo diretto che utilizza la definizione del prodotto scalare standard , e [8.1]. Lequivalenza di affermazioni discende
invece dalle propriet dei determinanti ed il legame con lindipendenza lineare di
vettori.
Discende sempre da [8.3] e dalle propriet dei determinanti.
Allora:
(i)
(ii)
V = |[u, v, w]|
Dimostrazione
(i)
(ii)
Come nella dimostrazione della Proposizione 7.1, larea del parallelogramma data
da a = ||u|| ||v|| | sin |, con langolo convesso tra u e v. Concludiamo utilizzando
Proposizione 8.1-(iv).
Il volume V del suddetto parallelepipedo dato dal prodotto tra larea del parallelogramma di base, di vertici come in (i), moltiplicata per laltezza h, relativa a tale
parallelogramma. h uguale alla norma del vettore ottenuto per proiezione ortogonale di w sul vettore u v. Detto langolo convesso formato dai vettori w e u v,
allora h = ||w|| | cos |. In definitiva, da (i) e dal conto appena svolto, il volume V
dato da:
u1 v1 w1
Nelle ipotesi della Proposizione 8.3-(ii), e con componenti particolare V = det u2 v2 w2 , che fornisce uninterpretau3 v3 w3
rispetto ad e come nella Proposizione 8.2-(ii), otteniamo in
Osservazione 8.2
192
corollario 8.1
(i)
(ii)
Dimostrazione
(i)
Il fatto che sia una base di R3 esattamente la Proposizione 8.1-(iii). Dalla Definizio-
(ii)
[u,v,uv]
|[u,v,uv]|
||uv||2
||uv||2
= 1,
1/ 3
1
1/
R3
1/ 2
1/
1/
2/
6
. Dal Corollario 8.1, tale base sicuramente ortonormale
6
6
ed orientata positivamente.
193
8.2
Analogamente a quanto fatto nel paragrafo 7.2 per R2 , consideriamo dora in poi la
geometria dello spazio cartesiano. Come osservato nella Proposizione 6.5, potremo
denotare senza ambiguit con R3 lo spazio cartesiano in cui assumeremo fissato una
volta per tutte un riferimento cartesiano (O, e ) dove:
O lorigine del riferimento; la base e = e 1 , e 2 , e 3 , come nella Definizione 4.23, la base canonica;
quando necessario, confonderemo il punto P di R3 con il vettore P a O
dello spazio vettoriale R3 . In tale identificazione, tale vettore verr denotato
brevemente con P . Le coordinate cartesiane del punto P rispetto al riferimento (O, e ) (equivalentemente, le componenti di P rispetto alla
base e ),
verranno pertanto denotate con notazione di matrice colonna
p1
p2
p3
corrispondentemente,
le coordinate cartesiane del riferimento (O, e ) verran x
1
no denotate con x 2 . Le rispettive indeterminate saranno denotate con
x3
X1
X2
X3
La struttura di R3 come spazio euclideo (nel senso della Definizione 6.10) sar implicitamente considerata sempre relativamente al prodotto scalare standard , dello spazio vettoriale R3 , come nellEsempio 5.2.
p1
O
P=p2
p3
x2
x1
Lasse delle x 1 viene chiamato lasse delle ascisse, lasse delle x 2 viene chiamato lasse
delle ordinate, lasse delle x 3 viene chiamato lasse delle altezze. Insieme essi vengono
chiamati gli assi coordinati del riferimento.
194
X3 = 0
[8.5]
Esattamente come nel paragrafo 7.2, [8.5] non lunica equazione che rappresenta
tale piano: una qualsiasi equazione ad essa proporzionale rappresenter lo stesso piano. Dora in poi [8.5] sar considerata come lequazione lineare fondamentale (i.e. pi
semplice possibile) che definisce il piano (x 1 , x 2 ). Con lo stesso tipo di ragionamenti,
il piano (x 2 , x 3 ) sar definito dallequazione lineare fondamentale:
X1 = 0
[8.6]
[8.7]
Per quanto riguarda gli assi coordinati, osserviamo che lasse x 1 formato dai punti
p1
[8.8]
[8.9]
[8.10]
Osservazione 8.3
Come discusso nellOsservazione 7.1 per R2 , sia i piani coor- vettoriali rispetto alla struttura di spazio vettoriale che ha R3 .
dinati sia gli assi coordinati hanno una struttura di sottospazi
Il punto
O dello spazio cartesiano R3 , per definizione, il punto di coordinate
origine
O=
0
0
0
195
X1 = X2 = X3 = 0
Ogni coppia di equazioni in [8.11] descrive uno ed uno solo dei tre assi coordinati
passanti per O.
Osservazione 8.4
Come discusso nellOsservazione 7.2, il sistema di equazioni lineari [8.11] non lunico sistema lineare che rappresenta lorigine di R3 . Per esempio, lorigine anche lunica
soluzione del sistema lineare omogeneo vspace4pt
[8.12]
X1 X2 = X1 + X2 = X1 X2 + X3 = 0
componenti [8.12] corrisponder ad un piano di R3 passante per O e ciascuna coppia di equazioni denir una
ben determinata retta di R3 passante per O. Per esempio, il sistema X1 X2 = X1 + X2 = 0 estratto
da [8.12] chiaramente equivalente al sistema lineare [8.10],
pertanto esso un sistema lineare che denisce sempre
lasse x3 .
Le semplici osservazioni considerate precedentemente, si estendono facilmente a situazioni leggermente pi generali. Supponiamo infatti
di avere un punto P = O
dello spazio cartesiano che abbia coordinate P =
p1
p2
p3
sato. Il piano parallelo al piano (x 1 , x 2 ) passante per P , non altro che la sottovariet
lineare passante per P e parallela al piano vettoriale definito da [8.5]. In altri termini,
il piano vettoriale X 3 = 0 la giacitura di tale sottovariet lineare (Definizione 6.6)
e lequazione lineare fondamentale che definisce tale sottovariet lineare passante per
P :
[8.13]
X 3 = p3
X 2 = p2
X 1 = p1
e la sua giacitura X 1 = 0.
Da quanto osservato per i piani, chiaro che la retta parallela allasse x 1 passante per
P definita dal sistema lineare fondamentale non omogeneo:
[8.16]
196
X 2 p2 = X 3 p3 = 0
X 1 p1 = X 3 p3 = 0
X 1 p1 = X 2 p2 = 0
X 1 p1 = X 2 p2 = X 3 p3 = 0
Come discusso nellOsservazione 8.4, questi non saranno gli unici modi per determinare P come intersezione di tre piani in R3 n per determinare una retta come
intersezione di due piani di R3 .
Studiamo pi in generale le equazioni che definiscono piani dello spazio cartesiano e le loro propriet affini ed euclidee. Esattamente come nel paragrafo 7.2, possiamo descrivere un piano in R3 sia mediante una equazione parametrica vettoriale
(equivalentemente, terne di equazioni parametriche scalari) sia mediante unequazione
cartesiana.
Equazioni di piani
dello spazio cartesiano
Equazioni parametriche
di piani
x3 6
O
x2
x1
197
R3 e con giacitura il
piano vettoriale 0 = Lin(u, v) ha equazione parametrica vettoriale
[8.20]
X = Q + tu + kv, t, k R
Notiamo che [8.20] descrive i punti di come estremi liberi di vettori geometrici
orientati, tutti con punto di applicazione O, ciascuno di tali vettori ottenuti come
combinazione lineare di un vettore fisso, Q, e di due variabili indipendentemente,
t u e k v, al variare dei parametri reali t e k.
Osservazione 8.5
Ovviamente due equazioni parametriche vettoriali X = Q + ti Q e P sono punti su e le due coppie di basi u, v e w, z
tu + kv e X = P + tw + k z, con t, k, t , k R, descrivono lo generano la medesima giacitura, i.e. Lin(u, v ) = Lin(w, z ).
stesso piano , ogni volta che, contemporaneamente, i pun-
u2
u3
ev =
q2
R3 e
q3
v
1
v2 , allora
v3
con giaciequazioni
X 1 = q 1 + t u 1 + k v1
[8.21]
X 2 = q 2 + t m + k v2
X 3 = q 3 + t n + k v3 , t,
kR
lemma 8.1
Dimostrazione
Sia u, v una base per la giacitura 0 . Poich P e Q sono punti di
, da [8.20], devono esistere un punto P0 e scalari , , , R, con (, ) =
( , ) R, tali che P = P0 + u + v, Q = P0 + u + v. Pertanto
Q P = ( ) u + ( ) v.
198
o b := f 1 , f 2
della forma
a X1 + bX2 + c X3 + d = 0
[8.23]
definizione
di punti P =
p1
p2
p2
a X1 + bX2 + c X3 = 0
1 +k
0 . Da
forma vettoriale le soluzioni di questo sistema come X = 0 + t
0
1
0 . Calcolando lequazione cartesiana del sottospazio vettoriale di R3
e v :=
0
199
Equazioni cartesiane
di piani
Osservazione 8.6
Esattamente come discusso per le equazioni dei piani pa- e a X1 + b X2 + c X3 + d = 0 sono due equazioni proralleli ai piani coordinati, dato un piano non esiste unu- porzionali (non uguali, se = 1) che descrivono lo stesso
nica equazione cartesiana che lo descriva: per ogni piano.
R \ {0}, le equazioni cartesiane aX1 + bX2 + c X3 + d = 0
Equazioni di rette
dello spazio cartesiano
Come fatto per i piani, studiamo le equazioni che definiscono rette dello spazio cartesiano. Esattamente come nel paragrafo 7.2, possiamo descrivere una retta in R3 sia
mediante una equazione parametrica vettoriale (equivalentemente, terne di equazioni
parametriche scalari) sia mediante un sistema di equazioni cartesiane.
Equazioni parametriche
di rette
R3 e con un
0, unequazione parametrica vettoriale per r
vettore direttore v =
[8.25]
X = Q + t v, t R
Osservazione 8.7
Ovviamente due equazioni parametriche vettoriali X = Q + volta che i punti Q e P sono punti su r ed i vettori v ew sono
t v e X = P + kw, t, k R descrivono la stessa retta r, ogni proporzionali.
l
m
n
=
0
0
per r sono:
X 1 = q1 + t l
[8.26]
X 2 = q2 + t m
X 3 = q 3 + t n,
200
t R
q2
q3
R3 e
l
m
n
Equazioni cartesiane
di rette
= 0
= 0
a b c
[8.29]
r
=2
a b c
Osservazione 8.8
Facciamo subito alcuni necessari commenti relativi a quanto
introdotto:
(i)
(ii)
1
0
0
+t
1
1
1
1 .
con vettore direttore v =
0
0
201
Pertanto esisteranno innite coppie di equazioni lineari come in [8.28] che descriveranno la medesima
retta (par. 8.4). Inoltre, per descrivere una retta in
equazioni cartesiane, abbiamo bisogno di almeno
due equazioni lineari come nella Denizione 8.8, ma
il sistema che denisce una retta pu avere anche
pi di due equazioni. Per esempio, data una retta r
in R3 se consideriamo n 2 sistemi lineari equivalenti, formati ciascuno da due equazioni lineari,
ciascun sistema denente la retta r, allora il sistema di 2n equazioni in tre indeterminate, ottenuto
mettendo insieme tutte le n coppie di equazioni degli n sistemi dati, denisce come luogo geometrico
sempre la retta r. Questo ha uninterpretazione geometrica legata ai fasci di piani di asse una retta in
R3 che studieremo in seguito (par. 8.4).
Sia data una retta r con equazioni cartesiane come in [8.28]. Da quanto dimostrato
nel Lemma 6.1 e nelle Proposizioni 6.6 e 6.7, sono equazioni cartesiane per la giacitura
r 0 di r :
[8.30]
a X1 + bX2 + c X3
a X 1 + b X 2 + c X 3
= 0
= 0
l := det A(1, 2; 2, 3) = bc c b
m := det A(1, 2; 1, 3) = a c a c
[8.31]
n := det A(1, 2; 1, 2) = a b a b
l
sono i parametri direttori di r ed il vettore r 0 := m il vettore direttore di
n
r . Ogni altro vettore direttore v di r della forma v = r 0 , per R \ {0}.
Notare che le espressioni in [8.31] discendono direttamente da un calcolo esplicito di
una soluzione del sistema lineare omogeneo [8.30] che, grazie a [8.29], definisce una
base di r 0 .
202
Vettore normale
ad un piano
x3 6
C
x2
Cn
C
CW
x1
il vettore
[8.32]
a
n := b
c
p1
p2
p3
eQ=
q1
q2
q3
allora che
Q P , n = (q 1 p 1 )a + (q 2 p 2 )b + (q 3 p 3 )c =
= (aq 1 + bq 2 + c q 3 ) (a p 1 + bp 2 + c p 3 ) = d d = 0
dove la penultima eguaglianza discende da [8.23] e dal fatto che P , Q .
Poich tutti i vettori di 0 sono della forma Q P , al variare di P e Q punti su , il vettore
n ortogonale a tutti i vettori di 0 , quindi un vettore normale.
203
Osservazione 8.9
Supponiamo che aX1 + bX2 + cX3 + d = 0 e X = P + tore normale n, come in [8.32], perpendicolare sia ad u
tu + kv, t, k R rappresentino lo stesso piano . Allo- sia a v. In particolare, n proporzionale al vettore u v
ra, da Denizione 8.10, segue immediatamente che il vet- (Proposizione 8.1-(iii)).
Pertanto, avremo:
Sia un piano di equazione parametrica vettoriale come in
[8.20]. Allora, il vettore
proposizione 8.5
[8.33]
n := u v
e n :=
n
||n||
a
a 2 + b2 + c 2
[8.35]
e n :=
a 2 + b2 + c 2
2
2
2
a +b +c
Analogamente, se n come in [8.33], in tal caso si ha:
[8.36]
e n :=
uv
||u v||
R3 il piano
vettoriale r perpendicolare ad un qualsiasi vettore direttore v di r . In altre
parole, r = Lin(v) .
204
proposizione 8.6
c
Dimostrazione
La retta r contenuta sia nel piano , di equazione cartesiana a X 1 +
b X 2 + c X 3 + d = 0, sia nel piano , di equazione cartesiana a X 1 + b X 2 + c X 3 + d = 0.
Da Definizione 8.10 e da [8.32], segue che un qualsiasi vettore direttore di r perpendicolare
sia al vettore n sia al vettore n , quindi perpendicolare anche a Lin(n, n ). Pertanto si ha
r = Lin(n, n ).
Ora, dalla Proposizione 8.1-(iii), il vettore n n ortogonale a r . Poich siamo in R3 , il
complemento ortogonale (Definizione 5.12) del piano vettoriale r necessariamente la retta
vettoriale Lin(n n ), che coincide quindi con la giacitura di r .
r , in equazione
p retta
1
l
P + t w, t R, con P = p 2 r e w = m un vettore direttore ([8.25]
n
p3
e [8.26]), ed un piano ,
in equazione parametrica
vettoriale
X = Q + t u + kv,
t, k R, con Q =
q1
q2
q3
eu =
u1
u2
u3
,v =
v1
v2
v3
b)
0
1
1
c)
proposizione 8.7
[8.37]
Dimostrazione
X 1 q1 X 2 q2 X 3 q3
u2
u3 = 0
det u 1
v1
v2
v3
206
b)
[8.38]
X 1 q1 X 2 q2 X 3 q3
l
m
n
=1
Precisamente, due qualsiasi relazioni non nulle scelte tra le tre equazioni lineari
date da [8.38] forniranno equazioni cartesiane per r .
Dimostrazione
207
e
e n = f .
e
f
g
g
8.3
Intersezioni
In questo paragrafo vogliamo studiare le possibili intersezioni in R3 dei luoghi geometrici fino ad ora descritti. Abbiamo varie casistiche da considerare, a seconda di
come sono presentati tali luoghi geometrici.
Intersezione tra due piani
208
8.3 Intersezioni
(ii)
in tal
caso,
supponia parametriche:
mo di avere come sopra e : X =
q1
q2
q3
+t
u1
u2
u3
+k
v1
v2
v3
, t, k R.
X 2 = q 2 +u 2 t +v2 k,
X 3 = q 3 +u 3 t +v3 k
per determinare leventuale intersezione tra e , si sostituiscono tali espressioni nellequazione cartesiana che definisce , ottenendo lequazione lineare
in t e k:
(a u 1 + bu 2 + c u 3 )t + (a v1 + bv2 + c v3 )k+
[8.39]
+ aq 1 + bq 2 + c q 3 + d = 0
se in [8.39] si hanno (a u 1 + bu 2 + c u 3 ), (a v1 + bv2 + c v3 ) = 0,
allora si pu ricavare una relazione lineare della forma t = k + ,
a v +bv +c v
aq +bq +c q +d
dove = a u 1+bu2 +c u3 e = a1u +bu2 +c3u R, che esprime
1
2
3
1
2
3
il parametro t in funzione del parametro k. Sostituendo al posto di
t tale relazione nellequazione parametrica vettoriale di , abbiamo
eliminato uno dei due parametri dallequazione di . In tal modo
abbiamo determinato unequazione parametrica vettoriale per la retta
s := , che in modo intrinseco viene descritta dalla relazione
t = k + .
Analogamente, se uno dei due coefficienti in [8.39] nullo, e.g.
(a u 1 + bu 2 + c u 3 ) = 0, si trova comunque una relazione k =
aq 1 +bq 2 +c q 3 +d
a v1 +bv2 +c v3 che, sostituita
per , permette di eliminare
le
il parametro k. Pertanto si conclude
come sopra;
se in [8.39] si hanno a u 1 + bu 2 + c u 3 = a v1 + bv2 + c v3 =
0 ma aq 1 + bq 2 + c q 3 + d = 0, allora si ottiene una relazione
incompatibile della forma 1 = 0. Questo significa che i piani e
non si intersecano, pertanto sono paralleli;
se in [8.39] si hanno a u 1 + bu 2 + c u 3 = (a v1 + bv2 + c v3 ) =
aq 1 + bq 2 + c q 3 + d = 0, allora si ha unidentit della forma 0 = 0
soddisfatta per qualsiasi valore di t, k R. Geometricamente questo
significa che i due piani sono coincidenti.
209
tal caso,
supponiamo
di
e entrambi in equazioni parametriche: in
u
vave
q1
1
1
v
q
u
2
2
2
re e di equazioni, rispettivamente, X =
+t
+k
v3
q3
u3
q1
u1
v1
q 3
u 3
v3
e X = q 2 + t u 2 + k v2 , con t, k, t , k R. Per determinare leventuale intersezione tra e , ovviamente si possono portare od
entrambi od uno solo di essi in equazione cartesiana e ragionare come nei passi precedenti. Altrimenti, si vuole stabilire se esistono valori delle coppie di
parametri (t, k) e (t , k ), rispettivamente, per cui punti di possano essere
anche punti di ; in altre parole, tali che valgano le relazioni:
q 1 + tu 1 + kv1 = q 1 + t u 1 + k v1
q 2 + tu 2 + kv2 = q 2 + t u 2 + k v2
q 3 + tu 3 + kv3 = q 3 + t u 3 + k v3
Notiamo che queste relazioni forniscono un sistema lineare di tre equazioni
nelle indeterminate t, k, t e k cui applicare la teoria dei sistemi lineari. Poich
si applicano ragionamenti analoghi a quanto fatto per le intersezioni di due
rette in R2 , tutte e due in equazioni parametriche, lasciamo al lettore per
esercizio di verificare tutte le possibili eventualit.
Intersezione retta-piano
Supponiamo di avere ora un piano ed una retta r in R3 . Avremo le seguenti possibilit: o la retta ed il piano non si intersecano, ed allora r sar contenuta in un piano
parallelo a . In tal caso, r si dir parallela a . Se invece si intersecano, allora o
si intersecano in un punto, nel qual caso il piano e la retta sono incidenti, oppure si
intersecano lungo una retta, nel qual caso la retta intersezione proprio r , cio r
contenuta in .
Vediamo le possibilit nei vari casi:
(i)
210
8.3 Intersezioni
(ii)
1
l
mo di avere come sopra e r : X = q 2 +t m , t R. Per determinare
q3
le eventuali intersezioni tra e r , a parte ridursi al caso precedente, si procede in questo modo. Poich dallequazione parametrica vettoriale di r si ha
X 1 = q 1 + l t, X 2 = q 2 + m t, X 3 = q 3 + n t, per determinare leventuale intersezione tra e r , si sostituiscono tali espressioni nellequazione
cartesiana che definisce , ottenendo lequazione lineare in t:
[8.40]
(al + bm + c n)t + aq 1 + bq 2 + c q 3 + d = 0
se in [8.40] si ha al + bm + c n = 0, allora si pu ricavare t =
aq +bq 2 +c q 3 +d
1al +bm+c
n . Sostituendo tale valore di t nellequazione parametrica vettoriale di r , otteniamo le coordinate del punto P = r
;
se in [8.40] si hanno al + bm + c n = 0 ma aq 1 + bq 2 + c q 3 + d = 0,
allora si ottiene una relazione incompatibile della forma 1 = 0. Questo significa che il piano e la retta r non si intersecano. Da quanto
discusso prima, la retta ed il piano sono necessariamente paralleli;
se in [8.40] si hanno al +bm +c n = aq 1 +bq 2 +c q 3 +d = 0, allora
si ha unidentit della forma 0 = 0 soddisfatta per qualsiasi valore di
t R. Geometricamente questo significa che la retta r contenuta
nel piano .
211
in equazioni parametriche
equazioni
cartesiane:
q
e r in
v
in tal caso, supponiau1
1
1
mo di avere : X = q 2 + t u 2 + k v2 , t, k R e r come nel
q3
u3
v3
(iv)
se tale sistema risulta incompatibile, non esistono valori dei parametri t e k che diano soluzioni. Quindi la retta r ed il piano non si
intersecano, cio r parallela a ;
se tale sistema ammette una sola soluzione (t0 , k0 ), tale soluzione
corrisponder ad uno ed un solo punto T sul piano il cui vettore
corrispondente T = Q + t0 u + k0 v. Pertanto r e sono incidenti;
se da ultimo tale sistema ammette 1 soluzioni, chiaramente vuol
dire che r contenuta in .
caso, supponiamo
di avere
u
q1
v1
1
e r di equazioni, rispettivamente, X = q 2 + t u 2 + k v2 e
v3
q3
u3
p
1
l
X = p 2 + t m , t, k, t R. Aldil di ricondursi a metodi risolup3
tivi descritti nei casi precedenti, ci si chiede se esistono valori dei parametri
t, k, t , rispettivamente, per cui punti della retta r possano essere anche punti
del piano ; in altre parole, tali che valgano le relazioni:
q 1 + tu 1 + kv1 = p 1 + t l ,
q 2 + tu 2 + kv2 = p 2 + t m
q 3 + tu 3 + kv3 = p 3 + t n
Notiamo che queste relazioni forniscono quindi un sistema lineare di tre
equazioni nelle indeterminate t, k e t cui applicare di nuovo la teoria dei
sistemi lineari. Lasciamo al lettore per esercizio di verificare tutte le possibili
eventualit.
Intersezione tra due rette
Supponiamo ora di avere due rette r e r in R3 . Abbiamo quattro possibilit differenti. Se le due rette si intersecano, allora o si intersecano in un punto, e saranno
quindi incidenti, oppure si intersecano lungo una retta, i.e. sono coincidenti. Se invece le due rette non si intersecano, o sono parallele oppure sono sghembe, i.e. sono due
rette non parallele ma tali che r , r , dove e sono due piani paralleli
(Definizione 6.4). Vediamo tutte le eventualit nei vari casi possibili:
(i)
212
8.3 Intersezioni
a X1 + bX2 + c X3 + d = 0
e X1 + f X2 + g X3 + h = 0
a X 1 + b X 2 + c X 3 + d = 0
e X 1 + f X 2 + g X 3 + h = 0
Trovare leventuale intersezione tra r e r equivale a trovare le soluzioni del sistema lineare di quattro equazioni in tre indeterminate determinato dal mettere a sistema le quattro equazioni precedenti. Denotiamo con A la matrice
4 3 dei coefficienti e con B la matrice 4 4 completa del sistema cos
determinato. Notiamo che 2 r (A) 3 e 2 r (B) 4:
(ii)
tal caso,
q in
1
l
mo di avere r come sopra e r di equazione X = q 2 + t m , t R.
r
q3
(al + bm + c n)t + aq 1 + bq 2 + c q 3 + d = 0
(el + f m + g n)t + e q 1 + f q 2 + g q 3 + h = 0
213
(iii)
r
qavere
p1
1
l
e r di equazioni, rispettivamente, X = p 2 + t m e X = q 2 +
n
p3
q3
l
k m , t, k R. Per determinare leventuale intersezione tra r e r , ci
n
p 2 + tm = q 2 + km ,
p 3 + tn = q 3 + kn
il vettore v =
8.4
1
0
1
0
1
0
Come fatto nel paragrafo 7.5 per le rette di R2 , in questo paragrafo studiamo interessanti insiemi di piani o di rette dello spazio.
Fascio di piani proprio
o di asse una retta
@
@
@
@
@
@
@
@
r
@
@
@
@
@
@
@
@
@
@
figura 8.4 Fascio di piani di asse r
(i)
Siano : a X 1 +b X 2 +c X 3 +d = 0 e : e X 1 + f X 2 +g X 3 +h = 0
piani come sopra. Sia il fascio proprio determinato da essi. Tutti e soli i
piani di sono i piani , di equazione cartesiana
[8.42]
(ii)
(a X 1 +b X 2 +c X 3 +d )+ (e X 1 + f X 2 +g X 3 +h) = 0
(, ) R2 \ {(0, 0)}
215
(iii)
1
figura 8.5 Fascio di piani improprio
Poich costituito da piani di R3 tutti paralleli fra loro, i piani formanti il fascio
avranno tutti quanti la medesima giacitura 0 . Per meglio dire, il piano 0 lunico
piano del fascio passante per lorigine O. Vogliamo descrivere come si rappresenta
un fascio di piani improprio.
proposizione 8.10 Sia un piano di equazione cartesiana a X 1 + b X 2 + c X 3 +
216
[8.43]
a X 1 + b X 2 + c X 3 + t = 0,
t R
a
b
c
Vediamo alcune conseguenze immediate della Proposizione 8.10, le cui ovvie dimostrazioni sono lasciate al lettore per esercizio.
a
Sia n = b un vettore non nullo dello spazio vettoriale R3 .
c
Allora, lequazione del fascio di piani impropri, con vettore normale n :
corollario 8.3
[8.44]
a X 1 + b X 2 + c X 3 + t = 0, t R
corollario 8.4
passante per Q.
Sia P un punto di R3 .
Stella di piani
per un punto
p2
p3
(X 1 p 1 ) + (X 2 p 2 ) + (X 3 p 3 ) = 0
[8.45]
(, , ) R3 \ {(0, 0, 0)}
Dimostrazione
(i)
(ii)
Dimostrazione
(i)
q2
q3
determina
(ii)
(q 2 p 2 )+(q 3 p 3 )
. Questo permette di eliminare il parametro
p 1 q 1
218
Sia P un punto di R3 .
Stella di rette
per un punto
La seguente proposizione spiega come si rappresenta una stella di rette per un punto P .
Sia P =
proposizione 8.12
p2
p3
(X 1 p 1 ) + (X 2 p 2 ) + (X 3 p 3 )
(X 1 p 1 ) + (X 2 p 2 ) + (X 3 p 3 )
= 0
= 0
Dimostrazione
8.5
Formule di geometria di R3
Negli argomenti che seguono, applichiamo i concetti fin qui esposti per la risoluzione
di alcuni fondamentali problemi geometrici nello spazio cartesiano. Ulteriori possibili
problemi geometrici sono facilmente riconducibili ad uno o pi di quelli trattati di
seguito.
Retta passante per due
punti distinti
Condizione
di parallelismo
tra due rette
di parallelismo tra
Siano r e s due rette di R3 . Vogliamo determinare la condizione
l
1
come in [8.28] mentre s abbia vettore direttore w = m 1 ed equazione cartesiana
n1
a 1 X 1 + b 1 X 2 + c 1 X 3 + d1 = 0
a 1 X 1 + b 1 X 2 + c 1 X 3 + d1 = 0
a b c
a b c
l m n
r ||s r
= 1 oppure r
a 1 b 1 c 1 = 2
l1 m1 n1
a 1 b 1 c 1
220
a
a
a1
a 1
a
a
r ||s e r s = r
a 1
a 1
b
b
b1
b 1
b
b
b1
b 1
c
c
c1
c 1
d
d
d1
d1
= 2 mentre
c
c
= 2
c 1
c 1
a
a
e r
a 1
a 1
b
b
b1
b 1
c
c
c1
c 1
d
d
= 3
d1
d1
Siano r e s due rette come al punto precedente. Esse sono incidenti (ma non coincidenti) se, e solo se, r s = ed i rispettivi vettori direttori sono linearmente
indipendenti. Pertanto, nel caso cartesiano avremo:
r s =
a
a
e r =
s r
a 1
a 1
b
b
b1
b 1
c
c
=r
c 1
c 1
a
a
a 1
a 1
b
b
b1
b 1
c
c
c1
c 1
Condizione di incidenza
fra due rette
d
d
= 3
d1
d1
Date r e s come sopra, le due rette si diranno complanari, se esiste un piano tale
che r, s . Quindi, le quattro equazioni date da r e s devono formare un sistema
lineare di quattro equazioni non indipendenti. Pertanto, abbiamo:
Condizione
di complanarit
tra due rette
a b c d
a b c d
t.c. r, s det
a 1 b 1 c 1 d1 = 0
a 1 b 1 c 1 d1
Dal caso precedente, notiamo in particolare che due rette incidenti sono allora sempre complanari. Ovviamente non vale il viceversa: r e s complanari possono essere
parallele.
Date r e s come sopra, esse sono sghembe se r s = ma r e s non sono parallele.
Questo equivale a dire che le equazioni cartesiane di r e di s devono formare un
sistema lineare di quattro equazioni indipendenti in tre indeterminate, i.e. un sistema
incompatibile. Pertanto, abbiamo:
Condizione
di due rette sghembe
a b c d
a b c d
r ed s sghembe det
a 1 b 1 c 1 d1 = 0
a 1 b 1 c 1 d1
Siano dati tre punti distinti P , Q e R in R3 che non siano tutti e tre allineati. Come
possiamo calcolare unequazione parametrica ed unequazione cartesiana del piano
passante per i tre punti?
221
Condizione
di parallelismo
tra due piani
+cX
+ d
= 0 ed equazioni parametriche X = Q
u1
v1
u
v ,
+k
+t
2
u 3
v3
t , k R. I due piani sono paralleli se, e solo se, hanno la medesima giacitura.
Pertanto, a seconda del caso parametrico o cartesiano, avremo
u1 u2 u3
v v v
a b c
1 2 3
|| r u u u = 2 oppure r
=1
a b c
1 2 3
v1 v2 v3
In particolare, e coincidono
quando hanno medesima giacitura e = .
Pertanto: = r aa bb cc dd = 1 mentre
a b c d
a b c
=1 e r
=2
|| e = r
a b c d
a b c
Condizione
di parallelismo
retta-piano
Siano r una retta e un piano di R3 . Supponiamo che abbia equazioni parametriche come in [8.21] ed equazione cartesiana e X 1 + f X 2 + g X 3 + h = 0 mentre
r abbia equazioni parametriche [8.26] ed equazioni cartesiane [8.28]. La retta r e il
piano sono paralleli se, e solo se, un qualsiasi vettore direttore di r appartiene alla
giacitura di . Pertanto, a seconda del caso parametrico o cartesiano, avremo
u1 u2 u3
a b c
||r r v1 v2 v3 = 2 oppure r a b c = 2
e f g
l m n
mentre nel caso r sia in equazioni parametriche e in equazione cartesiana avremo
el + f m + g n = 0
notiamo che questultima relazione equivalente al fatto che il vettore normale a ,
come in [8.32], perpendicolare al vettore direttore di r . La retta r , in particolare,
contenuta
in
se r parallela a e se inoltre r =
. Pertanto:
r
r
222
a b c d
a b c d
e f g h
= 2 mentre r || e r = r
a bc
a b c
e f g
=2 e r
a bc d
a b c d
e f g h
= 3.
p2
p3
X 1 p1 X 2 p2 X 3 p3
a
b
c
= 1.
p1
p2
p3
Piano perpendicolare
ad una retta e passante
per un punto
sar il piano passante per P e con giacitura il piano vettoriale normale alla retta data
(Definizione 8.11):
l (X p 1 ) + m(X 2 p 2 ) + n(X 3 p 3 ) = 0
223
Condizione
di perpendicolarit
tra due piani
Siano r una retta e un piano di R3 . Supponiamo che abbia equazioni parametriche come in [8.21] ed equazione cartesiana e X 1 + f X 2 + g X 3 + h = 0 mentre
r abbia equazioni parametriche [8.26] ed equazioni cartesiane [8.28]. La retta r sar
perpendicolare a se, e solo se, detto w un qualsiasi vettore direttore di r e n un
qualsiasi vettore normale a , w proporzionale
Pertanto, quale che siano le
a ba n.
c
espressioni di r e di , avremo r r l m n = 1, dove l , m e n sono i
parametri direttori di r (dati o calcolabili come in [8.31]) mentre a , b e c sono le
componenti del vettore normale al piano (date o calcolabili come in [8.33]).
Condizione
di perpendicolarit
tra due rette
Date due rette r e s , esse sono perpendicolari (in simboli, r s ) se preso un qualsiasi
vettore direttore v di r ed un qualsiasi vettore direttore
w di s , si ha v, w = 0.
Supponiamo che r abbia vettore direttore v =
a 1 X 1 + b 1 X 2 + c 1 X 3 + d1
= 0
a 1 X 1
= 0
mm 1 + nn 1 = 0.
+ b 1 X 2
+ c 1 X 3
+ d1
l
m ed equazioni cartesiane come
n
l
1
m1
ed equazioni cartesiane date
n1
. Allora, avremo r s ll 1 +
Siano r e s come sopra. Come osservato nel caso di rette in R2 , per definire langolo convesso tra r e s dobbiamo fissare delle orientazioni di tali rette, i.e. dei vettori direttori. Siano questi v e w, rispettivamente. Definiamo langolo convesso fra le
due rette orientate r e s come langolo tra i due vettori direttori fissati (come nella
Definizione 5.17) = (r, s ) := (v, w), cio mediante le condizioni:
[8.49]
0 , cos =
v, w
||v|| ||w||
Questa definizione dipende ovviamente dalla scelta di v e di w. Langolo cos definito viene sostituito da se uno dei due vettori direttori viene moltiplicato per
uno scalare negativo. In particolare, ritroviamo che le due rette sono perpendicolari
se, e solo se, langolo convesso esattamente /2. Se i vettori direttori di r e s hanno
componenti come nel punto precedente, allora
[8.50]
Angolo convesso
tra due piani orientati
ll 1 + mm 1 + nn 1
(r, s ) =
2
2
2
l 2 + m2 + n2 l1 + m1 + n1
0 , cos =
n, n
||n|| ||n ||
a a + bb + c c
(, ) =
a 2 + b 2 + c 2 (a )2 + (b )2 + (c )2
In particolare, ritroviamo che due piani sono perpendicolari se, e solo se, langolo
convesso esattamente /2 i.e. se, e solo se, a a + bb + c c = 0 come trovato
precedentemente.
Siano r una retta e un piano di R3 . Supponiamo che abbia equazioni parametriche come in [8.21] ed equazione cartesiana e X 1 + f X 2 + g X 3 + h = 0 mentre
r abbia equazioni parametriche [8.26] ed equazioni cartesiane [8.28]. Sia n il vettore
normale al , determinato come in [8.32] o in [8.33] a seconda di come sia dato , e
sia w il vettore direttore di r , determinato come in [8.26] o come in [8.31], a seconda
di come sia data r . Langolo tra r e langolo una cui determinazione (cio, a
meno di multipli di 2 ) = 2 , dove langolo convesso tra n e w. Quindi,
a
l
b
e se w = m , langolo definito dalle condizioni:
se n =
c
al + bm + c n
, sin =
2
2
a 2 + b2 + c 2 l 2 + m2 + n2
Proiezione ortogonale
di un punto su un piano
Proiezione ortogonale
di un punto su una retta
Siano r e una retta ed un piano di R3 , tale che r non sia contenuta in . Vogliamo
determinare la proiezione ortogonale di r su , che denotiamo con (r ):
Proiezione ortogonale
di una retta su un piano
225
(i)
(ii)
(a X 1 +b X 2 +c X 3 +d )+(a X 1 +b X 2 +c X 3 +d ) = 0
Si determina lunico piano del fascio che perpendicolare a ; sia
tale piano. Allora r = .
Distanza punto-piano
Supponiamo di avere un punto Q R3 ed un piano non contenente Q. Ricordando la proiezione ortogonale di un punto su un piano, la distanza di Q da
non altro che d (Q, ) := d (Q, (Q)) (se ammettiamo anche il caso in cui
Q banalmente abbiamo d (Q, ) = 0). Pertanto il calcolo della distanza di
un punto da un piano si riduce al calcolo della usuale distanza tra due punti di R3 ,
dove il primo punto in questione Q mentre il secondo punto la proiezione di
Q sul piano dato. Nel caso in cui il piano sia dato in forma cartesiana,
una
c
formula particolarmente semplice da ricordare per d (Q, ). Sia Q =
226
q1
q2
q3
e sia
a
1
per Q e perpendicolare a X = q 2 + t b , t R. Se ora calcoliamo linterq3
Q
[8.53]
d (Q, ) :=
|aq 1 + bq 2 + c q 3 + d |
a 2 + b2 + c 2
Siano date due rette r e s sghembe in R3 . Vogliamo calcolare la distanza tra queste
due rette. Tale problema si riconduce facilmente al precedente calcolo. Infatti si pu
procedere cos: si determina unequazione cartesiana del piano , appartenente al
fascio di piani di asse una delle due rette, per esempio r , e parallelo allaltra, i.e. s .
In tale situazione, la distanza di r da s , denotata come d (r, s ), uguale alla distanza
fra un qualsiasi punto Q su s e il piano . In altre parole, per ogni scelta di Q s ,
d (r, s ) := d (Q, ).
Distanza punto-retta
8.6
In questo paragrafo approfondiamo alcuni argomenti discussi nei Paragrafi 6.4 e 6.5,
considerando lo studio di alcune funzioni o trasformazioni f : R3 R3 che hanno un particolare significato geometrico. Data la vastit dellargomento, ispirandosi
a [7], si sono fatte alcune scelte sugli argomenti da trattare in dettaglio. Tali argomenti
sono quelli maggiormente usati per la risoluzione di esercizi.
Le trasformazioni f : R3 R3 che studieremo verranno chiamate con terminologia equivalente anche applicazioni (par. 6.4); esse saranno isometrie ed affinit
particolarmente importanti di R3 .
Alcune isometrie fondamentali di R3
Iniziamo con il descrivere alcune isometrie di R3 .
Come nel paragrafo 6.1, se P R3 un punto dello spazio cartesiano e P =
P a O il corrispondente vettore dello spazio vettoriale R3 , denoteremo con t P
la traslazione di passo P , che chiaramente unisometria dello spazio cartesiano. In
227
Equazioni di traslazioni
dello spazio cartesiano
R3
x1
x1 + p1
[8.54]
t P x 2 = x 2 + p 2
x3
x3 + p3
Le principali propriet delle traslazioni sono state elencate allinizio del paragrafo 6.1.
In particolare la composizione di due traslazioni ancora una traslazione.
Equazioni di rotazioni
attorno a rette vettoriali
Come fatto per R2 , cominciamo con il considerare alcune isometrie lineari notevoli:
le rotazioni attorno ad una retta vettoriale. La teoria un p pi complicata di quella
sviluppata per R2 . Diamo la seguente:
R3 arbitrario. Allora
x1
x1
1
0
0
x2
R x 2 = 0 cos sin
0 sin cos
x3
x3
[8.55]
In altri termini, se
x
x2
x3
x1
sono:
x 1 = x 1
x 2 = cos x 2 sin x 3
x = sin x 2 + cos x 3
3
[8.56]
In particolare:
se = 0, allora R = Id;
se > 0, la rotazione indotta sul piano vettoriale (x 2 , x 3 ) in senso
antiorario rispetto al vettore e 2 ;
se < 0, la rotazione indotta sul piano vettoriale (x 2 , x 3 ) in senso
orario rispetto al vettore e 2 .
Dimostrazione
228
corollario 8.6
Osservazione 8.12
Da quanto dimostrato nella Proposizione 6.13 e dal Corol- vettoriale R3 , i.e. Or(u, v,w) = Or(R (u), R (v), R (w)),
lario 8.6, notiamo subito che le rotazioni R attorno a e1 per ogni terna di vettori linearmente indipendenti u, v,w di
in particolare conservano lorientazione di basi dello spazio R3 e per ogni R.
proposizione 8.14
(i)
Per , R, si ha R R = R R = R + .
(ii)
Per ogni R, R = R .
siano ora
y1
y2
y3
lapice in alto sta a ricordare che stiamo vedendo tutto relativamente alla base
f . Abbiamo quindi dalla Proposizione 8.13:
y1
y1
1
0
0
f
y 2
R y 2 = 0 cos sin
[8.57]
0 sin
cos
y3
y3
In altre parole, la matrice rappresentativa di R,v in base f :
1
0
0
A f := 0 cos sin
0 sin
cos
3.
lobiettivo finale quello di determinare la matrice A := A e della rotazione cercata, espressa rispetto alla base e di partenza. Per fare questo, sia
M := Me f la matrice cambiamento di base dalla base e alla base f (Definizione 4.26). Poich e ed f sono ambedue basi ortonormali, dal Teorema
5.5, M una matrice 3 3 ortogonale, i.e. t M M = I3 (Definizione 5.14).
x
1
1
Sia x = (e 1 e 2 e 3 ) x 2 = ( f 1 f 2 f 3 ) y 2 un vettore arbitrario di R3
x3
y3
espresso nelle sue componenti sia rispetto alla base e che alla base f , e sia
y1
x1
f
y2
= ( f 1 f 2 f 3) A
x = R,v (x ) = (e 1 e 2 e 3 ) A x 2
x3
y3
il vettore trasformato mediante la rotazione considerata, espresso nei diversi sistemi di coordinate. Ricordiamo che, per definizione di M = Me f si
ha (e 1 e 2 e 3 )M = ( f 1 f 2 f 3 ). Pertanto, dalla precedente eguaglianza
vettoriale abbiamo:
y1
x1
f
y2
= (e 1 e 2 e 3 )M A
[8.58] x = R,v (x ) = (e 1 e 2 e 3 ) A x 2
x3
y3
x
1
Poich x 2 la colonna delle componenti del vettore x rispetto ad e e
x3
y
1
y2
la colonna delle componenti del medesimo vettore rispetto a f , dal
y3
230
= M 1
x2 =
Teorema 4.9 e dalla definizione di M = Me f abbiamo
x3
x
1
t M x 2 , dato che M 1 = t M. Da [8.58], otteniamo quindi leguaglianza
y2
y3
x3
x1
x1
(e 1 e 2 e 3 ) A x 2 = (e 1 e 2 e 3 )M A f t M x 2
x3
x3
[8.59]
[8.60]
corollario 8.7
(i)
(ii)
(iii)
Dimostrazione
231
v
tonormale di R3 positivamente orientata e con f1 =
= 1/ 3 . Per prendere un
||v||
1/
vettore w ortogonale a f1 , notiamo per esempio che le coordinate di f1 sono tutte uguali;
1
0
2/ 6
10 0
come colonne
le componenti
vettori della base f espresse in funzione della base e, si
dei
1/ 3 1/ 2 1/ 6
1/
2/
1/3
(1 3)/3 (1 + 3)/3
A = MAf t M =
1/3
1/3
3/3
1/3
(1 3)/3 (1 + 3)/3
Equazioni di riflessioni
rispetto a rette vettoriali
Notiamo subito che la riflessione rispetto ad una retta vettoriale r un particolare tipo
di rotazione lineare, precisamente la rotazione di angolo intorno a r . In questo
caso, immediato osservare che il risultato non dipende dallorientazione di r . Da
ultimo, per ogni retta vettoriale r , Sr,O chiaramente unisometria lineare diretta;
in particolare, conserva lorientazione di basi di R3 .
Equazioni di riflessioni
rispetto allorigine
che, per ogni punto P R3 si associa il punto estremo libero del vettore P .
S O detta riflessione rispetto allorigine.
Le equazioni della riflessione rispetto ad O sono chiaramente:
x1
x1
x 1
1
0
0
0 x 2 = x 2
[8.61]
S O x 2 = 0 1
0
0 1
x3
x3
x 3
Riflessioni rispetto
a piani vettoriali
Equazioni di rotazioni
attorno a rette
R,r = t P R,v tP
3 supponiamo che
Per determinare
equazioni di tale isometria
le
di R ,
esplicitamente
P =
p1
p2
p3
. Pertanto R,r
x1
x2
x3
= t P R,v
x1 p1
x2 p2
x3 p3
= tP
x1 p1
x2 p2
x3 p3
con A calcolata come in [8.60]. Questo fornisce le equazioni della rotazione attorno
alla retta orientata r date da:
x1
x1
q1
[8.63]
R,r x 2 = A x 2 + q 2
x3
x3
q3
q
dove
1
q2
q3
p1
:= A
p2
p3
p2
p3
Equazioni di riflessioni
rispetto a rette o punti
dello spazio cartesiano
1
P = p 2 , otteniamo
x1
x2
x3
e se
p3
[8.64]
Equazioni di riflessioni
rispetto a piani dello
spazio cartesiano
x1
2 p1 x1
S P x 2 = 2 p 2 x 2
x3
2 p3 x3
di R3 e perpendicolare
x
a
1
a . Tale retta ha equazione parametrica vettoriale X = x 2 + t b , t R. La
c
x3
x
1
proiezione ortogonale di x 2 su si ottiene allora come punto su s per il valore
x3
x
1
a x 1 +bx 2 +c x 3 +d
del parametro t0 := a 2 +b 2 +c 2 . Poich il punto x 2 si ottiene su s per
vettoriale della retta s passante per un punto arbitrario
x3
1
a
a x +bx 2 +c x 3 +d
x 2 2 1
b . Sviluppando tutti i conti, otteniamo che le equazioni
a 2 +b 2 +c 2
x3
+
a 2 +b 2 +c 2
2
2c d
a 2 +b 2 +c 2
234
2a c
x1
a 2 +b 2 +c 2
2bc
x2 +
a 2 +b 2 +c 2
2
2
2
x3
a +b c
a 2 +b 2 +c 2
Dilatazioni lineari
definita da
[8.66]
x1
x1
0 0
D,, x 2 = 0 0 x 2
0 0
x3
x3
Una tale trasformazione viene chiamata dilatazione lineare. Notare che quando =
= abbiamo in particolare unomotetia di modulo positivo (par. 6.4). Ovviamente quando , e sono negativi, la trasformazione D,, verr detta contrazione
lineare.
Notare che per esempio, quando , , sono diversi da 1 ed almeno due diversi
fra loro, la dilatazione lineare D,, non conserva n gli angoli n tanto meno le
lunghezze. Pertanto un sicuro esempio di affinit lineare che non unisometria
lineare. Se invece = = R+ , nel qual caso D,, unomotetia di modulo positivo, allora gli angoli vengono conservati. Ci che non viene conservata la
lunghezza.
definizione 8.20 Siano , ,
Deformazioni lineari
definita da
[8.67]
x1
x1
1
T x 2 = 0 1 x 2
0 0 1
x3
x3
Come nel caso di R2 , una tale trasformazione viene chiamata deformazione lineare (o
shear). Ovviamente, se (, , ) = (0, 0, 0), una deformazione lineare non conserva
mai n angoli n tantomeno lunghezze. Questi sono ulteriori esempi di affinit lineari
che non sono isometrie lineari. Per quanto dimostrato nella Proposizione 6.13, sia le
dilatazioni che le deformazioni lineari conservano lorientazione di basi dello spazio
vettoriale R3 . Dalla Proposizione 8.3-(ii) e dallOsservazione 8.2, le deformazioni
lineari conservano anche i volumi; invece le dilatazioni conservano i volumi se, e
solo se, = 1.
Data una retta r , rispettivamente, un piano nello spazio cartesiano R3 , come trovare lequazione della retta s , rispettivamente, del piano , ottenuti per trasformazione
di r , rispettivamente di , mediante una qualsiasi isometria od una qualsiasi affinit
di R3 ?
235
Trasformati di luoghi
geometrici dello spazio
cartesiano R3
(i)
(ii)
Due qualsiasi rette dello spazio cartesiano R3 sono sempre fra di loro
congruenti (in particolare, affinemente equivalenti);
due qualsiasi piani dello spazio cartesiano R3 sono sempre fra di loro
congruenti (in particolare, affinemente equivalenti).
La dimostrazione concettualmente uguale a quella di Teorema 7.1, pertanto lasciata al lettore per esercizio. In particolare, utilizzando la stessa analisi, abbiamo come
conseguenza:
corollario 8.8 Dato una qualsiasi piano dello spazio cartesiano, esiste sempre
un opportuno
riferimento cartesiano di R3 , con origine O e coordinate cartesiane
y1
y 2 , in cui lequazione cartesiana di Y = 0.
3
y3
Lequazione cartesiana come sopra viene chiamata lequazione canonica metrica (rispettivamente, affine) dei piani dello spazio cartesiano.
Il precedente corollario asserisce che, quale che sia il piano di partenza, esiste sempre
un riferimento cartesiano in cui questo piano ha unequazione cartesiana pi semplice
possibile.
Come vedremo nel capitolo 13, una propriet analoga varr anche per altre superfici
definite da equazioni polinomiali di secondo grado: le quadriche. Anche in questo
caso, troveremo un metodo per determinare un opportuno riferimento cartesiano in
cui queste superfici abbiano unequazione cartesiana pi semplice possibile. Quello
che non sar pi vero lequivalente del Teorema 8.1: non vero cio che tutte
le quadriche dello spazio sono affinemente equivalenti, e quindi in particolare non
saranno nemmeno congruenti.
236
8.7
Sfere e circonferenze
d (P , C ) = r
[8.68]
x2
x3
un punto arbitrario di R3
e sia C =
c2
c3
. Siano P e C i corrispon-
denti vettori dello spazio vettoriale R3 associati a tali punti. Allora, la formula [8.68]
si traduce in ||P C || = r . Passando tutto in componenti, otteniamo la relazione
(x 1 c 1 )2 + (x 2 c 2 )2 + (x 3 c 3 )2 = r 2 . Pertanto, da questultima eguaglianza,
deduciamo che lequazione cartesiana della sfera S di centro C e raggio r lequazione
[8.69]
(X 1 c 1 )2 + (X 2 c 2 )2 + (X 3 c 3 )2 = r 2
X2 = c2
s [/2, /2]
X 3 = c 3 + r sin s
237
X 2 = c 2 + r cos s sin t
s [/2, /2],
t [0, 2 )
X 3 = c 3 + r sin s
In relazione alla ben nota applicazione alla sfera terrestre, i parametri s e t vengono anche detti rispettivamente latitudine e longitudine della rappresentazione parametrica di S . Osserviamo che, dato un sistema di equazioni parametriche come in
[8.71], banale trovare lequazione cartesiana di S come in [8.69]: basta portare al
primo membro le coordinate del centro, elevare al quadrato le tre relazioni ottenute
e sommarle fra loro.
Studiamo ora alcune propriet geometriche delle sfere, in particolare quelle propriet
che si possono affrontare dal punto di vista della geometria analitica.
Intersezioni tra sfera
e piano
Data una sfera S ed un piano , vogliamo verificare che abbiamo tre diverse possibilit per la loro eventuale intersezione:
Vediamo per quale motivo queste sono effettivamente le uniche possibilit. Fissiamo
un sistema di riferimento cartesiano in cui lorigine di tale riferimento sia il centro
C della sfera S di raggio r e siano x 1 , x 2 e x 3 le coordinate in tale riferimento. Da
figura 8.7 La sfera S ed un
suo piano tangente
||X ||2 = r 2
Poich il secondo membro di [8.73] indipendente da t e da k, se tale secondo membro positivo allora [8.73] lequazione di una circonferenza sul piano dato (e
238
e sia Q =
q1
q2
q3
in Q :
[8.74]
Circonferenze in R3
Osservazione 8.14
Notiamo che lequazione X1 2 +X2 2 = r 2 della circonferenza
nel piano coordinato (x1 , x2 ) letta in R3 non lequazione
cartesiana di una curva ma lequazione cartesiana di una
supercie, dato che le sue soluzioni dipendono da
due para
r cos
r sin
t
cilindro circolare retto che ha come curva base la circonferenza C in [8.76] e, per ogni punto P di C , la retta passante
per P e parallela allasse x3 (detta generatrice del cilindro
passante per P) contenuta in . In
r
0
0
in R3 , il cilindro
con , t R, soddisfano tale equazione. Precisamente, il si ottiene facendo ruotare attorno allasse x3 la generatrice g
luogo dei punti di R3 che soddisfano questa equazione un di equazioni cartesiane X1 r = X2 = 0.
Dati una sfera S , di centro C e raggio r , ed un piano secante S (ma non necessariamente passante per C ) come possiamo calcolare il centro ed il raggio della
circonferenza sezione C = S ?
Se passa per C , la circonferenza sezione C sar una circonferenza massima (o equatoriale), i.e. di raggio massimo su S : C avr centro C e raggio r .
Se invece non passa per il centro di S (figura 8.8), possiamo usare le seguenti
procedure:
240
2X1 + 2X2 1 = X1 + X2 + X3 1 = 0
La sfera S centrata in O e ha raggio unitario. Il piano , di equazione cartesiana 2x1+2X2+
1 = 0, non passa per O. La retta per O perpendicolare a ha equazioni parametriche X1 = t,
X2 = t, X3 = 0, t R. Pertanto, sostituendo nellequazione di , il centro C si ottiene per il
1/4
2
14
|1|
2
[8.53], abbiamo d(O, ) = = 4 . Quindi, r = 1 16
= 4 il raggio di C .
8
Supponiamo ora di avere una retta s ed una sfera S . Vogliamo vedere come sono le
loro possibili intersezioni. Poich una qualsiasi retta di R3 determinata come intersezione di due piani incidenti, allora possiamo utilizzare quanto discusso precedentemente sullintersezione tra una sfera ed un piano. Infatti, ponendo s = , dove
e due qualsiasi piani del fascio proprio di asse s , le possibilit sono le seguenti:
s e S si intersecano in esattamente due punti distinti, i.e. S s = {Q 1 , Q 2 };
in tal caso s si dir retta secante la sfera S . Tale eventualit accade quando ambedue i piani e sono secanti S . In particolare, le circonferenze sezionali
C := S e C := S sono tali che C C = {Q 1 , Q 2 };
p3
Soluzioni
Quesiti ed esercizi
metriche della retta che si ottiene applicando R/2,v
1.
3
Nello spazio cartesiano R sia il piano di equazione cara r.
tesiana X1 + X2 = 1 e sia r la retta di equazioni cartesiane
4.
X1 + X2 + 2X3 = 0
Nello spazio cartesiano R3 con riferimento cartesiano orX2 + X3 = 1
tonormale (O, e), dove e la base canonica, siano e r
cartesiane, rispettivamen(i)
trovare le equazioni cartesiane della retta r , che il piano e la retta di equazioni
X1 +X2 +2X3 = 0
proiezione ortogonale di r su ;
te, X1 + X2 + X3 = 0 e
. Sia
X2 +X3 = 1
(ii)
calcolare le equazioni parametriche della retta
S (r), che la retta ottenuta per riessione rispetto S la riessione rispetto al piano . Calcolare le equazioni parametriche della retta m = S (r), riessa di r
al piano della retta r.
rispetto a .
2.
5.
X1 X2 = 1
3
ed il piano Nello spazio vettoriale R sia U il sottospazio
Sono assegnate la retta r :
1vettoriale,
dato
2
X3 = 0
in equazione parametrica vettoriale X = s 2 + t 1 ,
: X1 + 2X2 X3 = 0:
1
0
s, t R. Determinare una base ortonormale b di R3 , positi(i)
determinare il piano contenente r ed ortogonale
vamente orientata ed avente i primi due versori appartenenti
a ;
ad U.
(ii)
determinare la retta s , proiezione ortogonale di r su
6.
;
Nello spazio cartesiano R3 , sia dato il piano di equazione
1
(iii)
determinare langolo convesso (r, s) tra r e s.
cartesiana 2X1 X2 + 3X3 = 0 ed un suo punto P = 5 .
3.
1
1
(i)
(ii)
3
scrivere le formule per la rotazione R/2,v di angolo Dati i tre punti in R , A =
242
0
1
0
,B=
1
1
1
,C=
2
0
1
9
Applicazioni lineari
9.1
Denizioni ed esempi
Y1 , . . . ,Y p e X 1 , . . . , X q sono indeterminate;
F1 (X 1 , . . . , X q ), . . . , F p (X 1 , . . . ,X q ) sono opportune espressioni in X 1 , . . . ,
. . . , Xq;
Fi (v1 , . . . , vq ) un ben definito numero reale per ogni q -upla (v1 , . . . , vq )
Rq ;
f definita nel modo seguente: v = (v1 , . . . , vq ) Rq , f (v) = (F1 (v1 , . . . ,
vq ), . . . , F p (v1 , . . . , vq )).
Y2 =
X 1 + X 2,
Y3 = log
1
1+
2
X1
243
9 Applicazioni lineari
2.
3.
Y4 =
1
2
1 + X1
Y5 = 3
4.
Y2 = sin(X 1 ),
Y2 = 3X 1 + X 2
1
X3
2
Y2 = X 1 + X 2
h ed i hanno la particolarit che le loro equazioni sono tutte equazioni lineari. Precisamente le equazioni di h sono equazioni lineari omogenee. Pi in generale possiamo
allora considerare tutte quelle funzioni a : Rq R p definite da un sistema di
equazioni lineari omogenee e cio da equazioni
Y1 = a 11 X 1 + + a p1 X q , . . . , Y p = a p1 X 1 + + a pq X q
dove i coefficienti a i j sono numeri reali. Le funzioni definite come a sono, come
avremo modo di vedere, proprio le applicazioni lineari dallo spazio vettoriale Rq allo
spazio vettoriale R p .
Pi in generale vedremo che lo studio di unapplicazione lineare tra due spazi vettoriali qualsiasi di dimensione finita, V e W, sempre riconducibile allo studio di un
sistema di equazioni come quelle precedenti.
definizione 9.1 Siano V e W due spazi vettoriali. Una funzione f : V W
una applicazione lineare se sono soddisfatte le seguenti propriet:
(AL 1)
(AL 2)
a , b V, f (a + b) = f (a ) + f (b);
a V e R, f (a ) = f (a ).
244
3.
4.
Dimostrazione
f (x ) = f (x 1 v 1 + x n1 v n1 ) + f (x n v n )
Daltra parte segue da (AL2) che f (x n v n ) = x n f (v n ) e segue per induzione che x 1 f (v 1 ) +
+ x n1 f (v n1 ) = f (x 1 v 1 + x n1 v n1 ).
Dalle ultime tre uguaglianze segue allora che f (x ) = x 1 f (v 1 ) + + x n f (v n ).
teorema 9.1 Siano b = b 1 , . . . , b n una base di V e w 1 , . . . , w n un sistema di
9 Applicazioni lineari
Inoltre tale f la funzione definita nel modo seguente:
x = x 1 b 1 + + x n b n V,
f (x ) := x 1 w 1 + + x n w n
Dimostrazione
Osservazione 9.1
Il teorema stabilisce che per denire unapplicazione lineare de poi per linearit, infatti per ogni x =
f : V W basta denire quali sono i vettori f(b1 ), . . . , f(bn ), f(x ) = xi f(bi ).
dove b1 , . . . , bn una base di V: automaticamente f si esten-
2.
3.
Il discorso iniziato ora verr sviluppato nel paragrafo 9.3, dove lo studio di unapplicazione lineare tra due spazi vettoriali di dimensione finita verr posto in relazione con
lo studio concreto di una matrice e dei sistemi lineari che hanno essa come matrice
dei coefficienti.
246
9.2
Im f = { f (v), v V }.
proposizione 9.1
vettoriale di W.
Siano a , b Ker f allora f (a ) = f (b) = 0W . Poich f unapplicazione lineare, f (a + b) = f (a ) + f (b) = 0W e quindi a + b Ker f . Siano R
e a Ker f , allora f (a ) = f (a ) = 0W = 0W e quindi a Ker f . Ci prova che
Ker f chiuso rispetto alla somma ed alla moltiplicazione di un vettore per un numero reale,
quindi Ker f un sottospazio vettoriale di V .
Dimostrazione
Siano ora c , d Im f , allora c = f (a ) e d = f (b) dove a , b V . Poich f unapplicazione lineare f (a + b) = f (a ) + f (b) = c + d e quindi c + d Im f . Sia R e sia
c = f (a ) Im f , allora c = f (a ) = f (a ) e c Im f . Come nel caso precedente ne
segue che Im f un sottospazio vettoriale di V .
proposizione 9.2 Sia f : V W unapplicazione lineare, allora:
1.
2.
Dimostrazione
1.
2.
247
9 Applicazioni lineari
proposizione 9.3 Sia f : V W unapplicazione lineare. Se V ha dimensione
Dimostrazione
Sia v 1 , . . . , v n un sistema di generatori di V , baster provare che i vettori
w1 = f (v 1 ), . . . , wn = f (v n ) costituiscono un sistema di generatori di Im f . Sia c
Im f allora esiste a V tale che c = f (a ) ed inoltre a = a 1 v 1 + + a n v n poich
v 1 , . . . , v n un sistema di generatori di V . Infine, essendo f unapplicazione lineare, si ha
c = f (a 1 v 1 + + a n v n ) = a 1 f (v 1 ) + + a n f (v n ) = a 1 w 1 + + a n wn . I vettori
w1 , . . . , wn costituiscono dunque un sistema di generatori per Im f .
teorema 9.2 Sia f : V W unapplicazione lineare. Se V ha dimensione finita
Dimostrazione
Poich V ha dimensione finita anche il suo sottospazio Ker f ha dimensione finita, (Teorema 4.6). Sia s = dim Ker f e sia u 1 , . . . , u s una sua base. Per il
Teorema 4.4 sappiamo che questa pu essere estesa ad una base u 1 , . . . , u s , v 1 , . . . , v t di
V , che avr in particolare dimensione s + t. Dalla proposizione precedente sappiamo che
i vettori 0 = f (u 1 ), . . . , 0 = f (u n ), w1 = f (v 1 ), . . . , wt = f (v t ) costituiscono un
sistema di generatori di Im f . Tra i precedenti vettori i primi s sono uguali al vettore nullo.
Ricordiamo ora che, eliminando il vettore nullo da un sistema di generatori, si ottiene ancora
un sistema di generatori. Quindi i vettori w 1 , . . . , wt sono ancora un sistema di generatori
di Im f . Supponiamo che tali vettori siano linearmente indipendenti, allora essi costituiscono una base di Im f che avr quindi dimensione t. Ci implica il teorema perch allora
dim Im f + dim Ker f = t + s = dim V .
Per completare la dimostrazione rimane quindi da provare che w 1 , . . . , w t sono linearmente
indipendenti. A tale scopo sia 1 w1 + + t wt = 0W ; dobbiamo provare che 1 =
= t = 0. Poich f un applicazione lineare e poich wi = f (v i ) avremo 1 f (v 1 ) +
+ t f (v t ) = f (1 v 1 + + t v t ) = 0W . Dallultima uguaglianza segue che 1 v 1 +
+ t v t appartiene a Ker f ed dunque combinazione lineare di u 1 , . . . , u t , cio vale
1 u 1 + + s u s = 1 v 1 + + t v t , per opportuni i R, 1 i s . Tale
uguaglianza equivale a 1 u 1 + + s u s 1 v 1 t v t = 0V . Si noti che i vettori
u 1 , . . . , u s , v 1 , . . . , v t sono una base di V e quindi linearmente indipendenti. In particolare
segue che 1 = = s = 1 = = t = 0. Ci prova che w1 , . . . , w t sono vettori
linearmente indipendenti di Im f .
definizione 9.4 Unapplicazione lineare f : V W si dice isomorfismo se
iniettiva e suriettiva.
Isomorsmi
Dimostrazione
Dimostrazione
249
Formula di Grassmann
9 Applicazioni lineari
Riguardo a Ker f abbiamo: (s , t) Ker f s t = 0 s = t cio (s , t) Ker f
(s , t) = (z, z), dove z S T. Pertanto abbiamo
Ker f = {(z, z), z S T }
Si osservi inoltre che, se z 1 , . . . , z k una base di ST, allora (z 1 , z 1 ), . . . , (z k , z k ) una base
di Ker f . Quindi dim Ker f = dim S T. Applicando la formula del Teorema 9.2, otteniamo
infine dim(S + T) + dim(S T) = dim Im f + dim Ker f = dim S T = dim S + dim T
9.3
basi v e w.
Una volta definita Mw,v ( f ), vediamo come usare tale matrice per studiare f :
teorema 9.5 Sia Mw,v ( f ) la matrice dellapplicazione lineare f : V W
rispetto alle basi v di V e w di W, come sopra. Siano poi x = x 1 v 1 + + x q v q
e f (x ) = y 1 w1 + + y p w p . Allora vale luguaglianza
y1
x1
.. ..
Mw,v ( f ) . = .
xq
yp
Dimostrazione
[9.1]
250
[9.2]
w1 . . . w p
y1
..
. = y 1 w1 + + y p w p = f (x )
yp
Daltra parte valgono anche le uguaglianze
[9.3]
w1 , . . . , w p
a 11 . . .a 1q
Mw,v ( f ) = w 1 . . . wq
...
=
a pq . . . a pq
= f (v 1 ) . . . f (v q )
La prima uguaglianza nella [9.3] infatti ovvia e la seconda si verifica direttamente eseguendo
il prodotto della riga (w1 , . . . , wq ) per le colonne della matrice Mw,v ( f ). Sostituendo in
[9.1] la riga ( f (v 1 ), . . . , f (v q )) con (w1 , . . . , w p ) Mw,v ( f ) otteniamo
w1 , . . . , w p
x1
..
Mw,v ( f ) . = f (x )
xq
x
.1
Quindi la colonna di numeri reali Mw,v ( f ) .. la colonna delle componenti di f (x )
rispetto alla base w. Ci prova lasserto.
xq
Descriveremo ora qualche applicazione pratica della formula enunciata nel teorema.
Nel seguito indicheremo sempre con f : V W unapplicazione lineare tra due
spazi vettoriali V e W la cui dimensione finita. Supporremo fissate una base v =
v 1 , . . . , v q di V ed una base w = w1 , . . . , w p di W. Per semplicit di scrittura
porremo A = Mw,v ( f ) ed indicheremo i termini di tale matrice con a i j . Per tutte
le applicazioni considerate proporremo alcuni semplici esercizi od esempi.
Sia b W. Linsieme delle controimmagini di b mediante f linsieme f 1 (b) :=
{t V | f (t) = b}.
1
usando
Non difficile descrivere linsieme
f (b)
la matrice A, si consideri infatti
X1
b1
..
..
il sistema di equazioni lineari A
=
.
. dove b = b 1 w1 + + b p w p .
Xq
bp
Insieme delle
controimmagini
di un vettore
9 Applicazioni lineari
111
111
Le soluzioni di tale sistema sono le q -uple delle componenti dei vettori t Ker f .
Esempio 9.3 Vettori nel nucleo di f
Sia per esempio V = P2 lo spazio vettoriale dei polinomi a coefcienti reali e di grado 2 in
una indeterminata T. Siano poi v la base di V costituita dai polinomi v1 = 1, v2 = T, v3 = T 2
e w la base costituita dai polinomiw1 = 1 + T,w2 = 1 T,w3 = 1 + T 2 . Supponiamo inne
che la matrice di f rispetto alle basi v e w sia
0
1 1
Mw,v (f ) = A = 1
0
2
1 2
0
Per determinare il nucleo di f prima si risolve il sistema omogeneo X2 X3 = X1 +
2X3 = X1 2X2 = 0, la cui matrice dei coefcienti A. Le soluzioni del sistema sono le
terne ( 2k , k, k), k R. Questo vuol dire che i vettori del nucleo sono esattamente i vettori
2
k
1
v
+
kv
+
kv
,
con
k
R
,
e
cio
i
polinomi
k
+
T
+
T
, k R. I vettori di Ker f sono
2
3
2 1
2
tutti i multipli di 12 + T + T 2 . Tale polinomio una base di Ker f che perci ha dimensione 1.
252
come B, quindi tale sistema omogeneo ha ununica soluzione che quella nulla. Ne segue che
1 = = r = 0 e che i vettori s 1 , . . . , s r sono linearmente indipendenti. Ci completa
la dimostrazione.
teorema 9.6 Sia w = w 1 , . . . , w p una base di uno spazio vettoriale W e siano
w1
u1
.. ..
M . = .
wp
ur
w1
t1
.. ..
N . = .
wp
tr
253
9 Applicazioni lineari
Sia poi M = P N, dove P una matrice invertibile. Allora i sistemi di vettori
u = u 1 , . . . , u r e t = t 1 , . . . , t r generano lo stesso sottospazio vettoriale di W.
Dimostrazione
wp
tr
X1
..
.
Xq
u i v i di
9.4
Siano A = (a i j ) e B = (b ki ), con j = 1, . . . , p, i = 1, . . . , q ,
k = 1, . . . , r , dove p, q , r sono, rispettivamente, le dimensioni di U, S, T. Siano u =
Dimostrazione
255
9 Applicazioni lineari
u 1 , . . . , u p , s = s 1 , . . . , s q e t = t 1 , . . . , t r le basi date. Abbiamo allora
f (u j ) = a 1 j s 1 + + a q j s q
g (s i ) = b 1i t 1 + + br i t r
e quindi
q
q
q
r
ai j s i =
a i j g (s i ) =
ai j
b ki t k
g f (u j ) = g
i=1
i=1
i=1
k=1
g f (u j ) =
q
q
b 1i a i j t 1 + +
br i a i j t r
i=1
i=1
Concludiamo questa sezione descrivendo come cambia la matrice Mw,v ( f ) cambiando la scelta delle basi v e w, rispettivamente, su V e su W.
Siano u e v basi di uno spazio vettoriale V e sia Pvu la matrice del
cambiamento di base da v ad u (Definizione 4.26). Sia poi id V : V V la
funzione identit. Allora Mv,u (id V ) = Pvu .
lemma 9.2
Dimostrazione
Sia u = u 1 , . . . , u q ; basta ricordare che la j -esima colonna di Pvu la
colonna delle componenti del vettore u j rispetto a v. Daltra parte la j -esima colonna di
Mv,u (id V ) la colonna delle componenti di id V (u j ) rispetto a v. Poich id V (u j ) = u j le
due matrici sono la stessa.
In altre parole la matrice del cambiamento di base da v ad u non altro che la matrice
associata allapplicazione lineare id V rispetto alle basi u e v.
teorema 9.8 Sia f : V W unapplicazione lineare tra due spazi di dimensione
Consideriamo il diagramma
f
(V, v ) (W, w )
id V
id W
(V, v)
(W, w)
dove si sono esplicitate le basi considerate per dominio e codominio delle varie applicazioni.
ovvio che vale f = id W f id V . Segue allora dal Teorema 9.7 e dal Lemma 9.2 che
Mw ,v ( f ) = Mw ,w (id W )Mw,v ( f )Mv,v (id V ) = Pw w Mw,v ( f )Pvv
mensione finita. Si definisce il rango di f , denotato con r ( f ), la dimensione del sottospazio vettoriale Im f W. In particolare, r ( f ) = r (A), dove
A = Mw,v ( f ) la matrice che rappresenta f in una qualsiasi base v di V ed
una qualsiasi base w di W.
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).
Soluzioni
Quesiti ed esercizi
1.
Siano dati gli spazi vettoriali R2 e R3 e siano e, la base canonica su R2 , ed e , la base canonica su R3 . Sia data la funzione f : R2 R3 denita in modo che, per ogni vettore
x = (x1 , x2 ) R2 , espresso nelle sue componenti in base e,
si abbia
f(x ) = (x1 + 2x2 , 3x2 , x1 x2 )
257
9 Applicazioni lineari
w = w1 ,w2 ,w3 una base di W. Sia f : V W lapplicazione
2.
Siano V e W due spazi vettoriali di dimensioni, rispettiva- lineare denita sulle basi date in tal modo:
mente, 3 e 2. Siano date in seguito v = v1 , v2 , v3 una base di
f(v1 + v3 ) =w1 +w2 , f(v2 ) =w3 ,
V e w =w1 ,w2 una base di W. Sia f : V W lapplicazione
f(v2 v3 ) =w1 w2 +w3
lineare denita sulle basi date in tal modo:
Determinare la matrice Mw,v (f ) e stabilire se f un
isomorsmo.
f(v3 ) = 2w2
5.
3
2
Determinare la matrice Mw,v (f ) e le equazioni di f (rispetto Sia f : R R lapplicazione lineare di spazi vettoriali, la
cui matrice rappresentativa
rispetto alle rispettive basi canoalle basi date).
121
niche A = 1 2 1 . Dati i vettori u = (2, 1) ew = (3, 3),
3.
f(v1 ) =w1 + 2w2 , f(v2 ) = 2w1 ,
X1 X5 = X2 + X3 = 0 e
X1 X2 X3 + X4 X5 = X3 = X4 = 0
(iii)
(iv)
(i)
(ii)
7.
Sia f : R3 R2 lapplicazione lineare di spazi vettoriali, la cui matrice rappresentativa
rispetto alle rispettive basi canoniche A = 12 01 10 . Siano date ora, rispettiva-
258
10
Operatori lineari
10.1 Generalit su operatori lineari e diagonalizzazione
Questo capitolo dedicato alle applicazioni lineari di uno spazio vettoriale V in s.
Vista la loro particolare importanza, anche a tali applicazioni viene riservato un nome
speciale:
definizione 10.1 Un operatore lineare su V unapplicazione lineare f : V
Operatore lineare
V.
Osservazione 10.1
Il nome di operatore trae origine dallidea tradizionale che vettori, pi precisamente trasformando il vettore v nel vettouna qualsiasi funzione f : V V dovesse essere considera- re f(v ). Laggettivo lineare era poi riservato agli operatori su
ta come un meccanismo che opera su V trasformando i suoi V dotati della propriet di essere applicazioni lineari.
Mv ( f ) = P 1 Mu ( f )P
dove P = Puv la matrice del cambiamento di base dalla base u alla base v.
259
10 Operatori lineari
Dimostrazione
teorema 10.2
1.
2.
Dimostrazione
260
P 1 M P .
261
Matrici simili
10 Operatori lineari
Osservazione 10.2
Dal Teorema 10.1, due matrici che rappresentano lo stesso operatore lineare in 2 basi distinte di V sono sempre simili.
Sia Mnn linsieme delle matrici quadrate di ordine n. Per ogni M Mnn abbiamo
linsieme S (M) = {N Mnn | M simile a N}.
Una domanda naturale allora:
Per quali M Mnn linsieme S (M) contiene una matrice diagonale?
Matrice diagonalizzabile
Osservazione 10.3
Assegnata una matrice quadrata M ci si chiede dunque se M
simile ad una matrice diagonale. Tale domanda strettamente collegata alle domande precedenti che riguardano gli operatori lineari. Assegnato infatti uno spazio vettoriale V ed una sua base v = v1 , . . . , vn possiamo sempre
considerare loperatore lineare f su V cos denito: per ogni
j = 1, . . . , n, f(vj ) = m1j v1 + + m nj vn , dove mij indica il
termine di posto i, j della matrice M. immediato vericare
Osservazione 10.4
transitiva L, M, N Mnn , L M e M N
Se M simile a N scriveremo M N, il lettore verichi per 3.
esercizio che la condizione di essere simili ha le propriet
L N.
seguenti:
La condizione di essere simili stabilisce dunque una rela1.
riflessiva M Mnn , M M;
zione di equivalenza sullinsieme Mnn che viene chiamata
2.
simmetrica M, N Mnn , M N N M;
relazione di similitudine.
(i)
(ii)
che f (v) = v.
Dimostrazione
R tale
v = 0, = .
se v parallelo ad a;
se v perpendicolare ad a.
Nel primo caso si ha f(v) = v e nel secondo f(v) = v. Gli autovalori di f sono dunque 1 e
1 e gli autovettori sono i vettori non nulli paralleli o perpendicolari ad a.
Sia : una rotazione di centro O e di angolo = k. Sia poi f : V V loperatore
lineare cos denito: v = P a O V, f(v) = Q a O, dove Q = (P). Notiamo che f(v) non
mai parallelo a v se v = 0. Non esistono quindi autovettori, e tantomeno autovalori, per f.
263
Autovalori
ed autovettori
di un operatore
10 Operatori lineari
Vogliamo ora studiare in generale le famiglie di autovettori di un operatore lineare.
definizione 10.7 Siano V uno spazio vettoriale qualsiasi ed f un operatore
Autospazi
Si noti che, essendo un autovalore, V ( f ) non mai costituito dal solo vettore nullo.
Gli elementi non nulli di V ( f ) sono infatti gli autovettori di f di autovalore .
Nel paragrafo 9.4, sono state definite lapplicazione lineare prodotto di unapplicazione lineare per una costante e la somma di applicazioni lineari. La funzione identit
id V : V V e f : V V possono dunque essere moltiplicate per delle costanti e
poi sommate. Mantenendo tali notazioni ci serve ora considerare loperatore lineare
f id V : V V
Per definizione, tale operatore lineare associa al vettore x V il vettore f (x ) x .
proposizione 10.2 V ( f ) = Ker( f id V ). In particolare V ( f ) un sotto-
spazio di V .
chiaro che x V ( f ) f (x ) x = 0 x Ker( f id V ).
Dimostrazione
Pertanto V ( f ) il nucleo di f id V e, per la Proposizione 9.1, un sottospazio di V .
2.
264
Pi in generale:
lemma 10.2 Siano 1 , . . . , k autovalori distinti di un operatore lineare f su V .
Dimostrazione
A tale scopo per ogni i = 1, . . . , k poniamo a i = c i,1 a i,1 + +c i,ni a i,ni ; osserviamo che a i
appartiene allautospazio Vi ( f ) e riscriviamo la prima uguaglianza come a 1 + +a k = 0.
265
10 Operatori lineari
Per completare la dimostrazione rimane da provare che il numero di elementi di A 1 A k
i=1,...,k n i . A tale scopo basta provare che Ai A j = per ogni coppia di indici distinti i
e j . Ora un elemento di Ai A j un autovettore di autovalore sia i sia j . Ci impossibile
perch ogni autovettore ha un unico autovalore e per ipotesi i = j .
proposizione 10.3
Dimostrazione
Un autospazio non mai ridotto al solo vettore nullo e ha quindi dimensione 1. Ci implica la prima disuguaglianza. Per provare la seconda sia Ai una base
di Vi ( f ), i = 1, . . . , k. Per il lemma precedente A 1 A k un sistema di vettori
linearmente indipendenti ed il numero di tali vettori m = i=1,...,k dim Vi ( f ). Poich
i vettori del sistema sono linearmente indipendenti il Teorema 4.6 ci dice che m dim V .
Sia f un operatore lineare su V di dimensione finita. Se esiste una base u di V i cui
vettori sono autovettori di f diremo che u una base di autovettori di f .
proposizione 10.4 Sia f un operatore lineare su uno spazio vettoriale V di dimen-
sione finita. f diagonalizzabile se, e solo se, esiste una base di autovettori di f .
Sia dim V = n. Se f diagonalizzabile esiste una base u = u 1 , . . . , u n
di V tale che Mu ( f ) una matrice diagonale. Sappiamo daltra parte che la colonna j esima di Mu ( f ) la colonna delle componenti di f (u j ) rispetto alla base u. Poich Mu ( f )
diagonale, tali componenti sono tutte nulle salvo la j -esima che indicheremo con j . Ne
segue quindi che f (u j ) = j u j , per ogni j = 1, . . . , n. Quindi u una base di autovettori
di f . Viceversa supponiamo che esista una base u = u 1 , . . . , u n di autovettori di f . Allora
f (u j ) = j u j per un dato autovalore j , per j = 1, . . . , n. Le componenti di f (u j ) sono
quindi tutte nulle salvo la j -esima che j . La matrice Mu ( f ) allora una matrice diagonale
e sulla sua diagonale principale ci sono i termini 1 , . . . , n , alcuni fra essi eventualmente
coincidenti (cio ripetuti sulla diagonale principale). In altre parole,
1 0 0 . . . 0
0 2 0 . . . 0
Mu ( f ) = .
.. ..
..
..
..
. .
.
.
Dimostrazione
0 ...
n
266
finita e sia {1 , . . . , k } linsieme degli autovalori di f . Allora f diagonalizzabile se, e solo se, dim V1 ( f ) + + dim Vk ( f ) = dim V .
0
d11 0 0 . . .
0 d22 0 . . .
0
Mu ( f ) = D = .
.
.
.
..
..
..
..
..
.
0
0 0 . . . dnn
Dimostrazione
una matrice diagonale. I termini dii , 1 i n, eventualmente possono non essere distinti;
indicheremo con 1 , . . . , k i numeri reali distinti che compaiono sulla diagonale principale
di D. A meno di riordinare la successione u 1 , . . . , u n possiamo inoltre supporre, per ogni
j = 1, . . . , k, che j si ripeta n j volte di seguito: dal termine di posto i j 1 + 1, i j 1 + 1 al
termine di posto i j , i j (dove i 0 = 0 < i 1 , . . . , < i k = n). Si noti infine che n 1 + +n k =
n = dim V .
Per concludere la dimostrazione baster allora provare che gli autovalori di f sono 1 , . . . , k
e che dim V j ( f ) = n j . Innanzitutto da f (u i ) = dii u i segue che ogni u i un autovettore
e quindi che ogni j un autovalore, j = 1, . . . , k. Siano poi un autovalore di f e t =
t j u j un suo autovettore, allora si ha f (t) =
dii ti u i = ti u i e quindi dii ti = ti
per i = 1, . . . , n. Daltra parte t = 0, quindi ti = 0 e dii = per qualche i: ci prova che
{1 , . . . , k }. Sia = j allora dii = j , per i j 1 < i i j , e ti = 0, per i i j 1
e i > i j . Ne segue che una base di V j ( f ) formata dai vettori u i , con i j 1 < i i j .
Quindi dim V j ( f ) = n j .
10 Operatori lineari
Come si ricercano gli autovalori di f?
di f se, e solo se, esiste un vettore t = 0
Sia R, allora un autovalore
n
tale che f (t) = t. Sia t = i=1 ti v i , come sappiamo la condizione f (t) = t
t1
t1
.
..
dunque un autovalore di f
equivalente alluguaglianza M .. =
.
tn
tn
X1
..
=
se, e solo se, esiste una soluzione non nulla (t1 , . . . , tn ) per il sistema M
.
X 1
..
.
Xn
X n
Xn
In ) = 0.
T
1
det(M TI2 ) = det
= T21
1 T
268
2.
che ha rango 1. Quindi dim V1 (f ) = 2, in particolare segue dal Teorema 10.3 che f non
diagonalizzabile. Si verica subito che una base di V1 (f ) formata dai vettori e1 ed e2 .
269
10 Operatori lineari
Se f diagonalizzabile come determinare una base di autovettori?
f diagonalizzabile se, e solo se, i=1,...,k dim Vi ( f ) = n, dove 1 , . . . , k sono
gli autovalori distinti di f e n = dim V . Se f diagonalizzabile, le dimostrazioni
del Lemma 10.2 e del Teorema 10.3 indicano anche come costruire una base di
autovettori:
per ogni i = 1, . . . , k si costruisce un insieme di vettori Ai i cui elementi siano una base di Vi ( f ). I vettori dellinsieme A 1 A k
costituiscono una base di autovettori di f .
ristico di M P M (T ) = det(M T In ).
Dimostrazione
(M T In ) = (P 1 M P T In ) = P 1 (M T In )P
270
caratteristico P f (T ) di un operatore lineare f su V il polinomio caratteristico della matrice Mu ( f ), dove u una base di V scelta a piacere.
Possiamo infine riassumere quanto gi dimostrato sugli autovalori di f con la seguente frase: gli autovalori di f sono le radici del polinomio caratteristico di f .
Polinomio caratteristico
di un operatore
10 Operatori lineari
1.
2.
Molteplicit geometrica
di un autovalore
Dimostrazione
g (1 ) + + g (k ) = n
Molteplicit algebrica
di un autovalore
con Q(T ) un polinomio (eventualmente costante) a coefficienti reali nellindeterminata T t.c. Q() = 0. In particolare h = 0 se, e solo se, non radice
di P (T ), i.e. P () = 0.
Sia ora f un operatore lineare su V e sia un qualsiasi autovalore di f . Si
definisce la molteplicit algebrica di , denotata con a () la molteplicit di
come radice del polinomio caratteristico P f (T ).
272
a ().
...
m 1n
0 ... 0
m 1g ()+1
0 . . . 0
m 2g ()+1
...
m 2n
. .
.
.
.
.
..
.. ..
..
..
..
..
.
Mw ( f ) = 0 0 . . . m g ()g ()+1 . . .
m g ()n
..
..
..
..
..
.. ..
. .
.
.
.
.
.
...
m nn
0 0 ... 0
m ng ()+1
Per calcolare P f (T ), dal Teorema 10.5, basta che consideriamo det(Mw ( f ) T In ). Se sviluppiamo il calcolo di questo determinate rispetto alle colonne della matrice Mw ( f ) T In
immediato accorgersi che si ottiene P f (T ) = ( T )g () Q(T ), dove Q(T ) il minore
della sottomatrice (Mw ( f ) T In )(g () + 1, . . . , n; g () + 1, . . . , n). Pertanto, g ()
a () e vale leguaglianza se, e solo se, Q() = 0.
Conclusioni
Data quindi la matrice M come allinizio di questo paragrafo, possiamo finalmente
rispondere completamente alla domanda che ci siamo posti. Sia infatti f loperatore lineare su V , spazio vettoriale di dimensione n, associato alla matrice M. Siano 1 , . . . , k tutti gli autovalori distinti di f , k n. Sia P f (T ) il polinomio
caratteristico di f . Supponiamo che P f (T ) si fattorizzi in:
[10.2]
P f (T ) = (1 T )a (1 ) (k T )a (k ) Q(T )
k
a (i ) tale
dove Q(T ) un polinomio (eventualmente costante) di grado n i=1
che, per definizione di molteplicit algebrica, Q(i ) = 0, per ogni i = 1, . . . , k. Poich per ipotesi 1 , . . . , k sono tutti e soli gli autovalori distinti di f , allora abbiamo
due possibilit per Q(T ):
a)
273
10 Operatori lineari
Inoltre, Q(T ) non pu avere radici in R. Altrimenti, come nella Definizione 10.11, potremmo fattorizzare ulteriormente Q(T ), e quindi anche P f (T ) nella [10.2], con un certo
numero di potenze di fattori lineari, contro lipotesi.
In questo caso, dai Teoremi 10.3 e 10.6, f non mai diagonalizzabile dato che
k
k
i=1 g (i )
i=1 a (i ) < n = dim V ;
b)
[10.3]
i
i=1
i=1 g (i ) = n. Pertanto,
i=1 a (i ) =
i=1 g (i ). Essendo a (i )
g (i ), per ogni i = 1, . . . , k, allora abbiamo la [10.3].
Dimostrazione
k
k
k
a (i ) = n, allora anche i=1
g (i ) = n e quindi,
Viceversa se vale la [10.3], poich i=1
dal Teorema 10.3 f diagonalizzabile.
[10.4]
1 0
0 1
.
..
..
.
0 0
P 1 M P = D =
0 0
0 0
..
..
.
.
0 0
...
...
..
.
...
...
...
..
.
...
0 0 0
0 0 0
..
..
..
.
.
.
1 0 0
0 2 0
0 0 2
..
..
..
.
.
.
0 0 0
...
...
..
.
...
...
...
..
.
...
0
0
..
.
..
.
k
274
Applichiamo ora tutti i precedenti risultati e commenti al calcolo concreto di autovalori ed autovettori ed al problema di diagonalizzabilit di matrici.
1 0lineare
1
matrice simmetrica M = 0 1 1 . Per determinare gli autovalori di f calcoliamo innanzitutto
110
il polinomio caratteristico:
1T
0
1
matrice D =
2 0 0
010
001
a b
Se dim V = 2 le matrici da considerare sono di ordine due M =
e MT I2 =
c d
a T
b
.
c
d T
Calcolando il determinante di questultima matrice si ottiene T 2 (a + d )T +
a d bc . Quindi un autovalore di M se, e solo se, una radice dellequazione
di secondo grado T 2 (a +b)T +a d bc = 0. Considerando la formula risolutiva
di tale equazione ed il suo discriminante :
Autovettori ed autovalori
in dimensione due
10 Operatori lineari
(i)
(ii)
Soluzioni
b
dim V = 2: in questo caso r () = 0 cio la matrice a
c d
nulla. Ci implica a = d = e b = c = 0. M definisce quindi
unomotetia;
dim V = 1: M non diagonalizzabile.
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).
Quesiti ed esercizi
1.
Sia data la matrice A = 43 12 :
(i)
(ii)
(iii)
2.
Sia data la matrice A = 51 13 :
(i)
(ii)
(iii)
4.
Sia dato loperatore lineare f su R3 , denito sui vettori della
base canonica e nel seguente modo:
(ii)
(i)
(i)
(ii)
(iii)
3.
Sia data la matrice A = 32 5
:
3
(ii)
f(e1 ) = 2e1 + e2 + e3 ,
276
6.
Sia P2 lo spazio vettoriale dei polinomi in unindeterminata
Y, a coefcienti reali e di grado al pi 2. Sia b = 1, Y, Y 2 una
base per P2 e sia f loperatore lineare su P2 denito da
f(1) = Y ,
f(Y) = Y + Y 1,
f(Y ) = Y
(i)
(ii)
1 1 2 a
0 0 2 b ,
0 01c
0 000
con
277
11
Matrici ortogonali, simmetriche
ed operatori associati
In questo capitolo studieremo alcune propriet fondamentali delle matrici ortogonali
e di quelle simmetriche definite su uno spazio vettoriale euclideo V . Assoceremo a tali matrici degli opportuni operatori lineari su V . Nel caso delle matrici simmetriche,
questo permetter di dimostrare due risultati fondamentali (Teoremi 11.1 e 11.3):
il primo stabilisce che le matrici simmetriche ammettono tutti autovalori reali, il
secondo assicura che tali matrici sono sempre diagonalizzabili su R e che la diagonalizzazione avviene in una base ortonormale per V . Discuteremo in seguito alcune
conseguenze geometriche di questultima affermazione (paragrafo 11.6).
Quanto contenuto in questo capitolo sar particolarmente utile nei capitoli 12 e 13
dove, tra le altre cose, daremo uninterpretazione geometrica di alcuni dei risultati
qui considerati (e.g. Osservazione 12.9).
Come nel paragrafo 5.4, per tutto il capitolo sar notazionalmente pi conveniente
considerare la n-upla di componenti di un vettore rispetto ad una base data come
una matrice colonna.
F (x ), F (y ) = x , y
operatore F ortogonale se, e solo se, un operatore invertibile (i.e. esiste linverso
F 1 ) e se, in ciascuna base ortonormale f di V , la matrice rappresentativa B :=
M f (F ) di F una matrice ortogonale.
Dimostrazione
279
Operatore ortogonale
xn
yn
Supponiamo ora che F sia invertibile. Sia f una qualsiasi base ortonormale di V e sia B =
M f (F ). La matrice di F 1 in base f quindi B 1 =t B, per le ipotesi su B. Per ogni x
e y in V , concomponenti
rispetto a f come
y sopra, dalle ipotesi su F e su B si ha x , y =
y1
.
.1
(x 1 . . . x n )In .. = (x 1 . . . x n )t B B .. = F (x ), F (y ), cio F ortogonale.
yn
yn
Osservazione 11.1
a)
b)
Operatore autoaggiunto
F (x ), y = x , F (y )
lemma 11.1
M 1 A M = t M A M
[11.3]
Dimostrazione
M 1 .
corollario 11.1 Date due matrici A e B, n n, esse sono congruenti per mezzo
di una matrice ortogonale M, n n, se e solo se sono simili per mezzo di M.
Dimostrazione
Posti questi preliminari, possiamo stabilire come si presentano gli operatori autoaggiunti in opportune basi.
proposizione 11.2 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n e
Dimostrazione
(i)
F ( f j ) = a1 j f 1 + a2 j f 2 + . . . + an j f n , 1 j n
281
(ii)
Dalla condizione [11.2] che stabilisce che F autoaggiunto, abbiamo quindi che
a i j = a j i , 1 i, j n. Pertanto A simmetrica.
Poich la base f ortonormale, per (i) B = M f (F ) simmetrica. Ora, dato
che A e B sono due matrici (simmetriche) che rappresentano lo stesso operatore
F in due basi diverse, allora esse sono coniugate mediante la matrice cambiamento
di base M := M f f , i.e. vale B = M 1 A M (Osservazione 10.2). Poich f e f
sono inoltre ortonormali, dal Teorema 5.5 M una matrice ortogonale. Pertanto,
dal Corollario 11.1, B =t M A M, i.e. A e B sono congruenti per mezzo di M.
Osservazione 11.2
Notiamo che il fatto che B sia simmetrica discende automaticamente dalla relazione di congruenza tra A e B e dal fatto [11.5]
che A simmetrica; infatti abbiamo:
B =t (t MAM) =t Mt At (t M) =
=t Mt At (t M) =t MAM = B
Osservazione 11.3
do per linearit le relazioni [11.4] valide per i versori di f.In
altri termini, parlare di operatori autoaggiunti su V, spazio
euclideo di dimensione n, o di matrici simmetriche reali di
ordine n relativamente a basi ortonormali di V, sono cose
equivalenti. Inoltre, dalla Proposizione 11.2-(ii), in differenti basi dovr valere la relazione di congruenza fra le varie
f
Tale operatore autoaggiunto F = FA sar denito estenden- matrici rappresentative.
Possiamo invertire la corrispondenza precedentemente descritta. Infatti, se A una matrice simmetrica di ordine n, dal
Teorema 10.2 e dalla Proposizione 11.2, possiamo considerare A come la matrice associata ad un operatore autoaggiunto
in unopportuna base ortonormale f di (V, , ).
(i)
(ii)
Come nella Definizione 9.6, il rango delloperatore autoaggiunto F il rango della matrice simmetrica A = M f (F ) che lo rappresenta in una qualsiasi base ortonormale
f di V .
282
x1
.
Sia x = .. un arbitrario vettore di Rn , espresso nelle componenti rispetto
Forma quadratica
di una matrice
simmetrica
xn
Q A (x ) = 2 Q A (x ), R, x Rn
[11.8]
Q A (X 1 , . . . , X n ) = (a 11 X 1 + a 22 X 2 + . . . + a nn X n )+
+ 2
ai j X i X j
1i< j n
Data A come sopra, si usa quindi il termine forma quadratica per riferirsi indifferentemente sia allapplicazione Q A come nella [11.6] sia al polinomio omogeneo
Q A (X 1 , . . . , X n ) come nella [11.8]. Viceversa, abbiamo:
definizione 11.4 Una forma quadratica (reale) Q di ordine n un polinomio
omogeneo, di secondo grado, in n indeterminate ed a coefficienti reali, come nella [11.8], o equivalentemente, unespressione come nellultimo membro
della [11.6] nelle coordinate di Rn determinate rispetto alla base e .
Forma quadratica
di ordine n
Notiamo che, da come definita, vale di nuovo una relazione della forma [11.7].
Possiamo associare ad una forma quadratica Q di ordine n come nella Definizione 11.4 una matrice simmetrica A = A Q , n n, nel seguente modo:
284
Matrice simmetrica
di una forma quadratica
Osservazione 11.4
Dalle denizioni date no ad ora notiamo che, ssata la ba- forme quadratiche di ordine n e matrici simmetriche n n.
se canonica e su Rn , esiste una corrispondenza biunivoca tra Vediamo subito che tutto ci leggermente pi intrinseco.
proposizione 11.3
xn
yn
B =t C AC
yn
Osservazione 11.5
Notiamo che quanto stabilito nella Proposizione 11.3 compatibile con quanto discusso no ad ora. Infatti, come visto nella [11.5] (con M da sostituirsi con C), sappiamo che
la matrice B come nella [11.9] sicuramente una matrice
simmetrica n n, visto che A lo era.
Per collegare le forme quadratiche di ordine n con gli operatori autoaggiunti in spazi
vettoriali euclidei, dalle corrispondenze biunivoche che scaturiscono dalla Proposizione 11.2, lOsservazione 11.3 e il Corollario 11.2, ci possiamo limitare a considerare basi ortonormali per Rn e passare attraverso le matrici simmetriche. Tuttavia, vogliamo osservare che una direzione di questa corrispondenza pi intrinseca.
Infatti, dato un operatore autoaggiunto F , associare ad esso una forma quadratica
indipendente dal fatto di doversi limitare a basi ortonormali. Abbiamo infatti la
seguente:
definizione 11.6 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n.
Forma quadratica
di un operatore
autoaggiunto
Q F (x ) := F (x ), x , x V
Notiamo che, come nella [11.7], se nella [11.10] sostituiamo x con x , per un qualsiasi R, allora dalla linearit di F e del prodotto scalare si ha che Q F (x ) =
2 Q F (x ). Notiamo inoltre che, poich F autoaggiunto, si ha anche
[11.11]
286
Q F (x ) = x , F (x ), x V
Osservazione 11.6
Notiamo che lassociazione considerata nella Denizione 11.6 non richiede la scelta di una base, a fortiori di una
base ortonormale. Ovviamente, una volta ssata f una base ortonormale, sia A = Mf (F ). Utilizzando il fatto che la
matrice del prodotto scalare in base f la matrice identit
In (Proposizione 5.8), insieme con le condizioni equivalenti
[11.10] e [11.11], otteniamo:
QF (x ) =t x t G P x =t xP Gx, x Rn
QF (x ) =t x t Ax =t xAx, x Rn
cio ritroviamo esattamente il fatto che A simme- i.e. t G P = P G. Pertanto, notiamo che la matrice che rappretrica (Corollario 11.2) e che QF = QA come nella senta QF in base b la matrice C := P G che simmetrica;
Denizione 11.3.
infatti abbiamo
t
C =t (P G ) =t Gt P =t G P = P G = C
Dato F un operatore autoaggiunto su V , la forma quadratica Q F associata a F come nella [11.10] ha, in base f , matrice rappresentativa
f
A := A Q F la matrice simmetrica M f (F ) (Proposizione 11.2-(i)).
Se f unaltra base ortonormale di V , sia M = M f f la matrice camf
(ii)
287
Osserviamo che, dalla Proposizione 11.4, discende diretta- trici simmetriche di ordine n rispetto a basi ortonormali di V
mente che in uno spazio vettoriale euclideo (V, , ) di di- o forme quadratiche di ordine n rispetto a basi ortonormali
mensione n, considerare operatori autoaggiunti su V, o ma- di V sono tutte formulazioni equivalenti.
(i)
(ii)
Concludiamo dando una definizione relativa al segno dei possibili valori assunti da
una forma quadratica Q (per ulteriori definizioni equivalenti, si veda e.g. [5, par. 20.3
e 20.4]).
definizione 11.8 Una forma quadratica Q di ordine n si dice:
Osservazione 11.8
Da quanto dimostrato nella Proposizione 11.3, il valore che Pertanto, se abbiamo una forma quadratica Q per esempio
una forma quadratica Q assume su un vettore x indipen- denita positiva, lo stesso sar la forma quadratica Q che
dente dalle componenti di x e quindi dallespressione di Q. si ottiene trasformando Q in unaltra base b.
288
Dimostrazione
P (T) = P A (T) = a n T n + a n1 T n1 + + a 1 T + a 0
il polinomio caratteristico di A, con a n = 1 e a j R opportuni, per 0 j n 1. Tale
polinomio non nullo ed a coefficienti reali perch A una matrice reale, non nulla.
Ora, sia C linsieme dei numeri complessi. ben noto che R C. Pertanto il polinomio
P (T) si pu vedere come un particolare polinomio a coefficienti complessi: precisamente i
coefficienti di P (T) sono tutti numeri complessi della forma c j := a j + i 0, dove i lunit
immaginaria; in altri termini i c j hanno parte immaginaria nulla, per ogni 0 j n.
Ricordiamo che C algebricamente chiuso, i.e. ogni polinomio in una indeterminata T ed
a coefficienti in C ha tutte le sue radici in C (per una dimostrazione di questo risultato e
per formulazioni pi forti, rimandiamo il lettore a [8, app. 2, par. F] e [11, app. A: Teoremi
289
n
n
zn
2
j =1 (a j
zjzj
j =1
lidentit.
Osservazione 11.9
Se A una matrice simmetrica n n, il suo polinomio caratteristico PA (T ) un polinomio di grado n. Ricordando la
notazione nel paragrafo 10.5, se 1 , . . . k , k n, sono tutti
gli autovalori distinti di A il precedente risultato afferma che
k
n = i=1 a(i ).
Pertanto, la fattorizzazione di P(T ) = PA (T ) come nella [10.2] tale che Q(T ) il polinomio costante (Caso b)
discusso dopo la [10.2]). In particolare, PA (T ) ha n radici
distinte se, e solo se, tutti gli autovalori di A sono semplici.
002
020
200
. Il polinomio caratteristico di A PA (T ) =
(2T)(T 2 4). Vediamo subito che A ha tutti autovalori reali: lautovalore 1 = 2 semplice
mentre lautovalore 2 = 2 di molteplicit algebrica 2. Pertanto, il numero di autovalori
distinti di A k = 2, ma se ciascuno di essi viene contato con la relativa molteplicit algebrica
otteniamo che il numero delle radici (non distinte) di Pa (T ) 3, come il grado di PA (T ).
290
Dimostrazione
x y
0 a b
0d c
, con
291
lemma 11.2
[11.12]
F (u ) u
Dimostrazione
292
Osserviamo che, con notazioni come nel Lemma 11.2, f 1 un sottospazio vettoriale di V
Per ipotesi induttiva, esiste una base ortonormale di f 1 che costituita da autovettori di F1 .
Denotiamo tale base con f 2 , . . . , f n . Per come costruito il tutto, f := f 1 , f 2 , . . . , f n
una base ortonormale di V perch i vettori sono a due a due ortogonali fra loro e ciascuno
di norma unitaria. Inoltre essi sono, per costruzione, tutti autovettori di F .
Osservazione 11.10
Il termine spettrale collegato allo spettro delloperatore lineare F, denito allinizio del paragrafo 10.2. Il precedente
teorema determina delle condizioni pi forti di quelle discusse nellOsservazione 11.9. Infatti, dato F autoaggiunto,
ssiamo una base ortonormale per V, sia essa e. Otteniamo una matrice simmetrica A = Me (F ) di ordine n. Per
corollario 11.4 Sia f una base di V come nella dimostrazione del Teorema 11.3.
Allora M f (F ) una matrice diagonale D, i cui elementi diagonali sono tutti gli
autovalori distinti 1 , . . . , k di F , k n, e dove ciascun i comparir sulla
diagonale principale di D tante volte quanto la sua molteplicit algebrica (equiv.
geometrica), 1 i k.
Dimostrazione
Il fatto che la matrice D = M f (F ) sia diagonale discende direttamente dai Teoremi 10.3 e 11.3. La seconda parte dellenunciato discende direttamente dalla
definizione di base di autovettori di F e di molteplicit geometrica di un autovalore.
Dal Corollario 11.4, abbiamo quindi la seguente:
definizione 11.9 Una siffatta base f di V viene chiamata base ortonormale
diagonalizzante F .
293
Base ortonormale
diagonalizzante
Osservazione 11.11
a)
Abbiamo diverse formulazioni equivalenti del teorema spettrale degli operatori autoaggiunti, la cui dimostrazione discende direttamente da quanto discusso fino ad
ora.
teorema 11.4
(i)
(ii)
(iii)
Concludiamo osservando che, come diretta conseguenza della dimostrazione del Teorema 11.3, abbiamo il seguente risultato che suggerir una procedura operativa per
determinare una base ortonormale diagonalizzante come nel teorema spettrale e quindi la forma precisa della matrice diagonale D.
proposizione 11.5 Sia (V, , ) uno spazio vettoriale euclideo di dimensione n 1
Dimostrazione
294
Osservazione 11.12
Data una matrice simmetrica A n n (equivalentemente,
una forma quadratica Q di ordine n), il precedente risultato fornisce un metodo operativo per calcolare la base f ore)
tonormale che diagonalizza A e la matrice M che rende A
congruente ad una matrice diagonale D. Questo permetter inoltre di precisare ulteriormente quanto dimostrato nel
Corollario 11.4. Si procede nel modo seguente:
f)
a)
b)
:=
k
i=1
a(i ),
quindi f una base di Rn . Tale base , per costruzione, di autovettori di A ed inoltre ortonormale,
dato che gli autospazi determinati sono a due a due
ortogonali fra loro (Proposizione 11.5) e dato che
in ciascun autospazio abbiamo usato nel punto c) il
procedimento di Gram-Schmidt per avere una base
ortonormale in ciascuno degli autospazi;
per costruzione e dalla teoria generale, senza dover
quindi fare alcun calcolo, sappiamo che la matrice A
nella base f diventa la matrice D come nella [10.4];
da ultimo, la matrice M che determina la congruenza tra la matrice A e la matrice D come in g), i.e.
D =t MAM, la matrice M = Mef cambiamento
di base dalla base canonica e alla base (ordinata)
f come nel punto f).
2
2
Sia data la forma quadratica di ordine 2, Q(X1 , X2 ) = 7X1 10 3X1 X2 3X2 . La matrice
7 5 3
simmetrica associata a Q A =
. Notiamo che det A = 0, pertanto Q
5
d)
k
1
1
2
2
k
k
f1 , . . . , fa( ) , f1 , . . . , fa( ) , . . . , f1 , . . . , fa( )
k
1
2
procedendo cos come in b), c) e d) per tutti gli autovalori distinti di A, esauriamo il calcolo di tutti gli
autospazi di A, V , V , . . ., V , per qualche k n,
1
1
forma f1 , . . . , fa( ) ;
1
c)
3 3
295
3
1
canonica e. Poich 2 = 1 , dalla Proposizione 11.5, lautovettore relativo allaltro autovalore 2 = 8 sicuramente ortogonale a v. Quindi, senza bisogno di calcolare direttamente
lautospazio V8 , basta prendere un qualsiasi vettorew ortogonale a v: questo sar automaticamente un generatore di V8 . La base ortonormale di R2 costituita da autovettori di
1/2
v
3/2
, f2 =
. La matrice cam=
A per esempio la base f formata da f1 =
3/2
1/2
||v
||
3/2 1/2
3/2
Y2 , la forma quadratica in tale base diventa Q (Y1 , Y2 ) = 12Y1 8Y2 . Notiamo che questa
assume sia valori positivi sia negativi. Pertanto essa, e quindi anche la forma quadratica
di partenza Q(X1 , X2 ), manifestamente indenita (Osservazione 11.8). Lasciamo al lettore lesercizio di procedere come nella dimostrazione della Proposizione 11.3 per ottenere tale espressione di Q(Y1 , Y2 ): basta prendere il relativo cambiamento di indeterminate
X1
Y1
=
M
e sostituire nel polinomio dato.
X
Y
2
Q := 1 Y1 + + 1 Ya (1 ) + + k Y k1
2
i=1
a (i ))+1
+ + k Yn
definita positiva (risp., definita negativa) se, e solo se, tutti gli autovalori
di A = A Q sono positivi (risp., negativi);
semi-definita positiva (risp., semi-definita negativa) se, e solo se, tutti gli
autovalori di A sono non negativi (risp., non positivi);
indefinita se, e solo se, A ha sia autovalori positivi sia negativi.
Possiamo determinare delle espressioni ancora pi semplici per una forma quadratica.
Ip
O
O
O Ir p O
[11.14]
O
O
O
Q(Z1 , Z2 , . . . , Zn ) = Z1 + . . . + Z p Z p+1 . . . Zr
297
Forma canonica
di Sylvester e segnatura
di una forma quadratica
definita positiva se, e solo se, la segnatura (n, 0) e quindi la forma canonica
2
2
di Sylvester Z1 + . . . + Zn ;
semidefinita positiva se, e solo se, la segnatura (r, 0), con r = r g (Q) n,
2
2
e quindi la forma canonica di Sylvester Z1 + . . . + Zr ;
definita negativa se, e solo se, la segnatura (0, n) e quindi la forma canonica
2
2
di Sylvester Z1 . . . Zn ;
semidefinita negativa se, e solo se, la segnatura (0, r ), con r = r g (Q) n,
2
2
e quindi la forma canonica di Sylvester Z1 . . . Zr ;
indefinita se, e solo se, esiste 0 < p < r n intero, tale che la segnatura
2
2
2
2
( p, r p) e la forma canonica di Sylvester Z1 +. . .+ Z p Z p+1 . . . Zr .
1
f ,
i i
1 i r,
g j = f j,
r +1 j n
Ovviamente essi formano una base s ortogonale di Rn , poich f era una base ortonormale.
1
Inoltre g i , g i = 2 , g j , g j = 1.
i
Quindi, la forma quadratica ha lespressione come nella [11.15] (Proposizione 11.3). Pertanto
s la base di Sylvester cercata.
Resta da dimostrare che p dipende solo da Q e non dalla base s . Supponiamo di avere in
unaltra base b = b 1 , . . . , b n che la forma quadratica Q si esprima come:
2
Qb (W1 , W2 , . . . , Wn ) = W1 + . . . + W j W j +1 . . . Wr
per un opportuno intero j r . Dobbiamo verificare che j = p.
298
Dimostrazione
di base C = C e s
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).
Soluzioni
Quesiti ed esercizi
(i)
1.
3
Sia R dotato del prodotto scalare standard e sia F loperatore autoaggiunto che, rispetto alla base canonica e, (ii)
associato alla forma quadratica
(i)
(ii)
diagonalizzante;
3
2 . Sia F
In R si consideri ssato il vettore u0 =
scrivere lespressione della forma quadratica Q in
1
base f. Determinarne il rango, la segnatura e lindice loperatore lineare di R3 , denito da
di nullit.
F(x ) = x u0 , x R3
(iii)
(iii)
2.
Sia F loperatore autoaggiunto di R4 denito, rispetto alla
(i)
stabilire se F un operatore autoaggiunto;
base canonica, dalla matrice simmetrica
(ii)
calcolare la matrice di F rispetto alla base canonica
1
0 0 0
e confrontare con la risposta in (i).
0 1 0 0
A :=
4.
0 0 1
0
Sia data la forma quadratica di ordine 3
0
0 1 0
299
+ 4X2 X3 + 3X3
(i)
(ii)
(iii)
determinare il rango, la segnatura e lindice di nullit di Q. Dedurre che tipo di forma quadratica
;
determinare una base ortonormale di R3 in cui Q si
diagonalizza e la matrice ortogonale che determina
la congruenza con la relativa matrice diagonale;
determinare la base di Sylvester e la relativa forma
canonica di Sylvester di Q.
(i)
(ii)
6.
Sia data la matrice simmetrica A = 21 2
. Determina2
re una matrice ortogonale M tale che t MAM sia una matrice
diagonale.
5.
Nello spazio vettoriale euclideo R4 , dotato del prodotto sca- 7.
lare standard , , sia dato loperatore F denito, rispetto alla Diagonalizzare la forma quadratica Q(X1 , X2 , X3 ) = X1 X2 +
X1 X3 + X2 X3 . Dedurre il rango e la segnatura di Q.
base canonica e, da:
300
12
Coniche del piano cartesiano R2
In questo capitolo studieremo le coniche del piano cartesiano R2 . In sommi capi, esse
si possono considerare come oggetti geometrici rappresentati da equazioni cartesiane di secondo grado, nelle indeterminate X 1 e X 2 , analogamente a quanto visto
nel capitolo 7 in cui abbiamo studiato le rette del piano come luoghi geometrici
rappresentati da equazioni cartesiane lineari.
Dopo alcune definizioni di base, considereremo nel paragrafo 12.4, le equazioni pi
semplici che definiscono tutti i possibili tipi di coniche C dal punto di vista della
geometria euclidea (Corollario 7.7, dove abbiamo il risultato analogo per le rette di
R2 ). Tali equazioni saranno dette forme canoniche metriche o euclidee delle coniche.
Nel paragrafo 12.6 affronteremo il problema analogo considerando per le equazioni
pi semplici dal punto di vista della geometria affine. Le equazioni che otterremo
verranno dette forme canoniche affini delle coniche. Studieremo le fondamentali propriet geometriche delle coniche, definite da queste forme canoniche metriche ed
affini, ed alcune ulteriori conseguenze fondamentali (Corollari 12.2 e 12.4).
Nei paragrafi 12.5 e 12.7, ci porremo i seguenti problemi; data una conica C di R2 ,
definita dallannullarsi di un polinomio P (X 1 , X 2 ) di secondo grado:
(i)
(ii)
(iii)
(iv)
(v)
deg(i j X 1i X 2 ) e definito come lintero i + j . Pertanto, definiamo il grado di un polinomio P (X 1 , X 2 ), denotato con deg (P (X 1 , X 2 )), il massimo dei gradi dei monomi
che compaiono nellespressione di P (X 1 , X 2 ), i.e. tali che i j = 0.
Esempio 12.1 Grado di un polinomio P(x1 , x2 )
4 3
monomio X1 X2 quello di grado massimo; tale polinomio privo di termine noto, come
monomio lineare ha X2 , come monomio quadratico ha X1 X2 e come monomio di grado
5
cinque ha X1 .
Notiamo che un polinomio costante, i.e. costituito dal solo termine noto non nullo,
un polinomio di grado 0; mentre il polinomio nullo, i.e. con tutti i coefficienti nulli,
ha grado indeterminato.
Dati due polinomi non nulli P (X 1 , X 2 ) e Q(X 1 , X 2 ), essi si dicono proporzionali,
se esiste R \ {0} tale che P (X 1 , X 2 ) = Q(X 1 , X 2 ) La proporzionalit di
polinomi banalmente una relazione di equivalenza.
Dato un polinomio P (X 1 , X 2 ) non costante, di grado n 1, linsieme di tutti i
polinomi Q(X 1 , X 2 ) proporzionali a P (X 1 , X 2 ) viene detto classe di proporzionalit
di polinomi definita da P (X 1 , X 2 ) e denotato con il simbolo [P (X 1 , X 2 )]; in altri
termini
[P (X 1 , X 2 )] : = {Q(X 1 , X 2 ) polinomio| R \ {0} t.c. Q(X 1 , X 2 ) =
= P (X 1 , X 2 )}
In tale espressione, il polinomio P (X 1 , X 2 ) viene detto rappresentante della classe di
proporzionalit. Notiamo in particolare che [P (X 1 , X 2 )] costituito da tutti polinomi non costanti e di grado n. Inoltre, per ogni Q(X 1 , X 2 ) [P (X 1 , X 2 )], abbiamo
che [P (X 1 , X 2 )] = [Q(X 1 , X 2 )], cio ogni elemento della classe pu essere preso
come rappresentante della classe stessa.
302
R2 una classe di proporzionalit di polinomi non costanti, di secondo grado, a coefficienti reali e nelle indeterminate X 1 , X 2 . Se P (X 1 , X 2 ) un rappresentante della conica, lequazione
quadratica
[12.1]
Conica di R2
P (X 1 , X 2 ) = 0
P (X 1 , X 2 ) := a 11 X 1 + 2a 12 X 1 X 2 + a 22 X 2 + 2b 1 X 1 + 2b 2 X 2 + c
[12.2]
come nella [12.2], le tre componenti omogenee di P (X 1 , X 2 ), di gradi rispettivamente due, uno e zero, sono:
(i)
(ii)
(iii)
Q(X 1 , X 2 ) := a 11 X 1 + 2a 12 X 1 X 2 + a 22 X 2 , che detta forma quadratica dellequazione di C ; la matrice simmetrica associata alla forma
quadratica verr denotata con A := A Q (Definizione 11.5);
L(X 1 , X 2 ) := 2b 1 X 1 + 2b 2 X 2 , che detta forma lineare dellequazione di C ;
c , che detto termine noto dellequazione di C .
Equazione cartesiana
di una conica
c b1 b2
A := b 1 a 11 a 12
b 2 a 12 a 22
Matrice completa
di una conica
Espressione matriciale
di una conica
[12.3]
[12.4]
P (X 1 , X 2 ) = (1X 1 X 2 ) A X 1 = 0
X2
Osservazione 12.1
Dalla Denizione 12.2, notiamo che la sottomatrice Q(X1 , X2 ) come sopra si pu scrivere in forma compatta
3; 2, 3) coincide con la matrice A = A . Inoltre,
A(2,
Q
X
dalla [11.6], anche lequazione della forma quadratica [12.5]
Q(X1 , X2 ) = (X1 X2 )A X1 = 0
2
Osservazione 12.2
Se P(X1 , X2 ) = 0 lequazione cartesiana di una conica il
cui supporto C R2 , ogni altro polinomio nella classe [P(X1 , X2 )] determina unaltra equazione cartesiana della
stessa conica; in particolare allequazione cartesiana denita
da P(X1 , X2 ), per ogni R \ {0}, si associa ovviamente
e la matrice della forma quadratila matrice completa A
ca A. Ciascuna di queste equazioni denir lo stesso supporto C . per questo motivo che per brevit, con abuso di
linguaggio, si denoter spesso la conica di equazione cartesiana P(X1 , X2 ) = 0 e con supporto C , semplicemente con la
lettera C quando sar chiaro che stata gi assegnata una
sua equazione cartesiana.
2
X1
X2
4
la classe di proporzionalit [X 1 + 42 1] una corrispondenza biunivoca. Analogamente per iperbole e parabola. Consideriamo per ulteriori esempi che mostrano
che, in generale, bisogna prestare molta attenzione per una tale identificazione.
Esempio 12.2 Equazioni e supporti di coniche
1.
304
3.
Osservazione 12.3
I fenomeni che si presentano nei precedenti esempi 2 e 3 rappresentate nel piano R2 . Per ulteriori approfondimenti,
dipendono strettamente dal fatto che consideriamo coniche rimandiamo il lettore interessato a [11, cap. 4 e app. A].
reali, cio polinomi a coefcienti reali le cui soluzioni sono
x1
x2
m 11 x 1 +m 12 x 2 +d1
m 21 x 1 +m 22 x 2 +d2
x 1 =m 11 y 1 + m 12 y 2 + d1
x 2 =m 21 y 1 + m 22 y 2 + d2
m 11 m 12
[12.7]
M :=
m 21 m 22
la matrice dei coefficienti e con d =
d
1
d2
x = My +d
305
Q(Y1 , Y2 ) = P (m 11 Y1 + m 12 Y2 + d1 , m 21 Y1 + m 22 Y2 + d2 )
dove [12.6] dato da unisometria (rispettivamente, unaffinit) F . In altri termini, la sostituzione ortogonale (rispettivamente, affine), se la matrice M
come nella [12.7] una qualsiasi matrice ortogonale (rispettivamente, invertibile). La sostituzione di indeterminate come sopra verr denotata con M,d ,
cosicch potremo scrivere Q(Y1 , Y2 ) = M,d (P (X 1 , X 2 ))
Notiamo che, poich le sostituzioni sono sempre lineari e poich M sempre di
rango massimo, anche il polinomio Q(Y1 , Y2 ) di secondo grado. Inoltre, poich la
trasformazione F sempre invertibile, linversa F 1 avr equazioni
[12.10]
y = M 1 x M 1 d
I polinomi P(X1 , X2 ) = X1 +X2 e Q(Y1 , Y2 ) = Y1 +Y2 +2Y1 +4 sono congruenti quindi anche
afnemente equivalenti. Infatti, basta porre X1 = Y1 + 2, X2 = Y2 . Notiamo infatti che
questo cambiamento di indeterminate corrisponde banalmente ad unisometria. Provare,
2
2
2
2
per esercizio, che invece i due polinomi P(X1 , X2 ) = X1 2X2 4 e Q(Y1 , Y2 ) = Y1 +Y2 1 =
0 non possono essere afnemente equivalenti e quindi tantomeno congruenti.
Osservazione 12.4
Notiamo che se Q(X1 , X2 ) = P(X1 , X2 ) per un qualche ti. Infatti, Q(Y1 , Y2 ) = I ,0 (P(X1 , X2 ). In particolare essi
2
R \ {0}, allora i due polinomi sono sempre congruen- saranno anche afnemente equivalenti.
306
1
0
0
:= d1 m 11 m 12
[12.11] M
d2 m 21 m 22
Matrice completa
di una trasformazione
Osservazione 12.5
3; 2, 3) = M come nel- viamo inoltre che, nel caso in cui F sia una isometria, M
Come nellOsservazione 12.1, M(2,
lo sia; in
la [12.7] la matrice della parte lineare della trasformazione ortogonale per niente ci assicura che anche M
= det M = 0. Osser- generale M
sar solo una matrice invertibile.
F. In particolare, notiamo che det M
C di equazione cartesiana P (X 1 , X 2 ) = 0
ed unisometria (rispettivamente, unaffinit) F come nella [12.6], la trasformata di C tramite F , denotata con C F , la conica di equazione cartesiana
M,d (P (X 1 , X 2 )) = 0.
definizione 12.5 Data una conica
Y1
F
t
[12.13] Q : (Y1 Y2 ) M A M
=0
Y2
3; 2, 3) la matrice simmetrica associata
dove M come nella [12.7] e dove A = A(2,
alla forma quadratica Q dellequazione data di C .
Osservazione 12.6
Ricordiamo che il polinomio caratteristico invariante per no gli stessi autovalori. Invece, come discusso nellOsserva AM
non sono
la relazione di similitudine (Teorema 10.4). Pertanto, quan- zione 12.5, gli autovalori di A e quelli di t M
t
do F unisometria, le matrici A e MAM hanno lo stesso necessariamente uguali.
polinomio caratteristico (Corollario 11.1). Quindi esse han-
307
Coniche congruenti
ed afnemente
equivalenti
Notiamo che
seC ha equazione come nella [12.4] e D definita analogamente da
1
= 0, dalla [12.12] e da quanto detto fino ad ora immediato
(1Y1 Y2 ) B Y1
Y2
A M
B = t M
Osserviamo che, date C e D coniche congruenti (rispettivamente, affinemente equivalenti), se F lisometria (rispettivamente,
laffinit) t.c. D = C F , dalla [12.9] si ha
che preso un qualsiasi punto R = D, i.e. le cui coordinate nel riferimento
(O; y 1 , y 2 ) annullano lequazione di D come sopra, allora F (R) C . Viceversa, per
ogni R 1 C , dalla [12.10] si ha che F 1 (R 1 ) D. Quindi, al livello di supporti
delle due coniche, le notazioni che valgono sono F (D) = C e F 1 (C ) = D. Per
evitare eventuale confusione nel lettore, per questo motivo che abbiamo preferito
usare come notazione per la trasformata di C tramite F il simbolo C F piuttosto che
F 1 (C ).
Osservazione 12.7
In denitiva i supporti di due coniche congruenti (rispet- te, afnemente equivalenti) come nella Denizione 6.23
tivamente, afnemente equivalenti) nel senso della De- (rispettivamente, Denizione 6.14).
nizione 12.6 sono essi stessi congruenti (rispettivamen-
C deve soddisfare la relazione [12.14], per un qualche R \ {0}, e poich dal invertibile, allora r ( A)
= r ( B)
= r ( B),
lOsservazione 12.5 sappiamo che M
R \ {0}. Daltra parte, se moltiplichiamo lequazione cartesiana di C per un
qualsiasi R \ {0}, la matrice corrispondente A quindi, il rango ovviamente
rimane uguale. Pertanto:
definizione 12.7 Data C una conica di equazione cartesiana [12.4], il rango di A
Interpretazione
geometrica del rango
di una conica
Ulteriori propriet
metriche ed afni
B = t M A M
309
Parabola, ellisse
ed iperbole
parabola, se r (A) = 1;
conica a centro, se r (A) = 2;
Classicazione metrica
o euclidea delle coniche
Forme canoniche
metriche delle coniche
Classicazione afne
delle coniche
Esattamente come sopra, data una conica C , la sua classe di equivalenza affine, denotata con [C ]a , sar costituita da tutte le coniche D affinemente equivalenti ad essa,
nel senso della Definizione 12.6, dove stavolta F varia in tutte le possibili affinit
di R2 . La nozione di classi di equivalenza affine [C ]a e [G ]a distinte, analoga alla
precedente, dove F affinit.
definizione 12.10 Un insieme di forme canoniche affini delle coniche di R2 un
Differenze tra
classicazione metrica
ed afne
Equazione
2
Condizioni
Denominazione
ab>0
ellisse generale
ab>0
a>0
ellisse degenere
a, b > 0
iperbole generale
a>0
iperbole degenere
a>0
parabola generale
parabola semplicemente degenere
parabola semplicemente
degenere a punti non reali
(6)
X1
X2
2 + 2 = 1
a
b
2
2
X1
X2
2 + 2 = 1
a
b
2
X1
2
X1 + 2 = 0
a
2
2
X1
X2
2
2 = 1
a
b
2
X
2
X1 22 = 0
a
2
aX1 = X2
(7)
2
X1
=a
a>0
(8)
X1 = a2
a>0
(9)
2
X1
(1)
(2)
(3)
(4)
(5)
=0
Coniche euclidee
generali (a punti reali)
Sia C come in tipologia (1). Notiamo subito che se a = b, una tale conica la circonferenza di centro O e raggio a ([7.56]). In generale, invece immediato osservare che
il supporto dellellisse una curva chiusa, contenuta nella porzione di piano determinata dalle condizioni |x 1 | a e |x 2 | b, cio delimitata dalle rette di equazioni
cartesiane X 1 = a , X 2 = b. Le intersezioni di C con gli assi coordinati, i.e. i
a
0
, sono detti i vertici dellellisse.
punti di coordinate 0 e b
Ellisse generale
Ricordando la Definizione 12.8, lellisse una conica a centro. Infatti, dalla forma
dellequazione dellellisse, C simmetrica rispetto allorigine O (ricordare la Definizione 7.11); O quindi sar il suo centro di simmetria. Notare che in particolare il
centro di simmetria unico.
Analogamente, C simmetrica rispetto agli assi coordinati (Proposizione 7.10), che
vengono chiamati quindi assi di simmetria di C ( semplice notare che nel caso a = b,
i.e. C circonferenza, ciascuna retta per lorigine asse di simmetria). Si chiamano
semiassi dellellisse C i quattro segmenti di estremi lorigine O ed uno dei vertici
dellellisse. I numeri a e b sono le lunghezze di questi semiassi. Il supporto dellellisse
come nella figura 12.1.
Grazie alle ipotesi
a
b
>
0,
si
pu
considerare
c
:=
a 2 b 2 . I punti di
c
coordinate 0 sono detti i fuochi dellellisse C ed il numero e := c /a la sua
eccentricit. Si ha sempre 0 e < 1; in particolare, e = 0 se, e solo se, C una
circonferenza: in tal caso i due fuochi vanno a coincidere con il centro O. Se invece
e = 0, la retta di equazione cartesiana X 1 = a /e detta direttrice dellellisse relativa
c
al fuoco 0 .
(0,b)
O
(a,0)
(a,0)
(0,b)
X21
2
Come nel caso delle circonferenze (formula [7.57]), abbastanza immediato osservare
che dallequazione cartesiana data si deducono facilmente le equazioni parametriche
per lellisse:
X 1 = a cos t,
X 2 = b sin t,
t [0, 2 ],
con a b > 0
Sia C come nella tipologia (4). Quando in particolare a = b, liperbole si dice equilatera. Come nel caso dellellisse, per ogni a , b > 0, si vede facilmente che O il centro
313
Iperbole generale
X22
b2
= 1,
(a,0)
(a,0)
X21
2
X22
b2
= 1, con a, b >
2
Dallequazione cartesiana di C troviamo X 2 = ab X 1 a 2 . Visto che per ogni
2
|x 1 | a si ha | ab x 1 a 2 | < | ab x 1 |, allora C contenuta nella porzione illimitata
di piano data dalle condizioni |X 2 | | ab X 1 |. Le due rette di equazioni cartesiane
X 2 = ab X 1 sono detti gli asintoti delliperbole C : sono due rette passanti per il centro di simmetria O e, al crescere di |x 1 |, il supporto di C tende ad avvicinarsi sempre
di pi ad essi senza per mai intersecarli. Il supporto di C come nella figura 12.2.
c
Posto c := a 2 + b 2 , i punti di coordinate 0 sono detti i fuochi delliperbole
C ed il numero e := c /a la sua eccentricit; ovviamente si ha sempre e > 1. La
retta di equazione cartesiana X 1 = a /e detta direttrice delliperbole relativa al
c
fuoco 0 .
Una comoda rappresentazione parametrica delliperbole si ottiene per mezzo delle
funzioni iperboliche. Dato t R, ricordiamo che si definisce il coseno iperbolico di t
t
t
la funzione reale di variabile reale cosh t := e +e
2 , dove e il numero di Nepero.
Analogamente, il seno iperbolico di t la funzione sinh t :=
e t e t
2
Notiamo imme-
X1
X2
Parabola generale
Dallequazione cartesiana data, vediamo subito che le equazioni parametriche per tale
parabola sono date da X 1 = t, X 2 = a t 2 , t R, con a > 0
Coniche euclidee
semplicemente degeneri
(a punti reali)
Sia C come nella tipologia (3). Visto che, per ogni a > 0, lequazione cartesiana
esprime uneguaglianza a zero di una somma di due quadrati, C ha ovviamente supporto costituito da un solo punto, lorigine O. Per questo motivo viene chiamata
anche conica puntiforme. Essendo costituita da un solo punto, il supporto coincide
con il suo centro di simmetria.
Il motivo per cui viene chiamata ellisse degenere discende dal fatto che lequazione
cartesiana ha il primo membro identico a quello di unellisse generale.
Sia C come nella tipologia (5). Per ogni a > 0, lequazione cartesiana di C unespressione polinomiale che si fattorizza in
X2
X2
X1 +
X1
=0
a
a
Il supporto di C quindi costituito dallunione di due rette r 1 e r 2 , di equazioni
cartesiane r 1 :
X1 +
X2
a
= 0 e r2 :
X1
X2
a
Iperbole degenere
(o coppia di rette
incidenti)
Il motivo per cui viene chiamata iperbole degenere discende dal fatto che lequazione
cartesiana ha il primo membro identico a quello di uniperbole generale. Per essere pi
precisi, lequazione delliperbole semplicemente degenere lequazione complessiva
2
X1
X22
a2
= 0, con a > 0
X2
a2
= 1.
Osservazione 12.8
Una piccola osservazione per giusticare per quale motivo to che ambedue le equazioni non contengono termine noto.
nei casi (3) e (5) le equazioni contengono un solo parametro Pertanto, dallOsservazione [12.4], i due polinomi sono cona differenza delle equazioni di tipo (1), (2) e (4) nora incontrate. Vediamo per esempio il caso (5). Se consideriamo gruenti. In effetti, il supporto esattamente la stessa conica.
2
2
X
X
Questa semplicazione di uno dei due denominatori ovvialequazione 12 22 = 0, c, d > 0, questa ovviamenc
d
mente non vale per i casi (1), (2) e (4), dove al termine noto
2
X2
2
d
= 0, non appena = a da- presente 1.
te proporzionale a X
1
Parabola semplicemente
degenere (o coppia
di rette parallele distinte)
(a,0)
a2
(a,0)
Conica euclidea
doppiamente degenere
(o retta doppia)
Geometricamente, una tale conica si pu vedere come posizione limite di una famiglia di parabole semplicemente degeneri a punti reali che tendono alla parabola
doppiamente degenere. Infatti, quando |a | tende a zero, le due rette parallele X 1 = a
e X 1 = a vanno a coincidere ambedue con lasse delle x 2 (figura 12.6).
Concludiamo con unosservazione importante, che in seguito sar utile quando discuteremo la procedura generale di riduzione a forma canonica metrica delle coniche
(Teorema 12.1).
proposizione 12.1 Si consideri la tabella fondamentale nella Definizione 12.11:
Dimostrazione
317
1 0
0
0 1/a 2 0
0 0 1/b 2
e Ac ,d :=
1 0
0
0 1/c 2 0
0 0 1/d 2
di queste matrici, vediamo che Ca ,b sar congruente a Cc ,d se, e solo se, esiste la relazione:
[12.16]
infatti, poich il termine di posto 1, 1 nelle due matrici come sopra sempre 1, necessariamente nella formula [12.14] si deve avere = 1. Poich M ortogonale 2 2, abbiamo
che M come nella [7.46], per un qualche R. In ciascuno dei due casi, se imponiamo
la condizione data dalla [12.16], otteniamo sempre 1/a 2 = 1/c 2 e 1/b 2 = 1/d 2 , cio lisometria F lidentit e le due coniche coincidono. In modo perfettamente analogo si tratta il
caso (3).
Nei casi i = 6, 7 abbiamo parabole a punti reali. Pertanto, se a = c , le parabole Ca e Cc ,
ambedue con asse di simmetria la retta X 1 = 0, hanno punti a differente distanza dai punti
dellasse, quindi non possono essere congruenti.
Nel caso
le parabole
i = 8,abbiamo
Ca e Cc con matrici simmetriche complete associate
a2 0 0
c2 0 0
Aa := 0 0 0 e Ac := 0 0 0 . Supponendo che esista unisometria F (x ) = Mx + k
0 01
0 01
:=
che trasforma una nellaltra, poniamo allora M
1 O
k M
con le due colonne nulle e k la matrice 2 1 data dalla colonna delle coordinate di k in base
e . Si ragiona come nel caso 2 visto prima e si trova a 2 = c 2 .
318
teorema 12.1
Dimostrazione
[12.17]
P (X 1 , X 2 ) = a 11 X 1 + 2a 12 X 1 X 2 + a 22 X 2 + b 1 X 1 + b 2 X 2 + c = 0
12
Denotata con M = Me f = m 11
la matrice ortogonale cambiamento di
21 m 22
base dalla base canonica
e allabase ortonormale f , dal Corollario 11.4, abbiamo
che t M A M = D :=
1 0
0 2
X = MY
319
[12.19]
dove D1 := b 1 m 11 + b 2 m 21 e D2 = b 1 m 12 + b 2 m 22 ;
2.
il secondo passo dellalgoritmo che vogliamo descrivere consiste nel trovare unopportuna traslazione nel riferimento (O, f ) di R2 , con coordinate (y 1 , y 2 ), di modo
che nella [12.19] spariscano o entrambi i termini lineari oppure uno dei due termini
lineari insieme al termine noto. Abbiamo le seguenti eventualit:
2.1.
[12.20]
+ (1 2 + 2 2 + D1 + D2 + c ) = 0
Allora per determinare i valori dei parametri e che eliminano i termini
D
D
lineari, basta scegliere := 21 e := 22 . Con tale scelta, la [12.20]
1
2
non altro che:
[12.21]
P (Z1 , Z2 ) = 1 Z1 + 2 Z2 + E = 0
2
D 2 +D 1 4c 1 2
2
dove E := 1
, che lespressione che si trova quan41 2
do si sostituiscono i valori trovati per i parametri e nel termine noto
della [12.20]:
320
mo lequazione cartesiana di tipo (1) nella tabella della Definizione 12.11, con a e b univocamente determinati come sopra. Se invece E 1, si ricompie uno scambio di indeterminate, che
sempre unisometria, e si ricade in quanto appena discusso;
se 1 e 2 sono ambedue positivi ed E positivo, si divide la [12.21]
per E . Svolgendo analoghi conti come sopra, otteniamo in questo
caso unequazione del tipo (2) nella tabella della Definizione 12.11,
con a e b univocamente determinati;
se 1 e 2 sono ambedue negativi, quale che sia il segno di E , basta
moltiplicare per 1 lequazione [12.21], e ci si riconduce ai due casi
fino ad ora descritti;
se 1 e 2 sono di segno discorde, a meno di moltiplicare per 1
lequazione [12.21], possiamo sempre supporre che 1 > 0. Se E
negativo, dividendo come sopra per E e ponendo a = E
1
E
e b = | | , si ottiene lequazione di tipo (4), con a e b univo2
Z1
Z2
lequazione 1 Z1 + 2 Z2 = 0. Poniamo =
2
1
cos, dividendo
2
Z1
uno dei due autovalori nullo: a meno di scambiare le indeterminate (e quindi sempre applicando unisometria), possiamo supporre che sia 2 = 0. In
tal caso, vuol dire che la [12.19] :
[12.22]
1 Y1 + D1 Y1 + D2 Y2 + c = 0
[12.23]
+ (1 2 + D1 + D2 + c ) = 0
Allora per determinare i valori del parametro che elimina il termine lineare
D
in Y1 , basta scegliere come prima := 21 ;
1
c +1 2 +D1
,
D2
con come
321
Osservazione 12.9
Il signicato geometrico del precedente algoritmo il seguente. Prima operiamo con unisometria lineare dello spazio vettoriale R2 in modo tale da compiere un cambiamento
di riferimento che fa coincidere i nuovi assi (rispettivamente, uno dei nuovi assi) di questo riferimento con le giacitu-
Facciamo qualche commento sul Teorema 12.1. In primo luogo, esso permette di
classificare una qualsiasi conica C di R2 , i.e. di stabilire se essa unellisse, uniperbole o una parabola e se generale, semplicemente o doppiamente degenere. Per, tale
risultato determina conseguenze molto pi forti della semplice classificazione. Infatti,
seguendo la strategia della dimostrazione del Teorema 12.1, una qualsiasi conica di
R2 si riduce mediante lalgoritmo descritto ad una, ed una sola, delle coniche elencate nella tabella fondamentale per la classificazione metrica; dalla Proposizione 12.1,
sappiamo che le coniche in tale tabella sono a due a due non congruenti, al variare
delle tipologie metriche (i) di coniche, con 1 i 9, ed al variare dei parametri
presenti in ciascuna tipologia (i). Pertanto, abbiamo:
Le coniche della tabella fondamentale nella Definizione 12.11
sono le forme canoniche metriche (o euclidee) delle coniche di R2 nel senso della
Definizione 12.9.
corollario 12.1
Per questo motivo, il Teorema 12.1 si chiama anche Teorema di riduzione a forma
canonica metrica di una conica C .
322
Dimostrazione
dopo.
Osservazione 12.10
Altre conseguenze dellalgoritmo di riduzione a forma canonica metrica sono le seguenti: data una conica C , esso individua la sua forma canonica metrica, stabilendo quindi la
sua classicazione e le sue propriet metriche. Inoltre, esso
individua il riferimento di R2 in cui C assume lequazione
della forma canonica metrica e la successione di isometrie
che sono state necessarie per arrivare a questo riferimento.
Pertanto da quanto discusso nel paragrafo 12.4, conosciamo
le propriet geometriche necessarie per eventualmente disegnare una qualsiasi delle forme canoniche metriche. Una
volta che abbiamo scoperto la forma canonica metrica M di
Osservazione 12.11
Vogliamo concludere il paragrafo osservando che, se si richiede la pura e semplice classicazione metrica di una coni- b)
ca C , ma non si richiede esplicitamente il riferimento in cui C
si riduce in forma canonica n la successione di isometrie
necessarie, allora si possono utilizzare strade alternative pi c)
rapide di quella dellalgoritmo di riduzione. Queste strade
alternative utilizzano la tabella della Denizione 12.11, insieme con il Corollario 12.1, ed alcuni risultati che abbiamo d)
dimostrato nei precedenti paragra. Infatti, data una conica
C come nella [12.4]:
a)
come primo passo determiniamo subito il suo ran- Applicheremo tale metodo anche nella risoluzione di alcuni
go, come nella Denizione 12.7. A questo punto degli esercizi proposti a ne capitolo.
Equazione
Denominazione
(1)
X1 + X2 = 1
ellisse generale
(2)
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
+ X2
2
+ X2
2
X2
2
X2
= 1
=0
ellisse degenere
=1
iperbole generale
=0
iperbole degenere
(3)
(4)
(5)
(6)
(7)
(8)
(9)
= X2
parabola generale
=1
= 1
=0
Notiamo che, a differenza della tabella nella Definizione 12.11, la precedente lista
costituita da un numero finito di coniche; esattamente 9 coniche, una per ciascuna
tipologia.
Grazie al Teorema 12.2 dimostreremo che le coniche contenute nella tabella precedente sono effettivamente tutte e sole le forme canoniche (e quindi le classi di
equivalenza) affini delle coniche di R2 .
I supporti delle coniche descritte nella tabella precedente hanno propriet analoghe a
quelle descritte per le coniche nella tabella nella Definizione 12.11. Per meglio dire,
tutte le propriet affini (che non coinvolgono quindi la perpendicolarit, la distanza,
gli angoli ecc.) delle coniche elencate nella Definizione 12.11 valgono corrispondentemente per quelle della lista della Definizione 12.12. Quindi, se nel paragrafo 12.4,
nella parte che abbiamo dedicato alla discussione delle propriet geometriche delle
forme canoniche metriche, andiamo a sostituire ovunque nelle equazioni a = b = 1,
continueranno a valere parola per parola tutte quelle propriet che coinvolgono le nozioni legate alla tipologia di supporto (a punti reali, puntiforme o vuoto), agli asintoti,
alleventuale centro di simmetria, alla limitatezza o meno del supporto, al numero di
componenti disgiunte in cui si decompone una conica ecc. Invece, non avranno pi
senso tutte quelle propriet in cui viene coinvolta per esempio la nozione di distanza,
di norma, di angolo.
A differenza del caso euclideo, nel caso affine si dimostra molto rapidamente la
seguente:
324
Le tipologie di coniche (1)-(9) elencate nella tabella descrivono coniche a due a due
non affinemente equivalenti.
In altri termini, per ogni 1 i = j 9, una conica di tipo (i) non mai
affinemente equivalente ad una conica di tipo ( j ).
Dimostrazione
Per quanto ricordato sopra, dalle Definizioni 12.7 e 12.8, i ranghi della
matrice simmetrica completa A e della matrice simmetrica A della forma quadratica di una
conica C , cos come il segno di det A, sono anche propriet affini di C . Poich nelle equazioni
cartesiane presenti nella tabella non compaiono parametri, basta applicare la prima parte della
dimostrazione della Proposizione 12.1.
Nel prossimo paragrafo, vedremo che queste 9 classi distinte di equivalenza affine di
coniche di R2 sono esattamente tutte e sole le classi di equivalenza affine.
teorema 12.2
Dimostrazione
Se M di tipo (9), abbiamo finito dato che questa anche lequazione di tipo (9) nella
tabella nella Definizione 12.12.
Supponiamo quindi che M sia di tipo (i), con 1 i 8. A questo punto, possiamo
applicare anche le affinit di R2 . A tal proposito, prendiamo la forma quadratica Q = QM
dellequazione di M, come nella Definizione 12.2. Applichiamo il Teorema 11.5 alla base e z ,
rispetto alla forma quadratica Q e determiniamo cos la base di Sylvester s . Siano (w1 , w2 )
le coordinate rispetto al riferimento (O, s ) e siano W1 e W2 le relative indeterminate.
325
In definitiva, dal Teorema 12.2 deduciamo che una qualsiasi conica C di R2 si riduce
mediante affinit ad una, ed una sola, delle coniche elencate nella tabella fondamentale per la classificazione affine; inoltre, dalla Proposizione 12.2, sappiamo che le
coniche in tale tabella sono a due a due non affinemente equivalenti. Pertanto, dalla
Definizione 12.10, abbiamo:
Le coniche della tabella fondamentale nella Definizione 12.12
sono le forme canoniche affini delle coniche di R2 .
corollario 12.3
Per questo motivo, il Teorema 12.2 si chiama anche Teorema di riduzione a forma
canonica affine di una conica C .
Esistono 9 tipologie differenti e 9 classi distinte di equivalenza
affine (equiv., di forme canoniche affini) di coniche di R2 .
corollario 12.4
Dimostrazione
dopo.
In altri termini, nel caso affine, tipologie affini e classi di equivalenza affine di coniche
coincidono.
Osservazione 12.12
Notiamo quindi che, esattamente per i motivi discussi pocanzi, ciascun tipo (i ) della tabella nella Denizione 12.11
corrisponde al relativo tipo (i ) della tabella nella Denizione 12.12, per 1 i 9, per le innite classi di equiva-
326
X1
X2
Soluzioni
Quesiti ed esercizi
1.
Classicare dal punto di vista metrico la conica C , di equa2
2
zione cartesiana, X1 + X2 4X1 6X2 = 3, individuando la
sua forma canonica metrica.
2.
2
Sia data la conica C di equazione cartesiana 7X1
2
10 3X1 X2 3X2 + 12 3X1 12X2 12 = 0:
(i)
(ii)
scrivere le equazioni cartesiane degli eventuali assi di simmetria, delleventuale centro di simmetria e
degli eventuali asintoti di C .
3.
2
2
data la conica C di equazione cartesiana X1 +4X2 4X1 X2 +
6X1 12X2 + 9 = 0. Ridurre la conica C a forma canoridurre la conica C a forma canonica metrica M. nica metrica M. Stabilire la classicazione metrica di C e
Stabilire quindi la classicazione metrica di C e determinare esplicitamente lisometria che trasforma C in
M.
determinare lisometria che trasforma C in M;
327
328
13
Quadriche dello spazio cartesiano R3
In questo capitolo studieremo le quadriche dello spazio cartesiano R3 . Analogamente
alle coniche, una quadrica si pu considerare come un oggetto geometrico rappresentato da un polinomio P (X 1 , X 2 , X 3 ) di secondo grado ed a coefficienti reali. In
altri termini, a parte casi particolari (e.g. quadriche a punti non reali, quadriche puntiformi ecc. esattamente come nel caso delle coniche), questi polinomi determinano
superfici, i.e. luoghi geometrici bidimensionali, in R3 . Il discorso quindi analogo
a quanto fatto nel Capitolo 8, dove si sono studiati i piani di R3 come superfici
rappresentate da equazioni cartesiane lineari.
Esempi di quadriche sono gi stati dati implicitamente nei precedenti capitoli di
questo libro: le sfere (Definizione 8.21) ed i cilindri circolari (Osservazione 8.14).
Dallanalisi di questi semplici esempi risulta abbastanza chiaro che, a parte i possibili
casi patologici sopra menzionati, il fatto che una quadrica sia rappresentata da un
polinomio di secondo grado ha il seguente risvolto geometrico: lintersezione con un
piano sufficientemente generale e non esterno a una conica su e lintersezione
di con due piani e sufficientemente generali (in particolare, non paralleli n
coincidenti) e non esterni a costituito da due punti di : questi sono i punti di
intersezione tra e la retta r := .
Data la profonda analogia con il caso delle coniche, tratteremo in modo abbastanza
sintetico tutti quegli aspetti e quei risultati che sono una pura e semplice estensione
a tre indeterminate di risultati considerati nel Capitolo 12. Al contrario, porremo
laccento su tutti quei risultati che non sono invece facilmente deducibili da quanto
trattato per le coniche.
Dopo alcune definizioni di base, considereremo nel paragrafo 13.2 le equazioni cartesiane pi semplici che definiscono tutti i possibili tipi di quadriche dal punto di
vista della geometria euclidea (Corollario 8.8, dove abbiamo il risultato analogo per i
piani di R3 ). Analogamente al caso delle coniche, tali equazioni saranno dette forme
canoniche metriche od euclidee delle quadriche di R3 . Nel paragrafo 13.4 affronteremo il problema analogo considerando per il punto di vista della geometria affine.
Le equazioni che otterremo verranno dette forme canoniche affini delle quadriche di
R3 . Studieremo alcune fondamentali propriet geometriche delle quadriche definite
da queste forme canoniche metriche ed affini ed alcune fondamentali conseguenze
(Corollari 13.2 e 13.4).
Nei paragrafi 13.3 e 13.5, descriveremo lalgoritmo di riduzione a forma canonica metrica (rispettivamente, affine) grazie al quale lequazione di partenza,P (X 1 , X 2 , X 3 )=
0, di una quadrica diventa via via sempre pi semplice fino a ricondursi ad una,
329
P (X 1 , X 2 , X 3 ) = 0
[13.2]
Equazione cartesiana
di una quadrica
P (X 1 , X 2 , X 3 ) := a 11 X 1 + a 22 X 2 + a 33 X 3 + 2a 12 X 1 X 2 + 2a 12 X 1 X 3 +
+ 2a 23 X 2 X 3 + 2b 1 X 1 + 2b 2 X 2 + 2b 3 X 3 + c
R3 definita da P (X 1 , X 2 , X 3 ) come
nella [13.2], le tre componenti omogenee di P (X 1 , X 2 , X 3 ), di gradi rispettivamente due, uno e zero, sono:
(i)
(ii)
(iii)
Data una quadrica, possiamo allora associare alla sua equazione cartesiana
P (X 1 , X 2 , X 3 ) = 0 la matrice simmetrica:
c b1 b2 b3
b 1 a 11 a 12 a 13
A :=
b 2 a 12 a 22 a 23
b 2 a 13 a 23 a 33
[13.3]
Matrice completa
di una quadrica
1
X 1
P (X 1 , X 2 , X 3 ) = (1X 1 X 2 X 3 ) A
X 2 = 0
X3
[13.4]
331
Osservazione 13.1
scrivere in forma compatta
Ricordando la Denizione 13.2, la sottomatrice 3 3 di A
3, 4; 2, 3, 4) coincide con la matrice A della fordata da A(2,
X1
ma quadratica della conica. In particolare, dalla [11.6], an- [13.5]
Q(X1 , X2 , X3 ) = (X1 X2 X3 )A X2 = 0
che lequazione della forma quadratica Q(X1 , X2 , X3 ) si pu
X
3
Osservazione 13.2
Come nellOsservazione 12.2 , se P(X1 , X2 , X3 ) determina
unequazione cartesiana di una quadrica il cui supporto
R3 , ogni altro polinomio nella classe di proporzionalit [P(X1 , X2 , X3 )] determina unaltra equazione cartesiana
della stessa quadrica e denir lo stesso supporto. Quindi
anche in questo caso, per brevit, si denoter spesso la quadrica di equazione cartesiana P(X1 , X2 , X3 ) = 0 e con supporto semplicemente con la lettera , quando risulter
chiaro che unequazione cartesiana della quadrica stata
gi assegnata.
quadrica, ha come supporto il piano di equazione cartesiana X1 = 0, pertanto possiamo vedere questa quadrica come
un piano contato due volte (o piano doppio). Passiamo alla
seconda quadrica:
per ogni c R+ , la quadrica ha sempre supporto vuoto; inoltre, sebbene con medesimo supporto,
due diversi valori positivi di c deniscono due quadriche distinte perch i polinomi non sono proporzionali. In particolare, ogni quadrica di questo tipo
ha un contenuto puramente algebrico, in quanto il
suo supporto sempre vuoto;
se invece c R allora, dalla [8.69],
la quadrica
una sfera di centro O e raggio r = c;
da ultimo, se c = 0, lunica soluzione possibile lorigine O, pertanto la quadrica si dice anche quadrica
puntiforme.
Alcuni dei fenomeni che si presentano nei precedenti esempi dipendono dal fatto
che consideriamo quadriche reali, cio polinomi a coefficienti reali, e vogliamo le
soluzioni reali delle equazioni corrispondenti in R3 .
Quadriche congruenti
ed afnemente
equivalenti
Visto che, da quanto osservato nei precedenti esempi, le quadriche come le coniche
non si riducono esclusivamente al loro supporto, anche per esse dovremo brevemente
richiamare le nozioni di congruenza ed equivalenza affine definite in relazione ai
polinomi che le rappresentano. Ci rifaremo sostanzialmente al paragrafo 12.2.
Sia F : R3 R3 una qualsiasi isometria (rispettivamente, affinit) dello spazio
cartesiano, cui associato il cambiamento di coordinate
x 1 = m 11 y 1 + m 12 y 2 + m 13 y 3 + d1
[13.6]
x 2 = m 21 y 1 + m 22 y 2 + m 23 y 3 + d2
x 3 = m 31 y 1 + m 32 y 2 + m 33 y 3 + d3
332
[13.7]
m 11 m 12 m 13
M := m 21 m 22 m 23
m 31 m 32 m 33
la matrice dei coefficienti della trasformazione F e con d il vettore colonna dei termini
noti, allora in forma matriciale [13.6] :
[13.8]
x = My +d
Come fatto per la matrice A dellequazione di una quadrica, data unisometria (equivalentemente, unaffinit) F come nella [13.6], definiamo la matrice completa di F
come
1
0
0
0
:= d1 m 11 m 12 m 13
M
d2 m 21 m 22 m 23
d3 m 31 m 32 m 33
[13.9]
Matrice completa
di una trasformazione
[13.10]
Y
A M
1 = 0
F : (1Y1 Y2 Y3 )tM
Y2
Y3
Contestualmente, dallequazione matriciale [13.5] della forma quadratica e dalla for avremo che la forma quadratica Q F dellequazione di F sar
ma della matrice M,
333
Y1
F
t
Q : (Y1 Y2 Y3 ) M A M Y2 = 0
Y3
3, 4; 2, 3, 4) la matrice simmetrica
dove M come nella [13.7] e dove A = A(2,
associata alla forma quadratica Q dellequazione data di .
Quadriche congruenti
ed afnemente
equivalenti
o isometrica (rispettivamente, affinemente equivalente) a se esiste unisometria (rispettivamente, unaffinit) F di R3 tale che =
F .
Osservazione 13.4
Esattamente come nellOsservazione 12.7, i supporti di equivalenti) sono essi stessi congruenti (rispettivamente,
due quadriche congruenti (rispettivamente, afnemente afnemente equivalenti).
Y1
gamente da (1Y1 Y2 , Y3 ) B Y2 = 0, dalla [13.10] e da quanto detto fino ad ora,
Y3
A M
B = t M
Le propriet che una quadrica ha in comune con tutte le quadriche ad essa congruenti (rispettivamente, affinemente equivalenti) vengono dette propriet metriche
od euclidee (rispettivamente, propriet affini ) di . Introduciamo alcune di queste
propriet.
Rango di una quadrica
La stessa dimostrazione fatta nel caso delle coniche ([12.14] e seguente) permette di
dare la seguente:
codefinizione 13.4 Data una quadrica con matrice simmetrica completa A
Interpretazione
geometrica del rango
di una quadrica
334
Osservazione 13.5
e quelli di B
come nella [13.12] in generale non sono uguali.
Come discusso nellOsservazione 12.6, gli autovalori di A
Come nel caso delle coniche, esistono altre fondamentali propriet metriche (equivalentemente, affini) di una quadrica.
Ulteriori propriet
metriche ed afni
Per esempio nel caso di quadrica generale, se consideriamo A e B come nella [13.12], il
segno del determinate di A coincide con il segno di quello di B (dal Teorema di Binet
Daltra parte, se moltiplichiamo lequazione cartesiana
2 (det A)).
det B = (det M)
perci il
di per un qualsiasi R \ {0} la matrice corrispondente sar A;
4
determinate di questa matrice si ottiene moltiplicando per il determinante di A.
Abbiamo quindi:
definizione 13.5 Data una quadrica generale con matrice simmetrica com-
Nel caso delle coniche, il segno del determinate della matrice simmetrica completa
non era una propriet metrica (equivalentemente, affine); ricordiamo che lo era invece il segno del determinate della matrice A della forma quadratica associata alla
conica (Definizione 12.8).
Abbiamo unaltra importante propriet metrica (equivalentemente, affine). Consi come nella [13.12]. Siano A(2,
3, 4; 2, 3, 4) = A e
deriamo le matrici A e M
3, 4; 2, 3, 4) = M, i.e. rispettivamente la matrice della forma quadratica Q
M(2,
e la matrice dei coefficienti dellisometria (equivalentemente, affinit) F come nel 3, 4; 2, 3, 4), vale la
la [13.6]. Se B come nella [13.12] allora, posto B = B(2,
relazione analoga:
[13.13]
B = t M A M
la matrice simmetrica della forma quadratica Q di , come nella Definizione 13.2. Allora il rango di A una propriet metrica (rispettivamente, affine)
di .
(i)
paraboloide, se r (A) = 2;
335
Paraboloidi, ellissoidi,
iperboloidi, coni
e cilindri
(i.2)
(ii)
(ii.1)
(ii.2)
cono, se r (A) = 3;
cilindro, se r (A) < 3.
Esattamente come nel caso delle coniche, le precedenti nozioni hanno profondi risvolti geometrici; per dimostrarlo sono necessari per preliminari di geometria proiettiva, che esulano dagli obiettivi di questo testo.
Da quanto discusso fino ad ora, chiaro che classificare le quadriche di R3 sar una
procedura molto pi impegnativa e pi ricca di casi da discutere, rispetto a quanto
fatto per le coniche.
Esattamente come nel caso delle coniche (fine del paragrafo 12.3), considereremo la
classificazione metrica delle quadriche di R3 , determinando le loro forme canoniche
metriche, e la classificazione affine delle quadriche di R3 , con il calcolo esplicito di
tutte le loro forme canoniche affini. Definiamo infatti:
definizione 13.7 Un insieme di forme canoniche metriche (rispettivamente, affini) delle quadriche di R3 un insieme di rappresentanti per le distinte classi
di equivalenza metrica di quadriche di R3 . Pertanto, queste forme canoniche
metriche (rispettivamente, affini) sono un insieme di quadriche di R3 tali che:
(i)
(ii)
le quadriche di questo insieme sono a due a due non congruenti (rispettivamente, non affinemente equivalenti);
ogni quadrica di R3 congruente (rispettivamente, affinemente equivalenti) ad una ed una sola di esse.
Equazione
2
(1)
X1
(2)
X1
X2
X2
2
1
2
X3
X3
2
2
2
X3
2
2
2
X3
2
2
2
2
2
Condizioni
Denominazione
abc>0
ellissoide generale
= 1 a b c > 0
ellissoide generale
immaginario
=1
=1
iperboloide generale
a > 0, b c > 0 ellittico
=1
a b, c > 0
iperboloide generale
iperbolico
= X3
ab>0
paraboloide generale
ellittico
= X3
a, b > 0
paraboloide generale
iperbolico
=0
ab>0
cono immaginario
=0
a, b > 0
cono
= 1
ab>0
cilindro immaginario
=1
ab>0
cilindro ellittico
a>0
cilindro parabolico
=1
a, b > 0
cilindro iperbolico
=0
a>0
2 piani complessi
e coniugati incidenti
=0
a>0
2 piani incidenti
(15) X1 = a2
a>0
2 piani complessi
e coniugati paralleli
a>0
2 piani paralleli
(3)
(4)
(5)
2
1
2
2
1
2
b
b
X
X1
X2
(7)
X1 +
X2
(8)
X1 +
(9)
X1
(10)
X1
X2
X3
X3
X2
X2
(6)
2
2
(11) aX1 = X2
2
X1
X2
(13) X1 +
X2
(12)
(14) X1
X2
(16) X1 = a2
(17)
2
X1
=0
2 piani coincidenti
Dalla tabella della Definizione 13.8, vediamo che le quadriche generali a punti reali
corrispondono a quelle di tipologie (1), (3), (4), (5) e (6). Notiamo infatti che, dalle
equazioni cartesiane corrispondenti a ciascuno dei casi, il rango della quadrica
sempre 4 (Definizione 12.7). Il termine a punti reali specifica che ciascuno dei
supporti di queste quadriche sar una superficie in R3 .
Ellissoide generale
che sono
possiede
i punti di intersezione con i tre assi coordinati:
a
0
0
0
b
0
0
0
c
. imme-
diato osservare che il supporto dellellissoide una superficie a punti reali, chiusa e
limitata, infatti contenuta nel parallelepipedo dello spazio determinato dalle condizioni |x 1 | a , |x 2 | b, |x 3 | c cio delimitato dai piani di equazioni cartesiane
X 1 = a , X 2 = b, X 3 = c . In particolare lellissoide non pu contenere rette.
Si chiamano semiassi dellellissoide i sei segmenti di estremi lorigine O ed uno dei
vertici dellellissoide. I numeri a , b e c sono le rispettive lunghezze di questi semiassi.
Osservando che nellequazione cartesiana dellellissoide compaiono solo i quadrati
delle indeterminate, si ha immediatamente che lellissoide una superficie simmetrica rispetto ai piani ed alle rette coordinate cos come rispetto allorigine. Pertanto essi
si dicono, rispettivamente, piani ed assi principali (o di simmetria) e centro di simmetria dellellissoide. semplice notare che nel caso a = b = c , i.e. una sfera, allora
ciascuna retta per lorigine asse principale e ciascun piano per lorigine piano principale. Osserviamo che lellissoide ha uno ed un solo centro di simmetria, come
dovevamo aspettarci dalla Definizione 13.6-(i.2). Se consideriamo inoltre la condizione a) nella Definizione 13.6-(i.2), notiamo che lequazione della forma quadratica
X
2
X1
a2
2
X2
b2
X2
b2
X3
c2
1 = X 1 = 0, C2 :
X1
a2
X3
c2
1 = X2 = 0
1 = X 3 = 0.
Ci si rende conto facilmente della forma del supporto dellellissoide sezionandolo con
piani paralleli ai piani principali. Per esempio, sezionando con i piani della forma
X 3 = k, troviamo dei supporti non vuoti se, e solo se, c k c . La sezione
2
X1
a2
b2
(1
k2
2)
c
ha equazione cartesiana
X2
Q(X 1 , X 2 , X 3 ) =
2
X1
a2
X1
a2
2
X2
X2
b2
X3
c2
conica X 3 =
b 2 = 0 che uniperbole degenere, i.e. una coppia di rette incidenti in O. Quindi le soluzioni di tale equazione non si riducono esclusivamente alla
soluzione nulla. Pertanto la condizione di essere iperboloide della Definizione 13.6
soddisfatta.
Notiamo che liperboloide ellittico possiede un solo asse reale (o trasverso), i.e. solo
lasse x 1 interseca liperboloide, Lintersezione costituita dai vertici delliperboloide,
a
0
. Gli altri due assi di simmetria sono quini.e. dai due punti di coordinate
0
Iperboloide generale
ellittico o a due falde
X2
Iperboloide generale
iperbolico o ad una falda
X1
a2
2
X3
X2
b2
X3
c2
0
di coordinate 0 e b . Il terzo asse di simmetria ha intersezione vuota con
0
X1
X2
cartesiane, rispettivamente, b 22 c 23 1 = X 1 = 0 e a 21 c 23 1 = X 2 = 0,
ambedue aventi per asse immaginario (o non trasverso) lasse x 3 . Pi in generale, le
X
della porzione di spazio delimitata dalla condizione a 12 + b22 < 1. Per rendersi conto
pi accuratamente della forma della superficie, si pu intersecare con i piani della
forma X 1 = h e X 2 = k, per h, k R. Per esempio, intersecando con il piano
2
X2
X3
X1
X2
X3
X2
X3
X1
1
=
+
[13.14]
1+
a
a
b
c
b
c
La [13.14] si pu pensare come ottenuta per eliminazione sia di un parametro t
R \ {0} tra le equazioni:
X1
X2
X3
X1
X3
1 X2
[13.15] 1 +
=t
+
e 1
=
a
b
c
a
t
b
c
sia di un parametro s R \ {0} tra le equazioni
X1
X2
X3
X1
X3
1 X2
[13.16] 1 +
=s
e 1
=
+
a
b
c
a
s
b
c
Per ogni fissato valore di t (rispettivamente, di s ) come sopra, il sistema lineare di
due equazioni e tre indeterminate costituito dalle due equazioni nella [13.15] (rispettivamente, nella [13.16]) determina le equazioni cartesiane di una retta r t (rispettivamente, r s ) contenuta in . Al variare dei parametri t, s R \ {0}, abbiamo le due
schiere di rette T := {r t }tR\{0} e S := {r s }s R\{0} . Ciascuna schiera costituita da
1 rette contenute in . Per questi motivi, si dice anche iperboloide doppiamente
rigato.
Notiamo la seguente propriet interessante:
le rette di una medesima schiera sono sghembe mentre le rette di due schiere diverse
sono incidenti.
figura 13.3
Liperboloide
iperbolico o ad una falda
Paraboloide generale
ellittico
Paraboloide generale
iperbolico o a sella
1 2
X
a2 1
k2
1 2
X
b2 2
X3 +
h2
a2
= X1 h = 0 e
2
X1
a2
2
X2
b2
X1
a2
X2
b2
k =
figura 13.5
iperbolico
= X 3 = 0, per k = 0.
X1
X2
+
= t X3
a
b
X1
X2
1
=
a
b
t
X1
X2
1
+
=
a
b
s
X1
X2
= s X3
a
b
Per fissati t e s , le equazioni [13.17] e [13.18] definiscono due rette r t e r s , rispettivamente. Al variare dei parametri t, s R \ {0}, abbiamo le due schiere di rette
T := {r t }tR\{0} e S := {r s }s R\{0} , ciascuna delle quali costituita da 1 rette tutte contenute in . Per questi motivi, si dice anche paraboloide doppiamente
rigato.
Notiamo la seguenti propriet interessanti:
le rette di una medesima schiera sono sghembe mentre le rette di due schiere diverse
sono incidenti;
le rette di una medesima schiera hanno vettori direttori appartenenti alla medesima giacitura.
La prima delle precedenti propriet si dimostra esattamente come nel caso delliperboloide iperbolico. Per la seconda, basta osservare che le rette definite dalla [13.17]
X
X
sono tutte parallele al piano vettoriale di equazione cartesiana a1 b2 = 0, mentre quelle definite dalla [13.18] sono tutte parallele al piano vettoriale di equazione
X
X
cartesiana a1 + b2 = 0.
343
Il paraboloide
Dalla tabella fondamentale contenuta nella Definizione 13.8, vediamo che le quadriche semplicemente degeneri a punti reali corrispondono a quelle di tipologie (8),
(10), (11) e (12). Notiamo infatti che, dalle equazioni cartesiane corrispondenti a
ciascuno dei casi, il rango della quadrica sempre 3 (Definizione 12.7). Il termine
a punti reali specifica il fatto che ciascuno dei supporti di queste quadriche sar una
superficie in R3 .
Cono (quadrico)
Sia come in tipologia (8). Questo viene denominato cono quadrico. Notiamo che
detta A la matrice simmetrica della forma quadratica associata a essa ha rango
3, come deve essere dalla condizione (ii.1) della Definizione 13.6. Dallequazione
cartesiana di , vediamo che lintersezione del cono con il piano X 3 = 0 unellisse
degenere, i.e. puntiforme. Infatti, tale intersezione si riduce allorigine O, che detto
vertice del cono. Notare che il vertice anche centro di simmetria per il cono.
Al contrario, le intersezioni con i piani X 1 = 0 e X 2 = 0 determinano ambedue
delle iperboli degeneri, quindi coppie di rette incidenti nel vertice O del cono. Pi
in generale, al variare dei piani nel fascio proprio di asse lasse x 3 (Definizione 8.12),
otteniamo intersezioni con che sono sempre coppie di rette incidenti in O. Ciascuna retta di una qualsiasi di queste coppie viene chiamata generatrice del cono. Il
motivo del nome generatrice risiede nel fatto che si pu generare per rotazione
attorno allasse x 3 (detto pertanto asse del cono) di una qualsiasi di queste rette.
Le sezioni con piani della forma X 3 = h, h R \ {0}, sono delle ellissi generali a
punti reali. Poich una qualsiasi di queste ellissi viene intersecata in uno ed un solo
punto da ogni generatrice di allora, scelta arbitrariamente una di queste ellissi, essa
si dice direttrice del cono. Sia E una direttrice del cono. Notiamo che, per ogni punto
P E passa una, ed una sola, generatrice di : questa la retta g P passante per
O e per P . Poich tutte le generatrici di si ottengono cos, allora contiene 1
generatrici, parametrizzate dai punti di E , ciascuna delle quali passa per il vertice del
cono. Per questi motivi, il cono si dice rigato.
I parametri direttori della generatrice g P coincidono con le coordinate di P . Ogni
altro punto Q = P sulla generatrice g P determina unaltro vettore direttore per
la retta g P ; quindi le coordinate di Q devono essere proporzionali a quelle di P .
Pertanto, il cono se contiene il vettore P , per un qualche P , allora contiene
tutti i punti corrispondenti agli estremi liberi dei vettori della forma P , per ogni
R. In effetti, questo garantito dal fatto che lequazione cartesiana del cono
unequazione omogenea nelle tre indeterminate.
344
se r secante C , poich essa una conica, allora r C = {Q 1 , Q 2 } costituita da due punti distinti. Pertanto, litersezione di con una parabola
semplicemente degenere a punti reali, in altri termini costituita da due rette
parallele che sono le due generatrici g Q 1 e g Q 2 di ;
se r tangente la direttrice C in un punto Q, allora la molteplicit di intersezione tra r e C 2 (Definizione 1.2 e Proposizione 1.1 dellApprofondimento
sul web Interpretazione geometrica del rango di una conica). Tale punto Q si
ottiene da , in altri termini si ottiene considerando il sistema di
tre equazioni P (X 1 , X 2 ) = X 3 = X 1 h = 0. Pertanto, il punto Q avr
h
coordinate della forma Q = q , con q tale che P (h, q ) = 0. Poich
0
questa intersezione di molteplicit due, prendendo equazioni parametriche della retta r , X 1 = h, X 2 = q + t, X 3 = 0, con h fissato e t R
un parametro, se sostituiamo nel polinomio P (X 1 , X 2 ) = 0 queste espres345
Cilindro ellittico
Cilindro parabolico
Cilindro iperbolico
Quadriche euclidee
doppiamente degeneri
(a punti reali)
Dalla tabella contenuta nella Definizione 13.8, vediamo subito che le quadriche doppiamente degeneri a punti reali corrispondono ai casi (14) e (16). In effetti, in ogni
caso la matrice simmetrica completa associata alla quadrica ha rango 2.
2
X2
a )(X 1
X2
a )
a2
X2
a
X2
a = 0,
X
X 1 + a2 = 0
= 0 e X1 +
X2
X2
a
Quadriche euclidee
a punti esclusivamente
immaginari
Quadriche euclidee
a punti non
esclusivamente reali
doppiamente degenere. Lequazione cartesiana X 1 + b 22 = 0 ha come unica soluzione reale X 1 = X 2 = 0, contata con molteplicit 2. Pertanto, il supporto di tale
quadrica lasse x 3 e la quadrica si pu vedere come questa retta contata con molteplicit 2.
Lunico caso di quadrica triplamente degenere quella della tipologia (17) nella tabella della Definizione 13.8. immediato osservare che la matrice simmetrica completa
ha rango 1 e che il supporto di una tale quadrica il piano coordinato X 1 = 0.
Pertanto la quadrica si pu vedere come tale piano, contato con molteplicit due.
Concludiamo con unosservazione importante, che in seguito sar utile quando discuteremo la procedura generale di riduzione a forma canonica metrica delle quadriche (Teorema 13.1).
347
Quadriche euclidee
triplamente degeneri
Come nel caso delle coniche, dalla Definizione 13.4, il rango di una
Dimostrazione
quadrica una propriet metrica; quindi, una prima diversificazione tra le varie tipologie
si ha utilizzando il rango della quadrica. A parit di rango, dalle Definizioni 13.6 e 13.5,
sono invarianti metrici anche il rango della matrice simmetrica A della forma quadratica Q
associata a ed il segno del determinante della matrice simmetrica completa A associata
a . Questi sono pertanto unulteriore strumento per diversificare i tipi di quadriche della
tabella fondamentale.
A parit di tutte le precedenti propriet metriche, dallOsservazione 13.4, ricordiamo che due
quadriche isometriche devono avere supporti congruenti. Pertanto, ricordando tutte le propriet geometriche descritte precedentemente per le quadriche della tabella facile concludere
che, per ogni 1 i = j 17, una qualsiasi quadrica di tipo (i) non mai congruente ad
una qualsiasi quadrica di tipo ( j ).
Ora che sappiamo distinguere quadriche appartenenti a differenti tipologie della tabella fondamentale per la classificazione metrica, dobbiamo porci il problema di poter distinguere due
quadriche appartenenti ad una medesima tipologia (i), per ogni 1 i 16, ma che non
sono isometriche. Prese e due quadriche dello stesso tipo (i) ma definite da equazioni cartesiane aventi parametri distinti, per compiere questa distinzione, possiamo utilizzare
lOsservazione 13.4. Infatti, due quadriche isometriche devono avere supporti congruenti; in
particolare, laddove i supporti sono reali, devono essere conservate per esempio le distanze
fra i punti, gli angoli ecc.
Pertanto, per quanto riguarda le tipologie (i), con i = 1, 3, 4, 5, 6, 8, 10, 11, 12, 14 e 16
in cui i supporti sono sempre superfici reali, possiamo procedere come nel caso delle coniche utilizzando le propriet geometriche descritte precedentemente. Potremo distinguere due
quadriche della medesima tipologia (i), ma con parametri diversi, utilizzando per esempio
la lunghezza dei semiassi reali (o trasversi), le propriet metriche delle sezioni piane ottenute
mediante i piani coordinati o piani paralleli ad essi ecc.
A titolo di esempio, se prendiamo i = 1, e consideriamo due ellissoidi generali a punti reali
a ,b,c e d ,e , f , con a b c > 0, d e f > 0, definiti da equazioni cartesiane
come in (1), con parametri (a , b, c ) = (d , e , f ), allora i due ellissoidi non possono essere
congruenti. Infatti, dallipotesi sui parametri distinti, deve esistere una coppia di semiassi di
348
Per quanto riguarda la tipologia (14), se prendiamo due equazioni della forma X 1
2
2
X2
d2
X2
a2
=0
e X1
= 0, con a , d > 0 e a = d , esse rappresentano due coppie di piani reali incidenti.
Potremo distinguere le due coppie di piani dal punto di vista metrico per mezzo del calcolo
dellangolo fra i due piani di ciascuna coppia (par. 8.5). Tale calcolo coinvolger i coefficienti
delle equazioni dei piani (i.e. le coordinate dei vettori normali a tali piani).
Per quanto riguarda la tipologia (16), se prendiamo a e d , con a = d , le quadriche
sono due coppie di piani paralleli al piano X 1 = 0, dove ciascun piano della coppia a a
distanza a da questo piano coordinato mentre ciascun piano della coppia d a distanza d
dal medesimo piano coordinato.
I casi residui non si possono trattare con i metodi precedenti; infatti se i = 2, 9 e 15, il
supporto di una qualsiasi quadrica di tipo (i) vuoto mentre, se i = 7 o 13, i supporti di
tutte le quadriche di tipo (i) sono, rispettivamente, lorigine O e lasse x 3 .
Nel caso (15), si pu procedere con un ragionamento per assurdo, esattamente a quanto fatto
nella dimostrazione della Proposizione 12.1. In altri termini, si suppone lesistenza di una
isometria F che trasforma una data equazione in unaltra della stessa classe ma con parametri
diversi, si traduce il tutto in una relazione matriciale e si trova che la relazione matriciale
sussiste se, e solo se, invece i parametri sono uguali.
Per i casi residui, possiamo utilizzare una strategia pi rapida. Consideriamo dapprima i casi
(2) e (9). Prendiamo due qualsiasi equazioni in tipologia (i), i = 2, 9, ma che abbiano
parametri diversi. Siano A e B le rispettive matrici 3 3 delle forme quadratiche associate
a tali quadriche. Se le due quadriche fossero isometriche, allora deve esistere M ortogonale
33, per cui valga la relazione [13.13]. Ricordiamo che il polinomio caratteristico invariante
per per la relazione di similitudine (Teorema 10.4) e che, quando M ortogonale, la relazione
di similitudine coincide con la relazione di congruenza (Corollario 11.1). In altri termini, i
polinomi caratteristici P A (t) e P B (t) coincidono, quindi anche le loro soluzioni. Pertanto, gli
autovalori di A devono coincidere con quelli di B. Se siamo quindi per esempio in tipologia
(2) e stiamo considerando le due quadriche
2
a ,b,c :
X1
a2
X2
b2
X3
b2
= 1
d ,e , f :
X1
d2
X2
e2
X3
f2
= 1
349
a ,b : X 1 +
X2
X3
=0
d ,e : X 1 +
X2
X3
=0
a2
b2
d2
e2
con a b > 0, d e > 0 e (a , b) = (d , e ) allora, per gli stessi motivi di cui sopra, i polinomi che determinano le due equazioni non possono essere congruenti luno allaltro (notiamo
infatti che entrambe le matrici hanno a 2,2 = 1). Analogo discorso per la tipologia (13).
e
In conclusione, al variare dei parametri, in ogni tipologia (i) descriviamo quadriche a due a
due non congruenti.
Nel prossimo paragrafo, vedremo che queste classi distinte di equivalenza metrica di
quadriche di R3 sono esattamente tutte e sole le classi di equivalenza metrica.
Dimostrazione
[13.19]
P (X 1 , X 2 , X 3 ) : = a 11 X 1 + a 22 X 2 + a 33 X 3 + 2a 12 X 1 X 2 + 2a 13 X 1 X 3 +
+ 2a 23 X 2 X 3 + 2b 1 X 1 + 2b 2 X 2 + 2b 3 X 3 + c = 0
350
11 12 13
Dalla Definizione 11.5, possiamo associare a Q la matrice A = A Q = a 12 a 22 a 23 .
a 13 a 23 a 33
Poich A una matrice simmetrica di ordine 3, dal Teorema 11.2 (pi in generale dal
Teorema 11.1) essa ha esclusivamente 3 autovalori reali (eventualmente, alcuni coincidenti). Siano essi 1 , 2 e 3 . Dal Teorema 11.4-(i), esiste una base ortonormale
f = f 1 , f 2 , f 3 per R3 che costituita da autovettori di A. Sia f i lautovettore
m m m
11
12
13
relativo allautovalore i , 1 i 3. Denotata con M = Me f = m 21 m 22 m 23 la
m 31 m 32 m 32
1 0 0
0 2 0
0 0 3
(Osservazio-
X = MY
2.
P (Y1 , Y2 , Y3 ) = 1 Y1 + 2 Y2 + 3 Y3 + D1 Y1 + D2 Y2 + D3 Y3 + c = 0
2
dove D1 := b 1 m 11 + b 2 m 21 + b 3 m 31 , D2 := b 1 m 12 + b 2 m 22 + b 3 m 32 e D3 :=
b 1 m 13 + b 2 m 23 + b 3 m 33 .
Il secondo passo dellalgoritmo consiste nel trovare unopportuna traslazione nel riferimento (O, f ) di R3 , con coordinate (y 1 , y 2 , y 3 ), di modo che nella [13.21]
spariscano o i termini lineari oppure alcuni dei termini lineari insieme al termine
noto.
Suddividiamo in 5 casistiche tutti le eventuali possibilit e, per ognuna di esse, discutiamo i relativi sottocasi. Alla fine, avremo i 17 tipi diversi di quadriche elencate
nella tabella della Definizione 13.8. La suddivisione in 5 casi basata sulla segnatura
di A (Proposizione 11.6). Abbiamo le seguenti eventualit.
2.1.
351
z2 +, y 3 = z3 + , dove := 21 , := 22 , := 23 . Traducendo
1
P (Z1 , Z2 , Z3 ) = 1 Z1 + 2 Z2 + 3 Z3 + E = 0
2
4c 1 2 3 D1 2 3 D2 1 3 D3 1 2
41 2 3
2.2.
2.3.
352
dove E =
opportunamente determinato dallo sviluppo dei conti nella sostituzione operata
se E < 0, allora la quadrica un ellissoide; le solite manipolazioni algebriche (divisione per il termine noto ecc.) portano tale
equazione ad una ed una sola della forma di tipo (1) nella tabella
fondamentale della classificazione metrica;
[13.23]
Basta prendere :=
[13.24]
D1 +D2 4c 1 2
.
41 2 D3
P (Z1 , Z2 , Z3 ) = 1 Z1 + 2 Z2 + D3 Z3 = 0
2
Se D3 < 0, la [13.24] riconducibile al tipo (5). Pertanto la quadrica un paraboloide generale ellittico. Dividendo per D3 , si porta
tale equazione ad una ed una sola della forma di tipo (5). Se invece
D3 > 0, con la sostituzione di indeterminate Z1 = W1 , Z2 = W2 ,
Z3 = W3 , che associata ad unisometria di R3 , ricadiamo nel
caso precedente;
se D3 = 0, allora la [13.23] della forma
[13.25]
P (Z1 , Z2 , Z3 ) = 1 Z1 + 2 Z2 + E = 0
2
con E = 41
1
a)
b)
D2
42
c)
2.4.
353
2.5.
2 Z2 = 0 e quindi, dividendo per 1 e, visto che per ipotesi 1 > 0 e 2 < 0, allora otteniamo un polinomio nella
tipologia (14);
f)
se E > 0, allora a patto di moltiplicare tale equazione
per 1 e di fare il cambiamento di indeterminate Z1 =
W2 , Z2 = W1 e Z3 = W3 , ricadiamo nel caso E > 0
precedentemente discusso.
r (A) = 1 e la sua segnatura (1, 0): come al solito, a meno di moltiplicare
per 1 e di fare uno scambio di indeterminate, possiamo supporre che 1 >
D
P (Z1 , Z2 , Z3 ) = 1 Z1 + D2 Z2 + D3 Z3 + E = 0
2
4c 1 +D
D3
2
D2
Z3 =
2
D3
W2 +
D2
2
D2
2
D3
D2
2
D2
W2 +
+ D3
W3
D3
2
D2
+ D3
W3
P (W1 , W2 , W3 ) =
354
2
1 W1
+ 2
D2
2
D2 + D3
W3 + E = 0
1 Z 1 + E = 0
h)
i)
se E < 0, allora la [13.27] riconducibile al tipo (16). Pertanto la quadrica ununione di due piani reali e paralleli.
Dividendo per 1 , si porta tale equazione ad una ed una
sola della forma di tipo (16);
se E = 0, allora la [13.27] manifestamente di tipo (17),
i.e. La quadrica costituita dallunione di due piani coincidenti ed il polinomio gi nella forma canonica metrica
della tipologia (17);
se E > 0, siamo nella tipologia (15); infatti, dividendo
per 1 , otteniamo lequazione canonica metrica di questa
tipologia.
Per questo motivo, il Teorema 13.1 si chiama anche Teorema di riduzione a forma
canonica metrica di una quadrica .
corollario 13.2 Esistono 17 tipologie differenti ed infinite classi distinte di equi-
dopo.
Osservazione 13.6
Come discusso nellOsservazione 12.10, data una quadrica
espressa mediante un polinomio quadratico complicato
quanto si voglia, mettendo insieme lanalisi delle propriet
geometriche discusse nel paragrafo 13.2 per le forme canoniche metriche e lalgoritmo di riduzione a forma canonica
metrica di una qualsiasi quadrica, possiamo sempre disegnare nel suo riferimento di partenza (x1 , x2 , x3 ). Infatti,
il teorema di riduzione a forma canonica metrica fra le altre cose determina precisamente il riferimento di R3 in cui
la quadrica assume lequazione della forma canonica metrica e la successione di isometrie che sono state necessarie
per arrivare a questo riferimento. Questo conferma ulteriormente che le conseguenze del Teorema 13.1 sono molto pi
forti della pura e semplice classicazione.
a)
b)
Come primo passo determiniamo subito il suo rango, come nella Denizione 13.4. A questo punto sappiamo se generale o meno. Inoltre, dalla Denizione 13.5, sappiamo che anche il segno del determinante una propriet metrica (equivalentemente,
afne) per . Pertanto, avendo la tabella della Denizione 13.8 sottomano, possiamo operare le prime
eliminazioni;
calcoliamo il rango della matrice A, come nella Denizione 13.6, almeno sappiamo se quindi a
centro o se un paraboloide;
se A di rango massimo, i.e. la quadrica a centro,
a seconda delle soluzioni dellequazione quadratica
Q(X1 , X2 , X3 ) = 0 sappiamo se essa un ellissoide
od un iperboloide;
se invece semplicemente degenere, il rango di
A ci dir se un cono od un cilindro; e cos via.
Equazione
356
Denominazione
ellissoide generale
(1)
X1 + X2 + X3 = 1
(2)
X1 + X2 + X3 = 1
(3)
X1 X2 X3 = 1
Denominazione
(4)
X1 + X2 X3 = 1
(5)
2
X1
2
+ X2
= X3
(6)
X1 X2 = X3
(7)
X1 + X2 + X3 = 0
cono immaginario
(8)
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
X1
2
+ X2
2
+ X2
2
+ X2
2
X3
cono
(9)
(10)
(11)
(12)
(13)
(14)
(15)
(16)
(17)
=0
= 1
cilindro immaginario
=1
cilindro ellittico
= X2
cilindro parabolico
cilindro iperbolico
X2 = 0
2 piani incidenti
= 1
=1
2 piani paralleli
=0
2 piani coincidenti
X2 = 1
+ X2 = 0
In altri termini, per ogni 1 i = j 17, una quadrica di tipo (i) non mai
affinemente equivalente ad una quadrica di tipo ( j ).
Dimostrazione
Per quanto ricordato sopra e come visto nella prima parte della dimostrazione della Proposizione 13.1, dalle Definizioni 13.4, 13.6 e 13.5, il rango della matrice
il segno del suo determinante ed il rango della matrice simmetrica
simmetrica completa A,
A della forma quadratica di una quadrica sono tutte propriet affini di . Poich nelle
equazioni cartesiane presenti nella tabella non compaiono parametri, basta applicare la prima
parte della dimostrazione della Proposizione 13.1.
Nel prossimo paragrafo, vedremo che queste 17 classi distinte di equivalenza affine
di quadriche di R3 sono esattamente tutte e sole le classi di equivalenza affine.
teorema 13.2
Dimostrazione
Se
di tipo (17), abbiamo finito dato che questa anche lequazione di tipo (17) nella
tabella nella Definizione 13.9.
358
Per questo motivo, il Teorema 13.2 si chiama anche Teorema di riduzione a forma
canonica affine di una quadrica .
corollario 13.4 Esistono 17 tipologie differenti e 17 classi distinte di equivalenza
Dimostrazione
In altri termini, nel caso affine, tipologie e classi di equivalenza affine di quadriche
coincidono.
Analogamente al caso metrico, il Teorema 13.2 permette di classificare da un punto di vista affine una qualsiasi quadrica di R3 . Inoltre determina il riferimento
in cui la quadrica assume la sua forma canonica affine e la successione di affinit
che hanno portato al cambiamento di riferimento. Il precedente risultato quindi
uno strumento leggermente pi debole della riduzione a forma canonica metrica, i.e.
359
Da ultimo osserviamo che, come nel caso euclideo (Osservazione 13.6), se si richiede
la pura e semplice classificazione affine di una quadrica, ma non si richiede esplicitamente il riferimento in cui essa si riduce in forma canonica n la successione di
affinit necessarie, allora dalle Definizioni 13.4, 13.5 e 13.6 , il rango della matrice
il segno del suo determinante ed il rango della matrice simsimmetrica completa A,
metrica A della forma quadratica di una quadrica sono tutte propriet affini di ,
che si possono utilizzare per compiere la classificazione.
Concludiamo il presente capitolo fornendo i testi di ulteriori esercizi, alcuni dei quali
proposti come temi di esonero od esame in corsi universitari (cfr. e.g. [2], [6] e [7]).
Soluzioni
Quesiti ed esercizi
3.
1.
Ridurre a forma canonica metrica ed a forma canonica afne Dedurre la forma canonica afne della quadrica
la quadrica di equazione cartesiana
2
2
2
: X1 + X2 2X3 + 4X1 2 = 0
2
4.
Riconoscere la tipologia afne della quadrica
360
: X1 4X2 2X3 = 0
dedurre che contiene due schiere di rette,
descrivere le rette di tali schiere;
determinare equazioni di ciascuna delle due rette,
una
per ogni schiera, passanti per il punto N =
2
0
2
2
+ 2X2
2
+ 2X3
+ 4X1 X3 X3 = 0
X1 X2 = X3
con i piani paralleli ai piani coordinati e riconoscere il tipo
di quadrica.
361
Bibliograa
[1] Abate M., Geometria, serie di matematica, McGraw-Hill, Milano 1996.
[2] Campanella G., Esercizi di Algebra Lineare e Geometria, Aracne, Roma 1996.
[3] Campanella G., Curve e superfici differenziabili. Esercizi svolti, Aracne, Roma
2000.
[4] Carfagna A., Piccolella L., Complementi ed esercizi di Geometria ed Algebra lineare,
Zanichelli, Milano 1996.
[5] Ciliberto C., Algebra Lineare, Bollati Boringhieri, Torino 1994.
[6] Flamini F., Dispense e temi di esoneri/esami per corsi di Geometria per Ingegneria,
Universit di Roma Tor Vergata, a.a. 2005-07, copie pubbliche, scaricabili dal sito
http://www.mat.uniroma2.it/flamini/.
[7] Geatti L., Dispense per corsi di Geometria per Ingegneria, Universit di Roma Tor
Vergata, a.a. 2004-07, copie pubbliche, scaricabili dal sito http://www.mat.uniroma2.it
/geatti/.
[8] Lang S., Algebra Lineare, Bollati Boringhieri, Torino 1970.
[9] Martinelli E., Il metodo delle coordinate, Lezioni di geometria con esercizi per il
primo anno di studi di Matematica Fisica Ingegneria, Eredi V. Veschi, Roma 1986.
[10] Lipschutz S., Lipson M., Linear Algebra, third edition, Schaums outline series,
McGraw-Hill, New York, 2001 (1a ed. 1968).
[11] Sernesi E., Geometria 1, Programma di Matematica, Fisica, Elettronica, Bollati
Boringhieri, Torino, 1997 (1a ed. 1989).
[12] Sernesi E., Geometria 2, Programma di Matematica, Fisica, Elettronica, Bollati
Boringhieri, Torino, 1996 (1a ed. 1994).
363