Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1 Richiami di Algebra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Strutture algebriche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Relazioni d’equivalenza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Le Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Prodotto righe per colonne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Determinante di una matrice quadrata. . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 Trasposta ed Aggiunta di una matrice. . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.5 Dipendenza ed indipendenza tra n-uple. . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6 Insiemi equivalenti di n-uple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.7 Matrici equivalenti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.8 Matrici in forma ridotta a gradini. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.9 Rango di una matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.10 Matrici invertibili. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.11 Le matrici elementari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.12 Matrici ortogonali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.13 Matrici simili. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.14 Fattorizzazione A = LU. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.15 Fattorizzazione PA = LU. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.16 Un algoritmo di inversione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.17 Esercizi svolti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3 Sistemi Lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1 Sistemi lineari equivalenti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 Sistemi omogenei. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3 Metodo di Cramer per la risoluzione di un sistema lineare. . . . . . . . . 64
3.4 Metodo di eliminazione di Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.5 Esercizi svolti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
v
vi Indice
13 Le Coniche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
13.1 Intersezione di una conica ed una retta. . . . . . . . . . . . . . . . . . . . . . . . . 308
13.2 Polaritá rispetto ad una conica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
13.3 Classificazione di una conica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
13.4 Intersezione fra due coniche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
13.5 Diametri e centro di una conica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
13.6 Riduzione delle coniche in forma canonica. . . . . . . . . . . . . . . . . . . . . . 320
13.7 Fuochi di una conica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
13.8 Esercizi svolti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
viii Indice
Sia G un insieme non vuoto ed ⊕ una operazione binaria chiusa rispetto agli
elementi di G, cioé:
∀x, y ∈ G x ⊕ y = z ∈ G.
La coppia (G, ⊕) é detta Gruppoide. Data la generalitá delle proprietá soddisfatte
da un gruppoide, é utile arricchire la sua struttura algebrica con ulteriori assiomi.
Diciamo Semigruppo, un gruppoide (G, ⊕) che sia associativo, cioé in cui valga la
seguente proprietá (associativa):
∀x, y, z ∈ G x ⊕ (y ⊕ z) = (x ⊕ y) ⊕ z.
∃e ∈ G tale che ∀x ∈ G e ⊕ x = x ⊕ e = x.
Definizione 1.1. Un Gruppo (G, ⊕) é una struttura algebrica definita dagli assiomi
del monoide ai quali si aggiunge quello dell’esistenza dell’elemento inverso di ogni
elemento in G. Piú precisamente vale il seguente:
1
2 1 Richiami di Algebra.
∀x ∈ G ∃y ∈ G tale che x ⊕ y = y ⊕ x = e
∀x, y ∈ G x ⊕ y = y ⊕ x.
∀x, y, z, ∈ A x ⊗ (y ⊕ z) = (x ⊗ y) ⊕ (x ⊗ z).
Osserviamo che non é richiesto che un anello possegga l’elemento neutro rispet-
to alla seconda operazione ⊗ (se tale elemento esiste l’anello é detto unitario).
Inoltre non é detto che valga la proprietá commutativa rispetto a ⊗, se essa vale
l’anello é detto commutativo.
Ancora rispetto all’operazione ⊗, non é richiesta la validitá della legge di annulla-
mento del prodotto. In altre parole, il fatto che x⊗y = 0 non implica necessariamente
che x = 0 oppure y = 0.
Infine non é richiesta l’esistenza di un elemento inverso per ciascun x ∈ A, rispetto
all’operazione ⊗.
Esempio 4. L’insieme Z rispetto alle usuali operazioni di somma e prodotto, cioé
nel caso ⊕ = + e ⊗ = ×, é un anello unitario in cui vale la legge di annullamento del
prodotto, ma in cui non esiste l’elemento inverso rispetto alla seconda operazione.
Esempio 5. L’insieme mZ = {n ∈ Z : n sia multiplo di m} é un anello rispetto
alle usuali operazioni di somma e prodotto, ma non é unitario eccetto nel caso in cui
m ∈ {−1, +1}.
1.2 Relazioni d’equivalenza. 3
Esempio 6. Sia R[X] l’insieme di tutti i polinomi a coefficienti reali in una variabile
e si introducano in R[X] le usuali operazioni di somma e prodotto tra polinomi.
Rispetto a tali operazioni R[X] é un anello commutativo ed unitario, nel quale vale
la legge di annullamento del prodotto.
Esempio 7. In seguito vedremo un esempio di anello in cui non vale la legge di
annullamento del prodotto rispetto alla seconda operazione: é l’insieme delle matrici
quadrate di un dato ordine, in cui vengano definite le opportune operazioni. Per la
comprensione di tale esempio, rimandiamo al Capitolo relativo alle Matrici.
Definizione 1.3. Sia (A, ⊕, ⊗) un anello. Indichamo con e ∈ A l’elemento neutro
rispetto alla prima operazione ⊕ e sia A∗ = A − {e}. Nel caso in cui (A∗ , ⊗) sia un
gruppo, diremo che (A, ⊕, ⊗) é un Corpo. Inoltre, se in (A∗ , ⊗) vale la proprietá
commutativa (cioé se (A∗ , ⊗) é un gruppo commutativo) allora (A, ⊕, ⊗) é detto
’corpo commutativo’ o equivalentemente ’campo’.
Esempio 8. Se definiamo le usuali operazioni di somma e prodotto in Q, R e C,
essi hanno la struttura di corpi commutativi. Sono anche detti campi ’scalari’, ed
ogni loro elemento x puó essere chiamato ’scalare’.
A × B = {(a, b) : a ∈ A, b ∈ B}.
(a, b) ∈ R ⇐⇒ a > b.
(a, b) ∈ R ⇐⇒ a + b − 1 = 0.
ovvero quello formato, nel primo o secondo quadrante, dalla retta e dall’asse delle
ascisse X. Le rette appartenenti ad una stessa classe, cioé tra loro parallele, hanno
chiaramente lo stesso coefficiente angolare e quindi lo stesso rappresentante α.
2.1 Introduzione.
Una matrice é una tabella nella quale si possono individuare righe e colonne. Se la
matrice possiede m righe e n colonne, queste possono essere riempite utilizzando
m · n elementi di un dato insieme. Nel nostro caso, sceglieremo di utilizzare R come
insieme dal quale prelevare gli elementi tramite i quali riempire una matrice. Per
semplicitá, disporremo gli elementi in modo ordinato nelle righe e nelle colonne nel
seguente modo:
a11 a12 . . . a1n
a21 a22 . . . a2n
... ... ... ... .
7
8 2 Le Matrici
a11 + b11 a12 + b12 . . . a1n + b1n
a21 + b21 a22 + b22 . . . a2n + b2n
... ... ... ...
am1 + bm1 am2 + bm2 . . . amn + bmn
quindi ogni elemento ci j di C é la somma degli elementi omologhi in A e B.
Siano A, B,C matrici di Mmn (R), rispetto all’operazione di somma sono soddi-
sfatte le seguenti proprietá:
1. (A + B) +C = A + (B +C), proprietá associativa;
2. Esiste l’elemento neutro rispetto alla somma, ovvero la matrice
0 0 ... 0
0 0 ... 0
0=
... ... ... ...
0 0 ... 0
tale che A + 0 = 0 + A = A;
3. ogni matrice A = ai j m×n possiede l’opposta B = −A = −ai j m×n , tale che
A + B = 0;
4. A + B = B + A, cioé vale la proprietá commutativa.
Quindi Mmn (R) é un gruppo commutativo rispetto all’operazione di somma tra
matrici.
Siano ora α ∈ R e A = ai j m×n ∈ Mmn (R). Moltiplicare lo scalare α per la
matrice A vuol
dire moltiplicarlo per ogni elemento di A ottenendo cosı́ la matrice
αA = αai j m×n .
In sostanza l’elemento crs é la somma di tutti i prodotti degli elementi della riga r
della prima matrice, ciascuno con il corrispondente elemento della colonna s della
seconda matrice.
Per esempio:
1 −1 0
123 3 −2 5
· 1 1 1 = .
101 1 −2 1
0 −1 1
2.3 Determinante di una matrice quadrata. 9
Appare chiaro che tale prodotto non puó essere definito se A ∈ Mmn e B ∈ Mtq
con n 6= t.
Proprietá 2.1. Date le matrici A ∈ Mmn (R), B ∈ Mnn (R),C ∈ Mnt (R) e dato lo
scalare α ∈ R, valgono le seguenti proprietá:
1. A(BC) = (AB)C, proprietá associativa;
2. A(B +C) = AB + AC, (A + B)C = AC + BC, proprietá distributiva del prodotto tra
matrici rispetto alla somma tra matrici;
3. α(AB) = A(αB).
Consideriamo adesso Mn (R), l’insieme di tutte le matrici quadrate di ordine n.
In tale insieme scegliamo la matrice
1 0 0 ... 0
. .
0 1 0 .. ..
I = ... ... . . . ... ...
. . . . .
. .
. . . . .. . .
0 0 ... 0 1
i cui ingressi sono pari ad 1 su tutta la diagonale principale e zero altrove. Tale
matrice I ∈ Mn (R) si comporta come elemento neutro rispetto al prodotto righe per
colonne, cioé per ogni A ∈ Mn (R) si ha AI = IA = A. Viene in generale detta matrice
identitá.
Osservazione 2.2. Si noti infine che non vale la proprietá commutativa per il
prodotto righe per colonne, cioé NON é regola generale che i prodotti AB e BA
coincidano.
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 +
(2.2)
− a13 a22 a31 − a11 a23 a32 − a12 a21 a33 .
Per calcolare tale determinante possiamo utilizzare il seguente metodo, detto ’di
Sarrus’. Ricopiamo le prime due colonne a destra della terza:
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22 .
a31 a32 a33 a31 a32
Teorema 2.7. (Primo Teorema di Laplace). Sia A ∈ Mn (R) una matrice quadrata
di ordine n. Il determinante di A é pari alla somma dei prodotti degli elementi di
una qualsiasi riga (o colonna) per i rispettivi complementi algebrici.
Esempio 15. Sia
1 2 1 0
3 1 0 1
A=
1
.
1 1 1
3 2 1 0
Applicando il teorema di Laplace, rispetto alla prima riga, otteniamo:
1 0 1 3 0 1 3 1 1 3 1 0
det(A) = (+1) 1 1 1 + (−2) 1 1 1 + (+1) 1 1 1 + (0) 1 1
1 =
2 1 0 3 1 0 3 2 0 3 2 1
−2 + 10 − 4 + 0 = 4.
Definizione 2.8. Una matrice quadrata A ∈ Mn (R) é detta triangolare superiore se
si presenta nella seguente forma
a11 a12 a13 . . . . . . . . . a1n
0 a22 a23 . . . . . . . . . a2n
0 0 a33 . . . . . . . . . a3n
A= ... ... ... ... ... ... ...
... ... ... ... ... ... ...
. . . . . . . . . . . . . . . an−1,n−1 an−1,n
0 0 0 0 ... ... ann
della matrice si trovano sulla sua diagonale principale. Essa quindi si presenta nella
seguente forma:
a11 0 0 . . . . . . . . . 0
0 a22 0 . . . . . . . . . 0
.. ..
. . a33 . . . . . . . . . 0
.. .. .. . .
A= . . . . . . . . . . . . .
. . .
.. .. .. . . . . . .
... ...
. . .
. . .
. . . . . . . . . an−1,n−1 0
0 0 0 ... ... ... ann
Come immediata conseguenza del primo Teorema di Laplace, otteniamo che:
Corollario 2.11. Se una matrice quadrata A ∈ Mn (R) é triangolare superiore (od
inferiore), allora il suo determinante é pari al prodotto degli elementi della sua
diagonale principale.
Corollario 2.12. Una matrice quadrata che abbia una riga o una colonna composta
da tutti 0, avrá determinante nullo.
Definizione 2.13. Una matrice con determinante nullo é detta matrice singolare (al
contrario é detta non singolare).
Sia A una matrice con m righe e n colonne, A ∈ Mmn (R). Diciamo trasposta di A, e
la indichiamo AT , la matrice definita come segue:
1. AT ∈ Mnm (R);
2. l’ingresso ( j, i) in AT é occupato dall’elemento ai j ∈ A.
In altre parole, possiamo scrivere le righe di AT ricopiando le colonne di A;
analogamente possiamo scrivere le colonne di AT ricopiando le righe di A.
1 1 2 0 −1
Esempio 16. Se A = 0 2 1 2 2 , allora
1332 1
1 01
1 2 3
AT =
2 .
1 3
0 2 2
−1 21
Rn = {(r1 , . . . , rn ) | r1 , . . . , rn ∈ R}
Rn = R × · · · × R .
| {z }
n−volte
2. Una operazione esterna, ovvero il prodotto di una n-upla per uno scalare α ∈ R,
che ha come risultante una n-upla nella quale ogni elemento é il prodotto di α
per ciascun elemento della n-upla iniziale:
α1 u1 + α2 u2 + · · · + αk uk (2.3)
é ancora una n-upla ordinata e viene detta combinazione lineare delle n-uple
{u1 , . . . , uk } tramite i coefficienti α1 , . . . , αk ∈ R.
Esempio 18. Consideriamo il prodotto cartesiano R4 ed i suoi elementi
2 · (1, 1, 4, 0) + (−3) · (−1, −1, 0, 2) + 4 · (0, −4, 3, 1) = (5, −11, 20, −2) ∈ R4 .
α1 u1 + α2 u2 + . . . + αr ur = 0.
α1 u1 + α2 u2 + . . . + αr ur = 0 se e solo se α1 = α2 = α3 = . . . = αr = 0.
Osservazione 2.19. Supponiamo che u1 , . . . , ur siano n-uple reali, tra loro linear-
mente dipendenti e che esistano α1 , . . . , αr ∈ R non tutti nulli, tali che
α1 u1 + α2 u2 + . . . + αr ur = 0.
Se αi 6= 0, allora
da cui
α1 α2 αi−1 αi+1 αr
ui = − u1 − u2 − . . . − ui−1 − ui+1 − . . . − ur .
αi αi αi αi αi
Quindi, in presenza n-uple linearmente dipendenti tra loro, almeno una di esse si
puó esprimere come combinazione lineare delle altre.
16 2 Le Matrici
Esempio 19. Siano u1 = (1, 2, 0), u2 = (3, 1, 0), u3 = (2, −1, 0), u4 = (0, 0, 1) ele-
menti di R4 .
Le 4-uple u1 , u2 , u3 sono linearmente dipendenti infatti:
{u1 , . . . , uk } (2.4)
siano tra loro linearmente dipendenti e che quindi esistano α1 , . . . , αk ∈ R non tutti
nulli, tali che
α1 u1 + α2 u2 + . . . + αk uk = 0 (2.5)
La prima osservazione é che, indipendentemente dall’ordine con cui scegliamo le
n-uple, esse risultano ovviamente sempre linearmente dipendenti. Si tratta solo di
cambiare l’ordine degli addendi che compaiono nella combinazione lineare (2.5).
Scegliamo adesso 0 6= β ∈ R e fissiamo una n-upla ui ∈ {u1 , . . . , uk }. Costruiamo la
seguente sequenza di n-uple
ovvero
γ1 u1 + γ2 u2 + . . . + γi (β ui ) + . . . + γk uk = 0
per γh = β αh , per ogni h 6= i, e γi = αi . Quindi {u1 , . . . , ui−1 , β ui , ui+1 , . . . , uk } co-
stituiscono un insieme linearmente dipendente di n-uple, al pari del precedente.
Siano ora 0 6= β ∈ R e fissiamo due distinte n-uple ui , u j ∈ {u1 , . . . , uk }. Consideria-
mo la seguente sequenza di n-uple
Osserviamo che,
É ovvio che se qualcuna delle t n-uple restanti dovesse essere linearmente dipenden-
te dalle altre potremmo continuare con le stesse precedenti argomentazioni e passare
ad un insieme equivalente, nel quale la posizione di tale n-upla si sarebbe annullata.
Concluderemo il processo di semplificazione nel momento in cui le n-uple restanti
saranno tra loro linearmente indipendenti. In tal caso infatti non é possibile annullar-
ne alcuna, tramite le operazioni elementari. Appare chiaro che il numero di n-uple
linearmente indipendenti nella sequenza finale (quella semplificata) é pari a quello
delle n-uple linearmente indipendenti della sequenza iniziale.
Appare evidente che ciascuna riga della matrice A é un elemento di Rn , quindi é una
n-upla ordinata di scalari. Analogamente ogni colonna di A é una m-upla, ovvero un
elemento di Rm .
Per cui, tanto per le righe quanto per le colonne possiamo introdurre le operazioni
di somma e di prodotto per uno scalare, precedentemente introdotti per le n-uple.
Poiché le definizioni e le proprietá concernenti alle righe ed alle colonne sono ana-
loghe, scegliamo di proseguire puntando l’attenzione esattamente sulle righe della
matrice. Tutto quello che vedremo in relazione alle righe della matrice vale quindi
anche per le sue colonne.
2.7 Matrici equivalenti. 19
2. il prodotto di una riga per uno scalare α ∈ R é una n-upla ottenuta moltiplicando
ciascun elemento della riga per α, ad esempio
α1 R1 + α2 R2 + · · · + αk Rk (2.7)
det(R1 , . . . , λ Ri , . . . , Rn ) = λ det(R1 , . . . , Ri , . . . , Rn ).
Ció significa che, dopo aver moltiplicato una riga per uno scalare λ 6= 0, il de-
terminante della matrice finale é pari a quello della matrice iniziale, moltiplicato
per λ .
4. Infine, dopo aver sommato un riga con un’altra riga precedentemente moltiplicata
per uno scalare λ 6= 0, i determinanti della matrice finale e di quella iniziale sono
esattamente identici.
Queste ultime considerazioni ci fanno comprendere come, nel caso di matrici
quadrate, in talune occasioni si possa riconoscere immediatamente se il determinan-
te della matrice é nullo oppure diverso da zero. In particolare, due matrici equivalenti
sono simultaneamente singolari o non singolari.
Da ció deriva la seguente:
2.8 Matrici in forma ridotta a gradini. 21
Quest’ultima presenta il pivot a11 sulla prima riga e quello a22 sulla seconda.
Quindi A00 si presenta in forma ridotta a gradini.
Le matrici A, A0 , A00 sono equivalenti fra loro. t
u
Osservazione 2.28. Supponiamo di aver completato il processo di riduzione di una
matrice e di avere ottenuto una matrice ad essa equivalente e che si presenti in forma
a gradini:
0 · · · 0 a1, j1 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · a1,n
0 · · · · · · 0 · · · 0 a2, j · · · · · · · · · · · · · · · · · · · · · a2,n
2
0 · · · 0 0 0 · · · 0 · · · 0 a3, j · · · · · · · · · · · · a3,n
3
··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ···
A= .
0 0 · · · · · · · · · · · · · · · 0 · · · 0 · · · 0 ak, jk · · · ak,n
0 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0
··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ···
0 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0
Inoltre, poiché ai, ji 6= 0 per ogni i = 1, . . . , k, avremo che det(B) = ∏ki=1 ai, ji 6= 0.
In particolare:
Teorema 2.29. Sia A ∈ Mn (R) é una matrice quadrata di ordine n. L’insieme
{R1 , . . . , Rn } di tutte le righe di A é linearmente indipendente se e solo se A é non
singolare.
Dim. In realtá é sufficiente mettere insieme alcuni dei risultati giá esposti prece-
dentemente. Infatti, se A, A0 ∈ Mmn (R) sono due matrici equivalenti, allora ciascuna
di esse deriva dall’altra in seguito ad un numero finito di operazioni elementari sulle
righe. Richiamando l’Osservazione 2.24, concludiamo che la matrice A possiede un
minore non nullo di ordine p se e solo se anche A0 ne possiede uno equivalente.
Inoltre ogni minore di ordine p + 1 in A é equivalente ad un minore di ordine p + 1
2.9 Rango di una matrice. 25
Diremo che una matrice A ∈ Mn (R), quadrata di ordine n, é invertibile se esiste una
matrice quadrata B ∈ Mn (R) tale che A · B = I, dove I é la matrice identica di ordine
n, avente 1 su tutta la diagonale principale e zero in ogni altra posizione.
Per esempio:
2 0 −1
A = 7 3 23
13 4
é invertibile, infatti esiste
− 25 1 −1
B = 53
6 −3 3
10
−6 2 −2
tale che
100
A·B = 0 1 0 .
001
Se A, B ∈ Mn (R) sono tali che A · B = I, allora diremo che la matrice B é l’inversa
di A, e la indicheremo B = A−1 . Analogamente A é l’inversa di B ed é indicata
A = B−1 .
Osservazione 2.39. Siano A, B matrici quadrate invertibili. Allora
Lemma 2.40. (Esistenza dell’inversa) Una matrice quadrata non singolare (cioé
con determinante non nullo) é sempre invertibile.
2.10 Matrici invertibili. 27
da cui A · Agg(A)
det(A) = I. t
u
110
Esempio 27. Sia A = 2 0 1 . Poiché det(A) = −2, essa é invertibile. Si ha che
111
121 −1 −1 1
AT = 1 0 1 , Agg(A) = −1 1 −1 .
011 2 0 −2
Quindi
1 1
− 12
Agg(A) 2 2
A−1 = = 1
2 − 12 12
−2
−1 0 1
ed infatti 1 1 1
110 2 2 −2 100
A · A−1 = 2 0 1 · 12 − 21 12 = 0 1 0 .
111 −1 0 1 001
28 2 Le Matrici
Una matrice quadrata di ordine n é detta elementare se essa é ottenuta dalla matrice
identica di ordine n tramite una sola operazione elementare. Per esempio la matrice
elementare
100
E = 0 0 1
010
é ottenuta dalla matrice identica I di ordine 3, scambiando tra di loro la seconda e la
terza riga.
Per quanto detto sulle operazioni elementari su matrici quadrate, segue facilmente
che ogni matrice elementare ha determinante non nullo, quindi é invertibile. Ini-
zialmente osserviamo che l’inversa di una matrice elementare é ancora una matrice
elementare. Infatti, si verifica facilmente che:
• se E é una matrice elementare ottenuta dalla matrice identica I, tramite l’opera-
zione di scambio tra righe, ovvero Ri ↔ R j , allora E −1 = E;
• se E é una matrice elementare ottenuta dalla matrice identica I, tramite l’ope-
razione di prodotto di una riga Ri per uno scalare β 6= 0, ovvero Ri → β Ri ,
allora E −1 é la matrice elementare ottenuta dalla matrice identica I, tramite
l’operazione Ri → β −1 Ri ;
• se E é una matrice elementare ottenuta dalla matrice identica I, tramite l’opera-
zione di somma di una riga Ri con il multiplo di una riga R j , ovvero Rii + β R j ,
allora E −1 é la matrice elementare ottenuta dalla matrice identica I, tramite
l’operazione Rii − β R j .
Le matrici elementari sono utilizzate per determinare in modo immediato le tra-
sformazioni per righe su qualsiasi matrice (non necessariamente quadrata). Piú pre-
cisamente, se E é una matrice elementare di ordine n, ottenuta con una qualche
trasformazione elementare, e se A é una matrice con n righe, allora la matrice E · A
é la trasformata di A tramite la medesima operazione con la quale si é ottenuta E.
Per tornare all’esempio precedente, sia
1201
A = 1 1 1 2
0111
allora la matrice
100 1201 1201
E ·A = 0 0 1·1 1 1 2 = 0 1 1 1
010 0111 1112
A → Ek A −→ Ek−1 Ek A −→ . . . −→ E1 E2 . . . Ek A.
Osservazione 2.42. Sia A una qualsiasi matrice quadrata non singolare. Sappia-
mo che operando sulle righe si puó ottenere la sua forma a gradini, che nel caso
particolare di matrici quadrate é esattamente una forma triangolare superiore:
0 0 0
a01n
a11 a12 a13 . . . . . .
0 a0 . . . . . . . . . a02n
22
0 0 a0 . . . . . . a03n
33 .
... ... ... ... ... ...
0 0 . . . . . . a0n−1n−1 a0n−1n
In generale non lo riteniamo utile (per i nostri fini), ma potremmo operare ul-
teriori trasformazioni con lo stesso procedimento, con lo scopo di annullare an-
che gli elementi sopra la diagonale, ottenendo una forma diagonale per la matrice
trasformata:
30 2 Le Matrici
a0011
0 0 ... ... 0
0 a0022 0 ... ... 0
a0033
0
0 0 ... 0 .
... ... ... ... ... ...
. . . a00n−1n−1
0 0 ... 0
0 0 0 ... ... a00nn
Poiché A é non singolare, segue che ogni aii é non nullo. Infine moltiplicando ogni
riga i per a−1
ii , otteniamo la matrice identitá come la trasformata della matrice in-
vertibile iniziale, in seguito ad un opportuno numero di operazioni elementari sul-
le righe. In altre parole, esistono opportune matrici elementari E1 , E2 , . . . , Ek tali
che (E1 · E2 · . . . · Ek )A = I. Quindi A = (E1 · E2 · . . . · Ek )−1 = Ek−1 · Ek−1
−1
· . . . · E1−1
cioé ogni matrice non singolare é invertibile e si puó esprimere come prodotto di
opportune matrici elementari.
Teorema 2.43. Una matrice quadrata A di ordine n é invertibile se e solo se
det(A) 6= 0.
Dim. Grazie al Lemma 2.40, non ci resta che dimostrare che se A é invertibile al-
lora il suo determinante é non nullo.
Al contrario, supponiamo che det(A) = 0. Quindi il rango di A é r < n. Siano
E1 , . . . , Ek le matrici elementari tali che E1 · · · Ek A = A0 sia la forma ridotta a gradini
di A. Per quanto detto in precedenza, la matrice A0 presenta tutte le ultime n − r righe
nulle.
Inoltre, poiché A é invertibile, esiste una matrice B di ordine n tale che AB = I.
Allora E1 · · · Ek AB = E1 · · · Ek I, cioé A0 B = E1 · · · Ek I. Ma questo non potrá verificar-
si, poiché la matrice A0 B avrá almeno le ultime n − r righe nulle, quindi avrá rango
≤ r, mentre la matrice E1 · · · Ek I ha certamente rango n. t
u
Terminiamo il paragrafo con il seguente risultato (noto come Teorema di Binet):
Teorema 2.44. Siano A, B matrici quadrate di ordine n. Allora det(A · B) = det(A) ·
det(B).
t
u
2.12 Matrici ortogonali. 31
A0 = E1 · · · Ek · A
da cui
E1 · · · Ek ·C = E1 · · · Ek · A · B = A0 · B.
Poiché rank(A0 ) = rank(A) = rA , la matrice A0 avrá le ultime m − rA righe nulle, per
cui, a seguito del prodotto righe per colonne, la matrice A0 B avrá almeno le ultime
m − rA righe nulle, ovvero avrá rango al piú pari a rA . Quindi E1 · · · Ek ·C ha rango ≤
rA . Poiché E1 · · · Ek rappresenta una sequenza finita di operazioni elementari, segue
che
rank(C) = rank(E1 · · · Ek ·C) ≤ rA .
In modo analogo si dimostra che rank(C) ≤ rB . Infatti, poiché CT = BT AT ed
utilizzando il risultato dimostrato nella prima parte del presente Teorema,
t
u
Teorema 2.47. Siano A ∈ Mn (R) e B ∈ Mnp (R). Se A é invertibile allora rank(AB) =
rank(B).
Diamo adesso qualche cenno ad alcune classi di matrici che scopriremo in seguito
essere di fondamentale importanza:
32 2 Le Matrici
Quindi condizione necessaria (ma non sufficiente) affinché una matrice sia ortogo-
nale é che il suo determinanate sia pari a +1 oppure −1.
cos(ϕ) sen(ϕ)
Esempio 30. La matrice A = é ortogonale.
−sen(ϕ) cos(ϕ)
Osservazione 2.48. Da semplici calcoli si ottiene una proprietá delle matrici orto-
gonali: se A e B sono entrambe ortogonali e dello stesso ordine, allora il prodotto
AB é ancora una matrice ortogonale.
Diciamo che due matrici quadrate A, B, entrambe di ordine n, sono simili se esiste
una matrice M quadrata di ordine n, non singolare, tale che A = M −1 · B · M. Si noti
che valgono le seguenti:
1. Ogni matrice quadrata A é simile a se stessa, infatti
A = I −1 · A · I = I · A · I.
A = M −1 · B · M ⇒ B = (M −1 )−1 · A · (M −1 ).
A = M −1 · B · M e B = N −1 ·C · N
implica
A = (N · M)−1 ·C · (N · M).
Quindi la relazione di similitudine tra matrici soddisfa le proprietá riflessiva (1),
simmetrica (2) e transitiva (3), ed é una relazione di equivalenza.
L’insieme della matrici quadrate di ordine n é allora suddiviso in classi di equivalen-
za, nel senso che tutte le matrici tra loro simili costituiscono un’unica classe, avente
come rappresentante una qualsiasi delle matrici che ne fanno parte. Inoltre due di-
stinte classi di equivalenza non possono aver alcuna matrice in comune.
Le proprietá piú rilevanti che, per il momento, possiamo elencare sono le seguenti:
1. Matrici tra loro simili hanno lo stesso determinante (dal Teorema 2.44).
2. Matrici tra loro simili hanno lo stesso rango (Applicando il Teorema 2.47).
Altre importanti proprietá delle matrici simili saranno evidenziate in seguito.
2.14 Fattorizzazione A = LU. 33
Sia A una qualsiasi matrice quadrata di ordine n. Abbiamo giá visto che operando
sulle righe di A si puó ridurre la matrice A in una forma a gradini, ovvero ottenere
una matrice triangolare superiore U che sia ridotta, il cui rango t ≤ n coincide con
quello della matrice di partenza ed é pari al numero di righe non nulle:
0 0 0
a11 a12 a13 . . . . . . . . . . . . a01n
0 a022 a023 . . . . . . . . . . . . a02n
0 0 a033 . . . . . . . . . . . . a03n
... ... ... ... ... ... ... ...
U = 0 0 0 .
0 0 0 . . . att . . . at,n−1 at,n
0 0 0 ... ... ... ... 0
... ... ... ... ... ... ... ...
0 0 0 ... ... ... ...0
Osservazione 2.49. Supporremo in questa prima parte che la forma ridotta finale
’a gradini’ U sia stata ottenuta senza alcuno scambio di righe. Inoltre utilizzeremo
esclusivamente la seguente operazione elementare sulle righe:
• sostituzione di una riga con se stessa, sommata ad una riga che si trovi al di sopra
di essa, la quale sia stata precedentemente moltiplicata per uno scalare non nullo.
É quindi essenziale NON ricorrere ad operazioni elementari che prevedano la
sostituzione di una riga con la somma di se stessa e di un multiplo di una riga
sottostante.
Richiamiamo adesso alcune proprietá, la cui verifica si ottiene attraverso semplici
calcoli (per cui ci limiteremo al loro semplice enunciato):
1. Ogni matrice elementare riferita alle operazioni elementari descritte nell’Osser-
vazione 2.49 é triangolare inferiore.
2. Ogni matrice elementare é invertibile.
3. Il prodotto di matrici triangolari inferiori é ancora una matrice triangolare infe-
riore.
4. Il prodotto di matrici elementari descritte nell’Osservazione 2.49 é quindi una
matrice triangolare inferiore invertibile.
5. L’inversa di una qualsiasi matrice triangolare inferiore é ancora una matrice
triangolare inferiore.
Per quanto appena detto, é evidente che nell’uguaglianza (E1 · E2 · . . . · Ek )A = U,
la matrice E1 · E2 · . . . · Ek = T é invertibile ed é triangolare inferiore. Quindi
34 2 Le Matrici
−1
A = (E1 · E2 · . . . · Ek )−1U = Ek−1 · Ek−1 · · · · · · E1−1 U.
Ancora una volta, per le proprietá precedentemente descritte, ciascuna delle matrici
Ek−1 , Ek−1
−1
, . . . E1−1 é triangolare inferiore, per cui il prodotto Ek−1 · Ek−1
−1
· · · · · · E1−1 =
L é una matrice triangolare inferiore.
Abbiamo quindi che A = LU, dove L é una matrice triangolare inferiore ed U una
matrice triangolare superiore.
É importante adesso comprendere quando una matrice ammetta una tale decompo-
sizione, ovvero quando possiamo essere certi a priori che nella riduzione per righe
non venga effettuato alcuno scambio di righe.
Iniziamo con la seguente:
Definizione 2.50. Sia A una matrice quadrata di ordine n. Diremo che A é infe-
riormente riducibile se puó essere trasformata in forma a gradini per righe, ovve-
ro ridotta per righe in forma a gradini, senza utilizzare scambi di righe né alcuna
sostituzione di una riga con la somma di se stessa e di un multiplo di una riga
sottostante.
Se A é una matrice quadrata inferiormente riducibile, allora possiamo decompor-
re A = LU, dove L é una matrice triangolare inferiore invertibile ed U é una matri-
ce triangolare superiore, ovvero la matrice ridotta in forma a gradini per righe ed
ottenuta dalla trasformazione di A tramite le operazioni elementari sopra descritte.
Definizione 2.51. Sia A una matrice quadrata di ordine n. Una sottomatrice quadrata
di A, ottenuta considerando le prime k righe e colonne di A prende il nome di sot-
tomatrice principale alta di ordine k. Quindi A possiede esattamente n sottomatrici
principali, tenendo in considerazione anche A nella sua interezza.
Il seguente risultato fornisce una condizione sufficiente affinché una matrice
quadrata sia fattorizzabile nella forma LU:
Teorema 2.52. Sia A una matrice quadrata reale di ordine n e siano Ak le sue
sottomatrici principali alte di ordine k = 1, . . . , n. Se Ak é non singolare, per ogni
k = 1, . . . , n − 1 allora esiste ed é unica la fattorizzazione A = LU.
Dobbiamo quindi sottolineare che, poiché il Teorema precedente fornisce una
condizione sufficiente alla fattorizzazione LU, esistono matrici che, pur avendo una
qualche sottomatrice principale alta con determinante nullo, ammettono comunque
una fattorizzazione del tipo LU. In questo caso peró, la fattorizzazione non é in
genere unica.
Diversamente, per le matrici invertibili (non singolari), vale il seguente:
Teorema 2.53. Sia A una matrice quadrata reale invertibile di ordine n e siano Ak
le sue sottomatrici principali alte di ordine k = 1, . . . , n. La matrice A ammette una
fattorizzazione LU se e solo se ogni Ak é non singolare, per k = 1, . . . , n − 1.
Quindi, nel caso di matrici invertibili, la condizione é necessaria oltre che
sufficiente.
2.14 Fattorizzazione A = LU. 35
entrambe non singolari. Per cui A ammette una fattorizzazione LU. Procediamo
allora con la decomposizione.
Dapprima costruiamo U, ovvero la matrice ottenuta da A dopo la riduzione per righe.
Le prime due operazioni saranno R2 −→ R2 − 2R1 (alla quale associamo la matrice
elementare E1 ), e R3 −→ R3 − R1 (alla quale associamo la matrice elementare E2 ).
La matrice A si trasforma nella
1 −4 1
A0 = 0 2 3 .
0 2 4
tali che
E3 · E2 · E1 · A = U
ovvero
1 0 0 1 −4 1 1 −4 1
−2 1 0 · 2 −6 5 = 0 2 3
1 −1 1 1 −2 5 0 0 1
dove
1 0 0
E3 · E2 · E1 = −2 1 0 .
1 −1 1
36 2 Le Matrici
In tal caso det(A2 ) = 0 e viene cosı́ a cadere la condizione necessaria affinché A sia
fattorizzabile in forma LU.
Infatti se supponessimo che A sia fattorizzabile in forma LU, dovrebbero esistere
100 xyz
L = a 1 0 , U = 0 t u
bc1 00v
tali che
121 100 xyz
1 2 2 = a 1 0 · 0 t u .
110 bc1 00v
Ma eseguendo i calcoli ed eguagliando elemento per elemento la matrice A con il
prodotto LU, avremmo:
1 = x, , 2 = y, 1 = z
1 = ax =⇒ a = 1
2 = ay + t =⇒ t = 0
2 = az + u =⇒ u = 1
1 = bx =⇒ b = 1
1 = by + ct
e da quest’ultima otterremmo l’incongruenza 2 = 0.
Portiamo adesso un esempio di una matrice non invertibile, le cui sottomatrici
principali alte non sono tutte non singolari, e che ammette comunque una decom-
posizione LU (come giá sottolineato la condizione sulle sottomatrici principali é
sufficiente ma non necessaria per matrici non invertibili). Come precedentemente
detto, in tali casi la decomposizione non é necessariamente unica:
Esempio 33. Consideriamo la matrice
121
A = 1 2 2 .
120
Sia A una qualsiasi matrice quadrata di ordine n. Sappiamo che una qualsiasi matrice
puó essere trasformata, operando sulle righe, in una matrice triangolare superiore U.
Se la trasformazione avviene senza ricorrere a scambi di righe, allora la matrice A
ammette la fattorizzazione del tipo LU, rammentando che NON si deve ricorrere ad
operazioni elementari che prevedano la sostituzione di una riga con la somma di se
stessa e di un multiplo di una riga sottostante.
L’algoritmo di decomposizione LU non puó peró essere applicato a quelle matrici
per le quali, al fine di ottenere una forma ridotta triangolare superiore, sono necessari
gli scambi di righe.
Vediamo come procedere nei casi in cui gli scambi di righe siano indispensabili per
2.15 Fattorizzazione PA = LU. 39
Infine é sufficiente scambiare fra loro la seconda e la terza riga di A2 , per ottenere
la forma ridotta finale:
40 2 Le Matrici
1 −1 6
U = 0 1 2
0 0 −11
ottenuta dal prodotto P2 A1 = U, dove P2 é la matrice elementare di permutazione
ottenuta dalla matrice identitá attraverso lo scambio della seconda riga con la terza,
ovvero
100
P2 = 0 0 1 .
010
Calcoliamo adesso P = P2 · P1 :
100 001 001
P = 0 0 1·0 1 0 = 1 0 0
010 100 010
e quindi PA = P2 · P1 · A:
001 0 1 2 1 −1 6
PA = 1 0 0 · 2 −2 1 = 0 1 2 .
010 1 −1 6 2 −2 1
A questo punto abbiamo ottenuto una matrice (la PA) che sará riducibile senza al-
cuno scambio di righe.
Operando sulle righe di PA, abbiamo:
ed infatti
2.15 Fattorizzazione PA = LU. 41
0 1 2 010 100 1 −1 6
2 −2 1 = 0 0 1 · 0 1 0 · 0 1 2 .
1 −1 6 100 201 0 0 −11
Esempio 35. Consideriamo la matrice
1 1 3 1
2 2 5 3
A=
1
.
1 3 2
3 1 3 1
R2 −→ R2 − 2R1
R3 −→ R3 − R1
R4 −→ R4 − 3R1
per cui otteniamo la matrice
1 1 3 1
0 0 −1 1
0 0 0 1 .
A1 =
0 −2 −6 −2
0 0 −1 1
ed ancora operiamo su A2 lo scambio della terza riga con la quarta: R3 ←→ R4 ,
ottenendo la matrice ridotta a gradini
1 1 3 1
0 −2 −6 −2
A3 =
0 0 −1 1 .
0 0 0 1
Le matrici di permutazione utilizzate sono, nell’ordine,
1000 100 0
0 0 0 1 0 1 0 0
P1 =
0 0 1 0 ,
P2 =
0 0 0
.
1
0100 001 0
Calcoliamo adesso P = P2 · P1 :
42 2 Le Matrici
1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0·0 0 0 1 = 0 0 0 1
P=
0 0 0 1 0 0 1 0 0 1 0 0
0 0 1 0 0 1 0 0 0 0 1 0
ed anche P−1 = P1 · P2 :
1 0 0 0 1 0 0 0 1 0 0 0
0 0 0 1
−1 ·0 1 0 0 = 0 0 1 0
P = .
0 0 1 0 0 0 0 1 0 0 0 1
0 1 0 0 0 0 1 0 0 1 0 0
Quindi PA = P2 · P1 · A, cioé:
10 0 0 1 1 3 1 1 1 3 1
0 0 0 1 2 2 5 3 3 1 3 1
PA = · = .
0 1 0 0 1 1 3 2 2 2 5 3
00 1 0 3 1 3 1 1 1 3 2
A questo punto abbiamo ottenuto una matrice (la PA) che sará riducibile senza al-
cuno scambio di righe.
Operando sulle righe di PA, abbiamo:
1001
Sia A una matrice quadrata non singolare, quindi invertibile. Ci proponiamo di de-
scrivere un metodo per ottenere la matrice inversa di A, utilizzando le operazioni
elementari sulle righe.
Poiché det(A) 6= 0, sappiamo che esistono opportune operazioni elementari che tra-
sformano A nella matrice identitá I. Siano, nell’ordine, E1 , . . . , Ek le matrici ele-
mentari che rappresentano le operazioni elementari utilizzate e sia E = Ek · · · · · E1 .
Quindi EA = I, da cui segue che EI = A−1 .
Concludiamo allora che, le stesse operazioni elementari che trasformano A → I, tra-
sformano I → A−1 .
Per ottenere la matrice inversa di A sará allora sufficiente ricopiare la matrice I ac-
canto alla A, ottenendo la matrice rettangolare [A|I]. Quindi si riduce la matrice A
al fine di trasformarla in I. Con tale procedimento si agisce anche sulla matrice I,
trasformandola nella A−1 :
[A|I] −→ [I|A−1 ].
Esempio 36. Consideriamo la seguente matrice non singolare
121
A = 2 4 1 .
224
R2 −→ R2 − 2R1
R3 −→ R3 − 2R1
per cui otteniamo la matrice
1 2 1 | 1 00
B1 = 0 0 −1 | −2 1 0 .
0 −2 2 | −2 0 1
R1 −→ R1 + R3
R2 −→ R2 − 2R3
da cui:
1 2 0 | −1 1 0
B3 = 0 −2 0 | −6 2 1 .
0 0 −1 | −2 1 0
La successiva operazione su B3 sará R1 → R1 + R2 , in seguito alla quale abbiamo:
1 0 0 | −7 3 1
B4 = 0 −2 0 | −6 2 1 .
0 0 −1 | −2 1 0
Infine, in B4 , moltiplichiamo la seconda riga per − 12 e la terza riga per −1, ovvero
R2
R2 → − R3 → −R3
2
ottenendo quindi la forma finale B5 = [I|A−1 ]:
1 0 0 | −7 3 1
[I|A−1 ] = 0 1 0 | 3 −1 − 21
0 0 1 | 2 −1 0
per cui
−7 3 1
A−1 = 3 −1 − 12 .
2 −1 0
R2 → R2 − R1 , R3 → R3 − R1 , R4 → R4 − 4R1 , R5 → R5 − 3R1 .
La matrice risultante é
1 −2 0 −2
0 4 1 4
A00 =
0 3 1 3 .
0 12 3 12
0 7 2 7
Eseguiamo adesso su A00 le seguenti operazioni elementari:
3 7
R3 → R3 − R2 , R4 → R4 − 3R2 , R5 → R5 − R2
4 4
ottenendo quindi la matrice
1 −2 0 −2
0 4 1 4
000 1
A = 0 0 4 0 .
0 0 0 0
0 0 14 0
La matrice é adesso in forma ridotta a gradini. Concludiamo quindi che il suo rango
é 3, poiché 3 sono le righe non nulle.
Esercizio 4. Si determini il rango della seguente matrice, usando il metodo della
riduzione per righe:
11101
2 1 3 1 2
2 2 2 1 1 .
32422
da cui
1 1 10 1
0 −1 1 1 0
A0 =
0 0 0 1 −1 .
0 −1 1 2 −1
Su A0 operiamo con R4 → R4 − R2 , ottenendo
1 1 10 1
0 −1 1 1 0
A00 = 0 0 0 1 −1 .
0 0 0 1 −1
0 0 00 0
2.17 Esercizi svolti. 47
Quest’ultima matrice é in forma ridotta e presenta 3 righe non nulle, quindi il rango
é pari a 3.
Esercizio 5. Si determini il rango della seguente matrice, usando il Teorema degli
orlati
1121
2 1 3 1 .
1010
2 3 12
Consideriamo adesso tutti i possibili minori di ordine 3, cancellando, una alla volta,
le colonne della matrice:
2 1 1
1 k 1 = 2k2 − 3k + 1, il quale si annulla per k ∈ {1, 1 }
1 k k
2
1 1 1
k k 1 = 0 ∀k ∈ R
k k k
1 2 1
k 1 1 = −2k2 + 3k − 1, il quale si annulla per k ∈ {1, 1 }
k 1 k
2
1 2 1
k 1 k = 0, ∀k ∈ R.
k 1 k
e
2 1 k
3 1 2 = 1 − k.
1 0 1
Quindi, se si annulla uno dei due minori orlati, l’altro é non nullo, per cui esiste
sempre un minore di ordine 3 non nullo. Concludiamo che il rango della matrice é
pari a 3, per ogni k ∈ R.
Esercizio 9. Si determini il rango della seguente matrice al variare dei valori reali
di k (usando eventualmente il teorema degli orlati)
k−1 2 1 1
1 3 2 k .
1 110
e
2 1 k−1
3 2 1 = k − 1.
1 1 1
Quindi, se k = 1 ogni orlato si annulla, per cui concludiamo che il rango della
matrice é pari a 3, per ogni k 6= 1, ed il rango é pari a 2 per k = 1.
Esercizio 10. Si determini il rango della seguente matrice al variare dei valori reali
di k
k110
0 0 1 k .
2101
Per k 6= 1, la matrice A0 é in forma ridotta, per cui il rango della matrice é pari a 3.
Nel caso di k = 1, la matrice A0 assume la seguente forma
1110
A0 = 0 0 0 0
0101
R2 → R2 − (k + 1)R1 , R3 → R3 − (1 − 2k)R1
da cui
52 2 Le Matrici
1 2 3
A00 = 0 −k −2k .
0 2k 4k
Se k = 0, segue banalmente che il rango é pari a 1.
Nel caso k 6= 0, eseguendo su A00 l’operazione R3 → R3 + 2R2 la matrice si trasforma
in
1 2 3
A000 = 0 −k −2k
0 0 0
che é in forma ridotta con 2 righe non nulle, per cui il suo rango é 2.
Consideriamo adesso i casi inizialmente esclusi.
Per k = −1 la matrice A si riscrive
012
1 2 3
345
1 2
R2 → R2 + R3 , R1 → R1 + R3 .
3 3
Otteniamo la matrice:
11 0
A000 = 0 1 0 .
0 0 −3
Quindi eseguiamo R1 → R1 − R2 , da cui
10 0
Aiv = 0 1 0
0 0 −3
Esercizio 14. Si trasformi la seguente matrice non singolare nella matrice identitá,
usando il metodo della riduzione per righe:
211
0 3 2 .
404
Esercizio 16. Si determinino i valori reali di k per cui la seguente matrice sia
invertibile
0 k10
0 1 2 1
k +1 0 0 0 .
0 213
2.17 Esercizi svolti. 55
Una soluzione di un tale sistema é una n-upla di valori reali (c1 , . . . , cn ) da attribuire
alle incognite x1 , . . . , xn , tali che essi verifichino ciascuna delle m equazioni, cioé:
a11 c1 + a12 c2 + . . . + a1n cn = b1
a21 c1 + a22 c2 + . . . + a2n cn = b2
.
.........
am1 c1 + am2 c2 + . . . + amn cn = bm
57
58 3 Sistemi Lineari
A · X = B.
a11 a12 . . . a1n b1
a21 a22 . . . a2n b2
Chiameremo A matrice incompleta e C = ...
matrice completa
... ... ... ...
am1 am2 . . . amn bm
del sistema lineare.
Riduciamo la matrice C:
11 1 3
R3 → R3 + R2 , C0 = 1 1 −1 2
20 0 4
11 1 3
R2 → R2 − R1 , C0 = 0 0 −2 −1 .
20 0 4
Il sistema associato a questa matrice é
x1 + x2 + x3 = 3
−2x3 = −1
2x1 = 4
Ma non tutti i sistemi lineari hanno necessariamente una soluzione, per esempio
basti pensare al seguente:
x1 + x2 = 2
.
2x1 + 2x2 = 1
Diremo compatibili i sistemi lineari che ammettono soluzione ed incompatibili quel-
li che non ne ammettono alcuna. Parallelamente, non é detto che se un sistema
lineare ha una soluzione, esso abbia solo quella, eccone un esempio:
x1 + x2 + x3 = 2
2x1 + 2x2 + 2x3 = 4
x1 − x2 = 0
che ammette come soluzioni le infinite terne (α, α, 2 − 2α), per ogni α ∈ R.
Diremo indeterminati i sistemi lineari che ammettono infinite soluzioni.
Teorema 3.2. (di Rouché-Capelli) Sia A·X = B un sistema lineare di m equazioni in
n incognite, con matrici associate A ∈ Mmn (R), C ∈ Mmn+1 (R). Esso é compatibile
se e solo se il rango della matrice incompleta A é uguale al rango della matrice
completa C. Inoltre se il sistema é compatibile, detto r il rango delle matrici, le
soluzioni sono in numero di ∞n−r , nel caso n > r. Infine, se n = r il sistema ammette
un’unica soluzione.
0 = 0 · x1 + 0 · x2 + . . . . . . + 0 · xn = br+1 6= 0.
Viceversa supponiamo ora che rango(A) = rango([A|B]) = r. Ció vuol dire che la
colonna dei termini noti B non incide nel calcolo dei ranghi, in altre parole la co-
lonna B é combinazione lineare delle colonne della matrice A. Allora ogni elemento
bi che si trovi su una qualsiasi riga i-esima di B é combinazione lineare di tutti gli
elementi che si trovano sulla riga i-esima di A. Quindi esistono α1 , . . . , αn ∈ R tali
che:
a11 α1 + a12 α2 + . . . + a1n αn = b1
a21 α1 + a22 α2 + . . . + a2n αn = b2
a31 α1 + a32 α2 + . . . + a3n αn = b3
60 3 Sistemi Lineari
.......................................
am1 α1 + am2 α2 + . . . + amn αn = bm
cioé il sistema ammette almeno la soluzione (x1 , . . . , xn )=(α1 , . . . , αn ).
Omettiamo la dimostrazione dell’ultima parte del Teorema: ne faremo una verifica
diretta tramite gli Esempi. t
u
Esempio 38. Si discuta il sistema
x1 + x2 + x3 = 1
2x1 − 2x2 + 2x3 = 0 .
x1 − x3 = 1
1 1 1
Svolg. La matrice incompleta é A = 2 −2 2 che ha rango 3. Ovviamente
1 0 −1
anche la matrice completa avrá rango 3. Il sistema é compatibile ed ammette una
sola soluzione. t
u
Esempio 39. Si discuta il sistema
x1 + x2 − x3 + x4 = 0
3x1 + x2 − x3 = 1 .
2x1 − x4 = 1
1 1 −1 1
Svolg. La matrice incompleta é A = 3 1 −1 0 che ha rango 2. La matrice
2 0 0 −1
1 1 −1 1 0
completa é C = 3 1 −1 0 1 che ha ancora rango 2. Il sistema é compatibile ed
2 0 0 −1 1
ammette ∞4−2 = ∞2 soluzioni. Il rango 2 ci é dato dalle prime due righe, le terza é
combinazione lineare di esse. Allora un sistema equivalente
a quello dato é quello
1 1 −1 1 0
associato alla seguente matrice: C0 = 3 1 −1 0 1 e si scrive
00 0 00
x1 + x2 = x3 − x4
.
3x1 + x2 = 1 + x3
1 − 2x3 + 3x4
x1 = + x3 − x4 .
2
Allora la generica soluzione del sistema lineare é
1 1 1 3
x1 = + β x2 = − + α − β x3 = α x4 = β
2 2 2 2
per ogni valore reale dei parametri α e β . t
u
Esempio 40. Si discuta il sistema
x1 + x2 − x3 = 2
x1 + 2x2 − x3 = 0 .
2x1 + 3x2 − 2x3 = 1
1 1 −1
Svolg. La matrice incompleta é A = 1 2 −1 che ha rango 2. La matrice
2 3 −2
1 1 −1 2
completa é C = 1 2 −1 0 che ha rango 3. Il sistema é incompatibile. t
u
2 3 −2 1
Sia A ∈ Mmn (R), matrice con m righe e n colonne. Il sistema lineare A · X = B é detto
0
0
omogeneo se B = 0 cioé se B = . . . é la m-upla nulla. Tali sistemi hanno sempre
...
0
la soluzione banale, (x1 = 0, . . . , xn = 0). Poiché in tale caso la matrice completa e
quella incompleta hanno sempre lo stesso rango, la soluzione banale é anche l’unica
soluzione se e solo se il rango della matrice A é pari al numero n di incognite. Al
contrario, se il rango di A é r < n allora le soluzioni sono in numero di ∞n−r .
Esempio 41. Si discuta il sistema
x1 + x2 + 2x3 = 0
2x1 + 2x2 + 3x3 = 0 .
3x1 + x2 + 2x3 = 0
112
Svolg. La matrice associata é A = 2 2 3 che ha rango 3. Allora vi é la sola
312
soluzione banale. t
u
62 3 Sistemi Lineari
1121
Svolg. La matrice associata é A = 2 2 3 2 che ha rango 2. Allora vi sono ∞2
1111
soluzioni. Il rango é 2 poiché l’ultima riga é combinazione lineare delle precedenti
due. Quindi un sistema equivalente
al precedente é quello che ha come matrice
1121
associata la seguente: A0 = 2 2 3 2 . Tale sistema si scrive:
0000
x1 + 2x3 = −x2 − x4
.
2x1 + 3x3 = −2x2 − 2x4
x1 = −α − β x2 = α x3 = 0 x4 = β
ed a fortiori
α(a j1 An1 + a j2 An2 + . . . + a jn Ann ) = 0
per ogni α ∈ R e per j = 1, . . . , n. Questo vuol dire che la n-upla α(An1 , An2 , . . . , Ann )
é soluzione del sistema lineare omogeneo originario, al variare di α ∈ R.
Esempio 43. Si discuta il sistema
2x1 + 3x2 − x3 + x4 = 0
x1 − x2 + x3 = 0
.
3x 1 − 2x3 + x4 = 0
2x2 + 2x3 = 0
2 3 −1 1
1 −1 1 0
Svolg. La matrice associata é A = 3 0 −2 1 che ha rango 3. In particolare il
0 2 2 0
rango é dato dalle prime tre righe della matrice, quindi le ∞1 soluzioni del sistema
sono proporzionali ai complementi algebrici degli elementi a41 = 0, a42 = 2, a43 =
2, a44 = 0, cioé
3 −1 1 2 −1 1 2 3 1 2 3 −1
α −1 1 0 , − 1 1 0 , 1 −1 0 , − 1 −1 1
0 −2 1 3 −2 1 3 0 1 3 0 −2
al variare di α parametro reale, cioé α(4, 2, −2, −16), ovvero β (2, 1, −1, −8) al
64 3 Sistemi Lineari
variare di β ∈ R. t
u
Il sistema sia A · X = B.
Sappiamo dal teorema di Rouché-Capelli che in tal caso il sistema ammette un’unica
soluzione. Essa puó essere determinata nel modo seguente:
da cui
1 ∆1
x1 = (A11 b1 + A21 b2 + . . . + An1 bn ) · =
det(A) det(A)
1 ∆2
x2 = (A12 b1 + A22 b2 + . . . + An2 bn ) · =
det(A) det(A)
1 ∆3
x3 = (A13 b1 + A23 b2 + . . . + An3 bn ) · =
det(A) det(A)
..................
1 ∆n
xn = (A1n b1 + A2n b2 + . . . + Ann bn ) · =
det(A) det(A)
dove Ai j é il complemento algebrico dell’elemento ai j ∈ A.
In sostanza, il termine al numeratore ∆1 = (A11 b1 + A21 b2 + . . . + An1 bn ) é il
determinante della matrice
b1 a12 . . . a1n
b2 a22 . . . a2n
... ... ... ...
bn an2 . . . ann
ottenuta scambiando la prima colonna di A con la colonna dei termini noti.
In generale, il termine ∆i = (A1i b1 + A2i b2 + . . . + Ani bn ) é il determinante della
matrice
3.3 Metodo di Cramer per la risoluzione di un sistema lineare. 65
a11 a12 . . . b1 . . . a1n
a12
a22 . . . b2 . . . a2n
... ... ... bj ... ...
a1n an2 . . . bn . . . ann
ottenuta scambiando la colonna i di A con la colonna dei termini noti.
Supponiamo ora che la matrice A incompleta non sia quadrata e che il sistema sia
compatibile, diciamo r il rango del sistema. Consideriamo A0 la matrice di ordine r
che fornisce il rango al sistema, essa é ovviamente quadrata e non singolare.
Il sistema relativo alla matrice A0
a11 x1 + a12 x2 + . . . + a1r xr = b1 − a1(r+1) xr+1 − . . . − a1n xn
a21 x1 + a22 x2 + . . . + a2r xr = b2 − a2(r+1) xr+1 − . . . − a2n xn
......
ar1 x1 + ar2 x2 + . . . + arr xr = bm − ar(r+1) xr+1 − . . . − arn xn
1121
Svolg. La matrice associata é A = 2 2 3 2 che ha rango 2. Allora vi sono ∞2
1111
soluzioni. Il rango é 2 poiché l’ultima riga é combinazione lineare delle precedenti
due. Quindi un sistema equivalente
al precedente é quello che ha come matrice
1121
associata la seguente: A0 = 2 2 3 2 . Tale sistema si scrive:
0000
x1 + 2x3 = −x2 − x4
.
2x1 + 3x3 = −2x2 − 2x4
Applichiamo
ora il metodo di Cramer. La matrice incompleta del nuovo sistema
00 12
é A = , con det(A00 ) = −1. Le variabili x2 , x4 diventano parametri reali, ai
23
quali possiamo attribuire un qualsiasi valore in R. Calcoliamo
−x2 − x4 2
∆1 = = x2 + x4
−2x2 − 2x4 3
66 3 Sistemi Lineari
1 −x2 − x4
∆3 =
=0
2 −2x2 − 2x4
e quindi
∆1 ∆3
x1 = = −x2 − x4 x3 = =0
−1 −1
con x2 e x4 parametri reali liberi. t
u
Cominciamo con le operazioni elementari sulle righe per rendere speciale l’elemen-
to di posto (1, 1):
1 2 −1 1 8
1 0 1 −3 − 3 1
R2 → R2 − R3 C0 = 2 4 −4 1 16
2
2
4 10 −9 1 33
3.4 Metodo di eliminazione di Gauss. 67
1 2 −1 1 8
1 0 1 −3 − 3 1
R3 → R3 − R4 C0 = 2
0 −1 1 1 − 1
2 2 2 2
4 10 −9 1 33
1 2 −1 1 8
0 1 −3 − 3 1
R4 → R4 − 4R1 C0 = 2
0 −1 1 1 − 1 .
2 2 2
0 2 −5 −3 1
Passiamo ora a determinare un elemento speciale sulla seconda riga, e come in
precedenza, scegliamo l’elemento sulla diagonale principale (quello di posto (2, 2)):
1 2 −1 1 8
0 1 −3 − 3 1
R3 → R3 + R2 , R4 → R4 − 2R2 , C0 = 2
0 0 − 5 −1 1 .
2 2
0 0 1 0 −1
Infine passiamo alla terza riga:
1 2 −1 1 8
2 0
0 1 −3 − 32 1
R4 → R4 + R3 C =
0 0 −5
.
5 2 −1 12
00 0 − 52 − 45
La matrice é ora ridotta. Si noti che tanto il rango della incompleta che della com-
pleta é 4, quindi il sistema é compatibile ed ammette una sola soluzione. Inoltre il
sistema é ora riscrivibile come segue:
x1 +2x2 −x3 +x
4 =8
x2 −3x3 − 32 x4 = 1
.
− 52 x3 −x4 = 12
− 52 x4 = − 45
2 −1 7 1
Svolg. La matrice completa associata é C = 3 −3 10 0 . Cominciamo con la
4 −5 13 7
prima riga:
68 3 Sistemi Lineari
2 −1 7 1
3
R2 → R2 − R1 C0 = 0 − 32 − 12 − 23
2
4 −5 13 7
2 −1 7 1
R3 → R3 − 2R1 C0 = 0 − 32 − 12 − 32
0 −3 −1 5
2 −1 7 1
R3 → R3 − 2R2 C0 = 0 − 32 − 12 − 32 .
0 0 0 2
La matrice é ora ridotta. Si noti che il rango della incompleta é 2, mentre quello
della matrice completa é 3. Pertanto il sistema é incompatibile. t
u
Esempio 47. Si discuta il sistema
x1 − 2x2 + 3x3 − 4x4 = 4
x1 − x2 + 2x3 − 3x4 = 1 .
−x1 − x2 + x3 + 3x4 = −1
1 −2 3 −4 4
Svolg. La matrice completa associata é C = 1 −1 2 −3 1 .
−1 −1 1 3 −1
1 −2 3 −4 4
R2 → R2 − R1 C0 = 0 1 −1 1 −3
−1 −1 1 3 −1
1 −2 3 −4 4
R3 → R3 + R1 C0 = 0 1 −1 1 −3
0 −3 4 −1 3
1 −2 3 −4 4
R3 → R3 + 3R2 C0 = 0 1 −1 1 −3 .
0 0 1 2 −6
La matrice é ora ridotta. Si noti che tanto il rango della incompleta che della com-
pleta é 3, quindi il sistema é compatibile ed ammette ∞1 soluzioni. Inoltre il sistema
é ora riscrivibile come segue:
x1 −2x2 +3x3 −4x4 = 4
x2 −x3 +x4 = −3 .
x3 +2x4 = −6
Dall’ultima equazione si ha
x3 = −2x4 − 6.
Sostituendo nella seconda otteniamo
3.5 Esercizi svolti. 69
x2 = x3 − x4 − 3 = −2x4 − 6 − x4 − 3 = −3x4 − 9
R2 → R2 − 2R1 , R3 → R3 − R1
da cui
1 1 −1 1
0
C = 0 0 3 −2 .
0 0 3 −2
Infine sottraiamo la seconda dalla terza riga:
1 1 −1 1
C00 = 0 0 3 −2 .
00 0 0
R2 → R2 − R1 , R3 → R3 − R1
da cui
1 1 1 3
C0 = 0 0 −2 −1 .
0 −2 0 −1
Infine scambiamo la seconda e la terza riga:
1 1 1 3
C00 = 0 −2 0 −1 .
0 0 −2 −1
per cui:
3.5 Esercizi svolti. 71
1 1
x3 = , x2 = , x1 = 3 − x2 − x3 = 2.
2 2
La soluzione del sistema é
1 1
2, , .
2 2
0 1 1 0
0 1 1 0
R2 → R2 − 2R1 , R3 → R3 − 3R1
0 1 1 0
Per semplificare i calcoli, scambiamo la seconda e la quarta riga (in tal modo il
prossimo pivot da utilizzare per i calcoli sará 1):
1 −1 1 0
0 1 1 0
A000 =
0 3 −5 1 .
0 5 −3 1
R3 → R3 − 3R2 , R4 → R4 − 5R2 .
La matrice risultante é
1 −1 1 0
iv
0 1 1 0
A = 0 0 −8
.
1
0 0 −8 1
Infine, per R4 → R4 − R3 , avremo
1 −1 1 0
0 1 1 0
Av =
.
0 0 −8 1
0 0 0 0
Il rango della matrice é quindi 3, per cui il sistema lineare omogeneo ammette ∞1
soluzioni. Riscrivendo il sistema equivalente avremo:
x1 − x2 + x3 = 0
x2 + x3 = 0
−8x3 + x4 = 0
011
R2 → R2 − 2R1 , R3 → R3 − 3R1
0 1 1
3.5 Esercizi svolti. 73
0 0 −1
0 0 −1
Il rango di A000 é banalmente pari a 3, per cui, per il sistema omogeneo associato
avremo la sola soluzione banale (0, 0, 0).
Esercizio 21. Si determinino le soluzioni del seguente sistema lineare:
x1 + 2x2 − x3 + x4 = 0
2x1 + 4x2 − 2x3 − x4 = 0
x1 − x2 + 2x4 = 0
2x1 + x2 − x3 = 0
2 1 −1 0
R2 → R2 − 2R1 , R3 → R3 − R1 , R4 → R4 − 2R1
0 −3 1 −2
Scambiamo la seconda e la quarta riga:
1 2 −1 1
0 −3 1 −2
A00 = 0 −3 1 1
0 0 0 −3
74 3 Sistemi Lineari
0 0 0 −3
Il rango della matrice é 3, per cui avremo ∞1 soluzioni. Osserviamo che un minore
non nullo di ordine 3 é quello individuato dall’incrocio delle righe R1 , R2 , R3 e delle
colonne C2 ,C3 ,C4 , ovvero
2 −1 1
−3 1 −2 6= 0.
0 0 3
Quindi possiamo scegliere come parametro libero, in funzione del quale otterremo
le soluzioni del sistema, la variabile x1 . Riscriviamo quindi il sistema associato alla
matrice A000 come segue:
2x2 − x3 + x4 = −x1
−3x2 + x3 − 2x4 = 0
3x4 = 0
R2 → R2 − R1 , R3 → R3 + 2R1
3.5 Esercizi svolti. 75
da cui otteniamo
1 1 −2 4
C00 = 0 −3 3 −6 .
0 3 −3 9
Infine operiamo sulla seconda e terza riga nel modo seguente: R3 → R3 + R2 , per cui
1 1 −2 4
C000 = 0 −3 3 −6 .
0 0 0 3
1 2 1 2−1 1 1
R3 → R3 − R1 , R4 → R4 − R1
R3 → R3 + R2 , R4 → R4 − R2
ottenendo la seguente:
1 1 −1 2 0 01
01 2 0 −1 1 0
C00 =
.
0 0 0 0 0 0 0
00 0 00 0 0
76 3 Sistemi Lineari
Tale matrice ha rango 2, pari anche al rango della matrice incompleta. Quindi il
sistema é compatibile indeterminato e presenta ∞4 soluzioni. Il sistema equivalente
a quello iniziale, associato alla matrice C00 é
x1 + x2 − x3 + 2x4 = 1
.
x2 + 2x3 − x5 + x6 = 0
Osservando che il rango della matrice C00 é garantito, ad esempio, dal minore di or-
dine 2 ottenuto dalle prime 2 righe e prime 2 colonne, possiamo riscrivere il sistema
come segue:
x1 + x2 = x3 − 2x4 + 1
.
x2 = −2x3 + x5 − x6
Da ció otteniamo
|A| = k(4 − k2 ).
Poiché il suo determinante é |A| = (6k + 8)(k − 1), avremo che il rango di A é pari
a 3, per ogni k 6= 1, − 34 . In questo caso, poiché anche il rango di C é 3, il sistema é
compatibile determinato, ovvero otterremo un’unica soluzione in corrispondenza di
ogni fissato valore di k 6= 1, − 34 . Applicando il metodo di Cramer, abbiamo:
4 −2 k − 2
0 −6 −3
7 4 2 42(k − 1) 21
x1 = = =
(6k + 8)(k − 1) (6k + 8)(k − 1) 3k + 4
3−k 4 k−2
2 0 −3
k 7 2 19(1 − k) 19
x2 = = =−
(6k + 8)(k − 1) (6k + 8)(k − 1) 6k + 8
3 − k −2 4
2 −6 0
k 4 7 66(k − 1) 33
x3 = = = .
(6k + 8)(k − 1) (6k + 8)(k − 1) 3k + 4
Analizziamo ora o casi restanti, k = 1 e k = − 43 .
Per k = 1, la matrice associata al sistema é
2 −2 −1 4
C = 2 −6 −3 0 .
1 4 2 7
R2 → R2 − 2R1 , R3 → R3 − 2R1
Osserviamo allora che il rango della matrice completa é pari a 2, come quello della
matrice incompleta. Quindi il sistema é compatibile indeterminato e presenta ∞1
soluzioni. Un minore non nullo di ordine 2 é dato dall’incrocio delle prime due
righe e prime due colonne, ovvero
14
.
02
come segue:
13
−2 − 10
3 3 4
C = 2 −6 −3 0 .
− 43 4 2 7
Iniziamo moltiplicando entrambe la prima e la terza riga per 3:
13 −6 −10 12
2 −6 −3 0 .
−4 12 6 21
R2 → R2 − 2R1 , R3 → R3 − 3R1
da cui
3
x4 =
2k − 2
1 3 (4k − 4)x3 + 1 − 4k
x2 = − −1 − 2x3 + (2k − 1) =
3 2k − 2 6(k − 1)
(4k − 4)x3 + 1 − 4k 3 (5k − 8) + 2(1 − k)x3
x1 = 1 + x3 − 2 −k = .
6(k − 1) 2k − 2 6(k − 1)
Quindi, per ogni k 6= 1, le soluzioni sono:
(5k − 8) + 2(1 − k)α 4(k − 1)α + 1 − 4k 3
, , α, ∀α ∈ R.
6(k − 1) 6(k − 1) 2k − 2
82 3 Sistemi Lineari
Esercizio 27. Risolvere il seguente sistema lineare al variare dei parametri reali h, k
x1 + x2 + hx3 = 1
x1 + 2x2 + kx3 = 3 .
x1 + x3 = 1
R2 → R2 − R1 , R3 → R3 − R1
avremo la matrice
1 1 h 1
C0 = 0 1 h − 1 2 .
0 −1 1 − h 0
Inoltre, per R3 → R3 + R2 in C0 , otteniamo la matrice
11 h 1
C00 = 0 1 h − 1 2 .
00 0 2
R2 → R2 + R1 , R3 → R3 − 3R1 .
2k2 − k + 12 − 9x4
1
x2 = − k − 8 + 3x4 − 2(2 + k2 ) + 6x4 =
3 3
2k2 − k 2k2 − k + 12 − 9α
2
−2 − + α, , (2 + k ) − 3α, α ∀α ∈ R.
3 3
|A| = 2 − 2k.
In questo modo possiamo giá osservare che per ogni k 6= 1 il rango di A é 3, e tale
dovrá essere anche il rango della matrice completa. Quindi il sistema é compatibile
determinato. Per ottenere l’unica soluzione applichiamo il metodo di Cramer:
k 2
−k
1 1
−k
0 2 + k −2 − k k3 − 2k + 4
x1 = =
2 − 2k 2 − 2k
1 k −k
1 1 −k
3 0 −2 − k k2 − 2k + 1
x2 = =
2 − 2k k−1
1 2 k
1 1 1
3 2 + k 0 k2 − 2k + 4
x3 = = .
2 − 2k 2 − 2k
Quindi, per qualsiasi scelta di k 6= 1, la soluzione é
3
k − 2k + 4 k2 − 2k + 1 k2 − 2k + 4
, , .
2 − 2k 2 − 2k 2 − 2k
R2 → R2 − R1 , R3 → R3 − 3R1
che é ridotta in forma a gradini e presenta 3 righe non nulle. Il suo rango é quindi 3
ed il sistema risulta incompatibile.
Esercizio 30. Si determinino, quando possibile, le soluzioni del seguente sistema
lineare, al variare del parametro reale k:
3x1 − x2 − kx3 = k
x1 + x2 − kx3 = 1
−x 1 + 2x2 − x3 = 0
x1 − x2 = 1
1 −1 0 1
In tal modo possiamo giá osservare che, per qualsiasi valore k 6= 2, 3 il rango di
C sará 4. Poiché il rango della matrice incompleta dovrá in ogni caso essere ≤ 3,
concludiamo che il sistema é incompatibile.
Restano quindi da analizzare i singoli casi di k = 2 e k = 3.
Per k = 2 la matrice completa C si esprime nel modo seguente:
3 −1 −2 2
1 1 −2 1
C= −1 2 −1 0 .
1 −1 0 1
R2 → R2 − R1 , R3 → R3 + R1 , R4 → R4 − 3R1 .
3.5 Esercizi svolti. 87
La matrice risultante é
1 −1 0 1
0 2 −2 0
0 1 −1 1 .
0 2 −2 −1
Scambiano, in quest’ultima, la seconda e la terza riga:
1 −1 0 1
0 1 −1 1
0 2 −2 0
0 2 −2 −1
R3 → R3 − 2R2 , R4 → R4 − 2R2
0 0 0 −3
1 −1 0 1
R2 → R2 − R1 , R3 → R3 + R1 , R4 → R4 − 3R1
0 0 0 0
0 0 0 0
Possiamo allora concludere che sia la matrice completa che quella incompleta han-
no rango pari a 3, per cui il sistema é compatibile determinato.
Abbiamo quindi dimostrato che il sistema ha soluzione solo per k = 3. Inoltre ri-
scriviamo il sistema equivalente a quello iniziale ed associato alla matrice in forma
ridotta appena ottenuta:
x1 − x2 = 1
x2 − x3 = 1
x3 = 2
la cui soluzione é
4, 3, 2 .
Capitolo 4
Gli Spazi Vettoriali.
4.1 Introduzione
R[X] = {a0 + a1 x + a2 x2 + a3 x3 + . . . . + an xn a0 , . . . ., an ∈ R}
89
90 4 Gli Spazi Vettoriali.
w1 + w2 ∈ W
αw ∈ W
per ogni α ∈ R, w, w1 , w2 ∈ W , e queste si possono compattare nell’unica condizione
αw1 + β w2 ∈ W
per ogni α, β ∈ R, w1 , w2 ∈ W .
xy
Esempio 52. W = { x, y ∈ R} é un sottospazio dello spazio vettoriale delle
00
matrici quadrate di ordine 2 su R, M2 (R).
Esempio 53. W = {(x, 0, z) x, z ∈ R} é un sottospazio vettoriale di R3 .
Esempio 54. R é un sottospazio banale di se stesso.
Esempio 55. W = {a0 + a1 x1 + a2 x2 + . . . . + am xm , a0 , . . . , am ∈ R}, insieme dei
polinomi di grado minore o uguale a m, con m ≤ n, é sottospazio vettoriale di V =
{a0 + a1 x1 + a2 x2 + . . . . + an xn , a0 , . . . , an ∈ R}.
U ∩W = {(0, 0, 0)}.
U ∪W = {v ∈ V : v∈U oppure v ∈ W }.
U = {(x, 0), x ∈ R}
W = {(0, y), y ∈ R}
sottospazi di R2 . Scegliamo il vettore (1, 0) ∈ U ed il vettore (0, 1) ∈ W : ovviamente
entrambi appartengono a U ∪W ma
Piú in generale, U ∪ W é sottospazio vettoriale di V solo nei due casi banali in cui
u ⊆ W oppure W ⊆ U.
Definiamo ora il seguente sottoinsieme dello spazio vettoriale V :
U +W = {v ∈ V : v = u + w, u∈U e w ∈ W }.
Ancora una volta abbiamo verificato la validitá delle proprietá esposte nella Osser-
vazione 4.3, per cui U +W é un sottospazio di V .
Diremo che U + W é somma diretta (e la indicheremo U ⊕ W ) se U ∩ W = {0},
ovvero se U e W hanno in comune il solo vettore nullo di V .
Esempio 58. Siano U = {(x, y, 0), x, y ∈ R} e W = {(x, 0, z), x, z ∈ R} sotto-
spazi di R3 . Allora
U +W = {(x, y, z), x, y, z ∈ R} = R3
U ∩W = {(α, 0, 0), α ∈ R}
quindi la somma non é diretta. Scegliamo un vettore che appartenga alla somma: in
particolare sia w = (6, 1, 1) ∈ U + W . Si noti che il vettore w si puó esprimere in
diversi modi come somma di due vettori scelti rispettivamente in U e W :
ed anche
Questo accade per ogni vettore appartenente allo spazio somma, nel caso in cui
questa non sia diretta.
Alla luce di ció, vale la seguente:
Proposizione 4.4. Siano U e W sottospazi vettoriali dello spazio V . La loro somma
é diretta se e solo se ogni vettore di essa si puó esprimere in modo unico come
somma di un vettore di U e di uno di W .
α1 v1 + α2 v2 + . . . + αn vn = 0.
α1 v1 + α2 v2 + . . . + αn vn = 0 ⇐⇒ α1 = α2 = . . . , αn = 0.
α0 · 0 + 0 · v1 + 0 · v2 + · · · + 0 · vn = 0, ∀0 6= α0 ∈ R.
∀v ∈ V ∃α1 , . . . , αn ∈ R : v = α1 e1 + . . . + αn en .
Gli scalari (α1 , . . . , αn ) sono dette componenti o coordinate di v rispetto alla base B
(od in termini della base B, od in riferimento alla base B).
Osservazione 4.14. Sia B = {e1 , . . . , en } una base per V . Le componenti di un
qualsiasi vettore v ∈ V in termini di B, sono uniche. Infatti, se supponessimo
v = ∑ni=1 αi ei e contestualmente v = ∑ni=1 βi ei , con αi , βi ∈ R per ogni i = 1, . . . , n, al-
lora avremmo ∑ni=1 (αi − βi )ei = 0. Dalla indipendenza lineare tra i vettori e1 , . . . , en ,
segue che αi = βi , per ogni i = 1, . . . , n.
Esempio 66. Se V = R, allora per ogni a ∈ R, B = {a} é una base di V .
x x
Esempio 67. Sia V = { 1 2 , x1 , x2 , x3 , x4 ∈ R}.
x3 x4
Allora una base per V é data da
10 01 00 00
B={ , , , }
00 00 10 01
V = R[X] = {a0 + a1 x + a2 x2 + a3 x3 + . . . . + an xn a0 , . . . ., an ∈ R}
B0 = {v1 , v2 , . . . , vr , e j1 , e j2 , . . . , e jn−r }
Tale matrice dovrebbe avere r righe indipendenti, quindi rango r, ma ció é impossi-
bile poiché n < r.
Passiamo ora alla seconda parte del teorema. Poiché B é una base di V , esistono
α1 , . . . , αn non tutti nulli tali che
v1 = α1 e1 + α2 e2 + . . . + αn en
β1 v1 + β2 e2 + . . . + βn en = 0.
{v1 , v2 , . . . , vr−1 , er , . . . , en }
In particolare, poiché v1 , . . . , vr−1 sono indipendenti, almeno uno tra αr0 , . . . , αn0 deve
essere non nullo. Supponiamo per esempio αr0 6= 0. Segue che
r−1 n
1
er = (vr − ∑ αi0 vi − ∑ α 0j e j ) .
i=1 j=r+1 αr0
Se fosse βr0 = 0 avremmo anche β10 = β20 = . . . = βr−1 = βr+1 = . . . = βn0 = 0, poiché
{v1 , v2 , . . . , vr−1 , er , . . . , en } é una base di V . Nel caso in cui βr0 6= 0 allora
r−1 n
1
vr = (− ∑ βi0 vi − ∑ β j0 e j )
i=1 j=r+1 βr0
Teorema 4.16. Due distinte basi di uno spazio vettoriale contengono lo stesso
numero di elementi.
Teorema 4.17. Sia V uno spazio vettoriale di dimensione n e siano v1 , v2 , . . . , vr
vettori linearmente indipendenti di V , con r ≤ n. Allora esistono n − r vettori
vr+1 , vr+2 , . . . , vn di V tali che l’insieme
W = {(x1 , x2 , x3 , x4 ) ∈ R4 x1 − x4 = 0, x2 + x3 = 0}.
W = {(x1 , x2 , x3 , x4 ) ∈ R4 x4 − x2 + x3 = 0}.
v = u0 + w0
da cui
h k
∑ (αi − βi )ui = ∑ (γ j − δ j )w j ∈ U ∩W
i=1 j=1
h
v = ∑ αi ui ∈ U
i=1
ed anche
k
v = ∑ β j w j ∈ W.
i=1
Alla luce delle definizioni di base e dimensione (e per fugare ogni dubbio sul metodo
da utilizzare), diamo ora due esempi di come si possa determinare l’intersezione di
spazi vettoriali nei casi piú rilevanti:
1. il primo caso é quello in cui gli spazi siano descritti tramite le relazioni lineari
che intercorrono tra le componenti dei vettori appartenenti ad essi (usualmente
dette equazioni cartesiane di un sottospazio vettoriale);
Ecco un esempio: siano A e B due sottospazi di R4 definiti da
A = {(x1 , x2 , x3 , x4 ) : x1 − x4 = 0}
A = {(a, a + b, c, a) : a, b, c ∈ R}
B = {(d, e, e, e) : d, e ∈ R}.
Ancora una volta dobbiamo dapprima determinare la generica espressione del
vettore che appartenga ad entrambi gli spazi: per un tale vettore deve accadere
che
(a, a + b, c, a) = (d, e, e, e) (4.1)
quindi
a = d, a + b = e, c = e, a=e
che si riduce ancora ad un sistema lineare omogeneo nelle incognite a, b, c, d, e:
a−d = 0
a+b−e = 0
.
c−e = 0
a−e = 0
α1 c1 + . . . . + αr cr + β1 d1 + . . . . + βs ds = 0.
0 = 0 · c1 + . . . + 0 · cr + 0 · d1 + . . . . + 0 · ds
k q
v = ∑ αi ci = ∑ β jd j
i=1 j=1
e quindi
k q
∑ αi ci − ∑ β j d j = 0.
i=1 j=1
t
u
Esempio 73. Siano V = R4 ,
A = {(x, y, z,t) ∈ R4 , y = 0, 2z − t = 0}
B = {(x, y, z,t) ∈ R4 , x − t = 0, y + z = 0}
e calcoliamo dim(A + B).
a=b=c=d=0
A = {(a + b, b, a), a, b ∈ R}
Inoltre il generico vettore di B si esprime (x, x, z), quindi dim(B) = 2 ed una sua
base é
(1, 1, 0), (0, 0, 1).
Quindi se v ∈ A ∩ B, esso deve essere esprimibile contemporaneamente in due modi,
cioé
v = (a + b, b, a) = (c, c, d) con a, b, c, d ∈ R.
4.5 Formula di Grassmann. 103
Ció vuol dire che dim(A ∩ B) = 1 ed una sua base é data dal vettore (1, 1, 0).
Applicando la formula di Grassmann otteniamo:
dim(A + B) = 2 + 2 − 1 = 3
d e
a = 2b = c = − =
2 2
quindi v = (e, 0, 0, 0), al variare di e ∈ R. Per cui dim(A ∩ B) = 1 e dim(A + B) =
3 + 2 − 1 = 4, cioé A + B = R4 , ma non come somma diretta. t
u
Esempio 77. Siano
A =< (2, −1, 0, 1), (1, 3, 1, −1), (0, 1, −1, −1) >
a=d=0 b = −c = e
quindi v = (e, 2e, 2e, 0), al variare di e ∈ R. Per cui dim(A ∩ B) = 1 e dim(A + B) =
3 + 2 − 1 = 4, cioé A + B = R4 , ma non come somma diretta. t
u
v = x1 e1 + x2 e2 + . . . + xn en x1 , . . . , xn ∈ R
X0 = A · X
nella quale a matrice A é detta matrice del cambiamento di base ed é costruita come
segue:
– nella prima colonna vi sono le componenti del vettore e1 rispetto alla base B0 ;
– nella seconda colonna vi sono le componenti del vettore e2 rispetto alla base B0 ;
– in generale, nella colonna j vi sono le componenti del vettore e j della base B,
calcolate rispetto alla base B0 .
4.6 Cambiamento di base in uno spazio vettoriale. 105
Poiché gli n vettori di una base sono sempre linearmente indipendenti, il sistema
sopra citato ha rango massimo, cioé n, quindi la matrice A é invertibile, da cui
otteniamo le formule inverse per il cambiamento di base:
X = A−1 · X 0
analogamente le componenti
di e2 = (0, 1) rispetto a B0 sono (e2 )B0 = (−2, 1).
−1 −2
Per cui, la matrice A = é quella che determina il passaggio dalla base B
1 1
a quella B0 , cioé 0
x1 −1 −2 x
= · 1
x20 1 1 x2
e le formule di passaggio sono
x1 = x10 + 2x20
x2 = −x10 − x20
1 2
in cui la matrice di passaggio é A−1 = . Per esempio consideriamo il
−1 −1
vettore v ∈ V che abbia componenti X = (x1 , x2 ) = (2, −3) rispetto alla base B.
Determiniamo le sue componenti X 0 = (x10 , x20 ) rispetto alla base B0 :
106 4 Gli Spazi Vettoriali.
x10 = −2 + 6 = 4
.
x20 = 2 − 3 = −1
t
u
Esempio 79. Siano V = R3 ,
B = {(1, 1, 0), (1, 0, 1), (2, 0, 1)}, B0 = {(0, 1, 1), (2, −1, 0), (1, 0, 2)}
Svolg. Calcoliamo le componenti dei vettori della prima base B rispetto alla
seconda B0 :
(1, 1, 0) → (2, 1, −1)B0
1 1 1
(1, 0, 1) → ( , , )B0
3 3 3
(2, 0, 1) → (1, 1, 0)B0
per cui
x10 2 13 1
x1
x20 = 1 1 1 · x2
3
x30 −1 13 0 x3
0
x1 = 2x1 + 13 x2 + x3
x0 = x + 1 x + x .
2 0 1 3 21 3
x3 = −x1 + 3 x2
Per esempio il vettore v di componenti (1, 0, 3) rispetto alla base B avrá componenti
(5, 4, −1) rispetto alla base B0 . t
u
Esempio 80. Siano V = R3 e B = {e1 , e2 , e3 }, B0 = {e01 , e02 , e03 } due basi di V tali
che 0
e1 = e1 + 3e2 + 2e3
e02 = e1 + e3 .
e03 = e2
Svolg. In tale caso le formule di passaggio dalla base B0 alla base B sono
0
x1 110 x1
x2 = 3 0 1 · x20
x3 210 x30
e calcolando l’inversa della matrice che compare nel sistema precedente:
0
x1 −1 0 1 x1
x20 = 2 0 −1 · x2
x30 3 1 −3 x3
B = {(1, 1, 0), (1, 0, 1), (2, 0, 1)}, B0 = {(1, 1, 1), (0, 0, 1), (1, 0, 2)}
cioé
(6, 1, 3) = (a + c, a, a + b + 2c)
da cui a = 1, b = −8, c = 5. t
u
Esercizio 31. Dati i seguenti vettori di R3 [X], lo spazio vettoriale dei polinomi di
grado 3 nella variabile x
2x3 + x2 + x + 1, x3 + x2 + 2, x3 + 1
B = {1, x, x2 , x3 }
per cui
il cui rango é 3 (facile verifica). Concludiamo allora che i 3 vettori (polinomi) sono
tra loro linearmente indipendenti in R3 [X].
Esercizio 32. Dati i seguenti vettori di R3 [X], lo spazio vettoriale dei polinomi di
grado 3 nella variabile x
2x3 + x2 + x + 1, x3 + x2 + 2, 3x3 + x2 + 2x
108 4 Gli Spazi Vettoriali.
2x3 +x2 +x+1 = (1, 1, 1, 2)B , x3 +x2 +2 = (2, 0, 1, 1)B , 3x3 +x2 +2x = (0, 2, 1, 3)B .
Quindi introduciamo una matrice, le cui righe siano le 4-uple delle componenti dei
polinomi:
1112
A = 2 0 1 1 .
0213
Determiniamo il rango di A, procedendo con opportune operazioni elementari sulle
righe:
1 1 1 2
R2 → R2 − 2R1 =⇒ A0 = 0 −2 −1 −3
0 2 1 3
ed infine
1 1 1 2
R3 → R3 + R2 =⇒ A00 = 0 −2 −1 −3 .
0 0 0 0
Il rango di A00 é ovviamente 2, quindi i 3 vettori sono tra loro linearmente dipendenti
in R3 [X]. In particolare, osserviamo che la terza riga della matrice si é annullata. Ció
vuol dire che il vettore 3x3 + x2 + 2x = (0, 2, 1, 3)B , le cui componenti riempivano
la terza riga della matrice iniziale, é combinazione lineare dei restanti 2. Per deter-
minare le componenti scalari tramite le quali esprimere tale combinazione lineare,
procediamo come segue. Poniamo α, β ∈ R tali che
B = {(1, 1, 1), (1, 0, 1), (1, 0, 0)}, B0 = {(2, 1, 0), (0, 0, 1), (1, 1, 0)}.
4.7 Esercizi svolti. 109
da cui
2x1 + x3 = 1
x1 + x3 = 1
x2 = 1
da cui
2x1 + x3 = 1
x1 + x3 = 0
x2 = 1
da cui
2x1 + x3 = 1
x1 + x3 = 0
x2 = 0
Svolgimento: Siano (α, β , γ)E le componenti di p(x) rispetto alla base C. Espri-
mendo p(x) tramite le prorpie componenti rispetto ad entrambe le basi, avremo
che
2(x2 + x + 1) + (x2 + x) + (x2 + 2) = α(x) + β (x + 1) + γ(x2 + x)
e svolgendo i relativi calcoli, segue
B = {(1, 1, 1)F , (0, 1, 1)F , (2, 0, 1)F }, E = {(0, 1, 0)F , (1, 1, 0)F , (0, 1, 1)F }.
da cui
x1 = −1, x2 = 1, x3 = 1.
Quindi
4.7 Esercizi svolti. 111
x1 −1
x2 = 1
x3 1
é la prima colonna della matrice di transizione cercata. Per il secondo vettore di B i
calcoli sono banali, poiché ponendo
implica che
x1 = −3, x2 = 2, x3 = 1.
Quindi
x1 −3
x2 = 2
x3 1
é la terza colonna della matrice di transizione.
Concludiamo che, se indichiamo con X e X 0 rispettivamente le coordinate di un
vettore p(x) ∈ R2 [X], rispettivamente in termini della base B ed E, allora la matrice
C, che permette di effettuare la transizione X 0 = CX, é la seguente:
−1 0 −3
C = 1 0 2 .
1 1 1
diretta).
v ∈ V ⇐⇒ α, β ∈ R : v = (α, α + β , β , −α).
R4 = V ⊕W
= < (1, 1, 0, −1), (0, 1, 1, 0) > ⊕ < (0, 0, 1, 0), (1, 0, 0, 0) >
Esercizio 36. Dati i seguenti sottospazi V =< (2, 1, 0), (0, 2, 0) > e W = {(x, y, z) ∈
R3 : x + 2y + 3z = 0} di R3 , si determinino le basi dei sottospazi V ∩W e V +W .
w = (−2α − 3β , α, β ) α, β ∈ R
per cui W =< (−2, 1, 0), (−3, 0, 1) >. Unendo i vettori delle basi dei due sottospazi
vettoriali otteniamo un insieme di generatori per la somma V + W . Tale insieme é
quindi
B = {(2, 1, 0), (0, 2, 0), (−2, 1, 0), (−3, 0, 1)}.
Costruiamo una matrice, ponendo in ciascuna riga le componenti dei vettori di B:
2 10
0 2 0
A= −2 1 0 .
−3 0 1
ovvero
2x1 = −2x3 − 3x4
x1 + 2x2 = x3
0 = x4
Risolvendolo, otteniamo
x4 = 0, x1 = −x3 , x2 = x3 .
V = {(x, y, z,t) ∈ R4 : x − y + z = 0; x + t = 0, y − t = 0}
4.7 Esercizi svolti. 115
W = {(x, y, z,t) ∈ R4 : x − y = 0; z − t = 0}
Si determini una base per ciascuno degli spazi A + B e A ∩ B.
Svolgimento: Determiniamo dapprima una base per ciascuno dei due sottospazi
vettoriali.
Se v = (x, y, z,t) ∈ V , allora
x−y+z = 0
x+t = 0
y−t = 0
É di facile verifica il fatto che tali vettori sono tra loro linearmente indipendenti (si
costruisca ad esempio un matrice avente per righe le 4-uple delle componenti dei
vettori e si verifichi che il rango di tale matrice e 3).
Applichiamo adesso la formula di Grassmann, per cui
3 = 1 + 2 − dim(V ∩W ) =⇒ dim(V ∩W ) = 0.
V = {(x, y, z,t) ∈ R4 : x − y + z = 0}
W = {(x, y, z,t) ∈ R4 : x + t = 0; y + z = 0}
Si determini una base per ciascuno degli spazi V +W e V ∩W .
Svolgimento: Dalla relazione lineare che intercorre tra le componenti (x, y, z,t) di
116 4 Gli Spazi Vettoriali.
(−δ , −η, η, δ ) δ , η ∈ R.
Consideriamo BV ∪BW = {(1, 1, 0, 0), (−1, 0, 1, 0), (0, 0, 0, 1), (−1, 0, 0, 1), (0, −1, 1, 0)}.
Tale insieme genera V + W , ma chiaramente non potrá esserne una base, visto
che V + W é sottospazio di R4 . Studiamo il rango della matrice formata dalle
componenti, poste in riga, dei vettori generatori di V +W :
1 1 00
−1 0 1 0
0 0 0 1 .
−1 0 0 1
0 −1 1 0
u = (α − β , α, β , γ) α, β , γ ∈ R
u = (−δ , −η, η, δ ) δ , η ∈ R.
ovvero
α −β +δ = 0
α +η = 0
β −η = 0
γ − δ = 0.
0 0 1 −1 0
ed analogamente
118 4 Gli Spazi Vettoriali.
Le due forme ovviamente coincidono, ma la verifica andava eseguita, per esser certi
del risultato.
Tale verifica ci consente di asserire che V ∩W =< (−2, −1, 1, 2) >.
Concludiamo infine che V +W non é somma diretta.
Esercizio 39. Nello spazio vettoriale R4 si considerino i seguenti sottospazi:
V = {(x, y, z,t) ∈ R4 : x − y + z = 0}
W = {(x, y, z,t) ∈ R4 : 2x + t = 0}
Si determini una base per ciascuno degli spazi V +W e V ∩W .
(α − β , α, β , γ) α, β , γ ∈ R.
di rango certamente 2, quindi prevede ∞2 soluzioni, ovvero uno spazio delle solu-
zioni di dimensione 2. Tale spazio delle soluzioni é appunto V ∩ W . La scelta dei
2 parametri liberi puó essere diversificata. La nostra ricade su x, y, poiché facciamo
riferimento al minore non nullo
4.7 Esercizi svolti. 119
1 0
0 1 =
6 0
proveniente dalle ultime due colonne della matrice del sistema. Abbiamo allora che
t = −2x, z = y − x. Quindi il generico vettore di V ∩W si puó scrivere
(α, β , β − α, −2α) α, β ∈ R
da cui
V ∩W =< (1, 0, −1, −2), (0, 1, 1, 0) > .
La somma V +W non é diretta.
Passiamo adesso alla somma dei due sottospazi vettoriali. Consideriamo BV ∪ BW =
{(1, 1, 0, 0), (−1, 0, 1, 0), (0, 0, 0, 1), (1, 0, 0, −2), (0, 1, 0, 0), (0, 0, 1, 0)}. Tale insie-
me genera V + W , ma chiaramente non potrá esserne una base, visto che V + W é
sottospazio di R4 . Studiamo il rango della matrice formata dalle componenti, poste
in riga, dei vettori generatori di V +W :
1 10 0
−1 0 1 0
0 00 1
1 0 0 −2 .
0 10 0
0 01 0
(2δ − η, η, θ , δ , θ ), δ , η, θ ∈ R
per cui
W =< (2, 0, 0, 1, 0), (−1, 1, 0, 0, 0), (0, 0, 1, 0, 1) > .
Iniziamo analizzando V ∩W . Scegliendo un vettore u ∈ V ∩W , esso si potrá espri-
mere in entrambi i modi precedentemente descritti. Tali espressioni devono quindi
coincidere, ovvero
1 1 0 −1 0 0
Riduciamola per righe: eseguiamo dapprima le operazioni R2 → R2 − R1 e R4 →
R4 − R1 , in seguito alle quali otteniamo
1 1 2 −2 1 0
0 0 −1 2 −2 0
0 2 0 0 0 −1 .
0 0 −2 1 −1 0
0 0 0 −3 3 0
La matrice ha quindi rango 4. Un minore non nullo del quarto ordine é fornito dalle
prime 4 colonne
1 1 2 −2
0 2 0 0
0 0 −1 2 6= 0
0 0 0 −3
per cui riscriviamo un sistema equivalente, nel quale η, θ sono parametri liberi:
α + β + 2γ − 2δ = −η
2β = θ
−γ + 2δ = 2η
−3δ = −3η
da cui segue
1 1
δ = η, β = θ, α = η − θ.
γ = 0,
2 2
Sostituendo tali valori in uno qualsiasi dei due membri della relazione (4.2) ottenia-
mo l’espressione del generico vettore di V ∩W :
(η, η, θ , η, θ )
{(1, 1, 0, 1, 0), (1, 1, 2, 1, 2), (2, 1, 0, 0, 0), (2, 0, 0, 1, 0), (−1, 1, 0, 0, 0), (0, 0, 1, 0, 1)}.
I primi 3 vettori sono tra loro linearmente indipendenti poiché costituiscono una ba-
se per V . Per concludere é allora sufficiente individuare uno dei 3 successivi vettori
(la base di W ), in modo tale che sia linearmente indipendente con i precedenti.
É di facile verifica il fatto che tale vettore puó essere (2, 0, 0, 1, 0), infatti la matrice
122 4 Gli Spazi Vettoriali.
1 1 0 1 0
1 1 2 1 2
2 1 0 0 0
2 0 0 1 0
Quindi l’insieme
0 0 1 0 −1
É sufficiente scambiare la terza e la quarta riga per avere una forma ridotta a gradini:
1 0 0 −1 −2
0 1 0 −1 −1
0 0 1 0 −1
000 1 4
il cui rango é 4 ed é fornito, ad esempio, dal minore non nullo di ordine 4 indivi-
duato dalle prime sue 4 colonne. Scegliamo allora e ∈ R come parametro libero e
riscriviamo il sistema:
a − d = 2e
b−d = e
c=e
d = −4e
da cui
d = −4e, c = e, b = −3e, a = −2e.
Sostituendo tali valori in uno qualsiasi dei due membri della relazione (4.3) ottenia-
mo l’espressione del generico vettore di V ∩W :
124 4 Gli Spazi Vettoriali.
per cui dim(V ∩W ) = 1 e V ∩W =< (−2, −3, −4, 1) >. Volendo riscrivere il tutto
sotto forma matriciale avremo
−2e −3e −2 −3
V ∩W = |e ∈ R = .
−4e e −4 1
e
W =< (2, 0, 0, 0, 2, 0), (1, 2, 1, 0, 4, 0) > .
Un qualsiasi vettore di V si esprime quindi nella forma
R2 → R2 − R1 , R3 → R3 − R1 , R4 → R4 − 3R1
otteniamo la seguente:
1 1 −2 −1
0 0
2 −1
.
0 −1 2 0
0 −1 4 −1
Scambiamo ora seconda e quarta riga
1 1 −2 −1
0 −1 4 −1
0 −1 2 0
0 0 2 −1
ed operiamo tramite R3 → R3 − R2 :
1 1 −2 −1
0 −1 4 −1
0 0 −2 1 .
0 0 2 −1
il cui rango é 3 ed é fornito, ad esempio, dal minore non nullo di ordine 3 individuato
dall’incrocio delle sue prime 3 righe e delle colonne C1 ,C2 ,C4 . Scegliamo allora
c ∈ R come parametro libero e riscriviamo il sistema:
126 4 Gli Spazi Vettoriali.
a + b − d = 2c
−b − d = −4c
d = 2c
da cui
d = 2c, b = 2c, a = 2c.
Sostituendo tali valori in uno qualsiasi dei due membri della relazione (4.4) ottenia-
mo l’espressione del generico vettore di V ∩W :
V ∩W = 2 + 2x + x2 + 5x4 .
In tutto ció che segue, sia V uno spazio vettoriale reale di dimensione n, senza
perdita di generalitá poniamo V = Rn . Introduciamo una base B = {e1 , . . . , en } di V
e denotiamo con
x1 y1
x2 y2
X = ... , Y = ...
... ...
xn yn
due qualsiasi vettori in V , espressi in componenti rispetto alla base B.
Definizione 5.1. Si chiama prodotto interno o scalare, una qualsiasi funzione f :
V ×V → R con le proprietá:
1. f (X, X) ≥ 0, per ogni X ∈ Rn e f (X, X) = 0 se e solo se X = 0;
2. f (X,Y ) = f (Y, X), per ogni X,Y ∈ Rn ;
3. f (αX + βY, Z) = α f (X, Z) + β f (Y, Z), per ogni X,Y, Z ∈ Rn e α, β ∈ R.
Esempio 82. Un particolare prodotto interno, chiamato prodotto scalare standard é
il seguente:
n
f (X,Y ) = X T Y = x1 y1 + x2 y2 + . . . + xn yn = ∑ xi yi
i=1
127
128 5 Prodotti scalari, basi ortonormali e proiezioni ortogonali.
f (AX,Y ) = f (X, AY ).
Definizione 5.2. Una norma di uno spazio vettoriale reale é una funzione q : V → R
che abbia le seguenti proprietá:
1. q(X) ≥ 0, per ogni X ∈ V e q(X) = 0 se e solo se X = 0;
2. q(αX) = |α|q(X), per ogni X ∈ V e α ∈ R;
3. q(X +Y ) ≤ q(X) + q(Y ), per ogni X,Y ∈ V .
Se f : V × V → R é il prodotto scalare standard, allora possiamo introdurre una
particolare norma, detta norma euclidea, nel modo seguente:
s
p n
q(X) = ||X|| = f (X, X) = ∑ xi2 .
i=1
Definizione 5.3. Uno spazio vettoriale reale V che sia dotato di un prodotto scalare,
é chiamato spazio euclideo.
Definizione 5.4. Sia f : V × V → R un prodotto scalare. Diremo che i due vettori
X,Y ∈ V sono ortogonali rispetto a f in V , se f (X,Y ) = 0.
Dalla definizione di prodotto scalare, segue che se f (X,Y ) = 0 allora f (αX, βY ) =
0, per ogni α, β ∈ R.
Osservazione 5.5. Siano X,Y ∈ V due vettori ortogonali ed entrambi non nulli.
Segue facilmente che essi sono anche linearmente indipendenti.
Infatti, supponendo che esistano α, β ∈ R (non nulli) tali che αX + βY = 0, allora
otterremmo che
Il seguente risultato ci consente di ottenere una base di uno spazio vettoriale formata
da vettori ortogonali (Algoritmo di Gram-Schmidt).
w1 = v1
f (w1 , v2 )
w2 = v2 − w1
f (w1 , w1 )
f (w1 , v3 ) f (w2 , v3 )
w3 = v3 − w1 − w2
f (w1 , w1 ) f (w2 , w2 )
f (w1 , v4 ) f (w2 , v4 ) f (w3 , v4 )
w4 = v4 − w1 − w2 − w3
f (w1 , w1 ) f (w2 , w2 ) f (w3 , w3 )
ed in generale
i
f (w j , vi+1 )
wi+1 = vi+1 − ∑ wj
j=1 f (w j , w j )
W ⊥ = {v ∈ V : f (v, w) = 0, ∀w ∈ W }.
Valgono le seguenti:
1. W ⊥ é un sottospazio di V . Infatti, per ogni X1 , X2 ∈ W ⊥ e per ogni α, β ∈ R
avremo che, per qualsiasi Y ∈ V :
Y T (αX1 + β X2 ) = αY T X1 + βY T X2 = 0
cioé αX1 + β X2 ∈ W ⊥ .
2. W ∩ W ⊥ = {0}, cioé W e W ⊥ sono in somma diretta. Infatti, se X ∈ W ∩ W ⊥ ,
allora segue che X T X = 0, da cui X = 0.
3. W ⊕ W ⊥ = V . Per dimostrarlo, scegliamo una base B = {e1 , . . . , ek } di W , con
k < n (il caso k = n sarebbe banale, poiché significherebbe W = V e W ⊥ = {0}).
Esprimiamo ogni vettore della base B tramite le sue componenti in V :
Esercizio 43. Siano V = R4 , con prodotto scalare standard. Siano v1 = (0, 1, 0, 1),
v2 = (2, 1, 0, 1), v3 = (−1, 0, 0, 1), v4 = (0, 0, 1, 0).
B = {v1 , v2 , v3 , v4 } é una base di V ma non é ortogonale. A partire da essa costruiamo
una base ortogonale.
Svolgimento:
w1 = v1 = (0, 1, 0, 1)
f (w1 , v2 )
w2 = v2 − w1 = v2 − v1 = (2, 0, 0, 0)
f (w1 , w1 )
f (w1 , v3 ) f (w2 , v3 ) 1 1 1 1
w3 = v3 − w1 − w2 = v3 − (0, 1, 0, 1)+ (2, 0, 0, 0) = (0, − , 0, )
f (w1 , w1 ) f (w2 , w2 ) 2 2 2 2
f (w1 , v4 ) f (w2 , v4 ) f (w3 , v4 )
w4 = v4 − w1 − w2 − w3 = v4 = (0, 0, 1, 0).
f (w1 , w1 ) f (w2 , w2 ) f (w3 , w3 )
I vettori w1 , w2 , w3 , w4 costituiscono una base ortogonale per V e quindi i vettori
w1 1 1
= (0, √ , 0, √ )
||w1 || 2 2
w2
= (1, 0, 0, 0)
||w2 ||
w3 1 1
= (0, − √ , 0, √ )
||w3 || 2 2
w4
= (0, 0, 1, 0)
||w4 ||
costituiscono una base ortonormale per V .
Esercizio 44. Siano V = R3 , v1 = (1, 1, 1), v2 = (0, 0, 1), v3 = (1, 0, 1). B =
{v1 , v2 , v3 } una base di V , che non é ortogonale rispetto al prodotto scalare standard.
A partire da essa costruiamo una base ortogonale.
Svolgimento:
w1 = v1 = (1, 1, 1)
f (w1 , v2 ) 1 1 2
w2 = v2 − w1 = (− , − , )
f (w1 , w1 ) 3 3 3
f (w1 , v3 ) f (w2 , v3 ) 1 1
w3 = v3 − w1 − w2 = ( , − , 0)
f (w1 , w1 ) f (w2 , w2 ) 2 2
allora B0 = {w1 , w2 , w3 } é una base ortogonale. Inoltre
p √
||w1 || = f (w1 , w1 ) = 3
5.4 Esercizi svolti. 133
√
p 6
||w2 || = f (w2 , w2 ) =
3
p 1
||w3 || = f (w3 , w3 ) = √
2
quindi i vettori
w1 1 1 1
= (√ , √ , √ )
||w1 || 3 3 3
w2 1 1 2
= (− √ , − √ , √ )
||w2 || 6 6 6
w3 1 1
= ( √ , − √ , 0)
||w3 || 2 2
costituiscono una base ortonormale per V .
Osservazione 5.17. Il Teorema 5.10 fornisce quindi una dimostrazione dell’esi-
stenza di una base ortogonale per qualsiasi spazio vettoriale euclideo e qualsiasi suo
sottospazio.
Vogliamo infine suggerire un metodo per la determinazione di una base ortogonale,
che prescinda dall’algoritmo descritto precedentemente. A tal fine, proponiamo un
paio di ulteriori esempi.
Esercizio 45. Siano V = R4 e W = {(x1 , x2 , x3 , x4 ) ∈ V : x1 + x2 − x3 = 0}. Si
determini una base ortonormale di W .
ed é ovviamente costituita da vettori non ortogonali tra loro. Per costruire una base
B0 = {w1 , w2 , w3 } di W , formata da vettori ortogonali, dapprima fissiamo arbitraria-
mente il primo, scegliendolo nella precedente base B: sia w1 = (1, 0, 1, 0).
Quindi determiniamo il secondo vettore w2 = (α, β , α +β , γ) ∈ W , tale che f (w1 , w2 ) =
0, ovvero
2α + β = 0 =⇒ w2 = (α, −2α, −α, γ), ∀α, γ ∈ R.
Possiamo quindi scegliere w2 = (1, −2, −1, 0) ∈ W , ortogonale a w1 (cioé per α = 1
e γ = 0).
Il terzo vettore dovrá quindi essere w3 = (α 0 , β 0 , α 0 +β 0 , γ 0 ) ∈ W , tale che f (w1 , w3 ) =
0 e f (w2 , w3 ) = 0, ovvero
2α 0 + β 0 = 0, −3β 0 = 0 =⇒ w3 = (0, 0, 0, γ 0 ), ∀γ 0 ∈ R.
w1 1 1
= ( √ , 0, √ , 0)
||w1 || 2 2
w2 1 2 1
= (( √ , − √ , − √ , 0)
||w2 || 6 6 6
w3
= (0, 0, 0, 1)
||w3 ||
costituiscono una base ortonormale per W .
Esercizio 46. Siano V = R5 e
w3 1 1 2
= (− √ , √ , √ , 0, 0)
||w3 || 6 6 6
w4 1 1 2 3
= ( √ , √ , 0, − √ , √ )
||w4 || 15 15 15 15
costituiscono una base ortonormale per V .
Metodo 2.
Un generico vettore di W puó essere scritto
(α + 2β + δ , α + δ , β + γ + δ , α + β , δ ) ∈ W
2
3α + 3β + 2δ = 0 =⇒ α = −β − δ
3
da cui
1 1 2
w2 = (β + δ , −β + δ , β + γ + δ , − δ , δ ), ∀β , γ, δ ∈ R.
3 3 3
Possiamo quindi scegliere β = 1, γ = 0, δ = 0 ed ottenere w2 = (1, −1, 1, 0, 0) ∈ W ,
ortogonale a w1 .
Il terzo vettore dovrá quindi essere w3 ∈ W , tale che f (w1 , w3 ) = 0 e f (w2 , w3 ) = 0,
ovvero
2
3α + 3β + 2δ = 0, 3β + γ + δ = 0 =⇒ α = β + γ, δ = −3β − γ
3
da cui
1 1 2
w3 = (− γ, −2β − γ, −2β , 2β + γ, −3β − γ), ∀β , γ ∈ R.
3 3 3
Scegliendo β = 0 e γ = −3 otteniamo w3 = (1, 1, 0, −2, 3) ∈ W , ortogonale a w1 e
w2 .
Infine l’ultimo vettore w4 ∈ W , dovrá essere tale che f (w1 , w4 ) = 0, f (w2 , w4 ) = 0
e f (w3 , w4 ) = 0, ovvero
3α + 3β + 2δ = 0, 3β + γ + δ = 0, δ = 0 =⇒ α = −β , γ = −3β
da cui
w4 = (β , −β , −2β , 0, 0), ∀β ∈ R.
Scegliendo β = −1 otteniamo w4 = (−1, 1, 2, 0, 0). I vettori w1 , w2 , w3 , w4 costitui-
scono una base ortogonale per W e quindi i vettori
136 5 Prodotti scalari, basi ortonormali e proiezioni ortogonali.
w1 1 1 1
= ( √ , √ , 0, √ , 0)
||w1 || 3 3 3
w2 1 1 1
= ( √ , − √ , √ , 0, 0)
||w2 || 3 3 3
w3 1 1 2 3
= ( √ , √ , 0, − √ , √ )
||w3 || 15 15 15 15
w4 1 1 2
= (− √ , √ , √ , 0, 0)
||w4 || 6 6 6
costituiscono una base ortonormale per W .
Notiamo che, a meno dell’ordine con cui compaiono i vettori, le due basi, ottenute
con i due differenti metodi, coincidono.
Esercizio 47. Siano V = R4 ,
Quindi W ⊥ =< (1, 0, 2, 0), (0, 1, 0, 1) >, da cui ricaviamo una base per V = R4 come
unione delle basi di W e W ⊥ :
V =< (−2, 0, 1, 0), (0, 1, 0, −1), (1, 0, 2, 0), (0, 1, 0, 1) >=
< (−2, 0, 1, 0), (0, 1, 0, −1) > ⊕ < (1, 0, 2, 0), (0, 1, 0, 1) > .
6 3 4 8
(2, 1, 1, 1) = , 0, − , 0 ∈W + , 1, , 1 ∈W ⊥
5 5 5 5
Quindi W ⊥ =< (1, 1, −1, 0), (0, 1, 0, 1) >, da cui ricaviamo una base per V = R4
come unione delle basi di W e W ⊥ :
V =< (1, 0, 1, 0), (1, −2, −1, 2), (1, 1, −1, 0), (0, 1, 0, 1) >=
< (1, 0, 1, 0), (1, −2, −1, 2) > ⊕ < (1, 1, −1, 0), (0, 1, 0, 1) > .
da cui y1 = 21 , y2 = 3
= 56 , y4 = 25 . In particolare, nella decomposizione avremo
10 , y3
1 3
(2, 1, −1, 1) = 2 (1, 0, 1, 0) + 10 (1, −2, −1, 2) +
W
6 2
5 (1, 1, −1, 0) + 5 (0, 1, 0, 1)
W⊥
Siano V = R4 e W =< (1, −1, 0, 1), (1, 0, 1, 0) > un suo sottospazio. Si determini la
proiezione ortogonale del vettore v = (2, 1, −1, 1) ∈ V su W .
Poniamo e1 = (1, 0, 1, 0) e e2 = (1, −2, −1, 2). Alla luce della formula precedente-
mente dimostrata, avremo che la proiezione di v su W é la seguente:
f (v, e1 ) f (v, e2 )
w= e1 + e2 .
f (e1 , e1 ) f (e2 , e2 )
da cui
1 3 1 1 3 3 3 3 4 3 1 3
w = e1 + e2 = ( , 0, , 0) + ( , − , − , ) = ( , − , , ).
2 10 2 2 10 5 10 5 5 5 5 5
Capitolo 6
Equazioni cartesiane di un sottospazio vettoriale.
139
140 6 Equazioni cartesiane di un sottospazio vettoriale.
Esercizio 50. Siano V = R4 e W =< (1, 1, 0, 0), (1, 0, 0, 1), (0, 1, 1, 0) > un suo
sottospazio. Si determinino le equazioni cartesiane di W .
a + b = 0, a + d = 0, b + c = 0 =⇒ Y = (−d, d, −d, d) ∀d ∈ R.
−x1 + x2 − x3 + x4 = 0.
a + 2b − 2c − 2d = 0, a + b − c − d = 0 =⇒ Y = (0, c + d, c, d) ∀a, c ∈ R.
Siano
e1 = (a11 , a21 , . . . , an1 )
e2 = (a12 , a22 , . . . , an2 )
... ... ...
ek = (a1k , a2k , . . . , ank )
le componenti dei vettori della base di W , e sia X = [x1 , . . . , xn ]T un qualsiasi vettore
di W . Tale vettore é ovviamente linearmente dipendente da e1 , . . . , ek , per cui la
n-upla (x1 , . . . , xn ) é linearmente dipendente dalle n-uple
Quindi la matrice
a11 a12 . . . . . . . . . a1k x1
a21
a22 . . . . . . . . . a2k x2
a31
a32 . . . . . . . . . a3k x3
a41
a42 . . . . . . . . . a4k x4
... ... ... ... ... ... ...
... ... ... ... ... ... ...
... ... ... ... ... ... ...
an1 an2 . . . . . . . . . ank xn
ottenuta disponendo i vettori generatori di W nelle prime k colonne, ed aggiungendo
una ulteriore colonna formata dalle componenti (x1 , . . . , xn ) del generico vettore X
di W , deve avere rango k. In particolare tale rango deve provenire dalle prime k
colonne.
Quindi, riducendo tale matrice, noteremo che le ultime n − k righe si annulleranno
completamente, eccetto che nella colonna k + 1:
0 0
a11 a12 . . . . . . . . . a01k ∑ α1,i xi
0 a0 a0 . . . . . . a0 ∑ α2,i xi
22 23 2k
0 0 a0 a0 . . . a0 ∑ α2,i xi
33 34 3k
0 0 ... ... ... ... ...
0 0 . . . . . . . . . a0 ∑ αk,i xi
kk
0 0 . . . . . . 0 0 ∑ αk+1,i xi
0 0 . . . . . . 0 0 ∑ αk+2,i xi
... ... ... ... ... ... ...
... ... ... ... ... ... ...
0 0 . . . . . . 0 0 ∑ αn,i xi
0 0 x4 + x2
Poiché le ultime 2 righe devono essere nulle, otteniamo le equazioni
x2 + x3 = 0
.
x2 + x4 = 0
Capitolo 7
Le applicazioni lineari.
7.1 Introduzione.
145
146 7 Le applicazioni lineari.
sottospazio di dimensione 2 di R4 .
Esempio 88. Sia f : R4 → R3 definita da f (x1 , x2 , x3 , x4 ) = (x1 +x2 , x2 −x3 , x1 +x3 ),
scegliendo di esprimere i vettori di dominio e codominio in componenti rispetto alle
rispettive basi canoniche. Sia w ∈ Im( f ), allora w = (a1 , a2 , a3 ) tali che
x1 + x2 = a1
x2 − x3 = a2
x1 + x3 = a3
sottospazio di dimensione 2 di R3 .
Esempio 89. Sia f : R3 → R4 definita da f (x1 , x2 , x3 ) = (x1 , x1 + x2 − x3 , 2x1 + x2 −
x3 , x2 − x3 ), scegliendo di esprimere i vettori di dominio e codominio in componenti
rispetto alle rispettive basi canoniche. Sia w ∈ Im( f ), allora w = (a1 , a2 , a3 , a4 ) tali
che
x1 = a1
x1 + x2 − x3 = a2
2x1 + x2 − x3 = a3
x2 − x3 = a4
sottospazio di dimensione 2 di R4 .
Esempio 90. Sia f : R4 → R3 definita da f (x1 , x2 , x3 , x4 ) = (x1 − x2 , 2x1 − x2 +
x4 , −x1 + x2 + x4 ), scegliendo di esprimere i vettori di dominio e codominio in com-
ponenti rispetto alle rispettive basi canoniche. Sia w ∈ Im( f ), allora w = (a1 , a2 , a3 )
tali che
7.1 Introduzione. 147
x1 − x2 = a1
2x1 − x2 + x4 = a2
−x1 + x2 + x4 = a3
N( f ) = {u ∈ U : f (u) = 0V }
cioé l’insieme dei vettori di U che hanno come immagine in V il vettore nullo.
Osservazione 7.6. Anche in questo caso é facile notare che N( f ) é un sottospazio
vettoriale di U. Infatti, data l’applicazione lineare f : U → V e scelti due vettori
u1 , u2 ∈ N( f ), avremo che 0 = f (u1 ) + f (u2 ) = f (u1 + u2 ), per cui u1 + u2 ∈ N( f ).
Inoltre, per ogni α ∈ R e per ogni u ∈ N( f ), avremo 0 = α f (u) = f (αu), da cui
segue che αu ∈ N( f ).
Esempio 91. Sia f : R3 → R4 definita da f (x1 , x2 , x3 ) = (x1 , 0, x3 , 0), scegliendo
di esprimere i vettori di dominio e codominio in componenti rispetto alle rispettive
basi canoniche. Sia u ∈ N( f ), allora f (u) = (0, 0, 0, 0) quindi
x1 = 0
x3 = 0
da cui u = (0, x2 , 0)
sottospazio di dimensione 1 di R3 .
Esempio 92. f : R4 → R3 sia definita da f (x1 , x2 , x3 , x4 ) = (x1 +x2 , x2 −x3 , x1 +x3 ).
Sia u ∈ N( f ), allora f (u) = (0, 0, 0) quindi
x1 + x2 = 0
x2 − x3 = 0
x1 + x3 = 0
N( f ) = {(a, −a, −a, b) : a, b ∈ R} =< (1, −1, −1, 0), (0, 0, 0, 1) >
sottospazio di dimensione 2 di R4 .
Esempio 93. Sia f : R3 → R4 definita da f (x1 , x2 , x3 ) = (x1 , x1 + x2 − x3 , 2x1 + x2 −
x3 , x2 − x3 ), scegliendo di esprimere i vettori di dominio e codominio in componenti
rispetto alle rispettive basi canoniche. Sia u ∈ N( f ), allora f (u) = (0, 0, 0, 0) quindi
x1 = 0
x1 + x2 − x3 = 0
2x1 + x2 − x3 = 0
x2 − x3 = 0
da cui u = (0, x2 , x2 )
sottospazio di dimensione 1 di R3 .
Esempio 94. Sia f : R4 → R3 definita da f (x1 , x2 , x3 , x4 ) = (x1 − x2 , 2x1 − x2 +
x4 , −x1 + x2 + x4 ), scegliendo di esprimere i vettori di dominio e codominio in com-
ponenti rispetto alle rispettive basi canoniche. Sia u ∈ N( f ), allora f (u) = (0, 0, 0, 0)
quindi
x1 − x2 = 0
2x1 − x2 + x4 = 0
−x1 + x2 + x4 = 0
da cui x1 = x2 = x4 = 0 e u = (0, 0, x3 , 0)
sottospazio di dimensione 1 di R4 .
Teorema 7.7. Una applicazione lineare f : U → V é iniettiva se e solo se N( f ) =
{0U }, cioé se il nucleo di f é il sottospazio banale di U.
Notiamo quindi che Im( f )é generato dall’insieme { f (e1 ), . . . , f (en )}.
Diremo matrice associata all’applicazione lineare f rispetto alle basi B nel dominio
e B0 nel codominio, la matrice che si ottiene nel seguente modo: la sua colonna j
é formata dalle componenti rispetto alla base B0 dell’immagine f (e j ) del vettore e j
della base B. Concludiamo allora che ad ogni applicazione lineare f é associata una
matrice che dipende dalle basi scelte per il dominio e codominio di f .
Sia quindi
a11 a12 . . . a1n
a21 a22 . . . a2n
A= ... ... ... ...
A · X = Y.
Viceversa sia data una qualsiasi matrice A ∈ Mmn (R) e siano al solito U e V spazi
vettoriali rispettivamente di dimensioni n e m. Siano B = {e1 , . . . , en } una base per
U, e B0 = {e01 , . . . , e0m } una per V . Costruiamo la seguente corrispondenza tra i due
spazi vettoriali:
f (X) = A · X ∈ V, per ogni X ∈ U
nella quale il vettore X ∈ U sia espresso per componenti rispetto alla base B e Y ∈ V
per componenti rispetto alla base B0 . La corrispondenza f é ovviamente lineare.
150 7 Le applicazioni lineari.
Quanto detto fin’ora si puó riassumere nel modo seguente: dati due spazi vettoriali
U e V di dimensioni rispettivamente n e m su di un campo K, e fissate due basi
per ciascuno di essi, ogni matrice m × n corrisponde ad una applicazione lineare e
viceversa.
Inoltre, la matrice associata ad una applicazione lineare f : U → V , una volta fissate
le basi per il dominio ed il codominio, é unica. Infatti, se supponessimo di avere
due matrici A, A0 associate a f , rispetto alle basi B = {e1 , . . . , en } del dominio U, e
B0 = {e01 , . . . , e0m } del codominio V , seguirebbe che (A − A0 )u = 0, per ogni u ∈ U.
Ma ogni vettore ei ∈ B é espresso per componenti rispetto a B tramite il vettore
Xi = [0, . . . , 0, 1, 0, . . . , 0], ∀i = 1, . . . , n.
| {z } | {z }
i−1 n−i
f (αr+1 cr+1 + . . . . . . + αn cn ) = 0
αr+1 cr+1 + · · · + αn cn = β1 b1 + · · · + βr br
che contraddice il fatto che i vettori {b1 , . . . , br , cr+1 , . . . , cn } debbano essere li-
nearmente indipendenti. Questo vuol dire che αr+1 cr+1 + . . . . . . + αn cn = 0, e dal-
la indipendenza lineare dei vettori cr+1 , . . . , cn segue che αi = 0, per ogni i =
r + 1, . . . , n.
Infine, essendo { f (cr+1 ), . . . , f (cn )} una base per Im( f ), allora dim(Im( f )) = n −
r = dim(U) − dim(N( f )), da cui la formula. t
u
Esempio 95. Sia f : R3 → R4 definita da f (x1 , x2 , x3 ) = (x1 , x1 + x2 − x3 , 2x1 + x2 −
x3 , x2 − x3 ), scegliendo di esprimere i vettori di dominio e codominio in componenti
rispetto alle rispettive basi canoniche. Abbiamo visto in un esempio precedente che
rispetto alle basi canoniche sia nel dominio che nel codominio. Determiniamo la
matrice associata alla f .
Svolg.
f (1, 0) = (1, 0, 1)
f (0, 1) = (2, 3, 0)
12
A = 0 3 .
10
Il rango della matrice é 2, quindi dim(Im( f )) = 2 e Im( f ) =< (1, 0, 1), (2, 3, 0) >.
Perció dim(N( f )) = 0 e N( f ) = {0}. L’applicazione é iniettiva ma non suriettiva.
t
u
Esempio 97. Ripetiamo l’esempio precedente ma ora esprimiamo la matrice asso-
ciata a due basi differenti da quelle canoniche:
Svolg. Per costruire tale matrice dobbiamo calcolare le immagini dei vettori della
base B2 . Tali immagini si possono calcolare sfruttando la matrice A associata alla f
rispetto alle basi canoniche:
12 3
1
f (1, 1) = 0 3 · = 3
1
10 1
12 4
2
f (2, 1) = 0 3 · = 3 .
1
10 2
Ora conosciamo le immagini,ma esse sono espresse rispetto alla base canonica di
R3 , dobbiamo quindi convertirle rispetto alla base B3 :
f (e1 ) = (1, 1, 1, 0)
f (e2 ) = (1, 0, 1, 0)
f (e3 ) = (0, 0, 0, 1).
La matrice associata a f rispetto alle basi canoniche in R3 ed in R4 é allora
110
1 0 0
A= 1 1 0
001
f (x1 , x2 , x3 , x4 , x5 ) = (x1 − x4 , x2 − x4 , x3 ).
Svolg.
1 0 0 −1 0
A = 0 1 0 −1 0
001 0 0
che ha rango 3. Quindi dim(Im( f )) = 3 ( f é suriettiva) e dim(N( f )) = 2 ( f non é
iniettiva).
154 7 Le applicazioni lineari.
t
u
Esempio 100. Sia f : R3 → R4 definito da
f (x1 , x2 , x3 ) = (5x1 + 4x2 − 9x3 , 4x1 + 5x2 − 9x3 , −9x1 − 9x2 + 9x3 , x1 + x2 + x3 ).
Svolg.
5 4 −9
4 5 −9
−9 −9 9 .
A=
1 1 1
Determiniamo la matrice associata a f rispetto alla base
ed in modo analogo
f (1, 0, −1) = (14, 13, −18, 0) f (0, 1, −1) = (13, 14, −18, 0).
2 0 0
t
u
Esempio 101. Sia f : R4 → R2 con matrice associata
7.2 Applicazioni lineari e matrici. 155
1 00 1
A=
−1 1 2 −1
Svolg. Per prima cosa esprimiamo i vettori della base canonica di R4 per compo-
nenti rispetto alla base B4 :
ed analogamente
f (1, −1, 0, 0) = (1, −2)
f (0, 0, 0, 1) = (1, −1)
f (0, −2, 1, 0) = (0, 0).
Tali immagini sono espresse per componenti rispetto alla base B2 e quindi dobbiamo
ora convertirle per componenti rispetto alla base canonica C2 di R2 :
−1 0 −1 0
Determiniamo la matrice associata a f rispetto alla base B anche nel codominio.
−1 0 −1 0 0 0
ed analogamente
f (0, 0, 1, −1) = (0, −1, −1, −1)
f (0, 0, 0, 1) = (1, 1, 2, 0)
f (−1, 1, 0, 0) = (−3, 0, 1, 1)
ed é chiaro che, avendo usato la matrice A, i risultati sono giá espressi per compo-
nenti rispetto alla base canonica. Quindi la matrice associata a f rispetto alla base
canonica sia nel dominio che nel codominio é
−1 0 1 −3
0 −1 1 0
A00 =
1 −1 2 1
0 −1 0 1
t
u
Esempio 103. Sia f : R3 → R3 associato alla matrice
112
A = 2 1 3
314
t
u
Esempio 105. Siano V = R2 [x], W = R3 [x] rispettivamente gli spazi vettoriali
dei polinomi di secondo e terzo grado nella variabile x. Definiamo la seguente
applicazione lineare f : V → W , rispetto alle basi
CV = {x + 1, x2 + 1, x2 + x} nel dominio
x + 1 = (1, 1, 0)BV
x2 + 1 = (1, 0, 1)BV
x2 + x = (0, 1, 1)BV .
L’immagine di tali vettori tramite f é il prodotto di ciascuno di essi per la matrice A
associata:
000
0 0 0 1 2
0 1 2 · 1 = (0, 0, 1, 0)BW = x
f (1, 1, 0) =
0
002
000
0 0 0 1 2 3
f (1, 0, 1) = 0 1 2 · 0 = (0, 0, 2, 2)BW = 2x + 2x
1
002
000
0 0 0 0 2 3
f (0, 1, 1) = 0 1 2 · 1 = (0, 0, 3, 2)BW = 3x + 2x
1
002
Esprimiamo infine tali vettori per componenti rispetto alla base CW .
x2 = αx + β (x3 + 1) + γ(x + 1) + δ x2
cioé
x2 = (β + γ) + (α + γ)x + δ x2 + β x3
ed uguagliando i monomi simili, segue β = 0, γ = −β = 0, α = −γ = 0, δ = 1:
7.3 Applicazioni lineari e cambiamento di base. 161
x2 = (0, 0, 0, 1)CW
Analogamente:
2x2 + 2x3 = (2, 2, −2, 2)CW
3x2 + 2x3 = (2, 2, −2, 3)CW
e la matrice associata é:
0 2 2
0 2 2
A0 =
0 −2 −2
1 2 3
t
u
AX = Y. (7.1)
Al variare della scelta delle basi, varia anche la matrice che rappresenta f . Sup-
poniamo quindi di scegliere le basi B0 nel dominio U, E 0 nel codominio V e sia
A0 ∈ Mmn (K) la matrice associata a f rispetto a tali basi. Il vettore u ∈ U sará rap-
presentato dalla n-upla di componenti X 0 = [x10 , . . . , xn0 ]T rispetto alla base B0 , mentre
l’immagine v ∈ V sará rappresentato dalla m-upla di componenti Y 0 = [y01 , . . . , y0m ]T
rispetto alla base E 0 . In tali condizioni, la corrispondenza f (u) = v é ottenuta tramite
l’utilizzo della matrice A0 , ovvero
A0 X 0 = Y 0 . (7.2)
ovvero
(DAC)X 0 = Y 0 . (7.3)
Infine, confrontando (7.3) e (7.2), e ricordando che la matrice associata a f , rispetto
alle basi B0 nel dominio ed E 0 nel codominio, é unica, otteniamo
A0 = DAC.
Poniamoci adesso nel caso particolare in cui U = V . In letteratura una tale appli-
cazione lineare f : V → V é detta endomorfismo od anche operatore lineare. In tali
condizioni, possiamo scegliere una stessa base sia per il dominio che per il codo-
minio. Facendo riferimento alle basi introdotte nel caso generale, poniamo B = E e
B0 = E 0 . Per cui, la matrice A rappresenta l’endomorfismo f in relazione alla scelta
della base B (in dominio e codominio), mentre la matrice A0 rappresenta l’endomor-
fismo in relazione alla scelta della base B0 in dominio e codominio.
Appare chiaro che le matrici di cambiamento di basi, C nel domino e D nel codomi-
nio, sono l’una l’inversa dell’altra. Concludiamo allora che, nel caso di endomorfi-
smi, la relazione che intercorre tra le matrici A e A0 , associate a due distinte basi di
V é la seguente:
A0 = C−1 · A ·C.
Ció vuol dire che le matrici associate ad uno stesso endomorfismo, relativamente a
basi differenti, sono tra loro tutte simili.
Esempio 106. Siano V = R3 ,
da cui
1 −1 −1 101 1 1 0
A0 = C · A ·C−1 = 0 1 1 · 1 0 0 · 1 2 −1 =
1 0 1 011 −1 −1 1
−1 −2 1
1 2 0 .
0 1 1
164 7 Le applicazioni lineari.
t
u
Per cui il problema che ci proponiamo di risolvere é il seguente : in quali casi esiste
una base di V rispetto alla quale la matrice associata ad un endomorfismo di V
sia diagonale? Osserviamo che nel caso ció sia possibile, la forma diagonale della
matrice é rappresentativa di ogni altra matrice associata a f in ogni altra base, e tali
matrici sono tra di esse tutte simili.
Esempio 107. Siano V = R3 ,
da cui
1 0 0 1 00 100
A0 = C · A ·C−1 = −1 1 0 · −1 2 0 · 1 1 0 =
0 −1 1 −1 1 1 111
100
0 2 0
001
e l’endomorfismo rispetto alla base B0 si esprime:
100 x1 x1
f (X) = 0 2 0 · x2 = 2x2 .
001 x3 x3
t
u
rispetto alla base canonica di R4 , e W =< (0, 0, 1, 1), (1, −1, 0, 0) > un sottospazio
di R4 .
Osserviamo inizialmente che un qualsiasi vettore X ∈ W si esprime con la 4-upla
(β , −β , α, α) al variare di α, β ∈ R. L’immagine di un tale vettore é quindi
1200 β −β 0 1
2 1 0 0 −β β 0 −1
f (X) = 1 1 1 2 · α = 3α = 3α 1 − β 0 ∈ W
1121 α 3α 1 0
1121 1 3 1
per cui
f (0, 0, 1, 1) = (3, 0)B .
Analogamente
1 2 0 0 1 −1 1
· −1 = 1 = − −1
2 1 0 0
f (1, −1, 0, 0) =
1 1 1 2 0 0 0
1 1 2 1 0 0 0
per cui
f (−1, 1, 0, 0) = (0, −1)B .
1 0
L’immagine é quindi generata dai vettori le cui componenti rispetto alla base D sono
espresse nelle colonne di A. Quindi Im( f ) é generata da
Tali vettori sono anche linearmente indipendenti, per cui costituiscono una ba-
se per Im( f ). Determiniamo quindi quali siano i vettori in questione, calcolan-
do le combinazioni lineari dei vettori di D tramite le componenti (1, 1, 0, 1)D e
(1, −1, 1, 0)D :
e
(1, −1, 1, 0)D = (1, 2, 0, 0) − (0, 1, 0, 0) + (0, 1, 1, 0) = (1, 2, 1, 0).
Abbiamo quindi che Im( f ) =< (1, 3, 0, 1), 1, 2, 1, 0) >.
Passiamo al nucleo N( f ). Sarebbe sufficiente risolvere il sistema lineare omogeneo
AX = 0, in cui X = [x1 x2 ]TB é il vettore del dominio espresso per componenti
dim(R2 ) = dim N( f ) + dim Im( f ) ,
rispetto alla base B. Ciononostante, poiché
in questo caso é chiaro che dim N( f ) = 0, cioé N( f ) = {0}.
Esercizio 57. Sia f : R5 → R4 una applicazione lineare definita da
f (x1 , x2 , x3 , x4 , x5 ) = (x1 − x2 , x2 + x3 , x2 + x3 , x1 − x5 )
B = {(1, 1, 0, 0, 0), (2, 1, 0, 0, 0), (0, 0, 1, 1, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)}
nel dominio e
D = {(1, 2, 0, 0), (0, 1, 0, 0), (0, 1, 1, 0), (0, 0, 0, 1)} nel codominio.
1 0 0 0 −1
x1 = x2 = x5 , x3 = −x2 .
mentre il secondo vettore (0, 0, 0, 1, 0)B , avendo solo la quarta componente non
nulla, é pari a (0, 0, 0, 1, 0). In definitiva
Constatiamo che le prime tre colonne di A sono linearmente indipendenti, per cui
una base di Im( f ) é data da
dove i vettori sono espressi per componenti rispetto alla base D del codominio.
Esprimendo i vettori come combinazione lineare delle loro componenti rispetto ai
vettori di D, otteniamo
rispetto alle basi B = {(1, 1), (1, 0)} nel dominio e D = {(2, 1), (0, 1)} nel codomi-
nio. Si determini la matrice A0 associata alla f rispetto alle basi B0 = {(1, 2), (0, 1)}
nel dominio e D0 = {(1, 1), (−1, 1)} nel codominio.
170 7 Le applicazioni lineari.
é 7 3
A = 21 21 .
−2 −2
rispetto alle basi B = {(1, 1), (1, 2)} nel dominio e D = {(1, 1, 1), (1, 0, 0), (1, 0, 2)}
nel codominio. Si determini la matrice A0 associata alla f rispetto alle basi B0 =
{(0, 1), (2, 1)} nel dominio e D0 = {(1, , 0, 1), (1, 0, 0), (1, 1, 2)} nel codominio.
a B:
(0, 1) = (−1, 1)B , (2, 1) = (3, −1)B .
Calcolo delle immagini dei vettori della base B0 tramite l’utilizzo della matrice A:
11 0
−1
f (0, 1) = 1 2 · = 1 = (1, 0, 0) + (1, 0, 2) = (2, 0, 2)
1 B
01 1 D
1 1
3
f (2, 1) = 1 2 ·
−1 B
0 1
2
= 1 = 2(1, 1, 1) + (1, 0, 0) − (1, 0, 2) = (2, 2, 0).
−1 D
Per concludere esprimiamo le immagini ottenute tramite le rispettive componenti
rispetto alla nuova base D0 del codominio:
Esercizio 60. Sia f : R3 [X] → R2 [X] una applicazione lineare alla quale sia asso-
ciata la seguente matrice
−1 0 −1 2
A = 1 0 1 0
0 3 0 0
rispetto alle basi B = {x, x3 + 1, x + 1, x2 } nel dominio e D = {x, 1 + x, x2 } nel
codominio.
1. Si determini la matrice A0 associata alla f rispetto alle basi B0 = {x − 1, x2 +
1, x, x3 } nel dominio e D0 = {x − 1, x2 + 1, 1} nel codominio.
2. Si determinino una base per il nucleo ed una per l’immagine di f .
−1
−1 0 −1 2 2
0
f (1, 0, 1, 0) = 1 0 1 0 ·
1
= 0 = 2(0, 1, 0) = (0, 2, 0)
0 3 0 0 0 D
1 B
1
−1 0 −1 2
0
f (0, 1, 0, 0) = 1 0 1 0 ·
0
0 3 0 0
0 B
−1
= 1 = −(0, 1, 0) + (1, 1, 0) = (1, 0, 0)
0 D
ed infine
7.4 Esercizi svolti. 173
−1
−1 0 −1 2 0 2
f (1, 0, 1, 0) = 1 0 1 0 · = 0 = 2(0, 1, 0) = (0, 2, 0)
1
0 3 0 0 0 D
1 B
1
−1 0 −1 2 0
1
f (0, 0, 0, 1) = 1 0 1 0 · = 0 = 3(0, 0, 1) = (0, 0, 3).
−1
0 3 0 0 3 D
0 B
(1, 0, 0) = (0, 0, 1)D0 questo calcolo si ripete anche per il terzo vettore immagine
Esercizio 61. Sia f : R3 → R2 una applicazione lineare alla quale sia associata la
seguente matrice
121
A=
112
rispetto alle basi
e
D = {(1, 1), (2, 1)} nel codominio.
Si determini la matrice A0 associata alla f rispetto alle basi
e
D0 = {(1, 2), (1, 0)} nel codominio.
Svolgimento: In tale caso vogliamo sfruttare la relazione che intercorre tra le ma-
trici associate ad un omomorfismo, rispetto a scelte differenti delle basi di dominio
e/o codominio. Precisamente, dette C ∈ M3 (R) la matrice di transizione da B0 a B, e
P ∈ M2 (R) la matrice di transizione da D a D0 , avremo
A0 = PAC.
4 1 1
(2, 1, 0) = ( , − , )B
3 3 3
da cui
− 13 1 4
3 3
1
C= 3 − 13 − 13 .
2 1 1
3 3 3
Analogamente, per determinare P dobbiamo calcolare le componenti di ciascuno
dei vettori della base D rispetto alla base D0 :
1 1
(1, 1) = ( , )D0
2 2
1 3
(2, 1) = ( , )D0
2 2
da cui 1 1
P= 2 2 .
1
2 − 32
Infine abbiamo:
A0 = P · A ·C
−1 1 4
1 1
2 2 1 2 1 13 31 31
= 1 · · 3 −3 −3
2 − 32 112 2 1 1
3 3 3
7 1 4
= 6 3 3 .
− 32 −1 −2
transizione necessarie per poter ottenere A0 , sono l’una l’inversa dell’altra. Ovvero
detta C ∈ M3 (R) la matrice di transizione da B0 a B, allora P = C−1 ∈ M3 (R) é la
matrice di transizione da B a B0 . Dovremo quindi calcolare
A0 = C−1 AC.
177
178 8 La forma canonica di un operatore lineare.
a11 x1 + a12 x2 + . . . + a1n xn = λ x1
a21 x1 + a22 x2 + . . . + a2n xn = λ x2
..........
an1 x1 + an2 x2 + . . . + ann xn = λ xn
Tale sistema ammette soluzioni non banali solo quando p(h) = det(A − λ I) = 0. Il
polinomio p(h) = det(A − λ I) é detto polinomio caratteristico di f (o di A) ed ha
grado n. Analogamente l’equazione p(λ ) = 0 é detta equazione caratteristica di f
(o di A) ed ha n soluzioni (in K o non in K, distinte o coincidenti).
Si osservi che da ora in poi ci riferiremo al polinomio caratteristico di un endomor-
fismo o di una matrice ad esso associata senza alcuna distinzione.
Le radici del polinomio caratteristico che appartengano al campo K, sono quindi
gli autovalori di f . In corrispondenza di ciascun autovalore h0 , il sistema lineare
omogeneo (A − h0 I)X = 0 ammette sempre soluzioni non banali. I vettori X che
ricoprono l’insieme V0 di tali soluzioni non banali sono quindi gli autovettori di f
relativi all’autovalore h0
V0 = {0 6= X ∈ V, (A − h0 I)X = 0}.
t
u
Esempio 109. Siano V = R2 ,
ef : R2 → R2
con matrice associata rispetto alla base
canonica sia nel dominio che nel codominio:
8.1 Autovalori ed autovettori di un endomorfismo. 179
0 −1
A= .
1 0
cioé
(h + 1)(−h2 + 6h − 5) = 0.
Tali soluzioni sono: h1 = −1, h2 = 5, h3 = 1, ciascuna con molteplicitá algebrica 1
come radici del polinomio caratteristico.
Determiniamo gli autospazi relativi a ciascun autovalore:
Per h1 = −1,
222
A − h1 I = 1 4 1
222
ed il sistema lineare omogeneo associato é:
2x1 + 2x2 + 2x3 = 0
x1 + 4x2 + x3 = 0 .
2x1 + 2x2 + 2x3 = 0
V1 = {(−a, 0, a) ∈ R3 , a ∈ R}
con dim(V1 ) = 1.
Per h2 = 5,
−4 2 2
A − h2 I = 1 −2 1
2 2 −4
180 8 La forma canonica di un operatore lineare.
V3 = {(a, −a, a) ∈ R3 , a ∈ R}
con dim(V3 ) = 1.
Definizione 8.4. Chiameremo molteplicitá algebrica di un autovalore, la sua mol-
teplicitá come radice del polinomio caratteristico e molteplicitá geometrica di un
autovalore, la dimensione dell’autospazio associato ad esso.
Osservazione 8.5. Una matrice triangolare (superiore od inferiore) ha come auto-
valori gli elementi presenti sulla sua diagonale principale.
Poniamoci ad esempio nel caso di una triangolare superiore:
a11 a12 a13 . . . . . . . . . a1n
0 a22 a23 . . . . . . . . . a2n
0 0 a33 . . . . . . . . . a3n
A= ... ... ... ... ... ... ...
... ... ... ... ... ... ...
. . . . . . . . . . . . . . . an−1,n−1 an−1,n
0 0 0 0 ... ... ann
8.1 Autovalori ed autovettori di un endomorfismo. 181
allora
a11 − h a12 a13 . . . . . . ... a1n
0 a22 − h a23 . . . . . . ... a2n
0
0 a33 − h . . . . . . ... a3n
A − hI =
... ... ... ... ... ... ...
... ... ... ... ... ... ...
... ... . . . . . . . . . an−1,n−1 − h an−1,n
0 0 0 0 ... ... ann − h
(CBC−1 )Xi = hi Xi
B(C−1 Xi ) = hi (C−1 Xi )
cioé h1 , . . . , hm sono anche autovalori di B, con autovettori corrispondenti Yi =
C−1 Xi . t
u
Teorema 8.7. Sia f : V −→ V un endomorfismo su uno spazio vettoriale V di di-
mensione n sul campo K, con matrice associata A, e sia h0 un autovalore di f con
molteplicitá algebrica r. Indichiamo con t la dimensione dell’autospazio V0 di f
relativo all’autovalore h0 . Allora t ≤ r.
Poiché A e A0 sono simili, esse hanno gli stessi autovalori. In particolare il polinomio
caratteristico di A0 é : p(h) = (h − h0 )t · µ(h), dove µ(h) é il polinomio caratteristico
della matrice A2 . Quindi h0 compare almeno t-volte come radice del polinomio
p(h), di conseguenza la sua molteplicitá algebrica é almeno t, anche come radice
del polinomio caratteristico di A. t
u
Teorema 8.8. Siano h1 , . . . , hm autovalori distinti di f e X1 , . . . , Xm autovettori di f
tali che ogni Xi sia autovettore relativo a hi , per ogni i = 1, . . . , m. Allora i vettori
X1 , . . . , Xm sono linearmente indipendenti.
(2) ⇒ (3) Supponiamo ora che per ogni autovalore hi , la sua molteplicitá alge-
brica ai coincida con la sua molteplicitá geometrica gi = dim(Vi ) (la dimensione
dell’autospazio relativo a hi ). Allora si ha che
cioé
V1 ⊕V2 ⊕ . . . . ⊕Vm = V = Rn
ed inoltre l’unione delle basi di tutti gli autospazi costituisce una base di V = Rn .
(3) ⇒ (1) Infine supponiamo che esista una base di Rn formata da autovettori
di A. Esistono allora X1 , . . . , Xn autovettori in Rn che siano tra loro linearmente
indipendenti. Ricordiamo che gli autovalori sono in numero di n, anche se non
tutti necessariamente distinti. Indichiamo adesso λ1 , . . . , λn tali autovalori, m dei
quali siano distinti (m ≤ n). Allora:
cioé
(1 − h)2 (4 − h) = 0.
Tali soluzioni sono: h1 = 4, con molteplicitá algebrica a1 = 1 e h2 = 1, con
molteplicitá algebrica a2 = 2.
Determiniamo gli autospazi relativi a ciascun autovalore:
Per h1 = 4,
−3 0 0
A − h1 I = 0 −3 0
1 0 0
ed il sistema lineare omogeneo associato é:
−3x1 = 0
−3x2 = 0 .
x1 = 0
V2 = {(−3a, b, a) ∈ R3 , a, b ∈ R}
cioé
(1 − h)3 = 0.
Tali soluzioni sono: h1 = 1, con molteplicitá algebrica a1 = 3.
Determiniamo l’autospazio relativo all’unico autovalore:
001
A − h1 I = 0 0 1
000
cioé
(2 − h)(h2 − 3h) = 0.
Tali soluzioni sono: h1 = 2, con molteplicitá algebrica a1 = 1, h2 = 0, con moltepli-
citá algebrica a2 = 1, h3 = 3, con molteplicitá algebrica a3 = 1.
Determiniamo gli autospazi relativi a ciascun autovalore:
Per h1 = 2,
0 0 1
A − h1 I = 0 0 −1
1 −1 −1
ed il sistema lineare omogeneo associato é:
x3 = 0
.
x1 − x2 − x3 = 0
P = 1 12 −1 .
0 1 1
Esempio 114. Siano V = R3 e f : R3 → R3 tale che f (x1 , x2 , x3 ) = (3x1 +x2 , 3x2 , 3x1 ).
La matrice associata a f rispetto alla base canonica di R3 é:
310
A = 0 3 0 .
300
cioé
−h(3 − h)2 = 0.
Tali soluzioni sono: h1 = 0, con molteplicitá algebrica a1 = 1, h2 = 3, con moltepli-
citá algebrica a2 = 2,
Determiniamo gli autospazi relativi a ciascun autovalore:
Per h1 = 0,
190 8 La forma canonica di un operatore lineare.
310
A − h1 I = 0 3 0
300
ed il sistema lineare omogeneo associato é:
3x1 + x2 = 0
3x2 = 0 .
3x1 = 0
Ci occupiamo infine della classe delle matrici simmetriche reali (ovvero della classe
degli endomorfismi rappresentati da matrici simmetriche reali). Se un endomorfismo
f : Rn → Rn é rappresentato, rispetto ad una qualsiasi base di Rn , da una matrice
simmetrica, esso viene detto operatore simmetrico (reale).
8.2 Endomorfismi diagonalizzabili. 191
Premettiamo la seguente:
Definizione 8.11. Diremo che l’endomorfismo f : Rn → Rn é ortogonalmente dia-
gonalizzabile se esiste una base ortonormale di Rn , rispetto alla quale la matrice
associata a f sia diagonale.
Analogamente diremo che una matrice A é ortogonalmente diagonalizzabile se
esiste una matrice ortogonale U tale che U −1 · A ·U sia diagonale.
In quanto segue faremo uso del prodotto scalare tra vettori dello spazio euclideo
V = Rn : Denoteremo con
x1 y1
x2 y2
X = ... , Y = ...
... ...
xn yn
Inoltre é noto che due vettori sono detti ortogonali se il loro prodotto scalare é nullo.
Infine ricordiamo anche che per ogni spazio euclideo (e per ogni suo sottospazio) é
sempre possibile costruire una base formata da vettori ortogonali tra loro e di norma
pari a 1 (vettori ortonormali).
Consideriamo adesso alcune proprietá delle matrici simmetriche.
Lemma 8.12. Siano λ1 6= λ2 autovalori distinti di una matrice A ∈ Mn (R) sim-
metrica e X1 , X2 due autovettori corrispondenti rispettivamnte a λ1 e λ2 . Allora
X2T X1 = 0 (cioé i due autovettori sono ortogonali).
e
X1T AX2 = λ2 X1T X2 . (8.5)
Trasponendo ambo i membri dell (8.5) otteniamo:
Sottraiamo ora la (8.6) dalla (8.4), ottenendo 0 = (λ1 − λ2 )X2T X1 , da cui X2T X1 = 0.
Si noti che la ortogonalitá tra due vettori implica la loro indipendenza lineare. t
u
Lemma 8.13. Tutti gli autovalori di una matrice simmetrica A ∈ Mn (R) sono reali.
192 8 La forma canonica di un operatore lineare.
AX = λ X, X 6= 0. (8.7)
X ∗ AX = λ ∗ X ∗ X. (8.8)
X ∗ AX = λ X ∗ X (8.9)
t
u
Lemma 8.15. Siano A ∈ Mn (R) una matrice simmetrica, f : Rn → Rn l’endomorfi-
smo associato ad A, λ ∈ R un autovalore di A e W ≤ Rn l’autospazio associato al-
l’autovalore λ . Detto W ⊥ il complemento ortogonale di W , segue che f (W ⊥ ) ⊆ W ⊥
(ovvero f si puó restringere ad un endomorfismo di W ⊥ ).
Y T AX = Y T (λ X) = λY T X = 0. (8.10)
8.2 Endomorfismi diagonalizzabili. 193
le cui colonne sono gli autovettori, tra loro ortogonali, che costituiscono una ba-
se di R3 rispetto alla quale A0 é la matrice associata a f . Per ottenere una base
ortonormale, é sufficiente normalizzare i vettori della base.
194 8 La forma canonica di un operatore lineare.
Definizione 8.18. Diremo che una matrice A ∈ Mn (R) é in forma canonica di Jordan
se essa presenta la seguente forma diagonale a blocchi di Jordan
Jn1 (α1 ) 0 0 0 0 0 0 0
0
Jn2 (α2 ) 0 0 0 0 0 0
0
0 Jn3 (α 3 ) 0 0 0 0 0
0 0 0 Jn4 (α 4 ) 0 0 0 0
A=
. . . . . . . . . . . . . . . . . . . . . . . .
... ... ... ... ... ... ... ...
0 0 0 0 0 0 Jnr−1 (αr−1 ) 0
0 0 0 0 0 0 0 Jnr (αr )
8.3 La forma canonica di Jordan. 195
dove ogni Jni (αi ) é un blocco di Jordan di ordine ni relativo ad un qualche scalare
αi ed ovviamente ∑i ni = n.
Esempio 116.
3 1 0 0 0
0 3 1 0 0
J3 (3) 0
A1 =
0 0 3 0 0 =
0
0 J2 (2)
0 0 2 1
0 0 0 0 2
Esempio 117.
2 1 0 0 0 0
0 2 1 0 0 0
0
J3 (2) 0 0
0 2 0 0 0
A2 =
0 = 0 J2 (4) 0
0 0 4 1 0
0
0 0 J1 (3)
0 0 0 4 0
0 0 0 0 0 3
Esempio 118.
3 0 0 0 J1 (3) 0 0 0
= 0 J1 (2) 0
0 2 0 0 0
A3 =
.
0 0 4 0 0 0 J1 (4) 0
0 0 0 5 0 0 0 J1 (5)
Ripetiamo tale argomentazione per ogni autovalore della matrice, avremo la seguen-
te forma canonica di Jordan finale:
C1 0 0 0 0 0 0 0
0 C2 0 0 0 0 0 0
0 0 C3 0 0 0 0
0 0 0 ... 0 0 0 0
A0 =
0 0 0 0 ... 0 0 0
0 0 0 0 0 ... 0 0
0 0 0 0 0 0 Cr−1 0
0 0 0 0 0 0 0 Cr
in cui ogni blocco Ci é una matrice della forma (8.11) ed é relativa all’autovalore
λi ∈ {λ1 , . . . , λr }.
In tutto ció che segue, siano V uno spazio vettoriale reale di dimensione n, f : V −→
V un operatore lineare reale.
Il primo passo é estendere il concetto di autospazio associato ad un autovalore:
Definizione 8.22. Sia λ ∈ R un autovalore di f . Costruiamo il seguente endomorfi-
smo di V : fλ = f − λ I, dove I : V → V indica l’identitá in V . Un vettore v ∈ V tale
che esista k ≥ 1 per cui fλk (v) = 0, é detto autovettore generalizzato di f associato
all’autovalore λ .
Il piú piccolo h ≥ 1 tale che fλh (v) = 0, é detto esponente dell’autovettore generaliz-
zato v.
Sia λ ∈ R un autovalore di f ed introduciamo i seguenti endomorfismi di V :
da cui
198 8 La forma canonica di un operatore lineare.
n − 2r1 + r2 .
Per k ≥ 2 vale la seguente tabella, in cui sono riportati a sinistra gli ordini di tutti i
blocchi che eventualmente si possono presentare, e a destra il numero di tali blocchi:
8.3 La forma canonica di Jordan. 199
B = {v1 , . . . , vr , w1 , . . . , wn−r }.
Osserviamo che:
fλ (v1 ) = fλr (vr ) = 0 =⇒ f (v1 ) = λ v1
per cui le componenti di f (v1 ) rispetto a B sono (λ , 0, . . . , 0).
f (v2 ) = v1 + λ v2
f (v3 ) = v2 + λ v3
V = E1 ⊕ E2 ⊕ . . . ⊕ E p
p(λ ) = a0 + a1 λ + a2 λ 2 + . . . + an λ n
allora
p(A) = a0 I + a1 A + a2 A2 + . . . + an An = 0.
tali che v = v1 + · · · · · · + vt . Inoltre, per ogni vi ∈ Ker ( f − λi I)ei abbiamo che
( f − λi I)ni vi = 0 poiché ni ≥ ei
e
nj ei
( f − λ j I) vi ∈ Ker ( f − λi I) ∀ j 6= i.
ovvero, la matrice P(A) ∈ Mn (R) é tale che P(A)v = 0, per ogni v ∈ V . Da qui segue
facilmente che P(A) = 0. t
u
Teorema 8.35. Sia V uno spazio vettoriale di dimensione n sul campo K e sia
f : V −→ V un endomorfismo. Esso é nilpotente se e solo se il suo polinomio ca-
ratteristico é p(λ ) = (−1)n λ n , cioé se ammette come unico autovalore lo 0 con
molteplicitá n.
trice A come radice, sono esattamente tutti i polinomi che ammettano il polinomio
p(x) come divisore, cioé quelli del tipo f (x) = p(x) · h(x), per ogni polinomio h(x).
Ci chiediamo allora se esistono polinomi di grado inferiore a n che ammettano la
matrice A come radice. Essi possono esistere, ma non necessariamente.
Definizione 8.36. Il polinomio minimo di A é il polinomio monico (con coefficiente
1 per il monomio di grado massimo) di grado minimo che ammetta A come radice.
Se ne deduce che il polinomio minimo di A deve essere cercato tra tutti i polinomi di-
visori del polinomio caratteristico di A. Se nessuno di tali polinomi dovesse ammet-
tere A come radice, concluderemmo che il polinomio minimo e quello caratteristico
coincidono. Vale inoltre il seguente:
Teorema 8.37. Il polinomio minimo m(λ ) di A deve contenere tutti gli zeri del
polinomio caratteristico p(λ ).
Quindi un metodo per determinare il polinomio minimo m(λ ) é quello di scomporre
in fattori p(λ )
p(λ ) = (λ − λ1 )h1 (λ − λ2 )h2 . . . .(λ − λr )hr
con h1 + h2 + . . . + hr = n, e considerare dapprima il polinomio composto dal
prodotto dei fattori lineari di p:
m1 = (λ − λ1 )(λ − λ2 ) . . . .(λ − λr ).
per cui A sia una radice, con 1 ≤ ti ≤ hi , per ogni i = 1, . . . , r. Inoltre ogni esponente
ti é il massimo ordine dei blocchi di Jordan in cui si distribuisce l’autovalore hi nella
forma canonica finale della matrice.
Appare chiaro che, per matrici di ordini relativamente grandi, costruire tutti i possi-
bili divisori di p(λ ) e verificare quale sia il minimo, potrebbe risultare complicato.
É quindi consigliabile risalire al polinomio minimo di una matrice affidandoci ad un
altro metodo. A tal proposito, viene in aiuto il seguente:
Teorema 8.38. Sia f : V → V un operatore lineare, dove V é uno spazio vettoriale
reale di dimensione n. Siano {λ1 , . . . , λt } gli autovalori distinti di A, con moltepli-
citá algebriche n1 , . . . , nt . Per ciascuno degli autovalori λi , sia ei il corrispondente
indice. Allora
m(λ ) = (λ − λ1 )e1 · · · · · · (λ − λt )et
é il polinomio minimo di f .
Esempio 119. Sia f : R4 −→ R4 con matrice A ∈ M4 (R) associata
204 8 La forma canonica di un operatore lineare.
0 1 1 0
0 0 1 0
A=
.
0 0 0 0
0 0 0 0
per cui avremo 2 blocchi di Jordan presenti nella forma canonica finale. Per deter-
minare l’ordine di tali blocchi, iniziamo con il calcolo del numero degli eventuali
blocchi di ordine 1. É necessario calcolare il rango della matrice A2 , poiché giá
conosciamo il rango di A, che é pari a 2. Poiché
0010
0 0 0 0
A2 = 0 0 0 0
0000
ker( f 3 ) = R4 =< (1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1) > .
La matrice
8.3 La forma canonica di Jordan. 205
1 1 0 0
0 1 0 0
P=
0 0 1 0
0 0 0 1
é tale che
1 1 0 0
0 1 1 0
P−1 AP =
0 0 1 0
0 0 0 1
sia la forma canonica di Jordan di A.
Esempio 120. Sia f : R3 −→ R3 con matrice A ∈ M3 (R) associata
200
A = 2 2 0 .
132
ker( f − I) = {X ∈ R5 : (A − I)X = 0}
= < (1, 0, 0, 0, 0), (0, 1, −1, 0, 0) >
= < (1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, −2, 1) >
= R5
= < (1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1) > .
v2 = ( f − I)(v3 ) = (1, 1, 1, 0, 0)
v1 = ( f − I)(v2 ) = ( f − I)2 (v3 ) = (2, 0, 0, 0, 0).
Passiamo ora alla catena di ordine 2: il vettore di partenza v02 deve essere scelto in
modo che
v02 ∈ ker ( f − I)2 − ker f − I − < (0, 0, 0, 0, 1), (1, 1, 1, 0, 0), (2, 0, 0, 0, 0) > .
Possiamo ora definire la base rispetto alla quale la matrice A ammette una forma
canonica di Jordan A0 :
B = {(2, 0, 0, 0, 0), (1, 1, 1, 0, 0), (0, 0, 0, 0, 1), (−1, −1, 1, 0, 0), (0, 0, 0, −2, 1)}.
Poiché vi é un solo blocco relativo a tale autovalore, esso sará di ordine 2. Vi é allora
una catena di ordine 2 di autovettori generalizzati. Dal fatto che
1 00 0 0
0 0 0 −1 0
2
(A − 2I) = 1 0 0 0 −1
0 00 1 0
−2 0 0 0 1
segue che
B = {(1, 0, 0, −1, 0), (0, 0, −1, 0, 1), (0, 0, 0, 1, −1), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0)}.
In relazione all’ordine scelto per i vettori nella base B, la forma canonica sará
10000
0 1 1 0 0
0 0 1 0 0 .
0 0 0 2 1
00002
8.3 La forma canonica di Jordan. 209
Passiamo all’autovalore λ4 = 4:
per cui vi é un solo blocco di ordine 2 relativo all’autovalore 4, e quindi anche una
sola catena di autovettori di lunghezza 2. Inoltre
080
(A − 4I)2 = 0 9 0
090
quindi
Vi é un solo blocco di ordine 2 relativo all’autovalore −1, e quindi anche una sola
catena di autovettori di lunghezza 2. Inoltre
100
(A + I)2 = 0 0 0
000
quindi
Osservazione 8.39. L’ordine con cui i blocchi compaiono nella forma canonica di
Jordan non é fondamentale per l’individuazione della forma canonica stessa. Si dice
infatti che la forma canonica ottenuta é unica a meno di permutazioni dei blocchi di
Jordan di cui é composta. Permutando tali blocchi si ottiene comunque una forma
canonica che sia simile a quella precedente. Tale permutazione corrisponde di fatto
alla scelta di una differente base di Rn rispetto alla quale la matrice che rappresenta
l’endomorfismo é ancora espressa in forma canonica di Jordan. Si tratta in sostanza
di permutare fra loro le catene di autovettori generalizzati che costituiscono la ba-
se, facendo attenzione a mantenere invariato l’ordine dei vettori all’interno di ogni
singola catena.
212 8 La forma canonica di un operatore lineare.
Esercizio 63. Determinare gli autovalori, una base per gli autospazi, una forma
canonica ed il polinomio minimo della seguente matrice:
2 −3 0
A = −1 0 0 .
−1 1 1
Per λ2 = 1,
1 −3 0
A − I = −1 −1 0
−1 1 0
ed il sistema lineare omogeneo associato é:
8.4 Esercizi svolti. 213
x1 − 3x2 = 0
x1 + x2 = 0
x1 − x2 = 0
Per λ3 = −1,
3 −3 0
A + I = −1 1 0
−1 1 2
ed il sistema lineare omogeneo associato é:
x1 − x2 = 0
x1 − x2 − 2x3 = 0
La matrice diagonalizzante é
−3 0 1
C = 1 0 1
2 10
ovvero
30 0
C−1 AC = 0 1 0 .
0 0 −1
Il polinomio minimo coincide con quello caratteristico.
Esercizio 64. Determinare gli autovalori, una base per gli autospazi, una forma
canonica ed il polinomio minimo della seguente matrice:
3 20
−1 0 0 .
0 01
caratteristica:
3−λ 2 0
−1 −λ 0 = 0
0 0 1−λ
cioé
(1 − λ )2 (2 − λ ) = 0.
Abbiamo quindi un autovalore λ1 = 1 con molteplicitá algebrica pari a 2 ed un
autovalore, λ2 = 2, con molteplicitá algebrica 1.
Determiniamo gli autospazi relativi a ciascun autovalore:
Per λ1 = 1,
2 2 0
A − I = −1 −1 0 .
0 0 0
Dal sistema lineare omogeneo associato, otteniamo l’unica relazione
x1 + x2 = 0
Per λ2 = 2,
1 2 0
A − 2I = −1 −2 0
0 0 −1
ed il sistema lineare omogeneo associato é:
x1 + 2x2 = 0
x3 = 0
La matrice diagonalizzante é
8.4 Esercizi svolti. 215
1 0 −2
C = −1 0 1
0 1 0
ovvero
100
C−1 AC = 0 1 0 .
002
Il polinomio minimo é m(λ ) = (1 − λ )(2 − λ ).
Esercizio 65. Determinare i valori di k ∈ R per i quali la seguente matrice é
diagonalizzabile:
3 1 0
A = 0 2k 0 .
k 0 0
cioé
(3 − λ )(2k − λ )(−λ ) = 0.
Quindi gli autovalori della matrice sono {0, 3, 2k}.
Inizialmente possiamo affermare che se k 6= 0, 23 , allora la matrice possiede tutti gli
autovalori distinti, per cui é certamente diagonalizzabile.
Analizziamo allora i casi k = 0 e k = 32 .
Per k = 0, l’autovalore λ = 0 ha molteplicitá algebrica pari a 2. La matrice A − λ I é
ovviamente pari ad A:
310
A−λI = A = 0 0 0 .
000
Poiché essa ha rango 1, il sistema omogeneo associato avrá ∞2 soluzioni, ovvero la
molteplicitá geometrica di λ é esattamente 2. In tal caso allora la matrice é ancora
diagonalizzabile.
Concludiamo con k = 23 . L’autovalore µ = 3 ha molteplicitá algebrica 2 e la matrice
A − 3I é
01 0
A − 3I = 0 0 0 .
3
2 0 −3
Essa ha rango 2, per cui il sistema lineare omogeneo associato possiede ∞1 soluzio-
ni. Quindi la molteplicitá geometrica dell’autovalore 3 é pari ad 1 e non coincide
con la sua molteplicitá algebrica. In tal caso la matrice non é diagonalizzabile.
Concludiamo allora che la matrice A é diagonalizzabile per ogni k 6= 32 .
216 8 La forma canonica di un operatore lineare.
x1 + x2 + x3 = 0
X2 = (α, β , −α − β ) : X1T X2 = 0
ovvero
α + α + β = 0 =⇒ β = −2α.
Quindi, al variare di α ∈ R, il vettore X2 = (α, −2α, α) ∈ V1 é ortogonale a X1 .
Possiamo allora asserire che {(1, 0, −1), (1, −2, 1)} é una base ortogonale di V1 . Da
ció segue che
1 1 1 2 1
{( √ , 0, − √ ), ( √ , − √ , √ )}
2 2 6 6 6
é una base ortonormale di V1 .
Per λ2 = 5,
−4 2 2
A − 5I = 2 −4 2
2 2 −4
ed il sistema lineare omogeneo associato é:
2x1 − x2 − x3 = 0
x1 − 2x2 + x3 = 0
x1 + x2 − 2x3 = 0
Esercizio 69. Determinare una forma canonica della seguente matrice A ∈ M6 (R):
0 1 −1 −1 1 −1
0 0 1 2 0 1
0 0 1 1 0 0
A= 0 0 0 1 0 1 .
0 0 0 0 2 −1
00 0 0 1 0
Esercizio 70. Determinare una forma canonica della seguente matrice A ∈ M3 (R):
1 2 5
A = 0 14 39 .
0 −5 −14
Esercizio 71. Determinare una forma canonica della seguente matrice A ∈ M6 (R):
220 8 La forma canonica di un operatore lineare.
0 1 1 00 0
0
1 0 0 1 −1
−1 1 2 00 0
A=
0
.
0 0 10 0
1 0 −1 11 1
0 0 0 10 1
Esercizio 72. Determinare una forma canonica della seguente matrice A ∈ M8 (R):
14500000
0 1 3 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 2 3 0 0 0
A= .
0 0 0 0 2 0 0 0
0 0 0 0 0 2 2 1
0 0 0 0 0 0 1 3
00000001
9.1 Introduzione.
225
226 9 Le forme bilineari e le forme quadratiche reali.
si abbia
f (a(x1 , x2 ) + b(x10 , x20 ), (y1 , y2 , y3 )) = a f ((x1 , x2 ), (y1 , y2 , y3 ))+
b f ((x10 , x20 ), (y1 , y2 , y3 ))
e
f ((x1 , x2 ), a(y1 , y2 , y3 ) + b(y01 , y02 , y03 )) = a f ((x1 , x2 ), (y1 , y2 , y3 ))+
+b f ((x1 , x2 ), (y01 , y02 , y03 )).
t
u
Osservazione 9.2. Siano 0V e 0W rispettivamente il vettore nullo in V e quello nullo
in W . Allora f (0V , w) = 0 e f (v, 0W ) = 0, per ogni v ∈ V , w ∈ W .
rispetto alle basi scelte, possiamo allora rappresentare la forma f attraverso la ma-
trice A, la quale viene fissata una volta per tutte, in dipendenza delle basi scelte per
gli spazi vettoriali. Quindi ad ogni forma bilineare f : V × W → K é associata una
matrice, che dipende esclusivamente dalla scelta iniziale delle basi per V e W .
Viceversa, fissata una matrice A = (ai j )n×m ∈ Mnm (K), consideriamo la corri-
spondenza f : V × W −→ K, definita da f (X,Y ) = X T AY , per ogni scelta dei
vettori
x1 y1
x2 y2
x3 y3
X = . . . ∈ V, Y = . . . ∈ W
... ...
... ...
xn B ym C
espressi per componenti rispetto alle basi B di V e C di W . Tale corrispondenza é
una forma bilineare su V ×W , la cui espressione é esplicitamente la (9.1), ovvero
n m
f (X,Y ) = X T AY = ∑ ∑ ai j xi y j .
i=1 j=1
In definitiva, una volta assegnate le basi per due qualsiasi spazi vettoriali V e W sul
campo K, esiste una corrispondenza biunivoca tra l’insieme delle matrici Mn,m (K)
e le forme bilineari f : V ×W → K.
Esempio 127. Sia f : R2 × R3 −→ R, definita da f ((x1 , x2 ), (y1 , y2 , y3 )) = x1 (y1 +
y2 ) + x2 (y1 − y3 ), determiniamo la matrice associata a f rispetto alle basi canoniche
e
C = {c1 , c2 , c3 } = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} di R3 .
Svolg.
f (b1 , c1 ) = 1, f (b1 , c2 ) = 1, f (b1 , c3 ) = 0
f (b2 , c1 ) = 1, f (b2 , c2 ) = 0, f (b2 , c3 ) = −1
allora la f si puó rappresentare, rispetto alle basi canoniche, nel modo seguente:
y1
11 0
f (X,Y ) = x1 x2 y2 .
1 0 −1
y3
t
u
228 9 Le forme bilineari e le forme quadratiche reali.
Il computo degli scalari tramite i quali costruire la matrice A associata ad una forma
bilineare f : V ×W → K, dipende esclusivamente dalla scelta iniziale delle basi per
i due spazi vettoriali V e W . É evidente allora che, la scelta di basi differenti in V e
W comporta che la matrice associata a f sia, in generale, differente dalla A.
A tal proposito, riprendiamo l’esempio 127:
Esempio 128. Sia f : R2 × R3 −→ R, definita da f ((x1 , x2 ), (y1 , y2 , y3 )) = x1 (y1 +
y2 ) + x2 (y1 − y3 ), e siano B = {b1 , b2 } = {(1, 0), (0, 1)} base canonica di R2 e C =
{c1 , c2 , c3 } = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} base canonica di R3 . Abbiamo visto che
la matrice associata a f rispetto alle basi B e C é data da
11 0
.
1 0 −1
e
E = {e1 , e2 , e3 } = {(1, 1, 0), (0, 0, 1), (2, 0, 1)} di R3 .
Calcoliamo gli elementi della matrice associata in tali basi:
f ((x1 , x2 ), (y1 , y2 , y3 )) = x1 (y1 + y2 ) + x2 (y1 − y3 ),
y1
3 −1 3
f (X,Y ) = x1 x2 y2 = x1 (3y1 − y2 + 3y3 ) + x2 (5y1 − y2 + 5y3 ).
5 −1 5
y3
3 2
Esempio 129. Sia f : R × R −→ R una forma bilineare, alla quale sia associata
11
la matrice 1 0 rispetto alle basi B = {b1 , b2 , b3 } = {(1, 1, 0), (0, 0, 1), (0, 1, 1)}
21
di R3 e C = {c1 , c2 } = {(1, 1), (0, 1)} di R2 . Determiniamo la matrice associata
a f rispetto alle basi D = {d1 , d2 , d3 } = {(0, 1, 0), (0, 1, 1), (2, 0, 1)} di R3 e E =
{e1 , e2 } = {(1, 1), (2, 1)} di R2 .
Per poter determinare la matrice rispetto alle nuove basi, dovremmo calcolare i coef-
ficienti f (di , e j ). Poiché l’unico strumento che abbiamo é la matrice data rispetto
alle basi B e C, siamo costretti inizialmente ad esprimere tutti i vettori di e e j per
componenti rispetto alle basi B e C, e solo allora potremo effettuare il calcolo degli
f (di , e j ). Avremo:
t
u
Nota 9.3. Anche in questo Capitolo, per uniformitá con quanto fatto nei precedenti,
rivolgiamo la nostra attenzione esclusivamente al caso di forme definite su spazi
vettoriali reali.
Generalizziamo adesso quanto visto nei precedenti esempi.
Siano V e W due spazi vettoriali reali di dimensioni rispettivamente n e m, f :
V × W → R una forma bilineare, B = {b1 , . . . , bn } e B0 = {b01 , . . . , b0n } due distin-
te basi di V , E = {e1 , . . . , em } e E 0 = {e01 , . . . , e0m } due distinte basi di W . Sia inoltre
A ∈ Mn,m (R) la matrice associata a f , rispetto alle basi B e E, e sia A0 quella associa-
ta a f relativamente alla scelta delle basi B0 e E 0 . Ci proponiamo adesso di descrivere
la relazione che intercorre tra le due matrici A e A0 .
Sia C ∈ Mn (R) la matrice di transizione dalla base B0 alla B, ovvero la matrice
tramite la quale relazioniamo le componenti X 0 di un vettore v ∈ V relativamente
alla base B0 con le sua componenti X rispetto alla base B. É ben noto che tale re-
lazione si esprime attraverso l’uguaglianza vettoriale X = CX 0 . Analogamente, se
D ∈ Mm (R) é la matrice di transizione dalla base E 0 alla base E, allora le compo-
nenti Y 0 di un vettore w ∈ W rispetto alla base E 0 e le componenti Y dello stesso
vettore relativamente alla base E sono tali che Y = DY 0 . Quindi f (v, w) = X 0T A0Y 0
ma anche
230 9 Le forme bilineari e le forme quadratiche reali.
f (v, w) = X T · A ·Y
T
= C · X 0 · A · DY 0
= X 0T · CT · A · D ·Y 0 .
Dall’unicitá della matrice associata ad una forma bilineare f , una volta fissate le
basi rispetto alle quali f é definita, segue che A0 = CT AD.
Esempio 130. Sia f : R2 × R3 → R la forma bilineare associata alla matrice
111
A=
102
e
E = {e1 , e2 , e3 } = {(1, 1, 0), (0, 0, 1), (0, 1, 1)} per R3 .
Ció vuol dire che, dati X = (x1 , x2 ) ∈ R2 , Y = (y1 , y2 , y3 ) ∈ R3 due qualsiasi vettori
espressi per componenti rispettivamente in termini delle basi B e E, l’espressione
della f é data da
f (X,Y ) = X T · A ·Y
= x1 y1 + x1 y2 + x1 y3 + x2 y1 + 2x2 y3 .
Siano adesso B0 = {b01 , b02 } = {(1, 1), (2, 1)} una nuova base per R2 e E 0 = {e01 , e02 , e03 } =
{(0, 1, 0), (0, 1, 1), (2, 0, 1)} una per R3 .
Le matrici di transizione, C ∈ M2 (R) da B0 a B, e D ∈ M3 (R) da E 0 a E, sono
rispettivamente
1 2
C=
0 −1
e
0 0 2
D = −1 0 3 .
1 1 −2
Quindi, la matrice A0 di f , in termini delle basi B0 di R2 e E 0 di R3 , é
A0 = CT · A · D
0 0 2
1 0 111
= · · −1 0 3
2 −1 102
1 1 −2
0 13
= .
−2 0 8
9.4 Forme bilineari simmetriche. 231
f (X 0 ,Y 0 ) = X 0T · A0 ·Y 0
nella quale abbiamo indicato con X 0 = (x10 , x20 )R2 e Y 0 = (y01 , y02 , y03 ) ∈ R3 i generici
vettori di R2 e R3 rispettivamente in termini delle basi B0 e E 0 .
Vogliamo ora soffermarci sul caso particolare in cui V = W , ovvero f : V ×V → R.
In tal caso é lecito considerare una unica base B = {e1 , . . . , en } per entrambi gli
spazi V , inoltre i coefficienti della matrice A = ai j associata a f rispetto a B sono
esattamente ai j = f (ei , e j ), per ogni i, j = 1, . . . , n.
Quindi, se B e B0 sono due differenti basi di V , f puó essere rappresentato da due
diverse matrici A ed A0 , relativamente alla base rispetto alla quale la matrice viene
costruita. Se indichiamo con C ∈ Mn (R) la matrice di transizione da B0 a B, per via
delle precedenti argomentazioni abbiamo che A0 = CT AC. Le matrici A ed A0 sono
quindi correlate in base alla seguente:
Definizione 9.4. Siano A, A0 due n × n matrici reali. Esse sono dette matrici con-
gruenti se esiste una matrice C ∈ Mn (R) invertibile tale che A0 = CT AC. La rela-
zione intercorrente tra le matrici A ed A0 é detta congruenza ed é una relazione di
equivalenza.
Quindi, in base a tale definizione, vale il seguente:
Teorema 9.5. Sia f : V ×V → R una forma bilineare reale su V ×V . Due matrici
A, A0 rappresentano f rispetto a due differenti basi di V se e solo se A ed A0 sono
congruenti.
Sia f : V ×V −→ R una forma bilineare reale definita in V ×V , dove V sia uno spa-
zio vettoriale di dimensione n sul campo R. Sia B = {e1 , e2 , . . . , en } una base di V e
sia A la matrice associata a f rispetto a B. Per quanto detto fin’ora, una rappresenta-
zione della f é la seguente: f (X,Y ) = X T AY , per ogni X,Y vettori di V espressi per
componenti rispetto alla base B. Denotiamo A = (ai j ) ∈ Mn (R).
Diciamo che la forma bilineare é simmetrica se accade che f (X,Y ) = f (Y, X) per
ogni X,Y ∈ V . Poiché, da tale definizione, in particolare dovrá essere f (ei , e j ) =
f (e j , ei ), per ogni coppia di vettori ei , e j della base B, allora ai j = a ji , per ogni i 6= j,
quindi la matrice A, associata alla f , é una matrice simmetrica.
Viceversa, data una matrice A simmetrica reale di ordine n, si puó definire la forma
bilineare f (X,Y ) = X T AY , definita in V × V , dove V sia uno spazio vettoriale di
dimensione n su un campo R. Si osserva facilmente che tale f (X,Y ) = f (Y, X) per
ogni X,Y ∈ V , ovvero f é una forma bilineare simmetrica.
232 9 Le forme bilineari e le forme quadratiche reali.
110 y1
f (X,Y ) = x1 x2 x3 1 0 2 y2 = x1 y1 + x2 y1 + x1 y2 + 2x3 y2 + 2x2 y3 + x3 y3 .
021 y3
= x1 y1 + x2 y1 + x2 y2 .
W ⊥ = {v ∈ V | f (v, w) = 0, ∀w ∈ W }.
9.4 Forme bilineari simmetriche. 233
= x1 y1 + x1 y2 + x1 y3 + x2 y1 + x3 y1 .
Sia W =< (0, 1, −1) >. Allora W ⊥ = R3 e W ∩W ⊥ = W . Per cui W e W ⊥ non sono
in somma diretta.
Analogamente, sia U =< (0, 1, 0) >. Allora U ⊥ = {(0, α, β ) : ∀α, β ∈ R}, da cui
U ⊥ =< (0, 1, 0), (0, 0, 1) > ed ancora U ∩ U ⊥ = U. Quindi U e U ⊥ non sono in
somma diretta.
Sia (V, f ) uno spazio simmetrico e sia W un sottospazio di V . In ogni caso si puó
introdurre la restrizione f|W : W ×W → R di f a W . Poiché appare evidente che f|W
debba essere simmetrica su W , possiamo parlare di spazio simmetrico (W, f|W ).
Esempio 134. Sia f : R3 × R3 → R la forma bilineare simmetrica definita da
100 y1
f ( x1 , x2 , x3 ), (y1 , y2 , y3 ) = x1 x2 x3 · 0 1 1 · y2
010 y3
= x1 y1 + x2 y2 + x2 y3 + x3 y2 .
Sia W =< (1, 0, 0), (1, 0, 1) >, per cui ogni vettore di W si esprime come una
combinazione lineare dei vettori generatori di W , ovvero
Avremo che
234 9 Le forme bilineari e le forme quadratiche reali.
f (X,Y ) = α1 β1 f (1, 0, 0), (1, 0, 0) + α1 β2 f (1, 0, 0), (1, 0, 1) +
α2 β1 f (1, 0, 1), (1, 0, 0) + α2 β2 f (1, 0, 1), (1, 0, 1) =
= α1 β1 + α1 β2 + α2 β1 + α2 β2 =
11 β
· 1 .
= α1 α2 ·
11 β2
11
Quindi é la matrice della restrizione di f in W .
11
Rad( f ) = V ⊥ = {u ∈ V | f (u, v) = 0, ∀v ∈ V }.
+x2 y2 + x2 y3 + x3 y1 + x3 y2 .
f (X, X) =
x12 + 2x1 x3 + 2x22 + 2x2 x3 + 2x32 =
(x1 + x3 )2 + x22 + (x2 + x3 )2 > 0, ∀X ∈ R3 .
Quindi non esiste alcun vettore non nullo di R3 che sia f -isotropo. In base alla
Definizione 9.19, R3 é uno spazio vettoriale f -anisotropo.
Esempio 138. Sia f : R3 × R3 → R la forma bilineare associata alla matrice
0 3 1
A = −3 0 2
−1 −2 0
rispetto alla base canonica di R3 . In questo caso é banale constatare che f (X, X) = 0,
per ogni vettore X = [x1 , x2 , x3 ]T ∈ R3 espresso per componenti rispetto alla base
canonica. Ovvero R3 é uno spazio vettoriale totalmente f -isotropo.
mo che tale forma (canonica) é esattamente una forma diagonale e che la base di V ,
in riferimento alla quale essa é determinata, é una base f -ortogonale. In taluni casi,
che sono quelli piú rilevanti al fine di costruire una metrica nello spazio V , la base é
precisamente f -ortonormale.
Lemma 9.20. Sia (V, f ) uno spazio simmetrico reale di dimensione n. Se f 6= 0 (cioé
esistono v, w ∈ V tali che f (v, w) 6= 0), allora esiste w0 ∈ V tale che f (w0 , w0 ) 6= 0.
Teorema 9.21. Sia (V, f ) uno spazio simmetrico reale di dimensione n. Allora esiste
una base f -ortogonale di V .
e001 = e01 , e002 = e02 , e003 = e03 − c03 e02 . . . . . . e00n = e0n − c0n e02 .
Diciamo C0 la matrice di transizione dalla base B00 = {e001 , . . . , e00n } alla base B0 =
{e01 , . . . , e0n }, per cui X 0 = C0 X 00 , per ogni vettore v ∈ V , le cui componenti rispet-
to alle basi B0 e B00 siano espresse rispettivamente dalle n-uple X 0 = (x10 , . . . , xn0 ) e
X 00 = (x100 , . . . , xn00 ). Come prima, sostituiamo X 0 = C0 X 00 e Y 0 = C0Y 00 nell’espressio-
ne f (X 0 ,Y 0 ) della forma La matrice A00 = (a00i j )n×n associata a f (X 00 ,Y 00 ) dopo aver
effettuato tali sostituzioni, avrá la seconda riga e la seconda colonna tutte nulle,
eccetto l’elemento a0022 . Tale matrice, congruente alle matrici A e A0 , potrá essere
ottenuta dalla relazione A00 = C0T A0C0 ovvero
Ripetiamo tale iter per ogni riga, ogni volta che f (ei , ei ) 6= 0. Alla fine otterremo la
forma diagonale della matrice e quindi della forma bilineare associata.
Quindi, dopo un certo numero di passi, diciamo r passi, avremo riportato la ma-
trice A associata inizialmente a f in forma diagonale D. Per farlo avremo quindi
effettuato r cambiamenti di base per lo spazio V , a ciascuno dei quali corrisponde
una matrice di transizione. Siano C1 , . . . ,Cr le matrici di transizione che compaiono
nell’algoritmo, in modo tale che Ci sia la matrice di transizione al passo i. Allora
1 α12 α13 · · ·
α1n
0 1 α23 · · · α2n
..
0 0 ..
.
.
.. , per opportuni αi j ∈ R. (9.2)
.. ..
.
. .
. ..
..
. αn−1,n
0 0 0 1
Una tale matrice é usualmente detta unitriangolare superiore, nel senso che é trian-
golare superiore ed inoltre ha tutti gli elementi della diagonale principale pari a 1.
Inoltre, segue da semplici calcoli che il prodotto di matrici unitriangolari é ancora
una matrice unitriangolare. Ció implica che la matrice di transizione finale, la qua-
le é prodotto di tutte le matrici di transizione intermedie, é ancora unitriangolare
superiore.
Dobbiamo qundi porci il quesito di come procedere nel caso di spazi simmetri-
ci isotropi, per i quali potrebbe accadere che, ad un certo passo dell’algoritmo,
f (ei , ei ) = 0. In tale eventualitá inseriremo un passo intermedio nell’algoritmo pre-
cedentemente descritto (ogni qual volta sia necessario), al fine di costruire una base
di vettori nella quale quantomeno ei sia non isotropo.
Passo Intermedio
Supponiamo quindi di voler effettuare un cambiamento di base, al fine di annullare
gli elementi delle riga e colonna i-esime della matrice associata a f , ma che la base
B = {e1 , . . . , en }, dalla quale partiamo, sia tale che f (ei , ei ) = 0.
Per poter procedere come sopra esposto, dovremo allora dapprima effettuare un
cambiamento di base da {e1 , e2 , . . . , en } a {e01 , e02 , . . . , e0n } che garantisca la condi-
zione f (e0i , e0i ) 6= 0. Per farlo, sará sufficiente individuare il primo indice di colonna
j per il quale f (ei , e j ) 6= 0. Quindi si effettua il cambiamento di base seguente:
Svolg. Passo 1.
f (e1 , e1 ) = 0 f (e1 , e2 ) 6= 0
e01 = e1 + e2 , e02 = e2 , e03 = e3
La matrice di cambiamento di base é
100
C1 = 1 1 0
001
da cui
x1 = x10 , x2 = x10 + x20 , x3 = x30
y1 = y01 , y2 = y01 + y02 , y3 = y03
e sostituendo la nuova espressione del vettore X otteniamo la forma bilineare
espressa nella nuova base
f (X 0 ,Y 0 ) = x10 y01 + x10 y02 + 2x10 y03 + x20 y03 + x20 y01 + 2x30 y01 + x30 y02 =
1 0
0 0 0 11 2 11 y1
x1 x2 x3 2 0 2 y02 .
1 21 0 y03
Passo 2.
f (e01 , e02 ) 1 f (e01 , e03 )
f (e01 , e01 ) 6= 0, c02 = = , c03 = =1
f (e01 , e01 ) 2 f (e01 , e01 )
1
e002 = e02 − e01 , e003 = e03 − e01
e001 = e01 ,
2
La matrice di cambiamento di base é
1 − 21 −1
C2 = 0 1 0
0 0 1
9.6 Metodo per la diagonalizzazione delle forme simmetriche reali. 241
da cui
1
x10 = x100 − x200 − x300 , x20 = x200 , x30 = x300
2
1
y01 = y001 − y002 − y003 , y02 = y002 , y03 = y003
2
e sostituendo otteniamo la forma bilineare espressa nella nuova base
1
f (X 00 ,Y 00 ) = x100 y001 − x200 y002 − x300 y003 =
4
00
00 00 00 1 01 0 y1
x1 x2 x3 0 − 4 0 y002 .
0 0 −1 y003
La matrice finale del cambiamento di base é
1 − 21 −1
C = C1 ·C2 = 1 12 −1
0 0 1
ed infatti si ha che
1 1
1 − 21 −1
1 1 0 0 2 2 1 0 0
− 1 1 0 · 1 0 1 · 1 1 −1 = 0 − 1 0 .
2 2 2 2 2 4
−1 −1 1 1 1 0 0 1 0 0 −1
2 2 0
t
u
Esempio 140. Si diagonalizzi la forma bilineare simmetrica f : R3 × R3 −→ R
definita da f (X,Y ) = 5x1 y1 + 3x2 y2 + 21 x1 y3 + 12 x3 y1 cioé
1
50 2 y1
f (X,Y ) = x1 x2 x3 0 3 0 y2 .
1 y3
2 0 0
Svolg. Passo 1.
f (e1 , e2 ) f (e1 , e3 ) 1
f (e1 , e1 ) 6= 0, c2 = = 0, c3 = =
f (e1 , e1 ) f (e1 , e1 ) 10
1
e01 = e1 , e02 = e2 , e03 = e3 − e1
10
La matrice di cambiamento di base é
1
1 0 − 10
C = 0 1 0
00 1
242 9 Le forme bilineari e le forme quadratiche reali.
da cui
1 0
x1 = x10 −x , x2 = x20 , x3 = x30
10 3
1
y1 = y01 − y03 , y2 = y02 , y3 = y03
10
e sostituendo la nuova espressione del vettore X otteniamo la forma bilineare
espressa nella nuova base
1 0 0
f (X 0 ,Y 0 ) = 5x10 y01 + 3x20 y02 − x y =
20 3 3
0
5 0 0 y1
x10 x20 x30 0 3 0 y02 .
0 1
0 − 20 y03
La matrice finale del cambiamento di base é data dalla sola C ed infatti si ha che
5 0 21 1
1 00 1 0 − 10 50 0
0 1 0 · 0 3 0 · 0 1 0 = 0 3 0 .
1 1 1
− 10 01 2 0 0 00 1 0 0 − 20
t
u
con aii ∈ R, dove r é il rango della matrice associata alla forma bilineare f , detto
anche rango di f . Tale metodo per la diagonalizzazione é valido in qualsiasi caso,
indipendentemente dal campo K sul quale V é spazio vettoriale, quindi non neces-
sariamente per K = R.
Ma per spazi vettoriali reali possiamo ottenere risultati piú precisi:
Teorema 9.24. Sia V uno spazio vettoriale reale, dim(V ) = n ≥ 1, f : V ×V → R
una forma bilineare simmetrica reale su V . Esistono una base B di V ed un numero
intero 0 ≤ p ≤ r, dove r é il rango di f , tali che la matrice associata alla f rispetto
alla base B sia
Ip 0 0
0 −Ir−p 0 (9.3)
0 0 0
dove I p é il blocco costituito dalla matrice identica di ordine p, Ir−p é il blocco
costituito dalla matrice identica di ordine r − p e gli altri sono tutti blocchi nulli. In
altre parole, in riferimento alla base B, la forma bilineare simmetrica f si presenta
nella forma
Si noti che in modo equivalente possiamo dire che ogni matrice simmetrica A ∈
Mn (R) é congruente ad una matrice diagonale della forma (9.3).
Dim. Per quanto fin qui detto, sappiamo che esiste una base ortogonale di V ri-
spetto alla quale la matrice di f é espressa in forma diagonale. Supponiamo che r
sia il rango di tale matrice, p sia il numero di elementi diagonali positivi, r − p il nu-
mero di quelli negativi e n − r il numero di zeri sulla diagonale principale. Pensiamo
adesso di riordinare opportunamente i vettori di tale base, ottenendo una nuova base
di V ed indicandola B = {b1 , . . . , bn }, in modo tale che
– f (bi , bi ) > 0, per ogni i = 1, . . . , p
– f (bi , bi ) < 0, per ogni i = p + 1, . . . , r
– f (bi , bi ) = 0, per ogni i = r + 1, . . . , n.
La matrice di f rispetto a B sará quindi espressa nella forma diagonale
α12
..
.
α p2
2
−α p+1
D=
..
.
−αr2
0
..
.
0
1 1
B = {(1, 1, 0), (− , , 0), (−1, −1, 1)}.
2 2
Per determinare la forma di f del tipo (9.3), partiamo dalla matrice diagonale
congruente ad A, ovvero la matrice di f rispetto alla base B:
1 0 0
A0 = 0 − 14 0 .
0 0 −1
9.7 Segnatura di una forma bilineare simmetrica 245
(− 12 , 21 , 0)
e01 = (1, 1, 0), e02 = 1
= (−1, 1, 0), e03 = (−1, −1, 1).
2
Sia B0 = {e01 , e02 , e03 } ed esprimiamo la forma bilineare rispetto a tale base. Poiché la
matrice di transizione é fornita dalle componenti dei vettori della base B0 , essa é
1 −1 −1
C = 1 1 −1 .
0 0 1
A00 = CT · A ·C
1 1
1 1 0 0 2 2 1 −1 −1
= −1 1 0 · 12 0 21 · 1 1 −1
−1 −1 1 1 1 0 0 1
2 2 0
1 0 0
= 0 −1 0 .
0 0 −1
Per poter discutere degli indici di positivitá e negativitá di una forma bilineare
simmetrica é necessario fissare alcuni semplici risultati relativi alla teoria delle
matrici.
Lemma 9.26. Siano A, P ∈ Mn (R) matrici a coefficienti reali e sia P invertibile.
Allora le matrici A e PA hanno lo stesso rango.
Corollario 9.27. Siano A, P ∈ Mn (R) matrici a coefficienti reali e sia P invertibile.
Allora le matrici A e AP hanno lo stesso rango.
Corollario 9.28. Siano A, P ∈ Mn (R) matrici a coefficienti reali e sia P invertibile.
Allora le matrici A e PT AP hanno lo stesso rango.
246 9 Le forme bilineari e le forme quadratiche reali.
Teorema 9.29. Sia f : V ×V → R una forma bilineare simmetrica reale sullo spazio
vettoriale reale V di dimensione n. Gli indici di positivitá e negativitá di f non
dipendono dalla base di V rispetto alla quale si determina la matrice di f .
Teorema 9.30. Sia A ∈ Mn (R) una matrice simmetrica e siano p, r − p rispet-
tivamente i suoi indici di positivitá e di negativitá. Allora, il numero di autovalori
positivi di A é esattamente p, quello dei suoi autovalori negativi é esattamente r − p.
L’autovalore 0 di A possiede una molteplicitá algebrica pari a n − r.
Definizione 9.31. Sia f : V × V → R una forma bilineare simmetrica reale sullo
spazio V di dimensione n. Siano p il suo indice di positivitá e r − p quello di nega-
tivitá.
La coppia (p, r − p) é detta segnatura di f .
Essa é anche la segnatura di una qualsiasi matrice simmetrica che rappresenti f in
una data base di V .
Definizione 9.32. Sia (p, r − p) la segnatura della forma bilineare simmetrica f :
V ×V → R sullo spazio vettoriale reale V di dimensione n.
1. f é detta definita positiva se f (X, X) > 0, per ogni 0 6= X ∈ V . In tal caso la sua
segnatura é (n, 0);
2. f é detta definita negativa se f (X, X) < 0, per ogni 0 6= X ∈ V , e la sua segnatura
é (0, n);
3. f é detta semidefinita positiva se f (X, X) ≥ 0, per ogni 0 6= X ∈ V . Affinché non
sia esattamente definita positiva, dovrá esistere 0 6= X ∈ V tale che f (X, X) = 0.
In tal caso la sua segnatura é (r, 0) con r < n;
4. f é detta semidefinita negativa se f (X, X) ≤ 0, per ogni 0 6= X ∈ V . Affinché non
sia esattamente definita negativa, dovrá esistere 0 6= X ∈ V tale che f (X, X) = 0,
e la sua segnatura é (0, r) con r < n.
5. f é detta indefinita nel caso abbia segnatura (p, r − p) con 0 < p < r ≤ n. In tal
caso esisteranno vettori 0 6= X ∈ V e 0 6= Y ∈ V tali che f (X, X) > 0 e f (Y,Y ) < 0.
In modo del tutto analogo introduciamo la medesima classificazione per le matrici
reali simmetriche:
Definizione 9.33. Sia (p, r − p) la segnatura della di una matrice simmetrica A ∈
Mn (R).
1. A é detta definita positiva se X T AX > 0, per ogni 0 6= X ∈ Rn . In tal caso la sua
segnatura é (n, 0);
2. A é detta definita negativa se X T AX < 0, per ogni 0 6= X ∈ Rn , e la sua segnatura
é (0, n);
3. A é detta semidefinita positiva se X T AX ≥ 0, per ogni 0 6= X ∈ Rn . Affinché non
sia esattamente definita positiva, dovrá esistere 0 6= X ∈ Rn tale che X T AX = 0.
In tal caso la sua segnatura é (r, 0) con r < n;
4. A é detta semidefinita negativa se X T AX ≤ 0, per ogni 0 6= X ∈ Rn . Affinché non
sia esattamente definita negativa, dovrá esistere 0 6= X ∈ Rn tale che X T AX = 0,
e la sua segnatura é (0, r) con r < n.
9.8 Forme quadratiche reali. 247
5. A é detta indefinita nel caso abbia segnatura (p, r − p) con 0 < p < r ≤ n. In tal
caso esisteranno vettori 0 6= X ∈ Rn e 0 6= Y ∈ Rn tali che X T AX > 0 e Y T AY < 0.
f : V ×V → R
(9.5)
1
f (u, v) = q(u + v) − q(u) − q(v)
2
Alla luce dell’Osservazione 9.36, é chiaro che esiste una sola matrice simmetrica
associata ad una forma quadratica in termini di una fissata base di V .
La questione piú rilevante é quindi quella di individuare un modo per determinare
la forma simmetrica associata ad una forma quadratica.
Teorema 9.38. Sia q : V → R una forma quadratica reale sullo spazio vettoriale
V , B = {e1 , . . . , en } una base di V e A ∈ Mn (R) la matrice di q rispetto alla base B.
Allora l’unica forma bilineare associata a q é rappresentata, rispetto alla base B di
V , dalla matrice 12 C + CT , dove C é la matrice di una qualsiasi forma bilineare
associata a q.
Quindi la matrice di una forma quadratica q coincide con la matrice della corri-
spondente forma bilineare simmetrica e puó essere determinata come segue. Sia
B una base di V , f : V × V → R una forma bilineare simmetrica e q : V → R la
corrispondente forma quadratica, tali che
n n
q(X) = ∑ αi xi2 + ∑ αi j xi x j , f (X,Y ) = ∑ βi j xi y j
i=1 i< j i, j=1
–g : R3 × R3 → R tale che
9.8 Forme quadratiche reali. 249
g (x1 , x2 , x3 ), (y1 , y2 , y3 ) = x1 y1 + x1 y2 + 2x1 y3 + 5x2 y1 + x2 y2
–h : R3 × R3 → R tale che
h (x1 , x2 , x3 ), (y1 , y2 , y3 ) = x1 y1 + 5x1 y2 + 3x1 y3 + x2 y1 + x2 y2
.
= +7x2 y3 + x3 y1 + x3 y2 + 2x3 y3
Nessuna delle precedenti forme bilineari é simmetrica. Per ottenere l’unica forma
bilineare simmetrica associata a q, é sufficiente scegliere una qualsiasi delle prece-
denti forme f , g oppure h, individuare la matrice A ad essa relativa, ed effettuare il
calcolo 21 (A + AT ).
Ad esempio, la matrice associata a f é
141
A = 2 1 6
322
per cui
132
1
(A + AT ) = 3 1 4
2
242
che é la matrice rappresentativa (rispetto alla base canonica) sia di q che dell’unica
forma bilineare associata a q.
Lo stesso otterremmo se scegliessimo di utilizzare le matrici rappresentative di g
oppure di h.
Esempio 143. Sia f : R3 × R3 −→ R la forma bilineare simmetrica definita da
110 y1
f (X,Y ) = x1 x2 x3 1 0 2 y2 = x1 y1 + x2 y1 + x1 y2 + 2x3 y2 + 2x2 y3 + x3 y3
021 y3
021 x3
0 −2 −1 x3
e quindi
f (X,Y ) = x1 y1 + x2 y2 + . . . + xn yn
il quale é ben noto come prodotto scalare standard. Uno spazio vettoriale V in cui
sia introdotto un prodotto scalare é detto spazio vettoriale euclideo.
Dedichiamo quest’ultima Sezione proprio all’esposizione di alcuni metodi utili
per stabilire se una forma bilineare simmetrica (o equivalentemente una forma
quadratica) reale sia definita positiva, cioé quando essa é un prodotto scalare.
Teorema 9.40. Sia f : Rn × Rn → R una forma bilineare simmetrica e sia A la
matrice che la rappresenta rispetto ad una base B = {e1 , . . . , en } di Rn . Allora f é
definita positiva (é un prodotto scalare) se e solo se tutti gli autovalori di A sono
positivi.
Dim. É una conseguenza del Teorema 9.30. Infatti, f é definita positiva se e solo
se la sua segnatura é (n, 0). Ció accade se e solo se la matrice associata a f possiede
solo autovalori positivi. t
u
Il seguente Teorema, noto come criterio di Cartesio, é utile per determinare il segno
degli autovalori di una matrice, come radici del suo polinomio caratteristico. Puó
quindi essere uno strumento per determinare la segnatura di una forma quadratica o
bilineare simmetrica:
Teorema 9.41. Sia p(x) = an xn + an−1 xn−1 + . . . + ar xr un polinomio di grado n
a coefficienti ai reali, con 0 ≤ r ≤ n e ar 6= 0. Supponiamo che p(x) abbia tutte le
radici reali. Allora
1. 0 é radice di p(x) se e solo se r ≥ 1 (in tale caso la molteplicitá dello 0 come
radice del polinomio é esattamente r);
2. p(x) ha tante radici positive quante sono le variazioni di segno nella successione
dei suoi coefficienti non nulli.
Terminiamo osservando come l’analisi delle sottomatrici principali alte della matri-
ce associata ad una forma bilineare simmetrica possa aiutarci nel comprendere se la
forma sia definita positiva.
Di seguito, data la matrice A = Mn (R), indicheremo col termine Ak la sottomatrice
principale alta di ordine k, ovvero quella ottenuta prendendo ordinatamente la prime
k righe e k colonne di A. Inoltre diremo minore complementare principale di ordine
k il determinante della sottomatrice principale alta Ak .
9.10 Esercizi svolti. 253
Svolg.
La matrice associata alla forma quadratica é
1 −1 12
A = −1 0 0
1
2 0 0
C1 = 0 1 0
00 1
da cui
1
x1 = x10 + x20 − x30 , x2 = x20 , x3 = x30 .
2
L’espressione della forma quadratica nelle nuove coordinate é
1
q(x10 , x20 , x30 ) = x10 2 − x20 2 − x30 2 + x20 x30
4
con matrice associata
1 0 0
A0 = 0 −1 21 .
0 12 − 14
Poiché q(e02 ) 6= 0 allora possiamo effettuare il seguente cambiamento di base:
254 9 Le forme bilineari e le forme quadratiche reali.
1
e001 = e01 , e002 = e02 , e003 = e03 − 2
e02 = e03 + e02
−1
la cui matrice associata é
100
C2 = 0 1 12
001
da cui
1
x10 = x100 ,
x20 = x200 + x300 , x30 = x300 .
2
L’espressione della forma quadratica nelle nuove coordinate é
per cui B = {(1, 0, 0), (1, 1, 0), (0, 12 , 1)} e la matrice associata alla forma quadratica
in base B é A00 = CT AC. tu
Esercizio 74. Sia q : R3 −→ R la forma quadratica definita da q(X) = 2x12 − x1 x2 +
2x1 x3 cioé
1
21 − 2 1 x1
q(X) = x1 x2 x3 − 2 0 0 x2 .
1 0 0 x3
Determinarne una forma diagonale.
2 − 12 1
A = − 12 0 0
1 0 0
− 21 1 1
e01 = e1 , e02 = e2 − e1 = e2 + e1 , e03 = e3 − e1
2 4 2
9.10 Esercizi svolti. 255
C1 = 0 1 0
00 1
da cui
1 1
x1 = x10 + x20 − x30 , x2 = x20 , x3 = x30 .
4 2
L’espressione della forma quadratica nelle nuove coordinate é
1 1 1
q(x10 , x20 , x30 ) = 2x10 2 − x20 2 − x30 2 + x20 x30
8 2 2
con matrice associata
2 0 0
A0 = 0 − 18 14 .
0 14 − 12
Poiché q(e02 ) 6= 0 allora possiamo effettuare il seguente cambiamento di base:
1
e001 = e01 , e002 = e02 , e003 = e03 − 4
e02 = e03 + 2e02
− 81
per cui B = {(1, 0, 0), ( 14 , 1, 0), (0, 2, 1)} e la matrice associata alla forma quadratica
in tale base é A00 = CT AC.
256 9 Le forme bilineari e le forme quadratiche reali.
Per ottenere una forma diagonale in cui compaiano come coefficienti non nulli so-
lamente +1 e −1 dobbiamo esprimere la forma quadratica rispetto ad una base
ortonormale B0 . Questa si ottiene dalla base ortogonale B, dividendo il vettore che
occupa la colonna i nella matrice C, per la radice quadrata del valore assoluto dello
scalare (se é non nullo) presente nella colonna i della matrice A00 :
(1, 0, 0) ( 1 , 1, 0)
B0 = { √ , 4q , (0, 2, 1)} =
2 1
8
1 1 √
{( √ , 0, 0), ( √ , 2 2, 0), (0, 2, 1)}.
2 2
Quindi la matrice ortonormale di cambiamento di base
1 1
√ √ 0
2 √2
C0 = 0 2 2 2
0 0 1
t
u
Esercizio 75. Sia q : R3 −→ R la forma quadratica definita da q(X) = 2x1 x2 +
2x1 x3 − 2x32 cioé
01 1 x1
q(X) = x1 x2 x3 1 0 0 x2 .
1 0 −2 x3
Determinarne una forma diagonale.
Svolg.
La matrice associata alla forma quadratica é
01 1
A = 1 0 0
1 0 −2
1 1
e001 = e01 , e002 = e02 − e01 , e003 = e03 − e01
2 2
la cui matrice associata é
1 − 21 − 12
C2 = 0 1 0
0 0 1
da cui
1 1
x10 = x100 − x200 − x300 , x20 = x200 , x30 = x300 .
2 2
L’espressione della forma quadratica nelle nuove coordinate é
1 5
q(x100 , x200 , x300 ) = 2x100 2 − x200 2 − x300 2 − x200 x300
2 2
con matrice associata
2 0 0
A00 = 0 − 21 − 12 .
0 − 12 − 52
Poiché q(e002 ) 6= 0 allora possiamo effettuare il seguente cambiamento di base:
e000 00
1 = e1 , e000 00
2 = e2 , e000 00 00
3 = e3 − e2
1 − 12 0
C = 1 12 −1
0 0 1
per cui B = {(1, 1, 0), (− 21 , 21 , 0), (0, −1, 1)} e la matrice associata alla forma qua-
dratica in tale base é A000 = CT AC.
Per ottenere una forma diagonale in cui compaiano come coefficienti non nulli so-
lamente +1 e −1 dobbiamo esprimere la forma quadratica rispetto ad una base
ortonormale B0 . Questa si ottiene dalla base ortogonale B, dividendo il vettore che
occupa la colonna i nella matrice C, per la radice quadrata del valore assoluto dello
scalare (se é non nullo) presente nella colonna i della matrice A000 :
1 1 1 1 1 1
{( √ , √ , 0), (− √ , √ , 0), (0, − √ , √ )}.
2 2 2 2 2 2
Quindi la matrice ortonormale di cambiamento di base
1
√ − √1
2 2
0
C0 = √12 √12 − √12
0 0 √1
2
t
u
Esercizio 76. Sia q : R3 −→ R la forma quadratica definita da q(X) = x12 + 2x22 +
2x1 x3 + x32 cioé
9.10 Esercizi svolti. 259
101 x1
q(X) = x1 x2 x3 0 2 0 x2 .
101 x3
Determinarne una forma diagonale.
(0, 1, 0)
B0 = {(1, 0, 0), √ , (−1, 0, 1)}.
2
Quindi la matrice ortonormale di cambiamento di base
260 9 Le forme bilineari e le forme quadratiche reali.
1 0 −1
C0 = 0 √12 0
0 0 1
che individua una forma quadratica semidefinita positiva di segnatura (2, 0).
tale che
000
CT AC = 0 2 0 .
002
Al solito, per ottenere una forma diagonale in cui compaiano come coefficienti non
nulli solamente +1 e −1 dobbiamo esprimere la forma quadratica rispetto ad una
base ortonormale B0 che si ottiene dalla base B, dividendo ogni vettore per la radice
quadrata del valore assoluto dell’autovalore (se é non nullo) ad esso relativo:
1 1 1 1 1
B0 = {( √ , 0, − √ ), ( , 0, ), (0, √ , 0)}.
2 2 2 2 2
La matrice di cambiamento di base é allora
9.10 Esercizi svolti. 261
√1 1
2 2 0
C0 = 0 0 √12
− √12 12 0
tale che
000
C0T AC0 = 0 1 0 .
001
t
u
Esercizio 77. Sia q : R2 −→ R la forma quadratica definita da q(X) = 3x12 + 3x22 +
4x1 x2 cioé
3 2 x1
q(X) = x1 x2 .
2 3 x2
Determinarne una forma diagonale.
2
e01 = e1 , e02 = e2 − e1
3
la cui matrice associata é
1 − 23
C=
0 1
da cui
2
x1 = x10 − x20 , x2 = x20 .
3
L’espressione della forma quadratica nelle nuove coordinate é
5
q(x10 , x20 ) = 3x10 2 + x20 2
3
con matrice associata
0 30
A = .
0 53
La base ortogonale B rispetto a cui la forma quadratica si esprime in forma diagonale
é data dalle colonne della matrice C, cioé:
2
B = {(1, 0), (− , 1)}
3
e la matrice associata alla forma quadratica in tale base é A0 = CT AC.
262 9 Le forme bilineari e le forme quadratiche reali.
Per ottenere una forma diagonale in cui compaiano come coefficienti non nulli so-
lamente +1 e −1 dobbiamo esprimere la forma quadratica rispetto ad una base
ortonormale B0 . Questa si ottiene dalla base ortogonale B, dividendo il vettore che
occupa la colonna i nella matrice C, per la radice quadrata del valore assoluto dello
scalare (se é non nullo) presente nella colonna i della matrice A0 :
(1, 0) (− 2 , 1)
B0 = { √ , q3 }=
3 5
3
√
1 2 3
{( √ , 0), (− √ , √ )}.
3 15 5
Quindi la matrice ortonormale di cambiamento di base
" 1
√ − √2
#
C0 = 3 √ 15
0 √35
Risolviamo adesso lo stesso esercizio tramite l’utilizzo degli autovalori della matri-
ce A.
Dopo aver risolto l’equazione caratteristica associata alla matrice A, si ottengono
come autovalori λ1 = 5 e λ2 = 1, entrambi con molteplicitá algebrica 1.
L’autospazio relativo a λ1 é generato dall’autovettore (1, 1), il quale diventa ( √12 , √12 ),
una volta normalizzato.
L’autospazio relativo a λ2 é generato dall’autovettore (1, −1). Da quest’ultimo, una
volta normalizzato, otteniamo il vettore di componenti ( √12 , − √12 ).
La base rispetto a cui la forma quadratica é diagonalizzabile, con gli autovalori sul-
la diagonale principale della matrice ad essa associata, é formata proprio da tali
autovettori normalizzati:
1 1 1 1
B = {( √ , √ ), ( √ , − √ )}.
2 2 2 2
La matrice di cambiamento di base é allora
" 1 #
√ √1
C= 2 2
√1 − √12
2
tale che
9.10 Esercizi svolti. 263
50
CT AC = .
01
Al solito, per ottenere una forma diagonale in cui compaiano come coefficienti non
nulli solamente +1 e −1 dobbiamo esprimere la forma quadratica rispetto ad una
base ortonormale B0 che si ottiene dalla base B, dividendo ogni vettore per la radice
quadrata del valore assoluto dell’autovalore (se é non nullo) ad esso relativo:
1 1 1 1
B0 = {( √ , √ ), ( √ , − √ )}.
10 10 2 2
La matrice di cambiamento di base é allora
" 1 #
√ √1
0 10 2
C =
√1 − √12
10
tale che
0T 100
C AC = .
01
t
u
Esercizio 78. Sia q : R3 −→ R la forma quadratica definita da q(X) = x12 + 6x22 +
4x1 x2 + x32 cioé
120 x1
q(X) = x1 x2 x3 2 6 0 x2 .
001 x3
Determinarne una forma diagonale.
(−2, 1, 0)
B0 = {(1, 0, 0), √ , (0, 0, 1)}.
2
Quindi la matrice ortonormale di cambiamento di base
1 − √22 0
C0 = 0 √1 0
2
0 0 1
che individua una forma quadratica definita positiva di segnatura (3, 0), che in base
B0 si presenta in forma di prodotto scalare standard. t
u
Esercizio 79. Sia q : R3 −→ R la forma quadratica definita da q(X) = 4x1 x2 − x12 −
5x22 − 4x32 cioé
−1 2 0 x1
q(X) = x1 x2 x3 2 −5 0 x2 .
0 0 −4 x3
Determinarne una forma diagonale.
(0, 0, 1)
B0 = {(1, 0, 0), (2, 1, 0), √ }=
4
(0, 0, 1)
{(1, 0, 0), (2, 1, 0), }.
2
Quindi la matrice ortonormale di cambiamento di base
120
C0 = 0 1 0
0 0 12
che individua una forma quadratica definita negativa di segnatura (0, 3).
t
u
Capitolo 10
I sistemi di riferimento in uno spazio affine ed
euclideo.
Lo scopo della seconda parte della presente trattazione é quello di descrivere al-
cune applicazioni geometriche delle strutture algebriche analizzate nei precedenti
Capitoli. Per farlo é necessario introdurre un modello geometrico che aderisca alle
caratteristiche fondamentali dell’ambiente reale in cui le nostre esperienze sensoriali
si sviluppano, ovvero un ambiente a 3 dimensioni.
267
268 10 I sistemi di riferimento in uno spazio affine ed euclideo.
ϕ : S×S →V
ϕ(O, P) = x1 e1 + x2 e2 + · · · + xn en
ϕ(O, P) = x1 e1 + x2 e2 + · · · + xn en
Siano A, B due punti del piano (o dello spazio). Il segmento avente per estremi i
punti A, B é detto orientato, se su di esso si individua un verso di percorrenza posi-
tivo. Per convenzione, indicheremo AB il segmento orientato nel caso in cui il verso
dipercorrenza positivo sia da A verso B.
Un segmento orientato AB si dice anche vettore applicato in A ed é individuato da:
1. una direzione, che é la retta su cui giace il segmento AB;
2. un verso, che é quello che si osserva percorrendo il segmento AB andando da A
verso B;
3. un modulo, che é il numero reale non negativo che misura la lunghezza del
segmento AB.
Un vettore é detto versore di una retta, se giace su tale retta ed é ha modulo pari a 1.
Due segmenti orientati AB e A0 B0 sono equipollenti se hanno la stessa direzione,
lo stesso verso e lo stesso modulo. Tale relazione tra segmenti é una equivalenza
nell’insieme di tutti i segmenti orientati del piano (o dello spazio). Per cui tutti i
segmenti orientati sono ripartiti in classi di equivalenza. Un classe di equivalenza é
quindi rappresentata da un qualsiasi segmento orientato AB che vi appartiene, ed é
composta da tutti i segmenti orientati equipollenti al segmento AB. In generale, una
tale classe di equivalenza é indicata con il simbolo [AB]. Identifichiamo tra loro tutti
i segmenti appartenenti ad una stessa classe di equivalenza. Ciascuna classe é detta
vettore geometrico o vettore libero. Ció vuol dire che, fissato un punto del piano
(o dello spazio) O, ciascuna classe di equivalenza possiede un rappresentante che
sia applicato in O. Pertanto, da ora in avanti, tutti i vettori geometrici da noi intro-
dotti, saranno applicati in un medesimo punto, mantenendo la propria direzione ed
il proprio verso. In particolare, é utile rappresentare ciascuna classe di equivalenza
attraverso l’elemento della classe applicato nell’origine del sistema di riferimento
OXY nel piano, ovvero OXY Z nello spazio.
271
272 11 I vettori geometrici.
Siano OP e OP1 due vettori aventi la stessa direzione e stesso verso. Definiamo
somma dei vettori OP + OP1 , il vettore avente per direzione e verso quelli dei vetto-
ri addendi, e per modulo |OP + OP1 | la somma dei moduli |OP| + |OP1 |.
Siano ora OP e OP1 due vettori aventi stessa direzione ma verso opposto. Definiamo
somma dei vettori OP + OP1 il vettore avente direzione dei vettori addendi, verso
coincidente con quello del vettore addendo di modulo maggiore, e modulo pari al
valore assoluto della differenza dei moduli dei vettori addendi.
Siano infine OP e OP1 due vettori con direzioni differenti. Si costruisca il parallelo-
gramma di lati OP e OP1 e si indichi con Q il quarto vertice del parallelogramma.
Definiamo somma OP + OP1 il vettore avente per direzione quella della retta su cui
giace la diagonale OQ, per verso quello di percorrenza da O a Q e per modulo la
lunghezza della diagonale OQ del parallelogramma.
Notiamo anche che dalla definizione di somma OP+OP1 = OQ si ricava al contrario
anche quella di differenza tra due vettori OQ − OP = OP1 , come lato del parallelo-
gramma avente per diagonale OQ e per secondo lato OP.
Indichiamo piú semplicemente v, v1 , v2 , v3 vettori del piano (o dello spazio). La
somma tra vettori gode delle seguenti proprietá:
1. Commutativa: v1 + v2 = v2 + v1 ;
2. Associativa : (v1 + v2 ) + v3 = v1 + (v2 + v3 );
3. Esistenza dell’elemento neutro : v + 0 = 0 + v = v, dove per vettore 0 si intende
il segmento OO;
4. Esistenza dell’elemento opposto : v + (−v) = 0.
Tali proprietá rendono l’insieme dei vettori geometrici del piano (o dello spazio),
rispetto all’operazione di somma, un gruppo commutativo.
Siano v un vettore e α ∈ R. Definiamo il vettore αv come quello avente la direzione
del vettore v, il modulo pari a |α||v| e verso coincidente con quello di v, se α > 0,
opposto a quello di v, se α < 0.
Il prodotto cosı́ definito gode delle seguenti proprietá:
1. (αβ )v = α(β v), per α, β ∈ R;
2. 1 · v = v, dove 1 é l’unitá in R;
3. (α + β )v = αv + β v;
4. α(v1 + v2 ) = αv1 + αv2 .
L’insieme di tutti i vettori geometrici, rispetto alle operazioni di somma e prodotto
per uno scalare da noi definite, viene detto spazio vettoriale geometrico.
11.3 Combinazioni lineari e componenti in un riferimento ortogonale. 273
Diremo quindi che il vettore v ha componenti (3, −2, 2) rispetto alla terna di vettori
v1 , v2 , v3 , mentre ha componenti (8, −10, 7) rispetto all aterna i, j, k dei versori degli
assi coordinati.
Diremo che due vettori v = (vx , vy , vz ) e w = (wx , wy , wz ) sono uguali se e solo se
hanno le stesse componenti rispetto ai versori degli assi coordinati.
Dalla definizione di componenti appena data, si puó facilmente q dedurre che il
modulo di un vettore v di componenti (vx , vy , vz ) é dato da |v| = v2x + v2y + v2z .
v 2 3 1
u= = i− j + k.
|v| 14 14 14
Si noti che tale prodotto ha come risultato uno scalare (un numero reale), inoltre
esso é commutativo, cioé v × w = w × v ed infine esso é nullo solo quando uno dei
due vettori é nullo oppure se i due vettori sono tra loro ortogonali.
Nel caso i due vettori siano considerati in uno spazio dotato di riferimento cartesia-
no, allora v = (vx , vy , vz ) e w = (wx , wy , wz ), ed il prodotto scalare si presenta nella
seguente forma:
v × w = (vx i + vy j + vz k) × (wx i + wy j + wz k) = vx wx + vy wy + vz wz .
v × w = 2 − 1 − 2 = −1
√ √
ed i rispettivi moduli sono |v| = 6, |w| = 6. Per cui, detto l’angolo tra di essi
compreso,
11.4 Prodotto scalare e proiezione su una retta. 275
−1 1
cos(ϕ) = √ √ = − .
6 6 6
Inoltre i coseni direttori di v e w sono rispettivamente:
2 1 1
cos(vX) = √ , cos(vY ) = − √ , cos(vZ) = √
6 6 6
1 1 2
cos(wX) = √ , cos(wY ) = √ , cos(wZ) = − √ .
6 6 6
Siano ora v = OQ e r una retta passante per O di versore u, tale che la direzione del
vettore e quella della retta formino un angolo ϕ. Diciamo componente di v rispetto
alla retta r, la lunghezza del segmento OQ0 , dove Q0 é la proiezione ortogonale di
Q su r. Applicando ora le regole trigonometriche sulla risoluzione dei triangoli, si
osserva facilmente che
Diremo invece vettore proiezione v0 di v su r, quello avente per modulo |OQ0 | e per
direzione e verso quelli di u, cioé:
v0 = |OQ0 | · u = (v × u) · u.
Si noti che pur non conoscendo il versore della retta r, esso si puó ricavare se é noto
w
un vettore w parallelo a r. In tal caso u = |w| ed otteniamo
w w w
v0 = (v × )· = (v × w) · 2 .
|w| |w| |w|
v0 = (v × u)u
= √23 u
2 1 1 1
= 3
√ √
3
i+ 3 j + 3k
√ √
2
= 3 i+ j+k .
A = |v||w|sen(ϕ) = |v ∧ w|
concludendo che l’area del parallelogramma avente per lati v, w é pari al modulo del
prodotto vettoriale v ∧ w.
Poniamoci ora nel caso in cui i due vettori appartengano allo spazio cartesiano, per
cui v = (vx , vy , vz ) e w = (wx , wy , wz ). Calcoliamo ora il loro prodotto vettoriale:
v ∧ w = (vx i + vy j + vz k) ∧ (wx i + wy j + wz k) =
vettoriale:
i ∧ j = − j ∧ i = k, j ∧ k = −k ∧ j = i, i ∧ k = −k ∧ i = − j
i ∧ i = 0, j ∧ j = 0, k ∧ k = 0.
Dal controesempio che segue si deduce inoltre che per il prodotto vettoriale non vale
la proprietá associativa:
i ∧ (i ∧ k) = i ∧ (− j) = k
ma
(i ∧ i) ∧ k = 0.
Esempio 149. Il prodotto vettoriale tra v = 2i − 3 j + k e w = i + 2 j + k nello spazio
cartesiano ortogonale é dato dal seguente determinante:
i j k
v ∧ w = 2 −3 1 = −5i − j + 7k.
1 2 1
u1 ∧ u2
w = (v × u) · u = [v × (u1 ∧ u2 )] · .
|u1 ∧ u2 |2
u1 ∧ u2 1 1 2
u= = √ i − √ j − √ k.
|u1 ∧ u2 | 6 6 6
Determiniamo adesso la proiezione w0 di v lungo la retta contenente u:
v0 = (v
× u)u
1 1 4 1 1 2
= √
6
− 6+ 6 ·
√ √ √
6
i− 6 j − 6k
√ √
= √46 · √16 i − √16 j − √26 k
2 2 4
= 3i− 3 j − 3k .
Siano u, v, w tre vettori nello spazio affine A3 . Definiamo prodotto misto quello sca-
lare che si ottiene dall’esecuzione, rispettando l’associazione tramite parentesi, dei
prodotti u × (v ∧ w).
Nel caso i tre vettori siano dati in uno spazio cartesiano ortogonale, allora u =
(ux , uy , uz ), v = (vx , vy , vz ), w = (wx , wy , xz ) e svolgendo il prodotto si ottiene:
da cui
11.7 Esercizi svolti. 279
v∧w
V0 = |v ∧ w| · u × = u × (v ∧ w).
|v ∧ w|
Esempio 151. Determiniamo i valori reali dei parametri α, β per i quali is eguenti
vettori siano complanari:
v = αi + j − 2β k, w = αi − j − k, u = 2i − 2 j − β k.
u × (v ∧ w) = 3αβ − 2β − α − 1. (11.1)
Quindi
u × (v ∧ w) = 0 ⇐⇒ 3αβ − 2β − α − 1 = 0.
Riscrivendo la precedente relazione, abbiamo che
u × (v ∧ w) = 0 ⇐⇒ α(3β − 1) = 1 + 2β .
1+2β
Per ogni valore β 6= 31 , e per α = 3β −1 , i tre vettori sono complanari.
1
Nel caso di β = 3, la (11.1) si scrive
2
u × (v ∧ w) = − − 1 6= 0
3
per cui i tre vettori non sono complanari.
2i − j + k = α1 ( j + k) + α2 (i + 2 j) + α3 (2i + k)
280 11 I vettori geometrici.
ovvero
2i − j + k = (α2 + 2α3 )i + (α1 + 2α2 ) j + (α1 + α3 )k.
Uguagliando le componenti omologhe dei due vettori, abbiamo
α2 + 2α3 = 2
α1 + 2α2 = −1
α1 + α3 = 1
da cui
1 2 6
α1 = − , α2 = − , α3 = .
5 5 5
Infine
1
v1 = − ( j + k)
5
e
2 6 4 6
v2 = − (i + 2 j) + (2i + k) = 2i − j + k.
5 5 5 5
Svolgimento:
√ √ √
1. |u| = 1 + 4 + 9 = 14, |v| = 9 = 3.
2. u × v= (-2)(-3)=6; q
6 2
3. cos(ϕ) = √
3· 14
= 7;
√1 , −2 √3 ,
4. u × i = 14
u× j = √
14
, u×k = 14
v × i = 0, v × j = −1, v × k = 0.
Svolgimento:
1 u×v
cos( π3 ) = 2 = |u|·|v|
a+1+2a−1
= √ √
6 a2 +1+2a+a2 +1
3a
= √ √
6 2a2 +2a+2
da cui √ p
6 2a2 + 2a + 2 = 6a.
Poiché 2a2 + 2a + 2 > 0 per ogni a ∈ R, avremo allora a > 0. Risolvendo allora
11.7 Esercizi svolti. 281
Poiché 5a2 + 25 > 0 per ogni a ∈ R, non abbiamo alcun vincolo su a ∈ R. Quindi
√
2 4
=√
2 2
5a + 25
√ q
da cui 10a2 + 50 = 8 e quindi 10a2 + 50 = 64. Infine otteniamo a = ± 75 .
Esercizio 84. Siano u = (1, 2, −2) e v = (3, 0, 1). Determinare la proiezione orto-
gonale di v rispetto alla retta r contenente u.
u1 ∧ u2 −i + 2 j − k
u= = √ .
|u1 ∧ u2 | 6
Quindi
2 −i + 2 j − k
w = (v × u)u = √ u =
6 3
ed infine
−i + 2 j − k 4 4 4
v0 = v − w = (i + 2 j + k) − ( ) = i+ j+ k
3 3 3 3
Esercizio 87. Determinare il volume del parallelepipedo avente per spigoli i vettori
i + j, k, −i + k.
Svolgimento: Il volume é dato dal valore assoluto del determinante della matrice
1 10
0 0 1 .
−1 0 1
Ogni retta del piano affine A2 puó essere individuata da un suo punto P0 = (x0 , y0 )
e da un vettore v = (l, m) ad essa parallelo. Se P = (x, y) é un qualsiasi punto della
retta, ne segue che il vettore P0 P sará proporzionale al vettore v, in quanto paralleli.
In altri termini avremo che P0 P = tv, per un opportuno scalare t, dipendente dalla
scelta di P sulla retta. Al variare di t ∈ R, si ottiene la proporzionalitá di v con ogni
vettore scelto sulla retta, cioé si ottengono tutti i punti della retta:
x − x0 = tl
y − y0 = tm
Gli elementi della coppia (l, m) sono detti parametri direttori della retta. In partico-
lare se si conoscono due punti della retta P1 = (x1 , y1 ) e P2 = (x2 , y2 ), il vettore P1 P2
é parallelo alla retta e quindi (l, m) = (x2 − x1 , y2 − y1 ) e l’equazione si puó ottenere
nel modo seguente:
x = x1 + t(x2 − x1 )
y = y1 + t(y2 − y1 )
da cui
x − x1 y − y1
t= =
x2 − x1 y2 − y1
x − x1 y − y1
t= =
l m
che é detta equazione a catena di una retta.
Da tali espressioni, eliminando il parametro t, otteniamo
283
284 12 Geometria nel piano affine e nel piano euclideo.
mx − mx0 − ly + ly0 = 0
da cui
x−1 y−3
t= = .
2 −5
L’equazione cartesiana in forma implicita della retta é quindi
5x − 2y − 11 = 0.
Diremo che due rette sono parallele se esse hanno i parametri direttori proporzionali
(in particolare identici). Si noti che quando la retta é espressa in forma implicita, i
suoi parametri direttori sono dati dalla coppia (l, m) = (b, −a).
Dalla forma implicita ax + by + c = 0 di una retta, ricaviamo la forma detta esplicita:
y = mx + q, per m = − ab e q = − bc .
Abbiamo visto come l’equazione della retta passante per i due punti P1 = (x1 , y1 ) e
P2 = (x2 , y2 ) si scriva
x − x1 y − y1
=
x2 − x1 y2 − y1
che equivale alla
(x − x1 )(y2 − y1 ) − (y − y1 )(x2 − x1 ) = 0
cioé
x − x1 y − y1
x2 − x1 y2 − y1 = 0.
Esempio 153. Scegliamo due punti nel piano: P1 = (1, 3) e P2 = (2, −2). Per de-
terminare la retta contenente i due punti, inizialmente esprimiamo le componenti
del vettore v = P1 P2 , attraverso la differenza delle coordinate omologhe dei punti:
v = (1, −5). La retta richiesta é quindi quella contenente il punto P1 e parallela al
vettore v. Essa ha equazioni parametriche
x = t +1
y = −5t + 3
da cui
y−3
t = x−1 = .
−5
L’equazione cartesiana in forma implicita della retta é quindi
5x + y − 8 = 0.
Se ne deduce che, tutti e soli i punti allineati con P1 e P2 , ovvero i punti appartenenti
alla retta, hanno coordinate (α, 8 − 5α), al variare di α ∈ R. Infatti
1 3 1
2 −2 1 = 0.
α 8 − 5α 1
a b c
= 0 6= 0 .
a0 b c
286 12 Geometria nel piano affine e nel piano euclideo.
0
Allora possiamo dire che le due rette sono parallele quando ab = ab0 . Il rapporto − ab
é detto coefficiente direttore (o angolare) della retta, quindi due rette sono parallele
se hanno lo stesso coefficiente direttore.
Esempio 154. Le rette
r1 : 2x − 3y + 1 = 0
e
r2 : 4x − 6y + 7 = 0
sono parallele. Invece le equazioni lineari
x − 3y + 4 = 0, 2x − 6y + 8 = 0
λ (ax + by + c) + ρ(a0 x + b0 y + c0 ) = 0
a b a b c
A = a0 b0 , C = a0 b0 c0 .
a00 b00 a00 b00 c00
Se rango(A) = rango(C) = 2, allora il sistema ammette una sola soluzione, cioé le
tre rette hanno un punto in comune: esse appartengono ad un fascio proprio.
Se rango(A) = 1 e rango(C) = 2, allora il sistema é incompatibile ed le tre rette
sono parallele: esse appartengono ad un fascio improprio.
Possiamo concludere allora che la condizione necessaria e sufficiente affinché le tre
rette appartengano allo stesso fascio (proprio o improprio che sia) é che la matrice
a b c
a0 b0 c0
a00 b00 c00
abbia rango ≤ 2.
Esempio 155. Riprendiamo l’Esempio 154 e consideriamo le rette parallele r1 , r2 .
Esse possono essere utilizzate per generare un fascio improprio di rette, la cui
equazione é
λ (2x − 3y + 1) + µ(4x − 6y + 7) = 0, λ , µ ∈ R.
Se invece consideriamo le rette tra loro incidenti t1 ,t2 , queste possono essere
utilizzate per generare un fascio proprio di rette, la cui equazione é
λ (x − 3y + 3) + µ(2x − 5y + 6) = 0, λ , µ ∈ R.
Il centro di tale fascio si ottiene intersecando due qualsiasi rette del fascio. Le sue
coordinate sono (−3, 0).
m m
β = cos(r,Y ) ∈ {+ √ ,−√ }
2
l +m 2 l + m2
2
r : x + 3y − 1 = 0
s : 2x − y + 3 = 0.
I parametri direttori delle rette sono, rispettivamente, (3, −1)r e (1, 2)s . I loro coseni
direttori sono allora:
3 1
cos(r, X) = ± √ , cos(r,Y ) = ± √
10 10
1 2
cos(s, X) = ± √ , cos(s,Y ) = ± √ .
5 5
Il coseno dell’angolo compreso fra le due rette é:
1 1
cos(r, r0 ) = cos(v, v0 ) = ± √ √ =± √ .
10 · 5 5 2
Siano P1 = (x1 , y1 ) e P2 = (x2 , y2 ) due punti del piano euclideo E 2 . La distanza tra i
punti P1 e P2 é il modulo del vettore P1 P2 :
q
δ (P1 , P2 ) = (x2 − x1 )2 + (y2 − y1 )2 .
Esempio 157. Dati i punti P1 = (1, 2) e P2 = (−1, −4), la loro distanza é pari a
p √ √
22 + 62 = 40 = 2 10.
Quindi:
a b
δ (P0 H) = |(P0 Q1 ) × ( √ i+ √ j)| =
2
a +b 2 a + b2
2
a b
|((x1 − x0 )i + (y1 − y0 ) j) × ( √ i+ √ j)| =
2
a +b 2 a + b2
2
|ax0 + by0 + c|
δ (P0 H) = √ .
a2 + b2
Esempio 158. Dati un punto P = (1, 2) ed una retta r di equazione 3x − 2y + 4 = 0,
la distanza del punto dalla retta é pari a
|3 − 4 + 4| 3
√ =√ .
9+4 13
12.6 Simmetrie.
Due punti P1 = (x1 , y1 ) e P2 = (x2 , y2 ) sono simmetrici rispetto al punto Q = (a, b),
se Q é il punto medio del segmento P1 P2 , cioé se
x1 + x2 y1 + y2
a= , b= .
2 2
Quindi, dato un punto P1 = (x1 , y1 ), per determinare le coordinate (x2 , y2 ) del suo
simmetrico P2 rispetto al punto Q = (a, b), é sufficiente calcolare
x2 = 2a − x1 , y2 = 2b − y1 .
y − y1 = k(x − x1 )
al variare del parametro reale k otteniamo tutte le rette passanti per P1 . Fissiamo una
retta r0 di tale fascio e sia Q = r ∩ r0 . Il punto P2 , simmetrico di P1 rispetto a Q, é
detto il simmetrico di P1 rispetto alla retta r, lungo la direzione individuata dalla
290 12 Geometria nel piano affine e nel piano euclideo.
retta r0 . Quindi uno stesso punto puó avere infiniti simmetrici rispetto ed una retta
che non lo contenga.
Esempio 159. Siano P = (1, 1) e r : x − y = 4. Determiniamo il simmetrico di P
rispetto a r lungo la direzione di coefficiente k = 3.
r0 : y − 1 = 3(x − 1) → y − 3x + 2 = 0.
t
u
Concludiamo con la definizione di asse di un segmento AB: esso é la retta perpendi-
colare ad AB e passante per il suo punto medio:
Esempio 160. Siano A = (1, −1) e B = (2, 3). Calcoliamo l’asse del segmento AB.
Svolg. Il vettore AB ha componenti (−1, −4), quindi una retta ad esso ortogonale
ha come parametri direttori, la coppia (b, −a) = (−4, 1).
Il punto medio di AB é Q = ( 32 , 1). Quindi l’asse del segmento AB ha equazione:
1 3
y − 1 = − (x − )
4 2
cioé
2x + 8y + 11 = 0.
t
u
Sia P = (x, y) un punto del piano. Diremo che (x1 , x2 , x3 ) sono le coordinate omo-
genee di P se xx31 = x e xx23 = y.
Nel caso x3 6= 0 le precedenti scritture hanno evidentemente un senso, e diremo che
il punto é proprio. Ogni punto proprio (x, y) puó banalmente essere individuato da
una terna di coordinate omogenee (x, y, 1). Inoltre due terne tra loro proporzionali
individuano lo stesso punto nel piano.
Nel caso il punto P sia individuato dalla terna (x, y, 0) esso verrá detto improprio.
12.7 Coordinate omogenee nel piano. 291
L’insieme dei punti impropri del piano forma una retta detta retta impropria, la cui
equazione é x3 = 0.
Certamente esse non hanno punti propri in comune. Osserviamo cosa accade alla
loro intersezione: il sistema formato dalle loro equazioni
ax1 + bx2 + cx3 = 0
ax1 + bx2 + c0 x3 = 0
12.8 La circonferenza.
Sia C = (α, β ) un punto del piano euclideo E 2 e sia r un numero reale positivo.
Diciamo circonferenza di centro C e raggio r, il luogo dei punti del piano la cui
distanza da C é pari a r. Sia P = (x, y) un punto qualsiasi della circonferenza:
q
δ (P,C) = (x − α)2 + (y − β )2 = r
(x − α)2 + (y − β )2 = r2
x2 + y2 + ax + by + c = 0.
In quest’ultima equazione compaiono i coefficienti legati alle coordinate del centro
e alla lunghezza del raggio r:
a b 1p 2
α =− , β =− , r= a + b2 − 4c
2 2 2
Esempio 161. Determinare la circonferenza di centro C = (1, 1) e raggio r = 3.
(x − 1)2 + (y − 1)2 = 9
x2 + y2 − 2x − 2y − 7 = 0
t
u
Esempio 162. Determinare centro e raggio della circonferenza x2 + y2 − 4x − 2y +
2 = 0.
Per ottenere la circonferenza passante per i tre punti dobbiamo sostituire le coor-
dinate dei punti nella generica equazione di una circonferenza. In tale caso la cir-
12.9 Trasformazioni nel piano euclideo. 293
conferenza contenente i tre punti é unica. Infatti il sistema lineare che dobbiamo
risolvere 2
x1 + y21 + ax1 + by1 + c = 0
x2 + y22 + ax2 + by2 + c = 0
22
x3 + y23 + ax3 + by3 + c = 0
nelle incognite (a, b, c) ha rango 3.
Esempio 163. Determinare la circonferenza contenente i punti (1, 2), (1, 8), (5, 0).
a + 2b + c = −5
a + 8b + c = −65
5a + c = −25
x2 + y2 − 10x − 10y + 25 = 0.
t
u
Traslazioni.
In un riferimento cartesiano OXY del piano euclideo, siano (x, y) le coordinate del
punto P. Supponiamo di considerare un secondo riferimento O0 X 0Y 0 in cui gli assi
X 0 , Y 0 siano paralleli rispettivamente a X e Y ed il punto O0 abbia coordinate (a, b)
rispetto a OXY .
Denotiamo (x0 , y0 ) le coordinate di P rispetto al riferimento O0 X 0Y 0 . La relazione che
intercorre tra le due coppie di coordinate di P é la seguente:
0
x = x−a
y0 = y − b
cioé 0
x cos(φ ) −sen(φ ) x
= · 0
y sen(φ ) cos(φ ) y
e le formule inverse sono
0
x cos(φ ) sen(φ ) x
= ·
y0 −sen(φ ) cos(φ ) y
da cui
x0 = xcos(φ ) + ysen(φ )
.
y0 = −xsen(φ ) + ycos(φ )
Si noti che le due matrici usate per il cambiamento di base sono l’una la tra-
sposta dell’altra, ma anche l’una l’inversa dell’altra, infatti sono entrambe matrici
ortogonali.
Rototraslazioni.
Siano (x, y) le coordinate di P in OXY e consideriamo un riferimento O00 X 00Y 00 in cui
O00 abbia coordinate (a, b) rispetto a OXY e tale che gli assi X 00 e Y 00 siano ruotati in
senso antiorario di un angolo φ rispetto a X e Y . Determiniamo le coordinate (x00 , y00 )
di P nel secondo riferimento.
Effettuiamo prima una traslazione
OXY −→ O00 X 0Y 0
0
x = x−a
.
y0 = y − b
Successivamente operiamo con una rotazione
x00
cos(φ ) sen(φ ) x−a
= ·
y00 −sen(φ ) cos(φ ) y−b
ed inversamente abbiamo che:
00
x−a cos(φ ) −sen(φ ) x
= · 00
y−b sen(φ ) cos(φ ) y
cioé
00
x cos(φ ) −sen(φ ) x a
= · 00 + .
y sen(φ ) cos(φ ) y b
Due polinomi f (x, y) e g(x, y) nelle variabili x, y a coefficienti reali, sono detti pro-
porzionali se esiste α ∈ R tale che f (x, y) = αg(x, y). É facile verificare che tale
proporzionalitá é una relazione di equivalenza. In tal modo l’insieme R[x, y] di tutti
i polinomi nelle variabili x, y a coefficienti reali é suddiviso in classi di equivalenza,
ciascuna rappresentata da un qualsiasi polinomio ad essa appartenente. Una curva
algebrica piana γ é esattamente una qualsiasi classe di equivalenza di polinomi in
R[x, y]. Quindi, se f (x, y) é un polinomio rappresentante della classe, allora la curva
γ é rappresentata dall’equazione f (x, y) = 0.
In altre parole: sia f (x, y) = 0 una equazione in cui f (x, y) é un polinomio di grado
n nelle variabili x, y. Il luogo geometrico dei punti del piano le cui coordinate soddi-
sfano all’equazione f (x, y) = 0 si chiama curva algebrica di ordine n (o di grado n).
Ovvero, il grado di una curva é il grado del polinomio che la rappresenta. Le curve
algebriche di ordine 1 sono le rette, quelle di ordine 2 sono dette coniche, quelle di
ordine 3 e 4 sono dette rispettivamente cubiche e quartiche etc. etc.
Se il polinomio f (x, y) di grado n non si puó decomporre nel prodotto di due altri
polinomi di gradi inferioni a n, allora la curva γ : f (x, y) = 0 é detta irriducibile. In
caso contrario, ovvero se f (x, y) = g(x, y) · h(x, y), dove g(x, y) e h(x, y) sono due
polinomi di gradi rispettivamente r,t tali che r + t = n, allora la curva γ : f (x, y) = 0
si dice riducibile. In tale situazione, i punti della curva γ sono tutti e soli i punti della
curva γ1 : g(x, y) = 0 e quelli della curva γ2 : h(x, y) = 0. Quindi, geometricamente
parlando, la curva γ é l’unione delle due curve γ1 e γ2 . Algebricamente parlando, il
polinomio che rappresenta γ é il prodotto dei polinomi che rappresentano rispetti-
vamente γ1 e γ2 . Diremo inoltre che le curve γ1 e γ2 sono componenti della curva γ,
oppure anche che γ si spezza nelle sue componenti γ1 e γ2 .
296 12 Geometria nel piano affine e nel piano euclideo.
Adesso chiediamoci in quanti punti possano intersecarsi due distinte curve algebri-
che. La risposta a tale quesito é data dal seguente Teorema (di Bezout), del quale
forniamo semplicemente l’enunciato:
Teorema 12.2. Siano γ : f (x, y) = 0 e δ : g(x, y) = 0 due curve algebriche rispettiva-
mente di gradi n e m. Allora esse hanno esattamente n · m punti in comune (distinti
od anche alcuni di essi coincidenti), eccetto il caso in cui le due curve abbiano
infiniti punti in comune.
L’eventualitá che le due curve γ : f (x, y) = 0 e δ : g(x, y) = 0 abbiano infiniti punti
in comune si verifica nei seguenti casi:
1. sono entrambe riducibili e, nella loro decomposizione, presentano una compo-
nente η : h(x, y) = 0 in comune. I punti di intersezione sono in tal caso quelli
della curva η.
2. una di esse é riducibile e, nella sua decomposizione, ammette l’altra come
componente. Ad esempio, se γ ammette come compnente δ , allora f (x, y) =
g(x, y) · h(x, y), dove h(x, y) é un polinomio di grado m − n. In tal caso, i punti di
intersezione sono tutti e soli quelli della curva δ : g(x, y) = 0.
Esempio 164. Siano γ : x4 + 3xy2 = 0 e δ : x2 − y2 = 0. Dalla loro intersezione
otteniamo
4
x + 3xy2 = 0
3
x (x + 3) = 0 x = 0 3 volte x = −3 1 volta
=⇒ =⇒ ∪ =⇒ .
x 2 = y2 x2 = y2 y2 = 0 y2 = 9
Da qui abbiamo che (0, 0) appare come punto di intersezione con molteplicitá 6,
mentre i punti (−3, 3) e (−3, −3) entrambi con moteplicitá 1, per un totale di 8
punti di intersezione.
Esempio 165. Siano
γ : x5 − x3 y − x2 y − 2xy2 + x2 − y2 + y = 0
e
δ : x3 − x2 y + xy − y2 = 0.
Osservando che
e
x3 − x2 y + xy − y2 = (x − y)(x2 + y)
concludiamo che γ e δ hanno in comune tutti gli infiniti punti della curva η : x2 +y =
0.
Come caso particolare consideriamo quello in cui γ : f (x, y) = 0 sia una curva di
grado n e δ : g(x, y) = 0 sia una curva di grado 1, cioé una retta. Allora γ e δ
12.10 Un breve cenno sulle curve algebriche piane. 297
hanno n punti in comune eccetto quando δ sia una componente di γ cioé f (x, y) =
g(x, y) · h(x, y), dove h(x, y) é un polinomio di grado n − 1.
Esempio 166. Le curve γ : x3 − 3xy2 = 0 e δ : y − 1 = 0 hanno in comune i seguenti
3 punti : √ √
(0, 1), ( 3, 1), (− 3, 1).
Esempio 167. Le curve γ : x3 + x2 y − xy + x − y2 + y = 0 e δ : x + y = 0 hanno in
comune infiniti punti, cioé tutti quelli di δ , quindi la retta δ é una componente di γ,
infatti x3 + x2 y − xy + x − y2 + y = (x + y) · (x2 − y + 1).
x3 (x + m4 x + 2m2 x + 3m − m3 ) = 0
y = mx
in cui la soluzione (0, 0) é tripla, quindi P é un punto triplo per γ.
Esempio 171. Sia la curva di sesto grado γ : (x2 + y2 )3 − 4x2 y2 = 0 in OXY .
Determiniamo la molteplicitá di P(0, 0) ∈ γ.
Sia r la generica retta passante per P : y = mx.
Per ottenere la molteplicitá di P dobbiamo intersecare r con γ.
2
(x + y2 )3 − 4x2 y2 = 0
2
(x + m2 x2 )3 − 4m2 x4 = 0
→ →
y = mx y = mx
y = mx
in cui la soluzione (0, 0) é quadrupla, quindi P é un punto quadruplo per γ.
Per terminare questo capitolo, esponiamo a brevi linee (e certamente non nella sua
forma completa) il metodo generalmente utilizzato per una prima analisi degli even-
tuali punti doppi di una curva algebrica. Esso prevede la conoscenza da parte degli
studenti della definizione e del metodo di calcolo delle derivate parziali di funzioni
a due variabili, ed é qui espresso solo per un senso di completezza.
Sia P0 = (x0 , y0 ) un punto della curva rappresentata dal polinomio f (x, y), per cui
avremo che f (x0 , y0 ) = 0. Diremo che P0 é un punto doppio della curva se la coppia
di coordinate (x0 , y0 ) é una soluzione del sistema formato dalle equazioni:
12.11 Esercizi svolti. 299
f (x, y) = 0
f 0 (x, y) = 0
x0
fy (x, y) = 0
00 (x, y), f 00 (x, y), f 00 (x, y) non si annulla,
ed almeno una delle derivate seconde fxx yy xy
quando é calcolata in (x0 , y0 ).
Esempio 172. Sia γ : 2x4 − 3x2 y + y2 − 2y3 + y4 = 0. Determiniamo gli eventuali
punti doppi.
Risolviamo dapprima il sistema
Esso é soddisfatto dalla coppia (0, 0). Quindi il punto P0 = (0, 0) é il candidato ad
essere un punto doppio per la curva. In effetti la derivata seconda fyy 00 = 2 − 12y +
2
12y non si annulla in P0 , per cui esso é effettivamente un punto doppio.
1 + x0 2 1 + y0 11
= , =
2 5 2 5
da cui
1 17
P0 = − , .
5 5
Esercizio 89. Siano A = (2, −1) e B = (3, 2) punti del piano euclideo. Determinare
l’asse del segmento AB.
300 12 Geometria nel piano affine e nel piano euclideo.
x = −3t + 52
r ::
y = t + 12
ovvero
x − 52 1
t= = y−
−3 2
cioé
r : x + 3y − 4 = 0.
Esercizio 90. Determinare la circonferenza passante per i punti (0, 2), (1, 1),
(2, −1).
Svolgimento:
12.11 Esercizi svolti. 301
|2 − 3 + 17| 16
√ =√
4+9 13
3. Una qualsiasi retta ortogonale a r ha equazione 3x + 2y + c = 0, al variare di
c ∈ R. Imponendo il passaggio per il punto P, otteniamo 3 + 2 + c = 0, da cui
c = −5. L’equazione richiesta é quindi 3x + 2y − 5 = 0.
4. Una qualsiasi retta parallela a r ha equazione 2x − 3y + c = 0, al variare di c ∈ R.
Imponendo il passaggio per P, abbiamo 2 − 3 + c = 0, ovvero c = 1. Per cui
2x − 3y + 1 = 0 é l’equazione richiesta.
Esercizio 92. Siano γ : x2 + y2 − 3x + 2y − 1 = 0 una circonferenza e P0 = (1, 1) un
suo punto. Determinare l’equazione della retta tangente a γ in P0 .
x − 4y + 3 = 0.
del fascio .
Tale insieme di circonferenze puó essere rappresentato tramite una equazione f (x, y) =
0. Il polinomio f (x, y) si ottiene tramite una combinazione lineare di due polinomi:
uno rappresentativo di una circonferenza del fascio e l’altro rappresentativo della
retta tangente a tutte le circonferenze del fascio nel punto P0 . Costruiamo il fascio
di circonferenze tangenti alla retta t nel punto P0 :
x2 + y2 − 3x + 2y − 1 + λ (x − 4y + 3) = 0 λ ∈ R.
x2 + y2 − 2x − 2y + 1 + λ (x + y − 1) = 0 λ ∈ R.
4 + 1 + 4 + 2 + 1 + λ (−2 − 1 − 1) = 0 =⇒ λ = 3.
x2 + y2 − 2x − 2y + 1 + 3(x + y − 1) = 0
ovvero
x2 + y2 + x + y − 2 = 0.
Esercizio 95. Sia P(−1, 3) nel sistema di riferimento cartesiano OXY , O0 (1, 2) e
X 0 ,Y 0 assi paralleli rispettivamente a X e Y e passanti per O0 . Sia inoltre r : 3x +
y−1 = 0 rispetto a OXY . Determiniamo le coordinate di P e l’equazione di r rispetto
al riferimento O0 X 0Y 0 .
dove (a, b) sono le coordinate del nuovo centro del riferimento, ed applicandole nel
nostro caso otteniamo le coordinate di P0
0
x = −1 − 1 = −2
.
y0 = 3 − 2 = 1
y = y0 + b
da cui otteniamo l’equazione della retta
r: 3(x0 + 1) + (y0 + 2) − 1 = 0
3x0 + y0 + 4 = 0.
Esercizio 96. Siano P(1, −1) in OXY e X 0 ,Y 0 assi passanti per O e ruotati di π4
in senso antiorario rispetto a X,Y . Sia inoltre r : 2x + 3y − 2 = 0 rispetto al
riferimento OXY . Determiniamo le coordinate di P e l’equazione di r rispetto a
OX 0Y 0 .
da cui
x0 = xcos(φ ) + ysen(φ )
.
y0 = −xsen(φ ) + ycos(φ )
Le formule inverse sono
304 12 Geometria nel piano affine e nel piano euclideo.
0
x cos(φ ) −sen(φ ) x
= · 0
y sen(φ ) cos(φ ) y
da cui
x = x0 cos(φ ) − y0 sen(φ )
.
y = x0 sen(φ ) + y0 cos(φ )
Nel nostro caso le coordinate di P0 sono
( √ √
x0√= 22 (x + y) =√ 22 (1 − 1) = 0
√
y0 = 22 (−x + y) = 22 (−1 − 1) = − 2
Esercizio 97. Siano P(3, −1) e O0 (1, 2) in OXY e X 0 ,Y 0 assi passanti per O0 e ruotati
di π4 in senso antiorario rispetto a X,Y . Sia inoltre r : 2x + y − 3 = 0 rispetto al
riferimento OXY . Determiniamo le coordinate di P e l’equazione di r rispetto a
O0 X 0Y 0 .
da cui
x0 = (x − a)cos(φ ) + (y − b)sen(φ )
.
y0 = −(x − a)sen(φ ) + (y − b)cos(φ )
Le formule inverse sono
0
x cos(φ ) −sen(φ ) x a
= · 0 +
y sen(φ ) cos(φ ) y b
da cui
x = x0 cos(φ ) − y0 sen(φ ) + a
.
y = x0 sen(φ ) + y0 cos(φ ) + b
Nel nostro caso le coordinate di P0 sono
( √ √ √
x0 =
√ 2
2
(x − a + y − b) = √2
2
(2 − 3) = − 2
2 √
0
y = 2 (−x + a + y − b) = 2 (−2 − 3) = −5 22
2 2
Esercizio 98. Siano OXY un sistema di riferimento ortogonale nel piano euclideo,
P un punto di coordinate (−1, 3) rispetto a OXY e r una retta di equazione 2x −
3y + 1 = 0 in OXY . Determinare le coordinate di P e l’equazione di r in un secondo
sistema di riferimento O0 X 0Y 0 nei seguenti casi:
1. O0 ha coordinate (1, 2) rispetto a OXY e gli assi X 0 ,Y 0 sono paralleli agli assi X,Y
(traslazione).
2. O0 = O e gli assi X 0 ,Y 0 sono ruotati di un angolo α = π3 in senso antiorario
rispetto a X,Y (rotazione).
3. O0 ha coordinate (1, −1) rispetto a OXY e gli assi X 0 ,Y 0 sono ruotati di un angolo
α = π6 in senso antiorario rispetto a X,Y (rototraslazione).
Esercizio 99. Siano OXY un sistema di riferimento ortogonale nel piano euclideo e
γ : x2 + y2 − 3x + y − 1 = 0 una circonferenza la cui equazione é espressa rispetto
a OXY . Determinare l’equazione di γ in un secondo sistema di riferimento O0 X 0Y 0
nel caso i cui O0 abbia coordinate (2, 1) rispetto a OXY e gli assi X 0 ,Y 0 siano ruotati
di un angolo α = π4 in senso antiorario rispetto a X,Y .
Capitolo 13
Le Coniche.
307
308 13 Le Coniche.
f (x1 , x2 , x3 ) = X T · A · X = 0
1 − 12 12
A = − 12 2 0 .
1
2 0 −1
Definizione 13.2. Diremo che una conica γ : f (x, y) = 0 é riducibile se essa é com-
posta dall’unione di due rette cioé se esistono due polinomi di primo grado g(x, y) e
h(x, y) tali che f (x, y) = g(x, y) · h(x, y).
Vale il seguente:
Teorema 13.3. Sia γ una conica con matrice associata A. Le seguenti affermazioni
sono equivalenti:
1. La conica γ é riducibile.
2. La conica γ ha almeno un punto doppio.
3. det(A) = 0.
(λY + µY 0 )T A(λY + µY 0 ) = 0
da cui
µλ (Y 0T AY ) + µ 2 (Y 0T AY 0 ) + λ 2 (Y T AY ) + λ µ(Y T AY 0 ) = 0.
Osserviamo che, poiché Y 0T AY é un numero reale, Y 0T AY = (Y 0T AY )T = Y T AY 0 ,
quindi segue che
λ 2 (Y T AY ) + 2µλ (Y T AY 0 ) + µ 2 (Y 0T AY 0 ) = 0
che é una equazione di secondo grado nelle incognite (λ , µ). Le due soluzioni for-
niscono le coppie di valori (λ1 , µ1 ), (λ2 , µ2 ) che, sostituiti alternativamente nel-
l’equazione della retta, individuano i due punti di intersezione P1 = λ1Y + µ1Y 0 ,
13.1 Intersezione di una conica ed una retta. 309
(Y T AY 0 )2 − (Y T AY )(Y 0T AY 0 ) = ∆ .
∆ = (Y T AY 0 )2 − (Y T AY )(Y 0T AY 0 )
ovvero
1 −2 −1 −1 2
∆ = [2, −1, 1] −2 1 −1 2
−1 −1 −1 1
1 −2 −1 2 1 −2 −1 −1
− [2, −1, 1] −2 1 −1 −1 · [−1, 2, 1] −2 1 −1 2
−1 −1 −1 1 −1 −1 −1 1
Diremo quindi che i punti P0 e P1 sono tra loro coniugati (rispetto a γ), poiché l’uno
appartiene alla polare dell’altro. Diremo inotre che le due rette r0 e r1 sono tra loro
coniugate (rispetto a γ), poiché l’una contiene il polo dell’altra.
A = 1 −1 1 .
− 32 1 −2
La matrice non é singolare, per cui la conica non é ridotta nell’unione di rette. Il
complemento A33 = −3 − 1 < 0 indica che la conica é una iperbole.
Esempio 177. Sia γ : 3x2 + 2y2 − xy − 6x − 4y + 1 = 0. La matrice associata alla
conica γ é
3 − 12 −3
A = − 12 2 −2 .
−3 −2 1
La matrice non é singolare, per cui la conica non é ridotta nell’unione di rette. Il
complemento A33 = 6 − 14 > 0 indica che la conica é una ellisse.
Esempio 178. Sia γ : 4x2 + y2 − 4xy − 2x + 3y − 2 = 0. La matrice associata alla
conica γ é
4 −2 −1
A = −2 1 32 .
−1 23 −2
La matrice non é singolare, per cui la conica non é ridotta nell’unione di rette. Il
complemento A33 = 4 − 4 = 0 indica che la conica é una parabola.
Osservazione 13.4. Tutte e sole le coniche che contengono i punti ciclici (1, i, 0) e
(1, −i, 0) sono le circonferenze (che sono particolari ellissi).
Nel caso in cui si abbia A = B e C, D distinti, allora le due coniche hanno una
tangente comune ad entrambe (γ1 e γ2 sono chiamate coniche tangenti), ed é la retta
tangente nel punto A = B.
Nel caso si abbia A = B e C = D allora le due coniche hanno due rette tangenti
in comune (γ1 e γ2 sono chiamate coniche bitangenti), e sono le tangenti nel punto
A = B ed in C = D.
Nel caso si abbia A = B = C allora le due coniche hanno una retta tangente in
comune (γ1 e γ2 sono chiamate coniche osculatrici), ed é la tangente nel punto
A = B = C.
Nel caso si abbia A = B = C = D allora le due coniche hanno una retta tangente in
comune (γ1 e γ2 sono chiamate coniche iperosculatrici), ed é la tangente nel punto
A = B = C = D.
a1 · f1 (x1 , x2 , x3 ) + a2 · f2 (x1 , x2 , x3 ) = 0
al variare di a1 , a2 ∈ R. Tutte le coniche del fascio hanno in comune gli stessi 4 punti
A, B,C, D, i quali sono chiamati punti base del fascio. Inoltre per individuare un
fascio di coniche é sufficiente conoscere due qualsiasi coniche di esso (ad esempio
anche due coniche riducibili che appartengono al fascio).
Il caso generale é quello in cui A, B,C, D sono tutti tra loro distinti, si parla quindi
di fascio generale.
Nel caso in cui si abbia A = B e C, D distinti, allora le coniche del fascio hanno una
tangente comune (si parla di fascio di coniche tangenti), ed é la retta tangente nel
punto A = B.
Nel caso si abbia A = B e C = D allora le coniche del fascio hanno due rette tangenti
in comune (si parla di fascio di coniche bitangenti), e sono le tangenti nel punto
A = B ed in C = D.
Nel caso si abbia A = B = C allora le coniche del fascio hanno una retta tangente
in comune (si parla di fascio di coniche osculatrici), ed é la tangente nel punto
A = B = C.
Nel caso si abbia A = B = C = D allora le coniche del fascio hanno una retta tangente
in comune (si parla di fascio di coniche iperosculatrici), ed é la tangente nel punto
A = B = C = D.
Ogni fascio di coniche contiene 3 coniche riducibili (distinte o no a seconda del tipo
di fascio). Nel seguente prospetto indichiamo con tA e tC rispettivamente le tangenti
comuni a tutte le coniche di un fascio nei punti A e C:
314 13 Le Coniche.
e
1 0 0 x1
[0, 1, 0] 0 0 − 12 x2 = 0 ⇒ x3 = 0.
0 − 21 0 x3
Ma avremmo potuto ottenere tali rette anche semplicemente analizzando le informa-
zioni precedentemente ottenute sul fascio. Infatti, poiché x1 = 0 é la retta congiun-
gente i due punti base del fascio, allora x12 = 0 é la conica riducibile che li contiene
e che ha valenza doppia nel conteggio delle coniche riducibili del fascio. Quindi le
due rette tangenti si ottengono decomponendo la restante conica riducibile, ovvero
quella che ha valenza 1 nel computo delle 3 coniche riducibili del fascio (appunto
x2 x3 = 0).
Esempio 180. Consideriamo il fascio di coniche di equazione F : xy + λ (x2 − y2 −
2y) = 0, che in forma omogenea esprimiamo
λ 21 0
Aλ = 12 −λ −λ .
0 −λ 0
Quindi |A| = −λ 3 e possiede una radice tripla in λ = 0. Nel panorama delle 3 coni-
che riducibili del fascio, quella in corrispondenza di λ = 0, cioé x1 x2 = 0, si presenta
3 volte.
Il complemento algebrico dell’elemento di posto (3, 3) é pari a −λ 2 − 14 , per cui
sempre negativo. Tutte le coniche del fascio sono iperboli.
Determiniamo infine la tangente comune a tutte le coniche del fascio. Per farlo po-
316 13 Le Coniche.
tremmo individuare una conica non ridotta del fascio e calcolare la tangenti ad es-
sa in P1 . Ma, come precedentemente osservato, potremmo ottenere tale retta anche
semplicemente analizzando le informazioni precedentemente ottenute sul fascio. In-
fatti, poiché x1 = 0 é la retta congiungente i due punti base del fascio, e x1 x2 = 0 é
l’unica conica riducibile, possiamo concludere che x2 = 0 é la retta tangente a tutte
le coniche del fascio in (0, 0, 1).
Esempio 181. Determiniamo adesso l’equazione di un fascio di coniche a partire
dai suoi punti base: scegliamo i punti P1 = (−1, −2), P2 = (3, −2) ed il punto impro-
prio P3 = (1, −1, 0). Vogliamo ottenere l’equazione del fascio di coniche contenenti
P1 e P2 e tangenti in P3 alla retta di equazione x + y = 0.
Per farlo osserviamo inizialmente che trattasi di un fascio di coniche tangenti. Volen-
do esprimere la sua equazione, é sufficiente conoscere le equazioni di due qualsiasi
coniche del fascio. La via piú facile é quella di determinare le 2 coniche riducibili
del fascio.
Una conica riducibile γ1 é data dall’unione della tangente comune in P3 e della retta
P1 P2 . Quest’ultima ha equazione y + 2 = 0, quindi
γ1 : (x + y)(y + 2) = 0.
Ricordiamo che la precedente conica ha valenza 1 nel computo totale delle coniche
riducibili del fascio.
L’altra conica riducibile del fascio γ2 (la quale ha valenza doppia nel computo delle 3
coniche riducibili) é data dall’unione delle rette P1 P3 e P2 P3 . Poiché P1 P3 : x+y+3 =
0 e P2 P3 : x + y − 1 = 0, avremo che
γ2 : (x + y + 3)(x + y − 1) = 0.
(x + y)(y + 2) + λ (x + y + 3)(x + y − 1) = 0.
Definiamo diametro di una conica γ non riducibile, la retta polare, rispetto alla co-
nica, di un qualsiasi punto improprio (h, k, 0). Sia A la matrice associata alla conica,
allora un diametro é dato da
a11 a12 a13 x1
h k 0 · a12 a22 a23 · x2 = 0
a13 a23 a33 x3
Al variare del punto (h, k, 0) si ottiene un diverso diametro, e quindi al variare dei
parametri h, k si ottengono tutte le rette di un fascio. Il centro di tale fascio é detto
centro della conica (il quale, per la reciprocitá, é il polo della retta impropria).
Le coordinate del centro sono allora la soluzione del sistema
a11 x1 + a12 x2 + a13 x3 = 0
.
a12 x1 + a22 x2 + a23 x3 = 0
Per quanto visto nel Capitolo deidicato ai sitemi lineari,le soluzioni sono date dai
complementi algebrici A13 , A23 , A33 della matrice A associata alla conica.
Il centro C di una conica é un centro di simmetria: infatti, per ogni punto P della
curva, il suo simmetrico P0 , rispetto a C, é ancora un punto della curva.
Il caso in cui A33 = 0 é quello della parabola, la quale é detta conica a centro impro-
prio (o conica senza centro). Il fascio dei diametri é un fascio improprio, cioé tutti i
diametri sono tra loro paralleli ed hanno la direzione data dal punto improprio della
parabola.
Iperbole ed ellisse sono dette coniche a centro (proprio). Tutti i diametri sono tra
loro a due a due coniugati.
In particolare i diametri tra loro coniugati ed ortogonali sono detti assi della conica
(2 assi per iperbole ed ellisse, 1 asse per la parabola). I diametri che siano autoconiu-
gati (cioé tangenti alla conica) sono detti asintoti della conica (2 reali per l’iperbole,
2 immaginari per l’ellisse, 1 improprio per la parabola).
Per determinare assi e asintoti é sufficiente operare come segue: sappiamo bene che
il generico diametro della conica é dato da:
a11 a12 a13 x1
h k 0 · a12 a22 a23 · x2 = 0. (13.1)
a13 a23 a33 x3
La matrice é non singolare e A33 = −5 < 0, per cui γ é una iperbole non ridotta.
Per determinarne gli assi, ricerchiamo le direzioni ortogonali e tra loro coniugate
rispetto all’iperbole. Per farlo imponiamo quindi
1 2 1 k
h k 0 · 2 −1 0 −h = 0.
1 0 −1 0
La matrice é non singolare e A33 = 0, per cui γ é una parabola non ridotta.
Per determinarne l’asse, ricerchiamo inizialmente la sua direzione, ovvero le coordi-
nate del punto impropio della parabola. Lo facciamo intersecando la retta impropria
e la parabola, esprimendo l’equazione di quest’ultima in forma omogenea:
x3 = 0
4x12 + 4x1 x2 + x22 − 2x1 x3 + x32 = 0
ovvero
x3 = 0
4x12 + 4x1 x2 + x22 = 0.
320 13 Le Coniche.
É infati ben noto che, in tali casi le equazioni di una conica non degenere si riducono
come segue:
2 2
– ax2 + by2 = c, con a, b, c 6= 0, nel caso di una ellisse non degenere;
2 2
– ax2 − by2 = c, con a, b, c 6= 0, nel caso di una iperbole non degenere;
–y2 − ax = 0 oppure x2 − ay = 0, nel caso di una parabola non degenere.
La matrice é non singolare, inoltre A33 = −5 < 0, per cui γ é un’iperbole non
degenere. Gli autovalori della sottomatrice
2 −3
−3 2
1 1
λ1 = −1 ⇒ V1 =< (1, 1) >=< √ , √ >
2 2
1 1
λ2 = 5 ⇒ V2 =< (−1, 1) >=< − √ , √ > .
2 2
Determiniamo adesso una trasfomazione delle coordinate, al fine di eliminare il
termine in xy (é una rotazione degli assi):
" √1 #
x 2
− √12 x0
= 1 · 0
y √ √1 y
2 2
ovvero (
x= √1 (x0 − y0 )
2 .
y= √1 (x0 + y0 )
2
x0 = x00 − c
y0 = y00 − d
l’equazione diventa
La matrice é non singolare, inoltre A33 = 0, per cui γ é una parabola non degenere.
Gli autovalori della sottomatrice
42
21
sono {0, 5}. Gli autospazi associati sono
1 2
λ1 = 0 ⇒ V1 =< (1, −2) >=< √ , − √ >
5 5
2 1
λ2 = 5 ⇒ V2 =< (2, 1) >=< √ , √ > .
5 5
Determiniamo adesso una trasfomazione delle coordinate, al fine di eliminare il
termine in x2 (é una rotazione degli assi):
" √1 √2 # 0
x 5 5 · x
=
y − √25 √15 y0
ovvero (
x = √15 (x0 + 2y0 )
.
y = √15 (−2x0 + y0 )
Sostituendo nell’equazione iniziale otterremo la nuova equazione
4 8
5y02 + √ x0 + √ y0 − 1 = 0.
5 5
Imponiamo adesso una traslazione
x0 = x00 − c
y0 = y00 − d
13.6 Riduzione delle coniche in forma canonica. 325
Riassumendo, abbiamo visto che una rototraslazione degli assi di una conica (del-
l’asse e della retta tangente al vertice, nel caso della parabola) ci permette di ottenere
una ulteriore e piú semplice forma della conica stessa, riferita ad un sistema di rife-
rimento opportuno. Tali forme sono dette ’ridotte’ o ’canoniche’ .
Nel cambiamento del sistema di riferimento ortogonale, vi sono alcune quantitá
(reali) che non mutano, cioé si mantengono invarianti nel passaggio da una forma
della conica all’altra. Tali quantitá vengono dette invarianti ortogonali:
del sistema di riferimento. Siano ai j gli elementi della matrice A e a0i j quelli della
matrice A0 . Allora valgono le seguenti:
1. det(A) = det(A0 ).
2. A33 = A033 .
3. a11 + a22 = a011 + a022 .
Possiamo sfruttare il precedente Teorema per ottenere la forma ridotta di una conica.
Sia A la matrice associata alla conica, operiamo nel modo seguente:
Coniche a centro.
0 0 a013
0 a022 0 .
a013 0 0
Per ottenere i valori di a022 , a023 é sufficiente applicare i tre punti del teorema e
risolvere le equazioni:
det(A) = −a022 · a02
13
Poiché γ é un’iperbole non degenere, una espressione della sua equazione in forma
canonica ( o ridotta) é
a011 x2 + a022 y2 + a033 = 0
con matrice associata
a011 0 0
A0 = 0 a022 0 .
0 0 a033
In tale matrice dovremo avere
da cui
a011 a022 a033 = 3, a011 a022 = −5, a011 + a022 = 4.
Segue che
3
a033 = − , a011 = −1, a022 = 5
5
oppure
3
a033 = − , a011 = 5, a022 = −1.
5
Le possibili forme canoniche (in dipendenza della rototraslazione effettuata) sono
quindi
3
5Y 2 − X 2 − = 0
5
e
328 13 Le Coniche.
3
5X 2 −Y 2 − = 0.
5
Esempio 187. Riprendiamo l’Esempio 185, utilizzando ancora il metodo degli
invarianti ortogonali. Sia γ : 4x2 + y2 + 4xy + 4x − 1 = 0 con marice associata
42 2
A = 2 1 0 .
2 0 −1
Poiché la conica é unaparabola non degenere, una espressione della sua equazione
in forma canonica é
a022 y2 + 2a013 x = 0
con matrice associata
0 0 a013
A0 = 0 a022 0 .
a013 0 0
In tale matrice dovremo avere
da cui
−a02 0
13 a22 = −4, a022 = 5.
Segue che
2
a013 = √
5
oppure
2
a013 = − √
5
Le possibili forme canoniche (in dipendenza della rototraslazione effettuata) sono
quindi
4
5Y 2 + √ X = 0
5
e
4
5Y 2 − √ X = 0.
5
Osserviamo infine che, se inizialmente avessimo scelto di considerare una forma
canonica della parabola del tipo
a011 x2 + 2a023 y = 0
13.8 Esercizi svolti. 329
A0 = 0 0 a023
0 a023 0
avremmo ottenuto i medesimi risultati, ottenendo le espressioni finali
4
5X 2 + √ Y = 0
5
e
4
5X 2 − √ Y = 0.
5
Siano C1 = (1, i, 0) e C2 = (1, −i, 0) i punti ciclici della retta impropria. Le rette
appartenenti ai due fasci di centri C1 e C2 , sono dette rette isotrope. Quindi una
qualsiasi retta isotropa avrá equazione y = ix + q oppure y = −ix + p, per opportuni
q, p elementi del campo dei numeri complessi.
Indichiamo con f1 : y = ix + q il fascio delle rette isotrope di centro C1 e con f2 : y =
−ix + p il fascio di centro C2 . Osserviamo che se una retta r appartiene al fascio f1
allora la sua coniugata r appartiene al fascio f2 . Inoltre r ∩ r = P é un punto reale.
Consideriamo quindi una conica non riducibile γ. Dal fascio f1 si possono condurre
due rette r,t che siano tangenti a γ. Analogamente dal fascio f2 si possono condurre
due rette che siano tangenti a γ: esse sono esattamente le coniugate r e t delle rette
r,t.
Definizione 13.7. I fuochi di una conica non riducibile γ sono i 4 punti (di cui 2
reali) che scaturiscono dall’intersezione delle rette r,t con le rette r e t. In particolare
i due fuochi reali sono F1 = r ∩ r e F2 = t ∩ t.
Osservazione 13.8. La parabola ha un solo fuoco reale, poiché da ciascun punto
ciclico si puó condurre una sola retta tangente alla curva.
Anche nel caso della circonferena vi é un solo fuoco, esattamente il centro della
circonferenza: il motivo risiede nel fatto che, poiché i punti ciclici appartengono
alla circonferenza, anche in questo caso da ciascuno di essi si puó condurre una sola
tangente alla curva.
1 2 12
A = 2 −1 − 12
1 1
2 −2 1
con det(A) = −6, A33 = −5, I = a11 + a22 = 0, quindi é una iperbole equilatera.
Determiniamo il generico diametro:
1
1 2 21 x1
1 h 0 · 2 −1 − 2 · x2 = 0.
1 1
2 −2 1
x3
Il generico diametro é
1 h
(1 + 2h)x1 + (2 − h)x2 + ( − )x3 = 0
2 2
4x1 − 4x2 + x3 = 0.
Una forma canonica é data da a11 x12 + 2a23 x2 x3 = 0, con matrice associata
a11 0 0
A0 = 0 0 a23 .
0 a23 0
Esercizio 102. Determinare una forma canonica dell’ellisse x2 −xy+y2 −5x +7y+
1 = 0.
da cui (
x= √1 (x0 − y0 )
2
y= √1 (x0 + y0 )
2
x0 = x00 − a y0 = y00 − b
1 00 3 2 12
(x − a)2 + (y00 − b)2 + √ (x00 − a) + √ (y00 − b) + 1 = 0
2 2 2 2
da cui
1 002 3 2 2 12 12
(x + a2 − 2ax00 ) + (y002 + b2 − 2by00 ) + √ x00 − √ a + √ y00 − √ b + 1 = 0.
2 2 2 2 2 2
da cui (
x= √1 (x0 − y0 ) + 1
2
y= √1 (x0 + y0 ) − 3
2
da cui (
x= √1 (2x0 − y0 )
5
y= √1 (x0 + 2y0 )
5
cioé
5
5y02 + √ x0 − 5 = 0
5
1
y02 + √ x0 − 1 = 0.
5
Per annullare il termine noto operiamo la seguente traslazione:
x0 = x00 − a y0 = y00 − b
1
(y00 − b)2 + √ (x00 − a) − 1 = 0
5
1 1
y002 + b2 − 2by00 + √ x00 − √ a − 1 = 0.
5 5
Per avere la forma canonica dovremmo avere
√
b=0 a=− 5
da cui
1 1 √
(y00 − b)2 + √ (x00 − a) − 1 = y002 + √ (x00 + 5) − 1 =
5 5
1
y002 + √ x00 = 0.
5
Esercizio 104. Sia dato il fascio di coniche x2 + kxy − 1 = 0, al variare di k ∈ R.
Determinare i punti base, le coniche riducibili e le tangenti comuni a tutte le coniche
del fascio.
Per determinare i punti base del fascio scegliamo due coniche qualsiasi, per esempio
x12 − x32 = 0 e x1 x2 = 0 ed intersechiamole:
x1 x2 = 0
x12 − x32 = 0
che ha come soluzione i punti (0, 1, 0) con molteplicitá 2, (1, 0, 1) e (1, 0, −1) en-
trambi con molteplicitá 1. Siamo in presenza di un fascio di coniche tangenti, cioé vi
é una tangente comune a tutte le coniche del fascio. Per determinarla, scegliamo una
conica irriducibile del fascio, per esempio per k = 2, e calcoliamo la tangente a tale
conica nel punto (0, 1, 0): per il valore k = 2, la conica ottenuta é x2 + 2xy − 1 = 0.
La tangente ad essa in (0, 1, 0) é
336 13 Le Coniche.
11 0 x1
0 1 0 · 1 0 0 · x2 = 0 cioé x1 = 0.
0 0 −1 x3
Infine calcoliamo le coniche riducibili del fascio: esse si ottengono annullando il
determinante della matrice associata alla generica conica del fascio:
k
1
2 0 k2
0 = 2k 0 0 =
0 0 −1 4
Per determinare i punti base del fascio scegliamo due coniche qualsiasi, per esempio
x12 − x32 = 0 e 2x1 x2 = 0 ed intersechiamole:
2x1 x2 = 0
x12 − x32 = 0
che ha come soluzione i punti (0, 1, 0) con molteplicitá 2, (1, 0, 1) e (1, 0, −1) en-
trambi con molteplicitá 1. Siamo in presenza di un fascio di coniche tangenti, cioé vi
é una tangente comune a tutte le coniche del fascio. Per determinarla, scegliamo una
conica irriducibile del fascio, per esempio per k = 2, e calcoliamo la tangente a tale
conica nel punto (0, 1, 0): per il valore k = 2, la conica ottenuta é 2x2 + 2xy − 2 = 0.
La tangente ad essa in (0, 1, 0) é
21 0 x1
0 1 0 · 1 0 0 · x2 = 0 cioé x1 = 0.
0 0 −2 x3
Infine calcoliamo le coniche riducibili del fascio: esse si ottengono annullando il
determinante della matrice associata alla generica conica del fascio:
k 1 0
0 = 1 0 0 = k
0 0 −k
0. L’altra conica riducibile (il fascio ne contiene solo 2 distinte) si ottiene osservando
che il parametro k é associato ad essa nell’espressione del fascio: x2 − 1 = 0, con
molteplicitá 2.
Esercizio 106. Sia dato il fascio di coniche x2 +ky2 +xy −1 = 0, al variare di k ∈ R.
Determinare i punti base, le coniche riducibili e le tangenti comuni a tutte le coniche
del fascio.
Per determinare i punti base del fascio scegliamo due coniche qualsiasi, per esempio
x12 + x1 x2 − x32 = 0 e x22 = 0 ed intersechiamole:
x22 = 0
x1 + x1 x2 − x32 = 0
2
che ha come soluzione i punti (1, 0, 1) e (1, 0, −1) entrambi con molteplicitá 2. Sia-
mo in presenza di un fascio di coniche bitangenti, cioé vi sono due tangenti comuni
a tutte le coniche del fascio. Per determinarle, scegliamo una conica irriducibile
del fascio, per esempio per k = 1, e calcoliamo la tangente a tale conica nei punti
(1, 0, 1) e (1, 0, −1): per il valore k = 1, la conica ottenuta é x2 + y2 + xy − 1 = 0. La
tangente ad essa in (1, 0, 1) é
1
11 2 0 x1
1
1 0 1 · 2 1 0 · x2 = 0 cioé x1 + x2 − x3 = 0.
2
0 0 −1 x3
La tangente in (1, 0, −1) é
1
11 2 0 x1
1
1 0 −1 · 2 1 0 · x2 = 0 cioé x1 + x2 + x3 = 0.
2
0 0 −1 x3
Infine calcoliamo le coniche riducibili del fascio: esse si ottengono annullando il
determinante della matrice associata alla generica conica del fascio:
1
1
1 2 0
1
0 = 2 k 0 = −k +
0 0 −1 4
2x2 − ix − q + x + 1 = 0
y = ix + q
2x2 + (1 − i)x + (1 − q) = 0
.
y = ix + q
Poiché siamo interessati alla retta del fascio che sia tangente alla parabola, imponia-
mo che il discriminante del sistema sia nullo:
(1 − i)2 − 8(1 − q) = 0
la cui soluzione é q = 41 i + 1. Quindi la retta del fascio f1 che sia tangente alla para-
bola ha equazione y = ix + 14 i + 1. Inoltre la retta che appartenga al fascio f2 di cen-
tro C2 = (1, −i, 0) e che sia tangente alla parabola, é la coniugata della precedente :
y = −ix − 14 i + 1. Il fuoco della parabola é l’intersezione di tali due rette:
r : y = ix + 14 i + 1
r : y = −ix − 14 i + 1
da cui F = r ∩ r = (− 14 , 1).
Esercizio 108. Determinare i fuochi dell’iperbole γ : xy + x − y + 1 = 0.
(q − i + 1)2 − 4i(1 − q) = 0
Quindi le rette del fascio f1 che siano tangenti all’iperbole hanno equazioni:
√ √
y = ix − 1 − i + 2 2i y = ix − 1 − i − 2 2i.
√ p
Osserviamo che 2i = (1 + i)2 ∈ {+(1 + i), −(1 + i)} per cui possiamo conside-
rare le tangenti
Inoltre le rette appartenenti al fascio f2 di centro C2 = (1, −i, 0) e che siano tangenti
all’iperbole, sono le coniugate delle precedenti :
In tutto ció che segue con il termine sistema di riferimento nello spazio 3-dimensionale
intenderemo sempre un sistema di riferimento destrorso (standard).
y − y0 = tm1 + t 0 m2
z − z0 = tn1 + t 0 n2
da cui
x = x0 + tl1 + t 0 l2
y = y0 + tm1 + t 0 m2 .
z = z0 + tn1 + t 0 n2
Queste ultime relazioni descrivono quindi in modo univoco in quale modo ottenere
le coordinate di un qualsiasi punto del piano, al variare dei parametri reali t,t 0 . Esse
sono dette equazioni parametriche del piano. Dalla dipendenza lineare tra i vettori
(x − x0 , y − y0 , z − z0 ), (l1 , m1 , n1 ) e (l2 , m2 , n2 ) segue che
341
342 14 Rette e piani nello spazio affine ed euclideo.
x − x0 y − y0 z − z0
l1
m1 n1 = 0.
l2 m2 n2
ax + by + cz + d = 0
Supponiamo ora di avere tre punti non allineati nello spazio P0 = (x0 , y0 , z0 ), P1 =
(x1 , y1 , z1 ), P2 = (x2 , y2 , z2 ). Essi individuano un piano, in particolare i vettori P0 P1
e P0 P2 sono tra loro indipendenti ed hanno componenti
P0 P1 = (x1 − x0 , y1 − y0 , z1 − z0 )
P0 P2 = (x2 − x0 , y2 − y0 , z2 − z0 ).
Per ogni altro punto P = (x, y, z) del piano, il vettore P0 P = (x − x0 , y − y0 , z − z0 ) é
dipendente dai precedenti due vettori, cioé
x − x0 y − y0 z − z0
x1 − x0 y1 − y0 z1 − z0 = 0
x2 − x0 y2 − y0 z2 − z0
y = 2+t
z = 1 − 2t 0
ed in forma cartesiana:
x−1 y−2 z−1
1
1 0 = 0
−1 0 −2
ovvero 2x − 2y − z + 3 = 0.
Esempio 189. Se consideriamo i punti P0 = (1, 2, 1), P1 = (−1, −1, 2) e P2 =
(3, 1, 0) otteniamo l’equazione in forma cartesiana del piano contenente i tre punti
14.3 Fascio di piani. 343
svolgendo:
x y
z 1
1 2 1 1
−1 −1 =0
2 1
3 1 0 1
ovvero x + 2z − 3 = 0.
a b c d
= 0 = 0 6= 0
a0 b c d
λ (ax + by + cz + d) + ρ(a0 x + b0 y + c0 z + d 0 ) = 0
al variare dei parametri reali λ e ρ, é detta fascio di piani. Si possono verificare due
casi: π e π 0 sono incidenti in una retta, ed allora tutti i piani del fascio hanno in
comune quella retta, si parla di fascio proprio. Oppure π e π 0 sono tra loro paralleli,
ed allora tutti i piani del fascio sono tra loro paralleli, si parla di fascio improprio.
Si noti che che un fascio di piani puó essere generato da una qualsiasi coppia di
piani ad esso appartenenti.
344 14 Rette e piani nello spazio affine ed euclideo.
α(2x + 3y − z + 1) + β (4x + 6y − 2z + 5) = 0, α, β ∈ R.
ha rango 3.
Esempio 191. I piani di equazioni x − y + 2z + 1 = 0 e 2x − y + z − 2 = 0 non sono
paralleli. L’equazione del fascio proprio da essi generato é
α(x − y + 2z + 1) + β (2x − y + z − 2) = 0, α, β ∈ R.
ha rango 3.
un insieme infinito di piani che hanno tutti in comune il solo punto P0 . Tale
insieme é detto stella propria di piani, generata dai piani π, π 0 , π 00 .
–Se rango(A) = 2, allora il sistema (14.1) é incompatibile, i tre piani non hanno
punti in comune. Ció accade banalmente se uno dei tre piani é parallelo alla retta
che gli altri due hanno in comune. In tal caso l’equazione (14.2) rappresenta un
insieme infinito di piani che sono tutti paralleli ad una stessa retta. Tale insieme
é detto stella impropria di piani, generata dai piani π, π 0 , π 00 . La direzione a cui
sono paralleli i piani si puó individuare intersecando due qualsiasi piani della
stella impropria.
É bene sottolineare che una stella di piani puó essere generata da una qualsiasi terna
di piani ad essa appartenenti.
Supponiamo di avere un quarto piano π 000 : a000 x + b000 y + c000 z + d 000 = 0. Esso ap-
partiene alla stella formata dai piani π, π 0 e π 00 (propria o impropria che sia) se la
matrice
a b c d
a0 b0 c0 d 0
00 00 00 00
a b c d
a000 b000 c000 d 000
ha rango 3.
Esempio 192. I piani di equazioni x − y + z − 1 = 0, 2x + z − 2 = 0 e x − 2y − z = 0
generano una stella propria, infatti le matrici
1 −1 1 1 −1 1 −1
A = 2 0 1 , C = 2 0 1 −2
1 −2 −1 1 −2 −1 0
Per ottenere le coordinate del centro della stella é sufficiente risolvere il sistema
lineare
x−y+z−1 = 0
2x + z − 2 = 0
x − 2y − z = 0
la cui soluzione é C = ( 54 , 51 , 25 ).
Esempio 193. I piani di equazioni x + y + z + 1 = 0, 2x − y + z + 2 = 0 e x + 4y +
2z − 1 = 0 generano una stella impropria, infatti le matrici
1 1 1 1 1 1 1
A = 2 −1 1 , C = 2 −1 1 2
1 4 2 1 4 2 −1
14.5 Equazioni di una retta. 347
Definiamo retta nello spazio affine A3 , l’insieme di tutti i punti comuni a due piani
non paralleli, quindi la rappresentiamo con le equazioni:
ax + by + cz + d = 0
.
a0 x + b0 y + c0 z + d 0 = 0
Ogni retta dello spazio puó essere individuata da un suo punto P0 = (x0 , y0 , z0 ) e da
un vettore v = (l, m, n) ad essa parallelo. Quindi ogni punto P = (x, y, z) della retta é
tale che il vettore P0 P sia proporzionale al vettore v cioé P0 P = tv, per un opportuno
parametro t dipendente dalla scelta di P sulla retta. Al variare del parametro t si
ottengono tutti i punti della retta:
x = x0 + tl
y = y0 + tm
z = z0 + tn
che sono dette equazioni parametriche della retta. La terna (l, m, n) é detta terna di
parametri direttori della retta. In particolare se si conoscono due punti della ret-
ta P1 = (x1 , y1 , z1 ) e P2 = (x2 , y2 , z2 ), il vettore P1 P2 é parallelo alla retta e quindi
(l, m, n) = (x2 − x1 , y2 − y1 , z2 − z1 ) e l’equazione si puó ottenere nel modo seguente:
x = x1 + t(x2 − x1 )
y = y1 + t(y2 − y1 )
z = z1 + t(z2 − z1 )
da cui
x − x1 y − y1 z − z1
t= = =
x2 − x1 y2 − y1 z2 − z1
che é detta equazione a catena di una retta.
Due rette sono parallele se e solo se esse hanno i tre parametri direttori proporzionali
(in particolare identici).
Esempio 194. Dati il punto P0 di coordinate (3, 1, 2) ed il vettore v = (−1, 3, −1),
possiamo descrivere immediatamente le equazioni parametriche della retta conte-
nente P0 e parallela a v:
x = 3−t
y = 1 + 3t
z = 2−t
348 14 Rette e piani nello spazio affine ed euclideo.
da cui
y−1
t = 3−x = = 2 − z.
3
Una espressione cartesiana della retta é allora la seguente:
x−z−1 = 0
.
3x + y − 10 = 0
di parametri direttori (l 0 , m0 , n0 ).
Diremo che r e r0 sono complanari se esiste un piano che le contenga entrambe. In
tal caso, le due rette possono essere incidenti in un punto, cioé i quattro piani che le
formano appartengono ad un stella propria, oppure le due rette sono parallele, cioé i
quattro piani che le formano appartengono ad una stella impropria. Possiamo quindi
dedurre che due rette sono complanari se la matrice
a b c d
a0 b0 c0 d 0
00 00 00 00
a b c d
a000 b000 c000 d 000
ed osserviamo che
1 −1 1 0
2 1 0 1
1 −1 −1 2 = 0.
0 3 0 −1
Quindi le due rette sono complanari. Per determinare il piano al quale appartengono
entrambe, inizialmente costuiamo il fascio di piani il cui asse é la retta r:
Fr : α(x − y + z) + β (2x + y + 1) = 0.
1 5 1
α(− + ) + β (0 + + 1) = 0 ⇒ α = −β .
3 3 3
Concludiamo che l’equazione del piano richiesta é
α(x − y + z) − α(2x + y + 1) = 0, α 6= 0
ovvero
x + 2y − z + 1 = 0.
Esempio 196. Consideriamo le rette r, s di equazioni cartesiane
x+y−z+1 = 0 y−z = 0
r: , s:
2x + y + 1 = 0 x + 2y − 2z − 3 = 0
ed osserviamo che
1
1 −1 1
2 1 0 1
6= 0.
0
1 −1 0
1 2 −2 −3
Quindi le due rette non sono complanari (sono sghembe).
350 14 Rette e piani nello spazio affine ed euclideo.
al + bm + cn = 0
che é la condizione di parallelismo tra una retta ed un piano.
Esempio 197. Consideriamo la retta
x = 2t + 3
r: y = t −1
z = −t + 4
2(t + 1) − 2(2t − 1) + (t + 2) − 1 = 0 ⇒ t = 5
Questo é un sistema omogeneo di rango 2, nelle tre incognite (l, m, n), le cui
soluzioni sono proporzionali ai minori
b c c a a b
, , .
b0 c0 c0 a0 a0 b0
352 14 Rette e piani nello spazio affine ed euclideo.
Sia P = (x, y, z) un punto nello spazio. Diremo che (x1 , x2 , x3 , x4 ) sono le coordinate
omogenee di P se
x1 x2 x3
x= , y= , z= .
x4 x4 x4
Se x4 6= 0, il punto é detto proprio e puó essere individuato dalla quaterna di
coordinate omogenee (x, y, z, 1).
In caso x4 = 0, il punto é detto improprio. L’insieme di tutti i punti impropri del-
lo spazio é individuato dall’equazione x4 = 0, che rappresenta un piano, il piano
improprio.
Tutte le quaterne di coordinate omogenee che siano tra loro proporzionali, indivi-
duano il medesimo punto.
L’equazione di un piano in coordinate omogenee é
Questa é una retta, detta retta impropria (o giacitura) di π. Tutti i piani tra loro
paralleli hanno la stessa giacitura.
Quindi ogni retta contiene un solo punto improprio (l, m, n, 0), dove (l, m, n) sono
esattamente i parametri direttori di r. Per cui rette tra loro parallele hanno lo stesso
punto improprio.
Osservazione 14.1. Se una retta ed un piano sono paralleli, allora il punto improprio
della retta appartiene alla giacitura del piano.
Esempio 201. Riprendiamo l’Esempio 197 e consideriamo la retta
x = 2t + 3
r: y = t −1
z = −t + 4
ˆ ) ∈ {+ √ m m
β = cos(r,Y ,−√ }
2 2
l +m +n2 l + m2 + n2
2
n n
γ = cos(r,ˆZ) ∈ {+ √ ,−√ }
2 2
l +m +n 2 l + m2 + n 2
2
ll 0 + mm0 + nn0
cos(r,ˆr0 ) = cos(v,ˆv0 ) = ± √ √ .
l 2 + m2 + n2 · l 02 + m02 + n02
In particolare, le due rette sono ortogonali se ll 0 + mm0 + nn0 = 0.
Esempio 202. Consideriamo le rette
x = t +1 x = 3t − 1
r: y = 2t − 1 , s: y = 2t + 2 .
z = t +2 z = −t + 1
ˆ ) ∈ {+ √ b b
β = cos(r,Y ,−√ }
2
a +b +c2 2 a + b2 + c2
2
c c
γ = cos(r,ˆZ) ∈ {+ √ ,−√ }.
a2 + b2 + c2 a2 + b2 + c2
π : 3x − y + z − 1 = 0 π0 : x + y − z − 1 = 0
3−1−1 1
cos(π,ˆπ 0 ) = ± √ √ = ±√ .
11 · 3 33
Angolo compreso tra una retta ed un piano.
Consideriamo infine una retta r di parametri direttori (l, m, n) ed un piano π : ax +
by + cz + d = 0. Il versore normale al piano é
a b c
n = (√ ,√ ,√ ).
2 2
a +b +c 2 2 2
a +b +c2 a + b2 + c2
2
π
Sia ϕ = (r, n) l’angolo formato dalla retta r e dal versore n. Definiamo 2 −ϕ
l’angolo formato dalla retta r e dal piano π. Quindi segue che:
al + bm + cn
sen(r, π) = cos(r, n) = ± √ √ .
a + b + c 2 · l 2 + m2 + n 2
2 2
Esempio 205. Dati i punti P1 = (−1, 2, −2) e P2 = (3, 1, −1), la loro distanza é data
da p √
δ (P1 , P2 ) = 42 + 12 + 12 = 3 2.
Distanza tra un punto ed un piano.
Consideriamo ora il punto P0 = (x0 , y0 , z0 ) ed il piano π : ax + by + cz + d = 0. Ci
proponiamo di calcolare la distanza del punto dal piano. Se P0 ∈ π chiaramente
356 14 Rette e piani nello spazio affine ed euclideo.
diremo che essa é nulla. Poniamoci allora nel caso in cui P0 ∈ / π. La distanza di
P0 da π é pari alla lunghezza δ (P0 , H) del segmento P0 H, dove H é la proiezione
ortogonale di P0 su π. Scegliamo un qualsiasi punto Q1 = (x1 , y1 , z1 ) ∈ π. Allora
δ (P0 , H) é la proiezione ortogonale del vettore P0 Q1 lungo la direzione del vettore
P0 H. Per determinare tale proiezione abbiamo bisogno del versore u di P0 H, che é
il versore normale al piano π:
a b c
u = (√ ,√ ,√ ).
2 2
a +b +c 2 2 2
a +b +c2 a + b2 + c2
2
Quindi:
a b c
δ (P0 , H) = (P0 Q1 ) × ( √ i+ √ j+ √ k) =
2 2
a +b +c 2 2
a +b +c 2 2 2
a +b +c 2 2
((x1 − x0 )i + (y1 − y0 ) j + (z1 − z0 )k) × √ai + b j + ck =
2 2
a +b +c 2
|Q1 Q0 ∧ P1 Q0 |
δ (P1 , r) = h = .
|Q1 Q0 |
|Q1 Q0 ∧ P1 Q0 |
δ (P1 , r) = h = =
|Q1 Q0 |
v
u x1 − x0 y1 − y0 2 x1 − x0 z1 − z0 2 y1 − y0 z1 − z0 2
u
u + +
t l m l n m n
.
l 2 + m2 + n2
Esempio 207. Consideriamo il punto P = (1, 3, −1) e la retta
x = t +1
r: y = 2t − 1 .
z = t +2
Scgliamo un punto sulla retta: banalmente prendiamo Q = (1, −1, 2), le cui coor-
dinate sono presenti nell’espressione parametrica della retta. Otteniamo quindi le
componenti del vettore QP = (0, 4, −3).
Tramite QP ed i parametri direttori della retta costruiamo la matrice
0 4 −3
12 1
dalla quale estrarre i minori per l’applicazione della formula sopra dimostrata.
Quindi: v
u 4 −3 2 0 −3 2 0 4 2
u
√
t2 1 +1 1 +1 2
u
5 5
δ (P, r) = h = = √ .
1+4+1 6
Distanza tra due piani paralleli.
|d − d1 |
√ 2
a2 + b2 + c2
poiché ax0 + by0 + cz0 = −d1 .
Esempio 208. Dati i piani
π : x + y − 2z + 1 = 0 π 0 : 2x + 2y − 4z − 3 = 0
| − 3 − 1| 5
δ (π, π 0 ) = √ 2 = √ .
1+1+4 2 6
Minima distanza tra due rette.
Osserviamo inizialmente che se due rette fossero incidenti, allora la loro minima
distanza é ovviamente pari a zero.
Inoltre, nel caso fossero parallele (quindi ancora complanari), la loro distanza é pari
alla distanza tra un qualsiasi punto di una di esse e l’altra.
Infine siano r = (l, m, n) e r0 = (l 0 , m0 , n0 ) due rette sghembe. Esisteranno quindi due
piani π e π 0 tra loro paralleli tali che r ∈ π e r0 ∈ π 0 . La minima distanza tra r e r0 é
pari alla distanza tra π e π 0 .
Un altro metodo per calcolare la minima distanza tra le rette sghembe r e r0 é quello
di sfruttare la proprietá per la quale esiste una ed una sola retta s incidente e perpen-
dicolare ad entrambe le rette r e r0 . Dopo aver individuato la retta s, si costruiscono
i punti P = r ∩ s e P0 = r0 ∩ s. La distanza tra le due rette sghembe é pari alla distan-
za tra P e P0 . Esponiamo nei particolari questo procedimento: Siano scelti i punti
Q = (x0 , y0 , z0 ) ∈ r e Q0 = (x00 , y00 , z00 ):
x = x00 + t 0 l 0
x = x0 + tl
0
r : y = y0 + tm , r : y = y00 + t 0 m0 .
z = z0 + tn z = z00 + t 0 n0
scalari:
w × (l, m, n) = 0 e w × (l 0 , m0 , n0 ) = 0
ovvero, rispettivamente,
(α + β ) − α = 0 ⇒ β = 0.
Fs : γ(y − z) + δ (x + 2y − 2z − 3) = 0 −→ δ x + (γ + 2δ )y − (γ + 2δ )z − 3δ = 0.
δ − (2γ + 4δ ) + (γ + 2δ ) = 0 ⇒ δ = −γ.
γ(y − z) − γ(x + 2y − 2z − 3) = 0 γ 6= 0
pari a
| − 3 − 1| 4
δ (πr , πs ) = √ =√ .
1+1+1 3
Esempio 210. Vogliamo adesso ripetere l’Esempio 209, utilizzando l’altro me-
doto precedentemente esposto. Scegliamo il punto Pr = (0, −1, 0) sulla retta r ed
esprimiamo quest’ultima in forma parametrica:
x=t
r: y = −2t − 1 .
z = −t
w = (t − 3, −2t − 1 − t 0 , −t − t 0 ).
x + x0 y + y0 z + z0
α= , β= , γ= .
2 2 2
Simmetria assiale
É la simmetria rispetto ad una retta fissata r.
Il simmetrico di un punto P = (x, y, z) rispetto alla retta r é precisamente il simme-
trico di P rispetto alla propria proiezione ortogonale sulla retta r.
Ovvero, si determina dapprima il piano π, passante per P ed ortogonale alla retta r.
Quindi si calcolano le coordinate del punto C dato dall’intersezione π ∩ r. Il simme-
trico di P rispetto a C (simmetria centrale) é esattamente il simmetrico di P rispetto
alla retta r.
Simmetria planare
É la simmetria rispetto ad un piano fissato.
Il simmetrico di un punto P = (x, y, z) rispetto al piano π é precisamente il simme-
trico di P rispetto alla propria proiezione ortogonale sul piano π.
Si determina dapprima la retta r, passante per P ed ortogonale al piano π. Quindi si
calcolano le coordinate del punto C dato dall’intersezione π ∩ r. Il simmetrico di P
rispetto a C (simmetria centrale) é esattamente il simmetrico di P rispetto al piano
π.
Esempio 211. Siano C = (2, 1, 1), π : x − y + z − 1 = 0 e
x = t −1
r : y = t +2.
z = t +1
3 + x0 4 + y0 1 + z0
2= , 1= , 1=
2 2 2
da cui P0 = (1, −2, 1).
Consideriamo ora la retta ortogonale a π e passante per P:
362 14 Rette e piani nello spazio affine ed euclideo.
x = t +3
s : y = −t + 4 .
z = t +1
σ : x + y + z − 8 = 0.
y = y0 + b .
z = z0 + c
Rotazioni.
14.13 Cambiamento di riferimento cartesiano ortonormale. 363
cioé 0
x l1 l2 l3 x
y = m1 m2 m3 · y0
z n1 n2 n3 z0
e le formule inverse sono
364 14 Rette e piani nello spazio affine ed euclideo.
0
x l1 m1 n1 x
y0 = l2 m2 n2 · y
z0 l3 m3 n3 z
poiché le due matrici usate sono matrici ortogonali, ovvero l’una la trasposta
dell’altra, ma anche l’una l’inversa dell’altra.
Rototraslazioni.
Consideriamo infine il caso piú generale: i due sistemi OXY Z e O0 X 0Y 0 Z 0 hanno
origini differenti ed almeno uno degli assi del sistema O0 X 0Y 0 Z 0 non sia parallelo e
concorde ad alcuno degli assi del sistema di riferimento iniziale. In tale caso, per
ottenere le coordinate (x0 , y0 , z0 ) di un punto P rispetto al sistema O0 X 0Y 0 Z 0 , saranno
necessarie sia una traslazione che una rotazione degli assi. Quindi, indicando le
componenti dei versori i0 , j0 , k0 come segue
Osserviamo dapprima che le rette sono ortogonali, infatti le loro direzioni, ottenute
calcolandone i rispettivi parametri direttori sono
Le rette si intersecano nel punto O0 di coordinate (1, 1, 1). Tale punto sará l’origine
del nuovo sistema di riferimento.
Per procedere con il cambiamento del sistema di riferimento dobbiamo a questo
punto effettuare delle scelte: quali siano i nuovi assi X 0 ,Y 0 , Z 0 ed inoltre quali siano
i loro versi.
Considereremo
r1 = X 0 , r2 = Y 0 , r3 = Z 0
e scegliamo i seguenti versi
1 1 1 1 1
i0 = √ , √ , − √ , j0 = √ , 0, √
3 3 3 2 2
da cui
0 1 1 1
k = −λ √ , 2λ √ , λ √
6 6 6
dove λ = ±1, in accordo col fatto che (i0 , j0 , k0 ) debba rappresentare una terna di
riferimento standard. Ció avverrá nel caso in cui la matrice ortogonale di rotazione
1
√1 −λ √1
√
3 2 6
C = √13 0 2λ √16
− √13 √12 λ √16
e
0 √1 √1 − √1
x 3 3 3 x−1
y0 = 1 √1
√2 0 2
·y−1
z0 1 2
√ −√ −√ 1 z−1
6 6 6
ovvero
366 14 Rette e piani nello spazio affine ed euclideo.
1 1 1
x = √ x0 + √ y0 + √ z0 + 1
3 2 6
1 0 2 0
y = √ x − √ z +1 (14.3)
3 6
1 0 1 1
z = − √ x + √ y0 − √ z0 + 1
3 2 6
e
1 1 1
x0 = √ (x − 1) + √ (y − 1) − √ (z − 1)
3 3 3
1 1
y0 = √ (x − 1) + √ (z − 1) (14.4)
2 2
0 1 2 1
z = √ (x − 1) − √ (y − 1) − √ (z − 1).
6 6 6
Ad esempio, dato in punto P di coordinate (2, 1, −1) in OXY Z, otterremo le sue
coordinate in O0 X 0Y 0 Z 0 applicando le (14.4), per cui
1 1 1 3
x0 = √ (2 − 1) + √ (2 − 1) − √ (−1 − 1) = √
3 3 3 3
0 1 1 1
y = √ (2 − 1) + √ (−1 − 1) = − √
2 2 3
1 2 1 3
z0 = √ (2 − 1) − √ (1 − 1) − √ (−1 − 1) = √ .
6 6 6 6
Analogamente, dato il piano π, la cui equazione in OXY Z é x + 3y − 2z + 1 = 0,
otterremo la sua equazione rappresentativa in O0 X 0Y 0 Z 0 tramite le relazioni (14.3):
1 0 1 0 1 0
√ x + √ y + √ z +1
3 2 6
1 0 2 0
+3 √ x − √ z +1
3 6
1 0 1 0 1 0
−2 −√ x + √ y − √ z +1 +1 = 0
3 2 6
ovvero
√ 1 √
3 2x0 − √ y0 − z0 + 6 = 0.
3
Esercizio 109. Determinare l’equazione del piano contenente i punti (1, 1, 0),
(1, 0, 1), (3, −1, 0).
14.14 Esercizi svolti. 367
Svolgimento: Sia (x, y, z) il generico punto del piano. L’equazione in forma carte-
siana si ottiene allora da:
x y z 1
1 1 0 1
1 0 1 1 = 0
3 −1 0 1
cioé x + y + z − 2 = 0.
Esercizio 110. Determinare l’equazione del piano contenente il punto (1, 1, 2) e
parallelo ai vettori di componenti (−1, 2, 3) e (1, 2, −1).
x = −t + t 0 + 1
y = 2t + 2t 0 + 1
z = 3t − t 0 + 2
ed in forma cartesiana
x−1 y−1 z−2
−1 2 3 = 0
1 2 −1
cioé 4x − y + 2z − 7 = 0.
Esercizio 111. Sia dato il fascio di piani (3x + y − 2z) + a(x − 4y + 2z − 1) = 0.
Verificare se il piano π : 2x + 5y − 4z + 2 = 0 appartiene o no al fascio.
3 5 −4 3 5 −4 0
Le matrici A0 e C0 hanno entrambe rango 3, quindi il piano π appartiene alla stella.
Consideriamo ora le matrici ottenute aggiungendo i coefficienti del piano σ :
3 1 −2 3 1 −2 0
1 −4 2 1 −4 2 −1
A00 =
1 0 0
, C 00
= 1 0 0 −1 .
2 1 0 2 1 0 −1
222 2 2 2 −3
Le matrici A0 e C0 hanno rispettivamente rango 2 e rango 3, quindi il piano π
appartiene alla stella.
Consideriamo ora le matrici ottenute aggiungendo i coefficienti del piano σ :
21 1 21 1 0
1 1 1 1 1 1 0
A00 =
3 2 2 ,
C00 =
3 2 2 −1 .
1 2 −1 1 2 −1 0
La matrice A00 ha rango 3, quindi il piano σ non appartiene alla stella impropria.
Esercizio 115. Determinare la retta passante per i punti (1, 0, 1) e (2, 3, 1).
Svolgimento: I parametri direttori della retta sono dati dalle differenze delle coor-
dinate omologhe dei due punti: (l, m, n) = (1, 3, 0), quindi una forma parametrica
dell’equazione della retta é:
x = t +1
y = 3t .
z=1
Esercizio 116. Determinare la retta passante per il punto (2, 1, 1) e parallela alla
retta s : 2x + y − z = x + y − 2z + 1 = 0.
Svolgimento: I parametri direttori della retta s sono (−1, 3, 1), e quindi essi pos-
sono essere considerati anche come i parametri direttori della retta da determinare.
Quindi una forma parametrica dell’equazione della retta é:
x = −t + 2
y = 3t + 1 .
z = t +1
r: x − 3y + 2 = x + y + z − 1 = 0
s: x = −t + 2, y = 5t + 3, z = −t.
r: x−y = z−1 = 0
s: x − y + 2z − 3 = 2x − 2y + 3z − 4 = 0
2 −2 3 −4
Poiché det(A) = 0, le due rette sono complanari. Calcoliamo allora il piano π che
la contiene entrambe: determiniamo dapprima il fascio di piani che abbia come
sostegno la retta s:
F: (x − y + 2z − 3) + a(2x − 2y + 3z − 4) = 0.
Il piano π appartiene a tale fascio. Inoltre π deve contenere ogni punto di r. Sceglia-
mo P = (0, 0, 1) ∈ r (la scelta di tale punto deve essere tale da essere certi che P non
sia il punto comune alle due rette). Imponiamo ora che il generico piano del fascio
contenga P:
2 − 3 + a(3 − 4) = 0 → a = −1
quindi
π: x − y + z − 1 = 0.
14.14 Esercizi svolti. 371
r: x = t, y = 1 − 2t, z=t
sono paralleli.
Svolgimento: I parametri direttori della retta sono (l, m, n) = (1, −2, 1) ed i coef-
ficienti del piano sono (a, b, c) = (2, −1, −4), per cui é verificata la condizione
al + bm + cn = 0.
Esercizio 120. Determinare il punto comune alla retta
r: 2x − y + 1 = x + y − z = 0
ed al piano π : 3x − y + 2z = 0.
x = − 17
y = 57 .
z = 47
2x − y + 3z + k = 0
3x + 6y − z − 2 + h(x + y − 1) = 0
(3 + h)x + (6 + h)y − z − 2 − h = 0
ed imponiamo la ortogonalitá con s:
3 + h = 1, 6+h = 4
x + 4y − z = 0.
Svolgimento: I parametri direttori della retta r sono (0, 0, 1), per cui il piano richie-
sto contiene i tre punti in coordinate omogenee (1, 0, 1, 1), (−1, 1, 1, 1), (0, 0, 1, 0):
x1 x2 x3 x4
1 0 1 1
π : =0
−1 1 1 1
0 0 1 0
π: x1 + 2x2 − x4 = 0
x + 2y − 1 = 0.
Esercizio 124. Determinare la distanza tra il punto P = (0, 2, 1) ed il piano π di
equazione 3x + 2y − z + 2 = 0.
Svolgimento:
|3 · 0 + 2 · 2 + (−1) · 1 + 2| 5
δ (P, π) = √ =√ .
9+4+1 14
Esercizio 125. Determinare la distanza tra i due piani π : 2x + y + 2z − 1 = 0 e
π 0 : 4x + 2y + 4z + 7 = 0.
Svolgimento: Riscriviamo π 0 : 2x + y + 2z + 72 = 0.
| 7 − (−1)| 9
3
δ (π, π 0 ) = √2 = √2 = .
4+1+4 9 2
Esercizio 126. Determinare la distanza tra le rette 2x + 3y − 2 = x − 1 = 0 e y =
x − z + 1 = 0.
per cui le rette sono incidenti e non parallele e la loro distanza é nulla.
Esercizio 127. Determinare la distanza tra le rette r : 2x + 3y − 1 = x − 1 = 0 e
s : y = x − z + 1 = 0.
Fr : 2x + 3y − 1 + h(x − 1) = 0
Fr : (2 + h)x + 3y − 1 − h = 0
Il piano πr di Fr parallelo alla retta s deve contenere il punto improprio di s, s∞ =
(1, 0, 1, 0). Imponiamo il passaggio per s∞ : 2 + h = 0 ed il piano é πr : 3y + 1 = 0.
Analogamente costruiamo il fascio di piani che ha come sostegno s
Fs : y + k(x − z − 1) = 0
Fs : kx + y − kz − k = 0
Il piano πs di Fs parallelo alla retta r deve contenere il punto improprio di r, r∞ =
(0, 0, 1, 0). Imponiamo il passaggio per r∞ : k = 0 ed il piano é πs : y = 0. Allora
1
δ (r, s) = δ (πr , πs ) = .
3
Calcoliamo ora la retta di minima distanza, cioé quella ortogonale ed incidente ad
entrambe le rette date:
In coordinate parametriche il generico punto di r é Pr = (1, − 13 ,t) e quello di s é
Qs = (t 0 , 0,t 0 + 1). Il segmento Pr Qs ha componenti (t 0 − 1, 13 ,t 0 − t + 1). Inponiamo
che tale vettore sia ortogonale ad entrambe le rette:
374 14 Rette e piani nello spazio affine ed euclideo.
ortogonalitá con r : t0 − t + 1 = 0
ortogonalitá con s : t0 − 1 + t0 − t + 1 = 0
da cui t 0 = 1 e t = 2.
Quindi i punti contenuti nella retta di minima distanza sono
1
Pr = (1, , 2) Qs = (1, 0, 2)
3
e la retta di minima distanza é x − 1 = y − 2 = 0.
Esercizio 128. Determinare la distanza tra il punto P = (1, 1, 3) e la retta r di
equazioni x = 2t, y = 1 − 2t, z = t.
e tra tutti questi piani scegliamo l’unico ortogonale alla retta r, cioé a = 2, b = −2,
c = 1:
π : 2x − 2y + z − 3 = 0.
Il punto di intersezione tra r e π é Q = ( 10 1 5
9 , − 9 , 9 ). La distanza tra r e P é pari alla
distanza tra P e Q:
r √
1 100 484 65
δ (P, r) = δ (P, Q) = + + = .
81 81 81 3
14.14 Esercizi svolti. 375
Fr : x − 2z + 1 + h(y − 3z) = 0
Fr : x + hy + (−2 − 3h)z + 1 = 0.
Il piano πr di Fr parallelo alla retta s deve contenere il punto improprio di s, s∞ =
(1, 2, 1, 0). Imponiamo il passaggio per s∞ : 1 + h = 0 ed il piano é πr : x − y + z +
1 = 0.
Scegliamo ora un punto Q a piacere su s: Q = (2, −3, 0). La distanza tra s e r é pari
alla distanza tra Q e πr :
|2 + 3 + 1| 6 √
δ (r, s) = δ (Q, πr ) = √ = √ = 2 3.
3 3
Calcoliamo ora la retta di minima distanza, cioé quella ortogonale ed incidente ad
entrambe le rette date:
In coordinate parametriche il generico punto di r é Pr = (2t − 1, 3t,t) e quello di s é
Qs = (t 0 + 2, 2t 0 − 3,t 0 ). Il segmento Pr Qs ha componenti (2t −t 0 − 3, 3t − 2t 0 + 3,t −
t 0 ). Inponiamo che tale vettore sia ortogonale ad entrambe le rette:
ortogonalitá con s : 9t − 6t 0 + 3 = 0
da cui t = 3 e t 0 = 5.
Quindi i punti contenuti nella retta di minima distanza sono
Pr = (5, 9, 3) Qs = (7, 7, 5)
Esercizio 130. Determinare il piano passante per i punti P = (1, 0, 1), Q = (−1, 1, 1)
e parallelo alla retta r : 2x + y − 1 = x − y − 2 = 0.
Svolgimento: I parametri direttori della retta r sono (0, 0, 1) e quelli della retta
contenente il segmento PQ sono (2, −1, 0). Il piano richiesto é quello contenente i
vettori (0, 0, 1), (2, −1, 0) e passante per il punto P (oppure Q):
x−1 y z−1
0 0 1 =0
2 −1 0
Il piano richiesto é quello contenente i vettori (3, 1, 0), (2, 3, 1) e passante per il
punto P:
x y−1 z−1
3 1
0 = 0
2 3 1
oppure analogamente é il piano contenente i tre punti, in coordinate omogenee,
(3, 1, 0, 0), (2, 3, 1, 0), (0, 1, 1, 1):
x1 x2 x3 x4
3 1 0 0
2 3 1 0 =0
0 1 1 1
Svolgimento: I parametri direttori della retta sono identici a quelli della retta r,
14.14 Esercizi svolti. 377
Fr : 2x + y + h(2x − z − 1) = 0
15.1 Definizione.
Una quadrica é una superficie nello spazio A3 , luogo dei punti P = (x, y, z) le cui
coordinate soddisfano ad un’equazione del tipo
a11 x12 + a22 x22 + a33 x32 + a44 x42 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3 +
π ∪ π0 : (ax + by + cz + d) · (a0 x + b0 y + c0 z + d 0 ) = 0
é l’equazione di una quadrica, che é detta ridotta nell’unione dei due piani.
Indichiamo con
x1
x2
X =
x3
x4
il generico vettore delle coordinate omogenee e sia
a11 a12 a13 a14
a12 a22 a23 a24
A=
a13 a23 a33 a34
a14 a24 a34 a44
379
380 15 Le superfici quadriche.
X T · A · X = 0.
Si noti che ogni retta dello spazio interseca una superficie quadrica esattamente in
due punti, eccetto il caso in cui la retta appartenga completamente alla quadrica (nel
qual caso i punti di incontro tra la retta e la quadrica sono infiniti, ovvero tutti quelli
della retta). Analogamente a quanto detto per i punti di una curva algebrica nel piano
affine o euclideo, un punto P0 di una superficie quadrica é detto doppio se, per una
qualsiasi retta r passante per P0 , si verifica una delle seguenti:
1. r é completamente contenuta nella superficie;
2. r interseca la superficie solo in P0 , ovvero r ha una intersezione doppia con la
quadrica nel punto stesso.
Determiniamo una prima classificazione delle quadriche in base alla presenza di
punti doppi:
Teorema 15.1. Sia Q : X T · A · X = 0 una quadrica. Essa contiene almeno un punto
doppio se e solo se det(A) = 0.
In particolare diciamo quadriche generali quelle che non presentano punti doppi
(det(A) 6= 0); diciamo quadriche specializzate quelle che presentano un solo punto
doppio; diciamo quadriche riducibili quelle che presentano infiniti punti doppi.
Tale conica é riducibile solo quando il piano π é tangente alla quadrica, oppure nel
caso la quadrica sia ridotta nell’unione di due piani.
Queste sono le quadriche prive di punti doppi. In presenza di una quadrica generale
Q : X T · A · X = 0, si definisce una corrispondenza biunivoca tra l’insieme di tutti
i punti dello spazio e l’insieme di tutti i piani dello spazio, tale che ad ogni punto
P = (a1 , a2 , a3 , a4 ) corrisponda il piano di equazione
a11 a12 a13 a14 x1
a12 a22 a23 a24 x2
π: a1 a2 a3 a4 · a13 a23 a33 a34 · x3 = 0.
Il punto P é detto polo del piano π rispetto alla quadrica Q, il piano π é detto piano
polare di P rispetto alla quadrica Q.
In particolare, se P ∈ Q é un punto della quadrica, il suo piano polare, rispetto a Q,
coincide col piano tangente in P alla quadrica.
É una quadrica generale che interseca il piano improprio in una conica irriducibile
e reale (si dice che il piano improprio e l’iperboloide sono secanti l’un l’altro).
Se i punti dell’iperboloide sono tutti iperbolici, esso é detto iperboloide iperbolico,
se i punti sono tutti ellittici esso é detto iperboloide ellittico.
Teorema 15.3. Un iperboloide é iperbolico se e solo se det(A) > 0, é ellittico se e
solo se det(A) < 0.
L’iperboloide possiede tutte le sezioni piane, cioé si possono generare sia iperboli
che parabole che ellissi, intersecando un iperboloide con i piani dello spazio.
Paraboloide.
É una quadrica generale che interseca il piano improprio in una conica riducibile (si
dice che il piano improprio é tangente al paraboloide).
Teorema 15.4. Una quadrica generale é tangente al piano improprio (quindi é un
paraboloide) se e solo se il complemento algebrico A44 , dell’elemento a44 della
matrice A, é nullo.
Se i punti del paraboloide sono tutti iperbolici, esso é detto paraboloide iperbolico,
se i punti sono tutti ellittici esso é detto paraboloide ellittico.
Teorema 15.5. Un paraboloide é iperbolico se e solo se det(A) > 0, é ellittico se e
solo se det(A) < 0.
382 15 Le superfici quadriche.
Ellissoide.
É una quadrica generale che interseca il piano improprio in una conica irriducibile
immaginaria (si dice che il piano improprio é esterno all’ ellissoide).
I punti di un ellissoide sono tutti ellittici.
Teorema 15.8. Un ellissoide possiede punti tutti reali se e solo se det(A) < 0, ed é
detto ellissodie reale, in caso contrario é detto ellissoide immaginario.
Teorema 15.9. Un ellissoide possiede solamente ellissi come sezioni piane, cioé
si possono generare solamente ellissi, intersecando un ellissoide con i piani dello
spazio.
Esempio 213. Classificare la quadrica di equazione x2 + y2 − z2 + xy + x − 3 = 0.
Otteniamo che det(A) > 0 con A44 6= 0, dove A44 é il complemento algebrico
dell’elemento a44 della matrice A.
Inoltre la conica impropria della quadrica é data da:
2
x1 + x22 − x32 + x1 x2 = 0
x4 = 0
2 0 0 − 21
0 1 0 −1
A= 0 0 1 0 .
− 12 −1 0 1
15.3 Quadriche specializzate. 383
Sono le quadriche con un solo punto doppio, il quale é detto vertice. Per quanto
riguarda i punti delle superfici specializzate, vale il seguente:
Teorema 15.10. Se Q é una quadrica specializzata, allora tutti i punti della
superficie Q sono parabolici.
15.3.1 Cono.
Un cono possiede tutte le sezioni piane, cioé si possono generare sia iperboli che
parabole che ellissi, intersecando un cono con i piani dello spazio.
Inoltre tutti i piani tangenti alla superficie di un cono devono contenerne il vertice.
15.3.2 Cilindro.
Ogni cilindro possiede un solo tipo di sezione piana indipendentemente dal piano
col quale si effettua l’intersezione. Cioé, fissato il cilindro Q, si possono generare
solo iperboli o parabole o ellissi, intersecando il cilindro con i piani dello spazio.
In particolare, poiché il piano improprio é tangente al cilindro, la conica impropria
ridotta dovrá rispettare il seguente prospetto:
Inoltre tutti i piani tangenti alla superficie di un cilindro devono contenerne il vertice.
Esempio 216. Classificare la quadrica di equazione x2 + y2 + 2xy + 2yz − 2x + y +
1 = 0.
(x1 + x2 )2 = 0
x4 = 0
cioé sono due rette reali e coincidenti, quindi la conica generatrice del cilindro é una
parabola. t
u
π : ax + by + cz + d = 0 π 0 : a0 x + b0 y + c0 z + d 0 = 0.
Tali quadriche hanno infiniti punti doppi, sono i punti della retta comune ai due piani
π e π 0.
In particolare si possono verificare i seguenti 3 casi:
1. i due piani sono distinti ed incidenti, ed allora det(A) = 0, rango(A) = 2, vi sono
∞1 punti doppi propri;
2. i due piani sono distinti e paralleli, ed allora det(A) = 0, rango(A) = 2, vi sono
∞1 punti doppi impropri;
3. i due piani sono coincidenti, ed allora det(A) = 0, rango(A) = 1, vi sono ∞2 punti
doppi propri.
Aggiungiamo come caso ’molto particolare’ quello in cui la quadrica ha equazione
x42 = 0, cioé vi sono ∞2 punti doppi impropri.
Definizione 15.14. Sia A = (ai j ) ∈ M4 (R) la matrice non singolare associata all’e-
quazione di una quadrica generale. Si definisce centro di simmetria della quadrica
Q, il punto C ∈ Q tale che, ogni punto P della superficie ha un simmetrico rispetto a
C che é ancora un punto della superficie.
Analogamente a quanto visto per le coniche, le coordinate del centro di simme-
tria si ottengono direttamante dalla matrice A: C = (A41 , A42 , A43 , A44 ), dove ogni
Ai j é il complemento algebrico dell’elemento ai j ∈ A considerato con l’opportu-
no segno (derivante dalla posizione che esso occupa nella matrice). Nel caso di un
15.5 Piani ed assi di simmetria delle quadriche generali. 387
Svolg. É sufficiente verificare che gli autovalori della matrice A44 sono esattamente
λ = 0, 5, −5 e che i rispettivi autovettori rispetto ad A44 sono: (− 34 , 1, 0) per λ = 0,
( 35 , 54 , 1) per λ = 5, (− 35 , − 54 , 1) per λ = −5. Quindi i poli dei piani di simmetria
sono esattamente ( 35 , 54 , 1, 0), (− 35 , − 45 , 1, 0).
I piani di simmetria sono i piani polari dei punti precedente determinati, ovvero
6x + 8y + 10z − 3 = 0. e 6x + 8y − 10z + 3 = 0.
L’asse di simmetria é quindi
6x + 8y + 10z − 3 = 0
6x + 8y − 10z + 3 = 0.
t
u
Osservazione 15.17. Il calcolo del punto di sella di un paraboloide iperboli-
co é analogo al calcolo del punto del parabolide ellittico che potremmo definire
impropriamente ’vertice del parabolide’.
388 15 Le superfici quadriche.
det(A) = det(B)
det(A44 ) = det(B44 )
la somma degli autovalori di A44 é pari alla somma degli autovalori di B44 .
In altre parole, se indichiamo con αx2 +β y2 +γz2 = δ l’equazione di una quadrica a
centro, é sufficiente calcolare gli autovalori di A44 per ottenere i coefficienti α, β , γ.
Esempio 219. Consideriamo l’iperboloide ellittico di equazione 2x2 − 2y2 − 2yz −
2z2 − 3 = 0 di matrice associata:
2 0 0 0
0 −2 −1 0
A= 0 −1 −2 0 .
0 0 0 3
Svolg. Una forma canonica é ax2 + by2 + cz2 = d, dove a, b, c sono gli autovalori
della sottomatrice A44 . Eseguendo i calcoli, essi sono 2, −3, −1, quindi l’equazione
sará 2x2 − 3y2 − z2 = d con matrice associata
2 0 0 0
0 −3 0 0
B= 0 0 −1 0
0 0 0 −d
di determinante −6d. Inoltre é facile calcolare che det(A) = −18 e grazie all’inva-
rianza ortogonale sappiamo che 6d = 18, quindi d = 3. Infine l’equazione in forma
ridotta sará 2x2 − 3y2 − z2 − 3 = 0. t
u
2
x2
1. a2
+ by2 = 2dz paraboloide ellittico;
2
x2
2. a2
− by2 = 2dz paraboloide iperbolico.
Diciamo X t BX = 0 l’equazione della quadrica nella sua forma ridotta. Come in
precedenza i seguenti sono invarianti ortogonali:
det(A) = det(B)
det(A44 ) = det(B44 )
la somma degli autovalori di A44 é pari alla somma degli autovalori di B44 .
Esempio 220. Consideriamo il paraboloide iperbolico di equazione 6xz + 8yz −
5x = 0 di matrice associata:
0 0 3 − 52
0 04 0
A=
3 4 0 0 .
− 25 0 0 0
Svolg. Una forma canonica con asse di simmetria coincidente con l’asse Z é
ax2 + by2 + 2cz = 0, dove a, b sono gli autovalori non nulli della sottomatrice A44
390 15 Le superfici quadriche.
(ricordiamo che per un paraboloide l’autovalore nullo esiste sempre ma non forni-
sce indicazioni, poiché l’autovettore ad esso relativo é il polo del piano improprio).
Eseguendo i calcoli, gli autovalori non nulli sono 5, −5, quindi l’equazione sará
5x2 − 5y2 + 2cz = 0 con matrice associata
5 0 00
0 −5 0 0
B= 0 0 0 c
0 0 c0
di determinante 25c2 . Inoltre é facile calcolare che det(A) = 100 e grazie all’inva-
rianza ortogonale sappiamo che 25c2 = 100, quindi c ∈ {−2, 2}. Infine le equazioni
in forma ridotta saranno
5x2 − 5y2 − 4z = 0
oppure
5x2 − 5y2 + 4z = 0.
t
u
0000
Svolg. Il vertice del cono ha coordinate (0, 0, 0). Gli autovalori della sottomatrice
A44 sono λ1 = 2, con molteplicitá algebrica 2, e λ2 = 4. Una forma canonica é
2x2 + 2y2 + 4z2 = 0. t
u
Nota 15.18. Per non appesantire oltremodo la discussione sulle superfici quadri-
che, tralasciamo volutamente l’analisi dei metodi necessari per ottenere una forma
canonica dell’equazione di un cilindro, poiché essa richiederebbe l’introduzione di
ulteriori nozioni e tecniche.
15.9 La sfera.
da cui
(x − α)2 + (y − β )2 + (z − γ)2 = r2
x2 + y2 + z2 + ax + by + cz + d = 0
dove
a b c
C = (α, β , γ) = (− , − , − )
2 2 2
1p 2
r= a + b2 + c2 − 4d > 0.
2
Esempio 222. Determinare centro e raggio della sfera x2 + y2 + z2 − 3x + 5y − z +
1 = 0.
Se δ < r allora il piano é secante la sfera. La loro intersezione genera una circonfe-
renza reale, le cui equazioni sono date dal sistema:
S : x2 + y2 + z2 + ax + by + cz + d = 0
π : ex + f y + gz + h = 0.
|r − r0 | < δ < r + r0
allora le due sfere si intersecano in una circonferenza reale. Tale circonferenza giace
su di un piano la cui equazione si ricava sottraendo membro a membro le equazioni
delle due sfere: 2
x + y2 + z2 + ax + by + cz + d = 0
x + y2 + z2 + a0 x + b0 y + c0 z + d 0 = 0.
2
cioé
π : (a − a0 )x + (b − b0 )y + (c − c0 )z + (d − d 0 ) = 0.
Da cui otteniamo l’equazione della circonferenza che le due sfere hanno in comune:
x2 + y2 + z2 + ax + by + cz + d = 0
γ:
(a − a )x + (b − b0 )y + (c − c0 )z + (d − d 0 ) = 0.
0
(x2 + y2 + z2 + ax + by + cz + d) + λ (x2 + y2 + z2 + a0 x + b0 y + c0 z + d 0 ) = 0
15.9 La sfera. 393
o equivalentemente dall’equazione
(x2 + y2 + z2 + ax + by + cz + d) + λ ((a − a0 )x + (b − b0 )y + (c − c0 )z + (d − d 0 )) = 0.
Se P1 é un punto non appartenente a π allora esiste una ed una sola sfera apparte-
nente al fascio e passante per P1 .
(x2 + y2 + z2 + ax + by + cz + d) + λ (x2 + y2 + z2 + a0 x + b0 y + c0 z + d 0 ) = 0
o equivalentemente dall’equazione
(x2 + y2 + z2 + ax + by + cz + d) + λ (ex + f y + gz + h) = 0.
Anche in questo caso, se P1 é un punto non appartenente a π allora esiste una ed una
sola sfera appartenente al fascio e passante per P1 .
Esempio 223. Determinare il piano tangente alla sfera x2 + y2 + z2 − 2x + 2y − 2z −
1 = 0 nel punto P = (1, 1, 1).
Svolg. Il piano tangente puó essere visto come il piano polare del punto P rispetto
alla quadrica (in questo caso la sfera) data:
1 0 0 −1 x1
0 1 0 1 x2
1 1 1 1 · · =0
0 0 1 −1 x3
−1 1 −1 −1 x4
cioé y − 1 = 0. t
u
394 15 Le superfici quadriche.
γ: S∩π : x2 + y2 + z2 − 2x + 2z = y + z = 0
Svolg. Per prima cosa verifichiamo che √ la circonferenza γ é reale; infatti il centro
di S é C = (1, 0, −1), il suo raggio é 2, e la distanza δ (C, π) = √12 é minore del
raggio di S.
Costruiamo il fascio di sfere contenenti la circonferenza γ:
Fγ : x2 + y2 + z2 − 2x + 2z + h(y + z) = 0
t
u
Esempio 225. Determinare la sfera tangente al piano π : x + y − z − 1 = 0 nel
punto P = (1, 1, 1) e passante per il punto Q = (2, 1, 0).
Su tale retta si trovano i centri di ogni sfera che sia tangente a π in P. Per esempio
scegliamo t = 1, il centro
√ della sfera S1 ottenuta é C = (2, 2, 0) ed il suo raggio é
la distanza δ (P,C) = 3. La sfera ha equazione (x − 2)2 + (y − 2)2 + z2 = 3 cioé
x2 + y2 + z2 − 4x − 4y + 5 = 0. Costruiamo il fascio di sfere tangenti a π in P:
F: x2 + y2 + z2 − 4x − 4y + 5 + h(x + y − z − 1) = 0.
x2 + y2 + z2 − 3x − 3y − z + 4 = 0.
t
u
15.10 Esercizi svolti. 395
−1 0 0 −3
Il determinante della matrice é pari a |A| = −5, per cui la superficie é una quadrica
generale. Determiniamo gli autovalori della sottomatrice A44 :
1−λ 1 0
1 2 − λ 0 = 0 ⇒ (1 − λ )(λ 2 − 3λ + 1) = 0.
0 0 1−λ
√ √
La radici del precedente polinomio caratteristico sono quindi {1, 3+2 5 , 3+2 5 }, per
cui gli autovalori sono tutti positivi.
Dalle informazioni ottenute, possiamo concludere che la superficie é un ellissoide
reale. √ √
Una forma canonica dell’equazione di tale quadrica é x2 + 3+2 5 y2 + 3+2 5 z2 +a044 =
0, con matrice associata
1 0√ 0 0
3+ 5
0 0√ 0
A0 =
2 .
0 3− 5
0 2 0
0 0 0 a044
Il determinante della matrice é pari a |A| = 21 , per cui la superficie é una quadrica
generale. Determiniamo gli autovalori della sottomatrice A44 :
−λ 1 1
1 2 21 3 3 1
2 −λ 2 = 0 ⇒ λ − 4 λ + 4 = 0.
1 1
2 −λ
2
La radici del precedente polinomio caratteristico sono quindi {−1, 21 , 12 }, per cui gli
autovalori sono tra loro discordi in segno.
Dalle informazioni ottenute, possiamo concludere che la superficie é un iperboloide
iperbolico.
Una forma canonica dell’equazione di tale quadrica é 12 x2 + 12 y2 − z2 + a044 = 0, con
matrice associata 1
2 0 0 0
0 1 0 0
A0 = 2
0 0 −1 0 .
0 0 0 a044
Il determinante della matrice é un invariante ortogonale per la quadrica, per cui
|A0 | = 21 , ovvero
1 1 1
− · · a044 =
2 2 2
0
da cui a44 = −2. Quindi l’equazione in forma canonica é
1 2 1 2 2
x + y − z − 2 = 0.
2 2
Intersechiamo ora con il piano π di equazione x − y = 0. La conica ottenuta viene
espressa tramite il sistema
xy + yz + xz − 2x + 1 = 0
γ:
x−y = 0
ovvero
x2 + 2xz − 2x + 1 = 0
γ: .
x−y = 0
In particolare, la prima equazione x2 + 2xz − 2x + 1 = 0 esprime una quadrica Q0 , la
cui proiezione su π é costituita dalla stessa γ.
É sufficiente quindi classificare l’intersezione tra Q0 e π. La matrice associata a Q0 é
15.10 Esercizi svolti. 397
1 01 −1
0 00 0
B=
1 00 0
−1 0 0 1
Quindi Q0 ∩ π∞ = r1 ∪ r2 , dove
x1 = 0 x1 + 2x3 = 0
r1 : r2 : .
x4 = 0 x4 = 0
−1 0 0 0
Il determinante della matrice é pari a |A| = −1, per cui la superficie é una quadrica
generale. Inoltre il complemento algebrico A44 é nullo, quindi la superficie é un pa-
raboloide ellittico.
Gli autovalori della sottomatrice A44 sono {0, 1, 2}. Una forma canonica dell’e-
quazione di un siffatto paraboloide ellittico é x2 + 2y2 + 2a034 z = 0, con matrice
associata
398 15 Le superfici quadriche.
1 0 0 0
0
0 2 0 0
A = .
a034
0 0 0
0 0 a034 0
Il determinante della matrice é un invariante ortogonale per la quadrica, per cui
|A0 | = −1, ovvero
−2a02
34 = −1
2
x2 + 2y2 + √ z = 0
2
od anche
2
x2 + 2y2 − √ z = 0.
2
Intersechiamo Q con il piano π di equazione x = 0. La conica ottenuta viene espressa
tramite il sistema 2
x + y2 + z2 + 2xy − 2x = 0
γ:
x=0
ovvero
y2 + z2
γ: .
x=0
In particolare, la prima equazione x2 + 2xz − 2x + 1 = 0 rappresenta una quadrica
Q0 che ri riduce nell’unione dei due piani complessi coniugati di equazioni rispetti-
vamente y + iz = 0 e y − iz = 0. La conica γ é quindi una ellisse ridotta nell’unione
delle due rette complesse coniugate
y + iz = 0 y − iz = 0
x=0 x=0
1 0 − 12
1
00
1 10 0
A = 0
00 0
− 12 00 0
ed il cui vertice ha coordinate (0, 0, 1, 0). Anche in questo caso, possiamo clas-
sificare la conica Q ∪ σ , analizzando quale sia la conica impropria del cilindro
Q00 : 2
x1 + x22 + 2x1 x2 = 0 (x1 + x2 )2 = 0
00
Q ∩ π∞ : ⇒ .
x4 = 0 x4 = 0
Quindi Q00 ∩ π∞ = r1 ∪ r1 , dove
x1 + x2 = 0
r1 :
x4 = 0
ovvero Q00 ∩ π∞ é una parabola (ridotta). La conica generatrice del cilindro Q00 é
quindi una parabola, e tale é anche γ = Q ∩ σ = Q00 ∩ σ .
Esercizio 138. Determinare una forma canonica della quadrica Q di equazione
x2 + 4xy + y2 + 3z2 + 4x + 4y + 1 = 0.
2201
Quindi Q0 ∩ π∞ = r1 ∪ r2 , dove
√ √
x1 + i 3x3 = 0 x1 − i 3x3 = 0
r1 : r2 :
x4 = 0 x4 = 0
ed il cui vertice ha coordinate (0, 0, 1, 0). Anche in questo caso, possiamo classifi-
care la conica γ2 = Q ∪ σ , analizzando quale sia la conica impropria del cilindro
Q00 : 2
x1 + 4x1 x2 + 4x22 = 0 (x1 + 2x2 )2 = 0
Q00 ∩ π∞ : ⇒ .
x4 = 0 x4 = 0
Quindi Q00 ∩ π∞ = r1 ∪ r1 , dove
x1 + 2x2 = 0
r1 :
x4 = 0
15.10 Esercizi svolti. 401
ovvero Q00 ∩ π∞ é una parabola (ridotta). La conica generatrice del cilindro Q00 é
quindi una parabola, e tale é anche γ2 = Q ∩ σ = Q00 ∩ σ .
Esercizio 139. Determinare la sfera passante per il punto (1, 2, 1) e per la circonfe-
renza γ : x2 + y2 + z2 − 2x − 3 = 4x − 11 = 0.
Fγ : x2 + y2 + z2 − 2x − 3 + λ (4x − 11) = 0 λ ∈ R.
Imponendo il passaggio per il punto (1, 2, 1), otterremo l’unica sfera del fascio
passante per tale punto:
1
1 + 4 + 1 − 2 − 3 + λ (4 − 11) = 0 ⇒ λ = .
7
1
Per λ = 7 in Fγ otteniamo la sfera di equazione
F : x2 + (y − 4)2 + (z + 1)2 − 27 + λ (x − y + z) = 0.
1 + 4 + 1 − 27 + λ (1 − 2) = 0 ⇒ λ = −21.
403