Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Volume I
24 settembre 2011
2
3
Prefazione
Con l’attivazione delle lauree triennali, i corsi universitari hanno subı̀to una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso l’Università di Torino, costituisce ora
un testo completo che può essere anche utilizzato nelle Facoltà di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo più tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
Il testo è di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po’ di-
verso per stile ed impostazione dagli usuali testi universitari del settore, al fine di soste-
nere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore
all’Università.
In quasi tutti i capitoli del primo volume è stato inserito un paragrafo dal titolo “Per
saperne di più” non solo per soddisfare la curiosità del Lettore ma con il preciso obiettivo
di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno
occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree
Triennali e Magistrali.
Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro,
saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base
per la maggior parte delle discipline scientifiche, rendendola appassionante.
La figure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico
Mathematica, versione 7. Alcuni esercizi proposti sono particolarmente adatti ad essere
risolti con Mathematica o con Maple.
Per suggerimenti, osservazioni e chiarimenti si invita a contattare gli Autori agli indirizzi
e-mail: elsa.abbena@unito.it, annamaria.fino@unito.it, gianmario.gianella@unito.it.
4
II di copertina: Ringraziamenti
IV di copertina
Gli autori
Elsa Abbena, professore associato di Geometria presso la Facoltà di Scienze Matematiche
Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca su argomenti
di geometria differenziale. Ha tenuto innumerevoli corsi di algebra e di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Anna Fino, professore associato di Geometria presso la Facoltà di Scienze Matematiche
Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca su argomenti
di geometria differenziale e complessa. Ha tenuto per vari anni un corso di geometria e
algebra lineare presso il corso di Laurea in Fisica.
Gian Mario Gianella, professore associato di Geometria presso la Facoltà di Scienze
Matematiche Fisiche e Naturali dell’Università di Torino, svolge la sua attività di ricerca
su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei grafi e
più recentemente della teoria dei numeri. Ha tenuto innumerevoli corsi di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
L’opera
Con l’attivazione delle lauree triennali, i corsi universitari hanno subı̀to una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso l’Università di Torino, costituisce ora
un testo completo che può essere anche utilizzato nelle Facoltà di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo più tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
6
Indice
1 Sistemi Lineari 15
1.1 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . . 29
2 Matrici e Determinanti 33
2.1 Somma di matrici e prodotto di un numero reale per una matrice . . . . 33
2.2 Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 I sistemi lineari in notazione matriciale . . . . . . . . . . . . . . 40
2.3 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 La trasposta di una matrice . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . . . . . . 44
2.6 Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6.1 Calcolo della matrice inversa, primo metodo . . . . . . . . . . . 50
2.7 La traccia di una matrice quadrata . . . . . . . . . . . . . . . . . . . . 55
2.8 Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.8.1 I Teoremi di Laplace.
Un’altra definizione di rango di una matrice . . . . . . . . . . . 64
2.8.2 Calcolo della matrice inversa, secondo metodo . . . . . . . . . . 67
2.8.3 Il Teorema di Cramer . . . . . . . . . . . . . . . . . . . . . . . 69
2.9 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3 Calcolo Vettoriale 75
3.1 Definizione di vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Somma di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3 Il prodotto di un numero reale per un vettore . . . . . . . . . . . . . . . 82
3.4 Dipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . . . . . . 84
7
8 INDICE
7 Diagonalizzazione 303
7.1 Autovalori e autovettori di un endomorfismo . . . . . . . . . . . . . . . 303
7.2 Determinazione degli autovalori e degli autospazi . . . . . . . . . . . . 307
7.3 Endomorfismi diagonalizzabili.
Matrici diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . 314
7.4 Il Teorema Spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
7.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 323
7.6 Per saperne di più . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
7.6.1 Diagonalizzazione simultanea . . . . . . . . . . . . . . . . . . . 328
7.6.2 Il Teorema di Cayley–Hamilton . . . . . . . . . . . . . . . . . . 333
7.6.3 Teorema Spettrale e endomorfismi autoaggiunti.
Caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . 336
7.6.4 Autovalori delle isometrie, similitudini,
trasformazioni unitarie . . . . . . . . . . . . . . . . . . . . . . 340
10 INDICE
Bibliografia 702
Sistemi Lineari
a1 x1 + a2 x2 + . . . + an xn = b, (1.1)
Definizione 1.2 Una soluzione dell’equazione lineare (1.1) è una n-upla di numeri reali:
15
16 Sistemi Lineari
È chiaro che ogni sistema lineare è omogeneo se e solo se ammette la soluzione nulla
(0, 0, . . . , 0), formata da tutti zeri.
Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si darà ampio spazio
al metodo di riduzione di Gauss in quanto più veloce (anche dal punto di vista computa-
zionale). L’idea di base del metodo di Gauss è quella di trasformare il sistema lineare di
partenza in un altro sistema lineare ad esso equivalente ma molto più semplice, tenendo
conto della seguente definizione.
Definizione 1.6 Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.
18 Sistemi Lineari
Esempio 1.3 Risolvere il seguente sistema lineare di due equazioni in due incognite
usando il metodo di riduzione: ⇢
x+y =4
2x 3y = 7.
ossia: ⇢
x+y =4
5y = 1
che ammette come unica soluzione (19/5, 1/5).
Il metodo usato per risolvere l’esempio precedente è conseguenza del seguente teorema.
Teorema 1.1 Eseguendo un numero finito di volte le tre operazioni sotto elencate:
1. scambiare tra loro due equazioni,
2. moltiplicare un’equazione per un numero reale diverso da zero,
3. sostituire ad un’equazione la somma di se stessa con un’altra equazione moltipli-
cata per un qualsiasi numero reale
si ottiene un sistema lineare equivalente a quello di partenza.
Dimostrazione È ovvio che scambiando tra loro due equazioni si ottiene un sistema
lineare equivalente a (1.2).
Per la seconda operazione, si dimostra che il sistema lineare (1.2) è equivalente al siste-
ma lineare che si ottiene sostituendo alla prima equazione se stessa moltiplicata per un
numero reale 6= 0. Si osservi che se tale sostituzione avviene per la i-esima equazione
è sufficiente operare con la prima operazione per ricondursi al caso in esame. In altri
termini si prova che (1.2) è equivalente al sistema lineare:
8
>
> (a11 x1 + a12 x2 + . . . . . . + a1n xn ) = b1
>
< a21 x1 + a22 x2 + . . . . . . + a2n xn = b2
.. (1.3)
>
> .
>
: a x + a x + ...... + a x = b ,
m1 1 m2 2 mn n m 6= 0.
2. È sufficiente dimostrare la tesi per la prima equazione di (1.2). Per ipotesi si ha:
Infatti non è consentito sostituire alla seconda equazione il prodotto di se stessa per il
numero 0, anche se si mantiene inalterata la prima equazione.
Si osservi che le operazioni descritte nel Teorema 1.1 agiscono linearmente solo sui coef-
ficienti del sistema lineare e non sulle incognite. Ciò suggerisce di sostituire ad un sistema
lineare una “tabella” dei coefficienti e dei temini noti ed operare solo su questa. Viene
illustrato ora questo procedimento mediante l’Esempio 1.3.
Al sistema lineare:
⇢
x+y =4
2x 3y = 7
si associa la tabella:
✓ ◆
1 1 4
(1.4)
2 3 7
20 Sistemi Lineari
R1 = 1 1 | 4 , R2 = 2 3 | 7
e le tre colonne:
✓ ◆ ✓ ◆ ✓ ◆
1 1 4
C1 = , C2 = , C3 = .
2 3 7
La tabella (1.4) prende il nome di matrice completa del sistema lineare, o matrice dei
coefficienti e termini noti. Il tratto verticale prima dell’ultima sua colonna intende solo
distinguere i coefficienti del sistema lineare dai termini noti. Il termine matrice indica, in
generale, una tabella di numeri, a prescindere dall’uso relativo ai sistemi lineari. La trat-
tazione generale delle matrici è rimandata al capitolo successivo, introducendo ora solo
alcune nozioni elementari. È evidente che il numero delle righe della matrice completa
associata ad un sistema lineare coincide con il numero delle equazioni del sistema lineare,
il numero delle colonne è pari al numero delle incognite aumentato di una unità, che corri-
sponde alla colonna formata dai termini noti. Le operazioni di riduzione che permettono
di trasformare un sistema lineare in un sistema lineare ridotto ad esso equivalente (cfr.
Teor. 1.1) si traducono sulle righe della matrice in modo ovvio e si possono riassumere,
rispettivamente con le seguenti notazioni:
1. Ri ! Rj ,
2. Ri ! Ri , 2 R, 6= 0,
3. Ri ! Ri + Rj , 2 R, i 6= j,
In generale, al sistema lineare (1.2) si associano due matrici, una matrice A di m righe e
n colonne: 0 1
a11 a12 . . . a1n
B a21 a22 . . . a2n C
B C
A = B .. .. .. C (1.5)
@ . . . A
am1 am2 · · · amn
Esempio 1.5 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
8
< x + y + 2z = 9
2x + 4y 3z = 1
:
3x + 6y 5z = 0
la matrice completa (formata da tre righe e quattro colonne) è:
0 1
1 1 2 9
@ 2 4 3 1 A.
3 6 5 0
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:
0 1 0 1
! 1 1 2 9 1 1 2 9
!
R2 ! R2 2R1 @ 0 2 7 17 A @ 0 2 7 17 A,
R3 ! 2R3 3R2
R3 ! R3 3R1 0 3 11 27 0 0 1 3
da cui si perviene al sistema lineare:
8
< x + y + 2z = 9
2y 7z = 17
:
z = 3,
che ammette una sola soluzione: 8
< x=1
y=2
:
z = 3.
22 Sistemi Lineari
Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
8
< x1 + x2 x3 = 1
2x1 + 2x2 + x3 = 0
:
x1 + x2 + 2x3 = 1
che ammette infinite soluzioni che dipendono da un’incognita libera x2 , per maggiore
chiarezza si pone x2 uguale ad un parametro t che quindi può assumere ogni valore reale:
8
> x1 = 1 t
>
>
>
> 3
>
>
<
x2 = t
>
>
>
>
>
> 2
>
: x3 = , t 2 R.
3
Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
8
< x1 + x2 = 1
2x1 + x2 + 3x3 = 2
:
x1 + 2x2 + 3x3 = 1
Invece, la matrice completa di un sistema lineare può essere ridotta per righe senza che
necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:
0 1
1 2 3 4
(A | B) = @ 7 6 5 0 A
9 8 0 0
è una matrice ridotta per righe, ma il sistema lineare associato non è ridotto perché la
matrice dei coefficienti non è ridotta per righe.
Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante
le operazioni consentite, ad una matrice dei coefficienti ridotta per righe. Dai teoremi che
seguono e anche dall’Osservazione 1.1, sarà chiaro che tra tutte le matrici complete ridotte
per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefficienti è
ridotta per righe. Si possono allora presentare queste possibilità:
a. quella illustrata nell’Esempio 1.5, ovvero il numero delle righe non nulle della ma-
trice completa ridotta per righe è uguale al numero delle righe non nulle della ma-
trice dei coefficienti ridotta per righe ed è uguale al numero delle incognite, quindi
l’ultima riga non nulla della matrice dei coefficienti contiene soltanto un numero
non nullo, allora il sistema lineare ridotto associato è compatibile e ha una sola
soluzione.
b. Quella illustrata nell’Esempio 1.6, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe è uguale al numero delle righe non nulle della
matrice dei coefficienti ed è minore del numero delle incognite; l’ultima riga non
nulla della matrice dei coefficienti contiene almeno un numero non nullo; allora il
sistema lineare ridotto è compatibile e ammette infinite soluzioni che dipendono da
almeno un’incognita libera.
c. Quella illustrata nell’Esempio 1.7, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe è maggiore (di una unità) del numero delle righe
non nulle della matrice dei coefficienti ridotta per righe e pertanto il sistema lineare
ridotto associato è incompatibile.
Definizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non
nulle.
Capitolo 1 25
Definizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta
per righe da essa ottenuta.
Osservazione 1.2 In base alla precedente definizione il rango della matrice formata da
tutti zeri è 0.
In letteratura, le notazioni più comuni per indicare il rango di una matrice sono rank(A) =
rg(A) = r(A) = rk(A) = ⇢(A). Si userà la notazione rank(A).
Osservazione 1.3 È evidente che affinchè la Definizione 1.10 abbia senso è necessario
dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici
ridotte ottenute hanno lo stesso rango. In realtà, la Definizione 1.10 esprime il metodo di
calcolo del rango di una matrice. Per dimostrare l’affermazione appena citata è necessario
enunciare un’altra definizione di rango di una matrice e ciò sarà fatto nel Paragrafo 4.3
dopo aver introdotto nozioni adesso premature.
I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel
modo seguente:
Osservazione 1.4 Un sistema lineare omogeneo è sempre compatibile, perciò è solo in-
teressante capire se ammetta una sola soluzione (quella nulla) o infinite soluzioni e ciò
dipende interamente dal rango della matrice dei coefficienti. Per la risoluzione di un si-
stema lineare omogeneo è sufficiente ridurre per righe la matrice dei coefficienti (questo
caso sarà esaminato in dettaglio nel Paragrafo 1.2.1).
Osservazione 1.5 Mentre segue dalla Definizione 1.10 che, per una matrice A con m
righe e n colonne, rank(A) m, si dimostrerà formalmente che il rango della matrice
dei coefficienti di un sistema lineare è un numero inferiore o uguale al minore tra il numero
delle equazioni e il numero delle incognite, cioè rank(A) m e rank(A) n.
Osservazione 1.6 Al più il rango della matrice completa differisce di una unità dal rango
della matrice dei coefficienti, cioè rank(A | B) rank(A) + 1.
Esempio 1.9 – Metodo di riduzione di Gauss–Jordan – Per determinare le soluzioni
di un sistema lineare si può procedere in modo leggermente diverso da quando si è visto
finora. Quando si perviene alla matrice completa ridotta per righe, anziché scrivere il si-
stema lineare ridotto associato si può, in modo equivalente, procedere allo stesso calcolo
mediante un’ulteriore riduzione della matrice completa allo scopo di pervenire alla lettura
nell’ultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo
metodo, detto anche metodo di riduzione di Gauss–Jordan, per differenziarlo dal metodo
di riduzione di Gauss introdotto in precedenza, è molto efficace quando si ha una sola so-
luzione, ma può presentare alcune difficoltà di calcolo negli altri casi. Viene ora illustrato
con un esempio e precisamente partendo dall’ultimo passaggio di riduzione nell’Esempio
1.5. La matrice dei coefficienti ha, in questo caso, lo stesso numero di righe e di colon-
ne. Pertanto ha senso considerare la sua diagonale principale, cioè l’insieme formato da
tutti gli elementi aii , i = 1, 2, 3 (tale nozione sarà ripresa e riformulata con maggiore
proprietà di linguaggio nell’Esempio 2.6). Quando la matrice dei coefficienti è ridotta
per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo
dall’ultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la
diagonale principale.
0 1 0 1
1 1 2 9 1 1 2 9
B C ! B C
B C B 7 17 C
B 0 2 7 C
17 C R2 ! (1/2)R2 B 0 1 B C
B 2 2 C
@ A R3 ! R3 @ A
0 0 1 3 0 0 1 3
0 1 0 1
1 1 0 3 1 0 0 1
! B C B C
B C ! B C
R2 ! R2 + (7/2)R3 B 0 1 0 2 C B 0 1 0 2 C.
@ A R1 ! R1 R2 @ A
R1 ! R1 2R3
0 0 1 3 0 0 1 3
Capitolo 1 27
Si osservi che sull’ultima colonna, si legge, in ordine, proprio la soluzione del sistema li-
neare dato. Si presti molta attenzione all’ordine con cui compaiono i valori delle incognite
nell’ultima colonna, che dipende dal metodo di riduzione seguito.
Soluzione Si procede con la riduzione per righe della matrice completa (A | B), ripor-
tando solo i passaggi essenziali.
0 1
1 2 3 4 !
(A | B) = @ 3 1 5 2 A R2 ! R2 3R1
4 1 14 + a2 2+a R3 ! R3 4R1
0 1 0 1
1 2 3 4 1 2 3 4
@ 0 A ! @
7 14 10 0 7 14 10 A.
R3 ! R3 R2
0 7 2 + a2 14 + a 0 0 16 + a2 4+a
La matrice dei coefficienti A è ridotta per righe, quindi si presentano i seguenti casi:
Per determinare le soluzioni del sistema lineare si devono considerare tre casi:
0 1 0 1
1 2 3 4 19 + 4a
1 2 0
B C B 4+a C
B C B C
B 10 C ! B C
B 0 1 2 C R2 ! R2 + 2R3 B 54 + 10a C
B 7 C B 0 1 0 C
B C R1 ! R1 + 3R3 B 7(4 + a) C
@ A B C
1 @ 1 A
0 0 1 0 0 1
4+a 4+a
0 1
25 + 8a
1 0 0
B 7(4 + a) C
B C
B C
! B 54 + 10a C
B 0 1 0 C.
R1 ! R1 2R2 B 7(4 + a) C
B C
@ 1 A
0 0 1
4+a
0 1 0 1
1 2 3 4 1 2 3 4
B C ! B C
B C B 10 C
B 0 7 14 10 C 1 B 0 1 2 C,
@ A R2 ! R2 B
@ 7 C
A
7
0 0 0 0 0 0 0 0
Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel
modo seguente:
✓ ◆ ✓ ◆
8 10 8 10
(x, y, z) = t, + 2t, t = , , 0 + t( 1, 2, 1), t 2 R,
7 7 7 7
la cui matrice dei coefficienti A coincide con (1.5) e quella completa (A |B) è:
0 1
a11 a12 . . . a1n 0
B a21 a22 . . . a2n 0 C
B C
(A | B) = B .. .. .. .. C;
@ . . . . A
am1 am2 · · · amn 0
quindi il rango della matrice dei coefficienti A coincide con il rango della matrice com-
pleta (A | B). Infatti, come si è già osservato, un sistema lineare omogeneo ammette
sempre almeno la soluzione nulla. È molto interessante distinguere il caso in cui si ha una
sola soluzione da quello con infinite soluzioni:
30 Sistemi Lineari
1. se il rango di A coincide con il numero delle incognite, allora esiste solo la solu-
zione (0, 0, . . . , 0);
2. se il rango di A è un numero k strettamente minore del numero delle incognite n,
allora esistono infinite soluzioni che dipendono da n k incognite libere.
Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque inco-
gnite: 8
>
> x3 + x4 + x5 = 0
<
x1 x2 + 2x3 3x4 + x5 = 0
>
> x1 + x2 2x3 x5 = 0
:
2x1 + 2x2 x3 + x5 = 0
ha come matrice dei coefficienti:
0 1
0 0 1 1 1
B 1 1 2 3 1 C
A=B
@ 1
C.
1 2 0 1 A
2 2 1 0 1
Procedendo alla sua riduzione per righe (si osservi che è inutile ridurre per righe la matrice
completa) si ha:
0 1 0 1
1 1 2 0 1 1 1 2 0 1
! B 0 !
0 1 1 1 C
C R3 ! R3 + R1 B 0 0
B 1 1 1 C
R3 $ R1 B @ 1
C
1 2 3 1 A @ 0 0 0 3 0 A
R2 $ R3 R4 ! R4 2R1
2 2 1 0 1 0 0 3 0 3
0 1
1 1 2 0 1
! B 0 0 1 1 1 C
R3 ! (1/3)R3 B @ 0 0
C
0 1 0 A
R4 ! (1/3)R4
0 0 1 0 1
0 1
1 1 2 0 1
! B 0 0 1 1 1 C
B C.
R4 ! R4 R2 @ 0 0 0 1 0 A
0 0 0 1 0
Osservazione 1.8 L’insieme delle soluzioni del sistema lineare precedente si può scrivere
come:
n
(x1 , x2 , x3 , x4 , x5 ) = ( t1 t2 , t2 , t1 , 0, t1 )
o
= t1 ( 1, 0, 1, 0, 1) + t2 ( 1, 1, 0, 0, 0) | t1 , t2 2 R .
Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene
aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del
sistema lineare omogeneo associato (1.6).
Dimostrazione Sia (x⇤1 , x⇤2 , . . . , x⇤n ) una soluzione particolare di (1.2) e (x1 , x2 , . . . , xn )
una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verifica
immediatamente che (x1 + x⇤1 , x2 + x⇤2 , . . . , xn + x⇤n ) è ancora una soluzione di (1.2).
Viceversa, se (x01 , x02 , . . . , x0n ) e (x001 , x002 , . . . , x00n ) sono due soluzioni qualsiasi di (1.2),
delle quali (x01 , x02 , . . . , x0n ) è quella generale e (x001 , x002 , . . . , x00n ) è una soluzione partico-
lare, allora è facile verificare che (x01 x001 , x02 x002 , . . . , x0n x00n ) è soluzione del sistema
lineare omogeneo associato (1.6).
Si osservi che (7, 0, 1, 3, 0) è una soluzione particolare del sistema lineare dato, mentre:
t1 ( 1, 0, 1, 0, 1) + t2 ( 1, 1, 0, 0, 0),
che ha la stessa matrice dei coefficienti di (1.8) ma diversa matrice completa, ha come
insieme di soluzioni:
n
(x1 , x2 , x3 , x4 , x5 ) = (7 t1 t2 , t2 , 3 t1 , 1, t1 )
o
= (7, 0, 3, 1, 0) + t1 ( 1, 0, 1, 0, 1) + t2 ( 1, 1, 0, 0, 0) | t1 , t2 2 R .
Capitolo 2
Matrici e Determinanti
con aij 2 R, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Per convenzione le matrici vengono indicate con le lettere maiuscole dell’alfabeto e l’in-
sieme della matrici di m righe ed n colonne sarà indicato con Rm,n o, talvolta, con
MR (m, n). In forma sintetica la matrice (2.1) si può anche scrivere come:
A = (aij ), 1 i m, 1 j n,
33
34 Matrici e Determinanti
Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una
colonna, cioè come elementi di R1,1 . Quindi R è effettivamente uguale a R1,1 .
Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono
quadrate e tale numero si dice ordine della matrice. Per esempio:
✓ ◆
1 2
A=
3 4
Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga. Per esempio:
A= 1 2 3 4 2 R1,4
Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna. Per
esempio: 0 1
1
B 2 C
A=B C
@ 3 A2R
4,1
4
è una matrice colonna.
Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del
prodotto cartesiano:
Rn = {(x1 , x2 , . . . , xn ) | xi 2 R, i = 1, 2, . . . , n}
possono essere visti come matrici riga o colonna. Quindi Rn può essere identificato sia
con R1,n sia con Rn,1 .
Esempio 2.5 La matrice (aij ) 2 Rm,n , con tutti gli elementi aij = 0, si dice matrice
nulla e si indica con O, da non confondersi con il numero 0 2 R. È evidente che la
matrice nulla è l’unica matrice ad avere rango zero (cfr. Oss. 1.2).
Esempio 2.6 Nel caso di una matrice quadrata A = (aij ) di ordine n, tutti gli elementi
del tipo aii , al variare di i da 1 a n, costituiscono la diagonale principale. Rivestiranno
in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi
Capitolo 2 35
elementi tutti nulli al di fuori della diagonale principale cioè aij = 0 se i 6= j . L’insieme
delle matrici diagonali di ordine n sarà indicato con:
80 1 9
>
> a 11 0 . . . 0 >
>
>
<B 0 a22 . . . 0 C >
=
B C
n,n
D(R ) = B .. .. . . .. C | a ii 2 R, i = 1, 2, . . . , n . (2.2)
>
> @ . . . . A >
>
>
: >
;
0 0 . . . ann
Esempio 2.7 Casi particolari dell’esempio precedente sono la matrice unità I 2 Rn,n ,
ossia la matrice diagonale avente tutti 1 sulla diagonale principale:
0 1
1 0 ... 0
B 0 1 ... 0 C
B C
I = B .. .. . . .. C
@ . . . . A
0 0 ... 1
e la matrice quadrata nulla O 2 Rn,n , intendendosi come tale la matrice quadrata avente
tutti gli elementi uguali a 0.
aij = bij , i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Definizione 2.3 Si definisce somma delle due matrici A = (aij ), B = (bij ), entrambe
appartenenti a Rm,n , la matrice A + B 2 Rm,n data da:
A + B = (aij + bij ).
Se A e B non appartengono allo stesso insieme Rm,n , non è possibile definire la loro
somma. Ad esempio non è definita la somma della matrice A con la matrice:
✓ ◆
0 3 2
C= .
1 5 6
Teorema 2.1 Per l’operazione di somma di matrici definita sull’insieme Rm,n valgono
le proprietà di seguito elencate:
Osservazione 2.2 Un insieme con un’operazione che verifichi le proprietà del teorema
precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le pro-
prietà 2., 3., 4. Pertanto (Rm,n , +) con l’operazione di somma di matrici ha la struttura di
gruppo commutativo.
Definizione 2.4 Si definisce prodotto di un numero reale per una matrice A = (aij ) di
Rm,n la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale ,
ossia:
A = ( aij ),
A volte si usa il termine scalare per indicare il numero reale e il prodotto di un numero
reale per una matrice è anche detto quindi prodotto di uno scalare per una matrice.
Capitolo 2 37
il prodotto 3A è la matrice:
✓ ◆
3 6
3A = .
9 12
Teorema 2.2 Per il prodotto di un numero reale per una matrice valgono le seguenti
proprietà che mettono in relazione la somma di matrici con la somma e il prodotto di
numeri reali:
1. (A + B) = A + B, 2 R, A, B 2 Rm,n ;
4. 1A = A, A 2 Rm,n .
Osservazione 2.3 L’insieme delle matrici Rm,n , considerato congiuntamente con le ope-
razioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro
proprietà prima enunciate, dà luogo ad una struttura algebrica che è un esempio di spazio
vettoriale.
Gli spazi vettoriali, che costituiscono la base dell’algebra lineare, saranno studiati in mo-
do intensivo a partire dal Capitolo 4. Si è preferito, per ragioni didattiche, anteporre la
descrizione degli esempi più facili di spazi vettoriali alla loro stessa definizione. Que-
sto è il caso di Rm,n e nel prossimo capitolo la stessa idea sarà applicata all’insieme dei
vettori ordinari dello spazio in modo da permettere al Lettore di prendere confidenza con
nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola seconda-
ria superiore e di dare la possibilità di affrontare più agevolmente lo studio dei capitoli
successivi.
38 Matrici e Determinanti
A prescindere da argomenti più sofisticati, si introduce questa nuova operazione tra ma-
trici che, anche se a prima vista appare singolare, è comunque dotata di interessanti
proprietà, che rendono plausibile la seguente definizione.
Definizione 2.5 Il prodotto della matrice A = (aij ) di Rm,n con la matrice B = (bij ) di
Rn,p è la matrice C = AB = (cij ) di Rm,p i cui elementi sono dati da:
n
X
cij = ai1 b1j + ai2 b2j + . . . + ain bnj = aik bkj . (2.3)
k=1
Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve
avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice
prodotto avrà il numero di righe del primo fattore e il numero di colonne del secondo
fattore. Da questa definizione segue che il prodotto di due matrici non è commutativo. A
titolo di esempio, si calcoli il prodotto delle matrici:
0 1
✓ ◆ 1 1 2 3
1 2 3 @
A= , B= 0 1 2 4 A,
4 5 6
3 5 7 9
c11 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della prima colonna di B : c11 = 1 · 1 + 2 · 0 + 3 · 3 = 10.
c12 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della seconda colonna di B : c12 = 1 · ( 1) + 2 · 1 + 3 · 5 = 16 e cosı̀ via.
La matrice C è dunque: ✓ ◆
10 16 27 38
C= .
22 31 60 86
Per la sua particolare definizione, questo tipo di prodotto di matrici prende il nome di
prodotto righe per colonne.
Capitolo 2 39
Osservazione 2.4 È chiaro che il prodotto di due matrici quadrate dello stesso ordine è
ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in
generale la proprietà commutativa, per esempio date:
✓ ◆ ✓ ◆
1 2 0 1
A= , B=
3 4 2 3
si ha: ✓ ◆
4 7
AB =
8 15
mentre: ✓ ◆
3 4
BA = .
11 16
Nel caso delle matrici quadrate di ordine 1 il prodotto è ovviamente commutativo perché
coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto
è commutativo, come si osserverà nel Paragrafo 2.5.
in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora ne-
cessariamente o a = 0 o b = 0. Ovviamente se O 2 Rm,n è la matrice nulla e
A 2 Rn,p , B 2 Rk,m allora:
OA = O 2 Rm,p e BO = O 2 Rk,n .
4
allora:
AB = (30) 2 R1,1 ,
mentre: 0 1
1 2 3 4
B 2 4 6 8 C
BA = B
@ 3
C 2 R4,4 .
6 9 12 A
4 8 12 16
40 Matrici e Determinanti
È valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici
moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda
al Paragrafo 4.5.
Teorema 2.4 Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2 · · · An ) min{rank(A1 ), rank(A2 ), . . . , rank(An )}, (2.4)
quindi, in particolare, il rango del prodotto di matrici è minore o uguale del rango di
ciascun fattore.
Osservazione 2.6 È chiaro, anche se può sorprendere, che è necessario porre il segno di
disuguaglianza in (2.4), come si può per esempio notare dal fatto che:
✓ ◆✓ ◆ ✓ ◆
0 1 0 1 0 0
= ,
0 0 0 0 0 0
infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0.
la matrice colonna dei termini noti, allora il sistema lineare (1.2) si può scrivere, in
notazione matriciale, come:
AX = B.
Definizione 2.6 Sia A 2 Rn,n una matrice quadrata di ordine n. A si dice invertibile se
esiste una matrice X 2 Rn,n tale che:
AX = XA = I, (2.5)
Dimostrazione Si supponga per assurdo che esistano due matrici diverse X, X 0 2 Rn,n
che verificano la (2.5). Allora:
X 0 = IX 0 = (XA)X 0 = X(AX 0 ) = XI = X
42 Matrici e Determinanti
che è assurdo. Si osservi che, nella dimostrazione, si è usata la proprietà associativa del
prodotto di matrici.
Per la matrice inversa valgono le seguenti proprietà la cui dimostrazione è lasciata per
esercizio.
Osservazione 2.7 Segue dal punto 1. e dalle proprietà del prodotto di matrici che l’in-
sieme:
GL(n, R) = {A 2 Rn,n | A è invertibile}
è un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), noto come gruppo lineare
generale reale.
Si osservi che per risolvere l’esercizio si deve discutere e risolvere il sistema lineare
AX = I : ✓ ◆✓ ◆ ✓ ◆
a11 a12 x11 x12 1 0
=
a21 a22 x21 x22 0 1
di quattro equazioni nelle quattro incognite x11 , x12 , x21 , x22 , che sono gli elementi della
matrice X.
allora:
0 1
1 4
t
A = @ 2 5 A.
3 6
Se:
A= 1 2 3 4
allora:
1 0
1
B 2 C
t
A=B C
@ 3 A.
4
Osservazione 2.8 1. Si osservi che se una matrice è quadrata, allora anche la sua
trasposta è una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla
matrice di partenza, per esempio:
✓ ◆ ✓ ◆
1 2 t 1 1
A= , A= .
1 0 2 0
2. Se una matrice è diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la
matrice stessa.
Per la trasposta di una matrice valgono le seguenti proprietà la cui dimostrazione è lasciata
per esercizio e si può leggere nel Paragrafo 2.9.
Teorema 2.7 1. t
(A + B) = tA + tB, A, B 2 Rm,n .
2. t ( A) = t
A, A 2 Rm,n , 2 R.
si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della
diagonale principale, vale a dire se A = (aij ) con i, j = 1, 2, . . . , n, allora aij = 0
se i > j . È facile osservare che la somma di due matrici triangolari superiori è
ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero
reale per una matrice triangolare superiore. Molto più sorprendente è il fatto che il
prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, è ancora
una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice
C = (cij ) 2 Rn,n prodotto delle matrici triangolari superiori A = (aij ) 2 T (Rn,n )
e B = (bij ) 2 T (Rn,n ). Per semplicità si calcola ora solo l’elemento c21 della
matrice prodotto C = AB , lasciando il calcolo in generale per esercizio. Da (2.3)
si ha:
c21 = a21 b11 + a22 b21 + . . . a2n bn1 = 0b11 + a22 0 + . . . + a2n 0 = 0,
aij = aji , i, j = 1, 2, . . . , n,
A(Rn,n ) = {A 2 Rn,n | A = t
A}; (2.8)
aij = aji , i, j = 1, 2, . . . , n,
con I matrice unità di ordine n. Usando il fatto che, in modo equivalente alla de-
finizione, A è ortogonale se A tA = I , si verifichi per esercizio che ogni matrice
ortogonale A è invertibile con inversa A 1 = tA. Si verifichi inoltre che la traspo-
sta e l’inversa di una matrice ortogonale sono matrici ortogonali e che il prodotto
di due matrici ortogonali è ortogonale. Si stabilisca se la somma di due matrici
ortogonali è una matrice ortogonale e se il prodotto di una matrice ortogonale per
un numero reale è una matrice ortogonale. Le matrici ortogonali saranno di impor-
tanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le
loro proprietà saranno dimostrate nel Teorema 5.7.
AX = B (2.10)
YC =D (2.11)
con incognita Y, infatti operando con la trasposta su ambo i membri di (2.11) si ha:
t
C t Y = tD,
cioè ci si riconduce ad un’equazione matriciale del tipo (2.10), avendo cura di notare che
l’incognita della nuova equazione sarà t Y.
Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np
incognite. Infatti posto:
0 1 0 1
a11 a12 . . . a1n x11 x12 . . . x1p
B a21 a22 . . . a2n C B x21 x22 . . . x2p C
B C B C
A=B .. .. .. C 2 Rm,n , X=B .. .. .. C 2 Rn,p ,
@ . . . A @ . . . A
am1 am2 . . . amn xn1 xn2 . . . xnp
0 1
b11 b12 . . . b1p
B b21 b22 . . . b2p C
B C
B=B .. .. .. C 2 Rm,p ,
@ . . . A
bm1 bm2 . . . bmp
si procede con la riduzione per righe della matrice completa (A | B), per esempio nel
modo seguente:
0 1 0 1
2 3 1 1 2 2 2 3 1 1 2 2
@ !
(A | B) = 1 0 1 0 1 1 A @ 0 3 1 1 0 4 A,
R2 ! 2R2 R1
0 3 1 1 0 4 0 3 1 1 0 4
da cui si deduce che rank(A) = rank(A | B) = 2, si ottengono cosı̀ infinite soluzioni che
dipendono da un elemento qualsiasi (a, b, c) di R3 . Ponendo:
0 1
X1
X = @ X2 A 2 R3,3
X3
0 1
Y1
t
X = Y = @ Y2 A 2 R3,2
Y3
segue che l’equazione tAY = tB è equivalente al sistema lineare:
8
< Y1 + Y2 + Y3 = (1, 0)
Y2 = ( 1, 1)
:
Y1 = (0, 1),
e, quindi: ✓ ◆
0 1 2
X= .
1 1 0
Il viceversa non può essere dimostrato a questo punto del corso, si rimanda al Paragrafo
4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X 2 Rn,n
tale che AX = I (per il Teorema di Rouché–Capelli, cfr. Teor. 1.2), ma per dimostrare
che anche XA = I e dedurre quindi che X = A 1 si deve risolvere l’equazione ma-
triciale tA tX = I . Pertanto è necessario dimostrare che anche tA ha lo stesso rango di
A, e ciò sarà oggetto del Teorema 4.19. D’altro canto, se esistono due matrici X e Y,
entrambe appartenti a Rn,n , tali che AX = I e Y A = I allora segue X = Y infatti:
Y = Y I = Y (AX) = (Y A)X = IX = X.
Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante
la risoluzione dell’equazione matriciale AX = I. Un secondo metodo sarà spiegato nel
Paragrafo 2.8.2.
0 1
0 0 2 0
B 1 0 0 1 C
A=B
@ 0
C.
1 3 0 A
2 1 5 3
Soluzione Si procede alla riduzione per righe della matrice (A | I), il calcolo del rango
di A è contenuto in questo procedimento:
0 1 0 1
0 0 2 0 1 0 0 0 1 0 0 1 0 1 0 0
B C B C
B C B C
B 1 0 0 1 0 1 0 0 C ! B 0 1 3 0 0 0 1 0 C
B C B C
B C R1 $ R3 B C
B C B C
B 0 0 C B 0 0 C
B 1 3 0 0 0 1 C R2 $ R1 B 0 2 0 1 0 0 C
@ A @ A
2 1 5 3 0 0 0 1 2 1 5 3 0 0 0 1
52 Matrici e Determinanti
0 1
1 0 0 1 0 1 0 0
B C
! B C
B 0 1 3 0 0 0 1 0 C
R2 ! R2 B C
B C
R3 ! (1/2)R3 B 1 C
B 0 0 1 0 0 0 0 C
R4 ! R4 2R1 B 2 C
@ A
0 1 5 5 0 2 0 1
0 1
1 0 0 1 0 1 0 0
B C
B C
B 0 1 3 0 0 0 1 0 C
! B C
B C
R4 ! R4 R2 B 1 C
B 0 0 1 0 0 0 0 C
B 2 C
@ A
0 0 8 5 0 2 1 1
0 1
1 0 0 1 0 1 0 0
B C
B C
B 0 1 3 0 0 0 1 0 C
! B C
B C.
R4 ! R4 8R3 B 1 C
B 0 0 1 0 0 0 0 C
B 2 C
@ A
0 0 0 5 4 2 1 1
0 1
4 3 1 1
B 1 0 0 0
5 5 5 5 C
B C
B 3 C
! B 0 1 0 0 0 1 0 C
B 2 C
R1 ! R1 R4 B C.
B 1 C
R2 ! R2 + 3R3 B 0 0 1 0 0 0 0 C
B 2 C
B C
@ 4 2 1 1 A
0 0 0 1
5 5 5 5
quando possibile.
Soluzione Si procede, come nell’esercizio precedente, alla riduzione per righe della
matrice completa (A | I).
0 1
1 3 1 2 1 0 0 0
B h !
B 0 0 0 0 1 0 0 C
C R2 ! R2 hR1
@ 1 1 0 0 0 0 1 0 A
R3 ! R3 R1
0 0 0 h 0 0 0 1
0 1
1 3 1 2 1 0 0 0
B 0 3h h 2h h 1 0 0 C !
B C
@ 0 2 1 2 1 0 1 0 A R2 $ R3
0 0 0 h 0 0 0 1
0 1
1 3 1 2 1 0 0 0
B 0 2 1 2 1 0 1 0 C !
B C
@ 0 3h h 2h h 1 0 0 A R3 ! 2R3 3hR2
0 0 0 h 0 0 0 1
54 Matrici e Determinanti
0 1
1 3 1 2 1 0 0 0
B 0 2 1 2 1 0 1 0 C
B C,
@ 0 0 h 2h h 2 3h 0 A
0 0 0 h 0 0 0 1
a questo punto si deduce che rank(A) = 4 se e solo se h 6= 0, quindi solo in questo caso
esiste A 1 . Si assume perciò h 6= 0 e si procede con la riduzione per ottenere la matrice
inversa:
0 1
1 3 1 2 1 0 0 0
B C
! B C
B 1 1 1 C
B
R2 ! (1/2)R2 B 0 1 2 1 0 0 C
2 2 C
B C
B C
R3 ! (1/h)R3 B 2 C
B 0 0 1 2 1 3 0 C
B h C
R4 ! (1/h)R4 B @
C
1 A
0 0 0 1 0 0 0
h
0 1
2
B 1 3 1 0 1 0 0
h C
B C
! B C
B 1 1 1 1 C
R3 ! R3 2R4 BB
0 1 0 0 C
B 2 2 2 h C
C
R2 ! R2 + R4 B
B 2
C
2 C
B 0 0 1 0 1 3 C
R1 ! R1 2R4 BB
h h C
C
@ 1 A
0 0 0 1 0 0 0
h
0 1
2
B 1 3 0 0 0
h
3 0 C
B C
B C
B 1 C
! B 0 1 0 0 0 1 0 C
B h C
R2 ! R2 + (1/2)R3 B C,
B C
R1 ! R1 R3 B 2 2 C
B 0 0 1 0 1 3 C
B h h C
B C
@ 1 A
0 0 0 1 0 0 0
h
Capitolo 2 55
0 1
1
B 1 0 0 0 0
h
0 0 C
B C
B C
B 1 C
B 0 1 0 0 0 1 0 C
! B h C
B C,
R1 ! R1 + 3R2 B C
B 2 2 C
B 0 0 1 0 1 3 C
B h h C
B C
@ 1 A
0 0 0 1 0 0 0
h
A 1
si legge a destra nell’ultimo passaggio di riduzione.
Il teorema che segue è un corollario del Teorema 2.4, lo stesso risultato si otterrà, con
metodi diversi, nel Capitolo 7.
Le proprietà della traccia di una matrice quadrata sono elencate nel seguente teorema.
Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti proprietà:
2. tr( A) = tr(A),
per ogni A 2 Rn,n e per ogni matrice invertibile P di Rn,n , proprietà che sarà molto
importante nel Capitolo 7.
Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla è uguale a zero,
cosı̀ come è uguale a zero la traccia di una matrice antisimmetrica.
2.8 Il determinante
Scopo di questo paragrafo è quello di associare ad ogni matrice quadrata un particolare
numero reale detto determinante della matrice in modo da dimostrare il seguente teorema.
Teorema 2.11 Una matrice quadrata A è invertibile se e solo se il suo determinante non
è uguale a zero.
Il determinante di una matrice quadrata è anche spesso indicato con due tratti verticali che
sostituiscono le parentesi tonde della matrice. Nel caso della matrice A di ordine 2 si ha:
a11 a12
= a11 a22 a12 a21 .
a21 a22
Osservando con attenzione lo sviluppo del determinante nel caso della matrice quadrata
di ordine 2, si nota che compaiono due addendi, ciascuno dei quali è il prodotto di due
fattori il cui primo indice corrisponde alla sequenza (1, 2) e il secondo indice corrisponde
alle due permutazioni di (1, 2): (1, 2) e (2, 1). La prima permutazione (pari) impone
il segno positivo all’addendo a11 a22 , la seconda permutazione (dispari) impone il segno
negativo all’addendo a12 a21 .
Si può cosı̀ indovinare la regola per calcolare il determinante di una matrice quadrata
qualsiasi. A questo scopo, si controlli ancora lo sviluppo del determinante nel caso delle
matrici di ordine 3. L’esempio che segue riassume, nel caso particolare dell’ordine 3,
la teoria dei determinanti delle matrici di ordine n che verrà successivamente esposta. Si
consiglia di studiarlo con grande attenzione e farne riferimento per dimostrare le proprietà
generali dei determinanti che verranno man mano elencate.
Esempio 2.14 È noto dal calcolo combinatorio che le permutazioni dei numeri 1, 2, 3
sono 3! = 6, tre di esse sono pari e sono dette permutazioni circolari, ossia: (1, 2, 3),
(3, 1, 2), (2, 3, 1) e tre sono dispari: (1, 3, 2), (3, 2, 1), (2, 1, 3). Più precisamente, se a
partire dalla terna (1, 2, 3) si perviene alla terna (2, 1, 3) si è effettuato uno scambio che
comporta un segno negativo associato alla permutazione (2, 1, 3), effettuati due scambi si
ha segno positivo e cosı̀ via. Per meglio visualizzare le permutazioni e contare il numero
degli scambi intermedi in modo da ottenere il segno della permutazione finale è utile la
classica notazione del calcolo combinatorio:
1 2 3
# # #
(1) = 2 (2) = 1 (3) = 3,
dove indica una permutazione di 1, 2, 3 e non è altro che una funzione biiettiva dall’in-
sieme {1, 2, 3} in sé.
58 Matrici e Determinanti
Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2, “si indo-
vina” lo sviluppo del determinante di una matrice quadrata di ordine 3, ponendo:
Osservazione 2.10 Come già osservato nell’Esempio 2.14, in ogni addendo della som-
ma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna
della matrice A, inoltre ogni addendo di (2.14) è il prodotto di n elementi della matrice
quadrata A appartenenti ad ogni riga e ad ogni colonna di A.
Teorema 2.12 1. Sia A una matrice quadrata di ordine n avente una riga (oppure
una colonna) formata da tutti 0, allora det(A) = 0.
mentre:
a11 a21
det( tA) = = a11 a22 a21 a12 = a11 a22 a12 a21 = det(A);
a12 a22
Se a44 = 0 l’ultima riga è formata da tutti zeri e pertanto det(A) = 0, da cui la tesi.
Se a44 6= 0, l’unico elemento non nullo dell’ultima riga è a44 , quindi la formula
precedente si riduce a:
X
det(A) = ✏( )a1 (1) a2 (2) a3 (3) a44 , (2.15)
Teorema 2.13 Sia A una matrice quadrata di ordine n ridotta per righe, allora:
rank(A) = n () det(A) 6= 0
e, in modo equivalente:
rank(A) < n () det(A) = 0.
1 0 0 0
ridotta per righe e il cui rango è 4.
Soluzione Si procede con l’applicazione delle tre operazioni di riduzione alla matrice
A nel modo seguente:
0 1 0 1
1 2 3 4 ! 1 2 3 4
B 1 2 0 3 C R2 ! R2 R1 B 0 0 3 1 C
B C B C
@ 5 0 0 2 A R3 ! R3 5R1 @ 0 19 15 18 A
1 0 0 0 R4 ! R4 R1 0 2 3 4
! 0 1 0 1
1 2 3 4 1 2 3 4
R2 ! R2 B 0 19 15 18 C B 0 19 15 18 C
B C ! B C
R3 ! R3 @ 0 0 3 1 A R4 ! 19R4 2R2 @ 0 0 3 1 A
R4 ! R4
0 2 3 4 0 0 27 40
R2 $ R3
0 1
1 2 3 4
! B 0 19 15 18 C
B C,
R4 ! 3R4 27R3 @ 0 0 3 1 A
0 0 0 93
Capitolo 2 61
ottenendo cosı̀ una matrice triangolare superiore che ha, ovviamente, ancora rango 4.
Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni proprietà relativa al
calcolo del determinante dimostrata per le righe di una matrice quadrata è anche valida
per le colonne.
Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata
qualsiasi.
Teorema 2.14 1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una
matrice quadrata A per un numero reale , allora il determinante di A viene
moltiplicato per .
2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A,
allora il determinante di A cambia di segno.
3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo.
4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante
nullo.
a11 a12
= a11 a22 a12 a21 ,
a21 a22
invece:
a21 a22
= a21 a12 a22 a11 = a11 a22 + a12 a21 .
a11 a12
3. Segue dalla proprietà precedente, infatti scambiando due righe (colonne) uguali
di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio
det(A) = a, dopo lo scambio det(A) = a (per la proprietà precedente), ma
poiché la matrice non cambia allora a = a, da cui la tesi.
62 Matrici e Determinanti
4. Segue da 1. e da 3.
R1 R1 R1
.. .. ..
. . .
R i + Rj Ri Rj
.. = .. + .. .
. . .
Rj Rj Rj
.. .. ..
. . .
Rn Rn Rn
Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha il teorema che segue.
rank(A) = n () det(A) 6= 0
e, in modo equivalente:
Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma trian-
golare superiore:
0 1
1 1 2 1
B 3 1 1 2 C
A=B @ 2
C.
2 2 1 A
1 0 1 1
1 1 2 1 1 1 2 1
!
3 1 1 2 ! 1 3 1 2
R2 ! R2 + R1
2 2 2 1 C1 $ C2 2 2 2 1
R3 ! R3 + 2R1
1 0 1 1 0 1 1 1
1 1 2 1 1 1 2 1
! 0 4 3 3 !
0 4 3 3
R3 ! R3 R2 0 0 1 0 R3 ! R3
0 4 2 3
R4 ! R4 (1/4)R2 1 7 R4 ! 4R4
0 1 1 1 0 0
4 4
1 1 2 1 1 1 2 1
1 0 4 3 3 ! 1 0 4 3 3
= 7.
4 0 0 1 0 R4 ! R4 R3 4 0 0 1 0
0 0 1 7 0 0 0 7
Il teorema che segue stabilisce importanti proprietà del determinante in relazione al pro-
dotto di una matrice per uno scalare e al prodotto di matrici.
= a11 (a22 a33 a23 a32 ) a12 (a21 a33 a23 a31 )
+a13 (a21 a32 a22 a31 )
Definizione 2.10 Sia A = (aij ) 2 Rn,n ; si definisce minore dell’elemento aij il determi-
nante Mij della matrice di ordine n 1 che si ottiene da A togliendo l’i-esima riga e la
j -esima colonna.
Esempio 2.17 Nell’Esempio 2.16 il cofattore dell’elemento a12 è A12 = M12 = 64.
L’Esempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante
di una matrice quadrata di ordine qualsiasi.
Teorema 2.17 – Primo Teorema di Laplace – Il determinante di una matrice quadrata
A = (aij ) 2 Rn,n è dato da:
n
X n
X
det(A) = aik Aik = ahj Ahj , (2.16)
k=1 h=1
1 2 1 1 1 1 1 1 2
= 1 1 2 3 1 2 3 1 1 ,
2 2 1 2 2 1 2 2 2
si lascia la conclusione al Lettore, osservando però che la determinazione dello stesso
determinante condotta nell’Esercizio 2.5 è stata molto più agevole.
Capitolo 2 67
Dimostrazione È evidente conseguenza della seconda proprietà del Teorema 2.14, in-
fatti (2.17) si può interpretare come lo sviluppo del determinante di un matrice in cui, nel
primo caso, la riga j -esima coincide con la riga i-esima e nel secondo caso, la colonna
j -esima coincide con la colonna i-esima.
che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe.
Considerando, invece, la Definizione 2.13 di rango si vede subito che ogni minore di A
di ordine 3 è uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due
righe proporzionali. Invece:
2 4
=2
0 1
da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.
Teorema 2.19 Sia A una matrice quadrata di ordine n, se det(A) 6= 0 allora esiste
l’inversa di A e:
1
A 1= adj(A).
det(A)
Dimostrazione Sia:
1
B = (bij ) = adj(A),
det(A)
il teorema è dimostrato se AB = (cij ) = I , in altri termini se cij = ij , dove ij è il
simbolo di Kronecker, ossia ii = 1 e ij = 0, i 6= j . Si calcola:
n
X Xn
1 1
cii = aik bki = aik Aik = det(A) = 1;
k=1
det(A) k=1 det(A)
Osservazione 2.13 Il teorema precedente insieme con il Teorema 2.16 e il Teorema 2.13
permettono di concludere che, nel caso di una matrice quadrata A 2 Rn,n :
1
9A () det(A) 6= 0 () rank(A) = n.
Capitolo 2 69
Esempio 2.21 È agevole applicare il metodo di calcolo della matrice inversa appena
introdotto nel caso di una matrice quadrata di ordine 2, infatti se:
✓ ◆
a11 a12
A=
a21 a22
e det(A) 6= 0 allora: ✓ ◆
1 1 a22 a12
A = .
det(A) a21 a11
dove X 2 Rn,1 è la matrice delle incognite e B 2 Rn,1 è la matrice colonna dei termini
noti. Poiché det(A) 6= 0, A è invertibile e quindi è possibile moltiplicare a sinistra ambo
i membri di (2.20) per A 1 , ottenendo cosı̀:
X = A 1 B.
b1 a12 . . . a1n
1 b2 a22 . . . a2n
x1 = .. .. ... .. .
det(A) . . .
bn an2 . . . ann
In generale si ha:
Teorema 2.20 – Teorema di Cramer – In un sistema lineare del tipo (2.19) di n equa-
zioni in n incognite la cui matrice A dei coefficienti ha determinante diverso da zero la
i-esima incognita si ottiene dalla formula (2.21).
La soluzione è:
1 z 3 1 1 z
z 2 2 1 z 1
x= = z , y= = , z 2 R.
5 5 5 5
che è l’espressione del generico elemento della matrice a primo membro. Per il secondo
membro si ha BC = (fij ) 2 Rn,l , con:
p
X
fij = bih chj
h=1
t
(AB) = tB tA, A 2 Rn,p , B 2 Rp,m .
La matrice tA = (eij ) di Rp,n ha elementi del tipo eij = aji . La matrice tB = (fij )
di Rm,p ha elementi del tipo fij = bji . La matrice prodotto tB tA = (gij ) di Rm,n ha
elementi del tipo:
p p p
X X X
gij = fik ekj = bki ajk = ajk bki ,
k=1 k=1 k=1
Soluzione Date le matrici A = (aij ) 2 Rn,n e B = (bij ) 2 Rn,n , gli elementi della
diagonale principale del prodotto AB sono:
n
X
cii = aih bhi ,
h=1
quindi:
n
X n
X
tr(A B) = cll = alh bhl . (2.24)
l=1 h,l=1
Siano dii gli elementi della diagonale principale del prodotto BA, si ha:
n
X
dii = bik aki ,
k=1
la traccia di BA diventa:
n
X n
X
tr(B A) = dmm = bmk akm
m=1 m,k=1
Calcolo Vettoriale
75
76 Calcolo Vettoriale
Nei due paragrafi successivi si introdurranno alcune operazioni tra vettori, iniziando dalla
somma di vettori e dal prodotto di un numero reale per un vettore. È molto importante
osservare che queste operazioni (ovviamente con una definizione diversa da quella che
sarà di seguito presentata) sono già state introdotte nell’insieme delle matrici, nel capitolo
precedente. Sarà sorprendente notare che per le operazioni tra vettori saranno valide le
stesse proprietà dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo
sarà dedicato allo studio assiomatico degli insiemi su cui è possibile definire operazioni
di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui l’insieme delle
matrici Rm,n e gli insiemi dei vettori V3 , V2 , V1 sono esempi.
+ : V3 ⇥ V3 ! V3 , (x, y) 7 ! x + y,
! !
dove il vettore x + y è cosı̀ definito: fissato un punto O di S3 , siano OA e OB due
!
segmenti orientati rappresentanti di x e y, rispettivamente, allora x + y = OC , dove
!
OC è il segmento orientato che si determina con la regola del parallelogramma, illustrata
nella Figura 3.1.
B C
y x+y
O x A
Osservazione 3.1 1. La definizione di somma di vettori è ben data. Vale a dire, facen-
do riferimento alle notazioni della Definizione 3.2, se si cambiano i rappresentanti
di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del
78 Calcolo Vettoriale
!
parallegramma, ha la stessa direzione, lo stesso verso e la stessa norma di OC . La
situazione geometrica è illustrata nella Figura 3.2, la dimostrazione di questa af-
fermazione, che segue in modo elementare dalle proprietà dei parallelogrammi, è
lasciata al Lettore.
4. Per ogni vettore x (non nullo) esiste l’opposto x, che è il vettore parallelo ad x
avente la stessa norma di x ma verso opposto. Quindi:
x + ( x) = o.
Si osservi, inoltre, che anche il vettore nullo o ammette l’opposto, che coincide con
il vettore nullo stesso.
1. x + y = y + x, x, y 2 V3 (proprietà commutativa);
4. 8x 2 V3 , 9 x 2 V3 | x + ( x) = o (esistenza dell’opposto).
Inoltre:
B C
x+y
y
O x A
B' C'
x+y
y
O' x A'
Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti
x y x
y
x+y
x+y
x y = x + ( y).
La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresenta-
ta dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia
per esercizio la rappresentazione grafica della differenza di due vettori paralleli.
5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari
con x, esistono e sono unici due vettori x1 ed x2 in quelle direzioni, tali che:
x = x1 + x2 .
x4
x3
x1 + x2 + x3 + x4
x2
x1
-y x-y
R ⇥ V3 ! V3 , ( , x) 7 ! x,
dove il vettore x (detto anche prodotto dello scalare per x) è definito nel modo
seguente:
1. se = 0 o x = o, allora x = o.
2. Se 6= 0 e x 6= o si pone x = y, dove:
la direzione di y coincide con la direzione di x;
il verso di y è concorde con quello di x se > 0, discorde se < 0;
kyk = | |kxk, dove | | indica il valore assoluto del numero reale .
Teorema 3.2 1. (x + y) = x + y, 2 R, x, y 2 V3 ;
2. ( + µ)x = x + µx, , µ 2 R, x 2 V3 ;
3. (µx) = ( µ)x, , µ 2 R, x 2 V3 ;
4. 1 x = x, x 2 V3 .
rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e
y in V2 e per ogni 2 R si ha che x + y 2 V2 e x 2 V2 (analogamente per V1 ). Inoltre,
in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti
ad un piano vettoriale qualsiasi) si può pensare che V1 ⇢ V2 ⇢ V3 .
Seguono alcune definizioni e proprietà di tipo teorico, che saranno riprese in modo com-
pleto nel capitolo successivo. Si è deciso di inserire in questo contesto ciò che segue,
anche se i risultati che si ottengono saranno conseguenza della teoria più generale degli
spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V3 è pos-
sibile rappresentare graficamente le nozioni man mano introdotte, aiutando cosı̀ la loro
comprensione.
x = x1 v1 + x2 v2 + . . . + xk vk .
L(x) = { x | 2 R}.
L(x, y) = { x + µy | , µ 2 R}.
Osservazione 3.5 Segue in modo evidente dalla definizione che L(x, y) = L(y, x). Non
ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde,
usualmente usate per indicare che è importante l’ordine dei vettori; è una convenzione
usare questa notazione anche se non è corretta.
x1 v1 + x2 v2 + . . . + xk vk = o =) x1 = x2 = . . . = xk = 0. (3.1)
Prima di proporre alcuni esempi conviene enunciare il teorema che segue, molto facile,
ma utile per riconoscere vettori linearmente dipendenti o linearmente indipendenti. Per la
dimostrazione si rimanda al Paragrafo 4.3.
o + 0x = o,
per ogni 2 R, quindi anche per valori non nulli di . In particolare, l’insieme
contenente solo il vettore nullo {o} non è libero.
Capitolo 3 85
3. Gli elementi di L(x) sono tutti linearmente dipendenti tra di loro, ma la stessa
proprietà non vale per L(x, y), si vedrà infatti nel Teorema 3.4 che due vettori non
paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi
banale da considerazioni geometriche elementari.
Il teorema che segue conclude lo studio del parallelismo e della complanarità tra vettori
mediante la dipendenza lineare.
Ecco, finalmente, una prima definizione algebrica del numero che si legge a pedice!
kxk
| |=
kyk
K C
B z
O x A H
C
D
v3
x
v2
B
O
H
v1 A
x = x1 v1 + x2 v2 + x3 v3 , (3.4)
(x1 , x2 , x3 ) 6= (y1 , y2 , y3 )
e per cui:
x = y1 v1 + y2 v2 + y3 v3 . (3.5)
Uguagliando (3.4) e (3.5) segue:
x = x1 v1 . (3.7)
Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V3 è indi-
viduata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano
vettoriale V2 è sufficiente scegliere due vettori linearmente indipendenti per individuare
tutti i vettori di V2 e nel caso di una retta vettoriale V1 è sufficiente scegliere un qualsiasi
vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di
definire in modo inequivocabile i concetti fondamentali di base e di dimensione nel modo
che segue.
Definizione 3.7 1. Si dice base di V3 una qualsiasi terna ordinata di vettori linear-
mente indipendenti. Si dice dimensione di V3 il numero dei vettori di una base e si
indica con dim(V3 ) = 3.
2. Si dice base di un piano vettoriale V2 una qualsiasi coppia ordinata di vettori li-
nearmente indipendenti di V2 . Si dice dimensione di V2 il numero dei vettori di una
base e si indica con dim(V2 ) = 2.
Capitolo 3 89
3. Si dice base di una retta vettoriale V1 un suo qualsiasi vettore non nullo. Si dice
dimensione di V1 il numero dei vettori di una base e si indica con dim(V1 ) = 1.
Una base di V3 verrà indicata con la notazione B = (v1 , v2 , v3 ). In questo caso l’ordine
con cui si scrivono i vettori è importante perché determina l’ordine con cui si scrivono
i coefficienti (x1 , x2 , x3 ) della combinazione lineare (3.4). In modo analogo una base
di un piano vettoriale V2 sarà B 0 = (v1 , v2 ) e una base di una retta vettoriale V1 sarà
B 00 = (v1 ).
v3
v2
a
v1
Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari
Osservazione 3.8 Dati tre vettori complanari (non paralleli) v1 , v2 , v3 si ha che ogni vet-
tore x appartenente al piano vettoriale individuato da v1 , v2 , v3 , si decompone in infiniti
modi diversi rispetto ai tre vettori dati. Per esempio è sufficiente scegliere una direzione
arbitraria individuata da un vettore a come combinazione lineare di v1 , v2 e decomporre
x rispetto alle direzioni individuate da v3 e a; oppure decomporre x rispetto ad una di-
rezione arbitraria b ottenuta come combinazione lineare di v2 e v3 e cosı̀ via (cfr. Oss.
3.2 punto 5.). La situazione geometrica è descritta nella Figura 3.8 in cui si è posto, per
esempio, a = v1 + v2 e x = a + µv3 ed inoltre si è posto b = v2 + v3 e x = ⌫b + 'v1 ,
dove , µ, ⌫, ' sono opportuni numeri reali.
90 Calcolo Vettoriale
Definizione 3.8 Fissata una base B = (v1 , v2 , v3 ) di V3 , per ogni vettore x di V3 gli
elementi dell’unica terna ordinata di numeri reali (x1 , x2 , x3 ) definita da (3.4) sono detti
le componenti di x rispetto alla base B. In modo analogo la formula (3.6) definisce
le componenti di un generico vettore x del piano vettoriale V2 rispetto alla base B 0 =
(v1 , v2 ) di V2 e la formula (3.7) definisce la componente di un generico vettore x di una
retta vettoriale V1 rispetto alla base B 00 = (v1 ).
Osservazione 3.9 Nel caso di V3 , fissata una base B = (v1 , v2 , v3 ), si è definita una
corrispondenza biunivoca tra V3 e R3 che associa ad ogni vettore x le sue componenti.
Spesso si scrive, con un abuso di notazione:
x = (x1 , x2 , x3 )
Al vettore x si associa la matrice colonna delle sue componenti rispetto alla base B:
0 1
x1
X = @ x2 A.
x3
Analoghe affermazioni valgono anche nel caso di un piano vettoriale V2 e di una retta
vettoriale V1 .
Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare
dei vettori mediante le loro componenti. Si farà uso delle nozioni di rango di una matrice
e del Teorema di Rouché–Capelli introdotti nel Capitolo 1 per la risoluzione dei sistemi
lineari.
y = x.
92 Calcolo Vettoriale
è pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore
nullo. Il rango di questa matrice è 0 se e solo se x = y = o.
2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono
linearmente dipendenti, ossia per esempio se esistono i numeri reali e µ per cui:
z = x + µy. (3.8)
le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste
componenti, equivale al sistema lineare:
8
< z1 = x1 + µy1
z2 = x2 + µy2
:
z3 = x3 + µy3
e in termini matriciali equivale a:
0 1
x1 x2 x3
rank @ y1 y2 y3 A 2.
z1 z2 z3
Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta è
proprio 2, invece se i vettori x e y sono paralleli, allora anche il vettore z è ad essi
parallelo e il rango della matrice vale 1. Il rango è 0 se e solo se x = y = z = o.
Capitolo 3 93
Soluzione Si consideri la matrice A, quadrata di ordine tre, le cui righe sono date dalle
componenti dei tre vettori: 0 1
1 3 1
A=@ 4 1 0 A,
2 5 2
riducendo A per righe si ha:
0 1 0 1
1 3 1 1 3 1
@ A ! @
A= 4 1 0 4 1 0 A.
R3 ! R3 + 2R1
2 5 2 4 1 0
Quindi rank(A) = 2 e ciò implica che i tre vettori sono complanari (infatti sono linear-
mente dipendenti). Poiché i vettori a e b non sono paralleli (infatti sono linearmente
indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due
numeri reali e µ tali che:
c = a + µb.
Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al
sistema lineare: 8
< + 4µ = 2
3 +µ= 5
:
=2
la cui soluzione è ( = 2, µ = 1), e perciò c = 2a + b.
Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere
riassunti nel seguente teorema.
si ha:
1
rank(A) = 3 () 9 A () det(A) 6= 0.
Equivalentemente, i vettori x, y, z sono linearmente dipendenti se e solo se:
rank(A) < 3.
Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il
terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece
rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo)
sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o.
Affinché i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo
deve ammettere la sola soluzione nulla. Questo accade se e solo se:
Capitolo 3 95
0 1
x1 y1 z1
rank @ x2 y2 z2 A = 3.
x3 y3 z3
Si osservi che la matrice ottenuta è la trasposta della matrice A in (3.9). Si dovrà attende-
re la dimostrazione del Teorema 4.19 per assicurare l’equivalenza dei due procedimenti
seguiti per pervenire alla tesi. Il risultato, in realtà, è intuitivamente accettabile, tenendo
conto che det(A) = det(tA).
Esercizio 3.2 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u1 = (1, 0, h), u2 = (2, 1, 1), u3 = (h, 1, 1),
stabilire per quali valori di h 2 R essi formano una base di V3 .
Soluzione I tre vettori dati formano una base di V3 se e solo se sono linearmente
indipendenti, ossia se la matrice:
0 1
1 0 h
A=@ 2 1 1 A
h 1 1
ha det(A) 6= 0. Poiché det(A) = h(2 + h) si ha che i vettori u1 , u2 , u3 formano una
base di V3 se e solo se h 2
/ { 2, 0}.
Esercizio 3.3 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = v1 v2 + 3v3 , v = 2v1 + v2 v3 , w = v1 + 2v2 + v3 ,
dimostrare che costituiscono una base di V3 .
Soluzione Si tratta di dimostrare che il rango della matrice:
0 1
1 1 3
A=@ 2 1 1 A
1 2 1
è 3. Riducendola per righe si ha:
0 1 0 1
1 1 3 ! 1 1 3
A= @ 2 1 1 A R2 ! R2 + R1 @ 3 0 2 A
1 2 1 R3 ! R3 + 2R1 3 0 7
0 1
1 1 3
! @ 3 0 2 A,
R3 ! R3 R2
0 0 5
96 Calcolo Vettoriale
da cui la tesi.
Esercizio 3.4 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori:
u = 2v1 + v2 v3 , quadv = v1 + v3 , w = v1 + v2 2v3 .
Verificare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come com-
binazione lineare dei rimanenti.
Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefficienti reali
, µ e ⌫ e la si ponga uguale al vettore nullo:
u + µv + ⌫w = o.
Sostituendo nella combinazione lineare l’espressione dei vettori scritta rispetto alla base
B, si ha:
(2v1 + v2 v3 ) + µ(v1 + v3 ) + ⌫(v1 + v2 2v3 )
= (2 + µ + ⌫)v1 + ( + ⌫)v2 + ( + µ 2⌫)v3 = o.
Si è cosı̀ ottenuta una combinazione lineare dei vettori della base B che è uguale al vettore
nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefficienti
di tale combinazione lineare devono essere nulli, ossia:
8
< 2 +µ+⌫ =0
+⌫ =0
:
+ µ 2⌫ = 0.
Il sistema lineare omogeneo cosı̀ ottenuto ha matrice dei coefficienti:
0 1
2 1 1
A=@ 1 0 1 A.
1 1 2
Riducendo A per righe si ha:
0 1 0 1
2 1 1 2 1 1
!
A=@ 1 0 1 A @ 1 0 1 A
R3 ! R3 R1
1 1 2 3 0 3
0 1
2 1 1
! @ 1 0 1 A,
R3 ! R3 + 3R2
0 0 0
ossia rank(A) = 2. Il sistema lineare omogeneo ammette, quindi, infinite soluzioni date
da ( , , ), 2 R. I vettori u, v, w sono perciò linearmente dipendenti e quindi, posto
per esempio = 1, si ottiene u = v + w. Come già osservato nella dimostrazione del
Teorema 3.8, si noti che la matrice A ha come colonne le componenti dei vettori u, v, w.
Capitolo 3 97
Siano date due basi B = (v1 , v2 , v3 ) e B 0 = (v10 , v20 , v30 ) di V3 . Ogni vettore x 2 V3 si
scrive in componenti, rispetto alla due basi, nella forma:
x = x1 v1 + x2 v2 + x3 v3 = x01 v10 + x02 v20 + x03 v30 . (3.10)
Usando la notazione matriciale introdotta nel paragrafo precedente, si indichino con:
0 1 0 0 1
x1 x1
X = @ x2 A, X 0 = @ x02 A (3.11)
0
x3 x3
le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base B 0 è
nota quando sono note le componenti dei suoi vettori rispetto alla base B, ossia:
8 0
< v1 = p11 v1 + p21 v2 + p31 v3
v0 = p12 v1 + p22 v2 + p32 v3 (3.12)
: 20
v3 = p13 v1 + p23 v2 + p33 v3 .
In altri termini, la base B 0 è nota quando è assegnata la matrice:
0 1
p11 p12 p13
P = @ p21 p22 p23 A.
p31 p32 p33
P è invertibile perché le sue colonne sono le componenti di vettori linearmente indipen-
denti. La matrice P prende il nome di matrice del cambiamento di base da B a B 0 ed è
0
spesso anche indicata come P = M B,B proprio per mettere maggiormente in evidenza
la sua interpretazione geometrica. La scelta di porre in colonna, anziché in riga, le com-
ponenti dei vettori della base B 0 rende i calcoli più agevoli. Le equazioni (3.12) in forma
matriciale diventano: 0 0 1 0 1
v1 v1
@ v20 A = tP @ v2 A.
v30 v3
Sostituendo questa espressione in (3.10) si ha:
0 1 0 1 0 1
v1 v10 v1
x = x1 x2 x3 @ v2 A = x01 x02 x03 @ v20 A = x01 x02 x03 t @
P v2 A.
v3 v30 v3
98 Calcolo Vettoriale
X = P X 0,
che sono le relazioni richieste e che prendono il nome di equazioni del cambiamento di
base da B a B 0 .
2. Si può trattare in modo analogo il problema del cambiamento di base nel caso del
piano vettoriale V2 . La matrice del cambiamento di base sarà una matrice invertibile
di ordine 2.
3. Nel caso della retta vettoriale V1 ogni numero reale non nullo esprime la compo-
nente del vettore della base B 0 = (v10 ) rispetto alla base B = (v1 ). Se per esempio
v10 = 2v1 , allora P = 2 , mentre le equazioni del cambiamento di base si
riducono all’unica equazione: x1 = 2x01 o x01 = 1/2 x1 . Infatti:
✓ ◆
1
x = x1 v1 = x01 v10 = x1 2v1 .
2
u = 2v1 + v2 + v3 , v= v1 + 2v2 + v3 ,
w = v1 v2 2v3 , z= v1 2v2 + v3 .
Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono,
rispettivamente, le componenti dei vettori u, v, w.
0 1
2 1 1 !
P =@ 1 2 1 A R2 ! R2 + 2R1
1 1 2 R3 ! R3 + R1
0 1 0 1
2 1 1 2 1 1
@ 5 A ! @
0 1 5 0 1 A.
R3 ! R3 + R2
3 0 1 8 0 0
che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da
B a B0 : 8 0
< 2x1 x02 + x03 = 1
x0 + 2x02 x03 = 2
: 10
x1 + x02 2x03 = 1.
Riducendo per righe la matrice completa si ha:
0 1 0 1
2 1 1 1 ! 2 1 1 1
@ 1 A @ !
2 1 2 R2 ! R2 + 2R1 5 0 1 4 A
R3 ! R3 + R2
1 1 2 1 R3 ! R3 + R1 3 0 1 0
0 1 0 1
2 1 1 1 2 1 1 1
@ 5 A ! @ !
0 1 4 5 0 1 4 A
R3 ! (1/4)R3 R1 ! R1 R2
8 0 0 4 2 0 0 1
0 1 0 1
3 1 0 3 ! 0 2 0 3
@ 5 0 1 4 A R1 ! 2R1 + 3R3 @ 0 0 2 3 A.
2 0 0 1 R2 ! 2R2 5R3 2 0 0 1
100 Calcolo Vettoriale
! !
Definizione 3.9 In V3 , considerati due vettori non nulli x = OA, y = OB , scelti i
rispettivi rappresentanti con l’estremo O in comune, si definisce angolo xy
c tra i due
vettori x e y l’angolo convesso ✓ = xy c di vertice O e compreso tra i segmenti OA,
OB . Di conseguenza 0 ✓ ⇡. La situazione geometrica è illustrata nella Figura 3.9.
Inoltre:
⇡
• Se ✓ = i vettori x e y si dicono ortogonali (o perpendicolari).
2
• L’angolo tra il vettore nullo o e un qualunque altro vettore può assumere qualsiasi
valore, vale a dire il vettore nullo si può considerare parallelo e ortogonale ad ogni
altro vettore.
q
O x A
1. il prodotto scalare tra due vettori (che a due vettori associa un numero reale);
2. il prodotto vettoriale o esterno tra due vettori (che a due vettori associa un vettore);
3. il prodotto misto tra tre vettori (che a tre vettori associa un numero reale).
Esse sono dette non lineari perché prevedono operazioni con le componenti dei vettori
che non sono di primo grado.
· : V3 ⇥ V3 ! R
102 Calcolo Vettoriale
cosı̀ definita:
c
x · y = kxkkyk cos(xy). (3.13)
2. Per definizione, il risultato del prodotto scalare di due vettori può essere un numero
reale qualsiasi il cui segno è esclusivamente legato all’ampiezza dell’angolo tra i
due vettori. Precisamente se x e y sono due vettori entrambi non nulli si ha:
⇡
a. 0 ✓ < se e solo se x · y > 0;
2
⇡
b. < ✓ ⇡ se e solo se x · y < 0;
2
⇡
c. se ✓ = allora x · y = 0.
2
Se, invece, uno almeno dei due vettori x e y è il vettore nullo, allora x · y = 0.
4. Da (3.13) segue l’espressione del coseno dell’angolo tra due vettori non nulli x e
y, in funzione del valore del loro prodotto scalare e delle loro norme:
x·y
c =
cos(xy) .
kxkkyk
Il teorema che segue, la cui dimostrazione è una semplice conseguenza delle osservazioni
precedenti, è però estremamente importante perché esprime una condizione equivalente
all’ortogonalità di due vettori.
Teorema 3.9 Due vettori di V3 sono ortogonali se e solo se il loro prodotto scalare è
uguale a zero, in formule:
x?y () x · y = 0, x, y 2 V3 .
Si procede ora con lo studio dell’interpretazione geometrica del numero reale che esprime
il prodotto scalare tra due vettori, nel caso in cui questo non sia uguale a zero.
Capitolo 3 103
O p x A
H
H p O x A
Teorema 3.11 – Vettore proiezione ortogonale – Dati due vettori x e y non nulli, il
vettore proiezione ortogonale di y su x è:
x·y
p= x. (3.15)
kxk2
Dimostrazione È una facile conseguenza del teorema precedente. Innanzi tutto è evi-
dente che x e y sono ortogonali se e solo se p = p0 = o. Se x e y non sono ortogonali,
Capitolo 3 105
Rimane da determinare l’espressione del prodotto scalare tra due vettori usando le loro
componenti, rispetto ad una base di V3 fissata, ma per fare ciò è necessario ricavare le
proprietà del prodotto scalare in relazione alla somma di vettori e al prodotto di un numero
reale per un vettore.
Teorema 3.12 Il prodotto scalare tra due vettori gode delle seguenti proprietà:
1. x · y = y · x, x, y 2 V3 ,
2. x · (y1 + y2 ) = x · y1 + x · y2 , x, y1 , y2 2 V3 ,
3. (x · y) = ( x) · y = x · ( y), 2 R, x, y 2 V3 .
y2
y
2
+
y
1
B
y1
x
A H K
y2
y
2
+
y
1
H x
A K
y1
x = x1 v1 + x2 v2 + x3 v3 , y = y1 v1 + y2 v2 + y3 v3
di V3 , tenendo conto delle proprietà dimostrate nel Teorema 3.12, il calcolo del loro
prodotto scalare mediante le componenti, rispetto a B, risulta essere:
3
X
x·y = xi yj vi · vj
i,j=1
da cui segue che il valore di x · y dipende dai prodotti scalari tra i vettori della base B.
In altri termini, per calcolare il prodotto scalare tra due vettori è necessario conoscere, in
modo preciso, l’angolo formato tra i vettori della base che si sta usando e la loro norma.
Per rendere più agevoli i calcoli si impone, pertanto, la scelta di particolari basi in cui
siano noti a priori le lunghezze dei vettori che le compongono e gli angoli tra di essi.
a. i · j = i · k = j · k = 0,
b. kik = kjk = kkk = 1,
a. i · j = 0,
b. kik = kjk = 1,
4. Una base B = (i) di una retta vettoriale V1 si dice ortonormale se kik = 1, ossia
se è formata da un versore.
Osservazione 3.13 1. Una base ortonormale è, quindi, una base ortogonale i cui vet-
tori sono anche versori.
2. È evidente che sia nello spazio vettoriale V3 sia in ogni piano vettoriale V2 sia in
ogni retta vettoriale V1 esistono infinite basi ortonormali.
108 Calcolo Vettoriale
j
j
i
i k
k
j i
i
j
Teorema 3.13 – Prodotto scalare in componenti – Sia B = (i, j, k) una base ortonor-
male di V3 e siano:
x = x1 i + x2 j + x3 k, y = y1 i + y2 j + y3 k
due vettori di V3 le cui componenti possono essere rappresentate dalle matrici colonne:
0 1 0 1
x1 y1
X = @ x2 A, Y = @ y2 A.
x3 y3
x · y = x1 y1 + x2 y2 + x3 y3 = tX Y.
Osservazione 3.14 1. Si può ripetere il Teorema 3.13 nel caso particolare di un pia-
no vettoriale V2 . Precisamente, se B = (i, j) è una base ortonormale di un piano
vettoriale V2 e x = x1 i + x2 j e y = y1 i + y2 j sono due vettori di V2 , allora:
x · y = x1 y1 + x2 y2 ,
p
kxk = x21 + x22 ,
x1 y1 + x2 y2
c =p
cos(xy) p .
x21 + x22 y12 + y22
110 Calcolo Vettoriale
che coincide con la ben nota relazione di trigonometria piana sin2 ↵ + cos2 ↵ = 1
valida per un angolo ↵ qualsiasi. La situazione geometrica è illustrata nella Figura
3.17.
Esercizio 3.6 In V3 , rispetto ad una base ortonormale B = (i, j, k), sono dati i vettori
u = (2, 1, 3) e v = (0, 2, 3), determinare il vettore x simmetrico di u rispetto a v.
k x3
j
i x1
x2
x2
x
i x1
quindi: ✓ ◆
31 27
x = 2p u= 2, , .
13 13
p + h = b.
Da (3.15) segue:
b·a 2
p= 2
a = (1, 2, 0)
kak 5
da cui: ✓ ◆
2 1
h=b p= , ,1 .
5 5
b
h
p a
^ : V3 ⇥ V3 ! V3 , (x, y) 7 ! x ^ y.
xfly
Teorema 3.14 Due vettori x, y di V3 sono paralleli se e solo se il loro prodotto vettoriale
è uguale al vettore nullo; in formule:
x k y () x ^ y = o.
H
A x B
Nel caso in cui il prodotto vettoriale di due vettori non sia il vettore nullo, la sua norma
assume un’interessante significato geometrico, vale, infatti, il seguente teorema.
Teorema 3.15 – Significato geometrico della norma del prodotto vettoriale – La nor-
ma del prodotto vettoriale di due vettori di V3 , non nulli e non paralleli, è pari al doppio
dell’area del triangolo individuato da due segmenti orientati, rappresentanti dei vettori
dati, aventi un estremo in comune.
Capitolo 3 115
! !
Dimostrazione Siano AB e AC rappresentanti dei vettori x e y rispettivamente. Con
riferimento alla Figura 3.20 e tenendo conto che:
! ! [
kx ^ yk = kABkkACk sin(BAC)
si ha la tesi.
Tramite il prodotto vettoriale di due vettori è possibile calcolare il vettore proiezione orto-
gonale di un vettore qualsiasi di V3 su un piano vettoriale, precisamente si ha il seguente
teorema.
Teorema 3.16 – Vettore proiezione ortogonale su un piano vettoriale – Dati due vetto-
ri u, v di V3 linearmente indipendenti, il vettore p proiezione ortogonale di un generico
vettore x di V3 sul piano vettoriale individuato da u e da v è dato da:
x · (u ^ v)
p=x (u ^ v).
ku ^ vk2
! !
Dimostrazione Siano AB, AC i segmenti orientati rappresentanti dei vettori u e v
!
rispettivamente. Sia AD rappresentante del vettore x. Dalla Figura 3.21 segue che
x = p + q. Ma il vettore q non è altro che il vettore proiezione ortogonale di x su
u ^ v. La tesi è conseguenza, quindi, del Teorema 3.11.
Osservazione 3.16 Se in un piano vettoriale si considera una base ortogonale, non è ne-
cessario usare la nozione di prodotto vettoriale di due vettori per determinare il vettore
proiezione ortogonale di ogni vettore di V3 su tale piano. Siano, infatti, a e b due vettori
ortogonali, ossia a · b = 0, la proiezione ortogonale p di un generico vettore x di V3 sul
piano vettoriale individuato da a e da b è data da:
x·a x·b
p= 2
a+ b.
kak kbk2
La formula appena citata è facile conseguenza del Teorema 3.11, ma è di grande impor-
tanza, perché si potrà facilmente estendere a spazi vettoriali di dimensione superiore a 3
(cfr. Teor. 5.5).
Teorema 3.17 Il prodotto vettoriale tra due vettori gode delle seguenti proprietà:
1. x ^ y = y ^ x, x, y 2 V3 ,
2. ( x) ^ y = x ^ ( y) = (x ^ y), x, y 2 V3 , 2 R,
116 Calcolo Vettoriale
x
q
uÔv
C
v
p H
A u B
3. x ^ (y + z) = x ^ y + x ^ z, x, y, z 2 V3 .
a. = 0;
b. > 0;
c. < 0.
I primi due casi sono molto semplici e vengono lasciati per esercizio.
Se < 0 si deve dimostrare per esempio che:
( x) ^ y = (x ^ y), x, y 2 V3 .
Le verifiche riguardanti l’uguaglianza della direzione e del verso sono lasciate per
esercizio.
Allo scopo di determinare l’espressione del prodotto vettoriale in funzione delle compo-
nenti dei due vettori è necessario, come per il calcolo del prodotto scalare, fissare una
base ortonormale di V3 , ma è anche fondamentale, in questo caso, distinguere tra le due
possibili configurazioni di basi ortonormali schematizzate nella Figura 3.14. Nel primo
caso si osserva che i ^ j = k, nel secondo caso, invece, i ^ j = k. Si impone, quindi,
la necessità di introdurre la seguente definizione.
v1 ^ v2 · v3 > 0.
v1 ^ v2 · v3 < 0.
118 Calcolo Vettoriale
i ^ j = k,
cioè se:
i ^ j · k = 1.
i^j= k,
cioè se:
i^j·k= 1.
Osservazione 3.17 Si osservi che la Definizione 3.13 può essere enunciata anche nel
caso di una base qualsiasi, non necessariamente ortogonale o ortonormale.
Fissando una base ortonormale positiva è possibile ricavare in modo agevole l’espressione
del prodotto vettoriale di due vettori in componenti, come risulta dal seguente teorema.
Teorema 3.18 – Prodotto vettoriale in componenti – Sia B = (i, j, k) una base orto-
normale positiva di V3 e siano:
x = x1 i + x2 j + x3 k, y = y1 i + y2 j + y3 k
x2 x3 x1 x3 x1 x2
x^y = i j+ k. (3.17)
y2 y3 y1 y3 y1 y2
i ^ j = k, k ^ i = j, j ^ k = i,
j^i= k, i ^ k = j, k ^ j = i.
i ^ i = j ^ j = k ^ k = o.
Tenendo conto delle uguaglianze appena trascritte e applicando le proprietà del prodotto
vettoriale enunciate nel Teorema 3.17 si perviene facilmente alla tesi.
Capitolo 3 119
Osservazione 3.18 1. Si osservi che la formula (3.17) potrebbe essere scritta come
segue:
i j k
x ^ y = x1 x2 x3 , (3.18)
y1 y2 y3
anche se l’espressione a secondo membro è priva di significato matematico, in quan-
to si indica il calcolo del determinante di un oggetto che non è una matrice. D’altra
parte è molto più facile ricordare (3.18) anziché (3.17).
2. Si osservi che dal Teorema 3.14 e dalla formula (3.17) segue che, fissata una base
ortonormale positiva B = (i, j, k), due vettori:
x = x1 i + x2 j + x3 k, y = y1 i + y2 j + y3 k
sono paralleli se e solo se:
x2 x3 x1 x3 x1 x2
= = = 0.
y2 y3 y1 y3 y1 y2
Ciò equivale a richiedere che le componenti dei due vettori siano a due a due pro-
porzionali, ossia che i due vettori x e y siano linearmente dipendenti. A maggior
precisione si osservi che la condizione di dipendenza lineare letta sulle componenti
di due vettori è stata a suo tempo ricavata rispetto ad una base qualsiasi di V3 e non
solamente rispetto ad una base ortonormale positiva. Infatti la dipendenza lineare
equivale al parallelismo di due vettori anche in dimensione superiore a 3, come sarà
dimostrato nel Teorema 5.3.
Esercizio 3.8 Nel spazio vettoriale V3 , rispetto ad una base B = (i, j, k) ortonormale
positiva, sono dati i vettori:
a = (2, 1, 1), b = (0, 1, 1).
Determinare tutti i vettori x di V3 tali che la loro proiezione ortogonale sul piano vetto-
riale generato da a e da b sia il vettore a + b.
Soluzione I vettori richiesti sono dati da:
x = (a + b) + a ^ b, 2 R,
dove:
i j k
1 1 2 1 2 1
a^b= 2 1 1 = i j+ k= 2j + 2k.
1 1 0 1 0 1
0 1 1
Di conseguenza:
x = (a + b) + a ^ b = (2, 2 2 , 2 + 2 ), 2 R.
120 Calcolo Vettoriale
Definizione 3.14 Il prodotto misto di tre vettori nello spazio vettoriale V3 è la funzione:
V3 ⇥ V3 ⇥ V3 ! R
cosı̀ definita:
(x, y, z) 7 ! x ^ y · z.
Il numero reale che si ottiene dal prodotto misto di tre vettori linearmente indipendenti
dello spazio vettoriale V3 ha un importante significato geometrico, come si evince dal
teorema che segue.
xÔy
D
H
y C
A
x
B
Teorema 3.19 – Significato geometrico del prodotto misto – Il prodotto misto di tre
vettori non complanari di V3 è pari a 6 volte il volume, con segno, del tetraedro indivi-
duato da tre segmenti orientati, rappresentanti dei tre vettori dati, e aventi un estremo in
comune.
! ! !
Dimostrazione Siano AB, AC, AD tre segmenti orientati rappresentanti dei vettori
x, y, z rispettivamente. Essendo, per ipotesi, i tre vettori considerati linearmente indi-
pendenti, si può supporre che il punto D non appartenga al piano individuato dai punti
A, B, C . La situazione geometrica è rappresentata nella Figura 3.22. Dalla definizione di
prodotto scalare si ha:
(x ^ y) · z = kx ^ ykkzk cos((x\
^ y)z) = kx ^ ykAH, (3.19)
dove con AH si indica la lunghezza con segno della proiezione ortogonale del vettore
z su x ^ y. Come è noto, il segno della lunghezza della proiezione ortogonale dipende
dall’ampiezza dall’angolo che il vettore z forma con il vettore x ^ y, ossia se questo
angolo è acuto il segno è positivo (situazione geometrica descritta nella Figura 3.22), se
l’angolo è ottuso il segno è negativo. Non si considera il caso dell’angolo retto perché,
se cosı̀ fosse, il vettore z sarebbe complanare ai vettori x e y. Ricordando il significato
geometrico della norma del prodotto vettoriale di due vettori (cfr. Teor. 3.15) la formula
(3.19) diventa:
(x ^ y) · z = 2AABC AH = 6VABCD ,
dove AABC indica l’area del triangolo ABC e VABCD il volume (con segno) del tetraedro
ABCD.
Osservazione 3.19 1. Dalla prima proprietà del prodotto vettoriale del Teorema 3.17
e dalla prima proprietà del prodotto scalare del Teorema 3.12 si ottengono le se-
guenti proprietà del prodotto misto di tre vettori:
x^y·z=z·x^y (3.20)
x^y·z= y ^ x · z. (3.21)
2. Si osservi che il segno del prodotto misto di tre vettori x, y, z dipende dall’ordine
in cui sono considerati i tre vettori come si deduce da (3.21), mentre il valore as-
soluto del prodotto misto dei tre vettori non cambia, qualunque sia l’ordine in cui i
vettori sono considerati, infatti la medesima terna di vettori, qualunque sia l’ordine,
individua lo stesso tetraedro.
Nel caso in cui tre vettori di V3 siano complanari allora vale il seguente teorema la cui
dimostrazione è una facile conseguenza delle definizioni e delle proprietà del prodotto
vettoriale e del prodotto scalare ed è lasciata al Lettore.
122 Calcolo Vettoriale
Teorema 3.20 Tre vettori di V3 sono complanari se e solo se il loro prodotto misto si
annulla.
Teorema 3.21 – Prodotto misto in componenti – Sia B = (i, j, k) una base ortonor-
male positiva di V3 e siano:
x = x1 i + x2 j + x3 k, y = y1 i + y2 j + y3 k, z = z1 i + z2 j + z3 k
x1 x2 x3
x^y·z= y1 y2 y3 .
z1 z2 z3
Dimostrazione Dalle espressioni del prodotto vettoriale e del prodotto scalare in com-
ponenti si ha:
✓ ◆
x2 x3 x1 x3 x1 x2
x^y·z = i j+ k · (z1 i + z2 j + z3 k)
y2 y3 y1 y3 y1 y2
x2 x3 x1 x3 x1 x2
= z z2 + z,
y2 y3 1 y1 y3 y1 y2 3
Dal teorema appena dimostrato e da tutte le proprietà del calcolo del determinante di
una matrice quadrata di ordine 3, dimostrate nel Paragrafo 2.8, si ottengono le seguenti
proprietà del prodotto misto, alcune delle quali sono già state ricavate in precedenza e la
cui dimostrazione è lasciata al Lettore per esercizio.
Teorema 3.22 Per il prodotto misto di tre vettori valgono le seguenti proprietà:
1. x ^ y · z = x · y ^ z, x, y, z 2 V3 ;
2. x ^ y · z = z ^ x · y = y ^ z · x, x, y, z 2 V3 ;
Osservazione 3.20 La proprietà 1. del Teorema 3.22 può essere dimostrata, in generale,
indipendentemente dall’espressione in componenti dei tre vettori x, y, z. È facile dimo-
strare che, in valore assoluto, il primo membro di 1. coincide con il secondo membro,
in quanto i tre vettori individuano lo stesso tetraedro, pertanto, in valore assoluto, la pro-
prietà non esprime altro che il volume di questo tetraedro. Si perviene all’uguaglianza dei
segni dei due membri se si osserva che il segno del prodotto misto della terna di vettori
x, y, z è invariante per le loro permutazioni circolari. La dimostrazione completa si può
leggere, per esempio, in [7].
Esercizio 3.9 Nello spazio vettoriale V3 , rispetto ad una base B = (i, j, k), ortonormale
positiva, sono dati i vettori:
Assegnati ad h e a k i valori
p per cui c è parallelo al vettore a^b, calcolare le componenti
del vettore x di norma 3, complanare ad a e a b e tale che il volume (con segno) del
tetraedro di spigoli a, c, x sia uguale a 2.
x1 x2 x3
1 0 1 = 0. (3.22)
2 1 0
Il volume con segno del tetraedro individuato dalla terna ordinata dei vettori a, c, x è
uguale a 2 se e solo se a ^ c · x = 12, che, in componenti, equivale a:
1 0 1
2 4 2 = 12. (3.23)
x1 x2 x3
p
La norma del vettore x è pari a 3 se e solo se:
Esercizio 3.10 Usando il prodotto misto di tre vettori, si dimostri la proprietà distributiva
del prodotto vettoriale rispetto alla somma di vettori:
x ^ (y + z) = x ^ y + x ^ z, x, y, z 2 V3 . (3.25)
124 Calcolo Vettoriale
ovvero a dimostrare che la proiezione ortogonale del vettore a primo membro su un gene-
rico vettore a di V3 coincide con la proiezione ortogonale del vettore a secondo membro
sullo stesso vettore a di V3 . È chiaro che ciò è vero solo perché il vettore a può variare
tra tutti i vettori di V3 , questa affermazione è palesemente falsa, in caso contrario. Per
verificare (3.26) è sufficiente procedere applicando ripetutamente le varie proprietà del
prodotto misto, del prodotto vettoriale e del prodotto scalare di vettori, precisamente si
ha:
a · [x ^ (y + z)] = (a ^ x) · (y + z)
= (a ^ x) · y + (a ^ x) · z
= a·x^y+a·x^z
= a · (x ^ y + x ^ z).
Teorema 3.23 Sia B = (i, j, k) una base ortonormale di V3 , allora anche B 0 = (i0 , j0 , k0 )
è una base ortonormale di V3 se e solo se la matrice P del cambiamento di base da B a
B 0 verifica la condizione:
t
P P = I, (3.27)
dove I indica la matrice unità di ordine 3.
Osservazione 3.21 1. Si ricordi che le matrici P per cui vale la (3.27) prendono il
nome di matrici ortogonali (cfr. Par. 2.5), il Teorema 3.23 ne giustifica questa
particolare denominazione. Allora il Teorema 3.23 afferma che le matrici ortogo-
nali caratterizzano il cambiamento di base tra basi ortonormali. Si osservi anche
che le colonne di una matrice ortogonale di ordine 3 sono i vettori di una base
ortonormale.
quindi:
det(P ) = ±1.
Si perviene allo stesso risultato ricordando l’espressione in componenti del prodotto
misto di tre vettori, infatti:
det(P ) = i0 ^ j0 · k0 = ±1.
3. Si osservi che è fondamentale richiedere nel Teorema 3.23 che entrambe le basi B e
B 0 siano basi ortonormali, infatti le relazioni (3.30) non sarebbero valide se B non
fosse una base ortonormale (cfr. Teor. 3.13), anche se B 0 fosse ortonormale.
4. Il Teorema 3.23 è valido anche nel caso del cambiamento di base tra due ba-
si ortonormali in ogni piano vettoriale V2 , si studierà di seguito l’interpretazione
geometrica in questo caso particolare.
5. Il Teorema 3.23 propone un’altra interpretazione del prodotto righe per colonne di
matrici quadrate di ordine 3 e di ordine 2; infatti il prodotto di una riga per una
colonna può essere considerato come il prodotto scalare tra la riga e la colonna se
i proprii elementi si interpretano come le componenti di un vettore rispetto ad una
base ortonormale.
j' i'
q
i
Si consideri ora il caso particolare del cambiamento di base tra basi ortonormali in un
piano vettoriale V2 con lo scopo di determinare gli elementi della matrice ortogonale
P = (pij ) 2 R2,2 che lo regola. Date due basi ortonormali B = (i, j) e B 0 = (i0 , j0 )
la seconda base si può ottenere dalla prima in uno dei modi rappresentati nelle Figure
3.23, 3.24, 3.25. Si osservi che le prime due figure sono in realtà dello stesso tipo e
corrispondono ad una rotazione che la base B compie per sovrapporsi alla base B 0 , invece
nella terza figura la base B deve effettuare un movimento di riflessione (non interno al
piano vettoriale V2 ) per sovrapporsi alla base B 0 .
Capitolo 3 127
j'
-q i
i'
j
i' j'
P = R[✓].
Nel secondo caso (cfr. Fig. 3.24), con un procedimento analogo a quello appena descritto,
si ottiene: ✓ ◆
cos ✓ sin ✓
R[ ✓] = , (3.32)
sin ✓ cos ✓
anche in questo caso det(R[ ✓]) = 1. Si osservi che la matrice (3.32) corrisponde alla
matrice (3.31) in cui al posto di ✓ si considera l’angolo ✓.
Si conclude, quindi, in modo totalmente coerente con ciò che si è ottenuto nel caso dello
spazio vettoriale V3 , che il cambiamento di base tra due basi ortonormali positive nel
piano vettoriale si ottiene mediante una matrice ortogonale con determinante pari a 1 e,
in caso contrario tramite una matrice ortogonale con determinante pari a 1. Questa
osservazione, tenendo conto della Definizione 3.13, conduce in modo naturale ai concetti
di basi ortogonali, ortonormali positive e negative nel piano senza fare uso della nozione
di prodotto vettoriale, definibile solo nello spazio vettoriale V3 . Infatti si può enunciare la
seguente definizione.
ossia i vettori che la compongono sono versori (cfr. Fig. 3.25, base (i0 , j0 )).
Esercizio 3.11 Si dimostri che gli elementi di O(2), ovvero le matrici ortogonali di or-
dine 2, sono necessariamente o di tipo (3.31) o di tipo (3.33). Inoltre, si provi che
O(1) = { 1, 1}.
Esercizio 3.12 In un piano vettoriale V2 , a partire da B = (i, j), base ortonormale po-
sitiva, si consideri il cambiamento di base ottenuto mediante una rotazione di angolo ✓1
che conduce alla base ortonormale positiva B 0 = (i0 , j0 ) mediante la matrice ortogonale
R[✓1 ]. A partire dalla base ortonormale positiva B 0 = (i0 , j0 ) si consideri la rotazione di
angolo ✓2 che conduce alla base ortonormale positiva B 00 = (i00 , j00 ) mediante la matrice
ortogonale R[✓2 ]. Si dimostri che la matrice del cambiamento di base dalla base ortonor-
male positiva B = (i, j) alla base ortonormale positiva B 00 = (i00 , j00 ), corrispondente alla
rotazione di angolo ✓1 + ✓2 , è la matrice prodotto R[✓1 ]R[✓2 ]. Si ripeta lo stesso esercizio
dove, al posto delle rotazioni, si considerano riflessioni.
Determinare kx yk.
d’altra parte:
e quindi:
kx + yk2 + kx yk2 = 2 (kxk2 + kyk2 )
da cui:
kx yk2 = 2(25 + 49) 100 = 48.
x = u + µv + ⌫ w
z · x = z · ( u + µv + ⌫ w) = z · u + µ z · v + ⌫ z · w = 0,
Esercizio 3.15 Dimostrare che, se i vettori a, b, c di V3 sono non nulli e a due a due
ortogonali, anche i vettori:
a ^ b, b ^ c, c ^ a
sono non nulli e a due a due ortogonali.
a^b= c,
Esercizio 3.17 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), sono dati i
vettori:
a = ( h, 3h, 1), b = (0, 3, h), c = (1, 1, h), h 2 R.
2. Determinare dei valori di h per cui esistono dei vettori x = (x1 , x2 , x3 ) tali che:
x^a=b
e calcolarne le componenti.
le cui righe sono date dalle componenti dei vettori a, b, c ha determinante uguale
p
a zero. Si ha che det(A) = h2 3, quindi i valori di h richiesti sono h = ± 3.
2. Da x ^ a = b si ha:
i j k
x1 x2 x3 = 3j + hk.
h 3h 1
Uguagliando ordinatamente le componenti del vettore a primo membro a quelle del
vettore a secondo membro si perviene al sistema lineare:
8
< x2 3hx3 = 0
x1 hx3 = 3
:
3hx1 + hx2 = h,
Definizione 3.16 Due segmenti orientati AB e CD dello spazio S3 sono detti equipol-
lenti se i punti medi dei segmenti AD e BC coincidono. La situazione geometrica è
illustrata nella Figura 3.26.
C D
A B
Figura 3.26: Segmenti orientati equipollenti
Di conseguenza, l’insieme dei segmenti orientati dello spazio viene suddiviso nelle classi
di equivalenza determinate dalla relazione di equipollenza, dette classi di equipollenza,
ogni classe contiene tutti e soli i segmenti orientati equipollenti ad un segmento dato e
può essere rappresentata da un qualsiasi segmento che ad essa appartiene. Allora si ha la
seguente definizione.
Teorema 3.25 Sono valide le seguenti proprietà per il prodotto vettoriale e scalare tra
vettori:
1. (x ^ y) ^ z = (x · z) y (y · z) x, x, y, z 2 V3 ;
2. (x ^ y) ^ (z ^ w) = (w · x ^ y) z (z · x ^ y) w, x, y, z, w 2 V3 ;
3. (x ^ y) · (z ^ w) = (x · z)(y · w) (x · w)(y.z), x, y, z, w 2 V3 ;
4. (x ^ y) ^ z + (y ^ z) ^ x + (z ^ x) ^ y = o, x, y, z 2 V3 .
(x ^ y) ^ z = x + µy. (3.34)
e a secondo membro:
x · z + µy · z = 0,
da cui segue che è possibile determinare un numero reale ⇢ per cui:
L’identità 1. è dimostrata se si verifica che ⇢ non dipende dalla scelta dei vettori
x, y, z. Supposto per assurdo che ⇢ dipenda, ad esempio, da z, si ponga:
Quindi si deduce che ⇢(a) = ⇢(z). In modo analogo si dimostra che ⇢ non dipende
dai vettori x e w.
(x ^ y) ^ z 6= x ^ (y ^ z),
Definizione 4.1 Un insieme V si dice spazio vettoriale sul campo dei numeri reali R o
spazio vettoriale reale se sono definite su V le due operazioni seguenti:
A. la somma:
+:V ⇥V ! V, (x, y) 7 ! x + y
rispetto alla quale V ha la struttura di gruppo commutativo, ossia valgono le proprietà:
1. x + y = y + x, x, y 2 V (proprietà commutativa);
4. 8x 2 V 9 x 2 V | x + ( x) = o (esistenza dell’opposto);
137
138 Spazi Vettoriali e Sottospazi Vettoriali
1. (x + y) = x + y, x, y 2 V, 2 R;
2. ( + µ)x = x + µx, x 2 V, , µ 2 R;
3. ( µ)x = (µx), x 2 V, , µ 2 R;
4. 1 x = x, x2V.
Osservazione 4.1 Si può introdurre una definizione analoga di spazio vettoriale ma co-
struito su un qualsiasi campo, per esempio sul campo dei numeri razionali Q o dei numeri
complessi C. Nel caso della definizione su C, lo spazio vettoriale si dice anche spazio
vettoriale complesso.
Osservazione 4.2 È chiaro che il campo dei numeri reali R è un esempio evidente di
spazio vettoriale su R rispetto alle usuali operazioni di somma e di prodotto, come del
resto si otterrrà come caso particolare dell’Esempio 4.3, ma R è anche un esempio di
spazio vettoriale sul campo dei numeri razionali Q.
Osservazione 4.3 Si osservi che le proprietà B.1. e B.2., a differenza di quanto accade
per (R, +, · ) con l’usuale somma e prodotto di numeri reali, non possono essere chiama-
te proprietà distributive del prodotto rispetto alla somma, in quanto esse coinvolgono ele-
menti appartenenti ad insiemi diversi. Analogamente, la proprietà B.3. non è la proprietà
associativa.
Verranno descritti di seguito gli esempi ritenuti più significativi, si rimanda al Paragrafo
4.5 per ulteriori esempi ed esercizi.
Esempio 4.1 Si inizia con gli esempi che hanno dato il nome alla struttura di spazio
vettoriale appena definita. Gli insiemi dei vettori di una retta vettoriale V1 , di un piano
vettoriale V2 e dello spazio vettoriale ordinario V3 sono esempi di spazi vettoriali su R,
rispetto alle operazioni di somma di vettori e di prodotto di un numero reale per un vettore
definite nel Capitolo 3.
Capitolo 4 139
Esempio 4.2 Gli insiemi delle matrici Rm,n di m righe e n colonne, ad elementi reali,
definiti nel Capitolo 2, sono esempi di spazi vettoriali reali rispetto alle operazioni di
somma di matrici e di prodotto di un numero reale per una matrice là definite.
Rn = {(x1 , x2 , . . . , xn ) | xi 2 R, i = 1, 2, . . . , n}
è un caso particolare dell’esempio precedente ma, visto il ruolo fondamentale che avrà in
tutto il testo, verrà trattato a parte.
La somma di due n-uple (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) di Rn è definita come:
Il vettore nullo di Rn è dato dalla n-upla (0, 0,. . ., 0) e l’opposto del vettore (x1 , x2 ,. . ., xn )
è il vettore ( x1 , x2 , . . . , xn ). Il prodotto di un numero reale per un elemento
(x1 , x2 , . . . , xn ) di Rn è definito da:
(x1 , x2 , . . . , xn ) = ( x1 , x2 , . . . , xn ).
( f )(x) = (f (x)), x 2 R.
Si verifica facilmente che il vettore nullo è la funzione nulla O, definita da O(x) = 0,
con x 2 R, l’opposto di f è la funzione f definita in modo evidente:
( f )(x) = f (x), x 2 R.
Più in generale, anche l’insieme delle funzioni F(I, V ) = {F : I ! V } da un insieme
I qualsiasi ad uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R in
cui la somma di funzioni ed il prodotto di un numero reale per una funzione sono definite
come nel caso di F(R) ma considerando le operazioni dello spazio vettoriale V.
140 Spazi Vettoriali e Sottospazi Vettoriali
Esempio 4.6 Sia R[x] l’insieme dei polinomi nella variabile x a coefficienti reali, ossia:
p(x) = a0 a1 x a2 x 2 ... an xn .
3. se per x, y, z 2 V si ha x + y = x + z, allora y = z;
4. x = o (con 2 R e x 2 V ) () = 0 oppure x = o;
Osservazione 4.4 L’insieme {o} formato dal solo vettore nullo è un esempio di spazio
vettoriale reale. Si osservi che è l’unico spazio vettoriale reale con un numero finito di
elementi.
8x, y 2 W =) x + y 2 W,
8 2 R, 8x 2 W =) x 2 W,
che equivale a:
8 , µ 2 R, 8x, y 2 W =) x + µy 2 W.
Esempio 4.7 Ogni spazio vettoriale V ammette almeno due sottospazi vettoriali: V e
{o}. Essi coincidono se e solo se V = {o}. Tali sottospazi vettoriali si dicono improprii.
Esempio 4.8 L’insieme dei vettori ordinari di ogni piano vettoriale V2 è un sottospazio
vettoriale dell’insieme dei vettori dello spazio V3 . L’insieme dei vettori di una retta vet-
toriale V1 è un sottospazio vettoriale del piano vettoriale V2 che la contiene e ogni retta
vettoriale è un sottospazio vettoriale di V3 .
Esempio 4.9 Si osservi che, nonostante Q sia un sottoinsieme di R, l’insieme dei numeri
razionali Q (spazio vettoriale su Q) non è un sottospazio vettoriale dello spazio vettoriale
reale R, in quanto su Q non è definito lo stesso prodotto per scalari di R. Infatti, il
prodotto di un numero reale per un numero razionale non è necessariamente razionale.
Esempio 4.11 Sia R[x] lo spazio vettoriale dei polinomi nella variabile x a coefficienti
reali, introdotto nell’Esempio 4.6. Sottospazi vettoriali notevoli di R[x] sono gli insiemi
dei polinomi di grado non superiore ad un numero intero positivo fissato n. In formule, si
indica con:
Rn [x] = {a0 + a1 x + a2 x2 + . . . + an xn | ai 2 R, i = 0, 1, 2, . . . , n}
P = {a0 + a1 x + a2 x2 + a3 x3 2 R3 [x] | ai 2 R, i = 0, 1, 2, 3, a3 6= 0}
non è un sottospazio vettoriale di R3 [x] in quanto non contiene il vettore nullo di R3 [x].
Viene trattata ora la rappresentazione mediante equazioni dei sottospazi vettoriali dello
spazio vettoriale Rn . Per capire meglio la teoria, si inizia con un esercizio.
N (A) = {X 2 Rn | AX = O},
dove si identifica Rn,1 con Rn . Dati X1 , X2 2 N (A), allora AX1 = AX2 = O. Si deve
dimostrare che X1 + µX2 2 N (A) per ogni , µ 2 R, ma:
Esercizio 4.2 Ogni sottospazio vettoriale, diverso da {o}, di uno spazio vettoriale reale
contiene sempre un numero infinito di vettori?
Si continua ora con un elenco di sottospazi vettoriali notevoli dello spazio vettoriale delle
matrici Rm,n . Le verifiche sono lasciate per esercizio.
Esempio 4.13 Il sottoinsieme D(Rn,n ) di Rn,n (spazio vettoriale delle matrici quadrate
di ordine n) formato dalle matrici diagonali, definito in (2.2), è un sottospazio vettoriale
di Rn,n .
Esempio 4.14 Il sottoinsieme T (Rn,n ) di Rn,n delle matrici triangolari superiori, definite
in (2.6), è un sottospazio vettoriale di Rn,n ; analoga affermazione vale per il sottoinsieme
delle matrici triangolari inferiori.
144 Spazi Vettoriali e Sottospazi Vettoriali
S(Rn,n ) = {A 2 Rn,n | tA = A}
A(Rn,n ) = {A 2 Rn,n | tA + A = O}
Osservazione 4.6 Si osservi che l’insieme delle matrici ortogonali (cfr. (2.9)):
O(n) = {A 2 Rn,n | tA A = I}
non è un sottospazio vettoriale di Rn,n , perché non contiene il vettore nullo di Rn,n .
{A 2 Rn,n | det(A) = 0}
{A 2 Rn,n | tr(A) = 0}
{A 2 Rn,n | tr(A) = 2}
non lo è.
W2 = {(x1 , x2 , x3 ) 2 R3 | x1 x3 = 0}.
Esempio 4.19 In V3 , spazio vettoriale reale dei vettori ordinari, riferito ad una base
ortonormale positiva B = (i, j, k), i sottospazi vettoriali:
W1 \ W2 = L(i).
Si ricordi che la notazione L(a) indica l’insieme di tutti i vettori che sono paralleli ad a,
analogamente L(a, b) indica l’insieme dei vettori complanari ad a, b (cfr. Def. 3.5); nel
Paragrafo 4.3 si generalizzerà questa notazione.
Osservazione 4.9 L’unione insiemistica di due sottospazi vettoriali di uno spazio vetto-
riale V non è, in generale, un sottospazio vettoriale di V, come si deduce dagli esempi
prima citati. Infatti si ha:
nell’Esempio 4.18 l’unione W1 [ W2 non è un sottospazio vettoriale di R3 perché, per
esempio, la somma di (1, 2, 5) 2 W1 insieme con (2, 3, 2) 2 W2 non appartiene a
W1 [ W2 ;
nell’Esempio 4.19 il vettore v = (2i + 3j) + (4k) non appartiene a W1 [ W2 , pur essendo
somma di un vettore di W1 e di un vettore di W2 .
146 Spazi Vettoriali e Sottospazi Vettoriali
Esercizio 4.3 In quali casi l’unione di due sottospazi vettoriali di uno spazio vettoriale V
è un sottospazio vettoriale di V ?
W1 + W2 = {x1 + x2 | x1 2 W1 , x2 2 W2 }.
W1 + W2 + . . . + Wk = {x1 + x2 + . . . + xk | xi 2 Wi , i = 1, 2, . . . k}.
Anche in questo caso si può dimostrare una proprietà analoga al Teorema 4.3.
W1 = {(x1 , x2 , 0) 2 R3 | x1 , x2 2 R},
W2 = {(0, 0, x3 ) 2 R3 | x3 2 R}.
Capitolo 4 147
W1 = {(x1 , x2 , 0) 2 R3 | x1 , x2 2 R},
Z2 = {(x1 , 0, x3 ) 2 R3 | x1 , x3 2 R}.
W1 W2
La precedente definizione si estende a più di due sottospazi vettoriali nel modo seguente.
W1 W2 ... Wk
x = x1 + x2 + . . . + xk ,
con xi 2 Wi , i = 1, 2, . . . k .
Come già intuibile dagli Esempi 4.20 e 4.21, il seguente teorema caratterizza la somma
diretta di due sottospazi vettoriali.
W = W1 W2 () W = W1 + W2 e W1 \ W2 = {o}.
x = (x1 + y) + (x2 y)
x = x1 + x2 = y1 + y2 ,
Teorema 4.5 Lo spazio vettoriale Rn,n delle matrici quadrate di ordine n si decompone
nel modo seguente:
L’esempio che segue mostra che il Teorema 4.4 non può essere esteso in modo ovvio al
caso della somma diretta di più di due sottospazi vettoriali.
Esempio 4.22 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), si conside-
rino i seguenti sottospazi vettoriali:
Il teorema (di cui si omette la dimostrazione) che caratterizza la somma diretta di più di
due sottospazi vettoriali mediante le loro intersezioni, è, infatti, il seguente.
W = W1 W2 ... Wk
() W = W1 + W2 + . . . + Wk
ci + . . . + Wk ) = {o}, i = 1, 2, . . . k,
e Wi \ (W1 + W2 + . . . + W
Esercizio 4.4 Avvertenza Questo esercizio è risolto a titolo di esempio per chiarire i
concetti appena esposti. Nel paragrafo successivo verrà introdotto un metodo più rapido
per risolvere problemi analoghi.
W2 = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 + x2 = x1 + x3 = x1 x2 + x3 = 0},
dimostrare che W1 W2 = R4 .
le cui soluzioni, come spiegato nel Paragrafo 1.2, dipendono dal rango della matrice dei
coefficienti: 0 1
1 2 3 1
B 1 1 0 0 C
A=B @ 1
C.
0 1 0 A
1 1 1 0
Si perviene alla tesi provando che un generico vettore (x1 , x2 , x3 , x4 ) 2 R4 si può scri-
vere come somma di un vettore di W1 e di un vettore di W2 , in altri termini dato
(x1 , x2 , x3 , x4 ) esistono opportuni valori di t1 , t2 , t3 , 2 R per cui:
x = x1 v1 + x2 v2 + . . . + xk vk .
L(v1 , v2 , . . . , vk ),
{v1 , v2 , . . . , vk }
Osservazione 4.11 A differenza di ciò che la notazione usata potrebbe far pensare, si
osservi che le combinazioni lineari dei vettori v1 , v2 , . . . , vk non dipendono dall’ordine
in cui si considerano i vettori v1 , v2 , . . . , vk , cioè ad esempio:
L(v1 , v2 , . . . , vk ) = L(v2 , v1 , . . . , vk ).
È consuetudine, infatti, usare le parentesi tonde per indicare questo sottospazio vettoriale
anziché usare la notazione L{v1 , v2 , . . . , vk }, che sarebbe più corretta dal punto di vista
matematico.
Definizione 4.9 Sia V uno spazio vettoriale reale e siano v1 , v2 , . . . , vk vettori qualsiasi
di V. Si dice che un sottospazio vettoriale W di V ammette come sistema di generatori
l’insieme dei vettori {v1 , v2 , . . . , vk } se:
W = L(v1 , v2 , . . . , vk ).
Osservazione 4.12 Come immediata conseguenza del teorema precedente si ottiene an-
che che W = L(v1 , v2 , . . . , vk ) ammette infiniti generatori e quindi ha infiniti sistemi di
generatori.
Definizione 4.10 Uno spazio vettoriale reale V si dice finitamente generato se esistono
m vettori v1 , v2 , . . . , vm di V per cui:
L(v1 , v2 , . . . , vm ) = V.
Analogamente, un sottospazio vettoriale W di uno spazio vettoriale reale V si dice
finitamente generato se esistono k vettori v1 , v2 , . . . , vk tali che:
L(v1 , v2 , . . . , vk ) = W.
Esempio 4.24 Lo spazio vettoriale dei numeri reali può essere generato da un qualsiasi
numero non nullo: R = L(1) = L(35) e quindi è un esempio di spazio vettoriale rea-
le finitamente generato. Analogamente, l’insieme dei numeri complessi C è uno spazio
vettoriale reale finitamente generato in quanto C = L(1, i), dove con i si indica l’u-
nità immaginaria. D’altra parte C è anche uno spazio vettoriale complesso finitamente
generato perché, in questo caso, C = L(1).
Esempio 4.28 Nel Paragrafo 4.5 si dimostra che anche lo spazio vettoriale delle funzioni
reali di variabile reale F(R) descritto nell’Esempio 4.5, non è finitamente generato.
si deve risolvere il sistema lineare omogeneo che definisce W . Come descritto nel
Paragrafo 1.2 si ottengono infinite soluzioni date da:
8
< x1 = 2t
x2 = t
:
x3 = t, t 2 R.
In altri termini, il generico vettore di W è del tipo (2t, t, t) = t(2, 1, 1), t 2 R, ossia
(2, 1, 1) è un generatore di W .
x1 v1 + x2 v2 + . . . + xk vk = o =) x1 = x2 = . . . = xk = 0. (4.1)
Prima di proporre alcuni esempi conviene dimostrare la seguente proprietà, molto facile,
ma utile per riconoscere vettori linearmente indipendenti o linearmente dipendenti.
Teorema 4.9 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi sono li-
nearmente dipendenti se e solo se almeno uno di essi si può esprimere come combinazione
lineare dei rimanenti.
Esempio 4.30 Ogni insieme contenente un solo vettore I = {x} con x 6= o è libero.
Esempio 4.33 Se I è un insieme libero di vettori, allora ogni sottoinsieme non vuoto di
I è libero.
La definizione che segue estende la nozione di base già data nel capitolo precedente nel
caso particolare dello spazio vettoriale V3 (cfr. Def. 3.7).
Definizione 4.12 Sia V uno spazio vettoriale reale, un insieme finito e ordinato di vettori
B = (v1 ,v2 ,. . .,vn ) di V prende il nome di base di V se:
1. B è un insieme libero,
Osservazione 4.16 Si vedrà che sarà fondamentale l’ordine in cui sono considerati i
vettori di una base.
Questa base particolare, molto naturale, prende il nome di base standard o base
canonica di Rn . Per esempio, nel caso particolare di R4 si ha che la quaterna:
(1, 2, 3, 4) si scrive come 1e1 + 2e2 + 3e3 + 4e4 , da cui la giustificazione della
particolare denominazione usata. Sempre in R4 se si considera, invece, la base
B 0 = (f1 , f2 , f3 , f4 ), dove:
si ha:
1 2
(1, 2, 3, 4) =
f1 + f2 + 3f3 + 1f4
2 3
che è una decomposizione dello stesso vettore (1, 2, 3, 4) molto meno naturale della
precedente.
quindi:
✓ ◆
1 2 3
= E11 + 2E12 + 3E13 + 4E21 + 5E22 + 6E23 .
4 5 6
Teorema 4.10 1. Sia B = (v1 , v2 , . . . , vn ) una base dello spazio vettoriale reale V,
allora ogni vettore x di V si decompone in modo unico come:
x = x1 v1 + x2 v2 + . . . + xn vn , (4.2)
con (x1 , x2 , . . . , xn ) 2 Rn .
2. Se {v1 , v2 , . . . , vn } è un insieme di vettori di V tale che ogni vettore x di V si
decomponga in modo unico rispetto a tali vettori come in (4.2), allora l’insieme
{v1 , v2 , . . . , vn } è una base di V.
La dimostrazione è lasciata per esercizio.
Dalla definizione di base di uno spazio vettoriale e dal Teorema 4.10 emergono in modo
naturale le seguenti domande:
Nel caso particolare degli spazi vettoriali dei vettori ordinari V3 , V2 e V1 , aiutati dalla
visualizzazione geometrica, si conoscono già le risposte alle precedenti domande (cfr.
Teor. 3.4); i teoremi che seguono permettono di dare analoghe risposte nel caso particolare
degli spazi vettoriali finitamente generati, quali, ad esempio Rn e lo spazio delle matrici
Rm,n (cfr. Es. 4.35). Si enunciano ora uno di seguito all’altro i teoremi che caratterizzano
la struttura degli spazi vettoriali, anteponendo il commento e le loro conseguenze alle loro
dimostrazioni.
Teorema 4.11 – Teorema di esistenza di una base – Sia V uno spazio vettoriale rea-
le finitamente generato e sia G = {w1 , w2 , . . . , wm } un sistema di generatori di V.
L’insieme G contiene almeno una base di V.
Osservazione 4.19 Dal teorema precedente e dall’Osservazione 4.12 segue che, essendo
possibile ottenere infiniti sistemi di generatori di V a partire da G , esistono infinite basi
in uno spazio vettoriale finitamente generato.
Teorema 4.12 – Lemma di Steinitz – Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio
vettoriale reale V e sia I = {u1 , u2 , . . . , up } un insieme libero di V, allora p n.
Teorema 4.13 – Teorema della dimensione – Tutte le basi di uno spazio vettoriale reale
V finitamente generato hanno lo stesso numero di vettori.
Capitolo 4 159
Definizione 4.14 In uno spazio vettoriale reale V finitamente generato il numero dei
vettori appartenenti ad una base prende il nome di dimensione di V e si indica con
dim(V ).
Teorema 4.14 Sia W un sottospazio vettoriale di uno spazio vettoriale reale V, allora:
2. dim(W) dim(V ).
3. dim(W) = dim(V ) () W = V.
• dim(Rn ) = n.
• dim(Rm,n ) = mn.
• dim(Rn [x]) = n + 1.
di I2 , allora I2 è una base di V (quindi segue la tesi), oppure esiste almeno un vettore di
G che non è combinazione lineare dei vettori di I2 , si suppone che sia w3 ; in questo caso
si procede con il:
terzo passo: si considera l’insieme libero (cfr. Lemma 4.1) I3 = {w1 , w2 , w3 } e si
procede come nel secondo passo.
Il procedimento termina dopo un numero finito di passi, al più m. Si è cosı̀ costruita
una base di V a partire dal primo vettore w1 di G . È evidente che procedendo con lo
stesso metodo a partire da un altro vettore di G o da un’altro insieme di generatori di V
si ottengono infinite basi.
degli elementi di G . Sostituendo in (4.5) le matrici (4.3) e (4.4) prima indicate, si perviene
al sistema lineare nelle incognite i , i = 1, 2, . . . , 7:
8
< 1+ 6 + 5 7 = a12 ,
5
2 1+ 2+2 5 6 + 7 = a13 ,
:
3 1 2 + 5 3 + 4 6 2 7 = a23 ,
Osservazione 4.21 Si osservi l’importanza dell’ordine dei vettori della base che si riflette
sull’ordine delle componenti dei vettori. In altri termini, mentre lo spazio vettoriale V si
può scrivere indifferentemente come:
V = L(v1 , v2 , . . . , vn ) = L(v2 , v1 , . . . , vn ),
Esempio 4.37 1. A partire dalla scrittura di una matrice diagonale si verifica facil-
mente che dim(D(Rn,n )) è n. Una sua base è formata ordinatamente dalle matrici
Eii , i = 1, 2, . . . , n, definite nell’Esempio 4.35.
n(n + 1)
dim(S(Rn,n )) =
2
e una sua base è:
00 10 1 0 1
1 0 ... 0 0 1 ... 0 0 0 ... 1
BB 0 0 ... 0 CB 1 0 ... 0 C B 0 0 ... 0 C
BB CB C B C
BB .. .. .. .. C, B .... . . .. C, . . . , B .... . . .. C,
@@ . . . . A@ . . . . A @ . . . . A
0 0 ... 0 0 0 ... 0 1 0 ... 0
0 1 0 10 11
0 0 ... 0 0 ... 0 0 0 0 ... 0
B 0 1 ... 0 C B .. . . .... C B 0 0 ... 0 CC
.
C, . . . , B . . . C
B C B B CC
B .... . . .. C, B .... . . .. CC.
@ . . . .A @ 0 ... 0 1 A@ . . . . AA
0 0 ... 0 0 ... 1 0 0 0 ... 1
n(n 1)
dim(A(Rn,n )) =
2
e una sua base è:
00 10 1 0 11
0 1 0 ... 0 0 0 1 ... 0 0 0 ... 0 0
BB 1 0 0 . . . 0 CB 0 0 0 ... 0 C B 0 0 ... 0 CC
0
BB CB C B CC
BB 0 0 0 . . . 0 CB 1 0 0 ... 0 C B .... . . .. ..
CC
BB C, B C, . . . , B . . . . CC.
.
BB .. .. .. . . .. CB .. .. .. .. .. C B CC
@@ . . . . . A@ . . . . . A @ 0 0 ... 0 1 AA
0 0 0 ... 0 0 0 0 ... 0 0 0 ... 1 0
Si conclude con l’enunciato di un teorema che sarà molto usato nel testo.
Teorema 4.15 – Teorema del completamento della base – Sia V uno spazio vettoriale
di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato l’insieme libero:
I = {a1 , a2 , . . . , ak }, k n,
esiste una base B 0 di V contenente tutti i vettori di I e n k vettori di B.
Esercizio 4.6 Nel sottospazio vettoriale S(R3,3 ) delle matrici simmetriche di ordine 3
completare l’insieme libero I = {I1 , I2 , I3 }, con:
0 1 0 1 0 1
1 2 0 1 0 0 0 1 1
I1 = @ A
2 0 0 , I2 = @ 0 A
1 0 , I3 = @ 1 0 0 A
0 0 0 0 0 1 1 0 0
allora si possono riscrivere (per comodità di calcolo) i vettori di I tramite le loro compo-
nenti rispetto alla base B. Si ha:
G = {I1 , I2 , I3 , A1 , A2 , A3 , A4 , A5 , A6 }
Nel caso di uno spazio vettoriale di dimensione n, come corollario dei teoremi precedenti
si può agevolmente dimostrare il seguente teorema.
v1 , v2 , . . . , vn sono generatori di V.
Osservazione 4.22 Mediante il Teorema del Completamento della Base (cfr. Teor. 4.15)
si può agevolmente determinare un sottospazio vettoriale supplementare di un sottospazio
vettoriale W di uno spazio vettoriale V. Se dim(V ) = n e se (a1 , a2 , . . . , ak ) è una
base di W, (k < n), allora si perviene ad un sottospazio vettoriale supplementare di W
completando l’insieme libero (a1 , a2 , . . . , ak ) fino ad ottenere una base di V, data per
esempio da:
(a1 , a2 , . . . , ak , b1 , b2 , . . . , bn k ).
Infatti:
L(a1 , a2 , . . . , ak ) \ L(b1 , b2 , . . . , bn k ) = {o}
e L(b1 , b2 , . . . , bn k ) è un sottospazio vettoriale di V supplementare di W . Un esempio
di quanto osservato sarà trattato nell’Esercizio 4.12.
Alla luce di queste considerazioni, il teorema che segue indica un metodo per determinare
una base dello spazio vettoriale V (o più in generale di un sottospazio vettoriale W di V )
a partire dalle basi dei sottospazi vettoriali in cui V (o W) si decompone.
Teorema 4.17 Si supponga che lo spazio vettoriale reale V sia decomposto nella somma
diretta di k suoi sottospazi vettoriali:
V = W1 W2 ... Wk ,
Capitolo 4 165
allora è possibile formare una base di V mediante l’unione dei vettori appartenenti ad
una base di ciascuno dei sottospazi vettoriali Wi , i = 1, 2, . . . , k .
Osservazione 4.23 Come immediata conseguenza del Corollario 4.1 segue che, dato un
sottospazio vettoriale W di V con dim(V ) = n e dim(W) = k , k < n, un suo supple-
mentare W 0 (tale che W W 0 = V ) ha dimensione n k . Una base di W 0 può essere
formata dai vettori che si aggiungono ad una base di W per ottenere una base di V (cfr.
Oss. 4.22). Si ottiene, quindi, che esistono infiniti sottospazi vettoriali supplementari di
W , supponendo ovviamente che W = 6 V eW= 6 {o}.
Nel caso della somma di due sottospazi vettoriali è utile conoscere la formula che mette in
relazione le loro dimensioni con le dimensioni della loro intersezione e della loro somma,
per la dimostrazione si veda il Paragrafo 4.5.
( 5, 2, 1, 3, 2) = (0, 2, 1, 0, 0) + ( 5, 0, 0, 3, 2).
W2 = D(R3,3 ),
80 1 9
< x1 0 0 =
W3 = @ x2 x3 0 A 2 R3,3 | 2x1 x3 = x1 + 3x3 = 0 .
: ;
x4 x5 0
Soluzione Si può verificare direttamente che ogni vettore di R3,3 si decompone in mo-
do unico come somma di un vettore di W1 insieme con un vettore di W2 insieme con un
vettore di W3 .
Esercizio 4.11 In R3 [x] si consideri il sottospazio vettoriale W dei polinomi aventi una
radice uguale a 2.
1. Decomporre W nella somma diretta di due sottospazi vettoriali W1 e W2 .
2. Scrivere il polinomio 4 2x + x3 di W come somma di un polinomio di W1 e
di un polinomio di W2 .
H = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 + x2 + x4 = x3 = 0},
Osservazione 4.24 Nel paragrafo seguente si introdurrà il concetto di rango di una ma-
trice che permetterà di risolvere gli esercizi proposti in questo paragrafo in un altro modo,
a volte più rapido.
Sia A = (aij ) 2 Rm,n una matrice di m righe e n colonne, le cui righe sono date dai
vettori:
R1 = (a11 , a12 , . . . , a1n ),
R2 = (a21 , a22 , . . . , a2n ),
..
.
Rm = (am1 , am2 , . . . , amn ).
I vettori Ri 2 Rn , i = 1, 2, . . . , m, prendono il nome di vettori riga della matrice A ed il
sottospazio vettoriale:
R(A) = L(R1 , R2 , . . . , Rm )
C(A) = L(C1 , C2 , . . . , Cn )
Osservazione 4.25 1. Per una matrice A 2 Rm,n lo spazio vettoriale delle righe R(A)
è un sottospazio vettoriale di Rn , mentre lo spazio vettoriale delle colonne C(A)
è un sottospazio vettoriale di Rm , quindi R(A) e C(A) sono, in generale, spazi
vettoriali diversi. Se m 6= n, R(A) e C(A) sono sempre spazi vettoriali diversi.
2. Se A è una matrice qualsiasi di Rm,n , allora R(tA) = C(A), C(tA) = R(A), dove
t
A indica la trasposta della matrice A.
Se A 2 Rn,n è una matrice simmetrica, allora R(A) = C(A).
Se A 2 Rn,n è una matrice antisimmetrica, allora R( A) = R(A) = C(A).
Teorema 4.19 – Teorema del rango – Per ogni matrice A 2 Rm,n si ha:
dim(R(A)) = dim(C(A)).
Nel Paragrafo 4.5 si propone una dimostrazione di questo teorema, ma si dovrà aspettare
il Capitolo 6 per una dimostrazione alternativa, molto più sintetica.
Definizione 4.15 Si definisce rango di una matrice A 2 Rm,n (e lo si indica con rank(A))
la dimensione dello spazio vettoriale delle righe (o delle colonne) di A:
Le proprietà che seguono sono volte a dimostrare che la definizione di rango di una ma-
trice, appena enunciata, coincide con la Definizione 1.10 data nel Capitolo 1. Si procede
come segue.
1. Sia A una matrice ridotta per righe, si dimostrerà che il numero delle righe non
nulle di A coincide con la dimensione dello spazio vettoriale delle righe di A.
2. Si dimostrerà, inoltre, che il processo di riduzione di una matrice per righe descritto
nel Paragrafo 1.2 lascia invariata la dimensione dello spazio vettoriale delle righe
di A, pur cambiando la matrice A.
3. A corretta conclusione, si devono aggiungere la definizione di matrice ridotta per
colonne e il procedimento di riduzione per colonne.
Teorema 4.20 Se A 2 Rm,n è una matrice ridotta per righe, la Definizione 1.9 del Ca-
pitolo 1 coincide con la Definizione 4.15. Pertanto la definizione di rango di una matrice
è formulata in modo corretto.
Dimostrazione Poiché ogni matrice ridotta per righe può essere trasformata in una
matrice triangolare superiore mediante l’applicazione delle tre operazioni di riduzione
sulle righe senza alterarne il numero di righe non nulle (cfr. la dimostrazione del Teorema
2.13), si può supporre che una matrice ridotta per righe A 2 Rm,n con k righe non nulle
sia del tipo seguente: 0 1
a11 a12 . . . . . . . . . a1n
B 0 a22 . . . . . . . . . a2n C
B . .. C
B . ... C
B . . C
B C
B 0 . . . 0 akk . . . akn C,
B C
B 0 ... 0 ... 0 0 C
B . .. .. .. C
@ .. . . . A
0 ... 0 ... 0 0
con a11 a22 . . . akk 6= 0. Si tratta ora di dimostrare che il numero k delle righe non nulle di
A coincide con dim(R(A)), cioè che le prime k righe di A sono linearmente indipendenti
in Rn . Il risultato è quasi ovvio ed è la conseguenza della particolare posizione delle
componenti nulle nelle righe di A. Infatti, dall’equazione:
1 R1 + 2 R2 + ... + k Rk =o
Capitolo 4 171
1 a11 = 0;
ma a11 6= 0 allora 1 = 0. Sostituendo questo risultato nella seconda equazione:
1 a12 + 2 a22 =0
si ottiene 2 = 0 e cosı̀ via, da cui segue che le righe non nulle della matrice A ridotta
per righe sono linearmente indipendenti.
Teorema 4.21 Le operazioni consentite per ridurre una matrice A 2 Rm,n per righe non
cambiano la dimensione dello spazio vettoriale delle righe di A.
1. Ri ! Rj ;
2. Ri ! Ri , 2 R, 6= 0;
3. Ri ! Ri + Rj , 2 R, i 6= j.
Definizione 4.16 Una matrice A si dice ridotta per colonne se in ogni sua colonna non
nulla esiste un elemento non nullo a destra del quale ci sono tutti zeri.
5 6 7
172 Spazi Vettoriali e Sottospazi Vettoriali
Teorema 4.22 Il rango di una matrice A (inteso come la dimensione dello spazio vetto-
riale delle colonne di A) si calcola riducendo la matrice A per colonne, in altri termini
eseguendo sulle colonne, un numero finito di volte, le operazioni seguenti:
1. Ci ! Cj : scambiare tra di loro due colonne;
2. Ci ! Ci , 2 R, 6= 0 : moltiplicare tutti gli elementi di una colonna per un
numero reale non nullo;
3. Ci ! Ci + Cj , 2 R, i 6= j : sostituire ad una colonna una combinazione
lineare di se stessa con una colonna parallela
e poi contando il numero di colonne non nulle della matrice ridotta per colonne ottenuta.
Osservazione 4.27 Riducendo per righe una matrice A non cambia lo spazio vettoriale
R(A), anche se si ottengono matrici ridotte per righe tra di loro diverse.
Riducendo per righe una matrice A non cambia dim(C(A)) ma cambia invece lo spa-
zio vettoriale C(A). Analogamente, riducendo per colonne la matrice A non cambia
dim(R(A)) ma cambia R(A). In particolare, si osservi che riducendo per colonne la
matrice completa di una sistema lineare non si ottiene un sistema lineare equivalente al
sistema lineare dato.
Esistono dei casi in cui le matrici ridotte per righe e per colonne a cui si perviene dalla
stessa matrice A coincidono?
Dimostrazione Segue dalla definizione di rango di una matrice e dalla risoluzione dei
sistemi lineari omogenei mediante il metodo di riduzione di Gauss. Si risolve, infatti, il
sistema lineare omogeneo AX = O riducendo per righe la matrice A. Supponendo che
rank(A) = k , non si perde in generalità (cfr. la dimostrazione del Teorema 2.13) se si
assume di pervenire al seguente sistema lineare omogeneo ridotto:
0 10 1 0 1
a11 a12 . . . . . . . . . a1n x1 0
B 0 a22 . . . . . . . . . a2n C B x2 C B 0 C
B .. .. .. .. C B C B C
B ... C B .. C B .. C
B . . . . CB . C B . C
B CB C B C
B 0 ... 0 akk . . . akn C B xk C=B 0 C, aii 6= 0, i = 1, 2, . . . , k.
B CB C B C
B 0 ... 0 ... 0 0 C B xk+1 C B 0 C
B .. .. .. .. C B . C B .. C
@ . . . . A @ .. A @ . A
0 ... 0 ... 0 0 xn 0
e cosı̀ via per tutte le altre incognite. Di conseguenza il nullspace N (A) risulta essere:
+...
dove i numeri reali bij indicano i coefficienti ottenuti dalla risoluzione del sistema lineare
omogeneo, per esempio:
akk+1
bk1 = .
akk
Segue subito che dim(N (A)) = n k.
174 Spazi Vettoriali e Sottospazi Vettoriali
Anche se la dimostrazione del teorema precedente è ovvia, la sua importanza sarà fon-
damentale nel resto del corso. La denominazione nullità deriva, come già osservato in
precedenza, dalla traduzione del termine “nullspace ”che indica in inglese il sottospazio
vettoriale N (A).
La formulazione del Teorema di Nullità più Rango appena presentato è quella classica,
che viene usata per le sue svariate applicazioni. In realtà l’enunciato completo del teorema
è il seguente.
Osservazione 4.28 È fondamentale osservare che, anche se fosse possibile, come nel
caso delle matrici quadrate, il teorema precedente non vale se si invertono i ruoli di R(A)
e di C(A). Nel Capitolo 6 si presenterà un esempio di matrice in cui C(A) ✓ N (A) (cfr.
Oss. 6.10).
Capitolo 4 175
Osservazione 4.29 Una delle applicazioni della definizione di rango di una matrice è la
possibilità di risolvere in modo più agevole alcuni degli esercizi già proposti. Sia, infatti,
B = (v1 , v2 , . . . , vn ) una base di V e siano w1 , w2 , . . . , wk i generatori di un sottospazio
vettoriale W di V. Per trovare una base di W si può procedere considerando la matrice
A 2 Rk,n che ha come vettori riga i vettori wi , i = 1, 2, . . . , k, scritti in componenti
rispetto alla base B. Riducendo la matrice A per righe, segue che i vettori riga non nulli,
della matrice ridotta per righe cosı̀ ottenuta, costituiscono una base di W e la dimensione
di W coincide con il rango della matrice A. Attenzione al fatto che se si riduce la matrice
A per colonne i vettori riga della matrice ridotta per colonne non determinano più una
base di W . Analogamente se W1 e W2 sono due sottospazi vettoriali di V di cui si
conoscono le componenti dei vettori delle loro basi, per determinare la dimensione e una
base di W1 +W2 si può procedere scrivendo la matrice B che ha come vettori riga i vettori
delle basi di W1 e di W2 , scritti in componenti ripetto ad una base di V. Riducendo la
matrice B per righe si ha che il rango di B coincide con la dimensione di W1 + W2 e i
vettori riga non nulli della matrice ridotta per righe che si ottiene costituiscono una base
di W1 + W2 .
Esercizio 4.14 Determinare una base del sottospazio vettoriale H di R4 cosı̀ definito:
H = L((1, 2, 0, 1), (2, 4, 1, 1), (0, 0, 1, 1), (1, 2, 4, 5), (1, 1, 0, 5)).
0 1 0 1
1 2 0 1 1 2 0 1
B 0 3 0 4 C ! B 0 3 0 4 C
! B C B C
B 0 0 1 1 C R4 ! R4 4R3 B 0 0 1 1 C,
R2 $ R5 B C B C
@ 0 0 4 4 A R5 ! R5 + R3 @ 0 0 0 0 A
0 0 1 1 0 0 0 0
da cui segue che rank(A) = 3, quindi dim(H) = 3 e una sua base è data dalle prime tre
righe della matrice ridotta per righe ottenuta da A, cioè dai vettori:
K = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 x2 = x1 x3 = 0},
1 z1 + 2 z2 + 3 z3 = µ1 w1 + µ2 w2 , (4.6)
La matrice:
0
P = M B,B = (pij ), i, j = 1, 2, . . . , n,
che è cosı̀ determinata, prende il nome di matrice del cambiamento di base da B a B 0,
0
come precisato nella notazione M B,B . La matrice P è ottenuta ponendo ordinatamente
in colonna le componenti dei vettori della base B 0 rispetto ai vettori della base B. La
ragione della scelta delle colonne è giustificata da una maggiore semplicità della formula
finale (4.9) che si ottiene. P è una matrice quadrata, ad elementi reali, di rango massimo
(rank(P ) = n) e, quindi, per i Teoremi 2.16 e 2.8, P è invertibile e det(P ) 6= 0. Le
equazioni (4.7) si possono scrivere, in notazione matriciale, come:
0 1 0 1
v10 v1
B v0 C B v2 C
B 2 C B C
B .. C = tP B .. C. (4.8)
@ . A @ . A
vn0 vn
Considerato un qualsiasi vettore x 2 V, il problema del cambiamento di base consiste
nel determinare le relazioni che intercorrono tra le componenti di x rispetto alle due basi
introdotte. Si supponga, quindi, che:
X = P X 0, (4.9)
Soluzione 1. Sia:
✓✓ ◆ ✓ ◆ ✓ ◆◆
1 0 0 1 0 0
B= , ,
0 0 1 0 0 1
Si verifica che det(P ) = 52, quindi i tre vettori dati formano, effettivamente,
una base di S(R2,2 ).
è il sottospazio vettoriale di R4 :
W = {(x1 , x2 , x3 , x4 ) = k1 a1 + k2 a2 + k3 a3 , k1 , k2 , k3 2 R}
= {(k1 , k2 , k1 + 3k3 , 4k1 + 2k2 + 4k3 ) | k1 , k2 , k3 2 R}.
Teorema 4.25 Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V di dimen-
sione n e siano (x1 , x2 , . . . , xn ) le componenti di un qualsiasi vettore x di V rispetto
alla base B.
Come immediata conseguenza del secondo punto del teorema precedente si ottiene il
seguente corollario.
Corollario 4.2 Un sottospazio vettoriale W, di dimensione k, di uno spazio vettoriale
V, di dimensione n, è l’intersezione di n k iperpiani vettoriali di V.
Esempio 4.40 In R4 , l’equazione lineare omogenea:
x1 + x2 + 3x3 + 2x4 = 0,
rispetto alla base canonica B = (e1 , e2 , e3 , e4 ) di R4 , individua l’iperpiano vettoriale
generato, ad esempio, dai vettori:
( 1, 1, 0, 0), ( 3, 0, 1, 0), ( 2, 0, 0, 1).
Esercizio 4.18 Qual è l’equazione dell’iperpiano vettoriale considerato nell’Esempio 4.39
rispetto alla base canonica di R4 ?
Soluzione I vettori a1 , a2 , a3 , x = (x1 , x2 , x3 , x4 ) appartengono a W se e solo se sono
linearmente dipendenti, ossia se la matrice quadrata, di ordine 4, le cui righe sono le
componenti dei quattro vettori, ha determinante nullo. L’equazione richiesta è:
1 0 1 4
0 1 1 2
= 0.
0 0 3 4
x1 x2 x3 x4
La motivazione dell’ultimo passaggio è lasciata al Lettore.
Esempio 4.41 Nell’Esercizio 4.11 il sottospazio vettoriale W dei polinomi divisibili per
2 in R3 [x] è un iperpiano vettoriale, la cui equazione lineare omogenea nelle componenti
(a0 , a1 , a2 , a3 ) di un polinomio p(x) = a0 + a1 x + a2 x2 + a3 x3 2 R3 [x] rispetto alla base
B = (1, x, x2 , x3 ) è data da p(2) = a0 + 2a1 + 4a2 + 8a3 = 0.
Esempio 4.42 In Rn,n il sottospazio vettoriale:
W = {A 2 Rn,n | tr(A) = 0},
dove tr(A) indica la traccia della matrice A, è un iperpiano vettoriale di Rn,n .
182 Spazi Vettoriali e Sottospazi Vettoriali
Soluzione 1. H = { 1 a1 + 2 a2 + 3 a3 | 1, 2, 3 2 R}
= {( 1 + 3, 1 + 2 + 3 3 , 0, 2 + 2 3) | 1, 2, 3 2 R}.
1 =2 t, 2 =3 2t, 3 = t, t 2 R.
sono sottospazi vettoriali di R2,2 e trovare una base per ciascuno di essi.
Capitolo 4 183
3. Data la matrice: ✓ ◆
0 h 2
C= , h 2 R,
0 h 3
A( 1 X1 + 2 X2 ) = ( 1 X1 + 2 X2 )A.
2. Conviene, in generale, iniziare con il calcolo della somma dei due sottospazi vetto-
riali. Riducendo per righe la matrice quadrata di ordine 4 che si ottiene ponendo in
riga le componenti dei vettori di B e di C si ha che il rango di tale matrice è 3 e che
una base di F + G è:
✓✓ ◆✓ ◆✓ ◆◆
1 0 0 3 0 0
D= , , .
0 1 0 2 4 6
1 0 0 1
0 3 0 2
= 0,
0 0 4 6
0 h 2 0 h 3
C = C1 + C2
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
12 9 1 0 1 3 0 9
= 1 + 2 + µ1 + µ2 ,
4 0 0 1 0 1 4 0
Esercizio 4.21 1. Verificare che il campo dei numeri reali R dotato delle seguenti
operazioni:
186 Spazi Vettoriali e Sottospazi Vettoriali
p
x ⌃ y = 3px3 + y 3 ,
x = 3 x, 2 R, x, y 2 R,
( + µ) x=( x) 4 (µ x),
infatti: p
( + µ) x= + µ x,
mentre:
p qp
p p
( x) 4 (µ x) = x 4 µ x = 3 ( )3 x3 + ( µ)3 x3
qp
p
= 3 ( )3 + ( µ)3 x.
Esercizio 4.22 Si verifichi che lo spazio vettoriale F(R) delle funzioni reali di variabile
reale descritto nell’Esempio 4.5 non è finitamente generato.
X genera F(S, R), infatti per ogni f 2 F(S, R), f = ⌃s2S f (s) s . Si controlla fa-
cilmente che X è un insieme libero. È evidente che con questo tipo di ragionamento si
perviene ad un sistema di generatori di F(R) formato da infiniti elementi.
(x + x1 ) + x2 = o + x2 = x2 ,
ma anche:
(x + x1 ) + x2 = x + (x1 + x2 ) = x + (x2 + x1 ) = (x + x2 ) + x1 = x1 ,
da cui l’assurdo.
0 x = (0 + 0)x = 0 x + 0 x,
o = (o + o) = o + o,
segue la tesi.
5. La tesi consiste nel provare che x + ( 1)x = o, infatti:
1x + ( 1)x = (1 1)x = 0 x = o.
C = (a1 , . . . , ak , bk+1 , . . . , bl )
di W1 e una base:
D = (a1 , . . . , ak , ck+1 , . . . , cp )
di W2 . La tesi consiste, allora, nel dimostrare che:
u1 = 1 v1 + 2 v2 + ... + n vn (4.15)
si ricava:
1 1 1
v1 = 1 u1 1 2 v2 ... 1 n vn .
In altri termini v1 2 L(u1 ,v2, . . . ,vn ). Si vuole dimostrare che l’insieme {u1 ,v2 ,. . . ,vn }
è una base di V. Si inizia con il provare che si tratta di un sistema di generatori di V. Da
(4.15) segue che, per ogni x 2 V, si ha:
x = x1 v1 + x2 v2 + . . . + xn vn
= x1 ( 1 1 u1 1
1
2 v2 ... 1
1
n vn ) + x2 v2 + . . . + xn vn
= µ1 u1 + µ2 v2 + . . . + µn vn
da cui la tesi. L’insieme {v2 , v3 , . . . , vn } è libero essendo un sottoinsieme non vuoto
di B (cfr. Es. 4.33). Il vettore u1 non appartiene a L(v2 , v3 , . . . , vn ), quindi l’insieme
{u1 , v2 , . . . , vn } è libero (cfr. Lemma 4.1). Si osservi che, a questo punto, partendo dalla
base B, si è ottenuta una nuova base B1 = (u1 , v2 , . . . , vn ) in cui si è sostituito al primo
vettore di B il primo vettore di I . Si itera questo procedimento, passando a considerare
il vettore u2 e lo si esprime come combinazione lineare dei vettori di B1 . Si ha:
u2 = 1 u1 + 2 v2 + ... + n vn .
Di nuovo, essendo u2 non nullo, esiste almeno una sua componente tra i , i = 1, 2, . . . , n,
non nulla. Non può succedere che sia 1 6= 0 e gli altri i = 0, i = 2, . . . , n, perché i
190 Spazi Vettoriali e Sottospazi Vettoriali
a. si sono esauriti tutti i vettori di I e pertanto sono stati inseriti i vettori di I all’in-
terno di B, da cui segue la tesi;
b. si sono esauriti prima i vettori di B e rimangono ancora dei vettori in I , segue che
I contiene una base di V che è assurdo, essendo I libero.
Esempio 4.43 Nei capitoli precedenti si sono incontrate più volte equazioni vettoriali,
per esempio la definizione di vettori linearmente indipendenti fa uso di un’equazione
vettoriale di cui si chiede che ammetta solo la soluzione nulla.
L(a1 , a2 , . . . , am , b) ✓ L(a1 , a2 , . . . , am ).
Per ipotesi esiste una m–upla di numeri reali (x01 , x02 , . . . , x0m ) tale che:
b. Dal Teorema 4.11 segue che esistono k vettori tra a1 , a2 , . . . , am che formano una
base di L(a1 , a2 , . . . , am ). Si supponga che siano i primi k (in caso contrario si rior-
dinano i vettori in modo da ottenere questo risultato), quindi L(a1 , a2 , . . . , ak ) =
L(a1 , a2 , . . . , am ), ma per ipotesi si ha anche che:
Osservazione 4.33 Il Lettore verifichi per esercizio (usando la definizione di rango di una
matrice) che il Teorema di Rouché–Capelli appena dimostrato coincide con il Teorema di
Rouché–Capelli 1.2 enunciato nel Paragrafo 1.2.
dim(R(A)) = dim(C(A)).
Soluzione Sia:
0 1
a11 a12 . . . a1n
B a21 a22 . . . a2n C
B C
A=B .. .. .. .. C 2 Rm,n .
@ . . . . A
am1 am2 . . . amn
R(A) = L(R1 , R2 , . . . , Rm ) ✓ Rn è lo spazio vettoriale delle righe di A, dove:
x1 C1 + x2 C2 + . . . + xn Cn = o,
(o 2 Rm ) le cui soluzioni dipendono da k vettori di C(A) linearmente indipendenti, dove
k = dim(C(A)), (cfr. Teor. 4.26). Essendo h = dim(R(A)), si supponga che le prime
h righe di A siano linearmente indipendenti, questa non è un’ipotesi restrittiva perché
in caso contrario si può effettuare un cambiamento dell’ordine in cui sono considerate le
righe. Si supponga, quindi, che l’insieme {R1 , R2 , . . . , Rh } sia libero. Dalla Definizione
1.6 e dal Teorema 1.1 segue che il sistema lineare (4.17) è equivalente al sistema lineare
omogeneo: 8
>
> a11 x1 + a12 x2 + . . . + a1n xn = 0
>
< a21 x1 + a22 x2 + . . . + a2n xn = 0
.. (4.18)
>
> .
>
: a x + a x + ... + a x = 0
h1 1 h2 2 hn n
x1 a1 + x2 a2 + . . . + xn an = o,
dove:
Dal fatto che i sistemi lineari (4.17) e (4.18) sono equivalenti segue:
dim(L(a1 , a2 , . . . , an )) = dim(C(A)) = k
✓ ◆
a1 b 1 + a2 b 3 a1 b 2 + a2 b 4
=
a3 b 1 + a4 b 3 a3 b 2 + a4 b 4
✓ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ◆
a1 a2 a1 a2
= b1 + b3 b2 + b4
a3 a4 a3 a4
0 1
a1 b1 b2 + a2 b3 b4
= @ A.
a3 b1 b2 + a4 b3 b4
Di conseguenza si ha:
e, quindi:
rank(A1 A2 ) rank(A1 ), rank(A1 A2 ) rank(A2 )
da cui la tesi. Il caso del prodotto di n matrici si ottiene iterando il risultato appena
ottenuto.
Capitolo 4 195
se h 2
/ { 2, 14} non esistono soluzioni;
✓ ◆
8 + 3h h 8+h
se h = 2 o h = 14, la soluzione è x1 = , x2 = , x3 = .
4+h 4+h 4+h
2 1 0 4
3 2 4 h
= h2 12h 28,
5 3 h 1
14 8 h 1
colonne della matrice e la definizione di rango di una matrice (cfr. Def. 2.13) data tramite
l’uso dei minori. A questo proposito si ricordano i fatti seguenti.
Sia A una matrice quadrata di ordine n. Come conseguenza della Definizione 4.15 di
rango di A come la dimensione dello spazio vettoriale delle righe R(A) (o dello spazio
vettoriale delle colonne C(A)) e del Teorema di Nullità più Rango (cfr. Teor. 4.24) si ha
l’equivalenza tra le seguenti condizioni:
a. rank(A) < n;
e. det(A) = 0.
In generale nel caso di una matrice A 2 Rm,n , non necessariamente quadrata, si può
provare il seguente teorema.
1. rank(A) = r;
1. =) 2. =) 3. =) 1.
L’equivalenza tra le due definizioni di rango (cfr. Def. 4.15 e Def. 2.13) è quindi una
semplice conseguenza del teorema precedente.
Analogamente al caso reale, si hanno i due esempi fondamentali seguenti di spazi vetto-
riali complessi (cfr. Es. 4.3 e 4.2).
Esempio 4.45 Più in generale, se si indica con Cm,n l’insieme delle matrici con m righe
e n colonne ad elementi in C e si introducono le operazioni di somma di due matrici e di
prodotto di un numero complesso per una matrice come nel caso reale, è facile verificare
che Cm,n è uno spazio vettoriale complesso. Il vettore nullo di Cm,n è la matrice nulla.
Lo spazio vettoriale Cm,n , come spazio vettoriale complesso, ha dimensione mn ed una
sua base è data dalle mn matrici Eij aventi tutti gli elementi uguali a zero ad eccezione
di quello di posto ij che vale 1. Tale base è chiamata base canonica di Cm,n .
Esercizio 4.29 Determinare una base e la dimensione di Cm,n , pensato come spazio
vettoriale reale.
Soluzione Ogni matrice Z = (zhk ) ad elementi complessi si può scrivere come somma
di due matrici reali A = (ahk ) e B = (bhk ) dello stesso ordine:
Z = A + iB
ottenute, in modo naturale, dalla scrittura di ogni elemento Z come zhk = ahk + ibhk .
È evidente, quindi, che, come spazio vettoriale su R, dim(Cm,n ) = 2mn. Si lascia per
esercizio la determinazione di una sua base.
1. A + B = A + B, A, B 2 Cm,n ;
2. A= A, 2 C, A 2 Cm,n ;
3. AB = A B, A 2 Cm,n , B 2 Cn,k ;
4. t
A = tA, A 2 Cm,n ;
Capitolo 4 199
Si introducono ora due sottoinsiemi dello spazio vettoriale delle matrici quadrate com-
plesse Cn,n , che sono l’analogo, nel caso di Rn,n , del sottospazio vettoriale delle matrici
simmetriche S(Rn,n ) e di quello delle matrici antisimmetriche A(Rn,n ) (cfr. Es. 4.15 e
4.16). Precisamente, si definiscono l’insieme delle matrici hermitiane:
H(Cn,n ) = {A 2 Cn,n | tA = A}
Esercizio 4.30 Si verifichi che l’insieme delle matrici hermitiane H(Cn,n ), con le opera-
zioni di somma e prodotto per un numero reale, è uno spazio vettoriale su R di dimensione
n2 . Inoltre, si provi invece che H(Cn,n ), con le operazioni di somma e prodotto per un
numero complesso, non è un sottospazio vettoriale complesso di Cn,n .
in quanto = .
200 Spazi Vettoriali e Sottospazi Vettoriali
È evidente che questa proprietà è falsa se 2 C, quindi H(Cn,n ) è uno spazio vet-
toriale reale ed è un sottospazio vettoriale reale di Cn,n , inteso come spazio vettoriale
reale, ma non è un sottospazio vettoriale complesso di Cn,n inteso come spazio vettoriale
complesso.
Esercizio 4.31 Si verifichi che l’insieme delle matrici anti-hermitiane AH(Cn,n ), con le
operazioni di somma e prodotto per un numero reale, è uno spazio vettoriale su R di
dimensione n2 . Inoltre, si provi invece che AH(Cn,n ), con le operazioni di somma e
prodotto per un numero complesso, non è un sottospazio vettoriale complesso di Cn,n ..
È facile verificare, a partire dalla definizione, che una matrice anti-hermitiana A è del
tipo:
0 1
ib11 a12 + ib12 . . . a1n + ib1n
B C
B C
B a12 + ib12 ib22 . . . a2n + ib2n C
B C
B C
A=B C,
B .. .. . . .. C
B . . . . C
B C
@ A
a1n + ib1n a2n + ib2n . . . ibnn
dove ahk , bhk , h, k = 1, 2, . . . , n sono numeri reali. È quindi un esercizio dimostrare che
una base di AH(Cn,n ) è:
0 0 1 0 10 1
0 1 ... ... 0 0 0 ... ... 1 0 ... ... 0 0
B B 1 0 ... ... 0 C B 0 0 ... ... 0 CB .. . . .. C..
B B C B CB . . . C .
B B .. .. . . .. C B .. .. . . .. CB .. .. .. C ..
B B . . . . C ,...,B . . . . C, B . . . C .
B B .. .. .. .. C B .. .. .. .. CB C
@ @ . . . . A @ . . . . A@ 0 ... ... 0 1 A
0 0 ... ... 0 1 0 ... ... 0 0 ... ... 1 0
0 1 0 10 1
i 0 ... ... 0 0 0 ... ... 0 0 ... ... 0 0
B 0 0 ... ... 0 C B 0 i ... ... 0 CB .. . . .. C ..
B C B CB . . . C .
B .... . . .. C B .... . . .. CB .. .. .. C ..
B . . . . C, . . . B . . . . C, B . . . C, .
B .... .. .. C B .... .. .. CB C
@ . . . . A @ . . . . A@ 0 ... ... 0 0 A
0 0 ... ... 0 0 0 ... ... 0 0 ... ... 0 i
0 1 0 1 0 11
0 i ... ... 0 0 0 ... ... i 0 ... ... 0 0
B i 0 ... ... 0 C B 0 0 ... ... 0 C B .. . . .. CC..
B C B C B . . . CC .
B .... . . .. C B .. .. . . .. C B .. .. .. CC ..
B . . . . C, . . . , B . . . . C, . . . , B . . . CC. .
B .... .. .. C B .. .. .. .. C B CC
@ . . . . A @ . . . . A @ 0 ... ... 0 i AA
0 0 ... ... 0 i 0 ... ... 0 0 ... ... i 0
202 Spazi Vettoriali e Sottospazi Vettoriali
Da questo segue che dim(AH(Cn,n )) = n2 . Si osservi, inoltre, che una matrice A 2 Cn,n
è hermitiana se e solo se iA è anti-hermitiana.
Teorema 4.28 Lo spazio vettoriale reale Cn,n si decompone nel modo seguente:
Dimostrazione Si procede come nella dimostrazione del Teorema 4.5, tenendo conto
che ogni matrice A 2 Cn,n si decompone come:
1 1
A = (A + tA) + (A tA)
2 2
e che (A + tA) 2 H(Cn,n ) e (A tA) 2 AH(Cn,n ).Inoltre, è facile dimostrare,
procedendo per assurdo, che H(Cn,n )\AH(Cn,n ) = {O} con O matrice nulla di Cn,n .
A⇤ = tA,
·:V ⇥V ! R, (x, y) 7 ! x · y
per cui valgano le seguenti proprietà:
1. x · y = y · x, x, y 2 V ;
2. (x + x0 ) · y = x · y + x0 · y, x, x0 , y 2 V ;
3. ( x) · y = (x · y) = x · ( y), 2 R, x, y 2 V ;
4. x · x 0, x 2 V e x · x = 0 () x = o.
Uno spazio vettoriale reale V su cui è definito un prodotto scalare “·” prende il nome di
spazio vettoriale euclideo e si indica, in generale, con la scrittura (V, · ).
Esempio 5.1 Il prodotto scalare x · y = kxkkyk cos(xy) c definito nel Paragrafo 3.7.1
conferisce a V3 la struttura di spazio vettoriale euclideo.
203
204 Spazi Vettoriali Euclidei
X · Y = t X Y. (5.2)
Il prodotto scalare (5.2) prende il nome di prodotto scalare standard su Rn , che viene
cosı̀ dotato della struttura di spazio vettoriale euclideo.
cosı̀ definita:
(x1 , x2 , x3 ) • (y1 , y2 , y3 ) = 3x1 y1 + 4x2 y2 + 5x3 y3 .
Si verifica facilmente che “•” è un altro prodotto scalare su R3 , chiaramente diverso dal
prodotto scalare standard.
cosı̀ definita:
(x1 , x2 , x3 ) ⇤ (y1 , y2 , y3 ) = x1 y1 + x2 y2 x3 y3 .
Si osserva che “⇤” non è un prodotto scalare su R3 , per esempio (0, 0, 1)⇤(0, 0, 1) = 1
che contraddice il quarto assioma di definizione di prodotto scalare.
Capitolo 5 205
? : R3 ⇥ R3 ! R,
cosı̀ definita:
(x1 , x2 , x3 ) ? (y1 , y2 , y3 ) = x1 y1 + x2 y2 .
Anche “?” non è un prodotto scalare su R3 , per esempio (0, 0, 1) ? (0, 0, 1) = 0 che
contraddice il quarto assioma di definizione di prodotto scalare.
Il teorema seguente dimostra che uno spazio vettoriale reale, di dimensione finita, ammet-
te almeno un prodotto scalare.
Teorema 5.1 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Esiste un prodotto scalare su V tale che:
x · y = tX Y, x, y 2 V, (5.3)
dove:
0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X=B .. C, Y =B .. C
@ . A @ . A
xn yn
e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti, rispettivamente di x e y, rispetto
alla base B.
Dal teorema precedente segue che ogni spazio vettoriale reale è uno spazio vettoriale
euclideo e poiché esistono infinite basi su uno spazio vettoriale, esistono anche infiniti
prodotti scalari sullo stesso spazio vettoriale.
· : Rm,n ⇥ Rm,n ! R,
definita da:
A · B = tr(tA B), (5.4)
è un prodotto scalare su Rm,n .
206 Spazi Vettoriali Euclidei
Esempio 5.6 Si consideri nel caso di R2,2 il prodotto scalare definito nell’esempio pre-
cedente. Si vuole calcolarne l’espressione esplicita rispetto a due matrici A = (aij ) e
B = (bij ) di R2,2 . Si ha:
✓✓ ◆✓ ◆◆
a11 a21 b11 b12
A · B = tr = a11 b11 + a12 b12 + a21 b21 + a22 b22 .
a12 a22 b21 b22
Quindi, se si interpretano gli elementi aij e bij delle matrici A e B come le componenti
delle matrici A e B rispetto alla base canonica (Eij ), i, j = 1, 2, di R2,2 , il precedente
prodotto scalare in componenti corrisponde al prodotto scalare standard su R4 . Si può
verificare che la stessa proprietà vale in generale su Rm,n , ovvero che il prodotto scala-
re (5.4) scritto in componenti rispetto alla base canonica (Eij ), i = 1, 2, . . . , m, j =
1, 2, . . . , n, corrisponde al prodotto scalare standard in Rm,n .
p(x) = a0 + a1 x + . . . + an xn , q(x) = b0 + b1 x + . . . + bn xn ,
è un prodotto scalare sullo spazio vettoriale Rn [x] dei polinomi di grado minore o uguale
ad n. La funzione:
⇤ : Rn [x] ⇥ Rn [x] ! R,
definita da: n
X
p(x) ⇤ q(x) = ai b i
i=1
Si osservi che la precedente definizione ha senso perché, per il quarto assioma di defini-
zione del prodotto scalare, x · x 0, per ogni x 2 V.
Esempio 5.7 In V3 , dotato del prodotto scalare standard (cfr. Par. 3.7.1), la norma di un
vettore x coincide con la sua usuale lunghezza.
Esempio 5.8 Nello spazio vettoriale euclideo (R3 , · ), dotato del prodotto scalare stan-
dard, si ha: q
kxk = x21 + x22 + x23 ,
per ogni x = (x1 , x2 , x3 ) 2 R3 .
Esempio 5.10 Nello spazio vettoriale euclideo (Rn , · ), dotato del prodotto scalare stan-
dard, si ha: q
kxk = x21 + x22 + . . . + x2n ,
Esempio 5.12 La norma della matrice A = (aij ) 2 R2,2 , rispetto al prodotto scalare
considerato nell’Esempio 5.6, è:
p q
kAk = tr(tA A) = a211 + a212 + a221 + a222 .
In generale, una funzione a valori reali prende il nome di “norma” solo se definisce un
numero reale positivo che verifica proprietà opportune, precisamente quelle enunciate nel
teorema seguente.
k·k:V ! R, x 7 ! kxk
1. kxk 0, x 2 V e kxk = 0 () x = o.
2. k xk = | | kxk, 2 R, x 2 V.
2. La dimostrazione segue da ( x) · ( x) = 2
kxk2 .
3. Segue da:
k x + yk2 = ( x + y) · ( x + y) = 2
kxk2 + 2 x · y + kyk2 .
per ogni x, y 2 V .
Considerati due vettori non nulli x e y di uno spazio vettoriale euclideo (V, · ), come
conseguenza della disuguaglianza di Cauchy–Schwarz si ha che:
|x · y|
1
kxk kyk
e quindi:
x·y
1 1,
kxk kyk
si può allora enunciare la seguente definizione.
Definizione 5.3 Sia (V, · ) uno spazio vettoriale euclideo. Dati due vettori x, y 2 V non
nulli, si definisce angolo tra i due vettori x e y l’angolo ✓ 2 [0, ⇡] tale che:
x·y
cos ✓ = .
kxk kyk
Osservazione 5.1 1. È necessario osservare che la nozione di angolo ✓ tra due vettori,
appena introdotta, è coerente con la definizione di angolo tra vettori considerata nel
Paragrafo 3.6, cosı̀ come lo è la definizione di ortogonalità che segue. Inoltre, la
nozione di angolo tra due vettori non dipende dall’ordine dei due vettori.
2. Come in V3 , anche nel caso generale di uno spazio vettoriale euclideo V l’angolo
tra il vettore nullo o e un qualunque altro vettore è indeterminato, ossia può essere
un qualsiasi angolo ✓ 2 [0, ⇡].
Definizione 5.4 Due vettori non nulli x e y di uno spazio vettoriale euclideo (V, · ) si
dicono ortogonali o perpendicolari se l’angolo ✓ che essi determinano è ✓ = ⇡/2. Il
vettore nullo si considera ortogonale ad ogni altro vettore di V. Se ✓ = 0 o ✓ = ⇡ i due
vettori si dicono paralleli.
Osservazione 5.2 Fissati due vettori, la misura dell’angolo che essi determinano può
cambiare a seconda del prodotto scalare che si considera. Addirittura, dati due vettori
qualsiasi (non nulli e non paralleli) è possibile definire un prodotto scalare che li renda
ortogonali. Esempi di questo tipo si possono leggere nel Capitolo 8 (cfr. Es. 8.18), per-
ché non si è ancora in grado, in questo capitolo, di costruirli esplicitamente in quanto
non è ancora chiaro come, in generale, sia possibile verificare facilmente che una funzio-
ne qualsiasi di dominio V ⇥ V e codominio R sia o meno un prodotto scalare. È però
una semplice conseguenza della definizione di norma di un vettore il fatto che, per ogni
possibile prodotto scalare definito su uno spazio vettoriale V, il concetto di parallelismo
tra vettori rimane invariato, in altri termini se due vettori sono linearmente dipendenti lo
rimangono per tutti i possibili prodotti scalari che si possano definire su V. Infatti vale il
teorema seguente.
Teorema 5.3 In uno spazio vettoriale euclideo (V, · ) due vettori x e y, che individuano
l’angolo ✓, sono linearmente dipendenti se e solo ✓ = 0 o ✓ = ⇡ , cioè se e solo se:
x · y = ±kxk kyk.
Dimostrazione La proprietà è banalmente vera se uno dei due vettori coincide con il
vettore nullo. Si supponga allora che i due vettori siano entrambi non nulli. Se x e y
sono linearmente dipendenti esiste 2 R tale che y = x e la precedente uguaglianza è
verificata.
Viceversa, si supponga che per una coppia di vettori non nulli x e y valga l’uguaglianza
x · y = kxk kyk (il caso con il segno negativo è analogo), allora si ha:
2 ✓ ◆ ✓ ◆
x y x y x y
= ·
kxk kyk kxk kyk kxk kyk
x·x x·y y·y
= 2 + = 0.
kxk2 kxk kyk kyk2
Dal quarto assioma di definizione del prodotto scalare segue:
kyk
y= x,
kxk
cioè x e y sono linearmente dipendenti.
Definizione 5.5 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Una base
B = (v1 , v2 , . . . , vn ) di V si dice ortogonale se i vettori che la definiscono verificano la
condizione:
vi · vj = 0, i 6= j, i, j = 1, 2, . . . , n.
In altri termini, una base si dice ortogonale se i vettori che la compongono sono a due a
due ortogonali.
1. ei · ej = 0, i 6= j , i, j = 1, 2, . . . , n;
2. kei k = 1, i = 1, 2, . . . , n.
In altri termini, una base si dice ortonormale se è una base ortogonale ed ogni vettore
che la compone ha norma uguale a 1.
Se si scrive l’espressione del prodotto scalare in componenti rispetto ad una base ortonor-
male su uno spazio vettoriale euclideo di dimensione n, si ottiene la stessa espressione
del prodotto scalare standard su Rn , come si può dedurre dal seguente teorema, la cui
dimostrazione è un facile esercizio.
x = x 1 e 1 + x 2 e 2 + . . . + x n en , y = y 1 e1 + y 2 e2 + . . . + y n en
x · y = x1 y1 + x2 y2 + . . . + xn yn = tX Y, (5.8)
dove tX Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B.
x = x 1 e1 + x 2 e 2 + . . . + x n e n , y = y 1 e1 + y 2 e2 + . . . + y n en
di V si ha:
x · y = x1 y1 + x2 y2 + . . . + xn yn = tX Y, (5.9)
dove tX Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B, allora B è una
base ortonormale.
Osservazione 5.3 Si osservi che, in particolare, come conseguenza del teorema prece-
dente si ha che se B = (e1 , e2 , . . . , en ) è una base di uno spazio vettoriale V, allora esiste
su V un prodotto scalare che rende la base B ortonormale. Tale prodotto scalare è in-
fatti semplicemente definito da (5.9). Nell’Esercizio 5.13 si determinerà esplicitamente
l’espressione del prodotto scalare che rende ortonormale una particolare base di R3 .
Capitolo 5 213
Ora che si è in grado di scrivere l’espressione in componenti del prodotto scalare rispetto
ad una base ortonormale rimane da dimostrare l’esistenza di almeno una base ortonormale
rispetto ad ogni prodotto scalare definito su V. A tale scopo è necessario premettere il
seguente lemma.
Lemma 5.1 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Un insieme I di
k vettori di V :
I = {v1 , v2 , . . . , vk }
tale che:
1. k n;
2. vi 6= o, i = 1, 2, . . . , k ;
3. vi · vj = 0, i 6= j , i, j = 1, 2, . . . , k
1 v1 + ... + k vk = o, i 2 R, i = 1, 2, . . . , k
i vi · vi = i kvi k2 = 0.
Teorema 5.5 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n e sia:
B = (v1 , v2 , . . . , vn )
B 0 = (e1 , e2 , . . . , en )
di V tale che:
L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ), k = 1, 2, . . . , n.
214 Spazi Vettoriali Euclidei
Data una base B = (v1 , v2 , . . . , vn ) si procede con un numero finito di passi, nel modo
seguente:
a due a due ortogonali e di norma uguale a 1. Per il Lemma 5.1, i vettori (e1 , e2 , . . . , en )
costituiscono una base di V. Inoltre, ad ogni passo si ha:
L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ), k = 1, 2, . . . , n,
Osservazione 5.4 Se (e1 , e2 , . . . , en ) è una base ortonormale dello spazio vettoriale eu-
clideo (V, · ), ogni vettore v di V si può esprimere come:
v = (v · e1 ) e1 + (v · e2 ) e2 + . . . + (v · en ) en .
Il vettore:
(v · e1 ) e1 + (v · e2 ) e2 + . . . + (v · ek ) ek ,
con k < n, rappresenta, geometricamente, il vettore proiezione ortogonale di v sul sot-
tospazio vettoriale generato dai vettori e1 , e2 , . . . , ek . Si estende cosı̀, in dimensione
maggiore di 3, la situazione geometrica descritta nell’Osservazione 3.16.
Esercizio 5.4 Nello spazio vettoriale euclideo (R4 , · ), dotato del prodotto scalare stan-
dard, è data la base B = (v1 , v2 , v3 , v4 ) con:
v1 = (1, 2, 0, 0), v2 = (0, 1, 1, 0), v3 = (0, 0, 1, 1), v4 = (0, 0, 0, 5).
dato da: r r !
2 1 1 6
e3 = ,p ,p , .
21 42 42 7
In modo analogo, a completamento della base ortonormale richiesta, si ottiene:
✓ ◆
2 1 1 1
e4 = p ,p ,p ,p .
7 7 7 7
Ci si vuole ora occupare dello studio delle proprietà della matrice del cambiamento di
base tra due basi ortonormali definite su uno spazio vettoriale euclideo (V, · ). Vale l’im-
portante teorema che segue, con l’avvertenza che, per capirne la dimostrazione, si deve
far riferimento alle nozioni spiegate nel Paragrafo 4.3.4.
Teorema 5.6 Sia B = (e1 , e2 , . . . , en ) una base ortonormale di uno spazio vettoriale
euclideo V di dimensione n, allora B 0 = (e01 , e02 , . . . , e0n ) è una base ortonormale di V
se e solo se la matrice del cambiamento di base da B a B 0 è una matrice ortogonale di
ordine n.
Osservazione 5.6 Il Teorema 5.6 non è più valido se una delle due basi non è ortonorma-
le. La matrice P del cambiamento di base da una qualunque base B (non ortonormale)
ad una base ortonormale ottenuta da B mediante il processo di ortonormalizzazione di
Gram–Schmidt non è una matrice ortogonale, come si può osservare nell’esempio che
segue.
Capitolo 5 217
x · y = x1 y1 + x2 y2 + x3 y3 ,
x y = 3x1 y1 + 4x2 y2 + x3 y3 ,
dove x = x1 e1 + x2 e2 + x3 e3 , y = y1 e1 + y2 e2 + y3 e3 e B = (e1 , e2 , e3 ) con:
base canonica di R3 . B è una base ortonormale rispetto al prodotto scalare “·” (cfr. Es.
5.14) ma non è ortonormale rispetto al prodotto scalare “ ”. La base B 0 = (v1 , v2 , v3 )
con: ✓ ◆ ✓ ◆
1 1
v1 = p , 0, 0 , v2 = 0, , 0 , v3 = (0, 0, 1)
3 2
è ortonormale rispetto al prodotto scalare “ ”, ma, ovviamente, la matrice:
0 1
1
p 0 0
B 3 C
B C
B C
B 1 C
P =B C
B 0 0 C
B 2 C
@ A
0 0 1
allora:
x y = x01 y10 + x02 y20 + x03 y30
essendo B 0 una base ortonormale rispetto al prodotto scalare “ ”.
La matrice:
0 1
1 4 6
p p
B 5 7 5 7 C
B C
B p C
B C
B 3 5 2 C
Q=B 0 C
B 7 7 C
B C
B C
@ 2 2 3 A
p p
5 7 5 7
è ortogonale, essendo la matrice del cambiamento di base tra due basi ortonormali B e
C , rispetto allo stesso prodotto scalare. Rispetto al prodotto scalare “ ” si ottiene la base
ortonormale C 0 = (v10 , v20 , v30 ) con:
✓ ◆ r r r !
1 2 2 1 21 3
v10 = p , 0, p , v20 = , , ,
7 7 231 2 22 154
r !
2 1 3
v30 = , p ,p .
11 2 22 22
La matrice R che ha sulle colonne le componenti della base C 0 non è una matrice orto-
gonale, mentre lo deve essere la matrice del cambiamento di base da B 0 a C 0 , ottenuta dal
prodotto P 1 R. Si lascia per esercizio sia la verifica dell’ortogonalità dell’ultima matrice
sia la giustificazione del fatto che essa si ottenga proprio nel modo indicato.
Per le matrici ortogonali sono valide le seguenti proprietà, alcune delle quali sono già
state anticipate nel Paragrafo 2.5 e nel corso di questo capitolo.
3. L’inversa P 1
di una matrice ortogonale P è ortogonale.
3. Da tP = P 1
e dal Teorema 2.7 punto 4. segue che (tP ) 1
= (P 1
) 1
da cui la
tesi.
4. Da tP = P 1
segue che t (tP ) tP = P tP = P P 1
= I da cui la tesi.
Osservazione 5.7 1. Non vale il viceversa del punto 6. del teorema precedente. Ad
esempio, se si considera la matrice:
✓ ◆
1 1
A=
0 1
2. Segue dai punti 1., 2. e 3. che l’insieme O(n) delle matrici ortogonali di ordine n
(cfr. (2.9)) è un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), O(n) prende
il nome di gruppo ortogonale. Si osservi inoltre che il gruppo O(2) è già stato
descritto nell’Esercizio 3.11.
e:
SO(n) = {A 2 O(n) | det(A) = 1} = O(n) \ SL(n, R) (5.10)
sono entrambi gruppi rispetto al prodotto di matrici. SL(n, R) prende il nome di
gruppo lineare speciale e SO(n) è detto gruppo ortogonale speciale.
220 Spazi Vettoriali Euclidei
Osservazione 5.8 Si osservi che il valore del prodotto scalare di due vettori in uno spa-
zio vettoriale euclideo V non varia, qualunque sia la base ortonormale scelta per calco-
larlo. Infatti se si esprime la formula (5.8), scritta rispetto alla base ortonormale B =
(e1 , e2 , . . . , en ), rispetto ad un’altra base ortonormale B 0 = (e01 , e02 , . . . , e0n ) si ha:
x · y = tX 0 Y 0 ,
dove X 0 e Y 0 indicano, rispettivamente, le matrici colonne delle componenti dei vettori
x e y rispetto alla base ortonormale B 0 . Dalle equazioni del cambiamento di base si ha:
X = P X 0, Y = P Y 0,
dove P è la matrice ortogonale del cambiamento di base da B a B 0 , quindi:
x · y = tX Y = t (P X 0 )(P Y 0 ) = tX 0 (tP P ) Y 0 = tX 0 Y 0 .
Esercizio 5.5 Determinare una matrice ortogonale P in R3,3 in modo tale che il primo
vettore riga sia:
p p !
2 2
a = 0, , .
2 2
Soluzione Per determinare una matrice ortogonale con le caratteristiche richieste oc-
corre completare l’insieme libero {a} a una base ortonormale (a, b, c) di R3 . Si può, ad
esempio, usando il Teorema 4.15, costruire la base C = (a, e1 , e2 ) con :
e1 = (1, 0, 0), e2 = (0, 0, 1).
Per determinare una base ortonormale, è sufficiente applicare il processo di ortonormaliz-
zazione di Gram–Schmidt alla base C , considerando:
b = vers(e1 (e1 · a)a) = vers(1, 0, 0) = e1 ,
✓ ◆
1 1
c = vers(e2 (e2 · a)a (v3 · b)b) = vers 0, , .
2 2
La matrice ortogonale cercata è ad esempio:
0 p p 1
2 2
B 0 2 2 C
B C
B C
B C
P =B 1 0 0 C.
B C
B p p C
@ A
2 2
0
2 2
Capitolo 5 221
W ? = {x 2 V | x · y = 0, 8y 2 W}.
x · ai = 0, i = 1, 2, . . . , k.
Infatti si ha:
x · ( 1 a1 + 2 a2 + ... + k ak ) = x · y = 0,
per ogni i 2 R, i = 1, 2, . . . , k . Ma questa condizione è verificata se e solo se x·ai = 0,
per ogni i = 1, 2, . . . , k .
Teorema 5.8 Sia (V, · ) uno spazio vettoriale euclideo e sia W un suo sottospazio vet-
toriale, allora:
1. W ? ✓ V è un sottospazio vettoriale di V ;
2. W W? = V ;
3. (W ? )? = W.
Esercizio 5.6 In (R3 , · ), dotato del prodotto scalare standard, determinare il comple-
mento ortogonale W ? del sottospazio vettoriale:
W = {(x1 , x2 , x3 ) 2 R3 | x1 + x2 + x3 = 0}.
Soluzione Per l’Osservazione 5.10 si può prima determinare una base di W e poi
l’insieme dei vettori x ortogonali a tutti i vettori di questa base. Una base di W è, ad
esempio, data dai due vettori:
a1 = ( 1, 1, 0), a2 = ( 1, 0, 1).
Il complemento ortogonale di W è formato da tutti i vettori y = (y1 , y2 , y3 ) 2 R3 che
verificano le due condizioni:
⇢
y · a1 = y1 + y2 = 0
y · a2 = y1 + y3 = 0.
Soluzione Innanzi tutto si osservi che, per le proprietà della traccia di una matrice
quadrata, W è un sottospazio vettoriale. È facile ottenere che dim(W) = 3 e:
✓✓ ◆ ✓ ◆ ✓ ◆◆
1 0 0 1 0 0
W=L , , ,
0 1 0 0 1 0
W2? ✓ W1? .
W = {(x1 , x2 , x3 , x4 ) 2 R4 | x1 + x2 + x3 = 0}.
224 Spazi Vettoriali Euclidei
Soluzione Per risolvere questo esercizio si deve tener conto dell’Osservazione 5.4. Si
tratta, quindi, di determinare una base ortonormale del sottospazio vettoriale W. W è un
iperpiano vettoriale di R4 generato dai vettori:
b1 = a1 = (0, 0, 0, 1),
✓ ◆
1 1
b2 = vers(a2 (a2 · b1 )b1 ) = p , 0,
p ,0 ,
2 2
✓ ◆
1 2 1
b3 = vers(a3 (a3 · b1 )b1 (a3 · b2 )b2 ) = p ,p , p ,0 .
6 6 6
Il vettore p proiezione ortogonale di a su W è dato da:
W ? = L((1, 1, 1, 0))
Poiché il vettore a si decompone, in modo unico, nella somma delle sue proiezioni
ortogonali su W e su W ? segue:
Esercizio 5.10 Si dimostri che nello spazio vettoriale euclideo (Rn,n , · ) delle matrici
quadrate di ordine n, dotato del prodotto scalare standard definito in (5.4), il complemento
ortogonale del sottospazio vettoriale delle matrici simmetriche S(Rn,n ) è il sottospazio
vettoriale delle matrici antisimmetriche A(Rn,n ).
Capitolo 5 225
Soluzione Nel Teorema 4.5 si dimostra che Rn,n = S(Rn,n ) A(Rn,n ). Per comple-
tare l’esercizio è sufficiente verificare che ogni matrice simmetrica è ortogonale ad ogni
matrice antisimmetrica. Siano S 2 S(Rn,n ), S 6= O, e A 2 A(Rn,n ), A 6= O, dove
con O 2 Rn,n si indica la matrice nulla, allora tS = S e tA = A, quindi, ricordando le
proprietà della traccia di una matrice, si ha:
S · A = tr(tS A) = tr(S A) = tr(A S) = tr(tA S) = A · S,
da cui segue S · A = 0.
Esempio 5.18 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n e sia:
B = (e1 , e2 , . . . , en )
una sua base ortonormale. Sia W = L(a1 , a2 , . . . , ak ) un sottospazio vettoriale di V
generato da k vettori linearmente indipendenti a1 , a2 , . . . , ak dati da:
0 1 0 10 1 0 1
a1 a11 a12 . . . a1n e1 e1
B a2 C B a21 a22 . . . a2n C B e2 C B e2 C
B C B CB C B C
B .. C = B .. .. C B .. C = A B .. C.
@ . A @ . . A@ . A @ . A
ak ak1 ak2 . . . akn en en
A è dunque una matrice di Rk,n di rango k . Come già osservato nella dimostrazione del
Teorema 5.8, il complemento ortogonale di W è formato dai vettori x di V la cui matrice
X delle componenti è soluzione del sistema lineare omogeneo AX = O, dove O 2 Rn,1
è la matrice nulla. Pertanto il nullspace N (A) di A coincide con W ? . Se si indica con
R(A) lo spazio vettoriale delle righe di A e con C(A) lo spazio vettoriale delle colonne
di A (cfr. Cap. 4.3) segue:
(y1 = 0, y2 = t, y3 = t, y4 = 0), t 2 R.
p
La condizione ku4 k = 2 equivale all’equazione t2 = 1, vale a dire a t = ±1.
Si ottengono cosı̀ due vettori di componenti (0, 1, 1, 0) e (0, 1, 1, 0). Il vetto-
re u4 cercato è il primo in quanto la seconda componente è positiva, condizione
equivalente al fatto che l’angolo tra u4 e e2 sia acuto.
1. Verificare che l’insieme F formato dai vettori di un iperpiano vettoriale H che sono
ortogonali ad un vettore u di V è un sottospazio vettoriale di V.
Capitolo 5 227
2. Nel caso in cui V abbia dimensione 4 e B = (e1 , e2 , e3 , e4 ) sia una sua base
ortonormale, sono dati:
H = {x = x1 e1 + x2 e2 + x3 e3 + x4 e4 2 V | 2x1 x3 + x4 = 0}
·:V ⇥V ! C, (x, y) 7 ! x · y,
per cui valgano le seguenti proprietà:
1. x · y = y · x x, y 2 V ;
2. (x1 + x2 ) · y = x1 · y + x2 · y, x1 , x2 , y 2 V ;
3. ( x) · y = (x · y), 2 C, x, y 2 V ;
4. x · x 0, x 2 V e x · x = 0 () x = o,
Uno spazio vettoriale complesso V su cui è definito un prodotto hermitiano “·” prende il
nome di spazio vettoriale hermitiano o di spazio vettoriale euclideo complesso e si indica,
in generale, con la scrittura (V, · ).
230 Spazi Vettoriali Euclidei
x · ( y) = ( y) · x = (y · x) = (y · x) = (x · y), 2 C, x, y 2 V.
x · ( 1 y1 + 2 y2 ) = 1 (x · y1 ) + 2 (x · y2 ), 1, 2 2 C, x, y1 , y2 2 V. (5.12)
Nel caso degli spazi vettoriali hermitiani valgono esempi e teoremi analoghi a quelli già
dimostrati per gli spazi vettoriali euclidei.
Esempio 5.19 Sullo spazio vettoriale complesso Cn (cfr. Es. 4.44) si può definire un pro-
dotto hermitiano che, se ristretto a Rn , coincide con il prodotto scalare standard introdotto
nell’Esempio 5.2. Precisamente si pone:
n
X
(x1 , x2 , . . . , xn ) · (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + . . . + xn yn = xi yi , (5.13)
i=1
Teorema 5.9 Sia V uno spazio vettoriale complesso di dimensione n. Data una base
B = (v1 , v2 , . . .,vn ) di V, la funzione:
·:V ⇥V ! C,
definita da:
x · y = tX Y ,
dove: 0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X=B .. C, Y =B .. C
@ . A @ . A
xn yn
e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti rispettivamente di x e y rispetto
alla base B, è un prodotto hermitiano su V.
La dimostrazione è un esercizio.
La proprietà 4. della Definizione 5.7 permette, come per gli spazi vettoriali euclidei, di
definire la norma di un vettore anche nel caso di uno spazio vettoriale hermitiano (V, · ).
Infatti si definisce norma di un vettore x di V il numero reale positivo dato da:
p
kxk = x · x
k xk = | | kxk, x 2 V, 2 C,
Esempio 5.20 Nello spazio vettoriale hermitiano (Cn , · ) con il prodotto hermitiano stan-
dard (5.13), la norma di x è data da:
v v
u n u n
uX uX
kxk = t xi xi = t |xi |2 ,
i=1 i=1
Continuano a valere, anche nel caso degli spazi vettoriali hermitiani, la disuguaglianza
di Cauchy–Schwarz e la disuguaglianza triangolare (cfr. Teor. 5.2), anche se la loro
dimostrazione è più laboriosa rispetto a quella del caso euclideo. Precisamente, vale il
teorema seguente.
232 Spazi Vettoriali Euclidei
k·k:V ! R, x 7 ! kxk
0 kx (x · y) yk2 = (x (x · y) y) · (x (x · y) y)
= kxk2 (x · y)(x · y) (x · y)(y · x)
+(x · y)(x · y)kyk2
= kxk2 2|x · y|2 + |x · y|2 kyk2 = kxk2 |x · y|2 .
y
x· kxk,
kyk
da cui la tesi.
3. La dimostrazione è analoga a quella vista nel caso di uno spazio vettoriale euclideo
se si tiene conto che:
|z|2 = z z = a2 + b2 a2 = (Re(z))2 .
2 Re(z) = z + z 2|z|,
ossia la (5.14).
Considerati due vettori x e y non nulli di uno spazio vettoriale hermitiano (V, ·), dalla
disuguaglianza di Cauchy–Schwarz segue che:
|x · y|
1,
kxk kyk
ma ciò significa solo che il modulo del numero complesso (x · y)/(kxk kyk) è minore o
uguale a 1. Pertanto non è possibile nel caso degli spazi vettoriali hermitiani introdurre
il concetto di angolo tra due vettori nello stesso modo in cui è stato definito per gli spazi
vettoriali euclidei. Nonostante ciò, sugli spazi vettoriali hermitiani, come nel caso reale,
si può introdurre il concetto di ortogonalità. Più precisamente, due vettori x e y di uno
spazio vettoriale hermitiano (V, · ) si dicono ortogonali se x · y = 0. Di conseguenza, è
valida anche in questo caso la definizione di base ortogonale e ortonormale e continua a
valere anche per uno spazio vettoriale hermitiano il Lemma 5.1. Una base ortonormale su
uno spazio vettoriale hermitiano è in generale chiamata base unitaria.
Esempio 5.21 La base canonica (e1 , e2 , . . . en ) di Cn è una base unitaria dello spazio
vettoriale hermitiano (Cn , · ) con il prodotto hermitiano standard (5.13).
Inoltre, analogamente a quanto dimostrato per uno spazio vettoriale euclideo, in uno spa-
zio vettoriale hermitiano (V, · ) utilizzando il processo di ortonormalizzazione di Gram–
Schmidt (che vale anche nel caso complesso) si può costruire una base unitaria a partire
da una base di V. La dimostrazione è analoga a quella vista per il Teorema 5.5, facendo
attenzione al fatto che, a differenza del caso reale, il prodotto hermitiano non è simme-
trico, ossia non vale la relazione x · y = y · x, 8x, y 2 V, ma vale la proprietà 1. della
Definizione 5.7.
ossia la tesi.
Dal Teorema 5.6 segue che le matrici ortogonali esprimono il cambiamento di base tra
coppie di basi ortonormali di uno spazio vettoriale euclideo. Un risultato analogo è valido
in uno spazio vettoriale hermitiano, con la differenza che la matrice P del cambiamento
di base deve verificare la relazione:
tP P = I.
Si può allora introdurre l’insieme delle matrici unitarie di Cn,n definito da:
che è l’analogo, nel caso complesso, dell’insieme O(n) delle matrici ortogonali (cfr.
(2.9)).
Si osservi che dalla relazione tP P = I si ottiene tP P = I e P 1 = tP . Inoltre, una
matrice unitaria ad elementi reali è ovviamente ortogonale ed una matrice ortogonale,
considerata come matrice complessa, è unitaria. Per le matrici unitarie valgono le seguenti
proprietà.
3. L’inversa P 1
di una matrice unitaria P è unitaria.
Capitolo 5 235
La dimostrazione, analoga a quella vista per il Teorema 5.7, è lasciata al Lettore per
esercizio.
Osservazione 5.15 Segue dalle proprietà 1., 2., 3. del Teorema 5.11 che l’insieme delle
matrici unitarie U (n) è un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). U (n)
prende il nome di gruppo unitario.
Esempio 5.22 Le matrici unitarie di ordine 1 sono facilmente individuabili, infatti si ha:
U (1) = {z 2 C | z z = 1},
si tratta, quindi, dei numeri complessi di modulo 1. Nel Capitolo 10 si vedrà un’inter-
pretazione geometrica di tale insieme. È meno semplice individuare le matrici unitarie di
ordine 2. Si dimostra che sono tutte e sole le matrici:
✓ ◆
z1 z2
A=
z2 z1
| | = 1, |z1 |2 + |z2 |2 = 1.
Più complicata la relazione analoga che vale nel caso di uno spazio vettoriale hermitiano:
1
x·y = (ktx + yk2 kxk2 kyk2 )
2
(5.15)
i
+ (kx + iyk2 kxk2 kyk2 ), x, y 2 V.
2
Capitolo 6
Applicazioni Lineari
Definizione 6.1 Dati due spazi vettoriali reali V e W, si dice applicazione lineare o
omomorfismo o trasformazione lineare da V in W una funzione f : V ! W che
verifica le seguenti proprietà:
f (x + y) = f (x) + f (y),
f ( x) = f (x),
237
238 Applicazioni Lineari
id : V ! V, x 7 ! x,
O:V ! W, x 7 ! oW ,
f : R2 ! R, (x, y) 7 ! 3x + 2y
è un’applicazione lineare.
f : R2 ! R, (x, y) 7 ! 3x + 2y + 5
f : R2 ! R, (x, y) 7 ! x2 + 2y
f : V3 ! R, x7 !a·x
f : V3 ! V3 , x 7 ! a ^ x,
Esempio 6.10 Se lo spazio vettoriale V è dato dalla somma diretta di due sottospazi
vettoriali W1 e W2 , V = W1 W2 , allora dalla Definizione 4.5 si ha che ogni vettore
x di V si decompone in modo unico come x = x1 + x2 , con x1 2 W1 e x2 2 W2 . Le
funzioni:
f1 : V ! V, x 7 ! x1 e f2 : V ! V, x 7 ! x2
sono applicazioni lineari e prendono il nome di proiezioni di V su W1 e su W2 rispetti-
vamente.
In particolare, se W è un sottospazio vettoriale di uno spazio vettoriale euclideo (V, · ),
si ha che V = W W ? , dove W ? indica il complemento ortogonale di W, allora ogni
vettore x di V si decompone in modo unico come x = xW + xW ? , con xW 2 W e
xW ? 2 W ? . L’applicazione lineare:
p:V ! V, x 7 ! xW
prende il nome di proiezione ortogonale su W .
f : Rn ! Rn , X 7 ! AX,
f : Rn ! R m , X 7 ! AX,
1. f (oV ) = oW ,
dove oV indica il vettore nullo di V e oW indica il vettore nullo di W ;
2. f ( x) = f (x), x2V;
3. f ( 1 x1 + 2 x2 + ... + k xk ) = 1 f (x1 ) + 2 f (x2 ) + ... + k f (xk ),
i 2 R, xi 2 V, i = 1, 2, . . . , k .
Teorema 6.2 – Teorema fondamentale delle applicazioni lineari – Sia V uno spa-
zio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato
un insieme {a1 , a2 , . . . , an } di n vettori di uno spazio vettoriale W, esiste ed è unica
l’applicazione lineare:
f :V !W
tale che:
f (vi ) = ai , i = 1, 2, . . . , n.
Capitolo 6 241
In altri termini: per assegnare un’applicazione lineare tra due spazi vettoriali V e W,
di cui almeno V di dimensione finita, è sufficiente conoscere le immagini, mediante la
funzione f, dei vettori di una base di V.
f (x) = x1 a1 + x2 a2 + . . . + xn an .
x = x1 v1 + x2 v2 + . . . + xn vn , y = y1 v1 + y2 v2 + . . . + yn vn .
Poiché:
f ( x+µy) = ( x1 +µy1 )a1 +( x2 +µy2 )a2 +. . .+( xn +µyn )an = f (x)+µf (y).
g(x) = g(x1 v1 + x2 v2 + . . . + xn vn )
= x1 g(v1 ) + x2 g(v2 ) + . . . + xn g(vn )
= x1 a1 + x2 a2 + . . . + xn an ,
Dal Teorema 6.2 segue che definire un’applicazione lineare tra due spazi vettoriali di di-
mensione finita equivale a conoscere le immagini degli elementi di una base del dominio.
Siano, quindi, V uno spazio vettoriale reale di dimensione n e B = (v1 , v2 , . . . , vn ) una
sua base, e W uno spazio vettoriale reale di dimensione m e C = (w1 , w2 , . . . , wm ) una
sua base. Si intende definire l’applicazione lineare f : V ! W ponendo:
8
>
> f (v1 ) = a11 w1 + a21 w2 + . . . + am1 wm
>
< f (v2 ) = a12 w1 + a22 w2 + . . . + am2 wm
.. (6.1)
>
> .
>
: f (v ) = a w + a w + . . . + a w ,
n 1n 1 2n 2 mn m
ottenuta mettendo, ordinatamente, in colonna le immagini dei vettori della base B espres-
se rispetto alla base C . La matrice A prende il nome di matrice associata all’applicazione
lineare f rispetto alle basi B e C e si indica come:
A = M B,C (f ).
Osservazione 6.1 1. Fissata una base B nel dominio V e una base C nel codominio
W, segue dal Teorema 6.2 che la matrice A = M B,C (f ) determina in modo univoco
l’applicazione lineare f : V ! W.
f (x) = y1 w1 + y2 w2 + . . . + ym wm ,
se si indica con: 0 1
y1
B y2 C
B C
Y =B .. C
@ . A
ym
la matrice colonna delle componenti di f (x) rispetto alla base C , allora:
0 1
w1
B w2 C
B C
t
f (x) = Y B .. C. (6.3)
@ . A
wm
f (x) = f (x1 v1 + x2 v2 + . . . + xn vn )
= x1 f (v1 ) + x2 f (v2 ) + . . . + xn f (vn )
0 1
f (v1 )
B f (v2 ) C
tB C
= XB .. C.
@ . A
f (vn )
244 Applicazioni Lineari
ossia, per l’unicità delle componenti di un vettore rispetto ad una base, si ottiene:
t
Y = tX tA
e quindi:
Y = A X, (6.4)
che è il legame cercato tra le componenti, rispetto alla base B, di un vettore x del dominio
V e le componenti della sua immagine f (x), rispetto alla base C . Il sistema lineare, di
m equazioni nelle n incognite (x1 , x2 , . . . , xn ), associato all’equazione matriciale (6.4)
prende il nome di sistema lineare delle equazioni dell’applicazione lineare f , rispetto
alle basi B e C .
Gli esempi che seguono mettono in luce la fondamentale importanza della matrice asso-
ciata ad un’applicazione lineare e delle sue equazioni.
id : V ! V, x 7 ! x,
Ponendo:
X0 = P 1
X,
Capitolo 6 245
dove con X si indica la matrice colonna delle componenti del vettore x rispetto alla
base B e con X 0 la matrice colonna delle componenti del vettore id(x) rispetto alla
base B 0 . Si osservi che le equazioni dell’endomorfismo id coincidono con le equazioni
del cambiamento di base da B 0 a B. In altri termini la matrice associata all’identità è
la matrice unità se e solo se essa è scritta rispetto alla stessa base nel dominio e nel
codominio.
sono: 8 0
< x = 2x + 3y
y0 = y (6.5)
: 0
z = 3x 2z,
dove (x0 , y 0 , z 0 ) = f ((x, y, z)). Quindi la matrice associata all’applicazione lineare f,
rispetto alla base canonica di R3 , è:
0 1
2 3 0
A=@ 0 1 0 A.
3 0 2
Esempio 6.17 Si consideri di nuovo l’Esempio 6.7. In V3 , spazio vettoriale dei vettori
ordinari riferito ad una base ortonormale positiva B = (i, j, k), si definisce l’endomorfi-
smo:
f : V3 ! V3 , x 7 ! a ^ x,
con a vettore di V3 . La matrice associata ad f , rispetto alla base B, può essere determi-
nata in due modi:
246 Applicazioni Lineari
2. Si può pervenire alla matrice A calcolando le immagini dei vettori della base B
e mettendo sulle colonne, rispettivamente, le componenti di f (i), f (j), f (k), di
nuovo rispetto alla base B.
Esempio 6.18 Rispetto alle basi canoniche B del dominio e C del codominio, la matrice
associata all’applicazione lineare f : R3 ! R2,2 definita da:
✓ ◆
a a+b
f ((a, b, c)) =
a+b+c 0
Esercizio 6.1 Si scrivano le matrici associate alle applicazioni lineari introdotte negli
Esempi 6.3, 6.6, 6.9, 6.10, 6.11, 6.12, 6.13, dopo aver fissato basi opportune nel dominio
e nel codominio.
da cui si ha: 8
< f (e1 ) = (6, 1, 1)
2f (e1 ) f (e2 ) = (3, 2, 1)
:
f (e1 ) f (e2 ) f (e3 ) = (0, 0, 0),
quindi: 8
< f (e1 ) = 6e1 + e2 + e3
f (e2 ) = 9e1 + 3e3
:
f (e3 ) = 3e1 + e2 2e3 ,
di conseguenza la matrice cercata è:
0 1
6 9 3
A= @ 1 0 1 A.
1 3 2
Si inizia con l’effettuare un cambiamento di base in V. Sia B 0 = (v10 , v20 , . . . , vn0 ) un’altra
base di V, indicata con X 0 2 Rn,1 la matrice colonna delle componenti del vettore x,
rispetto alla base B 0 , le equazioni del cambiamento di base sono:
X = P X 0, (6.6)
Scopo di questo paragrafo è quello di individuare la relazione che intercorre tra le matrici
A e A0 . Sostituendo le equazioni (6.6) e (6.7) in (6.4) si ha:
QY 0 = AP X 0
da cui, tenendo conto che la precedente uguaglianza è valida per ogni X 0 2 Rn,1 , segue:
A0 = Q 1AP (6.9)
A0 = P 1AP. (6.10)
Le matrici di questo tipo rivestono una grande importanza in algebra lineare e hanno una
particolare denominazione, come stabilisce la definizione che segue.
1. determinante uguale,
2. traccia uguale.
dopo aver verificato che essi costituiscono una base C di R4 , si consideri l’endomorfismo
g di R4 cosı̀ definito:
Si scrivano le matrici associate a g sia rispetto alla base C sia rispetto alla base canonica
B di R4 .
250 Applicazioni Lineari
f (H) = {f (x) 2 W | x 2 H}
È molto facile e intuitivo il teorema che segue, la cui dimostrazione è lasciata al Let-
tore per esercizio ed è una conseguenza delle definizioni di sottospazio vettoriale e di
immagine di un sottospazio vettoriale.
da cui segue che i vettori f (a1 ), f (a2 ), . . . , f (ah ) sono generatori di f (H). In altri
termini:
dim(f (H)) h.
Per determinare una base di f (H) è sufficiente estrarre una base dal suo sistema di
generatori {f (a1 ), f (a2 ), . . . , f (ah )}.
H = {(x1 , x2 , x3 ) 2 R3 | x1 + x2 + x3 = 0}.
Soluzione Si verifica che dim(H) = 2 e, rispetto alla base canonica di R3 , una base di
H è data da (a1 , a2 ), con:
scritti rispetto alla base canonica di R4 . Si tratta di due vettori linearmente indipendenti,
pertanto costituiscono una base di f (H) e dim(f (H)) = 2.
Teorema 6.6 Tutte le matrici associate alla stessa applicazione lineare hanno lo stesso
rango. In particolare matrici simili hanno lo stesso rango.
0 1 0 1 0 1
1 1 0 1 0 0 1 0 0
B 2 1 1 C ! B 2 1 1 C ! B 2 1 0 C
B C B C B C
@ 1 0 1 A C2 ! C2 C1 @ 1 1 1 A C3 ! C3 + C2 @ 1 1 0 A
0 1 1 0 1 1 0 1 0
quindi rank(A) = 2 da cui dim(im f ) = 2. Una base di im f è data dalle due colonne
non nulle della matrice ridotta per colonne, ossia im f = L((1, 2, 1, 0), (0, 1, 1, 1)).
Capitolo 6 253
Osservazione 6.5 Se si riduce per righe una qualsiasi matrice A associata ad un’appli-
cazione lineare f : V ! W si ottiene una matrice A0 , ridotta per righe, tale che
rank(A) = rank(A0 ) = dim(im f ) ma in generale lo spazio vettoriale C(A) delle co-
lonne di A è diverso dallo spazio vettoriale C(A0 ) delle colonne di A0 . Pertanto ci si deve
ricordare che per determinare una base di im f (e non solo la sua dimensione) si deve
ridurre la matrice A per colonne e non per righe.
Dimostrazione Dalla definizione di sottospazio vettoriale (cfr. Def. 4.2) segue che è
necessario dimostrare che per ogni x1 , x2 2 f 1 (K) e per ogni , µ 2 R si ha:
1
x1 + µx2 2 f (K).
Ciò significa che si deve dimostrare che f ( x1 + µx2 ) è un vettore di K. Per la linearità
di f segue:
f ( x1 + µx2 ) = f (x1 ) + µf (x2 ).
Poiché x1 , x2 2 f 1 (K), le loro immagini f (x1 ) e f (x2 ) appartengono a K, cosı̀ come
la loro somma e il loro prodotto per numeri reali, essendo K un sottospazio vettoriale di
W.
Osservazione 6.6 Si faccia molta attenzione a non confondere (a causa della notazione
usata) il sottospazio vettoriale f 1 (K) con la funzione inversa f 1 (se esiste) di f che
sarà definita nel Paragrafo 6.4.
K = {(y1 , y2 , y3 , y4 ) 2 R4 | y1 + y2 = 0}.
K = {(t1 , t1 , t2 , t3 ) | t1 , t2 , t3 2 R},
si ottiene: 8
< x1 = t1
x2 =
:
x3 = 3t1 + , , t1 2 R,
da cui segue:
1
f (K) = L(( 1, 1, 1), (1, 0, 3)).
Si osservi che, in alternativa, in questo caso, si poteva pervenire allo stesso risultato
sostituendo nell’equazione di K : y1 + y2 = 0 le equazioni di f :
8
>
> y1 = x1 + x2
<
y2 = 2x1 + x2 + x3 ,
>
> y3 = x1 + x3 ,
:
y4 = x2 x3 ,
da cui segue:
3x1 + 2x2 + x3 = 0
che è l’equazione di f 1
(K), rispetto alla base canonica di R3 .
ker f = {x 2 V | f (x) = oW }.
Osservazione 6.7 Il fatto che ker f sia un sottospazio vettoriale di V segue dal Teorema
6.7.
Esempio 6.19 Nel caso dell’identità, definita nell’Esempio 6.1, si ha che ker id = {o} e
im id = V.
Esempio 6.20 Nel caso dell’applicazione nulla, definita nell’Esempio 6.2, ker O = V e
im O = {oW }.
Esempio 6.21 L’applicazione lineare definita nell’Esempio 6.6 ha come nucleo il piano
vettoriale ortogonale al vettore a, cioè ker f = L(a)? , mentre im f = R.
256 Applicazioni Lineari
Il calcolo del sottospazio vettoriale im f costituisce un test per valutare l’eventuale su-
riettività dell’applicazione lineare f . Lo studio di ker f , invece, è legato all’iniettività di
f , e precisamente vale il seguente teorema.
AX = O, (6.11)
dove X indica la matrice colonna delle componenti di x rispetto alla base B e O 2 Rn,1
è la matrice colonna nulla. Quindi calcolare ker f equivale a risolvere il sistema lineare
omogeneo (6.11). Dal Teorema 4.23 segue:
dim(ker f ) = dim(V ) rank(A). (6.12)
Esempio 6.22 Si calcoli ker f nel caso dell’applicazione lineare introdotta nell’Esercizio
6.4 e studiata anche nell’Esercizio 6.5. Riducendo per righe la matrice A associata ad f ,
rispetto alle basi canoniche di R3 e R4 , si ha:
0 1 0 1
1 1 0 1 1 0
B 2 1 !
1 CC R2 ! R2 2R1 B 0
B 1 1 C
A=B @ 1 0
C
1 A @ 0 1 1 A
R3 ! R3 R1
0 1 1 0 1 1
0 1
1 1 0
! B 0 1 1 C
R3 ! R3 R2 B @ 0
C
0 0 A
R4 ! R4 + R2
0 0 0
ottenuta segue che ker f = L(( 1, 1, 1)). Si ricordi che, per determinare esplicitamente
im f , si deve ridurre la matrice A per colonne, come spiegato nell’Esercizio 6.5.
f ( 1 a1 + 2 a2 + ... + k ak ) = oW
con i 2 R, i = 1, 2, . . . , n h, ossia:
f ( 1 b1 + 2 b2 + ... + + n h bn h ) = oW ,
dove A indica una matrice associata ad f, rispetto ad una base di V e ad una base di
W, N (A) è il nullspace di A e R(A) indica lo spazio vettoriale delle righe di A. Dal
Capitolo 6 259
fatto che dim(im f ) = dim(C(A)), con C(A) spazio vettoriale delle colonne di A, segue
quindi che:
dim(R(A)) = dim(C(A)),
vale a dire il Teorema del Rango 4.19. Infatti ogni matrice A 2 Rm,n può sempre essere
considerata come associata ad un’applicazione lineare f : Rn ! Rm , rispetto alle basi
canoniche di Rn e di Rm .
1. ker f ✓ f 1
(K);
2. se K ✓ im f allora dim(f 1
(K)) = dim(ker f ) + dim(K);
3. in generale dim(f 1
(K \ im f )) = dim(ker f ) + dim(K \ im f ).
Teorema 6.12 Due spazi vettoriali sono isomorfi se e solo se essi hanno la stessa dimen-
sione.
Dimostrazione Il fatto che due spazi vettoriali isomorfi abbiano la stessa dimensione
segue in modo evidente dai teoremi precedenti.
Viceversa, si considerino due spazi vettoriali V e W tali che dim(V ) = dim(W ) = n, il
teorema è dimostrato se si è in grado di definire un isomorfismo tra di essi. Fissate dunque
una base B = (v1 , v2 , . . . , vn ) in V e una base C = (w1 , w2 , . . . , wn ) in W, si definisca
f : V ! W ponendo:
f è un isomorfismo in quanto im f = W .
Esempio 6.23 Usando le stesse notazioni del Paragrafo 4.3.4, si considerino due basi
B = (v1 , v2 , . . . , vn ) e B 0 = (v10 , v20 , . . . , vn0 ) in uno spazio vettoriale V. Come già
0
osservato nell’Esempio 6.14, la matrice M B,B (id) associata all’identià di V rispetto alla
base B nel dominio e alla base B 0 nel codominio è la matrice del cambiamento di base
da B 0 a B (attenzione allo scambio dell’ordine delle due basi!) Invece se si considera
l’applicazione lineare:
p:V ! V, vi 7 ! vi0 , i = 1, 2, . . . , n,
segue, dalla sua definizione, che p è un automorfismo di V (cfr. Teor. 6.12). La matrice
ad essa associata, rispetto alla base B sia nel dominio sia nel codomino, è la matrice del
0
cambiamento di base P = M B,B , ottenuta, infatti, ponendo in colonna le componenti
dei vettori della base B 0 rispetto ai vettori della base B. Si osservi, invece, che la matrice
associata all’applicazione lineare p rispetto alla base B nel dominio e alla base B 0 nel
codominio è la matrice unità I di ordine n anche se p non è l’applicazione lineare iden-
tica. Si vuole in questo esempio approfondire il legame tra le equazioni del cambiamento
di base da B a B 0 e le equazioni dell’automorfismo p, riferite alla matrice P ad esso
associata. Si ricordi che (cfr. Par. 4.3.4), dato un vettore x di V le sue componenti:
0 1
x1
B x2 C
B C
X = B .. C,
@ . A
xn
scritte rispetto alla base B, e le sue componenti:
0 1
x01
B x0 C
B 2 C
X 0 = B .. C,
@ . A
x0n
scritte rispetto alla base B 0 , sono legate dalle equazioni del cambiamento di base:
X = P X 0. (6.13)
262 Applicazioni Lineari
tale che:
Y = P X, (6.14)
dove: 0 1
y1
B y2 C
B C
Y =B .. C.
@ . A
yn
Si osservi che le equazioni (6.13) e (6.14) sono in perfetto accordo in quanto:
p(x) = y1 v1 + y2 v2 + . . . + yn vn
= p(x1 v1 + x2 v2 + . . . + xn vn )
= x1 p(v1 ) + x2 p(v2 ) + . . . + xn p(vn )
= x1 v10 + x2 v20 + . . . + xn vn0 ,
In modo altrettanto naturale, è possibile definire il prodotto di un numero reale per una
applicazione lineare f 2 L(V, W ) come:
( f )(x) = f (x),
per ogni x 2 V. Si verifica che tale prodotto f è ancora un’applicazione lineare per cui
valgono le quattro proprietà di definizione di prodotto di un numero reale per un vettore
(la verifica è un facile esercizio). Segue che L(V, W ) è un esempio di spazio vettoriale
su R.
g f :V ! Z, x 7 ! g(f (x))
C = BA. (6.16)
Esercizio 6.10 Si considerino gli spazi vettoriali R2 , R3 , R4 riferiti alle rispettive basi
canoniche B, B 0 , B 00 . Date le applicazioni lineari:
✓ ◆
0 1 1 2
f : R3 ! R2 , con A = M B ,B (f ) = ,
1 2 3
✓ ◆
B00 ,B 3 4 3 0
g:R 4
!R ,2
con B = M (g) = ,
5 9 4 1
Soluzione All’applicazione lineare h (rispetto alla basi canoniche del dominio e del
codominio) si associa una matrice X 2 R3,4 , tale che AX = B . Si tratta, quindi, di
risolvere l’equazione matriciale cosı̀ ottenuta usando il metodo descritto nel Capitolo 2.
Capitolo 6 265
Nel caso particolare di L(V, V ), ossia dello spazio vettoriale degli endomorfismi di V,
a volte anche indicato con il simbolo End(V ), la composizione di due endomorfismi è
un’operazione interna, per cui vale la proprietà associativa, esiste l’elemento neutro (l’ap-
plicazione lineare identica) ma non vale la proprietà commutativa. Da nozioni elementari
di algebra segue che una funzione è invertibile se e solo se è una biiezione. Si supponga
che f 2 End(V ) sia una biiezione, ossia che f sia un automorfismo di V, esiste allora la
funzione inversa f 1 di f definita come l’unica funzione per cui:
1 1
f f =f f = id,
con id identità di V. Nel caso degli automorfismi di End(V ) si può dimostrare il seguente
teorema.
2. Dal fatto che la matrice associata alla composizione di due applicazioni lineari è
il prodotto delle matrici associate alle due applicazioni lineari (scegliendo oppor-
tunamente le basi nel dominio e nel codominio) segue che all’applicazione lineare
inversa di f è associata la matrice inversa a quella associata ad f (rispetto alla
stessa scelta di basi in V ). Si noti l’assoluto accordo tra risultati noti sull’esistenza
dell’inversa di una matrice quadrata (rango massimo) e sull’esistenza dell’inverso di
un endomorfismo (biiettività quindi rango massimo della matrice associata). Si os-
servi, inoltre, che la relazione (6.17) corrisponde alla relazione (BA) 1 = A 1 B 1
(cfr. Teor. 2.6) se si considera A matrice associata ad f e B matrice associata a g .
dove per f 1 indica l’isomorfismo inverso di f. La dimostrazione del fatto che B sia una
base di V e che M B,C (f ) = I è lasciata al Lettore per esercizio.
Si lascia per esercizio la verifica del fatto che la composizione delle rotazioni R[✓1 ] e
R[✓2 ], rispettivamente di angoli ✓1 e ✓2 , è la rotazione R[✓1 + ✓2 ]. La rotazione R[✓] è un
automorfismo di V2 per ogni valore dell’angolo ✓, si verifichi per esercizio che l’inversa
della rotazione R[✓] è la rotazione R[ ✓].
Capitolo 6 267
Dato uno spazio vettoriale reale V, l’insieme degli automorfismi di V, indicato come:
GL(V, R) = {f : V ! V | f è un automorfismo}
è un gruppo rispetto alla composizione di automorfismi e, in generale, non è commutativo.
Se dim(V ) = n e fissata una base B in V allora si può stabilire, in modo naturale, la
corrispondenza biunivoca tra GL(V, R) ed il gruppo lineare generale reale GL(n, R) (cfr.
Oss. 2.7) che associa ad ogni f 2 GL(V, R) la matrice A = M B,B (f ). Tale biiezione è un
automorfismo in quanto alla composizione di automorfismi si associa il prodotto di matrici
e all’inverso di un automorfismo si associa l’inversa della matrice. Per approfondimenti
sull’argomento e maggiori dettagli si rimanda a testi classici di teoria dei gruppi, quali ad
esempio [2] e [13].
f |H : H ! W, x 7 ! f (x).
Il teorema che segue si ottiene in modo evidente dalla definizione di restrizione di un’ap-
plicazione lineare e dalla definizione di sottospazio vettoriale invariante per un endomor-
fismo.
f |H : H ! H
tale che:
f |H (x) = f (x), x 2 H. (6.18)
1 0 1 0
0 1 1 0 1 0 0 1 0 1
3 5 1 2 B C 5 3 5 1 2 B C 7
@ 3 5 3 4 A B 0 C = @ 7 A, @ 3 5 3 4 A B 1 C = @ 9 A,
@ 0 A @ 0 A
0 0 1 1 1 0 0 1 1 1
1 1
1 0
0 0 1 0 1
3 5 1 2 B C 3
@ 3 5 3 4 A B 0 C = @ 7 A.
@ 1 A
0 0 1 1 2
1
0 1
5 7 3
A0 = @ 7 9 7 A.
1 1 2
Teorema 6.16 Siano (V, · ) e (W, · ) due spazi vettoriali euclidei di dimensione n e m,
rispettivamente. Data un’applicazione lineare f : V ! W, esiste un’unica applicazio-
ne lineare:
f † : W ! V,
detta applicazione lineare aggiunta di f , tale che:
f (x) · y = x · f † (y), x 2 V, y 2 W. (6.19)
Inoltre, se B = (v1 , v2 , . . . , vn ) e C = (w1 , w2 , . . . , wm ) sono basi ortonormali di V e
W rispettivamente, le matrici associate a f e f † verificano la seguente relazione:
M C,B (f † ) = t (M B,C (f )),
ossia la matrice associata a f † , rispetto alle basi ortonormali B e C, è la trasposta della
matrice associata a f rispetto alle stesse basi in ordine scambiato.
Esercizio 6.16 Siano (V, · ) e (W, · ) due spazi vettoriali euclidei. Verificare che, se
f : V ! W è un’applicazione lineare e f † : W ! V è l’applicazione lineare
aggiunta di f , allora:
1. V = im f † ker f,
2. W = im f ker f † ,
3. im f † = (ker f )? ,
4. im f = (ker f † )? .
Esercizio 6.17 Verificare che, se f, g sono endomorfismi di uno spazio vettoriale eucli-
deo (V, · ), allora:
(g f )† = f † g †
e che se f è invertibile, allora:
1 †
(f ) = (f † ) 1 .
f (x) · y = x · f (y), x, y 2 V.
272 Applicazioni Lineari
Esempio 6.25 Si consideri lo spazio vettoriale euclideo (R2 , · ) dotato del prodotto sca-
lare standard. L’endomorfismo
è autoaggiunto. Infatti:
per ogni x, y in V.
Teorema 6.17 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, · ) di dimen-
sione n e sia B una base ortonormale di V. L’endomorfismo f è autoaggiunto se e solo
se la matrice A = M B,B (f ) 2 Rn,n è simmetrica.
A è simmetrica.
Osservazione 6.15 Si osservi che dal Teorema 6.17 segue che la matrice associata ad un
endomorfismo autoaggiunto f : V ! V di uno spazio vettoriale euclideo (V, · ) di
dimensione n, rispetto ad una base B di V, è simmetrica solo se la base B è ortonormale.
Infatti, se si considera un’altra base C di V, allora si ha che la matrice associata a f
rispetto a C è A0 = P 1 AP, con P matrice del cambiamento di base da B a C. In
generale, A0 non è simmetrica nonostante A lo sia, in quanto
t
A0 = t (P 1
AP ) = t P tA t (P 1
) = t P A t (P 1
)
che non coincide con A0 a meno che tP = P 1 , ovvero a meno che P sia una matrice
ortogonale. In altri termini, affinché A0 sia simmetrica, anche la base C deve essere
ortonormale (cfr. Teor. 5.6).
Capitolo 6 273
f (x) · y = x · f (y) = 0,
poiché f (y) 2 W per ipotesi. Quindi f (x) è ortogonale a tutti gli elementi di W e perciò
appartiene a W ? .
Esercizio 6.18 Sia V uno spazio vettoriale euclideo e siano W1 , W2 due suoi sottospazi
vettoriali supplementari, ossia V = W1 W2 . Si considerino i due endomorfismi f1
e f2 di V, proiezioni su W1 e su W2 rispettivamente. Vale a dire, se per ogni x in V,
x = x1 + x2 , (x1 2 W1 e x2 2 W2 ) allora si ha f1 (x) = x1 e f2 (x) = x2 (cfr. Es. 6.10).
Dire se e quando f1 e f2 sono endomorfismi autoaggiunti.
Determinare:
0 1
2(1 + h) 1+h 6+h
B 5(2 + h) 5(2 + h) 5(2 + h) C
B C
B C
B 2 + 3h 4+h 6 h C
1 B C
A =B C.
B 5(2 + h) 5(2 + h) 5(2 + h) C
B C
B C
@ 2 1 4 A
5(2 + h) 5(2 + h) 5(2 + h)
0 1
1 0 0
0 B 2 2 4 C
A0 = M B ,C (f ) = B
@ k
C.
0 0 A
1 k 2
dove:
0 1 0 1 0 1
1 2 2 0 1
0 1
B 3 3 3 C x1 B C B C
B C B C B C
B 4 4 2 C B C B 1 C B 4 C
B C B C B C B C
A=B
B
C,
C X=B
B x 2
C,
C Y = B
B
C+µ B C,
C B C , µ 2 R.
B 1 2 2 C @ A B 0 C B 1 C
B C B C B C
@ 3 3 3 A x3 @ A @ A
2 2 1 1 3
ossia:
1
f (K) = ker f + L((4, 5, 0)),
da cui si legge che (ker f )? = L((4, 1, 0, 3), (0, 1, 2, 1)). I vettori della base di (ker f )?
appena determinata coincidono con due colonne linearmente indipendenti di A.
↵:V ! R,
cioè un elemento di L(V, R), si dice forma lineare su V. Lo spazio vettoriale L(V, R) si
dice spazio vettoriale duale di V e lo si indica con V ⇤.
↵((x1 , x2 , . . . , xn )) = a1 x1 + a2 x2 + . . . + an xn , ai 2 R, i = 1, 2, . . . , n, (6.20)
per ogni (x1 , x2 , . . . , xn ) 2 Rn . Rispetto alla base canonica B di Rn e alla base C = (1)
di R la matrice associata ad ↵ è dunque:
A = M B,C (↵) = a1 a2 . . . an .
Se ↵ non è la forma nulla (ossia se almeno uno tra gli ai , i = 1, 2, . . . , n, non è uguale a
zero) allora ↵ è suriettiva e il suo nucleo ha equazione, rispetto alla base B:
a1 x1 + a2 x2 + . . . + an xn = 0, (6.21)
Esempio 6.28 In V3 , riferito alla base ortonormale B = (i, j, k), si consideri la funzione
definita nell’Esempio 6.6:
a · : V3 ! R, x 7 ! a · x.
Rn,n ! R, A 7 ! tr(A),
dove tr(A) indica la traccia della matrice A, è una forma lineare su Rn,n .
Poiché V ⇤ = L(V, R), se dim(V ) = n segue da (6.15) che anche dim(V ⇤ ) = n. Quindi
lo spazio vettoriale V e il suo spazio vettoriale duale V ⇤ hanno la stessa dimensione. Il
teorema che segue dimostra di nuovo questo risultato ed, inoltre, indica il metodo con cui
si può costruire esplicitamente una base di V ⇤ a partire da una base di V.
dim(V ) = dim(V ⇤ ).
↵i (vj ) = ij ,
280 Applicazioni Lineari
Esercizio 6.23 In R2 si considerino due basi: la base canonica B = ((1, 0), (0, 1)) e
la base B 0 = (( 1, 2), (1, 1)). Nello spazio vettoriale duale (R2 )⇤ si consideri la base
B ⇤ = (↵1 , ↵2 ), duale della base B. Determinare le componenti dei vettori della base
(B 0 )⇤ = (↵10 , ↵20 ), duale della base B 0 , rispetto alla base B ⇤.
Capitolo 6 283
Esercizio 6.24 Determinare la base duale (B 0 )⇤ della base B 0 = ((1, 0, 2), (0, 1, 1), (2, 1, 2))
dello spazio vettoriale R3 , rispetto alla base duale B ⇤ della base canonica B di R3 .
Soluzione Sia (B 0 )⇤ = (↵10 , ↵20 , ↵30 ) la base duale di B 0 , allora dalla formula (6.26) si
ha: ✓ ◆ ✓ ◆ ✓ ◆
0 3 2 2 0 2 6 1 0 2 1 1
↵1 = , , , ↵2 = , , , ↵3 = , , ,
7 7 7 7 7 7 7 7 7
dove le componenti sono date rispetto alla base duale B ⇤ della base canonica B di R3 .
Definizione 6.14 Dato uno spazio vettoriale reale V, lo spazio vettoriale duale del suo
duale V ⇤ prende il nome di spazio vettoriale biduale e lo si indica con V ⇤⇤.
^
( x + µy)(↵) = ( x + µy)(↵) = ↵( x + µy)
= e(↵) + µe
↵(x) + µ↵(y) = x y(↵)
= ( (x) + µ (y))(↵).
Osservazione 6.20 1. Si osservi che l’isomorfismo non dipende dalla scelta di par-
ticolari basi in V e in V ⇤⇤, ma è definito in modo intrinseco, senza coinvolgere le
componenti dei vettori sia in V sia in V ⇤⇤, pertanto si tratta di un isomorfismo ca-
nonico. In altri termini, i due spazi vettoriali V e V ⇤⇤ sono uno la copia dell’altro,
rendendo cosı̀ inutile l’iterazione del processo di dualità a V ⇤⇤.
3. Se V è uno spazio vettoriale complesso di dimensione finita, si ha, come nel caso
reale, un isomorfismo canonico tra V e V ⇤⇤.
formano una base Be di V ⇤⇤. Dal fatto che eei (↵j ) = ↵j (ei ) = ij , i, j = 1, 2, . . . , n, si ha
che Be è la base duale di B ⇤. Allora ogni elemento x e di V ⇤⇤ si decompone, rispetto alla
e come:
base B,
e = xe1 ee1 + xe2 ee2 + . . . + x
x fn een ,
Capitolo 6 285
Esercizio 6.25 Sia R2 [x] lo spazio vettoriale dei polinomi in x a coefficienti reali di
grado minore o uguale a 2 (cfr. Es. 4.11) e siano b0 , b1 , b2 tre numeri reali distinti. Si
considerino le tre forme lineari:
↵00 : R2 [x] ! R, p(x) 7 ! p(b0 ),
↵10 : R2 [x] ! R, p(x) 7 ! p(b1 ), (6.30)
↵20 : R2 [x] ! R, p(x) 7 ! p(b2 ),
con 1 , 2 , 3 2 R e oR2 [x]⇤ forma lineare nulla su R2 [x]. Sia B = (1, x, x2 ) una
base di R2 [x], tenendo conto delle relazioni (6.30), segue:
da cui si ha:
8 0 0 0
< ( 1 ↵0 +
> 2 ↵1 + 3 ↵2 )(1) = 1 + 2 + 3 = 0,
( 1 ↵00 + 0
2 ↵1 + 0
3 ↵2 )(x) = 1 b0 + 2 b1 + 3 b2 = 0, (6.31)
>
:
( 1 ↵00 + 0
2 ↵1 + 0 2
3 ↵2 )(x ) = 2
1 b0 + 2
2 b1 + 2
3 b2 = 0.
minante:
1 1 1
det(P ) = b0 b1 b2 = (b0 b1 )(b0 b2 )(b2 b1 ) 6= 0.
b20 b21 b22
1
p0 (x) = (b1 b2 (b1 + b2 )x + x2 ) ,
(b0 b1 )(b0 b2 )
1
p1 (x) = (b0 b2 (b0 + b2 )x + x2 ) ,
(b0 b1 )(b2 b1 )
1
p2 (x) = (b0 b1 (b0 + b1 )x + x2 ) .
(b0 b2 )(b1 b2 )
0 1 0
1
p0 (x) 1
@ p1 (x) A = P 1@
x A.
p2 (x) x2
Capitolo 6 287
Esempio 6.31 Sia (V, · ) uno spazio vettoriale euclideo, fissato un vettore x in V, la
funzione:
x · : V ! R, y 7 ! x · y,
con “·” prodotto scalare su V, è una forma lineare. Infatti, dalle proprietà del prodotto
scalare si ha:
x · ( y1 + µy2 ) = x · y1 + µx · y2 ,
per ogni , µ 2 R e per ogni y1 , y2 2 V.
Teorema 6.23 Sia (V, · ) uno spazio vettoriale euclideo di dimensione finita, la funzione:
iV : V ! V ⇤, x7 !x· (6.32)
è un isomorfismo.
Dimostrazione Dalle proprietà del prodotto scalare segue che la funzione iV è un’ap-
plicazione lineare. L’iniettività di iV è conseguenza del calcolo di ker iV , ossia:
Osservazione 6.22 Nel caso di uno spazio vettoriale euclideo (V, · ) è quindi possibile
definire, mediante (6.32), un isomorfismo canonico tra V e il suo duale V ⇤ che non dipen-
de dalla scelta delle basi nei due spazi vettoriali ma solo dal prodotto scalare che conferi-
sce a V la struttura di spazio vettoriale euclideo. Si osservi, che se B = (e1 , e2 , . . . , en )
è una base ortonormale di (V, · ) e se si indica con B ⇤ = (↵1 , ↵2 , . . . , ↵n ) la base duale
di B, si ha:
Osservazione 6.23 Nel caso di uno spazio vettoriale hermitiano (V, · ), la funzione:
x·:V ! C, y 7 ! x · y,
·x : V ! C, y 7 ! y · x,
V ! V ⇤, x 7 ! ·x
non è un’applicazione lineare. Pertanto, a differenza del caso reale, un prodotto hermi-
tiano non permette di definire un isomorfismo canonico (senza l’uso delle basi) tra uno
spazio vettoriale hermitiano ed il suo duale.
Teorema 6.25 Siano V uno spazio vettoriale reale di dimensione n e W uno spazio vet-
toriale reale di dimensione m. Data un’applicazione lineare f : V ! W, si indichi con
A = M B,C (f ) la matrice di Rm,n associata ad f rispetto alle basi B = (v1 , v2 , . . . , vn )
di V e C = (w1 , w2 , . . . , wm ) di W. Si considerino nello spazio vettoriale duale V ⇤ la
base B ⇤ = (↵1 , ↵2 , . . . , ↵n ) duale della base B e nello spazio vettoriale duale W ⇤ la
base C ⇤ = ( 1 , 2 , . . . , m ) duale di C. La matrice associata all’applicazione lineare:
f : W⇤ ! V ⇤
t
da cui la tesi.
Osservazione 6.25 Dalla formula (6.35) si deduce che per calcolare l’immagine di un
vettore mediante la trasposta di un’applicazione lineare si effettua il prodotto della ma-
trice riga delle componenti del vettore a destra della matrice associata all’applicazione
lineare di partenza. Mentre per calcolare l’immagine di un vettore mediante un’applica-
zione lineare si effettua il prodotto a sinistra per la matrice colonna delle componenti del
vettore.
1. t (f + g) = tf + tg ,
2. t ( f ) = f.
t
Teorema 6.27 Siano V, W, Z spazi vettoriali reali, allora, per ogni f 2 L(V, W ) e per
ogni g 2 L(W, Z) si ha:
t
(g f ) = tf tg.
(tf ) 1
= t (f 1
).
Capitolo 6 291
Osservazione 6.26 Nel Paragrafo 6.8.4 è stato dimostrato che la trasposta di una matrice,
associata ad un’applicazione lineare f : V ! W rispetto alle basi B di V e C di W, è
la matrice associata all’applicazione lineare trasposta tf : W ⇤ ! V ⇤ rispetto alle basi
duali C ⇤ di W ⇤ e B ⇤ di V ⇤ (cfr. Def. 6.15 e Teor. 6.25).
Data un’applicazione lineare f : V ! W tra due spazi vettoriali euclidei (V, · ) e
(W, · ), rispettivamente di dimensione n e m, si intende in questa osservazione, tramite
l’isomorfismo canonico tra uno spazio vettoriale euclideo ed il suo duale, determinare il
legame tra la trasposta tf : W ⇤ ! V ⇤ di f e l’aggiunta f † : W ! V di f (cfr. Teor.
6.16). Si ha infatti:
ossia:
(tf ) iW = iV f †. (6.37)
Si osservi che, fissate una base ortonormale B di (V, · ) ed una base ortonormale C di
(W, · ), se si indica con A la matrice associata a f rispetto alle basi B e C , la matrice
trasposta di A, che è la matrice associata a tf rispetto alle basi duali C ⇤ e B ⇤ (cfr. Teor.
6.25), è anche la matrice associata a f † rispetto alle basi C e B, ovvero:
⇤ ,B ⇤
MC (tf ) = M C,B (f † ) = tA.
In notazione matriciale, rispetto alle basi ortonormali B, C e alle loro basi duali B ⇤ , C ⇤ , la
relazione (6.37) si traduce nella relazione:
t
A Im = In tA
da cui si ottiene:
t
X tA Y = t X A† Y ,
ossia A† = tA. Di conseguenza vale il seguente teorema, che è l’analogo del Teorema
6.16 in campo complesso.
Capitolo 6 293
Teorema 6.29 Sia (V, · ) uno spazio vettoriale hermitiano di dimensione n. Dato un’en-
domorfismo f di V, la matrice M B,B (f † ) associata all’endomorfismo aggiunto f † di f
rispetto ad una base unitaria B di (V, · ) è la trasposta coniugata della matrice M B,B (f )
associata a f rispetto alla stessa base.
Teorema 6.30 Sia (V, · ) uno spazio vettoriale hermitiano di dimensione n e sia B una
base unitaria di V. Un endomorfismo f di V è autoaggiunto se e solo se la matrice
A = M B,B (f ) 2 Cn,n è hermitiana, ossia se e solo se tA = A.
Sia (V, · ) uno spazio vettoriale euclideo di dimensione finita. La definizione seguente
estende (in modo naturale) a dimensioni superiori il concetto elementare di isometria o
movimento euclideo nel piano e nello spazio.
Il teorema che segue afferma che la definizione di isometria impone che necessariamente
essa sia un’isomorfismo.
Teorema 6.31 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Se f è un’iso-
metria di (V, · ), allora f è un automorfismo di V.
quindi x = o.
Si può generalizzare la definizione precedente al caso di isomorfismi tra due spazi vet-
toriali euclidei in questo modo: dati due spazi vettoriali euclidei V e W, con la stessa
dimensione, un isomorfismo f : V ! W si dice isometria se “non cambia ” il prodotto
scalare.
Esempio 6.32 Ogni rotazione R[✓] (in senso antiorario) di angolo ✓ del piano vettoriale
V2 è un’isometria (cfr. Es. 6.24). Inoltre, come è già stato affermato, la matrice associata
a R[✓] (rispetto ad una base ortonormale (i, j) di V2 ) è la matrice ortogonale:
✓ ◆
cos ✓ sin ✓
.
sin ✓ cos ✓
Alcune tra le principali proprietà delle isometrie sono riassunte nel seguente teorema.
\
c = cos(f (x)f
cos(xy) (y)). (6.41)
per ogni x 2 V.
x = x 1 e1 + x 2 e 2 + . . . + x n e n
296 Applicazioni Lineari
in V, allora:
kxk2 = x21 + x22 + . . . + x2n ,
d’altra parte, per la linearità di f :
quindi:
kf (x)k2 = x21 + x22 + . . . + x2n ,
da cui kf (x)k = kxk. Si osservi che il calcolo della norma dei vettori x e f (x) ha
assunto l’espressione suddetta in quanto riferito a due basi ortonormali (cfr. Teor.
5.4).
f † (f (x)) · y = x · y, x, y 2 V,
da cui
((f † f )(x) x) · y = 0,
per ogni x e y. Pertanto, f † f = id, ossia f † = f 1 . Viceversa, se f † = f 1
,
allora da (6.42) si ha immediatamente che f è un’isometria.
Osservazione 6.27 1. Dai punti 2. e 3. del teorema precedente segue che l’insieme
delle isometrie di uno spazio vettoriale euclideo (V, · ) è un gruppo (cfr. Oss. 2.2)
rispetto alla composizione di funzioni. Inoltre, fissata una base ortonormale B nello
spazio vettoriale euclideo (V, · ), per la proprietà 6. si può stabilire, in modo natu-
rale, un isomorfismo tra l’insieme delle isometrie di (V, · ) ed il gruppo ortogonale
O(n) associando ad ogni isometria f di V la matrice ortogonale A = M B,B (f ).
Capitolo 6 297
f :V ! V, x 7 ! 2x, (6.43)
Esempio 6.35 Gli elementi di O(2), ovvero le matrici ortogonali di ordine 2, sono neces-
sariamente o di tipo (3.31) o di tipo (3.33) (cfr. Esercizio 3.11). Pertanto gli endomorfismi
del piano vettoriale V2 con matrice associata, rispetto ad una base ortonormale B = (i, j),
di tipo (3.31) o di tipo (3.33) sono isometrie di V2 . Nel caso di matrici di tipo (3.31) si
ottengono le rotazioni R[✓] già considerate nell’ Esempio 6.32. Se si considera invece
un endomorfismo r✓ del piano vettoriale V2 con matrice associata, rispetto ad una base
ortonormale B = (i, j), di tipo (3.33), ossia:
✓ ◆
cos ✓ sin ✓
A✓ = ,
sin ✓ cos ✓
si ha un’isometria di V2 tale che r✓ r✓ coincide con l’identità di V2 , ovvero per cui
r✓ 1 = r✓ .
Verificare che l’automorfismo di R2 la cui matrice associata, rispetto alla base canonica
B = (e1 , e2 ) di R2 , è la matrice:
0 p 1
3
B 2 1 C
B C
A=B p C ,
@ A
1 3
4 2
è un’isometria di R2 . Per quale motivo A non è una matrice ortogonale?
> p
>
>
: x0 = 1 x + 3 x ,
2 1 2
4 2
298 Applicazioni Lineari
con (x01 , x02 ) = f ((x1 , x2 )). Per provare che f è un’isometria di (R2 , · ) è sufficiente
verificare che:
kf (x)k2 = (x01 )2 + 4(x02 )2 = x21 + 4x22 = kxk2 ,
con x = (x1 , x2 ) 2 R2 .
La matrice A non è un elemento di O(2) perché non è associata ad una base ortonormale
(rispetto al prodotto scalare introdotto), infatti ke2 k = 2.
Esercizio 6.28 Nello spazio vettoriale euclideo (V, · ) di dimensione 4, riferito alla base
ortonormale B = (e1 , e2 , e3 , e4 ), sono dati i vettori:
a = 2e1 e3 + 2e4 , b = e3 e4 .
f :V ! V, x7 !x 2(x · c)c
è un isometria di V .
2. Calcolare kf 1
(b)k ed il coseno dell’angolo ✓ tra i vettori f 1
(a) e f 1
(b).
Si lascia per esercizio la determinazione della matrice A associata a f rispetto alla base
B e la verifica del fatto che A sia una matrice ortogonale.
Capitolo 6 299
che coincide con l’identità su W e che associa ad ogni vettore del complemento orto-
gonale W ? di W il proprio opposto, è un endomorfismo di V. Infatti, si può verificare
che:
1
(x + g(x))
2
coincide con la proiezione ortogonale di x su W. L’endomorfismo g prende il nome
di simmetria ortogonale o riflessione rispetto all’iperpiano vettoriale W. È un esercizio
verificare che g è un’isometria dello spazio vettoriale euclideo (V, · ) e che g g coincide
con l’identità di V. Infine, se c è un versore ortogonale a W, allora:
2x1 x3 + 2x4 = 0.
Infine si può verificare che l’endomorfismo r✓ del piano vettoriale V2 , considerato nel-
l’Esempio 6.35, è una simmetria ortogonale rispetto ad una retta vettoriale. Infatti, si
ha: 0 1
2 ✓ ✓ ✓
B 1 2 sin 2 2 cos sin C
2 2 C
B
A✓ = B C
@ ✓ ✓ ✓ A
2 cos sin 1 2cos2
2 2 2
0 1 0 1
1 0 ✓
B C B sin C ✓ ◆
B C B 2 C ✓ ✓
= B C 2B C sin cos .
@ A @ ✓ A 2 2
0 1 cos
2
Automorfismi di uno spazio vettoriale euclideo che mantengano invariata la misura degli
angoli tra coppie di vettori e le loro immagini, ma in generale non le norme dei vettori, so-
no dati dalle similitudini, di cui l’automorfismo (6.43) ne è un esempio. Più precisamente
si può enunciare la seguente definizione.
300 Applicazioni Lineari
kf (x)k = µkxk, x 2 V,
da cui si deduce che µ deve essere un numero reale positivo non nullo.
Il teorema che segue, la cui dimostrazione è lasciata al Lettore per esercizio, riassume
alcune tra le principali proprietà delle similitudini.
kf (x)k = kxk, x 2 V.
La dimostrazione del Teorema 6.34 è analoga a quella del Teorema 6.32 tenendo però
conto che in questo caso vale la relazione (5.15).
Osservazione 6.30 Come per le isometrie, dai punti 2. e 3. del Teorema 6.34 segue che
l’insieme delle trasformazioni unitarie di uno spazio vettoriale hermitiano (V, · ) è un
gruppo (cfr. Oss. 2.2) rispetto alla composizione di funzioni. Inoltre, fissata una base or-
tonormale B nello spazio vettoriale hermitiano (V, · ) per il punto 5. dello stesso teorema
si può stabilire, in modo naturale, un isomorfismo tra l’insieme delle trasformazioni unita-
rie di (V, · ) ed il gruppo unitario U (n) delle matrici unitarie (cfr. Oss. 5.15) associando
ad ogni trasformazione unitaria f di V la matrice unitaria A = M B,B (f ).
302 Applicazioni Lineari
Capitolo 7
Diagonalizzazione
f (x) = x, (7.1)
303
304 Diagonalizzazione
Si antepongono due facili proprietà agli esempi, per poter meglio capire la definizione
appena enunciata.
Dimostrazione Per assurdo siano 6= 0 due autovalori di f relativi allo stesso auto-
vettore x, allora f (x) = x = 0 x da cui ( 0
)x = o, quindi segue la tesi.
V = {x 2 V | f (x) = x},
Osservazione 7.2 Dal precedente teorema segue, quindi, che ogni combinazione lineare
↵x + y, con x, y autovettori di un endomorfismo f relativi allo stesso autovalore
e ↵, 2 R, è ancora un elemento dell’autospazio V . Se si considerano, invece, due
autovettori x e y relativi a due autovalori distinti e µ ( 6= µ), ossia tali che f (x) = x
e f (y) = µy si ha che la generica loro combinazione lineare non è più un autovettore di
f, in quanto:
f (↵x + y) = (↵x) + µ( y).
Esempio 7.2 L’applicazione lineare nulla, definita nell’Esempio 6.2, ammette solo l’au-
tovalore = 0. L’unico autospazio V , cioè l’autospazio relativo a = 0, coincide con
V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, è la
matrice nulla. Pertanto, anche in questo caso la matrice è diagonale con l’autovalore 0
sulla diagonale principale.
Osservazione 7.3 Sia f un endomorfismo non iniettivo di uno spazio vettoriale V. Dal
Teorema 6.8 si ha che ker f 6= {o}, allora f ammette l’autovalore 0 e l’autospazio ad
esso relativo coincide con ker f. Viceversa, se f è iniettivo, allora ker f = {o}, quindi il
numero 0 non può essere un autovalore di f .
f : V3 ! V3 , x 7 ! (x · u)u,
V 1 V 2 = V3
eV 2 = V ?1 .
Esempio 7.4 A titolo di esempio si procede con il calcolo degli eventuali autovalori della
rotazione, in senso antiorario, di angolo ✓ in un piano vettoriale V2 , (cfr. Es. 6.24) vale a
dire della trasformazione lineare:
R[✓] : V2 ! V2 , x 7 ! R[✓](x)
⇢
x cos ✓ y sin ✓ = x
x sin ✓ + y cos ✓ = y.
Risolvendo il precedente sistema lineare omogeneo nelle incognite x e y si ottiene che
esistono soluzioni non nulle se e solo se il rango della matrice dei coefficienti:
✓ ◆
cos ✓ sin ✓
sin ✓ cos ✓
Prima di procedere con il calcolo degli autovalori e degli autovettori di un generico en-
domorfismo, vale a dire prima di introdurre il procedimento che generalizza l’esempio
appena esposto, si vuole dimostrare con il Teorema 7.3 una conseguenza importante delle
definizioni date e precisamente: la somma degli autospazi di un endomorfismo è diretta.
A titolo di esercizio, si inizia con il provare questa proprietà per la somma di due auto-
spazi. In questo caso, dimostrare che la somma di due autospazi V 1 + V 2 , con 1 6= 2 ,
è diretta equivale a provare che V 1 \ V 2 = {o}, (cfr. Teor. 4.4). Se per assurdo esiste
x 2 V 1 \ V 2 , x 6= o, allora f (x) = 1 x = 2 x da cui segue ( 1 2 )x = o, quindi
1 = 2 , che è assurdo. Per dimostrare questa proprietà in generale è però necessario
anteporre il lemma che segue, la cui dimostrazione è rimandata al Paragrafo 7.6.3.
x = x1 + x2 + . . . + xk = y1 + y2 + . . . + yk ,
Osservazione 7.4 Si osservi che il teorema appena enunciato afferma che, considerati
tutti gli autovalori distinti 1 , 2 , . . . , k di f , allora:
V 1 V 2 ... V k
✓V;
lo studio dell’uguaglianza tra questi due insiemi sarà oggetto del Paragrafo 7.3.
omogeneo (7.2) ammette soluzioni non nulle se e solo se rank(A I) < n, ossia se e
solo se:
det(A I) = 0. (7.3)
Si perviene allo stesso risultato facendo uso delle definizioni di somma e di prodotto per
scalari di endomorfismi introdotte nel Paragrafo 6.4 e riscrivendo (7.1) come:
(f id)(x) = o,
V = ker(f id).
Si procede ora con lo studio dettagliato dell’equazione (7.3) che prende il nome di equa-
zione caratteristica della matrice A; (7.3) è anche detta equazione caratteristica dell’en-
domorfismo f, infatti si dimostrerà nel Teorema 7.4 che essa non dipende dalla scelta
della matrice associata ad f , ovvero che tutte le matrici associate allo stesso endomorfi-
smo (matrici simili) hanno la stessa equazione caratteristica. Il polinomio det(A I)
a primo membro di (7.3) è detto polinomio caratteristico di A (o dell’endomorfismo f )
e lo si indicherà con P ( ). Pertanto, gli autovalori di f coincidono con le radici reali di
P ( ). Per ogni radice reale = ↵, l’autospazio corrispondente V↵ è formato dai vet-
tori x di V tali che f (x) = ↵x, ossia dalle soluzioni X del sistema lineare omogeneo
(A ↵I)X = O. Per questo motivo anche se il calcolo degli autovalori è riferito ad un
endomorfismo f spesso si parla di calcolo degli autovalori di una matrice quadrata A,
intendendosi come tale il calcolo degli autovalori dell’endomorfismo f a cui la matrice
A è associata rispetto ad una base di V.
Con l’esempio che segue si vuole determinare, per iniziare a capire il tipo di calcolo che
si deve svolgere, il polinomio caratteristico nel caso particolare delle matrici quadrate di
ordine 2, ossia nel caso di endomorfismi di uno spazio vettoriale reale di dimensione 2.
a11 a12
P ( ) = det(A I) = ,
a21 a22
da cui segue:
det(A I) = 2
tr(A) + det(A). (7.4)
Capitolo 7 309
P ( ) = det(A I) = ( 1)n n
+ ( 1)n 1
tr(A) n 1
+ . . . + det(A).
Infatti:
quindi il coefficiente di n
deve essere ( 1)n .
3. Anche il termine di grado n 1 del polinomio caratteristico si ottiene solo dal pro-
dotto degli elementi della diagonale principale (provare, per esempio, a fare il cal-
colo esplicito nel caso particolare delle matrici quadrate di ordine 3), è abbastanza
facile notare che il suo coefficiente deve essere ( 1)n 1 tr(A).
P (0) = det(A).
della precedente (si pensi alla formula risolutiva delle equazioni di secondo grado),
pertanto una matrice reale quadrata di ordine pari può non ammettere autovalori
(non si dimentichi che si sta solo trattando il caso degli spazi vettoriali reali), mentre
una matrice reale quadrata di ordine dispari ammette almeno un autovalore.
2 0 0 0
0 2 6 6
det(A I) = =0
0 0 3 3
0 0 2 2
e si ha:
V 1 coincide con ker f, che si ottiene riducendo per righe la matrice A. Si lasciano i
dettagli per esercizio, si ha rank(A) = 3, quindi dim(ker f ) = dim(V 1 ) = 1 e:
V 1 = L((0, 0, 1, 1)).
Capitolo 7 311
Per 2 = 1 si ottiene: 0 1
3 0 0 0
B 0 3 6 6 C
A I=B
@ 0
C,
0 2 3 A
0 0 2 3
da cui rank(A I) = 3 e, quindi, risolvendo il sistema lineare omogeneo corrispondente
all’equazione matriciale (A I)X = 0, si perviene a:
V 2 = L((0, 2, 3, 2)).
Si dimostrerà ora il teorema già annunciato, vale a dire matrici simili hanno lo stesso
polinomio caratteristico.
Osservazione 7.6 Si osservi che nell’Esempio 7.7 si sono ottenuti tre autovalori distinti
1 = 0 con molteplicità m 1 = 1, 2 = 1 con molteplicità m 2 = 1 e 3 = 2 con
molteplicità m 3 = 2. I tre autospazi V 1 , V 2 , V 3 avevano, rispettivamente, dimensione
1, 1, 2 e pertanto:
V 1 V 2 V 3 = R4 .
Inoltre, gli autovettori di f (o di A):
2 0 0
det(A I) = 0 1 1 = (2 )(1 )2 .
0 0 1
Si ottengono gli autovalori 1 = 2 con molteplicità m 1 =1e 2 = 1 con molteplicità
m 2 = 2. Gli autospazi relativi ai due autovalori sono:
Definizione 7.4 Una matrice quadrata A 2 Rn,n si dice diagonalizzabile se esiste una
matrice invertibile P di ordine n tale che:
P 1AP = D,
Nei precedenti paragrafi di questo capitolo si sono incontrati alcuni esempi di endomor-
fismi diagonalizzabili, quali l’applicazione identità, l’applicazione nulla, l’Esempio 7.7.
In questo paragrafo si cercherà di precisare quando un endomorfismo è diagonalizzabile
e come si procede, in pratica, alla diagonalizzazione di una matrice quadrata, dopo aver
controllato che ciò sia possibile.
Il primo teorema (la cui dimostrazione è conseguenza immediata della Definizione 7.3)
provvede a dare un metodo pratico, utile per riconoscere se un endomorfismo è diagona-
lizzabile.
Si possono perciò enunciare quelli che usualmente vengono indicati come i criteri di
diagonalizzazione.
1. f è diagonalizzabile.
Capitolo 7 315
dim(V i ) = m i , i = 1, 2, . . . , k.
1. =) 4. =) 3. =) 2. =) 1.
P ( ) = det(A I) = ( 1 )m 1 . . . ( k )m k ,
da cui segue che ogni radice del polinomio caratteristico è reale. Inoltre, per ogni autova-
lore i si ha:
dim(V i ) = n rank(A i I) = m i .
Per dimostrare l’implicazione 4. =) 3. si può osservare che, per ipotesi, ogni radice del
polinomio caratteristico è reale e quindi la somma delle moltiplicità delle radici distinte,
cioè degli autovalori distinti, coincide con il grado del polinomio caratteristico, ovvero:
m 1 +m 2 + ... + m k
= dim(V )
e quindi:
dim(V 1 ) + dim(V 2 ) + . . . + dim(V k ) = dim(V ).
Per dimostrare l’implicazione 3. =) 2., tenendo conto che per il Teorema 7.3 la somma
di tutti gli autospazi relativi agli autovalori distinti 1 , 2 , . . . , k è diretta e che dall’affer-
mazione 3. la somma delle dimensioni degli autospazi è pari alla dimensione di V, segue
che la somma di tutti gli autospazi coincide necessariamente con V.
316 Diagonalizzazione
Osservazione 7.8 La decomposizione 2. del teorema precedente è anche nota come de-
composizione spettrale di V.
Come conseguenza immediata del Teorema 7.7 si ha il seguente corollario, la cui dimo-
strazione è lasciata al Lettore come esercizio.
2. Sia A una matrice simmetrica, è sempre possibile individuare una matrice ortogo-
nale Q tale che:
D = Q 1AQ = t QAQ,
cioè A è diagonalizzabile mediante una matrice ortogonale.
Capitolo 7 317
Si ricordi che il Teorema 6.17 afferma che, fissata una base ortonormale B in uno spa-
zio vettoriale euclideo (V, · ), la matrice M B,B (f ) associata ad un endomorfismo f di V
è simmetrica se e solo se l’endomorfismo f è autoaggiunto. Di conseguenza, si dimo-
strerà, in questo paragrafo, che è possibile formulare il Teorema Spettrale 7.8 in termini
di endomorfismi autoaggiunti e che le due formulazioni sono equivalenti se e solo se si
considerano basi ortonormali dello spazio vettoriale euclideo (V, · ). Più precisamente si
dimostrerà il seguente teorema.
Osservazione 7.10 1. Si osservi che le due formulazioni del Teorema Spettrale 7.8 e
7.9 sono equivalenti solo se si sceglie nello spazio vettoriale euclideo (V, · ) una
base ortonormale. Pertanto dalla dimostrazione del Teorema 7.9 segue la dimostra-
zione del Teorema 7.8.
2. Per dimostrare il punto 3. del Teorema Spettrale 7.8 si può anche osservare che
dal fatto che esiste una matrice Q ortogonale tale che t QAQ = D, si deduce
A = QD t Q e quindi:
t
A = t (QD t Q) = QD t Q = A,
in quanto ovviamente tD = D.
318 Diagonalizzazione
Si inizia con enunciare una prima proprietà sulle radici del polinomio caratteristico di una
matrice simmetrica, la cui dimostrazione è rimandata al Paragrafo 7.6 in quanto essa segue
dal fatto che si dovrà considerare uno spazio vettoriale definito sul campo dei numeri
complessi C, invece che su R.
Lemma 7.2 Tutte le radici del polinomio caratteristico di una matrice simmetrica A di
ordine n sono reali, o in modo equivalente, tutte le radici del polinomio caratteristi-
co di un endomorfismo autoaggiunto f di uno spazio vettoriale euclideo (V, · ) sono
reali. In altri termini, se 1 , 2 , . . . , k sono tutti gli autovalori distinti di un endomor-
fismo autoaggiunto f di V con rispettive molteplicità m 1 , m 2 , . . . , m k , allora si ha
l’uguaglianza:
m 1 + m 2 + . . . + m k = n,
dove n è la dimensione di V.
Osservazione 7.11 Come già affermato, il Teorema 7.8 è conseguenza del Teorema 7.9.
Ma il Teorema 7.9 afferma che ogni matrice associata ad un endomorfismo autoaggiunto
di uno spazio vettoriale euclideo (V, · ) è diagonalizzabile, anche se la matrice associata
non è simmetrica. Un esempio significativo è studiato nell’Esercizio 8.19. Nel Teorema
8.28 sono determinate tutte le matrici associate ad un endomorfismo autoaggiunto rispetto
ad una base qualsiasi di V.
320 Diagonalizzazione
da cui: 1 0
0 0 0
t
P AP = D = @ 0 2 0 A.
0 0 3
da cui:
t
QAQ = D.
Capitolo 7 323
2. Dal punto precedente segue che per a = 0 il rango della matrice A è 3, pertanto
A è una matrice invertibile che quindi non ammette l’autovalore = 0. Infatti,
risolvendo l’equazione caratteristica det(A I) = 0, si ottiene che gli autovalori
di A sono 1 = 5 con molteplicità pari a 1 e 2 = 3 con molteplicità 2. Gli
autospazi corrispondenti sono dati da:
4. Le radici del polinomio caratteristico della matrice A del testo dell’esercizio sono:
p p
1 = 3, 2 = 4+ 1 + 2a2 , 3 = 4 1 + 2a2 .
Innanzi tutto si osserva che per ogni valore di a la quantità 1 + 2a2 è sempre stretta-
mente positiva, pertanto, per ogni valore di a, le radici 1 , 2 , 3 sono autovalori di
A. Si tratta di studiare la loro molteplicità al variare di a 2 R. Come
p già osservato,
non si hanno valori di a per cui 2 = 3 . Da 1 = 2 si ottiene 1 + 2a2 = 1,
caso che non si può verificare. Da 1 = 3 segue a = 0, che è il caso studiato nel
punto 3. Pertanto la matrice A è diagonalizzabile per ogni valore di a, infatti (ad
eccezione di a = 0) tutti gli autovalori sono distinti (cfr. Cor. 7.1).
0 0 0 1
si ha che: 0 1
2 1 0 0
B 4 2 0 0 C
A0 = P 1 AP = B
@ 0
C.
0 2 1 A
0 0 4 2
Si osservi che, ovviamente, non esiste una base di R4 formata da autovettori, ma,
per esempio, si può ottenere una base C di R4 , completando la base di ker f
ottenuta nel punto 1.. Ad esempio:
C = ((1, 0, 2, 0), (0, 1, 0, 2), (0, 0, 1, 0), (0, 0, 0, 1)).
326 Diagonalizzazione
dove 0 1
1 0 0 0
B 0 1 0 0 C
P0 = B
@ 2
C
0 1 0 A
0 2 0 1
è la matrice del cambiamento di base dalla base canonica B di R4 alla base C . Si os-
servi anche che la matrice M C,C (f ) non è diagonale ma è diagonale “a metà”. Infatti
la restrizione di f a ker f (cfr. Def. 6.10) coincide ovviamente con l’endomorfismo
nullo di ker f .
Soluzione È più facile procedere con la risoluzione del secondo punto e poi dedurre
da questa la soluzione del primo punto.
Capitolo 7 327
1. Da D = P 1
AP segue:
0 1
0 1 1 2
B 0 0 1 2 C
A = P DP 1
=B
@ 0
C.
1 0 2 A
0 0 0 1
xk = µ1 x1 + µ2 x2 + . . . + µk 1 xk 1 , (7.7)
k xk = µ1 1 x1 + µ2 2 x2 + . . . + µk 1 k 1 xk 1 . (7.8)
k xk = µ1 k x1 + µ2 k x2 + . . . + µk 1 k xk 1 . (7.9)
I vettori coinvolti nella relazione precedente sono lineramente indipendenti per ipotesi
induttiva, quindi tutti i coefficienti sono nulli, ma, essendo gli autovalori distinti si ottiene
µ1 = µ2 = . . . = µk 1 = 0, risultato che sostituito nella formula 7.7 comporta xk = o,
che è assurdo, trattandosi di un autovettore.
P 1
AP = D, Q 1 AQ = D0 ,
La definizione appena enunciata riscritta facendo uso delle matrici associate agli endo-
morfismi f e g rispetto ad una base di V si traduce nella seguente definizione.
A = P DP 1
, B = P D0 P 1
, (7.10)
f g = g f,
AB = P D(P 1
P )D0 P 1
= P DD0 P 1
= (P D0 P 1
)(P DP 1
) = BA.
V =V 1 V 2 ... V k. (7.11)
y = w1 + w2 + . . . + wk , wi 2 V i , i = 1, 2, . . . , k.
Questo prova che per ogni autovettore y di g è possibile determinare almeno un vettore
wi che sia simultaneamente autovettore di f e di g . Applicando questo metodo ad una
base (y1 , y2 , . . . , yn ) di autovettori di g , che esiste sicuramente in quanto g è diagona-
lizzabile, si ottengono almeno n vettori che sono simultaneamente autovettori di f e g .
Poiché i vettori yi sono combinazione lineare degli autovettori comuni ad f e a g, lo
spazio vettoriale da essi generato coincide con L(y1 , y2 , . . . , yn ) = V e perciò da essi si
può estrarre una base comune di autovettori di f e di g .
Osservazione 7.12 Per determinare una base comune di autovettori per due endomor-
fismi diagonalizzabili f e g che commutano è sufficiente estrarre una base dall’insieme
unione delle basi dei sottospazi vettoriali V i \V 0j ottenuti come intersezione di ogni auto-
spazio V i di f con ogni autospazio V 0j di g . Si noti che per alcuni indici i e j tale inter-
sezione può essere ridotta all’insieme {o}. Inoltre, appare evidente dalla dimostrazione
del Teorema 7.12 che la base comune di autovettori non è unica.
Esercizio 7.8 Dati due endomorfismi f e g su R3 le cui matrici, rispetto alla base cano-
nica di R3 , sono rispettivamente:
0 1 0 1
2 0 0 1 0 0
A= @ 0 2 0 A, B= @ 2 3 0 A,
1 0 3 2 0 3
1 = 2, m 1 = 2; 2 = 3, m 2 =1
ed autospazi:
V 1 = L((1, 0, 1), (0, 1, 0)), V 2 = L((0, 0, 1));
mentre l’endomorfismo g ha autovalori con relative molteplicità:
0 0
1 = 1, m 0
1
= 1; 2 = 3, m 0
2
=2
ed autospazi:
V 0
1
= L((1, 1, 1)), V 0
2
= L((0, 1, 0), (0, 0, 1)).
Quindi i due endomorfismi sono diagonalizzabili, poiché commutano sono simultanea-
mente diagonalizzabili. Si vede subito che gli autovettori di g :
y1 = (1, 1, 1), y2 = (0, 1, 0), y3 = (0, 0, 1)
sono anche autovettori di f e, quindi, costituiscono una base di autovettori comune ad f
e a g. Si presti attenzione al fatto che, rispetto alla base comune (y1 , y2 , y3 ), la matrice:
0 1
2 0 0
D=@ 0 2 0 A
0 0 3
è associata a f , mentre la matrice:
0 1
1 0 0
D0 = @ 0 3 0 A
0 0 3
è associata a g .
provare che sono simultaneamente diagonalizzabili. Determinare, quindi, una matrice che
le diagonalizzi entrambe.
1 = 0, m 1 = 3; 2 = 4, m 2 = 1;
V 1 = L(v1 , v2 , v3 ), V 2 = L(v4 ),
con v10 = (0, 1, 0, 1), v20 = ( 1, 0, 3, 0), v30 = (0, 1, 4, 0), v40 = ( 1, 0, 0, 1). Le due
matrici A e B sono simultaneamente diagonalizzabili in quanto A e B commutano,
infatti:
AB = BA = O,
con O 2 R4,4 matrice nulla.
Il Teorema 7.12 assicura che, ad esempio, a partire dalla base B 0 = (v10 , v20 , v30 , v40 ) di R4
è possibile determinare una base comune di autovettori che si ottiene seguendo il metodo
esposto nella dimostrazione. Si decompongono i vettori della base B = (v1 , v2 , v3 , v4 )
di R4 attraverso i vettori della base B 0 , con l’avvertenza di raggruppare e sommare gli
autovettori appartenenti allo stesso autospazio. Si hanno le seguenti espressioni:
8 0
> v1 = v4 0
>
<
v2 = v1 + v30 + v40
>
> v3 = v10 v40
:
v4 = v20 ,
dalle quali risulta che (casualmente) i vettori della base B 0 sono autovettori comuni alle
due matrici. Scambiando il ruolo delle basi B e B 0 , si avrebbe:
8 0
>
> v = v1 + v3
< 10
v2 = v4
>
> v0 = v2 + v3
: 30
v4 = v1 ,
dove si osserva che una base comune è formata dai vettori v10 , v20 , v30 , v40 , ossia, nuova-
mente, la base B 0 .
Capitolo 7 333
Come già precisato nell’Osservazione 7.12 un altro modo per determinare una base co-
mune di autovettori delle due matrici A e B diagonalizzabili e che commutano, consiste
nell’estrarre una base dall’insieme unione delle basi dei sottospazi vettoriali: V i \ V 0j ,
i = 1, 2, j = 1, 2, 3, dove V i e V 0j rappresentano gli autospazi delle matrici A e B
rispettivamente. Nel caso in esame, ommettendo i calcoli per brevità, si ha:
V 1 \V 0
1
= L((0, 1, 0, 1)),
V 1 \V 0
2
= L((0, 1, 4, 0)),
V 1 \V 0
3
= L(( 1, 0, 0, 1)),
V 2 \V 0
1
= L(( 1, 0, 3, 0)),
V 2 \V 0
2
= {o},
V 2 \V 0
3
= {o},
e si ottengono nuovamente i vettori della base B 0 .
P ( ) = ( 1)n n
+ an 1
n 1
+ . . . + a1 + a0
P (A) = ( 1)n An + an 1 An 1
+ . . . + a1 A + a0 I = O,
P ( ) = det(A I) = ( 1)n n
+ an 1
n 1
+ . . . + a1 + a0 , (7.12)
con an 1 = ( 1)n 1 tr(A) e a0 = det(A). Sia B( ) l’aggiunta della matrice A I,
(cfr. Def. 2.14), gli elementi di B( ), essendo i cofattori della matrice A I, sono
polinomi in di grado non superiore a n 1. Quindi si può scrivere:
B( ) = Bn 1
n 1
+ . . . + B1 + B0 , (7.13)
334 Diagonalizzazione
dove gli elementi delle matrici Bi 2 Rn,n non dipendono da . Ricordando il calcolo
esplicito della matrice inversa (cfr. Teor. 2.19), segue che:
O = ( 1)n An + an 1 An 1
+ . . . + a1 A + a0 I = P (A). (7.14)
Il polinomio caratteristico di A è :
3 2
P( ) = +6 11 + 6.
Poiché: 0 1
2 0 0
A I=@ 1 3 0 A,
1 1 1
l’aggiunta B( ) della matrice (A I) è:
0 1
3 4 + 2 0 0
B( ) = @ 1+ 2 3 + 2
0 A
2
4 2+ 6 5 +
Capitolo 7 335
da cui:
2
B( ) = B2 + B1 + B0
0 1 0 1 0 1
1 0 0 4 0 0 3 0 0
= @ 0 1 0 A 2
+@ 1 3 0 A +@ 1 2 0 A.
0 0 1 1 1 5 4 2 6
Esempio 7.9 Sia A una matrice quadrata di ordine 2, dal Teorema di Cayley–Hamilton
7.13 e da (7.4) segue:
A2 = tr(A)A det(A)I.
Si possono cosı̀ ottenere le potenze di A in funzione delle potenze precedenti, per esem-
pio:
Mentre nel caso reale solo le radici reali del polinomio caratteristico sono autovalori, nel
caso complesso, per il Teorema Fondamentale dell’Algebra, ogni radice del polinomio
caratteristico è un autovalore.
Per il calcolo degli autospazi si procede nello stesso modo del caso reale (cfr. Par. 7.2):
Capitolo 7 337
Come nel caso reale si ha che la dimensione di un autospazio V , come spazio vettoriale
complesso, è data da dim(V ) = dim(V ) rank(A I).
1. f è diagonalizzabile.
Nel Paragrafo 7.4 è stato dimostrato che ogni matrice simmetrica è diagonalizzabile me-
diante una matrice ortogonale e che se f è un endomorfismo autoaggiunto di uno spazio
vettoriale euclideo (V, · ), esiste una base ortonormale di V formata da autovettori. Gli
autovalori e gli autovettori di un endomorfismo autoaggiunto di uno spazio vettoriale her-
mitiano (V, · ) (e di conseguenza di una matrice hermitiana) godono delle stesse proprietà
viste nel caso reale. Queste sono riassunte nel teorema che segue.
f (x) · x = x · x. (7.15)
2. Ogni matrice hermitiana è pertanto simile ad una matrice diagonale reale tramite
una matrice unitaria. In altri termini, per ogni matrice hermitiana A esistono una
matrice unitaria P ed una diagonale reale D per cui
1
D=P AP = t P AP.
A differenza di ciò che succede nel caso reale per ciò che riguarda le matrici simmetriche
(cfr. Teor. 7.8), si proverà che se una matrice A 2 Cn,n è diagonalizzabile in campo
complesso mediante una matrice unitaria essa non è necessariamente hermitiana, ma ve-
rifica solo la relazione t A A = A t A (cfr. Teor. 7.16). Ad esempio si avrà che le matrici
ortogonali reali A (quindi tali che tA = A 1 ) sono diagonalizzabili in campo complesso
mediante una matrice unitaria (cfr. Esercizio 7.11).
Definizione 7.7 Una matrice quadrata complessa A 2 Cn,n di ordine n si dice normale
se:
t
A A = A t A.
Ricordando la notazione A⇤ = t A (cfr. Oss. 4.34) si ha che una matrice quadrata
complessa A 2 Cn,n di ordine n si dice normale se:
A⇤ A = A A⇤ .
Esercizio 7.11 Verificare che le matrici unitarie, le matrici reali ortogonali, le matrici
hermitiane e le matrici simmetriche (reali) sono esempi di matrici normali.
A t A = t A A = I.
A t A = t A A = I.
A t A = t A A = A2 .
A t A = t A A = A2 .
Il teorema spettrale, valido nel caso reale per le matrici simmetriche, in campo comples-
so non vale solo per le matrici hermitiane ma in generale per le matrici normali. Più
precisamente si ha il seguente teorema.
Teorema 7.16 – Teorema spettrale in campo complesso – 1. Sia A una matrice nor-
male, allora esistono una matrice unitaria P ed una matrice diagonale D tali che
P 1 AP = D.
in quanto t D = D e t P = P 1
. Quindi:
t
AA = (t P DP )(P 1
DP ) = t P DDP = P 1
DDP,
A t A = (P 1
DP )(t P DP ) = P 1
DDP,
ma DD = DD.
Osservazione 7.14 1. Si osservi che gli autovalori di una matrice normale sono in
generale numeri complessi e quindi la matrice D non è necessariamente reale.
Nel caso di una trasformazione unitaria di uno spazio vettoriale hermitiano (cfr. Par. 5.5.2
e 6.8.7) valgono le seguenti proprietà, per la dimostrazione si rimanda ad esempio a [14].
Teorema 7.18 Sia f una trasformazione unitaria di uno spazio vettoriale hermitiano
(V, · ).
Si osservi che il fatto che esista una base unitaria di V formata da autovettori di f segue
anche dalla proprietà già enunciata che le matrici unitarie sono diagonalizzabili mediante
matrici unitarie (cfr. Teor. 7.16.)
342 Diagonalizzazione
Capitolo 8
In questo capitolo vengono trattate le forme bilineari, particolari funzioni che estendono
il concetto di prodotto scalare definito nel Capitolo 5. Tra le innumerevoli applicazioni di
questo argomento si ha lo studio approfondito delle coniche nel piano e delle quadriche
nello spazio che saranno presentati nei Capitoli 10 e 12.
Definizione 8.1 Una forma bilineare su uno spazio vettoriale reale V è una funzione:
':V ⇥V !R
per cui valgono le seguenti proprietà:
1. '(x + x0 , y) = '(x, y) + '(x0 , y);
2. '(x, y + y0 ) = '(x, y) + '(x, y0 );
3. '( x, y) = '(x, y) = '(x, y),
per ogni x, x0 , y, y0 2 V e per ogni 2 R.
343
344 Forme Bilineari e Forme Quadratiche
'(x, y) = x1 y1 2x2 y2 ,
per ogni (x1 , x2 ), (x01 , x02 ), (y1 , y2 ) 2 R2 . Analogamente si può dimostrare che ' verifica
le proprietà 2. e 3. della Definizione 8.1. Inoltre, si ha '(x, y) = '(y, x), per ogni
x, y 2 R2 .
Esempio 8.2 Si verifichi per esercizio che la funzione ' : R2 ⇥ R2 ! R definita da:
'(x, y) = x1 y1 + 2x2 y2 + 4,
Esempio 8.3 Si verifichi per esercizio che la funzione ' : R2 ⇥ R2 ! R definita da:
In generale, data una forma bilineare ' su uno spazio vettoriale reale V non si ha ne-
cessariamente che '(x, y) = '(y, x), per ogni x, y 2 V. Si può quindi introdurre la
seguente definizione.
Capitolo 8 345
Definizione 8.2 Una forma bilineare ' su uno spazio vettoriale reale V si dice simme-
trica se:
'(x, y) = '(y, x),
per ogni x, y 2 V.
Esempio 8.5 Ogni prodotto scalare su uno spazio vettoriale reale V è un esempio di
forma bilineare simmetrica su V (cfr. Def. 5.1).
L’insieme delle forme bilineari simmetriche su V sarà indicato con Bs (V, R). Su questo
insieme si può definire in modo naturale una struttura di spazio vettoriale su R. Infat-
ti, sull’insieme Bs (V, R) delle forme bilineari simmetriche si introduce l’operazione di
somma di due forme bilineari simmetriche '1 , '2 , come la funzione:
'1 + '2 : V ⇥ V ! R,
definita da:
('1 + '2 )(x, y) = '1 (x, y) + '2 (x, y), x, y 2 V, (8.1)
e l’operazione di prodotto di un numero reale 2 R per una forma bilineare simmetrica
come la funzione:
' : V ⇥ V ! R,
definita da:
( ')(x, y) = '(x, y), x, y 2 V, 2 R. (8.2)
È immediato verificare che '1 + '2 e ' sono forme bilineari simmetriche e che vale il
seguente teorema.
Osservazione 8.2 Si può definire, in modo analogo al caso reale, una forma bilineare
complessa ' su uno spazio vettoriale complesso V come la funzione:
':V ⇥V !C
per cui valgono le seguenti proprietà:
1. '(x + x0 , y) = '(x, y) + '(x0 , y);
2. '(x, y + y0 ) = '(x, y) + '(x, y0 );
3. '( x, y) = '(x, y) = '(x, y),
per ogni x, x0 , y, y0 2 V e per ogni 2 C. Si osservi che un prodotto hermitiano su uno
spazio vettoriale complesso V non è però una forma bilineare complessa su V in quanto
non è lineare nel secondo argomento (cfr. (5.12)).
'(x, y) = '(x1 v1 + x2 v2 + . . . + xn vn , y1 v1 + y2 v2 + . . . + yn vn )
= x1 y1 '(v1 , v1 ) + x1 y2 '(v1 , v2 ) + . . . + x1 yn '(v1 , vn )
+ x2 y1 '(v2 , v1 ) + x2 y2 '(v2 , v2 ) + . . . + x2 yn '(v2 , vn )
+ ... (8.3)
+ xn y1 '(vn , v1 ) + xn y2 '(vn , v2 ) + . . . + xn yn '(vn , vn )
n
X
= xi yj '(vi , vj ).
i,j=1
Si può dimostrare che, fissata una base B dello spazio vettoriale V, la funzione che ad
ogni forma bilineare simmetrica ' associa la matrice simmetrica A ad essa associata è
un isomorfismo tra Bs (V, R) e il sottospazio vettoriale di Rn,n delle matrici simmetriche
S(Rn,n ). Infatti si è appena dimostrato che, fissata una base B di V, una forma bili-
neare simmetrica ' definita su V individua una matrice simmetrica di Rn,n . Viceversa,
assegnando una matrice simmetrica A = (aij ) 2 S(Rn,n ), da (8.4) viene individuata
una forma bilineare simmetrica ' su V. Inoltre è facile verificare che tale funzione è
un’applicazione lineare. Si ha quindi il seguente teorema.
Teorema 8.2 Sia V uno spazio vettoriale reale di dimensione n. Fissata una base di V,
lo spazio vettoriale Bs (V, R) delle forme bilineari simmetriche è isomorfo al sottospazio
vettoriale S(Rn,n ) delle matrici simmetriche di Rn,n ; esso ha quindi dimensione pari alla
dimensione di S(Rn,n ), ossia:
n(n + 1)
dim(Bs (V, R)) = .
2
La dimostrazione del teorema è lasciata come esercizio al Lettore.
L’espressione (8.4) prende il nome di forma o espressione polinomiale della forma bili-
neare simmetrica ' rispetto alla base B. Si tratta di un polinomio omogeneo di secondo
grado nelle componenti di x e y rispetto alla base B, dove per polinomio omogeneo si
intende un polinomio con termini tutti dello stesso grado.
348 Forme Bilineari e Forme Quadratiche
Esempio 8.7 La matrice associata alla forma bilineare dell’Esempio 8.1, rispetto alla
base canonica di R2 , è:
✓ ◆
1 0
A=
0 2
Esempio 8.8 La matrice associata al prodotto scalare standard (5.1) su Rn , rispetto alla
base canonica B di Rn, è la matrice unità I. Mentre la matrice associata al prodotto
scalare dell’Esempio 5.3, rispetto alla base canonica di R3 , è la matrice diagonale:
0 1
3 0 0
A = @ 0 4 0 A.
0 0 5
Sia nell’Esempio 8.7 sia nell’Esempio 8.8 la matrice associata alla forma bilineare sim-
metrica è diagonale, si vedrà in questo capitolo che se la matrice associata ad una forma
bilineare simmetrica è diagonale sarà più facile classificarla e riconoscere se si tratti o
meno di un prodotto scalare.
0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
X=B .. C, Y =B .. C
@ . A @ . A
xn yn
con aij = aji , per ogni i, j = 1, 2, . . . , n. Inoltre, poiché '(x, y) è un numero reale,
risulta:
'(x, y) = t ('(x, y)) = tXA Y = t ( tXA Y ) = t Y tA X,
e dalla simmetria di A segue la tesi.
L’espressione (8.5) è detta espressione matriciale della forma bilineare simmetrica '
rispetto alla base B.
Esempio 8.9 La forma bilineare simmetrica ' 2 Bs (R3 , R) con matrice associata rispet-
to alla base canonica di R3 : 0 1
1 0 2
A=@ 0 1 5 A
2 5 0
ha come espressione polinomiale rispetto alla base canonica di R3 :
Ci si propone ora di determinare il legame che intercorre tra le matrici associate alla stessa
forma bilineare simmetrica su uno spazio vettoriale V, cambiando base in V.
350 Forme Bilineari e Forme Quadratiche
Teorema 8.4 Siano V uno spazio vettoriale reale, B e B 0 due basi di V, A = M B (') e
0
A0 = M B (') le matrici associate a ' rispetto a B e a B 0 rispettivamente. Se P indica
la matrice del cambiamento di base da B a B 0 , risulta:
A0 = tP AP.
D’altra parte si può scrivere '(x, y) = tX 0 A0 Y 0 e, dal confronto delle due espressioni, si
ottiene:
t 0t
X P AP Y 0 = tX 0 A0 Y 0 ,
oppure:
X 0 ( tP AP
t
A0 )Y 0 = 0,
per ogni X 0 e per ogni Y 0 , da cui A0 = tP AP .
✓ ◆ ✓ ◆✓ ◆✓ ◆ ✓ ◆
3 1 0 1 2 3 1 1 2 7 1
A= , A = = .
1 2 2 1 1 2 2 1 1 18
Esempio 8.11 Si consideri il prodotto scalare standard sullo spazio vettoriale V3 dei
vettori ordinari, definito nel Paragrafo 3.7.1:
c
'(x, y) = kxkkyk cos(xy), x, y 2 V3 .
Come già osservato nell’Esempio 8.8, la matrice associata a questo prodotto scalare
rispetto ad una base ortonormale B = (i, j, k) è:
0 1
1 0 0
M B (') = I = @ 0 1 0 A,
0 0 1
infatti:
'(x, y) = x1 y1 + x2 y2 + x3 y3 , (8.6)
se x = x1 i + x2 j + x3 k e y = y1 i + y2 j + y3 k. Sia B 0 = (2i, i + 5j, 2k) una nuova
base (non ortonormale) di V3 . La matrice associata al prodotto scalare standard rispetto
alla nuova base B 0 è la matrice simmetrica:
0 1
4 2 0
0
M B (') = tP IP = tP P = @ 2 26 0 A,
0 0 4
cioè se x, y hanno componenti rispettivamente (x01 , x02 , x03 ) e (y10 , y20 , y30 ) rispetto alla
base B 0 si ha:
'(x, y) = 4x0 y 0 + 2(x01 y20 + x02 y10 ) + 11x02 y20 + 4x03 y30 . (8.7)
Si pone quindi il problema, che sarà discusso nei paragrafi successivi, di riconoscere che
la forma bilineare ', definita rispetto alla base B 0 tramite l’espressione polinomiale (8.7),
coincida con il prodotto scalare (8.6), scritto rispetto alla base B.
352 Forme Bilineari e Forme Quadratiche
Osservazione 8.4 Segue dal Teorema 5.4 che se ' è un prodotto scalare su uno spazio
vettoriale reale V allora la matrice M B (') associata alla forma bilineare simmetrica '
rispetto ad una base B di V coincide con la matrice unità I se e solo se B è una base
ortonormale.
Definizione 8.3 Sia ' 2 Bs (V, R), una forma bilineare simmetrica la funzione:
si dice forma quadratica associata alla forma bilineare simmetrica '. Analogamente, una
funzione Q : V ! R prende il nome di forma quadratica su V se esiste una forma
bilineare simmetrica ' su V tale che Q(x) = '(x, x), con x 2 V.
L’insieme delle forme quadratiche su V verrà indicato con Q(V, R). Si dimostri per
esercizio che Q(V, R) ha la struttura di spazio vettoriale reale, rispetto ad opportune
operazioni di somma e di prodotto per numeri reali.
Teorema 8.5 Sia Q una forma quadratica su uno spazio vettoriale reale V. Allora:
Q( x) = '( x, x), x, y 2 V, 2 R.
Osservazione 8.5 1. Dal teorema precedente segue che una forma quadratica Q defi-
nita su uno spazio vettoriale reale V non è un’applicazione lineare da V in R.
Capitolo 8 353
Definizione 8.4 Sia V uno spazio vettoriale reale di dimensione n e sia B una sua base,
la matrice simmetrica di ordine n associata ad una forma bilineare simmetrica ' definita
su V rispetto alla base B si dice anche matrice associata alla forma quadratica Q rispetto
alla base B e si indica pertanto con M B (Q).
Sia ' una forma bilineare simmetrica definita su uno spazio vettoriale reale V di dimen-
sione n. Fissata una base B = (v1 , v2 , . . . , vn ) di V si indichi con A = (aij ), i, j =
1, 2, . . . , n la matrice simmetrica associata a ' rispetto alla base B. Dalla formula (8.5)
segue che la forma quadratica Q associata a ' ha la seguente espressione matriciale,
scritta rispetto alla base B:
n
X
Q(x) = '(x, x) = aij xi xj = tXAX, (8.9)
i,j=1
con aij = aji , per ogni i, j = 1, 2, . . . , n. Si osservi che Q(x) si esprime mediante un
polinomio omogeneo di secondo grado nelle componenti del vettore x rispetto alla base
B. Per questo motivo Q prende il nome di forma quadratica.
con x = (x1 , x2 , x3 , x4 ),
Definizione 8.5 Data una forma bilineare simmetrica ' definita su uno spazio vettoriale
reale V, due vettori x, y 2 V si dicono ortogonali rispetto a ' (o più semplicemente
'-ortogonali) se:
'(x, y) = 0.
Osservazione 8.7 Se ' coincide con il prodotto scalare introdotto nel Capitolo 5 le due
definizioni di ortogonalità tra vettori coincidono.
Esempio 8.13 I vettori x = (1, 1) e y = (3, 4) sono ortogonali rispetto alla forma
bilineare simmetrica ' 2 Bs (R2 , R) cosı̀ definita:
Infatti '(x, y) = 3 · 1 · 3 1 · 4 + 2 · ( 1) · 4 ( 1) · 3 = 0.
Osservazione 8.8 Il vettore nullo o di uno spazio vettoriale V è ortogonale ad ogni vet-
tore di V, rispetto ad ogni forma bilineare simmetrica ' 2 Bs (V, R). Infatti, per ogni
forma bilineare ' 2 Bs (V, R), per ogni coppia di vettori x, y 2 V e per ogni scalare
2 R, si ha:
'(x, y) = '(x, y).
Posto = 0, si ottiene '(x, o) = 0, per ogni x 2 V.
Teorema 8.6 Sia A un sottoinsieme non vuoto di vettori di uno spazio vettoriale reale
V. L’insieme:
A? = {x 2 V | '(x, y) = 0, 8y 2 A}
dei vettori di V ortogonali, rispetto ad una forma bilineare simmetrica ' 2 Bs (V, R), ad
ogni vettore di A, è un sottospazio vettoriale di V.
356 Forme Bilineari e Forme Quadratiche
dunque 1 x1 + 2 x2 2 A? .
Corollario 8.1 Sia ' una forma bilineare simmetrica definita su uno spazio vettoriale
reale V e siano u1 , u2 , . . . , up vettori di V. Un vettore x 2 V è '-ortogonale a tutti
i vettori u1 , u2 , . . . , up , se e solo se x è '-ortogonale ad ogni vettore del sottospazio
vettoriale W = L(u1 , u2 , . . . , up ).
Si osservi che il corollario precedente estende l’analoga proprietà dimostrata per il com-
plemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo (cfr.
Oss. 5.10) al caso di una generica forma bilineare simmetrica che non sia necessariamente
un prodotto scalare.
W = L(u1 , u2 ),
con u1 = (4, 1, 0), u2 = (3, 0, 1), si ha che il sottospazio ortogonale a W rispetto a ' è:
Poiché: (
'(x, u1 ) = 2x1 8x2 6x3
'(x, u2 ) = 2x1 8x2 5x3 ,
risolvendo il sistema lineare omogeneo:
⇢
2x1 8x2 6x3 = 0
2x1 8x2 5x3 = 0,
W \ W ? = W ?,
W + W ? = W ⇢ V.
Esercizio 8.2 Data la forma bilineare simmetrica ' su R3 con matrice associata rispetto
alla base canonica B di R3 :
0 1
3 a b
A=@ a 4 2 A, a, b, c 2 R,
b 2 c
con x = (x1 , x2 , x3 , x4 ). Trovare, per ogni valore di h, una base del sottospazio vetto-
riale ortogonale, rispetto alla forma bilineare simmetrica ' definita da Q, al sottospazio
vettoriale W = L(u1 , u2 ), dove:
Si ha: (
'(x, u1 ) = x1 + x3 + (1 h)x4 ,
'(x, u2 ) = x2 + ( 1 + h)x3 x4 .
Quindi:
a1 = ( 1, 1 + h, 1, 0), a2 = ( 1 + h, 1, 0, 1).
Definizione 8.7 Si dice nucleo di una forma bilineare simmetrica ' 2 Bs (V, R) il sot-
toinsieme V ? di V formato dai vettori ortogonali a tutti i vettori di V rispetto a ' e si
indica con ker ', in simboli:
Esempio 8.15 Nel caso di un prodotto scalare ' definito su uno spazio vettoriale reale V
si ha ker ' = {o}, in quanto il sottospazio vettoriale V ? formato dai vettori ortogonali a
tutti i vettori di V si riduce a {o} (cfr. Teor. 5.8).
Esercizio 8.4 Applicando il Corollario 8.1 si dimostri che un vettore x appartiene a ker '
(ossia '(x, y) = 0, per ogni y 2 V ) se e solo se '(x, vj ) = 0, j = 1, 2, . . . , n, dove
B = (v1 , v2 , . . . , vn ) è una base dello spazio vettoriale V su cui è definita la forma
bilineare simmetrica '.
Si osservi che l’esercizio appena assegnato, e che segue facilmente dalle definizioni di
bilinearità di ' e di base di uno spazio vettoriale, è molto importante ai fini del calcolo
del nucleo di una forma bilineare simmetrica, come si dimostra nel seguente teorema.
Dimostrazione Il nucleo ker ' della forma bilineare simmetrica ' è formato dai
vettori x di V tali che '(x, y) = 0, per ogni y 2 V o, equivalentemente, tali che
'(x, vj ) = 0, per ogni j = 1, 2, . . . , n. Posto x = x1 v1 + x2 v2 + . . . + xn vn , si ottiene:
'(x, vj ) = '(x1 v1 + x2 v2 + . . . + xn vn , vj )
n
X
= xi '(vi , vj )
i=1
Xn
= aij xi = 0, j = 1, 2, . . . , n,
i=1
AX = O
Definizione 8.8 Una forma bilineare simmetrica ' (o equivalentemente la forma qua-
dratica Q associata) definita su uno spazio vettoriale reale V si dice non degenere se
ker ' = {o} e degenere se ker ' 6= {o}, dove o indica il vettore nullo di V.
Corollario 8.2 Sia ' un elemento di Bs (V, R), allora ' è degenere se e soltanto se
det(A) = 0, dove A è la matrice associata a ', rispetto ad una base B = (v1 , v2 , . . . , vn )
di V.
Dimostrazione Come conseguenza del Teorema 8.8 si ha che il calcolo del nucleo di
' si riduce alla risoluzione del sistema lineare omogeneo AX = O di n equazioni nelle
n incognite (x1 , . . . , xn ). Tale sistema lineare ha soluzioni non nulle se e soltanto se il
rango della matrice A è minore di n o, equivalentemente, se e solo se il determinante di
A è uguale a zero (cfr. Teor. 1.2).
Osservazione 8.12 Sia ' una forma bilineare simmetrica definita su uno spazio vettoria-
le V. Se A è una matrice simmetrica associata a ', dal Teorema di Nullità più Rango (cfr.
Teor. 4.23) segue:
dim(ker ') = dim(V ) rank(A).
Capitolo 8 361
rank(tP AP ) = rank(A),
Definizione 8.9 Si definisce rango di una forma bilineare simmetrica ' (o della forma
quadratica associata Q), e sarà indicato con rank(') (o con rank(Q)), il rango di una
qualunque matrice simmetrica associata a '.
Osservazione 8.13 Dal Teorema 2.9 si può dimostrare in un altro modo che il rango
della forma bilineare ' non dipende dalla scelta della matrice associata e quindi della
base usata per costruire tale matrice, infatti in particolare si ha:
Esercizio 8.5 Determinare il nucleo della forma bilineare simmetrica ' 2 Bs (R3 , R) con
matrice associata rispetto alla base canonica B = (e1 , e2 , e3 ) di R3 :
0 1
1 0 2
A=@ 0 1 1 A.
2 1 5
Esercizio 8.6 Sia ' una forma bilineare simmetrica su R3 . Determinare la matrice as-
sociata a ' rispetto alla base canonica di R3 sapendo che i vettori u = (1, 2, 1) e
v = (1, 1, 0) formano una base di ker ' e che Q(w) = 8, con w = (1, 0, 1), dove
Q è la forma quadratica associata a '.
la matrice associata a ' rispetto alla base canonica di R3 . Poiché (u, v) è una base di
ker ' devono valere le condizioni:
Risolvendo quindi il sistema lineare formato dalle equazioni (8.10) e (8.11) si ha come
unica soluzione: 0 1
2 2 2
A= @ 2 2 2 A.
2 2 2
Sia ' una forma bilineare simmetrica su uno spazio vettoriale reale V e sia W un sot-
tospazio vettoriale di V. Se ' è un prodotto scalare il complemento ortogonale W ? di
W ha in comune con W solo il vettore nullo. In altri termini '(x, x) = 0 se e solo
se x = o. Dall’Esempio 8.14 segue invece che se ' non è un prodotto scalare possono
esistere vettori non nulli comuni a W e a W ? e ciò giustifica la definizione che segue.
Definizione 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V. Un
vettore x 2 V si dice isotropo per la forma quadratica Q se Q(x) = 0.
Teorema 8.9 Data una forma bilineare simmetrica ' su uno spazio vettoriale reale V,
allora:
ker ' ✓ I,
con I insieme dei vettori isotropi della forma quadratica Q associata a '. Ovvero, se
un vettore x appartiene a ker ', allora x è un vettore isotropo per la forma quadratica
Q associata a '.
'(x, x) = Q(x) = 0.
Osservazione 8.14 1. L’insieme I dei vettori isotropi di una forma quadratica Q su uno
spazio vettoriale reale V, in generale, non è un sottospazio vettoriale di V, infatti
se x, y 2 I e '(x, y) 6= 0, allora x + y non è un vettore isotropo.
3. In generale non vale il viceversa del Teorema 8.9. Gli esercizi che seguono mettono
in evidenza che ker ' non sempre coincide con l’insieme dei vettori isotropi I della
forma quadratica Q associata ma è solo contenuto in esso.
Esercizio 8.7 Si consideri la forma bilineare simmetrica ' su R3 con espressione poli-
nomiale rispetto alla base canonica di R3 :
'(x, y) = x1 y1 (x1 y2 + x2 y1 ) + x2 y2 x3 y3 ,
Osservazione 8.15 Come conseguenza del Teorema 8.9 si ha che se I = {o} allora la
forma bilineare simmetrica ' è non degenere. Attenzione però che non vale il vicever-
sa. Nel caso di un prodotto scalare l’insieme dei vettori isotropi per la forma quadratica
associata coincide con l’insieme formato dal solo vettore nullo, ma in generale nel caso
di una forma bilineare simmetrica non degenere l’insieme dei vettori isotropi I può non
ridursi all’insieme {o}.
Esempio 8.17 La forma quadratica su R2 definita da Q(x) = x21 x22 è associata, rispetto
alla base canonica di R2 , alla matrice invertibile:
✓ ◆
1 0
A= ;
0 1
' è non degenere, in quanto det(A) = 1, e pertanto ker ' = {o}. I vettori isotropi di Q
sono i vettori x = (x1 , x2 ) tali che x21 x22 = 0, da cui x1 = ±x2 , quindi x = (±x2 , x2 )
e formano l’insieme:
I = L((1, 1)) [ L(( 1, 1)),
che non è un sottospazio vettoriale trattandosi dell’unione di due sottospazi vettoriali
diversi, entrambi di dimensione 1.
A partire da un vettore non isotropo si ottiene una decomposizione dello spazio vettoriale
su cui è definita la forma quadratica, analoga a quella ottenuta nel caso di uno spazio
vettoriale euclideo che è somma diretta di un suo qualsiasi sottospazio vettoriale con il
proprio complemento ortogonale. Vale infatti il teorema che segue.
Capitolo 8 365
Teorema 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V di dimen-
sione n. Per ogni vettore u 2 V non isotropo si ha:
V = L(u) L(u)? ,
dove L(u)? = {u}? è il sottospazio vettoriale ortogonale al vettore u rispetto alla forma
bilineare simmetrica ' associata a Q.
Dimostrazione Si ha immediatamente:
L(u) \ L(u)? = {o},
in quanto u non è un vettore isotropo. È sufficiente quindi provare che L(u)? è un’i-
perpiano vettoriale di V. Siano B = (v1 , v2 , . . . , vn ) una base di V e A = M B (Q) la
matrice simmetrica associata a Q rispetto alla base B. Si indichi con:
0 1
u1
B u2 C
B C
U = B .. C
@ . A
un
la matrice colonna formata dalle componenti del vettore u rispetto alla base B. Si defini-
sce la forma lineare:
'u : V ! R, y 7 ! '(u, y), y 2 V,
dove ' è la forma bilineare simmetrica associata a Q (cfr. Oss. 8.1). Pertanto:
L(u)? = {y 2 V | '(u, y) = t U A Y = 0}
coincide con il nucleo della forma lineare 'u , la cui matrice associata rispetto alla B di
V e C = (1) di R è la matrice t U A. È importante osservare che la matrice riga t U A non
è nulla, poichè:
Q(u) = t U A U 6= 0.
Quindi la forma lineare 'u non coincide con forma lineare nulla essendo 'u (u) =
Q(u) 6= 0, e di conseguenza il suo nucleo è un iperpiano vettoriale di V (cfr. Oss.
6.17).
Esercizio 8.8 Sia Q una forma quadratica definita su uno spazio vettoriale reale V e
siano a e b due vettori di V linearmente indipendenti e isotropi. Stabilire se la somma:
L(a, b) + L(a, b)?
è diretta, dove L(a, b)? è il sottospazio vettoriale ortogonale a L(a, b) rispetto alla forma
bilineare simmetrica ' associata a Q.
366 Forme Bilineari e Forme Quadratiche
Nel caso delle forme bilineari non degeneri è possibile dimostrare il teorema che segue
e che, limitatamente al caso della dimensione, coincide con l’analogo risultato enunciato
nel punto 2. del Teorema 5.8 per il complemento ortogonale di un sottospazio vetto-
riale di uno spazio vettoriale euclideo. Si noti che la sua dimostrazione è la naturale
generalizzazione di quella indicata nell’ambito euclideo.
Teorema 8.11 Sia ' una forma bilineare simmetrica non degenere su uno spazio vetto-
riale V di dimensione n e siaW un sottospazio vettoriale di V, allora:
dim(W ? ) = n dim(W),
con W ? sottospazio vettoriale ortogonale di W ripetto a '.
Dimostrazione Siano dim(V ) = n e dim(W) = h e sia B = (v1 , v2 , ...., vn ) una
base di V. Se h = 0 allora W ? = V, da cui segue la tesi. Altrimenti si supponga che
(a1 , a2 , . . . , ah ) sia una base di W . Si indichi con A la matrice simmetrica di ordine n
associata a ' rispetto alla base B e con C la matrice appartenente a Rh,n le cui righe
sono le componenti dei vettori a1 , a2 , . . . , ah rispetto alla base B. Ricordando che:
W ? = {x 2 V | '(ai , x) = 0, i = 1, 2, . . . , h}
ed indicando con X la matrice colonna formata dalle componenti di x rispetto alla base
B segue che il sistema lineare '(ai , x) = 0, i = 1, 2, . . . , h, coincide con:
CAX = O,
dove O indica la matrice nulla di Rh,1 di conseguenza W ? è il nullspace della matrice
CA, ossia:
W ? = N (CA).
La matrice C ha rango h ed A è una matrice invertibile, in quanto ' è non degenere.
Pertanto rank(CA) = h (cfr. Teor. 2.9, punto 1.) e dim(W ? ) = n h.
Osservazione 8.17 In base alla definizione precedente ' è un prodotto scalare se e solo
se ' (o la forma quadratica associata Q) è definita positiva.
Esempio 8.18 Tenendo conto delle nozioni appena introdotte, è ora possibile costruire
un prodotto scalare ' che renda ortogonali due vettori qualsiasi u e v, non nulli e non
paralleli, di uno spazio vettoriale reale V di dimensione n 2. Completando l’insieme
libero {u, v} fino ad ottenere una base di V :
B = (u, v, b1 , . . . , bn 2 ),
la matrice A associata al prodotto scalare ' rispetto alla base B si ottiene imponendo che
' sia definita positiva, ovvero che valgano le condizioni:
8
>
> '(u, v) = 0,
>
>
>
> '(u, bi ) = 0, i = 1, 2, . . . , n 2,
>
>
>
>
< '(v, bi ) = 0, i = 1, 2, . . . , n 2,
>
'(bi , bj ) = 0, i, j = 1, 2, . . . , n 2,
>
>
>
> '(u, u) > 0,
>
>
>
>
>
> '(v, v) > 0,
>
:
'(bi , bi ) > 0, i = 1, 2, . . . , n 2.
Si può quindi osservare che A non è univocamente determinata, anche se si fissa la base
B, perché si hanno infinite scelte per le lunghezze dei vettori della base. Esistono quindi
infiniti prodotti scalari su V che rendono ortogonali i vettori u e v.
368 Forme Bilineari e Forme Quadratiche
Indicata con A = (aij ) 2 R2,2 la matrice simmetrica associata a ' rispetto alla base
canonica di R2 , dalle equazioni precedenti si ottiene il sistema lineare:
8
< a12 + a22 = 0
a11 2a12 + a22 = 1
:
a22 = 4,
che ha come unica soluzione (a11 = 5, a12 = a22 = 4), da cui segue che l’espressione
polinomiale del prodotto scalare ' è:
Osservazione 8.18 Una forma bilineare indefinita può essere in generale sia degenere sia
non degenere, ma si vedrà che il suo nucleo è sempre strettamente incluso nell’insieme
dei vettori isotropi I, ossia I =
6 {o}.
Teorema 8.12 Sia Q una forma quadratica su uno spazio vettoriale reale V. Se la forma
quadratica Q è definita (positiva o negativa), allora Q (o equivalentemente la forma
bilineare simmetrica ' ad essa associata) è non degenere.
Dimostrazione Si tratta di dimostrare che ker ' = {o}. Per ogni vettore x 2 ker ' e
per ogni vettore y 2 V si ha '(x, y) = 0, ciò implica che Q(x) = 0 ma Q è definita
positiva (o negativa), dunque x = o.
Osservazione 8.19 Non vale il viceversa del teorema precedente. Infatti, ad esempio, la
forma quadratica dell’Esempio 8.17 è non degenere ma è indefinita perché Q((1, 0)) = 1
e Q((0, 1)) = 1.
Capitolo 8 369
Esercizio 8.10 Data la forma bilineare simmetrica ' 2 Bs (R3 , R), definita da:
'(x, y) = x1 y1 x1 y2 x2 y1 ,
da cui segue che det(A) = 0, ker ' = L((0, 0, 1)), ' è quindi degenere. La forma
quadratica associata a ' è:
Q(x) = x21 2x1 x2 ,
pertanto Q(x) = 0 se e solo se x1 = 0 oppure x1 = 2x2 , quindi:
Osservazione 8.20 Non è sempre facile come nell’Esercizio 8.10 classificare una forma
quadratica senza usare metodi di carattere più generale che saranno studiati nel Paragrafo
8.5.
Anche per una forma quadratica si può introdurre, in modo analogo al caso delle ap-
plicazioni lineari (cfr. Def 6.10), il concetto di restrizione. Infatti, dati un sottospazio
vettoriale W di uno spazio vettoriale reale V e una forma quadratica Q su V, si può
definire la restrizione di Q a W come la funzione:
È lasciata per esercizio al Lettore la verifica che la restrizione di una forma quadratica Q
a W è una forma quadratica su W . Il teorema che segue, la cui dimostrazione è un facile
esercizio, mette in relazione la classificazione di una forma quadratica e la classificazione
di ogni sua restrizione.
370 Forme Bilineari e Forme Quadratiche
Osservazione 8.21 Come già enunciato nel Teorema 8.13, a differenza di ciò che è affer-
mato nel caso delle forme quadratiche definite (positive o negative), la restrizione di una
forma quadratica indefinita non degenere ad un sottospazio vettoriale dello spazio vetto-
riale su cui è data è ancora una forma quadratica, ma non è detto che sia non degenere. Ad
esempio, se si considera la forma quadratica non degenere introdotta dell’Esempio 8.17
si ha che le sue restrizioni ai sottospazi vettoriali di R2 :
W1 = {(x1 , x2 ) 2 R2 | x1 x2 = 0},
W2 = {(x1 , x2 ) 2 R2 | x1 + x2 = 0},
Nel caso di una forma quadratica semidefinita positiva (o negativa) l’insieme dei vettori
isotropi coincide con il nucleo della forma bilineare simmetrica associata. Infatti, per una
forma bilineare simmetrica semidefinita positiva valgono, come per il prodotto scalare, la
disuguaglianza di Cauchy–Schwarz e la disuguaglianza triangolare (o di Minkowski), la
cui dimostrazione è analoga a quella già vista per il prodotto scalare nel Capitolo 5 (cfr.
Teor. 5.2).
Segue dalla disuguaglianza di Cauchy–Schwarz che, nel caso di una forma ' bilineare
simmetrica semidefinita positiva, ker ' coincide con l’insieme dei vettori isotropi, che, in
questo caso, è un sottospazio vettoriale. Infatti, se x è isotropo, ossia Q(x) = 0, allora
'(x, y) = 0, per ogni y 2 V. Quindi, a differenza di ciò che è stato dimostrato nel caso
del prodotto scalare, il segno di uguaglianza nella disuguaglianza di Cauchy–Schwarz non
implica che i vettori x e y siano paralleli. Si ha pertanto il seguente teorema.
Teorema 8.16 Se ' è una forma bilineare simmetrica semidefinita positiva (o negativa)
su uno spazio vettoriale reale V , allora I =
6 {o}, inoltre I = ker ', quindi ' è degenere.
Definizione 8.12 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridot-
ta in forma canonica se esiste una base B di V rispetto alla quale la matrice D = (dij )
associata a Q sia diagonale. L’espressione polinomiale di Q rispetto alla base B:
Una forma canonica di una forma quadratica Q è quindi una rappresentazione di Q me-
diante un polinomio omogeneo privo di termini misti. Dal Teorema 8.4 segue che la
definizione precedente è equivalente alla seguente.
Definizione 8.13 Sia V uno spazio vettoriale reale di dimensione n. Data una forma
quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q
si dice ridotta in forma canonica se esiste una matrice invertibile P tale che tP AP = D,
con D matrice diagonale.
Si osservi che P è la matrice del cambiamento di base dalla base B ad una base B 0
rispetto alla quale Q ha come matrice associata la matrice diagonale D. Inoltre, il numero
degli zeri sulla diagonale di una qualsiasi matrice diagonale D associata a Q non cambia
essendo pari a dim(V ) rank(A), mentre cambiano gli elementi non nulli sulla diagonale
come si evince dall’esempio che segue.
Q(x) = x1 x2 (8.13)
su R2 , con x = (x1 , x2 ), la cui matrice associata rispetto alla base canonica B di R2 è:
0 1 1
0
B 2 C
A=@ A.
1
0
2
Capitolo 8 373
lo è; il vettore x, in questo caso, ha componenti (x01 , x02 ) rispetto ad una base che realizza
(8.14), infatti esiste una matrice invertibile:
!
1 1
P =
1 1
tale che !
t
1 0
P AP = D = .
0 1
Un’altra forma canonica di Q è, ad esempio,
Esistono infinite forme canoniche di una forma quadratica Q, tra le quali ve ne sono
alcune particolari, come precisato dai seguenti teoremi.
Teorema 8.17 Sia V uno spazio vettoriale reale di dimensione n. Data una forma qua-
dratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q
ammette una forma canonica del tipo:
Q(x) = 2
1 y1 + 2
2 y2 + ... + 2
n yn , (8.16)
dove 1 , 2 , . . . , n sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicità) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x rispetto ad una base
ortonormale di autovettori di A.
374 Forme Bilineari e Forme Quadratiche
quindi la tesi.
con x = (x1 , x2 , x3 ).
1 = 1, 2 = 2, 3 = 4, tutti di molteplicità 1;
dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base B 0 , ottenuta con il cambia-
mento di base: 0 1
2 1 2
1@
P = 1 2 2 A.
3
2 2 1
Definizione 8.14 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridot-
ta in forma normale se è ridotta a forma canonica ed i coefficienti del polinomio omoge-
neo che ne deriva sono 1, 0, 1. La sua espressione polinomiale prende il nome di forma
normale.
Per convenzione, nella forma normale di Q si ordinano i termini inserendo prima i coef-
ficienti pari a 1, poi quelli pari a 1 ed infine quelli nulli.
Teorema 8.18 Una forma quadratica Q definita su uno spazio vettoriale V, di dimensio-
ne n, ammette sempre una forma normale. Se Q(x) = tXAX, con A matrice associata
a Q rispetto ad una base B di V, il numero dei coefficienti pari a 1, che compare nella
forma normale, è uguale al numero di autovalori positivi della matrice A, contati con la
relativa molteplicità, il numero dei coefficienti pari a 1 è uguale al numero di autova-
lori negativi di A, contati con la relativa molteplicità, il numero dei coefficienti pari a 0
coincide con la molteplicità dell’autovalore 0 di A.
Dimostrazione Per il Teorema 8.17 la forma quadratica Q ammette una forma cano-
nica data da:
2 2 2
Q(x) = 1 y1 + 2 y2 + ... + n yn ,
dove 1 , 2 , . . . , n sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicità) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x di V rispetto ad una base
ortonormale C = (f1 , f2 , . . . , fn ) di autovettori di A. Il numero dei coefficienti i che
sono diversi da zero è uguale al rango r della forma quadratica Q, quindi è un invariante
di Q e non dipende dalla matrice A considerata. Salvo un cambiamento di ordine dei
vettori della base C, si può supporre che i primi r coefficienti siano diversi da zero e che
tra essi quelli positivi figurino per primi. Di conseguenza si può porre:
si verifica facilmente che, rispetto alla base C 0 = (f10 , f20 , . . . , fn0 ) con:
f1 f2 fr
f10 = , f20 = , ..., fr0 = , 0
fr+1 = fr+1 , ..., fn0 = fn ,
↵1 ↵2 ↵r
Osservazione 8.23 La forma normale di una forma quadratica Q, ottenuta con il pro-
cedimento indicato nella dimostrazione del Teorema 8.18, è unica, cioè tutte le matrici
associate a Q hanno lo stesso numero di autovalori positivi e lo stesso numero di auto-
valori negativi, come sarà dimostrato nel Teorema 8.20. È invece già stato dimostrato
che tutte le matrici associate a Q hanno lo stesso rango (cfr. Oss. 8.12) e pertanto la
molteplicità dell’autovalore 0 di A (se esso esiste) è invariante per Q.
I Teoremi 8.17 e 8.18 permettono di caratterizzare (in modo analogo al Teorema 5.4 nel
caso degli spazi vettoriali euclidei) le basi ortogonali e ortonormali rispetto ad una for-
ma bilineare simmetrica, le cui definizioni estendono nel modo seguente quelle di base
ortogonale e ortonormale rispetto ad un prodotto scalare (cfr. Def. 5.5).
Definizione 8.15 Sia V uno spazio vettoriale reale di dimensione n su cui è definita una
forma bilineare ' associata ad una forma quadratica Q.
'(vi , vj ) = 0, i, j = 1, 2, . . . , n, i 6= j.
Q(vi ) = 1, i = 1, 2, . . . , n.
Capitolo 8 377
Osservazione 8.24 1. Ogni base che permette di scrivere una forma quadratica Q in
forma canonica è una base ortogonale rispetto alla forma bilineare simmetrica '
associata alla forma quadratica. Quindi, dal Teorema 8.17 segue che, su uno spazio
vettoriale reale, esiste almeno una base ortogonale, rispetto ad ogni forma bilineare
simmetrica su di esso definita.
2. Se Q è la forma quadratica associata ad un prodotto scalare ', la base C, consi-
derata nella dimostrazione del Teorema 8.18, è solo una base ortogonale (rispetto a
'), ma non ortonormale (rispetto a '), in quanto:
'(fi , fj ) = 0, i 6= j, Q(fi ) = '(fi , fi ) = i > 0.
In questo caso infatti la matrice A ha n autovalori positivi, essendo ' definita
positiva, ma solo se i = 1, per ogni i = 1, 2, . . . , n, C è una base ortonormale
rispetto a '. La base C 0 è invece una base ortonormale per il prodotto scalare '.
3. La matrice del cambiamento di base dalla base C alla base C 0 , (cfr. dimostrazione
del Teorema 8.18 ) è una matrice diagonale. Come già osservato, esistono infinite
forme canoniche di una forma quadratica Q. In generale le forme canoniche di
una forma quadratica Q si possono ottenere una dall’altra mediante cambiamenti di
base simili a quelli utilizzati nella dimostrazione del Teorema 8.18, ovvero mediante
matrici del cambiamento di base in forma diagonale.
4. Dal Teorema 8.18 segue anche che solamente le forme quadratiche, che hanno come
forma normale quella avente tanti coefficienti pari a 1 quanto è la dimensione dello
spazio vettoriale V su cui sono definite, ammettono basi ortonormali (rispetto alle
forme bilineari simmetriche ad esse associate). Nell’Osservazione 8.26 si vedrà che
esse sono necessariamente dei prodotti scalari.
Esercizio 8.12 Si ricavi la forma normale della forma quadratica Q introdotta nell’Eser-
cizio 8.11.
Soluzione Avendo calcolato gli autovalori di A e avendo ottenuto che due sono positivi
e uno negativo, si ha subito che la forma normale di Q è:
0 10 1
1 0 0 z1
Q(x) = z1 z2 z3 @ 0 1 0 A @ z2 A = z12 + z22 z32 ,
0 0 1 z3
con x di componenti (z1 , z2 , z3 ) rispetto ad una base (f10 , f20 , f30 ) che permetta di realizzare
la forma normale di Q, con:
1 1
f10 = f1 , f20 = f3 , f30 = p f2 .
2 2
378 Forme Bilineari e Forme Quadratiche
Poiché le matrici associate ad una forma quadratica Q non sono tutte simili, il calcolo dei
loro autovalori non è l’unico modo per ridurre a forma canonica una forma quadratica. Nel
Paragrafo 8.8.3 si introdurranno metodi più sofisticati, ma l’esercizio che segue mostra
come sia possibile procedere alla riduzione a forma canonica di una forma quadratica
semplicemente utilizzando il metodo del completamento dei quadrati. Ciò è dovuto al
fatto che la forma polinomiale di Q non è altro che un polinomio omogeneo di secondo
grado. Il metodo del completamento dei quadrati (generalmente insegnato nelle scuole
superiori per dimostrare la formula risolutiva delle equazioni di secondo grado) consiste
nel sommare e sottrarre numeri opportuni in modo da far comparire dei quadrati di binomi.
Esercizio 8.13 Ricavare un’altra forma canonica della forma quadratica Q introdotta
nell’ Esercizio 8.11.
Soluzione Utilizzando il metodo del completamento dei quadrati si può procedere, per
esempio, come segue:
con (y1 , y2 , y2 ) componenti di x rispetto alla base C = (c1 , c2 , c3 ) individuata dal cam-
biamento di base usato, ossia:
Si osservi che C non è una base ortonormale (rispetto al prodotto scalare standard di R3 ) e
che la matrice del cambiamento di base non è ortogonale. Procedendo come nell’Esercizio
8.12 si ricava la stessa forma normale di Q ottenuta in tale esercizio ma rispetto alla base:
✓ ◆
1 1
p c1 , c3 , c2 .
2 2
Teorema 8.20 – Teorema di Sylvester – Sia V uno spazio vettoriale reale di dimensione
n. Tutte le forme canoniche di una forma quadratica Q su V hanno lo stesso numero p
di coefficienti positivi e lo stesso numero q di coefficienti negativi.
Sia Q|S la restrizione della forma quadratica Q a S e tenendo conto del Teorema 8.13,
da (8.17) si ottiene:
Q|S (x) = Q(x) = (y10 )2 + (y20 )2 + . . . + (yp0 )2 > 0.
Invece, considerando la restrizione Q|T di Q a T e tenendo di nuovo conto del Teorema
8.13, da (8.18) si deduce che:
2
Q|T (x) = Q(x) = zt+1 ... zr2 < 0,
da cui l’assurdo, quindi p = t.
Corollario 8.3 Una forma quadratica Q definita su uno spazio vettoriale reale V di
dimensione n ammette una sola forma normale.
Definizione 8.16 Sia Q una forma quadratica definita su uno spazio vettoriale reale V
di dimensione n. Siano p il numero di autovalori positivi (contati con le relative molte-
plicità) di una qualsiasi matrice simmetrica associata a Q e q il numero di autovalori
negativi (contati con le relative molteplicità) della stessa matrice, allora la coppia (p, q)
prende il nome di segnatura di Q.
Osservazione 8.25 1. Segue subito dal Teorema 8.20 che la segnatura di una forma
quadratica Q non dipende dalla matrice scelta per la sua determinazione.
2. Da osservare che rispetto alla base C 0 = (f10 , f20 , . . . fn0 ) in cui Q si scrive in for-
ma normale (cfr. dimostrazione del Teorema 8.18) la matrice associata alla forma
quadratica Q è data da:
0 1
Ip 0 0
0 B C
M C (Q) = @ 0 Ir p 0 A,
0 0 On r
Grazie al Teorema 8.20 è evidente che per studiare il segno di una forma quadratica Q
è sufficiente conoscere i segni dei coefficienti di una forma canonica di Q, in particola-
re quindi i segni degli autovalori di una qualsiasi matrice A associata a Q. I segni degli
autovalori di A (non gli autovalori) si possono determinare agevolmente a partire dal poli-
nomio caratteristico della matrice A, utilizzando il seguente teorema, la cui dimostrazione
è spesso inserita nei testi di algebra della scuola secondaria superiore.
Esempio 8.21 1. Il polinomio f (x) = 8+2x 5x2 +x3 ha le due radici reali positive 2
e 4. D’altra parte nella successione dei coefficienti 8, 2, 5, 1 ci sono due variazioni
di segno.
È chiaro che si può applicare questa regola al polinomio caratteristico di una qualsiasi
matrice associata a una forma quadratica perché esso, essendo la matrice simmetrica, ha
tutte le radici reali. Quindi per classificare una forma quadratica Q (o la forma bilineare
simmetrica ' ad essa associata) si può procedere nel modo seguente:
2. Si scrive P ( ) = s
R( ), con R(0) 6= 0. Si osservi che:
rank(A) = rank(Q) = n s
s radici nulle;
p radici positive;
n (p + s) radici negative.
con x = (x1 , x2 , x3 ).
In P ( ) vi sono due variazioni di segno e 0 non è una radice. Quindi la forma quadratica
Q è indefinita, non degenere ed ha segnatura (2, 1).
Teorema 8.22 Una forma quadratica Q definita su uno spazio vettoriale reale V di di-
mensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, è definita positiva (negativa) se e soltanto se tutti gli autovalori della matrice A
sono strettamente positivi (negativi).
Teorema 8.23 Una forma quadratica Q definita su uno spazio vettoriale reale V di di-
mensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, è semidefinita positiva (negativa) se e solo se tutti gli autovalori della matrice A
sono non negativi (positivi) e = 0 è un autovalore di A di molteplicità almeno 1.
Teorema 8.24 Una forma quadratica Q definita su uno spazio vettoriale reale V di di-
mensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base
B di V, è indefinita se e solo se la matrice simmetrica reale A ha autovalori di segno
contrario.
Le dimostrazioni dei due teoremi precedenti sono conseguenze delle definizioni di forma
quadratica semidefinita e indefinita e della formula (8.16) del Teorema 8.17.
Osservazione 8.27 È molto più agevole calcolare l’insieme dei vettori isotropi I di una
forma quadratica Q partendo dalla sua forma normale, è necessario però dividere la
trattazione a seconda della classificazione di Q.
b. Sia, invece, Q una forma quadratica, definita su uno spazio vettoriale V di dimen-
sione n, di segnatura (p, q), q 6= 0 e rango p + q = r n, quindi di forma
normale:
Q(x) = x21 + . . . + x2p x2p+1 . . . x2r ,
dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette
di scrivere Q in forma normale. In questo caso, l’insieme dei vettori isotropi è:
Pertanto I =
6 {o} e non è un sottospazio vettoriale di V. La verifica di quest’ultima
affermazione è un facile esercizio.
Osservazione 8.28 Come già annunciato all’inizio di questo capitolo, la riduzione di una
forma quadratica in forma canonica ottenuta attraverso gli autovalori assume notevole
importanza in geometria analitica, ad esempio, nella riduzione a forma canonica delle
coniche nel piano e delle quadriche nello spazio perché è legata a cambiamenti di basi
ortonormali e conseguentemente a cambiamenti di riferimento cartesiani del piano e dello
spazio. I Capitoli 10 e 12 tratteranno diffusamente questi argomenti.
1. scrivere, rispetto alla base B, la matrice A della forma bilineare simmetrica ' tale
che siano verificate le seguenti condizioni:
a. '(e1 , e1 ) + '(e3 , e3 ) = 3,
b. '(e1 , e1 ) = 2'(e3 , e3 ) = 4'(e2 , e3 ),
c. '(e1 , e2 ) = '(e2 , e3 ),
d. i vettori e3 e v = e1 + e2 + e3 sono ortogonali rispetto a ',
e. il vettore e2 è isotropo rispetto alla forma quadratica Q associata a '.
3. Classificare Q, determinandone la sua forma normale ed una base rispetto alla quale
Q assume tale forma.
Capitolo 8 385
Soluzione 1. Si tratta di determinare gli elementi della matrice A associata a ' rispetto
alla base assegnata. Poiché A = (aij ) è una matrice simmetrica e aij = '(ei , ej ),
le condizioni a., b., c. equivalgono al sistema lineare:
8
< a11 + a33 = 3
a11 = 2a33 = 4a23
:
a12 = a23 ,
la cui soluzione è:
8
>
> a11 = 2
>
<
1
> a12 = a23 =
>
> 2
:
a33 = 1.
La condizione d. equivale a:
0 1 0 1 10 1
0 2 a13 0
B C B 2 CB C
B C B CB C
B C B CB C
B C B 1 1 CB C
1 1 1 AB 0 C = 1 1 1 B a22 C B 0 C = 0,
B C B 2 2 C B C
B C B CB C
@ A @ A@ A
1
1 a13 1 1
2
da cui si ottiene a13 = 3/2. La condizione e. equivale a a22 = 0. Allora, la matrice
A richiesta è:
0 1 3 1
2
B 2 2 C
B C
B C
B 1 1 C
A=B 0 C.
B 2 2 C
B C
@ A
3 1
1
2 2
2. Dalla matrice A appena ricavata segue che:
Q(x) = 2x21 + x1 x2 + 3x1 x3 + x2 x3 + x23 ,
con x = (x1 , x2 , x3 ).
386 Forme Bilineari e Forme Quadratiche
3 2 3
P( ) = +3 + ,
4
da cui si deduce che la forma quadratica è degenere (il polinomio caratteristico ha
termine noto nullo); utilizzando la regola dei segni di Cartesio si vede una sola
variazione di segno tra i coefficienti di P ( ), quindi la segnatura di Q è (1, 1),
pertanto la forma quadratica è indefinita. La sua forma normale è:
con (z1 , z2 , z3 ) componenti del vettore x rispetto ad una base di R3 secondo la qua-
le Q si scrive in forma normale. Questa base si può trovare determinando dapprima
una base ortonormale di autovettori di A, i cui autovalori sono:
1 p 1 p
1 = (3 + 2 3), 2 = (3 2 3), 3 = 0,
2 2
tutti di molteplicità 1; una base ortonormale di autovettori è data da (f1 , f2 , f3 ),
dove:
1 p p 1 p p
f1 = p (1 + 3, 1 + 3, 2), f2 = p (1 3, 1 3, 2),
2 3 2 3
1
f3 = p ( 1, 1, 1),
3
e poi operando sulla base ottenuta come spiegato nella dimostrazione del Teorema
8.18, si ottiene la base:
p p !
2 2
p p f1 , p p f2 , f3 ,
3+2 3 3+2 3
rispetto alla quale Q si scrive in forma normale.
2. Provare che i vettori e01 = e1 , e02 = 2e1 + e2 , e03 = 3e1 + 2e2 + e3 formano una
base B 0 di R3 .
3. Scrivere la matrice A0 associata a ' rispetto alla base B 0 = (e01 , e02 , e03 ).
Soluzione 1. La matrice A associata alla forma bilineare ' rispetto alla base B è:
0 1
1 2 7
A=@ 2 6 18 A.
7 18 56
2. La matrice P avente sulle colonne, ordinatamente, le componenti dei vettori e01 , e02 , e03
rispetto alla base B : 0 1
1 2 3
P =@ 0 1 2 A,
0 0 1
Tenendo conto della formula (8.9) l’espressione polinomiale della forma quadratica
Q, rispetto alla base B 0 , è:
Esercizio 8.17 Sia V4 uno spazio vettoriale reale, di dimensione 4, riferito alla base B =
(v1 , v2 , v3 , v4 ).
'|W : W ⇥ W ! R,
data da:
'|W (x, y) = '(x, y), x, y 2 W.
Si verifichi per esercizio che '|W è una forma bilineare simmetrica su W. Sia
A = (aij ) la matrice simmetrica associata a ' rispetto alla base B. Le condizioni
Capitolo 8 389
richieste in a. equivalgono a:
che corrispondono a:
a11 = a12 = a22 = 0,
a33 = a34 = a44 = 0.
Di conseguenza la matrice A è del tipo:
0 1
0 0 a13 a14
B 0 0 a23 a24 C
A=B @ a13 a23 0
C.
A
0
a14 a24 0 0
che corrispondono a:
2. Dimostrare, usando le proprietà della traccia e della trasposta di una matrice, che '
è una forma bilineare simmetrica se e solo se P è una matrice simmetrica.
3. Posto: ✓ ◆
0 1
P = ,
1 0
verificare che rispetto alla base canonica B di R2,2 la forma quadratica Q associata
a ' è data da:
Q(X) = 2x1 x3 2x2 x4 ,
con ✓ ◆
x1 x2
X= .
x3 x4
4. Classificare la forma quadratica Q del punto 3., determinare una forma canonica
ed una base B 0 di R2,2 rispetto alla quale Q si scrive in forma canonica.
Soluzione 1. Dalle proprietà della traccia e della trasposta di una matrice si ha:
per ogni A, B1 , B2 , B 2 R2,2 e per ogni 2 R. Perciò ' è una forma bilineare.
Viceversa, se ' è una forma bilineare simmetrica, ossia '(A, B) = '(B, A) per
ogni A, B 2 R2,2 , dalle uguaglianze:
si ottiene tr( tBP A) = tr( tB tP A), vale a dire tr( tBP A B tP A) = 0, per ogni
t
A, B 2 R2,2 , da cui:
tr( tB(P t
P )A) = 0, A, B 2 R2,2 .
In particolare, ponendo A = I e B = P t
P , si ottiene:
tr( t (P t
P )(P t
P )) = 0.
Ma è noto che:
tr( tXX) = 0 () X = O,
dove O indica la matrice nulla di R2,2 e X una qualsiasi matrice di R2,2 , per questa
verifica si può ricordare l’Esempio 5.6. Pertanto P t
P = O, ossia la tesi.
3. Si ha:
✓ ◆
t t 2x1 x3 x1 x4 x2 x3
Q(X) = '( X P X) = tr = 2x1 x3 2x2 x4 .
x1 x4 x2 x3 2x2 x4
4. La matrice associata alla forma quadratica Q del punto 3., rispetto alla base cano-
nica B di R2,2 , è: 0 1
0 0 1 0
B 0 0 0 1 C
M B (Q) = B
@ 1
C.
0 0 0 A
0 1 0 0
con autovalori:
1 = 1, 2 = 1
✓ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆◆
0 1 1 0 1 0 1 1 1 0 1 0 1
B = p , p , p , p .
2 1 0 2 0 1 2 1 0 2 0 1
Q è pertanto una forma quadratica indefinita, non degenere e di segnatura (2, 2).
Ogni forma bilineare simmetrica può essere caratterizzate tramite un endomorfismo au-
toaggiunto (cfr. Def. 6.11) come afferma il seguente teorema.
Il teorema che segue, e che conclude la trattazione proposta, mette in relazione la matrice
associata ad una forma bilineare simmetrica rispetto ad una base dello spazio vettoriale
su cui essa è definita con la matrice associata all’endomorfismo autoaggiunto, ottenuto
tramite la forma bilinere simmetrica mediante (8.19), rispetto alla stessa base.
Teorema 8.27 1. Sia ' una forma bilineare simmetrica definita su uno spazio vet-
toriale euclideo (V, · ) di dimensione n e sia B una base ortonormale di V. La
matrice simmetrica A associata a ' rispetto alla base B coincide con la matri-
ce associata, rispetto alla base B, all’endomorfismo autoaggiunto f di V definito
tramite la relazione (8.19).
2. Sia ' una forma bilineare simmetrica definita su uno spazio vettoriale V di dimen-
sione n, si indichi con A la matrice associata a ' rispetto ad una base B di V. Se
si considera su V il prodotto scalare che rende ortonormale la base B, allora la re-
lazione (8.19) definisce un endomorfismo autoaggiunto f (autoaggiunto rispetto al
prodotto scalare appena introdotto) tale che la matrice ad esso associata, rispetto
alla base B, sia A.
394 Forme Bilineari e Forme Quadratiche
Dimostrazione Le dimostrazioni delle due parti del teorema sono analoghe e sono
conseguenza della relazione:
che esprime in forma matriciale la formula (8.19) scritta rispetto ad una base ortonormale,
dove con X e Y si indicano le matrici colonne delle componenti dei vettori x e y rispetto
alla base B, con A la matrice associata a ', rispetto alla base B e con B la matrice
associata ad f, rispetto a B.
Nell’esercizio proposto di seguito si intende evidenziare che una matrice simmetrica non
è necessariamente associata ad un endomorfismo autaggiunto, infatti la relazione tra la
simmetria di una matrice e un endomorfismo autoaggiunto è legata al prodotto scalare
che si sta considerando. Si conclude il paragrafo determinando, quindi, tutte le matrici
associate ad un endomorfismo autoaggiunto, qualunque sia la base dello spazio vettoriale
euclideo su cui esso è definito.
è un prodotto scalare su R2 .
2. Affinché f sia autoaggiunto rispetto al prodotto scalare ' deve valere la seguente
relazione:
'(f (x), y) = '(x, f (y)), x, y 2 R2 .
Capitolo 8 395
Teorema 8.28 Sia V uno spazio vettoriale reale di dimensione n su cui è definito un
prodotto scalare ' a cui è associata la matrice simmetrica A 2 Rn,n rispetto ad una
base B di V. La matrice B 2 Rn,n associata ad un endomorfismo f di V autoaggiunto
rispetto al prodotto scalare ', ossia tale che:
'(f (x), y) = '(x, f (y)), x, y 2 V, (8.20)
Ogni forma bilineare ' su uno spazio vettoriale reale V definisce una coppia di appli-
cazioni lineari f1 , f2 : V ! V ⇤ da V nel suo duale V ⇤ (cfr. Def. 6.12), nel modo
seguente:
f1 (x)(y) = '(x, y),
(8.21)
f2 (x)(y) = '(y, x), x, y 2 V.
396 Forme Bilineari e Forme Quadratiche
L’Osservazione 8.1 garantisce che f1 (x) e f2 (x) sono forme lineari su V, in quanto
f1 (x)(y) = 'x (y) e f2 (x)(y) = 'y (x).
Se ' è una forma bilineare simmetrica, allora le due applicazioni lineari f1 , f2 definite da
(8.21) coincidono con l’applicazione lineare f definita da (8.22), inoltre:
f (x)(y) = f (y)(x), x, y 2 V.
Nel caso particolare delle forme bilineari simmetriche non degeneri vale il seguente teo-
rema.
Teorema 8.29 Sia V uno spazio vettoriale reale di dimensione n. Ogni forma bilineare
simmetrica non degenere ' su V determina un isomorfismo f : V ! V ⇤ , definito da
(8.22). Viceversa, ogni isomorfismo f : V ! V ⇤ definisce mediante (8.22) una forma
bilineare simmetrica non degenere ' su V .
Il concetto di minore di ordine k < n di una matrice A 2 Rn,n è stato introdotto nella
Definizione 2.11 ed è il determinante di una sottomatrice (quadrata) di ordine k di A.
Capitolo 8 397
Definizione 8.17 Sia A 2 S(Rn,n ) una matrice simmetrica. I minori principali di ordine
k (k < n) di A sono i minori che si ottengono considerando sottomatrici formate da k
righe e dalle corrispondenti k colonne. Il minore principale di ordine n coincide con
det(A). I minori principali di Nord–Ovest (N.O.) di ordine k di una matrice simmetrica
A sono i minori principali che si ottengono considerando le prime k righe (e di conse-
guenza le prime k colonne), vale a dire sono i minori che si ottengono cancellando le
ultime n k righe e le ultime n k colonne.
i minori principali di ordine 1 di A sono gli elementi sulla diagonale principale (dati
dall’intersezione della prima riga con la prima colonna, oppure seconda riga e seconda
colonna, oppure terza riga e terza colonna):
1, 1, 2.
I minori principali di ordine 2 di A sono tre e sono i determinanti delle matrici ottenute
dalla prima e seconda riga intersecate con la prima e seconda colonna, ossia cancellando
la terza riga e la terza colonna, dalla prima e terza riga con la prima e terza colonna,
cancellando quindi la seconda riga e la seconda colonna, dalla seconda e terza riga con la
seconda e terza colonna, cancellando quindi la prima riga e la prima colonna, vale a dire:
1 2 1 3 1 2
= 3, = 7, = 2.
2 1 3 2 2 2
Teorema 8.30 Sia V uno spazio vettoriale reale di dimensione n e B una base di V.
Una forma quadratica Q(x) = tXAX su V con A matrice associata a Q rispetto alla
base B è:
398 Forme Bilineari e Forme Quadratiche
Esempio 8.23 Si consideri la forma quadratica su R3 , definita rispetto alla base canonica
B = (e1 , e2 , e3 ) di R3 , da:
con x = (x1 , x2 , x3 ). La matrice A associata alla forma quadratica Q rispetto alla base
B è: 0 1
4 1 0
A=@ 1 2 1 A.
0 1 2
I tre minori principali di N.O. sono 4, 7 e 10, quindi la forma quadratica Q è definita
positiva.
0 0 2 2
Si può agevolmente ridurre a forma canonica una forma quadratica anche con una tecnica
che si basa sul metodo di riduzione delle matrici. A questo scopo è necessario osser-
vare che, in generale, la matrice B ottenuta da una matrice A mediante l’operazione di
colonna:
Ci ! Ci + Cj , 2 R,
coincide con la matrice prodotto AEi dove Ei è la matrice che si ottiene dalla matrice
unità I sulla quale è stata eseguita la medesima operazione di colonna.
Analogamente la matrice B ottenuta da una matrice A mediante l’operazione di riga:
Ri ! Ri + Rj , 2 R,
coincide con la matrice prodotto tEi A, La matrice tEi non è altro che la matrice che si
ottiene dalla matrice unità sulla quale è stata eseguita la medesima operazione di riga.
Con le usuali notazioni Ri e Ci si indicano, rispettivamente, le righe e le colonne della
matrice A considerata.
la matrice associata ad una forma quadratica Q rispetto ad una base fissata, la formula
(8.23) assicura che anche la matrice D è associata alla stessa forma quadratica Q rispetto
alla base che si ottiene applicando alla base iniziale la matrice del cambiamento di base
P. La verifica che P sia una matrice invertibile è un semplice esercizio. È cosı̀ possibile
applicare il metodo appena descritto per classificare la forma quadratica Q.
con x = (x1 , x2 , x3 ).
associata alla forma quadratica Q, rispetto alla base canonica di R3 , si operi come segue:
0 1 0 1
0 2 1 1 0 1
B C ! B C !
@ 2 1 2 A @ 2 1 2 A
R1 ! R1 R3 C1 ! C1 C3
1 2 0 1 2 0
0 1
0 1 2 0 1
2 0 1 B C
B C ! B 0 1 2 C !
@ 0 1 2 A B C
R3 ! R3 + (1/2) R1 @ 1 A C3 ! C3 + (1/2) C1
1 2 0 0 2
2
0 1 0 1 0 1
2 0 0 2 0 0 2 0 0
B C B C B C
B 0 1 2 C ! B 0 1 2 C ! B 0 1 0 C
B C B C B C.
@ 1 A R3 ! R3 2R2 @ 9 A C3 ! C3 2 C2 @ 9 A
0 2 0 0 0 0
2 2 2
9 2
Q(x) = 2y12 + y22 y
2 3
Capitolo 8 401
dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base ottenuta tramite la matrice P
nel modo seguente:
0 1 0 1 1
1 0 0 1 0
B C ! B 2 C
B C C1 ! C1 C3 B C
B 0 1 0 C B 0 1 2 C = P.
B C C3 ! C3 + (1/2) C1 B C
@ A @ A
C3 ! C3 2 C2 1
0 0 1 1 0
2
Attenzione al fatto che 2, 1, 9/2 non sono gli autovalori di A!
{z. . . ⇥ V} ! R,
| ⇥V ⇥
':V
p volte
lineare in ciascun argomento, prende il nome di forma p-lineare su V.
Esempio 8.26 Il prodotto misto di tre vettori nello spazio vettoriale V3 , definito come la
funzione:
V3 ⇥ V3 ⇥ V3 ! R, (x, y, z) 7 ! x ^ y · z
(cfr. Def. 3.14) è un esempio di forma trilineare su V3 .
Il prodotto misto dei vettori dello spazio ordinario è proprio l’esempio da cui trae spunto
la definizione che segue.
Definizione 8.19 Una forma p-lineare ' su uno spazio vettoriale reale V si dice anti-
simmetrica o alternata se:
'(x1 , . . . , xi , . . . , xj , . . . , xp ) = '(x1 , . . . , xj , . . . , xi , . . . , xp ),
Teorema 8.31 Sia ' una forma p-lineare antisimmetrica su uno spazio vettoriale reale
V. Se xi = xj , per una qualche scelta di i, j = 1, 2, . . . , p, allora '(x1 , x2 , . . . , xp ) = 0.
Esempio 8.27 Sia V uno spazio vettoriale di dimensione 2 con base B = (v1 , v2 ). Dati
i vettori x1 = a11 v1 + a12 v2 , x2 = a21 v1 + a22 v2 , si vuole calcolare l’espressione di una
forma bilineare antisimmetrica ' : R ⇥ R ! R, utilizzando lo stesso metodo introdotto
nel Paragrafo 8.1.1 per le forme bilineari simmetriche, ossia si ha:
!✓ ◆
'(v1 , v1 ) '(v1 , v2 ) a21
'(x1 , x2 ) = a11 a12
'(v2 , v1 ) '(v2 , v2 ) a22
!✓ ◆
0 '(v1 , v2 ) a21
= a11 a12
'(v1 , v2 ) 0 a22
a11 a12
= '(v1 , v2 ).
a21 a22
In pratica, il valore di '(x1 , x2 ) è determinato dal suo valore sugli elementi della ba-
se '(v1 , v2 ), mentre il coefficiente moltiplicativo è il determinante della matrice avente
come righe le componenti dei vettori. Si osservi inoltre che la matrice:
!
0 '(v1 , v2 )
'(v1 , v2 ) 0
è la matrice associata alla forma bilineare antisimmetrica ' rispetto alla base B e si
osservi anche che è una matrice antisimmetrica.
Teorema 8.32 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn )
una sua base. Dati i vettori:
Capitolo 8 403
{z. . . ⇥ V} ! R,
| ⇥V ⇥
':V
n volte
allora:
X
'(x1 , x2 , . . . , xn ) = ✏( )a1 (1) a2 (2) . . . an (n) '(v1 , v2 , . . . , vn ), (8.24)
Vale anche il reciproco del teorema precedente, la cui dimostrazione è di nuovo un lungo
calcolo lasciato per esercizio.
Esempio 8.28 Se si considera lo spazio ordinario V3 con una base ortonormale positiva
B = (i, j, k), allora il determinante dei tre vettori x, y, z coincide con il loro prodotto
misto:
det(x, y, z) = x ^ y · z, x, y, z 2 V3 ,
in quanto i ^ j · k = 1, per definizione di base ortonormale positiva.
404 Forme Bilineari e Forme Quadratiche
det(A) = '(x1 , x2 , . . . , xn ),
'(e1 , e2 , . . . , en ) = det(I) = 1
Data la Definizione 8.20 si dimostra il teorema di seguito enunciato, già noto dal Capitolo
4, in cui era stato ottenuto come conseguenza della relazione dim(L(x1 , x2 , . . . , xn )) =
dim(R(A)) = rank(A).
Teorema 8.34 Sia V uno spazio vettoriale reale di dimensione n. Dati n vettori di
V, x1 , x2 , . . . , xn , essi sono linearmente indipendenti se e solo se il loro determinante
relativo ad una qualsiasi base B = (e1 , e2 , . . . , en ) di V è diverso da zero.
x1 = ↵2 x2 + . . . + ↵n xn ,
Capitolo 8 405
con ↵i 2 R e quindi:
'(x1 , x2 , . . . , xn ) = ↵2 '(x2 , x2 , . . . , xn ) + . . . + ↵n '(xn , x2 , . . . , xn ) = 0.
È stato cosı̀ dimostrato che, se il determinante degli n vettori x1 , x2 , . . . , xn non si an-
nulla, allora gli n vettori sono linearmente indipendenti. Viceversa, si supponga che
l’insieme {x1 , x2 , . . . , xn } sia libero e che per assurdo il loro determinante sia uguale a
zero. Poiché (x1 , x2 , . . . , xn ) è una base di V, si possono scrivere i vettori della base
B = (e1 , e2 , . . . , en ) di V come combinazioni lineari di x1 , x2 , . . . , xn :
8
> e1 = b11 x1 + b12 x2 + . . . + b1n xn ,
>
>
>
< e2 = b21 x1 + b22 x2 + . . . + b2n xn ,
> ..
>
> .
>
:
en = bn1 x1 + bn2 x2 + . . . + bnn xn .
Per definizione di determinante relativo alla base (e1 , e2 , . . . , en ) si avrebbe:
X
det(e1 , . . . , en ) = 1 = ✏( )b1 (1) . . . bn (n) det(x1 , . . . , xn )
che non corrispondono ai vettori riga della matrice A. Sia ' la forma n-lineare alternata
tale che '(e1 , e2 , . . . , en ) = 1. Per definizione di deteminante si ha:
da cui si ottiene:
'(u1 , u2 , . . . , un ) = det(A) det(B).
Se si esprimono i vettori u1 , u2 , . . . , un come combinazioni lineari dei vettori della base
B: n
X
ui = cik ek , i = 1, 2, . . . , n,
k=1
che è esattamente l’elemento di posto ik del prodotto delle due matrici A e B . Quindi
segue:
'(u1 , u2 , . . . , un ) = det(AB)'(e1 , e2 , . . . , en ) = det(AB),
ossia la tesi.
Capitolo 9
P = (x, y),
407
408 Geometria Analitica nel Piano
y
II I
P
x
O
III IV
!
Figura 9.2: Componenti del vettore AB
Capitolo 9 409
y
B
x
O
5
C
4
2
A G
1
-1 O 1 2 3 4 5 6 7
-1
B
-2
-3
Esempio 9.1 – Asse di un segmento – Dati due punti distinti nel piano A = (xA , yA ),
B = (xB , yB ), l’asse del segmento AB è il luogo geometrico dei punti P = (x, y)
equidistanti da A e da B . Quindi dalla relazione d(A, P ) = d(B, P ) segue:
(x xA )2 + (y yA )2 = (x xB )2 + (y yB )2 ,
da cui:
2(xA xB )x + 2(yA yB )y + x2B + yB2 x2A yA2 = 0,
che è l’equazione del luogo richiesto. Si osservi che si tratta di un’equazione di primo
grado in x e y e si osservi anche che, dal punto di vista geometrico, l’asse di un segmento
è la retta perpendicolare al segmento nel suo punto medio M, come rappresentato nella
Figura 9.5. Si ritornerà su questo argomento nel Paragrafo 9.9.
d(P, C)2 = r2
412 Geometria Analitica nel Piano
A M B
si ottiene:
x2 + y 2 2↵x 2 y + ↵2 + 2
r2 = 0.
Si tratta di una particolare equazione di secondo grado in x e y che sarà studiata in
dettaglio nel Paragrafo 10.1.
Ricordando che il gruppo delle matrici unitarie U (1) (cfr. Es. 5.22) è definito da:
U (1) = {z 2 C | |z| = 1}
ed usando l’identificazione tra i numeri complessi ed il punti del piano data da:
z = x + iy = (x, y), z 2 C,
segue che gli elementi di U (1) costituiscono la circonferenza nel piano di centro l’origine
e raggio 1.
Può rivelarsi molto più complicato il problema inverso, vale a dire, data un’equazione in
x e y, studiare il luogo geometrico individuato dai punti P = (x, y) che la verificano. A
tale scopo si procede proponendo una serie di esempi ed esercizi.
y= x2 + x + 3 (9.4)
passa per i punti A = ( 1, 1), B = (2, 1), non passa per O = (0, 0) e nemmeno per
C = (5, 0).
P
Ρ
Θ
O
Ρ
y
P = (( 1)k ⇢, ✓ + k⇡), k 2 Z,
che prendono il nome di coordinate polari generalizzate del punto P del piano.
9.4 Traslazione
Un altro metodo che può essere utile nello studio dei luoghi geometrici è quello di scri-
vere l’equazione del luogo in un nuovo sistema di riferimento ottenuto mediante una
traslazione degli assi cartesiani.
y
Y
O' X
O x
Nel riferimento R = (O, x, y) si definiscono una nuova origine nel punto O0 = (x0 , y0 )
e i nuovi assi X e Y, passanti per O0 , paralleli e concordi a x e a y . Si ottiene cosı̀ un
nuovo riferimento cartesiano R0 = (O0 , X, Y ) che è traslato rispetto al precedente. Si
vogliono determinare le relazioni che legano le coordinate di un generico punto P del
piano rispetto ai due riferimenti. Sia P = (x, y) nel riferimento R e P = (X, Y ) nel
Capitolo 9 417
X 2 + Y 2 = 6.
Esercizio 9.7 Determinare la traslazione con cui si deve operare sugli assi affinché l’e-
quazione:
y = x2 + 3x 2
si trasformi in:
Y = X 2.
da cui segue:
⇢
2x0 + 3 = 0
x20 3x0 + 2 + y0 = 0
quindi x0 = 3/2, y0 = 1/4.
Esercizio 9.8 Operando con il metodo del completamento dei quadrati, individuare un’op-
portuna traslazione che permetta di studiare la curva di equazione:
x2 + y 2 + 2x + 3y = 0.
Soluzione Applicando il metodo del completamento dei quadrati (cfr. Esercizio 8.13)
in questo caso, si ha:
✓ ◆
2 2 9 9
(x + 2x + 1) + y + 3y + 1 = 0,
4 4
✓ ◆2
2 3 13
(x + 1) + y + = .
2 4
Capitolo 9 419
Tramite la traslazione: 8
< X =x+1
>
: Y =y+3
>
2
si ottiene, nel nuovo riferimento, l’equazione:
13
X2 + Y 2 =
4
✓ ◆ p
3 13
che quindi rappresenta la circonferenza di centro O0 = 1, e raggio .
2 2
9.5 Simmetrie
Un altro metodo per studiare il grafico di una curva, di cui si conosce l’equazione, è
cercarne le eventuali simmetrie rispetto agli assi coordinati o rispetto all’origine del rife-
rimento.
P' P
Una curva è simmetrica rispetto all’asse x se per ogni punto P = (x, y) appartenente
alla curva anche il punto P 0 = (x, y) appartiene alla curva. Per esempio la curva di
equazione x + y 2 + 5 = 0 è simmetrica rispetto all’asse x mentre la curva di equazione
x + y + 5 = 0 non lo è. La situazione geometrica è illustrata nella Figura 9.11.
P
x
P'
Una curva è simmetrica rispetto all’origine del riferimento se per ogni punto P = (x, y)
appartenente alla curva anche il punto P 0 = ( x, y) appartiene alla curva. Per esempio
la curva di equazione x2 + y 2 = 5 è simmetrica rispetto all’origine mentre la curva di
equazione x2 + x + y + 5 = 0 non lo è. La situazione geometrica è illustrata nella Figura
9.12.
Più in generale, come spiegato nell’esercizio che segue, si può considerare la simmetria
rispetto ad un punto qualsiasi del piano.
Capitolo 9 421
P'
4X 2 + 9Y 2 = 108
che definisce una curva simmetrica rispetto all’origine del riferimento R0 = (C, X, Y ),
si tratta dell’ellisse rappresentato in Figura 9.13.
r
P
P0
r : P = P0 + t r, t 2 R. (9.10)
La relazione (9.10) è detta equazione vettoriale parametrica di r mentre t 2 R è il
parametro al variare del quale P descrive la retta r.
b = p l b = p m
cos(ri) , cos(rj)
l 2 + m2 l 2 + m2
(cfr. Oss. 3.14). Inoltre, i coseni direttori sono individuati a meno del segno.
424 Geometria Analitica nel Piano
Esercizio 9.11 Determinare le equazioni parametriche della retta r passante per il punto
P0 = ( 1, 3) e parallela al vettore r = 2i 5j e calcolarne i coseni direttori.
b = p2 ,
cos(ri) b =
cos(rj)
5
p .
29 29
Si osservi che sostituendo t = 0 in (9.12) si ottiene il punto P0 . Per t = 1 si ottiene il
punto A = (1, 2), pertanto la retta r si può anche rappresentare come:
⇢
x = 1 + 4t0
y = 2 10t0 , t0 2 R.
Osservazione 9.2 Se in (9.11) si limita il valore di t ad intervalli della retta reale si
rappresentano i punti di segmenti della retta r. Se, invece, si chiede che t assuma solo
valori reali positivi o nulli si rappresenta una semiretta di origine P0 , si ottiene la semiretta
opposta limitando t a valori reali negativi o nulli.
P0
Il teorema che segue caratterizza tutte le rette del piano tramite equazioni lineari in x, y .
Teorema 9.1 Ogni equazione lineare in x, y del tipo (9.15), , con (a, b) 6= (0, 0),
rappresenta una retta ed è individuata a meno di un fattore moltiplicativo non nullo.
Dimostrazione Si è già dimostrato che una retta nel piano può essere rappresentata
mediante un’equazione lineare in x, y . Viceversa, considerata l’equazione lineare (9.15),
se (a, b) 6= (0, 0) esiste almeno un punto P0 = (x0 , y0 ) del piano le cui coordinate la
verificano, ossia c = ax0 + by0 . Sostituendo in (9.15) si ha:
a(x x0 ) + b(y y0 ) = 0. (9.16)
426 Geometria Analitica nel Piano
L’equazione (9.16) coincide con (9.14) e, quindi, rappresenta la retta passante per il punto
P0 ortogonale al vettore ai + bj. Inoltre, per ⇢ 6= 0, le due equazioni (9.15) e:
⇢(ax + by + c) = 0
Esercizio 9.12 Scrivere l’equazione cartesiana della retta ottenuta nell’Esercizio 9.11.
x+1 y 3
=
2 5
da cui:
5x + 2y 1 = 0.
Esercizio 9.14 È ben noto che due punti distinti individuano una sola retta. Perché
nell’equazione ax + by + c = 0 ci sono tre coefficienti a, b, c?
Osservazione 9.4 L’equazione (9.17) della retta r passante per due punti distinti A e B
si può scrivere nella forma:
x y 1
xA yA 1 = 0,
xB yB 1
quest’espressione è valida anche nel caso in cui xB xA = 0 o yB yA = 0. Si lascia la
dimostrazione al Lettore per esercizio.
Esercizio 9.15 Scrivere le equazioni parametriche e cartesiana della retta passante per i
punti A = ( 1, 2), B = (4, 5).
La bisettrice del primo e terzo quadrante passa per i punti P = (x, x) che hanno ascissa
uguale all’ordinata, quindi ha equazione:
y = x.
Infatti, questa retta è parallela al vettore r = i+j. Analogamente, la bisettrice del secondo
e quarto quadrante passa per i punti P = (x, x), quindi ha equazione:
y= x
ed è parallela al vettore r = i j.
A Α
e, quindi, tale che b 6= 0. Allora l’equazione cartesiana di r si può scrivere anche nella
forma
y = px + q, (9.19)
dove:
a c
p= , q= . (9.20)
b b
Il numero p prende il nome di coefficiente angolare di r, tale denominazione è motivata
dalle seguenti considerazioni geometriche. Si consideri una generica retta passante per
l’origine e per i punti A = (xA , yA ), B = (xB , yB ). Se ↵ è l’angolo che la retta data
forma con l’asse x è chiaro che:
yA yB
= = tan ↵.
xA xB
Le coordinate (x, y) del generico punto P 6= O appartenente alla retta r verificano la
stessa relazione, ossia:
y yA yB
= = = tan ↵.
x xA xB
D’altra parte, una generica retta passante per l’origine ha equazione:
y = px, p 2 R,
430 Geometria Analitica nel Piano
p = tan ↵,
dove ↵ è l’angolo che la retta forma con l’asse x. Si osservi che l’equazione y = px
rappresenta, al variare di p 2 R, tutte le rette passanti per l’origine, tranne l’asse y .
Per capire meglio il significato geometrico del numero q dato da (9.20) si consideri l’inter-
sezione della retta di equazione y = px+q con l’asse y , si ottiene cosı̀ il punto A = (0, q)
quindi q esprime la lunghezza (con segno) del segmento che la retta stacca sull’asse y , a
partire dall’origine. La situazione geometrica è illustrata nella Figura 9.17.
ab0 a0 b = 0. (9.21)
r : y = px + q, r 0 : y = p0 x + q 0
aa0 + bb0 = 0.
r : y = px + q, r 0 : y = p0 x + q 0
sono perpendicolari se e solo se:
pp0 = 1,
infatti: ⇣ ⇡⌘
pp0 = tan ↵ tan ↵0 = tan ↵ tan ↵ + = 1,
2
dove ↵ e ↵0 indicano, rispettivamente, gli angoli che le rette r e r0 formano con l’asse
delle ascisse.
Esercizio 9.16 Condurre dal punto A = (3/4, 2) la retta r parallela all’asse y e dal
punto B = (2/5, 4/3) la retta s parallela all’asse x. Detto C il loro punto di intersezione,
determinare la lunghezza del segmento OC .
Esercizio 9.17 Determinare l’equazione della retta passante per A = (2, 3) e perpen-
dicolare alla retta di equazione y = 2x 1.
432 Geometria Analitica nel Piano
due rette nel piano. L’angolo (r, [ r0 ) tra le due rette coincide con l’angolo formato da
due vettori ad esse ortogonali. Da osservare quindi che se ↵ è l’angolo tra i due vettori
n = (a, b), n0 = (a0 , b0 ), le due rette formano anche l’angolo ⇡ ↵, in quanto i due
vettori ortogonali alle due rette possono avere qualsiasi verso. Pertanto il valore di uno
dei due angoli tra le due rette r e r0 è determinato da:
[ n · n0 aa0 + bb0
cos (r, r0 ) = = p p .
knk kn0 k a2 + b2 a02 + b02
Valgono analoghe considerazioni se le due rette sono date in forma parametrica:
⇢ ⇢
x = x0 + lt 0 x = x00 + l0 t0
r: r :
y = y0 + mt, t 2 R, y = y00 + m0 t0 , t0 2 R,
e considerando i due vettori r = (l, m) e r0 = (l0 , m0 ) ad esse paralleli si ha:
[ r · r0 ll0 + mm0
cos (r, r0 ) = = p p .
krk kr0 k l2 + m2 (l0 )2 + (m0 )2
1. parallele e coincidenti;
2. parallele e distinte;
3. incidenti.
Dal punto di vista algebrico si risolve il problema della determinazione della posizione
reciproca di due rette r e r0 studiando le soluzioni del sistema lineare di due equazioni in
due incognite: ⇢
ax + by + c = 0
(9.23)
a0 x + b0 y + c0 = 0,
dato dalle equazioni delle due rette:
r : ax + by + c = 0, r0 : a0 x + b0 y + c0 = 0.
434 Geometria Analitica nel Piano
Dal metodo di riduzione di Gauss, applicato alla matrice A dei coefficienti e alla matrice
(A | B) completa del sistema lineare (9.23), segue:
✓ ◆ ✓ ◆
a b c ! a b c
(A | B) = .
a0 b 0 c0 R2 ! aR2 a0 R1 0 ab0 a0 b ac0 + a0 c
a b
= ,
a0 b0
vale a dire i vettori n e n0 ortogonali alle due rette sono paralleli che è la condizione
di parallelismo tra le due rette. Si presentano due possibilità:
2. rank(A) = 2 cioè a0 b ab0 6= 0, vale a dire i vettori n e n0 non sono paralleli, il si-
stema lineare ammette una sola soluzione. La condizione imposta equivale a richie-
dere che le due rette non siano parallele, quindi sono incidenti, e, di conseguenza,
si intersecano in un solo punto.
In modo equivalente a quanto descritto, anziché studiare il sistema lineare (9.23), per indi-
viduare la posizione reciproca delle rette r e r0 si può considerare la posizione reciproca
dei due vettori n = (a, b) ortogonale ad r e n0 = (a0 , b0 ) ortogonale a r0 . Si presentano i
seguenti casi:
2. n e n0 non sono paralleli, allora le due rette sono incidenti. Per determinare il loro
punto di intersezione si deve risolvere il sistema lineare (9.23) per esempio usando
il Teorema di Cramer (cfr. Teor. 2.20).
Esercizio 9.20 Discutere, al variare di k 2 R, la posizione reciproca delle rette:
r : (2k 1)x + y 3k = 0, r0 : 3kx 2y + k 1 = 0.
Soluzione Si tratta di studiare le soluzioni del sistema lineare di due equazioni in due
incognite: ⇢
(2k 1)x + y 3k = 0
3kx 2y + k 1=0
al variare di k 2 R. Procedendo con il metodo di riduzione di Gauss si ha:
✓ ◆ ✓ ◆
2k 1 1 3k ! 2k 1 1 3k
.
3k 2 k+1 R2 ! R2 + 2R1 7k 2 0 5k+1
Si distinguono cosı̀ due casi:
1. se k 6= 2/7 esiste una sola soluzione, quindi le due rette sono incidenti.
2. Se k = 2/7 le rette sono parallele ma mai coincidenti in quanto 5k + 1 6= 0.
Esercizio 9.21 Date le rette:
r1 : 4x + y 8 = 0, r2 : 3x 2y + 2 = 0
e il punto P = (2, 1), determinare:
1. la retta passante per P e parallela a r1 ;
2. la retta passante per il punto di intersezione di r1 e r2 e perpendicolare a r2 .
Soluzione 1. Tutte e solo le rette parallele a r1 hanno equazione del tipo 4x+y+c = 0,
al variare di c 2 R. Imponendo il passaggio per il punto P si ricava c = 9.
2. Il sistema lineare:
⇢
4x + y 8 = 0
3x 2y + 2 = 0
ha soluzione (14/11, 32/11) che rappresenta le coordinate del punto di intersezione
di r1 e r2 . La retta richiesta ha equazione:
✓ ◆
32 14
y =p x
11 11
con (3/2)p = 1.
436 Geometria Analitica nel Piano
P0
P1
Per questo scopo, è sufficiente scrivere l’equazione della retta r0 passante per P0 e per-
pendicolare ad r e calcolare la distanza d(P0 , H) dove H è il punto di intersezione tra r0
ed r. Si osservi che se P0 appartiene alla retta r si ottiene d(P0 , r) = 0, in quanto P0
coincide con H (cfr. Fig. 9.18).
Si risolve ora lo stesso problema applicando nozioni di calcolo vettoriale. Dati un generico
punto P1 = (x1 , y1 ) di r, quindi ax1 + by1 + c = 0, e un vettore n = (a, b) ortogonale
ad r, dal significato geometrico del prodotto scalare di due vettori (cfr. Teor. 3.10) segue:
!
P1 P0 · n
d(P0 , r) = . (9.24)
knk
Si osservi che il valore d(P0 , r) cosı̀ determinato esprime la distanza con segno del punto
P0 dalla retta r. Il segno è positivo se P0 si trova nello stesso semipiano in cui punta il
verso del vettore n, altrimenti il segno è negativo.
p
1. a denominatore: knk = a2 + b 2 ;
2. a numeratore:
!
P1 P0 · n = a(x0 x1 ) + b(y0 y1 ) = ax0 + by0 ax1 by1 = ax0 + by0 + c.
Riassumendo si ottiene:
ax0 + by0 + c
d(P0 , r) = p . (9.25)
a2 + b2
Il numeratore di (9.25) si annulla se e solo se P0 appartiene alla retta r e, quindi, se e
solo se d(P0 , r) = 0, inoltre il numeratore di (9.25) assume lo stesso segno per tutti e soli
i punti appartenenti allo stesso semipiano di origine la retta r.
Esempio 9.3 Data la retta r : 3x + 2y + 5 = 0, i punti del piano sono esattamente divisi
in tre parti cosı̀ caratterizzate:
3. i punti P = (x, y) tali che 3x + 2y + 5 < 0, vale a dire i punti del semipiano di
origine r, opposto al precedente.
1. il fascio improprio di rette formato da tutte le rette parallele ad una retta assegnata;
la situazione geometrica è illustrata nella Figura 9.19;
2. il fascio proprio di rette formato da tutte le rette passanti per un punto, detto centro
del fascio; la situazione geometrica è illustrata nella Figura 9.20.
438 Geometria Analitica nel Piano
con p fissato e q che assume ogni valore in R. Il fascio di rette parallele all’asse y invece
è rappresentato da:
x = k, k 2 R.
Per esempio y = 3x + q , per ogni q reale, individua tutte e sole le rette del piano parallele
alla retta y = 3x.
10
-10 -5 5 10
-5
-10
Siano:
r : ax + by + c = 0, r0 : a0 x + b0 y + c0 = 0
due rette incidenti nel punto P0 = (x0 , y0 ). Il fascio proprio di rette di centro P0 è dato
dalla combinazione lineare:
5. L’equazione (9.26) individua tutte le rette del piano passanti per P0 . Sia, infatti,
P1 = (x1 , y1 ) un punto del piano diverso da P0 , sostituendo le sue coordinate in
(9.26) si perviene ad un’equazione del tipo ↵ + µ = 0, dove ↵ = ax1 + by1 + c e
= a0 x1 + b0 y1 + c0 , da cui si ricava, per esempio, = , µ = ↵ che sostituiti in
(9.26) danno luogo all’equazione della retta passante per i punti P0 e P1 . Si osservi
che se P1 non appartiene né ad r né ad r0 allora ↵ e sono entrambi diversi da
zero.
Osservazione 9.5 Un fascio di rette riempie il piano nel senso che dato un punto generico
P1 = (x1 , y1 ) del piano è possibile individuare un elemento del fascio passante per P1 ,
infatti è sufficiente sostituire le coordinate di P1 nell’equazione (9.26) e calcolare i valori
dei parametri e µ.
individuare:
C
-6 -4 -2 2 4 6
-2
-4
-6
A
-8
+µ
p=
2 µ
+µ
=1
2 µ
Soluzione Il procedimento da usare è già stato spiegato nel Paragrafo 9.2, in alternativa
si può determinare l’equazione della retta perpendicolare al segmento AB nel suo punto
medio M dato da: ✓ ◆ ✓ ◆
3+2 5 3 1
M= , = ,1 .
2 2 2
Capitolo 9 441
x+3 y 5
= ,
2+3 3 5
r : 3x + 4y + 2 = 0, s : 7x 24y 6=0
Soluzione Le bisettrici di due rette r e s sono il luogo dei punti P = (x, y) equidistanti
dalle due rette, ossia tali che d(P, r) = d(P, s). Da (9.25) segue:
3x + 4y + 2 7x 24y 6
p =± p ,
9 + 16 49 + 576
da cui si ottengono le rette:
b1 : 2x + 11y + 4 = 0, b2 : 11x 2y + 2 = 0.
In alternativa si possono ottenere le equazioni delle due bisettrici come le rette passanti
per il punto di intersezione delle due rette date e parallele ai vettori bisettori dei vettori r
e s rispettivamente paralleli alle rette r e s. Si ha r = (4, 3), s = (24, 7) e i due vettori
bisettori degli angoli formati da r e da s sono:
✓ ◆ ✓ ◆ ✓ ◆
4 3 24 7 44 8
vers r + vers s = , + , = , ,
5 5 25 25 25 25
✓ ◆ ✓ ◆ ✓ ◆
4 3 24 7 4 22
vers r vers s = , , = , .
5 5 25 25 25 25
442 Geometria Analitica nel Piano
Il punto di intersezione delle rette r e s è la soluzione del sistema lineare delle loro
equazioni cartesiane ed è ( 6/25, 8/25), di conseguenza le equazioni parametriche
delle due bisettici sono:
8 8
>
> 6 >
> 6 0
< x = 25 + 11t
> < x = 25 2t
>
b1 : b2 :
>
> 8 >
> 8
>
: y= 2t, t 2 R, >
: y= 11t0 , t0 2 R.
25 25
r : x + 2y + 2 = 0, s: x y 3 = 0,
A M' s
M''
t
y= 2i x + 1.
Anche per le rette immaginarie, come per le rette reali considerate in questo capitolo, si
possono introdurre le nozioni di parallelismo e di incidenza.
Teorema 9.2 Una retta r è reale se e solo se coincide con la propria coniugata r.
Osservando che:
✓ ◆ ✓ ◆
a b c a+a b+b c+c
rank = rank
a b c a a b b c c
✓ ◆
Re(a) Re(b) Re(c)
= rank ,
Im(a) Im(b) Im(c)
dove con Re(a) si indica la parte reale di a e con Im(a) si indica la parte immaginaria di
a, si ha la tesi.
Osservazione 9.6 Ogni retta reale ha infiniti punti reali, ma contiene anche infiniti punti
immaginari. Inoltre, se P = (x0 , y0 ) è un punto non reale, ovvero P 6= P , dove con P
di indica il punto coniugato di P avente coordinate (x0 , y 0 ), la retta passante per P e P
è necessariamente reale.
( 1 + i, 1 + 2 i),
al variare di 2R {0}.
Soluzione Si ha:
x2 + y 2 = (x + iy)(x iy) = 0,
pertanto x2 + y 2 = 0 rappresenta la coppia di rette immaginarie coniugate x = ±iy . Si
osservi che l’intersezione reale delle due rette immaginarie è costituita dalla sola origine.
Teorema 9.3 Una retta immaginaria (o non reale) possiede al più solo un punto reale.
2. Verificare che la retta r2 non è reale ed ha come unico punto reale il punto di
coordinate (3, 0).
3x 2y 1 = 0.
446 Geometria Analitica nel Piano
Scopo di questo capitolo è lo studio delle coniche nel piano, ossia di tutte le curve del
piano che sono rappresentabili mediante un’equazione di secondo grado nelle incognite
x, y. Il primo esempio di conica presentato è quello della circonferenza, la cui equazione
è già stata ottenuta nel Capitolo 9 come luogo geometrico di punti. Ma la parte determi-
nante di questo capitolo è l’applicazione della teoria di riduzione a forma canonica di una
forma quadratica (cfr. Cap. 8) allo studio delle coniche allo scopo di poter riconoscere,
a partire da una generica equazione di secondo grado in due incognite, la conica che essa
rappresenta. Questa teoria sarà nuovamente applicata nel Capitolo 12 per lo studio del-
le quadriche nello spazio, che non sono altro che superfici che si possono rappresentare
mediante un’equazione di secondo grado nelle incognite x, y, z ed è facilmente generaliz-
zabile anche nel caso di spazi affini di dimensione superiore a 3. In tutto il capitolo si farà
uso delle notazioni introdotte nei capitoli precedenti, in particolare si considererà il piano
affine S2 su cui si introdurrà un riferimento cartesiano R = (O, x, y), o equivalentemente
R = (O, i, j), dove B = (i, j) è la base ortonormale positiva dello spazio vettoriale V2
definita dal riferimento R.
Fissati un punto C nel piano e un numero reale positivo r, si è già visto nel Paragrafo 9.2
447
448 Riduzione a Forma Canonica delle Coniche
che la circonferenza di centro C e raggio r è il luogo geometrico dei punti P del piano
tali che:
d(P, C) = r.
Se r = 0 la circonferenza si riduce ad un solo punto che coincide con C.
C1 : x2 + y 2 + 4x + 6y = 0,
C2 : x2 + y 2 + 4x + 6y + 30 = 0.
Capitolo 10 449
1. |d(C, s)| > r: la retta è esterna alla circonferenza (cfr. Fig. 10.1).
C
r
C
r
C
r
x2 + y 2 2x + 2y 2 = 0.
3+k
d(C, s) = p ,
5
p p
da cui si deduce che s è esterna alla circonferenza p
se k < 3 2 5 e k > 3 + 2 5.
La retta s p
è tangente alla circonferenza
p se k = ±2 5 3 e s è secante la circonferenza
se 3 2 5 < k < 3 + 2 5.
Esercizio 10.3 Determinare l’equazione della retta tangente nel punto P0 = ( 6, 4) alla
circonferenza di equazione:
x2 + y 2 + 6x 4y = 0.
( 3 + 6)(x + 6) + (2 4)(y 4) = 0,
ossia 3x 2y + 26 = 0.
452 Riduzione a Forma Canonica delle Coniche
s
P0
C C'
r'
r
C C'
r'
r
C C'
r'
r
C C'
r'
r
C C'
r'
r
r C=C'
r'
Soluzione È ben noto che tre punti non allineati del piano individuano una sola circon-
ferenza. Si lascia per esercizio la verifica che i punti A, B, D assegnati non sono allineati.
Per individuare l’equazione della circonferenza passante per A, B, D si può procedere in
due modi. Il centro C è il circocentro (il punto di incontro degli assi dei lati) del triangolo
ABD, quindi se ne possono individuare le coordinate intersecando, per esempio l’asse
del segmento AB con l’asse del segmento AD. Il raggio è la distanza, per esempio, da
C a B . Altrimenti, si possono sostituire in (10.2) le coordinate dei punti dati e risolvere
il sistema lineare cosı̀ ottenuto:
8
< 2a + 3b + c = 13
4a + b + c = 17
:
2a b + c = 5.
La circonferenza richiesta ha pertanto equazione:
x2 + y 2 4x 2y + 1 = 0.
La situazione geometrica è illustrata nella Figura 10.11.
C2 : x2 + y 2 2↵2 x 2 2y + 2 = 0,
la loro combinazione lineare:
(x2 + y 2 2↵1 x 2 1y + 1) + µ(x2 + y 2 2↵2 x 2 2y + 2) = 0, (10.5)
1. + µ = 0;
2. + µ 6= 0,
2(↵1 ↵2 )x + 2( 1 2 )y 1 + 2 = 0.
Si tratta dell’equazione di una retta, che prende il nome di asse radicale del fascio
di circonferenze, ed è ortogonale al vettore n = (↵1 ↵2 , 1 2 ). La retta passante
per i centri C1 = (↵1 , 1 ) e C2 = (↵2 , 2 ) delle circonferenze C1 e C2 è parallela al
vettore n. Tale retta prende il nome di asse centrale del fascio di circonferenze. È
evidente che l’asse radicale è perpendicolare all’asse centrale. Nel Paragrafo 10.6.1
sono elencate altre proprietà dell’asse radicale di due circonferenze.
3. Il fascio di circonferenze riempie il piano nel senso che dato un generico punto
P1 = (x1 , y1 ) del piano è possibile individuare un elemento del fascio passante
per P1 , infatti è sufficiente sostituire le coordinate di P1 nell’equazione (10.5) e
calcolare il valore dei parametri e µ.
458 Riduzione a Forma Canonica delle Coniche
P2
P1
I fasci di circonferenze sono utili (ma non indispensabili) per risolvere alcuni esercizi.
I due esercizi che seguono ne costituiscono un esempio. Si consiglia di risolvere anche
questi esercizi senza fare uso del concetto di fascio di circonferenze.
Capitolo 10 459
Esercizio 10.5 Determinare l’equazione della circonferenza avente centro sulla retta:
s : 2x y=0
vale a dire: ✓ ◆ ✓ ◆
2 2 4 + 3µ 2µ 6µ
x +y + x y+4+ = 0.
x2 + y 2 + x + 2y 2 = 0.
Si osservi che non ci sono problemi a calcolare il centro del fascio dividendo per . Infatti
per ogni circonferenza del fascio si ha che è diverso da zero, per = 0 si ottiene solo
l’asse radicale.
A = ( 3, 2), B = (1, 1)
p
la distanza tra A e B è 17, quindi il fascio considerato ha equazione:
Imponendo:
2 +µ
=0
2
segue µ = 2 , quindi la circonferenza richiesta è:
x2 + y 2 + 11y + 9 = 0.
10.2.1 L’ellisse
Definizione 10.1 Fissati due punti F e F 0 del piano, l’ellisse è il luogo dei punti P tali
che:
d(P, F ) + d(P, F 0 ) = 2a, (10.8)
F’ F
F’ F
da cui si ha:
(a2 c2 )x2 + a2 y 2 = a2 (a2 c2 ).
Posto b2 = a2 c2 , si ottiene:
x2 y2
+ = 1, (10.9)
a2 b2
che è un’equazione dell’ellisse in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto.
Dall’equazione (10.9) si deduce che si tratta di una curva simmetrica ripetto all’asse x, al-
l’asse y e all’origine, è pertanto sufficiente studiare la sua equazione nel primo quadrante.
Da (10.9) si ha:
x2 b2 y 2
=
a2 b2
464 Riduzione a Forma Canonica delle Coniche
b2 p 2
y=± a x2 ,
a2
intuitivamente si ha che se l’ascissa del punto P, che descrive la curva, aumenta di valore,
allora la sua ordinata y diminuisce. Si osservi che se a = b, allora c = 0, ogni retta per
l’origine è asse di simmetria ed in questo caso l’ellisse è la circonferenza di centro O e
raggio a.
E1 : 3x2 + 8y 2 = 12,
E2 : 18x2 + y 2 = 9,
!3 !2 !1 1 2 3
!1
!2
x2 y2
+ = 1,
4 3
2
da cui segue che il centro è l’origine, i vertici sono:
Capitolo 10 465
!1
!2
!3
p ! p !
6 6
A = (2, 0), A0 = ( 2, 0), B= 0, , B0 = 0, .
2 2
x2 y2
+ = 1, (10.10)
1 9
2
da cui segue che il centro è l’origine, ma i fuochi appartengono all’asse y in quanto
9 > 1/2. I vertici sono:
p ! p !
2 2
A= , 0 , A0 = , 0 , B = (0, 3), B 0 = (0, 3).
2 2
p ! p !
17 17
F = 0, p , F0 = 0, p .
2 2
Si osservi che l’equazione (10.10) non è scritta nella stessa forma di (10.9). Se si vuole
passare dall’equazione (10.10) ad un’equazione dello stesso tipo di (10.9) è necessario
effettuare una rotazione degli assi di ⇡/2, in senso antiorario, vale a dire porre:
✓ ◆ ✓ ◆✓ ◆
x 0 1 X
= (10.11)
y 1 0 Y
F’ F
X2 Y2
+ = 1.
9 1
2
Per l’ellisse vale la seguente proprietà, la cui dimostrazione segue da facili considerazioni
geometriche e si può leggere, per esempio, in [8].
Teorema 10.1 La retta tangente ad un’ellisse, di fuochi F ed F 0, in un suo punto P, è la
bisettrice delle rette P F e P F 0 .
La situazione geometrica descritta nel teorema è illustrata nella Figura 10.19.
Capitolo 10 467
10.2.2 L’iperbole
Definizione 10.2 Fissati due punti F e F 0 del piano, l’iperbole è il luogo dei punti P
tali che:
| d(P, F ) d(P, F 0 ) | = 2a, (10.12)
dove a è una costante positiva tale che 2a < d(F, F 0 ).
F’ F
Come nel caso dell’ellisse, si sceglie un opportuno riferimento cartesiano avente l’origine
nel punto medio del segmento di estremi F, F 0 e l’asse x passante per F ed F 0 ; si pone
F = (c, 0) e F 0 = ( c, 0). Sia P = (x, y) il generico punto dell’iperbole, allora (10.12)
diventa: p p
| (x c)2 + y 2 (x + c)2 + y 2 | = 2a, (10.13)
da cui segue:
(c2 a2 )x2 a2 y 2 = a2 (c2 a2 ).
Poiché c2 > a2 , si pone b2 = c2 a2 , sostituendo nell’equazione precedente si ottiene:
x2 y2
=1 (10.14)
a2 b2
che è un’equazione dell’iperbole in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto. Per la definizione di equazione dell’iperbole in forma
468 Riduzione a Forma Canonica delle Coniche
F’ F
detti vertici dell’iperbole, non ha punti di intersezione con l’asse y, mentre l’origine ne è
il suo centro. Da:
y2 x 2 a2
= ,
b2 a2
Capitolo 10 469
ossia:
bp 2
y=± x a2 ,
a
segue che |x| a, quindi non vi sono punti della curva compresi tra le rette di equazioni
x = ±a. Inoltre, tali rette intersecano la curva in due punti coincidenti, i vertici, quindi
esse sono tangenti alla curva. Da:
y2 x2
= 1
b2 a2
segue, intuitivamente, che il valore dell’ordinata (in valore assoluto) aumenta all’au-
mentare del valore dell’ascissa (in valore assoluto). La curva è cosı̀ divisa in due parti
(simmetriche rispetto all’asse y ) che prendono il nome di rami dell’iperbole.
Si studia l’intersezione della curva con una generica retta passante per l’origine (ad ecce-
zione dell’asse y che non interseca la curva), quindi si studiano le soluzioni del sistema:
8 2
> x y2
< 2 =1
a b2
>
:
y = px,
ab
x = ±p
b2 a2 p 2
da cui segue che l’esistenza delle soluzioni dipende dal radicando b2 a2 p2 . Si distinguo-
no i seguenti casi:
3. Le rette:
b
y=± x
a
costituiscono un caso “limite” tra le due situazioni 1. e 2.. Tali rette prendono il
nome di asintoti dell’iperbole. Per meglio descrivere il comportamento della curva
rispetto agli asintoti si consideri la differenza tra le ordinate del punto P0 = (x, y0 )
470 Riduzione a Forma Canonica delle Coniche
b⇣ p ⌘ ab
y0 y1 = x x2 a2 = p .
a x + x2 a2
Quando P1 si allontana indefinitamente sull’iperbole, la sua ascissa x cresce sem-
pre di più ed allora l’ultima frazione, avendo il numeratore costante e il denomina-
tore che aumenta via via, diminuisce sempre di più. Più precisamente:
ab
lim p = 0.
x!±1 x + x2 a2
La situazione geometrica è illustrata nella Figura 10.22.
P0
P1
Esercizio 10.8 Si calcolino i vertici, i fuochi e gli asintoti delle seguenti iperboli:
4 2
I1 : x 25y 2 = 1,
9
I2 : 9x2 4y 2 = 36,
I3 : 4x2 3y 2 = 5,
Capitolo 10 471
i cui grafici sono rispettivamente rappresentati nelle Figure 10.23, 10.24 e 10.25.
!4 !2 2 4
!1
!2
!6 !4 !2 2 4 6
!2
!4
!6 !4 !2 2 4 6
!2
!4
2
y=± x.
15
Per quanto
p riguarda l’iperbole
p I2 i vertici sono A = (2, 0), A0 = ( 2, 0); i fuochi sono
0
F = ( 13, 0), F = ( 13, 0), gli asintoti hanno equazioni:
3
y = ± x,
2
si osservi che, in questo caso b > a, come si può evincere dalla Figura 10.24, rispetto
all’iperbole rappresentata nella Figura 10.23 in cui b < a.
y2 x2
= 1;
5 5
3 4
analogamente al caso dell’Esercizio 10.7, per scrivere l’equazione nella forma (10.14) è
necessario effettuare il cambiamento di riferimento dato da (10.11). Di conseguenza, nel
riferimento iniziale R = (O, x, y), i vertici sono:
Capitolo 10 473
p ! p !
5 5
A= 0, p , A0 = 0, p ,
3 3
i fuochi sono:
p ! p !
35 35
F = 0, p , F0 = 0, p
12 12
e gli asintoti hanno equazioni:
p
3
x=± y.
2
x2 y 2 = a2 , (10.15)
p p
i fuochi hanno coordinate F = ( 2 a, 0) e F 0 = ( 2 a, 0), gli asintoti hanno equazioni
y = ±x, ossia coincidono con le bisettrici del I e III quadrante e del II e IV quadrante e
l’iperbole prende il nome di iperbole equilatera. La Figura 10.26 illustra alcune iperboli
equilatere, ottenute variando il parametro a, aventi tutte gli stessi asintoti, ma vertici
diversi. Gli asintoti, comuni a tutte le iperboli equilatere, possono essere pensati come
l’iperbole “degenere” di equazione (x y)(x + y) = 0.
Per l’iperbole valgono le seguenti proprietà, la cui dimostrazione segue da facili conside-
razioni geometriche e si può leggere, per esempio, in [8].
La situazione geometrica descritta nel teorema appena enunciato è illustrata nella Figura
10.27.
Teorema 10.3 Si consideri una qualsiasi retta che intersechi un ramo di un’iperbole nei
punti P1 e P2 e gli asintoti nei punti Q1 e Q2 , allora i segmenti Q1 P1 e Q2 P2 hanno la
stessa lunghezza. In particolare, la retta tangente in un punto P all’iperbole incontra gli
asintoti nei punti Q1 e Q2 e P è il punto medio del segmento di estremi Q1 , Q2 ..
La situazione geometrica descritta nel teorema appena enunciato è illustrata nelle Figure
10.28 e 10.29.
474 Riduzione a Forma Canonica delle Coniche
F’ F
Q1
P1
P2
Q2
Q1
P1!P2
Q2
Teorema 10.4 Per ogni punto P di un’iperbole, tutti i parallelogrammi formati dagli
asintoti e dalle parallele ad essi condotte da P hanno la stessa area.
La situazione descritta nel teorema precedente è illustrata nella Figura 10.30 in cui i
rettangoli colorati hanno la stessa area.
In alternativa, si può operare come segue. Se si immagina che gli asintoti coincidano con
gli assi cartesiani, i fuochi dell’iperbole diventano i punti della retta y = x di coordinate
F = (a, a), Fp0 = ( a, a), infatti, per il teorema di Pitagora, la loro distanza dall’o-
rigine è c = 2a. Si ripetono i calcoli descritti a partire da (10.13) in questo caso, e
precisamente (10.13) diventa:
p p
(x a)2 + (y a)2 (x + a)2 + (y + a)2 = 2a,
Capitolo 10 477
a2
xy = , (10.16)
2
che risponde al problema posto. Si osservi che questa rappresentazione permette di di-
mostrare più agevolmente il comportamento dell’asintoto (l’asse x per esempio) rispetto
alla curva. Infatti se P1 = (x, y) è un punto della curva e P0 = (x, 0) è il punto dell’asse
x di uguale ascissa, allora è evidente che:
a2
lim y = lim = 0.
x!1 x!±1 2x
Al variare di a in (10.16) si hanno iperboli con rami nel primo e terzo quadrante, i cui
asintoti sono gli assi cartesiani, con i vertici che variano sulla bisettrice y = x.
-8 -6 -4 -2 2 4 6 8
-2
-4
-6
-8
La curva:
xy = 0
rappresenta la conica “degenere” unione degli assi cartesiani, invece la famiglia di curve
(al variare di a):
478 Riduzione a Forma Canonica delle Coniche
-8 -6 -4 -2 2 4 6 8
-2
-4
-6
-8
a2
xy =
2
si può ottenere con lo stesso procedimento appena descritto, dopo aver effettuato il cam-
biamento di riferimento:
⇢
x= Y
y = X;
di conseguenza, nel riferimento originale, i rami della curva si trovano nel secondo e
quarto quadrante e i vertici variano sulla bisettrice y = x. Le situazioni descritte sono
illustrate nelle Figure 10.31 e 10.32.
10.2.4 La parabola
Definizione 10.3 La parabola è il luogo dei punti P del piano equidistanti da una retta
f fissata e da un punto F fissato.
La retta f prende il nome di direttrice della parabola e il punto F è il fuoco della parabola.
Capitolo 10 479
Come nel caso dell’ellisse e dell’iperbole, per ricavare l’equazione della parabola si sce-
glie un riferimento cartesiano opportuno. Si può procedere nei due modi di seguito
descritti.
Primo Caso Si sceglie il riferimento in modo tale che il fuoco F appartenga all’asse
x e abbia coordinate F = (0, c), con c > 0, e la direttrice abbia equazione y = c,
pertanto l’origine è un punto appartenente al luogo richiesto. Imponendo che:
d(P, F ) = d(P, f )
si ha:
p
x2 + (y c)2 = |y + c|,
y = ax2 , (10.17)
Secondo Caso Si sceglie il fuoco sull’asse y ponendo F = (c, 0), con c > 0, e la
direttrice di equazione x = c, procedendo come nel caso precedente si perviene a:
x = ay 2 , (10.18)
y= ax2 (10.19)
e:
x= ay 2 . (10.20)
Per capire l’andamento della curva al variare del parametro a si osservi la Figura 10.35
in cui sono riportati i grafici delle parabole di equazioni y = (1/2)x2 (quella esterna),
y = x2 , (quella centrale), y = 2x2 (quella interna).
-4 -2 2 4
P1 : 3x 2y 2 = 0,
P2 : 2x2 + 9y = 0,
che sono rappresentate nelle Figure 10.36 e 10.37.
Per la parabola vale la seguente proprietà, la cui dimostrazione segue da facili considera-
zioni geometriche e si può leggere, per esempio, in [8].
Teorema 10.5 La retta tangente ad una parabola in un suo punto P è la bisettrice del-
l’angolo formato dalla retta passante per P e per il fuoco e dalla retta per P perpendi-
colare alla direttrice.
482 Riduzione a Forma Canonica delle Coniche
1 2 3 4 5 6 7
-1
-2
-3
-6 -4 -2 2 4 6
-2
-4
-6
-8
-10
P
F
La situazione geometrica descritta nel teorema appena enunciato è illustrata nella Figura
10.38.
(X + x0 )2 (Y + y0 )2
+ = 1. (10.21)
a2 b2
Svolgendo i calcoli, si ottiene un’equazione del tipo:
↵x2 + y 2 + ✏x + y + = 0, (10.22)
con ↵, , ✏, , 2 R, ↵ 6= 0, 6= 0, che, rispetto alla più generale equazione di secondo
grado nelle indeterminate x e y , ha il coefficiente del termine in xy pari a zero. In questo
caso particolare, se si ha l’equazione della conica nella forma (10.22), con il metodo
484 Riduzione a Forma Canonica delle Coniche
del completamento dei quadrati (cfr. Esercizio 8.13) è facile risalire alla forma (10.21), e,
quindi, all’equazione iniziale che meglio consente di studiare la conica. Analogo discorso
vale per l’iperbole e la parabola. Nel Paragrafo 10.4 si studieranno le equazioni di secondo
grado complete in x, y , di cui, quelle appena descritte, sono un caso particolare.
(x2 + 4x + 4 4) + 2(y 2 + 2y + 1 1) 2 = 0,
(x + 2)2 (y + 1)2
+ = 1.
8 4
Pertanto con la traslazione:
⇢
X =x+2
Y = y + 1,
si ottiene:
X2 Y2
+ = 1,
8 4
che è l’equazione di un’ellisse. Si osservi che il centro O0 dell’ellisse è l’origine del
riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate ( 2, 1) rispetto al riferimento
R. Gli assi che hanno equazione Y = 0 e X = 0 nel riferimento R0 = (O0 , X, Y ) hanno
invece, rispettivamente, equazione y +1 = 0 e x+2 = 0 nel riferimento R. La situazione
geometrica è illustrata nella Figura 10.39.
(x2 + 6x + 9 9) 2(y 2 + 4y + 4 4) 5 = 0,
-4 -2 2
-1
-2
-3
e, quindi:
(x + 3)2 (y + 2)2
= 1.
6 3
Pertanto con la traslazione:
⇢
X =x+3
Y = y + 2,
si ottiene:
X2 Y2
= 1,
6 3
che è l’equazione di un’iperbole. Si osservi che il centro O0 dell’iperbole è l’origine del
riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate ( 3, 2) rispetto al riferimento
R. Gli asintoti che hanno equazioni:
1 1
Y = p X, Y = p X
2 2
nel riferimento R0 = (O0 , X, Y ), hanno invece equazioni:
1 1
y = p (x + 3) 2, y= p (x + 3) 2
2 2
nel riferimento R. La situazione geometrica è illustrata nella Figura 10.40.
486 Riduzione a Forma Canonica delle Coniche
2.5
-10 -5 5 10
-2.5
-5
-7.5
-10
!6 !4 !2 2
!2
!4
2y 2 8y + 5x 9 = 0.
2(y 2 4y + 4 4) + 5x 9 = 0,
✓ ◆
2 17
2(y 2) + 5 x = 0,
5
Pertanto con la traslazione:
8
> 17
< X=x
5
>
:
Y =y 2,
si ottiene:
2Y 2 + 5X = 0
che è l’equazione di una parabola. Il vertice della parabola O0 è l’origine del riferimen-
to traslato R0 = (O0 , X, Y ) ed ha coordinate (17/5, 2) rispetto al riferimento R. La
situazione geometrica è illustrata nella Figura 10.41.
Osservazione 10.3 È fondamentale ricordare che per applicare il metodo del completa-
mento dei quadrati e poi effetture l’opportuna traslazione si devono sempre mettere in
evidenza i coefficienti di x2 e di y 2 (perché?).
Definizione 10.4 Si dicono coniche tutte le curve piane che si possono ottenere interse-
cando un cono circolare retto con un piano.
Per cono circolare retto si intende il luogo delle rette dello spazio che si appoggiano su
di una circonferenza e passano tutte per il vertice, punto appartenente alla retta perpendi-
colare al piano della circonferenza nel suo centro, questa retta prende il nome di asse del
cono. Per lo studio approfondito dei coni nello spazio si rimanda al Paragrafo 12.2.
488 Riduzione a Forma Canonica delle Coniche
Con questo metodo non si può visualizzare la conica degenere formata da due rette paral-
lele. Per ottenerla è necessario usare metodi di Geometria Proiettiva, in questo ambito an-
che le rette parallele si incontrano in punti particolari, “all’infinito”, detti punti improprii;
per uno studio approfondito di questi argomenti si rimanda, per esempio, a [17].
Scopo di questo paragrafo è quello di introdurre un luogo geometrico di punti nel piano
che comprenda tutte le coniche, tranne ovviamente il caso degenere appena citato.
Definizione 10.5 Una conica è il luogo dei punti del piano per cui si mantiene costante
il rapporto tra la distanza di tali punti da un punto fissato e da una retta fissata.
Il punto F prende il nome di fuoco della conica, la retta f è la direttrice della conica e
la costante e è l’eccentricità della conica. Se si assume che la distanza del punto F dalla
retta f sia positiva (mai nulla), allora è chiaro dalla definizione che e > 0. La situazione
geometrica è illustrata nella Figura 10.46.
Si procede ora alla determinazione dell’equazione del luogo geometrico dei punti P che
verificano la formula (10.23). Fissato un riferimento cartesiano R = (O, x, y), si pon-
gono P = (x, y), F = (x0 , y0 ) e f : ax + by + c = 0, per cui la relazione (10.23)
diventa:
p
(x x0 )2 + (y y0 )2
= e,
|ax + by + c|
p
a2 + b 2
elevando al quadrato, si ottiene:
(ax + by + c)2
(x x0 )2 + (y y0 )2 = e2 . (10.24)
a2 + b 2
Si distinguono i due casi seguenti:
2. F 2
/ f : il fuoco non appartiene alla direttrice.
a. e = 1;
b. e > 1;
c. e < 1.
p p
(y + e2 1 x)(y e2 1 x) = 0.
Si tratta, quindi, dell’unione di due rette incidenti e, di nuovo, di una conica dege-
nere.
x = ay 2 .
Capitolo 10 493
(Si controlli per esercizio che l’equazione (10.28) ammette sempre due soluzioni
reali e distinte). Si pone l’origine del riferimento nel punto medio del segmento di
estemi A1 , A2 , ossia, si pone c e2 h = 0, da cui:
c
h= . (10.29)
e2
c2 e2 h2
x1 x2 = a2 =
1 e2
e, tenendo conto di (10.29), si perviene alla formula:
c
e= .
a
Sostituendo i risultati ottenuti in (10.26) segue:
x2 y2
= 1,
a2 b2
che è un’equazione dell’iperbole in forma canonica.
494 Riduzione a Forma Canonica delle Coniche
x2 y2
+ = 1,
a2 b2
che è un’equazione dell’ellisse in forma canonica. In entrambi i casi si ottengono
(per simmetria) due direttrici e due fuochi, per esempio la direttrice relativa al fuoco
F = (c, 0) ha equazione:
a2
x=h= .
c
Nel caso dell’ellisse, h > a, le due direttrici sono esterne alla figura, nel caso
dell’iperbole h < a, le due direttrici sono posizionate tra l’asse y e i vertici.
Teorema 10.6 Nel piano, ogni equazione di secondo grado nelle incognite x, y , scritta
rispetto ad un riferimento cartesiano R = (O, x, y), rappresenta una conica.
Definizione 10.6 Si dice che l’equazione di una conica è scritta in forma canonica se la
sua equazione di secondo grado assume una delle seguenti forme:
↵x2 + y 2 + = 0, ↵x2 + y = 0, y 2 + ✏x = 0,
Sono esempi di equazioni di coniche scritte in forma canonica (10.9), (10.14), (10.17) e
(10.18). Nella dimostrazione del Teorema 10.6 viene anche indicato il metodo da seguire
per passare da un’equazione di secondo grado in x, y alla forma canonica di una conica.
Per questo motivo e per aiutare la comprensione del procedimento usato, all’interno della
dimostrazione sono inseriti esempi numerici di riduzione a forma canonica di coniche
particolari.
Si vuole studiare il luogo dei punti P = (x, y) che verficano l’equazione (10.31), rispetto
ad un riferimento cartesiano fissato R = (O, x, y) che determina la base ortonormale
positiva B = (i, j) del piano vettoriale V2 .
C : x2 + y 2 + ax + by + c = 0
individua le matrici:
0 a 1
1 0
B 2 C
B C
✓ ◆ B C
1 0 B b C
A= , B=B
B 0 1 C.
0 1 B 2 C
C
B C
@ a b A
c
2 2
x2 y2
+ = 1
a2 b2
individua le matrici:
0 1
1
0 1 0 0 C
1 B a2
0 C B C
B a2 B C
B C B 1 C
A=B C, B=B 0 0 C.
@ 1 A B C
B b2 C
0 @ A
b2
0 0 1
Si osservi che A è in forma diagonale ed inoltre:
x2 y2
=1
a2 b2
individua le matrici:
0 1
1
0 1 0 0 C
1 B a2
0 B C
B a2 C B C
B C B 1 C
A=B C, B=B 0 0 C.
@ 1 A B C
B b2 C
0 @ A
b2
0 0 1
y 2 = 2px
individua le matrici:
0 1
✓ ◆ 0 0 p
0 0 B C
A= , B=B
@ 0 1 0 C
A.
0 1
p 0 0
det(A) = 0, det(B) 6= 0.
x2 = 2py
individua le matrici:
0 1
✓ ◆ 1 0 0
1 0 B C
A= , B=B
@ 0 0 p C
A.
0 0
0 p 0
det(A) = 0, det(B) 6= 0.
4x2 + y 2 + 4xy = 0,
ossia (2x + y)2 = 0, rappresenta la retta di equazione 2x + y = 0 contata due volte ed
individua le matrici:
0 1
✓ ◆ 4 2 0
4 2 @
A= , B= 2 1 0 A.
2 1
0 0 0
Si osservi che rank(A) = rank(B) = 1 e pertanto det(A) = 0 e det(B) = 0.
Capitolo 10 499
y2 9=0
y2 + 9 = 0
Primo caso a12 = 0, la matrice A associata al luogo dei punti P = (x, y) rappresen-
tato dall’equazione (10.31) si presenta in forma diagonale:
!
a11 0
A=
0 a22
e l’equazione (10.31) assume la forma:
Dapprima si vuole quindi studiare come cambia l’equazione (10.33) se si opera mediante
un cambiamento di base. Sia B 0 = (i0 , j0 ) una base ortonormale positiva e si indichino
con: ✓ ◆ ✓ 0 ◆
x x
=P (10.34)
y y0
le equazioni del cambiamento d base da B a B 0 , dove:
✓ ◆ ✓ 0 ◆
x x
,
y y0
sono le matrici colonna delle componenti di un generico vettore x scritte rispetto alla base
B e alla base B 0 , rispettivamente, e P è la matrice del cambiamento di base da B a B 0 .
Sostituendo le equazioni del cambiamento di base (10.34) in (10.33), l’equazione (10.33)
si trasforma in:
✓ ◆ ✓ ◆
0 0 t x0 x0
x y ( P AP ) +2 a13 a23 P + a33 = 0.
y0 y0
Si osservi perciò che il termine noto rimane invariato. Poiché A è una matrice simmetrica,
esiste, per il Teorema 7.8, una matrice ortogonale P che permette di ottenere la matrice
diagonale: ✓ ◆
t 1 0
D = P AP = ,
0 2
con 1 e 2 autovalori di A. Pertanto, scegliendo come nuova base B 0 una base ortonor-
male positiva di autovettori di A, ovvero una base ortonormale di autovettori di A tale
che la matrice del cambiamento di base P abbia determinante uguale a 1, rispetto al nuo-
vo riferimento R0 = (O, x0 , y 0 ), con assi x0 e y 0 nella direzione degli autovettori di A,
l’equazione (10.33) si trasforma in:
✓ ◆ ✓ ◆
x0 x0
x 0
y 0
D +2 a013 a023 + a33 = 0, (10.35)
y0 y0
Capitolo 10 501
con:
a013 a023 = a13 a23 P.
Le equazioni (10.34) corrispondono quindi ad una rotazione nel piano (cfr. Es. 6.24) e
nelle nuove coordinate (x0 , y 0 ) l’equazione (10.33) si trasforma in:
0 2 0 2
1 (x ) + 2 (y ) + 2a013 x0 + 2a023 y 0 + a33 = 0. (10.36)
Inoltre, da (10.34) si ottiene:
0 1 0 10 0 1
x 0 x
@ y A=@ P 0 A @ y 0 A.
1 0 0 1 1
Posto: 0 1
0
P
Q=@ 0 A,
0 0 1
l’equazione (10.32), mediante il cambiamento di base effettuato, si trasforma in:
0 0 1
x
0 0 0@ 0 A
x y 1 B y = 0,
1
con: 0 1
1 0 a013
B C
B0 = @ 0 2 a023 A = t QBQ.
a013 a023 a33
Confrontando le due equazioni (10.33) e (10.35), poiché det(D) = det(A), si ha che la
rotazione non cambia il determinante della matrice A. Inoltre:
Infine, operando mediante un completamento dei quadrati e quindi applicando una trasla-
zione opportuna del tipo: ⇢ 0
x = X + x0
y 0 = Y + y0 ,
come descritto nel Paragrafo 10.2.5, si completa la riduzione a forma canonica, trasfor-
mando l’equazione (10.35) in un’equazione in forma canonica nel nuovo riferimento
cartesiano R00 = (O0 , X, Y ).
502 Riduzione a Forma Canonica delle Coniche
Prima di continuare con la dimostrazione del teorema, vengono inseriti alcuni esempi
numerici per capire meglio il procedimento di riduzione a forma canonica di una conica
appena descritto.
0 10 1 0 1 1 10 0 1
2 0 x0 p p x
B CB C B 2 2 C
B CB C+
p B CB C
x0 y 0 @ A@ A 2 2 0 B CB@
C = 0,
A
@ 1 1 A
0 4 y0 p p y0
2 2
Capitolo 10 503
ossia:
>
> 1
>
: Y = y0 +
4
si ottiene:
X2 Y2
+ = 1.
3 3
8 16
Si tratta proprio di un’ellisse. Per calcolarne le coordinate del centro, dei vertici e le
equazioni degli assi è necessario determinare le equazioni complessive del movimento
rigido del piano dato dalla composizione della rotazione e della traslazione e che a volte
viene anche denominato rototraslazione. Si ha:
0 1 0 1 1 0 1 1 20 1 0 13
x p x0 p X 1
B C B C B 2 2 C 6
C 6B C B 2 C7
B C=PB C=B
B C 6B C B
B
C7
C7
@ A @ A @ @ A
1 1 A4 @ 1 A5
y y 0 p p Y
2 2 4
0 1 1 10 1 0 3 1
p p X p
B 2 2 C B 4 2 C
B CB C B C
=B CB@
C
A B C.
@ 1 1 A @ 1 A
p p Y p
2 2 4 2
Quindi il centro O0 dell’ellisse, rispetto al riferimento R = (O, x, y), ha coordinate:
✓ ◆
0 3 1
O = p , p ,
4 2 4 2
gli assi, che, nel riferimento R00 = (O0 , X, Y ), hanno equazioni X = 0, Y = 0, hanno
equazioni, nel riferimento iniziale R = (O, x, y), rispettivamente:
p p
2 2
x y+ = 0, x + y + = 0.
2 4
504 Riduzione a Forma Canonica delle Coniche
Con lo stesso procedimento si possono ricavare le coordinate dei vertici e dei fuochi
dell’ellisse.
0 10 1 0 1 2 10 0 1
0 0 x0 p p x
B CB C B 5 5 C
B CB C+ B CB C
x0 y 0 @ A@ A 6 2 B CB@
C
A 3 = 0,
@ 2 1 A
0 5 y0 p p y0
5 5
ossia:
Capitolo 10 505
p p
5(y 0 )2 + 2 5x0 2 5y 0 3 = 0. (10.42)
Operando con il metodo del completamento dei quadrati l’equazione (10.42) si trasforma
nel modo seguente:
✓ ◆
0 2 2p 0 1 p
5 (y ) 5y + = 2 5 x0 + 4,
5 5
✓ ◆2 ✓ ◆
0 1 p 0 2
5 y p = 2 5 x p ,
5 5
vale a dire, con la traslazione: 8
> 2
>
> X = x0 p
< 5
>
> 1
>
: Y = y0 p
5
si ottiene: p
2 2 5
Y = X.
5
Si tratta proprio di una parabola. Per calcolare le coordinate del vertice, e le equazioni
dell’asse e della direttrice è necessario determinare le equazioni della rototraslazione del
piano che ha permesso di ricavare tale equazione, e precisamente:
0 1 0 10 1 2 1 20 1 0 2 13
x p x0 p X p
B C B C B 5 5 C 6
C 6B C B 5 C 7
B C = PB C=B
B C 6B C+B C7
@ A @ A @ A 4@ A B
@
C7
2 1 1 A5
y y0 p p Y p
5 5 5
0 1 2 10 1 0 1
p p X 0
B 5 5 C B C B C
B CB C + B C.
= B C@ A @ A
@ 2 1 A
p p Y 1
5 5
Di conseguenza il vertice della parabola O0 ha coordinate (0, 1) rispetto al riferimento
R = (O, x, y) e l’asse, che, nel riferimento R00 = (O0 , X, Y ), ha equazione Y = 0, ha
equazione:
2x y+1=0
506 Riduzione a Forma Canonica delle Coniche
nel riferimento iniziale R = (O, x, y). Con lo stesso procedimento si possono ricavare le
coordinate del fuoco e l’equazione della direttrice.
det(B 0 ) = 1 2 a33
0 2
1 (a23 )
0 2
2 (a13 ) . (10.43)
Allo scopo di poter scrivere l’equazione della conica in forma canonica si deve effettuare
la traslazione:
⇢
x0 = X + x0
(10.44)
y 0 = Y + y0
in modo da annullare i termini di primo grado. Per calcolare il valore di x0 , y0 si sostitui-
scono le equazioni della traslazione (10.44) in (10.36), si ottiene:
1X
2
+ 2Y
2
+ 2(x0 1 + a013 )X + 2(y0 2 + a023 )Y + =0 (10.45)
e il temine noto è dato da:
= 2
1 x0 + 2
2 y0 + 2a013 x0 + 2a023 y0 + a33 . (10.46)
1. 1 6= 0, 2 6= 0;
2. 1 = 0, 2 6= 0;
3. 1 6= 0, 2 = 0.
a013 a023
x0 = , y0 = , (10.47)
1 2
2 2
1X + 2Y + = 0,
det(B 0 )
= . (10.48)
1 2
Si perviene quindi alla seguente classificazione, tenendo conto che, per la relazione
(10.37), det(B) = det(B 0 ) :
2Y
2
+ 2(y0 2 + a023 )Y + 2a013 X + = 0, (10.49)
= 2
2 y0 + 2a013 x0 + 2a023 y0 + a33 .
a023
y0 = ;
2
508 Riduzione a Forma Canonica delle Coniche
operando quindi con una traslazione in cui x0 può assumere qualsiasi valore,
da (10.49) si ha:
2Y
2
+ = 0. (10.50)
a023
y0 =
2
2Y
2
+ 2a013 X + = 0,
ossia:
✓ ◆
2Y
2
+ 2a013 X+ = 0.
2a013
Dall’equazione = 0 si ottiene anche il valore di x0 , pertanto è univocamente
definita la traslazione cercata. La conica è una parabola. Si osservi che:
0 2
det(B) = 2 (a13 ) 6= 0.
1X
2
+ 2(x0 1 + a013 )X + 2a023 Y + = 0, (10.51)
= 2
1 x0 + 2a013 x0 + 2a023 y0 + a33 .
1X
2
+ = 0. (10.52)
Si ottiene, inoltre, da (10.43) che det(B 0 ) = 0. Se 6= 0, allora il rango
di B 0 è 2 (si ricordi che 1 = 0) e l’equazione (10.52) rappresenta due rette
parallele (con equazione a coefficienti reali o immaginarie). Se anche = 0,
allora il rango di B 0 è 1 e si ottengono due rette coincidenti.
b. a023 6= 0: segue, di nuovo, che:
a013
x0 =
1
1X
2
+ 2a023 Y + = 0,
ossia:
✓ ◆
1X
2
+ 2a023 Y + = 0.
2a023
Dall’equazione = 0 si ottiene anche il valore di y0 , pertanto è univocamen-
te definita la traslazione cercata. La conica è una parabola. Si osservi che
0 2
det(B) = 1 (a23 ) 6= 0.
A partire dall’equazione (10.31) si sono cosı̀ ottenute tutte le coniche degeneri e non
degeneri scritte in forma canonica secondo la Definizione 10.6. Si osservi che tutte le co-
niche degeneri sono caratterizzate da det(B) = 0 e classificate dal rango di B ; mentre se
det(B) 6= 0, allora le coniche non degeneri sono caratterizzate da det(A); e precisamente
det(A) = 0 corrisponde alla parabola, det(A) > 0 all’ellisse, det(A) < 0 all’iperbole.
Osservazione 10.4 Come già affermato all’inizio del Paragrafo 10.3, si dicono coniche
degeneri quelle coniche costituite da: due rette immaginarie coniugate, due rette reali
e distinte, due rette parallele, due rette coincidenti. La caratterizzazione delle coniche
degeneri attraverso la condizione det(B) = 0 si ottiene facilmente dopo aver ridotto le
coniche in forma canonica e ricordando che det(B) = det(B 0 ).
510 Riduzione a Forma Canonica delle Coniche
Riassumendo i risultati ottenuti nella dimostrazione precedente, si può procedere nel mo-
do seguente alla classificazione delle coniche attraverso il rango e il determinante delle
matrici A e B ad esse associate, tenuto conto che rank(A), det(A) sono invarianti per
rotazioni e rank(B), det(B) sono invarianti per rototraslazioni nel piano. Per completare
la classificazione è necessario anche considerare la traccia della matrice A, come si evin-
ce dalla tabella che segue. Si ricordi che tr(A) è un’invariante per le rotazioni del piano
(cfr. (2.13)) e che la matrice A non cambia quando si opera mediante una traslazione.
8 8
>
> >
> det(A) > 0, tr(A) det(B) < 0 : ellisse,
>
> >
>
>
> < ⇢
>
> ellisse
< rank(A) = 2 : det(A) > 0, tr(A) det(B) > 0 :
• rank(B) = 3 >
> immaginaria,
> >
>
>
> :
>
> det(A) < 0 : iperbole;
>
>
>
: rank(A) = 1 (det(A) = 0) : parabola.
8 8 ⇢
>
> >
> due rette immaginarie
>
> < det(A) > 0 :
>
> incidenti in un punto reale,
> rank(A) = 2 :
>
< >
>
: det(A) < 0 : due rette incidenti;
• rank(B) = 2
>
>
>
>
>
> ⇢
>
> due rette parallele
: rank(A) = 1(det(A) = 0) :
(reali o immaginarie).
le quali, con l’origine O, si possono assumere come assi del nuovo riferimento cartesiano
R0 = (O, X, Y ) o equivalentemente R0 = (O, i0 , j0 ), dove:
1 1
i0 = p (i + j), j0 = p ( i + j).
2 2
a = d(A1 , O) = 8
b = d(B1 , O) = 2,
X2 Y2
+ = 1. (10.53)
64 4
Sia: 0 1 1 1
p p
B 2 2 C
B C
P =B C
@ 1 1 A
p p
2 2
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base
ortonormale positiva B = (i, j) alla base ortonormale positiva B 0 = (i0 , j0 ), si ha:
✓ ◆ ✓ ◆
x X
=P
y Y
e: ✓ ◆ ✓ ◆
X t x
= P ,
Y y
(si ricordi che tP = P 1
). Sostituendo in (10.53) si ottiene:
r 2 1 s 1 2
i0 = = p i + p j, j0 = = p i + p j.
krk 5 5 ksk 5 5
p
In tale riferimento, poiché d(O, F ) = 5, l’equazione della parabola è:
p
Y 2 = 4 5X. (10.54)
Indicata con:
0 2 1 1
p p
B 5 5 C
B C
P =B C
@ 1 2 A
p p
5 5
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base
ortonormale positiva B = (i, j) alla base ortonormale positiva B 0 = (i0 , j0 ), si ha:
✓ ◆ ✓ ◆
x X
=P
y Y
e:
✓ ◆ ✓ ◆
X t x
= P ,
Y y
(si ricordi che tP = P 1
). Sostituendo in (10.54) si ottiene:
✓ ◆2
2 2 2x + y + 5
(x 2) + (y 1) = p ,
5
vale a dire:
da cui segue:
2 2 y+2
2x 5xy 3y + 7y 2 = 2 [x (3y 1)] x = 0,
2
che è la decomposizione cercata.
C3
C1
C2
Nell’esercizio che segue si vuole determinare la potenza di un punto rispetto a tre circon-
ferenze assegnate. Dall’ultima osservazione segue che tale punto deve essere necessaria-
mente l’intersezione degli assi radicali delle coppie di circonferenze individuate dalle tre
circonferenze date. Questo punto, se esiste, prende il nome di centro radicale delle tre
circonferenze. Si lascia al Lettore per esercizio la discussione dell’esistenza del centro
radicale di tre circonferenze in base alla loro posizione reciproca.
516 Riduzione a Forma Canonica delle Coniche
r1 : 5x + 2y 28 = 0.
r2 : 3x + 11y 59 = 0.
r3 : 8x + 13y 87 = 0,
Si osservi che i punti dell’ellisse hanno ascissa uguale a quella dei punti della cir-
conferenza di centro l’origine e raggio a e ordinata uguale a quella dei punti della
518 Riduzione a Forma Canonica delle Coniche
Per maggiori dettagli sulla rappresentazione parametrica delle coniche e delle curve nel
piano in generale si rimanda, per esempio, a [11].
x2 + y 2 = e2 (x k)2 . (10.57)
Capitolo 10 519
e:
⇢(1 + e cos ✓) = ek. (10.59)
Se si considera, però, un generico punto P = (⇢0 , ✓0 ) appartenente alla conica di equa-
zione (10.58), quindi:
ek
⇢0 = ,
1 e cos ✓0
P0 può essere anche rappresentato, in modo equivalente, come ( ⇢0 , ✓0 + ⇡). È imme-
diato verificare che questi valori verificano (10.59), e viceversa, pertanto (10.58) e (10.59)
rappresentano lo stesso luogo di punti.
C : x2 + y 2 2↵x 2 y+ =0
Definizione 10.8 Sia C una conica non degenere, la retta tangente a C in un punto P0 ad
essa appartenente è la retta che interseca la conica C solo nel punto P0 .
Teorema 10.8 Sia C una conica non degenere del piano, che, rispetto ad un riferimento
cartesiano R = (O, x.y), ha equazione:
0 1
x
C: x y 1 B @ y A = 0, (10.60)
1
dove B = (aij ) 2 R3,3 indica la matrice simmetrica associata a C per cui det(B) 6= 0.
La retta s tangente alla conica C in un suo punto P0 = (x0 , y0 ) ha equazione:
0 1
x
s : x0 y0 1 B @ y A = 0. (10.61)
1
Capitolo 10 521
(a11 l2 + 2a12 lm + a22 m2 )t2 + 2(a11 x0 l + a12 x0 m + a12 y0 l + a22 y0 m + a13 l + a23 m)t = 0,
Osservazione 10.6 L’equazione della retta s tangente, nel punto P0 = (x0 , y0 ) alla
conica C di equazione (10.62) è (10.61), ossia:
s : a11 xx0 + a12 (x0 y + xy0 ) + a22 yy0 + a13 (x + x0 ) + a23 (y + y0 ) + a33 = 0. (10.65)
p p
La retta s tangente a C nel suo punto P0 = ( 2, 2) è:
0 p 10 1
3 1 2 x
p p B CB C
s: 2 2 1 B @ 1 3 0 C B C
A @ y A = 0,
p
2 0 0 1
ossia: p p
s : 3 2x + 4 2y + 2 = 0.
L’equazione di s si può anche ottenere dall’equazione (10.66) di C applicando la regola
degli sdoppiamenti, vale a dire:
p p p p p p
s : 3 2 x + ( 2 y + x( 2)) 3( 2)y + 2(x + 2) = 0.
Gli esempi che seguono sono volti a determinare i punti di una conica degenere in cui il
procedimento appena descritto può o non può essere applicato.
Esempio 10.15 Si consideri la conica degenere C : (y 3)(y + 3) = 0 studiata nell’E-
sempio 10.10 che si può scrivere, in forma matriciale, come:
0 10 1
0 0 0 x
C: x y 1 @ 0 1 0 A @ y A = 0.
0 0 9 1
La retta s tangente a C nel suo punto P0 = (1, 3) è:
0 10 1
0 0 0 x
s: 1 3 1 @ 0 1 0 A @ y A = 0,
0 0 9 1
vale a dire s : y 3 = 0, cioè la retta che compone C a cui appartiene il punto P0 .
Esempio 10.16 Si consideri al conica C : (2x + y)2 = 0 studiata nell’Esempio 10.9 che
si può scrivere, in forma matriciale, come:
0 10 1
4 2 0 x
C : x y 1 @ 2 1 0 A@ y A = 0.
0 0 0 1
Se si vuole calcolare la retta s tangente a C nel suo punto P0 = (1, 2) ponendo:
0 10 1
4 2 0 x
s: 1 2 1 @ 2 1 0 A @ y A = 0,
0 0 0 1
si ottiene 0 = 0, ciò significa che tutti i punti della conica C sono singolari.
Capitolo 10 523
Infatti, gli esempi precedenti conducono alla definizione di punto singolare di una curva
algebrica nel piano, ossia di una curva la cui equazione si ottiene uguagliando a zero
un polinomio di grado qualsiasi in x, y, definizione che può essere enunciata nel modo
seguente.
Definizione 10.9 Sia C una curva nel piano di equazione f (x, y) = 0, dove f (x, y) indi-
ca un polinomio di grado qualsiasi nelle variabili x, y, scritta rispetto ad un riferimento
cartesiano R = (O, x, y). Un punto P0 appartenente a C si dice singolare se:
✓ ◆
@f @f
(P0 ), (P0 ) = (0, 0),
@x @y
dove @f /@x indica la derivata parziale della funzione f rispetto ad x e @f /@y indica
la derivata parziale della funzione f rispetto a y. In caso contrario un punto P0 si dice
regolare o liscio o non singolare.
Per lo studio approfondito delle curve algebriche si rimanda a testi di livello superiore, per
esempio a [17]. Si dimostra che il Teorema 10.8 si applica anche alle coniche degeneri
solo nei punti non singolari. È infatti un esercizio verificare che le coniche non degeneri
sono prive di punti singolari. Invece se la conica è degenere ed è l’unione di due rette
parallele distinte, allora ogni suo punto è non singolare, se essa è l’unione di due rette
incidenti solo il loro punto di intersezione è singolare, infine se la conica è data da una
retta contata due volte, allora tutti i suoi punti sono singolari.
Il concetto di retta tangente ad una curva in suo punto, di cui la retta tangente ad una
conica è un caso particolare, anche se è intuitivo esula dagli argomenti inseriti in questo
testo, in quanto è necessario introdurre opportune ipotesi, di tipo analitico, sulle equazioni
che definiscono una curva; per approfondimenti si vedano ad esempio [6] o [11].
524 Riduzione a Forma Canonica delle Coniche
Capitolo 11
525
526 Geometria Analitica nello Spazio
z
P
O y
Il riferimento cartesiano determina, in modo naturale, tre piani, detti piani coordinati e
precisamente:
Infatti, analogamente al caso del piano (cfr. Par. 9.1.1), la distanza d(A, B) coincide con
!
la norma del vettore AB le cui componenti, rispetto alla base ortonormale positiva B,
sono:
!
AB = (xB xA )i + (yB yA )j + (zB zA )k.
1 ! !
AABC = kAB ^ AC k.
2
528 Geometria Analitica nello Spazio
ax + by + cz + d = 0,
P0
!
alla base B = (i, j, k) individuata dal riferimento R. L’equazione vettoriale P0 P · n = 0,
in componenti, equivale a:
ax + by + cz + d = 0, (11.2)
con d = ax0 by0 cz0 , detta equazione cartesiana del piano ⇡ in cui (a, b, c) sono le
componenti (non contemporaneamente tutte uguali a zero) di un vettore ortogonale a ⇡.
Il teorema che segue dimostra che tutte e solo le equazioni lineari in x, y, z determinano
un piano nello spazio. Questo risultato è analogo a quello ottenuto nel Teorema 9.1 nel
caso delle rette nel piano e si può agevolmente estendere a dimensioni superiori.
Teorema 11.1 Ogni equazione lineare in x, y, z del tipo (11.2), con (a, b, c) 6= 0, rap-
presenta, a meno di un fattore moltiplicativo non nullo, l’equazione cartesiana di un piano
nello spazio S3 .
⇢(ax + by + cz + d) = 0
P0 P
v
⇡ : P = P0 + tu + sv, t, s 2 R. (11.3)
!
Quindi un punto P = (x, y, z) appartiene al piano ⇡ se e solo se il vettore P0 P è
complanare ad u e a v. La (11.3) è detta equazione vettoriale parametrica di ⇡ men-
tre t, s 2 R sono i parametri al variare dei quali il punto P descrive il piano ⇡ . La
situazione geometrica è illustrata nella Figura 11.3.
che sono le equazioni parametriche del piano ⇡ . Si osservi che il piano ⇡ ammette infinite
equazioni parametriche diverse, è sufficiente scegliere, per la loro determinazione, un altro
punto e un’altra coppia di vettori appartenenti al piano ⇡ .
Dal Teorema 3.22 risulta che tre vettori dello spazio vettoriale V3 sono complanari se e
solo se il loro prodotto misto è uguale a zero, pertanto è condizione equivalente alla (11.3)
l’equazione:
!
P0 P · u ^ v = 0, (11.5)
che, a differenza di (11.3), non dipende da alcun parametro e, in componenti, equivale a:
532 Geometria Analitica nello Spazio
x x0 y y0 z z0
l m n = 0, (11.6)
l0 m0 n0
che rappresenta l’equazione cartesiana del piano passante per il punto P0 = (x0 , y0 , z0 ) e
parallelo ai vettori u = (l, m, n) e v = (l0 , m0 , n0 ). Sviluppando il determinante appena
ottenuto secondo la prima riga si ha:
m n l n l m
(x x0 ) (y y0 ) + (z z0 ) = 0. (11.7)
m0 n0 l 0 n0 l 0 m0
Si noti che l’equazione (11.7) coincide con l’equazione (11.2) in cui le componenti del
vettore n ortogonale al piano sono proporzionali alle componenti del vettore u ^ v.
u = 2i j + k, v =i+j
ha equazioni parametriche:
8
< x = 1 + 2t + s
y = 3 t + s, (11.8)
:
z = 1 + t, t, s 2 R.
Si osservi che, qualunque sia il metodo seguito, si perviene ad una sola equazione carte-
siana di ⇡ , a meno di un coefficiente di proporzionalità non nullo.
Esercizio 11.1 Tre punti non allineati individuano un solo piano. Perché nell’equazione
ax + by + cz + d = 0 ci sono quattro parametri a, b, c, d?
Esempio 11.4 Il piano passante per i tre punti:
A = ( 1, 2, 1), B = (2, 3, 0), C = (1, 0, 0)
ha equazioni parametriche:
8
< x = 1 + t + 2s
y = 2 t 2s
:
z = 1 t s, t, s 2 R,
ed equazione cartesiana:
3x + y + 4z 3 = 0.
Esercizio 11.2 Determinare l’equazione del piano parallelo all’asse x e passante per i
punti P0 = (1, 0, 2), P1 = ( 2, 1, 1).
Soluzione Il piano richiesto è formato dai punti P dello spazio per cui:
! !
P 0 P · i ^ P0 P 1 = 0
e quindi ha equazione cartesiana:
x 1 y z 2
1 0 0 = 0,
3 1 1
cioè:
y+z 2 = 0.
r : P = P0 + tr, t 2 R. (11.10)
La (11.10) è detta equazione vettoriale parametrica di r, t 2 R è il parametro al variare
del quale in R il punto P descrive la retta r. Segmenti della retta r si possono ottenere
per valori di t limitati ad intervalli di R. Se t assume solo valori positivi, compreso il
numero zero, si ha una semiretta di origine P0 , l’altra semiretta si ottiene per valori di t
negativi, zero compreso, se si vuole includere anche l’origine P0 .
Siano P0 = (x0 , y0 , z0 ) e P = (x, y, z) due punti nello spazio le cui coordinate sono
assegnate nel riferimento cartesiano R = (O, i, j, k) e r = (l, m, n) un vettore le cui
componenti sono date rispetto alla base B = (i, j, k) che R determina. Si verifica che
l’equazione (11.10) equivale a:
536 Geometria Analitica nello Spazio
8
< x = x0 + lt
y = y0 + mt (11.11)
:
z = z0 + nt, t 2 R,
3. i coseni direttori della retta r, ossia i coseni degli angoli che la retta r forma con
gli assi coordinati coincidono (a meno del segno) con i coseni degi angoli che un
generico vettore r parallelo alla retta r forma rispettivamente con i versori i, j, k
della base ortonormale che individua il sistema di riferimento usato, ossia:
b =p l
cos(ri) ,
l2
+ m2 + n2
b =p m
cos(rj) ,
l 2 + m2 + n2
c =p n
cos(rk) .
l 2 + m2 + n2
b 2 +cos(rj)
Si osservi che cos(ri) b 2 +cos(rk)
c 2 = 1, maggiori dettagli sulla definizione
e il calcolo degli angoli individuati da due rette si vedranno nel Paragrafo 11.6.4.
b = p1 ,
cos(ri) b =
cos(rj)
1
p , c = p2 .
cos(rk)
6 6 6
Se nessuno dei parametri direttori (l, m, n) di una retta r è uguale a zero, dalle equa-
zioni parametriche (11.11), eliminando il parametro t allo scopo di trovare le equazioni
cartesiane di r, si ottiene:
x x0 y y0 z z0
= = .
l m n
Quindi una rappresentazione cartesiana di una retta r passante per il punto P0 = (x0 , y0 , z0 )
e parallela al vettore r = (l, m, n), con l 6= 0, m 6= 0, n 6= 0, è:
8
> x x0 y y0
< =
l m
>
: x x 0 z z0
= .
l n
Si noti che il sistema lineare cosı̀ ottenuto rappresenta geometricamente l’intersezione di
due piani nello spazio, trattandosi delle soluzioni comuni a due equazioni lineari.
Osservazione 11.4 I punti P = (x, y, z) di una retta r nello spazio corrispondono al-
le soluzioni di un sistema lineare compatibile di due equazioni nelle tre incognite x, y,
z . Infatti, è ben noto dal primo capitolo che un sistema lineare di due equazioni in tre
incognite, compatibile, ammette infinite soluzioni che dipendono da una variabile e che
quindi concidono con le equazioni parametriche della retta r. Pertanto una retta nello spa-
zio si può rappresentare geometricamente come intersezione di due piani o meglio come
l’intersezione di infinite coppie di piani. La situazione geometrica è illustrata nella Figura
11.4, ma si completerà lo studio della posizione reciproca di due piani nello spazio nel
Paragrafo 11.3.3.
Esempio 11.5 La retta r dell’Esercizio 11.4 può essere rappresentata non solo come
l’intersezione dei due piani: ⇢
x+y 3=0
2x z + 1 = 0,
ma, per esempio, anche come intersezione dei due piani:
⇢
x+y 3=0
2y + z 7 = 0.
rispetto alla base ortonormale positiva B = (i, j, k) che individua il riferimento cartesiano
scelto. Dunque r ha equazioni parametriche:
8
>
> x = xA + (xB xA )t
<
y = yA + (yB yA )t
>
>
: z = y + (z z )t, t 2 R.
A B A
Capitolo 11 539
Esempio 11.6 La retta r passante per i punti A = (1, 1, 0), B = (2, 3, 1) è parallela al
!
vettore AB = (1, 4, 1) e quindi ha equazioni parametriche:
8
< x=1+t
y = 1 + 4t
:
z = t, t 2 R,
ed equazioni cartesiane: ⇢
4x y 5 = 0
x z 1 = 0.
Il teorema che segue spiega come determinare un vettore parallelo ad una retta data
dall’intersezione di due piani.
Teorema 11.2 Sia r la retta rappresentata come intersezione di due piani nel modo
seguente:
⇢
ax + by + cz + d = 0
r:
a0 x + b0 y + c0 z + d0 = 0.
Soluzione Per studiare la posizione reciproca dei due piani ⇡ e ⇡ 0 è sufficiente studiare
le soluzioni del sistema lineare formato dalle loro equazioni, ossia calcolare il rango della
sua matrice completa: ✓ ◆
2 h 2 3
(A | B) =
1 2 k 1
e confrontarlo con il rango della sua matrice A dei coefficienti. Riducendo per righe la
matrice (A | B) con l’operazione sulle righe R2 ! 2R2 + R1 si ottiene:
✓ ◆
2 h 2 3
0 4+h 2 2k 1
e quindi rank(A | B) = 2, per ogni h e k . Si hanno allora le due seguenti possibilitá:
1. se h 6= 4 oppure k 6= 1 i due piani si intersecano lungo una retta;
2. se h = 4 e k = 1 i due piani sono paralleli.
⇡ : ax + by + cz + d = 0,
il problema è ricondotto allo studio del sistema lineare:
8
< a1 x + b1 y + c1 z + d1 = 0
a2 x + b2 y + c2 z + d2 = 0 (11.13)
:
ax + by + cz + d = 0,
cioè allo studio dell’intersezione di tre piani già esaminata nel paragrafo precedente, con
la condizione aggiuntiva che la matrice dei coefficienti abbia rango maggiore o uguale a
2 (perché?). Dal Teorema di Rouché–Capelli (cfr. Teor. 1.2) si distinguono le seguenti
possibilità:
2. il sistema lineare (11.13) ammette una sola soluzione, cioè la retta ed il piano si
intersecano in un punto;
546 Geometria Analitica nello Spazio
Esercizio 11.7 Studiare la posizione reciproca della retta r e del piano ⇡ di equazioni:
⇢
x hz 2 = 0
r:
3x + y = 0,
⇡ : kx y + hz 1 = 0,
al variare di h, k 2 R.
Capitolo 11 547
al variare di h e k in R. Dal calcolo del rango della matrice dei coefficienti e della matrice
completa al variare di h e k si ha:
1. h 6= 0 e k 6= 4 : r e ⇡ si intersecano in un punto;
2. h = 0 e k 6= 5/2 : r è parallela a ⇡ ;
3. h = 0 e k = 5/2 : r giace su ⇡ ;
4. k = 4, 8h 2 R : r è parallela a ⇡ .
1. coincidenti,
2. parallele,
3. incidenti,
Analogamente al caso della posizione reciproca tra una retta e un piano, studiato nel pa-
ragrafo precedente, per individuare la posizione di due rette nello spazio si può procedere
in modo algebrico, per esempio rappresentando le due rette come intersezione di due
548 Geometria Analitica nello Spazio
piani ciascuna, o in modo geometrico, per esempio considerando le due rette in forma
parametrica.
Si ottiene che il rango della matrice completa è 4 (ossia, trattandosi di una matrice quadra-
ta di ordine 4, il suo determinante è diverso da 0) quindi il sistema lineare è incompatibile.
Le due rette r e r0 sono sghembe. Le due rette non sono parallele perché il rango della
matrice dei coefficienti è 3.
quello delle rette parallele ma ad intersezione vuota, semplicemente controllando se, per
esempio il punto P0 appartenga o meno alla retta r0 . Ma, in generale, tenendo conto che
!
che r e r0 sono complanari se e solo se i vettori P0 P1 , r, s sono complanari, ossia:
x1 x0 y1 y0 z1 z0
!
P0 P1 · r ^ r 0 = l m n = 0,
l0 m0 n0
Infine, nel caso in cui le rette r e r0 siano una in rappresentazione cartesiana e l’altra in
rappresentazione parametrica, cioè ad esempio se r0 = ⇡1 \ ⇡2 , si può osservare che se
si indicano con A e B i punti di intersezione di r con ⇡1 e con ⇡2 , rispettivamente, se
A 6= B allora le due rette sono sghembe. Se invece A = B allora r \ r0 = A.
Nel caso di un fascio proprio di piani, si dimostra che dati due piani ⇡ e ⇡ 0 non paralleli:
⇡ : ax + by + cz + d = 0, ⇡ 0 : a0 x + b0 y + c0 z + d0 = 0,
il fascio di piani F generato da ⇡ e ⇡ 0 , cioè formato da tutti e soli i piani passanti per la
retta r = ⇡\⇡ 0 , è l’insieme di tutti i piani aventi per equazione cartesiana la combinazione
lineare:
Osservazione 11.5 Si osservi che, dati un fascio di piani F, un piano ⇡ non appartenente
ad F e una retta r che non sia l’asse del fascio, esistono un piano di F parallelo ad r
e un piano di F ortogonale a ⇡. Mentre, salvo casi particolari, non esiste un piano di F
ortogonale a r e un piano di F parallelo a ⇡.
Esercizio 11.8 Dato il punto P0 = (2, 1, 1), determinare il piano ⇡, passante per P0 ,
in ciascuno dei seguenti casi:
Capitolo 11 551
⇡ 00 : 2x + y 3z + 1 = 0
2x y + 3z + k = 0, k 2 R.
x 3 y+1 z
2 1 3 = 0.
1 2 1
552 Geometria Analitica nello Spazio
e il punto A = (2, 1, 0), determinare le equazioni della retta s passante per A, perpendi-
colare ed incidente la retta r.
Soluzione La retta s può essere determinata come intersezione dei due piani ⇡1 e ⇡2 ,
dove ⇡1 è il piano passante per r e per il punto A e ⇡2 è il piano passante per A e
ortogonale a r; si ha:
⇢
x y+2=0
r:
3x 2z 1 = 0.
Allo scopo di scrivere mediante le componenti dei vettori e le coordinate dei punti la
formula (11.17), si considerino, rispetto al riferimento cartesiano R = (O, i, j, k), il
punto P0 = (x0 , y0 , z0 ) ed il piano ⇡ : ax + b + cz + d = 0. Dall’espressione del prodotto
scalare in componenti (cfr. Teor. 3.13) si ottiene:
che è una formula analoga a quella già ricavata per il calcolo della distanza di un punto
da una retta nel piano (cfr. Par. 9.7.5).
determinare i punti di r aventi distanza pari a 4 (in valore assoluto) dal piano:
⇡ : 2x y 2z + 1 = 0.
Soluzione I punti della retta r hanno coordinate (t, 1, t + 1), t 2 R, per cui, dalla
formula (11.18) segue:
|2t + 1 2( t + 1) + 1|
p = 4.
4+1+4
I due valori di t che cosı̀ si trovano permettono di individuare i due punti P1 e P2 della
retta r che risolvono il problema. La situazione geometrica è illustrata nella Figura 11.7.
554 Geometria Analitica nello Spazio
P0
Π
H
P1
P2
e quindi:
!
kP0 P1 ^ rk
d(P0 , r) = d(P0 , H) = , (11.19)
krk
la situazione geometrica è illustrata nella Figura 11.8. Si osservi che la distanza di un
punto da una retta nello spazio è sempre un numero positivo o nullo.
P0
P1 q H
r
perpendicolare comune a due rette sghembe. La distanza tra i due punti di intersezione
della perpendicolare comune con le due rette sghembe è la minima distanza tra le rette
sghembe d(r, r0 ) nel senso che ogni segmento che unisce due punti qualsiasi, uno su r e
uno su r0 , ha lunghezza maggiore di tale distanza. In questo paragrafo si indicheranno
alcuni metodi per determinare sia la perpendicolare comune a due rette sghembe sia la
loro minima distanza.
r' r'
R'
P!t'"
r#r'
r
R r
P!t"
Π
Si perviene allo stesso risultato considerando la retta p come intersezione dei piani
⇡1 e ⇡2 cosı̀ determinati: ⇡1 è il piano parallelo al vettore r ^ r0 = i j e apparte-
nente al fascio di piani di asse la retta r, si ottiene ⇡1 : x + y + z 2 = 0. In modo
analogo, ⇡2 è il piano parallelo a r ^ r0 e appartenente al fascio di piani di asse la
retta r0 , si ha ⇡2 : x + y + 2z 3 = 0.
[ |n · r|
sin (r, ⇡) = sin ✓ = .
knk krk
\ \ n1 · n2
cos (⇡ 1 , ⇡2 ) = ± cos (n1 , n2 ) = ± .
kn1 k kn2 k
Capitolo 11 561
n
j
q
r'
r1 r2
Π1
Π2
r2
n1
"
n2
Θ
r1
11.7.1 Sfera
Fissati un punto C e un numero reale positivo R, la sfera o superficie sferica ⌃ di centro
C e raggio R è il luogo geometrico dei punti P dello spazio tali che:
d(P, C) = R.
Se R = 0 la sfera si riduce ad un solo punto che coincide con C .
x2 + y 2 + z 2 2↵x 2 y 2 z + = 0, (11.21)
con = ↵2 + 2 + 2 R2 . Si osservi che l’equazione (11.21) è di secondo grado in x,
y, z , i coefficienti dei termini xy , xz , yz sono tutti nulli e i coefficienti dei termini x2 ,
y 2 , z 2 sono uguali. Viceversa, un’equazione dello stesso tipo, vale a dire:
x2 + y 2 + z 2 + ax + by + cz + d = 0, a, b, c, d 2 R, (11.22)
non sempre rappresenta una sfera nello spazio. Infatti, per confronto con (11.21), da
(11.22) il centro C ha coordinate:
✓ ◆
a b c
C= , , (11.23)
2 2 2
e il raggio è dato da: r
a2 + b2 + c2 4d
R= , (11.24)
4
pertanto l’equazione (11.22) rappresenta una sfera se e solo se a2 + b2 + c2 4d 0.
564 Geometria Analitica nello Spazio
⌃1 : x2 + y 2 + z 2 + 2x y + z = 0,
⌃2 : x2 + y 2 + z 2 + 2x y + z + 4 = 0.
Da notare che il raggio R1 coincide con la distanza d(O, C), in quanto la sfera passa per
l’origine O, essendo la sua equazione priva di termine noto. Il centro di ⌃2 è C , ma ⌃2
non è una sfera poiché, da (11.24) si ha che il radicando vale 3/2 4 < 0. In base alla
precedente osservazione ⌃2 è infatti una sfera immaginaria.
Esercizio 11.13 Si studino le posizioni delle sfere nello spazio, rappresentate dall’equa-
zione (11.22), al variare di a, b, c, d in R.
P0
p
Si osservi che la circonferenza intersezione di un piano ⇡ secante una sfera ⌃ può essere
rappresentata dal sistema delle equazioni di ⇡ e di ⌃, come si vedrà con maggiori dettagli
nel Paragrafo 11.8.
Esercizio 11.14 Determinare l’equazione della sfera passante per il punto A = (3, 1, 1)
e tangente al piano ⇡ : x + y z 1 = 0 nel punto B = (1, 1, 1).
Soluzione Il centro C della sfera richiesta appartiene alla retta r passante per B e
ortogonale a ⇡ , di equazioni parametriche:
8
< x=1+t
r: y =1+t
:
z = 1 t, t 2 R,
pertanto il generico punto C della retta r ha coordinate C = (1 + t, 1 + t, 1 t). Im-
ponendo la condizione d(C, A) = d(C, B) si ha t = 1 e quindi si determina il centro
C = (2, 2, 0) della sfera che ha, di conseguenza, equazione cartesiana:
(x 2)2 + (y 2)2 + z 2 = 3.
Capitolo 11 567
⌃ : x2 + y 2 + z 2 + ax + by + cz + d = 0
(x0 + lt)2 + (y0 + mt)2 + (z0 + nt)2 + a(x0 + lt) + b(y0 + mt) + c(z0 + nt) + d = 0,
1. due soluzioni complesse e coniugate, quindi la retta r è esterna alla sfera ⌃ (cfr.
Fig. 11.16);
2. due soluzioni reali concidenti, cioè la retta r è tangente alla sfera ⌃ (r interseca ⌃
in due punti coincidenti, cfr. Fig. 11.17);
568 Geometria Analitica nello Spazio
3. due soluzioni reali distinte, cioè la retta r è secante la sfera ⌃ (r interseca ⌃ in due
punti distinti, cfr. Fig. 11.18).
Osservazione 11.7 Geometricamente i casi di intersezione di una retta r con una sfera
⌃ appena descritti possono essere interpretati in termini della distanza d(C, r) del centro
C della sfera dalla retta r nel modo seguente:
Si osservi inoltre che in ogni punto P0 di una sfera ⌃ si hanno infinite rette tangenti a ⌃,
tutte e sole quelle appartenenti al fascio di rette di centro P0 che giace sul piano tangente
a ⌃ nel punto P0 .
C = {P 2 ⇡ | d(P, C) = r}.
Una circonferenza C è quindi individuata dal suo centro, dal suo raggio e dal piano su cui
essa giace.
R
r
Q
p
2. Le rette cercate
p giacciono sul piano ⇡ 0 passante per A ortogonale a ⇡ e tale che
d(C, ⇡ 0 ) = 2. Il piano ⇡ 0 appartiene al fascio proprio F di piani di asse la retta
passante per A ortogonale a ⇡ di equazioni cartesiane:
⇢
x y 2=0
y z 2 = 0.
Il fascio F ha pertanto equazione:
F : (x y 2) + µ(y z
2) = 0, , µ 2 R, ( , µ) 6= (0, 0).
p
Imponendo la condizione d(C, ⇡ 0 ) = 2 si ottiene:
µ = 0,
Capitolo 11 573
x y 2 = 0, y z 2 = 0.
v2 = v1 ^ (2i j + k) = 2i + 2j 2k.
che in componenti, rispetto alla base ortonormale positiva B = (i, j, k), diventa:
8
> 2
>
> x = 1 + p sin t
>
> 3
>
>
>
>
< 2 2
y = 2 + p cos t + p sin t
>
> 3 3
>
>
>
>
>
> 2 2
>
: z = p cos t p sin t, 0 t < 2⇡.
2 3
574 Geometria Analitica nello Spazio
1. l’insieme vuoto;
La posizione reciproca tra due sfere nello spazio si può determinare confrontando la di-
stanza tra i loro centri con la somma e la differenza dei loro raggi, in modo totalmen-
te analogo a quanto illustrato per la determinazione della posizione reciproca di due
circonferenze nel piano (cfr. Par. 10.1.3).
⌃1 : x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0,
⌃2 : x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,
si può anche studiare la loro intersezione considerando le soluzioni del sistema formato
dalle due equazioni:
⇢ 2
x + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0
x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,
Se le due sfere ⌃1 e ⌃2 non sono concentriche, la seconda equazione del sistema pre-
cedente rappresenta un piano ⇡ , detto piano radicale della coppia di sfere. Si osserva
che:
n = (a1 a2 , b 1 b 2 , c1 c2 )
che è parallelo alla retta che unisce i centri delle due sfere, detta asse centrale.
4. Se le due sfere ⌃1 e ⌃2 non hanno punti in comune, anche il loro piano radicale
non ha punti in comune con le due sfere. La situazione geometrica è illustrata nelle
Figure 11.24 e 11.25.
Come nel caso del fascio di circonferenze nel piano (cfr. Par. 10.1.4) date due sfere:
⌃1 : x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0,
⌃2 : x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,
578 Geometria Analitica nello Spazio
(x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 )
(11.26)
+µ(x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 ) = 0, , µ 2 R, ( , µ) 6= (0, 0),
rappresenta il fascio di sfere individuato da ⌃1 e ⌃2 . Si osservi che i parametri e µ
sono omogenei, vale a dire è sufficiente individuare il loro rapporto per ottenere un solo
elemento del fascio. Si osservi, inoltre, che per = 0 si ha la sfera ⌃2 e per µ = 0 si
ottiene la sfera ⌃1 . Da (11.26) si ha:
( + µ)x2 + ( + µ)y 2 + ( + µ)z 2 + ( a1 + µ a2 )x + ( b1 + µb2 )y
(11.27)
+( c1 + µc2 )z + ( d1 + µd2 ) = 0.
Pertanto, se = µ e le due sfere ⌃1 e ⌃2 non sono concentriche, l’equazione (11.27)
rappresenta il piano radicale individuato dalla coppia di sfere che quindi prende il nome
di piano radicale del fascio. Per 6= µ si trova in generale una sfera se il raggio è
positivo o nullo, altrimenti si ottengono sfere immaginarie (cfr. Oss. 11.6). Come nel
caso del fascio di circonferenze nel piano. anche per il fascio di sfere si hanno le seguenti
proprietà legate alla posizione reciproca, prima descritta, delle due sfere ⌃1 e ⌃2 :
2c. Se le due sfere ⌃1 e ⌃2 non hanno punti in comune, il fascio da esse individua-
to contiene il loro piano radicale e tutte e sole le sfere aventi centro sull’asse
centrale del fascio e nessun punto in comune tra di loro e con il piano radicale,
La situazione geometrica è illustrata nella Figura 11.28.
3. Il fascio di sfere riempie lo spazio nel senso che dato un punto P1 = (x1 , y1 , z1 )
dello spazio è possibile individuare un elemento del fascio passante per P1 , infatti è
sufficiente sostituire le coordinate di P1 nell’equazione (11.26) e calcolare i valori
dei parametri e µ.
Esempio 11.11 L’esercizio 11.14 può essere risolto anche tramite la nozione di fascio di
sfere. Infatti la sfera passante per A = (3, 1, 1) e tangente al piano ⇡ : x + y z 1 = 0
nel punto B = (1, 1, 1) appartiene al fascio di tutte le sfere tangenti a ⇡ nel punto B ,
individuato dal piano ⇡ e dalla sfera di centro B e raggio 0, di equazione:
((x 1)2 + (y 1)2 + (z 1)2 ) + µ(x + y z 1) = 0, , µ 2 R, ( , µ) 6= (0, 0).
Imponendo il passaggio per il punto A si ha 4 + 2µ = 0, da cui ponendo = 1 e
µ = 2 si ritrova la sfera:
x2 + y 2 + z 2 4x 4y + 5 = 0.
Esercizio 11.18
p Data la circonferenza C del piano z + 1 = 0 di centro Q = (2, 3, 1)
e raggio r = 3, determinare le equazioni delle sfere passanti per C e tangenti alla retta
t : x = y 3 = 0.
Soluzione Le sfere passanti per la circonferenza C appartengono al fascio di sfere
equazione:
[(x 2)2 + (y 3)2 + (z + 1)2 3] + µ(z + 1) = 0, , µ 2 R, ( , µ) 6= (0, 0),
o, equivalentemente (tenendo conto che in questo caso non si sta cercando il piano radicale
tra le soluzioni) di equazione:
x2 + y 2 + z 2 4x 6y + 2z + 11 + k(z + 1) = 0, k 2 R, (11.28)
con k = /µ. Intersecando la generica sfera del fascio, rappresentato per semplicità
mediante (11.28), con la retta t si ottiene l’equazione di secondo grado in z :
z 2 + (k + 2)z + 2 + k = 0,
che ha due soluzioni coincidenti se e solo se si annulla il suo discriminante:
= (k + 2)2 4(k + 2),
cioè se e solo se k = ±2. Le sfere cercate hanno allora equazioni:
x2 + y 2 + z 2 4x 6y + 2z + 11 ± 2(z + 1) = 0.
580 Geometria Analitica nello Spazio
Ad ogni punto P dello spazio (non appartenente all’asse polare) si può associare in modo
unico la terna di numeri (⇢, ', ✓), dove:
2. ' 2 [0, 2⇡) è l’angolo della rotazione antioraria intorno alla retta p che il semipiano
⇡ deve compiere per sovrapporsi al semipiano individuato dalla retta p e dal punto
P;
!
3. ✓ 2 [0, ⇡] è l’angolo tra la retta p ed il vettore OP .
La terna di numeri (⇢, ', ✓) costituisce le coordinate sferiche di P. Per l’analogia con il
metodo comunemente usato per determinare la posizione dei punti sulla terra, ⇢ prende il
nome di raggio vettore, ' è la longitudine e ✓ è la colatitudine essendo il complementare
della latitudine del punto P. La situazione geometrica è illustrata nella Figura 11.29.
Π Θ
"
Ρ
Θ
O
y
#
x P'
A tali equazioni si perviene operando mediante una traslazione degli assi, cioè conside-
rando un nuovo riferimento cartesiano R0 = (C, X, Y, Z), con origine il centro C della
sfera e gli assi X , Y, Z passanti per C , paralleli e concordi rispettivamente a x, y, z .
Analogamente al caso delle traslazioni degli assi nel piano (cfr. Par. 9.4) le relazioni che
legano le coordinate del generico punto P rispetto ai due riferimenti sono:
8
< x=X +↵
y=Y +
:
z=Z+ .
⇢ ⇢ ⇢
x y=0 x y+6=0 3x 2z + 2 = 0
r: s: t:
2x z + 5 = 0, x 2y + z 6 = 0, 3y + z 4 = 0,
Soluzione La retta cercata è l’intersezione dei due piani ⇡1 e ⇡2 , dove ⇡1 è il piano per
r parallelo a t e ⇡2 è il piano per s parallelo a t. Per determinare l’equazione ad esempio
del piano ⇡1 si può osservare che esso appartiene al fascio di piani di equazione:
1 (x y + 6) + µ1 (x 2y + z 6) = 0, , µ 2 R, ( , µ) 6= (0, 0).
Esercizio 11.20 – Piano assiale di un segmento – Calcolare l’equazione del piano as-
siale del segmento di estremi A = ( 3, 5, 1), B = (2, 3, 1).
Soluzione Il procedimento da usare è simile a quello spiegato nel Paragrafo 9.2 nel
caso di un asse di un segmento nel piano, in alternativa si può determinare l’equazione
del piano ortogonale ad AB nel suo punto medio. Imponendo, invece, che il piano assiale
sia il luogo dei punti P = (x, y, z) equidistanti da A e B si ha:
p p
(x + 3)2 + (y 5)2 + (z 1)2 = (x 2)2 + (y + 3)2 + (z 1)2
Esercizio 11.21 – Punto simmetrico di un altro punto rispetto ad una retta – Deter-
minare le coordinate del punto O0 simmetrico dell’origine O rispetto alla retta
⇢
x + y + z = 0,
r:
x + y 1 = 0.
O'
M
O
K H
A'
Soluzione Sia K il punto di intersezione della retta r con il piano ⇡, dato da:
✓ ◆
1 1
K= , ,0
2 2
e sia A = (0, 0, 1) un punto di r. La retta s, simmetrica di r rispetto a ⇡, è la retta
passante per K e per il punto A0 simmetrico di A rispetto al piano ⇡ . Per determinare
il punto A0 si può osservare che il punto medio H del segmento di estremi A e A0 è
l’intersezione della retta passante per A ortogonale al piano ⇡ con il piano ⇡ stesso.
Quindi, risolvendo il sistema lineare:
8
>
> x=t
<
y=t
>
> z=1 t
:
x + y z 1 = 0,
si ottiene: ✓ ◆
2 2 1
H= , , .
3 3 3
Imponendo che H sia il punto medio del segmento di estremi A e A0 si ha:
✓ ◆
0 4 4 1
A = , , .
3 3 3
La retta s è allora la retta passante per K e A0 . Il piano che contiene r e s è il piano
passante per i tre punti A, K e A0 , la cui equazione cartesiana è:
x y z 1
1 1
0 = 0.
2 2
4 4 1
3 3 3
La situazione geometrica è illustrata nella Figura 11.32.
Capitolo 11 591
Esercizio 11.23 Determinare l’equazione della sfera passante per i punti A = (1, 1, 2),
B = (2, 1, 1) e tangente alla retta:
⇢
3x 2z + 2 = 0
r:
3y + z 4 = 0
Soluzione Il centro Q della sfera appartiene alla retta intersezione del piano ⇡1 per H
ortogonale a r e del piano assiale ⇡2 del segmento AB . Il piano ⇡1 è dunque ortogonale
al vettore n1 = (2, 1, 3) ed ha equazione:
Il piano ⇡2 invece, per quanto visto nell’Esercizio 11.20, è il piano passante per il punto
medio M del segmento AB : ✓ ◆
3 3
M= , 1,
2 2
!
e ortogonale al vettore AB = (1, 0, 1). Pertanto un punto Q appartenente alla retta
intersezione di ⇡1 e ⇡2 ha coordinate (t, 5t 2, t), con t 2 R. Imponendo che Q sia
equidistante da A e da H si ottiene t = 1. La sfera cercata ha quindi equazione:
Esercizio 11.24 – Circonferenza per tre punti – Determinare le equazioni della circon-
ferenza passante per i tre punti A = (1, 1, 5), B = (2, 2, 1), C = (1, 2, 2).
Esercizio 11.25 Dati i punti A = (2, 0, 0), B = (0, 2, 0), C = (0, 0, 2),
2. Tra tutte le sfere passanti per A, B, C determinare quella che ha volume minimo.
Soluzione 1. Il luogo richiesto è dato dall’insieme dei punti P = (x, y, z) tali che:
Si tratta, cioè, della retta r in cui si intersecano i piani assiali dei segmenti AB, BC
(e ovviamente AC ). Infatti da d2 (P, A) = d2 (P, B) segue:
(x 2)2 + y 2 + z 2 = x2 + (y 2)2 + z 2 ,
da cui:
x y = 0,
che è l’equazione del piano ⇡1 , piano assiale del segmento AB . Analogamente si
ricava l’equazione del piano ⇡2 , piano assiale del segmento BC :
⇡2 : y z = 0.
Soluzione 1. Per studiare la posizione reciproca del piano ⇡ con la sfera ⌃ è sufficien-
te confrontare la distanza del centro C di ⌃ dal piano ⇡ con il raggio r di ⌃.
Si ha:
| k| p
d(C, ⇡) = p , r = 2.
2
Segue che:
se k = ±2 il piano ⇡ è tangente alla sfera ⌃;
se 2 < k < 2, il piano ⇡ interseca la sfera ⌃ in una circonferenza;
se k < 2 oppure k > 2 il piano ⇡ è esterno alla sfera ⌃.
2. Poiché il piano ⇡ : y + z = 4 è esterno alla sfera ⌃, il punto P richiesto appartiene
alla retta passante per il centro della sfera ⌃ e ortogonale al piano ⇡ . Si trova
P = (0, 2, 2).
Soluzione Le sfere richieste sono elementi del fascio F individuato dalla sfera di
centro A e raggio uguale a 0 e dal piano ⇡1 :
F : (x2 + y 2 + z 2 2x + 2y 4z + 6) + µ(y + z 1) = 0, , µ 2 R, ( , µ) 6= (0, 0).
La generica sfera del fascio ha centro nel punto:
✓ ◆
2 +µ 4 µ
Q = 1, ,
2 2
e raggio: p
2µ
⇢= ,
2
per = 0 si ha solo il piano ⇡1 . Le sfere che intersecano il piano ⇡2 secondo circonfe-
renze di raggio r = 1 sono quelle che verificano la condizione:
d2 (Q, ⇡) + r2 = ⇢2 ,
cioè: ✓ ◆2
4 µ 2µ2
+1=.
2 4 2
Si trova = 1, µ = 2 e anche = 1, µ = 10. Sostituendo questi valori nell’equazione
del fascio F si ottengono le due sfere ⌃1 e ⌃2 richiesta dal problema e date da:
⌃1 : x 2 + y 2 + z 2 2x + 4y 2z + 4 = 0,
⌃2 : x 2 + y 2 + z 2 2x 8y 14z + 16 = 0.
Capitolo 11 595
Poiché nella soluzione dell’esercizio non potrà assumere il valore 0, che corrisponde
al piano radicale del fascio, conviene, per semplificare i calcoli, riscrivere l’equazione del
fascio di sfere usando il solo parametro k = µ/ , vale a dire:
x2 + y 2 + z 2 9 + k(2x + 4y + 4z 9) = 0, k 2 R,
da cui si ottiene:
Il raggio r della generica sfera del fascio risulta verificare la relazione r2 = 9k 2 +9(1+k).
Imponendo la condizione richiesta si ottiene k 2 + (1 + k) 3 = 0 le cui soluzioni sono
k = ±2 che danno luogo alle due sfere:
⌃1 : x 2 + y 2 + z 2 4x 8y 8x + 9 = 0
⌃2 : x2 + y 2 + z 2 + 2x + 4y + 4z 18 = 0,
! 1⇣ ! ! !
⌘
OG = OP1 + OP2 + . . . + OPn , (11.31)
n
con O punto fissato.
da (11.32) segue:
0 !0 !0 1 ⇣ ! ! !
⌘ ! !
O G = OO + OP1 + OP2 + . . . + OPn = OO0 + OG,
n
da cui la tesi.
Si procede ora con la determinazione del baricentro di due punti, di tre punti e di quattro
punti come esempi della definizione e dei teoremi appena enunciati.
Capitolo 11 597
da cui:
! !
G1 P3 = 3 GG1 ,
che esprime una ben nota proprietà che caratterizza il baricentro di un triangolo, provando
cosı̀ che la definizione (11.31) coincide con l’usuale concetto di baricentro di un triangolo.
La situazione geometrica descritta è illustrata nella Figura 11.33.
P2
G1
P1
P3
G
P3
G1
P2
P1
Infine si osservi che dalla formula (11.31) si ottengono le espressioni in coordinate del
baricentro di due punti, di tre punti e di quattro punti elencate all’inizio di questo capitolo.
Capitolo 11 599
2. È evidente che il luogo dei punti che hanno uguale potenza rispetto a due sfere
assegnate coincide con il piano radicale definito dalla due sfere (cfr. Par. 11.9).
Invece, l’esercizio seguente è volto a determinare i punti di uguale potenza rispetto
a tre sfere.
Esercizio 11.30 Determinare il luogo dei punti P dello spazio aventi la stessa potenza
rispetto alle tre sfere:
11
⌃1 : x 2 + y 2 + z 2 2y 4z + =0
4
31
⌃2 : x 2 + y 2 + z 2 2x 2z =0
25
59
⌃3 : x 2 + y 2 + z 2 4x 2y + = 0.
100
Soluzione Il luogo dei punti richiesto è formato dai punti P = (x, y, z) che apparten-
gono all’intersezione dei tre piani radicali determinati da ⌃1 , ⌃2 e ⌃3 , vale a dire:
8
> 399
>
> 2x 2y 2z + =0
>
> 100
>
<
216
4x 4z + =0
>
> 100
>
>
>
: 2x + 2y 2z 183 = 0
>
100
I tre piani appartengono allo stesso fascio proprio, l’asse di questo fascio è il luogo dei
punti richiesto. La situazione geometrica è illustrata nella Figura 11.35.
Esercizio 11.31 Il luogo dei punti di uguale potenza rispetto a tre sfere assegnate è sem-
pre una retta?
Si immagini di costruire uno spazio affine (di punti) analogo a quanto descritto all’inizio
di questo capitolo, basato però su uno spazio vettoriale euclideo di dimensione 4 riferito
ad una base ortonormale B. Si definisce un riferimento cartesiano fissando un punto O
a cui si immaginano applicati i vettori della base B, O è l’origine del riferimento. Ad
602 Geometria Analitica nello Spazio
ogni punto P di questo spazio si possono associare quattro coordinate cartesiane che
!
coincidono con le componenti del vettore OP rispetto alla base B, sia, ad esempio P =
(x, y, z, t). In questo ambiente è quindi possibile, grazie al prodotto scalare, introdurre
in modo totalmente analogo a quanto visto nel caso della dimensione 3, il concetto di
iperpiano, che sarà quindi rappresentato da un’equazione lineare del tipo:
ax + by + cz + dt + e = 0, a, b, c, d, e 2 R,
l’intersezione di due iperpiani non paralleli sarà un piano affine (proprio lo stesso tipo di
piano caratterizzato dal Teorema 11.1 nel caso dello spazio affine S3 ), l’intersezione di
tre iperpiani opportunamente scelti sarà una retta affine.
!
La distanza tra due punti P1 e P2 è pari alla norma del vettore P1 P2 . È quindi possibile, in
questo ambiente, che per analogia al caso dello spazio ordinario e del piano, si indicherà
con S4 , introdurre il concetto di ipersfera, definita come il luogo dei punti P tali da
mantenere fissa la distanza di P da un punto fissato C , il centro. Per esempio, l’ipersfera
⌃ di centro l’origine e raggio R ha equazione:
⌃ : x2 + y 2 + z 2 + t2 = R2 .
L’intersezione di una ipersfera con un iperpiano (se essi si intesecano) darà luogo alla
sfera introdotta nel Paragrafo 11.7.1. Si intende ora mettere in relazione l’ipersfera di
centro O e raggio 1 con il gruppo di matrici:
introdotto nel Paragrafo 5.5.2 e dimostrare che i due insiemi in realtà coincidono. In altri
termini il gruppo SU (2), cosı̀ come il gruppo U (1) (cfr. Cap. 9) è identificabile ad una
sfera opportuna.
Sia: ✓ ◆
z1 z2
P = , z1 , z2 , z3 , z4 2 C,
z3 z4
una generica matrice appartenente ad SU (2). La condizione:
✓ ◆✓ ◆ ✓ ◆
t z1 z3 z1 z2 1 0
PP = =
z2 z4 z3 z4 0 1
Supponendo che tutti gli elementi della matrice P non siano nulli (si lasciano per esercizio
i vari casi particolari), dalla seconda equazione di (11.37) si ricava:
z3 z4
z1 = (11.38)
z2
e:
z1 z2
z3 = . (11.39)
z4
Sostituendo (11.38) nella condizione ulteriore:
det(P ) = z1 z4 z2 z3 = 1 (11.40)
segue:
z3 = z2 .
Sostituendo (11.39) in (11.40) si ha anche:
z1 = z4 .
Di conseguenza si ottiene che le generiche matrici P di SU (2) devono essere del tipo:
✓ ◆
z1 z2
P = ,
z2 z1
z1 = x + iy, z2 = z + it, x, y, z, t 2 R,
z1 z1 + z2 z2 = x2 + y 2 + z 2 + t2 = 1,
Mentre è facilmente intuibile che si possano definire ipersfere in spazi affini associati
a spazi vettoriali di dimensione superiore a 4 non è in generale possibile identificare i
loro punti con gruppi di matrici. Infatti un famosissimo teorema (Teorema di Adams
[13]) afferma che ciò è solo possibile nei tre casi descritti in questo testo e precisamente
U (1), SU (2) e, ovviamente O(1) = { 1, 1} che rappresenta la circonferenza di centro
l’origine e raggio pari a 1 sulla retta affine S1 .
604 Geometria Analitica nello Spazio
Capitolo 12
605
606 Coni, Cilindri, Superfici di Rotazione e Quadriche
Nel Capitolo 11 si è visto che un piano o una sfera, rispetto ad un sistema di riferimento
cartesiano R = (O, x, y, z), si possono rappresentare nei due modi seguenti:
Come già visto per le rette e le circonferenze, una curva C nello spazio può essere rap-
presentata, rispetto ad un riferimento cartesiano R = (O, x, y, z), in due modi diversi, o
come intersezione di due superfici:
⇢
f (x, y, z) = 0
C:
g(x, y, z) = 0,
dove sia f sia g sono funzioni qualsiasi di dominio R3 e codominio R, o in forma para-
metrica, mediante le equazioni parametriche date al variare di un solo parametro t in un
intervallo I di R:
8
< x = x(t)
C: y = y(t)
:
z = z(t), t 2 I ✓ R.
In generale, non è semplice passare da una rappresentazione parametrica di una curva o
di una superficie alla sua equazione cartesiana o viceversa, infatti potrebbero sorgere pro-
blemi. Per esempio, anche nel caso più semplice delle curve piane, la curva di equazioni
parametriche:
Capitolo 12 607
8
< x = 1 + t + t5
y = 1 + 2t + 3t5
:
z = 0, t 2 R,
non ha una ovvia rappresentazione come intersezione di superfici. Anche la circonferenza
appartenente al piano xy , di centro l’origine e raggio r, che si può rappresentare in forma
cartesiana come intersezione della sfera e del piano dati dal sistema:
⇢ 2
x + y 2 r2 = 0
z = 0,
12.2 Il cono
In questo paragrafo si introducono i coni come luoghi geometrici dello spazio definiti da
funzioni omogenee di grado k nelle variabili x, y, z . In particolare si studieranno i coni
circoscritti ad una sfera e la proiezione di una curva da un punto su di un piano.
Definizione 12.1 Sia C una curva nello spazio e V un punto non appartenente a C . Il
cono di vertice V e direttrice C è il luogo delle rette dello spazio che uniscono V ad ogni
punto di C. Le rette sono dette generatrici del cono e ogni curva (non solo C ) che incontra
tutte le generatrici prende il nome di direttrice del cono.
P0
Primo Caso Sia C la direttrice di un cono data dall’intersezione di due superfici nella
forma:
⇢
f (x, y, z) = 0
C:
g(x, y, z) = 0,
⇢
f (x0 , y0 , z0 ) = 0
g(x0 , y0 , z0 ) = 0.
8
>
> x0 = ↵ + t(x ↵)
>
>
< y0 = + t(y )
z0 = + t(z )
>
>
>
> f (x0 , y0 , z0 ) = 0
:
g(x0 , y0 , z0 ) = 0
si ottiene l’equazione cartesiana del cono. Si osservi che, anche se esistono infinite ge-
neratrici e infinite direttrici, l’equazione del cono cosı̀ ottenuta non dipende dalla scelta
della direttrice e della generatrice.
Esercizio 12.1 Scrivere l’equazione del cono avente come direttrice la curva:
⇢
x2 + y 2 + z 2 9 = 0
C:
x+y 2=0
e vertice V = (0, 0, 0).
5x2 + 5y 2 4z 2 + 18xy = 0
che è l’equazione del cono, rappresentato nella Figura 12.2.
Si osservi che l’equazione del cono ottenuta nell’esercizio precedente è di secondo grado
ed è omogenea in x, y, z nel senso che è somma di monomi dello stesso grado; la defini-
zione che segue chiarisce questo concetto e subito dopo si dimostra che ogni equazione
omogenea in x, y, z rappresenta un cono di vertice l’origine O del riferimento cartesiano
R = (O, x, y, z) e viceversa.
Esempio 12.1 1. I polinomi che sono somma di monomi dello stesso grado k e con
termine noto uguale a zero sono funzioni omogenee di grado k . Per esempio il
polinomio x3 4y 3 xyz è una funzione omogenea di grado 3.
2. Ogni applicazione lineare f : R ! R è una funzione omogenea di grado 1.
3. Se : R2 ! R è una funzione qualsiasi, allora la funzione:
⇣x y⌘
f : R ⇥ R ⇥ (R {0}) ! R, (x, y, z) 7 ! ,
z z
è omogenea di grado zero, vale a dire f (tx, ty, tz) = f (x, y, z) per ogni t reale.
Teorema 12.1 In un riferimento cartesiano R = (O, x, y, z), tutti e soli i luoghi geome-
trici dei punti P = (x, y, z) dello spazio tali che:
f (x, y, z) = 0,
dove f : R3 ! R è una qualsiasi funzione omogenea di grado k (k 2 R), rappresenta-
no un cono di vertice l’origine O del riferimento.
è una direttrice del cono. Procedendo con il metodo descritto in questo paragrafo, per
calcolare l’equazione cartesiana del cono di direttrice C e vertice l’origine O, si consideri
un punto P1 = (x1 , y1 , z1 ) appartenente a C ossia:
⇢
g(x1 , y1 , z1 ) = 0
z1 1 = 0.
Sia P = (x, y, z) il generico punto del cono, le condizioni di allineamento dei punti
O, P1 , P sono date da: 8
< x1 = tx
y1 = ty (12.1)
:
z1 = tz, t 2 R.
Dalle equazioni z1 = 1 e da z1 = tz segue:
1
t= . (12.2)
z
Sostituendo in g(x1 , y1 , z1 ) = 0 le equazioni (12.1) e (12.2) si ha:
⇣x y ⌘
g(x1 , y1 , z1 ) = g , ,1 .
z z
Ponendo: ⇣x y ⌘
f (x, y, z) = g , ,1
z z
si ottiene che la funzione f, che definisce il cono, è una funzione omogenea di grado zero
(cfr. Esercizio 12.1).
sono direttrici del cono. Si tratta di un cono circolare retto (cfr. Par. 10.3) e lo si può
anche ottenere dalla rotazione completa della retta passante per l’origine del riferimento
e per il punto di coordinate (1, 0, 1) intorno all’asse z (cfr. Par. 12.4), per questo motivo
l’asse z è l’asse del cono.
p
Esempio 12.3 Si osservi che l’equazione z = x2 + y 2 rappresenta solo la metà supe-
riore (verso il semiasse positivo delle quote) del cono descritto nell’esempio precedente.
Capitolo 12 613
Osservazione 12.1 L’equazione di un cono di vertice V = (↵, , ) che non sia l’origine
del riferimento è anch’essa determinata da una funzione con particolari proprietà. Infat-
ti se si considera il riferimento cartesiano R0 = (V, X, Y, Z) ottenuto, dal riferimento
cartesiano R = (O, x, y, z), mediante la traslazione di equazioni:
8
< x=X +↵
y=Y +
:
z=Z+
in cui l’origine del riferimento R0 coincide con il vertice V del cono, l’equazione del
cono di vertice V, scritta nel riferimento R0 , è:
f (X, Y, Z) = 0,
Esercizio 12.2 Scrivere l’equazione del cono di vertice V = (0, 0, 0) e direttrice la curva:
8
< x=t+1
C: y=t 1 (12.5)
:
z=t 2
1, t 2 R.
x+y
t= ,
x y
che, sostituita nella seconda, dà luogo all’equazione cartesiana del cono:
sia l’unione di tre circonferenze. Il cono considerato è rappresentato nella Figura 12.5.
con la sfera ⌃ si ottiene un’equazione di secondo grado nel parametro t. Si hanno due
intersezioni coincidenti (ossia la retta tangente a ⌃) imponendo che il discriminante
dell’equazione di secondo grado in t cosı̀ ottenuta si annulli:
=0 (12.6)
x ↵ y z
= =
l m n
si sostituisce a l: x ↵, a m: y , a n: z . Tale sostituzione è possibile in quanto
l’equazione (12.6) è omogenea. Si perviene cosı̀ all’equazione del cono cercata.
Esercizio 12.4 Scrivere l’equazione del cono di vertice V = (2, 0, 0) circoscritto alla
sfera:
⌃ : x2 + y 2 + z 2 1 = 0.
Capitolo 12 619
= l2 3m2 3n2 = 0.
4
Con la sostituzione di x 2, y, z al posto di l, m, n, rispettivamente, si ha l’equazione del
cono cercata:
(x 2)2 3y 2 3z 2 = 0. (12.7)
da cui segue:
s[t(t 2) 1 + 4t + 2t(t3 + 6)] = 15t.
Si ricava s in funzione di t e si sostituisce nelle equazioni parametriche di S , perve-
nendo cosı̀ alle equazioni parametriche della curva richiesta. La situazione geometrica è
illustrata nella Figura 12.7.
12.3 Il cilindro
In questo paragrafo sono trattati i cilindri ed in particolare i cilindri aventi generatrici
parallele agli assi coordinati. Analogamente a quanto visto per il cono, saranno anche
studiati i cilindri circoscritti ad una sfera e la proiezione di una curva su un piano, secondo
una direzione assegnata. Vengono poi presentate le coordinate cilindriche che sono una
naturale generalizzazione, al caso dello spazio, delle coordinate polari nel piano (cfr. Par.
9.3).
Definizione 12.3 Data una curva C nello spazio ed un vettore u, il cilindro di direttrice
C e generatrici parallele ad u è il luogo delle rette dello spazio passanti per tutti i punti
di C e parallele al vettore u.
Primo Caso Sia C una curva nello spazio rappresentata nella forma:
⇢
f (x, y, z) = 0
C:
g(x, y, z) = 0,
Capitolo 12 623
-1
11
Esercizio 12.6 Determinare l’equazione del cilindro avente generatrici parallele all’asse
z e direttrice la circonferenza C appartenente al piano 2x z = 0, di centro l’origine O
e raggio 1.
5x2 + y 2 = 1
che è l’equazione del cilindro, rappresentato nella Figura 12.9.
Secondo Caso Sia C una curva dello spazio data in forma parametrica:
8
< x = x(t)
C: y = y(t)
:
z = z(t), t 2 I ✓ R,
Capitolo 12 625
e sia u = (l, m, n) un vettore. La retta passante per il generico punto P = (x(t), y(t), z(t))
di C, parallela ad u, ha equazioni:
8
< x = x(t) + ls
y = y(t) + ms (12.8)
:
z = z(t) + ns, s, t 2 R,
che non sono altro che le equazioni parametriche del cilindro di direttrice C e generatrici
parallele al vettore u, nei parametri s, t. Volendo determinare l’equazione cartesiana del
cilindro è sufficiente eliminare s e t tra le equazioni parametriche (12.8). Come nel caso
del cono, si osservi che, fissando t in (12.8) si hanno le equazioni parametriche di una
direttrice, invece, fissando s si hanno le equazioni parametriche di una generatrice.
Esercizio 12.7 Determinare l’equazione del cilindro avente generatrici parallele al vetto-
re v = (2, 1, 1) e direttrice la curva:
8
< x = t2
C: y=t
:
z = t 1, t 2 R.
generatrici del cilindro siano parallele all’asse z . Infatti se le generatrici sono parallele
all’asse z e la direttrice del cilindro è una curva C del piano coordinato xy di equazioni:
⇢
f (x, y) = 0
C:
z = 0,
Esercizio 12.8 Scrivere l’equazione cartesiana del cilindro avente come direttrice la cur-
va C di equazioni: 8
< x = u3
C: y = u2
:
z = u, u 2 R
e generatrici parallele all’asse z .
x2 y3 = 0
x2 + y 2 + (2x + y)2 = 1.
Come nel caso del cono, anche per il cilindro si può dimostrare il seguente teorema che
ne caratterizza l’equazione cartesiana. Per la sua dimostrazione si veda ad esempio [12].
una retta e sia (u, v) una funzione di due variabili reali a valori reali. Allora
l’equazione:
(a1 x + b1 y + c1 z + d1 , a2 x + b2 y + c2 z + d2 ) = 0 (12.9)
8
< x = x0 + lt
y = y0 + mt (12.10)
:
z = z0 + nt, t 2 R,
dove (x, y, z) sono le coordinate di un punto generico della retta, vale a dire le coordinate
del generico punto della superficie cercata. Analogamente a quanto già visto per il cono,
se si interseca ⌃ con la retta di equazioni parametriche (12.10) si ottiene un’equazione di
secondo grado in t, le cui soluzioni portano ai punti di intersezione tra la sfera e la retta.
Le generatrici sono tangenti a ⌃ se le intersezioni coincidono, ovvero se il discriminante
dell’equazione è nullo. L’equazione in x, y, z che cosı̀ si ottiene rappresenta, come è
visualizzato nella Figura 12.15, il cilindro circoscritto a ⌃ con generatrici parallele al
vettore u. In geometria euclidea questo cilindro è detto cilindro circolare retto in quanto
ha come direttrici le circonferenze che appartengono a piani paralleli, tutte con lo stesso
raggio e con i centri tutti su una retta, detta asse del cilindro, ortogonale ai piani a cui esse
appartengono. Nel Paragrafo 12.4 si vedrà che un cilindro circolare retto si può anche
ottenere dalla rotazione completa di una retta intorna ad un’altra retta ad essa parallela
che è l’asse del cilindro.
⌃ : (x 1)2 + y 2 + z 2 = 3
= (x + z 1)2 2(x2 + y 2 + z 2 2x 2) = 0
4
che è l’equazione del cilindro cercata.
634 Coni, Cilindri, Superfici di Rotazione e Quadriche
con l’eccezione dei punti dell’asse z per i quali ✓ è indeterminata. La situazione geome-
trica è illustrata nella Figura 12.18.
Le relazioni che legano le coordinate cilindriche alle coordinate cartesiane del medesimo
punto P sono: 8
< x = ⇢ cos ✓
y = ⇢ sin ✓
:
z = z;
per le formule inverse si trova:
8 p
>
> ⇢ = x2 + y 2
>
>
<
y
> tan ✓ =
>
> x
>
:
z = z.
Capitolo 12 639
q
r
x
P'
In questo paragrafo sarà anche studiato il caso particolare in cui la curva C è piana, gia-
ce su un piano coordinato e ruota intorno ad un asse coordinato. Particolari esempi di
questo tipo sono le rotazioni di un’ellisse, di un’iperbole e di una parabola intorno ad un
opportuno asse coordinato, ottenendo alcune superficie di rotazione che sono esempi di
quadriche. Le quadriche sono superfici che si possono esprimere mediante equazioni di
secondo grado e saranno studiate nel Paragrafo 12.6. Si esaminerà, infine, la rotazione
intorno all’asse z di una circonferenza posta sul piano x = 0, avente il centro nel punto di
coordinate (0, a, 0) e raggio r; la superficie che ne risulta è detta toro o superficie torica
(cfr. Def. 12.5).
Esempio 12.10 Se la curva C della Definizione 12.4 è una retta r incidente l’asse di
rotazione a, allora la superficie di rotazione è un cono circolare retto (cfr. Par. 10.3). La
Figura 12.20 rappresenta le rette incidenti r e a e il cono ottenuto dalla rotazione di r
intorno ad a.
Esempio 12.11 Se la curva C della Definizione 12.4 è una retta r parallela all’asse di
rotazione a, allora la superficie di rotazione è un cilindro circolare retto (cfr. Par. 12.3.2).
La Figura 12.21 rappresenta le rette parallele r e a e il cilindro ottenuto dalla rotazione
di r intorno ad a.
Capitolo 12 643
Esempio 12.12 Se la curva C della Definizione 12.4 è una retta r sghemba con l’asse di
rotazione a allora la superficie di rotazione è un iperboloide di rotazione ad una falda,
superficie che sarà studiata in dettaglio nel Paragrafo 12.6. La Figura 12.22 rappresenta
le rette sghembe r e a e l’iperboloide ad una falda ottenuto dalla rotazione di r intorno
ad a.
P = (t + 1, t, t + 2),
644 Coni, Cilindri, Superfici di Rotazione e Quadriche
Si può allora scrivere la circonferenza C come intersezione di ⌃ con ⇡ nel modo seguente:
⇢
y t=0
C: (12.11)
(x 1)2 + (y t)2 + z 2 = t2 + ( t + 2)2 .
L’esercizio precedente indica il metodo con cui si possono ricavare le equazioni di tutte
le superfici di rotazione ottenute dalla rotazione completa di una retta intorno all’asse di
rotazione. Viene ora affrontato il caso della rotazione di una curva piana C che non sia
necessariamente una retta e che ruota intorno ad una retta contenuta nello stesso piano
a cui appartiene C. Ci si può ridurre, con un opportuno cambiamento di riferimento, a
Capitolo 12 645
Esercizio 12.13 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa
dell’iperbole, appartenente al piano coordinato xz, di equazione:
8 2
< x z2
=1
a2 c2 (12.12)
:
y=0
Capitolo 12 647
intorno all’asse z .
x2 + y 2 z2
S: = 1, (12.13)
a2 c2
che è di nuovo un iperboloide di rotazione ad una falda. Nella Figura 12.24 sono rap-
presentati sia un’iperbole di equazione (12.12) sia la superficie di rotazione di equazione
(12.13).
Esercizio 12.14 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa
dell’ellisse, appartenente al piano coordinato xz, di equazione:
8 2 2
< x +z =1
a2 c2 (12.14)
:
y=0
intorno all’asse z .
x2 + y 2 z2
S: + = 1, (12.15)
a2 c2
648 Coni, Cilindri, Superfici di Rotazione e Quadriche
che rappresenta una superficie detta ellissoide di rotazione e che sarà studiata dettagliata-
mente nel Paragrafo 12.6. Nella Figura 12.25 si vedono un’ellisse di equazione (12.14) e
un ellissoide di rotazione di equazione (12.15).
Esercizio 12.15 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa
dell’iperbole del piano xz di equazione (12.12) intorno all’asse x.
x2 y2 + z2
S: 2 =1 (12.16)
a c2
che rappresenta una superficie detta iperboloide di rotazione a due falde che si può vedere
nella Figura 12.26 e che sarà studiata dettagliatamente nel Paragrafo 12.6.
Esercizio 12.16 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa
della parabola del piano xz di equazione:
8 2
< x = 2z
a2 (12.17)
:
y=0
intorno all’asse z .
Capitolo 12 649
Figura 12.26: Iperbole di equazione (12.12) e iperboloide a due falde di equazione (12.16)
x2 + y 2
S: = 2z (12.18)
a2
che rappresenta una superficie detta paraboloide di rotazione. Nella Figura 12.27 si
vedono una parabola di equazione (12.17) e un paraboloide di rotazione di equazione
(12.18).
Si affronta ora lo studio delle superfici che si possono ottenere dalla rotazione di una
circonferenza intorno ad una retta ad essa complanare, di cui, per esempio, la sfera è un
esempio (cfr. Es. 12.9, punto 1.), si inizia con la seguente definizione.
Definizione 12.5 Si dice toro o superficie torica la superficie ottenuta dalla rotazione
completa di una circonferenza C di raggio r intorno ad una retta appartenente al piano
della circonferenza e avente distanza a dal centro di C.
Per ricavare l’equazione del toro si può procedere come segue. Sia C la circonferenza,
di raggio r, appartenente al piano coordinato yz e con centro nel punto C = (0, a, 0),
quindi di equazioni:
⇢
(y a)2 + z 2 = r2
C:
x = 0.
Per ottenere l’equazione della superficie generata dallap rotazione completa di C intorno
all’asse z è sufficiente sostituire a y l’espressione ± x2 + y 2 e quindi l’equazione del
toro è:
p
(± x2 + y 2 a)2 + z 2 = r2 .
Si può pervenire allo stesso risultato anche seguendo il metodo generale, che consiste
nello scrivere le equazioni del generico parallelo della superficie di rotazione che si ottiene
intersecando il piano passante per il punto P0 = (0, y0 , z0 ) di C ortogonale all’asse z con
la sfera di centro C = (0, 0, z0 ) e raggio d(C, P0 ) = |y0 |, ossia:
⇢
z z0 = 0
x2 + y 2 + (z z0 )2 = y02 ,
652 Coni, Cilindri, Superfici di Rotazione e Quadriche
p
da cui si ricava y0 = ± x2 + y 2 . Sostituendo nella relazione:
⇢
(y0 a)2 + z02 = r2
x0 = 0
che esprime l’appartenenza di P0 a C si ottiene di nuovo l’equazione del toro. Per
maggiori dettagli sullo studio delle superfici toriche si veda ad esempio [11].
Esercizio 12.17 Determinare l’equazione della superficie generata dalla rotazione della
parabola:
⇢
y x2 = 0
P:
z=0
intorno alla retta a : x = y z = 0.
1 1
x2 + (y z)2 (y + z)2 (y + z) = 0.
2 2
Definizione 12.6 Una superficie S si dice rigata se per ogni punto di S passa almeno una
retta interamente contenuta in S. La superficie S si può individuare tramite una curva
C che le appartenga, la curva direttrice, associando, mediante un’opportuna legge, per
ogni punto P0 di C almeno una retta di S passante per P0 . Di conseguenza le equazioni
parametriche di S sono del tipo:
8
< x = h1 (u) + tl(u)
S: y = h2 (u) + tm(u) (12.19)
:
z = h3 (u) + tn(u), u 2 I ✓ R, t 2 R,
dove (h1 (u), h2 (u), h3 (u)), u 2 I ✓ R, sono le equazioni parametriche della curva
direttrice C.
8
< x = h1 (u0 ) + tl(u0 )
y = h2 (u0 ) + tm(u0 )
:
z = h3 (u0 ) + tn(u0 ), t 2 R.
4. Si osservi che il vettore (l(u), m(u), n(u)) in (12.19), identificato con il punto dello
spazio di coordinate (l(u), m(u), n(u)), descrive a sua volta, al variare di u 2 I,
una curva nello spazio.
12.6 Quadriche
In questo paragrafo vengono studiate le superfici che estendono al caso dello spazio il
concetto di conica introdotto nel piano, infatti esse si possono rappresentare mediante
un’equazione di secondo grado nelle variabili x, y, z e prendono il nome di quadriche. In
modo analogo al caso delle coniche (cfr. Par. 10.4) si dimostrerà un teorema di classifica-
zione che permetterà di scrivere l’equazione di una quadrica in forma canonica, rispetto
ad un opportuno sistema di riferimento. Infine ogni tipo di quadrica verrà studiato nei
dettagli e se ne ricaveranno anche le equazioni parametriche.
e che spesso viene anche indicata come la matrice associata alla quadrica Q.
Se ci si limita a considerare il gruppo di termini di secondo grado dell’equazione (12.21),
si può introdurre la forma quadratica Q : R3 ! R associata a Q, ponendo:
0 1
x
Q((x, y, z)) = x y z A @ y A,
z
dove A è la matrice simmetrica di ordine 3 data da:
0 1
a11 a12 a13
A = @ a12 a22 a23 A.
a13 a23 a33
Sovente, le due matrici simmetriche A 2 R3,3 e B 2 R4,4 vengono indicate come le
matrici associate alla quadrica Q di equazione (12.21), anche se A è in realtà la matrice
associata alla forma quadratica definita da Q.
x2 z2 = 2
è associato alle matrici:
0 1
1 0 0 0 0 1
B 0 1 0 0
0 0 0 C
B=B
@ 0
C, A= @ 0 0 0 A.
0 1 0 A
0 0 1
0 0 0 2
658 Coni, Cilindri, Superfici di Rotazione e Quadriche
Il teorema che segue indica un metodo per scrivere in forma più semplice le equazioni
delle quadriche e si basa sulla teoria della riduzione a forma canonica di una forma qua-
dratica introdotta nel Capitolo 8. È perciò necessario anteporre la definizione di equazione
di una quadrica in forma canonica. Si osservi che il procedimento che sarà descritto è
analogo a quello usato, nel caso della geometria analitica piana, per ridurre le equazioni
delle coniche a forma canonica, di conseguenza, lo stesso tipo di procedimento può essere
esteso allo studio di superfici scritte mediante equazioni di secondo grado in spazi affini
associati a spazi vettoriali euclidei di dimensione maggiore di 3. Per questo motivo si
propone una dimostrazione del Teorema 12.3 molto sintetica, senza troppi dettagli, che
sono analoghi a quelli della dimostrazione del Teorema 10.6 e pertanto sono lasciati al
Lettore per esercizio.
Definizione 12.8 Una quadrica si dice scritta in forma canonica se la sua equazione è
del tipo:
↵x2 + y 2 + z 2 + = 0, (12.22)
con ↵, , , 2 R e (↵, , ) 6= (0, 0, 0), oppure del tipo:
↵x2 + y 2 + 2 z = 0, (12.23)
Teorema 12.3 Sia Q una quadrica di equazione (12.21) scritta in un riferimento car-
tesiano R = (O, x, y, z). È possibile determinare un sistema di riferimento cartesiano
R00 = (O0 , X, Y, Z) in cui Q si rappresenta in forma canonica o del tipo (12.22) oppure
del tipo (12.23) dove ↵, , sono gli autovalori della matrice A associata all’equazione
di Q.
dove ↵, , indicano gli autovalori della matrice A, eventualmente uguali tra di loro
ma non tutti nulli, essendo la matrice A non nulla. Nel riferimento cartesiano R0 =
(O, x0 , y 0 , z 0 ) l’equazione (12.21) di Q diventa:
Q : ↵(x0 )2 + (y 0 )2 + (z 0 )2 + L0 (x0 , y 0 , z 0 ) = 0,
La matrice P ha, quindi, determinato una rotazione degli assi cartesiani x, y, z negli assi
cartesiani x0 , y 0 , z 0 passanti per l’origine e paralleli agli autovettori della matrice A le cui
componenti sono le colonne di P.
1. tre autovalori della matrice A, (contati con le loro molteplicità) non sono nulli,
allora l’equazione di Q diventa di tipo (12.22);
2. solamente due autovalori della matrice A, (contati con le loro moltelicità) non sono
nulli (per esempio ↵ e ) e la variabile (relativa a = 0), per esempio z , com-
pare a primo grado. Allora con una traslazione di assi si annulla il termine noto e
l’equazione di Q è di tipo (12.23);
660 Coni, Cilindri, Superfici di Rotazione e Quadriche
↵(x0 )2 + ay 0 + bz 0 + c = 0.
Con una rotazione nel piano coordinato y 0 z 0 intorno all’asse x0 e con una eventuale
traslazione, l’equazione si riduce a ↵x02 z 0 = 0 che è ancora del tipo (12.23).
Definizione 12.9 Le quadriche per cui tutti i coefficienti delle equazioni (12.22) e (12.23)
sono diversi da zero si dicono proprie o non degeneri o non singolari. In caso contrario
le quadriche si dicono non proprie o degeneri o singolari.
Osservazione 12.6 Nel caso di quadriche proprie, il determinante della matrice simme-
trica B, di ordine 4, associata alla quadrica è non nullo, det(B) 6= 0.
Sia Q una quadrica propria che si rappresenta con un’equazione di tipo (12.22) allora Q
è una delle seguenti superfici:
x2 y2 z2
+ + = 1, (12.25)
a2 b2 c2
rappresentato nella Figura 12.31. Si osservi che l’ellissoide di rotazione di equa-
zione (12.15) è un caso particolare di questa superficie, in cui un autovalore della
matrice A associata alla forma quadratica che definisce la superficie ha moltepli-
cità 2. Se, invece, la matrice A ha un solo autovalore (positivo) di molteplicità
3 allora si ottiene la sfera di centro l’origine e di raggio pari alla radice quadrata
dell’autovalore di A.
Nel caso dell’ellissoide, la segnatura della forma quadratica associata alla sua equa-
zione può essere (3, 0) oppure (0, 3) mentre il determinante della matrice simme-
trica B di ordine 4 ad esso associata è strettamente negativo, det(B) < 0.
x2 y2 z2
+ = 1,
a2 b2 c2
si tratta della superficie rappresentata all’esterno nella Figura 12.32.
Si osservi che l’iperboloide di rotazione ad una falda introdotto nell’Esempio 12.12
è un caso particolare di questa superficie in cui a = b. La stessa superficie di
rotazione si è anche ottenuta, in modo diverso, nell’equazione (12.12). Si lascia per
esercizio, invece, lo studio della superficie in cui a = b = c.
x2 y 2 z2
+ 2 = 0.
a2 b c2
Nella Figura 12.32 sono rappresentati sia un iperboloide ad una falda sia il suo cono
asintotico.
Capitolo 12 663
Nel caso dell’iperboloide ad una falda, la segnatura della forma quadratica asso-
ciata alla sua equazione può essere (2, 1) oppure (1, 2) mentre il determinante
della matrice simmetrica B di ordine 4 ad esso associata è strettamente positivo,
det(B) > 0.
Si verifica facilmente le equazioni parametriche dell’iperboloide ad una falda sono:
8
< x = a cosh v cos u
y = b cosh v sin u
:
z = c sinh v, 0 u < 2⇡, v 2 R.
x2 y2 z2
= 1,
a2 b2 c2
si tratta della superficie rappresentata all’interno del cono nella Figura 12.33. Si
osservi che l’iperboloide di rotazione a due falde di equazione (12.16) è un caso
particolare di questa superficie in cui b = c.
Anche l’iperboloide a due falde è una superficie simmetrica rispetto ai piani coordi-
nati, agli assi coordinati e all’origine, un solo asse la interseca, precisamente l’asse
x nei punti A = (a, 0, 0), A0 = ( a, 0, 0) pertanto la superficie ha solo due ver-
tici. Le sue sezioni con i piani x = h, dove h > a e h < a, sono ellissi; con i
piani y = k e z = l sono iperboli, mentre i piani passanti per l’asse x intersecano
l’iperboloide a due falde in iperboli i cui asintoti costituiscono un cono, detto an-
che in questo caso cono asintotico, che racchiude la superficie al suo interno ed ha
equazione:
x2 y2 z2
= 0.
a2 b2 c2
Nel caso dell’iperboloide a due falde, la segnatura della forma quadratica associa-
ta alla sua equazione può essere (1, 2) oppure (2, 1) mentre il determinante del-
la matrice B, simmetrica di ordine 4, ad esso associata è strettamente negativo,
det(B) < 0.
Si verifica facilmente che le equazioni parametriche dell’iperboloide a due falde
sono:
8
< x = a cosh u cosh v
y = b sinh u cosh v
:
z = c sinh v, u, v 2 R.
Capitolo 12 665
x2 y2
+ = 2z,
a2 b2
Nel caso del paraboloide ellittico, la segnatura della forma quadratica associata alla
sua equazione può essere (2, 0) oppure (0, 2), quindi la forma quadratica è dege-
nere (det(A) = 0, con A matrice associata alla forma quadratica) mentre il deter-
minante della matrice simmetrica B di ordine 4 ad esso associata è strettamente
negativo, det(B) < 0.
Si verifica facilmente che le equazioni parametriche del paraboloide ellittico sono:
8
< x=au
y=bv
:
z = 12 (u2 + v 2 ), u, v 2 R.
x2 y2
= 2z,
a2 b2
rappresentato nella Figura 12.35. Si nota subito che questa superficie non può esse-
re una superficie di rotazione, perché? La superficie è simmetrica rispetto ai piani
coordinati yz e xz, è anche simmetrica rispetto all’asse x. Se si interseca la super-
ficie con il piano coordinato xy di equazione z = 0 si ottiene la conica degenere di
equazione: 8
< z=0
>
2
: x
> y2
=0
a2 b2
formata dall’unione di due rette incidenti, che quindi appartengono al paraboloi-
de iperbolico. Nel Paragrafo 12.6.1 si dimostrerà che effettivamente il paraboloi-
de iperbolico è un esempio di superficie rigata e, come l’iperboloide iperbolico, è
doppiamente rigata.
L’intersezione del paraboloide iperbolico con il piano coordinato yz è la parabola
di equazioni:
⇢
y=0
(12.26)
x2 = 2a2 z,
-1
-1
-2
0
1 -1
0
1
quindi essa coincide con la parabola di equazioni (12.27) ma con il vertice nel punto
✓ ◆
k2
V = k, 0, 2 ,
2a
x2 y2
=0
a2 b2
che in realtà consiste nell’unione di due piani incidenti.
Nel caso del paraboloide iperbolico, la segnatura della forma quadratica associata
alla sua equazione è (1, 1), quindi la forma quadratica è degenere (det(A) = 0,
con A matrice associata alla forma quadratica) mentre il determinante della matrice
simmetrica B di ordine 4 ad esso associata è strettamente positivo, det(B) > 0.
Le equazioni parametriche del paraboloide iperbolico sono:
8
< x=au
>
y=bv
: z = 1 (u2
>
v 2 ), u, v 2 R.
2
↵x2 + y 2 + z 2 = 0
Nel caso del cono quadrico la segnatura della forma quadratica ad esso associata
può essere (3, 0) o (0, 3), in questo caso si ottiene un cono immaginario, oppure la
segnatura può essere (2, 1) o (1, 2) allora si ottiene un cono reale.
2. Cilindro quadrico le cui equazioni, in forma canonica, possono essere del tipo
seguente:
x2 y2
+ = 1,
a2 b2
x2 y2
+ = 1,
a2 b2
x2 y2
= 1,
a2 b2
x2 = 2py,
3. Unione di due piani incidenti, paralleli o coincidenti, anche immaginari, con equa-
zioni, in forma canonica del tipo:
↵x2 + y 2 = 0, ↵, 2 R, ↵ 6= 0, 6= 0,
x 2 = a2 , a 2 R, a 6= 0
x2 = 0.
(
rank(B) = 3 rank(A) = 3 : cono reale o immaginario;
• :
(det(B) = 0) rank(A) = 2 : cilindro reale o immaginario.
(
rank(B) = 2 rank(A) = 2 : unione di due piani incidenti reali o immaginari;
• :
(det(B) = 0) rank(A) = 1 : unione di due piani paralleli reali o immaginari.
rank(B) = 1
• : rank(A) = 1 : unione di due piani coincidenti reali o immaginari.
(det(B) = 0)
672 Coni, Cilindri, Superfici di Rotazione e Quadriche
Osservazione 12.7 Per differenziare ulteriormente, per esempio, le superfici elencate nel
primo caso della tabella precedente, vale a dire ellissoide, sfera, iperboloide a due falde,
tutte ugualmente caratterizzate dall’avere rank(A) = 3, det(B) > 0, è necessario consi-
derare la segnatura della forma quadratica a cui la matrice A è associata, come specificato
nell’elenco delle quadriche scritte in forma canonica.
1 = 2, m 1 = 2; 2 = 8, m 2 = 1;
quindi Q è un ellissoide di rotazione. Una base ortonormale di autovettori è:
✓✓ ◆ ✓ ◆ ✓ ◆◆
1 1 1 2 1 1 1 1
p , 0, p , p ,p , p , p ,p ,p .
2 2 6 6 6 3 3 3
Si definisce quindi la rotazione degli assi cartesiani di equazioni:
0 1 0 1 0 10 1
1 0 1 1
x x p p p x0
B C B C B 2 6 3 C
CB C
B C B C B
B CB C
B C B C B C
B C B 0 C B 2 C
1 CB C
B y C=PB y C=B 0 p p CB y C
0
B C B C B B C
B C B C B 6 3 CB C
B C B C B CB C
@ A @ A B
@
C@
A A
1 1 1
z z0 p p p z 0
2 6 3
e l’equazione della quadrica nel riferimento R0 = (O, x0 , y 0 , z 0 ) è:
0 10 0 1 0 1
2 0 0 x x0
x0 y 0 z 0 @ 0 2 0 A @ y0 A + 4 4 8 P @ y0 A + 3 = 0
0 0 8 z0 z0
Capitolo 12 673
ossia:
4 4 16
2(x0 )2 + 2(y 0 )2 + 8(z 0 )2 p x0 p y 0 + p z 0 + 3 = 0.
2 6 3
Operando con il metodo del completamento dei quadrati si ha:
✓ ◆2 ✓ ◆2 ✓ ◆2
0 1 0 1 10
2 x p +2 y p +8 z + p 1 = 0.
2 6 3
Mediante la traslazione di equazioni:
0 1 0 1 0 1
0 1
X x p
B C B C B 2 C
B C B C B C
B C B C B C
B C B 0 C B 1 C
B Y C=B y C+B p C C,
B C B C B
B C B C B 6 C
B C B C B C
@ A @ A B
@
C
1 A
Z z0 p
3
la quadrica assume, nel riferimento R00 = (O0 , X, Y, Z) l’equazione:
2X 2 + 2Y 2 + 8Z 2 = 1.
Si tratta proprio di un ellissoide di rotazione. La rototraslazione che permette di passare
dal riferimento iniziale R al riferimento R00 è:
0 1 0 1 1 1
10 1 0 1
x p p p X 0
B C B 2 6 3 C
CB C B C
B C B B CB C B C
B C B C B C B C
B C B 2 1 C B C B C
B y C=B 0 p p C B Y C + B 0 C,
B C B 6 3 CB C B C
B C B CB C B C
B C B C@ B C B C
@ A @ A A @ A
1 1 1
z p p p Z 1
2 6 3
quindi l’origine O0 del riferimento R, che è anche il centro dell’ellissoide, ha coordinate
(0, 0, 1) nel riferimento iniziale R.
superfici rigate (cfr. Par. 12.5) essendo interamente costituite da una doppia famiglia di
rette. D’altra parte, entrambe queste superfici possono essere ottenute anche come luogo
geometrico di punti, come sarà specificato nel Teoremi 12.4 e 12.5.
x2 y2 z2
I: + = 1,
a2 b2 c2
superficie già studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.32, si può anche
scrivere come:
⇣x z⌘⇣x z⌘ ⇣ y⌘⇣ y⌘
I: + = 1+ 1 . (12.29)
a c a c b b
Dalla precedente uguaglianza di due prodotti si ricavano, per esempio, le espressioni:
x z y
1
a c b
1. = = 1, 1 2 R,
y x z
1+ +
b a c
(12.30)
x z y
1+
a c b
2. = = 2, 2 2 R,
y x z
1 +
b a c
ciascuna delle quali conduce alle due famiglie di rette seguenti:
8 x z ⇣ y⌘
>
< a c = 1 1+ b
>
1. ⇣ ⌘
>
: 1 y = 1 x+z ,
>
b a c
8 x z ⇣ ⌘ (12.31)
> y
< a c = 2 1 b
>
2. ⇣ ⌘
>
: 1+ y = 2 x + z ,
>
b a c
che, al variare di 1 , 2 2 R appartengono all’iperboloide I. Si osservi che, a partire
da (12.29), ogni altra combinazione dell’uguaglianza darebbe luogo alle stesse equazioni
ottenute in (12.30). Per ogni punto P0 2 I si individuano due parametri 1 e 2 , di
Capitolo 12 675
conseguenza si determinano due rette passanti per P0 , una per ogni famiglia di rette in
(12.31) ma entrambe appartenenti a I , pertanto I è una superficie doppiamente rigata. Le
due famiglie di rette di equazioni (12.31) prendono il nome di schiere di rette appartenenti
all’iperboloide I.
Si vuole, ora, studiare la posizione reciproca di due rette r1 e r10 appartenenti alla stessa
schiera, per esempio alla schiera 1. in (12.31), corrispondenti ai parametri 1 e 01 ; siano:
8 x z ⇣ y⌘
>
> = 1 +
< a c 1
b
r1 : ⇣ ⌘
>
: 1 y = 1 x+z ,
>
b a c
8 x z ⇣ y⌘
> 0
< a c = 1 1+ b
>
0
r1 : ⇣ ⌘
>
: 1 y = 0 x+z .
>
1
b a c
Esse non sono incidenti perché ogni punto P0 di I determina un solo valore di 1 , quindi
una sola retta della schiera considerata. Le rette r1 e r10 non sono parallele infatti r1 è
parallela al vettore:
i j k
1 1 ✓ 2 2
◆
1
1 +1 2 1 1+ 1
a b c = , , ,
bc ac ab
1 1 1
a b c
mentre r10 è parallela al vettore:
i j k
1 0
1 ✓ 02 02 ◆
1 1 +1 2 01 1 + 1
a b c = , , ,
bc ac ab
0 0
1 1 1
a b c
4
2
-2
-4
-2
-4
-4
-2
0
x2 y2
I: + z 2 = 1, (12.32)
4 9
ricavare le equazioni delle rette r e s che passano per il punto P = (2, 3, 1) 2 I e che
giacciono sull’iperboloide. Determinare, inoltre, l’equazione del piano ⇡ contenente le
rette r e s.
si vogliono determinare i suoi parametri direttori (l, m, n) in modo tale che r appartenga
ad I . Sostituendo le equazioni (12.33) in (12.32) si ha:
(2 + lt)2 (3 + mt)2
+ (1 + nt)2 = 1,
4 9
da cui: ✓ ◆ ✓ ◆
l2 m2 2 2 2
+ n t + l+ m 2n t = 0.
4 9 3
Si perviene quindi al sistema di secondo grado:
8
> 2
> l + m 2n = 0
< 3
> 2 2
: l +m
>
n2 = 0,
4 9
le cui due soluzioni sono:
⇢ ⇢
m=0 m 3n = 0
l = 2n, l = 0,
in corrispondenza delle quali si ottengono le rette r passante per P = (2, 3, 1), parallela
al vettore r = (2, 0, 1) e s passante per P = (2, 3, 1), parallela al vettore s = (0, 3, 1).
678 Coni, Cilindri, Superfici di Rotazione e Quadriche
8 x ⇣y⌘ 8 x ⇣ y⌘
>
> z= 1 >
> z= 1+
< 2 1
3 < 2 2
3
> ⇣ ⌘ > ⇣x ⌘
: 1+ y = 1 x +z ,
>
1 2 R,
>
: 1 y
= 2 +z , 2 2 R.
3 2 3 2
x 2 y 3 z 1
2 0 1 = 3x + 2y 6z 6 = 0.
0 3 1
Il teorema che segue afferma che l’iperboloide ad una falda può anche essere ottenuto
come luogo geometrico di punti. Anziché proporre la dimostrazione (che è comunque
un esercizio e viene lasciata al Lettore) si preferisce ricavare, nell’Esercizio 12.21, un
esempio dello stesso luogo geometrico.
Teorema 12.4 L’iperboloide ad una falda è il luogo delle rette che si appoggiano con-
temporaneamente a tre rette che sono sghembe a due a due.
verificare che sono sghembe a due a due e determinare il luogo delle rette che si appog-
giano contemporaneamente ad r, s, h.
Capitolo 12 679
Soluzione È immediato verificare che le rette date sono a due a due sghembe (è suf-
ficiente notare che non sono parallele e che per esempio le rette s e h non passano per
l’origine, a differenza della retta r, e che s e h non sono incidenti).
x t0 y 1 z
= = . (12.34)
t0 + 1 1 t00 1
Se si impone che questa retta passi per il punto generico di r si ottengono le uguaglianze:
t0 1
0
= = t,
t +1 1 t00
che stabiliscono la condizione che devono verificare i parametri t, t0 e t00 affinché siano
allineati tre punti di r, s ed h rispettivamente. Da esse si ottengono le relazioni:
t 1+t
t0 = , t00 = .
1 t t
Sostituendo nell’equazione (12.34), segue:
t
x+
1+t = y 1 = z,
t t+1
+1 1
1 t t
o, con ovvie semplificazioni, l’espressione:
x(1 + t) + t = t(y 1) = z
che rappresenta la generica retta del luogo richiesto, al variare del parametro t. La retta
precedente si può scrivere come intersezione dei due piani:
⇢
x + z = t(x + 1)
t(y 1) = z,
dai quali si elimina facilmente il parametro t e si ottiene l’equazione cartesiana del luogo:
S : xy + xz + yz x = 0.
Si tratta, evidentemente, di una quadrica che si può identificare con la riduzione a forma
canonica della sua equazione. A tale scopo si considera la matrice A associata alla forma
quadratica di S :
680 Coni, Cilindri, Superfici di Rotazione e Quadriche
0 1
1 1
0
B 2 2 C
B C
B C
B 1 1 C
A=B 0 C
B 2 2 C
B C
@ 1 1 A
0
2 2
i cui autovalori, con le rispettive molteplicità, sono:
1
1 = , m 1 = 2; 2 = 1, m 2 = 1.
2
Gli autospazi corrispondenti sono rispettivamente V 1 = L(u1 , u2 ), V 2 = L(u3 ), con:
1 0 2 1 0 2 1 1 1
(x ) (y ) + (z 0 )2 + p x0 p y0 p z 0 = 0.
2 2 2 6 3
Procedendo con il metodo del completamento dei quadrati si ha:
Capitolo 12 681
✓ ◆2 ✓ ◆2 ✓ ◆2
1 0 1 1 0 1 0 1 1
x p y +p + z p + =0
2 2 2 6 2 3 4
ed applicando la traslazione di equazioni:
0 1 0 1 0 1
X x0 1
B C B C B p C
B C B C B 2 C
B C B C B 1 C
B C B 0 C B p C
B Y =
C B y C+B C
B C B C B 6 C
B C B C B C
@ A @ A @ 1 A
0 p
Z z 2 3
si ha l’equazione della quadrica in forma canonica:
2X 2 + 2Y 2 4Z 2 = 1.
x2 y2
P: 2 = 2z,
a b2
superficie già studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.35, può essere
decomposta come:
⇣x y⌘⇣x y⌘
+ = 2z. (12.35)
a b a b
L’equazione (12.35), in realtà, equivale alle due equazioni seguenti:
x y 2z
+ = x y = 1, 1 2R (12.36)
a b
a b
e:
x y 2z
= x y = 2, 2 2 R. (12.37)
a b +
a b
D’altra parte, (12.36) può essere scritta come:
682 Coni, Cilindri, Superfici di Rotazione e Quadriche
8 x y
>
< a+b = 1
>
⇣ (12.38)
>
: 2z = 1 x
> y⌘
, 1 2R
a b
e (12.37) come: 8 x
> y
>
< a = 2
b
⇣x (12.39)
>
>
: 2z = y⌘
2 + , 2 2 R.
a b
I due sistemi lineari (12.38) e (12.39) rappresentano due famiglie di rette che, al variare
di 1 e 2 in R appartengono al paraboloide iperbolico, in quanto ne verificano la sua
equazione. Il paraboloide iperbolico, con le due famiglie di rette appena determinate, è
rappresentato nella Figura 12.37, tratta da [11].
Come nel caso dell’iperboloide iperbolico, ciascuna di queste famiglie di rette prende il
nome di schiera di rette del paraboloide iperbolico, Si vuole ora studiare la posizione
reciproca delle rette all’interno della stessa schiera. Si consideri, per esempio, la schiera
di rette (12.38). Tutte le rette di tale schiera, al variare di 1 in R, appartengono al piano:
x y
+ = 1,
a b
Capitolo 12 683
Il teorema che segue afferma che il paraboloide iperbolico può anche essere ottenuto
come luogo geometrico di punti. Anziché proporre la dimostrazione (che è comunque
un esercizio e viene lasciata al Lettore) si preferisce ricavare, nell’Esercizio 12.23, un
esempio di tale luogo geometrico.
Teorema 12.5 Il paraboloide iperbolico si può ottenere come luogo geometrico delle
rette che si appoggiano a due rette sghembe e sono tutte parallele ad un piano.
684 Coni, Cilindri, Superfici di Rotazione e Quadriche
Soluzione Si vede facilmente che le rette r e s sono sghembe perché giacciono su piani
paralleli e sono ottenute dall’intersezione con altri due piani tra di loro non paralleli. Le
equazioni parametriche di r e di s sono:
8 8
> 1 + 2t >
> 1 2t0
>
> x = p >
> x = p
>
< 2 2 >
< 2 2
r: 1 2t s: 1 + 2t0
> y = p > y = p
>
> 2 2 >
> 2 2
>
: >
>
z = t, t 2 R; : z = t , t0 2 R.
0
La retta che unisce il punto generico di r con il punto generico di s ha perciò equazione:
1 + 2t 1 2t
x p y p
2 2 2 2 z t
0 = 0 = ,
1 + 2t 1 + 2t 1 2t 1 2t t t0
p + p p + p
2 2 2 2 2 2 2 2
che si semplifica nell’espressione seguente:
p p
2 2x (1 + 2t) 2 2y (1 2t) z t
0
= 0
= .
2 + 2t + 2t 2 2t 2t t t0
Se si impone poi che tale retta sia parallela al piano ⇡ , si ottiene t = t0 , che permette di
scrivere l’equazione precedente nella forma:
p p z t
2 2x (1 + 2t) = 2 2y (1 2t) =
t
e rappresenta, al variare del parametro t, la generica retta del luogo geometrico richiesto.
Essa si può anche scrivere come intersezione dei due piani:
⇢ p p
2 p2x (1 + 2t) 2 2y + (1 2t) = 0
t( 2y 1 + 2t) z + t = 0.
686 Coni, Cilindri, Superfici di Rotazione e Quadriche
x2 y 2 = z,
che rappresenta l’equazione del luogo geometrico. Come si può osservare, si ottiene un
paraboloide iperbolico.
Esercizio 12.24 – Il cono-cuneo di Wallis – Sono dati una retta a, una circonferenza C
che giace su un piano ⇡ , parallelo ad a, il cui centro appartiene alla retta ortogonale a ⇡
condotta da un punto di a ad un piano ⇡ 0 perpendicolare ad a. Determinare l’equazione
del luogo geometrico delle rette che si appoggiano alla circonferenza C , alla retta a e
sono parallele a ⇡ 0 .
Soluzione Per semplicità si scelga a coincidente con l’asse z del riferimento cartesiano
e la circonferenza C sul piano y = k , con centro sull’asse y e raggio r. Detti P un punto
generico di C e Q un punto generico di a, la retta P Q ha equazioni:
Capitolo 12 687
X Y Z z
= = = t.
r cos ' k r sin ' z
Se si impone che a sia parallela al piano z = 0, segue:
(kX)2 Z2
+ = 1,
(rY )2 r2
da cui si ottiene:
Z 2Y 2 + k2X 2 r2 Y 2 = 0.
La superficie appena descritta, che prende il nome di cono-cuneo di Wallis è rappresentata
nella Figura 12.39, si osservi, inoltre, che si tratta di una superficie rigata.
x y z
= = = t.
b(1 cos ') b sin ' b sin '
Imponendo il parallelismo al piano ⇡ (z = 0), si ricava = b sin ' e le equazioni
parametriche del luogo richiesto sono:
8
< x = tb(1 cos ')
y = tb sin '
:
z = b sin ', t 2 R, 0 ' < 2⇡.
Per ottenere l’equazione cartesiana si calcola:
(x2 + y 2 )z = 2bxy,
che è l’equazione cercata. La superficie cosı̀ ottenuta prende il nome di conoide retto di
Plücker ed è rappresentata, da due diverse angolazioni, nelle Figure 12.40 e 12.41. Anche
il conoide di Plücker è un esempio di superficie rigata.
Esercizio 12.27 – Elicoide retto – Trovare il luogo geometrico delle rette che si appog-
giano all’elica circolare cilindrica di equazioni parametriche:
8
< x = R cos '
y = R sin ' (12.42)
:
z = h', ' 2 R,
e all’asse z e sono parallele al piano xy , al variare del parametro reale '.
Soluzione L’elica circolare cilindrica, rappresentata nella Figura 12.43, è una curva
nello spazio, dalle sue equazioni parametriche (12.42) si vede che, in senso figurato, si
tratta di una circonferenza del piano xy che si avvolge intorno all’asse z con un passo
che varia al variare di h, pertanto la curva giace sul cilindro di equazione x2 + y 2 = R2
da cui la sua denominazione. La retta generica del luogo geometrico richiesto unisce i
punti P e Q dati da:
Esercizio 12.28 – Vite di Saint Gilles – Determinare l’equazione del luogo geometrico
descritto da una circonferenza C avente raggio r, centro in un punto generico dell’elica
circolare cilindrica di equazioni (12.42) e appartenente ad un piano passante per l’asse z.
u2 = u1 ^ (sin 'i cos 'j) = k. Perciò due versori ortogonali tra di loro e paralleli a
⇡ sono:
u1 u2
v1 = = cos 'i + sin 'j, v2 = = k.
ku1 k ku2 k
Una rappresentazione vettoriale parametrica della circonferenza C sul piano ⇡ è quindi:
P = C + r(cos uv1 + sin uv2 ),
ossia:
P = R cos 'i + R sin 'j + h'k + r[cos u(cos 'i + sin 'j) sin uk],
dalla quale si ottiene la rappresentazione parametrica:
8
< x = R cos ' + r cos ' cos u
S: y = R sin ' + r sin ' cos u
:
z = h' r sin u, u, ' 2 R,
che, al variare di ' e di u, descrive una superficie S, che è il luogo geometrico richiesto
e che, per la sua conformazione, viene detta vite di Saint Gilles ed è rappresentata nella
Figura 12.45.
694 Coni, Cilindri, Superfici di Rotazione e Quadriche
Esercizio 12.29 – Colonna torsa – Determinare l’equazione del luogo geometrico de-
scritto da una circonferenza C, di raggio r, con il centro in un punto generico dell’elica
circolare cilindrica di equazioni (12.42) e appartenente ad un piano ⇡ che si mantiene
ortogonale all’asse z, al variare del parametro ' in R.
ossia:
che, al variare dei parametri ' ed u, genera il luogo geometrico S richiesto che è la
superficie rappresentata nella Figura 12.46 e che prende il nome di colonna torsa per la
sua particolare conformazione.
⌃ : x2 + y 2 + z 2 2↵x 2 y 2 z + = 0,
x0 x + y0 y + z0 z ↵(x + x0 ) (y + y0 ) (z + z0 ) + = 0. (12.43)
Anche la definizione di piano tangente ad una quadrica in suo punto non singolare estende
la definizione di retta tangente ad una conica in un suo punto (cfr. Def. 10.8) nel modo
seguente.
Definizione 12.11 Il piano tangente ad una quadrica Q in un suo punto non singolare
P0 è il luogo delle rette tangenti in P0 a tutte le curve che giacciono sulla superficie Q e
che passano per P0 .
Osservazione 12.8 È chiaro che una retta r si dice tangente ad una quadrica Q in un suo
punto P0 se la retta r ha due intersezioni coincidenti in P0 con la quadrica Q. Invece se
una retta r interseca una quadrica Q in un solo punto non è detto che sia tangente a Q
in quel punto. Si consideri, ad esempio, l’asse di rotazione di un paraboloide di rotazione
che interseca solo nel vertice del paraboloide il paraboloide stesso senza essere ad esso
tangente.
Capitolo 12 697
dove 0 1
a11 a12 a13 a14
B a12 a22 a23 a24 C
B=B
@ a13
C
a23 a33 a34 A
a14 a24 a34 a44
indica la matrice simmetrica di ordine 4 ad essa associata. Sia P0 = (x0 , y0 , z0 ) un
punto di Q non singolare, allora il piano ⇡ tangente alla quadrica Q nel suo punto P0
è: 0 1
x
B y C
⇡ : x0 y0 z0 1 B B C
@ z A = 0. (12.45)
1
Affinché la retta r sia tangente alla quadrica Q nel punto P0 , essa deve avere riunite in
P0 due intersezioni con Q, ciò implica che si annulli il coefficiente di t nell’equazione
(12.46), ossia:
Tenendo conto delle equazioni parametriche della retta r e del fatto che P0 appartiene
alla superficie Q, svolgendo i calcoli, si ricava:
@f @f @f
(P0 )(x x0 ) + (P0 )(y y0 ) + (P0 )(z z0 ) = 0, (12.48)
@x @y @z
il vettore: ✓ ◆
@f @f @f
(P0 ), (P0 ), (P0 )
@x @y @z
Q : x2 + 2y 2 z 2 + 4x 2y 6z 9 = 0,
Capitolo 12 699
l m n = 0.
La retta r è contenuta in Q se e solo se:
⇢
l2 + 2m2 n2 = 0
l m n = 0,
da cui si hanno le due soluzioni:
⇢ ⇢
m=0 m = 2l
n = l, n = 3l,
in corrispondenza alle quali si ottengono le due rette r1 , parallela a r1 = (1, 0, 1) e
r2 parallela a r2 = (1, 2, 3) che appartengono a Q.
700 Coni, Cilindri, Superfici di Rotazione e Quadriche
⇡ : (x 1) (y + 1) z = 0,
che coincide con l’equazione del piano tangente all’iperboloide nel punto A rica-
vata con la regola degli sdoppiamenti.
Nella Figura 12.47 sono rappresentati l’iperboloide e il piano ad esso tangente nel punto
A. Si vedono anche le due rette di intersezione del piano tangente con la superficie ed è
evidente che il piano tangente all’iperboloide interseca la superficie in più di un punto. Si
può infatti dimostrare che, nel caso dell’iperboloide ad una falda, il piano tangente in ogni
suo punto interseca la superficie nelle due rette (una per ciascuna schiera) passanti per tale
punto e la superficie si dispone in entrambi i semispazi in cui il piano tangente divide lo
spazio. È molto intuitivo riconoscere che questa situazione, invece, non si presenta nel
caso dell’ellissoide in cui il piano tangente in ogni suo punto interseca la superficie solo
nel punto di tangenza e la superficie si dispone in uno solo dei due semispazi in cui il
piano tangente divide lo spazio. La differenza tra le due situazioni geometriche è legata
al concetto di curvatura Gaussiana della superficie, che è una funzione che ad ogni punto
della superficie associa un numero reale che in qualche modo precisa come la superficie
si incurvi in quel punto, nel caso dell’ellissoide la curvatura Gaussiana è positiva in ogni
punto invece nel caso dell’iperboloide ad una falda la curvatura Gaussiana è negativa. Si
possono leggere i dettagli di ciò che è stato ora accennato per esempio su [6] o su [11].
Capitolo 12 701
[5] H. Cartan: Elementary theory of analytic functions of one or several complex va-
riables translated from the French. Reprint of the 1973 edition. Dover Publications,
Inc., New York, 1995.
[6] M.P. do Carmo: Differential Geometry of Curves and Surfaces, Editrice Prentice
Hall, Inc., Upper Saddle River New Jersey, 1976.
[7] F. Fava, F. Tricerri: Geometria e Algebra lineare, Editrice Levrotto e Bella, Torino,
1987.
[8] F. Fava: Lezioni di Geometria analitica, Editrice Levrotto e Bella, Torino, 1960.
[10] F. Fava: Elementi di Algebra Lineare e Geometria, Editrice Levrotto e Bella, Torino,
1976.
[12] S. Greco, P. Valabrega: Lezioni di Geometria, Voll.I e II, Editrice Levrotto e Bella,
Torino, 1999.
703
704 Bibliografia
[13] B.C. Hall: Lie Groups, Lie Algebras and Representations, Graduate Texts in
Mathematics 222, Editrice Springer, New York, 2003.
[14] S. Lang: Linear Algebra, Editrice Addison Wesley, New York, 1966.
[20] A. E. Taylor: Introduction to Functional Analysis, Editrice John Wiley & Sons,
Inc., New York; Chapman & Hall, Ltd., London, 1958.
Indice dei Simboli
705
706 Indice dei Simboli
708
Indice Analitico 709
base ortogonale rispetto ad una forma bilineare circonferenza passante per tre punti nello spa-
simmetrica, 376 zio, 591
base ortonormale in V1 , 107 classi di equipollenza in S3 , 133
base ortonormale in V2 , 107 classificazione delle coniche nel piano, 510
base ortonormale in V3 , 107 classificazione delle quadriche, 671
base ortonormale in in uno spazio vettoriale eu- codominio di un’applicazione lineare, 237
clideo, 211 coefficiente angolare di una retta nel piano, 429
base ortonormale positiva (negativa) in V2 , 128 coefficienti delle equazioni di un sistema linea-
base ortonormale positiva (negativa) in V3 , 117 re, 17
base ortonormale rispetto ad una forma bilinea- coefficienti di un’equazione lineare, 15
re simmetrica, 376 coefficienti di una combinazione lineare di vet-
base unitaria, 233 tori, 151
coefficienti di una combinazione lineare di vet-
calcolo degli autovalori di una matrice quadrata, tori in V3 , 83
307 cofattore di un elemento di una matrice, 65
calcolo dell’inversa di una matrice, 50, 67 colatitudine, 583
cambiamento di base in V3 , 97 colonna torsa, 695
cambiamento di base in uno spazio vettoriale, combinazione lineare di vettori, 151
178 combinazione lineare di vettori in V3 , 83
cambiamento di base nello spazio vettoriale dua- complemento algebrico di un elemento di una
le di uno spazio vettoriale, 281 matrice, 65
cambiamento di base ortonormale in V3 e in V2 , complemento ortogonale, 221
124 componente di un vettore in V1 , 90
centro di un fascio di rette nel piano, 437 componenti di un vettore in V2 , 90
centro di un’ellisse, 463 componenti di un vettore in V3 , 90
centro di un’iperbole, 468 componenti di un vettore rispetto ad una base,
centro radicale di tre cinconferenze, 515 157
cilindri con assi paralleli agli assi coordinati, composizione di applicazioni lineari, 263
626 condizione di parallelismo tra rette nel piano,
cilindro, 622 430
cilindro circolare retto, 633 condizione di perpendicolarità tra rette nel pia-
cilindro circoscritto ad una sfera, 632 no, 431
cilindro ellittico, 670 coniche come equazioni di secondo grado, 494
cilindro immaginario, 670 coniche come intersezione di un cono con un
cilindro iperbolico, 670 piano, 487
cilindro parabolico, 670 coniche come luoghi di punti nel piano, 488
cilindro quadrico, 670 coniche degeneri, 488
circonferenza degenere, 448 coniche in forma polare, 518
circonferenza immaginaria, 448 cono, 607
circonferenza nel piano, 411, 447 cono asintotico ad un iperboloide a due falde,
circonferenza nello spazio, 569 664
circonferenza passante per tre punti nel piano, cono asintotico ad un iperboloide ad una falda,
455 662
710 Indice Analitico
forma quadratica semidefinita positiva (semide- iperboloide di rotazione ad una falda, 643
finita negativa), 367 iperpiano vettoriale, 180
formula di Grassmann, 165, 188 isometria, 293
funzione nulla, 139 isometria complessa, 300
funzione omogenea di grado k , 610 isomorfismo canonico tra uno spazio vettoriale
fuochi di un’ellisse, 461 ed il suo biduale, 284
fuochi di un’iperbole, 467 isomorfismo canonico tra uno spazio vettoriale
fuoco di una conica, 490 ed il suo duale, 283
fuoco di una parabola, 478 isomorfismo tra due spazi vettoriali, 258
sottospazio vettoriale delle matrici diagonali, 143 teorema dell’esistenza di una base, 158
sottospazio vettoriale delle matrici simmetriche, teorema della dimensione, 158
144 teorema di Cayley–Hamilton, 333
sottospazio vettoriale delle matrici triangolari su- teorema di Cramer, 70
periori (inferiori), 143 teorema di Gauss–Lagrange, 379
sottospazio vettoriale finitamente generato, 153 teorema di nullità più rango, 172, 174
sottospazio vettoriale immagine del dominio di teorema di Pitagora, 208
un’applicazione lineare, 251 teorema di Pitagora nel caso hermitiano, 232
sottospazio vettoriale ortogonale ad un sottospa- teorema di Rouché–Capelli, 25, 191
zio vettoriale rispetto ad una forma bi- teorema di Sylvester, 379
lineare simmetrica, 356 teorema fondamentale delle applicazioni linea-
span di k vettori, 151 ri, 240
spazi vettoriali isomorfi, 258 teorema spettrale, 316
spazio vettoriale Cn , 197 teorema spettrale in campo complesso, 337
spazio vettoriale Cm,n , 198 termine noto di un’equazione lineare, 15
spazio vettoriale Q, 139 toro (superficie torica), 642
spazio vettoriale Rn , 139 traccia di una matrice quadrata, 55
spazio vettoriale Rm,n , 139 trasformazione lineare tra due spazi vettoriali,
spazio vettoriale F(R), 139 237
spazio vettoriale biduale, 283 trasformazione ortogonale, 293
spazio vettoriale complesso, 138 trasformazione unitaria, 300
spazio vettoriale dei polinomi con una variabile traslazione nel piano, 416
a coefficienti reali, 140 traslazione nello spazio, 586
),
spazio vettoriale delle applicazioni lineari L(V, W trasposta di un’applicazione lineare, 288
263
spazio vettoriale delle colonne di una matrice,
unione di due sottospazi vettoriali, 145
169
spazio vettoriale delle righe di una matrice, 168
spazio vettoriale duale, 278 verso di un vettore in V3 , 75
spazio vettoriale duale di uno spazio vettoriale versore di un vettore in V3 , 76
complesso, 281 vertice del cono, 607
spazio vettoriale euclideo, 203 vertice di una parabola, 479
spazio vettoriale finitamente generato, 153 vertici di un’ellisse, 463
spazio vettoriale hermitiano (euclideo comples- vertici di un’iperbole, 468
so), 229 vettore controimmagine di un vettore mediante
spazio vettoriale reale, 137 un’applicazione lineare, 237
spettro di un endomorfismo, 304 vettore immagine di un vettore mediante un’ap-
superficie dalla volta a sbieco, 690 plicazione lineare, 237
superficie di rotazione, 640 vettore in V3 , 76
superficie rigata, 653 vettore in uno spazio vettoriale, 138
vettore isotropo, 362
teorema del completamento della base, 162 vettore nullo di V3 , 76
teorema del rango, 169, 192, 258 vettore nullo in uno spazio vettoriale, 138
Indice Analitico 717