Sei sulla pagina 1di 129

Lezioni di Geometria

Lucian Bădescu, Ettore Carletti, Giacomo Monti Bragadin


2

Introduzione

Mηδǫίς αγǫωµǫ́τρητoς ǫισίτω

Lo scopo di queste note è offrire un testo scritto per il Corso di Geometria Analitica per gli studenti
del secondo semestre del primo anno del Corso di Studi in Matematica. Volendo essere autosufficienti
abbiamo inserito nella prima parte le nozioni e i risultati principali di algebra lineare che sono asso-
lutamente necessari per la seconda parte, benchè facciano parte del programma del Corso di Algebra
Lineare inserito nel primo semestre del primo anno. Questo permette al Lettore di avere a disposizione
tutti i prerequisiti di Algebra Lineare in modo diretto e comodo. Abbiamo altresı̀ voluto fornire una
panoramica leggermente più ampia di quella prevista nel programma ufficiale.
Pur essendo disponibili ottimi manuali di Geometria (ad esempio [12]), ci è sembrato utile per
gli studenti avere un testo il più vicino possibile a quello che si insegna nei corsi del primo anno. In
particolare lo studio delle coniche e delle quadriche è, in queste note, più approfondito e dettagliato di
quanto usualmente si trova negli altri testi. Inoltre è peculiare l’utilizzo delle coordinate baricentriche in
Geometria Affine (si veda il capitolo 4).
Queste note provengono, con gli adattamenti necessari, in gran parte da [2].

Genova, 20 Febbraio 2004 L. Bădescu, E. Carletti, G. Monti Bragadin

Abbreviazioni: i.e. (dal latino id est) sta per “cioè”; e.g. (dal latino exempli gratiae) sta per “per
esempio”.
Capitolo 1

Preliminari

Utilizzeremo, in questo libro, le seguenti notazioni:


- N l’insieme dei numeri naturali {1, 2, . . . , },
- Z l’insieme dei numeri interi,
- Q l’insieme dei numeri razionali,
- R l’insieme dei numeri reali
- C l’insieme dei numeri complessi.
Sia X un insieme non vuoto. Denoteremo con P(X) l’insieme di tutti i sottoinsiemi di X (incluso il
sottoinsieme vuoto ∅).

Definizione 1.1 (Relazioni di equivalenza, insiemi quozienti). Siano X un insieme non vuoto e R un
sottinsieme non vuoto del prodotto cartesiano X × X di X per se stesso. Il sottinsieme R si chiama
relazione binaria su X. Se x, y ∈ X, scriveremo xRy, e diremo che x è in relazione R con y, se (x, y) ∈ R. Per
esempio R := {(x, x)|x ∈ X} (la diagonale di X) rappresenta la relazione (binaria) di uguaglianza su X.
Diremo che una relazione binaria R su X è una relazione d’equivalenza se i seguenti tre assiomi sono
soddisfatti:
i) Per ogni x ∈ X si ha xRx. (Riflessività)
ii) Per ogni x, y ∈ X tali che xRy si ha yRx. (Simmetria)
iii) Per ogni x, y, z ∈ X tali che xRy e yRz, si ha xRz. (Transitività)
Esempi 1.2.
1. Sia X = Z e sia n ≥ 2 un numero naturale fissato. Sia

Rn = {(x, y) ∈ Z × Z|x − y ∈ nZ},

dove nZ denota l’insieme dei multipli di n. Si verifica facilmente che Rn è una relazione d’equivalenza
su Z (chiamata la congruenza modulo n).
2. Sia X = Q e R = {(x, y) ∈ Q × Q|x − y ∈ Z}. Si verifica facilmente che anche R è una relazione
d’equivalenza.
Definizione 1.3. Sia data una relazione di equivalenza R su un insieme non vuoto X. Per comodità, se
x, y ∈ X, scriveremo x ∼ y (e leggeremo “x è equivalente a y”) invece di xRy. Se x ∈ X denoteremo con x̂
il sottinsieme {y ∈ X|x ∼ y} di X che chiameremo la classe di equivalenza di x. Abbiamo ovviamente:
i) Per ogni x ∈ X, x ∈ x̂.
S
ii) X = x̂.
x∈X

iii) Per ogni x, y ∈ X, x̂ ∩ ŷ , ∅ se e solo se x̂ = ŷ, se e solo se x ∼ y.

3
4 Capitolo 1. Preliminari

Solo la proprietà iii) ha bisogno di dimostrazione. Si ha x̂ ∩ ŷ , ∅ se e solo se esiste z ∈ X tale che z ∼ x


e z ∼ y, o ancora, tenendo conto degli assiomi di simmetria e transitività, x ∼ y. Ne segue che l’insieme
delle classi di equivalenza costituiscono una partizione di X (Si dice che una famiglia di sottinsiemi di
un insieme non vuoto X forma una partizione di X se X è unione di questa famiglia e due sottinsiemi
della famiglia o coincidono o sono disgiunti).
Chiameremo l’insieme
X/R := {x̂|x ∈ X}
(i cui elementi sono sottinsiemi di X) l’insieme quoziente di X modulo R.
Siano X e R come sopra. Chiameremo sistema completo di rappresentanti di X modulo R una famiglia
{xi }i∈I di elementi di X che godono delle seguenti proprietà:
i) Per ogni (i, j) ∈ I × I, xi Rx j (o semplicemente xi ∼ x j ) se e solo se i = j.
S
ii) X = x̂i .
i∈I
In altre parole, dare un sistema completo di rappresentanti di X modulo R equivale a scegliere in ogni
classe di equivalenza un unico elemento. Per esempio l’insieme {0, 1, ..., n − 1} (rispettivamente l’insieme
[0, 1) ∩ Q) è un sistema completo di rappresentanti per la congruenza modulo n su Z (rispettivamente
per la relazione di equivalenza su Q del secondo Esempio 1.2).
Definizione 1.4 (Azione di un gruppo su un insieme). Sia G un gruppo (non necessariamente commuta-
tivo) la cui operazione è denotata moltiplicativamente, e sia X un insieme non vuoto. Si dice che G agisce
(a sinistra) sull’insieme X se è data un’applicazione f : G × X → X con le seguenti proprietà:
i) Per ogni g, g′ ∈ G e ogni x ∈ X si ha f (g′ g, x) = f (g′ , f (g, x)).
ii) Per ogni x ∈ X si ha f (e, x) = x, dove e è l’elemento neutro del gruppo G.
Se denotiamo g · x := f (g, x), ∀g ∈ G e ∀x ∈ X, allora le proprietà i) e ii) si riscrivono nella forma
(g′ g) · x = g′ · (g · x) e e · x = x.
Se un gruppo G agisce su un insieme X, per ogni x ∈ X denotiamo Orb(x) (e chiamiamo l’orbita di x) il
sottinsieme Orb(x) := {g · x | g ∈ G}. Per ogni x ∈ X, consideriamo il sottinsieme O(x) := {g ∈ G | g · x = x}.
Si verifica facilmente che O(x) è un sottogruppo di G che chiameremo lo stabilizzatore di x (rispetto
all’azione di G su X). Fissato un elemento x ∈ X, definiamo l’applicazione fx : G → Orb(x) mediante
fx (g) = g · x. L’applicazione fx è ovviamente surgettiva. Inoltre, per ogni due elementi g, h ∈ G avremo
fx (g) = fx (h) se e solo se g · x = h · x, quindi se e solo se h−1 · (g · x) = x, o ancora, (h−1 g) · x = x, i.e.
h−1 g ∈ O(x). Ne segue che l’applicazione fx induce una bigezione naturale gx : G/O(x) → Orb(x) (dove
G/O(x) è l’insieme delle classi laterali sinistre di G modulo O(x)) mediante gx ( ĝ) := gx, dove ĝ := gO(x).
Ogni azione di G su X induce una relazione d’equivalenza su X. Infatti per ogni x, y ∈ X diciamo
che x ∼ y se y ∈ Orb(x), i.e. se esiste g ∈ G tale che y = g · x. È immediato verificare che in questo modo
otteniamo una relazione d’equivalenza su X tale che l’insieme di tutte le orbite coincide con l’insieme
quoziente X/ ∼. In particolare, ogni due orbite o coincidono o sono disgiunte, e l’insieme di tutte le orbite
forma una partizione di X.
Definizione 1.5 (Caratteristica di un campo). Ricordiamo che un anello unitario K = (K, +, ·) si chiama
corpo se ogni elemento λ ∈ K, λ , 0, è invertibile, i.e. esiste µ ∈ K tale che λ · µ = µ · λ = 1, dove
1 = 1K , 0 = 0K è l’elemento unità (o l’identità) dell’anello K. Un corpo K si dice commutativo (o campo) se
la sua moltiplicazione è un’operazione commutativa. Esempi di campi: il campo Q dei numeri razionali,
il campo R dei numeri reali, il campo C dei numeri complessi, il campo Zp := Z/pZ delle classi di resto
modulo un numero primo p ≥ 2 fissato.
Sia K un campo. Consideriamo l’omomorfismo canonico di anelli unitari ϕ : Z → K (dove Z è
l’anello degli interi) definito mediante ϕ(n) = n · 1K , dove

1 + · · · + 1K se n > 0
|K {z }







 n volte

n · 1K := 0 K se n = 0




(−1 K ) + · · · + (−1 K ) se n < 0.

| {z }


−n volte
5

Allora Ker(ϕ) := {n ∈ Z | ϕ(n) = 0} è un ideale di Z. Una conseguenza del teorema di divisione con resto
in Z fa vedere che ogni ideale di Z è della forma pZ = {pn | n ∈ Z} con p ≥ 0 (cioè è principale). Ci sono
due possibilità da analizzare:

p = 0: i.e. ϕ è un omomorfismo iniettivo. In questo caso si dice che K è un campo di caratteristica zero.
L’iniettività di ϕ implica che ogni numero intero n , 0 ha immagine , 0K in K, quindi è un
elemento invertibile in K. Ne segue che l’omomorfismo ϕ : Z → K si prolunga in modo unico
a un omomorfismo di campi ϕ̃ : Q → K definito sul campo Q dei numeri razionali mediante
ϕ̃(m/n) = ϕ(m)/ϕ(n), con m, n ∈ Z, n , 0. Poichè ϕ̃ è automaticamente iniettivo ne segue che ogni
campo K di caratteristica zero contiene un sottocampo isomorfo al campo Q dei numeri razionali
(e in particolare, ogni campo di caratteristica zero è infinito). Questo sottocampo, detto sottocampo
primo di K, coincide con l’intersezione di tutti i sottocampi di K.
p > 0: dalla definizione di p ne segue che p è il più piccolo intero positivo con la proprietà che p · 1K = 0K .
In questo caso si dice che K è un campo di caratteristica p > 0 e p si chiama la caratteristica di K.
Osserviamo che p è necessariamente un numero primo. Infatti, p , 1 poichè 1K , 0K . D’altra
parte, se p = mn, con m, n > 1 (quindi m, n < p) allora l’uguaglianza (m · 1K )(n · 1K ) = p · 1K = 0K
implicherebbe m · 1K = 0K o n · 1K = 0K (poichè un campo non ha divisori di zero , 0K ), ciò
che contraddice la definizione di p. Quindi p ≥ 2 è un numero primo. Allora per il I◦ teorema
di isomorfismo di anelli commutativi si ha che K contiene il sottocampo Im(ϕ) := {n · 1K | n ∈ Z}
isomorfo al campo Zp = Z/pZ delle classi di resto modulo p. Di nuovo questo sottocampo coincide
con l’intersezione di tutti i sottocampi di K. Quindi, se p ≥ 2 è un numero primo, ogni campo di
caratteristica p è caratterizzato dal fatto che esiste un suo sottocampo isomorfo al campo Zp .
6 Capitolo 1. Preliminari
Capitolo 2

Spazi vettoriali

Siano K un campo e V un insieme non vuoto.

Definizione 2.1. Sia ϕ : K × V → V un’applicazione arbitraria. Si dice che ϕ è una legge di composizione
esterna, oppure una operazione algebrica esterna di K su V. Se ϕ è una tale legge di composizione esterna di
K su V allora per ogni λ ∈ K ed ogni v ∈ V denoteremo

λ · v := ϕ(λ, v) ∈ V.

Definizione 2.2. Si dice che l’insieme non-vuoto V dotato di una legge di composizione interna + : V ×
V → V, ed anche di una legge di composizione esterna · : K × V → V su K, è uno spazio vettoriale sul campo
K, se (V, +) è gruppo abeliano, e, inoltre, sono soddisfatti i seguenti assiomi:

i) λ · (v1 + v2 ) = λ · v1 + λ · v2 , per ogni λ ∈ K e per ogni v1 , v2 ∈ V (in entrambi i membri l’operazione


“+” si riferisce alla legge di composizione interna + : V × V → V).

ii) (λ + µ) · v = λ · v + µ · v, per ogni λ, µ ∈ K e per ogni v ∈ V (l’operazione “+” del primo membro si
riferisce alla addizione del campo K, mentre l’operazione “+” del secondo membro alla operazione
interna + : V × V → V).

iii) λ · (µ · v) = (λµ) · v per ogni λ, µ ∈ K e per ogni v ∈ V.

iv) 1 · v = v, per ogni v ∈ V, dove 1 è l’elemento unità del campo K.

Quando non c’è nessun pericolo di confusione scriveremo semplicemente λv invece di λ · v (con
λ ∈ K e v ∈ V). Diremo anche che V è uno spazio vettoriale sul campo K, senza precisare esplicitamente
le operazioni + : V × V → V e · : K × V → V. In tale caso gli elementi di K vengono chiamati scalari e gli
elementi di V vettori.
Dalla Definizione 2.2 ne segue subito che per ogni scalare λ ∈ K e per ogni vettore v ∈ V valgono le
uguaglianze seguenti 0K · v = 0V , λ · 0V = 0V e (−λ) · v = λ · (−v) = −λ · v, dove 0K (risp. 0V ) è l’elemento
zero del campo K (risp. l’elemento zero del gruppo abeliano (V, +)). Inoltre, se si ha λ · v = 0V , con λ ∈ K
e v ∈ V, allora ne segue λ = 0K oppure v = 0V . Infatti, se λ , 0, allora λ è invertibile in K (perché K è un
campo). Quindi 0V = λ−1 · 0V = λ−1 · (λ · v) = (λ−1 λ) · v = 1 · v = v.

Esempi 2.3.

1. Per ogni campo K e per ogni intero n ≥ 1, consideriamo l’insieme V := Kn su cui definiamo la legge
di composizione interna + : V × V → V mediante

(a1 , ..., an) + (b1 , ...bn ) := (a1 + b1 , ..., an + bn ), ∀(a1 , ..., an), (b1 , ..., bn ) ∈ V.

7
8 Capitolo 2. Spazi vettoriali

È facile verificare che in questo modo (V, +) diventa un gruppo abeliano. Definiamo inoltre la legge
composizione esterna · : K × V → V ponendo:

λ · (a1 , ..., an) := (λa1 , ..., λan ), ∀λ ∈ K, ∀(a1 , ..., an) ∈ V,

Si verifica facilmente che il gruppo abeliano (V, +) diventa uno spazio vettoriale su K rispetto alla
legge di composizione esterna cosı̀ definita. Questo spazio vettoriale si chiama lo spazio vettoriale
standard di dimensione n sul campo K.
2. Consideriamo l’anello dei polinomi K[X1 , ..., Xn] in n ≥ 1 indeterminate X1 , ..., Xn a coefficienti nel
campo K. Rispetto all’addizione dei polinomi e alla moltiplicazione degli elementi di K (considerati
come polinomi costanti) con polinomi, V := K[X1 , ..., Xn ] diventa uno spazio vettoriale su K.
Per ogni m ≥ 1 denotiamo con Vm l’insieme dei polinomi omogenei di V di grado totale m, e con Wm
il sottoinsieme dei polinomi di V di grado totale ≤ m (in entrambi i casi il polinomio 0 appartiene
per convenzione sia a Vm che a Wm ). Perché la somma di ogni due polinomi di Vm (risp. di Wm )
appartiene a Vm (risp. a Wm ), Vm e Wm sono spazi vettoriali su K.
3. Sia K un campo e sia A un anello unitario tale che A contiene K come sottocampo. Supponiamo in-
oltre che tutti gli elementi di K commutino con tutti gli elementi di A (condizione automaticamente
soddisfatta se A è commutativo). Allora A è spazio vettoriale su K, dove l’operazione di addizione
dei vettori coincide con l’addizione nell’anello A, e se λ ∈ K e v ∈ A, allora λ · v è il prodotto in A
di λ, considerato come elemento di A, con v. In particolare, R è uno spazio vettoriale su Q, C è uno
spazio vettoriale sia su Q che su R.
4. Sia K = R il campo dei numeri reali. Consideriamo l’insieme V di tutte le funzioni continue definite
sull’intervallo [a, b] (a < b) a valori reali. Rispetto all’addizione usuale delle funzioni

( f + g)(x) = f (x) + g(x), ∀ f, g ∈ V, x ∈ [a, b],

l’insieme V diventa un gruppo abeliano. Se inoltre definiamo la legge di composizione esterna


R × V → V, (λ, f ) → λ f (con λ f funzione continua su [a, b] definita mediante la formula

(λ f )(x) = λ f (x), ∀ f ∈ V, ∀λ ∈ R),

allora V diventa spazio vettoriale su R.


Definizione 2.4. Siano V1 e V2 due spazi vettoriali su K. Denotiamo con V := V1 × V2 . Sull’insieme V
definiamo la legge di composizione interna mediante la formula:

(v1 , v2 ) + (w1 , w2 ) := (v1 + w1 , v2 + w2 ), ∀v1 , w1 ∈ V1 , ∀v2 , w2 ∈ V2 .

È facile verificare che, rispetto a questa legge, V diventa un gruppo abeliano, il cui elemento unità (zero)
è 0V := (0V1 , 0V2 ), e l’elemento opposto di (v1 , v2 ) è (−v1 , −v2 ). Definiamo ora la legge di composizione
esterna · : K × V → V mediante la formula:

λ · (v1 , v2 ) := (λv1 , λv2 ), ∀λ ∈ K, ∀v1 ∈ V1 , ∀v2 ∈ V2 .

Si verifica facilmente che il gruppo abeliano (V, +) sopra definito insieme a questa legge di composizione
esterna soddisfa gli assiomi della Definizione 2.2. In altre parole, V = V1 × V2 diventa uno spazio
vettoriale su K rispetto a queste due operazioni. Questo spazio vettoriale su K si chiama spazio vettoriale
prodotto diretto di V1 con V2 su K. D’ora innanzi denoteremo questo spazio vettoriale su K semplicemente
con V1 × V2 .
Definizione 2.5. Sia V uno spazio vettoriale su K. Un sottinsieme non vuoto W di V si chiama sottospazio
vettoriale dello spazio vettoriale V su K se sono soddisfatti i seguenti assiomi:
i) Se v1 , v2 ∈ W allora v1 + v2 ∈ W.
ii) Se v ∈ W e λ ∈ K allora λv ∈ W.
9

Dalla Definizione 2.5 ne segue che, per ogni sottospazio vettoriale W dello spazio vettoriale V su
K, W è sottogruppo del gruppo abeliano (V, +). In particolare, 0V ∈ W. Inoltre, W diventa esso stesso uno
spazio vettoriale su K poichè l’assioma ii) della Definizione 2.5 fa vedere che la legge di composizione
esterna di K su V ne induce una su W. Se V è uno spazio vettoriale su K allora W = V e W ′ = {0V } sono
esempi di sottospazi vettoriali di V.
ProposizioneT 2.6. Sia V uno spazio vettoriale su K e sia {Wi }i∈I una famiglia non vuota di sottospazi vettoriali
di V. Allora Wi è un sottospazio vettoriale di V.
i∈I

Dimostrazione. La dimostrazione segue facilmente dalla Definizione 2.5. 

Definizione 2.7. Sia S un sottinsieme non vuoto di uno spazio vettoriale V su K. Denotiamo con hSi
l’intersezione di tutti i sottospazi vettoriali di V che contengono S (l’insieme dei sottospazi di V che
contengono S è non vuoto perchè V è un tale sottospazio). Dalla Proposizione 2.6 derivano le seguenti
proprietà:
i) hSi è un sottospazio vettoriale di V tale che S ⊆ hSi.
ii) Se W è un sottospazio vettoriale arbitrario di V che contiene S allora hSi ⊆ W.
In altre parole, hSi è il più piccolo sottospazio vettoriale di V che contiene S. Questo sottospazio
vettoriale hSi si chiama il sottospazio vettoriale di V generato da S ⊆ V. Si dice che S genera lo spazio
vettoriale V su K (o che S è un sistema di generatori di V su K) se hSi = V. Se S è un sistema di generatori
di V e se S′ è un sottinsieme di V che contiene S, allora S′ è ancora un sistema di generatori di V.
Definizione 2.8. Siano W1 e W2 due sottospazi di uno spazio vettoriale V su K. Poniamo per definizione

W1 + W2 := hW1 ∪ W2 i.

Il sottospazio vettoriale cosı̀ definito si chiama la somma dei sottospazi W1 e W2 . Quindi, W1 + W2 è il più
piccolo sottospazio vettoriale di V che contiene entrambi i sottospazi W1 e W2 .
Proposizione 2.9. Nelle ipotesi della Definizione 2.8 si ha

W1 + W2 = {v1 + v2 | v1 ∈ W1 , v2 ∈ W2 }.

Dimostrazione. Denotiamo con W ′ il membro destro dell’uguaglianza da dimostrare. È facile verificare


che W ′ è sottospazio vettoriale di V. Poichè ogni vettore v1 ∈ W1 si può scrivere v1 = v1 + 0V , ne segue
che W1 ⊆ W ′ ; analogamente, W2 ⊆ W ′ , da cui W1 + W2 ⊆ W ′ . Poichè l’inclusione opposta è ovvia, la
proposizione è cosı̀ dimostrata. 
Proposizione 2.10. Sia S = {v1 , v2 , ..., vn } ⊆ V un insieme non vuoto finito di vettori dello spazio vettoriale V
sul campo K. Allora si ha

hSi = {a1 v1 + a2 v2 + · · · + an vn | (a1 , a2 , ..., an ) ∈ Kn }.

Dimostrazione. Denotiamo con W il membro destro dell’uguaglianza da dimostrare. L’inclusione W ⊆ hSi


segue subito dalle definizioni. D’altra parte, è chiaro che S ⊆ W. Per dimostrare l’inclusione hSi ⊆ W,
sarà sufficiente provare che W è sottospazio vettoriale di V. Quest’ ultimo fatto segue direttamente dalle
definizioni. 
Per la Proposizione 2.10 ogni vettore v ∈ hSi ha una rappresentazione (non necessariamente unica)
della forma v = a1 v1 + · · · + an vn , con (a1 , ..., an ) ∈ Kn . Una tale rappresentazione si chiama combinazione
lineare a coefficienti in K degli elementi di S = {v1 , ..., vn}. Pertanto la Proposizione 2.10 si può riformulare
dicendo che hSi coincide con l’insieme delle combinazioni lineari a coefficienti in K di elementi di S.
Corollario 2.11. Un sottinsieme S = {v1 , v2 , ..., vn} dello spazio vettoriale V su K è un sistema di generatori di V
se e solo se per ogni vettore v ∈ V esistono a1 , a2 , ..., an ∈ K (che dipendono da v) tali che v = a1 v1 + a2 v2 + · · ·+ an vn .
10 Capitolo 2. Spazi vettoriali

Uno spazio vettoriale V su K che possiede un sistema finito di generatori si chiama spazio vettoriale
finitamente generato su K. D’ora innanzi considereremo solo spazi vettoriali finitamente generati.
Definizione 2.12. Sia V uno spazio vettoriale su K, e sia S = {v1 , v2 , ..., vn } un sottinsieme finito non
vuoto di V. Si dice che S è un sottinsieme linearmente indipendente su K (o che S è un sistema linearmente
indipendente su K) se per ogni a1 , a2 , ...an ∈ K tali che a1 v1 +a2 v2 +· · ·+an vn = 0V , risulta a1 = a2 = ... = an = 0.
Ogni sistema linearmente indipendente contiene solo vettori non nulli (infatti, se per esempio
v1 = 0V , allora avremmo 1 · v1 + 0 · v2 + · · · + 0 · vn = 0V ). Se S = {v1 , v2 , ..., vn } è un sistema linearmente
indipendente (su K) allora vi , v j se i , j (infatti, se per esempio v1 = v2 , allora avremmo 1 · v1 + (−1) ·
v2 + 0 · v3 + · · · + 0 · vn = 0V ). Inoltre, ogni sottinsieme di un sistema linearmente indipendente è ancora
un sistema linearmente indipendente.
Proposizione 2.13. Sia S un sottinsieme finito dello spazio vettoriale V su K. Allora S è un sistema linearmente
indipendente su K se e solo se v < hS \ {v}i, ∀v ∈ S.

Dimostrazione. Sia S = {v1 , ..., vn}. Supponiamo che S sia linearmente indipendente su K. Se (per esempio)
v1 ∈ h{v2 , ..., vn }i, per la Proposizione 2.10 esistono a2 , ..., an ∈ K tali che v1 = a2 v2 + · · · + an vn . Quest’ultima
uguaglianza si può ancora scrivere (−1)v1 + a2 v2 + · · · + an vn = 0, ciò che contraddice il fatto che S è
linearmente indipendente.
Viceversa, supponiamo che v < hS \ {v}i, ∀v ∈ S. Se S non fosse un sistema linearmente indipendente
su K, esisterebbe (a1 , ..., an ) ∈ Kn \ {(0, ..., 0)} tale che a1 v1 + · · · + an vn = 0. Supponiamo per esempio
a1 , 0. Poichè K è campo, a1 è invertibile in K. Allora questa uguaglianza si può ancora scrivere
a−1
1
(a1 v1 ) = a−1
1
((−a2 )v2 + · · ·+ (−an )vn ). Per la definizione di spazio vettoriale avremo che v1 = (−a−1 a )v +
1 2 2
−1
· · · + (−a1 an )vn , da cui, applicando sempre la Proposizione 2.10, otteniamo v1 ∈ hS \ {v1 }i, che è un
assurdo. 

Definizione 2.14. Sia V uno spazio vettoriale su K. Si dice che un sottinsieme S = {v1 , ..., vn} di V è una
base di V su K se S è sia un sistema di generatori di V su K, che un sistema linearmente indipendente su
K.
Teorema 2.15. Sia V uno spazio vettoriale sul campo K. Allora ogni sistema finito di generatori di V su K contiene
una base di V su K. In particolare, ogni spazio vettoriale finitamente generato su K possiede almeno una base su K.

Dimostrazione. Se V = {0V } allora conveniamo che V ammetta come base il sottinsieme vuoto di V.
Supponiamo quindi V , {0V }, e sia S un sistema finito di generatori di V. Se esiste v ∈ S tale che
v ∈ hS \ {v}i, allora l’insieme S \ {v} è ancora un sistema di generatori di V.
Infatti, se S = {v1 = v, v2 , ..., vn}, per ipotesi esistono a2 , ..., an ∈ K tali che v1 = a2 v2 + · · · + an vn
(Proposizione 2.10). Se w ∈ V è un qualsiasi vettore, poichè S genera V, ne segue che esistono b1 , ..., bn ∈ K
tali che w = b1 v1 + · · · + bn vn . Sostituendo l’uguaglianza precedente nell’ultima relazione otteniamo
w = (b2 + b1 a2 )v2 + · · · + (bn + b1 an )vn , quindi, per la Proposizione 2.10, S \ {v} è un sistema di generatori
di V (se v ∈ hS \ {v}i).
Questo discorso ci fa vedere che, togliendo a S un numero finito di elementi, possiamo supporre
che S sia un sistema di generatori di V con la proprietà che per ogni v ∈ S, v < hS \ {v}i. Allora per la
Proposizione 2.13 si deduce che S è un sistema linearmente indipendente (quindi una base) per V. 

Teorema 2.16. Sia V spazio vettoriale su K. Sia S = {v1 , ..., vn}, n ≥ 1, un sistema linearmente indipendente
e S′ = {w1 , ..., wm } un sistema di generatori di V su K. Allora n ≤ m e, modulo una permutazione dell’insieme
{w1 , ..., wm }, l’insieme {v1 , ..., vn , wn+1 , ..., wm } è un sistema di generatori di V su K.

Dimostrazione. Poichè S′ è un sistema di generatori di V, per il Corollario 2.11 esistono a1 , ..., am ∈ K tali
che v1 = a1 w1 + · · · + am wm . Poichè v1 , 0 (S è un sistema linearmente indipendente), almeno uno degli
scalari ai è diverso da zero. Riordinando eventualmente i vettori di S′ , possiamo supporre che a1 , 0.
Poichè K è campo, a1 è invertibile in K, quindi dall’ uguaglianza di sopra deduciamo
w1 = a−1 −1 −1
1 v1 − (a1 a2 )w2 − · · · − (a1 am )wm .

Ora dimostreremo:
11

Affermazione 1. L’insieme {v1 , w2 , ..., wm} è un sistema di generatori di V.

Per dimostrare l’Affermazione 1, sia v ∈ V un vettore arbitrario. Poichè S′ genera V, esistono b1 , ..., bm ∈ K
tali che v = b1 w1 + · · · + bm wm , da cui, tenendo conto della relazione di sopra, si ottiene v = b1 (a−1 v −
1 1
(a−1 a
1 2
)w 2 − · · · − (a −1
1 m
a )w m ) + b w
2 2 + · · · + b w
m m = (b a
1 1
−1
)v 1 + (b2 − b a −1
1 1 2 a )w 2 + · · · + (bm − b a −1
1 1 m a )w m , ciò
che dimostra l’Affermazione 1 (usando sempre il Corollario 2.11).
Supponiamo ora, per induzione, che {v1 , ..., vi, wi+1 , ..., wm } sia un sistema di generatori di V, per un
i tale che 1 ≤ i ≤ n − 1 (in particolare, i ≤ m). Allora esistono c1 , ..., cm ∈ K tali che vi+1 = c1 v1 + · · · + ci vi +
ci+1 wi+1 + · · · + cm wm . Se ci+1 = · · · = cm = 0, o se i = m, risulterebbe che {v1 , ..., vi, vi+1 } non è linearmente
indipendente, ciò che contraddice l’ipotesi che S è linearmente indipendente. Ne segue che i < m e
che esiste almeno un j ∈ {i + 1, ..., m} tale che c j , 0. Riordinando, se necessario, i vettori {wi+1 , ..., wm },
possiamo quindi supporre ci+1 , 0. Poichè K è campo, ci+1 è invertibile in K. Allora la relazione di sopra
implica
wi+1 = (−c−1 −1 −1
i+1 c1 )v1 + · · · + (−ci+1 ci )vi + ci+1 vi+1 +

+(−c−1 −1
i+1 ci+2 )wi+2 + · · · + (−ci+1 cm )wm .

Per dimostrare il teorema è sufficiente provare il seguente passo d’induzione:

Affermazione 2. Nelle ipotesi di sopra, {v1 , ..., vi, vi+1 , wi+2 , ..., wm } è un sistema di generatori di
V.

Procedendo come sopra, sempre usando il Corollario 2.11, dimostrare l’Affermazione 2 equivale a far
vedere che per ogni v ∈ V esistono λ1 , ..., λm ∈ K tali che v = λ1 v1 +· · ·+λi vi +λi+1 vi+1 +λi+2 wi+2 +· · ·+λm wm .
Ma, per l’ipotesi induttiva, {v1, ..., vi, wi+1 , ..., wm } è un sistema di generatori di V, quindi esistono d1 , ..., dm ∈
K tali che v = d1 v1 + · · · + di vi + di+1 wi+1 + · · · + dm wm . Tenendo conto della relazione di sopra otteniamo

v = (d1 − di+1 c−1 −1


i+1 c1 )v1 + · · · + (di − di+1 ci+1 ci )vi +

+di+1 c−1 −1 −1
i+1 vi+1 + (di+2 − di+1 ci+1 ci+2 )wi+2 + · · · + (dm − di+1 ci+1 cm )wm ,

ciò che dimostra l’Affermazione 2 (e quindi anche il teorema). 

Corollario 2.17. Sia V uno spazio vettoriale finitamente generato su K, e sia S ⊆ V un sottinsieme finito. Allora
ogni sistema linearmente indipendente di V è finito. Inoltre, le seguenti affermazioni sono equivalenti:

(i) S è una base di V su K.

(ii) S è un sistema di generatori di V su K minimale.

(iii) S è un sistema linearmente indipendente di V su K massimale.

Dimostrazione. Osserviamo innanzitutto che se {v1 , ..., vn} (con n ≥ 1) è un sistema linearmente indipen-
dente, e se vn+1 è un vettore arbitrario di V, allora {v1 , ..., vn , vn+1 } è un sistema linearmente indipendente
se e solo se vn+1 < h{v1 , ..., vn}i. La necessità dell’ultima condizione segue dalla Proposizione 2.13. Vicev-
ersa, supponiamo che vn+1 < hv1 , ..., vn i, e siano a1 , ..., an , an+1 ∈ K tali che a1 v1 + · · · + an vn + an+1 vn+1 = 0.
Se an+1 = 0, allora necessariamente a1 = · · · = an = 0 (poichè {v1 , ..., vn } è un sistema linearmente in-
dipendente). Se invece an+1 , 0, allora an+1 è invertibile in K, da cui si deduce l’uguaglianza vn+1 =
(−a−1 a )v + · · · + (−a−1
n+1 1 1
a )v , che, per il Lemma 2.11 contraddice la nostra ipotesi. Pertanto la nostra
n+1 n n
affermazione è dimostrata.
L’equivalenza tra (i) e (ii) segue dal Teorema 2.15. Invece l’equivalenza tra (i) e (iii) si deduce
nel modo seguente. L’implicazione (i) =⇒ (iii) si ottiene immediatamente dall’osservazione di sopra.
Viceversa, sia S un sistema linearmente indipendente massimale. Se S non fosse un sistema di generatori
di V esisterebbe un vettore v ∈ V tale che v < hSi. Allora dall’osservazione di sopra risulta che S ∪ {v} è
un sistema linearmente indipendente, ciò che contraddice la massimalità di S. 

Corollario 2.18. Sia V uno spazio vettoriale finitamente generato su K. Allora:


12 Capitolo 2. Spazi vettoriali

(i) Ogni sistema linearmente indipendente di V su K può essere completato a una base di V su K.
(ii) Da ogni sistema di generatori di V su K si può estrarre una base di V su K.

Dimostrazione. Conseguenza immediata del corollario precedente. 

Corollario 2.19. Sia V uno spazio vettoriale finitamente generato su K. Allora V possiede una base finita su K e
ogni due basi di V su K hanno lo stesso numero di elementi.

Dimostrazione. L’esistenza di una base finita di V su K segue dal Teorema 2.15. Siano allora S e S′ due
basi di V su K. Considerando S come sistema linearmente indipendente e S′ come sistema di generatori
e applicando il Teorema 2.16 otteniamo che la cardinalità di S è ≤ cardinalità di S′ . Scambiando i ruoli si
ottiene la diseguaglianza opposta. 

Corollario 2.20. Sia S = {v1 , ..., vn} una base dello spazio vettoriale V su K. Allora per ogni vettore v ∈ V esiste
un’ unica n-upla (a1 , ..., an ) ∈ Kn tale che v = a1 v1 + · · · + an vn .

Dimostrazione. L’esistenza di una tale rappresentazione segue dal fatto che S è un sistema di generatori di
V su K via la Proposizione 2.10. Sia ora v = b1 v1 + · · ·+ bn vn , con (b1 , ..., bn ) ∈ Kn , un’altra rappresentazione
di v come combinazione lineare di v1 , ..., vn . Ne segue che (a1 − b1 )v1 + · · · + (an − bn )vn = 0, da cui ai − bi = 0
∀i = 1, ..., n, poichè S è un sistema linearmente indipendente. 

Definizione 2.21. Nelle ipotesi del Corollario 2.20, gli scalari a1 , ..., an si chiamano le coordinate del vettore
v rispetto alla base {v1 , ..., vn}.
Definizione 2.22. Sia V uno spazio vettoriale finitamente generato su K. Se V , 0V , si chiama dimensione
di V su K, e si denota dimK (V), il numero degli elementi di una base di V (su K). Se V = 0V (in tal caso si
dice che V è lo spazio nullo) allora poniamo per definizione dimK (V) = 0 (in altre parole, lo spazio nullo
ha come base l’insieme vuoto).
Il Corollario 2.19 fa vedere la Definizione 2.22 dipende solo dallo spazio vettoriale V su K, e non
dalla scelta della base di V (su K). D’ora innanzi useremo la terminologia di spazio vettoriale di dimensione
finita su K invece di “spazio vettoriale finitamente generato su K”.
Corollario 2.23. Sia V uno spazio vettoriale di dimensione finita su K e sia W un sottospazio di V. Allora W è
ancora uno spazio vettoriale di dimensione finita. Inoltre, dimK (W) ≤ dimK (V), l’uguaglianza avendosi se e solo
se W = V.

Dimostrazione. Sia dimK (V) = n, e S = {e1 , ..., en } una base di V su K. Se S′ ⊆ W è un insieme finito
linearmente indipendente su K, allora dal Teorema 2.16 ne segue che il numero degli elementi di S′ è
≤ n. Ciò implica che W ammette una base finita S′ con m elementi, dove m = dimK (W) ≤ n = dimK (V)
(Teorema 2.15). Se W := hS′ i , V, allora esiste un v ∈ V \ W. Per la dimostrazione del Corollario 2.17 ne
segue che S ∪ {v} è un sistema linearmente indipendente di V, da cui m < n. 

Esempi 2.24. 1. Sia V = Kn lo spazio vettoriale standard dell’ Esempio 2.3, 1). Per ogni i = 1, ..., n
consideriamo il vettore ei = (0, ..., 0, 1, 0, ..., 0) (con 1 al i-esimo posto e zero altrove). Allora B :=
{e1 , ..., en } è una base di V su K (la verifica è facile ed è lasciata al lettore), per cui dimK (Kn ) = n.
La base {e1 , ..., en } si chiama la base canonica dello spazio vettoriale standard Kn su K. Questo fatto
dà una giustificazione alla terminologia spazio vettoriale standard di dimensione n su K introdotta
nell’Esempio 2.3, 1).
2. Sia K un campo e sia
 
 a11 a12 ··· a1n 
 a a22 ··· a2n 
 21 
A :=  . .. .. .. 
 .. . . .


 
am1 am2 ··· amn
13

una matrice a m righe e n colonne a coefficienti in K (con m, n ≥ 1). Nello spazio vettoriale standard
Kn di dimensione n su K consideriamo i vettori vi := (ai1 , ..., ain ) ∈ Kn , ∀i = 1, ..., m, e denotiamo con
hv1 , ..., vmi il sottospazio vettoriale di Kn generato dall’insieme {v1 , ..., vm}. Utilizzando il concetto
di dimensione vettoriale possiamo definire il concetto di rango, o caratteristica della matrice A
mediante la formula
rang(A) := dimK (hv1 , ..., vm i).

Dalla definizione ne segue che


rang(A) ≤ min{m, n}.
In particolare, rang(A) = m se e solo se S è un sistema linearmente indipendente su K. Inoltre, S è
un sistema di generatori di Kn su K se e solo se rang(A) = n (quindi, necessariamente, m ≥ n).
3. Consideriamo il campo C dei numeri complessi visto come spazio vettoriale su R (Esempio 2.3,
4)). Allora S = {1, i} è una base di C su R.
√3 √3 √3 √3
4. Consideriamo l’insieme Q( 2) := {a + b 2 + c 4 | a, b, c √∈ Q}. È facile verificare che Q( 2) è un
3
campo che contiene Q come sottocampo. In particolare, Q( 2) è uno spazio vettoriale su Q. È anche
√3 √3 √3
facile verificare che S = {1, 2, 4} è una base di Q( 2) su Q. (Suggerimento: si usi il fatto che il
polinomio X3 − 2 è irriducibile in Q[X].)
Proposizione 2.25. Siano V e W due spazi vettoriali di dimensione finita su K. Se {v1 , ..., vn} è una base di V e
{w1 , ..., wm } è una base di W (su K), allora

{(v1 , 0W ), ..., (vn, 0W ), (0V , w1 ), ..., (0V , wm )}

è una base dello spazio vettoriale prodotto diretto V × W su K. In particolare, V × W è uno spazio vettoriale di
dimensione finita su K e
dimK (V × W) = dimK (V) + dimK (W).

Dimostrazione. Siano a1 , ..., an , b1 , ..., bm ∈ K tali che a1 (v1 , 0W )+· · ·+an (vn , 0W )+b1 (0V , w1 )+· · ·+bm (0V , wm ) =
(0V , 0W ). Tenendo conto della definizione di prodotto diretto di spazi vettoriali, l’uguaglianza di sopra
è equivalente alle seguenti uguaglianze a1 v1 + · · · + an vn = 0V e b1 w1 + · · · + bm wm = 0W , che a loro volta
implicano (tenendo conto delle nostre ipotesi) a1 = · · · = an = b1 = · · · = bm = 0.
Dimostriamo ora che questi vettori generano lo spazio V×W. Sia (v, w) ∈ V×W un vettore arbitrario.
Poichè {v1 , ..., vn} è una base di V, esistono a1 , ..., an ∈ K tali che v = a1 v1 + · · · + an vn . Analogamente,
w = b1 w1 + · · · + bm wm , con b1 , ..., bm ∈ K. Allora (v, w) = a1 (v1 , 0W ) + · · · + an (vn , 0W ) + b1 (0V , w1 ) + · · · +
bm (0W , wm ). 

Definizione 2.26. Siano V e W due spazi vettoriali su K. Un’applicazione f : V → W si chiama omo-


morfismo (o applicazione lineare) di spazi vettoriali su K (o di K-spazi vettoriali) se sono soddisfatti i seguenti
assiomi:
i) Per ogni v1 , v2 ∈ V si ha f (v1 + v2 ) = f (v1 ) + f (v2 ). (additività)
ii) Per ogni v ∈ V e ogni λ ∈ K si ha f (λ · v) = λ · f (v). (omogeneità)

Un omomorfismo di spazi vettoriali f : V → W su K si chiama isomorfismo di spazi vettoriali su K se


esiste un omomorfismo di spazi vettoriali su K g : W → V tale che g ◦ f = idV e f ◦ g = idW .
Proposizione 2.27. (i) Per ogni spazio vettoriale V su K, l’applicazione identica idV : V → V è un omomorfismo
di spazi vettoriali su K (infatti, idV è anche un isomorfismo di spazi vettoriali su K).
(ii) Per ogni due omomorfismi di spazi vettoriali f : V → W e g : W → U su K, la composizione g ◦ f : V → U è
un omomorfismo di spazi vettoriali su K.
(iii) Sia f : V → W un omomorfismo di spazi vettoriali su K. Allora f è un isomorfismo di spazi vettoriali su K se
e solo se f è un’applicazione bigettiva.

Dimostrazione. Esercizio. 
14 Capitolo 2. Spazi vettoriali

Esempi 2.28. 1. Se W è uno spazio vettoriale su K e se V è un sottospazio vettoriale di W, allora


l’inclusione canonica i : V → W è un omomorfismo di spazi vettoriali su K.
2. Sia  
 a11 a12 ··· a1n 
 a a22 ··· a2n 
 21 
A :=  . .. .. .. 
 .. . . .


 
am1 am2 ··· amn
una matrice a m righe e n colonne (m, n ≥ 1) a coefficienti in K. Considerando gli spazi vettoriali
standard su K, Km e Kn , di dimensione m e n rispettivamente (vedi l’Esempio 2.3, 1)), definiamo
l’applicazione f : Km → Kn mediante la formula f (x1 , ..., xm ) = (y1 , ..., yn), dove:
m
X
yi := a ji x j , ∀i = 1, ..., n.
j=1

Si verifica facilmente che f è un omomorfismo di spazi vettoriali su K.


Definizione 2.29. L’insieme di tutti gli omomorfismi di spazi vettoriali su K definiti su V a valori in W
verrà denotato con HomK (V, W). Se f, g ∈ HomK (V, W) definiamo l’applicazione f + g : V → W mediante
la formula
( f + g)(v) := f (v) + g(v), ∀v ∈ V.
È facile verificare che f + g ∈ HomK (V, W). In particolare, sull’insieme HomK (V, W) viene cosı̀ definita
un’operazione algebrica rispetto alla quale HomK (V, W) diventa un gruppo abeliano. L’elemento neutro
è l’omomorfismo 0 : V → W definito da 0(v) := 0W ∀v ∈ V, e se f ∈ HomK (V, W) allora l’opposto di f ,
denotato − f , è l’omomorfismo definito da (− f )(v) = − f (v) ∀v ∈ V.
Per ogni λ ∈ K e per ogni f ∈ HomK (V, W) definiamo l’applicazione λ f : V → W mediante la formula
(λ f )(v) = λ f (v). È facile vedere che λ f ∈ HomK (V, W). In questo modo otteniamo una legge di compo-
sizione esterna K × HomK (V, W) → HomK (V, W) rispetto alla quale il gruppo abeliano (HomK (V, W), +)
diventa un K-spazio vettoriale.
Se V, W, U sono tre spazi vettoriali su K, e se f ∈ HomK (V, W) e g ∈ HomK (W, U) sono omomorfismi
di spazi vettoriali allora si verifica facilmente che la composizione g ◦ f : V → U è un omomorfismo di
K-spazi vettoriali. In altre parole, per ogni tre spazi vettoriali V, W, U su K si ottiene l’applicazione

HomK (V, W) × HomK (W, U) → HomK (V, U)

definita da ( f, g) → g ◦ f . Le seguenti proprietà sono immediate:

g ◦ ( f1 + f2 ) = g ◦ f1 + g ◦ f2 , (g1 + g2 ) ◦ f = g1 ◦ f + g2 ◦ f,

∀ f, f1 , f2 ∈ HomK (V, W) e ∀g, g1 , g2 ∈ HomK (W, U).


Un omomorfismo di K-spazi vettoriali della forma f : V → V si chiama endomorfismo del K-spazio
vettoriale V. L’insieme di tutti gli endomorfismi di K-spazi vettoriali di V verrà denotato con EndK (V).
Quindi, EndK (V) = HomK (V, V). Da quello che precede si ha che EndK (V) diventa, munito delle oper-
azioni algebriche “+” e “◦”, un anello unitario R (con 1R = idV ), non commutativo se dimK (V) ≥ 2.
Per esempio, consideriamo il prodotto diretto V := V1 × V2 di due spazi vettoriali V1 e V2 su K
e le applicazioni i1 : V1 → V, i2 : V2 → V, p1 : V → V1 e p2 : V → V2 definite mediante le formule:
i1 (v1 ) = (v1 , 0V2 ), i2 (v2 ) = (0V1 , v2 ), p1 (v1 , v2 ) = v1 e p2 (v1 , v2 ) = v2 , ∀v1 ∈ V1 e ∀v2 ∈ V2 . Si verifica senza
difficoltà che i1 , i2 , p1 e p2 sono omomorfismi di spazi vettoriali su K. Gli omomorfismi i1 e i2 sono iniettivi
e si chiamano le iniezioni canoniche del prodotto diretto V1 × V2 ; invece gli omomorfismi p1 e p2 sono
surgettivi e si chiamano le proiezioni canoniche del prodotto diretto V1 × V2 . Inoltre abbiamo le identità
p1 ◦ i1 = idV1 , p2 ◦ i2 = idV2 , p2 ◦ i1 = 0 (risp. p1 ◦ i2 = 0), e i1 ◦ p1 + i2 ◦ p2 = idV .
Definizione 2.30. Se nella Definizione 2.29 prendiamo W = K (lo spazio vettoriale standard di dimen-
sione 1) otteniamo lo spazio vettoriale V ∗ := HomK (V, K) su K che verrà chiamato il duale algebrico dello
spazio vettoriale V su K. Gli elementi di V ∗ si chiamano funzionali lineari su V.
15

Esempio 2.31. Consideriamo lo spazio vettoriale V su R di tutte le funzioni continue sull’intervallo [a, b]
(a < b) a valori reali (vedere l’Esempio 2.3, 4)). Allora l’applicazione ϕ : V → R definita da
Z b
ϕ( f ) := f (t)dt, ∀ f ∈ V,
a

è un funzionale lineare su V, i.e. ϕ ∈ V ∗ .

Definizione 2.32. Sia f : V → W un omomorfismo di spazi vettoriali su K, e siano V ∗ e W ∗ i duali


algebrici di V e W rispettivamente. Se α ∈ W ∗ = HomK (W, K) è un funzionale lineare di W allora
α ◦ f ∈ V ∗ = HomK (V, K) è un funzionale lineare di V (perchè la composizione di due omomorfismi di
K-spazi vettoriali è un omomorfismo di K-spazi vettoriali). In questo modo otteniamo un’applicazione
f ∗ : W ∗ → V ∗ definita da f ∗ (α) := α ◦ f . È chiaro che f ∗ (α + β) = f ∗ (α) + f ∗ (β), ∀α, β ∈ W ∗ , (ciò significa che
(α + β) ◦ f = α ◦ f + β ◦ f ), e f ∗ (αλ) = f ∗ (α)λ, ∀α ∈ W ∗ e ∀λ ∈ K. In altre parole, f ∗ : W ∗ → V ∗ definisce
un omomorfismo di K-spazi vettoriali. L’omomorfismo f ∗ : W ∗ → V ∗ si chiama il duale algebrico dell’
omomorfismo f : V → W.
Lemma 2.33. Per ogni due omomorfismi di K-spazi vettoriali f : V → W e g : W → U si ha l’uguaglianza
(g ◦ f )∗ = f ∗ ◦ g∗ . Inoltre, per ogni spazio vettoriale V su K si ha l’uguaglianza (idV )∗ = idV∗ , dove con idV
abbiamo denotato l’applicazione identica di V.

Dimostrazione. La Dimostrazione è immediata ed è lasciata al Lettore come esercizio. 

Proposizione 2.34. Se V e W sono spazi vettoriali di dimensione finita su K e se esiste un isomorfismo f : V → W


di K-spazi vettoriali, allora dimK (V) = dimK (W).

Dimostrazione. La Dimostrazione è immediata ed è lasciata al Lettore come esercizio. 

Proposizione 2.35. Sia f : V → W un omomorfismo di K-spazi vettoriali. Denotiamo:

Ker( f ) := {v ∈ V | f (v) = 0W },

Im( f ) := {w ∈ W | ∃v ∈ V : f (v) = w}.


Allora Ker( f ) (chiamato il nucleo dell’ omomorfismo f ) è sottospazio vettoriale di V, e Im( f ) (chiamata l’immagine
dell’ omomorfismo f ) è sottospazio vettoriale di W. Inoltre l’omomorfismo f è injettivo se e solo se Ker( f ) = {0V }.
L’omomorfismo f è surgettivo se e solo se Im( f ) = W.

Dimostrazione. La prima parte segue facilmente dalle definizioni (esercizio per il lettore). L’ultima af-
fermazione è banale. Supponiamo ora f iniettivo. Se v ∈ Ker( f ), allora f (v) = 0W , e poichè f (0V ) = 0W
(conseguenza dell’additività di f ), ne segue f (v) = f (0V ), quindi v = 0V , i.e. Ker( f ) = {0V }. Viceversa,
supponiamo che Ker( f ) = {0V } e che f (v1 ) = f (v2 ) con v1 , v2 ∈ V. Allora f (v1 − v2 ) = f (v1 ) + f ((−1)v2 ) =
f (v1 ) + (−1) f (v2) = f (v1 ) − f (v2 ) = 0W , quindi v1 − v2 ∈ Ker( f ) = {0V }, da cui v1 = v2 . 

Teorema 2.36. Sia f : V → W un omomorfismo di spazi vettoriali su K. Supponiamo che V e W siano spazi
vettoriali di dimensione finita su K. Allora si ha la formula

dimK (V) = dimK (Ker( f )) + dimK (Im( f )).

Dimostrazione. Se Ker( f ) = {0V }, i.e. se f è iniettivo, o se Im( f ) = {0W }, i.e. f è l’omomorfismo nullo, la
dimostrazione è banale (esercizio per il lettore). Supponiamo quindi che Ker( f ) , {0V } e Im( f ) , {0W }.
Per il Teorema 2.15 e il Corollario 2.18 esiste una base {v1 , ..., vk} di Ker( f ) che può essere completata
a una base {v1 , ..., vk, vk+1 , ..., vn } di V (dunque dimK (Ker( f )) = k e dimK (V) = n ≥ k). Per dimostrare il
Teorema è sufficiente provare che S := {wk+1 , ..., wn } è una base del sottospazio vettoriale Im( f ), dove
wi := f (vi ), ∀i = k + 1, ..., n.
16 Capitolo 2. Spazi vettoriali

Proviamo innanzitutto che S è un sistema linearmente indipendente. Siano quindi (ak+1, ..., an) ∈ Kn−k
tali che ak+1 wk+1 + · · · + an wn = 0W . Tenendo conto della definizione dei wi , l’ultima uguaglianza è
equivalente a ak+1 vk+1 + · · · + an vn ∈ Ker( f ). Poichè {v1 , ..., vk } è una base di Ker( f ), esiste (a1 , ..., ak) ∈ Kk
tale che ak+1 vk+1 + · · · + an vn = a1 v1 + · · · + ak vk , ciò che si può riscrivere

(−a1 )v1 + · · · + (−ak )vk + ak+1 vk+1 + · · · + an vn = 0V .

Siccome {v1 , ..., vn} è una base di V su K, quest’ ultima uguaglianza implica a1 = · · · = ak = ak+1 = · · · =
an = 0. Quindi S è un sistema linearmente indipendente.
Ora proviamo che S è un sistema di generatori del sottospazio Im( f ). Sia w ∈ Im( f ). Allora esiste v ∈
V tale che w = f (v). Poichè {v1 , ..., vn} è una base di V su K, esiste (a1 , ..., an ) ∈ Kn tale che v = a1 v1 +...+an vn .
Tenendo conto che v1 , ..., vk ∈ Ker( f ), avremo f (vi ) = 0W , ∀i = 1, ..., k. Poichè f è omomorfismo di K-spazi
vettoriali, w = f (v) = a1 f (v1 ) + · · · + ak f (vk ) + +ak+1 f (vk+1 ) + · · · + an f (vn ) = ak+1 wk+1 + · · · + an wn . Quindi S
è un sistema di generatori del sottospazio Im( f ). 

Corollario 2.37 (Grassmann). Siano V1 e V2 sottospazi vettoriali di uno spazio vettoriale V di dimensione finita
su K. Allora
dimK (V1 + V2 ) = dimK (V1 ) + dimK (V2 ) − dimK (V1 ∩ V2 ).

Dimostrazione. Consideriamo il prodotto diretto V ′ := V1 × V2 e l’applicazione f : V ′ → V definita da


f (v1 , v2 ) = v1 − v2 , ∀v1 ∈ V1 e ∀v2 ∈ V2 . Tenendo conto della definizione del prodotto diretto, risulta
immediatamente che f è omomorfismo di spazi vettoriali. Utilizzando la Proposizione 2.9 risulta anche
che Im( f ) = V1 + V2 . Inoltre, per la Proposizione 2.25 si ha che dimK (V ′ ) = dimK (V1 ) + dimK (V2 ). In
fine, Ker( f ) = {(v, v) | v ∈ V1 ∩ V2 }. Poichè l’applicazione g : V1 ∩ V2 → Ker( f ) definita da g(v) := (v, v)
è ovviamente un omomorfismo bigettivo, dimK (Ker( f )) = dimK (V1 ∩ V2 ), (si veda la Proposizione 2.34,
(ii) e (iii)). Il Corollario segue allora dal Teorema 2.36. 

Definizione 2.38. Sia f : V → W un omomorfismo di K-spazi vettoriali, con V e W K-spazi vettoriali di


dimensione finita. Si chiama rango, o caratteristica di f , denotato con rang( f ), il numero

rang( f ) := dimK (Im( f )).

Dal Teorema 2.36 risulta la diseguaglianza rang( f ) ≤ min{dimK (V), dimK (W)}.
Considerando l’ esempio di omomorfismo di K-spazi vettoriali f : Km → Kn dell’Esempio 2.28,
2), allora rang( f ) coincide con il concetto usuale di rango della matrice A = |ai j |i=1,...,m, j=1,...,n definito
nell’Esempio 2.24.
Definizione 2.39. Sia V uno spazio vettoriale su K e sia W un sottospazio vettoriale di V su K. Sull’insieme
sottogiacente di V definiamo la relazione d’equivalenza (chiamata congruenza modulo W): se v, v′ ∈ V
sono due vettori arbitrari, diciamo che v è congruo a v′ modulo W, e scriveremo v ≡ v′ (mod W),
se v − v′ ∈ W. Si verifica senza difficoltà che la congruenza modulo W cosı̀ definita è una relazione
d’equivalenza su V. Denotiamo con V/W l’insieme quoziente, ossia l’insieme delle classi di congruenza
modulo W. Per ogni v ∈ V la classe di congruenza v̂ modulo W di v è data da v̂ = v + W := {v + w | w ∈ W}.
Sull’insieme V/W definiamo ora l’addizione di classi mediante la formula x̂ + ŷ := x[ + y, ∀x, y ∈ V.
Questa operazione è ben posta poichè se x̂ = xˆ′ e ŷ = ŷ′ (con x′ , y′ ∈ V) allora (com’è facile verificare),
x[+ y = x[
′ + y′ .

Definiamo anche una legge di composizione esterna K × V/W → V/W mediante la formula a· x̂ = ax, ˆ
∀a ∈ K e x ∈ V. Anche questa definizione è ben posta perchè se x̂ = xˆ′ allora (poichè W è sottospazio
vettoriale) risulta immediatamente che axˆ = axˆ ′ .
Con questa definizione si ha:
Proposizione 2.40. Rispetto alle operazioni sopra introdotte l’insieme V/W diventa uno spazio vettoriale su K
con le proprietà che la proiezione canonica f : V → V/W diventa omomorfismo surgettivo di spazi vettoriali e
Ker( f ) = W. Inoltre, per ogni altro omomorfismo di K-spazi vettoriali g : V → V ′ con la proprietà g(w) = 0V′ ,
∀w ∈ W, esiste un unico omomorfismo g̃ : V/W → V ′ di spazi vettoriali tale che g̃ ◦ f = g.
17

Dimostrazione. La dimostrazione non presenta alcuna difficoltà. L’unicità di g̃ segue dalla surgettività di
f . Per quanto riguarda l’ esistenza, g̃ si definisce mediante la formula g̃(v̂) = g(v). Rimane da verificare
che questa definizione di g̃ è ben posta. Questo equivale a verificare che se v̂ = v̂′ (i.e. v′ = v + w, con
w ∈ W), allora g(v) = g(v′ ). Ora, g(v′ ) = g(v + w) = g(v) + g(w) = g(v), poichè l’ipotesi che W ⊆ Ker(g)
implica g(w) = 0V′ . 

Definizione 2.41. Sia V uno spazio vettoriale su K e sia W un K-sottospazio vettoriale di V. Lo spazio
vettoriale V/W si chiama lo spazio vettoriale quoziente di V modulo W.

Corollario 2.42. Nelle ipotesi e notazioni della Proposizione 2.40, supponiamo inoltre che V sia di dimensione
finita su K. Allora lo spazio vettoriale V/W è ancora di dimensione finita su K, e vale la formula:

dimK (V/W) = dimK (V) − dimK (W).

Dimostrazione. Il Corollario segue dalla Proposizione 2.40 e dal Teorema 2.36. 

Definizione 2.43 (Matrice di passaggio da una base a un’altra.). Sia V uno spazio vettoriale di dimensione
n ≥ 1 su K, e siano S = {v1 , ..., vn } e S′ = {v′1 , ..., v′n } due basi di V su K. Applicando il Corollario 2.20 si
deduce che per ogni i = 1, ..., n esiste una n-upla (a1i , ..., ani ) ∈ Kn tale che

v′i = a1i v1 + · · · + ani vn . (2.1)

La matrice
 
 a11 a12 ··· a1n 


 a21 a22 ··· a2n 

ΛS,S :=  .. .. .. .. 


 . . . . 

an1 an2 ··· ann

si chiama la matrice di passaggio dalla base S alla base S′ . Ovviamente ΛS,S ∈ Mn (K), ove con Mn (K) abbiamo
denotato l’anello delle matrici quadrate n × n a coefficienti in K.

Analogamente possiamo considerare la matrice ΛS ,S = |bi j |i, j=1,...,n ∈ Mn (K), determinata dalle
seguenti relazioni
vi = b1i v′1 + · · · + bni v′n , ∀i = 1, ..., n. (2.2)
Pn n
P n
P n P
P n
Sostituendo (2.1) in (2.2) otteniamo vi = j=1 b ji v′j = b ji ak j v k = ( ak j b ji )vk , ∀i = 1, ..., n. Utiliz-
j=1 k=1 k=1 j=1
zando il Corollario 2.20 si deducono
n
X
ak j b ji = δki , ∀i, k = 1, ..., n.
j=1

′ ′
Queste uguaglianze sono equivalenti all’uguaglianza matriciale ΛS,S · ΛS ,S = 1n , con 1n matrice unità di
′ ′
Mn (K). Analogamente si ha ΛS ,S · ΛS,S = 1n . In questo modo abbiamo dimostrato:

Proposizione 2.44. Siano S e S′ due basi dello spazio vettoriale V di dimensione n su K. Allora la matrice ΛS,S
′ ′
è invertibe nell’anello Mn (K) e (ΛS,S )−1 = ΛS ,S .

Proposizione 2.45. Siano V e W due spazi vettoriali su K, e sia S = {v1 , ..., vn} una base di V su K. Allora
l’applicazione
ϕ : HomK (V, W) → F(S, W)
definita da ϕ( f ) = f |S è una bigezione, dove con F(S, W) abbiamo denotato l’insieme di tutte le funzioni definite
su S a valori in W, con f |S la restrizione dell’omomorfismo f a S. In altre parole dare un K-omomorfismo
f ∈ HomK (V, W) è equivalente a dare i valori di f sugli elementi di una base S di V.
18 Capitolo 2. Spazi vettoriali

Dimostrazione. Applicando il Corollario 2.20, ogni vettore v ∈ V ammette una rappresentazione della
forma v = a1 v1 + · · · + an vn , con l’n-upla (a1 , ..., an ) ∈ Kn univocamente determinata. Poichè f è omo-
morfismo di K-spazi vettoriali ne segue che f (v) = a1 f (v1 ) + · · · + an f (vn ), quindi f è univocamente
determinata da f |S, i.e. l’applicazione ϕ è iniettiva. Quest’applicazione è anche surgettiva poichè se
u ∈ F(S, W) è un’applicazione arbitraria u : S → W, allora la formula fu (v) = a1 u(v1 ) + · · · + an u(vn )
definisce un’applicazione fu : V → W (qui l’unicità della rappresentazione di v nella forma di sopra è
essenziale!). Si verifica immediatamente che fu ∈ HomK (V, W), e che ϕ( fu ) = u. Quindi l’applicazione ϕ
è surgettiva. 

Definizione 2.46 (Matrice associata a un omomorfismo rispetto a una base.). Siano V e W due spazi
vettoriali di dimensione finita su K. Siano S = {v1 , ..., vn } una base di V e T = {w1 , ..., wm } una base di Wsu
K. Applicando il Corollario 2.20, si deduce che per ogni i = 1, ..., n esiste un’unica m-upla (a1i , ..., ami) ∈ Km
tale che
f (vi ) = a1i w1 + · · · + ami wm , ∀i = 1, ..., n.
Allora la Proposizione 2.45 se può riformulare dicendo che dare l’omomorfismo f è equivalente a dare
la matrice M f ∈ M(m, n, K) con M(m, n, K) l’insieme di tutte le matrici m × n a coefficienti in K, con M f
data da:  
 a11 a12 · · · a1n 
 a
 21 a22 · · · a2n 

M f :=  . .. .. .. 
 .. . . . 

am1 am2 · · · amn
La matrice M f = MS,Tf
si chiama la matrice associata all’omomorfismo f ∈ HomK (V, W) rispetto alle
basi S e T di V e W rispettivamente.
D’altra parte, l’insieme M(m, n, K), dotato delle operazioni di addizione di matrici e moltiplicazione
di una matrice per uno scalare diventa uno spazio vettoriale su K (si veda l’Esempio 2.3,1). La corrispon-
denza f → M f definisce ovviamente un omomorfismo di K-spazi vettoriali HomK (V, W) → M(m, n, K).
La Proposizione 2.45 implica:
Teorema 2.47. Sia S = {v1 , ..., vn} una base del K-spazio vettoriale V e T = {w1 , ..., wm} una base del K-spazio
vettoriale W (m, n ≥ 1). Allora l’applicazione M = MS,T : HomK (V, W) → M(m, n, K) definita da M( f ) = M f ,
con M f la matrice associata a f rispetto alle basi S e T sopra definita, è un isomorfismo di K-spazi vettoriali.
Il Teorema 2.47 è interessante specialmente quando V = W, nel qual caso possiamo prendere
S = T = {v1 , ..., vn}. Allora la matrice M f = MSf è quadrata e si chiama la matrice associata all’endomorfismo
f ∈ HomK (V, V) rispetto alla base S. Poichè K è commutativo, gli spazi vettoriali EndK (V) := HomK (V, V) e
Mn (K) := M(n, n, K) possiedono entrambe delle strutture più ricche, cioè sono K-algebre nel senso della
definizione seguente.
Definizione 2.48. Se K è un campo, un anello (non necessariamente commutativo) unitario A si chiama
K-algebra se esiste un omomorfismo di anelli unitari u : K → A tale che u(K) sia contenuto nel centro di
A, dove il centro di un anello unitario A è {a ∈ A|ab = ba : ∀b ∈ A}).
Allora u è necessariamente iniettivo (esercizio per il lettore), quindi K si identifica via u con un
sottocampo di A. Allora A diventa un K-spazio vettoriale come nell’ Esempio 2.3,3). Esempi:
1. A := EndK (V) = HomK (V, V). Allora A è un anello unitario rispetto all’addizione e alla compo-
sizione degli endomorfismi. L’omomorfismo u : K → A è in questo caso dato da u(a) = a · 1A , con
1A = idV . Un endomorfismo u ∈ EndK (V) è automorfismo di V (i.e. omomorfismo bigettivo) se e
solo se u è un elemento invertibile in A. L’insieme GL(V) di tutti i K-automorfismi di V è un gruppo
rispetto alla composizione e coincide con il gruppo degli elementi invertibili di A.
2. B = Mn (K). Allora B è un anello unitario rispetto all’addizione e alla moltiplicazione delle matrici
quadrate e l’omomorfismo u : K → A è in questo caso u(a) = a · 1A , dove 1A è la matrice unitaria
di B = Mn (K). Denoteremo con GLn (K) il gruppo di tutti gli elementi invertibili di B (i.e. di tutte le
matrici di B nonsingolari; una matrice M ∈ B è per definizione nonsingolare se det(M) , 0).
19

In questa situazione si ha la formula M f ◦g = M f · M g . Per verificarla scriviamo M f = |ai j |i, j=1,...,n e


n
P n
P n
P
M g = |bi j |i, j=1,...,n. Allora avremo f (vi ) = a ji v j e g(vk ) = bhk vh , da cui deduciamo f (g(vi )) = f ( b ji v j ) =
j=1 h=1 j=1
n
P n
P n
P n P
P n n
P
b ji f (v j ) = b ji ak j v k = ( ak j b ji )vk . Ne segue che M f ◦g = |cik |i,k=1,...,n, con cki = ak j b ji , ciò che
j=1 j=1 k=1 k=1 j=1 j=1
dimostra la nostra formula.
Definizione 2.49. Siano A e B due K-algebre unitarie (con K campo), e siano u : K → A e v : K → B
gli omomorfismi corrispondenti. Un isomorfismo ϕ : A → B di anelli unitari si chiama isomorfismo di
K-algebre se ϕ ◦ u = v.
Con questa Definizione il Teorema 2.47 implica:
Corollario 2.50. Sia S = {v1 , ..., vn} una base dello spazio vettoriale V su K. Allora la corrispondenza f →
n
P
M f = MSf , con M f = |ai j |i, j=1,...,n data dalle formule f (vi ) = a ji v j , ∀i = 1, ..., n, è un isomorfismo di K-algebre
j=1
da EndK (V) = HomK (V, V) alla K-algebra Mn (K) delle matrici quadrate di ordine n a coefficienti in K. Inoltre,
f ∈ GL(V) se e solo se M f ∈ GLn (K) (i.e. M f è una matrice non singolare).
Sia ora f ∈ EndK (V) un endomorfismo di spazi vettoriale su K, e siano S = {v1 , ..., vn } e S′ = {v′1 , ..., v′n }

due basi di V su K. Siano MSf = |ai j |i, j=1,...,n e MSf = |bi j |i, j=1,...,n le matrici associate a f rispetto a queste due

basi. Sia ancora ΛS,S = |αi j |i, j=1,...,n la matrice di passaggio da S a S′ (si veda la Definizione 2.43). Vogliamo
stabilire un legame tra queste tre matrici.
n
P n
P n
P
Dalle definizioni abbiamo le uguaglianze seguenti f (v′i ) = b ji v′j , f (vi ) = a ji v j , e v′i = α ji v j ,
j=1 j=1 j=1
∀i = 1, ..., n.
Da una parte, tenendo conto di queste uguaglianze, per ogni i = 1, ..., n, si ha:
n
X n
X n
X n
X n X
X n
f (v′i ) = f ( α ji v j ) = α ji f (v j ) = α ji ak j v k = ( ak j α ji )vk ,
j=1 j=1 j=1 k=1 k=1 j=1

dall’altra,
n
X n
X n
X n X
X n
f (v′i ) = b ji v′j = b ji αk j vk = ( αk j b ji )vk .
j=1 j=1 k=1 k=1 j=1
n
P n
P
Applicando il Corollario 2.20 otteniamo, confrontando queste uguaglianze ak j α ji = αk j b ji , ∀i, k =
j=1 j=1
1, ..., n, o ancora,
′ ′ ′
MSf · ΛS,S = ΛS,S · MSf .

In base alla Proposizione 2.44, Λ := ΛS,S è una matrice invertibile in Mn (K), quest’ultima uguaglianza si
riscrive

MSf = Λ−1 · MSf · Λ. (2.3)
In questo modo abbiamo dimostrato la seguente:
Proposizione 2.51. Sia f ∈ EndK (V) un endomorfismo di K-spazi vettoriali e siano S = {v1 , ..., vn } e S′ =
{v′1 , ..., v′n} due basi di V su K. Allora si ha l’eguaglianza (2.3), dove Λ è la matrice di passaggio da S a S′ .
2.52 (Basi duali. Biduale). Sia V uno spazio vettoriale, di dimensione n su K. Sia B := {v1 , ..., vn} una base
di V su K. Per ogni i = 1, ..., n costruiamo il funzionale v∗i ∈ V ∗ (con V ∗ = HomK (V, K) duale algebrico
di V) nel modo seguente. Dalla Proposizione 2.45 segue che dare v∗i equivale a dare i valori v∗i (v j ) ∈ K,
∀j = 1, ..., n. Allora v∗i è l’unico funzionale lineare su V tale che
v∗i (v j ) = δi j , ∀j = 1, ..., n,
dove δi j è il simbolo δ di Kronecker definito da δii = 1, ∀i, e δi j = 0, ∀i , j. In questo modo otteniamo il
sottoinsieme B∗ := {v∗1 , ..., v∗n} del duale algebrico V ∗ .
20 Capitolo 2. Spazi vettoriali

Teorema 2.53. Nelle ipotesi e notazioni di sopra, B∗ è una base del duale algebrico V ∗ . In particolare, V ∗ è uno
spazio vettoriale di dimensione finita su K e dimK (V ∗ ) = n = dimK (V).

Dimostrazione. Dimostriamo innanzitutto che B∗ è un sistema linearmente indipendente su K. Siano


quindi a1 , ..., an ∈ K tali che v∗1 a1 + · · · + v∗n an = 0V∗ . Se j ∈ {1, ..., n} allora abbiamo (v∗1 a1 + · · · + v∗n an )(v j ) =
v∗j (v j )a j = a j , quindi a j = 0, ∀j = 1, ..., n.
Per dimostrare che B∗ è un sistema di generatori di V ∗ , sia f ∈ V ∗ un funzionale qualsiasi di V, e siano
ai := f (vi ), ∀i = 1, ..., n. Dimostriamo che f = v∗1 a1 + · · · + v∗n an . A questo scopo, utilizzando la Proposizione
2.45, tutto si riduce a dimostrare che i due membri dell’uguaglianza da dimostrare coincidono sugli
elementi della base B, i.e. f (vi ) = (v∗1 a1 + · · · + v∗n an )(vi ), ∀i = 1, ..., n. Ora, questa uguaglianza segue
facilmente tenendo conto delle definizioni. 

Definizione 2.54. Nelle ipotesi e notazioni del Teorema 2.53 la base B∗ del duale algebrico V ∗ si chiama
la base duale della base B dello spazio vettoriale V su K.
Ora definiamo il biduale di V, V ∗∗ , come (V ∗ )∗ su K.
Sia ora V uno spazio vettoriale su K. Definim un omomorfismo canonico di K-spazi vettoriali

α : V → V ∗∗ .

A questo scopo sia v ∈ V un vettore qualsiasi; dobbiamo definire il funzionale α(v) : V ∗ → K su V ∗ . Se


f ∈ V ∗ è un qualsiasi funzionale lineare su V, poniamo per definizione

α(v)( f ) = f (v), ∀v ∈ V, ∀ f ∈ V ∗ .

Bisogna innanzitutto dimostrare che α(v) è un funzionale lineare su V ∗ , i.e. α(v)( f + g) = α( f ) + α(g) e
α(v)( f λ) = α( f )λ, ∀ f, g ∈ V ∗ e λ ∈ K. Queste uguaglianze seguono facilmente tenendo conto solo della
definizione di α.
Pertanto otteniamo una definizione ben posta α : V → V ∗∗ . Inoltre, α è omomorfismo di K-spazi
vettoriali, i.e. α(v1 + v2 ) = α(v1 ) + α(v2 ) e α(λv) = λα(v), ∀v, v1 , v2 ∈ V e ∀λ ∈ K. Anche queste uguaglianze
seguono facilmente dalle definizioni.
Avremo bisogno del risultato generale seguente:

Proposizione 2.55. Siano V e W due K-spazi vettoriali di dimensione finita tali che dimK (V) = dimK (W). Sia
inoltre f : V → W un omomorfismo di spazi vettoriali. Le affermazioni seguenti sono equivalenti:

(i) f è bigettivo.
(ii) f è iniettivo.
(iii) f è surgettivo.

Dimostrazione. Dimostriamo per esempio l’equivalenza (i) ⇐⇒ (ii). Supponiamo dapprima f iniettivo. La
surgettività di f equivale a Im( f ) = W o, tenendo conto del Corollario 2.23, all’uguaglianza dimK (Im( f )) =
dimK (W). Applicando il Teorema 2.36, avremo dimK (Im( f )) = dimK (V) − dimK (Ker( f )). Poichè Ker( f ) =
{0V } ( f essendo iniettivo), risulta che dimK (Ker( f )) = 0, da cui dimK (Im( f )) = dimK (V). Ora, per ipotesi,
dimK (V) = dimK (W), quindi dimK (Im( f )) = dimK (W). L’equivalenza (i) ⇐⇒ (iii) si dimostra in modo
analogo. 
Una conseguenza del Teorema 2.53 è:
Teorema 2.56. Sia V uno spazio vettoriale di dimensione finita su K. Allora l’omomorfismo canonico α : V → V ∗∗
è un isomorfismo di K-spazi vettoriali.

Dimostrazione. Dobbiamo dimostrare che α è bigettivo. Tenendo conto della definizione di α e della
Proposizione 2.35, l’iniettività di α equivale a Ker(α) = {0V }. Se v ∈ Ker(α), allora f (v) = 0, ∀ f ∈ V ∗ .
Supponiamo per assurdo che v , 0V . Allora {v} è un sistema linearmente indipendente, quindi, per il
21

Corollario 2.18, esiste una base B = {v1 , ..., vn } di V tale che v1 = v. Allora il funzionale lineare di v∗1
(costruito sopra) ha la proprietà che v∗1 (v) = v∗1 (v1 ) = 1 , 0, ciò che contraddice il fatto che v ∈ Ker(α).
Quindi α è iniettivo.
La surgettività di α segue dall’iniettività di α, dal fatto che dimK (V) = dimK (V ∗ ) = dimK (V ∗∗ ) e dalla
Proposizione 2.55. 

2.57. Sia f : V → W un omomorfismo di K-spazi vettoriali, e sia f ∗ : W ∗ → V ∗ l’omomorfismo di K-spazi


vettoriali f ∗ (α) = α ◦ f , per ogni α ∈ W ∗ (il lettore verifichi che f ∗ è un omomorfismo di K-spazi vettoriali).
L’omomorfismo f ∗ si chiama il duale algebrico di f .
Siano B = {v1 , ..., vn } una base di V su K, C = {w1 , ..., wm } una base di W su K, e M f = |ai j |i=1,...,m, j=1,...,n ∈
M(m, n, K) la matrice associata a f rispetto alle basi B e C. Allora si hanno le uguaglianze
m
X
f (vi ) = a ji w j , ∀i = 1, ..., n. (2.4)
j=1

Ora vogliamo determinare la matrice associata all’omomorfismo f ∗ rispetto alle basi duali C∗ = {w∗1 , ..., w∗m }
e B∗ = {v∗1 , ..., v∗n }.
Dalla dimostrazione del Teorema 2.53 abbiamo
m
X
f ∗ (w∗i ) = w∗i ◦ f = v∗k (w∗i ◦ f )(vk ), ∀i = 1, ..., m.
k=1

D’altra parte, tenendo conto delle definizioni e di (2.4) abbiamo


m
X m
X
(w∗i ◦ f )(vk ) = w∗i ( f (vk )) = w∗i ( a jk w j ) = a jk w∗i (w j ) = aik ,
j=1 j=1

ciò che implica


m
X
f ∗ (w∗i ) = v∗k aik , ∀i = 1, ..., n.
k=1

In questo modo abbiamo dimostrato:


Proposizione 2.58. Nelle ipotesi di 2.57, la matrice associata a f ∗ rispetto alle basi duali C∗ e B∗ coincide con la
trasposta della matrice associata a f rispetto alle basi B e C.
Lemma 2.59. Sia f : V → W un omomorfismo di K-spazi vettoriali di dimensione finita e f ∗ : W ∗ → V ∗
l’omomorfismo duale di f .
(i) Se f è surgettivo allora f ∗ è iniettivo.
(ii) Se f è iniettivo allora f ∗ è surgettivo.

Dimostrazione. La prima affermazione è evidente, poichè se α, β ∈ W ∗ sono tali che f ∗ (α) = f ∗ (β), i.e.
α ◦ f = β ◦ f , allora la surgettività di f implica α = β. Dimostriamo ora (ii). Se f è un omomorfismo
iniettivo di K-spazi vettoriali allora f è un isomorfismo di V su un K-sottospazio vettoriale V ′ di W.
Pertanto, possiamo supporre che f è l’inclusione di un K-sottospazio vettoriale V di W nel K-spazio
vettoriale W. Dobbiamo dimostrare che f ∗ : W ∗ → V ∗ è un omomorfismo surgettivo. Sia quindi α ∈ V ∗
un qualsiasi funzionale lineare di V. Consideriamo una base {e1 , ..., en } di V su K e completiamola ad una
base {e1 , ..., en , en+1 , ..., en+m } di W su K (qui si applica il Corollario 2.18, tenendo conto che V e W sono di
dimensione finita). Costruiamo allora il funzionale β ∈ W ∗ tale che β(ei ) = α(ei ), ∀i = 1, ..., n, e β(e j ) = 0W ,
∀j = n + 1, ..., n + m. Dalla costruzione è chiaro che β|V = α, i.e. f ∗ (β) = α. Ciò che dimostra la surgettività
di f ∗ . 

Corollario 2.60. Sia f : V → W un omomorfismo di K-spazi vettoriali di dimensione finita. Allora dimK (Im( f )) =
dimK (Im( f ∗ )), i.e. rang( f ) = rang( f ∗ ).
22 Capitolo 2. Spazi vettoriali

Dimostrazione. L’omomorfismo f è la composizione dell’ omomorfismo surgettivo


f ′ : V → Im( f ) (corestrizione di f ) definito da f ′ (v) := f (v), ∀v ∈ V, e dall’inclusione ϕ : Im( f ) ֒→ W.
Quindi f = ϕ ◦ f ′ , con f ′ surgettivo e ϕ iniettivo. Per il Lemma 2.33 si ha f ∗ = ϕ∗ ◦ ( f ′ )∗ e, per il Lemma
2.59, ϕ∗ : W ∗ → (Im( f ))∗ è surgettivo e ( f ′ )∗ : (Im( f ))∗ → V ∗ è iniettivo. Ciò implica che Im( f ∗ ) è isomorfo
(come spazio vettoriale su K) a (Im( f ))∗ . Per il Teorema 2.53, si ha infine dimK (Im( f ∗ )) = dimK ((Im( f ))∗ ) =
dimK (Im( f )). 

Corollario 2.61. Sia A = |ai j |i=1,...,m, j=1,...,n ∈ M(m, n, K) una matrice a m righe e n colonne a coefficienti in K,
e sia At la sua trasposta. Denotiamo con vi ∈ Kn la riga i-esima di A, i = 1, ..., m, e con w j ∈ Km la colonna
j-esima di At , j = 1, ..., n. Allora rang(A) = rang(At ), dove rang(A) è la dimensione del K-sottospazio vettoriale
h{v1 , ..., vm}i ⊆ Kn (si veda il secondo degli Esempi 2.24), dove rang(At ) è la dimensione del K-sottospazio vettoriale
h{w1 , ..., wn }i ⊆ Km .

Dimostrazione. Il Corollario segue dal Corollario 2.60 e dalla Proposizione 2.58 (si veda la Definizione
2.38 e l’Esempio 2.28, 2)). 

Corollario 2.62. Sia W ⊆ V un K-sottospazio vettoriale del K-spazio vettoriale V di dimensione n. Allora la
corrispondenza W → W 0 := { f ∈ V ∗ | f |W = 0} è una bigezione che rovescia le inclusioni definita sull’insieme
Ls (V) dei K-sottospazi vettoriali di V a valori nell’insieme Ld (V ∗ ) dei K-sottospazi vettoriali del duale algebrico
V ∗ . Inoltre, si ha dim(W) + dim(W 0 ) = n.

Dimostrazione. Se iW : W ֒→ V è l’inclusione canonica di W in V e se (iW )∗ : V ∗ → W ∗ è il suo omomorfismo


duale, si osserva che W 0 = Ker((iW )∗ ). Per il Lemma 2.59, (iW )∗ è surgettivo, da cui applicando il Teorema
2.36, e il Teorema 2.53, otteniamo la formula dim(W) + dim(W 0 ) = n.
Quindi rimane da far vedere che la corrispondenza W → W 0 è bigettiva (che rovescia le inclusioni)
tra l’insieme dei K-sottospazi vettoriali di V e l’insieme dei K-sottospazi vettoriali di V ∗ . In questo senso
consideriamo anche la corrispondenza F → F0 definita sull’insieme dei K-sottospazi vettoriali di V ∗
nell’insieme dei K-sottospazi vettoriali di V ∗∗ definita in modo analogo: F0 := {ψ : V ∗ → K | ψ|F = 0}.
Identificando V ∗∗ con V via l’isomorfismo canonico α : V → V ∗∗ dato dal Teorema 2.56, si osserva che
W ⊆ (W 0 )0 (esercizio per il lettore), e poichè dim((W 0 )0 ) = n − dim(W 0 ) = dim(W), risulta che W = (W 0 )0 ,
per ogni K-sottospazio vettoriale W di V. In questo modo abbiamo dimostrato che W → W 0 → (W 0 )0
coincide con idLs (V) . Analogamente si dimostra che F → F0 → (F0 )0 coincide con idLd (V∗ ) . 

2.63 (Somme dirette di sottospazi vettoriali). Sia V uno spazio vettoriale su K, e siano V1 , ..., Vr (r ≥ 1) r
K-sottospazi vettoriali di V.
Proposizione 2.64. Nelle ipotesi e notazioni precedenti le affermazioni seguenti sono equivalenti:
(i) V1 + · · · + Vr = V e Vi ∩ (V1 + · · · + Vi−1 + Vi+1 + · · · + Vr ) = 0V , ∀i = 1, ..., r.
(ii) Ogni vettore v ∈ V si può scrivere in una maniera unica v = v1 + · · · + vr , con vi ∈ Vi ∀i = 1, ..., r, i.e. una
tale rappresentazione esiste per ogni v ∈ V, e se v = v1 + · · · + vr = v′1 + · · · + v′r , con vi , v′i ∈ Vi ∀i = 1, ..., r,
allora vi = v′i ∀i = 1, ..., r.
(iii) Ogni vettore v ∈ V ammette una rappresentazione della forma v = v1 + · · · + vr , con vi ∈ Vi ∀i = 1, ..., r, e
se 0V = w1 + · · · + wr , con wi ∈ Vi ∀i = 1, ..., r, allora wi = 0V ∀i = 1, ..., r.
(iv) L’applicazione f : V1 × V2 × · · · × Vr → V definita da f (v1 , v2 , ..., vr) := v1 + v2 + · · · + vr è un isomorfismo
di K-spazi vettoriali, dove V1 × V2 × · · · × Vr è dotato della struttura di spazio vettoriale prodotto diretto (si
veda la Definizione 2.4).

Dimostrazione. (i) =⇒ (ii). Dalla Proposizione 2.10 e dall’ipotesi che V1 + · · · + Vr = V segue che per
ogni v ∈ V esistono vi ∈ Vi , i = 1, ..., r tali che v = v1 + · · · + vr . Rimane da provare l’unicità di una tale
rappresentazione. Se v = v1 +· · ·+vr = v′1 +· · ·+v′r , con vi , v′i ∈ Vi , i = 1, ..., r, allora (v1 −v′1 )+· · ·+(vr −v′r ) = 0V .
Quindi per ogni i = 1, ..., r abbiamo X
v′i − vi = (v j − v′j ).
j,i
23

Il
Pprimo membro di questa uguaglianza appartiene al sottospazio vettoriale Vi e il secondo al sottospazio
V j . Per l’ipotesi (i) ne segue che v′i − vi = 0V , i.e. vi = v′i ∀i = 1, ..., r.
j,i
L’implicazione (ii) =⇒ (iii) è evidente.
(iii) =⇒ (i). La prima affermazione P di (iii) equivale, per la Proposizione 2.10, a V = V1 + · · · + Vr .
Rimane quindi da verificare che Vi ∩ ( V j ) = 0V . Per semplicità supponiamo che i = 1 e sia v ∈
j,i
V1 ∩ (V2 + · · · + Vr ). Allora esistono w j ∈ V j , j = 2, ..., r tali che v = w2 + · · · + wr . Ponendo w1 := −v,
otteniamo w1 + w2 + · · · + wr = 0V , con wi ∈ Vi , ∀i = 1, 2, ..., r. Da (iii) si deduce che wi = 0V ∀i = 1, ..., r. In
particolare, v = −w1 = 0V .
Rimane da provare che (iii) ⇐⇒ (iv). Assumiamo prima (iii). Innanzitutto osserviamo che l’applicazione
f definita in (iv) è omomorfismo di K-spazi vettoriali. Per far vedere che f è isomorfismo basta verificare
che f è bigettiva. La surgettività di f segue dal fatto che ogni vettore v ∈ V si scrive come v = v1 + · · · + vr ,
con vi ∈ Vi ∀i = 1, ..., r. Per l’iniettività basta verificare Ker( f ) = {0V }. Ora questa uguaglianza segue
dall’ultima parte di (iii). Viceversa, assumendo (iv) la surgettività di f equivale alla prima parte di (iii),
mentre l’iniettività f equivale alla seconda parte di (iii). 

Definizione 2.65. Nelle ipotesi e notazioni di sopra, si dice che lo spazio vettoriale V è la somma diretta dei
sottospazi vettoriali V1 , ..., Vr se ognuna delle condizioni equivalenti (i), (ii), (iii), (iv) della Proposizione
2.64 è soddisfatta. In questo caso scriveremo V = V1 ⊕ V2 ⊕ · · · ⊕ Vr . Osserviamo che l’uguaglianza
V = V1 ⊕ · · · ⊕ Vr non dipende dall’ordine dei sottospazi V1 , ..., Vr.
Corollario 2.66. Siano V1 , ..., Vr r sottospazi vettoriali di un K-spazio vettoriale V di dimensione finita tale che
V = V1 ⊕ V2 ⊕ · · · ⊕ Vr (r ≥ 1). Sia Bi una base del sottospazio Vi (considerato come spazio vettoriale su K), ∀i =
1, ..., r. Allora B := B1 ∪· · ·∪Br è una base di V. In particolare, dimK (V) = dimK (V1 )+dimK (V2 )+· · ·+dimK (Vr ).

Dimostrazione. Da (ii) della Proposizione 2.64 segue che ogni v ∈ V si scrive come v = v1 + · · · + vr , con
vi ∈ Vi , ∀i = 1, ..., r. Poichè Bi è una base di Vi su K, il vettore vi si scrive come combinazione lineare di
elementi di Bi . Ciò implica che B è un sistema di generatori di V. Se invece Bi = {ei1 , ..., eidi }, e se
X
λi j ei j = 0, λi j ∈ K,
i, j

allora da (iii) della Proposizione 2.64 segue che per ogni i = 1, ..., r
di
X
λi j ei j = 0,
j=1

da cui λi j = 0, ∀j = 1, ..., di, poichè Bi è una base di Vi (∀i = 1, ..., r). Abbiamo dimostrato quindi che B è
una base di V. 

Definizione 2.67. Sia σ ∈ EndK (V) un endomorfismo del K-spazio vettoriale V, e sia W ⊆ V un K-
sottospazio vettoriale di V. Si dice che W è sottospazio invariante di σ se σ(W) ⊆ W.
Proposizione 2.68. Sia V uno spazio vettoriale di dimensione finita su K, e σ ∈ EndK (V) un K-endomorfismo
di V. Supponiamno che V sia somma diretta V = W1 ⊕ W2 ⊕ · · · ⊕ Wr di r K-sottospazi vettoriali invarianti di σ.
Sia Bi una base arbitraria del K-sottospazio vettoriale Wi , ∀i = 1, ..., r. Allora B := B1 ∪ · · · ∪ Br è una base di V
e la matrice MB
σ asociata a σ rispetto alla base B è data da
 B1 
 Mσ1 0 ... 0 
 
 0 MBσ2
2
... 0 
B  
Mσ =  . .. .. ..  ,
 .. . . . 
 
. . . MB
 
0 0 σm
r

dove MB
σi è la matrice associata a σi := σ|Wi ∈ EndK (Wi ) rispetto alla base Bi .
i
24 Capitolo 2. Spazi vettoriali

Dimostrazione. Il fatto che B è una base di V segue dal Corollario 2.66. Per semplicità dimostriamo la
seconda parte della proposizione nel caso r = 2. Siano quindi B1 = {e1 , ..., ep } e B2 = {ep+1 , ..., en }. Poichè W1
p
P n
P
e W2 sono sottospazi invarianti di σ abbiamo σ(ei ) = aki ek , ∀i = 1, ..., p e σ(e j ) = al j el , ∀j = p + 1, ..., n.
k=1 l=p+1
Pertanto
σ(e1 ) = a11 e1 + · · · + ap1 ep + 0 · ep+1 + · · · + 0 · en
················································
σ(ep ) = a1p e1 + · · · + app ep + 0 · ep+1 + · · · + 0 · en
σ(ep+1 ) = 0 · e1 + · · · + 0 · ep + ap+1,p+1 ep+1 + · · · + an,p+1 en
···················································
σ(en ) = 0 · e1 + · · · + 0 · ep + ap+1,n ep+1 + · · · + ann en .
Ora la proposizione segue dalle definizioni. 

Definizione 2.69 (Autovettori e autovalori). Sia V uno spazio vettoriale di dimensione finita su K, e sia
f ∈ EndK (V) un K-endomorfismo di V. Si dice che un vettore non nullo v ∈ V è autovettore dell’endomorfismo
f se esiste uno scalare λ ∈ K tale che f (v) = λv. In altre parole, v è un autovettore di f se il sottospazio
W := Kv = hvi generato da v è un sottospazio invariante dell’endomorfismo f . In questo caso lo scalare
(univocamente determinato) λ si chiama autovalore dell’ endomorfismo f (corrispondente all’autovettore
v). In generale, uno scalare λ ∈ K si chiama autovalore di f se esiste un autovettore v ∈ V di f tale
che f (v) = λv. Se v è un autovettore di f corrispondente all’autovalore λ (i.e. f (v) = λv), diciamo che
l’autovettore v corrisponde all’autovalore λ di f .
Se λ è un autovalore fissato di f allora l’insieme Vλ di tutti gli autovettori di f corrispondenti
a λ (insieme al vettore nullo) costituisce un K-sottospazio vettoriale di V (come è facile verificare). Il
sottospazio vettoriale Vλ si chiama autospazio dell’autovalore λ (dell’endomorfismo f ). Ovviamente, Vλ è
un sottospazio invariante di f .
Lemma 2.70. (i) Siano v1 , ..., vr ∈ V r autovettori dell’endomorfismo f ∈ EndK (V) corrispondenti a r autovalori
distinti λ1 ,...,λr . Allora l’insieme {v1 , ..., vr} è linearmente indipendente su K.
(ii) Se λ1 ,...,λr sono r autovalori distinti di f e se Bi è una base dell’autospazio Vλi , ∀i = 1, ..., r, allora l’insieme
B1 ∪ · · · ∪ Br è linearmente indipendente.

Dimostrazione. (i). Procediamo per induzione su r. Il caso r = 1 è evidente poichè v1 , 0. Siano quindi
a1 , ..., ar ∈ K tali che a1 v1 + · · · + ar vr = 0V , con r ≥ 2. Applicando f e tenendo conto che f (vi ) = λi vi
otteniamo
a1 λ1 v1 + · · · + ar λr vr = 0V .
D’altra parte, moltiplicando per λ1 la prima uguaglianza otteniamo
λ1 a1 v1 + λ1 a2 v2 + · · · + λ1 ar vr = 0V .
Sottraendo le ultime due uguaglianze si ha
a2 (λ2 − λ1 )v2 + · · · + ar (λr − λ1 )vr = 0V ,
da cui, per l’ipotesi induttiva,, ai (λi − λ1 ) = 0 ∀i ≥ 2, quindi ai = 0 poichè λi − λ1 , 0 ∀i ≥ 2. La prima
uguaglianza si riduce quindi a a1 v1 = 0V , da cui a1 = 0 poichè v1 , 0V .
(ii). Per semplicità supponiamo r = 2. Siano B1 = {v1 , ..., vm }, B2 = {w1 , ..., wp } e
a1 v1 + · · · + am vm + b1 w1 + · · · + bp wp = 0V ,
con ai , b j ∈ K. Allora v := a1 v1 +· · ·+am vm , se non nullo, è un autovettore di f corrispondente all’autovalore
λ1 . Analogamente, w := b1 w1 +· · ·+bp wp , se non nullo, è un autovettore di f corrispondente all’autovalore
λ2 . Inoltre, v + w = 0V . Poichè λ1 , λ2 ciò è impossibile per (i) tranne se v = w = 0V . In quest’ultimo caso
otteniamo a1 = · · · = am = b1 = · · · = bp = 0, poichè Bi è base di Vλi , i = 1, 2. 
25

Definizione 2.71 (Polinomio caratteristico). Sia A = |ai j |i, j=1,...,n ∈ Mn (K) una matrice quadrata a coeffici-
enti nel campo K. Consideriamo la matrice a coefficienti nell’anello dei polinomi K[T] su K nell’indeterminata
T
 
 a11 − T a12 ··· a1n 

 a a22 − T · · · a2n 
 21
A − TIn = |ai j − Tδi j |i, j=1,...,n =  .. .. .. .. 

 . . . . 

an1 an2 · · · ann − T
dove δi j è il simbolo delta di Kronecker già definito. Prendendo il determinante si ottiene il polinomio

PA (T) := det(A − TIn ) ∈ K[T].

La matrice A − TIn si chiama la matrice caratteristica della matrice A, e il polinomio PA (T) si chiama il
polinomio caratteristico della matrice A.
Nelle ipotesi e notazioni della Definizione 2.71, siano f ∈ EndK (V) un endomorfismo del K-spazio
vettoriale di dimensione n, B = {e1 , ..., en } una base di V su K, MB f
= |ai j |i, j=1,...,n la matrice associata a f
rispetto alla base B. Definiamo il polinomio caratteristico P f (T) dell’ endomorfismo f con la formula

P f (T) := PMB (T) = det(MB


f − TIn ) ∈ K[T]. (2.5)
f

Il polinomio P f (T) è stato definito fissando una base B di V su K. Di fatto P f (T) è indipendente dalla
scelta della base B, mentre dipende solo dall’endomorfismo f ∈ EndK (V). In effetti, se B′ è un’altra base

di V su K, allora in base alla Proposizione 2.51 si ha MB f
= Λ−1 MB
f
Λ, con Λ ∈ GLn (K). Ne segue


−1 B −1
MB B
f − TIn = Λ M f Λ − TIn = Λ (M f − TIn )Λ.

Prendendo il determinante e tenendo conto della formula det(AB) = det(A) det(B) (con A, B ∈ Mn (K[T]))
si ottiene

det(MB B
f − TIn ) = det(M f − TIn ),

ciò che dimostra l’indipendenza di P f (T) dalla base B.


Il polinomio caratteristico P f (T) associato a f è della forma

P f (T) = (−1)n(Tn + a1 ( f )Tn−1 + · · · + an ( f )), ai ∈ K, (2.6)

con n = dimK (V). I coefficienti del polinomio P f (T) non dipendono dalla base B e sono invarianti
importanti associati a f . Ad esempio
n
det( f ) := det(MB
f ) = (−1) an ( f ). (2.7)

Definiamo ora la traccia dell’endomorfismo f , denotata con tr( f ), con la formula


n
X
tr( f ) := aii , (2.8)
i=1

dove MB
f
= |ai j |i, j=1,...,n. Allora si ha la formula

tr( f ) = (−1)n+1 a1 ( f ). (2.9)

In particolare, la traccia di f è ancora indipendente dalla base B.

Proposizione 2.72. Sia f ∈ EndK (V) un endomorfismo del K-spazio vettoriale V di dimensione finita. Uno
scalare λ ∈ K è un autovalore di f se e solo se λ è radice del polinomio caratteristico P f (T).
26 Capitolo 2. Spazi vettoriali

Dimostrazione. Dire che λ ∈ K è un autovalore di f equivale a dire che (fissando una base B = {e1 , ..., en })
esiste un vettore non nullo v = x1 e1 + · · · + xn en tale che f (v) = λv. Ciò equivale a dire che il sistema
omogeneo di n equazioni in n incognite a coefficienti in K

(a11 − λ)x1 + a12 x2 + · · · + a1n xn = 0


a21 x1 + (a22 − λ)x2 + · · · + a2n xn = 0
····································
an1 x1 + an2 x2 + · · · + (ann − λ)xn = 0

(con MB f
= |ai j |i, j=1,...,n) ammette una soluzione non nulla. Ma quest’ultima condizione ci dice proprio che
P f (λ) = 0. 

Definizione 2.73. Sia K un campo. Una matrice A =k ai j ki, j=i,...,n∈ Mn (K) si dice simmetrica se ai j = a ji ,
∀i, j = 1, ..., n, rispettivamente antisimmetrica se ai j = −a ji , ∀i, j = 1, ..., n.

Più tardi avremo bisogno del seguente risultato:

Proposizione 2.74. Sia C ∈ Mn (R) una matrice simmetrica non nulla. Allora ogni radice del polinomio carat-
teristico di C è reale (in altre parole, tutte le radici del polinomio caratteristico di C sono reali).

Dimostrazione. Sia P(T) = det(C − TIn ) ∈ R[T] il polinomio caratteristico della matrice C. Poichè il campo
C dei numeri complessi è algebricamente chiuso (per il Teorema Fondamentale dell’Algebra), P(T) ha
tutte le radici in C. Sia λ ∈ C una radice qualsiasi di P(T). Per la Proposizione 2.72, det(C − λIn ) = 0,
quindi esiste un vettore colonna A = (a1 , ..., an )t , 0 (a coefficienti complessi) tale che (C − λIn )A = 0, i.e.
CA = λA.
Se B = |bi j | ∈ Mn (C) denotiamo con B = |bi j |, dove z è il complesso coniugato di z ∈ C. Allora
t t
dall’uguaglianza CA = λA otteniamo C · A = λ · A, quindi CA = λ · A, o ancora, A C = λ · A (abbiamo
tenuto conto che C è simmetrica a coefficienti reali). Utilizzando questa uguaglianza otteniamo:
t t t t t t t
A CA = A (CA) = A λA = λ · A A, A CA = (A C)A = λ · A A.
t t t
Ne segue che λ · A A = λ · A A, e poichè A A = |a1 |2 + · · · + |an |2 , 0, λ = λ, i.e. λ ∈ R. 

Definizione 2.75. Sia f ∈ EndK (V) un endomorfismo del K-spazio vettoriale V di dimensione n su K e
sia K[T] la K-algebra dei polinomi nell’ indeterminata T. Definiamo l’omomorfismo di K-algebre

ϕ f : K[T] → EndK (V)

mediante
ϕ f (a0 + a1 T + · · · + am Tm ) := a0 idV +a1 f + · · · + am f m ,
dove il membro a destra è calcolato nella K-algebra EndK (V) e f m = f ◦ · · · ◦ f . Pertanto, ϕ(F(T)) =
| {z }
m volte
F( f ), per ogni polinomio F(T) ∈ K[T]. Si verifica facilmente che ϕ è un omomorfismo di K-algebre.
L’omomorfismo ϕ ci permette di definire una legge di composizione esterna K[T] × V → V mediante
F(T) · v = F( f )(v), i.e. per ogni vettore v ∈ V poniamo

(a0 + a1 T + · · · + am Tm ) · v := a0 v + a1 f (v) + · · · + am f m (v). (2.10)

Con queste definizioni abbiamo:

Teorema 2.76 (Cayley-Hamilton). Se P f (T) è il polinomio caratteristico dell’ endomorfismo f ∈ EndK (V), allora
si ha
P f ( f ) = 0.
27

n
P
Dimostrazione. Sia B = {v1 , ..., vn } una base di V su K. Allora f (vi ) = a ji v j , ∀i = 1, ..., n, con M = MB
f
= |ai j |
j=1
la matrice associata a f rispetto a B. Tenendo conto di (2.10) possiamo scrivere
n
X
T · vi = a ji v j , ∀i = 1, ..., n. (2.11)
j=1

Denotiamo con B(T) la matrice Mt − TIn a coefficienti nell’anello K[T], dove Mt è la trasposta di M. Per
la definizione di polinomio caratteristico e dal fatto che det(A) = det(At ), per ogni matrice quadrata A,
abbiamo det(B(T)) = P f (T). Sia B̃(T) la matrice aggiunta di B(T). Si ha allora

B̃(T)B(T) = P f (T)In .

Le uguaglianze (2.11) si riscrivono in forma matriciale


   
 v1   0V 
B(T) 
 ..  
 =  .. 
 ,
 .   . 
  
vn 0V

da dove otteniamo      
 v1   P f (T) · v1   0V 
B̃(T)B(T) 
 ..  
 =  ..  
 =  .. 
 .
 .   .   . 
    
vn P f (T) · vn 0V
Pertanto P f (T) · vi = PF ( f )(vi ) = 0, ∀i = 1, ..., n, i.e. l’endomorfismo P f ( f ) è nullo. 

Corollario 2.77. Sia A ∈ Mn (K) una matrice quadrata a coefficienti nel campo K. Allora PA (A) = 0.

Dimostrazione. Tutto segue dal Teorema 2.76 applicato allo spazio vettoriale V = Kn e all’endomorfismo
n
P
f ∈ EndK (V) definito da f (x1 , ..., xn) = (y1 , ..., yn ), con yi = ai j x j , se A = |ai j |i, j=1,...,n (via il Corollario
j=1
2.50). 

Proposizione 2.78. Sia V uno spazio vettoriale su R di dimensione finita e σ ∈ EndR (V) un endomorfismo di
V. Allora σ possiede un sottospazio vettoriale invariante di dimensione 1 o 2 su R.

Dimostrazione. Sia e1 , ..., en una base di V su R, e sia |ai j |i, j=1,...,n la matrice associata a σ rispetto a questa base.
Poichè il polinomio caratteristico di σ ha coefficienti reali, per il Teorema Fondamentale dell’ Algebra,
(si veda ad esempio [9]), questo polinomio ha almeno una radice λ ∈ C. Quindi λ soddisfa

a11 − λ a12 ... a1n

a21 a22 − λ . . . a2n
.. .. .. .. = 0.
. . . .

an1 a2n . . . ann − λ

Caso 1: λ ∈ R. Poichè il determinante di sopra è zero, il sistema di equazioni lineari (a coefficienti


reali)
Xn
ai j x j = λxi , ∀i = 1, ..., n
j=1

n
P
ha una soluzione (a, ..., an ) ∈ Rn \ {(0, ..., 0)}. Ponendo v := ai ei , 0V , ciò significa che σ(v) = λ · v. Ne
i=1
segue che il sottospazio W generato dal vettore non nullo v è di dimensione 1 e invariante per σ.
28 Capitolo 2. Spazi vettoriali

Caso 2: λ ∈ C \ R. Poniamo λ = α + iβ, con α, β ∈ R, β , 0. Allora il sistema di n equazioni lineari


nelle incognite x1 , ..., xn ha coefficienti complessi, e poichè λ soddisfa la prima equazione (che coinvolge
il determinante), ne segue che questo sistema ha una soluzione complessa (ξ1 + iη1 , ..., ξn + iηn ) , (0, ..., 0),
con ξk , ηk ∈ R, ∀k = 1, ..., n. Scrivendo che questa soluzione soddisfa il nostro sistema, e separando le
parti reali e immaginarie, otteniamo:
n
X n
X
ai j ξ j = αξi − βηi , ai j η j = αηi + βξi , ∀i = 1, ..., n.
j=1 j=1

n
P n
P
Ponendo v := ξ j e j e w := η j e j , queste uguaglianze si riscrivono
j=1 j=1

σ(v) = αv − βw, σ(w) = αw + βv.

Quindi il sottospazio W generato dai vettori v e w è di dimensione ≤ 2 e invariante per σ. 

2.79 (Diagonalizzazione delle matrici). Sia f ∈ EndK (V) un endomorfismo dello spazio vettoriale V di
dimensione finita sul campo K. La Proposizione 2.72 afferma che uno scalare λ ∈ K è un autovalore di f
se e solo se λ è radice del polinomio caratteristico P f (T).
Definizione 2.80. Nelle notazioni di sopra si dirà che un numero naturale m ≥ 1 è molteplicità algebrica
dell’autovalore λ dell’endomorfismo f ∈ EndK (V) se λ è radice di ordine m del polinomio P f (T). In altre
parole, (T − λ)m divide il polinomio P f (T) ma (T − λ)m+1 non divide P f (T) (nell’anello dei polinomi K[T]).
D’altra parte, la dimensione dell’autospazio Vλ (su K) si chiama molteplicità geometrica dell’autovalore λ
di f .
Proposizione 2.81. Sia f ∈ EndK (V) un endomorfismo dello spazio vettoriale V di dimensione finita sul campo
K, e sia λ ∈ K un autovalore di f . Allora la molteplicità geometrica di λ è minore o uguale alla molteplicità algebrica
di λ.

Dimostrazione. Sia {v1 , ..., vr} una base dell’autospazio Vλ su K. Per il Corollario 2.18 esistono vr+1 , ..., vn ∈ V
tali che {v1 , ..., vn} sia una base di V su K. Allora la matrice associata a f rispetto alla base {v1 , ..., vn} è della
forma  
 λ 0 · · · 0 a1,r+1 · · · a1n 
 0 λ · · · 0 a ··· a2n 
 2,r+1
 . . . .. .. 
 . . . . ..
 . . . .. . . . 
 
 0 0 · · · λ ar,r+1 · · · a rn  ,

 0 0 · · · 0 ar+1,r+1 · · · ar+1,n 
 
 . . . .. .. .. .. 
 . . . . .
 . . . . . 

0 0 · · · 0 an,r+1 · · · ann
quindi la matrice caratteristica di f rispetto alla base {v1 , ..., vn} è
 
 λ − T 0 ··· 0 a1,r+1 ··· a1n 
 0
 λ−T ··· 0 a2,r+1 ··· a2n 


 .. .. .. .. .. .. .. 

 . . . . . . . 
 
 0
 0 ··· λ−T ar,r+1 ··· arn  .

 0
 0 ··· 0 ar+1,r+1 − T ··· ar+1,n 


 .. .. .. .. .. .. .. 

 . . . . . . . 
 
0 0 ··· 0 an,r+1 ··· ann − T

Prendendo il determinante e tenendo conto della definizione di polinomio caratteristico otteniamo che
(T − λ)r divide il polinomio caratteristico Pλ (T). 
29

Osservazione 2.82. Esempi semplici dimostrano che nella Proposizione 2.81 si può avere diseguaglianza
stretta. Per esempio, sia f : R2 → R2 l’endomorfimo definito da f (x1 , x2 ) = (x1 + x2 , x2 ). Allora 1 è il solo
autovalore di f (di molteplicità algebrica 2), ma invece l’autospazio V1 coincide con {(a, 0)|a ∈ R}, quindi
la molteplicità geometrica dell’autovalore 1 è 1.
Definizione 2.83. Sia A ∈ Mn (K) una matrice quadrata a coefficienti nel campo K. Si dice che A è
diagonalizzabile se esiste una matrice invertibile P ∈ GLn (K) tale che

P−1 AP = D,

con D matrice diagonale, i.e. gli unici coefficienti possibilmente non nulli di D si trovano sulla diagonale
principale. In questo caso si dice che P e D diagonalizzano la matrice A.

In generale non ogni matrice A è diagonalizzabile. Per esempio la matrice


!
0 1
A= ∈ M2 (R)
0 0

non è diagonalizzabile. Infatti, se A fosse diagonalizzata da una matrice


!
a b
P= ,
c d

con ad − bc , 0, allora esisterebbe una matrice


!
e 0
D=
0 f

tale che PD = AP, i.e. ! ! ! !


a b e 0 0 1 a b
=
c d 0 f 0 0 c d
Ne seguirebbe che ce = 0. Se c , 0 allora e = 0. Quindi ae = 0 = c e c = 0. Analogamente segue che d = 0,
ciò che implica ad − bc = 0, contro le ipotesi.
Se la matrice A = |ai j |i, j=1,...,n ∈ Mn (K) è diagonalizzabile, vogliamo trovare le matrici P e D che la
diagonalizzano (si veda la Definizione 2.83). A questo scopo consideriamo il K-spazio vettoriale V = Kn
e l’endomorfismo f ∈ EndK (V) definito mediante la formula
n
X n
X
fA (x1 , ..., xn ) := ( a1 j x j , ..., anj x j ).
j=0 j=0

Gli autovettori (gli autovalori) dell’endomorfismo fA verranno chiamati semplicemente gli autovettori
(gli autovalori) della matrice A. Se gli elementi della diagonale principale di D sono λ1 , ..., λn , è chiaro
che
fD (ei ) = λi ei ,
dove e1 , ..., en è la base canonica di Kn . In particolare, i vettori della base canonica di Kn sono autovettori
di D, e λ1 , ..., λn sono gli autovalori della matrice D e quindi anche della matrice A (poichè P−1 AP = D).
Teorema 2.84. Sia A ∈ Mn (K) una matrice a coefficienti nel campo K.
(i) A è diagonalizzabile se e solo se A possiede n autovettori linearmente indipendenti.
(ii) Se A è diagonalizazabile e P−1 AP = D, con P ∈ GLn (A) e D diagonale, allora le colonne di P sono gli
autovettori di A, e i coefficienti di D sulla diagonale principale sono gli autovalori corrispondenti.
(iii) Viceversa, se v1 , ..., vn sono n autovettori (colonna) linearmente indipendenti della matrice A e se λ1 , ..., λn
sono gli autovalori corrispondenti, allora P−1 AP = D, con P = [v1 , v2 , ..., vn ] ∈ GLn (K) e D matrice
diagonale con diagonale principale λ1 , ..., λn .
30 Capitolo 2. Spazi vettoriali

Dimostrazione. Siano P ∈ Mn (K) una matrice avente come colonne i vettori v1 , ..., vn e D una matrice
diagonale con la diagonale principale λ1 , ..., λn . Allora

AP = A[v1 , ..., vn] = [Av1 , ..., Avn]

e  
 λ1 ··· 0 
[λ1 v1 , ..., λn vn ] = [v1 , ..., vn ] 
 .. .. .. 
 = PD.
 . . . 

0 ··· λn
−1
Se A è diagonalizzabile, cioè P AP = D, allora AP = PD. Quindi tenendo conto delle uguaglianze
di sopra otteniamo Avi = λi vi , ∀i = 1, ..., n. Ne segue che vi è un autovettore di A corrispondente
all’autovalore λi , ∀i = 1, ..., n. Questo dimostra (ii) ed anche l’implicazione diretta in (i).
Ora supponiamo che A abbia n autovettori (colonna) linearmente indipendenti v1 , ..., vn ∈ Kn con
gli autovalori corrispondenti λ1 , ..., λn . Se denotiamo con P = [v1 , ..., vn ] e con D la matrice diagonale con
la diagonale principale λ1 , ..., λn , allora le uguaglianze di sopra implicano AP = PD. Poichè v1 , ..., vn sono
linearmente indipendenti, la matrice P è invertibile, quindi P−1 AP = D, o ancora A è diagonalizaabile.
Ciò dimostra (iii) e l’implicazione inversa di (i). 

Corollario 2.85. Una matrice A ∈ Mn (K) è diagonalizzabile se e solo se Kn possiede una base di autovettori di A.

Dimostrazione. Il Corollario segue immediatamente dal Teorema 2.84, tenendo conto che ogni n vettori
linearmente indipendenti di Kn costituiscono una base di Kn . 

Corollario 2.86. Ogni matrice A ∈ Mn (K) che possiede n autovalori distinti è diagonalizzabile.

Dimostrazione. Siano λ1 , ..., λn ∈ K gli autovalori distinti di A e siano v1 , ..., vn autovettori corrispondenti
a questi autovalori. Per il Lemma 2.70, v1 , ..., vn sono linearmente indipendenti in Kn . Il Corollario segue
allora dal Teorema 2.84, (i). 

Corollario 2.87. Una matrice A ∈ Mn (K) è diagonalizzabile se e solo se il suo polinomio caratteristico PA (T) =
P fA (T) ha tutte le radici in K e la molteplicità geometrica di ogni autovalore di A coincide con la sua molteplicità
algebrica.

Dimostrazione. Se PA (T) ha tutte le radici in K e le molteplicità geometriche e algebriche di tutti gli


autovalori coincidono, allora dal Lemma 2.70, (ii) segue che lo spazio vettoriale Kn possiede una base
formata da autovettori di A, quindi per il Corollario 2.85, A è diagonalizzabile.
Viceversa, supponiamo che A sia diagonalizzabile, i.e. P−1 AP = D, con P ∈ GLn (K) e D matrice
diagonale. Allora gli elementi della diagonale principale di D sono gli autovalori di A, quindi PA (T) ha
tutte le radici in K. Per il Teorema 2.84 le colonne di P sono autovettori di A che formano una base di Kn .
Ne segue che, se λ1 , ..., λr sono tutti gli autovalori distinti di A, allora

dimK (Vλ1 ) + · · · + dimK (Vλr ) = n, con V = Kn .

L’implicazione inversa segue tenendo conto di questa uguaglianza e dalla Proposizione 2.81. 

Per il Lemma 2.70 e il Teorema 2.84 (e i suoi corollari) si ottiene il seguente:

2.88. Algoritmo per la diagonalizzazione delle matrici.


INPUT: La matrice A ∈ Mn (K).

1. Calcolare gli autovalori λ1 , . . . , λr di A.


2. Per ogni i = 1, . . . , r trovare una base Bi dell’autospazio Vi corrispondente a λi e porre B :=
B1 ∪ · · · ∪ Br .
31

3. Se B ha meno di n elementi, stop: A non è diagonalizzabile.

4. Se B ha n elementi, allora A è diagonalizzabile.

5. Formare la matrice P le cui colonne sono i vettori di B, e la matrice diagonale i cui coefficienti della
diagonale principale sono gli autovalori corrispondenti.

OUTPUT: P e D diagonalizzano la matrice A.

Applicazioni della diagonalizzazione delle matrici.


i) In generale, dal punto di vista computazionale, è molto complicato calcolare potenze grandi Am
di una data matrice A. Supponiamo che A sia diagonalizzabile, i.e. A = PDP−1 , con P ∈ GLn (K) e D
diagonale. Allora usando l’induzione su m ne segue subito che

Am = PDm P−1 .

In questo caso il calcolo di Am si riduce al calcolo di Dm , che è molto semplice, poichè Dm è la matrice
diagonale avente sulla diagonale principale le potenze m-esime dei coefficienti della diagonale principale
di D.
ii) In certi problemi è importante risolvere equazioni matriciali della forma

f (A, x) = 0, con x vettore colonna di Kn .

Queste equazioni possono essere semplificate in modo sostanziale se la matrice A è diagonalizzabile, i.e.
A = PDP−1 , con P ∈ GLn (K) e D matrice diagonale. Allora il cambiamento di variabili

x = Py, cioè y = P−1 x

e la sostituzione di A con PDP−1 conduce all’equazione matriciale della forma

g(D, y) = 0,

con D matrice diagonale e y vettore colonna. È ben chiaro che quest’ultima equazione è molto più semplice
da risolvere. Questo cambiamento di variabili è di grande importanza per esempio nella risoluzione di
certi tipi di sistemi di equazioni differenziali o nella teoria dei sistemi dinamici.

Esercizi

Esercizio 2.1. Nello spazio vettoriale standard K3 su K consideriamo i vettori v1 = (1, 0, 0), v2 = (0, 1, 0),
v3 = (0, 0, 1) e v4 = (1, 1, 1). Dimostrare che questi quattro vettori sono linearmente dipendenti, ma a tre
a tre sono linearmente indipendenti.
Esercizio 2.2. Sia V uno spazio vettoriale su K, e siano v1 , v2 , v3 tre vettori linearmente indipendenti di
V. È vero che i vettori v1 + v2 , v1 + v3 e v2 + v3 sono ancora linearmente indipendenti?
Esercizio 2.3. Quali condizioni debbono soddisfare gli scalari a, b, c ∈ K affinchè i vettori (1, a, a2 ), (1, b, b2 )
e (1, c, c2) siano linearmente indipendenti in K3 ?

Esercizio 2.4. Calcolare la dimensione del R-spazio vettoriale C.

Esercizio 2.5. Dimostrare che il Q-spazio vettoriale R (risp. C) non è di dimensione finita.
Esercizio 2.6. Sia K un campo finito. Dimostrare che il numero degli elementi di K è della forma pn , con
p ≥ 2 numero primo e n ≥ 1. (Suggerimento: il numero p è la caratteristica di K; si applica il Teorema
2.15.)
32 Capitolo 2. Spazi vettoriali

Esercizio 2.7. Sia u : K → A un omomorfismo di anelli unitari, con K campo e A anello unitario (non
necessariamente commutativo). Dimostrare che u è iniettivo.

Esercizio 2.8. Se v1 , v2 , v3 sono tre vettori di uno spazio vettoriale V su K tali che v1 + v2 + v3 = 0V , allora
il K-sottospazio vettoriale generato dai vettori v1 e v2 coincide con il K-sottospazio vettoriale generato
dai vettori v2 e v3 .

Esercizio 2.9. Sia W un K-sottospazio vettoriale del K-spazio vettoriale V, e v1 , v2 ∈ V. Poniamo Wi :=


hW ∪ {vi }i, i = 1, 2. Dimostrare che se v2 ∈ W1 e v2 < W, allora v1 ∈ W2 .

Esercizio 2.10. Siano V1 , V2 e V3 tre K-sottospazi vettoriali del K-spazio vettoriale V, tali che V1 ⊆
V3 .Verificare l’uguaglianza (V1 + V2 ) ∩ V3 = V1 + (V2 ∩ V3 ).

Esercizio 2.11. Dimostrare che gli R-sottospazi vettoriali di dimensione 1 del R-spazio vettoriale stan-
dard R2 coincidono con le rette di R2 passanti per l’origine.

Esercizio 2.12. Siano K un campo e


n
X
ai j x j = 0, i = 1, ..., m (2.12)
j=1

un sistema di m equazioni lineari omogenee nelle incognite x1 , ..., xn , con m, n ≥ 1 e ai j ∈ K, ∀i = 1, ..., m,


n
P
∀j = 1, ..., n. Un vettore (u1 , ..., un ) ∈ Kn si chiama soluzione del sistema (2.12) se ai j u j = 0, i = 1, ..., m.
i=1

i) Dimostrare che l’insieme V di tutte le soluzioni del sistema (2.12) è un sottospazio vettoriale di Kn
e che
dimK (V) = n − rang(k ai j ki=1,...,m, j=1,...,n).

ii) Determinare esplicitamente una base di V.

Esercizio 2.13. Se f : V → W è un isomorfismo di K-spazi vettoriali allora il duale algebrico f ∗ : W ∗ → V ∗


di f è ancora un isomorfismo di K-spazi vettoriali.

Esercizio 2.14. Dimostrare che lo R-spazio vettoriale di tutte le funzioni continue sull’intervallo [a, b]
(a < b) a valori reali non è di dimensione finita.

Esercizio 2.15. Nello spazio vettoriale standard V = R2 su R si costruiscano tre sottospazi vettoriali W,
W1 e W2 tali che W1 , W2 e V = W ⊕ W1 = W ⊕ W2 .

Esercizio 2.16. Sia V uno spazio vettoriale su K. Un K-endomorfismo di spazi vettoriali p : V → V si


chiama proiettore se p2 = p (dove p2 := p ◦ p). Dimostrare che V = Ker(p) ⊕ Im(p). Inoltre provare che
q := idV −p è ancora un proiettore e che Ker(q) = Im(p), Im(q) = Ker(p).

Esercizio 2.17. Sia V uno spazio vettoriale su K. Un K-endomorfismo s : V → V si chiama simmetria se


s2 = idV (in particolare, ogni simmetria è un K-automorfismo). Provare che W := {v ∈ V|s(v) = v} è un
sottospazio vettoriale di V (asse della simmetria s) e che per ogni v ∈ V, s(v) + v ∈ W. Supponiamo inoltre
che la caratteristica di K sia , 2. Se s , idV è una simmetria di V dimostrare che p := 12 s + 12 idV è un
proiettore di V e p , idV . Viceversa, se p , idV è un proiettore di V, dimostrare che s := 2p − idV è una
simmetria di V e s , idV .

Esercizio 2.18. Consideriamo il K-spazio vettoriale V := Mn (K). Denotiamo con V1 (risp. con V2 ) l’insieme
di tutte le matrici simmetriche (risp. antisimmetriche) di V.
n(n+1)
i) Dimostrare che V1 è un sottospazio vettoriale di V di dimensione 2 , e se inoltre la caratteristica
n(n−1)
di K è , 2, V2 è un sottospazio vettoriale di V di dimensione 2 .

ii) Se la caratteristica di K è , 2 provare che V = V1 ⊕ V2 .


33

Esercizio 2.19. Sia K un campo e n ≥ 1 un intero fissato. Se la caratteristica di K è p > 0, supponiamo


inoltre che p ∤ n. Nel K-spazio vettoriale V = Mn (K) consideriamo i sottospazi vettoriali V1 := {aIn | a ∈ K}
(con In la matrice identica di Mn (K)) e V2 := {A ∈ V | tr(A) = 0}. Provare che V = V1 ⊕ V2 .
Esercizio 2.20. Sia V := R[X] l’anello dei polinomi a coefficienti reali nell’indeterminata X, pensato
come spazio vettoriale su R. Un polinomio P = P(X) ∈ R[X] si chiama pari se P(−X) = P(X), e dispari se
P(−X) = −P(X). Siano W l’insieme di tutti i polinomi pari e W ′ l’insieme di tutti i polinomi dispari di V.
Provare che W e W ′ sono R-sottospazi vettoriali di V e che V = W ⊕ W ′ .
Esercizio 2.21. Sia V il sottospazio vettoriale di R[X] di tutti i polinomi di grado ≤ n (con n ≥ 2 fissato).
i) Dimostrare che V è R-sottospazio vettoriale di R[X] e che i sistemi {1, X, X2, ..., Xn } e {1, X −
(X−a)2 (X−a)n
a, 2 , ..., n! } (con a numero reale fissato) sono due basi di V su R.
ii) Consideriamo l’applicazione D : V → V che associa ad ogni polinomio P il polinomio derivato P′ .
Dimostrare che D è un endomorfismo di V tale che Dn+1 = 0.
iii) Calcolare gli autovalori di D.
Esercizio 2.22. Sia V un K-spazio vettoriale e sia V ∗ il suo duale algebrico. Nelle notazioni del Corollarioi
2.62, dimostrare che per ogni due K-sottospazi vettoriali W1 e W2 , si hanno le uguaglianze (W1 + W2 )0 =
W10 ∩ W20 e (W1 ∩ W2 )0 = W10 + W20 .
Esercizio 2.23. Sia f ∈ HomK (V, W) un omomorfismo di K-spazi vettoriali. Definiamo il biduale f ∗∗ ∈
HomK (V ∗∗ , W ∗∗ ) di f mediante la formula f ∗∗ := ( f ∗ )∗ . Denotiamo con αV : V → V ∗∗ e αW : W → W ∗∗ gli
oomomorfismi canonici nel biduale. Dimostrare che f ∗∗ ◦ αV = αW ◦ f .
Esercizio 2.24. Sia f ∈ EndK (V) un endomorfismo di un K-spazio vettoriale V di dimensione finita n ≥ 2
tale che f n = 0, e f n−1 , 0. Dimostrare che esiste un vettore v ∈ V tale che {v, f (v), ..., f n−1(v)} è una base
di V su K. Scrivere la matrice associata a f rispetto ad una tale base.
Esercizio 2.25. Sia A = |ai j |i, j=1,...,n ∈ Mn (K). Dimostrare che se ai j = 0 ∀i ≥ j, allora An = 0.
Esercizio 2.26. Siano f, g ∈ EndK (V) due endomorfismi di un K-spazio vettoriale di dimensione finita
V. Provare che i polinomi caratteristici degli endomorfismi f ◦ g e g ◦ f coincidono. (Suggerimento: 1)
Siano A, B, C, D, A′ , B′ , C′ , D′ ∈ Mn (K[T]). Dimostrare l’uguaglianza
! ! !
A B A′ B ′ AA′ + BC′ AB′ + BD′
=
C D C′ D′ CA′ + DC′ CB′ + DD′

2) Se A, B ∈ Mn (K), utilizzando 1) verificare l’uguaglianza


! ! ! !
AB − TIn −A In 0 In 0 −TIn −A
=
0 −TIn B In B In 0 BA − TIn

3) Prendendo il determinante in quest’ultima uguaglianza otteniamo PAB (T) = PBA (T).)


Esercizio 2.27. Sia θ ∈ [0, 2π] un angolo fissato. Consideriamo l’applicazione f : R2 → R2 definita
mediante
f (x1 , x2 ) = (x1 cos θ + x2 sin θ, x1 sin θ − x2 cos θ).
Dimostrare che f ∈ Aut(R2 ) e che f 2 = idR2 ; calcolare gli autovalori e gli autospazi di f .
Esercizio 2.28. Consideriamo l’automorfismo σ ∈ AutR (R2 ) definito mediante la formula σ(x1 , x2 ) =
(x2 , −x1 ). Dimostrare che σ2 = − idK2 e che σ non ha alcun autovalore reale.
Esercizio 2.29. Provare che per ogni a ∈ R la matrice
 
 a 1 0 
 0 a 1 
  ∈ M3 (R)
 
0 0 a
non è diagonalizzabile.
34 Capitolo 2. Spazi vettoriali

Esercizio 2.30. Applicando l’Algoritmo di diagonalizzazione 2.88, diagonalizzare la matrice


 
 1 0 2 
 0 −2 5 
  ∈ M3 (R)
 
0 5 −2

Esercizio 2.31. Dimostrare che il polinomio caratteristico di una matrice antisimmetrica A ∈ Mn (R) ha
tutte le radici puramente immaginarie (un numero z ∈ C si dice puramente immaginario se Re(z) = 0).
(Suggerimento: Adattare la dimostrazione della Proposizione 2.74.)
Esercizio 2.32. Si consideri lo spazio vettoriale M2,2 (R) delle matrici 2 × 2 a elementi reali. Sia data
l’applicazione f : M2,2 (R) → M2,2 (R) definita da
! !
 x1 x2  x1 + 17x2 + 10x3 + 9x4 x2
f =
x3 x4 11x2 + 8x3 + 6x4 −13x2 − 8x3 − 6x4 .

a) Determinare la matrice associata a f rispetto alle basi canoniche.


b) Si determinino una base e le equazioni di Ker( f ) e Im( f ).
c) Si determini f (V) dove !
n x1 x2 o
V= | 4x1 + 2x3 − x4 = 0 ,
x3 x4
e f −1 (W) dove !
n x1 x2 o
W= | x1 + x4 = x3 = 0 .
x3 x4

3
L di R generato dai vettori (1, 0, 1) e (1, 1, 1). Trovare un
Esercizio 2.33. Sia V il sottospazio vettoriale
omomorfismo f : R3 → R3 tale che R3 = V Im( f ) e f (1, 1, 1) = (0, 0, 0).
Esercizio 2.34. Siano date le applicazioni lineari:
!
3 2 1 −1 2
f :R →R , ME2 E3 ( f ) =
1 −2 3
!
4 2 −3 −4 3 0
f :R →R , ME2 E4 ( f ) = .
−5 −9 4 −1

Determinare, se esiste, un’applicazione lineare h : R4 → R3 tale che f ◦ h = g.


Esercizio 2.35. Sia F : R3 → R2 , F(x1 , x2 , x3 ) = (3x1 + 2x2 + 5x3 , x1 − x2 − x3 ).
a) Esibire una base di Ker(F) e una di Im(F).
b) Trovare la matrice MD
E
(F) dove

E = {(1, 0, 1), (−1, −1, 0), (1, 0, 0)},


D = {(−1, −1), (2, 1)}.

c) Esiste H : R2 → R3 lineare tale che H ◦ F = idR3 ?


d) Esiste K : R2 → R3 lineare tale che F ◦ K = idR2 ?
Capitolo 3

Spazi vettoriali euclidei

In questo capitolo considereremo solo spazi vettoriali reali, cioè sul campo R dei numeri reali.

Definizione 3.1. Sia V uno spazio vettoriale reale. Se dice che su V è dato un prodotto scalare se è data
un’applicazione V × V → R, denotata (v, w) → hv, wi, che soddisfa i seguenti assiomi:

i) Per ogni v1 , v2 , w ∈ V e ogni a1 , a2 ∈ R si ha ha1 v1 + a2 v2 , wi = a1 hv1 , wi + a2 h2 , wi.

ii) Per ogni v, w ∈ V si ha hv, wi = hw, vi.

iii) Per ogni v ∈ V, allora hv, vi ≥ 0 e hv, vi = 0 se e solo se v = 0V .

I primi due assiomi ci dicono che l’applicazione (v, w) → hv, wi è bilineare e simmetrica. In particolare,
l’applicazione (v, w) → hv, wi è lineare anche nel secondo argomento. Uno spazio vettoriale reale dotato
di un prodotto scalare si chiama spazio vettoriale euclideo.

Esempi 3.2. 1) Sia V = Rn lo spazio vettoriale standard di dimensione n ≥ 1 su R. Se v = (a1 , ..., an) e
w = (b1 , ..., bn ) allora definiamo
hv, wi := a1 b1 + · · · + an bn .
Se verifica subito che l’applicazione V × V → R, (v, w) → hv, wi, cosı̀ definita, è un prodotto scalare
su V = Rn . Questo prodotto scalare si chiama il prodotto scalare euclideo su Rn . Lo spazio vettoriale
reale standard Rn dotato del prodotto scalare euclideo si chiama lo spazio vettoriale euclideo standard di
dimensione n.
2) Sia V lo spazio vettoriale reale di tutte le funzioni continue definite sull’intervallo [a, b], con a < b,
a valori reali (si veda l’Esempio 2.3, 4). Se f, g ∈ V allora definiamo:
Z b
h f, gi := f (t)g(t)dt.
a

Utilizzando le proprietà elementari dell’integrale si verifica subito che l’applicazione ( f, g) → h f, gi è un


prodotto scalare sullo spazio vettoriale reale (di dimensione infinita) V.

Sia (V, h , i) uno spazio vettoriale euclideo, e sia W ⊆ V un sottospazio vettoriale di V. Se conside-
riamo la restrizione a W × W del prodotto scalare h , i su V otteniamo un prodotto scalare su W, rispetto
al quale W diventa uno spazio vettoriale euclideo reale.

Definizione 3.3. Sia (V, h , i) un spazio vettoriale euclideo, e sia v ∈ V un vettore arbitrario. Allora
definiamo p
k v k:= hv, vi.
Allora k v k si chiama la norma o la lunghezza del vettore v.

35
36 Capitolo 3. Spazi vettoriali euclidei

Le seguenti proprietà della norma seguono immediatamente dalla definizione.


i) Per ogni v ∈ V si ha k v k≥ 0 e, in più, k v k= 0 se e solo se v = 0V .
ii) Per ogni a ∈ R e per ogni v ∈ V si ha
k a · v k= |a| k v k .
(Infatti k a · v k = ha · v, a · vi = a hv, vi = a2 k v k2 .)
2 2

Definizione 3.4. Sia (V, h , i) uno spazio vettoriale euclideo, e siano v, w ∈ V due vettori. Si dice che v
e w sono ortogonali (o perpendicolari) se hv, wi = 0. Se W1 e W2 sono sottospazi vettoriali di V si dice che
W1 e W2 sono ortogonali se hv, wi = 0 per ogni v ∈ W1 e w ∈ W2 . Sia A ⊆ V un insieme di vettori di V,
si dice che l’insieme A è ortogonale se hv, wi = 0 per ogni v, w ∈ A e v , w. Si dice che A è ortonormale
se A è ortogonale e inoltre k v k= 1 ∀v ∈ A (in altre parole, ogni vettore di A ha norma (o lunghezza)
1). Se A = {v1 , ..., vn} è finito, la condizione di ortonormalità di A si può ancora scrivere hvi , v j i = δi j ,
∀i, j = 1, ..., n. Un insieme ortonormale di vettori A di V si chiama completo se A non è strettamente
contenuto in nessun altro sottinsieme ortonormale di V.
Sia A ⊆ V. Denoteremo
A⊥ := {v ∈ V | hv, wi = 0, ∀w ∈ A}.
Si verifica immediatamente che A⊥ è un sottospazio vettoriale di V e che A ⊆ A⊥⊥ := (A⊥ )⊥ . In particolare,
ne segue che il sottospazio vettoriale hAi generato da A è ancora contenuto in A⊥⊥ . Nel caso in cui A è
un sottospazio vettoriale di V allora il sottospazio vettoriale A⊥ si chiama complemento ortogonale di A.
Lemma 3.5. Sia A = {v1 , ..., vn} un insieme ortonormale di vettori di uno spazio vettoriale euclideo (V, h , i).
Allora A è un sistema linearmente indipendente su R. In particolare, se V è di dimensione finita su R, allora il
numero degli elementi di ogni insieme ortonormale di vettori di V è ≤ dimR (V).
n
P
Dimostrazione. Siano a1 , ..., an ∈ R tali che ai vi = 0V . Tenendo conto dell’ipotesi di ortonormalità, per
i=1
ogni j = 1, ..., n si ha
n
X n
X
0=h ai v i , v j i = ai hvi , v j i = a j k v j k2 = a j . 
i=1 i=1

Teorema 3.6. Sia A = {v1 , ..., vn } un sottinsieme ortonormale dello spazio vettoriale euclideo (V, h , i). Per ogni
vettore v ∈ V denotiamo con ai := hv, vi i, ∀i = 1, . . . , n (a1 , . . . , an si chiamano i coefficienti di Fourier del vettore
v rispetto al sistema ortonormale {v1 , . . . , vn }). Allora si ha la diseguaglianza di Bessel
n
X
a2i ≤k v k2 .
i=1
n
P
Inoltre il vettore w = v − a i v i ∈ A⊥ .
i=1

Dimostrazione. Per dimostrare la diseguaglianza abbiamo successivamente


n
X n
X
0 ≤k w k2 = hw, wi = hv − ai v i , v − a jv ji
i=1 j=1
n
X n
X n
X
= hv, vi − ai hvi , vi − ai hv j , vi + ai a j hvi , v j i
i=1 j=1 i, j=1
n
X n
X n
X
= k v k2 −2 a2i + ai a j δi j =k v k2 − a2i .
i=1 i, j=1 i=1

Per la seconda affermazione abbiamo


n
X n
X
hw, v j i = hv, v ji − ai hvi , v j i = a j − ai δi j = 0. 
i=1 i=1
37

Teorema 3.7. Sia A = {v1 , ..., vn } un sottinsieme ortonormale dello spazio vettoriale euclideo (V, h , i). Le
condizioni seguenti sono equivalenti:
(i) A è un sottinsieme completo.
(ii) Ogni vettore v ∈ V tale che hv, vi i = 0, ∀i = 1, . . . , n, è necessariamente 0V .
(iii) hAi = V dove hAi è il sottospazio vettoriale generato da A.
n
P
(iv) Per ogni v ∈ V si ha v = hv, vi ivi .
i=1

(v) Per ogni v, w ∈ V si ha l’uguaglianza di Parseval


n
X
hv, wi = hv, vi ihvi , wi
i=1

n
P
(vi) Per ogni v ∈ V si ha l’uguaglianza k v k2 = hv, vi i2 .
i=1

Dimostrazione. (i) =⇒ (ii): Supponiamo che esista un vettore 0V , v ∈ V tale che hv, vii = 0, ∀i = 1, ..., n.
Ponendo w := v/ k v k, otteniamo un vettore di norma 1 perpendicolare a ogni vettore di A. Ne segue
che A è strettamente incluso in B := A ∪ {w}, con B sottinsieme ortonormale di V, ciò che contraddice (i).
(ii) =⇒ (iii): Supponiamo che esista v ∈ V \ hAi. Allora consideriamo il vettore non nullo w :=
n
P
v − hv, viivi . Poichè w ∈ A⊥ , ciò contraddice (ii).
i=1
n
P
(iii) =⇒ (iv): Sia v ∈ V un vettore arbitrario. Poichè V = hAi, esistono a1 , ..., an ∈ K tali che v = ai v i .
i=1
Allora per ogni j = 1, ..., n abbiamo
n
X n
X
hv, v j i = ai hvi , v j i = ai δi j = a j .
i=1 i=1
n
P n
P
(iv) =⇒ (v): Per ipotesi possiamo scrivere v = hv, viivi e w = hw, v j iv j . Allora
i=1 j=1

n
X n
X n
X
hv, wi = h hv, vi ivi , hw, v jiv j i = hv, viihw, v j ihvi , v j i =
i=1 j=1 i, j=1
n
X n
X
= hv, vi ihw, v j iδi j = hv, vi ihw, vi i.
i, j=1 i,1

(v) =⇒ (vi): Ovvio ponendo v = w.


n
P
(vi) =⇒ (i): Sia v ∈ V un vettore ortogonale ai vettori di A. Per (vi) si ha kvk2 = hv, vi i2 = 0, quindi
i=1
v = 0V . Ciò prova (i) 

Teorema 3.8. Sia (V, h , i) uno spazio vettoriale euclideo. Per ogni v, w ∈ V si ha la diseguaglianza di
Cauchy-Schwarz:
|hv, wi| ≤ kvkkwk.

Dimostrazione. Se w = 0V allora la diseguaglianza diventa uguaglianza perciò possiamo supporre w , 0.


Per ogni t ∈ R si ha
0 ≤ hv + tw, v + twi = t2 hw, wi + 2thv, wi + hv, vi.
Ne segue che il trinomio di grado 2 è ≥ 0, per ogni t ∈ R, quindi il discriminante è ≤ 0 i.e.
hv, wi2 ≤ hv, vihw, wi. 
38 Capitolo 3. Spazi vettoriali euclidei

Osservazioni 3.9. 1) La diseguaglianza di Cauchy-Schwarz si potrebbe dedurre dalla diseguaglianza


di Bessel nel modo seguente. Se w = 0V entrambi i membri della diseguaglianza di Cauchy-Schwarz si
w
annullano. Se w , 0V allora il vettore kwk è un insieme ortonormale di V, quindi per la diseguaglianza di
Bessel otteniamo
w 2
hv, i ≤ kvk2 .
kwk

2) Da entrambe le dimostrazioni segue che la diseguaglianza di Cauchy-Schwarz diventa uguaglianza


se e solo se v e w sono linearmente indipendenti.
Definizione 3.10. La diseguaglianza di Cauchy-Schwarz ci permette di definire l’angolo θ ∈ [0, π] tra
due vettori qualsiasi non nulli v, w di uno spazio vettoriale euclideo (V, h , i) mediante la formula
 hv, wi 
θ = arccos .
kvkkwk
hv,wi
La definizione è ben posta poichè, secondo la diseguaglianza di Cauchy-Schwarz, kvk·kwk ∈ [−1, 1].
Definizione 3.11. La diseguaglianza di Cauchy-Schwarz è rilevante anche dal seguente punto di vista.
Sia (V, h , i) uno spazio vettoriale euclideo. Se v, w ∈ V sono due vettori arbitrari, possiamo definire la
distanza d(v, w) tra v e w mediante la formula:
p
d(v, w) :=k v − w k= hv − w, v − wi.

Proposizione 3.12. L’applicazione (v, w) → d(v, w) gode delle seguenti proprietà:


i) d(v, w) ≥ 0, ∀v, w ∈ V, e d(v, w) = 0 se e solo se v = w.
ii) d(v, w) = d(w, v), ∀v, w ∈ V.
iii) Per ogni v, w, u ∈ V si ha la diseguaglianza triangolare d(u, w) ≤ d(u, v) + d(v, w).
iv) d(v, w) = d(v + u, w + u), se u, v, w ∈ V i.e. la distanza è invariante per traslazioni.

Dimostrazione. Le proprietà i), ii) e iv) sono immediate. Solo iii) necessita una dimostrazione. Siano x,
y ∈ V. Utilizzando la definizione di prodotto scalare e la diseguaglianza di Cauchy-Schwarz si ha:

k x + y k2 = hx + y, x + yi =k x k2 +2hx, yi+ k y k2 ≤k x k2 +2|hx, yi|+ k y k2 ≤

≤k x k2 +2 k x kk y k + k y k2 = (k x k + k y k)2 ,
o ancora
k x + y k≤k x k + k y k .
Ponendo x = u − v e y = v − w si ottiene iii). 

Definizione 3.13. Un insieme non vuoto V dotato di un’applicazione d : V × V → R che soddisfa le


proprietà i), ii) e iii) della Proposizione 3.12. si chiama spazio metrico.
La diseguaglianza di Cauchy-Schwarz diventa, nei casi degli Esempi 3.2:
Esempi 3.14. 1) Per ogni a1 , ..., an , b1 , ..., bn ∈ R (con n ≥ 1) si ha la diseguaglianza

(a1 b1 + · · · + an bn )2 ≤ (a21 + · · · + a2n )(b21 + · · · + b2n ).

La distanza definita dal prodotto scalare di 1) degli Esempi 3.2 in Rn , si chiama distanza euclidea su Rn
ed è data dalla formula v
t n
X
d(A, B) = (ai − bi )2 ,
i=1
39

dove A = (a1 , ..., an ) e B = (b1 , ..., bn ).


2) Per ogni due funzioni continue f, g : [a, b] → R (a < b) si ha la diseguaglianza
Z b Z b Z b
2 2
( f (t)g(t)dt) ≤ f (t) dt g(t)2 dt.
a a a

La distanza definita dal prodotto scalare di 2) degli Esempi 3.2 sullo spazio vettoriale di tutte le funzioni
continue definite su [a, b] a valori reali è data da
s
Z b
d( f, g) = ( f (t) − g(t))2 dt.
a

Teorema 3.15. Sia (V, h , i) uno spazio vettoriale euclideo di dimensione finita. Allora esiste una base ortonormale
{v1 , ..., vn} di V, i.e. {v1 , ..., vn } è una base di V tale che hvi , v j i = δi j , ∀i, j = 1, . . . , n.

Dimostrazione. La dimostrazione del teorema è più precisa dell’enunciato permettendo di costruire effet-
tivamente una base ortonormale partendo da una qualsiasi base di V. Questo metodo si chiama algoritmo
di ortonormalizzazione di Gram-Schmidt.
Sia {x1 , ..., xi} una base arbitraria di V. Dimostreremo per induzione su i ≤ n che possiamo costruire
un insieme ortonormale {v1 , ..., vi} tale che vi sia combinazione lineare di x1 , ..., xi. Se i = 1 poniamo
v1 = kxx11 k (x1 , 0V perchè x1 fa parte di una base di V). Poichè kv1 k = 1 la tesi vale per i = 1.
Supponiamo per induzione di aver già costruito l’insieme ortonormale {v1 , ..., vr} (che, per il lemma
3.5, è linearmente indipendente), con r ≤ n − 1, tale che, per ogni 1 ≤ i ≤ r, vi è combinazione lineare di
x1 , ..., xi . Poniamo
yr+1 := xr+1 − (a1 v1 + · · · + ar vr ),
con a1 , ..., ar scalari da determinare. Osserviamo prima che, qualsiasi siano gli scalari ai , si ha yr+1 , 0V ;
infatti, in caso contrario risulterebbe che xr+1 è combinazione lineare di v1 , ..., vr, dunque, secondo l’ipotesi
induttiva, di x1 , ..., xr, ciò che contraddice l’indipendenza lineare di {x1 , ..., xn }. Si ha
r
X r
X
hyr+1 , vi i = hxr+1 , vi i − a j hv j , vi i = hxr+1 , vi i − a j δi j = hxr+1 , vi i − ai .
j=1 j=1

Ne segue che, ponendo ai = hxr+1 , vi i, ∀i = 1, . . . , r, il vettore non nullo yr+1 è ortogonale all’insieme
{v1 , ..., vr}; inoltre yr+1 è anche combinazione lineare dei vettori x1 , ..., xr.
yr+1
Ponendo vr+1 = kyr+1 k , otteniamo l’insieme ortonormale {v1 , ..., vr+1}, a r + 1 elementi, con la proprietà
che v j è combinazione lineare di x1 , ..., x j, per ogni j = 1, . . . , r + 1.
In questo modo abbiamo dimostrato che esiste un insieme ortonormale {v1 , ..., vn }. Per il Lemma
3.5 questo insieme è linearmente indipendente. Poichè dim(V) = n, {v1 , ..., vn } è la base ortonormale di V
cercata. 

Proposizione 3.16. Sia W un sottospazio vettoriale di uno spazio vettoriale euclideo (V, h , i). Allora V = W⊕W ⊥
e W ⊥⊥ = W.

Dimostrazione. Per il Teorema 3.15 esiste una base ortonormale {v1 , ..., vn} di W. Sia v ∈ V. Per il Teorema
n
P
3.6 il vettore w := v − hv, vi ivi appartiene a W ⊥ , quindi v ∈ W + W ⊥ , i.e. W + W ⊥ = V. D’altra parte è
i=1
chiaro che W ∩ W ⊥ = {0V } (poichè se x ∈ W ∩ W ⊥ allora hx, xi = 0, i.e. x = 0). Quindi V = W ⊕ W ⊥ .
Sappiamo già che W ⊆ W ⊥⊥ . Viceversa, sia v ∈ W ⊥⊥ . Allora v se può scrivere (in modo unico)
v = u + w, con u ∈ W e w ∈ W ⊥ . Allora si ha

0 = hv, wi = hu + w, wi = hu, wi + hw, wi = hw, wi =k w k2 .

La prima uguaglianza vale perchè w ∈ W ⊥ e v ∈ W ⊥⊥ . Quindi w = 0V , i.e. v = u ∈ W. 


40 Capitolo 3. Spazi vettoriali euclidei

Corollario 3.17. (i) Nelle ipotesi della Proposizione 3.16, ogni v ∈ V ammette una decomposizione unica della
forma v = w + u, con w ∈ W e hw, ui = 0 (i.e. i vettori w e u sono perpendicolari).
(ii) Sia W ′ un sottospazio vettoriale di V tale che W ⊥ W ′ e V = W + W ′ . Allora W ′ = W ⊥ .

Definizione 3.18. Sia (V, h , i) un spazio vettoriale euclideo di dimensione finita, e sia W un sottospazio
vettoriale di V. Se V si scrive come V = W ⊕ W ′ , con W, W ′ sottospazi vettoriali perpendicolari nel
senso della Definizione 3.4, allora diciamo che V è somma ortogonale dei sottospazi W e W ′ , e scriveremo
V = W ⊥ W ′ . Il Corollario 3.17 fa vedere che W ′ è univocamente determinato da W e coincide con
il complemento ortogonale W ⊥ di W. Se V = W ⊥ W ′ allora ogni v ∈ V si scrive in un modo unico
v = w + w′ , con w ∈ W e w′ ∈ W ′ . Allora il vettore w (risp. w′ ) si chiama proiezione ortogonale del vettore v
sul sottospazio W (risp. sul sottospazio W ′ ).

Proposizione 3.19. Sia (V, h , i) uno spazio vettoriale euclideo, e siano W ⊆ U ⊆ V sottospazi vettoriali di V.
Allora
W ⊥ = WU ⊥
⊥ U⊥ ,

dove WU è il complemento ortogonale di W in U.

Dimostrazione. Applicando ripetutamente la Proposizione 3.16 abbiamo

W ⊥ W ⊥ = V = U ⊥ U⊥ = (W ⊥ WU

) ⊥ U⊥ = W ⊥ (WU

⊥ U⊥ ),

da cui si conclude. 

3.20. Automorfismi lineari ortogonali. Sia (V, h , i) un spazio vettoriale euclideo di dimensione finita, e
sia σ ∈ AutR (V) un automorfismo di V. Si dice che σ è automorfismo ortogonale se per ogni v, w ∈ V si ha

hσ(v), σ(w)i = hv, wi,

i.e. se σ lascia invariato il prodotto scalare. Ponendo v = w otteniamo

kσ(v)k2 = kvk2 , ∀v ∈ V.

Proposizione 3.21. (i) Sia σ ∈ AutR (V) tale che kσ(v)k2 = kvk2 per ogni v ∈ V. Allora σ è automorfismo
ortogonale di V.
(ii) Siano e1 , . . . , en una base ortonormale di V e σ ∈ AutR (V). Allora σ è automorfismo ortogonale di V se e solo
se σ(e1 ), . . . , σ(en ) è base ortonormale di V.

Dimostrazione. (i) Si usa l’uguaglianza hσ(v + w), σ(v + w)i = hv + w, v + wi.


(ii) Se σ è automorfismo ortogonale allora hσ(ei ), σ(e j )i = hei , e j i = δi j , per ogni i, j = 1, . . . , n, quindi
σ(e1 ), . . . , σ(en ) è base ortonormale di V. Viceversa supponiamo che σ(e1 ), . . . , σ(en ) sia base ortonormale
n
P n
P
di V. Per ogni v = ai ei e w = b j e j vettori in V abbiamo
i=1 j=1

n
X n
X
hσ(v), σ(w)i = h ai σ(ei ), σ(b j )e j i =
i=1 j=1

n
X n
X n
X
= ai b j hσ(ei ), σ(e j )i = ai b j δi j = ai bi .
i, j=1 i, j=1 i=1

n
P
D’altra parte, un calcolo simile mostra che hv, wi = ai bi . 
i=1
41

Corollario 3.22. Sia B = {e1 , ..., en } una base ortonormale di uno spazio vettoriale euclideo (V, h , i). Sia
σ ∈ AutR (V) un automorfismo di V e sia MB σ = |ai j |i, j=1,...,n la matrice associata a σ rispetto a B. Allora σ è
automorfismo ortogonale se e solo se
n
X
aki ak j = δi j , ∀i, j = 1, ..., n.
k=1

Dimostrazione. Il Corollario segue dalla Proposizione 3.21, (ii), tenendo conto che
n
X
hσ(ei ), σ(e j )i = aki ak j .
k=1


Le condizioni del Corollario 3.22 caratterizzano l’ortogonalità di σ in termini della matrice associata
a σ rispetto a una data base ortonormale B. Queste condizioni si riscrivono

At · A = In , i.e. At = A−1 ,
t
dove A è la matrice MB
σ = |ai j |i, j=1,...,n, e A è la trasposta di A.
Prendendo il determinante in questa formula otteniamo:

Corollario 3.23. Se σ è un automorfismo ortogonale di (V, h , i), allora det(σ) = ±1.

Definizione 3.24. Sia V = Rn lo spazio vettoriale reale standard di dimensione n ≥ 1 dotato del prodotto
scalare euclideo dell’Esempio 3.2, 1). Denoteremo con O(n) l’insieme di tutti gli automorfismi ortogonali
di V = Rn . È facile verificare che O(n) è un sottogruppo del gruppo AutR (Rn ); O(n) è chiamato gruppo
ortogonale di Rn . In base al Corollario 3.23 consideriamo la funzione determinante

det : O(n) → {−1, +1},

che è ovviamente un omomorfismo surgettivo di gruppi. Denoteremo con

SO(n) := Ker(det) = {σ ∈ O(n) | det(σ) = 1}.

SO(n) è un sottogruppo normale di indice 2 in O(n), e si chiama gruppo ortogonale speciale. Gli automorfismi
di SO(n) si chiamano automorfismi ortogonali speciali. Invece gli automorfismi di O(n) \ SO(n) si chiamano
automorfismi ortogonali non speciali.

Proposizione 3.25. Siano (V, h , i) uno spazio vettoriale euclideo, σ un automorfismo ortogonale di V, e W un
sottospazio vettoriale invariante per σ. Allora il complemento ortogonale W ⊥ è ancora un sottospazio vettoriale
invariante per σ.

Dimostrazione. Sia w ∈ W ⊥ un vettore arbitrario. Dobbiamo provare che σ(w) ∈ W ⊥ , i.e. hσ(w), vi = 0 per
ogni v ∈ W. Poichè W è invariante e σ bigettivo, σ(W) = W. Allora esiste v1 ∈ W tale che σ(v1 ) = v. Quindi

hσ(w), vi = hσ(w), σ(v1)i = hw, v1 i = 0,

poichè σ è ortogonale, v1 ∈ W e w ∈ W ⊥ . 

Studiamo ora gli automorfismi ortogonali in dimensione 1 e 2. Se dimR (V) = 1 allora σ(e) = λe, con
e vettore di norma 1 e λ ∈ R. Poichè det(σ) = ±1 allora λ = ±1. Quindi σ = ± idV .
Supponiamo che dimR (V) = 2, e sia e1 , e2 una base ortonormale di V. Allora la matrice associata a σ
rispetto a questa base è della forma |ai j |i, j=1,2. Le condizioni di ortogonalità date dal Corollario 3.22 sono

a211 + a221 = 1, a11 a12 + a21 a22 = 0, a212 + a222 = 1. (3.1)


42 Capitolo 3. Spazi vettoriali euclidei

Supponiamo dapprima che det(σ) = 1, i.e. a11 a22 − a12 a21 = 1. Tenendo conto della prima e ultima
uguaglianza di (3.1) possiamo scrivere

a11 = cos θ, a21 = sin θ, a12 = sin θ′ , a22 = cos θ′ ,

con θ, θ′ ∈ [0, 2π). Inoltre, la seconda uguaglianza di (3.1) e quella che riguarda il determinante danno

sin(θ + θ′ ) = 0, cos(θ + θ′ ) = 1. (3.2)

Da (3.2), θ + θ′ = 0 o θ + θ′ = 2π. In entrambi i casi sin θ′ = − sin θ e cos θ′ = cos θ. Ne segue che ogni
automorfismo ortogonale speciale σ di V (con dimR (V) = 2) ha la matrice associata rispetto a ogni base
ortonormale della forma: !
cos θ − sin θ
, (3.3)
sin θ cos θ
con θ ∈ [0, 2π). L’automorfismo ortogonale σ con la matrice (3.3) rispetto a una base ortonormale {e1 , e2 }
si chiama rotazione di angolo θ (in senso antiorario, o trigonometrico).
Supponiamo ora det(σ) = −1. Allora in modo analogo si ottiene

sin(θ + θ′ ) = 0, cos(θ + θ′ ) = −1, (3.4)

i.e. θ + θ′ = π, o θ + θ′ = 3π. In questo caso la matrice di σ rispetto alla base e1 , e2 diventa


!
cos θ sin θ
,
sin θ − cos θ

con θ ∈ [0, 2π). Si osserva che σ2 = idV (poichè il quadrato della matrice di sopra è I2 ). Inoltre con una
verifica immediata osserviamo che il vettore v1 := cos θ2 · e1 + sin θ2 · e2 soddisfa σ(v1 ) = v1 . Se poniamo
v2 := − sin θ2 · e1 + cos θ2 · e2 , allora si è facile verificare che {v1 , v2 } è una base ortonormale di V e che
σ(v2 ) = −v2 . Ne segue che se σ è un automorfismo ortogonale di V (con dimR (V) = 2) e det(σ) = −1 allora
esiste una base ortonormale {v1 , v2 } di V tale che la matrice di σ rispetto a questa base è
!
1 0
. (3.5)
0 −1

L’automorfismo ortogonale che rispetto alla base ortonormale {v1 , v2 } ha la matrice (3.5) si chiama sim-
metria o riflessione di asse la retta individuata dai vettori 0V e v1 .
Proposizione 3.26. Sia σ un automorfismo ortogonale di uno spazio vettoriale euclideo (V, h , i) di dimensione n.
(i) Se n = 1 allora σ = ± idV .
(ii) Se n = 2 esiste una base ortonormale {e1 , e2 } di V in rapporto alla quale la matrice di σ è o della forma (3.3)
(rotazione di angolo θ se det(σ) = 1) o della forma (3.5) (simmetria, o riflessione, di asse una retta passante per
l’origine, se det(σ) = −1). Inoltre ogni rotazione è la composizione di due simmetrie.

Dimostrazione. Solo l’ultima affermazione di (ii) ha bisogno di dimostrazione. Sia σ una rotazione; pren-
diamo una simmetria qualsiasi τ, allora det(σ ◦ τ) = det(σ) det(τ) = −1 (poichè det(τ) = −1). Tenendo
conto della prima parte di (ii), τ′ := σ ◦ τ è una simmetria. Otteniamo σ = τ′ ◦ τ. 

Il risultato fondamentale riguardante la struttura degli automorfismi ortogonali è il seguente:


Teorema 3.27. Sia σ un automorfismo ortogonale di uno spazio vettoriale euclideo (V, h , i) di dimensione n.
Allora esiste una base ortonormale {e1 , e2 , ..., en } rispetto alla quale σ ha la matrice
 
 Ip 0 0 . . . 0 
 0 −I
 q 0 . . . 0 
 
 0 0 R1 . . . 0  ,
 
 .. .. .. . . .. 
 .
 . . . . 

0 0 0 . . . Rk
43

con p + q + 2k = n, p, q, k ≥ 0, Ip è la matrice identica a p righe e p colonne, e


!
cos θi − sin θi
Ri = ,
sin θi cos θi

con θi ∈ [0, 2π), ∀i = 1, ..., k.

Dimostrazione. Per la Proposizione 2.78 esiste un sottospazio W di V invariante per σ di dimensione 1 o 2.


Applicando la Proposizione 3.25 ne segue che W ⊥ è ancora invariante per σ e V = W ⊥ W ⊥ . La matrice
di σ|W (rispetto a una base ortonormale opportuna di W) è descritta dalla Proposizione 3.26. Ripetiamo
lo stesso argomento per σ|W ⊥ ; in altre parole, sempre per la Proposizione 2.78 esiste un sottospazio
W ′ di W ⊥ invariante per σ|W ⊥ (e quindi per σ) di dimensione 1 o 2. Se W ′′ è l’ortogonale di W ′ in
W ⊥ , allora W ′′ è ancora invariante per σ (Proposizione 3.25), e da V = W ⊥ W ⊥ e W ⊥ = W ′ ⊥ W” ne
segue V = W ⊥ W ′ ⊥ W”. Ripetendo lo stesso procedimento e usando la Proposizione 3.26, la matrice
associata a σ|W ′ (rispetto a una opportuna base ortonormale di W ′ ) è nota. Continuando in questo modo
e usando l’induzione sulla dimensione si determinano dei sottospazi W1 , ..., Ws di V invarianti per σ, di
dimensione 1 o 2, tali che V = W1 ⊥ W2 ⊥ · · · ⊥ Ws . In ogni Wi esiste una base ortonormale Bi rispetto
alla quale la matrice associata a σ|Wi è della forma (3.3) o (3.5). Allora applicando la Proposizione 2.68 si
deduce che B := B1 ∪ · · · ∪ Bs è (modulo una permutazione) la base cercata. 

Definizione 3.28. Sia σ un automorfismo ortogonale di uno spazio vettoriale euclideo (V, h , i) di
dimensione n. Allora σ si chiama rotazione (risp. simmetria) se esiste una base ortonormale {e1 , ..., en }
rispetto alla quale la matrice di σ sia della forma:
 
 1 . . . 0 0 0 . . . 0 
 . .
. . ... ... ... . . . ... 

 .
 . 

 0 . . . 1 0 0 . . . 0 
 
 0 . . . 0 R 0 . . . 0  ,
 
 0 . . . 0 0 1 . . . 0 
 
 . . .. .. .. . . .. 
 . . . . . . . . 
 .
 
0 ... 0 0 0 ... 1
con ! !
cos θ − sin θ −1 0
R= , (θ ∈ [0, 2π)), R=
sin θ cos θ 0 1
rispettivamente.
Il Teorema 3.27 e la Proposizione 3.26 implicano:
Corollario 3.29. Ogni automorfismo ortogonale σ di uno spazio vettoriale euclideo (V, h , i) di dimensione n ≥ 2
è la composizione di al più n simmetrie.

Teorema 3.30. Sia C ∈ Mn (R) una matrice simmetrica non nulla. Allora esiste una matrice ortogonale A ∈ Mn (R)
(i.e. At A = In ) tale che la matrice ACAt sia diagonale.

Dimostrazione. Procediamo per induzione su n, essendo il caso n = 1 banale. Supponiamo n ≥ 2 e


supponiamo vera la tesi per ogni m ≤ n − 1. Per la Proposizione 2.74 esiste un autovalore d1 di C.
Ciò implica l’esistenza di una matrice colonna non nulla A1 = (a1 , ..., an )t a coefficienti reali tale che
CA1 = d1 A1 . Inoltre moltiplicando i coefficienti di A1 per un opportuno numero reale possiamo supporre
che At1 A = 1 (in altre parole, k At1 k= 1).
Affermazione. Esiste una matrice ortogonale B ∈ Mn (R) la cui prima riga sia At1 .
Infatti, poichè il vettore At1 ∈ Rn è di norma 1, possiamo completarlo a una base ortonormale
At1 , ..., Atn di Rn , per il Teorema 3.15, con Ai matrice colonna. Allora Bt = (A1 , A2 , ..., An) è una matrice
ortogonale, e quindi la matrice cercata è B = (Bt )t . In questo modo l’affermazione è dimostrata.
44 Capitolo 3. Spazi vettoriali euclidei

La matrice BCBt è simmetrica (poichè C è simmetrica). Poichè la prima colonna della matrice CBt
è la matrice d1 A1 , ne segue che la prima colonna della matrice BCBt è (At1 d1 A1 , At2 d1 A1 , ...Atn d1 A1 )t =
(d1 , 0, ..., 0)t (At1 , At2 ,...,Atn è una base ortonormale di Rn ). Poichè BCBt è anche simmetrica ne segue che la
matrice BCBt è della forma  
 d1 0 . . . 0 
 0 d
 22 . . . d2n 
t
BCB =  .
 .. .. .. ..  ,
. . . 

0 dn2 . . . dnn
dove la matrice D := |di j |i, j=2,...,n ∈ Mn−1 (R) è una matrice simmetrica. Per l’ipotesi induttiva esiste una
matrice ortogonale E ∈ Mn−1 (R) tale che
 
 d2 0 ... 0 

 0 d3 ... 0 

t  .
EDE =  .. .. .. .. 

 . . . . 

0 0 . . . dn

Poichè E è ortogonale, la matrice !


1 0
B1 :=
0 E
è ancora ortogonale. Allora la matrice A := B1 B è ortogonale e si ha
 
 d1 0 ... 0 

 0 d2 ... 0 

t  .
ACA =  .. .. .. .. 

 . . . . 
 
0 0 . . . dn

Sia C = |ci j |i, j=1,...,n ∈ Mn (R) una matrice simmetrica a coefficienti reali. Presentiamo ora un metodo
pratico per determinare una matrice ortogonale A ∈ O(n) tale che la matrice ACAt abbia la forma
 
 d1 0 ... 0 

 0 d2 ... 0 

t  ,
ACA =  .. .. .. .. 

 . . . . 

0 0 . . . dn

dove d1 , ..., dn sono gli autovalori di C (secondo la Proposizione 2.74, il polinomio caratteristico di C ha
tutte le radici reali).
Avremo bisogno del seguente:
Lemma 3.31. Sia C = |ci j |i, j=1,...,n ∈ Mn (R) una matrice e siano x = (x1 , ..., xn )t e y = (y1 , ..., yn )t vettori colonna,
considerati come punti dello spazio vettoriale euclideo standard Rn . Allora si ha la formula: hCx, yi = hx, Ct yi,
dove h , i è il prodotto scalare euclideo su Rn . In particolare se C è simmetrica, allora hCx, yi = hx, Cyi.

Dimostrazione. Denotiamo con (Cx)i il coefficiente della riga i del vettore colonna Cx. Allora abbiamo
n
X n X
X n n
X
hCx, yi = (Cx)i yi = ( ci j x j )yi = ci j x j y i .
i=1 i=1 j=1 i, j=1

n
X n
X n
X n
X
hx, Ct yi = x j (Ct y) j = x j( ci j y i ) = ci j x j y i . 
j=1 j=1 i=1 i, j=1

Lemma 3.32. Due autovettori di una matrice simmetrica C = |ci j |i, j=1,...,n ∈ Mn (R) corrispondenti a due autovalori
distinti sono ortogonali.
45

Dimostrazione. Siano v1 e v2 due autovettori di C (scritti come vettori colonna di Rn ) corrispondenti,


rispettivamente, agli autovalori distinti λ1 e λ2 . Tenendo conto del Lemma 3.31, si ha:

λ1 hv1 , v2 i = hλ1 v1 , v2 i = hCv1 , v2 i = hv1 , Cv2 i = hv1 , λ2 v2 i = λ2 hv1 , v2 i.

Poichè λ1 , λ2 queste uguaglianze implicano hv1 , v2 i = 0. 

Definizione 3.33. Sia C = |ci j |i, j=1,...,n una matrice simmetrica di Mn (R). Si dice che una matrice ortogonale
A ∈ O(n) diagonalizza ortogonalmente C se ACAt è diagonale. In questo caso la diagonale principale di
ACAt è costituita dagli autovalori di C (ripetuti con le loro molteplicità algebriche).
Sia C = |ci j |i, j=1,...,n una matrice simmetrica di Mn (R). Il Teorema 3.30 ci dice che esiste A ∈ O(n) tale
che ACAt sia diagonale. Consideriamo l’endomorfismo di R-spazi vettoriali u : Rn → Rn definito da
n
X n
X 
u(x1 , . . . , xn ) = c1 j x j , . . . , cnj x j .
j=1 j=1

In altre parole la matrice associata a u rispetto alla base canonica di Rn è proprio la matrice C. Per quello
che abbiamo detto sopra Rn ammette una base di autovettori di u, i.e. una base di autovettori di C.
Per ogni autovalore λ ∈ {d1 , . . . , dn } della matrice C, denotiamo con

Eλ = {x ∈ Rn | u(x) = λx, i.e. Cx = λx}

l’autospazio corrispondente all’autovalore λ. Per il Teorema 3.15 Eλ ha una base ortonormale Bλ . Per il
Lemma 3.32 e la Proposizione 2.74, ne segue che, se λ1 , . . . , λr sono tutti autovalori a due a due distinti
della matrice C, allora
Bλ1 ∪ ... ∪ Bλr
è una base ortonormale di Rn .
Dalla dimostrazione del Teorema 3.30 deriva il seguente algoritmo per determinare la matrice
ortogonale A ∈ O(n) tale che ACAt sia diagonale (con C matrice simmetrica e con i coefficienti della
diagonale principale di ACAt gli autovalori d1 , ..., dn di C):

3.34. Algoritmo per la diagonalizzazione ortogonale.


INPUT: La matrice simmetrica C ∈ Mn (R).
1. Calcolare tutti gli autovalori di C. Siano λ1 , ..., λr tutti gli autovalori a due a due distinti di C (per
la Proposizione 2.74 tutte le radici del polinomio caratteristico di C sono reali).
2. Per ogni i = 1, ..., r trovare una base B′λi dell’autospazio Eλi . (Per il Teorema 3.30, B′λ1 ∪ ... ∪ B′λr è
una base di Rn .)
3. Applicare (se necessario) il procedimento di Gram-Schmidt (vedi la dimostrazione del Teorema
3.15) per trovare una base ortonormale Bλi di Eλi partendo dalla base B′λi , ∀i = 1, ..., r. Allora utilizzando
il Lemma 3.32, B = Bλ1 ∪ ... ∪ Bλr è una base ortonormale di Rn .
4. Sia B = {v1 , ..., vn }, con vi = (ai1 , ..., ain ), ∀i = 1, ..., n. Poichè B è una base ortonormale, la matrice
A = |ai j |i, j=1,...,n è ortogonale. Dalla dimostrazione del Teorema 3.30 ne segue che
 
 d1 0 ... 0 

 0 d2 ... 0 

t  ,
ACA =  .. .. .. .. 

 . . . . 

0 0 . . . dn

con d1 , ..., dn autovalori di C (ripetuti con le loro molteplicità).


OUTPUT: A ∈ O(n) e ACAt è diagonale.
46 Capitolo 3. Spazi vettoriali euclidei

Esempio 3.35. Consideriamo la matrice simmetrica


 
 0 1 1 
 1 0 1 
C =   .
 
1 1 0

Il polinomio caratteristico della matrice C è −X3 + 3X + 2 = −(X + 1)2 (X − 2). Quindi le sue radici
sono d1 = d2 = −1 e d3 = 2. Allora r = 2, λ1 = −1 e λ2 = 2.
Calcolando gli autospazi E−1 e E2 troviamo:

E−1 = {(x1 , x2 , x3 ) ∈ R3 | x1 + x2 + x3 = 0} = R(1, −1, 0) + R(1, 0, −1).

E2 = {(t, t, t) | t ∈ R} = R(1, 1, 1).


La base B′−1 = {(1, −1, 0), (1, 0, −1)} non essendo ortogonale (in particolare, il Lemma 3.32 non è sempre
vero se due autovalori coincidono), applichiamo il procedimento di Gram-Schmidt per trovare una base
ortonormale. Poniamo v1 := (1, −1, 0) e v2 := (1, 0, −1). Sia
1 1 −1
w1 := v1 = (√ , √ , 0)
k v1 k 2 2

e cerchiamo w′2 = v2 − aw1 tale che hw1 , w′2 i = hv2 , w1 i − a = 0. Quindi a = hv2 , w1 i = √1 . Quindi
2
w′2 = (1, 0, −1) − √1 ( √1 , − √1 , 0) = ( 21 , 21 , −1). Normalizzando otteniamo w2 = 1 ′
(√1 , √1 , −√2 ).
2 2 2 kw2 k w2 =
6 6 6
Infine poniamo v3 = (1, 1, 1) e w3 = (√1 , √1 , √1 ). Allora
3 3 3

1 −1 1 1 2 1 1 1
B = {w1 , w2 , w3 } = {(√ , √ , 0), (√ , √ , −√ ), (√ , √ , √ )}
2 2 6 6 6 3 3 3
è una base ortonormale di R3 formata dagli autovettori di C. La matrice ortogonale cercata è
 1 −1 
 √2 √2 0 
 1 1 2 

A =  √6 √6 −√6  .
 1 
√ √1 √1
3 3 3

Con un calcolo diretto si verifica che


 
 −1 0 0 
t 
ACA =  0 −1 0  .
 
0 0 2

Esercizi
Esercizio 3.1. Siano d1 , ...dn n numeri reali strettamente positivi (n ≥ 2). Dimostrare che

h(x1 , ..., xn), (y1 , ..., yn )i := d1 x1 y1 + · · · + dn xn yn

definisce un prodotto scalare per Rn .

Esercizio 3.2. Per ogni due vettori v e w di uno spazio vettoriale euclideo V tale che k v k=k w k, i vettori
v − w e v + w sono ortogonali. Interpretare geometricamente questo fatto.

Esercizio 3.3. Per ogni due vettori v e w di uno spazio vettoriale euclideo V si ha l’uguaglianza k v + w k2
+ k v − w k2 = 2 k v k2 +2 k w k2 . Interpretare geometricamente questo fatto.
47

Esercizio 3.4. Sia {v1 , ..., vn } una base ortonormale di uno spazio vettoriale euclideo V. Per ogni i = 1, ..., n
poniamo xi := v1 + · · · + vi . Dimostrare che {x1 , ..., xn} è una base di V su R e ortonormalizzare questa base
utilizzando il procedimento di Gram-Schmidt.

Esercizio 3.5. Siano W e U due sottospazi vettoriali di uno spazio vettoriale euclideo V di dimensione
finita. Dimostrare le uguaglianze (W + U)⊥ = W ⊥ ∩ U⊥ e (W ∩ U)⊥ = W ⊥ + U⊥ .

Esercizio 3.6. Dimostrare che ogni sottogruppo finito di SO(2) è ciclico.

Esercizio 3.7. Dimostrare che i vettori v1 = (cos θ2 , sin θ2 ) e v2 = (− sin θ2 , cos θ2 ) dello spazio vettoriale
euclideo standard R2 sono autovettori dell’ automorfismo ortogonale di R2 definito (rispetto alla base
canonica) dalla matrice !
cos θ sin θ
sin θ − cos θ

Esercizio 3.8. Dimostrare che per ogni numero naturale m si ha


!m !
cos θ − sin θ cos mθ − sin mθ
=
sin θ cos θ sin mθ cos mθ

Esercizio 3.9. Consideriamo gli automorfismi ortogonali σ e ρ dello spazio vettoriale euclideo standard
R2 definiti (rispetto alla base canonica di R2 ) dalle matrici
! !
1 0 cos 2π
n − sin 2π
n
e
0 −1 sin 2π
n cos 2π
n

rispettivamente (con n ≥ 2). Dimostrare che σ2 = ρn = id e ρ ◦ σ = σ ◦ ρn−1 . Dimostrare inoltre che il


sottogruppo generato da σ e ρ in O(2) ha 2n elementi. (Questo sottogruppo si chiama sottogruppo diedrale
di O(2).)

Esercizio 3.10. Siano v = (v1 , v2 , v3 ), w = (w1 , w2 , w3 ) ∈ R3 . Definiamo il vettore v × w ∈ R3 (che si chiama


prodotto vettoriale di v con w) mediante il determinante formale

e1 e2 e3
v1 v2 v3 = v2 v3 e1 − v1 v3 e2 + v1 v2 e3 =
w2 w3 w1 w3 w1 w2
w1 w2 w3

= (v2 w3 − v3 w2 , v3 w1 − v1 w3 , v1 w2 − v2 w1 ),
con e1 , e2 , e3 base canonica di R3 . Il verso del vettore v × w è dato dalla cosı̀ detta regola della mano destra
(vedi Figura 3.1).
Verificare le uguaglianze:

e1 × e2 = e3 , e2 × e3 = e1 , e3 × e1 = e2 ,

v × w = −w × v, v × (w1 + w2 ) = v × w1 + v × w2 , ∀v, w, w1 , w2 ∈ R3 ,
(av) × w = v × (aw) = a(v × w), ∀v, w ∈ R3 , ∀a ∈ R,
u × (v × w) = hu, wiv − hu, viw, ∀ u, v, w ∈ R3 ,

u1 u2 u3
hu, v × wi = hv, w × ui = hw, u × vi = v1 v2 v3 ,

w1 w2 w3
∀ u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ), w = (w1 , w2 , w3 ) ∈ R3 .
48 Capitolo 3. Spazi vettoriali euclidei

Figura 3.1:

v∧w
w

w∧v

Esercizio 3.11. Per ogni v, w ∈ R3 verificare l’identità di Lagrange

kv × wk2 = kvk2 kwk2 − hv, wi2 .

Esercizio 3.12. Sia θ l’angolo tra i vettori non nulli v e w dello spazio vettoriale euclideo standard R3
(vedi Definizione 3.10). Dimostrare l’uguaglianza

kv × wk = kvkkwk sin θ.

In particolare l’area A del parallelogramma di lati adiacenti i vettori v e w è data dalla formula A = kv×wk.

Esercizio 3.13. Dimostrare che il volume V del parallelepipedo di spigoli adiacenti i vettori u, v e w è
dato dalla formula V = |hu, v × wi|.

Esercizio 3.14. Per ogni u, v, w ∈ R3 si ha l’uguaglianza hu × v, wi = hu, v × wi. Provare inoltre l’identità
di Jacobi
(u × v) × w + (v × w) × u + (w × u) × v = 0R3 .

Esercizio 3.15. Siano u, v e w gli spigoli adiacenti di un tetraedro di R3 che ha l’origine come uno dei
vertici. Dimostrare che il volume V di questo tetraedro è dato dalla formula V = 16 |hu, v × wi|.

Esercizio 3.16. Adattando la dimostrazione del Teorema 3.30 dimostrare il seguente Teorema di Schur:
per ogni matrice C ∈ Mn (R) il cui polinomio caratteristico ha tutte le radici reali esiste una matrice
ortogonale A ∈ Mn (R) tale che la matrice ACAt sia triangolare superiore (i.e. con tutti i coefficienti sotto
la diagonale principale uguali a zero). Chi sono gli elementi sulla diagonale principale di ACAt ?
Capitolo 4

Spazi affini

Definizione 4.1. Si chiama spazio affine su un campo K una tripla (A, V, ϕ), dove A è un insieme non vuoto
(gli elementi del quale si chiamano punti di (A, V, ϕ)), V uno spazio vettoriale di dimensione finita su
K, detto giacitura dello spazio affine (A, V, ϕ), e ϕ : A × A → V è un’applicazione che soddisfa i seguenti
assiomi:
−→ −→ −−→ −→
i) Per ogni tre punti A, B, C ∈ A si ha AB + BC = AC, dove si è denotato AB := ϕ(A, B).
−−→
ii) Esiste un O ∈ A tale che l’applicazione ϕO : A → V definita da ϕO (A) = OA, ∀A ∈ A, è bigettiva.
Si chiama dimensione di (A, V, ϕ), e si denota con dim(A), la dimensione della giacitura V su K, i.e.
dim(A) := dimK (V).
−−→ −→ −→
Osservazione 4.2. Dall’assioma i) segue che per ogni A, B ∈ A si ha AA = 0V e AB = −BA. Dagli assiomi
−−−

i) e ii) si deduce che per ogni punto O′ ∈ A l’applicazione ϕO′ : A → V definita da ϕO′ (A) = O′ A,
−−−→ −−−→ −−→
∀A ∈ A, è bigettiva. Infatti, dall’assioma i) si deduce O′ A = O′ O + OA, da cui risulta che ϕO′ = ψ ◦ ϕO ,
−−−→
con ψ : V → V l’applicazione definita da ψ(x) = x + v, con v = O′ O.
−−→
Quindi, per ogni punto O ∈ A l’applicazione ϕO : A → V definita da ϕO (A) = ϕ(O, A) = OA è
bigettiva. Questo fatto permette il “trasporto” della struttura di spazio vettoriale su K da V a A, in modo
che O diventa il vettore nullo di A. Esplicitamente, le operazioni di addizione fra punti di A (legge di
composizione interna) e di moltiplicazione per scalari di K dei punti di A (legge di composizione esterna)
sono date mediante le formule
−−→ −−→ −−→
A + B = C, con C definito da OA + OB = OC, ∀A, B ∈ A,
−−→ −−→
λ · A = B, con B definito da λOA = OB, ∀λ ∈ K, ∀A ∈ A.
In questo modo otteniamo un’unica struttura di K-spazio vettoriale sull’insieme A tale che l’applicazione
−−→
ϕO : A → V diventa un isomorfismo di K-spazi vettoriali. Questo K-spazio vettoriale si denota con OA.
Il vettore nullo di questo K-spazio vettoriale è il punto O.
−→ −−→ −−→ −−→
Siano ora A, B, C, D ∈ A quattro punti tali che AB = CD. Allora AC = BD (regola del parallelogramma).
−−→ −−→ −−→ −→ −−→ −→ −−→
Infatti, applicando l’assioma i) otteniamo AC + CD = AD = AB + BD, da cui tenendo conto che AB = CD,
−−→ −−→
ne segue AC = BD (si veda Figura 4.1).
Esempio 4.3. Un esempio fondamentale di spazio affine su K è il seguente. Sia V un qualsiasi spazio
vettoriale di dimensione finita su K. Poniamo A = V, l’insieme soggiacente allo spazio vettoriale V.
Consideriamo l’applicazione ϕ : V × V → V definita da ϕ(u, v) = v − u. Si verifica facilmente che
A(V) = (A = V, V, ϕ) è uno spazio affine. Questo spazio affine si chiama lo spazio affine associato al K-
spazio vettoriale V. Ovviamente dim(A(V)) = dimK (V). In particolare se V = Kn , con n ≥ 1, è il K-spazio
vettoriale standard di dimensione n (vedi l’Esempio 2.3, 1), allora lo spazio affine A(Kn ) verrà denotato
con An (K) e, si chiamerà lo spazio affine standard di dimensione n su K.

49
50 Capitolo 4. Spazi affini

Figura 4.1:

B D

A C

Siano ora (A, V, ϕ) uno spazio affine, n ≥ 2 un numero naturale fissato, A1 , ..., An ∈ A n punti e
a1 , ..., an ∈ K n scalari tali che a1 + · · · + an = 1. Se O ∈ A è un qualsiasi punto, denotiamo con A ∈ A l’unico
−−−→ −−−→
punto che corrisponde al vettore a1 OA1 + · · · + an OAn , tramite l’applicazione bigettiva ϕO . In altre parole,
−−→ −−−→ −−−→
A è perfettamente determinato dall’uguaglianza OA = a1 OA1 + · · · + an OAn .
−−−
→ −−−→
Lemma 4.4. (i) Nelle ipotesi di sopra, per ogni altro punto O′ ∈ A si ha ancora l’uguaglianza O′ A = a1 O′ A1 +
−−′−→
· · · + an O An ; in particolare, il punto A ∈ A sopra definito non dipende dalla scelta del punto O ∈ A.
−−−→ −−−→
(ii) Se invece a1 + · · · + an = 0 allora il vettore a1 OA1 + · · · + an OAn non dipende dalla scelta del punto O ∈ A.

−−− → −−−→ −−−→


Dimostrazione. (i) Sia O′ ∈ A un altro punto. Dobbiamo far vedere che O′ A = a1 O′ A1 + · · · + an O′ An . Per
−−→ −
−→ −
−−→
l’assioma i) della Definizione 4.1 segue che O′ B = OB + O′ O, ∀B ∈ A. Tenendo conto di questo fatto e di
a1 + · · · + an = 1, (i) segue subito.
−−−→ −−−→ −−−→ −−−→ −−−→ −−−→ −−−→
(ii) Abbiamo a1 O′ A1 + · · · + an O′ An = (a1 + · · · + an )O′ O + a1 OA1 + · · · + an OAn = a1 OAn + · · · + an OAn ,
poichè a1 + · · · + an = 0. 

Definizione 4.5. Sia (A, V, ϕ) uno spazio affine. Siano A1 , ..., An ∈ A n ≥ 1 punti e a1 , ..., an ∈ K n scalari
tali che a1 + · · · + an = 1. Allora definiamo il punto a1 A1 + · · · + an An ∈ A come l’unico punto A ∈ A per
cui esiste un punto O ∈ A tale che valga l’uguaglianza
−−→ −−−→ −−−→
OA = a1 OA1 + · · · + an OAn .

Il Lemma 4.4, (i) ci assicura che la definizione di a1 A1 + · · · + an An dipende solo dai punti A1 , ..., An e
dagli scalari a1 , ..., an (con la condizione che a1 + · · · + an = 1), e non dalla scelta del punto O ∈ A. Il punto
A = a1 A1 + · · · + an An (con a1 + · · · + an = 1) cosı̀ definito si chiama il baricentro pesato del sistema ordinato
{A1 , ..., An } di punti di A e di pesi (a1 , ..., an ). Il concetto di baricentro pesato ha la seguente interpretazione
fisica: se ad ogni punto Ai assegniamo una massa ai allora A rappresenta il “baricentro fisico” del sistema
{A1 , ..., An , a1 , . . . , an }.
In particolare se la caratteristica di K non divide n e se a1 = · · · = an = n1 , allora il punto G :=
1 1
n A1 + · · · + n An si chiama semplicemente baricentro del sistema di punti {A1 , ..., An }. Se per esempio n = 2,
allora A = 21 A1 + 12 A2 si chiama il punto medio della coppia {A1 , A2 }, e B := (−1)A1 + 2A2 si chiama il
simmetrico di A1 rispetto ad A2 (con la condizione che la caratteristica di K sia , 2).
Siano ancora A1 , ..., An ∈ A n ≥ 1 punti e a1 , ..., an ∈ K n scalari tali che a1 + · · · + an = 0. Scriveremo
−−−→ −−−→
a1 A1 + · · · + an An = 0 se esiste un punto O ∈ A tale che a1 OA1 + · · · + an OAn = 0V . Il Lemma 4.4, (ii) prova
che questa definizione è indipendente dalla scelta del punto O.
Osservazione 4.6. Sia (A, V, ϕ) uno spazio affine su K. Siano O ∈ A e ϕO : A → V l’applicazione bigettiva
−−→
data da ϕO (A) = OA. Dalla definizione di a1 A1 + · · · + an An (con a1 + · · · + an = 1) segue l’uguaglianza:

ϕO (a1 A1 + · · · + an An ) = a1 ϕO (A1 ) + · · · + an ϕO (An ),

∀O, A1 , ..., An ∈ A e ∀a1 , ..., an ∈ K tali che a1 + · · · + an = 1.


51

Definizione 4.7. Sia (A, V, ϕ) uno spazio affine su K, e sia A′ un sottinsieme di A. Si dice che A′ è un
−−→
K-sottospazio affine di (A, V, ϕ) se A′ = ∅, o se esiste un punto O ∈ A′ tale che ϕO (A′ ) (= {OA|A ∈ A′ }) è
sottospazio vettoriale di V su K.
Se A′ è un K-sottospazio affine non vuoto dello spazio affine (A, V, ϕ) denotiamo con W il K-
sottospazio vettoriale ϕO (A′ ). Se O′ ∈ A′ è un altro punto, allora abbiamo già visto sopra che ϕO′ (A′ ) =
−−−→
v + W, con v = O′ O. In particolare, per ogni O′ ∈ A′ , si ha che v ∈ W, quindi ϕO′ (A′ ) = v + W è K-
sottospazio vettoriale di V su K, che coincide con W. Quindi il sottospazio vettoriale W = ϕO (A′ ) di V
non dipende dalla scelta del punto O ∈ A′ , e si chiama la giacitura del sottospazio affine non vuoto A′ di
(A, V, ϕ). In generale la giacitura di un K-sottospazio affine A′ (dello spazio affine (A, V, ϕ)) sarà denotata
con D(A′ ). Poichè l’applicazione ϕO è bigettiva si ha che A′ = ϕ−1
O
(D(A′ )) per ogni O ∈ A′ .
Proposizione 4.8. Sia (A, V, ϕ) uno spazio affine e sia A′ un sottinsieme non vuoto di A. Le seguenti condizioni
sono equivalenti:
i) A′ è un sottospazio affine di (A, V, ϕ).
ii) Per ogni numero finito di punti A1 , ..., An ∈ A′ e per ogni a1 , ..., an ∈ K tali che a1 + · · · + an = 1, si ha
a1 A1 + · · · + an An ∈ A′ .
n
P n
P
Dimostrazione. i) =⇒ ii): Sia A := ai Ai , con Ai ∈ A′ e ai = 1. Questo significa che esiste O ∈ A′ tale
i=1 i=1
−−→ P n −−→ −−→
che OA = ai OAi . Poichè W := ϕO (A′ ) è K-sottospazio vettoriale di V, Ai ∈ A′ (i.e. OAi ∈ W), e ai ∈ K,
i=1
−−→
∀i = 1, ..., n, risulta che OA ∈ W, i.e. A ∈ A′ .
ii) =⇒ i): Dobbiamo dimostrare che W := ϕO (A′ ) è K-sottospazio vettoriale, con O ∈ A′ . Siano
−−→
quindi v1 , v2 ∈ W. Allora vi = OAi , con Ai ∈ A′ , i = 1, 2. Ponendo A3 := O, a1 = a2 = 1 e a3 = −1, abbiamo
a1 + a2 + a3 = 1, quindi per ii), A := a1 A1 + a2 A2 + a3 A3 = A1 + A2 − O ∈ A′ . Questo fatto equivale a
−−−→ −−−→ −−−→ −−−→ −−→ −−→
v1 + v2 = OA1 + OA2 = OA1 + OA2 − OO = OA ∈ W. In fine, se λ ∈ K, allora B := (1 − λ)O + λA1 ∈ A′ , da
−−→ −−−→ −−→
cui λv1 = (1 − λ)OO + λOA1 = OB ∈ W. 

Corollario 4.9. Sia {Ai }i∈I una famiglia non vuota di K-sottospazi affini di uno spazio affine (A, V, ϕ) su K. Allora
T
Ai è un K-sottospazio affine (possibilmente vuoto) di (A, V, ϕ).
i∈I

Dimostrazione. Tutto segue immediatamente dalle definizioni, utilizzando la Proposizione 4.8. 

Definizione 4.10. Se A′ è un K-sottospazio affine non vuoto di uno spazio affine (A, V, ϕ) su K, di giacitura
W = D(A′ ) ⊆ V, allora la dimensione di A′ è per definizione dimK (W) (la dimensione vettoriale di W su
K). Se invece A′ = ∅ allora per definizione dim(A′ ) = −1. La codimensione di A′ in (A, V, ϕ) è definita da
codim(A′ ) := dim(A) − dim(A′ ).
I K-sottospazi affini di dimensione 1 di (A, V, ϕ) si chiamano rette di (A, V, ϕ), e i K-sottospazi affini
di codimensione 1 in (A, V, ϕ) si chiamano iperpiani di (A, V, ϕ).
Proposizione 4.11. Sia (A, V, ϕ) uno spazio affine di dimensione n su K, e sia A′ un K-sottospazio affine non
vuoto. Allora dim(A′ ) è finita. Inoltre, si ha dim(A′ ) ≤ n, e vale l’uguaglianza se e solo se A′ = A.

Dimostrazione. La proposizione segue dalla Definizione 4.10 e dal Corollario 2.23. 

Esempi 4.12.
1. I K-sottospazi affini di dimensione zero coincidono con i punti di (A, V, ϕ).
2. Sia A′ un sottinsieme non vuoto dello spazio affine standard An (K) (si veda l’Osservazione 4.2).
Allora A′ è un K-sottospazio affine di An (K) se e solo se esiste un K-sottospazio vettoriale W ⊆ Kn
e un vettore v ∈ Kn tale che A′ = v + W, con v + W := {v + w | w ∈ W}. (Se A′ è un K-sottospazio
affine allora W è proprio la giacitura di A′ .)
52 Capitolo 4. Spazi affini

Definizione 4.13 (Sottospazio affine generato da un insieme). Sia M ⊆ A un sottinsieme dello spazio
affine (A, V, ϕ) su K. Si chiama K-sottospazio affine generato da M, denotato hMi, l’intersezione di tutti i
K-sottospazi affini di (A, V, ϕ) che contengono M. Dal Corollario 4.9 seguono le proprietà:

i) hMi è un K-sottospazio affine di (A, V, ϕ) tale che M ⊆ hMi.

ii) Per ogni K-sottospazio affine B di (A, V, ϕ) tale che M ⊆ B allora hMi ⊆ B.

iii) Se M = ∅ allora hMi = ∅

Proposizione 4.14. Sia {A1 , . . . , Am } ⊆ A un sottinsieme finito non vuoto, con (A, V, ϕ) K-spazio affine. Allora
m
P
il sottospazio hA1 , . . . , Am i generato da {A1 , . . . , Am } coincide con l’insieme di tutti i baricentri pesati ai Ai di
i=1
m
P
pesi a1 , . . . , am (conai = 1). Inoltre la giacitura di hA1 , . . . , Am i coincide con il K-sottospazio vettoriale di V
i=1
−−−→ −−−−→
generato dai vettori A1 A2 , . . . , A1 Am . In particolare dimK hA1 , . . . , Am i ≤ m − 1.

m
P m
P
Dimostrazione. Poniamo A′ := { ai Ai | ai ∈ K, ai = 1} e O := A1 . L’inclusione A′ ⊆ hA1 , ..., Am i segue
i=1 i=1
dalla Proposizione 4.8. Viceversa, poichè evidentemente Ai ∈ A′ , è sufficiente dimostrare che A′ è un
K-sottospazio affine di (A, V, ϕ). Questo equivale a provare che ϕA1 (A′ ) è un K-sottospazio vettoriale di
−−−→ −−→ Pm m
P m
P m
P
V. Siano allora v = A1 A e w = A1 B, dove A = a i Ai e B = bi Ai , con ai = bi = 1. Ne segue che
i=1 i=1 i=1 i=1
−−−→ P m −−−→ n
P −−−→ m
P −−−→
v = A1 A = a i A1 Ai e w = bi A1 Ai , quindi v + w = (ai + bi )A1 Ai . Ponendo ci = ai + bi , ∀i = 2, ..., m e
i=2 i=2 i=2
m
P n
P −−→
c1 := 1 − ci Ai ∈ A tale che v + w = A1 C, quindi v + w ∈ W = ϕA1 (A′ ). Se
ci , otteniamo il punto C := ′
i=2 i=1
−−−→
v ∈ W e λ ∈ K, rimane da provare che λ · v ∈ W. Poichè v = A1 A con A ∈ A′ , il punto D := (1 − λ)A1 + λA
−−−→ −−−→ −−−→ −−−→
appartiene per ipotesi a A′ . Deduciamo quindi che λ · v = λA1 A = (1 − λ)A1 A1 + λA1 A = A1 D ∈ W.

Pertanto W è un K-sottospazio vettoriale di V, quindi A è un K-sottospazio affine di (A, V, ϕ). Quindi
l’uguaglianza cercata è dimostrata. L’ultima parte della proposizione è evidente. 

Definizione 4.15. Sia {A1 , ..., Am} ⊆ A un sottinsieme finito non vuoto dello spazio affine (A, V, ϕ). Si
−−−→ −−−−→
dice che l’insieme {A1 , ..., Am } è affinemente indipendente, se i vettori A1 A2 , ..., A1 Am ⊆ V sono linearmente
indipendenti su K. Se l’insieme {A1 , ..., Am} non è affinemente indipendente si dice che è affinemente
dipendente.

Corollario 4.16. Nelle ipotesi della Proposizione 4.14, le condizioni seguenti sono equivalenti:

i) {A1 , ..., Am } è affinemente indipendente.

ii) dimK hA1 , . . . , Am i = m − 1.

iii) Per ogni (a1 , . . . , am ) ∈ Km tale che a1 + · · · + am = 0 e a1 A1 + · · · + am Am = 0 (si veda la Definizione 4.5)
segue a1 = · · · = am = 0.

iv) Per ogni A ∈ hA1 , ..., Am i esiste un unico (a1 , . . . , am ) ∈ Km tale che a1 +· · ·+am = 1 e A = a1 A1 +· · ·+am Am .

Dimostrazione. L’equivalenza i) ⇐⇒ ii) segue dalla Definizione 4.15 e dalla Proposizione 4.14.
i) =⇒ iii): Siano a1 , . . . , am ∈ K tali che a1 + · · · + am = 0 e a1 A1 + · · · + am Am = 0. Ponendo O = A1
−−−→ −−−−→
quest’ultima uguaglianza equivale a a2 A1 A2 + · · · + am A1 Am = 0V , da cui per i), a2 = · · · = am = 0. D’altro
canto, a1 = −(a2 + · · · + am ) = 0.
−−−→ −−−−→
iii) =⇒ i): Dobbiamo provare che i vettori A1 A2 ,..., A1 Am sono linearmente indipendenti su K; sia
−−−→ −−−−→
quindi a2 A1 A2 + · · · + am A1 Am = 0V , con a2 , ..., an ∈ K. Abbiamo già visto che questa uguaglianza equivale
a a1 A1 + · · · + am Am = 0, dove a1 = −(a2 + · · · + am ). Da iii) si deduce che a1 = a2 = · · · = am = 0.
53

iii) =⇒ iv): Sia A ∈ hA1 , . . . , Am i un punto qualsiasi e supponiamo che A = a1 A1 + · · · + am Am =


m
P −−−→ P m −−−→
b1 A1 + · · · + bm Am con a1 + · · · + am = b1 + · · · + bm = 1. Allora ai A1 Ai = bi A1 Ai . Poichè iii) ⇐⇒ i), ne
i=2 i=2
segue che ai = bi , ∀i = 2, . . . , m. Da qui otteniamo a1 = 1 − (a2 + · · · + am ) = 1 − (b2 + · · · + bm ) = b1 .
−−−→ −−−−→
iv) =⇒ i): Sia a2 A1 A2 + · · · + am A1 Am = 0V , con a2 , ..., an ∈ K. Questa uguaglianza equivale a A1 =
a1 A1 + · · · + am Am con a1 = 1 − (a2 + · · · + am ). Poichè ovviamente A1 = 1 · A1 + 0 · A2 + · · · + 0 · Am , iv)
implica che ai = 0, ∀i = 2, . . . , m. 

Osservazione 4.17. Il Corollario 4.16 dimostra, in particolare, che la definizione di indipendenza affine
di un insieme {A1 , ..., Am } non dipende dall’ordine dei punti. Inoltre se {A1 , ..., Am } è affinemente indipen-
dente, ogni punto A ∈ hA1 , ..., Am i si esprime come A = a1 A1 + · · · + am Am (con a1 + · · · + am = 1) in un
modo unico. Sotto queste ipotesi (a1 , . . . , am ) ∈ Km si chiamano le coordinate baricentriche di A rispetto al
sistema affinemente indipendente {A1 , ..., Am }.
Proposizione 4.18. Sia {A1 , ..., Am } un sottinsieme non vuoto di uno spazio affine (A, V, ϕ) su K. Allora
{A1 , ..., Am } è affinemente indipendente se e solo se
Ai < hA1 , . . . , Ai−1 , Ai+1 , . . . , Am i
per ogni i ∈ {1, . . . , m}.

Dimostrazione. La proposizione è banale se m = 1. Supponiamo allora m ≥ 2. L’indipendenza affine di


{A1 , ..., Am } equivale all’indipendenza lineare dei vettori
−−−→ −−−−−→ −−−−−→ −−−−→
A j A1 , . . . , A j A j−1 , A j A j+1 , . . . A j Am ,
con j ∈ {1, . . . , m} \ {i}, i essendo un indice fissato. Allora il risultato segue applicando la Proposizione
2.13. 

Proposizione 4.19. Sia (A, V, ϕ) uno spazio affine di dimensione n ≥ 2 su K, e sia A′ un K-sottospazio affine
non vuoto di dimensione m (m ≤ n). Allora esiste un sottinsieme affinemente indipendente {A0 , A1 , ..., Am } ⊆ A′
tale che A′ = hA0 , A1 , ..., Am i.

Dimostrazione. Sia W la giacitura di A′ , e sia {v1 , ..., vm} una base di W su K. Se O ∈ A′ è un punto qualsiasi,
−−→
allora per ogni i = 1, ..., m, sia Ai := ϕ−1
O
(vi ) (i.e. vi = OAi ). Ponendo A0 := O, ne segue che {A0 , A1 , ..., Am }
è un sistema affinemente indipendente che genera il sottospazio affine A′ . 

Definizione 4.20. Sia (A, V, ϕ) uno spazio affine di dimensione n ≥ 1 su K. Si chiama riferimento affine di
(A, V, ϕ) su K ogni sistema ordinato di n + 1 punti A0 , A1 , ..., An ∈ A che sono affinemente indipendenti
su K. Il punto A0 si chiama l’origine del riferimento affine A0 , A1 , ..., An .
Dalla Proposizione 4.19 segue che ogni spazio affine (A, V, ϕ) di dimensione n ≥ 1 su K possiede
almeno un riferimento affine. Un esempio di riferimento affine in An (K) è il seguente E0 = (0, 0, ..., 0),
E1 = (1, 0, ..., 0),...,En = (0, 0, ..., 0, 1); questo riferimento si chiama il riferimento affine standard di An (K).
Proposizione 4.21. Sia (A, V, ϕ) uno spazio affine di dimensione n ≥ 1 su K. Dare un riferimento affine di
(A, V, ϕ) su K equivale a dare un punto O ∈ A (l’origine del riferimento) e una base vettoriale ordinata della
giacitura V su K.
−−−→
Dimostrazione. Sia A0 , A1 , ..., An un riferimento affine di (A, V, ϕ) su K. Allora poniamo O := A0 e vi := A0 Ai ,
∀i = 1, ..., n. Poichè il sistema {A0 , ..., An } è affinemente indipendente, i vettori v1 , ..., vn sono linearmente
indipendenti su K, e poichè dimK (V) = n, questi vettori formano anche una base di V su K. Viceversa,
supponiamo che sia dato un punto O ∈ A insieme a una base ordinata v1 , ..., vn di V su K. Dalla definizione
di spazio affine segue che per ogni i = 1, ..., n esiste un punto univocamente determinato Ai ∈ A tale che
−−→
vi = OAi . Ponendo A0 := O, è chiaro che il sistema ordinato di punti A0 , A1 , ..., An è un riferimento affine
di (A, V, ϕ) su K. 
Il Corollario 4.16 implica:
54 Capitolo 4. Spazi affini

Corollario 4.22. Sia A0 , A1 , ..., An un riferimento affine dello spazio affine (A, V, ϕ) di dimensione n ≥ 1 su
K. Allora per ogni punto A ∈ A esiste un unico (a0 , a1 , ..., an ) ∈ Kn+1 , tale che a0 + a1 + · · · + an = 1 e
A = a 0 A0 + a 1 A1 + · · · + a n An .
Definizione 4.23. Nelle ipotesi e notazioni del Corollario 4.22, a0 , a1 , ..., an ∈ K, con a0 + a1 + · · · + an = 1,
tali che A = a0 A0 + a1 A1 + · · · + an An si chiamano le coordinate baricentriche del punto A rispetto al riferimento
affine A0 , A1 , ..., An.
Nelle stesse ipotesi, ad ogni punto A ∈ A si possono associare le coordinate affini

(x1 (A), ..., xn(A)) ∈ Kn


−−−→ −−−−→
rispetto al riferimento affine A0 , A1 , ..., An nel modo seguente. Poichè i vettori A0 A1 ,...,A0 An formano una base
−−−→ −−−→
del K-spazio vettoriale V, esiste un’unica n-upla (x1 (A), ..., xn(A)) ∈ Kn tale che A0 A = x1 (A)A0 A1 + · · · +
−−−−→
xn (A)A0 An . Se (a0 , a1 , ..., an) sono le coordinate baricentriche di A rispetto al riferimento affine A0 , A1 , ..., An
allora le coordinate affini di A (rispetto allo stesso riferimento) sono date da xi (A) = ai , ∀i = 1, ..., n. Infatti,
l’uguaglianza A = a0 A0 + a1 A1 + · · · + an An implica le uguaglianze
−−−→ −−−→ −−−→ −−−−→ −−−→ −−−−→
A0 A = a 0 A0 A0 + a 1 A0 A1 + · · · + a n A0 An = a 1 A0 A1 + · · · + a n A0 An .
Viceversa, le coordinate baricentriche (a0 , a1 , ..., an ) di A si ricavano da quelle affini mediante ai = xi (A),
∀i = 1, ..., n, e a0 = 1 − (x1 (A) + · · · + xn (A)).
Siano ora A0 , A1 , ..., An e B0 , B1 , ..., Bn due riferimenti affini dello spazio affine (A, V, ϕ) di dimensione
n ≥ 1 su K, e siano (x1 , ..., xn) (rispettivamente (y1 , ..., yn)) le coordinate affini di un qualsiasi punto A ∈ A
rispetto al riferimento affine A0 , A1 , ..., An (rispettivamente, rispetto al riferimento affine B0 , B1 , ..., Bn ). La
proposizione seguente ci dà un legame tra le coordinate affini (x1 , ..., xn) e (y1 , ..., yn) del punto A rispetto
−−−→
ai due riferimenti affini. Per formularla, sia |ai j |i, j=1,...,n la matrice di passaggio dalla base {A0 Ai }i=1,...,n alla
−−−→
base {B0 Bi }i=1,...,n, i.e. la matrice quadrata (n, n) determinata dalle seguenti uguaglianze:
n
−−−→ X −−−→
B0 Bi = aki A0 Ak , ∀i = 1, ..., n. (4.1)
i=1

−−−→ −−−→
Esprimendo il vettore A0 B0 rispetto alla base {A0 Ai }i=1,...,n otteniamo
n
−−−→ X −−−→
A0 B 0 = bk A0 Ak . (4.2)
k=1

Proposizione 4.24. Nelle ipotesi e notazioni di sopra si ha


n
X
xi = aik yk + bi , ∀i = 1, ..., n,
k=1

dove i coefficienti aik e bi sono dati da (4.1) e (4.2).


−−→ −−−→ −−−→
Dimostrazione. Partendo da B0 A = A0 A − A0 B0 e tenendo conto di (4.1) e (4.2) si ha:
n
−−→ X −−−→
B0 A = (xi − bi )A0 Ai ,
i=1

e d’altra parte
n n n n
−−→ X −−−→ X −−−→ X X −−−→
B0 A = y k B0 Bk = aik yk A0 Ai = ( aik yk )A0 Ai .
k=1 i,k=1 i=1 k=1

Per l’unicità della rappresentazione di un vettore rispetto a una base e paragonando le due uguaglianze
otteniamo la tesi. 
55

Rette negli spazi affini


Siano A e B due punti distinti dello spazio affine (A, V, ϕ) su K. Allora l’insieme {A, B} è evidentemente
affinemente indipendente. Denotiamo AB := hA, Bi il sottospazio affine di A generato da {A, B}. Dalla
Proposizione 4.14 segue:
AB = {(1 − t)A + tB | t ∈ K}.
Inoltre, per il Corollario 4.16, dim(AB) = 1; quindi AB è una retta nel senso della Definizione 4.10.
Viceversa, ogni retta B di (A, V, ϕ) è della forma AB, con A, B ∈ B, A , B. Infatti se prendiamo A, B ∈ B,
A , B due punti qualsiasi, allora AB ⊆ B, e quindi per la Proposizione 4.11, AB = B (poichè dim(AB) =
dim(B) = 1).

Definizione 4.25. Sia (X, D) una coppia formata da un insieme non vuoto X e da un sottinsieme non
vuoto D dell’insieme P(X) di tutte le parti di X. Gli elementi di X si chiamano punti e gli elementi di D
rette. Con questa terminologia la coppia (X, D) si chiama struttura d’incidenza se vale l’assioma seguente:

(P1 ) Per ogni due punti distinti A, B ∈ X esiste una retta d ∈ D che passa per A e B (i.e. A, B ∈ d)
e una sola.

Siano ora A, B, C ∈ X tre punti di una struttura d’incidenza (X, D). Si dice che i punti A, B, C sono
allineati se o almeno due di loro coincidono, o se A, B, C sono distinti e, inoltre, C ∈ AB, dove AB è l’unica
retta che passa per A e B. La definizione del fatto che tre punti sono allineati non dipende dall’ordine dei
punti.

Proposizione 4.26. Sotto le ipotesi precedenti, denotiamo con D l’insieme di tutti i K-sottospazi affini di A di
dimensione 1. Allora (A, D) è una struttura d’incidenza.

Dimostrazione. Conseguenza immediata delle osservazioni fatte sopra. 

Proposizione 4.27. Sia (A, V, ϕ) uno spazio affine, su K e sia A′ un sottinsieme non vuoto di A. Se A′ è un
sottospazio affine di (A, V, ϕ) allora per ogni due punti distinti A, B ∈ A′ la retta AB è contenuta in A′ . Viceversa,
se la caratteristica di K è diversa da 2 e per ogni due punti distinti A, B ∈ A′ , AB ⊆ A′ , allora A′ è un sottospazio
affine di (A, V, ϕ).

Dimostrazione. La prima parte segue dalla Proposizione 4.8, poichè la retta AB è per definizione l’insieme
di tutti i baricentri pesati di A e B.
Viceversa, supponiamo che la caratteristica di K sia , 2 e che AB ⊆ A′ per ogni A, B ∈ A′ , A , B. Sia
O ∈ A′ un punto qualsiasi. Se W := ϕO (A′ ), dobbiamo provare che W è un sottospazio vettoriale di V.
−−→
Sia v ∈ W un vettore qualsiasi, con v = OM, M ∈ A′ , e a ∈ K. Poichè OM ⊆ A′ , N := (1 − a)O + aM ∈ A′ ,
−−→ −−→ −−→ −−→
i.e. av = aOM = (1 − a)OO + aOM = ON ∈ W.
−−→
Rimane da provare che se v, v′ ∈ W allora v + v′ ∈ W. Siano dunque M, M′ ∈ A′ tali che v = OM e
−−−→
v′ = OM′ . Poniamo N = 21 M + 12 M′ (qui si usa che car(K) , 2!); poichè per ipotesi MM′ ⊆ A′ , N ∈ A′ ,
−−→ −−→ −−→ −−−→
quindi ON ∈ W. Ma per definizione, ON = 12 OM + 21 OM′ = 12 (v + v′ ). Ne segue 21 (v + v′ ) ∈ W, e quindi
v + v′ ∈ W. 
Il Corollario 4.16 prova che tre punti A, B, C ∈ A sono affinemente indipendenti se e solo se A, B, C
non sono allineati. Lo stesso corollario implica che i punti A, B, C sono allineati se e solo se esiste
(a, b, c) ∈ K3 \ (0, 0, 0) tale che a + b + c = 0 e aA + bB + cC = 0.

Rapporto semplice di tre punti allineati


Come applicazione immediata delle coordinate baricentriche rispetto a un riferimento affine possiamo
definire il rapporto semplice di tre punti allineati. Siano A e B due punti distinti di uno spazio affine
(A, V, ϕ) di dimensione ≥ 1 su K, e sia d := AB la retta che passa per A e B. Allora la coppia ordinata (A, B)
56 Capitolo 4. Spazi affini

Figura 4.2:

B C M

è un riferimento affine della retta d (considerata come spazio affine su K). Dal Corollario 4.22 segue che
per ogni punto C ∈ d esiste un unico t ∈ K tale che

C = (1 − t)A + tB. (4.3)

In altre parole, le coordinate baricentriche di C ∈ d rispetto al riferimento affine A, B della retta d


−−→
sono (1 − t, t), e la coordinata affine di C rispetto allo stesso riferimento è t. Da (4.3) deduciamo AC =
−−→ −→ −→
(1 − t)AA + tAB = tAB. Tenendo conto di queste uguaglianze è giustificato definire
−−→
AC
−→ := t ∈ K. (4.4)
AB
−−→ −→ −→
Se C , A, B (4.3) implica anche A = t/(t − 1)B + (−1)/(t − 1)C, da cui CA = t/(t − 1)CB + (−1)/(t − 1)CC =
−→
t/(t − 1)CB. Queste ultime relazioni giustificano la definizione di rapporto semplice (per ogni C ∈ AB,
C , A, B)
−−→
CA t
−→ := t − 1 ∈ K. (4.5)
CB
Se la caratteristica di K è diversa da 2, il punto C = 12 A+ 21 B di coordinate baricentriche ( 12 , 21 ) rispetto
al riferimento affine A, B della retta AB si chiama il punto medio di A e B. Si osservi che il punto medio di
A e B non dipende dall’ ordine dei due punti.
Per illustrare l’utilità delle coordinate baricentriche e del rapporto semplice di tre punti allineati in
un qualsiasi spazio affine, dimostriamo ora un ben noto teorema di Menelao. Per triangolo (non degenere)
△ABC in An (K) (n ≥ 2) intendiamo ogni tre punti affinemente indipendenti A, B, C ∈ An (K) (cioè A, B e
C non allineati), che vengono chiamati i vertici di △ABC.
Proposizione 4.28 (Teorema di Menelao). Sia △ABC un triangolo nel piano A2 (K), e sia d una retta che
interseca le rette BC, CA e AB nei punti M, N e P rispettivamente (si veda Figura 4.2). Supponiamo che M , B, C,
N , C, A e P , A, B. Allora
−−→ −−→ −→
MB NC PA
−−→ · −−→ · −→ = 1. (4.6)
MC NA PB
Viceversa, se M ∈ BC \ {B, C}, N ∈ CA \ {C, A} e P ∈ AB \ {A, B} sono tre punti tali che vale (4.6) allora i punti
M, N, P sono allineati.

Dimostrazione. Scriviamo M = (1 − tM )B + tM C, N = (1 − tN )C + tN A e P = (1 − tP )A + tP B, con tM , tN , tP ∈


K \ {0, 1}. Allora l’uguaglianza (4.6) equivale a
tM tN tP
= 1. (4.7)
(tM − 1)(tN − 1)(tP − 1)
57

D’altro canto, tenendo conto delle definizioni, le uguaglianze N = (1 − tN )C + tN A e P = (1 − tP )A + tP B


implicano
−−→ −−→ −−→
MN = (1 − tN )MC + tN MA, (4.8)
e
−−→ −−→ −−→
MP = (1 − tP )MA + tP MB.
Da M = (1 − tM )B + tM C segue
−−→ tM −−→
MB = MC.
tM − 1
Sostituendo l’ultima uguaglianza nella penultima otteniamo

−−→ tP tM −−→ −−→


MP = MC + (1 − tP )MA. (4.9)
tM − 1
−−→ −−→
Poichè i vettori MA e MC sono linearmente indipendenti (4.8) e (4.9) implicano

−−→ −−→ 1 − tN tN
M, N, P allineati ⇐⇒ MN e MP linearmente dipendenti ⇐⇒ = .
tP tM 1 − tP
tM − 1

Per concludere basta osservare che l’ultima uguaglianza equivale a (4.7). 

Osservazione 4.29. Il Teorema di Menelao vale ovviamente in un qualsiasi spazio affine An (K) di
dimensione n ≥ 3, poichè si può sostituire An (K) con il sottospazio affine hA, B, Ci (il piano ABC generato
da A, B, C).

Equazioni dei sottospazi affini


Abbiamo visto sopra che ogni sottospazio affine non vuoto A di dimensione k di An (K) è della forma
A = v + W, con v = (a1 , ..., an ) ∈ Kn e W sottospazio vettoriale di Kn di dimensione k (W è proprio
la giacitura di A). Sia v1 , ..., vk una base vettoriale di W su K, con v j = (a1 j , ..., anj ), j = 1, ..., k. Poichè
v1 , ..., vk sono vettori linearmente indipendenti, la matrice |ai j |i=1,...,n, j=1,...,k ha rango massimo k. Allora
Pk
v + W = {v + t j v j | (t1 , ..., tk) ∈ Kk }, da cui segue che una condizione necessaria e sufficiente affinchè un
j=1
punto di coordinate (x1 , ..., xn) appartenga al sottospazio affine v + W è che le seguenti uguaglianze siano
soddisfatte:
k
X
x i = ai + ai j t j , i = 1, ..., n. (4.10)
j=1

Le formule (4.10) rappresentano le equazioni parametriche del sottospazio affine v + W di An (K) che
passa per il punto v = (a1 , ..., an ), dove |ai j |i=1,...,n, j=1,...,k è la matrice (di rango massimo k) a coefficienti in
K determinata dalla base v1 , ..., vk di W su K, con v j = (a1 j , ..., anj ), j = 1, ..., k, e dove (t1 , ..., tk) ∈ Kn sono
parametri indipendenti. Evidentemente, queste equazioni parametriche dipendono dalla scelta della
base v1 , ..., vk della giacitura W. La scelta di un’altra base di W su K fornisce altre equazioni parametriche
per lo stesso sottospazio affine v + W.
Viceversa, equazioni della forma (4.10), per cui la matrice |ai j |i=1,...,n, j=1,...,k ha rango k definiscono un
sottospazio affine A = v + W di dimensione k, con v = (a1 , ..., an ), di giacitura W generata dai vettori
linearmente indipendenti v1 , ..., vk, con vi := (a1i , ..., ani ), i = 1, ..., k. In altre parole, la giacitura W è data
dalle seguenti equazioni
X k
xi = ai j t j , i = 1, ..., n. (4.11)
j=1

In questo modo abbiamo provato la seguente:


58 Capitolo 4. Spazi affini

Proposizione 4.30. Ogni sottospazio affine non vuoto A di An (K) di dimensione k può essere descritto mediante
le equazioni parametriche (4.10) e la sua giacitura D(A) mediante le equazioni (4.11), con (a1 , ..., an ) ∈ A, con la
matrice |ai j |i=1,...,n, j=1,...,k di rango (massimo) k e con t1 , . . . , tk ∈ K parametri indipendenti. Viceversa ogni sistema
(4.10) con |ai j |i=1,...,n, j=1,...,k matrice di rango k, (a1 , ..., an ) ∈ An (K) e t1 , . . . , tk ∈ K parametri indipendenti, definisce
un sottospazio affine A di An (K) di dimensione k (e tale che (a1 , ..., an ) ∈ A).
Ogni sottospazio affine di dimensione k può anche essere dato da equazioni implicite. Infatti se
A = v + W è un sottospazio affine di dimensione k di An (K), consideriamo come sopra una base vettoriale
v1 , ..., vk della sua giacitura W su K. Completiamo il sistema linearmente indipendente {v1 , ..., vk} ad una
base vettoriale {v1 , ..., vk, vk+1 , ..., vn } di Kn . Per ogni i = 1, ..., n, siano vi = (a1i , ..., ani ). In questo modo
otteniamo la matrice quadrata non singolare A = |ai j |i, j=1,...,n a coefficienti in K (che coincide con la
matrice di passaggio dalla base canonica e1 = (1, 0, ..., 0),..., en = (0, ..., 0, 1) di Kn alla base {v1 , ..., vn}). Sia
n
P
|bi j |i, j=1,...,n la matrice inversa di A. Se (x1 , ..., xn) = yi vi (quindi se (y1 , ..., yn ) sono le coordinate del vettore
i=1
n
P
n n
(x1 , ..., xn) ∈ K rispetto alla base {v1 , ..., vn} di K ), allora otteniamo le uguaglianze yi = bi j x j , i = 1, ..., n.
j=1
Inoltre, (x1 , ..., xn ) ∈ W se e solo se yk+1 = ... = yn = 0, da cui:
n
X
v + W = {(a1 , ..., an ) + (x1 , ..., xn ) ∈ Kn | bi j x j = 0, j = k + 1, ..., n}.
j=1

Poichè det(|bi j |i, j=1,...,n) , 0, la matrice |bi j |i=k+1,...,n, j=1,...,n ha rango massimo n − k.
In questo modo abbiamo ottenuto la forma generale delle equazioni implicite che definiscono il
sottospazio affine v + W di An (K) di dimensione k:
n
X
bi j (x j − a j ) = 0, i = k + 1, ..., n, (4.12)
j=1

dove v = (a1 , ..., an ) e rang(|bi j |i=k+1,...,n, j=1,...,n) = n − k.


Se non specifichiamo il punto (a1 , ..., an ), allora la forma generale delle equazioni implicite di un
sottospazio affine A = v + W di dimensione k di An (K) (con W K-sottospazio vettoriale di A e v ∈ Kn ) è:
n
X
bi j x j = ci , i = k + 1, ..., n, (4.13)
j=1

dove la matrice |bi j |i=k+1,...,n, j=1,...,n ha rango n − k, e ck+1 , ..., cn ∈ K.


Viceversa, l’insieme dei punti (x1 , ..., xn ) di An (K) che soddisfano (4.13) (dove il rango della matrice
|bi j |i=k+1,...,n, j=1,...,n è n − k) è un sottospazio affine di dimensione k di An (K) la cui giacitura è data dalle
equazioni
Xn
bi j x j = 0, i = k + 1, ..., n. (4.14)
j=1

In questo modo abbiamo provato la seguente:


Proposizione 4.31. Ogni sottospazio affine non vuoto A di An (K) di dimensione k può essere descritto mediante
le equazioni implicite (4.13) e la sua giacitura D(A), mediante le equazioni (4.14), con la matrice |bi j |i=1,...,n, j=1,...,k
di rango (massimo) n − k e con ck+1 , . . . , cn ∈ K. Viceversa ogni sistema (4.13) con |bi j |i=1,...,n, j=1,...,k matrice di rango
n − k, definisce un sottospazio affine A di An (K) di dimensione k.

Per esempio ogni iperpiano di An (K) è dato da una equazione della forma

b1 x1 + · · · + bn xn = c, dove (b1 , ..., bn ) ∈ Kn \ {(0, ..., 0)}, e c ∈ K. (4.15)


59

Esempi 4.32.
1. Esemplifichiamo quanto detto sopra nel caso delle rette in An (K). Le equazioni parametriche delle
rette che passano per il punto (a1 , ..., an ) ∈ An (K) hanno la forma generale

x j = a j + l j t, j = 1, ..., n, (4.16)

dove (l1 , ..., ln ) , (0, ..., 0) e si chiamano i parametri direttori della retta, con t ∈ K un parametro
arbitrario. Inoltre la giacitura di una tale retta è il sottospazio vettoriale generato dal vettore
(l1 , . . . , ln ).
Per esempio, se A = (a1 , ..., an ) e B = (b1 , ..., bn ) sono due punti distinti di An (K), allora un qualsiasi
punto X = (x1 , ..., xn) appartenente alla retta AB ha le coordinate della forma xi = (1 − t)ai + tbi ,
∀i = 1, ..., n, da cui risulta
xi = ai + (bi − ai )t, i = 1, ..., n.
In particolare, i parametri direttori della retta AB sono (b1 − a1 , ..., bn − an ).
2. Le equazioni implicite di una retta in An (K) sono della forma
n
X
bi j x j = ci , i = 2, ..., n, (4.17)
j=1

dove la matrice |bi j |i=2,...,n, j=1,...,n ha rango n − 1.


In particolare, le equazioni parametriche di una retta d di A3 (K) che passa per il punto (a1 , a2 , a3 ) ∈
A3 (K) con parametri direttori (l1 , l2 , l3 ) ∈ K3 \ (0, 0, 0) hanno la forma

xi = ai + li t, i = 1, 2, 3,

con t ∈ K parametro, mentre le equazioni implicite hanno la forma



a1 x1 + a2 x2 + a3 x3 = c



b1 x1 + b2 x2 + b3 x3 = d,

con ai , bi , c, d ∈ K, i = 1, 2, 3, tale che


!
a1 a2 a3
rang =2
b1 b2 b3

Siano ora A1 , ..., An n punti arbitrari di An (K), con Ai = (ai1 , ..., ain ), ∀i = 1, ..., n. Affermiamo che i
punti {A1 , ..., An } sono affinemente indipendenti se e solo se la matrice
 
 a11 ··· a1n 1 
 a ··· a2n 1 
 21 
Ω(A1 , ..., An ) :=  . .. .. .. 
 .. . . .


 
an1 ··· ann 1

contiene una sottomatrice di tipo (n, n) che contiene l’ultima colonna di Ω(A1 , ..., An ) avente il determi-
nante , 0. Infatti, la matrice Ω(A1 , ..., An ) ha quest’ultima proprietà se e solo se la matrice
 
 a11 ··· a1n 1 
 a − a ··· a2n − a1n 0 
 21 11 
Ω′ (A1 , ..., An ) := 

.
. .. .. .. 


 . . . . 

an1 − a11 ··· ann − a1n 0

contiene una sottomatrice di tipo (n, n) contenente l’ultima colonna di Ω′ (A1 , ..., An ) e avente determinante
, 0. Questo equivale al fatto che la sottomatrice di Ω′ (A1 , ..., An ) ottenuta sopprimendo la prima riga e
60 Capitolo 4. Spazi affini

−−−→ −−−−→
l’ultima colonna ha rango (massimo) n − 1. Quest’ ultimo fatto vuol dire che i vettori A1 A2 ,...,A1 An sono
linearmente indipendenti, i.e. che i punti {A1 , ..., An } sono affinemente indipendenti. In questo modo
l’affermazione è dimostrata.
Ora dato un sistema arbitrario di n punti {A1 , ..., An } di An (K) affinemente indipendenti, consid-
eriamo l’iperpiano H := hA1 , ..., An i generato da {A1 , ..., An }. H è un iperpiano in virtù del Corollario
4.16. Consideriamo la matrice quadrata Ω(x1 , ..., xn ; A1 , ..., An ) di ordine n + 1 (a coefficienti nell’anello di
polinomi K[x1 , ..., xn ] in n indeterminate)
 
 x1 ··· xn 1 

 a11 ··· a1n 1 

Ω(x1 , ..., xn; A1 , ..., An ) :=  .. .. .. .. 


 . . . . 

an1 ··· ann 1

Dall’affermazione di sopra segue che il polinomio (in x1 , ..., xn) ottenuto prendendo il determinante di
questa matrice ha grado totale 1. Allora l’equazione lineare

det(Ω(x1 , ..., xn; A1 , ..., An )) = 0, cioè



x1 · · · xn 1
a11 · · · a1n 1
.
.. .. .. = 0 (4.18)
.. . . .

an1 · · · ann 1
rappresenta l’equazione dell’iperpiano H. Infatti, osserviamo che, se denotiamo con H′ l’iperpiano di
equazione (4.18), allora Ai ∈ H′ , ∀i = 1, ..., n (se nella matrice

Ω(x1 , ..., xn ; A1 , ..., An )

poniamo x j = ai j , ∀j = 1, ..., n, otteniamo due righe uguali). Ciò implica che H ⊆ H′ , e quindi H = H′
poichè H e H′ sono due iperpiani. In questo modo abbiamo dimostrato:
Proposizione 4.33. Se A1 , ..., An sono n punti affinemente indipendenti in An (K) (n ≥ 2), con Ai = (ai1 , . . . , ain ),
∀i = 1, . . . , n, allora l’equazione dell’iperpiano hA1 , ..., An i è data da (4.18).
Abbiamo visto che ogni iperpiano in An (K) è dato da un’equazione della forma (4.15). Una tale
equazione è essenzialmente univocamente individuata nel senso seguente:
Lemma 4.34. Siano b1 x1 + · · · + bn xn = c e b′1 x1 + · · · + b′n xn = c′ due equazioni che definiscono lo stesso iperpiano
A di An (K) (con n ≥ 2 e (b1 , . . . , bn ), (b′1 , . . . , b′n ) ∈ Kn \ {(0, . . . , 0)}). Allora esiste d ∈ K (necessariamente non
nullo) tale che b′i = dbi , ∀i = 1, ..., n, e c′ = dc.

Dimostrazione. Supponiamo innanzitutto che c , 0. Allora c′ , 0 (se c′ = 0 il punto (0, ..., 0) appartiene
all’ iperpiano A, quindi c = 0) e per ogni i tale che bi , 0 il punto (0, ..., 0, cb−1
i
, 0, ..., 0) ∈ Kn (con
cb−1
i
al posto i) appartiene a A. Imponendo la condizione che questo punto soddisfi anche la seconda
b′ ′
equazione, otteniamo b′i cb−1 i
= c′ , da cui bii = cc per ogni i tale che bi , 0. In particolare, bi , 0 implica

bi , 0. Scambiando i ruoli, otteniamo l’affermazione reciproca. Quindi, il lemma è dimostrato nel caso
in cui c , 0. Se invece c = 0 (e quindi c′ = 0), sia di nuovo i un indice tale che bi , 0, e sia j , i un
indice arbitrario. Allora il punto (λ1 , ..., λn ) ∈ Kn , con λi = −b j , λ j = bi , e λk = 0, ∀k , i, j soddisfa
l’equazione b1 x1 + · · · + bn xn = 0. Imponendo la condizione che questo punto soddisfi anche l’equazione
b′1 x1 + · · · + b′n xn = 0, otteniamo b′i (−b j ) + b′j bi = 0, ciò che dimostra il lemma anche nel caso c = 0. 

Proposizione 4.35. Sia A un sottospazio affine k-dimensionale di An (K) (0 ≤ k ≤ n − 1 e n ≥ 2) di equazioni


n
X
Fi (x1 , ..., xn) := bi j x j − ci = 0, i = k + 1, ..., n,
j=1
61

con rang(|bi j |i=k+1,...,n, j=1,...,n) = n − k. Per ogni iperpiano H di An (K) che contiene A esiste (λk+1 , ..., λn ) ∈
Kn−k \ (0, ..., 0) tale che l’equazione di H è della forma
λk+1 Fk+1 (x1 , ..., xn) + · · · + λn Fn (x1 , ..., xn ) = 0.

Dimostrazione. Sia A = A+W, con W = D(A) la giacitura di A e A = (a1 , ..., an ). Allora W è un K-sottospazio
n
P
vettoriale di dimensione k di V := Kn . Ponendo fi (x1 , ..., xn) = bi j x j = Fi + ci (con ci = fi (a1 , ..., an )), nelle
j=1
notazioni del Corollario 2.62 otteniamo fi ∈ W 0 , ∀i = k + 1, ..., n. Per il Corollario 2.62, dim(W 0 ) = n − k.
Poichè la condizione rang(|bi j |i=k+1,...,n, j=1,...,n) = n−k equivale al fatto che fk+1, ..., fn è un sistema linearmente
indipendente di W 0 , segue che fk+1 , ..., fn è una base di W 0 .
D’altra parte, ogni iperpiano H che contiene A ha un’equzione della forma F(x1 , ..., xn) = f (x1 , ..., xn)−
f (a1 , ..., an ) = 0, con f ∈ W 0 . Poichè fk+1 , ..., fn è una base di W 0 , esistono λk+1 , ..., λn ∈ K tali che f =
λk+1 fk+1 + · · · + λn fn . Poichè ci = fi (a1 , ..., an ), abbiamo f (a1 , ..., an ) = λk+1 ck+1 + · · · + λn cn . Ciò implica che
F = λk+1 Fk+1 + · · · + λn Fn . 

Definizione 4.36. Nelle notazioni della Proposizione 4.35, l’insieme degli iperpiani di An (K) che con-
tengono il sottospazio affine A si chiama sistema lineare di iperpiani che passano per A. Se k = n − 2, questo
insieme si chiama il fascio di iperpiani generato da A. Per esempio se A è una retta in A3 (K) allora A genera
il fascio di piani di A3 (K) che passano per A.

L’applicazione traccia
Siano (A, V, ϕ) e (B, W, ψ) due spazi affini su K, e sia f : A → B un’applicazione qualsiasi. Se O ∈ A è
un punto fissato, dalla definizione di spazio affine, le applicazioni ϕO : A → V e ψ f (O) : B → W (definite
−−→ −−−−→
da ϕO (A) = OA e ψ f (O) (B) = f (O)B, ∀A ∈ A e ∀B ∈ B) sono bigettive. Allora possiamo considerare
l’applicazione (chiamata l’applicazione traccia rispetto al punto O) TrO ( f ) : V → W definita mediante la
formula
TrO ( f ) := ψ f (O) ◦ f ◦ ϕ−1
O .
In altre parole, per ogni A ∈ A, abbiamo
−−→ −−−−−−−→
TrO ( f )(OA) = f (O) f (A). (4.19)
In questo modo otteniamo il diagramma seguente
f
A −−−−−→ B

 

ϕO 

y

ψ f (O)
y
TrO ( f )
V −−−−−→ W
che è commutativo nel senso che TrO ( f ) ◦ ϕO = ψ f (O) ◦ f .
Definizione 4.37. Sotto le ipotesi e le notazioni di sopra, l’applicazione f : A → B si chiama morfismo
di spazi affini su K (e si scrive f : (A, V, ϕ) → (B, W, ψ)) se esiste un punto O ∈ A tale che l’applicazione
traccia rispetto a O, TrO ( f ) : V → W, è un omomorfismo di K-spazi vettoriali. In altre parole, f è morfismo
di spazi affini su K se per ogni v, v′ ∈ V e ogni a ∈ K si hanno TrO ( f )(v + v′ ) = TrO ( f )(v) + TrO ( f )(v′ ) e
TrO ( f )(av) = a TrO ( f )(v).
Se f : (A, V, ϕ) → (B, W, ψ) e g : (B, W, ψ) → (C, Z, χ) sono due morfismi di spazi affini, allora
g ◦ f : (A, V, ϕ) → (C, Z, χ) è un morfismo di spazi affini (poichè TrO (g ◦ f ) = Tr f (O) (g) ◦ TrO ( f ) e la
composizione di due omomorfismi di K-spazi vettoriali è un omomorfismo di K-spazi vettoriali).
Un morfismo di spazi affini f : (A, V, ϕ) → (B, W, ψ) su K si chiama isomorfismo di spazi affini su K se
esiste un morfismo di spazi affini g : (B, W, ψ) → (A, V, ϕ) su K tale che g ◦ f = idA e f ◦ g = idB (in questo
caso g = f −1 ). Un isomorfismo di spazi affini f : (A, V, ϕ) → (A, V, ϕ) su K si chiama K-automorfismo
affine, o affinità, di (A, V, ϕ). L’insieme di tutti i K-automorfismi affini di (A, V, ϕ) verrà denotato con
AutK (A, V, ϕ). Allora AutK (A, V, ϕ) diventa un gruppo rispetto alla composizione di automorfismi. Il
gruppo AutK (A, V, ϕ) sta alla base della geometria dello spazio affine (A, V, ϕ).
62 Capitolo 4. Spazi affini

Il seguente lemma fa vedere che la Definizione 4.37 infatti non dipende dalla scelta del punto O ∈ A.
Lemma 4.38. Sotto le ipotesi e le notazioni della Definizione 4.37 supponiamo che esista un punto O ∈ A
tale che TrO ( f ) : V → W sia un omomorfismo di K-spazi vettoriali. Allora per ogni altro punto O′ ∈ A si ha
TrO ( f ) = TrO′ ( f ).

−−→ −−−→ − −−

Dimostrazione. Poichè OA = OO′ + O′ A e poichè TrO è un’applicazione K-lineare, per ogni A ∈ A abbiamo
−−→ −−−→ −−−

TrO ( f )(OA) = TrO ( f )(OO′ + O′ A) =
−−−→ −
−−→ −−−−−−−−→ −
−−→
= TrO ( f )(OO′ ) + TrO ( f )(O′ A) = f (O) f (O′ ) + TrO ( f )(O′ A),
−−−−−−−→ −−−−−−−−→ −−−−−−−−→
e, poichè per (4.19) il primo membro è uguale a f (O) f (A) = f (O) f (O′ ) + f (O′ ) f (A), otteniamo
−−−
→ −−−−−−−−→
TrO ( f )(O′ A) = f (O′ ) f (A), ∀A ∈ A,

cioè TrO ( f ) = TrO′ ( f ). 

Definizione 4.39. Se f : (A, V, ϕ) → (B, W, ψ) è un morfismo di spazi affini su K, poniamo per definizione

Tr( f ) := TrO ( f ),

con O ∈ A un punto arbitrario. Allora il Lemma 4.38 fa vedere che Tr( f ) : V → W è un omomorfismo di
spazi vettoriali su K che dipende solo da f (e non dal punto O ∈ A). L’omomorfismo di K-spazi vettoriali
Tr( f ) : V → W si chiama la traccia del morfismo di spazi affini f : (A, V, ϕ) → (B, W, ψ).
Proposizione 4.40. (i) Per ogni spazio affine (A, V, ϕ), l’applicazione identica idA : (A, V, ϕ) → (A, V, ϕ) è un
isomorfismo di spazi affini su K (in particolare un automorfismo di (A, V, ϕ)).
(ii) Se f : (A, V, ϕ) → (B, W, ψ) e g : (B, W, ψ) → (C, U, χ) sono morfismi di spazi affini su K, allora si ha la
formula Tr(g ◦ f ) = Tr(g) ◦ Tr( f ). In particolare, g ◦ f : (A, V, ϕ) → (C, U, χ) è ancora un morfismo di spazi affini
su K.
(iii) Sia f : (A, V, ϕ) → (B, W, ψ) un morfismo di spazi affini su K. Allora f è isomorfismo di spazi affini su K se e
solo se Tr( f ) è isomorfismo di spazi vettoriali su K; o ancora se e solo se l’applicazione f : A → B è bigettiva.

Dimostrazione. Esercizio per il Lettore. (Suggerimento: si utilizzi la Proposizione 2.27 e la definizione di


morfismo di spazi affini.) 

Proposizione 4.41. Siano (A, V, ϕ) e (B, W, ψ) due spazi affini su K, e sia f : A → B un’applicazione. Allora f è
un morfismo di spazi affini su K se e solo se per ogni numero finito di punti A1 , ..., Am ∈ A e per ogni a1 , ..., am ∈ K
tali che a1 + · · · + am = 1, si ha la formula f (a1 A1 + · · · + am Am ) = a1 f (A1 ) + · · · + am f (Am ).

Dimostrazione. Supponiamo che f sia un morfismo di K-spazi affini, e sia O := A1 . Poniamo A :=


a1 A1 + · · · + am Am e B := a1 f (A1 ) + · · · + am f (Am ). Dobbiamo provare che f (A) = B, ciò che equivale a
−−−−−−−→ −−−−→ −−→
f (O) f (A) = f (O)B. Il primo membro coincide con TrO ( f )(OA), e utilizzando il fatto che TrO ( f ) è K-lineare,
abbiamo −−→ −−−→ −−−−→
TrO ( f )(OA) = a1 TrO ( f )(A1 A1 ) + · · · + am TrO ( f )(A1 Am ) =
−−−→ −−−−→ −−−−−−−−−→ −−−−−−−−−→
= a2 TrO ( f )(A1 A2 ) + · · · + am TrO (A1 Am ) = a2 f (A1 ) f (A2 ) + · · · + am f (A1 ) f (Am ) =
−−−−−−−−→ −−−−−−−−−→ −−−−→
= a1 f (O) f (A1 ) + · · · + am f (O) f (Am ) = f (O)B.
L’implicazione inversa si dimostra in una maniera completamente simile. 

Corollario 4.42. (i) Sia {A0 , A1 , ..., An } un riferimento affine dello spazio affine (A, V, ϕ) su K, e sia σ un K-
automorfismo di (A, V, ϕ). Allora {σ(A0 ), σ(A1 ), ..., σ(An)} è un riferimento affine di (A, V, ϕ) su K.
(ii) Sia (A, V, ϕ) uno spazio affine di dimensione n su K, e {A0 , A1 , ..., An} e {B0 , B1 , ..., Bn } ne siano due riferimenti
affini su K. Allora esiste un unico K-automorfismo affine σ di (A, V, ϕ) tale che σ(Ai ) = Bi , ∀i = 0, 1, ..., n.
63

Dimostrazione. (i) segue immediatamente utilizzando la Proposizione 4.41 e il Corollario 4.16.


(ii) Poichè {A0 , A1 , ..., An } è un riferimento affine su K, ogni punto A ∈ A si scrive in un modo unico
nella forma A = a0 A0 + a1 A1 + · · · + an An , con a0 , a1 , ..., an ∈ K e a0 + a1 + · · · + an = 1 (Corollario 4.22). Se
σ : A → A è un K-automorfismo affine tale che σ(Ai ) = Bi , ∀i = 0, 1, ..., n, per la Proposizione 4.41 abbiamo

σ(A) = a0 B0 + a1 B1 + · · · + an Bn ,

da cui l’unicità di σ. Per l’esistenza è sufficiente definire σ mediante la formula di sopra, e il fatto che σ è
un K-automorfismo affine segue dalla Proposizione 4.41. 

Proposizione 4.43. Nelle ipotesi e notazioni fatte prima della Definizione 4.37 supponiamo inoltre che la carat-
teristica di K sia diversa da 2. Allora f : A → B è un morfismo di spazi affini se e solo se f ((1 − t)A + tB) =
(1 − t) f (A) + t f (B), per ogni A, B ∈ A e ogni t ∈ K.

Dimostrazione. La prima parte è un caso speciale della Proposizione 4.41. La seconda parte si dimostra
analogamente alla Proposizione 4.27 (esercizio per il Lettore). 

Esempi 4.44.
1. Se A′ è un K-sottospazio affine non vuoto di giacitura W ⊆ V del K-spazio affine (A, V, ϕ), allora
l’inclusione f : A′ ֒→ A è un morfismo di spazi affini su K (definito da (A′ , W, ϕ′ ) a valori in (A, V, ϕ),
dove ϕ′ è la restrizione di ϕ a A′ × A′ ).
2. Sia (A, V, ϕ) uno spazio affine su K, e sia O ∈ A un punto fissato. Allora l’applicazione ϕO : A → V è
un isomorfismo di spazi affini tra (A, V, ϕ) e A(V), dove A(V) = (V, V, ϕ′) è lo spazio affine associato
a V, e ϕ′ : V × V → V è l’applicazione ϕ′ (v, w) = w − v (si veda l’Osservazione 4.2). Infatti, in questo
caso TrO (ϕO ) = idV . Per questo motivo possiamo sempre ridurci a questo esempio standard.
3. Sia ora f : (A, V, ϕ) → (B, W, ψ) un morfismo di spazi affini su K. Se fissiamo i punti O ∈ A e
O′ ∈ B e se identifichiamo gli spazi affini (A, V, ϕ) e A(V) (rispettivamente, (B, W, ψ) e A(W)) via
l’isomorfismo di spazi affini ϕO (rispettivamente, ψO′ ) di sopra, allora otteniamo un morfismo
di spazi affini f ′ : A(V) → A(W) tale che Tr( f ) = Tr( f ′ ). Ne segue che lo studio del morfismo
f si riduce allo studio di f ′ ; in altre parole, non è restrittivo supporre che (A, V, ϕ) = A(V),
(B, W, ψ) = A(W) e f = f ′ . Allora ϕ(v, v′) = v′ − v e ψ(w, w′ ) = w′ − w, ∀v, v′ ∈ V e ∀w, w′ ∈ W.
Scegliendo ora O = 0V e O′ = f (O) = f (0V ), dalla definizione dell’omomorfismo traccia Tr( f ) segue
che Tr( f )(A) = f (A) − f (0V ), i.e. f = f (0V ) + Tr( f ). In particolare, f è completamente determinato
dalla conoscenza dell’immagine f (0V ) ∈ A(W) e della traccia Tr( f ) : V → W.
Se inoltre scegliamo una base {v1 , ..., vm} di V e una base {w1 , ..., wn } di W (su K), poniamo f (0V ) =
b1 w1 + · · · + bn wn . Consideriamo ancora la matrice

MTr( f ) = |ai j |i=1,...,n, j=1,...,m,

associata all’omomorfismo Tr( f ) di K-spazi vettoriali rispetto alle basi {v1 , ..., vm } e {w1 , ..., wn }.
n
P m
P
Quindi si ha Tr( f )(vi ) = a ji w j , ∀i = 1, ..., m. Poichè f = f (0V ) + Tr( f ), ne segue che se A = xi vi
j=1 i=1
n
P m
P
e f (A) = y j w j , allora y j = b j + a ji xi , j = 1, ..., n. In particolare, prendendo V = Km , W = Kn ,
j=1 j=1
v1 , ..., vm la base canonica di Km e w1 , ..., wn la base canonica di Kn , otteniamo:
Proposizione 4.45. Ogni morfismo affine f : Am (K) → An (K) è dato mediante le formule
m
X
f (x1 , ..., xm ) = (y1 , ..., yn ), con y j = a ji xi + b j , j = 1, ..., n,
i=1

dove |ai j |i=1,...,n, j=1,...,m è la matrice associata all’omomorfismo Tr( f ) : Km → Kn di K-spazi vettoriali (rispetto alle
basi canoniche di Km e Kn ), e f (0, ..., 0) = (b1 , ..., bn ). Viceversa, ogni applicazione f : Km → Kn definita mediante
64 Capitolo 4. Spazi affini

le formule di sopra è un morfismo affine f : Am (K) → An (K) la cui traccia Tr( f ) è l’applicazione g : Km → Kn
definita da g(x1 , ..., xm) = (z1 , ..., zn ), con
m
X
zj = a ji x j .
i=1

Una conseguenza immediata della Proposizione 4.45, della Proposizione 4.40 e del Corollario 2.50
è il seguente:
Teorema 4.46. Ogni K-automorfismo affine σ ∈ AutK (An (K)) dello spazio affine standard An (K) è dato dalle
formule
n
X
σ(x1 , ..., xn ) = (y1 , ..., yn ), con yi = ai j x j + bi , ∀i = 1, ..., n, (4.20)
j=1

dove |ai j |i, j=1,...,n è una matrice non singolare a coefficienti in K e (b1 , ..., bn ) = σ(O), con O = (0, ..., 0). Inoltre la
traccia Tr(σ) è l’applicazione lineare di Kn data da
n
X
Tr(σ)(x1 , ..., xn) = (z1 , ..., zn ), con zi = ai j x j , ∀i = 1, ..., n. (4.21)
j=1

Viceversa, per ogni matrice non singolare |ai j |i, j=1,...,n a coefficienti in K e per ogni (b1 , ..., bn ) ∈ Kn , l’applicazione
(x1 , ..., xn) → (y1 , ..., yn), data da (4.20) è un K-automorfismo affine di An (K).
Il gruppo di tutti i K-automorfismi affini di An (K) si denoterà con AGLn (K). L’applicazione Tr: AGLn (K) →
GLn (K) che ad ogni α ∈ AGLn (K) associa l’automorfismo di K-spazi vettoriali Tr(α) ∈ GLn (K) ha la pro-
prietà che Tr(α ◦ β) = Tr(α) ◦ Tr(β), ∀α, β ∈ AGLn (K), i.e. l’applicazione Tr è un omomorfismo di gruppi.
È ovvio che l’omomorfismo Tr: AGLn (K) → GLn (K) è surgettivo. Il suo nucleo Ker(Tr) coincide con il
sottogruppo degli automorfismi affini di An (K) della forma yi = xi + bi , ∀i = 1, ..., n, dove (b1 , ..., bn ) ∈ Kn
è un n-upla fissata. Questo sottogruppo, che si denoterà con Tn (K), è pertanto un sottogruppo normale
di AGLn (K). Gli elementi di Tn (K) si chiamano le traslazioni di An (K).
D’altra parte, se O ∈ An (K) è un punto fissato allora si verifica senza difficoltà che

AGLn (K, O) := {α ∈ AGLn (K) | α(O) = O}

è un sottogruppo di AGLn (K) con la proprietà che la restrizione

Tr | AGLn (K, O) : AGLn (K, O) → GLn (K)

è un isomorfismo di gruppi. Un automorfismo α ∈ AGLn (K, O) si chiama automorfismo affine di An (K)


che fissa il punto O. In questo caso il punto O si chiama punto fisso di α.
Per ogni punto O ∈ An (K) fissato si hanno le seguenti proprietà:

AGLn (K, O) ∩ Tn (K) = {idAn (K) }, AGLn (K) = Tn (K) · AGLn (K, O).

La prima proprietà è ovvia. Per quanto riguarda la seconda, se α ∈ AGLn (K) è un automorfismo
arbitrario, esiste un’unica traslazione β ∈ Tn (K) tale che β(O) = α(O). Allora γ := β−1 ◦ α ha la proprietà
che γ(O) = O, quindi γ ∈ AGLn (K, O). Ne segue che α = β ◦ γ, con β ∈ Tn (K) e γ ∈ AGLn (K, O).
Per enunciare la proposizione seguente è necessario dare la
Definizione 4.47 (Prodotto semidiretto di gruppi). Sia G un gruppo (moltiplicativo), T ⊆ G un sot-
togruppo normale di G e H ⊆ G un sottogruppo di G. Diremo che G è prodotto semidiretto di T per H se
T ∩ H = {1G } (l’identità di G) e G = T · H (con T · H := {th | t ∈ T, h ∈ H}). Queste condizioni implicano
che ogni g ∈ G si scrive in un modo unico come g = th, con t ∈ T e h ∈ H.
Proposizione 4.48. Il sottogruppo Tn (K) delle traslazioni è un sottogruppo normale di AGLn (K). Per ogni
punto O ∈ An (K), il gruppo affine generale lineare AGLn (K) è prodotto semidiretto di Tn (K) per il sottogruppo
AGLn (K, O) di tutti gli automorfismi affini di An (K) che fissano il punto O. In particolare, per ogni α ∈ AGLn (K),
si ha α = β ◦ γ, con β ∈ Tn (K) e γ ∈ AGLn (K, O) e questa scrittura è unica.
65

Esempi importanti di automorfismi affini sono le omotetie.


Definizione 4.49. Un automorfismo affine α ∈ AGLn (K) si chiama omotetia se esiste un punto O ∈ An (K)
−−−−−→ −−→
e uno scalare non nullo a ∈ K tale che α ∈ An (K, O) (i.e. α(O) = O) e Oα(A) = aOA, ∀A ∈ An (K). In questo
caso il punto O si chiama il centro dell’omotetia α. Per esempio le omotetie di centro O = (0, ..., 0) sono
date mediante le formule
yi = axi , ∀i = 1, ..., n, con a ∈ K \ {0} fissato.

Teorema di dimensione
Sia A un sottospazio affine non vuoto di An (K). Abbiamo visto che se D(A) è la giacitura di A (che è un
sottospazio vettoriale di Kn ) allora A = A + D(A) con A un qualsiasi punto di A. Allora per ogni due
punti P, Q ∈ A, P − Q ∈ D(A). Se A e B sono due sottospazi affini non vuoti di An (K), consideriamo
hA ∪ Bi il sottospazio affine generato da A ∪ B cioè il più piccolo sottospazio affine di An (K) che contiene
entrambi i sottospazi A e B.
Lemma 4.50. Sia A = A + D(A) e B = B + D(B) due sottospazi affini non vuoti di An (K) (n ≥ 2) di giaciture
D(A) e D(B), rispettivamente. Allora
hA ∪ Bi = A + (K(B − A) + D(A) + D(B)), (4.22)
dove K(B − A) è il sottospazio vettoriale di Kn generato da B − A.

Dimostrazione. Osserviamo che il secondo membro di (4.22) contiene entrambi i sottospazi A e B. Dalla
definizione di hA ∪ Bi segue che il primo membro di (4.22) è incluso nel secondo membro.
Viceversa osserviamo che, essendo A, B ∈ A∪B, segue che K(B−A) ⊆ D(hA∪Bi). Poichè ovviamente
D(A) e D(B) sono inclusi in D(hA∪Bi), otteniamo K(B−A)+D(A)+D(B) ⊆ D(hA∪Bi). Dunque l’inclusione
inversa segue dalla formula A + D(hA ∪ Bi) ⊆ hA ∪ Bi. 

Lemma 4.51. Nelle ipotesi e notazioni del Lemma 4.50, A ∩ B , ∅ se e solo se K(B − A) ⊆ D(A) + D(B).

Dimostrazione. Supponiamo innanzitutto che esista C ∈ A ∩ B. Allora C = A + P = B + Q, con P ∈ D(A) e


Q ∈ D(B), da cui B − A = P − Q ∈ D(A) + D(B), i.e. K(B − A) ⊆ D(A) + D(B). Viceversa supponiamo che
K(B−A) ⊆ D(A)+D(B). Ne segue B−A = P+Q con P ∈ D(A) e Q ∈ D(B), quindi A+P = B−Q ∈ A∩B. 

Corollario 4.52. Se A e B hanno il punto A in comune allora A ∩ B = A + D(A) ∩ D(B) e hA ∪ Bi =


A + (D(A) + D(B)).

Dimostrazione. La prima formula segue immediatamente dalle definizioni mentre la seconda segue dai
Lemmi 4.50 e 4.51. 
Ora siamo in grado di dimostrare il risultato fondamentale seguente:
Teorema 4.53 (Teorema di dimensione per sottospazi affini). Siano A e B due sottospazi affini di An (K)
(n ≥ 2).
i) Se A ∩ B , ∅ allora dim(hA ∪ Bi) = dim(A) + dim(B) − dim(A ∩ B).
ii) Se A ∩ B = ∅ allora dim(hA ∪ Bi) = dim(A) + dim(B) − dim(D(A) ∩ D(B)) + 1.

Dimostrazione. i) Per il Corollario 4.52 si ha che D(hA∪Bi) = D(A)+D(B) e D(A∩B) = D(A)∩D(B). Quindi
la formula da dimostrare si riduce a dim(D(A) + D(B)) = dim(D(A)) + dim(D(B)) − dim(D(A) ∩ D(B)),
che è proprio la formula di Grassmann per i sottospazi vettoriali (si veda il Corollario 2.37).
ii) I Lemmi 4.50 e 4.51 implicano che D(hA ∪ Bi) = K(B − A) + D(A) + D(B) e che K(B − A) non è
contenuto in D(A) + D(B). Risulta allora che
dim(hA ∪ Bi) = dim(K(B − A) + D(A) + D(B)) = 1 + dim(D(A) + D(B)).
Il secondo membro di questa uguaglianza è dato dalla formula di Grassmann (Corollario 2.37) e quindi
otteniamo la formula desiderata. 
66 Capitolo 4. Spazi affini

Definizione 4.54. Siano A = A + D(A) e B = B + D(B) due sottospazi affini non vuoti dello spazio
affine standard An (K) (n ≥ 2). Nelle notazioni di sopra, se D(A) e D(B) sono le giaciture di A e B
rispettivamente, si dice che A è parallelo a B, e si scrive A k B, se D(A) ⊆ D(B) o D(B) ⊆ D(A).
Da questa definizione segue in particolare che due sottospazi affini non vuoti A e B della stessa
dimensione sono paralleli se e solo se D(A) = D(B). Questo fatto risulta dal Corollario 2.23.
Siano A e B due sottospazi affini non vuoti di An (K) (n ≥ 2). Diremo che A e B sono sghembi se
A ∩ B = ∅ e A e B non sono paralleli.

Proposizione 4.55. Nelle notazioni della Definizione 4.54 se A k B allora A ⊆ B, o B ⊆ A, oppure A ∩ B = ∅.

Dimostrazione. Supponiamo che esista un punto P ∈ A ∩ B; poichè A k B, abbiamo (per esempio) che
D(A) ⊆ D(B). Allora A = P + D(A) e B = P + D(B), da cui otteniamo A ⊆ B. 

Proposizione 4.56. Sia A un sottospazio affine non vuoto, e B un iperpiano di An (K) (n ≥ 2). Se A ∩ B = ∅
allora A k B.

Dimostrazione. Poichè B è un iperpiano e A ∩ B = ∅, dim(hA ∪ Bi) = n. Per il Teorema 4.53 e la formula


di Grassmann (Corollario 2.37) si ha

dim(D(A) + D(B)) = dim(D(A)) + dim(D(B)) − dim(D(A) ∩ D(B)) =

dim(A) + dim(B) − dim(D(A) ∩ D(B)) = dim(hA ∪ Bi) − 1 = n − 1.


Poichè D(B) ⊆ D(A) + D(B) segue D(B) = D(A) + D(B), o ancora, D(A) ⊆ D(B), quindi A k B. 

Corollario 4.57. Se A e A′ sono due iperpiani di An (K) (n ≥ 2), allora A k A′ se e solo se A = A′ o A ∩ A′ = ∅.

Dimostrazione. L’implicazione diretta segue dalla Proposizione 4.55, e quella inversa dalla Proposizione
4.56. 

Corollario 4.58. Sia d una retta e A un iperpiano di An (K) (n ≥ 2) tali che d ∩ A , ∅ e d * A. Se d′ è una retta
arbitraria di An (K) parallela alla retta d, allora l’intersezione d′ ∩ A è un punto.

Dimostrazione. Poichè l’intersezione di due sottospazi affini è un sottospazio affine, l’ipotesi implica che
d ∩ A è un punto. Se per assurdo d′ ∩ A non fosse un punto, allora o d′ ∩ A = ∅, o d′ ⊆ A. Nel primo caso,
applicando la Proposizione 4.56, ne segue che d′ k A. Se d′ ⊆ A allora D(d′ ) ⊆ D(A), quindi di nuovo
d′ k A. Quindi in entrambe le situazioni d k A, e ciò contraddice la Proposizione 4.55. 

Proposizione 4.59. Siano A e A′ due iperpiani in An (K) (n ≥ 2) aventi rispettivamente equazioni b1 x1 + · · · +


bn xn = c, b′1 x1 + · · · + b′n xn = c′ , con (b1 , ..., bn ), (b′1 , ..., b′n ) , (0, ..., 0). Allora A k A′ se e solo se esiste d ∈ K \ {0}
tale che b′i = dbi , ∀i = 1, ..., n.

Dimostrazione. La condizione di parallelismo equivale a D(A) = D(A′ ). Poichè le giaciture D(A) e D(A′ )
hanno equazioni b1 x1 + · · ·+ bn xn = 0 e b′1 x1 + · · ·+ b′n xn = 0, rispettivamente, il corollario segue applicando
il Lemma 4.34. 

Il risultato seguente, anche se banale da dimostrare, fa vedere che il ben noto assioma di parallelismo
(o di Euclide) è soddisfatto dai piani affini su un campo introdotti in questo capitolo. In altre parole il
modello della geometria affine piana studiato qui è una geometria che soddisfa l’assioma delle parallele.

Proposizione 4.60. Sia d una retta nel piano affine standard A2 (K) su K e A ∈ A2 (K) un punto. Allora esiste
un’unica retta d′ parallela alla retta d che passa per il punto A.
67

Dimostrazione. Sia d = B+D(d), dove B ∈ A2 (K) è un punto e D(d) è un sottospazio vettoriale di dimensione
1 (giacitura della retta d). Ogni retta d′ parallela alla retta d è della forma d′ = C + D(d), con C ∈ A2 (K) un
punto. L’esistenza di una parallela d′ a d per il punto A è ora chiara poichè possiamo prendere C = A, i.e.
d′ = A + D(d). Sia ora d′′ = C + D(d) un’altra retta parallela a d che passa per A. Allora d′ = A + D(d) ⊆ d′′ ,
quindi d′ = d′′ poichè d′ e d′′ sono sottospazi affini della stessa dimensione. 

Esempio 4.61 (Rette sghembe in A3 (K)). Siano


 
 a1 x 1 + a2 x 2 + a3 x 3 = a4 a′1 x1 + a′2 x2 + a′3 x3 = a′4

 


r:  e r : 
b′ x + b′ x + b′ x
b1 x1 + b2 x2 + b3 x3 = b4
  1 1 2 2 3 3 = b′4

due rette in A3 (K). Allora:



a1 a2 a3 a4

b b2 b3 b4
r è complanare con r′ ⇐⇒ ′1 ′ = 0.
a1 a′2 a′3 a4
b′ b′2 b′3 b′
1 4

Dimostriamo per esempio l’implicazione ⇐= (l’altra implicazione è lasciata come esercizio al Lettore).
In altre parole, supponiamo che il rango ̺ della matrice
 
a1 a2 a3 a4 
b b2 b3 b4 
M =  ′1 ′ ′ ′

a1 a2 a3 a4 

′ ′ ′ ′
b1 b2 b3 b4

sia al più 3. Inoltre se ̺′ è il rango della matrice


 
a1 a2 a3 
b b2 b3 
M =  ′1
′ 
a′2 a′3 

a1
 ′ ′
b1 b′2 b3

si ha 2 ≤ ̺′ ≤ ̺ ≤ 3.
Se ̺ = ̺′ , il sistema



a1 x 1 + a2 x 2 + a3 x 3 = a4

b1 x1 + b2 x2 + b3 x3 = b4



a′ x + a′ x + a′ x


 1 1 2 2 3 3
= a′4

b′ x + b′ x + b′ x
1 1 2 2 3 3 = b′4
è compatibile, e quindi le rette r e r′ si intersecano, i.e. sono complanari. Supponiamo invece ̺ , ̺′ , i.e.
̺ = 3 e ̺′ = 2. In tal caso il sistema è incompatibile, i.e. r ∩ r′ = ∅. Poichè le prime due righe della matrice
M′ sono indipendenti, le altre due sono combinazioni lineari di queste. Ciò significa che le giaciture di r
e r′ coincidono, i.e. r k r′ , e quindi r e r′ sono complanari.
Se consideriamo i quattro piani di equazioni a1 x1 + a2 x2 + a3 x3 = a4 , b1 x1 + b2 x2 + b3 x3 = b4 ,
a′1 x1 + a′2 x2 + a′3 x3 = a′4 e b′1 x1 + b′2 x2 + b′3 x3 = b′4 , rispettivamente, allora questi quattro piani si intersecano
se e solo se il sistema di sopra è compatibile, o geometricamente se e solo se r e r′ si intersecano. Inoltre
r , r′ se e solo se ̺ = ̺′ = 3, mentre r = r′ se e solo se ̺ = ̺′ = 2.

Presentiamno ora due altre applicazioni delle coordinate baricentriche: i teoremi di Talete e di Ceva.
Proposizione 4.62 (Teorema di Talete). Sia ABC un triangolo nello spazio affine standard An (K) (n ≥ 2) su K.
Sia M ∈ AB \ {A, B} e N ∈ AC \ {A, C} (si veda Figura 4.3). Allora la retta MN è parallela alla retta BC se e solo se
−−→ −−→
MA NA
−−→ = −−→ . (4.23)
MB NC
68 Capitolo 4. Spazi affini

Figura 4.3:

M N

B C

Figura 4.4:

C′ B′

B A′ C

Dimostrazione. Sostituendo An (K) con il piano affine generato dai punti A, B, C, possiamo supporre n = 2.
Scriviamo M = (1 − t)A + tB e N = (1 − s)A + sC, con t, s ∈ K \ {0, 1}. L’uguaglianza (4.23) è allora
equivalente a t = s. Sia X = (1 − u)B + uC un punto arbitrario sulla retta BC, e Y = (1 − v)M + vN un
punto arbitrario sulla retta MN, con u, v ∈ K. Tenendo conto delle prime due uguaglianze otteniamo
Y = (1 − t + v(t − s))A + t(1 − v)B + vsC. Da qui segue che le rette MN e BC hanno almeno un punto in
comune se e solo se 1 − t + v(t − s) = 0 per un v ∈ K. Utilizzando il Corollario 4.57 e il fatto che le rette
BC e MN sono, per ipotesi, distinte, ne segue che BC k MN se e solo se questa espressione non si può
annullare per alcun v ∈ K. Quest’ultimo fatto equivale a t = s. 

Proposizione 4.63. (Teorema di Ceva) Sia ABC un triangolo nel piano A2 (K), e siano A′ ∈ BC \ {B, C},
B′ ∈ CA \ {C, A} e C′ ∈ AB \ {A, B} (si veda Figura 4.4). Allora le rette AA′ , BB′ e CC′ sono concorrenti o due a
due parallele se e solo se si ha l’uguaglianza
−−→ −−→ −−′→
A′ B B′ C CA
−−→ · −−→ · −−→ = −1. (4.24)
A′ C B′ A C′ B

Dimostrazione. Poichè A′ ∈ BC \ {B, C} esiste tA ∈ K \ {0, 1} tale che A′ = (1 − tA )B + tA C. Analogamente,


B′ = (1 − tB )C + tB A e C′ = (1 − tC)A + tCB, con tB , tC ∈ K \ {0, 1}. Allora l’uguaglianza (4.24) è equivalente a
tA tB tC
= −1. (4.25)
(tA − 1)(tB − 1)(tC − 1)
Supponiamo che le rette AA′ , BB′ , CC′ siano concorrenti, e sia P := AA′ ∩ BB′ ∩ CC′ . Allora esistono
sA , sB , sC ∈ K \ {0, 1} tali che P = (1 − sA)A + sA A′ = (1 − sB)B + sB B′ = (1 − sC)C + sC C′ . Sostituendo le prime
69

tre relazioni nelle ultime tre otteniamo

P = (1 − sA )A + sA (1 − tA )B + sA tA C = sB tB A + (1 − sA )B+

+sB (1 − tB )C = sC (1 − tC )A + sC tC B + (1 − sC )C.
Poichè le coordinate baricentriche rispetto al sistema di riferimento {A, B, C} sono univocamente deter-
minate otteniamo le uguaglianze:

1 − sA = sB tB = sC (1 − tC ), sA (1 − tA ) = 1 − sB = sC tC , sA tA = sB (1 − tB ) = 1 − sC .

Utilizzando queste uguaglianze otteniamo

tA tB tC tB tC tA sC sA sB
= · · = (− )(− )(− ) = −1,
(tA − 1)(tB − 1)(tC − 1) tC − 1 tA − 1 tB − 1 sB sC sA

quindi (4.25) è verificata.


Supponiamo ora AA′ k BB′ k CC′ . Applicando la Proposizione 4.62 (il teorema di Talete) ai triangoli
BCB e BCC′ otteniamo le uguaglianze:

−−→ −→ −−′→ −−→′


B′ C BC C A CA
−−′→ −−→′ ,
= −−→ = −→ ,
B A BA C′ B CB
−−→
′ −−′→ −→ −−→′ −−→′ −−→

da cui −B−′→C · C−−→
A
= −BC CA CA AC
−→ · −→ = − −−→′ = − −−→ , cioè l’uguaglianza (4.24).
B A C′ B BA′ CB BA A′ B
Viceversa, supponiamo che l’uguaglianza (4.24) (o la sua forma equivalente (4.25)) sia soddisfatta.
Dobbiamo dimostrare che le AA′ , BB′ e CC′ sono concorrenti o a due a due parallele. Un punto arbitrario
P della retta BB′ è della forma P = (1−s)B+sB′ = stB A+(1−s)B+s(1−tB)C, con s ∈ K, e un punto arbitrario
Q della retta CC′ è della forma Q = (1 − u)C + uC′ = u(1 − tC )A + utC B + (1 − u)C. Per trovare l’intersezione
BB′ ∩ CC′ dobbiamo quindi risolvere il sistema (in u e s): u(1 − tC ) = stB , utC = 1 − s, 1 − u = s(1 − tB ). Si
verifica facilmente che se questo sistema è compatibile, allora la soluzione è

1 − tC tB
s= , u= .
tB tC + 1 − tC tB tC + 1 − tC

Pertanto l’intersezione BB′ ∩ CC′ si riduce al punto

tB (1 − tC ) tB tC (1 − tB )(1 − tC )
P= A+ B+ C.
tB tC + 1 − tC tB tC + 1 − tC tB tC + 1 − tC

Dobbiamo verificare che i punti A, P, A′ sono allineati. Ora si osserva che P si può anche scrivere

tB (1 − tC ) 1
P= A+ (tB tC B + (1 − tB )(1 − tC )C).
tB tC + 1 − tC tB tC + 1 − tC
tA tB tC tB tC
Tenendo conto di (4.25), l’ultima parentesi si può anche scrivere nella forma tB tC B + 1−tA C = 1−tA ((1 −
tB tC ′
tA )B + tA C) = 1−t A
A , da cui segue la formula

tB (1 − tC ) 1 tB tC ′
P= A+ · A.
tB tC + 1 − tC tB tC + 1 − tC 1 − tA

La somma dei coefficienti di A e A′ è uguale a 1 sempre tenendo conto di (4.25). In altre parole P
appartiene alla retta AA′ .
Se invece il sistema di sopra è incompatibile (i.e. tB tC + 1 − tC = 0) allora si verifica immediatamente
che le rette AA′ , BB′ , CC′ sono a due a due parallele. In questo modo il teorema di Ceva è completamente
dimostrato. 
70 Capitolo 4. Spazi affini

Spazi affini reali: segmenti e insiemi convessi


D’ora in poi considereremo solo spazi affini sul campo R dei numeri reali.
Definizione 4.64. Siano A , B ∈ An (R) due punti distinti, e sia C = (1 − t)A + tB, con t ∈ R, un punto
arbitrario sulla retta AB. Diremo che il punto C sta fra (rispettivamente, sta strettamente fra) i punti A e
B se t ∈ [0, 1] (rispettivamente, se t ∈ (0, 1)). Ovviamente, questa definizione non dipende dall’ ordine
dei punti A e B (poichè cambiando l’ordine dei punti, la coordinata affine t è sostituita da 1 − t). Si
chiama segmento chiuso di estremi A e B l’insieme [AB] di tutti i punti della retta AB che stanno fra A e B.
Analogamente definiamo segmento aperto di estremi A e B come l’insieme (AB) di tutti i punti della retta
AB che stanno strettamente fra A e B. In altre parole,
[AB] := {(1 − t)A + tB | 0 ≤ t ≤ 1}, (AB) := {(1 − t)A + tB | 0 < t < 1}.
Definizione 4.65. Sia M ⊆ An (R) un sottinsieme dello spazio affine standard An (R). Si dice che M è
convesso se per ogni due punti distinti A, B ∈ M si ha [AB] ⊆ M. Per convenzione il sottinsieme vuoto di
An (R) e ogni insieme costituito da un solo punto di An (R) sono convessi. Osserviamo che, ovviamente,
An (R) è convesso.
T
Lemma 4.66. Sia {Mi }i∈I una famiglia non vuota di sottinsiemi convessi di An (R). Allora Mi è convesso.
i∈I

Dimostrazione. Conseguenza immediata della definizione. 

Definizione 4.67. Sia M ⊆ An (R) un sottinsieme non vuoto di An (R). Si chiama inviluppo convesso (o
anche chiusura convessa) di M, denotato con conv(M), l’intersezione di tutti i sottinsiemi convessi di
An (R) che contengono M. La definizione è giustificata dal Lemma 4.66.
In altre parole conv(M) è il più piccolo sottinsieme convesso di An (R) che contiene M. D’altra parte,
un sottinsieme non vuoto M ⊆ An (R) è convesso se e solo se M = conv(M).
Teorema 4.68. Sia M = {A1 , ..., Am} ⊆ An (R) un sottinsieme finito non vuoto di An (R). Allora conv(M)
m
P m
P
coincide con l’insieme di tutti i baricentri pesati della forma A = λi Ai , con λi ≥ 0 e λi = 1.
i=1 i=1

m
P
Dimostrazione. Denotiamo con M′ l’insieme di tutti i baricentri pesati della forma A = λi Ai , con λi ≥ 0
i=1
m
P
e λi = 1. Procediamo per doppia inclusione.
i=1
conv(M) ⊆ M′ . Poichè conv(M) è il più piccolo sottinsieme convesso di An (R) che contiene M, per
dimostrare questa inclusione è sufficiente far vedere che M ⊆ M′ e che M′ è convesso. Il primo fatto
Pm m
P
è ovvio. Rimane da provare la convessità di M′ . Sia quindi A = λi Ai e B = µi Ai , con λi , µi ≥ 0
i=1 i=1
m
P m
P ′
e λi = µi = 1, due qualsiasi punti distinti di M . Dobbiamo provare che per ogni t ∈ [0, 1],
i=1 i=1
m
P m
P m
P
(1 − t)A + tB ∈ M′ . Ma (1 − t)A + tB = (1 − t) λi Ai + t µ i Ai = αi Ai , con αi = (1 − t)λi + tµi ≥ 0,
i=1 i=1 i=1
m
P m
P m
P
i = 1, ..., m poichè t ∈ [0, 1] e λi , µi ≥ 0, e αi = (1 − t) λi + t µi = (1 − t) + t = 1.
i=1 i=1 i=1
m
P m
P
M′ ⊆ conv(M). Dobbiamo provare che λi Ai ∈ conv(M), ∀λi ≥ 0, λi = 1. Per dimostrare questo
i=1 i=1
fatto procediamo per induzione rispetto al numero s := #{i | λi , 0} (il cardinale di {i | λi , 0}). Se
s ≤ 2 tutto segue dal fatto che l’insieme conv(M) è convesso. Supponiamo quindi s ≥ 3. Riordinando
Pm Ps
eventualmente i termini della somma, possiamo scrivere λi Ai = λi Ai . Se poniamo t := λ1 + · · ·+ λs−1 ,
i=1 i=1
ne segue che t ∈ [0, 1] (poichè (λ1 + · · · + λs−1 ) + λs = 1 e λi ≥ 0). Per l’ipotesi induttiva il baricentro pesato
B = λt1 A1 + · · · + λs−1
t As−1 appartiene a conv(M). Allora λ1 A1 + · · · + λs As = tB + λs As ∈ conv(M), poichè
t + λs = 1 e t ≥ 0, λs ≥ 0 e conv(M) è convesso. 
71

Definizione 4.69. Si chiama politopo di An (R) l’inviluppo convesso di un qualsiasi sottinsieme finito di
punti di An (R).

Esercizi
Esercizio 4.1. Siano A, B, C, D quattro punti affinemente indipendenti in An (K), con n ≥ 3 e K un campo
di caratteristica , 2. Si dimostri che le rette che congiungono i punti medi delle coppie {A, B} e {C, D},
{A, C} e {B, D}, {A, D} e {B, C} sono concorrenti. (Suggerimento: provare che il punto comune delle tre
rette coincide con il baricentro di A, B, C e D).
Esercizio 4.2. In un quadrilatero ABCD di A2 (K) (con K di caratteristica , 2) le rette che congiungono i
punti medi delle coppie {A, B} e {C, D}, {B, C} e {A, D}, {A, C} e {B, D}, sono concorrenti.
Esercizio 4.3. Sia {A1 , ..., Am , B1 , ..., Bp } un sottinsieme finito dello spazio affine An (R) (n ≥ 2) formato da
Pm p
P m
P p
P
1 1 1 1
m + p punti distinti. Si dimostri che i baricentri m A i , p B j e m+p A i + m+p B j sono allineati.
i=1 j=1 i=1 j=1
n
Esercizio 4.4. Siano A, B, C, D quattro punti di A (K) (n ≥ 2) a tre a tre non allineati. Si dimostri che
−→ −−→
AB = CD se e solo se AB k CD e AC k BD. (Se queste condizioni sono soddisfatte diremo che ABCD è un
parallelogramma).
Esercizio 4.5. Sia dato in A2 (K) (con K di caratteristica , 2) un quadrilatero ABCD, e sia E = AC ∩ BD.
Si dimostri che ABCD è un parallelogramma se e solo se E è il punto medio sia di {A, C} che di {B, D}.
(Suggerimento: il Lettore dimostri questo enunciato sia direttamente che utilizzando il teorema di Talete.)
Esercizio 4.6. Siano date in A2 (K) (con K di caratteristica , 2) due rette distinte r e s concorrenti nel punto
V, e sia P un punto non giacente su r e s. Si dimostri che esiste una retta passante per P che incontra r in
A e s in B tale che P sia il punto medio di {A, B}. (Suggerimento: il Lettore utilizzi il teorema di Talete.)
Esercizio 4.7. Nello spazio affine An (K) (con n ≥ 3 e K di caratteristica , 2) consideriamo la piramide
VABCD (di vertici V, A, B, C, D tali che A, B, C, D sono complanari e a tre a tre non allineati, e
dim(hV, A, B, C, Di) = 3). Si dimostri che esistono quattro punti A′ ∈ VA, B′ ∈ VB, C′ ∈ VC e D′ ∈ VD tali
che A′ B′ C′ D′ sia un parallelogramma. (Suggerimento: si utilizzino gli Esercizi 4.5 e 4.6.)
Esercizio 4.8. Consideriamo i punti A, B, C, D e, rispettivamente, A′ , B′ , C′ , D′ di An (K) (n ≥ 2) tali che
ABCD e A′ B′ C′ D′ siano parallelogrammi. Per un t ∈ K fissato consideriamo i punti M := (1 − t)A + tA′ ,
N := (1 − t)B + tB′ , P := (1 − t)C + tC′ e Q := (1 − t)D + tD′ . Si dimostri che MNPQ è un parallelogramma.
Esercizio 4.9. Sia f : (A, V, ϕ) → (B, W, ψ) un morfismo di spazi affini su K, e sia A′ un sottospazio affine
di (A, V, ϕ). Si dimostri che f (A′ ) è un sottospazio affine di (B, W, ψ). Se A1 e A2 sono due sottospazi
affini di (A, V, ϕ) tali che D(A1 ) ⊆ D(A2 ) allora D( f (A1 )) ⊆ D( f (A2 )). In particolare, se f ∈ AGLn (K) allora
A1 k A2 se e solo se f (A1 ) k f (A2 ). (In altre parole il concetto di parallelismo è un concetto affine).
Esercizio 4.10. Sia f ∈ AGLn (K) un automorfismo affine di An (K). Dimostrare che i punti A1 , . . . , Am ∈
An (K) sono affinemente indipendenti se e solo se f (A1 ), . . . , f (Am ) sono affinemente indipendenti.
Esercizio 4.11. Sia {A0 , A1 , A2 } un riferimento affine di A2 (K), e sia σ : A2 (K) → A2 (K) l’unico K-
automorfismo affine tale che σ(A0 ) = A1 , σ(A1 ) = A2 e σ(A2 ) = A0 (cfr. Corollario 4.42). Si determinino i
punti fissi di σ (i.e. i punti A ∈ A2 (K) tali che σ(A) = A).
Esercizio 4.12. Sia f ∈ AGLn (K) un automorfismo affine di An (K). Si dimostri che l’insieme dei punti
fissi di f è un sottospazio affine (eventualmente vuoto) di An (K).
Esercizio 4.13. Sia O ∈ An (K) un punto fissato. Denotiamo con HO l’insieme di tutte le omotetie di
centro O (i.e. di AGLn (K, O)). Si dimostri che HO è un sottogruppo del gruppo AGLn (K, O) e che il
gruppo HO è isomorfo al gruppo moltiplicativo del campo K. Se O, O′ ∈ An (K) sono due punti arbitrari
si dimostri che i sottogruppi HO e HO′ sono coniugati nel gruppo AGLn (K), i.e. esiste un g ∈ AGLn (K)
tale che HO′ = gHO′ g−1 . (Suggerimento: si prenda per g un’opportuna traslazione di AGLn (K).) Inoltre,
se O , O′ si dimostri che HO ∩ HO′ = {idAn (K) }.
72 Capitolo 4. Spazi affini

Esercizio 4.14. Sia O = (0, ..., 0) ∈ An (K). Si dimostri che ogni omotetia α ∈ HO commuta con ogni
automorfismo affine di AGLn (K, O). In particolare, HO è un sottogruppo normale (o invariante) di
AGLn (K, O). È vero che α commuta con ogni automorfismo affine di AGLn (K)?
Esercizio 4.15. Sia α ∈ HO un’omotetia di centro O. Si dimostri che α(d) = d, per ogni retta d di An (K) che
−−−−−→ −−→
passa per il punto O. (Suggerimento: se Oα(A) = aOA, ∀A ∈ An (K), si osservi che α(A) = (1 − a)O + aA).
−−−−−−→ −−→
Esercizio 4.16. Siano O1 , O2 ∈ An (K) due punti distinti arbitrari, e siano αi ∈ HOi tali che Oi αi (A) = ai Oi A,
∀A ∈ An (K), con ai ∈ K \ {0}, i = 1, 2. Se a1 a2 , 1 si dimostri che α2 ◦ α1 è un’omotetia di centro
a2 (1−a1 ) 1−a2 −−−−−−−−−−→ −−→
O = 1−a 1 a2
O1 + 1−a 1 a2
O2 tale che Oα2 ◦ α1 (A) = a1 a2 OA, ∀A ∈ An (K). Se a1 a2 = 1 si provi che α2 ◦ α1 è una
traslazione. (In particolare, se α1 , α2 e α1 sono tre omotetie , id, di centri O1 , O2 e O3 , rispettivamente,
tali che α1 ◦ α2 = α3 allora O1 , O2 e O3 sono allineati.)
Esercizio 4.17. Siano A, B e C tre punti non allineati in A2 (K), con K di caratteristica , 2. Si dimostri che
le mediane del triangolo ABC sono concorrenti se la caratteristica di K è , 3, e a due a due sono parallele
se la caratteristica di K è 3.
Esercizio 4.18. Un automorfismo affine s ∈ AGLn (K) (con n ≥ 2 e K campo di caratteristica , 2) si chiama
simmetria affine (o riflessione affine) se s2 = idAn (K) . Si provi che se s è una simmetria affine allora Tr(s) è una
simmetria vettoriale di Kn nel senso dell’Esercizio 2.17. Si dimostri ancora che l’insieme di tutti i punti
fissi di una simmetria affine s è un sottospazio affine Hs che ha la proprietà che per ogni A ∈ An (K) il
punto medio di A e s(A) appartiene a Hs .
Esercizio 4.19. Dati tre punti allineati distinti di An (R), si dimostri che uno e solo uno di questi sta
strettamemente tra gli altri due.
Esercizio 4.20. Sia f : An (R) → Am (R) un morfismo affine su R, e siano M ⊆ An (R) e N ⊆ Am (R) sottin-
siemi convessi. Si dimostri che f (M) è un sottinsieme convesso di Am (R) e che f −1 (N) è un sottinsieme
convesso di An (R).
Esercizio 4.21. Si dimostri che il Teorema 4.68 si può generalizzare nel modo seguente: sia M un qualsiasi
sottinsieme non vuoto (non necessariamente finito) di An (R). Allora conv(M) coincide con il sottinsieme
m
P m
P
di tutti i baricentri pesati della forma λi Ai (con λi ≥ 0, ∀i = 1, ..., m, e λi = 1), per ogni sistema finito
i=1 i=1
di punti A1 , ..., Am ∈ M. (Suggerimento: si adatti la dimostrazione del Teorema 4.68.)
Esercizio 4.22. Si dimostri che l’intersezione di un politopo di An (R) con una retta è un segmento, un
punto o l’insieme vuoto.
S
Esercizio 4.23. Siano M e N due sottinsiemi convessi di An (R). Si provi che l’insieme [AB] è
A∈M,B∈N
convesso.
Esercizio 4.24. Siano d1 e d2 due rette non complanari di A3 (R). Si dimostri che l’insieme {(1 − t)A1 +
tA2 | A1 ∈ d1 , A2 ∈ d2 , t ∈ R} non è convesso.
Esercizio 4.25. Scrivere l’equazione del piano di A3 (R) che contiene la retta di equazioni parametriche
x1 = t + 1, x2 = 2t + 1, x3 = t − 1 e il punto A = (1, 2, −1).
Esercizio 4.26. Scrivere l’equazione del piano di A3 (R) che contiene la retta di equazioni x1 + x2 − x3 = 1
e 2x1 − x2 + 3x3 = 2 e il punto A = (1, 1, −1).
Esercizio 4.27. Siano dati in A3 (R) la retta r ed il piano π di equazioni 3x + 5y − z + 7 = 4x + 2z − 3 = 0
e x + y + z + 1 = 0 rispettivamente. Trovare una retta di π che passa per il punto P = (1, −1, −1) ed è
sghemba con r.
Esercizio 4.28. In A5 (R) (con coordinate (x, y, z, t, w)) si considerino le rette
  


x−y=0 

 x−y=1 

x−y=0
  
2x − z + t = 0 2x − z + t = 1 2x − z + λt = 0

 
 

 
r:  s:  l: 



2y − t + 3w = 0 


 y − t + 3w = 2 


2y − t + 3w = 2λ

 
 

3x − 2z = 0 3x − 2t − w = 0 3λx − 2z = 0.
73

a) Per quali valori del parametro reale λ le rette sono incidenti ? Per quali parallele ? Per quali sghembe
?
b) Posto λ = 0, determinare, se esistono, tutti gli iperpiani contenenti le 3 rette.
c) Determinare lo spazio generato da r e s.
Esercizio 4.29. Trovare le equazioni della retta r in A3 (R) passante per il punto P = (2, −1, 3), parallela
al piano σ : x + 3y − z + 1 = 0 e complanare con la retta s : x − 3z − 1 = y − 2z − 1 = 0.
Esercizio 4.30. Siano r e s le rette di A3 (R) di equazioni
 
2x − y + 1 = 0 x + y − 2z = 0

 

r:  s: 
x − y − z + 1 = 0
 x − 2y + z = 0.

a) Provare che r e s sono sghembe.


b) Trovare una retta t che si appoggia a r e s e ha parametri direttori (1, 4, −3).
c) Quante sono le rette t di cui al punto b) ?
Esercizio 4.31. Si considerino in A5 (R) il piano σ e la retta r di equazioni:

 
x1 − 2x3 = 0

x1 + 2x2 − 2x4 = 0 

3x2 − 2x4 + x5 = 1

 


σ: x 3 − 2x4 + x5 = 1 r: 



3x1 − x4 = 0



x1 + 3x2 − x4 + x5 = 2

2x − 2x + x = 1.
2 3 4

a) Dare delle equazioni parametriche per r e σ.


b) Dire se r e σ sono sghembi.
c) Determinare le equazioni dello spazio congiungente σ e r.
Esercizio 4.32. In A5 (R) determinare i sottospazi affini di dimensione 3 contenenti il piano



x−y+z=1


π:  2x + 3y + 4z = 0


x − 3y − z = 2

e paralleli alla retta





x−y=0

2x − z + t = 0


r: 



2y − t + 3w = 0

3x − 2z = 0.

Esercizio 4.33. Siano dati in A3 (R) il punto Q = (1, 0, 2) e le rette

r : 2x − y = z − 1 = 0, s : 2x + y = z + 1 = 0.

i) Provare che r e s sono sghembe.


ii) Trovare le rette t tali che Q ∈ t e che si appoggiano a r e s.
iii) Provare che, in generale, di rette passanti per un punto P e che si appoggiano a due rette sghembe,
non contenenti P, ce n’ è una sola.
Esercizio 4.34. In An (R) si considerino i sottospazi affini S e S′ con dim S = dim S′ = d < n. Trovare tutte
le implicazioni tra le seguenti affermazioni:
74 Capitolo 4. Spazi affini

i) Gli spazi S e S′ sono paralleli.


ii) Esiste un sottospazio affine T con dim T = d + 1 tale che S ⊂ T e S′ ⊂ T.
iii) S = S′ oppure S ∩ S′ = ∅.
iv) Entrambe le condizioni ii) e iii).
Esercizio 4.35. Siano dati in A3 (R) i punti

A = (1, 0, −1), B = (0, 1, 0), C = (2, 9, 2), D = (−3, −1, 1).

1. Dire se A, B, C, D sono affinemente indipendenti.


2. Determinare le equazioni implicite e parametriche del sottospazio S di A3 (R) generato dai quattro
punti.
3. Esibire un sottospazio affine T di A3 (R) tale che A ∈ T e hS ∪ Ti = A3 (R) e S ∩ T è un punto.
4. Esiste un’affinità di A3 (R) che porta A, B, C, D su (0, 0, 0), (1, 1, 0), (1, −1, 0), (−1, 1, 0) rispettivamente
? In caso affermativo esplicitarne una.
Esercizio 4.36. Sia S il sottospazio affine di A4 (R) dei punti (x1 , x2 , x3 , x4 ) soluzioni del sistema lineare



 3x1 − 2x2 + x3 − x4 = 7


−x + x2 − 5x3 + 6x4 = 1
 1



11x1 − 8x2 + 13x3 − 15x4 = 19

i) Trovare la giacitura di S.
ii) Trovare un insieme massimale di punti affinemente indipendenti di S.
iii) Esistono affinità di A4 (R) che trasformano S nel sottospazio

T = {(x1 , x2 , x3 , x4 ) ∈ A4 (R) | x1 = x2 , x3 = x4 } ?

Se la risposta è affermativa, esibirne una.


Esercizio 4.37. 1. In A5 (R) si considerino i punti P1 (1, 2, 3, 0, 5), P2 (−1, 0, 3, 4, 0) e P3 (3, 4, 3, −4, 10).
Determinare le equazioni parametriche e implicite del sottospazio affine S generato da P1 , P2 , P3 .
2. In A4 (R) dire se esistono (e nel caso determinarli tutti) piani passanti per P(1, 0, 2, 3) e paralleli al
piano 
x − y + 2z − t = 1



2x − y + 3t = 0.

3. Dato il punto A = (3, −3, 1) ∈ A3 (R) e le rette r : 2x − y + 3z + 5 = x − y + 2z + 1 = 0, s : x + 2y − 1 =


3y − z − 2 = 0, determinare l’equazione del piano passante per A e parallelo a r e s.
4. Dire se i seguenti sottospazi di A5 (R) sono paralleli

 
x − y + 2z − 3t = 2
x − 2y + 2z − t = 1

 


S:  T: 2x −y+t=0
x − y + 3t = 0.
 


x − y = 0.

5. Tra le rette di A4 (R) uscenti dal punto P(2, 1, 0, 3) determinare quelle che giacciono sul piano

3x − y + 2z − t = 2



2x − 2y + t = 5.

75

6. Determinare, se esistono, i sottospazi di dimensione 3 di A5 (C) passanti per il piano





 ix + 2y = 0



 (1 + i)z − t = 1


2x − z + w = i,

paralleli alla retta r : x = y = z = t = 0 e alla retta s : x − iy = iz − t − 1 = (2 − i)t + w + 2 = 2x − iw = 0.


7. Dire se:
a) le rette r : 2x + z − 1 = y + z + 1 = 0 e s : 2x − y + 3z = 2x + y − 3 = 0 sono complanari, parallele o
sghembe;
b) il piano π : x − y + 2z − 5 = 0 e la retta r : x + z − 2 = y − 1 = 0 sono incidenti o paralleli.
Esercizio 4.38. Consideriamo in A2 (R) le rette seguenti:

d1 : x1 + x2 = 3, d2 : x1 − x2 = 1, e d3 : x1 − 2x2 = −3,

d′1 : x1 = 0, d′2 : x2 = 0, e d′3 : x1 + x2 = 1.


i) Trovare un automorfismo affine f ∈ AGL2 (R) tale che f (di ) = d′i , i = 1, 2, 3.

ii) Trovare f −1 .
76 Capitolo 4. Spazi affini
Capitolo 5

Spazi affini euclidei

In geometria affine hanno senso solo le proprietà geometriche che non coinvolgono concetti come
“distanza”, “angolo” o “perpendicolarità”. In questo capitolo studieremo una classe di spazi affini reali
dotati di una struttura supplementare che permette di introdurre questo tipo di nozioni. Si tratta di spazi
affini euclidei. A questo scopo utilizzeremo le nozioni di algebra lineare presentate nel capitolo 3.

Definizione 5.1. Sia (A, V, ϕ) uno spazio affine sul campo dei numeri reali R. Si dice che (A, V, ϕ) è uno
spazio affine euclideo se sullo spazio vettoriale reale V è dato un prodotto scalare h , i. In altre parole,
(A, V, ϕ) è un spazio affine euclideo se lo spazio vettoriale V è dotato di una struttura supplementare
di spazio vettoriale euclideo (V, h , i). Nel seguito utilizzeremo la notazione (A, (V, h , i), ϕ) per indicare
uno spazio affine euclideo. Lo spazio affine reale standard An (R) dotato del prodotto scalare (si veda
l’Esempio 3.2, 1)
h(a1 , ..., an ), (b1 , ..., bn )i = a1 b1 + · · · + an bn (5.1)
si chiama lo spazio affine euclideo standard e verrà denotato con En (R). In altre parole,

En (R) = (Rn , (Rn , h , i), ϕ),

con ϕ(v, w) = w − v e il prodotto scalare dato da (5.1).


Definizione 5.2. Sia (A, (V, h , i), ϕ) uno spazio affine euclideo de dimensione finita. Per ogni due punti
A, B ∈ A definiamo la distanza d(A, B) mediante la formula
−−→ −−→
d(A, B) := d(OA, OB), (5.2)

dove O ∈ A è un punto fissato, e nel secondo membro la distanza è quella definita dalla Definizione 5.2.
La definizione di d(A, B) è indipendente dalla scelta del punto O ∈ A. Infatti, se O′ ∈ A è un altro punto

−−→ −−→ −−→ −−→ −−−→
allora O′ A = OA + v e O′ B = OB + v, con v = O′ O, e si applica la Proposizione 3.12, iv). In particolare,
−→
d(A, B) =k AB k, ∀A, B ∈ A. (5.3)

Se A = (a1 , ..., an) e B = (b1 , ..., bn ) sono due punti arbitrari di En (R) allora la distanza d(A, B) è data
mediante la formula esplicita
v
t
Xn
d(A, B) = (ai − bi )2 . (5.4)
i=1

Inoltre, le proprietà i), ii) e iii) della Proposizione 3.12 si riscrivono:

d(A, B) ≥ 0, e d(A, B) = 0 ⇐⇒ A = B, ∀A, B ∈ A. (5.5)

d(A, B) = d(B, A), ∀A, B ∈ A. (5.6)

77
78 Capitolo 5. Spazi affini euclidei

d(A, C) ≤ d(A, B) + d(B, C), ∀A, B, C ∈ A. (5.7)

Le proprietà (5.5), (5.6) e (5.7) affermano che l’insieme A dotato dell’applicazione A × A → R,


(A, B) → d(A, B), diventa uno spazio metrico.
Definizione 5.3. Sia A0 , A1 , . . . , An un riferimento affine di En (R). Si dice che A0 , A1 ,..., An è un riferimento
−−−→ −−−−→
affine euclideo se i vettori A0 A1 ,...,A0 An è una base ortonormale dello spazio vettoriale euclideo standard
Rn . Il riferimento affine standard O, E1 , . . . , En è un riferimento affine euclideo detto il riferimento affine
euclideo standard. −−−→
Sia A0 , A1 , . . . , An un riferimento affine con A0 Ai = (ai1 , . . . , ain ), i = 1, . . . , n. Allora A0 , A1 , . . . , An
è un riferimento affine euclideo se e solo se la matrice |ai j |i, j=1,...,n è una matrice ortogonale (si veda il
Capitolo 3). In particolare, det(|ai j |i, j=1,...,n ) = ±1. Si dice che A0 , A1 , . . . , An è sinistrorso (risp. destrorso) se
det(|ai j |i, j=1,...,n ) = −1 (risp. det(|ai j |i, j=1,...,n ) = 1). Ovviamente il riferimento affine euclideo standard è un
riferimento destrorso.
−−→ −−→
Definizione 5.4 (Angolo tra due vettori). Siano OA, OB ∈ V due vettori non nulli arbitrari con la stessa
origine O, dove (A, (V, h , i), ϕ) è uno spazio affine euclideo di dimensione finita. Allora tenendo conto
−−→ −−→
della Definizione 3.10 possiamo definire l’angolo θ ∈ [0, π] tra OA e OB mediante la formula
 h−−→ −−→
OA, OBi 
θ := arccos −−→ −−→ .
k OA k · k OB k
−−→ −−→
hOA,OBi
Sottolineamo che per la disuguaglianza di Cauchy-Schwarz −−→ −−→ ∈ [−1, 1] e quindi la definizione è
kOAk·kOBk
ben posta.
−−→ −−→ −−→ −−→
In particolare i vettori OA e OB sono perpendicolari se hOA, OBi = 0.
Con questa definizione si ha:
−−→ −−→ −→ −−→
Proposizione 5.5 (Teorema di Pitagora). I vettori OA e OB sono perpendicolari se e solo se k AB k2 =k OA k2
−−→
+ k OB k2 .
−−→ −−→ −→
Dimostrazione. Poniamo v := OA e w := OB. Allora AB = w − v, quindi dobbiamo provare che k w − v k2 =k
v k2 + k w k2 se e solo se hv, wi = 0. Questo segue dalle uguaglianze
k w − v k2 = hw − v, w − vi = hw, wi + hv, vi − 2hv, wi =

=k w k2 + k v k2 −2hv, wi.
Definizione 5.6 (Angolo tra due rette). Consideriamo due rette d e e nello spazio affine euclideo standard
En (R) di equazioni parametriche:
xi = ai + tmi , i = 1, ..., n,
xi = bi + tki , i = 1, ..., n,
di parametri direttori (m1 , ..., mn ) , (0, ..., 0) e (k1 , ..., kn ) , (0, ..., 0), rispettivamente (si veda (4.10)). L’angolo
θ(d, e) formato dalle rette d ed e è per definizione
Pn

 | m i ki | 
i=1
θ :=<
) (d, e) = arccos r . (5.8)
n
P n
P
2
( mi )( ki )2
i=1 i=1
π
Ne segue che θ ∈ [0, 2 ]. In particolare, le rette d ed e (non necessariamente concorrenti) sono perpendicolari
(e si scrive d ⊥ e) se e solo se
n
X
mi ki = 0. (5.9)
i=1
79

In particolare se d e e sono due rette in E2 (R) date dalle equazioni d : y = mx + n, e : y = m′ x + n′ ,


con x = x1 , y = x2 e m e m′ le pendenze di d e e, rispettivamente, allora le equazioni parametriche sono:
 
x = t x = t

 

d:  e e : 
 y = mt + n
  y = m′ t + n′ .

Otteniamo quindi
1
d ⊥ e ⇐⇒ 1 + mm′ = 0 ⇐⇒ m′ = − . (5.10)
m
Definizione 5.7 (Rette perpendicolari a un iperpiano). Sia d una retta e A un iperpiano nello spazio
affine euclideo standard En (R). Si dice che d è perpendicolare a A (e si scrive d ⊥ A) se d è perpendicolare
a ogni retta e contenuta in A. Se la retta d ha parametri direttori (m1 , ..., mn ) , (0, ..., 0), e l’iperpiano A è
dato dall’equazione
a1 x1 + · · · + an xn = b,
con (a1 , ..., an ) , (0, ..., 0) (si veda (4.15)), allora la condizione d ⊥ A equivale all’esistenza di uno scalare
λ ∈ R \ {0} tale che
ai = λmi , ∀i = 1, ..., n. (5.11)
Infatti, una retta e di equazioni xi = bi + tki , i = 1, ..., n (quindi di parametri direttori (k1 , ..., kn) ,
(0, ..., 0)) è contenuta nell’iperpiano A se e solo se a1 b1 + · · · + an bn = b e a1 k1 + · · · + an kn = 0. Se ai , 0 allora
per ogni j = 1, ..., n possiamo prendere ki = −a j , k j = ai , e kl = 0 per ogni l , i, j, quindi la condizione
d ⊥ e si riduce a −a j mi + ai m j = 0, da cui (5.11). Viceversa, ogni retta di parametri direttori (a1 , ..., an ) è
ovviamente perpendicolare all’iperpiano A.
Una conseguenza di (5.11) è che tutte le rette perpendicolare allo stesso iperpiano sono a 2 a 2
parallele. Inoltre, ne segue che, dato un punto P ∈ En (R) e un iperpiano A, esiste un’unica retta d che
passa per P ed è perpendicolare ad A. Questa retta d si chiama la perpendicolare all’iperpiano A passante
per P. Una retta perpendicolare a un iperpiano A si chiama retta normale a A.

Definizione 5.8 (Distanza di un punto da un iperpiano). Sia A un iperpiano in En (R) di equazione


a1 x1 + · · · + an xn = b, e P = (p1 , ..., pn ) ∈ En (R) un punto. Consideriamo la perpendicolare d ad A
passante per P. Il teorema di Pitagora dice che se Q := d ∩ A, allora per ogni altro punto Q′ ∈ A si ha
d(P, Q) ≤ d(P, Q′). Quindi
d(P, Q) = inf d(P, R),
R∈A

e il numero d(P, Q) si chiama la distanza di P da A, e si denota con d(P, A). Per la Definizione 5.7 la retta d
ha equazioni xi = pi + tai , i = 1, ..., n, da cui segue subito che Q = (p1 + t0 a1 , ..., pn + t0 an ), con

a1 p 1 + · · · + an p n − b
t0 = − .
a21 + · · · + a2n

Quindi deduciamo
|a1 p1 + · · · + an pn − b|
d(P, A) = q . (5.12)
2 2
a1 + · · · + an

Il punto Q si chiama il piede della perpendicolare all’iperpiano A passante per P.

5.9 (Area di un triangolo). Siano A = (a1 , a2 ), B = (b1 , b2 ) e C = (c1 , c2 ) tre punti non allineati di E2 (R).
Ricordiamo che l’area S del triangolo △ABC è data dalla formula seguente

1
S= k BC k · k AH k,
2
dove H è il piede della perpendicolare alla retta BC passante per A (AH è l’altezza del triangolo ABC
relativa al vertice A). Abbiamo p
k BC k= (b1 − c1 )2 + (b2 − c2 )2 .
80 Capitolo 5. Spazi affini euclidei

D’altro canto l’equazione della retta BC è



x1 x2 1
b1 b2 1 = 0.

c1 c2 1
Tenendo che k AH k coincide con la distanza di A dalla retta BC si ha, per la Formula (5.12),

a1 a2 1
| b1 b2 1 |

c1 c2 1
k AH k= p ,
(b1 − c1 )2 + (b2 − c2 )2
dove nel numeratore abbiamo preso il valore assoluto del determinante. Dalle ultime due formule si
ottiene
a1 a2 1
1
S = S△ABC = | b1 b2 1 |, (5.13)
2 c c 1
1 2

che ci fornisce l’area del triangolo △ABC in termini delle coordinate dei suoi vertici.
5.10 (Simmetria rispetto a un iperpiano). Sia A un iperpiano di En (R) di equazione a1 x1 + · · · + an xn =
b. Se P = (p1 , ..., pn) ∈ En (R) è un punto arbitrario, abbiamo visto che il piede Q = (q1 , ..., qn ) della
perpendicolare all’iperpiano A passante per P ha coordinate q1 , . . . , qn con qi = pi + t0 ai , i = 1, ..., n, con
a p +···+a p −b
t0 = − 1 1a2 +···+an 2n . Denotiamo con P′ = (p′1 , ..., p′n) il punto di En (R) tale che Q sia il punto medio di P e
1 n
P′ . In altre parole, 2qi = pi + p′i , ∀i = 1, ..., n, o ancora

a1 p 1 + · · · + an p n − b
p′i = pi − 2 ai .
a21 + · · · + a2n

Allora l’applicazione σ : En (R) → En (R) definita mediante la formula σ(x1 , ..., xn) = (y1 , ..., yn ), con
a1 x 1 + · · · + an x n − b
yi = xi − 2 ai , i = 1, ..., n (5.14)
a21 + · · · + a2n

si chiama la simmetria, o riflessione, rispetto all’iperpiano A di equazione


a1 x1 + · · · + an xn = b.

Ovviamente σ lascia fisso ogni punto dell’iperpiano A e σ2 = idEn (R) ; in particolare, σ è bigettiva. Un
semplice calcolo fa vedere che per ogni due punti A, B ∈ En (R) si ha
−→ −−−−−−−→
k AB k=k σ(A)σ(B) k .
In particolare se n = 2 le equazioni (5.14) diventano

−a21 + a22 2a1 a2 2a1 b


y1 = x1 − x + 2
2 2
,
a21 + a22 2
a1 + a2 a1 + a22
2a1 a2 a21 − a22 2a2 b
y2 = − 2 2
x 1 + 2 2 2
x + 2 .
a1 + a2 a1 + a2 a1 + a22
Ovviamente la matrice  2 2 
 −a1 + a2 2a1 a2 
 2
 a + a2 − 
 1 2
a21 + a22 


 2a1 a2 a21 − a22 
− 
a21 + a22 a21 + a22
è ortogonale di determinante −1.
81

Osservazione 5.11. Sia A un iperpiano di En (R) di equazione a1 x1 +· · ·+an xn = b. Allora il complementare

En (R) \ A

è unione disgiunta di due regioni (componenti connesse)

A+ = {(x1 , . . . , xn ) ∈ En (R) | a1 x1 + · · · + an xn > b},

A− = {(x1 , . . . , xn ) ∈ En (R) | a1 x1 + · · · + an xn < b}.


Osserviamo inoltre che A+ e A− sono due sottinsiemi convessi di En (R).
Definizione 5.12. Sia σ ∈ AGLn (R) un automorfismo dello spazio affine standard An (R), dato dalle
equazioni
n
X
yi = ai j x j + bi , i = 1, ..., n, (5.15)
j=1

con la matrice A = |ai j |i, j=1,...,n invertibile. Si dice che σ è isometria di En (R) se
−→ −−−−−−−→
k AB k=k σ(A)σ(B) k, ∀A, B ∈ En (R).

Denoteremo con Aut(En (R)) l’insieme di tutte le isometrie di En (R). Dalla definizione segue che
idEn (R) ∈ Aut(En (R)), che l’inversa di una isometria di En (R) e la composta di due isometrie di En (R)
sono ancora isometrie di En (R). In questo modo si verifica facilmente che Aut(En (R)) diventa un gruppo
rispetto alla composizione di isometrie, chiamato il gruppo delle isometrie di En (R). Infatti Aut(En (R)) è
un sottogruppo di AGLn (R).
Dalla definizione segue ancora che un automorfismo σ ∈ AGLn (R) dato dalle equazioni (5.15) è
un’isometria se e solo se la matrice A è ortogonale, i.e. At · A = In , o ancora
n
X
aki ak j = δi j , ∀i, j = 1, ..., n. (5.16)
k=1

In altre parole, σ è un’isometria di En (R) se e solo se Tr(σ) ∈ O(n). Quindi se σ ∈ Aut(En (R)) allora
det(Tr(σ)) = ±1. Le isometrie σ ∈ Aut(En (R)) tali che det(Tr(σ)) = 1 si chiamano spostamenti o isometrie
speciali. Le isometrie di σ ∈ En (R) tali che det(Tr(σ)) = −1 si chiamano isometrie non speciali. Denoteremo
con SAut(En (R)) l’insieme di tutti gli spostamenti (o isometrie speciali) di En (R).
Corollario 5.13. Ogni isometria σ ∈ Aut(En (R)) si può scrivere come composizione di al più n + 1 simmetrie
rispetto a iperpiani.

Dimostrazione. La tesi segue subito dalla definizione e dal Corollario 3.29. 

Proposizione 5.14. (i) SAut(En (R)) è un sottogruppo normale di indice 2 del gruppo Aut(En (R)).
(ii) Le simmetrie rispetto ad un iperpiano di En (R) sono isometrie non speciali.

Dimostrazione. Il punto (i) è immediato. Per dimostrare (ii) potremmo, o verificare le condizioni di
ortogonalità tenendo conto di (5.14) o con il seguente ragionamento sintetico.
Supponiamo che σ sia la simmetria rispetto all’iperpiano A. Sia P ∈ A un punto. Allora consideriamo
−−−−−−→
lo spazio vettoriale PEn (R) (si vedano le notazioni al principio del Capitolo 4). Per il Teorema 3.15 esiste
−−→ −−−−→ −−→
una base ortonormale PA1 ,...,PAn−1 del sottospazio vettoriale PA. Sulla perpendicolare ad A passante
−−→ −−→ −−−−→
per P scegliamo un punto An tale che PAn insieme ai vettori PA1 ,...,PAn−1 sia una base ortonormale di
−−−−n−−→ −−→
PE (R) (è sufficiente scegliere il punto An sulla perpendicolare passante per P ad A tale che k PAn k= 1).
In questo modo abbiamo costruito il riferimento affine {P, A1 , ..., An } di En (R). D’altra parte, consideriamo
anche il riferimento affine stantard {O, E1 , ..., En} di En (R), con O il vettore nullo di Rn , di Ei = (δi1 , ..., δin ),
∀i = 1, ..., n. Allora esiste un’unica isometria τ di En (R) tale che τ(O) = P, e τ(Ei ) = Ai , ∀i = 1, ..., n. Infatti
82 Capitolo 5. Spazi affini euclidei

si applica Il Corollario 4.42, (ii) per dedurre l’esistenza di un unico automorfismo affine τ ∈ AGLn (R)
−−→ −
−−→ −−→ −−→
tale che τ(O) = P e τ(Ei ) = Ai , ∀i = 1, ..., n. Tenendo conto che le basi OE1 , ..., OEn e PA1 , ..., PAn sono
ortonormali, si applica la Proposizione 3.21, (ii) per far vedere che Tr(τ) ∈ O(n), i.e. τ è un’isometria di
En (R).
Allora l’automorfismo σ′ := τ−1 ◦ σ ◦ τ applica l’iperpiano A sull’iperpiano xn = 0, da dove segue
che σ′ è una simmetria rispetto all’iperpiano xn = 0. Le formule (5.14) si riducono in questo caso a
yi = xi , i = 1, ..., n − 1, yn = −xn ,
che è ovviamente un’isometria non speciale. Quindi σ = τ ◦ σ′ ◦ τ−1 è un’isometria non speciale. 

Sia ora A un sottospazio affine arbitrario di En (R). Se la dimensione di A è m allora A si identifica


con Em (R) nel senso che esiste un isomorfismo affine f : A → Em (R) tale che per ogni A, B ∈ A si abbia
−→ −−−−−−−→
k AB k=k f (A) f (B) k .
−−−→ −−−−→
Infatti, è sufficiente scegliere in A un riferimento affine A0 , A1 , ..., Am tale che i vettori A0 A1 , ..., A0 Am
formino una base ortonormale della giacitura D(A) di A (un tale riferimento si chiama riferimento affine
cartesiano). Se A ∈ A ha coordinate x1 (A), ..., xm(A) rispetto a questo riferimento affine, allora l’isomorfismo
affine cercato è dato da
f (A) := (x1 (A), ..., xm(A)) ∈ Em (R).
Tenendo conto di queste osservazioni il concetto di retta passante per un punto P e perpendicolare
a un iperpiano A si generalizza immediatamente al caso in cui A è un qualsiasi sottospazio affine di
En (R). Sia quindi A un sottospazio affine di En (R) e P ∈ En (R) \ A. Allora possiamo considerare il
sottospazio affine A′ = hA ∪ {P}i generato da A e da P. Allora dim(A′ ) = dim(A) + 1 (esercizio per il
Lettore). In particolare A è un iperpiano in A′ . Tenendo conto della Definizione 5.8 ha senso considerare
nel sottospazio A′ (che è isomorfo in senso euclideo a Em (R) con m = dim(A′ ), si veda la discussione di
sopra) la perpendicolare ad A passante per P.
Quindi ha senso considerare la perpendicolare a un sottospazio affine A di En (R) passante per un punto
P purchè P < A. In particolare per ogni sottospazio affine A di En (R) possiamo parlare del piede della
perpendicolare ad A passante per P. Dalle definizioni ne segue che un punto Q è il piede della perpendicolare
−−→
ad A passante per P se e solo se P < A, Q ∈ A e PQ ∈ D(A)⊥ , dove D(A) è la giacitura di A.
Con queste premesse possiamo enunciare il seguente:
Proposizione 5.15 (Il teorema delle tre perpendicolari). Siano A e B due sottospazi affini di En (R) tali che
B ⊆ A, e sia P ∈ En (R) un punto arbitrario che non appartiene ad A. Siano A ∈ A e B ∈ B punti fissati.
i) Se A è il piede della perpendicolare ad A passante per P e B è il piede della perpendicolare ad B passante per
A, allora B è il piede della perpendicolare ad B passante per P.
ii) Se A è il piede della perpendicolare ad A passante per P e B è il piede della perpendicolare ad B passante per
P, allora B è il piede della perpendicolare ad B passante per A.

Dimostrazione. Poichè B ⊆ A abbiamo D(B) ⊆ D(A), possiamo quindi applicare la Proposizione 3.19 e
ottenere
D(B)⊥ = D(B)⊥ ⊥
D(A) ⊥ D(A) . (5.17)
−→
i) Poichè A è il piede della perpendicolare ad A passante per P si ha A ∈ A e PA ∈ D(A)⊥ . Poichè
−→
B è il piede della perpendicolare ad B passante per A, abbiamo B ∈ B e AB ∈ D(B)⊥ D(A)
. Ne segue che
−→ −→ −→ ⊥ ⊥ −→ ⊥
PB = PA + AB ∈ D(A) + D(B)D(A) , quindi, tenendo conto di (5.17), si ha PB ∈ D(B) . Poichè B ∈ B, segue
che B è il piede della perpendicolare ad B passante per P.
−→ −→
ii) Si procederà in modo analogo. Le ipotesi affermano che PA ∈ D(A)⊥ e PB ∈ D(B)⊥ . Ne segue
−→ −→ −→
che AB = PA − PB ∈ D(B)⊥ (poichè l’inclusione D(B) ⊆ D(A) implica D(A)⊥ ⊆ D(B)⊥ ). Poichè A, B ∈ A,
−→ −→
AB ∈ D(A), quindi AB ∈ D(B)⊥ D(A)
, e poichè B ∈ B, otteniamo la tesi. 
83

Definizione 5.16 (Sottospazi affini perpendicolari). Finora abbiamo considerato coppi di rette per-
pendicolari in En (R) o rette perpendicolari a iperpiani. Questi concetti di perpendicolarità si possono
generalizzare nel modo seguente:
Siano A e B due sottospazi affini di En (R). Si dice che A è perpendicolare a B, e si scrive A ⊥ B, se
una delle seguenti condizioni è soddisfatta:

i) D(A) ⊆ D(B)⊥, dove D(A) (risp. D(B)) è la giacitura di A (risp. di B), se dim(A) + dim(B) ≤ n, o

ii) D(B)⊥ ⊆ D(A), se dim(A) + dim(B) ≥ n.

Si osservi che quando dim(A) + dim(B) = n, le condizioni i) e ii) della Definizione 5.16 sono
equivalenti. Infatti, per la Proposizione 3.16 si ha che dim(D(B)⊥) = n − dim(D(B)) = dim(D(A)),
quindi l’inclusione di i) diventa uguaglianza. Analogamente, l’inclusione di ii) diventa allo stesso modo
uguaglianza.

Proposizione 5.17. Nelle notazioni della Definizione 5.16 si ha:

i) Se A ⊥ B allora B ⊥ A.

ii) Se dim(A) + dim(B) ≤ n, A ⊥ B, e A′ è un sottospazio affine di En (R) che è contenuto in A, allora A′ ⊥ B.

iii) Se dim(A) + dim(B) ≥ n, A ⊥ B e A′ è un sottospazio affine di En (R) che contiene A allora A′ ⊥ B.

iv) Sia P ∈ En (R) un punto e B un sottospazio affine di En (R). Allora esiste un unico sottospazio affine A di
dimensione n − dim(B), che contiene P, ed è perpendicolare a B.

v) Siano A e B due sottospazi affini perpendicolari di En (R) (i.e. A ⊥ B) tali che dim(A) + dim(B) = n.
Allora l’intersezione A ∩ B è un punto.

vi) Siano A, B e C tre sottospazi affini di En (R) tali che dim(B) = dim(C) = n − dim(A). Se B ⊥ A e C ⊥ A
allora B k C.

Dimostrazione. i) Se D(A) ⊆ D(B)⊥ , allora D(B) = D(B)⊥⊥ ⊆ D(A)⊥ (abbiamo applicato la Proposizione
3.16). Se D(B)⊥ ⊆ D(A) in modo analogo otteniamo D(A)⊥ ⊆ D(B)⊥⊥ = D(B).
ii) e iii) seguono immediatamente dalle definizioni utilizzando il fatto che se A′ ⊆ A allora D(A′ ) ⊆
D(A).
iv) La giacitura di un tale sottospazio affine A (che soddisfa iv)) coincide necessariamente con
D(B)⊥. Dalla condizione che A contiene P segue che A = P + D(B)⊥ , da dove seguono sia l’esistenza che
l’unicità.
v) Scegliamo due punti A ∈ A e B ∈ B. Le ipotesi implicano che D(A) = D(B)⊥ . Quindi, per la
−→
Proposizione 3.16 si ha Rn = D(A) ⊥ D(B). In particolare, AB = u + v, con u ∈ D(A) e v ∈ D(B). Poichè
−−→ −→ −−→ −→ −→
A ∈ A e u ∈ D(A), esiste un unico punto C ∈ A tale che AC = u. Allora BC = AC−AB = u−AB = −v ∈ D(B).
Ne segue C ∈ B. Quindi C ∈ A∩B. Da qui si ottiene immediatamente la formula D(A∩B) = D(A) ∩D(B).
Ma quest’ultima intersezione si riduce al vettore nullo poichè i due sottospazi sono perpendicolari.
Pertanto dim(A ∩ B) = dim(D(A ∩ B) = dim(D(A) ∩ D(B)) = 0, e quindi l’intersezione A ∩ B si riduce al
punto C.
vi) Per le ipotesi abbiamo D(B) = D(A)⊥ = D(C). 

Osservazione 5.18. I punti ii) e iii) della Proposizione 5.17 contengono i seguenti enunciati usuali se
n = 3. Se una retta d è perpendicolare al piano P, allora d è perpendicolare ad ogni retta contenuta nel
piano P, e se un piano P è perpendicolare ad un piano Q che contiene la retta d allora P è perpendicolare
a d.

Definizione 5.19 (Angolo tra due iperpiani). Siano π : a1 x1 + · · · + an xn = b e π′ : a′1 x1 + · · · + a′n xn = b′


due iperpiani di En (R). Siano d una retta normale a π e d′ una retta normale a π′ . Definiamo l’angolo α
84 Capitolo 5. Spazi affini euclidei

Figura 5.1:

e
d

β α
π

tra π e π′ come l’angolo tra le rette d e d′ . In base alla Definizione 5.7 questa definizione non dipende
dalla scelta delle rette normali d e d′ ; Inoltre d e d′ hanno equazioni parametriche della forma

d: xi = pi + ai t, i = 1, . . . , n,
d′ : xi = p′i + a′i t, i = 1, . . . , n.

Pertanto usando la Definizione 5.6 otteniamo


Pn

 | ai a′i | 
i=1
) (π, π′ ) = arccos r
α :=< . (5.18)
n
P n
P
( a2i )( a′2i
)
i=1 i=1

π
Si osservi che α ∈ [0, 2 ].
n
P
In particolare π e π′ sono perpendicolari se e solo se ai a′i = 0.
i=1

Definizione 5.20 (Angolo tra una retta e un iperpiano, si veda Figura 5.1). Siano d una retta e π un
iperpiano in En (R):

d : xi = pi + mi t, i = 1, . . . , n, con (m1 , . . . , mn ) , (0, . . . , 0), e

π : a1 x1 + · · · + an xn = b.
Se d k π allora per definizione l’angolo tra d e π è 0. Se invece d ∦ π sia H = d ∩ π e sia e la retta
normale a π passante per H. Sia β :=< ) (d, e) l’angolo tra d ed e. Per definizione l’angolo α tra d e π è
α = π2 − β. Le equazioni parametriche di e sono

xi = hi + ai t, i = 1, . . . , n, con H = (h1 , . . . , hn ).

Pertanto tenendo conto della Definizione 5.6 si ha


n
P
| ai m i |
i=1
cos(β) = r ,
n
P n
P
( a2i )( m2i )
i=1 i=1

π
e quindi (poichè α = 2 − β) otteniamo
n
P
 | ai m i | 
i=1
α :=<
) (d, π) = arcsin r . (5.19)
n
P n
P
( a2i )( m2i )
i=1 i=1
85

Proposizione 5.21. Sia r una retta di E3 (R) di equazioni parametriche xi = pi +αi t, i = 1, 2, 3, e sia Q = (q1 , q2 , q3 )
un punto di E3 (R) non appartenente a r. Sia Q′ il piede della perpendicolare alla retta r passante per Q.
(i) d(Q, Q′) < d(Q, R) per ogni R ∈ r, R , Q′ (in questo caso d(Q, Q′ ) si chiama la distanza tra Q e la retta
r e si denota con d(Q, r)).
(ii) s
2 2 2
q2 − p2 q3 − p3 q1 − p1 q3 − p3 q1 − p1 q2 − p2
α2 + +
α3 α1 α3 α1 α2
d(Q, r) = q .
α21 + α22 + α23

Dimostrazione. (i) segue dal teorema di Pitagora applicato al triangolo QQ′ R, rettangolo in Q′ .
(ii) È comodo utilizzare il concetto di prodotto vettoriale (si vedano gli Esercizi 3.10-3.15). Infatti, si
consideri il triangolo QPQ′ , rettangolo in Q′ . Allora tenendo conto dell’Esercizio 3.12 si ha
−−→ −−→
−−−→ −−→ k PQ′ × PQ k
d(Q, r) = d(Q, Q′) =k QQ′ k=k PQ k sin θ = −−→ ,
k PQ′ k
−−→ −−→
con P = (p1 , p2 , p3 ) e θ l’angolo tra i vettori PQ e PQ′ . 

Osservazione 5.22. Si osservi che d(Q, r) non dipende dalla scelta del punto P = (p1 , p2 , p3 ) sulla retta r.
Proposizione 5.23. (i) Siano r e r′ due rette sghembe di E3 (R). Allora esiste ed è unica una retta d di E3 (R) che
si appoggia ed è perpendicolare ad entrambe le rette r e r′ (si veda Figura 5.2).
(ii) Se denotiamo con N il punto d ∩ r e con N′ il punto d ∩ r′ allora d(N, N′) ≤ d(M, M′ ) per ogni M ∈ r e
M ∈ r′ .

(iii) Se le rette r e r′ sono date, rispettivamente, dalle equazioni parametriche xi = pi + αi t e xi = p′i + α′i t,
i = 1, 2, 3, ((α1 , α2 , α3 ) , (0, 0, 0) , (α′1 , α′2 , α′3 )), allora

p1 − p′1 p2 − p′2 p3 − p′3
α1 α2 α3
′ ′ ′
α1
α 2
α 3

d(N, N′) = s
2 2 2
α1 α2 α1 α3 α2 α3
α′ α′ + α′ α′ + α′ α′
1 2 1 3 2 3

(nel secondo membro abbiamo preso il valore assoluto).

Dimostrazione. (i) Sia A un qualsiasi punto sulla retta r e sia r′′ la retta parallela a r′ e passante per A.
Poichè le rette r e r′ sono sghembe, le rette incidenti r e r′′ sono distinte e quindi individuano un piano
π. Sia r′1 la proiezione ortogonale di r′ sul piano π e denotiamo con N l’intersezione delle rette r e r′1
(come sopra, le rette r e r′1 sono distinte). Sia N′ ∈ r′ l’unico punto la cui proiezione su π è N. Allora la
retta d := NN′ è ovviamente perpendicolare a r in N e a r′ in N′ . Cosı̀ è provata l’esistenza di d. L’unicità
seguirà dalla dimostrazione di (ii).
(ii) Consideriamo il piano π′ parallelo a π e passante per N′ ; il piano π′ è generato dalla retta r′ e
dalla retta s parallela ad r e passante per N′ . La retta d = NN′ è perpendicolare ad entrambi i piani π e
π′ . Quindi d(N, N′) è proprio la distanza tra i piani π e π′ . Siano ora M ∈ r e M′ ∈ r′ due punti qualsiasi.
Pertanto d(N, N′) ≤ d(M, M′ ), con “=” se e solo se M = N e M′ = N′ . Ciò prova anche l’unicità nel punto
(i).
(iii) Procederemo in una maniera simile alla dimostrazione del punto (ii) della Proposizione 5.21.
Prendiamo M = (p1 , p2 , p3 ) ∈ r e M′ = (p′1 , p′2 , p′3 ) ∈ r′ . Osserviamo innanzitutto che la giacitura di d è
generata dal vettore v prodotto vettoriale (α1 , α2 , α3 ) × (α′1 , α′2 , α′3 ). Allora si ha:
−−−→
′ −−−→′ −−−→′ |hMM′ , vi|
d(N, N ) =k NN k=k MM k · cos θ =
kvk
dove l’ultima uguaglianza deriva dalla Definizione 5.4. Per concludere basta usare l’Esercizio 3.10. 
86 Capitolo 5. Spazi affini euclidei

Figura 5.2:

d
r′′ r
A
r′1 
N π


r′ 
M
 
N′
M′
s

Definizione 5.24 (Comune perpendicolare e distanza tra due rette sghembe). Siano r e r′ due rette
sghembe di E3 (R). La retta d della Proposizione 5.23 è chiamata la comune perpendicolare a r e r′ . La
distanza d(N, N′), con N e N′ dati dalla Proposizione 5.23, si chiama la distanza tra le rette r e r′ e verrà
denotata con d(r, r′ ). Queste definizioni sono ben poste in virtù della Proposizione 5.23.
Definizione 5.25. Siano A e A′ due iperpiani non paralleli di En (R). Il luogo geometrico dei punti di
En (R) equidistanti dai due iperpiani è costituito da due iperpiani B e B′ tra loro perpendicolari (facile
verifica lasciata al Lettore). Gli iperpiani B e B′ si chiamano iperpiani bisettori degli iperpiani A e A′ .
Siano P e Q ∈ En (R) due punti distinti. Il luogo geometrico dei punti di En (R) equidistanti da P e
da Q è un iperpiano perpendicolare al segmento [PQ] che passa per il punto medio di [PQ] e si chiama
l’asse del segmento [PQ].
Definizione 5.26. Sia P = (p1 , . . . , pn ) un punto in En (R), n ≥ 2, e sia r > 0 un numero reale. La sfera di
centro P e di raggio r, denotata con Sn−1 (P, r), è il luogo geometrico dei punti Q ∈ En (R) tali che d(P, Q) = r.
In altre parole
Sn−1 (P, r) = {(x1 , . . . , xn ) ∈ En (R) | (x1 − p1 )2 + · · · + (xn − pn )2 = r2 }.
Sia Q un punto di Sn−1 (P, r) e sia d una retta di En (R) passante per Q. Si dice che d è una retta tangente alla
sfera Sn−1 (P, r) nel punto Q se le rette PQ e d sono tra loro perpendicolari.

Esercizi
Esercizio 5.1. Sia ABCD un parallelogramma in En (R). Si dimostri che |AB|2 + |BC|2 + |CD|2 + |AD|2 =
|AC|2 + |BD|2, dove con |AB| abbiamo denotato la distanza tra due punti A e B.
Esercizio 5.2. Siano A, B, C, D ∈ En (R) quattro punti. Si verifichi l’uguaglianza
−→ −−→ −−→ −−→ −−→ −→
hAB, CDi + hAC, DBi + hAD, BCi = 0.
Esercizio 5.3. Siano A e B ∈ E2 (R). Si descriva l’insieme delle isometrie che fissano il segmento [AB]
(non necessariamente punto per punto).
Esercizio 5.4. Siano A e B due sottospazi affini di En (R) tali che B ⊆ A e sia P ∈ En (R) tale che P < A.
Sia B ∈ B il piede della perpendicolare a B passante per P. Sia ancora C l’unico sottospazio affine di
A di dimensione dim(A) − dim(B) che contiene B ed è perpendicolare a B (si veda la Proposizione
5.17), iv)). Allora si dimostri che il piede della perpendicolare a C passante per P coincide con il piede
della perpendicolare a A passante per P. (Suggerimento: si adatti la dimostrazione del teorema delle tre
perpendicolari.)
87

Esercizio 5.5. Siano A e B due sottospazi affini di En (R). Supponiamo A ⊥ B e dim(A) + dim(B) ≥ n.
Adattando la dimostrazione della Proposizione 5.17, (v) si deduca la formula dim(A ∩ B) = dim(A) +
dim(B) − n.
Esercizio 5.6. Sia A un sottospazio affine di En (R) di equazioni x1 = · · · xr = 0, con 1 ≤ r ≤ n − 1. Sia B
un sottospazio affine di En (R) di dimensione r tale che B ⊥ A. Si provi che le equazioni di B sono della
forma xr+1 = ar+1 ,..., xn = an , con ar+1 , ..., an ∈ R.
Esercizio 5.7. Verificare che le rette in E3 (R)
 
2x − y = 0 2x + y = 0

 

r:  s: 
z − 1 = 0
 z + 1 = 0

sono sghembe e determinare la retta t passante per Q = (1, 0, 2) che si appoggia a r e s. La retta cosı̀
trovata è la comune perpendicolare alle rette sghembe ?
Esercizio 5.8. Siano dati in E3 (R) il punto P(1, 0, 0), la retta r di equazioni parametriche x = 1 + t, y = t,
z = t e il piano π di equazione x − 2y + 3z = 7.
i) Trovare la retta s tale che P ∈ s, s ⊥ r e dette r′ e s′ le proiezioni ortogonali di r e s su π,
rispettivamente, sia s′ ⊥ r′ .
ii) Provare che r e s′ sono sghembe e trovarne la distanza.
Esercizio 5.9. Sia ϕ : E3 (R) → E3 (R) la riflessione rispetto al piano π : x + y + z = 1.
i) Trovare l’espressione analitica di ϕ.
ii) Esprimere ϕ come composizione di una riflessione rispetto a un piano coordinato, di una rotazione
e di una traslazione.
iii) Determinare l’asse e l’angolo di rotazione relativi alla rotazione trovata in ii).
Esercizio 5.10. Sia data l’applicazione ϕ : E3 (R) → E3 (R) definita da



x′ = √3 x − √5 z + 1

 14 70
√1 x + √2 y − √3 z − 2
 ′
 y = −

 14 5 70

z′ = √2 x + √1 y + √6 z.

14 5 70

Si verifichi che ϕ è un’isometria e si scriva ϕ come composizione di riflessioni (o simmetrie).


Esercizio 5.11. Consideriamo in E3 (R) le rette seguenti:
( ( (
z=0 z=0 x=0
X: Y: Z: ,
x+y=1 x−y+1=0 y=1

i) Dimostrare che le rette X, Y e Z sono concorrenti in un punto O′ e a due a due perpendicolari.


ii) Si scelgano sulle rette X, Y e Z tre punti A1 ∈ X, A2 ∈ Y e A3 ∈ Z tali che {O′ , A1 , A2 , A3 } sia un
riferimento affine euclideo destrorso.
iii) Trovare le formule dell’isometria σ tale che σ(O) = O′ e σ(Ei ) = Ai , i = 1, 2, 3.
Esercizio 5.12. Dato il piano π : x + y + z = 0 ed il punto P(0, 0, 1), determinare le equazioni delle rette

di π, parallele al piano z = 0 e aventi distanza d = 2 da P.
Esercizio 5.13. Si considerino le rette di E3 (R)
( ( (
x−y=0 x−y=6 3x − 2z + 2 = 0
r: s: t:
2x − z + 5 = 0 x − 2y + z = 6 3y + z − 1 = 0
88 Capitolo 5. Spazi affini euclidei

i) Scrivere le equazioni della retta incidente r e s e parallela a t.


ii) Trovare l’equazione della sfera Σ passante per i punti A(1, 1, 2) e B(2, 1, 1) e tangente alla retta t nel
punto P(0, 0, 1).

iii) Determinare le equazioni delle circonferenze contenute nella sfera Σ, aventi raggio 14/3 e tangenti
alla retta t.
Esercizio 5.14. Sia τ la traslazione di A2 (R) associata al vettore (1, 1) e sia σ la riflessione rispetto alla
retta r di equazione 2x + y − 1 = 0.
i) Classificare ϕ = τ · σ.
ii) Esibire due rette non parallele s e t tale che ϕ(t) k t e ϕ(s) k s,
Esercizio 5.15. Consideriamo in E2 (R) le rette seguenti:

d1 : y = 0, d2 : x = 0, d3 : x + y = 1;

d′1 : y = 3, d′2 : x = 4, d′3 : x − y = 2.


Dire se esiste un’ isometria f di E2 (R) tale che f (d′i ) = di , i = 1, 2, 3; se la risposta è affermativa esibirne
una.
Esercizio 5.16. Si considerino le rette di E3 (R)
 (
x − y = 0

 x−y=6
r:  s:
2x − z + 5 = 0
 x − 2y + z = 6

Sia
R = {ρ > 0 | S2 (ρ) è tangente a r e s},
dove S2 (ρ) è una sfera di raggio ρ. Provare che R è non vuoto e trovare min{R} e max{R}.
Capitolo 6

Forme bilineari e forme quadratiche

In questo capitolo fisseremo un campo K di caratteristica , 2.


Definizione 6.1. Siano V1 e V2 due K-spazi vettoriali. Un’applicazione f : V1 × V2 → K si dice applicazione
bilineare se sono soddisfatti i seguenti assiomi:
i) f (u + u′ , v2 ) = f (u, v2 ) + f (u′ , v2 ), ∀u, u′ ∈ V1 , e ∀v2 ∈ V2 .
ii) f (v1 , v + v′ ) = f (v1 , v) + f (v1 , v′ ), ∀v1 ∈ V1 e ∀v, v′ ∈ V2 .
iii) f (λv1 , v2 ) = f (v1 , λv2 ) = λ f (v1 , v2 ), ∀v1 ∈ V1 , ∀v2 ∈ V2 e ∀λ ∈ K.
Sia V un K-spazio vettoriale, un’applicazione bilineare f : V × V → K si dice forma bilineare su V.
Indicheremo con Bil(V) l’insieme di tutte le forme bilineari su V.
Una forma bilineare f ∈ Bil(V) si dice simmetrica se f (v, w) = f (w, v), per ogni v, w ∈ V.
Sull’insieme Bil(V) possiamo definire l’addizione delle forme bilineari mediante la formula

( f + g)(v, w) := f (v, w) + g(v, w), ∀v, w ∈ V, ∀ f, g ∈ Bil(V),

rispetto alla quale Bil(V) diventa un gruppo abeliano. L’elemento neutro di questo gruppo è la forma
“nulla” 0 ∈ Bil(V) definita da 0(v, w) := 0, ∀v, w ∈ V, e l’opposta di una forma bilineare f ∈ Bil(V) è
la forma − f definita da (− f )(v, w) := − f (v, w), ∀v, w ∈ V. Inoltre, possiamo definire anche una molti-
plicazione per scalari · : K × Bil(V) → Bil(V) mediante (λ · f )(v, w) := λ f (v, w), ∀λ ∈ K, ∀ f ∈ Bil(V) e
∀v, w ∈ V. Allora il gruppo abeliano (Bil(V), +) diventa un K-spazio vettoriale rispetto a queste leggi di
composizione.
Esempi 6.2. 1. Se (V, h , i) è uno spazio vettoriale euclideo reale allora l’applicazione f : V × V → R
definita da f (v, w) := hv, wi è una forma bilineare simmetrica.
2. Sia V = Kn lo spazio vettoriale standard di dimensione n su K. Se v = (x1 , ..., xn) e w = (y1 , ..., yn ) sono
due vettori qualsiasi di Kn allora l’applicazione f : Kn × Kn → K definita da f (v, w) = x1 y1 + · · ·+ xn yn
è una forma bilineare simmetrica detta la forma bilineare standard su Kn .
3. Sia V = Kn lo spazio vettoriale standard di dimensione n ≥ 1 su K, e sia A = |ai j |i, j=1,...,n ∈ Mn (K) una
matrice n × n a coefficienti in K. Se x = (x1 , ..., xn), y = (y1 , ..., yn ) ∈ Kn , con le convenzioni standard
definiamo fA : Kn × Kn → K mediante la formula
n
X
fA (x, y) = xAyt = ai j x i y j .
i, j=1

È facile vedere che in questo modo otteniamo una forma bilineare su Kn . Se la matrice A è la matrice
zero, allora la forma bilineare ottenuta è la forma bilineare zero. La forma bilineare fA è simmetrica
se e solo se ai j = a ji , ∀i, j = 1, ..., n (i.e. se la matrice A è simmetrica).

89
90 Capitolo 6. Forme bilineari e forme quadratiche

4. Sia f ∈ Bil(V) una forma bilineare sul K-spazio vettoriale V. Per ogni v ∈ V consideriamo
l’applicazione fv : V → K definita da fv (w) := f (v, w). Gli assiomi ii) e iii) implicano che fv è
un funzionale lineare su V, i.e. fv ∈ V ∗ . Inoltre, gli assiomi i) e iii) implicano che l’applicazione
δ f : V → V ∗ definita da δ f (v) := fv è un omomorfismo di K-spazi vettoriali.
Analogamente, per ogni v ∈ V l’applicazione fv′ : V → K definita da fv′ (w) := f (w, v) è un funzionale
lineare su V, e l’applicazione δ′f : V → V ∗ definita da δ′f (v) := fv′ è un omomorfismo di K-spazi
vettoriali.

Sia B = {v1 , ..., vn} una base del K-spazio vettoriale V. Se f ∈ Bil(V) è una forma bilineare su V,
poniamo ai j := f (vi , v j ), ∀i, j = 1, ..., n. In questo modo otteniamo la matrice MB
f
:= |ai j |i, j=1,...,n ∈ Mn (K).
MB
f
si chiama la matrice associata alla forma bilineare f rispetto alla base B. È chiaro che se f è una forma
bilineare simmetrica, la matrice MB
f
è simmetrica.
n
P n
P
Viceversa, sia A = |ai j |i, j=1,...,n ∈ Mn (K) una matrice n × n a coefficienti in K. Sia v = xi vi e w = yi vi
i=1 i=1
due vettori qualsiasi. Definiamo l’applicazione fA : V × V → K mediante la formula
n
X
fA (v, w) = ai j x i y j .
i, j=1

Si constata immediatamente che fA è una forma bilineare su V tale che MB fA


= A. Inoltre, se la matrice A
è simmetrica, anche la forma bilineare fA è simmetrica.
Sia ora B′ = {w1 , ..., wn } un’altra base di V. Se Λ = |αi j |i, j=1,...,n è la matrice di passaggio dalla base B
Pn
alla base B′ (i.e. wi = α ji v j , i = 1, ..., n), ne segue che
j=1

n
X n
X n
X
f (wi , w j ) = f ( αki vk , αl j vl ) = αki αl j f (vk , vl ).
k=1 l=1 k,l=1

In altre parole,

t
MB B
f = Λ · M f · Λ, (6.1)
con Λ ∈ GLn (K). In questo modo abbiamo dimostrato:

Proposizione 6.3. Nelle ipotesi di sopra, fissando una base B = {v1 , ..., vn } del K-spazio vettoriale V l’applicazione
f → MBf
è un isomorfismo di K-spazi vettoriali definito su Bil(V) a valori in Mn (K), tale che la forma bilineare f
è simmetrica se e solo se la matrice MB
f
è simmetrica. Se B′ è un’altra base di V e se Λ ∈ GLn (K) è la matrice di

passaggio dalla base B alla base B′ , allora si ha (6.1). In particolare, rang(MB
f
) = rang(MB
f
).

Per esempio, la matrice associata alla forma bilineare standard su Kn (si veda l’Esempio 6.2.2)
rispetto alla base canonica e1 = (1, 0, ..., 0), ...,en = (0, ..., 0, 1) di Kn , è la matrice identica di Mn (K).

Definizione 6.4. Sia f ∈ Bil(V) una forma bilineare su V. Se B è una qualsiasi base di V, definiamo il
rango di f , e lo denotiamo rang( f ), mediante rang( f ) := rang(MB
f
). La Proposizione 6.3 fa vedere che
rang( f ) è indipendente dalla scelta della base B. È chiaro che rang( f ) ≤ dimK (V). Una forma bilineare f
si chiama non degenere se rang( f ) = dimK (V).

Proposizione 6.5. Sia f ∈ Bil(V) una forma bilineare sul K-spazio vettoriale di dimensione finita V. Le seguenti
condizioni sono equivalenti:

i) f è non degenere.

ii) Per ogni v , 0V in V esiste w ∈ V tale che f (v, w) , 0.

iii) Per ogni w , 0V in V esiste v ∈ V tale che f (v, w) , 0.


91

iv) L’applicazione δ f : V → V ∗ sopra definita è un isomorfismo di K-spazi vettoriali.


v) L’applicazione δ′f : V → V ∗ sopra definita è un isomorfismo di K-spazi vettoriali.

Dimostrazione. L’equivalenza ii) ⇐⇒ iv) è immediata; infatti, dire che il vettore v ∈ V è tale che f (v, w) = 0
∀w ∈ V equivale a dire che v ∈ Ker(δ f ) (mentre Ker(δ f ) = 0 equivale al fatto che δ f è un isomorfismo,
tenendo conto della Proposizione 2.55 e dell’uguaglianza dimK (V) = dimK (V ∗ )). In modo analogo si
prova l’equivalenza iii) ⇐⇒ v).
Sia B = {v1 , ..., vn } una base di V; poniamo MB f
= |ai j |i, j=1,...,n e consideriamo la base duale B∗ =
{e∗1 , ..., e∗n } di V ∗ . Per ogni v ∈ V si hanno le uguaglianze
n
X n
X
δ f (v) = δ f (v)(e j )e∗j = f (v, e j )e∗j
j=1 i=1

(si veda la dimostrazione del Teorema 2.53). In particolare,


n
X
δ f (ei ) = ai j e∗j , i = 1, ..., n.
j=1

Pertanto la matrice dell’omomorfismo δ f rispetto alle basi B e B∗ è la trasposta della matrice MB


f
, da
dove i) ⇐⇒ iv). Analogamente, i) ⇐⇒ v). 

Definizione 6.6. Sia f ∈ Bil(V) una forma bilineare simmetrica sul K-spazio vettoriale V. Siano v, w ∈ V
due vettori; si dice che v è perpendicolare a w rispetto a f , e si scrive v ⊥ w, se f (v, w) = 0. Poichè f è
simmetrica, da v ⊥ w segue w ⊥ v. Se S ⊆ V è un sottinsieme di V, definiamo

S⊥ := {w ∈ V | f (v, w) = 0 ∀v ∈ S}.
Si verifica immediatamente che S⊥ è un K-sottospazio vettoriale di V. Due K-sottospazi vettoriali V1 e V2
si dicono perpendicolari rispetto a f , e si scrive V1 ⊥ V2 , se V1 ⊆ V2⊥ . Ancora, se V1 ⊥ V2 allora V2 ⊥ V1 . Il
sottospazio V ⊥ = {v ∈ V | f (v, w) = 0 ∀w ∈ V} si chiama il radicale di V. La Proposizione 6.5 fa vedere che
f è non degenere se e solo se V ⊥ = 0V .
Un vettore v ∈ V si dice isotropo rispetto a f (o semplicemente isotropo, quando non c’è pericolo di
confusione) se f (v, v) = 0. Se v è vettore isotropo (rispetto a f ), allora λ · v è ancora isotropo per ogni
λ ∈ K. Nell’Esempio 6.2 la forma bilineare f (v, w) = hv, wi è non degenere e ogni vettore isotropo è il
vettore nullo (si veda la definizione di prodotto scalare).
Se un vettore v non è isotropo, nel qual caso si chiama non isotropo, allora per ogni vettore w ∈ V
poniamo
f (v, w)
av (w) := . (6.2)
f (v, v)
Allora si ha l’uguaglianza f (v, w − av (w)v) = 0, i.e. w − av (w)v ∈ v⊥ . D’altra parte, poichè w = av (w)v + (w −
av (w)v), ne segue che V = hvi ∩ v⊥ , dove hvi è il K-sottospazio vettoriale generato da v. Inoltre, poichè
v non è isotropo, hvi ∩ v⊥ = 0V . In altre parole, V = hvi ⊕ v⊥ . Lo scalare av (w) si chiama il coefficiente di
Fourier di w rispetto al vettore non isotropo v (relativamente alla forma bilineare simmetrica f ).
Definizione 6.7. Sia f ∈ Bil(V) una forma bilineare simmetrica sul K-spazio vettoriale V. Allora
l’applicazione q : V → K definita da q(v) := f (v, v), ∀v ∈ V, si chiama la forma quadratica associata a
f.
Per esempio, la forma quadratica associata alla forma bilineare standard su Kn è q(v) = x21 + · · · + x2n ,
∀v = (x1 , ..., xn ) ∈ Kn . Questa forma quadratica si chiama la forma quadratica standard su Kn .
Proposizione 6.8. Sia q : V → K la forma quadratica associata alla forma bilineare simmetrica f : V × V → K.
Allora si hanno le uguaglianze

q(λv) = λ2 q(v), e 2 f (v, w) = q(v + w) − q(v) − q(w), ∀λ ∈ K, ∀v, w ∈ V.


92 Capitolo 6. Forme bilineari e forme quadratiche

Dimostrazione. Si ha q(v+w)−q(v)−q(w) = f (v+w, v+w)− f (v, v)− f (w, w) = f (v, w)+ f (w, v) = 2 f (v, w). 
Se la caratteristica di K è , 2, la Proposizione 6.8 fa vedere che dare la forma quadratica associata q
a una forma bilineare simmetrica f è sufficiente per ritrovare la forma bilineare f . La forma bilineare f
si chiama, in questo caso, la forma bilineare polare associata alla forma quadratica q.
Supponiamo che {v1 , ..., vn } sia una base del K-spazio vettoriale V e che A = |ai j |i, j=1,...,n sia la matrice
associata alla forma bilineare simmetrica f ∈ Bil(V) rispetto a questa base. Sia q la forma quadratica
associata a f . Il rango della forma quadratica q è per definizione il rango della sua forma bilineare polare
f , i.e. il rango della matrice simmetrica A. Se v = x1 v1 + · · · + xn vn (con x := (x1 , ..., xn) ∈ Kn ) allora
Pn
q(v) = xAxt = ai j xi x j . Ne segue che q(v) = Q(x), dove
i, j=1
n
X
t
Q(X) = XAX = ai j Xi X j ∈ K[X1 , ..., Xn] (6.3)
i, j=1

è un polinomio omogeneo di grado 2. In questo caso diremo che il polinomio Q(X) rappresenta la
forma quadratica q rispetto alla base {v1 , ..., vn}. Si osservi che ogni polinomio omogeneo di grado 2 di
K[X1 , ..., Xn ] può essere scritto nella forma (6.3) se K è di caratteristica , 2.

Definizione 6.9. Sia f ∈ Bil(V) una forma bilineare simmetrica sul K-spazio vettoriale V e sia v1 , ..., vn
una base di V su K. Si dice che la base v1 , ..., vn è ortogonale rispetto a f se per ogni i , j, si ha f (vi , v j ) = 0.
In questo caso la matrice di f rispetto alla base v1 , ..., vn è diagonale. In altre parole, per ogni due vettori
v = x1 v1 + · · · + xn vn e w = y1 v1 + · · · + yn vn , con xi , yi ∈ K, ∀i = 1, ..., n, si ha

f (v, w) = a11 x1 y1 + · · · + ann xn yn , con aii = f (vi , vi ).


Se una base ortogonale rispetto alla forma bilineare f esiste, si dice che f è diagonalizzabile.

Teorema 6.10. Sia V uno spazio vettoriale di dimensione n su K di caratteristica , 2, e sia f ∈ Bil(V) una forma
bilineare simmetrica su V. Allora f è diagonalizzabile.

Dimostrazione. Ci sono varie dimostrazioni di questo risultato fondamentale. Ne indichiamo una basata
sul concetto di vettore non isotropo. La dimostrazione procede per induzione su n. Se n = 1 non vi è
nulla da dimostrare. Supponiamo quindi n ≥ 2. Ovviamente, possiamo supporre f , 0. Siano allora
v, w ∈ V due vettori tali che f (v, w) , 0. Ne segue allora che almeno uno dei vettori v, w, v + w è non
isotropo. Infatti, se v e w fossero entrambi isotropi, avremmo

f (v + w, v + w) = f (v, v) + f (w, w) + 2 f (v, w) = 2 f (v, w) , 0,

poichè la caratteristica di K è , 2.
Pertanto possiamo supporre che esista un vettore e1 , 0 tale che f (e1 , e1 ) , 0. Per quanto detto nella
Definizione 6.6, V = Ke1 ⊕ V ′ , con V ′ := e⊥ 1
. In particolare, dimK (V ′ ) = n − 1. Per l’ipotesi induttiva, V ′
possiede una base ortogonale e2 , ..., en rispetto alla forma bilineare simmetrica f ′ := f |V ′ ×V ′ : V ′ ×V ′ → K.
Dimostriamo che e1 , e2 , ..., en è una base di V. Sia quindi λ1 e1 + λ2 e2 + · · · + λn en = 0V , con λi ∈ K. Ponendo
v := λ2 e2 + · · · + λn en ∈ V ′ , otteniamo λ1 e1 + v = 0V . Ne segue 0V = f (λ1 e1 + v, e1 ) = λ1 f (e1 , e1 ) + f (v, e1 ) =
λ1 f (e1 , e1 ) (poichè f (v, e1 ) = f (e1 , v) = 0), da cui λ1 = 0 poichè f (e1 , e1 ) , 0. Quindi 0V = v = λ2 e2 +· · ·+λn en ,
da cui λ2 = · · · = λn = 0 (e2 , ..., en è una base di V ′ su K). Ne segue che e1 , ..., en è una base ortogonale di V
su K rispetto a f . 

Corollario 6.11. Nelle ipotesi del Teorema 6.10 supponiamo inoltre K = C (o, più generalmente, K un corpo
algebricamente chiuso). Allora esiste una base v1 , ..., vn di V su C tale che la matrice della forma bilineare f rispetto
a questa base sia della forma
!
Ir 0
,
0 0
dove r := rang( f ) e Ir è la matrice identica dell’anello Mr (C).
93

Dimostrazione. Per il Teorema 6.10 esiste una base ortogonale w1 , ..., wn di V rispetto a f tale che f (wi , wi ) =:
aii , ∀i = 1, ..., n. Riordinando la base, se necessario, possiamo supporre che aii , 0 se e solo se i ≤ r. Poichè
C è algebricamente chiuso, esistono bi ∈ C tali che b2i = aii , ∀i = 1, ..., r. Ponendo vi = b−1
i
wi , ∀i = 1, ..., r e
v j = w j , ∀j = r + 1, ..., n, otteniamo la base cercata. 

Corollario 6.12 (Sylvester). Nelle ipotesi del Teorema 6.10 supponiamo K = R. Allora esiste un numero non
negativo p che dipende solo dalla forma bilineare f , tale che 0 ≤ p ≤ r := rang( f ), e una base v1 , ..., vn di V su R
rispetto alla quale la matrice di f sia della forma
 
 Ip 0 0 
 0 −I 
 r−p 0   .

0 0 0

Dimostrazione. L’esistenza della base v1 , ..., vn si dimostra in una maniera del tutto analoga a quella
del Corollario 6.11. Infatti, esattamente come nel corollario precedente, troviamo una base ortogonale
w1 , ..., wn rispetto a f , tale che aii := f (wi , wi ) , 0 se e solo se i ≤ r := rang( f ). Denotiamo con p
il numero degli indici i per cui aii > 0. Riordinando la base, se necessario, possiamo supporre che
aii > 0 ⇐⇒ 1 ≤ i ≤ p e a j j < 0 ⇐⇒ p + 1 ≤ j ≤ r. Allora esistono b1 , ..., br ∈ R \ {0} tali che aii = b2i ,
∀i = 1, ..., p e a j j = −b2j , ∀j = p + 1, ..., r. Ponendo vi := b−1
i
wi , ∀i = 1, ..., r, e vk := wk , ∀k = r + 1, ..., n,
otteniamo la base cercata (rispetto alla quale la matrice di f ha la forma desiderata).
Rimane da dimostrare che il numero p è un invariante di f . La forma quadratica q associata a f
rispetto alla base v1 , ..., vn sopra costruita è data da

q(v) = x21 + · · · + x2p − x2p+1 − · · · − x2r , ∀v = x1 v1 + · · · + xn vn . (6.4)


Supponiamo ora che u1 , ..., un sia un’altra base di V su R tale che

q(v) = y21 + · · · + y2t − y2t+1 − · · · − y2r , ∀v = y1 u1 + · · · + yn un , (6.5)


con 0 ≤ t ≤ r. Dobbiamo dimostrare che p = t. Supponiamo per assurdo che p , t, e.g. t < p. Consideriamo
allora i sottospazi vettoriali V1 := hv1 , . . . , vp i e V2 := hut+1 , . . . , un i. Allora

dimR (V1 ) + dimR (V2 ) = p + n − t > n,

quindi la formula di Grassmann (Corollario 2.37) implica V1 ∩ V2 , {0V }. Esiste quindi 0V , v ∈ V1 ∩ V2 .


Per costruzione abbiamo v = x1 v1 + · · · + xp vp = yt+1 ut+1 + · · · + yn un , con xi , y j ∈ R. Tenendo conto delle
formule (6.4) e (6.5) abbiamo, da una parte

q(v) = x21 + · · · + x2p > 0,

dall’altra,
q(v) = −y2t+1 − · · · − y2r < 0,
e ciò fornisce la contraddizione cercata. Quindi p = t. 

Definizione 6.13. Se f ∈ Bil(V) è una forma bilineare simmetrica sul R-spazio vettoriale n-dimensionale
V, e q è la forma quadratica associata a f , l’uguaglianza (6.4) (con 0 ≤ p ≤ r = rang( f )) si chiama la forma
canonica della forma quadratica q. Gli interi p e r − p si chiamano l’indice di positività e l’ indice di negatività,
rispettivamente, della forma quadratica q. La coppia (p, r − p) si chiama la segnatura di q.
Una forma quadratica q su uno spazio vettoriale reale V si chiama:
1. definita positiva se q(v) > 0, ∀v ∈ V \ {0V } (i.e. di segnatura (n, 0));
2. definita negativa se q(v) < 0, ∀v ∈ V \ {0V } (i.e. di segnatura (0, n));
3. semidefinita positiva se q(v) ≥ 0, ∀v ∈ V (i.e. di segnatura (r, 0), con 0 ≤ r ≤ n);
4. semidefinita negativa se q(v) ≤ 0, ∀v ∈ V (i.e. di segnatura (0, r), con 0 ≤ r ≤ n);
94 Capitolo 6. Forme bilineari e forme quadratiche

5. indefinita se non è nè semidefinita positiva, nè semidefinita negativa (i.e. di segnatura (p, r − p), con
0 < p < r ≤ n).
Un esempio di forma quadratica non degenere indefinita sullo spazio V = R4 è

q(x1 , x2 , x3 , x4 ) = x21 + x22 + x23 − x24 .

La coppia (R4 , q), che si chiama lo spazio di Minkowski, gioca un ruolo importante nella teoria della
relatività ristretta.
Capitolo 7

Iperquadriche affini

Ipersuperficie affini
Definizione 7.1. Sia K un campo e n ≥ 2 un numero naturale fissato. Per ogni numero naturale d ≥ 1,
denoteremo con Md (n, K) insieme di tutti i polinomi non nulli di K[X1 , ..., Xn ] di grado totale d. In altre
parole, un polinomio F ∈ K[X1 , ..., Xn] appartiene all’insieme Md (n, K) se e solo se F si rappresenta come

F = Fd + Fd−1 + · · · + F1 + F0 , (7.1)

con Fi polinomio omogeneo di grado i nelle indeterminate X1 , ..., Xn , i = 1, 2, ..., d, F0 ∈ K, e Fd , 0. Il


polinomio omogeneo non nullo Fd si chiama il polinomio omogeneo dominante del polinomio F ∈ Md (n, K).
Per esempio, la forma generale di un polinomio F ∈ M1 (n, K) di grado 1 è

F = a1 X1 + a2 X2 + · · · + an Xn + b, con (a1 , ..., an ) ∈ Kn \ (0, ..., 0), b ∈ K,

mentre la forma generale di un polinomio F ∈ M2 (n, K) di grado 2 (con K un campo di caratteristica , 2)



n
X n
X
F = F(X1 , . . . , Xn ) = c i j Xi X j + 2 ci Xi + c, (7.2)
i, j=1 i=1

con C = |ci j |i, j=1,...,n una matrice simmetrica non nulla a coefficienti in K, e ci , c ∈ K, ∀i = 1, ..., n.
Siano F, G ∈ Md (n, K) due polinomi di grado d ≥ 1. Diremo che un polinomio F è equivalente ad un
polinomio G se esiste λ ∈ K \ {0} tale che G = λF. È chiaro che in questo modo otteniamo una relazione
di equivalenza sull’insieme Md (n, K).

Definizione 7.2. Si chiama ipersuperficie di grado d in An (K) la classe di equivalenza F̂ di ogni polinomio
F ∈ Md (n, K) rispetto a questa relazione di equivalenza. Il polinomio F (o la relazione F(x1 , ..., xn) = 0)
si chiama un’equazione della ipersuperficie F̂. Con questa definizione, è chiaro che ogni equazione di
ipersuperficie F̂ è della forma G = λF, con λ ∈ K \ {0}. Un’ipersuperficie di grado d di A2 (K) si chiama
curva algebrica affine piana di grado d. Un’ipersuperficie di grado d di A3 (K) si chiama superficie algebrica
affine di grado d in A3 (K). Un’ipersuperficie di grado 2 in An (K) si chiama iperquadrica in An (K). Se la
caratteristica di K è , 2, ogni equazione di un’iperquadrica in An (K) è un polinomio della forma (7.2)
(con la matrice C simmetrica e non nulla). Un’iperquadrica in A2 (K) si dice conica e un’iperquadrica in
A3 (K) si dice quadrica.
Esempi di coniche in A2 (R) sono:
!
2 2 1 0
il “cerchio” : x + y = 1, con C = , c1 = c2 = 0, c = −1;
0 1
!
2 2 1 0
l’iperbole : x − y = 1, con C = , c1 = c2 = 0, c = −1;
0 −1

95
96 Capitolo 7. Iperquadriche affini
!
1 0 1
la parabola : y = x2 , con C = , c1 = c = 0, c2 = − ;
0 0 2
dove x = x1 e y = x2 .
D’ora innanzi denoteremo con Hd (n, K) l’insieme di tutte le ipersuperficie di grado d di An (K). In
altre parole, Hd (n, K) è per definizione l’insieme quoziente dell’insieme Md (n, K) modulo la relazione di
equivalenza sopra introdotta. Se F̂ ∈ Hd (n, K), denotiamo
V(F̂) := {(x1 , ..., xn ) ∈ An (K) | F(x1 , ..., xn) = 0}.
Il sottinsieme V(F̂) di An (K) (che non dipende dalla scelta dell’equazione F della ipersuperficie F̂) si
chiama il luogo geometrico, o il luogo degli zeri, della ipersuperficie F̂.
Definizione 7.3. [Punti singolari e non singolari di una ipersuperficie] Sia F̂ ∈ Hd (n, K) una ipersuperficie
di grado d ı̂n An (K), e sia P = (a1 , ..., an) ∈ V(F̂) (i.e. F(a1 , . . . , an ) = 0) un punto del suo luogo geometrico.
Diremo che P è un punto singolare per F̂ se
∂F ∂F
(a1 , ..., an ) = · · · = (a1 , ..., an ) = 0.
∂X1 ∂Xn
Se il punto P ∈ V(F̂) non è singolare, diremo che P è non singolare (o liscio) per l’ipersuperficie F̂. L’insieme
dei punti singolari (rispettivamente, dei punti non singolari) di F̂ si denota con Sing(F̂) (rispettivamente,
con Reg(F̂)). Con questa definizione si ha:
V(F̂) = Sing(F̂) ∪ Reg(F̂).
Definizione 7.4. Sia P = (a1 , ..., an ) ∈ Reg(F̂) un punto non singolare di una ipersuperficie F̂. Allora
l’iperpiano di An (K) di equazione
∂F ∂F
(a1 , ..., an)(x1 − a1 ) + · · · + (a1 , ..., an )(xn − an ) = 0
∂X1 ∂Xn
si chiama l’ iperpiano tangente della ipersuperficie F̂ nel punto P = (a1 , ..., an), e verrà denotato con TF̂,P .
Il termine di iperpiano tangente è motivato dalla Definizione 7.5 e dalla Proposizione 7.7 seguenti:
Definizione 7.5. Secondo le notazioni della Definizione 7.4 sia
r: xi = ai + li t, i = 1, . . . , n,
una retta passante per P = (a1 , ..., an ). Consideriamo il polinomio in t (di grado ≤ d)
g(t) := f (a1 + l1 t, . . . , an + ln t)
e osserviamo che g(0) = f (a1 , . . . , an ) = 0. Si dice che r è una retta tangente a F̂ in P se 0 è radice di
molteplicità ≥ 2 del polinomio g(t).
Osservazione 7.6. Osserviamo esplicitamente che il polinomio g(t) potrebbe essere identicamente nullo,
nel qual caso 0 è radice di molteplicità ∞. Ciò accade se e solo se r ⊂ V(F̂). Osserviamo anche che r ⊂ V(F̂)
se e solo se la molteplicità della radice 0 di g(t) è ≥ d + 1.
Proposizione 7.7. Secondo le notazioni delle due definizioni precedenti una retta r passante per P = (a1 , ..., an ) ∈
Reg(F̂) è tangente se e solo se r ⊂ TF̂,P . Infatti TF̂,P è l’unione di tutte le rette tangenti a F̂ passanti per P.

Dimostrazione. Si hanno le seguenti equivalenze:


n
dg X ∂f
0 è radice di molteplicità ≥ 2 ⇐⇒ (0) = 0 ⇐⇒ li (P) = 0 ⇐⇒ r ⊆ V(F̂).
dt ∂xi
i=1

Abbiamo tenuto conto della regola di derivazione seguente


n n
dg X ∂ f d(li t) X ∂ f
= (a1 + l1 t, . . . , an + ln t) = (a1 + l1 t, . . . , an + ln t)li . 
dt ∂xi dt ∂xi
i=1 i=1
97

Definizione 7.8. Sia σ ∈ AGLn (K) un automorfismo affine di An (K) e sia F ∈ Md (n, K) un polinomio non
nullo di grado d in X1 , ..., Xn . Se σ è dato dalle formule
n
X
yi = ai j x j + bi , i = 1, ..., n, (7.3)
j=1

e σ−1 dalle formule


n
X
yi = a∗i j x j + b∗i , i = 1, ..., n, (7.4)
j=1

(quindi |a∗i j |i, j=1,...,n = |ai j |−1


i, j=1,...,n
), definiamo il polinomio σ · F ∈ Md (n, K) mediante la formula
n
X n
X
(σ · F)(X1 , ..., Xn ) = F( a∗1 j X j + b∗1 , ..., a∗nj X j + b∗n ). (7.5)
j=1 j=1

È facile verificare che in questo modo otteniamo un’azione a sinistra

AGLn (K) × Md (n, K) → Md (n, K)

del gruppo AGLn (K) sull’insieme Md (n, K) (nel senso della Definizione 1.4). Cioè:

(σ ◦ τ) · F = σ · (τ · F), ∀σ, τ ∈ AGLn (K), ∀F ∈ Md (n, K),

id ·F = F, ∀F ∈ Md (n, K).
Inoltre, se G = λF, con F, G ∈ Md (n, K) e se λ ∈ K \ {0} allora σG = σ · (λF). In altre parole, questa azione
induce un’azione ben definita AGLn (K) × Hd (n, K) → Hd (n, K) del gruppo AGLn (K) sull’insieme Hd (n, K)
di tutte le ipersuperfici di grado d di An (K). Esplicitamente, l’ipersuperficie σ · F̂ è l’ipersuperficie di
equazione σ · F data (7.5).
In particolare, otteniamo l’azione AGLn (K) × H2 (n, K) → H2 (n, K) del gruppo AGLn (K) sull’insieme
H2 (n, K) di tutte le iperquadriche di An (K).
Siano F̂, Ĝ ∈ Hd (n, K) ipersuperfici di An (K). Si dice che F̂ e Ĝ sono affinemente equivalenti, e si scrive
F̂ ∼ Ĝ, se esiste σ ∈ AGLn (K) tale che σ · F̂ = Ĝ. In altre parole, F̂ e Ĝ sono affinemente equivalenti se F̂ e Ĝ
stanno nella stessa orbita di Hd (n, K) rispetto all’azione di AGLn (K). Conformemente a quanto detto nella
Definizione 1.4 in questo modo otteniamo una relazione d’equivalenza sull’insieme Hd (n, K). Descrivere
l’insieme delle orbite è un problema assai importante in matematica ma, se d ≥ 3, è molto difficile.
Però questa azione è molto importante per studiare le iperquadriche di En (R) per la ragione
seguente. In questo caso il gruppo AGLn (R) contiene il sottogruppo Aut(En (R)) delle isometrie di En (R).
Quindi Aut(En (R)) agisce su H2 (n, R). Vedremo più tardi che “classificare” le iperquadriche in En (R) vuol
dire “trovare” un rappresentante canonico in ogni orbita di H2 (n, R) rispetto all’azione di Aut(En (R)).
Il risultato seguente, facile da dimostrare, mostra l’importanza dell’azione definita sopra.
Lemma 7.9. Siano α ∈ AGLn (K) un automorfismo e F̂ ∈ Hd (n, K) un’ipersuperficie di grado d in An (K). Allora
α(V(F̂)) = V(α · F̂), α(Reg(F̂)) = Reg(α · F̂) e α(Sing(F̂)) = Sing(α · F̂). Inoltre, se R ∈ Reg(F̂) è un punto non
singolare di F̂ allora σ(TF̂,P ) = Tσ·F̂,σ(P) .

Dimostrazione. L’unica affermazione non completamente banale è α(Reg(F̂)) = Reg(α · F̂). In altre parole
bisogna far vedere che l’immagine di un punto non singolare è non singolare. Supponiamo che α (risp.
α−1 ) abbia equazioni (7.3) (risp. (7.4)). Allora si ha
 
n n n
∂(α · F) X ∂F X ∗ ∗
X 
=  a1 j X j + b1 , . . . , anj X j + bn  a∗ki .
∗ ∗
∂Xi ∂Xk  
k=1 j=1 j=1

Per concludere si utilizza il teorema di Cramer, tenendo conto del fatto che la matrice k a∗ki kk,i=1,...,n è
invertibile. 
98 Capitolo 7. Iperquadriche affini

Iperquadriche affini
7.10. D’ora innnazi K sarà un campo di caratteristica , 2.
Sia F̂ ∈ H2 (n, K) un’iperquadrica in An (K) di equazione (7.2) cioè
n
X n
X
F= c i j Xi X j + 2 ci Xi + c,
i, j=1 i=1

con
 
c11 c12 ··· c1n 

c21 c22 ··· c2n 

C =  . .. .. 
 .. . .


 
cn1 cn2 ··· cnn
matrice simmetrica non nulla a coefficienti in K. Se poniamo
 
 X1 
X := 
 .. 
 , Xt := (X1 , ..., Xn ), C1 := (c1 , ..., cn ),
 . 

Xn

allora l’equazione F dell’iperquadrica si può riscrivere nella forma matriciale seguente

F = Xt CX + 2C1 X + c. (7.6)

Sia ora σ ∈ AGLn (K) un automorfismo affine di An (K) dato dalle equazioni
n
X
yi = ai j x j + bi , i = 1, ..., n,
j=1

con A := |ai j |i, j=1,...,n matrice non singolare. Sarà comodo scrivere queste equazioni nella seguente forma
matriciale
Y = AX + B, (7.7)
con B vettore colonna di componenti b1 , ..., bn e Y vettore colonna di componenti y1 , ..., yn . Allora
l’equazione matriciale di σ−1 è
Y = A−1 X − A−1 B, (7.8)
da dove segue che σ · F̂ è l’iperquadrica di equazione

σ · F = (A−1 X − A−1 B)t C(A−1 X − A−1 B) + 2C1 (A−1 X − A−1 B) + c.

In particolare si vede che la matrice C′ dell’equazione σ · F è (A−1 )t CA−1 . Ne segue che

det(C)
det(C′ ) = det(C)[det(A−1 )]2 = . (7.9)
[det(A)]2

In particolare, se K = R, il segno di det(C) è invariante per automorfismi affini.


Ad ogni iperquadrica (7.2) si associa altresı̀ la matrice simmetrica seguente:
 
c11 c12 ··· c1n c1 
c c22 ··· c2n c2 
 21
C =  ... .. .. ..
 
 .
 . . . 

cn1 cn2 ··· cnn cn 
 
c1 c2 ··· cn c
99

L’equazione dell’iperquadrica in forma matriciale è allora


 
 1 
x1 
t
 
con X = x2  .
 
X C X = 0,
 .. 
 . 
 
xn

Se σ è l’automorfismo (7.7) e C′ è la matrice simmetrica associata all’iperquadrica σ · F̂ allora, come


sopra, si ha
 t
C′ = (A)−1 C(A)−1
dove  
 1 0 ··· 0

b a11 ··· a1n 
 1
A =  . .. .. ..  .
 .. . . . 

bn an1 ··· ann
Quindi si ha
det(C)
det(C′ ) = det(A)−2 det(C) = det(A)−2 det(C) = . (7.10)
det(A)2
In particolare se K = R il segno di det(C) è invariante per automorfismi affini.
Definizione 7.11. Un’iperquadrica F̂ ∈ H2 (n, K) con F come in (7.2) si dice non degenere se la matrice
simmetrica C è non singolare i.e. det(C) , 0. Se invece det(C) = 0 si dice che F̂ è degenere.
Esempi di coniche non degeneri sono il cerchio e l’iperbole e la parabola y = x2 . Invece la conica
x − y2 = 0 (due rette distinte incidenti) è un esempio di conica degenere.
2

Sia F un polinomio di grado 2 dato dalla formula (7.2), cioè F̂ ∈ H2 (n, K) sia una iperquadrica. Allora
n
∂F X
=2 ci j X j + 2ci , i = 1, ..., n, (7.11)
∂Xi
j=1

Ne segue il
Corollario 7.12. Sia A = (a1 , ..., an) un punto della iperquadrica F̂ di An (K), i.e.
n
X n
X
c i j ai a j + 2 ci ai + c = 0. (7.12)
i, j=1 i=1

Se la caratteristica di K è , 2 allora il punto A è singolare per l’iperquadrica F̂ se e solo se


n
X
ci j a j + ci = 0, i = 1, ..., n. (7.13)
j=1

Sia ora A = (a1 , ..., an ) un punto non singolare della iperquadrica F̂ di An (K). Allora si ha:
n n n
X ∂F X X
(a1 , ..., an )(xi − ai ) = 2 ci j (xi − ai )a j + 2 ci (xi − ai ).
∂Xi
i=1 i, j=1 i=1

L’uguaglianza (7.12), sostituita nella precedente, ci fornisce l’equazione dell’iperpiano tangente dell’iperquadrica
di equazione (7.2) in ogni suo punto non singolare A = (a1 , ..., an ):
n
X n
X
ci j x i a j + ci (xi + ai ) + c = 0. (7.14)
i, j=1 i=1
100 Capitolo 7. Iperquadriche affini

Osservazione 7.13. Sia F̂ la sfera Sn−1 (P, r) di centro P = (p1 , . . . , pn ) e raggio r di equazione

(x1 − p1 )2 + · · · + (xn − pn )2 = r2 .

Allora ogni punto A = (a1 , ..., an ) di Sn−1 (P, r) è non singolare e la formula (7.14) dell’iperpiano tangente
a Sn−1 (P, r) in A diventa
X n
[xi ai − (xi + ai )pi + p2i ] − r2 = 0,
i=1
o, ancora,
n
X n
X
(ai − pi )xi + pi (pi − ai ) − r2 = 0.
i=1 i=1

Poichè i parametri direttori della retta AP sono (a1 − p1 , . . . , an − pn ) deduciamo che il piano tangente a
Sn−1 (P, r) in A è perpendicolare alla retta AP. Ciò fa vedere che il concetto di retta tangente a una sfera
dato nella Definizione 5.26 è un caso speciale del concetto generale di retta tangente a una ipersuperficie
in un suo punto non singolare (si veda la Definizione 7.5).

Definizione 7.14 (Centri delle iperquadriche). Sia P ∈ An (K) un punto fissato. Definiamo l’automorfismo
σP ∈ AGLn (K), detto la simmetria di centro P, mediante le condizioni seguenti:

i) σP (P) = P.

ii) Per ogni punto Q ∈ An (K), Q , P, σP (Q) ∈ PQ \ {Q}, e P è il punto medio di {Q, σP (Q)} (i.e.
P = 12 Q + 12 σ(Q)).

Esplicitamente, se P = (p1 , ..., pn), Q = (x1 , ..., xn) e se σP (Q) = (y1 , ..., yn), allora dalla definizione di
σP si ottengono le equazioni di σ
yi = 2pi − xi , i = 1, ..., n.
In particolare, σP ∈ AGLn (K) e σ2P = idAn (K) . Il punto σP (Q) si chiama il simmetrico di Q rispetto a P.
Sia ora F̂ ∈ H2 (n, K) un’iperquadrica di An (K). Si dice che un punto P ∈ An (K) è un centro per
l’iperquadrica F̂ se σP · F̂ = F̂, dove σP è la simmetria di centro P.

Osservazione 7.15. Osserviamo esplicitamente che se P è centro per l’iperquadrica F̂ ∈ H2 (n, K) allora il
Lemma 7.9 implica la seguente condizione geometrica

σP (V(F̂)) = V(F̂).

In altre parole, se P è un centro dell’iperquadrica F̂ allora per ogni Q ∈ V(F̂) si ha σP (Q) ∈ V(F̂).
Quest’ultima osservazione giustifica la terminologia introdotta.

Proposizione 7.16. Sia P ∈ An (K) un punto qualsiasi e sia F̂ ∈ H2 (n, K) un’iperquadrica, con F dato da (7.2).
Allora P = (p1 , . . . , pn ) è un centro di F̂ se e solo se
n
X
ci j p j + ci = 0, i = 1, ..., n. (7.15)
j=1

Dimostrazione. Tenendo conto della Definizione 7.8 otteniamo


n
X n
X
σP · F = ci j (2pi − Xi )(2p j − X j ) + 2 ci (2pi − Xi ) + c =
i, j=1 i=1

n
X n
X n
X n
X n
X
=4 ci j p i p j − 4 c i j Xi p j + c i j Xi X j + 4 ci p i − 2 ci Xi + c.
i, j=1 i, j=1 i, j=1 i=1 i=1
101

Allora la condizione σP · F̂ = F̂ equivale a


n
X n
X n
X n
X n
X n
X n
X
4 ci j p i p j − 4 c i j Xi p j + c i j Xi X j + 4 ci p i − 2 ci Xi + c == c i j Xi X j + 2 ci Xi + c,
i, j=1 i, j=1 i, j=1 i=1 i=1 i, j=1 i=1

ciò che si riscrive


n X
X n 
ci j p j + ci (Xi − pi ) = 0
i=1 j=1

(identità di polinomi). Quindi l’annullamento dei coefficienti ci dà (7.15). 

Corollario 7.17. Se P ∈ Sing(F̂) è un punto singolare dell’iperquadrica F̂ ∈ H2 (n, d), allora P è centro di F̂.
Viceversa se P è un centro di F̂ che appartiene al luogo geometrico V(F̂) allora P è un punto singolare di F̂.

Dimostrazione. Tutto segue dalla Proposizione 7.16 e dal fatto che P ∈ Sing(F̂) implica (7.15) (si vedano le
equazioni (7.13)). La seconda affermazione segue immediatamente dal Corollario 7.12. 

Corollario 7.18. Ogni iperquadrica F̂, con F dato da (7.2), tale che la matrice C = |ci j |i, j=1,...,n è non singolare,
ammette un centro ed uno solo.

Dimostrazione. Per la Proposizione 7.16 un punto P = (p1 , . . . , pn ) è centro per F̂ se e solo se valgono le
condizioni (7.15). Quindi i centri di F̂ sono le soluzioni del sistema lineare
n
X
ci j x j + ci = 0, i = 1, ..., n.
j=1

La tesi segue allora dal teorema di Cramer. 

Osservazione 7.19. In generale non è detto che un’iperquadrica ammetta un centro. Per esempio la
parabola y = x2 in A2 (R) (che è una conica non degenere) non ammette alcun centro. In fatti in questo
caso !
1 0
C=
0 0
e il sistema diventa 
x1 = 0



0 = 12 ,

manifestamente incompatibile.
Il cerchio x2 + y2 = 1 e l’iperbole x2 − y2 = 1 ammettono l’origine (0, 0) come unico centro (che non
appartiene ai rispettivi luoghi geometrici).
Invece il cono di equazione F = x2 + y2 − z2 in A3 (R) è una quadrica degenere che ammette l’origine
(0, 0, 0) come unico centro (e l’origine, appartenendo al V(F̂), è un punto singolare del cono). Qui abbiamo
posto x = x1 , y = x2 e z = x3 .
Vogliamo sottolineare che il concetto di centro di un’iperquadrica è prettamente un concetto affine,
non coinvolge cioè in alcun modo la struttura euclidea. D’ora innanzi studieremo le iperquadriche dal
punto di vista euclideo.
Definizione 7.20 (Assi di simmetria di un’iperquadrica). Sia F̂ ∈ H2 (n, R) una iperquadrica in En (R)
(n ≥ 2). Un iperpiano H di En (R) si dice asse di F̂ se la simmetria (ortogonale) σH rispetto ad H (si veda
5.10) lascia l’iperquadrica invariata, i.e. σH · F̂ = F̂.
Esempio 7.21. Sia Γλ la conica di E2 (R) di equazione
(2 − λ)x2 − 2λxy + (2 − λ)y2 − 8x − 8y + 8 = 0,
dove λ > 0 è un parametro. Allora per ogni λ > 0 la retta di equazione x = y è un’ asse per Γλ .
Infatti la simmetria rispetto alla retta y = x è proprio (x, y) → (y, x).
102 Capitolo 7. Iperquadriche affini

Classificazione euclidea delle iperquadriche


D’ora innanzi consideriamo iperquadriche in En (R).
Nelle ipotesi e notazioni del §7.10 sia σ l’automorfismo (7.7). Allora σ è un’isometria di En (R) se e solo
se la matrice A = |ai j |i, j=1,...,n è ortogonale, i.e. A−1 = At .
In questo caso, quanto detto nel §7.10, si riformula nel modo seguente:
σ · F̂ è l’iperquadrica di equazione

σ · F = (At X − At B)t C(At X − At B) + 2C1 (At X − At B) + c.

In particolare la matrice C′ dell’equazione σ · F è ACAt . Inoltre le formule (7.9) e (7.10) diventano

det(C′ ) = det(C), det(C′ ) = det(C), (7.16)

poichè det(A) = ±1.

Definizione 7.22. Diremo che due iperquadriche F̂, Ĝ ∈ H2 (n, R) di En (R) sono metricamente equivalenti,
e scriveremo F̂ ∼ Ĝ, se esiste un’isometria σ ∈ Aut(En (R)) tale che σ · F̂ = Ĝ. In altre parole due
iperquadriche F̂, Ĝ ∈ H2 (n, R) di En (R) sono metricamente equivalenti se e solo se appartengono alla
stessa orbita di M2 (n, R) rispetto all’azione

Aut(En (R)) × M2 (n, R) → M2 (n, R)

del gruppo Aut(En (R)) sull’insieme M2 (n, R) delle iperquadriche (si veda (7.5)).
Il problema della classificazione metrica delle iperquadriche di En (R) è di determinare un rappre-
sentante canonico in ogni classe di equivalenza metrica delle iperquadriche di En (R) (o in ogni orbita
rispetto all’azione sopra considerata).
Per il Teorema 3.30 esiste una matrice ortogonale A ∈ O(n) tale che la matrice ACAt è diagonale.
Poichè det(ACAt − TIn ) = det(A(C − TIn )At ) = det(C − TIn ) (la matrice A essendo ortogonale, si ha
At = A−1 ), gli elementi della diagonale principale d1 , ..., dn della matrice ACAt sono tutti gli autovalori di
C. Se A = |ai j |i, j=1,...,n allora l’automorfismo affine
n
X
yi = ai j x j , i = 1, . . . , n,
j=1

è un’isometria. Quindi otteniamo:


Corollario 7.23. Ogni iperquadrica di En (R) di equazione (7.6) è metricamente equivalente ad una iperquadrica
di equazione
d1 X12 + · · · + dn Xn2 + 2c1 X1 + · · · + 2cn Xn + c, (7.17)
dove d1 , ..., dn sono gli autovalori di C.
Se α è una permutazione di {1, ..., n} allora l’automorfismo affine di equazioni

yi = xα(i) , ∀i = 1, ..., n

è un’isometria di En (R) (esercizio lasciato al Lettore). Utilizzando questo fatto segue che l’iperquadrica
di equazione (7.17) è metricamente equivalente all’iperquadrica di equazione

d1 X12 + · · · + dr Xr2 + 2c1 X1 + · · · + 2cn Xn + c, (7.18)

con 1 ≤ r ≤ n e d1 , ..., dr non nulli. Inoltre, utilizzando l’isometria di equazioni

yi = xi + ci /di , i = 1, ..., r, y j = x j , j = r + 1, ..., n,

si deduce che l’iperquadrica di equazione (7.18) è metricamente equivalente all’iperquadrica di equazione

F := d1 X12 + · · · + dr Xr2 + 2cr+1 Xr+1 + · · · + 2cn Xn + c′ , (7.19)


103

con 1 ≤ r ≤ n e d1 , ..., dr non nulli.


Se almeno uno dei coefficienti cr+1 , ..., cn è non nullo, allora esiste un a > 0 tale che a2 (c2r+1 + · + c2n ) = 1.
Quindi, con un ragionamento simile a quello della dimostrazione del Teorema 3.30 segue che possiamo
determinare dei numeri reali ai j , i = r + 1, ..., n − 1, j = r + 1, ..., n, tali che la matrice
 
 ar+1,r+1 . . . ar+1,n 
 .. .. .. 

 . . .


 
 an−1,r+1
 . . . an−1,n 

−acr+1 . . . −acn

sia ortogonale. (Infatti l’uguaglianza a2 (c2r+1 + · + c2n ) = 1 ci dice che l’ultima riga della matrice è un vettore
in Rn−r di lunghezza 1; per trovare la matrice basta completare questo vettore ad una base ortonormale,
usando il procedimento di Gram-Schmidt.)
Allora utilizzando l’inversa σ dell’isometria di equazioni
yi = xi , i = 1, ..., r, y j = a j,r+1 xr+1 + · · · + a jn xn , j = r + 1, ..., n − 1,
c′
yn = −acr+1 xr+1 − · · · − acn xn − ,
2
deduciamo che l’iperquadrica σ · F̂ (si veda (7.19)) ha equazione
d′1 X12 + · · · + d′r Xr2 = 2Xn , 1 ≤ r ≤ n − 1, (7.20)
dove d′i = adi , i = 1, . . . , r con d1 , . . . , dr gli autovalori non nulli della matrice C. Inoltre, dopo una
permutazione opportuna possiamo anche supporre che d1 ≤ d2 ≤ · · · ≤ dr . Se il numero dei coefficienti
di di segno negativo supera il numero dei coefficienti d j di segno positivo, allora possiamo utilizzare la
simmetria
yi = xi , i = 1, ..., n − 1, yn = −xn
ed eventualmente un’altra permutazione opportuna (dopo aver moltiplicato l’equazione per −1) ci
permette come in (7.20) di supporre che il numero dei coefficienti di < 0 è ≤ numero dei coefficienti
d j > 0.
Supponiamo ora che cr+1 = · · · = cn = 0, e c′ , 0. È chiaro allora che l’iperquadrica di equazione
(7.19) è metricamente equivalente all’iperquadrica di equazione
d1 X12 + · · · + dr Xr2 = ±1, 1 ≤ r ≤ n, (7.21)
con d1 ≤ · · · ≤ dr . Inoltre, come nel caso precedente, possiamo supporre che il numero dei coefficienti
negativi non supera il numero dei coefficienti positivi.
In fine se cr+1 = · · · = cn = c′ = 0 allora l’iperquadrica di equazione (7.19) è metricamente equivalente
all’iperquadrica di equazione
d1 X12 + · · · + dr Xr2 = 0, 1 ≤ r ≤ n, (7.22)
con d1 ≤ · · · ≤ dr , e il numero dei coefficienti negativi non supera il numero dei coefficienti positivi.
A questo punto possiamo formulare il teorema fondamentale della classificazione euclidea delle
iperquadriche di En (R).
Teorema 7.24. Ogni iperquadrica En (R) è metricamente equivalente ad una ed una sola delle seguenti iperquadriche
canoniche:
Γ0p,r;d1 ,...,dr : −d1 x21 − · · · − dp x2p + dp+1 x2p+1 + · · · + dr x2r = 0, dr = 1,
2 2 2 2
Γ−1
p,r;d1 ,...,dr : −d1 x1 − · · · − dp xp + dp+1 xp+1 + · · · + dr xr = −1, r , 2p,

Γ1p,r;d1 ,...,dr : −d1 x21 − · · · − dp x2p + dp+1 x2p+1 + · · · + dr x2r = 1,


Γ2p,r;d1 ,...,dr : −d1 x21 − · · · − dp x2p + dp+1 x2p+1 + · · · + dr x2r = 2xn ,
tali che d1 ≥ · · · ≥ dp > 0 < dp+1 ≤ · · · ≤ dr (in tutti i casi), 0 ≤ p ≤ [ 2r ] < r ≤ n (nei primi tre casi), e
0 ≤ p ≤ [ 2r ] < r ≤ n − 1 (nell’ultimo caso).
104 Capitolo 7. Iperquadriche affini

Prima di dimostrare il Teorema 7.24 enunciamo due corollari importanti.

Corollario 7.25. Ogni conica di E2 (R) è metricamente equivalente ad una ed una sola delle seguenti coniche
canoniche:

1. x21 = 0 (il cui luogo geometrico è una retta reale doppia).

2. d1 x21 + x22 = 0, con 0 < d1 ≤ 1 (il cui luogo geometrico è costituito da due rette immaginarie secanti o
complesse coniugate).

3. −d1 x21 + x22 = 0, con d1 > 0 (il cui luogo geometrico è costituito da due rette reali secanti).

4. d1 x21 = −1, con d1 > 0 (il cui luogo geometrico è costituito da due rette immaginarie parallele).

5. d1 x21 + d2 x22 = −1, con 0 < d1 ≤ d2 (il cui luogo geometrico è vuoto, infatti è un’ “ellisse immaginaria”).

6. d1 x21 = 1, con d1 > 0 (il cui luogo geometrico è costituito da due rette reali parallele).

7. d1 x21 + d2 x22 = 1, con 0 < d1 ≤ d2 (il cui luogo geometrico è un’ellisse reale; se d1 = d2 = d, otteniamo un
cerchio di raggio √1 ).
d

8. −d1 x21 + d2 x22 = 1, con d1 , d2 > 0 (il cui luogo geometrico è un’iperbole).

9. d1 x21 = 2x2 , con d1 > 0 (il cui luogo geometrico è una parabola).

Corollario 7.26. Ogni quadrica di E3 (R) è metricamente equivalente ad una ed una sola delle seguenti quadriche
canoniche:

1. x21 = 0 (piano reale doppio).

2. d1 x21 + x22 = 0, con 0 < d1 ≤ 1 (due piani immaginari secanti; in questo caso il luogo geometrico si riduce
alla retta x1 = x2 = 0).

3. d1 x21 + d2 x22 + x23 = 0, con 0 < d1 ≤ d2 ≤ 1 (cono immaginario di vertice l’origine; in questo caso il luogo
geometrico si riduce all’origine).

4. −d1 x21 + x22 = 0, con d1 > 0 (due piani reali secanti).

5. −d1 x21 + d2 x22 + x23 = 0, con d1 > 0, 0 < d2 ≤ 1 (cono reale).

6. d1 x21 = −1, con d1 > 0 (due piani immaginari paralleli; in questo caso il luogo geometrico è vuoto).

7. d1 x21 + d2 x22 = −1, con 0 < d1 ≤ d2 (cilindro ellittico immaginario; in questo caso il luogo geometrico è
vuoto).

8. d1 x21 + d2 x22 + d3 x23 = −1, con 0 < d1 ≤ d2 ≤ d3 (ellissoide immaginario; in questo caso il luogo geometrico è
vuoto).

9. −d1 x21 + d2 x22 + d3 x23 = −1, con d1 > 0, 0 < d2 ≤ d3 (iperboloide a due falde).

10. d1 x21 = 1, con d1 > 0 (due piani reali paralleli).

11. d1 x21 + d2 x22 = 1, con 0 < d1 ≤ d2 (cilindro ellittico reale).

12. d1 x21 + d2 x22 + d3 x23 = 1, con 0 < d1 ≤ d2 ≤ d3 (ellissoide reale).

13. −d1 x21 + d2 x22 = 1, con d1 , d2 > 0 (cilindro iperbolico).

14. −d1 x21 + d2 x22 + d3 x23 = 1, con d1 > 0, 0 < d2 ≤ d3 (iperboloide a una falda).

15. d1 x21 = 2x3 , con d1 > 0 (cilindro parabolico).


105

16. d1 x21 + d2 x22 = 2x3 , con 0 < d1 ≤ d2 (paraboloide ellittico).

17. −d1 x21 + d2 x22 = 2x3 , con d1 , d2 > 0 (paraboloide iperbolico).


Dimostrazione dell’unicità nel Teorema 7.24. Finora abbiamo dimostrato solo che ogni iperquadrica
di En (R) è metricamente equivalente ad uno delle forme canoniche Γap,r;d1 ,...,dr , con a = 0, ±1, 2, p, r,
d1 , . . . , dr come nel Teorema 7.24. Rimane da dimostrare che le forme canoniche del Teorema 7.24 non
sono a due a due metricamente equivalenti. In altre parole, se Γap,r;d ,...,d ∼ Γbp′ ,r′ ,d′ ,...,d′ , con a, b = 0, ±1, 2
1 r 1 r′
e p, r, d1 , ..., d2 , p′ , r′ , d′1 , ..., d′r′ come nell’enunciato del Teorema 7.24, allora a = b, p = p′ , r = r′ e di = d′i ,
∀i = 1, ..., r.
Innanzitutto osserviamo che se due iperquadriche date da due matrici simmetriche C e C′ (si veda
la Definizione 7.11) sono metricamente equivalenti allora rango(C) = rango(C′ ). Questo segue dal fatto
che C′ = ACAt con A ∈ O(n). In particolare, r = r′ .
D’altro canto usando il Corollario 6.12 (il teorema di Sylvester), facciamo vedere che a = b e p = p′ .
Per dimostrare questo fatto associamo al polinomio F (l’equazione dell’iperquadrica di partenza):
n
X n
X
F(X1 , . . . , Xn ) = c i j Xi X j + 2 ci Xi + c,
i, j=1 i=1

il polinomio omogeneo in X0 , X1 , . . . , Xn
n
X n
X
F(X0 , X1 , . . . , Xn ) = c i j Xi X j + 2 ci X0 Xi + cX02 . (7.23)
i, j=1 i=1

Allora il polinomio F(X0 , X1 , . . . , Xn ) ci dà una forma quadratica su Rn+1 . A questa forma quadratica è
associata la matrice C della Definizione 7.11.
Nel caso a = 0 si hanno: rango(C) = r (dove r = rango(C)) e la segnatura della forma quadratica
F(X0 , X1 , . . . , Xn ) è (p, r − p).
Nel caso a = −1 si hanno: rango(C) = r + 1 e la segnatura della forma quadratica F(X0 , X1 , . . . , Xn ) è
(p, r + 1 − p).
Nel caso a = 1 si hanno: rango(C) = r + 1 e la segnatura della forma quadratica F(X0 , X1 , . . . , Xn ) è
(p + 1, r − p).
1
Nel caso a = 2 si hanno: rango(C) = r + 2 (poichè 2X0 Xn = [(X0 + Xn )2 − (X0 − Xn )2 ]) e la segnatura
2
della forma quadratica F(X0 , X1 , . . . , Xn ) è (p + 1, r + 1 − p).
Dall’analisi dei casi sopra citati segue subito che a = b, p = p′ , r = r′ .
Rimane da dimostrare che di = d′i , ∀i = 1, ..., r. In questo senso osserviamo che dalla dimostrazione
dell’esistenza nell’enunciato del teorema segue che i coefficienti −d1 , . . . , −dp , dp+1 , . . . , dr sono pro-
porzionali agli autovalori non nulli della matrice C dell’iperquadrica. In particolare, le r-uple (d1 , . . . , dr )
e (d′1 , . . . , d′r ) sono proporzionali. Se a = 0, poichè dr = d′r = 1 ne segue di = d′i , ∀i = 1, ..., r.
Lemma 7.27. Nelle notazioni e ipotesi del Teorema 7.24, se le iperquadriche Γap,r;d ,...,d e Γap,r;d′ ,...,d′ , con a = ±1,
1 r 1 r
sono metricamente equivalenti, allora di = d′i , ∀i = 1, ..., r.

Dimostrazione. Sia α ∈ Aut(En (R)) un’isometria, data da Y = AX + B (con A matrice ortogonale), tale che
α · Γap,r;d ,...,d = Γap,r;d′ ,...,d′ . Se r = n allora possiamo procedere nel modo seguente. La matrice C (rispettiva-
1 r 1 r
mente, matrice C′ ) dell’iperquadrica Γap,r;d ,...,d (rispettivamente, dell’iperquadrica Γap,r;d′ ,...,d′ ) è una matrice
1 n 1 n
diagonale, avente la diagonale principale (−d1, ..., −dp, dp+1 , ..., dn ) (rispettivamente, (−d′1, ..., −d′p, d′p+1 , ..., d′n )).
Poichè C′ = ACAt , ne segue det(C′ ) = det(C) (poichè det(A) = det(At ) = ±1), i.e. d′1 d′2 · · · d′n = d1 d2 · · · dn .
D’altro canto d′i = λdi , ∀i = 1, 2, ..., n, ne segue λn = 1, da cui λ = 1, poichè λ > 0. In altre parole il lemma
è dimostrato se r = n.
Supponiamo ora r < n. Osserviamo che il sottospazio affine S di equazioni x1 = · · · = xr = 0 è
proprio l’insieme dei centri di entrambe le iperquadriche. Poichè α · Γap,r;d ,...,d = Γap,r;d′ ,...,d′ ne segue che
1 r 1 r
106 Capitolo 7. Iperquadriche affini

α(S) = S. Sia Y il sottospazio affine di equazioni xr+1 = · · · = xn = 0; poichè Y ⊥ S, segue che α(Y) ⊥ α(S),
quindi α(Y) ⊥ S. Quest’ultimo fatto implica che le equazioni di α(Y) sono xi = ai , i = r + 1, ..., n, con
ar+1 , ..., an ∈ R.
A questo punto possiamo identificare lo spazio Er (R) con i sottospazi affini Y e α(Y) via gli iso-
morfismi metrici τ1 (x1 , ..., xr) = (x1 , ..., xr, 0, ..., 0) e rispettivamente τ2 (x1 , ..., xr) = (x1 , ..., xr, ar+1 , ..., an). La
restrizione a Y dell’iperquadrica Γap,r;d1 ,...,dr corrisponde via τ1 all’iperquadrica Γap,r;d1,...,dr di Er (R), mentre
la restrizione a α(Y) dell’iperquadrica Γap,r;d′ ,...,d′ corrisponde via τ2 all’iperquadrica Γap,r;d′ ,...,d′ di Er (R).
1 r 1 r
r
Ponendo β := τ−12 ◦ (α|Y) ◦ τ1 , otteniamo un’isometria β ∈ Aut(E (R)) che realizza l’equivalenza metrica
tra le iperquadriche Γap,r;d ,...,d e Γap,r;d′ ,...,d′ di Er (R).
1 r 1 r
In questo modo ci siamo ridotti al caso r = n. 

Lemma 7.28. Nelle notazioni e ipotesi del Teorema 7.24, se le iperquadriche Γ2p,r;d1 ,...,dr e Γ2p,r;d′ ,...,d′ sono metrica-
1 r
mente equivalenti, allora di = d′i , ∀i = 1, ..., r.

Dimostrazione. Sia α ∈ Aut(En (R)) un’isometria tale che α · Γ2p,r;d1 ,...,dr = Γ2p,r;d′ ,...,d′ . Il ragionamento che
1 r
segue coinvolge certe nozioni elementari di geometria proiettiva. Consideriamo lo spazio affine euclideo
En (R) come il complementare dell’iperpiano “all’infinito” x0 = 0. In altre parole nello spazio proiettivo
Pn (R) di coordinate omogenee [x0 , x1 , . . . , xn ], En (R) si identifica con l’insieme

{[x0 , x1 , . . . , xn ] ∈ Pn (R) | x0 , 0}

tramite l’applicazione (x1 , . . . , xn ) → [1, x1 , . . . , xn ]. Le chiusure proiettive di Γ2p,r;d1 ,...,dr e Γ2p,r;d′ ,...,d′ in Pn (R)
1 r
hanno, rispettivamente, equazioni:

Γ̃2p,r;d1 ,...,dr : −d1 x21 − · · · − dp x2p + dp+1 x2p+1 + · · · + dr x2r = 2x0 xn ,


Γ̃2p,r;d′ ,...,d′r : −d′1 x21 − · · · − d′p x2p + d′p+1 x2p+1 + · · · + d′r x2r = 2x0 xn .
1

Supponiamo dapprima r < n − 1. Il luogo singolare di queste due iperquadriche proiettive è

S := {[x0 , x1 , . . . , xn ] ∈ Pn (R) | x0 = x1 = · · · = xr = xn = 0}.

D’altro canto, l’isometria affine α si estende ad un automorfismo proiettivo α̃ che fissa l’iperpiano
proiettivo x0 = 0. Inoltre, α̃ · Γ̃2p,r;d ,...,d = Γ̃2p,r;d′ ,...,d′ e α̃(S) = S. Quest’ultima uguaglianza implica che
1 r 1 r
α(T) k T, dove T è il sottospazio affine di En (R) di equazioni x1 = · · · = xr = xn = 0. Ora consideriamo il
sottospazio affine T′ di En (R) di equazioni xr+1 = · · · = xn−1 = 0. È chiaro che T′ ⊥ T e dim(T′ ) = n−dim(T).
Poichè α è un’isometria α(T′ ) ⊥ α(T), quindi α(T′ ) ⊥ T (poichè α(T) k T). Pertanto le equazioni di α(T′ )
sono della forma:
xr+1 = ar+1 , . . . , xn−1 = an−1 , con ar+1 , . . . , an−1 ∈ R.
Procedendo come nella dimostrazione del Lemma 7.27 identifichiamo Er+1 (R) con i sottospazi
affini T e α(T) via gli isomorfismi metrici τ1 (x1 , ..., xr, xr+1 ) = (x1 , ..., xr, 0, ..., 0, xr+1) e rispettivamente
τ2 (x1 , ..., xr, xr+1 ) = (x1 , ..., xr, ar+1 , ..., an−1 , xr+1). La restrizione a T dell’iperquadrica Γap,r;d1 ,...,dr corrisponde
via τ1 all’iperquadrica Γ2p,r;d1,...,dr di Er+1 (R), mentre la restrizione a α(T) dell’iperquadrica Γ2p,r;d′ ,...,d′ cor-
1 r

risponde via τ2 all’iperquadrica Γap,r;d′ ,...,d′ di Er+1 (R). Ponendo β := τ−1


2 ◦ (α|T) ◦ τ1 , otteniamo un’isometria
1 r

β ∈ Aut(Er+1 (R)) che realizza l’equivalenza metrica tra le iperquadriche Γ2p,r;d1 ,...,dr e Γ2p,r;d′ ,...,d′ di Er+1 (R).
1 r
In questo modo ci siamo ridotti al caso r = n − 1. Siano
n
X
yi = ai j x j + ci , i = 1, 2, ..., n,
j=1

le equazioni dell’isometria α con A := |ai j |i, j=1,...,n matrice ortogonale. In questo caso si osserva che
l’iperpiano proiettivo x0 = 0 è tangente ad entrambe le iperquadriche Γ̃2p,r;d ,...,d e Γ̃2p,r;d′ ,...,d′ solo nel punto
1 r 1 r
107

P = [0, 0, ..., 0, 1]. Poichè α̃ fissa l’iperpiano x0 = 0 ne segue che α̃(P) = P. Da qui ne segue che se d è la
retta di equazioni x1 = · · · = xn−1 = 0, α(d) k d. L’iperpiano affine H di equazione xn = 0 è perpendicolare
a d, quindi α(H) ⊥ α(d) (α è un’isometria), da cui deduciamo che α(H) k H. In particolare l’equazione
dell’iperpiano α(H) è della forma xn = bn con bn ∈ R. Ne segue che l’ultima equazione dell’isometria α si
n
P n
P
scrive yn = xn +bn . Quindi an1 = · · · = an,n−1 = 0, ann = 1 e cn = bn . Essendo A ortogonale, a2in = a2ni = 1;
i=1 i=1
n−1
P n−1
P
poichè ann = 1 (yn = xn + bn ), si ha a2in = a2ni = 0, da dove ain = ani = 0, ∀i = 1, ..., n − 1. In altre parole,
i=1 i=1
α è data da
n−1
X
yi = ai j x j + ci , i = 1, ..., n − 1, yn = xn + cn , con cn = bn .
j=1

Pertanto α · Γ2p,r;d ,...,d è un’iperquadrica nella cui equazione il coefficiente di xn è 2, mentre gli autovalori
1 r
della matrice C (la matrice dei coefficienti dei termini di grado 2) sono proporzionali a −d1 , ..., −dp,
dp+1 , ..., dn−1 . Poichè d’altro canto α · Γ2p,r;d ,...,d = Γ2p,r;d′ ,...,d′ , quanto detto sopra implica di = d′i , ∀i =
1 r 1 r
1, ..., n. 

Teorema 7.29. i) Un’iperquadrica F̂ ∈ H2 (n, R) non ha alcun centro se e solo se F̂ è metricamente equivalente a
una delle seguenti iperquadriche:
Γ2p,r;d1 ,...,dr : −d1 x1 − · · · − dp xp + dp+1 xp+1 + · · · + dr xr = 2xn ,

con d1 ≥ · · · ≥ dp > 0 < dp+1 ≤ · · · ≤ dr , e 0 ≤ p ≤ [ 2r ] < r ≤ n − 1.


ii) Un’iperquadrica affine reale F̂ ∈ H2 (n, R) ha un’ unico centro se e solo se F̂ è metricamente equivalente a
una delle seguenti iperquadriche:
Γ0p,n;d : −d1 x21 − · · · − dp x2p + dp+1 x2p+1 + · · · + dn x2n = 0, con 0 ≤ p ≤ [ n2 ], dn = 1,
1 ,...,dn

Γ±1
p,n;d1 ,...,dn
: −d1 x21 − · · · − dp x2p + dp+1 x2p+1 + · · · + dn x2n = ±1, con 0 ≤ p ≤ [ n2 ],

con d1 ≥ · · · ≥ dp > 0 < dp+1 ≤ · · · ≤ dn .

Coniche e quadriche
Coniche
Dalla classificazione delle coniche data dal Corollario 7.25 si deduce che una conica di E2 (R) è non
degenere se e solo se è isometrica ad uno dei seguenti tipi:
1. Ellisse immaginaria di equazione d1 x21 + d2 x22 = −1, con 0 < d1 ≤ d2 ;
2. Ellisse reale di equazione d1 x21 + d2 x22 = 1, con 0 < d1 ≤ d2 ;

3. Iperbole di equazione −d1 x21 + d2 x22 = 1, con d1 , d2 > 0;


4. Parabola di equazione d1 x21 = 2x2 , con d1 > 0.
In questa lista solo i casi 2, 3, 4 sono interessanti poichè i loro luoghi geometrici sono non vuoti.
In altre parole dobbiamo studiare le ellissi, le iperboli e le parabole nel senso “classico”. Ricordiamo in
questo caso che a una conica Γ di equazione
c11 x21 + 2c12 x1 x2 + c22 x22 + 2c1 x1 + 2c2 x2 + c = 0
vengono associate le matrici simmetriche seguenti:
 
c c12
! c11 c12 c1 
C = 11
 c2  .
, C = c21 c22
c21 c22  
c1 c2 c
108 Capitolo 7. Iperquadriche affini

Allora Γ è, per definizione, non degenere se e solo se det(C) , 0.


Inoltre dalla classificazione di sopra una conica Γ è

Conica rang(C) det(C) det(C)


Ellisse reale 3 <0 >0
Ellisse immaginario 3 >0 >0
Iperbole 3 ,0 <0
Parabola 3 ,0 0
Coppia di rette complesse coniugate 2 0 >0
Coppia di rette reali incidenti 2 0 <0
Coppia di rette distinte parallele 2 0 0
Retta doppia 1 0 0

Definizione 7.30. Ponendo a = √1 , b= √1 , x = x1 e y = x2 , l’ellisse di equazione d1 x21 + d2 x22 = 1 diventa


d1 d2
l’ellisse Γa,b di equazione
x2 y2
+ = 1, con a ≥ b > 0. (7.24)
a2 b2
In questo caso il punto O = (0, 0) è l’unico centro dell’ellisse Γa,b . L’ellisse Γa,b è una circonferenza se e
solo se a = b.
D’ora innanzi supponiamo a > b. I numeri a e b sono detti i semiassi di Γa,b . Le rette di equazioni
y = 0 e x = 0 sono assi di Γa,b nel senso della Definizione 7.20. Osserviamo esplicitamente che gli assi di
Γa,b sono le sole rette rispetto alle quali Γa,b è simmetrica.

I punti F1 = (c, 0) e F2 = (−c, 0) con c = a2 − b2 sono detti i fuochi di Γa,b . Infine, le rette d1 e d2 di
2 2
equazioni x = − ac e x = ac si chiamano le direttrici di Γa,b relative ai fuochi F1 e F2 , rispettivamente.

I fuochi hanno la seguente proprietà che li caratterizza:

Proposizione 7.31. Il luogo geometrico di Γa,b coincide con il luogo dei punti P ∈ E2 (R) tali che

d(P, F1 ) + d(P, F2 ) = 2a.

Dimostrazione. Esercizio per il Lettore. 

Proposizione 7.32. Il luogo geometrico di Γa,b (con a > b) coincide con il luogo dei punti P ∈ E2 (R) tali che

d(P, F1 ) d(P, F2 ) c
= = < 1.
d(P, d1) d(P, d2) a

Dimostrazione. Esercizio per il Lettore. 

Diamo due parametrizzazioni per l’ellisse Γa,b : una parametrizzazione trascendente



x = a cos θ


 θ ∈ [0, 2π),
 y = b sin θ,

e una parametrizzazione razionale:




 a(1 − t2 )

x=


 1 + t2

 t ∈ R. (7.25)


 2bt
y =
 ,
1 + t2
109

x2 y2
Figura 7.1: Ellisse: + = 1.
a2 b2

d2:x= -a2/c d1:x= a2/c

(-a,0) (a,0)
F 2(-c,0) F 1(c,0) x

Osserviamo che, nella parametrizzazione (7.25), al variare di t ∈ R, otteniamo tutti i punti dell’ellisse
tranne il punto (−a, 0). Per ovviare a questa difficoltà consideriamo la parametrizzazione razionale
seguente


 a(u2 − v2 )

 x=

 u2 + v2
(u, v) ∈ R2 \ {(0, 0)},


 (7.26)


 2buv
y = 2
 ,
u + v2
che si ottiene da (7.25) ponendo t = uv . In questo modo il punto (−a, 0) si ottiene ponendo u = 0 e
v = 1. Osserviamo che se nelle formule (7.26) sostituiamo la coppia (u, v) con una coppia non nulla
proporzionale (i.e. (au, av) con a , 0) allora le coordinate x, y non cambiano.

Sia P0 = (x0 , y0 ) ∈ Γa,b . Allora P0 è non singolare e la retta tangente a Γa,b in P0 ha equazione (si veda
(7.14))
xx0 yy0
+ 2 = 1.
a2 b

Definizione 7.33. Ponendo a = √1d , b = √1 ,


d1
x = x2 e y = x1 , l’iperbole di equazione −d1 x21 + d2 x22 = 1
2
diventa l’iperbole ∆a,b di equazione
x2 y2
− = 1. (7.27)
a2 b2
In questo caso il punto O = (0, 0) è l’unico centro dell’iperbole ∆a,b .
Le rette di equazioni y = 0 e x = 0 sono assi di ∆a,b nel senso della Definizione 7.20. Osserviamo
esplicitamente che gli assi di ∆a,b sono le sole rette rispetto alle quali ∆a,b è simmetrica.

I punti F1 = (c, 0) e F2 = (−c, 0) con c = a2 + b2 sono detti i fuochi di ∆a,b . Infine, le rette d1 e d2 di
2 2
equazioni x = − ac e x = ac si chiamano le direttrici di ∆a,b relative ai fuochi F1 e F2 , rispettivamente.
y
Le rette xa ± b = 0 si dicono gli asintoti di ∆a,b .

I fuochi hanno la seguente proprietà che li caratterizza:


110 Capitolo 7. Iperquadriche affini

Proposizione 7.34. Il luogo geometrico di ∆a,b coincide con il luogo dei punti P ∈ E2 (R) tali che
|d(P, F1) − d(P, F2 )| = 2a.

Dimostrazione. Esercizio per il Lettore. 

Proposizione 7.35. Il luogo geometrico di ∆a,b coincide con il luogo dei punti P ∈ E2 (R) tali che
d(P, F1 ) d(P, F2 ) c
= = > 1.
d(P, d1) d(P, d2) a

Dimostrazione. Esercizio per il Lettore. 

x2 y2
Figura 7.2: Iperbole: − = 1.
a2 b2

d2:x= -a2/c d1:x= a2/c

(-a,0) (a,0)
F 2(-c,0) F 1(c,0)

Diamo due parametrizzazioni per l’iperbole ∆a,b : una parametrizzazione trascendente:



x = a cosh θ


 θ ∈ R,
 y = b sinh θ,

una parametrizzazione razionale:




 a(1 + t2 )

x =


 1 − t2

 t ∈ R \ {−1, 1}. (7.28)


 2bt
y =
 ,
1 − t2
Come nel caso dell’ellisse, nella parametrizzazione (7.28), al variare di t ∈ R\{−1, 1}, otteniamo tutti i punti
dell’iperbole tranne il punto (−a, 0). Per ovviare a questa difficoltà consideriamo la parametrizzazione
razionale seguente 

 a(u2 + v2 )

x=

 u2 − v2
(u, v) ∈ R2 \ {(0, 0)}, u , ±v,


 (7.29)


 2buv
y = 2
 ,
u − v2
111

che si ottiene da (7.28) ponendo t = uv . In questo modo il punto (−a, 0) si ottiene ponendo u = 0 e v = 1.
Ricordiamo che
eθ + e−θ eθ − e−θ
cosh θ = , sinh θ = .
2 2
Sia P0 = (x0 , y0 ) ∈ ∆a,b . Allora P0 è non singolare e la retta tangente a ∆a,b in P0 ha equazione (si veda
(7.14))
xx0 yy0
− 2 = 1.
a2 b
1
Definizione 7.36. Ponendo p = d1 , x = x2 e y = x1 , la parabola di equazione d1 x21 = 2x2 diventa la
parabola Λp di equazione
y2 = 2px. (7.30)
La parabola non ha centro. Una sua parametrizzazione razionale è

 t2
x =



 2p t ∈ R. (7.31)

 y = t,

In questo caso, al variare di t ∈ R, si ottengono tutti i punti della parabola.


La retta di equazione y = 0 è un asse di Λp nel senso della Definizione 7.20. Osserviamo esplicita-
mente che l’asse di Λp è l’unica retta rispetto alla quale Λp è simmetrica.
p p
Il punto F = ( 2 , 0) è detto il fuoco di Λp . Infine, la retta d di equazione x = − 2 si chiama la direttrice
di Λp .
Il fuoco e la direttrice hanno la seguente proprietà che li caratterizza:
Proposizione 7.37. Il luogo geometrico di Λp coincide con il luogo dei punti P ∈ E2 (R) tali che
d(P, F) = d(P, d).

Dimostrazione. Esercizio per il Lettore. 


Sia P0 = (x0 , y0 ) ∈ Λp . Allora P0 è non singolare e la retta tangente a Λp in P0 ha equazione (si veda
(7.14))
yy0 = p(x + x0 ).
Il teorema seguente è una delle conseguenze interessanti della classificazione euclidea delle coniche
(si veda il Corollario 7.25).
Teorema 7.38 (Bézout). Sia F̂ ∈ H2 (2, R) una conica non degenere di E2 (R) e Ĝ ∈ Hd (2, R) una curva algebrica
di grado d di E2 (R). Supponiamo che F non divida G in R[X, Y]. Allora
 
# V(F̂) ∩ V(Ĝ) ≤ 2d.

In altre parole il numero delle soluzioni del sistema algebrico



F(x, y) = 0



G(x, y) = 0

è ≤ 2d.
Per la dimostrazione del Teorema 7.38 abbiamo bisogno della seguente definizione:
Definizione 7.39. Sia f (X, Y) = a0 Xn + a1 Xn−1 Y + · · · an−1 XYn−1 + an Yn un polinomio omogeneo di grado
n a coefficienti in un campo K (e.g. K = R). Sia (x, y) ∈ K × K \ {(0, 0)} una coppia tale che
f (x, y) = a0 xn + a1 xn−1 y + · · · an−1 xyn−1 + an yn = 0.
Due siffatte coppie (x, y) e (x′ , y′ ) definiscono lo stesso zero di f (X, Y) se e solo se esiste a ∈ K \ {0} tale che
x = ax′ e y = ay′ . In altre parole uno zero di f (X, Y) è una siffatta coppia a meno di un fattore di K non
nullo.
112 Capitolo 7. Iperquadriche affini

Figura 7.3: Parabola: y2 = 2px.

d:x = -p/2
y P

F(p/2,0) x

Osservazione 7.40. È ben noto il fatto seguente: un polinomio non nullo f (X) ∈ K[X] di grado n ha al
più n radici in K. In altre parole se un polinomio f (X) ∈ K[X] di grado ≤ n ha almeno n + 1 radici in K
allora f (X) è il polinomio nullo.
Un analogo omogeneo di suddetto fatto è il seguente: se f (X, Y) = a0 Xn + a1 Xn−1 Y + · · · + an−1 XYn−1 +
n
an Y ∈ K[X, Y] è un polinomio omogeneo di grado ≤ n che ha almeno n+1 zeri nel senso della Definizione
7.39, allora f (X, Y) è il polinomio nullo. In altre parole se f (X, Y) è un polinomio omogeneo non nullo di
grado n ≥ 1, allora f (X, Y) ha al più n zeri. Infatti consideriamo il polinomio

g(Z) = a0 + a1 Z + · · · + an−1 Zn−1 + an Zn ∈ K[Z].

Osserviamo che gli zeri (x, y) di f (X, Y) con x , 0 sono in corrispondenza biunivoca con le radici di g(Z)
che sono n. Se invece la coppia (0, 1) definisce uno zero di f (X, Y) (i.e. an = 0) allora

f (X, Y) = X(a0 Xn−1 + a1 Xn−2 Y + · · · + an−1 Yn−1 ).

L’affermazione segue dal fatto che il polinomio in parentesi ha grado ≤ n − 1.

Ora possiamo dimostrare il Teorema 7.38.

Dimostrazione del Teorema di Bézout. Poichè la conica F̂ è non degenere, essa, per il Corollario 7.25, è
metricamente equivalente a una delle coniche seguenti (ellisse, iperbole e parabola):

x2 y2
Γa,b : + = 1,
a2 b2
x2 y2
∆a,b : − = 1,
a2 b2
Λp : y2 = 2px,

o un’ellisse immaginario. In quest’ultimo caso il luogo geometrico è vuoto e quindi non c’è nulla da
dimostrare. Rimane quindi da analizzare separatamente i tre casi sopraindicati. Il punto è che tutte queste
forme canoniche ammettono le parametrizzazioni razionali sopra citate. Analizziamo per esempio il caso
113

F̂ = Γa,b , essendo gli altri del tutto analoghi. In questo caso la parametrizzazione è


 a(u2 − v2 )

 x =

 u2 + v2
(u, v) ∈ R2 \ {(0, 0)}.


 (7.32)


 2buv
y = 2
 ,
u + v2
Determinare l’intersezione V(F̂) ∩ V(Ĝ) equivale a risolvere il sistema algebrico F(x, y) = G(x, y) = 0.
Poichè la conica F̂ = Γa,b ammette la parametrizzazione (7.32) dobbiamo quindi trovare le soluzioni
dell’equazione in (u, v) , (0, 0) seguente

a(u2 − v2 ) 2buv
G( , ) = 0.
u2 + v2 u2 + v2
a(u2 −v2 )
Innanzitutto osserviamo che la funzione G( u2 +v2 , u2buv
2 +v2 ), razionale in (u, v), non è identicamente nulla.

Se fosse identicamente nulla affermiamo che F dovrebbe dividere G. Infatti per il teorema di divisione
con resto in (R[Y])[X] possiamo scrivere

G(X, Y) = F(X, Y)q(X, Y) + A(Y)X + B(Y),


2 2
dove A(Y), B(Y) ∈ R[Y] (il resto è di grado ≤ 1 rispetto a X poichè F(X, Y) = Xa2 + Yb2 − 1; il caso della
parabola è ancora più semplice perchè il grado di F(X, Y) rispetto a X è 1). Dobbiamo dimostrare che
A(Y) e B(Y) sono polinomi nulli. Scriviamo

A(Y) = a0 + a1 Y + · · · + an Yn , e B(Y) = b0 + b1 Y + · · · + bn Yn ,
a(u2 −v2 ) a(u2 −v2 )
con n = max{deg(A(Y)), deg(B(Y))}. Poichè G( u2 +v2 , u2buv 2buv
2 +v2 ) e F( u2 +v2 , u2 +v2 ) sono identicamente nulle ne

segue che
2buv a(u2 − v2 ) 2buv
A( 2 2
) 2 2
+ B( 2 ) = 0, ∀ (u, v) ∈ R2 \ {(0, 0)}.
u +v u +v u + v2
Ponendo u = 0 otteniamo −aa0 + b0 = 0. D’altro canto, eliminando i denominatori, otteniamo

aa0 (u2 + v2 )n (u2 − v2 ) + 2aba1 uv(u2 + v2 )n−1 (u2 − v2 ) + · · · + 2n an abn un vn (u2 − v2 )+


+ b0 (u2 + v2 )n+1 + 2bb1 uv(u2 + v2 )n + · · · + 2bn bn un vn (u2 + v2 ) ∀ (u, v) ∈ R2 \ {(0, 0)}

da dove il coefficiente di u2n+2 è aa0 + b0 ed è nullo. Allora le uguaglianze aa0 + b0 = aa0 − b0 = 0 implicano
a0 = b0 = 0, i.e. A(Y) = YA′ (Y) e B(Y) = YB′ (Y), con A′ (Y), B′ (Y) ∈ R[Y]. In altre parole il resto si scrive
2buv
a(Y)X + b(Y) = Y(a′ (Y)X + b′ (Y)). Poichè Y = 2 non è la funzione nulla ne segue che
u + v2
2buv a(v2 − u2 ) 2buv
A′ ( 2 2
) 2 2
+ B′ ( 2 ) = 0, ∀ (u, v) ∈ R2 \ {(0, 0)}.
u +v u +v u + v2
Iterando il ragionamento fatto sopra si ottiene per induzione A(Y) = B(Y) = 0, cioè F | G.
Sia ora G(X, Y) = Gd (X, Y) + Gd−1 (X, Y) + · · · + G0 (X, Y) con Gi (X, Y) polinomio omogeneo di grado i,
i = 0, . . . , d, e Gd (X, Y) , 0. Quindi
1 1
Gd (a(u2 − v2 ), 2buv) + 2 Gd−1 (a(u2 − v2 ), 2buv) + · · · + G0 = 0,
(u2 + v2 )d (u + v2 )d−1
o ancora
Gd (a(u2 − v2 ), 2buv) + (u2 + v2 )Gd−1 (a(u2 − v2 ), 2buv) + · · · + (u2 + v2 )d G0 = 0.
Il primo membro di questa equazione è un polinomio omogeneo in u e v di grado al più 2d, e quindi ha
a(u2 −v2 )
al più 2d soluzioni, poichè G( u2 +v2 , u2buv
2 +v2 ) non è la funzione razionale nulla in u e v.

Il caso dell’iperbole è totalmente analogo, utilizzando la parametrizzazione (7.29). Invece per la parabola
si utilizza semplicemente la parametrizzazione (7.31). 
114 Capitolo 7. Iperquadriche affini

Definizione 7.41. Diremo che n punti distinti P1 , . . . , Pn di E2 (R), con n ≤ 5, sono in posizione generale se
a tre a tre sono non allineati. Con questa definizione ogni 2 punti distinti sono in posizione generale.
Proposizione 7.42. Per ogni cinque punti P1 , . . . , P5 di E2 (R) passa almeno una conica. Se P1 , . . . , P5 sono in
posizione generale per essi passa una sola conica ed essa è necessariamente non degenere.

Dimostrazione. Sia F̂ ∈ H2 (2, R) una conica, con

F(x, y) = c11 x2 + 2c12 xy + c22 y2 + 2c1 x + 2c2 y + c.

Conoscere la conica equivale a conoscere la matrice simmetrica 3 × 3


 
c11 c12 c1 
 c2  .
C = c21 c22
 
c1 c2 c

Siano Pi = (ai , bi ), i = 1, . . . , n, n punti in E2 (R). La condizione che la conica F̂ passi per P1 , . . . , Pn si scrive
nella forma
c11 a2i + 2c12 ai bi + c22 b2i + 2c1 ai + 2c2 bi + c = 0, i = 1, . . . , n,
quindi otteniamo un sistema lineare omogeneo di n equazioni nelle 6 incognite che sono i coefficienti
della matrice C. Per la teoria dei sistemi lineari omogenei ne segue che lo spazio delle coniche che passano
per P1 , . . . , Pn è di dimensione ≥ 6 − n.
In particolare se n = 5 esiste almeno una conica F̂ che passa per i dati punti. Osserviamo che, se
i punti P1 , . . . , P5 sono in posizione generale, una tale conica è necessariamente non degenere (si usi il
Corollario 7.25).
Rimane da dimostrare l’unicità. Supponiamo per assurdo che ci sia un’altra conica Ĝ passante per
i punti P1 , . . . , P5 . Allora il teorema di Bézout, F | G e G | F, quindi Ĝ = F̂. 

Definizione 7.43. Siano F̂ e Ĝ due coniche distinte. Chiameremo il fascio di coniche generato da F̂ e Ĝ
l’insieme delle coniche Ĥ = Ĥλ,µ tali che

Hλ,µ = λF + µG, (λ, µ) ∈ R2 \ {(0, 0)}.

Corollario 7.44. Per ogni quattro punti P1 , . . . , P4 di E2 (R) in posizione generale passa un unico fascio di coniche.

Dimostrazione. Conseguenza immediata della Proposizione 7.42. 

Osservazione 7.45. In un fascio di coniche generato da due coniche distinte F̂ e Ĝ vi sono al più tre
coniche degeneri o tutte le coniche del fascio sono degeneri. Questo segue dalla Definizione 7.43 e dal
fatto che il determinante della matrice Cλ,µ associata alla conica Hλ,µ è un’equazione omogenea in λ e µ
di terzo grado.
Corollario 7.46 (Teorema di Pascal). Sia F̂ ∈ H2 (2, R) una conica non degenere di E2 (R) e sia P1 . . . P6 un
esagono inscritto in V(F̂). Supponiamo che le coppie delle rette (P1 P2 , P4 P5 ), (P3 P4 , P1 P6 ) e (P2 P3 , P5 P6 ) non siano
parallele. Allora i punti A = P1 P2 ∩ P4 P5 , B = P3 P4 ∩ P1 P6 e C = P2 P3 ∩ P5 P6 sono allineati.

Dimostrazione. (Plücker) Denotiamo con Li j l’equazione della retta passante per Pi e P j e consideriamo il
seguente polinomio di grado 3:

Gλ := L12 L34 L56 + λL16 L23 L45 , λ ∈ R.

Affermiamo innanzitutto che per ogni λ ∈ R, Gλ è un polinomio non-nullo di grado 3. Il fatto che Gλ , 0
per ogni λ ∈ R segue facilmente dal fatto che l’anello di polinomi R[X, Y] è fattoriale (si può anche
raggionare direttamente nel modo seguente: usando un opportuno cambiamento lineare di variabili
possiamo supporre che L12 = X e L34 = Y; allora il problema diventa banale - i dettagli sono lasciati al
115

Figura 7.4:
P3

P4
P2

P1 P5

P6

C A B

Lettore). D’ altro canto osserviamo che A, B, C ∈ V(Ĝλ ), ma A, B, C < V(F̂) (poichè, sempre per il Teorema
7.38, l’ intersezione di una retta e di una conica non degenere contiene al più 2 punti). È chiaro che il
grado di Gλ è ≤ 3. Supponiamo che il grado di Gλ sia ≤ 2. Poichè {P1 , . . . , P6 } ⊆ V(F̂) ∩ V(Ĝλ ) per ogni λ,
per il Teorema 7.38, F dividerebbe Gλ contro quanto osservato sopra.
Ora scegliamo un settimo punto P ∈ V(F̂) (P , Pi , per ogni i = 1, . . . , 6). Determiniamo λ in modo
che Gλ (P) = 0. In questo modo abbiamo determinato una curva algebrica di grado 3 (cubica) di equazione
Gλ = 0. Osserviamo che
V(F̂) ∩ V(Gˆλ ) ⊇ {P1 , . . . , P6 , P}.

Per il teorema di Bézout (Teorema 7.38) si ha che F | Gλ , i.e. Gλ = F · L, con L polinomio di grado 1.
D’altro canto osserviamo anche che
A, B, C ∈ V(Gˆλ ) \ V(F̂).
Allora ne segue che A, B e C appartengono alla retta di equazione L = 0. 

Esempio 7.47. Sia data la conica γ : 9x2 + 24xy + 16y2 − 20x + 30y = 0. Grazie ai criteri suesposti si
riconosce che γ é una parabola. Per ridurla a forma canonica cerchiamo innanzitutto gli autovalori di
!
9 12
12 16

il cui polinomio caratteristico é (9 − λ)(16 − λ) − 144. Quindi gli autovalori sono λ1 = 25, λ2 = 0. Gli
autovettori dell’autovalore 0 sono i vettori (x, y) tali che 9x + 12y = 0 e quindi sono (− 43 y, y), y ∈ R.
Un autovettore normalizzato é (− 54 , 53 ). Gli autovettori dell’autovalore 25 sono i vettori (x, y) tali che
9x + 12y = 25x e quindi ( 43 y, y), y ∈ R. Un autovettore normalizzato é ( 35 , 54 ). Pertanto otteniamo la
matrice ortogonale
 3 4 
 5 5 
  ,
A = 
 4 3 
−5 5
che diagonalizza la matrice simmetrica C, cioè
 3 4  !  3 
 5 5  5 − 54  !
9 12  25 0
ACAt = 
  
   = .
  12 16   0 0
− 54 3
5
4
5
3
5
116 Capitolo 7. Iperquadriche affini

Posto allora  
3
!
5 − 54  !
x 
  X
=  
y  4 3  Y
5 5

l’equazione della conica diventa


25X2 + 12X + 34Y = 0
cioè
25 6 18
(X + )2 + Y − =0
34 25 425
che con la traslazione ( 6
x′ = X + 25
18
y′ = Y − 425
prende forma
25 ′2
x y′ = −
34
Scriviamo le trasformazioni di coordinate che fanno passare dal vecchio sistema (x, y) al nuovo (x′ , y′ ) e
viceversa ( ′
x = 53 x + 45 y + 25 6
′ 4 3 18
y = − 5 x + 5 y − 425
(
x = 35 (x′ − 256
) − 45 (y′ + 425
18
)
4 ′ 6 3 ′ 18
y = 5 (x − 25 ) + 5 (y + 425 )

x′ y′ xy
6 18
Vertice (0, 0) ( ,− )
25 425
17 4 57
Fuoco (0, − ) (− ,− )
50 85 4250
3 4 6
Asse x′ = 0 x+ y+ =0
5 5 25
17 4 3 13
Direttrice y′ = − x+ y+ =0
50 5 5 34

Quadriche
Definizione 7.48. Ricordiamo che a una quadrica Q di equazione

c11 x21 + 2c12 x1 x2 + c22 x22 + 2c13 x1 x3 + 2c23 x2 x3 + c33 x23 + 2c1 x1 + 2c2 x2 + 2c3 x3 + c = 0

vengono associate le matrici simmetriche seguenti:


 
  c11 c12 c13 c1 
c11 c12 c13  c c22 c23 c2 
C =  21
 c23  ,
C = c21 c22 .
  c31 c32 c33 c3 
c31 c32 c33  
c1 c2 c3 c

Allora Q è, per definizione, degenere se det(C) = 0. Una quadrica che non è degenere (i.e. det(C) , 0) si
chiama non degenere.
Chiameremo semplicemente degeneri le quadriche degeneri Q tali che rang(C) = 3.
117

Dalla classificazione delle quadriche data dal Corollario 7.26 si deduce che una quadrica di E3 (R)
è non degenere se e solo se è isometrica ad uno dei seguenti tipi:

1. d1 x21 + d2 x22 + d3 x23 = −1, con 0 < d1 ≤ d2 ≤ d3 : ellissoide immaginario; in questo caso il luogo
geometrico è vuoto.

2. −d1 x21 + d2 x22 + d3 x23 = −1, con d1 > 0, 0 < d2 ≤ d3 : iperboloide a due falde.

3. d1 x21 + d2 x22 + d3 x23 = 1, con 0 < d1 ≤ d2 ≤ d3 : ellissoide reale.

4. −d1 x21 + d2 x22 + d3 x23 = 1, con d1 > 0, 0 < d2 ≤ d3 : iperboloide a una falda.

5. d1 x21 + d2 x22 = 2x3 , con 0 < d1 ≤ d2 : paraboloide ellittico.

6. −d1 x21 + d2 x22 = 2x3 , con d1 , d2 > 0: paraboloide iperbolico.

x 2 y 2 z2
Figura 7.5: Ellissoide: + + = 1.
a2 b2 c2

x2 y 2 z2
I piani di equazione x = 0, y = 0, z = 0 sono assi dell’ellissoide di equazione + + 2 = 1,
a2 b2 c
x 2 y 2 z2
dell’ iperboloide a una falda di equazione + 2 − 2 = 1 e dell’iperboloide a due falde di equazione
a2 b c
x 2 y 2 z2
− − + = 1 nel senso della Definizione 7.20.
a2 b2 c2
118 Capitolo 7. Iperquadriche affini

x 2 y 2 z2
Figura 7.6: Iperboloide a una falda: + − = 1.
a2 b2 c2

Inoltre dalla classificazione di sopra ne segue che una quadrica Q è:

Quadrica rang(C) det(C) det(C) autovalori di C


Ellissoide reale 4 <0 ,0 dello stesso segno
Ellissoide immaginario 4 >0 ,0 dello stesso segno
Iperboloide a una falda 4 >0 ,0 non dello stesso segno
Iperboloide a due falde 4 <0 ,0 non dello stesso segno
Paraboloide iperbolico 4 >0 0 due non nulli di segno opposto
Paraboloide ellittico 4 <0 0 due non nulli dello stesso segno
Cono reale 3 0 ,0 non dello stesso segno
Cono immaginario 3 0 ,0 dello stesso segno
Cilindro ellittico 3 0 0 due non nulli dello stesso segno
Cilindro reale iperbolico 3 0 0 due non nulli di segno opposto
Cilindro reale parabolico 3 0 0 due nulli
Coppia di piani reali distinti incidenti 2 0 0 due di segno opposto
Coppia di piani complessi coniugati 2 0 0 due dello stesso segno
Coppia di piani distinti paralleli 2 0 0 due nulli
Piano doppio 1 0 0 due nulli

Ogni quadrica non degenere Q è non singolare, i.e. Sing(Q) = ∅.


Le quadriche non degeneri che possiedono un centro sono l’ellissoide (reale e immaginario) e
l’iperboloide a una o due falde. In questo caso il centro è unico.
Elenchiamo qui le forme canoniche delle quadriche semplicemente degeneri.
1. d1 x21 + d2 x22 + x23 = 0, con 0 < d1 ≤ d2 ≤ 1: cono immaginario di vertice l’origine; in questo caso il
luogo geometrico si riduce all’origine.
2. −d1 x21 + d2 x22 + x23 = 0, con d1 > 0, 0 < d2 ≤ 1: cono reale.

3. d1 x21 + d2 x22 = −1, con 0 < d1 ≤ d2 : cilindro ellittico immaginario; in questo caso il luogo geometrico
è vuoto.
119

x 2 y 2 z2
Figura 7.7: Iperboloide a due falde: − − + = 1.
a2 b2 c2

4. d1 x21 + d2 x22 = 1, con 0 < d1 ≤ d2 : cilindro ellittico reale.

5. −d1 x21 + d2 x22 = 1, con d1 , d2 > 0: cilindro iperbolico.

6. d1 x21 = 2x3 , con d1 > 0: cilindro parabolico.


Le quadriche semplicemente degeneri che possiedono un unico centro sono i coni (reali e immag-
inari). Nel caso di un cono reale il centro è anche l’unico punto singolare. Ogni cilindro reale Q è non
singolare.
Osservazione 7.49. Sia F̂ ∈ H2 (3, R) una quadrica di E3 (R) e H un iperpiano di equazione ax+by+cz+d =
0. Dato che (a, b, c) , (0, 0, 0) possiamo supporre che a , 0. La mappa

f : H → E2 (R), f (x, y, z) = (y, z)

definisce un’isomorfismo affine ( f non rispetta necessariamente le distanze). Allora, mediante l’identificazione
f , l’intersezione V(F̂) ∩ H è il luogo geometrico della conica di E2 (R) di equazione
!
by + cz + d
G(y, z) := F − , y, z .
a

Definizione 7.50. Sia F̂ ∈ Hd (3, R) una superficie di E3 (R). Diremo che F̂ è rigata se V(F̂) è unione di rette
di E3 (R). Una tale retta si chiama generatrice della superficie rigata F̂. Si chiama direttrice di F̂ una curva
giacente su F̂ cui si appoggiano tutte le generatrici. Se d = 2 e F̂ è rigata, diremo che F̂ è una quadrica
rigata.
Tra le quadriche sopra elencate quelle rigate sono: i coni reali, i cilindri reali, gli iperboloidi a una
falda e i paraboloidi iperbolici. Se Q è l’iperboloide a una falda di equazione −a2 x21 + b2 x22 + c2 x23 = 1, con
√ √ √
a = d1 , b = d2 , c = d3 e d1 > 0, 0 < d2 ≤ d3 , tutte e sole le rette di Q sono della forma
 
bx2 + ax1 = t(1 + cx3 ) bx2 + ax1 = u(1 − cx3 )

 

rt :  t ∈ R, ru :  u ∈ R,
t(bx2 − ax1 ) = 1 − cx3 ,
 u(bx2 − ax1 ) = 1 + cx3 ,

120 Capitolo 7. Iperquadriche affini

x2 y2
Figura 7.8: Paraboloide ellittico: 2z = + .
a2 b2

e inoltre  
bx2 − ax1 = 0 bx2 − ax1 = 0

 

rt=∞ :  ru=∞ : 
1 + cx3 = 0,
 1 − cx3 = 0.

Queste rette risultano facilmente mettendo l’equazione di Q nella forma

(bx2 + ax1 )(bx2 − ax1 ) = (1 + cx3 )(1 − cx3 ).

Gli insiemi {rt | t ∈ R ∪ {∞}} e {ru | u ∈ R ∪ {∞}} si chiamano regoli dell’iperboloide a una falda Q.
√ √
Se Q è il paraboloide iperbolico di equazione −a2 x21 + b2 x22 = 2x3 , con a = d1 , b = d2 e d1 , d2 > 0,
tutte e sole le rette di Q sono della forma
 

bx 2 + ax 1 = t bx2 − ax1 = u


r′t :  ′

t ∈ R, ru :  u ∈ R,
t(bx2 − ax1 ) = 2x3 ,
 u(bx2 + ax1 ) = 2x3 ,

e inoltre  
bx2 − ax1 = 0 bx2 + ax1 = 0

 

r′t=∞ :  r′u=∞ : 
x3 = 0,
 x3 = 0.

Osserviamo però che in questo caso le rette r′t=∞ e r′u=0 (rispettivamente r′u=∞ e r′t=0 ) coincidono. Queste
rette risultano facilmente mettendo l’equazione di Q nella forma

(bx2 + ax1 )(bx2 − ax1 ) = 2x3 .

Le rette dei regoli (sia dell’iperboloide a una falda che del paraboloide iperbolico) godono delle seguenti
proprietà:
i) Due qualsiasi rette di un medesimo regolo sono sghembe.
ii) Ogni retta di un regolo incontra ogni retta dell’altro regolo.
iii) Per ogni punto P ∈ V(Q) passa una ed una sola retta di ogni regolo.
121

x2 y2
Figura 7.9: Paraboloide iperbolico: 2z = − .
a2 b2

iv) Per ogni P ∈ V(Q) il piano tangente a Q in P interseca V(Q) esattamente nelle due rette di V(Q) (dei
due regoli) passanti per P.
Definizione 7.51. Una quadrica Q = F̂ tale che #V(Q) = ∞ non degenere o semplicemente degenere si
dice di rotazione se la matrice C ha un autovalore doppio. Le forme canoniche delle quadriche di rotazione
sono le seguenti:
• d1 x21 + d2 x22 + d3 x23 = 1, con d1 = d2 > 0, d3 > 0: ellissoide rotondo con asse di rotazione x1 = x2 = 0;

• −d1 x21 + d2 x22 + d3 x23 = ±1, con d2 = d3 > 0, d1 > 0: iperboloide (a una o due falde) rotondo con asse
di rotazione x2 = x3 = 0;
• d1 x21 + d2 x22 = 2x3 , con d1 = d2 > 0: paraboloide rotondo con asse di rotazione x1 = x2 = 0;

• d1 x21 + d2 x22 = 1, con d1 = d2 > 0: cilindro rotondo con asse di rotazione x1 = x2 = 0;

• −d1 x21 + x22 + x23 = 0, con d1 > 0: cono rotondo con asse di rotazione x2 = x3 = 0.
Tagliando i suddetti luoghi geometrici con un qualsiasi piano perpendicolare all’asse di rotazione si
ottiene o una circonferenza o un punto o ∅. Quest’ultima proprietà spiega la terminologia.
Esempio 7.52. Vediamo ora un esempio di riduzione di una quadrica a forma canonica. Sia data la
quadrica F̂ di equazione
3x2 + y2 + 3z2 + 2xz + 2x − 2y + 6z + 3 = 0.
La matrice associata è  
 3 0 1 1 
 0 1 0 −1 
 
C =  
 1 0 3 3 
 
1 −1 3 3
122 Capitolo 7. Iperquadriche affini

il cui determinante é , 0 e quindi la quadrica è non degenere. Consideriamo ora la matrice


 
 3 0 1 
 0 1 0 
C =  
 
1 0 3
Il polinomio caratteristico di C è (3 − λ)2 (1 − λ) − (1 − λ) e gli autovalori di C sono λ1 = 1, λ2 = 2, λ3 = 4,
pertanto F̂ è un ellissoide. Dato che il punto (0, 0, −1) ∈ F̂, si tratta di un ellissoide a punti reali.
Gli autovettori relativi a λ1 sono dati dal sistema
(
2x + z = 0
x + 2z = 0
e quindi sono i vettori (0, y, 0), y ∈ R. Quelli relativi a λ2 sono le soluzioni del sistema
(
x+z=0
y=0
e quindi sono i vettori (x, 0, −x), x ∈ R. Infine gli autovettori relativi a λ3 si ottengono dal sistema
(
x−z=0
y=0
e quindi sono i vettori (x, 0, x), x ∈ R. Allora tre autovettori indipendenti e normalizzati associati agli
autovalori 1, 2, 4 sono rispettivamente
1 1 1 1
(0, −1, 0), ( √ , 0, − √ ), ( √ , 0, √ )
2 2 2 2
scelti in modo da ottenere una matrice di determinante 1. Quindi posto
√1 √1 
 
 0 2 2  
    X 
 x     
 y   −1 0 0   Y 
  = 
     
z 

 Z

1 1
0 −√ √
2 2

otteniamo √ √
X2 + 2Y2 + 4Z2 − 2X − 2 2Y + 4 2Z + 3 = 0
che con la traslazione  ′


 x = X − 1√

Y − √22
 ′

 y =

 z′ Z + 22

=
dá la forma canonica
x′2 + 2y′2 + 4z′2 = 1.
Si noti che i coefficienti di questa equazione sono gli autovalori 1, 2, 4. Da


 x′ = −y − 1


 √
 y′ = √1 x − √1 z − 2
√2

 2 2


z′ = √1 x + √1 z + 22 ,

2 2

otteniamo subito le equazioni degli assi dell’ellissoide:


 √   √
√1 x − √1 z − 2 = 0 1 1 2
y + 1 = 0  √2 x − √2 z − =0

 
 

 2 2 √2 √ 2
 √1 x + √1 z + 22 = 0,

 1 1 2 
 

√ x+ √ z+ = 0,  y + 1 = 0,
2 2 2 2 2

il centro C(0, −1, −1).


123

Esercizi
Esercizio 7.1. Dimostrare che se P è un centro per l’iperquadrica F̂ ∈ H2 (n, R), per ogni automorfismo
affine σ ∈ AGLn (R), σ(P) è un centro per l’iperquadrica σ · F̂.
Esercizio 7.2. Trovare la forma canonica della conica di E2 (R) di equazione F = 2X12 − X22 + 4X1 X2 + 2X1 +
3X2 + 5.
Esercizio 7.3. Si dimostri che il luogo geometrico dei punti del piano E2 (R) tali che il rapporto tra le loro
distanze da una retta fissata d e da un punto fissato A è una costante e > 0, è il luogo geometrico di una
conica. Si dimostri che questa conica è un’ ellisse (non circonferenza), se e > 1, una parabola se e = 1, e
un’iperbole se 0 < e < 1.
Esercizio 7.4. Trovare la forma canonica della quadrica di E3 (R) di equazione F = 5X12 + 3X22 + X32 −
8X1 X2 + 8X2 X3 − 2X1 + 6X2 + 2X3 . Lo stesso problema per la quadrica di equazione G = 2X1 X2 + 2X2 X3 +
2X1 X3 + 4X1 − X2 + 3X3 + 2.
Esercizio 7.5. Sia F̂ ∈ H2 (2, R) una conica in E2 (R). Si dimostri che E2 (R) \ V(F̂) ha al più quattro
componenti connesse. (Suggerimento: usare il Corollario 7.25).
Esercizio 7.6. Consideriamo l’iperquadrica Γ1p,n;d1 ,...,dn di En (R) con 0 < p ≤ n2 e d1 ≥ · · · ≥ dp > 0 < dp+1 ≤
· · · ≤ dn . Si dimostri che
1
inf{d(O, P)2 | P ∈ V(Γ1p,n;d1 ,...,dn )} = ,
dn
dove d(O, P) è la distanza tra l’origine O = (0, ..., 0) e il punto P (l’estremo inferiore è assunto nel punto
P0 := (0, ..., 0, √1d ) ∈ V(Γ1p,n;d1 ,...,dn )).
n

Esercizio 7.7. In En (R) consideriamo la sfera (n − 1)-dimensionale Sn−1 (A, R) di centro A = (a1 , ..., an ) e di
n
P
raggio R di equazione f (x1 , ..., xn ) = (xi − ai )2 − R2 . Consideriamo una retta d che passa per un punto
i=0
fissato B = (b1 , ..., bn ) e che interseca la sfera Sn−1 (A, R) nei punti B1 e B2 . Si dimostri l’uguaglianza
−−→ −−→
hBB1 , BB2 i = f (b1 , . . . , bn ).
(Il valore f (b1 , . . . , bn ) si chiama la potenza del punto B rispetto alla sfera Sn−1 (A, R).
Esercizio 7.8. Utilizzando l’Esercizio 7.6 si dimostri che il prodotto delle distanze d(B, B1) · d(B, B2 )
coincide - a meno di un segno - con la potenza di B rispetto alla sfera Sn−1 (A, R). In particolare, questo
prodotto dipende solo dal punto B, e non dalla retta d passante per B e che interseca la sfera Sn−1 (A, R)
nei punti B1 e B2 .
Esercizio 7.9. Si dimostri che il luogo geometrico dei punti di E3 (R) aventi la stessa potenza rispetto a
due sfere non concentriche fissate è un piano perpendicolare alla retta che congiunge i centri delle due
sfere (questo piano è detto il piano radicale delle due sfere). Inoltre, il luogo geometrico dei punti di E3 (R)
aventi la stessa potenza rispetto a tre sfere di centri non collineari è una retta perpendicolare al piano
individuato dai centri delle tre sfere.
x2 y2
Esercizio 7.10. Si consideri l’iperbole Γ di E2 (R) di equazione 2 − 2 = 1 e un punto P ∈ V(Γ). Provare
a b
che le parallele agli asintoti passanti per P individuano con gli asintoti un parallelogramma di area
costante.
Esercizio 7.11. Siano date le seguenti quadriche:
xy − yz = 1, 3z2 + 2xy = 1
x2 + 4y2 − 6z2 − 2x + 8y − 2 = 0, x2 − 6xy = 2z + 3
x2 + y2 + z2 + z(3x − y − 1) = 0, 3x2 − xy + y2 = z + 3
xy + yz + xz = 1, xy + yz + xz = −1
x2 + y2 = z, (x + y − 6z)2 = 4z
x2 + y2 + 3yz − 2x + 4y = 0, z2 − y 2 = 3
x2 − xy + y2 − 2x = 1, (2x − 1)2 + z2 − 3z = 0
xy − xz + z2 = 1, 2x2 − xy + xz − yz + z2 − 3x + z = 0
124 Capitolo 7. Iperquadriche affini

a) Riconoscerle.
b) Trovare le schiere di rette reali delle eventuali rigate. Nel caso di coni e cilindri trovare il vertice e
una direttrice.
c) Riconoscere le quadriche di rotazione e individuarne l’ asse.
d) Determinare piani e assi di simmetria.
e) Scrivere delle equazioni parametriche razionali.
f) Ridurle a forma cononica.
Esercizio 7.12. Siano date due circonferenze tangenti C1 e C2 . Trovare il luogo geometrico dei centri
delle circonferenze tangenti a C1 e C2 . (Suggerimento: distinguere le varie configurazioni di C1 e C2 e
ragionare in modo sintetico utilizzando le caratterizzazioni metriche delle coniche).
Esercizio 7.13. Scrivere le equazioni di tutte le parabole aventi come asse la retta y = 2x e passanti per il
punto A(1, 0).
Esercizio 7.14. Determinare le iperboli equilatere (i.e. con asintoti perpendicolari) aventi come asintoto
la retta y = 3x e passanti per il punto (2, 0).
Esercizio 7.15. Scrivere l’equazione della conica avente per assi le rette x = y e x = −y e tangente alla
retta y = 3x − 5 nel punto (2, 1).
Esercizio 7.16. Determinare le equazioni delle coniche aventi centro nel punto (0, 1), tangenti alla retta
2x − y = 1 nel punto (1, 1) e tangenti alla retta x = 2y.
Esercizio 7.17. Determinare il luogo geometrico dei punti P per cui è costante il prodotto delle distanze
di P da due rette perpendicolari fissate.

x2 y2
Esercizio 7.18. Sia P un punto variabile del luogo geometrico dell’iperbole − = 1. Dimostrare che
a2 b2
il prodotto delle distanze di P dagli asintoti dell’iperbole è costante.
Esercizio 7.19. Sia Γλ la conica di E2 (R) di equazione

(2 − λ)x2 − 2λxy + (2 − λ)y2 − 8x − 8y + 8 = 0,

dove λ > 0 è un parametro.


i) Dimostrare che per ogni λ > 0 la retta di equazione x = y è un’ asse per Γλ .
ii) Riconoscere la conica Γλ (discussione secondo il parametro λ).
iii) Per quali valori di λ la conica Γλ possiede un centro?
iv) Trovare la forma canonica di Γλ con λ = 1.

Esercizio 7.20. Sia data la quadrica Q in E2 (R) di equazione

x2 + y2 + 3xz − 2y + 4x = 0.

i) Riconoscerla.
ii) Provare che Q è una rigata trovandone i regoli.
iii) Trovare le rette di Q che passano per l’origine.
125

Appendice A: Classificazione delle isometrie di E2(R) e di E3 (R)


Ricordiamo che un’ isometria di E2 (R) è la composizione di al più tre riflessioni rispetto a rette (si veda
il Corollario 5.13).
Indichiamo con σl la riflessione rispetto alla retta l, con ̺A,θ la rotazione intorno al punto A di
un angolo θ, −π < θ < π, e con τv la traslazione definita dal vettore v. Si danno i seguenti casi per
un’isometria σ , id.

i) σ = σl .
−→
ii) σ = σl ◦ σm : se l k m avremo σ = τv con v = 2AB ove A ∈ l e B è il piede della perpendicolare ad m
passante per A; se l ∩ m = A e θ = 2 <) (l, m) allora σ = ̺A,θ .

iii) σ = σl ◦ σm ◦ σn : se l k m k n allora σ = σp con p k l; se l ∩ m ∩ n = A allora σ = σp con p retta passante


per A; altrimenti possiamo supporre l k m e n incidente entrambe l e m, quindi σ = τv ◦ σn e v 6⊥ n,
allora, posto v = v1 + v2 con v1 k n e v2 ⊥ n, avremo

σ = τv1 ◦ τv2 ◦ σn = τv1 ◦ σp

con p k n, siffatta σ si chiama glissoriflessione.

In altre parole abbiamo enunciato il teorema di Chasles

Teorema 7.21. Una isometria di E2 (R) con almeno un punto fisso è l’identità, una rotazione (se speciale) o una
riflessione; se non ha punti fissi è una traslazione (se speciale) o una glissoriflessione.

Ricordiamo che un’ isometria di E3 (R) è la composizione di al più quattro riflessioni rispetto a piani
(si veda il Corollario 5.13).
Indichiamo con σπ la riflessione rispetto al piano π, con ̺l,θ la rotazione intorno alla retta l di
un angolo θ, −π < θ < π, e con τv la traslazione definita dal vettore v. Si danno i seguenti casi per
un’isometria σ , id.

i) σ = σπ .
−→
ii) σ = σπ ◦ σπ′ : se π k π′ avremo σ = τv con v = 2AB ove A ∈ π e B è il piede della perpendicolare ad
π′ passante per A; se π ∩ π′ = l e θ = 2 <
) (π, π′ ) allora σ = ̺l,θ .

iii) σ = σπ ◦ σπ′ ◦ σπ′′ : se π k π′ k π′′ allora σ = σπ′′′ con π′′′ k π; se π ∩ π′ ∩ π′′ = l allora σ = σπ′′′ con π′′′
piano passante per l; se π k π′ e π′′ incidente entrambi π e π′ , allora σ = τv ◦ σπ′′ e v 6⊥ π′′ , quindi,
posto v = v1 + v2 con v1 k π′′ e v2 ⊥ π′′ , avremo

σ = τv1 ◦ τv2 ◦ σπ′′ = τv1 ◦ σπ′′′

con π′′′ k π′′ , siffatta σ si chiama glissoriflessione; se dei tre piani non vi sono coppie parallele e
l = π′ ∩ π′′ con l k π avremo una glissoriflessione come sopra

σ = σπ ◦ ̺l,θ = τv ◦ σπ′′′

con π′′′ piano opportuno; se invece l ∩ π′′ = A allora σ è una riflessione rotatoria cioè

σ = ̺l,θ ◦ σπ′′′

con l ⊥ π′′′ e l ∩ π′′′ = A.

iv) σ = σπ ◦ σπ′ ◦ σπ′′ ◦ σπ′′′ : in questo caso σ è un avvitamento cioè

σ = τv ◦ ̺l,θ

con v k l.
126 Capitolo 7. Iperquadriche affini

In altre parole abbiamo enunciato il teorema di Eulero

Teorema 7.22. Una isometria di E3 (R) con un solo punto fisso è una riflessione rotatoria (isometria inversa); con
una retta di punti fissi è una rotazione (isometria diretta); con un piano di punti fissi è una riflessione (isometria
inversa). Se l’isometria non ha punti fissi è una traslazione o un avvitamento se diretta, una glissoriflessione se
inversa.

Definizione 7.23 (Angoli di Eulero). Sia A una matrice ortogonale 3 × 3 tale che det(A) = 1, Se pensiamo
A come matrice di passaggio da una base ortonormale B1 = {u1 , u2 , u3 } ad una base ortonormale B2 =
{v1 , v2 , v3 } allora    
v1 · u1 v2 · u1 v3 · u1  cos θ11 cos θ21 cos θ31 
   
A = v1 · u2 v2 · u2 v3 · u2  = cos θ12 cos θ22 cos θ32  (7.33)
   
v1 · u3 v2 · u3 v3 · u3 cos θ13 cos θ23 cos θ33
essendo vi · u j = cos θi j dove θi j :=<
) (vi , u j ) con 0 ≤ θi j < π.
È possibile esprimere A in funzione di al più 3 angoli, più precisamente è possibile scrivere
   
cos ϕ − sin ϕ 0 1 0 0  cos ψ − sin ψ 0
 0 0 − sin θ  sin ψ cos ψ 0
A = Rϕ,θ,ψ =  sin ϕ cos ϕ cos θ (7.34)
   
0 0 1 0 sin θ cos θ 0 0 1
 
cos ϕ cos ψ − cos θ sin ψ sin ϕ − cos ϕ sin ψ − cos θ cos ψ sin ϕ sin ϕ sin θ 
 − cos ϕ sin θ
= sin ϕ cos ψ + cos θ sin ψ cos ϕ − sin ϕ sin ψ + cos θ cos ψ cos ϕ
 
sin θ sin ψ sin θ cos ψ cos θ
dove 0 ≤ ϕ < 2π, 0 ≤ ψ < 2π, 0 ≤ θ ≤ π. Gli angoli θ, ϕ, ψ sono detti angoli di Eulero e sono detti
rispettivamente nutazione, rotazione propria e precessione. La matrice Rϕ,θ,ψ trasforma la base ortonormale
B1 nella base ortonormale B2 operando nel seguente modo:
1) la matrice dell’angolo di precessione ψ
 
cos ψ − sin ψ 0
 sin ψ cos ψ 0

 
0 0 1

ruotando la base B1 di un angolo ψ intorno al vettore u3 la porta in una base T = (t1 , t2 , u3 );


2) la matrice dell’angolo di nutazione θ
 
1 0 0 
0 cos θ − sin θ

 
0 sin θ cos θ

ruota la base T di un angolo θ intorno al vettore t1 portandola in una base S = (t1 , s2 , s3 );


3) infine la matrice dell’angolo di rotazione propria ϕ
 
cos ϕ − sin ϕ 0
 sin ϕ cos ϕ 0

 
0 0 1

ruota la base S di un angolo ϕ intorno al vettore s3 portandola in B2 . Notiamo che l’angolo di nutazione
è l’angolo tra i vettori u3 e v3 .
Gli angoli θ, ψ, ϕ possono determinarsi, tenendo conto dell’uguaglianza tra le matrici di (7.33) e (7.34)
attraverso la soluzione di equazioni trigonometriche. Da cos θ = v3 · u3 si ricava θ. Noto θ l’elemento
v1 · u3 individua sin ψ mentre v2 · u3 individua cos ψ e quindi viene conosciuto ψ. Infine v3 · u1 individua
sin ϕ mentre v3 · u2 individua cos ϕ e quindi si conosce ϕ.
Se det(A) = −1 allora A è della forma Rϕ,θ,ψ S dove S è una matrice diagonale avente sulla diagonale
principale 1 e un numero dispari di −1. S rappresenta le riflessioni rispetto ai piani individuati dai vettori
della base B1 .
127

Osservazione 7.24. Le rotazioni nello spazio non commutano tra loro, per esempio
 
 0 −1 0 
 
 √ √ 

 2 2 
R0, π4 ,0 R0,0, π2 =  2 0 − 
 2 

 √ √ 
 2 2 

0
2 2
mentre  √ √ 
 2 2 
0 − 
 2 2 
 
 
R0,0, π2 R0, π4 ,0 = 1  0 0  .
 

 √ √ 
 2 2 
0
2 2

Appendice B: Curve e superficie di E3 (R)


Si consideri la sfera di equazione
x2 + y2 + (z − r)2 = r2
e la stella di rette uscenti dal polo nord N = (0, 0, 2r), privata delle rette giacenti sul piano z = 2r
x y
= = z − 2r
u v
Ad ogni retta, cioè ad ogni coppia (u, v) è associato in modo biunivoco un punto della sfera, esattamente
l’ intersezione, diversa da N della retta con la sfera.
Dal sistema  2


 x + y2 + (z − r)2 = r2


 x = uz − 2ru

 y = vz − 2rv
si ha
(uz − 2ru)2 + (vz − 2rv)2 + (z − r)2 = r2
da cui
(u2 + v2 + 1)z2 − r(4u2 + 4v2 + 2)z + (4u2 + 4v2 )r2 = 0
Questa equazione in z ha ∆/4 = r2 e quindi le sue soluzioni sono
 2
r(2u2 + 2v2 + 1) ± r   (2u
 + 2v2 )r
z= = u2 + v2 + 1
u2 + v2 + 1 
 2r

la soluzione z = 2r non ci interessa, mentre l’altra, operando il cambiamento di parametri u → −u e


v → −v,fornisce il punto di coordinate

 x 2ru=
u2 + v2 + 1





 y = 2rv


 u2 +2 v2 + 21



 z (2u + 2v )r
=
u2 + v2 + 1
Altre equazioni parametriche della sfera di centro (x0 , y0 , z0 ) e raggio r.



 x = x0 + r cos θ sin ϕ


 y = y0 + r sin θ sin ϕ 0 ≤ θ < 2π, 0 ≤ ϕ ≤ π.

 z = z0 + r cos ϕ
128 Capitolo 7. Iperquadriche affini

Conoidi, coni e cilindri


• Siano A = 0, B = 0, C = 0 le equazioni di tre piani α, β, γ, rispettivamente, con α e β non paralleli. Sia
Φ(u, v) una funzione continua, allora
A
Φ( , C) = 0
B
rappresenta un conoide di asse la retta A = B = 0 con le generatrici parallele al piano C = 0.
• Siano A = 0, B = 0 le equazioni di due piani non paralleli α, β. Sia Φ(u, v) una funzione continua, allora
Φ(A, B) = 0
rappresenta un cilindro luogo di rette parallele alla retta A = B = 0.
• Un cono C di vertice V in R3 è una superficie luogo di rette uscenti da V.
Vale il seguente fatto:
Se f : D ⊂ R3 → R è una funzione omogenea di grado ν > 0 cioè f (tx, ty, tz) = tν f (x, y, z) per ogni
t ∈ R e per ogni (x, y, z) ∈ D, allora f (x, y, z) = 0 rappresenta un cono di vertice l’origine.
Viceversa vale che
Se un cono C di vertice l’origine è rappresentato da un’equazione polinomiale f (x, y, z) = 0, allora
f (x, y, z) è un polinomio omogeneo.
Esempio 7.25. 1) Sia k un intero positivo, la superficie (x − x0 )k + (y − y0 )k − (z − z0 )k = 0 rappresenta un
cono di vertice (x0 , y0 , z0 ). √p √p

2) La superficie di equazione xq + p yq − zq = 0, dove p è un intero positivo dispari e q è un intero
positivo primo con p, rappresenta un cono di vertice l’origine.
• Sia data la superficie algebrica F, passante per l’origine, di equazione f (x, y, z) = 0 dove f (x, y, z) ∈
R[x, y, z] e f (x, y, z) = g(x, y, z) + h(x, y, z), essendo g(x, y, z) il polinomio omogeneo di grado minimo
che compare in f (x, y, z). Allora g(x, y, z) = 0 rappresenta il cono delle rette tangenti a F nell’origine. In
particolare se il grado di g(x, y, z) è 1, g(x, y, z) = 0 rappresenta il piano tangente a F nell’origine.
Infatti se r è una retta del cono g(x, y, z) = 0 e ha equazioni parametriche (lt, mt, nt), le sue intersezioni
con la superficie si ottengono risolvendo l’equazione f (lt, mt, nt) = 0. Ma f (lt, mt, nt) = g(lt, mt, nt) + tkh̃(t),
se ∂g = k − 1, e quindi, essendo per ogni t, g(lt, mt, nt) = 0, nell’origine la molteplicità d’intersezione è
≥ k ≥ 2.

Il toro
Ruotiamo il cerchio di equazioni (
x=0
(y − 2r)2 + z2 = r2
intorno all’asse z. La superficie cosı̀ ottenuta si chiama toro. Dalla forma parametrica



 x = 0


 y = 2r + r sin θ

 z = r cos θ
otteniamo (
x2 + y2 + z2 = r2 (2 + sin θ)2 + r2 cos2 θ
z = r cos θ
da cui (
x2 + y2 = r2 (2 + sin θ)2
z = r cos θ
Essendo 2 + sin θ ≥ 0 si ha ( p
x2 + y2 = r(2 + sin θ)
z = r cos θ
p p
quindi ( x2 + y2 − 2r)2 + z2 = r2 , cioè x2 + y2 + z2 + 3r2 = 4r x2 + y2 , e finalmente (x2 + y2 + z2 + 3r2 )2 =
16r2 (x2 + y2 ).
Bibliografia

[1] E. Artin, Algebra Geometrica, Feltrinelli, Milano, 1968.


[2] L. Bădescu, Lezioni di Geometria (in romeno), Editura Universităţii Bucureşti, 1999.
[3] M.C. Beltrametti, E. Carletti, D. Gallarati, G. Monti Bragadin, Lezioni di Geometria Proiettiva, Bollati
Boringhieri, 2002.
[4] N. Bourbaki, Algèbre. Chapitre 2: Algèbre Linéaire, Hermann, Paris, 1967.
[5] D. Gallarati, Appunti di Geometria, E.S., Genova, 1969.
[6] I. M. Gelfand, Lezioni di Algebra Lineare, Izd. Nauka, Moscova, 1971.
[7] P. Halmos, Finite-dimensional Vector Spaces (2nd ed.), D. Van Nostrand Company, Inc., Princeton,
Toronto, London, New York, 1960.
[8] W.V.D. Hodge, D. Pedoe, Methods of Algebraic Geometry, Vol. I:Algebraic Preliminaries, Projective
spaces, Cambridge, 1947.
[9] S. Lang, Algebra (3rd ed.), Graduate Texts in Math., Springer, 2002.
[10] G. Nakos, D. Joyner, Linear Algebra with Applications, Brooks/Cole Publishing Company, Pacific
Grove,..., 1998.
[11] M. Reid, Undergraduate Algebraic Geometry, London Math. Soc. Student Texts 12, Cambridge U.P.,
1988.

[12] E. Sernesi, Geometria 1 (seconda edizione), Bollati Boringheri, Torino,1992.


[13] I.R. Shafarevich , Basic Algebraic Geometry 1 (2nd ed.), Springer-Verlag, Berlin, 1994.

129