Sei sulla pagina 1di 77

Appunti del Corso

GEOMETRIE di GALOIS
Antonio Maschietti

Dipartimento di Matematica
Università “La Sapienza”
ROMA

A.A. 2002–2003
ii 0.
Indice

1 Campi Finiti 1
1.1 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Polinomi in una indeterminata . . . . . . . . . . . . . . . . . . . 3
1.3 Polinomi in più indeterminate . . . . . . . . . . . . . . . . . . . . 7
1.4 Zeri di un polinomio . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Ampliamenti di campi . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Classificazione dei campi finiti . . . . . . . . . . . . . . . . . . . . 16
1.7 Estensioni algebriche di un campo finito . . . . . . . . . . . . . . 18
1.8 Polinomi su campi finiti . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Funzioni polinomiali . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.10 Il Teorema di Chevalley–Warning . . . . . . . . . . . . . . . . . . 24
1.11 Equazioni di secondo grado . . . . . . . . . . . . . . . . . . . . . 26

2 Geometria degli Spazi Vettoriali 29


2.1 Gruppi lineari e semilineari . . . . . . . . . . . . . . . . . . . . . 30
2.2 Lo spazio duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3 La struttura di SL(V ) . . . . . . . . . . . . . . . . . . . . . . . . 35

3 Geometria affine 39
3.1 Sottospazi affini . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Il gruppo affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4 Geometria proiettiva 47
4.1 Geometria affine e geometria proiettiva . . . . . . . . . . . . . . . 49
4.2 Informazioni numeriche sugli spazi proiettivi finiti . . . . . . . . 51
4.3 Gruppi proiettivi . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4 Dualità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5 Geometria Polare 57
5.1 Forme sesquilineari . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.2 Polarità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.4 Gruppi di isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.5 Geometria simplettica . . . . . . . . . . . . . . . . . . . . . . . . 64
iv 0. INDICE

5.5.1 Spazi polari simplettici . . . . . . . . . . . . . . . . . . . . 66


5.6 Geometria ortogonale . . . . . . . . . . . . . . . . . . . . . . . . 69
Capitolo 1

Campi Finiti

In questo capitolo esporremo gli aspetti fondamentali dei campi finiti, spesso
denominati anche campi di Galois. In particolare enunceremo e dimostreremo il
teorema che li caratterizza completamente e vedremo procedimenti costruttivi. I
prerequisiti che il lettore dovrebbe conoscere sono l’Algebra lineare e l’Algebra.
Come notazione, se A è un insieme finito il simbolo |A| indicherà il numero
degli elementi di A.

1.1 Campi
Un campo è un anello commutativo con unità i cui elementi non nulli formano
un gruppo. La definizione, per esteso, è la seguente.

Definizione 1.1 Un campo K è un insieme chiuso rispetto a due operazioni:


addizione, simbolo +, e moltiplicazione, simbolo · (o semplice giustapposizione),
tali che

1. (K, +) è un gruppo abeliano con elemento neutro 0;

2. (K ∗ , ·) è un gruppo abeliano con elemento neutro 1; qui K ∗ è l’insieme


degli elementi non nulli di K;

3. a(b + c) = ab + ac , (b + c)a = ba + ca, per ogni a, b, c ∈ K.

Come è usuale, l’opposto dell’elemento a è denotato con −a e l’inverso di b 6= 0


è denotato con b−1 (talvolta anche con 1/b).

♥ Esempio. Esempi ben noti di campi sono Q, R e C. Un altro esempio, che


è alla base della costruzione dei campi finiti, è Zp , cioè l’anello delle classi resto
modulo il numero primo p. Ci dilunghiamo un poco su questo esempio.
Sia m un numero intero maggiore di 1. Allora Zm viene costruito a partire
dalla relazione di equivalenza: x è equivalente ad y se, nella divisione per m, x e
y danno lo stesso resto. Si può verificare facilmente che si tratta di una relazione
2 1. Campi Finiti

di equivalenza. Le classi di equivalenza sono gli elementi di Zm . Questo insieme,


che consiste di m elementi, i possibili resti nella divisione per m, è un anello
rispetto alle operazioni di addizione e moltiplicazione cosı̀ definite. Denotiamo
con [a] la classe di equivalenza rappresentata da a ∈ Z. Definiamo

[a] + [b] = [a + b] , [a][b] = [ab] .

Il lettore verifichi che effettivamente si ottiene un anello (verifichi anche che le


definizioni delle due operazioni sono ben poste!).
Nel caso m = p, con p numero primo, Zp è un campo. A tal fine basta provare
che l’equazione [a][x] = [b], per ogni [a] 6= [0] (quindi a non è divisibile per p) e
b qualunque, ammette una ed una sola soluzione in Zp . Basta allora considerare
l’applicazione di Zp in sé
[x] 7→ [a][x]
e provare che è un’applicazione iniettiva. Intanto vediamo che [a][x] = [0] se e
solo se [x] = [0]. Infatti [a][x] = [ax] = [0] implica che p divide ax ed essendo p
un numero primo, allora p divide a oppure x. Poiché p non divide a, allora p deve
dividere x; quindi [x] = [0]. Sia ora [a][x1 ] = [a][x2 ]. Segue allora [a][x1 −x2 ] = [0]
e per quanto appena visto [x1 − x2 ] = [0], cioè [x1 ] = [x2 ]. Per concludere
non resta che osservare che ogni applicazione iniettiva tra insiemi finiti è anche
suriettiva e quindi biunivoca. ♥

Sia K un campo. Osserviamo che gli unici ideali di K (pensato come anello)
sono (0) e K. Infatti se I ⊆ K è un ideale e a ∈ I con a 6= 0, allora aa−1 = 1 ∈ I
e quindi I = K.
Introdurremo ora la nozione di caratteristica di un campo. Per ogni intero
positivo n ∈ N, definiamo n · 1 (qui 1 è l’identità moltiplicativa del campo K)
come la somma di 1 con se stesso n volte. È chiaro allora che n · 1 è un elemento
di K. Due casi possono verificarsi:
(1) n · 1 6= 0 per ogni n 6= 0, oppure
(2) esiste n > 1 tale che n · 1 = 0.
Nel caso (1) diremo che K ha caratteristica 0; nell’altro caso che K ha
caratteristica positiva. Inoltre, nel caso di caratteristica positiva, sia p il minimo
intero positivo (certo esistente) tale che p · 1 = 0. Proviamo che p deve essere
un numero primo. Se fosse p = rs con r > 1 ed s > 1 (quindi r < p ed s < p),
allora
p · 1 = (r · 1)(s · 1) = 0
con r · 1 e s · 1 entrambi non nulli; ciò è assurdo, dato che K non ha divisori
dello zero.
La caratteristica di K nel caso (2), in virtù di quanto precede, è il numero
primo p, definito come il minimo intero positivo tale che p · 1 = 0.
I campi Q, R e C hanno tutti caratteristica 0; mentre il campo Zp ha
caratteristica p (se p è un numero primo).
Un campo si dice finito se contiene un numero finito di elementi. È chiaro
che ogni campo finito ha caratteristica positiva p, con p numero primo.
1.2. Polinomi in una indeterminata 3

La procedura introdotta per definire la caratteristica di un campo porta a


considerarere l’applicazione f : Z → K, definita ponendo n 7→ f (n) = n · 1 (se è
n < 0, si ponga n · 1 = −(−n · 1). L’applicazione f è un omomorfismo di anelli,
il cui nucleo è
Ker(f ) = {n ∈ Z | n · 1 = 0} .
Si ha allora
(i) Ker(f ) = (0) se e solo se K ha caratteristica 0. In tal caso f è iniettiva.
Quindi K contiene un sottoanello isomorfo a Z e conterrà, allora, anche un
sottocampo isomorfo a Q, che è il campo dei quozienti dell’anello Z. Questo
sottocampo si chiama il sottocampo fondamentale di K;
(ii) Ker(f ) non si riduce al solo elemento nullo. Allora Ker(f ) è un ideale
di Z generato da un numero primo p. Quindi l’anello quoziente Z/(p) è un
campo isomorfo ad un sottocampo di K. Si può facilmente verificare che Z/(p)
è isomorfo a Zp . Il sottocampo di K isomorfo a Zp è il sottocampo fondamentale
di K.
La teoria degli spazi vettoriali ci permette di calcolare rapidamente il numero
degli elementi di un campo finito.
Proposizione 1.1 Sia K un campo finito di caratteristica p > 0. Allora il
numero degli elementi di K è una potenza di p, cioè |K| = pn , ove n è la di-
mensione di K pensato come spazio vettoriale sul suo sottocampo fondamentale.
Dimostrazione: Sia L il sottocampo fondamentale di K. Allora |L| = p.
Poiché K è finito, la sua dimensione come spazio vettoriale su L è finita. Sia
n questa dimensione. Se (a1 , . . . , an ) è una base di K su L, ogni elemento di
K si scrive in modo unico come combinazione lineare degli elementi della base.
Quindi K è in corrispondenza biunivoca con le n−ple ordinate di elementi di L.
Il numero di queste n−ple è pn .

La dimostrazione della proposizione precedente ci permette di conoscere la


struttura additiva del campo finito K. Infatti (K, +) è isomorfo al gruppo addi-
tivo Zp ×· · ·×Zp (n volte, se |K| = pn ). In generale la conoscenza della struttura
additiva non permette di ricavare agevolmente la struttura moltiplicativa. Ciò
rappresenta una delle maggiori difficoltà che si presentano nello studio dei campi
finiti. Vedremo più avanti una costruzione dei campi finiti che chiarisce la strut-
tura moltiplicativa del campo, legandola a quella additiva. A tal fine abbiamo
bisogno di richiamare alcune nozioni sui polinomi.

1.2 Polinomi in una indeterminata


Sia K un campo. Un polinomio nella indeterminata x è una espressione del tipo
f (x) = a0 + a1 x + · · · + an xn
ove a0 , a1 , . . . an ∈ K sono i coefficienti del polinomio f e gli esponenti del
simbolo x sono interi non negativi. Il coefficiente a0 è detto termine costante.
In questa espressione x è un simbolo tale che
4 1. Campi Finiti

(1) ax = xa per ogni a ∈ K


(2) xh = x · x · · · · · x (il prodotto è eseguito h volte con h intero ≥ 1)
(3) x0 = 1
(4) xh xk = xh+k .
Il polinomio i cui coefficienti sono tutti nulli si chiama il polinomio nullo.

♠ Osservazione. Una definizione più formale, ma rigorosa, considera un poli-


nomio come una successione quasi ovunque nulla di elementi di K; il simbolo
x e le sue potenze servono a stabilire l’ordine con cui si succedono gli elementi
della successione. ♠

L’insieme dei polinomi in x si denota con K[x]. Ciascuno dei termini ah xh ,


con ah 6= 0, che compaiono nell’espressione di f , è detto monomio di grado h.
Si definisce allora grado del polinomio non nullo f , da denotarsi con deg(f ), il
massimo grado dei monomi che lo compongono. Il grado di un polinomio non
nullo è un intero ≥ 0; il polinomio nullo ha grado indeterminato. I polinomi
di grado 0 sono tutti e soli gli elementi di K, che si chiamano anche polinomi
costanti o semplicemente costanti. Se an xn è il monomio di grado massimo che
compare nell’espressione di f , il coefficiente an 6= 0 è detto coefficiente direttore
di f .
Per definire l’operazione di addizione tra polinomi, conviene pensare ai poli-
nomi come successioni quasi ovunque nulle. In tal caso la somma di due polinomi
è la somma delle corrispondenti successioni, ed è facile verificare che (K[x], +)
è un gruppo abeliano con elemento neutro il polinomio nullo (il polinomio i cui
coefficienti sono
Pntutti uguali a zero).
PmIl prodotto di due polinomi è cosı̀ definito.
Se f (x) = i=0 ai xi e g(x) = j=0 bj xj sono due polinomi, allora

n+m
X
f (x)g(x) := ai bj xi+j .
i+j=0

È pressocché immediato verificare che K[x], con le due operazioni sopra definite,
è un anello commutativo con unità, privo di divisori dello zero. È anche facile
verificare che K[x] è uno spazio vettoriale su K di dimensione infinita, una sua
base essendo (1, x, x2 , . . . , xn , . . . ), n ∈ N.
Dalle definizioni che abbiamo dato segue facilmente che

Proposizione 1.2 Il grado del polinomio prodotto di due polinomi non nulli
uguaglia la somma dei loro gradi.

Vogliamo ora sottolineare alcune proprietà elementari dell’anello dei poli-


nomi K[x].

Teorema 1.1 (Algoritmo euclideo) Siano f e g polinomi di grado ≥ 0 di K[x].


Allora esistono, e sono unici, due polinomi q, r ∈ K[x] tali che

f = gq + r
1.2. Polinomi in una indeterminata 5

e deg(r) < deg(g). I polinomi q ed r si dicono rispettivamente il quoziente ed il


resto della divisione di f per g.

Dimostrazione: Scriviamo

f (x) = an xn + · · · + a0

g(x) = bm xm + · · · + b0 ,
ove n = deg(f ), m = deg(g), sicché an e bm sono entrambi non nulli. Il teorema
si dimostra per induzione su n.
Se n = 0 e deg(g) > deg(f ), poniamo q = 0 e r = f . Se deg(f ) = deg(g) = 0,
poniamo q = 0 e r = an b−1
m .
Si supponga che il teorema sia stato dimostrato per polinomi di grado < n
(con n > 0). Possiamo supporre deg(g) ≤ deg(f ) (altrimenti si assuma q = 0 e
r = f ). Allora
f (x) = an b−1
m x
n−m
g(x) + r1 (x)
dove deg(r1 ) < n. Per l’ipotesi induttiva, esistono q1 ed r tali che

r1 (x) = q1 (x)g(x) + r(x)

e deg(r) < deg(g). Allora

f (x) = an b−1
m x
n−m
g(x) + q1 (x)g(x) + r(x) = (an b−1
m x
n−m
+ q1 (x))g(x) + r(x)

e deg(r) < deg(g). Basta porre allora

q(x) = an b−1
m x
n−m
+ q1 (x)

per concludere la dimostrazione dell’esistenza di q ed r.


Per quanto riguarda l’unicità, si supponga che

f = q1 g + r1 = q2 g + r2 ,

con deg(r1 ) < deg(g) e deg(r2 ) < deg(g). Sottraendo si ha

(q1 − q2 )g = r2 − r1 .

Poiché
deg(r2 − r1 )) = deg((q1 − q2 )g) = deg(q1 − q2 ) + deg(g)
e deg(r2 − r1 ) < deg(g), la precedente uguaglianza può sussistere soltanto se
q1 − q2 = 0, cioè q1 = q2 , e quindi r1 = r2 , come era da dimostrare.

Questo teorema ha il seguente notevole corollario.

Corollario 1.1 L’anello dei polinomi K[x] è principale.


6 1. Campi Finiti

Dimostrazione: Sia I un ideale non nullo di K[x]. Sia poi g 6= 0 un elemento


di grado minimo in I. Se f ∈ I e f 6= 0, allora dal teorema precedente si ottiene

f = qg + r

con deg(r) < deg(g). Quindi r = f − qg è un elemento di I, ed essendo g di


grado minimo ≥ 0, risulta r = 0. Quindi I consiste di tutti i polinomi del tipo
qg, cioè I è un ideale principale.

Il polinomio f si dice divisibile per il polinomio non nullo g se f = qg, per


qualche polinomio q; il polinomio g si dice un divisore di f . Se g è un divisore
di f diremo anche che g divide f e scriveremo g|f .
È chiaro che tra i possibili divisori del polinomio non nullo f vi sono le
costanti non nulle ed f stesso; questi si dicono divisori banali di f . Diremo
allora che un polinomio di grado positivo è irriducibile se gli unici suoi divisori
sono quelli banali.
Dalla Proposizione 1.2 segue che ogni divisore proprio (cioè non banale) del
polinomio f ha grado maggiore od uguale ad 1 e strettamente minore del grado
di f . Si osservi in particolare che i polinomi di grado 1 sono irriducibili.
Proposizione 1.3 Ogni polinomio di grado positivo di K[x] si può esprimere
come prodotto di un numero finito di polinomi irriducibili e tale prodotto è unico,
a meno dell’ordine e di costanti moltiplicative.
Dimostrazione: Se f ha grado positivo e non è irriducibile, allora f = f1 f2 ,
con 1 ≤ deg(fi ) < deg(f ). Inoltre, deg(f1 ) + deg(f2 ) = deg(f ). Se fi non è
irriducibile, lo si può fattorizzare nel prodotto di polinomi di grado minore e
cosı̀ si può andare avanti fino a che si perviene ad un prodotto di necessità finito
di polinomi irriducibili.

I risultati che abbiamo ricordato permettono di introdurre la nozione di


massimo comun divisore (abbreviato, MCD) di due polinomi.
Definizione 1.2 Siano f, g ∈ K[x]. Un polinomio d ∈ K[x] è un massimo
comun divisore di f e g se verifica le due seguenti proprietà:
1. d divide sia f sia g
2. se h ∈ K[x] divide sia f sia g, allora h divide d.
La proposizione che segue prova l’esistenza di un MCD di due polinomi non
nulli.
Proposizione 1.4 Siano f, g polinomi non nulli di K[x]. Denotiamo con (f, g)
l’ideale generato da f e g. Allora (f, g) = (d) e d è un MCD di f e g.
Dimostrazione: Si ricordi che K[x] è un anello principale. Quindi (f, g) = (d),
per qualche polinomio d ∈ K[x]. Allora da

f ∈ (f, g) = (d) e g ∈ (f, g) = (d)


1.3. Polinomi in più indeterminate 7

segue che d|f e d|g. È cosı̀ verificata la prima condizione perché d sia un MCD
di f e g. Inoltre è anche d = rf + sg, per qualche r, s ∈ K[x] (infatti d ∈ (f, g)).
Sia ora h ∈ K[x] un divisore comune di f e g. Allora

f = wh e g = zh .

Si ha pertanto

d = rf + sg = r(wh) + s(zh) = (rw + sz)h

donde h|d. È cosı̀ verificata anche la seconda condizione e d è un MCD di f e g.

1.3 Polinomi in più indeterminate


In questo paragrafo accenniamo brevemente come possa definirsi l’anello dei
polinomi nelle n ≥ 1 indeterminate x1 , . . . , xn . Si assume che le xi possano
moltiplicarsi fra loro, e siano permutabili rispetto al prodotto, e che ciascuna di
esse verifichi le proprietà (1), (2), (3), (4) enunciate a riguardo dei polinomi in
una indeterminata. Si definisce allora polinomio nelle n indeterminate x1 , . . . , xn
ogni espressione del tipo
X
f (x1 , . . . , xn ) = a(k) xk11 . . . xknn
(k)

ove a(k) ∈ K, ciascun ki ≥ 0 è un intero e la sommatoria è fatta su tutte le


possibili n−ple ordinate (k) = (k1 , . . . , kn ) di K n con la condizione che a(k)
sia diverso da zero soltanto per un numero finito di n−ple. In altre parole, un
polinomio è la somma di un numero finito di termini del tipo a(k) xk11 . . . xknn . Il
polinomio a(k) xk11 . . . xknn con a(k) 6= 0 si dice monomio di grado totale k1 + k2 +
· · · + kn e di grado ki nella variabile xi , i = 1, . . . , n, e l’elemento a(k) ∈ K è
il coefficiente del monomio. Si definisce grado totale del polinomio f il massimo
grado totale dei monomi che lo compongono e grado nella variabile xi il massimo
grado nella xi dei suoi monomi.
Le operazioni di addizione e moltiplicazione sull’insieme K[x1 , . . . , xn ] dei
polinomi in n indeterminate possono definirsi agevolmente al seguente modo.
La somma dei polinomi f e g è il polinomio la cui espressione contiene sia
i monomi dell’espressione di f sia i monomi di quella di g. Per il prodotto,
dapprima si definisce il prodotto tra due monomi:

a(k) xk11 . . . xknn · b(h) xh1 1 . . . xhnn = a(k) b(h) xk11 +h1 . . . xknn +hn

quindi la si estende al prodotto tra due polinomi moltiplicando ciascun monomio


dell’uno per i monomi dell’altro e sommando.
L’insieme K[x1 , . . . , xn ] è un anello commutativo con unità, privo di divisori
dello zero.
8 1. Campi Finiti

1.4 Zeri di un polinomio


Iniziamo con una osservazione sulle notazioni adottate per i polinomi. Gene-
ralmente i polinomi vengono indicati con lettere latine minuscole o maiusco-
le, quali f oppure F , intendendo allora con il simbolo f (x1 , . . . , xn ) (oppure
F (x1 , . . . , xn )) la sua espressione come somma di un numero finito di monomi.
Si usa cioè la notazione “funzionale”, a voler significare che il polinomio f può
essere pensato come una funzione il cui “valore” in (x1 , . . . , xn ) è f (x1 , . . . , xn ).
Per tale motivo molto spesso le indeterminate (x1 , . . . , xn ) vengono anche dette
variabili. In effetti, con una precisazione, le cose vanno proprio cosı̀. Bisogna
interpretare le indeterminate o variabili xi come funzioni su K n a valori in K.
La variabile xi associa all’elemento (a1 , . . . , an ) ∈ K n la sua i−esima coordinata,
cioè ai . Pensate come funzioni, le xi sono dette funzioni coordinate. Possiamo
allora associare ad ogni polinomio f ∈ K[x1 , . . . , xn ] una funzione su K n a valori
in K. Sia infatti f ∈ K[x1 , . . . , xn ] e sia
X
f (x1 , . . . , xn ) = a(k) xk11 . . . xknn
(k)

la sua espressione. Definiamo la seguente applicazione, indotta da f , tra K n e


K, al seguente modo
X
(b1 , . . . , bn ) 7→ f (b1 , . . . , bn ) = a(k) bk11 . . . bknn ∈ K .
(k)

Si dice che l’elemento f (b1 , . . . , bn ) di K è stato ottenuto sostituendo alla n−pla


(x1 , . . . , xn ) la n−pla (b1 , . . . , bn ). La applicazione ora definita si dice la funzione
polinomiale determinata da f . Noi saremo interessati particolarmente alle n−ple
(b1 , . . . , bn ) ∈ K n tali che f (b1 , . . . , bn ) = 0: siffatte n−ple si dicono zeri od anche
radici del polinomio f nel campo K. Il problema della determinazione degli zeri
di un polinomio è fondamentale ed ha una importanza notevole nelle Geometrie
di Galois, come vedremo in seguito. Per il momento, enunciamo alcuni semplici
risultati sugli zeri di un polinomio in una variabile.
Teorema 1.2 Siano K un campo ed f un polinomio di K[x] di grado n. Allora
f ha al più n zeri in K e se a è uno zero di f , allora x − a divide f (x).
Dimostrazione: Sia f (a) = 0. Con l’Algoritmo euclideo determiniamo q ed r
tali che
f (x) = q(x)(x − a) + r(x)
e 0 ≤ deg(r) < 1. Quindi r è una costante e da
0 = f (a) = r(a)
segue r = 0. Pertanto x − a divide f (x). Se a1 , . . . , am sono zeri di f in K, allora
per induzione si vede che (x − a1 ) . . . (x − am ) divide f (x). Quindi
deg((x − a1 ) . . . (x − am )) = m ≤ deg(f ) = n
donde la conclusione.
1.4. Zeri di un polinomio 9

Corollario 1.2 Se K è un campo infinito ed il polinomio f ha per zero ogni


elemento di K, allora f è il polinomio nullo.

L’ipotesi che il campo sia infinito è essenziale. Sia infatti K un campo finito
con q = pn elementi. Per definizione, K ∗ , che contiene q − 1 elementi, è un
gruppo abeliano. Quindi per ogni a ∈ K ∗ risulta aq−1 = 1 (conseguenza del
teorema di Lagrange sui gruppi finiti). Ne segue anche, per a 6= 0, aq = a,
ovvero aq − a = 0. Sicuramente la uguaglianza appena scritta vale anche se
a = 0. Concludiamo che il polinomio xq − x ha per zero ogni elemento di K,
ma chiaramente non è il polinomio nullo. Questo fatto è un tratto distintivo dei
campi finiti, che approfondiremo in seguito.
Dal teorema precedente sappiamo che se a ∈ K è uno zero del polinomio f ,
allora x − a divide f (x). Si dice che a ∈ K è uno zero di molteplicità m, con
m ≥ 1 intero, se (x − a)m divide f (x), ma (x − a)m+1 non divide f (x). In altre
parole, la molteplicità dello zero a di f è la massima potenza di x − a che divide
f (x). Se la molteplicità dello zero a è strettamente maggiore di 1 diremo che a
è uno zero multiplo, od anche che è una radice multipla. Nel caso m = 1, lo zero
si dice semplice. Si può anche considerare il caso che m possa essere 0, cioè che
l’elemento a non sia uno zero di f . La definizione ora data può allora esprimersi
dicendo che per ogni a ∈ K esiste la fattorizzazione

f (x) = (x − a)m g(x)

con g polinomio non divisibile per x − a.


Vi è un criterio molto semplice per decidere se un polinomio ha zeri multipli
e tale criterio fa uso del concetto di derivata di un polinomio, che ora definiamo.
Sia D l’applicazione
D : K[x] → K[x]
dell’anello dei polinomi in sé, tale che se f (x) = a0 +a1 x+· · ·+ak xk +· · ·+an xn
con ai ∈ K, allora

Df (x) = f 0 (x) = a1 + · · · + kak xk−1 + · · · + nan xn−1 .

Il polinomio Df (x) = f 0 (x) si chiama la derivata del polinomio f e D è


l’operazione di derivazione. Questa definizione è puramente formale, ma co-
incide con la derivata di f , pensato come funzione della variabile x, nel caso
K = R.
Si verifica facilmente che se f , g sono polinomi di K[x], allora

(f + g)0 = f 0 + g 0 , (f g)0 = f 0 g + f g 0

e, se a ∈ K,
(af )0 = af 0 .

Proposizione 1.5 Sia f un polinomio di K[x]. L’elemento a ∈ K è uno zero


multiplo di f se e solo se f (a) = f 0 (a) = 0, cioè a è uno zero di f e di f 0 .
10 1. Campi Finiti

Dimostrazione: Dalla definizione di molteplicità possiamo scrivere


f (x) = (x − a)m g(x)
ove g(x) non è divisibile per x − a. Derivando questa espressione si trae
f 0 (x) = m(x − a)m−1 g(x) + (x − a)m g 0 (x) .
Se m > 1, allora evidentemente f 0 (a) = 0. Viceversa, se m = 1, allora f 0 (x) =
g(x) + (x − a)g 0 (x). Pertanto f 0 (a) = g(a) 6= 0. Dunque se è f 0 (a) = 0, allora
necessariamente m > 1.

La proposizione che segue segna una differenza tra i campi di caratteristica


0 e quelli di caratteristica positiva.
Proposizione 1.6 Sia f ∈ K[x]. Se K ha caratteristica 0 e deg(f ) ≥ 1, allora
f 0 non è il polinomio nullo. Supponiamo che K abbia caratteristica p > 0 e che
f sia un polinomio di grado ≥ 1. Allora f 0 è il polinomio nullo se e solo se
nell’espressione di f
n
X
f (x) = a0 + a1 x + · · · + an xn = ah xh
h=0

p divide ciascuno degli interi h per i quali ah 6= 0.


Dimostrazione: Se K ha caratteristica 0 e deg(f ) ≥ 1, allora la derivata del
monomio ah xh con ah 6= 0 che compare nell’espressione di f non è il polinomio
nullo, dato che questa derivata è hah xh−1 . Se invece K ha caratteristica p > 0,
allora la derivata di un tale monomio è il polinomio nullo se e solo p|h.

Concludiamo questo paragrafo con il Teorema del binomio.


Sia n un intero positivo. Per ogni intero k non negativo e minore od uguale
ad n si definisce coefficiente binomiale il numero, a priori razionale,
 
n n!
=
k k!(n − k)!
(si ricordi che n! = n(n − 1) . . . 2 · 1 è il fattoriale di n e che, per definizione,
0! = 1). Osserviamo che se k 6= 0 si ha
n! n(n − 1) . . . (n − k + 1)
= .
k!(n − k)! k!
Osserviamo anche che vale la seguente identità
     
n−1 n−1 n
+ = ,
k−1 k k
 
n
dalla quale con un semplice ragionamento induttivo si deduce che è un
k
numero intero.
1.5. Ampliamenti di campi 11

Teorema 1.3 Siano a, b elementi del campo K. Allora per ogni intero n ≥ 0
n  
n
X n n−k k
(a + b) = a b .
k
k=0

Dimostrazione: La dimostrazione si consegue facilmente per induzione su n,


osservando che
(a + b)n = (a + b)n−1 (a + b)
e avvalendosi della precedente osservazione.
 
p
Nel caso n = p sia un numero primo, si ha che p divide per 1 ≤ k ≤ p−1,
  k
p
dato che p divide il numeratore di , ma non il denominatore (è essenziale
k
che p sia un numero primo). Quindi come corollario del teorema del binomio
abbiamo
Teorema 1.4 Sia K un campo di caratteristica p > 0. Allora per a, b ∈ K si
ha
(a + b)p = ap + bp .
Osserviamo anche, sempre nel caso di un campo di caratteristica p > 0, che
ovviamente (ab)p = ap bp . Quindi l’applicazione a 7→ ap è un endomorfismo di
K, che risulta essere iniettivo, avendo nucleo nullo. Induttivamente, possiamo
r
concludere che per ogni intero r ≥ 1, l’applicazione a 7→ ap è un endomorfismo
di K, detto endomorfismo di Frobenius. Si osservi che nel caso che K sia finito,
a 7→ ap è un automorfismo.

1.5 Ampliamenti di campi


In questo paragrafo vogliamo compendiare le nozioni e i risultati principali sugli
ampliamenti dei campi, specie gli ampliamenti algebrici, che utilizzeremo per
pervenire alla classificazione dei campi finiti.
Sia K un campo. Se K è un sottocampo di un campo L, diremo che L è un
ampliamento di K. Spesso per indicare che L è un ampliamento del campo K
si suole scrivere L/K.
Sia L un ampliamento del campo K. Possiamo considerare L come uno spazio
vettoriale sopra K e diremo che L è un ampliamento finito oppure infinito di K a
seconda che la dimensione di L su K sia rispettivamente finita oppure infinita.
Denoteremo con [L : K] la dimensione di L su K. Il numero intero positivo,
oppure infinito, [L : K] si dice il grado dell’ampliamento L su K.
Proposizione 1.7 Sia K un campo e siano L ed M con L ⊂ M ampliamenti
di K. Allora
[M : K] = [M : L][L : K] .
Se {xi }i∈I è una base di L su K e {yj }j∈J è una base di M su F , allora
{xi yj }(i,j)∈I×J è una base di M su K.
12 1. Campi Finiti

Omettiamo la dimostrazione.
Sia L un ampliamento di K. Per α ∈ L definiamo
Iα := {f (x) ∈ K[x] | f (α) = 0} .
Iα è l’insieme di tutti i polinomi di K[x] che hanno α come zero. Questa
definizione è ben posta, nel senso che K[x] ⊂ L[x]: ogni polinomio a coefficienti
in K è anche un polinomio di L[x]; quindi f (x) ∈ K[x] induce una funzione
polinomiale su L.
È facile verificare che Iα è un ideale di K[x]. Poiché K[x] è a ideali principali,
esiste un polinomio p(x) ∈ K[x] tale che
Iα = (p(x)) .
Quindi ogni polinomio di Iα è un multiplo di p(x). Le possibilità per Iα sono
due:
(I) Iα = (0); non esiste cioè alcun polinomio non nullo di K[x] che abbia α
come zero: si dice che l’elemento α ∈ L è trascendente su K;
(II) Iα = (p(x)) e deg(p) ≥ 1. In questo caso l’elemento α ∈ L si dice algebrico
su K.
Esaminiamo più attentamente il caso che l’elemento α ∈ L sia algebrico su
K. Si ha Iα = (p(x)) e deg(p) ≥ 1. Tra tutti i polinomi f (x) ∈ K[x] che hanno
α come zero p(x) ha grado minimo e deg(p) = 1 se e solo se α ∈ K. Poiché p(x)
ha grado minimo, p è un polinomio irriducibile. Possiamo “normalizzare” p di
modo che abbia coefficiente direttore uguale ad 1, cioè renderlo monico. Con
questa normalizzazione p(x) si dice il polinomio minimo di α. Osserviamo che
essendo p(x) irriducibile, l’ideale (p(x)) è massimale e quindi l’anello quoziente
K[x]/(p(x))
è un campo. Abbiamo provato
Proposizione 1.8 Sia α ∈ L ⊃ K algebrico su K. Allora il polinomio minimo
di α è irriducibile e K[x]/(p(x)) è un campo.
Cerchiamo una descrizione per K[x]/(p(x)). A tal fine, denotiamo con K[α]
il sottoinsieme di L che consiste di tutte le combinazioni lineari finite delle
potenze di α a coefficienti in K. Si tratta evidentemente di un sottoanello di L.
Consideriamo l’omomorfismo di anelli
K[x] → K[α]
che è l’identità su K e trasforma x in α. È un omomorfismo suriettivo. Infatti
se γ ∈ K[α] allora
γ = a0 + a1 α + a2 α2 + · · · + as αs
e il polinomio
f (x) = a0 + a1 x + · · · + as xs
calcolato in α è esattamente γ. Sussiste allora la proposizione seguente.
1.5. Ampliamenti di campi 13

Proposizione 1.9 L’elemento α ∈ L ⊃ K è algebrico su K se e solo se


l’omomorfismo sopra definito ha nucleo non nullo. In tal caso il nucleo è l’
ideale principale Iα che abbiamo prima definito e se p(x) è il polinomio minimo
di α, si ha l’isomorfismo
K[x]/(p(x)) ≈ K[α]
e K[α] è il più piccolo sottocampo di L contenente K ed α.

♠ Osservazione. 1. Si può verificare che il campo di cui nella proposizione


precedente consiste di tutte le frazioni del tipo f (α)/g(α), con f e g polinomi
di K[x] e con g(α) 6= 0.
2. Si noti come la costruzione di K[α] sia formalmente analoga a quella di
K[x] e che produce un anello isomorfo a K[x] se e solo se α è trascendente
su K. Nel caso di α algebrico, K[α] consiste di tutte le combinazioni lineari a
coefficienti in K degli elementi 1, α, . . . , αn−1 , se il grado del polinomio minimo
di α è n (vedi proposizione successiva). ♠

Notazione. Siano a1 , . . . , an elementi di L ⊃ K. Con la scrittura K(a1 , . . . , an )


indicheremo il più piccolo sottocampo di L contenente K e a1 , . . . , an . Si può
facilmente verificare che K(a1 , . . . , an ) è l’intersezione di tutti i sottocampi di
L che contengono K e a1 , . . . , an . Con questa notazione il campo K[α] coincide
con K(α).

Proposizione 1.10 Sia α algebrico su K. Allora K[α] = K(α) è un amplia-


mento finito di K. Il grado [K(α) : K] uguaglia il grado del polinomio minimo
di α.

Dimostrazione: Sia p(x) = a0 + a1 x + · · · + xd il polinomio minimo di α.


Mostriamo che 1, α, . . . , αd−1 è una base per K[α] su K. Intanto quelle potenze
di α sono linearmente indipendenti (altrimenti vi sarebbe un polinomio di grado
d − 1 a coefficienti in K che ha α come zero). Mostriamo che sono un sistema
di generatori per K[α]. Sia infatti f (α) ∈ K[α] con f (x) ∈ K[x]. Con l’ausilio
dell’Algoritmo euclideo, possiamo scrivere

f (x) = q(x)p(x) + r(x)

con deg(r) < deg(p) = d. Quindi r(x) = b0 + b1 x + · · · + bs xs e s ≤ d − 1. Allora

f (α) = r(α) = b0 + b1 α + · · · + bs αs

è combinazione lineare di 1, α, . . . , αd−1 .

Questa proposizione suggerisce come costruire ampliamenti “simbolici” di


un campo K. Sia p(x) un polinomio irriducibile di K[x] con deg(p) ≥ 2. Si
noti allora che p(x) non ha zeri in K. Inoltre, K[x]/(p(x)) è un campo. Questo
campo consiste delle classi laterali f + (p), con f polinomio di K[x] di grado
al più deg(p) − 1. Sia α un simbolo che si possa moltiplicare con gli elementi
14 1. Campi Finiti

di K e verificante le proprietà formali (1), (2), (3) e (4) che abbiamo assegnato
per definire i polinomi in una indeterminata. Imponiamo ad α la condizione
p(α) = 0 e denotiamo con K[α] l’insieme di tutte le combinazioni lineari finite
di potenze di α. Allora K[α] è un anello, oltre che un spazio vettoriale su K. Si
ha inoltre un omomorfismo di anelli

K[x] → K[α]

che è l’identità su K e trasforma x in α. È un omomorfismo suriettivo il cui


nucleo è l’ideale (p(x)). Pertanto

K[x]/(p(x)) ∼
= K[α] .

Poiché p(x) è irriducibile, K[x]/(p(x)) ∼


= K[α] è un campo contenente K ed α.
Dunque K[α] è un ampliamento di K e l’elemento α è algebrico su K. Inoltre
K[α] ha dimensione finita su K. Quindi ogni elemento di K[α] è algebrico su K.
Convenendo di chiamare un ampliameno L di K algebrico su K se ogni elemento
di L è algebrico su K, abbiamo che K[α] è algebrico su K. Il campo K[α] si
chiama ampliamento simbolico di K con l’aggiunta dello zero simbolico α del
polinomio p(x).

♥ Esempio. 1. Sia x2 + 1 ∈ R[x]. È un polinomio irriducibile, dato che non ha


zeri in R. Sia i un simbolo tale che i2 + 1 = 0. Allora

R[x]/(x2 + 1) ∼
= R[i]

consiste di tutti e soli i polinomi di R[x] di grado al più 1 calcolati in i. Dunque

R[i] = {a + bi | a, b ∈ R} .

Il campo R[i] è il campo dei numeri complessi C.


2. Consideriamo il campo Z3 e sia p(x) = x2 + 1. Verifichiamo che p è
irriducibile in Z3 [x]. Basta a tal fine provare che p non ha zeri in Z3 . Denotiamo
con 0, 1, −1 gli elementi di Z3 (allora 1 + (−1) = 0, 1 + 1 = −1, −1 + (−1) = 1
e 1 · (−1) = −1, (−1)(−1) = 1). Si ha

p(0) = 1 , p(1) = 1 + 1 = −1 , p(−1) = (−1)2 + 1 = 1 + 1 = −1 .

Sia i un simbolo tale che i2 + 1 = 0. Si ottiene che il campo

Z3 [x]/(x2 + 1) ∼
= Z[i]

consiste di tutti e soli i polinomi di Z3 [x] di grado al più 1 calcolati in i. Dunque

Z3 [i] = {0, 1, −1, i, −i, 1 + i, 1 − i, −1 + i, −1 − i} .

È un campo finito di ordine 9.


1.5. Ampliamenti di campi 15

3. Consideriamo Z2 , i cui due elementi possiamo indicare con 0 ed 1 (allora


1 + 1 = 0). Il polinomio p(x) = x2 + x + 1 è irriducibile in Z2 [x]. Se ω è un
simbolo tale che p(ω) = 0, si ha che Z2 [ω] consiste degli elementi

Z2 [ω] = {0, 1, ω, 1 + ω} .

Notiamo che la condizione ω 2 + ω + 1 = 0 serve quando si voglia eseguire il


prodotto tra elementi del nuovo campo. Infatti, ad esempio,

ω(ω + 1) = ω 2 + ω = 1

ω2 = ω + 1
ω 3 = ω 2 ω = (ω + 1)ω = ω 2 + ω = 1 .

Questo procedimento simbolico di costruzione di estensioni algebriche di un


dato campo K, permette di affermare
Proposizione 1.11 Siano K un campo ed f un polinomio di K[x] con deg(f ) ≥
1. Allora esiste un ampliamento L di K nel quale f ha uno zero.
Per la dimostrazione basta osservare che ci si può ricondurre al caso che f sia
irriducibile ed applicare il procedimento di costruzione simbolica. Più general-
mente
Proposizione 1.12 Siano K un campo ed f1 , . . . , fs polinomi di K[x] tutti di
grado almeno 1. Esiste allora un ampliamento L di K nel quale ciascuno dei
polinomi fi ha uno zero, i = 1, . . . , s.
Dimostrazione: Sia L1 un ampliamento di K nel quale f1 ha uno zero. Con-
sideriamo f2 come polinomio di L1 [x]. Sia L2 un ampliamento di L1 ⊃ K nel
quale f2 ha uno zero. Si procede allora per induzione.

Definizione 1.3 Un campo L è detto algebricamente chiuso se ogni polinomio


di L[x] di grado positivo ha almeno uno zero in L.

Un esempio di campo algebricamente chiuso è il campo complesso (Teorema


fondamentale dell’Algebra).
Teorema 1.5 Sia K un campo. Esiste un ampliamento K di K che è algebrico
su K ed è algebricamento chiuso. Tale campo K è detto una chiusura algebrica
di K ed è univocamente determinato a meno di isomorfismi.
Dimostrazione omessa.
Osserviamo che in un campo algebricamente chiuso L ogni polinomio di
grado positivo ha in L tutti i suoi zeri e quindi si fattorizza nel prodotto
di polinomi tutti di grado 1. Questa osservazione rende possibile la seguente
definizione.
16 1. Campi Finiti

Definizione 1.4 Siano K un campo ed f ∈ K[x] un polinomio di grado positivo


n. Un ampliamento L di K è un campo di spezzamento per f su K se esistono
elementi a1 , . . . , an ∈ L e un elemento b ∈ K tali che
f (x) = b(x − a1 )(x − a2 ) . . . (x − an )
e L = K(a1 , . . . , an ).
Un campo di spezzamento per il polinomio f esiste sempre, come si prova con
un semplice ragionamento induttivo. Più precisamente
Proposizione 1.13 Sia f ∈ K[x] un polinomio di grado positivo n. Allora
esiste un campo di spezzamento L per f su K e risulta [L : K] ≤ n!.
Si può dimostrare, ma ometteremo la dimostrazione, che due campi di spezza-
mento per f su K sono sempre isomorfi fra loro, sicché si può parlare del campo
di spezzamento per un polinomio.

1.6 Classificazione dei campi finiti


I concetti introdotti nei precedenti paragrafi permettono di descrivere accurata-
mente la struttura dei campi finiti. Quindi in tutto questo paragrafo supporremo
che K sia un campo finito. La sua caratteristica è un numero primo p > 0 e il suo
sottocampo fondamentale lo identificheremo con Zp . Possiamo allora considera-
re K come ampliamento, sicuramente finito, di Zp . Sia n = [K : Zp ]. Abbiamo
già visto che K è isomorfo come spazio vettoriale su Zp al prodotto diretto di
n copie di Zp . In particolare
Proposizione 1.14 Se q è il numero degli elementi di K, allora q = pn .
Denotiamo con K ∗ il gruppo moltiplicativo di K, che è costituito dagli ele-
menti non nulli di K. Dunque K ∗ ha ordine q − 1. Abbiamo già osservato che
aq = a per ogni a ∈ K. Dunque ogni elemento di K è zero del polinomio xq − x.
Di conseguenza
Proposizione 1.15 Sia K una chiusura algebrica di K. Allora K coincide con
l’insieme degli zeri in K del polinomio xq − x. In particolare, K è il campo di
spezzamento del polinomio xq − x, ed ogni campo avente q elementi è necessari-
amente isomorfo a K.
Questa proposizione assicura dunque la unicità, a meno di isomorfismi, dei
campi finiti di q = pn elementi. Vediamo ora l’esistenza per ogni intero q = pn ,
p numero primo, di un campo con q elementi. Consideriamo una chiusura al-
gebrica, Zp , del campo finito Zp e sia K l’insieme degli zeri in Zp del poli-
nomio xq − x. Questo polinomio ha solo zeri semplici (infatti la sua derivata è
il polinomio costante −1). Quindi |K| = q. Inoltre, essendo q una potenza della
caratteristica di Zp , che è uguale a p, si ha, per ogni a, b ∈ K (quindi aq = a,
bq = b)
(a + b)q = aq + bq = a + b , (ab)q = aq bq = ab .
Dunque K è un sottocampo di Zp ; in particolare
1.6. Classificazione dei campi finiti 17

Proposizione 1.16 Per ogni numero primo p e per ogni intero n ≥ 1 esiste
un campo finito avente esattamente q = pn elementi.

Queste due proposizioni ci dicono, in sostanza, che ogni campo finito di or-
dine q = pn è isomorfo al campo di spezzamento del polinomio xq − x. Questo
campo è generalmente chiamato il campo di Galois di ordine q, e viene deno-
tato GF (q) (GF sta per Galois field. Altra notazione per il campo finito con q
elementi è F q ). Più generalmente, ogni campo finito è anche chiamato campo
di Galois.
Vogliamo ora esaminare la struttura additiva e moltiplicativa del campo
finito K = F q di q = pn elementi. Già sappiamo che come gruppo additivo
F q è isomorfo al prodotto cartesiano di n copie di Zp . Consideriamo allora il
gruppo moltiplicativo F ∗q . È un gruppo commutativo di ordine q − 1. Se N è il
minimo comune multiplo degli ordini degli elementi di F ∗q , allora esiste in F ∗q
un elemento g di ordine N . Inoltre, ogni elemento di F ∗q è zero del polinomio
xN − x, che ha grado N . Quindi deve essere N ≥ q − 1; ma per costruzione N
divide q − 1 e dunque N ≤ q − 1. In conclusione N = q − 1. Pertanto g è un
elemento di ordine q − 1 ed è un generatore di F ∗q . Abbiamo provato

Proposizione 1.17 Il gruppo moltiplicativo F ∗q è un gruppo ciclico di ordine


q − 1.

Questa proposizione permette di affrontare il problema della determinazione


delle radici m−esime in F ∗q , con m intero positivo. In altre parole ci proponiamo
di studiare l’endomorfismo
um : F ∗q → F ∗q
definito ponendo
um (x) = xm , x ∈ F ∗q .
L’immagine
Im(um ) = {y ∈ F ∗q | y = xm , x ∈ F ∗q }
è l’insieme delle potenze m−esime di F ∗q ; il nucleo

Ker(um ) = {x ∈ F ∗q | xm = 1}

è l’insieme delle radici m−esime dell’unità di F ∗q .


Sia d = M CD(q − 1, m). Allora l’ideale di Z generato da d coincide con
l’ideale generato da q − 1 e m. Pertanto esistono a, b ∈ Z tali che

d = a(q − 1) + bm .

Dal fatto che xq−1 = 1 per ogni x ∈ F ∗q e dall’uguaglianza precedente, segue


che um ed ud hanno lo stesso nucleo (infatti xd = xa(q−1)+bm = (xq−1 )a (xm )b =
(xm )b e d divide m). Quindi essendo F ∗q finito, si ha

|Im(um )| = |Im(ud )| .
18 1. Campi Finiti

Chiaramente Im(um ) ⊆ Im(ud ) e pertanto Im(um ) = Im(ud ). In definitiva ab-


biamo provato che gli endomorfismi um e ud hanno lo stesso nucleo e la stessa
immagine.
Sia g un generatore del gruppo ciclico F ∗q . Tenuto conto che d divide q −
1, allora Im(ud ) è il sottogruppo ciclico di F ∗q generato da g d e Ker(ud ) è il
sottogruppo ciclico generato da g (q−1)/d . Riassumiamo quanto sopra:

Proposizione 1.18 Siano F q il campo finito di q elementi, g un generatore di


F ∗q , m un intero positivo e d = M CD(q − 1, m). Allora:

(i) in F ∗q le potenze m−esime e le potenze d−esime formano lo stesso sot-


togruppo ciclico generato da g d e di ordine uguale a (q − 1)/d;

(ii) le radici m−esime e le radici d−esime dell’unità formano lo stesso sot-


togruppo ciclico generato da g (q−1)/d e di ordine uguale a d.

Corollario 1.3 Un elemento a ∈ F ∗q è una potenza m−esima se e solo se

a(q−1)/d = 1 .

1.7 Estensioni algebriche di un campo finito


In tutto questo paragrafo F q è il campo di Galois di ordine q = pn , con n ≥ 1.
Sia K una estensione algebrica di F q di grado finito m. Allora |K| = q m e
quindi K = F qm è il campo di Galois di ordine q m . Per ogni intero i ≥ 0 l’intero
q i è una potenza della caratteristica p; quindi l’applicazione

σi : F q m → F q m
i
definita da σi (a) = aq , a ∈ F qm , è un automorfismo di F qm che fissa tutti gli
elementi di F q . Sia j ≥ 0 un altro intero. Allora σi+j è un altro automorfismo
di F qm che fissa tutti gli elementi di F q ; inoltre

σi+j = σi ◦ σj = σj ◦ σi .

Si può dimostrare che quelli definiti, per 0 ≤ i ≤ m−1, sono tutti e soli gli auto-
morfismi di F qm che fissano tutti gli elementi di F q ; inoltre questi automorfismi
formano un gruppo ciclico di ordine m.
Definiamo le due seguenti applicazioni di F qm in F q :
l’applicazione traccia
2 m−1
T : F qm → F q , T(x) = x + xq + xq + · · · + xq

l’applicazione norma
2 m−1 m
−1)/(q−1)
N : F qm → F q , N(x) = x · xq · xq · · · · · xq = x(q .
1.8. Polinomi su campi finiti 19

Si ricordi che x ∈ F q se e solo se xq = x. È facile verificare che

T(x)q = T(x) e che N(x)q = N (x) ;

quindi T(x) e N(x) sono elementi di F q e T ed N sono effettivamente applicazioni


di F qm in F q .
Proposizione 1.19 Le applicazioni traccia e norma sono suriettive. Inoltre,
per x ∈ F qm ,
1. T(x) = 0 se e solo se esiste y ∈ F qm tale che x = y q − y;
2. N(x) = 1 se e solo se esiste y ∈ F ∗qm tale che x = y q−1 .
Dimostrazione: Diamo la dimostrazione nel caso della traccia. Consideriamo
F qm come spazio vettoriale di dimensione m sopra F q . Allora l’applicazione
traccia è un’applicazione lineare il cui nucleo Ker(T) coincide con gli zeri nel
campo F qm del polinomio
2 m−1
x + xq + xq + · · · + xq .

Questo polinomio ha al più q m−1 zeri; quindi l’applicazione T non è identica-


mente nulla ed allora è suriettiva ed il suo nucleo è un sottospazio di dimensione
m − 1.
Per provare la 1., si osservi che il sottoinsieme di F qm

H = {xq − x | x ∈ F qm }

è un sottospazio di F qm e che, essendo T(xq ) = T(x) per ogni x ∈ F qm , risulta


H ⊆ Ker(T). D’altra parte, l’applicazione

x ∈ F q m → xq − x ∈ F q m

è lineare, ha per immagine H e per nucleo F q . Allora H ha dimensione m − 1,


che è la stessa di Ker(T); quindi H = Ker(T), che è l’affermazione 1..

1.8 Polinomi su campi finiti


Abbiamo già osservato che nel caso di un campo K infinito soltanto il polinomio
nullo ha per zero ogni elemento del campo. Questo fatto non è vero nel caso dei
campi finiti. Vogliamo discutere in questo paragrafo tale particolarità dei campi
finiti. Quindi in tutto questo paragrafo con K indicheremo il campo finito con
q = pm elementi.
Sia K[x1 , . . . , xn ] l’anello dei polinomi nelle n ≥ 1 indeterminate (o, an-
che, variabili). Per semplificare le notazioni, indicheremo con X la n-pla or-
dinata (x1 , . . . , xn ) e con a la n−pla (a1 , . . . , an ) di K n . Gli elementi di K n
saranno anche chiamati punti. Ricordiamo che se F ∈ K[X], allora F definisce
un’applicazione di K n in K, sostituendo la n−pla X con la n−pla a = (a1 , . . . , an )
20 1. Campi Finiti

di K n . Dunque l’applicazione polinomiale indotta da F associa al punto a di


K n l’elemento F (a) di K. Diremo anche che il polinomio F è stato calcolato
nel punto a. Ricordiamo infine che i punti a di K n tali che F (a) = 0 si dicono
zeri di F .
Definizione 1.5 Il polinomio F ∈ K[X] è detto identicamente nullo se la fun-
zione polinomiale indotta è la funzione nulla.
È chiaro, e lo abbiamo già osservato, che questa definizione ha senso soltanto
nel caso di campi finiti.

♥ Esempio. Ogni polinomio che sia combinazione a coefficienti in K dei poli-


nomi xqi − xi , i = 1, . . . , n, è identicamente nullo. Più in generale, l’ideale di
K[X] generato dai polinomi xqi − xi , i = 1, . . . , n, consiste di polinomi identi-
camente nulli, dal momento che ciascuno di essi è un polinomio identicamente
nullo. Denotiamo questo ideale con J. ♥

Sia I l’insieme di tutti i polinomi identicamente nulli di K[X]. L’insieme I


è un ideale di K[X], e contiene ovviamente l’ideale J dell’esempio precedente.
Definizione 1.6 Un polinomio F ∈ K[X] si dice ridotto se il grado relativo a
ciascuna variabile xi è al più q − 1.
Denotiamo con R l’insieme dei polinomi ridotti. Si tratta ovviamente di un
sottospazio vettoriale di K[X] (il campo base è K), una cui base è

{xr11 xr22 . . . xrnn | 0 ≤ ri ≤ q − 1 , i = 1, . . . , n} .

I monomi di questa base sono in numero di q n (ogni ri può essere scelto in q


modi); quindi R ha dimensione q n .
Lemma 1.1 Se il polinomio F ∈ K[X] è sia ridotto sia identicamente nullo,
allora è il polinomio nullo. In altre parole

R ∩ I = (0) .

Dimostrazione: Per induzione su n. Per n = 1 il lemma è vero: se il polinomio


in una sola variabile è ridotto e identicamente nullo, allora il suo grado è al più
q − 1 ed ha per zero ogni elemento di K, quindi ha q zeri; ma un polinomio
non nullo di grado al più q − 1 ha al più q − 1 zeri. Pertanto F deve essere il
polinomio nullo. Procedendo per induzione, se F è un polinomio ridotto, allora
ordinandolo secondo le potenze decrescenti di x1 , potremo scrivere

F (X) = F1 (x2 , . . . , xn )x1q−1 + · · · + Fq−1 (x2 , . . . , xn )x1 + Fq (x2 , . . . , xn )

ove ciascuno dei polinomi Fi , i = 1, . . . , q − 1, è ridotto nelle n − 1 vari-


abili x2 , . . . , xn . Supponiamo che F sia identicamente nullo. Allora per ogni
(a2 , . . . , an ) ∈ K n−1 , posto Fi (a2 , . . . , an ) = bi ∈ K, il polinomio

b1 xq−1
1 + . . . bq−1 x1 + bq
1.8. Polinomi su campi finiti 21

è identicamente nullo quale che sia (a2 , . . . , an ) ∈ K n−1 , ed essendo chiaramente


ridotto nella sola variabile x1 , per quanto visto prima, è il polinomio nullo.
Quindi
bi = Fi (a2 , . . . , an ) = 0 , per ogni (a2 , . . . , an ) ∈ K n−1 .
Pertanto, per l’ipotesi induttiva, i singoli polinomi Fi sono nulli e dunque F è
il polinomio nullo.

Ricordiamo che l’ideale J è stato definito nell’esempio all’inizio del paragrafo.

Lemma 1.2 Per ogni polinomio F ∈ K[X] esistono un polinomio ridotto F ∗ ed


un polinomio G ∈ J tali che F = F ∗ + G. In altri termini

K[X] = R + J .

Dimostrazione: Ogni polinomio è somma di monomi. Quindi possiamo limi-


tarci a dimostrare il lemma nel caso che F sia il monomio xs11 . . . xsn . Inoltre,
poiché J è un ideale, possiamo supporre che questo monomio contenga una sola
variabile. In definitiva, possiamo supporre, ad esempio, che F (X) = xs11 . Ora,
se è s1 ≤ q − 1, non vi è nulla da dimostrare (si prenda F ∗ = 0). Sia allora
s1 ≥ q. Si ragioni allora per ricorrenza su s1 , osservando che xq1 − x1 ∈ J e che,
per s1 > q,
s −(q−1)
xs11 − x11 = xs−q q
1 (x1 − x1 ) ;

quindi
s −(q−1)
xs11 = x11 + x1s1 −q (xq1 − x1 ) .
Se è s1 − (q − 1) ≥ q, si ripete il procedimento.

La dimostrazione del Lemma 1.2 è costruttiva. Illustriamola con un esempio.

♥ Esempio. Sia F (x, y) = x5 − x3 y 3 + y 4 − xy ∈ Z3 [x, y]. Per scrivere F come


somma di un polinomio ridotto F ∗ e di un polinomio G ∈ J = (x3 − x, y 3 − y)
si opera su ciascun monomio. Per il monomio x5 si ha:

x5 = x3 + x2 (x3 − x) .

Il monomio −x3 y 3 va ridotto sia rispetto alla x sia rispetto alla y. Riducendo
rispetto alla x si ha:
−x3 y 3 = −xy 3 − y 3 (x3 − x) .
Operiamo ora allo stesso modo sul monomio −xy 3 che non è ridotto nella y:

−xy 3 = −xy − x(y 3 − y) .

Quindi

−x3 y 3 = −xy 3 − y 3 (x3 − x) = −xy − x(y 3 − y) − y 3 (x3 − x) .


22 1. Campi Finiti

Per il monomio y 4 si ha:


y 4 = y 2 + y(y 3 − y) .
Il monomio −xy è già ridotto. Allora, in definitiva,

F (x, y) = x3 − 2xy + y 2 + (x2 − y 3 )(x3 − x) + (y − x)(y 3 − y)

e
F ∗ (x, y) = x3 − 2xy + y 2 = x3 + xy + y 2
tenendo in conto che in Z3 , −2 ≡ 1 (mod 3). ♥

Lemma 1.3 Si ha I = J.

Dimostrazione: Già sappiamo che J ⊂ I. Proviamo che I ⊂ J. Sia F ∈ I.


Dal Lemma 1.2
F = F∗ + G
con F ∗ ∈ R e G ∈ J. Siccome J ⊂ I, allora F ∗ = F − G è differenza di due
elementi di I e dunque è un elemento di I, cioè è un polinomio identicamente
nullo. Per il Lemma 1.1, F ∗ è il polinomio nullo e dunque F = G ∈ J; cioè I ⊂ J.

Questi tre lemmi forniscono la dimostrazione del seguente teorema.

Teorema 1.6 Siano K[X] l’anello dei polinomi nelle n variabili x1 , . . . , xn , R


il sottospazio vettoriale dei polinomi ridotti e J l’ideale generato dai monomi
xqi − x, i = 1, . . . , n. Allora, come spazio vettoriale su K, K[X] è somma diretta
di R e di J:
K[X] = R ⊕ J .

In virtù di questo teorema ogni polinomio F ∈ K[X] si scrive in modo unico


come somma di un polinomio ridotto F ∗ e di un polinomio identicamente nullo
G:
F = F∗ + G.

Definizione 1.7 Sia F ∈ K[X]. Se F = F ∗ + G, con F ∗ ridotto e G identica-


mente nullo, diremo che F ∗ è il polinomio ridotto associato a F .

Si noti che questa definizione implica

deg(F ∗ ) ≤ deg(F ) .

1.9 Funzioni polinomiali


Manteniamo le notazioni del paragrafo precedente. Denotiamo con F l’insieme
di tutte le applicazioni di K n in K. Questo insieme ha la struttura di anello e
di spazio vettoriale su K. Le operazioni vengono definite al seguente modo.
1.9. Funzioni polinomiali 23

• Addizione: f + g è l’applicazione tale che (f + g)(a) = f (a) + g(a), per


ognia ∈ K n ;

• Prodotto: f g è l’applicazione tale che (f g)(a) = f (a)g(a), per ogni a ∈


K n;

• Prodotto per uno scalare: se a ∈ K e f ∈ F definiamo af ponendo


(af )(a) = af (a).

In questo modo F è sia un anello sia uno spazio vettoriale su K. Una base di F
sopra K è la seguente. Per ogni a ∈ K n definiamo l’applicazione

χa : K n → K

che vale 1 su a e 0 altrove. È facile verificare che l’insieme di tutte queste


funzioni, dette funzioni caratteristiche di K n , sono una base di F sopra K; è
detta base naturale di F e contiene q n elementi. Pertanto F ha dimensione q n
su K.

Teorema 1.7 Sia f ∈ F. Allora f è una funzione polinomiale, cioè esiste un


polinomio F ∈ K[X] tale che F (a) = f (a) per ogni punto a ∈ K n .

Dimostrazione: Ogni elemento di F è combinazione lineare degli elementi


della base naturale. Basta allora provare il teorema per le funzioni caratteris-
tiche. Sia χa una di queste, con a = (a1 , . . . , an ). Il polinomio

Fa (X) = (1 − (x1 − a1 )q−1 )(1 − (x2 − a2 )q−1 ) . . . (1 − (xn − an )q−1 )

assume il valore 1 su a e vale 0 altrove (si ricordi che aq−1 = 1 per ogni elemento
non nullo di K).

Sia ora
ϕ : K[X] → F
l’applicazione che al polinomio F ∈ K[X] associa la funzione polinomiale indotta
da F ; è chiaro che una tale funzione appartiene a F e che ϕ è un omomorfismo
di anelli.

Teorema 1.8 (1) L’omomorfismo ϕ è suriettivo ed ha per nucleo l’ideale J.


Resta dunque indotto un isomorfismo

K[X]/J ∼
=F.

(2) Sia ϕR la restrizione ad R ⊂ K[X] dell’omomorfismo ϕ. Allora ϕR è un


isomorfismo dello spazio vettoriale R sullo spazio vettoriale F. Se F ∈ K[X],
si ha
ϕ−1
R (ϕ(F )) = F

ove F ∗ è il polinomio ridotto associato ad F .


24 1. Campi Finiti

Dimostrazione: La (1) è conseguenza del teorema precedente. Infatti il nucleo


di ϕ è l’ideale I dei polinomi identicamente nulli. ma per qunato visto prima,
I = J, e quindi ker(ϕ) = J. Resta da provare che ϕ è suriettiva; ma ciò è quanto
afferma il teorema precedente. L’affermazione (2) è conseguenza della (1) e del
fatto che K[X] = R ⊕ J.

Il Teorema 1.8 afferma che ogni applicazione f di K n in K è una funzione


polinomiale e che il polinomio F che induce l’applicazione f può essere scelto
ridotto. Questo polinomio è
X
F (X) = f (a)Fa (X)
a∈K n

ove Fa (X) è il polinomio ridotto associato alla funzione caratteristica χa , in-


trodotto nella dimostrazione del Teorema 1.7.

1.10 Il Teorema di Chevalley–Warning


In questo paragrafo vogliamo fornire un’applicazione delle nozioni introdotte nei
paragrafi precedenti. Si tratta del problema di determinare condizioni affinché
un polinomio di K[X], con K campo finito e X = (x1 , . . . , xn ), ammetta degli
zeri in K n , cioè, come si suol dire, zeri razionali. Apparentemente il problema
sembra semplice; in effetti si tratta di problema molto complesso. Noi non ci
addentreremo in esso, ma lo sfioreremo appena in questo paragrafo. Il risultato
che illustreremo è il seguente.

Teorema 1.9 (Teorema di Chevalley–Warning) Sia F1 , . . . , Fs una famiglia di


s polinomi di K[X], di gradi rispettivi d1 , . . . , ds . Sia V l’insieme delle soluzioni
in K n del sistema di equazioni algebriche

F1 (X) = 0 , . . . , Fs (X) = 0

e sia N = |V | il numero delle soluzioni in K n del sistema. Sia d = d1 + · · · + ds


la somma dei gradi dei polinomi F1 , . . . , Fs . Se d < n, allora il numero N è
divisibile per la caratteristica p del campo K.

Dimostrazione: Introduciamo i due polinomi

F = (1 − F1q−1 )(1 − F2q−1 ) . . . (1 − Fsq−1 )


X
FV = (1 − (x1 − a1 )q−1 ))(1 − (x2 − a2 )q−1 )) . . . (1 − (xn − an )q−1 )) .
(a1 ,...,an )∈V

Si verifica facilmente che F e FV valgono 1 in ciasun punto di V e 0 altrove.


Dunque il polinomio
G = F − FV
1.10. Il Teorema di Chevalley–Warning 25

è identicamente nullo (induce la funzione nulla). Poiché FV è ridotto e F =


FV + G, con G identicamente nullo, il polinomio FV è il polinomio ridotto
associato a F ; quindi
deg(FV ) ≤ deg(F ) .
Ora
deg(F ) = d1 (q − 1) + d2 (q − 1) + · · · + ds (q − 1) = d(q − 1) < n(q − 1)
in virtù dell’ipotesi d < n. Pertanto
deg(FV ) ≤ deg(F ) < n(q − 1) .
Si osservi ora che nell’espressione di FV a priori compare un monomio
xq−1
1 xq−1
2 . . . xnq−1
di grado n(q − 1); quindi il coefficiente di questo monomio, che è uguale a
(−1)n N , deve essere zero nel campo K di caratteristica p; cioè p deve dividere
N.

Corollario 1.4 (Teorema di Chevalley) Nelle stesse ipotesi del Teorema 1.9,
se inoltre ciascuno dei polinomi F1 , . . . , Fs è privo del termine costante, allora
il sistema
F1 (X) = 0, F2 (X) = 0, . . . , Fs (X) = 0
ha almeno una soluzione non banale (diversa cioè dalla soluzione (0, . . . , 0)) in
K n.
Dimostrazione: L’assenza di termini costanti comporta che (0, . . . , 0) è una
soluzione del sistema. Quindi N ≥ 1. Poiché p divide N (Teorema 1.9), deve
essere N ≥ p; allora il numero N − 1 delle soluzioni non banali del sistema è
N − 1 ≥ p − 1 ≥ 2 − 1 = 1.

Il seguente corollario del Teorema di Chevalley ha un’importante appli-


cazione.
Corollario 1.5 Ogni polinomio omogeneo di secondo grado in n ≥ 3 variabili
ha almeno uno zero non banale in K n .
Si noti allora la differenza, ad esempio, col caso reale: il polinomio
x21 + · · · + x2n
non ha zeri reali.
Notiamo anche che un polinomio non omogeneo in n variabili di grado d < n
può benissimo non avere zeri razionali. Ad esempio in caratteristica p 6= 2 il
polinomio
(x1 + · · · + xn )q−1 + 1
assume soltanto i valori 1 e 2 (si ricordi che aq−1 = 1 per ogni a ∈ K ∗ ).
26 1. Campi Finiti

1.11 Equazioni di secondo grado


In questo paragrafo trattiamo il problema di determinare le soluzioni nel campo
K dell’equazione di secondo grado

ax2 + bx + c = 0 , a 6= 0 . (1.1)

Vediamo innazitutto il caso che K abbia caratteristica diversa da 2. In tal


caso l’equazione (1.1) è equivalente alla

4a(ax2 + bx + c) = 0

che può scriversi


(2ax + b)2 = b2 − 4ac .
Posto
b2 − 4ac = ∆ (discriminante dell’equazione)
l’equazione ha soluzioni in K se e solo se ∆ è un quadrato. Se questo è il caso
allora le soluzioni sono espresse dalla formula

−b ± ∆
x= .
2a
Ovviamente questo procedimento non può applicarsi nel caso della caratte-
ristica 2. In tal caso si procede al seguente modo.
Intanto, se nell’equazione (1.1) è b = 0, allora

ax2 + c = 0

equivale alla
c
x2 =
a
(si osservi che in un campo di caratteristica 2 si ha −1 = 1; quindi si può omet-
tere il segno −). La precedente equazione ha dunque soluzione se e solo se c/a è
un quadrato. Questa condizione è sempre verificata se il campo è finito, dato che
allora l’applicazione x 7→ x2 è un automorfismo del campo (è l’automorfismo di
Frobenius).
Sia ora b 6= 0. L’equazione data è equivalente alla
 a 2 a ac
x + x + 2 = 0;
b b b
da cui, posto
a
y= x
b
si trae
ac
y2 + y = .
b2
1.11. Equazioni di secondo grado 27

Segue allora che se esiste una soluzione α della precedente equazione, risulta
ac
= α2 + α .
b2
Supponiamo che K = F q con q = 2n . Consideriamo l’applicazione

Ta : F q → Z2

definita ponendo
n−1
Ta (x) = x + x2 + · · · + x2 .
L’applicazione Ta è la traccia assoluta di F q (cioè è l’applicazione traccia di F q
sopra Z2 ). È un facile esercizio verificare che

Ta (x2 + x) = 0 , per ogni x ∈ F q .

La traccia assoluta assume soltanto due valori: 0 oppure 1. Si pone

T0 = {x ∈ F q | Ta (x) = 0}

T1 = {x ∈ F q | Ta (x) = 1}
Si osservi che T0 ∩ T1 = ∅ e che |T0 | = |T1 | = q/2. Inoltre

T0 = Ker(Ta ) ;

quindi T0 è un sottogruppo additivo di F q , ma non è un sottocampo! Gli elementi


di T0 si dicono elementi di traccia 0, mentre gli elementi di T1 sono gli elementi
di traccia 1. Si ha allora
Teorema 1.10 L’equazione

ax2 + bx + c = 0

con a 6= 0 ha una ed una sola soluzione se e solo se b = 0; mentre se è b 6= 0 ha


due soluzioni distinte se e solo se l’elemento ac/b2 ha traccia 0.
Nel caso b 6= 0, l’elemento ac/b2 si chiama il discriminante dell’equazione di
secondo grado ax2 + bx + c = 0.
28 1. Campi Finiti
Capitolo 2

Geometria degli Spazi


Vettoriali

In questo capitolo riprenderemo e amplieremo i concetti già introdotti e studiati


nei corsi di Algebra lineare e Geometria analitica. In particolare ci occuperemo
di spazi vettoriali definiti su campi di Galois. Il loro studio è alla base, e pre-
liminare, alla disciplina che va sotto il nome di Geometrie di Galois, intendendo
con questa terminologia riferirsi appunto allo studio degli spazi vettoriali so-
pra campi finiti. Questo studio trae origine dall’affermarsi della geometria come
lo studio delle proprietà invarianti rispetto ad un gruppo di trasformazioni. In
estrema sintesi, una geometria è il dato di una terna (X, F, G), ove X è un in-
sieme non vuoto, F una famiglia di sottoinsiemi di X, da chiamarsi sottospazi, e
G un gruppo di trasformazioni dell’insieme X in sé che mutino ciascun elemento
di F in elementi di F. A seconda del gruppo G, sull’insieme X si potranno avere
geometrie diverse.

Ad esempio, se X è l’insieme dei punti del piano della geometria elementare,


F la famiglia delle rette del piano e G è il gruppo delle affinità, la terna (X, F, G)
è la geometria affine del piano. Se invece G è il gruppo delle isometrie piane si ha
la geometria euclidea metrica. Si tratta in ogni caso di geometrie che hanno alla
loro base uno spazio vettoriale di dimensione due sul campo dei numeri reali.

In generale, se si vogliono studiare geometrie “interessanti” bisognerà partire


da un insieme X che abbia una qualche struttura e considerare un gruppo G di
trasformazioni di X che conservi tale struttura. Fisseremo la nostra attenzione
al caso in cui X sia uno spazio vettoriale sopra un campo K, F la famiglia
dei sottospazi di X e G il gruppo degli automorfismi di G. È la geometria più
generale che si possa fare su X. Successivamente considereremo sottogruppi
particolari di G.
30 2. Geometria degli Spazi Vettoriali

2.1 Gruppi lineari e semilineari


Sia V uno spazio vettoriale definito sul campo K. Indicheremo con Aut(K)
il gruppo degli automorfismi del campo K, per i cui elementi useremo lettere
greche minuscole. Adotteremo la convenzione di denotare l’immagine dell’ele-
mento x ∈ K tramite l’automorfismo α ∈ Aut(K) con il simbolo xα (notazione
esponenziale). Con questa convenzione si ha allora, per x, y ∈ K e α ∈ Aut(K)

(x + y)α = xα + y α , (xy)α = xα y α .

Il simbolo |A| sarà utilizzato per indicare il numero degli elementi dell’insieme
finito A.
Il caso che tratteremo più a fondo è quello in cui il campo K è il campo
di Galois GF (q), con q potenza di un numero primo. In tal caso ovviamente
ogni spazio vettoriale di dimensione finita su K consiste di un numero finito di
vettori. Precisamente:

Proposizione 2.1 Sia K = GF (q). Se V è uno spazio vettoriale di dimensione


n su K, allora |V | = q n ed per ogni suo sottospazio U di dimensione h si ha
|U | = q h .

La dimostrazione è un facile esercizio.


Sia ora K un campo qualunque.

Definizione 2.1 Siano V e W spazi vettoriali su K. Una applicazione semi-


lineare di V in W è una coppia (T, α), ove T : V → W è una applicazione di V
in W ed α è un automorfismo di K, verificante la condizione: per ogni a, b ∈ K
e v, w ∈ V
T (av + bw) = aα T (v) + bα T (w) .
L’automorfismo α è detto il compagno di T . Se α è l’identità, l’applicazione T
è detta lineare. Se T è biiettiva, allora T è un isomorfismo semilineare. Nel caso
V = W , si dice che T è un operatore semilineare; se poi T è biiettivo, allora è
detto automorfismo semilineare.

L’insieme di tutti gli automorfismi semilineari di V è un gruppo rispetto


alla usuale operazione di composizione di trasformazioni; viene denotato con il
simbolo ΓL(V ) e si chiama il gruppo semilineare generale di V . Ovviamente,
l’insieme degli automorfismi lineari di V è un sottogruppo di ΓL(V ), denotato
con GL(V ) e detto gruppo lineare generale.

♥ Esempio. Sia C il campo complesso. L’applicazione coniugio: x 7→ x è un


automorfismo del campo C. Se V = Cn , allora l’applicazione di V in sé

(x1 , . . . , xn ) → (x1 , . . . , xn )

è un automorfismo semilineare di V di automorfismo compagno il coniugio. ♥


2.1. Gruppi lineari e semilineari 31

Supponiamo che V abbia dimensione n. Sia B = (v 1 , . . . , v n ) una base di


V . Allora i vettori v di V si identificano con le n−ple ordinate di elementi di
K, (x1 , . . . , xn ), tali che
Xn
v= xi v i .
i=1

Gli elementi della n−pla (x1 , . . . , xn ) sono le coordinate (o, componenti) del
vettore v. Adotteremo la convenzione di considerare le n−ple di coordinate dei
vettori come matrici n × 1 (vettori colonna).
Sia T un operatore lineare di V . Avendo fissato la base B, all’operatore
T resta associata una ben determinata matrice quadrata di ordine n, la cui
colonna i−esima rappresenta le coordinate del vettore T (v i ), i = 1, . . . , n. Con
questa definizione, se X è la n−pla delle coordinate del vettore v, allora il
vettore trasformato T (v) ha coordinate date dalla n−pla AX (prodotto righe
per colonne della matrice A associata a T e della matrice colonna X). Se T è un
automorfismo, allora la matrice ad esso associato è invertibile. Abbiamo dunque
Proposizione 2.2 Fissata una base di V , esiste una corrispondenza biunivoca,
che è un isomorfismo di gruppi, tra il gruppo lineare generale di V e le matrici
invertibili di ordine n.
Sia T ∈ GL(V ). Al variare della base B di V , la matrice associata a T
descrive una classe completa di matrici simili. Quindi il determinante e la la
traccia dell’operatore lineare T sono den definiti; li denoteremo con det(T ) e
Tr(T ). Se l’automorfismo lineare T di V ha determinante uguale ad 1, diremo che
T è unimodulare. Gli automorfismi unimodulari di V sono un gruppo, denotato
con SL(V ) e detto gruppo lineare speciale.

Proposizione 2.3 (i) L’applicazione tra gruppi

j : ΓL(V )→Aut(K)

definita da j(T, σ) = σ, con (T, σ) ∈ ΓL(V ) e σ ∈ Aut(K), è un omo-


morfismo suriettivo il cui nucleo è GL(V ). Di conseguenza, GL(V ) è un
sottogruppo normale di ΓL(V ) e ΓL(V )/GL(V ) ∼ = Aut(K) .
(ii) Sia K ∗ il gruppo moltiplicativo del campo K. L’applicazione tra gruppi

det : GL(V )→K ∗

che ad ogni elemento di GL(V ) associa il suo determinante è un omo-


morfismo suriettivo il cui nucleo è SL(V ). Di conseguenza SL(V ) è un
sottogruppo normale di GL(V ) e GL(V )/SL(V ) ∼ = K∗ .

Dimostrazione: Viene lasciata per esercizio.

Notazione. Il gruppo delle matrici invertibili d’ordine n viene denotato con


GL(n, K) e nel caso K = GF (q) (campo di Galois d’ordine q) lo si suole indicare
32 2. Geometria degli Spazi Vettoriali

con GL(n, q). Con SL(n, K) (risp., SL(n, q)) denoteremo il gruppo delle matrici
su K (risp., GF (q)) d’ordine n il cui determinante vale 1.

Nel caso K = GF (q), con q = pr potenza di un numero primo, si possono


calcolare gli ordini dei gruppi lineari e semilineari.
Proposizione 2.4 Sia K = GF (q), con q = pr . Per ogni spazio vettoriale V
di dimensione n ≥ 1 su K si ha
n
Y
1. |GL(V )| = q n(n−1)/2 (q i − 1)
i=1
n
Y
2. |SL(V )| = q n(n−1)/2 (q i − 1)
i=2

3. |ΓL(V )| = r|GL(V )|
Dimostrazione: Siano (e1 , . . . , en ) e (f 1 , . . . , f n ) due basi ordinate di V .
Esiste uno ed un solo automorfismo lineare L ∈ GL(V ) tale che L(ei ) = f i ,
i = 1, . . . , n. Pertanto |GL(V )| uguaglia il numero delle basi ordinate di V .
Calcoliamo questo numero. Il primo elemento di una base ordinata può essere
un qualunque vettore non nullo e quindi può essere scelto in q n − 1 modi; il
secondo elemento deve essere linearmente indipendente dal primo; quindi può
essere scelto in q n − q modi; in generale l’(i + 1)-esimo elemento della base può
essere scelto fuori del sottospazio generato dai primi i elementi della base; quindi
si hanno q n − q i scelte possibili. Allora

|GL(V )| = (q n − 1)(q n − q) · · · (q n − q n−1 )

che è uguale alla formula 1. dell’enunciato. Le formule 2. e 3. seguono applicando


la Proposizione 2.3 e ricordando che |K ∗ | = q − 1 e che |Aut(K)| = r quando
K = GF (pr ).

Esaminiamo più dettagliatamente il gruppo semilineare generale, ΓL(V ), con


V spazio vettoriale su un campo K qualunque. Sia B = (e1 , . . . , en ) una base
di V . Se α è un automorfismo di K e se v ∈ V ha coordinate (x1 , . . . , xn ),
denoteremo con v α il vettore di coordinate (xα α
1 , . . . , xn ). Sia L un operatore
lineare di V . Allora l’applicazione

T(L,α) : v ∈ V → L(v α ) ∈ V

è un’applicazione semilineare con automorfismo compagno α. Se A è la matrice


di L nella base B, allora T(L,α) si rappresenta con le equazioni (non lineari in
generale)    α
y1 x1
 y2  xα 
 2
 ..  = A  .. 
 
.  . 
yn xαn
2.2. Lo spazio duale 33

È facile provare che, relativamente alla base fissata, l’applicazione

(L, α) ∈ GL(V ) × Aut(K) → T(L,α) ∈ ΓL(V )

è un isomorfismo di gruppi.
Pertanto lo studio del gruppo ΓL(V ) si riconduce allo studio del gruppo
GL(V ) e del gruppo degli automorfismi del campo.

♠ Osservazione. Il campo reale non ha automorfismi diversi da quello iden-


tico. Pertanto ΓL(V ) = GL(V ). È per questo motivo che nello studio degli spazi
vettoriali reali si introducono soltanto operatori lineari. ♠

Esercizio. Sia (T, σ) un’apllicazione σ−semilineare tra gli spazi vettoriali V


e W definiti sullo stesso campo K. Si definiscono per l’applicazione T il nucleo

Ker(T ) = {v ∈ V | T (v) = 0}

e l’immagine

Im(T ) = {w ∈ W | w = T (v) , per qualche v ∈ V } .

Dimostrare:

1. Ker(T ) è un sottospazio di V e Im(T ) è un sottospazio di W

2. se dim(V ) = n è finita, allora

dim(V ) = dim(Ker(T )) + dim(Im(T ))

3. l’applicazione T trasforma sottospazi di V in sottospazi di W e, se T è


invertibile, allora
dim(T (U )) = dim(U )
per ogni sottospazio di dimensione finita U di V .

2.2 Lo spazio duale


Sia V uno spazio vettoriale sul campo K. Il campo K può essere considerato
come uno spazio vettoriale di dimensione 1 su se stesso (una sua base essendo
per esempio costituita dall’elemento 1 del campo).

Definizione 2.2 Lo spazio duale di V è l’insieme di tutte le applicazioni lineari


dello spazio vettoriale V nello spazio vettoriale K. Si denota con V 0 e i suoi
elementi si dicono funzionali lineari.
34 2. Geometria degli Spazi Vettoriali

Proposizione 2.5 Per f, g ∈ V 0 ed a ∈ K, definiamo f + g e af come le


applicazioni di V in K tali che per ogni v ∈ V

(f + g)(v) := f (v) + g(v) , (af )(v) := af (v) .

Con queste operazioni V 0 è uno spazio vettoriale su K.

La dimostrazione viene lasciata per esercizio.


Sia V di dimensione finita. Sia (e1 , . . . , en ) una base di V . Definiamo le
applicazioni f1 , . . . , fn di V in K ponendo
(
0 se i 6= j
fi (ej ) = δij =
1 se i = j

Le fi si estendono per linearità a tutto V e quindi sono dei funzionali lineari


(elementi di V 0 ). Vogliamo provare che (f1 , . . . , fn ) è una base di V 0 , detta base
duale della base (e1 , . . . , en ). Cominciamo col dimostrare che i funzionali lineari
(f1 , . . . , fn ) sono linearmente indipendenti. Sia infatti
n
X
ai fi = 0
i=1

una loro combinazione lineare che dia il funzionale nullo. Allora per ogni ej
risulta !
Xn n
X
ai fi (ej ) = ai fi (ej ) = aj = 0 ;
i=1 i=1

quindi aj = 0 per ogni indice j e i funzionali fi sono linearmente indipendenti.


Per provare che sono anche un sistema di generatori, sia f ∈ V 0 . Poniamo
f (ei ) = ai (ai è un elemento di K). Mostriamo che
n
X
f= ai fi .
i=1
Pn
Basta provare che per ogni ej si ha f (ej ) = ( i=1 ai fi )(ej ), la cui verifica è
lasciata per esercizio.
Sia f un funzionale lineare. Determiniamo Ker(f ). Se è f = 0 (funzionale
nullo), allora Ker(f ) = V . Sia allora f 6= 0; Ker(f ) è un sottospazio proprio di
V . Proviamo che f è suriettivo. Sia infatti a ∈ K e sia v ∈ V tale che f (v) 6= 0.
Poniamo f (v) = b. Allora posto w = ab−1 v si ha

f (w) = f (ab−1 v) = ab−1 f (v) = ab−1 b = a .

Il teorema nullità + rango permette di concludere che Ker(f ) è un sottospazio


di dimensione n − 1, se dim(V ) = n. I sottospazi di V di dimensione dim(V ) − 1
si chiamano iperpiani. Abbiamo provato che il nucleo di un funzionale non nullo
è un iperpiano. Vale anche il viceversa: ogni iperpiano H di V è il nucleo di un
funzionale lineare (esercizio).
2.3. La struttura di SL(V ) 35

Sia E = (e1 , . . . , en ) una base per V . Assumiamo come base per K l’elemento
1. Sia f un funzionale lineare. La matrice di f relativa alle due basi scelte è la
matrice A di ordine 1 × n le cui colonne sono i valori che f assume sui vettori
della base E. Sia A = (a1 , . . . , an ). Se v ∈ V ha coordinate X = (x1 , . . . , xn )t
allora il vettore f (v) ha nelle basi fissate coordinate AX. Quindi Ker(f ) ha
equazione cartesiana AX = 0, cioè

a1 x1 + · · · + an xn = 0 .

Osserviamo esplicitamente che l’equazione precedente individua l’iperpiano Ker(f )


a meno di un fattore di proporzionalità non nullo (ciò equivale a cambiare la
base per K). Ritorneremo più avanti sul duale di uno spazio vettoriale.

2.3 La struttura di SL(V )


In questo paragrafo supporremo che V sia uno spazio vettoriale di dimensione
almeno due sul campo K. Supporremo inoltre che tale dimensione sia finita.
Vogliamo introdurre particolare automorfismi lineari di V .

Definizione 2.3 Un automorfismo lineare T ∈ GL(V ) è una trasvezione se


esiste un iperpiano H di V tale che

(i) T (v) = v, se v ∈ H,

(ii) T (v) − v ∈ H, se v ∈
/ H.

L’iperpiano H è detto l’asse della trasvezione.

Si noti bene che la definizione non esclude l’automorfismo identico; in tal


caso però l’asse non è individuato.
Per le trasvezioni esiste una formula molto semplice che le descrive.

Proposizione 2.6 Sia T una trasvezione di asse H. Se H = Ker(f ) per qualche


funzionale lineare f ∈ V 0 , allora esiste a ∈ H tale che

T (x) = x + f (x)a , per ogni x ∈ V

e, inoltre, f (a) = 0. Il sottospazio generato da a è il centro della trasvezione.

Dimostrazione: Sia b ∈
/ H. Poniamo

c = f (b)−1 b ; a = T (c) − c .

Per ogni x ∈ V si ha

f (x − f (x)f (b)−1 b) = f (x) − f (x)f (b)−1 f (b) = 0 .

Pertanto
x − f (x)f (b)−1 b = x − f (x)c ∈ H .
36 2. Geometria degli Spazi Vettoriali

Poiché per definizione T fissa tutti i vettori di H, si ha che la trasvezione T fissa


x − f (x)c. Di conseguenza

T (x − f (x)c) = T (x) − f (x)T (c) = x − f (x)c ;

da cui
T (x) = x − f (x)[c − T (c)] = x + f (x)a .

Scriveremo Tf,a per indicare la trasvezione data dalla formula

x 7→ x + f (x)a con f (a) = 0 .

Si noti che la medesima trasvezione può essere individuata da più coppie di-
verse (f, a). Però, se T non è l’identità, sono univocamente individuati il suo
asse, Ker(f ), ed il suo centro span(a). Abbiamo già osservato che l’identità può
considerarsi come una trasvezione; nella formula che la descrive si assume f = 0
oppure a = 0.
Teorema 2.1 Per ogni f, f1 , f2 ∈ V 0 e a, a1 , a2 ∈ V si hanno le seguenti
identità.
1. Tf,a1 +a2 = Tf,a1 ◦ Tf,a2
2. Tf1 +f2 ,a = Tf1 ,a ◦ Tf,a2
3. S ◦ Tf,a ◦ S −1 = Tf (S −1 ),S(a) , per ogni S ∈ GL(V ), ove f (S −1 ) è il fun-
zionale lineare definito da

f (S −1 )(v) = f (S −1 (v)) .

Dimostrazione: Si usi direttamente la formula

Tf,a (x) = x + f (x)a con f (a) = 0.

−1
Dalla identità 1. segue in particolare che Tf,a = Tf,−a .
Corollario 2.1 La totalità delle trasvezioni aventi lo stesso asse H = Ker(f )
è un gruppo commutativo isomorfo al gruppo additivo del sottospazio H.
Vediamo come possono rappresentarsi con matrici le trasvezioni aventi lo
stesso asse H. Fissiamo la base E = (e1 , . . . , en−1 , en ) di modo che (e1 , . . . , en−1 )
sia una base per H. Allora se T è una trasvezione di asse H si ha

T (ei ) = ei , i = 1, . . . , n − 1
n−1
X
T (en ) − en = ai ei .
i=1
2.3. La struttura di SL(V ) 37

Quindi la matrice di T è
 
1 0 ... 0 a1
 0 1 ... 0 a2 
 
. . .
A= ... ... ... ... 

 0 0 ... 1 an−1 
0 0 ... 0 1

Si noti che det(A) = 1. Pertanto le trasvezioni sono elementi di SL(V ).

Teorema 2.2 Ogni elemento di SL(V ) si può esprimere come prodotto di


trasvezioni; in altri termini, SL(V ) è generato dalle sue trasvezioni.

Dimostrazione: Diamo una dimostrazione basata sulle operazioni elementari


di riga di una matrice. A tal fine, fissiamo la base E = (e1 , . . . , en ) di V e sia
E0 = (f1 , . . . , fn ) la base duale. Scriviamo le matrici degli operatori lineari in
queste basi. La trasvezione Tfj ,aei , per ogni a ∈ K, ha per matrice

I + aEij

ove Eij è la matrice n × n avente 1 al posto (i, j) e 0 altrove. Si osservi poi


che per ogni matrice A di ordine n la matrice prodotto Eij A è la matrice che
ha tutte le sue righe nulle, ad eccezione della riga i−esima, che coincide con la
j−esima riga di A. Per ogni matrice A di ordine n risulta

(I + aEij )A = A + aEij A

e la matrice A + aEij A è la matrice ottenuta da A con un’operazione elementare


di riga. Ricordando (Algoritmo di Gauss–Jordan) che ogni matrice invertibile di
ordine n può con un numero finito di operazioni elementari di riga ridursi alla
forma diagonale  
1 0 ... 0
0 1 . . . 0
 
 .. .. .. .. 
. . . .
0 ... 0 d
ove d = det(A), si ha in particolare che ogni elemento di SL(V ) (elementi di
GL(V ) di determinante 1) si esprime come prodotto di trasvezioni.

Si può dire anche qualcosa di più. Sia u un fissato vettore di V . Posto


P = span(u), definiamo

XP = {Tf,u | f ∈ V 0 , f (u) = 0} .

Teorema 2.3 (i) XP è un sottogruppo abeliano normale di GL(V ).

(ii) SL(V ) coincide con il sottogruppo generato da S −1 XP S, al variare di S


in SL(V ).
38 2. Geometria degli Spazi Vettoriali

Terminiamo questo paragrafo ricordando il risultato seguente.


Premettiamo che se G è un gruppo, il centro di G è il sottogruppo

Z(G) = {g ∈ G | gx = xg , per ogni x ∈ G} .

Il gruppo GL(V ) possiede degli elementi particolari: le trasformazioni scalari,


Ta , a ∈ K, definite da
Ta (x) = ax .
Proposizione 2.7 Il centro di GL(V ) consiste di tutte e sole le trasformazioni
scalari ed è isomorfo al gruppo moltiplicativo del campo K.
Capitolo 3

Geometria affine

Gli spazi affini, e come vedremo più oltre gli spazi proiettivi, forniscono l’ambien-
te geometrico nel quale più adeguatamente si studiano gli spazi vettoriali. In
effetti, in uno spazio vettoriale c’è un elemento privilegiato, il vettore nullo, che
in diverse situazioni ha un ruolo speciale; ad esempio, è fissato da ogni trasfor-
mazione semilineare. Per rendere uno spazio vettoriale “omogeneo”, tale cioè
che tutti i suoi vettori abbiano lo stesso ruolo, bisognerà aggiungere trasfor-
mazioni che rendano appunto i vettori indistinguibili. Queste trasformazioni
sono le traslazioni ed è su di esse che si basa il concetto di spazio affine. In tutto
quel che segue K è un campo fissato.
Definizione 3.1 Uno spazio affine su K è una coppia (A, V ), ove A è un
insieme non vuoto, i cui elementi diremo punti e V uno spazio vettoriale su K,
tale che esista un’applicazione
Φ:V ×A→A
verificante i due seguenti assiomi:
(A1) per ogni v, w ∈ V e per ogni punto P ∈ A,
Φ(0, P ) = P e Φ(v + w, P ) = Φ(v, Φ(w, P )) ;

(A2) per ogni coppia di punti P, Q ∈ A esiste esattamente un vettore v ∈ V


tale che
Φ(v, P ) = Q .
La dimensione di A, denotata con dim(A), è la dimensione dello spazio vetto-
riale V .
Spesso, se non c’è possibilità di confusione, ometteremo il riferimento allo
spazio vettoriale V .
Per rendere espressivo l’effetto dell’applicazione Φ, si adotta la convenzione
di indicare il punto Φ(v, P ) con il simbolo v + P , oppure P + v; si pone cioè
Φ(v, P ) = v + P = P + v .
40 3. Geometria affine

Si noti allora che il simbolo + è usato sia per la somma di due vettori sia per la
“somma punto–vettore”. Gli assiomi di spazio affine si riscrivono allora
(A1) per ogni v ∈ V e P ∈ A

0+P =P , (v + w) + P = v + (w + P )

(A2) per ogni coppia di punti P, Q esiste esattamente un vettore v tale che

v + P = Q.

Dagli assiomi (A1) e (A2) segue che ciascun vettore v ∈ V induce una cor-
rispondenza biunivoca dell’insieme A in sé. Denoteremo questa corrispondenza
con tv e la chiameremo traslazione di vettore v; dunque

tv (P ) = v + P , per ogni punto P .

Si può facilmente verificare che le traslazioni formano un gruppo abeliano iso-


morfo al gruppo additivo di V , osservando che

t0 = I e che tv+w = tv ◦ tw .

Il gruppo delle traslazioni dello spazio affine A si denota con T.


Nell’assioma (A2) l’unico vettore v tale che P + v = Q sarà denotato con il
simbolo
−−→
PQ
e si dirà il vettore da P a Q. È chiara l’analogia con i vettori geometrici della
geometria euclidea. In tal modo resta definita un’applicazione


− :A×A→V
−−→
che associa alla coppia di punti (P, Q) il vettore P Q e che gode delle seguenti
proprietà, per ogni scelta dei punti P, Q, R:
−−→
(B1) P + P Q = Q
−−→ −−→ −→
(B2) P Q + QR = P R (regola del parallelogramma).
Si può dimostrare che queste due proprietà possono essere assunte come assiomi
per gli spazi affini e da esse discenderebbero gli assiomi (A1) e (A2). Si osservi
−−→
che talvolta si usa scrivere il vettore P Q come Q − P , di modo che formalmente
si può operare algebricamente sui punti. Negli esempi useremo l’una o l’altra
delle applicazioni Φ oppure → − per descrivere gli spazi affini. Inoltre porremo
per definizione P + v = v + P , per ogni punto P ed ogni vettore v.

♥ Esempio. Lo spazio affine della geometria elementare è basato sui vettori


−−→
geometrici, i quali sono definiti tramite l’applicazione (P, Q) 7→ P Q, intendendo
−−→
qui con P Q il vettore geometrico rappresentato dal segmento orientato P Q. ♥
3.1. Sottospazi affini 41

♥ Esempio. Ogni spazio vettoriale V può essere riguardato come uno spazio
affine. Si definisce l’insieme dei punti A coincidente con l’insieme V dei vettori.
L’applicazione Φ : V × A → A associa alla coppia (v, w) il punto v + w. Gli
assiomi sono facilmente verificati.
Se, in questo esempio, si prende in particolare, V = K n , si ottiene lo spazio
affine numerico di dimensione n sopra K. Questo spazio affine è denotato con
An (K). ♥

Limiteremo la trattazione agli spazi affini di dimensione finita.

Definizione 3.2 Sia (A, V ) uno spazio affine. Un riferimento affine nello spazio
A consiste di un punto O ∈ A (origine) ed di una base (e1 , . . . , en ) di V ; si de-
nota con RA(Oe1 . . . en ).

Sia RA(Oe1 . . . en ) un riferimento affine di A. Per ogni punto P ∈ A risulta


−−→
OP = a1 e1 + · · · + an en .

Gli scalari a1 , . . . , an , univocamente determinati, si dicono le coordinate affini (o


semplicemente coordinate) del punto P e la n−pla (a1 , . . . , an ) è la n−pla delle
coordinate del punto P nel riferimento affine RA. La scrittura P = (a1 , . . . , an )
significa che il punto P ha la n−pla di coordinate (a1 , . . . , an ) nel riferimento
affine RA(Oe1 . . . en ).
−−→
Osserviamo che se P = (a1 , . . . , an ) e Q = (b1 , . . . , bn ) allora il vettore P Q
ha componenti (b1 − a1 , . . . , bn − an ). Ciò segue subito dall’identità
−−→ −−→ −−→
P Q = OQ − OP .

Per introdurre la “geometria affine”, abbiamo ancora bisogno di definire i


sottospazi affini e quindi il gruppo delle trasformazioni affini.

3.1 Sottospazi affini


In tutto questo paragrafo supporremo che A sia un fissato spazio affine sul
campo K di spazio vettoriale associato V .

Definizione 3.3 Un sottoinsieme non vuoto U di A è un sottospazio affine se


esiste un sottospazio U di V ed un punto P0 ∈ U tali che

U = U + P0 = {u + P0 | u ∈ U } = P0 + U .

La dimensione del sottospazio U è la dimensione di U . Il sottospazio U è detto


la giacitura di U.

Dalla definizione segue che se U è un sottospazio e U = U + P0 allora


−−→
P ∈ U se e solo se P0 P ∈ U .
42 3. Geometria affine

Quindi, la definizione di sottospazio non dipende dal punto P0 ∈ U, nel senso


che se U = U + P0 , allora è anche

U =U +P

per ogni P ∈ U.
Se U è un sottospazio e U = U + P0 , si dice che U è il sottospazio passante
per il punto P0 ed avente giacitura U (oppure, anche, parallelo ad U ).
Nel seguito useremo liberamente il linguaggio tipico della geometria elemen-
tare. Ad esempio, se P è un punto del sottospazio U diremo che U “passa”per
il punto P o che è “incidente”il punto P .
I sottospazi di dimensione 0 sono tutti e soli i singoli punti di A.
I sottospazi di dimensione 1 si dicono rette; in tal caso invece che di giacitura
si parla di direzione. Se R è una retta, allora

R = P0 + U

con U = span(u), u 6= 0. Il vettore u è un vettore direttore. La retta R consiste


di tutti e soli i punti P tali che
−−→
P0 P = tu , t ∈ K .

È facile verificare che


Proposizione 3.1 Per due punti distinti P e Q dello spazio affine A passa una
−−→
ed una sola retta. La sua giacitura è data dal vettore P Q.
I sottospazi di dimensione 2 si dicono piani.
I sottospazi di dimensione dim(A) − 1 si chiamano iperpiani.
Fissiamo il riferimento affine RA(Oe1 . . . en ). Sia U il sottospazio affine
U + P0 , con P0 ∈ U e U sottospazio vettoriale di V . Rispetto al riferimento
scelto, siano P0 = (a1 , . . . , an ), (w1 , . . . , wm ) una base di U e (w1i , . . . , wni ) le
componenti di wi , i = 1, . . . , m, rispetto alla base (e1 , . . . , en ) di V . Allora, se
P = (x1 , . . . , xn ) ∈ U, si ha
−−→
P0 P = t1 w1 + · · · + tm wm

per opportuni t1 , . . . , tm ∈ K. Uguagliando le coordinate di primo e secondo


membro si ottengono equazioni parametriche del sottospazio U:


 x1 = a1 + t1 w11 + · · · + tm w1m

x2 = a2 + t1 w21 + · · · + tm w2m

.. (3.1)


 .

xn = an + t1 wn1 + · · · + tm wnm

Le equazioni parametriche (3.1) non sono univocamente determinate, ma dipen-


dono dalla scelta del punto P0 e dalla base (w1 , . . . , wm ).
3.1. Sottospazi affini 43

Come caso particolare scriviamo equazioni parametriche della retta R pas-


sante per il punto P0 = (a1 , . . . , an ) ed avente direzione v = (`1 , . . . , `n ):


 x1 = a 1 + ` 1 t

x 2 = a 2 + ` 2 t

..


 .

xn = an + `n t

ove t ∈ K.
Il teorema che segue stabilisce il legame tra gli spazi affini e la teoria dei
sistemi di equazioni lineari.
Teorema 3.1 Sia A uno spazio affine di dimensione n e sia RA(Oe1 . . . en )
un riferimento affine. Allora se


 a11 x1 + · · · + a1n xn = b1

a21 x1 + · · · + a2n xn = b2

..


 .

as1 x1 + · · · + asn xn = bs

è un sistema di s equazioni lineari nelle incognite x1 , . . . , xn , l’insieme dei punti


S di A, le cui coordinate sono soluzioni del sistema, se non è vuoto è un sot-
tospazio di dimensione n − r ove r è il rango della matrice dei coefficienti del
sistema. La giacitura del sottospazio S è il sottospazio vettoriale U avente per
equazioni cartesiane il sistema lineare omogeneo associato.
Viceversa, per ogni sottospazio S di A di dimensione d esiste un sistema di
n − d equazioni lineari nelle incognite x1 , . . . , xn le cui soluzioni sono le n−ple
delle coordinate di tutti e soli i punti di S.
La dimostrazione viene lasciata per esercizio, dato che è una diretta conseguenza
delle conoscenze di Algebra lineare.

Definizione 3.4 Siano U e S sottospazi di A, aventi rispettive giaciture U e S


di dimensione maggiore di 0. Diremo che U e S sono paralleli se U ⊆ S oppure
S ⊆ U . Si scrive UkS per indicare che U è parallelo a S.

Se dim(U) = dim(S), allora UkS se e solo se hanno la stessa giacitura. In


particolare sottospazi affini coincidenti sono paralleli. Nel caso delle rette il loro
parallelismo equivale ad avere stessa direzione. Vale il seguente
Teorema 3.2 Se U è un sottospazio di A e P un punto di A, allora esiste
uno ed un solo sottospazio S che passa per P , è parallelo a U ed ha la stessa
dimensione di U.
Nel caso del piano affine ordinario, il teorema precedente è equivalente al
cosiddetto postulato delle parallele. Quindi in ogni piano affine vale il postulato
delle parallele.
44 3. Geometria affine

3.2 Il gruppo affine


Siano (A1 , V1 ) e (A2 , V2 ) spazi affini di dimensione finita definiti sullo stesso
campo K.
Definizione 3.5 Un isomorfismo affine di A1 con A2 è una coppia (ϕ, ϕ∗ ), ove

ϕ : A1 → A2

è una corrispondenza biunivoca e

ϕ∗ : V1 → V2

è un’applicazione σ−semilineare invertibile, tale che, per ogni coppia P, Q ∈ A1 ,


−−−−−−−→ −−→
ϕ(P )ϕ(Q) = ϕ∗ (P Q) .

L’applicazione semilineare ϕ∗ è anche detta la derivata di ϕ.


Nel caso A1 = A2 si parla più propriamente di automorfismo affine.
Alcune osservazioni sulla definizione ora data.
1. Innanzitutto si osservi che la condizione
−−−−−−−→ −−→
ϕ(P )ϕ(Q) = ϕ∗ (P Q)

equivale all’altra:
per ogni P, Q ∈ A1 , se Q = P + v, con v ∈ V1 , allora

ϕ(Q) = ϕ(P ) + ϕ∗ (v) .

2. L’applicazione ϕ∗ è univocamente determinata. Pertanto, spesso invece di


scrivere (ϕ, ϕ∗ ) scriveremo semplicemente ϕ.
3. Se (ϕ, ϕ∗ ) è un isomorfismo affine, anche (ϕ−1 , ϕ−1 ∗ ) è un isomorfismo
affine di A2 con A1 . Inoltre, la composizione di isomorfismi affini è un isomor-
fismo affine. Pertanto “essere affinemente isomorfi” è una relazione di equiva-
lenza nella classe degli spazi affini sul campo K.
4. L’insieme di tutti gli automorfismi affini dello spazio affine A è un gruppo,
detto gruppo affine di A e denotato con Aff(A).

Proposizione 3.2 Sia ϕ : A1 → A2 un isomorfismo affine. Allora ϕ trasforma


sottospazi affini di A1 in sottospazi affini di A2 , consevando il parallelismo e la
dimensione.

Dimostrazione: Sia U = P0 + U un sottospazio di A1 , con U sottospazio di


V1 . Allora
ϕ(U) = {ϕ(P0 + v) | v ∈ U } = ϕ(P0 ) + ϕ∗ (U )
è un sottospazio affine di A2 .
Se WkU e, ad esempio W = Q0 + W con W ⊆ U , allora è anche ϕ∗ (W ) ⊆
ϕ∗ (U ) e dunque ϕ(U)kϕ(W).
3.2. Il gruppo affine 45

Corollario 3.1 Ogni isomorfismo affine ϕ trasforma rette in rette, conser-


vando il parallelismo tra rette. Inoltre anche ϕ−1 trasforma rette in rette.
Come si suol dire, ogni isomorfismo affine è una collineazione.
Se A e B sono due punti distinti dello spazio affine A, per indicare la retta
passante per A e B useremo la scrittura AB.
Definizione 3.6 In uno spazio affine A un parallelogramma è una quaterna
ordinata di punti distinti (A, B, C, D) a tre a tre non allineati e tale che
ABkCD e ADkBC .
Lemma 3.1 Sia (A, B, C, D) un parallelogramma. Allora:
−−→ −−→ −−→ −−→
1. AB + BC = AD + DC
−−→ −−→
2. AB + CD = 0
−−→ −−→
3. BC + DA = 0
Dimostrazione: La prima uguaglianza è la regola del parallelogramma. Per
quanto riguarda le altre due, dalla definizione di parallelogramma si ha
−−→ −−→ −−→ −−→
AB = tDC e AD = sBC
ove t ed s sono opportuni scalari. Quindi dalla
−→ −−→ −−→ −−→
AC + CD = AD = sBC
si ricava
−−→ −−→ −−→ −−→
AB + BC + CD = sBC
e quindi
−−→ −−→ −−→ −−→
tDC + BC + CD = sBC .
−−→ −−→
Tenuto conto che CD = −DC si ottiene
−−→ −−→
(1 − t)CD + (1 − s)BC = 0 .
−−→ −−→
Poiché i vettori CD e BC sono linearmente indipendenti, risulta t = s = 1.
Pertanto
−−→ −−→ −−→ −−→
AB = DC e AD = BC ,
che possono anche scriversi
−−→ −−→ −−→ −−→
AB − DC = AB + CD = 0
−−→ −−→ −−→ −−→
AD − BC = AD + CB = 0 .

Teorema 3.3 Siano A1 e A2 spazi affini di dimensione finita con K−spazi


vettoriali associati V1 e V2 . Sia
ϕ : A1 → A2
una corrispondenza biunivoca tale che ϕ trasformi rette in rette e ϕ−1 trasformi
rette in rette. Allora ϕ è un isomorfismo affine.
46 3. Geometria affine
Capitolo 4

Geometria proiettiva

Gli spazi proiettivi nascono dall’esigenza di costruire una geometria nella quale
venga eliminata la nozione di parallelismo, introdotta negli spazi affini. Inoltre
gli spazi proiettivi sono l’ambiente nel quale meglio si interpretano i concetti
dell’algebra lineare e i gruppi lineari.
Definizione 4.1 Sia V un K−spazio vettoriale di dimensione finita. Lo spazio
proiettivo associato a V è l’insieme P (V ) i cui elementi, detti punti, sono i
sottospazi vettoriali di dimensione 1 di V .
La dimensione di P (V ) è definita come dim(V )−1 e si denota con dim(P (V )).
Nel caso dim(P (V )) = 1 oppure 2 lo spazio proiettivo P (V ) è detto retta proi-
ettiva oppure piano proiettivo.
Ogni vettore non nullo v di V genera un sottospazio vettoriale di dimensione
1:

span(v) = {av | a ∈ K} .
Quindi span(v) determina un punto di P (V ). I punti di P (V ) sono denotati con
lettere latine maiuscole. Se P è un punto, la scrittura

P = [v]

evidenzia il sottospazio vettoriale 1–dimensionale span(v), con v 6= 0, che lo


determina. Ovviamente se P = [v] allora è anche P = [av], per ogni a 6= 0. In
altre parole, v e w vettori di V \ {0} determinano lo stesso punto di P (V ) se e
solo se w = av, per qualche a ∈ K ∗ .

♠ Osservazione. Se dim(V ) = 0, si ha P (V ) = ∅, dato che V = {0} non


ha sottospazi 1−dimensionali. Pertanto, per definizione, l’insieme vuoto ∅ è uno
spazio proiettivo di dimensione −1.
Se dim(V ) = 1, allora V ha un solo sottospazio di dimensione 1, V stesso, e
dim(P (V )) = 0. Dunque uno spazio proiettivo di dimensione 0 consiste esatta-
mente di un punto. ♠
48 4. Geometria proiettiva

♥ Esempio. L’esempio più importante di spazio proiettivo di dimensione n si


ottiene considerando V = K n+1 . Il corrispondente spazio proiettivo si denota
con Pn (K) e si chiama lo spazio proiettivo numerico su K. ♥

Per ottenere una geometria proiettiva, abbiamo bisogno di introdurre la


nozione di sottospazio proiettivo e poi quella di trasformazione proiettiva.
Sia U un sottospazio di V . Allora resta definito lo spazio proiettivo P (U )
contenuto in P (V ).
Definizione 4.2 Un sottoinsieme S di P (V ) è un sottospazio proiettivo di
P (V ) se esiste un sottospazio vettoriale U di V tale che S = P (U ). La di-
mensione di P (U ) è per definizione dim(U ) − 1. In particolare, l’insieme vuoto,
∅, i singoli punti di P (V ) e P (V ) stesso sono sottospazi di P (V ).
Si osservi che, poiché dim(P (U )) = dim(U ) − 1, risulta
dim(P (V )) − dim(P (U )) = dim(V ) − dim(U ) .

Il numero dim(P (V )) − dim(P (U )) si chiama la codimensione di P (U ) in P (V ).


I sottospazi di codimensione 1 si chiamano iperpiani.
Le operazioni di intersezione e somma tra sottospazi vettoriali si estendono
ai sottospazi proiettivi. Se P (U ) e P (W ) sono sottospazi proiettivi di P (V ) il
sottospazio intersezione è per definizione

P (U ) ∩ P (W ) = {P ∈ P (V ) | P ∈ P (U ), P ∈ P (W )} .
È facile provare che
P (U ) ∩ P (W ) = P (U ∩ W ) .
La definizione data non esclude che P (U ) ∩ P (W ) = ∅, e ciò accade se e solo se
U ∩ W = {0}.
Il sottospazio congiungente P (U ) e P (W ) è per definizione il sottospazio
P (U + W ).
Sussiste il teorema seguente, che è la versione proiettiva della formula di
Grassmann.
Teorema 4.1 Sia P (V ) uno spazio proiettivo di dimensione n definito da V .
Se P (U ) e P (W ) sono sottospazi proiettivi, allora
dim(P (U + W )) = dim(P (U )) + dim(P (W )) − dim(P (U ∩ W )) .
La dimostrazione si ottiene applicando la formula di Grassmann.
Si dice che i punti P1 = [v 1 ],..., Pk = [v k ] dello spazio proiettivo P (V ) sono
indipendenti (risp., dipendenti) se i vettori v 1 ,..., v k sono linearmente indipen-
denti (risp., linearmente dipendenti). Inoltre la scrittura
a1 P1 + · · · + ak Pk , con ai ∈ K
denota il punto proiettivo

[a1 v 1 + · · · + ak v k ] .
4.1. Geometria affine e geometria proiettiva 49

Si verifiche che queste definizioni sono ben poste. Si definisce allora sottospazio
generato dai punti P1 , . . . , Pk il sottospazio proiettivo

L(P1 , . . . , Pk ) = hv 1 , . . . , v k i .

♥ Esempio. Se i due punti P1 e P2 sono indipendenti, allora L(P1 , P2 ) è la


retta congiungente i due punti.
Se P1 , P2 , P3 sono tre punti indipendenti (non sono allineati), L(P1 , P2 , P3 )
è il piano determinato dai tre punti. ♥

Definizione 4.3 Sia P (V ) lo spazio proiettivo definito dallo spazio vettoriale


V di dimensione finita n + 1. Un riferimento proiettivo di P (V ) è una base
(v 0 , v 1 , . . . , v n ) di V . Si denota con RP (v 0 v 1 . . . v n ). Se P = [v], con v 6= 0, è
un punto proiettivo, allora le componenti (x0 , x1 , . . . , xn ) del vettore v nella base
(v 0 , v 1 , . . . , v n ) si dicono le coordinate omogenee del punto P nel riferimento
proiettivo RP (v 0 . . . v n ). La scrittura P = (x0 , . . . , xn ) indica che il punto P ha
coordinate omogenee (x0 , . . . , xn ). Infine, fissato RP (v 0 . . . v n ) i punti

U0 = [v 0 ] = (1, 0, . . . , 0, 1), . . . , Un = [v n ] = (0, 0, . . . , 0)

e il punto
U = [v 0 + v 1 + · · · + v n ] = (1, 1, . . . , 1)
si dicono, rispettivamente, punti fondamentali e punto unità del riferimento
proiettivo.

Con questa definizione è facile provare il seguente teorema.

Teorema 4.2 Sia P (V ) uno spazio proiettivo di dimensione n ≥ 1. Fissato il


riferimento proiettivo RP (v 0 . . . v n ), esiste una corrispondenza biunivoca tra i
sottospazi di P (V ) e gli spazi delle soluzioni dei sistemi lineari omogenei nelle
n + 1 incognite (x0 , . . . , xn ).

4.1 Geometria affine e geometria proiettiva


Storicamente, gli spazi proiettivi furono descritti come “ampliamenti” di spazi
affini, con l’aggiunta di “elementi impropri”. Illustriamo questa costruzione ge-
ometria limitandoci ai soli spazi affini e proiettivi numerici.
Lo spazio affine numerico di dimensione n + 1 sul campo K, denotato con
An+1 = An+1 (K), ha per punti gli elementi di K n+1 . Lo spazio proiettivo
numerico di dimensione n su K, denotato con Pn = Pn (K), ha per punti le
(n + 1)−ple ordinate [(x0 , . . . , xn )] di elementi di K n+1 \ {(0, . . . , 0)}, deter-
minate a meno di un fattore di proporzionalità non nullo. È facile vedere che
un punto proiettivo [(t0 , . . . , tn )] rappresenta una retta affine di An+1 passante
per il punto affine 0 = (0, . . . , 0), parametri direttori della quale sono appunto
t0 , . . . , tn . Si viene in tal modo a stabilire una corrispondenza biunivoca tra le
50 4. Geometria proiettiva

rette affini di An+1 passanti per l’origine 0 e i punti proiettivi di Pn . È questo


un altro modo, più espressivo e geometrico, di rappresentare gli spazi proiettivi.
Consideriamo ora l’iperpiano proiettivo H0 : x0 = 0 e l’iperpiano affine
H : x0 = 1. . L’iperpiano H0 può essere anche considerato come un iperpiano
affine di An+1 , che quindi è parallelo ad H0 . Dalla costruzione precedente si
deduce che ogni retta di An+1 passante per l’origine interseca l’iperpiano H
esattamente in un punto. Si ottiene in tal modo una corrispondenza biunivoca
j : H → P n \ H0
definita da
j(1, x1 , . . . , xn ) = [(1, x1 , . . . , xn )] .
L’inversa di j è
j −1 : Pn \ H0 → H
definita da
j −1 ([(x0 , . . . , xn )]) = (1, x1 /x0 , . . . , xn /x0 ) .
I punti proiettivi di H0 rappresentano le direzioni di tutte e sole le rette
contenute in H.
Osserviamo ora che l’iperpiano H è affinemente isomorfo a An (K), tramite
l’isomorfismo ρ che associa al punto (1, x1 , . . . , xn ) di H il punto (x1 , . . . , xn ) di
An (K). Si ottiene in tal modo la corrispondenza biunivoca
j0 : An (K) → Pn (K) \ H0
definita da
j0 (x1 , . . . , xn ) = [(1, x1 , . . . , xn )] ,
detta applicazione di passaggio a coordinate omogenee rispetto alla variabile x0 .
Essa ammette l’inversa
j0−1 : Pn (K) \ H0 → An (K)
definita da
j0−1 ([(x0 , x1 , . . . , xn )]) = (x1 /x0 , . . . , xn /x0 ) ,
detta applicazione di passaggio a coordinate non omogenee rispetto alla variabile
x0 .

♠ Osservazione. 1. Si noti che Pn (K) \ H0 è effettivamente uno spazio affine


di dimensione n.
2. La costruzione precedente può farsi rispetto ad una qualunque delle vari-
abili xi . ♠

Nella costruzione di j0 : An (K) → Pn (K) \ H0 , i punti dell’iperpiano H0


sono detti punti impropri (od anche punti all’infinito) di An (K) rispetto ad x0 ,
ed H0 è detto iperpiano improprio, o all’infinito.
Si osservi infine come la composizione di j0 seguita dall’inclusione canonica
di Pn (K) \ H0 in Pn (K) permetta di immergere An (K) in Pn (K). Quindi
problemi di geometria affine possono essere tradotti in problemi di geometria
proiettiva.
4.2. Informazioni numeriche sugli spazi proiettivi finiti 51

4.2 Informazioni numeriche sugli spazi proiet-


tivi finiti
Consideriamo il caso degli spazi proiettivi definiti su campi finiti. Lo spazio
proiettivo numerico di dimensione n − 1 sul campo finito GF (q), con q = pr , si
denota con P G(n − 1, q).
Teorema 4.3 Per P G(n − 1, q), con n ≥ 2, si ha
1. il numero dei punti di P G(n − 1, q) è
qn − 1
= q n−1 + q n−2 + · · · + q + 1 .
q−1

2. Più in generale, il numero dei sottospazi proiettivi di dimensione m − 1 è


m−1
(q n − 1)(q n − q) . . . (q n − q m−1 ) Y q n−i − 1
= .
(q m − 1)(q m − q) . . . (q m − q m−1 ) i=0
q i+1 − 1

3. Il numero dei sottospazi di dimensione m−1 di P G(n−1, q) contenenti un


assegnato sottospazio di dimensione k−1 è uguale al numero dei sottospazi
di dimensione m − k − 1 di P G(n − k − 1, q).
Dimostrazione: 1. P G(n − 1, q) è definito da V (n, q), che contiene q n vettori.
Uno di questi è il vettore nullo, e ciascuno degli altri q n −1 genera un sottospazio
1−dimensionale. Poiché ogni sottospazio 1−dimensionale contiene q − 1 vettori
non nulli, si ottiene
qn − 1
|P G(n − 1, q)| = = q n−1 + q n−2 + · · · + q + 1 .
q−1
2. Si conti il numero delle m−ple di vettori linearmente indipendenti. Il
j−esimo vettore di una tale m−pla non deve appartenere al sottospazio generato
dai precedenti j − 1 vettori; quindi vi sono q j − q j−1 scelte per esso. Pertanto il
numero di tali m−ple è

(q n − 1)(q n − q) . . . (q m − q m−1 ) .

Con identico ragionamento, ma con m al posto di n, si ottiene che il numero delle


m−ple linearmente indipendenti che generano un sottospazio di dimensione m

(q m − 1)(q m − q) . . . (q m − q m−1 ) .
Quindi la formula espressa nella 2.
3. Basta provare che esiste una biiezione tra i sottospazi di V di dimensione
m e i sottospazi di V /U di dimensione n − k, essendo U un fissato sottospazio di
dimensione k. Basta a tal fine ragionare come nella dimostrazione della formula
di Grassmann e applicare quindi la formula 2. del teorema.
52 4. Geometria proiettiva

4.3 Gruppi proiettivi


Siano P (V1 ) e P (V2 ) spazi proiettivi definiti rispettivamente dai K− spazi vet-
toriali V1 e V2 .
Definizione 4.4 Un isomorfismo di P (V1 ) con P (V2 ) è una corrispondenza
biunivoca ϕ di P (V1 ) con P (V2 ) che trasforma sottospazi in sottospazi, conser-
vando l’incidenza, cioè se per ogni punto P di P (V1 ) ed ogni sottospazio S di
P (V1 ) dalla P ∈ S segue ϕ(P ) ∈ ϕ(S).
Osserviamo che in particolare un isomorfismo trasforma punti allineati in punti
allineati, cioè, come si sul dire, è una collineazione.
Forniamo subito esempi di isomorfismi. Sia T : V1 → V2 una trasformazione
σ−semilineare. Sappiamo che T trasforma sottospazi in sottospazi. Definiamo
allora
ϕT : P (V1 ) → P (V2 )
ponendo
ϕT ([v]) = [T (v)] .
L’applicazione ϕT è ben posta, nel senso che per ogni a ∈ K ∗
ϕT ([av]) = [T (av)] = [aσ T (v)] = [T (v)] = ϕT ([v]) .
È facile ora verificare che si tratta effettivamete di un isomorfismo.
Il risultato che segue è noto come Teorema fondamentale della geometria
proiettiva.
Teorema 4.4 Siano V1 e V2 K−spazi vettoriali di dimensione finita n, con
n ≥ 3. Se ϕ : P (V1 ) → P (V2 ) è una biiezione che trasforma punti allineati in
punti allineati, allora ϕ è un isomorfismo, ed inoltre
(i) esiste una trasformazione σ−semilineare T : V1 → V2 tale che
ϕ = ϕT

(ii) se ϕ = ϕT 0 con T 0 trasformazione σ 0 −semilineare di V1 con V2 , allora


σ = σ 0 e T 0 (v) = aT (v) per qualche a ∈ K ∗
Omettiamo la dimostrazione.
Consideriamo in particolare l’insieme degli automorfismi di P (V ). Si tratta
di un gruppo, detto gruppo delle collineazioni di P (V ), e denotato con P ΓL(V ),
in virtù del teorema precedente che asserisce in tal caso che l’applicazione P
(“passaggio al proiettivo”) si estende ad un’applicazione suriettiva, che possi-
amo per coerenza denotare ancora con P , tra i gruppi ΓL(V ) e P ΓL(V ):
P : ΓL(V ) → P ΓL(V )
associa alla trasformazione semilineare T l’automorfismo P (T ) che prima abbi-
amo definito come ϕT , cioè
P (T )([v]) = [T (v)] .
4.4. Dualità 53

Teorema 4.5 L’applicazione P è un omomorfismo suriettivo di gruppi, il cui


nucleo Z è il centro del gruppo ΓL(V ), che consiste di tutte e sole le omotetie.
In particolare si deducono i seguenti fatti.
1. P ΓL(V ) ∼
= ΓL(V )/Z
2. Restringendo P al sottogruppo normale GL(V ), si ha che P ΓL(V ) con-
tiene un sottogruppo normale

P GL(V ) ∼
= GL(V )/Z

3. Si ha infine che il gruppo SL(V ) induce il gruppo

P SL(V ) ∼
= SL(V )/(Z ∩ SL(V ))

Per analogia, i gruppi P ΓL(V ), P GL(V ), P SL(V ) sono anche detti, rispet-
tivamente, gruppo semilineare proiettivo generale, gruppo lineare proiettivo gen-
erale, gruppo proiettivo speciale.
Abbiamo visto che nel caso dei gruppi lineari un ruolo speciale spetta alle
trasvezioni. Vediamo che tipo di collineazioni inducono.
Definizione 4.5 Una collineazione non identica ϕ di P (V ) è detta centrale se
esiste un punto C di P (V ), tale che ϕ trasformi in sé ogni sottospazio contenente
C. Il punto C è detto centro di ϕ.

Teorema 4.6 La collineazione non identica ϕ di P (V ) è centrale se e solo se


esiste un iperpiano H di P (V ) tale che ϕ ristretta ad H è l’identità.

La dimostrazione si consegue applicando il principio di dualità, che sarà in-


trodotto nel prossimo paragrafo. L’iperpiano H è l’asse della collineazione.
Dunque una collineazione centrale individua una coppia punto–iperpiano
(C, H): il suo centro e il suo asse. Se C ∈
/ H la collineazione centrale è detta
omologia; se invece C ∈ H la collineazione è detta elazione.

♠ Osservazione. Il termine elazione è tratto dalla letteratura anglosassone


(dall’inglese:elation); nella letteratura italiana è anche usato il termine omologia
speciale. ♠

Ricordando la definizione di trasvezione si ha


Teorema 4.7 Il gruppo proiettivo speciale P SL(V ) è generato dalle elazioni.
Si può anche dimostrare che il gruppo lineare proiettivo P GL(V ) è generato
dalle omologie.

4.4 Dualità
Sia V 0 lo spazio duale del K−spazio vettoriale V , che supporremo di dimensione
finita. Lo spazio proiettivo P (V 0 ) si chiama lo spazio proiettivo duale di P (V ).
54 4. Geometria proiettiva

Nel caso che V abbia dimensione finita, si ha V ∼ = V 0 e quindi dim(P (V )) =


0
dim(P (V )).
Per definizione due funzionali lineari non nulli ϕ e ψ di V 0 definiscono o
stesso punto di P (V 0 ) se e solo se ψ = aϕ per qualche a ∈ K ∗ .

Lemma 4.1 Siano ϕ, ψ ∈ V 0 \ {0}. Allora ψ = aϕ per qualche a ∈ K ∗ se e solo


se Ker(ϕ) = Ker(ψ).

La dimostrazione è un facile esercizio.


Ricordiamo che, per ogni ϕ ∈ V 0 \ {0},

Ker(ϕ) = {v ∈ V | ϕ(v) = 0}

è un iperpiano di V , e quindi definisce un iperpiano di P (V ). Sia Λ la famiglia


degli iperpiani di P (V ). Resta definita la seguente applicazione δ, detta di du-
alità,
δ : P (V 0 ) → Λ
che associa al punto [ϕ] di P (V 0 ) l’iperpiano Ker(ϕ). È facile verificare che δ è
ben posta, in conseguenza del lemma precedente, e che è biunivoca.
Per ottenere ulteriori proprietà dell’applicazione δ, introduciamo le seguenti
definizioni.

Definizione 4.6 Sia X un sottoinsieme di V . L’annullatore di X è il sot-


tospazio di V 0

X a = {ϕ ∈ V 0 | ϕ(v) = 0 per ogni v ∈ X} .

Analogamente, se S è un sottoinsieme di V 0 , l’annullatore di S è il sottospazio


di V
S a = {v ∈ V | ϕ(v) = 0 per ogni ϕ ∈ S} .

Esercizio. Verificare che X a ed S a sono effettivamente sottospazi.

Proposizione 4.1 (i) Sia X un sottospazio di V . Allora

dim(X) + dim(X a ) = dim(V )

(ii) Sia S un sottospazio di V 0 . Allora

dim(S) + dim(S a ) = dim(V 0 ) = dim(V )

(iii) Per ogni sottospazio X di V e per ogni sottospazio S di V 0 si ha

(X a )a = X e (S a )a = S .

La dimostrazione viene lasciata per esercizio.


4.4. Dualità 55

Definizione 4.7 Una correlazione di P (V ) è una corrispondenza biunivoca di


P (V ) con se stesso che trasforma sottospazi in sottospazi, invertendo l’inclusione,
cioè se ρ è una correlazione e S ⊆ T , con S e T sottospazi di P (V ), allora
ρ(T ) ⊆ ρ(S).
Si osservi che l’applicazione di passaggio all’annullatore che trasforma il sot-
tospazio X di P (V ) nel sottospazio X a di P (V 0 ) è una biiezione che trasforma
sottospazi in sottospazi invertendo l’inclusione.
Il teorema che segue stabilisce il legame tra trasformazioni semilineari e
correlazioni, ed è la prima applicazione importante del Teorema fondamentale
della geometria proiettiva.
Teorema 4.8 Sia ρ : P (V ) → P (V ) una correlazione. Allora esite un isomor-
fismo σ−semilineare f : V → V 0 tale che per ogni sottospazio X di P (V )
f (X) = ρ(X)a .
Viceversa, ogni isomorfismo semilineare di V con V 0 determina una corre-
lazione di P (V ).
Dimostrazione: Sia ρ una correlazione di P (V ). L’applicazione di P (V ) con
P (V 0 ) definita da
X 7→ ρ(X)a
per ogni sottospazio X di P (V ) è un isomorfismo proiettivo. Per il teorema
fondamentale della geometria proiettiva, esiste un isomorfismo semilineare f di
V con V 0 tale che f (X) = ρ(X)a .
La dimostrazione del viceversa si ottiene componendo l’isomorfismo semilin-
eare f con l’applicazione di dualità δ.

Definizione 4.8 Sia S un sottospazio di P (V ). Il sistema lineare di iperpiani


di centro S è la totalità degli iperpiani di P (V ) che contengono S. Si denota
con Λ1 (S).

♥ Esempio. Sia P (V ) un piano proiettivo. Se Q è un punto, allora Λ1 (Q) è il


fascio di rette di centro Q (totalità delle rette che passano per Q).
Sia P (V ) uno spazio proiettivo di dimensione tre. Se ` è una retta di P (V ),
allora Λ1 (`) è il fascio di piani di asse ` (totalità dei piani che contengono `).
In generale se dim(S) = dim(P (V )) − 2, il sistema lineare Λ1 (S) si chiama
fascio di iperpiani. ♥

Proposizione 4.2 Fissato il riferimento proiettivo RP (e0 . . . en ) di P (V ), se


S è un sottospazio di dimensione k e
F1 (x0 , . . . , xn ) = F2 (x0 , . . . , xn ) = · · · = Fn−k (x0 , . . . , xn ) = 0
sono equazioni cartesiane di S (con Fi (x0 , . . . , xn ) = 0 equazioni lineari omoge-
nee), allora Λ1 (S) consiste di tutti e soli gli iperpiani di equazione
a1 F1 (x0 , . . . , xn ) + +̇an−k Fn−k (x0 , . . . , xn ) = 0
56 4. Geometria proiettiva

ove a1 , . . . , an−k sono elementi di K non tutti nulli.

Dimostrazione: Esercizio.

Dalla Proposizione 4.2 si ha dunque che se S è un sottospazio di P (V ) e


dim(S) = k allora esistono n − k iperpiani H1 , . . . , Hn−k di P (V ), ove n =
dim(P (V )) tali che
S = H1 ∩ H2 ∩ · · · ∩ Hn−k
e ogni altro iperpiano contenente S è combinazione lineare di essi. Pertanto nella
dualità δ si ha che l’iperpiano H appartiene a Λ1 (S) se e solo se

δ −1 (H) ∈ span(δ −1 (H1 ), . . . , δ −1 (Hn−k )) ;

inoltre
dim(span(δ −1 (H1 ), . . . , δ −1 (Hn−k ))) = n − k − 1 .
In questo modo si ottiene una correlazione di P (V ). Esplicitamente questa cor-
relazione opera al seguente modo. Sia S un sottospazio di P (V ) con dim(S) = k.
Si associa ad S l’annullatore S a = {[ϕ] ∈ P (V 0 ) | ϕ(v) = 0 per ogni [v] ∈ S
e quindi Λ1 (S) = {Ker(ϕ) | [ϕ] ∈ S a }. Ora ogni iperpiano di Λ1 (S) può essere
espresso come combinazione lineare di opportuni n − k iperpiani H1 , . . . , Hn−k .
Allora la correlazione che stiamo descrivendo associa ad S il sottospazio

span(δ −1 (H1 ), . . . , δ −1 (Hn−k )) .

Questa correlazione trasforma, come deve essere, punti in iperpiani, rette


in sottospazi di dimensione n − 2. In generale sottospazi k−dimensionali in
sottospazi (n − k − 1)−dimensionali. Si noti che esistono valori di k per cui
k = n − k − 1 se e solo se n è dispari. I sottospazi di dimensione k per cui
k = n − k − 1 si dicono autoduali.
Da quanto precede si ottiene il cosiddetto principio di dualità. Sia C una
configurazione di sottospazi di P (V ) soddisfacente a certe relazioni di incidenza.
Si chiama configurazione duale di C, denotata con C 0 , la configurazione ottenuta
da C applicando la correlazione prima definita. Si ha allora:
se P è una proposizione vera riguardante sottospazi ed incidenze fra essi,
allora la proposizione duale P 0 è anch’essa vera.

♥ Esempio. Sia dim(P (V )) = 2.


Proposizione P: due punti distinti sono incidenti un’unica retta.
Proposizione P 0 : due rette distinte sono incidenti un unico punto.
La stessa proposizione P formulata in P (V ) di dimensione tre, ha per duale
Proposizione P 0 : due piani distinti sono incidenti in un’unica retta.
In uno spazio proiettivo di dimensione tre le rette sono sottospazi autoduali.

Capitolo 5

Geometria Polare

Abbiamo visto nel capitolo precedente come ogni isomorfismo semilineare di


V con V 0 induca una correlazione di P (V ), e viceversa. A questa corrispon-
denza tra isomorfismi semilineari e correlazioni può essere data un’altra inter-
pretazione, che servirà per studiare e classificare particolari correlazioni, le po-
larità, che sono correlazioni di periodo 2 (applicate due volte danno l’identità).
Uno spazio proiettivo dotato di una polarità definisce una geometria polare.

5.1 Forme sesquilineari


Sia V un K−spazio vettoriale, con K campo.
Definizione 5.1 Un’applicazione β : V × V → K si dice forma σ−sequilineare
se
β(v 1 + v 2 , w) = β(v 1 , w) + β(v 2 , w)
β(v, w1 + w2 ) = β(v, w1 ) + β(v, w2 )
e
β(av, bw) = abσ β(v, w)
per ogni v, v 1 , v 2 , w, w1 , w2 ∈ V e per ogni a, b ∈ K, essendo σ un automor-
fismo di K. Se σ è l’identità la forma è detta bilineare.

♠ Osservazione. 1. La definizione data può anche esprimersi dicendo che


l’applicazione β è lineare nel primo argomento e σ−semilineare nel secondo. Il
termine sesquilineare significa una volta e mezzo lineare; quindi è appropriato.
2. Il caso σ = 1, cioè il caso delle le forme bilineari, è stato ampiamente
trattato nel corso di Geometria Analitica, con particolare riguardo al caso reale.

Una forma sesquilineare β si dice non degenere se


β(v, w) = 0 per ogni v ∈ V implica w = 0 .
58 5. Geometria Polare

Proposizione 5.1 Un isomorfismo σ−semilineare f : V → V 0 induce una


forma σ−sesquilineare non degenere β, definita ponendo

β(v, w) = f (w)(v) .

Viceversa, una forma σ−sesquilineare β non degenere induce un isomorfismo


σ−semilineare f di V con V 0 , definito da

f (w) = β(−, w) .

Dimostrazione: Esercizio.

Sia β una forma σ−sesquilineare. Una coppia di vettori (v, w) si dice or-
togonale se β(v, w) = 0. In generale non accade che β(v, w) = 0 implichi
β(w, v) = 0, il che rende asimmetrica la relazione di ortogonalità. Pertanto
ci interesseremo soltanto alle forme sesquilineari riflessive.
Definizione 5.2 Una forma sesquilineare β è detta riflessiva se

β(v, w) = 0 implica β(w, v) = 0 .

La relazione di ortogonalità viene comunemente indicata con il simbolo ⊥.


Se X è un sottospazio di V il sottospazio

X ⊥ = {v ∈ V | β(v, w) = 0 per ogni w ∈ X}

si chiama il sottospazio ortogonale ad X. Sia β una forma non degenere. Se f


è l’isomorfismo σ−semilineare di V con V 0 che corrisponde a β, allora si vede
facilmente che
X ⊥ = f (X)a .
Dunque la correlazione di P (V ) che corrisponde ad f trasforma il sottospazio
P (X) di P (V ) nel sottospazio P (X ⊥ ). L’inversa di questa correlazione cor-
risponde all’isomorfismo σ −1 −semilineare
−1
v 7→ β(v, −)σ .

Segue allora dal teorema fondamentale della geometria proiettiva che la forma
σ−sesquilineare β e la forma τ −sesquilineare γ inducono la stessa correlazione
di P (V ) se e solo se, per qualche b ∈ K,

σ = τ e γ(v, w) = bβ(v, w) .

Osserviamo infine che dalla X ⊥ = f (X)a seguono


1. dim(X) + dim(X ⊥ ) = dim(V )
2. X ⊆ Y implica Y ⊥ ⊆ X ⊥
3. (X + Y )⊥ = X ⊥ ∩ Y ⊥
5.2. Polarità 59

4. (X ∩ Y )⊥ = X ⊥ + Y ⊥ .

Terminiamo questo paragrafo con il concetto di matrice associata ad una


forma sesquilineare. Sia B = (e1 , . . . , en ) una base di V . Se β è una forma
σ−sesquilineare (riflessiva) la matrice associata a β nella base B è la matrice
n × n il cui elemento di posto (ij) è β(ei , ej ). Denotiamo con A questa matrice.
Le coordinate di vettore nella base B saranno denotate come matrici n × 1,
usando simboli come X, Y ecc. Inoltre se σ è un automorfismo del campo
e X = (x1 , . . . , xn )t è la matrice delle coordinate del vettore v (il simbolo t
significa trasposizione), la scrittura X σ significa

X σ = (xσ1 , . . . , xσn )t .

Si ha allora: se v ha coordinate X e w ha coordinate Y ,

β(v, w) = X t AY σ .

5.2 Polarità
Una polarità è una correlazione di P (V ) di ordine due. Se π è una polarità si
dice che la coppia (P (V ), π) determina una geometria polare. Osserviamo che
una correlazione π è una polarità se e solo se π = π −1 . Ciò significa che se β è
la forma σ−sesquilineare associata a π, allora π è indotta sia dall’isomorfismo
−1
v 7→ β(−, v) sia dall’isomorfismo u 7→ β(u, −)σ . Infine è ora facile verificare
che π è una polarità se e solo se la forma associata β è riflessiva (infatti, β è
riflessiva se e solo (X ⊥ )⊥ = X). Dunque classificare le polarità che si possono
definire su P (V ) equivale a classificare i tipi di forme σ−sesquilineari che si
possono definire su V . A tal proposito sussiste il seguente teorema.

Teorema 5.1 (Birkhoff–von Neumann) Supponiamo che dim(V ) sia almeno


tre (ma finita). Sia π una polarità di P (V ). Allora π è indotta da una forma
σ−sesquilineare β di uno dei seguenti tipi.

1. Alternante. In questo caso σ = 1 e β(v, v) = 0 per ogni v ∈ V .

2. Simmetrica. In questo caso σ = 1 e β(v, w) = β(w, v) per ogni v, w ∈ V .

3. Hermitiana. In questo caso σ 2 = 1, σ 6= 1 e β(v, w) = β(w, v)σ per ogni


v, w ∈ V .

Dimostrazione: Omessa.

Si hanno pertanto tre possibili tipi di geometrie polari, dette simplettica,


ortogonale o unitaria, secondo quale dei tre casi 1., 2. oppure 3. del teorema
valga. Nel corso di Geometria Analitica, i tre casi precedenti sono stati trattati
quando K = R (casi 1. e 2.) e quando K = C (caso 3.).
60 5. Geometria Polare

5.3 Forme quadratiche


Nel corso di Geometria Analitica le forme quadratiche vengono definite a partire
da una forma bilineare simmetrica. Sia K di caratteristica diversa da due. Se β
è una forma bilineare simmetrica, la forma quadratica associata è l’applicazione
Q : V → K tale che Q(v) = β(v, v), per ogni v ∈ V . Sussiste la seguente
identità di polarizzazione:

2β(u, v) = Q(u + v) − Q(u) − Q(v)

per ogni u, v ∈ V . Nel caso di caratteristica due l’identità di polarizzazione non


è più valida. Si modifica allora la definizione di forma quadratica.

Definizione 5.3 Una forma quadratica sul K−spazio vettoriale V è un’applicazione


Q : V → K tale che

(i) Q(av) = a2 Q(v), per ogni a ∈ K ed ogni v ∈ V ; e

(ii) l’applicazione β : V × V → K definita da

β(u, v) = Q(u + v) − Q(u) − Q(v)

sia una forma bilineare.

La forma β è detta la forma polare di Q.

Si osservi che la polare di Q è di fatto una forma simmetrica. Se la caratteristica


del campo è diversa da due, allora se β è la polare di Q, l’applicazione

Q0 : V → K

definita da Q0 (v) = β(v, v) differisce da Q per il fattore 2, in virtù dell’identità di


polarizzazione, sicché in tal caso questa definizione di forma quadratica coincide
con la prima (a meno dell’inessenziale fattore 2). Invece, se la caratteristica di
K è due, allora la forma polare di Q è alternante e non determina univocamente
Q (cioè forme quadratiche diverse possono avere la stessa forma polare). In
ogni caso vi è un guadagno: lo spazio V è anche dotato di una forma bilineare
alternante.
Diciamo qualcosa sulla matrice associata ad una forma quadratica. Siano Q
una forma quadratica su V , β la sua forma polare e E = (e1 , . . . , en ) una base
di V . Sia A = (aij ) = (β(ei , ej )), con i, j = 1, . . . , n, la matrice associata a β.
Se v = x1 e1 + · · · + xn en , allora calcolando esplitamente

Q(v) = Q(x1 e1 + · · · + xn en )

tenendo in conto che

Q(u + v) = Q(u) + Q(v) + β(u, v)


5.3. Forme quadratiche 61

si ottiene
n
X X
Q(v) = Q((x1 , . . . , xn )) = x2i Q(ei ) + xi xj aij .
i=1 1≤i<j≤n

Definiamo allora come matrice di Q nella base E la matrice

M = (bij )i,j=1,...,n ,

ove (
aij = β(ei , ej ) se i < j
bii = Q(ei ) e bij =
0 se i > j
Con questa definizione si ha, denotando con X la matrice delle coordinate di v
n
X X
Q(v) = Q((x1 , . . . , xn )) = X t M X = bii x2i + bij xi xj .
i=1 1≤i<j≤n

La matrice J si riottiene da quella di Q tramite la relazione

J = M + Mt .

Si osservi che se la caratteristica del campo è due, la matrice M + M t è anti-


simmetrica, come deve essere, poiché in tal caso la forma polare è alternante.
In ogni caso, rispetto ad una fissata base, la forma quadratica Q si rappre-
senta con un polinomio omogeneo di secondo grado nelle n variabili x1 , . . . , xn .
È facile verificare che, viceversa, ogni polinomio omogeneo di secondo grado
nelle n variabili x1 , . . . , xn definisce una forma quadratica su K n .

♥ Esempio. Sia Q((x1 , x2 , x3 )) = x21 − x1 x2 + x1 x3 − x2 x3 + x23 definita su K 3 .


Q è una forma quadratica e la sua matrice è
 
1 −1 1
M = 0 0 −1 .
0 0 1
La matrice della sua forma polare è
 
2 −1 1
J = M + M t = −1 0 −1 .
1 −1 2

Sia β una forma sesquilineare riflessiva sullo spazio vettoriale V . Il radicale


di V è il sottospazio

Rad(V ) = V ⊥ = {v ∈ V | β(v, w) = 0 per ogni w ∈ V } .

È facile verificare che β è non degenere se e solo se V ⊥ = {0}.


62 5. Geometria Polare

Definizione 5.4 Sia Q una forma quadratica su V e sia β la sua forma polare.
Si dice che Q è non degenere se

Q(v) = 0 e v ∈ Rad(V ) implica v = 0 ;

in altri termini l’unico vettore di Rad(V ) su cui Q si annulla è il vettore nullo.

Si noti che, se la forma polare β di Q è non degenere, allora Q è non degenere.


Il viceversa è vero se la caratteristica del campo è diversa da due (esercizio). In
caratteristica due, come vedremo, ci sono forme quadratiche non degeneri che
hanno forme polari degeneri.

5.4 Gruppi di isometrie


D’ora innanzi ci occuperemo soltanto di forme sesquilineari non degeneri e rif-
lessive e di forme quadratiche non degeneri.

Definizione 5.5 Sia V un K−spazio vettoriale di dimensione finita.


(i) La coppia (V, β) è uno spazio simplettico se β è una forma bilineare
alternante non degenere, che diremo semplicemente forma simplettica.
(ii) La coppia (V, β) è uno spazio unitario se β è una forma hermitiana non
degenere.
(iii) La coppia (V, Q) è uno spazio ortogonale se Q è una forma quadratica
non degenere.

Siano (V1 , β1 ) e (V2 , β2 ) entrambi spazi simplettici o unitari. Una isometria


di V1 con V2 è una trasformazione σ−semilineare f di V1 con V2 tale che

β2 (f (v), f (w)) = β1 (v, w)σ per ogni v, w ∈ V1 .

Analogamente, se (V1 , Q1 ) e (V2 , Q2 ) sono entrambi spazi ortogonali una isome-


tria di V1 con V2 è una trasformazione σ−semilineare f di V1 con V2 tale che

Q2 (f (v)) = Q1 (v)σ per ogni v ∈ V1 .

In tutti i casi una isometria è detta lineare se l’automorfismo σ è l’identità.


È facile verificare che l’inversa di una isometria è un’isometria e che la com-
posizione di isometrie è un’isometria. Quindi “essere isometrici” è una relazione
di equivalenza.
In particolare, se V è dotato di forma simplettica o hermitiana oppure di
forma quadratica, l’insieme di tutte le isometrie di V è un gruppo, ed è ovvia-
mente un sottogruppo di ΓL(V ). Inoltre, l’insieme delle isometrie lineari è un
sottogruppo di GL(V ). In tal caso si hanno i tre sottogruppi, uno per ciascun
tipo di spazio simplettico, unitario oppure ortogonale:
Gruppo Simplettico, denotato con Sp(V );
Gruppo Unitario, denotato con U (V );
Gruppo Ortogonale, denotato con O(V ).
5.4. Gruppi di isometrie 63

Nei prossimi paragrafi ci occuperemo più da vicino a questi gruppi. Ora


concludiamo il paragrafo con un teorema fondamentale, noto come Teorema di
Witt. Prima premettiamo il seguente fatto.
Se V è dotato di una forma sesquilineare riflessiva β oppure di una forma
quadratica Q, allora per ogni sottospazio U di V la restrizione di β ad U oppure
di Q ad U , fornisce ad U la corrispondente struttura. Si osservi, beninteso, che
β oppure Q possono essere non degeneri e indurre su U una forma degenere.

Teorema 5.2 Sia V dotato di forma simplettica, unitaria oppure di forma


quadratica. Siano U1 e U2 sottospazi di V e sia f : U1 → U2 una isometria
lineare di U1 con f (U1 ). Allora esiste una isometria lineare g di V che estende
f , cioè g(u) = f (u) per ogni u ∈ U1 .

Dimostrazione: Omessa.

Ci interessa soprattutto una conseguenza del teorema di Witt, che permette


di definire un invariante numerico per ciascuno degli spazi simplettico, unitario
o ortogonale. Premettiamo le seguenti definizioni.

Definizione 5.6 Sia V un K−spazio vettoriale dotato di forma sesquilineare


riflessiva β.
(i) Un vettore v 6= 0 è detto isotropo se β(v, v) = 0.
(ii) Un sottospazio U di V è detto totalmente isotropo se β(v, v) = 0 per
ogni v ∈ U ; in modo equivalente, se U ⊆ U ⊥ . Inoltre, un sottospazio totalmente
isotropo è massimale se non è propriamente contenuto in nessun sottospazio
totalmente isotropo.
Sia V dotato di una forma quadratica Q.
(iii) Un vettore v 6= 0 è detto singolare se Q(v) = 0.
(iv) Un sottospazio U di V è detto totalmente singolare se Q(v) = O per
ogni v ∈ U . Inoltre, un sottospazio totalmente singolare è detto massimale se
non è contenuto propriamente in nessun sottospazio totalmente singolare.

Il prossimo teorema, conseguenza del teorema di Witt, riguarda la dimen-


sione dei sottospazi totalmente isotropi o singolari massimali.

Teorema 5.3 Siano U1 e U2 sottospazi totalmente isotropi (risp., singolari)


massimali di V dotato di forma simplettica o unitaria (risp., quadratica). Allora
dim(U1 ) = dim(U2 ).

Dimostrazione: Osserviamo innanzitutto che sui sottospazi U1 e U2 è indotta


la forma identicamente nulla, dato che si tratta di sottospazi totalmente isotropi
o singolari. Quindi ogni isomorfismo f di U1 con f (U1 ) è una isometria di U1
con U2 e, per il teorema di Witt, si estende ad una isometria di V . Sia allora,
per assurdo, dim(U1 ) < dim(U2 ). Se f è una isometria di U1 con f (U1 ) ⊂ U2 ,
sia g una estensione di f a tutto V . Allora g −1 (U2 ) è un sottospazio totalmente
isotropo o singolare contenente propriamente U1 ; contraddizione, dato che U1 è
per ipotesi massimale.
64 5. Geometria Polare

Definizione 5.7 La comune dimensione dei sottospazi totalmente isotropi (o


singolari) massimali si chiama indice di Witt.

Si osservi che l’indice di Witt è al più la metà della dimensione di V , dato che
se M è un sottospazio totalmente isotropo allora M ⊆ M ⊥ e

dim(M ) + dim(M ⊥ ) = dim(V ) .

Per il caso di un sottospazio totalmente singolare U , si osservi che U è totalmente


isotropo rispetto alla forma polare della forma quadratica (esercizio!).
Diamo infine alcune definizioni che ci serviranno nei prossimi paragrafi.

Definizione 5.8 Sia V dotato di forma sesquilineare riflessiva β. La coppia di


vettori non nulli (u, v) è detta coppia iperbolica se

β(u, u) = β(v, v) = 0 e β(u, v) = 1 .

Se V è dotato di forma quadratica Q con forma polare β, la coppia di vettori


non nulli (u, v) è detta coppia iperbolica se

Q(u) = Q(v) = 0 e β(u, v) = 1 .

Proposizione 5.2 Se (u, v) è una coppia iperbolica, allora u e v sono vettori


linearmente indipendenti.

Dimostrazione: Se fossero linearmente dipendenti, allora dovrebbe essere, ad


esempio, v = au, per qualche a ∈ K. Pertanto

1 = β(u, au) = aσ β(u, u) = 0 .

Questa contraddizione prova l’asserto.

Dalla proposizione che precede, si ha che ogni coppia iperbolica genera un


sottospazio di dimensione due, detto piano iperbolico.

5.5 Geometria simplettica


In tutto questo paragrafo V è uno spazio vettoriale di dimensione finita sopra il
campo K e β è una forma simplettica su V . Ricordiamo che il gruppo simplettico
di V è il sottogruppo Sp(V ) di GL(V ) che consiste di tutti gli automorfismi
lineari f tali che
β(f (v), f (w)) = β(v, w) .
Sia E = (e1 , . . . , en ) una base di V . La matrice di β nella base E è per
definizione la matrice

J = (β(ei , ej )) , i, j = 1, . . . , n .
5.5. Geometria simplettica 65

Ne segue che, se v e w hanno matrice delle coordinate X e Y rispettivamente,


allora
β(v, w) = X t JY .
Poiché β è alternante, dalla β(v, v) = 0 si trae
β(v, w) = −β(w, v) .
Quindi la matrice J è antisimmetrica, cioè
J t = −J .
Si noti in particolare che gli elementi della sua diagonale principale sono tutti
nulli.
Proposizione 5.3 Sia f ∈ GL(V ) e sia A la sua matrice nella base E. Allora
f ∈ Sp(V ) se e solo se At JA = J .
In particolare, Sp(V ) è isomorfo al gruppo di matrici
Sp(n, K) = {A ∈ GL(n, K) | At JA = J} .
La dimostrazione è un facile esercizio.
Le matrici scalari contenute in Sp(n, K) sono soltanto le due matrici I e
−I (infatti se aI ∈ Sp(n, K), allora a2 J = J). Il gruppo proiettivo simplettico
indotto da Sp(V ) su P (V ) si denota con P Sp(V ) e si ha
P Sp(V ) ∼
= Sp(V )/(Z ∩ Sp(V )) = Sp(V )/{I, −I} .
Si osservi che nel caso di caratteristica due, P Sp(V ) = Sp(V ).
Cerchiamo ora basi nelle quali più utilmente si possano studiare gli spazi
simplettici.
Sia e1 6= 0 un qualunque vettore di V . Poichè β è non degenere, esiste un
vettore f 1 tale che β(e1 , f 1 ) 6= 0. Allora, sostituendo eventualmente f 1 con il
suo multiplo β(e1 , f 1 )−1 f 1 , si può supporre che
β(e1 , f 1 ) = 1 .
Pertanto (e1 , f 1 ) è una coppia iperbolica. Possiamo allora scrivere

V = he1 , f 1 i ⊥ he1 , f 1 i ,
ove con la scrittura U ⊥ W intendiamo somma diretta di sottospazi ortogonali
fra loro o, più brevemente, somma ortogonale, e il simbolo hv 1 , . . . , v k i significa
sottospazio generato da v 1 , . . . , v k .

Il procedimento può ora riapplicarsi al sottospazio he1 , f 1 i , e proseguire
quindi induttivamente, finché il procedimento ha termine (essendo V di dimen-
sione finita n), pervenendo a scrivere V coma somma ortogonale di m piani
iperbolici hei , f i i, i = 1, . . . , m:
V = he1 , f 1 i ⊥ · · · ⊥ hem , f m i ,
66 5. Geometria Polare

ove (
1 se i = j
β(ei , ej ) = β(f i , f j ) = 0 e β(ei , f j ) = δij = .
0 se i 6= 0
Una prima conseguenza è che dim(V ) = 2m è pari e che per ogni intero positivo
m esiste uno ed un solo spazio simplettico (a meno di isometrie).
La base ordinata (e1 , f 1 , . . . , em , f m ) determinata con il procedimento di
cui sopra è detta base simplettica. Se questa base viene riordinata nella base

(e1 , . . . , em , f 1 , . . . , f m )

la matrice di β in questa base è


 
O I
J=
−I O

ove O ed I sono rispettivamente la matrice nulla e la matrice identica di ordine


m. Si osservi che det(J) = 1. Nella base simplettica più sopra determinata si ha
che Sp(2m, K) consiste di tutte e sole le matrici A ∈ GL(2m, K) tali che

At JA = J .

Quindi
det(A)2 = 1 .
Pertanto se g ∈ Sp(V ), allora det(g) = ±1. Di conseguenza, gli elementi di
Sp(V ) che hanno determinante uguale ad 1 formano un sottogruppo normale di
Sp(V ) (dato che ha indice 2 in Sp(V )) ed appartengono a SL(V ).
La determinazione di basi simplettiche porta alla conclusione che l’indice di
Witt di (V, β) è 1/2dim(V ), poiché, ad esempio, il sottospazio

M = he1 , . . . , em i

è totalmente isotropo e massimale.

5.5.1 Spazi polari simplettici


Sia (V, β) uno spazio simplettico. La geometria polare simplettica, o più semplice-
mente lo spazio polare simplettico, S(V ), è la famiglia dei sottospazi proiettivi
di P (V ) che corrispondono ai sottospazi totalmente isotropi di V . Il rango po-
lare di S(V ) è l’indice di Witt di V . Osserviamo in particolare che S(V ) ha per
insieme di punti tutti i punti di P (V ), dato che β è alternante. Il gruppo della
geometria S(V ) è il gruppo proiettivo simplettico P Sp(V ). Infatti
1. P Sp(V ) trasforma punti proiettivi in punti proiettivi. Anzi si può dire
qualcosa di più: dati Q ed R punti di P (V ) esiste P (f ) ∈ P Sp(V ) che trasforma
Q in R (è una conseguenza del teorema di Witt: esercizio!). Questa proprietà si
esprime dicendo che P Sp(V ) ha una azione transitiva sui punti di P (V ).
2. P Sp(V ) trasforma sottospazi totalmente isotropi in sottospazi totalmente
isotropi, conservando le inclusioni.
5.5.1. Spazi polari simplettici 67

3. P Sp(V ) ha un’azione transitiva sulla famiglia dei sottospazi totalmente


isotropi massimali (conseguenza del teorema di Witt).
Esaminiamo ora il caso finito. Lo spazio polare simplettico finito di rango
polare n ≥ 1 si denota con W (2n − 1, q), ove q è l’ordine del campo di Galois
GF (q).
Proposizione 5.4 Il numero dei punti di W (2n − 1, q) uguaglia il numero dei
punti di P G(2n − 1, q); cioè
q 2n − 1
|W (2n − 1, q)| = .
q−1
È conseguenza delle definizioni.

♥ Esempio. Vediamo alcuni valori bassi di n.


Per n = 1, |W (1, q)| = q + 1;
per n = 2, |W (3, q)| = q 3 + q 2 + q + 1 = (q + 1)(q 2 + 1);
per n = 3, |W (5, q)| = q 5 + q 4 + q 3 + q 2 + q + 1 = (q + 1)(q 4 + q 2 + 1).

Proposizione 5.5 Il numero H(n) dei sottospazi totalmente isotropi massimali


di W (2n − 1, q) è
Y n
H(n) = (q i + 1) .
i=1

Dimostrazione: Sia H(n) il numero che cerchiamo. Denotiamo con F (n) il


numero dei punti (proiettivi) di un sottospazio (proiettivo) totalmente isotropo
massimale. Poiché l’indice di Witt è n, si ha
qn − 1
F (n) = .
q−1
Contiamo ora in due modi diversi le coppie ordinate (P, U ), ove U è un sot-
tospazio totalmente isotropo massimale e P ∈ U . Si ha
|(−, U )| = F (n) ;
da cui X
|(−, U )| = F (n)H(n)
U
la sommatoria essendo estesa a tutti i sottospazi totalmente isotropi massimali.
Contiamo ora |(P, −)|, al variare di P in W (2n − 1, q). Se P = [v], si consideri
lo spazio quoziente v ⊥ /hvi, sul quale tramite la proiezione canonica è indotta
da β una forma simplettica. Lo spazio polare corrispondente ha indice di Witt
n − 1. Per il teorema di omomorfismo vi è una corrispondenza biunivoca tra
i sottospazi totalmente isotropi massimali di V contenenti hvi e i sottospazi
totalmente isotropi massimali dello spazio polare quoziente. Quindi
|(P, −)| = H(n − 1) ;
68 5. Geometria Polare

da cui
X q 2n − 1
H(n − 1) = H(n − 1) .
q−1
P ∈W (2n−1,q)

Uguagliando fra loro le due sommatorie si ottiene


qn − 1 (q n − 1)(q n + 1)
H(n) = H(n − 1) ;
q−1 q−1
da cui la formula ricorsiva

H(n) = (q n + 1)H(n − 1) , n ≥ 2

con H(1) = q + 1. Da questa formula, per induzione, si ottiene la formula


dell’enunciato.

Determiniamo ora gli ordini di Sp(2n, q) e P Sp(2n, q).


Cominciamo con l’osservare che date due basi ordinate simplettiche E ed F
di V esiste una ed un sol elemento g di Sp(V ) che trasforma ordinatamente E in
F . Per determinare l’ordine di Sp(V ) basta allora calcolare il numero delle basi
ordinate simplettiche di V . Cominciamo con il calcolare il numero delle coppie
iperboliche.
Lemma 5.1 Il numero delle coppie iperboliche dello spazio simplettico finito su
GF (q) è
q 2n − 1 q 2n−1 .


Dimostrazione: Il primo vettore v della coppia iperbolica può essere uno


qualunque dei (q 2n −1) vettori non nulli di V , e l’altro vettore w della coppia può
essere scelto in uno qualunque dei sottospazi di dimensione uno non contenuti
nel sottospazio ortogonale a v (infatti deve essere β(v, w) = 1). Ora hvi⊥ , che
ha dimensione 2n − 1, contiene (q 2n−1 − 1)/(q − 1) sottospazi di dimensione uno.
Quindi w può essere scelto in
q 2n − 1 q 2n−1 − 1
− = q 2n−1
q−1 q−1
modi diversi. Pertanto il numero delle coppie iperboliche è

q 2n − 1 q 2n−1 .


Se ora fissiamo una coppia iperbolica (e1 , f 1 ), si ha che

V = he1 , f 1 i ⊥ he1 , f 1 i⊥ ,

e il sottospazio he1 , f 1 i⊥ (spazio simplettico di dimensione 2(n − 1)) contiene


 
q 2(n−1) − 1 q 2(n−1)−1
5.6. Geometria ortogonale 69

coppie iperboliche. Più generalmente, scelte le prime j coppie iperboliche, si ha

V = he1 , f 1 , . . . , ej , f j i ⊥ he1 , f 1 , . . . , ej , f j i⊥

e il secondo componente della somma ortogonale contiene


 
q 2(n−j) − 1 q 2(n−j)−1

coppie iperboliche. Pertanto per induzione si trae


Proposizione 5.6 Il numero delle basi ordinate simplettiche dello spazio sim-
plettico finito V di indice di Witt n uguaglia l’ordine di Sp(2n, q) che vale
n n
Y 2 Y
|Sp(2n, q)| = (q 2i − 1)q 2i−1 = q n (q 2i − 1) .
i=1 i=1

(Esercizio: la somma dei primi n numeri naturali dispari è n2 ).


Si noti che nel caso particolare n = 1 si ha |Sp(2, q)| = |SL(2, q)|. Questa
uguaglianza è anche conseguenza del seguente risultato più generale.
Teorema 5.4 Per ogni campo K i gruppi Sp(2, K) e SL(2, K) sono isomorfi.
Dimostrazione: Basta verificare con calcolo diretto che una matrice 2 × 2,
diciamola A, soddisfa alla relazione
   
0 1 0 1
At A=
−1 0 −1 0

se e solo se det(A) = 1.

Un’ultima osservazione. L’ordine di P Sp(2n, q) vale la metà di quello di


Sp(2n, q), se il campo ha caratteristica dispari, mentre uguaglia quello di Sp(2n, q)
nel caso di caratteristica pari.

5.6 Geometria ortogonale


Sia (V, Q) uno spazio ortogonale; quindi Q : V → K è una forma quadratica
non degenere. La forma polare di Q sarà denotata con β ed è definita da

β(u, v) = Q(u + v) − Q(u) − Q(v) , per ogni u, v ∈ V .

Al solito la relazione di ortogonalità, definita dalla β, viene denotata con il


simbolo ⊥. Ricordiamo infine che Q è non degenere se V ⊥ non contiene vettori
singolari.
Definizione 5.9 Il gruppo ortogonale di (V, Q), denotato con O(V, Q), è

O(V, Q) = {f ∈ GL(V ) | Q(f (v) = Q(v) per ogni v ∈ V } .


70 5. Geometria Polare

In questo paragrafo coppia iperbolica significherà una coppia di vettori (v, w)


tale che
Q(v) = Q(w) = 0 e β(v, w) = 1 .
Sia E = (e1 , . . . , en ) una base di V e sia J = (aij ) la matrice della forma
polare β (quindi aij = β(ei , ej )). La matrice di Q è allora

M = (bij )i,j=1,...,n ,

ove (
aij = β(ei , ej ) se i < j
bii = Q(ei ) e bij =
0 se i > j

La matrice di β si riottiene tramite la J = M + M t .

Esercizio. Sia (V, Q) uno spazio ortogonale, sia β la polare di Q. Se G è


il gruppo delle isometrie lineari che conservano β, si provi che O(V, Q) ≤ G.
Dedurre che nel caso che β sia non degenere ogni elemento di O(V, Q) ha deter-
minante ±1.

Quindi, nel caso β non degenere, gli elementi di O(V, Q) si ripartiscono nei
due sottoinsiemi disgiunti, uno formato dagli elementi di determinante 1 (che
quindi sono elementi di SL(V )) e l’altro costituito dagli elementi di determi-
nante −1. Questa distinzione non sussiste nel caso di caratteristica due. Anzi
in caratteristica due si ha che O(V, Q) è un sottogruppo del gruppo simplettico
relativo alla forma polare di Q, se non degenere.
Nel caso di caratteristica diversa da due, gli elementi di O(V, Q) a deter-
minante 1 si chiamano rotazioni. Questi elementi formano un sottogruppo di
indice 2, quindi è un sottogruppo normale, detto gruppo speciale ortogonale e
denotato con SO(V, Q).
Nel caso generale, la trasformazione scalare aI, con a ∈ K ∗ , appartiene ad
O(V, Q) se e solo se a2 = 1, da cui a = ±1. Quindi il gruppo ortogonale proiettivo,
denotato con P O(V, Q), è isomorfo a

O(V, Q)/{I, −I} .

Lo studente attento osserverà che la teoria svolta nel corso di Geometria


analitica si applica ora pari pari nel caso della caratteristica diversa da due. Noi
adesso ci interesseremo al caso degli spazi ortogonali finiti. Quindi supporremo
fissato uno spazio vettoriale di dimensione n, definito sul campo di Galois GF (q),
con assegnata forma quadratica non degenere Q. Denotiamo con β la forma
polare di Q.

Lemma 5.2 Sia F = GF (q). Fissati a, b ∈ F , per ogni c ∈ F esistono x, y ∈ F


tali che
ax2 + by 2 = c .
5.6. Geometria ortogonale 71

Dimostrazione: Se F ha catteristica due, il lemma è immediato, dato che


ogni elemento di F è allora un quadrato. Supponiamo allora che q sia dispari. I
due insiemi
A = {ax2 | x ∈ F }
e
B = {c − by 2 | y ∈ F }
hanno entrambi (q + 1)/2 elementi. Quindi A ∩ B 6= ∅; donde la conclusione.

Illustriamo ora un procedimento che permette di scrivere “forme canoniche”


per le forme quadratiche. Poiché tratteremo insieme il caso di caratteristica
pari e quello di caratteristica dispari, le forme canoniche non saranno di tipo
diagonale.
Premettiamo che un sottospazio U di V è detto anisotropo se Q(v) 6= 0 per
ogni v ∈ U \ {0}. Si ha allora
Lemma 5.3 Sia (V, Q) è uno spazio ortogonale di dimensione almeno tre. Allora
esistono vettori isotropi.
Dimostrazione: È la prima notevole applicazione del teorema di Chevalley.
Infatti se dim(V ) ≥ 3, allora fissata una base E si ha che Q si rappresenta con
un polinomio omogeneo di secondo grado in almeno tre variabili. Quindi dal
teorema di Chevalley, Q ha un vettore singolare.

Corollario 5.1 Se (V, Q) è uno spazio anisotropo, allora dim(V ) ≤ 2.

Descrizione dell’algoritmo di riduzione a forma canonica di una forma quadrat-


ica nel caso finito.
Passo 1. Supponiamo dim(V ) ≥ 3. Sia e1 un vettore singolare. Allora V
contiene una coppia iperbolica; quindi V contiene un piano iperbolico.
Dimostrazione: Si ha Q(e1 ) = 0. Se fosse β(e1 , v) = 0 per ogni v ∈ V , allora
e1 ∈ V ⊥ e Q(e1 ) = 0 implicano Q degenere; ma ciò è escluso. Quindi esiste
v ∈ V tale che β(e1 , v) = a 6= 0. Il vettore

f 1 = −Q(v)a−2 e1 + a−1 v ∈ he1 , vi

è un vettore singolare. Infatti

Q(f 1 ) = a−2 Q(v) − a−3 Q(v)β(e1 , v) = 0 .

(Si tenga conto della relazione che lega Q e β). Pertanto la coppia (e1 , f 1 ) è
una coppia iperbolica (eventualmente alterando f 1 per un fattore non nullo) e
genera un piano iperbolico.

Passo 2. Si consideri la somma ortogonale

V = he1 , f 1 i ⊥ he1 , f 1 i⊥
72 5. Geometria Polare

e si applichi il passo 1 al sottospazio ortogonale he1 , f 1 i⊥ di dimensione n − 2.


Dopo un numero finito di passi si perverrà alla decomposizione ortogonale

V = he1 , f 1 i ⊥ he2 , f 2 i ⊥ · · · ⊥ hem , f m i ⊥ U

ove (ei , f i ) è una coppia iperbolica per i = 1, . . . , m e U è un sottospazio


anisotropo (quindi dim(U ) ≤ 2. Il sottospazio

he1 , . . . , em i

è totalmente singolare e massimale. Quindi m è l’indice di Witt dello spazio


ortogonale (V, Q). Dunque la classificazione delle forme quadratiche dipende
dall’indice di Witt m e dal sottospazio anisotropo U . Esaminiamo i casi possibili.
I. dim(U ) = 0. Allora U = {0}, dim(V ) = 2m e vi è per ogni intero positivo
m un solo spazio ortogonale (a meno di isometrie). Nella base determinata con
l’algoritmo, denotate con (x1 , . . . , xm , y1 , . . . , ym ) coordinate di vettore, la forma
quadratica Q si scrive
m
X
Q((x1 , . . . , xm , y1 , . . . , ym )) = xi yi .
i=1

Esercizio: sviluppare l’espressione


m
!
X
Q (xi ei + yi f i ) .
i=1

Il gruppo ortogonale in questo caso viene denotato con O+ (2m, q) e la forma


quadratica si dice di tipo iperbolico.
II. dim(U ) = 1. Allora U = hui, Q(u) 6= 0 e dim(V ) = 2m+1. La geometria
è diversa secondo che Q(u) sia oppure non sia un quadrato nel campo. La
forma canonica di Q è, indicando con (x1 , . . . , xm , y1 , . . . , ym , z) le coordinate
di vettore,
m
X
Q((x1 , . . . , xm , y1 , . . . , ym , z)) = xi yi + Q(u)z 2 .
i=1

Nel caso q pari (caratteristica due) ogni elemento del campo è un quadrato. Nel
caso dispari vi sono elementi quadrati e elementi non quadrati. In ogni caso,
comunque, il gruppo ortogonale è sempre lo stesso, dato che si può passare
dall’una all’altra forma quadratica moltiplicando per un non quadrato. Quindi
il gruppo ortogonale viene denotato, in ogni caso, con O(2m + 1, q). La forma
quadratica è detta di tipo parabolico.
III. dim(U ) = 2. Si ha dim(V ) = 2m + 2. Dal Lemma 5.2 possiamo scrivere

U = he, f i con Q(e) = 1, β(e, f ) = 1 .

Allora
Q(xe + yf ) = x2 + xy + ay 2 , ove a = Q(f ) .
5.6. Geometria ortogonale 73

Il polinomio x2 + x + a è irriducibile su GF (q) (altrimenti U avrebbe vettori


singolari). Introdotte coordinate (x1 , . . . , xm , y1 , . . . , ym , x, y) rispetto alla base

(e1 , f 1 , . . . , em , f m , e, f )

per la forma quadratica si ha


m
X
Q((x1 , . . . , xm , y1 , . . . , ym , x, y)) = xi yi + x2 + xy + ay 2 .
i=1

Il gruppo ortogonale si denota con O− (2m + 2, q) e la forma quadratica è detta


di tipo ellittico.

Potrebbero piacerti anche