Sei sulla pagina 1di 36

Semplicità di alcuni gruppi classici

Laureando: Martino Garonzi


Relatore: Federico Menegazzo

23/11/2006
Indice

0.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1 Definizioni e strumenti utili 3

2 Il gruppo speciale lineare modulo il suo centro 7


2.1 Generazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Il gruppo unimodulare proiettivo . . . . . . . . . . . . . . . . . . 10
2.3 Semplicità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Le eccezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3 Il gruppo simplettico modulo il suo centro 17


3.1 Le forme bilineari alternanti . . . . . . . . . . . . . . . . . . . . . 17
3.2 Il gruppo simplettico . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.1 Le trasvezioni simplettiche . . . . . . . . . . . . . . . . . 25
3.2.2 Generazione . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.3 Semplicità . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Le eccezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

1
0.1 Introduzione
Nei corsi della triennale si è studiata la semplicità del gruppo alterno An per
n ≥ 5, per lo più strettamente collegata con la non risolubilità di Sn per n ≥ 5.
L’obiettivo di questa tesi è studiare altre classi di gruppi semplici finiti.
Dato un gruppo G, è chiaro che il suo centro, chiamiamolo Z, è normale in
G, e quindi l’idea per cercare di costruire un gruppo semplice a partire da G
è considerare il quoziente G/Z. In questa tesi verrà fatto questo in due casi
particolari: verranno presi in considerazione due gruppi di isomorfismi lineari e
verrà studiata la semplicità del loro quoziente rispetto al centro.
I due gruppi studiati sono i seguenti:
1. Il gruppo speciale lineare SLn (F ), che consiste di tutte le trasformazioni
lineari invertibili di uno spazio vettoriale sul campo F in sé, con determi-
nante 1.
2. Il gruppo simplettico Spn (F ), che consiste delle B-isometrie di uno spazio
vettoriale V di dimensione n sul campo F , dove B è una fissata forma
bilineare alternante non degenere su V . Sarà chiaro che la scelta di B
non influirà sulla classe di isomorfismo del particolare gruppo simplettico
associato a B.
I centri dei gruppi presi in esame verranno a coincidere con il nucleo della loro
azione naturale sull’insieme dei sottospazi 1-dimensionali di V (chiamato “spazio
proiettivo n − 1-dimensionale”) che “cambia le direzioni”, nel senso che il sot-
tospazio 1-dimensionale di V di direzione x ∈ V viene mandato tramite l’iso-
morfismo lineare T nel sottospazio 1-dimensionale di V di direzione T (x).
A meno di poche eccezioni, discusse a parte, si dimostrerà che ognuno dei
due gruppi considerati (chiamiamolo G) coincide col suo sottogruppo derivato.
Questo, connesso con due importanti proprietà dell’azione descritta sullo spazio
proiettivo, permetterà di concludere che il quoziente di G col nucleo dell’azione
(e quindi col centro di G) è un gruppo semplice.

2
Capitolo 1

Definizioni e strumenti utili

Richiamiamo alcuni concetti utili nel corso della trattazione.


1. Siano G un gruppo, X un insieme. Dare un’azione di G su X,

G×X →X

(g, x) 7→ g ∗ x
è equivalente a dare un omomorfismo α : G → Sym(X), dove Sym(X)
denota il gruppo (rispetto alla composizione) delle applicazioni biiettive
di X in sé. Infatti se è data un’azione di G su X l’applicazione

G → Sym(X)

g 7→ γg : x 7→ g ∗ x
è omomorfismo, e se è dato l’omomorfismo

α : G → Sym(X)

allora la funzione
G×X →X
(g, x) 7→ α(g)(x)
determina un’azione di G su X. Il nucleo dell’omomorfismo α associato
all’azione si dice nucleo dell’azione e se tale nucleo consiste del solo
elemento identico l’azione si dice fedele. Data un’azione arbitraria di G
su X si può costruire un’azione fedele facendo agire il quoziente G/ker(α)
su X tramite (gker(α), x) 7→ gx.
2. Dato un gruppo G, e dati a, b ∈ G, il commutatore di a e b (nell’ordine)

[a, b] := aba−1 b−1

3
Indichiamo con G0 il sottogruppo derivato di G, o commutatore di G,
definito da
G0 := h{[a, b] | a, b ∈ G}i
Si hanno i seguenti fatti:
(i) Se γ : G → G è automorfismo allora γ(G0 ) = G0 . In particolare G0 E G.
(ii) Se N E G allora G/N è abeliano se e solo se N ≥ G0 .
Prova:
(i) Notiamo che
γ([a, b]) = γ(aba−1 b−1 ) = γ(a)γ(b)γ(a)−1 γ(b)−1 = [γ(a), γ(b)]
quindi γ(G0 ) ≤ G0 , e che se h, k ∈ G allora h = γ(a), k = γ(b) per qualche
a, b ∈ G e quindi [h, k] = γ([a, b]). Da cui G0 ≤ γ(G0 ).
(ii) Se (e solo se) G/N è abeliano, (G/N )0 = {1G/N } = {N }, quindi
[aN, bN ] = N per ogni a, b ∈ G, il che impica
N = [aN, bN ] = (aN )(bN )(a−1 N )(b−1 N ) = (aba−1 b−1 )N = [a, b]N
cioè [a, b] ∈ N . Quindi G0 ≤ N . Se invece G0 ≤ N allora [a, b] ∈ N per
ogni a, b ∈ G, quindi [aN, bN ] = [a, b]N = N cioè (G/N )0 = {N }.
3. Dato un campo F , Ln (F ) denota l’insieme degli isomorfismi lineari V →
V , dove V è uno spazio vettoriale su F di dimensione n. Si tratta
di un gruppo rispetto alla composizione, che chiameremo gruppo lin-
eare. Scelta una base di V , possiamo certamente identificare Ln (F ) con
il gruppo delle matrici n × n invertibili a entrate nel campo F (essendo
le colonne di una di tali matrici le immagini della base scelta rispetto al
corrispondente isomorfismo, scritte nella base scelta). L’applicazione
(Ln (F ), ◦) → (F ∗ , ·)
T 7→ det(T )
è omomorfismo suriettivo di gruppi. Per il primo teorema di omomorfis-
mo per i gruppi Ln (F )/ker(det) ∼
= F ∗ quindi tale quoziente è abeliano.
Denoteremo ker(det) con SLn (F ), e lo chiameremo gruppo speciale
lineare. È normale in Ln (F ) in quanto nucleo di un omomorfismo.
Riepilogando, la seguente sequenza è esatta:
det
{1} → SLn (F ) ,→ Ln (F ) → F ∗ → {1}

Definizione 1 (azioni transitive, k-transitive). Un’azione di un gruppo G su


un insieme S si dice transitiva se scelti comunque x1 , x2 ∈ S esiste g ∈ G tale
che
gx1 = x2
Equivalentemente vi è una sola orbita. Si dice k-transitiva se scelte comunque
due k-ple di elementi distinti (x1 , ..., xk ), (y1 , ..., yk ) ∈ Gk esiste g ∈ G tale che
(gx1 , ..., gxk ) = (y1 , ..., yk )
Chiaramente la 1-transitività è la transitività.

4
Definizione 2 (azioni primitive). L’azione del gruppo G sull’insieme S si
dice primitiva se è transitiva e le uniche partizioni di S che sono stabilizzate
dall’azione indotta di G su P (S) sono {S} e {{x} | x ∈ S}.
Osserviamo ora che nella definizione precedente la richiesta che l’azione sia tran-
sitiva è superflua se |S| > 2, ma non lo è se |S| = 2. Infatti G agisca su S in
modo primitivo, e consideriamo la partizione di S in G-orbite,
[
S= Ox
x∈S

Certamente G stabilizza tale partizione, in quanto per ogni g ∈ G, gOx =


Ox . Ma allora per la primitività, o Ox = S per ogni x ∈ S, ovvero l’azione
è transitiva, oppure Ox = {x} per ogni x ∈ S, ovvero l’azione lascia fisso
ogni elemento, cioè è l’azione identica. Ma tale azione stabilizza qualunque
partizione, dunque l’unica speranza è che non esistano altre partizioni se non
quelle ovvie, ovvero |S| = 2. In tal caso l’azione identica è primitiva ma non
transitiva.
Proposizione 1. Sia S insieme con più di due elementi. Un’azione di un
gruppo G su S non è primitiva se e solo se esiste un sottoinsieme proprio A di
S con almeno 2 elementi tale che dato g ∈ G, gA = A oppure gA ∩ A = ∅.
Dimostrazione. Sufficienza. Valga la seconda asserzione. Presi g1 , g2 ∈ G si ha
g1 A = g2 A oppure g1 A ∩ g2 A = ∅ (usando l’ipotesi con g = g2−1 g1 ). Sia
[
B := S \ gA
g∈G

Allora g1 B ∩ g2 A = ∅ per ogni g1 , g2 ∈ G, quindi per ogni g ∈ G, gB ⊆ B.


Quindi dato g ∈ G, g −1 B ⊆ B, da cui moltiplicando per g, B ⊆ gB. Ma allora
gB = B, quindi
{gA | g ∈ G} ∪ {B}
costituisce una partizione non banale di S stabilizzata da G.
Necessità. L’azione non sia primitiva. Allora esiste una partizione π(S) stabi-
lizzata da G a cui appartiene un sottoinsieme proprio A di S con |A| ≥ 2. Ma
allora dato g ∈ G, gA = A oppure gA ∩ A = ∅.
Lemma 1. Sia G un gruppo che agisce su un insieme S con più di due elemen-
ti.
(1) Se l’azione è 2-transitiva allora è primitiva
(2) Se l’azione è primitiva e H E G non è contenuto nel nucleo, H agisce tran-
sitivamente su S
(3) Se H ≤ G agisce transitivamente su S allora G = HStab(x) per ogni x ∈ S,
dove lo stabilizzatore è inteso in G.
Dimostrazione. (1) Sia A un sottoinsieme proprio di S contenente due elementi
distinti x e y. Per la proposizione 1 per mostrare che l’azione è primitiva basta

5
mostrare che esiste g ∈ G tale che gA ∩ A 6= ∅ e gA 6= A. Poiché l’azione è
2-transitiva esiste g ∈ G tale che gx = x e gy 6∈ A. Allora x ∈ gA 6= A.
(2) Partizioniamo S nelle orbite dell’azione di H su S. Poiché H E G, g(Hx) =
H(gx) per ogni g ∈ G, x ∈ S (ghx = (ghg −1 )gx). Quindi G stabilizza la
partizione di S nelle orbite dell’azione di H. Poiché H non è contenuto nel
nucleo dell’azione di G esiste un x ∈ S la cui H-orbita è diversa da {x}, il che
esclude che la partizione in H-orbite sia ∪x∈S {x}. Ma allora poiché l’azione è
primitiva c’è una sola H-orbita, e quindi l’azione di H su S è transitiva.
(3) Siano x ∈ S, g ∈ G. Allora esiste h ∈ H tale che hx = gx. Allora
h−1 g ∈ Stab(x) e dunque g ∈ HStab(x).
Lemma 2 (di Iwasawa). Sia G un gruppo che agisce su un insieme S con più
di due elementi, e sia K il nucleo dell’azione. Allora G/K è semplice se sono
verificate le seguenti condizioni:
(1) L’azione è primitiva
(2) G = G0
(3) Esiste x ∈ S tale che Stab(x) contenga un sottogruppo normale abeliano Ax
tale che G sia generato dai coniugati gAx g −1 , g ∈ G.
Dimostrazione. Sia H E G contenente propriamente K. Basta mostrare che
H = G, perché ogni sottogruppo normale L > {1G/K } di G/K è del tipo H/K
con K < H E G (e precisamente con H = {h ∈ G | hK ∈ L}), quindi se
H = G, L = G/K. H è transitivo su S per il lemma 1 (2). Detto x ∈ S che
soddisfi la condizione (3), per il lemma 1 (3) G = HStab(x). Sia G∗ = HAx .
È un gruppo perché h1 a1 h2 a2 = h1 (a1 h2 a−1
1 )a1 a2 ∈ HAx . Mostriamo che è
normale in G.
Detto g ∈ G, esistono h00 ∈ H, l ∈ Stab(x) tali che g = h00 l e quindi se a ∈ Ax e
h ∈ H si ha
ghag −1 = ghg −1 gag −1 = h0 h00 lal−1 (h00 )−1
con h0 = ghg −1 ∈ H. Detto a0 = lal−1 ∈ Ax ,

ghag −1 = h0 h00 a0 (h00 )−1 = h0 h00 a0 (h00 )−1 (a0 )−1 a0 = h0 h00 h000 a0 ∈ HAx

dove h000 = a0 (h00 )−1 (a0 )−1 ∈ H. Quindi HAx E G.


Ne segue che gAx g −1 ≤ HAx per ogni g ∈ G. Quindi per la condizione (3),

G∗ = HAx = G

Ma se a ∈ Ax , Ha = aa−1 Ha = aH e dunque HAx = Ax H. Per il secondo


teorema di omomorfismo per i gruppi,

G/H = Ax H/H ∼
= Ax /(Ax ∩ H)

Ma Ax è abeliano, quindi Ax /(Ax ∩ H) ∼


= G/H è abeliano. Ciò significa che H
contiene G0 = G e quindi H = G.

6
Capitolo 2

Il gruppo speciale lineare


modulo il suo centro

2.1 Generazione
Alcune notazioni: d’ora in poi F denoterà un campo, eij denoterà la matrice
quadrata avente 1 nel posto (i, j) e zero altrove, e dato b ∈ F , se i 6= j Tij (b)
denoterà la matrice 1 + beij . Dal fatto che il prodotto delle matrici A e B è
definito per componenti X
(AB)sl = Asp Bpl
p

ricaviamo che il prodotto eab ecd vale ead se b = c, altrimenti vale 0. Ovvero
eab ecd = δbc ead
Un altro semplice risultato è che dato b ∈ F, Tij (b) è invertibile e ha come
inversa Tij (−b), infatti
Tij (b)Tij (−b) = (1 + beij )(1 − beij ) = 1 − b2 e2ij = 1
Inoltre poiché Tij (b) è una matrice triangolare, il suo determinante è il prodotto
degli elementi diagonali, che è 1, quindi Tij (b) ∈ SLn (F ).
Lemma 3. SLn (F ) è generato dalle matrici elementari Tij (b).
Dimostrazione.
Osservazione 1. Se F è un campo e A ∈ Mn (F ) allora A è equivalente a una
matrice del tipo
 
d1 0
 .. 
diag(d1 , ..., dr , 0, ..., 0) := 
 . 

 dr 
0 0

7
dove di 6= 0 ∀i = 1, ..., r, e r è il rango di A. Si ha P AQ = diag(d1 , ..., dr , 0, ..., 0)
ove P e Q sono prodotti di matrici del tipo Tij (b) e Pij = 1 + eij + eji − eii − ejj .
Dimostrazione. Si può passare da una matrice quadrata A di ordine n e rango
r a una diagonale del tipo dell’enunciato facendo solo le seguenti operazioni:

1. Sostituire la riga i Ri con Ri + bRj per qualche b ∈ F, j ∈ {1, ..., n} \ {i}


(equivalentemente, moltiplicare a sinistra per Tij (b))
2. Sostituire la colonna i Ci con Ci +bCj per qualche b ∈ F, j ∈ {1, ..., n}\{i}
(equivalentemente, moltiplicare a destra per Tij (b))

3. Scambiare le righe i e j per qualche i 6= j (equivalentemente, moltiplicare


a sinistra per Pij )
4. Scambiare le colonne i e j per qualche i 6= j (equivalentemente, moltipli-
care a destra per Pij )

Per dimostrarlo usiamo l’induzione sull’ordine n mostrando che una matrice del
tipo  
a11 a12 ... a1n
 a21 
A= .
 
 ..

B 
a1n
tramite le operazioni sopra descritte, se a11 6= 0, si può portare a
 
a11 0 ... 0
 0 
A0 =  .
 
 ..

0
B 
0

Innanzitutto, se A = 0 non c’è niente da dimostrare. In caso contrario tramite


scambi di righe e/o colonne possiamo far comparire nella posizione (1,1) un
termine non nullo, quindi possiamo supporre a11 6= 0. Ora basta sommare
alla riga i la riga −ai1 a−1 −1
11 R1 e alla colonna i la colonna −a1i a11 C1 per ogni
i = 2, ..., n per ricondurci alla matrice voluta. Si procede per induzione su B 0 :
se è la matrice nulla abbiamo finito, altrimenti ripetiamo tale procedimento.
Nel nostro caso una matrice A ∈ SLn (F ) è equivalente a una della forma
diag(p1 , ..., pn ) come nell’osservazione precedente. Osservando che se i 6= j

Fij := (1 + eij )(1 − eji )(1 + eij )(1 − 2eii )


= (1 − eji + eij − eij eji )(1 − 2eii + eij − 2eij eii )
= (1 − eii + eij − eji )(1 − 2eii + eij )
= 1 − 2eii + eij − eii + 2eii − eij + eij − eji + 2eji − ejj = Pij

8
ricaviamo che possiamo rimpiazzare le Pij con matrici del tipo Tij (b) e 1 − 2eii .
Ora osserviamo che
Tij (b)(1 − 2eii ) = (1 + beij )(1 − 2eii ) = 1 − 2eii + beij (2.1)
(1 − 2eii )Tij (−b) = (1 − 2eii )(1 − beij ) = 1 − beij − 2eii + 2beij (2.2)
quindi
Tij (b)(1 − 2eii ) = (1 − 2eii )Tij (−b)
Analogamente
Tji (b)(1 − 2eii ) = (1 − 2eii )Tji (−b)
Inoltre se j 6= k 6= i 6= j allora 1 − 2eii commuta con Tjk (b), infatti commutano
ejk e eii essendo ejk eii = 0 = eii ejk . Possiamo allora trascinare tutte le 1 − 2eii
a sinistra nella fattorizzazione di P , a destra nella fattorizzazione di Q, e poi
moltiplicare per gli inversi di tali fattori (i fattori stessi) in modo da eliminarli
ottenendo ancora una matrice diagonale (prodotto di matrici diagonali). Ot-
teniamo cosı̀ una matrice diagonale equivalente ad A avendo fatto su A solo
operazioni elementari su righe e colonne.
Quindi possiamo ridurci al caso in cui P e Q sono prodotti di matrici del tipo
Tij (b). Per mostrare che A stesso è prodotto di matrici di tale tipo poiché
P AQ = diag(p1 , ..., pn ) basta ricondursi al caso A = diag(p1 , ..., pn ), poiché
evidentemente det(P ) = det(Q) = 1. In altre parole mostrato il risultato per
diag(p1 , ..., pn ) esso varrà anche per A = P −1 diag(p1 , ..., pn )Q−1 perché come
abbiamo visto l’inversa di Tij (b) è di tale tipo. Ora det(A) = 1 implica
d1 ...dn = 1
quindi ogni di è invertibile.
Osservazione 2. diag(d−1 , d) si può scrivere come prodotto di Tij (b) con i 6= j.
Infatti si scrive come
      
1 −1 1 0 1 −1 1 d 1 0 1 d
0 1 1 1 0 1 0 1 −d−1 1 0 1
Quindi lo stesso vale per
Di := diag(1, ..., 1, (d1 ...di )−1 , d1 ...di , 1, ..., 1)
dove il termine (d1 ...di )−1 si trova nella posizione i.
Moltiplicando D1 = diag(d−1 1 , d1 , 1, ..., 1) a destra per A = diag(d1 , ..., dn ) otte-
niamo diag(1, d1 d2 , d3 , ..., dn ), e moltiplicando a sinistra per D2 = diag(1, (d1 d2 )−1 ,
d1 d2 , 1, ..., 1) otteniamo D2 D1 A = diag(1, 1, d1 d2 d3 , d4 , ..., dn ) e proseguendo di
questo passo
Dn−1 ...D2 D1 A = diag(1, ..., 1, d1 ...dn ) = 1
con i Di che sono prodotti di matrici del tipo Tij (b). Otteniamo che
A = D1−1 D2−1 ...Dn−1
−1

è ancora prodotto di matrici Tij (b), il che è sufficiente per concludere.

9
Lemma 4. Se n 6= 2 oppure |F | 6∈ {2, 3}, e se n ≥ 2, SLn (F ) coincide col suo
sottogruppo derivato (gruppo commutatore).
Dimostrazione. Per il lemma 3 basta mostrare che le Tij (b) appartengono al
sottogruppo derivato. Osserviamo che se n ≥ 3 prendendo i, j ∈ {1, ..., n}
distinti e k 6= i, j otteniamo

Tij (b) = Tik (b)Tkj (1)Tik (−b)Tkj (−1) = Tik (b)Tkj (1)Tik (b)−1 Tkj (1)−1

infatti

Tik (b)Tkj (1)Tik (−b)Tkj (−1) = (1 + beik )(1 + ekj )(1 − beik )(1 − ekj )
= (1 + ekj + beik + beij )(1 − ekj − beik + beij )
= 1 − ekj − beik + beij + ekj + beik − beij + beij
= 1 + beij = Tij (b)

Se invece n = 2 abbiamo
  −1
1 c(d2 − 1)
     
d 0 1 c d 0 1 −c
=
0 d−1 0 1 0 d 0 1 0 1

quindi se troviamo 0 6= d ∈ F tale che d2 6= 1 allora per ogni b ∈ F fissato


possiamo scegliere c = b(d2 − 1)−1 e ottenere che T12 (b) ∈ SL2 (F )0 . Se invece
un tale d 6= 0 non esiste allora poiché l’equazione x2 = 1 ammette al più due
soluzioni, al più F conterrà lo 0 e tali due soluzioni, quindi F avrà cardinalità
≤ 3. Analogamente per T21 (b). Questo conclude la dimostrazione.

2.2 Il gruppo unimodulare proiettivo


Poiché Ln (F )/SLn (F ) ∼
= F ∗ è abeliano, SLn (F ) contiene il sottogruppo deriva-
to di Ln (F ). Ma per il lemma 4, eccettuati (eventualmente) i casi ivi esclusi,
SLn (F ) = SLn (F )0 ⊆ Ln (F )0 quindi SLn (F ) = Ln (F )0 .
Osservazione 3. Se un elemento di Ln (F ) commuta con ogni elemento di
SLn (F ) allora commuta con ogni elemento di Ln (F ), ed è una matrice scalare
del tipo d1.
Dimostrazione. Dire che g ∈ Ln (F ) commuta con ogni h ∈ SLn (F ) implica che
gTij (1) = Tij (1)g per ogni i 6= j, poiché Tij (b) ∈ SLn (F ) per ogni b ∈ F . Ma
allora g(1 + eij ) = (1 + eij )g per ogni i 6= j, ovvero poiché 1 commuta con g, g
commuta con ogni eij . Ma osservando che
X
(geij )kl = gks (eij )sl = δjl gki
s
X
(eij g)kl = (eij )ks gsl = δik gjl
s

10
la condizione di commutazione dice che

δjl gki = δki gjl

Quindi se n > 2:
nel caso j = l, i 6= k otteniamo gki = 0,
nel caso j 6= l, i = k otteniamo gjl = 0,
nel caso j = l, i = k otteniamo gii = gjj .
Al variare di i 6= j, k 6= l, le prime due condizioni (equivalenti) dicono che g è
nulla fuori dalla diagonale, la terza dice che g è costante sulla diagonale. Quindi
g è una matrice scalare, e quindi commuta con ogni elemento di Ln (F ). Il caso
n = 2 si risolve facilmente, imponendo che una generica matrice A ∈ Ln (F )
commuti con le matrici    
1 1 1 0
,
0 1 1 1
e trovando che essa dev’essere una matrice scalare.
Quindi il centro C di Ln (F ) è F ∗ 1, ed è il gruppo delle matrici scalari d1 al
variare di 0 6= d ∈ F .
Definizione 3. Il gruppo unimodulare proiettivo P SLn (F ) è il quoziente SLn (F )/C
dove C := F ∗ 1 ∩ SLn (F ) è il centro di SLn (F ).
Il nostro obiettivo è mostrare che eccettuati i casi esclusi nel lemma 4, tale
gruppo è semplice.
Definizione 4 (spazio proiettivo). Sia V un n-spazio vettoriale su F , e sia
Pn−1 (F ) l’insieme dei sottospazi

F x := {αx | α ∈ F }

di V con 0 6= x ∈ V . Lo chiameremo spazio proiettivo (n − 1)-dimensionale su


F.
Definizione 5. Definiamo un’azione di Ln (F ) su Pn−1 (F ) ponendo

T (F x) = F (T x)

per ogni T ∈ Ln (F ).
Proposizione 2. Il nucleo dell’azione sopra descritta è F ∗ 1.
Dimostrazione. Il nucleo consiste dei T ∈ Ln (F ) tali che T (F x) = F x per ogni
0 6= x ∈ V . Quindi T è nel nucleo se e solo se

T : 0 6= x ∈ V 7→ ax x ∈ V

con ax ∈ F ∗ . Se 0 6= b ∈ F allora T (bx) = abx bx e T (bx) = bT (x) = bax x =


ax bx. Quindi ax = abx se b 6= 0. Quindi se dim(V ) = 1 allora T = a1 con
a = ax per ogni x ∈ V . Ora sia dim(V ) ≥ 2 e sia (e1 , ..., en ) una base di V su

11
F . Allora T ei = aei ei e se i 6= j, T (ei + ej ) = aei +ej (ei + ej ) = T ei + T ej =
aei ei + aej ej da cui (aei +ej − aei )ei + (aei +ej − aej )ej = 0. Per l’indipendenza
lineare aei +ej = aei = aej . Quindi T = a1 con a 6= 0.
Viceversa ogni mappa di tale forma agisce come l’identità su Pn−1 (F ).
Ponendo P Ln (F ) := Ln (F )/F ∗ 1 abbiamo una azione fedele di tale gruppo su
Pn−1 (F ) in cui la classe [T ] = F ∗ T agisce su F x tramite [T ](F x) = F (T x).
Il gruppo P Ln (F ) si dice gruppo proiettivo. Esso contiene il sottogruppo
SLn (F )/(F ∗ 1 ∩ SLn (F )) che abbiamo chiamato gruppo unimodulare proiet-
tivo. Anch’esso agisce fedelmente su Pn−1 (F ). Abbiamo quindi dimostrato
il
Teorema 1. Il centro di SLn (F ) coincide col nucleo dell’azione di SLn (F ) su
Pn−1 (F ) indotta da quella di Ln (F ).

2.3 Semplicità
Mostriamo che valgono per SLn (F ) le condizioni sufficienti richieste per la
semplicità dal lemma di Iwasawa.
Lemma 5. SLn (F ) è 2-transitivo su Pn−1 (F ) se n ≥ 2.
Dimostrazione. Dobbiamo provare che se F x1 6= F x2 e F y1 6= F y2 con 0 6=
x1 , x2 , y1 , y2 ∈ V allora esiste una trasformazione lineare T di determinante 1
tale che T x1 = a1 y1 6= 0 e T x2 = a2 y2 6= 0 con ai ∈ F, i = 1, 2. Per ipotesi
x1 , x2 e y1 , y2 sono linearmente indipendenti.
Pn Possiamo
Pnquindi scegliere una
base (x1 , x2 , ..., xn ) di V con y1 = a x
j=1 j1 j , y 2 = j=1 aj2 xj . Se n > 2
possiamo aggiungere n − 2 colonne alla matrice
 
a11 a12
 a21 a22 
 
 .. .. 
 . . 
an1 an2

ottenendo una matrice (aij )i,j di determinante 1. Definiamo allora


n
X
yj := aij xj
i=1

per ogni 1 ≤ j ≤ n, e sia T la trasformazione lineare tale che xi 7→ yi per ogni 0 ≤


i ≤ n. Tale T soddisfa le condizioni richieste. Se n = 2, det((aij )i,j=1,2 ) = a 6= 0
quindi definiamo T come la trasformazione lineare tale che x1 7→ y1 , x2 7→ a−1 y2
e concludiamo per la multilinearità del determinante.
Lemma 6. Sia {e1 , ..., en } una base di V , e sia Stab(F e1 ) lo stabilizzatore
di F e1 6= 0 in SLn (F ). Allora Stab(F e1 ) contiene un sottogruppo abeliano
normale Ae1 i cui coniugati generano SLn (F ).

12
Dimostrazione. Stab(F e1 ) è l’insieme delle trasformazioni lineari di matrice
 
a11 a12 ... a1n
 0 
 
 .. 
 . An−1 
0

nella base {ei }i=1,...,n , con a11 det(An−1 ) = 1. La mappa Stab(F e1 ) → Ln−1 (F )
che manda una tale trasformazione nella matrice An−1 è omomorfismo il cui
nucleo è Ae1 , l’insieme delle trasformazioni lineari V → V di matrice
 
1 a12 ... a1n
 0 
 
 .. 
 . 1
n−1

0

nella base {ei }i=1,...,n . Si vede velocemente che Ae1 è un gruppo abeliano.
Quindi è un sottogruppo normale abeliano di Stab(F e1 ) (normale in quanto
nucleo di un omomorfismo). È chiaro che Ae1 contiene tutte le trasformazioni
lineari di matrice T12 (b) con b ∈ F ∗ . Ora sia

Y := h{gag −1 | a ∈ Ae1 , g ∈ SLn (F )}i

Osserviamo che se i 6= j 6= k 6= i,

(i) Tjk (1)Tij (b)Tjk (−1)Tij (−b) = (1 + ejk )(1 + beij )(1 − ejk )(1 − beij )
= (1 + beij + ejk )(1 − beij − ejk )
= 1 − beij − ejk + beij − beik + ejk
= 1 − beik = Tik (−b)

e inoltre essendo (1 − e11 − e22 + e21 − e12 )−1 = 1 − e11 − e22 − e21 + e12 ,

(ii) (1 − e11 − e22 + e21 − e12 )T12 (b)(1 − e11 − e22 + e21 − e12 )−1
= (1 − e11 − e22 + e21 − e12 )(1 + be12 )(1 − e11 − e22 − e21 + e12 )
= (1 + be12 − e11 − be12 − e22 + e21 + be22 − e12 )(1 − e11 − e22 − e21 + e12 )
= 1 − e11 − e22 − e21 + e12 − e11 + e11 − e12 − e22 + e22 +
+e21 + e21 − e21 + e22 + be22 − be22 − be21 − e12 + e12 + e11
= 1 − be21 = T21 (−b)

Quest’ultima relazione dice che T21 (b) ∈ Y per ogni b ∈ F . È chiaro che Y
contiene tutte le trasformazioni di matrice T1k (b) con k = 2, ..., n Da (i), se
i 6= 1, 2
Ti1 (−b) = T21 (1)(Ti2 (b)T21 (1)−1 Ti2 (b)−1 ) ∈ Y
e finalmente se 1 6= i 6= k 6= 1, da (i) segue

Tik (−b) = (T1k (1)Ti1 (b)T1k (1)−1 )Ti1 (−b) ∈ Y

13
La conclusione è che Y contiene le matrici del tipo Tij (b) con i 6= j e quindi
poiché SLn (F ) è generato da tali matrici (lemma 3) si ha Y = SLn (F ).
I lemmi 4, 5 e 6 mostrano dunque che il gruppo SLn (F ) eccetto il caso in cui
n = 2 e |F | ∈ {2, 3} soddisfa le richieste del lemma 2 e dunque abbiamo il
risultato:
Teorema 2. Se n 6= 2 oppure |F | 6∈ {2, 3} e se n ≥ 2 allora P SLn (F ) è
semplice.

2.4 Le eccezioni
Come abbiamo visto, la semplicità di P SLn (F ) è provata eccetto che per i casi
n = 2 e |F | ∈ {2, 3}. Proviamo ora un risultato che ci sarà utile nel discutere tali
casi, e provare che effettivamente i corrispondenti gruppi unimodulari proiettivi
non sono semplici.
Proposizione 3. Sia F campo finito di ordine |F | = q = pr con p primo e r
intero positivo. Allora detto d := (n, q − 1),

|Ln (F )| = (q n − 1)(q n − q)...(q n − q n−1 )

|SLn (F )| = (q n − 1)...(q n − q n−2 )q n−1


|P SLn (F )| = (q n − 1)(q n − q)...(q n − q n−2 )q n−1 /d
Dimostrazione. Sia V spazio vettoriale su F di dimensione n, e fissiamo una
base di V . Consideriamo l’isomorfismo canonico dal gruppo degli automorfismi
di V a Ln (F ) che manda un automorfismo nella matrice che ha come colonne
le immagini della base scelta scritte nella stessa base. Ne segue che l’ordine di
Ln (F ) è dato dal numero di matrici invertibili di ordine n, ovvero dal numero
di basi ordinate dello spazio vettoriale V di dimensione n su F . Per il primo
vettore abbiamo q n − 1 scelte (non possiamo scegliere il vettore nullo), per il
secondo q n − q (non possiamo scegliere i q multipli del primo scelto), per il terzo
q n − q 2 (non possiamo scegliere le q 2 combinazioni lineari dei primi due scelti),
e avanti cosı̀, da cui otteniamo facilmente l’asserto.
Sappiamo che l’applicazione determinante Ln (F ) → F ∗ è omomorfismo di grup-
pi il cui nucleo è SLn (F ), e che Ln (F )/SLn (F ) ∼
= F ∗ , da cui |Ln (F )/SLn (F )| =
q − 1. Ma per il teorema di Lagrange,

|Ln (F )/SLn (F )| = |Ln (F )|/|SLn (F )|

da cui
|SLn (F )| = |Ln (F )|/(q − 1) =
= (q − 1)...(q − q n−1 )/(q − 1) = q n−1 (q n − 1)...(q n − q n−2 )
n n

Ora ricordiamo che il centro di SLn (F ) è C = {x1 | xn = 1} e dunque

|C| = |{x ∈ F | xn = 1}|

14
Poiché |F ∗ | = q − 1 abbiamo xq−1 = 1 per ogni x ∈ F ∗ . Se xn = 1 allora anche
xd = 1, infatti esistono a, b ∈ Z tali che d = an + b(q − 1) da cui

1 = (xn )a (xq−1 )b = xan+b(q−1) = xd

D’altra parte se xd = 1 anche xn = 1 = xq−1 perché d divide sia n che q − 1.


Ma allora |C| = |{x ∈ F | xd = 1}|. La novità rispetto a prima è che stavolta
d ≤ q − 1. Sia H := {x ∈ F | xd = 1}. Poiché F ∗ è un gruppo ciclico esiste
un suo sottogruppo di ordine d, che quindi è contenuto in H. Ma allora poiché
|H| ≤ d, d = |H| = |C|. Allora poiché P SLn (F ) = SLn (F )/C, sempre dal
teorema di Lagrange,
|P SLn (F )| = |SLn (F )|/d
come voluto.
Ora discuteremo i due casi mancanti.
Proposizione 4. P SL2 (F2 ) ∼
= S3 e quindi non è semplice contenendo propri-
amente il sottogruppo normale A3 .
Dimostrazione. Sia F = {0, 1} = F2 e n = 2. Dalla proposizione 3, |P SLn (F )| =
3 · 2 = 6. Poiché C = {1}, P SL2 (F2 ) ∼
= SL2 (F2 ). Abbiamo un’azione fedele di
questo gruppo su P1 (F2 ) che ha cardinalità

|F2 |2 − 1 22 − 1
= =3
|F2 | − 1 2−1

Quindi SL2 (F2 ) si immerge in S3 come sottogruppo di ordine 6. Ma allora


SL2 (F2 ) ∼
= S3 .
A3 C S3 perché due permutazioni coniugate hanno la stessa parità.
Proposizione 5. P SL2 (F3 ) ∼
= A4 non è semplice
Dimostrazione. Mostriamo innanzitutto che A4 non è semplice. Possiamo scriver-
lo esplicitamente:

A4 = {1, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3), (1 2 3), (1 3 2),

(1 2 4), (1 4 2), (1 3 4), (1 4 3), (2 3 4), (2 4 3)}


Sia
H := {1, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3)} < A4
Per mostrare che H C A4 consideriamo un elemento di H, prodotto di due
trasposizioni disgiunte τ1 e τ2 (nell’ordine, ma non ha importanza, tanto essendo
disgiunte commutano), e σ ∈ S4 . Allora detto 1 6= δ := στ1 τ2 σ −1 si ha

δ 2 (a) = στ1 τ2 τ1 τ2 σ −1 (a) = a

per ogni a ∈ {1, 2, 3, 4}, essendo τ1 τ2 τ1 τ2 = τ1 τ1 τ2 τ2 = 1. Ne segue che δ ha


ordine 2. Per mostrare che δ ∈ H basta quindi mostrare che non fissa nessun

15
elemento. Supponiamo per assurdo che per qualche a ∈ {1, 2, 3, 4} si abbia
δ(a) = a. Allora

a = δ(a) = στ1 τ2 σ −1 (a) = στia σ −1 (a)

dove τia ∈ {τ1 , τ2 } è la trasposizione che sposta σ −1 (a). Allora, dall’uguaglianza


di cui sopra,
τia (σ −1 (a)) = σ −1 (a)
ovvero τia fissa σ −1 (a), il che è assurdo.
Ora, dalla proposizione 3 segue subito che |P SL2 (F3 )| = 12. Sappiamo che
P SL2 (F3 ) agisce fedelmente sullo spazio proiettivo P1 (F3 ), che ha ordine

|F3 |2 − 1 32 − 1
|P1 (F3 )| = = =4
|F3 | − 1 3−1

Quindi P SL2 (F3 ) si immerge in S4 . Ma l’unico sottogruppo di S4 di ordine 12


è A4 , quindi
P SL2 (F3 ) ∼
= A4

16
Capitolo 3

Il gruppo simplettico
modulo il suo centro

3.1 Le forme bilineari alternanti


Cominceremo con alcune definizioni e alcuni risultati utili poi.
Definizione 6. Sia V spazio vettoriale di dimensione n sul campo F . Una
forma bilineare B su V è una mappa

B :V ×V →F

(x, y) 7→ B(x, y)
tale che per ogni y ∈ V la mappa yR : x 7→ B(x, y) è lineare e per ogni x ∈ V
la mappa xL : y 7→ B(x, y) è lineare. Tali condizioni si sintetizzano nella
condizione
Xm q
X q
m X
X
B( ai xi , bj yj ) = ai bj B(xi , yj )
i=1 j=1 i=1 j=1

∀xk , yh ∈ V, al , bp ∈ F
Ora scegliamo un bij ∈ F per ogni 1 ≤ i, j ≤ n, e poniamo
n
X
B(x, y) = bij ai bj
i,j=1
P P
dove x = i ai ei e y = i bi ei . Si verifica in fretta che B è bilineare e che
se B è data, ponendo bij := B(ei , ej ) si ottiene per B una forma di questo
tipo. Quindi ogni forma bilineare si può esprimere in questo modo, e la matrice
(bij )i,j determina B. Si dice matrice di B rispetto alla base (e1 , ..., en ).

17
P
Se (fj )j è un’altra base di V con fj = i pij ei allora
X X X
B(fi , fj ) = B( pki ek , psj es ) = pki B(ek , es )psj = (pt bp)ij
k s k,s
P P P
ricordando che (ABC)ij = s (AB)is Csj = s t Ait Bts Csj .
È quindi chiaro che la matrice della forma bilineare B nella base (fj )j è

c := pt bp

Se, date le matrici quadrate b e c, esiste una matrice invertibile p che realizza
questo allora b e c si dicono congruenti.
Ora dati x, y ∈ V restano definite le applicazioni

xL : V → F, y 7→ B(x, y)

yR : V → F, x 7→ B(x, y)
Ovviamente sono entrambe lineari, quindi sono elementi di V ∗ . Le mappe

V →V∗

L : x 7→ xL
R : y 7→ yR
sono anch’esse lineari.

Ora sia U ≤ V . Dette LU : V → U ∗ , x 7→ xL |U e RU : V → U ∗ , y 7→ yR |U ,


definiamo
U ⊥L := {v ∈ V | B(v, u) = 0 ∀u ∈ U } = ker(LU )
U ⊥R := {v ∈ V | B(u, v) = 0 ∀u ∈ U } = ker(RU )
Dalla linearità di L e R, è facile dedurre che sono entrambi sottospazi vettoriali
di V . Inoltre

(U ⊥L )⊥R = {v ∈ V | B(u0 , v) = 0 ∀u0 ∈ U ⊥L }

(U ⊥R )⊥L = {v ∈ V | B(v, u0 ) = 0 ∀u0 ∈ U ⊥R }


da cui segue immediatamente

U ⊆ (U ⊥L )⊥R

U ⊆ (U ⊥R )⊥L
V ⊥L = ker(L) e V ⊥R = ker(R) si dicono rispettivamente radicale sinistro e
radicale destro di B.

18
Teorema 3. Sia B forma bilineare V × V → F . Le seguenti asserzioni sono
equivalenti:
(1) V ⊥R = {0}
(2) V ⊥L = {0}
(3) la matrice di B rispetto a una base qualsiasi è invertibile.
Dimostrazione. Sia (ei )i una
Pnbase di V e sia (bij = B(ei , ej ))i,j la matrice di B
in tale base. Ora sia z := j=1 cj ej . Per la bilinearità,
n
X
z ∈ V ⊥R ⇔ B(ei , z) = 0 ∀i = 1, ..., n ⇔ bij cj = 0 ∀i = 1, ..., n
j=1

n
X
z ∈ V ⊥L ⇔ B(z, ei ) = 0 ∀i = 1, ..., n ⇔ bji cj = 0 ∀i = 1, ..., n
j=1

ora z 6= 0 se e solo se c = (cj )j 6= 0 quindi la prima e la seconda condizione in


questo caso danno una condizione necessaria e sufficiente affinché esista z 6= 0
nel rispettivo radicale, ovvero che

det(b) = det(bt ) 6= 0

Questo, unito al fatto che nel cambiare base il determinante della matrice viene
moltiplicato per un elemento non nullo di F , conclude la dimostrazione.
Definizione 7. Una forma bilineare B su V tale che la matrice b di B rispetto
a una base (ei )i di V sia invertibile si dice non degenere.
Il teorema appena dimostrato dice che B è non degenere se e solo se L (e di con-
seguenza R) è iniettiva. Ma poiché dim(V ) = dim(V ∗ ) = n, B è non degenere
se e solo se L e R sono isomorfismi lineari V → V ∗ .

Si ricava un importante risultato:


Lemma 7. Se B è non degenere ogni α ∈ V ∗ ha la forma y 7→ B(x, y) per
qualche x ∈ V , e ha la forma y 0 7→ B(y 0 , x0 ) per qualche x0 ∈ V .
Proposizione 6. B sia forma bilineare non degenere sullo spazio vettoriale V .
Allora le mappe
V ≥ U 7→ U ⊥L
e
V ≥ U 7→ U ⊥R
sono una l’inversa dell’altra.
Dimostrazione. Ricordiamo che se ϕ è una funzione lineare da V a un altro
spazio vettoriale, si ha la relazione dimensionale

dim(V ) = dim(ker(ϕ)) + dim(ϕ(V ))

19
Dato U ≤ V applichiamo tale relazione alla mappa lineare RU : V → U ∗ .
Poiché ker(RU ) = U ⊥R si ha

n = dim(U ⊥R ) + dim(W )

dove W ≤ U ∗ è l’insieme delle forme lineari definite su U della forma y 7→ B(y, x)


per qualche x ∈ V . È chiaro che possiamo estendere una g ∈ U ∗ a una g ∈ V ∗
mandando una base di U nelle corrispondenti immagini tramite g, e i vettori che
completano a una base di V in 0. Spendiamo qui l’ipotesi di non degenerazione
di B: tale g ∈ V ∗ è della forma y 7→ B(x, y) e della forma x 7→ B(x, y) (lemma
7), quindi tale è g. Ma allora W = U ∗ , e quindi poiché dim(U ∗ ) = dim(U ), con
ragionamenti analoghi su LU ,

dim(U ⊥L ) = n − dim(U ) = dim(U ⊥R )

il che implica che dim((U ⊥L )⊥R ) = n−dim(U ⊥L ) = n−(n−dim(U )) = dim(U )


e poiché U ⊆ (U ⊥L )⊥R si ha, con ragionamenti analoghi,

(U ⊥R )⊥L = U = (U ⊥L )⊥R

questo conclude la dimostrazione.


In particolare abbiamo ricavato il seguente
Lemma 8. Se B è forma bilineare non degenere sullo spazio vettoriale V e
U ≤ V allora U ∗ = L(U ) = R(U ).
Definizione 8. Data una forma bilineare B su uno spazio vettoriale V , x ∈ V
si dice ortogonale a y ∈ V e si scrive x⊥y se vale B(x, y) = 0.
Definizione 9 (forme simmetriche). Una forma bilineare B : V ×V → F si dice
simmetrica se vale B(x, y) = B(y, x) per ogni x, y ∈ V . Le matrici associate a
B sono in tal caso tutte simmetriche.
Definizione 10 (forme alternanti). Una forma bilineare B : V × V → F si dice
alternante se vale B(x, x) = 0 per ogni x ∈ V . Le matrici associate a B sono
in tal caso, se χ(F ) 6= 2, tutte antisimmetriche.
Il seguente affascinante risultato rende molto interessante lo studio delle forme
bilineari simmetriche o alternanti:
Teorema 4. Data una forma bilineare B sullo spazio vettoriale V , la relazione
di ortogonalità è simmetrica se e solo se B è simmetrica oppure alternante.
Dimostrazione. Sufficienza. Se B è simmetrica lo è in particolare la relazione di
ortogonalità, se invece B è alternante allora dati x, y ∈ V, 0 = B(x + y, x + y) =
B(x, x) + B(x, y) + B(y, x) + B(y, y) = B(x, y) + B(y, x) da cui B(x, y) =
−B(y, x) quindi è chiaro che B(x, y) = 0 se e solo se B(y, x) = 0.
Necessità. Supponiamo ora che la relazione di ortogonalità sia simmetrica, e
siano x, y, z ∈ V . Sia
w := B(x, y)z − B(x, z)y

20
allora vale B(x, w) = B(x, B(x, y)z−B(x, z)y) = B(x, B(x, y)z)−B(x, B(x, z)y) =
B(x, y)B(x, z) − B(x, z)B(x, y) = 0 da cui per la simmetria dell’ortogonalità
B(w, x) = 0, che si riscrive come 0 = B(B(x, y)z−B(x, z)y, x) = B(B(x, y)z, x)−
B(B(x, z)y, x) = B(x, y)B(z, x) − B(x, z)B(y, x) ovvero

B(x, y)B(z, x) = B(x, z)B(y, x) ∀x, y, z ∈ V (3.1)

da cui se x = y,

B(x, x)(B(z, x) − B(x, z)) = 0 ∀x, z ∈ V (3.2)

Ora supponiamo falsa la nostra tesi, cioè supponiamo che B non sia né sim-
metrica né alternante. Allora per la non-simmetria esistono u, v ∈ V tali che
B(u, v) 6= B(v, u) e per la non-alternanza esiste w ∈ V tale che B(w, w) 6= 0.
Usando (3.2) con x = u, z = v e poi con x = v, z = u otteniamo

B(u, u) = B(v, v) = 0 (3.3)

Usando poi ancora (3.2) con z = u, x = w e poi con z = v, x = w otteniamo

B(u, w) − B(w, u) = 0 = B(v, w) − B(w, v) (3.4)

Usando poi (3.1) con x = u, y = v, z = w e poi con x = v, y = u, z = w e


usando (3.4) otteniamo

B(u, w) = B(w, u) = 0 = B(v, w) = B(w, v) (3.5)

Ora si ha B(u, v + w) = B(u, v) + B(u, w) = B(u, v) e B(v + w, u) = B(v, u) +


B(w, u) = B(v, u) da cui poiché B(u, v) 6= B(v, u) si ha B(u, v+w) 6= B(v+w, u)
e usando (3.2) con x = v + w, z = u otteniamo B(v + w, v + w)(B(v + w, u) −
B(u, v + w)) = 0 da cui per quanto appena visto B(v + w, v + w) = 0, ovvero
0 = B(v + w, v + w) = B(v, v) + B(v, w) + B(w, v) + B(w, w) = B(w, w) usando
(3.3) e (3.5). Ma questo è assurdo perché per ipotesi B(w, w) 6= 0. Questo
conclude la dimostrazione.
D’ora in poi ogni forma bilineare sia simmetrica oppure alternante.
Per quanto visto si ha per ogni U ≤ V che

U ⊥L = U ⊥R =: U ⊥

e U ⊥ viene detto il complemento ortogonale di U . Il vantaggio di lavorare con


forme simmetriche o alternanti è legato al non dover distinguere tra “ortogonali
destri” e “ortogonali sinistri”.
Osservazione 4. Se U ≤ V si ha U ∩ U ⊥ = {0} se e solo se B|U ×U è non
degenere. In questo caso U si dice sottospazio non degenere.
Dimostrazione. Necessità. Se x ∈ U è tale che B(x, y) = 0 ∀y ∈ U allora vale
anche x ∈ U ⊥ e quindi x = 0. Sufficienza. Se x ∈ U ∩ U ⊥ allora B(x, y) = 0
per ogni y ∈ U e quindi x ∈ ker(LU ) = ker(RU ), che impica x = 0.

21
Data una base (ei )i di V , possiamo definire il discriminante di B come 0 se B
è degenere, e come la classe

det(b)(F ∗ )2 ∈ F ∗ /(F ∗ )2

se B è non degenere, dove (F ∗ )2 := {a2 | a ∈ F ∗ } è sottogruppo moltiplicativo


di F ∗ .

Concentriamoci ora sulle forme bilineari alternanti. Rivestono particolare im-


portanza le cosiddette “basi simplettiche”:
Teorema 5. Sia B una forma bilineare alternante V × V → F . Allora esiste
una base {u1 , v1 , u2 , v2 , ..., ur , vr , z1 , ..., zn−2r } di V , detta base simplettica di V ,
tale che la matrice di B rispetto a tale base abbia la forma

s = diag{S, ..., S, 0, ..., 0}

dove  
0 1
S=
−1 0
Dimostrazione. Se B(x, y) = 0 ∀x, y ∈ V il risultato è immediato. In caso
contrario esistono u, v ∈ V tali che B(u, v) = b 6= 0. Allora u1 = u e v1 = b−1 v
soddisfano −B(v1 , u1 ) = B(u1 , v1 ) = b−1 B(u, v) = 1. Certamente u1 e v1
sono linearmente indipendenti perché per ogni x ∈ V e per ogni a ∈ F si ha
B(x, ax) = aB(x, x) = 0. Ora supponiamo di aver trovato i vettori indipendenti

(i) (u1 , v1 , u2 , v2 , ..., uk , vk )

tali che B(ui , vi ) = 1 = −B(vi , ui ) e B(x, y) = 0 per ogni altra scelta di x e y


nell’insieme {ui | 1 ≤ i ≤ k} ∪ {vi | 1 ≤ i ≤ k}. Sia Vk := hu1 , v1 , ..., uk , vk i, di
dimensione 2k. Mostriamo che V = Vk ⊕ Vk⊥ . Poiché la matrice di B ristretta
a Vk rispetto alla base (i) è diag(S, ..., S) e quindi invertibile, Vk è sottospazio
non degenere di V e quindi Vk ∩ Vk⊥ = {0}. Ora sia x ∈ V e sia
k
X k
X
y := x − B(x, vi )ui + B(x, ui )vi
i=1 i=1

Abbiamo
k
X k
X
B(y, uj ) = B(x, uj ) − B(x, vi )B(ui , uj ) + B(x, ui )B(vi , uj ) =
i=1 i=1

= B(x, uj ) + B(x, uj )B(vj , uj ) = 0


k
X k
X
B(y, vj ) = B(x, vj ) − B(x, vi )B(ui , vj ) + B(x, ui )B(vi , vj ) =
i=1 i=1

= B(x, vj ) − B(x, vj )B(uj , vj ) = 0

22
da cui y ∈ Vk⊥ . Poiché
k
X k
X
x=y+ B(x, vi )ui − B(x, ui )vi
i=1 i=1

abbiamo, usando il fatto che Vk ∩ Vk⊥ = {0}, che Vk ⊕ Vk⊥ = V .


Consideriamo ora la forma B ristretta a Vk⊥ . Se è identicamente nulla possiamo
scegliere una base di Vk⊥ ottenendo con la (ui , vi )i una base di V rispetto a cui
la matrice di B è del tipo voluto con r = k. Se invece B|Vk⊥ non è identica-
mente nulla possiamo scegliere uk+1 , vk+1 ∈ Vk⊥ tali che B(uk+1 , vk+1 ) = 1 =
−B(vk+1 , uk+1 ), come abbiamo fatto all’inizio della dimostrazione per B e V , e
quindi ottenere la base di Vk+1

(u1 , v1 , u2 , v2 , ..., uk , vk , uk+1 , vk+1 )

rispetto a cui la matrice sarà del tipo voluto, e questo prova l’ipotesi induttiva
nel caso k + 1.
Se b è la matrice antisimmetrica associata alla forma bilineare alternante B su V
su F rispetto alla base (ei )i , e p è la matrice di cambiamento di base dalla base
(ei )i alla base (uj , vj , zk ) del teorema allora pt bp = s come nel teorema. Ponendo
q = p−1 abbiamo b = q t sq e quindi b e s hanno lo stesso rango essendo ottenute
l’una dall’altra moltiplicando a destra e a sinistra per matrici invertibili. Ma
poiché det(s) ∈ {0, 1} si ha det(b) = det(q)2 det(s) ∈ {0, det(q)2 } e quindi:
Corollario 1. Una matrice antisimmetrica invertibile con entrate in un campo
F ha rango pari e il suo determinante è un quadrato in F .
Corollario 2. Due matrici antisimmetriche n × n con entrate in un campo F
sono congruenti se e solo se hanno lo stesso rango.
Dimostrazione. La sufficienza si vede notando che se pt bp = s = q t cq allora
c = (q −1 p)t b(q −1 p).

3.2 Il gruppo simplettico


Definiremo ora l’oggetto del nostro studio:
Definizione 11. Sia V spazio vettoriale di dimensione n = 2r sul campo F
dotato della forma bilineare alternante non degenere B : V × V → F (in-
dicheremo tutto ciò con (V, B)). Il gruppo delle B-isometrie di V , ovvero delle
applicazioni lineari invertibili η : V → V tali che

B(η(u), η(v)) = B(u, v) ∀u, v ∈ V

si indica con Spn (F ) e si dice gruppo simplettico di V . Gli elementi di tale


gruppo si dicono trasformazioni simplettiche di V .

23
Osserviamo ora alcune piccole conseguenze della definizione. Se

{u1 , v1 , u2 , v2 , ..., ur , vr }

è base simplettica per V e η ∈ Spn (F ) allora anche

{η(u1 ), η(v1 ), η(u2 ), η(v2 ), ..., η(ur ), η(vr )}

è base simplettica. Viceversa date due basi simplettiche di V l’isomorfismo


che manda ordinatamente i vettori della prima base nei vettori della seconda è
trasformazione simplettica di V .

Osservazione 5. Siano V1 e V2 spazi vettoriali dotati delle forme bilineari


alternanti non degeneri B1 e B2 rispettivamente. Se (V1 , B1 ) e (V2 , B2 ) sono
isometrici, ovvero se esiste un isomorfismo lineare

α : V 1 → V2

tale che B2 (α(v), α(w)) = B1 (v, w) per ogni v, w ∈ V1 , allora i rispettivi gruppi
simplettici sono isomorfi.
Dimostrazione. Indichiamo con G1 e G2 i gruppi simplettici di (V1 , B1 ) e (V2 , B2 )
rispettivamente. Definiamo l’omomorfismo di gruppi

ϕ : G 1 → G2

σ 7→ ασα−1
La definizione ha senso perché se σ ∈ G1 allora

B2 (α(σ(α−1 (u))), α(σ(α−1 (v)))) = B1 (σ(α−1 (u)), σ(α−1 (v)))


= B1 (α−1 (u), α−1 (v))
= B2 (α(α−1 (u)), α(α−1 (v)))
= B2 (u, v)

per ogni u, v ∈ V2 , ovvero ασα−1 ∈ G2 . È immediato che ϕ è isomorfismo.


In particolare se sullo stesso spazio vettoriale V consideriamo due forme bilineari
alternanti non degeneri diverse B1 e B2 , i rispettivi gruppi simplettici saranno
isomorfi perché si può costruire una isometria di (V, B1 ) in (V, B2 ) mandando
una base simplettica di (V, B1 ) ordinatamente in una base simplettica di (V, B2 ).
Ne segue che per studiare la classe di isomorfismo di un certo gruppo simplettico
possiamo scegliere arbitrariamente sullo spazio una forma bilineare alternante
non degenere.

24
3.2.1 Le trasvezioni simplettiche
Analogamente a quanto fatto per il gruppo speciale lineare, ci occupiamo di
particolari trasformazioni simplettiche:
Definizione 12 (trasvezioni simplettiche). Sia u ∈ V non nullo e sia c ∈ F .
L’applicazione
τu,c : V → V
x 7→ x + cB(x, u)u
si dice trasvezione simplettica di direzione u.
Questa definizione porta ad alcuni piccoli risultati. Innanzitutto si vede che
τu,c ∈ Spn (F ), infatti se v, w ∈ V , essendo B(u, u) = 0,
B(τu,c (v), τu,c (w)) = B(v + cB(v, u)u, w + cB(w, u)u) =
= B(v, w) + cB(w, u)B(v, u) + cB(v, u)B(u, w)
= B(v, w) + cB(w, u)B(v, u) + cB(v, u)(−B(w, u))
= B(v, w)
Inoltre fissato u ∈ V non nullo, l’applicazione
F → Spn (F )
c 7→ τu,c
è monomorfismo di gruppi, dove F è inteso come gruppo additivo. Infatti:
τu,c (τu,d (v)) = τu,c (v + dB(v, u)u) = v + dB(v, u)u + cB(v + dB(v, u)u, u)u
= v + cB(v, u)u + dB(v, u)u = v + (c + d)B(v, u)u = τu,c+d (v)
Inoltre se τu,c è l’identità allora τu,c (v) = v + cB(v, u)u = v, ovvero cB(v, u)u =
0, per ogni v ∈ V , e poiché u non sta nel nucleo di B (essendo B non degenere)
esiste w ∈ V tale che B(u, w) 6= 0; preso v = w si ha subito c = 0.
Un’altra conseguenza della definizione: se η ∈ Spn (F ) allora
ητu,c η −1 = τη(u),c
Infatti si ha
η(τu,c (η −1 (v))) = η(η −1 (v) + cB(η −1 (v), u)u) =
v + cB(η −1 (v), u)η(u) = v + cB(v, η(u))η(u) = τη(u),c (v)
Infine se a ∈ F ∗ allora
τau,c = τu,a2 c
Infatti τau,c (v) = v + cB(v, au)au = v + a2 cB(v, u)u = τu,a2 c (v).
Si vede facilmente che se x è B-ortogonale a u allora è fissato da τu,c , e in
particolare u è fissato da τu,c . Resta quindi definita l’applicazione
ζu,c : V → F u
x 7→ τu,c (x) − x
2
Per quanto detto ζu,c = 0 e quindi il seguente lemma dimostra che det(τu,c ) = 1.

25
Lemma 9. Se 1 6= A ∈ Mn (F ) è tale che (A − 1)2 = 0 allora det(A) = 1.
Dimostrazione. È ben noto che il minimo esponente a cui elevare una matrice
nilpotente X per ottenere 0 è rk(X) + 1 (questo è sostanzialmente dovuto al
fatto che se X ∈ Mn (F ) è nilpotente e non nulla, ker(X k ) ha dimensione
min(dim(ker(X)) + k − 1, n)). Ne segue che poiché A 6= 1, rk(A − 1) = 1.
Quindi il nucleo di A − 1 ha dimensione n − 1, e quindi presa una base di tale
nucleo {v1 , ..., vn−1 } e completata a una base di V {v1 , ..., vn−1 , vn }, la matrice
di A in tale base, chiamiamola X + 1, è del tipo
 
1 0 ... 0 ∗
 0 1 ... 0 ∗ 
.
 
 0 0 . . . .. ∗ 
 
 
 . . .
 .. .. . . 1 ... 

0 0 ... 0 ∗

ed è uguale a P AP −1 per qualche matrice invertibile P . Ora

X2 = (P AP −1 − 1)2 = (P (A − 1)P −1 )2 = P (A − 1)P −1 P (A − 1)P −1


= P (A − 1)2 P −1 = P · 0 · P −1 = 0

Quindi X 2 = 0 e l’ultima colonna di X è l’unica (eventualmente) non nulla,


ovvero Xij = 0 se j 6= n. Segue che
X
(X 2 )ij = Xik Xkj = Xin Xnj = 0 ∀i, j = 1, ..., n
k

In particolare questo vale se i = j = n e quindi Xnn = 0, ovvero (P AP −1 )nn =


(X + 1)nn = 1. Segue che P AP −1 è triangolare superiore con 1 sulla diagonale,
quindi 1 = det(P AP −1 ) = det(A).

3.2.2 Generazione
Il motivo per cui sono state introdotte le trasvezioni simplettiche è che esse gen-
erano il gruppo simplettico Spn (F ), e da ciò segue in particolare che Spn (F ) ≤
SLn (F ). Prima un altro piccolo risultato:
Lemma 10. Se U ≤ V e η ∈ Spn (F ) allora η(U ) = U se e solo se η(U ⊥ ) = U ⊥ .
Dimostrazione. Poiché (U ⊥ )⊥ = U basta mostrare la necessità. Sia v ∈ U ⊥ ,
e sia u ∈ U . Allora B(u, η(v)) = B(η −1 (u), v) = 0 perché η −1 (u) ∈ U , quindi
η(v) ∈ U ⊥ . Viceversa B(u, η −1 (v)) = B(η(u), v) = 0 quindi η −1 (v) ∈ U ⊥ ,
ovvero v ∈ η(U ⊥ ).
Lemma 11. Spn (F ) è generato dalle trasvezioni simplettiche.

26
Dimostrazione. : Introdurremo innanzitutto le coppie iperboliche: dati u, v ∈
V , (u, v) si dice coppia iperbolica se B(u, v) = 1 (nel caso B non sia alternante
nella definizione si richiede anche B(u, u) = B(v, v) = 0). Per cominciare di-
mostriamo il seguente fatto: se (u, v) e (u0 , v 0 ) sono due coppie iperboliche allora
esiste un prodotto di trasvezioni simplettiche ψ tale che ψ(u) = u0 e ψ(v) = v 0 .
Siano quindi (u, v) e (u0 , v 0 ) coppie iperboliche. Se B(u, u0 ) 6= 0 allora u 6= u0 e
quindi w := u − u0 6= 0. τw,c (u) = u + cB(u, w)w = u − cB(u, u0 )(u − u0 ) quindi
preso c = B(u, u0 )−1 , τw,c (u) = u0 . Se invece B(u, u0 ) = 0, esiste f ∈ V ∗ tale
che f (u) 6= 0 e f (u0 ) 6= 0. f in quanto forma lineare è del tipo x 7→ B(x, u00 ) per
qualche u00 ∈ V , quindi B(u, u00 ) 6= 0 6= B(u0 , u00 ). Quindi esiste una trasvezione
simplettica che manda u in u00 e ne esiste una che manda u00 in u0 . La loro
composizione (il loro prodotto nell’ordine inverso) manda u in u0 . Quindi per
ogni coppia di coppie iperboliche (u, v) e (u0 , v 0 ) esiste un prodotto di trasvezioni
simplettiche che manda u in u0 . Ci siamo ridotti a dimostrare che se (u, v) e
(u, v 0 ) sono coppie iperboliche allora esiste un prodotto di trasvezioni simplet-
tiche che fissa u e manda v in v 0 . Siano quindi (u, v) e (u, v 0 ) coppie iperboliche.
Se B(v, v 0 ) 6= 0 allora v 6= v 0 . Detto w := v − v 0 6= 0, e detto c = B(v, v 0 )−1
si ha τw,c (v) = v 0 , analogamente a poco fa. Inoltre τw,c (u) = u + cB(u, w)w =
u + cB(u, v − v 0 )(v − v 0 ) = u + cB(u, v)(v − v 0 ) − cB(u, v 0 )(v − v 0 ) = u perché
B(u, v) = B(u, v 0 ) = 1. Se invece B(v, v 0 ) = 0 la coppia (u, u + v) è iperbolica,
B(v, u + v) = −1 e B(u + v, v 0 ) = 1. Quanto appena dimostrato applicato alle
coppie iperboliche (u, v) e (u, u + v) e poi a (u, u + v) e (u, v 0 ) mostra che esiste
un prodotto di trasvezioni simplettiche che fissa u e manda v in u + v, e ne esiste
uno che fissa u e manda u + v in v 0 . Il loro prodotto nell’ordine inverso fissa u
e manda v in v 0 .
Rimane quindi dimostrato che se (u, v) e (u0 , v 0 ) sono coppie iperboliche esiste
un prodotto di trasvezioni simplettiche che manda u in u0 , v in v 0 .
Supponiamo ora che le trasformazioni simplettiche degli spazi di dimensione
n − 2 siano tutte prodotti di trasvezioni simplettiche. Allora presi η ∈ Spn (F )
e (u, v) coppia iperbolica, anche (η(u), η(v)) è coppia iperbolica e quindi esiste
ψ, prodotto di trasvezioni simplettiche, tale che ψ(u) = η(u) e ψ(v) = η(v). Ne
segue che η 0 := ψ −1 η fissa u e v, quindi fissa (in particolare, stabilizza) F u+F v,
quindi stabilizza U := (F u + F v)⊥ . Ora, η 0 |U : U → U è trasformazione sim-
plettica di U , e dim(U ) = n − 2. Ne segue che η 0 |U è prodotto di trasvezioni
simplettiche con elementi di U come vettori-direzione (ipotesi induttiva), ma
d’altra parte la corrispondente applicazione pensata di V in V è l’identità su
U ⊥ = F u + F v (se x è B-ortogonale a u allora è fissato da τu,c ), quindi coincide
con η 0 . Quindi η 0 è prodotto di trasvezioni simplettiche, quindi tale è ψη 0 = η.
Resta da mostrare che l’ipotesi induttiva è vera nel caso n = 2, ma questo si
vede facilmente: se η ∈ Spn (F ) e {u, v} è base simplettica di V , lo è anche
{η(u), η(v)} e quindi esiste un prodotto di trasvezioni simplettiche che manda
u in η(u) e v in η(v), che deve quindi coincidere con η.

3.2.3 Semplicità
Iniziamo con la seguente

27
Proposizione 7. Il centro di Spn (F ) è {−1, 1}, e coincide col nucleo dell’azione
Spn (F ) × Pn−1 (F ) → Pn−1 (F ), (γ, F x) 7→ F γ(x) (3.6)
Dimostrazione. Un elemento γ ∈ Spn (F ) che commuti con ogni altro elemento
di Spn (F ) in particolare soddisfa
γ ◦ τu,c = τu,c ◦ γ
per ogni fissato u ∈ V \ {0}, c ∈ F , e quindi per ogni v ∈ V si ha
γ(τu,c (v)) = τu,c (γ(v)) (3.7)
Mostriamo che γ stabilizza u⊥ . Sia dunque x ∈ u⊥ . Ne segue che x è fissato
dalle trasvezioni di direzione u: τu,c (x) = x, e quindi da (3.7) segue che γ(x) =
τu,c (γ(x)) ovvero γ(x) è fissato dalle trasvezioni di direzione u, e quindi γ(x) ∈
u⊥ . Quindi, poiché lo stesso vale per γ −1 , γ(u⊥ ) = u⊥ . Per il lemma 10 γ
stabilizza F u, quindi γ(x) = αx x per ogni x ∈ F u. Ma questo vale per ogni
0 6= u ∈ V , quindi, analogamente a quanto visto nella dimostrazione della
proposizione 2, γ è la moltiplicazione per un elemento di F , chiamiamolo α. Ma
essendo anche trasvezione simplettica, presi x, y ∈ V non B-ortogonali (esistono
altrimenti B sarebbe degenere),
B(x, y) = B(γ(x), γ(y)) = B(αx, αy) = α2 B(x, y) ⇒ α2 = 1
ovvero α ∈ {1, −1}. Viceversa se α ∈ {1, −1} allora la moltiplicazione per α è
trasvezione simplettica.
Per la proposizione 2, l’azione (3.6) ha come nucleo
K = {a1 ∈ Spn (F ) | a ∈ F }
ovvero proprio il centro di Spn (F ), come visto.
Ora proseguiamo verificando tutte le richieste del lemma di Iwasawa.
Lemma 12. L’azione (3.6) è primitiva.
Dimostrazione. Supponiamo quindi di disporre di una partizione di Pn−1 (F )
stabilizzata dall’azione di Spn (F ) su P (Pn−1 (F )) indotta dall’azione su Pn−1 (F ).
Consideriamo S, elemento di tale partizione (quindi sottoinsieme di Pn−1 (F ))
che abbia almeno due elementi: |S| > 1. Mostriamo che l’unica possibilità è
S = Pn−1 (F ).
Se S contiene due elementi distinti F x e F y con B(x, y) 6= 0, dividendo even-
tualmente y (o x) per B(x, y) si può assumere B(x, y) = 1. Sia F z ∈ Pn−1 (F )
z
diverso da F x e da F y, con z non B-ortogonale a x, e sia w = B(x,z) . Allora
(x, y) e (x, w) sono coppie iperboliche, quindi esiste η, prodotto di trasvezioni,
che fissa x e manda y in w. È chiaro che η(S) = S, infatti da η(F x) = F x segue
F x ∈ η(S) ∩ S, e le due classi laterali S e η(S) avendo intersezione non vuota
devono coincidere. Ma allora
F z = F w = F η(y) = η(F y) ∈ S

28
Se invece x e z sono B-ortogonali (B(x, z) = 0) esiste w ∈ V tale che B(x, w) =
1, B(z, w) 6= 0 (lemma 7). Ma allora (x, y) e (x, w) sono coppie iperboliche,
quindi esiste η, prodotto di trasvezioni, che fissa x e manda y in w. Poiché
η(S) = S, F w = F η(y) = η(F y) ∈ S. Ora detto z 0 := B(z,w) z
, (−w, x) e
0
(−w, z ) sono coppie iperboliche, quindi esiste ζ, prodotto di trasvezioni, che
fissa w e manda x in z 0 . Da F w ∈ S ∩ ζ(S) segue ζ(S) = S quindi F z = F z 0 =
F ζ(x) = ζ(F x) ∈ S.
Ora supponiamo che F x e F y siano due elementi distinti di S, tali che B(x, y) =
0. Mostriamo che esistono due elementi F x∗ e F y ∗ di S, distinti, tali che x∗
e y ∗ non siano B-ortogonali, riconducendoci cosı́ al caso B(x, y) 6= 0. Poiché
F x 6= F y, per il lemma 7 esiste u ∈ V tale che B(x, u) = 1, B(y, u) = 0. Sia
ora U := (F x + F u)⊥ , e sia

G := {η ∈ Spn (F ) | η|U ⊥ = 1}

Si può facilmente vedere che U è non degenere: se αx + βu ∈ U ⊥ ∩ U allora


B(αx + βu, γx + δu) = 0 per ogni γ, δ ∈ F , ovvero

0 = αδB(x, u) + βγB(u, x) = (αδ − βγ)B(x, u) = αδ − βγ ∀γ, δ ∈ F

da cui α = β = 0 (esaminando i casi δ = γ = 1 e δ = 1, γ = 0). Inoltre G è


un gruppo di trasformazioni simplettiche che stabilizzano U , infatti fissano (in
particolare, stabilizzano) U ⊥ (lemma 10). Detto

G|U := {η|U | η ∈ G}

si ha che G|U è il gruppo simplettico di U : se γ è trasformazione simplettica


di U allora è prodotto di trasvezioni simplettiche con direzioni in U , e pensato
tale prodotto come funzione V → V e chiamatolo ancora γ, si ha che γ|U ⊥ = 1
e quindi γ ∈ G. Viceversa se γ ∈ G allora γ fissa U ⊥ , quindi stabilizza U .
Prima di proseguire, un’osservazione ovvia: y ∈ U , quindi U 6= {0}. Poiché
U è non degenere ha dimensione pari, dunque possiede almeno un vettore non
B-ortogonale a y, quindi possiede almeno una coppia iperbolica.
Mostriamo ora che F U ⊆ S. Sia quindi 0 6= z ∈ U . Poiché U è non degenere, z e
y non stanno nel nucleo di B|U ×U , quindi esistono y 0 , z 0 ∈ U tali che B(z, z 0 ) 6=
0, B(y, y 0 ) 6= 0, e a meno di una opportuna normalizzazione possiamo supporre
B(z, z 0 ) = 1 = B(y, y 0 ). Poiché (y, y 0 ) e (z, z 0 ) sono coppie iperboliche esiste
η∗ ∈ G|U che manda y in z e y 0 in z 0 . Poiché η∗ ∈ G|U , esiste η ∈ G che ristretta
a U coincide con η∗ . Abbiamo trovato η ∈ Spn (F ) che fissa x e manda y in z. Al
solito, poiché F x ∈ S ∩ η(S) si ha η(S) = S e quindi F z = F η(y) = η(F y) ∈ S.
Prendendo per (x∗ , y ∗ ) una coppia iperbolica di U (e quindi di S), abbiamo
concluso.
Lemma 13. Spn (F ) coincide con il suo derivato tranne nei casi

n = 2, |F | ∈ {2, 3}

n = 4, |F | = 2

29
Inoltre per ogni 0 6= x ∈ V esiste Hx E Stab(F x), abeliano, i cui coniugati
generano Spn (F ).
Dimostrazione. Iniziamo osservando che dati x, y ∈ V non nulli, essi non stanno
nel nucleo di B essendo B non degenere, quindi esistono x0 e y 0 non ortogonali
a x, y rispettivamente, e possiamo assumere che (x, x0 ) e (y, y 0 ) siano coppie
iperboliche. Quindi esiste una trasformazione simplettica che manda x in y.
Dato x ∈ V non nullo, definisco

Hx := {τx,c | c ∈ F } ≤ Stab(F x) ≤ Spn (F )

Che Hx ≤ Stab(F x) segue dal fatto che x è fissato da τx,c per ogni c ∈ F . Che
Hx EStab(F x) segue dal fatto che se η ∈ Stab(F x) allora η(x) = αx per qualche
α∈F e
η ◦ τx,c ◦ η −1 = τη(x),c = ταx,c = τx,α2 c ∈ Hx
Il fatto che Hx sia abeliano segue da

τx,c ◦ τx,d = τx,c+d = τx,d+c = τx,d ◦ τx,c

Infine, i coniugati di Hx generano Spn (F ) perché se 0 6= y ∈ V , presa η ∈


Spn (F ) che mandi x in y si ha ηHx η −1 = Hy , e poiché Spn (F ) è generato dalle
trasvezioni,

Spn (F ) = h{Hz | 0 6= z ∈ V }i = h{ηHx η −1 | η ∈ Spn (F )}i

Supponiamo ora |F | > 3. Sia τz,c trasvezione diversa dall’identità. Poiché F


ha più di 3 elementi esiste d ∈ F ∗ tale che d2 6= 1. Sia b := (1 − d2 )−1 c e sia
a := −d2 b. Allora
c = b(1 − d2 ) = b − bd2 = a + b
Sia η trasformazione simplettica che mandi z in d · z. Allora
−1
η ◦ τz,b ◦ η −1 = η ◦ τz,−b η −1 = τη(z),−b = τdz,−b = τz,−bd2 = τz,a

e quindi
−1
τz,c = τz,a+b = τz,a ◦ τz,b = η ◦ τz,b ◦ η −1 ◦ τz,b ∈ Spn (F )0

Poiché Spn (F ) è generato dalle trasvezioni, Spn (F ) = Spn (F )0 .


Rimangono da studiare i casi

|F | = 3, n ≥ 4

|F | = 2, n ≥ 6
Per mostrare che Spn (F ) = Spn (F )0 basta mostrare che tutte le trasvezioni stan-
no nel commutatore, e per questo basta mostrare che una qualunque trasvezione
sta nel commutatore. Infatti in tal caso, detta τz,c tale trasvezione, poiché G0 EG
per ogni gruppo G, e poiché in questo caso |F | ∈ {2, 3} quindi Hz è ciclico, tut-
ti i coniugati di Hz , che è contenuto in Spn (F )0 , sono contenuti in Spn (F )0 e

30
generano Spn (F ), quindi Spn (F )0 = Spn (F ).

Primo caso: |F | = 3, n = 2r ≥ 4.
Sia {u1 , v1 , u2 , v2 , ..., ur , vr } base simplettica di V . Definisco η, σ come le appli-
cazioni lineari V → V che fissano ui e vi se 2 < i ≤ r e soddisfacenti la seguente
tabella:
◦ u1 v1 u2 v2
η u1 + u2 v2 u1 v1 − v2
σ u1 − v1 + v2 v1 u2 + v1 v2
I seguenti fatti sono di facile (ma noiosa) verifica: η e σ sono invertibili, e sono
trasformazioni simplettiche in quanto le basi

{η(u1 ), η(v1 ), ..., η(ur ), η(vr )}

{σ(u1 ), σ(v1 ), ..., σ(ur ), σ(vr )}


sono simplettiche. Ora consideriamo la trasformazione simplettica γ := ηση −1 σ −1 ,
e valutiamo le immagini della base data. Chiaramente γ fissa ui e vi per ogni
i > 2. Negli altri casi:

γ(u1 ) = η(σ(η −1 (u1 + v1 − v2 ))) = η(σ(u2 + v1 + v2 − v1 ))


= η(u2 + v1 + v2 ) = u1 + v2 + v1 − v2 = u1 + v1

γ(u2 ) = η(σ(η −1 (u2 − v1 ))) = η(σ(u1 − u2 − v2 − v1 ))


= η(u1 − v1 + v2 − u2 − v1 − v2 − v1 ) = u1 + u2 − u1 = u2

γ(v1 ) = η(σ(η −1 (v1 ))) = η(σ(v1 + v2 )) = η(v1 + v2 ) = v2 + v1 − v2 = v1

γ(v2 ) = η(σ(η −1 (v2 ))) = η(σ(v1 )) = η(v1 ) = v2

È facile verificare che τv1 ,1 manda i vettori della base {ui , vi }i dove li manda γ,
quindi γ = τv1 ,1 . Ne segue che τv1 ,1 ∈ Spn (F )0 .

Secondo caso: |F | = 2, n = 2r ≥ 6.
Sia di nuovo, {u1 , v1 , u2 , v2 , ..., ur , vr } base simplettica di V . Definisco η, σ
come le applicazioni lineari V → V che fissano ui e vi se i > 3 e soddisfacenti
la seguente tabella:
◦ u1 v1 u2 v2 u3 v3
η u1 + u3 v3 u1 v1 + v3 u2 v2
σ u1 + v2 v1 u2 + v1 + v2 + v3 v2 u3 + v2 + v3 v3
Analogamente a prima, η e σ sono invertibili e sono trasformazioni simplet-
tiche. In questo caso inoltre σ −1 = σ. Mostriamo che γ := ηση −1 σ −1 è una
trasvezione. γ chiaramente fissa ui e vi per ogni i > 3. Negli altri casi:

γ(u1 ) = η(σ(η −1 (u1 + v2 ))) = η(σ(u2 + v3 )) = η(u2 + v1 + v2 ) = u1 + v1

31
γ(u2 ) = η(σ(η −1 (u2 + v1 + v2 + v3 ))) = η(σ(u3 + v1 + v2 + v3 + v1 ))
= η(u3 + v2 + v3 + v2 + v3 ) = u2

γ(u3 ) = η(σ(η −1 (u3 + v2 + v3 ))) = η(σ(u1 + u2 + v3 + v1 ))


= η(u1 + v2 + u2 + v1 + v2 + v3 + v3 + v1 ) = u1 + u3 + u1 = u3

γ(v1 ) = η(σ(η −1 (v1 ))) = η(σ(v1 + v2 )) = η(v1 + v2 ) = v3 + v1 + v3 = v1

γ(v2 ) = η(σ(η −1 (v2 ))) = η(σ(v3 )) = η(v3 ) = v2

γ(v3 ) = η(σ(η −1 (v3 ))) = η(σ(v1 )) = η(v1 ) = v3

Segue quindi, analogamente a prima, che γ = τv1 ,1 , quindi che τv1 ,1 ∈ Spn (F )0 .

Le richieste del lemma di Iwasawa sono soddisfatte, per cui si ha il risultato:


Teorema 6. Spn (F )/Z(Spn (F )) è semplice tranne nei casi n = 2, |F | ∈ {2, 3}
e n = 4, |F | = 2.

3.3 Le eccezioni
Innanzitutto valutiamo l’ordine di Spn (q) := Spn (F ) quando F ha q elementi.
Proposizione 8. Si ha

|Spn (q)| = q n−1 (q n − 1)q n−3 (q n−2 − 1)...q(q 2 − 1)

Segue che

|Sp2 (2)| = 6 = 3!, |Sp2 (3)| = 24 = 4!, |Sp4 (2)| = 720 = 6!

|Sp2 (2)/Z(Sp2 (2))| = 6, |Sp2 (3)/Z(Sp2 (3))| = 12, |Sp4 (2)/Z(Sp4 (2))| = 720
Dimostrazione. Siano (x, y) e (x, y 0 ) coppie iperboliche. Allora esiste η ∈ Spn (F )
che fissa x e manda y in y 0 , quindi detto z := y 0 − y, si ha

B(z, x) = B(y 0 − y, x) = B(y 0 , x) − B(η(y), η(x)) = B(y 0 , x) − B(y 0 , x) = 0

quindi z ∈ x⊥ . Viceversa se z ∈ x⊥ e (x, y) è coppia iperbolica, anche (x, y +z) è


coppia iperbolica, infatti B(x, y+z) = B(x, y)+B(x, z) = 1. Contiamo le coppie
iperboliche (x, y) in V . Abbiamo q n −1 scelte per x, e per quanto detto, per ogni
x 6= 0 fissato abbiamo |x⊥ | = q n−1 scelte per y. Quindi le coppie iperboliche
in V sono q n−1 (q n − 1). Introducendo l’azione del gruppo Spn (q) sull’insieme
delle coppie iperboliche di V data da (η, (x, y)) 7→ (η(x), η(y)), tale azione è

32
transitiva, quindi l’orbita di ogni coppia iperbolica ha ordine q n−1 (q n − 1), e
fissata una coppia iperbolica (x, y) si ha che

|Spn (q)| = |Orb((x, y))| · |Stab((x, y))|

Ora, Stab((x, y)) consiste dei η ∈ Spn (q) che fissano x e y, e come visto nel
lemma 11 coincide col gruppo simplettico di (F x + F y)⊥ . Ma allora

|Spn (q)| = q n−1 (q n − 1)|Spn−2 (q)|

Esaminiamo il caso n = 2. In questo caso ogni trasformazione simplettica è


identificata dall’immagine tramite essa di una fissata base simplettica, e poiché
tale immagine è ancora base simplettica e in questo caso le basi simplettiche
coincidono con le coppie iperboliche, c’è corrispondenza biunivoca tra l’insieme
delle coppie iperboliche e Sp2 (q). Quindi |Sp2 (q)| = q(q 2 − 1). Possiamo usare
l’induzione e concludere.
L’ultima asserzione segue dal fatto che Z(Spn (F )) = {1, −1} quindi se |F | = 2,
Z(Spn (2)) = {1}.
Esaminiamo i casi rimasti esclusi:
Proposizione 9. Sp2 (F ) ∼
= SL2 (F ) e Sp2 (F )/Z(Sp2 (F )) ∼
= SL2 (F )/Z(SL2 (F )).
Dimostrazione. Sia {u, v} base simplettica di V . La condizione che η ∈ L2 (F )
sia trasformazione simplettica è B(η(u), η(v)) = B(u, v) = 1 e quindi se η(u) =
au + bv e η(v) = cu + dv allora

1 = B(η(u), η(v)) = B(au + bv, cu + dv) = adB(u, v) + bcB(v, u) = ad − bc

quindi η è simplettica se e solo se il suo determinante è 1, cioè η ∈ SLn (F ).


La seguente dimostrazione è contenuta in [2].
Proposizione 10. Sp4 (2)/Z(Sp4 (2)) ∼= S6 quindi non è semplice contenendo
propriamente il sottogruppo normale A6 .
Dimostrazione. Sia F := F2 . Possiamo scegliere una qualunque forma bilineare
alternante non degenere su un qualunque spazio vettoriale di dimensione 4 su F .
Sia V := F 6 . Consideriamo la forma bilineare simmetrica “prodotto scalare”
V × V → F definita da

(x, y) 7→ x · y := x1 y1 + x2 y2 + x3 y3 + x4 y4 + x5 y5 + x6 y6

Tale forma bilineare è non degenere essendo rappresentata nella base canonica
dalla matrice identica. Sia j := (1, 1, 1, 1, 1, 1)t . Abbiamo allora che

x · j = x1 + x2 + x3 + x4 + x5 + x6 = x21 + x22 + x23 + x24 + x25 + x26 = x · x

per ogni x ∈ V . Quindi il prodotto scalare induce sul sottospazio 5-dimensionale


j ⊥ di V una forma bilineare alternante, infatti se x ∈ j ⊥ , x · x = x · j = 0. Tale

33
forma alternante è degenere in quanto il suo nucleo contiene j. Anzi il suo
nucleo consiste di quei y ∈ V tali che y ∈ j ⊥ e y ∈ (j ⊥ )⊥ = hji. Ne segue che
la restrizione del prodotto scalare a j ⊥ ha come nucleo hji. Sia ora

W := j ⊥ /hji

W ha dimensione 4 su F , e il prodotto scalare induce una forma bilineare


alternante B su W definita da

(x + hji, y + hji) 7→ x · y

B è non degenere, perché dato x ∈ j ⊥ , x + hji sta nel nucleo se e solo se x ∈ hji,
ovvero x + hji = 0W .
Se x ∈ V e σ ∈ S6 denotiamo con xσ l’elemento di V la cui coordinata i è xσ(i) .
Mostriamo che ησ : x + hji 7→ xσ + hji è trasformazione simplettica W → W ,
e che σ 7→ ησ è monomorfismo S6 → Sp4 (2). Si ha
6
X 6
X
B(xσ +hji, yσ +hji) = xσ ·yσ = xσ(i) yσ(i) = xi yi = x·y = B(x+hji, y+hji)
i=1 i=1

ηστ (x + hji) = xστ + hji = ησ (xτ + hji) = ησ (ητ (x + hji)) ∀x ∈ V


Ora se ησ è l’identità e σ non è la permutazione identica, allora per qualche
x ∈ j ⊥ si ha xσ = x + j. Questo non è possibile perché se x ha 2r componenti 1,
xσ avrebbe 6 − 2r 6= 2r componenti 1, quindi σ non sarebbe una permutazione.
In conclusione, S6 si immerge in Sp4 (2) che ha cardinalità 720 = 6!, quindi

S6 ∼
= Sp4 (2) = Sp4 (2)/Z(Sp4 (2))

A6 è normale in S6 perché permutazioni coniugate hanno la stessa parità.

34
Bibliografia

[1] Nathan Jacobson, “Basic algebra 1”

[2] Peter J. Cameron, Lecture notes for the University of London M.Sc. course
A31: Classical Groups (January-March 2000).
http://www.maths.qmul.ac.uk/∼pjc/class gps/

35

Potrebbero piacerti anche