Sei sulla pagina 1di 80

_

Elementi
di
Calcolo Tensoriale
su
Spazi Vettoriali
Sergio Benenti
20 giugno 2012
Indice
Palinsesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
1 Spazi vettoriali puri 1
1.1 Richiami e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Forme lineari e spazi duali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Endomorsmi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Determinante e traccia di un endomorsmo . . . . . . . . . . . . . . . . . . 14
1.8 Polinomio caratteristico di un endomorsmo . . . . . . . . . . . . . . . . . . 16
1.9 Autovalori e autovettori di un endomorsmo . . . . . . . . . . . . . . . . . . 18
1.10 Il teorema di Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.11 Tensori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.12 Somma tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.13 Prodotto tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.14 Basi tensoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.15 Contrazione o saturazione di due indici . . . . . . . . . . . . . . . . . . . . . 28
1.16 Tensori antisimmetrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.17 Antisimmetrizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.18 Prodotto esterno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.19 Algebra esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.20 Il simbolo di Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2 Spazi vettoriali con struttura 39
2.1 Spazi vettoriali euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2 Endomorsmi in spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . 44
i
ii
2.3 Endomorsmi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3.1 Rappresentazione mediante simmetrie . . . . . . . . . . . . . . . . . 52
2.3.2 Decomposizione simmetrica delle isometrie . . . . . . . . . . . . . . 53
2.3.3 Rappresentazione esponenziale . . . . . . . . . . . . . . . . . . . . . 53
2.3.4 Rappresentazione di Cayley . . . . . . . . . . . . . . . . . . . . . . . 54
2.3.5 Rappresentazione quaternionale . . . . . . . . . . . . . . . . . . . . . 55
2.4 Lo spazio vettoriale euclideo tridimensionale . . . . . . . . . . . . . . . . . . 56
2.4.1 La forma volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4.2 Aggiunzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4.3 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4.4 Endomorsmi assiali . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4.5 Rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.5 Spazi vettoriali iperbolici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
iii
Palinsesto
Argomenti trattati in questa dispensa.
Calcolo
tensoriale
_

_
Su spazi vettoriali
_

_
Puri, senza strutture addizionali
Con struttura
_

_
euclidea
pseudo-euclidea, iperbolica
simplettica
altre
Su spazi ani
_

_
puri
euclidei (1)
semi-euclidei (2)
pseudo-euclidei (3)
Su variet` a dierenziabili
_

_
Pure
Con struttura
_

_
con connessione
riemanniana (4)
pseudo-riemanniana (5)
simplettica (6)
altre
Applicazioni:
(1) Meccanica razionale.
(2) Spazio-tempo newtoniano.
(3) Spazio-tempo di Minkowski: relativit` a ristretta.
(4) Meccanica lagrangiana.
(5) Relativit` a generale.
(6) Meccanica hamiltoniana.
Capitolo 1
Spazi vettoriali puri
1.1 Richiami e notazioni
Un insieme E `e uno spazio vettoriale o spazio lineare sopra un corpo commutativo K
se:
1. `e denita unoperazione binaria interna su E, +: EE E, detta somma, soddisfa-
cente agli assiomi di gruppo commutativo:
_

_
u + v = v + u, u, v E,
(u +v) + w = u + (v + w), u, v, w E,
0 E [ u + 0 = u, u E,
u E, v E [ u + v = 0.
2. `e denita unoperazione K E E, detta prodotto per uno scalare, tale da
soddisfare alle seguenti condizioni:
_

_
a (u+v) = a u +a v, a K, u E, v E,
(a + b)u = a u+ b u, a, b K, u E,
(ab) u = a(b u), a, b K, u E,
1 u = u, 1 = unit` a in K, u E.
Gli elementi di E si dicono vettori, gli elementi di K scalari. Denotiamo i vettori, salvo
lelemento neutro 0 E (zero o vettore nullo), con lettere grassetto (quasi sempre
minuscole). Con lo stesso simbolo 0 denotiamo anche lo zero del campo K. Per ogni
vettore u si ha 0u = 0. Si denota con u il vettore opposto a u, cio`e il vettore per
cui u + (u) = 0. Scriviamo v u al posto di v + (u). Il vettore nullo e lopposto di
un qualunque vettore sono unici (perche unici sono, in un qualunque gruppo, lelemento
neutro e il reciproco di un qualunque elemento).
1
2 Capitolo 1. Spazi vettoriali puri
Tra gli spazi vettoriali sopra un assegnato campo K ritroviamo il campo stesso e tutte le
sue potenze cartesiane K
n
, cio`e linsieme delle n-ple di elementi del campo.
Un sottoinsieme S E `e un sottospazio se le propriet` a (i) e (ii) valide in E valgono
anche per tutti gli elementi di S. Se K e L sono due sottospazi, denotiamo con K + L
la loro somma, cio`e linsieme dei vettori di E costituito da tutte le possibili somme di
elementi di K e di L. La somma K +L e lintersezione K L di due sottospazi vettoriali
sono a loro volta dei sottospazi. Denotiamo con E F la somma diretta di due spazi
vettoriali (sul medesimo corpo K): `e il prodotto cartesiano E F dotato della naturale
struttura di spazio vettoriale denita dalle operazioni (u, w) +(u

, w

) = (u+u

, w+w

)
e a(u, w) = (au, aw). Denoteremo anche con u w un generico elemento di E F. Si
dice anche che uno spazio vettoriale E `e la somma diretta di due suoi sottospazi K e
L se E = K + L e se K L = 0. In tal caso ogni vettore `e la somma di due vettori
univocamente determinati di K e L. E risulta pertanto identicabile con K L.
Una scrittura del tipo
a
1
v
2
+a
2
v
2
+. . . + a
k
v
k
=
k

i=1
a
i
v
i
prende il nome di combinazione lineare dei vettori v
i
con coecienti a
i
K. Due o
pi` u vettori si dicono indipendenti se la sola combinazione lineare che fornisce il vettore
nullo `e quella a coecienti tutti nulli:
k

i=1
a
i
v
i
= 0 = a
i
= 0.
Uno spazio vettoriale `e detto a dimensione nita se ammette una base costituita da
un numero nito n di vettori, cio`e un insieme di n vettori indipendenti che generano
tutto E tramite tutte le loro possibili combinazioni lineari. Il numero n coincide col
massimo numero di vettori indipendenti in un qualunque insieme di vettori. Esso prende
il nome di dimensione dello spazio. Scriveremo E
n
oppure dim(E) = n per indicare che
la dimensione dello spazio vettoriale E `e n. Una generica base di E sar` a denotata con
(e
1
, e
2
, . . . , e
n
) o brevemente con (e
i
), dove lindice i sar` a inteso variare da 1 a n. La
scrittura
v = v
1
e
2
+v
2
e
2
+ . . . +v
n
e
n
=
n

i=1
v
i
e
i
`e la rappresentazione di un generico vettore v E secondo la base (e
i
). I coecienti
di questa combinazione lineare sono le componenti del vettore v. Le componenti di un
vettore, ssata la base, sono univocamente determinate. Si noti la diversa posizione degli
indici riservata alle componenti (v
i
), in alto anziche in basso. Si conviene tuttavia di
omettere il simbolo di sommatoria per indici ripetuti in alto e in basso (convenzione di
Einstein). Allora la rappresentazione precedente si scrive pi` u semplicemente
v = v
i
e
i
.
1.1. Richiami e notazioni 3
Si noti che non ha importanza la scelta dellindice, purche la lettera usata appartenga
ad un insieme precedentemente convenuto (per esempio, lettere latine minuscole, lettere
greche, lettere latine maiuscole dopo la I, e cos` via). Se per esempio conveniamo che le
lettere latine minuscole a partire dalla h varino da 1 a n, la precedente scrittura `e del tutto
equivalente alle seguenti:
v = v
h
e
h
, v = v
j
e
j
, v = v
k
e
k
, . . .
La diversa collocazione degli indici e la sommatoria sottintesa per indici ripetuti in alto
e in basso sono convenzioni tipiche del calcolo tensoriale, i cui primi elementi saranno
illustrati in questo capitolo. Il formalismo che ne deriva `e agevole e sintetico.
Le formule riguardanti il calcolo vettoriale o tensoriale sono in genere di tre tipi. Una for-
mula `e di tipo intrinseco o assoluto se essa coinvolge vettori o tensori ed operazioni denite
su questi senza lintervento di basi. Ad una formula di tipo intrinseco corrisponde sempre
una formula con indici o in componenti, conseguente alla scelta di una base generica. Vi
sono inne formule, con indici, valide soltanto per una base particolare o per una classe
particolare di basi. Per sottolineare questa circostanza useremo sovente unuguaglianza
con asterisco:

=.
Per quel che riguarda il concetto di dimensione `e opportuno ricordare che per due sot-
tospazi di uno spazio vettoriale E vale la formula di Grassmann (Hermann G unther
Grassmann, 1809-1877)
dim(K +L) + dim(K L) = dim(K) + dim(L).
Unapplicazione A: E F da uno spazio vettoriale E ad uno spazio vettoriale F si dice
lineare se
A(a u+b v) = a A(u) +b A(v) (u, v E, a, b K).
Si dice anche che A `e un omomorsmo lineare. Denoteremo in genere gli omomorsmi
lineari con lettere maiuscole in grassetto. Denoteremo con
Hom(E; F)
o semplicemente con
L(E; F)
linsieme delle applicazioni lineari da E a F. Questinsieme ha una naturale struttura di
spazio vettoriale, con la somma A+ B e il prodotto a A per un elemento a K deniti
da
(A+ B)(v) = A(v) +B(v), (a A)(v) = a A(v).
Pi` u in generale, se (E
1
, E
2
, . . . , E
p
, F) sono spazi vettoriali, unapplicazione
A: E
1
E
2
. . . E
p
F
4 Capitolo 1. Spazi vettoriali puri
`e detta p-lineare (genericamente multilineare) se `e lineare su ogni argomento. Ad
esempio lapplicazione R
2
R: (x, y) xy `e bilineare (linsieme dei numeri reali R ha
unovvia struttura di spazio vettoriale su se stesso, di dimensione 1). Denoteremo con
L(E
1
, E
2
, . . . , E
p
; F)
linsieme delle applicazioni multilineari da E
1
E
2
. . . E
p
a F. Anchesso `e dotato di
una struttura naturale di spazio vettoriale.
In queste lezioni ci limiteremo a considerare solo spazi vettoriali reali (cio`e sul campo dei
reali, K = R) e a dimensione nita.
Eesamineremo i seguenti spazi di applicazioni:
L(E; F) = Hom(E, F) applicazioni lineari
L(E; R) = E

spazio duale di E
L(E; E) = End(E) endomorsmi lineari su E
L(E, E; R) = T
2
(E) forme bilineari su E
L(E

, . . . , E

. .
p volte
, E, . . . , E
. .
q volte
; R) = T
p
q
(E) tensori di tipo (p, q).
1.2 Forme lineari e spazi duali
Unapplicazione lineare : E R da uno spazio vettorale E allo spazio R dei numeri
reali `e detta forma lineare su E o covettore. Lo spazio L(E; R) delle forme lineari `e
pi` u semplicemente denotato con E

ed `e chiamato spazio duale di E.


Al posto di (v) useremo il simbolo
v, )
per denotare il valore del covettore sul vettore v. Diremo che v, ) `e la valutazione
di su v o, viceversa, di v su . Ponendo F = R in quanto si `e detto nel paragrafo
precedente, si vede in particolare che
dim(E

) = dim(E).
Esiste unisomorsmo canonico : E E

tra lo spazio biduale E

= L(E

; R) e lo
spazio E stesso, denito dalluguaglianza
, (v)) = v, ). (1.1)
Gli elementi di E

saranno di seguito sempre identicati con i vettori di E.


Ad ogni sottospazio K E associamo un sottospazio K

, detto polare di K,
costituito da tutti i covettori che annullano tutti gli elementi di K:
K

= E

[ u, ) = 0, u K. (1.2)
1.2. Forme lineari e spazi duali 5
Sussistono le seguenti propriet` a, qualunque siano i sottospazi K e L di E:
_

_
dim(K) + dim(K

) = dim(E),
K

= K,
K

L K,
(K +L)

= K

,
K

+L

= (K L)

.
(1.3)
La loro dimostrazione `e lasciata come esercizio. Si noti che la seconda di queste uguaglianze
sottintende lintervento dellisomorsmo canonico tra lo spazio e il suo biduale e che inoltre,
in virt` u di questo isomorsmo, le ultime due uguaglianze (1.3) esprimono la medesima
propriet` a.
Ad ogni base (e
i
) di E corrisponde un base duale in E

, che denotiamo con (


i
), denita
implicitamente dalluguaglianza:
e
j
,
i
) =
i
j
(1.4)
dove
i
j
`e il simbolo di Kronecker (Leopold Kronecker, 1823-1851):

i
j
=
_
1
0
se i = j
se i ,= j
Per ogni v E e E

valgono le relazioni:
v = v
i
e
i
v
i
= v,
i
) (1.5)
=
i

i

i
= e
i
, ) (1.6)
v, ) =
i
v
i
(1.7)
La loro dimostrazione `e lasciata come esercizio. Si osservi la diversa posizione degli indici
delle componenti di un covettore (in basso, anziche in alto come per le componenti dei
vettori) e la simmetria formale di queste uguaglianze. Lequivalenza (1.5) mostra che
le componenti di un vettore sono ottenute valutando sul vettore gli elementi della base
duale. Analogamente la (1.6) mostra che le componenti di un covettore coincidono con le
valutazioni di questo sugli elementi della base di E. Inne la (1.7) mostra che la valutazione
tra un vettore ed un covettore `e data dalla somma dei prodotti delle componenti omologhe.
Osservazione 1.2.1 Rappresentazione geometrica dei covettori. Ad ogni covettore
E

si possono far corrispondere due sottoinsiemi di E:


A
0
= x E [x, ) = 0, A
1
= x E [x, ) = 1.
6 Capitolo 1. Spazi vettoriali puri
A
0
`e un sottospazio di codimensione 1, A
1
`e un suo laterale. La conoscenza di questi due
sottoinsiemi (in eetti basterebbe la conoscenza del secondo) determina completamente .
Infatti, dato un vettore v E, o `e v A
0
, e allora poniamo v, ) = 0, oppure `e v = x
con x A
1
, e allora poniamo v, ) = . Si osservi che, denotate con (x
i
) le componenti
di un generico vettore x, i due sottoinsiemi A
0
e A
1
sono rispettivamente deniti dalle
equazioni

i
x
i
= 0,
i
x
i
= 1.
Si tratta di una coppia di iperpiani paralleli, il primo passante per lorigine.
_

Rappresentazione geometrica dei


covettori.
1.3 Forme bilineari
Una forma bilineare su di uno spazio vettoriale E `e unapplicazione bilineare di E E
in R. Lo spazio delle forme bilineari
1
`e denotato con L(E, E; R).
Assegnata una base (e
i
) di E, i numeri

ij
= (e
i
, e
j
) (1.8)
si chiamano componenti della forma bilineare secondo la base. Per ogni coppia di vettori
di E si ha:
(u, v) =
ij
u
i
v
j
(1.9)
Le componenti [
ij
] formano una matrice quadrata nn. Conveniamo che il primo indice
sia indice di riga, il secondo di colonna. Si chiama rango della forma il rango della
matrice [
ij
].
2
1
In accordo con quanto detto allinizio di questo capitolo.
2
Naturalmente, anche questa denizione abbia senso, occorre dimostrare che il rango della matrice
delle componenti non dipende dalla scelta della base di E.
1.3. Forme bilineari 7
Una forma bilineare si dice regolare o non degenere se vale la condizione
(u, v) = 0, v E = u = 0 (1.10)
oppure la condizione equivalente
(u, v) = 0, u E = v = 0. (1.11)
Entrambe sono equivalenti alla condizione
det[
ij
] ,= 0. (1.12)
Dunque una forma bilineare `e regolare se e solo se ha rango massimo (= n).
Che la (1.12) sia equivalente alla (1.10) segue dal fatto che, in componenti, limplicazione
(1.11) si scrive:

ij
u
i
v
j
= 0, (v
i
) R
n
= u
i
= 0.
Questa si semplica in

ij
u
i
= 0 = u
i
= 0,
ed esprime la circostanza che il sistema lineare omogeneo (di n equazioni in n incognite)

ij
u
i
= 0 ammette solo la soluzione nulla.
Denizione 1.3.1 La trasposta di una forma bilineare `e la forma bilineare
T
denita da

T
(u, v) = (v, u) (1.13)
Si ha ovviamente
TT
= .
Denizione 1.3.2 Una forma bilineare si dice simmetrica (rispettivamente, antisim-
metrica) se

T
= (risp.
T
= ), (1.14)
cio`e se
(u, v) = (v, u), (risp. (u, v) = (v, u)). (1.15)
Questa condizione si esprime, qualunque sia la base scelta, nella simmetria (risp. nella
antisimmetria) della matrice delle componenti (basta porre (u, v) = (e
i
, e
j
) nella (1.13)):

ij
=
ji
, (risp.
ij
=
ji
). (1.16)
Una forma bilineare `e decomponibile nella somma della sua parte simmetrica
S
e
della sua parte antisimmetrica
A
. Vale cio`e luguaglianza
=
S
+
A
(1.17)
posto

S
=
1
2
(+
T
),
A
=
1
2
(
T
)
8 Capitolo 1. Spazi vettoriali puri
Osservazione 1.3.1 Un esempio elementare ma importante di forma bilineare `e da-
to dal prodotto tensoriale di due forme lineari , E

. Esso `e denito
dalluguaglianza
( ) (u, v) = u, )v, ) (1.18)
Se (
i
) `e la base duale di una base (e
i
) di E allora gli n
2
prodotti
i

j
formano una base
di L(E, E; R). Cos` una qualunque forma bilineare pu` o esprimersi come combinazione
lineare di questi:
3
=
ij

i

j
(1.19)
dove le
ij
sono proprio le componenti denite dalla (1.8).
1.4 Forme bilineari simmetriche
Sia una forma bilineare simmetrica. Due vettori si dicono coniugati (o anche ortogo-
nali) rispetto a se (u, v) = 0. In particolare un vettore si dice isotropo se `e coniugato
con se stesso, (u, u) = 0, unitario se invece (u, u) = 1.
Due sono i concetti fondamentali associati ad una forma bilineare simmetrica: quello di
base canonica e quello di segnatura.
Una base (e
i
) di E si dice canonica (sempre rispetto a ) se tutti i suoi vettori sono
unitari o isotropi e fra loro coniugati, cio`e se, dopo un eventuale riordinamento della base,
la matrice della componenti assume la forma:
[
ij
] =
_

_
1
p
0 0
0 1
q
0
0 0 0
_

_
(1.20)
dove 1
p
e 1
q
denotano le matrici unitarie di ordine p e q rispettivamente. In una base
canonica si ha quindi (si confronti con la (1.9):
(u, v) =
p

a=1
u
a
v
a

p+q

b=p+1
u
b
v
b
. (1.21)
Si dimostra
4
che esistono basi canoniche e inoltre che in ogni base canonica la matrice
delle componenti `e sempre del tipo (1.20), vale a dire che gli interi p e q sono invarianti
rispetto alla scelta di basi canoniche. Questa notevole propriet` a `e nota come teorema
di Sylvester o legge di inerzia delle forme quadratiche (James Joseph Sylvester,
1814-1897). Alla coppia di interi non negativi (p, q) si d` a il nome di segnatura della
forma bilineare simmetrica .
3
Sul prodotto torneremo pi` u avanti.
4
La dimostrazione `e in appendice al paragrafo.
1.5. Forme quadratiche 9
Si osserva dalla (1.20) che la somma p +q `e uguale al rango di .
Per calcolare la segnatura di una forma bilineare simmetrica basterebbe determinare
una base canonica (o almeno una base di vettori fra loro ortogonali) (e
i
) e valutare quindi
i segni dei numeri (e
i
, e
i
), la qual cosa pu` o rivelarsi in pratica piuttosto dicoltosa. Si
pu` o allora fare ricorso ad un metodo assai rapido, illustrato nel seguente teorema:
5
Teorema 1.4.1 Sia [
ij
] la matrice delle componenti di una forma bilineare simmetrica
relativa ad una base qualsiasi. Si consideri una qualunque successione di sottomatrici
quadrate principali, di ordine crescente da 1 a n, ciascuna contenuta nella successiva:
M
1
, M
2
, . . . , M
n
= [
ij
].
Allora lintero q della segnatura (p, q) `e uguale al numero delle variazioni di segno della
successione di numeri
1, M
1
, det M
2
, . . . det M
n
= det[
ij
],
dalla quale siano stati eliminati gli eventuali zeri.
Calcolato lintero q, lintero p viene poi calcolato conoscendo il rango r della matrice:
p = r q. Si noti bene che questo metodo per il calcolo della segnatura lascia piena libert` a
di scelta della base e delle sottomatrici della successione.
1.5 Forme quadratiche
Data unapplicazione : E R, si dice sua polarizzazione lapplicazione
: E E R
denita da
(u, v) =
1
2
_
(u +v) (u) (v)
_
(1.22)
Una forma quadratica su di uno spazio vettoriale E `e unapplicazione : E R la cui
polarizzazione `e una forma bilineare (ovviamente simmetrica).
Pertanto, per la sua stessa denizione, ad una forma quadratica corrisponde una forma
bilineare simmetrica. Viceversa, se `e una forma bilineare simmetrica allora lapplicazione
: E R denita da
(u) = (u, u) =
ij
u
i
u
j
(1.23)
5
Una dimostrazione si trova in F.G. Tricomi, Lezioni di Analisi Matematica I (CEDAM, Padova).
10 Capitolo 1. Spazi vettoriali puri
`e una forma quadratica tale che = . Infatti:
(u, v) =
1
2
_
(u +v) (u) (v)
_
=
1
2
_
(u + v, u+ v) (u, u) (v, v)
_
=
1
2
_
(u, u) +(v, v) + 2 (u, v) (u, u) (v, v)
_
= (u, v).
Vi `e dunque una corrispondenza biunivoca fra forme quadratiche e forme bilineari sim-
metriche. Stante questa corrispondenza tutte le denizioni e le propriet` a stabilite per le
forme bilineari si trasferiscono alle forme quadratiche, e viceversa.
Esempio 1.5.1 Consideriamo E = R
2
e la funzione
: R
2
R: (x, y) x y.
Calcoliamone la polarizzazione seguendo la denizione (1.22) con u = (x
1
, y
1
) e v =
(x
2
, y
2
):
((x
1
, y
1
), (x
2
, y
2
)) =
1
2
_
(x
1
+x
2
)(y
1
+ y
2
) x
1
y
1
x
2
y
2
_
=
1
2
(x
1
y
1
+x
1
y
2
+x
2
y
1
+ x
2
y
2
x
1
y
1
x
2
y
2
)
=
1
2
(x
1
y
2
+x
2
y
1
) .
Se si ssa il vettore v = (x
2
, y
2
), questultima espressione `e un binomio lineare in (x
1
, y
1
);
similmente, se si ssa il vettore u = (x
1
, y
1
), essa `e lineare in (x
2
, y
2
). Pertanto la mappa
: R
2
R
2
R: ((x
1
, y
1
), (x
2
, y
2
))
1
2
(x
1
y
2
+x
2
y
1
)
`e bilineare e quindi : R
2
R: (x, y) x y `e una forma quadratica.
Denizione 1.5.1 Una forma quadratica si dice semi-denita positiva (rispetti-
vamente, semi-denita negativa) se
(u) 0 (risp. (u) 0) u E.
In particolare si dice denita positiva (risp. denita negativa) se essa si annulla solo
sul vettore nullo, cio`e se oltre alla condizione precedente vale limplicazione
(u) = 0 u = 0.
Si dice non denita o indenita in tutti gli altri casi.
In una base canonica si ha (si veda la (1.21))
(u) =
p

a=1
(u
a
)
2

p+q

b=p+1
(u
b
)
2
. (1.24)
1.5. Forme quadratiche 11
Di qui si osserva che: (a) una forma quadratica `e semidenita positiva se q = 0; (b) `e
denita positiva se p = n. Analogamente per il caso negativo.
Per una forma bilineare simmetrica semi-denita positiva (o negativa) vale la disugua-
glianza di Schwarz (Hermann Schwarz, 1843-1921)
_
(u, v)
_
2
(u)(v), u, v E (1.25)
Se in particolare `e denita positiva (o negativa), allora si ha luguaglianza se e solo se
u e v sono dipendenti.
***
Dimostrazione dellesistenza di basi canoniche. Basta dimostrare lesistenza di basi orto-
gonali, per cui cio`e (e
i
, e
j
) = 0 per i ,= j. Se = 0 ogni base `e ortogonale. Supponiamo
,= 0 e procediamo per induzione sullintero n = dim(E). Per n = 1 ogni vettore non nul-
lo e E `e una base ortogonale per qualunque forma bilineare simmetrica su E. Sia allora
n > 1 e si supponga che ogni forma bilineare simmetrica su di uno spazio di dimensione
< n ammetta una base ortogonale. Posto che ,= 0, esiste almeno un vettore u E per
cui (u, u) = (u) ,= 0. Si consideri allora il sottospazio U = v E [ (u, v) = 0 dei
vettori ortogonali a u. Siccome u / U, abbiamo m = dim(U) n 1. Per la restrizione
a U U di esiste allora una base ortogonale (e
1
, . . . , e
m
). Daltra parte, posto per ogni
v E
v
n
=
(u, v)
(u, u)
,
si vede che (u, v v
n
u) = 0. Dunque v v
n
u U e quindi
v = v
n
u +
m

i=1
v
i
e
i
.
Ci` o mostra che i vettori indipendenti (e
1
, . . . , e
m
, u) formano una base ortogonale di E (e
quindi anche che m = n 1). 2
***
Dimostrazione del Teorema di Sylvester. Siano (e
i
) e (e
i
) due basi canoniche per la forma
bilineare simmetrica . Per la (1.24) si ha, per ogni u E, luguaglianza
(u) =
p

a=1
(u
a
)
2

p+q

b=p+1
(u
b
)
2
=
p

=1
(u
a

)
2

+q

=p

+1
(u
b

)
2
. (1.26)
Si ha certamente p

+ q

= p +q = rank(). Occorre dimostrare che p

= p. Si supponga
per assurdo p

> p (e quindi q

< q). Considerata la relazione lineare e


i
= E
i

i
e
i
tra le
due basi, si scriva il sistema lineare omogeneo
p+q

b=p+1
E
b

b
x
b
= 0, b

= p

+ 1, . . . , p

+q

. (1.27)
12 Capitolo 1. Spazi vettoriali puri
Si tratta di q

equazioni nelle q incognite (x


p+1
, . . . , x
p+q
). Siccome q

< q, questo sistema


ammette certamente una soluzione non nulla (u
p+1
, . . . , u
p+q
). Sia u E il vettore che
ha tutte le altre componenti nulle: u
1
= . . . = u
p
= u
p+q+1
= . . . = u
n
= 0. Per la prima
parte della (1.26) si ha sicuramente (u) < 0. Con una tale scelta si ha daltra parte
u
b

= E
b

i
u
i
=
p+q

b=p+1
E
b

b
u
b
= 0
perche (u
p+1
, . . . , u
p+q
) `e una soluzione del sistema (1.27). Dalla seconda della (1.26) segue
allora (u) 0: assurdo. Per simmetria lipotesi p

< p conduce pure ad un assurdo.


Dunque p

= p. 2
Dimostrazione della disuguaglianza di Schwarz. Fissati i vettori u e v, qualunque sia
x R, si ha (u + x v) 0 perche `e semidenita positiva. Questa disuguaglianza si
traduce in
T(x) x
2
(v) + 2 x (u, v) + (u) 0, (1.28)
dove (v) 0. Se (v) > 0, il discriminante =
_
(u, v)
_
2
(u)(v) del trinomio
T(x) non pu` o essere positivo, altrimenti T(x) avrebbe due radici reali e distinte e la (1.28)
sarebbe violata. Da 0 segue la disuguaglianza (1.25). Se (v) = 0, perche la (1.28) sia
sempre soddisfatta deve essere necessariamente (u, v) = 0. La (1.25) `e allora soddisfatta
come uguaglianza. Se u `e proporzionale a v (in particolare nullo), si verica subito che
vale luguaglianza nella (1.25). Viceversa, se vale luguaglianza risulta = 0 e pertanto
il trinomio T(x) ammette una radice doppia x
0
tale che (u + x
0
v) = 0. Se `e denita
positiva deve necessariamente essere u + x
0
v = 0. 2
Osservazione 1.5.1 Le considerazioni qui svolte sulle forme quadratiche trovano ap-
plicazione nella teoria dei massimi e minimi di una funzione a pi` u variabili e nella classi-
cazione delle coniche, quadriche e iperquadriche.
1.6 Endomorsmi lineari
Denotiamo con End(E) lo spazio delle applicazioni lineari L(E; E) di uno spazio vettoriale
E in se stesso, cio`e lo spazio degli endomorsmi lineari di E. Denotiamo semplicemente
con BA la composizione di due endomorsmi B A. Loperazione di composizione degli
endomorsmi conferisce allo spazio End(E) la struttura di algebra associativa con unit` a;
lunit` a `e lapplicazione identica di E in se stesso, che denotiamo con id
E
o con 1
E
o
semplicemente con 1. Denotiamo con 0: E E lapplicazione che manda tutti i vettori
di E nello zero.
Gli endomorsmi invertibili sono detti automorsmi o trasformazioni lineari di E.
Formano un gruppo che denotiamo con Aut(E). Si denota con A
1
linverso di un
automorsmo A.
Scelta una base (e
i
) dello spazio E, ad ogni endomorsmo A End(E) risulta associata
una matrice quadrata [A
j
i
]
nn
, detta matrice delle componenti di A nella base (e
i
)
1.6. Endomorsmi lineari 13
e denita dalluguaglianza
A(e
i
) = A
j
i
e
j
(1.29)
Di conseguenza, luguaglianza v = A(u) si traduce, in componenti, nelluguaglianza
v
j
= A
j
i
u
i
(1.30)
Infatti, posto che u = u
i
e
i
e v = v
i
e
i
, per la linearit` a di A e per la denizione (1.29),
si ha successivamente:
A(u) = A(u
i
e
i
) = u
i
A(e
i
) = u
i
A
j
i
e
j
da cui segue che u
i
A
j
i
coincide con la componente v
j
di v.
Osservazione 1.6.1 La matrice delle componenti dellidentit` a 1 `e, qualunque sia la
base scelta, la matrice unitaria. Vale a dire:
(1)
i
j
=
i
j
.
Osservazione 1.6.2 Applicando ad entrambi i membri della denizione (1.29) un co-
vettore
k
della base duale di (e
i
) si trova luguaglianza
A
k
i
= A(e
i
),
k
) (1.31)
che fornisce le componenti di A in maniera esplicita.
6

Osservazione 1.6.3 La matrice delle componenti di un prodotto di endomorsmi `e il


prodotto delle due rispettive matrici:
(AB)
j
i
= A
j
k
B
k
i
(1.32)
Si ha infatti, applicando la (1.31) e la (1.29):
(AB)
j
i
= A(B(e
i
)),
j
) = A(B
k
i
e
k
),
j
)
= B
k
i
A(e
k
),
j
) = B
k
i
A
j
k
.
Si noti che se si conviene che lindice in basso sia indice di colonna, il prodotto matriciale
nella (1.32) `e righe per colonne: righe della prima matrice (B
k
i
) per le colonne della seconda
matrice (A
j
k
). Si noti bene per` o che la scrittura A
j
k
B
k
i
a secondo membro della (1.32) `e
del tutto equivalente a B
k
i
A
j
k
.
6
La (1.29) le fornisce in maniera implicita.
14 Capitolo 1. Spazi vettoriali puri
Osservazione 1.6.4 Gli automorsmi sono caratterizzati dalla risolubilit` a del sistema
lineare (1.30) rispetto alle (u
j
), quindi dalla condizione
det[A
i
j
] ,= 0.
La matrice delle componenti di A
1
`e linversa della matrice [A
i
j
].
***
Commutatore di due endomorsmi. Le due operazioni binarie interne fondamen-
tali nello spazio degli endomorsmi End(E), consentono di denire una terza operazio-
ne binaria interna, il commutatore. Il commutatore di due endomorsmi A e B `e
lendomorsmo
[A, B] = AB BA. (1.33)
Si ha [A, B] = 0 se e solo se i due endomorsmi commutano. Il commutatore [, ] gode
delle seguenti propriet` a:
_

_
[A, B] = [B, A] ,
[aA+ bB, C] = a [A, C] +b [B, C] ,
[A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0.
(1.34)
Le prime due, di verica immediata, mostrano che il commutatore `e antisimmetrico e bi-
lineare. La terza, la cui verica richiede un semplice calcolo, prende il nome di identit` a
di Jacobi (Carl Gustav Jacob Jacobi, 1804-1851). Uno spazio vettoriale dotato di uno-
perazione binaria interna soddisfacente a queste tre propriet` a prende il nome di algebra
di Lie (Marius Sophus Lie, 1842-1899). Dunque End(E) `e un algebra di Lie. Vedremo
nel corso di queste lezioni altri esempi di algebre di Lie.
Nelle (1.34) la prima propriet` a, cio`e la propriet` a anticommutativa, pu` o essere sostituita
da
[A, A] = 0. (1.35)
`e infatti ovvio che la (1.34)
1
implica la (1.35). Viceversa, se vale la (1.35) si ha successi-
vamente:
0 = [A+ B, A+ B] = [A, A] + [B, B] + [A, B] + [B, A]
= [A, B] + [B, A] .
Di qui la (1.34)
1
.
1.7 Determinante e traccia di un endomorsmo
Sebbene la matrice delle componenti di un endomorsmo cambi al cambiare della base
fanno eccezione lendomorsmo nullo e quello identico vi sono delle grandezze ad essa
1.7. Determinante e traccia di un endomorsmo 15
associate che invece non risentono di questo cambiamento. Queste grandezze si chiamano
invarianti dellendomorsmo: pur essendo calcolate attraverso le componenti, non di-
pendono dalla scelta della base e sono quindi intrinsecamente legate allendomorsmo. Il
seguente teorema mette in evidenza i primi due invarianti fondamentali.
7
Teorema 1.7.1 Il determinante det[A
i
j
] e la traccia A
i
i
(cio`e la somma degli elemen-
ti della diagonale principale) della matrice delle componenti di un endomorsmo non
dipendono dalla scelta della base.
Dimostrazione. Siano (e
i
) e (e
i
) due basi di E. Sussistono i legami
8
e
i
= E
i

i
e
i
e
i
= E
i
i
e
i
(1.36)
dove (E
i

i
) e (E
i
i

) sono matrici regolari una inversa dellaltra, cio`e tali che


E
i

i
E
j
i

=
j
i
, E
i
i
E
j

i
=
j

. (1.37)
Siano (A
j
i
) e (A
j

) le matrici delle componenti di un endomorsmo A rispetto alle due


basi date. Secondo la denizione (1.29) abbiamo
A(e
i
) = A
j
i
e
j
, A(e
i
) = A
j

e
j
.
Facendo intervenire le relazioni (1.36) si ha successivamente:
A
j
i
e
j
= A(e
i
) = A
_
E
i

i
e
i

_
= E
i

i
A(e
i
) = E
i

i
A
j

e
j
= E
i

i
A
j

E
j
j

e
j
Si ottiene quindi luguaglianza
A
j
i
= E
i

i
A
j

E
j
j

(1.38)
che esprime la legge di trasformazione delle componenti di un endomorsmo al
variare della base. La (1.38), essendo presenti a secondo membro le sommatorie sugli
indici ripetuti i

e j

, mostra che la matrice [A


j
i
] `e il prodotto delle tre matrici [E
i

i
], [A
j

]
e [E
j
j

]. Siccome il determinante del prodotto di matrici `e uguale ai prodotti dei rispettivi


determinanti, risulta
det[A
j
i
] = det[E
i

i
] det[A
j

] det[E
j
j

]
Ma
det[E
i

i
] det[E
j
j

] = 1
7
Presto ne deniremo altri.
8
Se (
i
) e (
i

) sono le corrispondenti basi duali, allora sussistono i legami

= E
i

i

i

i
= E
i
i

i

16 Capitolo 1. Spazi vettoriali puri


perche le due matrici coinvolte sono luna inversa dellaltra. Segue
det[A
j
i
] = det[A
j

]
e la prima tesi del teorema `e dimostrata. Ritorno ora alla (1.38) e vi pongo j = i
sottintendendo al solito la somma sullindice ripetuto i:
A
i
i
= E
i

i
A
j

E
i
j
.
A primo membro ho la traccia della matrice [A
j
i
]. A secondo membro tengo ancora conto
della sommatoria su i e osservo che
E
i

i
E
i
j
=
i

essendo le due matrici coinvolte una inversa dellaltra. Ottengo dunque, per la propriet` a
di ,
A
i
i
= A
j

j
= A
i

i
.
Anche la seconda parte della tesi `e dimostrata. 2
Dopo questo teorema `e lecito introdurre la seguente denizione:
Denizione 1.7.1 Il determinante e la traccia di un endomorsmo A End(E)
sono i numeri
det A = det[A
i
j
], trA = A
i
i
,
dove [A
i
j
] `e la matrice delle componenti di A rispetto ad una qualunque base di E.
Osservazione 1.7.1 Si dimostra che per la traccia ed il determinante di un endomor-
smo valgono le seguenti propriet` a:
_

_
tr(A+ B) = tr(A) + tr(B),
tr(a A) = a tr(A),
tr(AB) = tr(BA),
tr(1) = n,
det(AB) = det(A) det(B),
det(a A) = a
n
det(A),
det(1) = 1.
(1.39)
1.8 Polinomio caratteristico di un endomorsmo
Introduciamo ora un altro concetto fondamentale nella teoria degli endomorsmi lineari,
che come prima cosa ci consentir` a di denire ulteriori invarianti.
1.8. Polinomio caratteristico di un endomorsmo 17
Denizione 1.8.1 Dicesi polinomio caratteristico di un endomorsmo A End(E)
il polinomio di grado n = dim(E) nellindeterminata x denito da:
P(A, x) = (1)
n
det(Ax 1). (1.40)
Essendo denito da un determinante, il polinomio caratteristico `e un invariante, non
dipende cio`e dalla scelta della base. Si ha pertanto, comunque si scelga la base
P(A, x) = (1)
n
det(A
i
j
x
i
j
)
= (1)
n
det
_

_
A
1
1
x A
2
1
. . . A
n
1
A
1
2
A
2
2
x . . . A
n
2
.
.
.
.
.
.
.
.
.
.
.
.
A
1
n
A
2
n
. . . A
n
n
x
_

_
(1.41)
Il segnante (1)
n
che interviene in questa denizione ha il compito di rendere uguale
a 1 il coeciente di x
n
. Infatti, guardando il determinante nella formula precedente si
vede che la potenza massima (n-esima) di x viene fuori dall prodotto degli elementi della
diagonale principale, e risulta essere (x)
n
cio`e (1)
n
x
n
. Moltiplicando quindi il suddetto
determinante per (1)
n
, come indicato nella (1.41), il coeciente di x
n
si riduce a 1, come
asserito.
Ci` o detto, `e conveniente scrivere per esteso il polinomio caratteristico nella forma seguente:
P(A, x) =

n
k=0
(1)
k
I
k
(A) x
nk
= x
n
I
1
(A) x
n1
+ I
2
(A) x
n2
. . . + (1)
n
I
n
(A).
(1.42)
Siccome questo polinomio `e invariante, sono invarianti tutti i suoi n coecienti I
k
(A)
(k = 1, . . . , n). Essi prendono il nome di invarianti principali di A.
Osservo subito che per x = 0 dalla (1.41) ottengo P(A, 0) = (1)
n
det A, e dalla (1.42)
P(A, 0) = (1)
n
I
n
(A). Quindi, sempre grazie all presenza del segnate, trovo che
I
n
(A) = det A (1.43)
cio`e che ln-esimo invariante principale di A `e proprio uguale al determinante di A.
Per quel riguarda gli altri invarianti, sviluppando il determinante nella (1.41) si arriva
a dimostrare il teorema seguente:
Teorema 1.8.1 Linvariante principale I
k
(A) `e dato dalla somma dei minori principali
di ordine k della matrice [A
i
j
].
18 Capitolo 1. Spazi vettoriali puri
Ricordiamo che un minore principale `e il determinante di una sottomatrice quadra-
ta principale e che una sottomatrice quadrata si dice principale se la sua diagonale
principale `e formata da elementi della diagonale principale della matrice che la contiene.
Applicando questo teorema per k = n si ritrova I
n
(A) = det A, mentre per k = 1 si trova
I
1
(A) = trA (1.44)
Dunque tra gli invarianti principali ritroviamo non solo il determinante ma anche la traccia.
1.9 Autovalori e autovettori di un endomorsmo
Un sottospazio S E si dice invariante rispetto ad un endomorsmo A se A(S) S.
Un vettore v E non nullo si dice autovettore di A se esiste un numero reale tale da
aversi
A(v) = v. (1.45)
Un autovettore genera un sottospazio di autovettori (se si include lo zero), di dimensione
1 e invariante, che prende il nome di autodirezione.
Lequazione (1.45) pu` o anche scriversi
(A 1)(v) = 0. (1.46)
Scelta comunque una base di E, la (1.46) si traduce in un sistema di n equazioni lineari
omogenee nelle incognite (v
i
), componenti dellautovettore v:
(A
j
i

j
i
) v
i
= 0. (1.47)
Tale sistema ammette soluzioni non banali se e solo se annulla il determinante della
matrice dei coecienti, cio`e, vista la denizione (1.40), se e solo se `e radice del polinomio
caratteristico di A. Le radici del polinomio caratteristico, cio`e le soluzioni dellequazione
caratteristica, algebrica di grado n,
P(A, x) = 0,
prendono il nome di autovalori di A. Il loro insieme
1
,
2
, . . . ,
n
prende il nome di
spettro di A.
Gli autovalori sono invarianti, nel senso sopra detto. Vista la forma (1.41) con cui si scrive
il polinomio caratteristico, dai noti teoremi sulle radici delle equazioni algebriche segue
che linvariante principale I
k
(A) `e la somma di tutti i possibili prodotti di k autovalori.
Risulta in particolare:
I
1
(A) = tr A =
1
+
2
+ . . . +
n
,
I
n
(A) = det A =
1

2
. . .
n
.
(1.48)
1.9. Autovalori e autovettori di un endomorsmo 19
Chiamiamo molteplicit` a algebrica di un autovalore , e la denotiamo con ma(), la sua
molteplicit` a come radice del polinomio caratteristico.
Gli autovalori possono essere reali o complessi.
Consideriamo il caso reale.
Ad ogni autovalore reale corrisponde un sottospazio K

E di autovettori ad esso
associati, soluzioni cio`e dellequazione (1.45). Chiamiamo molteplicit` a geometrica di
la dimensione del sottospazio invariante associato K

, e la denotiamo con mg(). Si


dimostra (la dimostrazione `e in appendice al paragrafo) che `e sempre
ma() mg() (1.49)
Tuttavia, per alcuni tipi di endomorsmi vale sempre luguaglianza, per esempio per gli
endomorsmi simmetrici in spazi strettamente euclidei, che esamineremo pi` u avanti. Os-
serviamo che sottospazi invarianti K

1
e K

2
corrispondenti ad autovalori distinti hanno
intersezione nulla:

1
,=
2
= K

1
K

2
= 0 (1.50)
***
Dimostrazione della disuguaglianza (1.49). Sia un autovalore reale di un endomorsmo
A. Lequazione caratteristica di A pu` o ovviamente anche scriversi
det
_
(A1) (x ) 1
_
= 0,
cio`e
(x )
n
I
1
(A 1)(x )
n1
+. . . + (1)
n
I
n
(A1) = 0, [
facendo intervenire gli invarianti principali dellendomorsmo A1. Osserviamo ora che
lo spazio invariante K

degli autovettori associati a `e il nucleo di questo endomorsmo,


e quindi
mg() = n rank(A 1) = n r.
Il rango r dellendomorsmo (A 1) coincide con il rango della matrice (A
j
i

j
i
),
comunque si scelga la base. Segue che gli invarianti
I
n
(A 1), . . . , I
r+1
(A 1),
sono tutti nulli perche somma di minori principali di ordine maggiore di r della matrice
[A
j
i

j
i
]. Pertanto lequazione caratteristica si riduce in eetti allequazione
(x )
n
I
1
(A 1)(x )
n1
+. . . + (1)
r
I
r
(A 1)(x )
nr
= 0.
Di qui si vede che `e una radice di ordine nr almeno, perche, pur essendo per ipotesi i
minori di ordine r non tutti nulli, non si pu` o escludere che la somma di quelli principali,
20 Capitolo 1. Spazi vettoriali puri
vale a dire linvariante I
r
(A 1), non si annulli. Dunque: ma() n r. Que-
sta dimostrazione vale anche nel caso in cui `e complesso, perche anche in questo caso
mg() = n r dove r `e il rango della matrice (A
j
i

j
i
). 2
***
Se `e un autovalore complesso allora gli autovettori associati sono complessi: il sistema
(1.46) fornisce soluzioni complesse v
i
= u
i
+ i w
i
.
Si `e cos` condotti a considerare la complessicazione dello spazio E, cio`e lo spazio C(E)
delle combinazioni v = u+i w, con u, w E, per le quali si deniscono le due operazioni
di somma e di prodotto per un numero complesso in maniera formalmente analoga a quella
della somma e del prodotto di numeri complessi.
Poiche lequazione caratteristica ha coecienti reali, ad ogni autovalore complesso =
a + ib corrisponde un autovalore coniugato

= a ib avente la stessa molteplicit` a. Si
osserva inoltre che se v = u + i w `e autovettore associato a , allora il vettore coniugato
v = u i w `e autovettore associato a

, e che ogni altro vettore complesso ottenuto
moltiplicando v per un numero complesso qualunque `e ancora autovettore associato a .
Osservazione 1.9.1 Se v = u+i w `e un autovettore associato ad un autovalore stret-
tamente complesso = a+ib (cio`e tale che b ,= 0), allora i vettori reali componenti (u, w)
sono indipendenti. In caso contrario infatti, da una relazione del tipo u = cw seguirebbe
v = (c + i)w e quindi dalla (1.45), dividendo per c + i, A(w) = w con solo elemen-
to complesso: assurdo. Decomposta allora la (1.45) nella sua parte reale e immaginaria,
risulta
A(u) = au bw, A(w) = aw+ bu. (1.51)
Di qui si osserva che il sottospazio generato dai vettori indipendenti (u, w) `e invariante
in A. Sia questo sottospazio (bidimensionale) e si

il sottospazio invariante corri-


spondente ad un secondo vettore complesso v

= u

+iw

sempre associato a . Non pu` o


che essere =

oppure

= 0. Infatti, se un vettore non nullo x appartenesse


allintersezione, con opportuna moltiplicazione degli autovettori per un numero complesso,
ci si pu` o ricondurre al caso in cui u = u

= x. Dalla prima delle (1.51) seguirebbe


A(x) = ax bw, A(x) = aw+bx,
da cui b(ww

) = 0, quindi w = w

. Ci` o signica che v = v

e quindi che =

.
Da queste propriet` a si deduce che ogni autovalore complesso individua un sottospazio
invariante K

che `e somma diretta di sottospazi invarianti bidimensionali. La sua dimen-


sione `e quindi pari e inoltre K

= K

. In questo caso per molteplicit` a geometrica di


sintende la met` a della dimensione di K

. Vale ancora la disuguaglianza (??), mentre la


(1.50) va sostituita dalla pi` u generale

1
,=
2
,
1
,=

2
= K

1
K

2
= 0 (1.52)
1.10. Il teorema di Hamilton-Cayley 21
1.10 Il teorema di Hamilton-Cayley
Dato un endomorsmo A, se ne possono considerare le potenze:
A
0
= 1, A
1
= A, A
2
= AA, . . . A
k
= AA. . . A
. .
k volte
, . . .
Quindi ad ogni polinomio di grado k
P
k
(x) = a
0
x
k
+ a
1
x
k1
+. . . + a
k
si pu` o associare lendomorsmo
P
k
(A) = a
0
A
k
+a
1
A
k1
+. . . + a
k
1.
Un polinomio P
k
(x) si dice annichilante di A se P
k
(A) si annulla identicamente.
Sussiste a questo proposito il notevole teorema di Hamilton-Cayley (William Rowan
Hamilton, 1805-1865; Arthur Cayley, 1821-1895):
Teorema 1.10.1 Il polinomio caratteristico di un endomorsmo `e annichilante:
A
n
I
1
(A) A
n1
+ I
2
(A) A
n2
. . . + (1)
n
I
n
(A) 1 = 0.
Una prima importante conseguenza di questo teorema `e che la potenza n-sima di un
endomorsmo risulta essere una combinazione lineare delle precedenti, inclusa A
0
= 1.
Cos` dicasi delle potenze A
n+1
e successive. Pertanto: tutte le potenze di un endomorsmo
A formano un sottospazio di End(E) al pi` u di dimensione n, generato dallidentit` a 1 e
dalle prime n 1 potenze di A.
9
***
Dimostrazione del teorema di Hamilton-Cayley. Basiamo la dimostrazione sullosservazio-
ne seguente. Se sussite unuguaglianza del tipo
C(x) (Ax 1) = P
k
(x) 1 (1.53)
dove P
k
(x) `e un polinomio di grado k e dove C(x) `e un polinomio di grado k 1 in x a
coecienti in End(E), cio`e del tipo
C(x) = x
k1
C
1
+ x
k2
C
2
+. . . +x C
k1
+ C
k
,
allora P
k
(A) = 0 cio`e P
k
(x) `e annichilante di A. Infatti, esplicitata questa uguaglianza
_
x
k1
C
1
+ x
n2
C
2
+. . . + x C
n1
+ C
n
__
Ax 1
_
=
_
a
0
x
k
+a
1
x
k1
+ . . . +a
k
_
1
9
Al pi` u, perche non `e escluso che lidentit`a 1 e le prime n1 potenze di A siano linearmente dipendenti.
22 Capitolo 1. Spazi vettoriali puri
ed uguagliati i coecienti delle varie potenze di x, si trova che
_

_
C
1
= a
0
1,
C
1
AC
2
= a
2
1,

C
k1
AC
k
= a
k1
1,
C
k
A = a
k
1.
Moltiplicando a destra rispettivamente per A
k
, A
k1
, . . . , A le prime k di queste ugua-
glianze, e sommando poi membro a membro si trova 0 = P
k
(A), come asserito. Ci` o posto,
si tiene conto del fatto, dimostrato pi` u avanti ( 1.19), che per ogni endomorsmo B esiste
sempre un endomorsmo

B, lendomorsmo complementare, per cui

BB =
_
det(B)
_
1.
Se ora si prende lendomorsmo B = A x 1, con indeterminata x, per la denizione di
polinomio caratteristico luguaglianza precedente diventa
(1)
n

B(A x 1) = P(A, x) 1.
Questa `e del tipo (1.53), con k = n e C(x) = (1)
n

B, perche lendomorsmo
complementare

B ha come componenti dei determinanti di ordine n 1 della matrice
[B
i
j
] = [A
i
j
x
i
j
], ed `e quindi un polinomio di grado n1 in x. Pertanto P(A, A) = 0. 2
1.11 Tensori
La nozione di tensore ha avuto origine dalla teoria dellelasticit` a. Si `e successivamente
sviluppata nellambito dellalgebra lineare e della geometria dierenziale, trovando notevoli
applicazioni in vari rami della sica-matematica.
Per arrivare a comprendere questa nozione partiamo da questa osservazione: abbiamo gi` a
esaminato la nozione di forma bilineare e di endomorsmo su di uno spazio vettoriale E.
Assegnata una base di E le componenti di una forma bilineare e di un endomomorsmo
formano due matrici quadrate n n, dove n = dimE:
[
ij
] e [A
j
i
].
Quindi lanalisi e lapplicazione di queste due nozioni deve ricorrere al calcolo delle matrici
(quadrate). Questo `e una circostanza che le accomuna, pur essendo due nozioni ben distin-
te. Ma, come vedremo, un altro fatto le accomuna: le forme bilineari e gli endomorsmi
possono essere visti come tensori.
Una generale denizione di tensore `e la seguente:
1.11. Tensori 23
Denizione 1.11.1 Un tensore di tipo (p, q) sopra uno spazio vettoriale E `e unap-
plicazione multilineare del prodotto
(E

)
p
E
q
= E

. . . E

. .
p volte
E E . . . E
. .
q volte
in R. Un tensore di tipo (0, 0) `e per denizione un numero reale. Denotiamo con T
p
q
(E)
lo spazio tensoriale di tipo (p, q) su E, cio`e lo spazio
T
p
q
(E) = L(E

, E

, . . . , E

. .
p volte
, E, E, . . . , E
. .
q volte
; R),
ponendo inoltre, per (p, q) = (0, 0),
T
0
0
(E) = R.
Vediamo che cosa `e lo spazio T
p
q
(E) per i primi valori della coppia di interi (p, q) non
entambi nulli. Innanzitutto:
T
1
0
(E) = L(E

; R) = E

= E,
T
0
1
(E) = L(E; R) = E

,
T
0
2
(E) = L(E, E; R) (forme bilineari su E),
T
2
0
(E) = L(E

, E

; R) (forme bilineari su E

).
(1.54)
Poi:
T
1
1
(E) = L(E

, E; R) = End(E) (1.55)
Questultima uguaglianza segue dallesistenza di un isomorsmo canonico tra lo spazio
L(E

, E; R) e lo spazio degli endomorsmi su E, denito dalluguaglianza


A(, v) = A(v), ), E

, v E. (1.56)
A sinistra A `e interpretato come elemento di L(E

, E; R), a destra come endomorsmo


lineare. In componenti abbiamo:
A(, v) = A
j
i

j
v
i
.
Denizione 1.11.2 Sia (e
i
) una base di E e (
i
) la sua duale in E

. Diciamo
componenti di un tensore K T
p
q
(E) secondo la base (e
i
) gli n
p+q
numeri
K
i
1
...ip
j
1
...jq
= K(
i
1
, . . . ,
ip
, e
j
1
, . . . e
jq
) (1.57)
24 Capitolo 1. Spazi vettoriali puri
Per esempio, le componenti di untensore K T
1
2
(E) sono gli n
3
numeri
10
K
i
jh
= K(
i
, e
j
, e
h
). (1.58)
Si osservi la corrispondenza nella posizione degli indici a primo e a secondo membro di
queste uguaglianze.
Le componenti servono, innanzitutto, a calcolare il valore del tensore sui vettori e covettori.
Prendendo ad esempio il caso precedente, risulta:
K(, u, v) = K
i
jh

i
u
j
v
h
. (1.59)
Inoltre, al variare della base secondo le formule (1.36) e in analogia alla (1.38), le compo-
nenti di un tensore di tipo (1,2) variano secondo la legge
K
i

h
= E
i

i
E
j
j

E
h
h
K
i
jh
. (1.60)
Questa formula si deduce direttamente dalla denizione (1.58) scritta per la base accen-
tata, tenendo conto quindi delle relazioni fra le basi, ed `e facilmente estendibile al caso di
un tensore di tipo qualunque, tenendo conto del formalismo degli indici ripetuti in alto e in
basso. A questo proposito osserviamo che per passare dalla base (e
i
) alla base accentata
(e
i
) viene usata la matrice (E
i
i

), con laccento in basso. Gli indici in basso non accentati


delle componenti vengono trasformati in indici accentati (sempre in basso) con la stessa
matrice. Per questo gli indici in basso delle componenti vengono detti indici covarianti.
Quelli in alto, invece, vengono detti indici contravarianti, perche nel trasformarsi fanno
intervenire la matrice inversa. Pertanto, un tensore di tipo (p, q) viene anche detto tensore
a p indici di contravarianza e q indici di covarianza. Un tensore di tipo (p, 0) viene det-
to tensore contravariante di ordine p, un tensore di tipo (0, q) tensore covariante
di ordine q. Denoteremo gli spazi tensoriali T
p
0
(E) e T
0
q
(E) semplicemente con T
p
(E) e
T
q
(E).
1.12 Somma tensoriale
Sui tensori possono denirsi varie operazioni che nel loro insieme costituiscono il cosiddetto
calcolo tensoriale.
Innanzitutto vediamo la somma di due tensori. Essa pu` o eseguirsi, a prima vista, so-
lo fra tensori dello stesso tipo. Tuttavia in molte circostanze, come questa, torna utile
considerare la somma diretta di tutti gli spazi tensoriali, di tutti i tipi, ordinati come
segue:
T(E) = T
0
0
(E) T
1
0
(E) T
0
1
(E) T
2
0
(E) T
1
1
(E) T
0
2
(E) T
3
0
(E) . . .
= R E E

T
2
0
(E) T
1
1
(E) T
0
2
(E) T
3
0
(E) . . .
(1.61)
10
Se si vuole, si pu`o dire che le componenti di un tensore di questo tipo formano una matrice cubica
di lato n.
1.13. Prodotto tensoriale 25
Questo `e lo spazio tensoriale su E.
11
Un tensore K di tipo (p, q) pu` o essere inteso come
elemento di T(E): lo si identica con la successione costituita da tutti zeri e con K al
posto (p, q). Per esempio, se A T
1
1
(E), allora si pu` o intendere
A = 0 0 0 0 A 0
dove a secondo membro A `e al quinto posto nella successione (1.61). Un siatto elemento
di T(E) viene detto omogeneo. Pertanto ogni spazio tensoriale di tipo (p, q) pu` o essere
inteso come sottospazio di T(E).
Su T(E) si introduce loperazione di somma diretta , denita sommando le singole
componenti omogenee.
1.13 Prodotto tensoriale
Dati due tensori, di tipo qualsiasi, K T
p
q
(E) e L T
r
s
(E), il loro prodotto tensoriale
12
K L
`e per denizione un tensore di tipo (p + r, q + s): K L T
p+r
q+s
. Dunque, secondo la
denizione generale di tensore, `e innanzitutto unapplicazione multilineare
K L: E

. . . E

. .
p+r volte
E E . . . E
. .
q+r volte
R.
Quando K L viene applicato ad una successione di p +r covettori

1
,
2
, . . . ,
p
,
1
,
2
, . . . ,
r
, (1.62)
e di q +s vettori,
a
1
, a
2
, . . . , a
q
, b
1
, b
2
, . . . , b
s
, (1.63)
il primo fattore K si prende i primi p covettori ed i primi q vettori e fornisce il numero
K(
1
,
2
, . . . ,
p
; a
1
, a
2
, . . . , a
q
).
Il secondo fattore L prende quel che resta e fornisce il numero
L(
1
,
2
, . . . ,
r
; b
1
, b
2
, . . . , b
s
).
Allora, il valore di KL sulle due successioni (1.62) e (1.63) `e per denizione il prodotto
di questi due numeri.
Per esempio, se K T
1
2
(E) e L T
1
1
(E), K L `e il tensore di tipo (2, 3) tale che
(K L)(, , u, v, w) = K(, u, v) L(, w), (1.64)
per ogni , E

, u, v, w E.
11
`e uno spazio vettoriale di dimensione innita.
12
Si legge K tensore L.
26 Capitolo 1. Spazi vettoriali puri
Osservazione 1.13.1 Il prodotto tensoriale non `e commutativo: K L `e in generale
diverso da L K. Due tensori possono commutare in casi speciali, per esempio se K `e
un tensore covariante e L un tensore contravariante.
Osservazione 1.13.2 Il prodotto tensoriale di due tensori si estende per linearit` a agli
elementi non omogenei della somma diretta T(E). Il prodotto tensoriale `e associativo:
K (L M) = (K L) M.
Se uno dei due tensori `e di tipo (0, 0), cio`e un numero reale, il prodotto tensoriale `e
lordinario prodotto per uno scalare a R:
a K = K a = a K. (1.65)
Con le due operazioni di somma e prodotto lo spazio T(E) assume la struttura di
algebra associativa: `e lalgebra tensoriale su E.
Osservazione 1.13.3 La comprensione del concetto di prodotto tensoriale `e facilitata
dal fatto che, come si riconosce facilmente, le componenti del prodotto tensoriale K L
sono il prodotto delle componenti di K e L rispettivamente. Per esempio, se K T
1
2
(E)
e L T
1
1
(E), allora
(K L)
ij
hkl
= K
i
hk
L
j
l
. (1.66)
Vediamo ora alcuni casi particolari ma fondamentali di prodotto tensoriale.
1 Prodotto tensoriale a b di due vettori a, b E.
`
E lapplicazione bilineare
a b: E

R
denita da
(a b) (, ) = a, ) b, ). (1.67)
2 Prodotto tensoriale di due covettori , E

`e lapplicazione bilineare
: E E R
denita da
( ) (a, b) = a, ) b, ). (1.68)
3 Prodotto tensoriale a di un vettore per un covettore: `e lapplicazione
bilineare
a : E

E R
tale che
(a ) (, b) = a, ) b, ). (1.69)
In questo caso il prodotto `e commutativo: a = a.
1.14. Basi tensoriali 27
1.14 Basi tensoriali
Lassegnazione di una base (e
i
) dello spazio vettoriale E genera automaticamente una base
per ogni spazio tensoriale T
p
q
(E). Sia
i
) la base duale su E

. Partiamo, come al solito,


dai casi pi` u semplici.
1 I prodotti e
i
e
j
formano una base di T
0
2
(E), cio`e delle forme bilineari su E

, sicche
per ogni forma bilineare
K: E

R (1.70)
vale la rappresentazione
13
K = K
ij
e
i
e
j
(1.71)
con le componenti K
ij
denite da
K
ij
= K(
i
,
j
) (1.72)
Infatti per ogni coppia di covettori , E

per la (1.70) e per la denizione di prodotto


tensoriale si ha
K(, ) = K
ij
e
i
e
j
(, ) = K
ij

j
.
Daltra parte, per la (1.71) e per la bilinearit` a risulta
K
ij

j
= K(
i
,
j
)
i

j
= K(
i

i
,
j

j
) = K(, ),
ed il ciclo si chiude.
2 I prodotti
i

j
formano una base di T
2
0
(E), cio`e delle forme bilineari su E
K: E E R, (1.73)
e valgono contemporaneamente le formule, analoghe alle (1.71) e (1.72),
K = K
ij

j
(1.74)
K
ij
= K(e
i
, e
j
) (1.75)
3 I prodotti tensoriali e
i

j
formano una base dello spazio tensoriale
T
1
1
(E) = L(E

, E; R) = End(E)
degli endomorsmi lineari su E. Per ogni endomorsmo K valgono le formule
K = K
j
i
e
j

i
(1.76)
13
Si sottintende sempre la somma sugli indici ripetuti in alto e in basso.
28 Capitolo 1. Spazi vettoriali puri
con le componendi A
j
i
denite come nella formula (1.31):
K
j
i
= K(e
i
),
j
) (1.77)
Da questi esempi traiamo la regola generale: i prodotti tensoriali
e
i
1
e
i
2
. . . e
ip

j
1

j
2
. . .
jq
(1.78)
costituiscono una base di T
p
q
(E) e per ogni K T
p
q
(E) vale la rappresentazione
K = K
i
1
i
2
...ip
j
1
j
2
...jq
e
i
1
e
i
2
. . . e
ip

j
1

j
2
. . .
jq
(1.79)
dove le componenti K
i
1
i
2
...ip
j
1
j
2
...jq
sono denite come nella (1.57).
Gli elementi della base (1.78) sono in numero pari alle disposizioni con ripetizione di p +q
oggetti, cio`e n
p+q
. Pertanto,
dim(T
p
q
(E)) = n
p+q
. (1.80)
1.15 Contrazione o saturazione di due indici
Vi `e una terza operazione importante eseguibile su di un tensore. Dato un tensore K di
tipo qualsiasi (p, q), purche con p e q non entrambi nulli, di componenti
K
i
1
i
2
...ip
j
1
,j
2
,...,jq
si pu` o prendere uno degli indici contravarianti (in alto) e porlo uguale ad uno degli indici
covarianti (in basso) ed intendere di eseguire la sommatoria su questi, secondo la con-
venzione degli indici ripetuti. Si dimostra che, cos` facendo, si ottiene un tensore di tipo
(p 1, q 1).
14
Una tale operazione prende il nome di contrazione o saturazione.
Per esempio, se K T
1
2
(E) ha componenti K
i
hj
, ho due possibilit` a di saturazione:
U
j
= K
i
ij
, V
h
= K
i
hi
.
In entrambi i casi si ottiene un covettore. Questi per` o sono in generale diversi. Altri due
esempi:
1. Se A T
1
1
(E) = End(E), con componenti A
i
j
, allora la saturazione dei suoi due indici
fornisce la traccia dellendomorsmo A: A
i
i
= tr(A).
2. Il vettore u = A(v), immagine del vettore v secondo un endomorsmo A, pu` o essere
anche interpretato come contrazione del prodotto tensoriale A v, perche questultimo
ha componenti A
j
i
v
k
e le componenti di u sono u
j
= A
j
i
v
i
.
14
La dimostrazione si basa sullequazione di trasformazione delle componenti di un tensore al variare
della base.
1.16. Tensori antisimmetrici 29
1.16 Tensori antisimmetrici
Denizione 1.16.1 Un tensore A T
0
p
(E) si dice antisimmetrico se per ogni scam-
bio di due suoi qualunque argomenti il suo valore cambia di segno:
A(. . . , u, . . . , v, . . .) = A(. . . , v, . . . , u, . . .).
Cos` dicasi per un tensore A T
p
0
(E). I vettori, i covettori e gli scalari, che sono di
tipo (0, 1), (1, 0) e (0, 0) rispettivamente, sono per denizione antisimmetrici. Lintero p
prende il nome di grado del tensore antisimmetrico.
I tensori antisimmetrici svolgono un ruolo importante nelle applicazioni del calcolo ten-
soriale. Si dimostra che i tensori antisimmetrici contenuti in T
0
p
(E) (rispettivamente, in
T
p
0
(E)) ne formano un sottospazio che denotiamo con
p
(E) (rispettivamente, con V
p
(E)).
Il teorema seguente fornisce una denizione equivalente di antisimmetria:
Teorema 1.16.1 Un tensore A T
0
p
(E) `e antisimmetrico se e solo se esso si annulla
quando due dei suoi argomenti coincidono. Lo stesso dicasi per A T
p
0
(E).
Dimostrazione.
`
E suciente dimostrare questo teorema nel caso p = 2. Da A(u, v) =
A(v, u) segue ovviamente A(u, u) = 0. Viceversa se A(v, v) = 0 per ogni v, allora si
ha, ponendo v = v
1
+ v
2
,
0 = A(v
1
+v
2
, v
1
+v
2
)
= A(v
1
, v
1
) +A(v
1
, v
2
) +A(v
2
, v
1
) +A(v
2
, v
2
)
= A(v
1
, v
2
) +A(v
2
, v
1
),
vale a dire
A(v
1
, v
2
) = A(v
2
, v
1
). 2
Due implicazioni notevoli:
Teorema 1.16.2 1. Un tensore antisimmetrico si annulla quando i suoi argomenti
sono linearmente dipendenti. 2. Un tensore antisimmetrico con p > n `e nullo.
Dimostrazione. 1. Se A
p
(E) e se uno dei suoi argomenti (v
1
, v
2
, . . . , v
p
), per
esempio v
1
`e combinazione lineare dei rimanenti, allora A(v
1
, v
2
, . . . , v
p
) si decompone
nella combinazione lineare di numeri del tipo A(v

, v
2
, . . . , v
p
) dove v

`e via via uguale


a v
2
, . . ., v
p
, i quali numeri, per via del Teorema 1.16.1, sono tutti nulli. 2. Se p > n i
vettori (v
1
, v
2
, . . . , v
p
) sono sempre dipendenti. 2
Osservazione 1.16.1 Di conseguenza, gli spazi V
p
(E) e
p
(E) per p > n si riducono
ad un solo elemento: lo zero.
30 Capitolo 1. Spazi vettoriali puri
Esempio 1.16.1 Sia E lo spazio vettoriale euclideo tridimensionale. Ponendo
(u, v, w) = u v w (prodotto misto).
si denisce un tensore covariante antisimmetrico di ordine 3 detto forma volume.
15

Esempio 1.16.2 Sia E = R


n
: un vettore `e una n-pla di numeri reali v = (v
1
, v
2
, . . . , v
n
).
Una n-pla di vettori (v
i
) = (v
1
i
, v
2
i
, . . . , v
n
i
) d` a luogo ad una matrice quadrata [v
j
i
]
nn
.
Ponendo
A(v
1
, v
2
, . . . , v
n
) = det[v
j
i
]
si denisce un tensore covariante antisimmetrico di ordine n sopra R
n
.
Dal Teorema 1.16.1 si pu` o dedurre unulteriore caratterizzazione (o denizione equivalente)
di antisimmetria.
_
`

Per ogni intero p > 1 denotiamo con G


p
il gruppo delle permutazioni di
p elementi, detto gruppo simmetrico di ordine p. Denotiamo con

il
segno di una permutazione G
p
: uguale a +1 o 1 a seconda che
sia pari o dispari, vale a dire composta da un numero pari o dispari di
scambi. Ricordiamo che G
p
`e costituito da p! elementi.
Teorema 1.16.3 Un tensore covariante A T
0
p
(E) `e antisimmetrico se e solo vale
luguaglianza
A(v
1
, . . . , v
p
) =

A
_
(v
1
, . . . , v
p
)
_
, v
1
, . . . , v
p
E, (1.81)
ovvero
A =

A , (1.82)
per ogni G
p
. Analogamente per un tensore contravariante A T
p
0
(E).
1.17 Antisimmetrizzazione
Per studiare meglio i tensori antisimmetrici `e opportuno introdurre il concetto di anti-
smmetrizzazione.
Denizione 1.17.1 Per ogni p > 1 si introduce lapplicazione lineare
A: T
0
p
(E)
p
(E) : T A(T)
chiamata operatore di antisimmetrizzazione e denita da
A(T) =
1
p!

Gp

T (1.83)
15
Vedi 2.4.1.
1.18. Prodotto esterno 31
cio`e da
A(T)(v
1
, . . . , v
p
) =
1
p!

Gp

T
_
(v
1
, . . . , v
p
)
_
(1.84)
per ogni v
1
, . . . , v
p
E.
Per rendere eettiva questa denizione dobbiamo vericare che il tensore T
A
`e antisim-
metrico. Volendo applicare il Teorema 1.16.3, osserviamo che per qualunque G
p
si ha
successivamente:

A(T) =
1
p!

Gp

_
T
_

=
1
p!

Gp

T
=
1
p!

Gp

T ( ) = A(T),
tenuto conto che

e inoltre che, mentre varia in tutto G


p
, anche varia
in tutto G
p
.
Tutto quanto precede si riferisce a tensori covarianti (indici in basso) ma si pu` o ripetere
per i tensori contravarianti (indici in alto), per i quali loperatore di antisimmetrizzazione
`e lapplicazione lineare
A: T
p
0
(E) V
p
(E) : T A(T)
denita come nella (1.83).
1.18 Prodotto esterno
Denizione 1.18.1 Il prodotto esterno di due covettori e , denotato con ,
`e il tensore antisimmetrico covariante di grado 2 denito da
=
1
2
( ) (1.85)
ovvero da
( ) (v
1
, v
2
) =
1
2
_
v
1
, ) v
2
, ) v
1
, ) v
2
, )
_
(1.86)
Analogamente, il prodotto esterno di due vettori a e b, denotato con ab, `e il tensore
antisimmetrico contravariante di grado 2 denito da
a b =
1
2
(a b b a) (1.87)
ovvero da
(a b) (
1
,
2
) =
1
2
_
a,
1
) b,
2
) a,
2
) b,
1
)
_
(1.88)
32 Capitolo 1. Spazi vettoriali puri
Osserviamo che facendo intervenire loperatore di antisimmetrizzazione si hanno le deni-
zioni equivalenti:
= A( ) (1.89)
a b = A(a b) (1.90)
Infatti, se applichiamo la denizione (1.84), osservato che in questo caso p = 2 e che G
2
`e
costituito da soli due elementi, lidentit` a e lo scambio, troviamo
A( )(v
1
, v
2
) =
1
2

G
2

( )
_
(v
1
, v
2
)
_
=
1
2
( ) (v
1
, v
2
)
1
2
( ) (v
2
, v
1
)
=
1
2
( ) (v
1
, v
2
)
1
2
( ) (v
1
, v
2
)
=
1
2
( ) (v
1
, v
2
).
Analogamente per il caso a b.
Le formule (1.89) e (1.90) suggeriscono una naturale estensione del prodotto esterno al
caso di pi` u di due vettori o covettori:
Denizione 1.18.2 Il prodotto esterno di p covettori
1
, . . . ,
p
e di p vettori
a
1
, . . . , a
p
`e denito dalle formule

1
. . .
p
= A(
1
. . .
p
) (1.91)
a
1
. . . a
p
= A(a
1
. . . a
p
) (1.92)
ovvero, vista la (1.84), dalle formule
(
1
. . .
p
) (v
1
, . . . , v
p
) =
1
p!

Gp

(
1
. . .
p
)
_
(v
1
, . . . , v
p
)
_
(1.93)
(a
1
. . . a
p
) (
1
, . . . ,
p
) =
1
p!

Gp

(a
1
. . . a
p
)
_
(
1
, . . . ,
p
)
_
(1.94)

Per esempio, per p = 3 dalla denizione (1.83) risulta:

1

2

3
=
1
6
_

1

2

3
+
2

3

1
+
3

1

2

2

1

3
+
1

3

2
+
3

2

1
_ _
(1.95)
1.19. Algebra esterna 33
Nella prima riga abbiamo le permutazioni cicliche, quindi pari, dei tre indici (1, 2, 3). Nella
seconda riga, col segno , abbiamo quelle dispari.
Analogamente per il prodotto esterno di tre vettori.
Osservazione 1.18.1 Il prodotto esterno di p covettori (o vettori) cambia di segno
quando si scambiano fra loro due elementi. Per esempio:

2

1

3
=
1

2

3
,

3

2

1
=
1

2

3
.
1.19 Algebra esterna
_

Il prodotto esterno che abbiamo denito nel paragrafo precedente `e alla


base di un tipo di calcolo che trova svariate utili applicazioni: lalgebra
esterna.
Questo calcolo si basa sulle seguenti circostanze.
1 Per ogni intero p > 0 i prodotti esterni

1
. . .
p
,

(1.96)
a
1
. . . a
p
, a

E (1.97)
prendono rispettivamente il nome di p-forme elementari e p-vettori elementari. le
loro combinazioni lineari generano rispettivamente lo spazio
p
(E) delle p-forme e lo
spazio V
p
(E) dei p-vettori.
2 Date due forme elementari =
1
. . .
p
e =
1
. . .
q
, di grado p e q
rispettivamente, il loro prodotto esterno `e denito semplicemente dalla frapposizione
del simbolo fra e :
=
1
. . .
p

1
. . .
q
.
Il risultato `e pertanto una (p + q)-forma elementare. Il prodotto esterno cos` denito `e
anticommutativo graduato, nel senso che
= (1)
pq
(1.98)
Osserviamo infatti che nel passare da
=
1
. . .
p

1
. . .
q
34 Capitolo 1. Spazi vettoriali puri
a
=
1
. . .
q

1
. . .
p
si devono eseguire un numero di scambi pari a pq, il che comporta pq cambiamenti di
segno. Nel caso in cui una delle due forme elementari sia di grado 0, sia cio`e uno scalare, il
prodotto si identica con lordinario prodotto di un tensore per un numero. Per esempio,
se p = 0 cio`e se
0
(E) = R, allora
=
1
. . .
q
.
3 Il prodotto esterno `e bilineare:
(a
1

1
+ a
2

2
) = a
1

1
+ a
2

2
(1.99)
(b
1

1
+b
2

2
) = b
1

1
+b
2

2
(1.100)
4 Siccome il prodotto esterno fra forme elementari `e bilineare e siccome una p-forma,cio`e
un elemento di
p
(E) `e combinazione lineare di p-forme elementari, il prodotto esterno si
estende per linearit` a a forme di grado qualsiasi. Vale ancora lanticommutativit` a graduata
(1.98). Per questa via il prodotto esterno si estende anche a pi` u di due forme. Vale la
propriet` a associativa:
= ( ) = ( ) (1.101)
5 Consideriamo inne la somma diretta di tutti gli spazi
p
(E),
(E) =
+

p=0

p
(E).
Sappiamo che per p > n = dim(E) gli spazi
p
(E) si riducono allo zero. Sappiamo inoltre
che
0
(E) = R e
1
(E) = E

. Di conseguenza la somma diretta (E) risulta essere


(E) = R E


2
(E) . . .
n
(E) 0 0 . . . (1.102)
Questo `e uno spazio vettoriale, detto spazio delle forme esterne su E, rispetto allor-
dinaria somma + tra tensori. Il prodotto esterno, denito per due forme omogeneee, si
estende per linearit` a a due qualunque elementi di questa somma diretta. Il risultato `e che
(E), con le due operazioni + e diventa unalgebra, detta appunto algebra esterna
su E.
Si dimostra che
dim
p
(E) =
_
n
p
_
=
n!
p! (n p)!
(1.103)
e
dim(E) = 2
n
. (1.104)
1.20. Il simbolo di Levi-Civita 35
_
`

Tutto quanto sin qui visto si ripete pari pari per gli spazi
dei p-vettori
V
p
(E)
e si conclude con la costruzione della somma diretta
V (E) = R E V
2
(E) . . . V
n
(E) 0 0 . . .
che assume anchessa la struttura di algebra.
1.20 Il simbolo di Levi-Civita
Il simbolo di Levi-Civita (Tullio Levi-Civita, 1873-1941) con n indici variabili da 1
a n,

i
1
i
2
...in
vale +1 o 1 a seconda che la successione degli indici (i
1
, i
2
, . . . , i
n
) sia una permutazione
pari o dispari della succesione fondamentale (1, 2, . . . , n); vale zero in tutti gli altri casi,
cio`e quando almeno due indici coincidono. Il simbolo di Levi-Civita `e antisimmetrico:
scambiando fra loro due indici, cambia di segno.
Il simbolo di Levi-Civita, che pu` o comparire anche con gli indici in alto,
16

i
1
i
2
...in
,
consente di esprimere in forma sintetica svariate formule di calcolo delle matrici e di calcolo
tensoriale. Vediamo alcuni esempi.
1 Lordinaria denizione di determinante di una matrice quadrata [A
i
j
]
nn
pu` o porsi nella
forma sintetica
det[A
i
j
] =
i
1
i
2
...in
A
i
1
1
A
i
2
2
. . . A
in
n
(1.105)
sottintendendo sempre la sommatoria sugli indici ripetuti in alto e in basso. Verichiamolo
nel caso n = 3:

hij
A
h
1
A
i
2
A
j
3
=
1ij
A
1
1
A
i
2
A
j
3
+
2ij
A
2
1
A
i
2
A
j
3
+
3ij
A
3
1
A
i
2
A
j
3
= . . .
Ho eseguito la somma sul primo indice h; nelleseguire la somma sullindice i tengo conto
che con un indice ripetuto il simbolo si annulla, dunque:
. . . =
12j
A
1
1
A
2
2
A
j
3
+
13j
A
1
1
A
3
2
A
j
3
+
21j
A
2
1
A
1
2
A
j
3
+
23j
A
2
1
A
3
2
A
j
3
+
31j
A
3
1
A
1
2
A
j
3
+
32j
A
3
1
A
2
2
A
j
3
= . . .
16
La denizione `e la medesima.
36 Capitolo 1. Spazi vettoriali puri
Sommando inne sullindice j rimangono soltanto sei termini:
. . . =
123
A
1
1
A
2
2
A
3
3
+
132
A
1
1
A
3
2
A
2
3
+
213
A
2
1
A
1
2
A
3
3
+
231
A
2
1
A
3
2
A
1
3
+
312
A
3
1
A
1
2
A
2
3
+
321
A
3
1
A
2
2
A
1
3
= . . .
Adesso traduco i simboli in +1 e 1 a seconda della parit` a della permutazione degli indici
rispetto alla permutazione fondamentale (1, 2, 3),
. . . = A
1
1
A
2
2
A
3
3
A
1
1
A
3
2
A
2
3
A
2
1
A
1
2
A
3
3
+A
2
1
A
3
2
A
1
3
+A
3
1
A
1
2
A
2
3
A
3
1
A
2
2
A
1
3
e ritrovo lo sviluppo del determinante di ordine 3.
2 Dati n vettori (e
i
) di E, n = dim(E), anche non indipendenti, per la propriet` a
anticommutativa del prodotto esterno vale luguaglianza
e
i
1
e
i
2
. . . e
in
=
i
1
i
2
...in
e
1
e
2
. . . e
n
(1.106)
o, inversamente,
e
1
e
2
. . . e
n
=
i
1
i
2
...in
e
i
1
e
i
2
. . . e
in
(1.107)
qualunque sia la permutazione degli indici (i
1
, i
2
, . . . , i
n
). Si noti bene che a secondo
membro di questultima formula non `e intesa la sommatoria sugli indici, che sono ripetuti
ma entambi in basso. Analoghe formule valgono ovviamente per una qualunque n-pla (
i
)
di covettori in E

.
3 Il determinante di un endomorsmo A pu` o essere denito come quel numero det(A)
per cui vale luguaglianza
A(v
1
) A(v
2
) . . . A(v
n
) = det(A) v
1
v
2
. . . v
n
(1.108)
per qualunque n-pla di vettori v
i
E. Per riconoscerlo, nella (1.108), al posto dei vettori
v

si sostituiscano i vettori di una base (e


i
) qualsiasi di E. Si ottiene
A(e
1
) A(e
2
) . . . A(e
n
) = A
i
1
1
A
i
2
2
. . . A
in
n
e
i
1
e
i
2
. . . e
in
= A
i
1
1
A
i
2
2
. . . A
in
n

i
1
i
2
...in
e
1
e
2
. . . e
3
applicando la (1.106) nel secondo passaggio. Ma, come abbiamo gi` a visto, il termine
A
i
1
1
A
i
2
2
. . . A
in
n

i
1
i
2
...in
`e proprio uguale a det[A
i
j
]. Si conclude quindi che la (1.108) vale
per un qualunque sistema di vettori indipendenti. Essa vale ovviamente anche quando i
vettori sono dipendenti, nel qual caso sono nulli ambo i membri.
1.20. Il simbolo di Levi-Civita 37
4 Dalle (1.108) e (1.105) si possono dedurre agevolmente le propriet` a fondamentali dei
determinanti. Per esempio, dalla (1.108) si vede che
det(AB) = det(A) det(B).
Si ha infatti successivamente:
det(AB) v
1
. . . v
n
= (AB)(v
1
) . . . (AB)(v
n
)
= A
_
B(v
1
)
_
. . . A
_
B(v
n
)
_
= det(A) B(v
1
) . . . B(v
n
)
= det(A) det(B) v
1
. . . v
n
.
5 Dalla (1.105) segue la regola dello sviluppo del determinante rispetto ad una linea.
Posto infatti

A
1
i
1
=
i
1
i
2
...in
A
i
2
2
. . . A
in
n
, (1.109)
la (1.105) diventa
det[A
i
j
] = A
i
1
1

A
1
i
1
. (1.110)
Si riconosce allora nella (1.109), stante la denizione del simbolo di Levi-Civita e la sua
antisimmetria, lepressione del complemento algebrico del termine A
i
1
1
della prima
riga della matrice [A
i
j
] (conveniamo che gli indici in basso siano indici di riga) cio`e del
determinante della matrice quadrata di ordine n 1 ottenuta sopprimendo la riga 1 e la
colonna i
1
, preceduto dal segno (1)
1+i
1
. La (1.110) rappresenta allora lo sviluppo del
determinante rispetto alla prima riga. Analogamente si procede per lo sviluppo rispetto
ad unaltra riga, o ad una colonna.
6 Dalla (1.109), stante lantisimmetria del simbolo di Levi-Civita, segue inoltre
A
i
1
2

A
1
i
1
=
i
1
i
2
...in
A
i
1
2
A
i
2
2
. . . A
in
n
= 0.
Quindi: la somma dei prodotti degli elementi di una riga per i complementi algebrici di
una riga diversa `e nulla. Dalla (1.109) si osserva ancora che

A
1
i
1
=

A
i
1
1
det(A
i
j
).
Da queste considerazioni, particolarizzate al caso di una riga (la prima), si trae la formula
generale, valida per ogni endomorsmo lineare A,

A
j
i
A
i
k
= det(A)
j
k
(1.111)
dove

A
j
i
=

A
i
j
det(A) (1.112)
38 Capitolo 1. Spazi vettoriali puri
`e il complemento algebrico dellelemento A
i
j
, vale a dire il determinante della matrice
quadrata di ordine n 1 ottenuta cancellando la j-esima riga e la i-esima colonna della
matrice delle componenti di A, preceduta dal segno (1)
j+i
.
La matrice (

A
j
i
) dei complementi algebrici denisce un endomorsmo

A che chiamiamo
endomorsmo complementare di A. Cambiando base, si ha infatti per la (1.112):

A
j
i
=

A
i
j
det(A) =

A
i

det(A)
A
i

A
i
j
=

A
j

A
i
j
_
E
h
j

E
i

k
A
k
h
_
=

A
j

E
j
j

E
i

i
.
Dunque le (

A
j
i
) cambiano secondo la legge di trasformazione delle componenti di un
endomorsmo. La (1.111) rappresenta allora, in componenti, luguaglianza

AA = det(A) 1 (1.113)
Di qui, nel caso di un automorsmo, cio`e per det(A) ,= 0, segue la formula
A
1
=
1
det(A)

A (1.114)
che fornisce linverso di un endomorsmo invertibile.
Capitolo 2
Spazi vettoriali con struttura
2.1 Spazi vettoriali euclidei
Uno spazio vettoriale euclideo `e una coppia (E, g) costituita da uno spazio vettoriale
E e da un tensore metrico g su E. Un tensore metrico (detto anche metrica) `e per
denizione una forma bilineare g su E simmetrica e regolare, cio`e tale da soddisfare alle
condizioni:
_
g(u, v) = g(v, u),
g(u, v) = 0 v E = u = 0.
(2.1)
La forma bilineare simmetrica g `e anche detta prodotto scalare. Per il prodotto scalare
si usa comunemente la notazione u v, poniamo cio`e
1
u v = g(u, v). (2.2)
Uno spazio vettoriale euclideo `e quindi uno spazio vettoriale dotato di un prodotto scalare.
Chiamiamo norma e la denotiamo con | |: E R la forma quadratica corrispondente
al tensore metrico
|v| = v v = g(v, v). (2.3)
Chiamiamo invece modulo di un vettore il numero positivo
2
[v[ =
_
[v v[. (2.4)
Due vettori sono detti ortogonali se u v = 0. Diciamo che un vettore u `e unitario se
|u| = 1. Diciamo che u `e il versore del vettore v se u `e unitario e se v = k u con
k > 0.
1
In molti testi il prodotto scalare `e denotato con uv, simbolo che noi invece riserveremo al prodotto
vettoriale nello spazio euclideo tridimensionale.
2
La norma qui denita non `e una norma nel senso usuale dellAnalisi. Lo `e invece il modulo | |,
che per`o viene in genere considerato solo nel caso in cui la forma quadratica g `e denita positiva.
39
40 Capitolo 2. Spazi vettoriali con struttura
Seguendo una terminologia tipica della teoria della Relativit` a Ristretta si dice che un
vettore v `e del genere spazio, luce, tempo se la sua norma `e rispettivamente positiva,
nulla, negativa:
v E
_

_
genere spazio
genere luce
genere tempo
|v| > 0,
|v| = 0,
|v| < 0.
Un vettore del genere luce `e anche detto isotropo. Un vettore isotropo `e ortogonale a se
stesso.
Una base canonica di uno spazio euclideo (E, g) `e una base canonica rispetto alla forma
bilineare simmetrica g, quindi una base costituita da vettori unitari fra loro ortogonali.
Sappiamo dalla teoria delle forme quadratiche che due basi canoniche sono sempre formate
da un egual numero p di vettori del genere spazio e quindi da un egual numero q di vettori
del genere tempo. Siccome il tensore metrico `e non degenere si ha sempre p + q = n =
dim(E). La coppia di interi (p, q) `e detta segnatura dello spazio euclideo. Si usa anche
dire che lo spazio ha segnatura
+. . . +
. .
p volte
. . .
. .
q volte
.
Molti autori riservano il nome di spazio euclideo al caso in cui la metrica `e denita positiva,
cio`e di segnatura (n, 0). Per mettere in evidenza questa condizione noi useremo il termine
spazio strettamente euclideo, riservando il termine di spazio pseudo-euclideo o
semi-euclideo al caso di una metrica indenita.
Osservazione 2.1.1 In uno spazio strettamente euclideo la norma `e sempre positiva
(salvo che per il vettore nullo) e vale la disuguaglianza di Schwarz ( 1.5)
(u v)
2
|u| |v|, (2.5)
dove luguaglianza sussiste se e solo se i vettori sono dipendenti. Utilizzando il modulo
(2.4), che ora `e semplicemente denito da
[v[ =

v v,
la disuguaglianza di Schwarz diventa
[u v[ [u[ [v[. (2.6)
Se nessuno dei due vettori `e nullo si ha
[u v[
[u[ [v[
1.
Diciamo allora angolo dei due vettori il numero compreso tra 0 e tale che
cos =
u v
[u[ [v[
. (2.7)
2.1. Spazi vettoriali euclidei 41
Vale inne la disuguaglianza triangolare
[u+ v[ [u[ +[v[, (2.8)
conseguenza della disuguaglianza di Schwarz:
[u+ v[
2
= |u + v| = |u| +|v| + 2 u v
[u[
2
+ [v[
2
+ 2 [u v[
[u[
2
+ [v[
2
+ 2 [u[ [v[
=
_
[u[ + [v[
_
2
.
Considerata una base (e
i
) dello spazio euclideo (E, g), le componenti del tensore metrico
g
ij
= g(e
i
, e
j
) = e
i
e
j
(2.9)
formano una matrice, detta matrice metrica, simmetrica e regolare:
g
ij
= g
ji
, det[g
ij
] ,= 0. (2.10)
Queste condizioni sono in eetti equivalenti alle (2.1). Accanto alla matrice metrica
(g
ij
) torna utile considerare la matrice inversa, che denotiamo con (g
ij
). Essa `e denita
dalluguaglianza
g
ij
g
jk
=
k
i
. (2.11)
In una base canonica, detta anche ortonormale, la matrice metrica `e
[g
ij
] =
_
_
1
p
0
0 1
q
_
_
. (2.12)
Questa matrice coincide con la sua inversa. Mentre in generale si ha
u v = g
ij
u
i
v
j
, (2.13)
in una base canonica risulta
u v =
p

a=1
u
a
v
a

b=p+1
u
b
v
b
, (2.14)
quindi
|u| =
p

a=1
(u
a
)
2

b=p+1
(u
b
)
2
. (2.15)
La presenza del tensore metrico consente di denire su di uno spazio euclideo, oltre al
prodotto scalare, alcune altre fondamentali operazioni e precisamente:
(I) un isomorsmo canonico tra E e il suo duale E

;
42 Capitolo 2. Spazi vettoriali con struttura
(II) un operatore ortogonale sui sottospazi di E;
(III) un operatore di trasposizione sugli endomorsmi di E;
(IV) un isomorsmo canonico tra lo spazio degli endomorsmi su E e lo spazio delle forme
bilineari su E.
Tratteremo i primi due argomenti in questo paragrafo, gli altri due nel prossimo.
Lapplicazione lineare : E E

: v v

denita dalluguaglianza
u, v

) = u v (2.16)
`e un isomorsmo, stante la regolarit` a del tensore metrico g. Questo isomorsmo fa s` che
uno spazio vettoriale euclideo possa essere identicato con il suo duale. Denotiamo con
: E

E:

linversa dellapplicazione .
Introdotta una base di E, posto v = v
i
e
i
, si denotano con v
i
le componenti del covettore
v

, si pone cio`e v

= v
i

i
. Allora la (2.16), scritta in componenti, diventa
u
i
v
i
= g
ij
u
i
v
j
. (2.17)
Valendo questa per ogni (u
i
) R
n
si trae
v
i
= g
ij
v
j
(2.18)
Questa `e la denizione in componenti dellapplicazione . Si osserva quindi che le compo-
nenti del covettore v

si ottengono per abbassamento degli indici delle componenti (v


i
)
di v mediante la matrice metrica. Lapplicazione inversa `e denita dalle relazioni inverse
delle (2.18):
v
i
= g
ij
v
j
(2.19)
Essa consiste quindi nellinnalzamento degli indici tramite linversa della matrice me-
trica.
Osservazione 2.1.2 Le (g
ij
) prendono il nome di componenti contravarianti del
tensore metrico, mentre alle (g
ij
) si d` a il nome di componenti covarianti. Similmen-
te, alle componenti (v
i
) di v

si d` a il nome di componenti covarianti del vettore v,


riservando alle (v
i
) il nome di componenti contravarianti. Loperazione di innalza-
mento e di abbassamento degli indici si pu` o applicare anche ai tensori. Si possono cos`
stabilire diversi isomorsmi fra spazi tensoriali aventi la stessa somma di indici covarianti
e contravarianti, per esempio tra T
1
1
(E) e T
2
(E), come sar` a visto nel prossimo paragrafo.

Osservazione 2.1.3 Si `e visto ( 1.2) che un covettore `e geometricamente rappre-


sentato da una coppia di iperpiani paralleli (A
0
, A
1
). Nellidenticazione ora vista di E
con E

, ad , cio`e a questa coppia di piani, corrisponde il vettore v =

che `e ortogonale
2.1. Spazi vettoriali euclidei 43
al sottospazio A
0
e il cui prodotto scalare con i vettori del laterale A
1
vale 1. Se quindi
denotiamo con u il vettore ortogonale ad A
0
appartenente ad A
1
, si ha
v =
u
|u|
.
Osservazione 2.1.4 Ad ogni base (e
i
) di E si fa corrispondere unaltra base, detta base
reciproca o base coniugata (e a volte, impropriamente, anche base duale), denotata con
(e
i
) e denita implicitamente dalle relazioni
e
i
e
j
=
i
j
. (2.20)
Si verica che
e
i
= g
ij
e
j
, e
i
= g
ij
e
j
, (2.21)
e che
e
i
= (
i
)

. (2.22)
La gura che segue mostra per esempio il caso dello spazio euclideo bidimensionale. Assun-
ta (c
1
, c
2
) come base canonica, le basi (e
1
, e
2
) e (e
1
, e
2
) sono basi una reciproca dellaltra,
essendo e
1
e
1
= e
2
e
2
= 1, e
1
e
2
= e
2
e
1
= 0. In uno spazio strettamente euclideo,
se (e
i
) `e una base canonica, allora e
i

= e
i
: la base coincide con la sua reciproca. Se
lo spazio `e pseudoeuclideo, di segnatura (p, q), questuguaglianza vale solo per gli indici
i p. Per i rimanenti si ha e
i

= e
i
.
_

Basi reciproche.
Ad ogni sottospazio K E associamo il sottospazio
K

= u E [ u v = 0, v K, (2.23)
detto spazio ortogonale a K. Confrontando questa denizione con quella del polare K

data al 1.2 e tenuto conto della denizione (2.16), si vede che


K

= (K

. (2.24)
44 Capitolo 2. Spazi vettoriali con struttura
Pertanto dalle propriet` a (1.3) del 1.2 seguono immediatamente analoghe propriet` a per
loperatore ortogonale :
_

_
dim(K) + dim(K

) = dim(E),
K

= K,
K

L K,
(K +L)

= K

,
K

+L

= (K L)

.
(2.25)
Osservazione 2.1.5 Un sottospazio K si dice isotropo se K K

. Un sottospazio
`e isotropo se e solo se (a) tutti i suoi vettori sono isotropi, ovvero se e solo se (b) tutti i
suoi vettori sono fra loro ortogonali (dimostrarlo).
Osservazione 2.1.6 Si pu` o dimostrare che la massima dimensione dei sottospazi iso-
tropi `e il minimo dei due numeri (p, q) della segnatura.
Osservazione 2.1.7 Un sottospazio K si dice euclideo o non degenere se la re-
strizione del tensore metrico a K `e ancora regolare (vale cio`e la (2.1)
2
ristretta a K). Un
sottospazio `e non degenere se e solo se K K

= 0 (dimostrarlo).
Osservazione 2.1.8 Il prodotto scalare si pu` o estendere, in maniera naturale, ai vettori
complessi. Il prodotto scalare dei vettori v = u+i w e v

= u

+i w

`e il numero complesso
v v

= u u

w w

+i (u w

+u

w). La norma di un vettore `e il numero complesso


|v| = |u| |w| + 2i u w.
2.2 Endomorsmi in spazi euclidei
Sia (E, g) uno spazio euclideo (di segnatura qualsiasi). Ad ogni endomorsmo A su E si
associa un altro endomorsmo A
T
di E, detto endomorsmo trasposto di A, denito
dalluguaglianza
A
T
(u) v = u A(v) (2.26)
Per loperatore di trasposizione
T
valgono le seguenti propriet` a:
_

_
1
T
= 1,
A
TT
= A,
(A+B)
T
= A
T
+B
T
,
(AB)
T
= B
T
A
T
,
_
A
k
_
T
=
_
A
T
_
k
(k N),
[A, B]
T
= [B
T
, A
T
].
(2.27)
2.2. Endomorsmi in spazi euclidei 45
Se in particolare A `e un automorsmo:
(A
1
)
T
= (A
T
)
1
. (2.28)
Le componenti dellendomorsmo trasposto sono date da
(A
T
)
i
j
= g
jh
g
ik
A
h
k
(2.29)
Occorre infatti ricordare la denizione di componenti di un endomorsmo e quanto visto
al precedente (in particolare la (2.22), per dedurre successivamente:
(A
T
)
i
j
= A
T
(e
j
),
i
) = A
T
(e
j
) e
i
= A(e
i
) e
j
= g
ik
g
jh
A(e
k
) e
h
= g
ik
g
jh
A(e
k
),
h
)
= g
ik
g
jh
A
h
k
.
Osservazione 2.2.1 Se lo spazio `e strettamente euclideo (la metrica `e denita positiva)
e se la base scelta `e canonica, allora g
ij
=
ij
e quindi
(A
T
)
i
j

= A
j
i
. (2.30)
Ci` o signica che la matrice delle componenti dellendomorsmo trasposto A
T
coincide con
la trasposta della matrice delle componenti di A (si scambiano cio`e righe con colonne).
Questa propriet` a `e valida solo in questo caso. Se la metrica non `e denita positiva e la
base `e canonica allora la (2.30) `e vericata a meno del segno per certe coppie di indici
(quali ?).
Osservazione 2.2.2 Dalla (2.29) deduciamo che
det(A
T
) = det(A), tr(A
T
) = tr(A). (2.31)
Dalla prima di queste segue
det(Ax1) = det(A x1)
T
= det(A
T
x1).
Dunque i polinomi caratteristici di A e A
T
coincidono, e quindi coincidono anche tutti gli
invarianti principali
I
k
(A
T
) = I
k
(A), (2.32)
nonche gli spettri.
Denizione 2.2.1 Diciamo che un endomorsmo `e simmetrico se A
T
= A, che `e
antisimmetrico se A
T
= A. Ci` o signica che si ha, rispettivamente:
A(u) v = A(v) u, A(u) v = A(v) u,
per ogni coppia di vettori (u, v).
46 Capitolo 2. Spazi vettoriali con struttura
Ogni endomorsmo `e decomponibile nella somma della sua parte simmetrica e della sua
parte antisimmetrica:
A
S
=
1
2
(A+ A
T
)
A
A
=
1
2
(A A
T
)
_
A = A
S
+A
A
. (2.33)
Segue che
A
T
= A
S
A
A
. (2.34)
Alcune propriet` a da ricordare:
(I) La potenza k-esima di un endomorsmo simmetrico `e sempre simmetrica, qualunque
sia k. Da A
T
= A segue infatti per la (2.27)
4
_
A
k
_
T
=
_
A
T
_
k
= A
k
.
(II) La potenza k-esima di un endomorsmo antisimmetrico `e simmetrica o antisimmetrica
a seconda che k sia pari o dispari. Da A
T
= Asegue infatti
_
A
k
_
T
=
_
A
T
_
k
= (A)
k
=
(1)
k
A
k
.
(III) La traccia di un endomorsmo antisimmetrico `e nulla. Infatti tr(A) = tr(A
T
) =
tr(A
T
) = tr(A).
(IV) Il determinante di un endomorsmo antisimmetrico `e nullo se la dimensione n dello
spazio `e dispari. Infatti det(A) = det(A
T
) = det(A) = (1)
n
det(A).
(V) La traccia del prodotto di un endomorsmo simmetrico per uno antisimmetrico `e
nulla. Infatti se A e simmetrico e B antisimmetrico, tr(AB) = tr(AB) = tr(AB).
(VI) Il commutatore di due endomorsmi simmetrici, oppure di due endomorsmi antisim-
metrici, `e antisimmetrico. Questo segue dallultima delle (2.27) e dallanticommutativit` a
del commutatore. Da questultima propriet` a segue che gli endomorsmi antisimmetrici
formano una sottoalgebra di Lie di End(E).
Osservazione 2.2.3
`
E importante sottolineare che le precedenti denizioni fanno inter-
venire in maniera essenziale la metrica g. Esse sono del tutto analoghe a quelle viste per
le forme bilineari, dove per` o la nozione di trasposizione e quelle conseguenti di simmetria
e di antisimmetria non richiedono la presenza sullo spazio vettoriale di alcuna struttura
aggiuntiva. Lanalogia risulta ulteriormente confermata nelle considerazioni seguenti.
Ad ogni endomorsmo A possiamo far corrispondere una forma bilineare, che denotiamo
ancora con A, ponendo:
A(u, v) = A(u) v (2.35)
Denotate con (A
ij
) le componenti della forma bilineare A, risulta
A
ij
= g
jk
A
k
i
(2.36)
Infatti:
A
ij
= A(e
i
, e
j
) = A(e
i
) e
j
= A
k
i
e
k
e
j
= g
jk
A
k
i
.
2.2. Endomorsmi in spazi euclidei 47
Si osservi che, anche in questo caso, `e presente unoperazione di abbassamento di indice.
La relazione inversa delle (2.36) `e:
A
k
i
= g
jk
A
ij
. (2.37)
Loperazione ora denita `e un isomorsmo tra End(E) e T
2
(E). Si osservi che accanto
alla (2.35) sussiste una denizione alternativa analoga, che genera un altro isomorsmo:
A(u, v) = u A(v). Si osservi inoltre che A `e un endomorsmo simmetrico (rispettiva-
mente, antisimmetrico) se e solo se la corrispondente forma bilineare `e simmetrica (risp.
antisimmetrica).
Osservazione 2.2.4 Il tensore metrico, come forma bilineare, corrisponde allendomor-
smo identico.
Osservazione 2.2.5 Si consideri il prodotto tensoriale di due vettori A = a b. Si
tratta di un tensore doppio contravariante. Le sue componenti in una base qualsiasi sono
A
ij
= a
i
b
j
. A questo tensore si fa corrispondere un endomorsmo, denotato ancora con
A e detto diade, ponendo
A(u) = (a u) b, (2.38)
e quindi ancora una forma bilineare ponendo
A(u, v) = (a u) (b v). (2.39)
Le componenti di questendomorsmo e di questa forma bilineare sono rispettivamente
A
j
i
= a
i
b
j
, A
ij
= a
i
b
j
. (2.40)
Pi` u in generale ad ogni tensore doppio contravariante A, di componenti (A
ij
), per quanto
visto al paragrafo precedente, corrisponde un endomorsmo ed una forma bilineare (che
denotiamo sempre con A) le cui componenti si ottengono con labbassamento degli indici:
A
j
i
= A
kj
g
ki
, A
ij
= A
hk
g
hi
g
kj
. (2.41)
Passiamo ora a considerare alcune fondamentali propriet` a degli autovalori degli endomor-
smi simmetrici e antisimmetrici, nellipotesi per` o che lo spazio E sia strettamente euclideo,
cio`e a metrica denita positiva (fatta eccezione per il primo teorema che segue, valido an-
che nel caso di uno spazio non strettamente euclideo). Cominciamo dagli endomorsmi
simmetrici.
Teorema 2.2.1 Gli autovettori di un endomorsmo simmetrico corrispondenti ad au-
tovalori distinti sono ortogonali.
Dimostrazione. Sia A un endomorsmo simmetrico. Sia A(v
1
) =
1
v
1
e A(v
2
) =

2
v
2
. Moltiplicando scalarmente la prima uguaglianza per v
2
, la seconda per v
1
, sot-
traendo poi membro a membro e tenendo conto della simmetria di A si deduce 0 =
(
1

2
) v
1
v
2
. Da
1
,=
2
segue v
1
v
2
= 0. 2
48 Capitolo 2. Spazi vettoriali con struttura
Teorema 2.2.2 Gli autovalori di un endomorsmo simmetrico in uno spazio stretta-
mente euclideo sono reali.
Dimostrazione. Sia A(v) = v, con complesso e quindi v complesso: v = u + i w.
Moltiplicando scalarmente membro a membro per v = u i w,
v A(v) = (u i w) (u + i w),
si trova, considerando A come forma bilineare simmetrica:
A(u, u) +A(w, w) = (|u| + |w|).
Essendo lo spazio strettamente euclideo `e sicuramente |u| + |w| > 0 (a meno che non
sia v = 0, caso a priori escluso). Lequazione precedente determina quindi lautovalore
attraverso un quoziente di numeri reali. 2
Teorema 2.2.3 Per un endomorsmo simmetrico in uno spazio strettamente euclideo
la molteplicit` a geometrica degli autovalori coincide con la molteplicit` a algebrica.
Dimostrazione. Si consideri linsieme degli autovalori distinti
(
1
,
2
, . . . ,
l
), l n,
nonche la successione delle rispettive molteplicit` a
(m
1
, m
2
, . . . , m
l
)
e dei rispettivi spazi invarianti
(K
1
, K
2
, . . . , K
l
).
Con riferimento alle notazioni del 1.9 abbiamo m
i
= m

i
e K
i
= K

i
. Per il Teorema
2.2.1 questi sottospazi sono mutuamente ortogonali. Consideriamo il sottospazio V E
dei vettori ortogonali a tutti i K
i
. Questo `e un sottospazio invariante di A; infatti per ogni
v V e per ogni v
i
K
i
si ha A(v
i
) v = 0 perche A(K
i
) K
i
. Per la simmetria di A di
qui segue A(v) v
i
= 0, il che signica appunto A(v) V . Allora la restrizione di A a V
darebbe luogo ad ulteriori autovettori da aggiungersi alla lista gi` a fatta: assurdo, a meno
che non sia V = 0. Abbiamo dunque che lo spazio E `e somma diretta dei sottospazi
mutuamente ortogonali associati agli autovalori:
E = K
1
K
2
. . . K
l
. (2.42)
Pertanto
dim(E) = n = dim(K
1
) + dim(K
2
) + . . . + dim(K
l
)
= mg(
1
) + mg(
2
) +. . . + mg(
l
).
2.2. Endomorsmi in spazi euclidei 49
Daltra parte, per il teorema fondamentale dellalgebra:
n = m
1
+ m
2
+ . . . +m
l
= ma(
1
) + ma(
2
) + . . . + ma(
l
).
In generale, come si `e detto al 1.9, vale la disuguaglianza ma(
i
) mg(
i
). Se vi fosse
una sola disuguaglianza forte, stante le due uguaglianze sopra stabilite, si cadrebbe in un
assurdo. 2
Osservazione 2.2.6 Se gli autovalori di A sono tutti distinti, allora ognuno dei sotto-
spazi invarianti K
i
`e unidimensionale e univocamente determinato.
Teorema 2.2.4 Ogni endomorsmo simmetrico in uno spazio strettamente euclideo
ammette una rappresentazione del tipo
A =
n

=1

(2.43)
dove (c

) `e una base canonica di autovettori di A e dove (

) sono i corrispondenti
autovalori.
Per questa rappresentazione si deve tener conto dellOss. 6, cio`e della corrispondenza tra
tensori doppi contravarianti, endomorsmi e forme bilineari. Segue subito dalla scrittura
(2.43) che i (c

) sono autovettori ed i (

) sono autovalori. Infatti si veda la (2.38):


A(c

) =
n

=1

(c

) c

=
n

=1

.
Per ogni vettore v si ha quindi
A(v)

=
n

=1

(2.44)
essendo le (v

) le sue componenti rispetto alla base canonica.


Dimostrazione. Si consideri la decomposizione (2.42) in sottospazi invarianti. Se
v
1
K
1
e [v
1
[ = 1, allora
A(v
1
, v
1
) = A(v
1
) v
1
=
1
v
1
v
1
=
1
.
Analogamente, tenuto conto del Teorema 2.2.1, se v
2
K
2
allora
A(v
1
, v
2
) = A(v
1
) v
2
=
1
v
1
v
2
= 0.
50 Capitolo 2. Spazi vettoriali con struttura
Pertanto, scegliendo in ogni sottospazio K
1
, K
2
, . . . , K
l
una base canonica si determina
una base canonica (c

) di tutto E per la quale vale la rappresentazione (2.43). 2


Si osservi che dalla (2.43) segue che nella base canonica (c

) le componenti A

=
A(c

, c

) della forma bilineare A sono tutte nulle salvo quelle della diagonale principale,
che coincidono con gli autovalori:
A

. (2.45)
In forma matriciale:
[A

] =
_

1
1
m
1
0 . . . 0
0
2
1
m
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . .
l
1
m
l
_

_
(2.46)
Questa base canonica (c

) si trasforma in una base canonica (c

) rispetto alla forma


bilineare simmetrica A ponendo
c

=
1
_
[

[
c

se

,= 0, oppure c

= c

se

= 0. Si vede cos` che le componenti positive (risp.


negative) della forma bilineare A in questa base sono tante quante gli autovalori positivi
(risp. negativi) dellendomorsmo A. Si `e pertanto dimostrato che
Teorema 2.2.5 Se un endomorsmo simmetrico in uno spazio strettamente euclideo
ha, contati con la dovuta molteplicit` a, p autovalori positivi e q autovalori negativi, allora
la corrispondente forma bilineare simmetrica ha segnatura (p, q).
Tenuto conto che il tensore metrico `e una forma bilineare simmetrica denita positiva, dalla
dimostrazione di questultima propriet` a si deduce anche lenunciato generale seguente:
Teorema 2.2.6 Due forme bilineari simmetriche, di cui una denita positiva, possono
contemporaneamente porsi in forma diagonale, ammettono cio`e basi ortogonali comuni.
Passiamo inne ad esaminare brevemente il caso antisimmetrico.
Teorema 2.2.7 Gli autovalori di un endomorsmo antisimmetrico in uno spazio stret-
tamente euclideo sono nulli o immaginari puri.
Dimostrazione. La dimostrazione `e analoga a quella del Teorem 2.2.2. Sia A(v) = v,
con complesso e quindi v complesso: v = u+i w. Moltiplicando scalarmente membro a
membro per v = u i w, si trova, considerando A come forma bilineare antisimmetrica:
i 2 A(w, u) = (|u| + |w|).
Essendo lo spazio strettamente euclideo questequazione determina lautovalore come
quoziente di un numero immaginario puro per un numero reale. 2
2.3. Endomorsmi ortogonali 51
2.3 Endomorsmi ortogonali
Un endomorsmo ortogonale o isometria `e un endomorsmo Q su di uno spazio
euclideo o pseudoeuclideo (E, g) conservante il prodotto scalare, cio`e tale che
Q(u) Q(v) = u v u, v E (2.47)
Va osservato che questa denizione equivale a
Q(u) Q(u) = u u u E (2.48)
`e infatti ovvio che la (2.47) implica la (2.48). Viceversa, se vale la (2.48) risulta
Q(u +v) Q(u +v) = (u+ v) (u +v) (u, v E).
Sviluppando ambo i membri di questuguaglianza e riutilizzando la(2.48) si trova lugua-
glianza (2.47).
Dalla (2.47), per il fatto che la metrica non `e degenere, segue che Ker(Q) = 0. Di
conseguenza Q(E) = E. Ne deduciamo che un endomorsmo ortogonale `e un isomorsmo.
Per denizione di endomorsmo trasposto la (2.47) equivale a
Q
T
Q(u) v = u v,
e quindi, per larbitrariet` a dei vettori, alla condizione
Q
T
Q = 1 (2.49)
ovvero
Q
T
= Q
1
(2.50)
Dunque le formule (2.47), (2.48), (2.49) e (2.50) sono tutte denizioni equivalenti di
endomorsmo ortogonale.
Poiche det(Q
T
) = det(Q), la (2.49) implica (det(Q))
2
= 1 cio`e
det(Q) = 1. (2.51)
Gli endomorsmi ortogonali il cui determinante vale +1 sono chiamati rotazioni; quelle
con determinante 1 rotazioni improprie. Lidentit` a 1 `e ovviamente una rotazione. Il
prodotto di due (o pi` u) rotazioni `e una rotazione. Il prodotto di due rotazioni improprie
`e una rotazione. Il prodotto di una rotazione per una rotazione impropria `e una rotazione
impropria.
Linsieme di tutti gli endomorsmi ortogonali sopra uno spazio (E, g) `e un gruppo rispet-
to allordinaria composizione degli endomorsmi, cio`e un sottogruppo di Aut(E), detto
52 Capitolo 2. Spazi vettoriali con struttura
gruppo ortogonale di (E, g). Lo denotiamo con O(E, g). Le rotazioni formano un sotto-
gruppo, detto gruppo ortogonale speciale, che denotiamo con SO(E, g). Le rotazioni
improprie non formano ovviamente sottogruppo. Se due spazi vettoriali hanno uguale
dimensione e segnatura, allora i rispettivi gruppi ortogonali sono isomor.
Passando alle componenti, osserviamo che un endomorsmo Q `e ortogonale se e solo se le
sue componenti (Q
j
i
) rispetto ad una base generica vericano le uguaglianze
g
ij
Q
i
h
Q
j
k
= g
hk
(2.52)
che sono in tutto
1
2
n(n + 1). Queste si ottengono dalla (2.47) scritta per una generica
coppia (e
h
, e
k
) di vettori della base.
Se lo spazio `e strettamente euclideo e se la base scelta `e canonica, allora le (2.52) diventano
n

i=1
Q
i
h
Q
i
k

=
hk
(2.53)
Ci` o signica che il prodotto della matrice (Q
i
j
) per la sua trasposta `e la matrice unitaria.
Le matrici soddisfacenti a questa propriet` a sono dette matrici ortogonali.
Se la base `e canonica ma lo spazio non `e strettamente euclideo la formula (2.53) non `e pi` u
valida. In ogni caso, le matrici delle componenti in una base canonica degli endomorsmi
ortogonali (o delle rotazioni) di uno spazio di segnatura (p, q) formano un gruppo denotato
con O(p, q) (oppure SO(p, q)). Si denotano in particolare con O(n) e SO(n) i gruppi delle
matrici nn ortogonali, cio`e soddisfacenti alla (2.53), e di quelle ortogonali a determinante
unitario. La scelta di una base canonica stabilisce un isomorsmo tra O(E, g) e O(p, q).
Osservazione 2.3.1 Gli autovalori, complessi o reali, di un endomorsmo ortogonale in
uno spazio strettamente euclideo sono unitari: [[ = 1. Infatti, dallequazione Q(v) = v
segue, applicando la coniugazione, lequazione Q( v) =

v. Moltiplicando scalarmente
membro a membro queste due uguaglianze si ottiene Q(v) Q( v) =

v v. Poiche Q `e
ortogonale si ha anche Q(v) Q( v) = v v. Di qui segue

= 1, come asserito.
Vediamo ora alcuni esempi di rappresentazione delle rotazioni, che suggeriscono alcuni
esercizi e ulteriori approfondimenti.
2.3.1 Rappresentazione mediante simmetrie
Sia a E un vettore non isotropo. Si consideri lendomorsmo S
a
denito da
S
a
(v) = v 2
a v
a a
a. (2.54)
Esso `e una simmetria rispetto al piano ortogonale ad a, nel senso che, come si verica
immediatamente,
S
a
(a) = a, S
a
(v) = v
2.3. Endomorsmi ortogonali 53
per ogni vettore v ortogonale ad a. Di conseguenza, S
a
`e unisometria. Pi` u precisamente
`e una rotazione impropria. Infatti a `e un autovettore di autovalore 1 mentre ogni vettore
ortogonale ad a `e autovettore di autovalore +1, sicche lo spettro `e (1, 1, . . . , 1) e quindi
det(S
a
) = 1. Si pu` o dimostrare, ma la dimostrazione non `e semplice, che ogni isometria
`e il prodotto di simmetrie. `e invece pi` u facile dimostrare (e la dimostrazione `e lasciata
come esercizio) che due simmetrie S
a
e S
b
commutano se e solo se i corrispondenti vettori
a e b sono dipendenti (allora le simmetrie coincidono) oppure sono ortogonali.
2.3.2 Decomposizione simmetrica delle isometrie
Decomponiamo un endomorsmo Q nelle sue parti simmetrica e antisimmetrica:
Q = Q
S
+Q
A
, Q
S
=
1
2
(Q+Q
T
), Q
A
=
1
2
(QQ
T
). (2.55)
Segue che
QQ
T
= (Q
S
+ Q
A
)(Q
S
Q
A
) = (Q
S
)
2
(Q
A
)
2
+ Q
A
Q
S
Q
S
Q
A
,
Q
T
Q = (Q
S
Q
A
)(Q
S
+Q
A
) = (Q
S
)
2
(Q
A
)
2
Q
A
Q
S
+ Q
S
Q
A
.
Se Q`e unisometria, allora entrambe queste espressioni devono valere 1, sicche sottraendo
membro a membro segue subito
Q
A
Q
S
Q
S
Q
A
= [Q
A
, Q
S
] = 0 (2.56)
e quindi
(Q
S
)
2
(Q
A
)
2
= 1. (2.57)
Viceversa, se valgono entrambe queste condizioni allora le predette espressioni valgono 1.
`e cos` dimostrato che le condizioni (2.56) e (2.57) sono necessarie e sucienti anche un
endomorsmo Q sia ortogonale. Dalla (2.57) si deduce in particolare che un endomorsmo
ortogonale Q `e simmetrico se e solo se esso `e involutorio, cio`e se Q
2
= 1. Lo si riconosce
comunque anche dal fatto che, valendo la (3

), la condizione QQ = 1 `e equivalente a
Q = Q
T
. Osserviamo inne che se lendomorsmo ortogonale Q `e simmetrico allora,
qualunque sia il vettore v, il vettore v Q(v) `e autovettore di Q con autovalore 1.
Infatti:
Q(v Q(v)) = Q(v) Q
2
(v) = Q(v) v = (v Q(v)).
2.3.3 Rappresentazione esponenziale
Dato un endomorsmo A, consideriamone tutte le sue potenze A
k
; k N e quindi la
serie
e
A
=

k=0
1
k!
A
k
, (2.58)
54 Capitolo 2. Spazi vettoriali con struttura
detta esponenziale di A. Questa `e convergente, nel senso che qualunque sia A e comun-
que si ssi una base di E, le n
2
serie di numeri reali date dalle componenti di e
A
sono tutte
convergenti (anzi, assolutamente convergenti) o, se si vuole, che tale `e la serie vettoriale

k=0
1
k!
A
k
(v),
qualunque sia il vettore v. Omettiamo la discussione sulla convergenza di questa serie e
su serie analoghe costruibili a partire da funzioni analitiche. Ci limitiamo qui ad osservare
che se (
1
, . . . ,
n
) `e lo spettro di A allora lo spettro di e
A
`e (e

1
, . . . , e
n
). Infatti da
A(v) = v segue A
k
(v) =
k
v e quindi
e
A
(v) =

k=0
1
k!
A
k
(v) =

k=0
1
k!

k
v = e

v.
Lesponenziale di un endomorsmo non gode di tutte le propriet a della corrispondente
funzione analitica. Per esempio luguaglianza
e
A+B
= e
A
e
B
non `e pi` u vera in generale. Lo `e se i due endomorsmi A e B commutano (col che
commutano anche gli esponenziali). Vale comunque la propriet` a
(e
A
)
T
= e
A
T
.
Di qui segue che: se A `e antisimmetrico allora e
A
`e una rotazione. Infatti:
e
A
(e
A
)
T
= e
A
e
A
T
= e
A
e
A
= e
(AA)
= 1.
Inoltre la condizione det(e
A
) = 1 segue dal fatto che nello spettro di un endomorsmo
antisimmetrico gli autovalori non nulli si distribuiscono in coppie di segno opposto, sicche
la loro somma `e uguale a zero. Allora, per quanto sopra detto,
det(e
A
) =
n

i=1
e

i
= e
P
n
i=1

i
= e
0
= 1.
2.3.4 Rappresentazione di Cayley
Se A `e un endomorsmo antisimmetrico tale che A1 `e invertibile allora lendomorsmo
Q = (1 +A)(1 A)
1
(2.59)
`e ortogonale. Si verica infatti facilmente, utilizzando le ben note propriet` a della tra-
sposizione e il fatto che i due endomorsmi 1 A commutano, che QQ
T
= 1. Un po
meno immediata `e la verica del fatto che det(Q) = 1 (essa `e lasciata come esercizio).
Si ottiene quindi unulteriore rappresentazione delle rotazioni in termini di endomorsmi
antisimmetrici. Si osservi che la condizione det(1 A) ,= 0, richiesta per la validit` a della
scrittura (2.59), `e sempre soddisfatta in uno spazio strettamente euclideo. Infatti, questa
equivale alla condizione che 1 sia un autovalore di A, cosa impossibile perche in tali spazi
gli autovalori non nulli di un endomorsmo antisimmetrico sono immaginari puri.
2.3. Endomorsmi ortogonali 55
2.3.5 Rappresentazione quaternionale
Veniamo inne ad una interessante rappresentazione delle rotazioni nello spazio euclideo
tridimensionale E
3
. Si consideri nella somma diretta di spazi vettoriali RE
3
il prodotto
(interno) denito da
(a, u)(b, v) = (ab u v, av + bu+ u v) (2.60)
nonche il prodotto scalare denito da
(a, u) (b, v) = ab +u v. (2.61)
Lelemento inverso `e denito da
(a, u)
1
=
(a, u)
|(a, u)|
(2.62)
dove si `e posto
|(a, u)| = (a, u) (a, u) = a
2
+ u
2
.
Quindi tutti gli elementi sono invertibili, fuorche quello nullo (0, 0). Si ottiene unalgebra
associativa, non commutativa, con unit` a (1, 0). Si pone per comodit` a (a, 0) = a e (0, v) =
v. Il prodotto scalare `e conservato dal prodotto interno, nel senso che
|(a, u)(b, v)| = |(a, u)| |(b, v)|. (2.63)
Da questa propriet` a segue per esempio che gli elementi unitari, cio`e quelli per cui |(a, u)| =
1, formano un sottogruppo del gruppo degli elementi non nulli.
Un modo conveniente per rappresentare questalgebra, e quindi riconoscerne facilmente
le propriet` a fondamentali, consiste nella scelta di una base canonica (i, j, k) dello spazio
vettoriale e nella rappresentazione di un generico elemento (a, u = b i + c j + d k) nella
somma formale
a + b i + c j + d k, (2.64)
detta quaternione. Il prodotto di due quaternioni, in conformit` a alla denizione (2.60),
`e lestensione lineare dei seguenti prodotti fondamentali:
i
2
= j
2
= k
2
= 1, i j = k, j k = i, ki = j. (2.65)
Denita questalgebra, ad ogni suo elemento non nullo (a, u) si associa unapplicazione
Q: E
3
E
3
denita da
Q(v) = (a, u)v(a, u)
1
. (2.66)
Lasciamo come esercizio di dimostrare che: (i) il secondo membro denisce eettivamente
un vettore; (ii) che lapplicazione cos` denita `e un endomorsmo ortogonale, anzi una
rotazione; (iii) che lapplicazione
f : (R E
3
)0 SO(E
3
)
56 Capitolo 2. Spazi vettoriali con struttura
denita dalla (2.66) `e un omomorsmo di gruppi.
In particolare possiamo restringere questapplicazione agli elementi unitari di R E
3
.
Osserviamo allora che, scegliendo una base canonica nello spazio euclideo, questi elementi
sono caratterizzati dallequazione (si veda la (2.64))
a
2
+b
2
+c
2
+d
2
= 1,
e quindi descrivono tutta la sfera unitaria S
3
R
4
. Risulta pertanto che: (i) la sfera S
3
ha una struttura di gruppo; (ii) esiste un omomorsmo di gruppi
: S
3
SO(3)
che costituisce un ricoprimento universale del gruppo delle rotazioni dello spazio euclideo
tridimensionale (questo termine `e proprio della teoria dei gruppi di Lie, argomento di
corsi superiori). Si osservi che ogni elemento di SO(3) ha come controimmagine due punti
opposti di S
3
.
Sulla rappresentazione delle rotazioni nello spazio tridimensionale euclideo si ritorner` a pi` u
avanti ( 2.4.5).
2.4 Lo spazio vettoriale euclideo tridimensionale
In questo paragrafo esamineremo le propriet` a fondamentali di uno spazio vettoriale sul
campo reale, tridimensionale, dotato di un tensore metrico, cio`e di un prodotto scalare,
denito positivo. Lo denotiamo semplicemente con E
3
. Adotteremo tutte le denizioni e
notazioni gi` a introdotte al 2.1. Siccome dovremo distinguere tra basi generiche e basi
canoniche, una base canonica sar` a denotata con (c

) ( = 1, 2, 3), una base generica con


(e
i
) (i = 1, 2, 3). Le componenti relative a una base canonica saranno quindi contrasse-
gnate con indici greci, quelle relative ad una base generica con indici latini. Quando non
occorrono notazioni con indici, una base canonica sar` a denotata con (i, j, k). Una base
canonica `e anche detta ortonormale.
2.4.1 La forma volume
Due basi ordinate di uno spazio vettoriale (ci riferiamo ad uno spazio vettoriale di dimen-
sione n qualsiasi) si dicono concordi o equiorientate se la matrice della trasformazione
da una base allaltra ha determinante positivo. Si stabilisce in questo modo una relazione
di equivalenza nellinsieme delle basi ordinate. Le classi di equivalenza sono due e prendono
il nome di orientamenti. Quando si sceglie una base e la si ordina, come si fa usualmente,
corredandone gli elementi con un indice che va da 1 a n, si sceglie automaticamente un
orientamento dello spazio. Se si scambiano fra di loro due vettori della base, oppure se si
cambia verso ad un numero dispari di vettori della base, si cambia orientamento.
Consideriamo ora lo spazio vettoriale euclideo tridimensionale E
3
, pur avvertendo che le
considerazioni svolte in questo sottoparagrafo si estendono a spazi euclidei di dimensione
2.4. Lo spazio vettoriale euclideo tridimensionale 57
superiore. Fissata una base canonica (c

) = (c
1
, c
2
, c
3
), col che risulta anche ssato un
orientamento, deniamo una 3-forma : E
3
E
3
E
3
R ponendo
(u, v, w) = det
_

_
u
1
u
2
u
3
v
1
v
2
v
3
w
1
w
2
w
3
_

_
(2.67)
Che lapplicazione cos` denita sia multilineare e antisimmetrica segue immediatamente
dalle propriet` a del determinante.
`
E importante la circostanza che la denizione (2.67) di non dipende dalla scelta della
base canonica, purche questa appartenga allorientamento pressato. Per riconoscerlo
basta osservare che, ricordata la denizione di determinante, la denizione (2.67) si pu` o
porre in forma sintetica utilizzando il simbolo di Levi-Civita
3
a tre indici:
(u, v, w) =

(2.68)
Il simbolo

vale +1 se la successione di indici (, , ) `e una permutazione pari della


disposizione fondamentale (1, 2, 3), 1 se `e invece una permutazione dispari, 0 in tutti gli
altri casi, cio`e quando almeno due degli indici sono uguali. La (2.68) mostra subito che
le componenti del tensore nella base canonica (c

) coincidono proprio con il simbolo di


Levi-Civita:

. (2.69)
Questultima propriet` a `e manifestamente indipendente dalla base canonica di partenza:
se si ripetesse la denizione (2.67) scegliendo unaltra base canonica si giungerebbe al
medesimo risultato (2.69). Pertanto la denizione di data dalla (2.67) `e invariante
rispetto alla scelta della base canonica.
Il signicato di `e notevole: il determinante nella denizione (2.67) rappresenta il volume
del parallelepipedo individuato dai vettori (u, v, w), pi` u precisamente il volume con segno:
positivo se questi vettori formano, nellordine, una base concorde con quella canonica
pressata, negativo in caso contrario; nullo se i vettori sono dipendenti.
Per riconoscerlo si pu` o scegliere una base canonica (c

) tale che c
1
sia parallelo ad u e il
sottospazio individuato da (c
1
, c
2
) contenga il vettore v (vedi gura). Allora:
u = u
1
c
1
, v = v
1
c
1
+v
2
c
2
, w = w
1
c
1
+w
2
c
2
+w
3
c
3
e la denizione (2.67) fornisce
(u, v, w) = det
_

_
u
1
0 0
v
1
v
2
0
w
1
w
2
w
3
_

_
= u
1
v
2
w
3
. (2.70)
3
Vedi 1.20.
58 Capitolo 2. Spazi vettoriali con struttura
Si riconosce, sempre guardando la gura, che questultimo prodotto `e proprio il volume
del parallelepipedo individuato dai vettori (u, v, w).
_

La forma volume.
Per quanto ora visto il tensore antisimmetrico covariante prende il nome di forma vo-
lume. La sua denizione si estende facilmente a spazi euclidei di dimensione qualsiasi. Si
osservi che di forme volume ne esistono due, una opposta allaltra, una per ogni orienta-
mento. Lorientamento che di solito si assume nello spazio euclideo tridimensionale `e quello
della mano destra: i vettori di una base canonica ordinata (c
1
, c
2
, c
3
) = (i, j, k) sono
rispettivamente orientati come indice-medio-pollice (o pollice-indice-medio) della mano
destra.
La forma volume `e un ente fondamentale nello spazio euclideo. Per suo tramite, come si ve-
dr` a nei prossimi paragra, si possono denire due operazioni fondamentali: laggiunzione
e il prodotto vettoriale.
Teorema 2.4.1 Le componenti della forma-volume rispetto ad una qualunque base
(e
i
), legata ad una base canonica (c

) dalle uguaglianze e
i
= E

i
c

, sono date da

hij
= J
hij
, J = det[E

i
] (2.71)
dove
hij
`e il simbolo di Levi-Civita, oppure da

hij
=

g
hij
, g = det[g
ij
], g
ij
= e
i
e
j
(2.72)
col segno + se la base (e
i
) `e concorde con la base fondamentale (c

).
2.4. Lo spazio vettoriale euclideo tridimensionale 59
Dimostrazione. Posto che le due basi sono legate da relazioni del tipo e
i
= E

i
c

, e
posto che la base (c

) `e canonica e quindi che le componenti del tensore metrico rispetto


a questa coincidono col simbolo di Kronecker, risulta
g
ij
= E

i
E

,
per cui
det[g
ij
] = (det[E

i
])
2
. (2.73)
Daltra parte, per la legge di trasformazione delle componenti di un tensore, si ha anche,
stante la (2.69),

hij
= E

h
E

i
E

.
Scelto per esempio (h, i, j) = (1, 2, 3) e ricordata la denizione di determinante, si vede
che questultima formula implica

123
= E

1
E

2
E

= det[E

i
].
Se invece (h, i, j) = (2, 1, 3), allora

213
= det[E

i
].
Si riconosce cos` che vale la formula generale (2.71). Dalla (2.71) segue poi la (2.72) in
virt` u della (2.73).
Osservazione 2.4.1 Data una base canonica (c

) e denotata con (

) la sua duale, la
forma volume risulta essere anche denita da
=
1

2

3
(2.74)
Infatti, richiamata e adattata al caso n = 3 la formula generale analoga alla (1.107) per i
covettori, possiamo scrivere

1

2

3
=

.
Per cui
(
1

2

3
)(u, v, w) =

)(u, v, w)
=

,
come nella (2.68). Dunque la forma volume ammette la denizione equivalente (2.74).
2.4.2 Aggiunzione
Introdotta la forma volume, ad ogni vettore u E
3
si fa corrispondere una forma bili-
neare antisimmetrica, sempre su E
3
, chiamata aggiunta di u, denotata con u e denita
dalluguaglianza
(u)(v, w) = (u, v, w) (2.75)
60 Capitolo 2. Spazi vettoriali con struttura
Posto
= u,
si ha successivamente:

ij
= (e
i
, e
j
) = (u)(e
i
, e
j
)
= (u, e
i
, e
j
) = u
h
(e
h
, e
i
, e
j
) = u
h

hij
.
Quindi le componenti
ij
della forma aggiunta, in una base generica dellorientamento
scelto, sono date da

ij
=
hij
u
h
(2.76)
Se in particolare la base `e canonica

(2.77)
vale a dire:
[

] =
_

_
0 u
3
u
2
u
3
0 u
1
u
2
u
1
0
_

_
(2.78)
La corrispondenza
: E
3

2
(E
3
) : u u
che cos` si genera `e un isomorsmo. Con lo stesso simbolo denotiamo la corrispondenza
inversa, denotiamo cio`e con il vettore aggiunto della 2-forma . In questo modo si
ha u = u e = . Dalla (2.78) si vede che

23
= u
1
,
31
= u
2
,
12
= u
3
, (2.79)
cio`e che la relazione inversa della (2.77) pu` o essere scritta, considerando il simbolo di
Levi-Civita con gli indici in alto,
u


=
1
2

(2.80)
In una base qualsiasi, sempre nellorientamento scelto, risulta
u
i
=
1
2

ijh

jh
(2.81)
dove le (
ijh
) sono le componenti contravarianti della forma volume:

ijh
= g
ik
g
jl
g
hm

klm
. (2.82)
2.4. Lo spazio vettoriale euclideo tridimensionale 61
Queste si possono a loro volta esprimere mediante il simbolo di Levi-Civita:

ijh
=
1

g

ijh
. (2.83)
Infatti dalla (2.82) si trae:

ijh
=

g g
ik
g
jl
g
hm

klm
=

g
ijh
det[g
rs
] =
1

g

ijh
,
poiche det[g
rs
] = g
1
.
La forma volume permette anche di stabilire un isomorsmo fra R =
0
(E
3
) e
3
(E
3
),
che chiamiamo ancora aggiunzione e che denotiamo ancora con . Ad un numero reale a
corrisponde la 3-forma
a = a (2.84)
e, viceversa, ad una 3-forma corrisponde il numero reale
=
1
3!

hij

hij

=
1
3!

(2.85)
Per riconoscere la coerenza tra la (2.84) e la (2.85), cio`e che a = a, occorre osservare
che per il simbolo di Levi-Civita vale luguaglianza

= 3! (2.86)
Accanto a questa valgono anche le seguenti, la cui verica `e lasciata come esercizio:

= 2

. (2.87)
2.4.3 Prodotto vettoriale
Per mezzo della forma volume deniamo unoperazione binaria interna su E
3
, detta prodot-
to vettoriale e denotata con , ponendo
u v w = (u, v, w) (2.88)
Si tenga presente che il prodotto vettoriale `e in alcuni testi denotato con ed `e anche chia-
mato prodotto esterno. Tuttavia il simbolo `e oggi universalmente usato per il prodotto
esterno di forme antisimmetriche ( 1.18).
Segue subito dalla denizione (2.88) che il prodotto vettoriale u v `e ortogonale ai due
fattori:
u v u = 0, u v v = 0. (2.89)
62 Capitolo 2. Spazi vettoriali con struttura
Segue inoltre che, se si prendono i tre vettori di una base canonica appartenente allorien-
tamento scelto, si ha
c
1
c
2
= c
3
, c
2
c
3
= c
1
, c
3
c
1
= c
2
. (2.90)
Il prodotto vettoriale `e anticommutativo, bilineare e soddisfa allidentit` a di Jacobi:
_

_
u v = v u,
(a u +b v) w = a u w+b v w,
u (v w) + v (wu) +w (u v) = 0.
(2.91)
Pertanto il prodotto vettoriale istituisce sullo spazio euclideo tridimensionale una struttura
di algebra di Lie. Le prime due propriet` a sono di immediata verica. La terza si pu` o
far seguire, con qualche calcolo, dalla formula del doppio prodotto vettoriale
u (v w) = u w v u v w (2.92)
che `e equivalente a
(u v) w = u w v v w u (2.93)
Per dimostrare la (2.92) si osserva che il primo membro `e un vettore ortogonale a v w
e quindi, essendo questo prodotto ortogonale a v e w, appartenente allo spazio generato
dai vettori (v, w). Si pu` o allora scrivere
u (v w) = a v +b w.
Moltiplicando scalarmente per u si trova
0 = a v u + b w u.
Possiamo pertanto scrivere
a = w u, b = v u,
con costante indeterminata. Segue allora:
u (v w) =
_
(w u) v (v u) w
_
.
Per come `e denito il prodotto vettoriale il primo membro `e lineare rispetto ad ogni
fattore. Cos` dicasi della quantit` a tra parentesi a secondo membro. Allora il fattore
deve essere un numero indipendente dai vettori (u, v, w) che compaiono nelluguaglianza.
Se si considera per esempio una base canonica appartenente allorientamento scelto e si
prende (u, v, w) = (c
1
, c
1
, c
2
), posto che si veda la (2.90) c
1
c
2
= c
3
e c
1
c
3
= c
2
,
risulta luguaglianza c
3
= (c
3
). Deve quindi essere = 1 e la (2.92) `e dimostrata.
2.4. Lo spazio vettoriale euclideo tridimensionale 63
Ponendo w = e
i
nella (2.88) si trovano le componenti covarianti del prodotto vettoriale
in una base generica:
(u v)
i
=
ihj
u
h
v
j
. (2.94)
Le componenti contravarianti sono di conseguenza
(u v)
i
=
ihj
u
h
v
j
. (2.95)
In una base canonica (c

), tenendo presente che non vi `e pi` u dierenza numerica tra


componenti covarianti e contravarianti, si ha
(u v)

(2.96)
ovvero anche
(u v)

. (2.97)
Di qui la possibilit` a di esprimere il prodotto vettoriale mediante un determinante formale:
u v = det
_

_
c
1
c
2
c
3
u
1
u
2
u
3
v
1
v
2
v
3
_

_
(2.98)
Tenuto conto delle (2.96) e (2.97), nonche della seconda delle (2.87), si pu` o ridimostrare
la formula (2.92) del doppio prodotto vettoriale alla maniera seguente:
_
u (v w)
_

(v w)

= u

.
Osservazione 2.4.2 Partendo dalla denizione (2.88) si dimostra che se `e langolo
compreso tra i vettori non nulli u e v (valutato tra 0 e ) allora
[u v[ = [u[ [v[ sin (2.99)
Infatti, per le propriet` a gi` a viste:
[u v[
2
= (u v) (u v) = (u v) u v
= (u u v u v u) v = [u[
2
[v[
2
(u v)
2
= [u[
2
[v[
2
_
1
(u v)
2
[u[
2
[v[
2
_
= [u[
2
[v[
2
(1 cos
2
).
Osservazione 2.4.3 Loperazione combinata di prodotto vettoriale e prodotto scala-
re, u v w, `e chiamata prodotto misto. Dalla denizione (2.88) seguono subito,
64 Capitolo 2. Spazi vettoriali con struttura
stante lantisimmetria di , la propriet` a anticommutativa, la propriet` a ciclica e la
propriet` a di scambio del prodotto misto:
_

_
u v w = v u w, u v w = u w v, . . .
u v w = v w u = w u v,
u v w = u v w.
(2.100)
2.4.4 Endomorsmi assiali
Ad ogni vettore a E
3
corrisponde per aggiunzione una forma bilineare antisimmetrica
a. Interpretata questa come endomorsmo (antisimmetrico), vale la formula
a(v) = a v (2.101)
Infatti, in virt` u delle denizioni sopra date, si ha successivamente
a(v) u = a(v, u) = (a, v, u) = a v u,
per cui, stante larbitariet` a del vettore u, segue la (2.101). Siccome laggiunzione `e una cor-
rispondenza biunivoca fra vettori e forme bilineari antisimmetriche, e quindi endomorsmi
antisimmetrici, concludiamo che nello spazio euclideo tridimensionale ogni endomorsmo
antisimmetrico `e del tipo (2.101), cio`e del tipo a, con a E
3
. Si noti che il vettore a
`e un autovettore di a, corrispondente allautovalore nullo; infatti a(a) = a a = 0.
Per questo motivo gli endomorsmi antisimmetrici sono anche chiamati endomorsmi
assiali.
La corrispondenza biunivoca cos` stabilita tra i vettori e gli endomorsmi antisimmetrici
`e un isomorsmo dalgebre di Lie (si ricordi che, propriet` a (VI) al 2.2, in ogni spazio
euclideo gli endomorsmi antisimmetrici formano, con il commutatore, unalgebra di Lie).
Sussiste infatti luguaglianza
[A, B] = (A) (B) (2.102)
ovvero luguaglianza equivalente
[a, b] = (a b) (2.103)
Infatti, posto a = A e b = B, si ha
AB(u) = a (b u)
e quindi, utilizzando lidentit` a di Jacobi per il doppio prodotto vettoriale,
[A, B](u) = a (b u) b (a u)
= a (b u) +b (u a)
= u (a b) = (a b) u = (a b)(u).
2.4. Lo spazio vettoriale euclideo tridimensionale 65
Osservazione 2.4.4 Sappiamo che in E
3
, come in ogni spazio euclideo, esiste una cor-
rispondenza biunivoca fra vettori e covettori ( 2.1). Al 1.18 abbiamo denito il prodotto
esterno di due covettori. Il legame tra questo prodotto esterno e il prodotto vettoriale `e
espresso dalluguaglianza
(u v) = u

(2.104)
Infatti, tenuto conto della formula (2.93) sul doppio prodotto vettoriale, si ha successiva-
mente:
(a b)(u, v) = (a b, u, v) = (a b) u v
= a u b v a v b u
= u, a

)v, b

) v, a

)u, b

) =
_
a

_
(u, v).
2.4.5 Rotazioni
Consideriamo le rotazioni dello spazio E
3
. Ricordiamo, dalla teoria generale svolta al 2.3,
che una rotazione `e una isometria con determinante uguale a +1 e che i suoi autovalori,
se lo spazio `e strettamente euclideo, sono unitari, quindi del tipo e
i
= cos + i sin.
Per n = 3 gli autovalori sono radici di un polinomio di terzo grado a coecienti reali.
Quindi almeno uno di essi `e reale, gli altri due complessi coniugati o reali. Imponendo la
condizione che il prodotto di tutti e tre gli autovalori sia uguale a 1 = det(Q) si trova che
lunico spettro possibile di una rotazione `e del tipo
(1, e
i
, e
i
). (2.105)
Ci` o premesso, se escludiamo il caso Q = 1, il cui spettro `e (1, 1, 1), lautovalore 1 deter-
mina un sottospazio unidimensionale di autovettori K
1
E
3
che chiamiamo asse della
rotazione. Il numero che compare nella (2.105), determinato a meno del segno e di
multipli di 2, prende il nome di angolo della rotazione.
_

Versore-angolo di una rotazione.


66 Capitolo 2. Spazi vettoriali con struttura
Si pu` o rappresentare la rotazione Q mediante una coppia (u, ) dove u `e un versore
dellasse e `e langolo della rotazione, orientato in maniera tale che per ogni vettore c
ortogonale a u il passaggio da c a Q(c) secondo il verso di sia tale da produrre un
avvitamento nel verso di u (`e sottintesa la scelta del solito orientamento dello spazio,
secondo la regola della mano destra). Si dice allora che (u, ) sono versore e angolo
della rotazione Q o anche che u `e il versore dellangolo .
Si osservi che le coppie (u, ) e (u, ) d` anno luogo alla stessa rotazione come anche,
in particolare, le coppie (u, ) e (u, ). Se si sceglie una base canonica (c

) tale che
c
3
= u, allora la matrice delle componenti della rotazione Q generata dalla coppia (u, ),
con u versore di , ha la forma seguente:
[Q

] =
_

_
cos sin 0
sin cos 0
0 0 1
_

_
. (2.106)
Infatti, tenuto presente che in una base canonica
Q

= Q

= Q(c

) c

,
si vede con laiuto della gura che Q
11
= Q(c
1
) c
1
= cos , Q
12
= Q(c
1
) c
2
= sin, e
cos` via.
Oltre alla coppia versore-angolo vi sono varie altre rappresentazioni della rotazioni, per
esempio quella esponenziale e quella quaternionale, gi` a esaminate ai 2.3.3 e 2.3.5. Oltre
a queste `e da prendersi in considerazione quella fornita dagli angoli di Eulero (Leonhard
Euler, 1707-1783), basata sulla relazione fra una terna ortonormale di vettori, detta terna
ssa, e la terna ruotata: la prima `e una base canonica (c

) = (i, j, k); la seconda `e la


terna (Q(c

)) = (i

, j

, k

). Gli angoli di Euler (, , ), detti rispettivamente angolo di


nutazione, di rotazione propria, di precessione e soddisfacenti alle limitazioni
_

_
0 < < ,
0 < 2,
0 < 2,
(2.107)
sono deniti, nellipotesi che k

= Q(c
3
) sia distinto da k = c
3
, come segue (si guardi la
gura).
(I) Langolo di nutazione `e langolo compreso tra k e k

.
(II) Si consideri lintersezione fra il piano (i

, j

) e il piano (i, j): `e una retta detta linea


dei nodi. Questa `e individuata dal versore del prodotto vettoriale k k

che denotiamo
con N (infatti la retta in questione `e ortogonale sia a k che a k

).
(III) Langolo di rotazione propria `e langolo formato da (N, i

) di versore k

e langolo di
precessione `e langolo formato da (i, N) di versore k. Da questa denizione discende che
assegnati comunque tre angoli soddisfacenti alle limitazioni (2.107) risulta univocamente
denita la terna ruotata (si veda anche lEsercizio 2 seguente).
2.4. Lo spazio vettoriale euclideo tridimensionale 67
_

Gli angoli di Euler


* * *
Esempio 2.4.1 Poniamoci il problema di:
(I) determinare la coppia (u, ) a partire dalla rotazione Q e, viceversa,
(II) di determinare la rotazione Q a partire dalla coppia (u, ).
Osserviamo innanzitutto che, data Q, il versore u `e un autovettore associato allautovalore
1, quindi determinabile risolvendo un sistema di equazioni lineari. Tuttavia, `e pi` u semplice
la sua determinazione attraverso la parte antisimmetrica di Q, almeno quando questa non
`e nulla, perche si ha
sin u = Q
A
. (2.108)
Se infatti si guarda alla matrice (2.106), che `e ottenuta scegliendo opportunamente una
base canonica, e si ricorda la relazione tra le componenti di una forma bilineare antisim-
metrica e quelle del vettore aggiunto, data per esempio dalla (2.78), si trova luguaglianza
[A

] =
_

_
0 a
3
a
2
a
3
0 a
1
a
2
a
1
0
_

_
=
_

_
0 sin 0
sin 0 0
0 0 0
_

_
,
posto A = Q
A
e a = A. Di qui la (2.108). La formula (2.108), ssata una delle due
possibili scelte del versore u, determina solamente sin e non . Occorre quindi, per
eliminare questa indeterminazione, estrarre qualche altra informazione da Q. Si pu` o per
esempio calcolare cos attraverso la formula (che lasciamo da dimostrare)
1 + 2 cos = I
2
(Q) = tr(Q). (2.109)
68 Capitolo 2. Spazi vettoriali con struttura
Questa ci consente fra laltro di osservare che linvariante primo (la traccia) e linvarian-
te secondo di una rotazione coincidono. Il problema inverso (II) pu` o essere risolto con
luso della rappresentazione esponenziale. Infatti, data una qualunque coppia (u, ), e
introdotto lendomorsmo aggiunto U = u, la rotazione
Q = e
U
(2.110)
`e proprio la rotazione di versore-angolo (u, ). Per riconoscerlo ominciamo con losservare
che:
U(v) = (U) v = u v,
U
2
(v) = u U(v) = u (u v) = u v u v,
U
3
(v) = u U
2
(v) = u v = U(v),
quindi che
U
2n+2
= (1)
n
U
2
, U
2n+1
= (1)
n
U.
Si ha allora successivamente:
e
U
=

n=0
1
2n!

2n
U
2n
+

n=0
1
(2n + 1)!

2n+1
U
2n+1
= 1 +
_

n=1
(1)
n1
2n!

2n
_
U
2
+
_

n=0
(1)
n
(2n + 1)!

2n+1
_
U,
vale a dire
Q = e
U
= 1 + sin U + (1 cos )U
2
. (2.111)
Questa formula `e in accordo con le precedenti (2.108) e (2.109) perche implica
Q
A
= sin U = sin u,
e
tr(Q) = 3 + (1 cos )tr(U
2
) = 2 cos + 1,
valendo la formula generale, la cui verica `e immediata,
tr(U
2
) = 2 |u|, (2.112)
che quindi in questo caso produce tr(U
2
) = 2. La formula (2.111), tenuto conto delle
espressioni U(v) e U
2
(v) sopra scritte, consente anche di esprimere il generico vettore
Q(v) mediante la coppia (u, ):
Q(v) = cos v + (1 cos ) u v u + sin u v. (2.113)
2.4. Lo spazio vettoriale euclideo tridimensionale 69
Esempio 2.4.2 La matrice delle componenti della rotazione Qdeterminata dagli angoli
di Euler (, , ) `e:
[Q

] =
_

_
cos cos sin sin cos cos sin + sin cos cos
sin cos cos sin cos sin sin + cos cos cos
sin sin cos sin
sin sin
cos sin
cos
_

_
.
(2.114)
Per giungere alla (2.114) si pu` o osservare che la rotazione Q `e composta da tre rotazioni
successive , , , caratterizzate dalle seguenti coppie versore-angolo:
= (k, ), = (i, ), = (k, ).
Le matrici delle componenti sono rispettivamente:
[

] =
_

_
cos sin 0
sin cos 0
0 0 1
_

_
,
[

] =
_

_
1 0 0
0 cos sin
0 sin cos
_

_
,
[

] =
_

_
cos sin 0
sin cos 0
0 0 1
_

_
.
Si deve quindi eseguire il prodotto matriciale
Q

.
Eseguendo il prodotto (righe per colonne, secondo le convenzioni adottate) delle prime
due matrici si ottiene
[

] =
_

_
cos sin cos sin sin
sin cos cos cos sin
0 sin cos
_

_
.
Moltiplicando questa per la terza si ottiene la (2.114).
70 Capitolo 2. Spazi vettoriali con struttura
2.5 Spazi vettoriali iperbolici
Uno spazio vettoriale iperbolico `e uno spazio vettoriale pseudoeuclideo (H
n
, g) di
segnatura (n 1, 1). Ci` o signica (si veda il 2.1) che in ogni base canonica (c
i
) un
vettore ha norma negativa (si dice che `e del genere tempo) e gli altri n 1 hanno norma
positiva (si dicono del genere spazio). Conveniamo che gli indici latini varino da 0 a n1,
che in una base canonica (c
i
) il vettore del genere tempo sia c
0
, che i rimanenti vettori
del genere spazio siano denotati con (c

), e che gli indici greci varino quindi da 1 a n 1.


La matrice metrica in una base canonica avr` a pertanto la forma
[g
ij
] =
_

_
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
_

_
(2.115)
Lo spazio iperbolico di dimensione 4 prende il nome di spazio vettoriale di Minkowski
(Hermann Minkowski, 1864-1909). Questo spazio `e di fondamentale importanza per la
teoria della Relativit` a Ristretta. Ricordiamo ancora che un vettore ortogonale a se stesso
`e detto isotropo o del genere luce.
Ci limitiamo in questo paragrafo ad esaminare alcune propriet` a fondamentali degli spazi
iperbolici in generale e, in particolare, dello spazio iperbolico bidimensionale. Si tenga
presente che per spazio iperbolico alcuni autori intendono uno spazio di dimensione pari
2n e segnatura (n, n).
Teorema 2.5.1 Un vettore (non nullo) ortogonale ad un vettore del genere tempo `e un
vettore del genere spazio. Il sottospazio ortogonale ad un vettore del genere tempo `e uno
spazio strettamente euclideo (di dimensione n 1).
Dimostrazione. Sia v un vettore del genere tempo. Si consideri il sottospazio unidi-
mensionale K generato da v e il suo ortogonale K

. Non pu` o essere v K

perche v
sarebbe anche ortogonale a se stesso, quindi isotropo. Dunque KK

= 0 e il sottospazio
K

`e a metrica non degenere (si veda lOss. 2.1.6). Si pu` o quindi determinare su K

, che
`e di dimensione n 1, una base canonica (c

). Se consideriamo anche il versore c


0
di v,
otteniamo una base canonica. Siccome c
0
`e del genere tempo tutti gli altri vettori della
base sono del genere spazio, altrimenti si violerebbe il teorema di Sylvester, posto che la
segnatura `e (n 1, 1). Dunque tutti i vettori di K

sono del genere spazio e questo `e


strettamente euclideo. 2
In maniera analoga si dimostra che
Teorema 2.5.2 Il sottospazio ortogonale ad un vettore del genere spazio `e uno spazio
iperbolico se n > 2 o del genere tempo se n = 2.
2.5. Spazi vettoriali iperbolici 71
Dal Teorema 2.5.1 segue che i sottospazi del genere tempo hanno dimensione 1. Se-
gue anche che, ssato un sottospazio K H del genere tempo, risulta denita una
decomposizione spazio-temporale dello spazio iperbolico H nella somma diretta
H = K S,
dove S `e il sottospazio strettamente euclideo ortogonale a K (S = K

).
Teorema 2.5.3 Il sottospazio ortogonale ad un vettore (non nullo) del genere luce `e a
metrica degenere contenente il vettore stesso. Tutti i vettori del sottospazio indipendenti
da questo sono del genere spazio.
Dimostrazione. Sia v un vettore isotropo, K il sottospazio da esso generato. Siccome
v `e ortogonale a se stesso per denizione, risulta K K

. Quindi K K

,= 0 e il
sottospazio K

`e a metrica degenere. Se in esso vi fosse un vettore del genere tempo, si


contrasterebbe con la Proposizione 1, che implica v del genere spazio. Se vi fossero due
vettori indipendenti del genere luce, si contrasterebbe con il teorema seguente. 2
Teorema 2.5.4 Due vettori del genere luce e ortogonali sono dipendenti (cio`e paralleli).
Dimostrazione. Un generico vettore isotropo v ,= 0 pu` o sempre mettersi nella forma
v = a(u + c
0
), dove u `e un vettore unitario, del genere spazio, ortogonale a c
0
, generico
vettore unitario del genere tempo; basta infatti porre u =
1
a
v c
0
con a = v c
0
(si
osservi che la condizione v c
0
= 0 violerebbe la Proposizione 1). Se v

= a

(u

+ c
0
) `e
un altro vettore isotropo decomposto allo stesso modo, dalla condizione v v

= 0 segue
u u

1 = 0. Ma due vettori unitari del genere spazio hanno prodotto scalare uguale a
1 se e solo se sono uguali. Da u = u

segue che v e v

sono dipendenti. 2
Dal teorema precedente segue che i sottospazi isotropi hanno dimensione 1, a conferma
della propriet` a generale messa in evidenza nellOss. 2.1.6.
Denizione 2.5.1 Denotiamo con T il sottoinsieme dei vettori del genere tempo. Di-
ciamo che due vettori u, v T sono ortocroni se u v < 0.
Teorema 2.5.5 La relazione di ortocronismo `e una relazione di equivalenza che divide
T in due classi.
Dimostrazione. La relazione di ortocronismo `e riessiva perche si ha v v = |v| < 0
per ogni vettore del genere tempo (per denizione). `e ovviamente simmetrica, perche `e
simmetrico il prodotto scalare. Per dimostrare la propriet` a transitiva dobbiamo dimostrare
limplicazione
u v < 0, v w < 0 = u w < 0. (2.116)
72 Capitolo 2. Spazi vettoriali con struttura
Per dimostrare che le classi di equivalenza sono due dobbiamo dimostrare lmplicazione
u v > 0, v w > 0 = u w < 0. (2.117)
Per questo scopo, supposto senza ledere la generalit` a che il vettore v sia unitario, si scelga
una base canonica tale da aversi c
0
= v. Si ha allora:
u w =
n1

=1
u

u
0
w
0
, u v = g
00
u
0
= u
0
, w v = w
0
.
Le condizioni u T e w T sono equivalenti alle disuguaglianze
n1

=1
(u

)
2
(u
0
)
2
< 0,
n1

=1
(w

)
2
(w
0
)
2
< 0.
Per la disuguaglianza di Schwarz, valida nello spazio strettamente euclideo ortogonale a
c
0
e generato dai vettori (c

), si ha anche
_
n1

=1
u

_
2

n1

=1
(u

)
2
n1

=1
(w

)
2
< (u
0
w
0
)
2
.
Abbiamo allora le seguenti implicazioni : (u v < 0, v w < 0) (u
0
> 0, w
0
> 0) =
u
0
w
0
> 0 = u w < 0. Quindi limplicazione (2.116) `e dimostrata. Analogamente si ha:
(u v > 0, v w > 0) (u
0
< 0, w
0
< 0) = u
0
w
0
> 0 = u w < 0. Quindi anche
limplicazione (2.117) `e dimostrata. 2
Denotiamo con T
+
e T

le due classi di equivalenza in cui `e diviso linsieme T dei vettori


del genere tempo; essi si chiamano rispettivamente futuro e passato. Denotiamo con
L linsieme dei vettori del genere luce. Essi formano il cosiddetto cono di luce. Se
infatti denotiamo con x = x
i
c
i
il generico vettore dello spazio e se imponiamo che esso
sia isotropo, cio`e che x x = 0, troviamo la condizione
n1

=1
(x

)
2
(x
0
)
2
= 0. (2.118)
Questa `e lequazione di un cono di centro lorigine (vettore nullo). Il cono di luce `e diviso
in due falde, L
+
e L

, ciascuna delle quali separa dai vettori del genere spazio i vettori
delle classi T
+
e T

rispettivamente, i quali stanno allinterno di ciascuna falda (vedi


gura).
2.5. Spazi vettoriali iperbolici 73
_

Il cono di luce.
I vettori unitari del genere spazio sono caratterizzati dallequazione
n1

=1
(x

)
2
(x
0
)
2
= 1. (2.119)
Si tratta di un iperboloide a una falda. I vettori unitari del genere tempo sono invece
caratterizzati dallequazione
n1

=1
(x

)
2
(x
0
)
2
= 1. (2.120)
Si tratta di un iperboloide a due falde. Va inoltre tenuto presente che
Teorema 2.5.6 La somma di due o pi` u vettori di T
+
(risp. di T

) `e ancora un vettore
di T
+
(risp. di T

).
Dimostrazione. Siano u, v T
+
. Ci` o signica che |u| < 0, |v| < 0, u v < 0. Di
qui segue |u +v| = |u| +|v| + 2 u v < 0; quindi la somma u +v `e del genere tempo.
Inoltre: u (u+ v) = u u +u v < 0. Dunque u e la somma u +v sono ortocroni. 2
Osservazione 2.5.1 (I) Si verichi che nello spazio End(E) degli endomorsmi sopra
uno spazio vettoriale E si denisce un prodotto scalare ponendo
A B = tr(AB). (2.121)
74 Capitolo 2. Spazi vettoriali con struttura
(II) Si dimostri che, nel caso n = 2, la segnatura del tensore metrico cos` denito `e (3,1).
Lo spazio H
4
= End(E
2
) degli endomorsmi su di uno spazio bidimensionale `e quindi uno
spazio di Minkowski.
(III) Si dimostri che lassegnazione di un tensore metrico denito positivo su E
2
implica
la denizione di una decomposizione spazio-temporale di H
4
.
(IV) Si estendano queste considerazioni al caso dello spazio H
n
2 = End(E
n
), dimostrando
che la segnatura del prodotto scalare denito dalla (2.121) `e
_
n(n + 1)
2
,
n(n 1)
2
_
.
Esaminiamo ora, per meglio comprendere la struttura di uno spazio iperbolico, il caso pi` u
semplice dello spazio iperbolico bidimensionale H
2
.
Fissata una base canonica (c
0
, c
1
), con c
0
del genere tempo, osserviamo innanzitutto che
il cono di luce, insieme dei vettori isotropi, ha ora equazione
(x
1
)
2
(x
0
)
2
= 0,
e si riduce pertanto alle rette isotrope di equazione x
1
x
0
= 0 e x
1
+ x
0
= 0, che sono
le bisettrici dei quadranti individuati dai vettori della base. Volendo ragurare su di un
piano i vettori (c
0
, c
1
), unitari e ortogonali fra loro, dobbiamo tener presente che il foglio
su cui riportiamo la gura che segue, ssato un punto corrispondente al vettore nullo,
`e la rappresentazione intuitiva dello spazio bidimensionale strettamente euclideo, non di
quello iperbolico. Per esempio, contrariamente al nostro senso euclideo, i vettori che si
trovano sulle bisettrici hanno lunghezza nulla. Cos`, i vettori unitari del genere tempo
sono caratterizzati dallequazione
(x
0
)
2
(x
1
)
2
= 1,
e descrivono quindi uniperbole di vertici i punti (1, 0) e asintoti le rette isotrope, mentre
i vettori unitari del genere spazio sono caratterizzati dallequazione
(x
1
)
2
(x
0
)
2
= 1,
e descrivono pertanto liperbole di vertici i punti (0, 1) con gli stessi asintoti. Se ora
prendiamo un vettore u unitario del genere tempo, la retta descritta dai vettori ortogonali
a questo ha equazione
u
1
x
1
u
0
x
0
= 0.
Si consideri quindi uno dei due vettori v unitari e ortogonali a u; sappiamo che questi
sono del genere spazio. Allora
|u v| = |u| + |v| + 2 u v = 1 + 1 + 0 = 0.
Ci` o signica che il vettore dierenza u v `e isotropo, quindi giacente su una delle due
bisettrici (asintoti). Concludiamo che, nella rappresentazione euclidea, due vettori del
piano iperbolico non isotropi, unitari e ortogonali, stanno in posizione simmetrica rispetto
ad una delle due bisettrici (vedi gura).
2.5. Spazi vettoriali iperbolici 75
_

Ortogonalit` a dei vettori nel piano iperbolico.


Si osservi ancora, guardando dinuovo la gura, che per un osservatore iperbolico la cop-
pia (u, v) `e una base canonica, quindi del tutto equivalente alla coppia (c
0
, c
1
), ottenibile
da questa mediante una rotazione, cio`e mediante un elemento di SO(1, 1). Siamo quindi
condotti ad esaminare il gruppo delle isometrie sullo spazio iperbolico bidimensionale. Ci
limitiamo a quelle di determinante +1, cio`e alle rotazioni. Ricordiamo inanzitutto che le
componenti Q
j
i
di un qualunque endomorsmo Q sono legate alle componenti (Q
ij
) della
forma bilineare corrispondente dalle equazioni Q
ij
= g
jk
Q
k
i
. Pertanto, essendo nel caso
presente
g
00
= 1, g
11
= 1, g
01
= g
10
= 0,
risulta:
Q
00
= Q
0
0
, Q
01
= Q
1
0
, Q
10
= Q
0
1
, Q
11
= Q
1
1
.
Posto inoltre
Q(c
0
) = a c
0
+b c
1
, Q(c
1
) = c c
0
+ d c
1
,
cio`e
[Q
j
i
] =
_
a b
c d
_
,
dalle condizioni Q(c
i
) Q(c
j
) = c
i
c
j
e det(Q
j
i
) = 1, caratteristiche di una rotazione,
seguono le uguaglianze:
a
2
b
2
= 1, d
2
c
2
= 1, bd ac = 0, ad bc = 1.
Dalle ultime due si trae a = d e b = c. Dalla prima segue a
2
1. Possiamo allora porre
a = cosh , b = sinh , (2.122)
76 Capitolo 2. Spazi vettoriali con struttura
oppure
a = cosh , b = sinh. (2.123)
Poiche a = Q(c
0
) c
0
, nel primo caso abbiamo a > 0, quindi una rotazione ortocrona,
conservante cio`e la classe di ogni vettore del genere tempo. La matrice delle componenti
di una rotazione ortocrona ha quindi la forma:
[Q
j
i
] =
_
cosh sinh
sinh cosh
_
. (2.124)
Nel secondo caso si ha una rotazione non ortocrona e la matrice corrispondente `e:
[Q
j
i
] =
_
cosh sinh
sinh cosh
_
. (2.125)
Il parametro che interviene in queste due rappresentazioni prende il nome di pseu-
doangolo della rotazione. Esso pu` o variare da a +, ricoprendo tutte le rotazioni
ortocrone. Per = 0 si ha ovviamente Q = 1. La composizione di due rotazioni di
pseudoangolo
1
e
2
`e la rotazione di pseudoangolo
1
+
2
: lo si desume dalla (2.124)
utilizzando le propriet` a elementari delle funzioni trigonometriche iperboliche. Sempre in
base a tali propriet` a, si osserva che si pu` o scegliere come parametro rappresentativo la
tangente iperbolica dello pseudoangolo,
= tanh =
sinh
cosh
,
variabile nellintervallo aperto (1, 1). La (2.124) diventa allora
[Q
j
i
] =
1
_
1
2
_
1
1
_
. (2.126)

Potrebbero piacerti anche