Sei sulla pagina 1di 106

1 Algebra multilineare

1.1 Preliminari
Gli spazi vettoriali presi in considerazione saranno, salvo esplicito avviso con-
trario, di dimensione finita sul campo K = R o C.
Notazioni. Useremo la notazione M(m, n; K) per indicare l’insieme delle matrici
a m righe e n colonne ad entrate in K. Se A ∈ M(m, n; K) indicheremo con t A la
matrice trasposta di A; in particolare se x = (x1 , . . . , xn ) ∈ Kn allora
 
x1
t  .. 
x =  . .
xn
Il simbolo di Kronecker è definito da
(
1 se i = j
δij =
0 6 j.
se i =

1.1 (Applicazioni lineari). Siano V e W spazi vettoriali, BV = {e1 , . . . , en }


e BW = {f1 , . . . , fm } basi (ordinate) di V e W . Sia f : V → W un’applicazione
lineare. La matrice associata a f rispetto a BV e a BW è la matrice
 
α11 . . . α1n
MBW ,BV (f ) =  ... .. .. 

. . 
αm1 . . . αmn
le cui colonne sono le componenti, rispetto a BW , di f (e1 ), . . . , f (en ). Quindi si
ha m
X
f (ej ) = αij fi , j = 1, . . . , n.
i=1
In forma matriciale
 
α11 . . . α1n
(f (e1 ), . . . , f (en )) = (f1 , . . . , fm )  ... ... ..  .

. 
αm1 . . . αmn
Se (x1 , . . . , xn ) sono le componenti di un vettore v ∈ V rispetto a BV , (y1 , . . . , yn )
sono le componenti di un vettore w ∈ W rispetto a BW e f (v) = w, allora
n
X
yi = αij xj , i = 1, . . . , m.
j=1

1
In forma matriciale
    
y1 α11 . . . α1n x1
 ..   .. .. ..   ..  .
 . = . . .  . 
ym αm1 . . . αmn xn

Se B = {e1 , . . . , en } e B 0 = {e01 , . . . , e0n } sono due basi di uno spazio vettoriale V ,


la matrice di passaggio da B a B 0 è la matrice

MB0 ,B (idV ) = (αij )i,j=1,...,n

che ha come colonne le componenti, rispetto a B 0 dei vettori della base B. Quindi
n
X
ej = αij e0i , j = 1, . . . , n
i=1

Se (x1 , . . . , xn ) sono le componenti di un vettore v ∈ V rispetto a B, (y1 , . . . , yn )


sono le componenti di v rispetto a B 0 , allora
n
X
yi = αij xj , i = 1, . . . , n.
j=1

Rammentiamo che, fissate due basi BV di uno spazio vettoriale V (di dimensione
n) e BW di uno spazio vettoriale W (di dimensione m), si ha l’isomorfismo

Hom(V, W ) → M(m, n; K), f → MBW ,BV (f ).

1.2 (Spazio duale e biduale). Sia V uno spazio vettoriale e

V ∗ = {f : V → K : f lineare}

il suo duale. Ad ogni base E = {e1 , . . . , en } di V è associato il sottoinsieme di V ∗

E∗ = {e∗1 , . . . , e∗n }, e∗i (ej ) = δij , i, j = 1, . . . , n.

È facile verificare che E∗ è una base di V ∗ che viene detta la base duale di E di
V ∗ . Avendo la stessa dimensione V e V ∗ sono isomorfi.
Siano V e W spazi vettoriali. Un’ applicazione lineare f : V → W induce
un’applicazione lineare f ∗ : W ∗ → V ∗ , detta applicazione duale di f , definita da

[f ∗ (w∗ )](v) = w∗ (f (v)), (v ∈ V, w∗ ∈ W ∗ ).

2
Siano BV = {e1 , . . . , en }, BW = {f1 , . . . , fm } basi (ordinate) di V e W e BV∗ =

{e∗1 , . . . , e∗n }, BW ∗
= {f1∗ , . . . , fm } le rispettive basi duali di V ∗ e W ∗ . Se MBW ,BV (f )
è la matrice associata a f rispetto a BV e BW , allora
∗ t
MBV∗ ,BW
∗ (f ) = MB ,B (f )
W V

è la matrice associata a f ∗ rispetto alle basi duali. Si ha quindi


n
X

f (fi∗ ) = αij e∗j , i = 1, . . . , m.
j=1

In forma matriciale
    
f ∗ (f1∗ ) α11 . . . α1n e∗1
 ..   .. .. ..   .. 
 . = . . .  . 
f ∗ (fm

) αm1 . . . αmn e∗n

Se (y1∗ , . . . , ym

) sono le componenti di w∗ rispetto a BW

e (x∗1 , . . . , x∗n ) sono le
∗ ∗
componenti di v rispetto a BV , allora
m
X
x∗j = αij yi∗ , j = 1, . . . , n.
i=1

In forma matriciale
 
α11 . . . α1n
∗ ∗ ∗ ∗  .. .. ..  .
(x1 , . . . , xn ) = (y1 , . . . , ym )  . . . 
αm1 . . . αmn

Se f : V → W è un isomorfismo e (f −1 )∗ : V ∗ → W ∗ è la mappa duale di f −1


allora (f −1 )∗ (v ∗ )(w) = v ∗ (f −1 (w)) e quindi

(f −1 )∗ (v ∗ )(f (u)) = v ∗ (u). (1.1)

Siano f : V → W e g : W → Z mappe lineari tra spazi vettoriali, allora:

i) (g ◦ f )∗ = f ∗ ◦ g ∗ .

ii) id∗V = idV ∗ .

iii) f è isomorfismo se e solo se f ∗ è isomorfismo e (f −1 )∗ = (f ∗ )−1 .

3
Un isomorfismo ψ : V → V ∗ è detto canonico se il diagramma
ψ
V /V∗
O
f f∗

V /V∗
ψ

commuta per ogni isomorfismo lineare f : V → V , cioè se, per ogni v, w ∈ V si


ha
[ψ(v)](w) = [ψ(f (v))](f (w)).
In generale V e V ∗ non sono canonicamente isomorfi. Si può provare che esiste
un isomorfismo canonico ψ : V → V ∗ se e solo se siamo in uno dei due casi ([1],
pp.144-146):
i) V = K e in tal caso V ∗ = K e l’isomorfismo naturale è l’identità: x → x,
x(y) = xy, x, y ∈ K;
ii) V = Z2 × Z2 come Z2 -spazio vettoriale.
Con V ∗∗ = (V ∗ )∗ indicheremo il duale secondo o biduale di V . Un’ applicazione
lineare f : V → W induce un’applicazione lineare
f ∗∗ : V ∗∗ → W ∗∗ , [f ∗∗ (v ∗∗ )](w∗ ) = v ∗∗ (f ∗ (w∗ )), (w∗ ∈ W ∗ , v ∗∗ ∈ V ∗∗ ),
detta la mappa biduale di f .
La mappa iV : V → V ∗∗ , iV (v) = v ∗∗ dove
v ∗∗ (w∗ ) = w∗ (v), (v ∈ V, w∗ ∈ V ∗ ),
è un isomorfismo canonico: il diagramma
iV
V / V ∗∗
f f ∗∗
 
W / W ∗∗
iW

commuta per ogni coppia di spazi vettoriali V e W e per ogni applicazione lineare
f : V → W . Infatti
[(iW ◦ f )(v)](w∗ ) = [iW (f (v)] = (f (v))∗∗ (w∗ ) = w∗ (f (v))
e

[(f ∗∗ ◦ iV )(v)](w∗ ) = [(f ∗∗ (iV (v))](w∗ ) = [f ∗∗ (v ∗∗ )](w∗ )


= v ∗∗ (f ∗ (w∗ )) = (f ∗ (w∗ )(v) = w∗ (f (v)).
Gli spazi V e V ∗∗ sono cosı̀ canonicamente identificati.

4
Osservazione 1.3. Sia V uno spazio vettoriale. Si ha l’isomorfismo canonico

V ∼
= Hom(K, V ), v → αv , αv (1) = v.

Osservazione 1.4. Se V è di dimensione infinita su K non è più vero che V è


isomorfo a V ∗ e V ∗∗ . A tal proposito si veda il seguente esempio. Sia V = R[X]
lo spazio vettoriale dei polinomi a coefficienti reali. Ovviamente V ha la base
numerabile {1, X, X 2 , . . . } ma V ∗ contiene l’insieme

Φ = {φt : t ∈ R}, φt (f (X)) = f (t) ∈ R,

che è libero ma non numerabile. Sia data infatti la combinazione lineare finita

a1 φt1 + · · · + an φtn = 0

con a1 , . . . , an numeri reali e t1 , . . . , tn numeri reali distinti. I polinomi


Y
fi (X) = (X − tj ), i = 1, . . . , n
j6=i

si annullano in tj con j 6= i ma non in ti . Allora per ogni i = 1, . . . , n

0 = (a1 φt1 + · · · + an φtn )(fi (X)) = a1 fi (t1 ) + · · · + an fi (tn ) = ai fi (ti ),

quindi ai = 0 per i = 1, . . . , n.
Sia B una base di V ∗ che contiene l’insieme Φ e sia per t ∈ R
(
1 se b = φt ,
gt (b) = b ∈ B.
0 se b 6= φt ,

Estendiamo gt ad una applicazione lineare V ∗ → R che continueremo ad indicare


con gt . Il sottoinsieme
{gt ∈ V ∗∗ : t ∈ R}
è un sottinsieme libero non numerabile di V ∗∗ . Ragionando come sopra, dalla
relazione
a1 gt1 + · · · + an gtn = 0
con a1 , . . . , an numeri reali e t1 , . . . , tn numeri reali distinti, deduciamo subito

0 = (a1 gt1 + · · · + an gtn )(ϕti ) = ai , i = 1, . . . , n.

Pertanto sia V ∗ che V ∗∗ hanno basi più che numerabili e non possono essere
isomorfi a V .

5
1.2 Applicazioni multilineari
Definizione 1.5. Siano V1 , . . . , Vn , W spazi vettoriali. Un’applicazione

f : V1 × · · · × Vn → W

si dice multilineare se è lineare in ogni variabile, ossia se comunque si fissi un


intero i = 1, . . . , n e comunque si fissino, per ogni j 6= i, dei vettori vj ∈ Vj ,
l’applicazione
v ∈ Vi → f (v1 , . . . , vi−1 , v, vi+1 , . . . , vn ) ∈ W
è lineare. Se n = 1 multilineare equivale a lineare. Se n > 1 un’applicazione
lineare f : V1 × · · · × Vn → W non è multilineare a meno che f sia la mappa nulla.
Se n = 2 si usa la locuzione bilineare al posto di multilineare. Indicheremo con
ML(V1 , . . . , Vn ; W ) lo spazio vettoriale delle applicazioni multilineari

f : V1 × · · · × Vn → W.

La struttura di spazio vettoriale su K di ML(V1 , . . . , Vn ; W ) è ovvia:

(f + g)(u1 , . . . , un ) = f (u1 , . . . , un ) + g(u1 , . . . , un ),


(λf )(u1 , . . . , un ) = λf (u1 , . . . , un ).

Se n = 2, cioè nel caso bilineare, lo spazio ML(V1 , V2 ; W ) verrà indicato con


BL(V1 , V2 ; W ). Se V1 = . . . = Vn = V useremo la notazione Ln (V, W ) per indi-
care ML(V1 , . . . , Vn ; W ) e il termine n-lineare al posto di mappa multilineare.
Nel caso W = K, il campo degli scalari, useremo anche il termine forma (multi-
lineare, bilineare n-lineare) al posto di applicazione.

Osservazione 1.6. Siano V1 , . . . , Vn , W1 , . . . Wm , Z, Z 0 spazi vettoriali.

i) Siano g : Z → Z 0 un’applicazione lineare e f : V1 × · · · × Vn → Z una mappa


multilineare. Allora
g ◦ f : V1 × · · · × Vn → Z 0
è multilineare.

ii) Siano gi : Vi → Wi , i = 1, . . . , n, applicazioni lineari e f : W1 ×· · ·×Wn → Z


un’applicazione multilineare. Allora

F : V1 × · · · × Vn → Z, F (v1 , . . . , vn ) = f (g1 (v1 ), . . . , gn (vn )),

è multilineare.

6
iii) Siano fj : V1 × · · · × Vn → Wj j = 1, . . . , m, applicazioni e
F : V1 × · · · × Vn → W1 × · · · × Wm , f = (f1 , . . . , fm ).
Allora F è multilineare se e solo se fj è multilineare per j = 1, . . . , m.
Esempi 1.7. 1) Il natural pairing di V e V ∗ in K
h , i : V × V ∗ → K, hv, w∗ i = w∗ (v),
è bilineare.
2) Il prodotto righe × colonne tra matrici
(A, B) ∈ M(m, n; K) × M(n, p; K) → AB ∈ M(m, p; K)
è bilineare.
3) Il prodotto scalare in Rn
(x, y) ∈ Rn × Rn → x t y = x1 y1 + · · · xn yn ∈ R,
dove x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Rn , è bilineare.
4) Il determinante di una matrice quadrata A ∈ M(n, n; K)
n
(a1 , . . . , an ) ∈ K · · × Kn} → det(A) ∈ K
| × ·{z
n volte

è applicazione multilineare delle righe (a1 , . . . , an ) (o colonne) di A.


Proposizione 1.8 (Estensione multilineare). Siano V1 , . . . , Vn , W , spazi vet-
toriali. Sia Si = {eiji : ji ∈ Ji } una base ordinata di Vi con dim Vi = hi ,
i = 1, . . . , n. Allora ogni applicazione S1 × · · · × Sn → W si estende in un solo
modo ad un’applicazione multilineare V1 × · · · × Vn → W .
Dimostrazione. Sia f una mappa multilineare e siano
hi
X
ui = kiji eiji ∈ Vi , i = 1, . . . , n,
ji =1

dove kiji ∈ K. Dalla multilinearità segue allora


h1
X hn
X
f (u1 , . . . , un ) = ··· k1j1 k2j2 · · · knjn f (e1j1 , e2j2 , . . . , enjn ). (1.2)
j1 =1 jn =1

Poichè i coefficienti k1j1 k2j2 · · · knjn dipendono solo da u1 , . . . , un la mappa f è


completamente determinata da f (e1j1 , e2j2 , . . . , enjn ). Viceversa assegnati i vet-
tori
f (e1j1 , e2j2 , . . . , enjn ), 1 ≤ ji ≤ hi , i = 1, . . . , n,
la mappa definita dalla (1.2) è chiaramente multilineare. 

7
Osservazione 1.9. Si osservi che lo spazio vettoriale V1 × · · · × Vn ha come base
l’insieme, di cardinalità h1 + h2 + · · · + hn ,

{fiji = (0, . . . , 0, eiji , 0, . . . , 0) : 1 ≤ ji ≤ hi , i = 1, . . . , n}

che possiamo ordinare lessicograficamente ponendo fiji ≺ fkjk se i < k o se i = k


e ji < jk . Quindi per definire una mappa lineare V1 × · · · × Vn → W basta dare
le immagini di questi h1 + h2 + · · · + hn elementi. Invece per definire una mappa
multilineare V1 × · · · × Vn → W basta dare le immagini degli h1 h2 · · · hn vettori

{(e1j1 , e2j2 , . . . , enjn ) : 1 ≤ ji ≤ hi , i = 1, . . . , n}.

Osservazione 1.10. Se W = K la (1.2) diventa


h1
X hn
X
f (u1 , . . . , un ) = ··· k1j1 k2j2 · · · knjn aj1 ...jn , (1.3)
j1 =1 jn =1

dove
f (e1j1 , e2j2 , . . . , enjn ) = aj1 ...jn .
In particolare siano V1 = Kh1 , V2 = Kh2 , x = (x1 , . . . , xh1 ) ∈ V1 (dove le xi sono le
componenti di x rispetto ad una base S1 = {e1 , . . . , eh1 }) e y = (y1 , . . . , yh2 ) ∈ V2
(dove le yj sono le componenti di y rispetto ad una base S2 = {f1 , . . . , fh2 }), allora
h1 X
X h2
f (x, y) = xi yj aij = xAt y
i=1 j=1

con A = (aij ) i=1,...,h1 e aij = f (ei , fj ).


j=1,...,h2

Corollario 1.11. Siano V1 , . . . , Vn , W spazi vettoriali, allora


n
Y
dim ML(V1 , . . . , Vn ; W ) = dim W dim Vi .
i=1

Dimostrazione. Fissiamo le basi Si = {ei1 , . . . , eihi } di Vi , i = 1, . . . , n. Con-


sideriamo l’applicazione

f ∈ ML(V1 , . . . , Vn ; W ) → (f (e1j1 , . . . , enjn ))ji =1,...,hi ;i=1,...,n ∈ W


| × ·{z
· · × W} .
h1 ···hn volte

Siffatta applicazione, bigettiva per la Proposizione 1.8, è lineare e quindi è un


isomorfismo di spazi vettoriali ML(V1 , . . . , Vn ; W ) → W
| × ·{z
· · × W}. 
h1 ···hn volte

8
Osservazione 1.12. Siano V1 , . . . , Vn , W spazi vettoriali e sia Hom(V1 , . . . , Vn ; W )
lo spazio delle applicazioni lineari f : V1 × · · · × Vn → W allora

dim Hom(V1 , . . . , Vn ; W ) = (dim V1 + · · · + dim Vn ) dim W.

Definizione 1.13. Siano V1 , . . . , Vn spazi vettoriali. Dati i riferimenti (cioè le


basi ordinate) Si = {ei1 , . . . , eihi } di Vi , i = 1, . . . , n, è possibile costruire un
riferimento S per ML(V1 , . . . , Vn ; K). Per ogni n-upla (j1 , . . . , jn ), con 1 ≤ ji ≤ hi ,
i = 1, . . . , n, sia ∆j1 ,...,jn l’unico elemento di ML(V1 , . . . , Vn ; K) tale che
(
1 se (k1 , . . . , kn ) = (j1 , . . . , jn ),
∆j1 ,...,jn (e1k1 , . . . , enkn ) =
0 altrimenti.

L’insieme S = {∆j1 ,...,jn : 1 ≤ ji ≤ hi , i = 1, . . . , n} è libero poichè da


X
λ(j1 ,...,jn ) ∆j1 ,...,jn = 0
(j1 ,...,jn )

ne segue che, per ogni n-upla (k1 , . . . , kn ),


X
0= λ(j1 ,...,jn ) ∆j1 ,...,jn (e1k1 , . . . , enkn ) = λ(k1 ,...,kn ) .
(j1 ,...,jn )

Essendo #S = dim ML(V1 , . . . , Vn ; K), S è una base di ML(V1 , . . . , Vn ; K).


Ordiniamo gli elementi di S in modo lessicografico: ∆k1 ,...,kn ≺ ∆j1 ,...,jn se e
solo se k1 < j1 , oppure se k1 = j1 ma k2 < j2 , oppure se k1 = j1 e k2 = j2 ma
k3 < j3 e cosı̀ via. Il riferimento S verrà detta associato a S1 , . . . , Sn .

Osservazione 1.14. Siano V = K2 , W = K4 . Sia f : V × V → W

f ((x1 , x2 ), (y1 , y2 )) = (x1 y1 , x1 y2 , x2 y1 , x2 y2 ).

Poichè f ((1, 0), (1, 0)) = (1, 0, 0, 0), f ((1, 0), (0, 1)) = (0, 1, 0, 0), f ((0, 1), (1, 0)) =
(0, 0, 1, 0), f ((0, 1), (0, 1)) = (0, 0, 0, 1), f (V × V ) contiene una base di W ma
f (V × V ) 6= W , infatti
x1 y1 x1 y2
x2 y1 x2 y2 = 0

per ogni (x1 , x2 ) e (y1 , y2 ). Pertanto l’immagine di uno spazio vettoriale tramite
un’applicazione multilineare non è in generale uno spazio vettoriale. Inoltre
l’insieme {(v, w) ∈ V ×V : f (v, w) = 0W } non è un sottospazio di V ×V in quanto
f ((1, 1), (0, 0)) = f ((0, 0), (1, 1)) = (0, 0, 0, 0) ma f ((1, 1), (1, 1)) 6= (0, 0, 0, 0).

9
Proposizione 1.15. Siano V1 , . . . , Vn e W spazi vettoriali. Per ogni m tale che
1 ≤ m < n si ha l’isomorfismo
Ψ
ML(V1 , . . . , Vm ; ML(Vm+1 , . . . , Vn ; W )) −→ ML(V1 , . . . , Vn ; W ),
(1.4)
Φm (B)(v1 , . . . , vn ) = [B(v1 , . . . , vm )](vm+1 , . . . , vn ).

Se A ∈ ML(V1 , . . . , Vn ; W ) allora

[Φ−1
m (A)(v1 , . . . , vm )](vm+1 , . . . , vn ) = A(v1 , . . . , vn ).

In particolare si ha l’isomorfismo

Φn−1 : ML(V1 , . . . , Vn−1 ; Hom(Vn ; W )) → ML(V1 , . . . , Vn ; W ). (1.5)

da cui l’isomorfismo
Ψ
ML(V1 , . . . , Vn ; W ) −→ ML(V1 , . . . , Vn , W ∗ ; K)
(1.6)
Ψ(f )(v1 , . . . , vn , w∗ ) = w∗ (f (v1 , . . . , vn )).

Se g ∈ ML(V1 , . . . , Vn , W ∗ ; K) allora

[Ψ−1 (g)(v1 , . . . , vn )](w∗ ) = g(v1 , . . . , vn , w∗ ).

Dimostrazione. La mappa Φm è chiaramente lineare:

Φm (λB + µB 0 )(v1 , . . . , vn ) = [(λB + µB 0 )(v1 , . . . , vm )](vm+1 , . . . , vn )


= [λB(v1 , . . . , vm ) + µB 0 (v1 , . . . , vm )](vm+1 , . . . , vn )
= λ[B(v1 , . . . , vm )](vm+1 , . . . , vn ) + µ[B 0 (v1 , . . . , vm )](vm+1 , . . . , vn )
= λΦm (B)(v1 , . . . , vn ) + µΦm (B 0 )(v1 , . . . , vn ).

Inoltre Φm è iniettiva: se B 6= B 0 allora esiste una m-upla (v1 , . . . , vm ) tale che


B(v1 , . . . , vm ) 6= B 0 (v1 , . . . , vm ) e quindi

[B(v1 , . . . , vm )](vm+1 , . . . , vn ) 6= [B 0 (v1 , . . . , vm )](vm+1 , . . . , vn )

per una (n − m)-upla (vm+1 , . . . , vn ). Poichè gli spazi hanno la stessa dimensione,
Φm è un isomorfismo.
Posto L’isomorfismo (1.6) segue subito dall’isomorfismo (1.5) poichè

ML(V1 , . . . , Vn ; W ) = ML(V1 , . . . , Vn ; Hom(W ∗ : K)) ∼


= ML(V1 , . . . , Vn , W ∗ ; K)

Se f ∈ ML(V1 , . . . , Vn ; W ) allora Ψ(f )(v1 , . . . , vn , w∗ ) = [f (v1 , . . . , vn )](w∗ ) =


w∗ (f (v1 , . . . , vn )). 

10
Corollario 1.16. Siano V1 , . . . , Vn e W spazi vettoriali. Si ha un isomorfismo
canonico

Φ : Hom(V1 , Hom(V2 , . . . , Hom(Vn , W )) . . . ) → ML(V1 , . . . , Vn ; W ). (1.7)

In particolare se n = 2 si ha Φ : Hom(V1 , Hom(V2 , W )) → BL(V1 , V2 ; W ) dove

Φ(f )(v1 , v2 ) = [f (v1 )](v2 ).

Dimostrazione. Dall’isomorfismo (1.5)

Φn−1 : ML(V1 , . . . , Vn−1 ; Hom(Vn ; W )) → ML(V1 , . . . , Vn ; W ),

applicando ancora l’isomorfismo (1.5) a V1 , . . . , Vn−1 e a Hom(Vn ; W ) si ha

ML(V1 , . . . , Vn−2 ; Hom(Vn−1 , Hom(Vn ; W ))) ∼


= ML(V1 , . . . , Vn−1 ; Hom(Vn ; W ))

= ML(V1 , . . . , Vn ; W ).

Si applichi ora l’isomorfismo (1.5) a V1 , . . . , Vn−2 e a Hom(Vn−1 , Hom(Vn ; W )) e


cosı̀ via. Con n − 1 passi si ha la tesi. 
Definizione 1.17 (Algebre su un campo). Uno spazio vettoriale A su un
campo K (non necessariamente di dimensione finita) dotato di un’applicazione
bilineare m : A × A → A è detto K-algebra. Se vogliamo evidenziare la mappa
m useremo, per indicare una K-algebra, la coppia (A, m) altrimenti useremo solo
A. Chiameremo v · w = m(v, w) il prodotto di v e w. Il prodotto soddisfa allora
la proprietà distributiva (per ogni u, v e w ∈ A)

(u + v) · w = u · w + v · w, u · (v + w) = u · v + u · w,

e l’omogeneità (per ogni k ∈ K, v, w ∈ A)

(kv) · w = v · (kw) = k(v · w).

Se, per ogni u, v e w ∈ A, vale la proprietà associativa

u · (v · w) = (u · v) · w,

diremo che A è una K-algebra associativa.


Se, per ogni u, v ∈ A, vale la proprietà commutativa

u·v =v·u

diremo che A è una K-algebra commutativa.

11
Se esiste e ∈ A tale che e · v = v · e = v, per ogni v ∈ A, diremo che e è
l’unità di A (e risulta essere univocamente determinato) e che A è una K-algebra
unitaria.
Un sottospazio vettoriale B di A è una sottoalgebra di (A, m) se m(B, B) ⊂ B.
Richiediamo che una sottoalgebra di un’algebra unitaria A contenga l’unità di A.
Siano A e B due K-algebre. Un’applicazione lineare f : A → B tale che

f (a · a0 ) = f (a) · f (a0 ), ∀ a, a0 ∈ A,

si dice omomorfismo di algebre. Se A e B hanno unità eA ed eB allora richiediamo


che
f (eA ) = eB .
• Sia (A, m) una K-algebra, Ai sottospazi vettoriali di A, i = 0, 1, 2, . . . , tali che

M
A= Ai e m(Ai , Aj ) ⊂ Ai+j , i, j = 0, 1, 2, . . . .
i=0

Diremo allora che A è una K-algebra graduata. Gli elementi di Ai sono detti
omogenei di grado i. Una sottoalgebra B di (A, m) è sottoalgebra graduata di
(A, m) se

M
B= B ∩ Ai .
i=0

Siano ∞ ∞
M M
A= Ai , B= Bi
i=0 i=0

due K-algebre graduate e f : A → B un omomorfismo di algebre. Se

f (Ai ) ⊂ Bi , i = 0, 1, . . .

diremo che f è un omomorfismo di algebre graduate.


Definizione 1.18. Uno spazio vettoriale A su un campo K (non necessariamente
di dimensione finita) dotato di un’applicazione bilineare

A × A → A, (x, y) → [x, y],

tale che
i) [x, x] = 0 per ogni x ∈ A,
ii) [x, [y, z]] + [y, [z, x]] + [z, [x, y]] = 0, per ogni x, y, z ∈ A, (identità di
Jacobi),

12
è detto algebra di Lie. Se la caratteristica di K è 6= 2 la condizione i) è equivalente
a
[x, y] = −[y, x]
per ogni x, y ∈ A.
Siano A e B algebre di Lie. Una mappa lineare f : A → B è un omomorfismo di
algebre di Lie se
f ([x, y]) = [f (x), f (y)], ∀ x, y ∈ A.
Ad ogni algebra associativa A si può associare una struttura di algebra di Lie
mediante il prodotto commutatore

[x, y] = xy − yx.

Esempio 1.19. In R3 siano i = (1, 0, 0), j = 0, 1, 0) e k = (0, 0, 1). I prodotti

[x, y]1 = x ∧ y,
[x, y]2 = x ∧ y − hx ∧ y, kik

dove h , i è l’usuale prodotto scalare, rendono R3 algebra di Lie.

13
1.3 Prodotto tensoriale di spazi vettoriali
Definizione 1.20. Siano V1 , . . . , Vn spazi vettoriali. Chiameremo prodotto ten-
soriale di V1 , . . . , Vn una coppia (T, τ ) dove T è uno spazio vettoriale e τ è
un’applicazione multilineare τ : V1 × · · · × Vn → T che soddisfa la proprietà uni-
versale:

(PUT) Per ogni spazio vettoriale W e per ogni applicazione multilineare

g : V1 × · · · × Vn → W

esiste una ed una sola applicazione lineare h : T → W che rende commuta-


tivo il diagramma
V1 × · · · × Vn τ / T
g h
& 
W

Proposizione 1.21. Siano V1 , . . . , Vn spazi vettoriali, (T, τ ) e (T 0 , τ 0 ) prodotti


tensoriali di V1 , . . . , Vn allora esiste uno ed un solo isomorfismo h : T → T 0 che
rende commutativo il diagramma

V1 × · · · × Vn
τ / T
h
& 0
τ0
T

Dimostrazione. Poichè (T, τ ) e (T 0 , τ 0 ) sono prodotti tensoriali di V1 , . . . , Vn


allora esiste una ed una sola applicazione lineare h : T → T 0 tale che τ 0 = h ◦ τ
ed esiste una ed una sola applicazione lineare k : T 0 → T tale che τ = k ◦ τ 0 .
Consideriamo l’applicazione lineare k ◦ h : T → T . Si ha

(k ◦ h) ◦ τ = k ◦ (h ◦ τ ) = k ◦ τ 0 = τ.

D’altra parte l’identità idT : T → T verifica idT ◦ τ = τ , quindi per la proprietà


(PUT) si ha k ◦ h = idT . Allo stesso modo si ha h ◦ k = idT 0 e quindi h e k sono
isomorfismi uno inverso dell’altro. 

Proposizione-Definizione 1.22. Siano V1 , . . . , Vn spazi vettoriali,

T = ML(V1∗ , . . . , Vn∗ ; K), τ : V1 × · · · × Vn → T

dove
τ (v1 , . . . , vn )[(w1∗ , . . . , wn∗ )] = w1∗ (v1 )w2∗ (v2 ) · · · wn∗ (vn ).

14
Allora (T, τ ) è prodotto tensoriale di V1 , . . . , Vn che, unico a meno di isomorfismi
per la Proposizione 1.21, chiameremo il prodotto tensoriale degli spazi vettoriali
V1 , . . . , Vn e denoteremo con V1 ⊗ · · · ⊗ Vn , sottintendendo la mappa τ . Inoltre

dim V1 ⊗ · · · ⊗ Vn = (dim V1 ) · · · (dim Vn ). (1.8)

Dimostrazione. L’applicazione τ è chiaramente multilineare. Sia ora W uno


spazio vettoriale e g : V1 × · · · × Vn → W un’applicazione multilineare. Dobbiamo
provare che esiste una ed una sola applicazione lineare h : T → W tale che g =
h ◦ τ . Date le basi Si = {ei1 , . . . , eihi } di Vi , i = 1, . . . , n, e le relative basi duali
Si∗ = {e∗i1 , . . . , e∗ihi } di Vi∗ , i = 1, . . . , n, consideriamo la base

S ∗ = {∆∗j1 ,...,jn : 1 ≤ ji ≤ hi , i = 1, . . . , n}

di T associata a S1∗ , . . . , Sn∗ della Definizione 1.13 (usiamo la notazione ∆∗j1 ,...,jn
al posto ∆j1 ,...,jn della Definizione 1.13 perchè siamo in ML(V1∗ , . . . , Vn∗ ; K)). Per
ogni n-upla (j1 , . . . , jn ) si ha

τ (e1j1 , . . . , enjn )[(e∗1k1 , . . . , e∗nkn )] = e∗1k1 (e1j1 ) · · · e∗nkn (enjn )


(
1 se (k1 , . . . , kn ) = (j1 , . . . , jn ),
=
0 altrimenti.

Quindi τ (e1j1 , . . . , enjn ) = ∆∗j1 ,...,jn , per ogni n-upla (j1 , . . . , jn ), cioè

τ (S1 × · · · × Sn ) = S ∗ .

La corrispondenza S1 × · · · × Sn → S ∗ data da

(e1j1 , . . . , enjn ) → τ (e1j1 , . . . , enjn ) = ∆∗j1 ,...,jn

è ovviamente biunivoca. Poichè

h(∆∗j1 ,...,jn ) = h(τ (e1j1 , . . . , enjn )) = g(e1j1 , . . . , enjn )

per ogni n-upla (j1 , . . . , jn ) con 1 ≤ ji ≤ hi , i = 1, . . . , n, h è univocamente


determinato (dai suoi valori sulla base S ∗ di T ). Infine dal Corollario 1.11 si ha
subito la (1.8) 
Definizione 1.23. Chiameremo gli elementi di V1 ⊗· · ·⊗Vn tensori. Denoteremo
τ (v1 , . . . , vn ) con v1 ⊗ · · · ⊗ vn e lo chiameremo il prodotto tensore degli elementi
v1 , . . . , vn . I tensori della forma v1 ⊗ · · · ⊗ vn , cioè i tensori appartenenti a

τ (V1 × · · · × Vn ),

15
si dicono decomponibili; essi generano V1 × · · · × Vn , per quanto visto nella di-
mostrazione della Proposizione 1.22. Chiameremo i vettori vi ∈ Vi fattori del
tensore decomponibile v1 ⊗ · · · ⊗ vn . Gli altri tensori cioè i tensori di

V1 ⊗ · · · ⊗ Vn r τ (V1 × · · · × Vn ),

sono detti indecomponibili.


Osservazione 1.24. Dalla multilinearità dell’applicazione τ sia ha per ogni i =
1, . . . , n

v1 ⊗ · · · ⊗ (λvi0 + µvi00 ) ⊗ · · · ⊗ vn
= λ(v1 ⊗ · · · ⊗ vi0 ⊗ · · · ⊗ vn ) + µ(v1 ⊗ · · · ⊗ vi00 ⊗ · · · ⊗ vn )

con λ, µ ∈ K, v1 , . . . , vi0 , vi00 , . . . , vn vettori di V1 , . . . , Vi , Vi , . . . , Vn .


1.25 (Base di V1 ⊗ · · · ⊗ Vn ). Siano V1 , . . . , Vn spazi vettoriali, dim Vi = hi ,
Ji = {1, . . . , hi }, i = 1, . . . , n. Siano Si = {ei1 , . . . , eihi } basi ordinate di Vi ,
i = 1, . . . , n e Si∗ = {e∗i1 , . . . , e∗ihi } le rispettive basi duali. Allora, per quanto
visto nella dimostrazione della Proposizione-Definizione 1.22 e per le definizioni
sopra date, per ogni n-upla (j1 , . . . , jn ) con 1 ≤ ji ≤ hi , i = 1, . . . , n

e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn = τ (e1j1 , . . . , enjn ) = ∆∗j1 ,...,jn

e quindi

S = {e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn : 1 ≤ ji ≤ hi , i = 1, . . . , n}

è una base di V1 ⊗ · · · ⊗ Vn detta la base di V1 ⊗ · · · ⊗ Vn associata ai riferimenti


S1 , . . . , Sn . Tale base S è ordinata in modo lessicografico. Ogni tensore A ∈
V1 ⊗ · · · ⊗ Vn si scrive in un solo modo come
X
A= Aj1 ...jn e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn ,
(j1 ,...,jn )

dove
Aj1 ...jn = A(e∗1j1 , e∗2j2 , . . . , e∗njn ).
Posto h = h1 . . . hn , la h-upla

(Aj1 ...jn )(j1 ,...,jn )∈J1 ×···×Jn ,

ordinata in modo lessicografico, è la h-upla delle componenti del tensore A rispetto


ai riferimenti S1 , . . . , Sn (o al riferimento S ad essi associato). La indicheremo

16
con i simboli MS1 ,...,Sn (A) o MS (A). In particolare per un tensore decomponibile
v1 ⊗ · · · ⊗ vn dove
hi
X
vi = aiji eiji , i = 1, . . . , n,
ji =1

allora X
v1 ⊗ · · · ⊗ vn = a1j1 · · · anjn e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn .
(j1 ,...,jn )

Quindi
MS (v1 ⊗ · · · ⊗ vn ) = (a1j1 · · · anjn )(j1 ,...,jn )∈J1 ×···×Jn .
Se n = 2, S1 = {e1 , . . . , eh1 }, S2 = {f1 , . . . , fh2 }
h1
X h2
X
v1 = ai ei , v2 = bj f j ,
i=1 j=1

otteniamo
MS (v1 ⊗ v2 ) = (ai bj )i=1,...,n;j=1,...m .

Osservazione 1.26. Siano V uno spazio vettoriale e v ∈ V , v 6= 0. Allora esiste


w∗ ∈ V ∗ tale che w∗ (v) 6= 0. Basta infatti completare l’insieme {v} ad una base
B di V e definire il funzionale w∗ su B ponendo w∗ (v) 6= 0.

Lemma 1.27. Siano V1 , . . . , Vn spazi vettoriali. Allora

i) v1 ⊗ · · · ⊗ vn = 0 se e solo se vi = 0 per un i ∈ {1, . . . , n}.

ii) v1 ⊗ · · · ⊗ vn = w1 ⊗ · · · ⊗ wn con vi 6= 0 e wi 6= 0, i = 1, . . . , n, se e solo se


esistono ci ∈ K tali che vi = ci wi , i = 1, . . . , n, e
n
Y
ci = 1.
i=1

Dimostrazione. i) Se si avesse vi 6= 0 per ogni i = 1, . . . , n, per l’Osservazione


1.26 esisterebbero wi∗ ∈ Vi∗ tali che wi∗ (vi ) 6= 0 per ogni i = 1, . . . , n, cioè

τ (v1 , . . . , vn )[(w1∗ , . . . , wn∗ )] = w1∗ (v1 ) · · · wn∗ (vn ) 6= 0,

per cui v1 ⊗ · · · ⊗ vn 6= 0.
ii) La sufficienza è ovvia. Supponiamo che v1 ⊗ · · · ⊗ vn = w1 ⊗ · · · ⊗ wn e che
per un certo indice k l’insieme {vk , wk } sia libero. Allora esiste u∗k ∈ Vk∗ tale che

17
u∗k (vk ) = 0 e u∗k (wk ) = 1. Quindi scelti, per i 6= k, u∗i ∈ Vi∗ tali che u∗i (wi ) = 1 si
ha
(v1 ⊗ · · · ⊗ vn )(u∗1 , . . . , u∗k , . . . , u∗n ) = 0
e
(w1 ⊗ · · · ⊗ wn )(u∗1 , . . . , u∗k , . . . , u∗n ) = 1
che contraddice l’ipotesi. Allora esistono ci ∈ K tali che vi = ci wi , i = 1, . . . , n.
Poichè
w1 ⊗ · · · ⊗ wn = v1 ⊗ · · · ⊗ vn
= c1 w1 ⊗ · · · ⊗ cn wn
n
!
Y
= ci w 1 ⊗ · · · ⊗ w n
i=1

n
Y
Poichè w1 ⊗ · · · ⊗ wn 6= 0 allora ci = 1. 
i=1

Osservazione 1.28. 1) Se definissimo pr1 : V1 ⊗ V2 → V1 , pr1 (v1 ⊗ v2 ) = v1


daremmo una definizione mal posta, infatti pr1 (2v1 ⊗ 21 v2 ) = 2v1 ma
1
pr1 (2v1 ⊗ v2 ) = pr1 (v1 ⊗ v2 ) = v1 .
2
2) La mappa i : V → V ⊗ V , i(v) = v ⊗ v non è lineare.
Proposizione 1.29. Siano V1 , . . . , Vn , W spazi vettoriali. La mappa canonica

H : ML(V1 , . . . , Vn ; W ) → Hom(V1 ⊗ · · · ⊗ Vn , W )

che associa ad ogni mappa multilineare f : V1 × · · · × Vn → W l’unica mappa


lineare h : V1 ⊗ · · · ⊗ Vn → W tale che f = h ◦ τ , è un isomorfismo.
Dimostrazione. Poichè gli spazi hanno la stessa dimensione (Proposizione 1.11
ed Osservazione 1.12) basta osservare che la corrispondenza H è lineare e iniettiva
(se H(f 0 ) = H(f ) = h allora f 0 = h ◦ τ = f ). 
Osservazione 1.30. Si ha un isomorfismo (canonico) h : K ⊗ V → V , h(λ ⊗ v) =
λv. Infatti la mappa f : K × V → V , f (λ, v) = λv è bilineare quindi vi è una ed
una sola mappa lineare h : K ⊗ V → V tale che h(λ ⊗ v) = h(τ (λ, v)) = f (λ, v) =
λv. La mappa h è surgettiva e gli spazi hanno la stessa dimensione, quindi h è
un isomorfismo.
Proposizione 1.31. Siano V1 , . . . , Vn spazi vettoriali.

18
a) Commutatività del prodotto tensoriale. Sia p una permutazione di {1, 2, . . . , n}.
Essa induce un isomorfismo

V1 × · · · × Vn → Vp(1) × · · · × Vp(n) , (v1 , . . . , vn ) → (vp(1) , . . . , vp(n) ).

Esiste allora uno ed un solo isomorfismo

g : V1 ⊗ · · · ⊗ Vn → Vp(1) ⊗ · · · ⊗ Vp(n)

tale che per ogni n-upla (v1 , . . . , vn ) ∈ V1 × · · · × Vn si abbia

g(v1 ⊗ · · · ⊗ vn ) = vp(1) ⊗ · · · ⊗ vp(n) .

b) Associatività del prodotto tensoriale. Sia l ∈ {1, 2, . . . , n}. Esiste uno ed


un solo isomorfismo

g : (V1 ⊗ · · · ⊗ Vl ) ⊗ (Vl+1 ⊗ · · · ⊗ Vn ) → V1 ⊗ · · · ⊗ Vn

tale che per ogni n-upla (v1 , . . . , vn ) ∈ V1 × · · · × Vn si abbia

g((v1 ⊗ · · · ⊗ vl ) ⊗ (vl+1 ⊗ · · · ⊗ vn )) = v1 ⊗ · · · ⊗ vn .

Dimostrazione. a) La mappa h : V1 × · · · × Vn → Vp(1) ⊗ · · · ⊗ Vp(n) , definita da


h(v1 , . . . , vn ) = vp(1) ⊗ · · · ⊗ vp(n) , è multilineare. Per la proprietà (PUT) esiste
una ed una sola applicazione lineare

g : V1 ⊗ · · · ⊗ Vn → Vp(1) ⊗ · · · ⊗ Vp(n)

tale che h = g ◦ τ ossia tale che per ogni n-upla (v1 , . . . , vn ) ∈ V1 × · · · × Vn si


abbia

g(v1 ⊗ · · · ⊗ vn ) = g(τ (v1 , . . . , vn )) = h(v1 , . . . , vn ) = vp(1) ⊗ · · · ⊗ vp(n) .

Poichè g è surgettiva sui tensori decomponibili (ogni tensore decomponibile di


Vp(1) ⊗· · ·⊗Vp(n) è immagine tramite g di un tensore decomponibile di V1 ⊗· · ·⊗Vn )
allora g è un isomorfismo, avendo gli spazi la stessa dimensione.
b) L’applicazione h : (V1 ⊗ · · · ⊗ Vl ) × (Vl+1 ⊗ · · · ⊗ Vn ) → V1 ⊗ · · · ⊗ Vn , definita
da
h((v1 ⊗ · · · ⊗ vl ), (vl+1 ⊗ · · · ⊗ vn )) = v1 ⊗ · · · ⊗ vn ,
è bilineare. Esiste allora un’unica applicazione lineare

g : (V1 ⊗ · · · ⊗ Vl ) ⊗ (Vl+1 ⊗ · · · ⊗ Vn ) → V1 ⊗ · · · ⊗ Vn

19
tale che

g((v1 ⊗ · · · ⊗ vl ) ⊗ (vl+1 ⊗ · · · ⊗ vn )) = g(τ ((v1 ⊗ · · · ⊗ vl ), (vl+1 ⊗ · · · ⊗ vn )))


= h((v1 ⊗ · · · ⊗ vl ), (vl+1 ⊗ · · · ⊗ vn )) = v1 ⊗ · · · ⊗ vn .

Poichè g è surgettiva sui tensori decomponibili (ogni tensore decomponibile di


V1 ⊗ · · · ⊗ Vn è immagine tramite g di un tensore decomponibile di (V1 ⊗ · · · ⊗
Vl ) ⊗ (Vl+1 ⊗ · · · ⊗ Vn )) allora g è un isomorfismo, avendo gli spazi la stessa
dimensione. 

Proposizione 1.32. Siano V1 , . . . , Vn , W1 , . . . , Wn spazi vettoriali e si abbia per


ogni i = 1, . . . , n un’applicazione lineare fi : Vi → Wi .

i) Esiste una ed una sola applicazione lineare

f : V1 ⊗ · · · ⊗ Vn → W1 ⊗ · · · ⊗ Wn ,

denotata con f1 · · · fn , tale che per ogni n-upla (v1 , . . . , vn ) ∈ V1 ×· · ·×Vn


si abbia

f1 · · · fn (v1 ⊗ · · · ⊗ vn ) = f1 (v1 ) ⊗ · · · ⊗ fn (vn ).

ii) Se Vi = Wi , i = 1, . . . , n allora

idV1 ⊗···⊗Vn = idV1 · · · idVn .

iii) Se Z1 , . . . , Zn sono spazi vettoriali e gi : Wi → Zi sono mappe lineari allora

(g1 · · · gn ) ◦ (f1 · · · fn ) = (g1 ◦ f1 ) · · · (gn ◦ fn ).

In particolare f1 · · · fn è isomorfismo se e solo se fi è isomorfismo, i = 1, . . . , n.

Dimostrazione. i) La mappa h : V1 × · · · × Vn → W1 ⊗ · · · ⊗ Wn definita da

h(v1 , . . . , vn ) = f1 (v1 ) ⊗ · · · ⊗ fn (vn )

è chiaramente multilineare. Esiste quindi un’unica mappa lineare

f : V1 ⊗ · · · ⊗ Vn → W1 ⊗ · · · ⊗ Wn

tale che

f (v1 ⊗ · · · ⊗ vn ) = f (τ (v1 , . . . , vn )) = h(v1 , . . . , vn ) = f1 (v1 ) ⊗ · · · ⊗ fn (vn ).

20
ii) Immediato.
iii) Per i) esiste un’unica mappa lineare

V1 ⊗ · · · ⊗ Vn → Z1 ⊗ · · · ⊗ Zn ,

tale che

(g1 ◦ f1 ) · · · (gn ◦ fn )(v1 ⊗ · · · ⊗ vn ) = g1 (f1 (v1 )) ⊗ · · · ⊗ gn (fn (vn )).

D’altronde

[(g1 · · · gn )◦(f1 · · · fn )](v1 ⊗· · ·⊗vn ) = (g1 · · · gn )(f1 (v1 )⊗· · ·⊗fn (vn ))
= g1 (f1 (v1 )) ⊗ · · · ⊗ gn (fn (vn )).

Da ii) e iii) si ha subito che se fi è isomorfismo, i = 1, . . . , n, allora

(f1−1 ) · · · (fn−1 ) = (f1 · · · fn )−1 .

Viceversa sia f1 · · · fn un isomorfismo. Se vi 6= 0, 1 ≤ i ≤ n, allora

f1 (v1 ) ⊗ · · · ⊗ fn (vn ) = f1 · · · fn (v1 ⊗ · · · ⊗ vn ) 6= 0

quindi, per il Lemma 1.27, fi (vi ) 6= 0, 1 ≤ i ≤ n, per cui fi è iniettiva, 1 ≤ i ≤ n.


Quindi dim Vi ≤ dim Wi , 1 ≤ i ≤ n. Poichè f1 · · · fn è un isomorfismo.
n
Y n
Y
dim V1 ⊗ · · · ⊗ Vn = dim Vi = dim W1 ⊗ · · · ⊗ Wn = dim Wi
i=1 i=1

allora dim Vi = dim Wi , 1 ≤ i ≤ n, e fi è surgettiva, 1 ≤ i ≤ n. 

Proposizione 1.33. Siano V1 , . . . , Vn , W1 , . . . , Wn spazi vettoriali e si abbia per


ogni i = 1, . . . , n un’applicazione lineare fi : Vi → Wi . Esiste allora uno ed un
solo isomorfismo

Φ : Hom(V1 , W1 ) ⊗ · · · ⊗ Hom(Vn , Wn ) → Hom(V1 ⊗ · · · ⊗ Vn , W1 ⊗ · · · ⊗ Wn ),

tale che
Φ(f1 ⊗ · · · ⊗ fn ) = f1 · · · fn .
Pertanto chiameremo f1 · · · fn prodotto tensoriale di f1 , . . . , fn e lo indicher-
emo con f1 ⊗ · · · ⊗ fn .

21
Dimostrazione. La mappa
Ψ : Hom(V1 , W1 ) × · · · × Hom(Vn , Wn ) → Hom(V1 ⊗ · · · ⊗ Vn , W1 ⊗ · · · ⊗ Wn ),
definita da
Ψ(f1 , . . . , fn ) = f1 · · · fn ,
è chiaramente multilineare. Pertanto esiste una ed una sola mappa lineare
Φ : Hom(V1 , W1 ) ⊗ · · · ⊗ Hom(Vn , Wn ) → Hom(V1 ⊗ · · · ⊗ Vn , W1 ⊗ · · · ⊗ Wn ),
tale che
Φ(f1 ⊗ · · · ⊗ fn ) = f1 · · · fn .
Per dimostrare che Φ è un isomorfismo basta mostrare che è surgettivo dato che
gli spazi hanno la stessa dimensione. Siano Si = {ei1 , . . . , eihi } basi ordinate di
Vi , i = 1, . . . , n e siano Ri = {fi1 , . . . , fiki } basi ordinate di Wi , i = 1, . . . , n. Sia
f ∈ Hom(V1 ⊗ · · · ⊗ Vn , W1 ⊗ · · · ⊗ Wn ), allora avremo
X
f (e1j1 ⊗ · · · ⊗ enjn ) = c(l1 ,...,ln ),(j1 ,...,jn ) f1l1 ⊗ · · · ⊗ fnln ,
(l1 ,...,ln )

i
dove 1 ≤ ji ≤ hi , 1 ≤ li ≤ ki , 1 ≤ i ≤ n. Definiamo fjr : Vi → Wi ,
i
fjr (eit ) = δjt fir , 1 ≤ j, t ≤ hi , 1 ≤ r ≤ ki , 1 ≤ i ≤ n,
estendendo per linearità. Posto
X
g= c(l1 ,...,ln ),(t1 ,...,tn ) ft11 l1 · · · ftnn ln ∈ Im Φ.
(l1 ,...,ln )
(t1 ,...,tn )

Infatti

g(e1j1 ⊗ · · · ⊗ enjn )
X
= c(l1 ,...,ln ),(t1 ,...,tn ) ft11 l1 · · · ftnn ln (e1j1 ⊗ · · · ⊗ enjn )
(l1 ,...,ln )
(t1 ,...,tn )
X
= c(l1 ,...,ln ),(t1 ,...,tn ) ft11 l1 (e1j1 ) ⊗ · · · ⊗ ft1n ln (enjn )
(l1 ,...,ln )
(t1 ,...,tn )
X
= c(l1 ,...,ln ),(t1 ,...,tn ) δt1 j1 f1l1 ⊗ · · · ⊗ δtn jn fnln
(l1 ,...,ln )
(t1 ,...,tn )
X
= c(l1 ,...,ln ),(j1 ,...,jn ) f1l1 ⊗ · · · ⊗ fnln = f (e1j1 ⊗ · · · ⊗ enjn ).
(l1 ,...,ln )

Quindi f = g e la tesi è provata. 

22
Definizione 1.34 (Prodotto di Kronecker di matrici). Sia
(p)
Mp = (aij ) 1≤i≤kp
1≤j≤np

una matrice kp × np , p = 1, . . . , m. Il prodotto di Kronecker M1 ⊗ · · · ⊗ Mm è una


m
Y Ym
matrice kp × np le cui righe sono indiciate sull’insieme {(i1 , . . . , im ) : 1 ≤
p=1 p=1
ip ≤ kp , p = 1, . . . , m} e le cui colonne sono indiciate sull’insieme {(j1 , . . . , jm ) :
1 ≤ jp ≤ np , p = 1, . . . , m}, entrambi ordinati lessicograficamente. L’entrata
((i1 , . . . , im ), (j1 , . . . , jm )) è
m
Y (p)
α((i1 ,...,im ),(j1 ,...,jm )) = aip jp . (1.9)
p=1

Esempio 1.35. Se A = (aij ) è una matrice p × q e B = (brs ) è una matrice m × n


allora l’entrata ((i, r), (j, s)) di A ⊗ B (che è matrice pm × qn) è aij brs e si ha
 
a11 B . . . a1q B
A ⊗ B =  ... .. ..  . (1.10)

. . 
ap1 B . . . apq B

Verifichiamo la (1.10) per le matrici


   
a11 a12 b11 b12
A= , B= .
a21 a22 b21 b22

Dalla (1.9) si ha subito

α((1,1),(1,1)) = a11 b11 α((1,1),(1,2)) = a11 b12 α((1,1),(2,1)) = a12 b11 α((1,1),(2,2)) = a12 b12
α((1,2),(1,1)) = a11 b21 α((1,2),(1,2)) = a11 b22 α((1,2),(2,1)) = a12 b21 α((1,2),(2,2)) = a12 b22
α((2,1),(1,1)) = a21 b11 α((2,1),(1,2)) = a21 b12 α((2,1),(2,1)) = a22 b11 α((2,1),(2,2)) = a22 b12
α((2,2),(1,1)) = a21 b21 α((2,2),(1,2)) = a21 b22 α((2,2),(2,1)) = a22 b21 α((2,2),(2,2)) = a22 b22

cioè
    
b11 b12 b b12
a11 b11 a11 b12 a12 b11 a12 b12 a a12 11
 11 b21 b22 b21 b22 
a b a11 b22 a12 b21 a12 b22  
A ⊗ B = 11 21 =   .

a21 b11 a21 b12 a22 b11 a22 b12  b b12 b b12 
a21 11 a22 11
a21 b21 a21 b22 a22 b21 a22 b22 b21 b22 b21 b22

23
Se    
2 1 4 3
A= , B= ,
3 4 1 5
allora
   4 3

4

3

8 6 4 3 2
 2 10 1 5   1 5 1 5 
A⊗B = =  .
   
12 9 16 12  4 3 4 3 
3 4
3 15 4 20 1 5 1 5

Osservazione 1.36. Se A = (aij ) è una matrice n × n e B = (brs ) è una matrice


m × m allora

det(A ⊗ B) = (det A)m (det B)n , tr(A ⊗ B) = tr(A)tr(B).

Se indichiamo con rk(M ) il rango di una matrice M allora

rk(A ⊗ B) = rk(A) rk(B).

Si consulti a proposito [2], pp. 8-9, 14, 18, 28.


Proposizione 1.37. Siano V1 , . . . , Vn , W1 , . . . , Wn spazi vettoriali, dim Vi = hi e
dim Wi = ki , 1 = 1, . . . , n. Siano gi : Vi → Wi , i = 1, . . . , n, applicazioni lineari.
Siano Si = {ei1 , . . . , eihi } basi ordinate di Vi , i = 1, . . . , n, e sia

S = {e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn : 1 ≤ ji ≤ hi , i = 1, . . . , n}

la base di V1 ⊗ · · · ⊗ Vn associata ai riferimenti S1 , . . . , Sn (ordinata in modo


lessicografico). Siano Ri = {fi1 , . . . , fiki } basi ordinate di Wi , i = 1, . . . , n, e sia

R = {f1l1 ⊗ f2l2 ⊗ · · · ⊗ fnln : 1 ≤ li ≤ ki , i = 1, . . . , n}

la base di W1 ⊗ · · · ⊗ Wn associata ai riferimenti R1 , . . . , Rn (ordinata in modo


lessicografico). Siano
(i)
Mi = MRi ,Si (gi ) = (ali ji ) 1≤li ≤ki , i = 1, . . . , n,
1≤ji ≤hi

le matrici associate alle mappe gi rispetto alle basi Si e Ri . Allora

MR,S (g1 ⊗ · · · ⊗ gn ) = M1 ⊗ · · · ⊗ Mn .

Quindi se X
A= A(j1 ,...,jn ) e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn
(j1 ,...,jn )

24
e X
g1 ⊗ · · · ⊗ gn (A) = B(l1 ,...,ln ) f1l1 ⊗ · · · ⊗ fnln
(l1 ,...,ln )

allora X (1) (n)


B(l1 ,...,ln ) = A(j1 ,...,jn ) al1 j1 · · · aln jn .
(j1 ,...,jn )

Dimostrazione. Poichè
ki
X (i)
gi (eiji ) = ali ji fili , 1 ≤ ji ≤ hi ,
li =1

si ha
(g1 ⊗ · · · ⊗ gn )(e1j1 ⊗ · · · ⊗ enjn ) = g1 (e1j1 ) ⊗ · · · ⊗ gn (enjn )
k1
! kn
!
X (1)
X (n)
= al1 j1 f1l1 ⊗ · · · ⊗ aln jn fnln
l1 =1 ln =1
k1
X kn
X (1) (n)
= ··· al1 j1 · · · aln jn f1l1 ⊗ · · · ⊗ fnln
l1 =1 ln =1

n
Y (i)
L’entrata ((l1 , . . . , ln ), (j1 , . . . , in )) di MR,S (g1 ⊗ · · · ⊗ gn ) è quindi ali ji da cui
i=1
la tesi. 
1.38 (Cambiamento di base). Tutto quello che segue è un caso particolare
della Proposizione 1.37 (Vi = Wi e fi = idVi , i = 1, . . . , n). Lo ripetiamo per
comodità del Lettore.
Siano V1 , . . . , Vn spazi vettoriali, dim Vi = hi , Ji = {1, . . . , hi }, i = 1, . . . , n.
Siano Si = {ei1 , . . . , eihi } basi ordinate di Vi , i = 1, . . . , n, e sia

S = {e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn : 1 ≤ ji ≤ hi , i = 1, . . . , n}

la base di V1 ⊗ · · · ⊗ Vn associata ai riferimenti S1 , . . . , Sn (ordinata in modo


lessicografico). Ogni tensore A ∈ V1 ⊗ · · · ⊗ Vn si scrive in un solo modo come
X
A= Aj1 ...jn e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn .
(j1 ,...,jn )

Si abbiano, per ogni i = 1, . . . , n, altri riferimenti Si0 = {e0i1 , . . . , e0ihi } di Vi e sia


(i)
M(i) = MSi0 ,Si = (aji ki )ji ,ki ∈Ji

25
la matrice hi × hi di passaggio dal riferimento Si al riferimento Si0 , per cui per
ogni ki ∈ {1, . . . , hi } e i = 1, . . . , n si ha
hi
X (i)
eiki = aji ki e0iji .
ji =1

Allora X (1) (n)


e1k1 ⊗ · · · ⊗ enkn = aj1 k1 · · · ajn kn e01j1 ⊗ · · · ⊗ e0njn .
(j1 ,...,jn )

Quindi la matrice di passaggio dal riferimento S al riferimento S 0 è


(1) (n)
MS 0 ,S = (aj1 k1 · · · ajn kn )(j1 ,...,jn ),(k1 ,...,kn )∈J1 ×···×Jn = M(1) ⊗ · · · ⊗ M(n) .
Quindi si ha
X
A= A0j1 ...jn e01j1 ⊗ e02j2 ⊗ · · · ⊗ e0njn
(j1 ,...,jn )
X
= Ak1 ...kn e1k1 ⊗ e2k2 ⊗ · · · ⊗ enkn
(k1 ,...,kn )
 
X X (1) (n)
= Ak1 ...kn  aj1 k1 · · · ajn kn e01j1 ⊗ · · · ⊗ e0njn 
(k1 ,...,kn ) (j1 ,...,jn )
 
X X (1) (n)
=  Ak1 ...kn aj1 k1 · · · ajn kn  e01j1 ⊗ · · · ⊗ e0njn .
(j1 ,...,jn ) (k1 ,...,kn )

Pertanto X (1) (n)


A0j1 ...jn = aj1 k1 · · · ajn kn Ak1 ...kn . (1.11)
(k1 ,...,kn )

La (1.11) altro non è che il prodotto tra la riga (j1 . . . jn ) della matrice MS 0 ,S con
la colonna (Ak1 ...kn )(k1 ,...,kn )∈J1 ×···×Jn .
Corollario della Proposizione 1.33 è la proposizione seguente (di cui diamo
una dimostrazione ad hoc).
Proposizione 1.39. Siano V1 , . . . , Vn spazi vettoriali. Allora esiste uno ed un
solo isomorfismo
g : V1∗ ⊗ · · · ⊗ Vn∗ → (V1 ⊗ · · · ⊗ Vn )∗
tale che, per ogni v1∗ ⊗· · ·⊗vn∗ ∈ V1∗ ⊗· · ·⊗Vn∗ e per ogni w1 ⊗· · ·⊗wn ∈ V1 ⊗· · ·⊗Vn
si ha
(g(v1∗ ⊗ · · · ⊗ vn∗ ))(w1 ⊗ · · · ⊗ wn ) = v1∗ (w1 ) · · · vn∗ (wn ).

26
Dimostrazione. Data la n-upla (v1∗ , . . . , vn∗ ) ∈ V1∗ × · · · × Vn∗ resta definita
l’applicazione multilineare

h : V1 × · · · × Vn → K, h(w1 , . . . , wn ) = v1∗ (w1 ) · · · vn∗ (wn ).

Per a proprietà (PUT), esiste una ed una sola applicazione lineare

γ(v1∗ ,...,vn∗ ) : V1 ⊗ · · · ⊗ Vn → K

tale che per ogni n-upla (w1 , . . . , wn ) ∈ V1 × · · · × Vn si abbia

γ(v1∗ ,...,vn∗ ) (w1 ⊗ · · · ⊗ wn ) = γ(v1∗ ,...,vn∗ ) (τ (w1 , . . . , wn )) = h(w1 , . . . , wn )


= v1∗ (w1 ) · · · vn∗ (wn ).

È definita pertanto la mappa

(v1∗ , . . . , vn∗ ) ∈ V1∗ × · · · × Vn∗ → γ(v1∗ ,...,vn∗ ) ∈ (V1 ⊗ · · · ⊗ Vn )∗

che è multilineare. Pertanto esiste una ed una sola applicazione lineare

g : V1∗ ⊗ · · · ⊗ Vn∗ → (V1 ⊗ · · · ⊗ Vn )∗

tale che
g(v1∗ ⊗ · · · ⊗ vn∗ ) = γ(v1∗ ,...,vn∗ ) .
Poichè gli spazi V1∗ ⊗ · · · ⊗ Vn∗ e (V1 ⊗ · · · ⊗ Vn )∗ hanno la stessa dimensione basta
far vedere che g è surgettiva. Se Si = {ei1 , . . . , eihi } sono basi di Vi , i = 1, . . . , n,
e Si∗ = {e∗i1 , . . . , e∗ihi } le relative basi duali, allora per ogni n-upla (j1 , . . . , jn ) e
per ogni n-upla (k1 , . . . , kn ) con 1 ≤ ji ≤ hi , 1 ≤ ki ≤ hi , i = 1, . . . , n
(
1 se (j1 , . . . , jn ) = (k1 , . . . , kn )
(g(e∗1j1 ⊗e∗2j2 ⊗· · ·⊗e∗njn ))(e1k1 ⊗e2k2 ⊗· · ·⊗enkn ) =
0 altrimenti.

Quindi l’immagine di g contiene la base (di (V1 ⊗ · · · ⊗ Vn )∗ ) duale della base

{e1k1 ⊗ e2k2 ⊗ · · · ⊗ enkn : 1 ≤ ki ≤ hi , i = 1, . . . , n}

di V1 ⊗ · · · ⊗ Vn . 

Proposizione 1.40. Siano V e W spazi vettoriali. Esiste uno ed un solo iso-


morfismo
G : V ∗ ⊗ W → Hom(V, W ) (1.12)

27
tale che, per ogni v ∗ ⊗ w ∈ V ∗ × W , G(v ∗ ⊗ w) : V → W sia l’applicazione lineare
cosı̀ definita
(G(v ∗ ⊗ w))(u) = v ∗ (u)w, u ∈ V.
Se n X
m
X

v ⊗w = tij e∗i ⊗ fj ,
i=1 j=1

dove E = {e1 , . . . , en } è una base di V , E ∗ = {e∗1 , . . . , e∗n } la corrispondente base


duale e F = {f1 , . . . , fm } una base di W , allora
MF ,E (G(v ∗ ⊗ w)) = t ME ∗ ,F (v ∗ ⊗ w),
dove ME ∗ ,F (v ∗ ⊗ w) = (tij )1≤i≤n;1≤j≤m , e MF ,E (G(v ∗ ⊗ w)) è la matrice associata
alla mappa lineare G(v ∗ ⊗ w) rispetto alle basi E e F.
Dimostrazione. Dall’isomorfismo (1.6) si ha
Ψ
→ ML(V, W ∗ ; K) = V ∗ ⊗ W.
Hom(V, W ) −
Se f ∈ Hom(V, W ), f (u) = v ∗ (u)w, si ha, per ogni u ∈ V e τ ∗ ∈ W ∗ ,

Ψ(f )(u, τ ∗ ) = τ ∗ (f (u)) = τ ∗ (v ∗ (u)w) = v ∗ (u)τ ∗ (w)


= u(v ∗ )τ ∗ (w) = (v ∗ ⊗ w)(u, τ ∗ )
per cui G = Ψ−1 .
Diamo comunque una dimostrazione diretta della proposizione. L’applicazione
(v , w) ∈ V ∗ × W → γ ∈ Hom(V, W ) dove γ : V → W è cosı̀ definita

γ(u) = v ∗ (u)w, u ∈ V,
è bilineare. Per la proprietà (PUT), esiste una ed una sola applicazione lineare
G : V ∗ ⊗ W → Hom(V, W )
tale che (G(v ∗ ⊗ w))(u) = γ(u) per ogni u ∈ V . Prese le basi S = {e1 , . . . , en }
di V , S ∗ = {e∗1 , . . . , e∗n } di V ∗ e R = {f1 , . . . , fm } di W , la mappa G trasforma
e∗i ⊗ fj nella mappa lineare γij : V → W tale che
γij (ek ) = e∗i (ek )fj = δik fj .
Quindi la matrice di γij relativa alle basi S e R è una matrice m × n avente 1 al
posto ji e 0 altrove. Tali matrici costituiscono una base per M(m, n; K) e quindi
γij è una base per Hom(V, W ) cosı̀ che G è un isomorfismo. Siano
m
X n
X

w= λj fj , v = µi e∗i , µi = v ∗ (ei ),
j=1 i=1

28
allora
tij = µi λj
e per h = 1, . . . , n
m
X m
X m
X
(G(v ∗ ⊗ w))(eh ) = v ∗ (eh ) λj fj = µh λj f j = thj fj ,
j=1 j=1 j=1

da cui la tesi. 

Osservazione 1.41. Se nella Proposizione 1.40 prendiamo W = V abbiamo


l’isomorfismo canonico

G : V ∗ ⊗ V → Hom(V, V ), (G(v ∗ ⊗ w))(u) = v ∗ (u)w, u ∈ V. (1.13)

Alla mappa identica idV : V → V corrisponde in V ∗ ⊗ V l’elemento


n
X
e∗i ⊗ ei
i=1

dove {ei } e {e∗i } sono una coppia di basi duali in V e V ∗ . Cosı̀ la formula di idV
ha la stessa forma rispetto a tutte le coppie di basi duali.

Osservazione 1.42. Siano V1 , . . . , Vn e W spazi vettoriali. Allora per il Corol-


lario 1.16 e la Preposizione 1.29 abbiamo gli isomorfismi

Hom(V1 , Hom(V2 , . . . , Hom(Vn , W )) . . . ) . . . ) ∼


= ML(V1 , . . . , Vn ; W )

= Hom(V1 ⊗ · · · ⊗ Vn , W ). (1.14)

In particolare se U , V e W sono spazi vettoriali, si hanno gli unici isomorfismi


canonici
BL(U, V ; W )
K / Hom(U, Hom(V, W ))
3
H

Hom(U ⊗ V, W )
dove K(f )(u)[v] = f (u, v) per u ∈ U e v ∈ V e H(f ) = h dove h : U ⊗ V → W è
l’unica mappa lineare tale che f = h ◦ τ .

29
2 L’algebra tensoriale di uno spazio vettoriale
Definizione 2.1. Sia V uno spazio vettoriale. Chiameremo
Or

| ⊗ ·{z
(V ) = V · · ⊗ V} ⊗ V · · ⊗ V }∗ ,
| ⊗ ·{z
s
r volte s volte

lo spazio vettoriale dei tensori di tipo (r, s) su V o degli (r, s)-tensori su V . Per-
tanto un tensore di tipo (r, s) su V , con r e s interi non negativi, è un’applicazione
multilineare
l : |V ∗ × ·{z
· · × V }∗ × V
| × ·{z
· · × V} → K.
r volte s volte
Un tensore di tipo (0, 0) è semplicemente uno scalare. L’intero r è il grado di
controvarianza, l’intero s è il grado di covarianza. Un tensore di tipo (r, 0) è
detto anche r-tensore controvariante; uno di tipo (0, s), s-tensore covariante.
Pertanto O0 O1
(V ) = V ∗ , (V ) = V.
1 0

Per convenzione poniamo 00 (V ) = K. Si hanno i seguenti isomorfismi canonici


N
Or Or O0
(V ) ∼
= (V ) ⊗ (V )
s 0 s

e, per le Proposizioni 1.39 e 1.31-a),


O r ∗ O s
(V ) ∼= (V ).
s r

Notazioni. D’ora
N innanzi utilizzeremo la seguente notazione per i tensori de-
componibili di rs (V )
v1 ⊗ · · · ⊗ vr ⊗ w 1 ⊗ · · · ⊗ w s
dove l’indice in basso indica l’appartenenza a V mentre quello in alto a V ∗ . In
particolare se E = {e1 , . . . , en } è una base di VNindicheremo con E ∗ = {ε1 , . . . , εn }
la sua base duale in V ∗ . Quindi una base di rs (V ) sarà indicata con
Esr = {ei1 ⊗ · · · ⊗ eir ⊗ εj1 ⊗ · · · ⊗ εjs : 1 ≤ ik , jl ≤ n, 1 ≤ k ≤ r, 1 ≤ l ≤ s}.
n
X
N1
In particolare se v ∈ V = 0 (V ) allora scriveremo v = λi ei mentre se v ∗ ∈
i=1
n
X
N0 Nr
V∗ = 1 (V ) scriveremo v ∗ = µi εi . Quindi scriveremo per A ∈ s (V )
i=1
X
A= Aji11,...,i j1 js
,...,js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε ,
r

(i1 ,...,ir )
(j1 ,...,js )

30
dove
Aij11,...,i r i1 ir
,...,js = A(ε , . . . , ε ; ej1 , . . . , ejs ).

Osservazione 2.2 (Notazione posizionale). Volendo considerare prodotti ten-


soriali in cui V e V ∗ sono mischiati, ad esempio V ∗ ⊗ V ⊗ V ∗ e volendo man-
tenere l’ordine in cui compaiono V e V ∗ è opportuno usare una notazione po-
sizionale. Se A ∈ V ∗ ⊗ V ⊗ V ∗ scriveremo, rispetto alle basi E = {e1 , . . . , en } e
E ∗ = {ε1 , . . . , εn }, X
A= Aj i k εj ⊗ ei ⊗ εk .
j,i,k

Se A ∈ V ⊗ V allora X
A= Aj i εj ⊗ ei .
j,i

Scriveremo anche
Or

(V ) = V · · ⊗ V }∗ ⊗ V
| ⊗ ·{z | ⊗ ·{z
· · ⊗ V},
s
s volte r volte

Siano A ∈ rs (V ) e B ∈ tu (V ) allora definiamo il prodotto


N N
Definizione 2.3.
Nr+t
tensore A⊗B ∈ s+u (V ) come la mappa multilineare A⊗B : (V ∗ )r+t ×V s+u → K

(A ⊗ B)(τ 1 , . . . , τ r+t ; v1 , . . . , vs+u )


= A(τ 1 , . . . , τ r ; v1 , . . . , vs )B(τ r+1 , . . . , τ r+t ; vs+1 , . . . , vs+u ). (2.1)

• Seguendo la convenzione di indicare prima i vettori di V (controvarianti) e poi


quelli di V ∗ (covarianti), se v1 , . . . , vr , w1 , . . . , wt ∈ V e τ 1 , . . . , τ s , σ 1 , . . . , σ u ∈ V ∗
e se

A = v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ τ s ,
B = w1 ⊗ · · · ⊗ wt ⊗ σ 1 ⊗ · · · ⊗ σ u ,

allora

A ⊗ B = v1 ⊗ · · · ⊗ vr ⊗ w1 ⊗ · · · ⊗ wt ⊗ τ 1 ⊗ · · · ⊗ τ s ⊗ σ 1 ⊗ · · · ⊗ σ u .

Quindi se A = τ 1 ⊗ · · · ⊗ τ s ∈ 0s (V ) e B = v1 ⊗ · · · ⊗ vr ∈ r0 (V ) allora
N N

A ⊗ B = v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ τ s = B ⊗ A

31
poichè τ 1 ⊗ · · · ⊗ τ s ⊗ v1 ⊗ · · · ⊗ vr non è coerente con le nostre convenzioni. In
particolare se, rispetto alla base Esr , si ha
X
A = Aij11,...,i j1 js
,...,js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε ,
r

(i1 ,...,ir )
(j1 ,...,js )
X
B = Bhk11 ,...,h
,...,kt
e ⊗ · · · ⊗ ekt ⊗ εh1 ⊗ · · · ⊗ εhu ,
u k1
(k1 ,...,kt )
(h1 ,...,hu )

allora

A⊗B =
X
A⊗Bji11 ,...,j
,...,ir ,k1 ,...,kt
e ⊗· · ·⊗eir ⊗ek1 ⊗· · ·⊗ekt ⊗εj1 ⊗· · ·⊗εjs ⊗εh1 ⊗· · ·⊗εhu
s ,h1 ,...,hu i1
(i1 ,...,ir ,k1 ,...,kt )
(j1 ,...,js ,h1 ,...,hu )

dove
A ⊗ Bji11 ,...,j
,...,ir ,k1 ,...,kt
s ,h1 ,...,hu
= Aji11,...,i r k1 ,...,kt
,...,js Bh1 ,...,hu .

Si ha quindi l’isomorfismo canonico


Or Ot Or+t
(V ) ⊗ (V ) ∼
= (V ).
s u s+u

Sia ([4] pp. 17-25)


O M Or
(V ) = (V )
s
r,s≥0

= K ⊕ V ⊕ V ∗ ⊕ (V ⊗ V ) ⊕ (V ⊗ V ∗ ) ⊕ (V ∗ ⊗ V ∗ ) ⊕ · · ·
N
Lo spazio vettoriale (V ) è ovviamente di dimensione infinita.
Proposizione
Nr N2.4.
t Nl tensore gode delle seguenti proprietà. Siano A ∈
Il prodotto
s (V ), B ∈ u (V ) e C ∈ m (V ), allora

i) (A ⊗ B) ⊗ C = A ⊗ (B ⊗ C): proprietà associativita;

ii) (λA) ⊗ B = A ⊗ (λB) = λ(A ⊗ B), per ogni λ ∈ K.


Siano A ∈ rs (V ), B ∈ rs (V ) e C ∈ lm (V ), allora
N N N

iii) (A + B) ⊗ C = A ⊗ C + B ⊗ C: proprietà distributiva.


Siano A ∈ rs (V ), B ∈ lm (V ) e C ∈ lm (V ), allora
N N N

32
iv) A ⊗ (B + C) = A ⊗ B + A ⊗ C: proprietà distributiva;
N
Pertanto (V ), dotata N0del prodotto tensore, diventa un’algebra graduata associa-
tiva con identità 1 ∈ 0 (V ) = K.
Dimostrazione. Immediata dalla Definizione 2.3. 
Osservazione 2.5. In generale A ⊗ B 6= B ⊗ A: in 20 (V ) si ha u ⊗ v 6= v ⊗ u
N
se e solo se u, v ∈ V sono linearmente indipendenti per il Lemma 1.27.
N
Definizione 2.6. Sia VNuno spazio vettoriale. Chiameremo (V ) l’algebra ten-
soriale di V . Ogni t ∈ (V ) si scrive pertanto in modo unico nella forma
X Or
t= trs , trs ∈ (V ).
s

Sue sottoalgebre graduate sono


O• M Or O M O0
(V ) = (V ), (V ) = (V ),
0 • s≥0 s
r≥0

dette rispettivamente l’algebra tensoriale controvariante


N e algebra tensoriale co-
variante di V . N
Osserviamo esplicitamente
N che (V ) è generata come algebra da
∗ • ∗
V ∪ V ∪ {1}, (V ) da V ∪ {1} e • (V ) da V ∪ {1}.
N1 N1 ∗
Esempio 2.7 (Interpretazioni di 1 (V )). Sia A ∈ 1 (V ) = V ⊗ V =

BL(V , V ; K) X
A= Aij ei ⊗ εj , Aij = A(εi , ej ).
i,j

• Ad A associamo l’omomorfismo
A1 : V ∗ → V ∗ , v ∗ → A1 (v ∗ ), A1 (v ∗ )(u) = A(v ∗ , u), ∀ u ∈ V.
Si ha quindi l’isomorfismo
O1
A → A1 , (V ) ∼
= Hom(V ∗ , V ∗ ).
1

Tale isomorfismo coincide con l’isomorfismo G della Proposizione 1.40 prendendo


W = V ∗ e identificando V con V ∗∗ ,
V ⊗V∗ ∼
= Hom(V ∗ , V ∗ ), u ⊗ w∗ → f, f (v ∗ ) = u(v ∗ )w∗ = v ∗ (u)w∗ . (2.2)
Consideriamo la matrice (Aij ) dove l’indice delle righe è i e j è quello delle colonne.
Sia B = (bkl ) la matrice associata a A1 rispetto alla base E ∗ di V ∗ , allora
n
X
i
A1 (ε ) = bik εk
k=1

33
quindi Aij = A(εi , ej ) = A1 (εi )(ej ) = bij = bji , pertanto

B = ME ∗ ,E ∗ (A1 ) = t (Aij ).

• Ad A associamo l’omomorfismo

A2 : V → V, u → A2 (u), A2 (u)(v ∗ ) = A(v ∗ , u), ∀ v∗ ∈ V ∗.

Si ha quindi l’isomorfismo
O1
A → A2 , (V ) ∼
= Hom(V, V ).
1

Tale isomorfismo si ottiene componendo l’isomorfismo G (l’isomorfismo (1.12))


con l’isomorfismo canonico V ⊗ V ∗ ∼
= V∗⊗V,

V ⊗V∗ ∼
= Hom(V, V ), w ⊗ v ∗ → f, f (u) = v ∗ (u)w, u ∈ V. (2.3)

Sia C = (ckl ) la matrice associata a A2 rispetto alla base E di V , allora


n
X
A2 (ej ) = ckj ek
k=1

quindi Aij = A(εi , ej ) = A2 (ej )(εi ) = cij = cij , pertanto (cfr. Proposizione 1.40)

C = ME,E (A2 ) = (Aij ).

• Combinando l’isomorfismo (2.2) con l’isomorfismo V ⊗ V ∗ ∼


= V ∗ ⊗ V , si ha
l’isomorfismo

V∗⊗V ∼
= Hom(V ∗ , V ∗ ), w∗ ⊗ u → f, f (v ∗ ) = u(v ∗ )w∗ = v ∗ (u)w∗ . (2.4)

• Da quanto visto sopra otteniamo l’isomorfismo

Hom(V, V ) ∼
= V ⊗V∗ ∼
= Hom(V ∗ , V ∗ ).

Quindi, pur non essendo V e V ∗ canonicamente isomorfi, Hom(V, V ) e Hom(V ∗ , V ∗ )


sono canonicamente isomorfi.
Proposizione 2.8. Sia V uno spazio vettoriale. Per ogni quaterna di interi non
negativi a, b, c e d tali che r = a + b e s = c + d. Si hanno i seguenti isomorfismi
canonici:
Or Oa+b Gc,b O c Ob 
A → Gc,b
a,d
(V ) = (V ) −−→ Hom (V ), (V ) , a,d (A)
s c+d a d

34
dove

[Gc,b 1 a
a,d (A)](v1 ⊗ · · · ⊗ vc ⊗ τ ⊗ · · · ⊗ τ )(τ
a+1
, . . . , τ a+b ; vc+1 , . . . , vc+d )
= A(τ 1 , . . . , τ a , τ a+1 , . . . , τ a+b ; v1 , . . . , vc , vc+1 , . . . , vc+d )

e
c,b
Or Oa+b Ha,d Ob c,b
(V ) = (V ) −−→ ML(V ∗ , . . . , V ∗ , V, . . . , V ; (V )), A → Ha,d (A),
s c+d | {z } | {z } d
a volte c volte

dove
c,b
[Ha,d (A)(τ 1 , . . . , τ a ; v1 , . . . , vc )](τ a+1 , . . . , τ a+b ; vc+1 , . . . , vc+d )
= A(τ 1 , . . . , τ a , τ a+1 , . . . , τ a+b ; v1 , . . . , vc , vc+1 , . . . , vc+d ).

Dimostrazione. Le mappe Gc,b c,b c,b


a,d e Ha,d sono lineari (infatti Ga,d (λA + µB) =
λGc,b c,b c,b c,b c,b
a,d (A) + µGa,d (B) e Ha,d (λA + µB) = λHa,d (A) + µHa,d (B)) e iniettive (infatti
ker Gc,b c,b
a,d = ker Ha,d = 0) e gli spazi hanno la stessa dimensione. 

Osservazione 2.9. Si noti che, essendo ( ca (V )) ∼


Na
= ( c (V ))∗ , dalla Propo-
N
sizione 1.40, si ha subito
Oa+b Oa Ob Oc Ob 

(V ) = (V ) ⊗ ∼
(V ) = Hom (V ), (V ) .
c+d c d a d
N1 N1
Esempio 2.10 (Interpretazioni di 2 (V )). Sia A ∈ 2 (V ) = ML(V ∗ , V, V ; K),
X
A= Aijk ei ⊗ εj ⊗ εk .
i,j,k

N1
Alla luce della Proposizione 2.8 diamo alcune interpretazioni di 2 (V ). Poichè
a + b = 1 e c + d = 2 abbiamo i casi:
a = 1, b = 0, c = 0, d = 2

O1 G0,0
1,2
O0 O0 
(V ) −−→ Hom (V ), (V ) .
2 1 2

con G0,0 ∗ ∗ ∗ 1 0,0 1


1,2 (A) : V → V ⊗ V , τ → G1,2 (A)(τ ) dove

G0,0 1 1
1,2 (A)(τ )(v1 , v2 ) = A(τ , v1 , v2 ), ∀ (v1 , v2 ) ∈ V × V.

35
a = 0, b = 1, c = 1, d = 1 Primo modo:
O1 G0,0
1,2
O1 O1
(V ) −−→ Hom( (V ), (V )),
2 0 1

con G0,0 ∗ 0,0


1,2 (A) : V → V ⊗ V , v1 → G1,2 (A)(v1 ) dove

G0,0 1 1
1,2 (A)(v1 )(τ , v2 ) = A(τ , v1 , v2 ), ∀ (τ 1 , v2 ) ∈ V ∗ × V.

a = 0, b = 1, c = 1, d = 1 Secondo modo:
O1 Gb 0,0 O1 O1
1,2
(V ) −−→ Hom( (V ), (V )),
2 0 1

b0,0
con G ∗ b0,0
1,2 (A) : V → V ⊗ V , v1 → G1,2 (A)(v1 ) dove

b0,0
G 1 1
1,2 (A)(v1 )(τ , v2 ) = A(τ , v2 , v1 ), ∀ (τ 1 , v2 ) ∈ V ∗ × V.

a = 1, b = 0, c = 1, d = 1 Primo modo.
1,0
O1 H1,1 O0
(V ) −−→ BL(V ∗ , V ; (V ))
2 1

1,0 1,0
con H1,1 (A) : V ∗ × V → V ∗ , (τ 1 , v1 ) → H1,1 (A)(τ 1 , v1 ) dove
1,0
[H1,1 (A)(τ 1 , v1 )](v2 ) = A(τ 1 , v1 , v2 ), ∀ v2 ∈ V.

a = 1, b = 0, c = 1, d = 1 Secondo modo.
O1 b 1,0
H O0
1,1
(V ) −−→ BL(V ∗ , V ; (V ))
2 1

1,0 1,0
con H
b 1,1 (A) : V ∗ × V → V ∗ , (τ 1 , v1 ) → H
b 1,1 (A)(τ 1 , v1 ) dove
1,0
[H
b 1,1 (A)(τ 1 , v1 )](v2 ) = A(τ 1 , v2 , v1 ), ∀ v2 ∈ V.

a = 0, b = 1, c = 2, d = 0
2,1
O1 H0,0 O1
(V ) −−→ BL(V, V ; (V )).
2 0

2,1 2,1
con H0,0 (A) : V × V → V , (v1 , v2 ) → H0,0 (A)(v1 , v2 ) dove
2,1
[H0,0 (A)(v1 , v2 )](τ 1 ) = A(τ 1 , v1 , v2 ), ∀ τ 1 ∈ V ∗.

36
Definizione 2.11. Siano f : V → W un’applicazione lineare e f ∗ : W ∗ → V ∗ la
sua mappa duale. Vengono indotte le mappe lineari (Proposizione 1.32)
Or Or
⊗r0 (f ) : (V ) → (W ), ⊗r0 (f ) = f ⊗ · · · ⊗ f ,
0 0 | {z }
r volte

tale che, per τ 1 , . . . , τ r ∈ W ∗ ,

⊗r0 (f )(A)(τ 1 , . . . , τ r ) = A(f ∗ (τ 1 ), . . . , f ∗ (τ r )),

e O0 O0
⊗0s (f ) : (W ) → (V ), ⊗0s (f ) = f ∗ ⊗ · · · ⊗ f ∗ ,
s s | {z }
s volte

tale che, per v1 , . . . , vs ∈ V ,

⊗0s (f )(A)(v1 , . . . , vs ) = A(f (v1 ), . . . , f (vs )).

Ovviamente si ha, per A ∈ r0 (V ), B ∈ k0 (V ), avendo identificato r+k


N N N
Nr Nk Nr+k Nr Nk 0 (V )
con 0 (V ) ⊗ 0 (V ) e 0 (W ) con 0 (W ) ⊗ 0 (W )

⊗r+k r k
0 (f )(A ⊗ B) = ⊗0 (f )(A) ⊗ ⊗0 (f )(B).

Analogamente per A ∈ 0s (W ), B ∈ 0t (W ) (con le identificazioni 0s+t (W ) =


N N N
N0 N0 N0 N0 N0
s (W ) ⊗ t (W ) e s+t (V ) = s (V ) ⊗ t (V )

⊗0s+t (f )(A ⊗ B) = ⊗0s (f )(A) ⊗ ⊗0t (f )(B).


Nr Nr
• Sia f : V → W un isomorfismo. Allora la mappa ⊗rs (f ) : s (V )→ s (W )
definita da

⊗rs (f )(A)(τ 1 , . . . , τ r ; w1 , . . . , ws ) = A(f ∗ (τ 1 ), . . . , f ∗ (τ r ); f −1 (w1 ), . . . , f −1 (ws )),

dove τ 1 , . . . , τ r ∈ W ∗ e w1 , . . . , ws ∈ W , è un isomorfismo lineare. Quindi

⊗rs (f ) = ⊗r0 (f ) ⊗ ⊗0s (f −1 ).

L’isomorfismo inverso di ⊗rs (f ) è


Or Or
⊗rs (f −1 ) : (W ) → (V ), ⊗rs (f −1 ) = ⊗r0 (f −1 ) ⊗ ⊗0s (f ).
s s

Poniamo infine, per ogni mappa lineare f : V → W , ⊗00 (f ) = idK .


La seguente proposizione è un corollario immediato della Proposizione 1.37.
Ne diamo una dimostrazione per comodità del Lettore.

37
Proposizione 2.12. Siano f : V → W un’applicazione lineare e f ∗ : W ∗ → V ∗
la sua mappa duale. Siano E = {e1 , . . . , en } una base di V e F = {f1 , . . . , fm }
una base di W , E ∗ = {ε1 , . . . , εn } e F ∗ = {η 1 , . . . , η m } le corrispondenti basi
duali.
Siano
MF ,E (f ) = (αij )i=1,...,m
j=1,...,n

la matrice associata a f rispetto alle basi E e F e

ME ∗ ,F ∗ (f ∗ ) = t MF ,E (f ) = (e
αij ) i=1,...,n , (e
αij ) = αji ,
j=1,...,m

la matrice associata a f ∗ rispetto alle basi F ∗ e E ∗ .


Nr Nr Nr
i) Siano E0r e F0r le associate basi di 0 (V ) e 0 (W ). Sia A ∈ 0 (V ) e
k1 ,...,kr r r i1 ,...,ir
siano A le componenti di A rispetto a E0 . Siano (⊗0 (f )(A)) le
componenti di ⊗r0 (f )(A) rispetto a F0r . Allora
X
(⊗r0 (f )(A))i1 ,...,ir = αki11 · · · αkirr Ak1 ,...,kr , (2.5)
(k1 ,...,kr )

cioè
MF0r ,E0r (⊗r0 (f )) = MF ,E (f ) ⊗ · · · ⊗ MF ,E (f ) .
| {z }
r volte
N0 N0 N0
ii) Siano Es0 e Fs0 le associate basi di s (V ) e s (W ). Sia B ∈ s (W ) e
siano Bl1 ,...,ls le componenti di B rispetto a Fs0 . Siano (⊗0s (f )(B))j1 ,...,js le
componenti di ⊗0s (f )(B) rispetto a Es0 . Allora
X
(⊗0s (f )(B))j1 ,...,js = αjl11 · · · αjlss Bl1 ,...,ls , (2.6)
(l1 ,...,ls )

cioè
MEs0 ,Fs0 (⊗0s (f )) = t MF ,E (f ) ⊗ · · · ⊗ t MF ,E (f ) .
| {z }
s volte

Sia ora f isomorfismo, ME,F (f −1 ) = M−1


F ,E (f ) = (βij ) i=1,...,n la matrice associata
j=1,...,n
a f −1 rispetto alle basi F e E,

MF ∗ ,E ∗ ((f ∗ )−1 ) = t M−1


F ,E (f ) = (γij ) i=1,...,n , γij = βji ,
j=1,...,n

la matrice associata a (f ∗ )−1 rispetto alle basi E ∗ e F ∗ .

38
Nr Nr Nr
iii) Siano Esr e Fsr le associate basi di s (V ) e s (W ). Sia A ∈ s (V ) e
k1 ,...,kr r r i1 ,...,ir
siano Al1 ,...,ls le componenti di A rispetto a Es . Siano (⊗s (f )(A))j1 ,...,js le
componenti di ⊗rs (f )(A) rispetto a Fsr . Allora
X
(⊗rs (f )(A))ji11,...,i r
,...,js = αki11 · · · αkirr βjl11 · · · βjlss Akl11,...,l
,...,kr
s
,
(k1 ,...,kr )
(l1 ,...,ls )

cioè

MFsr ,Esr (⊗rs (f )) = MF ,E (f ) ⊗ · · · ⊗ MF ,E (f ) ⊗ t M−1 (f ) ⊗ · · · ⊗ t M−1


F ,E (f ) .
| {z } | F ,E {z }
r volte s volte

Dimostrazione. i) Seguendo le notazioni relative ai vettori controvarianti poni-


amo in alto l’indice rispetto al quale si somma (l’indice delle righe)
m
X m
X
f (ek ) = αik fi = αki fi , k = 1, . . . , n.
i=1 i=1

Allora per ogni (k1 , . . . , kr ) con 1 ≤ kt ≤ n, t = 1, . . . , r, si ha


m
X
f (ek1 ) = αki11 fi1 ,
i1 =1
... ... (2.7)
m
X
f (ekr ) = αkirr fir .
ir =1

Pertanto
X
⊗r0 (f )(A) = (⊗r0 (f )(A))i1 ,...,ir fi1 ⊗ · · · ⊗ fir
(i1 ,...,ir )
X
= Ak1 ,...,kr f (ek1 ) ⊗ · · · ⊗ f (ekr )
(k1 ,...,kr )
X X
= Ak1 ,...,kr αki11 · · · αkirr fi1 ⊗ · · · ⊗ fir
(k1 ,...,kr ) (i1 ,...,ir )
 
X X
=  αki11 · · · αkirr Ak1 ,...,kr  fi1 ⊗ · · · ⊗ fir .
(i1 ,...,ir ) (k1 ,...,kr )

39
Seguendo le notazioni relative ai vettori covarianti lasciamo in basso l’indice
rispetto al quale si somma (l’indice delle colonne della matrice MF ,E (f )) e poni-
amo in alto l’altro indice (indice delle righe)
n
X n
X n
X
f ∗ (η l ) = ejl εj =
α αlj εj = αjl εj , l = 1, . . . , m.
j=1 j=1 j=1

Allora per ogni (l1 , . . . , ls ) con 1 ≤ lt ≤ m, t = 1, . . . , s, si ha


n
X
f ∗ (η l1 ) = αjl11 εj1 ,
j1 =1
... ... (2.8)
n
X
f ∗ (η ls ) = αjlss εjs .
js =1

Pertanto
X
⊗0s (f )(B) = (⊗0s (f )(B))j1 ,...,js εj1 ⊗ · · · ⊗ εjs
(j1 ,...,js )
X
= Bl1 ,...,ls f ∗ (η l1 ) ⊗ · · · ⊗ f ∗ (η ls )
(l1 ,...,ls )
X X
= Bl1 ,...,ls αjl11 · · · αjlss εj1 ⊗ · · · ⊗ εjs
(l1 ,...,ls ) (j1 ,...,js )
 
X X
=  αjl11 · · · αjlss Bl1 ,...,ls  εj1 ⊗ · · · ⊗ εjs .
(j1 ,...,js ) (l1 ,...,ls )

iii) Lasciando in basso l’indice rispetto al quale si somma (l’indice delle colonne
della matrice M−1
F ,E (f )) e ponendo in alto l’altro indice (indice delle righe) avremo

n
X n
X n
X
∗ −1 l j j
(f ) (ε ) = γjl η = βlj η = βjl η j , l = 1, . . . , n
j=1 j=1 j=1

e quindi, per ogni (l1 , . . . , ls ) con 1 ≤ lt ≤ n, t = 1, . . . , s,


n
X
(f ∗ )−1 (εl1 ) = βjl11 η j1 ,
j1 =1
...
...
n
X
(f ∗ )−1 (εls ) = βjlss η js .
js =1

40
Pertanto per la (2.7)
X
⊗rs (f )(A) = ⊗rs (f )(A)ji11,...,i j1
,...,js fi1 ⊗ · · · ⊗ fir ⊗ η ⊗ · · · ⊗ η
r js

(i1 ,...,ir )
(j1 ,...,js )
X
= Akl11,...,l
,...,kr
s
f (ek1 ) ⊗ · · · ⊗ f (ekr ) ⊗ (f ∗ )−1 (εl1 ) ⊗ · · · ⊗ (f ∗ )−1 (εls )
(k1 ,...,kr )
(l1 ,...,ls )
X X
= αki11 · · · αkirr βjl11 · · · βjlss Akl11,...,l
,...,kr
s
fi1 ⊗ · · · ⊗ fir ⊗ η j1 ⊗ · · · ⊗ η js ,
(i1 ,...,ir ) (k1 ,...,kr )
(j1 ,...,js ) (l1 ,...,ls )

da cui la tesi. 
2.13 (Cambiamento di base). Tutto quello che segue è un caso particolare del
punto iii) della Proposizione 2.12 (V = W e f = idV ). Lo ripetiamo per comodità
del Lettore.
Siano E = {e1 , . . . , en } e F = {f1 , . . . , fn } due basi dello spazio vettoriale V ,
E ∗ = {ε1 , . . . , εn } e N
F ∗ = {η 1 , . . . , η n } le corrispondenti basi duali. Siano Esr e Fsr
le associate basi di rs (V ).
Nr k1 ,...,kr ∗
Sia A ∈ s (V ) e siano Al1 ,...,ls (E) le componenti di A rispetto a E (e E ),
Aji11,...,i
,...,js (F) le componenti di A rispetto a F (e F ). Sia
r ∗

MF ,E = (αij )i,j=1,...,n (2.9)


la matrice di passaggio dal riferimento E al riferimento F, per cui si ha, ponendo
in alto l’indice rispetto al quale si somma (indice delle righe),
n
X
ek = αki fi , k = 1, . . . , n.
i=1

Allora, per ogni (k1 , . . . , kr ) con 1 ≤ kt ≤ n per t = 1, . . . , r, si ha


n
X n
X
ek1 = αki11 fi1 , ... ... ekr = αkirr fir .
i1 =1 ir =1

Siano
M−1
F ,E = (βij )i,j=1,...,n , MF ∗ ,E ∗ = t M−1
F ,E = (γij )i,j=1,...,n , γij = βji . (2.10)
Si ha, lasciando in basso l’indice rispetto al quale si somma (indice delle colonne
della matrice M−1
F ,E ) e ponendo in alto l’altro indice (indice delle righe)
n
X n
X n
X
l j j
ε = γjl η = βlj η = βjl η j , l = 1, . . . , n.
j=1 j=1 j=1

41
Allora, per ogni (l1 , . . . , ls ) con 1 ≤ lm ≤ n per m = 1, . . . , s, si ha
n
X n
X
l1
ε = βjl11 η j1 , ... ... ε =ls
βjlss η js .
j1 =1 js =1

Quindi si ha
X
A= Aij11,...,i j1
,...,js (F)fi1 ⊗ · · · ⊗ fir ⊗ η ⊗ · · · ⊗ η
r js

(i1 ,...,ir )
(j1 ,...,js )
X
= Akl11,...,l
,...,kr
s
(E)ek1 ⊗ · · · ⊗ ekr ⊗ εl1 ⊗ · · · ⊗ εls
(k1 ,...,kr )
(l1 ,...,ls )
X
= Akl11,...,l
,...,kr
s
(E)
(k1 ,...,kr )
(l1 ,...,ls )
 
 X i ir l1 ls j1

js 

 α k
1
1
· · · α kr
β j 1
· · · β j s
fi 1 ⊗ · · · ⊗ fi r ⊗ η ⊗ · · · ⊗ η 
(i1 ,...,ir )
(j1 ,...,js )
 
X  X
Akl11,...,l
,...,kr
(E)αki11 · · · αkirr βjl11 · · · βjlss 

= 
 s 
(i1 ,...,ir ) (k1 ,...,kr )
(j1 ,...,js ) (l1 ,...,ls )

fi1 ⊗ · · · ⊗ fir ⊗ η j1 ⊗ · · · ⊗ η js .

Pertanto X
Aij11,...,i r
,...,js (F) = αki11 · · · αkirr βjl11 · · · βjlss Akl11,...,l
,...,kr
s
(E). (2.11)
(k1 ,...,kr )
(l1 ,...,ls )

Quindi se MFsr ,Esr è la matrice di passaggio dalla base Esr alla base Fsr allora

MFsr ,Esr = MF ,E ⊗ · · · ⊗ MF ,E ⊗ t M−1 t −1


F ,E ⊗ · · · ⊗ MF ,E .
| {z } | {z }
r volte s volte
X
Se (seguendo Einstein) omettiamo la sommatoria abbiamo
(k1 ,...,kr )
(l1 ,...,ls )

Aij11,...,i r i1 ir l 1 ls k1 ,...,kr
,...,js (F) = αk1 · · · αkr βj1 · · · βjs Al1 ,...,ls (E). (2.12)

42
Osservazione 2.14. Nelle trattazioni classiche un tensore di tipo (r, s) su uno
spazio n-dimensionale V è una mappa

(E, E ∗ ) → Aij11,...,i
,...,js
r

che associa ad ogni base di V (e alla corrispondente base duale di V ∗ ) una famiglia
di nr+s componenti, gli scalari Aij11,...,i r
,...,js , tale che se due basi controvarianti sono
legate dalla matrice (2.14) (e quelle covarianti duali da (2.15)) allora le compo-
nenti relative alle due basi sono legate dalla (2.12).

Proposizione 2.15. Un’omomorfismo lineare f : V → W induce gli omomor-


fismi di algebre graduate
O• O• X  X
• •
(⊗ )(f ) : (V ) → (W ), (⊗ )(f ) tr0 = ⊗r0 (f )(tr0 ),

e
O O X  X
(⊗• )(f ) : (W ) → (V ), (⊗• )(f ) t0s = ⊗0s (f )(t0s ).
• •

Un isomorfismo f : V → W induce l’isomorfismo di algebre graduate


O O X  X
⊗(f ) : (V ) → (W ), ⊗(f ) trs = ⊗rs (f )(trs ),

In particolare ⊗(f )|V = f , ⊗(f )|V ∗ = (f ∗ )−1 .

Dimostrazione. Dobbiamo provare le uguaglianze

(⊗• )(f )(tr0 ⊗ tk0 ) = (⊗• )(f )(tr0 ) ⊗ (⊗• )(f )(tk0 ),
(⊗• )(f )(t0s ⊗ t0t ) = (⊗• )(f )t0s ) ⊗ (⊗• )(f )(t0t ),
⊗(f )(trs ⊗ thk ) = ⊗(f )(trs ) ⊗ ⊗(f )(thk ).

Per τ 1 , . . . , τ r , τ r+1 , . . . , τ r+k ∈ W ∗ , si ha


(⊗• )(f )(tr0 ⊗ tk0 )(τ 1 , . . . , τ r , τ r+1 , . . . , τ r+k )

= ⊗r+k r k 1 r
0 (f )(t0 ⊗ t0 )(τ , . . . , τ , τ
r+1
, . . . , τ r+k )
= tr0 ⊗ tk0 (f ∗ (τ 1 ), . . . , f ∗ (τ r ), f ∗ (τ r+1 ), . . . , f ∗ (τ r+k ))
= tr0 (f ∗ (τ 1 ), . . . , f ∗ (τ r )) tk0 (f ∗ (τ r+1 ), . . . , f ∗ (τ r+k ))
= ⊗r0 (f )(tr0 )(τ 1 , . . . , τ r ) ⊗k0 (f )(tk0 )(τ r+1 , . . . , τ r+k )
= [⊗r0 (f )(tr0 ) ⊗ ⊗k0 (f )(tk0 )](τ 1 , . . . , τ r , τ r+1 , . . . , τ r+k )
= [(⊗• )(f )(tr0 ) ⊗ (⊗• )(f )(tk0 )](τ 1 , . . . , τ r , τ r+1 , . . . , τ r+k ).

43
Analogamente, per v1 , . . . , vs , vs+1 , . . . , vs+t ∈ V , si ha
(⊗• )(f )(t0s ⊗ t0t )(v1 , . . . , vs , vs+1 , . . . , vs+t )

= ⊗0s+t (f )(t0s ⊗ t0t )(v1 , . . . , vs , vs+1 , . . . , vs+t )


= t0s ⊗ t0t (f (v1 ), . . . , f (vs ), f (vs+1 ), . . . , f (vs+t ))
= t0s (f (v1 ), . . . , f (vs )) t0t (f (vs+1 ), . . . , f (vs+t ))
= ⊗0s (f )(t0s )(v1 , . . . , vs ) ⊗0t (f )(t0t )(vs+1 , . . . , vs+t )
= [⊗0s (f )(t0s ) ⊗ ⊗0t (f )(t0t )](v1 , . . . , vs , vs+1 , . . . , vs+t )
= [(⊗• )(f )(t0s ) ⊗ (⊗• )(f )t0t )](v1 , . . . , vs , vs+1 , . . . , vs+t ).

Per τ 1 , . . . , τ r , τ r+1 , . . . , τ r+h ∈ W ∗ , w1 , . . . , ws , ws+1 , . . . , ws+k ∈ W , si ha


⊗(f )(trs ⊗ thk )(τ 1 , . . . , τ r , τ r+1 , . . . , τ r+h , w1 , . . . , ws , ws+1 , . . . , ws+k )

= ⊗r+h r h 1 r
s+k (f )(ts ⊗ tk )(τ , . . . , τ , τ
r+1
, . . . , τ r+h , w1 , . . . , ws , ws+1 , . . . , ws+k )
= trs ⊗ thk (f ∗ (τ 1 ), . . . , f ∗ (τ r ), f ∗ (τ r+1 ), . . . , f ∗ (τ r+h ),
f −1 (w1 ), . . . , f −1 (ws ), f −1 (ws+1 ), . . . , f −1 (ws+k ))
= trs (f ∗ (τ 1 ), . . . , f ∗ (τ r ), f −1 (w1 ), . . . , f −1 (ws ))
thk (f ∗ (τ r+1 ), . . . , f ∗ (τ r+h ), f −1 (ws+1 ), . . . , f −1 (ws+k ))
= ⊗rs (f )(trs )(τ 1 , . . . , τ r , w1 , . . . , ws ) ⊗hk (f )(thk )(τ r+1 , . . . , τ r+h , ws+1 , . . . , ws+k )
= [⊗rs (f )(trs ) ⊗ ⊗hk (f )(thk )](τ 1 , . . . , τ r , τ r+1 , . . . , τ r+h , w1 , . . . , ws , ws+1 , . . . , ws+k )
= [⊗(f )(trs ) ⊗ ⊗(f )(thk )](τ 1 , . . . , τ r , τ r+1 , . . . , τ r+h , w1 , . . . , ws , ws+1 , . . . , ws+k ).

Dalla proprietà distributiva del prodotto tensore rispetto alla somma (e viceversa)
segue subito la tesi. 
Nr
Definizione 2.16 (Contrazione degli indici). Consideriamo s (V ). Si fissino
degli indici p con 1 ≤ p ≤ r e q con 1 ≤ q ≤ s. Consideriamo la mappa
multilineare Or−1
∗ ∗
cpq : |V × ·{z
· · × V} × V × · · · × V → (V )
| {z } s−1
r volte s volte

cpq (v1 , . . . , vr ; τ 1 , . . . , τ s )
= τ q (vp ) v1 ⊗ · · · ⊗ vbp ⊗ · · · vr ⊗ τ 1 ⊗ · · · ⊗ τbq ⊗ · · · τ s ,

dove il simbolo b su un fattore significa che quel fattore è omesso. Allora esiste
un’unica mappa lineare
Or Or−1
Cqp : (V ) → (V )
s s−1

44
tale che

Cqp (v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ · · · τ s )
= τ q (vp ) v1 ⊗ · · · ⊗ vbp ⊗ · · · vr ⊗ τ 1 ⊗ · · · ⊗ τbq ⊗ · · · τ s .

La mappa Cqp è detta la contrazione degli indici p e q.


Se E = {e1 , . . . , en } è base di V e E ∗ = {ε1 , . . . , εn } è la corrispondente base
duale di V ∗ si ha

Cqp (A)(τ 1 , . . . , τ r−1 , v1 , . . . , vs−1 )


X n
= A(τ 1 , . . . , εk , . . . , τ r−1 , v1 , . . . , ek , . . . , vs−1 ). (2.13)
posto p posto q
k=1

Proposizione 2.17. La (2.13) è indipendente dalla scelta della base E.

Dimostrazione. Siano F = {f1 , . . . , fn } un’altra base di V e F ∗ = {η 1 , . . . , η n }


la corrispondente base duale di V ∗ . Sia

MF ,E = (αij )i,j=1,...,n (2.14)

la matrice di passaggio dal riferimento E al riferimento F, per cui


n
X
ek = αik fi , k = 1, . . . , n.
i=1

Siano

M−1
F ,E = (βij )i,j=1,...,n , MF ∗ ,E ∗ = t M−1
F ,E = (γij )i,j=1,...,n , γij = βji . (2.15)

45
n
X
k
Poichè ε = γjk η j , k = 1, . . . , n, si ha
j=1

n
X
A(τ 1 , . . . , εk , . . . , τ r−1 , v1 , . . . , ek , . . . , vs−1 )
posto p posto q
k=1
n
X n
X n
X
1 j r−1
= A(τ , . . . , γjk η , . . . , τ , v1 , . . . , αik fi , . . . , vs−1 )
k=1 j=1 i=1
posto p posto q
n X
X n n
X
= αik γjk A(τ 1 , . . . , η j , . . . , τ r−1 , v1 , . . . , fi , . . . , vs−1 )
posto p posto q
i=1 j=1 k=1
Xn X n Xn
= αik βkj A(τ 1 , . . . , η j , . . . , τ r−1 , v1 , . . . , fi , . . . , vs−1 )
posto p posto q
i=1 j=1 k=1
Xn X n
= δij A(τ 1 , . . . , η j , . . . , τ r−1 , v1 , . . . , fi , . . . , vs−1 )
posto p posto q
i=1 j=1
n
X
= A(τ 1 , . . . , η i , . . . , τ r−1 , v1 , . . . , fi , . . . , vs−1 ).
posto p posto q
i=1

Si quindi la tesi. 

Proposizione 2.18. Sia N f : V → WNun isomorfismo di spazi vettoriali. Allora


r r r
la mappa indotta ⊗s (f ) : s (V ) → s (W ) commuta con le contrazioni, cioè

Cqp ◦ ⊗rs (f ) = ⊗r−1 p


s−1 (f ) ◦ Cq .

Dimostrazione. Per la linearità di ⊗rs (f ) e di Cqp possiamo limitarci a consid-


erare tensori decomponibili. Allora

Cqp ◦ ⊗rs (f )(v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ · · · τ s )


= Cqp f (v1 ) ⊗ · · · ⊗ f (vr ) ⊗ (f ∗ )−1 (τ 1 ) ⊗ · · · ⊗ · · · (f ∗ )−1 (τ s )


= (f ∗ )−1 (τ q )(f (vp )) f (v1 ) ⊗ · · · ⊗ f[


(vp ) ⊗ · · · ⊗ · · · f (vr )⊗
(f ∗ )−1 (τ 1 ) ⊗ · · · ⊗ · · · (f ∗\
)−1 (τ q ) ⊗ · · · ⊗ · · · (f ∗ )−1 (τ s )
= τ q (vp ) f (v1 ) ⊗ · · · ⊗ f[
(vp ) ⊗ · · · ⊗ · · · f (vr )⊗
(f ∗ )−1 (τ 1 ) ⊗ · · · ⊗ · · · (f ∗\
)−1 (τ q ) ⊗ · · · ⊗ · · · (f ∗ )−1 (τ s ),

46
poichè (f ∗ )−1 (τ q )(f (vp )) = (f −1 )∗ (τ q )(f (vp )) = τ q (vp ). D’altronde

⊗r−1 p 1 s
s−1 (f ) ◦ Cq (v1 ⊗ · · · ⊗ vr ⊗ τ ⊗ · · · ⊗ · · · τ )
= ⊗r−1 q 1 s

bq
s−1 (f ) τ (vp ) v1 ⊗ · · · ⊗ vbp ⊗ · · · vr ⊗ τ ⊗ · · · ⊗ τ ⊗ · · · τ

= τ q (vp ) f (v1 ) ⊗ · · · ⊗ f[
(vp ) ⊗ · · · ⊗ · · · f (vr )⊗
(f ∗ )−1 (τ 1 ) ⊗ · · · ⊗ · · · (f ∗\
)−1 (τ q ) ⊗ · · · ⊗ · · · (f ∗ )−1 (τ s ).
Si quindi la tesi. 
Proposizione 2.19. Se A = (Aji11,...,i r
,...,js ) i1 ,...,ir allora
j1 ,...,js
n
i ,...,i ,k,i ,...,i
i ,...,ib ,...,i
X
Cqp (A)j1 ,...,jbp ,...j r = Aj11 ,...,jp−1 p+1 r
q−1 ,k,jq+1 ,...,is
.
1 q s
k=1

Dimostrazione. Infatti per la linearità di Cqp si ha


 
 X
Aij11...i

Cqp (A) = Cqp 

j1 js 
...js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε 
r

(i1 ,...,ir )
(j1 ,...,js )
X
= Aij11...i r p j1 js
...js Cq (ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε )
(i1 ,...,ir )
(j1 ,...,js )
X
= Aij11...i r jq
...js ε (eip )ei1 ⊗ · · · ⊗ e
c j1 jq
ip ⊗ · · · e ir ⊗ ε ⊗ · · · ⊗ ε ⊗ · · · ε
c js

(i1 ,...,ir )
(j1 ,...,js )
n
i ,...,i ,k,ip+1 ,...,ir
X X
j1 js
= Aj11 ,...,jp−1 e ⊗ · · · ⊗ ec
q−1 ,k,jq+1 ,...,is i1
jq
ip ⊗ · · · eir ⊗ ε ⊗ · · · ⊗ ε ⊗ · · · ε
c
k=1 (i1 ,...,ibp ,...,ir )
(j1 ,...,jbq ,...,js )
n
!
i ,...,i ,k,i ,...,i
X X
= Aj11 ,...,jp−1 p+1 r
q−1 ,k,jq+1 ,...,is
eip ⊗· · · eir ⊗εj1 ⊗· · ·⊗εc
ei1 ⊗· · ·⊗c jq ⊗· · · εjs

(i1 ,...,ibp ,...,ir ) k=1


(j1 ,...,jbq ,...,js )

poichè εjq (eip ) = δip jq . D’altronde


X i ,...,ib ,...,i
Cqp (A) = Cqp (A)j1 ,...,jbp ,...j r ei1 ⊗ · · · ⊗ ec j1 jq js
ip ⊗ · · · eir ⊗ ε ⊗ · · · ⊗ ε ⊗ · · · ε ,
c
1 q s
(i1 ,...,ibp ,...,ir )
(j1 ,...,jbq ,...,js )

da cui la tesi. 

47
Esempio 2.20. Se
n
X O1
A= Aij ei ⊗ εj ∈ (V )
1
i,j=1

allora n
X
C11 (A) = Akk ∈ K.
k=1

Quindi la contrazione C11 (A)


è la traccia della matrice (Aij ).
Proposizione 2.21. Sia A ∈ rs (V )
N

X
A= Aij11...i j1 js
...js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε .
r

(i1 ,...,ir )
(j1 ,...,js )

Se v1 , . . . , vs ∈ V e τ 1 , . . . , τ r ∈ V ∗ allora

A(τ 1 , . . . , τ r , v1 , . . . , vs ) =
Csr+s ◦ · · · ◦ C2r+2 ◦ C1r+1 ◦ Cs+r r 2
◦ · · · ◦ Cs+2 1
◦ Cs+1 (A ⊗ v1 ⊗ · · · ⊗ vs ⊗ τ 1 ⊗ · · · ⊗ τ r ).
Dimostrazione. Dalla definizione si ha
1
ei1 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ εj1 ⊗ · · · ⊗ εjs ⊗ τ 1 ⊗ · · · ⊗ τ r

Cs+1
= τ 1 (ei1 )ei2 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ εj1 ⊗ · · · ⊗ εjs ⊗ τ 2 ⊗ · · · ⊗ τ r .
Iterando avremo, posto C 0 = Cs+r
r 2
◦ · · · ◦ Cs+2 1
◦ Cs+1

C 0 ei1 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ εj1 ⊗ · · · ⊗ εjs ⊗ τ 1 ⊗ · · · ⊗ τ r




= τ 1 (ei1 ) · · · τ r (eir )v1 ⊗ · · · ⊗ vs ⊗ εj1 ⊗ · · · ⊗ εjs .


Posto infine C = Csr+s ◦ · · · C1r+1 ◦ C 0 avremo

C ei1 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ εj1 ⊗ · · · ⊗ εjs ⊗ τ 1 ⊗ · · · ⊗ τ r




= τ 1 (ei1 ) · · · τ r (eir )εj1 (v1 ) · · · εjs (vs )


= (ei1 ⊗ · · · ⊗ eir ⊗ εj1 ⊗ · · · ⊗ εjs )(τ 1 , . . . , τ r , v1 , . . . , vs ).
Posto

B = A ⊗ v1 ⊗ · · · ⊗ vs ⊗ τ 1 ⊗ · · · ⊗ τ r
X
= Aij11...i j1 js 1
...js ei1 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ ε ⊗ · · · ⊗ ε ⊗ τ ⊗ · · · ⊗ τ
r r

(i1 ,...,ir )
(j1 ,...,js )

48
si ha, per linearità

C(B)
X
Aij11...i j1 js 1 r

...js C ei1 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ ε ⊗ · · · ⊗ ε ⊗ τ ⊗ · · · ⊗ τ
r
=
(i1 ,...,ir )
(j1 ,...,js )
X
Aij11...i j1 js 1 r
 
...js (ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε )(τ , . . . , τ , v1 , . . . , vs )
r
=
(i1 ,...,ir )
(j1 ,...,js )
 
 X i1 ...ir j1
 1
js  r
=
 A e
j1 ...js 1i ⊗ · · · ⊗ e i r ⊗ ε ⊗ · · · ⊗ ε  (τ , . . . , τ , v1 , . . . , vs )
(i1 ,...,ir )
(j1 ,...,js )

= A(τ 1 , . . . , τ r , v1 , . . . , vs )

cioè la tesi. 

Proposizione 2.22. Siano V e W spazi vettoriali e f : V → W un isomorfismo.


L’isomorfismo ⊗(f N) della Proposizione
N 2.15 commuta con le contrazioni.
Viceversa se G : (V ) → (W ) è un isomorfismo di algebre graduate che com-
muta con le contrazioni cioè se G = (Grs )r,s≥0 tale che
Nr Nr
i) per ogni r, s ≥ 0, Grs : s (V ) → s (W ) è un isomorfismo,

ii) per ogni t, t0 ∈ (V ), G(t ⊗ t0 ) = G(t) ⊗ G(t0 ),


N

iii) Cqp ◦ Grs = Gr−1 p


s−1 ◦ Cq ,

allora, per ogni r, s ≥ 0, Grs = ⊗rs (g), dove g = G10 : V → W , ossia G = ⊗(g).

Dimostrazione. L’unica cosa da provare è che un isomorfismo di algebre grad-


uate G è indotto dall’ isomorfismo g : V → W . Osserviamo che G00 = idK , infatti
G00 (k) = hk con h ∈ K, h 6= 0, fissato e d’altronde G00 (kk 0 ) = G00 (k)G00 (k 0 ) = h2 kk 0
da cui h2 = h e quindi h = 1. Siano v ∈ V e τ ∈ V ∗ , allora, poichè G commuta
con le contrazioni,

G01 (τ )(g(v)) = G01 (τ )(G10 (v)) = C11 (G10 (v) ⊗ G01 (τ )) = C11 (G11 (v ⊗ τ ))
= G00 (C11 (v ⊗ τ )) = G00 (τ (v)) = τ (v),

quindi, per la (1.1), G01 (τ ) = (g −1 )∗ (τ ) = (g ∗ )−1 (τ ).


NCoincidendo quindi G con

l’estensione ⊗(g) di g su K, V e V , che generano (V ) come algebra, si ha la
tesi. 

49
DefinizioneN2.23 (Derivazioni dell’algebra tensoriale). Sia VNuno spazio
vettoriale e (V ) l’algebra tensoriale di V . Una derivazione D di (V ) è una
mappa lineare O O
D: (V ) → (V )
che soddisfa le seguenti condizioni:

a) D( rs (V )) ⊂ rs (V ), cioè conserva il tipo,


N N

b) D(A ⊗ B) = D(A) ⊗ B + A ⊗ D(B), per tutti i tensori A e B,

c) D commuta con le contrazioni cioè D ◦ Cqp = Cqp ◦ D per ogni p e q interi


positivi.

Da b) deduciamo subito che D(k) = 0 per ogni k ∈ K = 00 (V ). Inoltre, iterando


N
(b) si ha
k
X
D(A1 ⊗ · · · ⊗ Ak ) = A1 ⊗ · · · ⊗ D(Ai ) ⊗ · · · ⊗ Ak .
i=1

L’insieme D( (V )) delle derivazioni forma uno spazio vettoriale. Il prodotto


N

O
[D, D0 ] = D ◦ D0 − D0 ◦ D, D, D0 ∈ D( (V )).

rende D( (V )) un’algebra di Lie. Anche lo spazio Hom(V, V ) degli endomorfismi


N
di V ha una struttura naturale di algebra di Lie data da

[f, g] = f ◦ g − g ◦ f, f, g ∈ Hom(V, V ).

Proposizione 2.24. La mappa


O
Φ : D( (V )) → Hom(V, V ), Φ(D) = fD ,

dove fD : V → V , fD (v) = D(v) per ogni v ∈ V , è un isomorfismo di algebre di


Lie.

Dimostrazione. È chiaro che Φ è un omomorfismo di algebre di Lie. Poichè


D(k) = 0 per ogni k ∈ K si ha per v ∈ V e τ ∈ V ∗

0 = D(τ (v)) = D(C11 (v ⊗ τ )) = C11 (D(v ⊗ τ ))


= C11 (D(v)⊗τ +v⊗D(τ )) = C11 (D(v)⊗τ )+C11 (v⊗D(τ )) = τ (D(v))+(D(τ ))(v).

Poichè D(v) = fD (v) si ha che (D(τ ))(v) = −τ (f
ND (v)) cioè D(τ ) = −(fD ) (τ ∗),

dove (fD ) è l’omomorfismo duale di fD . Poichè (V ) è generato da K, V e V ,

50
D è univocamente determinato dalle sue restrizioni su K, V e V ∗ . Allora Φ è
iniettiva. Viceversa sia f ∈ Hom(V, V ). Definiamo

D(k) = 0, (k ∈ K), D(v) = f (v), (v ∈ V ), D(τ ) = −f ∗ (τ ), (τ ∈ V ∗ ).


N
Estendiamo poi D a (V ) mediante (b). Più precisamente, per r e s interi non
negativi, v1 , . . . .vr ∈ V , τ 1 , . . . .τ s ∈ V ∗ , la mappa
Or
∗ ∗
D : |V × ·{z · · × V} × V × · · · × V → (V ),
| {z } s
r volte s volte

definita da

D(v1 , . . . , τ 1 , . . . , τ s )
X r
= v1 ⊗ · · · ⊗ D(vi ) ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ τ s
i=1
s
X
+ v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ D(τ j ) ⊗ · · · ⊗ τ s
j=1

è multilineare quindi induce uno ed un solo omomorfismo lineare


Or Or
D: (V ) → (V ).
s s

Pertanto Φ è surgettiva. 
N1
Esempio 2.25. Si consideri l’isomorfismo canonico G : 1 (V ) → Hom(V, V )
tale che (Proposizione 1.40)

G(v ⊗ w∗ )(u) = w∗ (u)v, (u, v ∈ V, w∗ ∈ V ∗ ).

Quindi, per la Proposizione 2.24, ad un tensore 11 (V ) è associata


N
N una (ed
Nuna
sola) derivazione. Inoltre se f : V → V è un isomorfismo e ⊗(f ) : (V ) → (V )
l̀’associato isomorfismo di K-algebre graduate, allora
O1
⊗(f )(K) = f Kf −1 , ∀K∈ (V ).
1

D’altro canto se D è la derivazione indotta da un endomorfismo f ∈ Hom(V, V )


allora O1
D(K) = [f, K], ∀K∈ (V ).
1

51
Definizione 2.26 (Forme bilineari). Siano E = {e1 , . . . , en } una base N0di uno
∗ 1 n ∗
spazio vettoriale V e E = {ε , . . . , ε } la sua base duale di V . Sia B ∈ 2 (V ) =
V ∗ ⊗ V ∗ cioè una forma bilineare B : V × V → K. Allora, rispetto ad una base
E ∗ si ha X
B= bij εi ⊗ εj .
i,j

Indicheremo con M la matrice ME ∗ ,E ∗ (B) = (bij ) (cfr. §1.25). Alla forma bilineare
B sono associate le mappe lineari

B1 : V → V ∗ , v → B1 (v) B1 (v)(w) = B(v, w);


B2 : V → V ∗ , v → B2 (v) B2 (v)(w) = B(w, v).

Con le notazioni della Proposizione 2.8 abbiamo (a = b = 0 e c = d = 1)


O0 O1 O0 
B1 = G1,0 0,1 : (V ) → Hom (V ), (V ) ,
2 0 1
O0  O1 O0 
B2 = G b1,0
0,1 : (V ) → Hom (V ), (V ) ,
2 0 1

dove

[G1,0
0,1 (B)](v1 )(v2 ) = B(v1 , v2 ), [G1,0
b0,1 (B)](v1 )(v2 ) = B(v2 , v1 ).

Sia C = (cij ) la matrice associata a B1 rispetto alle basi E ed E ∗ . Allora


n
X
B1 (ei ) = cki εk , i = 1, . . . , n,
k=1

e quindi B1 (ei )(ej ) = cji . D’altronde B1 (ei )(ej ) = B(ei , ej ) = bij per cui cji = bij
cioè
C = ME ∗ ,E (B1 ) = t M.
Sia D = (dij ) la matrice associata a B2 rispetto alle basi E ed E ∗ . Allora
n
X
B2 (ei ) = dki εk , i = 1, . . . , n,
k=1

e quindi B2 (ei )(ej ) = dji . D’altronde B2 (ei )(ej ) = B(ej , ei ) = bji per cui dij = bij
cioè
D = ME ∗ ,E (B2 ) = M.
Diremo che la forma bilineare B è non degenere se la mappa B1 è un isomor-
fismo.

52
Proposizione 2.27. Sono equivalenti:
i) B è non degenere;
ii) la matrice (bij ) è invertibile;
iii) la mappa B2 è un isomorfismo;
iv) per ogni v ∈ V , v 6= 0 esiste w ∈ V tale che B(v, w) 6= 0.
Dimostrazione. La forma bilineare B è non degenere se e solo se matrice (bij ) è
invertibile se e solo se la matrice t (bij ) è invertibile se e solo se B2 è un isomorfismo.
i) =⇒ iv). Se B è non degenere per ogni v ∈ V , v 6= 0, B1 (v) 6= 0, quindi esiste
un w ∈ V tale che B1 (v)(w) 6= 0, cioè B(v, w) 6= 0.
iv) =⇒ i). Sia v 6= 0, allora esiste w ∈ V tale che B(v, w) 6= 0, quindi B1 (v)(w) 6=
0 e B1 (v) 6= 0. Allora B1 è un isomorfismo perchè ker B1 = {0} e B1 è surgettivo
essendo dim V = dim V ∗ . 
N0
Definizione 2.28 (Isomorfismi musicali). Sia B ∈ 2 (V ) non degenere e
sia M = (bij ) la matrice associata. L’isomorfismo B1 : V → V ∗ verrà denotato
con B [ o anche con [ (sottintendendo B) cioè scriveremo B1 (v) = B [ (v) = v [ .
Pertanto
v [ (w) = B(v, w).
Indicheremo inoltre (B [ )−1 : V ∗ → V con B ] o anche con ]
cioè scriveremo
(B [ )−1 (α) = B ] (α) = α] e quindi B [ (α] ) = α cioè
B(α] , w) = α(w).
Avremo pertanto le relazioni musicali
(v [ )] = v, (α] )[ = α.
dove v ∈ V e α ∈ V ∗ .
n
X n
X
Proposizione 2.29. Siano v = j
v ej ∈ V e v = [
(v [ )i εi ∈ V ∗ allora
j=1 i=1
n
X
(v [ )i = bji v j .
j=1
n
X n
X
Siano α = α j εj ∈ V ∗ e α ] = (α] )i ei ∈ V allora
j=1 i=1
n
X
] i
(α ) = bji αj .
j=1

53
dove (bij ) = M −1 . In particolare si ha
n
X n
X
e[k = i
bki ε , k ]
(ε ) = bki ei .
i=1 i=1

Dimostrazione. La matrice associata a B [ rispetto alle basi E ed E ∗ è, per


quanto sopra visto, t M per cui
n
X
(v [ )i = bji v j .
j=1

In particolare (e[k )i = bki (in tal caso v j = δjk ) per cui


n
X n
X
e[k = (e[k )i i
ε = bki εi .
i=1 i=1

La matrice associata a B ] rispetto alle basi E ∗ ed E è allora t M −1 = (bji ) per cui


n
X
] i
(α ) = bji αj .
j=1

In particolare (εk )]i = bki (in tal caso αj = δjk ) per cui
n
X n
X
k ] k ]
(ε ) = (ε )i ei = bki ei .

i=1 i=1

Osservazione 2.30. L’operazione di passare da v ∈ V con componenti v i a v [


con componenti (v [ )i = bij v i (omettendo la somma) è classicamente chiamata
abbassamento dell’indice di v per mezzo di una forma bilineare non degenere. Si
usa il termine “abbassare” poichè si passa da v ∈ V = ⊗10 (V ) a v [ ∈ V ∗ =
⊗01 (V ). Analogamente l’operazione di passare da α ∈ V ∗ con componenti αj a
α] con componenti (α] )i = bij αj (omettendo la somma) è classicamente chiamata
innalzamento dell’indice di α per mezzo di una forma bilineare non degenere.

Generalizziamo le
Noperazioni diNabbassamento e innalzamento di un indice ai
tensori. Siano A ∈ rs (V ) e B ∈ 02 (V ) non degenere e simmetrica. Le mappe
lineari Or Or−1
[
(V ) →
− (V ), A → A[ ,
s s+1

dove
A[ (τ 1 , . . . , τ r−1 ; v1 , . . . , vs+1 ) = A(τ 1 , . . . , τ r−1 , v1[ ; v2 , . . . , vs+1 ),

54
e Or Or+1
]
(V ) →
− (V ), A → A] ,
s s−1

dove

A] (τ 1 , . . . , τ r+1 ; v1 , . . . , vs−1 ) = A(τ 1 , . . . , τ r ; (τ r+1 )] , v1 , . . . , vs−1 ),

sono isomorfismi (sono iniettive e gli spazi hanno la stessa dimensione) e gener-
alizzano v [ e α] .
Nella definizione di A[ abbiamo “abbassato” v1 ma tale scelta non è canonica
e avremmo potuto scegliere vi con 1 ≤ i ≤ s + 1. Parimenti nella definizione di
A] avremmo potuto scegliere τ j con 1 ≤ j ≤ r + 1.

Proposizione 2.31. Siano A ∈ rs (V ) e B ∈ 02 (V ) non degenere,


N N

X
A= Aji11,...,i j1 js
,...,js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε ,
r

(i1 ,...,ir )
(j1 ,...,js )

allora n
i ,...,i
X i ,...,i ,i
(A[ )j11 ,...,jr−1
s+1
= bj1 i Aj12 ,...,jr−1
s+1
i=1
e n
i ,...,i
X
(A] )j11 ,...,jr+1
s−1
= bir+1 i Aii,j1 ,...,i r
1 ,...,js−1
.
i=1

Dimostrazione. Si ha
i ,...,i
(A[ )j11 ,...,jr−1
s+1
= A[ (εi1 , . . . , εir−1 ; ej1 , . . . , ejs+1 )
= A(εi1 , . . . , εir−1 , e[j1 ; ej2 , . . . , ejs+1 )
Xn
i1 ir−1
= A(ε , . . . , ε , bj1 i εi ; ej2 , . . . , ejs+1 )
i=1
n
X
= bj1 i A(εi1 , . . . , εir−1 , εi ; ej2 , . . . , ejs+1 )
i=1
n
X i ,...,i ,i
= bj1 i Aj12 ,...,jr−1
s+1
.
i=1

55
Analogamente
i ,...,i
(A] )j11 ,...,jr+1
s−1
= A] (εi1 , . . . , εir+1 ; ej1 , . . . , ejs−1 )
= A(εi1 , . . . , εir ; (εir+1 )] , ej1 , . . . , ejs−1 )
Xn
= A(εi1 , . . . , εir ; bir+1 i ei , ej1 , . . . , ejs−1 )
i=1
n
X
= bir+1 i A(εi1 , . . . , εir ; ei , ej1 , . . . , ejs−1 )
i=1
n
X
= bir+1 i Aii,j1 ,...,i r
1 ,...,js−1
.

i=1

56
3 Applicazioni multilineari simmetriche e alter-
nanti
Notazioni. Indicheremo con #A la cardinalità di un insieme A.
Siano n un intero positivo e In = {1, 2, . . . , n}. Per q intero positivo sia
Inq = {(i1 , . . . , iq ) : 1 ≤ ij ≤ n, j = 1, . . . , q}.
Pertanto #Inq = nq .
L’insieme
Inq (≤) = {(i1 , . . . , iq ) ∈ Inq : 1 ≤ i1 ≤ i2 ≤ . . . ≤ iq ≤ n}
è in corrispondenza biunivoca conl’insieme delle
 combinazioni con ripetizione di
n+q−1
classe q di In e quindi #Inq (≤) = .
q
L’insieme
Inq (<) = {(i1 , . . . , iq ) ∈ Inq : 1 ≤ i1 < i2 < . . . < iq ≤ n}
è in corrispondenza
 biunivoca
 con l’insieme delle combinazioni di classe q di In e
n
quindi #Inq (<) = .
q
Definizione 3.1. Sia Σq il gruppo delle permutazioni dell’insieme {1, . . . , q}: se
σ, e τ ∈ Σq il prodotto è στ = τ ◦ σ. Indicheremo con ι la permutazione identica
e con σ −1 la permutazione inversa di σ.
Una trasposizione (h, k) con 1 ≤ h < k ≤ q è una permutazione σ tale che
σ(h) = k, σ(k) = h e σ(i) = i per ogni i 6= h, k. È semplice osservare che
Ogni permutazione è prodotto di trasposizioni.
Una permutazione σ si dice pari o dispari a seconda che sia prodotto di un numero
pari o dispari di trasposizioni. Il segno della permutazione σ è
(
1 se σ è pari
sgn(σ) =
−1 se σ è dispari.
Osserviamo che sgn(ι) = 1 e sgn(στ ) = sgn(σ)sgn(τ ) per ogni σ, τ ∈ Σq . In
particolare sgn(σ −1 ) = sgn(σ). Infine osserviamo che, se q ≥ 2,
X
sgn(σ) = 0 (3.1)
σ∈Σq

perche il numero delle permutazioni pari è uguale a quello delle permutazioni


dispari.

57
Definizione 3.2 (Determinante e permanente). Sia A = (aij ) 1≤i≤n una
1≤j≤n
matrice n × n ad entrate nel campo K. L’elemento di K
n
XY n
XY
per(A) = aσ(i)i = aiσ(i)
σ∈Σn i=1 σ∈Σn i=1

è detto il permanente di A. Si ha infatti


n n n
XY j=σ(i) XY XY
aσ(i)i === ajσ−1 (j) = ajσ(j) .
σ∈Σn i=1 σ∈Σn j=1 σ∈Σn j=1

L’elemento di K
X n
Y X n
Y
det A = sgn(σ) aσ(i)i = sgn(σ) aiσ(i)
σ∈Σn i=1 σ∈Σn i=1

è il determinante di A. Ad esempio se
 
a11 a12 per(A) = a11 a22 + a21 a12 ,
A= =⇒
a21 a22 det(A) = a11 a22 − a21 a12 .

Useremo anche la notazione



a11 . . . a1n

per(A) = ... ... .. .

.

an1 . . . ann

Indicheremo con A(i|j) la matrice ottenuta da A eliminando la i-esima riga e la


j-esima colonna. Elenchiamo alcune coincidenze e differenze tra il determinante
e il permanente.
n
X n
X
i+j
det A = (−1) aij det A(i|j); per(A) = aij perA(i|j)
i=1 i=1
n
X n
X
det A = (−1)i+j aij det A(i|j); per(A) = aij perA(i|j)
j=1 j=1

det(AB) = det(A) det(B); per(AB) 6= per(A) per(B)

det(tA) = det A; per(tA) = per(A)

58
Definizione 3.3 (Matrice composta r-esima). Sia M = (aij )1≤i≤m una ma-
1≤j≤n
trice m × n e sia 1 ≤ r ≤ min{m, n}. Sia
 
ai1 j1 . . . ai1 jr
Mji11...j
...ir
=  ... .. .. 

r . . 
ai r j 1 . . . a i r j r

la sottomatrice r × r di M individuata dalle righe i1 ,  . . . ,


ir e dalle
 colonne
m n
j1 , . . . , jr . L’r-esima matrice composta di M è la matrice ×
r r

Cr (M ) = det Mji11...j
...ir

r (i1 ...ir )
,
(j1 ...jr )

avente le righe indiciate su (i1 . . . ir ) e le colonne su (j1 . . . jr ), dove

1 ≤ i1 < . . . < ir ≤ m, 1 ≤ j1 < . . . < jr ≤ n,

entrambi le r-uple ordinate lessicograficamente.


Valgono le seguenti proprietà ([2] pp. 16-17):

1. Cr (M N ) = Cr (M )Cr (N ), se N è una matrice n × p e 1 ≤ r ≤ min{m, n, p}.

2. Cr (kM ) = k r Cr (M ), se k ∈ K.

3. Cr (t M ) = t Cr (M ).

4. Se Il è la matrice identica l × l allora Cr (In ) = I(n) .


r

5. Se M è una matrice invertibile allora (Cr (M ))−1 = Cr (M −1 ).


n−1
6. Se M è matrice n × n allora det Cr (M ) = (det M )( r−1 ) .

7. Se rk(M ) = k allora ([2] p. 28)


 
 k k≥r
rk(Cr (M )) = r
0 k < r.

Se k < r tutti i minori di ordine r sono nulli e quindi Cr (M ) è la matrice nulla.

59
Definizione 3.4. Siano V e W due spazi vettoriali. Sia

| × ·{z
f: V · · × V} → W
q volte

una mappa multilineare. Diremo che f è


• simmetrica se per ogni n-upla (v1 , . . . , vq ) ∈ V
| × ·{z
· · × V} e per ogni σ ∈ Σq
q volte
si ha
f (vσ(1) , . . . , vσ(q) ) = f (v1 , . . . , vq ).

• antisimmetrica o alternante se per ogni n-upla (v1 , . . . , vq ) ∈ V


| × ·{z
· · × V} e
q volte
per ogni σ ∈ Σq si ha

f (vσ(1) , . . . , vσ(q) ) = sgn(σ)f (v1 , . . . , vq ).

È immediato verificare che gli insiemi Symq (V, W ) e Altq (V, W ) delle mappe
multilineari simmetriche e alternanti sono sottospazi vettoriali di Lq (V, W ), lo
| × ·{z
spazio delle mappe multilineari V · · × V} → W .
q volte
Ovviamente Sym1 (V, W ) = Alt1 (V, W ) = Hom(V, W ). Poniamo inoltre

Sym0 (V, K) = Alt0 (V, K) = K.

Proposizione 3.5. Sia f ∈ Altq (V, W ). Allora se v1 , . . . , vq sono linearmente


dipendenti.
f (v1 , . . . , vq ) = 0.
Dimostrazione. Osserviamo che, se f ∈ Altq (V, W ), allora

f (v1 , . . . , a , . . . , b , . . . , vq ) = −f (v1 , . . . , b ,..., a , . . . , vq )


posto i posto j posto i posto j

per ogni a, b, vi ∈ V . Quindi, se vi = vj per un indice i e un indice j, i 6= j, si ha

f (v1 , . . . , vq ) = 0.
X
Se v1 , . . . , vq sono linearmente dipendenti allora per un indice i si ha vi = λj vj ,
j6=i
pertanto
X
f (v1 , . . . , vq ) = λj f (v1 , . . . , vj , . . . , vj , . . . , vq ) = 0.
j6=i posto i posto j 

60
Proposizione 3.6. Sia S = {v1 , . . . , vn } una base di uno spazio vettoriale V e
sia W uno spazio vettoriale. Sia φ : S | × ·{z· · × S} → W un’applicazione. Allora
q volte
esiste una ed una sola mappa multilineare simmetrica (alternante)

| × ·{z
Φ: V · · × V} → W
q volte

che prolunga φ se e solo se per ogni q-upla (i1 , . . . , iq ), 1 ≤ ik ≤ n, k = 1, . . . , q,


e per ogni σ ∈ Σq
φ(viσ(1) , . . . , viσ(q) ) = φ(vi1 , . . . , viq ) (caso simmetrico); (3.2)
φ(viσ(1) , . . . , viσ(q) ) = sgn(σ)φ(vi1 , . . . , viq ) (caso alternante). (3.3)
In particolare
(
1 ≤ i1 ≤ . . . ≤ iq ≤ n caso simmetrico
Φ=0 ⇐⇒ φ(vi1 , . . . , viq ) = 0 per
1 ≤ i1 < . . . < iq ≤ n caso alternante.
Dimostrazione. Un’implicazione è ovvia. Supponiamo siano soddisfatte le con-
dizioni su φ. Per la Proposizione 1.8 esiste una ed una sola mappa multilineare

| × ·{z
Φ: V · · × V} → W
q volte

che prolunga φ. Esaminiamo il caso simmetrico. Si tratta ora di provare che Φ è


simmetrica. Sia n
X
wi = aij vj , i = 1, . . . , n.
j=1

Allora
X
Φ(wσ(1) , . . . , wσ(q) ) = aσ(1)i1 · · · aσ(q)iq Φ(vi1 , . . . , viq )
(i1 ,...,iq )
X
= aσ(1)i1 · · · aσ(q)iq φ(vi1 , . . . , viq ),
(i1 ,...,iq )

dove (i1 , . . . , iq ) varia in tutto Inq . Sia τ = σ −1 . Se (i1 , . . . , iq ) varia in tutto Inq an-
che (iτ (1) , . . . , iτ (q) ) varia in tutto Inq pertanto, sostituendo 1, . . . , q con τ (1), . . . , τ (q)
e tenendo conto della (3.2),
X
Φ(wσ(1) , . . . , wσ(q) ) = aσ(1)i1 · · · aσ(q)iq φ(vi1 , . . . , viq )
(i1 ,...,iq )
X
= a1iτ (1) · · · aqiτ (q) φ(viτ (1) , . . . , viτ (q) ).
(iτ (1) ,...,iτ (q) )

61
Poniamo (iτ (1) , . . . , iτ (q) ) = (j1 , . . . , jq ). Allora
X
Φ(wσ(1) , . . . , wσ(q) ) = a1iτ (1) · · · aqiτ (q) φ(viτ (1) , . . . , viτ (q) )
(iτ (1) ,...,iτ (q) )
X
= a1j1 · · · aqjq φ(vj1 , . . . , vjq )
(j1 ,...,jq )
X
= a1j1 · · · aqjq Φ(vj1 , . . . , vjq )
(j1 ,...,jq )

= Φ(w1 , . . . , wq ).
Il caso alternante è del tutto analogo. 
Proposizione 3.7. Siano V uno spazio vettoriale di dimensione n e W uno
spazio vettoriale. Sia q un intero ≥ 0 allora
 
q n+q−1
dim Sym (V, W ) = dim W. (3.4)
q
 
 n dim W se q ≤ n,
q
dim Alt (V, W ) = q (3.5)
0 se q > n.

Dimostrazione. Sia dim W = m per cui W ∼ = Km . Poichè ogni q-upla (j1 , . . . , jq )


q q
∈ In si può ottenere da una q-upla di In (≤) permutandone opportunamente gli el-
ementi, per la Proposizione 3.6 una mappa multilineare simmetrica (o alternante)
φ è completamente determinata assegnando i vettori di Km
(φ(vi1 , . . . , viq ))(i1 ,...,iq )∈Inq (≤) .
C’è pertanto una applicazione lineare iniettiva
q n+q−1
φ ←→ (φ(vi1 , . . . , viq ))(i1 ,...,iq )∈Inq (≤) ∈ (Km )#In (≤) = K( q )m . (3.6)
• Nel caso simmetrico tale applicazione è anche surgettiva per la Proposizione 3.6
e si ha la (3.4).
• Nel caso alternante la mappa (3.6) non è surgettiva poichè φ(vi1 , . . . , viq ) = 0
se due indici coincidono, cioè φ(vi1 , . . . , viq ) = 0 se (i1 , . . . , iq ) ∈ Inq (≤) r Inq (<).
Per determinare una mappa multilineare alternante basta conoscere i valori
(φ(vi1 , . . . , viq ))(i1 ,...,iq )∈Inq (<) .
C’è pertanto un isomorfismo
q n
φ ←→ (φ(vi1 , . . . , viq ))(i1 ,...,iq )∈Inq (<) ∈ (Km )#In (<) = K( q )m .
Quindi si ha la (3.5). Se q > n allora Inq (<) = ∅ e φ(vi1 , . . . , viq ) = 0, quindi
Altq (V, W ) = 0. 

62
Definizione 3.8. Le mappe
1 X
Sq : Lq (V, W ) → Lq (V, W ), Sq (f )(v1 , . . . , vq ) = f (vσ−1 (1) , . . . , vσ−1 (q) ),
q! σ∈Σ
q

1 X
Aq : Lq (V, W ) → Lq (V, W ), Aq (f )(v1 , . . . , vq ) = sgn(σ)f (vσ−1 (1) , . . . , vσ−1 (q) ),
q! σ∈Σ
q

sono dette operatore di simmetrizzazione e operatore di antisimmetrizzazione,


rispettivamente.

• Le mappe Sq e Aq sono lineari.

• Im(Sq ) = Symq (V, W ); f è simmetrica se e solo se Sq (f ) = f .

• Im(Aq ) = Altq (V, W ); f è antisimmetrica se e solo se Aq (f ) = f .

Ovviamente S1 = A1 = idHom(V,W ) .

Proposizione 3.9. Sia {e1 , . . . , en } una base dello spazio vettoriale V e


n
X
vi = ξij ej , i = 1, . . . , q.
j=1

Sia f ∈ Altq (V, W ). Siano M la matrice (ξij ) i=1,...,q , H = {j1 , . . . , jq } con


j=1,...,n
(j1 , . . . , jq ) ∈ Inq (<), e  
ξ1j1 . . . ξ1jq
MH =  ... .. ..  .

. . 
ξqj1 . . . ξqjq
Allora X
f (v1 , . . . , vq ) = det MH f (ej1 , . . . , ejq ).
H

In particolare se q = n = dim V allora

f (v1 , . . . , vn ) = det M f (e1 , . . . , en ).

63
Dimostrazione. Si ha
 
n
X n
X n
X
f (v1 , . . . , vq ) = f  ξ1j1 ej1 , ξ2j2 ej2 , . . . , ξqjq ejq 
j1 =1 j2 =1 jq =1
n
X n
X n
X
= ··· ξ1j1 ξ2j2 · · · ξqjq f (ej1 , . . . , ejq )
j1 =1 j2 =1 jq =1
X
= ξ1j1 ξ2j2 · · · ξqjq f (ej1 , . . . , ejq )
Inq (3.7)
X X
= ξ1σ(j1 ) ξ2σ(j2 ) · · · ξqσ(jq ) f (eσ(j1 ) , . . . , eσ(jq ) )
H σ∈Σ(H)
X X
= sgn(σ)ξ1σ(j1 ) ξ2σ(j2 ) · · · ξqσ(jq ) f (ej1 , . . . , ejq )
H σ∈Σ(H)
X
= det MH f (ej1 , . . . , ejq )
H

dove Σ(H) sono le permutazioni dell’insieme H. Osserviamo che, eliminando da


Inq le q-uple con almeno due elementi uguali otteniamo le q-uple (σ(j1 ), . . . , σ(jq ))
dove (j1 , . . . , jq ) ∈ Inq (<) e σ ∈ Σ(H) con H = {j1 , . . . , jq }, da cui l’uguaglianza
tra la terza e la quarta riga di (3.7). 

Proposizione 3.10. Sia {e1 , . . . , en } una base dello spazio vettoriale V e


n
X
vi = ξij ej , i = 1, . . . , q.
j=1

Sia f ∈ Symq (V, W ). Siano M la matrice (ξij ) i=1,...,q , H = {j1 , . . . , jq } con


j=1,...,n
(j1 , . . . , jq ) ∈ Inq (≤) (per cui in H ci sono q elementi non necessariamente distinti),
e  
ξ1j1 . . . ξ1jq
MH =  ... ... ..  .

. 
ξqj1 . . . ξqjq
Allora X
f (v1 , . . . , vq ) = per(MH ) f (ej1 , . . . , ejq ).
H

In particolare se q = n = dim V allora

f (v1 , . . . , vn ) = per(M ) f (e1 , . . . , en ).

64
Dimostrazione. Si ha
 
n
X n
X n
X
f (v1 , . . . , vq ) = f  ξ1j1 ej1 , ξ2j2 ej2 , . . . , ξqjq ejq 
j1 =1 j2 =1 jq =1
n
X n
X n
X
= ··· ξ1j1 ξ2j2 · · · ξqjq f (ej1 , . . . , ejq )
j1 =1 j2 =1 jq =1
X
= ξ1j1 ξ2j2 · · · ξqjq f (ej1 , . . . , ejq )
Inq (3.8)
X X
= ξ1σ(j1 ) ξ2σ(j2 ) · · · ξqσ(jq ) f (eσ(j1 ) , . . . , eσ(jq ) )
H σ∈Σ(H)
X X
= ξ1σ(j1 ) ξ2σ(j2 ) · · · ξqσ(jq ) f (ej1 , . . . , ejq )
H σ∈Σ(H)
X
= per(MH ) f (ej1 , . . . , ejq )
H

dove Σ(H) sono le permutazioni dell’insieme H. Poichè ogni q-upla (j1 , . . . , jq )


∈ Inq si può ottenere da una q-upla di Inq (≤) permutandone opportunamente gli
elementi, si ha l’uguaglianza tra la terza e la quarta riga di (3.8). 

65
3.1 Potenza esterna controvariante di uno spazio vettori-
ale
Definizione 3.11. Sia V uno spazio vettoriale di dimensione n sul campo K. Sia
E = {e1 , . . . , en } una base di V e E ∗ = {ε1 , . . . , εn } la sua base duale in V ∗ . Sia
q un intero positivo. Sia

E0q = {ei1 ⊗ · · · ⊗ eiq : 1 ≤ ik ≤ n, 1 ≤ k ≤ q}.

l’associata base di 0q (V ). Ricordando che q0 (V ) = Lq (V ∗ , K) definiamo


N N

^q Oq
(V ) = Altq (V ∗ , K) ⊂ (V )
0
V1
la q-esima
V0 potenza esterna controvariante di V . Pertanto (V ) = V . Poniamo
inoltre (V ) = K.V
Gli elementi di q (V ) sono chiamati q-tensori skew-simmetrici (o alternanti)
controvarianti.
Proposizione 3.12. Sia V uno spazio vettoriale, q un intero positivo. Sia σ ∈
Σq .
Nq Nq
i) Esiste una ed una sola mappa lineare Pσ : 0 (V ) → 0 (V ) tale che

Pσ (v1 ⊗ · · · ⊗ vq ) = vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) .

ii) Pσ è un isomorfismo.
iii) La mappa σ → Pσ è un omomorfismo di gruppi Σq → Aut( q0 (V ), q0 (V ));
N N
in particolare

Pσ1 σ2 = Pσ1 ◦ Pσ2 , Pι = idNq0 (V ) , Pσ−1 = Pσ−1 .

iv) Se τ 1 , . . . , τ q ∈ V ∗ allora

Pσ (v1 ⊗ · · · ⊗ vq )(τ 1 , . . . , τ q ) = (v1 ⊗ · · · ⊗ vq )(τ σ(1) , . . . , τ σ(q) ).

Dimostrazione. i) La mappa
Oq
V × · · · × V → (V ), (v1 , . . . , vq ) → vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) .
| {z } 0
q volte
Nq Nq
è multilineare e quindi vi è una sola mappa lineare Pσ : 0 (V ) → 0 (V ) tale
che
Pσ (v1 ⊗ · · · ⊗ vq ) = vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) .

66
ii) La mappa Pσ , poichè induce una permutazione della base E0q , è un isomorfismo.
iii) Si ha

Pσ1 ◦ Pσ2 (v1 ⊗ · · · ⊗ vq ) = Pσ1 (vσ2−1 (1) ⊗ · · · ⊗ vσ2−1 (q) )


= vσ1−1 (σ2−1 (1)) ⊗ · · · ⊗ vσ1−1 (σ2−1 (q)) = v(σ2−1 σ1−1 )(1) ⊗ · · · ⊗ v(σ2−1 σ1−1 )(q)
= v(σ1 σ2 )−1 (1) ⊗ · · · ⊗ v(σ1 σ2 )−1 (q) = Pσ1 σ2 (v1 ⊗ · · · ⊗ vq ).
Le altre asserzioni seguono subito.
iv) Infatti

Pσ (v1 ⊗ · · · ⊗ vq )(τ 1 , . . . , τ q ) = (vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) )(τ 1 , . . . , τ q )


q q
Y i=σ(j) Y
vσ−1 (i) (τ i ) === vj (τ σ(j) ) = (v1 ⊗ · · · ⊗ vq )(τ σ(1) , . . . , τ σ(q) ).
i=1 j=1 
Corollario 3.13. Sia
X Oq
A= Ai1 ...iq ei1 ⊗ · · · ⊗ eiq ∈ (V )
0
(i1 ,...,iq )

allora
X X
Pσ (A) = Ai1 ...iq eiσ−1 (1) ⊗ · · · ⊗ eiσ−1 (q) = Aiσ(1) ...iσ(q) ei1 ⊗ · · · ⊗ eiq .
(i1 ,...,iq ) (i1 ,...,iq )
Nq
In particolare, A ∈ 0 (V ) è skew-simmetrico se e solo se Pσ (A) = sgn(σ)A per
ogni σ ∈ Σq cioè se e solo se
Ai1 ...iq = sgn(σ)Aiσ(1) ...iσ(q) (3.9)
per ogni σ ∈ Σq .
Dimostrazione. Immediata. 
Definizione 3.14. Definiamo la mappa lineare di antisimmetrizzazione (Definizione
3.8)
Oq ^q 1 X
Aq : (V ) → (V ), Aq (A) = sgn(σ)Pσ (A).
0 q! σ∈Σ
q

1 q ∗
Se τ , . . . , τ ∈ V allora
1 X
Aq (A)(τ 1 , . . . , τ q ) = sgn(σ)A(τ σ(1) , . . . , τ σ(q) )
q! σ∈Σ
q

1 X −1 −1
= sgn(σ)A(τ σ (1) , . . . , τ σ (q) ).
q! σ∈Σ
q

67
Si osserva subito che, se σ 0 ∈ Σq , allora

Pσ0 ◦ Aq = Aq ◦ Pσ0 = sgn(σ 0 )Aq . (3.10)

Ad esempio
1 X
Aq (Pσ0 (A)) = sgn(σ)Pσ (Pσ0 (A))
q! σ∈Σ
q
0
sgn(σ ) X
= sgn(σ)sgn(σ 0 )Pσσ0 (A)
q! σ∈Σ
q

sgn(σ 0 ) X
= sgn(σσ 0 )Pσσ0 (A)
q! σ∈Σ
q

1 X
= sgn(σ 0 ) sgn(γ)Pγ (A)
q! γ∈Σ
q
0 q
= sgn(σ )A (A).
Vq
Si ha quindi che A ∈ (V ) se e solo se A = Aq (A). In particolare Aq è surgettivo
per cui ^q Oq
(V ) ∼
= (V )/ ker Aq .
0
Siano v1 , . . . , vq ∈ V definiamo allora

v1 ∧ · · · ∧ vq = Aq (v1 ⊗ · · · ⊗ vq ).

Proposizione
Vq 3.15. Sia V uno spazio vettoriale. La potenza esterna q-esima
(V ) gode della proprietà universale:
(PA) Per ogni spazio vettoriale W e per ogni applicazione multilineare alternante

| × ·{z
g: V · · × V} → W
q volte

h : q (V ) → W che rende com-


V
esiste una ed una sola applicazione lineare b
mutativo il diagramma
λ /
Vq
V × ··· × V (V )
g h
b
' 
W

dove λ(v1 , . . . , vq ) = v1 ∧ · · · ∧ vq .

68
Dimostrazione.
Nq Per la Proposizione 1.21 esiste una ed una sola applicazione
lineare h : 0 (V ) → W tale che h(v1 ⊗ · · · ⊗ vq ) = g(v1 , . . . , vq ). Allora per ogni
σ ∈ Σq si ha

h(vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ) = g(vσ−1 (1) , . . . , vσ−1 (q) ),

da cui, sommando su σ ∈ Σq , si ha

1 X 1 X
sgn(σ)h(vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ) = sgn(σ)g(vσ−1 (1) , . . . , vσ−1 (q) ).
q! σ∈Σ q! σ∈Σ
q q

Per la linearità di h,
1 X
sgn(σ)h(vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ) = h (Aq (v1 ⊗ · · · ⊗ vq )) .
q! σ∈Σ
q

Poichè g è alternante
1 X
sgn(σ)g(vσ−1 (1) , . . . , vσ−1 (q) ) = g(v1 , . . . , vq ).
q! σ∈Σ
q

Quindi
h (Aq (v1 ⊗ · · · ⊗ vq )) = h (λ(v1 , . . . , vq )) = g(v1 , . . . , vq ).
Ponendo
h = h|Vq (V )
b

si ha la tesi. 

Proposizione 3.16. Sia Υq l’insieme delle trasposizioni di Σq Allora

i) Sia Oq
Y = {A + Pγ (A) : A ∈ (V ), γ ∈ Υq }.
0

Allora ker Aq = hY i, il sottospazio generato da Y .

ii) Sia

Z = {v1 ⊗ · · · ⊗ vq : vi = vj per almeno due indici 1 ≤ i < j ≤ q }.

Allora ker Aq = hZi, il sottospazio generato da Z.

69
Nq
Dimostrazione. i) Sia Y = {A + Pγ (A) : A ∈ 0 (V ), γ ∈ Υq }. Proviamo
innanzitutto che il sottospazio hY i generato da Y coincide con il sottospazio hW i
generato da
Oq
W = {A − sgn(σ)Pσ (A) : A ∈ (V ), σ ∈ Σq }.
0

L’inclusione Y ⊂ W è ovvia (se γ ∈ Υq allora sgn(γ) = −1 e quindi A + Pγ (A) =


A − sgn(γ)Pγ (A)). Dall’identità
Pγ1 (A − sgn(γ2 )Pγ2 (A)) = Pγ1 (A) − sgn(γ2 )Pγ1 (Pγ2 (A))
= Pγ1 (A) + A
(3.11)
− [A − sgn(γ2 )Pγ2 (A)]
− sgn(γ2 )[Pγ2 (A) + Pγ1 (Pγ2 (A))],
se γ1 ∈ Υq , γ2 ∈ Σq e A − sgn(γ2 )Pγ2 (A) ∈ hY i, poichè Pγ1 (A) + A ∈ Y ,
Pγ2 (A) + Pγ1 (Pγ2 (A)) ∈ Y si ha che Pγ1 (A − sgn(γ2 )Pγ2 (A)) ∈ hY i.
Sia σ ∈ Σq prodotto di m trasposizioni. Utilizziamo l’induzione su m. Per
m = 1 non vi è nulla da provare. Supponiamo che per ogni γ2 ∈ Σq , prodotto di
m trasposizioni, si abbia che A − sgn(γ2 )Pγ2 (A) ∈ hY i. Sia σ = γ1 γ2 con γ1 ∈ Υq
e γ2 prodotto di m elementi di Υq . Poichè
A − sgn(σ)Pσ (A) = A − sgn(γ1 )sgn(γ2 )Pγ1 (Pγ2 (A))
= A − sgn(γ1 )Pγ1 (A) + sgn(γ1 )Pγ1 (A − sgn(γ2 )Pγ2 (A))
= A + Pγ1 (A) + sgn(γ1 )Pγ1 (A − sgn(γ2 )Pγ2 (A)),
avremo che A − sgn(σ)Pσ (A) ∈ hY i. Pertanto hY i = hW i.
Proviamo ora che hW i = ker Aq . Da
 
1 X 1 X
A − Aq (A) = q!A − sgn(σ)Pσ (A) = (A − sgn(σ)Pσ (A))
q! σ∈Σ
q! σ∈Σ
q q

1 X
segue che se Aq (A) = 0 se e solo se A = (A − sgn(σ)Pσ (A)). Pertanto
q! σ∈Σ
q
q q
ker A ⊂ hW i. Dimostriamo ora che W ⊂ ker A . Si ha
Aq (A − sgn(σ)Pσ (A)) = Aq (A) − sgn(σ)Aq (Pσ (A)) = Aq (A) − sgn2 (σ)Aq (A) = 0.
Pertanto hW i = ker Aq e, conseguentemente, ker Aq = hY i.
ii) Osserviamo subito che Z ⊂ ker Aq . Infatti se vi = vj allora Aq (v1 ⊗ · · · ⊗ vq ) =
0. Infatti sia σ ∈ Σq la trasposizione (i, j) allora
Aq (v1 ⊗ · · · ⊗ vq ) = Aq (Pσ (v1 ⊗ · · · ⊗ vq )) = −Aq (v1 ⊗ · · · ⊗ vq )

70
da cui Aq (v1 ⊗ · · · ⊗ vq ) = 0.
D’altronde i generatori di ker Aq sono contenuti in hZi, il sottospazio generato
q
NqZ. Per i) ker A è generato dagli elementi della forma A + Pγ (A) dove A ∈
da
0 (V ) e γ ∈ Υq . Poichè Pγ è lineare possiamo assumere che A = v1 ⊗ · · · ⊗ vq .
Se γ = (i, j), i < j, allora

A + Pγ (A) = v1 ⊗ · · · ⊗ vi ⊗ · · · ⊗ vj ⊗ · · · ⊗ vq + v1 ⊗ · · · ⊗ vj ⊗ · · · ⊗ vi ⊗ · · · ⊗ vq
= v1 ⊗ · · · ⊗ (vi + vj ) ⊗ · · · ⊗ (vj + vi ) ⊗ · · · ⊗ vq
− v1 ⊗ · · · ⊗ vi ⊗ · · · ⊗ vi ⊗ · · · ⊗ vq
− v1 ⊗ · · · ⊗ vj ⊗ · · · ⊗ vj ⊗ · · · ⊗ vq ∈ hZi.

Si ha quindi la tesi. 
Corollario 3.17. Sia q ≤ n. L’insieme

Aq (E0q ) = {ei1 ∧ · · · ∧ eiq ) : 1 ≤ i1 < . . . < iq ≤ n}

è base di q (V ) che indicheremo con q (E). Pertanto


V V

 
^q n
dim (V ) = .
q

Dimostrazione. La mappa Aq è surgettiva e quindi Aq (E0q ) genera q (V ). Per


V
la Proposizione 3.16, Aq (ei1 ⊗ · · · ⊗ eik ⊗ · · · ⊗ eil ⊗ · · · ⊗ eiq ) = 0 se e solo se
esistono k e l, con 1 ≤ k < l ≤ q, tali che eik = eil . Poichè la scrittura
1 X
Aq (ei1 ⊗ · · · ⊗ eiq ) = sgn(σ)eiσ−1 (1) ⊗ · · · ⊗ eiσ−1 (q)
q! σ∈Σ
q

è unica (gli elementi eiσ−1 (1) ⊗ · · · ⊗ eiσ−1 (q) stanno nella base E0q )

Aq (ei1 ⊗ · · · ⊗ eiq ) = Aq (ej1 ⊗ · · · ⊗ ejq ) 6= 0


se e solo se ei1 ⊗· · ·⊗eiq e ej1 ⊗· · ·⊗ejq hanno gli stessi fattori. D’altronde gli ele-
menti della base E0q che non hanno fattori uguali sono tanti quante le combinazioni
di classe q di un insieme di n elementi. Quindi potremo scrivere

Aq (E0q ) = {Aq (ei1 ⊗ · · · ⊗ eiq ) : 1 ≤ i1 < . . . < iq ≤ n}.

Inoltre l’insieme Aq (E0q ) è libero. Se


X
λi1 ,...,iq Aq (ei1 ⊗ · · · ⊗ eiq ) = 0
1≤i1 <...<iq ≤n

71
allora  
X
Aq  λi1 ,...,iq ei1 ⊗ · · · ⊗ eiq  = 0,
1≤i1 <...<iq ≤n

quindi tutti gli λi1 ,...,iq = 0 altrimenti


X
/ ker Aq .
λi1 ,...,iq ei1 ⊗ · · · ⊗ eiq ∈
1≤i1 <...<iq ≤n

poichè i tensori decomponibili ei1 ⊗ · · · ⊗ eiq hanno tutti fattori distinti. 


Definizione 3.18 (Algebra esterna controvariante). Sia
M ^q
Λ• (V ) = (V ).
q≥0

Allora n  

X n
dim Λ (V ) = = 2n .
q=0
q

È opportuno
N• anche qui sottolineare come Λ• (V ) (non è in generale sottoalgebra
di V(V ) in quanto non è stabile
1 V2rispetto al prodotto tensoriale. Siano v, w ∈
V = (V ), inVgenerale v ⊗ wVp∈
/ (V ) perchè, in generale, v ⊗ w 6= −w ⊗ v.
q
Siano A ∈ (V ) e B ∈ (V ), definiamo il prodotto esterno (o alternante)
di A e B ^p+q
A ∧ B = Ap+q (A ⊗ B) ∈ (V ).

Proposizione 3.19. Siano A, A0 ∈ q (V ), B, B 0 ∈ p (V ) e C ∈ r (V ).


V V V

i) Proprietà associativa:
(A ∧ B) ∧ C = A ∧ (B ∧ C) (= A ∧ B ∧ C).

ii) Proprietà distributiva:


(A + A0 ) ∧ B = A ∧ B + A0 ∧ B, A ∧ (B + B 0 ) = A ∧ B + A ∧ B 0 .

iii) Omogeneità: per ogni λ ∈ K,


(λA) ∧ B = A ∧ (λB) = λ(A ∧ B).

iv) (Anti)commutatività:
A ∧ B = (−1)pq B ∧ A.
In particolare, A ∧ A = 0 se q è dispari.

72
v) Unitarietà:
1 ∧ A = A ∧ 1 = A.

Pertanto con il prodotto esterno Λ• (V ) diventa un’algebra graduata unitaria, as-


sociativa e non commutativa detta l’algebra esterna controvariante di V .

Dimostrazione. i) Dobbiamo provare che

Aq+p (Aq (A) ⊗ B) = Aq+p (A ⊗ B), Aq+p (A ⊗ Ap (B)) = Aq+p (A ⊗ B). (3.12)

Poichè
1 X
Aq (A) ⊗ B = sgn(σ)Pσ (A) ⊗ B
q! σ∈Σ
q

allora
1 X
Aq+p (Aq (A) ⊗ B) = sgn(σ)Aq+p (Pσ (A) ⊗ B).
q! σ∈Σ
q

Se A e B sono tensori decomponibili, A = v1 ⊗ · · · ⊗ vq e B = w1 ⊗ · · · ⊗ wp allora,


per ogni σ ∈ Σq ,
Aq+p (Pσ (A) ⊗ B) = Aq+p (A ⊗ B).
Infatti identificando σ ∈ Σq con l’elemento σ
e ∈ Σq+p , definito da
(
σ(i) 1 ≤ i ≤ q
σ
e(i) =
i q + 1 ≤ i ≤ q + p,

si ha

vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ⊗ wq+1 ⊗ · · · ⊗ wq+p


= vσe−1 (1) ⊗ · · · ⊗ vσe−1 (q) ⊗ wσe−1 (q+1) ⊗ · · · ⊗ wσe−1 (q+p) ,

cioè
Pσ (A) ⊗ B = Pσe (A ⊗ B).
Poichè sgn(σ) = sgn(e
σ ) si ha quindi

Aq+p (Pσ (A)⊗B) = Aq+p (Pσe (A⊗B)) = sgn(e


σ )Aq+p (A⊗B) = sgn(σ)Aq+p (A⊗B).

Pertanto
1 X
Aq+p (Aq (A) ⊗ B) = sgn(σ)2 Aq+p (A ⊗ B) = Aq+p (A ⊗ B).
q! σ∈Σ
q

73
Per la linearità di Aq+p e Aq allora la prima relazione di (3.12) vale per tutti i
tensori. La prova della seconda relazione è completamente analoga. Pertanto
(A ∧ B) ∧ C = Aq+p+r (Aq+p (A ⊗ B) ⊗ C) = Aq+p+r (A ⊗ B ⊗ C).
Analogamente
A ∧ (B ∧ C) = Aq+p+r (A ⊗ Ap+r (B ⊗ C)) = Aq+p+r (A ⊗ B ⊗ C).
ii) Si ha

(A + A0 ) ∧ B = Aq+p ((A + A0 ) ⊗ B) = Aq+p (A ⊗ B + A0 ⊗ B)


= Aq+p (A ⊗ B) + Aq+p (A0 ⊗ B) = A ∧ B + A0 ∧ B.
Infine

A ∧ (B + B 0 ) = Aq+p (A ⊗ (B + B 0 )) = Aq+p (A ⊗ B + A ⊗ B 0 )
= Aq+p (A ⊗ B) + Aq+p (A ⊗ B 0 ) = A ∧ B + A ∧ B 0 .
iii) Se λ ∈ K si ha
(λA) ∧ B = Ap+q (λA ⊗ B) = λAp+q (A ⊗ B) = λ(A ∧ B)
e A ∧ (λB) = Ap+q (A ⊗ λB) = λAp+q (A ⊗ B) = λ(A ∧ B).
iv) Se proviamo che
Aq+p (A ⊗ B) = (−1)pq Aq+p (B ⊗ A) (3.13)
vale per i tensori decomponibili, per la linearità di Aq+p , (3.13) vale per tutti i
tensori. Siano A = v1 ⊗ · · · ⊗ vq e B = w1 ⊗ · · · ⊗ wp , allora
A ⊗ B = v1 ⊗ · · · ⊗ vq ⊗ w1 ⊗ · · · ⊗ wp .
Spostiamo w1 di q posti alla sua sinistra mediante q trasposizioni (q scambi di
posto con il fattore che lo precede) e cosı̀ per tutti gli altri wi , i = 2, . . . , p. Sia
σ il prodotto di queste pq trasposizioni. Allora
B ⊗ A = Pσ (A ⊗ B).
Quindi
Aq+p (B ⊗ A) = Aq+p (Pσ (A ⊗ B)) = sgn(σ)Aq+p (A ⊗ B) = (−1)pq Aq+p (A ⊗ B)
poichè sgn(σ) = (−1)pq .
v) Si ha
1 ∧ A = Aq (1 ⊗ A) = Aq (1 · A) = Aq (A) = A,
e A ∧ 1 = Aq (A ⊗ 1) = Aq (1 · A) = Aq (A) = A. 

74
Osservazione 3.20. Siano v1 , . . . , vq ∈ V . Allora
vi1 ∧ · · · ∧ viq = sgn(σ)v1 ∧ · · · ∧ vq
se σ ∈ Σq è la permutazione tale che σ(j) = ij , j = 1, . . . , q. Infatti

vi1 ∧ · · · ∧ viq = Aq (vi1 ⊗ · · · ⊗ viq ) = Aq (vσ(1) ⊗ · · · ⊗ vσ(q) )


= Aq (Pσ−1 (v1 ⊗ · · · ⊗ vq )) = sgn(σ)Aq (v1 ⊗ · · · ⊗ vq ) = sgn(σ)v1 ∧ · · · ∧ vq .
Proposizione 3.21. Siano v1 , . . . , vq ∈ V e siano
n
X
vi = ξij ej , i = 1, . . . , q,
j=1

le loro rappresentazioni rispetto alla base E di V . Siano M la matrice (ξij ) i=1,...,q ,


j=1,...,n
H = {j1 , . . . , jq } ⊂ {1, . . . , n}, j1 < j2 < . . . < jq , e
j
 j1 
ξ1 . . . ξ1q
MH =  ... . . . ...  .
 
j
ξqj1 . . . ξq q
Allora X
v1 ∧ · · · ∧ vq = det MH ej1 ∧ · · · ∧ ejq .
H
In particolare se q = n allora
v1 ∧ · · · ∧ vn = det M e1 ∧ · · · ∧ en . (3.14)
Dimostrazione. Si ha
! !  
n
X n
X n
X
v1 ∧ · · · ∧ vq = ξ1j1 ej1 ∧ ξ2j2 ej2 ∧ ··· ∧  ξqjq ejq 
j1 =1 j2 =1 jq =1
n
X n
X n
X
= ··· ξ1j1 ξ2j2 · · · ξqjq ej1 ∧ · · · ∧ ejq
j1 =1 j2 =1 jq =1
X X σ(j1 ) σ(j2 )
= ξ1 ξ2 · · · ξqσ(jq ) eσ(j1 ) ∧ · · · ∧ eσ(jq )
H σ∈Σ(H)
X X σ(j1 ) σ(j2 )
= sgn(σ)ξ1 ξ2 · · · ξqσ(jq ) ej1 ∧ · · · ∧ ejq
H σ∈Σ(H)
X
= det MH ej1 ∧ · · · ∧ ejq
H

dove Σ(H) sono le permutazioni dell’insieme H. 

75
Osservazione 3.22. Dalla Proposizione 3.21 segue subito che

v1 ∧ · · · ∧ vq = 0 ⇐⇒ v1 , . . . , vq sono linearmente dipendenti.

Esempio 3.23. Sia V = R3 , {e1 , e2 , e3 } la base canonica,

v1 = ξ11 e1 + ξ12 e2 + ξ13 e3 , v2 = ξ21 e1 + ξ22 e2 + ξ33 e3 .

Calcoliamo v1 ∧ v2 ∈ 2 (V ). Si ha
V

 1 2 3
ξ ξ ξ
M = 11 12 13
ξ2 ξ2 ξ2

e H1 = {1, 2}, H2 = {1, 3}, H3 = {2, 3}. Quindi


 1 2  1 3  
ξ1 ξ1 ξ ξ ξ12 ξ13
MH1 = 1 2 , MH2 = 11 13 , MH3 = ,
ξ2 ξ2 ξ2 ξ2 ξ22 ξ23

per cui

v1 ∧ v2 = det MH1 e1 ∧ e2 + det MH2 e1 ∧ e3 + det MH3 e2 ∧ e3


= (ξ11 ξ22 − ξ12 ξ21 )e1 ∧ e2 + (ξ11 ξ23 − ξ13 ξ21 )e1 ∧ e3 + (ξ12 ξ23 − ξ13 ξ22 )e2 ∧ e3
= (ξ12 ξ23 − ξ13 ξ22 )e1 − (ξ11 ξ23 − ξ13 ξ21 )e2 + (ξ11 ξ22 − ξ12 ξ21 )e3 ,

avendo identificato V = 1 (V ) con 2 (V ) mediante la corrispondenza ei ↔


V V
ej ∧ ek se (i, j, k) è una permutazione pari di (1, 2, 3).

Definizione 3.24. Siano V uno spazio vettoriale, E = {e1 , . . . , en } e V =


{v1 , . . . , vn } due basi di V e (ξij )i,j la matrice di passaggio da V a E per cui
n
X
vi = ξij ej , i = 1, . . . , n.
j=1

Diremo che E e V sono equiorientate se

det(ξij ) > 0.

L’equiorientamento è ovviamente una relazione d’equivalenza sull’insieme delle


basi di V . Le le classi di equivalenza sono 2 ed individuano quindi 2 orientazioni
distinte di V . Per la (3.20) E e V sono equiorientate se e solo se

v1 ∧ · · · ∧ vn = k e1 ∧ · · · ∧ en

76
per un numero reale k > 0. In altre parole, per l’Osservazione 3.22, dare
un’orientazione di V equivale a dare un n-tensore alterno ω 6= 0.
Se V è dotato di un prodotto scalare g possiamo scegliere una base ortonormale
E in modo che se ω è un n-tensore alterno non nullo si abbia

ω(e1 , . . . , en ) = 1.

Allora, se V è una base ortonormale,

ω(v1 , . . . , vn ) = det(ξij )ω(e1 , . . . , en ) = ±1

poichè la matrice (ξij )i,j è ortogonale e quindi det(ξij ) = ±1. Quindi le basi
ortonormali E e V sono equiorientate se e solo se

det(ξij ) = 1.

Definizione 3.25. Siano V e W due spazi vettoriali. Ad un’applicazione lineare


f : V → W è associata la mappa lineare
Oq Oq
⊗q0 (f ) : (V ) → (W ), ⊗q0 (f )(v1 ⊗ · · · ⊗ vq ) = f (v1 ) ⊗ · · · ⊗ f (vq ).
0 0
Nq
Poichè, se A ∈ 0 (V ),

⊗q0 (f )(Aq (A)) = Aq (⊗q0 (f )(A))

si ha ^ q  ^q
Im ⊗q0 (f ) V ⊂ W,
per cui è indotta la mappa lineare
^q ^q ^q
⊗q (f ) : V → W, (f )(v1 ∧ · · · ∧ vq ) = f (v1 ) ∧ · · · ∧ f (vq ).

Proposizione 3.26. Siano V e W due spazi vettoriali e sia f : V → W un’applicazione


lineare. Siano E = {e1 , . . . , en } una base di V e F = {f1 , . . . , fm } una base di
W . Sia M = MF ,E V la matriceV associataV a f rispetto alle basi V E e F. Allora la
matrice associata a q (f ) : q (V ) → q (W ) rispetto alle basi q (E) e q (F) è
V
la matrice Cq (M ), q-esima matrice composta di M .

Dimostrazione. Sia M = (αij )1≤i≤m , quindi


1≤j≤n

m
X
f (ej ) = αij fi , j = 1, . . . , n.
i=1

77
Allora

f (ej1 ) ∧ · · · ∧ f (ejq )
!  
Xm m
X X
= αi1 j1 fi1 ∧ · · · ∧  α iq jq f iq  = αi1 j1 · · · αiq jq fi1 ∧ · · · ∧ fiq
i1 =1 iq =1 (i1 ,...,iq )
 
X X
=  sgn(σ)αiσ−1 (1) j1 · · · αiσ−1 (q) jq  fi1 ∧ · · · ∧ fiq
1≤i1 <...<iq ≤m σ∈Σq
X i ...i
= det Mj11...jqq fi1 ∧ · · · ∧ fiq
1≤i1 <...<iq ≤m

da cui la tesi. 

Esempio 3.27. Sia f : R4 → R3 l’applicazione lineare a cui è associata, rispetto


alle basi canoniche {e1 , e2 , e3 , e4 } di R4 e {f1 , f2 , f3 } di R3 , la matrice
   
a11 a12 a13 a14 1 2 3 0
M = a21 a22 a23 a24  = 4 1 1 −1 .
a31 a32 a33 a34 0 2 1 0

Allora la matrice associata a 2 (R4 ) → 2 (R3 ), rispetto alle corrispondenti basi,


V V

 
a11 a12 a11 a13 a11 a14 a12 a13 a12 a14 a13 a14

 a21 a22 a21 a23 a21 a24 a22 a23 a22 a24 a23 a24 
 
 
 
 a11 a12 a11 a13 a11 a14 a12 a13 a12 a14 a13 a14 
C2 (M ) = 
 a31 a32 a31 a33 a31 a34 a32 a33 a32 a34 a33 a34 

 
 
 
 a21 a22 a21 a23 a21 a24 a22 a23 a22 a24 a23 a24 

a31 a32 a31 a33 a31 a34 a32 a33 a32 a34 a33 a34
 
1 2 1 3 1 0 2 3 2 0 3 0

 4 1 4 1 4 −1 1 1 1 −1 1 −1 
 
 
 
 1 2 1 3 1 0 2 3 2 0 3 0 
=
 0 2 0 1 0 0 2 1 2 0

1 0 
 
 
 
 4 1 4 1 4 −1 1 1 1 −1 1 −1 

0 2 0 1 0 0 2 1 2 0 1 0

78
 
−7 −11 −1 −1 −2 −3
= 2 1 0 −4 0 0 .
8 4 0 −1 2 1
Infatti un conto diretto dà
^2
(f )(e1 ∧ e2 ) = f (e1 ) ∧ f (e2 ) = −7f1 ∧ f2 + 2f1 ∧ f3 + 8f2 ∧ f3 ,
^2
(f )(e1 ∧ e3 ) = f (e1 ) ∧ f (e3 ) = −11f1 ∧ f2 + f1 ∧ f3 + 4f2 ∧ f3 ,
^2
(f )(e1 ∧ e4 ) = f (e1 ) ∧ f (e4 ) = −f1 ∧ f2 ,
^2
(f )(e2 ∧ e3 ) = f (e2 ) ∧ f (e3 ) = −f1 ∧ f2 − 4f1 ∧ f3 − f2 ∧ f3 ,
^2
(f )(e2 ∧ e4 ) = f (e2 ) ∧ f (e4 ) = −2f1 ∧ f2 + 2f2 ∧ f3 ,
^2
(f )(e3 ∧ e4 ) = f (e3 ) ∧ f (e4 ) = −3f1 ∧ f2 + f2 ∧ f3 .

Proposizione 3.28. Un omomorfismo lineare f : V → W induce un omomor-


fismo di algebre graduate
^• ^• X  X ^q
(f ) : Λ• (V ) → Λ• (W ), (f ) tq = (f )(tq ).
In particolare
Λ• (f )(tq ∧ tp ) = Λ• (f )(tq ) ∧ Λ• (f )(tp ).
Dimostrazione. Infatti, per τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p ∈ W ∗ , si ha
Λ• (f )(tq ∧ tp )(τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p )
^q+p
= (f )(tq ∧ tp )(τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p )
= tq ∧ tp (f ∗ (τ 1 ), . . . , f ∗ (τ q ), f ∗ (τ q+1 ), . . . , f ∗ (τ q+p ))
= Aq+p (tq ⊗ tp )(f ∗ (τ 1 ), . . . , f ∗ (τ q ), f ∗ (τ q+1 ), . . . , f ∗ (τ q+p ))
X sgn(σ) −1 −1 −1 −1
= tq ⊗ tp (f ∗ (τ σ (1) ), . . . , f ∗ (τ σ (q) ), f ∗ (τ σ (q+1) ), . . . , f ∗ (τ σ (q+p) ))
σ∈Σ
(q + p)!
q+p

X sgn(σ) q+p −1 −1 −1 −1
= ⊗0 (f )(tq ⊗ tp )(τ σ (1) , . . . , τ σ (q) , τ σ (q+1) , . . . , τ σ (q+p) )
σ∈Σq+p
(q + p)!
X sgn(σ) q −1 −1 −1 −1
= ⊗0 (f )(tq ) ⊗ ⊗p0 (f )(tp )(τ σ (1) , . . . , τ σ (q) , τ σ (q+1) , . . . , τ σ (q+p) )
σ∈Σq+p
(q + p)!
= Aq+p (⊗q0 (f )(tq ) ⊗ ⊗p0 (f )(tp ))(τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p )
= ⊗q0 (f )(tq ) ∧ ⊗p0 (f )(tp )(τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p )
= Λ• (f )(tq ) ∧ Λ• (f )(tp )(τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p ). 

79
3.2 Potenza esterna covariante di uno spazio vettoriale
Definizione 3.29. Sia V uno spazio vettoriale di dimensione n sul campo K. Sia
E = {e1 , . . . , en } una base di V e E ∗ = {ε1 , . . . , εn } la sua base duale in V ∗ . Sia
q un intero positivo. Sia

Eq0 = {εj1 ⊗ · · · ⊗ εjq : 1 ≤ jl ≤ n, 1 ≤ l ≤ q}.


Nq N0
l’associata base di 0 (V ). Ricordando che q (V ) = Lq (V, K) definiamo
^ O0
(V ) = Altq (V, K) ⊂ (V )
q q


V
la q-esima
V potenza esterna covariante di V
V . Pertanto 1 (V ) = V . Poniamo
inoltre 0 (V ) = K. Gli elementi di di q (V ) sono chiamati q-tensori skew-
simmetrici (o alternanti) covarianti.

Proposizione 3.30. Sia V uno spazio vettoriale, q un intero positivo. Sia σ ∈


Σq .
N0 N0
i) esiste una ed una sola mappa lineare P σ : q (V ) → q (V ) tale che

−1 (1) −1 (q)
P σ (τ 1 ⊗ · · · ⊗ τ q ) = τ σ ⊗ · · · ⊗ τσ .

ii) P σ è isomorfismo.

iii) La mappa σ → P σ è un omomorfismo di gruppi


O 0 O0 
Σq → Aut (V ), (V ) ;
q q

in particolare
−1
P σ1 σ2 = P σ1 ◦ P σ2 , P ι = idN0q (V ) , Pσ = (P σ )−1 .

iv) Se v1 , . . . , vq ∈ V allora

P σ (τ 1 ⊗ · · · ⊗ τ q )(v1 , . . . , vq ) = (τ 1 ⊗ · · · ⊗ τ q )(vσ(1) , . . . , vσ(q) ).

v) Mediante l’identificazione ( q0 (V ))∗ = 0q (V ), risulta essere


N N

P σ = (Pσ−1 )∗ .

80
Dimostrazione. i) La mappa
O0 −1 (1) −1 (q)
∗ ∗
V × · · · × V → (V ), (τ 1 , . . . , τ q ) → τ σ ⊗ · · · ⊗ τσ .
| {z } q
q volte
N0 N0
è multilineare e quindi vi è una sola mappa lineare P σ : q (V ) → q (V ) tale
che
−1 −1
P σ (τ 1 ⊗ · · · ⊗ τ q ) = τ σ (1) ⊗ · · · ⊗ τ σ (q) .
ii) La mappa P σ , poichè induce una permutazione della base Eq0 , è un isomorfismo.
iii) Si ha
−1 −1
P σ1 ◦ P σ2 (τ 1 ⊗ · · · ⊗ τ q ) = P σ1 (τ σ2 (1)
⊗ · · · ⊗ τ σ2 (q)
)
σ1−1 (σ2−1 (1)) σ1−1 (σ2−1 (q)) (σ2−1 σ1−1 )(1) −1 −1
=τ ⊗ ··· ⊗ τ =τ ⊗ · · · ⊗ τ (σ2 σ1 )(q)

−1 (1) −1 (q)
= τ (σ1 σ2 ) ⊗ · · · ⊗ τ (σ1 σ2 ) = P σ1 σ2 (τ 1 ⊗ · · · ⊗ τ q ).
iv) Infatti
−1 −1
P σ (τ 1 ⊗ · · · ⊗ τ q )(v1 , . . . , vq ) = (τ σ (1) ⊗ · · · ⊗ τ σ (q) )(v1 , . . . , vq )
q q
Y
σ −1 (i) i=σ(j) Y j
τ (vi ) === τ (vσ(j) ) = (τ 1 ⊗ · · · ⊗ τ q )(vσ(1) , . . . , vσ(q) ).
i=1 j=1

v) Siano τ 1 , . . . , τ q ∈ V ∗ e v1 , . . . , vq ∈ V , allora
−1 −1
[P σ (τ 1 ⊗ · · · ⊗ τ q )](v1 ⊗ · · · ⊗ vq ) = (τ σ (1) ⊗ · · · ⊗ τ σ (q) )(v1 ⊗ · · · ⊗ vq )
= (τ 1 ⊗ · · · ⊗ τ q )(vσ(1) ⊗ · · · ⊗ vσ(q) )
= (τ 1 ⊗ · · · ⊗ τ q )(Pσ−1 (v1 ⊗ · · · ⊗ vq ))
= [(Pσ−1 )∗ (τ 1 ⊗ · · · ⊗ τ q )](v1 ⊗ · · · ⊗ vq ). 
Corollario 3.31. Sia
X O0
A= Aj1 ...jq εj1 ⊗ · · · ⊗ εjq ∈ (V )
q
(j1 ,...,jq )

allora
X X
P σ (A) = Aj1 ...jq εjσ−1 (1) ⊗ · · · ⊗ εjσ−1 (q) = Ajσ(1) ...jσ(q) εj1 ⊗ · · · ⊗ εjq .
(j1 ,...,jq ) (j1 ,...,jq )

In particolare, A ∈ 0q (V ) è skew-simmetrico se e solo se P σ (A) = sgn(σ)A per


N
ogni σ ∈ Σq cioè se e solo se
Aj1 ...jq = sgn(σ)Ajσ(1) ...jσ(q) (3.15)
per ogni σ ∈ Σq .

81
Dimostrazione. Immediata. 
Definizione 3.32. Definiamo la mappa lineare di antisimmetrizzazione (Definizione
3.8)
O0 ^ 1 X
Aq : (V ) → (V ), Aq (A) = sgn(σ)P σ (A).
q q q! σ∈Σ
q

Se v1 , . . . , vq ∈ V allora

1 X
Aq (A)(v1 , . . . , vq ) = sgn(σ)A(vσ(1) , . . . , vσ(q) )
q! σ∈Σ
q

1 X
= sgn(σ)A(vσ−1 (1) , . . . , vσ−1 (q) ).
q! σ∈Σ
q

Si osserva subito che, se σ 0 ∈ Σq , allora


0 0
P σ ◦ Aq = Aq ◦ P σ = sgn(σ 0 )Aq . (3.16)

Ad esempio
0 1 X 0
Aq (P σ (A)) = sgn(σ)P σ (P σ (A))
q! σ∈Σ
q
0
sgn(σ ) X 0
= sgn(σ)sgn(σ 0 )P σσ (A)
q! σ∈Σ
q

sgn(σ 0 ) X 0
= sgn(σσ 0 )P σσ (A)
q! σ∈Σ
q

1 X
= sgn(σ 0 ) sgn(γ)P γ (A)
q! γ∈Σ
q
0
= sgn(σ )Aq (A).
V
Si ha quindi che A ∈ q (V ) se e solo se A = Aq (A). In particolare Aq è surgettivo,
per cui
O0
(V ) ∼
^
= (V )/ ker Aq .
q q

Siano τ 1 , . . . , τ q ∈ V ∗ , definiamo allora

τ 1 ∧ · · · ∧ τ q = Aq (τ 1 ⊗ · · · ⊗ τ q ).

Proposizione
V 3.33. Sia V uno spazio vettoriale. La potenza esterna q-esima
q (V ) gode della proprietà universale:

82
(PA) Per ogni spazio vettoriale W e per ogni applicazione multilineare alternante

· · × V }∗ → W
| × ·{z
g: V
q volte

V
h : q (V ) → W che rende com-
esiste una ed una sola applicazione lineare b
mutativo il diagramma

V ∗ × ··· × V ∗ λ /
V
q (V )

g h
b
' 
W

dove λ(τ 1 , . . . , τ q ) = τ 1 ∧ · · · ∧ τ q .

Dimostrazione.
N0 Per la Proposizione 1.21 esiste una ed una sola applicazione
1 q 1 q
lineare h : q (V ) → W tale che h(τ ⊗ · · · ⊗ τ ) = g(τ , . . . , τ ). Allora per ogni
σ ∈ Σq si ha
−1 (1) −1 (q) −1 (1) −1 (q)
h(τ σ ⊗ · · · ⊗ τσ ) = g(τ σ , . . . , τσ ),

da cui, sommando su σ ∈ Σq , si ha

1 X −1 −1 1 X −1 −1
sgn(σ)h(τ σ (1) ⊗ · · · ⊗ τ σ (q) ) = sgn(σ)g(τ σ (1) , . . . , τ σ (q) ).
q! σ∈Σ q! σ∈Σ
q q

Per la linearità di h si ha
1 X −1 −1
sgn(σ)h(τ σ (1) ⊗ · · · ⊗ τ σ (q) ) = h Aq (τ 1 ⊗ · · · ⊗ τ q ) .

q! σ∈Σ
q

Poichè g è alternante, si ottiene


1 X −1 −1
sgn(σ)g(τ σ (1) , . . . , τ σ (q) ) = g(τ 1 , . . . , τ q ).
q! σ∈Σ
q

Quindi
h Aq (τ 1 ⊗ · · · ⊗ τ q ) = h λ(τ 1 , . . . , τ q ) = g(τ 1 , . . . , τ q ).
 

Ponendo
h = h|Vq (V )
b

si ha la tesi. 

83
Proposizione 3.34. Sia Υq l’insieme delle trasposizioni di Σq .
i) Sia
O0
Y = {A + P γ (A) : A ∈ (V ), γ ∈ Υq }.
q

Allora ker Aq = hY i, il sottospazio generato da Y .


ii) Sia

Z = {τ 1 ⊗ · · · ⊗ τ q : τ i = τ j per almeno due indici 1 ≤ i < j ≤ q }.

Allora ker Aq = hZi, il sottospazio generato da Z.


Dimostrazione. i) Proviamo innanzitutto che il sottospazio hY i coincide con il
sottospazio hW i generato da
O0
W = {A − sgn(σ)P σ (A) : A ∈ (V ), σ ∈ Σq }.
q

L’inclusione Y ⊂ W è ovvia (se γ ∈ Υq allora sgn(γ) = −1 e quindi A + P γ (A) =


A − sgn(γ)P γ (A)). Dall’identità

P γ1 (A − sgn(γ2 )P γ2 (A)) = P γ1 (A) − sgn(γ2 )P γ1 (P γ2 (A))


= P γ1 (A) + A
(3.17)
− [A − sgn(γ2 )P γ2 (A)]
− sgn(γ2 )[P γ2 (A) + P γ1 (P γ2 (A))],

se γ1 ∈ Υq , γ2 ∈ Σq e A − sgn(γ2 )P γ2 (A) ∈ hY i, poichè P γ1 (A) + A ∈ Y ,


P γ2 (A) + P γ1 (P γ2 (A)) ∈ Y si ha che P γ1 (A − sgn(γ2 )P γ2 (A)) ∈ hY i.
Sia σ ∈ Σq prodotto di m trasposizioni. Utilizziamo l’induzione su m. Per
m = 1 non vi è nulla da provare. Supponiamo che per ogni γ2 ∈ Σq , prodotto di
m trasposizioni, si abbia che A − sgn(γ2 )P γ2 (A) ∈ hY i. Sia σ = γ1 γ2 con γ1 ∈ Υq
e γ2 prodotto di m elementi di Υq . Poichè

A − sgn(σ)P σ (A) = A − sgn(γ1 )sgn(γ2 )P γ1 (P γ2 (A))


= A − sgn(γ1 )P γ1 (A) + sgn(γ1 )P γ1 (A − sgn(γ2 )P γ2 (A))
= A + P γ1 (A) + sgn(γ1 )P γ1 (A − sgn(γ2 )P γ2 (A)),

avremo che A − sgn(σ)P σ (A) ∈ hY i. Pertanto hY i = hW i.


Proviamo ora che hW i = ker Aq . Da
 
1 X 1 X
A − Aq (A) = q!A − sgn(σ)P σ (A) = (A − sgn(σ)P σ (A))
q! σ∈Σ
q! σ∈Σ
q q

84
1 X
segue che se Aq (A) = 0 se e solo se A = (A − sgn(σ)P σ (A)). Pertanto
q! σ∈Σ
q

ker Aq ⊂ hW i. Dimostriamo ora che W ⊂ ker Aq . Si ha

Aq (A−sgn(σ)P σ (A)) = Aq (A)−sgn(σ)Aq (P σ (A)) = Aq (A)−sgn2 (σ)Aq (A) = 0.

Pertanto hW i = ker Aq e, conseguentemente, ker Aq = hY i.


ii) Osserviamo subito che Z ⊂ ker Aq . Infatti se τ i = τ j allora Aq (τ 1 ⊗· · ·⊗τ q ) =
0. Infatti sia σ ∈ Σq la trasposizione (i, j) allora

Aq (τ 1 ⊗ · · · ⊗ τ q ) = Aq (P σ (τ 1 ⊗ · · · ⊗ τ q )) = −Aq (τ 1 ⊗ · · · ⊗ τ q )

da cui Aq (τ 1 ⊗ · · · ⊗ τ q ) = 0.
D’altronde i generatori di ker Aq sono contenuti in hZi, il sottospazio generato
N0Z. Per i) ker Aq è generato
da dagli elementi della forma A + P γ (A) dove A ∈
γ 1 q
q (V ) e γ ∈ Υq . Poichè P è lineare possiamo assumere che A = τ ⊗ · · · ⊗ τ .
Se γ = (i, j), i < j, allora

A + P γ (A) = τ 1 ⊗ · · · ⊗ τ i ⊗ · · · ⊗ τ j ⊗ · · · ⊗ τ q + τ 1 ⊗ · · · ⊗ τ j ⊗ · · · ⊗ τ i ⊗ · · · ⊗ τ q
= τ 1 ⊗ · · · ⊗ (τ i + τ j ) ⊗ · · · ⊗ (τ j + τ i ) ⊗ · · · ⊗ τ q
− τ1 ⊗ · · · ⊗ τi ⊗ · · · ⊗ τi ⊗ · · · ⊗ τq
− τ 1 ⊗ · · · ⊗ τ j ⊗ · · · ⊗ τ j ⊗ · · · ⊗ τ q ∈ hZi.

Si ha quindi la tesi. 

Corollario 3.35. Sia q ≤ n. L’insieme

Aq (Eq0 ) = {εi1 ∧ · · · ∧ εiq : 1 ≤ i1 < . . . < iq ≤ n}


V V
è base di q (V ) che indicheremo con q (E). Pertanto
 
^ n
dim (V ) = .
q q

Dimostrazione. La mappa Aq è surgettiva e quindi Aq (Eq0 ) genera q (V ). Per


V

la Proposizione 3.34, Aq (εj1 ⊗ · · · ⊗ εjq ) = 0 se e solo se esistono k e l, con


1 ≤ k < l ≤ q, tali che εjk = εjl . Poichè la scrittura
1 X
Aq (εj1 ⊗ · · · ⊗ εjq ) = sgn(σ)εjσ−1 (1) ⊗ · · · ⊗ εjσ−1 (q)
q! σ∈Σ
q

85
è unica (gli elementi εjσ−1 (1) ⊗ · · · ⊗ εjσ−1 (q) stanno nella base Eq0 ), si ha

Aq (εj1 ⊗ · · · ⊗ εjq ) = Aq (εi1 ⊗ · · · ⊗ εiq ) 6= 0

se e solo se εj1 ⊗ · · · ⊗ εjq e εi1 ⊗ · · · ⊗ εiq hanno gli stessi fattori. D’altronde gli
elementi della base Eq0 che non hanno fattori uguali sono tanti quante le combi-
nazioni di classe q di un insieme di n elementi. Quindi potremo scrivere

Aq (Eq0 ) = {Aq (εj1 ⊗ · · · ⊗ εjq ) : 1 ≤ j1 < . . . < jq ≤ n}.

Inoltre l’insieme Aq (Eq0 ) è libero. Se


X
λj1 ,...,jq Aq (εj1 ⊗ · · · ⊗ εjq ) = 0
1≤j1 <...<jq ≤n

allora  
X
Aq  λj1 ,...,jq εj1 ⊗ · · · ⊗ εjq  = 0,
1≤j1 <...<jq ≤n

quindi tutti gli λj1 ,...,jq = 0 altrimenti


X
λj1 ,...,jq εj1 ⊗ · · · ⊗ εjq ∈
/ ker Aq .
1≤j1 <...<jq ≤n

poichè i tensori decomponibili εj1 ⊗ · · · ⊗ εjq hanno tutti fattori distinti. 

Definizione 3.36 (Algebra esterna covariante). Sia


n ^
M
Λ• (V ) = (V ).
q
q=0

Allora n  
X n
dim Λ• (V ) = = 2n .
q=0
q

È opportuno anche qui sottolineare come Λ• (V )) non è in generale sottoalgebra


(V ) in quanto non è stabileVrispetto al prodotto tensoriale. Siano τ , τ 0 ∈
N
di •V
V ∗ = 1 (V ), inVgenerale τ ⊗V τ0 ∈
/ 2 (V ) perchè, in generale, τ ⊗ τ 0 6= −τ 0 ⊗ τ .
Siano A ∈ q (V ) e B ∈ p (V ), definiamo il prodotto esterno (o alternante)
di A e B ^
A ∧ B = Ap+q (A ⊗ B) ∈ (V ).
p+q

86
Proposizione 3.37. Siano A, A0 ∈ ), B, B 0 ∈
V V V
q (V p (V )eC∈ r (V ).
i) Proprietà associativa:

(A ∧ B) ∧ C = A ∧ (B ∧ C) (= A ∧ B ∧ C),

ii) Proprietà distributiva:

(A + A0 ) ∧ B = A ∧ B + A0 ∧ B, A ∧ (B + B 0 ) = A ∧ B + A ∧ B 0 .

iii) Omogeneità: per ogni λ ∈ K,

(λA) ∧ B = A ∧ (λB) = λ(A ∧ B).

iv) (Anti)commutatività:
A ∧ B = (−1)pq B ∧ A.
In particolare, A ∧ A = 0 se q è dispari.

v) Unitarietà:
1 ∧ A = A ∧ 1 = A.

Pertanto con il prodotto esterno Λ• (V ) diventa un’algebre graduata unitaria as-


sociativa e non commutativa detta l’algebra esterna covariante di V .
Dimostrazione. i) Dobbiamo provare che

Aq+p (Aq (A) ⊗ B) = Aq+p (A ⊗ B), Aq+p (A ⊗ Ap (B)) = Aq+p (A ⊗ B). (3.18)

Poichè
1 X
Aq (A) ⊗ B = sgn(σ)P σ (A) ⊗ B
q! σ∈Σ
q

allora
1 X
Aq+p (Aq (A) ⊗ B) = sgn(σ)Aq+p (P σ (A) ⊗ B).
q! σ∈Σ
q

Se A e B sono tensori decomponibili, A = τ 1 ⊗ · · · ⊗ τ q e B = ν 1 ⊗ · · · ⊗ ν p allora,


per ogni σ ∈ Σq ,
Aq+p (P σ (A) ⊗ B) = Aq+p (A ⊗ B).
Infatti identificando σ ∈ Σq con l’elemento σ
e ∈ Σq+p , definito da
(
σ(i) 1 ≤ i ≤ q
σ
e(i) =
i q + 1 ≤ i ≤ q + p,

87
si ha
−1 (1) −1 (q)
τσ ⊗ · · · ⊗ τσ ⊗ ν q+1 ⊗ · · · ⊗ ν q+p
−1 (1) −1 (q) −1 (q+1) −1 (q+p)
= τ σe ⊗ · · · ⊗ τ σe ⊗ ν σe ⊗ · · · ⊗ ν σe ,

cioè
P σ (A) ⊗ B = P σe (A ⊗ B).
Poichè sgn(σ) = sgn(e
σ ) si ha quindi

Aq+p (P σ (A)⊗B) = Aq+p (P σe (A⊗B)) = sgn(e


σ )Aq+p (A⊗B) = sgn(σ)Aq+p (A⊗B).

Pertanto
1 X
Aq+p (Aq (A) ⊗ B) = sgn(σ)2 Aq+p (A ⊗ B) = Aq+p (A ⊗ B).
q! σ∈Σ
q

Per la linearità di Aq+p e Aq allora la prima relazione di (3.18) vale per tutti i
tensori. La prova della seconda relazione è completamente analoga. Pertanto

(A ∧ B) ∧ C = Aq+p+r (Aq+p (A ⊗ B) ⊗ C) = Aq+p+r (A ⊗ B ⊗ C).

Analogamente

A ∧ (B ∧ C) = Aq+p+r (A ⊗ Ap+r (B ⊗ C)) = Aq+p+r (A ⊗ B ⊗ C).

ii) Si ha

(A + A0 ) ∧ B = Aq+p ((A + A0 ) ⊗ B) = Aq+p (A ⊗ B + A0 ⊗ B)


= Aq+p (A ⊗ B) + Aq+p (A0 ⊗ B) = A ∧ B + A0 ∧ B.

Infine

A ∧ (B + B 0 ) = Aq+p (A ⊗ (B + B 0 )) = Aq+p (A ⊗ B + A ⊗ B 0 )
= Aq+p (A ⊗ B) + Aq+p (A ⊗ B 0 ) = A ∧ B + A ∧ B 0 .

iii) Se λ ∈ K si ha

(λA) ∧ B = Ap+q (λA ⊗ B) = λAp+q (A ⊗ B) = λ(A ∧ B)

e A ∧ (λB) = Ap+q (A ⊗ λB) = λAp+q (A ⊗ B) = λ(A ∧ B).


iv) Se proviamo che

Aq+p (A ⊗ B) = (−1)pq Aq+p (B ⊗ A) (3.19)

88
vale per i tensori decomponibili, per la linearità di Aq+p , (3.19) vale per tutti i
tensori. Siano A = τ 1 ⊗ · · · ⊗ τ q e B = ν 1 ⊗ · · · ⊗ ν p . Allora
A ⊗ B = τ 1 ⊗ · · · ⊗ τ q ⊗ ν 1 ⊗ · · · ⊗ ν p.
Spostiamo ν 1 di q posti alla sua sinistra mediante q trasposizioni (q scambi di
posto con il fattore che lo precede) e cosı̀ per tutti gli altri ν i , i = 2, . . . , p. Sia σ
il prodotto di queste pq trasposizioni. Allora
B ⊗ A = P σ (A ⊗ B).
Quindi
Aq+p (B ⊗ A) = Aq+p (P σ (A ⊗ B)) = sgn(σ)Aq+p (A ⊗ B) = (−1)pq Aq+p (A ⊗ B)
poichè sgn(σ) = (−1)pq .
v) Si ha
1 ∧ A = Aq (1 ⊗ A) = Aq (1 · A) = Aq (A) = A,
e A ∧ 1 = Aq (A ⊗ 1) = Aq (1 · A) = Aq (A) = A. 
Osservazione 3.38. Siano τ 1 , . . . , τ q ∈ V . Allora
τ i1 ∧ · · · ∧ τ iq = sgn(σ)τ 1 ∧ · · · ∧ τ q
se σ ∈ Σq è la permutazione tale che σ(j) = ij , j = 1, . . . , q. Infatti
τ i1 ∧ · · · ∧ τ iq = Aq (τ i1 ⊗ · · · ⊗ τ iq ) = Aq (τ σ(1) ⊗ · · · ⊗ τ σ(q) )
−1
= Aq (P σ (τ 1 ⊗ · · · ⊗ τ q )) = sgn(σ)Aq (τ 1 ⊗ · · · ⊗ τ q ) = sgn(σ)τ 1 ∧ · · · ∧ τ q .
Proposizione 3.39. Siano τ 1 , . . . , τ q ∈ V ∗ e siano
n
X
i
τ = ξji εj , i = 1, . . . , q.
j=1

le loro rappresentazioni rispetto alla base E ∗ di V ∗ . Siano M la matrice (ξji ) i=1,...,q ,


j=1,...,n
H = {j1 , . . . , jq } ⊂ {1, . . . , n}, j1 < j2 < . . . < jq , e
 1 
ξj1 . . . ξj1q
MH =  ... . . . ...  .
 
ξjq1 . . . ξjqq
Allora X
τ1 ∧ · · · ∧ τq = det MH εj1 ∧ · · · ∧ εjq .
H
In particolare se q = n allora
τ 1 ∧ · · · ∧ τ n = det M ε1 ∧ · · · ∧ εn . (3.20)

89
Dimostrazione. Si ha
! !  
n
X n
X n
X
τ1 ∧ · · · ∧ τq = ξj11 εj1 ∧ ξj22 εj2 ∧ ··· ∧  ξjqq εjq 
j1 =1 j2 =1 jq =1
n X
X n n
X
= ··· ξj11 ξj22 · · · ξjqq εj1 ∧ · · · ∧ εjq
j1 =1 j2 =1 jq =1
X X q
1
ξσ(j ξ2
1 ) σ(j2 )
· · · ξσ(jq)
εσ(j1 ) ∧ · · · ∧ εσ(jq )
H σ∈Σ(H)
X X q
1
= sgn(σ)ξσ(j ξ 2 · · · ξσ(j
1 ) σ(j2 ) q)
εj 1 ∧ · · · ∧ εj q
H σ∈Σ(H)
X
= det MH εj1 ∧ · · · ∧ εjq
H

dove Σ(H) sono le permutazioni dell’insieme H. 


Osservazione 3.40. Dalla Proposizione 3.39 segue subito che

τ1 ∧ · · · ∧ τq = 0 ⇐⇒ τ 1 , . . . , τ q sono linearmente dipendenti.

Definizione 3.41. Siano V e W due spazi vettoriali. Ad una applicazione lineare


f : V → W è associata la mappa lineare:
O0 O0
⊗0q (f ) : (W ) → (V ), ⊗0q (f )(τ 1 ⊗ · · · ⊗ τ q ) = f ∗ (τ 1 ) ⊗ · · · ⊗ f ∗ (τ q ).
q q
N0
Poichè, se A ∈ q (W ),

⊗0q (f )(Aq (A)) = Aq ⊗0q (f )(A)




si ha ^  ^
Im ⊗0q (f ) W ⊂ V.
q q

È indotta quindi la mappa lineare


^ ^ ^ ^
(f ) : W → V, (f )(τ 1 ∧ · · · ∧ τ q ) = f ∗ (τ 1 ) ∧ · · · ∧ f ∗ (τ q ).
q q q q

Tale mappa è univocamente determinata dalle relazioni che soddisfa.


Proposizione 3.42. Siano V e W due spazi vettoriali e f : V → W un’applicazione
lineare. Siano E ∗ = {ε1 , . . . , εn } base di V ∗ e F ∗ = {φ1 , . . . , φm } base di W ∗ .
Siano ^
(E) = {εi1 ∧ · · · ∧ εiq : 1 ≤ i1 < . . . < iq ≤ n}
q

90
e ^
(F) = {φi1 ∧ · · · ∧ φiq : 1 ≤ i1 < . . . < iq ≤ m},
q
∗ ∗
dove VqE è baseVdi V duale di E e F è base di W duale di F , le associate basi
di (W ) e q (W ). Sia M = MF ,E V la matrice
V associata V a f rispetto alle basi
E
V e F. Allora la matrice associata a q (f ) : q (W ) → q (V ) rispetto alle basi
è la matrice Cq (t M ) = t Cq (M ), trasposta della q-esima matrice
V
q (F) e q (E)
composta di M .

Dimostrazione. Sia M = (αij )1≤i≤m . Allora da


1≤j≤n

n
X
∗ i
f (φ ) = αij εj , i = 1, . . . , m.
j=1

si ottiene

f ∗ (φi1 ) ∧ · · · ∧ f ∗ (φiq )
!  
X n n
X X
= αi1 j1 εj1 ∧ · · · ∧  α i q j q εj q  = αi1 j1 · · · αiq jq εj1 ∧ · · · ∧ εjq
j1 =1 jq =1 (j1 ,...,jq )
 
X X
=  sgn(σ)αi1 jσ−1 (1) · · · αiq jσ−1 (q)  εj1 ∧ · · · ∧ εjq
1≤j1 <...<jq ≤n σ∈Σq
X i ...i
= det Mj11...jqq εj1 ∧ · · · ∧ εjq
1≤j1 <...<jq ≤n

da cui la tesi. 

Proposizione 3.43. Un omomorfismo lineare f : V → W induce un omomor-


fismo di algebre graduate
^ ^ X  X ^
(f ) : Λ• (W ) → Λ• (V ), (f ) tq = (f )(tq ).
• • q

In particolare
Λ• (f )(tq ∧ tp ) = Λ• (f )(tq ) ∧ Λ• (f )(tp ).

Dimostrazione. Infatti, per v1 , . . . , vq , vq+1 , . . . , vq+p ∈ V ,

91
Λ• (f )(tq ∧ tp )(v1 , . . . , vq , vq+1 , . . . , vq+p )
^
= (f )(tq ∧ tp )(v1 , . . . , vq , vq+1 , . . . , vq+p )
q+p
= tq ∧ tp (f (v1 ), . . . , f (vq ), f (vq+1 ), . . . , f (vq+p ))
= Aq+p (tq ⊗ tp )(f (v1 ), . . . , f (vq ), f (vq+1 ), . . . , f (vq+p ))
X sgn(σ)
= tq ⊗ tp (f (vσ−1 (1) ), . . . , f (vσ−1 (q) ), f (vσ−1 (q+1) ), . . . , f (vσ−1 (q+p) ))
σ∈Σ
(q + p)!
q+p

X sgn(σ) 0
= ⊗ (f )(tq ⊗ tp )(vσ−1 (1) , . . . , vσ−1 (q) , vσ−1 (q+1) , . . . , vσ−1 (q+p) )
σ∈Σq+p
(q + p)! q+p
X sgn(σ) 0
= ⊗ (f )(tq ) ⊗ ⊗0p (f )(tp )(vσ−1 (1) , . . . , vσ−1 (q) , vσ−1 (q+1) , . . . , vσ−1 (q+p) )
σ∈Σq+p
(q + p)! q
= Aq+p (⊗0q (f )(tq ) ⊗ ⊗0p (f )(tp ))(v1 , . . . , vq , vq+1 , . . . , vq+p )
= ⊗0q (f )(tq ) ∧ ⊗0p (f )(tp )(v1 , . . . , vq , vq+1 , . . . , vq+p )
= Λ• (f )(tq ) ∧ Λ• (f )(tp )(v1 , . . . , vq , vq+1 , . . . , vq+p ).

92
Proposizione 3.44. Siano V e W spazio vettoriali. Si ha l’isomorfismo canonico
^q
ψ : Hom( (V ), W ) → Altq (V, W ), f → ψ(f ),

dove
[ψ(f )](v1 , . . . , vn ) = f (v1 ∧ · · · ∧ vq ).
In particolare ^q
( (V ))∗ ∼
^
= Altq (V, K) = (V ). (3.21)
q

In particolare, se α1 , . . . , αq ∈ V ∗ e v1 , . . . , vq ∈ V allora

1
α1 ∧ · · · ∧ αq (v1 ∧ · · · ∧ vq ) = det(αi (vj )).
q!

Se E = {e1 , . . . , en } è una base di V e E ∗ = {ε1 , . . . , εn } è la base duale per V ∗


allora
1 i ...i
εi1 ∧ · · · ∧ εiq (ej1 ∧ · · · ∧ ejq ) = j11 ...jqq (3.22)
q!
dove

1
 se (j1 , . . . , jq ) è una permutazione pari di (i1 , . . . , iq )
i ...i
j11 ...jqq = −1 se (j1 , . . . , jq ) è una permutazione dispari di (i1 , . . . , iq )

0 altrimenti.

1
della base duale di q (E).
V V
Per la (3.22) la base q (E) è multipla per il fattore
q!

Dimostrazione. È immediato verificare che ψ(f ) ∈ Altq (V, W ). VqInoltre ϕ e ψ


sono chiaramente lineari ed iniettive poichè {v1 ∧ · · · ∧ vq } genera (V ). Avendo
gli spazi la stessa dimensione finita ψ è anche surgettiva.
Poichè α1 ∧ · · · ∧ αq = Aq (α1 ⊗ · · · ⊗ αq ) si ha

1 X −1 −1
α1 ∧ · · · ∧ αq (v1 , . . . , vq ) = sgn(σ)ασ (1) ⊗ · · · ⊗ ασ (q) (v1 , . . . , vq )
q! σ∈Σ
q

1 X 1
= sgn(σ)α1 (vσ(1) ) · · · αq (vσ(q) ) = det(αi (vj )).
q! σ∈Σ q!
q

La (3.22) segue immediatamente. 

93
N0
Definizione 3.45 (Prodotto interno). N0 Siano A ∈ s (V ), s > 0, v ∈ V . Si
definisce il prodotto interno iv (A) ∈ s−1 (V ) di A per v mediante

iv (A) = C11 (v ⊗ A)

per cui
iv (A)(v1 , . . . , vs−1 ) = A(v, v1 , . . . , vs−1 ).
In particolare iv (τ ) = τ (v), essendo τ ∈ V ∗ = 01 (V ). Se A ∈ 00 (V ) = K allora
N N
si pone iv (A) = 0. Se

X n
X
j1 js
A= Aj1 ...js ε ⊗ · · · ⊗ ε , v= v i ei
(j1 ,...,js ) i=1

allora n
X X
v⊗A= v i Aj1 ...js ei ⊗ εj1 ⊗ εj2 ⊗ · · · ⊗ εjs
i=1 (j1 ,...,js )

e n
X X
C11 (v ⊗ A) = v k Akj2 ...js εj2 ⊗ · · · ⊗ εjs .
k=1 (j2 ,...,js )

i) La mappa i : V × 0s (V ) → 0s−1 (V ), i(v, A) = iv (A) è bilineare.


N N

V V
ii) iv ( s (V )) ⊂ s−1 (V ).
V V
iii) Se iv : s (V ) → s−1 (V ) allora si ha, per v, w ∈ V ,

iv ◦ iw = −iw ◦ iv , iv ◦ iv = 0.
V V
Proposizione 3.46. Sia ω ∈ s (V )eθ∈ t (V ) allora

iv (ω ∧ θ) = (iv ω) ∧ θ + (−1)s ω ∧ (iv θ).

In particolare se τ 1 , . . . , τ s ∈ V ∗ e v ∈ V allora
s
X
1 s
iv (τ ∧ · · · ∧ τ ) = (−1)i+1 τ i (v)τ 1 ∧ · · · ∧ τbi ∧ · · · ∧ τ s .
i=1

94
Dimostrazione. Siano τ 1 , . . . , τ s ∈ V ∗ e v1 , . . . .vs ∈ V . Per la Proposizione
3.44 si ha

iv1 (τ 1 ∧ · · · ∧ τ s )(v2 , . . . .vs ) = (τ 1 ∧ · · · ∧ τ s )(v1 , . . . .vs )



τ 1 (v1 ) . . . τ 1 (vs )
1
= ... ..
.
.. .
.
s! s s
τ (v1 ) . . . τ (vs )

Se espandiamo il determinante rispetto alla prima colonna otteniamo


s
X
s! (−1)i+1 τ i (v1 )(τ 1 ∧ · · · ∧ τ i−1 ∧ τ i+1 ∧ · · · ∧ τ s )(v2 , . . . .vs ).
i=1

Poichè τ i (v1 ) = iv1 (τ i ), posto v = v1 si ha


s
X
1 s
iv (τ ∧ · · · ∧ τ ) = (−1)i+1 iv (τ i )τ 1 ∧ · · · ∧ τbi ∧ · · · ∧ τ s .
i=1

Se ω = τ 1 ∧ · · · ∧ τ s e θ = ν 1 ∧ · · · ∧ ν t allora
s
X
iv (ω ∧ θ) = (−1)i+1 iv (τ i )τ 1 ∧ · · · ∧ τbi ∧ · · · ∧ τ s ∧ θ
i=1
t
X
+ (−1)s+j+1 iv (ν j )ω ∧ ν 1 ∧ · · · ∧ νbj ∧ · · · ∧ ν t
j=1
s
!
X
i+1 i 1 s
= (−1) iv (τ )τ ∧ · · · ∧ τbi ∧ · · · ∧ τ ∧θ
i=1
t
!
X
s j+1 j 1 t
+ (−1) ω ∧ (−1) iv (ν )ν ∧ · · · ∧ νbj ∧ · · · ∧ ν
j=1
s
= (iv ω) ∧ θ + (−1) ω ∧ (iv θ).
V V
Poichè gli elementi come ω e θ generano s (V ) e t (V ), rispettivamente, la tesi
segue subito. 

95
3.3 Potenza simmetrica di uno spazio vettoriale
Definizione 3.47 (Matrice indotta r-esima). Sia M = (aij )1≤i≤m una matrice
1≤j≤n
m×n e sia 1 ≤ r ≤ min{m, n}. Siano (i1 , . . . , ir ) e (j1 , . . . , jr ) due r-uple ordinate
di interi, non necessariamente distinti, tali che

1 ≤ i1 ≤ . . . ≤ ir ≤ m, 1 ≤ j1 ≤ . . . ≤ jr ≤ n.

Sia
(i ,...,i )
M(j11,...,jrr ) = (aik jl )k,l=1,...,r .
la matrice quadrata avente le righe indiciate su (i1 . . . ir ) e le colonne su (j1 . . . jr ),
entrambi le r-uple ordinate lessicograficamente. Ad esempio, se r = 2,
   
(1,1) a11 a11 (1,2) a12 a13
M(1,1) = , M(2,3) = .
a11 a11 a22 a23
   
m+r−1 n+r−1
Definiamo la matrice ×
r r
(i ...i ) !
per(M(j11...jrr ) )
M [r] = p ,
µ(i1 . . . ir )µ(j1 . . . jr ) (i1 ...ir )
(j1 ...jr )

dove µ(k1 . . . kr ) è il prodotto dei fattoriali delle molteplicità degli interi distinti
che compaiono nella sequenza k1 . . . kr (ad esempio µ(4, 5, 5, 7.7, 7) = 1!2!3!). Ad
esempio se
 2 
  a ab b2
a b
M= =⇒ M [2] = 2ac ad + bc 2bd .
c d
c2 cd d2

Valgono le seguenti proprietà:

1. (M N )[r] = M [r] N [r] , se N è una matrice n × p.

2. (kM )[r] = k r M [r] , se k ∈ K.

3. (t M )[r] = t M [r] .
[r]
4. Se Il è la matrice identica l × l allora In = I(n+r−1) .
r

5. Se M è una matrice invertibile allora (M −1 )[r] = (M [r] )−1 .

96
 
k+r−1[r]
6. Se rk(M ) = k allora rk(M ) = .
r
n+r−1
7. Se M è matrice n × n allora det(M [r] ) = det(M )( r−1 ) .
Nq ∗
N0
Definizione 3.48. Ricordando che 0 (V ) = Lq (V , K) e q (V ) = Lq (V, K)
definiamo _q Oq
(V ) = Symq (V ∗ , K) ⊂ (V )
0
la potenza q-esima simmetrica controvariante di V e
_ O0
(V ) = Symq (V, K) ⊂ (V )
q q

W1
(V ) = V1 (V ) = V e
V
la
W potenzaVq-esima simmetrica covariante di V . Pertanto
0

(V ) = 0 (V ) = 0 (V ) = 0 (V ) = K.
W W V
1 (V ) = 1 (V ) = V Poniamo inoltre

Definizione 3.49. Definiamo l’operatore di simmetrizzazione


Oq _q 1 X
Sq : (V ) → (V ), S q (A) = Pσ (A),
0 q! σ∈Σ
q

1 X −1 −1
S q (A)(τ 1 , . . . , τ q ) = A(τ σ (1) , . . . , τ σ (q) ).
q! σ∈Σ
q
O0 _ 1 X
Sq : (V ) → (V ), Sq (A) = P σ (A),
q q q! σ∈Σ
q

1 X
Sq (A)(v1 , . . . , vq ) = A(vσ−1 (1) , . . . , vσ−1 (q) ).
q! σ∈Σ
q

Osservazione 3.50. Valgono i seguenti fatti (omettiamo il caso covariante che


è completamente analogo):

1. Un tensore A ∈ q0 (V ) è quindi simmetrico se Pσ (A) = A per ogni σ ∈ Σq .


N

2. A ∈ q (V ) se e solo se A = S q (A). In particolare S q è surgettiva.


W

3. Per ogni σ ∈ Σq si ha

P σ ◦ S q = S q ◦ Pσ = S q .
Wq Vq
4. Se q ≥ 2 si ha S q ◦ Aq = Aq ◦ S q = 0 per cui (V ) ∩ (V ) = 0 (si tenga
presente (3.1)).

97
Proposizione 3.51. Sia Υq l’insieme delle trasposizioni di Σq Allora ker S q =
hXi dove hXi è il sottospazio vettoriale generato dall’insieme
Oq
X = {A − Pσ (A) : A ∈ (V ), σ ∈ Υq }.
0

Analogamente ker Sq = hY i dove


O0
Y = {A − P σ (A) : A ∈ (V ), σ ∈ Υq }.
q

Dimostrazione. Proviamo solo il caso controvariante, essendo il caso covari-


ante del tutto analogo. Il sottospazio generato da X coincide con il sottospazio
generato da Oq
{A − Pσ (A) : A ∈ (V ), σ ∈ Σq }.
0
Un’inclusione è ovvia. Osserviamo che se τ1 ∈ Υq , τ2 ∈ Σq e A − Pτ2 (A) ∈ hXi
allora
Pτ1 (A − Pτ2 (A)) = [Pτ2 (A) − Pτ1 (Pτ2 (A))] + (A − Pτ2 (A)) − (A − Pτ1 (A)) ∈ hXi.
Utilizziamo l’induzione su m dove m è il numero delle trasposizioni il cui prodotto
dà σ ∈ Σq . Per m = 1 non vi è nulla da provare. Supponiamo che per ogni τ2 ∈ Σq
prodotto di m trasposizioni si abbia che A − Pτ2 (A) ∈ hXi. Sia σ = τ1 τ2 con
τ1 ∈ Υq e τ2 prodotto di m elementi di Υq . Allora
A − Pσ (A) = A − Pτ1 (Pτ2 (A)) = A − Pτ1 (A) + Pτ1 (A − Pτ2 (A))
quindi A − Pσ (A) ∈ hXi. Da
 
1 X 1 X
A − Sq (A) = q!A − Pσ (A) = (A − Pσ (A))
q! σ∈Σ
q! σ∈Σ
q q

1 X
segue che se Sq (A) = 0 se e solo se A = (A − Pσ (A)). 
q! σ∈Σ
q

Osservazione 3.52. Da quanto visto sopra si hanno gli isomorfismi canonici


_q ^q
(V ) ∼ q
= T0 (V )/ ker Sq , (V ) ∼ q
= T0 (V )/ ker Aq .
Corollario 3.53. Sia E0q una base di T0q (V ) allora
Sq (E0q ) = {Sq (ei1 ⊗ · · · ⊗ eiq ) : 1 ≤ i1 ≤ . . . ≤ iq ≤ n}
Wq
è base di (V ) e quindi
 
_q n+q−1
dim (V ) = #Sq (E0q ) = .
q

98
Wq
Dimostrazione. La mappa Sq è surgettiva e quindi Sq (E0q ) genera (V ). In-
oltre essendo
1 X
Sq (ei1 ⊗ · · · ⊗ eiq ) = ei ⊗ · · · ⊗ eiσ−1 (q)
q! σ∈Σ σ−1 (1)
q

si ha
Sq (ei1 ⊗ · · · ⊗ eiq ) = Sq (ej1 ⊗ · · · ⊗ ejq )
se e solo se ei1 ⊗ · · · ⊗ eiq e ej1 ⊗ · · · ⊗ ejq hanno gli stessi fattori con la stessa
molteplicità. Quindi #Sq (E0q ) coincide con il numero delle combinazioni con ripe-
tizione di classe q di un insieme di n elementi e possiamo allora scrivere
Sq (E0q ) = {Sq (ei1 ⊗ · · · ⊗ eiq ) : 1 ≤ i1 ≤ . . . ≤ iq ≤ n}.
Inoltre l’insieme Sq (E0q ) è libero in quanto i suoi elementi sono combinazioni lineari
di elementi di E0q tutti distinti tra loro. 
Proposizione 3.54. Per ogni A ∈ T0q (V ), Sq (A) è l’unico tensore simmetrico
tale che, per ogni v ∗ ∈ V ∗ ,
Sq (A)(v ∗ , . . . , v ∗ ) = A(v ∗ , . . . , v ∗ ). (3.23)
Dimostrazione. Ovviamente si ha
1 X
Sq (A)(v ∗ , . . . , v ∗ ) = A(v ∗ , . . . , v ∗ ) = A(v ∗ , . . . , v ∗ ).
q! σ∈Σ
q

Omettiamo la dimostrazione che la (3.23) determina Sq (A) nel caso generale. Se


q = 2 si ha
1
Sq (A)(v1∗ , v2∗ ) = [A(v1∗ + v2∗ , v1∗ + v2∗ ) − A(v1∗ , v1∗ ) − A(v2∗ , v2∗ )]
2
cioè Sq A) è determinato dalla (3.23). 
Definizione 3.55 (Algebra simmetrica). Sia
M _q
S• (V ) = (V ),
q≥0

Lo spazio S• (V ) ha ovviamente dimensione infinita. È opportuno sottolineare


come S• (V ) non è in generale sottoalgebra di T• (V W1) in quanto non è stabile
rispetto
W2 al prodotto tensoriale. Siano v, w ∈ V = (V ), in generale v ⊗ w ∈
/
(V ) perchè W
abbiamo già osservato che, in generale, v ⊗ w 6= w ⊗ v.
Siano A ∈ q (V ) e B ∈ p (V ), definiamo il prodotto simmetrico di A e B
W
_p+q
A ∨ B = Sp+q (A ⊗ B) ∈ (V ).

99
Proposizione
Wq 3.56. IlWpprodotto simmetrico
Wr gode delle seguenti le proprietà: per
ogni A ∈ (V ), B ∈ (V ) e C ∈ (V )

a) (λA) ∨ B = A ∨ (λB) = λ(A ∨ B), per ogni λ ∈ K;

b) A ∨ B = B ∨ A: proprietà commutativa;

c) (A ∨ B) ∨ C = A ∨ (B ∨ C) (= A ∨ B ∨ C): proprietà associativa.

Per ogni A ∈ q (V ), B ∈ q (V ) e C ∈ r (V )
W W W

d) (A + B) ∨ C = A ∨ B + A ∨ C: proprietà distributiva.

Pertanto con il prodotto simmetrico S• (V ) diventa un’algebra graduata unitaria,


commutativa e associativa.

Dimostrazione. a) Immediato dalla linearità di Sp+q .


b) Se proviamo che
Sq+p (A ⊗ B) = Sq+p (B ⊗ A) (3.24)
vale per i tensori decomponibili, per la linearità di Sq+p (3.24) vale per tutti i
tensori. Se A = v1 ⊗ · · · ⊗ vq e B = w1 ⊗ · · · ⊗ wp allora

A ⊗ B = v1 ⊗ · · · ⊗ vq ⊗ wq+1 ⊗ · · · ⊗ wq+p

e quindi

1 X
Sq+p (A ⊗ B) = vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ⊗ wσ−1 (q+1) ⊗ · · · ⊗ wσ−1 (q+p)
(q + p)! σ∈Σ
q+p

1 X
= wσ−1 (1) ⊗· · ·⊗wσ−1 (p) ⊗vσ−1 (p+1) ⊗· · ·⊗vσ−1 (p+q) = Sq+p (B⊗A).
(q + p)! σ∈Σ
q+p

c) Proviamo che

Sq+p (Sq (A) ⊗ B) = Sq+p (A ⊗ B), Sq+p (A ⊗ Sp (B)) = Sq+p (A ⊗ B). (3.25)

Poichè
1 X
Sq (A) ⊗ B = Pσ (A) ⊗ B
q! σ∈Σ
q

allora
1 X
Sq+p (Sq (A) ⊗ B) = Sq+p (Pσ (A) ⊗ B).
q! σ∈Σ
q

100
Se A e B sono tensori decomponibili, A = v1 ⊗ · · · ⊗ vq e B = w1 ⊗ · · · ⊗ wp allora,
per ogni σ ∈ Σq ,
Sq+p (Pσ (A) ⊗ B) = Sq+p (A ⊗ B).
Infatti identificando σ ∈ Σq con l’elemento σ
e ∈ Σq+p , definito da
(
σ(i) 1 ≤ i ≤ q
σ
e(i) =
i q + 1 ≤ i ≤ q + p,

si ha

vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ⊗ wq+1 ⊗ · · · ⊗ wq+p


= vσe−1 (1) ⊗ · · · ⊗ vσe−1 (q) ⊗ wσe−1 (q+1) ⊗ · · · ⊗ wσe−1 (q+p) ,
cioè
Pσ (A) ⊗ B = Pσe (A ⊗ B).
Allora
Sq+p (Pσ (A) ⊗ B) = Sq+p (Pσe (A ⊗ B)) = Sq+p (A ⊗ B).
Per la linearità di Sq+p e Sq allora la prima relazione di (3.25) vale per tutti i
tensori. La prova della seconda relazione è completamente analoga. Pertanto
(A ∨ B) ∨ C = Sq+p+r (Sq+p (A ⊗ B) ⊗ C) = Sq+p+r (A ⊗ B ⊗ C).
Analogamente
A ∨ (B ∨ C) = Sq+p+r (A ⊗ Sp+r (B ⊗ C)) = Sq+p+r (A ⊗ B ⊗ C).
d) Si ha

(A + B) ∨ C = Sq+r ((A + B) ⊗ C) = Sq+r (A ⊗ C + B ⊗ C)


= Sq+r (A ⊗ C) + Sq+r (B ⊗ C) = A ∨ C + B ∨ C.
La distributività è cosı̀ provata. 
Wq
Osservazione 3.57. Lo spazio vettoriale (V ) è generato da
{v1 ∨ · · · ∨ vq : vi ∈ V, 1 ≤ i ≤ q}.
Più precisamente si ha
Proposizione 3.58. Sia E = {e1 , . . . , en } una base di V allora
_q
(E) = {ei1 ∨ · · · ∨ eiq : 1 ≤ i1 ≤ . . . ≤ iq ≤ n}

è base di q (V ).
W

101
Dimostrazione. Immediato dal Corollario 3.53. 
Proposizione
Wq 3.59. Sia V uno spazio vettoriale. La potenza simmetrica q-esima
(V ) gode della proprietà universale:
(PS) Per ogni spazio vettoriale W e per ogni applicazione multilineare simmetrica

| × ·{z
g: V · · × V} → W
q volte

h : q (V ) → W che rende com-


W
esiste una ed una sola applicazione lineare e
mutativo il diagramma
λS W q
V × ··· × V / (V )
g h
e
' 
W
dove λS (v1 , . . . , vq ) = v1 ∨ · · · ∨ vq .
Dimostrazione. Per la Proposizione 1.21 esiste una ed una sola applicazione
lineare h : T q (V ) → W tale che h(v1 ⊗ · · · ⊗ vq ) = g(v1 , . . . , vq ). Allora per ogni
σ ∈ Σq si ha
h(vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ) = g(vσ−1 (1) , . . . , vσ−1 (q) ),
da cui
1 X 1 X
h(vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ) = g(vσ−1 (1) , . . . , vσ−1 (q) ).
q! σ∈Σ q! σ∈Σ
q q

Per la linearità di h, essendo g simmetrica, si ottiene


h (Sq (v1 ⊗ · · · ⊗ vq )) = h (τS (v1 , . . . , vq )) = g(v1 , . . . , vq ).
Ponendo
h = h|Sq (V )
e
si ha la tesi: Il caso alterno è del tutto analogo. 
Corollario 3.60. Siano V e W spazio vettoriali. Si ha l’isomorfismo canonico
_q
ϕ : Hom( (V ), W ) → Symq (V, W ), f → ϕ(f ),
dove
[ϕ(f )](v1 , . . . , vn ) = f (v1 ∨ · · · ∨ vq ).
In particolare _q
( (V ))∗ ∼
_
= Symq (V, K) = (V ).
q

102
Dimostrazione. È immediato verificare che ϕ(f ) ∈ Symq (V, W ) e che ψ(f ) ∈
Altq (V,W
W ). Inoltre ϕ e ψ sono chiaramente lineari ed iniettive poichè {v1 ∨· · ·∨vq }
genera q (V ) e {v1 ∧ · · · ∧ vq } genera q (V ). Per la Proposizione 3.59 ϕ e ψ sono
V
anche surgettive. 
Definizione 3.61. Siano V e W due spazi vettoriali. Ad una’applicazione lineare
f : V → W sono associate le mappe lineari:

T0q (f ) : T0q (V ) → T0q (W ), T0q (f )(v1 ⊗ · · · ⊗ vq ) = f (v1 ) ⊗ · · · ⊗ f (vq ),


Tq0 (f ) : Tq0 (W ) → Tq0 (V ), Tq0 (f )(w1 ⊗ · · · ⊗ wq ) = f ∗ (w1 ) ⊗ · · · ⊗ f ∗ (wq ).

Poichè
_ q  _q _  _
Im T0q (f ) (V ) ⊂ (W ), Im Tq0 (f ) (W ) ⊂ (V )
q q

sono indotte le mappe


_q _q _q _q
(f ) : (V ) → (W ), (f )(v1 ∨ · · · ∨ vq ) = f (v1 ) ∨ · · · ∨ f (vq ),
_ _ _ _
(f ) : (W ) → (V ), (f )(w1 ∨ · · · ∨ wq ) = f ∗ (w1 ) ∨ · · · ∨ f ∗ (wq ),
q q q q

Tali mappe sono univocamente determinate dalle relazioni che soddisfano. Basta
infatti osservare che, se A ∈ T0q (V ) allora

T0q (f )(Sq (A)) = Sq (T0q (f )(A)), T0q (f )(Aq (A)) = Aq (T0q (f )(A)).
Wq
L’unicità
Vq segue subito dal fatto che {v 1 ∨ · · · ∨ v q } genera (V ) e {v1 ∧ · · · ∧ vq }
genera (V ). Gli altri casi sono del tutto analoghi. Parimenti si ha

Tq0 (f )(Sq∗ (A)) = Sq∗ (Tq0 (f )(A)), Tq0 (f )(A∗q (A)) = A∗q (Tq0 (f )(A)).

Proposizione 3.62. Siano dati:


uno spazio vettoriale V , una sua base E = {e1 , . . . , en } e la base duale E ∗ =
{ε1 , . . . , εn },
uno spazio vettoriale W , una sua base F = {f1 , . . . , fm } e la base duale F ∗ =
{φ1 , . . . , φm }. Siano inoltre
_q
(E) = {ei1 ∨ · · · ∨ eiq : 1 ≤ i1 < . . . < iq ≤ n},
_
(E ∗ ) = {εi1 ∨ · · · ∨ εiq : 1 ≤ i1 < . . . < iq ≤ n}
q

le associate basi di q (V ) e q (V ),
W W

_q
(F) = {fi1 ∨ · · · ∨ fiq : 1 ≤ i1 < . . . < iq ≤ m},

103
_
(F ∗ ) = {φi1 ∨ · · · ∨ φiq : 1 ≤ i1 < . . . < iq ≤ m}
q

le associate basi di q (W ) e q (W ).
W W
Sia f : V → W un’applicazione lineare e sia M = MF ,E la matrice associata
a f rispetto alle basi E e F.
Wq
(f ) : q (V ) → q (W ) rispetto alle basi q (E) e
W W W
i) La
Wq matrice associata a
(F) è la matrice
M [q] .

ii) LaWmatrice associata a q (f ) : q (W ) → q (V ) rispetto alle basi q (F ∗ )


W W W W
e q (E ∗ ) è la matrice
(t M )[q] = t M [q] .

Dimostrazione. i) Si ha

f (ej1 ) ∨ · · · ∨ f (ejq )
!  
Xm m
X X
= αi1 j1 fi1 ∨, · · · ∨  α iq jq f iq  = αi1 j1 · · · αiq jq fi1 ∨ · · · ∨ fiq
i1 =1 iq =1 (i1 ,...,iq )
 
X X
=  αiσ−1 (1) j1 · · · αiσ−1 (q) jq  fi1 ∨ · · · ∨ fiq
1≤i1 ≤...≤iq ≤m σ∈Σq
(i ...i )
X per(M(j11...jqq ) )
= fi1 ∨ · · · ∨ fiq
1≤i1 ≤...≤iq ≤m
µ(i1 . . . iq )

da cui la i).
La ii) segue immediatamente da i). 

Esempio 3.63. Sia f : R3 → R2 l’applicazione lineare a cui è associata, rispetto


alle basi canoniche {e1 , e2 , e3 } di R3 e {f1 , f2 } di R2 , la matrice
   
a11 a12 a13 1 0 1
M= = .
a21 a22 a23 3 2 0
W2 W2
Allora la matrice associata a (R3 ) → (R2 ), rispetto alle corrispondenti basi,

M [2] =

104
 
1 a11 a11
1 a11
a12
1 a11
a13
1 a12
a12
1 a12
a13
1 a13
a13

 2 a11 a11 2 a11 a12 2 a11 a13 2 a12 a12 2 a12 a13 2 a13 a13 
 
 
 
 a11 a11 a11 a12 a11 a13 a12 a12 a12 a13 a13 a13 
 
 a21 a21 a21 a22 a21 a23 a22 a22 a22 a23 a23 a23 

 
 
 
 1 a21
1 a21 a22 1 a21 a23 1 a22
a21 a22 1 a22 a23 1 a23 a23 


2 a21 a21 2 a21 a22 2 a21 a23 2 a22 a22 2 a22 a23 2 a23 a23
 
1 1 1 1 1 0 1 1 1 1 0
0
1 0 1 1 1 1

 2 1 1 2 1 0 2 1 1 2 0 0 2 0 1 2 1 1 

 
 
 
 1 1 1 0 1 1 0 0 0 1 1 1 
=
 
 3 3 3 2 3 0 2 2 2 0 0 0 

 
 
 1 3 3 1 3 2 1 3 0 1 2 2 1 2 0 1 0 0 


2 3 3 2 3 2 2 3 0 2 2 2 2 2 0 2 0 0
 
1 0 1 0 0 1
= 6 2 3 0 2
 0 .
9 6 0 4 0 0
Infatti un conto diretto dà
_2
(f )(e1 ∨ e1 ) = f (e1 ) ∨ f (e1 ) = f1 ∨ f1 + 6f1 ∨ f2 + 9f2 ∨ f2
_2
(f )(e1 ∨ e2 ) = f (e1 ) ∨ f (e2 ) = 2f1 ∨ f2 + 6f2 ∨ f2 ,
_2
(f )(e1 ∨ e3 ) = f (e1 ) ∨ f (e3 ) = f1 ∨ f1 + 3f1 ∨ f2 ,
_2
(f )(e2 ∨ e2 ) = f (e2 ) ∨ f (e2 ) = 4f2 ∨ f2 ,
_2
(f )(e2 ∨ e3 ) = f (e2 ) ∨ f (e3 ) = 2f1 ∨ f2 ,
_2
(f )(e3 ∨ e3 ) = f (e3 ) ∨ f (e3 ) = f1 ∨ f1 .

105
References
[1] T.S. Blyth: Module Theory, Oxford University Press (1977).

[2] M. Marcus, H. Minc: A Survey of Matrix Theory and Matrix Inequalities,


Dover (1992).

[3] B.R. McDonald: Linear algebra over commutative rings. Marcel Dekker
(1984).

[4] S. Kobayashi, K. Nomizu: Foundations of Differential Geometry, vols. I, II,


Interscience Pub. (1963).

106

Potrebbero piacerti anche