1.1 Preliminari
Gli spazi vettoriali presi in considerazione saranno, salvo esplicito avviso con-
trario, di dimensione finita sul campo K = R o C.
Notazioni. Useremo la notazione M(m, n; K) per indicare l’insieme delle matrici
a m righe e n colonne ad entrate in K. Se A ∈ M(m, n; K) indicheremo con t A la
matrice trasposta di A; in particolare se x = (x1 , . . . , xn ) ∈ Kn allora
x1
t ..
x = . .
xn
Il simbolo di Kronecker è definito da
(
1 se i = j
δij =
0 6 j.
se i =
1
In forma matriciale
y1 α11 . . . α1n x1
.. .. .. .. .. .
. = . . . .
ym αm1 . . . αmn xn
che ha come colonne le componenti, rispetto a B 0 dei vettori della base B. Quindi
n
X
ej = αij e0i , j = 1, . . . , n
i=1
Rammentiamo che, fissate due basi BV di uno spazio vettoriale V (di dimensione
n) e BW di uno spazio vettoriale W (di dimensione m), si ha l’isomorfismo
V ∗ = {f : V → K : f lineare}
È facile verificare che E∗ è una base di V ∗ che viene detta la base duale di E di
V ∗ . Avendo la stessa dimensione V e V ∗ sono isomorfi.
Siano V e W spazi vettoriali. Un’ applicazione lineare f : V → W induce
un’applicazione lineare f ∗ : W ∗ → V ∗ , detta applicazione duale di f , definita da
2
Siano BV = {e1 , . . . , en }, BW = {f1 , . . . , fm } basi (ordinate) di V e W e BV∗ =
∗
{e∗1 , . . . , e∗n }, BW ∗
= {f1∗ , . . . , fm } le rispettive basi duali di V ∗ e W ∗ . Se MBW ,BV (f )
è la matrice associata a f rispetto a BV e BW , allora
∗ t
MBV∗ ,BW
∗ (f ) = MB ,B (f )
W V
In forma matriciale
f ∗ (f1∗ ) α11 . . . α1n e∗1
.. .. .. .. ..
. = . . . .
f ∗ (fm
∗
) αm1 . . . αmn e∗n
Se (y1∗ , . . . , ym
∗
) sono le componenti di w∗ rispetto a BW
∗
e (x∗1 , . . . , x∗n ) sono le
∗ ∗
componenti di v rispetto a BV , allora
m
X
x∗j = αij yi∗ , j = 1, . . . , n.
i=1
In forma matriciale
α11 . . . α1n
∗ ∗ ∗ ∗ .. .. .. .
(x1 , . . . , xn ) = (y1 , . . . , ym ) . . .
αm1 . . . αmn
i) (g ◦ f )∗ = f ∗ ◦ g ∗ .
3
Un isomorfismo ψ : V → V ∗ è detto canonico se il diagramma
ψ
V /V∗
O
f f∗
V /V∗
ψ
commuta per ogni coppia di spazi vettoriali V e W e per ogni applicazione lineare
f : V → W . Infatti
[(iW ◦ f )(v)](w∗ ) = [iW (f (v)] = (f (v))∗∗ (w∗ ) = w∗ (f (v))
e
4
Osservazione 1.3. Sia V uno spazio vettoriale. Si ha l’isomorfismo canonico
V ∼
= Hom(K, V ), v → αv , αv (1) = v.
che è libero ma non numerabile. Sia data infatti la combinazione lineare finita
a1 φt1 + · · · + an φtn = 0
quindi ai = 0 per i = 1, . . . , n.
Sia B una base di V ∗ che contiene l’insieme Φ e sia per t ∈ R
(
1 se b = φt ,
gt (b) = b ∈ B.
0 se b 6= φt ,
Pertanto sia V ∗ che V ∗∗ hanno basi più che numerabili e non possono essere
isomorfi a V .
5
1.2 Applicazioni multilineari
Definizione 1.5. Siano V1 , . . . , Vn , W spazi vettoriali. Un’applicazione
f : V1 × · · · × Vn → W
f : V1 × · · · × Vn → W.
è multilineare.
6
iii) Siano fj : V1 × · · · × Vn → Wj j = 1, . . . , m, applicazioni e
F : V1 × · · · × Vn → W1 × · · · × Wm , f = (f1 , . . . , fm ).
Allora F è multilineare se e solo se fj è multilineare per j = 1, . . . , m.
Esempi 1.7. 1) Il natural pairing di V e V ∗ in K
h , i : V × V ∗ → K, hv, w∗ i = w∗ (v),
è bilineare.
2) Il prodotto righe × colonne tra matrici
(A, B) ∈ M(m, n; K) × M(n, p; K) → AB ∈ M(m, p; K)
è bilineare.
3) Il prodotto scalare in Rn
(x, y) ∈ Rn × Rn → x t y = x1 y1 + · · · xn yn ∈ R,
dove x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Rn , è bilineare.
4) Il determinante di una matrice quadrata A ∈ M(n, n; K)
n
(a1 , . . . , an ) ∈ K · · × Kn} → det(A) ∈ K
| × ·{z
n volte
7
Osservazione 1.9. Si osservi che lo spazio vettoriale V1 × · · · × Vn ha come base
l’insieme, di cardinalità h1 + h2 + · · · + hn ,
dove
f (e1j1 , e2j2 , . . . , enjn ) = aj1 ...jn .
In particolare siano V1 = Kh1 , V2 = Kh2 , x = (x1 , . . . , xh1 ) ∈ V1 (dove le xi sono le
componenti di x rispetto ad una base S1 = {e1 , . . . , eh1 }) e y = (y1 , . . . , yh2 ) ∈ V2
(dove le yj sono le componenti di y rispetto ad una base S2 = {f1 , . . . , fh2 }), allora
h1 X
X h2
f (x, y) = xi yj aij = xAt y
i=1 j=1
8
Osservazione 1.12. Siano V1 , . . . , Vn , W spazi vettoriali e sia Hom(V1 , . . . , Vn ; W )
lo spazio delle applicazioni lineari f : V1 × · · · × Vn → W allora
Poichè f ((1, 0), (1, 0)) = (1, 0, 0, 0), f ((1, 0), (0, 1)) = (0, 1, 0, 0), f ((0, 1), (1, 0)) =
(0, 0, 1, 0), f ((0, 1), (0, 1)) = (0, 0, 0, 1), f (V × V ) contiene una base di W ma
f (V × V ) 6= W , infatti
x1 y1 x1 y2
x2 y1 x2 y2 = 0
per ogni (x1 , x2 ) e (y1 , y2 ). Pertanto l’immagine di uno spazio vettoriale tramite
un’applicazione multilineare non è in generale uno spazio vettoriale. Inoltre
l’insieme {(v, w) ∈ V ×V : f (v, w) = 0W } non è un sottospazio di V ×V in quanto
f ((1, 1), (0, 0)) = f ((0, 0), (1, 1)) = (0, 0, 0, 0) ma f ((1, 1), (1, 1)) 6= (0, 0, 0, 0).
9
Proposizione 1.15. Siano V1 , . . . , Vn e W spazi vettoriali. Per ogni m tale che
1 ≤ m < n si ha l’isomorfismo
Ψ
ML(V1 , . . . , Vm ; ML(Vm+1 , . . . , Vn ; W )) −→ ML(V1 , . . . , Vn ; W ),
(1.4)
Φm (B)(v1 , . . . , vn ) = [B(v1 , . . . , vm )](vm+1 , . . . , vn ).
Se A ∈ ML(V1 , . . . , Vn ; W ) allora
[Φ−1
m (A)(v1 , . . . , vm )](vm+1 , . . . , vn ) = A(v1 , . . . , vn ).
In particolare si ha l’isomorfismo
da cui l’isomorfismo
Ψ
ML(V1 , . . . , Vn ; W ) −→ ML(V1 , . . . , Vn , W ∗ ; K)
(1.6)
Ψ(f )(v1 , . . . , vn , w∗ ) = w∗ (f (v1 , . . . , vn )).
Se g ∈ ML(V1 , . . . , Vn , W ∗ ; K) allora
per una (n − m)-upla (vm+1 , . . . , vn ). Poichè gli spazi hanno la stessa dimensione,
Φm è un isomorfismo.
Posto L’isomorfismo (1.6) segue subito dall’isomorfismo (1.5) poichè
10
Corollario 1.16. Siano V1 , . . . , Vn e W spazi vettoriali. Si ha un isomorfismo
canonico
(u + v) · w = u · w + v · w, u · (v + w) = u · v + u · w,
u · (v · w) = (u · v) · w,
u·v =v·u
11
Se esiste e ∈ A tale che e · v = v · e = v, per ogni v ∈ A, diremo che e è
l’unità di A (e risulta essere univocamente determinato) e che A è una K-algebra
unitaria.
Un sottospazio vettoriale B di A è una sottoalgebra di (A, m) se m(B, B) ⊂ B.
Richiediamo che una sottoalgebra di un’algebra unitaria A contenga l’unità di A.
Siano A e B due K-algebre. Un’applicazione lineare f : A → B tale che
f (a · a0 ) = f (a) · f (a0 ), ∀ a, a0 ∈ A,
Diremo allora che A è una K-algebra graduata. Gli elementi di Ai sono detti
omogenei di grado i. Una sottoalgebra B di (A, m) è sottoalgebra graduata di
(A, m) se
∞
M
B= B ∩ Ai .
i=0
Siano ∞ ∞
M M
A= Ai , B= Bi
i=0 i=0
f (Ai ) ⊂ Bi , i = 0, 1, . . .
tale che
i) [x, x] = 0 per ogni x ∈ A,
ii) [x, [y, z]] + [y, [z, x]] + [z, [x, y]] = 0, per ogni x, y, z ∈ A, (identità di
Jacobi),
12
è detto algebra di Lie. Se la caratteristica di K è 6= 2 la condizione i) è equivalente
a
[x, y] = −[y, x]
per ogni x, y ∈ A.
Siano A e B algebre di Lie. Una mappa lineare f : A → B è un omomorfismo di
algebre di Lie se
f ([x, y]) = [f (x), f (y)], ∀ x, y ∈ A.
Ad ogni algebra associativa A si può associare una struttura di algebra di Lie
mediante il prodotto commutatore
[x, y] = xy − yx.
[x, y]1 = x ∧ y,
[x, y]2 = x ∧ y − hx ∧ y, kik
13
1.3 Prodotto tensoriale di spazi vettoriali
Definizione 1.20. Siano V1 , . . . , Vn spazi vettoriali. Chiameremo prodotto ten-
soriale di V1 , . . . , Vn una coppia (T, τ ) dove T è uno spazio vettoriale e τ è
un’applicazione multilineare τ : V1 × · · · × Vn → T che soddisfa la proprietà uni-
versale:
g : V1 × · · · × Vn → W
V1 × · · · × Vn
τ / T
h
& 0
τ0
T
(k ◦ h) ◦ τ = k ◦ (h ◦ τ ) = k ◦ τ 0 = τ.
dove
τ (v1 , . . . , vn )[(w1∗ , . . . , wn∗ )] = w1∗ (v1 )w2∗ (v2 ) · · · wn∗ (vn ).
14
Allora (T, τ ) è prodotto tensoriale di V1 , . . . , Vn che, unico a meno di isomorfismi
per la Proposizione 1.21, chiameremo il prodotto tensoriale degli spazi vettoriali
V1 , . . . , Vn e denoteremo con V1 ⊗ · · · ⊗ Vn , sottintendendo la mappa τ . Inoltre
S ∗ = {∆∗j1 ,...,jn : 1 ≤ ji ≤ hi , i = 1, . . . , n}
di T associata a S1∗ , . . . , Sn∗ della Definizione 1.13 (usiamo la notazione ∆∗j1 ,...,jn
al posto ∆j1 ,...,jn della Definizione 1.13 perchè siamo in ML(V1∗ , . . . , Vn∗ ; K)). Per
ogni n-upla (j1 , . . . , jn ) si ha
Quindi τ (e1j1 , . . . , enjn ) = ∆∗j1 ,...,jn , per ogni n-upla (j1 , . . . , jn ), cioè
τ (S1 × · · · × Sn ) = S ∗ .
La corrispondenza S1 × · · · × Sn → S ∗ data da
τ (V1 × · · · × Vn ),
15
si dicono decomponibili; essi generano V1 × · · · × Vn , per quanto visto nella di-
mostrazione della Proposizione 1.22. Chiameremo i vettori vi ∈ Vi fattori del
tensore decomponibile v1 ⊗ · · · ⊗ vn . Gli altri tensori cioè i tensori di
V1 ⊗ · · · ⊗ Vn r τ (V1 × · · · × Vn ),
v1 ⊗ · · · ⊗ (λvi0 + µvi00 ) ⊗ · · · ⊗ vn
= λ(v1 ⊗ · · · ⊗ vi0 ⊗ · · · ⊗ vn ) + µ(v1 ⊗ · · · ⊗ vi00 ⊗ · · · ⊗ vn )
e quindi
dove
Aj1 ...jn = A(e∗1j1 , e∗2j2 , . . . , e∗njn ).
Posto h = h1 . . . hn , la h-upla
16
con i simboli MS1 ,...,Sn (A) o MS (A). In particolare per un tensore decomponibile
v1 ⊗ · · · ⊗ vn dove
hi
X
vi = aiji eiji , i = 1, . . . , n,
ji =1
allora X
v1 ⊗ · · · ⊗ vn = a1j1 · · · anjn e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn .
(j1 ,...,jn )
Quindi
MS (v1 ⊗ · · · ⊗ vn ) = (a1j1 · · · anjn )(j1 ,...,jn )∈J1 ×···×Jn .
Se n = 2, S1 = {e1 , . . . , eh1 }, S2 = {f1 , . . . , fh2 }
h1
X h2
X
v1 = ai ei , v2 = bj f j ,
i=1 j=1
otteniamo
MS (v1 ⊗ v2 ) = (ai bj )i=1,...,n;j=1,...m .
per cui v1 ⊗ · · · ⊗ vn 6= 0.
ii) La sufficienza è ovvia. Supponiamo che v1 ⊗ · · · ⊗ vn = w1 ⊗ · · · ⊗ wn e che
per un certo indice k l’insieme {vk , wk } sia libero. Allora esiste u∗k ∈ Vk∗ tale che
17
u∗k (vk ) = 0 e u∗k (wk ) = 1. Quindi scelti, per i 6= k, u∗i ∈ Vi∗ tali che u∗i (wi ) = 1 si
ha
(v1 ⊗ · · · ⊗ vn )(u∗1 , . . . , u∗k , . . . , u∗n ) = 0
e
(w1 ⊗ · · · ⊗ wn )(u∗1 , . . . , u∗k , . . . , u∗n ) = 1
che contraddice l’ipotesi. Allora esistono ci ∈ K tali che vi = ci wi , i = 1, . . . , n.
Poichè
w1 ⊗ · · · ⊗ wn = v1 ⊗ · · · ⊗ vn
= c1 w1 ⊗ · · · ⊗ cn wn
n
!
Y
= ci w 1 ⊗ · · · ⊗ w n
i=1
n
Y
Poichè w1 ⊗ · · · ⊗ wn 6= 0 allora ci = 1.
i=1
H : ML(V1 , . . . , Vn ; W ) → Hom(V1 ⊗ · · · ⊗ Vn , W )
18
a) Commutatività del prodotto tensoriale. Sia p una permutazione di {1, 2, . . . , n}.
Essa induce un isomorfismo
g : V1 ⊗ · · · ⊗ Vn → Vp(1) ⊗ · · · ⊗ Vp(n)
g : (V1 ⊗ · · · ⊗ Vl ) ⊗ (Vl+1 ⊗ · · · ⊗ Vn ) → V1 ⊗ · · · ⊗ Vn
g((v1 ⊗ · · · ⊗ vl ) ⊗ (vl+1 ⊗ · · · ⊗ vn )) = v1 ⊗ · · · ⊗ vn .
g : V1 ⊗ · · · ⊗ Vn → Vp(1) ⊗ · · · ⊗ Vp(n)
g : (V1 ⊗ · · · ⊗ Vl ) ⊗ (Vl+1 ⊗ · · · ⊗ Vn ) → V1 ⊗ · · · ⊗ Vn
19
tale che
f : V1 ⊗ · · · ⊗ Vn → W1 ⊗ · · · ⊗ Wn ,
ii) Se Vi = Wi , i = 1, . . . , n allora
f : V1 ⊗ · · · ⊗ Vn → W1 ⊗ · · · ⊗ Wn
tale che
20
ii) Immediato.
iii) Per i) esiste un’unica mappa lineare
V1 ⊗ · · · ⊗ Vn → Z1 ⊗ · · · ⊗ Zn ,
tale che
D’altronde
[(g1 · · ·gn )◦(f1 · · ·fn )](v1 ⊗· · ·⊗vn ) = (g1 · · ·gn )(f1 (v1 )⊗· · ·⊗fn (vn ))
= g1 (f1 (v1 )) ⊗ · · · ⊗ gn (fn (vn )).
tale che
Φ(f1 ⊗ · · · ⊗ fn ) = f1 · · · fn .
Pertanto chiameremo f1 · · · fn prodotto tensoriale di f1 , . . . , fn e lo indicher-
emo con f1 ⊗ · · · ⊗ fn .
21
Dimostrazione. La mappa
Ψ : Hom(V1 , W1 ) × · · · × Hom(Vn , Wn ) → Hom(V1 ⊗ · · · ⊗ Vn , W1 ⊗ · · · ⊗ Wn ),
definita da
Ψ(f1 , . . . , fn ) = f1 · · · fn ,
è chiaramente multilineare. Pertanto esiste una ed una sola mappa lineare
Φ : Hom(V1 , W1 ) ⊗ · · · ⊗ Hom(Vn , Wn ) → Hom(V1 ⊗ · · · ⊗ Vn , W1 ⊗ · · · ⊗ Wn ),
tale che
Φ(f1 ⊗ · · · ⊗ fn ) = f1 · · · fn .
Per dimostrare che Φ è un isomorfismo basta mostrare che è surgettivo dato che
gli spazi hanno la stessa dimensione. Siano Si = {ei1 , . . . , eihi } basi ordinate di
Vi , i = 1, . . . , n e siano Ri = {fi1 , . . . , fiki } basi ordinate di Wi , i = 1, . . . , n. Sia
f ∈ Hom(V1 ⊗ · · · ⊗ Vn , W1 ⊗ · · · ⊗ Wn ), allora avremo
X
f (e1j1 ⊗ · · · ⊗ enjn ) = c(l1 ,...,ln ),(j1 ,...,jn ) f1l1 ⊗ · · · ⊗ fnln ,
(l1 ,...,ln )
i
dove 1 ≤ ji ≤ hi , 1 ≤ li ≤ ki , 1 ≤ i ≤ n. Definiamo fjr : Vi → Wi ,
i
fjr (eit ) = δjt fir , 1 ≤ j, t ≤ hi , 1 ≤ r ≤ ki , 1 ≤ i ≤ n,
estendendo per linearità. Posto
X
g= c(l1 ,...,ln ),(t1 ,...,tn ) ft11 l1 · · · ftnn ln ∈ Im Φ.
(l1 ,...,ln )
(t1 ,...,tn )
Infatti
g(e1j1 ⊗ · · · ⊗ enjn )
X
= c(l1 ,...,ln ),(t1 ,...,tn ) ft11 l1 · · · ftnn ln (e1j1 ⊗ · · · ⊗ enjn )
(l1 ,...,ln )
(t1 ,...,tn )
X
= c(l1 ,...,ln ),(t1 ,...,tn ) ft11 l1 (e1j1 ) ⊗ · · · ⊗ ft1n ln (enjn )
(l1 ,...,ln )
(t1 ,...,tn )
X
= c(l1 ,...,ln ),(t1 ,...,tn ) δt1 j1 f1l1 ⊗ · · · ⊗ δtn jn fnln
(l1 ,...,ln )
(t1 ,...,tn )
X
= c(l1 ,...,ln ),(j1 ,...,jn ) f1l1 ⊗ · · · ⊗ fnln = f (e1j1 ⊗ · · · ⊗ enjn ).
(l1 ,...,ln )
22
Definizione 1.34 (Prodotto di Kronecker di matrici). Sia
(p)
Mp = (aij ) 1≤i≤kp
1≤j≤np
α((1,1),(1,1)) = a11 b11 α((1,1),(1,2)) = a11 b12 α((1,1),(2,1)) = a12 b11 α((1,1),(2,2)) = a12 b12
α((1,2),(1,1)) = a11 b21 α((1,2),(1,2)) = a11 b22 α((1,2),(2,1)) = a12 b21 α((1,2),(2,2)) = a12 b22
α((2,1),(1,1)) = a21 b11 α((2,1),(1,2)) = a21 b12 α((2,1),(2,1)) = a22 b11 α((2,1),(2,2)) = a22 b12
α((2,2),(1,1)) = a21 b21 α((2,2),(1,2)) = a21 b22 α((2,2),(2,1)) = a22 b21 α((2,2),(2,2)) = a22 b22
cioè
b11 b12 b b12
a11 b11 a11 b12 a12 b11 a12 b12 a a12 11
11 b21 b22 b21 b22
a b a11 b22 a12 b21 a12 b22
A ⊗ B = 11 21 = .
a21 b11 a21 b12 a22 b11 a22 b12 b b12 b b12
a21 11 a22 11
a21 b21 a21 b22 a22 b21 a22 b22 b21 b22 b21 b22
23
Se
2 1 4 3
A= , B= ,
3 4 1 5
allora
4 3
4
3
8 6 4 3 2
2 10 1 5 1 5 1 5
A⊗B = = .
12 9 16 12 4 3 4 3
3 4
3 15 4 20 1 5 1 5
MR,S (g1 ⊗ · · · ⊗ gn ) = M1 ⊗ · · · ⊗ Mn .
Quindi se X
A= A(j1 ,...,jn ) e1j1 ⊗ e2j2 ⊗ · · · ⊗ enjn
(j1 ,...,jn )
24
e X
g1 ⊗ · · · ⊗ gn (A) = B(l1 ,...,ln ) f1l1 ⊗ · · · ⊗ fnln
(l1 ,...,ln )
Dimostrazione. Poichè
ki
X (i)
gi (eiji ) = ali ji fili , 1 ≤ ji ≤ hi ,
li =1
si ha
(g1 ⊗ · · · ⊗ gn )(e1j1 ⊗ · · · ⊗ enjn ) = g1 (e1j1 ) ⊗ · · · ⊗ gn (enjn )
k1
! kn
!
X (1)
X (n)
= al1 j1 f1l1 ⊗ · · · ⊗ aln jn fnln
l1 =1 ln =1
k1
X kn
X (1) (n)
= ··· al1 j1 · · · aln jn f1l1 ⊗ · · · ⊗ fnln
l1 =1 ln =1
n
Y (i)
L’entrata ((l1 , . . . , ln ), (j1 , . . . , in )) di MR,S (g1 ⊗ · · · ⊗ gn ) è quindi ali ji da cui
i=1
la tesi.
1.38 (Cambiamento di base). Tutto quello che segue è un caso particolare
della Proposizione 1.37 (Vi = Wi e fi = idVi , i = 1, . . . , n). Lo ripetiamo per
comodità del Lettore.
Siano V1 , . . . , Vn spazi vettoriali, dim Vi = hi , Ji = {1, . . . , hi }, i = 1, . . . , n.
Siano Si = {ei1 , . . . , eihi } basi ordinate di Vi , i = 1, . . . , n, e sia
25
la matrice hi × hi di passaggio dal riferimento Si al riferimento Si0 , per cui per
ogni ki ∈ {1, . . . , hi } e i = 1, . . . , n si ha
hi
X (i)
eiki = aji ki e0iji .
ji =1
La (1.11) altro non è che il prodotto tra la riga (j1 . . . jn ) della matrice MS 0 ,S con
la colonna (Ak1 ...kn )(k1 ,...,kn )∈J1 ×···×Jn .
Corollario della Proposizione 1.33 è la proposizione seguente (di cui diamo
una dimostrazione ad hoc).
Proposizione 1.39. Siano V1 , . . . , Vn spazi vettoriali. Allora esiste uno ed un
solo isomorfismo
g : V1∗ ⊗ · · · ⊗ Vn∗ → (V1 ⊗ · · · ⊗ Vn )∗
tale che, per ogni v1∗ ⊗· · ·⊗vn∗ ∈ V1∗ ⊗· · ·⊗Vn∗ e per ogni w1 ⊗· · ·⊗wn ∈ V1 ⊗· · ·⊗Vn
si ha
(g(v1∗ ⊗ · · · ⊗ vn∗ ))(w1 ⊗ · · · ⊗ wn ) = v1∗ (w1 ) · · · vn∗ (wn ).
26
Dimostrazione. Data la n-upla (v1∗ , . . . , vn∗ ) ∈ V1∗ × · · · × Vn∗ resta definita
l’applicazione multilineare
γ(v1∗ ,...,vn∗ ) : V1 ⊗ · · · ⊗ Vn → K
tale che
g(v1∗ ⊗ · · · ⊗ vn∗ ) = γ(v1∗ ,...,vn∗ ) .
Poichè gli spazi V1∗ ⊗ · · · ⊗ Vn∗ e (V1 ⊗ · · · ⊗ Vn )∗ hanno la stessa dimensione basta
far vedere che g è surgettiva. Se Si = {ei1 , . . . , eihi } sono basi di Vi , i = 1, . . . , n,
e Si∗ = {e∗i1 , . . . , e∗ihi } le relative basi duali, allora per ogni n-upla (j1 , . . . , jn ) e
per ogni n-upla (k1 , . . . , kn ) con 1 ≤ ji ≤ hi , 1 ≤ ki ≤ hi , i = 1, . . . , n
(
1 se (j1 , . . . , jn ) = (k1 , . . . , kn )
(g(e∗1j1 ⊗e∗2j2 ⊗· · ·⊗e∗njn ))(e1k1 ⊗e2k2 ⊗· · ·⊗enkn ) =
0 altrimenti.
di V1 ⊗ · · · ⊗ Vn .
27
tale che, per ogni v ∗ ⊗ w ∈ V ∗ × W , G(v ∗ ⊗ w) : V → W sia l’applicazione lineare
cosı̀ definita
(G(v ∗ ⊗ w))(u) = v ∗ (u)w, u ∈ V.
Se n X
m
X
∗
v ⊗w = tij e∗i ⊗ fj ,
i=1 j=1
γ(u) = v ∗ (u)w, u ∈ V,
è bilineare. Per la proprietà (PUT), esiste una ed una sola applicazione lineare
G : V ∗ ⊗ W → Hom(V, W )
tale che (G(v ∗ ⊗ w))(u) = γ(u) per ogni u ∈ V . Prese le basi S = {e1 , . . . , en }
di V , S ∗ = {e∗1 , . . . , e∗n } di V ∗ e R = {f1 , . . . , fm } di W , la mappa G trasforma
e∗i ⊗ fj nella mappa lineare γij : V → W tale che
γij (ek ) = e∗i (ek )fj = δik fj .
Quindi la matrice di γij relativa alle basi S e R è una matrice m × n avente 1 al
posto ji e 0 altrove. Tali matrici costituiscono una base per M(m, n; K) e quindi
γij è una base per Hom(V, W ) cosı̀ che G è un isomorfismo. Siano
m
X n
X
∗
w= λj fj , v = µi e∗i , µi = v ∗ (ei ),
j=1 i=1
28
allora
tij = µi λj
e per h = 1, . . . , n
m
X m
X m
X
(G(v ∗ ⊗ w))(eh ) = v ∗ (eh ) λj fj = µh λj f j = thj fj ,
j=1 j=1 j=1
da cui la tesi.
dove {ei } e {e∗i } sono una coppia di basi duali in V e V ∗ . Cosı̀ la formula di idV
ha la stessa forma rispetto a tutte le coppie di basi duali.
29
2 L’algebra tensoriale di uno spazio vettoriale
Definizione 2.1. Sia V uno spazio vettoriale. Chiameremo
Or
∗
| ⊗ ·{z
(V ) = V · · ⊗ V} ⊗ V · · ⊗ V }∗ ,
| ⊗ ·{z
s
r volte s volte
lo spazio vettoriale dei tensori di tipo (r, s) su V o degli (r, s)-tensori su V . Per-
tanto un tensore di tipo (r, s) su V , con r e s interi non negativi, è un’applicazione
multilineare
l : |V ∗ × ·{z
· · × V }∗ × V
| × ·{z
· · × V} → K.
r volte s volte
Un tensore di tipo (0, 0) è semplicemente uno scalare. L’intero r è il grado di
controvarianza, l’intero s è il grado di covarianza. Un tensore di tipo (r, 0) è
detto anche r-tensore controvariante; uno di tipo (0, s), s-tensore covariante.
Pertanto O0 O1
(V ) = V ∗ , (V ) = V.
1 0
Notazioni. D’ora
N innanzi utilizzeremo la seguente notazione per i tensori de-
componibili di rs (V )
v1 ⊗ · · · ⊗ vr ⊗ w 1 ⊗ · · · ⊗ w s
dove l’indice in basso indica l’appartenenza a V mentre quello in alto a V ∗ . In
particolare se E = {e1 , . . . , en } è una base di VNindicheremo con E ∗ = {ε1 , . . . , εn }
la sua base duale in V ∗ . Quindi una base di rs (V ) sarà indicata con
Esr = {ei1 ⊗ · · · ⊗ eir ⊗ εj1 ⊗ · · · ⊗ εjs : 1 ≤ ik , jl ≤ n, 1 ≤ k ≤ r, 1 ≤ l ≤ s}.
n
X
N1
In particolare se v ∈ V = 0 (V ) allora scriveremo v = λi ei mentre se v ∗ ∈
i=1
n
X
N0 Nr
V∗ = 1 (V ) scriveremo v ∗ = µi εi . Quindi scriveremo per A ∈ s (V )
i=1
X
A= Aji11,...,i j1 js
,...,js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε ,
r
(i1 ,...,ir )
(j1 ,...,js )
30
dove
Aij11,...,i r i1 ir
,...,js = A(ε , . . . , ε ; ej1 , . . . , ejs ).
Scriveremo anche
Or
∗
(V ) = V · · ⊗ V }∗ ⊗ V
| ⊗ ·{z | ⊗ ·{z
· · ⊗ V},
s
s volte r volte
A = v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ τ s ,
B = w1 ⊗ · · · ⊗ wt ⊗ σ 1 ⊗ · · · ⊗ σ u ,
allora
A ⊗ B = v1 ⊗ · · · ⊗ vr ⊗ w1 ⊗ · · · ⊗ wt ⊗ τ 1 ⊗ · · · ⊗ τ s ⊗ σ 1 ⊗ · · · ⊗ σ u .
Quindi se A = τ 1 ⊗ · · · ⊗ τ s ∈ 0s (V ) e B = v1 ⊗ · · · ⊗ vr ∈ r0 (V ) allora
N N
A ⊗ B = v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ τ s = B ⊗ A
31
poichè τ 1 ⊗ · · · ⊗ τ s ⊗ v1 ⊗ · · · ⊗ vr non è coerente con le nostre convenzioni. In
particolare se, rispetto alla base Esr , si ha
X
A = Aij11,...,i j1 js
,...,js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε ,
r
(i1 ,...,ir )
(j1 ,...,js )
X
B = Bhk11 ,...,h
,...,kt
e ⊗ · · · ⊗ ekt ⊗ εh1 ⊗ · · · ⊗ εhu ,
u k1
(k1 ,...,kt )
(h1 ,...,hu )
allora
A⊗B =
X
A⊗Bji11 ,...,j
,...,ir ,k1 ,...,kt
e ⊗· · ·⊗eir ⊗ek1 ⊗· · ·⊗ekt ⊗εj1 ⊗· · ·⊗εjs ⊗εh1 ⊗· · ·⊗εhu
s ,h1 ,...,hu i1
(i1 ,...,ir ,k1 ,...,kt )
(j1 ,...,js ,h1 ,...,hu )
dove
A ⊗ Bji11 ,...,j
,...,ir ,k1 ,...,kt
s ,h1 ,...,hu
= Aji11,...,i r k1 ,...,kt
,...,js Bh1 ,...,hu .
= K ⊕ V ⊕ V ∗ ⊕ (V ⊗ V ) ⊕ (V ⊗ V ∗ ) ⊕ (V ∗ ⊗ V ∗ ) ⊕ · · ·
N
Lo spazio vettoriale (V ) è ovviamente di dimensione infinita.
Proposizione
Nr N2.4.
t Nl tensore gode delle seguenti proprietà. Siano A ∈
Il prodotto
s (V ), B ∈ u (V ) e C ∈ m (V ), allora
32
iv) A ⊗ (B + C) = A ⊗ B + A ⊗ C: proprietà distributiva;
N
Pertanto (V ), dotata N0del prodotto tensore, diventa un’algebra graduata associa-
tiva con identità 1 ∈ 0 (V ) = K.
Dimostrazione. Immediata dalla Definizione 2.3.
Osservazione 2.5. In generale A ⊗ B 6= B ⊗ A: in 20 (V ) si ha u ⊗ v 6= v ⊗ u
N
se e solo se u, v ∈ V sono linearmente indipendenti per il Lemma 1.27.
N
Definizione 2.6. Sia VNuno spazio vettoriale. Chiameremo (V ) l’algebra ten-
soriale di V . Ogni t ∈ (V ) si scrive pertanto in modo unico nella forma
X Or
t= trs , trs ∈ (V ).
s
• Ad A associamo l’omomorfismo
A1 : V ∗ → V ∗ , v ∗ → A1 (v ∗ ), A1 (v ∗ )(u) = A(v ∗ , u), ∀ u ∈ V.
Si ha quindi l’isomorfismo
O1
A → A1 , (V ) ∼
= Hom(V ∗ , V ∗ ).
1
33
quindi Aij = A(εi , ej ) = A1 (εi )(ej ) = bij = bji , pertanto
B = ME ∗ ,E ∗ (A1 ) = t (Aij ).
• Ad A associamo l’omomorfismo
Si ha quindi l’isomorfismo
O1
A → A2 , (V ) ∼
= Hom(V, V ).
1
V ⊗V∗ ∼
= Hom(V, V ), w ⊗ v ∗ → f, f (u) = v ∗ (u)w, u ∈ V. (2.3)
quindi Aij = A(εi , ej ) = A2 (ej )(εi ) = cij = cij , pertanto (cfr. Proposizione 1.40)
V∗⊗V ∼
= Hom(V ∗ , V ∗ ), w∗ ⊗ u → f, f (v ∗ ) = u(v ∗ )w∗ = v ∗ (u)w∗ . (2.4)
Hom(V, V ) ∼
= V ⊗V∗ ∼
= Hom(V ∗ , V ∗ ).
34
dove
[Gc,b 1 a
a,d (A)](v1 ⊗ · · · ⊗ vc ⊗ τ ⊗ · · · ⊗ τ )(τ
a+1
, . . . , τ a+b ; vc+1 , . . . , vc+d )
= A(τ 1 , . . . , τ a , τ a+1 , . . . , τ a+b ; v1 , . . . , vc , vc+1 , . . . , vc+d )
e
c,b
Or Oa+b Ha,d Ob c,b
(V ) = (V ) −−→ ML(V ∗ , . . . , V ∗ , V, . . . , V ; (V )), A → Ha,d (A),
s c+d | {z } | {z } d
a volte c volte
dove
c,b
[Ha,d (A)(τ 1 , . . . , τ a ; v1 , . . . , vc )](τ a+1 , . . . , τ a+b ; vc+1 , . . . , vc+d )
= A(τ 1 , . . . , τ a , τ a+1 , . . . , τ a+b ; v1 , . . . , vc , vc+1 , . . . , vc+d ).
N1
Alla luce della Proposizione 2.8 diamo alcune interpretazioni di 2 (V ). Poichè
a + b = 1 e c + d = 2 abbiamo i casi:
a = 1, b = 0, c = 0, d = 2
O1 G0,0
1,2
O0 O0
(V ) −−→ Hom (V ), (V ) .
2 1 2
G0,0 1 1
1,2 (A)(τ )(v1 , v2 ) = A(τ , v1 , v2 ), ∀ (v1 , v2 ) ∈ V × V.
35
a = 0, b = 1, c = 1, d = 1 Primo modo:
O1 G0,0
1,2
O1 O1
(V ) −−→ Hom( (V ), (V )),
2 0 1
G0,0 1 1
1,2 (A)(v1 )(τ , v2 ) = A(τ , v1 , v2 ), ∀ (τ 1 , v2 ) ∈ V ∗ × V.
a = 0, b = 1, c = 1, d = 1 Secondo modo:
O1 Gb 0,0 O1 O1
1,2
(V ) −−→ Hom( (V ), (V )),
2 0 1
b0,0
con G ∗ b0,0
1,2 (A) : V → V ⊗ V , v1 → G1,2 (A)(v1 ) dove
b0,0
G 1 1
1,2 (A)(v1 )(τ , v2 ) = A(τ , v2 , v1 ), ∀ (τ 1 , v2 ) ∈ V ∗ × V.
a = 1, b = 0, c = 1, d = 1 Primo modo.
1,0
O1 H1,1 O0
(V ) −−→ BL(V ∗ , V ; (V ))
2 1
1,0 1,0
con H1,1 (A) : V ∗ × V → V ∗ , (τ 1 , v1 ) → H1,1 (A)(τ 1 , v1 ) dove
1,0
[H1,1 (A)(τ 1 , v1 )](v2 ) = A(τ 1 , v1 , v2 ), ∀ v2 ∈ V.
a = 1, b = 0, c = 1, d = 1 Secondo modo.
O1 b 1,0
H O0
1,1
(V ) −−→ BL(V ∗ , V ; (V ))
2 1
1,0 1,0
con H
b 1,1 (A) : V ∗ × V → V ∗ , (τ 1 , v1 ) → H
b 1,1 (A)(τ 1 , v1 ) dove
1,0
[H
b 1,1 (A)(τ 1 , v1 )](v2 ) = A(τ 1 , v2 , v1 ), ∀ v2 ∈ V.
a = 0, b = 1, c = 2, d = 0
2,1
O1 H0,0 O1
(V ) −−→ BL(V, V ; (V )).
2 0
2,1 2,1
con H0,0 (A) : V × V → V , (v1 , v2 ) → H0,0 (A)(v1 , v2 ) dove
2,1
[H0,0 (A)(v1 , v2 )](τ 1 ) = A(τ 1 , v1 , v2 ), ∀ τ 1 ∈ V ∗.
36
Definizione 2.11. Siano f : V → W un’applicazione lineare e f ∗ : W ∗ → V ∗ la
sua mappa duale. Vengono indotte le mappe lineari (Proposizione 1.32)
Or Or
⊗r0 (f ) : (V ) → (W ), ⊗r0 (f ) = f ⊗ · · · ⊗ f ,
0 0 | {z }
r volte
e O0 O0
⊗0s (f ) : (W ) → (V ), ⊗0s (f ) = f ∗ ⊗ · · · ⊗ f ∗ ,
s s | {z }
s volte
⊗r+k r k
0 (f )(A ⊗ B) = ⊗0 (f )(A) ⊗ ⊗0 (f )(B).
37
Proposizione 2.12. Siano f : V → W un’applicazione lineare e f ∗ : W ∗ → V ∗
la sua mappa duale. Siano E = {e1 , . . . , en } una base di V e F = {f1 , . . . , fm }
una base di W , E ∗ = {ε1 , . . . , εn } e F ∗ = {η 1 , . . . , η m } le corrispondenti basi
duali.
Siano
MF ,E (f ) = (αij )i=1,...,m
j=1,...,n
ME ∗ ,F ∗ (f ∗ ) = t MF ,E (f ) = (e
αij ) i=1,...,n , (e
αij ) = αji ,
j=1,...,m
cioè
MF0r ,E0r (⊗r0 (f )) = MF ,E (f ) ⊗ · · · ⊗ MF ,E (f ) .
| {z }
r volte
N0 N0 N0
ii) Siano Es0 e Fs0 le associate basi di s (V ) e s (W ). Sia B ∈ s (W ) e
siano Bl1 ,...,ls le componenti di B rispetto a Fs0 . Siano (⊗0s (f )(B))j1 ,...,js le
componenti di ⊗0s (f )(B) rispetto a Es0 . Allora
X
(⊗0s (f )(B))j1 ,...,js = αjl11 · · · αjlss Bl1 ,...,ls , (2.6)
(l1 ,...,ls )
cioè
MEs0 ,Fs0 (⊗0s (f )) = t MF ,E (f ) ⊗ · · · ⊗ t MF ,E (f ) .
| {z }
s volte
38
Nr Nr Nr
iii) Siano Esr e Fsr le associate basi di s (V ) e s (W ). Sia A ∈ s (V ) e
k1 ,...,kr r r i1 ,...,ir
siano Al1 ,...,ls le componenti di A rispetto a Es . Siano (⊗s (f )(A))j1 ,...,js le
componenti di ⊗rs (f )(A) rispetto a Fsr . Allora
X
(⊗rs (f )(A))ji11,...,i r
,...,js = αki11 · · · αkirr βjl11 · · · βjlss Akl11,...,l
,...,kr
s
,
(k1 ,...,kr )
(l1 ,...,ls )
cioè
Pertanto
X
⊗r0 (f )(A) = (⊗r0 (f )(A))i1 ,...,ir fi1 ⊗ · · · ⊗ fir
(i1 ,...,ir )
X
= Ak1 ,...,kr f (ek1 ) ⊗ · · · ⊗ f (ekr )
(k1 ,...,kr )
X X
= Ak1 ,...,kr αki11 · · · αkirr fi1 ⊗ · · · ⊗ fir
(k1 ,...,kr ) (i1 ,...,ir )
X X
= αki11 · · · αkirr Ak1 ,...,kr fi1 ⊗ · · · ⊗ fir .
(i1 ,...,ir ) (k1 ,...,kr )
39
Seguendo le notazioni relative ai vettori covarianti lasciamo in basso l’indice
rispetto al quale si somma (l’indice delle colonne della matrice MF ,E (f )) e poni-
amo in alto l’altro indice (indice delle righe)
n
X n
X n
X
f ∗ (η l ) = ejl εj =
α αlj εj = αjl εj , l = 1, . . . , m.
j=1 j=1 j=1
Pertanto
X
⊗0s (f )(B) = (⊗0s (f )(B))j1 ,...,js εj1 ⊗ · · · ⊗ εjs
(j1 ,...,js )
X
= Bl1 ,...,ls f ∗ (η l1 ) ⊗ · · · ⊗ f ∗ (η ls )
(l1 ,...,ls )
X X
= Bl1 ,...,ls αjl11 · · · αjlss εj1 ⊗ · · · ⊗ εjs
(l1 ,...,ls ) (j1 ,...,js )
X X
= αjl11 · · · αjlss Bl1 ,...,ls εj1 ⊗ · · · ⊗ εjs .
(j1 ,...,js ) (l1 ,...,ls )
iii) Lasciando in basso l’indice rispetto al quale si somma (l’indice delle colonne
della matrice M−1
F ,E (f )) e ponendo in alto l’altro indice (indice delle righe) avremo
n
X n
X n
X
∗ −1 l j j
(f ) (ε ) = γjl η = βlj η = βjl η j , l = 1, . . . , n
j=1 j=1 j=1
40
Pertanto per la (2.7)
X
⊗rs (f )(A) = ⊗rs (f )(A)ji11,...,i j1
,...,js fi1 ⊗ · · · ⊗ fir ⊗ η ⊗ · · · ⊗ η
r js
(i1 ,...,ir )
(j1 ,...,js )
X
= Akl11,...,l
,...,kr
s
f (ek1 ) ⊗ · · · ⊗ f (ekr ) ⊗ (f ∗ )−1 (εl1 ) ⊗ · · · ⊗ (f ∗ )−1 (εls )
(k1 ,...,kr )
(l1 ,...,ls )
X X
= αki11 · · · αkirr βjl11 · · · βjlss Akl11,...,l
,...,kr
s
fi1 ⊗ · · · ⊗ fir ⊗ η j1 ⊗ · · · ⊗ η js ,
(i1 ,...,ir ) (k1 ,...,kr )
(j1 ,...,js ) (l1 ,...,ls )
da cui la tesi.
2.13 (Cambiamento di base). Tutto quello che segue è un caso particolare del
punto iii) della Proposizione 2.12 (V = W e f = idV ). Lo ripetiamo per comodità
del Lettore.
Siano E = {e1 , . . . , en } e F = {f1 , . . . , fn } due basi dello spazio vettoriale V ,
E ∗ = {ε1 , . . . , εn } e N
F ∗ = {η 1 , . . . , η n } le corrispondenti basi duali. Siano Esr e Fsr
le associate basi di rs (V ).
Nr k1 ,...,kr ∗
Sia A ∈ s (V ) e siano Al1 ,...,ls (E) le componenti di A rispetto a E (e E ),
Aji11,...,i
,...,js (F) le componenti di A rispetto a F (e F ). Sia
r ∗
Siano
M−1
F ,E = (βij )i,j=1,...,n , MF ∗ ,E ∗ = t M−1
F ,E = (γij )i,j=1,...,n , γij = βji . (2.10)
Si ha, lasciando in basso l’indice rispetto al quale si somma (indice delle colonne
della matrice M−1
F ,E ) e ponendo in alto l’altro indice (indice delle righe)
n
X n
X n
X
l j j
ε = γjl η = βlj η = βjl η j , l = 1, . . . , n.
j=1 j=1 j=1
41
Allora, per ogni (l1 , . . . , ls ) con 1 ≤ lm ≤ n per m = 1, . . . , s, si ha
n
X n
X
l1
ε = βjl11 η j1 , ... ... ε =ls
βjlss η js .
j1 =1 js =1
Quindi si ha
X
A= Aij11,...,i j1
,...,js (F)fi1 ⊗ · · · ⊗ fir ⊗ η ⊗ · · · ⊗ η
r js
(i1 ,...,ir )
(j1 ,...,js )
X
= Akl11,...,l
,...,kr
s
(E)ek1 ⊗ · · · ⊗ ekr ⊗ εl1 ⊗ · · · ⊗ εls
(k1 ,...,kr )
(l1 ,...,ls )
X
= Akl11,...,l
,...,kr
s
(E)
(k1 ,...,kr )
(l1 ,...,ls )
X i ir l1 ls j1
js
α k
1
1
· · · α kr
β j 1
· · · β j s
fi 1 ⊗ · · · ⊗ fi r ⊗ η ⊗ · · · ⊗ η
(i1 ,...,ir )
(j1 ,...,js )
X X
Akl11,...,l
,...,kr
(E)αki11 · · · αkirr βjl11 · · · βjlss
=
s
(i1 ,...,ir ) (k1 ,...,kr )
(j1 ,...,js ) (l1 ,...,ls )
fi1 ⊗ · · · ⊗ fir ⊗ η j1 ⊗ · · · ⊗ η js .
Pertanto X
Aij11,...,i r
,...,js (F) = αki11 · · · αkirr βjl11 · · · βjlss Akl11,...,l
,...,kr
s
(E). (2.11)
(k1 ,...,kr )
(l1 ,...,ls )
Quindi se MFsr ,Esr è la matrice di passaggio dalla base Esr alla base Fsr allora
Aij11,...,i r i1 ir l 1 ls k1 ,...,kr
,...,js (F) = αk1 · · · αkr βj1 · · · βjs Al1 ,...,ls (E). (2.12)
42
Osservazione 2.14. Nelle trattazioni classiche un tensore di tipo (r, s) su uno
spazio n-dimensionale V è una mappa
(E, E ∗ ) → Aij11,...,i
,...,js
r
che associa ad ogni base di V (e alla corrispondente base duale di V ∗ ) una famiglia
di nr+s componenti, gli scalari Aij11,...,i r
,...,js , tale che se due basi controvarianti sono
legate dalla matrice (2.14) (e quelle covarianti duali da (2.15)) allora le compo-
nenti relative alle due basi sono legate dalla (2.12).
e
O O X X
(⊗• )(f ) : (W ) → (V ), (⊗• )(f ) t0s = ⊗0s (f )(t0s ).
• •
(⊗• )(f )(tr0 ⊗ tk0 ) = (⊗• )(f )(tr0 ) ⊗ (⊗• )(f )(tk0 ),
(⊗• )(f )(t0s ⊗ t0t ) = (⊗• )(f )t0s ) ⊗ (⊗• )(f )(t0t ),
⊗(f )(trs ⊗ thk ) = ⊗(f )(trs ) ⊗ ⊗(f )(thk ).
= ⊗r+k r k 1 r
0 (f )(t0 ⊗ t0 )(τ , . . . , τ , τ
r+1
, . . . , τ r+k )
= tr0 ⊗ tk0 (f ∗ (τ 1 ), . . . , f ∗ (τ r ), f ∗ (τ r+1 ), . . . , f ∗ (τ r+k ))
= tr0 (f ∗ (τ 1 ), . . . , f ∗ (τ r )) tk0 (f ∗ (τ r+1 ), . . . , f ∗ (τ r+k ))
= ⊗r0 (f )(tr0 )(τ 1 , . . . , τ r ) ⊗k0 (f )(tk0 )(τ r+1 , . . . , τ r+k )
= [⊗r0 (f )(tr0 ) ⊗ ⊗k0 (f )(tk0 )](τ 1 , . . . , τ r , τ r+1 , . . . , τ r+k )
= [(⊗• )(f )(tr0 ) ⊗ (⊗• )(f )(tk0 )](τ 1 , . . . , τ r , τ r+1 , . . . , τ r+k ).
43
Analogamente, per v1 , . . . , vs , vs+1 , . . . , vs+t ∈ V , si ha
(⊗• )(f )(t0s ⊗ t0t )(v1 , . . . , vs , vs+1 , . . . , vs+t )
= ⊗r+h r h 1 r
s+k (f )(ts ⊗ tk )(τ , . . . , τ , τ
r+1
, . . . , τ r+h , w1 , . . . , ws , ws+1 , . . . , ws+k )
= trs ⊗ thk (f ∗ (τ 1 ), . . . , f ∗ (τ r ), f ∗ (τ r+1 ), . . . , f ∗ (τ r+h ),
f −1 (w1 ), . . . , f −1 (ws ), f −1 (ws+1 ), . . . , f −1 (ws+k ))
= trs (f ∗ (τ 1 ), . . . , f ∗ (τ r ), f −1 (w1 ), . . . , f −1 (ws ))
thk (f ∗ (τ r+1 ), . . . , f ∗ (τ r+h ), f −1 (ws+1 ), . . . , f −1 (ws+k ))
= ⊗rs (f )(trs )(τ 1 , . . . , τ r , w1 , . . . , ws ) ⊗hk (f )(thk )(τ r+1 , . . . , τ r+h , ws+1 , . . . , ws+k )
= [⊗rs (f )(trs ) ⊗ ⊗hk (f )(thk )](τ 1 , . . . , τ r , τ r+1 , . . . , τ r+h , w1 , . . . , ws , ws+1 , . . . , ws+k )
= [⊗(f )(trs ) ⊗ ⊗(f )(thk )](τ 1 , . . . , τ r , τ r+1 , . . . , τ r+h , w1 , . . . , ws , ws+1 , . . . , ws+k ).
Dalla proprietà distributiva del prodotto tensore rispetto alla somma (e viceversa)
segue subito la tesi.
Nr
Definizione 2.16 (Contrazione degli indici). Consideriamo s (V ). Si fissino
degli indici p con 1 ≤ p ≤ r e q con 1 ≤ q ≤ s. Consideriamo la mappa
multilineare Or−1
∗ ∗
cpq : |V × ·{z
· · × V} × V × · · · × V → (V )
| {z } s−1
r volte s volte
cpq (v1 , . . . , vr ; τ 1 , . . . , τ s )
= τ q (vp ) v1 ⊗ · · · ⊗ vbp ⊗ · · · vr ⊗ τ 1 ⊗ · · · ⊗ τbq ⊗ · · · τ s ,
dove il simbolo b su un fattore significa che quel fattore è omesso. Allora esiste
un’unica mappa lineare
Or Or−1
Cqp : (V ) → (V )
s s−1
44
tale che
Cqp (v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ · · · τ s )
= τ q (vp ) v1 ⊗ · · · ⊗ vbp ⊗ · · · vr ⊗ τ 1 ⊗ · · · ⊗ τbq ⊗ · · · τ s .
Siano
M−1
F ,E = (βij )i,j=1,...,n , MF ∗ ,E ∗ = t M−1
F ,E = (γij )i,j=1,...,n , γij = βji . (2.15)
45
n
X
k
Poichè ε = γjk η j , k = 1, . . . , n, si ha
j=1
n
X
A(τ 1 , . . . , εk , . . . , τ r−1 , v1 , . . . , ek , . . . , vs−1 )
posto p posto q
k=1
n
X n
X n
X
1 j r−1
= A(τ , . . . , γjk η , . . . , τ , v1 , . . . , αik fi , . . . , vs−1 )
k=1 j=1 i=1
posto p posto q
n X
X n n
X
= αik γjk A(τ 1 , . . . , η j , . . . , τ r−1 , v1 , . . . , fi , . . . , vs−1 )
posto p posto q
i=1 j=1 k=1
Xn X n Xn
= αik βkj A(τ 1 , . . . , η j , . . . , τ r−1 , v1 , . . . , fi , . . . , vs−1 )
posto p posto q
i=1 j=1 k=1
Xn X n
= δij A(τ 1 , . . . , η j , . . . , τ r−1 , v1 , . . . , fi , . . . , vs−1 )
posto p posto q
i=1 j=1
n
X
= A(τ 1 , . . . , η i , . . . , τ r−1 , v1 , . . . , fi , . . . , vs−1 ).
posto p posto q
i=1
Si quindi la tesi.
46
poichè (f ∗ )−1 (τ q )(f (vp )) = (f −1 )∗ (τ q )(f (vp )) = τ q (vp ). D’altronde
⊗r−1 p 1 s
s−1 (f ) ◦ Cq (v1 ⊗ · · · ⊗ vr ⊗ τ ⊗ · · · ⊗ · · · τ )
= ⊗r−1 q 1 s
bq
s−1 (f ) τ (vp ) v1 ⊗ · · · ⊗ vbp ⊗ · · · vr ⊗ τ ⊗ · · · ⊗ τ ⊗ · · · τ
= τ q (vp ) f (v1 ) ⊗ · · · ⊗ f[
(vp ) ⊗ · · · ⊗ · · · f (vr )⊗
(f ∗ )−1 (τ 1 ) ⊗ · · · ⊗ · · · (f ∗\
)−1 (τ q ) ⊗ · · · ⊗ · · · (f ∗ )−1 (τ s ).
Si quindi la tesi.
Proposizione 2.19. Se A = (Aji11,...,i r
,...,js ) i1 ,...,ir allora
j1 ,...,js
n
i ,...,i ,k,i ,...,i
i ,...,ib ,...,i
X
Cqp (A)j1 ,...,jbp ,...j r = Aj11 ,...,jp−1 p+1 r
q−1 ,k,jq+1 ,...,is
.
1 q s
k=1
(i1 ,...,ir )
(j1 ,...,js )
X
= Aij11...i r p j1 js
...js Cq (ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε )
(i1 ,...,ir )
(j1 ,...,js )
X
= Aij11...i r jq
...js ε (eip )ei1 ⊗ · · · ⊗ e
c j1 jq
ip ⊗ · · · e ir ⊗ ε ⊗ · · · ⊗ ε ⊗ · · · ε
c js
(i1 ,...,ir )
(j1 ,...,js )
n
i ,...,i ,k,ip+1 ,...,ir
X X
j1 js
= Aj11 ,...,jp−1 e ⊗ · · · ⊗ ec
q−1 ,k,jq+1 ,...,is i1
jq
ip ⊗ · · · eir ⊗ ε ⊗ · · · ⊗ ε ⊗ · · · ε
c
k=1 (i1 ,...,ibp ,...,ir )
(j1 ,...,jbq ,...,js )
n
!
i ,...,i ,k,i ,...,i
X X
= Aj11 ,...,jp−1 p+1 r
q−1 ,k,jq+1 ,...,is
eip ⊗· · · eir ⊗εj1 ⊗· · ·⊗εc
ei1 ⊗· · ·⊗c jq ⊗· · · εjs
da cui la tesi.
47
Esempio 2.20. Se
n
X O1
A= Aij ei ⊗ εj ∈ (V )
1
i,j=1
allora n
X
C11 (A) = Akk ∈ K.
k=1
X
A= Aij11...i j1 js
...js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε .
r
(i1 ,...,ir )
(j1 ,...,js )
Se v1 , . . . , vs ∈ V e τ 1 , . . . , τ r ∈ V ∗ allora
A(τ 1 , . . . , τ r , v1 , . . . , vs ) =
Csr+s ◦ · · · ◦ C2r+2 ◦ C1r+1 ◦ Cs+r r 2
◦ · · · ◦ Cs+2 1
◦ Cs+1 (A ⊗ v1 ⊗ · · · ⊗ vs ⊗ τ 1 ⊗ · · · ⊗ τ r ).
Dimostrazione. Dalla definizione si ha
1
ei1 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ εj1 ⊗ · · · ⊗ εjs ⊗ τ 1 ⊗ · · · ⊗ τ r
Cs+1
= τ 1 (ei1 )ei2 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ εj1 ⊗ · · · ⊗ εjs ⊗ τ 2 ⊗ · · · ⊗ τ r .
Iterando avremo, posto C 0 = Cs+r
r 2
◦ · · · ◦ Cs+2 1
◦ Cs+1
B = A ⊗ v1 ⊗ · · · ⊗ vs ⊗ τ 1 ⊗ · · · ⊗ τ r
X
= Aij11...i j1 js 1
...js ei1 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ ε ⊗ · · · ⊗ ε ⊗ τ ⊗ · · · ⊗ τ
r r
(i1 ,...,ir )
(j1 ,...,js )
48
si ha, per linearità
C(B)
X
Aij11...i j1 js 1 r
...js C ei1 ⊗ · · · ⊗ eir ⊗ v1 ⊗ · · · ⊗ vs ⊗ ε ⊗ · · · ⊗ ε ⊗ τ ⊗ · · · ⊗ τ
r
=
(i1 ,...,ir )
(j1 ,...,js )
X
Aij11...i j1 js 1 r
...js (ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε )(τ , . . . , τ , v1 , . . . , vs )
r
=
(i1 ,...,ir )
(j1 ,...,js )
X i1 ...ir j1
1
js r
=
A e
j1 ...js 1i ⊗ · · · ⊗ e i r ⊗ ε ⊗ · · · ⊗ ε (τ , . . . , τ , v1 , . . . , vs )
(i1 ,...,ir )
(j1 ,...,js )
= A(τ 1 , . . . , τ r , v1 , . . . , vs )
cioè la tesi.
allora, per ogni r, s ≥ 0, Grs = ⊗rs (g), dove g = G10 : V → W , ossia G = ⊗(g).
G01 (τ )(g(v)) = G01 (τ )(G10 (v)) = C11 (G10 (v) ⊗ G01 (τ )) = C11 (G11 (v ⊗ τ ))
= G00 (C11 (v ⊗ τ )) = G00 (τ (v)) = τ (v),
49
DefinizioneN2.23 (Derivazioni dell’algebra tensoriale). Sia VNuno spazio
vettoriale e (V ) l’algebra tensoriale di V . Una derivazione D di (V ) è una
mappa lineare O O
D: (V ) → (V )
che soddisfa le seguenti condizioni:
O
[D, D0 ] = D ◦ D0 − D0 ◦ D, D, D0 ∈ D( (V )).
[f, g] = f ◦ g − g ◦ f, f, g ∈ Hom(V, V ).
50
D è univocamente determinato dalle sue restrizioni su K, V e V ∗ . Allora Φ è
iniettiva. Viceversa sia f ∈ Hom(V, V ). Definiamo
definita da
D(v1 , . . . , τ 1 , . . . , τ s )
X r
= v1 ⊗ · · · ⊗ D(vi ) ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ τ s
i=1
s
X
+ v1 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ · · · ⊗ D(τ j ) ⊗ · · · ⊗ τ s
j=1
Pertanto Φ è surgettiva.
N1
Esempio 2.25. Si consideri l’isomorfismo canonico G : 1 (V ) → Hom(V, V )
tale che (Proposizione 1.40)
51
Definizione 2.26 (Forme bilineari). Siano E = {e1 , . . . , en } una base N0di uno
∗ 1 n ∗
spazio vettoriale V e E = {ε , . . . , ε } la sua base duale di V . Sia B ∈ 2 (V ) =
V ∗ ⊗ V ∗ cioè una forma bilineare B : V × V → K. Allora, rispetto ad una base
E ∗ si ha X
B= bij εi ⊗ εj .
i,j
Indicheremo con M la matrice ME ∗ ,E ∗ (B) = (bij ) (cfr. §1.25). Alla forma bilineare
B sono associate le mappe lineari
dove
[G1,0
0,1 (B)](v1 )(v2 ) = B(v1 , v2 ), [G1,0
b0,1 (B)](v1 )(v2 ) = B(v2 , v1 ).
e quindi B1 (ei )(ej ) = cji . D’altronde B1 (ei )(ej ) = B(ei , ej ) = bij per cui cji = bij
cioè
C = ME ∗ ,E (B1 ) = t M.
Sia D = (dij ) la matrice associata a B2 rispetto alle basi E ed E ∗ . Allora
n
X
B2 (ei ) = dki εk , i = 1, . . . , n,
k=1
e quindi B2 (ei )(ej ) = dji . D’altronde B2 (ei )(ej ) = B(ej , ei ) = bji per cui dij = bij
cioè
D = ME ∗ ,E (B2 ) = M.
Diremo che la forma bilineare B è non degenere se la mappa B1 è un isomor-
fismo.
52
Proposizione 2.27. Sono equivalenti:
i) B è non degenere;
ii) la matrice (bij ) è invertibile;
iii) la mappa B2 è un isomorfismo;
iv) per ogni v ∈ V , v 6= 0 esiste w ∈ V tale che B(v, w) 6= 0.
Dimostrazione. La forma bilineare B è non degenere se e solo se matrice (bij ) è
invertibile se e solo se la matrice t (bij ) è invertibile se e solo se B2 è un isomorfismo.
i) =⇒ iv). Se B è non degenere per ogni v ∈ V , v 6= 0, B1 (v) 6= 0, quindi esiste
un w ∈ V tale che B1 (v)(w) 6= 0, cioè B(v, w) 6= 0.
iv) =⇒ i). Sia v 6= 0, allora esiste w ∈ V tale che B(v, w) 6= 0, quindi B1 (v)(w) 6=
0 e B1 (v) 6= 0. Allora B1 è un isomorfismo perchè ker B1 = {0} e B1 è surgettivo
essendo dim V = dim V ∗ .
N0
Definizione 2.28 (Isomorfismi musicali). Sia B ∈ 2 (V ) non degenere e
sia M = (bij ) la matrice associata. L’isomorfismo B1 : V → V ∗ verrà denotato
con B [ o anche con [ (sottintendendo B) cioè scriveremo B1 (v) = B [ (v) = v [ .
Pertanto
v [ (w) = B(v, w).
Indicheremo inoltre (B [ )−1 : V ∗ → V con B ] o anche con ]
cioè scriveremo
(B [ )−1 (α) = B ] (α) = α] e quindi B [ (α] ) = α cioè
B(α] , w) = α(w).
Avremo pertanto le relazioni musicali
(v [ )] = v, (α] )[ = α.
dove v ∈ V e α ∈ V ∗ .
n
X n
X
Proposizione 2.29. Siano v = j
v ej ∈ V e v = [
(v [ )i εi ∈ V ∗ allora
j=1 i=1
n
X
(v [ )i = bji v j .
j=1
n
X n
X
Siano α = α j εj ∈ V ∗ e α ] = (α] )i ei ∈ V allora
j=1 i=1
n
X
] i
(α ) = bji αj .
j=1
53
dove (bij ) = M −1 . In particolare si ha
n
X n
X
e[k = i
bki ε , k ]
(ε ) = bki ei .
i=1 i=1
In particolare (εk )]i = bki (in tal caso αj = δjk ) per cui
n
X n
X
k ] k ]
(ε ) = (ε )i ei = bki ei .
i=1 i=1
Generalizziamo le
Noperazioni diNabbassamento e innalzamento di un indice ai
tensori. Siano A ∈ rs (V ) e B ∈ 02 (V ) non degenere e simmetrica. Le mappe
lineari Or Or−1
[
(V ) →
− (V ), A → A[ ,
s s+1
dove
A[ (τ 1 , . . . , τ r−1 ; v1 , . . . , vs+1 ) = A(τ 1 , . . . , τ r−1 , v1[ ; v2 , . . . , vs+1 ),
54
e Or Or+1
]
(V ) →
− (V ), A → A] ,
s s−1
dove
sono isomorfismi (sono iniettive e gli spazi hanno la stessa dimensione) e gener-
alizzano v [ e α] .
Nella definizione di A[ abbiamo “abbassato” v1 ma tale scelta non è canonica
e avremmo potuto scegliere vi con 1 ≤ i ≤ s + 1. Parimenti nella definizione di
A] avremmo potuto scegliere τ j con 1 ≤ j ≤ r + 1.
X
A= Aji11,...,i j1 js
,...,js ei1 ⊗ · · · ⊗ eir ⊗ ε ⊗ · · · ⊗ ε ,
r
(i1 ,...,ir )
(j1 ,...,js )
allora n
i ,...,i
X i ,...,i ,i
(A[ )j11 ,...,jr−1
s+1
= bj1 i Aj12 ,...,jr−1
s+1
i=1
e n
i ,...,i
X
(A] )j11 ,...,jr+1
s−1
= bir+1 i Aii,j1 ,...,i r
1 ,...,js−1
.
i=1
Dimostrazione. Si ha
i ,...,i
(A[ )j11 ,...,jr−1
s+1
= A[ (εi1 , . . . , εir−1 ; ej1 , . . . , ejs+1 )
= A(εi1 , . . . , εir−1 , e[j1 ; ej2 , . . . , ejs+1 )
Xn
i1 ir−1
= A(ε , . . . , ε , bj1 i εi ; ej2 , . . . , ejs+1 )
i=1
n
X
= bj1 i A(εi1 , . . . , εir−1 , εi ; ej2 , . . . , ejs+1 )
i=1
n
X i ,...,i ,i
= bj1 i Aj12 ,...,jr−1
s+1
.
i=1
55
Analogamente
i ,...,i
(A] )j11 ,...,jr+1
s−1
= A] (εi1 , . . . , εir+1 ; ej1 , . . . , ejs−1 )
= A(εi1 , . . . , εir ; (εir+1 )] , ej1 , . . . , ejs−1 )
Xn
= A(εi1 , . . . , εir ; bir+1 i ei , ej1 , . . . , ejs−1 )
i=1
n
X
= bir+1 i A(εi1 , . . . , εir ; ei , ej1 , . . . , ejs−1 )
i=1
n
X
= bir+1 i Aii,j1 ,...,i r
1 ,...,js−1
.
i=1
56
3 Applicazioni multilineari simmetriche e alter-
nanti
Notazioni. Indicheremo con #A la cardinalità di un insieme A.
Siano n un intero positivo e In = {1, 2, . . . , n}. Per q intero positivo sia
Inq = {(i1 , . . . , iq ) : 1 ≤ ij ≤ n, j = 1, . . . , q}.
Pertanto #Inq = nq .
L’insieme
Inq (≤) = {(i1 , . . . , iq ) ∈ Inq : 1 ≤ i1 ≤ i2 ≤ . . . ≤ iq ≤ n}
è in corrispondenza biunivoca conl’insieme delle
combinazioni con ripetizione di
n+q−1
classe q di In e quindi #Inq (≤) = .
q
L’insieme
Inq (<) = {(i1 , . . . , iq ) ∈ Inq : 1 ≤ i1 < i2 < . . . < iq ≤ n}
è in corrispondenza
biunivoca
con l’insieme delle combinazioni di classe q di In e
n
quindi #Inq (<) = .
q
Definizione 3.1. Sia Σq il gruppo delle permutazioni dell’insieme {1, . . . , q}: se
σ, e τ ∈ Σq il prodotto è στ = τ ◦ σ. Indicheremo con ι la permutazione identica
e con σ −1 la permutazione inversa di σ.
Una trasposizione (h, k) con 1 ≤ h < k ≤ q è una permutazione σ tale che
σ(h) = k, σ(k) = h e σ(i) = i per ogni i 6= h, k. È semplice osservare che
Ogni permutazione è prodotto di trasposizioni.
Una permutazione σ si dice pari o dispari a seconda che sia prodotto di un numero
pari o dispari di trasposizioni. Il segno della permutazione σ è
(
1 se σ è pari
sgn(σ) =
−1 se σ è dispari.
Osserviamo che sgn(ι) = 1 e sgn(στ ) = sgn(σ)sgn(τ ) per ogni σ, τ ∈ Σq . In
particolare sgn(σ −1 ) = sgn(σ). Infine osserviamo che, se q ≥ 2,
X
sgn(σ) = 0 (3.1)
σ∈Σq
57
Definizione 3.2 (Determinante e permanente). Sia A = (aij ) 1≤i≤n una
1≤j≤n
matrice n × n ad entrate nel campo K. L’elemento di K
n
XY n
XY
per(A) = aσ(i)i = aiσ(i)
σ∈Σn i=1 σ∈Σn i=1
L’elemento di K
X n
Y X n
Y
det A = sgn(σ) aσ(i)i = sgn(σ) aiσ(i)
σ∈Σn i=1 σ∈Σn i=1
è il determinante di A. Ad esempio se
a11 a12 per(A) = a11 a22 + a21 a12 ,
A= =⇒
a21 a22 det(A) = a11 a22 − a21 a12 .
58
Definizione 3.3 (Matrice composta r-esima). Sia M = (aij )1≤i≤m una ma-
1≤j≤n
trice m × n e sia 1 ≤ r ≤ min{m, n}. Sia
ai1 j1 . . . ai1 jr
Mji11...j
...ir
= ... .. ..
r . .
ai r j 1 . . . a i r j r
Cr (M ) = det Mji11...j
...ir
r (i1 ...ir )
,
(j1 ...jr )
2. Cr (kM ) = k r Cr (M ), se k ∈ K.
3. Cr (t M ) = t Cr (M ).
59
Definizione 3.4. Siano V e W due spazi vettoriali. Sia
| × ·{z
f: V · · × V} → W
q volte
È immediato verificare che gli insiemi Symq (V, W ) e Altq (V, W ) delle mappe
multilineari simmetriche e alternanti sono sottospazi vettoriali di Lq (V, W ), lo
| × ·{z
spazio delle mappe multilineari V · · × V} → W .
q volte
Ovviamente Sym1 (V, W ) = Alt1 (V, W ) = Hom(V, W ). Poniamo inoltre
f (v1 , . . . , vq ) = 0.
X
Se v1 , . . . , vq sono linearmente dipendenti allora per un indice i si ha vi = λj vj ,
j6=i
pertanto
X
f (v1 , . . . , vq ) = λj f (v1 , . . . , vj , . . . , vj , . . . , vq ) = 0.
j6=i posto i posto j
60
Proposizione 3.6. Sia S = {v1 , . . . , vn } una base di uno spazio vettoriale V e
sia W uno spazio vettoriale. Sia φ : S | × ·{z· · × S} → W un’applicazione. Allora
q volte
esiste una ed una sola mappa multilineare simmetrica (alternante)
| × ·{z
Φ: V · · × V} → W
q volte
| × ·{z
Φ: V · · × V} → W
q volte
Allora
X
Φ(wσ(1) , . . . , wσ(q) ) = aσ(1)i1 · · · aσ(q)iq Φ(vi1 , . . . , viq )
(i1 ,...,iq )
X
= aσ(1)i1 · · · aσ(q)iq φ(vi1 , . . . , viq ),
(i1 ,...,iq )
dove (i1 , . . . , iq ) varia in tutto Inq . Sia τ = σ −1 . Se (i1 , . . . , iq ) varia in tutto Inq an-
che (iτ (1) , . . . , iτ (q) ) varia in tutto Inq pertanto, sostituendo 1, . . . , q con τ (1), . . . , τ (q)
e tenendo conto della (3.2),
X
Φ(wσ(1) , . . . , wσ(q) ) = aσ(1)i1 · · · aσ(q)iq φ(vi1 , . . . , viq )
(i1 ,...,iq )
X
= a1iτ (1) · · · aqiτ (q) φ(viτ (1) , . . . , viτ (q) ).
(iτ (1) ,...,iτ (q) )
61
Poniamo (iτ (1) , . . . , iτ (q) ) = (j1 , . . . , jq ). Allora
X
Φ(wσ(1) , . . . , wσ(q) ) = a1iτ (1) · · · aqiτ (q) φ(viτ (1) , . . . , viτ (q) )
(iτ (1) ,...,iτ (q) )
X
= a1j1 · · · aqjq φ(vj1 , . . . , vjq )
(j1 ,...,jq )
X
= a1j1 · · · aqjq Φ(vj1 , . . . , vjq )
(j1 ,...,jq )
= Φ(w1 , . . . , wq ).
Il caso alternante è del tutto analogo.
Proposizione 3.7. Siano V uno spazio vettoriale di dimensione n e W uno
spazio vettoriale. Sia q un intero ≥ 0 allora
q n+q−1
dim Sym (V, W ) = dim W. (3.4)
q
n dim W se q ≤ n,
q
dim Alt (V, W ) = q (3.5)
0 se q > n.
62
Definizione 3.8. Le mappe
1 X
Sq : Lq (V, W ) → Lq (V, W ), Sq (f )(v1 , . . . , vq ) = f (vσ−1 (1) , . . . , vσ−1 (q) ),
q! σ∈Σ
q
1 X
Aq : Lq (V, W ) → Lq (V, W ), Aq (f )(v1 , . . . , vq ) = sgn(σ)f (vσ−1 (1) , . . . , vσ−1 (q) ),
q! σ∈Σ
q
Ovviamente S1 = A1 = idHom(V,W ) .
63
Dimostrazione. Si ha
n
X n
X n
X
f (v1 , . . . , vq ) = f ξ1j1 ej1 , ξ2j2 ej2 , . . . , ξqjq ejq
j1 =1 j2 =1 jq =1
n
X n
X n
X
= ··· ξ1j1 ξ2j2 · · · ξqjq f (ej1 , . . . , ejq )
j1 =1 j2 =1 jq =1
X
= ξ1j1 ξ2j2 · · · ξqjq f (ej1 , . . . , ejq )
Inq (3.7)
X X
= ξ1σ(j1 ) ξ2σ(j2 ) · · · ξqσ(jq ) f (eσ(j1 ) , . . . , eσ(jq ) )
H σ∈Σ(H)
X X
= sgn(σ)ξ1σ(j1 ) ξ2σ(j2 ) · · · ξqσ(jq ) f (ej1 , . . . , ejq )
H σ∈Σ(H)
X
= det MH f (ej1 , . . . , ejq )
H
64
Dimostrazione. Si ha
n
X n
X n
X
f (v1 , . . . , vq ) = f ξ1j1 ej1 , ξ2j2 ej2 , . . . , ξqjq ejq
j1 =1 j2 =1 jq =1
n
X n
X n
X
= ··· ξ1j1 ξ2j2 · · · ξqjq f (ej1 , . . . , ejq )
j1 =1 j2 =1 jq =1
X
= ξ1j1 ξ2j2 · · · ξqjq f (ej1 , . . . , ejq )
Inq (3.8)
X X
= ξ1σ(j1 ) ξ2σ(j2 ) · · · ξqσ(jq ) f (eσ(j1 ) , . . . , eσ(jq ) )
H σ∈Σ(H)
X X
= ξ1σ(j1 ) ξ2σ(j2 ) · · · ξqσ(jq ) f (ej1 , . . . , ejq )
H σ∈Σ(H)
X
= per(MH ) f (ej1 , . . . , ejq )
H
65
3.1 Potenza esterna controvariante di uno spazio vettori-
ale
Definizione 3.11. Sia V uno spazio vettoriale di dimensione n sul campo K. Sia
E = {e1 , . . . , en } una base di V e E ∗ = {ε1 , . . . , εn } la sua base duale in V ∗ . Sia
q un intero positivo. Sia
^q Oq
(V ) = Altq (V ∗ , K) ⊂ (V )
0
V1
la q-esima
V0 potenza esterna controvariante di V . Pertanto (V ) = V . Poniamo
inoltre (V ) = K.V
Gli elementi di q (V ) sono chiamati q-tensori skew-simmetrici (o alternanti)
controvarianti.
Proposizione 3.12. Sia V uno spazio vettoriale, q un intero positivo. Sia σ ∈
Σq .
Nq Nq
i) Esiste una ed una sola mappa lineare Pσ : 0 (V ) → 0 (V ) tale che
ii) Pσ è un isomorfismo.
iii) La mappa σ → Pσ è un omomorfismo di gruppi Σq → Aut( q0 (V ), q0 (V ));
N N
in particolare
iv) Se τ 1 , . . . , τ q ∈ V ∗ allora
Dimostrazione. i) La mappa
Oq
V × · · · × V → (V ), (v1 , . . . , vq ) → vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) .
| {z } 0
q volte
Nq Nq
è multilineare e quindi vi è una sola mappa lineare Pσ : 0 (V ) → 0 (V ) tale
che
Pσ (v1 ⊗ · · · ⊗ vq ) = vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) .
66
ii) La mappa Pσ , poichè induce una permutazione della base E0q , è un isomorfismo.
iii) Si ha
allora
X X
Pσ (A) = Ai1 ...iq eiσ−1 (1) ⊗ · · · ⊗ eiσ−1 (q) = Aiσ(1) ...iσ(q) ei1 ⊗ · · · ⊗ eiq .
(i1 ,...,iq ) (i1 ,...,iq )
Nq
In particolare, A ∈ 0 (V ) è skew-simmetrico se e solo se Pσ (A) = sgn(σ)A per
ogni σ ∈ Σq cioè se e solo se
Ai1 ...iq = sgn(σ)Aiσ(1) ...iσ(q) (3.9)
per ogni σ ∈ Σq .
Dimostrazione. Immediata.
Definizione 3.14. Definiamo la mappa lineare di antisimmetrizzazione (Definizione
3.8)
Oq ^q 1 X
Aq : (V ) → (V ), Aq (A) = sgn(σ)Pσ (A).
0 q! σ∈Σ
q
1 q ∗
Se τ , . . . , τ ∈ V allora
1 X
Aq (A)(τ 1 , . . . , τ q ) = sgn(σ)A(τ σ(1) , . . . , τ σ(q) )
q! σ∈Σ
q
1 X −1 −1
= sgn(σ)A(τ σ (1) , . . . , τ σ (q) ).
q! σ∈Σ
q
67
Si osserva subito che, se σ 0 ∈ Σq , allora
Ad esempio
1 X
Aq (Pσ0 (A)) = sgn(σ)Pσ (Pσ0 (A))
q! σ∈Σ
q
0
sgn(σ ) X
= sgn(σ)sgn(σ 0 )Pσσ0 (A)
q! σ∈Σ
q
sgn(σ 0 ) X
= sgn(σσ 0 )Pσσ0 (A)
q! σ∈Σ
q
1 X
= sgn(σ 0 ) sgn(γ)Pγ (A)
q! γ∈Σ
q
0 q
= sgn(σ )A (A).
Vq
Si ha quindi che A ∈ (V ) se e solo se A = Aq (A). In particolare Aq è surgettivo
per cui ^q Oq
(V ) ∼
= (V )/ ker Aq .
0
Siano v1 , . . . , vq ∈ V definiamo allora
v1 ∧ · · · ∧ vq = Aq (v1 ⊗ · · · ⊗ vq ).
Proposizione
Vq 3.15. Sia V uno spazio vettoriale. La potenza esterna q-esima
(V ) gode della proprietà universale:
(PA) Per ogni spazio vettoriale W e per ogni applicazione multilineare alternante
| × ·{z
g: V · · × V} → W
q volte
dove λ(v1 , . . . , vq ) = v1 ∧ · · · ∧ vq .
68
Dimostrazione.
Nq Per la Proposizione 1.21 esiste una ed una sola applicazione
lineare h : 0 (V ) → W tale che h(v1 ⊗ · · · ⊗ vq ) = g(v1 , . . . , vq ). Allora per ogni
σ ∈ Σq si ha
da cui, sommando su σ ∈ Σq , si ha
1 X 1 X
sgn(σ)h(vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ) = sgn(σ)g(vσ−1 (1) , . . . , vσ−1 (q) ).
q! σ∈Σ q! σ∈Σ
q q
Per la linearità di h,
1 X
sgn(σ)h(vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ) = h (Aq (v1 ⊗ · · · ⊗ vq )) .
q! σ∈Σ
q
Poichè g è alternante
1 X
sgn(σ)g(vσ−1 (1) , . . . , vσ−1 (q) ) = g(v1 , . . . , vq ).
q! σ∈Σ
q
Quindi
h (Aq (v1 ⊗ · · · ⊗ vq )) = h (λ(v1 , . . . , vq )) = g(v1 , . . . , vq ).
Ponendo
h = h|Vq (V )
b
si ha la tesi.
i) Sia Oq
Y = {A + Pγ (A) : A ∈ (V ), γ ∈ Υq }.
0
ii) Sia
69
Nq
Dimostrazione. i) Sia Y = {A + Pγ (A) : A ∈ 0 (V ), γ ∈ Υq }. Proviamo
innanzitutto che il sottospazio hY i generato da Y coincide con il sottospazio hW i
generato da
Oq
W = {A − sgn(σ)Pσ (A) : A ∈ (V ), σ ∈ Σq }.
0
1 X
segue che se Aq (A) = 0 se e solo se A = (A − sgn(σ)Pσ (A)). Pertanto
q! σ∈Σ
q
q q
ker A ⊂ hW i. Dimostriamo ora che W ⊂ ker A . Si ha
Aq (A − sgn(σ)Pσ (A)) = Aq (A) − sgn(σ)Aq (Pσ (A)) = Aq (A) − sgn2 (σ)Aq (A) = 0.
Pertanto hW i = ker Aq e, conseguentemente, ker Aq = hY i.
ii) Osserviamo subito che Z ⊂ ker Aq . Infatti se vi = vj allora Aq (v1 ⊗ · · · ⊗ vq ) =
0. Infatti sia σ ∈ Σq la trasposizione (i, j) allora
Aq (v1 ⊗ · · · ⊗ vq ) = Aq (Pσ (v1 ⊗ · · · ⊗ vq )) = −Aq (v1 ⊗ · · · ⊗ vq )
70
da cui Aq (v1 ⊗ · · · ⊗ vq ) = 0.
D’altronde i generatori di ker Aq sono contenuti in hZi, il sottospazio generato
q
NqZ. Per i) ker A è generato dagli elementi della forma A + Pγ (A) dove A ∈
da
0 (V ) e γ ∈ Υq . Poichè Pγ è lineare possiamo assumere che A = v1 ⊗ · · · ⊗ vq .
Se γ = (i, j), i < j, allora
A + Pγ (A) = v1 ⊗ · · · ⊗ vi ⊗ · · · ⊗ vj ⊗ · · · ⊗ vq + v1 ⊗ · · · ⊗ vj ⊗ · · · ⊗ vi ⊗ · · · ⊗ vq
= v1 ⊗ · · · ⊗ (vi + vj ) ⊗ · · · ⊗ (vj + vi ) ⊗ · · · ⊗ vq
− v1 ⊗ · · · ⊗ vi ⊗ · · · ⊗ vi ⊗ · · · ⊗ vq
− v1 ⊗ · · · ⊗ vj ⊗ · · · ⊗ vj ⊗ · · · ⊗ vq ∈ hZi.
Si ha quindi la tesi.
Corollario 3.17. Sia q ≤ n. L’insieme
^q n
dim (V ) = .
q
è unica (gli elementi eiσ−1 (1) ⊗ · · · ⊗ eiσ−1 (q) stanno nella base E0q )
71
allora
X
Aq λi1 ,...,iq ei1 ⊗ · · · ⊗ eiq = 0,
1≤i1 <...<iq ≤n
Allora n
•
X n
dim Λ (V ) = = 2n .
q=0
q
È opportuno
N• anche qui sottolineare come Λ• (V ) (non è in generale sottoalgebra
di V(V ) in quanto non è stabile
1 V2rispetto al prodotto tensoriale. Siano v, w ∈
V = (V ), inVgenerale v ⊗ wVp∈
/ (V ) perchè, in generale, v ⊗ w 6= −w ⊗ v.
q
Siano A ∈ (V ) e B ∈ (V ), definiamo il prodotto esterno (o alternante)
di A e B ^p+q
A ∧ B = Ap+q (A ⊗ B) ∈ (V ).
i) Proprietà associativa:
(A ∧ B) ∧ C = A ∧ (B ∧ C) (= A ∧ B ∧ C).
iv) (Anti)commutatività:
A ∧ B = (−1)pq B ∧ A.
In particolare, A ∧ A = 0 se q è dispari.
72
v) Unitarietà:
1 ∧ A = A ∧ 1 = A.
Aq+p (Aq (A) ⊗ B) = Aq+p (A ⊗ B), Aq+p (A ⊗ Ap (B)) = Aq+p (A ⊗ B). (3.12)
Poichè
1 X
Aq (A) ⊗ B = sgn(σ)Pσ (A) ⊗ B
q! σ∈Σ
q
allora
1 X
Aq+p (Aq (A) ⊗ B) = sgn(σ)Aq+p (Pσ (A) ⊗ B).
q! σ∈Σ
q
si ha
cioè
Pσ (A) ⊗ B = Pσe (A ⊗ B).
Poichè sgn(σ) = sgn(e
σ ) si ha quindi
Pertanto
1 X
Aq+p (Aq (A) ⊗ B) = sgn(σ)2 Aq+p (A ⊗ B) = Aq+p (A ⊗ B).
q! σ∈Σ
q
73
Per la linearità di Aq+p e Aq allora la prima relazione di (3.12) vale per tutti i
tensori. La prova della seconda relazione è completamente analoga. Pertanto
(A ∧ B) ∧ C = Aq+p+r (Aq+p (A ⊗ B) ⊗ C) = Aq+p+r (A ⊗ B ⊗ C).
Analogamente
A ∧ (B ∧ C) = Aq+p+r (A ⊗ Ap+r (B ⊗ C)) = Aq+p+r (A ⊗ B ⊗ C).
ii) Si ha
A ∧ (B + B 0 ) = Aq+p (A ⊗ (B + B 0 )) = Aq+p (A ⊗ B + A ⊗ B 0 )
= Aq+p (A ⊗ B) + Aq+p (A ⊗ B 0 ) = A ∧ B + A ∧ B 0 .
iii) Se λ ∈ K si ha
(λA) ∧ B = Ap+q (λA ⊗ B) = λAp+q (A ⊗ B) = λ(A ∧ B)
e A ∧ (λB) = Ap+q (A ⊗ λB) = λAp+q (A ⊗ B) = λ(A ∧ B).
iv) Se proviamo che
Aq+p (A ⊗ B) = (−1)pq Aq+p (B ⊗ A) (3.13)
vale per i tensori decomponibili, per la linearità di Aq+p , (3.13) vale per tutti i
tensori. Siano A = v1 ⊗ · · · ⊗ vq e B = w1 ⊗ · · · ⊗ wp , allora
A ⊗ B = v1 ⊗ · · · ⊗ vq ⊗ w1 ⊗ · · · ⊗ wp .
Spostiamo w1 di q posti alla sua sinistra mediante q trasposizioni (q scambi di
posto con il fattore che lo precede) e cosı̀ per tutti gli altri wi , i = 2, . . . , p. Sia
σ il prodotto di queste pq trasposizioni. Allora
B ⊗ A = Pσ (A ⊗ B).
Quindi
Aq+p (B ⊗ A) = Aq+p (Pσ (A ⊗ B)) = sgn(σ)Aq+p (A ⊗ B) = (−1)pq Aq+p (A ⊗ B)
poichè sgn(σ) = (−1)pq .
v) Si ha
1 ∧ A = Aq (1 ⊗ A) = Aq (1 · A) = Aq (A) = A,
e A ∧ 1 = Aq (A ⊗ 1) = Aq (1 · A) = Aq (A) = A.
74
Osservazione 3.20. Siano v1 , . . . , vq ∈ V . Allora
vi1 ∧ · · · ∧ viq = sgn(σ)v1 ∧ · · · ∧ vq
se σ ∈ Σq è la permutazione tale che σ(j) = ij , j = 1, . . . , q. Infatti
75
Osservazione 3.22. Dalla Proposizione 3.21 segue subito che
Calcoliamo v1 ∧ v2 ∈ 2 (V ). Si ha
V
1 2 3
ξ ξ ξ
M = 11 12 13
ξ2 ξ2 ξ2
per cui
det(ξij ) > 0.
v1 ∧ · · · ∧ vn = k e1 ∧ · · · ∧ en
76
per un numero reale k > 0. In altre parole, per l’Osservazione 3.22, dare
un’orientazione di V equivale a dare un n-tensore alterno ω 6= 0.
Se V è dotato di un prodotto scalare g possiamo scegliere una base ortonormale
E in modo che se ω è un n-tensore alterno non nullo si abbia
ω(e1 , . . . , en ) = 1.
poichè la matrice (ξij )i,j è ortogonale e quindi det(ξij ) = ±1. Quindi le basi
ortonormali E e V sono equiorientate se e solo se
det(ξij ) = 1.
si ha ^ q ^q
Im ⊗q0 (f ) V ⊂ W,
per cui è indotta la mappa lineare
^q ^q ^q
⊗q (f ) : V → W, (f )(v1 ∧ · · · ∧ vq ) = f (v1 ) ∧ · · · ∧ f (vq ).
m
X
f (ej ) = αij fi , j = 1, . . . , n.
i=1
77
Allora
f (ej1 ) ∧ · · · ∧ f (ejq )
!
Xm m
X X
= αi1 j1 fi1 ∧ · · · ∧ α iq jq f iq = αi1 j1 · · · αiq jq fi1 ∧ · · · ∧ fiq
i1 =1 iq =1 (i1 ,...,iq )
X X
= sgn(σ)αiσ−1 (1) j1 · · · αiσ−1 (q) jq fi1 ∧ · · · ∧ fiq
1≤i1 <...<iq ≤m σ∈Σq
X i ...i
= det Mj11...jqq fi1 ∧ · · · ∧ fiq
1≤i1 <...<iq ≤m
da cui la tesi.
78
−7 −11 −1 −1 −2 −3
= 2 1 0 −4 0 0 .
8 4 0 −1 2 1
Infatti un conto diretto dà
^2
(f )(e1 ∧ e2 ) = f (e1 ) ∧ f (e2 ) = −7f1 ∧ f2 + 2f1 ∧ f3 + 8f2 ∧ f3 ,
^2
(f )(e1 ∧ e3 ) = f (e1 ) ∧ f (e3 ) = −11f1 ∧ f2 + f1 ∧ f3 + 4f2 ∧ f3 ,
^2
(f )(e1 ∧ e4 ) = f (e1 ) ∧ f (e4 ) = −f1 ∧ f2 ,
^2
(f )(e2 ∧ e3 ) = f (e2 ) ∧ f (e3 ) = −f1 ∧ f2 − 4f1 ∧ f3 − f2 ∧ f3 ,
^2
(f )(e2 ∧ e4 ) = f (e2 ) ∧ f (e4 ) = −2f1 ∧ f2 + 2f2 ∧ f3 ,
^2
(f )(e3 ∧ e4 ) = f (e3 ) ∧ f (e4 ) = −3f1 ∧ f2 + f2 ∧ f3 .
X sgn(σ) q+p −1 −1 −1 −1
= ⊗0 (f )(tq ⊗ tp )(τ σ (1) , . . . , τ σ (q) , τ σ (q+1) , . . . , τ σ (q+p) )
σ∈Σq+p
(q + p)!
X sgn(σ) q −1 −1 −1 −1
= ⊗0 (f )(tq ) ⊗ ⊗p0 (f )(tp )(τ σ (1) , . . . , τ σ (q) , τ σ (q+1) , . . . , τ σ (q+p) )
σ∈Σq+p
(q + p)!
= Aq+p (⊗q0 (f )(tq ) ⊗ ⊗p0 (f )(tp ))(τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p )
= ⊗q0 (f )(tq ) ∧ ⊗p0 (f )(tp )(τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p )
= Λ• (f )(tq ) ∧ Λ• (f )(tp )(τ 1 , . . . , τ q , τ q+1 , . . . , τ q+p ).
79
3.2 Potenza esterna covariante di uno spazio vettoriale
Definizione 3.29. Sia V uno spazio vettoriale di dimensione n sul campo K. Sia
E = {e1 , . . . , en } una base di V e E ∗ = {ε1 , . . . , εn } la sua base duale in V ∗ . Sia
q un intero positivo. Sia
∗
V
la q-esima
V potenza esterna covariante di V
V . Pertanto 1 (V ) = V . Poniamo
inoltre 0 (V ) = K. Gli elementi di di q (V ) sono chiamati q-tensori skew-
simmetrici (o alternanti) covarianti.
−1 (1) −1 (q)
P σ (τ 1 ⊗ · · · ⊗ τ q ) = τ σ ⊗ · · · ⊗ τσ .
ii) P σ è isomorfismo.
in particolare
−1
P σ1 σ2 = P σ1 ◦ P σ2 , P ι = idN0q (V ) , Pσ = (P σ )−1 .
iv) Se v1 , . . . , vq ∈ V allora
P σ = (Pσ−1 )∗ .
80
Dimostrazione. i) La mappa
O0 −1 (1) −1 (q)
∗ ∗
V × · · · × V → (V ), (τ 1 , . . . , τ q ) → τ σ ⊗ · · · ⊗ τσ .
| {z } q
q volte
N0 N0
è multilineare e quindi vi è una sola mappa lineare P σ : q (V ) → q (V ) tale
che
−1 −1
P σ (τ 1 ⊗ · · · ⊗ τ q ) = τ σ (1) ⊗ · · · ⊗ τ σ (q) .
ii) La mappa P σ , poichè induce una permutazione della base Eq0 , è un isomorfismo.
iii) Si ha
−1 −1
P σ1 ◦ P σ2 (τ 1 ⊗ · · · ⊗ τ q ) = P σ1 (τ σ2 (1)
⊗ · · · ⊗ τ σ2 (q)
)
σ1−1 (σ2−1 (1)) σ1−1 (σ2−1 (q)) (σ2−1 σ1−1 )(1) −1 −1
=τ ⊗ ··· ⊗ τ =τ ⊗ · · · ⊗ τ (σ2 σ1 )(q)
−1 (1) −1 (q)
= τ (σ1 σ2 ) ⊗ · · · ⊗ τ (σ1 σ2 ) = P σ1 σ2 (τ 1 ⊗ · · · ⊗ τ q ).
iv) Infatti
−1 −1
P σ (τ 1 ⊗ · · · ⊗ τ q )(v1 , . . . , vq ) = (τ σ (1) ⊗ · · · ⊗ τ σ (q) )(v1 , . . . , vq )
q q
Y
σ −1 (i) i=σ(j) Y j
τ (vi ) === τ (vσ(j) ) = (τ 1 ⊗ · · · ⊗ τ q )(vσ(1) , . . . , vσ(q) ).
i=1 j=1
v) Siano τ 1 , . . . , τ q ∈ V ∗ e v1 , . . . , vq ∈ V , allora
−1 −1
[P σ (τ 1 ⊗ · · · ⊗ τ q )](v1 ⊗ · · · ⊗ vq ) = (τ σ (1) ⊗ · · · ⊗ τ σ (q) )(v1 ⊗ · · · ⊗ vq )
= (τ 1 ⊗ · · · ⊗ τ q )(vσ(1) ⊗ · · · ⊗ vσ(q) )
= (τ 1 ⊗ · · · ⊗ τ q )(Pσ−1 (v1 ⊗ · · · ⊗ vq ))
= [(Pσ−1 )∗ (τ 1 ⊗ · · · ⊗ τ q )](v1 ⊗ · · · ⊗ vq ).
Corollario 3.31. Sia
X O0
A= Aj1 ...jq εj1 ⊗ · · · ⊗ εjq ∈ (V )
q
(j1 ,...,jq )
allora
X X
P σ (A) = Aj1 ...jq εjσ−1 (1) ⊗ · · · ⊗ εjσ−1 (q) = Ajσ(1) ...jσ(q) εj1 ⊗ · · · ⊗ εjq .
(j1 ,...,jq ) (j1 ,...,jq )
81
Dimostrazione. Immediata.
Definizione 3.32. Definiamo la mappa lineare di antisimmetrizzazione (Definizione
3.8)
O0 ^ 1 X
Aq : (V ) → (V ), Aq (A) = sgn(σ)P σ (A).
q q q! σ∈Σ
q
Se v1 , . . . , vq ∈ V allora
1 X
Aq (A)(v1 , . . . , vq ) = sgn(σ)A(vσ(1) , . . . , vσ(q) )
q! σ∈Σ
q
1 X
= sgn(σ)A(vσ−1 (1) , . . . , vσ−1 (q) ).
q! σ∈Σ
q
Ad esempio
0 1 X 0
Aq (P σ (A)) = sgn(σ)P σ (P σ (A))
q! σ∈Σ
q
0
sgn(σ ) X 0
= sgn(σ)sgn(σ 0 )P σσ (A)
q! σ∈Σ
q
sgn(σ 0 ) X 0
= sgn(σσ 0 )P σσ (A)
q! σ∈Σ
q
1 X
= sgn(σ 0 ) sgn(γ)P γ (A)
q! γ∈Σ
q
0
= sgn(σ )Aq (A).
V
Si ha quindi che A ∈ q (V ) se e solo se A = Aq (A). In particolare Aq è surgettivo,
per cui
O0
(V ) ∼
^
= (V )/ ker Aq .
q q
τ 1 ∧ · · · ∧ τ q = Aq (τ 1 ⊗ · · · ⊗ τ q ).
Proposizione
V 3.33. Sia V uno spazio vettoriale. La potenza esterna q-esima
q (V ) gode della proprietà universale:
82
(PA) Per ogni spazio vettoriale W e per ogni applicazione multilineare alternante
∗
· · × V }∗ → W
| × ·{z
g: V
q volte
V
h : q (V ) → W che rende com-
esiste una ed una sola applicazione lineare b
mutativo il diagramma
V ∗ × ··· × V ∗ λ /
V
q (V )
g h
b
'
W
dove λ(τ 1 , . . . , τ q ) = τ 1 ∧ · · · ∧ τ q .
Dimostrazione.
N0 Per la Proposizione 1.21 esiste una ed una sola applicazione
1 q 1 q
lineare h : q (V ) → W tale che h(τ ⊗ · · · ⊗ τ ) = g(τ , . . . , τ ). Allora per ogni
σ ∈ Σq si ha
−1 (1) −1 (q) −1 (1) −1 (q)
h(τ σ ⊗ · · · ⊗ τσ ) = g(τ σ , . . . , τσ ),
da cui, sommando su σ ∈ Σq , si ha
1 X −1 −1 1 X −1 −1
sgn(σ)h(τ σ (1) ⊗ · · · ⊗ τ σ (q) ) = sgn(σ)g(τ σ (1) , . . . , τ σ (q) ).
q! σ∈Σ q! σ∈Σ
q q
Per la linearità di h si ha
1 X −1 −1
sgn(σ)h(τ σ (1) ⊗ · · · ⊗ τ σ (q) ) = h Aq (τ 1 ⊗ · · · ⊗ τ q ) .
q! σ∈Σ
q
Quindi
h Aq (τ 1 ⊗ · · · ⊗ τ q ) = h λ(τ 1 , . . . , τ q ) = g(τ 1 , . . . , τ q ).
Ponendo
h = h|Vq (V )
b
si ha la tesi.
83
Proposizione 3.34. Sia Υq l’insieme delle trasposizioni di Σq .
i) Sia
O0
Y = {A + P γ (A) : A ∈ (V ), γ ∈ Υq }.
q
84
1 X
segue che se Aq (A) = 0 se e solo se A = (A − sgn(σ)P σ (A)). Pertanto
q! σ∈Σ
q
Aq (τ 1 ⊗ · · · ⊗ τ q ) = Aq (P σ (τ 1 ⊗ · · · ⊗ τ q )) = −Aq (τ 1 ⊗ · · · ⊗ τ q )
da cui Aq (τ 1 ⊗ · · · ⊗ τ q ) = 0.
D’altronde i generatori di ker Aq sono contenuti in hZi, il sottospazio generato
N0Z. Per i) ker Aq è generato
da dagli elementi della forma A + P γ (A) dove A ∈
γ 1 q
q (V ) e γ ∈ Υq . Poichè P è lineare possiamo assumere che A = τ ⊗ · · · ⊗ τ .
Se γ = (i, j), i < j, allora
A + P γ (A) = τ 1 ⊗ · · · ⊗ τ i ⊗ · · · ⊗ τ j ⊗ · · · ⊗ τ q + τ 1 ⊗ · · · ⊗ τ j ⊗ · · · ⊗ τ i ⊗ · · · ⊗ τ q
= τ 1 ⊗ · · · ⊗ (τ i + τ j ) ⊗ · · · ⊗ (τ j + τ i ) ⊗ · · · ⊗ τ q
− τ1 ⊗ · · · ⊗ τi ⊗ · · · ⊗ τi ⊗ · · · ⊗ τq
− τ 1 ⊗ · · · ⊗ τ j ⊗ · · · ⊗ τ j ⊗ · · · ⊗ τ q ∈ hZi.
Si ha quindi la tesi.
85
è unica (gli elementi εjσ−1 (1) ⊗ · · · ⊗ εjσ−1 (q) stanno nella base Eq0 ), si ha
se e solo se εj1 ⊗ · · · ⊗ εjq e εi1 ⊗ · · · ⊗ εiq hanno gli stessi fattori. D’altronde gli
elementi della base Eq0 che non hanno fattori uguali sono tanti quante le combi-
nazioni di classe q di un insieme di n elementi. Quindi potremo scrivere
allora
X
Aq λj1 ,...,jq εj1 ⊗ · · · ⊗ εjq = 0,
1≤j1 <...<jq ≤n
Allora n
X n
dim Λ• (V ) = = 2n .
q=0
q
86
Proposizione 3.37. Siano A, A0 ∈ ), B, B 0 ∈
V V V
q (V p (V )eC∈ r (V ).
i) Proprietà associativa:
(A ∧ B) ∧ C = A ∧ (B ∧ C) (= A ∧ B ∧ C),
(A + A0 ) ∧ B = A ∧ B + A0 ∧ B, A ∧ (B + B 0 ) = A ∧ B + A ∧ B 0 .
iv) (Anti)commutatività:
A ∧ B = (−1)pq B ∧ A.
In particolare, A ∧ A = 0 se q è dispari.
v) Unitarietà:
1 ∧ A = A ∧ 1 = A.
Aq+p (Aq (A) ⊗ B) = Aq+p (A ⊗ B), Aq+p (A ⊗ Ap (B)) = Aq+p (A ⊗ B). (3.18)
Poichè
1 X
Aq (A) ⊗ B = sgn(σ)P σ (A) ⊗ B
q! σ∈Σ
q
allora
1 X
Aq+p (Aq (A) ⊗ B) = sgn(σ)Aq+p (P σ (A) ⊗ B).
q! σ∈Σ
q
87
si ha
−1 (1) −1 (q)
τσ ⊗ · · · ⊗ τσ ⊗ ν q+1 ⊗ · · · ⊗ ν q+p
−1 (1) −1 (q) −1 (q+1) −1 (q+p)
= τ σe ⊗ · · · ⊗ τ σe ⊗ ν σe ⊗ · · · ⊗ ν σe ,
cioè
P σ (A) ⊗ B = P σe (A ⊗ B).
Poichè sgn(σ) = sgn(e
σ ) si ha quindi
Pertanto
1 X
Aq+p (Aq (A) ⊗ B) = sgn(σ)2 Aq+p (A ⊗ B) = Aq+p (A ⊗ B).
q! σ∈Σ
q
Per la linearità di Aq+p e Aq allora la prima relazione di (3.18) vale per tutti i
tensori. La prova della seconda relazione è completamente analoga. Pertanto
Analogamente
ii) Si ha
Infine
A ∧ (B + B 0 ) = Aq+p (A ⊗ (B + B 0 )) = Aq+p (A ⊗ B + A ⊗ B 0 )
= Aq+p (A ⊗ B) + Aq+p (A ⊗ B 0 ) = A ∧ B + A ∧ B 0 .
iii) Se λ ∈ K si ha
88
vale per i tensori decomponibili, per la linearità di Aq+p , (3.19) vale per tutti i
tensori. Siano A = τ 1 ⊗ · · · ⊗ τ q e B = ν 1 ⊗ · · · ⊗ ν p . Allora
A ⊗ B = τ 1 ⊗ · · · ⊗ τ q ⊗ ν 1 ⊗ · · · ⊗ ν p.
Spostiamo ν 1 di q posti alla sua sinistra mediante q trasposizioni (q scambi di
posto con il fattore che lo precede) e cosı̀ per tutti gli altri ν i , i = 2, . . . , p. Sia σ
il prodotto di queste pq trasposizioni. Allora
B ⊗ A = P σ (A ⊗ B).
Quindi
Aq+p (B ⊗ A) = Aq+p (P σ (A ⊗ B)) = sgn(σ)Aq+p (A ⊗ B) = (−1)pq Aq+p (A ⊗ B)
poichè sgn(σ) = (−1)pq .
v) Si ha
1 ∧ A = Aq (1 ⊗ A) = Aq (1 · A) = Aq (A) = A,
e A ∧ 1 = Aq (A ⊗ 1) = Aq (1 · A) = Aq (A) = A.
Osservazione 3.38. Siano τ 1 , . . . , τ q ∈ V . Allora
τ i1 ∧ · · · ∧ τ iq = sgn(σ)τ 1 ∧ · · · ∧ τ q
se σ ∈ Σq è la permutazione tale che σ(j) = ij , j = 1, . . . , q. Infatti
τ i1 ∧ · · · ∧ τ iq = Aq (τ i1 ⊗ · · · ⊗ τ iq ) = Aq (τ σ(1) ⊗ · · · ⊗ τ σ(q) )
−1
= Aq (P σ (τ 1 ⊗ · · · ⊗ τ q )) = sgn(σ)Aq (τ 1 ⊗ · · · ⊗ τ q ) = sgn(σ)τ 1 ∧ · · · ∧ τ q .
Proposizione 3.39. Siano τ 1 , . . . , τ q ∈ V ∗ e siano
n
X
i
τ = ξji εj , i = 1, . . . , q.
j=1
89
Dimostrazione. Si ha
! !
n
X n
X n
X
τ1 ∧ · · · ∧ τq = ξj11 εj1 ∧ ξj22 εj2 ∧ ··· ∧ ξjqq εjq
j1 =1 j2 =1 jq =1
n X
X n n
X
= ··· ξj11 ξj22 · · · ξjqq εj1 ∧ · · · ∧ εjq
j1 =1 j2 =1 jq =1
X X q
1
ξσ(j ξ2
1 ) σ(j2 )
· · · ξσ(jq)
εσ(j1 ) ∧ · · · ∧ εσ(jq )
H σ∈Σ(H)
X X q
1
= sgn(σ)ξσ(j ξ 2 · · · ξσ(j
1 ) σ(j2 ) q)
εj 1 ∧ · · · ∧ εj q
H σ∈Σ(H)
X
= det MH εj1 ∧ · · · ∧ εjq
H
si ha ^ ^
Im ⊗0q (f ) W ⊂ V.
q q
90
e ^
(F) = {φi1 ∧ · · · ∧ φiq : 1 ≤ i1 < . . . < iq ≤ m},
q
∗ ∗
dove VqE è baseVdi V duale di E e F è base di W duale di F , le associate basi
di (W ) e q (W ). Sia M = MF ,E V la matrice
V associata V a f rispetto alle basi
E
V e F. Allora la matrice associata a q (f ) : q (W ) → q (V ) rispetto alle basi
è la matrice Cq (t M ) = t Cq (M ), trasposta della q-esima matrice
V
q (F) e q (E)
composta di M .
n
X
∗ i
f (φ ) = αij εj , i = 1, . . . , m.
j=1
si ottiene
f ∗ (φi1 ) ∧ · · · ∧ f ∗ (φiq )
!
X n n
X X
= αi1 j1 εj1 ∧ · · · ∧ α i q j q εj q = αi1 j1 · · · αiq jq εj1 ∧ · · · ∧ εjq
j1 =1 jq =1 (j1 ,...,jq )
X X
= sgn(σ)αi1 jσ−1 (1) · · · αiq jσ−1 (q) εj1 ∧ · · · ∧ εjq
1≤j1 <...<jq ≤n σ∈Σq
X i ...i
= det Mj11...jqq εj1 ∧ · · · ∧ εjq
1≤j1 <...<jq ≤n
da cui la tesi.
In particolare
Λ• (f )(tq ∧ tp ) = Λ• (f )(tq ) ∧ Λ• (f )(tp ).
91
Λ• (f )(tq ∧ tp )(v1 , . . . , vq , vq+1 , . . . , vq+p )
^
= (f )(tq ∧ tp )(v1 , . . . , vq , vq+1 , . . . , vq+p )
q+p
= tq ∧ tp (f (v1 ), . . . , f (vq ), f (vq+1 ), . . . , f (vq+p ))
= Aq+p (tq ⊗ tp )(f (v1 ), . . . , f (vq ), f (vq+1 ), . . . , f (vq+p ))
X sgn(σ)
= tq ⊗ tp (f (vσ−1 (1) ), . . . , f (vσ−1 (q) ), f (vσ−1 (q+1) ), . . . , f (vσ−1 (q+p) ))
σ∈Σ
(q + p)!
q+p
X sgn(σ) 0
= ⊗ (f )(tq ⊗ tp )(vσ−1 (1) , . . . , vσ−1 (q) , vσ−1 (q+1) , . . . , vσ−1 (q+p) )
σ∈Σq+p
(q + p)! q+p
X sgn(σ) 0
= ⊗ (f )(tq ) ⊗ ⊗0p (f )(tp )(vσ−1 (1) , . . . , vσ−1 (q) , vσ−1 (q+1) , . . . , vσ−1 (q+p) )
σ∈Σq+p
(q + p)! q
= Aq+p (⊗0q (f )(tq ) ⊗ ⊗0p (f )(tp ))(v1 , . . . , vq , vq+1 , . . . , vq+p )
= ⊗0q (f )(tq ) ∧ ⊗0p (f )(tp )(v1 , . . . , vq , vq+1 , . . . , vq+p )
= Λ• (f )(tq ) ∧ Λ• (f )(tp )(v1 , . . . , vq , vq+1 , . . . , vq+p ).
92
Proposizione 3.44. Siano V e W spazio vettoriali. Si ha l’isomorfismo canonico
^q
ψ : Hom( (V ), W ) → Altq (V, W ), f → ψ(f ),
dove
[ψ(f )](v1 , . . . , vn ) = f (v1 ∧ · · · ∧ vq ).
In particolare ^q
( (V ))∗ ∼
^
= Altq (V, K) = (V ). (3.21)
q
In particolare, se α1 , . . . , αq ∈ V ∗ e v1 , . . . , vq ∈ V allora
1
α1 ∧ · · · ∧ αq (v1 ∧ · · · ∧ vq ) = det(αi (vj )).
q!
1
della base duale di q (E).
V V
Per la (3.22) la base q (E) è multipla per il fattore
q!
1 X −1 −1
α1 ∧ · · · ∧ αq (v1 , . . . , vq ) = sgn(σ)ασ (1) ⊗ · · · ⊗ ασ (q) (v1 , . . . , vq )
q! σ∈Σ
q
1 X 1
= sgn(σ)α1 (vσ(1) ) · · · αq (vσ(q) ) = det(αi (vj )).
q! σ∈Σ q!
q
93
N0
Definizione 3.45 (Prodotto interno). N0 Siano A ∈ s (V ), s > 0, v ∈ V . Si
definisce il prodotto interno iv (A) ∈ s−1 (V ) di A per v mediante
iv (A) = C11 (v ⊗ A)
per cui
iv (A)(v1 , . . . , vs−1 ) = A(v, v1 , . . . , vs−1 ).
In particolare iv (τ ) = τ (v), essendo τ ∈ V ∗ = 01 (V ). Se A ∈ 00 (V ) = K allora
N N
si pone iv (A) = 0. Se
X n
X
j1 js
A= Aj1 ...js ε ⊗ · · · ⊗ ε , v= v i ei
(j1 ,...,js ) i=1
allora n
X X
v⊗A= v i Aj1 ...js ei ⊗ εj1 ⊗ εj2 ⊗ · · · ⊗ εjs
i=1 (j1 ,...,js )
e n
X X
C11 (v ⊗ A) = v k Akj2 ...js εj2 ⊗ · · · ⊗ εjs .
k=1 (j2 ,...,js )
V V
ii) iv ( s (V )) ⊂ s−1 (V ).
V V
iii) Se iv : s (V ) → s−1 (V ) allora si ha, per v, w ∈ V ,
iv ◦ iw = −iw ◦ iv , iv ◦ iv = 0.
V V
Proposizione 3.46. Sia ω ∈ s (V )eθ∈ t (V ) allora
In particolare se τ 1 , . . . , τ s ∈ V ∗ e v ∈ V allora
s
X
1 s
iv (τ ∧ · · · ∧ τ ) = (−1)i+1 τ i (v)τ 1 ∧ · · · ∧ τbi ∧ · · · ∧ τ s .
i=1
94
Dimostrazione. Siano τ 1 , . . . , τ s ∈ V ∗ e v1 , . . . .vs ∈ V . Per la Proposizione
3.44 si ha
Se ω = τ 1 ∧ · · · ∧ τ s e θ = ν 1 ∧ · · · ∧ ν t allora
s
X
iv (ω ∧ θ) = (−1)i+1 iv (τ i )τ 1 ∧ · · · ∧ τbi ∧ · · · ∧ τ s ∧ θ
i=1
t
X
+ (−1)s+j+1 iv (ν j )ω ∧ ν 1 ∧ · · · ∧ νbj ∧ · · · ∧ ν t
j=1
s
!
X
i+1 i 1 s
= (−1) iv (τ )τ ∧ · · · ∧ τbi ∧ · · · ∧ τ ∧θ
i=1
t
!
X
s j+1 j 1 t
+ (−1) ω ∧ (−1) iv (ν )ν ∧ · · · ∧ νbj ∧ · · · ∧ ν
j=1
s
= (iv ω) ∧ θ + (−1) ω ∧ (iv θ).
V V
Poichè gli elementi come ω e θ generano s (V ) e t (V ), rispettivamente, la tesi
segue subito.
95
3.3 Potenza simmetrica di uno spazio vettoriale
Definizione 3.47 (Matrice indotta r-esima). Sia M = (aij )1≤i≤m una matrice
1≤j≤n
m×n e sia 1 ≤ r ≤ min{m, n}. Siano (i1 , . . . , ir ) e (j1 , . . . , jr ) due r-uple ordinate
di interi, non necessariamente distinti, tali che
1 ≤ i1 ≤ . . . ≤ ir ≤ m, 1 ≤ j1 ≤ . . . ≤ jr ≤ n.
Sia
(i ,...,i )
M(j11,...,jrr ) = (aik jl )k,l=1,...,r .
la matrice quadrata avente le righe indiciate su (i1 . . . ir ) e le colonne su (j1 . . . jr ),
entrambi le r-uple ordinate lessicograficamente. Ad esempio, se r = 2,
(1,1) a11 a11 (1,2) a12 a13
M(1,1) = , M(2,3) = .
a11 a11 a22 a23
m+r−1 n+r−1
Definiamo la matrice ×
r r
(i ...i ) !
per(M(j11...jrr ) )
M [r] = p ,
µ(i1 . . . ir )µ(j1 . . . jr ) (i1 ...ir )
(j1 ...jr )
dove µ(k1 . . . kr ) è il prodotto dei fattoriali delle molteplicità degli interi distinti
che compaiono nella sequenza k1 . . . kr (ad esempio µ(4, 5, 5, 7.7, 7) = 1!2!3!). Ad
esempio se
2
a ab b2
a b
M= =⇒ M [2] = 2ac ad + bc 2bd .
c d
c2 cd d2
3. (t M )[r] = t M [r] .
[r]
4. Se Il è la matrice identica l × l allora In = I(n+r−1) .
r
96
k+r−1[r]
6. Se rk(M ) = k allora rk(M ) = .
r
n+r−1
7. Se M è matrice n × n allora det(M [r] ) = det(M )( r−1 ) .
Nq ∗
N0
Definizione 3.48. Ricordando che 0 (V ) = Lq (V , K) e q (V ) = Lq (V, K)
definiamo _q Oq
(V ) = Symq (V ∗ , K) ⊂ (V )
0
la potenza q-esima simmetrica controvariante di V e
_ O0
(V ) = Symq (V, K) ⊂ (V )
q q
W1
(V ) = V1 (V ) = V e
V
la
W potenzaVq-esima simmetrica covariante di V . Pertanto
0
∗
(V ) = 0 (V ) = 0 (V ) = 0 (V ) = K.
W W V
1 (V ) = 1 (V ) = V Poniamo inoltre
1 X −1 −1
S q (A)(τ 1 , . . . , τ q ) = A(τ σ (1) , . . . , τ σ (q) ).
q! σ∈Σ
q
O0 _ 1 X
Sq : (V ) → (V ), Sq (A) = P σ (A),
q q q! σ∈Σ
q
1 X
Sq (A)(v1 , . . . , vq ) = A(vσ−1 (1) , . . . , vσ−1 (q) ).
q! σ∈Σ
q
3. Per ogni σ ∈ Σq si ha
P σ ◦ S q = S q ◦ Pσ = S q .
Wq Vq
4. Se q ≥ 2 si ha S q ◦ Aq = Aq ◦ S q = 0 per cui (V ) ∩ (V ) = 0 (si tenga
presente (3.1)).
97
Proposizione 3.51. Sia Υq l’insieme delle trasposizioni di Σq Allora ker S q =
hXi dove hXi è il sottospazio vettoriale generato dall’insieme
Oq
X = {A − Pσ (A) : A ∈ (V ), σ ∈ Υq }.
0
1 X
segue che se Sq (A) = 0 se e solo se A = (A − Pσ (A)).
q! σ∈Σ
q
98
Wq
Dimostrazione. La mappa Sq è surgettiva e quindi Sq (E0q ) genera (V ). In-
oltre essendo
1 X
Sq (ei1 ⊗ · · · ⊗ eiq ) = ei ⊗ · · · ⊗ eiσ−1 (q)
q! σ∈Σ σ−1 (1)
q
si ha
Sq (ei1 ⊗ · · · ⊗ eiq ) = Sq (ej1 ⊗ · · · ⊗ ejq )
se e solo se ei1 ⊗ · · · ⊗ eiq e ej1 ⊗ · · · ⊗ ejq hanno gli stessi fattori con la stessa
molteplicità. Quindi #Sq (E0q ) coincide con il numero delle combinazioni con ripe-
tizione di classe q di un insieme di n elementi e possiamo allora scrivere
Sq (E0q ) = {Sq (ei1 ⊗ · · · ⊗ eiq ) : 1 ≤ i1 ≤ . . . ≤ iq ≤ n}.
Inoltre l’insieme Sq (E0q ) è libero in quanto i suoi elementi sono combinazioni lineari
di elementi di E0q tutti distinti tra loro.
Proposizione 3.54. Per ogni A ∈ T0q (V ), Sq (A) è l’unico tensore simmetrico
tale che, per ogni v ∗ ∈ V ∗ ,
Sq (A)(v ∗ , . . . , v ∗ ) = A(v ∗ , . . . , v ∗ ). (3.23)
Dimostrazione. Ovviamente si ha
1 X
Sq (A)(v ∗ , . . . , v ∗ ) = A(v ∗ , . . . , v ∗ ) = A(v ∗ , . . . , v ∗ ).
q! σ∈Σ
q
99
Proposizione
Wq 3.56. IlWpprodotto simmetrico
Wr gode delle seguenti le proprietà: per
ogni A ∈ (V ), B ∈ (V ) e C ∈ (V )
b) A ∨ B = B ∨ A: proprietà commutativa;
Per ogni A ∈ q (V ), B ∈ q (V ) e C ∈ r (V )
W W W
d) (A + B) ∨ C = A ∨ B + A ∨ C: proprietà distributiva.
A ⊗ B = v1 ⊗ · · · ⊗ vq ⊗ wq+1 ⊗ · · · ⊗ wq+p
e quindi
1 X
Sq+p (A ⊗ B) = vσ−1 (1) ⊗ · · · ⊗ vσ−1 (q) ⊗ wσ−1 (q+1) ⊗ · · · ⊗ wσ−1 (q+p)
(q + p)! σ∈Σ
q+p
1 X
= wσ−1 (1) ⊗· · ·⊗wσ−1 (p) ⊗vσ−1 (p+1) ⊗· · ·⊗vσ−1 (p+q) = Sq+p (B⊗A).
(q + p)! σ∈Σ
q+p
c) Proviamo che
Sq+p (Sq (A) ⊗ B) = Sq+p (A ⊗ B), Sq+p (A ⊗ Sp (B)) = Sq+p (A ⊗ B). (3.25)
Poichè
1 X
Sq (A) ⊗ B = Pσ (A) ⊗ B
q! σ∈Σ
q
allora
1 X
Sq+p (Sq (A) ⊗ B) = Sq+p (Pσ (A) ⊗ B).
q! σ∈Σ
q
100
Se A e B sono tensori decomponibili, A = v1 ⊗ · · · ⊗ vq e B = w1 ⊗ · · · ⊗ wp allora,
per ogni σ ∈ Σq ,
Sq+p (Pσ (A) ⊗ B) = Sq+p (A ⊗ B).
Infatti identificando σ ∈ Σq con l’elemento σ
e ∈ Σq+p , definito da
(
σ(i) 1 ≤ i ≤ q
σ
e(i) =
i q + 1 ≤ i ≤ q + p,
si ha
è base di q (V ).
W
101
Dimostrazione. Immediato dal Corollario 3.53.
Proposizione
Wq 3.59. Sia V uno spazio vettoriale. La potenza simmetrica q-esima
(V ) gode della proprietà universale:
(PS) Per ogni spazio vettoriale W e per ogni applicazione multilineare simmetrica
| × ·{z
g: V · · × V} → W
q volte
102
Dimostrazione. È immediato verificare che ϕ(f ) ∈ Symq (V, W ) e che ψ(f ) ∈
Altq (V,W
W ). Inoltre ϕ e ψ sono chiaramente lineari ed iniettive poichè {v1 ∨· · ·∨vq }
genera q (V ) e {v1 ∧ · · · ∧ vq } genera q (V ). Per la Proposizione 3.59 ϕ e ψ sono
V
anche surgettive.
Definizione 3.61. Siano V e W due spazi vettoriali. Ad una’applicazione lineare
f : V → W sono associate le mappe lineari:
Poichè
_ q _q _ _
Im T0q (f ) (V ) ⊂ (W ), Im Tq0 (f ) (W ) ⊂ (V )
q q
Tali mappe sono univocamente determinate dalle relazioni che soddisfano. Basta
infatti osservare che, se A ∈ T0q (V ) allora
T0q (f )(Sq (A)) = Sq (T0q (f )(A)), T0q (f )(Aq (A)) = Aq (T0q (f )(A)).
Wq
L’unicità
Vq segue subito dal fatto che {v 1 ∨ · · · ∨ v q } genera (V ) e {v1 ∧ · · · ∧ vq }
genera (V ). Gli altri casi sono del tutto analoghi. Parimenti si ha
Tq0 (f )(Sq∗ (A)) = Sq∗ (Tq0 (f )(A)), Tq0 (f )(A∗q (A)) = A∗q (Tq0 (f )(A)).
le associate basi di q (V ) e q (V ),
W W
_q
(F) = {fi1 ∨ · · · ∨ fiq : 1 ≤ i1 < . . . < iq ≤ m},
103
_
(F ∗ ) = {φi1 ∨ · · · ∨ φiq : 1 ≤ i1 < . . . < iq ≤ m}
q
le associate basi di q (W ) e q (W ).
W W
Sia f : V → W un’applicazione lineare e sia M = MF ,E la matrice associata
a f rispetto alle basi E e F.
Wq
(f ) : q (V ) → q (W ) rispetto alle basi q (E) e
W W W
i) La
Wq matrice associata a
(F) è la matrice
M [q] .
Dimostrazione. i) Si ha
f (ej1 ) ∨ · · · ∨ f (ejq )
!
Xm m
X X
= αi1 j1 fi1 ∨, · · · ∨ α iq jq f iq = αi1 j1 · · · αiq jq fi1 ∨ · · · ∨ fiq
i1 =1 iq =1 (i1 ,...,iq )
X X
= αiσ−1 (1) j1 · · · αiσ−1 (q) jq fi1 ∨ · · · ∨ fiq
1≤i1 ≤...≤iq ≤m σ∈Σq
(i ...i )
X per(M(j11...jqq ) )
= fi1 ∨ · · · ∨ fiq
1≤i1 ≤...≤iq ≤m
µ(i1 . . . iq )
da cui la i).
La ii) segue immediatamente da i).
104
1
a11 a11
1
a11
a12
1
a11
a13
1
a12
a12
1
a12
a13
1
a13
a13
2
a11 a11
2
a11 a12
2
a11 a13
2
a12 a12
2
a12 a13
2
a13 a13
a11 a11
a11 a12
a11 a13
a12 a12
a12 a13
a13 a13
a21 a21
a21 a22
a21 a23
a22 a22
a22 a23
a23 a23
1
a21
1
a21 a22
1
a21 a23
1
a22
a21
a22
1
a22 a23
1
a23 a23
2
a21 a21
2
a21 a22
2
a21 a23
2
a22 a22
2
a22 a23
2
a23 a23
1
1 1
1
1 0
1
1 1
1
0
0
1
0 1
1
1 1
2
1 1
2
1 0
2
1 1
2
0 0
2 0 1 2 1 1
1 1
1 0
1 1
0 0
0 1
1 1
=
3 3
3 2
3 0
2 2
2 0
0 0
1
3 3
1
3 2
1
3 0
1
2 2
1
2 0
1
0 0
2
3 3
2
3 2
2
3 0
2
2 2
2
2 0
2
0 0
1 0 1 0 0 1
= 6 2 3 0 2
0 .
9 6 0 4 0 0
Infatti un conto diretto dà
_2
(f )(e1 ∨ e1 ) = f (e1 ) ∨ f (e1 ) = f1 ∨ f1 + 6f1 ∨ f2 + 9f2 ∨ f2
_2
(f )(e1 ∨ e2 ) = f (e1 ) ∨ f (e2 ) = 2f1 ∨ f2 + 6f2 ∨ f2 ,
_2
(f )(e1 ∨ e3 ) = f (e1 ) ∨ f (e3 ) = f1 ∨ f1 + 3f1 ∨ f2 ,
_2
(f )(e2 ∨ e2 ) = f (e2 ) ∨ f (e2 ) = 4f2 ∨ f2 ,
_2
(f )(e2 ∨ e3 ) = f (e2 ) ∨ f (e3 ) = 2f1 ∨ f2 ,
_2
(f )(e3 ∨ e3 ) = f (e3 ) ∨ f (e3 ) = f1 ∨ f1 .
105
References
[1] T.S. Blyth: Module Theory, Oxford University Press (1977).
[3] B.R. McDonald: Linear algebra over commutative rings. Marcel Dekker
(1984).
106