Sei sulla pagina 1di 14

4 Tensori

In tutto il capitolo supponiamo che V sia uno spazio vettoriale di dimensione n


sullo R , per quanto le considerazioni che si faranno valgono in genere anche su
C.

4.1 Spazio duale


Definizione 4.1 Un’applicazione lineare da σ : V → R si chiama funzionale
(lineare) o covettore.
La somma di due funzionali e il prodotto di un funzionale per una costante sono
definite da
(σ1 + σ2 )(v) := σ1 (v) + σ2 (v)
(kσ)(v) := k(σ(v))
Sono verifiche di routine controllare che la somma di due funzionali è un funzio-
nale e che il prodotto di un funzionale per una costante è ancora un funzionale.
L’insieme di tutti i funzionali è uno spazio vettoriale rispetto le operazioni di
somma e prodotto per una costante, definite sopra (anche queste sono verifiche
di routine).
Come ogni applicazione lineare, un funzionale resta univocamente definito
quando si assegnino i valori che assume sui vettori di una base.
Definizione 4.2 Lo spazio vettoriale dei funzionali lineari su V si chiama spa-
zio duale e si indica con V ∗ .
Proposizione 4.1 Se V ha dimensione finita, allora dim V ∗ = dim V .
Dim. Sia {e1 , . . . , en } una base di V , sia η i per 1 ≤ i ≤ n il funzionale su V
definito da
η i (ej ) = δji .
dove δji è la funzione ”delta di Kronecker”, che vale 1 se i = j e vale 0 se i 6= j.
{η 1 , . . . , η n } è una base di V ∗ . Infatti
1. sono linearmente indipendenti, perché da
n
X
ai η i = 0
i=1

segue che, applicando il funzionale a un qualunque vettore ej della base


di V , da un lato
Xn
ai η i (ej ) = 0(ej ) = 0
i=1
e dall’altro
n
X n
X
i
ai η (ej ) = ai δji = aj .
i=1 i=1
Da cui necessariamente aj = 0 per ogni j;

53
2. generano tutto V ∗ , perché , per ogni funzionale σ ∈ V ∗ , si ha
n
X
σ= (σ(ei ))η i ,
i=1

infatti per dimostrare l’uguaglianza dei due funzionali basta verificarla sui
vettori di una base; cosı̀ facendo abbiamo per ogni ej
n
X n
X n
X
(σ(ei )η i )(ej ) = σ(ei )η i (ej ) = σ(ei )δji = σ(ej ).
i=1 i=1 i=1

Definizione 4.3 La base {η 1 , . . . , η n } di V ∗ si dice base duale della base {e1 , . . . , en }


di V .

Avendo V e V ∗ la stessa dimensione sono spazi vettoriali isomorfi, ma non vi è


un modo canonico di associare un funzionale a un vettore 28 , con ciò intendo dire
che bisogna ricorrere a un arbitraria scelta delle basi per definire un isomorfismo.
Notiamo invece che è possibile definire un isomorfismo canonico fra V e lo
spazio biduale (V ∗ )∗ . Definiamo

Φ : V → (V ∗ )∗
v 7→ Φ(v)

dove

Φ(v) : V ∗ → R
σ 7→ σ(v).

Lasciamo al lettore la verifica che Φ(v) è effettivamente un funzionale lineare su


V ∗ e che la Φ cosı̀ definita è lineare (basta applicare le definizioni); dimostriamo
invece che Φ è iniettiva. Se Φ(v) = 0, allora per ogni σ ∈ V ∗ , Φ(v)(σ) = 0;
cioè, per ogni σ ∈ V ∗ , σ(v) = 0 e questo è possibile solo se v = 0, infatti per
ogni v 6= 0 posso completare v in una base e considerare il funzionale che su v
assume il valore 1 e su tutti gli altri vettori della base il valore 0. Concludiamo
che Φ è un isomorfismo, perché V e (V ∗ )∗ hanno la stessa dimensione.
Come si vede per definire Φ non si è fatto uso di scelte di basi. Poiché ogni
vettore si comporta come un funzionale sullo spazio dei funzionali, identificando
v con Φ(v), possiamo concludere che non solo i covettori sono funzionali sullo
spazio dei vettori, ma anche i vettori sono funzionali sullo spazio dei covettori.
28 a meno che non si aumenti la struttura di V , introducendo un prodotto scalare, ma

discuteremo di considerazioni di questo tipo più avanti.

54
4.2 Convenzione di Einstein
La convenzione di Einstein è una convenzione che semplifica la notazione. Essa
prevede che:

1. i vettori di una base dello spazio vettoriale V , {e1 , . . . , en } si indiciano


con indici in basso,
2. i vettori della base duale {η 1 , . . . , η n } si indiciano con indici in alto,
3. le coordinate di un vettore si indiciano con indici in alto,

4. le coordinate di un covettore si indiciano con indici in basso,


5. si ometta il simbolo di sommatoria, se questa si riferisce a un indice che
si trova una volta un basso e una volta in alto,
6. ogni qualvolta si incontri uno stesso indice in alto e in basso in un prodotto
si intende che si deve effettuare una somma al variare di quell’indice fra 1
e la dimensione di V ,
7. si dispongono gli indici in alto o in basso in modo di evitare se possibile
di dover fare una sommatoria, rispetto a un indice ripetuto due volte in
basso (o in alto); se questa situazione dovesse essere inevitabile si mostra
esplicitamente il simbolo e l’indice di sommatoria,
8. usualmente in una formula che contiene un’uguaglianza un indice non ri-
petuto in basso (in alto) a sinistra dell’uguale deve comparire non ripetuto
in basso (in alto) anche a destra dell’uguale
Per quanto alcuni ritengano che dietro questa notazione non ci siano fatti
particolarmente rilevanti da un punto di vista scientifico29 , noi ne faremo uso
nelle pagine che seguono.
Pertanto la decomposizione di un vettore v rispetto alla base E = {e1 , . . . , en }
si scriverà
v = xj ej (28)
piuttosto che
n
X n
X
v= xj ej o v= xj ej
j=1 j=1

Se E 0 = {e01 , . . . , e0n } è un’altra base avremo

v = x0i e0i (29)

e le relazioni che danno il cambiamento di base nella forma

e0i = αij ej o ej = βji e0i (30)


29 ma molti fisici matematici non sono d’accordo con questa opinione

55
mentre quelle che danno il cambiamento di coordinate (che si ricavano sosti-
tuendo le (30) nelle (28) e (29)) sono

xj = αij x0i o x0i = βji xj . (31)

Per ricollegare queste formule al nostro modo di rappresentare le matrici


cambiamento di base, osserviamo che

ME 0 E (id) = βji 1 ≤ i ≤ n

1 ≤ j ≤ n

e  
MEE 0 (id) = αij 1 ≤ j ≤ n
.
1 ≤ i ≤ n

Infine il fatto che le due matrici sono una l’inversa dell’altra si rappresenta

αji βkj = δki

αji βik = δjk .

4.3 Definizione di tensore


La nozione di tensore può essere introdotta in modi diversi. Possiamo qui fare un
parallelo con la nozione di vettore (di cui comunque il tensore rappresenta una
generalizzazione). Il vettore può essere introdotto come terna (n-pla) di numeri,
come segmento orientato, come elemento di uno spazio vettoriale. Similmente un
tensore può essere introdotto come un pacchetto di numeri variamente indiciati,
come un’applicazione multilineare, o come un elemento del prodotto tensoriale
di spazi vettorali.
Utilizzeremo qui l’approccio che descrivere il tensore come un’applicazione
multilineare.
Definizione 4.4 Siano V1 , . . . , Vr spazi vettoriali su R. Un’applicazione F :
V1 × . . . × Vr → R si dice multilineare se è lineare in ciascuna delle variabili.
Formalmente per ogni indice i, per ogni a, b ∈ R e per ogni v, w ∈ Vi

F (v1 , . . . , vi−1 , av + bw, vi+1 , . . . , vr ) =


aF (v1 , . . . , vi−1 , v, vi+1 , . . . , vr ) + bF (v1 , . . . , vi−1 , w, vi+1 , . . . , vr )

Definizione 4.5 Si dice tensore sullo spazio vettoriale V di ordine covariante


r e ordine controvariante s (o di tipo (r, s)) un’applicazione multilineare

T : V ×, . . . , ×V × V ∗ ×, . . . , ×V ∗ → R
| {z } | {z }
r s


Esempio 4.1 Ogni covettore σ ∈ V è un tensore covariante di ordine 1, es-
sendo un funzionale lineare su V .

56
Esempio 4.2 Avendo indentificato V con il suo biduale (V ∗ )∗ , anche ogni vet-
tore v ∈ V è un tensore controvariante di ordine 1, essendo un funzionale su
V ∗.

Esempio 4.3 Ogni forma bilineare su V è un tensore covariante di ordine 2.

Esempio 4.4 Il determinante, inteso come funzione delle colonne di una ma-
trice n × n è un tensore covariante di ordine n sullo spazio vettoriale Rn .

La somma di due tensori di tipo (r, s) e il prodotto di un tensore per uno


scalare sono definiti in modo analogo a quanto fatto per i covettori:
Definizione 4.6 Siano T, R tensori di tipo (r, s) e k scalare. Definiamo

(T +R)(v1 , . . . , vr , σ1 , . . . , σs ) := T (v1 , . . . , vr , σ1 , . . . , σs )+R(v1 , . . . , vr , σ1 , . . . , σs )

(kT )(v1 , . . . , vr , σ1 , . . . , σs ) := kT (v1 , . . . , vr , σ1 , . . . , σs ).


È verifica di routine che T + R e kT sono ancora tensori. È altrettanto verifica
di routine che l’insieme dei tensori di tipo (r, s) forma uno spazio vettoriale
rispetto le operazioni sopra definite. Lo indichiamo con Tsr (V ).

4.4 Il prodotto tensoriale


Definiamo un prodotto fra tensori, che a un tensore T di tipo (r, s) e uno T 0 di
tipo (r0 , s0 ), associa un tensore T ⊗ T 0 di tipo (r + r0 , s + s0 ).
Definizione 4.7

T ⊗ T 0 : V ×, . . . , ×V × V ∗ ×, . . . , ×V ∗ → K
| {z } | {z }
r+r 0 s+s0

T ⊗ T 0 (v1 , . . . , vr , vr+1 , . . . , vr+r0 , σ1 , . . . , σs , σs+1 , . . . , σs+s0 ) :=


T (v1 , . . . , vr , σ1 , . . . , σs )T 0 (vr+1 , . . . , vr+r0 , σs+1 , . . . , σs+s0 )

Sono verifiche di routine controllare che T +T 0 è un tensore, cioè un’applicazione


multilineare.
Il prodotto tensoriale gode delle proprietà

(T + T 0 ) ⊗ T 00 = T ⊗ T ” + T 0 ⊗ T ”

T ⊗ (T 0 + T 00 ) = T ⊗ T 0 + T ⊗ T ”
k(T ⊗ T 0 ) = (kT ) ⊗ T 0 = T ⊗ (kT ”)
pertanto
0 0
r+r
⊗ : Tsr × Tsr0 → Ts+s 0

è bilineare.

57
Il prodotto tensoriale è anche associativo, cioè

(T ⊗ T 0 ) ⊗ T ” = T ⊗ (T 0 ⊗ T ”)

e pertanto possiamo omettere le parentesi in un prodotto di tre tensori e, per


iterazione, definire anche il prodotto tensoriale di un numero maggiore di tensori;
in tal caso ⊗ si comporta come un’applicazione multilineare.
Sia {e1 , . . . , en } una base di V , e {η 1 , . . . , η n } la base duale di V ∗ .
Calcoliamo il tensore η i1 ⊗ η i2 ⊗ . . . ⊗ η ir su una qualunque r-pla di vettori
della base di V, ej1 , ej2 , . . . , ejr . Abbiamo

η i1 ⊗ η i2 ⊗ . . . ⊗ η ir (ej1 , ej2 , . . . , ejr ) = δji11 δji22 . . . δjirr ,


questo numero vale sempre 0, eccetto il caso in cui gli indici i1 , . . . , ir siano
rispettivamente uguali a j1 , . . . , jr , nel qual caso assume il valore 1.

Proposizione 4.2 L’insieme dei tensori {η i1 ⊗. . .⊗η ir }, al variare di i1 , . . . , ir


fra 1 e n forma una base dello spazio dei vettori covarianti di ordine r, T0r .

Dim. La dimostrazione della lineare indipendenza si fa testando la gene-


rica combinazione lineare dei tensori del nostro insieme sulla generica r-pla dei
vettori della base di V :

ai1 ,...,ir {η i1 ⊗ . . . ⊗ η ir } = 0
implica che per ogni r-pla (ej1 , . . . , ejr )

ai1 ,...,ir {η i1 ⊗ . . . ⊗ η ir }(ej1 , . . . , ejr ) = 0(ej1 , . . . , ejr ) = 0,

ma d’altra parte

ai1 ,...,ir {η i1 ⊗ . . . ⊗ η ir }(ej1 , . . . , ejr ) = ai1 ,...,ir δji11 . . . δjirr = aj1 ,...,jr ,

quindi per ogni r-pla (j1 , . . . , jr ), aj1 ,...,jr = 0.


Il fatto che {η i1 ⊗ . . . ⊗ η ir }, al variare di i1 , . . . , ir , generino tutto T0r segue
dal fatto che per ogni un tensore covariante di ordine r, T , vale la seguente

T = T (ei1 , . . . , eir )η i1 ⊗ . . . ⊗ η ir , (32)

la quale pure si dimostra testandola sulla generica r-pla dei vettori della base
di V , (ej1 , . . . , ejr ). Infatti

T (ei1 , . . . , eir )η i1 ⊗ . . . ⊗ η ir (ej1 , . . . , ejr ) =


T (ei1 , . . . , eir )δji11 δji22 . . . δjirr , =
T (ej1 , . . . , ejr )

58
In modo del tutto analogo, ricordando che i vettori della base di V , si com-
portano come funzionali sui vettori della base di V ∗ , si perviene a dimostrare
che

Proposizione 4.3 L’insieme dei tensori {ej1 ⊗. . .⊗ejs }, al variare di j1 , . . . , js


fra 1 e n forma una base dello spazio dei vettori controvarianti di ordine s, Ts0 .

e più in generale
Proposizione 4.4 L’insieme dei tensori {η i1 ⊗ . . . ⊗ η ir ⊗ ei1 ⊗ . . . ⊗ eis }, al
variare di i1 , . . . , ir e j1 , . . . , js fra 1 e n forma una base dello spazio dei vettori
con ordine di coovarianza r e e ordine di controvarianza s, Tsr .
Ne segue che
dim Tsr = nr+s .

4.5 Gli operatori come tensori di tipo (1, 1)


Denotiamo con End(V ) lo spazio vettoriale degli operatori su V . Esso ha di-
mensione n2 . Definiamo
Φ: End(V ) → T11 (V )
F 7→ Φ(F )

dove
Φ(F ) : V × V ∗ → K
(v, σ) 7 → σ(F (v))
La bilinearità di Φ(F ) è conseguenza banale della linearità di F e di σ, il che ci
assicura che Φ(F ) è un tensore.

Proposizione 4.5 Φ è un isomorfismo canonico di spazi vettoriali

Dim. La linearità di Φ è conseguenza diretta delle definizioni.


Φ è iniettiva, infatti se Φ(F ) = 0, allora per ogni v ∈ V e per ogni σ ∈ V ∗ ,
σ(F (v)) = 0. Dal fatto che per ogni σ ∈ V , σ(F (v)) = 0, segue che F (v) = 0,
e poiché questo vale per ogni v ∈ V , allora F è l’operatore nullo.
Infine, avendo End(V ) e T11 (V ) la stessa dimensione, si conclude che Φ è
un isomorfismo, che si dice canonico, perché la sua definizione non dipende da
scelte arbitrarie, quali potrebbe essere la scelta di una base.


In matematica, quando vi è un isomorfismo canonico, si è soliti identificare


i due spazi vettoriali. Ne segue che ogni operatore lineare T : V → V viene
interpretato come un tensore con ordine di covarianza 1 e controvarianza 1 e
viceversa un tensore di tipo 1-1 può essere interpretato come operatore lineare.

59
4.6 Tensori e cambiamenti di base
Siano {e1 , . . . , en }, {e01 , . . . , e0n } due basi di V e {η 1 , . . . , η n }, {η 01 , . . . , η 0n } le
rispettive basi duali.
Abbiamo già scritto le relazioni relative ai cambiamenti di base (30)

e0i = αij ej ej = βji e0i (33)

con
αij βjk = δik . (34)
Consideriamo il covettore βji η j e applichiamolo al vettore e0k . Applicando le
(33) e (34) e la definizione di base duale, per cui η j (eh ) = δhj , abbiamo

βji η j (e0k ) = βji η j (αkh eh ) = αkh βji η j (eh ) = αkh βji δhj = αkh βhi = δki .

Poiché, d’altra parte, η 0i (e0k ) = δki ne segue che η 0i e βji η j assumono gli stessi
valori sui vettori di una base di V , pertanto

η 0i = βji η j . (35)

La (35) rappresenta la formula di cambiamento di base per la base duale30 .


Si osservi che la matrice che permette di passare dalla base {η 1 , . . . , η n } alla
base {η 01 , . . . , η 0n } è l’inversa31 di quella che occorre per passare dalla base
{e1 , . . . , en } alla base {e01 , . . . , e0n }.
Dalla (35) seguono poi le relazioni per il cabiamento di base nell’ordine
inverso
η j = αij η 0i . (36)
Si calcolano, poi, le relazioni per i cambiamenti di coordinate; se un covettore è
rappresentato in due basi diverse da σ = si η i = s0j η 0j abbiamo

si = βij s0j s0j = αji si (37)

I covettori si dicono covarianti, perché le loro coordinate variano, al cambiare


della base di V , e conseguentemente al cambiare della base duale, con la matrice
di cambiamento di base di V ; mentre i vettori si dicono controvarianti, perché
le loro coordinate variano, al cambiare di base, con la matrice inversa rispetto
a quella del cambiamento di base, come mostrato in (31).
Si scriva un tensore T covariante di ordine r come combinazione lineare dei
vettori della base {η j1 ⊗ . . . ⊗ η jr } di T0r

T = tj1 ...jr η j1 ⊗ . . . ⊗ η jr (38)


30 Si noti come nelle sostituzioni effettuate per dimostrare la formula (35), talvolta, abbiamo

dovuto cambiare il nome degli indici al fine di evitare ripetizioni indesiderate.


31 esattamente l’inversa se si conviene di rappresentare la base duale come un vettore colonna,

e leggere la (35) come un prodotto fra matrici (che è la scelta preferibile), e la trasposta
dell’inversa se si conviene di rappresentare la base duale come un vettore riga.

60
e come combinazione de vettori della base {η 0i1 ⊗ . . . ⊗ η 0ir }

T = t0i1 ...ir η 0i1 ⊗ . . . ⊗ η 0ir . (39)

Sostituendo la (35) nella (39) abbiamo

T = t0i1 ...ir (βji11 η j1 ) ⊗ . . . ⊗ (βjirr )η jr = t0i1 ...ir βji11 . . . βjirr η j1 ⊗ . . . ⊗ η jr (40)

e confrontando questa con la (38) otteniamo che le coordinate dei tensori co-
varianti di ordine r variano al cambiare della base di V (e conseguentemete al
cambiare della base di V ∗ ) in un verso secondo la formula

tj1 ...jr = βji11 . . . βjirr t0i1 ...ir (41)

e nell’altro secondo la formula

t0i1 ...ir = αij11 . . . αijrr tj1 ...jr (42)

In modo analogo se si scrive un tensore controvariante T di ordine s come


combinazione lineare dei vettori delle basi {ej1 ⊗ . . . ⊗ ejs } e {e0i1 ⊗ . . . ⊗ e0is }
di Ts0 :
T = tj1 ...js ej1 ⊗ . . . ⊗ ejs = t0i1 ...is e0i1 ⊗ . . . ⊗ e0is ,
otteniamo le formule di cambiamento delle coordinate di un tensore controva-
riante
tj1 ...js = αij11 . . . αijss t0i1 ...is t0i1 ...is = βji11 . . . βjiss tj1 ...js (43)
Infine un tensore T r-volte covariante e s-volte controvariante si rappresenta
rispetto la base {η j1 ⊗ . . . ⊗ η jr ⊗ ek1 ⊗ . . . ⊗ eks } di Tsr

T = tkj11...j
...ks j1
r
η ⊗ . . . ⊗ η jr ⊗ ek1 ⊗ . . . ⊗ eks

e rispetto la base {η 0i1 ⊗ . . . ⊗ η 0ir ⊗ e0h1 ⊗ . . . ⊗ e0hs } di Tsr

T = t0h 1 ...hs 0i1


i1 ...ir η ⊗ . . . ⊗ η 0ir ⊗ e0h1 ⊗ . . . ⊗ e0hs

da cui le formule di cambiamento di coordinate di un tensore misto di tipo (r, s),

tkj11...j
...ks
r
= αik11 . . . αikss βjh11 . . . βjhrr t0i 1 ...is
h1 ...hr (44)

t0i 1 ...is i1 is j1 jr k1 ...ks


h1 ...hr = βk1 . . . βks αh1 . . . αhr tj1 ...jr (45)
Si osservi come nelle coordinate (o componenti) di un tensore gli indici di
covarianza siano quelli in basso e gli indici di controvarianza siano quelli in alto.

61
4.7 Collegamenti con il calcolo differenziale
In molte applicazioni le matrici che intervengono nel calcolo tensoriale sono la
matrice jacobiana e la sua inversa. Vediamo il perché.
La prima e immediata osservazione è che se

y = Ax

è un’applicazione lineare da Rn in sé , allora A coincide con la matrice jacobiana


di questa applicazione,  i
∂y
A=
∂xj 1 ≤ i ≤ n
1 ≤ j ≤ n

Possiamo applicare lo stesso concetto alla matrice cambiamento di coordinate


(31), per cui, posto che v si scriva v = xi ei nella base {e1 , . . . , en } e v = x0j e0j
nella base {e01 , . . . , e0n }, abbiamo

∂x0j i ∂xi 0j
x0j = x xi = x (46)
∂xi ∂x0j
Pertanto le matrici di cambiamento di coordinate utilizzate in tutte le for-
mule sui tensori possono essere sostituite dalla matrice jacobiana e la sua inversa:
 i
∂x
αji 1 ≤ i ≤ n =

1 ≤ j ≤ n ∂x0j 1 ≤ i ≤ n
1 ≤ j ≤ n

0i
 
∂x
βji

1 ≤ i ≤ n = .
1 ≤ j ≤ n ∂xj 1 ≤ i ≤ n
1 ≤ j ≤ n

Le (46) hanno il vantaggio, rispetto alle (31), di evitare ogni possibile confu-
sione fra la matrice cambiamento di coordinate e la sua inversa. Cosı̀ la formula
generale di cambiamento di base per i tensori si scrive senza possibilità di equi-
voci

∂xk1 ∂xks ∂x0h1 ∂x0hr 0i1 ...is


tkj11...j
...ks
= . . . . . . t (47)
r
∂x0i1 ∂x0is ∂xj1 ∂xjr h1 ...hr

∂x0i1 ∂x0is ∂xj1 ∂xjr k1 ...ks


t0i 1 ...is
h1 ...hr = . . . . . . t (48)
k
∂x 1 k 0h
∂x s ∂x 1 ∂x0hr j1 ...jr
Ma vi è una ragione più profonda nel rappresentare con la jacobiana la
matrice cambiamento di coordinate.
Ad ogni vettore v = ai ei dello spazio dei vettori applicati in un punto

x0 ∈ Rn , si può associare l’operatore differenziale ai ∂x i , che ad ogni applicazione

f ∈ C (U ), dove U è un intorno di x0 , associa la derivata direzionale32 (nella
32 dovremmo ∂
scrivere ∂xi |x0
, ma in tutti gli operatori differenziali che seguiranno eviteremo
di mettere il simbolo di |x0 che significa calcolato in x0 perché non avremo ragione di cambiare
il punto di applicazione dei vettori.

62
direzione di v) di f in x0 ,
n
X ∂f
ai .
i=1
∂xi
Adottata questa identificazione fra operatori e vettori applicati, i vettori
della base di V , {e1 , . . . , en }, sono rappresentati dagli operatori differenziali
∂ ∂
{ ∂x 1 , . . . , ∂xn }.
∂ ∂xj
Conveniamo che, nelle espressioni del tipo ∂x i o ∂xi , gli indici delle variabili

che si trovano sotto la linea di frazione siano da considerarsi indici in basso. La


formula di cambiamento di base è data ora da
∂ ∂xj ∂
= .
∂x0i ∂x0i ∂xj
Anche i covettori hanno un’interessante lettura in termini di calcolo diffe-
renziale.
Il differenziale di una funzione f ∈ C ∞ (U ), nel punto x0 ∈ Rn , si indica
con df|x0 (ma noi scriveremo semplicemente df ) ed è definito come il funzionale
lineare che a ogni vettore v applicato in x0 ∈ Rn associa la derivata direzionale

di f rispetto a v in x0 . Cioè se v = ai ei = ai ∂x i

∂ ∂f
(df )(v) = df (ai i
) = ai i
∂x ∂x
I differenziali delle funzioni coordinate, dxi , . . . , dxn , risultano essere i vettori
della base duale, perché
∂ ∂xi
dxi ( j ) = = δji .
∂x ∂xj
Le formula di cambiamento di base per la base duale risulta coincidere con
la formula di differenziazione di funzione composta.

∂x0j i
dx0j = dx .
∂xi

4.8 Una definizione alternativa di tensore


Le formule di cambiamento di coordinate per i tensori (47), (48) sono spesso
utilizzate per definire i tensori. In questo approccio la definizione di tensore è
seguente33

Definizione 4.8 Si dice tensore (o campo tensoriale) di tipo (r,s) un oggetto


definito da un insieme di numeri tkj11...j
...ks
r
in un sistema di coordinate arbitrarie
1 n
(x , . . . , x ), la cui espressione numerica dipende dal sistema di coordinate se-
condo la seguente relazione: se è xk = xk (x01 , . . . , x0n ), x0j = x0j (x1 , . . . , xn ),
con x0 (x(x0 )) = x0 , vale la formula di trasformazione
33 la definizione esposta è tratta da Novikov, Dubronik, Fomenko,Geometria contemporanea

1, con qualche adattamento alle notazioni da noi usate.

63
∂xk1 ∂xks ∂x0h1 ∂x0hr 0i1 ...is
tkj11...j
...ks
= . . . 0is ... t
r
∂x0i 1 ∂x ∂x j1 ∂xjr h1 ...hr
in cui t0i 1 ...is 0 k1 ...ks
h1 ...hr è l’espressione numerica del tensore nelle coordinate (x ) e tj1 ...jr
l’espressione numerica del tensore nelle coordinate (x); tutti gli indici variano
da 1 a n , essendo n la dimensione dello spazio considerato.

4.8.1
La definizione di tensore data in funzione delle coordinate varia, nel suo signi-
ficato, in funzione dei sistemi di coordinate ammessi. Se ad esempio siamo in
uno spazio euclideo, (spazio vettoriale di dimensione finita dotato di prodotto
scalare), è logico assumere solo riferimenti ortonormali. In questo caso le matrici
cambiamento di coordinate sono ortogonali e pertanto 34

∂xi ∂x0j
= (49)
∂x0j ∂xi
Non vi è dunque modo di distinguere un vettore da un covettore basandosi sul
comportamento delle sue componenti al variare della base fra un insieme di basi
ortonormali. È per questo motivo che, talvolta, nell’algebra tensoriale in spazi
euclidei non si fa differenza fra vettori e covettori, fra ordine di covarianza e
ordine di controvarianza.
Chiariamo questi concetti con un esempio. Supponete che abbiate descritto
un fenomeno fisico per mezzo di tre numeri (t(1), t(2), t(3)) che dipendono dal
sistema di coordinate usato nello spazio, dove di proposito ho messo gli indici in
linea. Questa terna rappresenta un vettore, un covettore o altro? Metto l’indice
in alto o in basso? Si ha la risposta guardando come cambiano questi numeri
al cambiare del riferimento. Se, in un altro riferimento, con la stessa origine, il
fenomeno è descritto da (t0 (1), t0 (2)0 , t0 (3)) e avete
3
X ∂xi 0
t(i) = t (j) (50)
j=1
∂x0j

e questo vale qualunque sia il secondo riferimento scelto, allora stabilite che
si tratta di un vettore controvariante e scrivete gli indici in alto. Se, in-
vece, in un altro riferimento, con la stessa origine, il fenomeno è descritto da
(t0 (1), t0 (2)0 , t0 (3)) e avete
3
X ∂x0j 0
t(i) = t (j) (51)
j=1
∂xi

e questo vale qualunque sia il secondo riferimento scelto, allora stabilite che si
tratta di un vettore covariante (o covettore) e scrivete gli indici in basso. Se,
34 si noti come nella formula l’indice in alto a sinistra è uguale all’indice in basso a destra e

l’indice in basso a sinistra è uguale all’indice in alto a destra!

64
infine, esiste un riferimento, per cui non vale (50) e un riferimento per cui non
vale (51) allora stabilite che si tratta di altro.
Ma è probabile che gli unici sistemi di riferimento rispetto ai quali possiate
(o siate interessati) a descrivere il fenomeno, siano sistemi ortogonali, in tal caso,
per la (49), non vi è differenza fra la (50) e la (51). In questo caso parlerete solo
di vettore (ovvero tensore del primo ordine) senza distinguere tra covarianza e
controvarianza.

4.8.2
Notiamo come la definizione di tensore data tramite le coordinate, che utilizza
la matrice jacobiana, si presta a essere estesa anche a cambiamenti di coordinate
non lineari, purché abbiano siano di classe almeno C 1 e con matrice jacobiana
non nulla. È il caso delle coordinate polari: se vogliamo esprimere in coordinate
polari un tensore sullo spazio vettoriale dei vettori applicati in un punto P del
piano diverso dall’origine, dovremo utilizzare, per passare dalla rappresentazione
in coordinate cartesiane a quella in coodinate polari, la matrice jacobiana delle
formule di cambiamento di coordinate (4).
La cosa assume particolare importanza quando si voglia fare del calcolo ten-
soriale su superficie curve (e più in genererale su varietà differenziali). In questo
caso le funzioni di cambiamento di coordinate fra diversi sistemi di coordinate
locali sono generalmente non lineari.
Un approccio indipendente dalle coordinate per definire tensori su oggetti
geometrici diversi da Rn , le varietà differenziali, comporta, in primo luogo la
necessità di definire lo spazio dei vettori tangenti in modo intrinseco, cioè senza
ricorrere a un’immersione dell’oggetto in uno spazio euclideo. In tale contesto si
utilizzano come definizione dei vettori applicati in un punto (i cosiddetti vettori
tangenti) gli operatori differenziali, che soddisfano la regola di Leibnitz quando
sono applicati a un prodotto di funzioni. La geometria differenziale si occupa
dello sviluppo di questi concetti.

4.8.3
∂f 1
Osserviamo come la definizione di differenziale di una funzione df = ∂x 1 dx +
∂f
. . . + ∂xn dxn e la definizione di gradiente
 di una funzione, che comunemente
∂f ∂f
si trova sui testi di analisi, ∇f = ∂x 1 , . . . , ∂xn , corrispondano allo stesso
tensore letto nei due diversi approcci: applicazione lineare o insieme indiciato
di numeri. Del differenziale abbiamo già detto; il gradiente, invece, è una n-pla
di numeri che varia al cambiare delle coordinate secondo la regola

∂f ∂f ∂x0j
=
∂xi ∂x0j ∂xi
e che è dunque un covettore ai sensi dell’ultima definizione.
Nel differenziale abbiamo l’espressione della decomposizione del covettore
nella base duale, mentre nel gradiente si rappresentano solo le componenti.

65
In genere si richiede che il gradiente risulti un vettore controvariante e non
un vettore covariante; la cosa non presenta inconvenienti se si utilizzano esclu-
sivamente riferimenti ortonormali, ma dobbiamo apportare una correzione alla
definizione di gradiente se vogliamo esprimerlo anche in altre ccordinate.

Indichiamo i titoli di quelli che potrebbero essere i successivi argomenti di


algebra tensoriale

4.9 L’isomorfismo canonico indotto dal prodotto scalare


fra V e V ∗
4.10 La contrazione degli indici
4.11 Il prodotto esterno
4.12 Pullback dei tensori covarianti

66