Sei sulla pagina 1di 28

Introduzione alla notazione vettoriale in fisica

Salvatore Raucci

14 maggio 2016

1
Indice
1 Prima di tutto 3
1.1 Destinazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Prerequisiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Formalismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Errori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.5 Ringraziamenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Introduzione 4
2.1 Trasformare come qualcosa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Trasformare come uno scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Trasformare come un vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4 Commenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Notazione degli indici 6


3.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

4 δ eϵ 9
4.1 δ di Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2 Derivate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.3 Gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.4 Divergenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.5 Trasformare come una δ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.6 Il simbolo di permutazione: ϵ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.7 Trasformare come un ϵ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.8 Determinante di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.9 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.10 Rotore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.11 Derivate 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.12 Relazioni ϵ-δ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.13 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.14 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

5 Vettori 17
5.1 Cambio di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.2 Covarianza e controvarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.3 Pseudovettori e pseudoscalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

6 Complementi 22
6.1 Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.2 Tensori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.3 Contrazione degli indici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4 Delta generalizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.5 Problemi del calcolo vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2
1 Prima di tutto
1.1 Destinazione
Queste dispense sono pensate per aiutare i normalisti (in particolare matematici e chimici) del
primo anno ad affrontare il corso di fisica in Normale; non contengono nulla di fisica, ma solo
notazioni, esempi ed esercizi sulle notazioni.
Ovviamente, anche a un non-normalista (soprattutto se è un fisico) può essere utile imparare ad
usare la notazione degli indici.

1.2 Prerequisiti
Si da per scontato che chi legge sappia qualcosa di algebra lineare del primo anno in università, ad
esempio la nozione di spazio vettoriale, di trasformazione lineare, di matrice, di cambiamento di
base, ecc.

1.3 Formalismo
Il linguaggio usato è il più informale possibile, in quanto il fine di queste pagine è solo dare un’idea
di perché si usano i vettori: se si cerca formalismo o definizioni precise, chiedere a qualcuno un
buon libro di analisi vettoriale.

1.4 Errori
È chiaro che è impossibile scrivere qualcosa senza typo o errori; sta al lettore capire se e dove ci
sono errori (e magari in tal caso potete scrivermi cosı̀ li correggo).

1.5 Ringraziamenti
Se ho scritto queste dispense è perché al corso interno di fisica SNS è stata usata la notazione degli
indici, quindi non posso non ringraziare i professori del primo anno, M. Morello, G. Rolandi e E.
Trincherini. Inoltre non posso non citare F. Zoratti che mi ha segnalato vari typo (ma anche tutti
gli altri che mi hanno segnalato (e.g. G. Micossi) e che mi segnaleranno altri errori).

3
2 Introduzione
Il primo argomento che si affronta in un corso di fisica è definire un modo per rappresentare le
leggi che regolano il modello che si usa; al primo anno, in particolare, userete l’algebra lineare
per descrivere le leggi della meccanica classica. Per essere precisi, le leggi della meccanica sono
rappresentate mediante oggetti chiamati vettori, che ogni buon fisico dovrebbe conoscere.
Quindi, la prima domanda che uno dovrebbe porsi è cos’è un vettore...

Definizione 2.1. Un vettore è un elemento di uno spazio vettoriale.

E va beh, non ho detto nulla; chi ha studiato un po’ di algebra lineare capisce che qualsiasi cosa,
se ben definita, potrebbe essere un vettore.
A noi interessano però non oggetti qualsiasi, ma solo alcuni che possono aiutarci..., e questo cambia
leggermente come possiamo definire un vettore. Infatti, tutti gli oggetti che ci servono nei corsi
iniziali di fisica sono elementi di un R-spazio euclideo: quindi, d’ora in poi, quando scrivo vettore
intendo sempre un elemento di un R-spazio euclideo, e questo ci permette di scegliere un’altra
definizione:

Definizione 2.2. Un vettore è un oggetto che si trasforma come un vettore.

Vedremo qui brevemente questo cosa significa, e in Vettori ci saranno motivazioni (leggermente)
più approfondite.

2.1 Trasformare come qualcosa


È di fondamentale importanza capire cosa significa la definizione 2.2: in fisica cerchiamo teorie con
leggi che siano valide abbastanza spesso.
Per fare ció abbiamo bisogno di un modo per rappresentarle (e per usarle), e in particolare questo
modo deve essere indipendente da chi le scrive, da dove vengono scritte o da quando vengono scritte.
In particolare, quando vogliamo che degli oggetti siano indipendenti dalla scelta del sistema di
riferimento in cui le rappresento, allora dovranno cambiare in un certo modo da un sistema di
riferimento a un altro.
Per capire meglio, consideriamo un numero finito di oggetti (possono essere qualsiasi cosa)
α1 , ..., αn ognuno appartenente agli insiemi A1 , ..., An e prendiamo una mappa R : Ai → Ai tale
che αi → R(αi ).

Exa 2.1. Se gli αi sono le componenti di un vettore ⃗r in R3 , e R è una rotazione che manda
⃗r → R(⃗r).

2.2 Trasformare come uno scalare


Sia s : A1 × ... × An → R e sia R una trasformazione degli αi . s si trasforma come uno scalare per
R se
s(R(α1 ), ..., R(αn )) = s(α1 , ..., αn )
In pratica, sto dicendo che se applico R alle variabili di s non cambia nulla.

Exa 2.2. Prodotto scalare canonico e rotazione R in R3 :

s(r⃗1 , r⃗2 ) = ⟨r⃗1 , r⃗2 ⟩ ⇒ s(R(r⃗1 , r⃗2 )) = t r⃗1 t RRr⃗2 = t r⃗1 r⃗2 = s(r⃗1 , r⃗2 )

Perché R è una matrice di rotazione e appartiene a SO(3), e quindi la trasposta è la sua inversa.

4
Fermiamoci un attimo a capire in pratica cosa significa essere uno scalare: uno scalare è un
oggetto che, se ruoto o traslo il sistema di riferimento, resta uguale.
Da notare poi che uno scalare è un elemento del campo in cui mi metto (ad esempio R), e quindi
ha un solo ”grado di libertà”, dove con gradi di libertà intendo gli elementi del campo che devo
fissare per definire il mio oggetto.

2.3 Trasformare come un vettore


Sia sempre f : A1 × ... × An → Rn e sia R una trasformazione degli αi . f si trasforma come un
vettore per R se
f (R(α1 ), ..., R(αn )) = R (f (α1 , ..., αn ))
La differenza è evidente: quello che mi dice matematicamente è che R commuta con f , e fisicamente
che non importa in quale ”sistema” (sarebbero gli α) faccio la trasformazione, il risultato sarà
sempre lo stesso.

Exa 2.3. Cambio di sistema di riferimento (lo indico con s, che si può rappresentare con la matrice
S) e rotazione R di un vettore in R3 :

s(r⃗1 ) = S r⃗1 ⇒ s(R(r⃗1 )) = S(S −1 RS)r⃗1 = RS r⃗1

2.4 Commenti
Abbiamo visto come classificare il comportamento di un oggetto in funzione della trasformazione
che facciamo...ma non sappiamo ancora bene quali sono in effetti trasformazioni ci permettono di
stabilire se un oggetto è uno scalare, un vettore o qualcos’altro.
La vera risposta è: dipende...per quello che ci interessa (lo ricordo: elementi di uno spazio euclideo),
le trasformazioni da considerare sono gli endomorfismi del nostro spazio di partenza, e in particolare
i cambi di base (come vedremo, le trasformazioni più interessanti sono rotazioni e simmetrie).
Qualche considerazione prima di passare all’argomento principale di queste dispense (scusate
se lo ripeto tante volte, ma è bene tenerlo a mente): non dimenticate mai che stiamo considerando
un tipo particolare di vettore, ovvero un vettore di un R-spazio euclideo. Con altri elementi di altri
spazi euclidei, la notazione poù essere riciclata in parte, ma non le definizioni.

5
3 Notazione degli indici
Abbiamo detto che i vettori sono utili perchè ci consentono di formulare relazioni vere indipenden-
temente dal sistema di riferimento in cui le scrivo, ma in realtà non abbiamo ancora visto come
rappresentare un vettore. Dall’algebra lineare sappiamo (se non lo sapete, lo saprete in futuro)
che, dato un R-spazio vettoriale con un prodotto scalare definito positivo [e il prodotto scalare
che consideriamo lo è] (aka spazio euclideo, ovvero il luogo dove abbiamo definito i nostri vettori)
esiste sempre una base ortonormale dello spazio. In altre parole, esistono sempre dei ”vettori base”
eb1 , eb2 , ..., ebn tali che ogni elemento di Rn si scrive come combinazione lineare di quei vettori base, i
quali sono anche ortogonali tra di loro.
Quindi, fissata una base dello spazio, posso rappresentare un vettore con una n-pla di numeri
reali, che sono le loro coordinate (i coefficienti della combinazione lineare) nella base scelta. Questo
spiega il perchè della notazione con gli αi nell’Introduzione.
Consideriamo ora un vettore A in R3 : posso scriverlo come
 
( ) eb1
⃗ = A1 eb1 + A2 eb2 + A3 eb3 = A1 A2 A3 eb2 
A
eb3

Sono tre componenti e tre vettori base, non sono ancora tanti e l’equazione è molto facile da leggere;
ma quando ci sono tante componenti, oppure ci sono operazioni tra vettori, non risulta per nulla
veloce scrivere tutte le componenti dei vettori.
Per questo si usa la notazione degli indici, che permette di scrivere in un modo compatto ed elegante
espressioni che altrimenti sarebbero molto lunghe.
Vediamo ora cos’è questa notazione: Si nota che il vettore A ⃗ che abbiamo scritto prima puó
∑3
essere scritto anche come A ⃗= Ai ebi , ma il simbolo di somma è ancora un problema, perché in
i=0
una legge fisica solitamente ci sono tanti vettori, e ogni vettore avrebbe il suo simbolo di somma;
per questo si è deciso di adottare una notazione (notazione di Einstein) basata su semplici regole:

• Ogni indice non compare quasi mai più di due volte in un prodotto, in casi in cui questo non
sia possibile, si usano notazioni che vedremo in seguito.

• Se un indice compare due volte in un prodotto si chiama indice muto, e si intende sommato
su tutti i valori che può assumere.

• Se un indice compare una volta in un prodotto si chiama indice libero, e non si intende
sommato.
⃗ si scrive
Per esempio, il vettore A
⃗ = Ai ebi
A
È evidente che questa scrittura è di grande aiuto per le lunghe relazioni vettoriali (e non) che si
possono incontrare in fisica.
Vediamo qualche esempio per capire come si usa:

6
3.1 Esempi
Exa 3.1. Cambio di base
Consideriamo un vettore ⃗v = vi ebi espresso nella base degli B degli ebi ; se cambiamo la base in B ′ ,
formata dai vettori eb′i , e vogliamo esprimere ⃗v in quest’altra base, sappiamo che, detta M la matrice
che ha come colonne i vettori base ebi espressi nella base B ′ , si ha:
 ′   
v1 M11 · · · M1n v1
 ..   .. . .   .. 
[⃗v ]B ′ = M [⃗v ]B ⇔  .  =  . . . .  . 
.
vn′ Mn1 · · · Mnn vn

Se riscrivo il cambio di base nella notazione appena introdotta, trovo invece

vi′ = Mij vj

molto più facile da scrivere, ma soprattutto molto più intuitiva (se non siete d’accordo sull’essere
intuitiva, allora probabilmente non vi è chiaro cos’è una matrice di cambio di base...ma non vi
preoccupate perché ne riparleremo).
Qualche osservazione: nell’equazione precedente, al RHS l’indice j compare due volte, quindi si
intende sommato sui possibili valori che può assumere, ovvero 1, · · · , n, mentre l’indice i è presente
una volta, quindi è libero; e infatti, al LHS c’è solo l’indice i. Bisogna capire bene che l’equazione
precedente, infatti, è una relazione che lega ogni vi′ a tutti i vj (è un cambio di base).
Altra osservazione: la notazione di Einstein, come abbiamo visto, non è solo utile per scrivere
vettori, ma anche per scrivere operazioni con matrici.

Exa 3.2. Uguaglianze


Due vettori sono uguali se, fissata una base, hanno le stesse componenti. In formule
⃗ ⇔ Ai = Bi
⃗=B
A
⃗ e la componente
dove la scrittura con gli indici significa che per ogni i la componente i-esima di A

i-esima di B sono uguali.
È bene capire la differenza tra indici muti e indici liberi nelle uguaglianze: consideriamo ad
esempio la scrittura
Aab = Babc Ccd Dd
ha senso perchè gli indici liberi a destra sono gli stessi indici liberi a sinistra (ricordo che l’ugua-
glianza nella relazione sopra è da intendersi come uguaglianza per ogni a, b).
Invece, Aabc = Babc Cbcde Ddf non ha senso perché ci sono diversi indici liberi nei due termini.

Osservazione 3.1. Se si vuole sommare un indice che è presente più di due volte in un prodotto, si
scrive esplicitamente il simbolo di somma, ma a volte, quando è chiaro che si sta sommando anche
su quell’indice, si possono trovare espressioni in cui non c’è il simbolo di somma (ma a mio avviso,
quando si scrive per far capire ad altri bisognerebbe sempre scrivere la somma, mentre quando si
scrive per sé stessi si può anche omettere[ad esempio io di solito non la scrivo, ma in queste dispense
mi impegno a farlo]).
Ad esempio, Aab = Babcd Ccd Dd è formalmente scorretto perché bisognerebbe scrivere

Aab = Babcd Ccd Dd
d

7
Osservazione 3.2. A volte capita di avere più indici che si ripetono in un prodotto, ma che non si
intendono sommati (ad esempio se sto scrivendo le posizioni di tante masse e ho una relazione che
non fa la somma sulle masse, ma le tiene separate): in tal caso, dipende molto dall’autore di ciò
che state leggendo, in quanto esistono varie convenzioni (ma ogni autore di solito la specifica, e se
non lo fa la capite subito perché vedrete qualche simbolo strano): una notazione frequente consiste
nell’usare parentesi intorno agli indici non sommati: ad esempio

Aabc = Babd Cde(c) Def (c) Ef (c)

indica che al RHS non sto sommando su c, che diventa quindi un indice libero (un’altra notazione
frequente consiste nello scrivere in maiuscolo gli indici non sommati).

Exa 3.3. Somme e differenze


Chiaramente, se sommo oggetti con indici (come accade con le matrici), l’operazione ha senso solo
se gli oggetti hanno gli stessi indici liberi: la scrittura Aab + Bac + Ca non ha senso, mentre invece

Aab + Babcd Ccde De + Eac(b) Fcde(b) Gde(b)

è sensata.

Exa 3.4. Prodotto scalare standard tra vettori


Dati due vettori ⃗v , w
⃗ il loro prodotto scalare standard (ovvero la somma dei prodotti delle compo-
nenti corrispondenti) è:
⃗v · w
⃗ = v i wi

Exa 3.5. Prodotto tra matrici


Questo dovrebbe essere ovvio per quanto detto fino ad ora: se ho A e B due matrici, il loro prodotto

Cac = Aab Bbc
da notare che il prodotto si può fare solo se il numero di colonne di A e il numero di righe di B
sono uguali, il che è ovvio se si scrive il prodotto con la notazione degli indici.

3.2 Esercizi
1. Siano A, B, C, D matrici; scrivere la relazione A = BCD con la notazione degli indici.

2. Siano A, B matrici e v vettore; dimostrare che


( )
∑ ∑ ∑∑ ∑∑
Aab Bbc vc = Aab Bbc vc = Aab Bbc vc
b c b c c b

e che quindi ha senso scrivere (ABv)a = Aab Bbc vc

3. Data una matrice A, osservare che (t A)ab = Aba e scrivere la relazione Aab = Bac Ccd Dbd nella
forma di prodotti tra matrici.

8
4 δ eϵ
Ora che la notazione dovrebbe essere chiara, possiamo vedere due operatori che risulteranno molto
utili, sia per far rientrare nella notazione con indici oggetti che altrimenti non sapremmo come
trattare, sia perché sono di grande utilità nella risoluzione di problemi (ma soprattutto perché se
imparate ad usarli non dovrete più ricordare nulla sui vettori: potrete ricavare tutto in qualsiasi
momento molto rapidamente).

4.1 δ di Kronecker
{
1 se i = j
δij =
0 se i ̸= j
Quindi, semplicemente, la δij è un oggetto che assume il valore 1 se i due indici sono uguali, e il
valore 0 se sono diversi.
Ad esempio, in algebra lineare, la matrice identità ha gli elementi che rispettano la definizione
della δ, e allora si può scrivere la matrice identità n × n: Iij = δij (spesso, δ sarà in effetti proprio
la matrice identità).
Osserviamo per prima cosa l’effetto della δab su un oggetto x con un indice b:
δab xb = xa
Questa relazione (che segue banalmente da come è stata definita δ) ci dice varie cose:
• essendo la δ l’identità, in un’espressione che contiene indici si possono sostituire tutti gli indici
uguali con un altro indice (senza ovviamente usare lettere già presenti): ad esempio
Aac = Bab Cbc ⇔ Aaf = Bav Cvf

• in una relazione in cui c’è una δab , posso sostituire a tutti gli indici b l’indice a (o anche il
contrario): ad esempio
Aa(b) = δac δeg δf g Bcd(b) Cde(b) Df (b) ⇔ Aa(b) = Bad(b) Cde(b) De(b)

• abbiamo appena guadagnato un modo alternativo, che in alcuni casi è utile, per indicare il
prodotto scalare standard su Rn :
⃗v · w
⃗ = vi wi = δij vi wj
Anche se può sembrare inutile (e spesso lo è), questo modo di scrivere un prodotto scalare
diventa importante quando si hanno molti indici, e si vogliono evidenziare i vettori tra i quali
si sta effettuando il prodotto scalare.
Un altro uso fondamentale della δ riguarda l’operazione di derivazione.

4.2 Derivate
Vediamo la notazione per le derivate nella notazione degli indici:
Sia f (x1 , · · · , xn ) una funzione scalare; la derivata di f rispetto a xi si scrive in almeno tre modi
diversi:
∂f
= ∂i f = f,i
∂xi
L’ultima notazione è particolarmente interessante, in quanto con una virgola prima di un indice,
indica che si sta derivando rispetto a quell’indice.
Questa notazione si estende (modulo ovvie modifiche) anche ad oggetti con più indici.
Vediamo ora come la δ ci può essere utile.

9
4.3 Gradiente
Sia f (x1 , · · · , xn ) una funzione scalare; il gradiente di f si indica con ∇f
⃗ e si può definire (sotto
alcune ipotesi) come l’unico campo vettoriale il cui prodotto scalare con un vettore ⃗x è la derivata
di f lungo la direzione di x:
⃗ · ⃗x = ∂f
∇f
∂⃗x
Nella nostra notazione, in un sistema di coordinate con base ortonormale ei , il gradiente di f si
indica con ( ) ∂f
∇f
⃗ = = f,i
i ∂ei
Osservazione 4.1. Si può anche definire il gradiente di un vettore (i.e. in oggetto con un indice),
che però non resta un vettore, ma diventa un oggetto a due indici (diventa una quantità tensoriale),
e in questo caso la notazione è leggermente diversa, ma non è rilevante ai fini di queste dispense.

4.4 Divergenza
⃗ un campo vettoriale (i.e. funzione che associa un vettore ad ogni punto dello spazio); la
Sia A
⃗ è uno scalare definito da:
divergenza di A
I
1
∇ · A = lim
⃗ ⃗ ⃗·n
A b da
V →0 V ∂V

b è il versore normale alla superficie da


dove n
Scrivendolo con gli indici (non è banale vedere che questo è esattamente la divergenza definita
sopra, ma non è interessante per ora), finalmente usiamo la δ:

∇ ⃗ = ∂Ai δij = ∂Ai = ∂i Ai = Ai,j δij = Ai,i


⃗ ·A
∂ej ∂ei

Un altro utile operatore è il laplaciano, che per una funzione scalare f è definito da

∇2 f = ∇
⃗ · ∇f

Come esercizio, scrivere il laplaciano nella notazione con gli indici.

4.5 Trasformare come una δ


Nell’Introduzione abbiamo visto come alcuni oggetti si trasformano quando eseguo delle opera-
zioni, in particolare per il cambio di sistema di base.
La δ ha un comportamento un po’ particolare: le sue componenti sono uguali in tutti i sistemi di
coordinate.
In altre parole, quello che sto dicendo non è altro che, se cambio la base di uno spazio vettoriale,
allora il cambio di base manda l’identità nell’identità.

10
4.6 Il simbolo di permutazione: ϵ
Passiamo ora ad un simbolo estremamente utile: ϵ, il simbolo di permutazione. La definizione è
semplice, ma per capirla meglio vediamo esplicitamente cosa succede prendendo pochi indici:


+1 se (i, j) = (1, 2)
ϵij = −1 se (i, j) = (2, 1)


0 se i = j

Avendo due indici, ϵij può essere rappresentato con matrice 2 × 2:


( )
0 1
ϵij =
−1 0

Prendiamo ora tre indici; ϵijk si definisce come:




+1 se (i, j, k) = (1, 2, 3), (2, 3, 1) o (3, 1, 2)
ϵijk = −1 se (i, j, k) = (1, 3, 2), (2, 1, 3) o (3, 2, 1)


0 se i = j o i = k o j = k

È chiaro che i valori di ϵ possono essere inseriti in una matrice 3 × 3 × 3.


Dovrebbe essere ora chiara la forma generale di questo oggetto; prendendo in generale un certo
numero 1 di indici, ϵabcd··· si scrive:


+1 se (a, b, c, d, · · · ) è una permutazione pari di (1, 2, 3, 4, · · · )
ϵabcd··· = −1 se (a, b, c, d, · · · ) è una permutazione dispari di(1, 2, 3, 4, · · · )


0 negli altri casi

Da notare che i casi in cui è 0 sono quelli in cui ci sono due indici che assumono lo stesso valore.
Dalla definizione, è chiaro che ϵabcd··· è il segno della permutazione (sempre nel caso in cui non sia
0: quel caso non è una permutazione) degli indici, e questo ci permette di applicarlo a tutto ciò
che riguarda le permutazioni.
Qualche considerazione: ϵ è chiamato anche ”tensore (vedremo perché) totalmente antisimme-
trico”, oppure ”simbolo antisimmetrico” in quanto è antisimmetrico per scambio di due indici
(trasposizione): una trasposizione, infatti, cambia il segno della permutazione.
Osservazione 4.2. Dato che sia δ sia ϵ possono essere rappresentati con matrici, si potrebbe pensare
che sono matrici...il che è falso! Le matrici sono, molto informalmente, tanti numeri messi in una
tabella; i nostri due oggetti invece sono ogni volta un singolo valore numerico determinato da che
valore assumono gli indici: possono essere rappresentati con una matrice, in quanto possono essere
visti come elementi di una matrice.
Più in generale, è bene che sia chiaro che la forza della notazione degli indici è proprio quella
di lavorare solo con le componenti di qualsiasi cosa, ovvero con numeri: per questo posso (con
eccezioni ovvie che vedremo) scambiare l’ordine dei fattori in una somma con gli indici.

4.7 Trasformare come un ϵ


Una delle prime cose che uno si dovrebbe chiedere ora è come si trasforma questo nuovo oggetto
per cambio di coordinate: non è molto semplice da dire ora...sarà un po’ più chiaro in seguito.
1
Anche se non lo specifico mai, considero sempre un numero finito di indici

11
In ogni caso, lo scrivo qui per completezza: ϵ si trasforma come uno pseudo-tensore, ovvero tra-
sforma come un tensore ma in più, data una trasformazione, viene moltiplicato per qualcos’altro
(una certa potenza del determinante della matrice Jacobiana della trasformazione); in ogni caso,
per una rotazione in R3 che è quello che ci interessa, ϵ si trasforma come un tensore, il che sarà
spiegato più avanti.
Vediamo ora degli esempi su come usare il simbolo di permutazione:

4.8 Determinante di una matrice


Il determinante di una matrice A è definito come l’unica applicazione multilineare alternante dallo
spazio delle colonne al campo da cui sono presi gli elementi della matrice che faccia 1 sull’identità.
Siano aij gli elementi di una matrice n × n: allora non è difficile (in realtà è difficile se non si
scrive la definizione di determinante come somma sulle permutazioni degli indici) mostrare che
ϵi(1) ···i(n) ϵj(1) ···j(n) ai(1) j(1) · · · ai(n) j(n) è multilineare e alternante, ma se applicata all’identità, ricor-
dando che devo contare tutte le permutazioni, trovo n! (si può dimostrare per induzione), quindi
per l’unicità del determinante ho che
1
det(A) = ϵi ···i ϵj ···j ai j · · · ai(n) j(n)
n! (1) (n) (1) (n) (1) (1)
Se la matrice è abbastanza piccola, si può scrivere anche in modo pulito con una sola ϵ (non avendo
l’altra che permuta i secondi indici devo scriverli esplicitamente), ad esempio per una matrice B
3 × 3:
det(B) = ϵijk ai1 aj2 ak3

4.9 Prodotto vettoriale


Ora, andiamo in R3 2 e consideriamo il prodotto vettoriale 3 ×.
Ricordando ancora che siamo in uno spazio vettoriale con base ortonormale, e ricordando la regola
della mano destra, è facile verificare che ebi × ebj = ϵijk ebk e quindi, il prodotto ⃗a = ⃗b × ⃗c si può
scrivere in componenti
ai = ϵijk bj ck
Questa relazione è fondamentale per ricavare tutto quello che faremo fino alla fine del capitolo.
Vediamo ora un altro operatore vettoriale:

4.10 Rotore
⃗ un campo vettoriale (serve che sia di classe C 1 ), il rotore di B
Sia B ⃗ è un altro campo vettoriale
(e qui è fondamentale che siamo in R3 ) che in ogni punto ha la proiezione sul versore eb
( ) ( I )
1 ⃗
∇ × B · eb = lim
⃗ ⃗ B · dl

S→0 S ∂S

2
Ci si potrebbe chiedere perché proprio in R3 : il punto è che il prodotto vettoriale non è un’operazione molto
buona, perchè richiede che il risultato sia un vettore dello stesso spazio dei vettori di partenza, e questo non è sempre
possibile: già in R3 ci sono problemi perché bisogna scegliere un’orientazione degli assi (i.e. regola della mano destra
o sinistra) che porta poi agli pseudovettori, e questo problema è causato proprio dal fatto che stiamo obbligando il
risultato del prodotto vettoriale ad essere un vettore.
È a mio avviso molto interessante sapere (almeno come risultato, perchè il motivo richiede conoscenze di algebra)
che le uniche dimensioni su cui funziona un prodotto vettoriale (su cui le proprietà che lo definiscono non portano a
un risultato identicamente nullo) sono 3 e 7, e in R7 accadono cose molto buffe, ma anche molto interessanti.
3
io lo indico con ×, e consiglio anche a voi di farlo, perché magari in futuro vorrete conservare il simbolo ∧ per
indicare una cosa simile, ma comunque diversa.

12
dove S è una superficie ortogonale a eb, e l’integrazione è fatta nel verso coerente con il versore eb.
Il rotore in un certo senso misura la componente di rotazione di un campo vettoriale.
Nella notazione che abbiamo appena imparato, si scrive:
( )

⃗ × ⃗v = ϵijk ∂j vk = ϵijk vk,j
i

4.11 Derivate 2
Ora che abbiamo più strumenti, dobbiamo anche essere molto più attenti: un esempio sono le
derivate. Per derivare, ricordiamo che stiamo derivando le componenti, e quindi valgono le solite
regole di derivazione.
Calcoliamo per prima cosa il gradiente di un prodotto scalare

(ai bi ),j = ∂j (ai bi ) = (∂j ai )bi + ai (∂j bi ) = ai,j bi + ai bi,j

Deriviamo ora un prodotto vettoriale:

(ϵijk aj bk ),m = ϵijk ∂m (aj bk ) = ϵijk (∂m aj )bk + ϵijk aj (∂m bk ) = ϵijk aj,m bk + ϵijk aj bk,m

In tutto ciò, notare che ϵ passa fuori dalla derivata perché ogni volta rappresenta un numero, e non
una funzione.
La prossima domanda è come scrivere formule piene di δ e ϵ, per esempio i doppi prodotti vettoriali,
o il rotore del rotore di un campo vettoriale.
Ma prima osserviamo che, per come è definito ϵ, si possono ciclare tutti i suoi indici senza cambiarne
il valore, ovvero ϵabcd = ϵbcda = ϵcdab = ϵdabc perché sono tutte trasposizioni pari.

4.12 Relazioni ϵ-δ


Questo è uno degli argomenti fondamentali da capire: stiamo cercando una relazione tra δ e ϵ, ed
è sensato sperare che esista, visto che sappiamo che il prodotto di due ϵ uguali da come risultato
n!, indipendentemente dal sistema di riferimento.
La relazione attesa riguarda in particolare il prodotto tra due ϵ, ed ha una forma molto facile da
imparare (oltre che molto elegante):[indico con || il determinante della matrice]

δi j · · · δi jn
1 1 1
..
ϵi1 ···in ϵj1 ···jn = ... ..
. . (1)

δin j1 · · · δin jn

Dimostrazione. La dimostro per induzione su n.


Se n = 2, devo dimostrare che ϵij ϵkl = δik δjl − δil δjk , e lo faccio analizzando tutti i possibili casi
che ci possono essere.
Per la definizione di ϵ, se i = j oppure k = l, il LHS è nullo, ma se WLOG i = j, ho che il RHS
è δik δil − δil δik = 0 e quindi coincide. Quindi ho i ̸= j e k ̸= l; ma gli indici possono variare solo
tra 1 e 2, quindi: se i = k ho che necessariamente j = l (altrimenti tornerei al caso di prima dove
si annulla tutto), e quindi la relazione diventa 1 = ϵ12 ϵ12 = δ11 δ22 − δ12 δ21 = 1 e quindi coincide
anche in questo caso; resta solo il caso in cui i = l e k = j, in cui risulta che entrambi i membri
sono uguali a −1, il che prova l’uguaglianza per n = 2.
Supponiamo ora vera la relazione per n − 1. Consideriamo due ϵ con n indici, e prendiamo
l’indice i1 : ricordando la definizione di ϵ, per non avere un risultato nullo in deve essere uguale a
uno e un solo valore degli j. Sia jk l’indice a cui è uguale in (jk ∈ {j1 , · · · jn }), allora con k − 1

13
trasposizioni, porto il jk all’inizio del suo ϵ e traslo di una posizione a destra tutti gli indici che
prima erano alla sua sinistra: avrò quindi ϵi1 ···in (−1)k−1 ϵjk ··· .
A questo punto ho due ϵ con i primi elementi uguali, quindi, ignorando il primo elemento di ogni ϵ,
è come se avessi due ϵ con n − 1 indici, per i quali la formula è vera per ipotesi induttiva. Quindi,
sto dicendo che il LHS della relazione che voglio dimostrare è (chiamando ϵ′k l’epsilon privato di jk )


n
(−1)k+1 δi1 jk ϵi2 i3 ···in ϵ′k
k=1

Ma questa è esattamente lo sviluppo per la prima riga del determinante al RHS della relazione che
voglio mostrare, e quindi la relazione che voglio mostrare è vera per induzione.

Secondo me è istruttivo vederla anche in un altro modo, ma per farlo consideriamo il caso con
n = 3, altrimenti le matrici diventano un po’ fastidiose da scrivere e da visualizzare.
Consideriamo il determinante:

1 0 0 δ11 δ12 δ13

1 = 0 1 0 = δ21 δ22 δ23
0 0 1 δ31 δ32 δ33

Permutiamo la righe della matrice



δi1 δi2 δi3

ϵijk = δj1 δj2 δj3
δk1 δk2 δk3

Ora permutiamo le colonne


δil δim δin

ϵijk ϵlmn = δjl δjm δjn (2)
δkl δkm δkn

Abbiamo ritrovato la nostra identità!

4.13 Esempi
Exa 4.1. Proviamo ora alcune identità che seguono dalla relazione appena trovata. Vogliamo
trovare ϵijk ϵilm ; certamente possiamo sviluppare il determinante della matrice 3 × 3 (e almeno una
volta nella vita bisogna farlo), ma possiamo anche provare a sviluppare di meno e a pensare di più:
se i due ϵ hanno il primo termine i uguale, allora i deve essere diverso da tutti gli altri indici per
non avere 0 come risultato; quindi il determinante diventa:

1 0 0

0 δjl δjm = δjl δkm − δjm δkl (3)

0 δkl δkm

Exa 4.2. Troviamo ora ϵijk ϵijl . Anche qui, una volta nella vita bisogna sviluppare il determinante
3 × 3 e fare i conti, ma se lo avete già sviluppato nell’esempio 6 potete moltiplicare la (3) per δjm
(cosı̀ verificate se avete capito davvero la notazione di somma su indici ripetuti).
Possiamo ragionare come nell’esempio precedente, e dovremo sviluppare ancora meno il determi-
nante, ma come prezzo dovremo pensare ancora di più: nell’esempio 6 avevamo un solo indice che si
ripeteva, mentre ora ce ne sono 2, quindi se scrivessimo semplicemente il determinante, perderemmo
l’informazione che ci sono due indici che si ripetono, e che la somma deve esser fatta su entrambi;

14
per rimediare, bisogna aggiungere tutte le permutazioni possibili degli indici che si ripetono (prima
era solo 1 quindi 1! = 1), ovvero un 2! = 2:

1 0 0

ϵijk ϵijl = 2! 0 1 0 = 2δkl (4)
0 0 δkl

Exa 4.3. Troviamo ora ϵijk ϵijk . Come sempre, se avete fatto i conti prima, provate a sviluppare il
determinante nella (4) moltiplicando per δkl .
In realtà sappiamo già il risultato, ma vediamo se tutto è coerente: ora gli indici che si ripetono
sono 3, quindi va moltiplicato il tutto per 3!:

1 0 0

ϵijk ϵijk = 3! 0 1 0 = 6 (5)
0 0 1

⃗ · (B
Exa 4.4. Dimostriamo che A ⃗ × C) ⃗ · (C
⃗ =B ⃗ × A) ⃗ · (A
⃗ =C ⃗ × B)

⃗ · (B
A ⃗ × C) ⃗ · (C
⃗ = Ai ϵijk Bj Ck = ϵijk Ai Bj Ck = Bj ϵjki Ck Ai = B ⃗ × A)

Da cui segue banalmente anche l’altra uguaglianza. Notare che abbiamo potuto invertire Ai e ϵijk
perché sono numeri.
( )
Exa 4.5. Dimostriamo che A⃗× B ⃗ ×C ⃗ = B(⃗ A⃗ · C)
⃗ − C(
⃗ A⃗ · B)

( ) z}|{
(3)
⃗ × (B
A ⃗ × C)
⃗ =ϵijk Aj ϵklm Bl Cm = (δil δjm − δim δjl )Aj Bl Cm = Aj Cj Bi − Aj Bj Ci =
i
⃗ A
B( ⃗ · C)
⃗ − C(
⃗ A⃗·B

( ) ( ) ( ) ( )
Exa 4.6. Dimostriamo che A ⃗×B ⃗ × C ⃗ ×D
⃗ =B⃗ A⃗ · (C
⃗ × D)
⃗ −A ⃗ B⃗ · (C
⃗ × D)

( )
⃗ × B)
(A ⃗ × (C
⃗ × D)
⃗ =ϵabc ϵbde Ad Be ϵcf g Cf Dg = (δae δcd − δad δce )ϵcgf Ad Be Cf Dg =
a
( ) ( )
Ba ϵcf g Ac Cf Dg − Aa ϵcf g Bc Cf Dg = B ⃗ A ⃗ · (C
⃗ × D)⃗ −A ⃗ B⃗ · (C
⃗ × D)

( )
Exa 4.7. Dimostriamo ∇
⃗ × (∇
⃗ × A)
⃗ =∇
⃗ ∇ ⃗ ·A
⃗ − ∇2 A

( )

⃗ × (∇
⃗ × A)
⃗ =ϵijk ∂j ϵklm ∂l Am = ϵijk ϵklm ∂j ∂l Am = (δil δjm − δim δjl )∂j ∂l Am =
i
( )
∂ i ∂ j Aj − ∂ j ∂ j Ai = ∇
⃗ ∇ ⃗ ·A
⃗ − ∇2 A⃗

Osserviamo che abbiamo potuto portare ϵklm fuori dalla derivata, perchè è un numero costante
(che dipende da che valore hanno gli indici, ma è comunque una costante ogni volta che si deriva
per una singola combinazione degli indici).
( )
Exa 4.8. Dimostriamo che ∇ ⃗ × A⃗×B ⃗ = A(⃗ ∇
⃗ · B)
⃗ − B(
⃗ ∇⃗ · A) ⃗ · ∇)
⃗ + (B ⃗ A⃗ − (A
⃗ · ∇)
⃗ B⃗
( ( ))

⃗ × A⃗×B
⃗ =ϵijk ∂j ϵklm Al Bm = ϵijk ϵklm ∂j (Al Bm ) = (δil δjm − δim δjl )[(∂j Al )Bm + Al (∂j Bm )] =
i
(∂j Ai )Bj − Bi (dj Aj ) + Ai (∂j Bj ) − Aj (∂j Bi ) =
Ai (∂j Bj ) − Bi (dj Aj ) + (∂j Ai )Bj − Aj (∂j Bi ) =
⃗ ∇
A( ⃗ · B)
⃗ − B(⃗ ∇⃗ · A)
⃗ + (B ⃗ · ∇)
⃗ A ⃗ − (A
⃗ · ∇)
⃗ B⃗

15
Ora c’è qualcosa di diverso: ϵ continua a commutare con la derivata, ma non le componenti dei
vettori, che sono proprio ciò che cambia. Per questo, per le componenti valgono le solite regole di
derivazione.

Exa 4.9. Verifichiamo una relazione molto interessante che ricorderete per sempre:
⃗ × (B
A ⃗ × C) ⃗ × (C
⃗ +B ⃗ × A) ⃗ × (A
⃗ +C ⃗ × B)
⃗ =0

Usiamo l’esempio 10 per ricavare:


( )
⃗ × (B
A ⃗ × C)
⃗ +B ⃗ × (C ⃗ × A) ⃗ × (A
⃗ +C ⃗ × B)
⃗ =
i
(δ(i)l δjm − δ(i)m δjl )Aj Bl Cm + (δ(i)l δjm − δ(i)m δjl )Bj Cl Am + (δ(i)l δjm − δ(i)m δjl )Cj Al Bm =
(δ(i)l δjm − δ(i)m δjl )Aj Bl Cm + (δ(i)m δlj − δ(i)j δlm )Bl Cm Aj + (δ(i)j δml − δ(i)l δmj )Cm Aj Bl =
(δ(i)l δjm − δ(i)m δjl + δ(i)m δlj − δ(i)j δlm + δ(i)j δml − δ(i)l δmj )Aj Bl Cm = 0

I prossimi esercizi sono essenzialmente delle identità simili agli esempi da provare con la notazioni
degli indici.

4.14 Esercizi
Verificare le seguenti identità vettoriali:

⃗×B
1. A ⃗ = −B
⃗ ×A

⃗ vettore e f funzione scalare, ∇


2. Dato A ⃗ × (f A)
⃗ = ∇f
⃗ ×A
⃗ + f (∇
⃗ × A)

3. ∇
⃗ · (A ⃗ =∇
⃗ + B) ⃗ ·A
⃗+∇
⃗ ·B

⃗ · ∇)f
4. (A ⃗ ⃗ · ∇f
=A ⃗

⃗ × B)
5. (A ⃗ ×C
⃗ = B(
⃗ A⃗ · C)
⃗ − A(
⃗ B⃗ · C)

⃗ × B)
6. (A ⃗ · (C
⃗ × D) ⃗ · C)(
⃗ = (A ⃗ B ⃗ · D)
⃗ − (A
⃗ · D)(
⃗ B ⃗ · C)

⃗ × (∇
7. A ⃗ × A)
⃗ = 1 ∇A
⃗ 2 − (A
⃗ · ∇)
⃗ A⃗
2

8. ∇(
⃗ A⃗ · B) ⃗ × (∇
⃗ =A ⃗ × B) ⃗ × (∇
⃗ +B ⃗ × A) ⃗ · ∇)
⃗ + (A ⃗ B ⃗ · ∇)
⃗ + (B ⃗ A⃗

9. ∇
⃗ × (A
⃗ × B) ⃗ ∇
⃗ = A( ⃗ · B)
⃗ − (A
⃗ · ∇)
⃗ B ⃗ · ∇)
⃗ + (B ⃗ A⃗ − B(
⃗ ∇⃗ · A)

16
5 Vettori
Cerchiamo ora di capire un po’ meglio gli argomenti accennati nell’introduzione, visto che abbiamo
dei nuovi strumenti per affrontare le difficoltà che ne risultano.
Abbiamo detto che siamo in uno spazio vettoriale, in cui possiamo definire una base che genera
tutto lo spazio per combinazioni lineari. Si possono quindi rappresentare gli ”oggetti fisici” che
vogliamo descrivere definendo le loro coordinate rispetto alla base scelta. Ma la base può essere
scelta in modo arbitrario, quindi per poter davvero utilizzare questo linguaggio matematico in fisica,
dobbiamo capire cosa cambia se si fa variare la base.
Vediamo prima un esempio: nel piano prendo un sistema di coordinate cartesiano, e un vettore
rappresentato in quella base. Ruotare la base in senso orario modifica le componenti del vettore,
ma non le modifica in un modo casuale: le componenti del vettore cambiano come se il vettore
avesse ruotato in senso antiorario. Se inoltre moltiplico i vettori base per uno scalare, allora nel
nuovo sistema di riferimento il vettore avrà le coordinate divise per quello stesso scalare. Ci sono
vari indizi per ipotizzare che, data una trasformazione, un vettore cambia nel modo inverso di come
cambia la base4 .
Cerchiamo allora di ricavare come cambiano le componenti per un cambio di base, il che ci porterà
a dei risultati ovvi ma importanti.

5.1 Cambio di base


Data una base ebi , d’ora in poi non necessariamente ortonormale, se voglio la trasformazione della
base in una nuova base ebi′ , da semplici osservazioni ottengo (sto semplicemente scrivendo gli eb′ in
funzione degli eb)
 ′   
eb1 proiezione di eb′1 su eb1 proiezione di eb′1 su eb2 · · · eb1
eb′  proiezione di eb′ su eb1 proiezione di eb′ su eb2 · · · eb2 
 2 =  2 2  
.. .. .. .. ..
. . . . .

Notare che questo è solo un modo compatto di scrivere la relazione tra le basi, e che le due matrici
di versori non sono vettori (anzi, sono matrici di vettori).
Vediamo ora cosa succede alle componenti: da risultati di algebra lineare sappiamo che la
matrice di trasformazione, in questo caso, è formata da colonne che sono i vettori della base eb
espressi nella base eb′ , ovvero, preso un vettore ⃗v , con ovvio significato degli indici ad indicare le
componenti:
 ′   
v1 proiezione di eb1 su eb′1 proiezione di eb2 su eb′1 · · · v1
v ′  proiezione di eb1 su eb′ proiezione di eb2 su eb′ · · · v2 
 2 =  2 2  
.. .. .. .. ..
. . . . .

Le due matrici di trasformazione sono in genere diverse: se considero un’omotetia con centro
l’origine e fattore α, ad esempio, la proiezione di eb′1 su eb1 (espressa nel sistema degli eb) è α, mentre
la proiezione di eb1 su eb′1 (espressa nel sistema dei eb′ ) è α1 (osservare che per ”proiezione di a su b”
intendo ”esprimere a in funzione di b”).
Vogliamo confrontare le due matrici trovate: Sia A quella della trasformazione dei vettori base; se
invertiamo la relazione dei v ′ in funzione dei v, e quindi troviamo i v in funzione dei v ′ , e prendiamo
4
Come detto nell’Introduzione, questo deve essere vero per rendere il vettore indipendente dal sistema di riferimento
scelto per rappresentarlo

17
la matrice trasposta, della nuova matrice di trasformazione, troviamo A (è una semplice verifica, si
scambiano i ’ e si traspone la matrice), quindi ricaviamo la relazione fondamentale
( )
vi′ = t (A−1 ) ij vj
che ci conferma che il vettore ⃗v varia con la matrice inversa del cambio di base.
Tuttavia, consideriamo un campo scalare, e prendiamone il gradiente; il gradiente dice in che
direzione sta aumentando il campo e con quale modulo, ma se moltiplico la base per un fattore α,
come prima, allora tutto lo spazio sarà visto dilatato da un fattore α1 , come detto prima; ma quindi
il gradiente della funzione, che dipende in modo inverso dalla quantità rispetto a cui sto derivando,
sarà moltiplicato per α, ovvero varia allo stesso modo della base.
Questo fatto indica che c’è qualcosa che non abbiamo considerato in tutto il resto delle dispense:
infatti il gradiente non è un oggetto che sta nel nostro spazio duale, ma appartiene invece al duale
del nostro spazio.
Da notare poi che, lavorando in uno spazio euclideo con una base ortonormale, la base del
duale coincide con quella dello spazio (infatti, indicando con ebi la base del duale e ebi quella dello
spazio, si ha dall’algebra lineare ebi = δij ebj ), e questo ci permetteva di trattare il gradiente come
un vettore nei nostri calcoli con gli indici. Ma ora abbiamo un nuovo problema: come sistemare
questa differenza.
Dato che per ora (e anche in tutte queste dispense) in fisica stiamo lavorando sempre in uno spazio
euclideo, non ci saranno differenze nel trattare oggetti del duale o oggetti dello spazio se prendiamo
una base ortonormale, ma se la nostra base non è ortonormale (e in alcuni casi ci si ritrova ad
usarle) dobbiamo capire cosa cambiare nelle nostre definizioni; in particolare è chiaro che ci sono
problemi nell’affermare che un vettore è un oggetto che si trasforma in un certo modo.

5.2 Covarianza e controvarianza


Il problema è, come accennato, che elementi dello spazio vettoriale e elementi dello spazio duale
variano in modo diverso per cambio di base; elementi dello spazio che variano in modo inverso
a come varia la base sono chiamati vettori controvarianti, mentre elementi del duale che variano
allo stesso modo della base (o in modo inverso a come varia la base duale) sono chiamati vettori
covarianti (o covettori).
Come già detto, dato che restiamo sempre in spazi euclidei, l’unico cambiamento che possiamo
fare è usare un sistema non ortogonale, quindi, per comodità nei disegni, mettiamoci in un piano con
base eb1 e eb2 non ortogonale. Il problema non è molto difficile da capire: se in un sistema ortogonale
avevamo una sola scelta per trovare le coordinate di un vettore, qui ne ho due: consideriamo il
vettore A;⃗ come coordinata 1, ad esempio, posso proiettare il vettore sulla direzione della base eb1
considerando o la parallela alla direzione di eb2 , oppure la perpendicolare a eb1 (osservare che in un
sistema ortogonale queste coincidono). Chiamiamo A1 la prima componente, e A1 la seconda.
Tuttavia, se si prova a sommare vettorialmente le componenti del vettore nei due casi (intese
come le componenti moltiplicate per i vettori base), si trova (fate un disegno) che solo nel primo caso
il risultato è effettivamente il vettore di partenza, ovvero che A ⃗ = A1 eb1 +A2 eb2 , ma A
⃗ ̸= A1 eb1 +A2 eb2 .
i
Chiamiamo allora controvarianti le componenti A e covarianti le componenti Ai , e vediamo ora
che il vettore Ai ebi è controvariante, mentre Ai ebi è covariante e entrambi sono uguali a A. ⃗
Che il vettore A ebi sia controvariante è ovvio per come è stata costruita A (vedere Figura 1),
i i

mentre che Ai ebi è covariante è meno ovvio. Per capire come ricavarlo, bisogna prima di tutto
scrivere la base del duale in funzione della base dello spazio. Scriviamola sempre in due dimensioni
(in tal modo è più chiaro e si riesce a capire dal disegno). Detto θ l’angolo tra gli assi, si ricava
eb1 − cos θb
e2 eb2 − cos θb
e1
facilmente che eb1 = e eb2 = (notare che con una base ortonormale si ha
1 − (cos θ)2 1 − (cos θ)2
che ebi = ebi come era da aspettarsi).

18
y
y’

B2 eb2
⃗ ⃗
B
A2 eb2 A

eb2 eb2
eb1 A1 eb1 x
eb1 x’

B1 eb1

Figura 1: componenti controvarianti e covarianti

eb2 × eb3
In 3 dimensioni, si può trovare che eb1 = e ciclici, o equivalentemente
eb1 · (b
e2 × eb3 )

ϵijk ej ek 5
ei =
el (ϵlmn em en )

Torniamo alle 2 dimensioni: scriviamo Ai ebi con le relazioni che abbiamo ricavato
A1 − A2 cos θ A2 − A1 cos θ
A1 eb1 + A2 eb2 = eb1 + eb2 = A1 eb1 + A2 eb2
1 − (cos θ)2 1 − (cos θ)2

dove l’ultima uguaglianza deriva da semplici osservazioni geometriche (ad esempio si può tracciare la
perpendicolare a y per la punta di A1 eb1 e, detta C l’intersezione con y, considerare la perpendicolare
a x per C, e poi fare la stessa costruzione con l’altra componente). Abbiamo quindi visto che
Ai ebi = Ai ebi , quindi, dato che gli Ai variano in modo inverso rispetto alla base (per quanto visto
prima, ovvero per l’invarianza del vettore in un qualsiasi sistema di riferimento), e la base duale
varia in modo inverso (con la matrice inversa) rispetto alla base dello spazio vettoriale, si ricava che
gli Ai variano in modo opposto rispetto alla base duale, ovvero allo stesso modo della base dello
spazio.
Ovviamente, tutto quello che è stato fatto ora in due dimensioni può essere esteso in qualunque
dimensione, solo che bisogna trovare un modo più compatto (con gli indici) di scrivere le relazioni
tra le componenti covarianti e controvarianti, e inoltre bisogna essere attenti a definire bene le
proiezioni parallele e perpendicolari. Ma dato che queste dispense vogliono solo dare un’idea di
covarianza e controvarianza, non tratteremo questi aspetti.
Osservazione 5.1. Generalmente, nella notazione degli indici, le componenti controvarianti vengono
indicate con l’indice in alto, mentre quelle covarianti con l’indice in basso. Tuttavia, se si lavora
in una base ortonormale, dato che base e base duale coincidono, solitamente si indicano entrambe
con gli indici in basso. La distinzione diventa ancora più fondamentale quando si trattano derivate
e tensori, che però qui non saranno analizzati a fondo.
5
la posizione degli indici sarà chiara tra poco, l’unica cosa da sapere ora è che indipendentemente da dove metto
gli indici in ϵ la definizione è sempre la stessa

19
5.3 Pseudovettori e pseudoscalari
Abbiamo visto molto approssimativamente cos’è un vettore e come trasforma (e che queste due cose
sono legate tra loro in un R-spazio euclideo); ora vediamo alcuni problemi relativi ai vettori che
prima non abbiamo considerato, ma che sono fondamentali nel capire che dietro tutta la costruzione
fatta c’è qualcosa di più profondo ancora nascosto.
Vediamo un esempio classico: consideriamo una particella che si muove nel piano xy di moto
circolare uniforme con velocità diretta verso zb. Invertiamo tutti gli assi (ovvero mandiamo x b in
−bx e ciclici), e notiamo che la particella gira allo stesso modo di prima, ma che poiché abbiamo
invertito gli assi, ora il vettore velocità angolare è diretto verso −b z . Oppure, consideriamo due
vettori ⃗a e b, e ⃗c = ⃗a × b; invertiamo di nuovo gli assi, e troviamo che (⃗c′ )i = (⃗a′ × ⃗b′ )i = ϵijk a′j b′k =
⃗ ⃗
ϵijk (−aj )(−bk ) = ϵijk aj bk = ⃗c. Anche qui il vettore ⃗c non è cambiato, al contrario degli altri due...
Abbiamo ora due strade: abbandonare i vettori e trovare un altro modo di rappresentare la fisica,
oppure provare a sistemare le definizioni in modo tale che funzioni ancora tutto: scegliamo la
seconda, rimandando ai paragrafi finali un breve commento del perchè stiamo incontrando questi
problemi.
Mettiamoci in Rn e consideriamo un endomorfismo che manda la base B1 in B2 ; sia M la
trasformazione lineare che manda le basi B1 in B2 . Se det(M ) > 0 diciamo che B1 e B2 hanno
la stessa orientazione, mentre se det M < 0 diciamo che le due basi hanno orientazione diversa.
Notare che in tal modo abbiamo diviso in sole due classi l’insieme delle basi di Rn .
Definiamo allora uno pseudovettore (o vettore assiale) come un oggetto (elemento di Rn blah blah)
che trasforma come un vettore se la trasformazione è tra due basi della stessa orientazione, mentre
trasforma come l’opposto di se stesso quando la trasformazione è tra basi delle due classi diverse6
(i.e. compare un segno meno nella trasformazione).
Torniamo in R3 , e osserviamo (o meglio, osservate) che la velocità angolare è uno pseudovettore,
cosı̀ come ad esempio il momento angolare.
In R3 poi la distinzione delle classi delle basi è più ovvia, in quanto le basi si distinguono in quelle
che vengono definite ”destrorse” (b z=x b × yb) e ”sinistrorse” (b
z = yb × xb).
Come esercizio, verificate con la notazione degli indici che:

1. vettore × vettore = pseudovettore

2. vettore × pseudovettore = vettore

3. pseudovettore × vettore = vettore

4. pseudovettore × pseudovettore = pseudovettore

e che quindi tutti gli oggetti fisici prodotto di due vettori sono pseudovettori. Notare poi che per
una rotazione, la scrittura ⃗v = ω ⃗ × ⃗r è sensata, in quanto ω
⃗ è uno pseudovettore mentre gli altri
due sono vettori.
Seguendo lo stesso spirito di ”sistemare” le definizioni, troviamo che ci sono problemi anche per
gli scalari: con un po’ di lavoro dovreste riuscire a vedere che il flusso magnetico cambia segno per
inversione degli assi. Quindi ritroviamo lo stesso problema di prima, e definiamo pseudoscalare un
oggetto che trasforma come uno scalare se la trasformazione è tra due basi della stessa orientazione,
mentre trasforma come l’opposto di se stesso quando la trasformazione è tra basi delle due classi
diverse7 .
6
in realtà, come uno potrebbe intuire, gli pseudovettori sono elementi di un altro spazio vettoriale, che ha sempre
n dimensioni, e per (questo
) ( possono
) essere rappresentati come vettori: servono lo stesso numero di componenti per
determinarli perchè 31 = 32 ; tuttavia non trasformano davvero ( )come
( )vettori.
7
anche questo il realtà sarebbe un altro oggetto, ma poichè 30 = 33 , è rappresentato da una sola componente, e
quindi è ”quasi uno scalare” e modificando un po’ le definizioni si riesce a rendere tutto coerente.

20
Come esercizio verificare che uno pseudoscalare moltiplicato per un vettore da come risultato uno
pseudovettore, e tutte le altre relazioni simmetriche, e inoltre che il prodotto triplo di tre vettori
è uno pseudoscalare. Osservare in particolare che il prodotto scalare tra un vettore e uno pseu-
dovettore è uno pseudoscalare (e legare questo fatto all’osservazione che il flusso magnetico è uno
pseudoscalare :) ).

21
6 Complementi
Approfondiamo qui alcuni aspetti del calcolo vettoriale per nulla banali: vedremo cos’è un tensore
seguendo il nostro ragionamento a metà tra fisica e matematica, vedremo un altro oggetto molto
bello, e faremo qualche considerazione su cosa non va nel lavorare con vettori, e se ci sono strade
alternative non meno utili. Prima di introdurre i tensori, è bene parlare di un argomento che, date
le nostre nuove conoscenze su vettori e covettori, ha bisogno di una modifica.

6.1 Prodotto scalare


Potrete pensare: il prodotto scalare è stato largamente usato fino ad ora, cosa non va?
La risposta è sempre la stessa: in un R-spazio euclideo con base ortonormale non ci sono problemi,
ma se la base non è ortonormale c’è qualcosa da sistemare (lo ripeto ancora: in queste dispense
siamo sempre in un R-spazio euclideo).
Consideriamo due vettori, ⃗a, ⃗b; se definiamo il loro prodotto scalare come p = ai bi e cambiamo
base con un’applicazione rappresentata dalla matrice A (notare che per come la userò, A è la
matrice inversa di quella che trasforma la base), otteniamo che il nuovo prodotto scalare è:

p′ = a′i b′i = t (Aij aj )Ai kbk = aj bk Aji Aik

Il RHS è p = ai bi solo se Aji Aik = δjk , ovvero se t A = A−1 , i.e. A è una trasformazione ortogonale.
Abbiamo appena visto qualcosa di fondamentale: la nostra definizione era sbagliata! Funzionava
solo perchè lavoravamo con basi ortonormali!
Prima di arrenderci e lasciare i vettori, proviamo però a fare il prodotto scalare come lo inten-
devamo noi tra un vettore e un covettore: p = ai bi , e quindi, cambiando base allo stesso modo
otteniamo
p′ = a′i b′i = t (Aij ai )A−1 i −1 j i
ik bk = a bk Aij Aik = δi a bk = p

Questo invece funziona! Motivati dal risultato ottenuto, potremmo quindi sperare di poter definire
il prodotto scalare tra due vettori come ⃗a · ⃗b = xi xj ai bj con x qualcosa che si trasforma in modo
covariante, in modo tale che nel nostro prodotto scalare si possano raggruppare ogni componente
controvariante con una covariante e, facendo i conti come prima, far funzionare l’operazione.
Tuttavia, questo crea qualche problema quando ritorniamo in un sistema ortonormale, in quanto
non si riesce a sistemare in modo pulito il covettore x in modo tale da avere in questo caso xi xj = δij
(provare a farlo), ovvero tornare al classico prodotto scalare in base ortonormale.
Ma questa difficoltà è facile da superare, perchè invece di definire un oggetto a un indice possiamo
definire un oggetto a due indici, e lo chiamiamo gij , che si trasforma come un covettore su ogni
indice, e definire il prodotto scalare tra due vettori come

⃗a · ⃗b = gij ai bj (6)

Il nostro oggetto misterioso gij , in una base ortonormale (con il prodotto scalare standard) dovrà
essere rappresentato dalla matrice identità. gij viene chiamato metrica, ed è un esempio di tensore.

6.2 Tensori
Seguendo lo stile delle definizioni di un vettore, vediamo due definizioni di tensore: una generale e
molto elegante, l’altra è quella che ci interessa

Definizione 6.1. Dato un K-spazio vettoriale V e il suo duale V ∗ , un tensore T è un’applicazione


multilineare T : V × . . . × V × V ∗ × . . . × V ∗ → K

22
ovvero un tensore è un’applicazione che prende m vettori e n covettori e restituisce uno scalare.

Definizione 6.2. Un tensore è un oggetto che trasforma come un tensore

Come sempre, è ovvio chiedersi come si trasforma un tensore: data una matrice A di trasfor-
mazione
Tβ′α1 ...β
1 ...αm
n
= Aα1 γ1 . . . Aαm γm (A−1 )λ1 β1 . . . (A−1 )λn βn Tλγ11...λ
...γm
n

ovvero è un oggetto che ha alcuni indici che trasformano in modo controvariante e altri in modo
covariante.
Nota. Notare che passare ai tensori è una generalizzazione naturale se si usa la notazione degli
indici, e che un vettore è un tensore con un solo indice, e uno scalare un tensore con 0 indici.
Prima di vedere un’operazione con i tensori, osserviamo che sia i tensori sia le matrici sono
oggetti a più indici, e quindi si potrebbe pensare che esiste una qualche relazione tra i due oggetti.
La risposta è che una qualche relazione c’è, ma i due oggetti restano due oggetti distinti: la matrice
è una tabella di numeri, mentre un tensore è un oggetto che trasforma in un certo modo. È ovvio
che le matrici non trasformano sempre come i tensori 8 , ma quando ciò avviene, è lecito chiedersi se
è sensato usare la stessa notazione degli indici (indici su e giù) con le matrici. La risposta è positiva,
in quanto, se consideriamo una matrice A, possiamo vedere ogni riga di A come un operatore che
agisce su un vettore (i.e. riga∈ V ∗ ) e ogni colonna come un vettore.
Vediamo esplicitamente un esempio:

Exa 6.1. Sia A un’applicazione lineare, e ⃗v un vettore. Sia w ⃗ = A⃗v , e vediamo che è sensato
scrivere wi = Aij v j . Se cambio base, avrò w ⃗ ′ = A′⃗v ′ e la matrice A cambia come A′ = M AM −1 ;
−1
in componenti sappiamo già scriverlo come A′il = Mij Ajk Mkl , e questo ci dice che A ha le righe
che ”trasformano” in modo covariante e le colonne in modo controvariante, quindi è lecito scrivere
A′il = Mji Ajk (M −1 )kl , e inoltre è anche molto più facile da scrivere perché gli indici che si sommano
sono sempre uno in alto e uno in basso.

Da questo punto in poi scriverò in tal modo le matrici quando possibile; come esercizio (so già
che non lo farete [non lo farei neanche io], ma lo scrivo comunque) provare a riscrivere tutte queste
dispense usando questa notazione per le matrici.
Osservazione 6.1. Il motivo profondo per cui posso davvero fare questo ”abuso di notazione degli
indici” è che un tensore è un’applicazione lineare che prende elementi anche dal duale, quindi in
alcuni casi posso vedere un tensore come un operatore che prende un vettore (o un altro opera-
tore, o un tensore,. . .) e mi restituisce qualcos’altro (un altro tensore, un vettore, uno scalare, un
operatore,. . .).
Vediamo due esempi per chiarire questa osservazione

Exa 6.2. Data la definizione di tensore, è chiaro che ϵ è un tensore. Infatti, ϵ è un operatore che
prende gli indici delle n componenti su cui lavora e restituisce 1 se sono una permutazione pari di
(1, . . . , n), −1 se dispari e 0 se ce ne sono due uguali. Vedendolo esplicitamente, il prodotto vettoriale
tra due vettori si può quindi scrivere ci = ϵijk aj bk in quanto ϵ agisce come un operatore su j e k,
mentre costruisce un vettore con l’indice i. Modificando la posizione degli indici è possibile operare
anche su oggetti diversi, sapendo che la definizione di ϵ è sempre la stessa indipendentemente da
dove sono posizionati gli indici. Verificare per esercizio che ϵ è uno pseudotensore (stessa definizione
degli pseudovettori).
8
e.g. il prodotto scalare standard per cambio di base, le cui matrici associate in due basi distinte sono congruenti
ma non simili; notare che è essenzialmente il problema che abbiamo affrontato prima, a cui abbiamo trovato una
”soluzione” modificando la definizione di prodotto scalare

23
Exa 6.3. Dovrebbe essere quindi ovvio che anche δ è un tensore che prende due indici e restituisce
1 se sono uguali e 0 se sono diversi. Anche la δ può avere indifferentemente indici su o giù (dipende
da dov’è l’altro indice corrispondente nella somma o nel risultato) e la definizione resta la stessa.
Notare però che δ, a differenza di ϵ, ha sempre solo due indici.

6.3 Contrazione degli indici


Ci sono varie operazioni che si possono effettuare con i tensori, sia semplici come i prodotti, sia
molto più complesse, come la derivazione. Qui vedremo solo un tipo di operazione che si lega al
prodotto scalare analizzato prima: la contrazione degli indici.
Consideriamo un tensore Tji , quindi con una componente covariante e una controvariante. L’ope-
razione più intuitiva che si può pensare è uguagliare gli indici, ovvero scrivere Tii . Il risultato è uno
scalare; verifichiamo che effettivamente è un’operazione sensata, ovvero è invariante per cambio di
base A: Ti′i = Aij (A−1 )ki Tkj = Tii in quanto una componente è covariante e una controvariante.
Osservazione 6.2. Si nota subito che invece la contrazione di due indici dello stesso tipo non è
invariante, che è esattamente quello che avevamo visto nel considerare il prodotto scalare, ed è
il motivo per cui il nostro nuovo prodotto scalare per due vettori dello stesso tipo usa il tensore
metrica.
Exa 6.4. Data una matrice Aij , la contrazione degli indici restituisce uno scalare Aii che è la traccia
della matrice.
Exa 6.5. Data una matrice A e un vettore ⃗v , la contrazione degli indici in questo caso equivale
esattamente ad applicare la matrice al vettore: Aij v j e quindi genera un altro vettore.
Osservazione 6.3. La contrazione degli indici ogni volta diminuisce di 2 il numero di indici liberi
presenti.

6.4 Delta generalizzata


In questo paragrafo consideriamo uno spazio vettoriale di dimensione n.
Conosciamo già δ, che sappiamo essere un oggetto a due indici; introduciamo ora un altro oggetto
con 2n indici, chiamato delta generalizzata, che somiglia molto ad ϵ, ma è più generale. Vediamo
la definizione:
Definizione 6.3.


+1 se (i1 , . . . , in ) è una permutazione pari di (j1 , . . . , jn )
δji11 ...i n
= −1 se (i1 , . . . , in ) è una permutazione dispari di (j1 , . . . , jn )
...jn 

0 altrimenti

Osserviamo che anche la delta generalizzata è completamente antisimmetrica per scambio di


due indici.
Si può dimostrare allo stesso modo in cui abbiamo dimostrato le relazioni ϵ − δ (provate a dimo-
strarlo) che questa definizione è equivalente a
i1
δj · · · δji1
1 n
.. . . .
δji11 ...i
...jn = .
n
. .. (7)
δ n · · · δ n
i i
j1 jn

Osservazione 6.4. Notare che δji11 ...i i1 i1 ...in


...jn ̸= δj1 · . . . · δjn ma che δj1 ...jn è un oggetto invece molto simile
n in

ad ϵ.

24
La (7) ci da una relazione tra δji11 ...i n i i1 ...in
...jn e δj ; ora vediamo la relazione tra δj1 ...jn e ϵ che è molto
più ovvia.
i1 ...in
Osserviamo banalmente che ϵi1 ...in = ϵi1 ...in = δ1...n (dovrebbe essere ovvio, è la definizione di ϵ).
Ora proviamo a moltiplicare due ϵ: ϵj1 ...jn ϵ i 1 ...i n = δj1...n δ i1 ...in , ma in questi ultimi due termini
1 ...jn 1...n
sto confrontando entrambe le due n-ple con (1, . . . , n), il che equivale a confrontarle tra di loro. In
altri termini:
δji11 ...i n
...jn = ϵ
i1 ...in
ϵj1 ...jn (8)

Dalla (7) o dalla (8) è ovvio che se alcuni degli indici i di δji11 ...i n
...jn sono uguali ad alcuni indici j, devo
considerare solo gli indici che restano, ricordando però di sommare su tutte le permutazioni degli
indici uguali (si vede bene dalla (8)). Scrivendolo esplicitamente:
i ...i k ...k i ...i
δj11 ...jpp kp+1 n
p+1 ...kn
= (n − p)! δj11 ...jpp

da cui si ricava banalmente che


δii11...i
...in
n
= n!

Per concludere, vediamo l’effetto di applicare δji11 ...i n


...jn su un tensore:

i ...i

Ai1 ...ip kp+1 ...kn = δj11 ...jpp B j1 ...jp kp+1 ...kn = sgn(σ)B σ(i1 )...σ(ip )kp+1 ...kn
σ∈S(p)

i ...i
dove la δj11 ...jpp indica che gli n − p indici corrispondenti successivi i e j sono uguali.
Abbiamo visto che quindi la δji11 ...i n
...jn è una generalizzazione dei due operatori δ e ϵ visti in
precedenza, ed è un modo molto compatto ed elegante di indicare molte somme e permutazioni.

6.5 Problemi del calcolo vettoriale


9 Considerando gli ultimi argomenti che abbiamo esaminato, è evidente che stiamo cercando di
sistemare le definizioni inizialmente scelte perché non sono adatte a rappresentare ciò che vogliamo
rappresentare. È lecito chiedersi se esista un modo migliore per scrivere le leggi fisiche che preservi
tutti i risultati del calcolo vettoriale
Ad esempio, abbiamo introdotto pseudovettori, pseudotensori e pseudoscalari perché alcuni oggetti
che vorremmo definire come vettori, tensori e scalari non si comportano davvero cosı̀. Ovviamente,
è sempre possibile lasciare tutto com’è ora e sistemare i problemi che ne derivano aggiungendo ec-
cezioni alle definizioni...ma sia la fisica sia la matematica mirano ad avere il minor numero possibile
di ”eccezioni” e ad avere teorie che funzionano in tutti i casi.
Una possibile soluzione, che io ritengo essere la più naturale e intuitiva, consiste nell’esten-
dere semplicemente il concetto di vettore (ricordate: in uno spazio euclideo) come una ”freccia”
(qualunque cosa questo voglia dire). Cerchiamo di pensare allora in questo modo: uno scalare, o
0−vettore, è un numero a cui non sono associate direzioni, un vettore, o 1−vettore, è un segmento
orientato (la freccia). È lecito chiedersi: e se si continua cosi? Bene, proviamo ad andare avanti:
definiamo 2−vettore un’area orientata, nel senso che scelgo un verso in cui percorrerla 10 , 3−vettore
un volume orientato, e cosı̀ fino alla dimensione dello spazio (nin
) cui ci troviamo.
Uno 0−vettore in uno spazio ( ) a n dimensioni ha bisogno di 0 = 1 solo numero per essere definito;
un vettore (ha) bisogno di n1 = n numeri, uno per ogni dimensione dello spazio; un 2−vettore ha
bisogno di n2 numeri...
9
questo paragrafo non vi serve davvero, ma è il mio modo di vedere i vettori e magari può essere utile a qualcuno.
10
è esattamente lo stesso che facciamo con la freccia-vettore.

25
() () () ()
Notiamo che per n = 3 accadono cose interessanti: 30 = 33 = 1 e 31 = 32 = 3, quindi sia uno
scalare sia un volume orientato si indicano con un solo numero, e sia un vettore che un’area orientata
si indicano con due numeri. È quindi immediata la domanda: come facciamo a distinguere tra i
diversi oggetti a livello puramente rappresentativo? In effetti, è questa una possibile interpretazione
dell’esistenza di pseudo-oggetti: si puó vedere un pseudovettore non come un vettore che trasforma
in modo strano, ma come un’area orientata (che per inversione degli assi, infatti, cambia verso),
e allo stesso modo possiamo vedere uno pseudoscalare come un volume orientato. In pratica,
vediamo che sotto questo nuovo punto di vista stavamo confondendo oggetti diversi che però si
rappresentavano con lo stesso numero di parametri.
Nasce quindi un’altra domanda: come è possibile che stavamo confondendo oggetti di dimensione
diversa? Cosa fa cambiare la dimensione degli oggetti?
Beh, sono solo due le operazioni che abbiamo considerato: il prodotto vettoriale e la contrazione;
della contrazione non c’è molto da dire, quindi consideriamo il prodotto vettoriale.
Il prodotto vettoriale è un’operazione che prende due vettori e restituisce un vettore. In 3
dimensioni è facile da visualizzare e da comprendere; ma avete mai provato a costruire un prodotto
vettoriale in 2 dimensioni (cioè che prende due vettori in due dimensioni e come risultato da un
vettore in due dimensioni)? Oppure in 4?
Non ci vuole molto per convincersi che in questi casi è impossibile da farsi, soprattutto perché
l’ ”informazione” di due vettori dovrebbe essere in parte persa per avere un solo vettore come
risultato11 . Risulta quindi irragionevole che un’operazione tra due oggetti dello stesso tipo debba
dare come risultato un oggetto ancora dello stesso tipo. Sarebbe più naturale che un’operazione
tra due oggetti di h e k dimensioni dia come risultato un oggetto di h + k dimensioni. Quindi siamo
costretti ad abbandonare il prodotto vettoriale ×, e a definire una nuova operazione ∧ che aumenta
la dimensione degli oggetti su cui opera e che somiglia ad un prodotto vettoriale quando si lavora
in 3 dimensioni.
Vediamola solo a livello geometrico (attenzione alla nuova notazione per gli 1−/2−/3−vettori):
dati due vettori a e b, prendiamo V = a ∧ b come un oggetto bidimensionale che rappresen-
ta l’area orientata del parallelogramma formato dai due vettori, e indichiamo con |V| l’area del
parallelogramma con cui è rappresentato.

a∧b
b

Figura 2: 2-vettore

Notiamo che questo si adatta perfettamente al prodotto vettoriale solito: il modulo di V è l’area
del parallelogramma, come |⃗a × ⃗b|; mentre il prodotto vettoriale dava come risultato un vettore
perpendicolare al piano dei due vettori di partenza, ora ∧ ci da proprio una parte di quel piano,
ed è ovvio che determinare il piano in cui si trova V equivale ad avere la direzione perpendicolare
al piano12 . Osserviamo che si conservano i casi in cui il risultato del prodotto vettoriale è nullo,
11
il motivo vero è molto profondo e non semplice, ma questo modo di vederlo dovrebbe essere convincente.
12
per questo in 3 dimensioni il prodotto vettoriale funziona (quasi) bene

26
ovvero quando uno dei due vettori è nullo, o quando sono paralleli (in tal caso non formano nessun
parallelogramma).
Osservazione 6.5. a∧b = −b∧a in quanto le aree sono orientate, allo stesso modo in cui il prodotto
vettoriale era anticommutativo
In maniera simile, dati a, b e c, definiamo W = (a ∧ b) ∧ c = V ∧ c 13 il volume orientato del
parallelepipedo definito dai tre vettori, e indichiamo con |W| il volume del parallelepipedo.
Osservazione 6.6. Per determinare un volume in 3 dimensioni abbiamo bisogno di un solo parame-
tro, che però cambia segno per inversione degli assi perché il volume è orientato, il che significa che
abbiamo trovato il motivo dell’esistenza degli pseudoscalari
Nota. Essendo in 3 dimensioni (ma vale genericamente anche per n dimensioni) il prodotto ∧ di
quattro (n + 1) vettori (o di due bivettori,...) dovrà essere nullo:

a ∧ b ∧ c ∧ d = 0 ∀a, b, c, d

Ritorniamo ai 2−vettori. Come per i vettori, data una base ei dello spazio, possiamo definire
anche una base per i bivettori, definita dai 2−vettori base eij = ei ∧ ej . È chiaro che ogni 2−vettore
si potrà scrivere come combinazione di questa nuova base e12 , e23 , e31 .
Osservazione 6.7. Ad ogni bivettore è possibile associare una matrice antisimmetrica. Dato il
bivettore B = B12 e12 + B23 e23 + B31 e31 gli associamo la matrice
 
0 B12 −B31
−B12 0 B23 
B31 −B23 0

Allo stesso modo, ad ogni matrice antisimmetrica è possibile associare un bivettore.


Facciamo ora un’operazione interessante: associamo ad ogni bivettore un vettore (il che è in
effetti il motivo per cui abbiamo deciso di usare oggetti a più dimensioni).
Dato un 2−vettore Ajk associamogli il vettore con componenti ai = 21 ϵijk Ajk .
Può sembrare strano, ma vedremo ora che risolve definitivamente i nostri problemi di definizioni.

Exa 6.6. In fisica è spesso usato lo pseudovettore velocità angolare.


Sia Ωij la velocità angolare nel piano ij (la derivata temporale dell’angolo che forma il nostro
oggetto nel piano ij)14 . L’oggetto Ω che ha come componenti Ωij è un bivettore. Sia ora ω il
vettore definito da ωi = 12 ϵijk Ωjk .

1 1 1 1
⃗ × ⃗r = ϵijk ϵjlm Ωlm rk = Ωlm rk (δkl δim − δkm δli ) = Ωki rk − Ωik rk = Ωji rj = −Ωij rj
ω
2 2 2 2
Vediamo quindi che la relazione ⃗v = ω ⃗ × ⃗r è nel nostro nuovo punto di vista il prodotto (con
contrazione di un indice) di r con il bivettore Ω.

Osservazione 6.8. Se troviamo i vettori associati alla base dei bivettori, troviamo 12 ϵijk ejk , ovvero
un vettore perpendicolare a ebj e a ebk ; in altre parole sto dicendo che è questo il motivo per cui in
fisica si considera sempre l’area come un vettore perpendicolare alla superficie.
Per concludere, vediamo come è possibile definire un prodotto ∧.
13
in realtà le parentesi non servono, ma le metto per maggior chiarezza.
14
avrete notato che la velocità angolare spesso si rappresenta con una matrice...

27
Proviamo prima in 3 dimensioni: dati a = ai ei , b = bi ei e c = ci ei , scriviamo esplicitamente a ∧ b
e sviluppiamo i prodotti15
∑ ∑
a ∧ b = (a1 e1 + a2 e2 + a3 e3 ) ∧ (b1 e1 + b2 e2 + b3 e3 ) = (a1 b2 − a2 b1 )(e1 ∧ e2 ) = (a1 b2 − a2 b1 )e12
cyc cyc

Sapendo che a e12 corrisponde e3 e ciclici (secondo la nostra definizione di vettore associato a un
bivettore), al bivettore a ∧ b corrisponde il vettore

v= (a1 b2 − a2 b1 )e3 = ϵijk aj bk ei = a × b
cyc

Quindi in un certo senso, l’operazione × è ciò che vediamo quando facciamo un prodotto ∧ forzando
il risultato ad essere ancora un vettore.
Nota. provate, magari usando la formula che sto per scrivere, a dimostrare che al prodotto a ∧ b ∧ c
corrisponde il prodotto triplo (e ripensate alla definizione di pseudoscalare).
In generale, ci si potrebbe chiedere come esprimere in modo formale (non l’abbiamo ancora fatto)
il prodotto ∧ tra due elementi a p e k dimensioni (con p + k < n dimensioni dello spazio vettoriale).
Ci sono vari modi per vederlo (potete trovarli su internet), ne scrivo uno con la notazione degli
indici di cui non sono sicuro, ma forse potrebbe funzionare.
Dati un p−vettore a e un k−vettore b, il loro prodotto è 16
1 j1 ...jp jp+1 ...jp+k
(a ∧ b)i1 ...ip ip+1 ...ip+k = δ aj ...j bj ...j (9)
k!p! i1 ...ip ip+1 ...ip+k 1 p p+1 p+k

15
qui in realtà sto supponendo che l’operazione soddisfi alcune proprietà, ad esempio la proprietà distributiva...
16
forse

28

Potrebbero piacerti anche