Sei sulla pagina 1di 68

Capitolo 2

Le equazioni di Hamilton e
lo spazio delle fasi

2.1

Introduzione

Con il passaggio dalle equazioni di Newton (1687) a quelle di Lagrange


(1787), abbiamo gi`
a ottenuto un progresso considerevole, perche tali equazioni
si ottengono con un procedimento di derivazione a partire da una unica funzione scalare, la Lagrangiana L, e inoltre le equazioni hanno la medesima
struttura, quale che sia la scelta delle coordinate. Queste due circostanze
si rifletteranno poi, come vedremo nel prossimo capitolo, nel fatto che i
movimenti naturali soddisfano un principio di minimo (meglio, di stazionariet`a) di un certo funzionale che si esprime
proprio attraverso la lagrangiana,
R
ovvero il funzionale dazione S = L dt (principio di Hamilton).
Le equazioni di Hamilton (1833) costituiscono poi, dal punto di vista
pi`
u elementare possibile, semplicemente una conveniente riscrittura delle
equazioni di Lagrange come sistema di 2n equazioni del primo ordine, con
una scelta particolarmente significativa delle variabili (lo vedremo subito qui
sotto). Tale riscrittura delle equazioni di moto risulta tuttavia essenziale per
fondare la meccanica statistica e per fondare la meccanica quantistica. Infatti mostreremo che la compatibilt`a tra probabilit`a e dinamica, che
costituisce uno dei problemi centrali della meccanica statistica, pu`o essere
formulata in maniera molto semplice in ambito hamiltoniano piuttosto che
in ambito lagrangiano (si tratta del teorema di Liouville), e daltra parte
ricorderemo come le regole di quantizzazione (che esprimono il modo in
cui si passa dalla meccanica classica a quella quantistica) vengono formulate
facendo uso delle parentesi di Poisson, ovvero di una struttura algebrica
soggiacente le equazioni di Newton, che viene spontaneamente resa esplicita
in ambito hamiltoniano. Infine, il formalismo hamiltoniano risulta partico99

100

Andrea Carati e Luigi Galgani

larmente utile anche in ambito puramente meccanico, in relazione alla teoria


delle perturbazioni, il cui sviluppo viene estremamente facilitato facendo
uso della tecnica delle trasformazioni canoniche, che pure richiedono di
disporre del formalismo hamiltoniano. Le trasformazioni canoniche, tra laltro, vennero molto utilizzate anche nella prima formulazione della meccanica
quantistica, soprattutto ad opera di Born e di Sommerfeld.
La trattazione viene qui svolta a un livello elementare, prendendo per
modello quella del classico manuale di Landau e Lifshitz. Per una discussione pi`
u approfondita, che faccia uso sistematico delle forme dierenzali, si
rimanda ai corsi di meccanica analitica.
Nel paragrafo (2.2) vengono dedotte le equazioni di Hamilton, e viene
dato un breve cenno alle loro applicazioni. Queste vengono poi discusse dettagliatamente nei successivi paragrafi. Precisamente: le parentesi di Poisson e la loro applicazioni alle regole di quantizzazione; le trasformazioni
canoniche; la relazione tra simmetrie e leggi di conservazione; il teorema di
Liouville e i fondamenti della meccanica statistica.

2.2
2.2.1

Deduzione delle equazioni di Hamilton. Cenno alle applicazioni


Il problema

Vediamo dunque in quale modo si introducono le equazioni di Hamilton


sostanzialmente come una significativa riscrittura delle equazioni di Lagrange. Ammettiamo di avere un sistema meccanico ad n gradi di libert`a
con un suo spazio delle configurazioni C, e sia fissata una carta, ovvero un sistema di coordinate locali q = (q1 , . . . , qn ) in C. Sia poi data una lagrangiana
t), sicche i movimenti naturali del sistema sono soluzioni delle
L = L(q, q,
equazioni di Lagrange
d @L
dt @ qi

@L
= 0 , (i = 1, , n) ,
@qi

(2.2.1)

che scriveremo anche nella forma compatta


d @L
dt @ q

@L
= 0.
@q

(2.2.2)

Ora, queste equazioni costituiscono un sistema di n equazioni del secondo


ordine in forma normale, ovvero del tipo
= f (q, q,
t) ,
q

q 2 IRn

(2.2.3)

cio`e risolto rispetto alle derivate di ordine massimo. Ci`o `e ovvio nel caso
tipico di una particella senza vincoli, in coordinate cartesiane, in cui lequazione di Lagrange coincide con lequazione di Newton m
x = F, che `e

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 101


proprio della forma (2.2.3) con q = x, e f = F/m. Ci`o comunque risulta
vero anche per i sistemi naturali, in cui cio`e si ha L = T V , dierenza
di energia cinetica ed energia potenziale (si veda lappendice).
Daltra parte, abbiamo gi`
a ripetutamente osservato, fin dai richiami sullequazione di Newton, che `e conveniente interpretare lequazione (2.2.3)
come un sistema di equazioni del primo ordine (in forma normale) in uno
spazio con un numero doppio (2n) di variabili. Il motivo `e che per una
equazione del secondo ordine del tipo (2.2.3) ogni soluzione q = q(t) viene
univocamente individuata dalla coppia (q0 , q 0 ) di dati inziali (posizione e
velocit`a). Dunque `e spontaneo considerare, piuttosto che lo spazio delle
in cui le posizioni q e le
configurazioni C, lo spazio delle coppie (q, q),
velocit`
a q sono pensate come variabili indipendenti. Questo spazio viene
detto spazio degli stati. In tal modo appare spontaneo studiare come
si presenta il movimento in quello spazio, cio`e studiare come evolvono, allo
scorrere del tempo, i punti dello spazio degli stati, ovvero la coppia po
sizione e velocit`
a: q = q(t), q = q(t).
Lutilit`a di questo punto di vista
`e ben illustrato dalla tecnica del ritratto in fase (cio`e del ritratto nello spazio degli stati) che abbiamo impiegato per lo studio qualitativo dei
sistemi monodimensionali, nel capitolo sulle equazioni di Lagrange.
Lultima osservazione che resta da compiere ora `e la seguente. Se si `e
deciso che sia opportuno raddoppiare il numero di variabili per passare a un
nunero doppio di equazioni del primo ordine, allora la forma delle equazioni
di Lagrange suggerisce essa stessa una scelta diversa. Si tratta di prendere
come variabili ausiliarie accanto alle posizioni q, invece delle velocit`a
le quantit`
q,
a p = (p1 , . . . , pn ) (dette momenti coniugati alle coordinate
q = (q1 , . . . , qn )) e definite da
p=

@L
t) ,
(q, q,
@ q

ovvero

pi =

@L
t)
(q, q,
@ qi

(2.2.4)

perch`e il vantaggio `e che allora le equazioni di Lagrange assumono la forma


particolarmente semplice (gi`
a in forma normale)
p =

@L
t) ,
(q, q,
@q

ovvero

p i =

@L
t)
(q, q,
@qi

(2.2.5)

Si introduce in tal modo, in luogo dello spazio degli stati (coppie (q, q))
il cosiddetto spazio delle fasi (coppie (q, p)). Denoteremo (q, p) x; le
coordinate (x1 , . . . , x2n ) = (q1 , . . . , qn , p1 , . . . , pn ) vengono dette coordinate
canoniche.
Resta per`
o il problema se sia possibile scrivere il sistema completo stesso
come un sistema in forma normale. cio`e nella forma
x = v(x) .

con x (q, p) 2 IR2n ,

(2.2.6)

con un opportuno campo vettoriale v = v(x) in IR2n . Si tratta di potere


invertire rispetto alle q (pensando a q, t come parametri) la relazione

102

Andrea Carati e Luigi Galgani

(2.2.4) definente le p, ottenendo le q in termini delle p:

q = q(q,
p, t) .

(2.2.7)

Esempi.
Per una particella sulla retta (con x q, x q)
`e T =
@T
osservi @L
=
)
@ x
@ x
p = mx ,

1
2
2m x

e quindi (si

relazione che viene invertita immediatamente, fornendo


x = p/m .
Per una particella nel piano in coordinate polari (con q1 r, q2 '), essendo
T =

1
m(r 2 + r2 ' 2 ) ,
2

si ha (con p1 pr , p2 p' )
pr = mr .
e quindi
r =

pr
,
m

p' = mr2 '


' =

p'
.
mr2

La invertibilit`
a tra q e p in eetti `e sempre garantita nel caso dei sistemi
meccanici naturali, in cui la lagrangiana ha la forma L = T V , con unen` questo un semplice esercizio,
E
ergia potenziale V che non dipende 1 da q.
svolto in appendice. Pi`
u in generale, considerando anche il caso di funzioni lagrangiane generiche (cio`e non del tipo 2 L = T V ), ammetteremo
2
che sia soddisfatta la condizione di nondegenerazione det ( @ q@i @Lqk ) 6= 0,
la quale garantisce che la definizione (2.2.4) dei momenti p pu`
o essere in
vertita a fornire le q in termini delle p (pensando a q, t come parametri).
Sostituendo queste ultime nelle equazioni di Lagrange scritte in termini delle
p (ovvero nelle (2.2.5 ) si ottiene infine

p = p(q,
p, t) .

(2.2.8)

Questa, congiunta con la relazione (2.2.7), fornisce infine la coppia di equazioni


in forma normale per le q(t), p(t), ovvero lequazione in forma normale
x = v(x) nello spazio delle fasi, con una ben definita espressione per il
campo vettoriale v = v(x) con x = (q, p).
Esempio. Particella sulla retta. Lequazione di moto del secondo ordine m
q =
V 0 (q) (con q x), quando si introduca il momento p = mq diviene il seguente
sistema di due equazioni del primo ordine in forma normale nello spazio delle fasi:
(
q = p/m
(2.2.9)
p = V 0 (q) .
1
2

Il caso della forza di Lorentz verr`


a studiato separatamente.
Lutilit`
a di questa generalizzazione si comprendera`
a studiando i principi variazionali.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 103

2.2.2

Deduzione delle equazioni di Hamilton

Ma linteresse principale per questo modo di procedere (cio`e passare allo


spazio delle fasi con coordinate (q, p) anziche allo spazio degli stati con coor consiste nel fatto che le 2n equazioni cos` ottenute presentano
dinate (q, q))
una struttura molto particolare e simmetrica.
Questo `e dovuto al fatto che da una parte abbiamo riscritto le equazioni
di Lagrange in termini delle p:

d @L @L
@L
@L
= 0 equivalente a
p=
, p =
,
(2.2.10)
dt @ q
@q
@ q
@q
e daltra parte si ha il seguente

t)
Lemma (trasformata di Legendre). Si consideri una lagrangiana L(q, q,

nondegenere, ovvero con determinante hessiano (rispetto alle q) non nullo:


det

@2L
6= 0 .
@ qi @ qk

Si definisca poi la funzione H(q, p, t) come3


h
i
t)
H(q, p, t) = p q L(q, q,

(2.2.11)

q(q,p,t)

q=

(2.2.12)

dove la funzione q(q,


p, t) `e definita per inversione della
p=

@L
.
@ q

Allora si ha
p=
e inoltre

@H
@t

@L
@ q
=

equivalente a
@L
@t .

q =

@H @L
,
=
@p
@q

@H
, ,
@q

(2.2.13)

La funzione H = H(q, p, t) viene detta funzione hamiltoniana del


sistema. Questo Lemma verr`
a dimostrato subito sotto, ed apparir`a allora
che la introduzione della funzione hamiltoniana `e del tutto naturale quando
si sia deciso di sostituire le variabili q con le variabili p = @L
@ q . Si tratta
del procedimento ben familiare in termodinamica, che corrisponde alla introduzione della cosiddetta trasformata di Legendre della lagrangiana
t). Prima osserviamo che il virt`
L = L(q, q,
u del Lemma e della (2.2.10) si
ha immediatamente il
t) nondeTeorema (equazioni di Hamilton). Data una lagrangiana L(q, q,
genere (propriet`
a sempre garantita per i sistemi naturali) le equazioni di Lagrange
d @L
@L
=
dt @ q
@q
3

Si denota p q =

Pn

i=1

pi qi .

104

Andrea Carati e Luigi Galgani

sono equivalenti alle equazioni (di Hamilton)


(

q =
p =

@H
@p
@H
@q

(2.2.14)

Dimostrazione del Lemma. Riportiamo anzitutto una dimostrazione banale,


di tipo brute force, consistente semplicemente in una verifica diretta. Un procedimento pi`
u significativo verr`a seguito subito sotto.
Osserviamo innanzitutto che, per lipotesi di nondegenerazione (2.2.11), linversione della relazione p = @L
a q in termini dei momenti
che fornisce le velocit`
@q
p `e possibile, sicche lhamiltoniana H(q, p, t) risulta ben definita. Si fa poi uso
di una propriet`
a elementare del dierenziale,4 secondo la quale nel dierenziare
una funzione composta si pu`o procedere formalmente come se le variabili da cui
essa dipende, a loro volta dipendenti da altre variabili, fossero invece indipendenti.
Dierenziando H = p q L si ha dunque
dH = p dq + q dp

@L
dq
@q

@L
dq
@ q

@L
dt ,
@t

e i due termini proporzionali a dq si cancellano per la definizione stessa di p. Si


resta pertanto con
@L
@L
dH = q dp
dq
dt .
(2.2.15)
@q
@t
Daltra parte, pensando H come funzione di p, q, t, per definizione di dierenziale
si ha
@H
@H
@H
dH =
dp +
dq +
dt ,
(2.2.16)
@p
@q
@t
cosicche per confronto si ottiene
q =

@H
,
@p

@L
=
@q

@H
,
@q

@H
=
@t

@L
.
@t

(2.2.17)

La dimostrazione sopra data costituisce in eetti una semplice verifica.


Abbiamo verificato che `e proprio vero che, introducendo lhamiltoniana, si
hanno le formule di equivalenza (2.2.13), e quindi le equazioni di Hamilton.
Non abbiamo per`
o spiegato da dove venga lidea di introdurre proprio questa
funzione H, come la si inventi. In realt`a esiste un argomento generale che
fa apparire questa scelta naturale, quando si sia deciso che, in luogo delle
si vogliano prendere come variabili indipendenti i momenti p,
variabili q,
legati alle q proprio dalla relazione p = @L
@ q . La trasformata di Legendre
viene ampiamente impiegata anche in termodinamica, nel passare ad esempio dallenergia interna U allenergia libera di Helmholtz F = U T S e agli
4

Tale propriet`
a `e detta talvolta propriet`
a di invarianza in forma del dierenziale primo.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 105


altri potenziali termodinamici. Questi ed altri aspetti della trasformata
di Legendre sono discussi in appendice.5
Intermezzo: la trasformata di Legendre. Largomento generale cui ci riferiamo
riguarda quella che si chiama la trasformata di Legendre, e consiste in questo: se
`e data una funzione f (x) e si vuole prendere come variabile indipendente, in luogo
di x, la variabile6
df
u = f 0 (x)
(2.2.18)
dx
(lapice denota derivata), allora `e spontaneo introdurre la quantit`a
g=f

ux

(pensata come funzione di u, ottenuta eliminando x attraverso le definizione u =


f 0 (x)), e risulta che la relazione u = f 0 (x) `e equivalente alla relazione x = g 0 (u).
Infatti, per definizione di u si ha
df = u dx ,
e daltra parte, volendo sostituire u ad x come variabile indipendente, `e spontaneo
cercare di riscrivere questa espressione in maniera che vi figuri il dierenziale du
invece del dierenziale dx. Ma allora `e ovvio come procedere. Infatti basta ricordare
lidentit`
a (regola di integrazione per parti, ovvero regola di Leibniz per la derivata
di un prodotto)
u dx = d(ux) x du ,
(2.2.19)
perche allora si ha df = d(ux)
dg =

xdu, ovvero d(f

x du

ux) =

(g = g(u) = f

xdu, ovvero

ux) .

Per la definizione di dierenziale, si ha pertanto la relazione


x=

dg
,
du

(2.2.20)

che costituisce linversione della relazione (2.2.18) definente u. La funzione g (o


talvolta la funzione g) viene detta trasformata di Legendre della funzione f .
Se poi f dipende anche da unaltra variabile y, cio`e si ha f = f (x, y), allora si
definisce analogamente g = g(u, y) = f ux (trasformata di Legendre di f rispetto
5

Non ancora presente in questa versione delle note. In particolare, viene mostrato come
per la trasformata di Legendre una scrittura pi`
u corretta, anche consona al suo significato
geometrico, sarebbe

g(u) = sup f (x) ux se f 00 < 0) ,


x

g(u) = inf f (x)


x

ux

se

f 00 > 0) .

6
A tal fine si deve fare lipotesi che sia f 00 6= 0 (cio`e la funzione f sia concava o
convessa). Infatti per sostituire u = f 0 ad x come variabile indipendente, occorre che la
funzione u = u(x) = f 0 (x) sia invertibile e dunque monot
ona, vale a dire che sia u0 6= 0,
00
ovvero f 6= 0.

106

Andrea Carati e Luigi Galgani

alla variabile x) e si trova


u=

@f
@x

equivalente a x =

@g
@u

@f
@g
=
.
@y
@y

(2.2.21)

mentre
Dunque H `e la trasformata di Legendre di L rispetto alle variabili q,
le variabili q e t svolgono il ruolo di parametri, analogo a quello della variabile
y nelle funzioni f (x, y) e g(u, y) considerate sopra. In conclusione, nel caso della
lagrangiana e della hamiltoniana le relazioni (2.2.21) divengono
p=

@L
@ q

@L
=
@q
(e inoltre

2.2.3

@L
@t

equivalente a q =

@H
@p

@H
,
@q

(2.2.22)

@H
@t ).

Hamiltoniana ed energia: esempio della particella in


coordinate cartesiane.

Si noti che nel capitolo dedicato alle equazioni di Lagrange gi`a avevamo
introdotto la funzione E = p q L, che avevamo chiamato energia generalizzata o funzione di Jacobi. Dunque l hamiltoniana, come grandezza fisica,
coincide proprio con lenergia generalizzata E . La dierenza sta soltanto
nella scelta delle variabili da cui essa dipende. Nel caso dellenergia gener mentre
alizzata E le variabili indipendenti erano (oltre a q, t) le velocit`
a q,
nel caso dellhamiltoniana H le variabili indipendenti che sostituiscono le
velocit`
a q sono i momenti p. Si ha dunque

H(q, p, t) = E (q, q(q,


p, t), t) .
Abbiamo gi`
a osservato (e daltra parte si constata immediatamente) che
nei sistemi meccanici naturali, in cui cio`e L = T V , si ha che lenergia
cinetica T `e decomposta nella somma T = T2 +T1 +T0 di polinomi omogenei
e in conseguenza risulta7
di ordine 2 e rispettivamente 1 e 0 nelle velocit`a q,
H = T2 T0 + V , (con T2 , T0 riespressi in funzione di q, p, t). In particolare,
nel caso comunissimo di vincoli indipendenti dal tempo si ha
H =T +V .

(2.2.23)

Vediamo dunque che, nel caso particolarmente interessante di


vincoli indipendenti dal tempo, lhamiltoniana coincide con lenergia totale del sistema, espressa per`o in funzione dei momenti p anziche
7

Si usa teorema di Eulero sulle funzioni omogenee, secondo il quale si ha


@T
q = 2T2 + T1 .
@ q

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 107


delle velocit`
a q (oltre che delle coordinate q e del tempo). Questo risultato
insegna la via pratica, davvero semplice, per costruire la funzione hamiltoniana H nel caso indipendente dal tempo: basta scrivere lenergia totale

T + V , con la sola avvertenza di esprimere T in termini di p anziche di q.


Analogamente si procede nel caso generale, usando H = T2 T0 + V .
Esempio. Lesempio fondamentale `e quello del sistema costituito da una particella
nello spazio, riferita a coordinate cartesiane, con lagrangiana
L(x, y, z, x,
y,
z)
=

1
m(x 2 + y 2 + z 2 )
2

V (x, y, z)

Allora, come gi`


a ricordato, i momenti coniugati px , py , pz coincidono con le componenti della quantit`
a di moto, ovvero si ha
px = mx ,

py = my ,

pz = mz ,

sicche linversione `e banale, essendo data da


x =

px
,
m

y =

py
,
m

z =

pz
,
m

e si ottiene dunque per lenergia cinetica T la forma T =


Lhamiltoniana `e pertanto
H(x, y, z, px , py , pz ) =

1
2
2m (px

1 2
(p + p2y + p2z ) + V (x, y, z) .
2m x

+ p2y + p2z ).

(2.2.24)

Esercizio: Scrivere lhamiltoniana per la particella nello spazio in coordinate


cilindriche o polari, per il problema a due corpi, per il pendolo sferico.8

Come caso particolare dellesempio della particella nello spazio in coordinate cartesiane, si ha il caso (di fondamentale importanza in tutta la
fisica, dalla fisica della materia fino alla teoria quantistica dei campi) delloscillatore armonico sulla retta. Si impone allora y = 0, z = 0, e
denotando x q, px p si ha
H(q, p) =

p2
k
+ q2 ,
2m 2

(2.2.25)

dove k `e una costante positiva. Sulloscillatore armonico ritorneremo pi`


u
avanti.

2.2.4

Una riscrittura compatta delle equazioni di Hamilton:


la matrice simplettica standard. Analogia tra le
coordinate canoniche e le coordinate cartesiane

Lutilit`a delle coordinate canoniche x = (q, p) 2 IR2n rispetto alle (q, q)


si rivela nel fatto che le corrispondenti equazioni di moto (cio`e le equazioni
8

Questo esercizio `e svolto in appendice.

108

Andrea Carati e Luigi Galgani

di Hamilton) hanno una struttura particolarmente simmetrica. In eetti le


equazioni di Hamilton hanno evidentemente forma normale, cio`e sono del
tipo
x = v(x)
con un opportuno campo vettoriale v = v(x) nello spazio delle fasi. Si ha
poi per`
o lulteriore fatto che il campo vettoriale v si ottiene nella maniera
seguente. Si prende la funzione H = H(q, p, t) e se ne costruisce il gradiente
@H
@H
@H
@H
,...,

,...,
.
@x1
@x2n
@q1
@pn

grad H =

Poi si scambia linsieme delle prime n componenti con quello delle ultime
n componenti, introducendo anche un cambiamento di segno per uno dei
due insiemi. Questo scambio (con un cambiamentto di segno) pu`o essere
ottenuto mediante la matrice E definita da

0n I n
E=
,
(2.2.26)
I n 0n
dove In e 0n sono la matrice identit`a e la matrice nulla in IRn . In altri
termini, il campo vettoriale v = v(x) che definisce la dinamica nello spazio
delle fasi ha la specialissima struttura9
v(x) = E grad H(x) .

(2.2.27)

In particolare si verifica immediatamente10 che, proprio in virt`


u di questa
specialissima struttura, il campo vettoriale v = v(x) ha la propriet`a di essere
solenoidale, cio`e di soddisfare la condizione
div v = 0 ,

2n
X
@vj
=0.
@xj

ovvero

(2.2.28)

j=1

La matrice E viene talvolta detta matrice simplettica standard. Essa ha


le propriet`
a (dove AT denota la trasposta della matrice A)11
E2 =
9

Ovvero
vj =

2n
X

Ejk

k=1
10

@H(x)
@xk

E=E

(2.2.29)

(j = 1, . . . , 2n) .

Perche per il teorema di Schwartz si ha


@ @H
@qj @pk

11

ET =

I2n ,

@ @H
=0.
@pk @qj

La prima di queste propriet`


a `e, nellambito delle matrici, lanalogo della propriet`
a
i2 =

per lunit`
a immaginaria i =

1.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 109


Intermezzo: Analogia tra le coordinate canoniche e quelle cartesiane.
Si osservi che, poco sopra, il gradiente delle funzione hamiltoniana H = H(x)
e la divergenza del campo vettoriale v = v(x) nello spazio delle fasi sono stati
definiti come una estensione (al caso di dimensione 2n) delle familiari definizioni
per lo spazio ordinario IR3 riferito a coordinate cartesiane ortogonali, ovvero (se
f = f (x, y, z) e v = (vx , vy , vz ))
grad f =
div v =

@f @f @f
,
,
,
@x @y @z

@vx
@vy
@vz
+
+
.
@x
@y
@z

Vogliamo qui fare notare che questo fatto `e tuttaltro che banale, perche gi`a nello
spazio ordinario il gradiente e la divergenza hanno espressioni ben diverse da quelle
ricordate sopra, se si usano coordinate diverse da quelle cartesiane ortogonali, ad
esempio se si usano coordinate polari o cilindriche. Il fatto notevole `e che invece, nel
nostro caso, le coordinate q relative allo spazio delle configurazioni C sono arbitrarie:
ad esempio, per un punto materiale possono essere coordinate polari o cilindriche.
Ma se si passa dalle equazioni di Lagrange a quelle di Hamilton (introducendo
dunque in luogo delle velocit`
a q i momenti p coniugati alle q), allora risulta che,
comunque le coordinate q siano state scelte, le equazioni di moto si scrivono
nella forma x = v(x), dove il campo vettoriale v = v(x) ha la speciale struttura
(2.2.27), e il gradiente ha il medesimo aspetto che avrebbe se le coordinate
x = (q, p) fossero cartesiane. Da questo punto di vista dunque le coordinate
canoniche (cio`
e le coordinate x = (q, p)) si comportano come se fossero
coordinate cartesiane ortogonali. Lo stesso avviene per quanto riguarda la
divergenza e la propriet`
a di solenoidalit`a.
Non far`
a dunque meraviglia quando pi`
u avanti, discutendo il teorema di Liouville, mostreremo che una situazione del tutto analoga si presenta anche in relazione alla definizione dellelemento di volume nello spazio delle fasi. Infatti mostreremo che anche per lelemento di volume tutto va come se le coordinate
canoniche fossero cartesiane ortogonali, ovvero troveremo che lelemento di volume
dV naturalmente definito nello spazio delle fasi `e quello dato da12
dV = dq1 . . . dqn dp1 . . . dpn ,

(2.2.30)

qualunque sia la scelta delle coordinate q nello spazio delle configurazioni C (purche
le p siano definite consistentemente come p = @L
).
@q
Le matrici A agenti in IR2n e aventi la propriet`
a
AT E A = E
si dicono matrici simplettiche e costitiscono il gruppo simplettico. Esse hanno evidentemente la propriet`
a det A = 1, propriet`
a che `e equivalente alla definizione stessa di
matrice simplettica nel caso n = 1. Questo fatto si verifica immediatamente calcolando la
matrice AT E A.
12
Che questo fatto sia nientaatto banale si capisce se si ricorda ad esempio che
lelemento di volume nel piano euclideo ha, in coordinate polari (r, '). la forma
dV = rdrd' 6= drd' .

110

Andrea Carati e Luigi Galgani

Osservazione: le dimensioni fisiche del volume nello spazio delle


fasi. Osserviamo che, nello spazio delle fasi, in ogni piano coordinato (qi , pi ),
i = 1, . . . , n lelemento di area
dqi dpi
ha le dimensioni di una azione (= energia tempo). Ci`o segue immediatamente
dal fatto che il prodotto pi qi = @@L
e di una energia13 .
qi qi ha le dimensioni di L, cio`
Dunque lelemento di volume dV nello spazio delle fasi ha le dimensioni di una
azione alla potenza nesima:


n
dV = azione .

Ricordiamo che le pi`


u tipiche quantit`a aventi la dimensione di una azione sono le
componenti del momento angolare L = x mv (lo si controlla a vista) e la costante
di Planck h= 6.6 10 27 erg sec = 6.6 10 34 joule sec, che sta alla meccanica
quantistica come la velocit`a della luce c sta alla relativit`a.

2.2.5

Sulla geometria dello spazio delle fasi (cenno). Le


trasformazioni puntuali estese e le trasformazioni canoniche.

Nota didattica. Questo sottoparagrafo pu`


o essere letto tra le righe.
La banale osservazione fatta sopra sulla specialissima struttura delle
equazioni di moto quando si scelgano le coordinate (q, p) invece delle co costituisce il fulcro mediante il quale a questo punto si
ordinate (q, q)
potrebbe passare alla discussione degli aspetti geometrici profondi sottostanti le equazioni di Hamilton e lo spazio delle fasi. Ci`o richiede per`o che siano
noti elementi di geometria riguardanti anzitutto la distinzione tra vettori
e covettori (e quindi tra campi vettoriali e 1-forme dierenziali) e inoltre
le 2-forme, nozioni che non presumiamo familiari al lettore. Ci limiteremo
quindi nel seguito ad una esposizione del tipo tradizionale, di carattere elementare, rinviando a corsi pi`
u avanzati per una trattazione di impostazione
14
geometrica.
Vogliamo tuttavia aggiungere qui almeno una osservazione, riguardante
le notazioni. Il primo punto riguarda il passaggio dal locale al globale. Ricordiamo anzitutto che lo spazio delle configurazioni C deve essere
riguardato come uno variet`a globale, definita ad esempio come sottoinsieme
di uno spazio ambiente IR3N se il sistema che si considera `e costituito di N
particelle eventualmente vincolate (si pensi al caso di una particella vincolata a una superficie bidimensionale C immersa in IR3 ). Invece, in generale
le coordinate
q = (q1 , . . . , qn ) 2 U IRn .
13

Le dimensioni di q si bilanciano al numeratore e al denominatore dellespressione @L


q.

@ q
Il testo classico di riferimento `e V.I. Arnold, Metodi matematici della meccanica
classica.
14

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 111


sono locali, cio`e descrivono solo una porzione della variet`a C (sono una carta dell atlante, mentre `e tutto latlante che descrive la variet`a C nella
sua globalit`
a).
Se ora fissiamo un punto P 2 C, individuato mediante delle coordinate
q in una carta, resta definito lo spazio tangente alla variet`a nel punto
P , che viene di solito indicato con il simbolo TP C. Questo `e uno spazio
vettoriale, sotteso dai vettori coordinati, e un vettore di tale spazio (vettore
`
E
velocit`a) `e individuato (nella base coordinata mediante le componenti q.
dunque chiaro come si debba definire lo spazio degli stati globalmente: si
tratta dellinsieme di tutte le possibili coppie (posizione, velocita), ovvero
le coppie (P 2 C , vettore2 TP C). Questo spazio degli stati 15 `e dunque
linsieme
[
T C :=
TP C ,
P 2C

Questo insieme ha in eetti tutte le buone propriet`a di quelle che in geometria vengono chiamate variet`
a (manifolds) dierenziabili, con in pi`
u la
evidente propriet`
a di essere costituito da un insieme di spazi vettoriali, ciascuno basato su un diverso punto di unaltra variet`a (lo spazio delle configurazioni C). Per questo motivo lo soazio T C viene chiamato fibrato tangente
a C.
Daltra parte il formalismo hamiltoniano ci ha indotto, a livello locale, a
le coppie (q, p), in cui,
considerare, accanto allo spazio delle coppie (q, q),
per q fissato (cio`
e per un fissato punto P 2 C), i vettori p sono in cor e costituiscono essi pure uno spazio
rispondenza biunivoca con i vettori q,
`
vettoriale di dimensione n. E un fatto ben noto in geometria (e lo richiameremo in un prossimo capitolo sulla relativit`a, dove introdurremo una breve
digressione geometrica riguardo loperazione di alzare e abbassare gli indici) che questo secondo spazio vettoriale (con componenti p) `e nientaltro
che il duale dello spazio vettoriale TP C. Poiche tradizionalmente il duale
di un generico spazio vettoriale V viene denotato con V e i suoi elementi
vengono chiamati covettori , `e ovvio allora che il duale di TP C venga denotato con TP C e che i suoi elementi vengano chiamati vettori cotangenti
a C in P . Infine, con atteggiamento globale, lo spazio delle fasi F viene
definito come
[
F :=
TP C ,
e viene denotato con

P 2C

F = T C

e chiamato fibrato cotangente a C. Localmente, si tratta semplicemente


di tutte le possibili coppie (q, p).
Come secondo punto, vogliamo mettere in luce la propriet`a di invarianza in forma delle equazioni di Hamilton sotto trasformazioni
15

Un nome tradizionale nella letteratura classica italiana `e spazio degli atti di moto.

112

Andrea Carati e Luigi Galgani

puntuali estese. Con questo intendiamo quanto segue. Per ottenere le


equazioni di Hamilton, siamo partiti dalle equazioni di Lagrange in una
carta locale (con coordinate q) nello spazio delle configurazioni C, prenden Possiamo
do poi come coordinate ausiliarie le coordinate p anziche le q.
ora passare a unaltra carta locale (con coordinate Q) nello spazio delle
configurazioni: si dice che in tal caso si compie una trasformazione (o
un cambiamento) di coordinate puntuale (perche la trasformazione
riguarda lo spazio dei punti, ovvero delle posizioni, delle configurazioni). Ora, questo cambiamento di coordinate in C induce in maniera naturale
un cambiamento di coordinate nello spazio degli stati T C.
Esempio. Nel piano si passi dalle coordinate cartesiane ortogonali a quelle polari:
x = r cos ' ,

y = r sin ' .

Allore la trasformazione indotta sulle q `e


x = r cos '

r' sin ' ,

y = r sin ' + r' cos ' .

Sappiamo allora che nelle nuove variabili le equazioni di moto hanno


ancora la forma di Lagrange, con una nuova lagrangiana che si ottiene del` allora evidente che
la precedente per semplice sostituzione di variabili. E
se si compie il corrispondente passaggio alle variabili P con un procedimento analogo a quallo seguito nel passare dalle q alle p, le equazioni di
moto avranno ancora la forma di Hamilton con una hamiltoniana che si ottiene dalla precedente semplicemente per sostituzione di variabili. Questa
trasformazione di variabili dalle (q, p) alle (Q, P) indotta in maniera naturale dalla trasformazione puntuale sulle q viene detta trasformazione
puntuale estesa.
In questo senso si ha dunque invarianza in forma delle equazioni di Hamilton sotto trasformazioni puntuali estese: le equazioni restano ancora in forma di Hamilton con la medesima hamiltoniana (sottintendendo che si debba compiere la sostituzione di variabili). Esiste tuttavia una classe molto
pi`
u ampia di trasformazioni che hanno la medesima propriet`a, ovvero: le
equazioni restano in forma di Hamilton con la medesima hamiltoniana (sottintendendo: a meno della sostituzione di variabili). Queste trasformazioni
vengono dette trasformazioni canoniche (indipendenti dal tempo) e sono
di grande interesse ad esempio per la teoria delle perturbazioni, perche possono essere utilizzate per scegliere variabili in cui le equazioni abbiano forma
pi`
u semplice rispetto alle variabili originarie, e quindi permettono di descrivere meglio i movimenti (non si dimentichi che sono eccezionali i casi in cui
le equazioni si sanno risolvere). Ad esempio, se si riesce a trovare una
trasformazione tale che nelle nuove variabili Q, P si abbia
H = H(P) ,

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 113


allora, essendo @H
e evidente che le equazioni nelle nuove variabili
@Q = 0, `
saranno semplicissime, ovvero16
=0,
P

= !(P) ,
Q

dove

!=

@H
@P

con le banali soluzioni


P(t) = P0 ,

Q(t) = !0 t + Q0 ,

dove

!0 = !(P0 ) .

I sistemi per cui esiste una tale trasformazione canonica, che porti a una
hamiltoniana dipendente solo dai momenti, sono detti sistemi integrabili.
Si osservi tuttavia che `e possibile anche considerare trasformazioni di
variabili non canoniche, tali cio`e che nelle nuove variabili le equazioni di
moto non hanno esplicitamente una struttura hamiltoniana come quella
fin qui considerata.

2.2.6

Le variabili dinamiche e le costanti del moto

Veniamo ora alle nozioni di variabile dinamica. Abbiamo visto che uno stato
del sistema considerato `e individuato da un punto nello spazio degli stati, o
dello spazio delle fasi, a seconda dellambito cui ci si riferisce, lagrangiano
o hamiltoniano. Nel seguito, faremo riferimento allo spazio delle fasi, che
denotiamo con F. Le funzioni (a valori reali) definite sullo spazio delle fasi
F (come tipicamente lenergia, le componenti del momento angolare, le coordinate delle posizioni o delle velocit`a delle particelle costituenti il sistema)
sono chiamate variabili dinamiche.17 Pi`
u in generale, possiamo pensare
a variabili dinamiche dipendenti (esplicitamente) dal tempo, cio`e funzioni
della forma f = f (x, t), con x = (q, p) coordinate in F. Si pensi allenergia di una particella soggetta a un campo di forze conervativo dipendente
esplicitamente dal tempo (ad esempio un campo elettrico alternato).
Veniamo infine al sottoinsieme delle variabili dinamiche (eventualmente
dipendenti dal tempo) che vengono dette costanti del moto o integrali
del moto o funzioni invarianti rispetto a una data hamiltoniana H. Diamo qui la pi`
u elementare definizione possibile; una trattazione matematicamente pi`
u convincente, che fa uso della nozione di gruppo di trasformazioni
dello spazio delle fasi generato dalle equazioni di moto, verr`a menzionata
pi`
u avanti.
16

Qui la notazione lascia a desiderare, perche ! `e un vettore, e dovremmo scrivere


Q i = !i (P) ,

17

dove

!i =

@H
,
@Pi

(i = 1, . . . , n) .

In meccanica quantistica, le analoghe quantit`


a sono chiamate osservabili, e sono
rappresentate da una classe di operatori lineari in spazi di Hilbert (spazi vettoriali muniti
di un prodotto scalare).

114

Andrea Carati e Luigi Galgani

Sia data una variabile dinamica f (x, t). Sia assegnato un movimento
x = x(t) x(t, x0 ) soluzione delle assegnate equazioni di moto x = v(x) in
relazione a un dato iniziale x0 (che verr`a considerato come un parametro, e
eventualmente sottinteso). Si considerano allora i valori che la variabile
dinamica assume lungo quel movimento al variare del tempo, ovvero si
considera la funzione f(t) ottenuta da f per composizione, cio`e definita
da
f(t) f (x(t), t) .
Seguendo una consolidatissima tradizione, con abuso di notazione denoter
emo f(t) ancora con f (t), e corrispondentemente denoteremo anche18 ddtf
df

dt f . Pertanto, usando la formula di derivata di una funzione composta


(chain rule), abbiamo
@f
f =
+ v grad f ;
(2.2.31)
@t
questa derivata di funzione composta viene talvolta chiamata derivata
totale o derivata sostanziale.
Si introduce allora la
Definizione: Una variabile dinamica f (q, p, t) `e detta costante del moto o integrale
del moto o funzione invariante rispetto a una hamiltoniana H se si ha
f(t) = 0

(2.2.32)

per ogni soluzione delle equazioni di Hamilton con hamiltoniana H (cio`e per ogni
dato iniziale x0 ).

In virt`
u della (2.2.31) si ha allora il
Teorema: Condizione necessaria e sufficiente affinche f sia costante del moto
sotto la dinamica indotta da una hamiltoniana H `e che si abbia
@f
+ v grad f = 0 dove
@t

v = E grad H ,

(2.2.33)

18
Una notazione pi`
u adeguata si ottiene utilizzando la nozione di flusso nello spazio
delle fasi indotto dalla hamiltoniana H, che verr`
a illustrata in un prossimo paragrafo. Si
tratta della famiglia a un parametro (il tempo t) di trasformazioni che invia ogni punto
iniziale x0 2 F nel suo evoluto al tempo t mediante la corrispondente soluzione delle
equazioni di Hamilton. Limitiamoci qui al caso di variabili dinamiche indipendenti dal
tempo. Denotando il flusso con t , la funzione composta f viene denotata allora pi`
u
propriamente con U t f , dove
(U t f ) (x) = f ( t x) ,

e si `e denotato con x anziche con x0 il generico dato iniziale. La considerazione di queste


trasformazioni U t sulle variabili dinamiche indotte dallevoluzione temporale nello spazio
delle fasi fu introdotta intorno allanno 1928 da Koopman e von Neumann, particolarmente
con riferimento alla cosiddetta teoria ergodica.
Quando si mette laccento su come cambiano nel tempo le variabili dinamiche anziche gli
stati (punti dello spazio delle fasi) si compie un procedimento analogo a quello che si compie
in meccanica quantistica quando si passa dalla descrizione di Schroedinger (evoluzione
degli stati) alla descrizione di Heisenberg (evoluzione delle osservabili).

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 115


ovvero

@f
@f @H
+

@t
@q @p

@f @H

=0.
@p @q

(2.2.34)

Il punto essenziale da mettere in luce `e che la definizione originaria di


costante del moto fa riferimento a una propriet`a (f = 0) che richiede di
essere controllata per tutte le soluzioni delle equazioni del moto (cio`e per
tutti i dati iniziali x0 ), mentre daltra parte tali soluzioni in generale non si
sanno neppure scrivere esplicitamente. Invece la corrispondente condizione
(2.2.33) pu`
o essere controllata senza che si conoscano le soluzioni, perche
addirittura ogni riferimento esplicito al requisito per ogni soluzione delle
equazioni di Hamilton `e scomparso. Per controllare che f sia una costante
del moto, `e sufficiente eseguire su di essa delle derivate e controllare che la
corrispondente espressione (2.2.33) sia identicamente nulla.
Vedremo in un prossimo paragrafo come la condizione (2.2.33) verr`a
riespressa in termini delle parentesi di Poisson di f ed H. In casi molto
significativi avverr`
a allora che, facendo uso delle propriet`a delle parentesi di
Poisson, sar`
a possibile verificare che una variabile dinamica sia costante del
moto addirittura senza dover calcolare alcuna derivata. In particolare risulter`a evidente che, nel caso comunissimo in cui lhamiltoniana non dipende
esplicitamente dal tempo, lhamiltoniana stessa `e una costante del moto
(indipendente dal tempo).
Naturalmente, il problema di trovare concretamente una costante del
moto (e non solo verificare se una certa funzione sia una costante del moto)
per un campo vettoriale v assegnato (o per una assegnata hamiltoniana)
`e tuttaltro che banale, perche la condizione che si deve soddisfare, ovvero
la (2.2.34), si presenta come una equazione alle derivate parziali, di cui in
generale non si sannno determinare esplicitamente le soluzioni. Vedremo
pi`
u avanti come le costanti del moto possono essere determinate concretamente in alcuni casi speciali in cui la hamiltoniana presenti delle propriet`a
di simmetria.

2.2.7

Il teorema di Liouville e la relazione con la meccanica


statistica (cenno).

Abbiamo gi`
a osservato che, in virt`
u della speciale struttura delle equazioni
di Hamilton, il campo vettoriale v = v(x) che definisce la dinamica nello
spazio delle fasi `e solenoidale, cio`e soddisfa la propriet`a div v = 0. Questa
propriet`
a ha come conseguenza il seguente
Teorema di Liouville. Sia D0 una arbitraria regione (o dominio)19 dello spazio
delle fasi, e D(t) la corrispondente regione ottenuta per evoluzione mediante le
soluzioni delle equazioni di Hamilton relative a una qualsiasi hamiltoniana H.
19

Sottintendiamo che il dominio sia misurabile secondo Lebesgue.

116

Andrea Carati e Luigi Galgani

Allora si ha
Volume di D(t) = Volume di D0 ,
dove il volume `e definito mediante lelemento di volume canonico
dV = dq1 . . . dqn dp1 . . . dpn ,
cio`e come se le coordinate canoniche (q, p) fossero cartesiane ortogonali.

Questo risultato `e di fondamentale importanza per la meccanica statistica. Ricordiamo infatti che la meccanica statistica consta di due elementi: la
dinamica (di qui il nome meccanica) e la probabilit`a (di qui il nome statistica). La dinamica `e data dalle equazioni di Hamilton nello spazio delle
fasi F (ma si potrebbero considerare anche le equazioni di Lagrange nello
spazio degli stati), in conseguenza delle quali ogni dato iniziale (punto) x0
dello spazio delle fasi F d`a luogo a un corrispondente movimento x = x(t)
(con x(0) = x0 ) in tale spazio. La probabilit`a viene introdotta in maniera
naturale quando si abbia una ignoranza sul dato iniziale x0 , e si assegni
quindi una probabilit`
a a priori sui dati iniziali. Il problema `e allora se sia
possibile combinare questi due elementi (dinamica e probabilit`a) in maniera
consistente. Questo problema verr`a discusso pi`
u avanti, e vedremo che esso
`e banale se i possibili dati iniziali sono un insieme finito o anche numerabile,
mentre il problema `e alquanto delicato (its a mess, come dice uno dei pi`
u
20
celebri probabilisti di questi giorni ) quando i possibili dati iniziali costituiscono un continuo. In tal caso si Rassegna una densit`a di probabilit`a iniziale
0 (x) (con le propriet`
a 0
0 e 0 dV = 1), nel senso che la probabilit`a
di trovare un punto in una regione D0 F `e data inizialmente da
Z
pr x 2 D0 =
0 (x)dV ,
D0

e si pone il problema di determinare una corrispondente densit`a di probabilit`


a (x, t) evoluta della densit`a iniziale 0 (x). Si dimostra che la (x, t) `e
una costante del moto nel senso sopra discusso, ovvero soddisfa lequazione
(detta equazione di Liouville)21
@
+ v grad = 0 dove
@t

v = E grad H .

In particolare si dimostra anche il teorema di Liouville citato sopra. La


dimostrazione di questi fatti verr`a data in un prossimo paragrafo, in cui
tutto il problema verr`
a discusso pi`
u ampiamente.
20
S.R.S. Varadhan, Probability theory, American Math. Soc. (New York, 2001): If the
space of all possible outcomes is uncountable, this is a mess, pag 2.
21
Nel caso generale, in cui cio`e levoluzione non fosse di tipo hamiltoniano) si dimostra
invece che la condizione di compatibilit`
a tra dinamica e probabilit`
a conduce alla equazione
di continuit`
a, da cui segue in particolare lequazione di Liouville nel caso div v = 0).

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 117

2.3

Le parentesi di Poisson e le regole di quantizzazione

Le parentesi di Poisson sono uno strumento di grande utilit`a in ambito hamiltoniano. Esse si presentano in maniera del tutto spontanea in connessione
con il problema di determinare le costanti del moto di un sistema hamiltoniano, e sono uno strumento essenziale nella teoria delle perturbazioni.
Infine, esse intervengono in maniera cruciale nel procedimento di quantizzazione che fu formulato da Heisenberg, Born, Jordan (e indipendentemante
da Dirac), a seguito dello sconcertante lavoro di Heisenberg del 1925 sulla
teoria della dispersione, forse uno dei lavori scientifici pi`
u geniali nella storia
dellumanit`
a.

2.3.1

Integrali del moto e parentesi di Poisson

Consideriamo un sistema hamiltoniano a n gradi di libert`a, di hamiltoniana


H(q, p, t), e una variabile dinamica f (q, p, t). Abbiamo gi`a indicato come si
discute lesistenza di costanti (o integrali) del moto. Si considera la derivata
totale o sostanziale di f rispetto al tempo lungo una soluzione delle equazioni
di Hamilton, che abbiamo denotato con f: essa `e definita da
d
f(t) f (q(t), p(t), t) ,
dt
dove q(t), p(t) `e una soluzione delle equazioni di Hamilton con hamiltoniana
H relativa a un dato iniziale q0 , p0 . Abbiamo poi definito il sottoinsieme
delle variabili dinamiche che sono integrali del moto o costanti del moto
rispetto ad H, come quelle che soddisfano la condizione
f(t) = 0

(2.3.1)

per ogni soluzione delle equazioni di Hamilton con hamiltoniana H (cio`e per
ogni dato iniziale q0 , p0 ). Essendo f = @f
@t + v grad f , abbiamo allora osservato che condizione necessaria e sufficiente affinche f sia costante del moto
sotto la dinamica indotta da una hamiltoniana H `e che valga la (2.2.33),
cio`e si abbia identicamente @f
@t + v grad f = 0 dove v = E grad H.
`
E utile ora riscrivere esplicitamente questa condizione. Si ha
@f X @f
@f
@f X @f @H
f =
+
qi +
p i =
+
@t
@qi
@pi
@t
@qi @pi
n

i=1

i=1

@f @H
,
@pi @qi

ed `e pertanto significativo introdurre la seguente


Definizione (Parentesi di Poisson). Per ogni coppia ordinata di variabili dinamiche f e g risulta definita una nuova variabile dinamica, chiamata parentesi di

118

Andrea Carati e Luigi Galgani

Poisson di f e g e denotata {f, g}, mediante la relazione


@f @g
@f

@q @p @p
n
X
@f @g

@qi @pi
i=1

{f, g} =

@g
@q
@f @g
.
@pi @qi

(2.3.2)

Infatti, con questa notazione abbiamo f = @f


@t + {f, H}, e pertanto la condizione (2.3.1) che caratterizza le costanti del moto si riscrive nella forma
@f
@t + {f, H} = 0. Abbiamo pertanto il
Teorema 1 Una variabile dinamica f `e un integrale del moto rispetto allhamiltoniana H se e solo se si ha identicamente (cio`e per ogni q, p, t)
@f
+ {f, H} = 0 .
@t

(2.3.3)

In particolare, una variabile dinamica f indipendente dal tempo `e un integrale del moto rispetto allhamiltoniana H se e solo se si annulla la parentesi
di Poisson di f con H:
{f, H} = 0 .

(2.3.4)

Abbiamo gi`
a osservato come la definizione originaria di costante del moto
faccia riferimento a una propriet`a (f = 0) che richiede di essere controllata
per tutte le soluzioni delle equazioni del moto, mentre tali soluzioni in
generale non si sanno neppure scrivere esplicitamente. Il vantaggio della
equivalente condizione (2.3.3) `e che essa pu`o essere controllata senza che
si conoscano le soluzioni. Anzi, nel caso che pi`
u interessa di variabili dinamiche indipendenti dal tempo, secondo la (2.3.4) basta controllare che
la parentesi di Poisson {f, H}, che `e una ben definita variabile dinamica,
sia identicamente nulla. Vedremo pi`
u sotto come in casi significativi questa
verifica possa essere compiuta in maniera facilissima, che tra laltro viene
poi trasportata sostanzialmente inalterata in meccanica quantistica.
Osservazione. Si noti la forma significativa che assume la definizione di parentesi
di Poisson quando si faccia riferimento a quella che abbiamo chiamato matrice
simplettica standard E (2.2.26). Infatti evidentemente si ha
{f, g} =

grad f, E grad g ,

(2.3.5)

dove (, ) denota lordinario prodotto scalare euclildeo in IR2n e grad f (x) `e lordinario gradiente in IR2n , con x = (q, p).

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 119

2.3.2

Propriet`
a della parentesi di Poisson

La parentesi di Poisson, come applicazione che per ogni coppia ordinata


di variabili dinamiche produce una nuova variabile dinamica, soddisfa alle
seguenti quattro propriet`
a (con 1 , 2 2 IR):
1)
2)
3)
4)

{f, g} =

{g, f }

{f, 1 g1 + 2 g2 } = 1 {f, g1 } + 2 {f, g2 }


{f, g1 g2 } = {f, g1 } g2 + g1 {f, g2 }

(2.3.6)

{f, {g, h}} + {g, {h, f }} + {h, {f, g}} = 0 ,

che vengono dette rispettivamente antismimmetria, linearit`


a (a destra),
regola di Leibniz e identit`
a di Jacobi.
La quarta propriet`
a, o identit`
a di Jacobi (si osservi lordine ciclante delle tre
funzioni in gioco) `e non banale, e viene dimostrata in appendice, mentre le prime
tre sono di verifica immediata. La prima `e evidente dalla definizione, e comporta
in particolare {f, f } = 0 per ogni f .22 23 La relazione di linearit`a 2) traduce
la analoga propriet`
a di linearit`
a della derivazione, e vale, evidentemente, non solo
per g ma anche per f (linearit`
a a sinistra)24 , ovvero la parentesi di Poisson `e una
operazione bilineare. Infine, la propriet`a 3) corrisponde alla regola di Leibniz per
la derivata di un prodotto.25

2.3.3

Esempi

` del tutto evidente che se consideriamo come variabili dinamiche le funE


zioni qi , pi (funzioni coordinate), ad esempio f (q, p) = q1 ,26 , allora per le
22

E dunque in particolare comporta {H, H} = 0, sicche, coerentemente con la propriet`


a
precedentemente dimostrata, si ha H = @H
.
@t
23
Pi`
u in generale, `e immediato verificare che se (ad esempio) g dipende da f , cio`e si ha
g(q, p, t) = G f (q, p, t) , dove G `e una funzione da IR in IR, allora risulta {f, g} = 0 .
24
Come si verifica direttamente, oppure usando la propriet`
a di antisimmetria 1).
25
A secondo membro, si poteva evidentemente scrivere anche g2 {f, g1 } + {f, g2 } g1 ,
perche lordine `e irrilevante nel prodotto di funzioni a valori reali o complessi. Lordine
tenuto sopra `e invece essenziale nelle analoghe propriet`
a che si presentano nel caso in cui
la parentesi di Poisson sia sostituita dal commutatore tra operatori lineari, che interessa in
meccanica quantistica. Pu`
o quindi essere utile, come indicazione mnemonica, mantenere
questo ordine anche nel caso delle parentesi di Poisson.
26
Consideriamo il semplice esempio in cui lo spazio delle fasi `e uno spazio vettoriale
V = IRm , i cui punti sono vettori x che, avendo scelto una base, sono individuati da
una mupla: x = (x1 , . . . , xm ). Allora lanalogo delle variabili dinamiche sono le funzioni
f : IRn ! IR, e le funzioni definite da fi (x) = xi vengono dette funzioni coordinate. Con
abuso di linguaggio si denota poi fi xi . Come ulteriore commento, ricordiamo che le
funzioni coordinate (a valori reali, e quindi dette funzionali ) agiscono linearmente su V , e
costituiscono in eetti una base nello spazio vettoriale dei funzionali lineari agenti su V .
Tale spazio viene detto spazio duale a V e viene denotato con V . Se V = IRn , anche V
`e isomorfo a IRn . La base di V cos` ottenuta viene detta base duale alla base scelta in
V . Su questi punti ritorneremo nel secondo capitolo di relativit`
a.

120

Andrea Carati e Luigi Galgani

corrispondenti parentesi di Poisson si ha


{qi , qk } = 0 ,

{pi , pk } = 0 ,

{qi , pk } =

ik

i, k = 1, . . . , n ; (2.3.7)

queste vengono chiamate parentesi di Poisson fondamentali.


Si constata poi immediatamente che le equazioni di Hamilton si possono
scrivere per mezzo delle parentesi di Poisson nella forma27
qi = {qi , H} ,

p i = {pi , H} .

(2.3.8)

coerentemente con la relazione (2.3.3) f = {f, H}, che vale per ogni variabile
dinamica indipendente dal tempo.
Veniamo ora al caso in cui il sistema `e un punto materiale nello spazio,
e consideriamone le componenti cartesiane della quantit`a di moto e del momento angolare L. Usando le propriet`a 2), 3) della parentesi di Poisson, e le
parentesi di Poisson fondamentali, si mostra immediatamente che si ha (si
ricordi Lz = xpy ypx e cos` via, ciclando)
{px , Lz } =

py ,

{py , Lz } = px ,

{pz , Lz } = 0 ,

(2.3.9)

con analoghe relazioni per Ly e Lz . Cos` si trova anche


{Lx , Ly } = Lz ,

(2.3.10)

assieme alle analoghe relazioni che si ottengono ciclando gli indici. Infine, si
ha anche
L x , L 2 = L y , L 2 = L z , L2 = 0 .
(2.3.11)
Osservazione. Si noti bene che le relazioni sopra scritte possono essere verificate
usando esplicitamente la definizione di parentesi di Poisson. Ma `e di grande interesse
il fatto che esse possono essere verificate senza fare uso diretto della definizione,
facendo invece uso delle propriet`a 2) e 3) e delle parentesi di Poisson fondamentali.
Infatti tale procedimento pu`o essere allora esteso ad altri ambiti, come quello degli
operatori lineari in spazi vettoriali, che si presenta in meccanica quantistica. In
tal caso, si ha una operazione (il commutatore) che presenta le medesime propriet`a
formali delle parentesi di Poisson, e inoltre il procedimento di quantizzazione si
basa proprio sul postulare propriet`a analoghe a quelle delle parentesi di Poisson
fondamentali. Dunque in ambito quantistico varranno per i commutatori propriet`a
analoghe a quelle che sono state dimostrate valide per le parentesi di Poisson in
ambito classico.
Compiamo dunque concretamente il calcolo, ad esempio nel caso della prima
delle relazioni sopra indicate, ovvero {px , Lz } = py . Si ha
{px , Lz } = {px , xpy

ypx } = {px , xpy }

=x {px , py } + {px , x} py
=

27

py

{px , ypx }

y {px , px }

{px , y} px

(2.3.12)

Si noti in particolare come con questa scrittura scompaia la dissimmetria dovuta alla
presenza di un segno meno nelle equazioni di Hamilton.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 121


Un ruolo fondamentale nella dinamica del moto centrale `e svolto dalla
propriet`
a indicata nel seguente
Esercizio. Si consideri un punto materiale in un potenziale centrale a simmetria
sferica. Utilizzando il fatto che in coordinate sferiche si ha Lz = p' , cio`e Lz coincide
con il momento coniugato alla coordinata ' (longitudine), si mostri che Lz `e un
integrale del moto. Usando poi larbitrariet`a della scelta dellasse z, si concluda che
anche Lx e Ly (e quindi anche L2 ) sono integrali del moto. Quindi si ha
{L, H} = 0 ,

L2 , H = 0 .

(2.3.13)

Esercizio. Si determinino in maniera analoga gli integrali del moto per il problema
dei due corpi.
Esercizio. Usando lidentit`
a di Jacobi, si verifichi che la parentesi di Poisson
di due integrali del moto `e pure un integrale del moto (teorema di Jacobi). In
particolare, se due componenti del momento angolare sono costanti del moto, allora
`e costante del moto anche la terza componente.

Osservazione. Due variabili dinamiche la cui parentesi di Poisson sia nulla si


dicono in involuzione; con un linguaggio un po improprio, ispirato a quello della
meccanica quantistica, si dice anche che commutano. In generale, hanno grande
importanza gli integrali del moto in involuzione, specialmente quando ne esiste un
numero pari al numero dei gradi di libert`a. In tal caso si dice che si ha un sistema
completo di integrali in involuzione.28 Ad esempio, per il moto centrale si trova che
H, L2 e Lz costituiscono un sistema completo di integrali in involuzione.

2.3.4

Parentesi di Poisson e regole di quantizzazione

` interessante mettere in luce un aspetto algebrico che si presenta in reE


lazione alle parentesi di Poisson e che svolge un ruolo essenziale nel procedimento di quantizzazione. Si tratta del fatto che linsieme delle variabili
dinamiche nello spazio delle fasi F di un sistema dinamico, munito della
legge di prodotto definita dalla parentesi di Poisson, costituisce unalgebra
e pi`
u precisamente un algebra di Lie.
Richiami sulle algebre di Lie. Si dice algebra di Lie uno spazio vettoriale
munito di una opportuna relazione di prodotto che sar`a precisata qui sotto. A
tal fine occorre dunque anzitutto ricordare che le funzioni a valori reali definite
su un dominio (nel nostro caso le funzioni sono le variabili dinamiche, aventi per
dominio lo spazio delle fasi F) costituiscono uno spazio vettoriale (di dimensione
infinita). Infatti, esse possono essere sommate tra loro (per componenti, ovvero
mediante la regola29 (f + g)(x) = f (x) + g(x)) e moltiplicate per gli scalari (ancora
28
In meccanica quantistica gioca un ruolo molto importante lanaloga nozione di sistema
completo di osservabili che c
ommutano, e che siano eventualmente integrali del moto.
29
Leggi: il valore della funzione (f + g) in x `e uguale alla somma dei valori che le
funzioni f e g assumono in x. Questa defnizione di somma `e lanaloga di quella (ancora

122

Andrea Carati e Luigi Galgani

per componenti, cio`e mediante la regola (f )(x) = f (x) con 2 IR). Dunque,
per compiere il salto di pensare alle funzioni come vettori, lidea centrale che si
deve avere in mente `e di pensare al valore f (x) (il valore che ls funzione f assume
in x) come al valore della xesima componente del vettore f .30 Una funzione
f : IRn ! IR `e caratterizzata dallinsieme delle sue xesime componenti {f (x)} con
x 2 IRn , allo stesso modo in cui un vettore v = (v1 , , vm ) in IRm `e caratterizzato
dallinsieme delle sue iesime componenti {vi }. con i = 1, . . . , m31 Dunque le
variabili dinamiche costituiscono uno spazio vettoriale (di dimensione
infinita).
Daltra parte le variabili dinamiche possono essere anche moltiplicate tra di loro
in maniera ovvia (ancora per componenti, cio`e con la regola (f g)(x) = f (x)g(x)),
fornendo in tal modo per ogni coppia di variabili dinamiche una nuova variabile
dinamica, che pu`
o essere chiamata il loro prodotto.
Tuttavia la struttura pi`
u significativa e propriamente intrinseca per linsieme
delle variabili dinamiche (funzioni sullo spazio delle fasi) si ottiene quando la legge
di prodotto viene definita come la legge che ad ogni coppia di funzioni f , g associa
la nuova funzione {f, g}, definita dalla parentesi di Poisson di f e g. Ora, se si ha
un insieme che `e uno spazio vettoriale ed `e munito di una operazione di prodotto
tra coppie di elementi dellinsieme che soddisfa le propriet`a di 1) antisimmetria,
2) bilinearit`
a e 3) identit`
a di Jacobi, allora si dice che linsieme `e una algebra
di Lie. Dunque concludiamo che linsieme delle variabili dinamiche su uno
spazio delle fasi F `
e unalgebra di Lie rispetto al prodotto definito dalla
parentesi di Poisson.32

Il punto che a noi qui interessa `e che la struttura di algebra di Lie appare
anche in una ambito ben diverso,33 ovvero nellambito delle matrici in uno
spazio vettoriale IRn di dimensione arbitraria n (che rappresentano operatori
lineari di IRn in se, quando sia fissata una base). Infatti le matrici possono
essere evidentemente sommate tra loro (per componenti) e moltiplicate per
gli scalari (cio`e costituiscono uno spazio vettoriale). Inoltre possono essere
moltiplicate tra di loro (per omposizione, cio`e facendole agire luna dopo
laltra34 , il che corrisponde alla nota regola di prodotto riga per colonna. Ma
la struttura algebrica pi`
u significativa si ottiene quando come operazione di
per componenti) che si usa per i vettori in IRm definiti come muple: se v = (v1 , . . . , vm )
e w = (w1 , . . . , wm ), allora si definisce v + w = (v1 + w1 , . . . , vm + wm ).
30
Questa idea centrale `e chiarissimamente espressa e proprio in questa forma nei
primi libri in cui i grandi matematici introducevano lanalisi funzionale. Si veda ad esempio
J. von Neumann, I fondamenti matematici della meccanica quantistica, ed H. Weyl, The
theory of groups amd quantum mechanics, Dover (New York, 1931).
31
In entrambi i casi si ha un insieme I indici (I = {1, 2, , m} in un caso, I =
IRn nellaltro), e in entrambi i casi un vettore viene definito mediante una legge una
applicazione, come si dice che per ogni indice fornisce un numero reale. Lunica dierenza
sta nel fatto che linsieme degli indici `e finito in un caso, mentre `e un continuo nellaltro.
32
Le parentesi di Poisson soddisfano inoltre alla propriet`
a di Leinbiz (che `e detta
propriet`
a di derivazione).
33
Un altro esempio di algebra di Lie `e lo spazio euclideo tridimensionale, con il prodotto
tra vettori definito mediante la regola del prodotto vettore. Lidentit`
a di Jacobi viene
immediatamente verificata usando la nota regola del doppio prodotto vettore.
34
Una operazione non commutativa !

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 123


prodotto tra matrici si prende il commutatore. Se A, B sono due matrici,
allora il corrispondente commutatore, denotato con [A, B] `e definito da
[A, B] := AB

BA .

(2.3.14)

` un facilissimo esercizio verificare che le propriet`a analoghe alle (2.3.6)


E
(ovvero antisimmetria, linearit`
a a destra, regola di Leinbiz e identit`a di Jacobi) sono soddisfatte. In particolare, la verifica della identit`a di Jacobi, non
banalissima nellambito delle variabili dinamiche (funzioni sullo spazio delle
fasi F), `e ora immediata. Dunque linsieme degli operatori lineari in
IRn (o quello delle corrispondenti matrici che si ottengono fissando una base), quando venga munito delloperazione di prodotto
mediante il commutatore, costituisce unalgebra di Lie, e soddisfa
anche la regola di Leibniz.
Infine, per il passaggio alla meccanica quantistica il caso interessante `e
quello degli operatori lineari in uno spazio vettoriale di dimensione infinita,
munito di un prodotto scalare (spazio di Hilbert). Diamo qui un cenno di
questo problema solo ai fini di mettere in luce come sia rilevante lanalogia
con lo spazio delle variabili dinamiche classiche munito del prodotto definito
dalla parentesi di Poisson.35
Consideriamo un sistema fisico, e chiamamo con il nome di osservabili
le corrispondenti quantit`
a di interesse fisico (energia, momento angolare,
coordinate di una particella, ...). Nel modello classico, il sistema `e descritto
da uno spazio delle fasi F, e le osservabili sono rappresentate da variabili
dinamiche, cio`e da funzioni (a valori reali) aventi per dominio F; tra queste,
vi sar`a in particolare lhamiltoniana, che determina la dinamica.
Il salto cruciale compiuto da Heisenberg e Schrodinger nel 1925 consistette nel comprendere che, per un fissato sistema dinamico, la nuova meccanica (il nuovo modello che essi stavano costruendo) richiedeva che le osservabili non fossero pi`
u descritte da variabili dinamiche (funzioni a valori reali su
uno spazio delle fasi F), bens` da operatori lineari in uno spazio di Hilbert36
di dimensione infinita e quindi, sostanzialmente, da matrici con infiniti elementi (con indici discreti, come di consueto, o addirittura continui). Un
salto tanto grande pote essere compiuto solo attraverso una illuminazione,
ed infatti `e proprio in questi termini (Erleuchtung) che venne descritto da
Heisenberg stesso.37
Si deve poi avere una corrispondenza (detta regola di quantizzazione)
che associa ad ogni variabile dinamica classica f un operatore lineare f, e
35

Una discussione precisa richiederebbe di tenere conto del problema dei domini in cui
sono definiti gli operatori, mentre ci limitiamo qui ad una trattazione puramente formale.
36
Uno spazio di Hilbert `e per definizione uno spazio vettoriale complesso munito di
un prodotto interno (analogo del prodotto scalare), e completo rispetto alla topologia
naturalmente indotta dal prodotto interno.
37
Si veda lintroduzione di van der Waerden, Sources of quantum mechanics, Dover
(New York, 1968), pag. 25.

124

Andrea Carati e Luigi Galgani

si trattava di trovare la regola con cui determinare tale associazione. La


regola fu determinata indipendentemente in un fondamentale lavoro di Born,
Heisenberg e Jordan e in un altro di Dirac38 , e consiste sostanzialmente in
quanto segue: gli operatori sono definiti attraverso i loro mutui commutatori,
e daltra parte i commutatori fondamentali devono soddisfare certe propriet`a
analoghe a quelle delle parentesi di Poisson fondamentali, in cui deve entrare
la costante di Planck.
Ad esempio, consideriamo il caso di una particella nello spazio, sicche le variabili
dinamiche fondamentali sono x1 = x, x2 = y, x3 = z, p1 = px , p2 = py , p3 = pz , e
le parentesi di Poisson fondamentali sono
{xj , xk } = 0 ,

{pj , pk } = 0 ,

{xj , pk } =

jk

j, k = 1, 2, 3 . (2.3.15)

Allora la regola di quantizzazione inventata da Born, Heisenberg e Jordan, e indipendentemente da Dirac, `e la seguente: si devono trovare operatori lineari x
1 , x
2 , x
3 ,
p1 , p2 , p3 tali che si abbia39

x
j , x
k = 0 ,

pi , pk = 0 ,

x
j , pk = i~

jk

j, k = 1, 2, 3 , (2.3.16)

p
dove i =
1, mentre ~ = h/(2) `e la costante ridotta di Planck.40 Tra laltro,
con un argomento generale semplicissimo Born, Heisenberg e Jordan stabiliscono
subito che le regole di commutazione (2.3.16) possono essere soddisfatte solo per
operatori lineari agenti su spazi vettoriali di dimensione infinita.

Vediamo ora come questa prescrizione viene concretamente realizzata


con opportuni operatori in uno spazio di Hilbert, nel caso di una particella.
Ci limitiamo qui a un breve accenno al procedimento di Schrodinger, rinviando al corso di meccanica quantistica per una trattazione pi`
u generale.
Schr
odinger considera lo spazio di Hilbert delle funzioni complesse41 aventi per dominio IR3 (cio`e lo spazio delle configurazioni C), ovvero funzioni
complesse del tipo (x, y, z) (lettera greca psi). Allora `e evidente che si soddisfa la regola di quantizzazione realizzando gli operatori x
j , pj nel modo
38

Si tratta del celebre dreim


annerarbeit: M. Born. W. Heisenberg, P. Jordan, Zur
Quantenmechanik, Zeitschr. f
ur Physik 35 557615 (1926); traduzione inglese in van der
Waerden, Sources of quantum mechanics, Dover (New York, 1968), pag. 321. Si veda
anche P.A.M. Dirac, The fundamental equations of quantum mechanics, Proc. Royal Soc.
A 109, 642653 (1926), riprodotto in van der Waerden, pag. 307.
39
Nel caso di un solo grado di libert`
a, n = 1, le prime due relazioni sono ovvie, perche
ogni operatore commuta con se stesso. Il cuore di tutto `e quindi la terza relazione. Il
modo in cui Born, Heisenberg e Jordan vi pervennero, connesso alle cosiddette regole di
somma, appare ancor oggi stupefacente.

40
Si noti che il commutatore x
j , pk ha le dimensioni di una azione (energia tempo),
perche, come gi`
a ossrervato, il prodotto pq = @L
q ha le dimensioni della lagrangiana L.
@ q
cio`e di una energia. Invece, la parentesi di Poisson {f, g} di due generiche funzioni ha le
dimensioni del prodotto f g, divise per una azione: in particolare dunque la parentesi di
Poisson {qj , pk } `e un puro numero.
R
41
Con la propriet`
a di normalizzazione IR3 | |2 dxdydz = 1.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 125


seguente:
x
j (x, y, z) = xj (x, y, z) ,
@
pj (x, y, z) = i~
(x, y, z) .
@xj

(2.3.17)

Infatti, consideriamo per semplicit`


a un sistema costituito da un punto su una retta.
@
Denotando @x @x
, si ha ad esempio @x (x ) = + x@x ovvero x@x
@x (x ) =
; dunque, per larbitrariet`
a di , si ha lidentit`a operatoriale
x
@x

@x x
=

I ,

dove I denota loperatore identit`


a. Pertanto, moltiplicando per
px = i~@x , questa relazione di commutazione diventa

i~ e definendo

[
x, px ] = i~ I
che `e proprio quella richiesta da Born, Heisenberg, Jordan e Dirac. Analogamente
per le altre relazioni di commutazione per una particella nello spazio.
In tal modo, loperatore corrispondente allhamiltoniana classica
H=
diventa
=
H

p2
+ V (x)
2m

~2 @ 2
+ V (x) .
2m @x2

(2.3.18)

Analogamente, per una particella nello spazio riferita a coordinate cartesiane ortogonali, allhamiltoniana classica
H=

1
p2 + p2y + p2z + V (x, y, z)
2m x

viene a corrispondere loperatore


=
H
dove
=

~2
2m

+ V (x) ,

(2.3.19)

@2
@2
@2
+ 2+ 2
2
@x
@y
@z

`e loperatore laplaciano.

Si capisce cos` come sia possibile trasportare agli operatori quantistici


tutte le propriet`
a che, per le variabili dinamiche classiche, sono state dimostrate facendo uso della struttura algebrica delle parentesi di Poisson
(cio`e senza fare riferimento alla particolare realizzazione di quella struttura
mediante la definizione di parentesi di Poisson, che coinvolge nozioni relative
allo spazio delle fasi classico),

126

Andrea Carati e Luigi Galgani

Esercizio. Osserviamo che, poiche la componente Lz del momento angolare di


una particella `e definita classicamente da
Lz = xpy

ypx ,

il corrispondente operatore quantistico risulta definito da42


z = x
L
py

ypx ,

e analogamente per le altre componenti. Si controlli allora che si ha

z = i~ py ,
z = i~ px ,
z = 0
px , L
py , L
pz , L

x, L
y = i~ L
z
L

x, L
2 = L
y, L
2 = L
z, L
2 = 0 .
L

(2.3.20)

Usando le relazioni classiche (2.3.13) si constati poi che, per una particella in
un potenziale a simmetra sferica, si ha

2
H
=0,
,H
=0.
L,
L
(2.3.21)

Si constata pertanto che vale la seguente43


Regola di quantizzazione: per ottenere il commutatore di due operatori quantistici, basta considerare la parentesi di Poisson delle corrispondenti variabili dinamiche classiche, moltiplicarla per la costante i~ e sostituire le variabili dinamiche
con i corrispondenti operatori (cio`e aggiungere il cappuccio).

Si osservi che questa `e proprio la regola con cui sono stati ottenuti i
commutatori fondamentali a partire dalle parentesi di Poisson fondamentali. In eetti, ci`
o `e dimensionalmente consistente, perche `e gi`a stato osservato in una nota che il commutatore e la parentesi di Poisson di quantit`a
corrispondenti dieriscono dimensionalmente per una azione.

2.4
2.4.1

Le trasformazioni canoniche
Il problema

In ambito lagrangiano avevamo considerato cambiamenti di coordinate nello


spazio delle configurazioni C, ovvero Q = Q(q), o equivalentemente q =
q(Q), poiche si assume che le trasformazioni siano invertibili. Naturalmente
42

Si noti che nel passare dalla variabile dinamica classica al corrispondente operatore
non si hanno ambiguit`
a, perche lordine dei fattori `e irrilevante, dato che gli operatori che
intervengono commutano.
43
In eetti, le cose sono pi`
u complicate, perche il procedimento appena descritto non
risulta univoco quando nella variabile dinamica classica che si deve quantizzare si presents
un prodotto (come xpx ) di due quantit`
a che non c
ommutano. Si usano allora dei
procedimenti di simmetrizzazione. Ad esempio, xpx viene sostituito da (xpx + px x)/2.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 127


questi cambiamenti di coordinate comportano corrispondenti cambiamenti
di coordinate per le velocit`
a q e per i momenti p. Per quanto riguarda le
velocit`a abbiamo infatti
X
,
q = JQ
ovvero qi =
Jik Q k ,
(2.4.1)
k

dove
J=

@q
@Q

(2.4.2)

`e la matrice jacobiana della trasformazione.44 Per quanto riguarda i momenti


si trova invece una legge di trasformazione meno immediata, precisamente
X
P = JT p ,
ovvero Pi =
Jki pk ,
(2.4.3)
k

(dove T indica trasposizione). Infatti, usando la formula di derivata di


q
@q
funzione composta, e usando anche @@Q
= @Q (che segue da (2.4.1) e (2.4.2)),
si ha
X @ qk @L
X @ qk
@L
Pi =
=
=
pk .
@ Q i
@ Q i @ qk
@ Q i
k
k
Esempio: riscalamento. Per un sistema a un solo grado di libert`a, consideriamo
il riscalamento
q = aQ ,
(a 6= 0) .
Si ha allora evidentemente

q = aQ ,

ma si ha invece

1
P .
a
Infatti i momenti sono definiti attraverso unoperazione di derivazione, derivando
la lagrangiana rispetto alle velocit`
a, e daltra parte si ha (per il teorema di derivata
di funzione composta)
@
@ Q @
=
,
@ q
@ q @ Q
ovvero
@
1 @
=
,
@ q
a @ Q
p=

44

Abbiamo considerato ripetutamente lesempio del passaggio da coordinate cartesiane


a coordinate polari nel piano,
x = r cos ' ,

y = r sin ' ,

in cui si ha (si pensi r = r(t), ' = '(t))


x = r cos '

r' sin ' ,

y = r sin ' + r' cos ' .

128

Andrea Carati e Luigi Galgani

vale a dire p = (1/a)P , coerentemente con quanto aermato sopra in generale.


Applicazione: raddrizzamento delloscillatore armonico. Abbiamo
gi`
a visto che per loscillatore armonico lhamiltoniana `e data da
H(q, p) =

1 p2
1 p2
+ kq 2 =
+ m! 2 q 2 ,
2 m
2 m

dove si `e introdotta la frequenza angolare ! definita da ! 2 = k/m (ovvero k = m! 2 ).


Lhamiltoniana presenta una forma pi`
u simmetrica se si fattorizza ! , perch`e essa
assume allora la forma
H(q, p) =

!
2

p2
+ m! q 2 .
m!

(2.4.4)

` pertanto spontaneo introdurre la nuova variabile Q = pm! q, sicche, come


E
appena visto, il nuovo momento P deve essere riscalato con il fattore inverso, ovvero
si deve prendere
p
p
Q = m! q ,
P = p/ m! .
(2.4.5)
Daltra parte sappiamo a priori, per il modo in cui abbiamo dedotto le equazioni
di Hamilton, che nelle nuove variabili si hanno ancora le equazioni di Hamilton con
una hamiltoniana che `e nientaltro che quella vecchia espressa in termini delle nuove
coordinate e dei nuovi momenti. Nel nostro caso si ha dunque
! 2
H(P, Q) =
P + Q2 ,
(2.4.6)
2
sicche le curve di livello dellenergia nelle nuove variabli sono state raddrizzate, cio`e
sono dei cerchi invece che delle ellissi.

) di questo tipo,
Cambiamenti di variabili sulle (q, p) ( o sulle (q, q)
ovvero naturalmenteindotti da cambiamenti di variabili sulle sole q, vengono dette trasformazioni puntuali estese.45 Sappiamo allora che nelle
nuove variabili le equazioni hanno ancora la forma di Lagrange o di Hamilton, con riferimento a nuove funzioni di Lagrange e d Hamilton che si ottengono da quelle originali semplicemente per sostituzione di variabili (funzioni
composte).
Tuttavia, `e spesso utile considerare cambiamenti di variabili di tipo pi`
u
generale, in cui le variabili (q, p) vengano mescolate liberamente,
Q = Q(q, p, t) ,

P = P(q, p, t)

ed allora in generale avviene che le equazioni nelle nuove variabili non hanno
pi`
u forma hamiltoniana.
Esempio. Consideriamo loscillatore armonico monodimensionale con hamiltoniana (denotiamo qui con p, q le variabili che avevamo denotato con P , Q in
(2.4.6))
!
H(p, q) = (p2 + q 2 ) ,
! = costante .
(2.4.7)
2
45

Il nome `e dovuto al fatto che le trasformazioni sullo spazio delle fasi sono indotte a
partire da cambiamenti eettuati soltanto sulle coordinate q che individuano un punto
dello spazio delle configurazioni C.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 129


Sembrerebbe molto spontaneo operare un cambiamento di variabili a coordinate
polari nel piano delle variabili q, p (spazio delle fasi), precisamente
q = r sin '

(2.4.8)

p = r cos ' ,
ovvero
r 2 = p2 + q 2 ,

' = arctan (q/p)

(si noti r2 = 2E/!). Ora, si potrebbe ingenuamente immaginare che nelle nuove
variabili le equazioni di moto abbiano ancora forma hamiltoniana, con una nuova
hamiltoniana K(r, ') ottenuta dalla vecchia per sostituzione di variabili, ovvero
! 2
r .
2

K(r, ') =

(2.4.9)

Ma ci`
o non `e vero. Infatti, se cos` fosse, allora le equazioni di moto sarebbero
' =

@K
,
@r

r =

@K
,
@'

ovvero
r = 0

(2.4.10)

' = !r ,

mentre sappiamo che per loscillatore armonico le equazioni di moto nelle variabili
r, ' sono
r = 0

(2.4.11)

' = ! .

Infatti, lequazione r = 0 esprime la conservazione dellenergia, mentre lequazione


' = ! (=costante) descrive il fatto che i movimenti sono is
ocroni, cio`e hanno tutti
il medesimo periodo, indipendente dallampiezza. In altri termini, il flusso `e una
rotazione uniforme con velocit`
a angolare !.46
corretta variabile coniugata a ' non `e r =
p Si controlla immediatamente che la
2
2
2
p2 + q 2 , ma bens` la quantit`
a I := r2 p +q
= E
2
! , che ha le dimensioni di una
azione (come sappiamo che deve essere, perche il prodotto pq ha le dimensioni di una
azione, e qui q `e un angolo, che `e adimensionale). Ovvero, il corretto cambiamento
di variabili `e (q, p) ! (', I), dove
I=
46

p2 + q 2
,
2

' = arctan

q
,
p

Pi`
u direttamente, le equazioni di moto
q = !p ,

p =

!q

hanno per soluzione del problema di Cauchy


q(t) = q0 cos !t + p0 sin !t ,

p(t) =

q0 sin !t + p0 cos !t .

130

Andrea Carati e Luigi Galgani

con inversa
q=
p=

p
p

2I sin '

(2.4.12)

2I cos ' .

Infatti, se si usano le nuove variabili (I, ') definite da (2.4.12), la hamiltoniana K


che si ottiene da H per sostituzione di variabili assume la forma K(r, ') = !I, cui
corrispondono le equazioni di Hamilton I = 0 ( e dunque r = 0), ' = !, che sono le
corrette equazioni del moto. Questo fatto verr`a confermato nel prossimo paragrafo
usando la tecnica della funzione generatrice.
In questo caso abbiamo dunque determinato un interessante cambiamento di
variabili che non `e del tipo puntuale esteso, ma tuttavia ha la propriet`a che le
equazioni sono ancora in forma di Hamilton, e perdipi`
u con la nuova hamiltoniana
che coincide con quella originale (a meno di sostituaione di variabili). Ci`o per`o
`e avvenuto perche la scelta delle variabili `e stata compiuta in una maniera ben
particolare.
Generalizzazione: il problema delle variabili angoloazione. Nellesempio
delloscillatore armonico siamo riusciti a determinare quale `e la giusta variabile
coniugata alla variabile angolare ' nel piano delle fasi: si tratta dellazione I (si
ricordi che in generale il prodotto pi qi ha le dimensioni di una azione, e quindi
I `e una azione, perche `e coniugata allangolo, che `e adimensionale). Il fatto pi`
u
interessante `e per`
o che in tal modo la nuova hamiltoniana, che chiameremo ancora
H, che a priori era una funzione delle due variabili ', I, in eetti dipende solo da una
delle due variabili, ovvero dallazione: H = H(I). Una situazione di questo genere
realizza lideale massimo che si pu`o ottenere mediante cambiamenti di variabili,
perche mette subito in rilievo che la I stessa `e una costante del moto (infatti,
I = @H
@' = 0.)
Pi`
u in generale, per un sistema a n gradi di libert`a ci si pone il problema
se sia possibile trovare un cambiamento di coordinate tale che le nuove equazioni
siano ancora in forma hamiltoniana, inoltre met`a delle variabili siano angoli ' =
('1 , . . . , 'n ) (sicche le restanti variabili I = (I1 , . . . , In ) coniugate agli angoli sono
azioni) e infine la nuova hamiltoniana dipenda solo dalle azioni:
H = H(I) .
Se ci`
o avviene si dice che il sistema ammette variabili angoloazione. In tal caso i
movimenti sono particolarmente semplici, perche si ha
I = 0
' = !(I)

dove

!(I) =

@H
,
@I

(2.4.13)

e dunque
I(t) = I0 ,

'(t) = !0 t + '0

dove

!0 = !(I0 ) .

(2.4.14)

Si noti che nelle relazioni precedenti sia le azioni I sia gli angoli ' sono nuple,
' = ('1 , . . . , 'n ), I = (I1 , . . . , In ), e cos` anche la frequenza, ! = (!1 , . . . !n ), con
@H
!k = @I
.
k

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 131


Si ha dunque anzitutto il problema di caratterizzare delle buone trasformazioni di variabili coinvolgenti liberamente le (q, p). Si pone la
Definizione: Siano date, nello spazio delle fasi F di un sistema hamiltoniano,
delle coordinate x = (q, p) ottenute naturalmente a partire da arbitrarie coordinate q nello spazio delle configurazioni C. Si considerino poi tutte le possibili
trasformazioni di coordinate x ! X = (Q, P) nello spazio delle fasi, coinvolgenti
liberamente le coordinate x = (q, p), eventualmente dipendenti parametricamente
dal tempo. Tra tutte queste trasformazioni vengono dette trasformazioni canoniche quelle caratterizzate dalla propriet`a che, qualunque sia la hamiltoniana
originale H = H(x, t), le equazioni di moto nelle nuove coordinate abbiano
ancora forma di Hamilton con una opportuna hamiltoniana K = K(X, t).

Le trasformazioni canoniche sono particolarmente utili sotto molti punti


di vista, ad esempio per i calcoli che si incontrano nella teoria delle perturbazioni. Cos`, alcuni teoremi fondamentali della teoria delle perturbazioni
si ottengono in maniera abbastanza semplice in ambito hamiltoniano, mentre hanno richiesto sforzi enormi a grandissimi studiosi come Lagrange e
Laplace, che non erano ancora in possesso di tale formalismo. Lo studio
delle trasformazioni canoniche pu`
o essere compiuto in maniera compatta e
brillante se si dispone degli strumenti geometrici sottostanti il formalismo
hamiltoniano cui si `e gi`
a fatto riferimento. In queste note ci limitiamo a una
presentazione delle trasformazioni canoniche che fa riferimento alla tecnica
tradizionale delle funzioni generatrici, illustrato nel prossimo paragrafo.

2.4.2

La tecnica delle funzioni generatrici

Vi sono diversi modi equivalenti di caratterizzare le trasformazioni canoniche: mediante ciascuno di tali modi, data una particolare trasformazione,
`e in linea di principio possibile controllare se la trasformazione `e canonica.
Esiste invece una caratterizzazione che `e anche di tipo costruttivo, cio`e permette in concreto di generare trasformazioni canoniche convenienti. Si tratta
del cosiddetto metodo della funzione generaltrice, che ora passiamo ad
esporre.
Nel capitolo sui Principi Variazionali verr`a mostrato che le trasformazioni
canoniche si costruiscono in maniera esplicita mediante una funzione generatrice F = F (q, p, t). Precisamente, si dimostra che affinche la trasformazione Q = Q(q, p, t), P = P(q, p, t) sia canonica, deve esistere, per ogni
hamiltoniana H, una nuova hamiltoniana K tale che si abbia
p dq

P dQ

(H

K)dt = dF ,

(2.4.15)

con una opportuna funzione F (detta funzione generatrice). In altri termini,


deve essere possibile determinare una funzione K tale che la forma dierenziale del primo ordine (o 1forma) definita dal primo membro della (2.4.15)
sia un dierenziale esatto. La condizione (2.4.15) viene detta condizione di

132

Andrea Carati e Luigi Galgani

Lie. Mostriamo ora come questa condizione permetta di costruire concretamente le trasformazioni mediante operazioni di derivazione (pi`
u inversione)
su una arbitraria funzione.
Naturalmente, nella (2.4.15) si intende che le variabili indipendenti siano
(q, p), e le altre quantit`
a (come P, Q, H, K ed F ) siano funzioni di queste.
Daltra parte, si osserva che la struttura stessa della (2.4.15) invita a prendere in considerazione quella sottoclasse di trasformazioni in cui si possono
scegliere (q, Q) come variabili indipendenti in luogo di (q, p).
Per comprendere cosa questo significhi, consideriamo lesempio del passaggio dalle
coordinate cartesiane a quelle polari nel piano. Per un punto generico del piano
(diverso dallorigine delle coordinate) passano le linee coordinate x, y (retta orizzontale, retta verticale) e le linee coordinate r, ' (raggio, cerchio). Ora, affinche
due variabili costituiscano un buon sistema di coordinate in un aperto D, lunica
propriet`
a che si richiede `e che in ogni punto di D le linee coordinate non siano
tangenti (perche si vuole che muovendosi liberamente lungo le due linee si possa
` quindi evidente che le coordinate (x, y)
esplorare un dominio bidimensionale). E
sono buone coordinate in tutto il piano (sono globali, come si dice), mentre esistono
aperti in cui sono buone coordinate anche le coordinate (x, ') oppure le coordinate
(x, r). Infatti, considerando ad esempio le prime, `e evidente che, tranne che sulla
retta x = 0, le linee coordinate x e ' si tagliano trasversalmente.47 Dal punto di
vista analitico, la possibilit`a di prendere (x, ') come variabili indipendenti in luogo
di (r, ') corrisponde al fatto che nellespressione del cambiamento di variabili
x = r cos '
y = r sin '

(2.4.16)

3
si ha @x
e fuori dallasse x = 0), per cui si pu`o inver@r 6= 0 (per ' 6= 2 , 2 , cio`
tire la prima delle (2.4.16) ottenendo r = cosx ' , e la seconda diviene allora, per
sostituzione, y = x tan '.

Tornando alla (2.4.15), con riferimento al cambiamento di variabili


Q = Q(q, p, t)
P = P(q, p, t) ,

(2.4.17)

47
Un disegno delle linee coordinate mostra a colpo questo fatto. Diamone comunque
anche una verifica formale. Con le notazioni del capitolo sulle equazioni di Lagrange, la
formula di immersione x = x(x, ') `e data da x = i x + jx tan ' (si ricordi y = x tan ').
Dunque i vettori coordinati sono

@x
= i + j tan ' ,
@x

@x
x
=j
.
@'
cos2 '

Per controllare se le linee coordinate si tagliano trasversalmente, basta controllare che


sia non nullo il prodotto vettore dei due vettori coordinati. Daltra parte tale prodotto
vettore `e dato da
@x
@x
x

=
k,
@x
@'
cos2 '
e quindi si annulla solo sullasse x = 0.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 133


ammetteremo che esista un aperto in cui si possano prendere (q, Q) come
variabili indipendenti in luogo di (q, p). Ci`o `e equivalente a richiedere che
in tale aperto sia
@Q
det
6= 0 ,
(2.4.18)
@p
sicche dalla seconda delle (2.4.17) si ottiene
p = p(q, Q, t) .

(2.4.19)

F1 (q, Q, t) := F (q, p(q, Q), t) ,

(2.4.20)

Infine denotiamo
dove F `e la funzione la cui esistenza `e garantita dallipotesi che sia soddisfatta la condizione di Lie (2.4.15). La condizione di Lie assume dunque la
forma
p dq P dQ (H K)dt = dF1 .
(2.4.21)
Da tale condizione, scrivendo
dF1 =

@F1
@F1
@F1
dq +
dQ +
dt ,
@q
@Q
@t

per confronto con la (2.4.21) si ottiene subito


p=

@F1
,
@q

P=

@F1
,
@Q

K=H+

@F1
.
@t

(2.4.22)

In questo modo, eseguendo delle derivate sulla funzione F1 si ottiene p =


p(q, Q, t), P = P(q, Q, t), ovvero si ottiene la trasformazione canonica considerata, a meno dellinversione Q = Q(q, p, t); la possibilit`a di questa in
1
@p
versione `e garantita in virt`
u della (2.4.18) perche det @Q
= det @Q
. In@p
oltre la condizione (2.4.18) si esprime, in termini della funzione generatrice
F1 (q, Q, t) nella forma
@ 2 F1
det
6= 0 .
(2.4.23)
@q@Q
Viceversa, se si sceglie una arbitraria funzione F1 (q, Q, t) (detta funzione
generatrice) sodisfacente la condizione di nondegenerazione (2.4.23), allora
la condizione di Lie (2.4.15) `e evidentemente soddisfatta per costruzione.
Abbiamo cos` dimostrato il
Teorema 2 Per ogni funzione F1 (q, Q, t) soddisfacente la propriet`
a di nondegenerazione (2.4.23), la trasformazione (q, p) ! (Q, P), definita (ad ogni
tempo t) da
@F1
@F1
p=
, P=
,
(2.4.24)
@q
@Q

134

Andrea Carati e Luigi Galgani

pi`
u inversione, `e canonica, e ad ogni hamiltoniana H corrisponde una nuova
hamiltoniana K definita da
K=H+

@F1
.
@t

In particolare, la nuova hamiltoniana K si ottiene dalla vecchia H per semplice sostituzione di variabili se la trasformazione non dipende dal tempo
1
( @F
@t = 0).
Esercizio: lazione come variabile coniugata allangolo nel piano delle
fasi di un oscillatore armonico. Per loscillatore armonico abbiamo osservato che, avendo gi`
a eettuato il riscalamento che porta lhamiltoniana nella forma
simmetrica o raddrizzata(2.4.8), H = (!/2) (p2 + q 2 ), `e spontaneo introdurre
nel piano nelle fasi (q, p) due nuove coordinate (Q, P ), delle quali una (diciamo Q)
coincida con langolo ' definito nel piano delle fasi da
p
= cot ' .
q

(2.4.25)

Dunque poniamo Q '. Il problema `e allora come debba essere scelta la buona
variabile P coniugata alla Q '. Gi`a sappiamo che P deve avere le dimensioni di
una azione.48
Per determinare lazione P , osserviamo che la definizione (2.4.25) di Q ' pu`
o
essere scritta come
p = q cot Q ,
che ha proprio la forma della prima delle (2.4.24),
p=

@F1
,
@q

F1 = F1 (q, Q) .

La funzione F1 risulta dunque determinata, e si ha


F1 (q, Q) =
Resta allora determinata P =
P =

@F1
@Q ,

49

q2
cot Q .
2

ovvero

1 2
1
q (1 + cot2 Q) = (p2 + q 2 ) .
2
2

(2.4.26)

Osservazione: lanalogo classico degli operatori di creazione e di dis` ben noto che il numero complesso z = x+iy corrisponde al vettore di
truzione. E
componenti cartesiane (x, y) in un piano (piano di ArgandGauss), e che il prodotto di un numero complesso z per il numero ei corrisponde a ruotare il vettore di
angolo . Quindi la rappresentazione dei punti di un piano cartesiano mediante
48
Perche il prodotto P Q ha le dimensioni di una azione, e langolo Q ' `e
adimensionale.
49
Si avrebbe in eetti la possibilit`
a di aggiungere a F1 una arbitraria funzione G = G(Q).
Si vede immediatamente che si ottiene in tal modo una nuova azione P = P + f ('), dove
f `e una arbitraria funzione dellangolo '.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 135


numeri complessi `e particolarmente utile quando si abbia a che fare con rotazioni
nel piano,50 come avviene per loscillatore armonico. Infatti abbiamo gi`a osservato
che per loscillatore armonico raddrizzato, ovvero con hamiltoniana
H(q, p) =

! 2
(q + p2 ) ,
2

(2.4.27)

il flusso nel piano delle fasi `e una rotazione uniforme di velocit`a angolare !.
Nello studio delloscillatore armonico `e dunque spontaneo introdurre la variabile
complessa
p + iq
z= p
.
2
Si pone allora il problema di completare la trasformazione scegliendo opportunamnete la variablie w coniugata alla z.
Esercizio. Si dimostri che il cambiamento di variabili (q, p) ! (z, w) con
z=

p + iq
p
,
2

w=

iq
=
2

i z

(2.4.28)

(dove z `e il complesso coniugato di z) `e canonico. Si trova quindi che nelle nuove


variabili le equazioni sono ancora in forma di Hamilton, con hamiltoniana ottenuta
da quella originale (2.4.27) semplicemente per sostituzione di variabili
! z z .

H = i ! zw

Svolgimento. In analogia con lesercizio precedente, si fa svolgere a z il ruolo


di Q, e quindi conviene invertire la definizione di z, ottenendo
p
p = 2 z iq .
Per confronto con p =

@F1
@q

si ottiene allora51

F1 (q, z) = i
Si trova allora per w =

@F1
@z

z2
2

q2
2

lespressione w =
w=

ip q
p
=
i 2

2 zq .

iz

2q ovvero

i z .

Osservazione. Nei testi di meccanica quantistica, a partire da quello classico


di Dirac, si introducono (a meno di una costante moltiplicativa) le variabili
a z,

a z .

50 `
E un utile esercizio ritovare le note formule per le componenti radiale e trasversa della
velocit`
a e dellaccelerazione, rappresentando il moto x = x(t), y = y(t) come moto nel
piano complesso
x(t) + iy(t) = z(t) = (t)ei#(t) .

51

Si `e scelta la costante arbitraria come data da i z 2 /2.

136

Andrea Carati e Luigi Galgani

Ovviamente, questa trasformazione non `e canonica, e le equazioni di moto, come


subito si controlla, sono ora della forma52
a = i

@H
,
@a

a =

@H
.
@a

Le variabili a ed a, quando vengono quantizzate, svolgono il ruolo rispettivamente dioperatori di creazione e di distruzione, in un senso che qui non possiamo
spiegare. .
Osservazione. Si noti che la trasformazione a variabili complesse (2.4.28) viene
impiegata non soltanto in connessione con la meccanica quantistica, ma anche molto
comunemente in ambito puramente meccanico, come passaggio preliminare per la
teoria delle perturbazioni,

Abbiamo dunque trovato una classe di trasformazioni canoniche che vengono concretamente costruite in termini di una arbitraria funzione generatrice F1 = F1 (q, Q). La classe di trasformazioni canoniche cos` definita `e
interessante, ma non contiene le trasformazioni pi`
u significative per la teoria
delle perturbazioni, ovvero le trasformazioni prossime allidentit`a. Infatti
non vi appartiene neppure la trasformazione identica Q = q, P = p, perche
per essa si ha @Q
e dunque violata la condizione di nondegener@p = 0, ed `
azione. Si tratta allora di trovare anzitutto una funzione generatrice per
la trasformazione identit`a, e ci`o si ottiene osservando che per tale trasfor@Pi
mazione `e invece det @P
e @p
= ik . Dunque per generare
@p 6= 0, perch
k
la trasformazione identit`a sar`a conveniente assumere (q, P) anziche (q, Q)
come coppia di variabili indipendenti in luogo delle originarie (q, p). Lesperienza che abbiamo sulla trasformata di Legendre ci mostra subito come
procedere partendo dalla condizione di Lie (2.4.15). Volendo sostituire P a
Q come variabile indipendente, si utilizza lidentit`a
P dQ = d(P Q)

Q dP ,

(2.4.29)

sicche la condizione di Lie prende la forma


p dq + Q dP

(H

K)dt = dF2 ,

F2 = F + P Q .

(2.4.30)

` allora evidente, per analogia con quanto visto sopra, che si ha il


E
Teorema 3 Per ogni funzione F2 (q, P, t) soddisfacente la propriet`
a di nondegenerazione
@ 2 F2
det
6= 0 ,
(2.4.31)
@q@P
la trasformazione (q, p) ! (Q, P), definita (ad ogni tempo t) da
p=
52

@F2
,
@q

Qui abbiamo denotato


a

Q=
da
.
dt

@F2
@P

(2.4.32)

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 137


pi`
u inversione, `e canonica, e la nuova hamiltoniana K `e data da
K=H+

@F2
.
@t

In particolare, la nuova hamiltoniana K si ottiene dalla vecchia H per semplice sostituzione di variabili se la trasformazione non dipende dal tempo
2
( @F
@t = 0).
Il primo importante esempio `e il seguente.
Esempio: la trasformazione identica e quella di riscalamento. La funzione
generatrice
F2 (q, P) = P q
(2.4.33)
produce la trasformazione identica Q = q, P = p. Questo `e un caso particolare
della trasformazione di riscalamento
Q=aq,

P = p/a ,

che `e pure canonica (si prenda la funzione generatrice F2 (q, P) = a P q).

Lesempio seguente svolge un ruolo fondamentale nella teoria delle perturbazioni. Ricordiamo che una trasformazione generale della forma
Q = Q + g(q, p)
P = P + f (q, p) ,

(2.4.34)

con piccolo, e funzioni (vettoriali) f , g arbitrarie, viene detta trasformazione prossima allidentit`
a. Si ha allora il problema di generare le trasformazioni prossime allidentit`
a che siano canoniche.
Esempio: trasformazioni canoniche prossime allidentit`
a. Dato che la funzione generatrice F2 (q, P) = P q produce la trasformazione identit`a (corrispondente a = 0), prenderemo
F2 (q, P) = P q + G(q, P)

(2.4.35)

con G arbitraria. Le (2.4.32) forniscono allora la trasformazione canonica definita


implicitamente da
@G
(q, P)
@P
@G
p=P+
(q, P) .
@q

Q=q+

Si noti che, essendo

@pi
@Pj

ij

(2.4.36)

i
+ @G
a si deduce che si
@pj , banalmente per continuit`

@p
ha det @P
6= 0 per sufficientemente piccolo (operando in un dominio limitato).
Dunque si pu`
o invertire la seconda delle (2.4.36). Facendo anche uso di

G(q, P) = G(q, p) + O() ,

138

Andrea Carati e Luigi Galgani

si ottiene infine
@G
(q, p) + O(2 )
@p
@G

(q, p) + O(2 ) .
@q

Q=q+
P=p

(2.4.37)

Confrontiamo ora la trasformazione canonica generata dalla funzione G(q, P),


con la trasformazione indotta al tempo dalle soluzioni delle equazioni di Hamilton
con hamiltoniana G(q, p). Ci`o vuol dire che si considerano le equazioni di Hamil@G

ton q = @G
@p , p =
@q , e poi si considera la soluzione q(q0 , p0 , t), p(q0 , p0 , t)
corrispondente al dato iniziale q0 , p0 , e la si valuta al tempo t = . Coerentemente
con la terminologia che verr`a impiegata nei prossimi paragrafi, questa famiglia di
trasformazioni (dipendente dal parametro ) viene detta flusso (nello spazio delle
fasi) generato da G, e viene denotata con G . Allora si ha evidentemente
@G
(q0 , p0 ) + O(2 ) ,
@p
@G

(q0 , p0 ) + O(2 )
@q

q(q0 , p0 , ) = q0 +
p(q0 , p0 , ) = p0

(2.4.38)

Confrontando la (2.4.37) e la (2.4.38) si ottiene allora la seguente


Proposizione 1 Per ogni funzione G(q, p), ed sufficientemente piccolo, la trasformazione canonica ottenuta dalla funzione generatrice (2.4.35) mediante la (2.4.36)
coincide, a meno di termini dellordine di 2 , con il flusso al tempo generato dalla
hamiltoniana G.
Il fatto appena dimostrato suggerisce che, ad ogni tempo t, la trasformazione
indotta dalle soluzioni delle equazioni da Hamilton con una qualsiasi hamiltoniana
H sia esattamente una trasformazione canonica (con una opportuna funzione generatrice). Detto concisamente, si suggerisce che il flusso tH sia una famiglia di
trasformazioni canoniche. Ci`o sar`a dimostrato nel capitolo sui principi variazionali.
Si dar`
a pure una caratterizzazione della corrispondente funzione generatrice, che
risulter`
a coincidere con la azione hamiltoniana S.

Notiamo che il procedimento che genera le trasformazioni canoniche


prossime allidentit`
a mediante flussi al tempo di un sistema hamiltoniano
ha il vantaggio, rispetto a quello tradizionale della funzione generatrice, di
non richiedere linversione di un sistema di n equazioni in n incognite. Esso `e
stato adottato recentemente nella teoria delle perturbazioni hamiltoniane.53
Il corrispondente metodo viene talvolta chiamato metodo di Lie.
In appendice viene riportata una discussione dei sistemi integrabili, dellequazione di HamiltonJacobi e della teoria delle perturbazioni.54
53

Si veda ad esempio G. Benettin, L. Galgani, A. Giorgilli, J. M. Strelcyn, A proof of


Kolmogorovs theorem by the Lie method, Nuovo Cimento 1985.
54
Non ancora disponibile nella presente versione delle note.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 139

2.5

2.5.1

Simmetrie e costanti del moto: il teorema di


Noether. Gruppi di trasformazioni nello spazio
delle fasi e loro generatori
Motivazione

Abbiamo gi`
a osservato, nei richiami sulle equazioni di Newton, e poi nel
capitolo sulle equazioni di Lagrange, come la presenza di costanti del moto
sia legata a propriet`
a di simmetria del sistema considerato. Infatti, dalle
@L
equazioni di Lagrange pi = @q
(dove pi = @@L
e il momento coniugato a qi )
qi `
i
@L
segue che ad esempio la propriet`
a p1 = 0 `e equivalente a @q
= 0. In altri
1
termini, il momento coniugato alla variabile q1 `e una costante del moto se
e solo se la lagrangiana non dipende da q1 .55 Daltra parte, la circostanza
@L

che si abbia @q
= 0 pu`
o anche esprimersi dicendo che la funzione L(q, q)
1
`e invariante per traslazioni lungo lasse q1 (il valore di L non cambia se si
incrementa la variabile q1 lasciando invariate tutte le altre) o anche che la
lagrangiana `e simmetrica per traslazioni della variabile q1 . In questo senso
si ha una relazione evidente tra esistenza di costanti del moto e propriet`a di
simmetria della lagrangiana.
Osservazione. Conviene qui ricordare che una trasformazione
Q = f (q)
sulle variabili q, come ad esempio la traslazione lungo q1 (ovvero la trasformazione
Q1 = q1 + h, Qi = qi per i = 2, , n, con h 2 IR) induce naturalmente una
ottenuta semplicemente con la regola
corrispondente trasformazione sulle velocit`a q,
di derivazione di funzione composta, ovvero
= @f q
Q
@q
= q nel caso sopra ci(ad esempio, semplicemente la trasformazione identica Q
tato della traslazione lungo q1 ). In modo analogo si induce naturalmente una
trasformazione sui momenti p. Tale trasformazione nello spazio degli stati (variabili
o nello spazio delle fasi (variabili p, q) naturalmente indotta da una trasforq, q)
mazione Q = f (q) nello spazio delle configurazioni si dice talvolta estensione o
sollevameno o prolungamento della corrispondente trasformazione nello spazio delle
configurazioni. Il nome classico `e trasformazione puntuale estesa.
Esempi tipici per una particella nello spazio.
Invarianza della lagrangiana per traslazioni lungo lasse delle x, Riferendosi a coordinate cartesiane ortogonali, ammettiamo che lenergia potenziale
V (x, y, z) non dipenda da x:
V = V (y, z)
55

ovvero

@V
=0.
@x

Si usa anche dire, in tal caso, che la variabile q1 `e ciclica.

140

Andrea Carati e Luigi Galgani


Allora la lagrangiana `e data da
L=

1
m(x 2 + y 2 + z 2 )
2

V (y, z) .

Dunque la lagrangiana `e invariante per traslazioni lungo lasse delle x, ovvero


si ha @L
o comporta px = 0, ovvero si conserva (`e costante del moto)
@x = 0. Ci`
px mx (la quantit`a di moto lungo lasse x).
Invarianza della lagrangiana per rotazioni attorno a un asse fisso, ad esempio
lasse z. Usando coordinate cilindriche r, ', z riferite allasse z, ammettaimo
che lenergia potenziale sia invariante per rotazioni allasse z, cio`e si abbia
V = V (r, z)
Si ha pertanto
L=

@V
=0.
@'

ovvero

1
m(r 2 + r2 ' 2 + z 2 )
2

V (r, z) ,

e dunque @L
e invariante per rotazioni attorno
@' = 0, ovvero la lagrangiana `
allasse z. Ci`
o comporta p ' = 0, ovvero si conserva (`e costante del moto) la
variabile dinamica p' mr2 ' Lz m(y z z y)
(proiezione del momento
angolare lungo lasse z).56

Dunque, per una particella nello spazio la simmetria della lagrangiana


sotto traslazioni lungo un asse `e equivalente alla conservazione della proiezione
della quantit`
a di moto lungo quellasse, mentre la simmetria della lagrangiana
sotto rotazioni attorno a un asse `e equivalente alla conservazione della proiezione
del momento angolare lungo quellasse. Analogamente, avevamo mostrato
che per un sistema lagrangiano generale la conservazione dellenergia generalizzata (ovvero dellhamiltoniana) `e equivalente al fatto che si abbia @L
@t = 0,
cio`e, nella terminoloigia ora adottata, al fatto che si abbia simmetria della
lagrangiana per traslazioni lungo lasse temporale.
Si vede dunque da questi esempi che lesistenza di una costante del moto
`e equivalente a una corrispondente simmetria della lagrangiana nello spazio

degli stati (con coordinate (q, q));


in eetti, nel caso dellenergia, abbiamo
addirittura considerato la generalizzazione in cui tra le variabili si include
anche il tempo). Intendiamo ora precisare queste nozioni ed enunciare delle
precise relazioni tra esistenza di simmetrie ed esistenza di leggi di conservazione (o di costanti del moto). Questi fatti vengono illustrati nella maniera
pi`
u semplice facendo riferimento alla formulazione della dinamica in forma
56

Si ha
p' =

@L
@ x @L
@ y @L
=
+
@ '
@ ' @ x
@ ' @ y
@ x
@ y
=
px +
py ,
@ '
@ '

e dalla trasformazione a coordinate polari si ottiene

@ x
@ '

(2.5.1)

y,

@ y
@ '

= x.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 141


hamiltoniana nello spazio delle fasi (variabili q, p, eventualmente includendo
tra le variabili anche il tempo t).

2.5.2

Gruppi (a un parametro) di trasformazioni nello spazio


delle fasi e loro generatori

Consideriamo un sistema fisico con il suo spazio delle fasi F riferito a coordinate canoniche (q, p) x, e sia assegnata una hamiltoniana H = H(x).
Sappiamo allora che questa hamiltoniana induce dei corrispondenti movimenti x = x(t) come soluzioni delle corrispondenti equazioni di Hamilton
x = E grad H dove E `e la matrice simplettica standard definita pi`
u sopra,
ovvero, pi`
u concretamente, le equazioni
q =

@H
,
@p

p =

@H
.
@q

Pi`
u, in generale, per ogni variabile dinamica f (q, p), pensata come funzione
composta del tempo, si ha allora
f = {f, H} .
In particolare si osservi come, prendendo f (q, p) = pi oppure f (q, p) = qi , si
ottiene
qi = {qi , H} , pi = {pi , H} , i = 1, , n ,
sicche si trova che le equazioni di moto stesse assumono forma pi`
u simmetrica.

Se `e assegnato un dato iniziale x0 , sappiamo dunque che esiste una unica


soluzione x(t) = x(t, x0 ) che soddisfa la condizione iniziale x(0) = x0 . Qui
abbiamo fissato il dato iniziale x0 e seguto la corrispondente soluzione (il
` significacorrispondente movimento) man mano che scorre il tempo t. E
tivo ora riguardare alla medesima situazione da un altro punto di vista, in
qualche modo complementare. Si mette laccento sul fatto che levoluzione
`e definita per tutti i possibili dati iniziali x0 , cio`e per tutti i punti dello
spazio delle fasi F. Man mano che scorre il tempo, tutti i punti dello spazio
delle fasi si muovono insieme, similmente al modo in cui fluiscono i punti
costituenti la superficie di un fiume. In altri termini, pensando al tempo
t come a un parametro, si osserva il fluido ad ogni tempo t e si pu`o fare
lanalogo di una fotografia (una istantanea, come direbbe Einstein), che ci
mostra dove sono finiti, a quel tempo, tutti i punti della superficie del fiume.
In altri termini, ad ogni tempo t `e determinata (mediante le soluzioni delle
equazioni del moto in corrispondenza di tutti i punti iniziali possibili) una
trasformazione dello spazio delle fasi in se
t

: F !F

(t 2 IR) ,

e si ha in tal modo (facendo variare il parametro t) una famiglia a un


parametro di trasformazioni (mappings) dello spazio delle fasi in se, famiglia

142

Andrea Carati e Luigi Galgani

indotta dalle equazioni di moto individuate dalla hamiltoniana H (ovvero,


generata da H). Anzi, per mettere in luce il fatto che questa famiglia t `e
generata dallhamiltoniana H, la denoteremo con
t
H

: F !F

(t 2 IR) ,

e la chiameremo flusso nello spazio delle fasi generato da H. Diremo


anche che H `e il generatore del flusso tH .
Osserviamo per inciso che, se H `e indipendente dal tempo, si ha la fondamentale
conseguenza57 che il flusso generato da H `e in eetti un gruppo (rispetto al tempo),
cio`e si ha
t+s
s
t
0
H ,
H = Id
H = H
(ovvero

t+s
H (x)

s
H

t
H (x)

).

Abbiamo dunque illustrato come, per un sistema fisico con un suo spazio
delle fasi F, ogni fissata hamiltoniana H genera un corrispondente flusso
t : F ! F, o gruppo a un parametro di trasformazioni dello spazio delle
H
fasi in se. La generalizzazione cui veniamo ora consiste nellosservare che
il medesimo procedimento si pu`o compiere quando in luogo di una fissata
hamiltoniana H si considera una arbitraria variabile dinamica, ovvero una
funzione G : F ! IR a valori reali definita nello spazio delle fasi. La variabile dinamica G = G(x) = G(q, p) induce (o genera) una corrispondente
equazione dierenziale di tipo hamiltoniano x = E grad G, ovvero
q =

@G
,
@p

p =

@G
,
@q

e un corrispondente flusso
t
G

: F !F

(t 2 IR) .

Si dice che G `e il generatore del gruppo a un parametro di trasformazioni


t .
G
Osservazione: simmetrie e canonicit`
a. Nel capitolo sui principi
variazionali mostreremo che, per il flusso tH generato da una hamiltoniana H, ogni trasformazione della famiglia, corrispondente a un valore fissato di t, `e una trasformazione canonica. Dunque abbiamo che il flusso
generato da una hamiltoniana `
e un gruppo a un parametro di
trasformazioni canoniche. In conseguenza, anche i flussi generati da una
arbitraria variabile dinamica G che svolge il ruolo di hamiltoniana, sono
gruppi a un parametro di trasformazioni canoniche.
Esempi per una particella nello spazio (cio`e con spazio delle configurazioni C = IR3 ,
e dunque con spazio delle fasi F = IR3 IR3 ).
57

Si tratta di un facilissimo esercizio, che sostanzialmente ammonta a dimostrare (denotando con t0 il generico tempo iniziale) che la soluzione x(t, t0 , x0 ) dipende dai due tempi
t, t0 solo attraverso la loro dierenza t t0 , ovvero si ha x = x(t t0 , x0 ).

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 143


Si prenda G(x, y, z, px , py , pz ) = px . Si ha allora
px = {px , px } = 0 , py = {py , px } = 0 , pz = {pz , px } = 0 ,
x = {x, px } = 1 , y = {y, px } = 0 , z = {z, px } = 0
t
px

sicche il gruppo

t
px

(2.5.2)

`e dato da

(x, y, z, px , py , pz ) = (x + t, y, z, px , py , pz ) .

Dunque il momento px genera le traslazioni lungo lasse delle x.


Si prenda G(x, y, z, px , py , pz ) = Lz = (xpy
che si ha
Lz == p' ,

ypx ). Abbiamo gi`a osservato

con riferimento a coordinate cilindriche rispetto allasse z. Si ha allora


p ' = {p' , Lz } = {p' , p' } = 0 , pr = {pr , p' } = 0 , pz = {pz , p' } = 0 ,
' = {', p' } = 1 , r = {r, p' } = 0 , z = {z, p' } = 0

Dunque il gruppo
t
p'

t
p'

(2.5.3)

`e dato da

(r, ', z, pr , p' , pz ) = (r, ' + t, z, pr , p' , pz ) .

e pertanto il momento angolare Lz p' genera le rotazioni attorno allasse


z.

2.5.3

Simmetrie e leggi di conservazione

Abbiamo ottenuto una completa analogia tra esistenza di costanti del moto
ed esistenza di simmetrie, perche si tratta soltanto di due nomi diversi per
una medesima propriet`
a: invarianza (o simmetria) di una variabile dinamica
rispetto a un gruppo di trasformazioni.
Infatti, se pensiamo alla evoluzione fisica prodotta dalle forze, ovvero
generata (nello spazio delle fasi) da una hamiltoniana H, allora diciamo che una variabile dinamica f = f (x) `e una costante del moto se essa
mantiene lo stesso valore lungo ogni soluzione delle corrispondenti equazioni
di Hamilton, ovvero se si ha
f(

t
H x)

= f (x)

8x 8t

e questo `e equivalente a fH = 0, dove si `e denotato


fH = {f, H} .
Allo stesso modo possiamo avere che una variabile dinamica f sia costante
del moto rispetto allevoluzione indotta da una variabile dinamica G, cio`e
rispetto al gruppo tG generato da G:
f(

t
G x)

= f (x)

8x 8t

144

Andrea Carati e Luigi Galgani

e in tal caso diciamo che f `e invariante sotto tale gruppo di trasformazioni,


ovvero che f `e simmetrica rispetto al gruppo tG , ovvero che il gruppo tG
`e un gruppo di simmetria per f . Ovviamente tale propriet`a `e equivalente a
fG = 0, dove si `e denotato
fG = {f, G} .
Dunque per una variabile dinamica i nomi costante del moto o funzione
simmetrica descrivono la medesima propriet`a di invarianza rispetto a un
gruppo a un parametro di trasformazioni; nel primo caso ci si riferisce di
consueto al gruppo di evoluzione temporale generato da H, nel secondo caso
al gruppo generato da una generica variabile dinamica G.
Osserviamo ora che si ha
fH = {f, H} =

{H, f } =

H f .

Consideriamo allora il caso in cui f `e una costante del moto rispetto alla
dinamica generata da H (rispetto al flusso tH ) e dunque si ha
{f, H} = 0 .
Allora necessariamente si ha anche H f = 0, cio`e H `e simmetrica rispetto al
gruppo generato da f . Abbiamo dunque la
Proposizione. Sia dato un sistema dinamico, con hamiltoniana H indipendente
dal tempo, e sia f una variabile dinamica (indipendente dal tempo). Allora condizione necessaria e sufficiente affinche f sia costante del moto (rispetto alla dinamica generata da H) `e che H sia simmetrica rispetto al gruppo di trasformazioni
generato da f .

2.5.4

I generatori come operatori dierenziali

Abbiamo gi`
a accennato al fatto che in meccanica quantistica ad ogni variabile dinamica classica viene associato un operatore lineare agente in un
opportuno spazio di funzioni. Vogliamo qui mettere in luce come una circostanza molto simile si presenta in ambito classico.58 Losservazione base `e
che la parentesi di Poisson `e una applicazione bilineare. Pertanto, se si fissa
una delle due variabili dinamiche su cui essa agisce, diciamola G, risulta
allora che la parentesi di Poisson agisce sullaltra in maniera lineare e quindi
defnisce un operatore lineare agente nello spazio delle variabili dinamiche.
univocamente associato
Risulta in tal modo definito un operatore lineare G,
alla variabile dinamica fissata G. Inoltre `e ovvio che si tratta di un operatore
dierenziale.
58

Si veda M. Born e P. Jordan, Elementare Quantenmechanik, Springer (Berlin, 1930),


pag. 91.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 145


Esempio. Si consideri una particella nello spazio, e si fissi la variabile dinamica G(x, y, z, px , py , pz ) = px . Il corrispondente operatore, agente su una generica
variabile dinamica f , `e allora definito da
{f, px } =

@f @px
@f
=
.
@x @px
@x

In tal modo, alla variabile dinamica px `e associato loperatore dierenziale

@
@x .

Pi`
u in generale risulta che, per una fissata variabile dinamica G, la parentesi di Poisson {f, G} non `e altro che la derivata direzionale delle funzione
f nella direzione del campo vettoriale indotto da G. Questo argomento,
cui abbiamo qui appena accennato, `e pi`
u approfonditamente discusso in
appendice.
Come gi`
a accennato in una nota, la considerazione dello spazio i cui elementi sono le variabili dinamiche, e degli operatori dierenziali agenti in tali
spazi, fu introdotta da Koopman (e poi studiata anche da Von Neumann)
intorno al 1928, in una serie di lavori in cui veniva messo in luce come anche
in ambito classico sia utile introdurre degli spazi funzionali e considerare operatori lineari agenti in essi, in analogia con quanto era avvenuto pochissimi
anni prima nellambito della formulazione matematica della meccanica quantistica. Si `e anche accennato alla analogia con la descrizione di Heisenberg
della meccanica quantistica.

2.5.5

Costanti del moto e simmetrie in ambito lagrangiano:


il teorema di Noether

In ambito lagrangiano, la relazione tra costanti del moto e simmetrie non


`e altrettanto semplice che in ambito hamiltoniano. Il motivo sta nel fatto
che il flusso tG generato da una funzione G = G(q, p) dello spazio delle fasi
(mediante le soluzioni delle equazioni di Hamilton con hamiltoniana G) in
generale non risulta essere associato a soluzioni delle equazioni di Lagrange
con una opportuna funzione che svolge il ruolo di lagrangiana. Si ha per`o
una propriet`
a, che si presenta come una generalizzazione della ben nota propriet`
a : condizione necessaria e sufficiente affinche un momento, ad esempio
p1 , sia costante del moto rispetto alla dinamica indotta da una lagrangiana
@L
L `e che sia @q
= 0, ovvero che la lagrangiana L sia invariante rispetto alla
1
traslazione della variabile q1 . Qui, invece di considerare traslazioni lungo
una coordinata q, pi`
u in generale si considera una famiglia di trasformazioni
(dipendente da un parametro che ora chiamiamo ) nello spazio delle configurazioni C, che si riduca allidentit`a per = 0. Risulta che, invece della
famiglia di trasformazioni Q = Q(q, ), `e pi`
u comodo considerare la famiglia
di trasformazioni inverse q = q(Q, ). Si ha la

146

Andrea Carati e Luigi Galgani

Proposizione. Sia data una famiglia a un parametro () di trasformazioni nello


spazio delle configurazioni C,
q = q(Q, ) ,

q(Q, 0) = Q .

Consideriamo poi la corrispondente famiglia di trasformazioni (puntuali estese) naturalmente indotta sulle q ( mediante la matrice jacobiana delle trasformazioni).
t), si consideri poi la funzione composta (si
Per una assegnata lagrangiana L(q, q,
, considerati come parametri)
sottintende la dipenzenza da Q Q

L() = L(q(), q(),


t) .
Allora si ha

dL
d
dq
=
p
.
(2.5.4)
d
dt
d
Dimostrazione. Per la formula di derivazione di una funzione composta si ha
dL
@L dq @L dq
dp dq
dq
=

+p
.
d
@q d
@ q d
dt d
d

dove si `e fatto uso della definizione dei momenti p =


59
Lagrange p = @L
@q . Daltra parte si ha anche

@L

@q

e delle equazioni di

dq
d dq
=
.
d
dt d
Si ha dunque

dL
dp dq
d dq
d
dq
=

+p
=
p
.
d
dt d
dt d
dt
d

Q.E.D.

In particolare, dalla (2.5.4) si ha che


e quindi si ha il

dL
d

= 0 `e equivalente a

d
dt

dq
d

= 0,

Corollario. Condizione necessaria e sufficiente affinche la lagrangiana L sia invariante sotto la famiglia di trasformazioni indotta nello spazio degli stati da una
famiglia di trasformazioni (prossime allidentit`a) q = q(Q, ) nello spazio delle
configurazioni C `e che sia costante del moto la variabile dinamica

F (q, q := p v(q, q)
dove
:=
v(q, q)

dq
d

=0

X
i

pi

dqi
d

=0

`e il campo di velocit`
a che genera la famiglia di trasformazioni q = q(Q, ).
59

Si ha qui uno scambio di derivate, rispetto a t e rispetto ad . La dimostrazione `e del


tutto analoga a qualla che si `e compiuta nel dedurre le equazioni di Lagrange, quando si
`e provato il Lemma:
d @x
@v
=
.
dt @q
@ q

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 147

2.6

Lo spazio delle fasi e la meccanica statistica.


Lequazione di continuit`
a come condizione di
compatibilit`
a tra dinamica e probabilit`
a. Il
teorema di Liouville

Nel primo paragrafo di questo capitolo abbiamo gi`a accennato al fatto che
esiste un problema di compatibilit`
a tra la dinamica, generata dalle equazioni
di Hamilton per una certa Hamiltoniana H, e una probabilit`a definita sui
dati iniziali. Vogliamo qui discutere pi`
u ampiamente questo problema.60

2.6.1

La nozione di stato statistico, ovvero gli insiemi (ingl.


ensembles) statistici

Finora abbiamo considerato la nozione di stato in relazione alla dinamica,


ovvero come descrizione di un sistema meccanico mediante delle quantit`a
(posizioni e velocit`
a o posizioni e momenti, e non soltanto posizioni) che permettono di determinarne completamente il movimento quando
siano assgnate le forze (lhamiltoniana). Lo stato di un sistema meccanico `e dunque definito da un punto nello spazio delle fasi, e lassegnazione
delle forze (ovvero della hamiltoniana) induce in maniera dererministica
levoluzione del sistema (ovvero del punto nello spazio delle fasi), quando sia
assegnato uno stato (punto) iniziale. Con una banalissima generalizzazione,
possiamo pensare a un sistema come definito da una variet`a (nel caso pi`
u
m
semplice lo spazio IR ) sulla quale sia data una equazione dierenziale
x = v(x)
attraverso un campo vettoriale v = v(x) assegnato sulla variet`a. Il caso
meccanico (caso hamiltoniano) corrisponder`a poi al caso particolare in cui
`e m = 2n, e il campo vettoriale ha struttura hamiltoniana:
v = E grad H ,
con una fissata hamiltoniana H. Tale campo di velocit`a risulta allora essere
solenoidale, cio`e avere la propriet`
a
div v = 0 .
60

NOTA PER GLI AUTORI: Dire pi`


u semplicemente la faccenda dellinvariante integrale. Dato che i singoli punti hanno in generale misura nulla, si d`
a la compatibilt`
a (tra
probabilit`
a e dinamica) sugli insiemi (misurabili): la probabilit`
a di un insieme `e uguale
alla probabilt`
a dellinsieme da cui proviene. Poi passare al caso in cui la misura ammette
densit`
a, e il problema `e allora di tradurre la condizione di compatibilit`
a in termini della
densit`
a. Teorema: la condizione di compatibilit`
a `e lequazione di continuit`
a. Infine, prima
di dimostrare questultima come nella presente versione, premettere la dimostrazione pi`
u
semplice che si riferisce a un insieme fisso arbitrario, e fa uso del teorema di Gauss, che
gli studenti conoscono.

148

Andrea Carati e Luigi Galgani

Chiameremo stato miscroscopico uno stato concepito nel senso appena


descritto.
In generale, tuttavia, per sistemi costituiti da un numero enorme di
particelle, come tipicamente un gas, risulta che lo stato microspopico cos`
concepito non `e concretamente accessibile o controllabile. In tali condizioni
`e necessario fare ricorso a una nozione pi`
u debole di stato. Ovviamente,
questo indebolimento viene compiuto, e in maniera drastica, in termodinamica, nella quale un sistema non `e pi`
u descritto mediante un modello
microscopico meccanico con un numero di gradi di libert`a dellordine del
numero di Avogadro (n ' 1023 ), e si pensa invece allo stato come a qualcosa
di empiricamente accessibile: ad esempio lo stato di un gas viene definito
dallassegnazione di due sole variabili (invece di 1023 ), ovvero la temperatura e il volume in cui esso `e racchiuso. Parleremo in tal caso di stato
macroscopico.
Lo scopo fondamentale della meccanica statistica `e quello di costruire
un ponte tra tali due nozioni di stato, introducendo concetti di tipo probabilstico o statistico. Si assume dunque ancora che sia assegnato un modello
microscopico, in cui il sistema `e descritto come un sistema meccanico,
con un suo spazio delle fasi (con n enorme) e una sua hamiltoniana, e quindi
una dinamica deterministica. Tuttavia si prende atto del fatto che le informazioni contenute nello stato microscopico non soltanto non sono accessibili
o controllabili, ma soprattutto sono ridondanti (sono troppe): vi sono infiniti
stati microscopici che corrispondono a un medesimo stato macroscopico, ad
esempio, vi `e un numero enorme di stati microscopici diversi di un gas, che
corrispondono a una medesima pressione, pensata in qualche modo come
forza media (per unit`
a di superficie) sulla parete.
Attraverso i lavori di Maxwell, di Boltzmann e poi di Gibbs61 (1902),62
si `e infine giunti a concepire che la nozione di stato pi`
u adatta per costruire
tale ponte tra stato microscopico e stato macroscopico `e quella di stato
statistico. Si tratta di assegnare una probabilit`a ai dati iniziali nello
spazio delle fasi, e poiche tale spazio `e un insieme continuo si `e costretti a
procedere nel modo familiare della teoria delle probabilit`a o della statistica,
introducendo nello spazio delle fasi una densit`
a di probabilit`
a 0 (x), con
le propriet`
a di positivit`
a e normalizzazione,
0

0,

0 dV = 1 ,

sicche la probabilit`
a che il punto rappresentativo del sistema si trovi inizial61
W. Gibbs, Elementary principles of statistical mechanics, Yale Univ. Press (Yale,
1902); ristampato da Dover (New York).
62
Si veda anche A.I. Khinchin, Mathematical foundations of statistical mechanics, Dover
(New York, 1949).

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 149


mente in un arbitrario dominio D0 F `e data da
Z
pr x 2 D0 =
0 (x)dV .
D0

Pi`
u in generale, per una qualsiasi variabile dinamica f = f (x) si potr`a
definire il valore medio (detto anche valore atteso o valore di aspettazione)
< f >< f >0 come la ovvia generalizzazione della media pesata su tutti
i possibili stati microscopici iniziali, ovvero63
Z
< f >0 = 0 (x) f (x) dV
(2.6.1)
e si potr`
a anche calcolare la corrispondente varianza o la distribuzione di
probabilit`
a della funzione f , nel senso consueto nella teoria della proba64
bilit`a. .
Terminologia fisica: insiemi o ensembles Nei manuali di meccanica
statistica, seguendo Gibbs uno stato statistico viene chiamato insieme, o piuttosto
con la corrispondente parola francese ensemble, che da lungo tempo viene utilizzata
universalmente. La ragione `e che si pensa di avere una collezione (appunto, un
insieme) di tanti sistemi fisici identici, dierenti soltanto per i dati iniziali, che
evolvono indipendentemente luno dallaltro. Prendendo un volumetto dV nello
spazio delle fasi, la densit`
a viene determinata dalla condizione che dV sia uguale
alla frazione di sistemi che si trovano entro quel volumetto.
Terminologia fisica: Spazio Gamma e spazio mu. In quasi tutti i
manuali di meccanica statistica, lo spazio delle fasi del sistema globale (che noi
abbiamo denotato con la lettera F) viene chiamato spazio Gamma, e denotato
con la lettera greca maiuscola . Se il sistema `e costituito di N sottosistemi che
possono essere considerati in prima approssimazione indipendenti (si pensi a un
gas costituito di N molecole), allora lo spazio delle fasi di un singolo sottosistema
viene chiamato spazio mu, e denotato con la lettera greca minuscola . La ragione sta nel fatto che Boltzmann, nei suoi classici lavori (particolarmente in quello
dl 1884) denota con il numero dei gradi di libert`a di un sottosistema (ad esempio, di una molecola) e con q1 . . . q le corrispondenti coordinate nello spazio delle
configurazioni del sottosistema.
Aspetto matematico: gli stati statistici come funzionali lineari (definiti positivi) sullo spazio vettoriale delle variabili dinamiche. Gli stati statistici hanno una interessante descrizione matematica. Avevamo gi`a osservato che
linsieme delle variabili dinamiche sullo spazio delle fasi F costitiuisce uno spazio
63

In particolare, si trova
pr x 2 D0 =< f >

se si prende come variabile dinamica f proprio la funzione caratteristica


D0 , definita da
se x 2 D
D (x) = 1
D (x)

64

=0

se

D0

dellinsieme

x2
/D.

Nella teoria delle probabilit`


a le variabili dinamica (o osservabili) vengono chiamate
variabili casuali o variabili aleatorie ( ingl. random variables)

150

Andrea Carati e Luigi Galgani

vettoriale (di dimensione infinita), anzi unalgebra di Lie. Avendo ora fissato uno
stato statistico 0 , possiamo riguardare alla definizione di valore medio (2.6.1) come
ad una legge (una funzione) che associa un numero reale ad ogni variabile dinamica
f . Si tratta evidentemente di una applicazione lineare sullo spazio delle variabili dinamiche. Ricordiamo che le applicazioni lineari a valori reali definite su uno spazio
vettoriale vengono chiamate funzionali lineari su quello spazio. Dunque ogni stato stastitico, quando sia pensato come agente su tutte le variabili dinamiche, `e un
funzionale lineare (positivo, normalizzato e continuo65 ).
Aspetto matematico: la teoria della misura e gli insiemi (nel senso
di regioni o domini dello spazio delle fasi) misurabili. Nella teoria delle
probabilit`
a si considera solitamente un insieme di eventi elementari, che nel nostro
caso sono i punti dello spazio delle fasi (spazio ). Si assegna poi una probabilit`a
a ogni sottoinsieme di eventi elementari (nel nostro caso, a regioni (o domini) dello
spazio delle fasi). Pi`
u precisamente si considerano solo le regioni (o domini) che
sono misurabili nel senso classico della teoria della misura di Lebesgue. Non
insisteremo su questo punto, e sottintenderemo sempre che le regioni (o domini)
dello spazio delle fasi che si considerano siano misurabili nel senso di Lebesgue.

2.6.2

Il problema della compatibilit`


a tra probabilit`
a e dinamica: la probabilit`
a come invariante integrale.

Abbiamo gi`
a osservato come si ponga un problema di compatibilit`a tra probabilit`
a e dinamica. Infatti, anzitutto si dovr`a ovviamente ammettere che il
sistema sia descritto a ogni tempo t (e non solo al tempo iniziale) da uno
stato statistico, cio`e da una densit`a di probabilit`a
= (x, t) ,
con una interpretazione
analoga a quella relativa al tempo iniziale, ovvero
R
che lintegrale D (x, t)dV rappresenti la probabilit`a che il sistema si trovi
al tempo t nel dominio D. E poiche ci troviamo a trattare con modelli
in cui si ha unevoluzione deterministica, `e evidente che lo stato statistico
al tempo t debba essere connesso in un modo ben determinato allo stato
statistico al tempo 0. In altri termini, si richiede di trovare una legge di
evoluzione temporale per lo stato statistico, ovvero per la densit`a (x, t).
Ora, la legge di evoluzione temporale `e ovvia nel caso degenere in cui
inizialmente la probabilit`a sia concentrata su un numero finito di punti (o
anche su un insieme numerabile), perche allora la compatibilit`a tra dinamica
e probabilit`
a si deve ridurre ad ammettere che ognuno dei punti iniziali su
cui `e concentrata la probabilit`a trasporti inalterata, durante il suo movimento, la corrispondente probabilit`a. Questo corrisponde al seguente evidente
principio:66
due stati fisici di cui luno `e leetto necessario dellaltro sono ugualmente probabili.
65
66

Quando si introduca la norma del sup nello spazio delle variabili dinamiche.
H. Poincare, Derni`eres pensees, Flammarion (Parigi, 1913), pag.122.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 151


Si potrebbe forse immaginare che nel caso continuo la condizione di compatibilt`
a si riduca alla pi`
u semplice concepibile generalizzazione della legge
relativa al caso discreto, ovvero a richiedere che la densit`a di probabilit`a
venga anchessa trasportata inalterata lungo i movimenti (cio`e sia una
costante del moto). Ma una pi`
u profonda riflessione mostra che la soluzione
`e in generale diversa. La ragione `e la seguente. Nel caso in cui la probabilit`a sia distribuita su un continuo, cio`e sia definita mediante una densit`a di
probabilit`
a (che sia una funzione nonsingolare), allora ogni singolo punto ha
probabilit`
a nulla (lintegrale di una funzione non singolare esteso a un solo
punto `e nullo, come `e nullo il volume di un punto), e il principio generale
sopra citato ci dice soltanto che la probabilit`a del singolo punto evoluto deve
continuare a essere nulla (cio`e che la probabilit`a ammetta a tutti i tempi una
densit`a che sia una funzione regolare). Il principio svolge invece un ruolo
significativo per quanto riguarda levoluzione dei domini, perche in generale
`e diverso da zero un integrale esteso a un dominio. Dunque la pi`
u naturale
generalizzazione della condizione di compatibilit`a tra dinamica e probabilit`a
consiste nel richiedere che siano uguali la probabilit`a di trovarsi al tempo 0
in un dominio D0 e la probabilit`
a di trovarsi al tempo t nel dominio D(t)
evoluto (mediante la dinamica) del dominio D0 , e questo per ogni dominio
D0 .
Sia (x, t) la densit`
a di probabilit`a al tempo t, con la condizione di raccordo (x, 0) = 0 (x), e sia D(t) = tH D0 il dominio evoluto del dominio
iniziale D0 (con D(0) = D0 ) secondo la dinamica generata da H (attraverso
il corrispondente flusso tH precedentemente discusso). Allora abbiamo stabilito che la condizione di compatibilt`
a tra dimanica e probabilit`
a si enuncia
richiedendo che per ogni regione D0 si abbia, ad ogni tempo t,
Z
Z
(x, t)dV =
0 (x)dV .
(2.6.2)
D(t)

D0

Equivalentemente, si deve avere, ad ogni tempo t,


Z
d
(x, t)dV = 0 ,
8 D0 .
dt D(t)
Abbiamo gi`
a detto che ogni funzione f (x, t) che mantenga inalterato il suo
valore lungo una qualunque soluzione dellequazione dierenziale considerata si dice costante del moto, o integrale del moto, o funzione invariante.
Seguendo Poincare, si dice invece invariante integrale una quantit`a che si
esprima come lintegrale di una certa funzione (la corrispondente densit`a ),
e che mantenga inalterato il suo valore quando lintegrale venga calcolato
ad ogni tempo t su un dominio D(t) evoluto di un dominio iniziale D0 , per
ogni D0 . Dunque possiamo dire che:
la condizione di compatibilit`
a tra dinamica e probabilit`
a si esprime
con la condizione che la probabilit`
a sia un invariante integrale.

152

2.6.3

Andrea Carati e Luigi Galgani

Lequazione di continuit`
a e lequazione di Liouville

Si mostra infine che, per una dinamica definita da unequazione x = v(x),


la condizione di compatibilit`a tra probabilit`a e dinamica, espressa sopra in
forma integrale, pu`
o essere espressa equivalentemente come una condizione
di tipo dierenziale sullevoluzione della densit`a di probabilit`a (x, t). Precisamente, si mostra (si veda pi`
u sotto) che la densit`
a deve soddisfare
una equazione dierenziale che non `
e nientaltro che lequazione
di continuit`
a67 68
@
+ div (v) = 0 ,
(2.6.3)
@t
la quale costituisce la naturale estensione (ad IRm ) della classica equazione
di continuit`
a ben nota dalla teoria dei fluidi nel caso di un campo di velocit`a
v = v(x) in IR3 (in eetti, la trattazione che qui diamo fornisce appunto, nel
caso m = 3, la dimostrazione dellequazione di continuit`a per i fluidi; basta
interpretare come densit`a di massa anziche come densit`a di probabilit`a).
Daltra parte si ha la identit`a69
div ( v) = div v + v grad .

(2.6.5)

Pertanto, nel caso particolare dei sistemi hamiltoniani, in cui il campo vettoriale `e del tipo v = E grad H e quindi ha la propriet`a div v = 0, lequazione
di continuit`
a prende la forma
@
+ v grad = 0 ,
@t

(2.6.6)

ovvero

@
+ {, H} = 0 .
@t
Dunque nel caso hamiltoniano lequazione di compatibilit`
a tra
probabilit`
a e dinamica per la densit`
a (ovvero lequazione di continuit`
a) si riduce semplicemente alla condizione che la densit`
a sia
67

Nella letteratura russa, questa equazione viene chiamata equazione di Liouville. Essa
`e in un certo senso semplicemente una versione debole dellequazione x = v(x). Un nome
tradizionale per una soluzione dellequazione di continuit`
a `e moltiplicatore di Jacobi.
68
Si presenta qui un problema delicato riguardante lesistenza di soluzioni dellequazione
di continuit`
a (2.6.10). Infatti, si mostra che non si incontrano difficolt`
a nel trovare
soluzioni, ma non `e detto che tali soluzioni soddisfino lulteriore requisito (di tipo globale)

in tutto lo spazio delle fasi, che evidentemente `e essenziale per interpretare come densit`
a
di probabililt`
a (o di massa). Il soddisfare una condizione di questo tipo costituisce una
restrizione sul campo di velocit`
a v = v(x). Risulta che questa condizione pu`
o venire
soddisfatta nel caso hamiltoniano.
69
Basta ricordare la regola di Leibniz per la derivata di un prodotto,
@
@vi
@
(vi ) =
+ vi
@xi
@xi
@xi
e poi sommare su i.

(2.6.4)

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 153


una costante del moto (in generale dipendente dal tempo). Questo
avviene proprio perche nel caso dei sistemi hamiltoniani il campo v nello
` questo il motivo
spazio delle fasi risulta essere solenoidale (div v = 0). E
per cui in meccanica statistica si fa riferimento al formalismo hamiltoniano
nello spazio delle fasi (in cui le coordinate sono le posizioni e i momenti),
anziche al formalismo lagrangiano nello spazio degli stati (in cui le coordinate sono le posizioni e le velocit`
a). Quando viene pensata in relazione agli
stati statistici anziche alle variabili dinamiche, lequazione che esprime la
condizione di essere una costante del moto viene usualmente chiamata con
il nome di equazione di Liouville.
Veniamo dunque a dimostrare come la condizione che la probabilit`a sia
un invariante integrale `e equivalente alla propriet`a che la densit`a soddisfi
lequazione di continuit`
a.
Lemma 1 Si consideri lequazione dierenziale x = v(x) in IRm . Sia t =
t (x) il corrispondente flusso70 e sia J(t) d t la corrispondente matrice
jacobiana.71 Allora si ha
|det J(t)| = 1 + t div v + O(t2 ) .

(2.6.7)

Dimostrazione. Per tempi t piccoli, per la definizione stessa di flusso di


unequazione dierenziale x = v(x) abbiamo
t

(x) = x + t v(x) + O(t2 )

e dunque
Jik (t) =

ik

+t

@vi
+ O(t2 ) .
@xk

(2.6.8)

Ora, ben sappiamo che il determinante di una matrice `e la somma di termini,


ciascuno dei quali `e il prodotto di elementi che stanno su colonne diverse,
uno per ciascuna riga. Poiche gli elementi diagonali sono tutti della forma
1 + O(t), precisamente
J11 = 1 + t

@v1
@vm
+ O(t2 ) . . . Jmm = 1 + t
+ O(t2 ) ,
@x1
@xm

mentre quelli fuori diagonale sono tutti di ordine O(t), `e chiaro allora che
gli unici contributi proporzionali a t sono quelli che provengono dal termine
che `e il prodotto di tutti e soli gli elementi diagonali. La conclusione `e allora
ovvia.
Q.E.D.
Si ha poi il
70

Che `e definito mediante la soluzione dellequazione dierenziale considerata:


nientaltro che levoluto al tempo t del dato iniziale x.
71
Si sottintende la dipendenza da x.

(x) `e

154

Andrea Carati e Luigi Galgani

Teorema 4 (di Liouville, o dellequazione di continuit`


a.) Si considm
eri lequazione dierenziale x = v(x)
in
IR
.
Allora
condizione
necessaria
R
e sufficiente affinche la quantit`
a dV sia un invariante integrale, cio`e si
abbia
Z
Z
(x, t) dx1 . . . dxm =
(x, 0) dx1 . . . dxm .
(2.6.9)
D(t)

D(0)

per tutti i tempi, e per ogni dominio D(0), dove D(t) denota levoluto di
D(0), `e che soddisfi lequazione di continuit`
a
@
+ div (v) = 0 .
@t

(2.6.10)

In particolare, per i sistemi hamiltoniani, in cui il campo vettoriale `e del tipo


v = E grad H e quindi ha la propriet`
a div v = 0, lequazione di continuit`
a
si riduce allequazione
d
=0,
dt

ovvero

@
+ v grad = 0 ,
@t

ovvero

@
+ {, H} = 0 ,
(2.6.11)
@t
ovvero alla condizione che sia una costante del moto (in generale dipendente dal tempo).
Dimostrazione. Nellintegrale a primo membro della (2.6.9) eseguiamo
il cambiamento di variabili che associa al punto x 2 D(t) il punto y =
t x 2 D(0) da cui esso proviene. In tal modo, per la nota formula del
cambiamento di variabili negli integrali, lintegrale a primo membro si scrive
Z
Z
(x, t) dx1 . . . dxm =
( t (y), t) |det J(t)| dy1 . . . dym .
D(t)

D(0)

Dunque la condizione per aversi un invariante integrale (conservazione della


probabilit`
a) diviene (si cambia nome alle variabili di integrazione a secondo
membro della (2.6.9) )

Z
t
( (y), t) |detJ(t)|
(y, 0) dy1 . . . dym = 0 .
D(0)

Ma poiche questa relazione deve valere per ogni dominio D(0), si ha che deve
essere nullo lintegrando, e dunque la condizione (2.6.9) prende la forma di
una condizione puntuale (valida per ogni punto, ovvero per ogni y)
(

(y), t) |det J(t)|

(y, 0) = 0 ,

(2.6.12)

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 155


Ma questa relazione deve valere a tutti i tempi t, e quindi deve essere nulla la
derivata del primo membro rispetto al tempo. Equivalentemennte, proprio
per la definizione di derivata, deve essere nullo il coefficiente del termine del
primo ordine dello sviluppo in t. Ma, per la definizione del flusso t si ha
(

(y), t) = (y + vt + O(t2 ), t) ,

ovvero, mediante sviluppo della funzione rispetto a t,


(

(y), t) = (y, 0) + t

(y, 0) + v grad (y, 0) + O(t2 ) .


@t

Usando il lemma per esprimere la matrice jacobiana (formula (2.6.7)), la


condizione di annullamento del termine di primo ordine in t diviene
@
+ v grad + div v = 0 ,
@t
ovvero, per lidentit`
a (2.6.4), lequazione di continuit`a.

Q.E.D.

` interessante osservare che largomento centrale usato per questa dimostrazione


E
presenta una profonda analogia con quello usato nel 1905 da Einstein per dimostrare
lequazione di diusione con argomenti probabilistici. Lanalogia sta nel cambiat
mento di variabile x ! y. Qui si ha y =
(x) (ogni punto proviene deterministicamente da un solo punto). Invece, nel caso di Einstein, un punto pu`o provenire,
con corrispondenti probabilit`
a di transizione, da ogni altro punto.
Esercizio (Sul significato della divergenza). Si dimostri la seguente72
Proposizione. Sia
Z
V (t) =
dx1 . . . dxm
D(t)

il volume di un dominio D(t) che evolve secondo unequazione dierenziale x =


v(x). Allora si ha
Z
d
V (t) =
div v dx1 . . . dxm .
dt
D(t)
N.B. Questo risultato pu`
o essere presentato, nella maniera pi`
u intuitiva, nel modo
seguente. Si considerino i movimenti soluzione dellequazione dierenziale x = v(x).
Allora si ha
1 d
div v (x) =
V ,
V dt
dove V `e un qualunque volume infinitesimo centrato in x.
Si ha allora il
Corollario (teorema di Liouville in senso stretto). Per ogni sistema hamiltoniano, il volume nello spazio delle fasi `e un invariante integrale. Ovvero, ogni
72

Si tratta sostanzialmente del caso particolare in cui si ha (x, 0) = 1.

156

Andrea Carati e Luigi Galgani

dominio che evolva nello spazio delle fasi secondo le soluzioni delle equazioni di
Hamilton con una qualunque hamiltoniana mantiene inalterato il suo volume:
V (t) = V (0)

8 D(0) .

Aspetto matematico: il flusso hamiltoniano come famiglia di trasformazioni che conservano la misura; la teoria ergodica. Il teorema di Liouville
(in senso stretto) ci dice dunque che durante levoluzione temporale, qualunque sia
la hamiltoniana, si conservano i volumi dei domini. Dunque il flusso tH che descrive
levoluzione nello spazio delle fasi indotto dalle equazioni di Hamilton si presenta
come una famiglia di trasformazioni (dello spazio delle fasi in se), ciascuna delle
quali conserva il volume dei domini trasformati.
Pi`
u in generale, si pu`
o considerare una dinamica descritta nel modo seguente.
` assegnata una variet`
E
a M munita di una misura (lanalogo dello spazio delle fasi
munito della misura di Lebesgue), ed `e assegnata una famiglia a un parametro t
di trasformazioni di M in se, invertibili, con la propriet`a di conservare la misura:
(

D) = (D)

per ogni dominio (misurabile) D M (ingl. meaasure preserving transformations). Lo studio della dinamica per i sistemi dinamici che conservano una misura,
trascurando gli insiemi di misura nulla, e riguardando particolarmente alle propriet`a
asintotiche nel tempo per t ! +1, viene detta teoria ergodica.
Nel caso dei sistemi hamiltoniani di sistemi di particelle, lo spazio ambiente,
cio`e lo spazio delle fasi F, ha misura di Lebesgue infinita. Daltra parte, nel caso comune di hamiltoniane indipendenti dal tempo, sappiamo che lhamiltoniana stessa
`e una costante del moto, ed `e dunque significativo fare svolgere il ruolo di variet`a M
non a tutto lo spazio delle fasi F, ma a una superficie di livello dellenergia H = E0 .
Risulta che, nei casi pi`
u significativi, tale superficie `e compatta, e dunque la misura
di Lebesgue vi induce in maniera naturale una misura finita. Unaltra scelta possibile `e quella di prendere per M uno strato tra due superfici di livello dellenergia,
con valori E0 ed E00 vicini. In tale caso, la misura di Lebesgue della variet`a M
`e finita e pu`
o essere banalmente normalizzata, in modo da soddisfare la propriet`a
(M ) = 1. Il teorema della ricorrenza di Poincare, che verr`a discusso nel corso di
Meccanica Razinale 2. `e proprio ambientato con riferimento a trasformazioni che
conservano una misura finita.

2.6.4

Gli insiemi di equilibrio e la termodinamica statistica

Limitiamoci ora ai sistemi hamiltoniani, in cui le densit`a di probabilit`a (o


insiemi statistici) evolvono come soluzioni dellequzione di Liouville, cio`e
sono costnati del moto, in generale dipendenti dal tempo. Ora, come sempre nella dinamica, cos` anche nella dinamica degli stati statistici (insiemi) le
soluzioni pi`
u semplici, e le prime da studiarsi, sono le soluzioni di equilibrio, ovvero quelle indipendenti dal tempo. Nel nostro caso si tratta quindi
delle densit`
a che sono costanti del moto indipendenti dal tempo; esse sono
dette soluzione di equilibrio dellequazione di Liouville.73 La pi`
u sem73

Nel caso generale (non hamiltoniano) si tratta delle densit`


a che soddisfano
lequazione
div (v) = 0 .

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 157


plice scelta che si pu`
o compiere come soluzione di equilibrio per la densit`a
`e addirittura la funzione = costante (positiva).
In conseguenza, si trova che `e consistente con la dinamica assumere come probabilit`
a a priori nello spazio delle fasi quella uniforme,74 quella cio`e in cui la probabilit`
a che un punto si trovi in un dominio D F `e proporzionale al volume V (D)
di quel dominio, quando lelemento di volume sia definito nel modo che avevamo
anticipato, cio`e attraverso la formula dV = dq1 . . . dqn dp1 . . . dpn , ovvero come se
le coordinate canoniche fossero cartesiane ortogonali.

Venendo poi alle soluzioni di equilibrio non uniformi, `e spontaneo prendere per una qualsiasi funzione delle costanti del moto (indipendenti dal
tempo) del sistema considerato. Daltra parte sappiamo che, nel caso significativo in cui H non dipende esplicitamente dal tempo, lhamiltoniana
H stessa `e una costante del moto (indipendente dal tempo). Vi `e poi un
argomento generale risalente a Poincare, al quale fu dato un contributo
significativo anche da Fermi (nel 1923), secondo il quale in generale (con
qualche precisazione che qui omettiamo) lunica costante del moto `e proprio
lhamiltoniana H. Dunque sar`
a significativo prendere per una qualunque
funzione di H.
La pi`
u celebre di queste soluzioni di equilibrio `e la famiglia di densit`a,
detta insieme di Gibbs, o insieme canonico. Si tratta della famiglia
parametrizzata dal numero > 0 data da
(q, p, ) =

1
e
Z( )

H(q,p)

(2.6.13)

La funzione Z( ) `e detta funzione di partizione (ingl. partition func75 , ed `


tion)
e un fattore di normalizzazione che si introduce per imporre
R
dV = 1, e che quindi `e definito da
Z
Z( ) = e H(q,p) dV .
Questo insieme viene ottenuto dalla densit`a uniforme imponendo la condizione che sia fissato il valore medio < H > dellenergia (che viene identificato con lenergia termodinamica U ), e il parametro svolge il ruolo di
Una densit`
a di questo tipo viene chiamata da Poincare ultimo moltiplicatore. Si veda
Methodes nouvelles. Vol. III, pag. 48.
74
Si `e gi`
a osservato sopra che si compie cos` una scelta in qualche modo impropria,
perch`e essa conduce a una probabilit`
a non normalizzabile (nel caso di sistemi di particelle
non vincolate, lintegrale di questa densit`
a su tutto lo spazio delle fasi diverge). Ma questo
non `e un problema grave. Si pensi alla consueta definizione di volume (o piuttosto di area)
nel piano euclideo, che `e non normalizzabile, perch`e il piano stesso ha volume infinito. Si
veda a tale proposito A. Renyi, Probability theory, North-Holland (Amsterdam, 1970).
Si veda anche R. Tolman, The principles of statistical mechanics, Oxford U.P. (Oxford,
1946).
75
Il simbolo Z viene presumibilmente dal nome tedesco Zustandsumme, ovvero somma
sugli stati. Anche in inglese spesso Z viene chiamata sum over states.

158

Andrea Carati e Luigi Galgani

moltiplicatore di Lagrange nel fissare tale condizione. Si mostra poi (vedi


pi`
u sotto) che si deve interpretare
=

1
kB T

dove kB `e la costante di Boltzmann, e T la temperatura assoluta,


Si trova poi, con un calcolo immediato,76 che lenergia media viene
espressa in termini della funzione di partizione mediante la formula fondamentale
@
U( ) =
log Z( ) .
@
Pi`
u precisamente, nei casi significativi lhamiltoniana H risulta dipendere
da un ulteriore parametro esterno, di cui il pi`
u tipico `e il volume V del
3
dominio di IR in cui `e racchiuso il sistema fisico (si pensi a un gas racchiuso
tra pareti, rappresentate da forze opportune).77 Allora dipender`a da V
anche la funzione di partizione, Z = Z( , V ), e pertanto per lenergia media
si avr`
a in generale una formula
@
log Z( , V ) .
@

U( , V ) =

sicche anche lenergia media dipende da due parametri, temperatura e volume, come avviene per lenergia termodinamica. Questo `e necessario se si
vuole che lenergia media U ( , V ) venga identificata con lenergia termodinamica. In tal modo, attraverso lintroduzione degli insiemi statistici, `e
stato cos` costruito un ponte tra il modello meccanico microsopico e la termodinamica macroscopica. Nella terminologia di Gibbs, si `e costruita una
analogia termodinamica.
76

Basta ricordare la definizione

ricordare

ed osservare

77

R
He
< H >= R
e

H
H

dV
,
dV

@
1 @Z
log Z =
@
Z @
@
e
@

He

Ad esempio, se le particelle sono contenute in una scatola cubica di lato L, la forza


dovuta alle pareti pu`
o essere rappresentata da una energia potenziale V ext = V ext (x, y, z)
che corrisponde a una buca di potenziale di profondit`
a V0 , ovvero vale V0 allinterno
della scatola e 0 fuori. Si constata allora immediatamente che la funzione di partizione
dipende dal volume V . Ad esempio, nel caso del gas perfetto, in cui H si riduce allenenrgia
cinetica, lintegrale sulle variabili posizionali produce semplicemente il fattore V N . Si noti
che stiamo usando qui lo stesso simbolo V per il volume e per lenergia potenziale.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 159


Mostriamo ora come si determinano le altre funzioni termodinamiche,
come lentropia S e lenergia libera (di Helmholtz) F = U T S, e in particolare si confermi linterpretazione per
come
= 1/kB T . A tal fine
bisogna anzitutto ottenere lespressione del lavoro elementare W . Si trova
1

W =

@V log Z

(@V

@
).
@V

Ci`o deriva dal fatto che il lavoro della forza esterna agente sul sistema `e data
da78
W =< @V H > dV ,
e il valore medio viene poi calcolato in analogia col calcolo compiuto appena
sopra per lenergia media.
In conformit`
a con il primo principio della termodinamica, si assume
allora che lespressione della quantit`a di calore assorbito Q sia data da
Q = dU

W .

Avendo gi`
a a disposizione le espressioni per dU e W si trova
Q=
ovvero (usando dU = d( U )

dU + @V log Z dV ,
Ud )

Q = d( U ) + @ log Z d + @V log Z dV
e infine
Q = d( U + log Z) .

(2.6.14)

Per confronto con le note formule termodinamiche


Q = T dS ,

F =U

TS ,

abbiamo quindi le analogie termodinamiche


=

1
,
kB T

F =

log Z ,

S
= U + log Z .
kB

78

(2.6.15)

Si pensi al caso paradigmatico di un pistone cilindrico con una parete mobile. Allora
la posizione del pistone `e individuata dallaltezza l del cilindro, o dal suo volume V = lA
se A `e larea della base del cilindro. Quindi lhamiltoniana sar`
a funzione di l. Se P `e la
quantit`
a di moto della base mobile del pistone, si avr`
a lequazione di moto P = @l H.
Infatti, nello stesso modo in cui px = mx `e il momento coniugato alla coordinata cartesiana
x di una particella, cos`P = M l `e il momento della base del pistone (di massa M ), la cui
posizione `e individuata dalla coordinata cartesiana l. Dunque @l H rappresenta la forza
agente sul pistone, e pertanto, per il principio di azione e reazione, @l H rappresenta la
forza esterna che si deve esercitare per tenere fermo il pistone. Dunque la forza esterna
media `e data da < @l H >, e il lavoro della forza esterna `e quindi dato da
W =< @l H > dl =< @V H > dV .

160

2.6.5

Andrea Carati e Luigi Galgani

Il problema del raggiungimento dellequilibrio (legge


zero della termodinamica). I paradossi della reversibilit`
a
e della ricorrenza

Ancora da scriversi.

Appendici
A.1

Esempi di hamiltoniane

Riportiamo qui di seguito alcuni esempi elementari di sistemi hamiltoniani,


in aggiunta a quello del punto materiale nello spazio, in coordinate cartesiane, dato nel testo . La presente appendice consiste sostanzialmente nel
compiere una serie di esercizi.
a) Punto materiale in vari sistemi di coordinate .
a1) Punto materiale in coordinate cilindriche r, ', z.
Si `e gi`
a visto che si ha T = 12 m(r 2 + r2 ' 2 + z 2 ). I momenti coniugati
pr , p' , pz sono allora dati da pr = mr,
p' = mr2 ',
pz = mz,
cosicche, ancora
1
con banali inversioni, si ha T = 2m (p2r + p2' /r2 + p2z ). Indicando ancora con
V lenergia potenziale, espressa per`o in funzione delle variabili r, ', z, si ha
allora
1
m(r 2 + r2 ' 2 + z 2 ) V (r, ', z)
2
1 2 p2'
H(pr , p' , pz , r, ', z) =
(p +
+ p2z ) + V (r, ', z) .
2m r r2
L(r, ', z, r,
',
z)
=

(A.1.1)

a2) Punto materiale in coordinate sferiche , #, '.


Dalla definizione delle coordinate x = sin # cos ', y = sin # sin ',
z = cos #, si ottiene79
1
m( 2 + 2 # 2 + (2 sin2 #) ' 2 ) V (, #, ')
2
p2'
1 2 p2#
H(p , p# , p' , , #, ') =
(p +
+ 2 2 ) + V (, #, ') .
2m 2
sin #
(A.1.2)
')
L(, #, ', ,
#,
=

Osservazioni.
79

Si ricordi che esiste un modo banalissimo per dimostrarlo:


spostamenti infinitesimi lungo le linee coordinate.

161

basta scrivere gli

162

Andrea Carati e Luigi Galgani

a) In questi esempi, lenergia cinetica non contiene termini misti (la matrice
cinetica `e diagonale), grazie al fatto che le linee coordinate si intersecano ortogonalmente; un esempio banale in cui ci`o non avviene `e quello delle coordinate cartesiane
oblique.
b) In generale, in sistemi di coordinate
ortogonali lenergia cinetica ha dunque
P
= 12 i ai (q)qi2 ; corrispondentemente, `e immediato
la forma diagonale T (q, q)
P p2i
constatare che si ha sempre T (p, q) = 12 i ai (q)
, come negli esempi sopra riportati.

c) Si osservi il diverso significato fisico dei momenti coniugati nei tre sistemi
di coordinate sopra considerati. Nel caso delle coordinate cartesiane essi rappresentano le componenti della quantit`a di moto; nel caso delle coordinate cilindriche,
ci`o resta vero per pr e pz , mentre p' `e la componente del momento angolare lungo
lasse z, che `e lasse di rotazione associato alla coordinata angolare '. Nel caso
delle coordinate sferiche, si ha analogamente che p `e la componente radiale della
quantit`
a di moto, e p' `e ancora la componente z del momento angolare. In generale, dalla circostanza che il prodotto ph qh ha le dimensioni di una azione (energia
tempo80 ), segue subito che, se qi ha le dimensioni di una lunghezza, allora pi ha le
dimensioni di una quantit`
a di moto, mentre se qi `e un angolo, pi ha le dimensioni
di un momento angolare.

b) Problema a due corpi.


Consideriamo il caso particolarmente significativo di forze interne centrali a simmetria sferica, e dunque provenienti da unenergia potenziale V (),
con 2 = (x1 x2 )2 + (y1 y2 )2 + (z1 z2 )2 ; in coordinate cartesiane si ha
` tuttavia conveallora L = 12 m1 (x 21 + y 12 + z12 ) + 12 m2 (x 22 + y 22 + z22 ) V (). E
niente passare dalle coordinate cartesiane dei due punti a nuove coordinate
X, Y, Z, , #, ', ove X, Y, Z sono le coordinate cartesiane del baricentro, e
, #, ' le coordinate sferiche del vettore relativo P2 P1 = x1 x2 . Si
verifica allora che L e H sono date da
1
1
m(X 2 + Y 2 + Z 2 ) + ( 2 + 2 # 2 + 2 sin2 #' 2 ) V ()
2
2
(A.1.3)
p2'
1 2
1 2 p2#
H =
(pX + p2Y + p2Z ) +
(p + 2 + 2 2 ) + V () ,
2m
2

sin #
L =

ove m e denotano la massa totale e la massa ridotta: m = m1 + m2 ,


1/ = (1/m1 ) + (1/m2 ).
c) Il pendolo e il pendolo sferico. Per il pendolo semplice nel piano
verticale xz, con lasse z verticale ascendente, si usano coordinate polari
piane r, ', imponendo il vincolo r = l. Misurando, come `e consueto in
questo problema, langolo ' a partire dalla direzione negativa dellasse z,
lenergia potenziale della forza peso `e allora V = mgz = mgl cos '; si ha
80 `

E gi`
a stato osservato che il prodotto pq @L
q ha le dimensioni di una energia, perche
@ q
L = T V ha le dimensioni di una energia.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 163


cos`
1 2 2
ml ' + mgl cos '
2
p2
H =
mgl cos ' ,
2ml2
L =

(A.1.4)

dove si `e denotato p = p' . Abbiamo gi`a osservato che le equazioni di moto


non si alterano se si moltiplica la lagrangiana per una costante. Qui `e spontaneo dividere la lagrangiana per ml2 , e si ha quindi la nuova lagrangiana
(che denotiamo ancora con L)
1
L = ' 2 + ! 2 cos ' .
2
Si ha allora p = ' e quindi
1
H = p2
2

! 2 cos ' ,

con ! 2 = g/l.
Venendo infine al pendolo sferico, usando coordinate polari, e imponendo
il vincolo = R si trova
1
mR2 # 2 + (sin2 #)' 2 + mgR cos #
2
p2'
1
2
H =
p
+
mgR cos # ,
2mR2 # sin2 #
L =

(A.1.5)

`
dove si `e preso langolo # a partire dalla direzione negativa dellasse z. E
2
ancora conveniente dividere la lagrangiana per mR , ottenendo in tal modo
1 2
(# + sin2 #)' 2 + ! 2 cos #
2
p2'
1 2
H =
p# +
! 2 cos # ,
2
sin2 #
L =

con ! 2 = g/.

(A.1.6)

164

A.2

Andrea Carati e Luigi Galgani

La parentesi di Poisson come operatore differenziale del primo ordine, e dimostrazione


dellidentit`
a di Jacobi

` significativo riguardare alla parentesi di Poisson nel modo seguente: avenE


do fissato una variabile dinamica f , la parentesi di Poisson `e una applicazione
che ad ogni variabile dinamica g associa la variable dinamica {f, g}. Si tratta evidentemente di un operatore lineare, agente su ogni funzione g, che
possiamo denotare con Df . Esso `e dunque definito da81
Df g = {g, f } ,
ovvero da

X @f @
Df =
@pi @qi
i

@f @
@qi @pi

` chiaro che pi`


E
u in generale possiamo considerare un operatore dierenziale
del primo ordine in IRm associato a un campo vettoriale

v(x) = v1 (x), . . . , vm (x)


e definito da

Lv =

m
X
j=1

vj

@
.
@xj

Questo operatore dierenziale prende il nome di derivata di Lie associata


al campo vettoriale v(x). Il nostro `e il caso particolare della derivata di Lie
rispetto a un campo vettoriale hamiltoniano, in cui m = 2n, x = (q, p) e
@f
@f
v = ( @p
, @q
) E grad f : in altri termini,
Df = LEgrad f .
Veniamo ora alla dimostrazione della identit`a di Jacobi
{f, {g, h}} + {g, {h, f }} + {h, {f, g}} = 0 .
Essa si esegue, senza ricorrere a calcoli piuttosto lunghi (benche elementari), semplicemente osservando che, se sviluppassimo il primo membro,
troveremmo una somma di termini, ciascuno contenente almeno una derivata seconda di una delle funzioni f , g o h. Se allora proviamo che lespressione
al primo membro non pu`o contenere derivate seconde di nessuna delle tre
funzioni, ci`
o vuol dire che tutti questi termini si elidono, e pertanto la somma `e nulla. Mostriamo dunque che non possono essere presenti, ad esempio,
81

Qui la funzione f svolge il ruolo dellhamiltoniana H, e g quello della variabile


dinamica studiata.

Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 165


derivate seconde di h. Queste non sono presenti, evidentemente, nellultimo
termine; daltra parte, `e immediato verificare che il contributo dei primi due
termini si scrive nella forma Df Dg h Dg Df h = [Df , Dg ]h, avendo indicato
con [Df , Dg ] il commutatore di Df e Dg , ovvero la quantit`a
[Df , Dg ] := Df Dg

D g Df .

Ora, `e molto facile verificare che il commutatore di due qualsiasi derivate


di Lie `e ancora, del tutto in generale, una derivata di Lie, e dunque non
contiene derivate seconde. Pi`
u precisamente, vale il seguente facile
Lemma 2 Per il commutatore [Lv , Lw ] delle derivate di Lie Lv e Lw si ha
[Lv , Lw ] = Lu ,
dove
ui = L v w i

Dimostrazione.

Lv Lw

Lw vi ,

i = 1, . . . , m .

(A.2.1)

Per ogni funzione g si ha

X
@ @g
L w Lv g =
vi
wj
@xi
@xj
ij

X
ij

wi

@ @g
vj
.
@xi
@xj

Ma per il teorema di Schwarz i termini contenenti le derivate seconde di g si


semplificano, e si resta con
X @wj
vi
@xi
ij

wi

X
@vj @g
@
=
uj
g.
@xi @xj
@xj
j
Q.E.D.

Lidentit`
a di Jacobi `e cos` dimostrata.
Osservazione. E immediato verificare (usando lantisimmetria della parentesi
di Poisson) che nel linguaggio degli operatori di derivazione lidentit`a di Jacobi si
riscrive equivalentemente Df Dg h Dg Df h D{f,g} h = 0, ovvero (per larbitrariet`a
di h)
[Df , Dg ] = D{f,g} .
Questa relazione altro non `e che un caso particolare della relazione [Lv , Lw ] = Lu
sopra dimostrata, con u dato dalla (A.2.1). Pertanto questa relazione esprime il
significato profondo della identit`
a di Jacobi.

166

Andrea Carati e Luigi Galgani