Sei sulla pagina 1di 83

Indice

1 Sistemi vincolati e variabili Lagrangiane 4


1.1 Sistemi liberi e vincolati . . . . . . . . . . . . . . . . . . . . . 4
1.2 Vincoli olonomi bilaterali . . . . . . . . . . . . . . . . . . . . 4
1.3 Vincoli olonomi unilaterali . . . . . . . . . . . . . . . . . . . . 7
1.4 Vincoli anolonomi . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Spostamenti innitesimi e spostamenti possibili . . . . . . . . 10
1.6 Spostamenti virtuali . . . . . . . . . . . . . . . . . . . . . . . 10
2 Principio dei lavori virtuali e Principio di d'Alembert 12
2.1 Forze attive e forze vincolari . . . . . . . . . . . . . . . . . . . 12
2.2 Lavoro virtuale . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Vincoli lisci . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Equilibrio di un sistema. Principio del lavori virtuali . . . . . 14
2.5 Il principio di d'Alembert . . . . . . . . . . . . . . . . . . . . 19
3 Le equazioni di Lagrange 21
3.1 Forze generalizzate . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Derivazione delle equazioni di Lagrange . . . . . . . . . . . . 22
3.3 Energia cinetica nelle coordinate generalizzate . . . . . . . . . 24
3.4 Forze potenziali e funzione di Lagrange . . . . . . . . . . . . . 25
3.5 Forze non potenziali. Teorema sulla variazione dell'energia
totale di un sistema . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6 Sistemi scleronomi e conservazione dell'energia . . . . . . . . 27
3.7 Forze dissipative e giroscopiche . . . . . . . . . . . . . . . . . 27
3.8 Potenziali generalizzati . . . . . . . . . . . . . . . . . . . . . . 28
3.9 Soluzione delle equazioni di Lagrange . . . . . . . . . . . . . . 29
4 Formalismo Hamiltoniano della meccanica 31
4.1 Variabili Lagrangiane e variabili Hamiltoniane . . . . . . . . . 31
4.2 Funzione di Hamilton ed Equazioni di Hamilton . . . . . . . . 32
4.3 Teorema di Donkin . . . . . . . . . . . . . . . . . . . . . . . . 33
4.4 Derivazione delle equazioni di Hamilton . . . . . . . . . . . . 34
4.5 Relazione tra Hamiltoniana ed energia totale . . . . . . . . . 35

1
5 Formalismo canonico 37
5.1 Forma matriciale delle equazioni di Hamilton . . . . . . . . . 37
5.2 Le parentesi di Poisson . . . . . . . . . . . . . . . . . . . . . . 38
5.3 Integrali primi del moto . . . . . . . . . . . . . . . . . . . . . 39
5.4 Proprietà fondamentali delle parentesi di Poisson . . . . . . . 39
5.5 Identità di Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . 40
6 Caratterizzazioni dei sistemi Hamiltoniani 42
6.1 Matrici Hamiltoniane . . . . . . . . . . . . . . . . . . . . . . . 42
6.2 Campi Vettoriali Hamiltoniani . . . . . . . . . . . . . . . . . . 43
6.3 MANCA TITOLO . . . . . . . . . . . . . . . . . . . . . . . . 46
7 Introduzione al calcolo delle variazioni 47
7.1 Funzionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
7.2 Continuità dei funzionali . . . . . . . . . . . . . . . . . . . . . 49
7.3 Variazione Prima . . . . . . . . . . . . . . . . . . . . . . . . . 50
7.4 Equazioni di Eulero-Lagrange . . . . . . . . . . . . . . . . . . 55
7.5 Variazione con estremi liberi . . . . . . . . . . . . . . . . . . . 57
8 Principi Variazionali 61
8.1 Principio di minima azione di Hamilton, forma lagrangiana . 61
8.2 Principio di minima azione di Hamilton, forma hamiltoniana . 62
9 Invarianti integrali della meccanica 64
9.1 Invariante Integrale Poincaré-Cartan . . . . . . . . . . . . . . 64
9.2 Invariante integrale universale . . . . . . . . . . . . . . . . . . 67
9.3 Caratterizzazione dei sistemi Hamiltoniani . . . . . . . . . . . 68
10 Trasformazioni Caniche 71
10.1 Trasformazioni Canoniche . . . . . . . . . . . . . . . . . . . . 71
10.2 Trasformazioni canoniche libere . . . . . . . . . . . . . . . . . 74
10.3 Le parentesi di Lagrange . . . . . . . . . . . . . . . . . . . . . 77
10.4 Matrice jacobiana di una trasformazione canonica . . . . . . . 79
10.5 Invarianza delle parentesi di Poisson in una trasformazione
canonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

2
Introduzione

3
Capitolo 1

Sistemi vincolati e variabili

Lagrangiane

1.1 Sistemi liberi e vincolati


Per una vasta categoria di sistemi sici è possibile esprimere i vincoli ana-
liticamente, per mezzo di equazioni o disequazioni, in termini niti o die-
renziali. I vincoli le cui relazioni descrittive sono espresse in termini niti
dei parametri sono detti olonomi e di conseguenza i sistemi su cui agiscono
sistemi olonomi, mentre i vincoli espressi per mezzo di relazioni dierenziali
sono detti anolonomi ed i sistemi su cui agiscono sistemi anolonomi. Inoltre,
nel caso in cui i vincoli siano esprimibili mediante sole equazioni, si dicono
bilaterali, nel caso siano necessarie anche disequazioni unilaterali.

1.2 Vincoli olonomi bilaterali


Iniziamo con un esempio di vincolo. Supponiamo di avere un punto materiale
vincolato a muoversi su un piano π parallelo al piano xy di un sistema di
assi cartesiani, in moto traslatorio uniforme lungo l'asse z con velocità v
(g. 1.1). La condizione di appartenenza del punto al piano è esprimibile
mediante la seguente relazione tra le coordinate del punto ed il tempo:
z = vt + z0 . (1.1)
In generale, una relazione del tipo:
f (t, x, y, z) = 0 (1.2)
esprime, purchè f soddis opportune condizioni di regolarità, la condizione
di appartenenza di un punto materiale ad una supercie (ssa o variabile nel
tempo) di equazione (1.2). La relazione (1.2) evidentemente lega le coordi-
nate cartesiane del punto tra loro, tuttavia è possibile in generale esprimere

4
Figura 1.1: punto materiale vincolato a muoversi sul piano π

le tre coordinate un funzione di due parametri liberi q1 , q2 e del tempo:


x = x(t, q1 , q2 ), y = y(t, q1 , q2 ), z = z(t, q1 , q2 ). (1.3)
Procedendo, analizziamo l'appartenenza di un punto materiale ad una
curva nello spazio, ssa o mobile. Tale condizione è esprimibile mediante le
due equazioni cartesiane della curva
f1 (t, x, y, z) = 0, f2 (t, x, y, z) = 0 (1.4)
oppure con le tre equazioni parametriche, dipendenti questa volta da un
unico parametro libero q :
x = x(t, q), y = y(t, q), z = z(t, q). (1.5)
Passiamo ora all'analisi di un sistema di N punti materiali Pν , ν =
1, · · · , N . La presenza di vincoli determina, come abbiamo visto nel caso del
singolo punto materiale, una serie di relazioni cartesiane, che coinvolgono
questa volta tutte le 3N coordinate del sistema:
fα (t, xν , yν , zν ) = 0 (ν = 1, · · · , N ; α = 1, · · · , d) (1.6)
dove d è il numero complessivo di relazioni cartesiane relative ai vincoli.
Chiaramente si ha moto quando d < 3N e il numero n = 3N − d, qualora
il rango della matrice jacobiana delle fα sia d, rappresenta il numero di
parametri liberi che compaiono nelle equazioni parametriche dei vincoli:

 xν = xν (t, q1 , · · · , qn )

yν = yν (t, q1 , · · · , qn ) (1.7)

zν = zν (t, q1 , · · · , qn )

5
I parametri q1 , · · · , qn sono detti coordinate lagrangiane mentre il loro
numero n è chiamato grado di libertà del sistema. Vediamo l'esempio di un
sistema di due punti materiali A e B, vincolati rispettivamente sugli assi y
ed x di un sistema cartesiano, la cui distanza L è invariabile (g. 1.2). Dette
(xA , yA , zA ) e (xB , yB , zB ) le coordinate rispettive dei punti, le equazioni
cartesiane che descrivono il sistema sono le seguenti:

Figura 1.2: sistema di due punti vincolati su assi e a distanza ssata

(
x2B + yA
2
− L2 = 0,
(1.8)
xA = 0, zA = 0, yB = 0, zB = 0.
Il sistema possiede sei coordinate e sono presenti cinque equazioni indipen-
denti che esprimono vincoli, per cui il sistema può essere descritto mediante
un solo parametro lagrangiano, ovvero possiede un solo grado di libertà. Fa-
cendo riferimento alla (g. 1.2) utilizziamo come parametro per la descrizione
l'angolo θ tra l'asse x ed AB. Sono evidentemente valide le relazioni:
xB = −L cos θ yA = L sin θ (1.9)
che chiaramente soddisfano la prima relazione vincolare del sistema (1.8).
Le altre quattro relazioni dei vincoli in (1.8) insieme alle (1.9) costituisco-
no l'insieme delle equazioni parametriche dipendenti dall'unica coordinata
lagrangiana θ necessaria alla descrizione del sistema.
L'estensione allo schema di corpo rigido ed ai sistemi di corpi rigidi è
abbastanza immediata. La descrizione dello spazio di congurazioni di un
corpo rigido è ottenibile mediante l'utilizzo di sei parametri (ξ1 , · · · , ξ6 ), di
cui i primi tre coincidono con le coordinate di un suo punto pressato (ad es.
il centro di massa), le altre tre indicano l'orientamento di una terna solidale
al corpo rispetto ad una terna ssa. Tale schema rappresentativo tiene già

6
conto del vincolo di rigidità interno. Pertanto rimane da trattare l'insieme
dei vincoli esterni, semplicemente estendendo le equazioni (1.6) e (1.7):
fα (t, ξ1ν , ξ2ν , · · · , ξ6ν ) = 0, (ν = 1, · · · , N ; α = 1, · · · , d), (1.10)
da cui
ξ1ν = ξ1ν (t, q1 , · · · , qn )



 ξ2ν = ξ2ν (t, q1 , · · · , qn )


.. (1.11)



 .

ξ6ν = ξ6ν (t, q1 , · · · , qn )
se il sistema possiede n = 6N − d gradi di libertà, vale a dire se le (1.10)
sono indipendenti.
Possiamo dunque operare una generalizzazione e considerare un sistema
di corpi Cν (ν = 1, · · · , N ), rigidi o punti materiali, individuati in un sistema
cartesiano da una r-pla di parametri
(ξ1 , ξ2 , · · · , ξr ).

In presenza di vincoli olonomi bilaterali, l'insieme delle condizioni che espri-


mono i vincoli produce un certo numero d di relazioni cartesiane indipendenti:
fα (t, ξj ) = 0 (j = 1, · · · , r; α = 1, · · · , d). (1.12)
Il sistema possiede un numero di gradi di libertà n = r−d e dipende pertanto
da n coordinate lagrangiane (q1 , · · · , qn ) libere. E' inne possibile esprimere
i parametri ξj in funzione delle coordinate lagrangiane:
ξ1 = ξ1 (t, q1 , · · · , qn )



 ξ2 = ξ2 (t, q1 , · · · , qn )


.. (1.13)



 .

ξr = ξr (t, q1 , · · · , qn )

1.3 Vincoli olonomi unilaterali


Esistono situazioni in cui le rappresentazioni analitiche dei vincoli richiedono,
oltre che equazioni, anche disequazioni. Abbiamo catalogato tali vincoli
come vincoli olonomi unilaterali. Entriamo nello specico considenrando ad
esempio il caso già analizzato del punto P vincolato a muoversi su un piano
(g. 1.1). Ipotizziamo ora che il punto materiale sia semplicemente vincolato
a non poter attraversare il piano π indicato in gura, dovendo rimanere nella
regione delle z superiori al piano o al pi๠sul piano stesso. Tale condizione
è esprimibile con la disequazione:
z ≥ vt + z0 . (1.14)

7
Nel caso pi๠generale possibile, si ha che insieme alle equazioni (1.12) è
necessario introdurre un certo numero s di disequazioni:
Φi (t, ξj ) ≥ 0 (j = 1, · · · , r; i = 1, · · · , s). (1.15)
Un sistema sottoposto a vincoli olonomi unilaterali non subisce una di-
minuzione del numero di gradi di libertà per via delle disequazioni. Gli
n = r − d parametri lagrangiani sono generalmente legati dalle disequazioni.
Prendiamo ad esempio una sfera di raggio R e centro C vincolata a muoversi
nel semispazio delle z positive (g. 1.3). La sfera ha sei gradi di libertà, le

Figura 1.3: sfera vincolata a muoversi nel semispazio positivo delle z


tre coordinate del centro e gli angoli direttori che determinano l'orientamen-
to di una terna solidale rispetto alla terna ssa, tuttavia la coordinata z del
centro, indichiamola con q6 , deve soddisfare la disequazione:
q6 − R ≥ 0. (1.16)
In un sistema sottoposto a vincoli olonomi unilaterali si distinguono poi
posizioni di conne da posizioni ordinarie. Sono posizioni di conne quelle
per cui almeno una delle disequazioni è vericata come uguaglianza, come
quando il punto materiale giace sul piano π nel primo esempio e le posizioni
in cui la sfera è tangente al piano xy nel secondo esempio, mentre sono
posizioni ordinarie tutte le altre.

8
1.4 Vincoli anolonomi
Passiamo ora ad analizzare la categoria dei vincoli detti anolonomi, ovvero
caratterizzati da un certo numero g di relazioni dierenziali, non integrabili1 ,
dei parametri:
Fβ (t, ξj , ξ˙j ) = 0 (j = 1, · · · , r; β = 1, · · · , g), (1.17)
ovvero, relazioni in cui compaiono esplicitamente le velocità. Tali vincoli
sono pertanto anche detti cinematici. Un sistema caratterizzato dalla pre-
senza di soli vincoli anolonomi ha la possibilità di occupare una posizione
completamente arbitraria nello spazio, tuttavia sono sottoposte a restrizione
le velocità del sistema.
Limitiamoci ai vincoli anolonomi per cui la dipendenza dalle velocità sia
lineare:
r
(1.18)
X
lβj ξ˙j + Dβ = 0 (β = 1, · · · , g),
j=1

dove

lβj = lβj (t, ξ1 , · · · , ξr ) (1.19)


Dβ = Dβ (t, ξ1 , · · · , ξr ). (1.20)
Notiamo che ogni vincolo olonomo implica come conseguenza un vincolo
dierenziabile, le cui equazioni si ottengono derivando rispetto al tempo la
(1.12):
r
∂fα ∂fα
(1.21)
X
ξ˙j + = 0 (α = 1, · · · , s).
∂ξj ∂t
j=1

Questo vincolo dierenziale non è invece equivalente al vincolo 1.12, poiché


integrando le (1.21) si ottengono equazioni del tipo:

fβ (t, ξj ) = c (j = 1, · · · , r; α = 1, · · · , s)(1.22)
dove c è una costante arbitraria. Per questa ragione, il vincolo (1.21) è detto
integrabile e quindi non è un vincolo onolonomo. I vincoli sono denibili
inne come stazionari se non c'è dipendenza esplicita dal tempo, ovvero,
∂f
nel caso dei vincoli olonomi se α = 0, e nel caso dei vincoli anolonomi se
∂t
Dβ = 0 e lβj = lβj (ξ1 , · · · , ξr ).
In base a quest'ultima classicazione, un sistema si dice scleronomo se
sottoposto a vincoli stazionari, reonomo nel caso opposto.
1
Non integrabili signica che le Fβ non sono derivate totali rispetto al tempo di funzioni
di t e delle ξj

9
1.5 Spostamenti innitesimi e spostamenti possibili
Consideriamo un sistema olonomo soggetto a vincoli bilaterali, costituito da
N punti Pν , ν = 1, · · · , N . Lo spazio delle congurazioni del sistema sia
descritto dalla r-pla di parametri (ξ1 , · · · , ξr). Indichiamo con
rν ≡ OP ν ν = 1, · · · , N (1.23)
il vettore posizione del ν -esimo punto Pν rispetto all'origine O.
Chiamiamo spostamento innitesimo ogni spostamento del generico pun-
to Pν del sistema, dovuta ad una variazione innitesima dei parametri ξj :
r
∂rν ∂rν
(1.24)
X
drν = dξj + dt.
∂ξj ∂t
j=1

Le dξj sono del tutto arbitrarie e non tenute a rispettare le equazioni dei
vincoli (1.12). Si tratta quindi di uno spostamento del tutto arbitrario, la
cui grandezza tende a zero con la quantità:
q
dξ12 + · · · dξr2 + dt2 . (1.25)
Distinguiamo tra gli spostamenti innitesimi la categoria degli sposta-
menti possibili, ovvero quelli per cui le dξj soddisfano le equazioni che si
ottengono dierenziando le (1.12)
r
∂fα ∂fα
(1.26)
X
dξj + dt = 0 (α = 1, · · · , d).
∂ξj ∂t
j=1

Ciò signica che uno spostamento possibile porta il sistema da una con-
gurazione consentita dai vincoli ad un'altra che generalmente dierisce da
una consentita dai vincoli per una grandezza che dipende da innitesimi di
ordine superiore alla quantità (1.25).
L'estensione di tale discorso ai sistemi caratterizzati anche da un certo nu-
mero di vincoli anolonomi è abbastanza semplice. Otteniamo l'analogo del-
la (1.26) semplicemente moltiplicando la (1.18) per l'intervallo innitesimo
temporale dt durante il quale avvengono le variazioni innitesime drν :
r
(1.27)
X
lβj dξj + Dβ dt = 0 (β = 1, · · · , g).
j=1

1.6 Spostamenti virtuali


Uno spostamento innitesimo di un sistema ad un istante t, che sia compati-
bile con i vincoli imposti supposti invariabili e coincidenti con quelli eettivi
all'istante t considerato, è detto spostamento virtuale. La compatibilità con i

10
vincoli congelati all'istante t fa sì che uno spostamento virtuale sia uno spo-
stamento possibile per questi vincoli. Per come sono deniti, gli spostamenti
virtuali sono individuati dalle relazioni (1.24), (1.26) e (1.27) in cui si elimi-
nino i termini in dt. Nelle relazioni per gli spostamenti virtuali, sostituiamo
per distinguerli, il simbolo d con la lettera δ ed otteniamo:
r
∂rν
(1.28)
X
δrν = δξj
∂ξj
j=1
r
∂fα
(1.29)
X
δξj = 0 (α = 1, · · · , d)
∂ξj
j=1
r
(1.30)
X
lβj δξj = 0 (β = 1, · · · , g).
j=1

Nel caso di un sistema sottoposto a soli vincoli stazionari gli spostamenti


possibili e quelli virtuali coincidono. Nel caso generale, uno spostamento
virtuale rappresenta lo spostamento possibile di un sistema da una sua con-
gurazione compatibile con i vincoli per un istante ssato di tempo t ad
un'altra congurazione che dierisce da una compatibile con i vincoli allo
stesso istante di tempo t ssato per una grandezza di ordine superiore a:
q
δξ12 + · · · + δξr2 . (1.31)
Uno spostamento virtuale δrν si dice reversibile se è virtuale anche il suo
opposto −δrν . In caso contrario viene detto irreversibile. Sono reversibili
gli spostamenti virtuali nel caso di vincoli bilaterali: infatti se le r-ple di
variazioni di coordinate δξj soddisfano le relazioni (1.28) e (1.29), anche per
le r-ple evidentemente le soddisfano −δξj . In presenza di vincoli unilaterali
la reversibilità degli spostamenti virtuali si ha per posizioni ordinarie, mentre
per posizioni di conne solo gli spostamenti virtuali tangenti alle superci
che descrivono il vincolo lo sono.

11
Capitolo 2

Principio dei lavori virtuali e

Principio di d'Alembert

2.1 Forze attive e forze vincolari


Consideriamo un sistema di punti Pν (ν = 1, · · · , N ). Le interazioni tra i
punti generano i risultanti Fν delle forze su ciascuno dei punti. La seconda
Legge di Newton lega tali forze alle accelerazioni dei punti:
mνaν = Fν (ν = 1, · · · , N ). (2.1)
In un sistema sottoposto a vincoli, l'azione dei vincoli è espressa trami-
te forze che essi stessi esercitano sui punti del sistema. Tali forze vengono
chiamateforze vincolari e le indicheremo d'ora in avanti con Rν . Le forze
che invece non provengono dai vincoli vengono chiamate forze attive, le in-
dicheremo con Fν(a) . Pertanto, distinguendo tra forze vincolari e forze attive
o eettive, la legge di Newton viene espressa nel modo seguente:
maν = Fν(a) + Rν (ν = 1, · · · , N ). (2.2)
Le forze vincolari sono generalmente di natura incognita, pertanto la loro
determinazione passa attraverso lo studio del sistema formato dalle equazio-
ni di Newton (2.2) e dalle equazioni inerenti i vincoli presenti (olonomi ed
anolonomi), tenendo conto delle eventuali restrizioni dovute a disuguaglianze
imposte dalla presenza di vincoli unilaterali ed anche dal tipo di vincoli.

2.2 Lavoro virtuale


Il problema del moto, esposto nel paragrafo precedente, può essere risolto
sotto opportune condizioni sui vincoli che permettono di eludere il problema
della presenza delle incognite relative alle forze vincolari. E' possibile infatti

12
costruire un apparato analitico molto potente nel quale le forze vincolari non
compaiono esplicitamente.
Partiremo nella costruzione di questo formalismo denendo innanzitutto
il concetto di lavoro virtuale. Detto δrν lo spostamento virtuale del punto
Pν , come denito nel capitolo precedente, chiamiamo lavoro virtuale su Pν
la quantità
δLν = Fν · δrν . (2.3)
Possiamo anche qui distinguere tra forze attive e forze vincolari, per cui
abbiamo:
δLν = Fν(a) · δrν + Rν · δrν = δL(a) (v)
ν + δLν . (2.4)
Il lavoro virtuale su tutto il sistema si otterrà sommando quelli relativi ai
vari punti.

2.3 Vincoli lisci


Le forze vincolari nascono nel momento in cui uno o pi๠punti del sistema ha
un contatto diretto con le superci dei vincoli e tipicamente possono avere
una componente normale alla supercie ed una tangente. Le componenti
tangenti sono le forze di attrito, che hanno verso opposto a quello del moto
e che pertanto producono lavoro negativo.
Si osserva che, nel momento in cui si tendono ad eliminare le componenti
che generano attrito, levigando o lubricando le superci di contatto, le forze
vincolari tendono ad avere componenti normali decisamente preponderanti
rispetto alle componenti tangenziali, per cui si può realizzare un'estrapola-
zione denendo i cosiddetti vincoli lisci o ideali, ovvero vincoli le cui forze
associate sono esclusivamente normali alla supercie di contatto con i punti
del sistema. Escludendo le componenti di attrito che come detto portereb-
bero contributi negativi, risulta che il lavoro virtuale delle forze vincolari
dovute a vincoli lisci sia sempre positivo o al più nullo:
δL(v) ≥ 0. (2.5)
Tale equazione è nota come principio delle forze vincolari. La condizione di
uguaglianza nella (2.5) si realizza in presenza di spostamenti virtuali rever-
sibili, se infatti il prodotto Rν · δrν fosse positivo per un dato spostamento
reversibile δrν , si avrebbe per lo spostamento innitesimo −δrν , anche que-
sto virtuale per la denizione di reversibilità, un lavoro virtuale −Rν δrν
negativo, in contraddizione con la (2.5). Risulta evidente che uno sposta-
mento virtuale reversibile è sempre parallelo alla supercie di contatto tra i
vincoli ed il sistema. La disuguaglianza nella (2.5) può essere realizzata in
caso di spostamenti irreversibili, ovvero nelle posizioni di conne nel caso di
vincoli unilaterali.

13
2.4 Equilibrio di un sistema. Principio del lavori
virtuali
Introduciamo ora un principio molto importante nella meccanica, il cosiddet-
to Principio dei lavori virtuali, valido per l'analisi della statica dei sistemi.
Deniamo pertano innanzitutto la posizione di equilibrio del sistema come
quella congurazione per la quale, posto il sistema in essa con velocità nulle,
esso rimane fermo.
Prima di arrivare alla formulazione analitica del principio, avviciniamoci
per gradi analizzando congurazioni di equilibrio di semplici sistemi mecca-
nici. Partiamo dall'equilibrio di due semplici sistemi di carrucole (g. 2.1).
Nella congurazione (a) le due masse sono identiche, su ciascuna delle quali

Figura 2.1: masse in equilibrio tramite carrucole


agisce una forza peso in modulo pari a P. Se la massa di sinistra viene scesa
di un altezza h, la massa di destra, sale di un'altezza h. Nella congurazione
P
(b) il peso P è sostenuto da due funi, ognuna delle quali porta un peso ,
2
P
per cui si ha equilibrio se l'estremità libera è caricata con un peso . Da
2
notare che l'altra metà del peso è sostenuta inne dal vincolo che si crea tra
la fune e il sostegno di tutta la struttura, per cui per l'equilibrio del siste-
P
ma agiscono una serie di forze vincolari e le forze attive P e . Vediamo
2
comunque che è possibile ricavare una semplice relazione tra le forze attive.
Infatti, analogamente a quanto visto per la congurazione (a), notiamo che
P h
se il peso scende di un'altezza h, il peso P sale di un'altezza . Indicando
2 2

14
come positivi gli spostamenti verso il basso, si ha che
P h
h − P = 0. (2.6)
2 2
Dall'equazione precedente è evidente che i due termini della somma al mem-
bro di sinistra non sono altro che i lavori delle forze attive nel passaggio da
una congurazione di equilibrio ad un'altra.
Relazioni analoghe alla (2.6) si continuano ad ottenere aumentando il
numero delle carrucole. La congurazione (c) della g. (2.2) presenta il peso
P sospeso a sei carrucole, per cui l'equilibrio è raggiunto quando l'estremità
P
libera è caricata con un peso pari a . Anche qui è facile osservare che se il
6

Figura 2.2: equilibrio a sei carrucole

15
h
peso di destra scende di h, il peso P sale di un'altezza pari ad e si ha:
6
P h
h − P = 0. (2.7)
6 6
Vediamo inne la congurazione (d) della g. (2.3), nota come carrucola
d'Archimede o taglia multipla. E' abbastanza chiaro che il peso ad ogni

Figura 2.3: carrucola d'Archimede


carrucola viene diviso per due, così l'estremità libera, per l'equilibrio, deve
essere caricata con un ottavo del peso in basso. Anche qui, se il peso in
h
alto scende di h, il peso immediatamente in basso sale solo di per riavere
2
l'equilibrio, per cui si ha:
P h
h − P = 0. (2.8)
8 8
In ognuno dei casi visti, è evidente che una congurazione di equilibrio viene
individuata quando il lavoro totale delle forze attive è pari a zero. Questo è
il fondamento del principio dei lavori virtuali.

16
Possiamo ritrovare lo stesso risultato anche prendendo un altro esempio.
Consideriamo un piano inclinato di α = 30◦ e siano sospesi tramite una fune
ed una carrucola i pesi Q e P come in g.(2.4). Lo studio del sistema porta

Figura 2.4: piano inclinato


alla conclusione che l'equilibrio è ottenuto se il peso P è la metà del peso Q.
Se il peso P scende di h, il peso Q sale sul piano inclinato di h ma la quota
h
verticale di cui sale è h sin α = . Anche in questo caso è evidente che il
2
nuovo stato di equilibrio è associato al valore zero della somma dei lavori
delle forze attive in gioco.
Questo risultato può essere facilmente spiegato da un principio introdotto
da Torricelli, che aerma che in una macchina sussiste equilibrio quando la
posizione del centro di gravità (di massa) del sistema, non può variare. Nel
caso appena considerato, dato uno spostamento h del peso P verso il basso
(consideriamo questo verso positivo), la quota del centro di gravità resta
invariata, se è soddisfatta l'equazione:
Ph − Qh sin α = 0 (2.9)
la cui soluzione è
P 1
= sin α = (2.10)
Q 2
che è il corretto rapporto tra le masse in presenza di equilibrio.
Finora abbiamo ottenuto che ad un sistema di masse in equilibrio è as-
sociata la relazione per cui la somma dei lavori delle forze peso su ciascuna
delle masse deve essere zero, dove le forze peso sono le uniche forze attive
presenti, e tale proprietà sicamente è dovuta alla stazionaria dà del centro
di gravità di un sistema in caso di equilibrio. Tuttavia quanto detto può
essere facilmente generalizzato facendo due osservazioni.
La prima riguarda l'estendibilità a tutti i tipi di forze, non solo ai pesi. Il
concetto di forza viene generalizzato da Newton in poi. Fino a quel momen-
to lo studio della meccanica e delle forze era concepito essenzialmente come

17
analisi delle trazioni o pressioni meccaniche esercitate dai pesi dovuti alle
masse. Dagli studi di Newton in poi è stato possibile estendere in generale
a qualsiasi tipo di forza i risultati validi per i pesi, poiché comunque esiste
un'equivalenza per la quale l'azione di ogni forza può essere misurata sosti-
tuendo alla forza la trazione del peso di una massa esercitata tramite una
fune. Pertanto estendiamo il risultato n qui trovato per i pesi a qualsiasi
sistema su cui agiscono forze attive di qualsiasi natura.
La seconda osservazione invece riguarda il fatto che la generalizzazione
più ampia del risultato trovato debba riguardare spostamenti innitesimi
del sistema. Vediamolo con un esempio: se due pesi si fanno equilibrio su
un piano inclinato, tale equilibrio sarà mantenuto anche se il piano viene
trasformato in un altro prolo nei punti in cui esso non è a contatto con i
corpi (g. 2.5). Fatta presente questa osservazione, nel caso più generale

Figura 2.5: piano inclinato


l'equilibrio può quindi essere mantenuto solo per spostamenti innitesimi,
altrimenti per spostamenti niti il sistema potrebbe trovarsi in una con-
gurazione di vincoli del tutto diversa per la quale l'equilibrio non sussiste
più. Nei casi esaminati tutti gli spostamenti erano compatibili con i proli
dei vincoli, se quindi passiamo a spostamenti innitesimi compatibili con i
proli dei vincoli per come sono in quel preciso istante di tempo, dobbiamo
far riferimento agli spostamenti virtuali.
Abbiamo quindi generalizzato il risultato osservato tramite esempi sui
casi di equilibrio di sistemi di masse e possiamo dire che un sistema costituito
da N punti è in una congurazione di equilibrio se è nulla la somma dei lavori
virtuali delle forze attive agenti su ciascuno dei punti:
N
(a)
(2.11)
X
δLtot = Fν(a) · δrν = 0.
ν=1

La precedente relazione è il Principio del lavori virtuali nella sua forma


analitica.

18
In realtà il Principio, assunto come tale per la sua fondamentale impor-
tanza (che sarà chiara a breve), può essere rigorosamente dedotto utilizzando
il Principio delle forze vincolari (2.5). Partiamo dalla denizione di posizione
di equilibrio: un sistema è chiaramente in equilibrio se la somma di tutte le
forze agenti su ognuno dei punti del sistema (vincolari e attive) è pari a zero:
Fν(a) + Rν = 0. (2.12)
Di conseguenza, è nullo anche il lavoro virtuale totale:
N  
(2.13)
X
δLtot = Fν(a) + Rν · δrν = 0.
ν=1

La validità della precedente, in virtù della (2.5), indica che in presenza di


soli vincoli lisci si ha che necessariamente:
N
(2.14)
X
Fν(a) · δrν ≤ 0,
ν=1

che rappresenta l'espressione più generale del Principio dei lavori virtuali.
Facciamo alcune osservazioni. Innanzitutto la disuguaglianza è valida
solo nel caso di spostamenti irreversibili e ciò è evidente conseguenza del
Principio delle forze vincolari. La validità del Principio dei lavori virtuali
è determinata dalla presenza di soli vincoli lisci nel sistema e permette di
analizzare i casi di equilibrio statico considerando solo le forze attive e non
esplicitamente le forze vincolari, che come abbiamo detto sono incognite
del problema. Il ruolo dei vincoli nel problema si manifesta indirettamente
tramite gli spostamenti virtuali, che sono appunto per denizione compatibili
con i vincoli.

2.5 Il principio di d'Alembert


Abbiamo appena visto come, sotto la condizione della presenza di soli vin-
coli lisci in un sistema, sia possibile studiarne le congurazioni di equilibrio
tramite relazioni che non coinvolgono esplicitamente le forze vincolari, ma
solo le forze attive. E' possibile tramite un semplicissimo artizio includere
in tale formalismo anche lo studio della dinamica dei sistemi. Basta infatti
scrivere la seconda Legge di Newton (2.2) nella forma:
Fν(a) + Rν − mν aν = 0 (ν = 1, · · · , N ). (2.15)
In tale forma, un problema dinamico si riconduce ad un problema statico
dove, accanto alle forze attive ed alle forze vincolari vengono inserite le forze

19
d'inerzia −mν aν agenti su ciascuno dei punti costituenti il sistema. Ripeten-
do il ragionamento fatto nel paragrafo precedente, in presenza di soli vincoli
lisci, si ottiene l'equivalente del Principio dei lavori virtuali per la dinamica:
N  
(2.16)
X
Fν(a) − maν · δrν = 0.
ν=1

Il risultato ottenuto è noto come Principio di d'Alembert o anche come equa-


zione di Lagrange del primo tipo. Rappresenta chiaramente una formulazio-
ne della dinamica nella quale non compaiono esplicitamente come incognite
le forze vincolari. Chiaramente in questo formalismo vengono inizialmen-
te escluse le forze di attrito, che tuttavia sono forze macroscopiche che in
generale è possibile far rientrare nella soluzione di un problema dinamico.

20
Capitolo 3

Le equazioni di Lagrange

3.1 Forze generalizzate


L'equazione di Lagrange del primo tipo (2.16) è un'equazione della dinamica-
di un sistema di N punti materiali nella quale viene eliminata la dipendenza
esplicita dalle forze vincolari. Tuttavia è possibile dedurre un formalismo
ancora più semplice e potente, ottenendo delle equazioni della dinamica nel-
le quali la dipendenza di vincoli sparisce del tutto. Infatti, allo stato attuale,
la dipendeza dai vincoli è inclusa negli spostamenti virtuali δrν che non sono
tra loro indipendenti in quanto legati dalle relazioni proprie dei vincoli. Per
eliminare tale inconveniente, è possibile esprimere gli spostamenti virtuali in
funzione non delle variazioni innitesime dei parametri δξj ma in funzione
delle variazioni delle n coordinate lagrangiane o generalizzate del sistema
δqi . Le coordinate lagrangiane sono legate ai parametri ξj da relazioni del
tipo (1.13). Abbiamo pertanto:
n
∂rν
(3.1)
X
δrν = δqi ν = 1, · · · , N
∂qi
i=1

Introduciamo in maniera analoga le forze generalizzate. Partiamo dal lavoro


virtuale delle forze attive, per semplicità di notazione da adesso ometteremo
l'apice (a) nelle forze attive, non esistendo più l'ambiguità con la notazione
di forza in generale, avendo escluso esplicitamente le forze vincolari:
N
(3.2)
X
δA = Fν · δrν .
ν=1

Inseriamo adesso la (3.1) nella (3.2) ed otteniamo il lavoro innitesimo


in termini delle coordinate generalizzate:
N n n N
!
∂rν ∂rν
(3.3)
X X X X
δA = Fν · δqi = Fν · δqi .
∂qi ∂qi
ν=1 i=1 i=1 ν=1

21
Deniamo forze generalizzate Qi (i = 1, · · · , n) i coecienti delle δqi :
N
∂rν
(3.4)
X
Qi = Fν ·
∂qi
ν=1

ottenendo per il lavoro


N
(3.5)
X
δA = Qi δqi .
i=1
E' importante notare a questo punto che, se ci si esprime in termini di coor-
dinate e forze generalizzate, si deduce subito un'importante proprietà: per
una data posizione di equilibrio si ha che il lavoro innitesimo, in accordo col
principio dei lavori virtuali, è nullo, ma, dalla (3.5), essendo le δqi indipen-
denti tra loro, si ottiene che tutte le forze generalizzate sono nulle. Pertanto,
per un sistema olonomo, una posizione di equilibrio è raggiunta se e solo se
tutte le forze generalizzate sono nulle.

3.2 Derivazione delle equazioni di Lagrange


Deriviamo una forma molto utile per le equazioni generali della dinamica
per i sistemi olonomi a vincoli lisci nelle coordinate generalizzate. Partiamo
dalla forma generale (2.16)
N
(3.6)
X
(Fν − mν aν )δrν = 0.
ν=1
Abbiamo appena ricavato il lavoro innitesimo per le forze eettive scritto
in termini di forze e coordinate generalizzate, possiamo fare lo stesso con il
lavoro innitesimo delle forze d'inerzia:
N n
(3.7)
X X
δAj = − mν aν · δrν = − Zi δqi
ν=1 i=1

e, procedendo per analogia con l'equazione (3.4) abbiamo


N N
X ∂rν X dṙν ∂rν
Zi = mν aν · = mν ·
∂qi dt ∂qi
ν=1
N
ν=1
N
(3.8)
d X ∂rν X d ∂rν
= mν ṙν − mν ṙν .
dt ∂qi dt ∂qi
ν=1 ν=1

Scriviamo la velocità in termini delle coordinate generalizzate:


n
∂rν ∂rν
(3.9)
X
ṙν = q̇k + .
∂qk ∂t
k=1

22
Dalla (3.9) si ricavano le seguenti relazioni:

∂ ṙν ∂rν
= (3.10)
∂ q˙i ∂qi
n
X ∂ 2 rν
∂ ṙν ∂ 2 rν d ∂rν
= q˙k + = . (3.11)
∂qi ∂qi ∂qk ∂qi ∂t dt ∂qi
k=1

Utilizzando queste ultime nella (3.8) otteniamo:


N N
d X ∂ ṙν X ∂ ṙν
Zi = mν ṙν − mν ṙν . (3.12)
dt ∂ q˙i ∂qi
ν=1 ν=1

Introduciamo ora la denizione di energia cinetica del sistema:


N
1X
T = mν (r˙2 ν ). (3.13)
2
ν=1

Utilizzando la (3.13) la (3.12) assume la forma compatta:


d ∂T ∂T
Zi = − . (3.14)
dt ∂ q˙i ∂qi
L'equazione generale della dinamica (3.6) scritta in termini delle coordi-
nate generalizzate
n
(3.15)
X
(Qi − Zi )δqi = 0
i=1

utilizzando le equazioni (3.4) e (3.14) e tenendo presente che le δqi sono tutte
indipendenti, diventa:
d ∂T ∂T
− = Qi (i = 1, · · · , n). (3.16)
dt ∂ q˙i ∂qi
Le equazioni appena introdotte sono chiamate equazioni di Lagrange del se-
condo tipo. Le quantità q˙i sono dette velocità generalizzate, legate alle velo-
cità dei punti del sistema, in coordinate cartesiane, dalle relazioni (3.9). Le
quantità q̈k sono invece dette accelerazioni generalizzate.
Le equazioni di Lagrange hanno il grande vantaggio di eludere il proble-
ma delle reazioni vincolari, che infatti non entrano nelle equazioni. Abbiamo
un sistema di n equazioni dierenziali del secondo ordine in n funzioni in-
cognite qi del tempo. Risolvendo la dinamica di un sistema utilizzando le
equazioni di Lagrange, introducendo le coordinate e le forze generalizzate, è
possibile determinare univocamente le coordinate generalizzate qi e le velo-
cità generalizzate q̇i se sono noti i loro valori iniziali, che provengono dalle
posizione e velocità iniziali dei punti materiali. Da queste, è possibile andare

23
a ritroso e, attraverso le relazioni (1.13), (3.4) e (3.9), trovare i parametri ξj
e di conseguenza le funzioni rν (t), vν (t), aν (t) = v̇ν e Fν (t, rν , vν ). Inne, è
possibile ottenere le reazioni vincolari semplicemente applicando la formula
Rν = mν aν − Fν . (3.17)

3.3 Energia cinetica nelle coordinate generalizzate


Deriviamo un'espressione per l'energia cinetica (3.13) in funzione delle coor-
dinate generalizzate, utilizzando la (3.9):
N N n
!2
1X 2 1 X X ∂rν ∂rν
T = mν (ṙν ) = q̇i + =
2 2 ∂qi ∂t
ν=1 ν=1 i=1
n n
1 X
(3.18)
X
= aik q̇i q̇k + ai q̇i + a0 ,
2
i,k=1 i=1

dove:
N
∂rν ∂rν
(3.19)
X
aik = mν
∂qi ∂qk
ν=1
N
∂rν ∂rν
(3.20)
X
ai = mν
∂qi ∂t
ν=1
N
∂rν 2
 
1X
a0 = mν . (3.21)
2 ∂t
ν=1

Deniamo ora:
n n
1 X
aik q̇i q̇k , T1 = ai q̇i , T0 = a0 . (3.22)
X
T2 =
2
i,k=1 i=1

Nel caso particolare di un sistema scleronomo, le equazioni dei vincoli non


dipendono esplicitamente dal tempo, per cui, le relazioni di passaggio tra le
coordinate cartesiane e quelle generalizzate (1.13), non hanno dipendenza
∂r
esplicita dal tempo, per cui, dalla (3.9), se ne deduce che ν = 0. Da cui,
∂t
dalle relazioni (3.20) e (3.21), si ha che ai = a0 = 0 e quindi:
n
1 X
T = T2 = aik q̇i q̇k . (3.23)
2
i,k=1

24
3.4 Forze potenziali e funzione di Lagrange
Se le forze generalizzate non dipendono dalle velocità generalizzate, ovvero
se Qi = Qi (t, qi ) (i = 1, · · · , n) e se esiste una funzione Π(t, q1 , · · · , qn ) tale
che
∂Π
Qi = − , (3.24)
∂qi
allora le forze Qi sono chiamate forze potenziali e la funzione Π è detta
potenziale della forza o energia potenziale del sistema.
In tali casi, l'equazione di Lagrange (3.16) assume la nota forma compat-
ta:
d ∂L ∂L
− =0 (3.25)
dt ∂ q̇i ∂qi
dove
L=T −Π (3.26)
è detta funzione di Lagrange o più semplicemente Lagrangiana del sistema.
Così come l'energia cinetica, anche la Lagrangiana è una funzione qua-
dratica nelle velocità generalizzate:
n n
1 X
cik q̇i q̇k , L1 = Ci q̇i , L0 = c0 (3.27)
X
L2 =
2
i,k=1 i=1

e per la denizione (3.26) si ha


L2 = T2 , L1 = T1 , L0 = T0 − Π. (3.28)

3.5 Forze non potenziali. Teorema sulla variazione


dell'energia totale di un sistema
Nel caso più generale il sistema in analisi sarà sottoposto all'azione di forze
potenziali come quelle denite nel paragrafo precedente e forze non poten-
ziali, la cui espressione dipende dalle velocità generalizzate del sistema:
Q̃i = Q̃i (t, qi , q̇i ). (3.29)
Le forze totali agenti sul sistema saranno quindi:
∂Π
Qi = Q̃i − (3.30)
∂qi
e le equazioni di Lagrange assumono la forma:
d ∂T ∂T ∂Π
− = Q̃i − . (3.31)
dt ∂ q̇i ∂qi ∂qi

25
Deniamo ora la quantità sica nota come energia totale del sistema:
E = T + Π. (3.32)
Il nostro scopo è ora quello di derivare un espressione generale per la derivata
totale rispetto al tempo dell'energia totale, per studiarne ed analizzarne le va-
riazioni classicando i diversi casi in riferimento ai tipi di forze generalizzate
agenti sul sistema.
Iniziamo dal calcolare la derivata totale dell'energia cinetica. Nei pas-
saggi, utilizzeremo l'equazione di Lagrange (3.31):
n  
dT X ∂T ∂T ∂T
= q̇i + q̈i + =
dt ∂qi ∂ q̇i ∂t
i=1
n      
X ∂T d ∂T d ∂T ∂T ∂T
= q̇i − q̇i + q̇i + q̈i + =
∂qi dt ∂ q̇i dt ∂ q̇i ∂ q̇i ∂t
i=1
n    n
X ∂T d ∂T d X ∂T ∂T
= − q̇i + q̇i + =
∂qi dt ∂ q̇i dt ∂ q̇i ∂t
i=1 i=1
n   n
∂Π d X ∂(T2 + T1 + T0 ) ∂T
(3.33)
X
= − Q̃i + q̇i + .
∂qi dt ∂ q̇i ∂t
i=1 i=1

Analizziamo i vari pezzi della (3.33):


n
∂Π dΠ ∂Π
(3.34)
X
q̇i = − ,
∂qi dt ∂t
i=1

 
n n n
X ∂T2 X ∂ 1 X
q̇i = ajk q̇j q̇k  q̇i
∂ q̇i ∂ q̇i 2
i=1 i=1 j,k=1
 
n n n
X 1 X 1 X
=  aik q̇k + aji q̇j  q̇i
2 2
i=1 k=1 j=1

= 2T2 . (3.35)
Analogamente si ottiene:
n
∂T1
(3.36)
X
q̇i = T1 ,
∂ q̇i
i=1

mentre T0 non ha dipendenza dalle velocità generalizzate. Con le relazioni


(3.35) e (3.36) il secondo termine al membro di destra dell'equazione (3.33)
diventa:
d dT d
(2T2 + T1 ) = 2 − (T1 + 2T0 ). (3.37)
dt dt dt

26
Inserendo le relazioni (3.34) e (3.37) nella (3.33), introducendo l'energia
totale E = T + Π si ottiene:
n
dE d ∂T ∂Π
(3.38)
X
= Q̃i q̇i + (T1 + 2T0 ) − + .
dt dt ∂t ∂t
i=1
L'equazione (3.38) rappresenta il teorema di variazione dell'energia to-
tale. Notiamo che il termine dipendente dalle forze non potenziali non è
nient'altro che la potenza delle forze non potenziali.

3.6 Sistemi scleronomi e conservazione dell'energia


Analizziamo la (3.38) per i sistemi scleronomi. Abbiamo visto nel paragrafo
∂T
(3.3) che, nei sistemi scleronomi T1 = T0 = 0 e ovviamente = 0, per cui
∂t
la (3.38) diventa:
n
dE ∂Π
(3.39)
X
= Q̃i q̇i + .
dt ∂t
i=1
Nel caso di un sistema scleronomo dove l'energia potenziale non dipende
esplicitamente dal tempo si ha:
n
dE
(3.40)
X
= Q̃i q̇i
dt
i=1

ovvero la variazione dell'energia totale è uguale alla potenza delle forze non
potenziali.
Un sistema scleronomo, dove tutte le forze sono potenziali e le ener-
gie potenziali non dipendono esplicitamente dal tempo soddisfa la seguente
equazione:
dE
= 0 → E = cost = h (3.41)
dt
ed è pertanto detto sistema conservativo. L'energia totale di un sistema
conservativo è costante durante il moto del sistema.

3.7 Forze dissipative e giroscopiche


Le forze non potenziali sono dette giroscopiche se
n
(3.42)
X
Q̃i q̇i = 0
i=1

mentre sono dette dissipative se


n
(3.43)
X
Q̃i q̇i < 0.
i=1

27
Se le energie potenziali non dipendono esplicitamente dal tempo, in presenza
di un sistema scleronomo con forze giroscopiche si ottiene nuovamente la
conservazione dell'energia totale del sistema. In presenza invece di forze
dE
dissipative si ha che < 0, per cui l'energia del sistema diminuisce durante
dt
il moto.

3.8 Potenziali generalizzati


Abbiamo visto, nel paragrafo (3.4) come denire la funzione Lagrangiana nel
caso delle forze potenziali. E' possibile generalizzare il concetto, si dice che
esiste un potenziale generalizzato V , se le forze generalizzate possono essere
scritte come segue:
d ∂V ∂V
Qi = − . (3.44)
dt ∂ q̇i ∂qi
In tal modo le equazioni di Lagrange (3.16) assumono la forma:
d ∂T ∂T d ∂V ∂V
− = − . (3.45)
dt ∂ q̇i ∂qi dt ∂ q̇i ∂qi

ed è possibile ricondurle alla forma (3.25) denendo come Lagrangiana la


funzione
L = T − V. (3.46)
Dalla (3.44) si ricava che:
n
∂2V
(3.47)
X
Qi = q̈k + (∗∗)
∂ q̇k ∂ q̇i
k=1

dove (∗∗) racchiude tutti i termini che non contengono le accelerazioni ge-
neralizzate. In Meccanica limitiamo l'analisi alle forze generalizzate che non
dipendono esplicitamente dalle accelerazioni generalizzate, Qi = Qi (t, qi , q̇i ),
per cui, dalla (3.47), si ha che le derivate seconde dei potenziali generalizzati
rispetto alle velocità generalizzate sono tutte nulle, e quindi V ha la seguente
forma:
n
(3.48)
X
V (t, qi , q̇i ) = Πk (t, qi )q̇k + Π(t, qi ) = V1 (t, qi , q̇i ) + Π(t, qi ).
k=1

In tal caso, le relazioni (3.28) assumono la forma:


L2 = T2 , L1 = T1 − V1 , L0 = T0 − Π. (3.49)

28
Sostituiamo ora la (3.48) nella (3.44) ed otteniamo:
" n #
dΠ ∂ X
Qi = i− Πk q̇k + Π
dt ∂qi
k=1
n  
∂Π ∂Πi ∂Πk ∂Πi
(3.50)
X
=− + − q̇k +
∂qi ∂qk ∂qi ∂t
k=1

=
(1)
Qi +
(2)
Qi +
(3)
Qi . (3.51)

Dall'equazione (3.50) è evidente che il termine Q(1)


i è una forza poten-
ziale, mentre è semplice vericare che il termine Qi soddisfa l'equazione
(2)

(3.42), pertanto è una forza giroscopica. Si ha quindi che se V1 non dipende


esplicitamente dal tempo, allora il potenziale generalizzato dà luogo a forze
potenziali e giroscopiche, per cui si ha la conservazione dell'energia totale
del sistema.

3.9 Soluzione delle equazioni di Lagrange


Analizziamo adesso sotto quali opportune condizioni le equazioni di Lagrange
possono essere univocamente risolte al ne di determinare le leggi del moto
di un sistema. Consideriamo le equazioni nella forma (3.25) che assumono
quando è denibile la funzione Lagrangiana L:
d ∂L ∂L
− = 0. (3.52)
dt ∂ q̇i ∂qi
E' possibile scrivere le equazioni in tale forma quando sono denibili un
potenziale ordinario Π(t, qi ) o un potenziale generalizzato V (t, qi , q̇i ). Tali
sistemi sono noti come sistemi naturali. Per tali sistemi la Lagrangiana è una
funzione quadratica delle velocità generalizzate. E' però possibile in alcuni
casi scrivere comunque una funzione Lagrangiana che non è funzione qua-
dratica delle velocità generalizzate, ma da cui è possibile derivare le corrette
equazioni del moto di un sistema. Sistemi per i quali sia possibile denire
un'arbitraria Lagrangiana da cui, tramite le (3.52), sia possibile ricavare le
equazioni del moto corrette sono detti sistemi di tipo generale.
Sviluppando le equazioni (3.52), possiamo scriverle nella forma:
n
∂2L
(3.53)
X
q̈k + (∗∗) (i = 1, · · · , n)
∂ q̇i ∂ q̇k
k=1

dove (∗∗) sono i termini che non contengono le accelerazioni generalizzate.


L'insieme delle equazioni (3.53) è un sistema lineare nelle n accelerazioni
generalizzate q̈i , che ammette una soluzione se è non nullo il determinante
della matrice dei coecienti:

29
n
∂2L

det 6= 0. (3.54)
∂ q̇i ∂ q̇k i,k=1

La richiesta che l'Hessiano della Lagrangiana rispetto alle velocità genera-


lizzate sia non nullo è l'unica assunzione necessaria anché sia possibile
ottenere una soluzione alle equazioni di Lagrange, per cui possiamo in gene-
rale considerare includere in questo discorso tutti i sistemi di tipo generale
per cui le lagrangiane godano della proprietà (3.54).
La soluzione del sistema (3.53) sarà scrivibile nella forma:
q¨i = Gi (t, qk , q̇k ) (i = 1, · · · , n). (3.55)
Ora, per la teoria generale delle equazioni dierenziali, se le funzioni Gi
hanno derivate parziali al primo ordine continue, esiste una ed una sola
soluzione delle equazioni di Lagrange
 per una scelta arbitraria pressata
delle condizioni iniziali qi , q̇i . In meccanica, si assume che le funzioni
(0) (0)

Gi soddisno sempre tale proprietà.

30
Capitolo 4

Formalismo Hamiltoniano della

meccanica

4.1 Variabili Lagrangiane e variabili Hamiltoniane


Il formalismo di Lagrange introdotto nel capitolo precedente ha denito un
metodo di analisi dei sistemi in moto basato sull'individuazione delle leg-
gi del moto tramite equazioni del moto scrivibili se è nota la funzione di
Lagrange L = L(t, qi , q̇i ). Abbiamo anche visto sotto quali opportune condi-
zioni il sistema ammette un'unica soluzione, caratterizzata dalla denizione,
per ogni istante di tempo t, dello stato del sistema tramite le corrispondenti
coordinate e velocità generalizzate.
Le variabili (t, qi , q̇i ) sono dette variabili lagrangiane. Hamilton propose
un diverso formalismo basato sulla caratterizzazione dello stato del sistema
basato su un diverso insieme di variabili, (t, qi , pi ), dette variabili hamilto-
niane, dove i pi sono i cosiddetti momenti generalizzati, deniti nel modo
seguente:
∂L
pi = (i = 1, · · · , n). (4.1)
∂ q̇i
E' sempre possibile passare dall'insieme delle variabili hamiltoniane a
quelle lagrangiane e viceversa. E' semplice vericarlo poiché lo Jacobia-
no rispetto alle velocità generalizzate del membro di destra dell'equazione
(4.1) è l'Hessiano della Lagrangiana e pertanto, considerando sempre valida
l'assunzione (3.54), l'equazione (4.1) è invertibile e risolvibile per le q̇i :

q̇i = ϕi (t, qk , pk ). (4.2)


Nel caso particolare dei sistemi naturali, la Lagrangiana è funzione qua-
dratica in termini delle velocità generalizzate (si vedano le relazioni (3.23),

31
(3.28) e (3.49)) per cui, applicando la (4.1) si ha:
n
(4.3)
X
pi = aik q̇k + ci
k=1

ovvero con le ci che non dipendono dalle velocità generalizzate, i momenti


sono espressi come combinazioni lineari delle velocità. Dal momento che
L2 = T2 (sempre dalle relazioni (3.28) ed (3.49)), la condizione (3.54) implica
che la matrice dei coecienti aik è invertibile, per cui la relazione (4.3)
può essere invertita ed è possibile scrivere le velocità generalizzate come
combinazioni lineari dei momenti generalizzati:
n
(4.4)
X
q̇i = bik pk + di .
k=1

4.2 Funzione di Hamilton ed Equazioni di Hamilton


Introduciamo una utile notazione: data una funzione qualsiasi nelle variabili
lagrangiane
F = F (t, qi , q̇i )
operando la sostituzione (4.2) si ottiene una funzione associata alla preceden-
te in termini delle variabili hamiltoniane. Utilizzeremo la seguente notazione
per indicarle:
F (t, qi , q̇i ) → F̄ (t, qi , pi ).
Tenendo presente la notazione appena introdotta, Hamilton denì la
funzione che porta il suo nome, nota anche come Hamiltoniana, nel modo
seguente a partire dalla Lagrangiana:
n
(4.5)
X
H(t, q1 , · · · , qn , p1 , · · · , pn ) = pi q¯˙i − L̄
i=1

e mostrò come, in termini di questa funzione, le equazioni del moto possono


essere poste nella seguente forma:

dqi ∂H

 =
dt ∂pi

(4.6)
 dpi ∂H

 =− .
dt ∂qi
Le equazioni (4.6) sono note come equazioni canoniche di Hamilton e rap-
presentano un sistema di 2n equazioni ordinarie del primo ordine.
La derivazione delle equazioni di Hamilton è basata su un teorema che
introdurremo nel prossimo paragrafo.

32
4.3 Teorema di Donkin
Teorema di Donkin. Sia X(x1 , · · · , xn ) una funzione che gode della pro-
prietà n
∂2X

det 6= 0 (4.7)
∂xi ∂xk i,k=1
e che denisce una trasformazione di coordinate
∂X
yi = . (4.8)
∂xi
Si ha allora che:
∂Y
1. Esiste una trasformazione inversa xi = con
∂yi
n
(4.9)
X
Y = xi yi − X;
i=1

2. Se la funzione X dipende da m parametri α1 , · · · , αm , ovvero


X = X(x1 , · · · , xn , α1 , · · · , αm ), (4.10)
allora anche la funzione Y dipende dagli stessi parametri e si ha:
∂X ∂Y
=− . (4.11)
∂αi ∂αi

Dimostrazione. La (4.8) rappresenta un sistema di n equazioni. Tale


sistema è invertibile poiché lo Jacobiano del membro di destra coincide con
l'Hessiano della funzione X rispetto alle variabili xi che, per l'ipotesi (4.7),
è non nullo. Per cui è possibile esprimere le xi in termini delle yi :
xi = xi (y1 , · · · , yn ). (4.12)
Introduciamo la funzione Y denita dalla (4.9) e calcoliamone la derivata
∂Y
:
∂yi
n
!
∂Y ∂ X
= xk yk − X =
∂yi ∂yi
k=1
n n
X ∂xk X ∂X ∂xk
= xi + yk − .
∂yi ∂xk ∂yi
k=1 k=1

Utilizzando la (4.8) si ha che le sommatorie al secondo membro si elidono e


quindi si ottiene la dimostrazione della trasformazione inversa:
∂Y
xi = . (4.13)
∂yi

33
Per dimostrare il secondo punto procediamo nel modo seguente. Sia
X una funzione che dipende anche da m parametri (α1 , · · · , αm ), ovvero
X(x1 , · · · , xn , α1 , · · · , αm ). La (4.8) implica che anche le yi sono funzioni
delle αj e di conseguenza, per le (4.12), lo sono anche le xi . Risulta quindi
dalla sua denizione che la Y è funzione degli stessi parametri. Inne, per
dimostrare la (4.11) calcoliamo esplicitamente la derivata di Y rispetto alla
generica αj :
n
!
∂Y ∂ X
= xk yk − X =
∂αj ∂αj
k=1
n n
X ∂xi X ∂X ∂xi ∂X
= yi − − .
∂αj ∂xi ∂αj ∂αj
i=1 i=1

Ancora una volta, utilizzando l'ipotesi (4.8) le sommatorie nella precente si


annullano e si ha:
∂Y ∂X
=− (4.14)
∂αj ∂αj
che completa la dimostrazione del teorema.

4.4 Derivazione delle equazioni di Hamilton


La derivazione delle equazioni di Hamilton (4.6) dalle equazioni di Lagrange
(3.25) e la transizione dalle variabili lagrangiane a quell hamiltoniane viene
fatta come segue utilizzando il teorema di Donkin. Innanzitutto assegniamo
nel seguente modo i ruoli delle grandezze matematiche presenti nel teorema:
X −→ L
(x1 , · · · , xn ) −→ (q̇1 , · · · , q̇n )
(y1 , · · · , yn ) −→ (pi , · · · , pn )
(α1 , · · · , αm ) −→ (t, q1 , · · · , qn )
Xn X n
Y = xi yi − X −→ H = pi q¯˙i − L̄.
i=1 i=1

La relazione (4.13) del teorema di Donkin fornisce direttamente la prima


delle equazioni di Hamilton:
dqi ∂H
= .
dt ∂pi
La seconda relazione si deriva direttamente dalle equazioni di Lagrange. Per
la (4.1), l'equazione (3.25) è scrivibile come:
dp ∂L
i=
dt ∂qi

34
che, per la (4.14), diventa:
dp ∂H
=− .
dt ∂qi
Il teorema di Donkin così applicato permette anche di determinare la
seguente relazione:
∂L ∂H
=− (4.15)
∂t ∂t
che sarà utile per la prossima analisi.

4.5 Relazione tra Hamiltoniana ed energia totale


Calcoliamo la derivata temporale totale della funzione di Hamilton:
n  
dH ∂H dqi ∂H dpi ∂H ∂H
(4.16)
X
= + + = ,
dt ∂qi dt ∂pi dt ∂t ∂t
i=1

dove l'ultima uguaglianza è stata ottenuta utilizzando le equazioni di Hamil-


ton (4.6). Dalla precedente si ha quindi che, nel caso in cui l'Hamiltoniana
di un sistema non dipenda esplicitamente dal tempo, l'Hamiltoniana è una
costante del moto:
dH
= 0 → H(qi , pi ) = cost. (4.17)
dt
Un sistema di questo tipo è chiamato sistema conservativo generalizzato e la
funzione H assume il nome di energia totale generalizzata, mentre la relazione
(4.16) è nota come integrale generalizzato dell'energia.
Per capire meglio la terminologia utilizzata, analizziamo un sistema na-
turale, per il quale la Lagrangiana è una funzione quadratica delle velocità
generalizzate (si vedano le relazioni (3.28) )L = L2 + L1 + L0 . Utilizzando le
relazioni analoghe alle (3.35) e (3.36) per la Lagrangiana, si ricava facilmente
la seguente serie di relazioni:

n n ¯
X X ∂L
H= pi q̇¯i − L̄ = q̇¯i − L̄ =
∂ q̇i
i=1 i=1
n ¯2 n ¯1
X ∂L X ∂L
= q̇¯i + q̇¯i − L̄2 − L̄1 − L0 =
∂ q̇i ∂ q̇i
i=1 i=1
= L̄2 − L0 . (4.18)
Sia nel caso di potenzili ordinari Π che nel caso di potenziali generalizzati
V = V1 + Π, essendo l'energia cinetica T = T2 + T1 + T0 , si hanno L2 = T2
e L0 = T0 − Π, da cui:
H = T̄2 − T0 + Π. (4.19)

35
Se il sistema è scleronomo, allora T2 = T e T0 = 0 per cui la precedente
diventa:
H = T̄ + Π. (4.20)
Per un sistema scleronomo naturale, l'Hamiltoniana corrisponde all'energia
totale del sistema. Nel caso di un sistema conservativo, ovvero un sistema
olonomo scleronomo naturale in cui sono denite solo forze potenziali, allora
l'Hamiltoniana (4.20) non dipende dal tempo e, in accordo con la (4.17) si
ottiene la legge di conservazione dell'energia totale:
T + Π = cost. (4.21)
Un sistema conservativo è un caso speciale di un sistema conservativo
generalizzato. La legge di conservazione dell'energia avviene anche nel caso
di un sistema scleronomo con potenziali generalizzati V = V1 + Π in cui Π
non dipende esplicitamente dal tempo.

36
Capitolo 5

Formalismo canonico

5.1 Forma matriciale delle equazioni di Hamilton


Deniamo la seguente matrice 2n × 2n:
 
0 −1
I= (5.1)
1 0

dove le sottomatrici 1 e 0 sono, rispettivamente, la matrice identità e la


matrice nulla n×n. Grazie alla matrice (5.1) è possibile riscrivere le equazioni
di Hamilton (4.6) in forma matriciale nel modo seguente.
Deniamo il vettore  
p1
 p2 
 .. 
 
 . 
 
 pn 
x= 
 x1  (5.2)
 
 x2 
 .. 
 
 . 
xn

e di conseguenza il vettore ∇
~x
 ∂ 
∂p1
 ∂ 
 ∂p2
 . 

 .. 
 
 ∂ 
~ x =  ∂pn 


. (5.3)
 ∂x∂ 
 ∂1 
 
 ∂x2 
 .. 
 . 

∂xn

37
Utilizzando le relazioni introdotte (5.1), (5.2) e (5.3), le equazioni di
Hamilton possono essere scritte nella forma:
~ x H(x, t).
ẋ = I ∇ (5.4)
Tale formalismo introdotto può essere generalizzato. Deniamo infatti
un campo vettoriale X(x, t) in R2n come hamiltoniano se esiste una funzione
F (x, t) di classe C 2 tale che:
~ x F (x, t).
X(x, t) = I ∇ (5.5)
La funzione F è denita Hamiltoniana corrispondente al campo X , mentre
il sistema di equazioni dierenziali
ẋ = X(x, t) (5.6)
è detto sistema hamiltoniano.
Si dimostra molto semplicemente la seguente proprietà: sia X un campo
vettoriale hamiltoniano, allora ∇
~ x · X = 0:

~ x · I∇
∇ ~ x F (x, t) = (∇
~ x )T I ∇
~ x F (x, t) =
∂F 
− ∂q

1
 − ∂F 
 ∂q2 
 . 
 .. 
 
  − ∂F 
∂ ∂ ∂ ∂ ∂ ∂  ∂qn 
= ∂p1 , ∂p2 , ··· , ∂pn , ∂q1 , ∂q2 , ··· , ∂qn  ∂F  =
 ∂p 
 ∂F1 
 
 ∂p2 
 .. 
 . 
∂F
∂pn
∂2F ∂2F ∂2F
=− − − ··· − +
∂p1 ∂q1 ∂p2 ∂q2 ∂pn ∂qn
∂2F ∂2F ∂2F
+ + ··· + = 0.
∂q1 ∂p1 ∂q2 ∂p2 ∂qn ∂pn

5.2 Le parentesi di Poisson


Siano f (x, t) e g(x, t) due funzioni provviste della regolarità necessaria. Si
chiama parentesi di Poisson delle due funzioni la funzione {f, g} denita
come segue:
{f, g} = (∇ ~ x f )T I ∇
~ x g. (5.7)
Nel caso in cui x = (qi , pi ) , i = 1, · · · , n si ottiene:
n  
∂f ∂g ∂g ∂f
(5.8)
X
{f, g} = − .
∂qi ∂pi ∂qi ∂pi
i=1

38
E' immediato ricavare dalla precedente, che
{qi , qj } = {pi , pj } = 0 , {qi , pj } = −{pi , qj } = δij . (5.9)
Le relazioni (5.9) sono dette parentesi di Poisson fondamentali.
Un'importante proprietà delle parentesi di Poisson è il poter denire
attraverso queste le equazioni di Hamilton (4.6) in modo completamente
simmetrico: (
ṗi = {qi , H}
(5.10)
q̇i = {pi , H}
Che le precedenti siano equivalenti alle (4.6) è evidente applicando la deni-
zione (5.8).

5.3 Integrali primi del moto


Tramite l'introduzione delle parentesi di Poisson è possibile scrivere una re-
lazione molto immediata che permette di individuare gli integrali primi del
moto, ovvero le costanti del moto. Prendiamo ad esempio una generica
funzione f (qi , pi , t) e calcoliamone la derivata temporale:
n  
df ∂f X ∂f ∂f
= + q̇i + p˙i . (5.11)
dt ∂t ∂qi ∂pi
i=1

Utilizzando le equazioni di Hamilton (4.6) si ottiene:


n  
df ∂f X ∂f ∂H ∂f ∂H
= + − =
dt ∂t ∂qi ∂pi ∂pi ∂qi
i=1
∂f
= + {f, H}. (5.12)
∂t
La (5.12) indica che una funzione f (qi , pi ) non dipendente esplicitamen-
te dal tempo è una costante del moto se la sua parentesi di Poisson con
l'Hamiltoniana è nulla.

5.4 Proprietà fondamentali delle parentesi di Pois-


son
Le parentesi di Poisson hanno le seguenti proprietà:
{f, g} = −{g, f } (5.13)
{f g, h} = f {g, h} + g{f, h}. (5.14)

39
La proprietà (5.13) è banalmente vera dalla denizione (5.8). Applicando
sempre tale denizione, con pochi passaggi, dimostriamo la (5.14):
n  
X ∂(f g) ∂h ∂h ∂(f g)
{f g, h} = − =
∂qi ∂pi ∂qi ∂pi
i=1
n  
X ∂g ∂h ∂f ∂h ∂h ∂g ∂h ∂f
= f +g −f −g =
∂qi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi ∂pi
i=1
n   n  
X ∂g ∂h ∂h ∂g X ∂f ∂h ∂h ∂f
=f − +g − =
∂qi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi ∂pi
i=1 i=1
= f {g, h} + g{f, h}.

5.5 Identità di Jacobi


E' possibile inoltre dimostrare la seguente importante proprietà, nota come
identità di Jacobi:
{f, {g, h}} + {h, {f, g}} + {g, {h, f }} = 0. (5.15)
La dimostrazione dell'identità di Jacobi è realizzabile, più semplicemente,
dopo aver introdotto alcune denizioni.
Deniamo innanzitutto la derivata di Lie associata al campo vettoriale
v , l'operatore di derivazione
N

(5.16)
X
Lv = vi .
∂xi
i=1

Successivamente, introduciamo il commutatore tra due campi vettoriali


v1 e v2 come il campo vettoriale w, che indicheremo con w = [v1 , v2 ], con
componenti:
N  
∂(v2 )i ∂(v1 )i
(5.17)
X
wi = (v1 )j − (v2 )j = Lv1 (v2 )i − Lv2 (v1 )i .
∂xj ∂xj
j=1

Dalle equazioni (5.16) ed (5.17) è evidente che la derivata di Lie associata a



Lw = Lv1 Lv2 − Lv2 Lv1 = [Lv1 , Lv2 ] . (5.18)
Che il commutatore tra derivate di Lie sia una derivata di Lie assicura che
in tale oggetto non compaiano derivate seconde.
E' possibile mettere in relazione la derivata di Lie e la parentesi di Poisson
nel modo seguente. Sia
Df = {f, ·} (5.19)

40
l'operatore dierenziale del primo ordine tale che ad una funzione g(x)
associa la sua parentesi di Poisson:
Df g = {f, g}. (5.20)
Sia vf il campo vettoriale hamiltoniano associato ad f :
~ x f,
vf = I ∇ (5.21)
allora abbiamo, utilizzando la denizione della parentesi di Poisson (5.7) e
la (5.20)
 T  T
Lvf = I ∇ ~ xf ∇ ~x =− ∇ ~ xf I ∇~ x = −Df , (5.22)
da cui ricaviamo
(5.23)
 
Lvf , Lvg = [Df , Dg ] .
Possediamo ora tutti gli strumenti necessari per una dimostrazione del-
l'identità di Jacobi. Analizzando il membro di sinistra della relazione (5.15)
notiamo che sviluppandola si ha una somma di termini contenenti una qual-
che derivata seconda di una delle tre funzioni f , g ed h moltiplicata per le
derivate prime delle altre due. Dimostrando allora che nello sviluppo non
possono esserci derivate seconde dimostriamo automaticamente la validità
dell'identità. Per far ciò riferiamoci ad esempio ai termini contenenti le de-
rivate seconde di h, chiaramente lo stesso ragionamento sarà ripetibile per i
termini con le derivate seconde di f e g . Tali termini verranno necessaria-
mente dallo sviluppo del primo e terzo addendo della (5.15). Procediamo
con lo sviluppo tenendo conto delle relazioni (5.20), (5.23) e della proprietà
(5.13):
{f, {g, h}} + {g, {h, f }} = {f, {g, h}} − {g, {f, h}}
= Df Dg h − Dg Df h
= [Df , Dg ] h
(5.24)
 
= Lvf , Lvg h.

Abbiamo però visto dalla (5.18) che il commutatore tra derivate di Lie è
ancora una derivata di Lie pertanto non contiene derivate seconde. L'identità
di Jacobi è così dimostrata.

Corollario 5.5.1 Dalla identità di Jacobi segue


D{f,g} = [Df , Dg ] (5.25)

La dimostrazione è immediata applicando e sviluppando secondo la deni-


zione l'operatore D{f,g} ad una qualsiasi funzione h e tenendo conto per
l'appunto della validità dell'identità di Jacobi.

41
Capitolo 6

Caratterizzazioni dei sistemi

Hamiltoniani

6.1 Matrici Hamiltoniane


Sia I la matrice (5.1) allora una matrice hamiltoniana B è una matrice reale
di dimensioni 2n × 2n tale che
B T I + IB = 0. (6.1)
Le matrici hamiltoniane sono anche note con il nome di matrici simplettiche
innitesime.
Teorema 6.1.1 Sia B una matrice reale di dimensioni 2n × 2n, allora le
seguenti aermazioni sono equivalenti:
1. B è una matrice Hamiltoniana;
2. B = IS dove S è una matrice simmetrica;
3. IB è una matrice simmetrica.
Siano B e C matrici hamiltoniane, allora anche le seguenti matrici sono
hamiltoniane:
• BT ;

• βB dove β ∈ R;
• B ± C;

• [B, C] = BC − CB .

42
Dimostrazione. Poichè B è una matrice Hamiltoniana, da (6.1) segue che:
IB = −B T I = (IB)T

e dunque IB è una matrice simmetrica da cui 1. e 3. sono equivalenti.


Inoltre, da 2. segue che S = −IB è simmetrica, per cui anche 2. e 3. sono
equivalenti.
Per dimostrare la seconda parte del teorema, dall'ipotesi B hamiltoniana,
B = −SI . Posto S 0 = ISI allora B T = IS 0 e poichè S 0 è simmetrica, B T è
T

hamiltoniana. Inoltre, è immediato che essendo B e C hamiltoniane, anche


βB dove β ∈ R e B ± C sono hamiltoniane. Inne, dall'ipotesi B e C
matrici hamiltoniane, vale che B = IS e C = IR, con S ed R matrici
simmetriche. Allora: [B, C] = ISIR − IRIS = I(SIR − RIS) e poichè
(SIR − RIS)T = −RIS + SIR, ne segue che la matrice SIR − RIS è
simmetrica e [B, C] è hamiltoniana.

Osservazione 1 Sia B una matrice 2n × 2n a blocchi:


 
a b
B= (6.2)
c d

con a, b, c, d matrici n × n. Allora dalla (6.1) otteniamo:


−c + cT −aT − d
 
T
B I + IB = . (6.3)
a + dT b − bT

Pertanto, B è hamiltoniana se e solo se le matrici b e c sono simmetriche e


aT + d = 0. Quando n = 1, B è hamiltoniana se e solo se la sua traccia è
nulla.
Osservazione 2 Le matrici hamiltoniane formano un gruppo, sp(n, R) ri-
spetto alla somma di matrici (Teorema 6.1.1). Inoltre, per quanto argo-
mentato nell'osservazione precedente, le matrici hamiltoniane formano un
sottospazio lineare di R4n (spazio vettoriale delle matrici reali 2n × 2n) la
2

cui dimensione è n(2n + 1).

6.2 Campi Vettoriali Hamiltoniani


Sia A una matrice reale di dimensioni 2n × 2n, se vale:
AT IA = I (6.4)
allora A è una matrice simplettica.

Teorema 6.2.1 Le matrici simplettiche godono delle seguenti proprietà.

43
1. L'insieme delle matrici simplettiche di dimensioni 2n × 2n forma un
gruppo, denotato da Sp(n, R), rispetto alla moltiplicazione matriciale.
2. Sia A una matrice simplettica, allora AT è una matrice simplettica.
Dimostrazione.
1. Per dimostrare il teorema dobbiamo far vedere che l'insieme Sp(n, R)
gode di tutte le proprietà di un gruppo (rispetto alla moltiplicazione matri-
ciale).
Verichiamo per prima cosa che l'identità appartiene all'insieme Sp(n, R).
Poichè, la matrice identità 2n×2n soddisfa la (6.4), allora essa vi appartiene.
A questo punto, dobbiamo dimostrare che l'inverso rispetto alla molti-
plicazione è contenuto in Sp(n, R), ovvero che vale (A−1 )T IA−1 = I . Sia A
una matrice simplettica, allora dalla (6.4) vale
(det(A))2 = 1 (6.5)
e dunque A è non singolare. Inoltre,
A−1 = −IAT I (6.6)
da cui:
(A−1 )T IA−1 = (AT )−1 I(−IAT I) = (AT )−1 AT I = I.

Rimane da dimostrare che il prodotto di due matrici simplettiche è una


matrice simplettica. Sia C una matrice simplettica, dobbiamo mostrare che
(AC)T IAC = I :

(AC)T IAC = C T AT AC = C T IC = I.

2. Per dimostrare che la trasposta di una matrice simplettica è ancora


una matrice simplettica dobbiamo far vedere che AIAT = I . Poichè dalla
(6.6) segue AT = −IA−1 I allora:
AIAT = AI(−IA−1 I) = AA−1 I = I.

Esempio. Sia Sp(1, R) il gruppo delle matrici simplettiche 2x2 a coe-


cienti reali, allora vale che:
Sp(1, R) = SL(2, R)

dove SL(2, R) è il gruppo delle matrici con determinate pari a 1.


Sia A una matrice simplettica:
 
α β
A=
γ δ

44
allora per la (6.4)
 
T 0 −αδ + βγ
A IA = = I.
−βγ + αδ 0

Pertanto, poichè la matrice è simplettica deve valere che det(A) = αδ −βγ =


1 e dunque A ∈ SL(2, R). Da questa osservazione, segue che una matrice
simplettica 2 × 2 denisce una trasformazione lineare che preserva l'area e
l'orientazione.
Inoltre, le matrici con determinante pari a 1, note come matrici ortogonali
proprie, sono un sottogruppo di SL(2, R) e anche di Sp(1, R).
Propositione 6.2.2 Sia A una matrice a blocchi simplettica di dimensione
2n × 2n:  
a b
A= (6.7)
c d
dove a, b, c, d sono matrici di dimensioni n × n. Allora:
• aT c e bT d sono matrici simmetriche di dimensioni n × n;
• aT d − cT b = 1;

• det(A) = 1, ∀n.

Dimostrazione. Dalla condizione di simpletticità,


 T
−a c + cT a −aT d + cT b
  
T 0 −1
A IA = = ,
−bT c + dT a −bT d + dT b 1 0

e quindi A è simplettica soltanto se aT c e bT d sono matrici simmetriche di


dimensioni n × n e aT d − cT b = 1. Pertanto, la condizione di simpletticità
è più restrittiva in dimensione n > 1 che in dimensione n = 1, caso in cui si
riduce semplicemente a det(A) = 1.
Inne, partendo dalla (6.5) è facile vedere che le matrici simplettiche
hanno determinante uguale 1 qualunque sia n.

Propositione 6.2.3 Sia A una matrice simplettica della forma:


 
a b
A= (6.8)
c d

allora l'inversa A−1 è la seguente


dT −bT
 
A−1 = . (6.9)
−cT aT

45
Dimostrazione. La dimostrazione segue dalla (6.6) applicata a (6.8).
Una forma bilineare antisimmetrica ω : V × V → R è non degenere se e
soltanto se per ogni v2 ∈ V
ω(v1 , v2 ) = 0 ⇒ v1 = 0.
Denizione 6.2.4 Sia V uno spazio vettoriale reale di dimensione 2n allora
un prodotto antiscalare o simplettico su V è una forma bilineare ω : V ×V →
R antisimmetrica e non degenere.
Uno spazio V munito di prodotto simplettico è detto dotato di una strut-
tura simplettica.
Dalla precedente denizione segue che solo gli spazi vettoriali di dimensio-
ne pari ammettono una struttura simplettica. Infatti, tutte le forme bilineari
antisimmetriche sono degeneri in uno spazio di dimensione dispari.
Consideriamo lo spazio R2n e la base canonica e1 , . . . , e2n . Allora, il
prodotto simplettico ω ha la seguente rappresentazione matriciale W :
Wij = ω(ei , ej ).
La matrice W così ottenuta è antisimmetrica e la condizione di non degene-
razione è data da det(W ) 6= 0. Inoltre, per ogni x, y ∈ R2n
2n
(6.10)
X
ω(x, y) = Wij xi yj = xT W y.
i,j=1

Se W è la matrice I allora il prodotto prende il nome di prodotto simplettico


standard (che, di seguito, chiameremo semplicemente prodotto simplettico
se non c'è possibilità di confusione) e la struttura corrispondente è detta
struttura simplettica standard.
Dati due vettori x, y il prodotto simplettico standard è dato da:
xT Iy = −x1 yn+1 − · · · − xn y2n + xn+1 y1 + · · · + x2n yn
= (xn+1 y1 − x1 yn+1 ) + · · · + (x2n yn − xn y2n )
che corrisponde alla somma delle aree orientate delle proiezioni del paralle-
logramma avente per lati x, y sugli n piani (x1 , xn+1 ), . . . , xn , x2n . In altre
parole, se p è il vettore costruito con le prime n componenti di x e q è quello
costruito con le restanti componenti, allora x = (p, q) e analogamente si
pone y = (p0 , q 0 ) da cui segue:
ω(x, y) = xT Iy = (q1 p01 − p1 q10 ) + · · · + (qn p0n − pn qn0 ). (6.11)
Inne si noti che, per lo spazio vettoriale R2 il prodotto simplettico di due
vettori coincide con l'unica componente scalare non nulla del loro prodotto
vettoriale.

6.3 MANCA TITOLO

46
Capitolo 7

Introduzione al calcolo delle

variazioni

7.1 Funzionali
Nello studio delle funzioni ad n variabili è utile usare linguaggi geometrici,
considerando un insieme di n numeri (x1 , . . . , xn ) come un punto di uno
spazio n-dimensionale. Similmente, nello studio di un funzionale, che è una
applicazione che associa un numero reale ad ogni funzione di una certa classe,
è utile considerare queste funzioni come elementi di uno spazio opprtuno.
Uno spazio i cui elementi sono costituiti da funzioni viene detto spazio
di funzioni. Lo spazio di funzioni è determinato dalla natura del problema
in studio. Pertanto si ha la seguente
Denizione 7.1.1 (Funzionale) Un funzionale è un'applicazione che ha
come dominio uno spazio di funzioni e che associa ad ogni funzione un
numero reale.
Come si è detto non esiste uno spazio di funzioni universale. Per esempio,
se si deve studiare un funzionale della forma
Z b
0
F (x, y(x) , y(x) )dx,
a

allora si assume il funzionale denito sull'insieme di tutte le funzioni che


hanno la derivata prima continua. Invece, nel caso di un funzionale della
forma Z b
F (x, y, y 0 , y 00 )dx
a
lo spazio di funzioni più appropriato è costituito dall'insieme di tutte le
funzioni con derivata prima e seconda continua. A questo punto risulta
evidente perché per studiare diversi tipi di funzionali si devono prendere in
considerazione diversi tipi di spazi di funzioni.

47
Denizione 7.1.2 (Spazio Lineare) Uno spazio lineare V è un insieme
contenente elementi x, y, z, . . . che possono essere di qualsiasi tipo, sul qua-
le sono denite le operazioni di somma e moltiplicazione con numeri reali
α, β, . . ., in modo tale che i seguenti assiomi sono soddisfatti:

1. x + y = y + x;
2. (x + y) + z = x + (y + z);
3. esiste un elemento 0 (l' elemento zero) tale che x + 0 = x ∀x ∈ V;
4. per ogni elemento x ∈ V esiste un elemento −x tale che x + (−x) = 0
5. 1 · x = x;
6. α(βx) = (αβ)x;
7. (α + β)x = αx + βx;
8. α(x + y) = αx + αy.
Il concetto di continuità gioca un ruolo molto importante per i funzionali
così come accade per le funzioni nell'analisi classica. Allo scopo di dare una
denizione di questo concetto anche per i funzionali, dobbiamo denire il
concetto di vicinanza tra elementi in uno spazio di funzioni cosa che fare-
mo attraverso la denizione di norma. Anche se di seguito parleremo solo
di spazi di funzioni, daremo la denizione di norma in modo più astratto
introducendo gli spazi lineari normati.

Denizione 7.1.3 (Spazio Normato) Uno spazio lineare V è uno spazio


normato se ad ogni elemento x ∈ V è associato un numero non negativo,
chiamato norma di x e denotato con kxk, che soddisfa le seguenti proprietà:
1. kxk = 0 ⇔ x = 0;

2. kαxk = |α|kxk ∀α ∈ R;
3. kx + yk ≤ kxk + kyk ∀y ∈ V .
Siano x ed y due elementi di uno spazio lineare normato V , allora la distanza
tra i due elementi è denita come kx − yk.
Si noti che uno spazio lineare normato può contenere elementi di qualsiasi
tipo, come numeri, vettori, matrici, funzioni, ecc.

Spazio C .
Con C , o C(a, b), indicheremo lo spazio di tutte le funzioni continue
y(x) denite su un intervallo chiuso [a, b]. La somma tra elementi di

48
C e la moltiplicazione tra elementi di C e i numeri reali sono denite
come per le funzioni classiche. La norma in C è denita come:
kyk0 = max |y(x)|.
a≤x≤b

Spazio D1 .
Con D1 , o D1 (a, b), indicheremo l'insieme di tutte le funzioni y(x)
denite su un intervallo [a, b] continue e con derivata prima continua.
Le operazioni di somma e moltiplicazione sono denite come in C . La
norma è denita come:
kyk1 = max |y(x)| + max |y 0 (x)|.
a≤x≤b a≤x≤b

Spazio Dn .
Con Dn , o Dn (a, b), indicheremo l'insieme di tutte le funzioni y(x)
denite su un intervallo [a, b], continue e con derivate continue no
alla n-sima inclusa, dove n è in intero ssato. La somma tra elementi
in Dn e la moltiplicazione tra elementi in Dn e numeri è denita come
per gli spazi precedenti. La norma è denita come segue:
n
X
kykn = max |y (i) (x)|
a≤x≤b
i=0

dove y (i) (x) = ( dx ) y(x) mentre y 0 (x) è la funzione y(x).


d i

In modo analogo si possono introdurre spazi di funzioni di piu variabili


come lo spazio delle funzioni continue ad n variabili, lo spazio delle funzioni
continue ad n variabili con derivata prima continua, ecc.

7.2 Continuità dei funzionali


Per uno spazio lineare normato V possiamo denire la continuità di un
funzionale in un punto dello spazio come segue.

Denizione 7.2.1 (Funzionale continuo in un punto) Sia V uno spa-


zio lineare normato, allora un funzionale J[y] è detto continuo in un punto
ŷ ∈ V se per ogni ε > 0 esiste un δ > 0 tale che

|J[y] − J[ŷ]| < ε (7.1)


se ky − ŷk < δ.

49
Fino ad ora abbiamo parlato solo di funzionali deniti su spazi lineari.
Tuttavia, esistono svariati problemi che trattano funzionali deniti su un
insieme di funzioni che non costituisce uno spazio lineare. Consideriamo, per
esempio l'insieme delle curve piane lisce che passano per due punti ssati
(problema variazionale ). Risulta evidente che la somma di due curve di
questo tipo non passa per i due punti e dunque questo insieme non costituisce
uno spazio lineare.
Tuttavia, il concetto di spazio lineare normato e i concetti correlati di
distanza tra funzioni, continuità di funzionali, ecc., gioca un ruolo importan-
tissimo nel calcolo delle variazioni come vedremo nelle sezioni successive.

7.3 Variazione Prima


In questa sezione introdurremo il concetto di variazione (o dierenziale )
di un funzionale, analogo al concetto di dierenziale di una funzione ad n
variabili.
Denizione 7.3.1 Sia V uno spazio lineare normato e sia φ[h] un funziona-
le denito su V (ϕ ad ogni elemento h ∈ V associa un numero ϕ[h]). Allora,
ϕ[h] è detto funzionale lineare (continuo) se
1. ϕ[αh] = αϕ[h] per ogni h ∈ V e per ogni numero reale α;
2. ϕ[h1 + h2 ] = ϕ[h1 ] + ϕ[h2 ] per ogni h1 , h2 ∈ V ;
3. ϕ[h] è continua (per ogni h ∈ V).
Esempio 1 Sia x0 un punto ssato all'interno dell'intervallo [a, b] e de-
niamo il funzionale ϕ mediante
ϕ[h] = h(x0 ).
ovvero ϕ associa ad ogni h(x) ∈ C(a, b) il valore della funzione nel punto x0 .
Allora, ϕ soddisfa tutte le condizioni della denizione precedente e dunque
ϕ[h] è un funzionale lineare su C[a, b].
Esempio 2 Il seguente integrale
Z b
ϕ[h] = h(x)dx
a

denisce un funzionale lineare su C(a, b).


Esempio 3 Il seguente integrale
Z b
ϕ[h] = α(x)h(x)dx
a

dove α(x) è una funzione ssata in C(a, b), denisce un funzionale lineare
su C(a, b).

50
Esempio 4 Il seguente integrale
Z b
ϕ[h] = [α0 (x)h(x) + α1 (x)h0 (x) + · · · + αn (x)h(n) (x)]dx
a

dove αi (x) è una funzione ssata su C(a, b) per ogni i = 1, . . . , n, denisce


un funzionale lineare su Dn (a, b).
Lemma 7.3.2 Sia α(x) una funzione continua nell'intervallo [a, b]. Se per
ogni funzione h(x) ∈ C(a, b) tale che h(a) = h(b) = 0 vale
Z b
α(x)h(x)dx = 0 (7.2)
a

allora α(x) = 0 per ogni x ∈ [a, b].


Dimostrazione. Supponiamo per assurdo che la funzione α(x) soddis la
condizione (7.2) ma che sia non nulla, ovvero, per ssare le idee, positiva,
in qualche punto dell'intervallo [a, b]. Allora, la funzione è positiva in un
sotto-intervallo [x1 , x2 ] di [a, b]. Poniamo

(x − x1 )(x2 − x) ∀x ∈ [x1 , x2 ]
h(x) =
0 altrimenti.
La funzione così denita soddisfa le ipotesi del lemma. Tuttavia
Z b Z x2
α(x)h(x)dx = α(x)(x − x1 )(x2 − x)dx > 0
a x1

poichè la funzione integranda è positiva (tranne nei punti x1 , x2 ). Questo


contraddice l'ipotesi che α(x) soddis la condizione (7.2) da cui segue la tesi.

Si noti che il Lemma 7.3.2 continua a valere anche se si sostituisce C(a, b)


con Dn (a, b). Basta riapplicare la stessa dimostrazione utilizzando come h(x)
la seguente
[(x − x1 )(x2 − x)]n+1 , ∀x ∈ [x1 , x2 ]

h(x) =
0, altrimenti.
Lemma 7.3.3 Sia α(x) continua in [a, b], se
Z b
α(x)h0 (x)dx = 0, (7.3)
a

per ogni h ∈ D1 (a, b) tale che h(a) = h(b) = 0, allora esiste c ∈ R tale che
α(x) = c, ∀x ∈ [a, b].

51
Dimostrazione. Sia c la costante denita dalla condizione
Z b
[α(x) − c]dx = 0,
a

e sia Z x
h(x) = [α(ε) − c]dε,
a
così che h(x) appartenga a D1 (a, b) e soddisfa le condizioni h(a) = h(b) = 0.
Allora
Z b Z b
0
[α(x) − c]h (x)dx = α(x)h0 (x)dx − c[h(b) − h(a)] = 0,
a a

e inoltre Z b Z b
0
[α(x) − c]h (x)dx = [α(x) − c]2 dx.
a a
Da cui segue che α(x) − c = 0, ovvero, α(x) = c per ogni x ∈ [a, b].
Lemma 7.3.4 Se α(x) e β(x) sono funzioni continue in [a, b] e
Z b
[α(x)h(x) + β(x)h0 (x)]dx = 0, (7.4)
a

per ogni h ∈ D1 (a, b) tale che h(a) = h(b) = 0, allora β(x) è derivabile e
β 0 (x) = α(x), ∀x ∈ [a, b].

Dimostrazione. Poniamo
Z x
A(x) = α(ε)dε,
a

integrando per parti otteniamo


Z b Z b
α(x)h(x)dx = − A(x)h0 (x)dx.
a a

La (7.4) può allora essere riscritta come


Z b
[−A(x) + β(x)]h0 (x)dx = 0.
a

Pertanto, dal Lemma 7.3.3,


β(x) − A(x) = const

e quindi dalla denizione di A(x),


β 0 (x) = α(x)

52
per ogni x ∈ [a, b] e dunque il lemma vale. Si noti che non abbiamo fatto
alcuna ipotesi di dierenziabilità della fuzione β(x).
Di seguito daremo la denizione di variazione (o dierenziale ) di un
funzionale.
Sia J[y] un funzionale denito su uno spazio lineare normato e sia ∆J[h]
il suo incremento, relativo ad h = h(x), denito come
∆J[h] = J[y + h] − J[y].

Si noti che se y è ssato, ∆J[h] è un funzionale di h, in generale non lineare.


Il funzionale J[y] è detto dierenziabile se
∆J[h] = ϕ[h] + εkhk,

dove ϕ[h] è un funzionale lineare e ε → 0 quando khk → 0. Inoltre, ϕ[h]


è chiamato variazione (prima ), o dierenziale, di J[y] ed è denotato con
δJ[h].1 Il funzionale lineare ϕ[h] dierisce da ∆J[h] di un innitesimo di
ordine superiore ad 1 rispetto a khk.

Teorema 7.3.5 Il dierenziale di un funzionale dierenziabile è unico.


Dimostrazione. Per prima cosa mostriamo un risultato che sfrutteremo per
la dimostrazione.
Se ϕ[h] è un funzionale lineare tale che
ϕ[h]
→0
khk

quando khk → 0, allora ϕ[h] ≡ 0, ovvero, ϕ[h] = 0 per ogni h. Infatti,


supponiamo ϕ[h0 ] 6= 0 per qualche h0 6= 0. Allora, posto
h0 ϕ[h0 ]
hn = , λ=
n kh0 k

vale che khn k → 0 quando n → ∞, ma


ϕ[hn ] nϕ[h0 ]
lim = lim = λ 6= 0,
n→∞ khn k n→∞ nkh0 k

contraddicendo l'ipotesi.
Supponiamo che il dierenziale del funzionale J[y] non sia unico allora,
∆J[h] = ϕ1 [h] + ε1 khk,
∆J[h] = ϕ2 [h] + ε2 khk,
1
Rigorosamente, l'incremento e la variazione di J[y] sono funzionali di due argomenti
y ed h.

53
dove ϕ1 [h] e ϕ2 [h] sono funzionali lineari, e ε1 , ε2 → 0 quando khk → 0.
Questo implica che
ϕ1 [h] − ϕ2 [h] = ε2 khk − ε1 khk,

e quindi ϕ1 [h] − ϕ2 [h] è un innitesimo di ordine superiore ad 1 rispetto a


khk. Poichè, ϕ1 [h] − ϕ2 [h] è un funzionale lineare, segue dalla prima parte
della dimostrazione che ϕ1 [h] − ϕ2 [h] è identicamente nullo e dunque i due
funzionali coincidono.
Di seguito, useremo il concetto di variazione (oppure) dierenziale per
stabilire una condizione necessaria achè un funzionale abbia un estremo. A
tale scopo richiamiamo la denizione di estremo destro nell'analisi classica.
Denizione 7.3.6 (Estremo di una funzione) Sia F (x1 , . . . , xn ) una fun-
zione dierenziabile di n variabili. Allora, F (x1 , . . . , xn ) ha un estremo
(relativo) in un punto (xˆ1 , . . . , xˆn ) se
∆F = F (x1 , . . . , xn ) − F (xˆ1 , . . . , xˆn )

ha lo stesso segno per tutti i punti (x1 , . . . , xn ) appartenenti ad un intorno di


(xˆ1 , . . . , xˆn ), e l'estremo F (xˆ1 , . . . , xˆn ) è un minimo se ∆F ≥ 0 altrimenti è
un massimo (quando ∆F ≤ 0).
Denizione 7.3.7 (Estremo di un funzionale) Un funzionale J[y] ha un
estremo (relativo) in y = ŷ se J[y] − J[ŷ] non cambia segno in tutti i punti
di un intorno della curva y = ŷ(x).
Nel caso di funzionali deniti su qualche insieme di funzioni continua-
mente dierenziabili, le funzioni stesse possono essere visti, sia come elemen-
ti dello spazio di C , che come elementi dello spazio D1 . In corrispondenza di
queste due possibilità, si possono denire due tipi di estremi.
Estremo debole Il funzionale J[y] ha un estremo debole in y = ŷ se esiste
un δ > 0 tale che J[y]−J[ŷ] ha lo stesso segno per tutte le y nel dominio
di denizione del funzionale che soddisno la condizione ky − ŷk1 < δ ,
dove k k1 denota la norma nello spazio D1 .
Estremo forte Il funzionale J[y] ha un estremo forte in y = ŷ se esiste un
δ > 0 tale che J[y] − J[ŷ] ha lo stesso segno per tutti gli y nel dominio
di denizione del funzionale che soddisno la condizione ky − ŷk0 < δ ,
dove k k0 denota la norma nello spazio C .
É chiaro che un estremo forte è anche un estremo debole. Tuttavia, il
viceversa non vale in generale: un estremo debole potrebbe non essere un
estremo forte. Solitamente trovare un estremo debole è più facile che trovare
un estremo forte.

54
Teorema 7.3.8 Sia J[y] un funzionale dierenziabile. Condizione necessa-
ria anché J[y] abbia un estremo in y = ŷ è che la sua variazione sia nulla
per y = ŷ. Ovvero
δJ[h] = 0 (7.5)
per y = ŷ e per tutte le funzioni h ammissibili.
Dimostrazione. Supponiamo che J[y] abbia un minimo in y = ŷ. Allora,
dalla denizione di variazione segue che
∆J[h] = δJ[h] + εkhk, (7.6)
dove ε → 0 quando khk → 0. Dunque, se khk è sucientemente piccolo,
il segno di ∆J[h] sarà uguale al segno di δJ[h] (poichè δJ[h]  εkhk).
Supponiamo che, δJ[h0 ] 6= 0 per qualche h0 ammissibile. Allora, per ogni
α > 0, otteniamo

δJ[−αh0 ] = −δJ[αh0 ] ⇒ δJ[−αh0 ].

Questo signica che se si prendono valori di α opportuni in ogni intorno


di ŷ ci saranno punti nei quali il segno di ∆J sarà opposto. Ma questo
contraddice l'ipotesi. Infatti, poichè J[y] ha un minimo in y = ŷ , per khk
sucientemente piccolo vale la seguente
∆J[h] = J[ŷ + h] − J[ŷ] ≥ 0.

Dalla contraddizione segue la dimostrazione del teorema.

7.4 Equazioni di Eulero-Lagrange


In questo paragrafo studieremo un caso concreto di problema variazionale
considerando quello che può essere detto il più semplice problema variazio-
nale. Esso è formulato come segue.
Problema variazionale. Sia F (x, y, z) una funzione con derivate (par-
ziali) prime e con derivate seconde continue rispetto a tutti i suoi argomenti.
Allora, fra tutte le funzioni y(x) continuamente dierenziabili per a ≤ x ≤ b
che soddisno le condizioni
y(a) = A, y(b) = B, (7.7)
si vogliono trovare quelle per le quali il seguente funzionale
Z b
J[y] = F (x, y, y 0 )dx (7.8)
a

ha un estremo debole.

55
In altre parole, questo problema consiste nel trovare un estremo debole
di un funzionale della forma (7.8), dove la classe di curve ammissibili è data
dall'insieme di tutte le curve lisce che uniscono due punti.
Per poter applicare la condizione necessaria per l'esistenza di un estre-
mo, descritta nel Teorema 7.3.8, dobbiamo essere in grado di calcolare la
variazione di un funzionale del tipo (7.8).
Supponiamo di considerare un incremento h(x), di una funzione y(x),
dove, allo scopo di far sì che la funzione y(x) + h(x) continui a soddisfare le
condizioni negli estremi di integrazione, deve valere
h(a) = h(b) = 0.

Allora, l'incremento del funzionale (7.8) diventa


Rb Rb
∆J = J[y + h] − J[y] = a F (x, y + h, y 0 + h0 )dx − a F (x, y, y 0 )dx
Rb
= a [F (x, y + h, y 0 + h0 ) − F (x, y, y 0 )]dx

da cui, utilizzando il teorema di Taylor, segue


Z b
∆J = [Fy (x, y, y 0 )h + Fy0 (x, y, y 0 )h0 ]dx + · · · (7.9)
a

dove i pedici indicano le derivate parziali rispetto ai corrispondenti argomen-


ti, e i puntini denotano i termini di ordine superiore ad 1 relativi ad h ed
h0 .
L'integrale a destra della (7.9) rappresenta la parte principale lineare
dell'incremento ∆J , e quindi la variazione di J[y] è
Z b Z b Z b
0 0 0 0
δJ[h] = [Fy (x, y, y )h+Fy0 (x, y, y )h ]dx = Fy (x, y, y )h+ Fy0 (x, y, y 0 )h0 dx.
a a a

Inoltre, dal Lemma 7.3.2, una condizione necessaria anchè J[y] abbia un
estremo per y = y(x) è che
Z b
δJ[h] = (Fy h + Fy0 h0 )dx = 0
a

per tutte le funzioni h ammissibili, da cui segue per il Lemma 7.3.3


d
Fy − Fy0 = 0. (7.10)
dx
Questo risultato è noto come equazioni di Eulero e può essere così formulato.
Teorema 7.4.1 Sia J[y] un funzionale della forma
Z b
J[y] = F (x, y, y 0 )dx (7.11)
a

56
denito su un insieme di funzioni y(x) che hanno derivata prima continua
in [a, b] e che soddisfano le condizioni y(a) = A, y(b) = B . Allora una
condizione necessaria anchè J[y] abbia un estremo per una data funzione
y(x) è che y(x) soddis le equazioni di Eulero
d
Fy − Fy0 = 0.
dx
Questa condizione è necessaria per un estremo debole. Poichè, ogni estremo
forte è anche un estremo debole, ogni condizione necessaria per un estremo
debole è anche una condizione necessaria per un estremo forte.

7.5 Variazione con estremi liberi


In questo paragrafo vedremo come si deriva la formula generale della varia-
zione di un funzionale della forma:
Z x1
J[y1 , . . . , yn ] = F (x, y1 , . . . , yn , y10 , . . . , yn0 )dx, (7.12)
x0

nel caso in cui gli estremi delle curve si possono spostare in modo arbitrario
e le curve siano lisce. Per fare questo, deriviamo la formula prima nel caso
in cui n = 1, nel quale
Z x1
J[y] = F (x, y, y 0 )dx (7.13)
x0

e successivamente vedremo come il risultato si estende al caso generale. A


tale scopo abbiamo bisogno di denire la distanza tra due curve.
Denizione 7.5.1 (Distanza) Siano y = y(x) e y ∗ = y ∗ (x) due curve.
Allora la distanza tra y ed y∗ è denita come
ρ(y, y ∗ ) = max |y − y ∗ | + max |y 0 − y ∗ 0 | + ρ(P0 , P0∗ ) + ρ(P1 , P1∗ ), (7.14)
dove P0 , P0∗ rappresentano gli estremi a sinistra e P1 , P1∗ quelli nali a destra
delle curve y = y(x) e y∗ = y∗ (x), rispettivamente2 .
In generale, le funzioni y ed y ∗ sono denite su intervalli diversi I ed I ∗ ,
rispettivamente. Anchè la (7.14) abbia senso, dobbiamo estendere y ed y ∗
a qualche intervallo contenente sia I che I ∗ . Per esempio, questo potrebbe
essere fatto prolungando le curve con le tangenti nei punti estremi.
Siano y = y(x) e y ∗ = y ∗ (x) due funzioni vicine nel senso della denizio-
ne 7.5.1, sia h la funzione denita come
h(x) = y ∗ (x) − y(x)
2
p a secondo membro della (7.5) è la distanza Euclidea.

57
Figura 7.1: Funzioni y ed y ∗

e siano P0 (x0 , y0 ) e P1 (x1 , y1 ) gli estremi della curva y . Gli estremi della
curva y ∗ siano invece
P0∗ (x0 + δx0 , y0 + δy0 ), P1∗ (x1 + δx1 , y1 + δy1 ).

La corrispondente variazione δJ del funzionale J[y] è denita come l'espres-


sione che è lineare in h, h0 , δx0 , δy0 , δx1 , δy1 e che dierisce dall'incremento
di una quantità di ordine maggiore di 1 rispetto a p(y, y + h):
∆J = J[y + h] − J[y] = J[y ∗ ] − J[y]

Allora:
Z x1 +δx1 Z x1
0 0
∆J = F (x, y + h, y + h )dx − F (x, y, y 0 )dx
x0 +δx0 x0
Z x1
= [F (x, y + h, y 0 + h0 ) − F (x, y, y 0 )]dx +
x0
Z x1 +δx1 Z x0 +δx0
0 0
+ F (x, y+h, y +h )dx− F (x, y+h, y 0 +h0 )dx
x1 x0

Utilizzando il Teorema della media ( xx+δx


R
0
ρ(x)dx = ρ(x̄)δx0 x̄ ∈ [x0 , x0 +
δx0 ]) e applicando il Teorema di Taylor, otteniamo:
Z x1
∆J ∼ [Fy (x, y, y 0 )h+Fy0 (x, y, y 0 )h0 ]dx+F (x, y, y 0 )|x=x1 δx1 −F (x, y, y 0 )|x=x0 δx0
x0
Z x1
d
= [Fy − Fy0 ]h(x)dx + F |x=x1 δx1 + Fy0 h|x=x1 − F |x=x0 δx0 − Fy0 h|x=x0
x0 dx

58
dove ∼ denota un'uguaglianza a meno di termini di ordine più alto di 1
rispetto a ρ(y, y + h) e il termine contenente è stato integrato per parti.
Inoltre, poichè vale
h(x0 ) ∼ δy0 − y 0 (x0 )δx0 ,
h(x1 ) ∼ δy1 − y 0 (x1 )δx1 ,
allora
Z x1
d
δJ = [Fy − Fy0 ]h(x)dx + Fy0 |x=x1 δy1 + (F − Fy0 y 0 )|x=x1 δx1
x0 dx

−Fy0 |x=x0 δy0 − (F − Fy0 y 0 )|x=x0 δx0 .


Posto
δx|x=xi = δxi , δy|x=xi = δyi , (i = 0, 1)
la formula precedente assume la seguente forma compatta
Z x1 x=x1 x=x1
h d i
δJ = Fy − Fy0 h(x)dx + Fy0 δy + (F − Fy0 y 0 )δx . (7.15)

x0 dx x=x0 x=x0

L'espressione così ottenuta rappresenta la variazione generale per il fun-


zionale J[y].
Si noti che, se i punti nali delle curve ammissibili sono ssati ne segue
che
δx0 = δx1 = 0 δy0 = δy1 = 0.
In generale procedendo come per n = 1, nel caso del funzionale (7.12),
che può essere visto come un funzionale che agisce su curve di uno spazio
euclideo (n + 1)-dimensionale, otteniamo
R x1 Pn   Pn x=x1
d
δJ = Fyi − dx Fyi hi (x)dx + F 0 δyi +
0

x0 i=1 i=1 yi
x=x0
 Pn  x=x1 (7.16)
0
+ F− y F 0 δx .

i=1 i yi
x=x0

Questa è la formula fondamentale per la variazione generale del funzionale


J[y1 , . . . , yn ].
Di seguito daremo una forma più concisa della variazione (7.16). Sia
pi = Fyi0 (i = 1, . . . , n), (7.17)
e supponiamo che il seguente jacobiano sia non nullo3 :
∂(p1 , . . . , pn )
= detkFyl0 yk0 k.
∂(y10 , . . . , yn0 )

Allora, possiamo risolvere il sistema (7.17) y10 , . . . , yn0 come funzioni delle
variabili
x, y1 , . . . , yn , p1 , . . . , pn . (7.18)
3
detkF aik k denota il determinante della matrice kaik k

59
In quanto segue esprimeremo la funzione F (x, y1 , . . . , yn , y10 , . . . , yn0 ) che com-
pare nella (7.12) in termini di una nuova funzione H(x, y1 , . . . , yn , p1 , . . . , pn )
legata ad F dalla seguente formula:
n n
(7.19)
X X
H = −F + yi0 Fyi0 ≡ −F + yi0 pi ,
i=1 i=1

dove ogni yi0 è una funzione delle variabili (7.18). La funzione H è detta fun-
zione hamiltoniana corrispondente al funzionale J[y1 , . . . , yn ]. In questo mo-
do possiamo eettuare una trasformazione locale dalle variabili x, y1 , . . . , yn , y10 , . . . , yn0 , F ,
che compaiono nella (7.12), alle nuove variabili x, y1 , . . . , yn , p1 , . . . , pn , H ,
note con il nome di variabili canoniche (corrispondenti al funzionale J[y1 , . . . , yn ]).
Utilizzando le variabili canoniche la (7.16) assume la seguente forma:
Z x1 n  n  x=x1
X dpi  X
δJ = Fyi − hi (x)dx + pi δyi − Hδx . (7.20)

x0 i=1
dx i=1
x=x0

Supponiamo che il funzionale J[y1 , . . . , yn ] abbia un estremo per qualche


curva appartenente ad una qualche classe di curve ammissibili
yi = yi (x) i ∈ {1, . . . , n} (7.21)
che unisce i punti
P0 (x0 , y10 , . . . , yn0 ), P1 (x1 , y11 , . . . , yn1 ).

Allora, poichè J[y1 , . . . , yn ] ha un estremo in corrispondenza della (7.21)


rispetto a tutte le curve ammissibili, allora questo estremo è tale anche ri-
spetto a tutte le curve con ssati P0 e P1 . Pertanto, la (7.21) è una soluzione
dell'equazione di Eulero
d
Fyi − F 0 = 0 i ∈ {1, . . . , n}.
dx yi

60
Capitolo 8

Principi Variazionali

8.1 Principio di minima azione di Hamilton, forma


lagrangiana
Consideriamo un arbitrario sistema per il quale è possibile introdurre una
funzione lagrangiana L(t, qi , q̇i ), con qi , i = 1, . . . , n coordinate generalizzate,
allora, il seguente integrale
Z t1
W = L dt (8.1)
t0

è detto azione (hamiltoniana) nell'intervallo di tempo (t0 , t1 ) mentre, l'e-


spressione L dt, è detta azione elementare.
Allo scopo di calcolare l'integrale (8.1), poichè la funzione L è della forma
L = L(t, qi , q̇i ), è necessario specicare le funzioni qi = qi (t), i = 1, . . . , n,
nell'intervallo di tempo t0 ≤ t ≤ t1 . Lo spazio che consideriamo è uno spazio
esteso (n + 1)-dimensionale di coordinate t e qi , i = 1, . . . , n. Consideriamo
tutte le curve che passano per i due punti dello spazio: M0 (t0 , qi0 ), M1 (t1 , qi1 ),
che nel nostro caso rappresentano tutti i moti possibili che traslano il sistema
da una posizione iniziale qi0 , occupata al tempo t0 , ad una posizione nale
qi1 , che viene occupata al tempo t1 . Di seguito, assumiamo che gli istanti di
tempo, t0 e t1 , la posizione iniziale e la posizione nale del sistema, M0 e M1 ,
siano ssati. Supponiamo che tra i cammini considerati, ci sia anche quello
che viene chiamato moto naturale, vale a dire la traiettoria del sistema nello
spazio (t, qi ) quando siano assegnate le forze. Per un moto naturale quindi
le funzioni qi = qi (t) soddisfano le equazioni di Lagrange:
d ∂L ∂L
− = 0, i = 1, . . . , n. (8.2)
dt ∂ q̇i ∂qi
Tutti gli altri cammini passanti per i punti M0 ed M1 saranno chiamati
moti variati. A questo punto, vogliamo dimostrare che l'azione W ha un
punto stazionario (cioè un punto in corrispondenza del quale la variazione

61
prima si annulla) in corrispondenza del moto naturale e viceversa: è questa
l'aermazione del cosidetto principio di Hamilton.
Il teorema è un'immediata conseguenza di quanto visto nei paragra
precedenti. La formulazione del principio di Hamilton può quindi essere
posta a fondamento della dinamica dei sistemi olonomi.

8.2 Principio di minima azione di Hamilton, forma


hamiltoniana
Consideriamo lo spazio delle fasi esteso (2n+1)-dimensionale nel quale qi , pi ,
i = 1, . . . , n e t sono le coordinate. In questo spazio, consideriamo un moto
naturale che passa per i punti B0 (qi0 , p0i , t0 ) e B1 (qi1 , p1i , t1 ) e tutte le altre
curve che uniscono questi due punti. Le funzioni qi (t) e pi (t) che specicano
il moto naturale, soddisfano le equazioni di Hamilton:
dqi ∂H dpi ∂H
= =− i = 1, . . . , n. (8.3)
dt ∂pi dt ∂qi
Introduciamo una funzione a 4n + 1 variabili indipendenti
L∗ (t, qi , pi , q̇i , ṗi ),

denita dall'equazione1
n
(8.4)
X
L∗ = pi q˙i − H(t, qi , pi ).
i=1

Con l'ausilio di questa funzione, le equazioni canoniche di Hamilton (8.3)


possono essere scritte nella forma lagrangiana:
d ∂L∗ ∂L∗ d ∂L∗ ∂L∗
− = 0, − = 0. (8.5)
dt ∂ q˙i ∂qi dt ∂ p˙i ∂pi
Da cui segue che un moto naturale (caratterizzato dalle equazioni (8.5)) si
distingue dalle altre curve che passano per i punti B0 e B1 perché è un punto
stazionario del funzionale
Z t1
L∗ (t, qi , pi , q̇i , ṗi )dt (8.6)
t0

vale a dire in corrispondenza di esso


Z t1 Z t1 n
X 
δ ∗
L dt = δ pi q˙i − H dt = 0. (8.7)
t0 t0 i=1
1
Si noti che i ṗi non sono inclusi nel lato∗ destro della (8.4), pertanto la L∗ è, in questo
caso, indipendente da queste quantità e ∂L ∂ p˙i
= 0, i = 1, . . . , n.

62
Questa nuova forma del principio di Hamilton, a prima vista, potrebbe sem-
brare identica a quella vista nella sezione precedente, poichè l'espressione di
L∗ coincide con L. In realtà questo è vero solo per i cammini qi = qi (t),
pi = pi (t) per i quali le funzioni qi (t) e pi (t) sono connesse dalle relazioni:

∂L
pi = , i = 1, . . . , n. (8.8)
∂ q˙i
In generale però, una curva passante per i punti B0 e B1 potrebbe non
soddisfare le (8.8) e per questa curva L∗ 6= L. Comunque, se ci si limita
a considerare solo le curve per le quali le (8.8) siano soddisfatte, allora la
seconda forma del principio di Hamilton si riconduce alla prima.
Si noti inne che, mentre nella forma lagrangiana i punti M0 ed M1
possono essere scelti arbitrariamente, adesso dobbiamo considerare due punti
per i quali esista il moto naturale cosa che non vale per tutte le coppie di
punti appartenenti allo spazio delle fasi esteso. Infatti, i punti B0 e B1 scelti
sul moto naturale per il quale è formulato il principio di Hamilton.

63
Capitolo 9

Invarianti integrali della

meccanica

9.1 Invariante Integrale Poincaré-Cartan


In questo paragrafo deriveremo una formula per la variazione dell'azione δW
nel caso generale, ovvero quando gli istanti di tempo iniziale e nale e le
coordinate iniziali e nali non sono ssati, ma sono funzioni di un parametro
α:
t0 = t0 (α), qi0 = qi0 (α)
i = 1, . . . , n. (9.1)
t1 = t1 (α),
= qi1 qi1 (α)

Dierenziando l'integrale W = t0 L dt rispetto al parametro α e integrando


R t1

per parti (vedi paragrafo 7.5) otteniamo:


n n Z t1 n 
X X X ∂L d ∂L 
δW = L1 δt1 + p1i [δqi ]t=t1 −L0 δt0 − p0i [δqi ]t=t0 + − δqi dt
i=1 i=1 t0 i=1
∂qi dt ∂ q̇i
(9.2)
dove h ∂ i
[δqi ]t=tλ = qi (t, α) δα i = 1, . . . , n; λ = 0, 1
∂α t=tλ

Per la variazione delle coordinate estremali terminali qi1 = qi1 [t1 (α), α],
otteniamo la seguente formula (dove i = 1, . . . , n):
h ∂q (t, α) i
i
δqi1 = q̇i1 δt1 + δα,
∂α t=t1

cioè
δqi1 = [δqi ]t=t1 + q̇i1 δt1 ,
da cui segue
[δqi ]t=t1 = δqi1 − q̇i1 δt1 . (9.3)

64
Analogamente, otteniamo la seguente formula per le altre coordinate estre-
mali qi0 = qi0 [t0 (α), α] (i = 1, . . . , n)
[δqi ]t=t0 = δqi0 − q̇i0 δt0 (9.4)

Sostituendo le espressioni (9.3) e (9.4) nella (9.2), otteniamo la seguente


formula per la variazione dell'azione δW nel caso generale:
n i1 Z t1 n 
hX X ∂L d ∂L 
δW = pi δqi − Hδt + − δqi dt (9.5)
i=1
0 t0 i=1
∂qi dt ∂ q̇i

dove abbiamo espresso q̇i in termini di pi e


n
hX i1 n
X n
X
pi δqi − Hδt = p1i δqi1 − H1 δt1 − p0i δqi0 + H0 δt0 . (9.6)
0
i=1 i=1 i=1

Quando qi = qi (t, α), i = 1, . . . , n, è al variare di α una famiglia di moti


naturali, l'integrale a secondo membro della (9.5) è nullo per qualsiasi α e la
formula della variazione dell'azione assume la seguente forma:
n
hX i1
δW = pi δqi − Hδt . (9.7)
0
i=1

Fino ad ora abbiamo considerato lo spazio di coordinate esteso (n + 1)-


dimensionale. Adesso prendiamo in considerazione lo spazio delle fasi esteso
(2n + 1)-dimensionale nel quale le quantità qi , pi , i = 1, . . . , n e t saranno le
coordinate di un punto. Consideriamo una curva chiusa C0 in questo spazio
di equazioni parametriche
qi = qi0 (α), pi = p0i (α), t = t0 (α) i = 1, . . . , n, 0 ≤ α ≤ l, (9.8)
dove per α = 0 e α = l otteniamo lo stesso punto che è unico. Prendiamo
ogni punto della curva come punto iniziale di un moto naturale. Tale moto,
ssato il punto iniziale, è univocamente determinato da un sistema di equa-
zioni canoniche hamiltoniane. In questo modo otteniamo un tubo chiuso di
traiettorie naturali (vedi Figura 9.1) di equazioni parametriche
qi = qi (t, α), pi = pi (t, α), i = 1, . . . , n; 0 ≤ α ≤ l,

dove
qi (t, 0) ≡ qi (t, l), pi (t, 0) ≡ pi (t, l), i = 1, . . . , n.
Su questo tubo scegliamo arbitrariamente una seconda curva chiusa C1 che
ha un solo punto in comune con ogni generatrice. L'equazione della curva
C1 può essere scritta nella forma:

qi = qi1 (α), pi = p1i (α), t = t1 (α).

65
Figura 9.1: Tubo chiuso di traiettorie naturali n = 1

Analizziamo l'azione W per le traiettorie denite dalla porzione di tubo


delimitata dalle curve C0 e C1 :
Z t1 (α)
W = L dt
t0 (α)

allora per ogni α, dalla formula (9.7),


Xn
0
δW = W (α)δα = [ pi δqi − Hδt]10
i=1

Integrando ambo i membri di questa equazione rispetto ad α per i valori


α = 0 e α = l otteniamo
n
Z l hX i1
0 = W (l) − W (0) = pi δqi − Hδt =
0 0
i=1
n
Z l hX i n
Z l hX i
= p1i δqi1 − H1 δt1 − p0i δqi0 − H0 δt0
0 i=1 0 i=1
I hXn i I n
hX i
= pi δqi − Hδt − pi δqi − Hδt
C1 i=1 C0 i=1
che diventa:
I n
hX i I n
hX i
pi δqi − Hδt = pi δqi − Hδt
C1 i=1 C0 i=1

Pertanto, abbiamo mostrato che l'integrale lineare


n
I hX i
I= pi δqi − Hδt (9.9)
i=1

non varia al variare del contorno chiuso scelto sul tubo e quindi è un inva-
riante integrale, che è chiamato l'invariante integrale di Poincaré-Cartan.

66
9.2 Invariante integrale universale
Consideriamo adesso, l'invariante integrale
n
I hX i
I= pi δqi − Hδt
i=1

attorno al contorno C che è composto di stati simultanei di un sistema (curva


a stati simultanei). Una curva a stati simultanei è ottenuta tagliando il tubo
dei moti naturali (vedi Figura 9.1) con un iperpiano di equazione t = cost.
Per il contorno così ottenuto vale δt = 0 e l'invariante integrale diventa
n
I X
I1 = pi δqi . (9.10)
i=1

Questo integrale è stato introdotto per la prima volta da Poincaré. Successi-


vamente, Cartan estese l'integrale ai contorni formati da stati non simultanei
introducendo il termine −Hδt nell'integrale (vedi paragrafo 9.1).
L'invariante integrale di Poincaré I1 non cambia al variare del contorno
C su un tubo di moti naturali perchè il contorno sia ancora composto di stati
simultanei.
Di seguito mostreremo il signicato geometrico di questa espressione per-
tanto risulta conveniente considerare l'integrale I1 nello spazio delle fasi 2n-
dimensionale ordinario. In questo spazio, ai contorni C0 e C1 (Figura 9.1)
corrispondono i contorni D0 e D1 (vedi Figura 9.2) che delimitano il tubo
dei moti naturali. Poichè i contorni sono a t è costante, vale

Figura 9.2: Tubo chiuso spazio 2n-dimesionale

I n
X I n
X
pi δqi = pi δqi .
D0 i=1 D1 i=1

Si può vedere il contorno D0 come un insieme di stati diversi di un siste-


ma al tempo t e quindi i corrispondenti stati del sistema al tempo t0 sono
rappresentati dal contorno D1 .

67
Adesso, invece di uno spazio delle fasi 2n-dimensionale, consideriamo n
piani di fase distinti (qi , pi ), i = 1, . . . , n. Proiettiamo una qualsiasi curva
chiusa (contorno) D appartenente allo spazio delle fasi su questi piani e
otteniamo i contorni Di , i = 1, . . . , n. Allora, per ogni i vale
I I
pi δqi = pi δqi = ±Si (9.11)
D Di

dove Si è l'area delimitata dal contorno Di nel piano (qi , pi ), i = 1, . . . , n. Il


segno davanti all'area Si in (9.11) è positivo se il contorno è percorso in senso
orario, negativo altrimenti. Allora l'invariante integrale I1 si può scrivere
n
I X n
(9.12)
X
I1 = pi δqi = ±Si .
i=1 i=1

Quindi, i contorni D e Di variano durante il moto di un sistema, e anche


le aree Si varia ma la somma algebrica (9.12) rimane costante. Questa è
l'interpretazione geometrica dell'invariante integrale di Poincaré. Si noti che
H non compare nell'espressione di I1 . Di conseguenza, l'integrale di Poincaré
I1 è invariante rispetto ad un qualsiasi sistema hamiltoniano. Ecco perchè
I1 è chiamato invariante integrale universale.

9.3 Caratterizzazione dei sistemi Hamiltoniani


Dato un sistema di equazioni dierenziali
dqi dpi
= Qi (t, qk , pk ), = Pi (t, qk , pk ) i = 1, . . . , n (9.13)
dt dt
se l'integrale I1 = i=1 pi δqi è invariante allora il sistema (9.13) è hamil-
H Pn

toniano.
Infatti, in questo caso:
n 
I X
d dpi d 
0= I1 = δqi + pi δqi =
dt i=1
dt dt
I Xn  I X n 
dpi dqi  dpi dqi 
= δqi + pi δ = δqi − δpi =
i=1
dt dt i=1
dt dt
I X n  
= Pi δqi − Qi δpi
i=1
da cui segue che l'espressione integranda è un dierenziale virtuale totale di
una qualche funzione −H(t, qk , pk )1 :
n 
X 
Pi δqi − Qi δpi = −δH(t, qk , pk )
i=1

1
 
Il dierenziale virtuale totale è denito come δH =
Pn ∂H ∂H
i=1 ∂qi
δqi + ∂pi
δpi .

68
pertanto
∂H ∂H
Qi = , Pi = − i = 1, . . . , n,
∂pi ∂qi
che è quanto volevamo dimostrare. Concludiamo con questo importante
teorema dovuto a Lee Hwa Chung.
Teorema 9.3.1 Se
n
I X
0
I = [Ai (t, qk , pk )δqi + Bi (t, qk , pk )δpi ]
i=1

è un invariante integrale universale, vale a dire indipendente da H , allora


I 0 = cI1 (9.14)
dove c è una costante e I1 è l'integrale di Poincaré.
Dimostrazione. Dimostriamo il teorema per n = 1. Sia
I
0
I = A(t, q, p)δq + B(t, q, p)δp

un invariante integrale universale. L'integrazione è eettuata lungo un con-


torno chiuso nel piano della fasi (q, p). Inoltre, sia dato un qualsiasi sistema
hamiltoniano di equazioni dierenziali con funzione H(t, q, p):
dq ∂H dp ∂H
= , =− . (9.15)
dt ∂p dt ∂q
La soluzione generale di questo sistema è della forma:
q = q(t, q0 , p0 ), p = p(t, q0 , p0 ) (9.16)
dove q0 e p0 sono i valori iniziali di q e p per t = t0 . Ancora, siano
q = q0 (α), p = p0 (α) (9.17)
[0 ≤ α ≤ l; q0 (0) = q0 (l), p0 (0) = p0 (l)],
le equazioni parametriche di un contorno chiuso D0 nel piano delle fasi. I
punti che al tempo t = t0 erano posizionati sul contorno D0 formano il
contorno D in qualche altro istante arbitrario t. Le equazioni parametriche
del contorno D sono ottenute sostituendo nelle (9.16) le (9.17):
q = q(t, α), p = p(t, α), 0 ≤ α ≤ l. (9.18)
Sostituendo queste funzioni p e q nell'espressione di I 0 otteniamo I 0 in funzio-
ne nel parametro t. Dall'invarianza di I 0 segue che dIdt = 0. Dierenziando
0

sotto il segno di integrale e integrando per parti otteniamo:


dI 0
I
dA dB d d
0= = δq + δp + A δq + B δp =
dt dt dt dt dt

69
I
dA dB dq dp
= δq + δp + Aδ + Bδ =
dt dt dt dt
I
dA dq dB dp
= δq − δA + δp − δB =
dt dt dt dt
I h
∂A ∂B  dp ∂A i h ∂B ∂A  dq ∂B i
= − + δq + − + δp =
∂p ∂q dt ∂t ∂q ∂p dt ∂t
I 
∂H ∂A   ∂H ∂B 
= −Z + δq + − Z + δp
∂q ∂t ∂p ∂t
dove
∂A ∂B
Z= − .
∂p ∂q
L'ultimo integrale è uguale a zero per qualsiasi valore della variabile t con-
siderata come parametro e per un arbitrario cammino di integrazione. Al-
lora, l'espressione contenuta nell'integrale deve essere un dierenziale totale
rispetto alle variabili p e q . Per questo motivo
∂  ∂H ∂A  ∂  ∂H ∂B 
−Z + = −Z +
∂p ∂q ∂t ∂q ∂p ∂t
che si può riscrivere come
∂Z ∂H ∂Z ∂H ∂Z
− + + = 0.
∂p ∂q ∂q ∂p ∂t
Poichè la funzione H può essere scelta in modo arbitrario deve essere
∂Z ∂Z ∂Z
= = =0
∂p ∂q ∂t
che equivale a
∂A ∂B
Z= − =c
∂p ∂q
Allora
∂(A − cp) ∂B
=
∂p ∂q
e, di conseguenza, esiste una funzione Φ(t, q, p) tale che
∂Φ ∂Φ
(A − cp)δq + Bδp = δq + δp = δΦ,
∂q ∂p
dove t è sempre considerato come un parametro, e quindi
Aδq + Bδp = cpδq + δΦ

da cui I I
I0 = Aδq + Bδp = c pδq = cI1

che completa la dimostrazione.

70
Capitolo 10

Trasformazioni Caniche

10.1 Trasformazioni Canoniche


Dato uno spazio delle fasi 2n−dimensionale
q̃i = q̃i (t, qk , pk )
(i = 1, . . . , n; ∂(q̃1 ,p̃1 ,...,q̃n ,p̃n )
∂(q1 ,p1 ,...,qn ,pn ) 6= 0) (10.1)
p̃i = p̃i (t, qk , pk )

una trasformazione di coordinate è detta canonica se da un un sistema


hamiltoniano
dqi ∂H dpi ∂H
= , =− (i = 1, . . . , n) (10.2)
dt ∂pi dt ∂qi
ci porta in un altro sitema che è ancora hamiltoniano:
dq̃i ∂ H̃ dp̃i ∂ H̃
= , =− (i = 1, . . . , n). (10.3)
dt ∂ p̃i dt ∂ q̃i
Lo spazio, in generale, contiene la variabile temporale t come parametro.
L'importanza di studiare le trasformazioni canoniche nasce dal fatto che
queste trasformazioni permettono di sostituire un dato sistema hamiltonia-
no (10.2) con un sistema hamiltoniano (10.3) dove la funzione H̃ ha una
struttura molto più semplice rispetto alla funzione H di partenza.
Si osservi che, in uno spazio delle fasi vengono realizzate due trasforma-
zioni canoniche e la trasformazione risultante è ancora una trasformazione
canonica. Inoltre, la trasformazione inversa di una trasformazione canoni-
ca è ancora una trasformazione canonica e la funzione identica, q̃i = qi ,
p̃i = pi (i = 1, . . . , n), è anch'essa canonica. Pertanto, l'insieme di tutte le
trasformazioni canoniche forma un gruppo.
Esempio 5 La trasformazione
q̃i = αqi , p̃i = βpi (i = 1, . . . , n; α 6= 0, β 6= 0)

71
è canonica e trasforma il sistema (10.2) nel sistema (10.3) con
H̃ = αβH.

Esempio 6 La trasformazione
q̃i = αpi , p̃i = βqi (i = 1, . . . , n; α 6= 0, β 6= 0)

è canonica. In questo caso,


H̃ = −αβH.

Esempio 7 La trasformazione
q̃i = pi tan t, p̃i = qi cot t (i = 1, . . . , n)

è canonica. Infatti, dalle equzioni (10.2) otteniamo le (10.3) con


n
1 X
H̃ = −H + q̃i p̃i .
sin t cos t
i=1

Per derivare le condizioni per le quali la trasformazione (10.1) è canoni-


ca, consideriamo due spazi delle fasi estesi (2n + 1)−dimensionali, (qi , pi , t)
e (q̃i , p̃i , t), ottenibili l'uno dall'altro mediante la trasformazione canonica
(10.1), e due tubi di cammini in questi sistemi hamiltoniani (10.2) e (10.3),
Figura 10.1.

Figura 10.1: Tubi di Cammini nei sistemi Hamiltoniani (10.2) e (10.3).

Consideriamo due contorni arbitrari chiusi C e C̃ che delimitano questi


tubi e che corrispondono l'uno all'altro mediante la trasformazione (10.1).
Facciamo attraversare entrambi i tubi dallo stesso iperpiano t = const in
modo da ottenere due piani delimitati dai contorni C0 e C̃0 . Anche questi

72
contorni corrispondono l'uno all'altro mediante la trasformazione canonica
(10.1), poichè t resta invariato nelle trasformazioni canoniche. Dall'invarian-
za dell'integrale di Poincaré-Cartan segue
n
I hX i I n
(10.4)
X
pi δqi − Hδt = pi δqi
C i=1 C0 i=1

n
I hX i I n
(10.5)
X
p̃i δ q̃i − H̃δt = p̃i δ q̃i
C̃ i=1 C̃0 i=1

Se nell'invariante integrale universale i=1 p̃i δ q̃i passiamo alle variabili qi ,


n HP

pi (i = 1, . . . , n), utilizzando una trasformazione canonica (10.1), otteniamo


un invariante integrale universale del primo ordine nello spazio delle fasi 2n-
dimensionale (qi , pi ) che, dal teorema di Lee Hwa-Chung, può dierire da
solo per un fattore costante c. Allora
H Pn
i=1 p i δqi

I n I n
(10.6)
X X
p̃i δ q̃i = c pi δqi .
C̃0 i=1 C0 i=1

Dalle equazioni (10.4), (10.5) e (10.6) segue che


n
I hX i n
I hX i
p̃i δ q̃i − H̃δt = c pi δqi − Hδt . (10.7)
C̃ i=1 C i=1

Se nel primo integrale esprimiamo le variabili q̃1 , . . . p̃n in termini delle va-
riabili q1 , . . . pn , il cammino C̃ viene sostituito dal cammino C e l'equazione
(10.7) può essere riscritta come
n
I hX i n
hX i
p̃i δ q̃i − H̃δt − c pi δqi − Hδt = 0. (10.8)
C i=1 i=1

Poichè C è un contorno arbitrario in uno spazio delle fasi esteso (2n + 1)-
dimensionale, l'espressione sotto il segno di integrale nell'equazione (10.8)
deve essere un totale dierenziale di qualche funzione a 2n + 1 argomenti
q1 , p1 , . . . , qn , pn e t. Per sempliccare la notazione denotiamo tale funzione
come −F (t, qi , pi ) e otteniamo
n n
X 
(10.9)
X
p̃i δ q̃i − H̃δt = c pi δqi − Hδt − δF
i=1 i=1

dove c è sempre diversa da 0, c 6= 0, poichè l'espressione ni=1 p̃i δ q̃i − H̃δt


P
non è un dierenziale totale1 e dunque non può essere mai uguale a −δF .
1
Rispetto alle variabili indipendenti q̃i , p̃i , t e quindi, rispetto alle variabili indipendenti
qi , pi , t (i = 1, . . . , n).

73
Di seguito chiameremo F funzione generatrice e la costante c la valen-
za della trasformazione canonica (10.1). La trasformazione canonica sarà
chiamata univalente se c = 1.
Una condizione necessaria e suciente anchè la trasformazione (10.1)
sia canonica è che esista una funzione generatrice F e una qualche costante
c per le quali l'equazione (10.9) è identicamente soddisfatta in virtù della
trasformazione (10.1).
Nota. Se la trasformazione (10.1) è canonica, allora esiste una funzione
generatrice F e una valenza c 6= 0 tale che l'equazione (10.9) vale per qualsiasi
funzione H e la corrispendente funzione H̃ . Inoltre, se (10.9) vale per una
coppia di funzioni H e H̃ , allora la trasformazione (10.1) è già canonica.
Infatti, consideriamo oltre alla funzione H , una funzione arbitraria H1 e
deniamo H̃1 dalla condizione
H̃1 − H̃ = c(H1 − H).

Moltiplicando entrambi i termini con δt e sottraendo l'equazione risultante


dalla (10.9) otteniamo
n
X n
X 
p̃i δ q̃i − H̃δt = c pi δqi − H1 δt − δF.
i=1 i=1

Ne segue che l'equazione (10.9) vale per qualsiasi funzione H1 e la corrispon-


dente H̃1 .

10.2 Trasformazioni canoniche libere


Una trasformazione canonica è libera se vale
∂(q̃1 , . . . , q̃n )
6= 0. (10.10)
∂(p1 , . . . , pn )

Questa disuguaglianza ci assicura l'indipendenza delle variabili t, q1 , . . . , qn ,


q̃1 , . . . , q̃n che ora possono essere considerate come variabili di base. In-
fatti, possiamo esprimere il momento generalizzato p1 , . . . , pn in termini di
2n + 1 quantità t, qi , q̃i (i = 1, . . . , n) e, di conseguenza, possiamo rappre-
sentare qualsiasi funzione nelle variabili t, qi , pi (i = 1, . . . , n) in funzione
delle variabili t, qi , q̃i (i = 1, . . . , n). Nel caso della funzione generatrice F
otteniamo
F (t, qi , pi ) = S(t, qi , q̃i ).
Allora, l'identità di base (10.9) può essere scritta come
n n
X 
(10.11)
X
p̃i δ q̃i − H̃δt = c pi δqi − Hδt − δS(t, qi , q̃i ).
i=1 i=1

74
Equiparando i coecienti di δqi , δ q̃i e δt otteniamo
∂S ∂S
= cpi , = −p̃i , (i = 1, . . . , n) (10.12)
∂qi ∂ q̃i
∂S
H̃ = cH + . (10.13)
∂t
Le equazioni (10.12) deniscono la trasformazione canonica libera che stiamo
analizzando. Di seguito mostriamo come questa trasformazione può essere
ridotta alla forma (10.1).
Le n derivate parziali ∂q
∂S
i
(i = 1, . . . , n) della (10.12) sono indipendenti
come funzioni nelle quantità q̃1 , . . . , q̃n poichè, dalla (10.12), la relazione
 ∂S ∂S 
Ω ,..., , q1 , . . . , qn = 0
∂q1 ∂qn
assume la forma 
Ω(cp1 , . . . , cpn , q1 , . . . , qn = 0.
Pertanto, per la funzione generatrice S di una trasformazione canonica libera
deve valere:  ∂ 2 S n
det 6= 0. (10.14)
∂qi ∂ q̃k i, k=1

Dalla precedente disuguaglianza segue che le prime n equazioni della (10.12)


possono essere risolte per q̃i (i = 1, . . . , n) e tutte le nuove variabili q̃i , p̃i (i =
1, . . . , n) possono essere espresse in termini delle vecchie qi , pi (i = 1, . . . , n).
La trasformazione così ottenuta sarà della forma (10.10) e sarà reversibile,
ovvero per essa ∂(q ∂(q̃1 ,...,p̃n )
1 ,...,pn )
6= 0 (poichè, della disuguaglianza (10.14), le ultime
n equazioni della (10.12) possono essere risolte per qi e tutte le qi , pi possono
essere espresse in termini di q̃i , p̃i (i = 1, . . . , n)). Allora, le equazioni (10.12)
deniscono una trasformazione canonica libera con una funzione generatrice
S(t, qi , q̃i ) e con una valenza c 6= 0, mentre la (10.13) stabilisce una semplice
relazione tra le funzioni hamiltoniane H e H̃ .
Combinando le diverse funzioni generatrici S che soddisfano la condizione
(10.14), e le diverse valenze c 6= 0, applicando le formule (10.12) possiamo
ottenere tutte le trasformazioni canoniche libere.
Per le trasformazioni canoniche libere univalenti (c = 1), le formule
(10.12) e (10.13) assumono una forma più semplice:
∂S ∂S
= pi , = −p̃i , (i = 1, . . . , n) (10.15)
∂qi ∂ q̃i
∂S
H̃ = H + . (10.16)
∂t
L'ultima equazione mostra che dopo aver applicato la stessa trasformazione
canonica univalente a diversi sistemi hamiltoniani, la dierenza tra H e H̃
sarà data sempre e solo dal termine ( ∂S
∂t ).

75
Dalla (10.13) segue che H̃ = cH se e solo se ∂S∂t = 0, ovvero quando
la funzione generatrice S non dipende esplicitamente da t. In questo caso,
dalla (10.12), il tempo t non rientrerà esplicitamente nella formula della
trasformazione canonica. Per questa trasformazione canonica, la funzione
H subisce una lieve modica essendo solo moltiplicata per la costante c.
Per tale motivo, se vogliamo ottenere un nuovo sistema con una funzione
hamiltoniana più semplice, dobbiamo prendere una trasformazione canonica
libera contenente t come parametro.

Esempio 8 Riprendiamo le trasformazioni che abbiamo cosiderato nel pa-


ragrafo precedente:
(1) q̃i = αqi , pi = βpi
(2) q̃i = αpi , p̃i = βqi
(3) q̃i = pi tan t, p̃i = qi cot t (i = 1, . . . , n).

Le trasformazioni (2) e (3) sono libere. Le funzioni generatrici e le rispettive


valenze sono date da:
n
X
(1) S = −β qi q̃i , c = −αβ
i=1

n
X
(2) S = − cot t qi q̃i , c = −1.
i=1

La trasformazione (1) non è libera e per essa si ha F ≡ 0 e c = αβ .


Esempio 9 Consideriamo una generica trasformazione ane del piano del-
le fasi (q, p) con n = 1:
q̃ = αq + βp, p̃ = α1 q + β1 p (αβ1 + α1 β 6= 0). (10.17)
Sostituiamo nell'identità di base (10.9) i secondi membri della (10.17). Poi-
chè la variabile t non compare esplicitamente in questi ultimi, scriviamo
anche la funzione F in una forma dove t non appaia esplicitamente:
F = F (q, p).

Dopo queste sostituzioni, l'identà di base assumerà la seguente forma


(α1 q + β1 p)(αδq + βδp) − cpδq = −δF

oppure
1 1
δ( αα1 q 2 + ββ1 p2 ) + α1 βqδp + (αβ1 − c)pδq = −δF.
2 2

76
Il lato sinistro di questa equazione sarà un dierenziale totale con
c = αβ1 − α1 β.

Dunque, la trasformazione (10.17) è canonica con valenza c uguale al deter-


mintate della trasformazione, e con funzione generatrice:
1 1
F = αα1 q 2 + ββ1 p2 + α1 βqp.
2 2
Questa trsformazione è libera se β 6= 0.
Per un sistema naturale, le coordinate q1 , . . . , qn deniscono la posizione
del sistema e insieme al momento momento p1 , . . . , pn , deniscono lo stato
del sistema, ovvero la posizione e la velocità dei suoi punti. Questa ca-
ratteristica delle coordinate non vale nelle trasformazioni canoniche di tipo
generale. Le quantità q̃1 , . . . , q̃n non deniscono più la posizione del siste-
ma, e solo insieme alle p̃1 , . . . , p̃n deniscono lo stato del sistema. Le variabili
q̃1 , . . . , q̃n deniscono la posizione del sistema solo nel caso particolare di una
trasformazione canonica puntuale per cui la funzione q̃(t, qk , pk ) non contiene
il momento
q̃i = q̃i (t, qk ) (i = 1, . . . , n).

10.3 Le parentesi di Lagrange


In questo paragrafo, date 2n funzioni indipendenti
q̃i = φi (t, qk , pk ), p̃i = ψi (t, qk , pk ) (i = 1, . . . , n), (10.18)
deniremo delle condizioni necessarie e sucienti achè la trasformazione
da esse denita sia canonica.
Supponiamo che la trasformazione (10.18) sia canonica. Deniamo per
essa l'identità
n n
X 
(10.19)
X
p̃i δ q̃i − H̃δt = c pi δqi − Hδt − δF (t, qi , pi ).
i=1 i=1

Consideriamo un arbitrario valore ssato t = t̄, allora dalla (10.19) otteniamo


n n
(10.20)
X X
p̃i δ q̃i = c pi δqi − δF (t̄, qi , pi ).
i=1 i=1

In questo modo otteniamo una denizione di identità per una trasformazione


che non contiene in modo esplicito il tempo
q̃i = φi (t̄, qk , pk ), p̃i = ψi (t̄, qk , pk ) (i = 1, . . . , n). (10.21)

77
Pertanto, le formule (10.21) deniscono una trasformazione canonica con
valenza c che è indipendente dal particolare valore di t.
Assumiamo adesso che tutte le trasformazioni ottenute dalla (10.18) so-
stituendo la variabile t con diversi valori ssati t̄ siano canoniche e tutte con
la stessa valenza c. Allora, se deniamo H̃ come
n
∂F X ∂ q̃i
H̃ = cH + + p̃i (10.22)
∂t ∂t
i=1

otteniamo, da quest'ultima e dalla (10.20), l'equazione (10.19) e dunque an-


che la trasformazione (10.18) dipendente dal tempo è canonica. Pertanto,
condizione necessaria e suciente anchè la trasformazione (10.18) dipen-
dente dal tempo, sia canonica, è che tutte le trasformazioni indipendenti
dal tempo ottenute dalla (10.18) sostituendo t con un arbitrario valore t̄
siano canoniche e abbiano la stessa valenza c. Per questo motivo, quan-
do dobbiamo vericare la canonicità di una trasformazione, possiamo farlo
prendendo in considerazione le trasformazioni canoniche che non contengono
esplicitamente la variabile temporale t:
 ∂(q̃1 , . . . , p̃n ) 
q̃i = φi (qk , pk ), p̃i = ψi (qk , pk ) i = 1, . . . , n; 6= 0 . (10.23)
∂(q1 , . . . , pn )

Per la trasformazione canonica (10.23), la denizione dell'identità (10.19)


assume la forma
n n
(10.24)
X X
p̃k δ q̃k = c pk δqk − δK(qk , pk ).
k=1 k=1

Esprimendo δ q̃k in termini di δqi e δpi e usando le formule (10.23), la (10.24)


assume la seguente forma
n
(10.25)
X
(Φi δqi + Ψi δpi ) = −δK(qk , pk )
k=1

dove
n n
∂ q̃k X ∂ q̃k
(10.26)
X
Φi = p̃k − cpi , Ψi = p̃k (i = 1, . . . , n).
∂qi ∂pi
k=1 k=1

Rimane da scrivere le condizione che devono essere soddisfatte dal primo


membro della (10.25), ovvero che deve essere dierenziabile, e otterremo
così un test per la canonicità nella forma:
∂Φi ∂Φk ∂Ψi ∂Ψk ∂Φi ∂Ψk
= , = , = (i, k = 1, . . . , n). (10.27)
∂qk ∂qi ∂pk ∂pi ∂pk ∂qi

78
Sostituendo la (10.26) nelle uguaglianze (10.27) otteniamo
 
Pn ∂ q̃j ∂ p̃j ∂ q̃j ∂ p̃j
j=1 ∂qi ∂qk − ∂qk ∂qi  = 0

∂ q̃j ∂ p̃j ∂ q̃j ∂ p̃j
(10.28)
Pn
j=1 ∂pi ∂pk − ∂pk ∂pi  = 0

Pn ∂ q̃j ∂ p̃j ∂ q̃j ∂ p̃j
j=1 ∂qi ∂pk − ∂pk ∂qi = cδik (i, k = 1, . . . , n)

dove δik è il simbolo di Kronecker: δik = 0 per i =6 k ; δik = 1 per i = k


(i, k = 1, . . . , n).
Le (10.28) possono essere scritte in modo più compatto utilizzando le
parentesi di Lagrange.
Denizione 10.3.1 Date 2n funzioni φi , ψi (i=1,. . . , n) nelle variabili p e
q le parentesi di Lagrange sono denite come
n  n
∂φj ∂ψj ∂φj ∂ψj  X ∂(φj , ψj )
(10.29)
X
[qp] = − =
∂q ∂p ∂p ∂q ∂(q, p)
j=1 j=1

Utilizzando le parentesi di Lagrange, dove per noi φi e ψi sono le funzioni


q̃i , p̃i (i = 1, . . . , n) denite in (10.23), le condizioni (10.28) possono essere
riscritte come segue
[qi qk ] = 0, [pi pk ] = 0, [qi pk ] = cδik (i, k = 1, . . . , n) (10.30)
dove c è la valenza della trasformazione canonica.
Le uguaglianze (10.30) rappresentano le condizioni necessarie e sucienti
anchè la trasformazione (10.23) sia canonica. Nel caso di trasformazioni
dipendenti dal tempo, le (10.30) sono preservate a condizione che essi valgano
per qualsiasi valore di t.

10.4 Matrice jacobiana di una trasformazione ca-


nonica
Cosideriamo la matrice jacobiana della trasformazione canonica
∂ q̃1 ∂ q̃1 ∂ q̃1 ∂ q̃1
∂q1 ... ∂qn ∂p1 ... ∂pn
... ... ... ... ... ... !
∂ q̃n ∂ q̃n ∂ q̃n ∂ q̃n ∂q̃ ∂q̃
... ...
M= ∂q1
∂ p̃1
∂qn
∂ p̃1
∂p1
∂ p̃1
∂pn
∂ p̃1 = ∂q ∂p
∂p̃ ∂p̃ (10.31)
∂q1 ... ∂qn ∂p1 ... ∂pn ∂q ∂p
... ... ... ... ... ...
∂ p̃n ∂ p̃n ∂ p̃n ∂ p̃n
∂q1 ... ∂qn ∂p1 ... ∂pn

Dove ∂q
∂q̃
è una matrice jacobiana di ordine n k ∂q
∂ q̃i
k
k. Analogamente, denia-
mo le matrici jacobiane di ordine n ∂p , ∂q e ∂p .
∂q̃ ∂p̃ ∂p̃

79
Introduciamo la seguente matrice speciale di ordine 2n:
0 ... 0 −1 . . . 0
··· ··· ··· ··· ··· ···  
0 ... 0 0 . . . −1 0 −E
M= = (10.32)
1 ... 0 0 ... 0 E 0
··· ··· ··· ··· ··· ···
0 ... 1 0 ... 0
dove E è una matrice unità di ordine n. Consideriamo la matrice M e la
sua trasposta M 0 . Dal prodotto M 0 J M e dalla (10.30) segue che:
M 0 J M = cJ (10.33)
dove c è la valenza della trasformazione canonica. Infatti
! !
∂q̃ 0 ∂p̃ 0
( ∂p̃ 0 ∂q̃ 0
∂q ) − ( ∂q )
 
( ∂q ) ( ∂p ) 0 −E
M 0J = ∂p̃ 0 ∂p̃ 0 = = (10.34)
( ∂q ) ( ∂p ) E 0 ( ∂p̃ 0 ∂q̃ 0
∂p ) − ( ∂p )

!
( ∂p̃
∂q )
0 ∂q̃
− ( ∂q̃
∂q )
0 ∂p̃
( ∂p̃
∂q )
0 ∂q̃
− ( ∂q̃
∂q )
0 ∂p̃
M 0J M = ∂q ∂q ∂p ∂p
(10.35)
( ∂p̃
∂p )
0 ∂q̃
∂q
∂q̃ 0
− ( ∂p ) ∂p̃
∂q ( ∂p̃
∂p )
0 ∂q̃
∂p
∂q̃ 0
− ( ∂p ) ∂p̃
∂p

Inoltre, osserviamo che


n
 ∂p̃ 0 ∂q̃  ∂q̃ 0 ∂p̃ X ∂ p̃j ∂ q̃j ∂ q̃j ∂ p̃j
n
− = − = k[qi qk ]k = 0.

∂q ∂q ∂q ∂q ∂qi ∂qk ∂qi ∂qk i,k=1

j=1

Procedendo in modo analogo per tutti gli altri blocchi otteniamo


 
0 −cE
M JM = 0
= cJ (10.36)
cE 0

che è quanto volevamo dimostrare.


Per una trasformazione canonica univalmente, l'equazione (10.33) assume
la forma
M 0J M = J . (10.37)
Le matrici M per cui la relazione precedente vale sono dette simpliciali.
Poichè det J = 1 e il determintate del prodotto di matrici è uguale al
prodotto dei determinanti delle singole matrici che si moltiplicano:
det M = ±1 (10.38)
e dunque una matrice simpliciale è non signolare.
Le matrici M che soddisfano la (10.38) sono dette matrici simpliciali
generalizzate con valenza c.

80
Dalle relazioni (10.30), la caratteristica di canocicità di una trasforma-
zione può essere riformulata come segue.
Condizione necessaria e suciente anchè una trasformazione
q̃i = q̃i (t, qk , pk ), p̃i = p̃i (t, qk , pk ) (i = 1, . . . , n)

sia canonica è che la matrice jacobiana M , corrispondente alla trasforma-


zione, sia simpliciale generalizzata con valenza costante c. Nel caso di una
trasformazione univalente, la matrice M è una matrice simpliciale ordinaria.

10.5 Invarianza delle parentesi di Poisson in una


trasformazione canonica
In questo paragrafo rivediamo le condizioni di canonicità per trasformazioni
nella forma (10.33).
Moltiplicando entrambi i membri della (10.33) con (M 0 )−1 e il secondo
membro per M −1 otteniamo
1
(M 0 )−1 J M −1 = J . (10.39)
c
Consideriamo le matrici inverse di entrambi i membri dell'equazione così
ottenuta (nota che J −1 = −J )2 :
M J M 0 = cJ . (10.41)
L'uguaglianza (10.41) è ottenuta dall'uguaglianza
M 0 J M = cJ

sostituendo la matrice jacobiana M con la sua trasposta M 0 . In questo


modo le derivate
∂ q̃i ∂ q̃i ∂ p̃i ∂ p̃i
, , , ,
∂qk ∂pk ∂qk ∂pk
sono sotituite dalle derivate
∂ q̃k ∂ p̃k ∂ q̃k ∂ p̃k
, , , ,
∂qi ∂qi ∂pi ∂pi
rispettivamente (vedi (10.31)). In altre parole, in ogni derivata si scambiano
gli indici al numeratore con quelli al denominatore.
2
La matrice inversa di un prodotto di matrici è uguale al prodotto delle inverse delle
matrici in ordine inverso
(ABC)−1 = C −1 B −1 A−1 .
Inoltre:     
0 −E 0 −E E 0
J2 = =− = −JJ −1 (10.40)
E 0 E 0 0 E
e quindi J −1 = −J .

81
Quindi, se l'equazione M 0 J M = cJ era equivalente al sistema di ugua-
glianze
[qi qk ] = 0, [pi pk ] = 0, [qi pk ] = cδik (i, k = 1, . . . , n) (10.42)
allora l'equazione (10.32) sarà equivalente al sistema di equazioni
[qi qk ]∗ = 0, [pi pk ]∗ = 0, [qi pk ]∗ = δik (i, k = 1, . . . , n) (10.43)
dove il simbolo (∗ ) indica che lo scambio degli indici sopra citato, viene
realizzato con le parentesi di Lagrange. Ma allora, si può vedere come le
parentesi di Lagrange diventano le parentesi di Poisson. Infatti,
n  n

hX ∂ q̃j ∂ p̃j ∂ p̃j ∂ q̃j i∗ X  ∂ q̃i ∂ q̃k ∂ q̃i ∂ q̃k 
[qi qk ] = − = − = (q̃i , q̃k )
∂qi ∂qk ∂qi ∂qk ∂qj ∂pj ∂pj ∂qj
j=1 j=1

dove (q̃i , q̃k ) sono le parentesi di Poisoon delle funzioni q̃i e q̃k rispetto alle
variabili inidpendenti
q1 , p1 , . . . , qn , pn .
Analogamente,
[pi pk ]∗ = (p̃i , p̃k ), [qi pk ]∗ = (q̃i , p̃k ).
Allora, utilizzando le parentesi di Poisson, le condizioni di canonicità della
trasformazione (10.43) possono essere riscritte come
(q̃i , q̃k ) = 0, (p̃i , p̃k ) = 0, (q̃i , p̃k ) = cδik , (i, k = 1, . . . , n). (10.44)
Consideriamo due funzioni φ e ψ nelle variabili qi , pi , (i = 1, . . . , n) e t.
Applicando le parentesi di Poisson possiamo esprimere qi , pi , (i = 1, . . . , n)
in termini di q̃k , p̃k , (k = 1, . . . , n) e quindi guardare a queste funzioni come
funzioni nelle variabili q̃k , p̃k , (k = 1, . . . , n). Allora, le parentesi di Poisson
di φ e ψ possono essere valutate rispetto alle variabili qi , pi (denotato con
(φψ)) e rispetto alle variabili q̃i , p̃i (denotato con (φψ)∼ ).
Di seguito dimostriamo che vale l'identità
(φψ) = c(φψ)∼ . (10.45)
La prova si fonda su una rappresentazione dello jacobiano di un sistema di
funzioni composite
n
∂(φ, ψ) X h ∂(φ, ψ) ∂(q̃ , q̃ )
i k ∂(φ, ψ) ∂(p̃i , p̃k ) i
= + +
∂qi , pj ∂(q̃i , q̃k ) ∂(qj , pj ) ∂(p̃i , p̃k ) ∂(qj , pj )
i,k=1 i<k

n
X ∂(φ, ψ) ∂(q̃i , p̃k )
+ (j = 1, . . . , n)
∂(q̃i , p̃k ) ∂(qj , pj )
i,k=1

82
e sommando termine a termine otteniamo
n h ∂(φ, ψ) n
X ∂(φ, ψ) i X ∂(φ, ψ)
(φψ) = (q̃i , q̃k ) + (p̃i , p̃k ) + (q̃i , p̃k )
∂(q̃i , q̃k ) ∂(p̃i , p̃k ) ∂(q̃i , p̃k )
i,k=1 i<k i,k=1

e dalla (10.44) otteniamo


n
∂(φ, ψ)
(10.46)
X
(φψ) = c = c(φψ)∼ .
∂(q̃j , p̃j )
j=1

Il viceversa continua a valere. Se per qualsiasi coppia di funzioni φ e ψ l'iden-


tità (10.47) è soddisfatta per una costante c 6= 0 unica, allora il passsaggio
dalle 2n variabili qi , pi alle 2n variabili q̃i , p̃i è realizzato da una trasforma-
zione canonica con valenza c. Per una trasformazione canonica univalente
c = 1 segue che
(φψ) = (φψ)∼ (10.47)
da cui si vede che le parentesi di Poisson non variano rispetto a trasformazioni
canoniche univalenti.

83