Sei sulla pagina 1di 145

Appunti di Teoria dei Sistemi a Molti Corpi

` di Scienze M.F.N.
Facolta
Corso di Laurea in Fisica
` degli studi di Roma Tor Vergata
Universita

Prof. G.C.Rossi

Appunti raccolti e redatti da F. Palombi e N. Tantalo

Secondo Semestre
Anno Accademico 2002/2003

Indice
1 Elementi di Meccanica Statistica

1.1

La nozione di ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2

L ensemble microcanonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2.1

Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

1.3

Il gas ideale classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

1.4

Il teorema di equipartizione dell energia . . . . . . . . . . . . . . . . . . . . . . . . . .

21

1.5

L ensemble canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

1.6

Equivalenza tra ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

1.7

L ensemble grancanonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

1.8

La Meccanica Statistica Quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

2 Sistemi fermionici

37

2.1

L approssimazione di BornOppenheimer . . . . . . . . . . . . . . . . . . . . . . . . .

37

2.2

Il gas di Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

2.3

La teoria di ThomasFermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

2.4

Il metodo di HartreeFock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

2.5

Il metodo di CarParrinello . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

2.6

La teoria del funzionale densit`


a (DFT) . . . . . . . . . . . . . . . . . . . . . . . . . . .

53

2.7

La Dinamica Molecolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

61

3 Metodi stocastici

71

3.1

L algoritmo HeatBath . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

72

3.2

Il metodo Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

73

ii

Indice
3.2.1

Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

74

3.3

L algoritmo di Metropolis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

78

3.4

L algoritmo di Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81

3.5

L approccio stocastico e l equazione di FokkerPlanck . . . . . . . . . . . . . . . . . .

85

3.6

Soluzione dell equazione di FokkerPlanck . . . . . . . . . . . . . . . . . . . . . . . . .

89

3.7

La quantizzazione stocastica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

93

3.8

Il metodo della Dinamica Molecolare . . . . . . . . . . . . . . . . . . . . . . . . . . . .

94

3.9

Dinamica Molecolare ibrida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

97

3.10 Monte Carlo ibrido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101


3.11 Diffusion Quantum Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4 Metodi di Meccanica Quantistica

113

4.1

Equazioni di Eulero Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

4.2

Integrale funzionale in Meccanica Quantistica . . . . . . . . . . . . . . . . . . . . . . . 114

4.3

Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119


4.3.1

Il caso della particella libera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

4.3.2

Il caso dell oscillatore armonico . . . . . . . . . . . . . . . . . . . . . . . . . . 120

4.4

La teoria delle perturbazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

4.5

Rotazione euclidea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

4.6

Le funzioni di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

4.7

4.6.1

Funzioni di Green connesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

4.6.2

Funzioni di Green 1PI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

Espansione semiclassica di (x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

A HohenbergKhon Theorem

133

A.1 The theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133


A.2 Khon-Sham equations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

Indice

Introduzione

Indice

Capitolo 1

Elementi di Meccanica Statistica


Lo scopo della Meccanica Statistica `e quello di derivare le propriet`a termodinamiche di un sistema
macroscopico all equilibrio dalle leggi della dinamica molecolare. Cio`e di derivare non solo le leggi della
Termodinamica, ma anche l espressione specifica delle funzioni termodinamiche di un dato sistema.
La Meccanica Statistica non descrive come un sistema si avvicini all equilibrio, n`e in quali condizioni
ci`o sia possibile.

1.1

La nozione di ensemble

Consideriamo un sistema, composto da un gran numero di molecole N , che occupa un grande volume
V . Tipicamente

N ' 1023 particelle


V ' 1023 volumi molecolari

(1.1)

Faremo l ipotesi che il comportamento di un sistema reale non si discosti molto da quello che si ha
nel limite termodinamico

limite termodinamico :

N
V

V
= v = cost.
N

(1.2)

Classicamente lo stato del sistema `e completamente individuato da 3N + 3N coordinate {qi ; i =


1, . . . , 3N } e momenti coniugati {pi ; i = 1, . . . , 3N }. La dinamica del sistema `e determinata dalla

Capitolo 1. Elementi di Meccanica Statistica

hamiltoniana H(q, p) (nel seguito useremo la notazione q = {qi }i=1,...3N e p = {pi }i=1,...3N ), dalla
quale seguono le equazioni del moto

qi = H(q,p)
pi
p = H(q,p)
i
qi

(1.3)

Osservazione. La hamiltoniana del sistema si ottiene a partire dalla sua lagrangiana mediante
trasformata di Legendre:

X
H(q, p) = min [
pi qi L(q, q)]

p fisso

(1.4)

Il minimo a p fisso della quantit`


a tra parentesi si ottiene imponendo che siano nulle le sue derivate
rispetto a qi , calcolate a p fisso. Si ottengono in questo modo le equazioni

pi =

L
qi

i = 1, . . . 3N

(1.5)

Le (1.5) devono essere invertite in modo tale da avere qi = fi (q, p), e quindi

H(q, p) =

pi fi (q, p) L(q, f (q, p))

(1.6)

2
Nello spazio a 6N dimensioni , detto spazio delle fasi, ogni stato del sistema `e rappresentato da un
punto. Ad ogni stato macroscopico del sistema corrispondono moltissimi, nel limite termodinamico
infiniti, punti in . Immaginiamo che a ciascuno di questi punti in corrisponda una copia del sistema
macroscopico. Chiameremo ensemble una tale collezione di sistemi. Se

(q, p; t) d3N q d3N p

(1.7)

rappresenta il numero di sistemi dell ensemble con coordinate contenute nel volume d3N q d3N p centrato in (q, p) al tempo t, la funzione densit`
a (q, p; t) descrive completamente l ensemble. Vale inoltre
il fondamentale

1.1. La nozione di ensemble

Teorema 1.1 (di Liouville)


La funzione densit`
a (q, p; t) soddisfa l equazione

+ {, H} = 0
t

(1.8)

dove

3N 
X
H
H

{, H}
qi pi
pi qi

(parentesi di Poisson)

(1.9)

i=1

Dimostrazione. Poich`e il numero dei sistemi macroscopici `e costante, detto un volumetto in


racchiuso dalla superficie S, abbiamo

d
dt

Z
~v n
dS

d =

(1.10)

dove n
`e il versore normale esterno alla superficie S, il segno `e dovuto al verso di n
e

~v = (q1 , q2 , . . . , q3N ; p1 , p2 , . . . , p3N )

(1.11)

Dal teorema della divergenza segue che


d

dt

Z
d =

~ (~v ) d

(1.12)

~ `e il gradiente in 3N + 3N dimensioni:
dove

~ =

,...,
;
,...,
q1
q3N p1
p3N


(1.13)

Dall arbitrariet`a di segue che

~ (~v ) = 0
+
t

(1.14)

Calcoliamo esplicitamente la quantit`


a:

~ (~v )


3N 
X

(qi ) +
(pi ) =
qi
pi
i=1


3N 
3N 
X
X

qi
pi
qi +
pi +
+
qi
pi
qi
pi
i=1

i=1

(1.15)

Capitolo 1. Elementi di Meccanica Statistica

Usando le equazioni di Hamilton si ottiene

~ (~v ) =



3N 
3N 
X
X
H
H
2H
2H

= {, H}
qi pi
pi qi
qi pi pi qi
i=1

(1.16)

i=1

2
Osservazione. La (1.8) pu`
o scriversi anche nella forma
d
= 0
dt
e la (q, p; t) pu`o essere interpretata come la densist`a di un fluido incomprimibile.

(1.17)
2

Nota la funzione (q, p; t), il valore osservato di una grandezza fisica O(q, p) `e espresso dalla media
d ensemble
R
hOi(t) =

d3N q d3N p O(q, p)(q, p; t)


R
d3N q d3N p (q, p; t)

(1.18)

Si deve osservare che se conoscessimo la dipendenza di da t, governata dall equazione di Liouville


(1.8), la formula precedente descriverebbe anche come hOi si avvicina al suo valore d equilibrio.
Inoltre, nel seguito assumeremo che valga il seguente
Teorema 1.2 (ipotesi ergodica)
Dato un punto rappresentativo del sistema nello spazio delle fasi, pur di attendere un tempo sufficientemente lungo, esso passer`
a ad una distanza arbitrariamente piccola da qualsiasi altro punto dello
2

spazio delle fasi accessibile con probabilit`


a 1.

Il teorema ergodico implica che la media d ensemble pu`o essere rimpiazzata da una media temporale
1
hOi = lim
t t

O(q( ), p( )) d

(1.19)

La (1.19) suggerisce le seguenti considerazioni:


a) Se il limite (1.19) esiste, esso non pu`
o dipendere da t.
b) Se le equazioni (1.18) e (1.19) danno lo stesso risultato, neppure la media d ensemble pu`
o
dipendere da t.

1.2. L ensemble microcanonico

c) Se non vi `e dipendenza dal tempo, necessariamente il sistema `e all equilibrio.

Se ne conclude che l esistenza del limite (1.19) pu`o aversi solo se il sistema arriva all equilibrio. Inoltre
l ensemble che corrisponde all equilibrio termodinamico `e caratterizzato da una funzione densit`a che
non dipende esplicitamente da t:

(q, p; t)
= 0
t

(1.20)

Dall equazione di Liouville segue che all equilibrio



3N 
X
H
H

= 0
qi pi
pi qi

(1.21)

i=1

1.2

L ensemble microcanonico

La funzione densit`
a (q, p) descrive matematicamente l ensemble che rappresenta il sistema all equilibrio. L ensemble a sua volta dipende dalla relazione in cui il sistema stesso si trova rispetto al resto
dell universo. Dunque supponiamo dapprima che il sistema sia isolato, nel senso che la sua energia `e
una costante del moto. Ci`
o naturalmente `e vero solo con una certa approssimazione. Diciamo quindi
che il sistema possiede un energia compresa tra E ed E + , con  E. La quantit`a pu`
o
essere interpretata come l unit`
a di misura dell energia, poich`e non `e possibile misurare la stessa con
una incertezza pi`
u piccola di . L ensemble che rappresenta il sistema in queste condizioni `e detto
microcanonico. La Meccanica Statistica classica si fonda sul seguente postulato
Postulato 1.1 (delle uguali probabilit`
a a priori)
Quando un sistema macroscopico `e all equilibrio, esso pu`o trovarsi con uguale probabilit`a in uno
qualsiasi degli stati microscopici compatibili con i vincoli che caratterizzano lo stato macroscopico del
sistema.
2
Nelle ipotesi che definiscono l ensemble microcanonico i vincoli sono espressi dal fatto che i parametri
N , V ed E hanno un valore fissato, e la funzione densit`a all equilibrio (q, p) `e data da

Capitolo 1. Elementi di Meccanica Statistica

cost.
(q, p) =
0

se

E < H(q, p) < E +

(1.22)

altrimenti

Osservazione. Abbiamo detto che il valor medio di un osservabile macroscopica `e dato dalla formula
(1.18). Naturalmente affinch`e esso abbia significato fisico, `e necessario che la sua dispersione sia piccola,
cio`e che risulti

(O)2 =

hO2 i hOi2
1

hOi2
N

(1.23)

Se cos` non fosse, ogni misura di O produrrebbe un risultato macroscopicamente differente, e la


Meccanica Statistica perderebbe significato. Mostreremo successivamente la validit`a della (1.23).

Stabiliamo il legame tra la Meccanica Statistica e la Termodinamica attraverso la nozione di entropia.


A tale scopo definiamo il volume dell ensemble microcanonico
Z

d3N q d3N p

N,V (E) =

(1.24)

EH(q,p)E+

Posto
Z
N,V (E) =

d3N q d3N p

(1.25)

H(q,p)E

si pu`o riscrivere il volume dell ensemble al seguente modo

N,V (E) = N,V (E + ) N,V (E)

(1.26)

Poich`e  E, potremo anche scrivere

N,V (E) '

(E)
N,V (E)
E

(1.27)

La quantit`a N,V (E) si interpreta in modo naturale come la densit`a degli stati quando l energia del
sistema `e pari ad E. Introduciamo a questo punto la funzione

SN,V (E) = kB log N,V (E)

(1.28)

1.2. L ensemble microcanonico

A parte il fattore kB , che sar`


a identificato con la costante di Boltzmann, la funzione SN,V (E) misura il
logaritmo del numero di stati microscopici in cui `e possibile realizzare lo stato macroscopico caratterizzato dai parametri (N, V, E). Essa `e interpretata come l entropia del sistema. Questa interpretazione
`e lecita nel limite in cui si dimostra che
a) SN,V (E) `e una grandezza estensiva.
b) SN,V (E) soddisfa le propriet`
a richieste dal secondo principio della Termodinamica.
Dimostriamo dapprima la proposizione a). Dividiamo il sistema (N, V ) in due sottosistemi (N1 , V1 )
ed (N2 , V2 ), tali che N = N1 + N2 e V = V1 + V2 . Nell ipotesi in cui l energia di interazione tra i due
sottosistemi sia trascurabile, possiamo scrivere

H(q, p) = H(q1 , p1 ) + H(q2 , p2 )

(1.29)

dove (q1 , p1 ) sono le coordinate canoniche associate alle particelle del primo sottosistema, mentre
(q2 , p2 ) sono quelle associate al secondo. Se i due sottosistemi fossero isolati, le loro entropie sarebbero
date dalle espressioni

SN1 ,V1 (E1 ) = kB log N1 ,V1 (E1 )

E1 H(q1 , p1 ) E1 +

(1.30)

SN2 ,V2 (E2 ) = kB log N2 ,V2 (E2 )

E2 H(q2 , p2 ) E2 +

(1.31)

Consideriamo quindi il sistema unione dei due ensembles, con energia totale E H E + 2. Esso
`e caratterizzato dalle seguenti propriet`
a
i) N1 particelle sono in V1 .
ii) N2 particelle sono in V2 .
iii) le energie E1 ed E2 soddisfano la relazione

E E1 + E2 E + 2.

Vogliamo esprimere N,V (E) in termini di N1 ,V1 (E1 ) e N2 ,V2 (E2 ).

Ovviamente il volume

dell ensemble microcanonico che corrisponde ad avere il sottosistema (N1 , V1 ) con energia E1 ed
il sottosistema (N2 , V2 ) con energia E2 , indipendentemente da E1 , `e dato da N1 ,V1 (E1 )N2 ,V2 (E2 ).

10

Capitolo 1. Elementi di Meccanica Statistica

Per ottenere N,V (E) dobbiamo sommare su tutte le scelte possibili di E1 ed E2 compatibili con iii).
Avendo fissato la costante arbitraria nella definizione dell energia in modo che H 0, misuriamo le
energie in unit`a di  E1 ,E2 ,E. Dunque risulta
E/

N,V (E) =

N1 ,V1 (Ek ) N2 ,V2 (E Ek )

Ek = k

(1.32)

k=1

e quindi
E/

SN,V (E) = kB log

N1 ,V1 (Ek ) N2 ,V2 (E Ek )

(1.33)

k=1

1 )N ,V (E
2 ), con E
1 + E
2 = E, il pi`
Sia N1 ,V1 (E
u grande degli addendi che figurano nella (1.33).
2 2
Allora
1 )N ,V (E
2 ) N,V (E) E N ,V (E
1 )N ,V (E
2 )
N1 ,V1 (E
2 2
1 1
2 2

(1.34)

La prima disuguaglianza deriva dal fatto che N,V (E) contiene, fra i vari addendi, il termine
1 )N ,V (E
2 ), mentre la seconda segue dal fatto che N ,V (E
1 )N ,V (E
2 ) `e il contributo
N1 ,V1 (E
2 2
1 1
2 2
pi`
u grande alla somma. Per i logaritmi dei tre termini della (1.34), otteniamo

1 )N ,V (E
2 ) SN,V (E) kB log N ,V (E
1 )N ,V (E
2 ) + kB log
kB log N1 ,V1 (E
2 2
1 1
2 2

(1.35)

Poich`e nel limite termodinamico

N,V (E) (E)N , = cost.

E
N

(1.36)

E
il termine log
nella (1.35) `e trascurabile e quindi

1 ) N ,V (E
2 ) + O(log N ) = SN ,V (E
1 ) + SN ,V (E
2 )+O(log N ) (1.37)
SN,V (E) = kB log N1 ,V1 (E
2 2
1 1
2 2
La (1.37) dimostra l estensivit`
a della funzione SN,V (E), ed in pi`
u mostra che un solo termine contribuisce alla somma (1.33), il pi`
u grande. Questa osservazione ci permette di definire la nozione
di temperatura, e quindi di passare al punto b). Infatti l argomento precedente mostra che i due
1 e E
2 , determinate dalla condizione
sottosistemi hanno energie fissate, E

1.2. L ensemble microcanonico

11

[N1 ,V1 (E1 ) N2 ,V2 (E2 )] = 0

con

(E1 + E2 E) = 0

(1.38)

che ci dice che N1 ,V1 (E1 ) N2 ,V2 (E2 ) `e massima sotto il vincolo E1 + E2 = E. Il problema posto nella
(1.38) pu`o essere risolto con il metodo dei moltiplicatori di Lagrange. A tale scopo definiamo

F (E1 , E2 ; ) = N1 ,V1 (E1 ) N2 ,V2 (E2 ) + (E1 + E2 E)

(1.39)

Imponiamo quindi che le derivate di F (E1 , E2 ; ) rispetto ai suoi tre argomenti siano nulle:

0 =

0 =

0 =

F
E1

F
E2

N1 ,V1 (E1 )
N2 ,V2 (E2 )
E1
,V2 (E2 )
N1 ,V1 (E1 ) N2E
2

+
+

(1.40)

= E1 + E2 E

Segue che


N1 ,V1 (E1 )
N2 ,V2 (E2 )
1
=


1 )
2 )
E1
E2
N1 ,V1 (E
N2 ,V2 (E
1
2
E1 =E
E2 =E
1

(1.41)

ovvero


log N1 ,V1 (E1 )

E1
1
E1 =E


log N2 ,V2 (E2 )

E2
2
E2 =E

m

SN1 ,V1 (E1 )

E1

=
1
E1 =E

(1.42)

SN2 ,V2 (E2 )

E2

2
E2 =E

Se definiamo
SN,V (E)
1
=
E
T

(1.43)

1 e E
2 sono i valori di E1 ed E2 per i quali
allora E

T1 = T2

(1.44)

Il parametro che abbiamo introdotto `e dunque quello che governa l equilibrio fra le parti di un sistema
(isolato), cio`e la temperatura. Detto in altre parole, i due sottositemi sono all equilibrio se e solo se
vale la (1.42). Del resto sappiamo sperimentalmente che due sistemi posti in contatto e isolati dal

12

Capitolo 1. Elementi di Meccanica Statistica

resto dell universo tendono a raggiungere l equilibrio termico uniformando le loro temperature. E
allora naturale interpretare il parametro T introdotto nella (1.43) come la temperatura del sistema.
Osservazione. Dalle definizioni (1.24)(1.27) segue che

log N,V (E) = log[N,V (E + ) N,V (E)] ' log (E)

(1.45)

Infatti nel limite termodinamico

log N,V (E)

=
'

N,V (E)
log[N,V (E + ) N,V (E)] ' log
E
N,V (E)
log
= log N,V (E)
E


'
(1.46)

Avremmo potuto definire

SN,V (E) = kB log N,V (E)

(1.47)

Tutto l argomento precedente potrebbe essere riprodotto, il che significa che, affinch`e la Meccanica
Statistica abbia senso, questa definizione di entropia deve coincidere con la precedente.

Torniamo al punto b). Per dimostrare che la funzione SN,V (E) soddisfa la seconda legge della Termodinamica, dobbiamo mostrare che se il sistema passa da uno stato di equilibrio ad un altro, la variazione
di entropia S = Sf Si 0 `e non negativa. Nel nostro caso l unica variazione consentita al nostro
sistema `e quella di V : N ed E sono da considerare fissi. Infatti stiamo assumendo che il sistema sia
isolato, cosicch`e n`e N n`e E possono cambiare nel corso della dinamica. Inoltre, dato che il sistema `e
isolato, spontaneamente V pu`
o solo crescere. Dobbiamo quindi mostrare che SN,V (E) `e una funzione
non decrescente di V . Se prendiamo la definizione
Z
SN,V (E) = kB log

d3N q d3N p

(1.48)

H(q,p)E

`e ovvio che SN,V (E) gode della propriet`


a richiesta, poich`e all aumentare di V aumentano le dimensioni
del dominio di integrazione, ed inoltre il logaritmo `e una funzione monotona crescente. Ci`o dimostra
la proposizione b) e quindi possiamo concludere che SN,V (E) `e l entropia di un sistema caratterizzato
dai parametri (N, V, E).

1.2. L ensemble microcanonico

13

La termodinamica del sistema `e ottenuta come segue. Effettuiamo una trasformazione del sistema
variando E e V cos` lentamente che in ogni istante la regione dello spazio delle fasi che rappresenta
l ensemble microcanonico si deformi molto lentamente ed in modo che , dove non `e nulla, rimanga
costante. In questo modo l ensemble che consideriamo durante la trasformazione rimane microcanonico. Poich`e durante la trasformazione N rimane comunque costante, possiamo scrivere

dSN,V (E) =

SN,V (E)
E


dE +

SN,V (E)
V


dV

(1.49)

Se poniamo quindi


SN,V (E)
p=T
V


(1.50)
E

p risulter`a essere la pressione del sistema. Usando infine la (1.43) possiamo scrivere

dS =

1
(dE + pdV )
T

dE = T dS pdV

Abbiamo cos` ottenuto il primo principio della Termodinamica.

(1.51)
2

Discutiamo ora come si deve procede in generale quando si vuole studiare un sistema di Meccanica
Statistica nell ensemble microcanonico. La ricetta `e la seguente:
1) Assegnati (N, V, E) si calcola N,V (E) e quindi N,V (E) e N,V (E).
2) Tramite la (1.28) o la (1.47) si ricava l entropia SN,V (E).
3) Si inverte la funzione SN,V (E) rispetto ad E e si ricava l energia interna del sistema (per la
quale useremo nel seguito il simbolo U ):
U = UN (V, S)

(1.52)

4) Usando la (1.51) si ricavano la temperatura T e la pressione p del sistema mediante le relazioni






UN (V, S)
UN (V, S)
= T
,
= p
(1.53)
S
V
V
S
5) Si introducono i potenziali termodinamici mediante trasformate di Legendre dell energia interna.
2

14

Capitolo 1. Elementi di Meccanica Statistica

Conviene essere pi`


u accurati relativamente al punto 5). Cominciamo col definire l energia libera di
Helmoltz

AN (V, T ) = min [UN (V, S) T S]


S

V fisso

(1.54)

Per calcolare il minimo su S a V fisso, si deve imporre che la derivata, a V fisso, dell espressione tra
parentesi quadre sia nulla. Si ottiene cos` la relazione


UN (V, S)
S


= T

(1.55)

Questa relazione deve essere invertita cos` da ricavare S = SN (V, T ). Con ci`o possiamo scrivere

AN (V, T ) = UN (V, SN (V, T )) T SN (V, T )

(1.56)

Dalla (1.56) segue che

AN (V, T )
T





SN (V, T )


T
V S=SN (V,T )
V


SN (V, T )
SN (V, T ) T
= SN (V, T )
T
V



=
V

AN (V, T )
V

UN (V, S)
S

(1.57)






UN (V, S)
UN (V, S)
SN (V, T )
=
+

V
S
V
S=SN (V,T )
S=SN (V,T )
T




SN (V, T )
UN (V, S)
=
= p
(1.58)
T
V
V
T
S=SN (V,T )

Le relazioni (1.57) e (1.58) definiscono la termodinamica del sistema.

Possiamo definire quindi

l energia libera di Gibbs mediante la relazione

GN (T, p) = min [AN (V, T ) + pV ]


V

T fisso

(1.59)

Per calcolare il minimo su V a T fisso, si deve imporre che la derivata, a T fisso, dell espressione tra
parentesi quadre sia nulla. Si ottiene cos` la relazione


AN (V, T )
V


= p
T

(1.60)

1.2. L ensemble microcanonico

15

Questa relazione deve essere invertita, cos` da ricavare V = VN (T, p). Con ci`o possiamo scrivere

GN (T, p) = AN (VN (T, p), T ) + pVN (T, p)

(1.61)

Nello stesso modo in cui abbiamo ricavato le (1.57) e (1.58), si possono ottenere le relazioni

GN (T, p)
T

GN (T, p)
p


=


= V

(1.62)

AN (V, T )
T


= S

(1.63)

V =VN (T,p)

le quali costituiscono un altro modo per ottenere la termodinamica del sistema. Infine vogliamo
introdurre l entalpia, secondo la relazione

HN (S, p) = min [UN (V, S) + pV ]

S fisso

(1.64)

Come nei casi precedenti, per calcolare il minimo su V ad S fisso, si deve imporre che la derivata, ad
S fisso, dell espressione tra parentesi quadre sia nulla. Si ottiene cos` la relazione

UN (V, S)
V


= p

(1.65)

la quale deve essere invertita cos` da ricavare V = VN (S, p). Con ci`o possiamo scrivere

HN (S, p) = UN (S, VN (S, p)) + pVN (S, p)

(1.66)

Da questa discendono le equazioni

HN (S, p)
S


=
p

UN (S, V )
S

HN (S, p)
p


= T

(1.67)

V =VN (S,p)


=V
S

(1.68)

16

1.2.1

Capitolo 1. Elementi di Meccanica Statistica

Esempi

1) Tipicamente le reazioni chimiche avvengono a pressione costante p = cost. In questo caso `e conveniente scegliere p come parametro per la descrizione del sistema. L entalpia, introdotta nel paragrafo
precedente, fa al caso nostro, poich`e dipende esplicitamente dalla pressione. In particolare, a pressione
costante risulta


dHN (S, p) =

H
S


dS = T dS = dQ

(1.69)

Questa relazione ci consente di misurare la variazione di entalpia che si verifica durante la reazione
(detta entalpia di reazione), semplicemente misurando la quantit`a di calore che il sistema scambia con
2

l esterno.

2) Per capire in quale verso procede una reazione chimica, si utilizza il secondo principio della Termodinamica. Se assumiamo che la reazione avvenga a temperatura costante T = cost., allora

S S2 S1

Q
T

(1.70)

Se assumiamo che la reazione avvenga anche a pressione costante p = cost., possiamo servirci del
primo principio e scrivere

S2 S1

U2 U1 + p(V2 V1 )
T

(1.71)

Moltiplicando ambo i membri della disuguaglianza per T (che in ogni caso `e positiva), otteniamo

T S2 U2 pV2

T S1 U1 pV1

m
G2

G1

(1.72)

Dunque il sistema, nella sua evoluzione spontanea, tende a far decrescere l energia libera di Gibbs.
Questo suggerisce un criterio per stabilire il verso naturale di una reazione:

1.2. L ensemble microcanonico

G < G1

2
G2 = G1

G >G
2
1

17

G < 0

la reazione `e spontanea

G = 0

il sistema `e all equilibrio

G > 0

la reazione non procede spontaneamente

(1.73)

2
3) Consideriamo il seguente problema matematico. Abbiamo visto che


HN (S, p)
S


=
p

UN (V, S)
S


,

V =VN (S,p)

HN (S, p)
p


= V

(1.74)

Poich`e HN (S, p) `e una funzione dei suoi argomenti (S, p) `e naturale aspettarsi che essa soddisfi
l identit`a di Schwarz sull ordine di derivazione, cio`e
2 HN (S, p)
2 HN (S, p)
=
p S
S p

(1.75)

Verifichiamo che effettivamente HN (S, p) soddisfa la (1.76). A tale scopo consideriamo preliminarmente che il secondo membro delle (1.74) `e definito invertendo la relazione


UN (V, S)
V


= p

V = VN (S, p)

(1.76)

Introducendo VN (S, p) nella precedente relazione e derivando rispetto a p, otteniamo l identit`a



UN (V, S)
V


= 1

(1.77)

S V =VN (S,p)

L espressione a primo membro va interpretata al seguente modo: si prende la funzione UN (V, S); se
ne effettua la derivata rispetto al primo argomento V , mantenendo il secondo S fisso; si calcola il
risultato della derivata in V = VN (S, p); infine si effettua la derivata rispetto a p di ci`o che si ottiene.
La derivata rispetto a p pu`
o essere effettuata usando la regola di derivazione delle funzioni composte:


2 UN (V, S)
V 2

S V =VN (S,p)

VN (S, p)
= 1
p

(1.78)

Derivando la (1.76) rispetto ad S si ottiene



UN (V, S)
V

S V =VN (S,p)


= 0

(1.79)

18

Capitolo 1. Elementi di Meccanica Statistica

Usando ancora la regola di derivazione delle funzioni composte, otteniamo




2 UN (V, S)
S V


+

V =VN (S,p)

UN (V, S)
V 2

VN (S, p)
= 0
S
V =VN (S,p)

(1.80)

In virt`
u della (1.78) possiamo scrivere la precedente nella forma


VN (S, p) 2 UN (V, S)
VN (S, p)
=
p
S V
S
V =VN (S,p)

(1.81)

La relazione (1.81) `e preliminare alla dimostrazione. Calcoliamo ora le due derivate seconde di
HN (S, p):
VN (S, p)
HN (S, p)
=
S
p
S

HN (S, p)

=
p
S
p



UN (V, S)
S


=

V =VN (S,p)

2 UN (V, S)
V S

(1.82)

VN (S, p)
p
V =VN (S,p)

(1.83)
2

La tesi segue dalla (1.81).

4) L interpretazione del parametro p come la pressione del sistema deriva in modo naturale dal
seguente argomento. Consideriamo un sistema di N particelle contenute in un volume V . Supponiamo
che un setto suddivida il sistema in due sottosistemi (N1 , V1 ) ed (N2 , V2 ). Supponiamo inoltre che
i due sottosistemi siano in equilibrio termico alla temperatura T . Spostiamo impercettibilmente il
setto di separazione. Poich`e il sistema `e all equilibrio e la trasformazione effettutata `e reversibile, la
variazione di entropia `e nulla:

0 = dS =

S
S
dV1 +
dV2
V1
V2

(1.84)

Del resto, poich`e V = V1 +V2 e V = cost. nella trasformazione, allora dV1 = dV2 . Inoltre S = S1 +S2
e S1 non dipende da V2 , cos` come S2 non dipende da V1 . Quindi

0 =


S1
S2

dV1
V1
V2

S1
S2
=
V1
V2

(1.85)

Dalla definizione di p (1.51) e dall equilibrio termico dei due sottosistemi, segue che

p1 = p2

(1.86)

1.3. Il gas ideale classico

19

da cui l interpretazione di p come la pressione del sistema.

1.3

Il gas ideale classico

Un esempio di applicazione della teoria dell ensemble microcanonico `e costituito dallo studio del gas
ideale classico. Consideriamo un sistema di N particelle non interagenti contenute all interno di un
volume V . La hamiltoniana del sistema `e

H(q, p) =

N
X
p2i
2m

(1.87)

i=1

La funzione N,V (E) pu`


o essere calcolata analiticamente. Essa `e definita dalla relazione

N,V (E) =

Z
p2
i
i=1 2m E

h3N

d3N q d3N p

(1.88)

PN

dove h `e una costante con le dimensioni di un energia per un tempo (da identificare fenomenologicamente con la costante di Planck), introdotta per ragioni dimensionali, cio`e per rendere N,V (E)
adimensionale. L integrale sulle coordinate q `e banale, mentre quello sulle p si pu`o calcolare introducendo coordinate polari in 3N dimensioni. Si ottiene

N,V (E) =

V N 2 3N/2
VN
(2mE)3N/2

(
2mE)
=
3N
h3N
h3N ( 3N
2 + 1)

(1.89)

dove abbiamo indicato con 3N la superficie della sfera in 3N dimensioni. Ricordiamo che la funzione
di Eulero soddisfa le seguenti relazioni
 

=
2

(n + 1) = n(n) = n!

(1.90)

Inoltre vale la formula di Stirling


 

n
log n! = log( 2n) + n log
e

(1.91)

L entropia del gas ideale classico `e data da



SN,V (E) = kB log N,V (E) = kB



2 3N/2
V
3/2
log 3N
+ N log 3 (2mE)
h
( 2 + 1)

Utilizzando la formula di Stirling, possiamo scrivere l equazione precedente nella forma

(1.92)

20

Capitolo 1. Elementi di Meccanica Statistica

 
 

4mU 3/2
3
SN,V (E) = kB N log V
+
3h2 N
2


(1.93)

dove abbiamo scritto U al posto di E. Seguendo la strategia delineata nel paragrafo precedente, questa
equazione pu`o essere risolta rispetto ad U , e per il gas ideale classico si ottiene

UN (V, S) =



2S
3h2 N 1
exp

1
4m V 2/3
3kB N

(1.94)

A questo punto `e possibile ricavare la termodinamica del sistema. Infatti



T =

U
S


=
V

2 U
3 N kB

U =

3
N kB T
2

(1.95)

Inoltre


2U
N kB T
U
=
=
p =
V S
3V
V

pV = N kB T

(1.96)

Infine

CV =

U
T


=
V

3
N kB
2

(1.97)

Sembra che la teoria funzioni correttamente. Tuttavia, a ben guardare, ci si rende conto facilmente
del fatto che la formula dell entropia non `e corretta. Infatti, consideriamo due gas ideali (N1 , V1 )
e (N2 , V2 ) alla stessa tempratura T1 = T2 = T e densit`a V1 /N1 = V2 /N2 . Mescoliamoli, lasciandoli
diffondere in un volume V = V1 + V2 . Poich`e la temperatura dei due gas `e la stessa, la densit`
a di
energia interna del sistema non cambia:
U2
U1 + U2
3
U1
=
=
= kB T u
N1
N2
N1 + N2
2

(1.98)

La variazione di entropia `e data da

dove

S (S1 + S2 ) = N kB log(V u3/2 ) + N s0 +




3/2
3/2
N1 kB log(V1 u ) + N1 s0 + N2 kB log(V2 u ) + N2 s0 =
 
 
V
V
N1 log
+ N2 log
V1
V2

(1.99)

1.4. Il teorema di equipartizione dell energia

s0

21



4m
3kB
1 + log
=
2
3h2

(1.100)

Il risultato (1.99) `e corretto se i due gas sono distinti, ma `e chiaramente assurdo nel caso in cui i due
gas sono dello stesso tipo, poich`e vorrebbe dire che l entropia del gas dipende dalla sua storia e quindi
non sarebbe una funzione solo dello stato termodinamico del sistema.
La soluzione al problema trovata da Gibbs `e che si deve dividere N,V (E) per N !, poich`e le particelle
che costituiscono il gas sono in realt`
a indistinguibili. Utilizzando di nuovo la formula di Stirling,
l espressione corretta per l entropia si ottiene sottraendo alla precedente la quantit`a N log N N :


V
SN,V (U ) = N kB log
N

U
N

3/2 



3
5
4m
+ N kB
+ log
2
3
3h2

(1.101)

Questa formula `e nota come la formula di SackurTetrode. Essa pu`o essere invertita rispetto ad U ed
in questo caso si ottiene

U (N, V, S) =

N
V

2/3



3N h2
2S
5
exp

4m
3N kB
3

(1.102)

Le derivate di U rispetto a S e V non cambiano. Quindi CV e l equazione di stato non si modificano,


mentre si pu`o verificare che la variazione di entropia per il mescolamento dei due gas `e nulla: S = 0.
2

1.4

Il teorema di equipartizione dell energia

Il teorema di equipartizione dell energia (o del viriale) afferma che ogni grado di libert`a del sistema contribuisce all energia totale con un contributo pari a kB T . Dimostriamo questa affermazione
utilizzando la teoria dell ensemble microcanonico. Indichiamo con {xi }, i = 1, . . . , 6N , le variabili
canoniche (q, p) che descrivono lo stato microscopico del sistema. Consideriamo quindi il valor medio


H
xi
xj


=

1
N,V (E)

d3N q d3N p xi

EHE+

H
xj

(1.103)

Poich`e per ipotesi  E, possiamo scrivere la (1.103) nella forma



xi

H
xj


=

N,V (E) E

Z
HE

d3N q d3N p xi

H
xj

(1.104)

22

Capitolo 1. Elementi di Meccanica Statistica

Osserviamo che, essendo E una costante indipendente dalle coordinate canoniche del sistema, vale la
relazione
E
= 0
xi

(1.105)

In virt`
u di questa banale osservazione, possiamo scrivere


H
xi
xj

=
N,V (E) E

3N

qd

HE

3N


p

[xi (H E)] ij (H E)
xj


(1.106)

Il primo termine tra parentesi graffe non contribuisce all integrale. Esso infatti riceverebbe contributi
solo dal bordo H(x) = E dell insieme di integrazione, ma in tale regione l integrando H E si
annulla. Perci`o rimane da calcolare

H
xi
xj

ij
d3N q d3N p (E H) =
N,V (E)
E HE
Z

ij
d3N q d3N p (E H) (E H)
N,V (E) E

=
=

(1.107)

Portiamo la derivata sotto il segno di integrale:

E
Z

d3N q d3N p (E H) (E H) =





3N
3N
=
d qd p
(E H) (E H) + (E H)
(E H)
=
E
E
Z
Z
3N
3N
=
d qd p +
d3N q d3N p (E H) (E H) =
ZHE
=
d3N q d3N p = N,V (E)

(1.108)

HE

Dunque


H
xi
xj


=

ij N,V (E)
N,V (E)

(1.109)

Usando la (1.27), otteniamo




In definitiva

H
xi
xj


=

(E)
N,V
E

ij N,V (E) = ij

1
= ij kB T
log N,V (E)

(1.110)

1.4. Il teorema di equipartizione dell energia

23



H
xi
= ij kB T
xj

(1.111)

Questo `e il contenuto matematico del teorema di equipartizione. Vediamo qualche applicazione. Per
cominciare scriviamo l equazione (1.111) nella forma consueta


H
qi
qj


=

H
pi
pj


= ij kB T

(1.112)

Supponiamo quindi che la hamiltoniana del sistema abbia la forma

H(q, p) = K(p) + V (q)

(1.113)

dove

K(p) =

X p2
i
2m

(1.114)

allora
X H 
pi
= 2hKi = dN kB T
pi

(1.115)

dove d `e il numero delle dimensioni dello spazio fisico in cui il sistema `e immerso. Dalla (1.115) si
deduce che

hKi =

dN kB T
2

(1.116)

Supponiamo inoltre che il potenziale V (q) del sistema sia una forma quadratica (questo accade, per
esempio, per un sistema di oscillatori armonici). In questo caso

X H
H
pi
+ qi
= 2hHi = 2dN kB T
pi
qi

(1.117)

hHi = dN kB T

(1.118)

da cui segue

24

1.5

Capitolo 1. Elementi di Meccanica Statistica

L ensemble canonico

L ensemble canonico `e appropriato per descrivere un sistema in equilibrio termico con un altro,
detto reservoir, infinitamente pi`
u grande. La condizione di equilibrio termico `e realizzata quando la
temperatura del sistema coincide con quella del reservoir. L ensemble canonico `e tale che la densit`
a dei
punti che, nello spazio delle fasi, descrivono le configurazioni delle copie del sistema che appartengono
all ensemble, `e proporzionale alla probabilit`a che il sistema abbia energia E.
Consideriamo infatti due sistemi (N1 , V1 ) e (N2 , V2 ), ambedue macroscopici e caratterizzati dalle
hamiltoniane H1 (q1 , p1 ) e H2 (q2 , p2 ). Supponiamo inoltre che N1  N2 e V1  V2 . Consideriamo
quindi l ensemble microcanonico che descrive l unione dei due sistemi. Detta E l energia totale del
sistema composto, deve essere

E < E1 + E2 < E + 2

 E

(1.119)

Abbiamo gi`a visto che, se i due sistemi sono macroscopici, l equilibrio termico dei due sistemi `e
1 e E
2 , i quali realizzano
caratterizzato da valori ben definiti per le energie dei due sistemi, diciamo E
la condizione (1.42). La probabilit`
a di trovare il sistema 1 nel volume d3N1 q1 d3N1 p1 dello spazio delle
2 ),
fasi indipendentemente dallo stato del sistema 2 `e ovviamente proporzionale a d3N1 q1 d3N1 p1 N2 ,V2 (E
2 = E E
1 . Ne segue che la densit`
dove E
a dei punti rappresentativi del sistema 1 nello spazio delle
fasi `e proporzionale a

1 )
(q1 , p1 ) N2 ,V2 (E E

(1.120)

1  E, possiamo scrivere
Poich`e E

1 )
SN2 ,V2 (E E

=
'
=

1 ) '
kB log N2 ,V2 (E E
1 SN2 ,V2 (E) + . . . =
SN2 ,V2 (E) E
E

E1
SN2 ,V2 (E)
+ ...
T

(1.121)

da cui



E
SN2 ,V2 (E)
1

N2 ,V2 (E E1 ) ' exp


e kB T
kB

(1.122)

1.5. L ensemble canonico

25

Poich`e il primo fattore esponenziale non dipende dal sistema 1, possiamo scrivere

(q1 , p1 ) eH1 (q1 ,p1 )

1
kB T

(1.123)

Il volume dell ensemble canonico nello spazio delle fasi `e espresso dalla funzione di partizione
1
ZN,V (T ) =
N ! h3N

d3N q d3N p eH(q,p)

(1.124)

La termodinamica `e ottenuta attraverso la relazione

ZN,V (T ) = exp[AN,V (T )]

(1.125)

dove AN,V (T ) deve essere interpretata come l energia libera di Helmholtz. Questa interpretazione
segue dal fatto che
a) AN,V (T ) `e una grandezza estensiva. Questa propriet`a `e conseguenza del fatto che, se consideriamo l unione di due sistemi debolmente interagenti, la funzione di partizione totale `e il prodotto
delle funzioni di partizione dei singoli sistemi, e quindi la A totale `e la somma delle singole A. 2
b) Poniamo
UN,V (T ) = hHi



AN,V (T )
SN,V (T ) =
T
V

(1.126)

E facile mostrare che


AN,V (T ) = UN,V (T ) T SN,V (T )

(1.127)

Infatti, possiamo riscrivere la (1.125) nella forma


1 =

1
N ! h3N

d3N q d3N p e [AN,V (T )H(q,p)]

(1.128)

Derivando ambo i membri della precedente rispetto a , otteniamo




 
Z
AN,V (T )
1
3N
3N
[AN,V (T )H(q,p)]
0 =
d qd pe
AN,V (T ) H(q, p) +
(1.129)
N ! h3N

V
da cui segue la (1.127) considerato che

= T

(1.130)
2

26

Capitolo 1. Elementi di Meccanica Statistica

In definitiva, la (1.125) definisce l energia libera di Helmholtz, mentre la (1.126) definisce l energia
interna e l entropia nell ensemble canonico. A questo punto la termodinamica segue nel modo
standard. Per esempio la pressione del sistema `e definita dalla relazione


AN,V (T )
p =
V
T

1.6

(1.131)

Equivalenza tra ensembles

L ensemble canonico e quello microcanonico sono equivalenti, nel senso che nell ensemble canonico
la maggior parte delle copie possiede la stessa energia, cio`e
R
UN,V (T ) =

d3N q d3N p H(q, p) eH(q,p)


R
d3N q d3N p eH(q,p)

(1.132)

Infatti, derivando ambo i membri della (1.132) rispetto a , otteniamo


UN,V (T )
=

R

d3N q d3N p H(q, p) eH(q,p)


R
d3N q d3N p eH(q,p)

2

d3N q d3N p H 2 (q, p) eH(q,p)


R
d3N q d3N p eH(q,p)

(1.133)

che, in termini di medie d ensemble, si pu`


o scrivere nella forma

kB T 2 CV = hH 2 i hHi2

(1.134)

Poich`e nel limite termodinamico CV N , si ottiene immediatamente la relazione

(H)2 =

1
hH 2 i hHi2

0
2
hHi
N

(1.135)

la quale si interpreta riconoscendo che nel limite termodinamico tutte le copie dell ensemble canonico
sono caratterizzate dalla stessa energia hHi, cio`e l energia interna del sistema, come nell ensemble
microcanonico.
L equivalenza tra l ensemble canonico e quello microcanonico pu`o essere dimostrata anche al seguente
modo. Nell ensemble canonico i valori medi sono definiti dalla relazione
R
hOic () =

d3N q d3N p O(q, p) eH(q,p)


R
d3N q d3N p eH(q,p)

Invece, nell ensemble microcanonico essi sono definiti da

(1.136)

1.7. L ensemble grancanonico

27

R
hOim.c. (E) =

d3N q d3N p O(q, p) (H(q, p) E)


R
d3N q d3N p ((H(q, p) E)

(1.137)

Introducendo la delta di Dirac, possiamo definire l entropia del sistema nel microcanonico secondo la
formula
Z
S(E) kB log Zm.c. = kB log

d3N q d3N p (H(q, p) E)

(1.138)

Studiamo in dettaglio la relazione tra i valori medi nei due ensembles. Risulta
R
hOic () =

R
dE eE d3N q d3N p O(q, p)(H(q, p) E)
R
R
dE eE d3N q d3N p (H(q, p) E)

(1.139)

Facendo uso delle definizioni (1.137) e (1.138), si ottiene


R
hOic () =

[E k1 S(E)]

dE e
R

hOim.c. (E)

[E k1 S(E)]

dE e

(1.140)

Gli integrali a numeratore e a denominatore sono dominati dal punto di sella

1 S(E)
= 0
kB E

E = E()

(1.141)

La formula precedente stabilisce una relazione tra E, il parametro che caratterizza l ensemble microcanonico, e , che invece caratterizza l ensemble canonico. Da questa relazione segue, in prima
approssimazione

hOic () = hOim.c. (E)|E=E()

(1.142)

In realt`a la formula (1.142) non `e esatta per N e V finiti, poich`e `e necessario tenere conto delle
correzioni che provengono dall espansione dell esponente attorno al punto di sella (1.141). Tuttavia
queste correzioni vanno a zero nel limite termodinamico, e l uguaglianza (1.142) diventa rigorosamente
corretta.

1.7

L ensemble grancanonico

Consideriamo la situazione realistica in cui l energia ed il numero di particelle di un sistema non sono
noti con accuratezza infinita. Nell ensemble grancanonico `e fissato solo il valor medio del numero di

28

Capitolo 1. Elementi di Meccanica Statistica

particelle di ciascuna delle copie dell ensemble. Esso `e descritto da una funzione densit`a (q, p; N ) che
dipende esplicitamente dal numero di particelle N . E possibile determinare la funzione (q, p; N ) con
un ragionamento che sfrutta la nozione di ensemble canonico. A tale scopo consideriamo un sistema
(N, V, T ) (in questo caso il numero totale di particelle N non va pensato come valor medio, ma come un
numero dato), a contatto con un reservoir termico alla temperatura T . Come abbiamo visto, il sistema
`e descritto statisticamente dall ensemble canonico. Supponiamo inoltre che esso sia costituito da due
sottosistemi (N1 , V1 , T ) e (N2 , V2 , T ) con N1  N2 = N N1 e V1  V2 = V V1 in equilibrio anche
essi alla temperatura T . Supponiamo tuttavia che i due sottosistemi possano scambiarsi particelle.
Assumendo che le interazioni tra di essi siano trascurabili, possiamo scrivere

H(q, p; N ) = H(q1 , p1 ; N1 ) + H(q2 , p2 ; N2 )

(1.143)

La funzione di partizione canonica, che descrive la Termodinamica del sistema totale, `e data da

ZN,V (T ) =

1
N ! h3N

d3N q d3N p eH(q,p)

(1.144)

Sfruttando il fatto che i due sottosistemi sono debolmente interagenti, abbiamo

ZN,V (T ) =

Z
Z
N
X
N!
1
3N1
3N1
d
q
d
p
d3N2 q2 d3N2 p2 e [H(q1 ,p1 ;N1 )+H(q2 ,p2 ;N2 )] =
1
1
N !h3N
N1 !N2 !
N1 =0

N
X
N1 =0

N
X

1
N1 !h3N1

d3N1 q1 d3N1 p1 eH(q1 ,p1 ;N1 )

1
N2 !h3N2

d3N2 q2 d3N2 p2 eH(q2 ,p2 ;N2 )

ZN1 ,V1 (T )ZN2 ,V2 (T )

(1.145)

N1 =0

Da questa equazione possiamo subito determinare la probabilit`a che in V1 ci siano N1 particelle con
coordinate (q1 , p1 ):

ZN2 ,V2 (T ) eH(q1 ,p1 ;N1 ) V2 =V V1
(q1 , p1 ; N1 ) =
ZN,V (T )
N1 !h3N1 N2 =N N1

(1.146)

Ovviamente la (q, p; N ) soddisfa la condizione di normalizzazione


N Z
X
N1 =0

d3N1 q1 d3N1 p1 (q1 , p1 ; N1 ) = 1

(1.147)

1.7. L ensemble grancanonico

29

Possiamo riscrivere la formula precedente introducendo l energia libera di Helmholtz:

(q1 , p1 ; N1 ) = exp[AN N1 ,V V1 (T ) + AN,V (T )]

eH(q1 ,p1 ;N1 )


N1 !h3N1

(1.148)

Poich`e per ipotesi N1  N e V1  V , la funzione AN N1 ,V V1 (T ) pu`o essere sviluppata in serie di


Taylor nell intorno del punto (N, V ). In tal modo si ottiene

AN N1 ,V V1 (T ) + AN,V (T ) '

AN,V2 (T )
V2


V1 +

V2 =V

AN2 ,V (T )
N2


N1

(1.149)

N2 =N

Definendo il potenziale chimico e la pressione del sistema secondo le relazioni



=

AN2 ,V (T )
N2


(potenziale chimico)

(1.150)

(pressione)

(1.151)

eH(q1 ,p1 ;N1 )


N1 !h3N1

(1.152)

N2 =N



AN,V2 (T )
p =
V2
V2 =V
segue

(q1 , p1 ; N1 ) ' e (N1 pV1 )

A questo punto possiamo lasciar cadere l indice 1 che compare nella (1.152), poich`e tutte le informazioni portate dal sistema 2 sono contenute nei valori di T , p e . Ponendo

z = e

(fugacit`a)

(1.153)

zN
e [pV +H(q,p;N )]
N !h3N

(1.154)

arriviamo alla formula

(q, p; N ) =

Usando la distribuzione (q, p; N ) possiamo calcolare i valori medi d ensemble delle osservabili fisiche.
Per esempio, l energia interna del sistema `e data dalla media d ensemble della hamiltoniana del
sistema:
Z

X
z N epV
U (z, V, T ) =
d3N q d3N p H(q, p; N )eH(q,p;N )
N !h3N
N =0

(1.155)

30

Capitolo 1. Elementi di Meccanica Statistica

(dove l estremo superiore della somma su N `e stato mandato all infinito nel limite termodinamico). Il
risultato ottenuto dipende dalla fugacit`
a del sistema. Per poter eliminare la fugacit`a dalla precedente
relazione, possiamo procedere cos`. Dapprima definiamo la funzione di partizione grancanonica

Q(z, V, T ) =

z N ZN,V (T )

(1.156)

N =0

Dalla condizione di normalizzazione


Z
X

d3N q d3N p (q, p; N ) = 1

(1.157)

N =0

si ricava l equazione
pV
= log Q(z, V, T )
kT

(1.158)

il numero medio di particelle del sistema, definito come la media d ensemble


Inoltre, chiamando N
del numero di particelle

=
N

P
N
N N z ZN,V (T )
P
N
N z ZN,V (T )

(1.159)

si dimostra senza difficolt`


a che
= z log Q(z, V, T )
N
z

(1.160)

La Termodinamica si pu`
o ottenere risolvendo la (1.160) rispetto a z, in modo tale da ottenere z =
, V, T ). Ci`o fatto, l equazione di stato del sistema si ricava sostituendo z nella (1.158). Le altre
z(N
grandezze termodinamiche seguono dalla formula
, V, T ) = log Q(z, V, T )|
U (N
z=
z

(1.161)

Il calore specifico `e dato da



CV =

, V, T )
U (N
T


(1.162)
V

Inoltre, a V = cost. risulta

, V, T ) = dU (N , V, T )
dS(N
T

Z
,

S =

CV
0

dT
T

(1.163)

1.8. La Meccanica Statistica Quantistica

31

Infine, l energia libera di Helmholtz `e definita dalla relazione

, V, T ) = U (N
, V, T ) T S(N
, V, T )
A(N

(1.164)

Osservazione. La (1.150) definisce il potenziale chimico . L origine di questo nome deriva dal fatto
che esso gioca un ruolo fondamentale nelle reazioni chimiche. Consideriamo per esempio la reazione

2H2 + O2
2H2 O

(1.165)

I coefficienti numerici i , che indicano la quantit`a di ciascuna molecola presente nella reazione, sono
detti coefficienti stechiometrici; nell esempio risulta

H2 = 2

O2 = 1

H2 O = 2

(1.166)

La variazione del numero di particelle della specie ima Ni `e proporzionale al corrispondente coefficiente stechiometrico:
N2
N1
=
= . . . = k = cost.
1
2

(1.167)

Se la reazione avviene all equilibrio termodinamico, la variazione di energia libera del sistema deve
essere nulla, cosicch`e
N
N
X
X
A
0 = A =
Ni = k
i i
Ni
i=1

(1.168)

i=1

e dunque
N
X

i i = 0

all equilibrio

(1.169)

i=1

1.8

La Meccanica Statistica Quantistica

Sia H la hamiltoniana dell universo (che `e un sistema isolato). Scriviamo la funzione d onda
dell universo nella forma

32

Capitolo 1. Elementi di Meccanica Statistica

cn (w, t)n (q)

(1.170)

dove le {n } costituiscono un sistema completo di autofunzioni del sistema in studio, che supporremo interagire debolmente con il resto dell universo. I coefficienti cn (w, t) sono le funzioni d onda
del mondo esterno e w sono le coordinate del mondo esterno. Se O `e un osservabile sel sistema,
consideriamo
h|O|i
=
h|i

n,m (cn , cm )hn |O|m i

n (cn , cn )

(1.171)

dove
Z
hn |O|n i =

dq

n (q)O(q)m (q)

(cn , cm ) =

dw cn (w, t)cm (w, t)

(1.172)

La quantit`a in effetti misurata `e una media temporale in un intervallo di tempo tmol  t  tres ,
dove tres `e la risoluzione temporale dell apparato di misura e tmol `e il tempo caratteristico delle
collisioni molecolari, oppure il tempo caratteristico di rivoluzione degli elettroni attorno agli atomi o
alle molecole. Dunque
h|O|i
=
hOi =
h|i

n,m (cn , cm )

hn |O|m i

n (cn , cm )

(1.173)

Possiamo sempre ammettere che le funzioni {n } siano autofunzioni della hamiltoniana del sistema in
studio, che contiene N particelle in un volume V , ed ha energia totale E E0 E + . Formuliamo
allora il seguente postulato

1 se E E0 E +
(cn , cm ) =
0 altrimenti

(cn , cm ) = 0

(uguali probabilit`a a priori)

se n 6= m

(fasi random)

(1.174)

(1.175)

Il risultato di ci`o `e che tutto va come se si fosse scritto

bn n

con i coefficienti bn = |bn

|ein

costanti con fasi a caso e inoltre

(1.176)

1.8. La Meccanica Statistica Quantistica

|bn |2

33

1 se E E0 E +
=
0 altrimenti

(1.177)

L effetto del mondo esterno `e quello di individuare come quantit`a misurabile il valore d aspettazione
di O nello stato , mediato sulle fasi dei coefficienti bn , cio`e
P
hOi =

2
n | hn |O|n i
n |bP
2
n |bn |

(1.178)

Lo stato di un sistema all equilibrio `e cos` descritto da una sovrapposizione incoerente di stati quantici.
Pi`
u esattamente dovremo pensare al sistema come a uno degli elementi costitutivi di una collezione
inifinita di sistemi, ciascuno in uno degli autostati n della hamiltoniana del sistema in studio. Questo
`e l ensemble microcanonico (le copie del sistema che compaiono nell ensemble microcanonico non
interferiscono quantisticamente). E conveniente utilizzare in casi come questi di sovrapposizione
incoerente la nozione di matrice densit`
a (dell ensemble)

mn hn ||m i nm |bn |2

(1.179)

In questa base `e un operatore diagonale. Quindi


P
hn |O|n i
tr[O]
hOi = Pn
=
tr[]
n hn ||n i

(1.180)

Scritto in questa forma, hOi `e manifestamente indipendente dalla scelta della base. In una base diversa
pu`o non essere diagonale. L equazione del moto per l operatore `e

i~

= [H, ]
t

(1.181)

Infatti, da

(t) = eiHt/~ (0)eiHt/~

(1.182)

segue

i~

H
H
= ~ eiHt/~ (0)eiHT /~ ~eiHt/~ (0)eiHt/~
= [H, ]
t
~
~

Se consideriamo la rappresentazione spettrale della matrice densit`a

(1.183)

34

Capitolo 1. Elementi di Meccanica Statistica

|n i |bn |2 hn |

(1.184)

ricaviamo immediatamente la matrice densit`a dell ensemble microcanonico

m.c. =

|n ihn |

(1.185)

EEn E+

Il volume dello spazio delle fasi dell ensemble microcanonico quantistico `e inoltre dato da

N,V (e) = tr[] =

nn

(1.186)

La somma (1.186) conta il numero degli stati con energia compresa tra E ed E + (la ragione `e che
|bn |2 = 1). Come nel caso classico abbiamo

N,V (E) = N,V (E)

(1.187)

SN,V (E) = kB log N,V (E)

(1.188)

La costruzione dell ensemble canonico `e altrettanto immediata. In questo caso la matrice densit`
a `e
data da

= eH

mn = mn eEn

(1.189)

L integrale sullo spazio delle fasi `e rimpiazzato da una somma sugli stati:
1
N ! h3N

d3N q d3N p

(1.190)

La funzione di partizione dell ensemble canonico `e data dalla formula

ZN,V (T ) =

eEn = tr[] = tr[eH ]

(1.191)

La rappresentazione spettrale per la matrice densit`a `e

X
n

|n ieEn hn |

(1.192)

1.8. La Meccanica Statistica Quantistica

35

Infine, il valore d aspettazione di un osservabile macroscopica O `e espresso da

hOi =

tr[OeH ]
tr[eH ]

(1.193)

A questo punto possiamo riportare anche le formule principali per la costruzione dell ensemble
grancanonico. La funzione di partizione grancanonica `e definita nel modo usuale in termini della
funzione di partizione canonica (nella versione quantistica)

Q(z, V, T ) =

z N ZN,V (T )

(1.194)

ed il valore d aspettazione di un osservabile macroscopica O `e dato da

hOi =

X
N

zN

tr[OeHN ]
tr[eHN ]

(1.195)

Se includiamo nella traccia anche la somma sugli autovalori dell operatore N = numero di particelle,
che commuta con la hamiltoniana HN , possiamo riscrivere le formule precedenti nella forma
Q(z, V, T ) = tr[e(HN N ) ]

hOi =

1
tr[Oe(HN N ) ]
Q

(1.196)

(1.197)
2

36

Capitolo 1. Elementi di Meccanica Statistica

Capitolo 2

Sistemi fermionici
In questo capitolo verrnno discussi alcuni metodi numerici per trattare sistemi quantistici a molte
particelle.

2.1

L approssimazione di BornOppenheimer

Consideriamo un atomo con molti elettroni. Indichiamo con R la posizione del nucleo (puntiforme) e
con {ri } quelle degli elettroni. L equazione di Schrodinger per il sistema `e

[Tn (R) + Tel (ri ) + V (R, ri )] (R; ri ) = E (R; ri )

(2.1)

L equazione di Schr
odinger per gli elettroni (per valori fissi di R) `e

[Tel (ri ) + V (R, ri )] k (R; ri ) = Ek (R) k (R; ri )

(2.2)

Supponiamo che le funzioni d onda elettroniche pk siano normalizzate nel modo usuale:
Z Y
N

d3 ri

k (R; ri ) l (R; ri ) = kl

(2.3)

i=1

La funzione d onda (esatta) (R; ri ) pu`


o essere sviluppata nella base k , mediante la formula

(R; ri ) =

Fk (R)k (R; ri )

37

(2.4)

38

Capitolo 2. Sistemi fermionici

La funzione Fk (R) si interpreta in modo naturale come la funzione d onda che rappresenta il moto
del nucleo, se gli elettroni sono nello stato k. Introduciamo la (2.4) nella (2.1) e proiettiamo su l :
X Z Y

d ri

l (R; ri ) [Tn + Tel + V E] Fk (r)k (R; ri ) = 0

(2.5)

Usando la (2.2) e la (2.3) si ottiene


X Z Y

d ri

l (R; ri ) Tn [Fk (R)k (R; ri )] = [E El (R)] Fl (R)

(2.6)

Usando la (2.2) e la (2.3) si ottiene


X Z Y

d ri

l (R; ri ) Tn [Fk (R)k (R; ri )] = [E El (R)] Fl (R)

(2.7)

dove

Tn [Fk (R)k (R; ri )] =

~2
[Fk (R)2R k (R; ri ) + 2R Fk (R) R k (R; ri ) + k (R; ri )2R Fk (R)]
2Mn
(2.8)

L approssimazione di BornOppenheimer consiste nel trascurare i primi due termini nella (2.7).
L idea che sta alla base di questa approssimazione `e che k (R; ri ) dipende da R molto pi`
u debolmente
che Fk (R). In termini elementari, se il nucleo viene spostato leggermente, gli elettroni non se ne
accorgono pi`
u di tanto. In virt`
u dell approssimazione di BornOppenheimer e della (2.3), la (2.7)
assume la forma



~2 2

+ Ek (R) Fk (R) = E Fk (R)


2Mn R

, k = 1, 2, . . .

(2.9)

Questa equazione deve essere risolta insieme a quella per il moto elettronico (2.2). In questa approssimazione, transizioni tra stati elettronici diversi sono proibite. Il potenziale visto dal nucleo `e dato
da

Ek (R) =

Z Y

d ri

k (R; ri ) [Tel + V ] k (R; ri )

(2.10)

2.2. Il gas di Fermi

2.2

39

Il gas di Fermi

In una scatola cubica di lato L l equazione di Schrodinger per una particella libera si scrive

~2 2 (r) = E (r)
2me
(r)|
= 0

(2.11)

La soluzione di questo problema `e ben nota, ed `e espressa dalla formula


n1 ,n2 ,n3 (r) =

8
V

1/2


 
 

n1
n2
n3
sin
x sin
y sin
z
L
L
L

n1 , n2 , n3 = 1, 2, 3, . . .

(2.12)

Ricordiamo, per inciso, che il set di numeri quantici n1 = n2 = n3 = 0 deve essere scartato, poich`e
annulla identicamente la funzione d onda; inoltre sono da scartare anche gli ni < 0, poich`e la funzione
sin `e dispari e la funzione d onda `e definita a meno di una fase. I livelli energetici per il problema
(2.11) sono

En =

2 ~2 2
2 ~2 2
2
2
(n
+
n
+
n
)
=
n
2
3
2mL2 1
2mV 2/3

(2.13)

Se la scatola `e molto grande, la spaziatura dei livelli `e molto piccola e possiamo pensare che i livelli
di energia siano distribuiti con continuit`
a. Definiamo perci`o una funzione D(E) che rappresenta la
densit`a degli stati:

D(E) dE = numero di stati elettronici con energia compresa tra E ed E + dE

(2.14)

Per calcolare D(E) osserviamo che il numero di stati con energia fino ad E `e uguale al numero di
punti nell ottante dello spazio n con ni > 0 e con raggio determinato dalla (2.13)

N (< E) = 2

1
V
14 3
n = n3 = 2
83
3
3

2m
~2

3/2

E 3/2

(2.15)

Da questa formula segue che il numero dN di stati con energia compresa tra E ed E + dE `e dato da
V
dN = D(E) dE =
2 2
da cui

2m
~2

3/2

E 1/2 dE

(2.16)

40

Capitolo 2. Sistemi fermionici

V
D(E) =
2 2

2m
~2

3/2

E 1/2

(2.17)

Questo risutlato non dipende dalla forma della scatola, n`e dalla particolare condizione al bordo che
abbiamo preso (si avrebbe lo stesso risultato per condizioni periodiche). A T = 0K tutti gli stati
elettronici disponibili sono occupati: si definisce EF (energia di Fermi) il valore di E tale che
EF

Z
N =
0

V
D(E) dE =
3 2

2m
~2

3/2

3/2

EF

(2.18)

Risolvendo questa relazione rispetto ad EF , si trova

EF


2/3
~2
2N
=
3
2m
V

(2.19)

Si noti che l energia totale del sistema `e


Z

EF

E D(E) dE =

Etot =
0

3
N EF 6= N EF
5

(2.20)

Si definiscono anche
a) il numero d onda di Fermi kF
EF

~2 2
=
k
2m F

kF2


1/3
2N
= 3
V

(2.21)

b) l impulso di Fermi pF
pF = ~kF


1/3
2N
= ~ 3
V

(2.22)

c) la temperatura di Fermi TF
EF = kB TF

TF


2/3
1 ~2
2N
=
3
kB 2m
V

(Osserviamo per inciso che nei metalli a temperatura ambiente T /TF 102 ).

2.3

(2.23)
2

La teoria di ThomasFermi

Nell approssimazione semiclassica (alti numeri quantici principali degli elettroni) si vogliono calcolare
in maniera consistente (r) ( = densit`
a degli elettroni) e V (r) ( = potenziale elettronico) mediante

2.3. La teoria di ThomasFermi

41

considerazioni statistiche. Abbiamo visto che l energia cinetica massima di un elettrone `e EF , quindi
l energia totale massima di un elettrone atomico si pu`o scrivere

Emax = EF + V (r) 0

EF = Emax V (r)

(2.24)

Va osservato che Emax 0 perch`e l elettrone `e legato. Inoltre Emax non pu`o dipendere da r, perch`e
se cos` fosse gli elettroni andrebbero nella regione di spazio dove Emax `e minima. Il che ovviamente
implica che EF dipende da r. Dalla formula

EF =

~2
(3 2 (r))2/3
2m

(2.25)

segue
1
(r) =
3 2

2m
~2

3/2

[Emax V (r)]3/2

(2.26)

Si noti che (r) = 0 per i valori di r per i quali V (r) = Emax . Porremo quindi

(r) = 0

per V (r) > Emax

(2.27)

al fine di evitare che EF diventi negativo. Posto

(r) = (r) 0

V (r)
=



Emax

(2.28)

possiamo riscrivere le (2.26) e (2.27) nella forma

(r) =

1 2m 3/2
( ) [e(r)]3/2
3 2 ~2

(2.29)

< 0

L equazione (r) = 0 (cio`e V (r) = Emax ) determina il raggio r0 dell atomo o dello ione. Per un
atomo neutro N (numero di elettroni) = Z(numero atomico), (r) si annulla a r = r0 , perch`e `e anche
(r0 ) = 0, cio`e 0 = 0. Oltre alla (2.29) possiamo scrivere l equazione di Poisson

2 (r) =
dove

1 d2
1
[r(r)] = [eZ+N (r)]
2
r dr
0

(2.30)

42

Capitolo 2. Sistemi fermionici

Z+N (r) = elettroni (r) + nucleo (r)

lim r(r) =

r0

(2.31)

Ze
40

(2.32)

Le (2.29) e (2.30) sono due equazioni simultanee per (r) e (r). Eliminando (r) da queste equazioni,
abbiamo

1 d2
r dr2 [r(r)]

d2
[r(r)]
dr2

e
( 2m )3/2 [e(r)]3/2
3 2 0 ~2

=
= 0

(2.33)

< 0

Si ha poi la condizione di normalizzazione


r0

Z
4

elettroni (r)r2 dr = N

(2.34)

Introducendo variabili adimensionali

r = bx

,b =

(3)2/3
a0 Z 1/3 = 0.8853 a0 Z 1/3
27/3

r(r) =

Ze
(x)
4e

a0 = 40

~2
me2

(2.35)

(2.36)

si ottiene

(r) =

Z
( )3/2
4b3 x

(2.37)

< 0

L equazione diventa

(0) = 1

Tutte le soluzioni sono concave:

d2
dx2

d2
dx2
d2
dx2

0.

3/2

= 0

0
< 0

(2.38)

2.3. La teoria di ThomasFermi

43

Per x0 = r0 /b risulta (x0 ) = 0. Inoltre

(x) 0
(x) < 0

x < x0

(2.39)

x > x0

Per x > x0 risulta (x) = c(x x0 ), dove c = 0 (x0 ) 6= 0.


Se vogliamo una soluzione continua con derivata continua, basta conoscere (x) per x < x0 , cio`e
per (x) 0.
Se fosse 0 (x0 ) = 0, insieme a (x0 ) = 0, si avrebbe 0.
Poich`e manca una condizione, si hanno varie possibili soluzioni, determinate poi dalla condizione di
normalizzazione
Z

x0

N =>

1/2 3/2

Z
dx = Z

x0

x
0

d2
= Z[x0 ]x0 0
2
dx

(2.40)

dalla quale si ricava

N
= x0 0 (x0 ) (x0 ) + 1
Z

N Z
= x0 0 (x0 )
Z

0 (0) = finito

Soluzioni possibili del modello di ThomasFermi

Seguono alcune osservazioni sulle soluzioni dell equazione di ThomasFermi.

(2.41)

44

Capitolo 2. Sistemi fermionici


Se N = Z (atomo neutro), allora x0 0 (x0 ) = 0. x0 non pu`o essere al finito, altrimenti come
abbiamo visto, si avrebbe (x) 0. Siamo nel caso (1). In questo caso si ha

(x) ' 1 1.588x + . . .


(x) ' 144
x3

x 0

(2.42)

Per un atomo neutro (che dunque non ha una nube elettronica concentrata in un volume finito)
si trova subito

V (r) =

Ze2 (r)
40 r

(2.43)

L approssimazione di ThomasFermi non vale per

r < a0 /Z
T F r3/2 invece di (0) = 0
r  a
T F r6 invece di (r) er/r0
0

(2.44)

Il raggio della regione intermedia `e O(b) e quindi so contrae come 1/Z 1/3 .
Consideriamo la soluzione (2). Poich`e 0 (x0 ) < 0 siamo nella situazione in cui
x0 0 (x0 ) =

N Z
< 0
Z

N < Z

(2.45)

Dunque questa soluzione descrive uno ione carico positivamente (l approssimazione di Thomas
Fermi non pu`
o descrivere ioni negativi).
La soluzione (3) descrive atomi neutri sotto pressione.
2

2.4

Il metodo di HartreeFock

Nell approccio di HartreeFock si assume, in accordo con l approssimazione a particelle indipendenti


e col principio di esclusione di Pauli, che la funzione d onda per un atomo con N elettroni sia un
determinante di Slater, o in altri termini il prodotto antisimmetrico di singoli orbitali elettronici.
Il determinante di Slater ottimale `e quindi ottenuto usando il metodo variazionale per detrminare
i migliori orbitali elettronici. Il metodo di HartreeFock `e perci`o un caso particolare di metodo

2.4. Il metodo di HartreeFock

45

variazionale, in cui la funzione di prova per l atomo `e un determinante di Slater i cui singoli orbitali
sono ottimizzati.
In ci`o che segue limiteremo la discussione allo stato fondamentale di un atomo o di uno ione che
possiede N elettroni. Partiamo dalla hamiltoniana H dell atomo. Essa `e la somma di due termini:

H = H1 + H2

(2.46)

dove

H1 =

N
X

hi

i=1

1
Z
hi = 2ri
2
ri

(2.47)

rij = |ri rj |

(2.48)

H2 =

N
X
1
rij

i<j=1

Il primo termine della (2.46), H1 , `e la somma di N hamiltoniane identiche hi , dette a un corpo, ciascuna
contenente l energia cinetica di un elettrone e la sua energia potenziale dovuta all attrazione del
nucleo. Il secondo termine, H2 , `e la somma di N (N 1)/2 termini identici 1/rij , che rappresentano le
interazioni a due corpi tra gli elettroni atomici. Sia E0 l energia dello stato fondamentale del sistema.
Dal principio variazionale segue che

E0 E[] = = h|H|i

(2.49)

dove `e una funzione di prova che assumiamo essere normalizzata a uno:

h|i = 1

(2.50)

Nel metodo di HartreeFock la funzione di prova `e un determinante di Slater, cio`e







1
(q1 , q2 , . . . , qN ) =
N !





uN (q1 )


u1 (q2 ) u2 (q2 ) . . . uN (q2 )


u1 (q3 ) u2 (q3 ) . . . uN (q3 )


..

.


u1 (qN ) u2 (qN ) . . . uN (qN )
u1 (q1 )

u2 (q1 )

...

(2.51)

46

Capitolo 2. Sistemi fermionici

dove ricordiamo che ciascuno dei simboli i rappresenta un insieme di quattro numeri quantici
(n, l, ml , ms ). Richiediamo che tutti gli orbitali elettronici siano ortonormali:
Z
hui |uj i =

ui (q) uj (q) dq = i j

(2.52)

E conveniente riscrivere il determinante di Slater (2.51) in forma pi`


u compatta, cio`e

1 X
(q1 , q2 , . . . , qN ) =
(1)P P ui1 (q1 )ui2 (q2 ) . . . uiN (qN ) = N ! AH
N! P

(2.53)

dove H `e semplicemente il prodotto degli orbitali elettronici

H (q1 , q2 , . . . , qN ) = ui1 (q1 )ui2 (q2 ) . . . uiN (qN )

(2.54)

al quale ci riferiremo in seguito come alla funzione d onda di Hartree. L operatore A che appare
nella (2.53) `e l operatore di antisimmetrizzazione

A =

1 X
(1)P P
N!

(2.55)

Non `e difficile dimostrare che l operatore A `e hermitiano e che esso `e un operatore di proiezione, cio`e

A = A

A2 = A

(2.56)

Un ulteriore osservazione, che risulter`


a utile nel seguito, `e che entrambi gli operatori H1 e H2 sono
invarianti in seguito a permutazioni delle coordinate elettroniche, e quindi commutano con A,

[H1 , A] = [H2 , A] = 0

(2.57)

Passiamo ora al calcolo del funzionale E[]. Usando la (2.46) e la (2.49), abbiamo

E[] = h|H1 |i + h|H2 |i

(2.58)

Il primo termine della (2.58) si calcola facilmente. Infatti

h|H1 |i = N !hH |AH1 A|H i = N !hH |H1 A2 |H i = N !hH |H1 A|H i

(2.59)

2.4. Il metodo di HartreeFock

47

dove abbiamo usato le propriet`


a (2.53), (2.56) e (2.57). Considerando che H1 `e la somma di operatori
a un corpo e che gli orbitali elettronici sono ortonormali per ipotesi, otteniamo

h|H1 |i

N X
X

(1)P hH |hi P |H i =

i=1 P
N
X

N
X

hH |hi |h i =

i=1

hui |hi |ui i

(2.60)

i=1

dove la somma su i scorre sugli N singoli stati quantici occupati dagli elettroni. Definendo

Ii = hui |hi |ui i

(2.61)

come il valor medio della hamiltoniana a un corpo hi sull orbitale elettronico ui , abbiamo

h|H1 |i =

Ii

(2.62)

Il secondo termine della (2.58) pu`


o essere calcolato in modo simile. Infatti

h|H2 |i = N !hH |AH2 A|H i = N !hH |H2 A2 |H i = N !hH |H2 A|H i

(2.63)

Dalla definizione (2.55) dell operatore A e dal fatto che H2 `e la somma di operatori a due corpi, segue

h|H2 |i =

XX
i<j





X 1

1
H (1 Pij ) H
(1) H P H =
rij
rij
P

(2.64)

i<j

dove Pij `e un operatore che scambia le coordinate (spaziali e di spin) degli elettroni i e j. Possiamo
riscrivere la (2.64) nella forma

h|H2 |i =

N Z
X


dq dq 0 ui (q)uj (q 0 )

i<j=1


e2
e2
0

0
0
u
(q)u
(q
)

u
(q)u
(q
)
u
(q
)u
(q)

j
i
j
|r r0 | i
|r r0 | i
(2.65)

Definiamo quindi il termine diretto


Z
Jij =

dq dq

ui (q)uj (q 0 )


e2
0
u (q)uj (q )
|r r0 | i

(2.66)

48

Capitolo 2. Sistemi fermionici

che `e il valor medio dell interazione 1/rij nello stato ui (q)uj (q 0 ), dove l elettrone imo si trova
nell orbitale ui e l elettrone jmo si trova nell orbitale uj . Introduciamo inoltre il termine di
scambio

Kij


= ui (q)uj (q 0 )


e2
0
u (q )uj (q)
|r r0 | i

(2.67)

che `e l elemento di matrice dell interazione 1/rij tra due stati ui (q)uj (q 0 ) e ui (q 0 )uj (q) ottenuti
l uno dall altro scambiando gli elettroni i e j. Osserviamo che sia Jij che Kij sono reali; inoltre essi
sono simmetrici in i e j:

Jij = Jji

Kij = Kji

(2.68)

Possiamo riscrivere la (2.66) in termini di Jij e Kij


1 XX
[Jij Kij ]
2

h|H2 |i =

(2.69)

e quindi

E[] =

Ii +

1 XX
[Jij Kij ]
2
i

(2.70)

Procediamo ora al secondo passo del calcolo, che consiste nell imporre che E[] sia stazionario rispetto
a variazioni degli orbitali elettronici ui , quando siano imposti gli N 2 vincoli di ortonormalita (2.52)
sugli orbitali elettronici. Per vincolare il funzionale (2.71) introduciamo N 2 moltiplicatori di Lagrange
che denotiamo con ij . Dobbiamo cio`e imporre che

XX
i

ij hui |uj i = 0

(2.71)

Dalla (2.71) si riconosce facilmente che ij = ij , cosicch`e gli N 2 moltiplicatori di Lagrange possono essere considerati come gli elementi di una matrice hermitiana. E conveniente a questo punto effettuare
una trasformazione unitaria sugli orbitali elettronici ui :

u0i =

X
j

Uij uj

(2.72)

2.4. Il metodo di HartreeFock

49

dove Uij sono gli elementi di una matrice unitaria N N . Il nuovo determinante di Slater 0 formato
con gli orbitali u0i differir`
a da quello precedente per un fattore di fase

0 = (det U )

(2.73)

e | det U | = 1, poich`e U `e unitaria. Inoltre, il funzionale E[] = h|H|i `e chiaramente lasciato


invariante da questa trasformazione unitaria. Poich`e ogni matrice hermitiana pu`o essere diagonalizzata
da una trasformazione unitaria, possiamo sicuramente scegliere U in modo tale che la matrice ij dei
moltiplicatori di Lagrange sia diventi diagonale in seguito alla trasformazione unitaria sugli orbitali
elettronici. Nel seguito assumeremo di aver effettuato questa diagonalizzazione, cosicch`e l equazione
variazionale (2.71) si scrive

Ei hui |ui i = 0

(2.74)

Effettuando esplicitamente la variazione rispetto agli orbitali elettronici, otteniamo per u1 , u2 , . . . , uN


il sistema di equazioni integrodifferenziali


X Z

1 2 Ze2
e2
0
0
r
ui (q) +
uj (q 0 )
u
(q
)
dq
ui (q) +

2
r
|r r0 | j
j

2
X Z
e
0
0
u
(q
)
dq
uj (q) = Ei ui (q)
uj (q 0 )

|r r0 | i

(2.75)

Ricordiamo che il simbolo

dq implica una integrazione sulle coordinate spaziali r e una somma sulla

coordinata di spin. Le equazioni (2.75) sono note come le equazioni di HartreeFock.


Una forma pi`
u compatta per le equazioni di HartreeFock pu`o essere ottenuta nel modo seguente.
Definiamo l operatore diretto

Vjd (q)

Z
=

uj (q 0 )

e2
u (q 0 ) dq 0
|r r0 | j

(2.76)

che `e semplicemente il potenziale di repulsione elettrostatica dovuto al jmo elettrone, quando la


posizione di questo elettrone sia mediata nell orbitale uj . Definiamo inoltre l operatore di scambio
Vjex (q) in modo tale che

50

Capitolo 2. Sistemi fermionici

Vjex (q)f (q)

Z
=

uj (q 0 )


e2
0
0
f (q ) dq uj (q)
|r r0 |

(2.77)

dove f (q) `e una funzione arbitraria. In particolare, vediamo che che, quando l operatore di scambio
agisce su uno degli orbitali elettronici ui , si ottiene

Vjex (q)ui (q)

Z
=

uj (q 0 )


e2
0
0
u (q ) dq uj (q)
|r r0 | i

(2.78)

Usando le (2.76) e (2.78), le equazioni di HartreeFock assumono la forma





X
X
1 2
Ze2
d
ex
r
+
Vj (q)
Vj (q) ui (q) = Ei ui (q)
2
r

(2.79)



Ze2
1 2
d
ex
+ V (q) V (q) ui (q) = Ei ui (q)
r
2
r

(2.80)

o anche

dove sono stati introdotti i potenziali diretto e di scambio

V d (q) =

Vjd (q)

(2.81)

Vjex (q)

(2.82)

V ex (q) =

X
j

E anche interessante scrivere le equazioni di HartreeFock in termini della matrice densit`


a

(q, q 0 ) =

uj (q)uj (q 0 )

(2.83)

Gli elementi diagonali (q, q) saranno denotati con (q). In termini della matrice densit`a abbiamo

V d (q) =

Z
(q)

e2
dq 0
|r r0 |

(2.84)

ex

V (q)ui (q) =

(q, q 0 )

e2
u (q 0 ) dq 0
|r r0 | i

(2.85)

2.4. Il metodo di HartreeFock

51

Infine, se definiamo il potenziale di HartreeFock completo come

V(q) =

X
X
Ze2
Ze2
+
Vjd (q)
Vjex (q) =
+ V d (q) V ex (q)
r
r
j

(2.86)

le equazioni di HartreeFock assumono la forma (apparentemente) semplice




1 2
r + V(q) ui (q) = Ei ui (q)
2

(2.87)

Una caratteristica notevole delle equazioni di HartreeFock (2.87) `e che esse somigliano ad equazioni
di Schrodinger, una per ogni orbitale elettronico. Purtroppo esse non sono semplici equazioni agli
autovalori, poich`e il potenziale di HartreeFock dipende dagli stessi orbitali elettronici attraverso gli
operatori Vjd e Vjex . Di fatto, per risolvere il sistema di equazioni integrodifferenziali di HartreeFock,
(1)

(1)

(1)

uno procede per iterazione. Partendo da orbitali elettronici approssimati u1 , u2 , . . . , uN , dapprima si calcola l espressione corrispondente V (1) del potenziale di HartreeFock. Quindi si risolvono
(2)

(2)

(2)

numericamente le equazioni di HartreeFock, ottenendo cos` nuovi orbitali u1 , u2 , . . . , uN , che a


loro volta determinano un nuovo potenziale V (2) . Questa procedura viene quindi ripetuta finch`e gli
orbitali elettronici producono un potenziale V (n) che `e identico (nell approssimazione desiderata) al
potenziale V (n1) ottenuto al passo precedente. Il potenziale di HartreeFock ottenuto in questo modo
`e noto come il campo selfconsistente dell atomo (dello ione).
Un occhiata superficiale alle equazioni (2.87) suggerisce di interpretare Ei come l autovalore della
energia di un singolo elettrone. Per dare un significato pi`
u preciso a Ei , osserviamo dapprima che,
prendendo il prodotto scalare della (2.76) con ui , ed usando le definizioni di Ii , Jij e Kij , si ottiene

Ei = Ii +

[Jij Kij ]

(2.88)

Sommando la precedente su i, abbiamo quindi

Ei =

X
i

Ii +

XX
i

[Jij Kij ] = h|H1 |i + 2h|H2 |i

(2.89)

e quindi, usando la (2.58)

E[] =

X
i

Ei h|H2 |i

(2.90)

52

Capitolo 2. Sistemi fermionici

Vediamo dunque che l energia totale dell atomo non `e la somma delle singole energie. Ci`o `e dovuto
al fatto che, sommando le energie dei singoli elettroni, ciascuna energia cinetica e ciascuna energia di
interazione con il nucleo viene contata una volta, mentre l energia d interazione mutua, che ha valor
medio h|H2 |i `e contata due volte. L energia totale si ottiene perci`o sottraendo h|H2 |i dalla
somma delle singole energie, come nella (2.91). Supponiamo quindi che l elettrone imo sia rimosso
dal sistema ad N elettroni. Per esempio, se il sistema originale era un atomo neutro, ora abbiamo
uno ione positivo con (N 1) elettroni. Se assumiamo che gli orbitali del sistema ad (N 1) elettroni
rimangano invariati dopo la rimozione, vediamo che la differenza tra l energia totale dei due sistemi `e

EN EN 1 = Ii +

[Jij Kij ] = Ei

(2.91)

Cos` la quantit`a Ei rappresenta approssimativamente l energia richiesta per rimuovere un elettrone


dall orbitale ui o, in altre parole, l energia di ionizzazione dell elettrone imo. Questo risultato `e
noto come teorema di Koopman.
Osserviamo infine che non `e difficile dimostrare che orbitali corrispondenti a energie distinte sono
2

ortogonali.

2.5

Il metodo di CarParrinello

E un approccio nel quale le forze interatomiche sono generate in modo consistente e accurato man
mano che la simulazione procede. Nel metodo di CarParrinello le forze sono calcolate usando i
risultati del calcolo della struttura elettronica, basato sulla teoria (quantistica) del funzionale densit`
a.
Assumeremo che nello spettro delle interazioni elettroniche il gap tra lo stato fondamentale ed il primo
stato eccitato sia molto maggiore dell energia (termica) associata con il moto degli atomi (ioni).
In questo modo il moto degli atomi (ioni) potr`a essere considerato come se avvenisse nel potenziale
(medio)

E0 [{RI }] = h0 |H|0 i + potenziale ionico

(2.92)

dove H `e la hamiltoniana del sistema a posizioni atomiche (ioniche) fisse e 0 `e lo stato fondamentale
elettronico del sistema. Il moto degli atomi (ioni) sar`a descritto dalla meccanica classica. La (2.92),
usando la (2.2), cio`e l approssimazione di BornOppenheimer, diventa

2.6. La teoria del funzionale densit`


a (DFT)

E0 [{RI }] =

Z Y

d ri

0 ({RI }, {ri })


Tel

53


+ V ({RI }, {ri }) 0 ({RI }, {ri }) + potenziale ionico

(2.93)

2.6

La teoria del funzionale densit`


a (DFT)

L equazione di Schr
odinger per un sistema di N elettroni con potenziale esterno V ext `e data da



~2 X 2
1X
e2
ext

k ({ri }, {RI }) = Ek ({RI }) k ({ri }, {RI })


i + V ({ri }, {RI }) +
2m
2
|ri rj |
i

i6=j

(2.94)
dove, per esempio

V ext ({ri }, {RI }) =

XX
i

ZI e2
|ri RI |

(2.95)

Le quantit`a precedenti dipendono parametricamente dalle posizioni RI degli atomi (ioni) con carica
effettiva +ZI e (e > 0)

{ri } = (r1 , r2 , . . . , rN )
{R } = (R , R , . . . , R )
1
2
I
M

(2.96)

Nel caso N = M , ZI = 1 stiamo pensando ad una situazione in cui abbiamo N elettroni nel campo
coulombiano di N ioni carica +1, cosicch`e il sistema nel suo insieme `e neutro. Limitiamoci a considerare
lo stato fondamentale 0 per il sistema di N elettroni, ed il moto degli ioni (classico) disaccoppiato
da quello degli elettroni (che `e molto pi`
u veloce). Ricordando il metodo di HartreeFock (eq.ni (2.62)
e (2.69)), possiamo definire il funzionale


Z
N 
X
~2 2
e2
n(r)n(r0 ) 3 3 0
ps

i + Vi i +
d rd r +
F [{i }, {RI }] =
i
2m
2
|r r0 |
i=1
Z
e2
n(r, r0 )n(r0 , r) 3 3 0
e2 X ZI ZJ

d
rd
r
+

2
|r r0 |
2
|RI RJ |
I6=J

E[{i }, {RI }] + EION I ({RI })

(2.97)

54

Capitolo 2. Sistemi fermionici

dove


Z
N 
X
~2 2
e2
n(r)n(r0 ) 3 3 0
ps

E[{i }, {RI }] =
i
i + Vi i +
d rd r +
2m
2
|r r0 |
i=1
Z
e2
n(r, r0 )n(r0 , r) 3 3 0

d rd r
2
|r r0 |

EION I ({RI }) =

e 2 X ZI ZJ
2
|RI RJ |

(2.98)

(2.99)

I6=J

n(r, r0 ) = PN i (r) (r0 )


i
i=1
n(r) = PN (r) (r)
i=1

hi |j i = ij

con

(2.100)

Vips `e il cosiddetto (pseudo)potenziale, che descrive l interazione di ogni singolo elettrone di valenza
nello stato i con gli ioni (gli elettroni interni sono pensati congelati). Minimizzando E[{i }, {RI }]
rispetto alle funzioni di prova i , determiniamo lo stato fondamentale del sistema elettronico E0 ({RI }).
Il potenziale visto dagli ioni sar`
a dato da

F0 ({RI }) = E0 ({RI }) +

e2 X ZI ZJ
2
|RI RJ |

(2.101)

I6=J

Osservazione. Integrando per parti, il termine cinetico pu`o essere scritto nella forma

Z
N 
X
~2 2
~2


i =
r 0r n(r, r0 )|r=r0 d3 r
i
2m i
2m

(2.102)

i=1

ed inoltre
N
X
i=1

hi |Vips |i i

N Z
X

i (ri )V ps (ri )i (ri )

d ri =

n(r)V ps (r) d3 r

(2.103)

i=1

2
L osservazione cruciale a questo punto `e che c `e una stretta relazione tra la densit`a elettronica nello
stato fondamentale, n0 (r), e V ext . Pi`
u precisamente vale il

2.6. La teoria del funzionale densit`


a (DFT)

55

Teorema 2.1 (di Hoheneuberg e Kohn)


La densit`a elettronica nello stato fondamentale n0 (r) determina completamente il potenziale esterno,
2

V ext .

Dimostriamo questo teorema nel caso di stato fondamentale e non degenere. Per far questo confrontiamo le due situazioni

H , V ext , n0 (r)

con

H0 = E0 0

(2.104)

H 0 , V 0ext , n00 (r)

con

H 0 00 = E00 00

(2.105)

Con

V 0ext 6= V ext + c

0 6= 00

(2.106)

abbiamo la disuguaglianza

E0 = h0 |H|0 i <

h00 |H|00 i

h00 |H 0 |00 i

Z
+

[V ext (r) V 0ext (r)]n00 (r) d3 r

(2.107)

ovvero

E0 <

E00

Z
+

[V ext (r) V 0ext (r)]n00 (r) d3 r

(2.108)

R
dato che le due hamiltoniane differiscono solo per il termine [V ext (r)V 0ext (r)]n00 (r) d3 r. Ma abbiamo
anche

E00

Z
< E0 +

[V 0ext (r) V ext (r)]n0 (r) d3 r

(2.109)

Sommando le due diseguaglianze si ottiene

E0 +

E00

< E0 +

E00

Z
+

[V ext (r) V 0ext (r)][n00 (r) n0 (r)] d3 r

(2.110)

e quindi
Z

[V ext (r) V 0ext (r)][n00 (r) n0 (r)] d3 r > 0

(2.111)

56

Capitolo 2. Sistemi fermionici

E ovvio che a due potenziali diversi (V ext 6= V 0ext ) con stati fondamentali diversi (0 6= 00 ) non pu`
o
rimanere associata la stessa densit`
a n0 = n00 , cio`e per forza si dovr`a avere n0 6= n00 . Ci`o significa
appunto che n0 determina univocamente V ext (poich`e, come visto prima, a due V ext diversi sarebbero
2

necessariamente associate due densit`


a elettroniche distinte).

Conseguenza del teorema: poich`e n0 (r) determina V ext , oltre che ovviamente N , rimane completamente determinata la hamiltoniana e di conseguenza tutte le propriet`a derivabili da H, come per
esempio, lo stato fondamentale elettronico, la sua energia, gli stati eccitati e le loro energie, le funzioni
di Green, etc. Dunque la dipendenza funzionale di E (eq.ne (2.98)) nello stato fondamentale `e solo da
n0 (r):

E[{i }, {RI }] = E[n0 ; {RI }]

nello stato fondamentale

(2.112)

Pi`
u precisamente abbiamo

Z
E[n0 , {RI }] = T [n0 ] +

ps

e2
(r)n0 (r) d r +
2
3

n0 (r)n0 (r0 ) 3 3 0
d rd r + Eexc [n0 ]
|r r0 |

(2.113)

Effettuiamo ora la minimizzazione di E[{i }, {RI }] con i vincoli hi |j i = ij :




X

E[{i }, {RI }]
hi |j i = 0
i

(2.114)

i,j

Otteniamo (dopo l eventuale diagonalizzazione, cfr. HartreeFock)

~2 2

+ Vips (r) + e2
2m i


n(r0 ) 3 0
exc
d r + V (r) i (r) = i i (r)
|r0 r|

(eq.ni di KohnSham)
(2.115)

dove

exc

(r)i (r) =

XZ
j

j (r0 )


e2
0
3 0
i (r ) d r j (r)
|r r0 |

(2.116)

La semplificazione essenziale a questo punto `e che noi assumeremo di poter calcolare la variazione del
termine di scambio nell ipotesi (in accordo col teorema di Hoheneuberg e Kohn) che esso dipenda
dalle i solo attraverso la densit`
a elettronica, anche fuori dal (ma vicino al) minimo n0 . Scriveremo
quindi

2.6. La teoria del funzionale densit`


a (DFT)

exc

57

Eexc [n] n(r0 ) 3 0


d r
n(r0 ) i (r)

Z
(r)i (r) =

(2.117)

Spesso si usa l espressione Local Density Appoximation (LDA)

LDA
Eexc Eexc
=

exc (n(r))n(r) d3 r

(2.118)

dove exc (n(r)) = V exc (r) `e la formula per un gas uniforme di elettroni
exc (n(r)) = c [n(r)]1/3

(2.119)

Calcoliamo ora il valore dell energia totale sul minimo, cio`e E0 [{RI }]. Conviene moltiplicare la (2.115)
per i (r), sommare su i e integrare rispetto a r. Otteniamo



Z
Z
X
X ~2
n(r)n(r0 ) 3 3 0
ps
2
2

i + Vi i = e
d rd r
V exc [n(r)]n(r)d3 r +
i (2.120)
i
0
2m
|r r |
i

Sostituendo la (2.120) nella (2.97) e usando la (2.117), si ha

E0 [{RI }] =

X
i

2
i
2

n0 (r)n0 (r0 ) 3 3 0
d rd r + Eexc [n0 ]
|r r0 |


Eexc [n]
n0 (r) d3 r (2.121)
n(r) n=n0

La forza che agisce sull atomo kmo sar`


a data da

Fk = k


e 2 X ZI ZJ
E0 [{RI }] +
2
|RI RJ |

(2.122)

I6=J

E utile definire

~2 2
H[{i }] =
+ Vips + e2
2m i

n(r0 ) 3 0
d r + V exc (r)
|r0 r|

V exc (r) =

Eexc [n]
(2.123)
n(r)

con il che la (2.115) assume la forma

H[{i }] |i i = i |i i

(eq.ni di KohnSham)

(2.124)

Logicamente a questo punto la Dinamica Molecolare procede in modo iterativo via i seguenti passi
a) Siano note al tempo t e t t le coordinate atomiche (o al tempo t le coordinate e le velocit`
a).

58

Capitolo 2. Sistemi fermionici


b) Si minimizzi il funzionale (2.97) risolvendo in modo consistente le equazioni di KohnSham per
gli elettroni con valori fissati delle coordinate atomiche.
c) Si calcoli la forza sugli atomi dall equazione (2.122).
d) Si calcolino le nuove posizioni degli atomi usando per esempio l algoritmo di Verlet (cfr. il
capitolo 3) per integrare le equazioni di Newton Mk ak = Fk .
e) Si torni al punto a) con t t + t.

Questo algoritmo richiede ad ogni passo una minimizzazione del funzionale E, cio`e la soluzione delle
equazioni do KohnSham. Il problema non pu`o essere affrontato in questo modo per ragioni pratiche.
In effetti, per ogni passo di Dinamica Molecolare `e necessario effettuare un numero di operazioni
O(M 3 ) per risolvere le equazioni di KohnSham. Un altro modo di procedere `e quello di combinare la
dinamica newtoniana degli atomi col l equazione di Schrodinger dipndente dal tempo per gli elettroni

k = k {E[{i }, {RI }] + EION I ({RI })}


Mk R
i~

|i i = H|i i
t

(2.125)
(2.126)

Ehrenfest dynamics: separazione adiabatica del moto atomico da quello degli elettroni di valenza. Si
noti che le forze sugli atomi sono calcolate usando E e non E0 . Naturalmente stiamo facendo l ipotesi
che la variazione dei parametri {RI } non faccia transire |i ad uno stato eccitato (gap abbastanza
grande tra lo stato fondamentale e gli stati elettronici eccitati). In tempo euclideo = it, l equazione
(2.126) non rappresenta altro che la minimizzazione di E con il metodo delle steepest descents (SD).
Infatti si ottiene
i
1 E[{i }, {RI }]
=
~

2
i

1
= 2 Hi
2


(2.127)

Se vogliamo trovare il minimo sia in RI che nelle i possiamo utilizzare SF anche per la dinamica
atomica e scrivere

M R

k k = k E
= 1 E + vincoli
i i
2 i

(2.128)

2.6. La teoria del funzionale densit`


a (DFT)

59

con opportuni valori di i e Mk . Il vantaggio della (2.126) `e che il moto pu`o essere mantenuto unitario
senza l introduzione di vincoli, se l evoluzione di `e fatta con l operatore di traslazione temporale:


iHt
|(t + t)i = exp
|(t)i
~

(2.129)









iHt
iT t
iV t
iT t
exp
' exp
exp
exp
~
2~
~
2~

(2.130)

usando la formula di Trotter

Ci sono due ordini di considerazioni sulla (2.127)


1) Poich`e ione  el e quindi tel  tione . . . ... ?
2) Il calcolo dopo aver sviluppato le i (i = 1, . . . , N ) in M componenti di Fourier (M  N )
richiede
a) il calcolo dell azione di T sulle componenti di Fourier che `e diagonale e quindi richiede
O(N M ) operazioni
b) il calcolo dell azione del potenziale (locale), quindi una convoluzione che pu`o essere calcolata
nello spazio reale utilizzando una FFT e che quindi richiede O(N M log M ) operazioni.
Inoltre ad ogni passo si devono riortogonalizzare le i (stiamo usando la (2.127), non l equazione
di Schrodinger che ha problemi di oscillazioni) il che costa O(N 2 M ). A conti fatti, poich`e M
cresce con N il calcolo . . . ? con (dimensioni del sistema)3 .

La differenza tra l evoluzione di Schr


odinger e quella SD `e che la prima d`a luogo ad una dinamica
oscillante, mentre la seconda evolve esponenzialmente verso il minimo di E, cio`e
E
i i =
= 0
i

(2.131)

Tutti i metodi illustrati hanno la propriet`


a di mantenere lo stato degli elettroni molto vicino a quello
fondamentale (per ogni data configurazione atomica). Qualsiasi altro metodo che facesse ci`o andrebbe
ugualmente bene. Car e Parrinello hanno proposto di utilizzare la dinamica generata dalla lagrangiana

60

Capitolo 2. Sistemi fermionici

2 X
1X
ZI ZJ
2 + e
| i (r)|2 d3 r +
MI R
+
I
2
2
|RI RJ |
i
I
I6=J
Z

X

3
E[{i }, {RI }] +
ij
i j d r ij

L =

1X
i
2

(2.132)

ij

dove E[{i }, {RI }] `e dato dall equazione (2.98). Le equazioni del moto sono




Z
n(r0 ) 3 0
~2 2
Eexc [n]
k k (r, t) =
k (r, t) +
k + V ps + e2
d
r
+
2m
|r r0 |
n(r)
X
X
+
ki i (r, t) Hk +
ki i
(2.133)
i

I (t) = E +
MI R
RI
RI


e2 X
ZK ZJ
2
|RK RJ |

(2.134)

K6=J

Un vantaggio immediato di questa dinamica `e che, grazie al fatto che le equazioni sono del secondo
p
el
ordine nel tempo, max
=
Ecut /. La presenza di questa radice quadrata, pi`
u il fatto che `e un
parametro aggiustabile, permette di scegliere tel tione /10, o anche tel tione .
I ij vengono ricalcolati dalla (2.133) moltiplicando per i e integrando
Z
k

i k

Z
=

i Hk + ki

(2.135)

ovvero, integrando per parti


Z
ki =

i Hk

Z
k

i k

(2.136)

Nell ottenere la (2.135) abbiamo usato il vincolo di ortonormalit`a.


L energia totale del sistema si conserva. Possiamo definire le energie cinetiche del moto elettronico e
di quello ionico

Kel

1X
=
k
2
k

| k |2

Kione =

1X
2
MK R
K
2

(2.137)

L energia totale `e data allora da

U = Kel + Kione + E + Vione = cost.

(2.138)

2.7. La Dinamica Molecolare

61

Nell ipotesi adiabatica (separazione di frequenze tra il moto atomico e quello elettronico), possiamo
rendere Kel piccolo a piacere, se le velocit`a | k | sono sufficientemente piccole (Tel 0). Nella simulazione Tel pu`o essere lentamente (e monotonamente) ridotta, operazione questa che viene detta
Dynamical Simulated Annealing (DSA). DSA `e una delle possibili realizzazioni del cosiddetto metodo
di Simulated Annealing che serve per risolvere problemi complessi di minimizzazione (se O() `e la
funzione da minimizzare, si generano configurazioni {} con peso exp[O()/T ] con un Monte Carlo
a temperature via via decrescenti).
Qui si usa la Dinamica Molecolare (ensemble microcanonico), invece che il Monte Carlo (Metropolis)
(ensemble canonico) per esplorare lo spazio delle fasi. A Tel = 0 il sistema si mette sul minimo dell
energia potenziale totale (forza nulla)

Hk +

ki i = k = 0

(2.139)

Dunque nel minimo le k sono soluzioni delle equazioni di KohnSham (a meno di una eventuale
trasformazione unitaria, quella che diagonalizza la matrice ).

2.7

La Dinamica Molecolare

La tecnica nota come Dinamica Molecolare (DM) permette di esplorare lo spazio delle fasi di un sistema di Meccanica Statistica nell ensemble microcanonico, e trova applicazione tanto nello studio dei
sistemi biologici che in Teoria dei Campi. In questo paragrafo vogliamo discutere il caso in cui il
sistema in studio sia costituito da un certo numero N di molecole, confinate all interno di un volume
V , con energia totale E fissata. Per semplicit`a possiamo pensare ad un fluido: un gas, un liquido,
etc., del quale vogliamo dare una descrizione fenomenologica, cercando di elaborare un modello che
permetta di caratterizzare quantitativamente le propriet`a macroscopiche del sistema a partire dalla
sua dinamica microscopica. Supporremo che le molecole del fluido siano tutte dello stesso tipo, ciascuna costituita da M atomi interagenti. Indicheremo con MT = N M il numero totale degli atomi del
sistema. Supporremo inoltre che le energie in gioco non siano tali da spezzare i legami molecolari,
cosicch`e ciascuna molecola pu`
o essere di fatto considerata come un aggregato stabile di atomi. Una
descrizione elementare del sistema dovr`
a considerare gli atomi, e non le molecole, come i gradi di
libert`a fondamentali. Le molecole avranno piuttosto un significato topologico, obbligando gli atomi

62

Capitolo 2. Sistemi fermionici

ad oscillare attorno a posizioni vincolate. Per poter seguire la dinamica microscopica del sistema `e
necessario introdurre una descrizione fenomenologica delle interazioni che sussistono tra gli atomi.
Definiamo dapprima lo spazio delle fasi del sistema. Conviene a tale scopo considerare coordinate
cartesiane. Introduciamo il vettore 3MT + 3MT dimensionale

(t) = (r1 (t), r2 (t), . . . , rMT (t); p1 (t), p2 (t), . . . , pMT (t))

(2.140)

L evoluzione di (t) `e governata dalle equazioni di Hamilton

r i =

H({ri }, {pi })
pi

p i =

H({ri }, {pi })
ri

i = 1, . . . , MT

(2.141)

La hamiltoniana del sistema `e data da

H({ri }, {pi }) =

MT
X
p2i
+ V ({ri })
2mi

(2.142)

i=1

Assumiamo che il potenziale della teoria non dipenda dagli impulsi, cio`e che non ci sia attrito tra
i vari componenti del sistema. Questo `e ragionevole nel limite in cui vogliamo costruire una teoria
fondamentale del sistema stesso. Il potenziale `e rappresentato come la somma di due termini:

V ({ri }) = Vintra ({ri }) + Vinter ({ri })

(2.143)

Il primo, Vintra , `e detto potenziale intramolecolare e contiene le mutue interazioni tra gli atomi che
appartengono alla stessa molecola. Il numero dei termini in Vintra cresce proporzionalmente al numero
totale MT degli atomi. Il secondo, Vinter , `e detto potenziale intermolecolare e contiene le interazioni
tra atomi appartenenti a molecole diverse. Il numero dei termini in Vinter cresce quadraticamente col
numero totale degli atomi. Una volta specificati questi due termini e assegnata la condizione iniziale
(0), sar`a possibile in linea di principio risolvere le equazioni di Hamilton e seguire il moto del punto
rappresentativo del sistema nello spazio delle fasi. Vale la pena di sottolineare che, poich`e l energia
totale `e conservata per un potenziale che dipende solo dalle coordinate spaziali, la dinamica microscopica costituisce un modo particolare per esplorare lo spazio delle fasi nell ensemble microcanonico.
Assumendo che valga il teorema ergodico, le propriet`a macroscopiche del sistema si potranno ottenere
mediando le osservabili fisiche lungo la traiettoria reale del sistema. Questo approccio allo studio
della Meccanica Statistica ha il vantaggio, rispetto per esempio a quello basato sull esplorazione dell

2.7. La Dinamica Molecolare

63

ensemble canonico, di permettere non solo la determinazione delle propriet`a all equilibrio, ma anche
l approccio all equilibrio del sistema stesso.
Discutiamo la forma analitica del potenziale. A tale riguardo esiste una letteratura pressoch`e sconfinata, cosicch`e non ci spingeremo molto a fondo nella discussione. Il potenziale intramolecolare si
compone di due termini

Vintra ({ri }) = VB ({ri }) + VN B ({ri })

(2.144)

L indice B sta per Bonded, cos` come l indice N B sta per Non Bonded. Il potenziale VB descrive il
fatto che le molecole mantengono nell evoluzione dinamica ciascuna una propria identit`a, poich`e le
energie in gioco non possono determinare la rottura dei legami tra gli atomi. Esso `e a sua volta la
somma di tre termini

VB = V(bd) + V(bb) + V(tw)

(2.145)

Il termine V(bd) `e il potenziale sperimentato da un atomo che prova a spostarsi lungo la direzione di
un legame,

V(bd) =

1 X (bd)
Kj (dj d0j )2
2

(2.146)

dove l indice j scorre su tutti i legami della molecola, dj rappresenta la distanza tra gli atomi che
(bd)

formano il legame e d0j rappresenta la lunghezza a riposo del legame stesso; infine Kj

`e una costante

elastica fenomenologica che esprime la durezza del legame.

d0j

dj

Deformazione di una molecola lungo la direzione del jmo legame

Il termine V(bb) `e il potenziale sperimentato da un atomo che, muovendosi, deforma l angolo tra due
legami,

V(bb) =

1 X (bb)
Km (m 0m )2
2 m

(2.147)

64

Capitolo 2. Sistemi fermionici

dove l indice m scorre su tutti gli angoli formati dai legami atomici, m rappresenta l angolo mmo,
(bb)

0m rappresenta il valore a riposo dell angolo, e Km

`e una costante fenomenologica che esprime la

resistenza che la molecola oppone alla deformazione dell angolo 0m .

0m

Deformazione dell angolo m

Infine, il termine V(tw) descrive la resistenza della molecola a possibili torsioni. Esso `e parametrizzato
dalla formula

V(tw) =

1X
ckn cosn k
2

(2.148)

k,n

dove l indice k scorre su tutti i possibili punti di torsione, k `e il kmo angolo di torsione, e ckn `e
ancora una costante fenomenologica che esprime la resistenza della molecola alla torsione.

Torsione della molecola

Il potenziale VN B contiene le interazioni di Van der Waals tra atomi che appartengono alla stessa
molecola. Tipicamente non si considerano interazioni di questo tipo n`e tra atomi primi vicini n`e tra
secondi vicini, ed il potenziale VN B viene utilizzato soltanto per molecole con molti atomi (M > 5), le
quali tipicamente possiedono lunghe code che possono essere distese, contratte, ripiegate, arricciate,
grazie proprio ad interazioni del tipo di Van der Waals.
Il potenziale intermolecolare `e caratterizzato da due termini

Vinter = V(V dW ) + V(Coulomb)

(2.149)

Il termine V(V dW ) contiene le interazioni di Van der Waals tra atomi che appartengono a molecole
differenti,

V(V dW ) = 4

M1 X
M2
X
i=1 j=1


ij

ij
rij

12

ij
rij

6 
(2.150)

2.7. La Dinamica Molecolare

65

dove gli indici i e j scorrono su tutti gli atomi della prima e della seconda molecola rispettivamente,
rij = |ri rj | `e la distanza tra l imo atomo della prima molecola ed il jmo atomo della seconda
molecola, infine ij e ij sono costanti fenomenologiche che esprimono l intensit`a delle interazioni.
Il termine V(Coulomb) descrive le interazioni coulombiane tra molecole differenti, ciascuna caratterizzata
da una nube elettronica e pertanto in grado di interagire elettrostaticamente con le altre. Esistono
varie parametrizzazioni di queto termine; non ci concentreremo su nessuna di esse.
Lo scopo delle prossime pagine sar`
a descrivere in dettaglio come si procede alla costruzione numerica
della dinamica del sistema, una volta che siano stati assegnati tutti i potenziali d interazione. Cominciamo con un osservazione preliminare. Durante l evoluzione temporale, il sistema `e soggetto a moti
periodici che si svolgono con frequenze differenti, per esempio i moti vibrazionali degli atomi nelle
molecole, i moti rotazionali delle molecole, ecc. Le frequenze pi`
u veloci sono quelle di bond, ed i
tempi di oscillazione associati sono dell ordine di t1 1015 sec. Per ottenere risposte ragionevoli
dobbiamo integrare sulle frequenze pi`
u lente, che sono quelle intermolecolari. Indicheremo nel seguito
con t0 109 sec, il tempo caratteristico associato ai moti lenti. Supponiamo di avere a disposizione
un algoritmo che ad ogni passo integri le equazioni di Hamilton per un intervallo temporale t1 . Per
poter poter integrare ragionevolmente bene i moti lenti, `e necessario considerare un tempo totale
d evoluzione almeno dell ordine di t 102 t0 = 108 t1 . Questo richiederebbe lo svolgimento di 108
passi. Ciascun passo richiede circa 102 operazioni in doppia preciosione per ogni atomo. Inoltre, il
numero totale di operazioni cresce come MT2 a causa della presenza del potenziale intermolecolare.
Una simulazione ragionevole contiene almeno 104 105 atomi. In definitiva il budget computazionale
richiesto per ottenere una soluzione del problema su tempi dell ordine di t `e

budget computazionale = 102 (104 105 )2 108 = 1018 1020 operazioni

(2.151)

E chiaro che non `e possibile procedere in questo modo, poich`e il numero totale di operazioni richiesto
`e eccessivo per qualunque calcolatore. Fortunatamente esiste un algoritmo, detto Multiple Time Step,
che permette di disaccoppiare i moti veloci da quelli lenti, consentendo di integrare, con passi differenti,
gradi di libert`a che corrispondono a frequenze differenti. Descriviamo di seguito l algoritmo. Per prima
cosa osserviamo che, formalmente, la soluzione delle equazioni di Hamilton pu`o scriversi nella forma

(t) = U (t) (0)

(2.152)

66

Capitolo 2. Sistemi fermionici

dove U (t) `e una sorta di operatore d evoluzione temporale, definito dall equazione

U (t) = eiLt

X
1
( iLt )k
k!

(2.153)

k=0

iL =


MT 
X
V

r i
ri
ri pi

(2.154)

G(t0 ) = eiLt0

(2.155)

i=1

Introduciamo il propagatore elementare

in termini del quale possiamo riscrivere l operatore d evoluzione temporale come

U (t) = [G(t0 )]p0

(2.156)

dove abbiamo posto t = p0 t0 . Dunque p0 `e il numero totale dei passi che si devono effettuare per
integrare le equazioni del moto, se ciascun passo evolve la dinamica per il tempo caratteristico dei
moti lenti. A questo punto conviene suddividere l operatore differenziale iL in una parte lenta iLS e
una veloce iLF ,

iL = iLF + iLS

(2.157)

dove la parte veloce contiene il termine cinetico e i termini V(bd) e V(bb) del potenziale intramolecolare,

iLF




MT 
X
V(bd)
V(bb)

=
r i

+
ri
ri
ri
pi

(2.158)

i=1

mentre la parte lenta contiene il termine V(tw) del potenziale intramolecolare e il potenziale inter
molecolare (assumeremo che il potenziale VN B sia trascurabile)

iLS


MT 
X
V(tw)
Vinter
=
+
ri
ri
pi

(2.159)

i=1

Utilizzando la formula C.B.H. nella versione di Trotter, possiamo sviluppare il propagatore elementare
al seguente modo

2.7. La Dinamica Molecolare

67

G(t0 ) = ei(LS +LF )t0 = ei

t0
LS
2

eiLF t0 ei

t0
LS
2

+ O(t30 )

(2.160)

Consideriamo quindi il termine iLF . Possiamo separare la parte cinetica da quella potenziale, ponendo

iLF = iKc + iVF

(2.161)

dove appunto

iKc =

MT
X
i=1

r i
ri

iVF


MT 
X
V(bd)
V(bb)
=
+
ri
ri
pi

(2.162)

i=1

Servendoci di questa decomposizione, e ponendo t0 = p1 t1 , possiamo utilizzare di nuovo la formula


di Trotter e scrivere

eiLF t0 =

eiLF t1

p1


=

ei

t1
VF
2

eiKc t1 ei

t1
VF
2

p1

+ O(t31 )

(2.163)

Nel limite in cui i termini O(t30 ) e O(t31 ) che compaiono nelle equazioni (2.160) e (2.163) possano
essere trascurati, il vettore (t) evolve secondo l equazione

(t) = [G(t0 )]p0 (0) '

ei

t0
LS
2

ei

t1
VF
2

eiKc t1 ei

t1
VF
2

p1

ei

t0
LS
2

p0
(0)

(2.164)

La formula (2.164) consente di effettuare l aggiornamento dei gradi di libert`a che corrispondono ai
moti veloci tenendo fissi quelli che invece corrispondono ai moti lenti, e viceversa. Inoltre si riconosce
che per ogni passo che viene effettuato sui moti lenti, se ne effettuano p1 su quelli veloci. In questo
modo `e possibile realizzare concretamente e rigorosamente la separazione tra i moti lenti e quelli veloci.
Ricordiamo che la formula (2.164) deve essere applicata considerando che

t0 =

t
p0

t1 =

t0
t
=
p1
p0 p1

(2.165)

Sebbene la (2.164) definisca in modo chiaro la procedura di aggiornamento delle coordinate e dei
momenti delle particelle del sistema, essa risulta poco utile dal punto di vista computazionale. Perci`
o
vogliamo derivare espressioni pi`
u semplici per effettuare l aggiornamento. Anzitutto consideriamo
l operatore d evoluzione

ei(L1 +L2 )t = ei

t
L1
2

eiL2 t ei

t
L1
2

+ O(t3 )

(2.166)

68

Capitolo 2. Sistemi fermionici

dove

iL1 = F(q)

iL2 =

p
m q

(2.167)

Vogliamo applicare tale operatore su una funzione generica f (q(t), p(t)). Ci viene in aiuto la formula
elementare
d

ec dx f (x) = f (x + c)

(2.168)

Servendoci della (2.168), vogliamo applicare in successione i tre operatori che compaiono a secondo
membro della (2.166), partendo da quello pi`
u a destra. Otteniamo


t
e
F(q(t))
f (q(t), p(t)) = f q(t), p(t) +
2



t
t
t
f (q(t), p(t)) = f q(t) +
p(t), p(t) +
F q(t) +
p(t)
m
2
m
i t
L1
2

eiL2 t ei

t
L1
2

(2.169)
(2.170)

ei 2 L1 eiL2 t ei 2 L1 f (q(t), p(t)) =





t
t
t
p(t) +
F(q(t)) , p(t) +
F(q(t)) +
= f q(t) +
m
2
2



t
t
t
+
F q(t) +
p(t) +
F(q(t))
2
m
2

(2.171)

La formula (2.171) `e apparentemente complicata. Infatti, se effettuiamo l aggiornamento delle coordinate e degli impulsi secondo le relazioni


t
t
p(t) +
F(q(t))
q(t) q(t + t) = q(t) +
m
2
p(t) p(t + t) = p(t) +

t
[F (q(t)) + F(q(t + t))]
2

(2.172)
(2.173)

potremo riscrivere la (2.171) nella forma assai pi`


u semplice

ei

t
L1
2

eiL2 t ei

t
L1
2

f (q(t), p(t)) = f (q(t + t), p(t + t))

(2.174)

Le leggi di trasformazione (2.172) e (2.173), che definiscono l algoritmo di Verlet, non coincidono con
la soluzione delle equazioni di Hamilton, poich`e nell espansione C.B.H. abbiamo trascurato termini
di ordine O(t3 ). Quindi l evoluzione dinamica del sistema fatta secondo l algoritmo di Verlet `e diversa dall evoluzione newtoniana. Tuttavia le formule (2.172)(2.173) definiscono una trasformazione

2.7. La Dinamica Molecolare

69

canonica, che come tale conserva l energia e quindi consente l esplorazione dello spazio delle fasi
nell ensemble microcanonico. Pi`
u precisamente, scriviamo la trasformazione nella forma

(qi , pi ) (qi (t), pi (t))

(Qi , Pi ) (qi (t + t), pi (t + t))

(2.175)

dove abbiamo reintrodotto l indice i che numera le particelle del sistema. Non `e difficile verificare che
le variabili (Qi , Pi ) soddisfano le parentesi di Poisson canoniche

{Qi , Pj } = ij

(2.176)

{Qi , Qj } = 0

(2.177)

{Pi , Pj } = 0

(2.178)

Infatti, effettuando esplicitamente le derivate, otteniamo


Qi
t2 Fi
= ij +
qj
2m qj

(2.179)

t
Qi
= ij
pj
m

(2.180)

Pi
t Fi (q)
t X Fi (Q) Qk
=
+
qj
2 qj
2
Qk pj

(2.181)

Pi
t X Fi (Q) Qk
= ij +
pj
2
Qk pj

(2.182)

con le quali `e possibile verificare le (2.176)(2.178). La media di un osservabile fisica f pu`o quindi
essere calcolata lungo la traiettoria del sistema,

1
hf i = lim
T T

f ({qi (t)}, {pi (t)}) dt


0

lim

N
1 X
(n)
(n)
f ({qi }, {pi })
N

(2.183)

n=1

70

Capitolo 2. Sistemi fermionici

Capitolo 3

Metodi stocastici
Nella terza parte del corso di Teoria dei Sistemi a Molti Corpi verranno discusse alcune delle tecniche
pi`
u usate per la simulazione numerica di sistemi a molti gradi di libert`a. L obbiettivo finale di ogni
approccio numerico `e il calcolo di valori medi del tipo:
R
hOi =

D[]O[]eH[]
R
D[]eH[]

(3.1)

Nella (3.1) le variabili rappresentano i gradi di libert`a del sistema. Inoltre, nel caso in cui si abbia
a che fare con un sistema di Meccanica Statistica, deve essere identificato con (kB T )1 e H[] con
l hamiltoniana del sistema, mentre in Teoria dei Campi deve essere identificato con g02 e H[] con
l azione della teoria. Il calcolo dell integrale (3.1) presenta i seguenti problemi:
a) L integrale funzionale equivale ad un infinit`a non numerabile di integrali ordinari. Questo
problema pu`
o essere affrontato definendo opportunamente la teoria su un reticolo di volume
finito e poi prendendo il limite di volume infinito. Il procedimento di reticolarizzazione ha un
significato fisico in Teoria dei Campi, poich`e esso pone un cut-off ultravioletto sulle frequenze di
oscillazione dei campi, e quindi di fatto regolarizza la teoria.
b) I gradi di libert`
a elementari, che vivono su un punto dello spazio fisico (o tra due punti adiacenti,
a seconda del sistema) sono parametrizzati da un certo numero di variabili reali, di modo che
l espressione analitica di H[] `e in generale non triviale.
c) In Meccanica Statistica H `e l integrale di una densit`a in d dimensioni e d `e il numero di
dimensioni spaziali, mentre in Teoria dei Campi H `e l integrale di una densit`a (lagrangiana) in

71

72

Capitolo 3. Metodi stocastici


d + 1 dimensioni.

La complessit`a del sistema e la potenza computazionale a disposizione determinano la scelta del


volume del reticolo. Realisticamente nel caso del modello di Ising 2dimensionale si considerano
reticoli quadrati di dimensioni (256)2 , mentre nel caso delle teorie di campo si considerano reticoli (36)4 o (48)4 . In tale modo si arriva a gestire complessivamente un numero di variabili reali
dell ordine 104 106 .
Si supponga di aver definito la teoria sul reticolo, e di voler calcolare la (3.1) sommando su tutte le
e su questa dovranno
configurazioni di campo. Si dovr`
a dunque assegnare una data configurazione {}
e O[].
Tuttavia, poich`e in generale H[]
assume valori molto grandi in unit`
essere calcolati H[]
a di
all integrale funzionale `e trascurabile.
1/, il contributo a finito di quasi tutte le configurazioni {}
Quindi nel calcolo della (3.1) non `e possibile procedere per via diretta. Nei prossimi paragrafi verranno
discusse alcune tecniche per il calcolo della (3.1).

3.1

L algoritmo HeatBath

Il primo algoritmo che si vuole descrivere `e noto con il nome di bagno termico. Esso `e affatto accademico
e funziona solo a condizione che il numero dei gradi di libert`a del sistema sia molto piccolo. Viene
discusso di seguito il caso con un solo grado di libert`a. Si immagini di voler calcolare
Z
hF i =

dx F (x)P (x)

(3.2)

dove
b

dx P (x) = 1

(3.3)

Qui la variabile x rappresenta l unico grado di libert`a del sistema. Essa `e distribuita secondo la
densit`a di probabilit`
a P , ed F `e un osservabile fisica, di cui si vuole calcolare la media. A tale scopo,
si definisce una nuova variabile, y, mediante
Z
y=
a

in modo tale che

dx0 P (x0 ) f (x)

(3.4)

3.2. Il metodo Monte Carlo

73

0 se x = a
f (x) =
1 se x = b

(3.5)

dy = P (x)dx

(3.6)

Con le definizioni poste, risulta

La (3.4) `e invertibile e si pu`


o effettuare il cambiamento di variabile x = f 1 (y) sotto il segno di
integrale, ottenendo per il valor medio di F l espressione
Z
hF i =

dy F (f 1 (y))

(3.7)

L integrale (3.7) `e pi`


u semplice da calcolare rispetto a (3.2), per il fatto che tutti i valori della variabile
di integrazione contribuiscono ugualmente al risultato dell integrale. Il problema con questo approccio
`e che per poter usare l algoritmo si deve poter invertire la funzione y = f (x), ci`o che in generale risulta
difficile. Nel caso di pi`
u variabili l algoritmo `e applicato in successione a ciascuna di esse, tenendo le
2

altre fisse.

3.2

Il metodo Monte Carlo

Una tecnica pi`


u efficace per il calcolo della (3.1) nel caso di sistemi con molti gradi di libert`a `e l importance sampling, che consiste nell approssimare la somma sulle configurazioni di campo, restringendosi
a configurazioni a priori distribuite con il peso di Boltzmann. Per essere pi`
u precisi, supponiamo di
essere in grado di generare configurazioni di campo

C1 = {1 (n, )}

C2 = {2 (n, )} ,

etc.

(3.8)

in modo tale che la probabilit`


a di generare una data configurazione sia
eH[C]
H[C 0 ]
{C 0 } e

P[C] = P

(3.9)

Nella (3.8), con riferimento ad una teoria di campo, abbiamo assunto che una configurazione di campo
sia assegnata, una volta che sia dato il valore dei campi in corrispondenza dei punti del reticolo

74

Capitolo 3. Metodi stocastici

e, se necessario, dei links che uniscono coppie di punti primi vicini. Data una sequenza di siffatte
configurazioni, la somma (3.1) pu`
o essere scritta nella forma

hOi =

lim

Nconf

1
Nconf

O[C]

(3.10)

{C}

Ovviamente in pratica hOi sar`


a approssimato da una somma finita di configurazioni: l approssimazione sar`a tanto migliore, quanto pi`
u grande sar`a il numero di configurazioni generate. Con
il metodo Monte Carlo le configurazioni di campo vengono generate stocasticamente attraverso la
costruzione di una catena di Markov.

3.2.1

Catene di Markov

Una catena (o processo) di Markov `e una successione {Ci }, i = 1, 2, . . . di configurazioni del sistema
generate una dopo l altra con probabilit`
a di transizione

Pij = P (Ci Cj )

(3.11)

Pij rappresenta la probabilit`


a di passare, in un singolo passo, dalla configurazione Ci alla configurazione
Cj . Lo stato del sistema ad ogni passo `e una variabile casuale, la cui distribuzione dipende solo dallo
stato che lo precede nella sequenza che `e stata generata (vale per le catene di Markov il motto che
recita Il futuro dipende dal passato solo attraverso il presente). Seguono alcune utili definizioni.
Definizione 3.1 (Catena di Markov irriducibile)
Una catena di Markov `e detta irriducibile se, data una qualunque configurazione Ci , esiste una probabilit`a finita, non nulla, di raggiungere una qualunque altra configurazione Cj dopo un opportuno
numero di passi. In termini matematici

i, j

tale che

(N )

Pij

Pii1 Pi1 i2 . . . PiN 1 j 6= 0

(3.12)

{ik }

2
Definizione 3.2 (Catena di Markov aperiodica)
Una catena di Markov `e detta aperiodica se, data una qualunque configurazione Ci , la probabilit`
a di
ritornare ad essa dopo N passi `e non nulla per ogni N :

3.2. Il metodo Monte Carlo

75

e N

(N )

Pii

6= 0

(3.13)
2

Definizione 3.3 (Stato positivo)


Uno stato (cio`e l insieme delle configurazioni {Ci }) `e detto positivo se il suo tempo medio di ripetizione
(n)
`e finito. Pi`
u precisamente, data una configurazione Ci , sia Pii la probabilit`a di andare da Ci a Ci

in n passi (senza passare per Ci in nessun passo intermedio); si definisce tempo di ripetizione della
configurazione Ci nello stato {Ci } la quantit`a

i =

(n)
n Pii

(3.14)

n=1

Lo stato `e detto positivo se, per ogni i, risulta i < .

Le tre definizioni introdotte sono necessarie per enunciare un teorema molto importante, che non
dimostreremo.
Teorema 3.1 (delle catene di Markov)
Sia data una catena di Markov irriducibile, aperiodica e con stato positivo. Si ponga inoltre


X
(N )
j = lim Pij =
Pii1 Pi1 i2 . . . PiN 1 j
N

(3.15)

{ik }

Valgono le seguenti affermazioni:


a) il limite (3.15) esiste.
b) esso non dipende dallo stato iniziale Ci , e quindi dipende solo da quello finale Cj .
c) risulta
j : j > 0

j = 1

(3.16)

d) ed infine
X

j Pji = i

(3.17)

76

Capitolo 3. Metodi stocastici

L importanza di questo teorema sta nel fatto che, interpretando i numeri i come probabilit`
a,
l insieme {i } `e lasciato invariante, se i i sono aggioranti con le probabilit`a Pij . Ci`o significa
che nel limite N il sistema raggiunge l equilibrio, e che il numero i rappresenta la probabilit`
a
definitiva, stazionaria, di trovare la configurazione Ci nello stato.

L obbiettivo del metodo Monte Carlo `e trovare un algoritmo che permetta di generare una catena di
Markov con probabilit`
a all equilibrio data dalla formula (3.9). A tale scopo risulta utile introdurre
una condizione, detta Principio del bilancio dettagliato, che si rivela cruciale nella costruzione di una
tale catena di Markov.
Definizione 3.4 (Bilancio dettagliato)
Una catena di Markov {Ci } soddisfa il principio del bilancio dettagliato, se essa soddisfa la relazione

eH[C] P (C C 0 ) = eH[C ] P (C 0 C)

(3.18)
2

Non `e difficile dimostrare che il principio del bilancio dettagliato `e una condizione sufficiente affinch`e la
catena di Markov soddisfi la (3.17) con probabilit`a stazionaria data dalla (3.9). In effetti, supponiamo
che la (3.18) sia soddisfatta. Sommando ambo i membri su C 0 , si ottiene

eH[C] P (C C 0 ) =

{C 0 }

eH[C ] P (C 0 C)

(3.19)

{C 0 }

Da questa equazione, sfruttando la completezza delle probabilit`a di transizione, cio`e

P (C C 0 ) = 1

(3.20)

{C 0 }

segue

eH[C] =

eH[C ] P (C 0 C)

(3.21)

{C 0 }

Dividendo ambo i membri della (3.21) per


dettagliato, la relazione

{C 00 } e

H[C 00 ] ,

otteniamo, come conseguenza del bilancio

3.2. Il metodo Monte Carlo

77

[C] =

[C 0 ]P (C 0 C)

(3.22)

{C 0 }

con l identificazione
eH[C]
H[C 0 ]
{C 0 } e

(3.23)

[C] = P

Per comprendere meglio questa costruzione, introduciamo la quantit`a

(N )


X

(N
)
P [C] [C]
=

(3.24)

{C}

dove

P (N ) [C] =

P (C0 C1 )P (C1 C2 ) . . . P (CN C)

(3.25)

{Ci }

e la notazione `e tale da omettere la dipendenza di P (N ) da C0 . Vogliamo mostrare che, in virt`


u del
bilancio dettagliato, vale la relazione

(N +1) < (N )

(3.26)

Da questa diseguaglianza segue che, nel limite N , la catena di Markov produce configurazioni
distribuite secondo il peso di Boltzmann. Per dimostrare la (3.26) cominciamo con l osservare che,
per definizione, risulta

P (N +1) [C] =

P (N ) [C 0 ]P (C 0 C)

(3.27)

C0

e dunque

(N +1)



X X

(N )
0
0


=
P
[C
]P
(C

C)

[C]


C

C0

Usando la (3.22) e di nuovo la completezza delle Pij , possiamo scrivere

(N +1)


X X
X

(N )
0
0
0
0


P
[C
]P
(C

C)

[C
]P
(C

C)


C

C0

C0

(3.28)

78

Capitolo 3. Metodi stocastici




X X

(N )
0
0
0

=
P [C ] [C ] P (C C)

0
C
C

X

(N
)
0
0
P [C ] [C ] P (C 0 C) =



C,C 0


X

(N
)
0
0
P [C ] [C ] = (N )
=

(3.29)

C0

E importante osservare che nella precedente catena di disuguaglianze vale il segno di uguale solo a
condizione che, al variare di C 0 la quantita P (N ) [C 0 ] [C 0 ] mantenga lo stesso segno, cio`e

C0 :

P (N ) [C 0 ] < [C 0 ]

oppure

P (N ) [C 0 ] > [C 0 ]

(3.30)

Del resto, se vale una o l altra delle (3.30), sommando su C 0 , si ottiene

1 =

P (N ) [C 0 ]

C0

[C 0 ] = 1

(3.31)

C0

il che `e assurdo. Ne segue che il segno di uguale non pu`o valere, e di qui segue la (3.26).

Osservazione Supponiamo di fissare  > 0 e sufficientemente piccolo. La (3.26) implica l esistenza


di un N0 tale che

N N0 :

(N ) < 

(3.32)

Si deve osservare, tuttavia che N0 = N0 () `e una funzione di . Tipicamente quello che succede `e
che in prossimit`
a delle transizioni di fase, cio`e per ' c (dove c `e la temperatura di transizione),
N0 () tenda a crescere man mano che si avvicina a c , in modo tale che il rilassamento della catena
di Markov all equilibrio diventa via via sempre pi`
u lento. Questo fenomeno `e noto come critical
slowingdown.

3.3

L algoritmo di Metropolis

La condizione del bilancio dettagliato non fissa la probabilit`a di transizione. In questo senso essa `e
un principio, che deve essere usato come una condizione da imporre nella costruzione di catene di
Markov. L algoritmo di Metropolis `e una ricetta esplicita per costruire una catena di Markov che
soddisfi il principio del bilancio dettagliato. Descriviamo schematicamente l algoritmo.

3.3. L algoritmo di Metropolis

79

a) Data una configurazione C, si propone una nuova configurazione C 0 con probabilit`a P0 (C


C 0 ). Questo significa che la nuova configurazione non `e costruita necessariamente in modo
deterministico a partire dalla vecchia, ma viene costruita con un certo algoritmo. Ammettiamo,
inoltre e per il momento, che la probabilit`a P0 soddisfi la condizione di microreversibilit`
a
P0 (C C 0 ) = P0 (C 0 C)

(3.33)

Questa condizione verr`


a successivamente rilassata.
b) Si sottopone la configurazione C 0 al seguente test (detto di acceptreject):
b.1) se l energia diminuisce:
H[C 0 ] < H[C]

eH[C ] > eH[C]

(3.34)

allora la configurazione C 0 viene accettata con certezza, e l algoritmo riparte da a), con C 0
come nuova configurazione.
b.2) se l energia aumenta:
H[C 0 ] > H[C]

eH[C ] < eH[C]

(3.35)

allora la configurazione C 0 viene accettata con probabilit`a


0

eH[C ]
0
p = H[C] = e{H[C ]
e

H[C]}

= eH

(3.36)

(si osservi che in virt`


u della (3.35) risulta 0 < p < 1, cosicch`e p pu`o essere interpretata
come una probabilit`
a.) A seconda dell esito del test, l algoritmo riparte da a) con C o C 0
come nuova configurazione di partenza.
Conviene essere pi`
u precisi sul test b.2). Si riconosce facilmente che esso `e equivalente al seguente
b.2) se l energia aumenta:
H[C 0 ] > H[C]

eH[C ] < eH[C]

(3.37)

si estrae un numero random r [0, 1] con distribuzione piatta. La configurazione C 0 viene


accettata se risulta
0

r < e{H[C ]

H[C]}

(3.38)

In tale caso l algoritmo riparte da a) con C 0 come nuova configurazione. In caso contrario C 0
viene respinta e l algoritmo riparte da a) con C come configurazione dalla quale ripartire.

80

Capitolo 3. Metodi stocastici

Questo `e l algoritmo di Metropolis. Mostriamo ora che esso soddisfa il principio del bilancio dettagliato. La probabilit`
a di transizione complessiva dalla configurazione Ci alla configurazione Cj `e
data dalla relazione

0 
eH[C ]
P (C C ) = P0 (C C ) min 1, H[C]
e
0

(3.39)

Chiaramente nella (3.39) il primo fattore rappresenta la probabilit`a che la configurazione C 0 venga
proposta, mentre il secondo rappresenta la probabilit`a che essa venga accettata. Moltiplicando ambo
i membri della (3.39) per eH[C] , si ottiene

H[C]



0 H[C]
0 H[C 0 ]
P (C C ) = min P0 (C C )e
, P0 (C C )e
0

(3.40)

Sfruttando la microreversibilit`
a di P0 , la precedente pu`o scriversi nella forma

H[C]



0
H[C]
0
H[C 0 ]
P (C C ) = min P0 (C C)e
, P0 (C C)e
=


0
H[C 0 ]
0
H[C]
= min P0 (C C)e
, P0 (C C)e


eH[C]
H[C 0 ]
0
= e
P0 (C C) min 1, H[C 0 ]
e
0

= eH[C ] P (C 0 C)

(3.41)

La (3.41) `e esattamente la condizione del bilancio dettagliato. Nel caso in cui la probabilit`a P0 non
goda della microreversibilit`
a, tutto l argomento pu`o essere ripetuto modificando leggermente il test
di acceptreject. In effetti al posto della (3.36) si dovr`a scrivere
0

P0 (C 0 C) eH[C ]
p=
P0 (C C 0 ) eH[C]

(3.42)

In questo caso la probabilit`


a di transizione complessiva `e espressa dalla formula

0 
P0 (C 0 C) eH[C ]
P (C C ) = P0 (C C ) min 1,
P0 (C C 0 ) eH[C]
0

(3.43)

Osservazione. Il significato fisico dell algoritmo di Metropolis `e il seguente. Poich`e si vogliono


generare configurazioni distribuite secondo il peso di Boltzmann, `e necessario rimanere non lontano
dal minimo di H[C], cosicch`e il fattore di Boltzmann si trovi vicino al massimo assoluto. In effetti,

3.4. L algoritmo di Langevin

81

come abbiamo visto, l algoritmo accetta sempre la nuova configurazione nel caso in cui questa produca
una diminuzione di energia. Tuttavia `e chiaro che nel caso in cui la transizione produca un aumento
di energia, non `e possibile rifiutare sempre, perch`e altrimenti la catena di Markov collasserebbe sulla
configurazione che minimizza la hamiltoniana. Dunque, di tanto in tanto `e necessario accettare anche
configurazioni che corrispondono ad aumentare l energia, producendo cos` le necessarie fluttuazioni
2

termiche (quantistiche) della teoria.

Osservazione. L algoritmo di Metropolis `e estremamente efficiente nel caso in cui la hamiltoniana


H[C] contenga soltanto interazioni locali tra i vari gradi di libert`a del sistema. Nel caso in cui H[C] sia
la somma di termini non locali, cio`e interazioni a lungo range, l algoritmo produce risultati inadeguati,
e deve essere rimpiazzato da uno pi`
u robusto (per esmpio HybridMonteCarlo).

3.4

L algoritmo di Langevin

L algoritmo di Langevin `e particolarmente efficiente quando la hamiltoniana del sistema contiene


interazioni non locali e per superare certe difficolt`a che si incontrano nell esplorazione dello spazio
delle fasi del sistema. Cos` come abbiamo fatto per l algoritmo di Metropolis, dapprima descriviamo
schematicamente l algoritmo, e poi mostriamo che esso soddisfa il principio del bilancio dettagliato.
La seguente presentazione non coincide con la prima storicamente proposta.
Nota. Nel paragrafo precedente abbiamo indicato con C la generica configurazione del sistema.
Assegnare una configurazione significa fissare tutti i gradi di libert`a del sistema. Nel capitolo 1 abbiamo
indicato i gradi di libert`
a con (qi , pi ) e la hamiltoniana del sistema con H[q]. In linea di principio
H dovrebbe essere considerata come funzione di {qi } e {pi }. Tuttavia in seguito a discretizzazione `e
possibile esprimere pi come funzione delle {qi } e quindi H come funzione delle sole {qi }. Per esempio,
consideriamo la teoria 4 . L azione della teoria `e
1
1

S = ( )( ) m2 2 4
2
2
4!

(3.44)

La discretizzazione della teoria richiede la sostituzione di ogni derivata con la corrispondente differenza
finita

(x + a
) (x)
a

(3.45)

82

Capitolo 3. Metodi stocastici

In seguito a questa operazione l azione diventa un funzionale delle sole {(x)} e non dei corrispondenti
2

momenti coniugati.
L algoritmo di Langevin procede nel seguente modo:

a) si introduce un tempo fittizio n = L n , n = 0, 1, 2, . . . (detto tempo di simulazione o tempo


macchina). L (ovviamente L sta per Langevin) `e un parametro piccolo da interpretare come
unit`a di tempomacchina.
(0)

b) si fissa una condizione iniziale qi (0 ) = qi .


c) si estrae un insieme di variabili stocastiche {i (n )} distribuite gaussianamente, cio`e secondo la
formula
P [i (n )] =

Y r
i

L
4



L X 2
exp
i (n )
4

(3.46)

d) si aggiornano i gradi di libert`


a del sistema secondo la formula (equazione di Langevin)


qi (n+1 ) = qi (n ) + L



H[q]
+ i (n )

qi {qi }={qi (n )}

(3.47)

Nel seguito, allo scopo di alleggerire la notazione e laddove ci`o non ingeneri confusione, scriviamo

H[q]
H[q]
=
qi (n )
qi {qi }={qi (n )}

(3.48)

Interpretando il parametro L come un tempo in virt`


u di a), l equazione di Langevin pu`o scriversi
sotto forma di equazione differenziale

qi
H
=
+ i ( )

qi ( )

(3.49)

Osservazione. La ragione degli apici sta nel fatto che l evoluzione delle qi ( ) `e condizionata dalla
presenza di un termine stocastico, cosicch`e la (3.49) non pu`o essere considerata un equazione differenziale ordinaria. La (3.49) `e spesso indicata in letteratura come equazione di Langevin.
Vogliamo chiarire in che senso l algoritmo di Langevin (eq. (3.47)) soddisfa il principio del bilancio
dettagliato. A tale scopo facciamo un osservazione preliminare. Le variabili stocastiche i (n ) sono
tutte scorrelate, in quanto, in virt`
u della (3.46), esse soddisfano la relazione

3.4. L algoritmo di Langevin

83

hi (n )j (m )i = ij nm

2
L

(3.50)

Esse hanno l inconveniente che nella (3.50) compare esplicitamente L , e nel limite L 0 il loro
scarto quadratico medio diverge. Conviene perci`o effettuare un cambiamento di variabile, ponendo
r
i (n ) =

L
i (n )
2

(3.51)

Le nuove variabili i (n ) sono ancora stocastiche e disitribuite gaussianamente secondo la formula

P [i (n )] =


Y 1
1 2
e 2 i (n )
2
i

(3.52)

dalla quale segue inoltre

hi (n )j (m )i = ij nm

(3.53)

In termini delle i l equazione di aggiornamento dei gradi di libert`a assume la forma

qi (n+1 ) = qi (n ) 2L

H[q]
+ 2L i (n )
2 qi (n )

Si noti che a secondo membro il termine stocastico `e moltiplicato per un fattore

(3.54)

2L , mentre il

termine deterministico `e moltiplicato per un fattore 2L . Questo caratteristica dell algoritmo di
Langevin risulta assolutamente cruciale nella verifica del principio del bilancio dettagliato. Per poter
effettuare tale verifica, si osservi che l aggiornamento dei gradi di libert`a `e di fatto una transizione

(qi , n ) (qi0 , n+1 )

(3.55)

che avviene con una certa probabilit`


a. Quest ultima coincide con la probabilit`a di realizzare la
configurazione {i (n )}. Infatti dalla (3.54) segue


P (qi , n ) (qi0 , n+1 ) = P [i (n )]

(3.56)

Risolvendo la (3.54) rispetto ad i (n ) e sostituendo nella precedente, otteniamo




 0

qi qi
H[q]
0
P (qi , n ) (qi , n+1 ) = P
+ 2L
2 qi
2L

(3.57)

84

Capitolo 3. Metodi stocastici

Usiamo quindi la (3.52) per calcolare il secondo membro della (3.57):



 



H[q] 2
1 X qi0 qi
0

+ 2L
P (qi , n ) (qi , n+1 ) = N exp
2
2 qi
2L

(3.58)

dove N `e un inessenziale fattore di normalizzazione. Sfruttando la (3.58) calcoliamo il rapporto



2 

0
H[q]

1 P qi qi
exp 2 i 2 + 2 2L qi
L
P ((qi , n ) (qi0 , n+1 ))
=


2  =
0
P ((qi , n ) (qi , n+1 ))
0
H[q]

1 P qi qi
exp 2 i 2 + 2 2L q0
L





 


H
L 2 X H 2
H 2
X 0
H
+ 0
+
exp
(qi qi )

2
qi
qi
2
qi
qi0
i

(3.59)

A questo punto si osservi che, nell ipotesi L  1 e in virt`


u dell equazione di Langevin, risulta

qi0 = qi + O( L ), cosicch`e il secondo termine a secondo membro `e un infinitesimo rispetto al primo.


Ne segue che



P ((qi , n ) (qi0 , n+1 ))
X 0
H
H
' exp
+ 0
(qi qi )
P ((qi0 , n ) (qi , n+1 ))
2
qi
qi

(3.60)

Inoltre, all ordine considerato in L possiamo confondere H[q]/qi0 con H[q]/qi e scrivere


X
P ((qi , n ) (qi0 , n+1 ))
H
0
' exp
(qi qi )
P ((qi0 , n ) (qi , n+1 ))
q

(3.61)

Poich`e

H[q 0 ] = H[q] +

X H
(q 0 qi ) + O(L )
qi i

(3.62)

dalla (3.61) segue la relazione




P ((qi , n ) (qi0 , n+1 ))
0
' exp {H[q ] H[q]}
P ((qi0 , n ) (qi , n+1 ))

(3.63)

che diviene esatta nel limite L 0. Dunque nel limite L 0 l algoritmo di Langevin soddisfa il
principio del bilancio dettagliato.
Osservazione. Il principale vantaggio dell algoritmo di Langevin rispetto a quello di Metropolis `e
costituito dal fatto che esso non prevede nessun test di accept-reject. Questo significa che la configurazione del sistema non rimane mai ferma nello spazio delle fasi. Inoltre l algoritmo di Langevin

3.5. L approccio stocastico e l equazione di FokkerPlanck

85

funziona anche per azioni non locali. Per`


o esso prevede una procedura di limite, L 0, che comporta

alcuni svantaggi. Il primo `e che in tale limite q 0 = q + O( L ) e quindi, per L molto piccolo, il sistema
si muove molto poco nello spazio delle fasi e al limite tende a rimanere fermo. Il secondo svantaggio `e
che dal punto di vista computazionale tale limite pu`o essere realizzato solo ripetendo la dinamica pi`
u
volte (con conseguente perdita di tempo) con valori di L via via pi`
u piccoli e quindi estrapolando i
risultati a L = 0. Si potrebbe procedere diversamente, effettuando cio`e la simulazione una sola volta,
durante la quale il parametro L viene mandato a zero molto lentamente.

3.5

L approccio stocastico e l equazione di FokkerPlanck

L algoritmo di Langevin deriva dallo studio del moto browniano in un senso che intendiamo chiarire in
questo paragrafo. Consideriamo il moto di una particella che si muove in un fluido viscoso in presenza
di una forza esterna. Esso `e descritto dall equazione fenomenologica

x i (t) =

1 V
+ bi (t)
xi

(3.64)

In questa formula xi rappresenta una variabile dinamica associata all imo grado di libert`a del sistema, V una forza deterministica esterna (per es. un gradiente termico), 1 un coefficiente di
attrito, ed infine bi una forza impulsiva casuale dovuta agli urti con le particelle del liquido viscoso.
Caratterizziamo quest ultima quantit`
a richiedendo che

bi (t) = 0

bi (t1 )bj (t2 ) = 2A ij (t1 t2 )

(3.65)

Il simbolo sta ad indicare il valore medio d ensemble, cio`e la media sulle diverse traiettorie della
particella. In particolare si osservi che la seconda di (3.65) significa che la forza casuale `e scorrelata a
tempi diversi e per i diversi gradi di libert`a del sistema. Richiediamo infine che tutti i momenti pi`
u
elevati siano nulli, cio`e

bi1 (t1 )bi2 (t2 ) . . . bin (tn ) = 0

(3.66)

In questo modo le variabili bi (t) sono distribuite gaussianamente con varianza 2A, cio`e secondo la
formula

86

Capitolo 3. Metodi stocastici



Y Y

Z 2
1X
dbi (t)
bi (t)

exp
dP [b] =
dt
2
2A
4A
t
i
i

(3.67)

Non `e difficile convincersi che l equazione (3.64) somiglia molto all equazione di Langevin. Infatti,
supponiamo che gli urti stocastici con le particelle del fluido viscoso avvengano a tempi discreti tn =  n,
rimpiazziamo nella (3.64) x i (t) con la corrispondente differenza finita (destra) e bi (t) con il suo valore
medio nel tempo  = tn+1 tn :

Z tn+1
1 V
bi ( )d
xi (tn+1 ) = xi (tn ) 
+
xi {xi }={xi (tn )}
tn

(3.68)

Poniamo quindi
Z

Bi (tn )

tn+1

bi ( )d

(3.69)

tn

Talvolta in letteratura la (3.68) si trova scritta in forma differenziale

dxi =

1 V
dt + dBi (t)
xi

(3.70)

e l evoluzione (3.70), condizionata dalla presenza di un termine stocastico, `e detta un processo di


Wiener. Per poter risolvere la (3.68) `e necesario introdurre una condizione iniziale

xi (t0 ) = x0i

(3.71)

Consideriamo ora la quantit`


a Bi (t). Risulta

Bi (t)Bj (t)

t+

=
t

Z
bi ( )d
Z t+

2A ij

bj

( 0 )d 0

Z
=

t+

t+

Z
d

Z
d

La (3.72) suggerisce che Bi (t)

t+

t+

d 0 bi ( )bj ( 0 ) =

d 0 ( 0 ) = 2A  ij

(3.72)

 e quindi la (3.68) `e veramente un equazione del tipo di Langevin,

in cui l evoluzione del sistema `e governata da una forza deterministica di ordine  e da una stocastica

di ordine .
2
A questo punto cogliamo l occasione per mostrare in che modo l approccio stocastico conduca alla
equazione di FokkerPlanck. Supponiamo di assegnare una sequenza di configurazioni {bi (tn )}, una

3.5. L approccio stocastico e l equazione di FokkerPlanck

87

per ogni tempo tn = n . Sia xb (tn ) la soluzione dell equazione (3.68) associata alla particolare
sequenza generata. Sia inoltre g(x) un osservabile fisica. Dal punto di vista sperimentale ci`o che
possiamo misurare `e il valore medio di g(x) sulle diverse traiettorie del sistema, cio`e sulle diverse
sequenze {bi (tn )} che abbiamo generato. Definiamo

g(xb (t))

dP [b] g(xb (t))

(3.73)

Allo scopo di calcolare la (3.73) introduciamo una distribuzione di probabilit`a P(x, t) definita imponendo che valga l equazione

g(xb (t))

Z Y


dxi

P(x, t)g(x)

(3.74)

La funzione P(x, t) pu`


o dunque essere interpretata come la probabilit`a che al tempo t il sistema si
trovi nella configurazione x. Infatti da un confronto tra (3.73) e (3.74) si ricava immediatamente
Z
P(x, t) =

dP [b]

(xi xbi (t))

(3.75)

ci`o che leggittima la precedente interpretazione.


Osservazione. Analogamente a P(x, t) `e possibile introdurre delle distribuzioni di probabilit`a pi`
u
complicate. Per esempio, supponiamo che G(x, y) sia funzione della configurazione x {xi } e della
configurazione y {yi }. Il valore osservato di G `e espresso dalla relazione

G(xb (t

b
1 ), x (t2 ))

Z
=

dP [b] G(xb (t1 ), xb (t2 ))

(3.76)

Introduciamo la probabilit`
a P(x, t1 ; y, t2 ) che il sistema si trovi in x al tempo t1 e in y al tempo t2 .
Allora, con argomento analogo al precedente, si trova
Z
P(x, t1 ; y, t2 ) =

dP [b]

Y
i

(xi xbi (t1 ))

(yj xbj (t2 ))

(3.77)

2
In generale non `e possibile calcolare analiticamente le probabilit`a P. Eccetto nel caso libero ,
cio`e in assenza di forze esterne. In questo caso la dinamica del sistema `e governata esclusivamente dal
termine stocastico ed il moto del sistema `e detto random walk. La traiettoria xbi (t) `e espressa dalla
relazione

88

Capitolo 3. Metodi stocastici

xbi (t)

= x0i +

bi ( )d

(3.78)

e la (3.75) assume la forma



 Y 

Z Y Y
Z
Z t
dbi (t)
1 X b2i (t)

exp
Pf ree (x, t) =
dt
bi ( )d
(3.79)
xi x0i
2
2A
4A
0
t
i
i
i
Un modo possibile per calcolare l integrale (3.79) `e quello di usare la rappresentazione di Fourier per
la delta di Dirac
Z
(x) =

dk ikx
e
2

(3.80)

Sostituendo la (3.80) nella (3.79), integrando prima sulle variabili bi e poi sulle variabili di Fourier ki
(ne avremo una per ogni grado di libert`
a del sistema), si perviene facilmente al risultato

Pf ree (x, t) =

Y
i



(xi x0i )2
1

exp
4At
4At

(3.81)

Riconosciamo nell espressione precedente il nucleo del calore (heatkernel). Usando la (3.81) `e possibile
calcolare la distanza quadratica media percorsa in un random walk. Essa `e data da
Z

h(xi (t) x0i ) i =

dx Pf ree (x, t)(xi x0i )2 = 2A t

Questo `e un risultato ben noto: la distanza media percorsa in un random walk cresce come

(3.82)

t.

Osservazione. Nel caso libero (assenza di forza deterministica), `e possibile calcolare tutte le distribuzioni P. Riportiamo di seguito l espressione analitica di quella a due punti

Pf ree (x, t1 ; y, t2 )

Y
i



1
1
exp
(xi x0i )2 t2 +
2
4AT
4AT


+ (yi y0i ) t1 + 2(xi x0i )(yi y0i ) min(t1 , t2 )
2

dove T 2 = t1 t2 [min(t1 , t2 )]2 .

(3.83)
2

Abbiamo gi`a detto che in generale non `e possibile calcolare analiticamente le P. Tuttavia ci si pu`
o
chiedere se sia possibile trovare un equazione differenziale che esse debbano soddisfare. Nel caso

3.6. Soluzione dell equazione di FokkerPlanck

89

libero, derivando la (3.81) membro a membro, `e facile verificare che la Pf ree (x, t) soddisfa l equazione
del calore
X 2 Pf ree
Pf ree
= A
t
x2i

(3.84)

con

Pf ree (x, 0) =

(xi x0i )

(3.85)

Esiste un altra situazione estrema, dove `e possibile derivare un equazione differenziale per la P(x, t),
ovvero quando non sia presente il termine stocastico. In questo caso l equazione

x i (t) =

1 V
xi

(3.86)

`e un equazione differenziale deterministica e la Pn.s (x, t) (n.s. sta per non stocastica) rappresenta
la densit`a nello spazio delle fasi nella configurazione x al tempo t . Essa deve perci`o obbedire all
equazione di continuit`
a


Pn.s.
1
V
=
Pn.s.
t
xi
xi

(3.87)

Nel caso in cui l equazione del moto browniano contenga sia la forza deterministica che quella stocastica, assumeremo che la P(x, t) soddisfi un equazione che `e la somma delle due precedenti

X  1  V 
P
2P
=
P + A 2
t
xi xi
xi
i

(3.88)

L equazione precedente `e nota come equazione di FokkerPlanck. E chiaro che l argomento che
abbiamo dato non costituisce una derivazione rigorosa, ma `e abbastanza ragionevole.

3.6

Soluzione dell equazione di FokkerPlanck

L equazione di FokkerPlanck pu`


o essere utilizzata per ricavare il minimo assoluto di una data funzione. Per capire come questo sia possibile, studiamo l evoluzione temporale della sua soluzione.
Anzitutto un osservazione preliminare. Poniamo

90

Capitolo 3. Metodi stocastici

P0 (x) = N eV (x)

1
A

(3.89)

dove N `e un coefficiente di normalizzazione. E facile verificare che la funzione P0 (x) annulla il secondo
membro dell equazione (3.88), cio`e


X 1  V
2 (eV (x) )
V (x)
e
+A
= 0
xi xi
x2i

(3.90)

Poich`e P0 (x) non dipende dal tempo, essa annulla anche il primo membro dell equazione e dunque `e
una soluzione particolare dell equazione di FokkerPlanck. Il parametro deve essere interpretato
come l inverso della temperatura (kB T )1 , e la relazione = (A)1 , derivata per primo da Einstein,
stabilisce una relazione tra la costante del moto browniano e la viscosit`a del fluido. Si osservi che
ponendo
1
V (x) = V (x)

1
= =
A

(3.91)

l equazione di FokkerPlanck pu`


o scriversi nella forma

X   V 
P
1 2P
=
P +
t
xi xi
x2i
i

(3.92)

cio`e grazie alla relazione di Einstein `e possibile eliminare un parametro dall equazione di Fokker
Planck. Da ora in poi lavoreremo con l equazione (3.92), ma elimineremo le tilde per alleggerire la
notazione. Per capire in che relazione sta la soluzione particolare P0 (x) con quella generale, scriviamo
quest ultima nella forma

P(x, t) = 0 (x)(x, t)

0 (x) =

1 V (x)
e 2
N

(3.93)

Sostituendo la (3.93) nella (3.92) si pu`


o derivare per (x, t) l equazione
(x, t)
2
= H (x, t)
t

(3.94)

dove l operatore H, hermitiano e limitato inferiormente, `e dato dalla formula



 
X 1 2
2V
2 V 2
H =

+
2 x2i
4 x2i
8 xi
i

(3.95)

3.6. Soluzione dell equazione di FokkerPlanck

91

La (3.94) `e una sorta di versione euclidea dell equazione di Schrodinger. Consideriamo l equazione
agli autovalori per l operatore H:

H n = En n

(3.96)

Possiamo esprimere la (x, t) sviluppandola in serie delle autofunzioni n

(x, t) =

cn n (x) e

2 En t

(3.97)

Si pu`o verificare facilmente che

H 0 (x) = 0

(3.98)

cio`e 0 `e un autofunzione di H con autovalore nullo. Separando il contributo dato da 0 nell


espressione di (x, t), possiamo scrivere

(x, t) = c0 0 (x) +

2 En t

cn n e

(3.99)

n=1

e quindi

P(x, t) =

c0 02 (x)

2 En t

(3.100)

cn 0 n e

n=1

Se dimostriamo che En > 0 per n = 1, 2, . . . allora


P(x, t) c0 02 (x) = N eV (x) P0 (x)

per

(3.101)

In effetti vale il seguente


Teorema 3.2 Se H possiede un autovalore nullo ed il corrispondente autostato non ha nodi, allora
esso `e lo stato fondamentale.

Per dimostrare questo teorema, ne ricordiamo un altro, fondamentale, che vale in Meccanica Quantistica, e che dice che lo stato fondamentale 0 di un sistema `e privo di nodi. Per dimostrare questo
teorema nel caso unidimensionale, indichiamo con E0 l energia dello stato fondamentale. Supponiamo
per assurdo che 0 abbia nodi, e chiamiamo 0 = |0 |. Questa funzione `e caratterizzata da cuspidi
nei punti angolosi di 0 . L energia E0 pu`
o scriversi come elemento di matrice

92

Capitolo 3. Metodi stocastici

Z
E0 = h0 |H|0 i =

Z
dx 0 0 +

Z
dx 0 V 0 =

dx 0 0 +

dx 0 V 0 (3.102)

a parte fattori numerici. La ragione della seconda uguaglianza sta nel fatto che gli integrandi sono
quadratici e quindi non si accorgono della presenza del modulo (eccetto che nei punti angolosi, che

comunque costituiscono insiemi di misura nulla). E chiaro che definendo 0 come la funzione ottenuta
da 0 smussandone le cuspidi, il termine cinetico diminuisce e quindi

E0 > h0 |H|0 i

(3.103)

cosicch`e 0 non pu`


o essere lo stato fondamentale del sistema. Nel caso del teorema 3.2, aggiungiamo
l ipotesi che E0 = 0. Supponiamo che esista 1 tale che

H 1 = E1 1

E1 < 0

(3.104)

Mostriamo che ci`


o `e assurdo. Per cominciare osserviamo che 1 non pu`o non avere nodi, perch`e deve
essere ortogonale a 0 , che non ha nodi. Del resto 1 non pu`o avere nodi. Se cos` fosse, potremmo
definire 1 = |1 | e dunque

E1 = h1 |H|1 i = h1 |H|1 i > h1 |H|1 i

(3.105)

dove 1 `e ottenuta da 1 smussandone le cuspidi. Ne segue che 1 non sarebbe lo stato fondamentale.
Dunque 1 non pu`
o avere nodi, ed il teorema `e dimostrato.

In definitiva abbiamo dimostrato che la soluzione P(x, t) dell equazione di FokkerPlanck tende a
P0 (x) nel limite t . Nel caso in cui  1, P0 (x) tende a concentrarsi attorno al minimo assoluto
di V (x). In effetti, sia x
il punto di minimo assoluto. Poniamo inoltre

f (x) =

P0 (x)
= e[V (x)V (x)]
P0 (
x)

(3.106)

Poich`e V (x) V (
x), nel limite  1 la funzione f (x) `e caratterizzata da un picco molto stretto nel
punto x = x
. Poich`e la P(x, t) rappresenta la probabilit`a che il sistema si trovi nella configurazione x
al tempo t, effettuando i limiti t , in modo tale che t/ , la traiettoria del sistema
collasser`a sul minimo di V (x). Infine osservaimo che, per quanto detto, si avr`a

3.7. La quantizzazione stocastica

lim

g(xb (t))

93

Z
= lim

dx g(x)P (x, t) =

dxeV (x) g(x)


R
= hgi
dx eV (x)

(3.107)

cosicch`e le configurazioni del sistema tendono ad essere distribuite canonicamente con hamiltoniana
2

data da V (x).

3.7

La quantizzazione stocastica

E possibile generalizzare gli argomenti svolti nei paragrafi precedenti al caso della Teoria dei Campi.
Consideriamo per esempio una teoria scalare. Il caso delle teorie di gauge `e pi`
u complicato. Gli oggetti
fondamentali in questo caso sono le funzioni di correlazione, per esempio
R
h(x)(y)i =

1
2 S[]

D[] (x)(y) e g0
R
12 S[]
D[]e g0

(3.108)

La corrispondenza da stabilire con il moto browniano `e espressa dalla relazione

g(x) (x)(y)
V (x)

(3.109)

1
S[]
g02

Si procede introducendo, accanto alle coordinate sapziotemporali, un tempo fittizio (il tempo del
calcolatore). Quindi si scrive l equazione di Langevin
d(x; )
S[]
=
+ (x; )
d
(x; )

(3.110)

dove {(x; )} `e un campo di variabili casuali caratterizzate dalle relazioni

(x; ) = 0

(x; )(y; 0 ) =

(x1 ; 1 )(x2 , 2 ) . . . (xn ; n ) = 0

2 (4)
(x y) ( 0 )

(3.111)

per n = 3, 4, . . .

(3.112)

Dunque le sono distribuite gaussianamente secondo la formula

D[] e 4 d x d (x; )
DP [] = R
R
4
2
D[] e 4 d x d (x; )

(3.113)

94

Capitolo 3. Metodi stocastici

A questo punto tutto procede come nel caso del moto browniano. In particolare:

lim (x; ) (y; ) = h(x)(y)i

(3.114)

Per dimostrare la (3.114) si introduce la distribuzione di probabilit`a P[; ], analoga alla P(x, t):
Z
P[; ] =

DP []

[(x) (x; )]

(3.115)

Si pu`o dimostrare che la P[; ] obbedisce alla versione funzionale dell equazione di FokkerPlanck
dP[; ]
=
d

d x

g02



S[]
2 P[; ]

P[; ]
+
(x; )2
(x; )
(x; )

(3.116)

Nel limite la distribuzione di probabilit`a collassa, come deve, alla distribuzione canonica

P[; ]
R

1
2 S[]
g0

D[] e

1
2 S[]
g0

(3.117)

Questo approccio alla Teoria dei Campi `e noto come quantizzazione stocastica. Di fatto la funzione di
correlazione (3.108) viene calcolata mediante la relazione
1
T

h(x)(y)i = lim

d (x; ) (y; )

(3.118)

3.8

Il metodo della Dinamica Molecolare

In questo paragrafo discutiamo le linee generali del metodo della Dinamica Molecolare. Questo metodo
consente di calcolare numericamente le medie d ensemble canoniche per un sistema statistico (ovvero
quantistico), attraverso una simulazione nell ensemble microcanonico. Per comprendere come ci`
o sia
possibile, supponiamo di voler calcolare i valori medi canonici di osservabili alla temperatura 1 , per
un sistema caratterizzato da una hamiltoniana H[]:
R
hOic () =

D[] O[]eH[]
R
D[] eH[]

(3.119)

Introduciamo una SuperHamiltoniana, ottenuta da H[] sommando ad essa il termine cinetico associato a ciascun grado di libert`
a i del sistema

3.8. Il metodo della Dinamica Molecolare

95

H[, ] =

1X 2
i + H[]
2

(3.120)

dove i `e il momento coniugato associato a i . In questo modo la hamiltoniana H[] costituisce il


potenziale della SuperHamiltoniana H[, ]. Possiamo riscrivere la media d ensemble (3.119) nella
forma
R
hOic () =

D[]D[] O[]eH[,]
R
D[]D[] eH[,]

(3.121)

poich`e l integrale sui momenti coniugati si fattorizza a numeratore e a denominatore e quindi non
contribuisce al valore medio. Il valore medio della stessa osservabile nell ensemble microcanonico `e
invece
R
hOim.c. (E) =

D[]D[] O[](H[, ] E)
R
D[]D[] (H[, ] E)

(3.122)

Sappiamo che i due valori d aspettazione sono uguali nel limite in cui il numero dei gradi di libert`a del
sistema tende all infinito, a patto di stabilire una opportuna relazione tra l energia E dell ensemble
microcanonico e la temperatura dell ensemble canonico. Determiniamo preliminarmente questa
relazione. Risulta

hOic ()

R
dE eE D[]D[] (H[, ] E)O[]
R
R
=
dE eE D[]D[] (H[, ] E)

dE eE+(E) hOim.c. (E)


R
dE eE+(E)

=
=

(3.123)

dove
Z
(E) = log

D[]D[] (H[, ] E)

(3.124)

Nel limite in cui il numero dei gradi di libert`a del sistema tende all infinito l argomento degli esponenziali ad ultimo membro della (3.123) tende ad essere molto grande, cosicch`e l integrale funzionale
riceve contributo dal valore di E che rende stazionario l esponente. Questo valore `e determinato dalla
relazione
(E)
=
E

(3.125)

96

Capitolo 3. Metodi stocastici

che deve essere considerata come un equazione che stabilisce un legame tra l energia dell ensemble

microcanonico e la temperatura dell ensemble canonico. In altri termini, detta E()


la soluzione di
questa equazione, risulta

hOic () = hOim.c. (E())


+ fluttuazioni

(3.126)

La correzione quadratica dell esponente deve essere positiva. Questo `e necessario si si vuole avere
la compressibilit`
a del sistema, il calore specifico, etc. positivi e finiti. Ne segue che le correzioni alla
(3.126) vanno a zero esponenzialmente nel limite in cui il numero dei gradi di libert`a del sistema tende
all infinito.
La relazione (3.126), che esprime l equivalenza tra i due ensembles, suggerisce che il calcolo dei
valori medi canonici possa essere fatto tramite una simulazione microcanonica, a patto di conoscere

la funzione E().
Questo `e ci`
o che il metodo della Dinamica Molecolare vuole realizzare. Tuttavia
risolvere la (3.125) `e troppo complicato, anche numericamente, cosicch`e conviene cercare una relazione

alternativa per la definizione di E().


Ci viene in aiuto il teorema del viriale, che abbiamo dimostrato
nella prima parte del corso. In particolare sappiamo che vale la relazione



H
1
i
=
i m.c.

i = 1, . . . , dN

(3.127)

Sommando ambo i membri della precedente su tutti i gradi di libert`a del sistema (che supporremo
essere dN ), otteniamo la relazione



1X
H
dN
Tcin (E)
i
=
2
i m.c.
2

(3.128)

La (3.128) `e l equazione cercata, in quanto pone in relazione l energia cinetica e quindi anche l energia
totale E dell ensemble microcanonico con la temperatura 1 dell ensemble canonico. Attraverso un

fine tuning si pu`


o far s` che tale relazione sia soddisfatta, determinando in tal modo E().
Una volta stabilita in maniera rigorosa la relazione tra i due ensembles possiamo procedere al calcolo
dei valori medi nel microcanonico. L idea `e quella di sfruttare il teorema ergodico. A tale scopo si
introduce un tempo fittizio (il tempo del calcolatore) e si scrivono le equazioni di Hamilton

3.9. Dinamica Molecolare ibrida

97

i = H[,] = i
i
= H[,]
i
i

(3.129)

Quindi si fa evolvere numericamente il sistema secondo le equazioni (3.129) e si calcola il valor medio
microcanonico usando la relazione che discende dal teorema ergodico

hOim.c. (E())
= lim

1
T

d O[( )]

(3.130)

Vediamo in dettaglio come si implementa la dinamica microcanonica. Per prima cosa deriviamo la
prima delle (3.129) e rispetto a , e sfruttando la seconda, otteniamo le equazioni di Newton
d2 i
H[]
=
2
d
i

(3.131)

A questo punto discretizziamo il tempo (del calcolatore) ponendo n = n  e al posto della derivata
seconda consideriamo la differenza finita
1
i (n ) = 2 [i (n+1 ) + i (n1 ) 2i (n )] + O()


(3.132)

Sostituendo nelle equazioni di Newton e risolvendo rispetto a i (n+1 ), si trova

i (n+1 ) = 2i (n ) 2

H[]
i (n1 )
i (n )

(3.133)

Questa equazione consente di effettuare l aggiornamento dei gradi di libert`a, ed `e sufficiente ad


implementare la dinamica molecolare del sistema, cio`e l evoluzione nell ensemble microcanonico.
Essa, insieme alla (3.128) e (3.130), definisce l algoritmo di Dinamica Molecolare. Il principale
vantaggio di questo algoritmo rispetto a quello Monte Carlo `e costituito dal fatto che lo spazio
delle fasi viene esplorato molto efficacemente. Il principale difetto `e invece costituito dal fatto che
l ergodicit`a non `e assicurata.

3.9

Dinamica Molecolare ibrida

Conviene scrivere le equazioni di aggiornamento per la Dinamica Molecolare in una forma leggermente
diversa, che aprir`
a la strada verso i cosiddetti algoritmi ibridi. Per prima cosa consideriamo il momento
coniugato i = i . Esso pu`
o scriversi sotto forma di differenza finita

98

Capitolo 3. Metodi stocastici

i (n ) =

1
[i (n+1 ) i (n1 )] + O()
2

(3.134)

Sommando (n+1 ) ad ambo i membri della (3.133) e dividendo per 2, otteniamo l equazione

i (n+1 ) = i (n )

2 H[]
1
+ [i (n+1 ) i (n1 )]
2 i (n )
2

(3.135)

Usando la (3.134), arriviamo al set di equazioni

i (n+1 ) = i (n ) 2 H[] + i (n )
2 i (n )
( ) = 1 [ (
i n
2 i n+1 ) i (n1 )]

(3.136)

Le (3.136) sono del tutto equivalenti alla (3.133). Tuttavia la prima di esse coincide con l equazione

di Langevin a patto di identificare i con la variabile stocastica i ed  con 2L . Si comprende quindi
che la vera differenza tra l algoritmo di Langevin e quello di Dinamica Molecolare sta nel fatto che i
momenti coniugati i sono deterministici, ma, in virt`
u del teorema ergodico essi, dopo grandi tempi,
tendono ad essere distribuiti gaussianamente

p(i ) e 2 i

(3.137)

mentre l algoritmo di Langevin garantisce a priori una distribuzione canonica per le variabili i .
Questa osservazione suggerisce di introdurre di tanto in tanto nell algoritmo di Dinamica Molecolare
un passo di Langevin, in cui i momenti coniugati i non sono aggiornati deterministicamente, ma
piuttosto sono estratti a sorte con distribuzione di probabilit`a gaussiana. In questo modo l ergodicit`
a
del sistema `e assicurata, poich`e se le i vengono estratte a sorte, l evoluzione dinamica dimentica
subito lo stato iniziale.
Concretamente l algoritmo ibrido pu`
o essere implementato al seguente modo. Ripartiamo dalle
equazioni del moto

i ( ) = i ( )
( ) = H[] = ( )
i
i
i ( )

(3.138)

Scriviamo lo sviluppo di Taylor di i e i incrementati di una unit`a di tempo  fino all ordine O(2 )

3.9. Dinamica Molecolare ibrida

99

i ( + ) = i ( ) +  i ( ) + 2 i ( ) + O(3 )
2
( + ) = ( ) +  ( ) + 2
3
i
i
i
2 i ( ) + O( )

(3.139)

Usando le equazioni del moto (3.138) possiamo riscrivere l incremento di i nella forma


 H[]
+ O(3 )
i ( + ) = i ( ) +  i ( )
2 i ( )

(3.140)

Possiamo scrivere in forma pi`


u opportuna anche l incremento di i , considerando
i come l incremento
di i ed usando di nuovo le equazioni del moto


1
H[]
H[]

i ( ) =

+

i ( + )
i ( )

(3.141)

In tal modo otteniamo l espressione

i ( + )



H[]

H[]
H[]
= i ( ) 

+ O(3 ) =
i ( )
2 i ( + )
i ( )


 H[]
H[]
= i ( )
+
+ O(3 )
2 i ( )
i ( + )

(3.142)

Sommando a primo e a secondo membro dell equazione precedente la quantit`a (/2)(H)/(i ( +


)), otteniamo

i ( + )

 H[]
 H[]
H[]
= i ( )

+ O(3 )
2 i ( + )
2 i ( )
i ( + )

(3.143)

Le equazioni (3.140) e (3.143) possono essre riscritte nella forma

i ( + ) = i ( ) + i ( +  )
2
( + 3 ) = ( +  )  H[]
i
i
2
2
i ( +)

algoritmo leapfrog

(3.144)

dove abbiamo omesso gli errori sistematici associati all espansione in serie di Taylor. Le (3.144)
definiscono un algoritmo, noto come leapfrog o RungeKutta, molto efficiente per effettuare l aggiornamento dei gradi di libert`
a. In questo caso ammettiamo che le coordinate attuali siano i ( ) e
i ( + 2 ). L algoritmo consente allora di ricavare deterministicamente i ( + ) e i ( + 3
e le
2 ). Poich`
(3.144) sono state ricavate usando le equazioni del moto, l algoritmo leapfrog `e del tutto equivalente

100

Capitolo 3. Metodi stocastici

alla Dinamica Molecolare. Il vantaggio sta nella maggiore semplicit`a computazionale dell aggiornamento. L unica novit`
a `e che i momenti coniugati vivono a tempi intermedi fra tn e tn+1 (da cui il
nome leapfrog o salto della rana).
A questo punto possiamo descrivere schematicamente l algoritmo DMibrida, in cui ci serviamo delle
equazioni leapfrog:
a) Si sceglie una configurazione iniziale {i (0)}.
b) Si sceglie una configurazione iniziale {i (0)} (conviene estrarre questa configurazione distribuita
gaussianamente alla temperatura 1 desiderata).
c) Si costruiscono i momenti i ( 2 ) usando l equazione
 

 H[]
i
= i (0)
2
2 i (0)

(3.145)

d) Si effettuano NDM passi di leapfrog (realisticamente NDM 10).


e) Si effettua un passo di Langevin estraendo una configurazione {i (NDM + 2 )} distribuita gaussianamente alla temperatura 1 . Quindi si ritorna al punto d).
In questo algoritmo non `e presente nessun test di acceptreject, cio`e si accettano tutte le configurazioni
{i (n )} generate. Si pu`
o dimostrare che la sequenza di configurazioni cos` generata `e distribuita
canonicamente come exp(H[]) nel limite  0. Si badi bene che questo `e pi`
u che dire che i valori
medi microcanonici coincidono con quelli canonici.
Osservazione. Si considerino le equazioni (3.144), che definiscono l algoritmo leapfrog. Se si
valutano i momenti coniugati usando la relazione

i


+
2


= i ( )

 H[]
2 i ( )

(3.146)

si ottengono le equazioni

i ( + ) = i ( ) + i ( ) 2 H[]
2 i ( )
( + ) = ( )  ( H[] + H[] )
i
i
2 i ( )
i ( +)

algoritmo velocityVerlet

(3.147)

3.10. Monte Carlo ibrido

101

Queste costituiscono ancora un modo diverso (ma equivalente) di effettuare l aggiornamento dei gradi
di libert`a del sistema nell ensemble microcanonico, e sono note come algoritmo velocityVerlet. Esso
2

`e esattamente canonico e reversibile a questo ordine di approssimazione.

3.10

Monte Carlo ibrido

L algoritmo di Dinamica Molecolare ibrida e quello di Langevin hanno il difetto che, per avere configurazioni distribuite canonicamente, `e necessario effettuare il limite  0. Il metodo Monte Carlo non
soffre di questo problema. Esso tuttavia ha lo svantaggio di esplorare non sempre efficientemente lo
spazio delle fasi del sistema. L idea allora `e quella di fondere il metodo Monte Carlo con la Dinamica
Molecolare per generare un Monte Carlo ibrido. In pratica si introduce un test di Metropolis tra i
passi d) ed e) del paragrafo precedente. Conviene descrivere nuovamente l intero algoritmo, con il
test aggiuntivo:
a) Si sceglie una configurazione iniziale {i (0)}.
b) Si sceglie una configurazione iniziale {i (0)} (conviene estrarre questa configurazione distribuita
gaussianamente alla temperatura 1 desiderata).
c) Si costruiscono i momenti i ( 2 ) usando l equazione
 
 H[]

= i (0)
i
2
2 i (0)

(3.148)

d) Si effettuano NDM passi di leapfrog. Sia {0i ( ), i0 ( )} l ultima configurazione generata, avendo
usato ancora la (3.148) per arrivare a i0 ( ).
e) Accettiamo la configurazione {0i ( ), i0 ( )} con probabilit`a

0 0
0
0
PA ({, } { , }) = min 1, e {H[ , ]

H[,]}


(3.149)

dove {i , i } `e la configurazione che si aveva prima degli NDM passi di leapfrog. Se la configurazione {0i ( ), i0 ( )} non viene accettata, si buttano via gli NDM passi di leapfrog e si riparte
dal punto b). Altrimenti si prende {0 } come nuova configurazione e si riparte dal punto b).

Si noti che se le equazioni del moto fossero implementate esattamente, H sarebbe costante lungo
la traiettoria di Dinamica Molecolare, e il test di Metropolis sarebbe sempre passato, dato che la

102

Capitolo 3. Metodi stocastici

probabilit`a di accettare sarebbe PA = min(1, 1) = 1 ! Del resto, per  6= 0 risulta H 6= 0, ma il test


di Metropolis elimina l errore sistematico dovuto al fatto che  6= 0. In effetti vogliamo dimostrare il
seguente
Teorema 3.3 per  arbitrario la probabilit`
a di transizione P ( 0 ) soddisfa il principio del bilancio
dettagliato con hamiltoniana H[], cio`e soddisfa l equazione
0

eH[] P ( 0 ) = eH[ ] P (0 )

(3.150)

Dimostrazione. Anzitutto osserviamo che i momenti coniugati sono estratti secondo la distribuzione

PG (i ) =

Y
i



1
i2

exp
2
2

(3.151)

Inoltre la configurazione {i = i ( ), i = i ( )} evolve deterministicamente alla configurazione {0i =


i ( + NDM ), i0 = i ( + NDM )}, inclusi i mezzi passi iniziale e finale. Poich`e il moto `e reversibile,
avremo che per tornare da 0 a sar`
a sufficiente cambiare segno ai momenti. Quindi

PDM ({, } {0 , 0 }) = PDM ({0 , 0 } {, })

(3.152)

In realt`a, poich`e la Dinamica Molecolare `e deterministica, la funzione PDM `e una delta di Dirac. Infine
osserviamo che la configurazione {0 , 0 } `e accettata con probabilit`a PA (eq. (3.149)). Complessivamente la probabilit`
a di transizione per andare da {} a {0 } `e espressa dalla formula

P ( ) =

DD 0 PG [] PDM ({, } {0 , 0 }) PA ({, } {0 , 0 })

(3.153)

Si osservi che PA soddisfa identicamente il principio del bilancio dettagliato con hamiltoniana H[, ]:
0

eH[,] PA ({, } {0 , 0 }) = eH[ , ] PA ({0 , 0 } {, })

(3.154)

Dunque, usando il fatto che la distribuzione dei momenti coniugati `e gaussiana, otteniamo

eH[] P ( 0 ) =

DD 0 N eH[,] PDM ({, } {0 , 0 }) PA ({, } {0 , 0 }) (3.155)

dove N `e il coefficiente di normalizzazione della distribuzione dei momenti coniugati. Usando la


(3.154), abbiamo

3.11. Diffusion Quantum Monte Carlo

H[]

P ( ) =

103

DD 0 N eH[ , ] PDM ({, } {0 , 0 }) PA ({0 , 0 } {, }) (3.156)

Per la reversibilt`
a della Dinamica Molecolare (eq. (3.152)), si ottiene

H[]

P ( ) =

DD 0 N eH[ , ] PDM ({0 , 0 } {, }) PA ({0 , 0 } {, })


(3.157)

Si effettui quindi il cambiamento di variabile funzionale e 0 0 . Poich`e H[, ] `e


quadratica nei momenti coniugati, e cos` anche PA , si ottiene

H[]

P ( )

H[0 ]

DD 0 PG [ 0 ] PDM ({0 , 0 } {, }) PA ({0 , 0 } {, })

eH[ ] P (0 )

Il teorema `e cos` dimostrato.

(3.158)
2

Concludiamo questo paragrafo ricordando che in pratica `e utile usare il Monte Carlo standard se il
sistema in studio `e caratterizzato da interazioni locali. Nel caso in cui siano presenti termini non locali
nella hamiltoniana, `e necessario utilizzare il Monte Carlo ibrido, poich`e solo cos` si pu`o evitare che
durante la simulazione il sistema collassi in un minimo locale di H.

3.11

Diffusion Quantum Monte Carlo

E un metodo di simulazione di grande importanza in Fisica dei Solidi e in Fisica Nucleare, in quanto
permette di determinare lo stato fondamentale di un sistema quantistico non relativistico costituito da
molte particelle. Possibili applicazioni sono: lo studio della materia nucleare, il gas di elettroni, etc.
Nei lavori moderni esso `e anche conosciuto come Path Integral Monte Carlo (PIMC). Consideriamo
dunque un sistema costituito da N particelle. L equazione di Schrodinger per il sistema `e

i~

~2 2
(r, t)
=
(r, t) + V (r)(r, t) = H(r, t)
t
2m

(3.159)

Qui r denota il vettore a 3N componenti che contiene la posizione di tutte le particelle del sistema,

104

Capitolo 3. Metodi stocastici

r = (r1 , r2 , . . . , rN )

(3.160)

ed inoltre

N
X

2i

(3.161)

i=1

Effettuando la rotazione euclidea t i ( `e detto tempo euclideo) l equazione di Schrodinger


assume la forma
(r, )
= D2 (r, ) V (r)(r, ) = He (r, )

D =

~2
2m

(3.162)

In questo contesto D `e chiamato coefficiente di diffusione. Si riconosce che nel limite V (r) 0
l equazione di Schr
odinger euclidea coincide con l equazione di diffusione del calore. La soluzione pi`
u
generale dell equazione di Schr
odinger `e data da

(r, t) =

cn e ~ En t n (r)

(3.163)

e la soluzione pi`
u generale dell equazione ruotata si ottiene effettuando la rotazione euclidea sulla
(3.163)

(r, ) =

cn e ~ En n (r)

(3.164)

A causa della decrescita col tempo dei fattori esponenziali, il comportamento della (3.164) per tempi
grandi `e determinato dallo stato fondamentale del sistema

(r, ) c0 e ~ E0 0 (r)

per

(3.165)

La (3.165) suggerisce un modo per calcolare l energia e la funzione d onda dello stato fondamentale
del sistema: `e sufficiente fare evolvere la funzione d onda a tempi euclidei sufficientemente grandi. Per
essere pi`
u precisi, osserviamo che l equazione di Schrodinger `e un equazione differenziale del primo
ordine nel tempo. Per poterla risolvere `e necessario assegnare una condizione iniziale, vale a dire la
funzione d onda (r, 0) trial (r) all istante = 0. Ci`o fatto, i coefficienti cn dell espansione
(3.164) sono determinati univocamente dalla formula

3.11. Diffusion Quantum Monte Carlo

105

Z
cn =

n (r)trial (r) d3N r

(3.166)

Supponiamo dunque di aver scelto trial (r) in modo tale che risulti c0 6= 0 e non troppo piccolo.
Affinch`e questa condizione sia soddisfatta `e necessario che trial sia non ortogonale e somigli il pi`
u possibile a 0 .

L evoluzione temporale della funzione d onda si otterr`a applicando

l operatore d evoluzione temporale




(r, ) = G( ) trial (r)

He
G( ) = exp
~


(3.167)

Pi`
u precisamente
Z
hr, |trial i =



He
|r0 i hr0 |trial i
r hr| exp
~

3N 0

(3.168)

Il nucleo integrale che compare nella (3.168) `e il Funzionale di Schr


odinger


Z q( )=r
R
1
He
0
0
hr| exp
|r i =
D[q] e ~ 0 Le [q( )]
~
q(0)=r0

d 0

(3.169)

dove

Le [q] =

m 2
q + T (q) + V (q)
2

(3.170)

Conoscere il nucleo integrale (3.169) equivale a conoscere tutta la Meccanica Quantistica del sistema,
ed in generale non `e possibile effettuare il calcolo della (3.169) in modo analitico. Nel seguito ci
limiteremo al caso in cui il tempo `e molto piccolo, al limite infinitesimo, e per questo indicheremo
tale tempo piuttosto col simbolo . Poniamo, per semplicit`a di notazione, ~ = 1. Poich`e la decrescita
esponenziale della funzione d onda `e governata dall autovalore pi`
u basso della hamiltoniana, ed `e
difficile controllare numericamente una funzione esponenzialmente decrescente, moltiplichiamo ambo
i membri della (3.168) per exp(E0 ),

E0

Z
hr, |trial i =

d3N r0 hr|e(He E0 ) |r0 i hr0 |trial i

(3.171)

Definiamo quindi il nucleo integrale

G(r, r0 ; ) = hr|e(He E0 ) |r0 i

(3.172)

106

Capitolo 3. Metodi stocastici

Osservando che He = T + V , dove T = D2 , possiamo usare la formula di C.B.H. nella versione


di Trotter e sviluppare G(r, r0 ; ) secondo la formula

G(r, r0 ; ) = hr|e(T +V E0 ) |r0 i = hr|e


= e

[V (r)+V (r0 )] + E0

e (T E0 ) e

|r0 i + O( 3 ) =

hr|e T |r0 i + O( 3 ) =

= w(r, r0 ; ) hr|e T |r0 i + O( 3 )

(3.173)

dove

w(r, r0 ; ) = e

[V (r)+V (r0 )] + E0

(3.174)

L elemento di matrice che compare ad ultimo membro della (3.173) `e il nucleo del calore, noto
analiticamente e dato da
0

hr|e

r)
exp[ (r4D
]
|r i =
3N/2
(4D )

(3.175)

Dunque per intervalli di tempo sufficientemente piccoli, possiamo scrivere

E0

Z
hr, |trial i =

r)
exp[ (r4D
]
r w(r, r ; )
trial (r0 )
3N/2
(4D )

3N 0

(3.176)

La formula (3.176) ispira l algoritmo Quantum Monte Carlo, che verr`a discusso di seguito.
a) Si interpreta trial (r) come una densit`a nello spazio delle configurazioni del sistema. Si consideri
quindi un ensemble di M configurazioni {r(i) } (i = 1, 2, . . . , M ) delle particelle del sistema,
distribuite con densit`
a pari a trial (r). A tali configurazioni sono associati punti, nello spazio
delle configurazioni, detti walkers. Si ricordi che il principio guida nella scelta di trial `e che essa
somigli il pi`
u possibile a 0 . Si potr`
a quindi procedere in uno dei seguenti modi.
a.1) Si hanno informazioni su 0 . In questo caso trial viene modellata sulla base delle informazioni note, e gli walkers sono effettivamente scelti in modo tale che la loro densit`a sia
proporzionale a trial .
a.2) Non si ha alcuna informazione su 0 . In questo caso la scelta di trial `e completamente
arbitraria. Conviene estrarre a caso gli walkers e costrutire la trial numericamente in modo
tale che essa risulti proporzionale alla densit`a degli walkers stessi.

3.11. Diffusion Quantum Monte Carlo

107

b) L imo walker (i = 1, . . . , M ) `e sottoposto ad un processo diffusivo che, in accordo con la


distribuzione (3.175), lo porta dalla configurazione r(i) alla configurazione r0(i) nell intervallo di
tempo .
c) Il processo diffusivo degli walkers `e pesato con la funzione w(r, r0 ; ). Pi`
u precisamente, consideriamo l imo walker. Come detto, esso diffonde da r(i) a r0(i) nell intervallo di tempo .
Estraiamo un numero a caso , con 0 1 e distribuzione piatta. Consideriamo quindi la
quantit`a
p = Int | w(r(i) , r0(i) ; ) + |

(3.177)

dove il simoblo Int denota la parte intera. Sono possibili tre casi:
c.1) p = 0. In questo caso l imo walker viene soppresso.
c.2) p = 1. In questo caso l imo walker viene mantenuto.
c.3) p 2. In questo caso l imo walker viene duplicato. Al passo successivo i due walkers
posti in r0(i) diffonderanno indipendentemente l uno dall altro.
d) Poich`e w(r, r0 ; ) dipende da E0 , per poter calcolare p `e necessario assegnare un valore a E0 .
Si fissa E0 in modo tale che la popolazione degli walkers rimanga stabile. Ci sono vari modi per
fissare E0 . Ne discutiamo due.
d.1) Sia M ( ) la popolazione degli walkers al tempo (di simulazione) , ed M (0) la popolazione
iniziale. Il tuning di E0 dal tempo al tempo + `e effettuato secondo la formula
E0 ( ) E0 ( + ) = E0 ( ) + c

M ( ) M (0)
M (0)

(3.178)

dove la costante c `e scelta in modo tale da determinare una controreazione all eccessiva
crescita o decrescita degli walkers.
d.2) Si ponga
R
E( ) =

d3N r (r, ) He (r, )


R
d3N r (r, )(r, )

(3.179)

Come `e noto, E( ) costituisce un limite superiore a E0 , nel senso che E0 E( ). Sfortunatamente l integrale (3.179) `e molto difficile da calcolare. Infatti (r, ) `e nota numericamente solo in numero finito di punti; essa cio`e `e calcolata come una somma di delta di

108

Capitolo 3. Metodi stocastici


Dirac. Inoltre H `e un operatore differenziale ed `e difficile definire la sua azione su una
somma di delta di Dirac. Ci viene in aiuto l operatore d evoluzione temporale. Infatti
R 3N
R 3N
d r (r, 0) He e2He (r, 0)
d r trial (r) He (r, 2 )
R
R
E( ) =
=
=
3N
2H

e
d r (r, 0)e
(r, 0)
d3N r trial (r) (r, 2 )
R 3N
d r [He trial (r)] (r, 2 )
R
=
(3.180)
d3N r trial (r) (r, 2 )
dove, nell ultimo passaggio, abbiamo sfruttato l hermiticit`a dell operatore He . Nel caso
in cui trial sia nota analiticamente, il calcolo numerico della (3.180) non presenta pi`
u il
problema accennato.

e) Si ritorna al punto b) per un ulteriore processo diffusivo.


2
In generale la funzione trial (r) `e nota analiticamente.

In questo caso, piuttosto che seguire l

evoluzione nel tempo di (r, ), `e pi`


u conveniente seguire quella della funzione

f (r, ) = trial (r)(r, )

(3.181)

Non `e difficile verificare che f (r, ) soddisfa l equazione differenziale




f
He trial
2
f
= D f D [2f log trial ] + E0

trial

(3.182)

2
ed in pi`
u essa soddisfa la condizione iniziale f (r, 0) = trial
(r). Il vantaggio di questo approccio `e

legato alla seguente considerazione. In generale il potenziale V (r) del sistema `e singolare in alcuni
punti. Se gli walkers si avvicinano a questi punti di singolarit`a, il peso w(r, r0 ; ) tende ad esplodere
e non `e pi`
u possibile utilizzare l algoritmo descritto mantenendo stabile la popolazione degli walkers.
In questo caso il potenziale `e sostituito dalla funzione E0 + (He trial )/trial , che in generale non
presenta singolarit`
a. A differenza del caso precedente, `e presente nell equazione differenziale (3.182)
un termine di drift, che tende a spingere gli walkers verso i punti in cui trial `e grande e quindi
anche f `e grande. Le formule per implementare il Quantum Monte Carlo per la f sono le seguenti.
L equazione per il propagatore `e

= (T + V ) G

dove

(3.183)

3.11. Diffusion Quantum Monte Carlo

109

T = D2 + D F DF

(3.184)

He trial
V =
E0
trial

(3.185)

F = 2 log trial

(3.186)

r0 ; ) `e nota
Poich`e l equazione del calore si sa risolvere in presenza di un drift, la funzione G(r,
analiticamente ed `e data da




(r0 rD F)2
exp[
]
H

e
e
trial
trial
0
4D
r ; ) = exp
G(r,
(r) +
(r ) + E0
2
trial
trial
(4D )3N/2
0

(3.187)

L algoritmo descritto precedentemente pu`


o dunque essere utilizzato per seguire l evoluzione di f . 2
Osservazione. Affinch`e trial possa essere interpretata come la densit`a iniziale degli walkers `e necessario che essa sia definita positiva. Questa condizione certamente non pu`o essere soddisfatta da un
sistema in cui sono presenti fermioni, poich`e in tal caso il Principio di Esclusione di Pauli implica che
la funzione d onda deve essere antisimmetrica rispetto allo scambio delle coordinate di una qualunque
coppia di fermioni identici. Esistono diverse strategie per applicare il Quantum Monte Carlo a sistemi
fermionici; nessuna per`
o `e veramente risolutiva. Discutiamo di seguito due di esse.
La prima `e nota come Transient Estimation Method. Consideriamo una funzione d onda iniziale
A (r) realmente antisimmetrica. Da essa costruiamo le funzioni
trial

1 A
A
(r) + |trial
(r)| ]
+ (r) = + [ trial
2
1 A
A
(r) = [ trial
(r) |trial
(r)| ]
2

(3.188)
(3.189)

A
A
E ovvio che + `e positiva nei punti in cui trial
`e positiva, ed `e nulla dove trial
`e negativa, cos`
A
A
come `e positiva l`
a dove trial
`e negativa, ed `e nulla se trial
`e positiva. Le funzioni (r) possono

dunque essere utilizzate come densit`


a iniziali degli walkers e ad esse pu`o essere applicato l algoritmo
d evoluzione discusso precedentemente. In linea di principio ci aspettiamo che, per tempi euclidei
molto grandi, si abbia

(r, ) ' eEf [ af f (r) + ab b (r) e(Ef Eb ) ]

(3.190)

110

Capitolo 3. Metodi stocastici

dove (Ef , f ) rappresenta lo stato fondamentale (fermionico) del sistema, e (Eb , b ) il pi`
u basso
autostato bosonico del sistema. E facile convincersi che, essendo lo stato bosonico b caratterizzato
da meno nodi di quello fermionico f (ancora per il Principio di Esclusione), necessariamente deve
essere Ef > Eb . Ne segue che il fattore esponenziale exp[(Ef Eb ) ] esplode nel tempo. Per`
o,
sottraendo a + , il termine bosonico si cancella e

(r, ) = + (r, ) (r, ) eEf af f (r)

per

(3.191)

Se ne deduce che, seguendo l evoluzione di , `e possibile ricavare l energia e la funzione d onda


dello stato fondamentale del sistema. D altra parte l eliminazione del termine bosonico si ottiene
praticamente per via numerica, tramite la cancellazione di due numeri uguali e molto grandi, il che
produce un risultato molto instabile. In pratica, se definiamo
R
Emixed ( ) =

A (r) H (r, )
d3N r trial
e
R
A (r) (r, )
d3N r trial

(3.192)

`e ovvio che

lim Emixed ( ) = Ef

(3.193)

Bisogna considerare per`


o che l errore statistico su Emixed ( ) cresce con il tempo, ed un grafico tipico
per Emixed ( ) `e quello riportato di seguito. L origine del nome Transient Estimation Method `e dovuto
al fatto che l errore statistico comporta una perdita totale di informazione su Emixed ( ) soltanto dopo
un transiente iniziale, sul quale `e possibile dare una stima dell energia dello stato fondamentale Ef .
Per il calcolo di Emixed si veda l equazione (3.180).

Un altro possibile approccio alla trattazione dei sistemi fermionici `e quello che va sotto il nome di
A (r), antisimmetrica, e si fa l assunFixed Node Method. In questo caso si assegna analiticamente trial
A
zione che i nodi di trial
siano quelli veri, cio`e quelli che caratterizzano anche lo stato fondamentale
A
f . Si considera quindi la regione dove trial
`e positiva, ed in questa regione si estrae un ensemble
A . Si applica quindi l algoritmo QMC a questo
di walkers distribuiti con densit`
a proporzionale a trial
A
ensemble con l avvertenza che, qualora uno degli walkers finisse nella regione dove trial
`e negativa,

esso dovrebbe essere soppresso. Dopo aver applicato l algoritmo per un certo numero di volte, si
), definita positiva, con supporto nella regione in cui A `e positiva.
perviene ad una funzione (r,
trial

3.11. Diffusion Quantum Monte Carlo

111

Antisimmetrizzando questa funzione, si ottiene una (r, ) con la quale `e possibile stimare Ef . NatuA
ralmente, poich`e non `e detto che i nodi di trial
siano quelli giusti, l energia cos` stimata potr`a essere

utilizzata soltanto come limite superiore all energia dello stato fondamentale del sistema.

Em

Andamento caratteristico dell energia Emixed ( )

112

Capitolo 3. Metodi stocastici

Capitolo 4

Metodi di Meccanica Quantistica


In questo capitolo vengono introdotte alcune tecniche standard usate in Meccanica Quantistica. In
particolare viene discussa la rappresentazione di Feynman della Meccanica Quantistica, che fa uso
degli integrali funzionali, e permette una generalizzazione al caso della Teoria dei Campi.

4.1

Equazioni di Eulero Lagrange

La Meccanica Classica pu`


o essere formulata seguendo l approccio lagrangiano. In questa formulazione
si assume che le propriet`
a del sistema siano descritte da una funzione L, detta lagrangiana, che dipende
dalle coordinate {q} e dalle velocit`
a {q}
delle particelle del sistema

L(q, q)
=

m 2
q V (q)
2

(4.1)

L integrale nel tempo di questa funzione `e noto come l azione della teoria e nel seguito verr`a indicato
con il simbolo S. Esso `e un funzionale della traiettoria del sistema, cio`e dipende dalla posizione
occupata dal sistema a tutti gli istanti. Dunque
Z

T2

dt L(q, q)

S =

(4.2)

T1

Le equazioni del moto si ottengono sfruttando un principio variazionale, secondo il quale la traiettoria
reale del sistema rende stazionaria l azione, cio`e soddisfa l equazione

S = 0

113

(4.3)

114

Capitolo 4. Metodi di Meccanica Quantistica

rispetto a variazioni q(t) tali che

q(T1 ) = q(T2 ) = 0

(4.4)

d L L

= 0
dt q
q

(4.5)

Si trovano in questo modo le equazioni

dette equazioni di EuleroLagrange. Nella figura sottostante viene riportato un fascio di traiettorie
con condizioni ai bordi temporali fissate.

q(T ) = Q
2

q(T1 ) = Q 1

possibili traiettorie del sistema

4.2

Integrale funzionale in Meccanica Quantistica

La formulazione di Feynman della Meccanica Quantistica si basa sulle seguenti osservazioni. Consideriamo un sistema costituito da una sola particella. Indichiamo con K(Q2 , T2 ; Q1 , T1 ) l ampiezza di
probabilit`a di trovare la particella nella posizione Q2 all istante T2 sapendo che essa era nella posizione
Q1 all istante T1 . Noto K(Q2 , T2 ; Q1 , T1 ) e la funzione d onda del sistema all istante T1 , la funzione
donda a qualunque altro istante pu`
o calcolarsi secondo la relazione
Z
(Q2 , T2 ) =

dQ1 K(Q2 , T2 ; Q1 , T1 ) (Q1 , T1 )

(4.6)

L ampiezza di probabilit`
a K(Q2 , T2 ; Q1 , T1 ), detta kernel devoluzione di Feynman, ammette una semplice rappresentazione in termini delle autofunzioni e degli autovalori della hamiltoniana del sistema.
Ricordiamo che secondo i postulati della Meccanica Quantistica esiste un operatore autoaggiunto H,
detto hamiltoniano, i cui autovalori rappresentano tutti e soli i possibili valori che l energia del sistema
pu`o assumere. Nel caso di una sola particella, H `e dato da

4.2. Integrale funzionale in Meccanica Quantistica

H =

115

~2 d2
+ V (q)
2m dq 2

(4.7)

e l equazione agli autovalori `e

Hn = En n

(4.8)

Le autofunzioni n (q) formano un set completo e ortonormale, soddisfacendo le relazioni


Z

dq n (q)m (q) = n,m

(4.9)

n (q)n (q 0 ) = (q q 0 )

(4.10)

Il kernel devoluzione pu`


o essere rappresentato nella forma

K(Q2 , T2 ; Q1 , T1 ) =

n (Q2 )n (Q1 ) e ~ En (T2 T1 )

(4.11)

La dimostrazione della (4.11) si basa sul fatto che ogni soluzione dell equazione di Schrodinger pu`
o
essere scritta nella forma

(q, t) =

cn e ~ En t n (q)

(4.12)

In particolare, all istante t = T1 , risulta

(q, T1 ) =

cn e ~ En T1 n (q)

(4.13)

dq 0 n (q 0 )(q 0 , T1 )

(4.14)

dove

cn = e

i
E T
~ n 1

Sostituendo la (4.14) nella (4.13) si ricava l espressione


Z
(q, T2 ) =

dq

X

i
n (q)n (q 0 )e ~ En (T2 T1 )

(q 0 , T1 )

(4.15)

La rappresentazione (4.11) `e verificata confrontando la (4.15) con la (4.6). Essa pu`o essere scritta
anche nella forma

116

Capitolo 4. Metodi di Meccanica Quantistica

K(Q2 , T2 ; Q1 , T1 ) = hQ2 |e ~ H(T2 T1 ) |Q1 i

(4.16)

K `e l elemento di matrice dell operatore devoluzione temporale tra autostati dell operatore di
posizione (all istante t = t0 ):

q(t0 ) |Q1 i = Q1 |Q1 i


q(t0 ) |Q2 i = Q2 |Q2 i

(4.17)

In questa rappresentazione

p(t0 ) = mq(t
0)

~ d
i dq

(4.18)

La Meccanica Quantistica viene formulata rappresentando il kernel d evoluzione come somma su tutte
le possibili traiettorie del sistema
(Q1 ,T1 )(Q2 ,T2 )

K(Q2 , T2 ; Q1 , T1 ) =

traiettorie

 Z T2

i
(const) exp
dt L
~ T1

(4.19)

Nel limite classico ~ 0, contirubisce soltanto la traiettoria che soddisfa la condizione S = 0


(traiettoria classica). Le altre danno contributi che interferiscono distruttivamente, a causa della
rapida oscillazione dell esponenziale.

Vogliamo dare una definizione pi`


u rigorosa del concetto di somma sulle traiettorie. Suddividiamo
lintervallo temporale (T1 , T2 ) in N parti uguali di ampiezza , come nella figura seguente, in modo
tale che risulti

T2 T1 = (N + 1)
t0 = T1

tN +1 = T2

ti+1 ti = 
(4.20)

Indichiamo quindi con qi q(ti ) le posizioni del sistema agli istanti che delimitano i sottointervalli
temporali. Ovviamente risulta

4.2. Integrale funzionale in Meccanica Quantistica

117

T
T 2= t

t8
t7

t6

t5
t4
t3
t2
t1
T 1= t

q2

q1
q 0= Q

q3

q4 q6

q5

q7

q8

q 9= Q2

discretizzazione del tempo e dello spazio

q0 = Q1

qN +1 = Q2

(4.21)

Definiamo la velocit`
a del sistema agli istanti ti prendendo il rapporto incrementale delle posizioni tra
istanti successivi

qi+1 =

qi+1 qi


(4.22)

Una traiettoria `e definita interpolando linearmente tra qi e qi+1 . Il kernel d evoluzione `e definito dal
seguente limite

K(Q2 , T2 ; Q1 , T1 ) = lim

0 cN +1

dq1 . . . dqN e ~ S

(4.23)

dove


i
exp S
~
e


=

N
Y
i=0

i
exp S(i + 1, i)
~


(4.24)

118

Capitolo 4. Metodi di Meccanica Quantistica

ti+1

S(i + 1, i) =
ti



qi+1 + qi qi+1 qi
dt L(q, q)
' L
,
2
2

(4.25)

Sostituendo la (4.24) nella (4.23), si ottiene l espressione

1
K(Q2 , T2 ; Q1 , T1 ) = lim
0 c




N
dq1
dqN Y
im (qi+1 qi )2
i
qi+1 + qi
...
exp

V
c
c
2~

~
2

(4.26)

i=0

Nel limite in cui  0, l integrale multiplo diventa un prodotto continuo di integrali, e l integrazione
deve essere effettuata nello spazio funzionale delle traiettorie che soddisfano le condizioni al bordo
fissate, cio`e le (4.21). Il kernel devoluzione viene quindi scritto formalmente, introducendo la misura
Dq(t) associata ad una singola traiettoria, nella forma
Z

q(T2 )=Q2

K(Q2 , T2 ; Q1 , T1 ) =

q(T1 )=Q1 T <t<T


1
2


 Z T2
i
Dq(t) exp
dt L(q, q)

~ T1

(4.27)

Si osservi che gli istanti T1 e T2 sono esclusi dal dominio del prodotto continuo. Al contrario di
quello che accade negli integrali in un numero finito di dimensioni, dove un punto nello spazio delle
configurazioni costituisce un insieme di misura nulla, e quindi non influisce sul risultato dell integrazione, nel caso dell integrale funzionale `e importante che gli istanti T1 e T2 siano esclusi dalla
misura di integrazione. Questo punto sar`
a chiaro tra qualche riga. Dalla propriet`a di fattorizzazione
della misura

Dq(t) =

T1 <t<T2

Dq(t) dq

T1 <t<

Dq(t)

(4.28)

<t<T2

e dalla propriet`a di additivit`


a dell azione, segue la propriet`a di convoluzione del kernel devoluzione
Z
K(Q2 , T2 ; Q1 , T1 ) =

dq K(Q2 , T2 ; q, )K(q, ; Q1 , T1 )

(4.29)

Si riconosce che q integra la variabile mancante e salda i due kernel d evoluzione. La (4.29) non sarebbe
vera se nella rappresentazione del kernel come integrale funzionale, gli estremi temporali fossero inclusi
nella misura dintegrazione. Inoltre, prendendo il limite T1+ , si ricava

K(Q2 , T ; Q1 , T ) = (Q2 Q1 )
Il kernel per un intervallo di tempo infinitesimo `e dato da

(4.30)

4.3. Alcuni esempi

119




1
i
q + q0 q q0
K(q, t + ; q , t) = exp L
,
c
~
2

0

(4.31)

Per completare l argomentazione, `e necessario calcolare il coefficiente c e mostrare che, se (q, t)


evolve tramite il kernel (4.31), essa soddisfa l equazione di Schrodinger. La dimostrazione si basa su
un calcolo esplicito:

(q, t + )

=
=

(q, t)
(q, t) + 
+ O(2 ) =
t





Z
im (q q 0 )2
i
1
q + q0
0
dq exp
exp V
(q 0 , t)
c
2~

~
2

(4.32)

Effettuando il cambiamento di variabile q 0 = q + r, si ottiene

(q, t + )


 Z


1
i
im r2
1 V (q) + . . .
dr exp
c
~
2~ 

(4.33)

Ricordando che, dato tale che Im() > 0, vale


Z

r



i 2
i 2
2i
exp x + jx dx =
exp
j
2

2


(4.34)

`e facile ricavare agli ordini 0 e 1


1
c
~ (q, t)

i
t

4.3
4.3.1


2i~ 1/2
m
~2 2 (q, t)

+ V (q)(q, t)
2m q 2


=
=

(4.35)

Alcuni esempi
Il caso della particella libera

Esistono pochi esempi di sistemi fisici per i quali il kernel devoluzione si sappia calcolare analiticamente. Il caso pi`
u semplice `e quello in cui il sistema `e costituito da una particella libera, con
lagrangiana

L =
L azione discretizzata in questo caso `e data da

m 2
q
2

(4.36)

120

Capitolo 4. Metodi di Meccanica Quantistica

S(i + 1, i) =

m (qi+1 qi )2
2


(4.37)

Tutti gli integrali sono gaussiani e si sanno calcolare. IL kernel devoluzione `e dato da




2i~(N + 1) 1/2
im(Q2 Q1 )2
=
exp
= lim
0
m
2~(N + 1)




im(Q2 Q1 )2
2i~T 1/2
exp
=
m
2T ~


Kf ree (Q2 , Q1 ; T )

(4.38)

dove si `e posto T = T2 T1 e (N + 1) = T . Tutta la Meccanica Quantistica della particella libera


segue dal fatto che il kernel

i
K exp Scl (Q2 , Q1 ; T )
~


(4.39)

determina sulla funzione d onda un cambiamento di fase per unit`a di


spostamento

k=

1 Scl
~ Q2

tempo

1 Scl
~ T

E
~

4.3.2

Il caso dell oscillatore armonico

Un altro esempio di sistema quantistico per il quale il calcolo del kernel devoluzione pu`o essere
effettuato analiticamente `e quello costituito dall oscillatore armonico. In questo caso la lagrangiana `e

L =

m 2
(q 2 q 2 )
2

(4.40)

Bench`e tutti gli integrali in K siano ancora gaussiani, seguiremo una strategia di calcolo differente,
che sar`a utile in casi pi`
u complicati. Vogliamo generalizzare al caso di un numero infinito di variabili
le formule
Z




i
(2i)n/2
i
1
dx exp[ (x, Ax) + i(J, x) =
exp (J, A J)
2
2
[det(A)]1/2

Z
dx xk1 . . . xkm exp

  m


Z
i
1
d
d
i
(x, Ax) =
...
dx exp (x, Ax) + i(J, x)
2
i
dJk1
dJkm
2
J=0

(4.41)

(4.42)

4.3. Alcuni esempi

121

Qui x denota un vettore ndimensionale a valori reali. A `e una matrice con autovalori n tutti diversi
da zero e tali che Jm n =  > 0. La dimostrazione si fonda sui seguenti passi
1) Si trovi il punto stazionario dell esponenziale risolvendo l equazione canonica
Axcl + J = 0

xcl = A1 J

(4.43)

2) Si effettui il cambiamento di variabili


x = xcl + = A1 J +

(4.44)

i
i
i
(x, Ax) + i(J, x) = (J, A1 J) + (, A)
2
2
2

(4.45)

Poich`e

rimane da dimostrare che


Z


i
(2i)n/2
d exp (, A) =
2
[det(A)]1/2


(4.46)

Questa formula `e ovvia se A `e diagonale. Pi`


u in generale, la misura d `e invariante rispetto alla
trasformazione che diagonalizza A.
Nel caso delloscillatore armonico si pu`
o procedere in maniera analoga. Il kernel devoluzione da
calcolare `e
Z
Kh.o. (Q2 , Q1 ; T ) =

q(T /2)=Q2

im
Dq(t) exp
2~
q(T /2)=Q1

T /2


dt (q q )
2

2 2

(4.47)

T /2

1) Risolviamo il problema
d2 qcl
2
+ 2 qcl
= 0
dt2
qcl (T /2) = Q1 ,

qcl (T /2) = Q2

(4.48)

La soluzione del problema `e semplice. Essa `e data da


qcl (t) =

Q1 sin[( T2 t)] + Q2 sin[( T2 + t)]


sin(T )

2) Effettuiamo il cambiamento di variabili

(4.49)

122

Capitolo 4. Metodi di Meccanica Quantistica

q(t) = q (t) + (t)


cl
(T /2) = (T /2) = 0

(4.50)

Ne segue che
m
2

T /2

m
(q q )dt = Scl +
2
T /2
2

2 2

T /2

( 2 2 2 )dt

(4.51)

T /2

dove
m
[(Q21 + Q22 )cos(T ) 2Q1 Q2 ]
2sin(T )

Scl (Q2 , Q1 ; T ) =

(4.52)

Con ci`o il kernel devoluzione assume la forma




i
Kh.o. (Q2 , Q1 ; T ) = F (, T ) exp Scl (Q2 , Q1 ; T )
~


(4.53)

dove
Z

(T /2)=0


D(t) exp

F (, T ) =
(T /2)=0

im
2~

T /2


 
d2
dt 2 2
dt
T /2

(4.54)

La funzione F (, T ) deve essere calcolata diagonalizzando l operatore

( d2 2 )n (t) = n n (t)
dt2
(T /2) = (T /2) = 0
n

(4.55)

Anche questo problema pu`


o essere risolto analiticamente. Le autofunzioni sono
p
2/T sinn + 2 t
n pari
n (t) =
p

2/T cos + 2 t
n dispari
n

(4.56)

e gli autovalori sono dati da



n =

n
T

2

n = 1, 2, . . .

(4.57)

L insieme delle autofunzioni {n } `e completo e ortonormale. Pertanto possiamo espandere (t) nella
base delle n
(t) =

an n (t)

(4.58)

ed effettuare il cambiamento di variabili (t) {an }. La misura funzionale trasforma secondo la


relazione

D = J

Y
n

dan

(4.59)

4.4. La teoria delle perturbazioni

123

e la funzione F (, T ) diventa

F (, T )

=
=

1/2

Y n 1/2   d2
im X
2
2
=
det 2
J
dan exp
n an = J
2~ n
2i~
dt
n
n
Y
  2 Y


1/2
m
n
2 T 2 1/2
0 sin(T )
J
1 2 2
=J
(4.60)
2i~ T
n
T
n
n
Z Y

Dall esempio della particella libera ricaviamo che

F (0, T = = J 0 =

2i~T
m

1/2
(4.61)

e, in definitiva


Kh.o. (Q2 , Q1 ; T ) =

4.4

2i~ sin(T )
m

1/2


i
m
2
2
exp
[(Q1 + Q2 )cos(T ) 2Q1 Q2 ]
~ 2sin(T )

(4.62)

La teoria delle perturbazioni

Gli esempi discussi nel paragrafo precedente rappresentano i soli casi in cui il kernel devoluzione possa
essere calcolato analiticamente. In tutti gli altri casi si deve procedere mediante approssimazioni. La
teoria delle perturbazioni consente di effettuare calcoli tramite uno sviluppo in serie di potenze della
costante d accoppiamento del sistema. In questo paragrafo descriveremo la teoria delle perturbazioni
per la Meccanica Quantistica ordinaria, ma tutto quello che verr`a detto potr`a essere generalizzato in
linea di principio alla Teoria dei Campi. Consideriamo, dunque, un sistema quantistico descritto dalla
lagrangiana

L =

m 2
q V (q)
2

(4.63)

Facciamo inoltre le seguenti assunzioni sul potenziale V (q):



dV (q)
= 0
dq q=0


d2 V (q)
= m 2 > 0
dq 2 q=0

(4.64)

Naturalmente il potenziale V (q) `e definito a meno di una costante additiva arbitraria. Fissiamo questa
costante imponendo che V (0) = 0. In virt`
u delle assunzioni fatte, lo sviluppo in serie di potenze di

124

Capitolo 4. Metodi di Meccanica Quantistica

q del potenziale V (q) parte dal termine quadratico. Incorporiamo questo termine nella lagrangiana
cinetica introducendo un nuovo potenziale U (q), definito dalla relazione
m 2
(q 2 q 2 ) U (q)
2

L =

(4.65)

Conforntando le relazioni (4.63) e (4.65), otteniamo

U (q) = V (q)

m 2 2
q ' g1 q 3 + g2 q 4 + . . .
2

(4.66)

La parte quadratica della lagrangiana pu`


o essere integrata analiticamente. A tale scopo definiamo

K (J) (Q2 , Q1 ; T ) =

Z
Dq exp
(Q1 ,Q2 ;T )

im
2~

T /2

dt (q2 2 q 2 ) +

T /2

i
~

T /2


dt J(t)q(t)

(4.67)

T /2

Quest integrale `e gaussiano e pu`


o essere calcolato esattamente seguendo i passi descritti nei paragrafi
precedenti. Si risolve il problema

d2 q
dt2

1
mJ

+ 2 q =

(4.68)

q(T /2) = Q , q(T /2) = Q


1
2
Quindi si effettua il cambiamento di variabili

q(t) = qcl (t) +

1
m

T /2

dt0 G(t, t0 )J(t0 )

(4.69)

T /2

G(t, t0 ) `e la funzione di Green del problema

d2 G(t,t0 )
dt2

+ 2 G(t, t0 ) = (t t0 )

G(T

/2, t0 ) = G(T /2, t0 ) = 0


Effettuando, come al solito, il cambiamento di variabili q(t) = q(t) + (t), si trova


i
(J)
K (Q2 , Q1 ; T ) = Kh.o. (Q2 , Q1 ; T ) exp S(j)
~

(4.70)

(4.71)

dove

S(J)

=
+

1
2m

T /2

T /2dt
T /2

1
sin(T )

dt0 J(t)G(t, t0 )J(t0 ) +

T /2
T /2


 

 

T
T
dt J(t) Q1 sin
t + Q2 sin
+t
2
2
T /2

(4.72)

4.5. Rotazione euclidea

125

Introduciamo a questo punto il concetto di derivata funzionale. Essa `e definita dalla relazione
F [x(t) + (t t0 )] F [x(t)]
F [x(t)]
= lim
0
x(t0 )


(4.73)

Nella tabella seguente vengono riportati alcuni esempi.

F [x(t)]

F [x(t)]/x(t0 )

x(t)

(t t0 )

[x(t)]n

n[x(t)]n1 (t t0 )

dt f [x(t)]

df (x)
dx |x=x(t0 )

alcuni esempi di derivate funzionali

Dalla definizione di K (J) e dalla (4.73) si verifica facilmente la relazione


 n


Z

~

im 2
(J)
2 2

...
K (Q2 , Q1 ; T )
=
Dq q(t1 ) . . . q(tn ) exp
(q q )
i
J(t1 )
J(tn )
2~
(Q1 ,Q2 ;T )
J=0
(4.74)
La teoria delle perturbazioni `e facilmente ottenuta a partire da questa formula. In effetti possiamo
scrivere

 Z T /2


i
m 2
Dq exp
dt
q V (q)
=
~ T /2
2
(Q1 ,Q2 ;T )
 Z T /2 

Z
i
m 2
Dq exp
dt
(q 2 q 2 ) U (q)
=
~ T /2
2
(Q1 ,Q2 ;T )




Z

~
i T /2
(J)
exp
dt U
K (Q2 , Q1 ; T )
~ T /2
i J(t)
J=0

Z
K(Q2 , Q1 ; T )

=
=
=

(4.75)

e K (J) `e dato dalla (4.71).

4.5

Rotazione euclidea

Ad essere precisi, le formule precedenti sono state derivate sotto l assunzione implicita di introdurre
nell azione un termine regolatore
Z
i

dt [q(t)]2

cio`e

2 2 i

(4.76)

126

Capitolo 4. Metodi di Meccanica Quantistica

il cui effetto `e quello di dampare esponenzialmente i valori delle variabili di integrazione q(t). La
dipendenza dal regolatore viene rimossa alla fine del calcolo effettuando il limite 0. Un altro
modo (pi`
u rigoroso) di procedere `e quello di considerare il kernel euclideo
1

KE (Q2 , Q1 ; TE ) = hQ2 |e ~ HTE |Q1 i =

e ~ En TE n (Q2 )n (Q1 )

(4.77)

che differische da K soltanto per la sostituzione T iTE , dove TE `e reale. Questa sostituzione `e
nota come rotazione di Wick. Un espressione per KE si ottiene immediatamente scrivendo
Z

KE (Q2 , Q1 ; T ) =
(Q1 ,Q2 ;T )




Z
1 T /2
m 2
Dq exp
dt
q + V (q)
~ T /2
2

(4.78)

cio`e la lagrangiana nella rappresentazione minkowskiana `e rimpiazzata da quella euclidea

LM

 
  2

m dq 2
m dq
=
V (q)
+ V (q) LE
2 dt
2 dt

(4.79)

La versione euclidea delle formule precedenti si ottiene facilmente effettuando la sostituzione t it.
Per esempio:

Ke(h.o.) (Q2 , Q1 ; T )


=

m
2~sin(T )

1/2


1
exp SE (Q2 , Q1 ; T )
~

(4.80)

dove

SE (Q2 , Q1 ; T ) =

m
[(Q21 + Q22 )cosh(T ) 2Q1 Q2 ]
2sinh(T )

(4.81)

Allo stesso modo

(h.o.)

KE

(Q2 , Q1 ; T ) eT /2 0 (Q2 )0 (Q1 )[1 + O(eT )]

per T

(4.82)

e la funzione d onda dello stato fondamentale



0 (Q) =

m
~

1/4



m 2
exp
Q
2~

(4.83)

`e la stessa di prima. Va notato che


1) Per T

soltanto lo stato di energia pi`


u bassa (vuoto) contribuisce a K almeno se

E1 E0 = > 0.

4.6. Le funzioni di correlazione

127

2) La formula

KE (Q2 , Q1 ; T ) =

e ~ En T n (Q2 )n (Q1 )

(4.84)

`e l espressione della matrice densit`


a per un sistema quantistico con livelli energetici En alla temperatura ~/kB T . In particolare la termodinamica del sistema `e descritta da
Z
dQ KE (Q, Q; T ) tr(KE )

ZE =

4.6

(4.85)

Le funzioni di correlazione

E interessante considerare le seguenti quantit`a

G(n) (t1 , . . . , tn ) =

h0|T {q(t1 ) . . . q(tn )}|0i


h0|0i

(4.86)

Allo scopo di esprimere G(n) in linguaggio funzionale, consideriamo come esempio la funzione a due
punti G(2) (t1 , t2 ). Dati t1 e t2 tali che T /2 < t1 < t2 < T /2, vale lidentit`a


1
Dq q(t1 )q(t2 )exp S =
~
(Q1 ,Q2 ;T )
Z
dqdq 0 KE (Q2 , q; T /2 t2 ) q KE (q, q 0 ; t2 t1 ) q 0 KE (q 0 , Q1 ; t1 + T /2)
Z

(4.87)

Nel limite in cui T

Z

lim

(Q1 ,Q2 ;T )

Dq q(t1 )q(t2 )e ~ S 

Dq e ~ S

(Q1 ,Q2 ;T )

= e
=

1
E (t t1 )
~ 0 2

dqdq 0 0 (q) q KE (q, q 0 ; t2 t1 ) q 0 0 (q 0 ) =

h0|q(t2 )q(t1 )|0i


h0|0i

t2 > t1

(4.88)

dove abbiamo posto E0 = 0. Dunque l integrale funzionale `e in grado di rappresentare il T prodotto.


Poich`e nel limite T la dipendenza da Q1 e da Q2 scompare, `e utile definire il Funzionale
Generatore

128

Capitolo 4. Metodi di Meccanica Quantistica

1
Dq exp
~

ZE (J) =

dt LE +


dt Jq

(4.89)

Allora

(n)

(t1 , . . . , tn ) =
...
ZE (J)
ZE (0) J(t1 )
J(tn )
J=0

(4.90)



Z
1 T /2
Dq exp
dt LE
~ T /2
(Q,Q;T )

(4.91)

Si osservi che la quantit`


a
Z
Z lim

Z
dQ

pu`o essere pensata come la somma sugli stati di un sistema statistico classico la cui hamiltoniana `e
data da
Z

H =

dt LE

(4.92)

alla temperatura 1/(kB ~):





1
Z = tr exp H
~

4.6.1

(4.93)

Funzioni di Green connesse

Le funzioni di Green connesse sono generate dal funzionale

W (J) = ~ log Z(J)

(4.94)

Da ora in poi porremo ~ = 1. Infatti


G(1)
c (t)

0
G(2)
c (t, t )



1 Z(J)
W (J)
=
=
= G(1) (t)
J(t) J=0
Z(J) J(t) J=0



2 W (J)
1
2 Z(J)
=
+

J(t)J(t0 ) J=0
Z(J) J(t)J(t0 ) J=0

1 Z(J) Z(J)
= G(2) (t, t0 ) G(1) (t)G(1) (t0 )
[Z(j)]2 J(t) J(t0 ) J=0

(4.95)

(4.96)

4.6. Le funzioni di correlazione

4.6.2

129

Funzioni di Green 1PI

Le funzioni di Green 1PI (irriducibili ad una particella) sono generate dalla trasformata di Legendre
di W :


Z
(x) = min W (J) + dt J(t)x(t)
J

(4.97)
x fissato

Il minimo si ottiene derivando funzionalmente la quantit`a tra parentesi quadre rispetto a J. Si ottiene
co` J come funzione di x:

x(t) =

W (J)
J(t)

(4.98)

Ne segue che
(x)
= J(t)
x(t)

(4.99)

`e stazionaria a J = 0. La dimostrazione dell irriducibilit`a ad una particella `e la seguente. Per


prima cosa osserviamo che
W (J)
= x(t)
J(t)

2 W (J)
= (t t0 )
J(t)x(t0 )

(4.100)

e dunque

(t t ) =
da cui si deduce che

2 (x)
x(t) x(t0 )

2 W (J) J( )
d
=
(J) ( ) x(t0 )

(2)

d G(2)
c (t, )

2 (x)
x( )x(t0 )

(4.101)

W (J)
`e l inverso del kernel Gc (t, t0 ) = J(t)
J(t0 ) . Quindi osserviamo

che

=
+

Z
3 W (J)
J( ) J( 0 )
3 W (J)
0
=
d
d
+
J(t)x(t0 )x(t00 )
J(t)J( ) J( 0 ) x(t0 ) x(t00 )
Z
2 W (J)
2 J( )
d
J(t)J( ) x(t0 )x(t00 )

(4.102)

e da questa deduciamo la relazione

3 (x)
=
x(t)x(t0 )x(t00 )

d d 0 d 00

3W (J)
2 (x)
2 (x)
2 (x)
J( )J( 0 )J( 00 ) x(t)x( ) x(t0 )x( 0 ) x(t00 )x( 00 )

(4.103)

130

Capitolo 4. Metodi di Meccanica Quantistica

Questa relazione ha una naturale interpretazione grafica, come illustrato nel diagramma sottostante.

Gc

Gc(3)

0000
1111
0000
1111
111111111
000000000
0000
1111
000000000
111111111
000000000
111111111
000000000
111111111
000000000
111111111
0000
1111
000000000
111111111
0000
1111
000000000
111111111
0000
1111
0000
1111
0000
1111

11111
00000
00000
11111
00000
11111
00000
11111

Gc

(2)

(2)

000
111
000
111
1111
0000
0000
1111
0000
1111
0001111
111
0000000
111
(3)
0000000000
1111111111

0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
000
0000000000111
1111111111
000
111
0000
0001111
111
0000
1111
0000
1111
000
111
0000
1111
000
111
0000
1111
000
(2)111

Gc

funzione di Green 1PI a tre punti


(3)

(3) `e ottenuta da Gc

amputando la funzione di Green completa a due punti su ciascuna gamba.

Allo stesso modo si ottiene la funzione di correlazione 1PI a quattro punti:

(2)
00Gc
11

000
11111 Gc 111
00000
000
111
00000
11111
000
111
0000000
1111111
00000
11111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
00000
11111
000
111
00000
11111
000
111
00000
11111
000
111

Gc (2)

000
111
0000
1111
000
111
0000
1111
11
00

0000
1111
000
111
0000
1111
00
11
0000
1111
000
111
0000
1111
00
11
000
111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
+
0000000000
1111111111
0000000000
1111111111
000000000011
1111111111
000
111
00
0000
1111
000
111
0000
1111
00
11
0000
1111
000
111
0000
1111
00
11
0000
1111
000
111
0000
1111
(2)
00G
11
(2)
000
c
G111

(4)

(4)

(2)

Gc
111
000
000
111
000
111
000
111
0000
1111
000
111
0000
1111
000
111
(3)
0000
1111
000000
111111
0000
1111
000000
111111

000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
(2)
00000
11111
000000
111111
G11111
00000
c
000
111
00000
11111
000
111
00000
11111
000
111
000
111
000
111
000
000111
111

(2)

11111
00000
00000
11111
00000
11111
00000
11111
(2)
Gc

Gc 111
000
111
000
000
111
000
111
000
111
0000
1111
000
111
0000
1111
0000
1111
(3)
000000
111111
0000
1111
000000
111111

000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
00000
11111
000000
111111
Gc (2)
00000
11111
00000
11111
0000
1111
00000
11111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111

funzione di Green 1PI a quattro punti

4.7. Espansione semiclassica di (x)

4.7

131

Espansione semiclassica di (x)

In questo paragrafo discutiamo l espansione del funzionale generatore delle funzioni di Green 1PI in
serie di potenze di ~. Questa espansione `e nota come espansione semiclassica. Partiamo dal funzionale
generatore delle funzioni di Green
Z
ZE (J) =




Z
1
Dq exp S dt Jq
~

(4.104)

e in particolare prendiamo come esempio una lagrangiana con potenziale quartico

LE =

m 2
(q + 2 q 2 ) + q 4
2
4

(4.105)

Le equazioni del moto classico, come detto all inizio del capitolo, si ottengono imponendo la stazionariet`a dell azione
S
J(t) = 0
q(t)

d2 qJ

1
+ 2 qJ + qJ3 =
J
2
dt
m
m

(4.106)

Vogliamo sviluppare in serie funzionale di Taylor l azione S nell intorno della traiettoria classica. A
tale scopo osserviamo che
 2

S
d q
2
= m 2 + q + q 3
q(t)
dt
2S
=
q(t)q(t0 )
Z
S(q) = S(qJ ) +

(4.107)

 


d2
2
2
m 2 +
+ 3q (t t0 )
dt

(4.108)



Z

S
1
2S
0
(t0 ) + O( 3 )
dt
(t) +
dtdt (t)

q(t) qJ
2
q(t)q(t0 ) qJ

(4.109)

dove abbiamo posto

q(t) = qJ (t) + (t)

(4.110)

Sostituendo nel funzionale generatore Z(J) si ottiene

Z(J)

e ~ W (J) = e ~ (S(qJ ) JqJ )





Z
Z
m
d2
3 2
2
D exp
dt (t) 2 + +
q (t) + O( 3 )
~
dt
m J

(4.111)

132

Capitolo 4. Metodi di Meccanica Quantistica

Possiamo usare questa espressione per sviluppare il funzionale generatore delle funzioni di Green
connesse
Z
W (J) = S(qJ )

JqJ



d2
3 2
~
2
q
+ O(~2 )
log det 2 + +
2
dt
m J

(4.112)

Poich`e


Z
Jx
(x) = min W (J) +
J

(4.113)

si ricava
W (J)
x =
=
J


Z
S qJ
qJ
qj
J
+ O(~)
q qJ J
J

(4.114)

x = qJ + O(~)

(4.115)

Il minimo si ottiene per

e il funzionale (x) ammette il seguente sviluppo




~
d2
3 2
2
x
+ O(~2 )
(x) = S(x) log det 2 + +
2
dt
m

(4.116)

Concludiamo con alcune osservazioni. Anzitutto osserviamo che


det(A) = exp[tr log(A)]

(4.117)

Se A = I +gB, allora det(A) pu`


o essere sviluppato in serie di potenze di g. In secondo luogo osserviamo
che, a ciascun ordine in ~, (x) `e una serie infinita in .

Appendice A

HohenbergKhon Theorem
In these notes we review the fundamental HohenbergKhon theorem. The essential statement of this
theorem is that an exact representation of the ground state properties of a stationary, non-relativistic,
manyelectrons system is possible in terms of the ground state density alone. The theorem ensures
that the exact ground state density can be calculated (without recourse to the Schroedinger equation)
using a variational principle involving only the density. For a given system of interacting particles
moving in the external potential v(r), the exact ground state density and energy are obtained by
minimization of the energy functional
Z
Ev [n] = T [n] + W [n] +

d3 r v(r) n(r) ,

(A.1)

where the kinetic, T [n], and the two particle, W [n], contributions are suitable universal functionals of
the density n(r), in the sense that they do not depend on the external potential v(r) of the system in
question.

A.1

The theorem

The manyparticle systems under consideration are characterized, in the BornOppenheimer approximation, by an Hamiltonian of the form
= T + V + W
.
H
In the second quantization formalism, the kinetic energy operator is
Z
~2 X

T =
d3 x (x) 2 (x) ,
2m

133

(A.2)

(A.3)

134

Appendice A. HohenbergKhon Theorem

are the external singleparticle and the two body potential terms. They are given by the
V and W
formulae
V

XZ

d3 x (x) v(x) (x)

(A.4)

d3 x d3 y (x) (y) w(x, y) (y) (x)

(A.5)

XZ

respectively, where the functions v(x) and w(x, y) characterize the system. In the previous formulas
we have omitted the functional dependence on the ionic positions, as they are considered fixed within
the BornOppenheimer approximation. In eqs. (A.3) to (A.5) the fields (x) are nonrelativistic
acting on
operators that destroy an electron with quantum numbers . In particular, the operator W
antisymmetric multielectron states will give rise to the standard direct and exchange potential terms.
To explain the hypothesis of the theorem it is useful to introduce two sets of functions, related to the
Hamiltonian eigenvalues problem



|i = E |i .
T + V + W

(A.6)

Let be the set of all the local oneparticle potentials V such that the solution of the eigenvalues
problem (A.6) leads to a nondegenerate ground state for the system of N electrons, i.e. in formulae,
n 

o
|i = Egs |i , Egs non degenerate .
= V | T + V + W
(A.7)
The second set, , collects all the nondegenerate ground states corresponding to the potentials that
are in . Eq. (A.6) estabilishes a surjective map between the sets and (see Fig. A.1):
A :

(A.8)

Now we define a second map by computing, for each (ground state) wave function contained in ,
the (ground state) density
n(x1 ) = N

X Z

dx2 dxN h| x1 1 ; ; xN N i hx1 1 ; ; xN N | i =

1 N

= N

X Z

dx2 dxN |(x1 1 ; ; xN N )|2 .

(A.9)

1 N

We collect such densities in the set (see Fig. A.2):


B : .

(A.10)

A.1. The theorem

135

Potentials

Ground States

Figura A.1: The first map: A is a surjective map between the set of all the one-particle potentials
leading to nondegenerate ground states for the N fermions problem and the set of such nondegenerate ground states.

Potentials

Densities

Ground States

Figura A.2: The first and the second map: B is a surjective map between the set of all the non
degenerate ground states for the N fermions problem corresponding to a one-particle potential in
and the set of the associated ground state densities.

136

Appendice A. HohenbergKhon Theorem

The first proposition of the Hohenberg-Khon theorem states


Hohenberg-Khon 1 The maps A and B are also injective (one to one) and thus bijective (fully
invertible).
To prove that A is injective one has to show that two potentials V , V 0 differing by more than a
constant,
V 6= V 0 + const

(A.11)

lead to different ground states, |i =


6 |0 i. Lets consider the two Schroedinger equations



|i = Egs |i
T + V + W

(A.12)



0 = E 0 gs 0 ;
T + V 0 + W

(A.13)

if we assume |i = |0 i then, substracting (A.12) from (A.13), one gets






V V0 |i = Egs E 0 gs |i .

(A.14)

From the fact that in the xrepresentation V and V0 act as multiplicative operators we conclude that
V V0 = Egs E 0 gs , i.e. that the two potentials differ at most by a constant, in contradiction with
(A.11).
We now prove that also B is injective. To this end, let |i 6= |0 i be two non degenerate (ground
state) wave functions. From the Ritz principle we get
0
=
0 H
i

h 0
V 0 + V 0 =
= 0 H
Z


= E 0 gs + d3 r n(r) v(r) v 0 (r) .

|i <
Egs = h| H

(A.15)

0 |0 i one ends up with the following two inequalities


Repeating the same argument for E 0 gs = h0 | H

0 < [E 0 gs Egs ] + d3 r n(r) [v(r) v 0 (r)]

(A.16)

0 < [E E 0 ] R d3 r n0 (r) [v(r) v 0 (r)]


gs
gs
whose sum gives
Z




d3 r n(r) n0 (r) v(r) v 0 (r) > 0 .

(A.17)

A.1. The theorem

137

From V =
6 V 0 + const it then follows that n(r) 6= n0 (r). At this point, it is important to stress that
we have also shown that the third map,
C = (AB)1 :

(A.18)

is injective.
Another important observation following from the Hohenberg-Khon theorem is that, using the inverse
of the map B, each ground state is a unique functional of the ground state density:
B 1 : n(r) |[n]i

(A.19)

and consequently
is a unique functional of the ground
Hohenberg-Khon 2 the expectation value of any observable O
state density:
|[n]i
O[n] = h[n]| O

(A.20)

Using the map (AB)1 , given a particular n0 (r), we consider the associated one-particle external
potential V0 (that is in a one-to-one correspondence with n0 (r)). The Hamiltonian of this N particle
system is
0 = T + V0 + W
= T + V0 [n0 ] + W
.
H

(A.21)

We observe that the Ritz variational principle leads to the inequality


h
i
0 |0 i = h[n0 ]| T + V0 [n0 ] + W
|[n0 ]i
E0 h0 | H
h
i
|[n]i
< h[n]| T + V0 [n0 ] + W
= E[n, n0 ] ,

(A.22)

where we have used the H-K theorem to conclude that [n] 6= [n0 ] when n 6= n0 . Note that we are
not varying the potential V0 otherwise we would change the system and this is a thing we do not want
to do. Thus the H-K theorem can be rephrased as the following variational principle:
Hohenberg-Khon 3 the exact ground state density of an interacting manyparticle system can be
determined by minimization of the energy functional
h
i
|[n]i ,
E[n, n0 ] = h[n]| T + V0 [n0 ] + W

(A.23)

138

Appendice A. HohenbergKhon Theorem

where V0 [n0 ] is uniquely determined by the exact (ground state) density, n0 , of the system.
Another important observation comes from the second proposition of the H-K theorem and concerns
are independent from the external one-particle potential, i.e.
the fact that both T and W
Hohenberg-Khon 4 the functional
i
h
|[n]i
FHK [n] = h[n]| T + W

(A.24)

does not depend on the external potential but only on the ground state density.
Consequently we can rewrite the energy functional as
E[n, n0 ] = FHK [n] + h[n]| V0 [n0 ] |[n]i
Z
= FHK [n] + d3 x n(x) v[n0 ](x) ,

(A.25)

where v[n0 ](x) is the density of the potential V0 in corresponding to n0 in . For further use, we
notice that the minimum condition for eq. (A.25) (see the relation (A.22)) is given by
FHK [n]
+ v[n0 ](x) = 0 .
n(x)

(A.26)

The solution of this equation, in view of eq. (A.25), is the actual density n0 .

A.2

Khon-Sham equations

The variational principle of HohenbergKhon allows the determination of the exact ground state
density of a specified manyparticle system. From a computational point of view many advantages
come from the replacement of the direct variation with respect to the density by the intermediary of
an orbital picture. A way to perform this task has been proposed by Khon and Sham introducing
an auxiliary system of nonselfinteracting (NSI ) particles (characterized by a oneparticle potential
vN SI ), chosen to have the same density as the physical selfinteracting (SI ) system.
The H-K theorem ensures that given the ground state density n of a system (i.e. what was called
n0 in the previous section), its external potential is uniquely determined. This has to be true for the
nonselfinteracting as well as for the selfinteracting system. More precisely, we have a SI system
characterized by its external potential VSI and, consequently, using the map AB, by the ground state
density n; at the same time, using the map (AB)1 in the case of the NSI system, the potential VN SI

A.2. Khon-Sham equations

139

Self-Interacting
System

VSI

Non Self-Interacting
System

n
(AB)

(AB)-1

VNSI

K-S
Figura A.3: A selfinteracting system is uniquely determined by its external potential; this potential
is in a one-to-one correspondence with the ground state density. At the same time, a nonself
interacting system is uniquely determined by its ground state density. Consequently, given a self
interacting system, a non-selfinteracting system with the same ground state density remains uniquely
determined.

corresponding to the same ground state density n remains uniquely determined (see Fig. A.3). The
point to go through the NSI system is that in order to be able to actually use eq. (A.26) one needs to
know its explicit ndependence.
Lets go into the details of the method considering the Hamiltonian of the nonselfinteracting system
):
(no W
N SI = T + VN SI [n] ;
H

(A.27)

We work in the hypothesis of nondegenerate ground states. In this case, the ground state density
n has a unique representation in terms of the lowest eigenstates of the single particle Shrodinger
equation, namely


~2 2

+ vN SI [n](x) i (x) = i i (x)


2m

n(x) =

N
X

|i (x)|2

1 2 .

(A.28)

(A.29)

i=1

The ground state of this system is the Slater determinant built by single particle lowest energy states.


Let us use the notation N SI [n] for the ground state in that corresponds to n in through the
map B. T Thus for any given n, the kinetic energy functional of the nonselfinteracting system is

140

Appendice A. HohenbergKhon Theorem

given by


TN SI [n] = N SI [n] T N SI [n] .

(A.30)

We see that, using the definition of the nonselfinteracting kinetic energy functional (eq. (A.30)), the
single particle Schr
odinger equation (A.28) is equivalent to
TN SI [n]
+ vN SI [n](x) = 0 .
n(x)

(A.31)

The solution of this equation is the electronic density which is in correspondence with vN SI , i.e. n.
Lets now consider the selfinteracting system. In corrispondence with its Hamiltonian operator
SI = T + W
+ VSI [n]
H

(A.32)

we can construct the energy functional


SI |[n]i = FHK [n] +
ESI [n] = h[n]| H

d3 x n(x)vSI [n] .

(A.33)

Adding and subtracting to the previous equation the kinetic energy functional of the nonself
interacting system, eq. A.30, and an Hartree term
1
WH [n] =
2

d3 xd3 y n(x)

e2
n(y) ,
|x y|

(A.34)

we can write
Z
ESI [n] = TN SI [n] +

1
d x n(x)vSI [n]
2
3

d3 xd3 y n(x)wH (x, y)n(y) + E ex [n] ,

(A.35)

e
with wH (x, y) = |xy|
and the exchange energy functional defined as

1
E [n] = FHK [n] +
2
ex

d3 xd3 y n(x)wH (x, y)n(y) TN SI [n] .

(A.36)

Taking the variation of eq. (A.36) with respect to the ground state density, using the one particle
Schrodinger equations (A.31) and (A.26), we find the expression of the non-selfinteracting external
potential as a function of the exchange energy and the selfinteracting external potential

Z
E ex [n]
3
vN SI [n](x) = vSI [n](x) + d y wH (x, y)n(y) +
.
n(x) n=n

(A.37)

This relation is the key formula of the Khon-Sham scheme. In order to make explicit calculations using
this scheme, a good parametrization of the exchange energy functional has to be supplied. Usually

A.2. Khon-Sham equations

141

one resorts to the socalled local density approximation (LDA).

At this point, observing that vSI is a known function (e.g. the electric actraction between the electrons
and the nuclei), one makes a first guess on the electronic state density, let us call it n0 (x). Using n0 (x)
one calculates, from eq. (A.37), the potential of the NSI system vN SI [n0 ](x). This result is inserted
back in eq. (A.28) and its solution, via eq. (A.29), allows to refine the intial guess on the electronic
density obtaining n1 (x). The procedure is iterated, in a selfconsistent way, until a reasonable precision
is reached.