Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
DIPARTIMENTO
di
FISICA NUCLEARE e TEORICA
G. Zambotti
Introduzione alla
MECCANICA STATISTICA
A.A. 2009/2010
The topics we shall analyse
are not always well defined.
They are often complicated
and fuzzy.
(S.K. Ma)
Queste note raccolgono gli argomenti trattati nel corso di Meccanica statistica (AA 2009/2010). Ven-
gono studiati i sistemi in equilibrio, con particolare attenzione per i fondamenti e i metodi. Le ”appli-
cazioni” sono ridotte al modello di Ising unidimensionale e ai gas ideali di Fermi e di Bose.
Ringrazio gli studenti di questo e dei precedenti corsi per la loro attenzione. Ringrazio doppiamente
chi in passato mi ha segnalato errori ed omissioni, e chi lo farà in futuro.
G. Z.
1) Fondamenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1) Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2) Fondamenti della meccanica statistica classica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3) L’ipotesi ergodica classica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4) Commenti sul teorema ergodico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5) Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3) Termodinamica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1) La rappresentazione dell’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2) Lo stato di equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3) La trasformata di Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4) Altre rappresentazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.5) Non applicabilità della trasformata di Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6) La trasformata di Legendre generalizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.7) Le condizioni di stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.8) Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6) Il modello di Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.1) Il modello di Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.2) La approssimazione del campo medio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.3) Il modello di Ising unidimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.4) La magnetizzazione del modello unidimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.5) Le funzioni di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.6) La suscettività per la catena aperta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.7) Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1 Fondamenti
1.1 Premessa
Un sistema fisico come, ad esempio, un gas (classico) può essere descritto, in prima approssimazione,
come un insieme di N punti materiali (”molecole”) soggetti alle leggi della meccanica analitica. Secondo
questo punto di vista, il moto del sistema è descritto da un insieme di funzioni (qi (t), pi (t); i = 1, . . . , 3N ),
con una dipendenza dal tempo, t, determinata dalle equazioni di Hamilton. La caratteristica essenziale
della descrizione del gas fornita dalla meccanica analitica è di essere esatta (chiaramente solo in linea di
principio, date le ovvie difficoltà di scrivere, nonchè di risolvere, le equazioni di Hamilton quando il valore di
N è quello tipico di un sistema macroscopico), e completa (nel senso che essa contiene tutta l’informazione
possibile relativa al sistema).
Lo stesso sistema (il gas) viene descritto anche da altre teorie: dalla termodinamica (TD), se esso
è in ”equilibrio termodinamico”, o dalla dinamica dei fluidi (DF), se esso è sede di moti macroscopici
(flussi di materia, propagazione e/o smorzamento di onde sonore, trasmissione di calore, ecc.). TD e DF
utilizzano un numero di variabili macroscopiche (densità, pressione, temperatura, ecc.), molto più piccolo
del numero delle (q, p). La descrizione del sistema fornita da TD e DF è dunque enormemente incompleta
rispetto a quella della meccanica analitica. La meccanica statistica (classica) è la teoria che definisce e
giustifica i metodi per derivare le descrizioni macroscopiche (incomplete), come TD e DF, dalla descrizione
microscopica (completa) fornita dalla meccanica analitica.
Nella meccanica statistica (classica) le variabili macroscopiche sono definite come valori medi di op-
portune variabili microscopiche, calcolati mediante una opportuna densità di probabilità, ρ(x), funzione
del ”microstato” x (per i sistemi in equilibrio termodinamico, ρ è indipendente da t). La determinazione
di ρ è il problema centrale della teoria dei fondamenti della meccanica statistica.
Consideriamo un sistema classico con N gradi di libertà (1) , i cui stati microscopici (o ”microstati”)
siano descrivibili come punti, di coordinate x =
˙ (q1 , · · · qN , p1 , · · · , pN ), di uno spazio euclideo 2N -
dimensionale, Γ (lo ”spazio delle fasi”; Γ può anche essere discreto: vedi l’es. 1.4). I sistemi di interesse
per la meccanica statistica sono (di solito) privi di vincoli: in tal caso, le coordinate lagrangiane coincidono
con le coordinate di posizione, e i momenti coniugati con le quantità di moto. Come vedremo nel seguito,
l’insieme dei microstati può coincidere con tutto Γ (come per un sistema ”in equilibrio termico con una
riserva di calore”), oppure con una sottoregione di Γ (come per un sistema ”isolato” con una energia
assegnata), oppure può risultare dalla unione di un opportuno insieme di spazi Γ (come per un gas con
numero di particelle indefinito: vedi il § 5.5). Fino ad avviso contrario considereremo solo sistemi per i
(1)
Il numero dei gradi di libertà di un sistema macroscopico in genere non è conosciuto con precisione: ad esempio,
per un gas il numero dei gradi di libertà dipende dal numero delle molecole, che, non solo non è noto con precisione, ma
può anche essere variabile. Quindi bisogna accertare che le previsioni della teoria non dipendono dal valore preciso di N ,
oppure, in alternativa, prepararsi a generalizzare la teoria in modo da poter trattare N come una ulteriore variabile casuale.
Quest’ultimo è il punto di vista della meccanica statistica nella formulazione ”gran canonica” (vedi il cap. 5).
1.2 Fondamenti della meccanica statistica classica 2
La forma esplicita di ρ sarà discussa in seguito; per ora basti osservare che, per ogni t, ρ(x, t) deve essere
una funzione (su Γ ) reale, non negativa, e normalizzata:
Z Y
N
dx ρ(x, t) = 1 , con : dx =
˙ dqi dpi . (1.1)
Γ i=1
Si noti che il postulato P1 si applica anche quando l’informazione sul microstato è completa, cioè quando
si sa con certezza che a un certo istante t0 il microstato di un sistema è un certo x0 . Infatti, tale caso
corrisponde a: ρ(x, t0 ) =
˙ δ(x − x0 ) (dove δ(z) è la ”delta di Dirac” (multidimensionale) di argomento z).
Chiamiamo ”variabili microscopiche” le funzioni dello stato microscopico: b = b(x) (b è una funzione
su Γ ). In linea di principio, una variabile microscopica può dipendere esplicitamente da t (ad esempio, la
hamiltoniana di un sistema può contenere un campo esterno dipedente da t); qui ci limitiamo a variabili
microscopiche che non dipendono esplicitamente da t. Data una variabile microscopica b, chiamiamo ”valor
medio di b calcolato con la densità di probabilità ρ”, il seguente integrale (o somma, nel caso di Γ discreto):
Z
®
B(t) =˙ b t= ˙ dx ρ(x, t) b(x) . (1.2)
Γ
1.2 Fondamenti della meccanica statistica classica 3
Una importante classe (di funzioni ρ) è quella delle ρ per le quali vale la condizione:
∂ρ
= 0; (1.4)
∂t
tali ρ sono dette ”stazionarie”. Le variabili macroscopiche calcolate (tramite la (1.2)) con una ρ stazionaria
sono stazionarie (cioè indipendenti da t). Infatti, da (1.2) e (1.4) segue:
Z
dB ∂ρ
= dx b = 0. (1.5)
dt Γ ∂t
Un sistema macroscopico per il quale tutte le variabili macroscopiche sono indipendenti da t è un sistema ”in
equilibrio termodinamico”. Pertanto, condizione necessaria e sufficiente perchè un sistema macroscopico
sia in equilibrio termodinamico è che la ρ che lo caratterizza (nel senso del postulato P1 ) soddisfi la (1.4).
Per sistemi in equilibrio le (1.2) e (1.3) si scrivono:
Z Z
B= ˙ hbi = ˙ dx ρ(x) b(x) , e, rispettivamente : B(r) = ˙ hbir =
˙ dx ρ(x) b(x, r) . (1.6)
Γ Γ
B) Variabili macroscopiche per le quali non esiste una corrispondente variabile microscopica: esempi
tipici sono l’entropia e la temperatura. Le variabili di tipo B devono essere definite ad hoc: qui di seguito
definiamo l’ ”entropia statistica”.
Consideriamo dapprima un sistema i cui microstati accessibili formano un insieme finito, costituito
da N microstati. Assumiamo che la probabilità che il sistema si trovi nel microstato i-esimo (con: i =
P
1, . . . , N ) sia pi . Chiameremo l’insieme {p} =
˙ (pi : i = 1, . . . , N ) (con: i pi = 1): ”distribuzione di
−1
probabilità”. Nel caso in cui le probabilità pi siano uguali: pi = ˙ p=N (i = 1, . . . , N ), definiamo la
”entropia statistica”, Sst , come:
Sst =
˙ − ln p =˙ ln N . (1.7)
L’entropia statistica è una funzione (crescente) del numero di stati microscopici disponibili. La scelta del
logaritmo conferisce ad S la proprietà della ”additività”: l’entropia di un sistema composto da due sistemi
è la somma delle rispettive entropie (vedi l’es. 1.5a). Come è ben noto (vedi anche il cap. 3) la additività
è una delle proprietà anche dell’entropia termodinamica.
In generale le pi sono diverse. Definiamo allora Sst come:
N
X
Sst =
˙ Sst ({p}) =
˙ − pi ln pi (1.8)
i=1
(per un esempio della (1.8) vedi l’es. 1.4d). È chiaro che la (1.7) è un caso particolare della (1.8). Viceversa,
la (1.8) può essere vista come una ”media sui microstati” della entropia (1.7):
N
X
Sst =
˙ pi (Sst )i , con : (Sst )i =
˙ − ln pi . (1.9)
i=1
1.3 L’ipotesi ergodica classica 4
La notazione S[ρ] mette in evidenza il fatto che S è funzione di ρ. Per sistemi il cui spazio delle fasi
accessibile è un sottoinsieme proprio di Γ le definizioni precedenti devono essere riformulate: un esempio
importante (il sistema isolato) sarà illustrato nel cap. 4.
Non è ovvio, a priori, che l’entropia statistica possa essere una grandezza fisicamente rilevante. Sor-
prendentemente, tuttavia, ciò accade. Risulta infatti:
ST) L’entropia termodinamica, Std , coincide con l’entropia statistica (moltiplicata per la
costante di Boltzmann, kB ):
Std = kB Sst . (1.11)
La (1.6) e la (1.11) (nel seguito scriveremo semplicemente S, invece di Std ) sono alla base della validità e
dell’importanza della meccanica statistica (di equilibrio) come teoria fisica.
Vedremo più avanti (cap. 3) che da S è possibile derivare tutte le altre variabili di tipo B. Assegnata
una ρ, la (1.6), per le variabili di tipo A, e la (1.11) per le variabili di tipo B, definiscono allora tutte le
variabili macroscopiche del sistema. Se chiamiamo ”stato macroscopico” (o ”macrostato”) del sistema un
insieme di valori di tutte le variabili macroscopiche, possiamo affermare che una ρ definisce un macrostato
del sistema.
I postulati del paragrafo precedente non sono sufficienti a definire concretamente la ρ che corrisponde
allo stato di equilibrio di un sistema dato. Dobbiamo quindi ricorrere ad un ulteriore postulato. Conside-
riamo i più ”elementari” tra i sistemi in equilibrio, e cioè quelli isolati (sistemi non isolati saranno discussi
nel cap. 5). Consideriamo quindi sistemi per i quali la hamiltoniana, H, è costante del moto (assumiamo
anche che le forze siano conservative; allora H coincide con l’energia), e formuliamo il seguente postulato:
P2 ) Per un sistema isolato in equilibrio, ρ(x) è costante sullo spazio delle fasi accessibile.
Il postulato P2 equivale ad assumere che un sistema isolato in equilibrio si possa trovare con uguale densità
di probabilità (o probabilità) in tutti i microstati accessibili. La ρ definita dal postulato P2 viene chiamata
”microcanonica”.
Dal punto di vista matematico, i postulati P, e le definizioni come la (1.6), permettono di calcolare
1.3 L’ipotesi ergodica classica 5
le variabili macroscopiche (di tipo A) di un sistema isolato. Rimane, tuttavia, la necessità di giustificare
fisicamente i postulati e le definizioni. In particolare, consideriamo la (1.6). Essa afferma, nel caso di
una ρ stazionaria (vedi la (1.4)), che le variabili macroscopiche di un sistema in equilibrio termodinamico
non dipendono da t. Ciò è consistente con l’idea che un sistema in equilibrio termodinamico sia in uno
stato macroscopico stazionario, ma è anche in contraddizione col fatto che lo stato microscopico dello
stesso sistema dipende da t ! Per superare la contraddizione è opportuno richiamare la diversità delle
scale temporali delle osservazioni macroscopiche e della dinamica microscopica. Si osserva infatti che,
di solito, la misura di una grandezza di un sistema macroscopico richiede, per l’inerzia dell’apparato
di misura, un tempo molto più lungo dei tempi caratteristici della dinamica microscopica del sistema.
Assumendo che l’operazione di misura non perturbi il sistema, si può allora assumere che durante la
misura il sistema percorra, nello spazio delle fasi, tutto un tratto di traiettoria ([Bal app. A.7], [Far §
2.3]), e che il risultato della misura corrisponda ad una media sui microstati toccati dalla traiettoria, cioè
ad una ”media temporale”. È allora opportuno formulare un ulteriore postulato, che, limitatamente alle
variabili di tipo A, fornisce una nuova definizione di ”variabile macroscopica”:
dove x(x0 , t0 ; t) è la soluzione delle equazioni del moto definita dalla condizione x = x0 per t = t0 .
Mostriamo ora che, se per hbi intendiamo la ”media sulla superficie dell’energia”, che definiamo qui di
seguito, allora risulta (per una particolare categoria di sistemi): b = hbi. Definiamo la ”media sulla
superficie dell’energia”.
Consideriamo un sistema isolato con hamiltoniana H = H(q, p), e con energia E (assumiamo: 0 <
E < ∞). Sia Σ(E) la ”superficie dell’energia”: Σ(E) = ˙ {(q, p) : H(q, p) = E}. Assumiamo che l’ ”area”
della superficie Σ(E) sia finita (assumiamo che Σ(E) sia topologicamente equivalente alla superficie di una
sfera (multidimensionale), e che, se E1 < E2 , la superficie Σ(E1 ) sia collocata interamente all’interno di
Σ(E2 ) [Khi § 7]). Assumiamo che tutti i punti di Σ(E) siano accessibili al sistema (cioè che lo spazio delle
fasi accessibile coincida con la superficie dell’energia). È quindi necessario definire la ”media sullo spazio
delle fasi” come un integrale di superficie, invece che come un integrale di volume. Assumiamo allora di
poter introdurre nuove coordinate canoniche, tali da poter scrivere l’elemento di volume di Γ come:
dx = dE dµ , (1.13)
dove dµ è un ”elemento di area” sulla superficie Σ(E) (vedi l’es. 1.6). Al posto della (1.6) definiamo (per
un sistema isolato con energia E):
Z
®
B= ˙ b = ˙ dµ ρ(x) b(x) , (1.14)
Σ(E)
(usiamo lo stesso simbolo per la superficie e per la sua area). La ”media microcanonica” su Σ(E) di una
funzione b(x) è: Z Z
1
hbimc =˙ dµ ρmc (x) b(x) =
˙ dµ b(x) . (1.18)
Σ(E) Σ(E) Σ(E)
La probabilità e la media microcanoniche si possono, ovviamente, definire anche per sistemi con spazi delle
fasi discreti.
Consideriamo allora un sistema isolato, e sia Σ(E) la relativa superficie dell’energia. Chiamiamo
”ergodiche” le traiettorie che ”passano arbitrariamente vicine a tutti i punti di Σ”, ed ”ergodici” i sistemi
per cui (quasi) tutte le traiettorie sono ergodiche (la nostra discussione è qualitativa: per una trattazione
esauriente vedi, ad esempio, [AA]) Per i sistemi ergodici si dimostra il:
Le due espressioni (1.18) e (1.12) hanno dunque, per sistemi ergodici, lo stesso valore. D’altra parte, come
definizione di ”risultato della misura di una variabile macroscopica”, la (1.12) è più soddisfacente della
(1.18): alla luce della (1.12) il fatto che al valore di una variabile macroscopica contribuiscano ”molti”
microstati appare del tutto naturale. La media temporale (1.12) è, tuttavia, praticamente impossibile da
calcolare: infatti, il calcolo della (1.12) richiede la conoscenza delle soluzioni delle equazioni del moto! Al
contrario, il calcolo della media (1.18) è, in linea di principio, più facile: è richiesta ”solo” una integrazione!
È allora soddisfacente definire una variabile macroscopica mediante la (1.12), ma, alla luce della (1.19), è
conveniente calcolarla mediante la (1.18)!
Il teorema ergodico giustifica quindi la definizione (1.18) per le variabili macroscopiche (di un sistema
isolato); inoltre, esso giustifica la scelta (vedi il postulato P2 ) di ρmc come densità di probabilità per un
sistema isolato. Infine, il teorema ergodico è discusso [Far § 3.4] nell’ambito della meccanica ordinaria:
la meccanica statistica diventa cosı̀ una estensione della meccanica ordinaria. Alla luce di quanto sopra,
possiamo affermare che il teorema ergodico è il fondamento della meccanica statistica classica (2) .
La (1.19) esprime l’uguaglianza tra un integrale di linea e un integrale di superficie. Per mostrare che
ciò può essere del tutto naturale, consideriamo il seguente esempio. Consideriamo uno ”spazio delle fasi”
costituito dal quadrato: Q = ˙ (0 ≤ q, p < L), con condizioni cicliche al contorno: (q + L = q , p + L = p).
Sia t un parametro (”tempo”), e sia (q(t), p(t)) = ˙ (q0 + t, p0 + α t), dove α è un numero reale, la linea
(”traiettoria”) che passa per il punto (q0 , p0 ) all’istante t = 0 (3) . Consideriamo la variabile microscopica
b(q, p) definita dalla serie di Fourier:
∞
X
b(q, p) =
˙ Blm exp [i2π(lq + mp)/L] , (1.20)
l,m=−∞
(2)
Per un accenno al problema ergodico in meccanica quantistica, vedi [Mor cap 12 (pag. 256)].
(3)
Tale linea potrebbe essere interpretata come la soluzione delle equazioni di Hamilton corrispondenti alla hamiltoniana:
H = p − αq, relativa ad un sistema, con un solo grado di libertà, il cui spazio delle fasi è il quadrato Q.
1.4 Commenti sul teorema ergodico 7
con coefficienti Blm assegnati. Calcoliamo la media (1.2) di b con la densità uniforme: ρ = cost. = L−2 :
Z L Z L ∞
X Z L Z L
1 1 i2πlq/L
hbi =
˙ 2 dq dp b(q, p) = 2 Blm dq e dp ei2πmp/L = B00 . (1.21)
L 0 0 L 0 0
l,m=−∞
Consideriamo poi la media temporale. Sia (q0 , p0 ) la posizione (in Q) all’istante t = 0, e sia (q(t), p(t)) = ˙
(q0 + t , p0 + αt) la traiettoria definita dalla condizione iniziale: (q(0), p(0)) = (q0 , p0 ). Definiamo il valore
di b all’istante t come: b(t) =
˙ b(q(t), p(t)), e calcoliamo la media temporale (1.12). Se α è irrazionale, segue
facilmente: Z
1 T
b=˙ lim dt b(t) = B00 . (1.22)
T →∞ T 0
Dunque, se α è irrazionale la media sullo spazio delle fasi e la media temporale sono uguali (4) :
hbi = b . (1.23)
p
L
(a)
Fig. 1.1 : p (b)
o
a) Una traiettoria in Q.
b) Per α irrazionale il moto è ergodico,
ma non porta all’equilibrio.
qo L q
del fatto che, per α irrazionale (5) , la traiettoria risulta passare arbitrariamente vicino a ogni punto di Q
([AA app. 1]; si noti che la traiettoria non passa mai due volte per uno stesso punto, altrimenti sarebbe
periodica!): si può dire che la traiettoria ”riempie Q” (6) . Le ”traiettorie ergodiche”, definite sopra, sono
una generalizzazione della traiettoria della fig. 1.1a per α irrazionale.
La condizione cruciale per la validità del teorema ergodico è che (quasi tutte) le traiettorie siano
ergodiche. Per una hamiltoniana generica, tuttavia, tale condizione non può valere, in virtù del fatto
(4)
Si noti che se α è razionale la traiettoria è periodica: infatti, posto: α = r/s, con r, s interi, per t = sL risulta:
(q(t), p(t)) =
˙ (q0 + sL , p0 + rL) = (q0 , p0 ). Quindi la traiettoria ”non riempie Q”; a ciò corrisponde il fatto che le due medie
P∞ 2πin(rq0 −sp0 )
non sono uguali: b = n=−∞ Bnr,−ns e 6= B00 .
(5)
Per il sistema della fig. 1.1a, la superficie dell’energia coincide con la traiettoria! Quindi, la (1.23) è un esempio di
come un integrale di linea possa essere uguale a un integrale di superficie, ma non è un esempio di uguaglianza tra media
temporale e media microcanonica!
(6)
L’uguaglianza tra la media temporale (1.22) (un integrale di linea) e la media sullo spazio delle fasi (1.21) (un integrale
di superficie) è riconducibile, qualitativamente, al fatto che, per una traiettoria come quella del caso ”α irrazionale”, la
˙ dq dp, è (per T → ∞) dx/L2 :
frazione di tempo, dt/T , che il punto rappresentativo passa in una regione fissata, dx =
(dt/T ) = (dx/L2 ) [Re80 § 8.B]. Segue:
X dt X dx
i i
b ≈ lim b(x(ti )) = lim b(xi ) ≈ hbi . (1.24)
T →∞ T N →∞ L2
i i
1.4 Commenti sul teorema ergodico 8
che esistono costanti del moto indipendenti dalla hamiltoniana (per un sistema con N gradi di libertà
ne esistono 2N − 1). A ogni costante del moto possiamo, in linea di principio, associare una super-
ficie analoga alla Σ(E). È evidente che le traiettorie del sistema devono rimanere confinate sulla in-
tersezione di tante superfici quante sono le costanti del moto indipendenti. Sembrerebbe allora che
le traiettorie non possano essere ergodiche. Quindi il sistema non sarebbe ergodico, e la (1.19) non
sarebbe valida! Per superare il paradosso è necessario studiare le caratteristiche delle costanti del moto
del sistema: se a tutte le costanti del moto corrispondessero superfici cosı̀ complesse, dal punto di
vista geometrico, da rendere ”inefficace” il confinamento della traiettoria sulla loro intersezione (vedi
la fig. 1.2), allora la contraddizione tra esistenza di più costanti del moto ed ergodicità delle traietto-
rie potrebbe essere risolta. Dal punto di vista fenomenologico, il fatto che le proprietà termodinamiche
calcolate a partire da ρmc risultino verificate suggerisce che la (1.19) sia corretta, e quindi che il teo-
rema ergodico sia valido. Almeno per un sistema, non realistico, ma nondimeno fisicamente significativo,
K
2
Fig. 1.2 : H
H
e cioè per un gas di sfere dure in una scatola, l’ergodicità è stata dimostrata [Mu69 § 1.5]. Per un sistema
realistico la dimostrazione è di fatto impossibile: quindi, per un sistema realistico l’ergodicità deve essere
assunta: è quindi opportuno parlare, nelle applicazioni, non di ”teoria” ma di ”ipotesi” ergodica.
Il teorema ergodico soffre anche di altre importanti limitazioni:
• La (1.19) è priva di ogni riferimento al numero dei gradi di libertà, N , del sistema: in effetti, l’esempio
discusso sopra mostra che esistono sistemi ergodici anche con un solo grado di libertà. D’altra parte, come
vedremo più avanti (vedi ad esempio il § 4.2), la meccanica statistica è efficace, come teoria fisica, solo per
sistemi con N molto grande; quindi, il fatto che la teoria ergodica valga anche per sistemi ”piccoli” sembra
qualificarla più come una condizione necessaria (per la applicabilità della meccanica statistica), che come
una condizione necessaria e sufficiente ([Bal app. A.7], [Ru69 § 1.1]).
• L’ipotesi ergodica non dà alcuna indicazione sul come definire le grandezze di tipo B (pag. 3); per
esse è necessario ricorrere a postulati addizionali (come la (1.11)).
• Il ”numero dei microstati” accessibili a un sistema macroscopico è enorme (per una stima vedi
[Cha43 App. VI]) al punto che una traiettoria può toccarne, nella durata di una misura macroscopica,
solo una frazione estremamente piccola [Bali § 4.1.4]. Alla luce di ciò, l’interpretazione di una variabile
macroscopica come ”media temporale” deve essere approfondita!
• L’operazione di ”media temporale” elimina ogni dipendenza dal tempo; per rendere possibile una
estensione alla teoria dei sistemi non in equilibrio, l’ipotesi ergodica deve essere riformulata. Per di più, i
moti di tipo ergodico non sembrano corrispondere ai moti effettivi di un sistema con molti gradi di libertà,
nel senso che un moto ergodico non comporta alcun tipo di ”rilassamento all’equilibrio”. Per esempio, per
il sistema dell’esempio discusso sopra, la densità di probabilità definita dalla condizione iniziale uniforme:
ρ0 (q, p) = L−2 , è una ρ di equilibrio (nel senso della (1.4)), ma, come risulterà evidente dal modo in cui ρ
evolve nel tempo (§ 2.5), una densità inizialmente non uniforme non arriva, per alcun t > 0, a soddisfare
la (1.4) (vedi la fig. 1.1b). Una interpretazione soddisfacente del processo di rilassamento richiede che
il sistema goda di una condizione più forte della ergodicità: il ”mixing” [Re80 § 8.C]. Risulta che i moti
mixing sono anche ergodici, ma che (in generale) i moti ergodici non sono mixing! Anche da questo punto
di vista, quindi, l’ergodicità appare una condizione necessaria, ma non sufficiente.
1.5 Esercizi 9
1.5 Esercizi
X
N
ν(q1 , . . . , qN ; r) =
˙ δ(qi − r) , per 0<r<L, (1.26)
i=1
dove qi (0 < qi < L) è la posizione della particella i-esima, ha il significato di ”densità microscopica nel
punto r”, cioè di ”densità di numero di particelle (nel punto r) nel microstato (q1 , . . . , qN )” . Mostrare che
ν ha la dimensione di una densità (numero di particelle per unità di lunghezza), è non negativa, e il suo
integrale (in r) su un intervallo (l1 , l2 ) è uguale al numero di particelle contenute in (l1 , l2 ).
b) Mostrare che la densità macroscopica del gas, n1 (r), calcolata con la densità di probabilità (su Q:
vedi es. 1.1): ½ N Q
(1)
ρQ (q) =
˙ C i e−γqi se qi ∈ (0, L) , per ogni i , (1.27)
0 se qi ∈
/ (0, L) , per almeno un i ,
˙ mg/kB T , e C = γ/(1 − e−γL ), è:
dove γ =
½
CN e−γr se r ∈ (0, L) ;
n1 (r) =
˙ hνi1 = (1.28)
0 se r∈/ (0, L) ;
(1)
ρQ descrive quindi un gas ideale in equilibrio a temperatura T , e soggetto a un campo gravitazionale
costante diretto nel verso negativo dell’asse r.
c) Mostrare che, per γ → 0 (cioè per g → 0 e/o T → ∞), risulta: n1 (r) → n2 (r), dove:
½
N/L se r ∈ (0, L) ;
n2 (r) =
˙ hνi2 = (1.29)
0 se r∈/ (0, L) .
(2) −N
Mostrare che n2 (r) è la densità macroscopica del gas calcolata con la densità di probabilità: ρQ (q) =
˙ L
(2)
(ρQ descrive quindi un gas ideale in equilibrio e non soggetto a campi esterni).
1 h X N i 1 −βE({s}) X
N
P P P
dove Z è una costante. Calcolare Z. [Z = {s} e−βE({s}) = ˙ s1 =±1 · · · sN =±1 e
−βE({s})
= . . .].
P
c) Calcolare, con la (1.31), il valor medio della variabile microscopica: M ({s}) = iN si (”momento
magnetico totale”). [Risultato: hM i = N tanh(βh).]
P
d) Calcolare, con la (1.31), l’entropia termodinamica: S = −kB {s} p{s} ln p{s} (vedi (1.11) e (1.8)).
[Risultato: S = N (ln(2 cosh(βh)) − βh tanh(βh)).] Calcolare il limite di S per h → 0 [S = N ln 2], e per
h → ∞ [S = 0].
e) Calcolare la ”suscettività per campo nullo”:
∂m ¯¯ hM i
χ=
˙ ¯ , con : m=
˙ lim [risulta : χ = β] . (1.32)
∂h h=0 N →∞ N
è canonica [Gol § 9.2]. Verificare che l’elemento di volume si può scrivere: dx = dE dµ, con: dµ = dQ/ω.
2 Fenomeni dipendenti dal tempo
Per i sistemi non in equilibrio il problema teorico centrale è quello della ”irreversibilità”, cioè del
fenomeno per cui un sistema, preparato ad un istante iniziale in una condizione di non equilibrio, e lasciato
poi evolvere autonomamente, raggiunge, dopo un intervallo di tempo opportuno, uno stato di equilibrio
nel quale esso in seguito permane. Qui discutiamo l’irreversibilità alla luce della dinamica microscopica.
L’osservazione dice che se a un istante risulta: |∇n| 6= 0 (dove ∇ è il gradiente), allora a quell’istante è
presente un flusso (densità di corrente) j di particelle, che soddisfa la ”legge di Fick”:
j = −D ∇n , (2.2)
dove D è una costante (1) positiva; la condizione D > 0 esprime il fatto che il flusso è sempre diretto in
modo da ridurre le differenze di densità. La densità e la corrente sono legate anche dalla condizione che il
numero totale di particelle non può cambiare, e cioè dalla ”equazione di conservazione”:
∂n
+∇·j=0 (2.3)
∂t
(∇ · j è la divergenza di j). Segue immediatamente che la densità soddisfa la ”equazione della diffusione”:
∂n
= D ∇2 n . (2.4)
∂t
Limitiamoci, per semplicità, al caso unidimensionale, e supponiamo che lo spazio fisico accessibile al
sistema coincida con l’intero asse x. La (2.4) diventa allora:
∂n ∂2n
=D 2, (−∞ < x < ∞) . (2.5)
∂t ∂x
(1)
D potrebbe dipendere da r e/o da t; in tali casi l’equazione della diffusione assumerebbe una forma diversa (vedi [Cra]).
2.2 L’equazione della diffusione in dimensione 1 12
Consideriamo le soluzioni della (2.5). Sia t0 un istante (”istante iniziale”), e sia: n(x, t0 ) =
˙ f (x), la
”condizione iniziale”, con: Z ∞
dx f (x) = N . (2.6)
−∞
La soluzione della (2.5) corrispondente alla data condizione iniziale è (vedi § 2):
Z ∞ · ¸
1 0 0 (x − x0 )2
n(x, t) = p dx f (x ) exp − . (2.7)
4πD(t − t0 ) ∞ 4D(t − t0 )
La (2.8) rappresenta l’evoluzione al tempo t di una densità iniziale (al tempo t0 ) ”concentrata in x = x0 ”;
per t → ∞, essa tende ad una densità uniforme.
Come ulteriore esempio, consideriamo la condizione iniziale:
r
α −αx2
f (x) =˙ N e , (2.9)
π
dove α è un numero (> 0) assegnato. Sostituendo nella (2.7), si trova facilmente:
s · ¸
1 αβ αβ 2 1
n(x, t) = N exp − x , con : β = ˙ , (2.10)
πα+β α+β 4D(t − t0 )
cioè:
s µ " µ
¶−1 ¶−1 #
β β β 2
n(x, t) = N 1+ exp − 1 + βx =
π α α
s " µ # (2.11)
µ ¶−1 ¶−1
1 1 1 1 x2
=N 1+ exp − 1 + .
π 4D(t − t0 ) 4αD(t − t0 ) 4αD(t − t0 ) 4D(t − t0 )
È chiaro che, per t → ∞, la funzione (2.11) tende a diventare indipendente da t0 e α, cioè tende a ”perdere
memoria” della condizione iniziale !
Il comportamento ”irreversibile” delle (2.7) è evidente: non solo una densità iniziale ”piccata” (come
la δ) tende a diventare ”piatta”, ma una densità ”quasi piatta” (come la (2.9), se α À 1) tende a diventare
più piatta ancora! Ciò è in contrasto con il comportamento delle soluzioni delle equazioni della dinamica
microscopica (come le equazioni di Hamilton), per le quali l’evoluzione non ha un verso privilegiato: per
ogni soluzione esiste anche la soluzione che descrive il moto in verso contrario!
Sia t0 un istante arbitrario (qui scriviamo t0 invece di t0 ). Calcoliamo la soluzione della (2.5) per una
condizione iniziale data a t = t0 : n(x, t0 ) =
˙ ft0 (x). Per semplificare la notazione, scrivamo la (2.5) come:
∂ ∂2
Ln = 0 , dove : L=
˙ −D 2 . (2.13)
∂t ∂x
2.3 L’equazione della diffusione in dimensione 1 13
Introduciamo il ”propagatore”, K(x0 , t0 | x, t), definito dalle seguenti proprietà [Bar § 8.3]:
L K(x0 , t0 | x, t) = 0 , per t > t0 ,
K(x0 , t | x, t) = δ(x − x0 ) , per t0 = t , (2.14)
K(x0 , t | x, t) → 0 , per |x − x0 | → ∞ .
L’ultima delle (2.14) è la condizione al contorno per l’equazione L K = 0. Si noti che K è soluzione
dell’equazione (della diffusione) omogenea, e quindi non è una funzione di Green [Bar § 8.3.1]. In termini
di K possiamo definire la funzione:
Z ∞
n(x, t) =
˙ dx0 ft0 (x0 ) K(x0 , t0 | x, t) . (2.15)
−∞
È immediato verificare che, in virtù delle (2.14), la (2.15) soddisfa la (2.5) con la data condizione iniziale:
da cui:
2
A(x0 ,t0 ) (k, t) = B(x0 ,t0 ) (k) e−Dk t . (2.19)
1 Dk2 t0 −ikx0
B(x0 ,t0 ) (k) = e e . (2.21)
2π
Segue:
1 −Dk2 (t−t0 ) −ikx0
A(x0 ,t0 ) (k, t) = e e , (2.22)
2π
e quindi Z ∞
1 2
(t−t0 ) 0
K(x0 , t0 | x, t) = dk e−Dk eik(x−x ) . (2.23)
2π −∞
˙ x − x0 ; τ =
Calcoliamo l’integrale (2.23). Poniamo: ξ = ˙ t − t0 , e osserviamo che:
³ ξ ´2 ξ2
−Dk 2 τ + ikξ =
˙ − Dτ k − i − . (2.24)
2Dτ 4Dτ
Segue: "
· ¸Z ∞ µ ¶2 #
0 0 1 ξ2 ξ
K(x , t | x, t) = exp − dk exp −Dτ k − i . (2.25)
2π 4Dτ −∞ 2Dτ
2.3 L’equazione della diffusione e il moto browniano 14
Posto ancora z =
˙ k − iξ/2Dτ =
˙ k − ik0 , otteniamo:
· ¸ Z ∞−ik0
0 0 1 ξ2 £ ¤
K(x , t | x, t) = exp − dz exp −Dτ z 2 . (2.26)
2π 4Dτ −∞−ik0
Utilizzando il teorema di Cauchy, il cammino di integrazione può essere portato sull’asse reale, e segue:
³ Z r
1 ξ2 ´ ∞
2 1 ³ ξ2 ´ π
K(x0 , t0 | x, t) = exp − dk e−Dτ k = exp − , (2.27)
2π 4Dτ −∞ 2π 4Dτ Dτ
Qui mostriamo che l’equazione macroscopica della diffusione può essere giustificata da una teoria
microscopica in cui si considera il moto delle particelle del gas che diffonde, trattando però il moto stesso
non con i metodi della meccanica ”esatta” (§ 1.2), ma con opportune ipotesi probabilistiche.
Consideriamo un sistema di N particelle, in equilibrio termodinamico ad una temperatura T , e non
interagenti tra di loro. Consideriamo una qualunque delle particelle, e assumiamo di poterne osservare
la posizione solo agli istanti t0 , t0 + τ , t0 + 2τ , ecc., dove τ è un intervallo di tempo sufficientemente
grande da poter trattare lo spostamento della particella in τ come una variabile casuale. Una realizzazione
pratica del sistema suddetto è costituita da un insieme di N particelle di massa M e ”diametro” D,
sospese in un liquido in equilibrio alla temperatura T e cosituito da molecole di massa m e ”diametro”
d, con m, d, ¿ M, D. Le particelle e le molecole hanno la stessa energia cinetica media (≈ kB T : vedi
l’es. 5.5e), ma, per la differenza delle masse, la velocità (media) delle particelle è molto minore di quella
delle molecole. È quindi possibile scegliere, come intervallo τ (vedi sopra) un intervallo piccolo su scala
macroscopica, ma sufficientemente lungo perchè una particella subisca gli urti di un numero molto grande
di molecole. Gli impulsi trasmessi a una particella in urti successivi sono sostanzialmente casuali, e quindi
lo spostamento subito dalla particella in τ può effettivamente essere considerato casuale: il moto risultante
si chiama ”moto browniano”.
2.3 L’equazione della diffusione e il moto browniano 15
Limitiamoci al caso unidimensionale. Supponiamo cioè che le particelle siano disposte su una retta,
che assumiamo come asse x; supponiamo inoltre che il sistema sia infinitamente esteso (cioè che le possibili
posizioni delle particelle siano −∞ < x < ∞). Sia n(x, t) la densità di numero delle particelle: supponiamo
che n sia nota a un istante t, e calcoliamo (2) n all’istante t + τ .
Consideriamo un intervallo dx. Supponiamo che τ sia sufficientemente grande da poter asssumere che
tutte le particelle presenti in dx a t siano uscite da dx a t + τ . Sia ∆ una distanza, e sia φ(∆, τ ) ∆ la
probabilità che una particella subisca, nell’intervallo τ , uno spostamento compreso tra ∆ e ∆ + d∆. Il
numero di particelle nell’unità di lunghezza che subiscono, nell’intervallo τ , uno spostamento compreso tra
∆ e ∆ + d∆ è allora:
dN = n φ(∆, τ ) d∆ . (2.29)
Assumiamo che φ non dipenda né da t (consistentemente con l’ipotesi di equilibrio termodinamico) né da
x (ciò esprime l’uniformità spaziale del liquido), e che soddisfi le condizioni:
Z ∞
d∆ φ(∆, τ ) = 1 , φ(∆, τ ) = φ(−∆, τ ) . (2.30)
−∞
(ci aspettiamo che φ sia diversa da zero solo per |∆| ”piccoli”). Il numero delle particelle che entrano in
dx nell’intervallo (t, t + τ ) è:
Z ∞ Z ∞
n(x, t + τ ) dx = dx d∆ n(x + ∆, t) φ(−∆, τ ) = dx d∆ n(x + ∆, t) φ(∆, τ ) (2.31)
−∞ −∞
Supponiamo ora che il tempo caratteristico della variazione temporale di n sia molto maggiore di τ
(cioè che n(x, t + τ ) differisca di poco da n(x, t)). Assumiamo allora di poter trattare τ come ”piccolo”.
Sviluppando in serie di Taylor otteniamo:
∂n
n(x, t + τ ) = n(x, t) + τ + ... . (2.33)
∂t
Sviluppiamo poi n(x + ∆, t) in serie di Taylor rispetto a ∆:
∂n 1 ∂2n
n(x + ∆, t) = n(x, t) + ∆ + ∆2 2 + O(∆3 ) . (2.34)
∂x 2! ∂x
Sostituendo nella (2.32), e usando la (2.33), otteniamo:
∂n ∂2n
=D 2, (2.35)
∂t ∂x
dove abbiamo definito: Z ∞
1
D=
˙ d∆ φ(∆, τ ) ∆2 , (2.36)
2τ −∞
e dove abbiamo supposto che φ(∆) decresca in modo sufficientemente rapido da rendere trascurabili gli
integrali: Z ∞
d∆ φ(∆, τ ) ∆n , per : n ≥ 3 . (2.37)
−∞
(2)
La derivazione illustrata qui è quella sviluppata da A. Einstein [Ei56 pag. 14] nel 1905. La teoria ebbe un grande im-
patto, in quanto fornı̀ un argomento inoppugnabile a favore dell’ipotesi, al tempo ancora dibattuta, della struttura molecolare
della materia [Bru76 cap. 15]. Per un’altra derivazione vedi [Hec pag. 343]).
2.4 Evoluzioni: reversibile vs irreversibile 16
La (2.35) è la equazione della diffusione (per un sistema unidimensionale). La soluzione della (2.35)
corrispondente alla condizione iniziale: n(x, 0) =
˙ N δ(x), dove δ(x) è la delta di Dirac, è (vedi la (2.8)):
µ ¶
N x2
n(x, 0) = √ exp − . (2.38)
4πDt 4Dt
Usando la (2.38) è facile calcolare (3) i seguenti valori medi (sulle N particelle):
2®
hxi = 0 , x = 2Dt . (2.40)
Consideriamo un sistema i cui stati, xr (r = 1, . . . , n), formino un insieme finito. Assumiamo che
l’evoluzione temporale del sistema sia discreta, nel senso che lo stato cambi solo agli istanti: ti = t0 + iτ
(i = 0, 1, 2, . . .), dove τ è un intervallo assegnato. Nel seguito scriveremo: ti =
˙ i. Conviene associare a
n
ogni stato xr un vettore, xr , di R :
xr =
˙ col (01 , . . . , 0r−1 , 1r , 0r+1 , . . . , 0n ) (2.41)
(”col” sta per ”colonna”). Per semplicità, qui e nel seguito prendiamo n = 3: i possibili stati sono allora:
¯ ¯ ¯ ¯ ¯ ¯
¯1¯ ¯0¯ ¯0¯
¯ ¯ ¯ ¯ ¯ ¯
x1 =˙ ¯¯ 0 ¯¯ , x2 =˙ ¯¯ 1 ¯¯ , x3 =
˙ ¯¯ 0 ¯¯ . (2.42)
¯0¯ ¯0¯ ¯1¯
Introduciamo l’ ”operatore di evoluzione temporale dello stato”, rappresentato da una matrice 3 × 3 (in
generale: n × n), Q =
˙ {qhk }, tale che:
X3
x(i + 1) =
˙ Q x(i) , cioè : xh (i + 1) = qhk xk (i) (h = 1, 2, 3) . (2.43)
k=1
Ad esempio, sia Q =
˙ F, con: ¯ ¯
¯0 1 0 ¯¯
¯
Q= ˙ ¯¯ 0
˙ F= 0 1 ¯¯ . (2.44)
¯1 0 0¯
L’azione di F sugli stati xr (r = 1, 2, 3) è:
F x1 = x3 ; F x2 = x1 ; F x3 = x2 . (2.45)
(4)
Se all’istante i = 0 lo stato è, ad esempio, x(0) = x1 , l’evoluzione (2.43) (con Q =
˙ F) è :
(l’evoluzione è periodica).
Assumiamo ora che i possibili stati non siano più limitati agli x (vedi (2.42)), ma formino un sinieme
(3)
Z ∞ q Z ∞ Z ∞ q
−ax2 π −ax2 2 1 π
dx e = , dx x e = 0, dx x2 e−ax = . (2.39)
−∞
a −∞ −∞
2a a
(4)
La (2.45) potrebbe descrivere un moto casuale sui vertici di un triangolo: una particella, posta su uno dei vertici, a
ogni istante i ”salta”, su uno degli altri due vertici.
2.5 Evoluzioni irreversibili 17
continuo. Più precisamente, assumiamo che, per ogni terna (p1 , p2 , p3 ), dove i pr sono numeri non negativi
che soddisfano la relazione:
X3
pk = 1 , (2.47)
k=1
il vettore:
p=
˙ col (p1 , p2 , p3 ) =
˙ p1 x1 + p2 x2 + p3 x3 , (2.48)
(5)
sia un possibile stato del sistema. Assumiamo che l’evoluzione temporale degli stati p sia :
X3
p(i + 1) =
˙ Q p(i) , cioè : ph (i + 1) = qhk pk (i) . (2.49)
k=1
Consideriamo una generica matrice Q, e assumiamo che Q sia indipendente dal ”tempo”. Segue che,
se lo stato a t = 0 è p(0), allora lo stato a t = N è:
Qp = p. (2.52)
Un’evoluzione Q è ”irreversibile” se esiste uno stato stazionario, p∞ (assumiamo che p∞ sia unico), tale
che, per ogni stato iniziale p(0), sia:
lim QN p(0) = p∞ . (2.53)
N →∞
Inoltre, è ovvio che p∞ è stazionario; si dimostra poi (vedi il paragrafo seguente) che lo stato p∞ viene
raggiunto (nel senso della (2.53)) a partire da un p(0) qualunque. Quindi C è irreversibile.
Si noti che l’esistenza di uno stato stazionario non è sufficiente per l’irreversibilità. Infatti, è immediato
verificare che lo stato: p∞ = ˙ col (p, p, p), con p = 1/3 (vedi la (2.54)), è stazionario per per l’evoluzione
descritta da F (vedi (2.50)): F p∞ = p∞ . Tuttavia, p∞ soddisfa la (2.53) solo se p(0) = p∞ . Se
p(0) 6= p∞ , allora FN p(0) non tende a p∞ , e quindi l’evoluzione generata da F non è irreversibile.
L’irreversibilità di C è riconducibile al suo carattere probabilistico. Ad esempio, il primo passaggio
nella sequenza (2.54): p(0) −→ p(1), può essere visto come:
Quindi, se interpretiamo gli x come microstati e i p come macrostati (si noti che i microstati sono casi
particolari dei macrostati), la (2.55) implica che a t = 0 il sistema è con certezza nel microstato x1 , ma
a t = 1 si trova o in x2 (con probabilità 1/2) o in x3 (con probabilità 1/2). L’esempio (2.54) mostra che
evoluzione definita da C comporta una (progressiva) ”riduzione dell’informazione” su quale sia il microstato
(5) P
Q deve soddisfare la condizione: h qhk = 1 (k = 1, . . . , 3).
2.6 Evoluzioni irreversibili 18
del sistema.
Possiamo anche osservare che F fa corrispondere a uno stato, sia di tipo x che di tipo p, uno e un
solo stato (di tipo x o di tipo p)), mentre per C la corrispondenza è biunivoca solo per gli stati di tipo p.
In sintesi, possiamo affermare che F è ”microscopicamente (e anche macroscopicamente) deterministica”,
mentre C è deterministica solo macroscopicamente, o, come diremo nel seguito, ”microscopicamente non
deterministica”. Quanto sopra suggerisce che le evoluzioni microscopicamente deterministiche non sono
irreversibili.
I vettori d sono normalizzati secondo la (2.47). Consideriamo anche gli autovettori sinistri (cioè i vettori
che soddisfano l’equazione: s C = λ s; gli s sono ”righe”):
1 1
s1 =
˙ |1 1 1| , s2 =
˙ |1 0 − 1| , s2 =
˙ |1 − 2 1| (2.58)
2 6
dove i coefficienti sono scelti in modo da soddisfare la condizione (2.69). Indichiamo con i simboli [ds] le
matrici che si ottengono moltiplicando ”righe per colonne”: ad esempio:
¯ ¯ ¯ ¯
¯1¯ ¯1 1 1 ¯¯
1 ¯ ¯ 1¯
˙ ¯¯ 1 ¯¯ |1 1 1| = ¯¯ 1
[d1 s1 ] = 1 1 ¯¯ . (2.59)
3¯ ¯ 3¯
1 1 1 1¯
P
Con i simboli sd indichiamo invece i prodotti ”riga per colonna”, cioè i prodotti scalari: sd =
˙ h sh d h .
Sono soddisfatte le seguenti relazioni di ortogonalità:
si dj = δij . (2.60)
[d1 s1 ] p = d1 (2.61)
(la (2.61) sarà usata più avanti). C può essere sviluppata come segue (6) :
X3 1 1
C= ˙ [d1 s1 ] − [d2 s2 ] − [d3 s3 ] ,
λk [dk sk ] = (2.62)
k=1 2 2
Otteniamo allora:
lim CN = [d1 s1 ] . (2.64)
N →∞
(7)
Risulta inoltre che d1 è stazionario (vedi (2.52)) rispetto a C :
C d1 = d1 . (2.66)
In conclusione, per N → ∞ lo stato p(N ) tende allo stato stazionario d1 indipendentemente dallo stato
iniziale p(0). L’evoluzione (2.62) è dunque irreversibile.
La discussione dei paragrafi precedenti suggerisce che una evoluzione microscopicamente determini-
stica non può essere irreversible. Ciò sarà confermato, qui di seguito, da una analisi della evoluzione
hamiltoniana. Consideriamo un sistema isolato, con N gradi di libertà, caratterizato da uno spazio delle
fasi accessibile continuo, Γ , con microstati x = ˙ {q, p} =
˙ (q1 , · · · , qN , p1 , · · · , pN ), da una hamiltoniana
H = H(x), e da una densità ρ(x, t). Cominciamo col ricavare l’equazione (differenziale) che definisce
l’evoluzione temporale di ρ(x, t): la ”equazione di Liouville”.
Siano t0 un istante di tempo, e x0 =˙ {q0 , p0 } un punto di Γ . Indichiamo poi con
x = x(x0 , t0 ; t) =
˙ {q(q0 , p0 , t0 ; t), p(q0 , p0 , t0 ; t)} (2.67)
dqi ∂H dpj ∂H
q̇i =
˙ = , ṗj =
˙ =− , (2.68)
dt ∂pi dt ∂qj
con la condizione iniziale: x(x0 , t0 ; t0 ) = x0 . Chiameremo il punto x(x0 , t0 ; t): ”evoluto temporale del
punto x0 nell’intervallo di tempo t − t0 ”. Chiameremo inoltre l’insieme degli evoluti di x0 per ogni t:
”traiettoria passante per x0 all’istante t0 ”. La corrispondenza: x0 → x(x0 , t0 ; t), è biunivoca.
Consideriamo, a un istante t0 , una generica regione γ(t0 ) ⊂ Γ (per semplicità, assumiamo che γ(t0 )
sia connessa). Sia σ(t0 ) la superficie che delimita γ(t0 ). Chiamiamo γ(t) la regione di Γ costituita dagli
evoluti dei punti di γ(t0 ) nell’intervallo t − t0 , e sia σ(t) la superficie che delimita γ(t). Per la biunivocità
dell’evoluzione temporale, i punti di σ(t) sono gli evoluti dei punti di σ(t0 ).
Sia ρ0 (x) una densità di probabilità su Γ assegnata all’istante t0 (densità ”iniziale”), e sia:
Z
P (γ(t0 )) =˙ dx ρ0 (x) , (2.69)
γ(t0 )
la probabilità che il sistema abbia microstato in γ(t0 ) all’istante t0 . A un istante t i punti di γ(t0 ) si sono
spostati fino ad occupare una regione γ(t), e la densità ρ0 (x) si è anch’essa modificata (in generale) fino
a diventare una funzione che indichiamo con ρ(x, t). Tuttavia, la probabilità che il microstato del sistema
cada, all’istante t, in γ(t), cioè: Z
P (γ(t)) =
˙ dx ρ(x, t) , (2.70)
γ(t)
(7)
Per una classificazione delle matrici Q che ammettono uno stato stazionario, vedi: [Btl § 2.21], o [Fel cap. XVI].
2.6 L’equazione di Liouville 20
deve, per definizione di γ(t), essere uguale a P (γ(t0 )). Ciò implica:
Z
dP d
=
˙ dx ρ(x, t) = 0 . (2.71)
dt dt γ(t)
Mostriamo ora come dalla (2.71) si può derivare una equazione differenziale per ρ. È conveniente
adottare una notazione vettoriale: indichiamo allora il punto dello spazio con x, e sia u =
˙ ẋ =
˙ (q̇, ṗ) la
velocità del punto x all’istante t. Per definizione, abbiamo:
"Z Z #
dP 1
=
˙ lim ρ(x, t + τ ) dx − ρ(x, t) dx . (2.72)
dt τ →0 τ γ(t+τ ) γ(t)
Ponendo γ(t + τ ) =
˙ γ(t) + δγ segue:
"ÃZ Z ! Z #
dP 1
=
˙ lim + ρ(x, t + τ ) dx − ρ(x, t) dx =
dt τ →0 τ γ(t) δγ γ(t)
"Z Z #
ρ(x, t + τ ) − ρ(x, t)
= lim dx + ρ(x, t + τ ) dx =
τ →0 γ(t) τ δγ (2.73)
Z Z µ ¶
∂ρ 1 ∂ρ
= dx + lim ρ(x, t) + τ dx =
γ(t) ∂t τ →0 τ δγ ∂t
Z Z
∂ρ 1
= dx + lim ρ(x, t) dx .
γ(t) ∂t τ →0 τ δγ
La regione δγ è quella compresa tra le superfici σ(t) e σ(t + τ ) (fig. 2.1). Sia dσ un elemento infinitesimo
della superficie σ(t): ad esso associamo un vettore di modulo uno, n, normale all’elemento e orientato
verso l’esterno della superficie. Nell’intervallo τ l’elemento dσ descrive un cilindro di altezza: |u(x, t)|τ ,
u
γ (t+dt) n
dσ dγ
u
Fig. 2.1 :
Moto nello spazio delle fasi di un volume γ(t). n γ (t)
~ =
dove dσ ˙ n dσ. La derivata (2.73) diventa allora:
Z Z Z · ¸
dP ∂ρ ∂ρ ¡ ¢
= dx + ~ =
ρ(x, t) u(x, t) · dσ + ∇ · ρ(x, t) u(x, t) dx , (2.75)
dt γ(t) ∂t σ(t) γ(t) ∂t
dove ∇ · (ρu) è la divergenza del vettore ρu. In virtù della (2.71), la (2.75) deve essere nulla per ogni
regione γ(t): quindi ρ deve soddisfare l’equazione differenziale:
∂ρ
+ ∇ · (ρ u) = 0 , (2.76)
∂t
2.7 Il coarse graining 21
dove:
X dxi ∂ N ·
X ¸
D ∂ ∂ ∂ ∂
=
˙ + =
˙ + q̇i + ṗi (2.78)
Dt ∂t i
dt ∂xi ∂t i=1 ∂qi ∂pi
Dalla (2.80) e (2.76) segue che la densità ρ(x, t) deve soddisfare l’equazione:
Dρ
= 0, (2.81)
Dt
con la condizione iniziale: ρ(x, t0 ) = ρ0 (x). Un’altra utile espressione della (2.81) è:
∂ρ
+ [ρ, H] = 0 , (2.82)
∂t
dove [· , ·] è la parentesi di Poisson. Le (2.81) e (2.82) sono forme equivalenti della ”equazione di Liouville”:
essa è l’equazione fondamentale della meccanica statistica (classica) di non equilibrio. Dato il significato
dell’operatore differenziale D/Dt (vedi la (2.78)), la (2.81) significa che ρ evolve in modo da rimanere
”costante lungo la traiettoria” (8) . Si noti che le ”ρ di equilibrio”, cioè le ρ che soddisfano la (1.4), sono
le soluzioni della (2.82) che sono anche costanti del moto, cioè tali che sia: [ρ, H] = 0. Indicando con x0
il punto tale che la traiettoria, che ”parte” da x0 all’istante t0 , ”arriva” in x dopo un intervallo t − t0 ,
l’evoluzione prevista dalla (2.81) può essere espressa anche come:
Il volume |γ(t)| è definito da un integrale analogo all’integrale (2.70), con la sola differenza che la funzione
ρ è ora sostituita dalla funzione 1. La derivata temporale di |γ(t)| è allora (vedi la seconda delle (2.75), e
la (2.79)): Z
d|γ|
= ∇ · u(x, t) dx = 0 , da cui : |γ(t)| = |γ(t0 )| . (2.85)
dt γ(t)
La seconda delle (2.85) vale, evidentemente, anche per una regione di volume infinitesimo: indicando
allora con dx0 un elemento di volume all’istante t0 (qui usiamo lo stesso simbolo per la regione e per il suo
volume), e con dx il suo evoluto all’istante t, la seconda delle (2.85) si scrive:
dx = dx0 (2.86)
(8)
Un fluido che si muove mantenendo costante la densità è un fluido ”incomprimibile”; quindi la (2.79) mostra che il
moto del fluido costituito dai punti dello spazio delle fasi (”fluido di fase”) è incomprimibile.
2.7 Il coarse graining 22
(oppure, nella notazione non vettoriale del § 1.1: dx = dx0 ). Le (2.85) e/o (2.86) esprimono il fatto che, per
un sistema hamiltoniano, il volume di una regione dello spazio delle fasi è una costante del moto (”teorema
di Liouville” (9) ).
dove le p(t) sono ”probabilità dipendenti dal tempo”. Analogamente, la (1.16) diventa:
Z
£ ¤
S(t) =
˙ − kB dµ ρ(x, t) ln Σ0 ρ(x, t) . (2.88)
Σ(E)
L’invarianza di S rispetto a F è dovuta al fatto che la probabilità del microstato ”iniziale”, xr (i), e qualla
del microstato ”finale”( secondo le (2.45)), xs (i + 1), sono uguali: ps (i + 1) = pr (i). Quindi F cambia
l’ordine dei p nell’insieme (p1 , p2 , p3 ), ma non i valori: l’uguaglianza S(i + 1) = S(i) è allora ovvia. Per
un’evoluzione continua (hamiltoniana) il comportamento di ρ(x, t) è analogo (vedi la (2.83)); la verifica
dell’invarianza di S(t) per l’evoluzione hamiltoniana è illustrata nell’es. 2.3.
Γ Γ
Fig. 2.2:
Filamentazione (con conservazione del volume)
γ (0)
di una regione iniziale γ. γ(τ)
(se ∂H/∂t = 0). Ricordiamo ora che un sistema in equilibrio è caratterizzato da una ρ stazionaria (vedi la
(1.4)). La (2.90) mostra che, se ρ è assegnata inizialmente, a un istante t0 , come ”di equilibrio” (∂ρ/∂t = 0,
a t = t0 ), allora essa rimane di equilibrio per ogni t. Analogamente, se ρ è assegnata a t = t0 come ”di
non equilibrio” (∂ρ/∂t 6= 0, a t = t0 ), essa rimane di non equilibrio per ogni t. In altri termini, una ρ di
non equilibrio non tende alla ρ di equilibrio!
Per descrivere processi ireversibili, è dunque necessario che ρ evolva diversamente da come prescritto
dall’equazione di Liouville (consideriamo ora sistemi hamiltoniani), cioè in modo microscopicamente non
deterministico (MnD). Un modo per indurre una evoluzione MnD è suggerito dalla teoria ergodica. Con-
sideriamo un sistema isolato, tale che a un istante t = 0 la corrispondente densità di probabilità, ρ(x, 0),
sia non nulla in una sottoregione dello spazio delle fasi, che nella fig. 2a è indicata con γ(0); indichiamo
con |γ(0)| il volume di γ(0). Per semplicità, assumiamo che ρ(x, 0) sia costante su γ(0), e indichiamo
con ρ0 il relativo valore: ρ0 = 1/|γ(0)|. ρ(x, 0) non soddisfa la condizione di equilibrio (1.4), e il sistema
in questione non è in equilibrio. Sia γ(t) la regione evoluta di γ(0) a un tempo t > 0. La densità di
probabilità al tempo t, ρ(x, t), è costante su γ(t), e il relativo valore, ρt , è, per il teorema di Liouville
(2.85): ρt = 1/|γ(t)| = 1/|γ(0)|.
L’evoluzione descritta sopra è quella, microscopicamente deterministica, prevista dall’equazione di
Liouville. In linea di principio, essa potrebbe osservata: sarebbe sufficiente disporre a t = 0 di un
numero grande, N , di sistemi identici non interagenti (un ensemble di sistemi), distribuiti con den-
sità n0 (numero di sistemi per unità di volume nello spazio delle fasi) uniforme in γ(0); per N →
∞ abbiamo: n0 /N → ρ0 . Al tempo t potremmo osservare la densità nt in γ(t), e, per N → ∞,
troveremmo: νt /N → ρt . Tuttavia, la suddetta osservazione richiederebbe misure capaci di deter-
minare la posizione esatta di un sistema nello spazio delle fasi. Per un sistema macroscopico, misure
di questo tipo, dette ”fine grained” (”a grana fine”), non sono realizzabili (§ 1.2). Consideriamo al-
lora le misure che realisticamente sono realizzabili: quelle di tipo ”coarse grained” (”a grana grossa”).
Fig. 2.3 :
Coarse graining nello spazio delle fasi. Il valore della
densità ρ è indicato dalla intensità di grigio.
Per descrivere un modello, estremamente schematizzato, di misura coarse grained, cominciamo col
suddividere lo spazio delle fasi in un reticolo di celle, γj , di dimensioni corrispondenti al potere risolutivo
degli strumenti disponibili. Assumiamo che la massima informazione, sulla posizione del sistema nello
spazio delle fasi, ottenibile dalla misura sia: ”in quale cella si trova” (e non: ”in quale punto si trova”).
Consideriamo allora l’ensemble di cui sopra, e assumiamo che la regione iniziale, γ(0), coincida con la
cella γi . L’evoluzione esatta, da γ(0) a γ(t) è tale che (salvo casi eccezionali, come quello rappresentato
nella fig. 1.1b), γ(t) si ”filamenta” (10) , come indicato nella fig. 2b. Se la misura è di tipo coarse grained,
non potremo osservare il ”filamento” γ(t), ma solo una sua immagine ”a grana grossa”, come suggerito
dalla fig. 2.3. Chiamiamo γc (t) la regione costituita dalle celle (della partizione) toccate da γ(t). La ρ
osservata all’istante t non sarà la ρ dell’evoluzione esatta (”costante su γ(t)”), ma sarà una ρc (x, t) (”ρ
coarse grained”), definita su γc (t). Ciò implica che all’istante t la ρ è non nulla su una regione di volume
maggiore del corrispondente volume a t = 0: deve allora esistere almeno un punto di γc (t) in cui il valore di
(10)
La ”filamentazione” nasce dalla instabilità caratteristica (salvo eccezioni) dei moti microscopici dei sistemi fisici: due
traiettorie che partono da punti iniziali anche molto vicini tendono negli istanti successivi ad allontanarsi [Bal app. A.6].
2.8 Esercizi 24
ρ è più piccolo del minimo di ρ in γ(0). L’evoluzione coarse grained quindi non è hamiltoniana: essa è MnD
(fig. 2.3). Sia τ un tempo caratteristico della dinamica microscopica (11) . A un istante t À τ , la regione
iniziale γ(0) si sarà filamentata al punto da ”riempire” tutto lo spazio accessibile (consistentemente con il
comportamento ergodico!): la corrispondente regione γc (t) coinciderà allora con tutto lo spazio accessibile,
e la successiva evoluzione (coarse grained!) non modificherà la situazione (per un esempio numerico, vedi
[Re80 § 8.C]). Il sistema avrà cosı̀ raggiunto l’equilibrio!
2.8 Esercizi
λ1 = 1 , λ2 = 1 − α − p , (2.92)
Si ottiene: ¯ ¯ ¯ ¯
1 ¯¯ α α ¯¯ 1 ¯¯ p −α ¯¯
Q = Q1 + (1 − α − p) Q2 =
˙ + (1 − α − p) . (2.94)
α+p¯p p¯ α + p ¯ −p α ¯
Usando il fatto che 1 − α − p < 1, per N → ∞ abbiamo: limN →∞ QN = Q∞ , con
¯ ¯
1 ¯¯ α α ¯¯
Q∞ = Q1 =
˙ . (2.95)
α+p¯p p¯
Posto: ¯ ¯
1 ¯¯ α ¯¯
p∞ = , risulta : Q∞ p∞ = p∞ . (2.96)
α+p¯p¯
Il vettore p∞ è dunque lo stato stazionario cercato.
dove (q, p, Q, P ) sono costanti. Calcolare la densità di probabilità a un istante t (> t◦ ), e discuterne il
significato fisico.
Soluzione: per calcolare ρ(q, p, t) è necessario (vedi il § 5) determinare il punto (q0 , p0 ) tale che la
(11)
Per un gas in condizioni normali, τ è l’intervallo di tempo medio tra due urti molecolari: τ ≈ 6 · 10−10 sec [Rei § 12.2]).
2.8 Esercizi 25
traiettoria, (q(t), p(t)), che passa per (q, p) all’istante t, passi per (q0 , p0 ) all’istante t0 . La traiettoria che
passa per (q0 , p0 ) all’istante t0 è:
p0
p(t) = p0 , q(t) = (t − t0 ) + q0 . (2.98)
m
(q0 , p0 ) seguono dalla ulteriore condizione: p(t) = p , q(t) = q. Segue:
p
p0 = p , q0 = q − (t − t0 ) . (2.99)
m
Segue infine, applicando la (2.83) (e posto v = ˙ p/m):
· ¸
1 1 1 2
ρ(q, p, t) =
˙ ρ0 (q0 , p0 ) = exp − 2 (p − p)2 − (q − q − v (t − t 0 )) . (2.100)
2πQP 2P 2Q2
b) Verificare che la (2.100) è soluzione dell’equazione di Liouville.
c) Calcolare, con le ρ di cui sopra, i valori medi hqi al tempo t0 e, rispettivamente, al tempo t.
d) Per la particella libera del punto (a), verificare che se f (q, p) è una funzione derivabile arbitraria,
allora la soluzione dell’equazione di Liouville, con condizione iniziale ρ0 (q, p) = f (q, p), è: ρ(q, p, t) =
f (q − v(t − t0 ) , p).
x(x0 ; t) =
˙ Ut x0 , (2.102)
dove Ut è l’ ”operatore di evoluzione temporale”; è chiaro che Ut ammette un inverso, che indichiamo con
Ut−1 . Scriviamo allora la (2.83) come:
¡ ¢
ρ(x, t) = ρ0 Ut−1 x . (2.103)
˙ Ut−1 x ,
x0 = cioè : ˙ Ut x0 .
x= (2.105)
Segue: Z
£ ¤
S(t) =
˙ − kB d (Ut x0 ) ρ0 (x0 ) ln Γ0 ρ0 (x0 ) . (2.106)
Γ
Ricordiamo che l’evoluzione temporale può essere vista come una trasformazione canonica, dalle coordinate
x0 alle Ut x0 , e che il modulo dello jacobiano di una trasformazione canonica è 1 [Re80 § 7.B]. Segue:
¯ µ ¶¯
¯ Ut x0 ¯¯ 0
d (Ut x ) = ¯¯J
0
¯ dx = dx
0
(2.107)
x0
(si noti che la (2.107) è consistente con la (2.86)). Dalla (2.106) segue allora [Pen es. 3.4.1]:
Z
£ ¤
S(t) =˙ − kB dx0 ρ0 (x0 ) ln Γ0 ρ0 (x0 ) =˙ S(0) . (2.108)
Γ
3 Termodinamica
La meccanica statistica di equilibrio è la teoria che ”spiega” i fenomeni descritti dalla termodinamica.
L’opportunità di richiamare, in un corso di meccanica statistica, i concetti base della termodinamica
è quindi ovvia. Esistono diverse formulazioni della termodinamica: qui illustriamo la formulazione ”di
Gibbs”, perchè la sua struttura logica e matematica è quella che più si avvicina a quella della meccanica
statistica (1) .
L’esperienza mostra che per ogni sistema termodinamico esiste un numero massimo di ”variabili
indipendenti” (cioè controllabili dallo sperimentatore indipendentemente l’una dalle altre), tali che ogni
quantità termodinamica del sistema è esprimibile come funzione di esse. In generale sono possibili diverse
scelte per l’insieme delle variabili indipendenti (ad esempio, per un gas: (U, V, N ), (T, V, N ), (T, P, N ),
ecc.). Alle varie scelte corrispondono formulazioni diverse, ma equivalenti, delle proprietà termodinamiche
del sistema, dette ”rappresentazioni”. Cominciamo dalla ”rappresentazione dell’entropia”.
Per concretezza, consideriamo un gas di N molecole di un solo tipo, confinate in un volume V , e isolato
termicamente e meccanicamente; sia U la sua energia interna. Le variabili U, V, N sono indipendenti.
Un dato insieme (U, V, N ) definisce uno ”stato termodinamico” (o, più brevemente, ”stato”) del gas; è
sottinteso che lo stato è ”di equilibrio”, cioè stazionario (cioè tale che tutte le grandezze termodinamiche
sono costanti nel tempo). Un dato empirico fondamentale è che esiste una funzione, S = S(U, V, N ), che
risulta coincidere con l’entropia, e che gode della proprietà seguente:
Per il suo ruolo, S è chiamata ”funzione fondamentale” della rappresentazione dell’entropia (come vedremo,
ogni rappresentazione ha la sua funzione fondamentale). Qui di seguito elenchiamo altre proprietà della
funzione S. È bene sottolineare che esse sono di natura empirica: quindi non si pone, a livello della
termodinamica, il problema di ”giustificarle” (tale compito spetta alla meccanica statistica!).
Adottiamo i seguenti simboli per le derivate di S rispetto alle variabili indipendenti:
∂S 1 ∂S P ∂S µ
=˙ , =˙ , =˙ − . (3.2)
∂U T ∂V T ∂N T
T, P, µ risulteranno essere, rispettivamente, la temperatura, la pressione, e il ”potenziale chimico”, una
importante quantità collegata con l’equilibrio ”materiale”, cioè con l’equilibrio rispetto allo scambio di
molecole (vedi l’es. 3.3). In virtù delle (3.2), il differenziale della funzione S(U, V, N ) si scrive:
1 P µ
dS =
˙ dU + dV − dN. (3.3)
T T T
(1)
Un’altra formulazione è quella ”di Clausius”, basata essenzialmente sulla seconda legge della termodinamica [MNV1].
3.1 La rappresentazione dell’entropia 27
Si noti che −µ/T rappresenta la variazione di S conseguente alla aggiunta di una molecola a U, V costanti;
µ può assumere valori negativi, nulli, o positivi (2) . La giustificazione empirica della (3.3) sta nella relazione:
1 –
dS = (dQ − µ dN ) , (3.4)
T
dove
– =
dQ ˙ dU + P dV (3.5)
(Q è il ”calore”). La (3.5) è l’espressione della ”prima legge della termodinamica” nel caso in cui N sia
– =
costante (se N può variare, la prima legge si scrive: dQ ˙ dU + P dV − µ dN [Cal § 2.1]). Per un sistema
– =
generico, la (3.5) si scrive: dQ – , dove dW
˙ dU − dW – è il ”lavoro” (per i gas: dW
– = ˙ − P dV ; per un esempio
di lavoro in un sistema diverso dal gas, vedi [Re80 § 2.D.2]).
I differenziali dS, dU, ecc., corrispondono, fisicamente, alle variazioni (di S, U, ecc.) che si realizzano
quando il sistema è soggetto a opportune trasformazioni infinitesime reversibili (3) (qui assumiamo che la
nozione di ”trasformazione” sia ovvia; per una discussione formale vedi, ad esempio, [Mu70 § 6]). Esistono
anche trasformazioni irreversibili (o spontanee), caratterizzate da variazioni δS tali che sia:
δQ
δS > . (3.6)
T
Consideriamo una trasformazione infinitesima reversibile su un sistema con V, N costanti: la variazione
di S è allora: (δS)V,N = (1/T ) (δU )V,N . La variazione dell’energia interna a V, N costanti, (δU )V,N , ora
coincide con il calore scambiato, (δU )V,N = (δQ)V,N . Per una trasformazione infinitesima reversibile a
V, N costanti abbiamo allora: (δQ)V,N = T (δS)V,N . In termini di (δQ)V,N si costruisce una quantità di
cui faremo uso in seguito: la ”capacità termica a V, N costanti”, definita come il rapporto tra la quantità
di calore, δQ, fornita al sistema reversibilmente e a V, N costanti, e la corrispondente variazione della
temperatura, δT : ¯ ¯
δQ ¯¯ δS ¯¯
CV,N = ˙ lim = T lim . (3.7)
δT →0 δT ¯V,N δT →0 δT ¯V,N
Sperimentalmente risulta:
CV,N > 0 (3.8)
(eccezionalmente può essere: CV,N = 0, e nei punti critici può risultare CV,N = ∞ [Sta § 3.2]). La (3.8) è
una condizione di ”stabilità” (§ 7). Consideriamo infatti un sistema, A, in condizioni di poter scambiare
calore con un secondo sistema, B: supponiamo che a un dato istante A e B abbiano la stessa temperatura
(allora A e B sono ”in equilibrio termico”). Supponiamo poi che, a un istante successivo, B ceda ad A una
quantità di calore (infinitesima) δQ: se la (3.8) è verificata, la temperatura di A aumenta (e quella di B
diminuisce). Quindi il calore acquistato da A può rifluire da A a B, e le temperature tendono a ritornare
al valore di equilibrio: il sistema A + B è dunque ”stabile”. Se invece la (3.8) non è verificata (cioè se
risulta C < 0), il sistema A + B risulta ovviamente ”instabile”.
Le (3.2) esprimono T , P , e µ come funzioni di U, V, N :
Le (3.9) sono le ”equazioni di stato”. Qualora S non fosse nota, ma fossero note (ad esempio sperimen-
talmente) le funzioni (3.9), l’integrazione del differenziale (3.3) permetterebbe di determinare la funzione
S = S(U, V, N ) (per un esempio, vedi l’es. 3.5). Un’altra proprietà di S è:
Le variabili U, V, N sono dette ”estensive”, mentre T, P, µ, cosı̀ come U/V , U/N , V /N , ecc., sono dette
”intensive”: in genere sono chiamate ”estensive” le quantità proporzionali a V (o a N , o a U ), ed ”intensive”
quelle che non dipendono separatamente da V (o da N , o da U ), ma solo da combinazioni come V /N o
simili. La (3.10) implica che anche S è estensiva (basta prendere, ad esempio, λ = 1/N ).
Dalla omogeneità dell’entropia segue la importante ”relazione di Eulero”:
1 P µ
S= U + V − N. (3.11)
T T T
Infatti, poniamo: U 0 =
˙ λU , ecc., e deriviamo la (3.10) rispetto a λ:
∂
U S(U 0 , V 0 , N 0 ) + . . . = S(U, V, N ). (3.12)
∂U 0
Le derivate ∂S(U 0 , ...)/∂U 0 sono funzioni di (U 0 , ...); per λ = 1 esse diventano funzioni di (U, ...). Segue:
¯
∂ 0 0
¯
0 ¯ ∂ 1
U 0
S(U , V , N )¯ + ... =
˙ U S(U, V, N ) + . . . =
˙ U + . . . = S. (3.13)
∂U λ=1 ∂U T
1 P µ
Ud + V d − N d = 0. (3.14)
T T T
La (3.14) può essere immediatamente trasformata in una equazione differenziale che permette poi esprimere
una delle variabili T, P, µ in funzione delle altre (es. 3.1). Un’altra proprietà di S è:
Nel caso in cui le funzioni S per i due sottosistemi, che assumiamo caratterizzati da U1 , V1 , N1 e, rispetti-
vamente, U2 , V2 , N2 , abbiano la stessa forma (cioè nel caso in cui i due sottosistemi siano dello stesso tipo),
la additività dell’entropia si esprime come:
Analizziamo i meccanismi con i quali i valori delle variabili termodinamiche di un sistema in uno
stato di equilibrio si mantengono stazionari. Consideriamo, per esempio, la densità di un gas (in equili-
3.2 Lo stato di equilibrio 29
brio, e non soggetto a forze esterne, come la gravità). È ”ovvio” che la densità ha un valore costante nel
tempo, e uniforme nello spazio. Il meccanismo microscopico che mantiene la densità costante e uniforme
è di natura cinetica. Infatti, se osserviamo la densità ”locale” in un punto (numero di molecole in un
volume ”molto piccolo” contenente quel punto), vediamo che, per effetto dei movimenti, essenzialmente
casuali, delle molecole, essa varia (”fluttua”) da istante a istante. Quindi, istante per istante la densità
non è affatto uniforme. Tuttavia, le molecole collidono tra di loro, e una molecola subisce mediamente
più urti che tendono a farla uscire da una regione ad alta densità, che urti che tendono a farcela entrare.
Di conseguenza, ogni fluttuazione in cui la densità aumenta è seguita da una in cui essa diminuisce, e
viceversa, con la conseguenza che in media (media temporale, nello spirito dell’ipotesi ergodica) la densità
rimane uniforme. Analogamente, se il gas viene preparato in una condizione di non equilibrio in cui la
densità è non uniforme, e poi viene lasciato evolvere autonomamente, le fluttuazioni che tendono a ridurre
la disuniformità sono più frequenti e più ”intense” di quelle che tendono a mantenerla (o ad aumentarla),
per cui la densità tende, in media, all’uniformità.
Il meccanismo macroscopico invocato dalla termodinamica per mantenere costante la densità, è invece
basato sull’entropia. Consideriamo un sistema (il gas) in uno stato di equilibrio, a. Assumiamo che il
sistema sia mantenuto in a da opportuni ”vincoli” (ad esempio, le pareti di un contenitore). Supponiamo
che, ad un certo istante, uno dei vincoli venga modificato, in modo che il sistema cessi di essere in equilib-
rio (ad esempio, supponiamo che il volume del contenitore venga fatto aumentare, come nella ”espansione
alla Joule” [MNV1 § 11.5]). Supponiamo inoltre che la modificazione del vincolo sia istantanea, e che
dopo di essa il sistema non sia più disturbato. L’osservazione dice che, a partire dall’istante successivo
alla modificazione del vincolo, il sistema esegue una trasformazione irreversibile verso un nuovo stato di
equilibrio, b. Si osserva infine che la variazione di S nella trasformazione è positiva: ∆S = ˙ Sb − Sa > 0.
Quanto osservato sopra per un gas risulta valere in generale: un sistema isolato che non sia in equilibrio
(evitiamo di usare l’espressione ”stato di non equilibrio”!) evolve sempre verso uno stato di equilibrio,
e che nel corso di tale evoluzione la funzione S aumenta; inoltre, l’evoluzione termina quando il sistema
raggiunge lo stato di equilibrio, che risulta essere quello in cui S è ”massima” (nel senso che preciseremo
tra poco). Il meccanismo termodinamico che impedisce ad un sistema di uscire (spontaneamente) da uno
stato di equilibrio è quindi basato sul fatto che in una evoluzione spontanea l’entropia aumenta, e che non
ci può essere evoluzione spontanea a partire da uno stato di equilibrio perchè ”in uno stato di equilibrio
l’entropia è già massima”.
Per chiarire in che senso ”l’entropia è massima in uno stato di equilibrio”, è necessario definire
l’entropia per un sistema che non sia in uno stato di equilibrio. Poichè l’entropia, come qualunque al-
tra grandezza termodinamica, è definita solo per stati di equilibrio, è necessario definire stati di equilibrio
che corrispondano in qualche modo alla condizione di un sistema che non sia in uno stato di equilibrio:
questi sono gli ”stati di equilibrio vincolato” [Cal § 1.9], che definiamo qui di seguito. Con riferimento
al gas di cui sopra, immaginiamo una parete rigida e fissata, ma permeabile alle molecole, che divida il
volume occupato dal gas, V , in due sottovolumi V1 e V2 , con V1 + V2 = V , in modo che, a un determinato
istante, V1 e V2 contengano, rispettivamente, N1 ed N2 molecole, con N1 + N2 = N (e con energie interne
U1 e U2 , con U1 + U2 = U ). Se risulta (N1 /V1 ) 6= (N2 /V2 ), allora, a quell’istante, si è in presenza di
una fluttuazione della densità. In quell’istante il gas non si trova, ovviamente, in uno stato di equilibrio,
e quindi non possiamo calcolare S. Tuttavia, possiamo ”stabilizzare la fluttuazione”, immaginando di
”impermeabilizzare” (a quell’istante) la parete, in modo da ”bloccare” i valori di N1 ed N2 . Come risul-
tato di questa operazione abbiamo ottenuto uno stato di equilibrio ”vincolato” (il ”vincolo” è, in questo
caso, la parete impermeabilizzata). Sottolineiamo che il vincolo è un artificio mentale che permette di
”stabilizzare le fluttuazioni” e quindi di definire S in presenza di una fluttuazione. Si noti che le scale tem-
porali caratteristiche delle fluttuazioni sono molto più lunghe delle scale temporali microscopiche; quindi,
durante una fluttuazione il sistema è in uno stato di ”quasi equilibrio”: trasformare tale stato in un stato
3.3 La trasformata di Legendre 30
di equilibrio effettivo, mediante il vincolo, è quindi giustificato. Per lo stato di equilibrio vincolato risulta:
S = S(U1 , V1 , N1 ) + S(U2 , V2 , N2 ) =
˙ S1 + S2 (vedi la (3.15)). Formuliamo allora il seguente postulato:
S4 ) Lo stato di equilibrio, o, di un sistema (gas) isolato con dati U, V, N , è quello per cui la
funzione S è massima rispetto a tutti gli stati di equilibrio vincolati, a, ottenibili da o mediante
l’interposizione di opportuni vincoli.
(δS)U,V,N =
˙ (Sa − So )U,V,N < 0 . (3.16)
Sulla base del postulato S4 è facile verificare che le derivate parziali di S (vedi le (3.2)) hanno effettivamente
il significato di, rispettivamente, temperatura (4) , pressione, e potenziale chimico (vedi l’es. 3.3).
d2 y
=
˙ yxx (x) > 0. (3.17)
d x2
dy
=
˙ yx (x) = p . (3.18)
dx
(4)
Si noti che la prima delle (3.2), insieme con la (3.1), esclude che la temperatura possa assumere valori negativi. D’altra
parte è possibile che per particolari valori di U risulti: ∂S/∂U < 0; tali valori corrisponderebbero quindi a ”stati” con T < 0,
che tuttavia risultano non essere stati di equilibrio ([Pat § 3.9]; [Cal § 1.9]).
3.4 Altre rappresentazioni 31
In virtù della (3.17), yx (x) è una funzione continua e monotona (crescente), e quindi esiste (per i teoremi
sulle funzioni implicite [FMS cap 11]) un intervallo Ip =
˙ (p1 , p2 ) tale che, per p ∈ Ip , la (3.18) definisce
una funzione:
x = x(p) , (3.19)
derivabile e con derivata continua. Indichiamo con C il grafico della funzione y = y(x): per p ∈ Ip , x(p) è
la ascissa del punto di C in cui la retta tangente ha coefficiente angolare p. Indichiamo con −ψ =
˙ − ψ(p)
l’ordinata dell’intersezione con l’asse y della retta tangente a C nel punto (x, x(p) (vedi la fig. 3.1). È
chiaro che risulta:
y(x(p)) + ψ(p)
p= , (3.20)
x(p)
da cui:
ψ(p) = px(p) − y(x(p)) . (3.21)
y y
p = tg θ (i = 1,2) p = tg θ
i i
y(x(p))
θ θ2 θ
1 -ψ
Fig. 3.1 : x1 x x x(p) x
2
Trasformata di Legendre.
Consideriamo ora un piano (p, ψ), e la funzione p = ψ(p). In virtù delle proprietà di x(p) e di
y(x) anche ψ(p) risulta continua e derivabile. Dalle (3.21) e (3.18) si ottiene:
dψ
ψp (p) =
˙ = x(p) + p x0 (p) − yx (x(p))xp (p) = x(p) . (3.22)
dp
Quindi anche la funzione p = ψ(p) possiede una trasformata di Legendre, che chiamiamo h(x). Ripetendo
il procedimento visto per y(x) otteniamo:
x = ψp (p). (3.26)
Per la (3.22), la (3.26) coincide con la x = x(p). Quindi, le funzioni x = x(p) e p = p(x) sono l’una inversa
dell’altra, cioè: x(p(x)) = x. È facile allora mostrare che h(x) coincide con y(x). Dalla (3.21) segue infatti:
In definitiva: ”la trasformata di Legendre della trasformata di Legendre di y(x) coincide con y(x)”. La
trasformazione di Legendre (5) è dunque una operazione invertibile.
S∗ = ˙ T U − S(U ) )
∂S =⇒ S ∗ = T U (T ) − S(U (T )) =
˙ S ∗ (T ) . (3.28)
T =˙
∂U
In virtù della prima delle (3.2), T deve essere identificato con T −1 . La trasformata di Legendre di S rispetto
ad U risulta allora funzione della temperatura inversa: S ∗ (T ) = ˙ S ∗ (T −1 ). È chiaro che sarebbe molto più
naturale una dipendenza da T , piuttosto che da T −1 . Una funzione fondamentale con le caratteristiche
di essere sia una trasformata di Legendre che una funzione di T , può essere ottenuta (vedi la (3.35)),
introducendo dapprima la ”rappresentazione dell’energia interna”.
Osserviamo che, in virtù della prima delle (3.1), la funzione S = S(U, V, N ) può essere invertita
rispetto ad U : sia U = U (S, V, N ) la funzione inversa. Risulta ovviamente:
µ ¶−1
∂U ∂S
= > 0. (3.29)
∂S ∂U
Dalla (3.29) segue che anche la funzione U = U (S, V, N ) è invertibile rispetto ad S: la funzione inversa è,
ovviamente, S = S(U, V, N ). Quindi, dalla funzione S = S(U ) si può ottenere la funzione U = U (S), e
viceversa. Allora U = U (S, V, N ) può essere considerata la funzione fondamentale della rappresentazione
in cui le variabili indipendenti sono S, V, N (in questo caso si ottiene una nuova funzione fondamentale
senza ricorrere alla trasformata di Legendre!). Dalla (3.3) segue:
dU = T dS − P dV + µ dN . (3.30)
∂U ∂U ∂U
T = , P =− , µ= . (3.31)
∂S ∂V ∂N
Come S, anche U risulta omogenea di grado uno (es. 3.6b): la relativa relazione di Eulero è:
U = T S − P V + µN . (3.32)
S dT − V dP + N dµ = 0 . (3.33)
La rappresentazione dell’energia interna è adatta a descrivere sistemi ”in equilibrio a S costante”. Dal
punto di vista fisico, tali equilibri non sono molto interessanti, ma la rappresentazione dell’energia interna
(5)
È facile estendere la definizione al caso di funzioni di più variabili: se f è funzione di più variabili, la trasformata di
Legendre di f rispetto ad una di esse è del tipo: f ∗ (y , z) =
˙ supx [xy − f (x , z)] . f ∗ (y , z) è allora la ”trasformata di Legendre
di f (x , z) rispetto a x”.
3.4 Altre rappresentazioni 33
è utile, come vediamo qui di seguito, per derivare la ”rappresentazione dell’energia libera”, A(T ).
Consideriamo allora la trasformata di Legendre di U (S, V, N ) rispetto ad S (6) :
U∗ =˙ TS − U )
∂U =⇒ U ∗ (T ) = T S(U (T )) − U (T ) , (3.34)
T =
∂S
dove U (T ) è la funzione che si ottiene invertendo la T = ∂U/∂S. U ∗ (T ) è sia una trasformata di Legendre
che una funzione di T : essa potrebbe dunque essere la funzione fondamentale cercata sopra. Convenzional-
mente, si preferisce utilizzare, invece di U ∗ (T ), la funzione:
˙ − U ∗ (T ) =
A(T ) = ˙ U − TS , (3.35)
detta ”energia libera (di Helmholtz)” (A dipende anche da V, N ). Sottolineiamo il fatto che abbiamo
ottenuto A(T ) da S(U ) mediante la sequenza di passaggi:
e che tutti i passaggi sono invertibili: quindi dalla funzione A(T ) si può riottenere la funzione S(U ). La
rappresentazione (della termodinamica del gas) che assume come variabili indipendenti T, V, N , e come
funzione fondamentale A(T, V, N ), si chiama ”rappresentazione dell’energia libera”. Le equazioni di stato
nella rappresentazione di A seguono immediatamente dal differenziale:
dA = −S dT − P dV + µ dN (3.37)
∂A ∂A ∂A
−S = , P =− , µ= . (3.38)
∂T ∂V ∂N
Si noti anche l’importante relazione (che si ottiene scrivendo la (3.35) come: U = A + T S, e usando la
prima delle (3.38)):
∂(T −1 A) ∂(βA) 1
U= −1
=˙ , con : β = ˙ . (3.39)
∂T ∂β kB T
In termini dell’energia libera A è possibile definire lo ”stato di equilibrio” di sistemi molto importanti:
quelli ”in equilibrio termico con una riserva di calore”, dove per ”riserva di calore” (o ”termostato”)
intendiamo un sistema con pareti rigide, fisse, e impermeabili, capace di assorbire e/o cedere quantità di
calore (anche finite) mantenendo costante la propria temperatura. Dato un sistema termodinamico, un
sistema che possa fungere, con buona approssimazione, da riserva di calore per il primo, è un sistema
cosı̀ grande (rispetto al primo) che il passaggio del calore avviene lasciando inalterata ogni sua grandezza
termodinamica (non solo la temperatura): quindi, una riserva di calore assorbe e cede calore in modo
reversibile [Cal § 4.3]. Se T è la temperatura della riserva, la condizione di equilibrio tra il sistema e la
riserva è ovviamente (es. 3.3a), che anche il sistema abbia temperatura T . A volte, per brevità, invece di
scrivere ”sistema in equilibrio in contatto termico con una riserva con temperatura T ”, scriveremo ”sistema
a T costante” (a rigore ciò è improprio, perchè anche un sistema isolato con energia U è ”a T costante”,
con 1/T = ∂S/∂U !).
Consideriamo dunque un sistema a T costante, e supponiamo che il sistema e la riserva formino un
sistema (composto) isolato. Indicando con S l’entropia del sistema, e con Sr quella della riserva (caratte-
(6)
È facile verificare che la condizione (b) qui è soddisfatta. Dalla prima delle (3.31) segue (è sottinteso che tutte le
derivate qui sono a V, N costanti): ∂ 2 U/∂S 2 = ∂T /∂S. Ricordiamo poi: ∂S/∂T = CV /T > 0 (vedi la (3.8)). Allora la
funzione S = S(T ) può essere invertita, e risulta: ∂T /∂S = 1/(∂S/∂T ) > 0.
3.5 Non applicabilità della trasformata di Legendre 34
rizziamo con l’indice r tutte le grandezze della riserva), la condizione perchè uno stato del sistema composto
sia di equilibrio è che l’entropia totale: St = S + Sr , sia massima rispetto a tutti gli altri stati raggiungibili
mediante trasformazioni virtuali, cioè che sia:
Per definizione, la variazione δSr ha luogo in modo reversibile. Possiamo quindi scrivere:
∂Sr 1 1
δSr = δUr =
˙ δUr = δUr . (3.41)
∂Ur Tr T
1 1
δ(S + Sr ) = δS + δUr = (T δS − δU ) < 0 , cioè δA > 0 , (3.42)
T T
dove A =
˙ U − T S. La (3.42) è la condizione di equilibrio cercata: per un sistema a T costante, lo stato di
equilibrio è quello per cui è minima A.
La rappresentazione dell’energia libera risulta particolarmente conveniente per quei fenomeni, come le
transizioni di fase (cambiamenti di stato), in cui la temperatura gioca un ruolo essenziale. Consideriamo,
ad esempio, la transizione gas-liquido. Dalla condizione di minimo dell’energia libera A = U − T S, segue
che a temperatura ”alta” lo stato di equilibrio coincide con lo stato ad alta entropia (il gas), mentre a
temperatura ”bassa” esso coincide con lo stato a bassa energia (il liquido).
Un’altra rappresentazione molto utile è quella ”del potenziale gran canonico”, Ω(T, V, µ), definito come
trasformata di Legendre di A(T, V, N ) rispetto a N . Tale rappresentazione è necessaria per descrivere un
gas in equilibrio con assegnati il volume V , la temperatura T , e in equilibrio rispetto agli scambi di particelle
(equilibrio materiale) a un dato µ (vedi l’es. 3.3c). Ω risulta espresso come:
Ω=˙ A(T, V, N ) − µN )
∂A =⇒ Ω = Ω(T, V, µ) . (3.43)
µ=
∂N
Le equazioni di stato nella rappresentazione del potenziale gran canonico seguono dal differenziale:
dΩ = −S dT − P dV − N dµ . (3.45)
Anche qui, si trova (vedi l’es. 3.10) che per un ”sistema a T e µ costanti” (cioè per un sistema in equilibrio
termico con una riserva di calore con temperatura T e in equilibrio materiale con una riserva di particelle
con potenziale chimico µ), lo stato di equilibrio è quello per cui è minimo Ω.
Citiamo infine la rappresentazione del ”potenziale termodinamico” (o ”energia libera di Gibbs”),
G = G(T, P, N ), definito come la trasformata di Legendre di A rispetto a −V :
G=˙ P V + A(T, V, N ) )
∂A =⇒ G = G(T, P, N ) . (3.46)
P =−
∂V
Le equazioni di stato nella rappresentazione del potenziale di Gibbs seguono dal differenziale:
dG = −S dT + V dP + µ dN . (3.47)
3.6 La trasformata di Legendre generalizzata 35
Per un sistema ”a T e P costanti” (cioè in equilibrio termico con una riserva di calore con temperatura T
e con un equilibrio meccanico con una riserva di volume (definita in modo analogo alla riserva di calore)
con pressione P ) lo stato di equilibrio è quello per cui è minimo G [Cal cap. 6].
In termodinamica è facile incontrare problemi in cui le condizioni (a) e/o (b) del § 3 non sono verificate.
Consideriamo, ad esempio, un gas reale: come è ben noto, esiste una ”temperatura critica”, Tc , tale che
l’equazione di stato (per T < Tc , ed N fissato) ha la forma della figura 3.2a. Consideriamo l’energia libera
di Helmholtz: A = A(T, V, N ), e ricordiamo la seconda delle (3.38):
∂A
P =− =
˙ P (T, V, N ) (3.48)
∂V
∂2A ∂P
− 2 =
˙ < 0, per : V ∈
/ [V1 , V2 ] ;
∂V ∂V
(3.50)
∂2A ∂P
− =
˙ = 0, per : V ∈ [V1 , V2 ] .
∂V 2 ∂V
Per V ∈
/ [V1 , V2 ] (T, N sono fissati) le condizioni (a) e (b) sono verificate. Nell’intervallo (V1 , V2 ), invece, la
P A g
V1 V2
V
Fig. 3.2 :
(a) (liq.)
a) l’isoterma P (T, V, N ); (b)
Ps
b) l’energia libera A(T, V, N ). (c)
g=
˙ G/N = g(T, V ). V1 V2 V Ps P
per P > Ps il ”gas” è nella fase liquida, mentre per P < Ps il ”gas” è nella fase gassosa (per P = Ps c’è
coesistenza tra le due fasi). Nella fase liquida la densità è maggiore che in quella gassosa: nl > ng . Segue:
¯ ¯
1 1 ∂g ¯¯ ∂g ¯¯
> , cioè : > . (3.53)
ng nl ∂P ¯P <Ps ∂P ¯P >Ps
La funzione G non è derivabile rispetto a P in Ps (vedi la fig. 3.2c). Anche in questo caso, la trasformata
di Legendre di G (rispetto a P ) non può essere calcolata con la (3.24).
Definiamo la nozione di ”convessità” di una funzione di una variabile. Sia I un intervallo aperto di
R, e sia f : I → R una funzione reale; f è ”convessa” se, per ogni x1 , x2 ∈ I e ogni λ ∈ (0, 1) è:
In termini geometrici, la (3.54) implica che una corda P Q (vedi la fig. 3.3) sta sopra il tratto del grafico di
f compreso tra P e Q, o coincide con esso. f è ”strettamente convessa” se per ogni x1 , x2 (con x1 6= x2 )
la (3.54) vale come disuguaglianza (cioè se la curva non contiene tratti rettilinei).
Qui di seguito elenchiamo, senza dimostrazioni, le proprietà delle funzioni convesse che ne giustificano
l’uso in termodinamica. Se f : I → R è una funzione convessa, allora:
y (a)
Fig. 3.3 :
a) funzione convessa; (b)
b) funzione strettamente convessa; Q (c)
P
c) funzioni concave.
x
1) f è continua su I.
2) Se f è derivabile due volte su un intervallo (a, b) ∈ I, allora f è convessa se e solo se la derivata
seconda è non negativa: f 00 ≥ 0, e strettamente convessa se e solo se:
f 00 > 0 . (3.55)
f ∗ (y) =
˙ sup [xy − f (x)] , (3.56)
x
dove I ∗ =˙ {y : f ∗ (y) < ∞}, è convessa [RV § 15, teor. A]. f ∗ (y) è chiamata ”funzione convessa coniugata a
f ”, oppure ”trasformata di Legendre (sottinteso: ”generalizzata”) di f ”. La proprietà fondamentale della
trasformata di Legendre è la ”invertibilità”, definita come segue:
4) La trasformata di Legendre f ∗∗ della trasformata di Legendre f ∗ di una funzione convessa coincide
con la funzione f :
f ∗∗ (x) =
˙ sup [yx − f ∗ (y)] = f (x) . (3.57)
y
La trasformata di Legendre può essere definita anche per le funzioni ”concave”, dove f è concava se e
solo se −f è convessa. Le proprietà delle funzioni concave sono analoghe a quelle delle funzioni convesse.
(7)
Qui indichiamo con (f, y, f ∗ ) le quantità che nel § 3 erano indicate come (y, p, ψ).
3.7 Le condizioni di stabilità 37
f ∗ (y) =
˙ inf [xy − f (x)] , (3.59)
x
è concava.
4’) La trasformata di Legendre della trasformata di Legendre di una funzione concava coincide con la
funzione: f ∗∗ (x) = f (x).
La trasformata di Legendre di una funzione strettamente convessa (o concava) può essere calcolata
facilmente. Consideriamo ad esempio un intervallo I 0 in cui f è derivabile due volte, e in cui è verificata
la (3.55) (per la (3.58) si procede in modo analogo). Allora la funzione y = y(x) = ˙ ∂f /∂x è crescente, e
∗0
quindi esiste un intervallo I in cui la funzione inversa, x = x(y), è definita. La (3.56) equivale allora, per
y ∈ I ∗ 0 , alle equazioni:
)
f ∗ (x) =
˙ xy − f (x)
=⇒ f ∗ = x(y) y − f (x(y)) = ˙ f ∗ (y) . (3.60)
y(x) = ˙ ∂f /∂x
La (3.60) è la forma della trasformata di Legendre che di solito è usata nella meccanica analitica. Due
esempi sono [RV probl. 15B] (la funzione esponenziale è strettamente convessa in virtù della (3.55)):
f (x) = x2 (I = R) , f ∗ (y) = y 2 /4 (I ∗ = R) ;
½
y log y − y , y > 0
f (x) = ex (I = R) , f ∗ (y) = (I ∗ = [0, ∞)) .
0, y=0
Dove la (3.60) non è applicabile, bisogna ricorrere alla definizione (3.56). Consideriamo ad esempio
una f (x) convessa su un intervallo (a, b), e sia xv ∈ (a, b) un punto angoloso (in cui f non è derivabile).
f
xy - f(x) (< 0) f(x)
x y - f(x ) =
0 0
supx [xy - f(x)]
(b) t1
f(x) (a) t2
Fig. 3.4 :
a) La trasf. di L. generalizzata. xy
θ = arctg y (b)
b) L’esempio (3.61). θ
x x0 x xv
Siano t1 e t2 le rette tangenti in xv− e, rispettivamente, xv+ , (vedi la fig. 3.4b), e siano y− e y+ (con:
y± =˙ (df /dy)± , e: y− < y+ ) i relativi coefficienti angolari. La trasformata di Legendre è allora:
Quindi, a un punto in cui f è non derivabile corrisponde un tratto rettilineo di f ∗ . Due esempi sono:
Studiamo la condizione che S sia massima nello stato di equilibrio (§ 3.2). Consideriamo un gas isolato,
in uno stato (U, V, N ), e supponiamo che il volume V sia costituito da due volumi V1 e V2 (V1 + V2 = V ),
separati da una parete diatermica e mobile che, per semplicità, assumiamo impermeabile alle molecole: i
numeri, N1 ed N2 (N1 + N2 = N ), di molecole contenute in V1 e, rispettivamente, V2 , sono allora fissati
(nel seguito di questo paragrafo omettiamo di indicare la dipendenza dal numero di molecole e intendiamo
che tutte le derivate sono calcolate a N costante). Siano inoltre U1 ed U2 (U1 + U2 = U ) le rispettive
energie. La condizione di equilibrio è che ogni variazione virtuale:
˙ U1 − U10 ;
δU1 = ˙ U2 − U20 ;
δU2 =
(3.63)
˙ V1 − V10 ;
δV1 = ˙ V2 − V20 ,
δV2 =
con
δU1 + δU2 = 0 ; δV1 + δV2 = 0 , (3.64)
(con ”0 ” indichiamo i valori relativi allo stato di equilibrio) comporti una diminuzione dell’entropia rispetto
al valore di equilibrio S 0 =
˙ S(U 0 , V 0 ) = S10 (U10 , V10 ) + S20 (U20 , V20 ).
Sviluppiamo S fino al secondo ordine nelle variazioni (3.63). Consideriamo, per esempio, S1 (per S2
vale una formula analoga): scrivendo la derivata seconda mista come:
· 2 ¸0 (· µ ¶¸0 · µ ¶¸0 )
∂ S 1 ∂ ∂S ∂ ∂S
=
˙ + , (3.65)
∂U ∂V 1 2 ∂V ∂U 1 ∂U ∂V 1
dove i termini omessi sono di ordine superiore al secondo. L’entropia totale, S = S1 + S2 , può allora essere
sviluppata come:
( )
X · ∂S ¸0 ·
∂S
¸0
0
S=S + δUα + δVα +
α=1,2
∂U α ∂V α
(· µ ¶¸0 · µ ¶¸0 )
1 X ∂ 1 ∂ 1
+ δUα + δVα δUα + (3.67)
2 α=1,2 ∂U T α ∂V T α
(· µ ¶¸0 · µ ¶¸0 )
1 X ∂ P ∂ P
+ δUα + δVα δVα + . . . ,
2 α=1,2 ∂U T α ∂V T α
dove abbiamo utilizzato la prima e la seconda delle (3.2). Le condizioni di equilibrio, T10 = T20 e P10 = P20 ,
insieme alle (3.64), implicano che il termine del primo ordine nella (3.67) è nullo; introducendo poi le
variazioni δTα e δPα (si ricordi che T e P sono, per le (3.2), funzioni di (U, V )), la (3.67) diventa:
·½ ¾ ½ ¾ ¸
1 X 1 Pα
S = S0 + δ δUα + δ δVα + . . . =
2 α=1,2 Tα Tα
1 X 1
= S0 + (−δTα δSα + δPα δVα ) + . . . = (3.68)
2 α=1,2 Tα
1 X
= S0 + (−δTα δSα + δPα δVα ) + . . . ,
2T α=1,2
3.7 Le condizioni di stabilità 39
dove abbiamo utilizzato la δU + P δV = T δS (vedi la (3.30)), e dove abbiamo posto, a meno di termini di
˙ T10 = T20 è la temperatura di equilibrio):
ordine superiore (T =
Se lo stato di equilibrio è un massimo per S, deve risultare S > S 0 per ogni variazione (δTα , δVα ) (8) .
Devono quindi essere soddisfatte le ”condizioni di stabilità”:
3.8 Esercizi
1 3 kB P k U V
= ; = B , dove u =
˙ , v=
˙ . (3.82)
T 2 u T v N N
Si consideri poi la relazione di Gibbs-Duhem (3.14), scritta nella forma
µ 1 P
d = ud + vd . (3.83)
T T T
Usando le (3.82) nella (3.83), e integrando, mostrare che il potenziale chimico nello stato (u, v) è:
" µ ¶ 32 µ ¶− 52 #
µ ³µ´ 3 u v V U N
− = − kB ln − kB ln =
˙ − kB ln (3.84)
T T 0 2 u0 v0 V0 U0 No
[Sostituire le (3.82) e (3.84) nella (3.11) [Cal § 3.4]]. Scrivere la (3.86) nella forma:
" µ ¶ 32 #
V U
S(U, V, N ) = N kB ln + cost. , (3.87)
N N
1 X ·C 1 ∂µ
h i0 ¸
S = S0 − V
(δTα )2 + (δVα )2 + (δNα )2 + . . . ; (3.80)
2T T V κT ∂N (P,T )
α=1,2
alle (3.81) bisogna allora aggiungere la condizione: [∂µ/∂N ]0 > 0 (es. 3.12).
(P,T )
3.8 Esercizi 41
e separati da una parete diatermica, mobile, e permeabile alle molecole; supporre che i due gas siano in
equilibrio reciproco ... ]
c) Verificare che l’energia interna del gas ideale monoatomico è:
µ ¶− 23 µ ¶ 53 · µ ¶¸
V N 2 S S0
U =˙ U0 exp − . (3.88)
V0 N0 3kB N N0
Esercizio 3.3 Significato fisico di (T, P, µ) (9) .
a) Considerare un sistema isolato, composto da due sottosistemi separati da una parete rigida e fissata,
e impermeabile alle molecole, ma permeabile al calore (”diatermica”). Calcolare la variazione dell’entropia
rispetto a trasformazioni virtuali dU1 e dU2 (con dU1 + dU2 = 0) delle energie dei sottosistemi; mostrare
che nello stato di equilibrio è: T1 = T2 [Cal § 2.4].
b) Considerare il sistema del punto (a), e sostituire la parete rigida e fissata, impermeabile e diatermica,
con una rigida e mobile, impermeabile e diatermica, e mostrare che nello stato di equilibrio è: T1 = T2 , e
P1 = P2 [Cal § 2.7].
c) Considerare il sistema del punto (a), e sostituire la parete rigida e fissata, impermeabile e diatermica
con una rigida e fissata, permeabile e diatermica, e mostrare che nello stato di equilibrio è: T1 = T2 , e
µ1 = µ2 [Cal § 2.8].
d) Per lo stesso sistema del punto (c), mostrare che, facendo evolvere il sistema a partire da uno stato
di equilibrio vincolato con T1 = T2 e µ1 > µ2 , segue dN1 < 0. [Quindi: µ ha, nei confronti dell’equilibrio
rispetto agli scambi di molecole, la stessa funzione di T rispetto agli scambi di calore].
dove So , Vo , No sono le costanti che figurano nella (3.86), e To è definito in termini di Uo ed No dalla prima
delle (3.82). Ricavare le equazioni di stato nella rappresentazione di A.
b) Considerare la trasformata di Legendre:
A 1 1 ∂S
− =S−U , = , (3.91)
T T T ∂U
che definisce −A/T come trasformata di Legendre di S(U ) rispetto a U (quindi −A/T risulta funzione di
1/T ). Mostrare che la trasformata inversa è:
A 1 ∂(A/T )
S=− − U, U= (3.92)
T T ∂(1/T )
(la (3.92) definisce S(U ) come trasformata di Legendre di −A/T rispetto a 1/T ).
Esercizio 3.11 Proprietà delle funzioni implicite ([Re80 § 2.B] ; [Cal app. A.5]).
Si considerino tre variabili, x, y, z, tra le quali esista una relazione del tipo F (x, y, z) = 0. Mostrare
che valgono le seguenti relazioni:
µ ¶ ·µ ¶ ¸−1
∂x ∂y
a) = ; (3.93)
∂y z ∂x z
µ ¶ µ ¶ µ ¶ µ ¶ µ ¶ µ ¶
∂x ∂y ∂x ∂x ∂y ∂z
b) + =0, oppure = −1 . (3.94)
∂y z ∂z x ∂z y ∂y z ∂z x ∂x y
Considerare poi un’altra variabile, w, funzione di x, y: w = w(x, y), e mostrare che vale la relazione:
µ ¶ µ ¶ µ ¶
∂x ∂x ∂y
c) = . (3.95)
∂w z ∂y z ∂w z
3.8 Esercizi 43
Dimostrazioni:
a,b) Scriviamo ([Re80 § 2.B] ; [Cal § 7.5]) la relazione tra x, y, z come x = x(y, z); consideriamo
poi la funzione inversa y = y(x, z), e la funzione composta x = x(y(x, z), z); differenziando quest’ultima
otteniamo:
µ ¶ µ ¶ µ ¶ ·µ ¶ µ ¶ ¸ µ ¶
∂x ∂x ∂x ∂y ∂y ∂x
dx = dy + dz = dx + dz + dz ;
∂y z ∂z y ∂y z ∂x z ∂z x ∂z y
c) Consideriamo ancora la x = x(y, z), e supponiamo che sia y = y(w, z); differenziando la funzione
composta x = x(y(w, z), z) otteniamo:
µ ¶ µ ¶ µ ¶ ·µ ¶ µ ¶ ¸ µ ¶
∂x ∂x ∂x ∂y ∂y ∂x
dx = dy + dz = dw + dz + dz ;
∂y z ∂z y ∂y z ∂w z ∂z w ∂z y
d) Consideriamo la funzione x = x(y, w), e supponiamo che sia w = w(y, z); differenziando la funzione
composta x = x(y, w(y, z)) segue:
µ ¶ µ ¶ µ ¶ µ ¶ "µ ¶ µ ¶ #
∂x ∂x ∂x ∂x ∂w ∂w
dx = dy + dw = dy + dy + dz ;
∂y w ∂w y ∂y w ∂w y ∂y z ∂z y
Tutte le relazioni tra derivate parziali qui illustrate possono essere dedotte in modo più generale ed elegante
con il ”metodo degli jacobiani” ([Cal app. A.5], [Mu70 § 25]).
αP2
CP − CV = T V . (3.97)
κT
[Soluzione: vedi, ad esempio, [Re80 § 2.G.2], [Sta § 2.3], [Hu87 p. 21], ...].
3.8 Esercizi 44
µ ¶ "µ ¶ µ ¶ #−1
∂N ∂µ ∂V
=− . (3.98)
∂µ (T ,V )
∂V (N,T )
∂N (µ,T )
Osserviamo poi che dalla condizione che dA (vedi la (3.37)) sia un differenziale esatto segue:
µ ¶ µ ¶ µ ¶ "µ ¶ µ ¶ #−1
∂µ ∂P ∂N ∂P ∂V
=− , da cui : = . (3.99)
∂V (T ,N )
∂N (T ,V )
∂µ (T ,V )
∂N (T ,V )
∂N (µ,T )
Osserviamo che dalla relazione di Gibbs-Duhem (vedi la (3.14)), segue µ = µ(P, T ); dalla (3.96) otteniamo:
µ ¶ µ ¶ µ ¶ µ ¶
∂N ∂N ∂N ∂µ
= + ; (3.100)
∂V (P,T )
∂V (µ,T )
∂µ (T ,V )
∂V (P,T )
(n =
˙ N/V è la densità). Usando la (3.93), e sostituendo la (3.101) nella seconda delle (3.99), otteniamo:
µ ¶ µ ¶ µ ¶ µ ¶
∂N ∂N ∂N ∂N
= =n . (3.102)
∂µ (T ,V )
∂P (T ,V )
∂V (µ,T )
∂P (T ,V )
Per N fissato, P, V e T sono legati da una qualche equazione di stato, che possiamo scrivere come
F (P, V, T ) = 0 ; possiamo allora usare la (3.94), per cui la (3.102) diventa:
µ ¶ " µ ¶ µ ¶ # µ ¶
∂N ∂N ∂V ∂V
=n − = −n2 ˙ n 2 V κT > 0 .
= (3.103)
∂µ (T ,V )
∂V (P,T ) ∂P (N,T ) ∂P (N,T )
Un metodo per determinare la funzione di distribuzione per un sistema isolato è suggerito dal modo
con cui la termodinamica caratterizza lo stato di equilibrio (di un sistema isolato). Consideriamo, al
solito, un gas costituito di molecole di un solo tipo, e ricordiamo che lo stato di equilibrio termodinamico
è caratterizzato dal postulato S4 (pag. 30: ”massimo dell’entropia”). Qui di seguito mostriamo che una
condizione di ”massimo dell’entropia” può essere formulata anche nell’ambito della meccanica statistica, e
che da essa si può derivare la densità microcanonica (1.17).
Cominciamo col definire ”densità di probabilità di un gas isolato in equilibrio” la ρ, che indicheremo
con ρmc , tale che l’entropia S[ρ]:
Z
S=
˙ S[ρ] =
˙ − kB dµ ρ ln(Σ0 ρ) (1.16)
Σ(E)
sia massima in ρ = ρmc rispetto a tutte le ρ = ρmc + δρ che soddisfano la condizione di normalizzazione:
Z
K[ρ] =
˙ dµ ρ − 1 = 0 . (4.1)
Σ(E)
La densità ρmc deve allora soddisfare la condizione che sia nulla la variazione di S[ρ] al primo ordine in δρ
(per ogni δρ compatibile con la (4.1)), cioè che sia:
S 0 [ρ] =
˙ S[ρ] + λ0 K[ρ] , (4.3)
dove λ0 è il moltiplicatore. Definiamo ρmc (funzione di λ0 ) mediante la condizione che S 0 [ρ] abbia un
estremo in ρmc , con λ0 fissato, rispetto a tutte le ρmc + δρ con δρ arbitraria. Condizione necessaria per
l’estremo è che sia:
δS 0 =
˙ S 0 [ρmc + δρ] − S 0 [ρmc ] = O[(δρ)2 ] . (4.4)
(1)
In effetti, qui si usa una versione del metodo dei moltiplicatori di L. in cui si cercano gli estremi di un f unzionale (in
uno spazio di f unzioni). I metodi appropriati sono quelli del calcolo variazionale, il cui strumento principale è la ”derivata
funzionale” (vedi, ad esempio: [BDFN app. L]).
4.2 Il limite termodinamico 46
La (4.4) implica: Z · ¸
λ0
−kB dµ ln(Σ0 ρmc ) + 1 − δρ = 0 . (4.5)
Σ(E) kB
Perchè la (4.5) sia vera per δρ arbitraria, si deve annullare il coefficiente di δρ nell’integrando. ρmc è allora
determinata dalle due equazioni:
Z
λ0
ln(Σ0 ρmc ) + 1 − = 0; dµ ρmc = 1 . (4.6)
kB Σ(E)
Ricavando λ0 dalla seconda delle (4.6), si ottiene la ρ (normalizzata) per la quale S[ρ] ha un estremo:
Z
−1
ρmc (x) = Σ(E) (x ∈ Σ(E) , con : Σ(E) = ˙ dµ (4.7)
Σ(E)
(si ricordi che Σ(E) indica sia la superficie Σ(E), che l’area della stessa) (2) .
Risulta dunque che la densità di probabilità per un sistema isolato, ρmc , è ”costante sulla superficie
dell’energia”, consistentemente con l’ipotesi ergodica (§ 1.3). Dalla (1.10), calcolata per ρ = ρmc , otteniamo
l’entropia microcanonica per un sistema isolato, che indichiamo con Smc (E):
Finora non abbiamo ancora tenuto conto di una condizione che è sottintesa in ogni considerazione
termodinamica, e cioè che il sistema in esame sia ”grande”. La necessità di questa condizione può essere
illustrata con considerazioni elementari. Consideriamo ad esempio la relazione:
s = s(u, v) , (4.9)
S U V
s=
˙ , u=
˙ , v=
˙ . (4.10)
N N N
La (4.9) è una relazione tra sole quantità intensive, e quindi non dipende da quanto il sistema è ”grande”
(per un altro esempio di relazioni tra sole quantità intensive vedi le (3.82)). È facile verificare che la
possibilità di ridursi alle sole quantità intensive vale solo a determinate condizioni. Studiamo un gas
(classico) in cui N atomi interagiscono con forze a coppie, funzioni della distanza tra gli atomi della
coppia (questa situazione è tipica dei gas ”neutri”), e consideriamo il ruolo del range delle forze. L’energia
potenziale del gas è:
1 XN
V ({q}) =
˙ V (q1 , . . . , qN ) =
˙ vij , con : vij =
˙ v(|qi − qj |) (4.11)
2 i6=j=1
(assumiamo che le funzioni v siano le stesse per tutte le coppie). Assumiamo che le configurazioni
(q1 , . . . , qN ) con densità di probabilità non nulla (”configurazioni permesse”) siano caratterizzate da una
densità n (n = ˙ N/V ) finita: ciò è assicurato se, come di solito avviene, l’energia ha, per distanze molto
piccole, un andamento del tipo ”hard core”. Assumiamo ancora che il range r0 della forza sia ”corto”. Più
precisamente, se indichiamo con L una lunghezza caratteristica macroscopica (ad esempio una dimensione
(2)
È possibile verificare, con un calcolo analogo a quello dell’es. 1.5c, che la (4.7) corrisponde ad un massimo di S[ρ].
4.3 L’entropia microcanonica: esempi 47
lineare del contenitore del gas), assumiamo che sia: r0 ¿ L (di fatto, r0 risulta dell’ordine di qualche
decina di diametri atomici). Per forze a corto range possiamo assumere: vij = 0, se |qi − qj | > r0 . Allora,
per le configurazioni permesse, il numero dei termini non nulli nella somma (4.11) è uguale a N α/2, dove:
α ≈ n(4/3)πr03 . Se poi la media hvij i è la stessa per tutte le coppie di atomi, e scriviamo hvi =
˙ hvij i, la
media di V è (come ordine di grandezza):
1
hV i = N α hvi ∝ N . (4.12)
2
La media dell’energia potenziale è dunque proporzionale ad N . La media dell’energia cinetica, K, è
anch’essa proporzionale ad N . Segue: U = ˙ hK + V i ∝ N . Quindi, se le forze interatomiche hanno corto
range, l’energia interna è estensiva. Per contro, è facile vedere che se le forze avessero range ”infinito”
(come la attrazione gravitazionale in un sistema di masse), la media dell’energia potenziale sarebbe pro-
porzionale a N (N − 1) ≈ N 2 , e quindi non sarebbe estensiva.
Studiamo l’influenza esercitata sulle proprietà termodinamiche di un gas dalla forma del suo conteni-
tore. Limitiamoci a considerare contenitori di forma ”normale”, cioè tale che esista una lunghezza L in
modo che il volume del contenitore stesso, V , soddisfi la condizione: V ∝ L3 . L’influenza di cui sopra
dovrebbe essere riconducibile ad un comportamento degli atomi diverso a secondo che essi si trovino vicino
alle pareti oppure all’interno del volume. Una tale diversità potrebbe essere prodotta da una diversità tra le
forze atomo-parete e le forze atomo-atomo. Assumiamo che, per quasi tutte le configurazioni, il contributo
(alle proprietà termodinamiche del gas) degli atomi vicini alle pareti sia proporzionale al loro numero, Np ,
cioè al numero degli atomi contenuti in un ”cilindro” di base L2 e altezza r0 : Np ∝ nr0 V 2/3 , dove n è la
densità. L’esperienza indica che, per gas racchiusi in contenitori di forma normale, la forma del contenitore
non ha alcuna influenza sulle proprietà termodinamiche. Ciò implica che il rapporto Np /N ∝ r0 V −1/3 (si
ricordi che N = nV ∝ V ) è trascurabile, il che è possibile solo se V è ”molto grande”. Assumiamo dunque
che la meccanica statistica sia applicabile solo a sistemi ”grandi”. Per esprimere in termini matematici
tale ipotesi è necessario applicare il limite termodinamico (o limite macroscopico), che definiamo qui di
seguito.
La definizione precisa del ”limite termodinamico”, che indicheremo con L, dipende dal tipo di equi-
librio cui è soggetto il sistema: per un gas isolato esso è definito come:
· ¸
U N
L= ˙ lim , con : , = cost. ; (4.13)
U,V,N →∞ V V
invece, per un gas in equilibrio termico a T (temperatura) data (§ 5.1) esso è definito come:
· ¸
N
L=˙ lim , con : T, = cost. ; (4.14)
V,N →∞ V
infine, per un gas in equilibrio termico e chimico a (T, µ) dati (§ 5.4) esso è definito come:
· ¸
L=˙ lim , con : T, µ = cost. . (4.15)
V →∞
In generale, L consiste nel ”far tendere all’infinito la dimensione del sistema, mantenendo inalterate le
quantità intensive”, come la densità, la temperatura, il potenziale chimico, gli eventuali campi esterni,
ecc.. Il ruolo, nella teoria, del limite termodinamico può essere riassunto come segue [Gr72 § II.A.1]:
LT) L’esperienza mostra che i gas (e più in generale: i sistemi termodinamici) si comportano come
se U, V, N fossero infinitamente grandi. Per un dato sistema, la condizione di ”essere infinitamente
grande” viene realizzata applicando, alle espressioni matematiche che rappresentano le proprietà
del sistema, il limite termodinamico.
4.3 L’entropia microcanonica: esempi 48
In questo paragrafo calcoliamo l’entropia microcanonica per due sistemi con microstati continui. Co-
minciamo con il caso di un sistema di N oscillatori armonici indipendenti, che per semplicità assumiamo
(4)
unidimensionali e di massa 1. La hamiltoniana del sistema è :
N
1 X¡ 2 ¢
H =
˙ pi + ωi2 qi2 . (4.16)
2 i=1
Sia E l’energia del sistema. Notiamo che l’area della superficie dell’energia, Σ(E), può essere ottenuta da
un’altra grandezza, più facile da calcolare: il volume, Γ (E), della regione limitata da Σ(E): Γ (E) =
˙ {x :
0 ≤ H(x) ≤ E}. Infatti, Γ (E) è:
Z Z E Z Z E
0
Γ (E) =
˙ dx = dE dµ =
˙ dE 0 Σ(E 0 ). (4.17)
H≤E 0 Σ(E 0 ) 0
∂Γ
Σ(E) = . (4.18)
∂E
Z N
Y Z 2N
Y
−N
Γ (E) =
˙ dqi dpi = ω dxj . (4.19)
H≤E i=1 x21 +...x22N ≤R2 j=1
Sia Γn (R), per un generico intero n, il volume della sfera di raggio R (con centro nell’origine) in Rn :
Z n
Y
Γn (R) =
˙ dxj . (4.20)
x21 +...x2n ≤R2 j=1
Otteniamo allora:
Γ (E) = ω −N Γ2N (R) =
˙ ω −N C2N R2N , (4.22)
(3)
Dal punto di vista matematico, si pone il problema delle condizioni che garantiscano che, per esempio, E =
˙ hHi risulti
estensiva: per esempio, risulta che la eventuale forza attrattiva tra le molecole deve annullarsi, al crescere della distanza, in
modo opportunamente rapido [Ru69 § 3.2.3].
(4)
Se qi sono le ”ampiezze dei modi propri”, e pi i corrispondenti momenti coniugati, la hamiltoniana del sistema di
oscillatori è equivalente a quella di un solido ideale d-dimensionale di N/d atomi puntiformi [RiCa § 16.2].
4.3 L’entropia microcanonica: esempi 49
∂Γ N (2π)N N −1
Σ(E) =
˙ = N E . (4.24)
∂E ω N!
Usando poi la approssimazione di Stirling per il fattoriale:
√
N ! ≈ N N e−N 2πN , per : N À 1, (4.25)
Per N ”sufficientemente grande”, possiamo scrivere l’entropia del sistema di N oscillatori come:
µ ¶
1 E
Smc = N kB ln + N s0 . (4.30)
hω N
Come ulteriore esempio, consideriamo un gas ideale di N molecole puntiformi di massa m, tutte dello
˙ L3 , e con energia E. La hamiltoniana del sistema è:
stesso tipo, in un volume V =
3N
1 X 2
H =
˙ p . (4.31)
2m i=1 i
Dalle (4.8) e (4.35), ponendo: Σ0 =˙ h3N ε−1 , e trascurando (per N À 1) i termini costanti e quelli in ln N ,
e ln(ε/E), segue: " µ ¶3/2 #
Σ(E) 4πm E 3
Smc =
˙ kB ln = N kB ln V 2
+ N kB . (4.36)
Σ0 3h N 2
L’espressione (4.36) dell’entropia del gas ideale presenta una interessante anomalia. Infatti, l’entropia
(4.36) non è una funzione omogenea (vedi la (3.10)) delle variabili estensive, e quindi non possiede una
delle proprietà essenziali dell’entropia termodinamica. Inoltre, l’entropia (4.36), divisa per N , non ammette
limite termodinamico (la (4.36) porta a previsioni fisicamente inaccettabili: vedi l’es. 4.4c). La difficoltà
può essere ”superata”, introducendo una ”area effettiva” della superficie dell’energia: Σeff (E) = ˙ Σ(E)/N !,
e definendo l’entropia in termini di Σeff :
· ¸ · ¸
Σeff (E) 1 Σ(E)
Smc =
˙ kB ln =
˙ kB ln . (4.37)
Σ0 N ! Σ0
La (4.38) è omogenea, ed è fisicamente corretta (vedi la (3.86)). Inoltre, Smc /N ha ora un limite termodi-
namico ben definito. Infatti, posto:
E V
=˙ u, =˙ v, (4.39)
N N
e definendo il limite termodinamico come: L = ˙ [E, V, N → ∞, con: u, v costanti], risulta:
" µ ¶3/2 #
Smc 4πm 5
L = kB ln v 2
u + kB . (4.40)
N 3h 2
Invece di introdurre il fattore N ! tramite Σeff , possiamo, equivalentemente, usare, al posto delle (1.10)
e (4.1), le formule: Z Z
S[ρ] =˙ − kB dµeff ρ ln(Σ0 ρ) , dµeff ρ = 1 , (4.41)
Σ Σ(E)
con: dµeff = ˙ dµ/N ! (vedi l’es. 4.5). L’uso di dµeff invece di dµ, o di Σeff al posto di Σ, non può essere
giustificato (se non per il fatto che ”funziona”!). Quindi la (4.41) o la (4.37) non sono, nell’ambito della
meccanica statistica classica, giustificabili. La situazione cambia nell’ambito della meccanica statistica
quantistica. Infatti, molecole identiche godono della proprietà che microstati che differiscono per una
permutazione di due molecole sono identici (”indistinguibilità” delle molecole): la necessità di usare dµeff
invece di dµ è evidentemente un riflesso di tale proprietà (5) .
Il fattore N ! deve essere usato in modo appropriato. Ad esempio, se le N molecole del gas sono
racchiuse in due sottovolumi impermeabili, V1 e V2 , contenenti rispettivamente N1 ed N2 molecole (con:
N1 +N2 = N ), l’indistinguibilità vale solo per le molecole di V1 e, rispettivamente, di V2 : il fattore che deve
comparire nell’espressione del ”volume effettivo” è allora N1 ! N2 ! , e non N ! . L’indistinguibilità non gioca
alcun ruolo nemmeno per sistemi in cui le particelle sono, per qualche motivo, distinguibili. Ad esempio,
gli oscillatori che figurano nella (4.16) non sono particelle in uno spazio fisico [RiCa l.c.], e quindi non si
pone la possibilità che si permutino tra di loro! Quindi gli oscillatori devono essere considerati distinguibili,
e il fattore N ! non deve comparire.
Osserviamo infine che i modelli di sistemi ideali, come il solido ideale o il gas ideale, sono basati su
ipotesi contraddittorie! Infatti, nello spirito della teoria ergodica, lo spazio delle fasi accessibile utilizzato
(5)
L’uso di dµeff invece di dµ è chiamato ”correct Boltzmann counting”.
4.5 Altre espressioni dell’entropia microcanonica 51
per calcolare l’entropia deve essere lo spazio effettivamente accessibile al sistema. Consideriamo ad esempio
l’area (4.34): il suo uso nella (4.36) è giustificato solo se l’energia di ogni molecola assume tutti i valori
compatibili con il valore dell’energia totale. Tuttavia, se le molecole sono indipendenti ognuna di esse
mantiene la propria energia ”iniziale”, e quindi lo spazio effettivamente visitato è solo un sottoinsieme
(proprio) di Σ ! L’uso di Σ è giustificato solo se tutte le configurazioni possibili sono effettivamente
accessibili: ciò richiede che esistano collisioni tra le molecole e che esse siano sufficientemente frequenti, in
contraddizione con l’ipotesi che il gas in discussione sia ideale. In realtà, nessun gas è ideale: tuttavia, un
gas reale può venire a trovarsi in condizioni (alte temperature e/o basse densità) in cui le interazioni possono
essere per certi versi ignorate. Per un gas in tali condizioni, è lecito approssimare la hamiltoniana vera
con la (4.31), e quindi approssimare la superficie vera dell’energia con una superficie sferica. Tuttavia, le
interazioni non sono trascurate del tutto: la loro esistenza continua a manifestarsi nell’ipotesi che lo spazio
delle fasi accessibile sia l’intera superficie dell’energia. Quindi, il calcolo illustrato sopra non rappresenta
una teoria errata del gas ideale, ma una teoria approssimata del gas reale.
Sia f (R) una generica funzione (integrabile) su Rn , funzione della sola distanza dall’origine. Possiamo
scrivere l’integrale di f (R) su tutto Rn come [Hu87 § 6.5]:
Z +∞ Z +∞ Z ∞
dx1 · · · dxn f (R) = dR Σn (R) f (R) , (4.42)
−∞ −∞ 0
(non si confonda la ”funzione” Γ(n) (6) con il ”volume” Γn ). Invece, calcolando direttamente otteniamo:
Z +∞ Z +∞ ·Z +∞ ¸n
2 2
dx1 · · · dxn e−R = dx e−x = π n/2 . (4.45)
−∞ −∞ −∞
Il limite termodinamico permette di correggere una debolezza della teoria microcanonica. Infatti,
dobbiamo osservare che la condizione di isolamento ”perfetto” del sistema, cioè la condizione che il valore
(6)
½ n ¡n ¢
·
2 ¡2
− 1 · ··· · 2 · 1 (n pari) ;
(n/2)! =
˙ Γ(n/2 + 1) = n n
¢ 3 1 √
2
· 2
− 1 · ··· · 2
· 2
· π (n dispari) .
4.5 Altre espressioni dell’entropia microcanonica 52
dell’energia sia definito con precisione (H = E), non è realistica. È dunque opportuno riformulare la teoria
”attenuando” la condizione di isolamento: supponiamo allora che l’energia sia definita a meno di ∆, dove
∆ è una costante di valore imprecisato, ma comunque piccolo rispetto ad E (∆ ¿ E), e sostituiamo la
condizione H = E con la condizione:
E−∆≤H ≤E. (4.46)
Chiameremo ”∆-isolato” un sistema che soddisfa la (4.46). Lo spazio delle fasi accessibile è ora lo ”strato
dell’energia”, Γ∆ (E):
Γ∆ (E) =˙ {x : E − ∆ ≤ H(x) ≤ E} , (4.47)
dove Γ0 è una costante da determinarsi. Come prima, determiniamo ρmc imponendo la condizione che S[ρ]
sia massima per ρ = ρmc . Il calcolo è analogo a quello per i sistemi isolati, e il risultato è (es. 4.1b):
−1
ρmc (x) = Γ∆ (E) (per x ∈ Γ∆ (E)) , (4.49)
∆
Usando la (4.49) nella (4.48) otteniamo l’entropia microcanonica per un sistema ∆-isolato, Smc (E):
∆
Smc (E) = kB ln (Γ∆ (E)/Γ0 ) . (4.51)
Abbiamo dunque due espressioni per l’entropia del gas: la (4.8) e la (4.51). Le due espressioni sono
diverse, consistentemente con il fatto che esse si riferiscono a due gas in condizioni microscopiche diverse.
Tuttavia, l’esperienza mostra che, anche se l’energia di un sistema macroscopico è determinata solo a meno
di ∆ (nel senso della (4.46)), le sue proprietà termodinamiche non sono influenzate dal valore di ∆. In
particolare, per un sistema macroscopico l’entropia (4.51) deve essere uguale all’entropia (4.8), e quindi
”indipendente da ∆”. Infatti, usando la condizione ∆ ¿ E, e la (4.18), possiamo scrivere:
∂Γ
Γ∆ (E) = Γ (E) − Γ (E − ∆) ≈ ∆=
˙ Σ(E) ∆. (4.52)
∂E
Posto Γ0 =
˙ Σ0 E0 , dove E0 è un’altra costante, dalla (4.51) e dalla (4.18) segue:
∆ Σ(E) ∆ ∆
Smc = kB ln + kB ln =
˙ Smc + kB ln . (4.53)
Σ0 E◦ E◦
Supponiamo ora che, nel limite termodinamico, ∆ rimanga costante (ma anche se fosse, per esempio:
∆ ∝ N , la conclusione sarebbe la stessa), e supponiamo che L (Smc /N ) esista (negli esempi del § 3 ciò
risulta vero: vedi la (4.40)). Segue:
∆
Smc Smc
L =L . (4.54)
N N
Quindi, nel limite termodinamico, l’entropia per molecola di un gas isolato (condizione poco realistica) è
dunque uguale a quella di un gas nella condizione (più realistica) di ∆−isolamento.
Il limite termodinamico permette di introdurre una ulteriore espressione dell’entropia microcanonica.
Cominciamo col considerare, in uno spazio di dimensione n, due sfere concentriche di raggi R e, rispetti-
vamente: R − ∆ =
˙ (1 − ∆/R) R =
˙ εR, con ∆ ¿ R, e quindi ε / 1 (e R − ∆ ¿ R). Indichiamo con Γ (R)
4.7 Le condizioni di stabilità 53
il volume di una sfera di raggio R. Il rapporto tra il volume dello strato (compreso tra le superfici delle
due sfere) e il volume della sfera esterna è:
Per n → ∞ abbiamo: Γ∆ (R)/Γ (R) → 1; quindi, il ”volume dello strato diventa uguale al volume della
sfera”. Assumendo che il risultato sia valido anche per i volumi Γ (E) e Γ∆ (E), e assumendo: ∆ ¿ E, nel
Γ
limite termodinamico risulta: Γ∆ (E)/Γ (E) → 1. Definiamo allora la ”entropia microcanonica Smc (E)”
come:
Γ
Smc (E) =
˙ kB ln(Γ (E)/Γ0 ). (4.56)
∆
Γ
Da quanto sopra segue che, nel limite termodinamico, Smc coincide con Smc , e quindi con Smc :
Γ ∆
Smc S Smc
L = L mc = L . (4.57)
N N N
Nel caso del gas ideale, per esempio, l’uso della (4.56) consentirebbe di derivare la (4.40) direttamente
dalla (4.33), senza passare per la (4.34). Più significativamente, la (4.56) consente (vedi il paragrafo
seguente) una facile verifica del fatto che l’entropia microcanonica possiede tutte le proprietà dell’entropia
termodinamica.
La termodinamica studia grandezze, come l’entropia, l’energia interna, ecc., che sono interpretate dalla
meccanica statistica come valori medi di opportune grandezze microscopiche. Quello che la termodinamica
non può studiare, invece, sono gli scostamenti delle grandezze dai loro valori medi (”fluttuazioni”). Queste
possono essere studiate nel modo più conveniente nella meccanica statistica canonica (§ 5.3): qui possiamo
tuttavia vederne una anticipazione, considerando l’entropia di un sistema globalmente isolato (e quindi
microcanonico), ma diviso in due sottosistemi in interazione [Hu87 § 6.2].
Consideriamo un gas isolato e in equilibrio, composto da due gas separati da una parete rigida e
impermeabile, ma che permette ai due gas di scambiarsi energia (calore). La hamiltoniana del sistema
complessivo è: H = H1 + H2 + H 0 , dove H 0 rappresenta l’interazione tra i due gas. La presenza di H 0 è
necessaria, se si vuole che le energie dei due gas non rimangano costanti (se i due gas non interagiscono la
additività è banale: vedi l’es. 1.5a,b). Nel limite termodinamico, tuttavia, H 0 può essere trascurata, se le
forze tra le molecole sono a corto raggio d’azione. In tal caso, infatti, l’energia di interazione è proporzionale
alla superficie della parete che separa i due gas, mentre le energie H1 ed H2 sono proporzionali ai rispettivi
numeri di molecole, cioè ai volumi. Nel limite termodinamico il rapporto tra superficie e volume tende a
zero, e possiamo assumere: H 0 /H1 , H 0 /H2 → 0 [Bal § 4.3]. Possiamo quindi scrivere H = H1 + H2 . I
due gas hanno allora energie ben definite, (E1 , E2 ), che assumono, nello spazio delle fasi Γ (E) (dove E è
l’energia totale del sistema), tutti i valori compatibili con la relazione:
E1 + E2 ≤ E . (4.58)
Mostriamo che ai due gas si possono associare entropie Smc (1) ed Smc (2), tali che l’entropia del gas
complessivo, Smc , risulta essere: Smc = Smc (1) + Smc (2) (”additività di Smc ”). In virtù dell’identità
4.7 Le condizioni di stabilità 54
(4.57), useremo, per l’entropia microcanonica, l’espressione (4.56). Calcoliamo il volume Γ (E) relativo al
gas complessivo. Risulta:
Z Z Z
Γ (E) =
˙ dx = dx1 dx2 =
H≤E H1 ≤E H2 ≤E−E1
Z Z E (4.59)
= dx1 Γ2 (E − E1 ) = dE1 Σ1 (E1 ) Γ2 (E − E1 ) .
H1 ≤E 0
Dividiamo l’intervallo (0, E) in E/∆ intervalli di lunghezza ∆, e calcoliamo l’integrale (4.59) come:
Z E X
E/∆
Γ (E) =
˙ dE1 Σ1 (E1 ) Γ2 (E − E1 ) ≈ ∆ Σ1 (Ei ) Γ2 (E − Ei ) ≈
0 i=1
(4.60)
X
E/∆
X
E/∆
≈ Γ∆ 1 (Ei ) Γ2 (E − Ei ) ≈ Γ1 (Ei ) Γ2 (E − Ei ) ,
i=1 i=1
dove la ∆ Σ1 (Ei ) ≈ Γ∆ 1 (Ei ) ≈ Γ1 (Ei ) segue dalla (4.52) e dalla (4.55). I volumi Γ (E) sono funzioni molto
rapidamente crescenti di E (vedi, ad esempio, la (4.33)): quindi Γ1 (E1 ) è funzione molto rapidamente
crescente (di E1 ), e Γ2 (E − E1 ) è funzione molto rapidamente decrescente (di E1 ). Possiamo quindi
assumere che il prodotto Γ1 (E1 )Γ2 (E − E1 ) presenti un massimo, cioè che uno dei termini della somma
(4.60) sia più grande di tutti gli altri. Supponiamo che il termine più grande sia il j-esimo. Posto E 1 =
˙ Ej ,
possiamo allora scrivere:
E
Γ1 (E 1 ) Γ2 (E − E 1 ) ≤ Γ (E) ≤ Γ1 (E 1 ) Γ2 (E − E 1 ) . (4.61)
∆
(1) (2)
Poniamo Γ0 = ˙ Γ0 Γ0 ; siano poi (N1 , N2 ) i numeri di molecole dei due gas, con N = ˙ N1 + N2 . Dividendo
la (4.61) per Γ0 , prendendo il logaritmo, e introducendo fattori N in modo opportuno, otteniamo:
" # " #
N1 1 Γ1 (E 1 ) N2 1 Γ2 (E − E 1 ) 1 Γ (E)
ln (1)
+ ln (2)
≤ ln ≤
N N1 Γ0 N N2 Γ0 N Γ0
" # " # (4.62)
1 E N1 1 Γ1 (E 1 ) N2 1 Γ2 (E − E 1 )
≤ ln + ln (1)
+ ln (2)
.
N ∆ N N1 Γ N N2 Γ
0 0
Prendiamo il limite termodinamico, qui definito come nella (4.13) con la ulteriore condizione che i rapporti
Ni /N =
˙ ni (i = 1, 2) rimangano costanti. Posto:
" # · ¸
1 Γi (E i ) 1 Γ (E)
L ln (i)
=
˙ si , (i = 1, 2) , e : L ln =
˙ s, (4.63)
Ni Γ N Γ0
0
Γ
dove le s sono le ”entropie per particella” (s =
˙ S/N ; scriviamo S al posto di Smc ), otteniamo:
s = n 1 s1 + n 2 s2 . (4.64)
Consideriamo valori di (N, N1 , N2 ) abbastanza grandi da essere ”già nel limite termodinamico”. Allora,
moltiplicando la (4.64) per N , e ponendo Si =
˙ Ni si (i = 1, 2), e S =
˙ N s, la (4.64) implica:
S(E) ≈ S1 (E 1 ) + S2 (E 2 ) . (4.65)
Poniamo: " #¯
1 1 ∂ Γi (E) ¯¯
=
˙ =
˙ k ln (i) ¯ (i = 1, 2) . (4.68)
Ti T (E i ) ∂E B Γ0 ¯
Ei
1 ∂S
= . (4.70)
T ∂E
In modo analogo si possono derivare le altre due relazioni (3.2). Quanto sopra è una ulteriore conferma
della validità dell’identificazione di Smc con l’entropia termodinamica.
Mostriamo come la distribuzione di Maxwell può essere derivata, per il gas ideale, dalla distribuzione
microcanonica. Secondo la meccanica statistica microcanonica di un sistema isolato, tutti i punti sulla
superficie dell’energia di un gas ideale di N molecole, che per semplicità consideriamo puntiformi e di
massa m, corrispondono a stati ugualmente probabili. D’altra parte, da considerazioni cinetiche sappiamo
[Pat § 6.4], che la densità di probabilità per la velocità di una molecola di un gas è la ”distribuzione di
Maxwell”: f (v) = fx (vx )fy (vy )fz (vz ), dove:
r
a −avx2 m
fx (vx ) =
˙ e , con a=
˙ (4.71)
π 2kB T
(per una derivazione della (4.71) vedi l’es. 4.6). La (4.71) e la (4.72) mostrano che la molecola ”preferisce”
le velocità basse, in apparente contraddizione con l’uguale probabilità per tutti gli stati possibili ricordata
sopra. Qui di seguito mostriamo (per il gas ideale) che non sussiste alcuna contraddizione, e che, anzi, è
possibile derivare la distribuzione di Maxwell dalla distribuzione microcanonica.
Consideriamo dapprima un esempio. Sia S un insieme di N particelle, distribuite uniformemente su
un disco, D, di raggio R, nel piano (x, y): la densità di particelle è allora: σ 0 (x, y) =
˙ N/πR2 (se (x, y) ∈ D),
˙ σ 0 /N = 1/πR2 . Consideriamo
e la densità di probabilità per la posizione di una particella è: σ(x, y) =
poi l’insieme L, ottenuto proiettando la posizione di ognuna delle particelle di S sull’asse x, e associando
4.7 La distribuzione di Maxwell 56
a ognuna delle proiezioni una particella: L è quindi un insieme di N particelle sull’asse x. Il numero delle
particelle di L contenute in un segmento dx è:
Z y+ p
λ0 (x) dx = dx dy σ 0 (x, y) , con y± =
˙ ± R2 − x2 , (4.73)
y−
λ0 2 p 2
λ(x) =
˙ = R − x2 . (4.74)
N πR2
Analogamente, nel caso in cui l’insieme S sia concentrato sulla sola circonferenza di D, la densità σ è:
1 ³p ´
σ(x, y) =
˙ δ x2 + y 2 − R (4.75)
2πR
(dove δ(z) è la delta di Dirac di argomento z), mentre la densità λ diventa:
1
λ(x) = √ . (4.76)
π R2 − x2
Consideriamo ora lo stesso problema in uno spazio con un numero di dimensioni molto grande. Sup-
poniamo che l’insieme S di N punti sia concentrato, con densità uniforme, sulla superficie di una sfera di
raggio R in uno spazio di dimensione n.Questo è, in particolare, il caso della superficie dell’energia, H = E,
p
di un gas ideale di N molecole puntiformi di massa m: in tal caso abbiamo n = ˙ 3N , e R = 2E/m. La
densità di probabilità nello spazio n-dimensionale è:
µq ¶
1
σ(x1 , · · · , xn ) =
˙ δ x21 + · · · + x2n − R , (4.77)
Sn
dove Sn = nCn Rn−1 (Sn è l’area della superficie della sfera, e Cn è dato dalla (4.21)). Sia S 0 l’insieme
ottenuto proiettando S su un sottospazio di dimensione n0 < n; poniamo:
¡ ¢ ¡ ¢ 2 2
˙ x21 + · · · + x2n = x21 + · · · + x2n0 + x2n0 +1 + · · · + x2n =
r2 = ˙ r0 + r00 . (4.78)
4.8 Esercizi
dello stesso tipo, con N1 + N2 = N , entrambi con la stessa temperatura e la stessa pressione;
β) un volume V contenente le N molecole descritte in (α), cioè la miscela dei due gas.
a) Calcolare, sulla base della (4.88), e ricordando che per ipotesi valgono le condizioni:
V V1 + V2 V1 V2
= = = ,
N N1 + N2 N1 N2
l’entropia nei due stati, e mostrare che Sα = Sβ [Poichè, per ipotesi, le molecole dei due gas sono identiche,
il sistema può passare da α a β, e viceversa, semplicemente inserendo e, rispettivamente, estraendo una
separazione in grado di dividere V in V1 e V2 ; quindi la trasformazione è reversibile.]
b) Considerare due situazioni, α0 e β 0 , analoghe a quelle descritte sopra, ma con gas costituiti di
molecole di tipo diverso. Mostrare che, secondo la (4.88), ora risulta Sα0 < Sβ 0 . Quindi, il miscelamento
di due gas diversi produce un aumento dell’entropia: mostrare che l’origine dell’aumento stànell’aumento
del volume disponibile ai gas, e non nel miscelamento.
c) Calcolare l’entropia di miscelamento di due gas ideali, costituiti da molecole dello stesso tipo, sulla
base della (4.36), e verificare che, contrariamente al risultato del punto (b), essa risulta positiva (”paradosso
di Gibbs” [Hu87 § 6.6]).
d) Mostrare che per un gas ideale (in equilibrio) di N molecole, di cui N1 sono di un gas ideale di tipo
Pr
1, ecc. , Nr di un gas ideale di tipo r, con i=1 Nr = N , in un volume V alla temperatura T , la pressione
è la somma delle ”pressioni parziali”:
r
X kB T Ni
P = Pi , con Pi = Ni =
˙ P . (4.89)
i=1
V N
Si supponga inoltre che, in assenza di forze esterne, la densità di probabilità sia la stessa nelle tre direzioni
dello spazio (vx , vy , vz ), cioè che le tre funzioni (fx , fy , fz ) siano la stessa funzione, f , eqche il numero
(4.90) sia lo stesso per tutti i valori di vx , vy , vz che cadono nello strato (v, v + dv) dove v = vx2 + vy2 + vz2 :
quindi il numero (4.90) dipende solo dal modulo v, e sia
vx dvx + vy dvy
dv = =0, (4.92)
v
e si mostri che f (vx ) ed f (vy ) soddisfano l’equazione
1 df (vx ) 1 df (vy )
= . (4.93)
vx f (vx ) dvx vy f (vy ) dvy
4.8 Esercizi 59
(per f (vz ) si procede in modo analogo), dove c e a sono costanti positive da determinare.
b) Dalla condizione di normalizzazione
Z ∞ Z ∞ Z ∞
dvx f (vx ) dvy f (vy ) dvz f (vz ) = 1 , (4.95)
−∞ −∞ −∞
p
derivare: c = a/π. Calcolare l’energia cinetica media di una molecola:
Z
1 ¡ 2 ¢® 1 ³ a ´3/2 ∞ 3m
ε=
˙ m vx + vy2 + vz2 = m 4π dv v 4 f (v) = , (4.96)
2 2 π 0 4a
Come strumento per la derivazione delle proprietà termodinamiche di un sistema fisico concreto, il
metodo microcanonico si rivela assai poco efficiente: infatti, la geometria della superficie dell’energia è,
per sistemi non ideali, cosı̀ complessa da rendere di fatto impossibile il calcolo di Σ(E) (o di Γ (E)). Anche
dal punto di vista fenomenologico, la meccanica statistica microcanonica è di interesse limitato, perchè la
difficoltà di sperimentare sui sistemi isolati rende difficili le verifiche empiriche della teoria. In effetti la
condizione più facile da realizzare in laboratorio non è quella di isolamento, ma quella di equilibrio (ter-
mico, materiale, ecc.) con opportune ”riserve” (riserve di energia per i sistemi a T costante, di particelle
per i sistemi a µ costante, ecc.). Quindi, sia per il trattamento matematico che per il confronto con gli
esperimenti, è di solito più conveniente utilizzare la meccanica statistica canonica, che studia sistemi che
assumono tutti i valori dell’energia (equilibrio termico), o, limitatamente ai gas, quella gran canonica, che
studia gas in equilibrio termico e che assumono tutti i valori del numero di molecole (equilibrio materiale).
Naturalmente, le proprietà di un sistema termodinamico (come, ad esempio, l’equazione di stato) non
dipendono, di solito, dalla condizione (di isolamento, o di equilibrio termico con una riserva di calore, o
altro) del sistema. Si pone quindi il problema di dimostrare che le diverse ”meccaniche statistiche” (mi-
crocanonica, canonica, gran canonica) portano alle stesse proprietà fisiche (”problema dell’equivalenza”).
La meccanica statistica canonica studia sistemi (in equilibrio) per i quali la hamiltoniana può assumere
valori arbitrari, cioè per i quali lo spazio delle fasi accessibile coincide con l’intero spazio delle fasi. Fisica-
mente, ciò può essere realizzato mettendo i sistemi in interazione (”contatto termico”) con una riserva di
calore: l’interazione fàsı̀ che la hamiltoniana del sistema non sia costante del moto, e possa assumere valori
diversi. Le variazioni dell’energia del sistema devono aver luogo rispettando la condizione dell’equilibrio
termodinamico. Matematicamente, ciò può essere espresso in due modi:
A) assegnando il valore di T ;
B) assegnando il valore di hHi.
Principio del minimo dell’energia libera: La densità di probabilità nello spazio dei microstati di un
sistema in equilibrio termico con una riserva di calore è quella che rende minimo il funzionale ”energia
libera (di Helmholtz)”.
A0 [ρ] =
˙ A[ρ] + λ0 K[ρ] , (5.3)
dove λ0 è un moltiplicatore di Lagrange. Determiniamo allora ρc dalla condizione (analoga alla (4.4)):
δA0 =
˙ A0 [ρc + δρ] − A0 [ρc ] = O[(δρ)2 ] . (5.4)
A=
˙ A(T, V, N ) = −kB T ln Z . (5.6)
Le (5.5) e (5.6) sono le relazioni fondamentali della meccanica statistica canonica (cosı̀ come le (4.8) sono
le relazioni fondamentali della meccanica statistica microcanonica).
Per un gas di N particelle identiche risulta, da considerazioni analoghe a quelle del § 4.3, che l’elemento
di volume da utilizzare per le integrazioni sullo spazio delle fasi (per il calcolo della funzione di partizione,
o dei valori medi) deve essere l’ elemento di volume effettivo, dxeff = ˙ dx/N ! :
Z Z
1 1
Z =˙ dxeff e−βH(x) =˙ dx e−βH(x) . (5.7)
Γ0 Γ Γ0 N ! Γ
La distribuzione canonica per un gas di N particelle identiche si scrive allora:
Z
1 −βH(x)
ρc (x) =
˙ e , con : dxeff ρc (x) = 1 . (5.8)
Γ0 Z Γ
hHi = U . (5.9)
La distribuzione canonica, ρc , può essere determinata generalizzando il metodo del ”massimo dell’entropia”
(§ 4.1). Formuliamo il seguente
Principio del massimo dell’entropia: La densità di probabilità nello spazio dei microstati di un sistema
è quella che, tra tutte quelle compatibili con i vincoli assegnati, rende massima l’entropia.
Nel § 4.1 l’unico vincolo era la normalizzazione delle ρ; qui abbiamo anche la condizione (5.9). Definiamo
allora il funzionale (indichiamo con Γ lo spazio delle fasi del sistema):
Z
U [ρ] =
˙ hHi − U = ˙ dx ρ H − U . (5.10)
Γ
(1)
Un metodo approssimato per verificare che ρc corrisponde effettivamente ad un minimo di A[ρ] potrebbe essere quello
di: a) assumere che ρc sia definita su un Γ f inito (bisogna assumere: ρc = 0 per H opportunamente grande); b) discretizzare
Γ: Γ = ∪γi (i = 1, . . . , N ); c) assumere H (e ρc ) uniforme in ognuno dei γi , e scrivere A[ρ] come una somma finita (del tipo
(1.8)); d) seguire il metodo dell’es. 1.5d.
5.2 La distribuzione canonica (altra derivazione) 62
Consideriamo il funzionale:
S 00 [ρ] =
˙ S[ρ] + λ U [ρ] + λ0 K[ρ] , (5.11)
δS 00 =
˙ S 00 [ρc + δρ] − S 00 [ρc ] = O[(δρ)2 ] . (5.12)
Usando: hHi =
˙ U , e ricordando la (3.39), possiamo identificare:
γ=
˙ −β, ln Z =
˙ − βA . (5.15)
Nel paragrafo precedente abbiamo ricavato la distribuzione canonica da postulati (”minimo di A”, e
”massimo di S con la condizione hHi = U ”) diversi da quelli introdotti nei capitoli precedenti. Tuttavia,
un postulato era già stato formulato (sotto varie forme: ”massimo di S” (senza la condizione hHi = U ),
”principio di equiprobabilità degli stati” (P2 , pag. 4), ”ipotesi ergodica”), e sarebbe desiderabile basare
tutta la teoria su quello solo. Qui di seguito mostriamo che la distribuzione canonica può essere dedotta
dalla sola teoria microcanonica, senza dover ricorrere ad ulteriori postulati (2) .
Consideriamo un sistema, s, e una riserva di calore, r, e supponiamo che l’ ”unione” di s ed r costituisca
un sistema isolato in equilibrio, che indichiamo con s + r, con energia E. Supponiamo che s [r] occupi un
volume Vs [Vr ] e sia costituito di Ns [Nr ] molecole, con: Ns ¿ Nr , e: Vs ¿ Vr , e siano Hs e Hr le rispettive
hamiltoniane. Supponiamo che s ed r siano separati da una parete diatermica (ma fissa e impermeabile).
Dal punto di vista microscopico, s e r sono sistemi interagenti: supponiamo però che la hamiltoniana di
interazione, Hsr , pur presente, in modo da consentire scambi di energia, sia ”trascurabile” rispetto ad Hs
ed Hr . Scriviamo quindi la hamiltoniana totale come:
H ≈ Hs + Hr , (5.16)
alla superficie Hr = Er . Dalla equiprobabilità dei microstati del sistema isolato s + r, segue allora che
ρs (xs ) dxs è proporzionale a Γ (r) (Er ) dxs :
(r)
ρs (xs ) dxs ∝ Γδ (Er ) dxs ≈ Γ (r) (Er ) dxs , da cui : ρs (xs ) = C Γ (r) (Er ), (5.17)
dove C è una costante, che sarà determinata dalla condizione di normalizzazione. Supponiamo ora che sia
Es ¿ Er (in generale possono esistere microstati in cui Es ≥ Er ; dobbiamo quindi assumere che la relativa
(densità di) probabilità sia trascurabile), e sviluppiamo in serie di Taylor rispetto ad Es . Trascurando i
termini in (Es )2 , segue:
¸ ·
∂Γ (r)
Γ (r) (Er ) =
˙ Γ (r) (E − Es ) ≈ Γ (r) (E) −
Es =
∂Er E
µ · (r) ¸ ¶ (5.18)
(r) 1 ∂Γ
= Γ (E) 1 − (r) Es ≈ Γ (r) (E) exp [−β 0 Es ] ,
Γ (E) ∂Er E
Posto U =
˙ hHi, e confrontando con la relazione termodinamica: A = U − T S, seguono le identificazioni:
e: Z 0 coincide con la funzione di patrizione (5.5) (nel caso dei gas è necessario introdurre il fattore N !,
come nella (5.7)).
In questo paragrafo accenniamo ad un importante problema che nasce dal confronto tra la meccanica
statistica e la termodinamica. Cominciamo coll’osservare che, secondo la termodinamica, un gas (per esem-
pio) può essere descritto mediante diversi insiemi di variabili indipendenti: (U, V, N ), (T, V, N ), (T, V, µ),
ecc.. A seconda dei casi, può essere conveniente scegliere un insieme piuttosto che un altro: per esempio, se
stiamo considerando un sistema in equilibrio termico con un termostato, è naturale scegliere come variabile
indipendente T , piuttosto che U . Tuttavia, i vari insiemi di variabili indipendenti sono equivalenti, nel
senso che essi forniscono descrizioni identiche. Dal punto di vista matematico, l’equivalenza è garantita
dalle proprietà delle trasformate di Legendre. Dal punto di vista fisico, l’equivalenza è confermata dal fatto
che le proprietà termodinamiche di un sistema non dipendono dalla scelta delle variabili: per esempio, le
due seguenti forme dell’equazione di stato del gas ideale:
2U N kB T
P = =
˙ P (U, V, N ) , P = =
˙ P (T, V, N ) , (5.23)
3V V
hanno lo stesso contenuto fisico.
5.4 Il problema dell’equivalenza 64
Secondo la meccanica statistica, invece, l’equivalenza è garantita solo sotto opportune condizioni.
Consideriamo, ad esempio, la relazione tra l’energia libera di Helmholtz e l’entropia. La meccanica statistica
canonica calcola l’energia libera di Helmholtz come: A(T ) =
˙ − T ln Z(T ) (in questo paragrafo scegliamo
unità di misura tali che kB = Σ0 = Γ0 = 1). Analogamente, l’espressione microcanonica dell’entropia è:
S(E) = ln Σ(E). Scriviamo Z come:
Z Z ∞ Z Z ∞
−βH(x) −βE
Z =
˙ Z(β) =
˙ dx e = dE e dµ =
˙ dE e−βE Σ(E) . (5.24)
0 Σ(E) 0
Dalla (5.24) (3) segue che nella meccanica statistica canonica l’energia libera è legata all’entropia da una
relazione di tipo integrale:
·Z ∞ ¸ ·Z ∞ ¸
A
− = ln dE e−βE Σ(E) =
˙ ln dE eS(E)−βE . (5.25)
T 0 0
Pertanto, l’energia libera derivata dalla meccanica statistica canonica, e l’entropia derivata dalla meccanica
statistica microcanonica, non sono legate da una trasformata di Legendre, e quindi la meccanica statistica
canonica e quella microcanonica non sono equivalenti! Questa conclusione non deve sorprendere, dato che
le proprietà ”meccaniche”, e quindi ”meccanico-statistiche”, di un sistema devono essere diverse a secondo
che il sistema sia isolato o no. Nel § 4 mostreremo che, sotto opportune condizioni, la (5.25) implica la
(5.26)! Qui ci limitiamo a considerare il problema dal punto di vista della ”fluttuazione dell’energia”:
2 ® ®
(H − hHi) ˙ (H − U )2 .
= (5.27)
La funzione Φ(E) è la differenza di due funzione positive crescenti monotonicamente. Possiamo allora
ipotizzare che Φ(E) presenti un minimo (unico), in corrispondenza con un valore E = U (da determinarsi).
Sviluppiamo Φ(E) in serie di Taylor intorno ad U , limitandoci al termine del secondo ordine:
∂Φ 1 ∂2Φ
Φ(E) = Φ(U ) + (E − U ) + (E − U )2 + · · · . (5.33)
∂U 2 ∂U 2
L’unica giustificazione del fatto di trascurare i termini di ordine superiore al secondo è che in questo
modo, se la derivata seconda è positiva, l’integrale nella (5.32) esiste. Tuttavia, l’integrale deve esistere:
quindi, qualche meccanismo di convergenza deve essere in atto! Possiamo assumere che le conclusioni cui
arriveremo siano indipendenti dai dettagli del meccanismo. La derivata prima di Φ è nulla (per ipotesi):
¯ ¯
∂Φ ∂Φ(E) ¯¯ ∂S(E) ¯¯
=
˙ =β− = 0, (5.34)
∂U ∂E ¯E=U ∂E ¯E=U
da cui: ¯
1 ∂S(E) ¯¯
= . (5.35)
T ∂E ¯E=U
La (5.35) permette di determinare U (in funzione di T e delle altre variabili del problema). Usando la
(5.35), e scrivendo: ∂S(E)/∂E =
˙ 1/T (E), otteniamo poi:
· ¸ · ¸ · ¸
∂2Φ ∂ ∂S(E) ∂ 1 1 ∂T (E)
= − =
˙ − = . (5.36)
∂U 2 ∂E ∂E E=U ∂E T (E) E=U T 2 (E) ∂E E=U
dove C è la capacità termica (a (V, N ) costanti). Dalla (5.35) segue: T (U ) = T . La (5.36) diventa allora:
∂2Φ 1 1
2 = T 2 C(U ) =
˙ 2 .
T C
(5.38)
∂U
5.5 La distribuzione gran canonica 66
Poichè C > 0 (vedi la (3.8)), la (5.38) è positiva, consistentemente con l’ipotesi che U sia un minimo di Φ.
Z diventa allora: Z · ¸
∞
1
Z = e−Φ(U ) dE exp − (E − U )2
. (5.39)
0 2 T 2C
Supponiamo ancora che U e C siano tali da poter estendere il limite inferiore, nell’integrale (5.39), a −∞.
Segue: Z · ¸
∞
1 √
Z ≈ e−Φ(U ) dE exp − 2
(E − U )2
= e−Φ(U ) 2πT 2 C . (5.40)
−∞ 2T C
Dalla (5.40) otteniamo:
A(T ) √ U √
− ˙ ln Z(T ) ≈ −Φ(U ) + ln 2πT 2 C =
= ˙ S(U ) − + ln 2πT 2 C . (5.41)
T T
Supponiamo che sia: C < ∞ (la condizione C < ∞ può essere violata, ad esempio, nei punti critici [Sta §
3.2]). Allora C è estensivo: infatti, dalla estensività di U (U ∝ N ) segue: C =
˙ ∂U/∂T ∝ N . Poichè anche
S è estensiva, prendendo il limite termodinamico (§ 4.2), dalla (5.41) segue:
A U − TS
L =L , (5.42)
N N
che equivale alla (5.26). Possiamo concludere che, se C < ∞, e nel limite termodinamico, l’espressione
microcanonica dell’entropia e l’espressione canonica dell’energia libera diventano compatibili, cioè che la
meccanica statistica canonica e quella microcanonica sono ”equivalenti”.
Il passaggio dalla descrizione microcanonica a quella canonica è motivato dalla opportunità di elimi-
nare la condizione: H = E. È spesso utile e/o necessario rimuovere anche la condizione che il numero
delle particelle sia fissato. Sistemi per i quali l’operazione è necessaria sono quelli in equilibrio rispetto
allo scambio di particelle (equilibrio materiale): ad esempio, sistemi di molecole di specie diversa in cui
avvengono reazioni chimiche, oppure sistemi in cui le particelle vengono emesse e riassorbite, come i fotoni
nella ”radiazione di corpo nero”. Per altri sistemi, come ad esempio i gas quantistici di particelle di massa
m > 0, l’operazione non è, in linea di principio, necessaria, ma nondimeno essa risulta conveniente (vedi
il cap. 7). La teoria adatta a studiare i sistemi suddetti è la meccanica statistica ”gran canonica”, che
introduciamo qui di seguito.
Per descrivere un sistema (classico) con un numero di particelle indefinito è necessario introdurre uno
”spazio delle fasi generalizzato”, Γ , definito come l’unione di tutti i ΓN (N = 0, 1, . . .): Γ =
˙ ∪N ΓN , dove
ΓN è lo spazio degli stati con N particelle, e definire una densità di probabilità su Γ , funzione di N e di
xN (con xN ∈ ΓN ): ρ =
˙ ρ(N, xN ), chiamata ”distribuzione gran canonica”. Prima di definire, per una tale
ρ, il ”valor medio”, osserviamo che la meccanica statistica gran canonica è rilevante solo per i gas, e che
per essi si presenta, come per le teorie microcanonica e canonica, il problema della indistinguibilità delle
molecole (anche qui consideremo solo il caso di gas costituiti da molecole dello stesso tipo). Calcoliamo
(N )
˙ dx(N ) /N !
allora gli integrali sui vari ΓN con gli elementi di volume effettivi (vedi (4.41) e (5.7)): dxeff =
dove dx(N ) è l’elemento di volume in ΓN . Ad esempio, la condizione di normalizzazione di ρ(N, xN ) si
esprime come:
∞ Z
X (N )
dxeff ρ(N, xN ) = 1 . (5.43)
N =0 ΓN
5.5 La distribuzione gran canonica 67
Si noti che, rispetto alla (5.8), nella (5.43) N si comporta come una ”variabile in più”, e quindi ”l’integrale
sulle x” della (5.8) è sostituito ”dall’integrale sulle x e dalla somma su N ”. Per una data ρ(N, xN ),
definiamo il valor medio di una variabile b(N, xN ) come:
∞ Z
X
® (N )
b =˙ dxeff b(N, xN ) ρ(N, xN ) . (5.44)
N =0 ΓN
La distribuzione gran canonica, ρgc (N, xN ), può essere determinata col metodo variazionale, ricor-
dando la definizione termodinamica di stato di equilibrio per un sistema in equilibrio termico e materiale
(vedi l’es. 3.10):
Principio del minimo del potenziale gran canonico: La densità di probabilità nello spazio dei microstati
di un sistema in equilibrio termico con una riserva di calore e in equilibrio materiale con una riserva
di particelle è quella che rende minimo il potenziale gran canonico (3.43).
Indichiamo con HN la ”hamiltoniana del sistema quando esso si trova in un microstato con N particelle”.
Si trova facilmente (vedi l’es. 5.9a):
1
ρgc (N ; xN ) = e−β(HN (xN )−µN ) , (5.46)
Γ0 (N )Z
dove ZN è data dalla (5.7), e dove: Z0 = ˙ 1, consistentemente col fatto che l’energia libera di un gas di 0
particelle deve essere nulla: A0 = ˙ − kB T ln Z0 = 0. Si noti che le variabili indipendenti nella (5.48) sono
(T, V, z), invece di (T, V, µ). Calcolando il potenziale gran canonico Ω[ρ] (vedi l’es. 5.9b), per ρ =
˙ ρgc (con
z, invece di µ, come variabile indipendente), otteniamo:
Ω=
˙ Ω[ρgc ] =
˙ Ω(T, V, z) = −kB T ln Z . (5.49)
P V = kB T ln Z , (5.50)
che dà la pressione come funzione di (T, V, z). Per ottenere l’equazione di stato del gas nella forma più
¡ ®¢ ®
usuale: P = P T, V, N , è necessario esprimere z in funzione del numero medio di particelle, N . La
probabilità, p(N ), che il sistema abbia N particelle è:
Z
(N ) 1
p(N ) =
˙ dxeff ρgc (xN , N ) = z N ZN . (5.51)
ΓN Z
5.7 La teoria di Lee-Yang 68
Si noti che la (5.52) coincide con la relazione termodinamica: N = −∂Ω/∂µ (vedi la (3.45)). La (5.52)
esprime il valor medio di N in funzione di (T, V, z). La (5.50) e la (5.52) si possono considerare una
rappresentazione parametrica dell’equazione di stato:
1
1) P =
˙ P (T, V, z) = ln Z ,
βV
(5.53)
® ® ∂
2) N = ˙ N (T, V, z) = z ln Z .
∂z
¡ ®¢
L’equazione di stato del gas nella forma: P = P T, V, N , segue invertendo la (5.53)(2) per ricavare:
¡ ®¢
z = z T, V, N , e poi sostituendo nella (5.53)(1). Il calcolo può essere fatto solo nei casi in cui Z è nota
esplicitamente (come esempi, vedi l’esercizio 5.7b, e il par. 7.8).
Consideriamo la fluttuazione di N per un fluido (gas, o liquido, o gas e liquido coesistenti) in equilibrio
materiale con dato µ, e in equilibrio termico con data T . Procedendo come per la (5.51) otteniamo:
∞
X ∞
2® 1 X 2 N 1 ∂ ∂
N = ˙ N 2 p(N ) =
˙ N z ZN = z z Z. (5.54)
Z Z ∂z ∂z
N =1 N =1
∂hN i
= n2 V κ T , (5.56)
∂µ
coesistenza l’opalescenza non si verifica perchè la gravità determina la separazione delle due fasi: il fluido
risulta cosı̀ costituito da due fluidi (il gas e il liquido) omogenei, in cui la fluttuazione assume valori finiti.
Le isoterme di un gas reale presentano, per T < Tc , un tratto orizzontale (vedi la fig. 3.2a), ai cui
estremi la funzione P (V ) è (continua ma) non derivabile. La presenza di ”anomalie”, come la suddetta non
derivabilità, o altro, nelle funzioni termodinamiche, è l’elemento più caratteristico della fenomenologia delle
transizioni di fase, e l’individuazione del meccanismo matematico capace di generare tali anomalie è un
problema teorico di grande interesse. Tale meccanismo dovrebbe essere implicito nella teoria: ad esempio,
nella meccanica statistica canonica, P (V ) dovrebbe potersi ottenere, con le sue anomalie, dalla funzione
di partizione ZN (T, V ) = ˙ Z(T, V, N ) (mediante la (5.5) e la seconda delle (3.38)). È chiaro tuttavia che
sarebbe necessario calcolare ZN in modo esatto, perchè eventuali espressioni approssimate di ZN (vedi,
ad esempio [Re80 § 9.H.1]) non solo danno valori numerici approssimati delle grandezze termodinamiche,
ma, ciò che più importa per il presente problema, possono introdurre proprietà analitiche spurie (come ad
esempio il tratto con ∂P/∂V > 0 nelle isoterme di Van der Waals [Re80 § 9.H.2]). D’altra parte, il calcolo
esatto di ZN è di fatto impossibile, per un gas non ideale. Ciò rende la meccanica statistica canonica
inadatta ad affrontare il problema delle anomalie.
La meccanica statistica gran canonica risulta invece più efficace. Cominciamo col ricordare che la
funzione di gran partizione per un gas in un volume V , con temperatura T e fugacità z è (vedi la (5.48)):
∞
X
Z= z N ZN . (5.59)
N =0
L’energia potenziale della forza tra due molecole di un gas reale contiene una parte repulsiva del tipo
(approssimativamente) ”sfera dura”, con raggio r0 , e una parte attrattiva con range finito (vedi fig. 5.1).
V(r)
Fig. 5.1 :
Un potenziale realistico. r0 r
La parte repulsiva fa sı̀ che, per ogni valore, V , del volume, esista un numero, Nmax = ˙ N (V ), tale che
se il numero delle molecole fosse maggiore di Nmax , allora la distanza tra i centri di almeno una coppia
di molecole sarebbe minore di r0 . Allora, l’energia potenziale di interazione sarebbe +∞, e risulterebbe:
ZN = 0 (per N > Nmax ). Nmax è quindi il numero massimo di molecole che possono essere contenute in
V ; si noti che Nmax non dipende nè da T nè µ, ma solo da V . Segue che, per un dato V , Z diventa un
polinomio (in z) di grado Nmax (con coefficienti positivi):
N
X max
Z= z N ZN . (5.60)
N =0
(1 + z)V (1 − z V )
Z =
˙ . (5.61)
1−z
5.7 La teoria di Lee-Yang 70
Si noti che la (5.61) è un polinomio di grado 2V −1 (assumiamo che V sia il volume in unità tali da renderlo
adimensionale) con coefficienti positivi. Quindi la (5.61) è del tipo (5.60) con Nmax (V ) = 2V − 1 (4) . La
pressione P (z) e il volume per particella v(z) seguono dalle (5.53). Consideriamo separatamente i due
intervalli: z < 1, e z > 1. Si ottiene:
£ ¤
P (z) V ln(1 + z) + ln(1 − z V ) − ln(1 − z) /V (z < 1) ;
= £ ¤ (5.62)
kB T
V ln(1 + z) + ln(z V − 1) − ln(z − 1) /V (z > 1) .
£ ¤
1 V z/(1 + z) − V z V /(1 − z V ) + z/(1 − z) /V (z < 1) ;
= (5.63)
v(z) £ ¤
V z/(1 + z) + V z V /(z V − 1) − z/(z − 1) /V (z > 1) .
Risulta poi che le due funzioni P (z) e v(z) sono monotonicamente crescenti, e che [v(z)]−1 è invertibile
([v(z)]−1 ha un flesso verticale in z = 1: vedi fig. 5.2a). Sostituendo z = z(v) in P (z) si ottiene P in funzione
di v: P = P (v). Risulta che P (v) è continua e derivabile, con un flesso orizzontale in v = v(1) (fig. 5.2b).
____
1
v (z) P(v)
V<
___
1 (b)
vL
Fig. 5.2 : ___
1 (a) V=
a) la funzione (5.63); vg
b) la funzione P = P (v).
1 z vL vg v
Si noti la somiglianza tra il grafico della funzione P (v) e l’isoterma di un gas reale. Tuttavia, P (v) risulta
derivabile ovunque: dobbiamo allora concludere che, per V finito, il tratto orizzontale e la non derivabilità
di P (v) nei suoi estremi non si manifestano.
Consideriamo allora il limite V → ∞. In tale limite risulta:
ln(1 + z) (z < 1) ;
P (z)
= (5.65)
kB T
ln(z + 1) + ln z (z > 1) .
1 z/(1 + z) (z < 1) ;
= (5.66)
v(z)
(2z + 1)/(1 + z) (z > 1) .
P (z) è continua in z = 1, mentre v −1 (z) ora è discontinua: il grafico di v −1 (z) presenta, nel punto z = 1,
un tratto verticale . Per z < 1 e z > 1 la funzione v = v(z) è invertibile; se poi definiamo z = 1 per
vl < v < vg , otteniamo una funzione z = z(v) definita per ogni z. Sostituendo z(v) in P (z) otteniamo
infine la funzione:
ln[v(1 − v)/(2v − 1)2 ] (1/2 < v < 2/3) ;
P (v)
= ln 2 (2/3 < v < 2) ; (5.67)
kB T
ln[v/(v − 1)] (2 < v) .
(4)
Per V = 2v, con v dispari (ad esempio), segue: (1 − z 2v ) =
˙ (1 − z v ) (1 + z v ) = (1 − z)(1 + z + z 2 + . . . + z v −1 ) (1 + z v ).
5.8 Esercizi 71
Il grafico della (5.67) ha lo stesso andamento delle isoterme del gas reale per T < Tc !
La comparsa della discontinuità in z = 1 è determinata dal comportamento, nel piano z complesso,
degli zeri della funzione di gran partizione. Osserviamo infatti che, per V finito, Z è, come abbiamo visto
sopra, un polinomio in z di grado Nm :
˙ 1 + zZ1 + · · · + z Nm ZNm .
Z = (5.68)
Gli zeri (5.69) sono distribuiti uniformemente sul cerchio di raggio 1; per V → ∞ la loro densità aumenta,
e il punto z0 =˙ 1 diventa un punto limite.
Il comportamento nel limite termodinamico degli zeri della funzione di gran partizione è dunque il
meccanismo matematico che genera le anomalie delle funzioni termodinamiche nella transizione gas-liquido
(”teoria di Yang-Lee”). È bene notare che la conoscenza degli zeri della funzione di gran partizione equivale
alla conoscenza della funzione stessa: dal punto di vista pratico, quindi, la teoria di Yang-Lee, per quanto
elegante, non è, in generale, di grande utilità.
5.8 Esercizi
∂ ∂A ∂ ∂
S = kB (T ln Z) =
˙ − ; U =
˙ hHi = − ln Z =
˙ (βA) . (5.70)
∂T ∂T ∂β ∂β
QN p
dove d3N q =
˙ i=1 d3 qi , λ =
˙ h2 β/2πm è la ”lunghezza d’onda termica” (vedi la (7.63)), e QN è:
Z
QN =
˙ d3N q e−βW ; (5.73)
Z Y
N
1 −βW
ρ(q1 , . . . , qN ) =
˙ d3 pi ρc (q1 , . . . , pN ) = e . (5.74)
i=1
QN
(5)
A volte (ad esempio: [Sta § 6.1]) la quantità −kB T ln Z(T, h) viene indicata con G(T, h) (energia libera ”di Gibbs”),
per il motivo che il campo h ha qualche analogia con la pressione (ad esempio, entrambi sono quantità intensive).
(6)
Nella teoria classica, la costante di Planck è utilizzata solo perchè ha la dimensione richiesta (h non figura nelle quantità
termodinamiche del sistema); tuttavia, la validità della scelta di h è confermata dal limite per alta temperatura della funzione
di partizione (quantistica) del gas ideale quantistico ([Pat § 5.5]; vedi anche (7.74)).
5.8 Esercizi 73
sottosistemi, con Ea e, rispettivamente, Eb , le relative energie. Mostrare che la distribuzione canonica del
sistema complessivo si fattorizza:
−1
X
ρ = ρA ρB , con : ρA =
˙ [ZA ] exp(−βEa ) e: ZA =
˙ exp(−βEa ) , (5.75)
a
e analogamente per ρB . Mostrare che l’energia libera del sistema complessivo è additiva: A = AA + AB .
b) Verificare che, per un gas ideale classico, le (5.53) implicano l’equazione di stato P V = hN i kB T .
e verificare la relazione:
1 µ
S = kB ln Z +
hHigc − hN igc ; (5.78)
T T
usare la prima delle (5.53) e verificare che la (5.78) coincide con la relazione di Eulero (3.11); verificare
che la (5.78) può essere scritta, in termini del potenziale gran canonico (5.49), come: S = −(∂Ω/∂T )V,µ .
b) Mostrare che la pressione può essere scritta come: P = −(∂Ω/∂V )T,µ . [Soluzione: Ω è estensiva
(vedi la (3.43)), ed è funzione di una sola variabile estensiva: Ω = Ω(T, V, µ); segue: Ω/V = ∂Ω/∂V ].
e dove N [ρ] =˙ hN i è dato dalla (5.45). Nella (5.79), HN = ˙ H(N, xN ) è la hamiltoniana del sistema nella
configurazione con N particelle, e Γ◦ (N ) è la costante solita.
a) Introducendo un moltiplicatore di Lagrange, λ0 , e procedendo come per la (5.3), calcolare la ρ (vedi
le (5.46) e (5.47)) per cui Ω[ρ] è minimo rispetto alle variazioni δρ che rispettano la condizione:
∞ Z
X (N )
dxeff δρ = 0 . (5.80)
N =0
ΓN
Il significato di Jij , µ, e hi , è illustrato qui di seguito. Si noti che se le J sono nulle (e: µ = 1, hi = h)
ritroviamo il paramagnete dell’es. 1.4.
Consideriamo dapprima il termine della (6.1) lineare nelle s: interpretando la costante µ come ”mo-
mento magnetico associato a uno spin”, tale termine rappresenta l’energia degli spin nel ”campo magnetico
esterno” (in generale variabile con i) hi . È più significativo il termine bilineare nelle s: infatti esso rap-
presenta l’interazione tra gli spin. Le costanti Jij (”costanti di accoppiamento”) definiscono l’intensità
dell’interazione. Le caratteristiche principali delle J sono il segno, e la dipendenza dalla distanza tra i
relativi spin. Se le J sono positive (qui studieremo solo questo caso), la probabilità (canonica) di una
configurazione in cui gli spin sono ”paralleli” (cioè con lo stesso valore), è maggiore di quella di una con
(1)
In origine il modello fu formulato per un sistema unidimensionale, e il risultato fu deludente perchè, come vedremo
anche qui, esso prevede una transizione solo per T = 0. Gli studi tuttavia continuarono (per una breve storia del modello vedi
[Bru67]), e si giunse cosı̀ al fondamentale lavoro di Lars Onsager [On44], che riuscı̀ a calcolare la funzione di partizione del
modello bidimensionale con campo esterno nullo (per la soluzione del modello bidimensionale con campo non nullo, vedi A.B.
Zamolodchikov in [Za89]; la soluzione del modello tridimensionale è ancora da trovare!). Il lavoro di Onsager segnò l’inizio
di un nuovo capitolo nella meccanica statistica delle transizioni di fase, in quanto rappresentò la prima dimostrazione (quasi
inaspettata [Tho § 4.2], [Gld § 2.14.1]) della possibilità di descrivere il fenomeno nell’ambito della sola meccanica statistica,
senza ipotesi ad hoc. Per un accenno alle relazioni tra il modello di Ising e la fisica del magnetismo, vedi [Sta § 8.1].
(2)
Se, come è naturale, si interpretano le {s} come ”coordinate generalizzate”, allora la hamiltoniana (6.1) non contiene i
”momenti coniugati”. Pertanto la hamiltoniana (6.1) non genera alcuna dinamica (dsi /dt = 0). Un modello di Ising dinamico
è discusso, per esempio, in [Sta app. E].
6.1 Il modello di Ising 75
spin ”antiparalleli” (cioè con valori opposti): il caso di J positive corrisponde allora ad un sistema ”ferro-
magnetico”, cioè ad un sistema in cui gli spin ”tendono ad allinearsi”. Il caso di J negative corrisponde ad
un sistema ”antiferromagnetico”, in cui gli spin tendono ad essere antiparalleli; il caso di J con valori sia
positivi che negativi, a caso, corrisponde ad un sistema ”disordinato” (”vetro di spin”: [FH91], [Pa81]).
Nei ferromagneti reali l’interazione ha raggio d’azione corto: nella versione più semplice (quella che qui
considereremo), si assume che le Jij siano diverse da zero solo per spin ”primi vicini” (cioè per spin la cui
distanza è la minima possibile) (3) . Nel seguito di questo capitolo useremo unità tali che sia: µ = kB = 1.
Le grandezze intensive del modello sono T e h. Tra le grandezze estensive, è particolarmente impor-
tante il ”momento magnetico totale”:
® XN
M (T, h, N ) =
˙ st , dove : st =
˙ st ({s}) =
˙ si (6.2)
i=1
Per i ferromagneti come Fe, Ni, ecc., la magnetizzazione è un vettore, m. La proprietà termodinami-
ca più significativa dei ferromagneti è l’esistenza di una ”temperatura critica”, Tc (> 0) (4) , tale che la
magnetizzazione ”spontanea”, cioè per campo esterno nullo, risulta (vedi la fig. 6.1):
½
=0 per T ≥ Tc ,
m(T, 0, N ) (6.4)
6= 0 per T < Tc .
m(T)
1 +˚ +˚ + +
˚ +
˚ +
˚ +
˚ +
.5 ˚
˚ +
Fig. 6.1 : Ni ˚ Fe
+
m(T, 0) per Ni e Fe. 0 +
˚
500 1000 T(K)
Uno stato macroscopico con m = 0 viene interpretato come ”fase disordinata”, e uno con m 6= 0 come
”fase ordinata”: m ha quindi il ruolo di ”parametro d’ordine” della transizione di fase ferromagnetica. Per
il modello di Ising il parametro d’ordine è scalare (vedi la (6.3)).
A prima vista, sembrerebbe che la meccanica statistica canonica, costruita a partire dall’energia
(3)
Il termine bilineare della (6.1) ”descrive” l’effetto combinato dell’interazione elettrostatica tra due elettroni (in un
campione di, per es., Fe) e del principio di esclusione. Considerando l’interazione di un elettrone con il proprio ione come
”hamiltoniana imperturbata” e l’interazione (dell’elettrone) con un elettrone di uno ione vicino come ”perturbazione”, risulta
che quest’ultima ha una forma analoga a quella del primo termine della (6.1), dove le costanti Jij sono essenzialmente elementi
di matrice (”integrali di scambio”) dell’energia di interazione elettrostatica rispetto agli stati imperturbati ([Whit cap. 2];
[FeSM § 7.1]). In realtà, la teoria quantistica prevede che l’interazione sia del tipo ”di Heisenberg”: Jij b
si · b
sj , dove b
s è
l’operatore vettoriale di spin. La (6.1) sostituisce il vettore b
s con la sua componente nella direzione del campo esterno: ciò è
poco realistico (salvo che per sistemi fortemente anisotropi). Esiste anche una interazione ”diretta” tra i momenti magnetici
associati agli spin degli elettroni: essa risulta tuttavia molto più debole di quella di scambio.
(4)
Per esempio, per il Fe risulta Tc ≈ 1044 ◦ K (la temperatura di fusione è 1260 ◦ K ). Un campione di Fe a temperatura
ambiente dovrebbe quindi essere quasi del tutto magnetizzato: in realtà risultano energeticamente favorite configurazioni in
cui il campione è suddiviso in regioni di dimensione microscopica (”domini”) completamente magnetizzate, ma con magne-
tizzazioni orientate ”a caso” [KiIS cap. 15]. Qui consideriamo il sistema come costituito da un unico dominio.
6.2 La approssimazione del campo medio 76
(6.1), non possa prevedere un momento magnetico spontaneo non nullo! Consideriamo dapprima il caso
paramagnetico (Jij = 0), per T > 0. Si trova facilmente:
Per hi = 0, e T > 0, segue: hsi i = 0. Alla base di questo risultato sta il fatto che per hj = 0 (per ogni j),
e T > 0, tutte le configurazioni vengono ad avere la stessa probabilità:
1
p({s}) = (per : {h} = 0 , T > 0) . (6.6)
2N
D’altra parte, fissato un i, le 2N configurazioni si dividono in due gruppi. quello delle 2N −1 configurazioni
in cui si = +1, e quello delle 2N −1 configurazioni in cui si = −1. Segue:
X 1 1
hsi i =
˙ si ({s}) p({s}) = 2N −1 − 2N −1 N = 0 (per : {h} = 0 , T > 0) . (6.7)
2N 2
{s}
Il meccanismo appena descritto sopra agisce anche per un sistema ferromagnetico (Jij > 0). Infatti, se
hj = 0, per tutti gli j, la hamiltoniana (6.1) è invariante rispetto al cambiamento di segno di tutti gli spin:
E({s}) = E({−s}). Per ogni T > 0, segue (indichiamo con Z la funzione di partizione per h = 0):
X P X P
1 β Jlm sl sm β Jlm sl sm
hsi i = e l<m − e l<m = 0. (6.8)
Z
{s} (si =+1) {s} (si =−1)
La (6.8) implica che la magnetizzazione è nulla, per h = 0, per ogni T > 0. Tale conclusione vale,
tuttavia, se le funzioni in gioco, e in particolare la funzione di partizione Z, sono funzioni analitiche di T .
In effetti risulta che, per h = 0, e N → ∞ (limite termodinamico), Z = Z(T ) sviluppa una singolarità per
T = Tc (con Tc determinato dalla teoria: vedi ad es. [Pat § 12.10]). L’esistenza (per h = 0, e N → ∞) di
due distinti rami nella funzione m = m(T ) è resa possibile proprio da tale singolarità (vedi la fig. 6.3: un
ramo è per T ≥ Tc , e l’altro per T ≤ Tc ; si noti che m(T ) ha, in T = Tc , derivata discontinua).
Una illustrazione elementare del ruolo delle singolarità è data dal modello di Ising paramagnetico
(consideriamo il caso di campo uniforme: hi = h). È chiaro (vedi la (6.5)) che nel punto h = 0, e T = 0,
la funzione hsi non è continua. In effetti risulta che i due limiti: limh→0 , e limT →0 , non commutano:
Si noti che la seconda delle (6.9) mostra che anche un sistema non interagente (il paramagnete) è in grado
di ordinarsi (m =
˙ hsi 6= 0), purchè sia T = 0 (torneremo su questo punto nel par. 4).
Il calcolo esatto delle proprietà termodinamiche del modello di Ising è possibile solo in dimensioni 1
(vedi i §§ 3 e 4), e 2 (vedi la nota 1). È tuttavia possibile sostituire la hamiltoniana ”esatta” (6.1) con una
hamiltoniana approssimata, per la quale il calcolo è possibile in dimensione qualunque. Lo schema base
per la costruzione della nuova hamiltoniana è la ”approssimazione del campo medio”.
Cominciamo coll’osservare che l’effetto fondamentale dell’interazione tra gli spin è di indurre corre-
lazioni tra gli stessi, cioè di indurre ”ordine” nel sistema. Un effetto ordinante, simile a quello indotto
dall’interazione, potrebbe essere indotto anche da un opportuno campo magnetico. La approssimazione
6.2 La approssimazione del campo medio 77
del campo medio consiste, appunto, nel sostituire la hamiltoniana (6.1) con la ”hamiltoniana di campo
medio”:
XN
Emf ({s}) = −(hmf + h) si (6.10)
i=1
(”mf” sta per ”mean field”), dove il ”campo medio”, hmf , deve essere definito in modo da simulare al meglio
gli effetti dell’interazione. Osserviamo allora che la ”capacità ordinante” dell’interazione è tanto maggiore
quanto più grande è il valore della costante J; inoltre, la stessa capacità è tanto maggiore quanto maggiore
è la dimensione spaziale del reticolo (in un modello a primi vicini su un reticolo cubico in dimensione 3,
per esempio, uno spin ”sente” l’influenza di 6 spin, e quindi è più ”legato” di un sistema in dimensione
1, dove uno spin sente l’influenza solo di 2 spin). Assumiamo allora che hmf sia proporzionale a J e al
”fattore di coordinazione del reticolo (cubico)”, γ (γ = 2, 4, 6, se la dimensione è, rispettivamente: 1, 2,
3). Notiamo poi che se m = 0 (ciò si verifica per T sufficientemente grande) il sistema è ”disordinato”: in
tal caso l’effetto ordinante dell’interazione è nullo. Dobbiamo allora assumere che per m = 0 sia hmf = 0,
cioè che hmf sia proporzionale a m. In conclusione, definiamo:
hmf =
˙ γJm . (6.11)
Limitiamoci al caso h = 0 (per il caso h 6= 0 vedi, ad esempio: [Sta cap. 6]). Posto:
Tc =
˙ γJ (6.13)
Le soluzioni della (6.14) possono essere studiate graficamente, considerando le intersezioni dei grafici delle
due funzioni (di m): y1 = ˙ m, y2 = ˙ tanh (xm) (vedi la fig. 6.2). Il parametro x rappresenta la pendenza
di y2 nell’origine. Consideriamo dapprima il caso: x ≤ 1 (T ≥ Tc ). Allora l’unica intersezione delle due
curve, cioè l’unica soluzione della (6.14), è m = 0 Consideriamo poi il caso: x ≥ 1 (T ≤ Tc ). Ora ci sono
tre intersezioni, e quindi tre soluzioni della (6.14). La soluzione m = 0 deve essere scartata (5) . Studiamo
(5)
È possibile formulare una espressione dell’energia libera, Amf , consistente con la approssimazione del campo medio.
Risulta che m = 0 corrisponde ad una massimo di Amf , mentre le altre due soluzioni corrispondono invece a minimi di Amf :
quindi gli stati di equilibrio del sistema sono quelli con |m| 6= 0 (la ”scelta” tra m = |m| e m = −|m| dipende da come h
tende a zero) [LLfs1 § 144].
6.2 La approssimazione del campo medio 78
la dipendenza da T delle soluzioni non nulle. Consideriamo la soluzione m > 0 (ad esempio), e scriviamo
la (6.14) come:
1 − e−2xm
m= . (6.15)
1 + e−2xm
Per x À 1 (T ¿ Tc ) dalla fig. 6.2 segue m ≈ 1, e quindi:
m ≈ 1 − 2 e−2xm ≈ 1 − 2 e−2x =
˙ 1 − 2 e−2Tc /T . (6.16)
Consideriamo poi la regione x ' 1: dalla fig. 6.2 risulta che in tal caso deve essere m ¿ 1. Possiamo allora
scrivere la (6.14) come: xm = arctanh m, e usare lo sviluppo:
y
1
y1
0
T = 0.50 T c
Fig. 6.2 : -1
m
{
y2 T = 0.66 T c
T = 1.25 T c
da cui:
p
m= 3(Tc − T )/Tc . (6.20)
La temperatura Tc =
˙ γJ è le ”temperatura critica” (vedi la (6.4) e la fig. 6.3); si noti che nella approssi-
mazione di campo medio risulta Tc > 0 anche in dimensione 1 (γ = 2).
Calcoliamo, nella approssimazione del campo medio, la ”suscettività a campo nullo”:
µ ¶
∂m
χ=
˙ . (6.22)
∂h h=0
Ricordiamo le relazioni:
tanh x + tanh y
tanh(x + y) = ; tanh α ≈ α − α3 /3 + 2α5 /15 + . . . (per : α ¿ 1) . (6.23)
1 + (tanh x)(tanh y)
6.3 Il modello di Ising unidimensionale 79
m − tanh xm
tanh βh = . (6.24)
1 − m tanh xm
m − (xm − (xm)3 /3 + · · ·)
βh − (βh)3 /3 + · · · ≈ ≈ m(1 − x) + m3 [x3 /3 + x(1 − x)] + · · · . (6.25)
1 − m (xm − (xm)3 /3 + · · ·)
Consideriamo dapprima il caso T ' Tc (e h = 0). Dalle (6.21) segue m = 0, e (ricordiamo che qui kB = 1):
β 1
χ≈ = (T ' Tc ) . (6.27)
1−x T − Tc
Invece, nel caso T / Tc (e h = 0), dalle (6.21) segue m2 ≈ 3(Tc − T )/Tc ). Otteniamo allora (trascuriamo
un termine in (Tc − T )2 ):
1
χ≈ (T / Tc ) (6.28)
2(Tc − T )
(le (6.27) e (6.28) esprimono la ”legge di Curie-Weiss”). Come vedremo più avanti, la divergenza di χ per
(6)
T → Tc è riconducibile alle proprietà delle ”funzioni di correlazione” .
m(T,0)
1
Fig. 6.3 :
Magnetizazione spontanea (6.21).
Tc T
Possiamo valutare la bontà dei risultati ottenuti confrontando la (6.21) con i dati sperimentali (e
con i risultati esatti, laddove disponibili). Risulta che l’accordo migliora al crescere della dimensione
spaziale. Nel caso unidimensionale la (6.21) è errata, in quanto prevede Tc > 0, mentre dal calcolo
(7)
esatto (§§ 3, 4) seguirà Tc = 0 . Per sistemi con dimensioni d = 2, 3, l’accordo è migliore, ma i
valori numerici che si trovano rimangono distanti dai corrispondenti valori sperimentali: ad esempio, per
d = 3 risulta sperimentalmente (per T / Tc ): m ∝ (Tc − T )β , con β ≈ .35, contro il valore β = .5
previsto dalla seconda delle (6.21) (β, da non confondersi con (kB T )−1 , è l’ ”esponente critico” della
magnetizzazione). Considerazioni analoghe valgono per la suscettività a campo nullo: le (6.27) e (6.28)
prevedono: χ ∝ |T − Tc |−γ , con γ = 1, mentre il dato sperimentale (ad es. per il Ni) è (per T > Tc ):
γ ≈ 1.35. Come vedremo in seguito, per T ≈ Tc (”regione critica”) le correlazioni tra gli spin giocano
un ruolo fondamentale. La discrepanza tra i valori degli esponenti critici è un esempio della già citata
impossibilità, per la approssimazione di campo medio, di descrivere correttamente le correlazioni.
(6)
Per una discussione delle funzioni di correlazione nell’ambito di una teoria di campo medio vedi [Pa87 § 3.4].
(7)
Nei sistemi reali, i valori di Tc presentano una grande variabilità [Sta tab. 3.5]: in generale, Tc cresce con la dimensione
(come giustificato, qualitativamente, dalla (6.13)) e con J (vedi ancora la (6.13)). Da notare che anche i valori degli esponenti
critici dipendono, in generale, dalla dimensione (vedi [Re80 tab. 10.1]).
6.3 Il modello di Ising unidimensionale 80
Discutiamo ora il modello di Ising (a primi vicini) unidimensionale, costituito da un reticolo lineare
(”catena”: vedi la nota 11) di N nodi, e quindi con N spin. Supponiamo che la catena sia ”chiusa”, cioè
che sia costituita da N + 1 spin con sN +1 =˙ s1 (per la catena ”aperta” vedi l’es. 6.1); la hamiltoniana
(6.1) si scrive allora:
XN N
X
E({s}) = − Ji si si+1 − h i si . (6.29)
i=1 i=1
XN · ¸
1
E({s}) = − Jsi si+1 + h(si + si+1 ) . (6.30)
i=1
2
I numeri Tsi si+1 (per si = ±1, si+1 = ±1) possono essere visti come elementi della matrice 2×2:
¯ ¯ ¯ a+b ¯
¯T T+1 −1 ¯¯ ¯e e−a ¯¯
˙ ¯¯ +1 +1
T = ˙ ¯¯ −a
= . (6.34)
T−1 +1 T−1 −1 ¯ e ea−b ¯
Osserviamo che T è reale e simmetrica. Gli autovalori di una matrice del tipo:
¯ ¯
¯A B¯
¯ ¯ (6.36)
¯B C ¯
1h p i
λ± = (A + C) ± (A − C)2 + 4B 2 , (6.37)
2
e i corrispondenti autovettori sono:
¯ ¯ " µ ¶2 #−1/2 " µ ¶2 #−1/2
¯ x± ¯ λ± − A B
¯ ¯
¯ y± ¯ , con : x± =
˙ 1+
B
, y± =
˙ 1+
λ± − A
. (6.38)
dove:
C =
˙ cosh b, S=
˙ senh b, ˙ S 2 + e−4a .
R= (6.40)
Consideriamo valori di (T, h) tali che sia T > 0 e h arbitrario. È evidente, dalla (6.39), che risulta:
λ+ > 0 ; λ− ≥ 0 , e: (6.42)
In tal caso gli autovettori (6.41) sono ortogonali. Sia R la matrice costruita con gli autovettori (6.41):
¯ ¯
¯x x− ¯¯
R= ˙ ¯¯ + . (6.44)
y+ y− ¯
Consideriamo ora il valor medio di uno degli spin: ad esempio s1 . Esso può essere scritto come:
1 X X
hs1 i =
˙ ... s1 Ts1 s2 Ts2 s3 · · · TsN s1 , (6.48)
Z s =±1 s =±1
1 N
cioè: ¯ ¯
1 ¡ ¢ ¯1 0 ¯¯
hs1 i = Tr S T N , dove : ˙ ¯¯
S = . (6.49)
Z 0 −1 ¯
Dalla (6.46) segue allora:
¡ ¢
Z hs1 i = Tr R−1 S R ΛN =˙ λN
+ (R
−1
S R)++ + λN
− (R
−1
S R)−− . (6.50)
Con lo stesso metodo possiamo ricavare il momento magnetico totale (6.2). È facile verificare che, in
virtù della uniformità del sistema, risulta, per uno spin generico sj :
1 X X
hsj i =
˙ ... Ts1 s2 · · · Tsj−1 sj sj Tsj sj+1 · · · TsN s1 =
Z s =±1 s =±1
1 N (6.53)
1 ¡ ¢ 1 ¡ ¢
= Tr T j−1 ST N −j+1 = Tr ST N =˙ hs1 i .
Z Z
6.5 Le funzioni di correlazione 82
Per una catena uniforme risulta quindi: M = N hs1 i. Consideriamo poi la ”magnetizzazione”, cioè il
”momento magnetico per spin”:
M
m=
˙ m(T, h) = lim = lim hs1 i . (6.54)
N →∞ N N →∞
Come si è visto nel paragrafo precedente, per una ”catena chiusa” uniforme (vedi la (6.30)), i valori
medi hsi i non dipendono dalla posizione i, e risultano uguali alla magnetizzazione (8) :
senh βh
m(T, h) = p , (per T > 0) . (6.56)
senh2 βh + e−4βJ
m(J≥0) (T, 0) =
˙ lim m(T, h) = 0 (per T > 0). (6.57)
h→0
Nel modello unidimensionale l’interazione non è dunque in grado, se T > 0, di mantenere l’ordine nel
sistema quando h → 0. Questo risultato può essere interpretato come ”assenza di magnetizzazione spon-
tanea”, cioè come ”assenza della transizione di fase” (nel modello unidimensionale).
Notiamo che il risultato (6.57) è stato ottenuto nel limite ”h → 0, con T > 0”. Ciò corrisponde,
fisicamente, a ”spegnere il campo” mantenendo il sistema a temperatura finita. Se, invece, ”raffreddiamo
il sistema” (fino a T = 0) mantenendolo in un campo non nullo, allora il sistema rimane magnetizzato.
Segue infatti:
senh βh senh βh
m(0, h) = ˙ lim p
˙ lim m(T, h) = = lim = segno (h) , (6.58)
T →0
(h6=0)
β→∞
(h6=0)
2
senh βh + e−4βJ β→∞
(h6=0)
|senh βh|
m(0, 0± ) =
˙ lim m(0, h) = ±1 (6.59)
h→0±
(si noti che la (6.59) è un caso particolare della (6.9)). La (6.59) mostra che per T = 0 il sistema
può mantenersi ordinato spontaneamente, e ciò suggerisce di interpretare la temperatura T = 0 come
temperatura critica Tc (anche se Tc = 0 !). Si ricordi, tuttavia, che la (6.59) vale anche per un paramagnete
(vedi la seconda delle (6.9)). L’influenza dell’interazione sulle proprietà della magnetizzazione a T = 0
è quindi marginale. In effetti, vedremo nel paragrafo 6 che l’effetto dell’interazione sulla suscettività (ad
esempio) è tutt’altro che marginale!
(8)
m segue dalla (6.55), usando la (6.43).
6.6 La suscettività per la catena aperta 83
Consideriamo un modello di Ising con dimensione qualsiasi, con interazione (a primi vicini) uniforme,
e con campo non uniforme. La hamiltoniana è allora:
N N
J X X
E({s}) =
˙ − si sj − h i si . (6.60)
2 i=1
i6=j=1
Limitiamoci alla regione T > 0. Il valor medio di uno spin si si può scrivere come:
1 X −βE({s}) 1 1 ∂Z
hsi i =
˙ si e = . (6.61)
Z β Z ∂hi
{s}
® ®
Chiamiamo ”funzioni di correlazione” i valori medi: si sj . Le funzioni si sj possono essere espresse da
una formula analoga alla (6.61):
® 1 1 ∂2Z
si sj = 2 . (6.62)
β Z ∂hi ∂hj
Per J = 0, le funzioni di correlazione assumono una forma particolare (es. 6.6a):
® ® ®
si sj = si sj (per i 6= j, e per J = 0) . (6.63)
Le (6.63) suggeriscono che per J = 0 gli spin siano ”indipendenti”, o ”non correlati”. Consideriamo allora
(9)
le funzioni di correlazione ”connesse” , Gij , definite come:
® ® ®
Gij =
˙ si sj − si sj . (6.64)
In virtù della (6.63), per J = 0, cioè in assenza di correlazione, le Gij (per i 6= j) sono nulle.
Le Gij sono legate alle ”suscettività locali”, χij :
∂ 1 ∂ ³ 1 ∂Z ´
χij =
˙ hsi i = ; (6.65)
∂hj β ∂hj Z ∂hi
χij rappresenta la variazione del valor medio hsi i conseguente ad una variazione del campo nel punto j.
In assenza di interazione risulta: χij = 0 (es. 6.6b). La relazione tra Gij e χij è (es. 6.6c):
Per un sistema spazialmente uniforme, Gij è una funzione solo della ”distanza” tra le posizioni i e
j: Gij = G(r), dove r =
˙ rij è una opportuna funzione degli indici i, j (ad esempio, in dimensione uno:
˙ |i − j|). Le risultanze sperimentali (10) sono che, per un sistema ferromagnetico uniforme, esistono
r =
una ”temperatura critica”, Tc , e una lunghezza, ξ = ξ(T ), detta ”lunghezza di correlazione”, tali che nella
”regione critica”: T ' Tc , h = 0, e per r À ξ, G(r) ha la forma:
(9)
Le Gij sono dette ”connesse” perchè, in certi sviluppi perturbativi di ln Z, in cui ai vari termini vengono associati
opportuni grafici, a Gij risulta corrispondere un grafico ”connesso” [Do74 § II.A.1].
(10)
Le Gij si possono osservare mediante esperimenti di diffusione di neutroni [Dac], o di luce [BeP].
6.6 La suscettività per la catena aperta 84
”punto critico”, (T, h) = (Tc , 0), è: G(r) ∝ r−α . Quindi, per T = Tc abbiamo ξ = ∞ [Ma78 § 1.3]. Ciò
sarà verificato, nel caso del modello di Ising in dimensione 1, nel paragrafo seguente.
Nelle vicinanze del punto critico le grandezze termodinamiche presentano comportamenti anomali.
Come esempio, calcoliamo, per un modello di Ising ferromagnetico, la suscettività uniforme, χ (vedi (6.22)).
Cominciamo con lo scrivere χ come:
¯ ¯
∂ M ¯¯ 1 ∂M ¯¯
χ(T ) = lim = lim . (6.68)
∂h N →∞ N ¯h=0 N →∞ N ∂h ¯h=0
(11)
Consideriamo il caso particolare di un modello di Ising in dimensione 1, del tipo ”catena aperta”
di N spin, in campo nullo (h = 0), e con T > 0 (per la catena chiusa si trovano risultati analoghi: vedi
l’es. 6.9). Supponiamo che N sia dispari (nel limite per N → ∞ ciò è ininfluente), poniamo: N = 2M + 1,
e assumiamo che l’indice i assuma valori in [−M, M ]. Scriviamo la suscettività (vedi la (6.69)) come
(omettiamo di indicare: h = 0):
M
" M
#
1 X X
χ = β lim Gij . (6.70)
M →∞ 2M + 1
i=−M j=−M
Assumiamo che le Gij siano funzioni monotonicamente decrescenti della distanza: Gij = G(|i−j|) → 0
P P
per |i − j| → ∞. Per N finito, le somme j Gij dipendono da i: ad esempio, per i = −M , in j G−M j
P
figurano solo gli spin ”a destra di s−M ”, mentre (per i = 0) in j G0j figurano sia gli spin a destra
P P
di s0 che quelli alla sua sinistra. Qualitativamente, la differenza tra, per esempio, j G−M j , e j G0j ,
è dovuta al fatto che le proprietà di uno spin ”vicino alle estremità” differiscono da quelle di uno spin
”lontano dalle stesse”. Possiamo assumere che, per N → ∞, gli spin vicini alle estremità siano ”pochi”,
e che le differenze suddette siano trascurabili (queste difficoltà non sussistono per la catena chiusa, che è
spazialmente uniforme). Assumiamo allora che, per N → ∞, le somme siano tutte uguali. Scegliamo i = 0
(per esempio), e scriviamo:
M
X M
X ∞
X
lim Gij ≈ lim G0j =
˙ G0j . (6.71)
M →∞ M →∞
j=−M j=−M j=−∞
(12)
Notiamo poi che G00 =
˙ 1 (vedi la (6.64) per hsi i = 0 . Mettendo in evidenza G00 , la (6.70) diventa:
∞
" ∞
# " ∞
# " ∞
#
X X X X
χ=β G0j = β 1 + 2 G0j = β − 1 + 2 G0j =
˙ β −1+2 G(r) , (6.72)
j=−∞ j=1 j=0 r=0
(11)
n spin disposti su una linea chiusa, in modo che s1 ed sn interagiscano (con energia di interazione del tipo solito:
−J1n s1 sn ), formano una ”catena chiusa”. Se s1 ed sn non interagiscono, allora la catena è ”aperta”.
(12)
Il risultato: hsi i = 0, per T > 0 e h = 0, era stato ottenuto per la catena chiusa (vedi la (6.57)). Qui assumiamo che,
per N → ∞, sia: hsi i = 0, per T > 0 e h = 0, anche per la catena aperta (vedi anche [Sta § 8.2]).
6.7 Esercizi 85
dove il fattore 2 segue da: G0,−j = G0,j , e dove abbiamo posto G(r) = ˙ G0 r .
Calcoliamo G(r). Conviene assumere, per il momento, che le costanti J dipendano dalla posizione.
La hamiltoniana è allora:
M
X −1
E({s}) = − Ji si si+1 . (6.73)
i=−M
Per β < ∞ (cioè per T > 0) risulta: | tanh(βJ)| < 1. La (6.76) allora conferma il fatto che G(r) diminuisce
(in modulo) al crescere di r (vedi la (6.67)). Per T ' 0, cioè per βJ À 1, si trova:
¡ ¢r ¡ ¢ 1 2J/T
G(r) ≈ 1 − 2 e−2βJ ≈ exp −2 r e−2βJ =˙ e−r/ξ , con : ξ= e . (6.77)
2
Si noti che per T → 0 risulta: ξ → ∞ (vedi il commento dopo la (6.67)). Dalla (6.72) segue, per T ' 0:
h X∞ i h X∞ ³ ´r i h ³ ´−1 i 1 + e−1/ξ
χ=
˙ β −1+2 G(r) ≈ β − 1 + 2 e−1/ξ = β − 1 + 2 1 − e−1/ξ =
˙ β . (6.78)
r=0 r=0
1 − e−1/ξ
Ricordiamo che, per T ' 0, è: 1/ξ ¿ 1, e quindi: e−1/ξ ≈ 1 − 1/ξ. Segue:
2 − 1/ξ 1 2J/T
χ≈β =≈ 2βξ =
˙ e . (6.79)
1/ξ T
La formula (6.79) per χ si può ottenere in modo molto più semplice usando la definizione (6.22) e
l’espressione esatta di m (vedi (6.56)). Il metodo seguito sopra tuttavia mette in luce il ”meccanismo”
che genera la divergenza per T → Tc ( = ˙ 0). Infatti, consideriamo ancora lo sviluppo (6.72). Notiamo che
per un ferromagnete le G(r) sono positive: ciò è giustificato dalla relazione (vedi la (6.66)) con le χ(r),
che per un ferromagnete sono ovviamente positive (per una dimostrazione formale vedi [Gr72 § VI-A]).
Inoltre, le G(r) sono finite: 0 ≤ G(r) ≤ 1. Quindi, χ diverge se la somma in (6.72) diverge, cioè se il
numero dei termini non trascurabili nella somma tende a ∞: questo è proprio quello che si verifica quando
la lunghezza di correlazione tende a ∞.
G(r) T=0
1
T1 > 0
.5
Fig. 6.4 :
T 2 > T1
La funzione (6.77) per diverse T.
0 5 10 20 r
6.7 Esercizi 86
6.7 Esercizi
N
X −1
E({s}) = − Ji si si+1 (6.80)
i=1
e derivare la seguente relazione di ricorrenza [Sta § 8.2] per la funzione di partizione per una catena (aperta)
di N + 1 spin:
ZN +1 = 2 ZN cosh(aN ) . (6.83)
N
ZN +1 = 2 Z1 cosh (a1 ) cosh (a2 ) · · · cosh (aN ) , (6.84)
dove Z1 può essere definita considerando che per una ”catena” di un solo spin abbiamo J = 0 (non c’è
interazione!), e quindi (per h = 0): E = 0. Segue Z1 = 2. Nel caso in cui tutte le costanti Ji siano uguali
(catena ”uniforme”), la (6.84) diventa:
ZN +1 = 2N +1 [cosh(a)]N , dove : a=
˙ βJ . (6.85)
indipendenti da i (sistema uniforme), senza ricorrere all’artificio di scrivere l’energia come nella (6.30).
Verificare che la funzione di partizione che ne deriva coincide con la (6.47). Risultato:
¯ a+b ¯
¯ e e−a+b ¯¯
T = ¯
˙ ¯ −a−b . (6.86)
e ea−b ¯
1 £¡ ®¢ ¡ ®¢ ¡ ® ® ®¢¤
P (si = sj = 1) = 1 + si 1 + sj + si sj − si sj . (6.92)
4
6.7 Esercizi 88
d) Mostrare che la probabilità che sia si = 1, sapendo che si = 1 (probabilità ”condizionale”), è:
P (si = sj = 1)
P (sj = 1|si = 1) = . (6.93)
P (si = 1)
® X µ λq ¶j−i µ λp ¶N
si sj = (R−1 S R)pq (R−1 S R)qp . (6.95)
p,q=±
λ p λ +
® X µ λq ¶j−i
si sj −→ (R−1 S R)+q (R−1 S R)q+ =
N →∞ q=±
λ+
µ ¶j−i (6.96)
λ−
= (R−1 S R)2++ + (R−1 S R)+− (R−1 S R)−+ .
λ+
e−2a e−2a
(R−1 S R)+− = (R−1 S R)−+ = √ = ˙ p . (6.97)
R senh2 b + e−4a
(si noti che, consistentemente con l’uniformità spaziale del sistema considerato, Gij dipende solo dalla
”distanza”, j − i). Scriviamo poi la (6.98) come:
µ ¶j−i · ¸
λ− λ+
Gij =
˙ = exp − (j − i) ln . (6.99)
λ+ λ−
Posto: r =
˙ j − i, e: G(r) =
˙ Gij , segue (consistentemente con la (6.77)):
· ¸
r 1 λ+
G(r) = exp − , con : =
˙ ln . (6.100)
ξ ξ λ−
1 2®
χ = β lim (st − hst i) h=0 . (6.101)
N →∞ N
1 2®
χ = β lim st h=0 . (6.102)
N →∞ N
®
Interpretare la validità simultanea, per T ' Tc , e h = 0, di: s2t = ∞ (che segue da (6.79)), e di: hst i = 0.
Esercizio 6.12 Assenza di transizione per T > 0 nel modello di Ising 1d.
Si consideri una catena aperta uniforme di N = ˙ 2M + 1 spin in campo nullo, nella configurazione
P
{s}0 con energia E0 = −2M J (energia minima), e magnetizzazione m = ˙ (h i si i /N = +1. Considerare le
configurazioni, {s}1 , con una sola coppia di primi vicini di tipo (+−) o (−+): esempi di tali configurazioni,
per N = 7, sono:
+++−−−− , −−−++++ . (6.103)
a) Verificare che il numero di tali configurazioni è 4M , e che tutte hanno energia: E1 = E0 + 2J.
b) Verificare che le 4M configurazioni del tipo (6.103) possono essere raggruppate in coppie caratte-
rizzate da valori opposti della magnetizzazione: ad esempio, per le due configurazioni (6.103) è: m = ±1/7.
c) Si supponga che il sistema possa trovarsi con probabilità non nulla solo in {s}0 o nelle {s}1 (ciò è
possibile se si considera una temperatura 0 < T / J). Verificare che m è proporzionale a 1/M :
d) Considerare che per un modello di Ising bidimensionale (e uniforme) di N spin in campo nullo,
su un reticolo (ad esempio) quadrato, le configurazioni ”eccitate” con energia più bassa sono quelle, che
indichiamo ancora con {s}1 , con un solo spin −1 (rispetto alla configurazione, {s}0 , con tutti gli spin
uguali a +1), e quindi con 4 coppie (di primi vicini) di tipo (−+). Assumere, in analogia con il punto (c),
che il sistema si possa trovare solo nella configurazione {s}0 e nelle configurazioni eccitate descritte sopra,
e giustificare (qualitativamente) il fatto che ora risulta: limN →∞ m = 1.
7 I gas ideali quantistici
Molti comportamenti dei sistemi macroscopici possono essere spiegati in termini classici, ma per molti
altri è necessario ricorrere alla meccanica quantistica. Tipicamente, la comparsa di fenomeni quantistici
è legata all’abbassamento della temperatura. Consideriamo, ad esempio, un gas. Al diminuire della tem-
peratura diminuiscono anche l’energia cinetica media e il (modulo del) momento medio delle molecole.
La corrispondente lunghezza d’onda di de Broglie e la dimensione dei pacchetti d’onda che descrivono le
molecole allora crescono, e possono diventare dell’ordine di grandezza della distanza media tra le molecole
stesse. A quel punto i pacchetti d’onda ”si sovrappongono”, e i fenomeni, tipicamente quantistici, dovuti
all’interferenza delle funzioni d’onda diventano significativi (1) .
La meccanica statistica quantistica presenta molti elementi in comune con la teoria classica: ad
esempio, il tipo di sistemi che si studiano (quelli per cui non è disponibile una informazione completa), e il
metodo di definire le quantità macroscopiche come valori medi di corrispondenti osservabili microscopiche.
Invece, la meccanica statistica quantistica si differenzia da quella classica per la definizione dei microstati
(elementi di uno spazio di Hilbert invece che punti di uno spazio delle fasi) e delle variabili microscopiche
(operatori sullo spazio di Hilbert invece che funzioni sullo spazio delle fasi).
In questo capitolo introdurremo le nozioni fondamentali della meccanica statistica quantistica (lo
”stato miscela”, e il corrispondente ”operatore statistico”), e studieremo i gas ideali di Fermi e di Bose.
Sia Q un sistema quantistico, e sia H lo spazio di Hilbert degli stati di Q (i ”microstati”). Nel
contesto della meccanica statistica quantistica, gli elementi di H sono chiamati anche ”stati puri”. Quando
il microstato del sistema è noto, allora si dispone di una ”informazione completa” (sul sistema); tuttavia,
come ricordiamo qui di seguito, l’informazione completa su un sistema quantistico è ”meno completa” di
quella su un sistema classico.
Consideriamo una osservabile, A, b di Q. Siano ai gli autovalori (che assumiamo discreti (2) ) di A,b e
|ai i i corrispondenti autovettori. Supponiamo che Q si trovi in uno stato puro |ψi. Secondo la meccanica
quantistica, se misuriamo A b (sul sistema Q nello stato |ψi), i risultati della misura non sono, in generale,
prevedibili con certezza. Si può solo affermare che i possibili risultati della misura coincidono con gli
autovalori ai , e che le rispettive probabilità sono:
(A) ¯ ¯2
pi ˙ ¯hai |ψi¯ .
= (7.1)
La (7.1) può essere interpretata introducendo un insieme, G, di N sistemi identici a Q, con N arbitrario
ma grande (N À 1), e tutti nello stesso stato |ψi (G è un ”insieme di Gibbs” di sistemi). Se su ognuno dei
sistemi di G effettuiamo una misura di A, b e se ni (con: P ni = N ) è il numero delle volte che l’autovalore
i
i-esimo viene rilevato nelle N misure, risulta:
(A) ni
pi = lim . (7.2)
N →∞ N
(1)
Un altro fenomeno che fa emergere comportamenti quantistici è il ”congelamento dei gradi di libertà”, responsabile,
ad esempio, dell’annullarsi del calore specifico dei solidi per T → 0 [Man § 6.2; RiCa § 16.5].
(2)
Per esempio, l’energia di un sistema spazialmente limitato ha spettro puramente discreto [Thi4 § 1.1].
7.1 La meccanica statistica quantistica 91
Inoltre, se una misura (su uno dei sistemi di G) ha dato come risultato ai , allora il sistema si trova,
immediatamente dopo la misura, nello stato |ai i.
La meccanica quantistica ordinaria dunque è già di per sè una teoria probabilistica. Peraltro, alla
casualità ”intrinseca” della meccanica quantistica ordinaria si può aggiungere una casualità ”accidentale”.
Ciò avviene quando il sistema si trova in uno ”stato miscela”, che definiamo qui di seguito. Chiamiamo
”stato miscela” un insieme di stati (normalizzati) |ψµ i, dove µ è un indice che varia su un assegnato insieme
I (che qui assumiamo discreto: vedi la nota 3), a ognuno dei quali è associata una probabilità πµ (con:
P
µ∈I πµ = 1). Diremo che ”il sistema si trova nello stato miscela {(|ψµ i, πµ )}” quando esso si può trovare,
con probabilità πµ in uno qualunque degli stati |ψµ i. Si noti che uno ”stato” miscela non è uno stato puro
(non è una combinazione lineare di stati di H !). Lo stato miscela è uno stato puro se tutti i πµ sono nulli
tranne uno, πµ0 (= 1): in tal caso lo stato miscela coincide con lo stato puro |ψµ0 i. Gli stati puri sono
dunque casi particolari di stato miscela.
Quando il sistema si trova in uno stato miscela, allora l’informazione sul sistema è incompleta (se lo
stato miscela si riduce ad uno stato puro, l’informazione sul sistema torna ad essere completa). Una tale
situazione è analoga a quella dei sistemi classici conosciuti in modo incompleto (§ 1.2). Ad esempio, per un
sistema classico in equilibrio termico con una riserva di calore potremmo definire lo ”stato miscela classico
canonico”, come l’insieme {(x, ρc (x)) : x ∈ Γ }.
Come per i sistemi classici, dobbiamo definire i ”valori delle grandezze fisiche per un sistema conosciuto
in modo incompleto”. Data una osservabile B, b definiamo il risultato di una misura di B b per un sistema
b
nello stato miscela {|ψµ i, πµ }, cioè il ”valore di aspettazione di B sullo stato miscela”, come la ”media,
¯ ¯ ®
con le probabilità πµ , dei valori medi quantistici”, ψµ ¯B b ¯ψ µ :
X ¯ ¯ ®
bi =
hB ˙ b ¯ψµ
π µ ψ µ ¯B (7.4)
µ∈I
(la validità della definizione (7.4) può essere verificata analizzando un esperimento ideale: vedi il paragrafo
seguente). La (7.4) è l’analogo quantistico della definizione classica (1.2). Tra breve la analogia sarà resa
ancora più esplicita.
Conviene scrivere la (7.4) in termini di un operatore, ρb. Sia {|ϕk i : k = 1, 2, . . .} una base nello spazio
P b b
H. Utilizzando la relazione di completezza: k |ϕk ihϕk | = I, dove I è l’identità, otteniamo:
® Xα hX i X hX i
b =
B b
πµ hψµ | B |ϕk ihϕk | |ψµ i = hϕk | πµ |ψµ ihψµ | Bb |ϕk i =
˙ Tr (b b ,
ρB) (7.5)
µ=1 k k µ
dove
X ¯ ® ¯
ρb =
˙ πµ ¯ψµ ψµ ¯ (7.6)
µ
(si noti la analogia tra la (7.5) e la (1.2)). L’operatore (7.6) è chiamato ”operatore statistico” (3) . La (7.5)
deve valere per ogni B;b se: Bb= ˙ bI, dalla ovvia condizione: h bI i = 1, segue la condizione di normalizzazione:
Tr ρb = 1 . (7.7)
L’ipotesi fondamentale della meccanica statistica quantistica può essere formulata come segue:
(3)
L’operatore statistico può essere definito anche nel caso in cui gli stati |ψµ i formano un insieme continuo, a condizione
di sostituire la ”probabilità” πµ con una ”densità di probabilità” π(µ) (per un esempio, vedi l’es. 7.1.b3).
7.4 Gli operatori statistici canonico e gran canonico 92
MSQ) Un sistema quantistico macroscopico si trova in uno stato miscela. Le variabili macro-
scopiche di ”tipo A” (§ 1.2) del sistema sono i valori medi delle corrispondenti variabili mi-
croscopiche, calcolati con l’operatore statistico (7.6). Per le osservabili di ”tipo B” si procede
mediante formule ad hoc, analoghe a quelle classiche: ad esempio, l’espressione:
S=
˙ − kB Tr [b
ρ ln ρb] (7.8)
nµ |haµ |ψi|2
πµ =
˙ lim =P 2
. (7.9)
N →∞ NI ν∈I |haν |ψi|
(B)
X
pj = πµ pµj , dove : ˙ |hbj |aµ i|2 .
pµj = (7.10)
µ∈I
b è allora:
La media dei risultati della misura di B
X X X X hX i X
bi = (B) b | aµ i. (7.11)
hB ˙ pj bj = πµ pµj bj = πµ haµ | |bj ibj hbj | | aµ i =
˙ πµ haµ | B
j µ∈I j µ∈I j µ∈I
c) uno stato puro è un caso particolare di stato miscela, caratterizzato da un operatore statistico della
forma ρb =
˙ |ψihψ|: l’operatore statistico per uno stato puro soddisfa la relazione:
la (7.12) è anche condizione sufficiente perchè lo stato descritto da ρb sia puro [Des § 6.1].
b |Ei = E |Ei .
H (7.13)
Assumiamo che H b N abbia spettro discreto, e che l’insieme degli stati |Ei sia completo. Indichiamo con
HN lo spazio di Hilbert generato dagli stati |Ei. L’operatore statistico che descrive il sistema è l’operatore
statistico ”canonico” (4) , ρbc , definito come:
ρbc =
˙ ZN e bN ,
−1 −β H
(7.14)
bN = X bN | Ei = X
˙ Tr e−β H
ZN = ˙ hE | e−β H e−βE . (7.15)
|Ei∈HN |Ei∈HN
D’altra parte, lo spazio H contiene stati caratterizzati da numeri di particelle diversi: ciò richiede, in
generale, che una osservabile sia rappresentata in modo da poterla applicare ad uno stato del tipo: |N i +
|M i, con |N i ∈ HN e |M i ∈ HM , con N 6= M ! Tuttavia, per gli scopi limitati che qui ci proponiamo,
una rappresentazione del tipo suddetto (vedi la nota 5, a pag. 93) non è indispensabile. In effetti, la
meccanica statistica (quantistica) richiede, anche per un sistema con numero di particelle indefinito, il
b | N i, che è naturale definire come:
calcolo di elementi di matrice del tipo hN | A
b | Ni =
hN | A bN | N i ,
˙ hN | A (7.17)
(4)
bρc potrebbe essere derivato da un principio variazionale analogo a quello descritto nel § 5.1 per la ρ canonica classica. La
definizione di operatore statistico quantistico ”microcanonico” presenta invece difficoltà: ad esempio per una hamiltoniana,
b con spettro discreto e non degenere, il sottospazio dello spazio di Hilbert che corrisponde alla superficie dell’energia
H,
b contiene il solo microstato |Ej i! Esistono difficoltà anche per formulare una
Σ(Ej ), dove Ej è uno degli autovalori di H,
teoria ergodica quantistica: ciò risulta possibile solo per hamiltoniane con spettro continuo (per alcuni sistemi l’ergodicità
può essere esplicitamente dimostrata [Ben], [GM96]).
7.5 Stati di un sistema di particelle identiche 94
b
H|N, EN i = b N |N, EN i = EN |N, EN i,
˙ H b |N, EN i = N |N, EN i.
N (7.18)
Assumeremo inoltre che l’insieme di tutti gli stati |N, EN i, per ogni N e ogni EN , formi un insieme
b (del sistema con numero indefinito
completo ortonormale in H. Scriveremo la traccia di una osservabile A
di particelle) come:
X ∞ X
X ∞
X
(N )
b=
Tr A ˙ hN, EN bN | N, EN i =
|A ˙ hN, EN bN | N, EN i =
|A ˙ bN , (7.19)
Tr (N ) A
|N,EN i
|N,EN i∈H N =0 N =0
P(N ) b N : P(N ) P
dove la somma sugli stati della base (in HN ) degli autostati di H
|N,EN i |N,EN i =
˙ |N,EN i∈HN .
Possiamo ora introdurre l’operatore statistico ”gran canonico”, ρbgc :
ρbgc = b Nb) ,
˙ Z −1 e−β(H−µ (7.20)
dove Z è la ”funzione di gran partizione” (vedi (7.22)). L’operatore ρbgc è diagonale sugli stati |N, EN i:
1 −β(EN −µN )
ρbgc |N, EN i =
˙ e |N, EN i . (7.21)
Z
La funzione di gran partizione è allora:
X ∞ X
X
Z = b Nb) =
˙ Tr e−β(H−µ b Nb) | N, E i =
hN, EN | e−β(H−µ e−β(EN −µN ) . (7.22)
N
|N,EN i∈H N =0 |EN i
dove ZN è la funzione di partizione quantistica (7.15) di un gas di N particelle (si noti la analogia con la
Z classica (5.48)). Le proprietà termodinamiche del sistema si ottengono dalla (5.49).
Consideriamo dapprima il sistema costituito da una particella di massa m e senza spin, confinata in
una ”scatola” tridimensionale, che per semplicità assumiamo cubica e di lato L, con condizioni periodiche
al contorno. La hamiltoniana del sistema è: Hb1 = ˙ pb 2 /2m. Assumiamo che gli autostati di Hb 1 formino
b
una base nello spazio di Hilbert, H, degli stati del sistema. Indichiamo gli autostati di H1 con |pi, e i
˙ p2 /2 m (con p =
corrispondenti autovalori con εp = ˙ |p|):
b 1 |pi = εp |pi .
H (7.24)
In virtù delle condizioni periodiche al contorno, ciascuna delle componenti di p ( =˙ (p1 , p2 , p3 )) assume i
possibili valori:
(pi )ν = (h/L) νi , con : νi = 0, ±1, ±2, . . . (i = 1, 2, 3) . (7.25)
7.6 I numeri di occupazione 95
Consideriamo poi un sistema, Q(div) , di N particelle non identiche, non interagenti, e senza spin. La
hamiltoniana di Q(div) sia:
N
X
bN =
H ˙ b 2i /2mi ,
p (7.26)
i=1
(1) (N )
XN
|p1 , . . . , pN i =
˙ |p1 i ⊗ · · · ⊗ |pN i , εp1 ,...,pN = p2i /2mi , (7.27)
i=1
|p, σi =
˙ |pi ⊗ |σi . (7.28)
b1 =
La hamiltoniana sia: H b 1 è ”indipendente dallo spin”). Le equazioni agli autovalori per H
b 2 /2m (H
˙ p b1
e per σ̂ sono:
(div)
Consideriamo poi un sistema, Qs , di N particelle (senza spin) non identiche. La hamiltoniana sia
b N sono:
la (7.26) (indipendente dagli spin). Gli autovettori di H
(1) (N )
|p1 , σ1 ; . . . ; pN , σN i =
˙ |p1 , σ1 i ⊗ · · · ⊗ |pN , σN i , (7.30)
(j)
dove |p, σi appartiene allo spazio di Hilbert della j-esima particella. Gli autovalori corrispondenti agli
stati (7.30) sono:
XN
εp1 ,σ1 ; ... ;pN ,σN = p2i /2mi . (7.31)
i=1
(div)
Per il sistema Qs , le N -uple (di quaterne (p, σ)) (p1 , σ1 ; . . . ; pN , σN ) e gli autostati della hamiltoniana
£ ¤
sono in corrispondenza biunivoca. Lo spazio di Hilbert degli stati del sistema è: ⊗N i=1 H ⊗ C
2s+1
i
, e
l’insieme di tutti gli stati (7.30) ne costituisce una base.
(id)
Consideriamo infine un sistema, Qs , di N particelle identiche. La hamiltoniana sia ancora la (7.26).
b N ora sono:
Gli autostati di H
P
C π (−1)π |pπ1 , σπ1 i(1) ⊗ . . . ⊗ |pπN , σπN i(N ) (fermioni) ,
|p1 , σ1 ; p2 , σ2 ; . . . ; pN , σN i =
˙ (7.32)
P (1) (N )
C π |pπ1 , σπ1 i ⊗ . . . ⊗ |pπN , σπN i (bosoni) ,
dove np,σ è il numero di volte che la quaterna (p, σ) compare nella N -upla (p1 , σ1 ; . . . ; pN , σN ): np,σ è
il ”numero di occupazione dello stato (di particella singola) |p, σi”. Si noti che C ha la stessa forma per
fermioni e per bosoni: tuttavia i numeri di occupazione differiscono nei due casi:
½
0, 1, per il gas di Fermi;
np,σ = (7.35)
0, 1, 2, . . . , per il gas di Bose.
Si noti infine che, per un sistema di particelle identiche, N -uple (di quaterne) (p1 , σ1 ; . . . ; pN , σN ) che
differiscono solo per l’ordine (delle quaterne) corrispondono ad un unico stato.
Studiamo ora la meccanica statistica di un gas ideale quantistico, QN , di N particelle identiche, con
massa m e spin s, in equilibrio termico a temperatura T . Vedremo che l’identità delle particelle rende la
teoria canonica difficoltosa, tanto da rendere opportuno il ricorso alla teoria gran canonica.
Consideriamo uno (qualunque) degli stati (7.32): |p1 , σ1 ; . . . ; pN , σN i. Ad esso corrisponde un unico
insieme di numeri di occupazione {np,σ }, e viceversa. Indichiamo allora lo stato |p1 , σ1 ; . . . ; pN , σN i,
come: |{np,σ }i. Una successione {np,σ } è costituita da infiniti numeri, perchè infiniti sono i possibili valori
(p, σ); peraltro, solo un numero finito (≤ N ) di numeri np,σ saranno diversi da zero, in virtù della ovvia
condizione:
X
np,σ = N . (7.36)
p,σ
Analogamente, possiamo indicare l’autovalore εp1 ,σ1 ; ... ;pN ,σN (vedi (7.31)) come:
X
E({np,σ }) =
˙ np,σ εp,σ , con : ˙ p2 /2m
εp,σ = (7.37)
p,σ
La funzione di partizione di QN , ZN , può ora essere calcolata con la formula (7.15), in cui la somma
b N è calcolata come una somma su tutti i possibili insiemi di numeri di occupazione che
sugli autostati di H
P(N )
soddisfino la condizione (7.36). Indicando una tale somma con {np,σ } , la funzione di partizione (7.15)
diventa:
(id)
X (N ) b | {n }i = X (N ) ¡ X ¢
ZN =
˙ h{np,σ } | e−β H p,σ exp − β np,σ εp,σ . (7.39)
{np,σ } {np,σ } p,σ
(id)
È chiaro che, data la necessità di tener conto della (7.36), il calcolo di ZN rimane difficoltoso anche con
il formalismo dei numeri di occupazione. Tuttavia, la difficoltà può essere facilmente superata passando
alla meccanica statistica gran canonica.
Consideriamo allora un gas (di particelle di massa m e spin s), che può trovarsi in microstati con un
numero di particelle qualsiasi (diremo brevemente: un sistema con un numero indefinito di particelle). Lo
spazio di Hilbert dei microstati del sistema è H = ⊕N HN . L’insieme di tutti gli stati |{np,σ }i forma una
b è allora:
base in H. La traccia di una osservabile del sistema, A,
X
b=
Tr A b | {np,σ }i ,
h{np,σ } | A (7.40)
{np,σ }
7.6 I numeri di occupazione 97
b eN
H b hanno il significato di ”hamiltoniana” e, rispettivamente, ”numero di particelle” per il sistema con
un numero indefinito di particelle (5) . La funzione di gran partizione (7.22) può essere scritta come:
X ³ X ´
Z = b Nb) =
˙ Tr e−β(H−µ ˙ exp − β (εp,σ − µ) np,σ = ˙
{np,σ } p,σ
X X ³ X ´ Yh X ¡ ¢i (7.42)
=˙ · · · exp − β (εp,σ − µ) np,σ = exp − β(εp,σ − µ) np,σ .
n(p,σ)0 n(p,σ)1 p,σ p,σ np,σ
Osserviamo poi che εp,σ non dipende da σ (perchè Hb non dipende da σ̂), e poniamo: εp =
˙ εp,σ . Posto
ancora: g =
˙ 2s + 1, la (7.42) diventa:
Yh X ³ ´np,σ i Y Y h X ¡ ¢np,σ i Y h X ¡ −βεp ¢np,σ0 ig
Z= z e−βεp,σ = z e−βεp = ze , (7.44)
p,σ np,σ p σ np,σ p np,σ0
dove σ 0 è uno qualunque dei σ. Indichiamo la funzione di gran partizione per il gas di Fermi con Z− , e
quella per il gas di Bose con Z+ . Per il gas di Fermi risulta allora (vedi (7.43)):
Y¡ ¢g
Z− = 1 + z e−βεp (con : g =˙ 2s + 1) . (7.45)
p
(5)
È possibile definire, su H, anche operatori che non sono diagonali sulla base |{np,σ }i (come l’ ”energia potenziale”):
si ottiene cosı̀ il formalismo della (cosiddetta) ”seconda quantizzazione” ([FW cap I], [Bof2 cap III]).
(6)
Il gas di Bose sarà discusso nel § 10.
7.7 Il limite classico del gas ideale quantistico 98
dove nq,µ ({np,σ }) è il numero di particelle nello stato (di particella singola) |q, µi per un gas nello stato
|{np,σ }i. La probabilità dello stato |{np,σ }i è (7) :
1 h X i 1 Y ³ −βεp,σ ´np,σ
P ({np,σ }) = exp − β (εp,σ − µ) np,σ =˙ ze . (7.52)
Z p,σ
Z p,σ
Definiamo il ”numero di occupazione dello stato |qi” (nello stato |{np,σ }i):
X
nq ({np,σ }) =
˙ nq,µ ({np,σ }) , (7.54)
µ
I gas che si incontrano in natura sono fatti di molecole, atomi, elettroni, fotoni, ecc., e sono quindi
sistemi quantistici. Nondimeno, è ben noto che in certe condizioni (tipicamente, ad alta temperatura e/o
a bassa densità) ritroviamo comportamenti che sono in accordo con la meccanica statistica classica. È
chiaro allora che deve esistere un limite in cui il gas quantistico ”diventa classico”. Mostriamo che tale
limite coincide con la condizione z ¿ 1.
Osserviamo che, se valgono le condizioni:
˙ Tr (b
P ({np,σ }) = ρ |{np,σ }ih{np,σ }|) .
7.7 Il limite classico del gas ideale quantistico 99
(si noti che in questo caso risulta hnp ia ¿ 1). I valori (7.59) non dipendono da a: quindi le (7.58)
individuano una condizione del gas in cui una proprietà tipicamente quantistica, come la differenza tra
bosoni e fermioni, non si manifesta. Le condizioni (7.58) sono certamente soddisfatte se è:
z ¿ 1. (7.60)
Studiamo le proprietà del gas nella condizione (7.60). Il numero medio di particelle è:
X X
hN i = hnp i ≈ zg e−βεp . (7.61)
p
p
Consideriamo il limite in cui V diventa molto grande. In tale limite le tre componenti di p diventano
variabili ”praticamente continue”, per cui possiamo calcolare una ”somma sulle componenti dei momenti”
come un ”integrale (triplo) sui momenti”.
Per giustificare ciò, cominciamo col considerare la somma su una componente (del momento), che
indichiamo con q, e sia f (q) una generica funzione continua, e ”variabile lentamente”, di q. Consideriamo
una partizione dell’intervallo (−∞ < q < ∞) in intervalli ∆q, e sia ∆ν(q) il numero dei valori q che cadono
nell’intervallo ∆q centrato in q. Sia poi dν/dq è la ”densità degli stati”, cioè il numero degli stati q in un
intervallo dq unitario. Possiamo allora approssimare:
Z
1X 1X 1X ∆ν 1 dν
f (q) ≈ f (q) ∆ν(q) = f (q) ∆q ≈ dq f (q) . (7.62)
L q L L ∆q L dq
∆q ∆q
Per una generica funzione continua, e variabile lentamente, del vettore p, f (p), abbiamo:
Z
1 X 1
f (p) ≈ 3 dp f (p) . (7.64)
V p h
Calcolando la (7.61) come in (7.64) (ricordando che εp = p2 /2m), segue (vedi la nota 3 a pag. 16):
Z ∞
hN i zg 2 zg
= 3 4πp2 dp e−βp /2m
=
˙ , (7.65)
V h 0 λ3
Consideriamo anche, sempre nell’ipotesi (7.60), l’equazione di stato. Quando vale la (7.58), ln Za (vedi
la (7.48)) diventa:
X ¡ ¢ X V
ln Za = −a g ln 1 − a z e−βεp ≈ z g e−βεp = z g 3 . (7.67)
p p
λ
Dalla prima delle (5.53) e dalla (7.65) segue che sia il gas di Fermi che quello di Bose soddisfano, se z ¿ 1,
l’equazione di stato del gas ideale classico: P V = hN i kB T .
P
Calcoliamo infine, nell’ipotesi (7.60), l’energia media: U =
˙ p hnp i εp . Sostituendo la somma con un
integrale, e utilizzando l’espressione per z che segue dalla (7.65), otteniamo:
µ ¶3 Z ∞
L p2 −βp2 /2m 3 hN i 3
U = zg 4πp2 dp e = =
˙ hN i kB T . (7.68)
h 0 2m 2β 2
7.8 Termodinamica del gas ideale di Fermi 100
λ3 /v ¿ 1 . (7.69)
Possiamo riassumere la discussione precedente, sull’equazione di stato e sull’energia interna, come segue:
quando la condizione (7.69) è verificata (alta temperatura e/o a bassa densità), la differenza tra il gas di
Fermi e il gas di Bose scompare, ed entrambi si comportano come un gas ideale classico. Discutiamo allora
il significato fisico della condizione (7.69). Descriviamo le particelle con funzioni d’onda del tipo ”pacchetto
d’onda”. Limitiamoci, per semplicità, al caso di una particella in dimensione 1, che supponiamo descritta
dalla funzione d’onda normalizzata:
s
K 2
ψ(x) = √ e−(Kx/2) . (7.70)
2π
La (7.70) descrive una particella localizzata in una regione (centrata sull’origine) di dimensione pro-
porzionale a K −1 . Il valor medio dell’energia cinetica nello stato (7.70) è:
1 1 2 2
hεp i =
˙ hψ | pb2 | ψi = } K . (7.71)
2m 8m
Supponiamo poi che la particella appartenga ad un gas con temperatura T , e assumiamo che per l’energia
media del gas valga la (7.68). Allora è naturale porre:
hεp i ∝ kB T . (7.72)
1 } }
=p ∝p ∝ λ. (7.73)
K 8m hεp i mkB T
Pertanto, la lunghezza d’onda termica λ rappresenta la larghezza spaziale del pacchetto d’onda che descrive
una particella ”con temperatura T ” (8) . È allora chiaro il ruolo della (7.69) nel definire i valori di T e
v per i quali il gas quantistico si comporta classicamente. Ciò avviene quando il volume ”occupato dalla
particella”, λ3 , è molto più piccolo del ”volume disponibile”, v. In tal caso la sovrapposizione dei pacchetti
d’onda che corrispondono alle varie particelle è trascurabile, e la differenza tra funzioni d’onda simmetriche
e antisimmetriche viene a scomparire. Il significato della condizione z ¿ 1, cioè della λ3 /v ¿ 1, è dunque
di un ”limite classico” del gas quantistico.
Possiamo infine giustificare la presenza del fattore 1/N ! nelle formule della meccanica statistica classica
di un gas (vedi, ad esempio, la (4.37) o la (5.72)). Limitiamoci al caso del gas ideale. Consideriamo allora il
”limite classico” della funzione di gran partizione del gas ideale quantistico. Risulta (vedi anche la (7.67)):
X
ln Za ≈ gz e−βεp . (7.75)
p
Segue:
" # ∞
à !N
X X gN X
−βεp N −βεp
Z = exp gz e = z e . (7.76)
p
N! p
N =0
(8)
Dalla rapresentazione in integrale di Fourier della (7.70):
Z ∞
2 1 1
ψ(x) =
˙ C dk e−(k/K ) eikx , con : C =
˙ p √ √ , (7.74)
−∞ π 2π K
Interpretando la (7.76) come ”limite classico della funzione di gran partizione quantistica”, e confrontando
con la (5.48), possiamo identificare il coefficiente di z N con la funzione di partizione ZN . Segue:
µZ ¶N
g N ³ X −βεp ´N VN −βp2 /2m
ZN = e ≈ gN dp e . (7.77)
N! p N ! h3N
A meno del fattore g N , la (7.77) coincide con la funzione di partizione del gas ideale classico di N particelle
(vedi (5.72)). Il fattore (N !)−1 esprime dunque una proprietà quantistica del gas classico!
Ricordiamo l’espressione del numero di particelle medio per il gas di Fermi (vedi (7.50), con a = −1;
d’ora in avanti omettiamo il simbolo ”a”):
X g
hN i = , (7.78)
p
z −1 eβεp +1
dove 0 ≤ z < ∞. Assumiamo che V sia ”grande”, e calcoliamo la somma come un integrale, secondo la
(7.62); passiamo poi a coordinate polari nello spazio p, e integriamo sugli angoli. La (7.78) diventa allora:
Z ∞
1 hN i 4π p2
=
˙ =g 3 dp . (7.79)
v V h 0 z −1 eβp2 /2m + 1
Poniamo y 2 =
˙ βp2 /2m. Segue:
4π 2 4 1 2
p dp = √ y dy , (7.80)
h3 π λ3
p
dove λ =
˙ h β/2πm è la lunghezza d’onda termica. La seconda delle (7.79) diventa:
Z ∞
1 g 4 y2
= 3 √ dy . (7.81)
v λ π 0 z −1 ey2 +1
I valori di n che utilizzeremo sono: n = 1/2, 3/2, 5/2, e i corrispondenti valori della funzione Γ(n) sono:
√ √ √
Γ(1/2) = π, Γ(3/2) = π/2 , Γ(5/2) = 3 π/4 . (7.84)
La (7.81) diventa:
1 g
= 3 f3/2 (z) . (7.85)
v λ
La pressione del gas ideale di Fermi segue dalla prima delle (5.53), e dalla (7.45):
X ¡ ¢
P V = kB T g ln 1 + ze−βεp . (7.86)
p
7.8 Termodinamica del gas ideale di Fermi 102
Procediamo come per la (7.78): calcolando la somma (7.86) come un integrale, e passando poi a coordinate
polari nello spazio p, la (7.86) diventa:
Z ³ ´
P 4π ∞ 2
=g 3 dp p2 ln 1 + z e−βp /2m . (7.87)
kB T h 0
Integrando per parti otteniamo:
Z ∞ 2
P 4π β p4 e−βp /2m
=g 3 dp . (7.88)
kB T 3h m 0 1 + z e−βp2 /2m
Cambiando variabili di integrazione, come per la (7.79), segue:
Z ∞ Z ∞
P g 8 y4 g 1 x3/2 g
= 3 √ dy −1 y2 = 3 dx −1 x =
˙ 3 f5/2 (z) . (7.89)
kB T λ 3 π 0 z e +1 λ Γ(5/2) 0 z e +1 λ
Mostriamo ora che la (7.85) può essere ”invertita”, per esprimere z in funzione di v e di λ. Fisicamente,
ciò equivale a considerare come variabile indipendente il numero medio di particelle, hN i, invece di z (o
µ). L’inversione della (7.85) può essere realizzata analiticamente nelle due regioni: z ¿ 1, z À 1.
Per z ¿ 1 conviene utilizzare la rappresentazione (7.115):
X∞
fn (z) = (−1)l+1 (z l /ln ) . (7.90)
l=1
(la (7.92) conferma (vedi anche la (7.69)) che z ¿ 1 implica alta temperatura e/o bassa densità). Per
z ¿ 1, la pressione diventa: · ¸
P g z2
≈ 3 z − 5/2 + . . . . (7.93)
kB T λ 2
Usando la (7.92) nella (7.93) otteniamo:
Pv 1 λ3
= 1 + 5/2 + ··· . (7.94)
kB T 2 gv
La (7.94) è l’equazione di stato del gas di Fermi nella regione ”alta temperatura e/o bassa densità”. Si
noti la presenza di una correzione quantistica (all’equazione di stato del gas ideale classico) consistente in
un aumento della pressione (del gas di Fermi) rispetto alla pressione di un gas classico con uguali T e v.
Consideriamo poi la regione z À 1. È allora conveniente utilizzare la rappresentazione (7.123):
· ¸
4 π2
f3/2 (z) = √ (ln z)3/2 1 + (ln z)−2 + . . . . (7.95)
3 π 8
La (7.96) mostra che z À 1 implica: λ3 /gv À 1. La regione z À 1 corrisponde dunque alla regione ”bassa
temperatura e/o alta densità”. Invertendo la (7.96) (es. 7.11b) segue:
µ √ 3 ¶2/3 " µ √ ¶−4/3 #
3 πλ π 2 3 πλ3
ln z = 1− + ... . (7.97)
4gv 12 4gv
7.8 Termodinamica del gas ideale di Fermi 103
Da: ln z =
˙ βµ, segue poi l’espressione di µ in funzione di T e v:
· ¸
π2 1
µ = εF 1 − + . . . , (7.98)
12 (βεF )2
<n>
p
g
T=0
g/2
Fig. 7.1 : T<<TF
hnp i (gas di Fermi; T = 0, e T ¿ TF ). 0 εF ε
p
Per T = 0 le particelle occupano quindi tutti gli stati |pi fino a quello con energia εF .
Consideriamo la pressione per bassa temperatura e/o alta densità. Ricordiamo lo sviluppo (7.124):
· ¸
8 5π 2
f5/2 (z) = √ (ln z)5/2 1 + (ln z)−2 + . . . . (7.102)
15 π 8
(vedi anche la (5.76); si noti che la (7.104) vale anche per il gas ideale di Bose). Dalla (7.104) segue (si
ricordino la prima delle (7.78) e la (7.89), e si noti che la derivata rispetto a β, nella (7.104), va fatta a z
costante):
∂ ∂ 3 1
U = ˙ hHi = − (βP V ) = −gV f5/2 (λ)−3 = gV f , (7.105)
∂β ∂β 2 βλ3 5/2
(9)
Indicando il secondo membro della (7.100) con hnp i(εp ) , risulta: hnp i(εp ) = g − hnp i(2ε −εp ) , da cui la evidente
F
”simmetria” del grafico di hnp i rispetto alla retta εp = εF .
7.9 Integrali di Fermi 104
Per temperature alte (T À TF ) dobbiamo aspettarci che il gas di Fermi abbia un comportamento classico,
cioè che CV tenda a (3/2)N kB . L’andamento di CV in funzione di T è riassunto nella fig. 7.2. L’andamento
lineare per T ¿ TF è tipico del gas di Fermi (per una giustificazione qualitativa, vedi l’es. 7.10).
CV / Nk
3/2
Fig. 7.2 :
CV per il gas di Fermi εF kT
Riportiamo qui, per completezza, alcuni risultati standard [Pat app. E], necessari per gli sviluppi del
paragrafo precedente.
Consideriamo gli integrali:
Z ∞
xn−1
Fn (z) =
˙ dx (n > 0) . (7.109)
0 z −1 ex + 1
Per z ¿ 1 abbiamo: Z ∞
Fn (z) → z dx xn−1 e−x =
˙ z Γ(n) . (7.110)
0
(10)
Le funzioni fn (z) sono chiamate ”integrali di Fermi” . Consideriamo i casi: z ¿ 1, e z À 1.
Nel denominatore della (7.112), z e−x è una quantità piccola; sviluppando in serie di Taylor segue:
Z ∞ ∞
X
1
fn (z) = dx xn−1 ze−x (−1)l (ze−x )l . (7.113)
Γ(n) 0 l=0
B) z À 1 : Ponendo: ν =
˙ ln z, e integrando per parti nella (7.111) otteniamo:
Z ∞
1 ex−ν
fn (z) =
˙ dx xn 2 . (7.116)
nΓ(n) 0 (ex−ν + 1)
Poniamo poi: t =
˙ x − ν. Segue:
Z ∞ µ ¶n
νn et t
fn (z) = dt 2 1+ . (7.117)
nΓ(n) −ν (et + 1) ν
2
La funzione et / (et + 1) è ”essenzialmente diversa da zero” solo per valori di tali che |t| sia ”piccolo”.
Conviene allora sviluppare:
µ ¶n µ ¶2
t t 1 t
1+ = 1 + n + n(n − 1) + ... , (7.118)
ν ν 2 ν
Gli integrali Ih (h = 0, 1, 2, . . .) possono essere espressi (vedi dopo) in funzione della funzione ”zeta (di
Riemann)”, ζ(h):
µ ¶X
∞ µ ¶ X∞
1 1 1 1
Ih = 2hΓ(h) 1 − =
˙ 2h Γ(h) 1− ζ(h) , dove : ζ(h) =
˙ . (7.121)
2h−1 s=1
sh 2h−1 s=1
sh
tutti
π2
ζ(0) = 1 , ζ(2) = . (7.122)
6
Ricordando poi che ν = ln z, segue, per n = 3/2, 5/2:
· ¸
4 3/2 π2 −2
f3/2 (z) = √ (ln z) 1+ (ln z) + . . . , (7.123)
3 π 8
7.10 La condensazione di Bose-Einstein 106
· ¸
8 5π 2
f5/2 (z) = √ (ln z)5/2 1 + (ln z)−2 + . . . . (7.124)
15 π 8
et e−t
2 = 2 , (7.125)
(et + 1) (e−t + 1)
segue che per h dispari è: Ih = 0. Consideriamo allora i soli h pari. Per h = 0 si ha:
Z ∞ · ¸∞
et 1
I0 = 2 dt 2 = −2 = 1. (7.126)
0 (et + 1) et + 1 0
Il gas ideale di Bose presenta un fenomeno, la ”condensazione di Bose-Einstein” (CBE), che non solo
viene effettivamente osservato (in sistemi ”quasi ideali”, come i gas di metalli alcalini molto rarefatti), ma
che risulta importante anche per sistemi ”fortemente interagenti”, come ad esempio l’4 He.
Consideriamo un gas ideale di particelle di Bose di massa m (> 0), e senza spin, confinato in una
scatola, che per semplicità assumiamo cubica e di lato L, con condizioni periodiche al contorno. Nonostante
la assenza di interazioni, il gas ideale di Bose presenta una transizione di fase, la CBE, caratterizzata
dall’esistenza di una ”temperatura critica”, Tc , al di sotto della quale le particelle ”preferiscono” occupare
lo stato p = 0, nel senso che per T → 0 risulta hnp i → 0, per tutti i p 6= 0, e hn0 i → hN i .
Le proprietà di un gas ideale di bosoni (di massa m e spin zero) nello stato termodinamico (T, V, µ),
con V = L3 , seguono dalla funzione di gran partizione (7.46) (scriviamo Z invece di Z+ ):
Y¡ ¢−1
Z= 1 − z e−βεp . (7.128)
p
1
hnp i = , (7.131)
z −1 eβεp − 1
con: 0 ≤ z < 1 (la possibilità che sia z = 1 sarà discussa più avanti). Ricordiamo che le possibili energie
di particella singola sono: εp = p2 /2m, dove i possibili momenti p sono:
p~ν =
˙ (h/L) ~ν , dove : ~ν =
˙ (νx , νy , νz ) , con : νx , νy , νz = 0, ±1, ±2, . . . . (7.132)
1 z
hn0 i =
˙ = . (7.133)
z −1 − 1 1−z
Consideriamo dapprima l’andamento di hn0 i in funzione di z. Nella regione ”classica”, cioè per z ¿ 1
(vedi § 7), dalla (7.133) risulta hn0 i ¿ 1. Per z → 1, potrebbe invece essere: hn0 i ≈ N (e: hnp i ¿ N ).
Un esempio (non fisico: la dipendenza ”vera” di z da V e T sarà derivata più avanti) è:
z = 1 − N −1 =
˙ 1 − vV −1 , con : v=
˙ V /N . (7.134)
(11)
Usando la (7.134) nella (7.133), nel limite per V → ∞ (”limite termodinamico” ), risulta:
hn0 i hn0 i 1 1 − vV −1
lim =
˙ v lim = v lim = 1,
V →∞ N V →∞ V V →∞ V 1 − (1 − vV −1 )
(7.135)
hnp i hnp i 1 1 1 1
lim =
˙ v lim = v lim ≈ v lim = 0.
V →∞ N V →∞ V V →∞ V [(V − v)/V ]eβεp − 1 V →∞ V eβεp − 1
L’andamento di hn0 i in funzione di z (vedi la (7.133)) non è fisicamente molto significativo. È invece
più interessante l’andamento di hn0 i in funzione di T e v. In effetti risulterà che hn0 i è esprimibile in
funzione della quantità nλ3 = ˙ λ3 /v (con: n =
˙ 1/v), dove λ è la ”lunghezza d’onda termica” (7.66).
Osserviamo che, se la funzione (di p) hnp i fosse continua (”lentamente variabile”) per tutti i p, sarebbe
possibile (nel limite V → ∞: vedi § 7) calcolare la somma come un integrale: vedi (7.64). Tuttavia, se
fosse z = 1, la funzione hnp i divergerebbe in p = 0, e quindi in p = 0 la continuità non sussisterebbe. Per
p 6= 0, invece, hnp i è continua anche per z = 1. Scriviamo allora la somma (7.130) come:
N hn0 i 1 X N0 Ne
= + hnp i =
˙ + , (7.136)
V V V V V
p6=0
P
dove: N0 =˙ hn0 i, e: Ne = ˙ p6=0 hnp i (Ne è il ”numero delle particelle negli stati eccitati”). Per p 6= 0 la
funzione hnp i è continua per ogni z, e quindi Ne può essere calcolata come un integrale (12) . Segue:
Z
N N0 1
= + 3 dp hnp i , (7.137)
V V h |p|>0
(11)
Nella rappresentazione (della termodinamica) del potenziale gran canonico, risulta: N = V f (T, µ) (”estensività di N ”).
Il limite termodinamico si riduce dunque al solo limite V → ∞.
(12)
Per una discussione matematicamente più rigorosa, vedi [Mu69 § 9.7].
7.10 La condensazione di Bose-Einstein 108
p2 zp2 p2
p2 hnp i =
˙ ≤ ≤ βεp < ∞, per : p → 0. (7.139)
z −1 eβεp −1 eβεp−1 e −1
Ne 1
=
˙ 3 g3/2 (z) , (7.142)
V λ
dove λ è data dalla (7.66), e dove g3/2 (z) è il caso n = 3/2 delle funzioni gn (z), definite come (13) :
Z ∞
1 xn−1
gn (z) =
˙ dx . (7.143)
Γ(n) 0 z −1 ex − 1
2.61
Fig. 7.3:
La funzione g3/2 (z). z
1
La funzione g3/2 (z) è monotonicamente crescente e limitata: g3/2 (z) ≤ g3/2 (1) = O(1). La limitatezza
di g3/2 è la chiave della CBE. Infatti, supponiamo di aumentare, a T costante, la densità delle parti-
celle ”eccitate”. Alla luce della (7.142), è chiaro che Ne /V non può crescere indefinitamente: Ne /V ≤
(Ne /V )max = ˙ λ−3 g3/2 (1). Per N/V > (Ne /V )max deve essere N0 /V > 0, cioè appunto la CBE (14) !
L’andamento di z in funzione di nλ3 segue dalle (7.133), (7.136), e (7.142), da cui segue:
z 1 1
= − 3 g3/2 (z) , (7.144)
V (1 − z) v λ
z 1
=1− g (z) . (7.145)
N (1 − z) nλ3 3/2
Non è possibile risolvere la (7.145) analiticamente. Usiamo allora un metodo grafico [BMB fig. 5.13]. Per
dati nλ3 e N , consideriamo, su un diagramma (z, Y ) (fig. 7.4), le due funzioni:
z 1
Y1 = Y1 (z) =
˙ , Y2 = Y2 (z) =
˙ 1− g (z) . (7.146)
N (1 − z) nλ3 3/2
(13)
Le funzioni gn (z) [Pat app. D] vengono introdotte e discusse con metodi analoghi a quelli visti nel § 9 per la fn (z).
(14)
La stessa analisi porta, per un gas di Bose bidimensionale, all’espressione: Ne /V = λ−2 g1 (z), dove g1 (z) è data dalla
(7.143) per n = 1. Per z = 1, g1 (z) diverge: g1 (1) = ∞. Quindi in dimensione 2 la CBE è assente [Hu87 probl. 12.6] !
7.10 La condensazione di Bose-Einstein 109
Si noti che per V → ∞ il grafico della funzione Y1 viene a coincidere con il segmento [0, 1) dell’asse z e
con la semiretta (z = 1, Y1 > 0):
½
0, per 0 ≤ z < 1 ,
lim Y1 (z) = (7.147)
V →∞ ∞ , per z = 1 .
Il grafico della funzione Y2 è una curva decrescente che passa per i punti (0, 1) e (1, g3/2 (1)/nλ3 ). È chiaro
che per V → ∞ la ascissa dell’intersezione delle due curve è:
1 , per nλ3 ≥ g3/2 (1) ,
z= (7.148)
la soluzione di : g3/2 (z) = nλ3 , per nλ3 ≤ g3/2 (1) .
1 Y2 1 Y2
Fig. 7.4: Y Y1
1
a) nλ3 ≥ g3/2 (1)
z 1 z 1
b) nλ3 ≤ g3/2 (1) (a) (b)
L’interpretazione fisica della soluzione (7.148) diventa evidente se, per una fissata densità, n, definiamo
λc come:
λ3c =
˙ g3/2 (1)/n . (7.149)
In termini di λc possiamo definire una temperatura, Tc , tale che:
s à !2/3
1 h2 n
λc =
˙ h , cioè : Tc = . (7.150)
2πmkB Tc 2πmkB g3/2 (1)
Indichiamo il limite ”per V → ∞” con il simbolo L =˙ limV →∞ . Dalla (7.145) segue, per una data n:
N0 1 1 − (T /Tc )3/2 , per T ≤ Tc ,
L =1− g (z) = (7.152)
N nλ3 3/2
0, per T > Tc .
La (7.152) è rappresentata nella fig. 7.5, e descrive il fenomeno della CBE (Tc ha il significato di tempera-
tura ”critica”). È chiaro che il termine ”condensazione” (di Bose-Einstein) descrive una condensazione
nello spazio dei momenti: le particelle ”condensano” nello stato p = 0. Si noti che Tc è la temperatura
alla quale la lunghezza d’onda termica diventa dello stesso ordine di grandezza della separazione media tra
le particelle (vedi la (7.149)): quindi Tc è la temperatura a cui gli effetti quantistici diventano importanti.
Nel seguito chiameremo l’insieme delle particelle nello stato p = 0: ”condensato” (15) .
(15)
La teoria sviluppata sopra vale per bosoni con massa: m > 0. Esistono anche gas di bosoni con m = 0: ad esempio, le
”eccitazioni” (fononi) di un solido a bassa T . Per m → 0 risulta: Tc → ∞. Inoltre, non esistono fononi di momento nullo (non
esistono vibrazioni reticolari di energia nulla): N0 = 0. Potremmo allora dire che un gas di N fononi con T finita corrisponde
alla componente non condensata di un gas di Bose con T < Tc : Ne = N . Per T → 0, il numero medio dei fononi tende a
zero (corrispondentemente al fatto che lo stato del sistema tende allo stato con energia minima, e quindi senza eccitazioni).
Quindi, un gas ideale di fononi per T → 0 non condensa, ma scompare!
7.11 Proprietà del gas ideale di Bose 110
Il gas di Bose ideale è evidentemente un modello matematico, non realizzabile in natura: non è
quindi ovvio che la CBE sia sperimentalmente osservabile. In realtà, un sistema bosonico come l’He (li-
quido) presenta una transizione di fase con una temperatura critica Tc ≈ 2.18 ◦ K [Hu87 fig. 13.2]. Se
calcoliamo la (7.150) con m uguale alla massa di un atomo di 4 He, e con n uguale alla densità dell’He
liquido, troviamo: Tc ≈ 3.13 ◦ K ! La vicinanza dei due dati, e altre considerazioni meno qualitative
(vedi ad es. [Hu87 § 13.8]), suggeriscono che la CBE abbia un ruolo anche nei sistemi di Bose reali.
N0
N
Fig. 7.5
Tc T
In conclusione, notiamo che z ed N0 possono essere espressi anche in funzione di n, per T fissata.
˙ g3/2 (1)/λ3 , da (7.148) segue:
Posto: nc =
1 , per n ≥ nc ,
N0 1 − (nc /n) , per n > nc ,
z= =⇒ L = .
la sol. di : g (z) = nλ3 , per n ≤ nc N
3/2 0, per n ≤ nc ,
(7.153)
Ancora, z ed N0 possono essere espressi in funzione di v (per T fissata). Posto: vc =
˙ 1/nc , segue:
1 , per v ≤ vc ,
N0 1 − (v/vc ) , per v ≤ vc ,
z= =⇒ L = . (7.154)
la sol. di : g (z) = λ3 /v , per v > v N
3/2 c 0, per v > nc .
A) La pressione
Calcoliamo la pressione del gas in funzione di T ed n. Procedendo come per la (7.142), la (7.129) può
essere scritta come:
Z ∞
V ¡ ¢
P V = −kB T ln(1 − z) − kB T 3 4π p2 dp ln 1 − ze−βεp . (7.155)
h 0
(nel limite termodinamico n rimane costante). D’altra parte, per T > Tc è z < 1, e quindi:
h i
L V −1 ln(1 − z) = 0 . (7.162)
In definitiva, il termine V −1 ln(1 − z) nella (7.159) può essere trascurato (nel limite termodinamico) per
ogni T . La pressione P = P (T, V, z) è allora:
kB T
P = g (z) . (7.163)
λ3 5/2
Consideriamo le ”isoterme”, cioè le funzioni P = P (v; T ), per T fissata. Dalla (7.154) otteniamo:
kB T g5/2 (1) / λ3 , per: v ≤ vc (T ) ,
P = con : vc = ˙ λ3 /g3/2 (1) ; (7.164)
3
kB T g5/2 (z)/λ , per: v > vc (T ),
Si noti che per v = vc risulta z = 1: quindi la funzione (7.164) è continua in v = vc . Per ogni T l’isoterma
corrispondente presenta un tratto piatto (per v ≤ vc (T )), analogo al tratto piatto di un’isoterma di un gas
reale classico. L’isoterma per T = 0 coincide con la retta P = 0. D’altra parte, per T = 0 il gas è tutto ”con-
densato”: possiamo concludere che il condensato ha pressione zero, indipendentemente dalla sua densità !
P (v)
T
T1
T2
Fig. 7.6:
Isoterme del gas ideale di Bose (T2 < T1 ).
vc(T 1) v
Calcoliamo la funzione P = P (T ) per v fissato. Per T ≤ Tc , dalla (7.163) segue: P = (kB T /λ3 ) g5/2 (1).
Invece, per T > Tc , usando la seconda delle (7.151), la (7.163) può essere scritta (per n fissata) come:
P g5/2 (z)
=n . (7.166)
kB T g3/2 (z)
da cui:
g3/2 (z) ≈ z + 2−3/2 z 2 + · · · , g5/2 (z) ≈ z + 2−5/2 z 2 + · · · . (7.168)
Segue: · ¸
P 1
≈n 1− √ z . (7.169)
kB T 4 2
Invertendo la seconda delle (7.151) per ottenere z come funzione di nλ3 (si ottiene: z ≈ nλ3 −2−3/2 (nλ3 )2 ),
la (7.169) diventa:
P 1
= 1 − √ nλ3 + · · · . (7.170)
kB T 4 2
La (7.170) è l’equazione di stato del gas ideale classico, con una correzione quantistica che rende la pressione
di un gas di Bose minore della pressione di un analogo gas classico.
B) Il calore specifico
È di grande interesse, anche per il confronto con altri sistemi bosonici (come il gas di fononi),
l’andamento del calore specifico, CV , a bassa T . La dipendenza da T può essere ricavata, per T ≤ Tc , con
una semplice considerazione qualitativa: assumiamo che l’energia media di una particella con p > 0 sia
circa kB T . Il numero delle particelle che contribuiscono all’energia interna, U , è (vedi (7.151) e (7.142)):
(per una particella la densità di numero di particelle coincide con la densità di probabilità). Per N particelle
definiamo (per l’analogo classico vedi la (1.26))
N
X
n
bN (r) =
˙ δ(r − b
ri ) . (7.174)
i=1
Notiamo ora che la forma esplicita di ϕ0 dipende dalle condizioni al contorno sulle pareti di V . Per
condizioni periodiche (ad esempio: ϕ0 (x, y, z) = ϕ0 (x + L, y, z)), le soluzioni dell’equazione di Schrödinger
per la particella libera sono onde piane. In particolare, la soluzione con energia più bassa è: ϕ0 (x, y, z) =
L−3/2 . La corrispondente densità (7.176) è: nN (r) = N/V . La densità corrispondente alle condizioni al
contorno periodiche è dunque uniforme. Consideriamo invece condizioni di annullamento sulle pareti (ad
esempio: ϕ0 (0, y, z) = ϕ0 (L, y, z) = 0). La soluzione con energia più bassa ora è:
r ³ πx ´ ³ πy ´ ³ πz ´
8
ϕ0 (x, y, z) = sen sen sen . (7.177)
V L L L
La corrispondente densità (vedi la (7.176)) è:
N ³ πx ´ ³ πy ´ ³ πz ´
nN (r) = 8 sen2 sen2 sen2 . (7.178)
V L L L
La densità (7.178) non è uniforme (è nulla sulle pareti e massima al centro del volume). Quindi, la densità
di un gas ideale di Bose di N particelle a T = 0 dipende dalle condizioni al contorno usate per risolvere
l’equazione di Schrödinger per una particella. Le condizioni al contorno non dovrebbero essere fisicamente
rilevanti (almeno, non nel limite termodinamico!). Il fatto che, invece, la densità del gas ideale di Bose
dipenda dalle condizioni al contorno, è una sua ulteriore anomalia. È possibile verificare che in presenza
di interazione la suddetta anomalia non si manifesta [PiSt § 11.2].
Calcoliamo l’energia interna del gas ideale di Bose. Dalla (7.104), e ricordando la (7.163), otteniamo:
∂ ∂ 1 3 1 3
U =− (βP V ) = −V g5/2 (z) = V g5/2 (z) = PV. (7.179)
∂β ∂β λ3 2 βλ3 2
Per calcolare cV in funzione di (T, v) dobbiamo utilizzare la dipendenza di z da λ3 /v. Per T > Tc ,
dalle (7.180) e (7.179) otteniamo:
·µ ¶ ¸
3v ∂ T T ∂z ∂
cV (z) = kB g (z) + g (z) . (7.181)
2 ∂T λ3 5/2
λ3 ∂T ∂z 5/2
∂
gn−1 (z) = z gn (z) (7.183)
∂z
Segue:
∂ 1
g (z) = g3/2 (z) . (7.184)
∂z 5/2 z
7.13 Esercizi 114
Ancora, dal fatto che, per T > Tc , z è soluzione della (7.165), segue:
∂ λ3 ∂ ∂z ∂
= g (z) = g (z) , (7.185)
∂T v ∂T 3/2 ∂T ∂z 3/2
cioè il valore corrispondente al gas ideale classico. Per T → (Tc )+ abbiamo: z → 1. Risulta anche:
g1/2 (z) → ∞ per z → 1 [Pat app. D eq. 10]. Quindi:
15 g5/2 (1)
lim cV = kB ≈ 1.9 kB (7.190)
T →(Tc )+ 4 g3/2 (1)
3 ∂ T 15 v
cV (T, v) = k vg (1) = k g (1) (per : T ≤ Tc ) . (7.191)
2 B 5/2 ∂T λ3 4 B λ3 5/2
Si noti che cV è continuo in T = Tc (16) , mentre la sua derivata è discontinua: è chiaro che la discontinuità
segue dal diverso andamento di ∂z/∂T per T ≶ Tc .
C cl
Fig. 7.7: T
Tc
Calore specifico cV del gas ideale di Bose (Ccl =
˙ (3/2)kB ).
(16)
Ricordiamo che per T → Tc abbiamo z → 1. Abbiamo inoltre [Pat app. D]: g1/2 (z) → ∞ per z → 1. Allora, è
immediato verificare che il limite per T → Tc− della (7.187) è uguale al limite per T → Tc+ della (7.191). La continuità di cV
in T = Tc non è una proprietà universalmente valida: per un gas ideale ”intrappolato” in una buca di oscillatore armonico,
7.13 Esercizi
scrive un atomo ”polarizzato”, nel senso che esiste un vettore unitario (nello spazio fisico tridimensionale)
~n = ˙ (nx , ny , nz ), tale che il valore d’aspettazione della ”componente lungo ~n dello spin” è uguale a 1:
√
~n · hψ | ~σ | ψi =˙ hψ | (~n · ~σ ) | ψi = 1. [Esempio: se a = b = 1/ 2, allora: ~n =
˙ (1, 0, 0)].
b) Calcolare l’operatore statistico per una particella (di spin 1/2) polarizzata nella direzione ~n; di-
mostrare che lo stato della particella è uno stato puro, e derivarne una espressione sulla base degli autostati
di σz . [Risultato: ρ = [1 + ~n · ~σ ]/2].
c) Calcolare l’operatore statistico per una particella (di spin 1/2) che abbia probabilità p di essere
polarizzata parallelamente al vettore ~n, e probabilità q = 1 − p di essere polarizzata antiparallelamente a
~n. [Risultato: ρ = [1 + (p − q) ~n · ~σ ]/2].
b) Calcolare le stesse quantità del punto (a), usando gli autovalori esatti: εn = (n + 1/2)}ω.
c) Per quali T le proprietà termodinamiche di un oscillatore armonico quantistico diventano uguali a
quelle di un oscillatore armonico classico?
1 1
hnp,σ i− = , hnp,σ i+ = . (7.198)
z −1 eβεp,σ +1 z −1 eβεp,σ −1
P
Da: hnp ia =
˙ σ hnp,σ ia (vedi (7.51)), ottenere infine le (7.57).
˙ eβµ ; TrN è la traccia sullo spazio HN ). Mostrare che la (7.199) equivale alla (7.42).
(con z =
[Soluzione: Dalla (7.39) segue:
∞
X X (N ) X ∞ X
¡ ¢ X (N ) ¡ X ¢
Z= zN exp − β ε p np = exp − β (εp − µ) np . (7.200)
N =0 {np } p N =0 {np } p
7.13 Esercizi 117
È facile vedere che la somma doppia che figura nella (7.199) può essere calcolata sommando su ogni np
indipendentemente l’uno dall’altro (si noti che ancora non abbiamo specificato i valori degli np ):
∞
X X (N ) hX ih X i
α0n0 α1n1 . . . = α0n0 α1n1 . . . . (7.201)
N =0 {ni } n0 n1
Come illustrazione della (7.201) supponiamo che le particelle dispongano di due soli stati: allora il
primo membro della (7.201) diventa:
∞ X
X (N )
Σ=
˙ α1n1 α2n2 . (7.202)
N =0 n1 ,n2
Scriviamo la somma (7.202) ordinando i termini secondo lo schema seguente [Bal § 5.4]:
Σ = 1+
+ α1 + α2 +
(7.203)
+ α12 + α1 α2 + α22 +
+ α13 + α12 α2 + α1 α22 + α23 + . . . ;
la (7.202), cosı̀ come scritta, equivale a ”sommare lungo le righe” nello schema (7.203); gli stessi termini
possono tuttavia essere ”sommati lungo le diagonali”, e questo dà:
∞
" Ã ∞ !# " ∞ #" ∞ #
X X X X
n1 n2 n1 n2
α1 α2 =
˙ α1 α2 . (7.204)
n1 =0 n2 =0 n1 =0 n2 =0
Per N generico, la (7.201) può essere dimostrata verificando che tutti i termini presenti a sinistra sono
presenti una e una sola volta anche a destra, e viceversa. In definitiva, sommando su ogni np indipenden-
temente l’uno dall’altro, la (7.200) diventa la (7.42).]
da cui la (7.99).
Scriviamo ln z come una serie di potenze in x. La serie deve evidentemente iniziare come: ln z = x2/3 + . . . .
Ipotizziamo allora: ln z = x2/3 + αx−2/3 + O(x−4/3 ), con α da determinarsi. Sostituendo nella (7.206)
otteniamo:
π 2 ³ 2/3 ´−1
x2/3 = x2/3 + αx−2/3 + x + αx−2/3 + . . . + ... , (7.207)
12
cioè, moltiplicando per x2/3 , e sviluppando i denominatori:
π2 x2/3 π2 1 π2
0=α+ 2/3 −2/3
+ ... = α + −4/3
+ ... = α + + O(x−4/3 ) . (7.208)
12 x + αx + ... 12 1 + αx + ... 12