Sei sulla pagina 1di 118

Note del Corso di Termodinamica e Meccanica

Statistica
Laurea Triennale in Fisica. Universit` a di Cagliari
Piero Olla
9 novembre 2013
2
Indice
1 Introduzione 5
2 Richiami di probabilit`a e statistica 7
2.1 Denizioni fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 Probabilit`a congiunte e condizionate . . . . . . . . . . . . . . . . . 8
2.1.2 Il concetto di media . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Entropia ed informazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Somme di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.1 Entropia e limite termodinamico . . . . . . . . . . . . . . . . . . . 15
2.4 Processi stocastici e campi random . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1 Il teorema di Wiener-Khinchin . . . . . . . . . . . . . . . . . . . . . 21
2.5 Fluttuazioni microscopiche e macroscopiche . . . . . . . . . . . . . . . . . 22
2.6 Probabilit` a dipendenti dal tempo . . . . . . . . . . . . . . . . . . . . . . . 24
2.7 Il Coarse graining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.8 Il limite continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8.1 Cammino random . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.8.2 Processo di estinzione . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 La teoria cinetica 33
3.1 Alcune problematiche in teoria cinetica . . . . . . . . . . . . . . . . . . . . 33
3.2 Alcune questioni riguardo il calcolo dellentropia . . . . . . . . . . . . . . . 37
3.2.1 Entropia, partizioni e paradosso di Gibbs . . . . . . . . . . . . . . . 38
3.2.2 Entropia in una singola realizzazione . . . . . . . . . . . . . . . . . 40
3.3 Lequazione di Boltzmann . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.1 La distribuzione di Maxwell-Boltzmann . . . . . . . . . . . . . . . . 43
3.3.2 Entropia e spazio delle velocit`a . . . . . . . . . . . . . . . . . . . . 43
3.3.3 Il teorema H . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Il limite uido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.5 Equazioni uide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.6 Viscosit` a e diusivit`a termica . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.6.1 Diusione in una miscela di gas . . . . . . . . . . . . . . . . . . . . 53
3.7 Dalla teoria cinetica alla termodinamica . . . . . . . . . . . . . . . . . . . 54
3
4 INDICE
3.7.1 Pressione e legge di stato . . . . . . . . . . . . . . . . . . . . . . . . 54
3.7.2 Energia termica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7.3 Calore e lavoro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.7.4 Entropia e temperatura . . . . . . . . . . . . . . . . . . . . . . . . 57
3.8 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4 Termodinamica 61
4.1 Processi reversibili e irreversibili . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 Diseguaglianze termodinamiche . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3 Termodinamica: punto di vista macroscopico. . . . . . . . . . . . . . . . . 65
4.4 Lavoro massimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.5 I potenziali termodinamici . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.6 Lavoro massimo e potenziali termodinamici . . . . . . . . . . . . . . . . . . 72
4.7 Sistemi a numero di particelle variabile . . . . . . . . . . . . . . . . . . . . 74
4.8 Entropia e potenziali termodinamici in una miscela di gas . . . . . . . . . . 76
4.9 Reazioni chimiche in una miscela di gas . . . . . . . . . . . . . . . . . . . . 77
4.9.1 Entalpia di reazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.10 Transizioni di fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.10.1 Termodinamica dellaria umida . . . . . . . . . . . . . . . . . . . . 82
4.11 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5 Meccanica statistica dellequilibrio 85
5.1 Il punto di vista di Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1.1 Il concetto di ensemble . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.1.2 Il problema ergodico . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Il concetto di entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.3 Il metodo di massima entropia . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.4 La distribuzione di Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6 Cenni alla teoria delle uttuazioni 101
6.1 Fluttuazioni attorno allequilibrio . . . . . . . . . . . . . . . . . . . . . . . 101
6.2 Struttura temporale delle uttuazioni . . . . . . . . . . . . . . . . . . . . . 105
6.2.1 Il moto Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.2 Relazioni uttuazione-dissipazione . . . . . . . . . . . . . . . . . . . 109
6.3 Reversibilit`a temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.1 Relazioni di Onsager . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.3.2 Produzione di entropia . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Capitolo 1
Introduzione
Un problema fondamentale della sica teorica `e come determinare le propriet` a di un sistema
macroscopico note quelle dei suoi costituenti elementari. In linea di principio, la dinamica
del sistema potrebbe essere ottenuta da una conoscenza esatta dello stato delle sue parti.
Un simile bagaglio di informazione, per` o, oltre ad essere impossibile da ottenersi, `e anche
assolutamente ridondante: lo stato del sistema `e descritto di solito per mezzo di un numero
ristretto di variabili, dette appunto macroscopiche, le quali non dipendono dai dettagli del
sistema. (Per conoscere la pressione di un gas, non `e necessario conoscere posizione e
velocit`a di tutte le sue molecole). Sistemi pi` u o meno complicati possono venire descritti
per mezzo di un numero pi` u o meno alto di variabili, ma il principio generale che una
descrizione completa non `e necessaria, rimane valido.
Il passaggio a un livello di descrizione macroscopico comporta evidentemente una per-
dita di informazione, e non `e detto che una simile operazione sia sempre possibile. Una
prima condizione `e che le interazioni tra i costituenti fondamentali siano semplici (cos` `e nel
caso delle molecole di un gas; non altrettanto, per dire, nel caso dei neuroni in un cervello
umano). Questo fa s` che le variabili macroscopiche siano esse stesse funzioni abbastanza
semplici di quelle microscopiche (tipicamente somme). Una seconda condizione `e quella
di una rapida perdita di memoria dello stato microscopico iniziale del sistema. Come dire
che le dinamica microscopica diventa ininuente a scala macroscopica. Questo presuppone
che la dinamica microscopica sia almeno in parte caotica. Il tema `e controverso. Il soddi-
sfacimento di una tale condizione ragionevole, ma dicile da dimostrare implicherebbe
una perdita di informazione nel passaggio dal micro al macro, dovuta non solo a motivi di
coarse graining, ma anche di tipo dinamico, e costituirebbe in se, una giusticazione in
pi` u per disinteressarsi dei gradi di libert`a microscopici del sistema.
Il fatto che le variabili macroscopiche possano essere ottenute come somme (o in genere
funzioni semplici) delle variabili microscopiche, fa s` che le prime possano essere interpre-
tate in senso statistico. (Un esempio `e lenergia interna di un gas ideale monoatomico
U = (3/2)NKT, in cui (3/2)KT `e lenergia cinetica media delle molecole). I concetti di
probabilit`a e statistica giocano quindi un ruolo centrale. Due approcci sono sostanzial-
mente possibili: quello della teoria cinetica, originato dal lavoro di L. Boltzmann, e quello
della meccanica statistica, originato dal lavoro di J.W. Gibbs. Anche se lutilizzo di queste
5
6 CAPITOLO 1. INTRODUZIONE
teorie si estende al giorno doggi ben oltre il campo della sica, il loro ambito originale
di applicazione era quello dei sistemi termodinamici. Semplicando molto, la teoria ci-
netica si interessa di pi` u a situazioni di non-equilibrio, mentre la meccanica statistica si
pu`o vedere come un insieme di tecniche per ottenere la termodinamica di sistemi di tipo
generico. In entrambi i casi, laspetto centrale `e la trattazione probabilistica dei gradi di
libert`a microscopici del sistema.
Un ruolo essenziale nello stabilire la connessione tra mondo macroscopico e mondo
microscopico `e giocato dallentropia. A volte si descrive lentropia come una misura di
disordine. Si tratta purtroppo di una caratterizzazione assai ambigua, visto che non `e
chiaro cosa si intende con il termine disordine. Sarebbe daltra parte un po riduttivo,
qualicare ad esempio i processi in un ciclo biologico come un incremento di disordine,
anche se essi invariabilmente comportano un aumento di entropia. Di fatto, il concetto di
entropia assume signicati diversi a seconda del contesto. Tutti questi signicati possono
essere per` o ricondotti alla quantit`a di informazione persa nel passaggio a una descrizione
macroscopica del sistema. Nelle note che seguono, particolare attenzione verr`a data ai
ruoli diversi che lentropia gioca nei tre approcci cinetico, termodinamico e di meccanica
statistica, sottolineando in tutti i casi il suo il suo signicato dal punto di vista della teoria
dellinformazione (entropia di Shannon).
Le pagine che seguono contengono una presentazione a livello introduttivo di come
funzionano i due approcci cinetico e di meccanica statistica. Si tratta in gran parte di un
compendio di rielaborazioni ed estratti da testi classici. Per la parte di termodinamica,
per quella di meccanica statistica e per il capitolo nale sulle uttuazioni, si `e preso come
riferimento Fisica Statistica di Landau e Lifstits, in particolare i paragra 7, 19-20, 31,
40, 83, 93, 101-103, 110, 112, 118-120. Per quanto riguarda la teoria cinetica, possono essere
utili per approfondimento i capitoli 3-5 del testo Statistical Mechanics di K. Huang. Un
riferimento per i preliminari di probabilit`a e statistica possono essere i capitoli 5-6 del testo
A modern course in statistical physics di L.E. Reichl.
Capitolo 2
Richiami di probabilit`a e statistica
2.1 Denizioni fondamentali
La probabilit`a `e uno di quei concetti estremamente familiari, che sono molto dicili da
denire in maniera formale. La denizione comunemente accettata `e quella assiomatica
dovuta a Kolmogorov, che d`a le propriet` a minime che il concetto di probabilit`a deve sod-
disfare, ma non dice alcunche su ci`o che essa deve rappresentare. Quello che rappresenta,
noi lo sappiamo benissimo: una misura della nostra aspettativa del vericarsi di un certo
risultato in un esperimento. Questo non `e per` o suciente per costruirci sopra una teoria
(per dirne una: come si denisce il concetto di aspettativa?)
La denizione assiomatica di probabilit`a si ottiene a partire dai concetti elementari
nella maniera seguente.
Si d`a linsieme dei possibili risultati di un esperimento, detto lo spazio dei cam-
pioni . Esempi: linsieme = 1, 0, x dei risultati di una partita nella schedina;
linsieme delle velocit`a che pu`o assumere le molecole in un gas: = R
3
. In que-
sto secondo caso, la quantit`a continua che si misura nellesperimento `e detta una
variabile random oppure variabile aleatoria.
Si denisce evento un insieme di possibili risultati di una misura. In altre parole,
un evento `e un sottoinsieme di . (Nel caso continuo, non tutti i sottoinsiemi sono
ammissibili; non andiamo ad approfondire la problematica. Per chi `e interessato,
dare un occhiata a Wentzel, Teoria delle probabilit`a). Si dice che due eventi A e B
sono mutualmente esclusivi se hanno intersezione vuota.
La probabilit`a di un evento A `e un numero P(A), 0 P(A) 1 che soddisfa
le propriet` a: P(A B) = P(A) + P(B) se A e B sono mutualmente esclusivi, e
P() = 1.
Non male come economia di mezzi, per una denizione.
Vale la pena vericare le propriet` a intuitive che ci si aspetta dovrebbe avere la proba-
bilit` a (per esempio P() = 0). Notare come la scrittura P(A B) non sia altro che una
notazione stenograca per dire: probabilit`a che si verichi un risultato in A o in B.
7
8 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
Nel caso di una variabile random x, gli eventi sono tipicamente intervalli o unioni di
intervalli. In tal caso si denisce la funzione densit`a di probabilit`a (PDF) tramite
la formula
P([a, b]) =
_
b
a
(x)dx. (2.1)
La PDF `e una funzione non negativa (convincersene!)
Notare che lo stesso evento pu`o essere rappresentato con variabili random diverse; per
esempio, se x = y/2, lintervallo A = [a, b] per x, corrisponde allintervallo [2a, 2b] per y.
Levento pu`o essere sicamente lo stesso (un certo intervallo di velocit`a in due unit`a di
misura diverse). Per evitare ambiguit`a, si utilizza spesso il pedice sulla PDF per indicare
la variabile aleatoria a cui di si riferisce. Quindi, la (2.1) diventa
P(A) =
_
b
a

x
(z)dz =
_
2b
2a

y
(z)dz (2.2)
(x e y sono le variabili aleatorie; z sono i loro valori). Prendendo intervalli innitesimi
nella (2.2), troviamo
x
(z)dz = 2
y
(2z)dz. In generale:
x
(x)dx =
y
(y(x))dy(x), che ci
d`a la formula per il cambio di variabili tra PDF:

x
(x) =
y
(y(x))

dy(x)
dx

(2.3)
La formula pu`o essere generalizzata a un numero maggiore di dimensioni servendosi del
determinante Jacobiano al posto della derivata y

(x).
Ci chiediamo se `e possibile denire eventi per variabili aleatorie, che non sono intervalli,
bens` punti isolati. Possiamo farlo servendoci della delta di Dirac. Esempio:
(x) = a(x) + b(x) exp(x), x R. (2.4)
Abbiamo evidentemente P(0) = a. Per avere P() = 1, dobbiamo imporre b = 1 a.
2.1.1 Probabilit`a congiunte e condizionate
Dati due eventi A e B, deniamo probabilit`a congiunta di A B la probabilit`a dellin-
tersezione P(A B). Esempio importante nel caso = R
2
: sia A = [x, x + dx] R e
B = R[y, y + dy]. In tal caso
P(A B) = P([x, x + dx] [y, y + dy]) :=
xy
(x, y)dxdy, (2.5)
che denisce la PDF congiunta dei valori x e y delle variabili aleatorie x e y. (A meno
che non sia strettamente necessario, da ora in poi tralasciamo i pedici sulle PDF e non
facciamo distinzioni fra variabili aleatorie e loro valori). Possiamo chiaramente denire
oggetti intermedi che sono probabilit`a rispetto a una variabile e PDF rispetto ad unaltra
(ad esempio integrando (x, y) rispetto a x in un intervallo A).
2.1. DEFINIZIONI FONDAMENTALI 9
Deniamo di seguito la probabilit`a condizionata a B dellevento A:
P(A[B) = P(A B)/P(B). (2.6)
Essenzialmente, si tratta della probabilit`a dellevento A considerando come spazio dei
campioni levento B. Notare che di nuovo possiamo generalizzare a PDF:
(x[y) = (x, y)/(y); P([x, x + dx][y) = (x[y)dx. (2.7)
(dimostrare questultimo risultato a partire dalla denizione di P([x, x +dx] [y, y +dy]).
Diciamo che due eventi A e B sono statisticamente indipendenti se P(A B) =
P(A)P(B). Il concetto di probabilit`a condizionata ci permette una comprensione intuitiva
di questa denizione. Se due eventi A e B sono statisticamente indipendenti abbiamo
infatti:
P(A[B) = P(A); P(B[A) = P(B). (2.8)
In altre parole, il condizionamento da un evento statisticamente indipendente non cambia
la probabilit`a. Nel caso di PDF: (x[y) = (x), cio`e il fatto che x si vericher` a o meno,
indipendentemente che si sia ottenuto o no y. Se abbiamo (x, y) = (x)(y) x, y, diciamo
che le variabili x e y sono statisticamente indipendenti.
Per ultimo notiamo la seguente relazione, che discende dalla (2.7):
(x) =
_
y
(x, y)dy; (y) =
_
x
(x, y)dx. (2.9)
Le PDF (x) e (y) sono dette in questo contesto marginali.
2.1.2 Il concetto di media
Deniamo la media di una funzione f di variabile aleatoria x tramite la seguente formula:
f =
_
(x)f(x)dx. (2.10)
Vediamo subito che ritroviamo la denizione standard nel caso di variabili discrete:
f =

i
P(x
i
)f(x
i
)
che pu`o essere ottenuta dalla (2.10) generalizzando in maniera opportuna la (2.4).
Possiamo fare medie a partire da PDF condizionate, ottenendo quindi medie condi-
zionate:
f[y =
_
(x)f(x[y)dx (2.11)
10 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
(notare che f[y `e ora una variabile aleatoria, dipendendo dal risultato di y).
Un po di ripasso di terminologia e notazioni. Tipicamente
x
x `e detta media
della PDF e
2
= (x
x
)
2
= x
2
x
2
`e detta varianza della PDF (
x
`e la deviazione
standard o RMS). La media x
n
`e detto momento n-esimo della PDF. La quantit`a fg
`e detta correlazione di f e g. Caso importante:
C
xy
= xy =
_
(x, y)xydxdy (2.12)
Notare che indipendenza statistica di x e y implica C
xy
= 0 ma non il viceversa (provare
a costruire un controesempio).
Un oggetto particolarmente importante di cui prendere la media `e la cos` detta funzione
indicatrice di un evento:

A
(x) =
_
1 se x A,
0 altrimenti.
(2.13)
Troviamo infatti subito

A
=
_
A
(x)dx = P(A). (2.14)
Il concetto si generalizza in dimensione maggiore di uno.
Possiamo denire la funzione indicatrice del valore della variabile aleatoria x, che
`e semplicemente la delta di Dirac:

x
(x) (x x)
x
= ( x). (2.15)
Le Eqs. (2.13-2.14) [e in certo qual modo anche la (2.15)] costituiscono il punto di partenza
per la determinazione statistica delle probabilit`a (e delle PDF) a partire dal concetto di
frequenza.
2.2 Entropia ed informazione
Se la probabilit`a di un evento parametrizza la nostra aspettativa che levento si verichi
o meno, la domanda che `e naturale porsi, `e il contenuto di informazione dei risultati di
un esperimento, portato dal conoscerne la funzione di probabilit`a. Per dire: dato un
esperimento del tipo testa o croce, `e evidente che ne sappiamo di pi` u se la probabilit`a
`e P(testa) = 1 e P(croce) = 0 (o viceversa), invece che se P(testa) = P(croce) = 1/2.
Shannon ha trovato un modo naturale di parametrizzare questo contenuto di informazione,
inventandosi una denizione di entropia, che non `e lentropia termodinamica, ne quella della
meccanica statistica, ma che in realt` a ha molto a che fare con entrambe. Come vedremo,
lentropia introdotta da Shannon, non parametrizza il contenuto di informazione di una
distribuzione, bens` quello di ignoranza, cio`e la quantit`a di informazione che bisgna
supplire per sapere con esattezza il risultato di un esperimento.
2.2. ENTROPIA ED INFORMAZIONE 11

6
5
4
3
2
1
Figura 2.1: Partizione di un dominio bidimensionale (spazio dei campioni).
Iniziamo subito con il chiarire che il contenuto di informazione dipende dal tipo di
esperimento. Nel caso testa o croce, la questione pu`o sembrare ovvia, ma nel caso che
ci riguarda, quello di variabili random, non `e cos`: non possiamo misurare una variabile
random con innita precisione. Di fatto possiamo misurare soltanto eventi. Introduciamo
subito, quindi, il concetto di partizione di (vedi Fig. 2.1) come una collezione di eventi
A
i
mutualmente esclusivi, tali che la loro unione `e :
T = A
i
, i = 1, . . . ; A
i
A
j
= se i ,= j;
i
A
i
= . (2.16)
Deniamo quindi lentropia di Shannon della distribuzione P riferita alla partizione T
di tramite la formula
S[P] =

i
P(A
i
) ln P(A
i
) = ln P, (2.17)
dove la notazione S[P] `e una abbreviazione per S(P
i
, i = 1, . . .). Vediamo subito che nel
caso testa o croce le cose tornano. In questo caso, banalmente T testa, croce. Se
P(testa) = 1 oppure P(croce) = 1 (moneta truccata) abbiamo evidentemente S[P] = 0
(sappiamo il risultato; ignoranza minima; ma anche entropia minima, giacche 0 P 1
ln P 0 S[P] 0). Nel caso P(testa) = P(croce) = 1/2, abbiamo invece S[P] = ln 2
(massima ignoranza).
Di fatto le cose tornano molto bene. Cerchiamo di capire il perche.
Laspetto centrale e che lentropia `e nella forma
S[P] =

i
g(P
i
),
con g(P) una funzione convessa dellargomento. In altre parole vale la relazione
g(P
i
) g(P), (2.18)
dove x =
1
N

N
i=1
x
i
`e la media aritmetica degli x
i
. Il risultato `e mostrato in Fig. 2.2, nel
caso di due eventi A
1
e A
2
, aventi probabilit`a rispettivamente P
1
e P
2
. Il loro contributo
allentropia `e g(P
1
) +g(P
2
) = 2g(P). Se le probabilit`a fossero uguali, mantenendo le altre
probabilit`a P
i
, i = 3, . . . invariate (questo massimizza lignoranza solo rispetto ai primi due
12 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
g(P)
g(P)
P P
1 2
P
g
1 P
Figura 2.2: Rappresentazione graca della relazione (2.18) nel caso N = 2.
eventi), avremmo P(A
1
) = P(A
2
) = (P
1
+P
2
)/2 = P. In tal caso il contributo allentropia
sarebbe 2g(P) 2g(P).
Questo esempio ci d`a unillustrazione come lentropia cresca con lignoranza, e sia ne-
cessariamente massima quando tutti gli eventi hanno ugual probabilit`a. E come ci`o sia
conseguenza del fatto che S[P] `e una somma di funzioni convesse della probabilit`a degli
eventi.
Linformazione che deve essere supplita per conoscere lo stato del sistema devessere di
nuovo aumentata se raniamo la partizione, per esempio se spacchiamo levento A
6
in Fig.
2.1 in due eventi A
61
e A
62
con A
61
A
62
= e A
61
A
62
= A
6
. Vediamo che di nuovo
lentropia di Shannon si comporta bene ed aumenta in risposta al ranamento. Infatti,
il contributo alla entropia rimane g(A
6
) solo se tutta la probabilit`a di A
6
si concentra in
uno solo dei due nuovi sotto-eventi. In caso contrario, per quanto detto precedentemente,
a causa della convessit`a di g, S dovr`a aumentare.
Unaltra propriet` a, che ci immaginiamo debba godere un concetto di informazione pro-
priamente denito, `e che linformazione riferita a due sistemi indipendenti sia la somma
delle informazioni riferite singolarmente a ciascuno. Quindi lentropia deve essere additi-
va se =
A

B
, T = T
A
T
B
e tutti gli eventi sono statisticamente indipendenti:
P(A
i
, B
j
) = P
A
(A
i
)P
B
(B
j
). Da qui troviamo:
S[P] =

ij
P(A
i
, B
j
) ln(P(A
i
, B
j
) =
=

ij
[P
A
(A
i
)P
B
(B
j
) ln P
B
(B
j
) + P
B
(B
i
)P
A
(A
j
) ln P
A
(A
j
)]
=

i
[P
B
(B
i
) ln P
B
(B
i
) + P
A
(A
i
) ln P
A
(A
i
)] = S[P
B
] + S[P
A
]. (2.19)
Vediamo quindi che il logaritmo `e importante...
Nel tragitto a ritroso che compiremo dalla entropia di Shannon alla entropia termodi-
namica, vedremo che la propriet` a di addittivit` a legata alla funzione logaritmica `e essenziale
per aveve una termodinamica estensiva. La propriet` a di convessit`a `e in certo qual modo
pi` u fondamentale ed ha a che fare con la possibilit`a di denire un concetto di equilibrio ter-
modinamico. Un ambito di ricerca piuttosto attivo (e controverso) riguarda capire se per
2.3. SOMME DI VARIABILI ALEATORIE 13
sistemi fortemente correlati (per cui una suddivisione in parti poco interagenti, al contrario
che in un gas, non `e possibile), potrebbe aver senso una termodinamica non estensiva,
costruita a partire da una denizione di entropia senza logaritmi.
Ritornando alla denizione originaria di entropia, Eq. (2.17), ci si potrebbe domandare
se `e possibile in qualche maniera denire una entropia non associata alla scelta di una
partizione. La risposta `e ni. Esiste s` una particolare scelta di partizione uniforme (in
1D sarebbe A
i
= [x
i
, x
i+1
] con x
i
= ix), per cui
S[P]
_
(x) ln((x)x)dx =
_
(x) ln (x)dx ln x (2.20)
e la funzione S

=
_
(x) ln (x)dx `e detta entropia di PDF. A parte la dicolt`a evidente
nella denizione di S[P] nel caso di una partizione innitamente ne, una partizione in
volumetti innitesimi, come vedremo ben presto, non `e per`o la pi` u appropriata per i
sistemi a cui siamo interessati. La scelta della partizione nella denizione dellentropia non
`e irrilevante.
2.3 Somme di variabili aleatorie
Oggetto della statistica `e la stima di medie e probabilit`a, a partire da medie campionarie
e frequenze. Di fatto, esiste una interpretazione empirica della probabilit`a come limite di
frequenze e medie campionarie, considerata pi` u intuitiva (ma di sicuro meno soddisfacente)
di quella assiomatica standard. Il concetto di media campionaria `e denito nella maniera
seguente: data una sequenza di esperimenti identici e indipendenti (tali cio`e che i valori
della variabile aleatoria misurata in ciascun esperimento, siano statisticamente indipendenti
e identicamente distribuiti, abbreviato, i.i.d.), si denisce media campionaria x
N
della
variabile aleatoria x tramite la formula
x
N
=
1
N
N

k=1
x
k
, (2.21)
dove x
k
`e il risultato del k-esimo esperimento. La frequenza

P
N
(A) dellevento A `e
ottenuta in maniera analoga a partire dalla denizione di funzione indicatrice (2.13) e
dalla (2.14)

P
N
(A) =
A

N
. (2.22)
La connessione fra la denizione di media campionaria e lo studio dei sistemi termodina-
mici risiede nel fatto che questi ultimi sono descritti da grandezze (ad esempio lenergia,
oppure il numero di molecole in un volume), che sono somme delle corrispondenti variabili
delle singole molecole (energia della molecola; la funzione indicatrice riferita al volume della
molecola). Se le molecole sono in prima approssimazione indipendenti, lenergia termica
14 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
nel volume, il numero di molecole, si comporteranno come somme di un gran numero di va-
riabili aleatorie indipendenti, e, se il sistema `e omogeneo, esse saranno anche identicamente
distribuite. Precisamente come la somma che appare a lato destro della (2.21).
Ci si riferisce di solito alla condizione che le uttuazioni nel valore di una grandezza
macroscopica X
N
diventino trascurabili nel limite di N molto grande, come a una con-
dizione di limite termodinamico. Sotto le ipotesi indicate sopra, i concetti di limite
termodinamico e di legge dei grandi numeri diventano equivalenti.
In realt` a, una media campionaria, cos` come una somma di varialbili aleatorie, sono an-
cora variabili aleatorie. Il fatto che le uttuazioni intorno alla media diventino trascurabili
per N grande `e il contenuto della ben nota legge dei grandi numeri. Nel caso di una
somma di variabili aleatorie i.i.d. X
N
=

N
i=1
x
i
, con media e varianza nite:

X
N
= N
x
;
X
N
= N
1/2

x
(2.23)
e quindi
X
N
/
X
N
= N
1/2

x
/
x
. In altre parole, la uttuazione relativa X
N
/X
N
`e
O(N
1/2
) e X
N
cessa di essere aleatoria nel limite N . Se pensiamo a X
N
co-
me a una variabile sica macroscopica, abbiamo evidentemente una condizione di limite
termodinamico.
Verichiamo la (2.23) in maniera esplicita.
Abbiamo immediatamente per linearit`a della operazione di media
X
N
= N
X
. Calco-
liamo la varianza di X
N
:

2
X
N
= [
N

i=1
(x
i

x
)]
2
=
N

ij=1
(x
i

x
)(x
j

x
)
Essendo per` o le dierenti x
i
statisticamente indipendenti, abbiamo per j ,= j (x
i

x
)(x
j

x
) = (x
i

x
)(x
j

x
) = 0 e quindi

2
X
N
=
N

i=1
(x
i

x
)
2
= N
2
x
,
che ci d`a la seconda delle (2.23). Notiamo che dividendo la (2.23) per N, ritroviamo la
legge dei grandi numeri nella sua formulazione standard:
x
N
= x;
2
x
N
=

2
x
N
. (2.24)
Un ulteriore risultato, detto teorema del limite centrale, ci dice che le deviazioni X
N

X
N
,
nel limite di grandi N, sono distribuite secondo una Gaussiana:
(X
N
) =
1
(2)
1/2

X
N
exp
_

(X
N

X
N
)
2
2
2
X
N
_
. (2.25)
La dimostrazione generale della (2.25) pu`o essere trovata ad esempio nel libro di Meccanica
Statistica di Reichl, oppure nel capitolo sulle uttuazioni di densit` a del testo Fisica Sta-
tistica di Landau e Lifstits. Una delle conseguenze delle (2.23-2.25) `e che per N grande,
2.3. SOMME DI VARIABILI ALEATORIE 15
una misura di X
N
dar` a quasi sempre un risultato

X
N
X
N
, il valore di equilibrio della
grandezza macroscopica X
N
, cio`e il valore pi` u probabile di X
N
.
Nota Vale il risultato generale che la somma di variabili Gaussiane `e essa stessa una va-
riabile Gaussiana. Il modo pi` u semplice di dimostrarlo `e lavorando in spazio di Fourier. Se
z = x +y, con x e y variabili Gaussiane (`e suciente considerare il caso in cui hanno en-
trambe media nulla), possiamo scrivere
z
(z) = (x+y z) =
_
dx
_
dy
x
(x)
y
(y)(x+
y z) =
_
dx
x
(x)
y
(z x). Abbiamo per le trasformate di Fourier di
x
e
y
:
x
(k) =
(2
2
x
)
1/2
_
+

exp(x
2
/(2
2
x
) ikx)dx = exp((1/2)
2
x
x
2
) e analoga espressione per

y
(k). Da qui, sfruttando il fatto che la trasformata di Fourier di una convoluzione `e
un prodotto:
z
(k) =
x
(k)
y
(k) = exp[(1/2)(
2
x
+
2
y
)k
2
], che mi dice che
z
(z) `e una
Gaussiana con varianza
2
z
=
2
x
+
2
y
.
Come esempio di limite termodinamico, consideriamo il caso in cui la variabile aleatoria
associata alla molecola k-esima `e
Va
(x
k
) con con x
k
la coordinata della molecola, e V
a
un
sottovolume (macroscopico) del volume totale V occupato dal gas. La variabile termodi-
namica sar`a perci`o il numero di molecole nel volume V
a
(dal punto di vista probabilitico,
il problema di determinare il numero di punti distribuiti a caso che cadono in un certo
dominio V
a
`e detto problema dei punti di Poisson).
Supponendo il sistema spazialmente omogeneo, la probabilit`a di trovare una molecola
in V
a
sar`a
P(x
k
V
a
)
Va
= V
a
/V
e il numero medio di molecole in V
a
sar`a
N
a
= N
Va
= NV
a
/V nV
a
,
dove n = N/V `e la densit` a media del gas in V . Per calcolare la uttuazione, dobbiamo
determinare
2

Va
. Abbiamo

2
Va
=
Va
= V
a
/V
e pertanto

Va
=
2
Va

Va

2
= V
a
/V (1 V
a
/V ).
Se V viene mandato ad innito e V
a
rimane ssato, possiamo trascurare il termine qua-
dratico in V
a
/V e troviamo per la uttuazione

2
Na
= N
2

Va
N
a

N
a
N
a
= O(N
1/2
a
). (2.26)
In particolare, la uttuazione di densit` a in un volume V
a
sar`a n
a
= N
a
/V
a
= (V
a
n)
1/2
n.
2.3.1 Entropia e limite termodinamico
Lentropia di Shannon pu`o essere usata per fornire un concetto di distanza tra una distri-
buzione teorica e una misurata, cio`e tra una probabilit`a P e la corrispondente frequenza
16 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA

P
N
, denite a partire da una partizione di . Il caso pi` u semplice `e quello in cui la
partizione T

= A
1
, . . . A
K
`e scelta in modo tale che P(A
i
) = 1/K i, e quindi len-
tropia S[P] `e massima. In questo caso, evidentemente, la distribuzione delle frequenze

P
N
(A
i
), i = 1 . . . K pi` u probabile, che `e per la legge dei grandi numeri

P
N
(A
i
) = P(A
i
),
`e anche quella che massimizza lentropia S[

P
N
].
Questa condizione di massimo `e messa subito in connessione con la condizione di limite
termodinamico. Consideriamo di nuovo, per semplicit`a, lesempio di N molecole indipen-
denti in un volume V . Suddividiamo il volume in sottovolumi identici V
a
, a = 1 . . . K, cos`
che

P(V
a
) = V
a
/V = 1/K `e la probabilit`a a priori di trovare una molecola in V
a
. Vediamo
subito che la condizione di massima entropia sulle frequenze in un campione si trasferisce in
questo caso in una identica condizione sui numeri di occupazione relativi

P
N
(V
a
) = N
a
/N
dei sottovolumi. (P
N
e

P
N
sono di fatto entrambe frequenze; lunica dierenza tra le due,
`e che la prima `e riferita a diverse misure su una singola molecola). Vediamo in questo
caso che la condizione S[

P
N
] = MAX individua la distribuzione di molecole nei volumetti
pi` u probabile, che sar`a nel limite termodinamico, a meno di uttuazioni O(N
1/2
a
), anche
lunica osservata in pratica, che coincide con lentropia di Shannon S[

P] calcolata a partire
dalla probabilit`a a priori

P(V
a
) = 1/K.
Possiamo introdurre lentropia S[P] riferita alla distribuzione generica P(V
a
), che descri-
ver` a una situazione in generale non di equilibrio (ad esempio, solo una parte dei volumetti
potrebbe contenere molecole). Lapproccio allequilibrio sar`a descritto evidentemente da
una dipendenza dal tempo in P(V
a
) = P(V
a
, t), e, da quanto si `e detto in precedenza:
S[P(t)] < S[

P]. Vediamo quindi che lapproccio allequilibrio sar`a associato a un processo
di crescita di entropia. (Ricordiamo come la presenza di un massimo di entropia allequi-
librio, sia una conseguenza della nostra scelta di una partizione uniforme del volume V in
volumetti identici V
a
; la scelta della partizione, come gi` a si `e detto, e come si vedr` a pi` u
in dettaglio nella Sez. 3.2.1, non `e irrilevante). Possiamo evidentemente ripetere questo
tipo di ragionamenti per

P
N
; ci aspettiamo in questo caso che il processo di crescita di
entropia sia accompagnato da uttuazioni, che in genere non scompariranno nel limite
termodinamico (uttuazioni turbolente).
Nota Come si vedr` a nella Sez. 3.2.2, S(

P
N
) denisce essenzialmente lentropia di Bol-
tzmann. Lentropia di Shannon riferita ad un insieme di N particelle si ottiene a par-
tire, non dalla distribuzione ad una particella

P(V
a
), bens` dalla distribuzione congiun-
ta P(N
a
, a = 1 . . . K) delle occupazioni dei diversi volumetti, oppure da quella delle
collocazioni delle singole molecole nei vari volumetti P(V
a
i
, i = 1 . . . N).
Nota La distanza tra una distribuzione misurata e una teorica `e parametrizzata di solito
tramite la verosimiglianza, cio`e la probabilit`a che la data distribuzione sperimentale si
realizzi. Abbiamo visto come massima verosimiglianza, nel caso di eventi equiprobabili, sia
associata a massima entropia. Vogliamo estendere lanalisi a una distribuzione generica
P
a
, a = 1, . . . K. Supponiamo di avere un campione di N prove. Vogliamo determinare
la probabilit`a P(N
a
),

K
a=1
N
a
= N che ciascuno dei risultati a si verichi N
a
volte.
2.4. PROCESSI STOCASTICI E CAMPI RANDOM 17
Questa non `e altro che la distribuzione multinomiale:
P(N
a
) = N!
K

a=1
P
Na
a
N
a
!
.
Essendo il logaritmo una funzione monotona crescente, possiamo determinare il massimo
di P(N
a
) a partire dal suo logaritmo. Ora, per N sucientemente grande, espressioni
come ln N! e ln N
a
!, possono essere approssimate utilizzando la formula di Stirling ln N!
N(ln N 1). Da qui otteniamo, dopo un rapido calcolo:
ln P(N
a
) = ln
_
N!
K

a=1
P
Na
a
N
a
!
_
N(ln N 1) +
K

a=1
[N
a
ln P
a
N
a
(ln N
a
1)]
= N
K

a=1

P
a
ln(

P
a
/P
a
),
dove

P
a
= N
a
/N. La quantit` a H[P[

P] =

K
a=1

P
a
ln(

P
a
/P
a
) `e detta distanza di Kulbach-
Leibler fra le due distribuzioni

P
a
e P
a
, e pu` o essere vista come il contenuto addizionale
di informazione rispetto a P
a
, insito nel distribuire i risultati delle prove secondo

P
a
invece
che secondo P
a
. Questa quantit` a `e minima per

P
a
= P
a
, dove essa assume valore zero.
Verichiamo questo fatto sfruttando la diseguaglianza ln x x1, valida per 0 < x 1
(convincersene facendo il graco). Abbiamo infatti:
K

a=1

P
a
ln(

P
a
/P
a
)
K

a=1
(1 P
a
/

P
a
)

P
a
=
K

a=1
(

P
a
P
a
) = 0
che ci d`a H[P[

P] 0.
Notiamo come nel caso equiprobabile P
a
= 1/K, si ritrova il risultato che lentropia S[

P]
`e massima se

P
a
= 1/K (minima informazione aggiunta). Possiamo scrivere infatti in
questo caso H[P[

P] = ln KS[

P], dove ln K non `e altro che lentropia S[P] corrispondente
alla distribuzione P
a
= 1/K.
2.4 Processi stocastici e campi random
Lanalisi eettuata nellultima sezione ha fornito un quadro estremamente statico della
dinamica di un gas di N molecole in un volume V . Di fatto, lipotesi di equiprobabilit` a
dei volumetti V
a
che era stata adottata, presupponeva tacitamente condizioni di equili-
brio termodinamico. Lontano dallequilibrio le cose sarebbero evidentemente molte meno
statiche, con un processo di rilassamento caratterizzato tipicamente da uttuazioni delle
grandezze macroscopiche (quelle microscopiche hanno carattere uttuante sia in equilibrio
che non). Una descrizione probabilistica del fenomeno diventa quindi necessaria, e stru-
menti matematici in grado di descrivere campi uttuanti nello spazio e nel tempo, devono
essere introdotti. Alcuni esempi di processi che ci potrebbe capitare di voler descrivere:
18 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
1. Luscita di un generatore di rumore; oppure la posizione di un batterio in una capsula
di Petri; oppure la velocit`a del vento misurata da un anemometro.
2. I valori della velocit`a del vento a un dato istante, misurati in una certa regione
spaziale; oppure i valori di densit` a dei batteri nella capsula di Petri in questione a
un dato istante, ma in diverse posizioni.
3. I valori della velocit`a del vento a diversi istanti di tempo e posizioni spaziali. Eccetera.
Abbiamo a che fare con un insieme di valori casuali associati a diversi istanti di tempo
(caso 1); diverse posizioni spaziali (caso 2); diverse posizioni spaziali e istanti di tempo
(caso 3). Diamo pertanto le seguenti denizioni:
Si chiama processo stocastico una sequenza di variabili aleatorie indicizzate con il
tempo. Si ha un processo discreto se lindicizzazione `e discreta; per esempio, (t
n
),
t
n
= nt. Si ottiene un processo continuo, evidentemente, come limite t 0 di
un processo discreto.
Si parla di campo random, quando lindicizzazione `e fatta nello spazio (o nello
spazio tempo). Per esempio: (x
n
, t
m
).
Queste denizioni ci costringono a rivedere tutti i concetti di spazio dei campioni, risultato
di misura e probabilit`a, che abbiamo utilizzato sinora nel caso delle variabili aleatorie. Per
ssare le idee, ci concentriamo sul caso di un processo stocastico, essendo la generalizzazione
al caso di un campo random abbastanza naturale.
Osserviamo in primo luogo che, mentre il risultato di una misura, nel caso di una
variabile aleatoria, era un numero reale, nel caso di un processo stocastico, `e da intendersi
come risultato lintera sequenza di valori (t
n
), n = 1, 2, . . . assunti da agli istanti t
n
.
Per dire, nel caso di un generatore di rumore, lesperimento `e da intendersi laccensione
dello strumento e la registrazione dei dati in un intervallo di tempo, e non la misura di un
singolo dato a un dato istante t.
Chiamiamo realizzazione del processo stocastico, la sequenza (t
n
), n = 1, 2, . . .
risultante da un dato esperimento.
Vediamo che, mentre nel caso di una variabile aleatoria, era unintervallo dei reali,
nel caso di un processo stocastico, `e uno spazio di funzioni (di variabile discreta se il
processo discreto, di variabile reale se il processo `e continuo).
Abbiamo inoltre che, mentre una variabile aleatoria x era caratterizzata da una PDF
(x) che `e una funzione di variabile reale, nel caso di un processo stocastico discreto,
avremo una PDF nella forma ((t
n
), n = 1, 2 . . .), cio`e una funzione che generalizza
il caso di una PDF di un vettore random al caso in cui il vettore random pu`o avere un
numero arbitrario di componenti. Nel caso di un processo stocastico continuo, abbiamo
addirittura che la PDF, che in questo caso si indica solitamente utilizzando le parentesi
2.4. PROCESSI STOCASTICI E CAMPI RANDOM 19
quadre: [], `e un funzionale, cio`e una funzione che agisce da uno spazio di funzioni di
variabile reale [le (t)] al campo reale (i valori di ). Un esempio:
[] = A exp
_

_
T
0
[(t)[
2
dt
_
. (2.27)
`
E in generale dicile lavorare con oggetti come la (2.27). Possiamo provare a ottenere una
descrizione ridotta della statistica di , analoga a quella che si ottiene accontentandosi
nel dare media e varianza nel caso di una variabile aleatoria. Ecco alcuni esempi di oggetti
che potrebbero fornirci una tale descrizione ridotta:
((t)), ((t), (t

)), . . . , (2.28)
cio`e le PDF del valore di a istanti dati, e
(t), (t)(t

), . . . , (2.29)
che sono dette funzioni di correlazione della a un tempo, a due tempi, eccetera.
Lutilit`a delle funzioni di correlazione `e che ci permettono di parametrizzare in maniera
semplice il modo in cui la dipendenza statistica tra valori di a tempi diversi diminuisce
al crescere della separazione temporale. Abbiamo infatti per denizione:
(t)(t

) =
_
d(t)
_
d(t

) ((t), (t

))(t)(t

)
e nel caso di variabili statisticamente indipendenti, cio`e se ((t), (t

)) =
t
((t))
t
((t

)):
(t)(t

) = (t)(t

).
Un indicatore del grado di dipendenza statistica `e quindi fornito dalla quantit`a
C(t, t

) = (t)(t

) (t)(t

), (2.30)
che sar`a massima per t = t

, con C(t, t) =
2
(t)
, mentre ci si aspetta che tenda a zero per
[tt

[ . Possiamo introdurre un tempo di correlazione che ci dice per quali separazioni


temporali le correlazioni possono iniziare a considerarsi trascurabili. Di solito si utilizza la
denizione

(t) =
1
C(t, t)
_

0
C(t, t + )d (2.31)
[come dire, area sottesa da C(t, t + ) uguale base, cio`e

(t), per altezza, cio`e C(t, t)].


In termini di singola realizzazione del processo stocastico, il parametro

(t) ci dice essen-


zialmente quanto bisogna aspettare prima che (t + ) dierisca molto da (t). In altre
parole, il tempo di correlazione ci fornisce la scala di variazione temporale del processo
stocastico.
20 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
Le medie che compaiono nelle equazioni che abbiamo scritto sinora, possono essere
stimate attraverso il calcolo di medie campionarie. Dobbiamo ricordarci per` o che nel nostro
caso, queste medie campionarie sono di fatto medie su realizzazioni diverse (e indipendenti)
dello stesso processo stocastico. Ora, ci sono molte situazioni in cui il processo stocastico,
anche se descrive un qualche cosa che uttua nel tempo, pu`o essere caratterizzato da
una statistica che `e invece indipendente dal tempo; si parla in questo caso di statistica
stazionaria. Intendiamo con ci`o che la PDF congiunta ((t
1
), (t
2
), . . .) `e invariante per
traslazioni temporali:
1
((t
1
), (t
2
), . . .) = ((t
1
+ T), (t
2
+ T), . . .), T.
Questo implica naturalmente ((t)) = (), (t) = . . . e che le correlazioni di-
pendono solo dalle dierenze di tempo; in particolare C(t, t

) = C(t t

). Lesempio pi` u
semplice di processo stazionario che ci pu`o venire in mente, `e quello che si ottiene mettendo
in sequenza i risultati delle misure di una variabile aleatoria x: (t
n
) x
(n)
.
Nel caso di un processo stocastico costruito in questo modo, `e abbastanza evidente che
calcolare medie sulle realizzazioni come (t
n
)
N
= (1/N)

N
k=1

(k)
(t
n
), [
(k)
(t
n
) `e il valore
di (t
n
) nella n-esima realizzazione di ] diventa unoperazione inutilmente dispendiosa.
Si pu`o infatti stimare x, attraverso media campionaria x
N
= (1/N)

N
k=1
x
(k)
, a partire
da una sola realizzazione della . Questo ci conduce a introdurre un nuovo tipo di media,
la cos` detta media temporale:

T
=
1
T
_
T
0
(t)dt, (2.32)
dove lintegrale, nel caso di un processo discreto, `e sostituito dalla somma

n
(t
n
)t.
Ovviamente, nel caso in cui il processo stocastico `e il risultato di una sequenza di misure
indipendenti di una stessa variabile aleatoria, per costruzione, la media temporale e la
media campionaria sulla variabile aleatoria coincidono. Ci domandiamo nel caso generale,
quando una media temporale pu`o essere utilizzata per approssimare la media ..
Diciamo che un processo per cui la media temporale, per T , tende alla media
., gode della propriet`a ergodica.
Ci aspettiamo che le condizioni che permettono il soddisfacimento della propriet` a ergodica
siano:
Che i valori di ad istanti di tempo sucientemente lontani diventino statisticamente
indipendenti.
1
Per contro, si dice spesso che un processo stocastico ha raggiunto uno stato stazionario, quando
la PDF condizionata ((t
1
), (t
2
) . . . [(t
0
)), t
0
< t
1
< t
2
< . . ., di un processo stazionario, diventa
indipendente dal condizionamento a t
0
. Tipicamente questo richiede che si prenda il limite t
0
.
Notare come il fatto che un processo sia stazionario non implica necessariamente che uno stato stazionario
sia sempre raggiunto; vedere lesempio del ping-pong a pagina 28.
2.4. PROCESSI STOCASTICI E CAMPI RANDOM 21
Che il processo sia stazionario a scale di tempo sucientemente lunghe da contenere
molti intervalli di tempo tali che i valori di nei diversi intervalli siano indipendenti.
Che ovviamente siano soddisfatte le condizioni perche la legge dei grandi numeri sia
soddisfatta, e cio`e che la quantit`a di cui si calcola la media temporale abbia varianza
e media nite.
A questo punto, la media temporale diventa essenzialmente una media campionaria tra i
valori di nei diversi intervalli, dove si pu`o considerare approssimativamente costante.
Verichiamo questo risultato con un calcolo esplicito. Consideriamo il caso semplice
in cui lintegrale nella Eq. (2.31) `e nito (il risultato che segue pu`o essere generalizzato
al caso in cui

= , ma la correlazione decresce lo stesso allinnito). Supponiamo di


approssimare con
T
, e, in analogia con la legge dei grandi numeri, calcoliamo
T

e
2

T
. Scambiando media e integrale nellintegrale per
T
, otteniamo subito.

T
=
T
= .
Deniamo quindi

(t) = (t) lo scarto (o uttuazione rispetto alla media) e scriviamo:

T
=
1
T
2
_
T
0
dt
_
T
0
dt

(t)

(t

) =
1
T
2
_
T
0
dt
_
T
0
dt

C(t t

).
Ora, per T

, possiamo approssimare lintegrale in dt

, per quasi tutti i valori di t, con


un integrale tra [a t

= 0 e a t

= T, se [t t

, C(t t

), `e comunque gi` a nullo]:

1
T
2
_
T
0
dt
_
+

d C() =
2

T
C(0)
2

T

2

(2.33)
ed ho utilizzato la (2.31). La varianza della media temporale decresce con

/T, che gioca


quindi il ruolo del fattore 1/N nel caso della media campionaria.
2.4.1 Il teorema di Wiener-Khinchin
Nel caso di statistica stazionaria, una caratterizzazione alternativa delle propriet` a di un
processo stocastico (o di un campo random) pu`o essere ottenuta lavorando in spazio di
Fourier. Dato un processo stocastico x(t), possiamo denire la sua trasformata di Fourier:
x

=
_
+

x(t)e
it
dt. (2.34)
Dal punto di vista matematico, una simile espressione potrebbe avere senso solo se intesa
come una distribuzione. Dal punto di vista pratico, ci accontentiamo di interpretare la
(2.34) come una trasformata di Fourier in un dominio grande ssato [T/2, T/2] e per una
22 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
discretizzazione t sucientemente ne, ma anchessa ssata. Cos` come abbiamo calco-
lato le correlazioni del processo originario x(t), possiamo provare a calcolare le correlazioni
della sua trasformata di Fourier. Otteniamo il seguente risultato:
x

=
_
+

dt
_
+

dt

x(t)x(t

) exp[i(

+ t)]
=
_
+

dt
_
+

dt

C(t t

) exp[i(t t

) i( +

)t

],
dove si `e sfruttato la statistica stazionaria per scrivere C(t, t

) = C(t t

). Ora, lintegrale
(2)
1
_
+

dt

exp[i( +

)t

] non `e altro che una delle rappresentazioni della delta di


Dirac ( +

). Troviamo pertanto
x

= 2C

( +

) (2.35)
dove C

=
_
+

dtC(t) exp(it)dt, la trasformata di Fourier della funzione di correlazione


C(t), `e il cos` detto spettro di potenza di x(t). Questo `e il contenuto del teorema di
Wiener-Khinchin. Notiamo come lantitrasformata a separazione temporale nulla
x
2
C(0) =
_
+

d
2
C

fornisca essenzialmente una decomposizione spettrale della varianza x


2
. In svariati casi
x
2
pu`o essere interpretato come la potenza media di un segnale (x potrebbe essere ad
esempio il campo elettrico misurato vicino a unantenna). Il signicato di C

come densit` a
spettrale di potenza del segnale `e in questo caso evidente. Notiamo inoltre come per un
dominio nito abbiamo (0) (2)
1
_
T/2
T/2
dt = T/(2),
2
, che permette di interpretare
[x

[
2
= C

T
come la densit` a spettrale di energia a frequenza del segnale. (Si `e utilizzata la propriet` a
delle trasformate di Fourier di funzioni reali: x

= x

).
2.5 Fluttuazioni microscopiche e macroscopiche
Abbiamo visto nella Sez. 2.3.1, come la natura discreta a scala microscopica di un sistema
come un gas ideale, produca uttuazioni delle quantit`a termodinamiche. Queste uttua-
zioni diventano trascurabili nel limite termodinamico in cui il sistema (o la parte descritta
dalla quantit`a termodinamica), `e macroscopico. Abbiamo visto anche che i processi di
rilassamento allequilibrio sono caratterizzati spesso da uttuazioni casuali a scala ma-
croscopica (uttuazioni turbolente). Questa componente macroscopica delle uttuazioni
coesiste solitamente con quella dovuta alla discretezza del sistema.
2
Si ricorda che in un dominio nito la trasformata di Fourier viene rimpiazzata da una serie di Fourier.
La distanza dei modi T
1
`e anche quindi la larghezza della delta di Dirac
2.5. FLUTTUAZIONI MICROSCOPICHE E MACROSCOPICHE 23
Consideriamo lesempio di un gas in presenza di fenomeni di convenzione turbolenta.
In esso saranno presenti uttuazioni di temperatura, e quindi di densit` a. Queste uttua-
zioni si vericheranno a scale anche molto piccole, ma comunque sempre macroscopiche
(tipicamente dellordine della frazione di millimetro) rispetto a quella delle distanze fra le
molecole. Il valore locale n
fl
della densit` a identicher` a quindi (moltiplicato per il volume
V
fl
della uttuazione) il numero di molecole N
fl
della uttuazione. Possiamo a questo
punto suddividere la uttuazione in volumetti V
a
, cos` come avevamo fatto con il gas in
equilibrio nella Sez. 2.3.1, e domandarci il contenuto di molecole di ciascuno. Il risultato
sar`a che, allinterno di ciascun volumetto V
a
V
fl
, il numero di molecole N
a
uttuer`a
con ampiezza
Na
/N
a
(V
a
n
fl
)
1/2
. In altre parole, dal punto di vista dei volumetti, la
uttuazione pu`o essere visto come un sistema quasi in equilibrio, con densit` a media n
fl
e volume V
fl
. Vediamo in denitiva che uttuazioni discrete (microscopiche) e continue
(macroscopiche) possono essere entrambe presenti in sistemi fuori dallequilibrio.
In generale non `e detto che una separazione tra uttuazioni discrete e macroscopiche
esista. Di fatto, non `e neanche detto che uttuazioni microscopiche siano presenti in asso-
luto. Potrebbe per esempio succedere che le parti microscopiche del sistema interagiscano
con tale forza da inibire uttuazioni a scale inferiori a una certa soglia. Potrebbe poi succe-
dere che queste uttuazioni non siano trascurabili nemmeno allequilibrio, come si verica
in presenza di transizioni di fase di seconda specie (fenomeni di magnetizzazione e simili;
in questo caso, le parti microscopiche del sistema non sono molecole, bens` gli spin in un
reticolo). Questo genere di considerazioni, che sottointende la possibilit`a di correlazioni fra
le parti microscopiche del sistema, ci impone ripensare il concetto di limite termodinamico.
Ritorniamo ad interessarci al problema considerato nella Sez. 2.3.1, delle uttuazioni
nei numeri di molecole nei sottovolumi V
a
. Possiamo immaginare di ottenere questi numeri
a partire dallintegrale sopra il volume V
a
di una densit` a istantantea n(x, t), misurata a
qualche scala microscopica V V
a
: n(x, t) = N(x, t)/V . La densit` a sar`a un campo
random con media n = n = N/V . Sottraendo la media n, otteniamo un campo uttuante
a media nulla n(x, t) = n(x, t)n. Possiamo vedere che, nel caso di molecole indipendenti,
la funzione di correlazione per n(x, t) `e proporzionale a una delta di Dirac: C(x y) =
n(x, t) n(y, t) = n(x y). Per vericarlo, possiamo calcolare

2
Na
= (N
a
nV
A
)
2
=
_
Va
d
3
x
_
Va
d
3
y C(x y) = nV
a
, (2.36)
che corrisponde infatti alla (2.26).
Vogliamo generalizzare la (2.36) al caso in cui le parti microscopiche del sistema non
sono indipententi. Come si discuter`a pi` u in dettaglio in seguito (Sez. 4.2), una quantit`a
termodinamica pu`o essere essenzialmente di due tipi: del tipo del numero di molecole
(quantit`a estensiva) o del tipo della densit` a (quantit`a intensiva). Una quantit`a estensiva
F pu`o essere scritta in generale come integrale di qualche densit` a: F
a
(t) =
_
Va

f(x, t)d
3
x, e
possiamo ripetere i ragionamenti utilizzati per ottenere la (2.36), ed estenderli, come fatto
nella Sez. 2.3.1, al caso alla rispettiva densit` a mediata su V
a
: f
a
= F
a
/V
a
. Supponiamo
che la lunghezza di correlazione per

f (la scala al di sotto della quale le parti microscopiche
24 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
del sistema non sono indipendenti) sia
f
. Una semplice generalizzazione della (2.33) ci d`a


f
Va

3
f
V
a

f

F
a
F
a

3
f
V
a
_1
2

f
Va
.
Vediamo quindi che, anche in presenza di correlazioni macroscopiche, un limite termodi-
namico sia comunque possibile, `e necessario che

f
< , e che le dimensioni del sistema
siano
f
.
2.6 Probabilit`a dipendenti dal tempo
Il passaggio da una descrizione microscopica di un sistema ad una macroscopica signica
in buona sostanza tralasciare una gran parte delle informazioni sullo stato istantaneo del
sistema. Abbiamo visto che mediando a scale sucientemente grandi, si potrebbe rag-
giungere un limite termodinamico in cui il sistema (almeno vicino allequilibrio) `e descritto
da quantit`a che di nuovo obbediscono equazioni deterministiche (per esempio, la legge di
stato dei gas, oppure lequazione del calore). Se per` o ci limitiamo a considerare scale so-
lo di poco superiori a quella di una piena descrizione microscopica, una tale descrizione
diventa evidentemente impossibile. Analogamente se ci interessiamo a situazioni di forte
non-equilibrio in cui le uttuazioni delle variabili macroscopiche diventano importanti.
Ci domandiamo come procedere per costruire un processo stocastico che modelli in
maniera soddisfacente situazioni come quelle considerate. Dal punto di vista dinamico, il
problema `e essenzialmente determinare levoluzione del processo (o meglio, determinarne
la probabilit`a), data la storia pregressa del processo in questione. Il centro dellanalisi
sar`a necessariamente la probabilit`a delle realizzazioni del processo stocastico, che, come
abbiamo visto, fornisce una descrizione completa della statistica del processo in questione.
Per ragioni di semplicit`a (e altre ragioni di carattere concettuale che approfondiremo
fra breve), ci concentriamo sul caso di processi stocastici a valori discreti e a tempi discreti.
Dato un processo stocastico
k
(t
k
), utilizziamo quindi la notazione
P(n
i
; i = 0, 1, . . .) P((t
i
) [
n
,
n+1
], i = 0, 1, . . .); t
i
= it,
n
= n.
Chiamiamo gli intervalli [
n
,
n+1
] stati del sistema. Ci poniamo la seguente domanda:
Qual`e la probabilit`a di un certo stato n
i+1
al tempo t
i+1
data una certa storia
pregressa n
k
; k = 0, 1, . . . , i?
Questa `e una probabilit`a condizionata, legata alla probabilit`a di realizzazione dalla rela-
zione standard:
P(n
i+1
[n
k
; k = 0, 1, . . . i) =
P(n
k
; k = 0, 1, . . . , i + 1)
P(n
k
; k = 0, 1, . . . , i)
.
Considereremo solo due casi chiave:
2.6. PROBABILIT
`
A DIPENDENTI DAL TEMPO 25
Sistemi totalmente scorrelati (ad esempio il risultato del lancio di una moneta; se
viene testa vale uno, se viene croce viene 1):
P(n
i+1
[n
k
; k = 0, 1, . . . i) = P(n
i+1
).
Sistemi in cui conoscenza dello stato a un certo istante, rende inutile linformazione
sugli stati precedenti (esempio: il cos` detto camminatore random, che ad ogni istante
fa un passo avanti o indietro a seconda del lancio della moneta. La posizione corrente
del camminatore dipende solo dalla sua posizione precedente e dallultimo passo
eettuato; dove il camminatore si trovase in precedenza `e completamente irrilevante).
In formule:
P(n
i+1
[n
k
; k = 0, 1, . . . i) = P(n
i+1
[n
i
). (2.37)
Un processo con simili caratteristiche `e detto un processo Markoviano.
I processi Markoviani ci forniscono uno strumento sucientemente semplice per modellare
il comportamento dei sistemi sici di cui ci interesseremo lungo il corso. La probabilit`a
P(n
i+1
[n
i
) `e detta una probabilit`a di transizione, e nel caso omogeneo nel tempo in cui
questa `e indipendente da i, utilizzeremo spesso la notazione
P(k m) P(n
i+1
= m[n
i
= k).
Consideriamo con un po pi` u di attenzione il cammino random, di cui abbiamo dato un
esempio qui sopra. Nel caso in questione, n
i
rappresenta la casella dove si trova il cammina-
tore allistante t
i
e abbiamo evidentemente (se la moneta non `e truccata) P(n
i+1
[n
i
) = 1/2
se n
i+1
= n
i
1 e zero altrimenti. Ci domandiamo qual`e la probabilit`a P(n
i
[n
0
) del
camminatore di trovarsi in n
i
al tempo t
i
, se al tempo zero si trovava in n
0
.
Vediamo che abbiamo a che fare con un primo esempio di probabilit`a dipendente
dal tempo, perche se P(n
0
= k[n
0
= j) =
kj
, cio`e la probabilit`a `e concentrata in n
0
= j,
a un tempo successivo t
i
, il camminatore potr` a trovarsi in una qualsiasi casella compresa
tra j i e j + i. Vediamo quindi che la distribuzione di probabilit`a del camminatore
si sparpaglia a passare del tempo. Il punto della questione, evidentemente, sta tutto nel
trovare delle equazioni di evoluzione per queste probabilit`a dipendenti dal tempo, analoghe
alle equazioni del moto per un sistema deterministico.
Nel caso dei processi Markoviani, loperazione `e abbastanza semplice. Abbiamo infatti,
dalla (2.37):
P(n
i+1
, n
i
, n
0
) = P(n
i+1
[n
i
, n
0
)P(n
i
[n
0
)P(n
0
) = P(n
i+1
[n
i
)P(n
i
[n
0
)P(n
0
)
e quindi
P(n
i+1
, n
i
[n
0
) = P(n
i+1
[n
i
)P(n
i
[n
0
),
da cui otteniamo, sommando sugli stati intermedi, la seguente equazione di Chapman-
Kolmogorov:
P(n
i+1
[n
0
) =

n
i
P(n
i+1
[n
i
)P(n
i
[n
0
). (2.38)
26 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
Detto in parole: la probabilit`a di trovare allistante dato il sistema in un certo stato si
ottiene sommando sulle probabilit`a che questo si trovasse in tutti possibili stati allistante
precedente, pesate sulla probabilit`a di transizione dallo stato precedente a quello corrente.
Facciamo subito le seguenti osservazioni:
Noi possiamo moltiplicare ambo i lati della equazione di Chapman-Kolmogorov (2.38)
per una probabilit`a iniziale P
0
(n
0
) e sommare su P
0
(n
0
); otterremo la seguente varian-
te della equazione di Chapman-Kolmogorov per una generica probabilit`a dipendente
dal tempo:
P(n
i
) =

n
0
P(n
i
[n
0
)P
0
(n
0
)

`
E importante capire che la P
0
(n
0
) `e arbitraria; nel caso del camminatore random
potremmo domandarci ad esempio come si distribuirebbe nel tempo un gruppo di
camminatori distribuiti inizialmente in maniera uniforme nelle caselle comprese tra
zero e dieci.
Per determinare la probabilit`a che il sistema si trovi in un certo stato al tempo dato,
dobbiamo quindi in genere assegnare una distribuzione di probabilit`a iniziale. Nota
bene che la scelta `e nostra, non appartiene al processo stocastico: ci`o che `e ssato
dal processo stocastico `e solo la probabilit`a di transizione.
Notiamo inne che, se le probabilit`a di transizione sono indipendenti dal tempo,
P(n
i+1
=m[n
i
=q) = P(q m), e P
0
(n) `e una soluzione stazionaria della equazione
di Chapman-Kolmogorov, P(n
i
) = P
0
(n
i
), allora la statistica del processo sar`a sta-
zionaria: P(n
i
=m, n
j
=q, . . .) = P(n
i+k
=m, n
j+k
=q, . . .) k (provare a dimostrarlo).
Ritorniamo ad interessarci al camminatore random, che, detto incidentalmente, sar`a un
sistema con cui avremo a che fare per tutta la durata del corso. Supponiamo che il cam-
minatore possa trovarsi in caselle n = 0, 1, . . . , N disposte ad anello, cos` che il punto
N coincide con zero. Supponiamo inoltre che il camminatore invece di essere costretto a
saltare, sia caratterizzato da una probabilit`a P
J
< 1/2 di salto avanti e di salto indietro e
una probabilit`a 1 2P
J
di restare nella casella corrente (questo serve per eliminare com-
plicazioni irritanti del tipo che caselle pari sono raggiunte a partire da n
0
pari solo a tempi
pari e viceversa).
Supponiamo che il nostro camminatore sia inizialmente in una certa casella n
0
. Abbia-
mo visto che al passare del tempo, la distribuzione di probabilit`a, inizialmente concentrata
in n
0
, si sparpaglier`a. Una prima conseguenza evidente `e che lentropia del sistema, denita
a partire da P(t) cresce al passare del tempo.
Sappiamo per` o che esiste una congurazione ad entropia massima, che `e la distribuzione
equiprobabile P(n) = 1/N. Ci aspettiamo quindi che se prendessimo come distribuzione
iniziale P(n
0
) = 1/N, questa rimarrebbe costante nel tempo, il che `e abbastanza compren-
sibile, visto che non ci sono distribuzioni pi` u sparpagliate (cio`e ad entropia pi` u alta)
della distribuzione uniforme. In altre parole, la distribuzione uniforme `e stazionaria. (In
2.6. PROBABILIT
`
A DIPENDENTI DAL TEMPO 27
eetti, se distribuiamo un ugual numero di camminatori casella per casella, vediamo che
se in media, dalla casella n a quella n+1, salta nel tempo t una frazione P
J
, nello stesso
tempo in media, un identica frazione salter`a da n + 1 a n).
Possiamo per` o ottenere un risultato pi` u forte.
Vediamo infatti che se due caselle vicine n ed n + 1 contengono numeri diversi M
n
<
M
n+1
di camminatori, il numero di camminatori che si sposteranno da n + 1 a n sar`a
pi` u alto (in media) che il viceversa, e la dierenza nel numero di camminatori tender`a a
diminuire. In altre parole, la distribuzione uniforme non `e solo stazionaria, ma `e anche
quella secondo la quale tendono a disporsi i camminatori a tempi sucientemente lunghi.
Riassumendo:
La probabilit`a P(n
i
[n
0
) di trovare un camminatore in n
i
al tempo t
i
a partire da
una qualsiasi posizione iniziale n
0
tende per i alla distribuzione uniforme
P(n
i
) = 1/N.
Questa distribuzione risulta essere una soluzione stazionaria della equazione di Chapman-
Kolmogorov (vericarlo!)
Abbiamo quindi la seguente denizione
Quando la probabilit`a condizionata P(n
i
= m[n
0
) tende, per i , a un limite
P(m) indipendente dal tempo e dalla condizione iniziale, si dice che il sistema possiede
uno stato di equilibrio statistico e la P(m) `e detta distribuzione dequilibrio.
Nota bene che se il sistema possiede uno stato di equilibrio statistico, esso verr`a raggiunto
a partire da qualsiasi distribuzione iniziale P. Infatti:
lim
i
P(n
i
= m) = lim
i

n
0
P(n
0
)P(n
i
= m[n
0
) =

n
0
P(n
0
)P(m) = P(m).
Come vedremo, i sistemi per cui ha senso pensare ad una descrizione termodinamica sono
caratterizzati da una legge di aumento di entropia e di solito sono anche caratterizzati dalla
presenza di un unico stato di equilibrio (o perlomeno, per semplicarsi la vita, si suppone
di solito che lo siano).
Va subito detto che esistono sistemi interessanti in cui lentropia decresce a passare
del tempo. E analogamente, vi sono sistemi che non sono caratterizzati da un equilibrio
statistico unico (`e per` o possibile dimostrare, che lequazione di Chapman-Kolmogorov am-
mette sempre una soluzione stazionaria; tutti i processi Markoviani posseggono quindi una
distribuzione stazionaria, anche se non `e una distribuzione di equilibrio). Vediamo alcuni
esempi:
Levoluzione di una popolazione sterile, la quale pu`o essere descritta da un processo
stocastico N
i
, con N
i
il numero di individui in vita allistante i. Supponiamo che
inizialmente abbiamo N
0
individui. Al passare del tempo questi iniziano a morire,
con il risultato che, mentre inizialmente la distribuzione `e concentrata in N
0
, per
28 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
i > 0, altri valori N < N
0
diventano via via possibili. Quindi inizialmente la P(N
i
)
si sparpaglia e lentropia cresce. Per tempi lunghi, per` o, la popolazione si estingue,
e abbiamo la distribuzione dequilibrio P(N) =
N0
. Lentropia scende di nuovo a
zero.
Il ping-pong: un sistema a due stati 0, 1 con probabilit`a di transizione P(0 1) =
P(1 0) = 1. Quindi, la pallina salta da zero a uno senza interruzione. Ora, se
parto da 0, avr`o che P(0) sar`a per sempre 0 o 1 a seconda che i `e dispari o pari, e
viceversa se parto da 1. Quindi, il sistema non ammette equilibrio statistico. Nota
per` o che se parto da una distribuzione iniziale P(n
0
) = 1/2 per n
0
= 0, 1, avr`o
P(n
i
) = 1/2 anche per i > 0 cos` che la P(n
i
) `e stazionaria.
Il camminatore random in una scatola con una parete in mezzo.
`
E chiaro che se
il camminatore parte da una met`a di una scatola, la distribuzione di equilibrio sar`a
uniforme da quel lato e zero nellaltro, e viceversa. Abbiamo quindi una distribuzione
di equilibrio che non `e unica e dipende dalla condizione iniziale.
2.7 Il Coarse graining
Sino ad ora ci siamo mantenuti abbastanza sulle generali, senza farci domande sulla natura
dello spazio degli stati n
i
su cui si evolve il processo stocastico, o sullorigine dinamica di
oggetti, come la probabilit`a di transizione P(n
i+1
[n
i
). Una descrizione attraverso processi
stocastici di un sistema con una dinamica microscopica, `e molto spesso il risultato di una
operazione cos` detta di coarse graining, a partire da una dinamica microscopica, che in
linea di principio potrebbe anche essere deterministica (ma solitamente troppo dicile da
descrivere). La procedura pu`o essere esemplicata come segue:
Identicazione di una microscala al di sotto della quale i dettagli della dinamica sono
supposti sconosciuti. Nel caso di un gas, potrebbe trattarsi della scala molecolare
(descrizione attraverso equazioni di Newton delle molecole).
Denizione (se necessario) di una mesoscala dove la dinamica `e casuale, e meno
complicata che alla microscala. Esecuzione quindi di una operazione di coarse grai-
ning, in cui le propriet` a di microscala sono ulteriormente mediate. Di nuovo nel
caso del gas, la mesoscala potrebbe essere individuata dal cammino libero medio
(descrizione attraverso equazione di Boltzmann per il gas).
Vediamo un esempio di come unoperazione di coarse graining pu`o portare a una sem-
plicazione della dinamica. Immaginiamo di trovarci qualcosa di simile a un cammino
random, in cui la lunghezza dei passi pu`o variare, e in pi` u questi sono correlati nel tempo.
Immaginiamo per semplicare che la correlazione temporale esista solo fra salti successivi:
n
i
n
i1
= c
2
n
, 0 < c < 1; n
i
n
ik
= 0, k 2.
2.8. IL LIMITE CONTINUO 29
Proviamo a fare coarse graining nel tempo e deniamo una mesoscala t contenente m
intervallini t. Avremo quindi
n
i
=
m

j=1
n
i+j
Da qui, sfruttando c > 0, troviamo

2
n
m
2
n
,
mentre
n
i
n
i1
= n
i
n
i1
= c
2
n
(solo lultimo contributo n
i
in un intervallo t e il primo nel successivo sono corre-
lati). Vediamo quindi che limportanza della correlazione, parametrizzata dal rapporto
n
i
n
i1
/
2
n
diventa trascurabile per m grande. In altre parole, il coarse graining
temporale ci riporta a una situazione di passi indipendenti, ed n
i
diventa un processo
Markoviano.
Il passaggio alla mesoscala comporta spesso la transizione da una dinamica di tipo di-
screto a una di tipo continuo. Il passaggio al limite continuo, nel caso di processi stocastici,
presenta per` o dicolt`a sia di carattere procedurale che concettuale, e non detto in generale
che esista.
Un primo esempio di dicolt`a con il limite continuo, lo abbiamo visto nella denizione
di entropia di PDF [Eq. (2.20)]. Un secondo esempio lo troviamo, a livello di realizzazione
di processo stocastico, gi` a nel caso del cammino random. Iniziamo con il domandarci qual`e
lo spostamento tipico del camminatore in un tempo t t. Se P
J
`e la probabilit`a di salto
(uguale in avanti e allindietro), otteniamo subito
[x(t) x(0)[
2
= P
J
t/t

i=1
x
2
=
P
J
x
2
t
t := t (2.39)
Un limite continuo si ottiene mandando simultaneamente t e x a zero, ma vediamo
subito che, perche la varianza [x(t) x(0)[
2
rimanga nita al limite, deve essere x =
O(t
1/2
). Questo ci crea un problema nella denizione di una velocit`a istantanea del
camminatore. Una stima ragionevole dalla (2.39) ci porta a un risultato innito:
u(0) = lim
t0
[x(t) x(0)[
2

1/2
t
=

1/2
2
lim
t0
t
1/2
= .
Vediamo quindi che la velocit`a istantanea non `e denita. Il limite continuo per la velocit`a
non `e ben denito.
2.8 Il limite continuo
I problemi nellesecuzione di un limite continuo diminuiscono notevolmente se invece di la-
vorare con le realizzazioni del processo, ci si interessa delle quantit`a medie, come ad esempio
30 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
le probabilit`a degli stati del processo stocastico. Supponendo che queste quantit`a varino
poco sulla scala di discretizzazione (micro o mesoscala), possiamo provare ad approssimare
dierenze nite con derivate e somme con integrali. A questo punto, le separazioni t t

possono essere mandate tranquillamente a zero, anche se originariamente t e


erano nite.
Siamo interessati ad ottenere equazioni di evoluzione per la probabilit`a in forma dif-
ferenziale, o al limite integro-dierenziale (il fatto che si arrivi a equazioni di questo tipo
lineari, con coecienti che dipendono lentamente dalle variabili, costituisce conferma a
posteriori che il limite esiste). Ci focalizziamo sul caso di processi Markoviani. Il nostro
punto di partenza sar`a pertanto lequazione di Chapman-Kolmogorov (2.38).
Introduciamo la notazione P(x
m
, t
i
) P(m, i) P(n
i
= m). Continueremo ad indica-
re la probabilit`a allequilibrio con P(x
m
) P(m). Lequazione di Chapman-Kolmogorov
(2.38) diventa:
P(m, i + 1) P(m, i) =

k
P(k m)P(k, i) P(m, i)
=

k=m
[P(k m)P(k, i) P(m k)P(m, i)], (2.40)
dove si `e utilizzato

k
P(m k) = 1 e il passaggio

k=m
`e giusticato dal fatto
che i termine k = m nei due addendi in parentesi quadra si cancellano. In parole, la
formula appena qui sopra ci dice che lincremento nel numero di risultati in m al passare
del tempo `e dato dal numero di risultati che passano da k a m meno quelli che da m se ne
vanno a k.
Per fare il limite continuo, `e necessario che il cambio P(m, i + 1) P(m, i) sia piccolo
confrontato con i valori tipici di P(m, i). Questo richiede P(k m) 1. Sarebbe bello
a questo punto denire una probabilit`a di transizione per unit`a di tempo

P(k m) =
P(k m)/t e ottenere cos` una equazione dierenziale. Vediamo in eetti che
P(k, t + lt[m, t) lP(k, t + t[m, t) + O([P(k, t + t[m, t)]
2
)
e quindi
P(k, t + t[m, t)
P(k, t + t[m, t)
=
t
t
P(m k) =

P(m k)t,
con

P(m k) indipendente da t.
Otteniamo nalmente la seguente cos` detta equazione master:
P(m, t)
t
=

k=m
[

P(k m)P(k, t)

P(m k)P(m, t)]. (2.41)
Il passo successivo `e evidentemente P(m, t) (x
m
, t)x
m
,

P(k m) (x
k
x
m
)x
m
,
e la master equation diventa in generale unequazione integro-dierenziale:
(x, t)
t
=
_
dy [ (y x)(y, t) (x y)(x, t)].
2.8. IL LIMITE CONTINUO 31
Nel caso in cui le transizioni avvengano solo con i primi vicini, P(m m1), ci immagi-
niamo che lequazione master diventi una equazione dierenziale alle derivate parziali. Una
situazione di questo genere si verica sia nel caso del cammino random che dei processi di
nascita e morte.
2.8.1 Cammino random
In questo caso abbiamo una probabilit`a di salto P
J
= P(k k + 1) = P(k k 1), cos`
che P(k k) = 1 2P
J
. Dividendo per t troviamo le probabilit`a per unit`a di tempo

P(K k + 1) =

P(k k 1) = P
J
/t, e lequazione master (2.41) prende la forma
P(k, t)
t
=
P
J
t
[P(k + 1, t) + P(k 1, t) 2P(k, t)]
P
J
x
2
t

2
P(x
k
, t)
x
2
k
.
Denendo la diusivit`a = P
J
x
2
/t, otteniamo lequazione del calore (o equazione
di diusione):
(x, t)
t
=

2
(x, t)
x
2
. (2.42)
Notare il signicato sico della diusivit`a:
[x(t) x(0)[
2
= P
j
t/t

k=1
x
2
= t,
che risulta essere quindi il tasso di crescita della varianza della posizione del camminatore
(confrontare con la (2.39).
2.8.2 Processo di estinzione
Supponiamo in questo caso che un individuo abbia una probabilit`a di morte nellintervallo
t data da t. Se al tempo t
i
ci sono N
i
individui, la probabilit`a di avere una morte
sar`a quindi N
i
t (a patto sempre che N
i
t 1). Lequazione master (2.41) diventa
quindi:
P(N, t)
t
=
D
[(N + 1)P(N + 1, t) NP(N, t)]
D
(NP(N, t))
N
e di nuovo possiamo passare alle PDF P(N, t) = (N, t)N (N, t) 1 = (N, t):
(N, t)
t
=
D
(N(N, t))
N
. (2.43)
Va notato come in entrambi i casi del cammino random (2.42) e del processo di estinzione
(2.43), lequazione di evoluzione ha la forma di unequazione di continuit`a
(N, t)
t
+
J(x, t)
x
= 0,
32 CAPITOLO 2. RICHIAMI DI PROBABILIT
`
A E STATISTICA
dove nel primo caso J(x, t) = (x, t)/x, mentre nel secondo J(N, t) = N
D
(N, t).
`
E interessante osservare come nel secondo caso
D
N `e proprio una velocit`a di diminuzio-
ne (e infatti ha segno negativo) della popolazione N. Nel caso della equazione del calore,
abbiamo invece una cos` detta relazione usso gradiente. Il usso di probabilit`a va in di-
rezione opposta al gradiente in e agisce quindi nella direzione di appianare disomogeneit`a
della PDF.
Unultima osservazione concerne il legame tra lordine rispetto alla variabile stocastica
(x o N) nella equazione dierenziale, e il numero di siti vicini che sono richiamati a lato
destro nella originaria equazione master. Vediamo che un primo vicino porta al pi` u a una
derivata prima, due vicini a una derivata seconda, eccetera. [Porta al pi` u; non porta
sicuramente. Abbiamo infatti P(k+1)P(k) P

(x
k
)x
k
, ma P(k+1)+P(k) 2P(x
k
)].
Vediamo inoltre che loperazione di coarse-graining descritta nella lezione precedente `e
equivalente a trascurare derivate di ordine successivo nella equazione dierenziale che si
ottiene al limite continuo.
2.9 Esercizi
Esercizio 1 Supponiamo le variabili aleatorie x, y distribuite in modo equiprobabile nel
triangolo con vertici (0, 0), (0, 1), (1, 1). Calcolare le PDF e probabilit`a condizionate
(x[y > 0.5) e P(y > 0.5[x).
Esercizio 2 Un tiratore scarso, le rare volte che becca il bersaglio, lo colpisce in un punto a
caso (supporre il bersaglio circolare e di raggio unitario). Si calcoli la PDF che il bersaglio
sia colpito a distanza r dal centro, condizionale al fatto che il bersaglio sia stato colpito. Di
nuovo condizionale a che il bersaglio sia stato colpito, calcolare la probabilit`a che il colpo
vada a r < 1/2.
Esercizio 3 La PDF della velocit`a v = (v
x
, v
y
, v
z
) di una molecola monoatomica di un gas
ideale in un volume V , allequilibrio termodinamico `e:

1
(v) =
_
m
2KT
_
3/2
exp
_

mv
2
2KT
_
(2.44)
dove m `e la massa molecolare, T `e la temperatura e K `e la costante di Boltzmann (in
un gas ideale le velocit`a delle dierenti molecole sono approssimate come statisticamente
indipendenti ed allequilibrio la densit` a del gas `e uniforme: n = N/V dove N `e il numero
di molecole nel gas).
Si scrivano la PDF
1
(r, v) e la PDF congiunta
N
(r
i
, v
i
).
Si calcoli lentropia del gas S = S(T, V, N) = ln
N
.
Stimare numericamente lenergia interna U =

N
i=1
1
2
m[v
i
[
2
e lampiezza delle sue
uttuazioni, note la costante di Boltzmann K 1.4 10
23
J
o
K
1
e posto N 10
20
,
V 1m
3
, T 300
o
K, m 7 10
27
Kg [ricordo che la varianza della (2.44) `e:

2
vx
=
2
vy
=
2
vz
= KT/m].
Capitolo 3
La teoria cinetica
3.1 Alcune problematiche in teoria cinetica
Vogliamo descrivere la dinamica di un sistema macroscopico composto da un gran nume-
ro di componenti microscopiche (molecole) non necessariamente indipendenti. Lanalisi si
concentrer`a inizialmente su un modello giocattolo: un sistema di N particelle che si muo-
vono lungo un anello di circonferenza V seguendo un cammino random. Supponiamo che
le particelle siano in grado di interagire, se abbastanza vicine, tramite modicazione delle
propriet` a del cammino random. Solo in seguito passeremo allanalisi di sistemi sici pi` u
realistici.
La descrizione cinetica completa di un sistema con N gradi di libert`a interagenti, come
il sistema giocattolo introdotto, `e ottenuta assegnando la PDF congiunta
N
(x
k
, k =
1, . . . , N, t) del valore al tempo t di tutti gli N gradi di libert`a. Vediamo che la PDF
N
`e denita su uno spazio a N dimensioni, a cui viene dato in genere il nome di -spazio. A
partire dalla PDF sul -spazio, possiamo ottenere le PDF marginali
N1
, . . . denite su
un sottoinsieme ristretto di variabili, sino alla PDF a una particella
1
(x, t), che `e la PDF
di trovare una molecola data nel punto x al tempo t.
A partire dalla
1
, possiamo poi ottenere la densit` a media di particelle f
1
in un punto
x dato:
f
1
(x, t) =
N

i=1

1
(x
i
= x, t).
Pertanto, f
1
(x, t)x sar`a il numero medio di molecole al tempo t nellintervallo [x, x+x].
In maniera analoga, possiamo denire le densit` a di coppie f
2
(x, y; t) = N(N 1)
2
(x, y, t)
e cos` via.
Va notato che se f
1
(x, t)x 1, abbiamo che questa quantit`a (che `e una media)
coincide di fatto con il numero eettivo (nella realizzazione) delle molecole nellintervallino
x. La quantit`a f pu`o quindi essere vista in questo senso (a patto di fare un coarse-
graining suciente in x) come una densit` a istantanea (vedere la discussione nella Sez.
2.3.1). Vediamo quindi che, al contrario della descrizione fornita dalla PDF
1
, che `e
33
34 CAPITOLO 3. LA TEORIA CINETICA
microscopica (stiamo chiedendo dove si trova la particella data), quella fornita da f
1
`e
macroscopica. Notiamo inne che solo se supponiamo le particelle identicamente distribuite
possiamo scrivere
f
1
(x, t) = N
1
(x
i
= x, t), (3.1)
e le due descrizioni con f
1
e con
1
diventano equivalenti.
In presenza di dipendenza statistica fra le componenti microscopiche del sistema, i
ragionamenti che ci avevano permesso di passare, nella Sez. 2.3.1, da un concetto di
entropia di Shannon S[P] per le componenti microscopiche individuali, a quello di entropia
S[P
N
] e da qui, a una prima idea di entropia termodinamica S[

P
N
], non sono applicabili
se non in forma approssimata. In presenza di dipendenza tra la molecole, sembrerebbe
ragionevole utilizzare al posto della entropia relativa a una sola molecola, lentropia di
Shannon del sistema in blocco. Come vedremo ben presto, si tratta di una strada irta
di ostacoli. Supponendo una partizione uniforme e prendendo il limite, verrebbe subito
naturale considerare la entropia di PDF
S
N
S

N
= ln
N
. (3.2)
Vedremo che anche nel caso di particelle indipendenti, in cui la PDF
N
fattorizza in
maniera banale

N
(x
k
, k = 1, . . . , N, t) =
N

k+1

1
(x
k
, t), (3.3)
e lentropia diventa una somma sulle molecole
S
N
= ln
N
= Nln
1
:= NS
1
, (3.4)
il passaggio a un concetto di entropia con signicato termodinamico non `e automatico.
Come si vedr` a nella Sez. 3.2.1, il problema risiede nella dierenza concettuale tra
1
, come
la PDF riferita a una certa particolare molecola di trovarsi da qualche parte in V , e il
signicato di

P
N
nella Sez. 2.3.1, come numero di molecole da qualche parte in V senza
riferimento alcuno allidentit` a delle molecole coinvolte.
Posticipiamo alla Sez. 3.2.1 il problema di come denire in modo appropriato una en-
tropia per un sistema di N particelle, e ritorniamo a concentrarci sul sistema giocattolo
introdotto inizialmente. Come primo passo vediamo cosa succede se provassimo a tra-
scurare leetto delle interazioni. La dinamica sarebbe descritta in questo caso, in modo
completo, dando la equazione per la
1
, che non `e altro che lequazione di diusione (2.42).
Volendo, uno pu`o scrivere anche lequazione per la
N
:

N
t
=
N

k=1

N
x
2
k
,
ma il contenuto addizionale di informazione, com`e ovvio, `e nullo.
3.1. ALCUNE PROBLEMATICHE IN TEORIA CINETICA 35
Le cose cambiano in presenza di interazioni. Supponiamo che la molecola i-esima del
nostro sistema giocattolo, salti di x con una probabilit`a che `e funzione della presenza di
molecole vicine:
P
J
(x) =

j=i
q(x
j
(t) x
i
(t))[x
i
(t) = x,
dove q(x) `e una funzione denita positiva, che decade a zero su una scala microscopica .
Quindi, quante pi` u molecole ci sono a distanza , tanto pi` u frequenti saranno i salti. Per
il resto supponiamo che le molecole non interagiscano per niente e in particolare possano
attraversarsi senza problemi lungo V .
Riscrivendo la probabilit`a di salto nella forma
P
J
(x) =

j=i
_
V
dy q(x y)(x
j
(t) y)[x
i
(t) = x = (N 1)
_
V
dy q(x y)
2
(y, t[x, t),
otteniamo lequazione del tipo del calore
f
1
(x, t)
t
=

2
x
2
_
dy q(x y)f
2
(x, y; t), (3.5)
dove q = x
2
q/t. Questa `e la nostra equazione cinetica per f
1
. Vediamo subito per` o
che abbiamo un problema: per risolvere lequazione per f
1
, dovremmo conoscere f
2
. Se
provassimo a risolvere lequazione per f
2
, ci accorgeremmo che dovremmo conoscere f
3
e
cos` via. Ovviamente, visto che ci sono solo N molecole, solo lequazione per f
N
non richiede
conoscenza di f
N+1
. Possiamo provare a scrivere la equazione per f
2
(x, y; t) tenendo conto
che la molecola in x dionde per eetto di quella in y pi` u tutte le altre N 2 rimanenti,
e viceversa. Il risultato `e
f
2
(x, y; t)
t
=
_

2
x
2
+

2
y
2
_
q(x y)f
2
(x, y; t)
+
_
dz
_

2
x
2
q(x z) +

2
y
2
q(y z)
_
f
3
(x, y, z; t).
Di nuovo possiamo scrivere lequazione per
N
(o f
N
):
f
N
t
=

k=j

2
x
2
k
q(x
k
x
j
)f
N
,
che `e esatta, lineare, statisticamente chiusa (non richiede informazioni su f
m
con m > N),
ma `e impossibile da risolvere a causa del numero enorme di variabili da cui dipende.
Nota. Le equazioni per le correlazioni f
k
, k > 1 possono essere scritte in maniera si-
stematica a partire dalla osservazione che la (3.5) pu` o essere scritta come media di una
equazione per densit` a uttuanti nella forma

t

f
1
(x, t) =
2
x
_
dy q(x y)

f
2
(x, y; t) (3.6)
36 CAPITOLO 3. LA TEORIA CINETICA
dove

f
1
(x, t) =

x
(x
i
(t)),

f
2
(x, y; t) =

i=j

x
(x
i
(t))
y
(x
j
(t)), con
x
(x
i
(t)) (x
x
i
(t)) `e la funzione indicatrice della coordinata della particella i. Una identica equazio-
ne determiner` a levoluzione della densit` a istantanee corse-grained a scala x, ottenuta
facendo la sostituzione
x
(x
i
) (x)
1

[x,x+x]
(x
i
).
Lequazione per la correlazione a k + 1 particelle `e quindi ottenuta moltiplicando la
(3.6) per k funzioni indicatrici, sommando le permutazioni per scrivere la derivata tem-
porale nella forma
t
(
x
1

x
2
. . .), e prendendo la media. Questo ci d`a automaticamente il
risultato che se linterazione `e a due particelle, lequazione per la correlazione a k parti-
celle richiamer` a la correlazione a k + 1 particelle (se linterazione fosse a m corpi, ci si
pu` o convincere che quella che sarebbe richiamata, sarebbe una correlazione a k + m 1
particelle).
In pratica, lunica opzione `e risoluzione approssimata delle prime equazioni nella gerar-
chia (si tratta di un esempio molto semplice di quella a cui ci si riferisce usualmente con
il nome di gerarchia BBGKY; approfondimenti sulla gerarchia BBGKY e lequazione di
Klimontovich possono essere trovati sul testo di S. Ichimaru Basic principles of plasma
physics). Una possibile soluzione approssimata `e quella che si ottiene scrivendo la f
k+1
che appare allordine k nella gerarchia in funzione di densit` a di ordine inferiore. Questo
approccio prende il nome di chiusura statistica. Lesempio pi` u semplice `e fornito dalla
cos` detta approssimazione di campo medio:
f
2
(x, y; z) f
1
(x, t)f
1
(y, t), (3.7)
chiamata cos` appunto perche vengono trascurate le correlazioni associate con f
2
(x, y; z)
f
1
(x, t)f
1
(y, t). Lequazione per f
1
diventa cos`, in luogo della (3.5)
f
1
(x, t)
t
=

2
x
2
_
dy q(x y)f
1
(x, t)f
1
(y, t)
e tenuto conto che f
1
varia lentamente sulla scala di q:
f
1
(x, t)
t
=

2
f
2
1
(x, t)
x
2
, =
_
+

q(x)dx (3.8)
(utilizziamo nella denizione di la condizione V ). Abbiamo quindi unequazione
del calore non-lineare che pu`o essere risolta, per esempio, espandendo perturbativamente
attorno a qualche soluzione nota (per esempio la soluzione uniforme).
Nota. Lapprossimazione di campo medio non si interessa di quella parte delle uttuazioni
associate a discretezza delle molecole. Infatti, se N `e il contenuto istantaneo di molecole
in un intervallo x, possiamo scrivere
N
2
=

i=j

x
(x
i
)
x
(x
j
) +

x
(x
i
) =
_
x+x
x
dy
_
x+x
x
dz f
2
(y, z)
+
_
x+x
x
dy f
1
(y) f
2
(x, x)(x)
2
+ f
1
(x)x,
3.2. ALCUNE QUESTIONI RIGUARDO IL CALCOLO DELLENTROPIA 37
e il contributo associato a discretezza `e quello dovuto alla somma

x
(x
i
) f
1
(x)x.
Laltro contributo f
2
(x, x) `e la parte continua, che `e la densit` a di coppie che entra nella
(3.5). La condizione di campo medio `e quindi una condizione di trascurabilit` a della parte
non discreta delle uttuazioni, o, equivalentemente, di trascurabilit` a delle uttuazioni in
N, per una dimensione di coarse graining x tale che N 1.
Un utile esercizio `e dimostrare che lentropia S
1
nel nostro sistema giocattolo cresce nel
tempo. Abbiamo infatti immediatamente, dalla (3.8):

S
1
(t) =
d
dt
_
V
dx
1
(x, t) ln
1
(x, t) =
_
V
dx
1
(x, t) ln
1
(x, t). (3.9)
Usando lequazione cinetica per
1
(che coincide con quella per f
1
):

S
1
(t) =
_
V
dx

2
1
(x, t)
x
2
ln
1
(x, t)
e integrando per parti (sfruttando il fatto che V `e un anello e il contributo agli estremi `e
assente):

S
1
(t) =
_
V
dx
1
(x, t)

2
1
(x, t)
x

1
(x, t)
x
= 2
_
V
dx
_

1
(x, t)
x
_
2
0.
Lentropia cresce, come ci aspettavamo.
3.2 Alcune questioni riguardo il calcolo dellentropia
Sino ad ora, abbiamo lavorato con una denizione di entropia che `e quella di Shannon,
fornita nella Sez. 2.2. Abbiamo notato come in alcuni casi, caratterizzati da una dinami-
ca sparpagliativa, lapproccio a un equilibrio statistico fosse associato a una crescita di
entropia. Se ci facciamo caso, per` o, tutte le volte che abbiamo provato a calcolare S espli-
citamente, abbiamo preso come riferimento una distribuzione di variabili macroscopiche
(i numeri di occupazione N
a
nella Sez. 2.3.1), o in qualche modo riconducibili a variabili
macroscopiche (S
1
`e ottenuta da
1
; ma
1
= N
1
f
1
, dove f
1
`e legata di nuovo ai numeri
di occupazione N
a
). Solo cos` `e stato possibile legare il concetto di equilibrio statistico
alla idea intuitiva di equilibrio termodinamico, inteso come stato in cui il sistema `e pi` u
omogeneo.
Nel caso dellentropia di Shannon S
N
=
N
denita nella Sez. 3.1, queste connes-
sioni si perdono. La S
N
`e di fatto unentropia microscopica: ciascun punto nel -spazio
corrisponde infatti a una congurazione microscopica. Questo genera una serie di problemi.
Incominciamo con il notare come punti di possono corrispondere sia a congurazioni
di equilibrio che a congurazioni di non equilibrio termodinamico. Nellesempio considera-
to nella Sez. 2.3.1, avevamo visto che era possibile introdurre una entropia termodinamica
S[

P], associata ai numeri di occupazione, che diventava massima allequilibrio termodina-
mico. Dal punto di vista della PDF
N
, i due punti nel spazio individuano due delte
38 CAPITOLO 3. LA TEORIA CINETICA
di Dirac, e la corrispondente entropia microscopica S
N
(pi` u precisamente lentropia de-
nita con una partizione nita, e non lentropia di PDF) in entrambi i casi sarebbe nulla.
Vediamo quindi che lentropia S
N
non `e in grado di distinguere condizioni di equilibrio e
non-equilibrio termodinamico.
Potremmo tuttavia insistere su questa linea di ragionamento, e considerare una generica
distribuzione di punti in (un cos` detto ensemble; vedi Sez. 5.1.1), descritta da una PDF

N
. Se la dinamica del sistema fosse abbastanza caotica, ci si potrebbe aspettare che
questi punti si sparpaglino nel -spazio, e il risultato nale (equilibrio statistico) sia una
N
dominata da congurazioni microscopiche, corrispondenti macroscopicamente a uno stato
di equilibrio termodinamico. Al contempo, grazie allo sparpagliamento in , S
N
tenderebbe
a un massimo. Il problema diventa a questo punto, quello di isolare nellaumento di
entropia S
N
, la componente associata al fatto che la gran parte dei punti staranno in zone
di corrispondenti allequilibrio termodinamico. Lapproccio di Gibbs, che sar`a descritto
a grandi linee nella Sez. 5.2, consiste precisamente nel cercare di estrarre da S
N
la sua
componente macroscopica. Laltrenativa, suggerita dallanalisi nella Sez. 2.3.1, consisteva
nel cercare di riportarsi al caso in cui le molecole del sistema sono in prima approssimazione
indipendenti, e quindi lavorare con lentropia S
1
. Vedremo per` o ben presto, che anche
lavorare con S
1
, indipendentemente dal fatto che le molecole si possano o meno considerare
come indipendententi, presenta problemi: lentropia S
1
`e riferita infatti a una ben specica
molecola, ed `e perci`o anchessa, intrinsecamente, una quantit`a microscopica.
3.2.1 Entropia, partizioni e paradosso di Gibbs
Abbiamo visto che lentropia `e denita a partire da una partizione di . Anche quando
lavoriamo con una entropia di PDF, stiamo ipotizzando una partizione in volumetti di
dimensione uniforme del nostro spazio dei campioni. A seconda del sistema, la ragione
di una scelta invece che unaltra risiede nella nostra comprensione di quello che si verica
alla microscala. Nel caso delle molecole di un gas, questa scelta `e ssata della meccanica
quantistica. Il principio di indeterminazione ssa infatti la scala xv /m, sotto la
quale non ha senso distinguere volumetti di spazio (x, v).
1
In generale, la scelta della partizione `e fatta in modo di eliminare suddivisioni troppo
ni, tali che eventi diversi nella partizione siano indistinguibili dal punto di vista della
dinamica.
Da questo punto di vista, notiamo subito un problema, trattando con un sistema di
particelle identiche. Vediamo infatti che scambiare fra loro le particelle `e ininuente dal
punto di vista della dinamica. Questo fa s` che la partizione dello spazio che ci viene pi` u
naturale, e cio`e quella in un reticolo di cubi N-dimensionali di lato x, non `e appropriata.
Vediamo infatti che il cubetto attorno al punto x = (x
1
, x
2
, . . . , x
N
) (supponiamo per
semplicit`a che ciascuna particella sia descritta da una sola coordinata x) `e assolutamente
1
Notare come la meccanica quantistica imponga naturalmente una partizione uniforme del -spazio.
Una tale scelta, nel caso della meccanica classica, pu` o essere giusticata in maniera agevole solo a posteriori,
osservando che la PDF di equilibrio `e uniforme (lavorando in coordinate canoniche q
i
, p
i
) in gusci ad
energia costante del -spazio (si veda la Sez. 5.1).
3.2. ALCUNE QUESTIONI RIGUARDO IL CALCOLO DELLENTROPIA 39
indistinguibile dal cubetto attorno al punto x

= (x
2
, x
1
, x
3
, . . . , x
N
) ottenuto scambiando
fra loro le particelle 1 e 2.
In denitiva, vediamo che la partizione a partire dalla quale va calcolata lentropia
dovrebbe essere quella in cui ciascun evento `e lunione di tutti gli eventi equivalenti per
scambio di particelle. Se P `e la probabilit`a che il punto di fase del sistema si trovi in
un dato cubetto nel -spazio, la probabilit`a che si trovi in quel cubetto, o in un altro
qualsiasi ottenuto tramite permutazione delle particelle sar`a = N!P.
2
Supponendo una partizione uniforme di volumetti , e supponendo (consistentemnte
con lipotesi di particelle indistinguibili) i volumetti equiprobabili, abbiamo quindi nei due
casi di particelle distinguibili e non:
S[
N
] =
_
d
N
ln
N
(distinguibili) (3.10)
S[N!
N
] =
_
d
N
ln(N!
N
) = S

ln N! (indistinguibili), (3.11)
e possiamo introdurre lentropia di PDF ottenuta a partire da una partizione che considera
le molecole indistinguibili:

S
N
S
N!
N
.
Ci sono ragioni pratiche ben precise, per cui una denizione sensata di entropia dovrebbe
tenere conto della indistinguibilit`a delle molecole. Consideriamo di nuovo lesempio di un
gas di N molecole in equilibrio in un volume V . Abbiamo in questo caso
N
= 1/V
N
, dove
V `e il volume del recipiente, e quindi, per lentropie di PDF corrispondenti alle (3.10-3.11):
S
N
= N ln V

S
N
= ln(V
N
/N!) N ln(V/N)
dove ho utilizzato lapprossimazione di Stirling ln N! N ln N 1 N ln N.
Vediamo subito che, se prendessimo due recipienti di gas identici, di volumi V
1
e V
2
,
uno con N
1
= nV
1
, laltro con N
2
= nV
2
particelle, ma per il resto identica temperatura
T e identica densit` a n, e li unissimo, troveremmo unentropia, supponendo le particelle
distinguibili
S
N
= (N
1
+ N
2
) ln(V
1
+ V
2
) ,= N
1
ln V
1
+ N
2
ln V
2
= S
N,1
+ S
N,2
,
e cio`e unentropia non addittiva.
Questo `e un problema: dal punto di vista macroscopico ci aspetteremmo che le molecole
nelle due parti V
1
e V
2
, anche dopo che i volumi sono stati messi in comunicazione, conti-
nuino ad essere in prima approssimazione indipendenti. (Le due parti sono macroscopiche,
e la condizione di indipendenza dovrebbe essere soddisfatta se un limite termodinamico `e
possibile). Il fatto `e che evidentemente la componente di entropia associata a scambio tra
2
Ad essere precisi, `e necessario che la partizione sia abbastanza ne che ciascun cubetto non contenga
punti di fase che dieriscano solo per una permutazione di particelle. Come si vedr`a nella Sez. 5.3,
la condizione di poter suddividere in volumetti arbitrariamente piccoli, gioca un ruolo cruciale nella
derivazione tramite metodo di massima entropia della distribuzione di Maxwell-Boltzmann.
40 CAPITOLO 3. LA TEORIA CINETICA
una particella in V
1
e una in V
2
di cui si tiene conto nellentropia considerando le particelle
distinguibili, non ha una controparte dinamica `e non `e associata a correlazioni fra para-
metri sici delle due parti del sistema. (Nel caso di gas diversi, una variazione di entropia
c`e ed `e associata al fenomeno macroscopico del mescolamento).
Utilizzando una entropia basata su una partizione che non distingue tra congurazioni
che dieriscono solo per scambio di particelle, troviamo invece:

S
N
= (N
1
+ N
2
) ln n =

S
N,1
+

S
N,2
,
e la condizione di addittivit` a `e soddisfatta.
3.2.2 Entropia in una singola realizzazione
Il legame tra PDF per una particella e densit` a di particelle f
1
N
1
suggerisce che S
1
potrebbe essere denita in maniera alternativa a partire dalla densit` a f (per semplicarci
la vita, tralasciamo i pedici su f
1
):
S
f
(t) =
_
dx f(x, t) ln f(x, t) = NS
1
N ln N (3.12)
Notiamo quindi come nel caso di particelle indipendenti: S
f
=

S: lentropia denita a
partire dalla densit` a media f coincide con lentropia denita nel -spazio utilizzando una
partizione che considera le particelle indistinguibili. Come si `e gi` a accennato, la dierenza
importante tra la S
1
e la S
f
`e che la prima si riferisce ad una particella ben individuata,
mentre la seconda si riferisce a un numero di particelle senza alcuna identicazione. La
prima `e una entropia microscopica; la seconda `e un oggetto macroscopico. [Confrontare
con la (3.11) e con la discussione portata avanti nella Sez. 2.3.1].
In analogia con quanto fatto nella Sez. 2.3.1, possiamo provare a denire una entropia a
partire dalla densit` a istantanea

f ottenuta dividendo il numero istantaneo N di particelle
in un intervallo [x, x + x] per x. Naturalmente, perch`e la densit` a istantanea abbia un
senso, lintervallo deve essere pi` u piccolo della scala di variazione tipica delle quantit`a
medie. Le due densit` a

f e f saranno legate dalla relazione
f =

f
e nel caso in cui la scala x `e macroscopica, (cio`e sucientemente grande che le uttuazioni
in N siano trascurabili)

f e f coincideranno. Quindi, per x sucientemente grande,

f
fornir`a una descrizione macroscopica del sistema. Di riesso, anche la descrizione fornita
da f sar`a necessariamente macroscopica (indipendentemente da x). Notiamo che nel
limite opposto, in cui x contiene al massimo una particella alla volta, linformazione
contenuta in

f denisce esattamente lo stato del sistema. In altre parole, la descrizione `e
statisticamente dettagliata (identit`a delle molecole a parte) come quella fornita da
N
. Ci
ritroviamo quindi la nuova denizione di entropia
S

f
=
_
dx

f(x, t) ln

f(x, t). (3.13)
3.3. LEQUAZIONE DI BOLTZMANN 41
Di fatto, la (3.13) corrisponde alla denizione originaria di entropia data da Ludwig Boltz-
mann (entropia di Boltzmann); pi` u precisamente, la denizione data dal grande scien-
ziato era H = S

f
, da cui il nome di teorema H).
`
E importante notare come S

f
sia
una quantit`a uttuante. Le uttuazioni sono presenti anche allequilibrio; esse diventano
trascurabili, e S

f
S
f
, solamente nel limite termodinamico di x macroscopici.
3.3 Lequazione di Boltzmann
Il modello giocattolo di cinetica di un gas, che abbiamo considerato nella Sez. 3.1, ha
utilit`a limitata, visto che non `e in grado di fornire informazioni sulla velocit`a delle molecole.
Di fatto, essendo il moto delle molecole modellato tramite un cammino random, la loro
velocit`a istantanea risulterebbe innita. Dobbiamo pertanto estendere il nostro spazio
in modo da includere le velocit`a. La nostra densit` a sar`a quindi nella forma f
1
= f
1
(x, v; t).
Supponiamo per semplicit`a di avere molecole monoatomiche e di massa uguale. Il fatto
che le molecole siano monoatomiche serve a garantire che lenergie cinetica non contenga
termini rotazionali. Trascuriamo anche gradi di libert`a interni come vibrazioni elastiche
della molecola.
`
E conveniente nella derivazione di una equazione cinetica per f
1
(x, v; t) separare con-
tributi dovuti a interazioni microscopiche (per esempio urti), i quali hanno una natura
intrinsecamente stocastica, dai cambi di posizione e di velocit`a che non sono legati a pro-
cessi microscopici. In eetti, sappiamo che la densit` a f
1
(y, t) per delle particelle che si
muovono in uno spazio con coordinate y = (y
1
, y
2
, . . .) seguendo un campo di velocit`a
u(y, t) secondo la legge y = u(y, t), evolver` a secondo una equazione di continuit`a

t
+
y
(u) = 0. (3.14)
Una simile equazione presuppone per` o che il campo u sia perlomeno dierenziabile, cosa
non vericata quasi per denizione nel caso di interazioni a livello microscopico. Nel caso
in cui y = (x, v) (spazio delle fasi per una molecola), abbiamo
x = v, v = F(x, v; t)/m = [F
ext
(x, v; t) +F
micr
(x, v; t)]/m (3.15)
dove F `e la forza che agisce sulla molecola in x in moto con velocit`a v, e abbiamo isolato
leetto delle forze esterne (per esempio la gravit` a) dallinterazione con le altre molecole,
tenuta in conto da F
micr
(x, v; t); m`e evidentemente la massa delle molecole. Come abbiamo
detto questultimo termine non pu`o essere a priori trattato attraverso la divergenza di una
qualche corrente e otteniamo quindi dalle (3.14-3.15), una equazione di continuit`a nella
forma
f
1
t
+v
x
f
1
+
1
m

v
(F
ext
f
1
) =
f
1
t

coll
(3.16)
dove il termine a lato destro dellequazione contiene leetto di F
micr
(x, v; t), e
x
e
v
sono i gradienti rispetto alle variabili x = (x
1
, x
2
, x
3
) e v = (v
1
, v
2
, v
3
) (notare che v esce
dal gradiente in x essendo le variabili x e v indipendenti).
42 CAPITOLO 3. LA TEORIA CINETICA
Per determinare (f/t)
coll
procediamo a partire dalla equazione master per le intera-
zioni a scala microscopica tra le molecole, che supponiamo essere costituita da urti elastici
binari e istantanei. Ci`o presuppone una descrizione statistica degli urti, che pu`o essere
vista come il risultato di una microscala x maggiore della scala delle molecole (e della
distanza di interazione fra queste).
La struttura del termine f
1
/t[
coll
pu`o essere determinata per analogia con il modello
giocattolo della sezione precedente. Indichiamo con (v
1,2
v

1,2
[x
1
x
2
) la PDF per
unit`a di tempo che una coppia di molecole a distanza x
1
x
2
e aventi velocit`a v
1,2
, urtino
fra loro e si ritrovino ad avere velocit`a v

1,2
. Questo ci d`a lequazione master
f
1
(x
1
, v
1
; t)
t

coll
=
_
d
3
x
2
d
3
v

1
d
3
v

2
d
3
v
2
(v
1,2
v

1,2
[x
1
x
2
)f
2
(x
1,2
, v

1,2
; t)
(v
1,2
v

1,2
[x
1
x
2
)f
2
(x
1,2
, v

1,2
; t)
Il carattere locale degli urti implica (v
1,2
v

1,2
[x
1
x
2
) = (v
1,2
v

1,2
)(x
1
x
2
). Allo
stesso tempo, simmetria per inversione temporale delle leggi della meccanica (supponiamo
gli urti elastici) ci d`a (v
1,2
v

1,2
) = (v

1,2
v
1,2
), e quindi
f
1
(x; v
1
; t)
t

coll
=
_
d
3
v
2
d
3
v

1
d
3
v

2
(v
1,2
v

1,2
)[f
2
(x; v

1,2
; t) f
2
(x; v
1,2
; t)].
Sostituendo nella equazione di continuit`a per f
1
(3.16), vediamo che ci ritroviamo di nuovo
il problema che di una equazione cinetica per f
1
che a causa delle interazioni richiede per
la sua risoluzione di conoscere f
2
. Lunica via duscita praticabile abbiamo visto essere
in questi casi luso di una approssimazione di campo medio. Il risultato `e la seguente
equazione di Boltzmann:
f
1
t
+v
x
f
1
+
1
m

v
(F
ext
f
1
) =
f
1
t

coll
(3.17)
dove il termine di collisione `e dato da
f
1
(x, v
1
; t)
t

coll
=
_
d
3
v
2
d
3
v

1
d
3
v

2
(v
1,2
v

1,2
)
[f
1
(x; v

1
; t)f
1
(x; v

2
; t) f
1
(x; v
1
; t)f
1
(x; v
2
; t)]. (3.18)
La giusticazione dellapprossimazione eettuata per raggiungere la (3.17) risiede princi-
palmente nel successo delle (3.17-3.18) nel descrivere il comportamento dei gas. La ragione
per cui una tale approssimazione funziona ha probabilmente a che fare con leetto che
hanno le collisioni nel distruggere correlazioni (ipotesi di caos molecolare). Lidea `e che le
molecole 1 e 2, arrivino al punto x in seguito a collisioni distinte le quali rendono queste
molecole essenzialmente scorrelate. Ottenere una dimostrazione quantitativamente precisa
di questa asserzione `e molto dicile, che, dal nostro punto di vista, pu`o essere vista co-
me parte del bagaglio di informazione sulla dinamica delle molecole che trascuriamo alla
microscala.
3.3. LEQUAZIONE DI BOLTZMANN 43
3.3.1 La distribuzione di Maxwell-Boltzmann
Possiamo vedere che la distribuzione di Maxwell-Boltzmann
f
MB
(x, v) = n
0
_
m
2KT
_
3/2
exp
_

mv
2
2KT
_
, (3.19)
dato un prolo uniforme di densit` a n(x, t) = n
0
e di temperatura T(x, t) = T, in assenza
di forze esterne, `e soluzione stazionaria della equazione di Boltzmann (dora in avanti
tralasceremo i pedici su f
1
).
Sostituendo la (3.19) nella (3.17) ci d`a la seguente equazione:
f
BM
(x, v
1
)
t

coll
= 0.
Per vericare che questa equazione sia eettivamente soddisfatta, notiamo che, in ogni
collisione, essendo le collisioni elastiche:
v
2
1
+ v
2
2
= v

1
2
+ v

2
2
,
cio`e, lenergia si conserva. (Stiamo supponendo che non ci siano interazioni con le pareti del
recipiente; in denitiva, il sistema `e isolato sia dal punto di vista termico che meccanico).
Sostituendo f = f
MB
nella espressione di (f/t)
coll
(3.18), troviamo quindi, scrivendo
f
MB
= Ce
v
2
, con C = n
0
(m/(2KT))
3/2
e = m/(2KT):
[f
MB
(x; v

1
)f
MB
(x; v

2
) f
MB
(x; v
1
)f
MB
(x; v
2
)]
= C[exp(v

1
2
+ v

2
2
) exp(v
1
2
+ v
2
2
)] = 0,
cos` che (f
MB
/t)
coll
= 0, come ci aspettavamo. Vericheremo quando parleremo del
metodo di massima entropia, che la Gaussiana `e la distribuzione di entropia massima
per una data varianza della distribuzione. In altre parole, la distribuzione di Maxwell-
Boltzmann, oltre ad essere una soluzione stazionaria della equazione di Boltzmann, `e anche
la distribuzione di massima entropia per la data temperatura. Il teorema H che vedremo pi` u
avanti ci garantisce che sistemi descritti da una equazion di Boltzmann sono caratterizzati
da crescita dellentropia. Ci aspettiamo pertanto che f
MB
sia anche la distribuzione di
equilibrio del sistema, sulla quale questo rilassa indipendentemente dalle condizioni iniziali
(per data temperatura e volume del recipiente).
3.3.2 Entropia e spazio delle velocit`a
La dipendenza dalla velocit`a di f produce una nuova componente di informazione necessaria
a conoscere lo stato del sistema. Succede nello spazio delle velocit`a qualcosa di analogo
a quello che si verica nello spazio delle x: in questo caso, lentropia sar`a maggiore se le
particelle sono uniformemente distribuite, e se le dimensioni della scatola sono maggiori.
Nel caso della velocit`a, il ruolo delle dimensioni della scatola `e giocato essenzialmente
dalla temperatura, che ssa la varianza della distribuzione in v. Cos` come nel caso della
44 CAPITOLO 3. LA TEORIA CINETICA
scatola, il gas potrebbe trovarsi fuori dallequilibrio concentrato in una parte della scatola
in questione, nel caso della velocit`a, il gas potrebbe trovarsi essere distribuito secondo delle
delta di Dirac
1
(v) =
1
2
[(vv
0
) +(v+v
0
)] cos` che v = 0 e
2
v
= v
2
0
. La distribuzione
(che corrisponde a due getti con velocit`a opposte v
0
) `e chiaramente la distribuzione a
entropia pi` u bassa per la data varianza v
2
0
. Leetto degli urti fa s` che lentropia aumenti
mentre la distribuzione rilassa su
MB
1
con KT = (1/3)mv
2
0
.
3.3.3 Il teorema H
Lequazione di Boltzmann soddisfa a una condizione di crescita dellentropia di Boltzmann
S
f
(t) =
_
d
3
xd
3
vf(x, v; t) ln f(x, v; t), qualsiasi sia la forma iniziale della distribuzione.
Dagli argomenti nelle Sez. 3.2.1 e 3.2.2, `e questa la denizione di entropia che permette
una connessione diretta con la termodinamica del sistema. (Notiamo tuttavia dalla (3.12),
che crescita nel tempo di S
f
implica comunque crescita anche dellentropia di Shannon
S
1
). Calcoliamo la quantit`a

S
f
esplicitamente. Procedendo come nel caso del modello
giocattolo, (3.9), troviamo subito:

S
f
=
_
d
3
xd
3
v

f(x, v; t) ln f(x, v; t).
Cominciamo subito con vericare che, come ci si potrebbe aspettare, lunico contributo
alla crescita di entropia `e fornito dagli urti, e cio`e da (f/t)[
coll
.
Abbiamo infatti, utilizzando il teorema della divergenza sul termine in
x
della equa-
zione di Boltzmann (3.17), e trascurando contributi di supercie allinnito per x:

_
d
3
xd
3
v ln f
x
(vf) =
_
d
3
xd
3
v
x
(vf) = 0.
Analogamente, per il contributo di forza esterna:

_
d
3
xd
3
v ln f
v
(F
ext
f) =
_
d
3
xd
3
v F
ext

v
f =
_
d
3
xd
3
v f
v
F
ext
,
che `e nullo sia nel caso di forze esterne indipendenti dalla velocit`a, che in presenza di campi
magnetici (in questultimo caso sfruttiamo la relazione
v
[v B] = B [
v
v] v
[
v
B] = 0).
Troviamo in denitiva, come cera daspettarsi, utilizzando la (3.18):

S
f
=
_
d
3
xd
3
v(f/t)[
coll
ln f(x, v; t)
=
_
d
3
x
_
d
v
(v

1,2
v
1,2
)[f(1

)f(2

) f(1)f(2)] ln f(1),
dove ho introdotto la notazione d
v
= d
3
v
1
d
3
v
2
d
3
v

1
d
3
v

2
, f(1) f(x, v
1
; t) e cos` via.
Vediamo subito che, grazie alla simmetria di d
v
[. . .] il risultato nellintegrale non cambia
se sostituisco nellintegrale ln f(1) con ln f(2). Posso quindi scrivere:

S
f
=
1
2
_
d
3
x
_
d
v
(v

1,2
v
1,2
)[f(1

)f(2

) f(1)f(2)] ln(f(1)f(2)).
3.4. IL LIMITE FLUIDO 45
Unaltra simmetria `e quella per inversione temporale in , che mi permette di scrivere

S
f
=
1
2
_
d
3
x
_
d
v
(v

1,2
v
1,2
)[f(1)f(2) f(1

)f(2

)] ln(f(1

)f(2

)).
Sommando le due espressioni trovo

S
f
=
1
4
_
d
3
x
_
d
v
(v

1,2
v
1,2
)[f(1

)f(2

) f(1)f(2)][ln(f(1

)f(2

)) ln(f(1)f(2))],
dove lintegrando `e sempre positivo. Troviamo in sostanza la condizione di crescita di
entropia

S
f
0.
Riassumendo, abbiamo quindi i seguenti risultati importanti:
A temperatura ssata, lentropia `e massima allequilibrio, il che corrisponde alla
distribuzione di Maxwell-Boltzmann.
Lentropia `e una funzione crescente della temperatura.
3.4 Il limite uido
Abbiamo visto un volume di gas isolato raggiunge una condizione di equilibrio statistico
descritto da una distribuzione di Maxwell-Boltzmann in cui la temperatura e la densit` a
sono costanti. Notare che in generale la distribuzione di Maxwell-Boltzmann pu`o non essere
centrata intorno allo zero:
f
MB
(x, v; t) = n
_
m
2KT
_
3/2
exp
_

m[v u[
2
2KT
_
,
cos` che la distribuzione sar`a determinata allequilibrio dai parametri n, u e T.
Per caratterizzare meglio il processo di rilassamento allequilibrio, consideriamo pi` u in
dettaglio gli urti. Abbiamo essenzialmente due parametri chiave: il cammino libero medio
e il tempo di collisione
coll
. Cerchiamo di stimarne lordine di grandezza in funzione di
altri parametri noti, quali la velocit`a termica v
th

v
, il raggio molecolare a e la densit` a
n. Notiamo che fuori dallequilibrio sia n che v
th
saranno dipendenti dal tempo e dalla
posizione. Notiamo inoltre che parlare di raggio molecolare presuppone uninterazione
hard-core tra le molecole, e non uninterazione a lungo raggio quale quella che si avrebbe
fra particelle cariche, ad esempio in un plasma.
Otteniamo subito le stime dimensionali

1
na
2
,
coll


v
th
. (3.20)
Lespressione di pu`o essere ottenuta a partire da considerazioni di tipo geometrico os-
servando che la separazione tipica fra le molecole `e l n
1/3
. In ogni volume di lato l,
46 CAPITOLO 3. LA TEORIA CINETICA
ci sar`a quindi tipicamente una molecola. La probabilit`a per una molecola che attraversa
il volumetto di eettuare una collisione con la molecola contenuta in questultimo sar`a
P (a/l)
2
. Il numero di volumetti che bisogna attraversare perche si abbia una pro-
babilit` a di collisione di ordine uno sar`a quindi 1/P (l/2)
2
e la distanza percorsa sar`a
l/P l
3
/a
2
= 1/(na
2
).
Vediamo che per parametri tipici per un gas, quali
n 10
20
cm
3
, a 10
8
cm, v
th
3 10
5
cm/s,
abbiamo dalla (3.20):
10
4
cm,
coll
10
9
s.
Questo `e un tempo straordinariamente corto e denisce di fatto una microscala dal punto
di vista dei tempi per il nostro sistema. Ora, ciascun urto cambia in maniera drammatica la
velocit`a della molecola che lo subisce. Ne possiamo concludere che una distribuzione iniziale
di velocit`a rilasser`a a una distribuzione di equilibrio (dal punto di vista delle velocit`a) in
un numero non molto alto di urti. Questo processo di rilassamnto sar`a quindi esso stesso
estremamente veloce. Daltra parte, `e esperienza comune il fatto che due corpi in contatto
raggiungono una identica temperatura in un tempo decisamente macroscopico.
Vediamo quindi che lequilibrio in un recipiente di gas isolato `e raggiunto in fasi
successive:
Equilibrio cinetico f(x, v; t) f
MB
(x, v; t) in un tempo
coll
, dove f
MB
(x, v; t)
`e una distribuzione di Maxwell-Boltzmann in cui i parametri di densit` a, temperatura
e velocit`a media in generale non sono costanti: n = n(x, t), T = T(x, t), u = u(x, t).
Equilibrio meccanico in cui i gradienti di pressione e di velocit`a media sono eli-
minati.

E il tempo necessario per far s` che cessino di esserci parti in movimento
relativo nel gas.
Equilibrio termodinamico in cui anche i gradienti di temperatura (e gli ultimi
residuali gradienti di velocit`a e pressione) scompaiono. Questo `e (come vedremo) il
processo pi` u lento.
Una volta che lequilibrio cinetico viene raggiunto, abbiamo che per descrivere il sistema di-
ventano sucienti i campi n, u e T, dipendenti solo dalle coordinate, mentre la dipendenza
da v `e a questo punto nota e data dalla distribuzione di Maxwell-Boltzmann.
Le cose non sono per` o mai cos` semplici; se fosse davvero f = f
BM
(x, v; t), il termine
collisionale sarebbe infatti identicamente nullo: (f/t)
coll
= 0 e lentropia rimarrebbe
costante. Vediamo quindi che una condizione di equilibrio (meccanico e termodinamico)
non potrebbe mai essere raggiunta. La conclusione `e che una situazione di non-equilibrio
richiede sempre una componente non Maxwell-Boltzmann

f = f f
MB
, che potr` a essere
piccola una volta raggiunto lequilibrio cinetico, ma che rimane non nulla ed `e essenziale
per il raggiungimento dellequilibrio termico e meccanico.
3.4. IL LIMITE FLUIDO 47
Proviamo a stimare la componente

f, considerando

f piccola rispetto a f
MB
, e linea-
rizzando il termine collisionale (3.18) (approssimazione BGK):
f
t

coll

f f
MB

coll
, (3.21)
che descrive un rilassamento esponenziale f f
MB
su scale di tempi
coll
. Supponendo
assenza di forze esterne, possiamo scrivere quindi:
_

t
+v
x
_
f
MB

coll
e pertanto, se L `e la scala spaziale di variazione di f
MB
:

f
v
th

coll
f
MB
L


L
f
MB
. (3.22)
La correzione sar`a piccola se la scala di variazione spaziale `e molto maggiore del cammino
libero medio.
Passiamo allanalisi del rilassamento meccanico. Notiamo che il tempo perche questo
venga raggiunto `e dellordine del tempo di spostamento relativo di parti di uido a scala
L:

mecc

L
u(x + L) u(x)

Lv
th
u

coll
, (3.23)
che sar`a molto maggiore di
coll
se le velocit`a medie sono piccole rispetto alla velocit`a
termica e la scala L `e macroscopica.
In denitiva vediamo che per tempi pi` u brevi di
mecc
le quantit`a medie n, u e T
rimangono praticamente costanti.
Notiamo che la condizione l L ci garantisce che il limite termodinamico `e
soddisfatto a scala L. Infatti, la condizione l L garantisce che il numero di molecole
in un volume di lato L `e molto grande. La condizione di caos molecolare ha daltra
parte la conseguenza che la lunghezza di correlazione del sistema `e essenzialmente zero:
le molecole sono praticamente indipendenti. La condizione di limite termodinamico `e
quindi soddisfatta automaticamente se L l. In pi` u, notiamo il signicato di come
scala macroscopica di interazione: parti separate da distanze maggiori del cammino libero
medio sono caratterizzate da sequenze di urti distinte.
A questo punto, vediamo che `e possibile scegliere una scala intermedia l
m
, con
l
m
L, dove il limite termodinamico `e ancora soddisfatto, ma tale che le quantit`a medie n,
T e u varino poco. Quindi, a tempi pi` u brevi di
mecc
, (ma pi` u lunghi di
coll
, in modo che
lequilibrio cinetico sia gi` a raggiunto), i proli di n, u e T saranno localmente (a scala < l
m
)
uniformi e stazionari, come allequilibrio termodinamico. Ci si riferisce a una situazione di
questo genere con il termine di equilibrio termodinamico locale.
A tempi pi` u lunghi di
mecc
, una descrizione in termini di equilibrio termodinamico
locale cessa evidentemente di valere e le quantit`a medie n, T e u iniziano a variare in
48 CAPITOLO 3. LA TEORIA CINETICA
maniera sostanziale. Ci`o nonostante, il fatto che

f f
MB
, garantisce che queste siano
sucienti, in prima approssimazione, a descrivere levoluzione del sistema. Inoltre, siccome
a scala l
m
il limite termodinamico `e soddisfatto, n, T e u non hanno solo il signicato di
quantit`a medie, ma anche quello di quantit`a istantanee misurate a scala l
m
, il che, nel caso
di n e u, corrisponde alla nostra intuizione per i concetti di densit`a e velocit`a uida.
Notiamo che anche KT(x, t)/m prende un signicato istantaneo e pu`o essere vista infatti
come la varianza delle velocit`a molecolari misurata attraverso media campionaria sulle
molecole in una scatola di lato l
m
intorno a x al tempo t.
A questa situazione, in cui n, u e T hanno un signicato locale istantaneo (e non
statistico) e si `e in una condizione di equilibrio cinetico tale che la deviazione f f
MB
sia
piccola, e n, u e T sono sucienti a descrivere lo stato del sistema, ci si riferisce con il
nome di limite uido. Vedremo fra breve che in questo regime, n, u e T sono sucienti
non solo a determinare lo stato del sistema, ma anche la sua evoluzione futura.
3.5 Equazioni uide
Equazioni per levoluzione delle quantit`a n, u e T possono essere ottenute prendendo i
momenti rispetto a v della equazione di Boltzmann:
_
d
3
v v
k
_
f
t
+v
x
f +
1
m

v
(F
ext
f)
_
=
_
d
3
v v
k
f
t

coll
.
Il senso di questo approccio `e che le quantit`a uide n, u e T, prima di essere parametri
della distribuzione di Maxwell-Boltzmann f
MB
, sono momenti della distribuzione f:
n =
_
d
3
v f; u =
1
n
_
d
3
v fv; T =
m
3Kn
_
d
3
v f[v u[
2
;
ci aspettiamo quindi che le equazioni per n, u e T non siano altro che le equazioni per i
momenti di ordine zero, uno e due della equazione di Boltzmann.
Eseguiamo il calcolo in maniera esplicita nel caso k = 0. Otteniamo subito

t
_
d
3
v f +
x

_
d
3
v fv +
1
m
_
d
3
v
v
(F
ext
f) =
_
d
3
v
f
t

coll
.
Utilizzando il teorema della divergenza, il terzo integrale a lato destro si converte in un
integrale sulla supercie a v che possiamo porre uguale a zero (almeno se ammettiamo
che f f
MB
). Rimaniamo quindi con lequazione
n
t
+
x
(nu) =
_
d
3
v
f
t

coll
.
Possiamo vedere che il lato destro di questa equazione `e identicamente nullo grazie a
conservazione negli urti del numero di particelle. Abbiamo infatti, sfruttando la simmetria
3.5. EQUAZIONI FLUIDE 49
(v

1,2
v
1,2
) = (v
1,2
v

1,2
), e indicando di nuovo d
v
d
3
v
1
d
3
v
2
d
3
v

1
d
3
v

2
, f(1)
f(x, v
1
), etc:
_
d
3
v
1
f(x, v
1
; t)
t

coll
=
_
d
v
(v

1,2
v
1,2
)[
1
(1

)
1
(2

)
1
(1)
1
(2)] = 0.
La densit` a n obbedisce pertanto la seguente equazione di continuit`a:
n
t
+
x
(nu) = 0. (3.24)
Diamo senza derivazione le equazioni per i momenti successivi u(x, t) = v[x, t e T(x, t) =
m
3K

2
{v|x,t}
(utilizziamo qui la notazione di somma sugli indici ripetuti di Einstein):
nm
_

t
+u
x
_
u
i
+
P
x
i
= nF
ext
i


ij
x
j
, (3.25)
n
_

t
+u
x
_
KT +
2
3
P u =
2
3

x
q
2
3

ij
u
i
x
j
. (3.26)
(La derivazione esplicita delle (3.25-3.26) e delle (3.29-3.30) pi` u sotto, pu`o essere trovata
ad esempio nel capitolo 5 del testo Statistical Mechanics di K. Huang). Cos` come le-
quazione di continuit`a impone la conservazione della massa (o del numero di particelle) al
sistema, vediamo quindi le due equazioni per u e T impongono conservazione rispettiva-
mente del momento lineare e dellenergia. Queste equazioni di conservazione sono dette
equazioni uide per il gas. Notare che abbiamo introdotto un numero di nuove quantit`a:
La pressione cinetica P = nKT.
Il cos` detto tensore di pressione anisotropo:
ij
(x, t) = n(x, t)m( v
i
v
j
v
2

ij
/3)[x, t,
dove abbiamo indicato con v = v u la uttuazione termica della velocit`a.
Il usso di calore: q(x, t) =
1
2
n(x, t)m v
2
v[x, t
Notare la media che rimane nel termine di forza esterna; il simbolo di media `e necessario nei
casi in cui la forza dipende dalla velocit`a come ad esempio in presenza di campi magnetici:
F
EM
[x, t = eE(x, t) +
1
c
[u(x, t) B(x, t)]
Discuteremo pi` u sotto il signicato sico della pressione e del usso di calore.
Notiamo subito la presenza di una struttura gerarchica delle equazioni uide, che richia-
ma quanto osservato nel caso delle equazioni per le distribuzioni
1
,
2
, eccetera. Vediamo
infatti che per risolvere lequazione per n (momento zero), sarebbe necessario conoscere u
(momento uno) e per risolvere lequazione per u sarebbe necessario conoscere P e
ij
(mo-
menti due). Analogamente, per risolvere lequazione per T sarebbe necessario conoscere il
momento tre q. Si potrebbe essere tentati a questo punto di seguire un approccio di tipo
chiusura statistica, fermandosi ad esempio al livello di campo medio. Vediamo subito per` o
50 CAPITOLO 3. LA TEORIA CINETICA
che un simile approccio porterebbe a trascurare in una espressione come v
2
= u
2
+ v
2
th
,
la velocit`a termica v
th
, che in gran parte delle situazioni di interesse `e tuttaltro che tra-
scurabile (per dire, la velocit`a termica delle molecole daria a pressione e temperatura
atmosferica `e dellordine della velocit`a del suono 330m/s). Questo suggerirebbe cautela
anche con chiusure di ordine pi` u alto, come trascurare il momento terzo q(x, t) (gi`a il nome
usso di calore suggerisce che questo termine potrebbe essere invece importante).
Il problema quindi rimane, perche le equazioni dei momenti nella forma data qui sopra
risultano essere non chiuse: ci mancano espressioni per il usso di calore e per il tensore di
pressione anisotropo. Losservazione cruciale `e che questi termini sono associati alla parte
non Maxwelliana della distribuzione, che abbiamo indicato con

f.
Il punto `e importante e vale la pena vericarlo. Per far ci`o, scriviamo la distribuzione
di Maxwell-Boltzmann in funzione degli scarti:
f
MB
= C exp( v
2
/(2
2
v
)) C exp( v
2
1
/(2
2
v
)) exp( v
2
2
/(2
2
v
)) exp( v
2
3
/(2
2
v
)).
La dimostrazione che il usso di calore si annulla `e immediata (la distribuzione f
MB
`e pari
rispetto a v, e q `e la media di un oggetto dispari). Per quanto riguarda
ij
, consideriamo
separatamente i due casi i ,= j e i = j. Per i ,= j, troviamo subito, essendo le componenti
dello scarto indipendenti:

ij
= nm v
i
v
j
= nm v
i
v
j
= 0.
Per i = j abbiamo invece v
2
= [v
2
1
+ v
2
2
+ v
2
3
] = 3v
2
i
e quindi:

ii
= nm( v
2
i
v
2
/3) = 0.
Ricordo che la componente f f
MB
`e quella associata agli urti e quindi in buona sostanza
quella che porta allaumento di entropia e al rilassamento allequilibrio.
I termini
ij
e q nelle equazioni uidi, associati alla deviazione f f
MB
, sono detti
pertanto termini non ideali, mentre le equazioni per i momenti n, u e T, in assenza
delle componenti
ij
e q descrivono la cos` detta uidodinamica ideale.
3.6 Viscosit`a e diusivit`a termica
I termini non ideali possono essere ottenuti tramite una espansione perturbativa della
equazione di Boltzmann, in cui il parametro di espansione `e il rapporto /L, approccio che
va sotto il nome di espansione di Chapman-Enskog. Alternativamente, si pu`o seguire
un approccio euristico, accontentandosi di stime per ordine di grandezza delle quantit`a
ij
e q, e focalizzandosi invece sul signicato sico di questi termini.
Cerchiamo di capire innanzitutto lorigine della componente non Maxwell-Boltzmann
(cio`e non-Gaussiana) della distribuzione di velocit`a, in presenza ad esempio di un gradiente
di temperatura lungo x
1
.
3.6. VISCOSIT
`
A E DIFFUSIVIT
`
A TERMICA 51
Il fatto `e che in un punto dato, passeranno molecole che arrivano da punti a x
1
diversi.
Quindi, se la distribuzione (almeno inizialmente) `e Maxwelliana, ma con valori di T che
variano lungo x
1
, quello che si vedr` a dopo un po nel punto dato, sar`a una sovrapposizione
di Maxwelliane diverse, che non sar`a, in genere, una Maxwelliana. La presenza degli
urti, attraverso il termine (f/t)
coll
, ha leetto che le molecole che arriveranno in x
1
,
origineranno da urti avvenuti tipicamente a x
1
. In altre parole, la distribuzione di
velocit`a in x
1
non sar`a una sovrapposizione di Maxwelliane arbitrarie, ma solo di quelle
poste a distanza dal punto in questione.
Questo ci permette di stimare il usso di calore in x
1
:
q =
1
2
nm v
2
v
m
2
_
d
3
v v
2
v

f Kn[v
th
(x
1
)T(x
1
) v
th
(x
1
+ )T(x
1
+ )]e
1
dove v
th
(x
1
) `e la componente 1 della velocit`a delle molecole che arrivano in x
1
a partire
da urti in x
1
(ovviamente per arrivare in x
1
da sinistra, la velocit`a deve essere positiva,
e viceversa). Vediamo che abbiamo a che fare veramente con un usso di energia termica:
se moltiplichiamo per lelemento darea x
2
x
3
, la quantit`a qx
2
x
3
`e proprio il numero
di molecole che passano attraverso x
2
x
3
da sinistra, moltiplicato la loro energia cinetica
KT(x
1
), meno il contributo da destra, in cui lenergia cinetica `e KT(x
1
) a
sinistra. Siccome abbiamo preso L, possiamo espandere in serie di Taylor e troviamo
q(x
1
) n(/x
1
)(v
th
KT)e
1
nv
th
(KT/x
1
)e
1
. Prendendo la variazione di T in
una direzione generica:
q = n
T

x
KT,
T
v
th


2

coll
, (3.27)
dove il coeciente
T
`e detto diusivit`a termica del gas.
Procedendo in maniera analoga a quanto fatto con il usso di calore, possiamo vedere
che il tensore di pressione anisotropo `e associato agli sforzi viscosi. Consideriamo il caso pi` u
semplice in cui eetti di compressione nel gas sono trascurabili e gli unici moti presenti sono
scivolamenti di masse di gas le una rispetto alle altre. Immaginiamo quindi che passando
da x
1
a x
1
+ , quello che succede sia un cambio nella componente u
2
della velocit`a
uida.
In questo caso, le molecole che arrivano da x
1
, quando arrivano in x
1
, si ritrovano con
una componente 2 della velocit`a media u
2
(x
1
). Supponiamo per semplicit`a u(x) = 0,
cos` che v = v in x
1
. Supponiamo poi n uniforme. Troviamo allora

12
(x
1
) = nmv
1
v
2
m
_
d
3
v v
1
v
2

f
nm[v
th
(x
1
)u
2
(x
1
) v
th
(x
1
+ )u
2
(x
1
+ )].
Di nuovo, v
th
(x
1
) `e la componente 1 della velocit`a delle molecole che arrivano in x
1
a partire da urti in x
1
. In questo caso, abbiamo a che fare con un usso di momento
lineare, cio`e il momento lineare in direzione 2 trasferito in direzione 1 per unit`a di tempo
e unit`a di supercie nel piano x
2
x
3
. In altre parole `e la forza in direzione 2 esercitata per
52 CAPITOLO 3. LA TEORIA CINETICA
unit`a di supercie dal gas a sinistra di x
1
sul gas a destra di x
1
. In altre parole, si tratta di
uno sforzo di taglio (o tangenziale). Notare che abbiamo parlato di pressione anisotropa;
per confronto, la pressione in senso stretto `e lo sforzo perpendicolare esercitato da una
parte del gas su unaltra adiacente. Di nuovo espandiamo in serie di Taylor per L,
cos` da trovare
12
(x
1
) n(/x
1
)(v
th
u
2
) nv
th
(u
2
/x
1
). Prendendo le variazioni
di u in direzioni generiche.

ij
= nm
_
u
i
x
j
+
u
j
x
i
_
v
th


2

coll
(3.28)
e il coeciente `e detto viscosit`a cinematica del gas, mentre la quantit`a = nm `e
chiamata viscosit`a dinamica. Nel caso di aria a temperatura e pressione atmosferica
abbiamo
T
0.1cm
2
/s.
A questo punto siamo nalmente in grado di scrivere le equazioni della uidodinamica
tenendo conto degli eetti non ideali. Lequazione per la conservazione del momento (3.25)
diventa, utilizzando la (3.28), nel caso pi` u semplice di ussi non comprimibili ( u = 0):
nm
_

t
+u
x
_
u +
x
P = nF
ext
+
2
x
u, (3.29)
mentre lequazione per la conservazione dellenergia diventa, nel caso pi` u semplice in cui
le variazioni di densit` a sono piccole:
n
_

t
+u
x
_
KT +
2
3
P u =
2
3
n
T

2
x
KT
2
3

ij
u
i
x
j
. (3.30)
Queste due equazioni sono dette lequazione di Navier-Stokes (incomprimibile) e le-
quazione del trasporto di calore.
Isoliamo nelle due equazioni leetto dei termini non ideali. Iniziamo dalla equazione
di Navier-Stokes e consideriamo il caso in cui le velocit`a sono piccole (cos` che il termine
quadratico pu`o essere trascurato), e non ci siano ne gradienti di pressione ne forze esterne.
Lequazione diventa:
u
t
=
2
x
u.
In maniera analoga, se supponiamo il uido immobile, vediamo che lequazione per il
trasporto del calore diventa
T
t
=
T

2
x
T,
che non `e altro che lequazione di diusione (2.42). Vediamo che in entrambi i casi, si ha
una equazione del calore che descrive il rilassamento a un prolo di u (nel primo caso) e
di T (nel secondo), uniformi su un tempo scala
termo
(L/)
2

coll
. Questo `e il tempo
di rilassamento dovuto esclusivamente a eetti molecolari di diusione del calore e del
momento e il risultato nale `e precisamente lo stato di equilibrio termodinamico globale
del sistema isolato.
3.6. VISCOSIT
`
A E DIFFUSIVIT
`
A TERMICA 53
Il fatto che la componente di trasporto di calore e momento lineare dovuta a urti mo-
lecolari sia descritta attraverso una equazione del calore, giustica a posteriori lutilizzo di
un modello di gas basato su cammino random. Il cammino random `e in pratica quello delle
molecole, caratterizzato da salti di lunghezza e probabilit`a di salto per unit`a di tempo

1
coll
(un salto per tempo di collisione). Vediamo quindi che il tempo di rilassamento
cinetico individua la microscala del cammino random, mentre il tempo di rilassamento
termico non `e altro che il tempo che impiega tipicamente il camminatore per percorrere
una distanza L.
3.6.1 Diusione in una miscela di gas
`
E ladattamento al caso di un gas, del classico problema della goccia di colorante che si
dissolve in un liquido, anche se noi non mescoliamo. Evidentemente, fenomeni di diusione
prodotti dalle collisioni molecolari, causano mescolamento anche se il liquido `e fermo.
Consideriamo il caso di una miscela di due componenti a e b, di cui una molto diluita:

a

b
, dove
a,b
= n
a,b
m
a,b
sono le densit` a di massa delle due specie e =
a
+

b
. Possiamo ottenere una velocit`a uida u a partire dalla densit` a di momento lineare

a
u
a
+
b
u
b
= u e troviamo di nuovo u u
b
. Consideriamo una situazione di equlibrio
termodinamico per tutte le variabili, eccetto la concentrazione n
a
che `e presa funzione della
posizione. Quindi, n, T e u sono uniformi, e ci possiamo porre nel sistema di riferimento
in cui u = 0. La velocit`a u
a
diventa quindi la velocit`a di dispersione della specie a
nella miscela; la sua conoscenza ci permetterebbe di determinare levoluzione della densit` a
n
a
e di descrivere la dinamica del processo di mescolamento. Semplici considerazioni di
conservazione di massa ci permettono di scrivere lequazione di continuit`a (in assenza di
reazioni chimiche):

t
n
a
+ (n
a
u
a
) = 0. (3.31)
La velocit`a u
a
`e il risultato delle collisioni delle molecole a con le molecole b. Possiamo
stimarla attraverso considerazioni analoghe a quanto fatto nel caso della diusivit`a termica.
Supponendo un gradiente di n
a
lungo x
1
, il usso generato dallarrivo in x
1
di molecole che
hanno termalizzato in posizioni x
1

a
, sar`a:
n
a
(x
1
, t))u
a
(x
1
, t) n
a
(x
1

a
, t)v
th,a
n
a
(x
1
+
a
, t)v
th,a

a
v
th,a
n
a
(x
1
)
x
1
, (3.32)
dove
a
`e il cammino libero medio delle molecole nel gas. Troviamo quindi una relazione
usso gradiente n
a
u
a
=
a
n
a
dove
a

a
v
th,a
`e la diusivit`a della specie a nella
miscela. Sostituendo nella (3.31), otteniamo lequazione di diusione:

t
n
a
=
a

2
n
a
; (3.33)
lanalogia con il comportamento del camminatore random `e evidente: in questo caso sono
le molecole b che causano il moto random delle molecole a.
54 CAPITOLO 3. LA TEORIA CINETICA
La presenza di una velocit`a relativa media tra una specie ed unaltra deve essere as-
sociata evidentemente alla esistenza di una forza che agisce fra di loro. Cerchiamo di
determinarne la natura.
Lequazione di Navier-Stokes per la specie a avr`a la stessa espressione (3.29), eccetto
per la forza dovuta alle collisioni con le molecole b, che pu`o essere stimata come f
coll

a
u
a
/
coll
. Consideriamo la situazione semplicata in cui il prolo di densit` a a un certo
istante `e lineare, n
a
(x, t) n
0,a
+ax, cos` che u
a
`e uniforme. Troviamo quindi la relazione
3
P
a
+
a
u
a
/
coll
= 0,
dove P
a
= n
a
T `e la pressione parziale della specie a. Risolvendo rispetto a u
a
, ritroviamo
la Eq. (3.32). Vediamo quindi che la velocit`a di dispersione non `e altro che la reazione
della specie a al gradiente di pressione parziale prodotto dalla disomogeneit`a nel prolo di
n
a
.
3.7 Dalla teoria cinetica alla termodinamica
3.7.1 Pressione e legge di stato
Abbiamo chiamato la quantit`a P = nKT che entra nelle equazioni di Navier-Stokes e di
trasporto del calore pressione cinetica. Verichiamo che si tratti eettivamente di una
pressione.
Consideriamo allora un elemento di uido V , cio`e un volume di uido sucientemente
piccolo che u sia approssimativamente costante al suo interno, e le cui pareti si muovano
con il uido, di maniera tale che il contenuto di molecole del volumetto non vari nel tempo.
Integrando lequazione di Navier-Stokes (3.29) sullelemento di uido troviamo (vedi nota
sotto):
M
_

t
+u
x
_
u(x, t) M
du(x(t), t)
dt
=
_
V
d
3
x
x
P + N(F
visc
+F
ext
), (3.34)
che non `e altro che la seconda legge di Newton per lelemento di uido, con M la massa
totale ed N il numero totale di particelle nellelemento. Focalizziamoci sulla componente
1 del contributo alla forza dovuto a P. Prendendo per V allistante dato un cubo con lati
x
i
, i = 1, 2, 3, abbiamo:

_
V
d
3
x
P
x
1
x
2
x
3
[P(x
1
+ x
1
) P(x
1
)].
Ma questa non `e altro che la denizione di pressione come forza perpendicolare alla su-
percie diviso la supercie stessa. La forza totale in direzione 1 sul volumetto `e quindi
3
Lassenza del termine
a

t
, nella equazione, `e dovuta alla Eq. (3.32), e al fatto che n `e lineare, e
quindi, dalla (3.33),
t
n
a
= 0.
3.7. DALLA TEORIA CINETICA ALLA TERMODINAMICA 55
ottenuta a partire dalla dierenza tra le pressioni esterne sulle due facce x
2
x
3
poste a
x
1
e x
1
+ x
1
.
Notiamo per ultimo che la denizione della pressione cinetica, espressa in funzione del
numero di molecole totale in V , diventa la legge di stato dei gas ideali nella sua forma
standard:
PV = NKT. (3.35)
Nota. Esaminiamo pi` u da vicino il passaggio nella Eq. (3.34) che ci ha permesso di
scrivere il termine (
t
+u
x
)u come una derivata totale. Abbiamo
M
m
du
dt

d
dt
_
V (t)
d
3
x nu =
_
V (t)
d
3
x
nu
t
+
1
t
_
_
V (t+t)
d
3
xnu
_
V (t)
d
3
xnu
_
=
_
V (t)
d
3
x
nu
t
+
_
V (t)
dS u nu =
_
V (t)
d
3
x
_
nu
t
+
u
i
nu
x
i
_
Daltra parte possiamo scrivere
x
i
(u
i
nu) = u
x
(nu) +nu
x
u e utilizzando lequazione
di continuit` a (3.24), troviamo la (3.34). Vediamo quindi che loperatore (
t
+u
x
) che
compare nelle equazioni uide, descrive una variazione lungo una traiettoria del uido. Il
termine u
x
che rappresenta la correzione a
t
, dovuta al fatto che ci spostiamo con il
uido, `e detto termine di avvezione.
3.7.2 Energia termica
Abbiamo denito la temperatura cinetica a partire dalla distribuzione di Maxwell-Boltzmann
e abbiamo esteso poi la denizione al caso di una generica distribuzione di non equilibrio
f tramite la relazione
T =
m
3K
v
2
[x, t.
Lenergia media di una molecola `e quindi =
3
2
KT e lenergia termica di un gas ideale a
temperatura uniforme, contenente N molecole sar`a
U
th
=
3
2
NKT.
Per ottenere lenergia interna totale U, dobbiamo aggiungere a U
th
lenergia dei legami
chimici delle molecole U
chem
= N e lenergia cinetica dei moti macroscopici:
U
mecc
=
m
2
_
V
d
3
xn(x, t)u
2
(x, t).
Nel sistema di riferimento del volume V , il momento lineare totale del gas `e nullo e quindi
_
V
d
3
xn(x, t)u(x, t) = 0. Nel caso di un sistema che non `e un gas ideale, dovremmo
naturalmente includere anche lenergia di interazione U
int
fra le molecole (questo contributo
diventa particolarmente importante in corrispondenza di transizioni di fase). Lenergia
56 CAPITOLO 3. LA TEORIA CINETICA
interna totale sar`a quindi U = U
th
+ U
chem
+ U
mecc
+ U
int
. Imponendo conservazione
dellenergia, otteniamo il primo principio della termodinamica:
U = QR, (3.36)
dove Q `e il calore ricevuto dallambiente esterno, e R `e il lavoro eseguito dal corpo
sullambiente esterno.
3.7.3 Calore e lavoro
Verichiamo che i due termini
2
3
P
x
u e
2
3
n
T

2
x
KT nella (3.30), permettono di descrivere
i cambi di energia termica del gas generati attraverso compressione e scambio di calore.
Consideriamo allora un elemento di uido V . Integrando lequazione di trasporto del calore
(3.30) sullelemento di volume e utilizzando la denizione U
th
= (3/2)NKT, troviamo
dU
th
dt
=
_
V
d
3
x P
x
u + n
_
V
dS
x
KT +
dR
visc
dt
, (3.37)
dove dR
visc
/dt = (2/3)
_
V
d
3
x
ij

x
j
u
i
. Supponiamo ora che il processo di compressione
o espansione si svolga abbastanza lentamente da far s` che il gas sia istantaneamente in
uno stato di quasi equilibrio dal punto di vista meccanico, e che quindi P sia uniforme.
Abbiamo allora

_
V
d
3
x P
x
u P
_
V
d
3
x
x
u = P
_
V
dS u.
Ma
_
V
dS udt non `e altro che il cambio di volume nellintervallo di tempo dt e quindi
dU
th
dt
= P
dV
dt
+ n
_
V
dS
x
KT +
dR
visc
dt
.
Il termine PdV/dt `e la potenza esercitata dal gas nel volume V sullambiente esterno,
positivo in una espansione, negativo in una compressione. Notiamo che se considerassimo
lequazione per lenergia dellambiente esterno, troveremmo la stessa equazione, solo con
dV
ext
/dt = dV/dt. Quindi, se le pressioni esterne ed interna sono uguali, il che `e vero
se il processo `e sucientemente lento, il lavoro eseguito dal volumetto corrisponde a una
perdita di energia termica dello stesso e a un aumento dellenergia dellambiente esterno.
Quindi R = PV . Al contrario, uno squilibrio di pressione implica accelerazione di parti
del sistema e dellambiente esterno, e PV descrive la conversione di energia termica del
sistema allo stesso tempo in energia termica dellambiente esterno ed in energia meccanica
del sistema e dellambiente esterno.
Vediamo che le stesse considerazioni sono associate al usso totale di calore [secondo
termine a lato destro della (3.37)]
T
= n
_
V
dS
x
KT, dallesterno al volumetto V
(ricordo che q entrava con segno meno a lato destro dellequazione del calore). Abbiamo
infatti la relazione

T
= n
_
V
dS
x
KT = n
_
V
ext
dS
ext

x
KT =
ext
T
,
3.7. DALLA TEORIA CINETICA ALLA TERMODINAMICA 57
cio`e il usso totale dal volume allesterno `e pari a meno il usso dallesterno al volu-
me. Quindi Q =
_
dt
ext
T
. Notiamo che se la temperatura allesterno `e maggiore che
allinterno, avremo dS
x
T < 0 e quindi c`e un usso di calore positivo nel volumetto.
Il risultato che il usso di calore si verica in direzione opposta al gradiente di tem-
peratura porta naturalmente allenunciato di Clausius del secondo principio della
termodinamica: Non esistono trasformazioni il cui unico risultato sia il trasferimento di
calore da un corpo freddo a un corpo caldo.
Rimane da considerare lultimo termine

R
visc
. Questa `e evidentemente il termine di
conversione lavorocalore dovuto a dissipazione viscosa dei moti interni del gas. Se il gas
allinterno di V `e in movimento, u(x, t) ,= 0, vi sar`a conversione di energia meccanica
in energia termica, anche se, nel caso Q = R = 0, la variazione di U `e zero. Di
nuovo, se il gas `e inizialmente fermo, e cambiamenti di volume e trasferimenti di calore
si svolgono abbastanza lentamente, i moti innescati saranno essi stessi sucientemente
lenti e il contributo R
visc
al cambio di U
th
diventa trascurabile. In parole povere, U
th
soddisfarr` a una relazione del tipo della prima legge della termodinamica in forma analoga
alla (3.36).
3.7.4 Entropia e temperatura
Abbiamo visto che il termine di usso di calore nella equazione per il trasporto di calore
va in direzione opposta ai gradienti di temperatura e porta pertanto il gas ad assumere
una congurazione a temperatura uniforme. Ci farebbe piacere che lentropia di Boltz-
mann raggiungesse un massimo in questa che `e evidentemente la condizione di equilibrio
termodinamico per il gas. Vogliamo in buona sostanza stabilire lidentit`a fra lentropia
di Boltzmann e lentropia termodinamica del nostro sistema. Lavorando allequilibrio, un
calcolo rapido ci d`a, utilizzando la (3.19):
S
f
MB = N
_
3
2
ln T + ln(V/N) +
_
:= S(T, V, N) (3.38)
dove `e una costante. Supponiamo quindi di avere due parti macroscopiche A e B di un
sistema isolato e che lunica maniera in cui queste due parti comunichino sia attraverso
scambio di calore. Abbiamo pertanto U = U
A
+ U
B
, che sar`a una quantit`a costante. In
maniera analoga possiamo scrivere, se supponiamo le due parti in uno stato di equilibrio
termodinamico al loro interno:
S = S
A
(U
A
) + S
B
(U U
A
)
[la scelta (3.12) ci garantisce che lentropia `e additiva; ricordo inoltre che abbiamo ipotizza-
to che non ci sono scambi di molecole, fra le due parti, per esempio attraverso lintroduzione
di una parete conduttrice di calore, e quindi la dipendenza di S da n `e irrilevante]. Abbia-
mo visto che lequilibrio corrisponde a un massimo dellentropia, che nel nostro caso sar`a
un massimo rispetto a U
A
. La condizione di equilibrio sar`a pertanto
dS
dU
A
= 0
dS
A
dU
A
=
dS
B
dU
B
;
d
2
S
A
dU
2
A
+
d
2
S
B
dU
2
B
< 0.
58 CAPITOLO 3. LA TEORIA CINETICA
Ora, utilizzando la relazione U =
3
2
NKT, possiamo scrivere
dS
A
dU
A
=
dS
A
dT
A
_
dU
A
dT
A
_
1
=
1
KT
A
e similmente per S
B
e la condizione di equilibrio diventa sostanzialmente T
A
= T
B
. Vediamo
quindi che la temperatura cinetica denita a partire dalla varianza della velocit`a nella (3.19)
ha il comportamento corretto di una temperatura termodinamica. Troviamo inoltre che
la condizione che il massimo dellentropia sia veramente un massimo, `e soddisfatta grazie
alla relazione dU/dT =
3
2
NK > 0:
d
2
S
A
dU
2
A
=
2N
3
d
dU
A
1
U
A
=
2N
3U
2
A
.
Notiamo che la condizione di equilibrio dS
A
/dU
A
= dS
B
/dU
B
prescinde dal fatto che
avessimo denito di partenza una temperatura cinetica T. Di fatto, avremmo potuto
denire una temperatura termodinamica
1
KT
termo
A
=
dS
A
dU
A
senza riferimento alla dinamica microscopica del sistema (a patto che la condizione di
convessit`a dellentropia in funzione dellenergia S

< 0 sia vericata). Di fatto questa


relazione pu`o essere invertita nella forma
dS
A
=
dU
A
KT
A
,
ma questa (a meno di un fattore K) non `e altro che la denizione termodinamica di entropia
della parte A del sistema, essendo dU
A
uguale, nelle condizioni prese in esame, al calore
ricevuto. Possiamo quindi denire, per un generico sistema internamente in equilibrio
termodinamico, che scambia calore con lesterno:
dS
termo
=
dQ
T
, (3.39)
che `e la denizione termodinamica di variazione di entropia nella sua forma pi` u familiare.
Per evitare di portarci dietro costanti, poniamo subito K = 1, cos` che dora in poi S
S
termo
.
Lassociazione dellentropia allo scambio di calore ci porta naturalmente alla seguente
espressione del primo principio della termodinamica, valida per sistemi in equilibrio interno:
dU = TdS PdV, (3.40)
in cui lenergia `e intesa come funzione di S e V , invece che di T (e in principio, per un
sistema generico, anche di V ). Il primo principio della termodinamica diventa in questo
modo equivalente a una denizione di temperatura e pressione a partire dallenergia:
T(S, V ) =
U(S, V )
S
, P(S, V ) =
U(S, V )
V
(3.41)
3.8. ESERCIZI 59
(si ribadisce che il sistema deve essere supposto abbastanza vicino allequilibrio, cos` che
eventuali variazioni di P e T al suo interno siano trascurabili). A questo punto, il lavoro
adiabatico diventa essenzialmente il lavoro a entropia costante:
R[
S
=
_
V
f
V
i
P(S, V )dV (3.42)
mentre
Q[
V
=
_
S
f
S
i
T(S, V )dS (3.43)
`e il calore scambiato a volume costante.
3.8 Esercizi
Esercizio 1 Le amebe in una coltura hanno nellintervallo di tempo dt probabilit`a
B
dt
di dividersi in due, probabilit`a
D
dt di morire, e probabilit`a 1(
B
+
D
)dt di non morire
e non dividersi (si trascura la probabilit`a di dividersi e poi morire nello stesso intervallo).
Sia N(t) il numero di amebe nella coltura allistante t.
Scrivere lequazione master per la PDF (N, t).
Derivare lequazione di evoluzione per la media N(t) e per il secondo momento
N
2
(t). (Suggerimento: si provi a calcolare esplicitamente (d/dt)N(t) e (d/dt)N
2
(t);
si consiglia di lavorare nel limite continuo in cui dierenze nite in N diventano
derivate).
Discutere il caso
B
=
D
.
Esercizio 2
`
E ragionevole supporre che la divisione cellulare sia bloccata da una popola-
zione eccessiva. Supporre quindi che la probabilit`a di morte per unit`a di tempo sia nella
forma
D
=
B
N/N
0
.
Scrivere di nuovo lequazione master per la PDF (N, t).
Derivare lequazione di evoluzione per la media N(t) e la varianza (N(t))
2
e
stimare i valori di queste quantit`a allo stato stazionario.
In base alla risposta al punto precedente, dire in quale range di parametri N
0
, ci
potremmo aspettare che unapprossimazione di campo medio sia applicabile allo sta-
to stazionario. Per far ci`o, conviene determinare allo stato stazionario la varianza

2
N
(supporre piccoli gli scarti N = N N, e ottenere dalla equazione master,
lavorando a ordine pi` u basso in N, e imponendo stato stazionario, lequazione per
(N)
2
).
60 CAPITOLO 3. LA TEORIA CINETICA
Esercizio 3 Generalizziamo il problema di cui al caso precedente alla situazione in cui le
amebe possono spostarsi avanti e indietro lungo un canale. Dividiamo il canale in settori
successivi i = 1, 2, ....M e supponiamo che unameba possa in un intervallo di tempo dt,
oltre a riprodursi e morire, saltare avanti o indietro con probabilit`a Sdt (si trascuri di
nuovo il caso di simultaneo salto e morte o divisione).
Scrivere lequazione master per
M
(N
i
, t).
Scrivere lequazione per la distribuzione per il numero di amebe in un dato settore

1
(N; i, t).
Esercizio 4 Una supercie piana scorre a velocit`a costante e ad altezza costante su unaltra
supercie parallela ssa. Calcolare la forza per unit`a di supercie che bisogna esercitare
sulla supercie superiore per tenerla in moto. Si trascurari il termine avvettivo nella
equazione di Navier-Stokes (limite di bassi numeri di Reynolds). Supporre le superci
idealmente innite e che non vi siano gradienti di pressione orizontali.
Esercizio 5 Modicare lequazione di continuit`a per un gas nel caso ci siano due specie A
e B, con le molecole A che si trasformano in B con probabilit`a per unit`a di tempo .
Esercizio 6 Lo space-shuttle `e lungo una quarantina di metri. Calcolare laltezza alla quale
una descrizione uida delle sue propriet` a aerodinamiche risulterebbe inecace (supporre
per semplicit`a un prolo isotermo di temperatura: T = 300
o
K su tutta la colonna daria).
Come dipende il risultato dalla velocit`a del veicolo?
Esercizio 7 Una massa M di un gas ideale monoatomico viene riscaldata in maniera
isobara sino a passare da temperatura T a temperatura T + T. Sia V il volume iniziale
del gas e m la massa atomica. Si calcoli la variazione di entropia di Boltzmann del gas nel
passare da uno stato allaltro (si considerino gli stati iniziali e nali di equilibrio). Il gas si
espande nel processo; di quanto si espande?)
Esercizio 8 Ottenere dalla equazione di Navier-Stokes (3.29)), la potenza totale dissipata
in un volume V dalle forze viscose, e dimostrare che `e uguale al termine di conversione
lavoro calore

R
visc
che compare nella Eq. (3.37). Si consideri per semplicit`a un uido
incomprimibile u = 0.
Capitolo 4
Termodinamica
4.1 Processi reversibili e irreversibili
Ritorniamo al sistema isolato esaminato nella lezione precedente, formato da due sotto-
sistemi A e B in equilibrio interno, che scambiano calore fra di loro a volume costante.
Pertanto U
A,B
= Q
A,B
. Abbiamo visto che allequilibrio lentropia totale S = S
A
+S
B
ha un massimo rispetto a come si distribuisce lenergia fra i due corpi. Questo fa s` che per
piccole deviazioni dallequilibrio lentropia dierisca dal suo valore allequilibrio per termini
quadratici nella deviazione dellenergia; se

U
A
`e lenergia del sottosistema A allequilibrio:
S = S(

U
A
) S(U
A
) =
1
2
S

U
A
)(U
A


U
A
)
2
+ O((U
A


U
A
)
3
). (4.1)
Se guardiamo la variazione rispetto allequilibrio dellentropia dei due sottosistemi, vediamo
per` o che questa `e lineare nellenergia; a meno di termini quadratici in U
A
=

U
A
U
A
:
S
A
= S
B
= U/T, (4.2)
dove S
A
= S
A
(

U
A
) S
A
(U
A
) e S
B
= S
B
(U

U
A
) S
A
(U U
A
).
Chiamiamo reversibile (irreversibile) un processo (in un sistema isolato) in cui
laumento di entropia globale si pu`o (non si pu`o) considerare trascurabile.
Possiamo precisare la condizione di reversibilit`a imponendo in maniera esplicita S
A,B

S. Utilizzando le due Eqs. (4.1) e (4.2), e utilizzando S

A
(

U
A
) = S

B
(

U
B
) = 1/T insieme
a S

U
A
) T
2
(U
A
/T)
1
, troviamo la condizione
T
U
A
T
U
A
, (4.3)
che, per un gas ideale, diventa semplicemente T
A
< (T
B
T
A
) T
A
: la dierenza di
temperatura fra i due corpi in contatto doveva essere inizialmente piccola.
Notiamo che se la condizione di reversibilit`a non `e vericata, il processo di raggiun-
gimento dellequilibrio pu`o non essere descrivibile in maniera univoca attraverso quantit`a
61
62 CAPITOLO 4. TERMODINAMICA
S
B
S
A
U 2
S
A
S
B
( + )/ 2
U/T S/2+
U/T S/2
U
A
U
B
A,B
A,B
S
S/2
U
U/2
Figura 4.1: Prolo dellentropia dei sottosistemi in funzione della loro energia interna.
Allequilibrio S(U) = 2S
A
(U). La pendenza della tangente in U `e data dallinverso della
temperatura di equilibrio T
riferibili solo ai sottosistemi A e B. Solo i valori iniziali e nali dei parametri termodinamici
di A e B possono a questo punto essere assegnati. I valori intermedi possono non essere
ben deniti perche lo scambio di calore pu`o generare fenomeni di dipartita dallequilibrio
allinterno dei sottosistemi. In altre parole, A e B cessano di essere delle regioni di equili-
brio termodinamico locale, e per assegnare valori precisi dellentropia, sarebbe necessaria
una partizione pi` u ne del sistema.
La propriet` a di massimo dellentropia allequilibrio ha una interpretazione geometrica
nel caso i due sottosistemi A e B sono identici. Come nel caso dellentropia di Shannon,
un ruolo centrale `e giocato dalle propriet` a di convessit`a della funzione. In questo caso, le
funzioni entropia delle due parti, S
A
e S
B
, hanno identica forma e i valori di S possono essere
calcolati studiando una singola curva, come illustrato in Fig. 4.1. Vediamo dalla gura che
i punti della curva giacciono al disotto della tangente. Questo fa s` che S
A
(U
A
)+S
B
(U
B
)
S(U/2) con eguaglianza sodisfatta solo allequilibrio U
A,B
= U/2 (il punto di tangenza).
Vediamo quindi che la condizione di massimo di entropia allequilibrio `e associato al fatto
che S `e una funzione crescente e convessa dellenergia (confrontare con la discussione nella
Sez. 2.2). Per contro abbiamo visto che queste propriet` a sono associate alla positivit`a della
temperatura ed al fatto che questa `e a sua volta una funzione crescente della energia del
sistema. Lapprossimazione lineare S
A,B
S/2U/T `e essenzialmente lapprossimazione
reversibile per il processo giacche S
A
(U
A
) + S
B
(U
B
) S S(U).
Terminiamo con losservare che un sistema in cui la pressione e la temperatura sono
uniformi, pu`o tuttavia non essere in equilibrio dal punto di vista chimico o per la possibilit`a
di transizioni di fase (un esempio pu`o essere quello di un uido sovrarareddato). In modo
analogo, anche se P e T sono in prima approssimazione uniformi, potrebbero esservi parti
interne in moto, in grado pertanto di causare una produzione interna di calore. In tutti
questi casi, continua ad essere possibile descrivere il sistema non in equilibrio per mezzo
4.2. DISEGUAGLIANZE TERMODINAMICHE 63
di variabili di stato T e P, ma la variazione di entropia in seguito a un generico processo
irreversibile, conterr`a una componente dovuta ai processi di rilassamento interni tale che
dQ TdS,
dove luguaglianza vale in condizioni reversibili. Da qui otteniamo la seguente forma del
primo principio della termodinamica in forma di diseguaglianza:
dU TdS PdV, (4.4)
valida per sistemi non necessariamente in equilibrio interno.
4.2 Diseguaglianze termodinamiche
Abbiamo visto che nel caso di un gas ideale, di cui la dipendenza dellentropia da U e V era
nota, lequilibrio termodinamico viene raggiunto grazie al fatto che T = (S/U)
1
> 0 e

2
S/U
2
= T
2
(T/U) < 0. Ci domandiamo che cosa succederebbe se in un sistema
generico queste diseguaglianze non fossero vericate.
Prima di rispondere a questa domanda, notiamo la simmetria fra il rapporto tra
entropia, calore e temperatura, da una parte, e volume, lavoro e pressione dallaltra:
dQ = TdS; dR = PdV.
Concentriamoci sugli eetti puramente meccanici e supponiamo che non ci sia trasferi-
mento di calore del sistema con lesterno. Vediamo subito che una pressione negativa
implicherebbe che il sistema sarebbe in grado di cedere energia comprimendosi: il sistema
imploderebbe senza bisogno di azione dallesterno. Una pressione che diminuisce al de-
crescere del volume, daltra parte, renderebbe impossibile lequilibrio in presenza di una
pressione esercitata dallesterno. La compressione causata dalla pressione esterna cause-
rebbe una diminuzione (invece che un aumento) della pressione interna. La dierenza di
pressione fra esterno e interno aumenterebbe e il sistema sarebbe ulteriormente compresso
sino a portare di nuovo a una implosione.
Lanalogia meccanica ci suggerisce che qualcosa di simile deve succedere con calore,
temperatura ed entropia, e che le due condizioni T > 0 e U(T, V )/T > 0 debbano
sempre essere vericate in un sistema termodinamico.
Verichiamo prima che la temperatura deve sempre essere positiva. In eetti, se aves-
simo un sistema a temperatura negativa, vedremmo che questo sarebbe in eetti pi` u
caldo di uno a temperatura positiva. Immaginiamo infatti di mettere a contatto un si-
stema (A) con T
A
> 0 e uno (B) con T
B
< 0, e che continuino a valere le propriet` a che
lentropia totale (nei pressi dellequilibrio) `e la somma delle due entropie, e che aumen-
ti al passare del tempo. Abbiamo chiaramente Q
A
= Q
B
, con S
A
= Q
A
/T
A
e S
B
= Q
B
/T
B
= Q
A
/T
B
. Abbiamo per` o, imponendo la condizione di crescita
dellentropia:
S = S
A
+ S
B
=
_
1
T
A

1
T
B
_
Q
A
> 0
64 CAPITOLO 4. TERMODINAMICA
U
A
U
B
S/2
S
A
S
B
( + )/ 2
U
A
U
B
S
B
S
A
S
B
A,B
A,B
S
U
Figura 4.2: Prolo dellentropia dei sottosistemi in funzione della loro energia interna,
nel caso in cui T

(U) < 0. Lequilibrio corrisponde al sistema con energia inizialmente


maggiore che drena energia da quello che ce laveva inizialmente minore.
che implica Q
A
< 0: calore uisce da B ad A.
Una sistema con una temperatura positiva ma che decresce con lenergia avrebbe ca-
ratteristiche non meno paradossali. Supponiamo di mettere a contatto due sistemi A e B
identici ma con energie interne diverse: U
A
< U
B
. Il prolo dellentropia S
A
e S
B
`e quello
ragurato in Fig. 4.2: Vediamo che in questo caso, la funzione S
A,B
ha la convessit`a
verso il basso. I suoi punti giacciono pertanto al disopra della congiungente i due punti
corrispondenti alla condizione iniziale del sistema, per energie minori di U
A
e maggiori di
U
B
. Lentropia si massimizza per

U
A
= 0 e

U
B
= U
A
+ U
B
(la perdita di informazione nel
sistema B compensa laumento in A). In denitiva, per avere una termodinamica sensata,
la pressione e la temperatura di un sistema devono sottostare alle seguenti condizioni:
P, T > 0,
U
T

V
> 0,
P
V

S
> 0,
dove i pedici indicano che le due derivate sono eseguite rispettivamente a volume e a
entropia costanti.
Riassumendo quanto visto nora, perche un sistema ammetta una descrizione termo-
dinamica, le seguenti due condizioni devono essere soddisfatte:
1. Parti del sistema lontane fra di loro devono potersi considerare in prima approssi-
mazione indipendenti, cos` che lenergia (o qualche altra grandezza conservata, con
signicato analogo) goda della propriet` a estensiva. Diciamo che una grandezza `e
estensiva se il suo valore riferito a due corpi A e B `e dato dalla somma dei valori
riferiti a ciascuno dei due; un esempio di grandezza estensiva `e il numero di particel-
le: N
AB
= N
A
+ N
B
. (Vediamo che mentre energia, entropia, volume e numero di
particelle sono grandezze estensive, le quantit`a che determinanano lequilibrio, cio`e
la temperatura e la pressione, non dipendono dalla quantit`a di materia in gioco.
4.3. TERMODINAMICA: PUNTO DI VISTA MACROSCOPICO. 65
Quantit`a di questo tipo sono dette intensive e devono essere a loro volta funzioni
di combinazioni intensive delle variabili V S ed N; per esempio T = T(s, v), dove
s = S/N e v = V/N = n
1
sono lentropia specica e il volume specico molecolare).
2. Il sistema deve possedere uno stato di equilibrio termodinamico a cui tende natural-
mente, e deve essere possibile denire in modo sensato unentropia termodinamica.
Questo signica che lentropia deve essere estensiva, e deve essere una funzione con-
vessa e crescente dellenergia. Abbiamo visto nel capitolo precedente come la teoria
cinetica permetta di denire un concetto di entropia con un signicato termodinami-
co. Unapproccio alternativo per la costruzione di unentropia termodinamica verr`a
proposto nel prossimo capitolo (approccio di Gibbs).
A livello microscopico, queste condizioni richiedono in primo luogo che Il sistema deves-
sere composto da un gran numero di parti microscopiche indipendenti, di maniera tale
che la condizione di limite termodinamico sia soddisfatta. Questo richiede che il nume-
ro di costituenti fondamentali sia grande, e che la scala al di sopra della quale questi si
possono considerare indipendenti (lunghezza di correlazione) sia molto minore della scala
di variazione delle propriet` a medie del sistema. Questo richiede in particolare che le di-
mensioni del sistema siano maggiori della scala caratteristica di interazione delle sue parti
microscopiche.
In secondo luogo, ci si aspetta che la dinamica sia caratterizzata a scala microscopica
da una di perdita di informazione, rispetto alle condizioni iniziali, che corre in parallelo
alla la crescita di entropia a scala macroscopica. Questo corrisponde alla intuizione che
gli stati di equilibrio termodinamico debbano corrispondere a congurazioni microscopiche
pi` u sparpagliata. Diventa cos` naturale denire lentropia come perdita di informazione
nel passaggio da una descrizione pienamente determinata a scala microscopica, a quella
data dalla conoscenza dello stato macroscopico in cui si trova il sistema.
4.3 Termodinamica: punto di vista macroscopico.
`
E noto che la termodinamica fu derivata originariamente senza alcun riferimento alla strut-
tura microscopica della materia. Lunica informazione disponibile in questo genere di de-
scrizione, era quella fornita dalle cos` dette leggi di stato del sistema. Ci domandiamo
quali condizioni devono soddisfare queste leggi di stato perche sia possibile una descrizione
termodinamica del sistema. Cominciamo con il presentare quelli che sono gli assiomi di
base della termodinamica.
Ci si ritrova tipicamente ad avere a che fare con un sistema su cui si pu`o esercitare del
lavoro, e che pu`o a compiere lavoro sullesterno. Lenergia meccanica non `e per` o conservata
ed `e necessario introdurre il concetto di calore per rendere conto del fenomeno. Il risultato
`e il primo principio della termodinamica, che, nel caso di sistemi il cui stato `e denito
tramite pressione e volume pu`o essere scritto nella forma
dU = dQPdV
66 CAPITOLO 4. TERMODINAMICA
In analogia al caso di un sistema meccanico, si suppone che lo stato del sistema possa
essere descritto dando la sua energia interna U (o alternativamente la pressione P) e il suo
volume V . Lausso di calore dQ non `e invece associato a una funzione dello stato del
sistema e dQ non `e un dierenziale esatto.
Si osserva che sistemi diversi messi in contatto possono scambiare o no calore; sistemi
che non scambiano calore sono detti in equilibrio termodinamico. Si osserva poi che vale
il cos` detto principio zero della termodinamica: se i sistemi A e B sono ciascuno in
equilibrio con C, allora sono in equilibrio fra loro. Per caratterizzare lequilibrio mutuo
viene quindi introdotto il concetto di temperatura, come parametro che assume valori
uguali in sistemi allequilibrio.
Si osserva a questo punto che `e possibile ordinare le temperature in modo tale che
il calore si trasferisca sempre (ssati gli altri parametri, per esempio il volume) da corpi
a temperatura pi` u alta a quelli a temperatura pi` u bassa. Questo costituisce di fatto il
contenuto del secondo principio della termodinamica. Notiamo per` o che questo non `e
suciente a denire la temperatura in maniera univoca: una qualsiasi funzione crescente
della temperatura T che abbiamo utilizzato sinora andrebbe ugualmente bene.
Si osserva inne che esistono delle leggi di stato che legano i parametri di stato del
sistema, quali nel caso dei gas ideali U, V e P, alla temperatura. A questo punto, la
temperatura `e denita essenzialmente a partire dalla legge di stato dei gas ideali PV = NT,
dove in questo contesto N indica una quantit`a di materia (non necessariamente numero di
particelle) e K `e scelto in modo da far s` che T sia misurata nei gradi che si preferiscono
(K = 1 nel nostro caso).
Un punto di vista alternativo che evita una denizione della temperatura a partire
dalle propriet` a di un sistema specico come un gas ideale, `e quello di postulare da subito
lesistenza di una funzione di stato entropia. Questo `e equivalente a postulare che si possa
scrivere il primo principio della termodinamica nella forma
dU = TdS PdV, (4.5)
in modo che lentropia S giochi nei confronti della temperatura lo stesso ruolo giocato dal
volume nei confronti della pressione. Il fatto che durante la trasformazione, il sistema sia
caratterizzato da ben precisi valori di P e T, diventa la nostra denizione macroscopica di
reversibilit`a.
Lo stato del sistema pu`o quindi essere determinato a partire da P e V , oppure, utiliz-
zando la legge di stato, da T e V , oppure (e questo `e il postulato) a partire da S e V . In
altre parole, S deve essere una funzione di stato, che deve potere essere scritta in funzione
degli altri parametri del sistema V e T.
Iniziamo con il vericare che nel caso di un gas ideale. lentropia goda della propriet` a ri-
chiesta. Dobbiamo richiedere che dS =
1
T
(dU+PdV ) sia un dierenziale esatto. Dobbiamo
vericare che esista quindi una funzione S(V, T) tale che
dS =
S
T
dT +
S
V
dV.
4.3. TERMODINAMICA: PUNTO DI VISTA MACROSCOPICO. 67
Daltra parte, dal primo principio della termodinamica abbiamo (4.5), scrivendo tutti i
termini come funzione di V e T:
dS =
1
T
(dU + PdV ) =
1
T
_
U
T
dT +
_
U
V
+ P
_
dV
_
(4.6)
e utilizzando le due relazioni P(V, T) = NT/V e U(V, T) = (3/2)NT:
dS =
3N
2T
dT +
N
V
dV.
La condizione che dS sia un dierenziale esatto `e che le derivate
V

T
S e
T

V
S siano
identiche, e infatti,

2
S
V T
=

V
3N
T
= 0;

2
S
TV
=

T
N
V
= 0.
Pertanto, come richiesto (e come ci potevamo aspettare dalla teoria cinetica), nel caso di
un gas ideale, la funzione di stato entropia esiste.
Chiaramente, vengono ritrovate le stesse propriet` a dellentropia ottenute a partire dalla
derivazione cinetica. In particolare, che laumento di entropia globale nello scambio di
calore fra corpi diversi `e positivo ed `e trascurabile rispetto allo scambio di entropia quando
la dierenza di temperatura fra i due corpi `e piccola. Infatti, supponendo T
B
> T
A
(e
quindi Q
A
> 0):
S
A
+ S
B
= Q
A
_
1
T
A

1
T
B
_
> 0. (4.7)
Di nuovo, abbiamo uninterpretazione graca di questa diseguaglianza (vedi la Fig. 1 della
lezione precedente). Le due temperatura inverse 1/T
A
e 1/T
B
sono infatti i valori della
derivate S

A,B
nei due punti U
A
e U
B
. Il valore di S = S
A
+S
B
calcolato qui sopra, `e
quindi quello che si ottiene scrivendo S S

A,B
U
2
e approssimando la derivata seconda
con la dierenza nita [S

A,B
(U
A
) S

A,B
(U
B
)]/(2U).
Vediamo che la condizione che lentropia sia una funzione di stato nel caso di un sistema
generico impone delle condizioni sulla forma della legge di stato. Vediamo infatti che la
condizione di dierenziale esatto, imposta sul lato destro della (4.6)

V
1
T
U
T
=

T
_
U
V
+ P
_
conduce alla condizione, calcolando esplicitamente le derivate:
U
V
= T
P
T
P.
Vale la pena a questo punto calcolare esplicitamente lentropia di un gas ideale. Sfruttando
lindipendenza dellintegrale
_
T,V
T
0
,V
0
dS dal percorso nel piano T, V , possiamo scomporlo in
due pezzi (T
0
, V
0
) (T, V
0
) e poi (T, V
0
) (T, V ):
S(T, V ) = S(T
0
, V
0
) +
_
T
T
0
dS(T

, V
0
) +
_
V
V
0
dS(T, V

).
68 CAPITOLO 4. TERMODINAMICA
Scrivendo TdS = dU + PdV = (3/2)NdT + (NT/V )dV :
S(T, V ) = S(T
0
, V
0
) + N
_
3
2
_
T
T
0
dT

+
_
V
V
0
dV

_
= S(T
0
, V
0
) + N
_
3
2
ln T/T
0
+ ln V/V
0
_
,
che implica
S(T, V, N) = N
_
3
2
ln T + ln V
_
+ C(N).
La forma di C(N) `e determinata richiedendo la propriet` a estensiva per lentropia, e cio`e,
che se ho due sistemi A e B con identiche propriet` a interne (tipo di molecole, densit` a e
temperatura), deve valere S
AB
= S
A
+ S
B
, dove S
AB
`e lentropia dei due sistemi messi
in comunicazione. Questo ci d`a il risultato (3.38) che avevamo ottenuto in teoria cinetica
a partire dalla distribuzione di Maxwell-Boltzmann (3.19):
S(T, V, N) = N
_
3
2
ln T + ln(V/N)
_
+ N.
Nota. I termini in questa formula non sono ben deniti dal punto di vista dimensionale.
Dalla costante possono essere estratti i termini necessari per rendere largomento dei
logaritmi adimensionale. Questo `e possibile in maniera univoca invocando la meccanica
quantistica, nel qual caso lentropia `e ottenuta a partire da una partizione dello spazio
delle fasi in cellette di volume xv = /m:
S(T, V, N) = N ln
_
(mT)
3/2
V
N
3
_
+ N.
A questo punto, prende le dimensioni di unenergia per grado di temperatura e descrive
un contenuto interno di entropia delle molecole.
4.4 Lavoro massimo
Abbiamo visto (Eq. 4.7)) che lentropia di un sistema isolato, a causa dei processi irrever-
sibili che si svologono al suo interno, pu`o solo aumentare. Analogamente, la variazione di
entropia in un sistema non isolato, oltre al contributo dQ/T associato a scambio di calore,
avr`a una componente non negativa associata a processi di raggiungimento di equilibrio fra
le sue parti interne.
Continuando a lavorare con le variabili S e V , possiamo calcolare il lavoro massimo
che pu`o essere estratto da un sistema isolato che sta rilassando allequilibrio. Il fatto che
consideriamo un sistema isolato implica che trascuriamo quella componente di lavoro che
potrebbe risultare ad esempio da una espansione globale del sistema. Ci interessiamo solo
alla componente che risulta dal movimento di parti interne. Il problema coincide pertanto
con il calcolo dellecienza di un motore termico che estrae energia dal sistema tramite
una trasformazione ciclica. (Le considerazioni che seguono sono tratte in gran parte dalla
Sez. 19 del testo Fisica Statistica di Landau e Lifsits).
4.4. LAVORO MASSIMO 69
Immaginiamo per esempio che nel sistema una parte A `e a temperatura T
A
, una parte
B a temperatura T
B
con T
B
> T
A
, e una parte ulteriore del sistema compia un ciclo, espan-
dendosi prima isotermicamente a contatto con B, e poi adiabaticamente rareddandosi a
temperatura T
A
, eseguendo lavoro nelle due fasi sul motore. Nella fase inversa, il motore
esegue lavoro sul sottosistema che si contrae prima isotermicamente cedendo calore a A e
poi adiabaticamente sino a ritornare nella condizione iniziale a temperatura T
A
. Questo `e
praticamente il ciclo di Carnot, ma il dettaglio del ciclo non `e rilevante.
Laspetto rilevante `e che il lavoro estratto `e la dierenza tra il calore che il sottosistema
ha ricevuto da B e quello che ha ceduto ad A:
R = Q
B
Q
A
e che `e pari allo stesso tempo alla variazione di energia interna del sistema in blocco (di
fatto solo quella parte costituita dai termostati; il sottosistema compie un ciclo e quindi
non contribuisce):
R = U = U
i
U
f
.
Essendo lenergia dello stato nale U
f
`e una funzione crescente dellentropia del sistema,
il lavoro svolto risulter` a massimo quando lentropia dello stato nale `e minima, cio`e se
tutti i processi nel frattempo si svolgono in maniera reversibile. Questo signica imporre
simultanemente:
Q
A,B
= T
A,B
S
A,B
, e S
A
+ S
B
= 0.
Sostituendo in R = Q
B
Q
A
, troviamo il lavoro massimo che pu`o essere estratto
dal sistema
R
MAX
= (T
B
T
A
)S
B
Dividendo per il calore perso da B, otteniamo lecienza massima

MAX
=
R
Q
B
= 1
T
A
T
B
,
che `e consistente con lenunciato di Kelvin del secondo principio della termodina-
mica: `e impossibile realizzare una trasformazione il cui unico risultato sia la conversione
di calore in lavoro, da un sistema a temperatura uniforme.
Nota. Pu` o essere interessante vedere in dettaglio cosa succede in condizioni irreversibili.
In questo caso le variazioni di entropia in A e B non eguagliano quelle nel sottosistema.
Abbiamo per esempio Q
B
< T
B
S
B
, dove S
B
pu` o contenere contributi di riequilibrio
interno di B. Nel sottosistema avremo in corrispondenza lausso di calore Q
SB
=
Q
B
e un corrispondente ausso di entropia S
SB
= Q
SB
/T
SB
, con T
SB
< T
B
e
S
SB
, rispettivamente, la temperatura e la variazione di entropia del sistema, nel momento
in cui questo `e in contatto con B. Una situazione analoga si vericher` a durante il contatto
con A, nel qual caso T
SA
> T
A
. In generale, in presenza di processio di riequilibrio interno
al sottosistema potremmo avere S
SA
+ S
SB
= S
S
> 0 e quindi S
SA
> S
SB
.
70 CAPITOLO 4. TERMODINAMICA
In una sequenza ciclica di trasformazioni, questo contributo `e per`o nullo e possiamo porre
S
A
+ S
B
= 0. Sostituendo nellespressione dellecienza:
=
R
Q
SB
= 1 +
T
SA
S
SA
T
SB
S
SB
= 1
T
SA
T
SB
.
Troviamo quindi, in denitiva:
= 1
T
SA
T
SB
< 1
T
A
T
B
.
Lirreversibilit` a causata dal fatto che A e B non si trovano alla temperatura del sottosistema
quando vi entrano in contatto, fa s` che lecienza sia minore che nel caso di un processo
reversibile.
4.5 I potenziali termodinamici
La relazione dU TdS PdV permette di intepretare lenergia interna U come labilit` a
di svolgere lavoro e scambiare calore del sistema. In particolare, dU `e il calore scambiato
reversibilmente a volume costante e PdV il lavoro eettuato isoentropicamente (cio`e
attraverso una trasformazione adiabatica). I potenziali termodinamici sono introdotti allo
scopo di descrivere lattitudine di un sistema a svolgere lavoro in condizioni isoterme o
scambiare calore in condizioni isobariche. Cos` come il fatto che lenergia U = U(S, V )
descriva un attitudine a svolgere lavoro isoentropico (adiabatico) e scambiare calore a
volume costante, `e dovuta precisamente alla dipendenza da S e V della funzione, nel caso
dei potenziali termodinamici si cercheranno funzioni di S, P oppure T, V oppure T, P a
seconda delle variabili su cui si vuole avere controllo nello scambio di calore o nel lavoro.
Si vede subito che la condizione di tenere la pressione oppure la temperatura costante nel
sistema signica che questo non `e pi` u isolato e lattitudine a svolgere lavoro o trasferire
calore non `e pi` u solo contenuta in U. Il contributo aggiunto dal fatto che il sistema non
`e pi` u isolato `e determinato, come si vedr` a fra breve, per mezzo di una trasformazione di
Legendre.
Il primo potenziale che introduciamo descrive lattitudine a scambiare calore in condi-
zioni isobariche ed `e detto entalpia (o funzione termica):
W(S, P) = U(S, V (S, P)) + PV (S, P); dW = TdS + V dP, (4.8)
dove la seconda equazione vale per trasformazioni reversibili. Vediamo che la variazione di
W a pressione costante coincide con il calore scambiato: dW = dU +d(PV ) = dU +PdV .
Notiamo che mentre il sistema sta scambiando calore con qualche altro oggetto, perche la
pressione del sistema di mantenga costante, su di esso lambiente esterno deve esercitare
un lavoro PV . Il meccanismo `e illustrato gracamente in Fig. 4.3. Il volume V (S, P) `e
denito dalla condizione di minimo rispetto a V per U(S, V ) + PV , cio`e
P(S, V ) =
U(S, V )
V
.
4.5. I POTENZIALI TERMODINAMICI 71
A(S,P)=U(S,V(P))+PV(P)
.
PV
U(S,V)
V
V=V(P)
U
Figura 4.3: Costruzione geometrica della trasformazione di Legendre per il passaggio
dallenergia allentalpia
Attraverso questa condizione di minimo, possiamo vedere lentalpia come la somma del-
lenergia interna del sistema e di uno stantuo a pressione P che spinge il volume del
sistema ad assumere il valore V (S, P) tale che la pressione interna controbilanci esatta-
mente la pressione P dello stantuo. Una volta che abbiamo a disposizione lespressione
esplicita dellentalpia, possiamo esprimere in maniera alternativa il volume in funzione della
pressione:
V (S, P) =
W(S, P)
P
.
Il meccanismo con cui si eettua il cambio di variabili (S, V ) (S, P) `e una trasformazione
di Legendre.
`
E da notare il ruolo centrale della trasformata di Legendre nel cambio di va-
riabili. Una semplice redinizione della energia come funzione di S e P: U = U(S, V (S, P))
avrebbe fatto s` che la variazione di energia a pressione costante fosse dU = (T P
S
V )dS
che non `e uguale al calore trasferito nella trasformazione.
Il secondo potenziale che introduciamo descrive lattitudine a compiere lavoro a tem-
peratura costante ed `e detto energia libera, o energia libera di Helmholtz:
F(T, V ) = U(S(T, V ), V ) TS(T, V ); dF = SdT PdV (4.9)
e di nuovo la seconda vale solo in trasformazioni reversibili. La variazione di energia
libera a temperatura costante dF = dU d(TS) = PdV non `e altro che il lavoro
compiuto sul sistema. In modo analogo allentalpia, la dipendenza dellentropia rispetto
a (T, V ) `e determinata tramite una trasformazione di Legendre di U rispetto a S. In
questo caso la condizione di minimo `e fatta rispetto a S su U(S, T) TS, la quale ci d`a
S(T, V ) =
S
U(S, V ), e poi invertendo, S(T, V ). Quando lespressione esplicita di F(T, V )
sia nota, possiamo utilizzare la seconda nella Eq. (4.9) per determinare S(T, V ):
S(T, V ) =
F(T, V )
T
.
72 CAPITOLO 4. TERMODINAMICA
Di nuovo, il sistema compie lavoro su qualche altro oggetto, mentre lambiente esterno
agisce come bagno termico e fornisce il calore necessario per mantenere il sistema isotermo.
Possiamo denire un terzo potenziale termodinamico detto semplicemente potenziale
termodinamico o energia libera di Gibbs, funzione delle sole variabili intensive T e P:
(T, P) = F(T, V (T, P)) + PV (T, P) d = SdT + V dP, (4.10)
dove, analogamente a quanto fatto per entalpia ed energia libera, V (T, P) `e ottenuto
da inversione di P(T, V ) =
V
F(T, V ), e la seconda nella (4.10) vale per trasformazioni
reversibili. Abbiamo quindi
S(T, P) =
(T, P)
T
V (T, P) =
(T, P)
P
.
Di nuovo, possiamo interpretare il potenziale termodinamico di Gibbs come lattitudi-
ne a compiere lavoro su un oggetto esterno da parte di un sistema tenuto a pressione e
temperatura costante da una sorgente di lavoro e di calore esterna.
Passando al caso delle trasformazioni irreversibili, la diseguaglianza (4.4), si traduce in
diseguaglianze analoghe per i vari potenziali termodinamici. In particolare, per lenergia
libera abbiamo che, se la temperatura e il volume del sistema rimangono costanti (quindi
dV = dT = 0):
dQ = dU + PdV TdS dU d(TS) = dF, 0
cio`e lenergia libera diminuisce in un processo irreversibile a temperatura e volume costan-
te. In maniera analoga, vediamo che il potenziale termodinamico di Gibbs diminuisce in
trasformazioni irreversibili a temperatura e pressioni costanti:
0 > dU + PdV TdS = dU + d(PV ) d(TS) = dF d(TS) = d,
Pertanto, lenergia libera e il potenziale termodinamico di Gibbs saranno minimi in condi-
zioni di equilibrio termodinamico.
4.6 Lavoro massimo e potenziali termodinamici
Cerchiamo di capire pi` u in dettaglio come lenergia libera sia in grado di descrivere latti-
tudine di un sistema non isolato a compiere lavoro (la discussione segue da vicino quella
contenuta alle pagine 76 e 77 del testo di Landau e Lifsits Meccanica Statistica).
Ci domandiamo qual`e la capacit`a di un corpo immerso in un ambiente esterno a com-
piere lavoro su un motore, dove il sistema composto dal corpo e dallambiente esterno e
supposto isolato e il motore `e supposto termoisolato. In queste condizioni abbiamo che:
Cambiamenti V
0
di volume dellambiente esterno corrispondono a cambiamenti
opposti V = V
0
del volume del corpo (utilizziamo pedice zero per indicare
lambiente esterno).
4.6. LAVORO MASSIMO E POTENZIALI TERMODINAMICI 73
Il motore non scambia calore con il corpo e con lambiente esteno, e scambia lavoro
solo con il corpo (non con lambiente esterno).
Il corpo riceve calore solo dallambiente esterno.
Tanto per cominciare, calcoliamo il cambio U dellenergia del corpo, che avverrebbe in
seguito allesecuzione di un lavoro P
0
V
0
dallambiente esterno e uno R
in
dal motore, e
da un trasferimento di calore Q = Q
0
= T
0
S
0
dallambiente. Troviamo subito,
sfruttuando V = V
0
e S + S
0
0:
U = R
in
Q
0
+ P
0
V
0
R
in
+ T
0
S P
0
V,
cio`e
R
in
U T
0
S + P
0
V. (4.11)
Esiste quindi un lavoro minimo R
min
in
= U T
0
S + P
0
V che deve essere eseguito
da un motore esterno per produrre un cambio U, S, V nel corpo. Al contrario, il
lavoro eseguito dal corpo sul motore R
out
= R
in
, sar`a sempre minore di (U
T
0
S +P
0
V ). Troviamo quindi il lavoro massimo che il corpo pu`o eseguire su un motore
esterno in seguito a una trasformazione U, S, V sar`a:
R
MAX
out
= (U T
0
S + P
0
V ). (4.12)
Supponendo il corpo in equilibrio interno, possiamo esprimere la variazione di energia
interna attraverso la prima legge della termodinamica U = TS PV , e otteniamo
dalla (4.12):
R
MAX
out
= (T
0
T)S (P
0
P)V,
che sottolinea come in questo caso il lavoro R origina da una condizione di non equilibrio
del corpo rispetto allambiente circostante.
In generale, possono essere presenti processi irreversibili allinterno del corpo (ad esem-
pio reazioni chimiche) che contribuiscono al lavoro R
out
. In tal caso il corpo pu`o eseguire
lavoro anche se T = T
0
e P = P
0
. Due situazioni sono di particolare interesse.
Se il corpo compie lavoro a temperatura e volume costante, e T = T
0
, vediamo che
R
MAX
out
`e dato dalla variazione della energia libera di Helmholtz del sistema. Combinando
infatti la (4.9) con le condizioni V = 0 e T = T
0
= costante, e sostituendo nella (4.12),
troviamo infatti:
R
out
(U T
0
S + P
0
V ) = (U TS) = F.
In maniera analoga, se il corpo esegue lavoro a pressione e temperatura ambiente (quindi,
ovviamente, S, V ,= 0, ma P e T sono costanti), possiamo scrivere dalla (4.10):
R
out
(U T
0
S + P
0
V ) = (U TS + PV ) = .
Il lavoro massimo `e dato in questo caso dalla variazione di potenziale di Gibbs.
74 CAPITOLO 4. TERMODINAMICA
4.7 Sistemi a numero di particelle variabile
Vi sono diverse situazioni in cui il numero di particelle pu`o non essere costante. Due esempi
importanti:
Reazioni chimiche, che causano trasmutazioni di molecole da un tipo allaltro
Transizione di fase, in cui molecole si trasferiscono da una fase ad unaltra.
In entrambi i casi, la dipendenza dellenergia interna dai numeri di molecole delle dierenti
specie diventa importante:
U = U(S, V, N
i
); dU = TdS PdV +

i
dN
i
(4.13)
(trascuriamo dora in avanti contributi a dS provenienti da moti interni nel sistema, cos`
che possiamo esprimere dU in funzione di S, V ed N attraverso una equazione, non una
disequazione). Abbiamo introdotto una nuova variabile intensiva

i
=
i
(s, v, c
i
) =
U(S, V, N
i
)
N
i
s = S/N, v = V/N, c
i
= N
i
/N, (4.14)
detta potenziale chimico, che giocher` a allequilibrio nei confronti delle variabili N
i
, lo stes-
so ruolo giocato dalla temperatura nei confronti dellentropia di corpi in contatto fra lo-
ro. Analogamente, dovremo tenere conto della dipendenza dalle concentrazioni c
i
nella
pressione P = P(s, v; c
i
) e nella temperatura T = T(s, v; c
i
).
La dipendenza dalle concentrazioni `e importante nel caso di una miscela di gas e diventa
essenziale per descrivere lequilibrio chimico. Nel caso di transizioni di fase, invece, questa
dipendenza `e ovviamente assente: la concentrazione di molecole in fase liquida l` a dove il
corpo `e in fase gassosa, `e evidentemente nulla, e viceversa nella parte in fase liquida.
Possiamo generalizzare le espressioni dei potenziali termodinamici al caso in cui il
numero di particelle pu`o variare. Abbiamo in particolare per lenergia libera di Gibbs
(4.10):
= (T, P, N
i
); d = SdT + V dP +

i
dN
i
, (4.15)
dove ora

i
=
i
(T, P, c
i
) =
(T, P, N
i
)
N
i
. (4.16)
Prima di concentrarci sulle condizioni di equilibrio chimico (o delle fasi) del sistema, con-
centriamoci un attimo sullenergetica del processo. Continuiamo a considerare il caso di
un gas ideale monoatomico, o meglio, di una miscela di gas ideali monoatomici. Indicando
4.7. SISTEMI A NUMERO DI PARTICELLE VARIABILE 75
con
i
la componente di energia media delle molecole della specie i, non associata a moto
termico, possiamo scrivere lenergia interna della miscela nella forma
U(T, V, N
i
) =
3
2
NT +

i
N
i

i
(T). (4.17)
Considereremo in seguito per semplicit`a lenergia interna delle molecole indipendente dalla
temperatura, ma `e evidente che si tratta di unapprossimazione (in generale, gli urti mo-
lecolari possono portare a immagazzinare energia in gradi di libert`a interna, ad esempio
vibrazionali).
Vediamo allora che una trasformazione che porta a unaumento di molecole con energia

i
bassa, a scapito di molecole con energia alta implicher` a una diminuzione della com-
ponente

i
N
i

i
(T) di U. Se il sistema `e isolato, perche U rimanga invariato, `e quindi
necessario che aumenti la quota di energia da moto termico, del sistema. Abbiamo quindi
un esempio di reazione esotermica: lenergia dei legami chimici si trasforma in moto
termico. Per contro, una reazione in cui si ha un aumento di molecole con alto contenuto
di
i
richieder`a una diminuzione della temperatura del sistema isolato e si parla in questo
caso di una reazione endotermica.
Attraverso laumento del moto termico, una reazione esotermica porta a un contributo
positivo allentropia del sistema. La crescita di entropia in una reazione esotermica sugge-
rirebbe che una reazione esotermica in una miscela di gas ideali dovrebbe procedere sino
allesaurimento dei reagenti. Di fatto le cose non stanno cos` ne in un sistema isolato ne in
uno in contatto con un ambiente esterno. Il fatto `e che un contributo allentropia viene pro-
dotto anche dalla concentrazione delle varie specie nella miscela (il termine

i
N
i
ln V/N
i
nellespressione dellentropia di una miscela).
Uno stesso fenomeno si verica nel caso di una transizione di fase da gas a liquido:
lenergia delle molecole nella fase liquida `e minore di quella nella fase gassosa. Quindi
la trasformazione da gas a liquido rilascia una quantit`a di calore positiva (il cos` detto
calore latente). Nel sistema isolato, il riscaldamento produce un contributo positivo
allentropia; ci`o nonostante, la transizione si verica solo se `e favorita nel bilancio globale
di entropia, che tiene conto di nuovo di termini di densit` a volumetrica nelle diverse fasi.
Va quindi determinato il massimo della entropia S(U, V, N
i
) per U e V costanti. In
maniera analoga, nei casi in cui il sistema non `e isolato ed `e mantenuto in condizioni di
T e V costanti, oppure di T e P costanti, va determinato il minimo dellenergia libera
corrispondente, rispetto a variazioni dei numeri di molecole N
i
.
Ci limiteremo a considerare il caso interessante di reazioni chimiche e transizioni di fase
che si svolgono a temperatura e pressioni costanti. Per far ci`o, sar`a necessario calcolare
prima il potenziale chimico di una miscela di gas.
76 CAPITOLO 4. TERMODINAMICA
4.8 Entropia e potenziali termodinamici in una mi-
scela di gas
Come nel calcolo dellenergia di una miscela di gas, anche nel calcolo dellentropia `e ne-
cessario tenere conto di possibili contributi interni delle molecole. Nel caso di gas ideali,
questi contributi sono dovuti precisamente ai gradi di libert`a interni di queste molecole.
Per esempio, se le molecole di una specie potessero trovarsi in tre stati equiprobabili, indi-
pendentemente dallenergia, avremmo un contributo addizionale di entropia per ciascuna
molecola

3

=1
P() ln P() = ln 3,
rispetto a molecole in cui un solo stato `e possibile. Quindi, in una transizione in cui N
molecole con un solo stato possibile si trasformano in altrettante molecole con tre stati
possibili, si avrebbe un incremento di entropia nella miscela S = N = N ln 3.
Come nel caso dellenergia interna, la componente di entropia interna per molecola sar`a
una funzione della temperatura (spesso, alte energie sono associate a un incremento nel
numero di stati accessibili da parte della molecola). Per semplicit`a, ci limiteremo per` o
a considerare il caso in cui `e indipendente dalla temperatura. Il parametro
i
`e detto
costante chimica della specie i-esima.
A questo punto, lentropia per una miscela di gas monoatomici avr`a la forma, che
generalizza la (3.38)
S(T, V, N
i
) =
3
2
NT + (

i
N
i
ln V/N
i
+
i
)
=
3
2
NT + N ln(V/N) N

i
c
i
(ln c
i

i
), (4.18)
dove ricordo che c
i
= N
i
/N. Utilizzando la (4.9), otteniamo subito lenergia libera di
Helmholtz:
F(T, V, N
i
) =
3
2
NT + N

i
c
i

i
TS(T, V, N
i
)
=
3
2
NT(1 ln T) NT ln(V/N) +

i
N
i
[
i
+ T(ln c
i

i
)]. (4.19)
Per ultimo, calcoliamo lenergia libera di Gibbs = F + PV :
(T, P, N
i
) = F(T, NT/P, N
i
) + NT
=
5
2
NT(1 ln T) + NT ln P +

i
N
i
[
i
+ T(ln c
i

i
)], (4.20)
dove si `e sfruttata la legge di stato PV = NT. A questo punto possiamo calcolare il
potenziale chimico della specie i-esima e troviamo, dalla (4.16):

i
=

N
i
=
5
2
T(1 ln T) + T ln P +
i
+ T(ln c
i

i
). (4.21)
4.9. REAZIONI CHIMICHE IN UNA MISCELA DI GAS 77
Notiamo che possiamo scrivere la (4.21) nella forma alternativa

i
=

N
i
=
5
2
T(1 ln T) + T ln P
i
+
i
T
i
. (4.22)
dove si `e introdotta la pressione parziale P
i
= c
i
P N
i
T. Lespressione del potenziale
chimico per la componente i di una miscela di gas ideali, e per la stessa componente allo
stato puro, dieriscono quindi solo per la sostituzione P
i
P. (Ricordiamo la legge di
stato per una miscela di gas, la cos` detta legge di Dalton:

i
P
i
V = NT). Combinando
le (4.20) e la (4.21), vediamo inne che possiamo scrivere
(T, P, N
i
) =

i
N
i

i
(T, P, c
i
). (4.23)
Vediamo quindi che il potenziale chimico della specie i della miscela `e lenergia libera di
Gibbs per molecola della specie in questione. Notiamo inoltre, dierenziando la (4.23), che
possiamo ottenere per le entropie e i volumi specici delle molecole
s
i
=

i
T
=
5
2
ln T ln P +
i
+ ln c
i
; v
i
=

i
P
=
T
P
.
Da qui ritroviamo
i
= u
i
Ts
i
+ Pv
i
, con u
i
= (3/2)T +
i
lenergia media di una
molecola, che riproduce a livello molecolare la denizione di energia libera di Gibbs: =
U TS + PV .
4.9 Reazioni chimiche in una miscela di gas
Immaginiamo di avere una miscela di specie chimiche gassose A
i
, in cui le variazioni nel
numero di molecole di ciascuna specie sono ssate da rapporti stechiometrici:

ij
=
N
i
N
j
.
Per esempio, nel caso della reazione 2F
2
+ O
2
2F
2
O, abbiamo i rapporti

F
2
,O
2
= 2,
F
2
O,O
2
= 2.
In presenza di una singola reazione chimica, `e quindi suciente dare la variazione di una
qualsiasi delle specie chimiche, per determinare le variazioni di tutte le altre. Prendendo
per riferimento la specie 1, e scrivendo
i

i1
, avremo quindi
N
i
=
i
N
1
. (4.24)
La condizione di equilibrio chimico a date condizioni di pressione e temperatura sar`a quindi
ottenuto dalla equazione
d
dN
1
=

i
dN
i
dN
1

N
i
=

i
= 0,
78 CAPITOLO 4. TERMODINAMICA
dove si sono sfruttate la (4.24) e la (4.15). Questa equazione ci permette di determinare il
rapporto fra le concentrazioni delle specie allequilibrio.
Proviamo a fare questo calcolo nel caso pi` u semplice possibile di una reazione A
1
A
2
.
In questo caso abbiamo
1
= 1,
2
= 1 e la condizione di equilibrio `e semplicemente

1
=
2
. Sostituendo lespressione del potenziale chimico ottenuta nella sezione precedente,
(4.21), troviamo subito

2
=
1

2
+ T(ln(c
1
/c
2
)
1
+
2
) = 0,
da cui otteniamo
c
1
c
2
= exp
_

2
T
_
. (4.25)
Notiamo subito lanalogia con la distribuzione di Maxwell-Boltzmann: le concentrazioni
sono pesate da un fattore esponenziale nel rapporto fra energia molecolare e T. Notiamo
per` o la presenza del contributo entropico associato alle costanti chimiche. Vediamo in
particolare che una reazione sfavorita da unenergia del prodotto di reazione pi` u alta di
quella del reagente, pu`o essere lo stesso vantaggiosa dal punto di vista entropico se
2
>
1
,
e la reazione pu`o lo stesso portare allesaurimento in pratica dei reagenti.
4.9.1 Entalpia di reazione
Il calore di reazione, che nelle condizioni isobare considerate, `e di fatto unentalpia di
reazione, pu`o essere a questo punto calcolato sfruttando la relazione (non indichiamo la
dipendenza da N
i
per non appesantire la formula):
W(S(T, P), P) = (P, T) + TS(T, P) = (P, T) T
(T, P)
T
= T
2

T
(P, T)
T
,
dove ci si `e serviti delle (4.8) e della (4.10). La variazione di entalpia che si avr`a nella
trasformazione di N
2
= N
1
> 0 molecole dalla specie A
1
a quella A
2
sar`a, per
N
2
N:
W N
1
dW
dN
1
= N
2
T
2

T
_
1
T
d
dN
1
_
= N
2
T
2

T

2
T
.
Dalla espressione per il potenziale chimico (4.21), ottenuta nella sezione precedente, tro-
viamo per` o

2
T
=

1

2
T
+ ln(c
1
/c
2
)
1
+
2
e quindi
W = N
2
(
2

1
).
Vediamo che la variazione di entalpia `e positiva se
2
>
1
, cio`e se la reazione `e endotermica.
Questo `e corretto, perche W `e precisamente il calore che dovrebbe essere fornito (a
pressione costante) dallambiente esterno alla miscela di gas per mantenere costante la
temperatura durante la reazione. Questo deve essere evidentemente positivo se la reazione
assorbe energia.
4.10. TRANSIZIONI DI FASE 79
4.10 Transizioni di fase
In questo caso, abbiamo per denizione che le molecole appartenenti a fasi dierenti non
sono mescolate. Il valore di G in una regione del sistema in cui c`e solo una fase sar`a
quindi dato dal potenziale chimico di quella fase, moltiplicato per il numero di molecole
nella regione. Il valore totale di G di tutto il sistema, essendo G estensiva, sar`a dato
dalla somma di G in tutte queste regioni. Troviamo pertanto dalla (4.23), supponendo la
presenza di due sole fasi (ad esempio liquido e gassoso):
(P, T, N
1
, N
2
) = N
l

l
(T, P) + N
v

v
(T, P) (4.26)
e la condizione di equilibrio delle fasi `e semplicemente

l
(T, P) =
l
(T, P).
Il fatto che i potenziali chimici sono indipendenti dalle concentrazioni, fa s` che perch`e G
raggiunga un minimo, se P e T sono ssati in modo che
1
,=
2
, la fase con il valore
maggiore di deve scomparire (vedi Fig. 4.4a).
Nel caso di transizioni di fase di prima specie (vedi nota sotto), le due fasi del sistema
sono caratterizzate, a temperatura e pressione ssate, da valori dierenti dei due parametri
estensivi volume ed entropia. Nel caso di una transizione liquido vapore, la dierenza di
entropia tra le due fasi, moltiplicato per la temperatura a cui si eettua la trasformazione,
fornisce lentalpia di evaporazione del liquido. In analogia con quanto fatto nella sezione
precedente, nel caso dellentalpia di reazione, possiamo calcolare lentropia di evaporazione
a partire dalla relazione
W = [
l

v
+ (s
l
s
v
)T]N
l
= (s
l
s
v
)TN
v
, (4.27)
dove s
l,v
= S
l,v
/N
l,v
indicano le entropie speciche per una molecola nella fase liquida e
in quella di vapore. Come N
v
= N
l
> 0 molecole passano nella fase di vapore, una
entalpia T(s
v
s
l
)N
v
viene fornita al sistema. La variazione di entalpia / = T(s
v
s
l
)
identica il cos` detto calore latente di evaporazione per una molecola.
Nota. Le transizione di fase sono classicate di prima o di seconda specie a seconda
che il calore latente sia dierente da zero o meno. Nel caso di transizioni di fase di
seconda specie, la transizione `e segnalata solo da una dierenza di calore specico tra le
fasi. Durante una transizione di fase di prima specie, per esempio in una pentola dacqua
in ebollizione, i passaggi della sostanza da una fase ad unaltra (la formazione delle bolle)
necessitano un ausso di calore dallesterno. La presenza di zone di liquido e di vapore
distribuite casualmente a scala macroscopica, `e quindi associata a una situazione di non
equilibrio (la pentola `e sul fuoco). Nel caso di una transizione di fase di seconda specie (per
esempio un magnete alla temperatura critica), simili uttuazioni (la magnetizzazione del
corpo varia nello spazio e nel tempo in maniera casuale) si producono invece senza bisogno
di sorgenti di calore esterne. Si ha quindi un sistema in equilibrio termodinamico per cui
una delle condizioni che abbiamo fornito per una trattazione termodinamica vengono meno:
80 CAPITOLO 4. TERMODINAMICA

T
P
Tc
v
a b
P
v
(T)
P

v
l

Figura 4.4: Equilibrio delle fasi nel piano P (a) e nel piano PT (b). Graco a: per
P < P
v
,
v
<
l
, e solo la fase gassosa `e possibile. Viceversa per P > P
v
. Allequilibrio,
avremo quindi = N
l,v
a destra e a sinistra di P
v
, rispettivamente. La discontinuit`a
nella derivata `e la variazione di volume nel cambio di fase N(v
l
s
v
), illustrata in Fig. 4.5.
Graco b: il punto T
c
indica la temperatura critica.
quella che non ci siano uttuazioni macroscopiche allequilibrio.
`
E possibile vedere che la
condizione che viene meno, `e quella sulla presenza di una scala microscopica al disopra
della quale parti separate del sistema si possono considerare scorrelate. In questo sistema,
si pu` o vedere che questa scala non esiste e tutto le parti del sistema sono correlate fra di
loro.
La condizione di equilibrio delle fasi
l
(T, P) =
v
(T, P) denisce una curva

P
v
=

P
v
(T). Nel caso di una transizione liquido vapore, la pressione

P
v
=

P
v
(T) per cui le
fasi sono allequilibrio alla temperatura data, `e detta pressione di vapore. (Nel caso
dellacqua, la pressione di vapore corrispondente a 100
o
C `e di una atmosfera). Il fatto che
la condizione di equilibrio
l
=
v
sia indipendente dai numeri di molecole nelle singole fasi,
fa s` che le fasi possono coesistere in rapporti di massa N
1
/N
2
arbitrari. Questo corrisponde
al quadro fornito in Fig. 4.5. Le porzioni orizzontali ad altezza P
k
individuano dierenti
punti nella curva di equilibrio P = P(T), e i corrispondenti cambi di volume isobarici sono
associati al passaggio da una pura fase gassosa (estremo destro) a una pura fase liquida
(estremo sinistro).
Possiamo determinare landamento della pressione di vapore dierenziando la relazione
di equilibrio
l
=
v
rispetto a T e P. Sfruttando il fatto che
1,2
(T, P) sono i potenziali
termodinamici specici di una molecola nelle diverse fasi, possiamo scrivere, dalla (4.26):
d
1,2
(T, P) =
1
N
1,2
d
1,2
(T, P) = s
1,2
dT + v
1,2
dP, (4.28)
dove v
1,2
= V
1,2
/N
1,2
sono i volumi specici delle molecole nelle due fasi. La condizione di
spostarsi sulla curva di equilibrio sar`a d
l
(T, P) = d
v
(T, P), la quale ci d`a, sostituendo
4.10. TRANSIZIONI DI FASE 81
T
P
3
P
T
1
T
2
V
P
P
v2
v1
v3
Figura 4.5: Isoterme in presenza di una transizioni di fase liquido-gas, con indicazione delle
rispettive pressioni di vapore
in d
l
d
v
= 0:
d

P
v
dT
=
s
v
s
l
v
v
v
l
=
/
(v
v
v
l
)T
.
Per pressioni di tipo atmosferico, abbiamo v
v
v
l
e possiamo esprimere v
v
in funzione di
temperatura e pressione utilizzando la legge di stato PV = NT:
v
v
v
l
v
v
=
T

P
v
.
Sostituendo nella espressione per d

P
v
/dT, otteniamo la seguente equazione di Clausius-
Clapeyron:
d

P
v
dT
=
/

P
v
T
2
. (4.29)
Lequazione di Clapeyron pu`o essere risolta analiticamente, e, per piccole variazioni di
temperatura, ci d`a una dipendenza esponenziale della pressione di vapore dalla temperatura
stessa:

P
v
(T)

P
v
(T
0
) exp
_
/(T T
0
)
T
2
0
_
. (4.30)
Nota. Come illustrato in Fig. 4.4b e Fig. 4.5, la transizione di fase scompare al di sopra
di una certa temperatura T
c
, detta temperatura critica. Nel caso dellacqua, T
c
374
o
C.
In corrispondenza di T
c
le dierenze v
v
v
l
e s
v
s
l
vanno a zero e cessa di esserci
dierenza tra le due fasi (pi` u precisamente, la transizione di fase diventa di secondo ordine).
Avvicinandosi a T
c
, lapprossimazione v
v
v
l
cessa di essere applicable e lequazione di
Clausius-Clapeyron smette di essere valida.
82 CAPITOLO 4. TERMODINAMICA
4.10.1 Termodinamica dellaria umida
Le considerazioni che abbiamo eettuato sinora possono essere sfruttate per determinare le
condizioni di equilibrio tra una miscela di vapore acqueo e aria, e acqua allo stato liquido.
Si parla in questo caso di una condizione di vapore saturo, che corrisponde infatti al
massimo contenuto di vapore acqueo nellaria alla temperatura data.
Consideriamo una condizione in cui il sistema `e a pressione ssata e utilizziamo come
parametro libero il contenuto di umidit` a dellaria c
v
= N
v
/(N
v
+ N
d
) N
v
/N
d
, dove N
v
e N
d
sono rispettivamente i numeri di molecole di vapor acqueo ed aria secca. Possiamo
in maniera equivalente considerare come parametro libero la pressione parziale di vapore
P
v
= (N
v
/N
d
)P a pressione totale P costante. La condizione equilibrio delle fasi sar`a di
nuovo

N
v
=
v

l
= 0,
dove ora = N
l

l
+ N
v

v
+ N
d

d
, ma la componente secca N
d

d
evidentemente non
contribuisce. Esattamente come fatto per il calcolo della pressione di vapore, possiamo
cercare una equazione dierenziale per la concentrazione di vapore allequilibrio c
sat
v
(T),
dierenziando la condizione
l

v
= 0 rispetto a T e N
v
. In alternativa, sfruttando la
relazione P
v
= c
v
P, possiamo dierenziare rispetto a T e P
v
, che ci riporta precisamente
alla (4.28):
0 =
(
v

l
)
N
v
dN
v
+
(
v

l
)
T
dT =

v
N
v
dN
v
+
/dT
T
. (4.31)
[si `e ipotizzato che la fase liquida sia pura, cos` che
l
non contenga termini dipendenti da
N
i
; confrontare con la (4.21)]. Sfruttando la (4.22), abbiamo daltra parte

v
(T, P
v
)
P
v
=

v
(T, P)
P
= v
v
,
e sfruttando di nuovo la legge di stato v
v
= N
v
T/P
v
, otteniamo la seguente variante della
equazione di Clausius-Clapeyron
dP
sat
v
dT
=
/P
sat
v
T
2
.
In altre parole, si ha saturazione quando la pressione parziale del vapore nellaria P
v
diventa
uguale alla pressione di vapore alla temperatura data

P
v
(T). Da qui troviamo per lumidit` a
alla saturazione
dc
sat
v
dT
=
/c
sat
v
T
2
, (4.32)
e quindi, sfruttando la (4.30), crescita esponenziale con la temperatura, della umidit` a alla
saturazione. Il valore di temperatura a cui la lumidit` a di saturazione diventa uguale al
contenuto di umidit` a presente nellaria `e detto punto di rugiada.
4.11. ESERCIZI 83
4.11 Esercizi
Esercizio 1 Calcolare il lavoro eseguito da un gas che si espande isotermicamente da
volume V a volume 2V . E possibile che durante lespansione, il gas sia contenuto in un
recipiente isolato termicamente? Argomentare la risposta. Se no, il gas ha assorbito o
ceduto calore nel processo? Sempre se no, suggerire un approccio per il calcolo del calore
scambiato.
Esercizio 2 Lenergia interna di un certo sistema `e
U(S, V, N) = CS
3
/(NV ) (4.33)
Vericare che la (4.33) descrive in eetti un sistema termodinamico e che la pressione
e la temperatura sono grandezze intensive.
Trovare la legge di stato di questo sistema.
Scrivere la legge adiabatica per questo sistema.
Determinare i calori specici a volume e a pressione costante.
Esercizio 3 Abbiamo due gas ideali monoatomici identici, con identica temperatura, ma
diverse pressioni e numero di particelle. Supporre che i due recipienti che contengono
i gas vengano messi in comunicazione, cos` che le pressioni dei due gas si equilibrano.
Determinare la variazione di entropia del sistema.
84 CAPITOLO 4. TERMODINAMICA
Capitolo 5
Meccanica statistica dellequilibrio
5.1 Il punto di vista di Gibbs
Nella trattazione di un sistema termodinamico abbiamo considerato essenzialmente due
approcci:
Approccio cinetico. Si cerca di derivare una equazione di evoluzione per la statistica
microscopica del sistema. Quasi sempre si ipotizza che le componenti microscopiche
del sistema (per esempio le molecole di un gas) siano in prima approssimazione scor-
relate. Il risultato nale sono tipicamente equazioni di evoluzione per la distribuzione
degli stati della singola componente. Da queste equazioni, possono essere derivate in
seguito tutte le pi` u importanti relazioni termodinamiche per il sistema.
Approccio termodinamico. Si tralascia ogni informazione sulle caratteristiche micro-
scopiche del sistema e ci si limita a postulare lesistenza di una funzione di stato
entropia e di una variabile intensiva temperatura che descrivono le propriet` a di equi-
librio termodinamico del sistema. Al contrario che nellapproccio cinetico, le leggi di
stato del sistema non vengono derivate e sono supposte date.
Vi `e un terzo approccio, che `e quello della meccanica statistica dellequilibrio, o meccanica
statistica di Gibbs. In questo caso, come nellapproccio cinetico, si parte da un punto di
vista microscopico; viene per` o saltata accuratamente ogni considerazione su come il sistema
raggiunge lequilibrio. Quello che ci si limita a fare `e postulare lesistenza di un equilibrio
statistico. Da questa condizione, unitamente ad alcune ipotesi importanti sulla struttura
della PDF di equilibrio (la PDF nel -spazio; tralasciamo il pedice N per alleggerire la
notazione) e sul tipo di partizione utilizzata nella denizione di entropia, viene poi derivata
tutta la termodinamica allequilibrio.
I vantaggi di questultimo approccio risiedono nella sua potenza nel trattare sistemi con
dinamica complicata o in presenza di regimi correlati. Un esempio importante sono i feno-
meni critici (magneti alla temperatura critica, teorie di campo). La meccanica statistica
`e in particolare in grado di trattare sistemi in cui gli eetti quantistici sono importanti.
85
86 CAPITOLO 5. MECCANICA STATISTICA DELLEQUILIBRIO
Questa potenza va per` o a scapito dellambito di applicabilit` a del metodo, che `e ristretto a
sistemi la cui dinamica microscopica `e di tipo Hamiltoniano.
Consideriamo un sistema Hamiltoniano isolato con N gradi di libert`a. Un tale sistema
sar`a descritto da 2N coordinate canoniche q
i
, p
i
; i = 1, . . . N (nel caso di un gas, per
la particella i-esima avremmo tre coordinate q
i1
, q
i2
, q
i3
x
i1
, x
i2
, x
i3
e tre momenti
coniugati p
i1
, p
i2
, p
i3
mv
i1
, v
i2
, v
i3
, cio`e 3N gradi di libert`a per 6N coordinate cano-
niche). La coordinate canoniche q
i
, p
i
; i = 1, . . . N deniscono il nostro -spazio e su di
esso deniamo la PDF = (q
i
, p
i
; t).
Il fatto che il sistema isolato abbia una dinamica di tipo Hamiltoniano ha alcune
importanti conseguenze:
Lenergia `e conservata. Quindi, se inizialmente lenergia del sistema `e U, la PDF
avr`a la forma (q
i
, p
i
; t) (1(q
i
, p
i
) U), dove 1(q
i
, p
i
) `e lHamiltoniana
del sistema. La condizione 1(q
i
, p
i
) = U individua la supercie a energia costante
lungo la quale evolvono le traiettorie del sistema isolato.
Il volume nello spazio delle fasi `e conservato (teorema di Liouville). Questo ha
per conseguenza il fatto che una distribuzione uniforme `e stazionaria.
Siccome le traiettorie evolvono sulle variet` a a energia costante, individuate dalla
relazione 1(q
i
, p
i
) = U per diversi valori di U, anche una PDF uniforme in gusci
compresi tra superci con valori diversi di U sar`a stazionaria. Prendendo il limite di
gusci innitamente sottili, otteniamo il risultato importante, valido per un sistema
isolato, che una PDF dipendente solo dalla energia del sistema sar`a stazionaria.
Ora, un sistema isolato avr`a sempre unenergia ben denita. Ha quindi senso considerare
una PDF che `e non nulla solo in uno di questi gusci a energia ssata:

M
(q
i
, p
i
) =
_

1
, 1(q
i
, p
i
) [U, U + U]
0 altrimenti
(5.1)
dove = (U) `e il volume della regione di -spazio compresa fra energie U e U +U e
U `e una scala energetica di coarse-graining arbitraria. La PDF indicata qui sopra gioca un
ruolo fondamentale nella meccanica statistica ed `e detta distribuzione microcanonica.
Si ipotizza di fatto che la distribuzione microcanonica sia la distribuzione di equilibrio
per il sistema isolato, e che valga una propriet` a ergodica per cui medie di ensemble
descrivano il limite a tempi lunghi di medie temporali.
Come vedremo nella prossima sezione, la giusticazione di questa ipotesi non `e banale. No-
tiamo comunque che la distribuzione microcanonica corrisponde al massimo della entropia
di Shannon per , ssato U. Lintuizione sica ci suggerisce che la dinamica microscopi-
ca sia in qualche senso caotica il che implica, in buona sostanza, crescita della entropia.
(Notiamo come le condizioni che portano ad aspettarci crescita della entropia di Shannon
5.1. IL PUNTO DI VISTA DI GIBBS 87
ln sono le stesse che ci portano ad aspettare crescita di entropie con signicato ma-
croscopico pi` u diretto, quali ad esempio lentropia di Boltzmann S
f
). Allo stesso tempo,
non ci aspettiamo patologie del tipo descritto alla ne della Sez. 2.6, e cio`e presenza di
regioni di -spazio aventi lo stesso U, ma inaccessibili lun laltra. Questo risulta suciente
(anche troppo!) a che garantire che
M
sia la distribuzione di equilibrio per il sistema e
che valga la propriet` a ergodica.
Nota. Diamo qui la dimostrazione che una distribuzione uniforme su gusci a U costante
`e stazionaria. Consideriamo una descrizione pienamente microscopica del sistema. In
questa maniera, il dettaglio degli urti `e completamente risolto e le variabili q
i
, p
i
; i =
1, . . . N evolvono nel tempo in maniera continua. In queste condizioni, levoluzione della
`e descritta da una equazione di continuit` a, detta equazione di Liouville:

t
+
{q
i
,p
i
}
(V
{q
i
,p
i
}
) = 0, (5.2)
dove
{q
i
,p
i
}
e V
{q
i
,p
i
}
sono rispettivamente il gradiente e il campo di velocit` a nel -spazio:

{q
i
,p
i
}
(
q
1
, . . .
q
N
,
p
1
, . . .
p
N
)
V
{q
i
,p
i
}
( q
1
, . . . q
N
, p
1
, . . . p
N
)
Allo stato stazionario, lequazione di Liouville (5.2) pu`o essere scritta nella forma
V
{q
i
,p
i
}

{q
i
,p
i
}
=
{q
i
,p
i
}
V
{q
i
,p
i
}
,
che ammetter`a una soluzione stazionaria uniforme nel -spazio, a patto che il usso nel
-spazio sia incomprimibile:
{q
i
,p
i
}
V
{q
i
,p
i
}
= 0. La condizione di incomprimibilit` a (cio`e
di conservazione del volume) nello spazio delle fasi `e soddisfatta grazie alle equazioni di
Hamilton
q
i
=
1
p
i
; p
i
=
1
q
i
;
da cui ottengo

{q
i
,p
i
}
V
{q
i
,p
i
}
=

i
_
q
i
q
i
+
p
i
p
i
_
=

i
_

q
i
1
p
i


p
i
1
q
i
_
= 0.
5.1.1 Il concetto di ensemble
Lidenticazione della distribuzione microcanonica
M
con la distribuzione di equilibrio del
sistema anche se intuitivamente ragionevole presenta una serie di problemi concettuali. Ne
diamo una rapida panoramica.
Una prima osservazione che `e necessario fare riguarda la misurabilit`a di una PDF
del -spazio. Una PDF nello spazio delle fasi (x, v) per una molecola pu`o essere ottenuta
contando il numero di molecole che si trovano istantaneamente in una data celletta di
88 CAPITOLO 5. MECCANICA STATISTICA DELLEQUILIBRIO
quello spazio. Ciascuna molecola `e quindi un campione e la PDF `e ottenuta a partire dal
limite di una frequenza (ovvero media campionaria della funzione indicatrice della celletta).
Alternativamente, possiamo focalizzarci su una molecola e calcolare la PDF a partire da
una media temporale, cio`e come frazione di tempo in cui la molecola in questione si trova
nella cella data (media temporale della funzione indicatrice della celletta).
Nel caso del -spazio, le procedure descritte qui sopra diventano sicamente irrealizza-
bili. Ciascun punto nel -spazio non corrisponde infatti alla coordinata e velocit`a di una
molecola, bens` allo stato dellintero sistema isolato. I campioni che entrano nel calcolo
della a partire da media campionaria sono quindi stati microscopici del sistema. Iden-
ticamente, il calcolo di una media temporale andrebbe fatto a priori osservando lo stato
dellintero sistema.
Linsieme dei punti di fase corrispondenti ai diversi stati del sistema che entrano nel
calcolo delle medie campionarie vengono chiamate un ensemble. Per esempio, un insieme
di punti distribuiti come
M
`e detto ensemble microcanonico.
Il fatto che entrambe le medie su -spazio sono sicamente irrealizzabili, diventa evi-
dente contando le cellette che sarebbe necessario considerare per avere un campionamento
minimo dello spazio in questione. Supponendo di dividere in due in ciascuna direzione del
-spazio (per dire, molecola 1 pu`o stare a sinistra o a destra, con velocit`a positiva o nega-
tiva, e cos` via in ogni direzione dello spazio sico e per ogni molecola), ci ritroveremmo
gi` a cos` un numero di cellette pari a 2
N
, dove N `e dellordine del numero di Avogadro:
N 10
23
.
Questo `e il numero minimo di realizzazioni che sarebbero necessarie per campionare
decentemente il nostro -spazio. Una determinazione alternativa tramite media temporale
sore delle stesse limitazioni.
1
In questo caso, abbiamo un solo punto di fase (il nostro
sistema) che deve esplorare 2
N
cellette e il tempo necessario cresce quindi come 2
N
t,
dove t `e il tempo di permanenza in ciascuna celletta. Ora il tempo t pu`o essere al pi` u
dellordine del tempo di collisione diviso per il numero di molecole (in un tempo di collisione

coll
ciascuna molecola del sistema far` a tipicamente una collisione, quindi ci saranno N
collisioni nel sistema e il tempo fra ciascuna collisione sar`a
coll
/N). Un sistema, per
esplorare tutto il spazio, richiederebbe pertanto un tempo molto superiore alla durata di
vita delluniverso.
Di fatto, dai discorsi fatti a suo tempo sulla indistinguibilit`a delle particelle, nella Sez.
3.2.1, ci rendiamo subito conto che il numero di cellette `e comunque sovrastimato: un gran
numero di esse (di fatto la maggioranza) corrisponde a scambi di particelle identiche. In
altre parole, `e assolutamente irrilevante se la distribuzione rilassa o meno allinterno di
volumi di composti da celle che dieriscono esclusivamente per scambio di particelle.
Eliminando suddivisioni di che portano a celle che dieriscono da permutazioni, rima-
niamo con un numero di celle che `e una frazione 1/N! di quella iniziale e i problemi sulla
interpretazione statistica della medie su sono ridotti.
1
Ricordiamo che un solo punto di fase esplora, lungo la sua traiettoria, tutte le possibili e pi` u impro-
babili congurazioni di non-equlibrio del sistema. Questo ci fa capire fra le altre cose come lensemble
microcanonico, anche se `e la distribuzione di equilibrio statistico nel -spazio, non `e associato in modo
esclusivo a congurazioni di equilibrio termodinamico del sistema (vedere nota al termine della Sez. 6.3).
5.2. IL CONCETTO DI ENTROPIA 89
Raggiungiamo comunque le seguenti conclusioni:
La forma esatta della distribuzione nel -spazio non deve essere importante; di fatto
basta che le propriet` a macroscopiche del sistema (per dire, lenergia di una sua parte
macroscopica) siano quasi costanti in gran parte del dominio in cui `e non nulla (la
parte del dominio corrispondente a congurazioni di equilibrio termodinamico).
Le medie temporali di grandezze macroscopiche non abbisognano quindi che le tra-
iettorie su cui sono calcolate visitino tutto il -spazio, per coincidere sostanzialmente
con le corrispondenti medie di ensemble.
Il principale vantaggio di una ipotesi del tipo =
M
`e forse solo la facilit`a nei conti.
5.1.2 Il problema ergodico
Legato alle dicolt`a discusse qui sopra `e il cos` detto problema ergodico: siamo sicuri che
medie di ensemble e medie temporali coincidono nel -spazio? Abbiamo visto a suo tempo
che una condizione per lergodicit` a di un processo stocastico x(t) `e lindecomponibilit`a del
suo spazio delle congurazioni: non devono esistere regioni del dominio di x inaccessibili
se x parte da qualche altra regione dello stesso dominio.
Nel caso di un sistema conservativo isolato, tale propriet` a di indecomponibilit`a eviden-
temente non `e soddisfatta: il sistema non pu`o spostarsi fra regioni ad energia diversa. La
risposta a questo stato di cose `e stato lensemble microcanonico. La questione ergodica
riguarda proprio cosa succederebbe se esistessero altre quantit`a conservate oltre lenergia
(ed eventualmente il momento lineare e il momento angolare del sistema).
Una risposta a questa domanda `e stata fornita da Khinchin (A.I. Khinchin, Ma-
thematical foundations of statistical mechanics) e si pu`o riassumere (forse in maniera
leggermente tautologica) nelle seguenti due osservazioni:
Se la quantit`a conservata ha un signicato macroscopico, lensemble microcanonico
va generalizzato per tenere conto della presenza di tale quantit`a.
Se la quantit`a non ha un signicato macroscopico, allora la scelta della distribuzio-
ne dei possibili suoi valori pu`o essere eettuata in maniera arbitraria e il risultato
delle medie delle grandezze macroscopiche, per denizione, non deve variare. In
particolare, la scelta in cui i valori di questa quantit`a sono distribuiti uniformente-
mente, corrispondente alla distribuzione microcanonica originaria, `e perfettamente
accettabile.
5.2 Il concetto di entropia
La discussione che abbiamo portato avanti sembra suggerire che lunica maniera di dare un
signicato sico a una PDF sul -spazio `e attraverso la media di grandezze macroscopiche.
In questo quadro, un ruolo centrale `e svolto dal concetto di entropia. A questo scopo,
90 CAPITOLO 5. MECCANICA STATISTICA DELLEQUILIBRIO
introdurremo una nuova forma di entropia espressa in termini di grandezze macroscopiche
(entropia di Gibbs) che da un lato permetter`a di stabilire una connessione fra mondo
microscopico (entropia di Shannon) e mondo macroscopico (entropia termodinamica), e
dallaltro permetter`a di chiarire il signicato dellensemble microcanonico, come un oggetto
che descrive situazioni sia di equilibrio che di non-equilibrio termodinamico. (Gran parte
delle considerazioni contenute qui di seguito provengono dalla sezione 6 del libro Fisica
Statistica di Landau e Lifsits).
Richiamiamo le varie denizioni di entropia che abbiamo incontrato sinora:
Lentropia di Shannon S[P] = ln P
k
, dove P
k
`e la probabilit`a dellelemento k
della partizione del nostro spazio dei campioni. Nel caso del -spazio, la partizione
naturale era quella uniforme P = (q
i
, p
i
), che ci permette di considerare in
alternativa una denizione di entropia tramite PDF (con tutti i caveat del caso).
Otteniamo quindi lentropia di Shannon nel -spazio S
S
S[] = ln() =
_
d ln(), o equivalentemente S
N
= ln() =
_
d ln(). Il volume della
celletta = (pq)
3N
, in meccanica classica, `e arbitrario, e ssa il livello di coarse-
graining del nostro sistema (dovrebbe essere per lo meno a scala sucientemente
piccola da far s` che le medie di quantit`a macroscopiche entropia a parte ne
risultino indipendenti. Invocando la meccanica quantistica il volume della celletta
sarebbe = (2)
3N
).
Eliminando il contributo allentropia dovuto a distinguere nella partizione congu-
razioni dierenti solo per scambio di molecole, abbiamo ottenuto per lentropia di
Shannon

S
S
[N!] = ln(N!), ed equivalentemente per lentropia di PDF

S
N
= ln(N!). Questo ci ha permesso di soddisfare la propriet` a di addittivit` a
nellentropia di sistemi di molecole identiche.
Trascurando la dipendenza statistica fra le molecole ci ha permesso di scrivere lentro-
pia S in termini della entropia di una singola molecola

S
N
S
f
=
_
d
3
xd
3
v f(x, v; t)
ln(f(x, v; t)), dove f(x, v; t) era la densit` a di molecole (mediata sulla PDF dipen-
dente dal tempo
N
) nello spazio delle fasi per una molecola.
Considerando situazioni in cui f = f
MB
solo localmente, abbiamo visto che S
f
(a
meno di un fattore costante dato dalla costante di Boltzmann) coincide con lentropia
termodinamica del sistema. Da qui siamo stati in grado di introdurre il concetto
di temperatura attraverso una condizione di massimo per lentropia di un sistema
composto da corpi in grado di scambiare calore fra loro.
Un aspetto centrale della procedura di passaggio a una descrizione termodinamica, `e stato
la possibilit`a di esprimere lentropia di un sistema composto da vari sottosistemi macrosco-
pici, come la somma delle entropie dei sottosistemi. Punto essenziale era la possibilit`a di
trattare i singoli sottosistemi in equilibrio con se stessi, e quindi esprimere la loro entropia
in funzione di parametri termodinamici interni come temperatura e volume.
Lentropia di Gibbs usa questo come un punto di partenza. La dipendenza dellentropia
dai parametri macroscopici del sistema `e ottenuta a partire da una suddivisione del sistema
5.2. IL CONCETTO DI ENTROPIA 91
in parti macroscopiche, ciascuna contenente cio`e un gran numero di molecole. (Notare che
non ha senso introdurre una densit` a istantanea nel -spazio, che giochi un ruolo analogo
alla

f per la distribuzione ad una particella).
Sia m = m
a
, a = 1, . . . M il vettore dei parametri macroscopici riferiti ai sottosistemi
a = 1, . . .. (A volte, ci si riferisce allo spazio di denizione del vettore m come -spazio del
sistema). In maniera analoga a quanto fatto nel -spazio introduciamo una discretizzazione
m
M
del -spazio. Il valore del vettore m fornisce quindi una descrizione dello stato
macroscopico o macrostato del sistema. Per contro, un punto, nel -spazio individua lo
stato microscopico o microstato del sistema. (Pi` u precisamente, sia con il termine di
micro- che di macrostato, ci si riferir`a a una celletta nel rispettivo spazio di denizione;
indicheremo in seguito con e sia lo spazio che il rispettivo punto o celletta nello spazio
di riferimento).
Notiamo immediatamente che la suddivisione in sottosistemi `e arbitraria. Potremmo
accontentarci ad esempio di considerare il sistema in blocco, oppure interessarci del conte-
nuto di energia di un volumetto del sistema. Potremmo anche considerare una suddivisione
non in volumetti, ma in intervalli di velocit`a molecolari, contando in questo caso il numero
di molecole in ciascuno di essi, come nel calcolo della funzione di distribuzione istantanea

f(x, v; t).
2
Ora, i macrostati che corrispondono allequilibrio termodinamico hanno probabilit`a
molto maggiore di essere osservati. Abbiamo cio`e la relazione del tipo limite termodi-
namico: m m, dove m `e il macrostato che viene realizzato con probabilit`a massi-
ma. In particolare, lentropia di Shannon del sistema sar`a dominata da congurazioni
corrispondenti allequilibrio termodinamico
3
:

S
S

_
( m)
d () ln(N!()), (5.3)
dove ( m) `e la regione di -spazio corrispondente al macrostato di equilibrio m. Allo
stesso tempo deve per` o valere
1 =
_
d ()
_
( m)
d (),
e sfruttando il fatto che =
M
`e uniforme nel guscio di energia [U, U + U]:
() (( m))
1
(giustamente, la PDF uniforme `e uguale allinverso del volume del suo spazio dei campioni).
Sostituendo nella (5.3) troviamo quindi:

S
S
ln(( m)/(N!)) := ln(

( m)), (5.4)
2
A dierenza di quanto si fa in teoria cinetica, in cui quantit`a come la densit`a f sono intese come medie
su una PDF dipendente dal tempo
N
, i macrostati m
a
rappresentano qui valori istantanei di grandezze
siche.
3
Per la precisione, `e necessario che sia molto pi` u grande delle uttuazioni di m, cos` che queste
siano tenute in conto nel macrostato di equilibrio.
92 CAPITOLO 5. MECCANICA STATISTICA DELLEQUILIBRIO
dove

( m) `e il numero di microstati (senza contare congurazioni che dieriscono per


permutazioni di molecole) che realizza il macrostato dato. Raggiungiamo quindi il seguente
importante risultato:
Lentropia di Shannon di un sistema termodinamico `e pari al logaritmo del numero
di microstati con cui viene realizzato il macrostato di equilibrio.
Possiamo generalizzare la (5.4) a congurazioni non di equilibrio introducendo la seguente
entropia:
S(m) = ln(

(m)) (5.5)
denita come il logaritmo del numero di microstati con cui viene realizzato il macrostato
generico, calcolato senza contare permutazioni nei sottosistemi.
Come si vedr` a pi` u avanti [vedi Eq. (5.14)], lentropia di Boltzmann (3.13) corrisponde a
meno di costanti alla espressione (5.5) nel caso in cui il macrostato `e dato dalla funzione di
distribuzione istantanea

f(x, v; t). La (5.5) costituisce quindi di fatto una generalizzazione
della entropia di Boltzmann (3.13), e dora in avanti ci riferiremo con questo stesso nome
ad entrambe. Ci riferiremo al valore di equilibrio della entropia di Boltzmann S( m),
invece, con il nome di entropia di Gibbs, che, come abbiamo visto, nel caso di sistemi
termodinamici, diventa uguale allentropia di Shannon del sistema:

S
S
S( m).
Vediamo che se i sottosistemi sono in prima approssimazione indipendenti, deve valere
la propriet` a addittiva
S(m) =

a
S
a
(m
a
), S
a
(m
a
) = log(

a
(m
a
)), (5.6)
dove

a
(m
a
) =
a
(m
a
))/(N
a
!
a
) `e il numero di microstati del sottosistema corrispon-
denti a m
a
, non contando appunto gli scambi di molecole nel sottosistema.
4
Pu` o valer la pena calcolare il numero di microstati del sottosistema a partire dalla sua
PDF. Consideriamo il caso concreto di un gas ideale in un recipiente, scegliendo come
macrostato i numeri di molecole nelle due parti V
A
e V
B
del volume V del gas. Quindi,
m (N
A
, N
B
). Scriviamo il generico punto (m) corrispondente al macrostato m nella
forma
(m) = (
1
(m
1
),
2
(m
2
), . . . ,
M
(m
M
)),
dove
a
(m
a
) individua le molecole nel sottosistema a; nel nostro caso
1
(N
A
) denisce
lo spazio delle fasi 6N
A
dimensionale delle molecole in V
A
. A ciascun
a
(m
a
) possia-
mo associare una PDF
a
(
a
(m
a
)) che descrive le molecole individuate da
a
(m
a
), con

a
(m
a
) condizionato a variare nel dominio
a
(m
a
); nel nostro caso
N
A
(
A
(N
A
)) =
4
Notiamo che questo `e il modo corretto di contare gli stati, ssati gli N
a
: (m) =

a

a
(m
a
)
`e il numero di modi in cui N
1
molecole possono essere disposte tra i microstati del sottosistema 1, N
2
molecole tra quelli del sottosistema 2, e cos` via. Le permutazioni che vanno eliminate sono pertanto quelle
allinterno dei sottosistemi.
5.3. IL METODO DI MASSIMA ENTROPIA 93
V
N
A
A

N
A
(p
i
, i = 1, . . . 3N
A
). Da qui possiamo denire lentropia di Shannon per il
sottosistema nel macrostato m
a
:

S
S
A
=
_
a(ma)

a
(
a
) ln(N
a
!
a
(
a
)
a
)d
a
. (5.7)
Di nuovo lintegrale nella (5.7) sar`a dominato da congurazioni di equilibrio, ssato m
a
(nel
nostro caso, lenergia interna del sottosistema deve essere quella corrispondente alla tempe-
ratura del sistema). Ritroviamo quindi
N
A
(
A
(N
A
)) = V
N
A
A

M
N
A
(p
i
, i = 1, . . . 3N
A
), con

M
N
A
la distribuzione microcanonica per i momenti corrispondente alla energia allequilibrio

U
A
. Possiamo quindi ripetere il calcolo che ha portato dalla (5.3) alla (5.4) e troviamo
5
:

S
S
A
S
a
(m
a
) = ln(

a
(m
a
)) = ln(
a
(m
a
)/(N
a
!
a
)). (5.8)
Eseguendo il calcolo nel caso del numero di molecole nel volume N
A
, si trova S
A
(N
A
) =
N
A
ln(V
A
/(q
3
N
A
)), che corrisponde al risultato della Sez. 3.2.1.
Il comportamento dellentropia di Gibbs appena descritto corrisponde a quello del-
lentropia termodinamica, intesa come somma di entropie di sottosistemi macroscopici del
sistema, che `e caratterizzata da un massimo in corrispondenza dellequilibrio termodinami-
co. Come entropia allequilibrio ritroviamo lentropia di Shannon del sistema, che riette
il fatto che le propriet` a statistiche del sistema sono dominate dalle sue congurazioni di
equilibrio termodinamico. Abbiamo inoltre il seguente importante risultato:
Lequilibrio termodinamico corrisponde al macrostato che pu`o essere realizzato at-
traverso il numero massimo di microstati.
La quantit`a S(m) sar`a in genere una funzione uttuante, che ci permette di descrivere
situazioni di non-equilibrio: dalle considerazioni che ci hanno portato a scrivere la (5.8),
vediamo infatti che S
a
(m
a
) `e precisamente lentropia del sottosistema a in equilibrio con
se stesso, ma non con gli altri sottosistemi.
5.3 Il metodo di massima entropia
Si tratta di un metodo piuttosto generale per la determinazione di distribuzioni di probabi-
lit` a che soddino a condizioni date. Limposizione di una condizione di massima entropia
fa s` che lunico contenuto di informazione della distribuzione sia quello proveniente dai
vincoli che sono stati imposti.
Nel nostro caso, la condizione di massima entropia ssa i valori allequilibrio dei para-
metri macroscopici. Un caso in cui questi parametri macroscopici determinano di fatto una
distribuzione di probabilit`a `e quello della distribuzione di Maxwell-Boltzmann. In questo
caso, la suddivisione del sistema `e fatta considerando intervalli di energia delle molecole
5
Se il macrostato non ssa il numero di molecole nel sottosistema, N
a
va sostituito con il suo valore
di equilibrio

N
a
, che `e la congurazione statisticamente dominante ssato m. Lo stesso avviene con ogni
altro macrostato non contenuto in m.
94 CAPITOLO 5. MECCANICA STATISTICA DELLEQUILIBRIO
[
k
,
k+1
],
k
= k e il macrostato `e individuato dai numeri di molecole N
k
in ciascun in-
tervallo. La distribuzione di equilibrio, corrispondente al massimo di entropia del sistema
risulter` a essere proprio la distribuzione di Maxwell-Boltzmann del sistema. Notiamo la po-
tenza del metodo, che risiede nel fatto che non si utilizzano in alcuna maniera informazioni
sulla dinamica microscopica del sistema. In particolare, la dipendenza delle energia sulle
variabili p
i
, q
i
del sistema pu`o essere qualsiasi.
Dobbiamo quindi determinare il massimo della entropia
S(N
k
) =

k
S
k
(N
k
); S
k
(N
k
) = ln

k
(N
k
) (5.9)
rispetto ai numeri di occupazione N
k
. Vediamo che si tratta di un massimo condizionato
al fatto che il sistema contiene in tutto N molecole, ed essendo isolato, la sua energia ha
un valore ssato U. I vincoli sono pertanto

k
N
k
= N e

k
N
k

k
= U,
e la condizione di massimo condizionato `e espressa, utilizzando moltiplicatori di Lagrange
e , nella forma
dS dN dU = 0.
Per potere procedere, `e necessario a questo punto avere una espressione per i numeri di
microstati

k
(N
k
).
Il problema, dal punto di vista concettuale, `e piuttosto delicato. Il fatto che abbiamo
denito lentropia a partire da una partizione che considera le molecole indistinguibili porta
a conseguenze non triviali se la scala di coarse-graining non `e abbastanza ne. Di fatto,
la meccanica quantistica ssa una scala minima = (2)
3N
, e non `e detto che le scale
di lunghezza e di velocit`a tirate in ballo dalla costante di Planck siano necessariamente
microscopiche. In tal caso, gli eetti non triviali di cui sopra entrano in gioco e si pu`o
vedere che determinano il comportamento di sistemi importanti come il corpo nero, gli
elettroni in un conduttore, o lelio liquido.
Nota. Nel caso di fermioni, il principio di esclusione di Pauli ci dice che uno stato
quantistico pu` o essere occupato da una sola particella alla volte. Leetto non classico a
livello di statistica `e in questo caso che solo 2s + 1 fermioni con spin s possono occupare
una celletta pq. Nel caso di bosoni, leetto quantistico risiede nel peso statistico delle
congurazioni. Gi` a con due particelle, vediamo ad esempio che una congurazione in cui
una particella occupa uno stato a e unaltra uno stato b, ha dal punto di vista quantistico
lo stesso peso di una in cui entrambe sono in uno dei due stati. Classicamente il peso della
prima congurazione `e doppio (due cellette di -spazio).
Focalizziamoci sul caso in cui sia possibile considerare la scala di coarse-graining ar-
bitrariamente piccola e scegliamola in maniera tale che il numero G
k
di celle di volume
corrispondenti allintervallo di energia [
k
,
k+1
] sia molto pi` u grande del numero di
5.3. IL METODO DI MASSIMA ENTROPIA 95
occupazione corrispondente N
k
. Supponiamo che si abbia cio`e:
G
k
N
k
1.
In queste condizioni, le cellette occupate conterranno al massimo una molecola e il numero
di microstati corrispondenti al numero di occupazione N
k
del guscio energetico N
k
sar`a
il numero di modi in cui si possono distribuire le N
k
cellette occupate fra le G
k
cellette
disponibili. Questo numero `e

(N
k
) =
G
k
(G
k
1) . . . (G
k
N
k
)
N
k
!

G
N
k
k
N
k
!
. (5.10)
Sostituendo la (5.10) nella (5.9), e utilizzando lapprossimazione di Stirling ln N
k
!
N
k
(ln N
k
1), lentropia diventa pertanto
S

k
N
k
[ln(N
k
/G
k
) 1] (5.11)
e la condizione di massimo condizionato diventa

N
k
(S N U) = ln(N
k
/G
k
)
k
= 0.
Da qui otteniamo
N
k
=
k
exp(
k
). (5.12)
I valori dei moltiplicatori e possono essere determinati a questo punto imponendo
esplicitamente

k
N
k
= N e

k
N
k

k
= U.
`
E pi` u interessante notare la connessione fra
la condizione di estremo dS dN dU e lespressione del dierenziale dellenergia in
funzione delle variabili estensive S e N: dU = TdS + dN. Utilizzando queste relazioni
nella (5.12), otteniamo immediatamente
N
k
=
k
exp
_

k
T
_
= exp
_

k
+

k
T
_
(5.13)
e notiamo la relazione fra il numero G
k
di cellette di -spazio nellintervallo [
k
,
k+1
], e la
costante (del tipo della costante chimica)
k
.
Una domanda che a questo punto sorge naturale `e se esiste una relazione tra lentropia
di Gibbs (5.11) e lentropia di Boltzmann S

f
(3.13). Tutte e due, dopo tutto, si riferiscono
alla distribuzione dei numeri di occupazione di gusci di energia in un sistema di molecole.
Concentriamoci sul caso del gas ideale [a cui si riferisce di fatto la (3.13)]. Per sempli-
cit`a consideriamo D = 1. Le cellette del -spazio sono quindi intervalli di velocit`a per
una molecola [v
k
, v
k+1
], v
k+1
v
k
= v . Abbiamo visto che v deve essere abba-
stanza grande anche il numero N
k
sia abbastanza grande da potere ricercare un limite
termodinamico N
k
N
k
. Abbiamo quindi

k
= = v/v = costante,
96 CAPITOLO 5. MECCANICA STATISTICA DELLEQUILIBRIO
e possiamo riscrivere la (5.11) nella forma
S =

k
(N
k
/G) ln(N
k
/G) + N
_
dv

f ln(

fv/e). (5.14)
A meno di costanti abbiamo ritrovato lentropia di Boltzmann S

f
(3.13).
Nota. Abbiamo calcolato il numero di microstati corrispondente al numero di occupazione
N
k
basandoci esclusivamente sui modi in cui possono essere occupate le cellette nel vo-
lume
k
(N
k
). Abbiamo in questo modo evitato qualsiasi riferimento alla identit` a delle
molecole. Notiamo che se ci fosse stata una sola celletta, il numero di microstati sarebbe
stato rigorosamente uguale a uno (ed `e possibile vedere che le molecole non sarebbero pi` u
distribuite allequilibrio secondo la statistica di Maxwell-Boltzmann). La distribuzione di
Maxwell-Boltzmann pu` o per`o essere ottenuta anche supponendo le molecole distinguibili,
nel qual caso la probabilit`a del numero di occupazione `e data dalla distribuzione multino-
miale. La probabilit`a del macrostato N
k
`e infatti la probabilit`a che ciascuna delle N
molecole sia posta in uno dei gusci energetici, moltiplicata il numero di modi in cui le N
molecole possono essere disposte in gruppi di N
k
nei vari gusci. La probabilit` a della singola
disposizione `e

k
(G
k
/G)
N
k
dove G
k
/G, con G =

k
G
k
`e la probabilit`a che ha una singola molecola di trovarsi nel
guscio k, mentre il numero di disposizioni `e N!/

k
N
k
!. Otteniamo quindi
P(N
k
) =
N!
G
N

k
G
N
k
k
N
k
!
.
Il termine

k
G
N
k
k
/N
k
! la massimizzazione del cui logaritmo permette di determinare le N
k
allequilibrio `e identico a quello ottenuto considerando le molecole indistinguibili e ponendo
G
k
N
k
. La distribuzione di Maxwell-Boltzmann `e quindi di nuovo ottenuta. Il fattore
costante N! in P(N
k
), anche se non contribuisce allatto di calcolare il massimo del-
lentropia, ci dice per`o che lentropia del macrostato non pu` o pi` u essere scissa in contributi
dai diversi gusci energetici
S(N
k
) ,=

k
S
k
(N
k
).
Troviamo di nuovo il risultato che, per avere unentropia addittiva, dobbiamo stare attenti
a considerare sempre le molecole come indistinguibili.
5.4 La distribuzione di Gibbs
Un altro modo in cui il nostro sistema isolato pu`o essere suddiviso, `e considerando un
volumetto V
A
contenente un numero ssato di molecole (un sottosistema separato dal resto
5.4. LA DISTRIBUZIONE DI GIBBS 97
del corpo da una parete che conduce il calore). Indichiamo con B il rimanente del sistema
isolato (il bagno termico) e supponiamo U
A
U, dove U
A
e U sono le energie interne
del sottosistema e del sistema isolato. Vorremmo calcolare la distribuzione
A
(U
A
) delle
energie interne del sottosistema. Per far questo possiamo partire dalla PDF marginale nel
-spazio per il sistema A:

A
(
A
) =
_
()d
B
=

B
(
A
)
(U)
,
in cui (U) `e il volume di -spazio corrispondente al sistema isolato, e
B
(
A
) `e il
volume di -spazio del bagno termico corrispondente al microstato del sottosistema A. Ora
se i sottosistemi A e B sono macroscopici, una propriet` a macroscopica di B come il volume

B
(
A
) (legato allentropia di Boltzmann di B) non potr` a dipendere dal microstato
A
,
se non attraverso il macrostato di A che esso individua. Nel nostro caso U
A
. In altre parole,

B
(
A
) `e determinato dal macrostato in cui si trova B in corrispondenza a U
A
che non `e
altri che lenergia U
B
= U U
A
(
A
). Abbiamo quindi che la marginale
A
(
A
) `e uniforme
per ciascun valore di U
A
, e possiamo denire

A
(
A
) =

B
(U U
A
())
(U)
.
Sfruttando la (5.8), il volume
B
(U
B
) pu`o per` o essere scritto in funzione dellentropia di
Boltzmann del sottosistema B, e troviamo inne:

A
(
A
) =
N
B
!
B
(U)
exp(S
B
(U U
A
(
A
)))
1
Z
exp(
U
A
(
A
)
T
), (5.15)
dove si `e utilizzata la relazione S
B
(U U
A
) S
B
(U) U
A
S

B
(U) = S
B
(U) U
A
/T, T
`e la temperatura del bagno termico, e Z = (U)/
B
(U) `e un fattore di normalizza-
zione, detto funzione di partizione, che, come si vedr` a, gioca un ruolo estremamente
importante nella teoria.
La (5.15) `e detta distribuzione di Gibbs (oppure distribuzione canonica) ed `e la
forma che assume la PDF nel -spazio, per un sistema in un bagno termico a temperatura
T.
Va ribadito che
A
(U
A
) non `e ancora la PDF per U
A
, il che `e rivelato dal suo essere
piccata intorno a U
A
= 0 e non intorno a

U
A
N
A
T. Lo spostamento del picco da
0 a

U
A
nella PDF
A
(U
A
) `e prodotto dal fattore di volume nel cambio di variabili da

A

A
(U
A
) a U
A
:

A
(U
A
) =
A
(
A
)

A
(U
A
)
U
A
=
N
A
!
A
ZU
A
exp
_
TS
A
(U
A
) U
A
T
_
(abbiamo utilizzato di nuovo per il calcolo di
A
(U
A
) la (5.6)). Vediamo subito che

A
(U
A
) possiede un picco di larghezza U
A
T nel minimo rispetto a U
A
della dierenza
U
A
TS
A
(U
A
). Ma la condizione di minimo non `e altro che
1
T
=
S
A
U
A
,
98 CAPITOLO 5. MECCANICA STATISTICA DELLEQUILIBRIO
che `e vericata solo se U
A
`e al suo valore allequilibrio in un bagno termico a temperature
T. Ci rendiamo quindi conto che il minimo di TS
A
(U
A
) U
A
rispetto a U
A
non `e altro che
lenergia libera di Helmholtz F
A
(T, V
A
) = TS
A
(

U
A
, V
A
)

U
A
TS
A
(T, V
A
) U
A
(T, V
A
).
Il legame fra energia libera di Helmholtz e distribuzione canonica ha delle importanti
conseguenze. Questo legame diventa evidente se si eettua il calcolo della funzione di
partizione Z. Imponendo la condizione
_

A
(U
A
)
A
= 1, troviamo subito, utilizzando la
(5.15):
Z =
_
d
A
exp
_

U
A
(
A
)
T
_
, (5.16)
e vediamo che lintegrale `e dominato dalla congurazione di equilibrio

U
A
. Possiamo
pertanto scrivere
Z
A
(

U
A
) exp
_

U
A
T
_
= N
A
!
A
exp
_
TS
A
(

U
A
)

U
A
T
_
,
dove si `e utilizzata ancora una volta la (5.6). Abbiamo gi` a visto per` o che lespressione
TS
A
(

U
A
)

U
A
TS
A
(T)

U
A
(T) non `e altro che lenergia di Helmholtz per il sottosistema
in un bagno termico a temperatura T. Troviamo quindi la relazione fondamentale
Z(T, V
A
) =
_
d
A
exp
_

U
A
(
A
)
T
_
= N
A
!
A
exp
_

F
A
(T, V
A
)
T
_
, (5.17)
che ci fornisce un modo diretto di calcolare lenergia libera del sistema a partire da una
media statistica sul -spazio, nota la dipendenza della energia interna U
A
dai gradi di
libert`a microscopici
A
.
Nota. Pu` o valer la pena ripetere il calcolo della energia libera di Helmholtz per un gas
ideale a partire dalla (5.17). Abbiamo in questo caso U = (2m)
1

i
p
2
i
, cos` che
Z =
_
d
3N
qd
3N
p exp
_

1
2mT
3N

i=1
p
2
i
_
= V
N
_
_
dp exp
_

p
2
2mT
__
3N
= V
N
(2mT)
3N
2
= exp(N(ln V +
3
2
ln T +
3
2
ln(2m)))
Combinando con la (5.17), e utilizzando la formula di Stirling ln N! N(ln N 1),
troviamo quindi
F(T, V, N) = NT
_
3
2
(1 ln T) ln(V/N)
_
,
dove, utilizzando = (pq)
3N
, abbiamo = 5/2 (3/2) ln(q
2
p
2
/(2m)) (confrontare
con la (4.19)).
5.5. ESERCIZI 99
5.5 Esercizi
Esercizio 1 Considerare un sistema di quattro particelle distinguibili, ciascuna delle quali
pu`o avere energia = n, n = 0, 1, 2 . . ..
Trovare i microstati corrispondenti al macrostato con energia E = 6. (Occhio a
contare i microstati corrispondenti a scambio di particelle tra i diversi livelli energe-
tici!)
Supponendo i microstati a priori ugualmente probabili, determinare la distribuzione
a una particella f
1
() corrispondente al macrostato E = 6.
Quanto vale lentropia di Boltzmann di questo macrostato?
Problema 2 Supponiamo che in un dado truccato si abbia P(1, 2) = 1/3, P(3, 4) =
1/2, P(5, 6) = 1/6 e che le vincite corrispondenti ai diversi risultati siano x(1) = x(2) =
1; x(3) = x(4) = 0; x(5) = x(6) = 1. Pertanto, x = 1/6 (se il dado fosse non truccato
sarebbe chiaramente x = 0).
Calcolare per N 1, la probabilit`a P(x[x
N
= 0), cio`e la distribuzione tipica di
uscite degli x che farebbe s` che la media campionaria in una sequenza molto lunga
di prove coincidesse con la media del caso non truccato. (Suggerimento: cercare
lanalogia con il calcolo con il metodo di MAX entropia, della distribuzione di velocit`a
di un gas ideale a temperatura ssata).
Problema 3 Si consideri un gas ideale di molecole biatomiche. Si modelli linterazione fra
gli atomi nelle molecole con un potenziale elastico, cos` che lenergia di una molecola `e
=
1
2m
(p
2
1
+ p
2
2
) +

2
[r
1
r
2
[
2
dove p
1,2
and r
1,2
sono i momenti lineari e le coordinate degli atomi nella molecola.
Trovare lenergia libera di Helmholtz del sistema
Determinare il calore specico a volume costante del sistema
Determinare il diametro quadratico medio delle molecole [r
1
r
2
[
2
.
100 CAPITOLO 5. MECCANICA STATISTICA DELLEQUILIBRIO
Capitolo 6
Cenni alla teoria delle uttuazioni
6.1 Fluttuazioni attorno allequilibrio
(Gran parte delle considerazioni che seguono sono tratte dalle Sez. 110-112 del libro Fisica
Statistica di Landau e Lifsits). Abbiamo visto che lentropia di Boltzmann `e il logaritmo
del numero di microstati con cui pu`o essere realizzato un dato microstato. Essendo i micro-
stati di un sistema isolato egualmente probabili (ensemble microcanonico), la probabilit`a
di un macrostato m deve essere proporzionale al numero di microstati, che `e exp(S(m)).
Verichiamo il risultato in maniera esplicita. Indicando con la PDF nello spazio dei
macrostati, abbiamo infatti
(m) = ()
(m)
(m)
=
(m)
(m)(U)
=

(m)
(m)

(U)
,
dove (m) `e lelemento di volume nel -spazio generato da m, (m), e () =
1/(U) `e la PDF microcanonica per il sistema isolato (5.1). Scrivendo tramite la (5.6)
in funzione di S(m):
(m) = C exp(S(m)).
Abbiamo anche visto che lequilibrio corrisponde al massimo di S(m). La funzione S(m)
varia sulla scala del valore medio S(m), pertanto, per variazioni di m dellordine delle
uttuazioni termiche (che abbiamo detto tendono a zero nel limite termodinamico per i
sottosistemi), possiamo espandere in serie di Taylor
S(m) S
eq

1
2

ij
z
i
z
j
, (6.1)
dove S
eq
S( m
k
) `e lentropia allequilibrio, z
k
= m
k
m
k
sono le uttuazioni rispetto
allequilibrio e abbiamo utilizzato la convenzione di somma sugli indici ripetuti.
Vediamo quindi che la PDF delle uttuazioni `e Gaussiana, e che la matrice di
correlazione z
i
z
j
`e data dallinversa della
ij
.
101
102 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
Nota. Verichiamo che (
1
)
ij
`e la matrice di correlazione. Notiamo subito che la parte
antisimmetrica di
ij
non contribuisce nella somma
ij
z
i
z
j
e pu` o quindi essere posta uguale
a zero. Attraverso una trasformazione unitaria, la matrice
ij
pu` o essere quindi posta in
forma diagonale. Lo Jacobiano del cambio di variabili corrispondente nella PDF `e uguale
a uno ed abbiamo

z
( z) =
z
(z( z)) = C exp(
1
2

k

kk
z
2
k
),
dove il cappello indica variabili nella rappresentazione diagonale. Ma (
1
)
ik

1
kk

ik
=
z
i
z
k
denisce la matrice di correlazione nella rappresentazione diagonale e (
1
)
ik
`e la
sua forma nella rappresentazione originaria.
Abbiamo gi` a visto alcuni esempi di calcolo di ampiezze di uttuazione. Per la uttua-
zione N del numero di molecole in un volume V , abbiamo trovato il risultato tipico del
processo di Poisson [vedi la (2.26)]
N
2
= nV.
Nel caso dellenergia di un sottosistema che non scambia molecole ma scambia calore con
il resto del sistema, lampiezza di uttuazione ci era data dallensemble canonico (5.15):
U T.
In questultimo caso, il calcolo chiamava esplicitamente in conto lespressione della proba-
bilit` a di U in funzione dellentropia. Il procedimento pu`o essere generalizzato a variabili
termodinamiche generiche, riferite a una parte macroscopica del sistema isolato, ricordan-
do la relazione fra variazione di entropia e calore ceduto a un sistema a temperatura data:
dS = dQ/T.
Per ssare le idee consideriamo una porzione del sistema isolato, che pu`o scambiare la-
voro e calore con il resto del sistema, ma il cui numero di molecole rimane costante. Questa
porzione sar`a caratterizzata da valori V e S del volume e della entropia che saranno quindi
quantit`a uttuanti. Come abbiamo visto, in corrispondenza delle uttuazioni di V ed S
del sottosistema, corrisponer` a un allontanamento dalla condizione di equilibrio del sistema
isolato e quindi una sua diminuzione di entropia S
tot
< 0. Questa diminuzione di entropia
totale corrisponde a una dipartita dalla curva di equilibrio S
tot
= S
tot
(U
tot
), che potrebbe
essere ottenuta in maniera alternativa eseguendo lavoro dallesterno sul sistema isolato a
partire da una condizione a energia minore (vedi Fig. 6.1). Ritorniamo per un attimo alla
questione del lavoro minimo che bisogna esercitare per provocare una certa modicazione
in una parte di un sistema isolato. Ricordo il risultato [vedi la (4.12)], valido nel caso
in cui il sistema e la sua parte sono inizialmente in equilibrio [da qui in poi, indichiamo
le variabili riferite al sottosistema con lettere senza indice, mentre contraddistinguiamo il
sistema isolato con il pedice tot; confrontare con la (4.11)]:
R
min
= U TS + PV. (6.2)
6.1. FLUTTUAZIONI ATTORNO ALLEQUILIBRIO 103
S
tot
U
tot
S
tot

W
min

Figura 6.1: La stessa variazione di entropia pu`o essere vista sia come il risultato di una
uttuazione, che (con il segno cambiato), come quello del raggiungimento dellequilibrio,
dopo che il sistema `e stato spinto fuori dallequilibrio da un azione esterna (lavoro R
min
).
La modicazione veniva eettuata in maniera tale che il volume totale del sistema isolato
non variasse (per esempio una paletta che agita il gas in una parte di un recipente). Di
fatto quindi, R
min
`e laumento di energia di tutto il sistema isolato.
Ora, la modicazione associata a V e S, provocher` a una piccola variazione nella
pressione e nella temperatura del sottosistema, che sar`a quindi spinto leggermente fuori
dallequilibrio rispetto al resto. Dopo un po, per` o, lequilibrio sar`a ritrovato e vediamo
che laumento di energia U
tot
= R
min
ha lo stesso eetto della cessione di un uguale
quantitativo di calore al sistema isolato. Lentropia di questultimo crescer` a in risposta di
un ammontare S
tot
= R
min
/T. Vediamo quindi che R
min
/T `e la crescita di entropia
nel raggiungimento dellequilibrio, a partire da una condizione iniziale di non equilibrio,
caratterizzata da parametri V e S del sottosistema (entrambi gli stati considerati nal
valore nale dellenergia totale del sistema isolato).
Riassumendo, la probabilit`a di una uttuazione associata a variazioni V e S nel
sottosistema `e data da, utilizzando la (6.2):
(V, S) = C exp(R
min
/T) = C exp
_

U TS + PV
T
_
. (6.3)
Dobbiamo determinare a questo punto il lavoro minimo R
min
. Vediamo subito che, svol-
gendosi la modicazione allequilibrio, le pressioni e le temperature interne ed esterne al
sottosistema devono essere uguali. Il lavoro che `e necessario esercitare, proviene pertanto
dalla dipartita della pressione e temperatura del sottosistema dai rispettivi valori allequi-
librio. Questo ci suggerisce che il lavoro minimo deve essere quadratico in V e S. In
eetti, `e cos` che deve essere, se la trasformazione nel sistema isolato `e eettuata attorno a
una congurazione di equilibrio, che corrisponde quindi a un massimo di S
tot
rispetto alle-
nergia U della sua parte. La variazione di S
tot
rispetto a U deve quindi essere quadratica.
Espandendo U al secondo ordine in V e S:
U TS PV +

2
U
S
2
(S)
2
+ 2

2
U
SV
SV +

2
U
V
2
(V )
2
104 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
e vediamo che i termini lineari sono cancellati in R
min
dai contributi che provengono dal
resto del sistema isolato. Troviamo in denitiva
R
min


2
U
S
2
(S)
2
+ 2

2
U
SV
SV +

2
U
V
2
(V )
2
.
Daltra parte possiamo riscrivere

2
U
S
2
(S)
2
=
T
S
(S)
2
=
_
T
T
V
V
_
S

2
U
V
2
(V )
2
=
P
V
(V )
2
=
_
P
P
S
S
_
V

2
U
SV
=
T
V
=
P
S
e perci`o, sostituendo di nuovo in R
min
e poi in (V, S): [Eq. (6.3)]:
(V, S) = C exp
_
PV TS
T
_
, (6.4)
dove P e T sono intese funzioni di S e V . Questa espressione sottolinea come la
deviazione dallequilibrio deve essere associata a forze di richiamo, che sono appunto le
variazioni P e T. Notiamo a questo punto che abbiamo quattro variazioni per due
parametri indipendenti. La coppia di parametri scelti come indipendenti sono anche quelli
di cui `e possibile calcolare esplicitamente lampiezza di uttuazione. Consideriamo ad
esempio la coppia V, T. Dobbiamo quindi esprimere S e P nella (6.4) in funzione V
e T.
S =
S
T
T +
S
V
V =
S
U

V
U
T

V
T

2
H
V T
V =
C
V
T
T

2
H
V T
V
e
P =
P
T
T +
P
V
V =

2
H
V T
T +
P
V
V,
e quindi, sostituendo in :
(V, T) = C exp
_

C
v
2T
2
(T)
2
+
1
2T
P
V
(V )
2
_
(6.5)
da cui troviamo
(T)
2
=
T
2
C
v
, TV = 0; (V )
2
= T
_
P
V
_
1
. (6.6)
La stessa procedura che ha condotto alla (6.6) pu`o essere eettuata con coppie diverse di
variabili termodinamiche, e si ottengono cos` le ampiezze di uttuazione ad esempio per
pressione ed entropia.
6.2. STRUTTURA TEMPORALE DELLE FLUTTUAZIONI 105
6.2 Struttura temporale delle uttuazioni
Studiare la struttura temporale delle uttuazioni ci porta necessariamente a considerare le
propriet` a dinamiche del sistema. Abbiamo visto a suo tempo, per lo meno nel caso di un
gas ideale, che la teoria cinetica ci ore uno strumento per lo studio di queste propriet` a.
Ci rendiamo rapidamente conto, per` o, che anche questa `e insuciente trattando anchessa
per denizione con quantit`a medie (sebbene riferite a una PDF in generale dipendente
dal tempo). Un approccio possibile (ma molto dicile) potrebbe essere quello di esten-
dere la teoria cinetica oltre il campo medio, derivare una equazione per la distribuzione a
due-particelle f
2
(x
1
, x
2
; v
1
, v
2
; t), e riderivare da qui equazioni uide che tengano in conto
leetto delle uttuazioni.
La strategia alternativa (seguita essenzialmente da Einstein) `e quella di supporre che
il comportamento delle quantit`a uide esatte (che tengono conto cio`e delle uttuazioni)
n(x, t), u(x, t), eccetera, dierisca poco, allequilibrio, da quello delle corrispettive medie
n(x, t), u(x, t) eccetera. In altre parole, si suppone che le quantit`a uttuanti obbediscano,
a meno di una correzione che dipender` a da eetti microscopici da meglio denire, la stessa
equazione uida (o cinetica) cui obbedisce la corrispondente quantit`a media. Questa equa-
zione, a causa della piccolezza delle uttuazioni, sar`a necessariamente lineare in queste
ultime. Per esempio, lequazione di trasporto del calore (3.30) avr`a ora la forma:
T
t
+
2
3
T u
2
T = ,
dove (x, t) `e il termine che descrive gli eetti microscopici responsabili per le uttuazioni.
(Per ottenere un sistema chiuso di equazioni, identiche formule possono essere introdotte
per le uttuazioni di velocit`a uida e di densit` a).
Ora, gi` a osservando questo particolare esempio, ci rendiamo conto della situazione: in
assenza del termine , il termine di diusivit`a (e il corrispondente termine viscoso nella
equazione di Navier-Stokes (3.29), attraverso la distruzione di u) porterebbe alla distru-
zione di qualsiasi disomogeneit` a in

T. Il termine `e quindi a tutti gli eetti un forzante.
Vediamo inoltre che, mentre il termine diusivo agisce su una scala di tempi macroscopica
L
2
/, dove L `e la scala spaziale a cui studiamo le uttuazioni (per dire, L V
1/3
),
`e una somma di contributi delle singole molecole che si cancellano fra loro (la media del
contributo deve essere ovviamente nulla). Il suo contributo uttua quindi sul tempo scala
degli ingressi delle molecole nel sottosistema. Su scale di tempi macroscopiche, il forzante
si pu`o quindi considerare, oltre che a media nulla, scorrelato nel tempo. Un processo
stocastico con tali caratteristiche `e chiamato comunemente rumore bianco.
In generale, troviamo quindi che le uttuazioni di una variabile macroscopica in un
sistema termodinamico saranno descritte da una equazione con un forzante random e un
termine dissipativo. Nel caso semplice di una singola variabile macroscopica r, abbiamo
quindi per z r:
z(t) + z(t) = (t).
Questo `e il tipo di equazione che dobbiamo risolvere per determinare la struttura tem-
porale della uttuazione di r. Per situazioni lontane dallequilibrio, lequazione diventer`a
106 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
tipicamente nonlineare, ma anche se determinare la sua forma pu`o non essere in gererale
possibile, sappiamo che essa dovr`a comunque descrivere una situazione di avvicinamento
allequilibrio. Sovrapposto a questo moto di avvicinamento, ci sar`a una parte uttuante,
che, relativamente trascurabile nella fase iniziale, che rappresenter`a il grosso della variazio-
ne di z allequilibrio. Nella stessa maniera, lentropia di Boltzmann S(z), partendo da una
condizione lontano dallequilibrio, crescer` a nel tempo, ma ad essa sara sempre sovrapposta
una componente uttuante, che rimarr`a lunica dipendente dal tempo allequilibrio.
Gran parte della informazione rilevante sulla struttura temporale delle uttuazioni `e
contenuta nella funzione di correlazione C(t) = z(t)z(0), ed `e ad essa che rivolgiamo la
nostra attenzione. Possiamo scrivere la funzione di correlazione in funzione della media
condizionata z(t)[z(0) tramite la relazione
C(t) = z(t)[z(0)z(0).
Lequazione per z(t)[z(0) si ottiene immediatamente prendendo per t > 0 la media
condizionata della equazione per y:
(
d
dt
+ )z(t)[z(0) = (t)[z(0) = 0,
dove ho sfruttato il fatto che (t) `e scorrelato e z(0), per causalit`a, pu`o dipendere solo da
valori di a tempi minori di zero. Moltiplicando lequazione per la media condizionata per
z(0) e prendendo la media, otteniamo inne
(
d
dt
+ )C(t) = 0,
che ha soluzione C(t) = z
2
e
t
. Valendo per stazionariet` a C(t) = C(t), possiamo
scrivere per t generico:
C(t) = z
2
e
|t|
. (6.7)
Vediamo quindi che la scala temporale su cui la grandezza r uttua, `e data dal tempo di
dissipazione
1
.
6.2.1 Il moto Browniano
Unapplicazione importante (e in pratica il punto di partenza della teoria delle uttua-
zioni) `e il problema del moto Browniano. Si tratta del cammino random che particelle
microscopiche in sospensione in un uido (per esempio polline in acqua) eettuano a causa
degli urti molecolari. Il problema `e la determinazione del coeciente di diusione delle
particelle in funzione della loro massa, e dimensione e della temperatura del liquido.
Il punto di partenza `e losservazione che il liquido e la particella in sospensione costi-
tuiscono un sistema isolato in equilibrio. Allo stesso tempo, la particella in sospensione
costituisce un sottosistema macroscopico del sistema isolato. Un parametro che descrive
6.2. STRUTTURA TEMPORALE DELLE FLUTTUAZIONI 107
la nostra particella `e la sua energia cinetica U =
1
2
Mu
2
, che sar`a distribuita secondo la
distribuzione di Gibbs (5.15) (riutilizziamo per una volta la costante di Boltzmann):
dP = C exp(
U
KT
)d
3
u.
Notiamo come interessandoci solo del movimento macroscopico della particella, il -spazio
del sottosistema siano solo le tre componenti della velocit`a. Da qui otteniamo subito
u
2

KT
M
.
Allo stesso tempo per` o, il moto della particella nel uido deve essere descritto da una
equazione del tipo
u + u = ,
dove M `e il coeciente di attrito viscoso di una particella nel uido. Dimensionalmente
possiamo scrivere

M
R
2
,
dove `e la viscosit`a cinematica del uido (per lacqua, 0.01cm
2
/s) e R `e la dimensione
della particella. Sostituendo nella espressione per la correlazione temporale per u data
dalla (6.7):
u(0)u(t) = u
2
e
|t|

KT
M
exp(C(/R
2
)[t[).
A partire da questa informazione, possiamo ottenere il coeciente di diusione della parti-
cella Browniana, che `e il rapporto tra la varianza del suo spostamento e il tempo impiegato
ad eettuarlo. Questo calcolo va eettuato per tempi lunghi rispetto al tempo di corre-
lazione
1
, di maniera tale che il moto della particella sia a tutti gli eetti del tipo di
un cammino random. Indicando con x(t) lo spostamento della particella nel tempo t,
abbiamo evidentemente x(t) = 0 e
(x(t))
2
=
_
t
0
d
_
t
0
d

u()u(

)
e ponendo t
1
[confrontare con la (2.39)]:

B
=
(x(t))
2

t

_

du(0)u()
u
2


KTR
2
M
. (6.8)
Notare come a partire da propriet` a macroscopiche, tutte facilmente misurabili, sia possibile
determinare un parametro puramente microscopico come la costante di Boltzmann K.
A questo punto per` o, va spesa qualche parola sulluso di termini come microscopico
e macroscopico riferiti alla particella Browniana. Nessuno dei due `e in eetti corretto,
e la particella andrebbe denita pi` u propriamente mesoscopica, visto che la sua scala
`e comunque superiore a quella delle molecole e la sua dinamica `e descritta da parametri
108 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
macroscopici come viscosit`a e attrito. Daltra parte gli eetti dalla microscala non sono
trascurabili, visto che `e da essi che dipende la sua mobilit`a. Pu` o essere interessante a
questo punto ridare unocchiata alla relazione fra entropia di Boltzmann e di Shannon,
in una situazione in cui, appunto, le uttuazioni del macrostato non sono considerate
trascurabili.
La PDF nel -spazio del sistema isolato per un sistema di questo tipo sar`a nella forma
(q
i
, p
i
[u)

P(u),
dove i q
i
, p
i
deniscono il -spazio del uido e dei gradi di libert`a interni (termici)
della particella. La PDF (q
i
, p
i
[u) `e supposta uniforme rispetto a q
i
, p
i
nelle regioni
corrispondenti a ciascuna celletta di -spazio individuate dai valori di u (vedere nota a
pagina 93), quindi, per denizione [Eq. (5.1)]:
(q
i
, p
i
[u) =
1
(u)
(u),
dove (u) `e il volume di -spazio corrispondente al macrostato u;

P(u) (u)(u)
`e la probabilit`a dei macrostati. A questo punto possiamo calcolare lentropia di Shannon
del sistema isolato e troviamo
S = ln(N!) =

u
P(u)S(u)

P(u) ln

P(u),
dove
S(u) =
_
(u)
d(u) ln((u)N!) = ln(

(u))
`e lentropia di Boltzmann del macrostato u e

S =

P(u) ln

P(u) `e lentropia di
Shannon dei gradi di libert`a macroscopici della particella.
Sotto quali condizioni le entropie di Shannon e di Gibbs del sistema isolato coincidono?
La risposta, abbiamo visto, `e quando solo un macrostato viene in pratica realizzato, cio`e
quando P(u) 1, di modo che lentropia macroscopica

S =

P(u) ln

P(u) `e nulla
e S = S(u). Il fatto che un solo macrostato venga realizzato, dipende per` o dal livello
di coarse-graining del nostro -spazio, cio`e dalla dimensione del volumetto u
3
che
abbiamo scelto di utilizzare. Il livello di coarse-graining determina fra laltro la nezza
della partizione su cui viene calcolata

S, che sar`a alto solo se siamo interessati a risolvere
le uttuazioni della grandezza termodinamica in questione.
Notiamo limportante relazione fra lentropia di Boltzmann, il termine di dissipazione
e la uttuazione della variabile termodinamica. Nel caso del moto Browniano, la variabile
termodinamica `e u, e un suo aumento provoca unaumento di energia cinetica della parti-
cella e quindi un rareddamento e diminuzione della entropia S(u) associata ai gradi di
libert`a termici del sistema isolato. Questa diminuzione di entropia `e lesponente negativo
U/T = Mu
2
/(2T) nella distribuzione di Gibbs, che guarda caso `e quadratico nella
variabile uttuante u (il valore di equilibrio della variabile `e evidentemente u = 0). La
molla di richiamo che spinge u al suo valore di equilibrio `e la forza di attrito lineare u.
6.2. STRUTTURA TEMPORALE DELLE FLUTTUAZIONI 109
Notiamo di passaggio, che anche il gradiente con cui decresce lentropia al crescere di
u, `e lineare in u, e sarebbe interessante immaginare che la forza della molla di richiamo e
il gradiente di entropia
u
S(U) siano in qualche maniera connessi. Vedremo che questa
connessione `e stabilita dal fatto che la soluzione della equazione u + u = deve essere
distribuita secondo la (u) = C exp(Mu
2
/(2T)).
6.2.2 Relazioni uttuazione-dissipazione
Abbiamo visto come le uttuazioni attorno allequilibrio siano il risultato del bilancio tra
lazione di forze molecolari e forze di frenamento. Le prime agiscono come sorgente delle
uttuazioni. Le seconde agiscono come molla di richiamo. Il bilancio fra le due determina
lampiezza delle uttuazioni. La stessa quantit`a `e determinata a partire dalla entropia del
sistema. Possiamo quindi eliminare dalle tre quantit`a incognite: forza molecolare, forza
di frenamento e ampiezza di uttuazione, la forza molelare, rimanendo cos` con una sola
relazione tra forza di richiamo e ampiezza di uttuazione. Abbiamo visto questa strategia
al lavoro nel caso del moto Browniano. Presentiamo qui un approccio leggermente diverso,
che evita tirare in ballo le forze molecolari.
Supponiamo di isolare nel nostro sistema una parte (il sottosistema) descritta da una
grandezza macroscopica m(p
i
, q
i
), dove p
i
, q
i
sono le coordinate canoniche del-
la parte in questione. Supponiamo che lequilibrio termodinamico corrisponda a m = 0.
Vediamo subito che ci sono essenzialmente due tipi di grandezze macroscopiche con cui
possiamo avere a che fare. Il primo esempio `e del tipo della velocit`a della particella Bro-
wniana, cio`e m u: per tenere la particella in moto dobbiamo agire con una forza che si
oppone allattrito u, generando una potenza media u
2
nel sistema. Il secondo esempio
`e la coordinata della stessa particella, immaginata per` o in una buca di potenziale (senza
buca di potenziale, evidentemente non ci sarebbe un valore di equilibrio per m). Quindi
m x e in questo caso la forza serve a controbilanciare la forza conservativa della buca di
potenziale. In questo secondo caso, in media, non si esercita potenza. Il concetto di forza
di frenamento `e evidentemente diverso nei due casi: nel primo `e una forza di attrito. Nel
secondo `e una forza di richiamo. In entrambi i casi, se la forza `e sucientemente piccola,
possiamo aspettarci una dipendenza lineare dalla forza esterna:
m
f

m
f,
dove .
f
indica media sul sistema eettuata in presenza della forza f. La risposta lineare
del sistema `e quindi denita dalla relazione

m
=
dm
f
df

f=0
. (6.9)
Consideriamo prima il caso della forza conservativa. Sia U() lenergia del sottosistema
isolato. Per quanto abbiamo detto, U sar`a minimo in x = 0, dove m x ha il senso di una
coordinata macroscopica del sistema. La forza necessaria per tenere il sistema nel nuovo
stato sar`a evidentemente f = U/x. Un sistema con Hamiltoniana U() fx())
110 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
avr`a pertanto equilibrio in x() = x
f
,= 0. Consideriamo ora il nostro sistema immerso
nel bagno termico. Esso sar`a descritto dalla distribuzione di Gibbs (si vedano le (5.15) e
(5.17)):
() =
1
N!
exp
_
F(x
f
) U() + fx()
T
_
e la media sar`a
x
f
=
_
d

x() exp
_
F(x
f
) U() + fx()
T
_
(6.10)
dove d

d/(N!). Per ottenere la funzione di risposta, sostituiamo la (6.9) nella


(6.10), ponendo m = x. Otteniamo, sfruttando la condizione
x
F[
x=0
= 0 (lenergia libera
`e minima allequilibrio):

x
=
1
T
_
d

(x())
2
exp
_
F(0) U()
T
_
=
x
2

T
. (6.11)
La (6.11) `e il primo esempio di relazione uttuazione-dissipazione, valida nel caso di
una dinamica dominata da forze conservative. Notiamo come attraverso le derivate della
funzione di partizione in presenza di forze esterne, possiamo ottenere medie di funzioni
generiche delle variabili microscopiche p
i
, q
i
. La (6.10) e la (6.11) possono essere scritte
infatti nella forma:
x
f
=
dZ(f)
df
e x
2
=
d
2
Z(f)
df
2

f=0
,
il che mostra come il metodo delle funzioni di partizione pu`o essere adattato per il calcolo
di funzioni correlazione.
Nel caso puramente dissipativo, il sottosistema non esercita forze di risposta e lunica
reazione ad f `e quella esercitata dal bagno termico. In questo caso la variabile macroscopica
di interesse m `e la velocit`a u = x, dove x ha la propriet` a

U = 0; in parole povere,
variazioni di x non inuenzano U. (Nel caso della particella Browniana: x =
1
N

i
q
i
`e la
coordinata del centro di massa della particella, e lenergia della particella U =
1
2m

i
p
2
i
`e infatti indipendente da x). LHamiltoniana modicata U
f
= U fx adesso descrive un
sistema in cui la forza f porta a unaccelerazione indenita del sistema. Nel caso della
particella Browniana, infatti: p
i
=
q
i
U
f
= f/N, e quindi u(t) = x(t) = u(0) + ft. La
(6.10) diventa:
u
f
=
_
d

u() exp
_
F(u
f
) U() + fx()
T
_
, (6.12)
e la (6.9) produce il risultato, ponendo m = u:

u
=
1
T
_
d

u()x() exp
_
F(0) U()
T
_
=
1
T
_
d

u(t; )
_
t

dt

u(t

)[, t exp
_
F(0) U()
T
_
=
1
T
_
0

dtu(t)u(0). (6.13)
6.2. STRUTTURA TEMPORALE DELLE FLUTTUAZIONI 111
Questa relazione, detta formula di Green-Kubo, fornisce il corrispettivo, valido nel caso
di sistemi puramente dissipativi, della relazione uttuazione-dissipazione (6.11).
`
E facile
vedere come la (6.13), nel caso del moto Browniano, ci riporta alla (6.8).
Nota. Possiamo generalizzare le relazioni uttuazione-dissipazione a situazioni dipendenti
dal tempo. Per far ci`o, modichiamo leggermente il nostro punto di vista, domandandoci
qual`e la forza di risposta del sistema a una perturbazione esterna. Per esempio, invece di
domandarci la posizione media x
f
di una particella in una buca di potenziale, in risposta
a una forza esterna f, ci chiediamo qual`e la forza di reazione media X
x
che agisce
su di noi se ssiamo la particella in una certa posizione x. Ci concentriamo sul problema
conservativo, cos` che leetto della perturbazione `e una variazione dellenergia del sistema.
Per piccole perturbazioni, possiamo linearizzare:
U U
x
U + Xx,
dove X = dU/dx = X() `e la forza di reazione a x, che ora, a dierenza di x, `e una
quantit` a uttuante. Supponiamo che la perturbazione x() sia stata accesa al tempo = 0,
e che il sistema fosse inzialmente in equilibrio con un bagno termico a temperatura T. A
= 0, il sistema era quindi descritto dalla distribuzione di Gibbs:
(, 0) =
0
() =
1
Z
e
U
, = 1/T.
Levoluzione a tempi successivi `e ottenuta risolvendo lequazione di Liouville, che possiamo
scrivere nella forma
t
+U
x
, ) = 0, dove ., . indicano parentesi di Poisson nello spazio
: f, g =
p
f
q
g
q
f
p
g. Sfruttando il fatto che la perturbazione x `e piccola, possiamo
espandere
0
+
1
. A ordine pi` u basso in x, abbiamo =
0
, che `e la distribuzione di
equilibrio, ed `e soluzione stazionaria della equazione di Liouville
t

0
= U,
0
= 0. A
O(x), troviamo invece:

1
+U,
1
:=
t

1
+

L
0

1
= xX,
0
,
dove si `e introdotto loperatore parentesi di Poisson rispetto a U:

L
0
U, .. Possia-
mo risolvere in maniera formale, imponendo la condizione iniziale
1
(0) = 0 (condizione
iniziale di equilibrio):

1
(t) =
_
t
0
d x()e

L
0
(t)
X,
0
=
_
t
0
d x()e

L
0
(t)

0
X, U
=
_
t
0
d x()e

L
0
(t)

0

X, (6.14)
dove

X = U, X

X() `e la velocit` a di variazione di X() indotta dal usso Hamilto-


niano di U(). Da qui troviamo per la forza di risposta media X(t)
x

_
d
1
(, t)X():
X(t)
x
=
_
t
0
d x()
_
d Xe

L
0
(t)

0

X =
_
t
0
dX(t )

X(0)x(),
112 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
dove si `e sfruttata la relazione X((0))e

L
0
(t)
= X((t )) (si ricordi che per x =
0,
t
=

L
0
, ma

X =

L
0
X). Abbiamo trovato una nuova relazione uttuazione-
dissipazione (dinamica) per le forze di risposta del sistema
X(t)
x
=
_
t
0
d (t )x(), (t) =
d
dt
X(t)X(0).
Notiamo come in analogia con il caso statico, il fatto che ci si `e mantenuti allinterno di
unapprossimazione lineare per la risposta, fa s` che la correlazione X(t)X(0) `e calcolata
per x = 0. (Ulteriori approfondimenti possono essere trovati nel testo Non-equilibrium
Statistical Mechanics di R. Zwanzig).
6.3 Reversibilit`a temporale
Abbiamo visto che le uttuazioni di una grandezza macroscopica z in un sistema ter-
modinamico isolato sono associate a uttuazioni della entropia di Boltzmann S(z). La
formazione di una uttuazione `e associata a una diminuzione di S(z) (rareddamento del
sistema), la dissipazione della uttuazione `e associata a un aumento di S(z) (riscalda-
mento del sistema). Il riscaldamento-rareddamento del sistema pu`o essere visto come un
trasferimento da gradi di libert`a microscopici (termici) a gradi di libert`a macroscopici (la
uttuazione). Nel caso di un sistema isolato, cos` come le uttuazioni della grandezza ma-
croscopica hanno per denizione media nulla, anche le uttuazioni dellentropia avranno
media nulla. Questo risultato cessa di essere vero nel caso di un sistema non isolato, e le
uttuazioni risultano essere in pratica il meccanismo attraverso il quale si genera laumen-
to di entropia del sistema. Questo `e particolarmente evidente nel caso della turbolenza:
energia viene pompata dallesterno (un uido viene agitato), ma la dissipazione in calore
di questa energia avviene attraverso il passo intermedio della formazione delle uttuazioni
turbolente.
La produzione di entropia in un sistema non isolato `e associata al fatto che la dinamica
macroscopica cessa di essere reversibile. Va sottolineato che il signicato assunto qui dal
concetto di reversibilit`a `e dierente da quello riferito ai processi di quasi equilibrio in
termodinamica. In questo caso, si dovrebbe parlare pi` u correttamente di simmetria rispetto
allinversione temporale delle uttuazioni allequilibrio. Questa simmetria `e conseguenza
di due fatti:
Il carattere stazionario dal punto di vista statistico del regime di equilibrio.
La natura simmetrica per inversione temporale della dinamica microscopica di un
sistema isolato.
Una conseguenza di questa simmetria `e il fatto che una evoluzione temporale in un inter-
vallo [0, t] della variabile termodinamica z() deve avere la stessa probabilit`a di vericarsi
(allequilibrio) della evoluzione ottenuta per inversione temporale z() = z(t ). In altre
parole, deve essere soddisfatta la relazione fra PDF di storie del processo stocastico z():
[z] = [ z].
6.3. REVERSIBILIT
`
A TEMPORALE 113
Questo ha come conseguenza, la seguente simmetria tra PDF congiunte di valori della
variabile z ad istanti diversi:
[z(t
1
) = a, z(t
2
) = b] = [z(t
1
) = b, z(t
2
) = a]. (6.15)
Questa condizione di simmetria ha il nome di bilancio dettagliato. Notiamo che questa
condizione non signica aatto che la PDF di passare da a a b e da b ad a, agli istanti t
1
e t
2
, siano uguali. Queste due sono le PDF condizionate
(z(t
2
) = b[z(t
1
) = a) e (z(t
2
) = a[z(t
1
) = b),
dove evidentemente la PDF di passare da uno stato di equilibrio a uno di non equilibrio
sar`a minore di quella del processo inverso. Il bilancio dettagliato ci dice unaltra cosa: che
la PDF di vedere una transizione da un valore di z di equilibrio a uno di non equilibrio
deve essere uguale a quella del processo inverso (ci`o `e daltra parte abbastanza intuitivo,
se per ogni dipartita dallequilibrio ci deve essere poi un ritorno; la condizione di bilancio
dettagliato `e che questo ritorno deve avvenire in maniera identica alla dipartita).
6.3.1 Relazioni di Onsager
La condizione di bilancio dettagliato ha una importante conseguenza per quanto riguarda
il modo in cui le uttuazioni vengono dissipate in condizioni di equilibrio. Il soddisfaci-
mento di questa condizione si traduce in termini di correlazioni temporali nella importante
simmetria
z
i
(0)z
j
(t) = z
j
(0)z
i
(t),
che implica
z
i
(0) z
j
(t) = z
j
(0) z
i
(t). (6.16)
La generalizzazione della equazione z = z + al caso di pi` u variabili uttuanti `e eviden-
tente
z
i
=
ij
z
j
+
i
, (6.17)
che, sostituita nella (6.16), mi d`a

jk
z
i
(0)z
j
(t) =
ik
z
j
(0)z
i
(t). (6.18)
Prendendo il limite t 0
+
della (6.18) e utilizzando la relazione z
j
z
i
= (
1
)
ij
troviamo
quindi la simmetria

jk
(
1
)
ki
=
ik
(
1
)
kj
.
Ora, noi possiamo scrivere lequazione per le uttuazioni (6.17) nella forma alternativa
z
i
=
ij
S
z
j
+
i
=
ij

jk
z
k
+
i
, (6.19)
114 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
dove ho utilizzato la relazione S = S
eq

1
2

ij
z
i
z
j
[Eq. (6.1)]. Confrontando con la (6.17),
troviamo per` o
ij
=
ik
(
1
)
kj
, da cui si ottiene la seguente relazione, detta relazione di
Onsager:

ij
=
ji
. (6.20)
La diminuzione ha di entropia associata alla uttuazione di z
j
ha lo stesso eetto sulla
variabile z
i
che la diminuzione associata alla variazione di z
i
avrebbe su z
j
.
I coecienti cinetici
ij
godono di una seconda importante propriet` a che discende dalla
condizione di crescita di entropia. Dalle (6.1) e (6.19) possiamo infatti ottenere lequazione
di evoluzione per lentropia. Prendendo una condizione iniziale per S suciente grande
rispetto allampiezza delle uttuazioni, ma abbastanza piccola che la dinamica resti lineare,
la dinamica sar`a dominata dal rilassamento:

S =
S
z
i
z
i
=
ij
S
z
i
S
z
j
La condizione di aumento di entropia nellapproccio allequilibrio, ci dice che
ij
deve essere
una matrice non solo simmetrica, ma anche denita positiva.
Nota. Di fatto, non `e necessario invocare uno stato di equilibrio termodinamico, in cui le
variabili termodinamiche uttuano vicino ai loro valori di equilibrio, per avere reversibilit` a
temporale. La distribuzione microcanonica di un sistema tiene in conto della possibilit` a, in
principio, di uttuazioni di ampiezza arbitraria. Il problema, come abbiamo visto, `e che
per osservare simili uttuazioni sarebbe necessario attendere un tempo molto maggiore della
vita delluniverso. Ludwig Boltzmann a suo tempo ipotizz` o che luniverso nel quale viviamo
e la freccia del tempo che la caratterizza non sia altro che il rilassamento allequilibrio
di una uttuazione cosmica. La condizione iniziale del nostro universo sarebbe listante
di ampiezza massima (e quindi minima entropia) della uttuazione. A questo punto, la
riconciliazione fra una dinamica microscopica simmetrica per inversione temporale ed una
macroscopica che non lo `e, risiederebbe nel fatto che dallaltra parte (nel tempo) di questo
minimo dellentropia, ci sarebbe una freccia del tempo con direzione opposta alla nostra.
In altre parole, levoluzione delluniverso (secondo Boltzmann) sarebbe una sequenza di
improbabili uttuazioni, presso le quali, ad ambo i lati delle stesse, esisterebbe una freccia
del tempo, mentre per il resto della durata di vita delluniverso una freccia del tempo non
esisterebbe.
6.3.2 Produzione di entropia
Vogliamo studiare a questo punto come il fatto che il sistema sia non isolato porta alla
rottura della simmetria e nel contempo a una crescita di entropia. Facciamo ci`o con
un sistema semplicato: una particella sottoposta a una forza esterna dipendente dalla
posizione F, e che sente la presenza del bagno termico attraverso un attrito viscoso e
leetto degli urti molecolari. Il sistema `e supposto sovrasmorzato, nel senso che le forze
6.3. REVERSIBILIT
`
A TEMPORALE 115
di attrito sono molto pi` u intense di quelle esterne. Indichiamo con x la posizione della
particella e supponiamo per semplicit`a lattrito lineare in x. Abbiamo quindi il sistema
M x = x +F(x) + , (6.21)
dove

`e leetto degli urti molecolari ed M `e la massa della particella. Limite sovrasmor-
zato signica essenzialmente che il termine inerziale M x pu`o essere trascurato e lequazione
del moto diventa
x = F(x) + . (6.22)
Il calore somministrato al sistema in media non `e altro che il lavoro medio esercitato dalla
forza esterna sulla particella. La produzione media di entropia sar`a pertanto
S =
1
T
_
t
0
dF(x()) x()d. (6.23)
Vediamo subito che se la forza `e conservativa, non si ha produzione di entropia. Scrivendo
la forza in termini di un potenziale: F = V , avremmo infatti, sostituendo nella (6.23):
S(t) S(0) =
1
T
_
_
t
0
d x() V (x())
_
=
1
T
[V (x(t)) V (x(0))],
che `e zero in condizioni stazionarie. Confrontando con la (6.21), notiamo come in pre-
senza di forze conservative, bilancio entropico nullo implica bilancio in media fra produ-
zione di entropia x
2
(distruzione delle uttuazioni) e sua distruzione x (produzione di
uttuazioni).
Vogliamo studiare la relazione che esiste fra produzione di entropia e asimmetria fra
traiettorie in avanti e indietro nel tempo, in presenza di forze non conservative. Loggetto
che vogliamo studiare `e la PDF della traiettoria [x[x(0)] nellintervallo [0, t] a partire da
una condizione iniziale a t = 0. Per far ci`o, discretizziamo lequazione del moto (6.22), che
diventa
x
k+1
x
k
F
k
= B
k
,
dove B(
k
) =
_

k+1

k
()d, x
k
x(
k
), F
k
= [F(x(
k+1
)) + F(x(
k
))]/2, e abbiamo
posto per semplicit`a = 1. Notiamo subito che essendo () scorrelato nel tempo, anche i
B(
k
) a tempi diversi lo saranno. Questo ha fra laltro come conseguenza il fatto che x(
k
)
`e un processo Markoviano. Notiamo anche che, essendo B
k
la somma di inniti contributi
d scorrelati fra loro e identicamente distribuiti, si pu`o supporre che valga il teorema del
limite centrale (2.25) e B sia distribuita Gaussianamente. Supponendo che le diverse
componenti di B siano identicamente distribuite, troviamo subito (B
i
)
2
= D.
Possiamo pertanto scrivere:
(B) exp
_

[B[
2
2Dt
_
. (6.24)
116 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
Utilizzando lequazione del moto discretizzata, possiamo scrivere i B(t
k
) che entrano in
[B] in funzione di x(t
k
) e x(t
k+1
):
(x
k+1
[x
k
) = exp
_

[x
k+1
x
k
F
k
[
2
2D
J
k

_
.
dove J
n
`e il contributo dallo Jacobiano nel passaggio da
B
a
x
n+1
.
Nota Il contributo Jacobiano dipende dal fatto che abbiamo utilizzato una espressione
semi-implicita per F
n
. Abbiamo di nuovo un esempio di regole dellanalisi che smettono
di funzionare nel caso di processi stocastici. Se avessimo posto F
k
= F(x(
k
)), avremmo
ottenuto immediatamente J
k
= 0, mentre con F
k
= [F(x(
k+1
)) +F(x(
k
))]/2 abbiamo:
det
_
B
k
x
k+1
_
= det
_

ij

F
k,i
x
k+1,j

_
= 1 (
x
k+1
F
k
) + O(()
2
)
= exp(J
k
) + O(()
2
),
dove J
k
=
x
k+1
F
k
= (1/2) F(x
k+1
). Lapprossimazione esplicita F
k
F(x(
k
))
rimane inaccurata anche nel limite 0.
Per ottenere la PDF della storia x(t
k
), k = 1, 2, . . ., sfruttiamo il fatto che x(t
k
) `e un
processo Markoviano:
[x] (x
n
, x
n1
, . . . , x
0
)
= (x
n
[x
n1
)(x
n1
[x
n2
) . . . (x
1
[x
0
)(x
0
) (6.25)
(un simile oggetto `e detto una catena di Markov). Sostituendo la (6.24) nella (6.25):
[x[x(0)] exp
_

k
_
[x
k+1
x
k
F
k
[
2
2D
+ J
k

__
. (6.26)
Nella stessa identica maniera possiamo scrivere la PDF della storia corrispondente al pro-
cesso inverso [ x[ x(0)], dove x() = x(t ) e quindi la condizione iniziale del processo
inverso `e la condizione nale per il processo diretto: x(0) = x(t). Denendo x
k
= x
nk
e

F
k
= [F( x
k+1
) +F( x
k
)]/2:
[x[x(0)] exp
_

k
_
[ x
k+1
x
k


F
k
[
2
2D
+

J
k

__
.
= exp
_

k
_
[x
k+1
x
k
+F
k
[
2
2D
+ J
k

__
. (6.27)
Consideriamo ora il logaritmo del rapporto delle PDF dei due processi diretto e inverso
(6.25) e (6.26). Otteniamo:
ln
_
[x[x(0)]
[ x[ x(0)]
_
=
2
Dt

k
F
k
(x
k+1
x
k
)t

2
D
_
t
0
F(x()) x()d =
2Q
D
, (6.28)
6.4. ESERCIZI 117
dove Q `e il calore trasferito al sistema per azione della forza F lungo la traiettoria x.
Ponendo uguali le condizioni iniziali e nali x(0) x(t) = x(0), vediamo subito che, in
condizioni stazionarie, dobbiamo avere [x(0) = x
0
] = [x(t) = x
0
]. Questo ci permette di
scrivere [x[x(0)](x(0)) = [x], e allo stesso tempo [ x[ x(0)](x(0)) = [ x[ x(0)]( x(0)) =
[ x]. Troviamo quindi dalla (6.28), nel caso di traiettorie cicliche:
ln
_
[x]
[ x]
_

2Q
D
, (6.29)
e questa espressione sar`a dierente da zero nel caso di forze non conservative. Abbiamo
trovato un esempio esplicito della connessione tra forze non conservative e violazione della
simmetria per inversione temporale [x] ,= [ x]. Troviamo in particolare il risultato che le
traiettorie associate a trasferimento di calore al sistema, sono anche quelle la cui proba-
bilit` a `e maggiore di quella delle loro versioni invertite nel tempo.
`
E abbastanza intuitivo
comprendere cosa si sta vericando cnel caso di una particella costretta a muoversi su un
anello da una forza non conservativa. Una traiettoria tipica x corrisponder` a alla particella
che gira lungo lanello nello stesso stesso della forza, mentre x sarebbe quella estremamente
improbabile traiettoria in cui gli urti molecolari spingono la particella in verso opposto alla
forza esterna. Il fatto che le traiettorie pi` u probabili siano quelle associate a un calore
positivo ceduto al sistema fa s` che la media del lato destro della (6.29) sia una quantit`a
positiva, che `e pari a T volte la produzione di entropia da parte della forza esterna:
ln [x] ln [ x] =
2T
D
[S(t) S(0)] 0.
(si ricorda che tutte le medie sono calcolate rispetto alla PDF [x] e che x `e una traiettoria
ciclica).
6.4 Esercizi
Esercizio 1 Si immagini che una particella Browniana sia attaccata con una molla a
un supporto sso. Come si dovrebbe modicare lequazione del moto della particella?
Descrivere qualitativamente il comportamento della particella in funzione della forza della
molla, dellattrito del uido e della temperatura. Determinare la distanza quadratica media
della particella dal supporto.
Esercizio 2 Si consideri la parte uttuante del campo di temperatura e la si esprima come
integrale di Fourier (componenti spaziali).
Calcolare la diminuzione di entropia in funzione dellampiezza delle componenti di
Fourier di T. Studiare quindi la dipendenza spaziale delle uttuazioni.
Si consideri lequazione di trasporto del calore in assenza di contributi di compressione
e di dissipazione viscosa
t
T =
2
T. Da qui si ottenga lequazione del moto per le
componenti di Fourier di T e si scriva la funzione di correlazione temporale di queste
uttuazioni.
118 CAPITOLO 6. CENNI ALLA TEORIA DELLE FLUTTUAZIONI
Esercizio 3 Considerare una particella Browniana immersa in un usso di Couette u =
(y, 0, 0). Stimare la produzione dentropia della particella (Suggerimento: in un uido
fermo, ogni collisione molecolare cede entropia alla particella, che la restituisce poi al uido
attraverso le forze dattrito. Nel uido in moto, le collisioni spingono la particella in punti
del uido dove questo si muove pi` u velocemente rispetto alla particella, cos` che lattrito
deve eseguire un lavoro maggiore per fermarla).