Sei sulla pagina 1di 124

INTRODUZIONE ALLA MECCANICA

STATISTICA
Laurea triennale in Fisica
A.A. 2014-15

prof. Giovanni Falcone

1 Aprile 2015
Indice

1 Elementi di termodinamica 4
1.1 I principi della termodinamica . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 L’entropia in una espansione libera . . . . . . . . . . . . . . . . . . . . . 6
1.3 L’entropia di mescolamento (mixing) . . . . . . . . . . . . . . . . . . . . 8
1.4 L’approccio verso l’equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 I potenziali termodinamici: cenni . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Trasformazioni di Legendre . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 Energia libera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.3 Entalpia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.4 Appendice: prova del teorema di Eulero . . . . . . . . . . . . . . 19
1.6 Il Terzo Principio della Termodinamica . . . . . . . . . . . . . . . . . . . 20

2 Elementi di teoria cinetica 22


2.1 Probabilità e valore medio . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Distribuzione dei processi collisionali nei gas . . . . . . . . . . . . . . . . 24
2.3 La distribuzione dei cammini liberi . . . . . . . . . . . . . . . . . . . . . 26
2.4 Sezione d’urto e cammino libero medio . . . . . . . . . . . . . . . . . . . 28
2.5 Lo spazio delle molecole . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5.1 La distribuzione di Maxwell . . . . . . . . . . . . . . . . . . . . . 31
2.5.2 L’ipotesi di caos molecolare e il principio del bilancio dettagliato . 33
2.6 Valori medi e valori veri . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.7 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.8 Appendice: Derivazione del 1860 della distribuzione delle velocità . . . . 41

3 Processi markoviani, random walk e moto browniano 45


3.1 Legge del decadimento radiattivo . . . . . . . . . . . . . . . . . . . . . . 45
3.1.1 La funzione memoria . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2 Il decadimento radioattivo come processo markoviano . . . . . . . . . . . 48
3.3 I processi markoviani dicotomici. . . . . . . . . . . . . . . . . . . . . . . 49
3.3.1 Master equations . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2 Matrice di Ricorrenza e Matrice di Markov . . . . . . . . . . . . . 52
3.3.3 Equazione di Chapmann-Kolmogorov . . . . . . . . . . . . . . . . 53
3.4 Random walk ed equazione di diffusione . . . . . . . . . . . . . . . . . . 54
1
INDICE 2

3.4.1 La soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.5 Moto Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.5.1 Il tentativo deterministico . . . . . . . . . . . . . . . . . . . . . . 57
3.5.2 Il metodo di Einstein . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.5.3 Fluttuazione e dissipazione secondo Einstein . . . . . . . . . . . . 64
3.6 Appendici al capitolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.6.1 Appendice: random walk rivisitato . . . . . . . . . . . . . . . . . 66
3.6.2 Appendice: equazione di Langevin del moto browniano . . . . . . 69

4 L’entropia statistica 73
4.1 La distribuzione più probabile . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2 La funzione di partizione di singola particella . . . . . . . . . . . . . . . . 78
4.2.1 Il numero di particelle . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2.2 Energia del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2.3 Varianza dell’energia . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2.4 L’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.2.5 L’energia libera . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3 La densità degli stati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.3.1 Densità degli stati per particelle non relativistiche . . . . . . . . . 84
4.4 Il gas ideale monoatomico . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.4.1 La funzione di partizione del gas ideale monoatomico . . . . . . . 84
4.4.2 L’energia interna . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.4.3 L’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.4 L’energia libera . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

5 Distribuzione di un sistema di N particelle 88


5.0.1 La densità di probabilità di Maxwell-Boltzmann . . . . . . . . . . 88
5.1 La funzione di partizione del sistema . . . . . . . . . . . . . . . . . . . . 89
5.2 Appendice: Sull’estensività dell’entropia . . . . . . . . . . . . . . . . . . 91
5.2.1 Il gas ideale monoatomico . . . . . . . . . . . . . . . . . . . . . . 91
5.2.2 L’entropia di mixing: rivisitazione . . . . . . . . . . . . . . . . . . 92
5.2.3 L’equazione di Sackur-Tetrode . . . . . . . . . . . . . . . . . . . . 93

6 Spazio delle fasi e meccanica statistica 95


6.1 La struttura geometrica dello spazio delle fasi . . . . . . . . . . . . . . . 95
6.1.1 Il teorema di Liouville . . . . . . . . . . . . . . . . . . . . . . . . 98
6.2 Appendici al capitolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.2.1 Le parentesi di Poisson . . . . . . . . . . . . . . . . . . . . . . . . 99
6.2.2 Le parentesi di Poisson e le costanti del moto . . . . . . . . . . . 100
6.2.3 Le parentesi di Poisson e l’equazione di continuità . . . . . . . . . 101
6.2.4 Le parentesi di Poisson e le trasformazioni canoniche . . . . . . . 101
6.2.5 Flusso nello spazio delle fasi . . . . . . . . . . . . . . . . . . . . . 102
INDICE 3

7 Gli ensembles statistici 103


7.1 Lo spazio Γ: macrostati e microstati . . . . . . . . . . . . . . . . . . . . 103
7.2 Le distribuzioni statistiche degli ensembles . . . . . . . . . . . . . . . . . 104
7.2.1 Il valore medio rispetto al tempo e quello rispetto all’ensemble . . 106
7.3 Ensemble microcanonico. . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.3.1 Esempio 1: il gas ideale microcanonico . . . . . . . . . . . . . . . 110
7.3.2 Esempio 2: particelle su reticolo con momento magnetico . . . . . 113
7.4 Ensemble canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.4.1 Il gas ideale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.4.2 L’entropia dell’ensemble canonico . . . . . . . . . . . . . . . . . . 117
7.4.3 L’energia libera . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.4.4 Il sistema a due livelli . . . . . . . . . . . . . . . . . . . . . . . . 119
7.5 Ensemble gran canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7.5.1 Il significato di  e  . . . . . . . . . . . . . . . . . . . . . . . . . 122
7.5.2 Letture integrative . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Capitolo 1
Elementi di termodinamica

Un sistema termodinamico è sempre pensabile racchiuso in un contenitore reale o ideale.


La termodinamica rinuncia a fare ipotesi circa le entità microscopiche che eventualmente
costituirebbero i sistemi macroscopici. In questo modo può fare affermazioni molto gener-
ali sui sistemi su cui indaga. In termodinamica si postula l’esistenza di stati di equilibrio
e si definiscono funzioni definite solo su stati di equilibrio.

1.1 I principi della termodinamica


La Termodinamica studia e stabilisce relazioni tra stati di equilibrio. Uno stato di equi-
librio si caratterizza per il valore costante delle variabili termodinamiche. L’esistenza
degli stati di equililibrio è assunta come principio: se si aspetta abbastanza a lungo tutti
i sistemi termodinamici andranno verso uno stato di equilibrio. Gli stati di equilibrio
hanno un ruolo analogo ai sistemi inerziali nella meccanica newtoniana.
Grazie anche ai lavori di Joule si pervenne alla conclusione che il calore non poteva
considerarsi sostanza, essendo più simile al lavoro e come quest’ultimo era uno strumento
per modificare l’energia dei sistemi. Così nacque Il Primo Principio. Esso si scrive nel
modo seguente:

∆ =  −  (1a)
e ha il seguente significato. La variazione che subisce la funzione di stato, energia
interna, , è la somma della quantità di calore  che riceve il sistema e della quantità
di lavoro  che viene fatto sul sistema (il lavoro è positivo quando lo fa il sistema).
Presi separatamente sia il lavoro che il calore scambiato dipendono dalla trasformazione.
Le trasformazioni per le quali sappiamo calcolare il lavoro e il calore scambiato sono le
trasformazioni ideali o reversibili. Il gas perfetto è un buon modello per la valutazione
del Primo Principio.
Utilizzando l’esperimento dell’espansione libera di una gas reale si arriva alla con-
clusione che la funzione di stato energia interna  dove essere, per il gas perfetto, una

4
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 5

funzione della sola temperatura:


 =  ( ) (2)
Utilizzando il Primo principio e l’equazione di stato dei gas perfetti

  =  =   (3)

dove b = 13806568 × 10−23 J K−1 , è la costante di Boltzmann, si può mostrare che

∆ =  ∆ (4)

dove  è la capacità termica a volume costante. Per il gas ideale classico di Maxwell-
Boltzmann, posto in un contenitore a volume costante, sia la pressione che l’energia
interna sono proporzionali alla temperatura del gas.
In forma differenziale, il Primo principio diventa

 =  −  (1b)

Il Primo Principio stabilisce una completa equivalenza, in un ciclo, tra il calore e il


lavoro. Sembrerebbe che tutto il calore introdotto in un sistema sia recuperabile intera-
mente in una altra forma di energia. Le osservazioni mostrano che ciò non è vero. Grazie
ai lavori di Sadi Carnot, Kelvin e Clausius si pervenne alla formulazione del Secondo
Principio. Esso definisce una seconda funzione di stato, l’Entropia , valutabile solo per
trasformazioni reversibili, Z 

∆ = (6)
 
dove  è la temperatura termodinamica assoluta. Il Secondo Principio contiene le due
grandezze fisiche su cui per secoli si era indagato: il calore e la temperatura. Si può
mostrare che tra la variazione di entropia per trasformazioni ideali, espressa dalla (6) e
quella reale, ∆ , tra gli stessi stati iniziali e finali, esiste la seguente relazione:
µZ  ¶

≤ ∆ (7)
  
dove il primo membro, non si può calcolare. Per i sistemi reali isolati termicamente,

 () ≥  ()

:ovvero l’entropia cresce sempre. Solo per trasformazioni ideali, termicamente isolati,

 () =  ()

Per la prima volta vi era una chiara diversificazione tra processi reali e ideali.
Il Terzo Principio, stabilito nel 1911 da H-W. Nernst, può anche esssere posto nella
seguente forma:
Al tendere della temperatura termodinamica assoluta a zero, l’entropia di un sistema
tende a una costante universale che, talvolta, può essere posta uguale a zero.
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 6

1.2 L’entropia in una espansione libera


Calcoliamo la variazione di entropia che subisce un gas ideale in una espansione libera.
Ricordiamo che l’espansione libera è una trasformazione irreversibile, in cui non vi è
scambio di calore tra il sistema e l’ambiente, e non viene fatto o subito lavoro dal sistema.
In queste condizioni, l’entropia del sistema deve aumentare:
∆ ≥ 0 trasformazione adiabatica irreversibile
mentre la sua energia interna si mantiene costante:
∆ = 0
Inoltre, sappiamo che durante la trasformazione se il gas è supposto ideale la temperatura
del gas non cambia:
∆ = 0
Questo risultato suggerisce che una possibile strada, per valutare l’Entropia, è l’utilizzo di
una trasformazione isoterma ideale tra gli stessi stati iniziali e finali. La trasformazione
che considereremo non è più quella reale e adiabatica, ma una ideale e isoterma. In
questo modo, il sistema potrà assorbire calore dall’ambiente e lo potremo misurare. Mis-
urare il calore scambiato equivale a poter calcolare, almeno in questo caso, la variazione
dell’Entropia.
Siano      i valori delle variabili di stato nello stato iniziale. Nell’espansione libera,
la temperatura finale continua ad essere  . Possiamo usare allora una trasformazione
reversibile isoterma che porti dallo stato , con volume  ad uno stato finale  il cui
volume sia  = 2 .
Dalla definizione di entropia di Clausius,
Z  Z
 1 
∆ = = 
   
dove  è la quantità di calore (reversibile) che il sistema assorbe dall’ambiente du-
rante la trasformazione isoterma. Poiché  = 0, dal Primo Principio possiamo ottenere
l’espressione per l’integrando,
 =  =  
in modo da esprimere Z
1 
∆ =   (1.1)
 
Poiché il sistema è un gas perfetto, possiamo usare l’equazione di stato
 
  =   ⇒  = (1.2)

e, sostituendo nella (1.1) arrivare al seguente risultato:

∆ =  ln (  ) (1.3)


CAPITOLO 1. ELEMENTI DI TERMODINAMICA 7

Con la scelta che il volume finale sia il doppio di quello iniziale, la (1.3) diventa

∆ = b ln 2 (1.4)
Questa quantità è diversa da zero, e si riferisce ad una trasformazione reversibile e
isoterma tra gli stessi stati iniziale e finali della trasformazione irreversibile.
Per ottenere il precedente risultato abbiamo dovuto consentire al sistema di scambiare
calore con l’ambiente e noi, valutando questo calore assorbito dal sistema, abbiamo po-
tuto calcolare la variazione di Entropia, anche se lungo una trasformazione ideale. Nel-
la trasformazione reale, non vi era stato scambio di calore e questo non aveva potuto
aumentare l’energia del sistema.

La simulazione ideale che abbiamo eseguito, ci dice che il calore assorbito nella
trasformazione isoterma non è finito nell’aumento del moto molecolare (la
temperatura e l’energia interna non sono mutati). Ma in cosa si è trasformato
il calore ipotetico assorbito nella trasformazione ideale?

Una possibile risposta è la seguente.


Supponiamo che il gas sia inizialmente costituito da una sola particella. Essa è inizial-
mente in un solo contenitore, ma quando si apre la valvola di connessione tra i due
recipienti la particella ha a disposizione uno spazio doppio. Possiamo dire che il “numero
di posizioni possibili” della particella dal passaggio dallo stato iniziale a quello finale è
raddoppiato. L’aggettivo “possibile” serve a sottolineare il fatto che in determinate con-
dizioni, a causa di vincoli, non tutte le posizioni potrebbero essere accessibili alle particelle
del sistema. Quindi, il termine possibile ha un preciso significato: “possibile equivale ad
accessibile alle particelle del sistema, sotto determinati vincoli.”
Supponiamo di avere 2 particelle. Nel passaggio da un solo recipiente al doppio recipiente
entrambe le particelle raddoppiano il loro numero di possibili posizioni, quindi questo
numero complessivo è, 22 . Così procedendo, se abbiamo  particelle, il sistema, nel
passaggio da un recipiente al suo doppio, aumenta il numero complessivo delle possibili
posizioni di un fattore 2 . Allora, quando scriviamo

∆b = ln 2 ⇒ ∆ = b ln 2 (1.5)

stiamo calcolando l’aumento delle possibili posizioni spaziali nel passaggio del sistema gas
da uno stato iniziale ad uno finale.
Ricordiamo che l’irreversibilità non comporta consumo di energia, perché durante il
processo reale, l’energia interna è rimasta invariata.
Questo ed altri esempi hanno suggerito di associare all’aumento di Entropia un aumento
del disordine, provocato dall’aumento degli spazi accessibili. Questo disordine non è
legato a ciò che comunamente chiamiamo calore (moto molecolare), essendo quest’ultimo
legato all’aumento dei valori accessibili alle velocità. Possiamo dire che, l’irreversibilità
si insinua, almeno per ora, sia nelle variabili spaziali che in quelle delle velocità.
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 8

Questo suggerisce che sarebbe più conveniente, sul piano teorico, lavorare in spazi astratti
in cui lo spazio e le velocità siano unite, per cercare di capire meglio il significato dell’En-
tropia. Questa operazione fu iniziata da Boltzmann, con l’introduzione dello spazio delle
molecole a sei dimensioni.

1.3 L’entropia di mescolamento (mixing)


Consideriamo  particelle di due gas ideali, poste in un contenitore, diviso in due parti,
da un diaframma. In una parte, il cui volume è  , ci sono  particelle, mentre nella
seconda parte, il cui volume è  , ci sono  particelle.

Se assumiamo che la temperatura nelle due parti sia la stessa, allora,

 =  +    =  +    =  = 

Ad un certo istante si rimuove il diaframma, e i due gas si mescolano, andando, ognuno


ad occupare il volume complessivo del contenitore.

Vogliamo calcolare la variazione di entropia che ha subito il sistema. Entrambi i gas


subiscono una espazione libera. Avremmo:

∆ =  b ln (1.6)

e

∆ =  b ln  (1.7)

da cui
∆ = ( +  ) b ln  −  b ln  −  b ln  (1.8)
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 9

Se assumiamo che i volumi delle due parti siano uguali, allora, si ottiene

∆ =  b ln 2

∆ =  b ln 2
e quindi
∆ = b ln 2 (1.9)
L’entropia di mixing non dipende dalla natura del gas, comparendo nel risultato
finale solo il numero delle particelle. Questo significa che il precedente risultato dovrebbe
valere anche se si considerano due gas identici. La situazione grafica è ora la seguente

Tuttavia, se si devono interpretare i risultati attraverso le misure macroscopiche,


tipiche della termodinamica, poiché non è possibile distinguere la situazione iniziale da
quella finale, i due stati macroscopici (iniziale e finale) sono identici e di conseguenza
non vi può essere una variazione di entropia. Gibbs fu il primo a rilevare questo fatto
(...), e scrisse che la formula (1.9) era corretta a patto che: “the gases which are mixed
must be of different kinds. If we should bring into contact two masses of the same kind
of gas, they would also mix, but there would be no increase of entropy”. Quindi secondo
Gibbs la (1.9) vale, purché i due gas non siano identici. Se fossero identici la variazione
di entropia dovrebbe risultare nulla.
Vi deve essere un problema tra la termodinamica macroscopica ed eventuali teorie
fondate sulle ipotesi atomiche: se si ipotizza l’esistenza degli atomi e si vogliono dedurre
i risultati della termodinamica a partire dalle ipotesi atomiche occorrerà capire meglio
almeno due punti:

i) Identità e continuità. La (1.9) può essere utilizzata finchè esiste una pur piccola
differenza tra i due gas. Appena, la più piccola differenza sparisce, smette di valere.
La transizione tra particelle diverse e particelle identiche non è un processo fisico,
quindi non è rappresentabile matematicamente come un processo continuo. Qui è
in gioco la natura dell’entità fondamentale che dovrebbe cambiare.

ii) Identità e distinguibilità. Le misure termodinamiche, nel caso di gas identici,


non riescono a notare la differente situazione fisica tra i due stati del sistema. A
livello microscopico abbiamo una differente situazione.
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 10

In meccanica classica particelle anche identiche sono sempre distinguibili. Infatti, anche
se due particelle sono identiche, essendo impenetrabili, non potranno mai occupare la
stessa posizione; di conseguenza, due particelle classiche non potranno avere mai lo stesso
stato. Inoltre, poiché le particelle hanno una ben definita traiettoria che le caratterizza,
l’identità è mantenuta anche nel corso del tempo. Due entità classiche uguali sono sempre
distinguibili. Scambiare due particelle, anche identiche, secondo la fisica classica, porta
sempre a stati differenti.
A Leibniz si fa risalire una prima formulazione di queste osservazione: due
differenti entità individuali non potranno mai condividere tutte le loro pro-
prietà (principio di identità degli indiscernibili).
Allora, se si utilizza la meccanica classica per descrivere il movimento delle particelle,
non si può prescindere dall’assunzione che la permutazione di due particelle deve portare
sempre ad un differente stato. E questo indipendentemente dal fatto che la misura verifichi
o meno la distinguibilità degli stati. È un problema di coerenza interna delle ipotesi
della teoria. Per poter modificare queste ipotesi occorrerebbe pensare a qualche vincolo
ulteriore che giustifichi l’abbandono dell’ipotesi che “scambiare due particelle identiche,
porta sempre a stati differenti.”
Poiché sarà solo l’entropia a risentire del mantenimento di questa ipotesi o del suo ab-
bandono, discuteremo tra breve di due proprietà che si associano all’osservabile entropia.
La nostra conoscenza, per ora ci viene dalle misure termodinamiche e queste sono le
uniche informazioni dalle quali traiamo le nostre conclusioni sul mondo microscopico.
Questo dovrebbe far capire che le teorie sono solo rappresentazioni della realtà. Se una
rappresentazione, in questo caso la termodinamica, non è in grado di determinare le
differenze tra gli stati macroscopici, allora non siamo in grado, attraverso di essa, di
inferire sulla identità e distinguibilità delle entità microscopiche.
Ogni teoria ha i suoi assiomi, le sue regole, e la sua definizione di misura, ed è rispetto
a tutto questo insieme di regole che si devono valutare le sue inferenze circa la natura
dell’entità materiali.
iii) L’additività. Le grandezze fisiche fondamentali della termodinamica devono essere
additive. L’additività significa che se il sistema è costituito di due parti, A e B,
allora, per esempio, l’energia totale è la somma dell’energia delle parti
 =  +  (1.10)

L’additività trova la sua giustificazione nell’assunzione che le interazioni tra le particelle


siano a corto range, in maniera tale che l’interazione si possa trascurare. Se i nostri gas
sono ideali, allora l’energia  sarà uguale alla somma delle energie cinetiche di tutte le
particelle poste nel contenitore A, e lo stesso varrà per l’energia,  , dell’altro contenitore.
La (6) è allora sicuramente vera. L’additività si riverisce, in termodinamica, agli stati di
equilibrio. Se, come nel caso considerato, il sistema è isolato, allora si conserva l’energia
totale del sistema. Le particelle possono cambiare continuamente le loro velocità ma vale
sempre, in ogni stato di equilibrio, l’additività. E questo è postulato.
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 11

iv) L’estensività. In tutti i testi di termodinamica le variabili termodinamiche sono


assunte o estensive o intensive. Il carattere estensivo di una variabile macroscopi-
ca è legato al fatto che la variabile risulta dipendere dal contenuto di materia del
sistema. L’energia, il volume e l’entropia sono variabili estensive. La temperatura
è intensiva. Ci sono diversi modi per definire l’estensività, in forma matematica.
Poiché , cioè il numero di particelle è sicuramente l’indicatore della quantità di
materia, le quantità, ,   e  devono risultare indipendente dalla dimen-
sione del sistema. In maniera alternativa, per esempio per l’entropia, se essa è
assunta estensiva deve valere la seguente relazione
 (  ) =  (  ) (1.11)
dove  è uno scalare.
La consuetudine vuole che l’estensività di , venga usata per discriminare definizioni
corrette da quelle incorrette. Mentre sulla validità dell’additività non sembrano esserci
dissensi, da diversi anni l’estensività dell’entropia, per qualsieasi sistema, non è più un-
amimemente condivisa. Anche perché in alcuni sistemi reali, per esempio quelli nei quali
gli effetti di superficie sono rilevanti, il carattere estensivo dell’entropia è sicuramente non
vero.
Quando riesamineremo il problema dell’entropia di mixing, all’interno della meccani-
ca statistica classica, ritorneremo su questi argomenti, perché l’entropia di mixing, per
particelle identiche, risulterà diversa da zero. Questo disaccordo, sull’entropia di mesco-
lamento, tra la termodinamica e la meccanica statistica classica, è noto come paradosso
di Gibbs.

1.4 L’approccio verso l’equilibrio


Se ci limitiamo a trasformazioni reversibili, possiamo, utilizzando l’esistenza della funzione
di stato entropia, scrivere il Primo Principio come
 =   −   (34)
Questo vuol dire che  =  (  ) e che
¯ ¯
 ¯¯  ¯¯
 = − = (35)
 ¯  ¯
La predente relazione non tiene conto della possibilità che il sistema e l’ambiente
possano scambiare particelle. Se ciò viene permesso la relazione (34) deve essere estesa
introducendo il contributo alla variazione di energia interna che potrebbe venire dalla
scambio di particelle. Dobbiamo allora richiedere che la relazione fondamentale della
termodinamica debba contenere anche una dipendenza dal numero di particelle, cioè
 =  (  ) e la (34) deve assure la seguente forma
 =   −   +  (36)
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 12

dove ¯
 ¯¯
= (37)
 ¯
è chiamato potenziale chimico e rappresenta la variazione di energia che subisce il sistema
quando una particella viene aggiunta al sistema in equilibrio.
Se ad un sistema (pensiamo ad un gas di particelle) aggiungiamo, quando esso è
all’equilibrio, una particella esso avrà una particella in più pur dovendo mantenere la
stessa energia. Il sistema dovrà dividere la stessa energia con un aumentato numero di
particelle e il sistema sarà costretto ad aumentare la sua entropia. Ma noi vogliamo che
l’Entropia non cambi (siamo all’equilibrio) quindi concettualmente dobbiamo sottrarre
energia. Poiché, per definizione, il potenziale chimico, dalla (5), è legato alla variazione
di energia, quando l’Entropia e il volume sono mantenuti costanti, il potenziale chimico
deve essere negativo.
Cercheremo di comprendere il significato del potenziale chimico, e non solo, valutando
i parametri macroscopici che sono coinvolti nei processi verso l’equilibrio. Ci limitieremo
al caso in cui il sistema è costituito da due parti A e B.
Supponiamo che il sistema non sia inizialmente in equilibrio. Come sappiamo, se
si aspetta abbastanza a lungo, le due parti arriveranno in uno stato di equilibrio co-
mune. Poiché il sistema complessivo è isolato, l’entropia del sistema aumenterà. L’en-
tropia del sistema sarà una funzione dell’energia, del volume e del numero di particelle,
 =  (  ) (si parla in tal caso di rappresentazione dell’entropia, per distinguer-
la dalla rappresentazione dell’energia, quando si utilizza la relazione fondamentale della
termodinamica nella forma  =  (  )). Vogliamo capire come le parti si compor-
tano nella loro evoluzione verso l’equilibrio e quali parametri sono coinvolti. Analizzer-
emo separatamente il comportamento delle due parti rispetto alle variabili dinamiche
considerate.
Assumeremo inoltre che le due parti siano debolmente interagenti tanto da assumere
che l’entropia sia additiva,

 ( ) =  ( ) +  ( ) (38)

Le due parti sono in contatto attraverso una parete che inizialmente non consente
alcun passaggio di energia e di particelle ed è inoltre fissa. Le due parti avranno, per es-
empio, differenti temperature, pressioni volume, energie e numero di particelle. Vogliamo
studiare l’evoluzione verso uno stato di equilibrio a seconda delle ipotesi che faremo sulla
parete. Supponiamo che la parete consenta solo il passaggio di energia.
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 13

Poiché il sistema complessivo è isolato, l’energia totale del sistema,  =  +  si


conserva e quindi
  
=0 → =−
  
Avendo supposo il sistema non in equilibrio,  ≥ 0, segue

    


= + ≥0
    
ovvero µ ¶
  
− ≥0
  
Dalla relazione fondamentale, in rappresentazione dell’entropia,
1  
 =  +  −  (39)
  
1
¯
 ¯
segue che 
=  
e quindi
µ ¶
 1 1
− ≥0
  

Se    , deve essere    0, fino a che le due temperature, nelle due parti del
sistema non diventano uguali e la variazione di entropia si annulla. La parte A del sistema,
supposta più calda, deve cedere energia alla parte B perché si raggiunga l’equilibrio:

Supponiamo ora che la parete divisioria si possa solo spostare, facendo diminuire o il
volume della parte A o quello della parte B:
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 14

In maniera analoga, poichè il sistema complessivo è isolato, il volume totale,  =


 +  , si conserva e di conseguenza
  
=0 → =−
  
e l’aumento di entropia, in termini dei volumi,
    
= + ≥0
    
si scriverà µ ¶
  
− ≥0
  
Usando ancora la relazione fondamentale, potremo scrivere
µ ¶
  
− ≥0
  
A parità di temperatura tra le parti di un sistema isolato ( =  ), se ipotizziamo
che    , allora il volume della parte a maggiore pressione, si espanderà (   0)
fino a che l’entropia del sistema non smetterà di crescere.

Il parametro di riferimento per l’equilibrio meccanico, fra le parti di un sistema isolato,


è la pressione.
Infine, assumiamo che la parete divisoria consenta solo il passaggio di particelle tra le
due parti:

Poichè il sistema complessivo è isolato, anche il numero totale di particelle,  =


 +  , si conserva e quindi
  
=0 → =−
  
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 15

e l’aumento di entropia, in termini dei numeri di particelle,


    
= + ≥0
    
si scriverà µ ¶
  
− ≥0
  
Poiché, µ ¶
 
− =
  

potremo scrivere µ ¶
  
− + ≥0
  
A parità di temperatura tra le parti di un sistema isolato ( =  ), se    ,
   0, fino a quando l’entropia non smetterà di crescere. In altri termini, la parte
A del sistema isolato fornirà particelle alla parte B fino al raggiungimento dell’equilibrio.

O ancora, le particelle di un sistema isolato, tendono a muoversi dalle parti a potenziale


chimico maggiore verso quelle a potenziale chimico minore. Il parametro di riferimento
per l’equilibrio tra differenti parti di un sistema, con differente numero di particelle, è il
potenziale chimico.

1.5 I potenziali termodinamici: cenni


La relazione fondamentale della termodinamica, in rappresentazione dell’energia, cioè
quando  =  (   ) contiene tutte le informazioni su di un sistema. Sappiamo per
esempio che
 =   −   +  (1)
oppure in rappresentazione dell’entropia,
  
 = +  −  (2)
  
Le proprietà matematiche dell’energia e dell’entropia consentono di invertire sempre
le due funzioni, rendendo equivalenti le due rappresentazioni. Sia l’energia interna che
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 16

l’entropia, il volume e il numero di particelle sono grandezze fisiche estensive, cioè esse
dipendono dalle dimensioni del sistema. Le derivate parziali della funzione  rispetto alle
differenti variabili estensive definiscono l’insieme delle variabili intensive (esse di dicono
coniugate rispetto alle variabili estensive). Queste variabili intensive non dipendono dalle
dimensioni del sistema. Talvolta può risultare utile cambiare, per esempio, la funzione
energia interna con un’altra funzione di stato che contenga una qualche variabile intensiva.
Ovviamente, la nuova funzione deve contenere tutte le informazioni termodinamiche che
conteneva, per esempio, l’energia. Vogliamo esaminare questo aspetto.

1.5.1 Trasformazioni di Legendre


Quando si esprimono le funzioni di stato in termini di variabili estensive si verifica che
esse diventano funzioni omogenee di grado 1, in queste variabili. Ciò significa che per
l’entropia, per esempio, possiamo scrivere

 (  ) =  (  ) (3)

e una relazione analoga vale per la funzione energia interna. Per le funzioni omogenee
di grado 1, nelle specifiche variabili, vale il teorema di Eulero: se la funzione  (  )
è omogenea di grado 1, nelle variabili da cui dipende, allora essa ammette la seguente
rappresentazione:
  
 (  ) = + +  (4)
  
Supponiamo di porci nella rappresentazione dell’energia e di assumere che l’energia
del sistema dipenda solo dall’entropia e dal volume (il sistema non scambia particelle con
l’ambiente), allora  =  (  ) risulta omogenea di grado 1, nelle variabili  e  . Il
teorema di Eulero ci dice che la funzione energia si può scrivere nella seguente forma,
 
= +  =  −  (5)
 
dove sappiamo che le due variabili intensive, la temperatura e la pressione, sono definite,
rispettivamente, dalle seguenti derivate parziali:
 
 = − =
 
Supponiamo che si voglia cercare una nuova funzione  , che al posto della variabile
indipendente estensiva , abbia come variabile indipendente, la variabile intensiva  ,
(cioè la derivata dell’energia rispetto alla variabile entropia),
µ ¶

 =  (  ) =   (6)

Inoltre, vogliamo che questa nuova funzione conservi tutte le informazioni che erano nella
relazione fondamentale. Questo tipo di operazione è possibile e la trasformazione che
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 17

si utilizza per ottenere la nuova funzione dalla precedente si chiama trasformazione di


Legendre.
Per comprendere il significato di questa trasformazione limitiamoci ad una funzione
di una sola variabile,  =  ().

La curva rappresenta, per esempio l’energia in funzione dell’entropia e supponiamo che


contenga tutte le informazioni termodinamiche. In questa visione, i punti della curva sono
rappresentati da coppie di punti e il loro insieme definisce la curva. Vogliamo una nuova
funzione che dipenda dalla variabile intensiva 

, cioè, dobbiamo cercare una funzione
µ ¶

 =  () =  (8)


che conservi tutte le proprietà della precedente funzione  (). In termini tecnici cerchi-
amo di rappresentare una curva di un piano non come insieme di coppia di punti ( ),
bensì come inviluppo delle rette tangenti alla curva.

Ogni retta tangente individua in maniera univoca un punto della curva, che sarà
determinato dalla coppia di valori costituita dal coefficiente angolare e dall’ordinata
all’origine.
La nuova funzione  (), detta trasformata di Legendre di  (), si ottiene con la
seguente posizione (il segno meno potrebbe anche essere +),

 =  −  (9)
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 18

1.5.2 Energia libera


Nel caso specifico della funzione energia interna, la trasformata di Legendre, rispetto alla
variabile entropia sarà, allora

 =  (  ) =  −   (10)

Questa funzione è detta energia libera (di Helmoltz).


Vogliamo comprendere la necessità dell’introduzione di questa nuova funzione. Pren-
diamo il differenziale della (10):

 =  −   −  (11)
Poiché
 −   = − 
avremo
 = −  −  (12)
Notiamo che se il sistema esegue una trasformazione isoterma, (oppure se lo stato
finale e iniziale hanno la stessa temperatura)

 = −  (13)

L’energia libera è, sotto opportune condizioni, pari al lavoro che si può eseguire sul
sistema. Di qui, il termine energia libera, cioé energia disponibile sotto forma di lavoro.
Come avevamo annunciato la costanza della nuova variabile intensiva, in questo caso la
temperatura, fa emergere alcune informazioni in maniera più chiara.
Notiamo infine che dalla (12)
µ ¶ µ ¶
 
− = =−
   

e poichè  è una funzione di stato, l’ordine delle derivate parziali non è importante
   
=
   
Allora, le nuove funzioni, sotto particolari condizioni, risultano più efficaci sul piano
operativo delle relazioni fondamentali.

1.5.3 Entalpia

Se si vuole una nuova funzione che abbia come variabile intensiva indipendente 
, cioé
la pressione, allora, la nuova funzione sarà

=−  =  +  (14)

CAPITOLO 1. ELEMENTI DI TERMODINAMICA 19

Questa nuova funzione  =  (  ) è detta entalpia.


Prendiamo il differenziale della (14):
 =  +   +   (15)
che riscriviamo come
 =  +   (16)
Se ci limitiamo a trasformazioni a pressione costante,
 =  (17)
Nelle trasformazioni isobariche, l’entalpia si può identificare con il calore che il sistema
scambia con l’ambiente.
E si potrebbe continuare con altre funzioni che sono tutte dette potenziali termod-
inamici. I potenziali termodinamici sono le funzioni che si ottengono utilizzando la
trasformazione di Legendre dell’energia interna rispetto ad una o più variabili esten-
sive. I potenziali che così si ottengono, dipendono dalle variabili intensive, coniugate
delle variabili estensive rispetto a cui si è operata la trasformazione. Citiamo il poten-
ziale , detto energia libera di Gibbs, che si ottiene effettuando una trasformazione di
Legendre sia rispetto a  che a  , e il potenziale gran-canonico, Ω, per il quale si utilizza
una trasformazione sia rispetto ad  che a .

1.5.4 Appendice: prova del teorema di Eulero


Una funzione  (1    ) è omogenea di grado 1, se posto  =  , allora
 (1   ) =  (1    ) (a)
Se differenziamo rispetto al parametro avremo
µ ¶

=  (1    ) (b)
 
ma sappiamo anche che
 µ
X ¶

 (1   ) =  (c)
=1
 

con  6= . Di conseguenza, possiamo anche scrivere


µ ¶ X  µ ¶ µ ¶ X µ ¶
   
= =  (d)
  =1
 
  =1
 

dal confronto tra la (b) e la (d) segue


 µ
X ¶

 (1    ) =  (e)
=1
 
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 20

valida qualunque sia il valore di . Se si prende  = 1 , si avrà


X µ ¶

 (1    ) = 
=1
 

che conclude la prova.

1.6 Il Terzo Principio della Termodinamica


La termodinamica verrà completata da un Terzo Principio che ha la seguente possibile
formulazione:
quando la temperatura termodinamica assoluto tende a zero l’entropia tende ad un
valore costante che può, quasi sempre, essere posto uguale a zero.
Questo nuovo principio afferma diverse cose importanti. In questo limite l’entropia
dipende solo dalla temperatura e non sappiamo più quale sia la dipendenza dei siste-
mi da altri parametri. Esiste, al riguardo un concetto termodinamico piuttosto impor-
tante: il concetto di sorgente termica. Un sistema è una sorgente termica se può essere
caratterizzato dalla sola temperatura, il cui valore non muta nel tempo.
Quando si fornisce del calore ad un sistema, il sistema, con qualche eccezione, aumenta
la sua temperatura. Una misura del legame tra la quantità di calore assorbita e l’aumento
di temperatura viene fornita dalla capacità termica.
Una conseguenza del Terzo Principio è che quando la temperatura di un sistema tende
a zero anche le capacità termiche del sistema tendono a zero. Infatti, se consideriamo una
trasformazione reversibile che avvenga a volume costante e senza variazione del numero
di particelle, il Primo Principio, diventa

 = 

e la variazione di entropia tra due stati di equilibrio si scrive:


Z 

 () −  () =  ( )
 

Nel limite in cui lo stato B tende ad avere una temperatura nulla,  () deve rimanere
costante e di conseguenza il primo membro rimane costante. Nello stesso limite, l’integrale
presenterebbe una singolarità logaritmica che può essere evitata solo se  ( ) → 0.
Allora
lim  ( ) = 0
 →0

Bisogna ricordarsi che il principio dell’entropia è stato dedotto da Clausius analizzando


il lavoro delle macchine termiche. Una macchina termica è un sistema che lavora tra due
sorgenti con le quali scambia calore e una parte di questo calore lo trasforma in lavoro.
La bontà di una macchina termica si chiama rendimento ed esprime il rapporto tra il
CAPITOLO 1. ELEMENTI DI TERMODINAMICA 21

lavoro che la macchina fa e il calore che assorbe dalle sorgenti, in un ciclo. Il Secondo
Principio della termodinamica può anche enunciarsi dicendo che,
il rendimento di una qualsiasi macchina non potrà mai essere unitario.
Supponiamo di prendere come macchina termica un gas ideale e facciamola lavorare
tra due sorgenti le cui rispettive temperature sono, 0 e 1 con 0  1 . Si può dimostrare
che il rendimento, indicato con , di una tale macchina ha la seguente semplice espressione:
0
 =1−
1
Ipotizziamo che esista una sorgente la cui temperatura termodinamica assoluta sia
zero. Allora, per esempio, 0 = 0. Potremmo far operare la nostra macchina, a gas
ideale, tra questa sorgente e una qualsiasi altra sorgente. Il rendimento risulterebbe
sempre unitario. E ciò violerebbe il Secondo Principio nella forma appena espressa.
Dobbiamo convenire che siamo partiti da una ipotesi sbagliata, di conseguenza, dob-
biamo concludere che,
non possono esistere sistemi la cui temperatura termodinamica assoluta sia nulla.
Se la temperatura è moto molecolare, il nostro universo sarà sempre costituito da un
insieme di entità che non hanno alcuna possibilità di fermarsi. Allora, il Terzo Principio
si presenta come il naturale completamento degli altri due.
Vedremo che non esiste alcun modello classico che sia in grado di mostrare un risultato
che indichi che l’entropia di un sistema debba tendere a zero, quando la temperatura
termodinamica tende ad annullarsi. Viceversa, la fisica quantistica è in grado di prevedere
che i sistemi tendono verso uno stato ad entropia nulla, se la temperatura termodinamica
assoluta tende a zero.
Il Terzo Principio potrebbe, allora, essere usato come controllo della bontà dei risultati
di un modello.
Capitolo 2
Elementi di teoria cinetica

Secondo Clausius le variabili macroscopiche erano legate ai valori medi di variabili mi-
croscopiche. La teoria della probabilità, marginale nella scienza fisica, diventava l’unica
matematica adatta ad indagare il mondo microscopico. Clausius determinò la prima
distribuzione utile per l’indagine sul mondo microscopico, la distribuzione dei cammi-
ni liberi. Il suo approccio fu talmente convincente che Maxwell decise di dedicarsi al
problema. Così, Maxwell determinò la distribuzione delle velocità molecolari, all’equi-
librio termodinamico. La teoria cinetica dei gas, grazie ai lavori di Maxwell e poi di
Boltzmann, aveva ottenuto la sua sistemazione formale.

2.1 Probabilità e valore medio


La teoria cinetica dei gas nasce quando si cercano di determinare la leggi della termodi-
namica a partire dalla conoscenza della dinamica delle particelle microscopiche. Nel caso
di un gas ideale la pressione è collegabile all’energia totale del sistema,

2 1 X  v2

 = (1)
3  =1 2

dove  è il numero di particelle del gas. L’energia cinetica media per particella si scriverà

1 X  v2

 := (2)
 =1 2

e l’equazione (1) si può anche scrivere


2
  =  (3)
3

L’equazione (3) è l’equazione del gas perfetto secondo le leggi della meccanica classi-
ca. Una completa identificazione della (3) con l’equazione dei gas perfetti, nota per via
22
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 23

termodinamica,
  =  (4)
comporta la proporzionalità tra il concetto di temperatura e l’energia cinetica media per
molecola.
Si comprende allora che per legare un parametro macroscopico, la temperatura, al
mondo microscopico bisogna fare una media di tanti valori microscopici.
Cosa è una media? In fondo è solo un modo di riscrivere il concetto di media
aritmetica. Se si hanno solo due valori di una grandezza fisica, definiamo valore medio la
quantità
1 + 2
 =
2
Se invece di due valori abbiamo  valori, scriveremo

1 X

1 + 2 +  + 
 = =  (5)
  =1

La (2) non è altro che un esempio della (5). Ora supponiamo che alcuni di questi
valori siano uguali. Cioè, ci siano 1 valori di 1 , 2 valori di 2 e così via. Potremo
scrivere
1 X

1 1 + 2 2 +  +  
 = =   (6)
  =1
con
 = 1 + 2 +  +  (7)
Ora 1  rappresenta il rapporto tra il numero di volte in cui è uscito il valore 1 sul
numero totale di risultati. Questo rapporto è noto come probabilità dell’evento 1 .
Esistono diverse definizioni di probabilità. Nessuna è esente da critica, per cui, a
seconda dei casi verrà utilizzata quella detta a priori o la frequentistica. In ogni caso,
sembra più ragionevole definire la probabilità attraverso le sue proprietà. Così, si assegna
un numero ad ogni evento, detto probabilità dell’evento, con le seguenti proprietà:
1) La probabilità di un evento è un numero compreso tra zero e uno.
2) La probabilità di un evento impossibile è zero
3) La probabilità di un evento certo è uno
4) La probabilità di due eventi disgiunti, è la somma dei due eventi:se  ∩  = ,
allora  ( + ) =  () +  ().
Quando discuteremo di processi markoviani introdurremo anche la probabilità con-
dizionata.
Per chiaririmenti formali, all’insieme dei possibili risultati di un esperimento si dà
il nome di spazio dei campioni, Ω. In seguito avremo modo di discutere molto di un
particolare spazio dei campioni: l’insieme delle velocità che possono assumere le molecole
di una gas. Lo spazio dei campioni in questo caso, Ω = R3 .
Si definisce evento un insieme di possibili risultati di una misura; di conseguenza, è
allora un sottoinsieme di Ω. L’insieme costituito da tutti i sottinsieme di Ω è detto spazio
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 24

degli eventi, E La probabilità è una funzione definita sullo spazio degli eventi a valori
reali, compresi tra (0 1):

 () : ∀ ∈ E →  () ∈ (0 1) ⊂ R

Diremo che,

 = (8)

rappresenta il rapporto tra il numero di volte in cui è uscito il valore 1 sul numero totale
di risultati e chiameremo probabilità dell’evento  tale rapporto. Il valore medio (6)
diventa
X 
 = 1 1 + 2 2 +  +   =   (9)
=1

Se invece dei valori discreti la grandezza fisica può prendere continui, allora si definisce
una densità di probabilità,  () tale che

 () 

che rappresenta la probabilità che la grandezza fisica  prenda valori nell’intervallo


(  + ). In tal caso, il valor medio diventa
Z
 =  ()  (10)

Si comprende che la determinazione di un valor medio è ricondotto alla determinazione


della densità di probabilità  () di un certo processo o alla determinazione delle  .
Chiameremo entrambe distribuzioni di probabilità o semplicemente distribuzioni .
Osservazione
La giustificazione che abbiamo dato del passaggio dalla eq.(6) alla (9) sembra quasi
ovvia. In realtà essa rappresenta un passaggio fondamentale nella storia della scienza
fisica. La conoscenza scientifica doveva essere universale e necessaria. Il probabile non
poteva caratterizzare la conoscenza scientifica. Il passaggio dalla (6) alla (9) costituisce,
quindi, una svolta nel concetto di conoscenza scientifica. Inoltre, il metodo (9) darà ai
teorici uno strumento fondamentale per le indagini: il calcolo dei valori medi si riduce
alla determinazione della giusta distribuzione. Nel seguito cercheremo di spiegare meglio
queste osservazioni.

2.2 Distribuzione dei processi collisionali nei gas


Dopo il primo lavoro fatto da Clausius (1857) sulla teoria cinetica, nel quale si poneva il
compito di indagare il modello meccanico del calore (calore come moto molecolare) gli fu
fatto osservare che le velocità delle molecole, predette dalla sua teoria, erano in contrasto
con diverse osservazioni sperimentali. In particolare, poiché le predette velocità erano di
diverse centinaia di metri al secondo, ci si doveva aspettare che un gas si sarebbe diffuso e
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 25

mescolato con altri gas molto rapidamente. Tuttavia, era noto che un gas lasciato libero
in un angolo di una stanza impiegava un certo tempo a diffondere in tutta la stanza .
Clausius si rese conto l’ osservazione era corretta e risolse il problema: una molecola di
un gas reale non era libera di muoversi su distanze macroscopiche perché urtava, con una
certa frequenza, altre molecole e la distanza media tra due collisioni consecutive era un
parametro microscopico. Valuterà in circa 1000 il rapporto tra il cammino libero medio
e la dimensione di una molecola. Quindi, sebbene le velocità delle particelle del gas
fossero elevate, pur tuttavia facendo collisioni, esse venivano deviate in maniera casuale e
avrebbero, quindi, impiegato un certo tempo a diffondere in una stanza. In altre parole,
le molecole del gas, non si muovevano in linea retta per grandi spazi, ma a causa delle
collisioni molecolari, il loro moto era in linea retta solo per brevi percorsi microscopici.
Bisognava valutare il valore medio di questi tratti in cui le molecole si muovevano in linea
retta, cioè libere.

Il modello di Clausius per l’interazione tra due molecole sarà fondato su alcune ipotesi
che verranno poi migliorate da Maxwell. La prima è quella di supporre che la collisione sia
binaria e la particella in moto su cui si focalizza l’attenzione vede tutte le altre particelle
distribuite spazialmente a caso. Inoltre, affinchè due particelle possano collidere, con una
probabilità ragionevole, occorre che esse abbiano una dimensione finita.
Sulle forze intermolecolari
Il primo problema che si poneva era quello di indagare quando avveniva una collisione.
Perché ci sia una collisione, occorre associare a ciascuna molecola una dimensione finita,
seppur microscopica. Il problema, in qualche modo, è simile alla necessità di dare ai
pianeti e ai satelliti una dimensione finita, per spiegare le eclissi. Così, nel secondo
articolo, apparso nel 1858 e tradotto in inglese l’anno successivo, Clausius pone molta
attenzione sugli effetti delle forze molecolari. Egli ipotizza che quando due molecole si
avvicinano tra di loro si esercita una attrazione, che inizia ad essere sensibile anche ad
una certa distanza e cresce al decrescere della distanza; ma quando esse arrivano ad
una certa distanza la forza risultante cambia direzione e le molecole sono costrette ad
allontanarsi. In altre parole, le forze intermolecolari sono attrattive a certe distanza e
repulsive a distanza minori. Questo vuol dire che esiste una distanza alla quale le due forze
si bilanciano. Ciò porterà a supporre che le molecole del gas possano essere pensate come
delle sfere di raggio 0 di dimensioni trascurabili rispetto al contenitore del gas. Inoltre,
l’influenza di ciascuna molecola sulle altre si manifesterà solo durante le collisioni, che
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 26

avverranno se i centri delle due sfere si avvicineranno di una distanza inferiore a 20 . Con
questa ipotesi, Clausius inaugurà la ricerca sulla struttura della materia.
Processo di Bernoulli
Per comprendere meglio la discussione successiva dobbiamo introdurre il “processo di
Bernoulli”.
Il processo di Bernoulli si riferisce ad una successioni di eventi e si caratterizza per le
seguenti tre condizioni:
1) Il risultato di ogni prova può essere solo successo o fallimento.
2) La probabilità di successo, che indicheremo con  e quella di fallimento che in-
dicheremo con  sono costanti in ciascuna prova e devono verificare la condizione:

+ =1 (11)

3) Il risultato di ciascuna prova è indipendente dai risultati delle prove precedenti.


Non vi è alcuna memoria del passato, e il risultato di un evento futuro non è neanche
influenzato dalla conoscenza del risultato avvenuto immediatamente prima.

2.3 La distribuzione dei cammini liberi


Consideriamo una particella e focalizziamo la nostra attenzione sulla sua traiettoria. A
partire da un certo punto iniziale sulla traiettoria, indichiamo con  il cammino percorso
lungo la traiettoria. Tale parametro, come il tempo, cresce sempre. Dividiamo tutto la
traiettoria in segmenti ∆, percorsi ad intervalli di tempi ∆, in ciascuno dei quali la
particella ha solo due opportunità: fare o non fare una collisione.
Le prime due condizioni del processo di Bernoulli sono verificate (le particelle in
ogni tratto possono o non possono fare collisioni, e la probabilità di fare una collisione
è costante lungo tutta la traiettoria). Si precisa il valore della probabilità di fare una
collisione:
a) si assume che la probabilità che una particella faccia una collisione in un tratto
∆ della sua traiettoria sia molto piccola e proporzionale al tratto stesso:

 (∆) = ∆  1

dove  è una costante da determinare. Questa assunzione dipende dall’ipotesi che le


particelle del gas sono distribuite spazialmente a caso e si vogliono escludere collisioni a
più di due particelle.
Inoltre si assume che
b) la probabilità di fare (o di non fare) una collisione al tempo  + ∆ dipende solo
dalla conoscenza di ciò che è accaduto al tempo .
Questo significa che Il futuro della storia della particella dipende solo dal suo presente.
Tutta la sua storia passata è ininfluente sul suo futuro.
Rispetto al processo Bernoulliano viene stabilita una correlazione temporale solo con
l’evento accaduto immediatamente prima.
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 27

Oggi chiamiamo questi processi markoviani.


stiamo introducendo nelle nostra considerazione la probabilità condizionata.
Si cerca di valutare la probabilità che accade un certo evento sapendo che si è già
avverato l’evento A. Si indica tale probabilità con  ( |) e si può mostrare che
 ( ∩ )
 ( |) =
 ()
cioè è la misura dell’intersezione in unità della misura di A.
L’insieme delle ipotesi fatte determina la statistica che governa i processi collisionali
nel gas di Clausius.
Introduciamo una funzione che esprima una probabilità di non fare alcuna collisione
lungo un percorso finito, ma microscopico, di una particella. Qui il ruolo del tempo viene
svolto dalla variabile , cammino percorso. Indichiamo con  () la probabilità che una
particella, partita da una posizione arbitraria, dove ha subito una collisione, percorra
il tratto  della traiettoria senza fare collisioni; inoltre, in base alla statistica scelta per
le collisioni, la probabilità di non fare una collisione nel tratto ∆, può indicarsi con
(1 − ∆). Con tali presupposti, può scriversi una equazione di bilancio per  (). Infatti,
si trova

 ( + ∆) =  () (1 − ∆)


dove  ( + ∆) è la probabilità che una particella percorra il tratto (0  + ∆) senza fare
collisioni. Sviluppando in serie di Taylor il primo membro e fermandosi al primo ordine
in ∆, si trova

 () + ∆ =  () (1 − ∆)

La soluzione di tale equazione è immediata (si noti che  ( = 0) = 1) e si scrive

 () = exp (−) (12)


Per calcolare il cammino libero medio, la distanza media tra due collisioni, non si può
fare solo ricorso alla distribuzione  (), ma occorre considerare la densità di probabilità
normalizzata  () tale che

 ()  =  ()  (13)


rappresenti la probabilità che una particella percorra il tratto  senza collisioni, ma imme-
diatamente dopo (tratto ) faccia una collisione. Se indichiamo con  il cammino libero
medio, per definizione, possiamo scrivere
Z ∞
= −  (14)
0
Effettuata l’integrazione, si ottiene
1
= (15)

CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 28

Il parametro  risulta essere l’inverso del cammino libero medio.


Con tale risultato, la (12) può anche scriversi
µ ¶

 () = exp − (16)

e la distribuzioni dei cammini liberi diventa
µ ¶
1 
 () = exp − (17)
 
mentre, la probabilità di fare una collisione tra una particella e il restante gas , nel tratto
 , si scriverà:

 = (18)

Abbiamo accennato al fatto che per il calcolo del valor medio, e più in generale per
il calcolo di qualsiasi ordine dei momenti della distribuzione, occorre che la distribuzione
sia ben normalizzata. La distribuzione di Clausius non è ben normalizzata. Infatti
Z ∞
1
−  =
0 
Quando ciò accade il valor medio si deve scrivere
R ∞ −
 
 = R0∞ −
0
 

che riporta esattamente alla (15).

2.4 Sezione d’urto e cammino libero medio


Il processo descritto nel precedente paragrafo può essere visto anche in altro modo. Nel
caso di una particella che si muove in un gas di particelle identiche di raggio 0 posssiamo
assumere che la particella che stiamo esaminando non abbia dimensione e trasferiamo la
sua dimensione a tutte le altre. Quindi, abbiamo una particella puntiforme che si muove
in mezzo a tutte le altre di dimensione  = 20 . In questo caso, una collisione avverrà se
la particella, durante il suo moto, attraverserà una superficie pari

 =  (20 )2 (19)

perché significa che ha incontrato una certa particella. L’evento collisionale non è tuttavia
prevedibile se non con una certa probabilità. Vogliamo valutare, come rapporto di aree,
questa probabilità. In questo contesto  è detta sezione d’urto.
Supponiamo per semplicità che il gas di particelle sia racchiuso in una scatola cubica
trasparente di lato  e che lungo la direzione dell’asse  si muova la particella considerata.
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 29

Nel tratto della scatola compreso tra  e + vi saranno un certo numero di particelle
che costituiscono il gas e in base alla definizione di sezione d’urto possiamo immaginare
associata a ciascuna di esse e ortogonale alla direzione del fascio incidente, un’area, pari
alla sezione d’urto, . Se 0 è il numero medio di atomi per unità di volume del gas,
0 2  rappresenta il numero di atomi contenuto nello strato . Se moltiplichiamo tale
numero per il valore della sezione d’urto, otterremo l’area utile per un evento collisionale
tra la particella puntiforme e una particella del gas, nel tratto , cioè

        = 0 2 


L’area totale che comunque il fascio incidente deve attraversare è 2 . La probabilità
che si abbia una collisione nello strato  sarà

0 2 
 = = 0  (20)
2
Il confronto con la (18), ci consente di scrivere
1 1
= = (21)
0  
che rappresenta la cercata relazione tra cammino libero medio, sezione d’urto e il
parametro .

2.5 Lo spazio delle molecole


Studiando l’espansione libera abbiamo imparato che se si vuole apprendere con maggiore
profondità il significato di Entropia e dell’irreversibilità dei processi dobbiamo esaminare
sia le posizioni che le velocità delle molecole. Per determinare la traiettoria di una parti-
cella abbiamo bisogno di conoscere sia la posizione r che la velocità v ad un certo istante.
l’insieme dei valori (r v) definisce uno stato di una particella. Secondo la meccanica
newtoniana siamo sempre in grado di determinare esattamente e nello stesso istante la
posizione e la velocità di una particella (sebbene con una incertezza dovuta alla stru-
mentazione che siamo costretti ad usare). Quando passiamo a livello microscopico non
potendo conoscere la posizione e la velocità di una particella sostituiamo alla conoscenza
deterministica, una conoscenza probabilistica affermando che siamo interessati alla prob-
abilità di trovare una particella in una certa posizione e con una certa velocità, ad un
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 30

determinato istante. Più precisamente siamo interessati alla probabilità di trovare una
particella con la posizione nell’intervallo di valori (r r + 3 ) e velocità nell’intervallo di
valori (v v + 3 ). Si passa dalla certezza di trovare una particella alla probabilità di
trovare una particella. Il problema è come si deve costruire una tale probabilità. Si passa
in uno spazio a 6 dimensioni dove lo stato (r v) di ogni particella è rappresentata da un
punto; gli stati di N particelle sono rappresentate da N punti e si assume che l’insieme
di questi punti costitisca un fluido continuo che riempie una regione limitata di questo
spazio. La probabilità di trovare una particella in un certo stato sarà determinata attra-
verso il numero relativo di particelle che sono nello stato considerato. Una tale possibilità
dipende ovviamente dall’assunzione che le particelle siano debolmente interagenti.
Allora, lo spazio astratto, adatto a studiare un gas di particelle, è una spazio a sei
dimensioni (detto spazio della molecola o spazio ) di cui tre dimensioni si riferiscono
alla posizione della generica particella e le altre tre, alle sue componenti della velocità:

(r v) =        

La descrizione quindi del gas è trasferita in questo spazio astratto. In questo spazio si
possono definire delle funzioni di punto e quindi anche delle densità di probabilità. Una
conoscenza degli stati macroscopici del sistema è deducibile dalla funzione di distribuzione
 (r v; ) la cui definizione è tale che

 (r v; ) 3 3  =  (        ; )    (39)

rappresenta il numero medio di particelle che al tempo  si trovano nell’elemento di volume


infinitesimo 3 3  dello spazio  ( è l’iniziale di molecola). Non potendo disegnare uno
spazio a sei dimensioni ci acconteremo di una spazio a due dimensioni, una per la posizione
 e una per la componente  della velocità

La funzione  (  )  rappresenta il numero medio di particelle contenute nel


rettangolo di lati
[( + ) − ] [( +  ) −  ]
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 31

La teoria cinetica afferma che, nota la distribuzione, si può risalire agli stati macro-
scopici del sistema. All’equilibrio termodinamico la sola dipendenza funzionale significa-
tiva sarà dal modolo delle velocità. E’ possibile scrivere una equazione piuttosto generale
per la funzione  (r v ), detta equazione cinetica di Boltzmann.
Vista la definizione (39) si può immediadamente scrivere che il numero totale di
molecole è Z Z
=  (r v ) 3 3  (40a)

dove i limiti d’integrazione per le coordinate sono definiti dalle dimensioni del contenitore
del gas e quelli delle velocità dal valore finito dell’energia totale del sistema. La (3) ci
dice che se integriamo su tutto lo spazio a sei dimensioni, troveremo l’intero numero di
particelle. E questo intero spazio è finito.
Per poter applicare il procedimento usato per il cammino libero dobbiamo normaliz-
zare all’unità la distribuzione, cioè
Z Z
1
 (r v; ) 3 3  = 1 (40b)

Di conseguenza, il valor medio di una grandezza fisica  (r v ) si otterrà scrivendo
Z Z
1
  () =  (r v )  (r v; ) 3 3  (41)

Per esempio il valor medio dell’energia cinetica, sarà
Z Z
 2 1  2
  =   (r v; )   
2  2
Abbiamo un metodo calcolare il valor medio di una grandezza fisica. Clausius aveva
calcolato il valor medio dei cammini liberi derivando prima la distribuzione dei cammini
liberi e da quest’ultima, il valor medio dei cammini liberi.
Le molecole del gas perfetto hanno solo energia cinetica. Di conseguenza, se si
vuole calcolare il valor medio dell’energia occorre avere almeno la distribuzione delle
sole velocità molecolari.

2.5.1 La distribuzione di Maxwell


La distribuzione normale di Gauss e Laplace non era ancora stata applicata ai sistemi
fisici. L’intuito di Maxwell fu di pensare che la distribuzione delle velocità molecolari
avesse una forma di distribuzione normale, nella velocità. Ci riferiremo alla distribuzione
delle probabilità
1
 (r v;) =  (r v;) (42)

Supporremo, per il momento, che non ci siano forze esterne. Quando il sistema è in
uno stato di equilibrio la forma della distribuzione deve essere
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 32

i) indipendente dal tempo:


1 1
 (r v;) →  (r v)
 
ii) indipendente dalla posizione:
1 1
 (r v) →  (v)
 
il che implica che
Z Z Z
1 3 3 
1=  (v)    =  (v) 3  (43)
 
dove  è il volume contenente il gas.
iii) e non ci devono essere direzioni della velocità privilegiate,

 
 (v) →  ()
 
e la condizione di normalizzazione diventa
Z
1
1=  () 3  (44)
0
dove abbiamo posto 0 =  .
Maxwell provò che la distribuzione delle velocità all’equilibrio doveva essere una
gaussiana nella velocità:
µ ¶32 µ ¶
 ()   2 1
=  () = exp − (45)
0 2  2  
Definizione di equilibrio: un sistema costituito da  particelle libere è in uno stato
di equilibrio se la sua distribuzione delle velocità è la distribuzione di Maxwell.
Vi è tuttavia una importante differenza con gli stati di equilibrio della termodinamica.
Un sistema isolato, una volta raggiunto l’equilibrio, permane per sempre nello stato di
equilibrio raggiunto. Solo le azioni esterne faranno allontanare il sistema dal suo stato
di equilibrio, oppure la modifica di un vincolo interno (si pensi all’espansione libera o
al mescolamento di due gas). Nel nuovo formalismo il sistema fluttua intorno allo stato
di equilibrio. Le fluttuazioni non si possono eliminare, anche se sotto certe condizioni
si possono trascurare. Tuttavia, come vedremo, nel moto browniano, le fluttuazioni
risultano determinanti nei processi. Capire le fluttuazioni aiuterà a capire i processi fuori
dall’equilibrio.
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 33

2.5.2 L’ipotesi di caos molecolare e il principio del bilancio


dettagliato
La prima derivazione della distribuzione delle velocità molecolari all’equilibrio è delineata
in Appendice e fu data da Maxwell nel 1860. In essa le collisioni non svolgoevano alcun
ruolo. Nella successiva dimostrazione, data nel 1866, le collisioni giocano un ruolo impor-
tante e Maxwell introduce per la prima volta, quelle che gli Ehrenfest, Paul e Tatiana,
chiamarono ipotesi di caos molecolare.
Maxwell considera una collisione binaria elastica che porta due particelle qualsiasi,
dalle velocità iniziali (v1  v2 ) alle velocità finali (v10  v20 ). A parte certi fattori geometrici
che caratterizzeranno la specifica collisione, egli assume che il numero di collisioni, in un
certo intervallo di tempo , che indicheremo con 12 debba essere solo proporzionale
al prodotto del numero di particelle con velocità v1 , in v1 , (cioè a  (v1 ) 3 1 ) per il
numero di particelle con velocità v2 , in v2 , (cioè a  (v2 ) 3 2 ), quindi, a parte fattori
geometrici che ora non interessano, si avrà

12 ∝  (v1 )  (v2 ) 3 1 3 2

In altre parole, Maxwell assunse che le distribuzioni di due particelle  (v1  v2 ) potessero
essere sostituite dal prodotto di due distribuzioni di singola particella (ipotesi di caos
molecolare). Allo stesso modo, per la collisione inversa, da (v10  v20 ) a (v1  v2 ), egli assunse
che
21 ∝  (v10 )  (v20 ) 3 10 3 20
Inoltre, egli stabilì che affinché la distribuzione delle velocità non cambiasse nel tempo
(richiesta di stazionarietà) deveva accadere che il numero di collisioni dirette e quelle
inverso dovevano essere uguali, e questo portava alla seguente condizione

 (v1 )  (v2 ) =  (v10 )  (v20 )


Questa relazione è oggi chiamata, principio del bilancio dettagliato.
Vogliamo mostrare che il principio del bilancio dettagliato è sufficiente a derivare la
distribuzione di Maxwell. Assumiamo che la distribuzione di equilibrio debba dipendere
solo dal modulo della velocità e quindi potremo parlare di energia delle particelle.
Supponiamo che due particelle, una con energia 1 e l’altra con energia 2 facciano
una collisione e acquisiscano le energie 3 e 4 , rispettivamente,

(1  2 ) → (3  4 ) (1a)

Esisteranno anche particelle che sperimenteranno la collisione inversa

(3  4 ) → (1  2 ) (1b)

e, all’equilibrio termodinamico, il principio del bilancio dettagliato imporrà che il numero


di collisioni nell’unità di tempo, dirette e inverse, siano uguali.
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 34

Se indichiamo con  () la distribuzione in termini dell’energia, possiamo scrivere,


12 =  (1 )  (2 ) (2a)
mentre per quelle inverse:
21 =  (3 )  (4 ) (2b)
e all’equilibrio,
 (1 )  (2 ) =  (3 )  (4 ) (3)
Poiché nel processo collisionale si deve conservare l’energia avremo
1 + 2 = 3 + 4 (4)
Allora, solo tre delle quattro variabili energia sono indipendenti. Scriviamone una in
funzione delle altre,
4 = 1 + 2 − 3
e la (3) si può riscrivere
 (1 )  (2 ) =  (3 )  (1 + 2 − 3 ) (5)
Le tre energie presenti sono indipendenti tra di loro. Prendiamo il logaritmo della (5)
ln  (1 ) + ln  (2 ) = ln  (3 ) + ln  (1 + 2 − 3 )
Differenziamo rispetto ad 1 :
1  (1 ) 1  (1 + 2 − 3 )  (1 + 2 − 3 )
=
 (1 ) 1  (1 + 2 − 3 )  (1 + 2 − 3 ) 1
da cui
1  (1 ) 1  (1 + 2 − 3 )
=
 (1 ) 1  (1 + 2 − 3 )  (1 + 2 − 3 )
In maniera analoga, se si differenzia rispetto ad 2 si trova:

1  (2 ) 1  (1 + 2 − 3 )
=
 (2 ) 2  (1 + 2 − 3 )  (1 + 2 − 3 )
Le due ultime relazioni ci dicono che
1  (1 ) 1  (2 )
=
 (1 ) 1  (2 ) 2
Quest’ultima uguaglianza è possibile solo se entrambi i membri sono costanti:
1  ()
= (6)
 () 
La soluzione della (6) si può porre nella forma
 () =  exp () (7)
dove
1
=− (8)
 
con  costante di Boltzmann e  una costante determinabile dalla normalizzazione.
Abbiamo ritrovato la distribuzione di Maxwell.
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 35

2.6 Valori medi e valori veri


Si abbiano  particelle in un contenitore di volume V. Il problema fondamentale non
è più la determinazione delle condizioni posizioni e velocità iniziali, (r v), di una parti-
cella. Dovremo calcolare il numero medio di particelle contenute in un certo volumetto,
piccolo rispetto al contenitore di tutto il sistema, ma abbastanza grande da contenere
un numero elevato di particelle. Per poter calcolare questo valore medio avremo bisogno
di determinare la probabilità di trovare una particella in un dato volume,(r3 ) la cui
velocità è contenuta in un certo intervallo, (v 3 ), cioè in un altro volumetto, ma in un
altro spazio. Bisogna anche stabilire se tra questi due spazi vi siano correlazioni.
Per rispondere alla prima domanda, è fondamentale che le particelle non siano interagenti.

Questa ipotesi fa si che tutte le proprietà che troveremo, verificate soddisfacenti


per una particella, saranno vere anche per tutte le altre.

Assumeremo di interessarci, almeno per ora solo di gas di particelle libere.


Consideriamo un contenitore trasparente, e consideriamo al suo interno un ulteriore
piccolo contenitore, il cui volume sarà indicato con ∆3 .
Focalizziamo la nostra attenzione su una qualsiasi particella. La nostra misura consiste
nel fare delle foto ad intervalli temporali costanti ∆. Riferendoci, sempre alla stessa
particella, inizieremo a fare tante foto, anzi moltissime. Alla fine delle operazioni avremo
tantissime foto da analizzare. In alcune di esse noteremo che la particella considerata
è contenuta nel volumetto considerato. Queste foto rappresentano le misure con esiti
positivi. Le altre quelle negative. In ogni caso, ad ogni evento-misura (scatto di una
foto), abbiamo due possibilità: o la particella è dentro al volumetto oppure e fuori.
Inoltre, ogni misura (scatto di una foto), è indipendente dalle altre misure e gli scatti
hanno tutti la stessa durata.
La probabilità di un evento (particella contenuta nel volumetto) è il rapporto tra i casi
favorevoli sui casi totali.
Notiamo che potremmo eseguire le nostre valutazioni in due modi distinti:

i) la probabilità è il rapporto tra la somma degli intervalli temporali in cui la particella


è risultata nel contenitore, e il tempo totale delle misure.
ii) Potremmo considerare tanti contenitori, contenenti la stessa particella che si muove
liberamente in tutto il contenitore. Ad un istante arbitrario, faremmo una foto di
tutti i contenitori. Facendo il rapporto tra il numero dei contenitori, nei quali la
particella risulta nel volumetto, sul numero totale di contenitori, troveremmo la
probabilità di trovare la particella nel piccolo volumetto.

Questi contenitori, tutti identici, nel senso precisato, sono detti ensembles.
Le due misure di medie, che discuteremo meglio in seguito, sono differenti, ma per il gas
ideale, daranno lo stesso risultato.
Ritorniamo all’espansione libera. Abbiamo un numero totale di particelle . Sicu-
ramente esiste un numero  ben definito di particelle contenute nella parte  che un
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 36

numero ben definito  nella parte  del contenitore, in maiera tale che ad ogni sistante
 =  +  . In maniera indiretta possiamo valutare sia  che  . Noto il peso
del contenutore, si può determinare il numero di molecole contenute in ciascuna parte,
pesando ciascuna parte e dividendo per il peso di una molecola. Queste misure di pe-
so, sono sperimentalmente affette da un errore relativo, che va dall’1% ad una parte su
105 − 106 .Di conseguenza non potremo m ai conoscere il numero effettivo di particelle con
precisione arbitraria.
Se indichiamo con  , il numero reale di particelle contenute nel contenitore , la
fisica ha solo la possibilità di valutare, il numero medio h i di particelle che potrebbero
essere contenute in un contenitore. Questo valore medio è fisicamente diverso dal numero
vero di particelle,  . Ma la fisica può valutare quanto sia lontano il valore vero dal
valore medio (varianza e deviazione standard, vedi esercizi 1-4), calcolando una sorta
di distanza tra questi due valori. Da questo confronto può stabilire se la distanza tra i
due valori è tale da non essere rilevabile sul piano sperimentale. Se questa valutazione,
suggerisce che non siamo in grado di valutare la differenza tra il valore vero e quello medio
calcolato, allora i fisici ritengono che il valore medio sia una buona espressione del valore
vero. Il valore medio è la migliore valutazione che sappiamo fare del valore vero di una
grandezza.

2.7 Esercizi
Esercizio 1 Si consideri un gas ideale contenuto in una scatola e chiediamoci quale sia
la probabilità che in un certo volumetto ∆3  contenuto nel volume V. Dimostrare che la
distribuzione che ci dice che  particelle sono in ∆3  è la distribuzione binomiale.
La probabilità di trovare una particella nel volumetto ∆3  è, allora (Ventzel,...)
∆3 
= (2.1)

e quella di trovarla fuori è
 =1− (2.2)
Possiamo provare a ripetere lanciando le nostre particelle, una alla volta. Ad ogni lancio,
abbiamo due soli esiti possibili e ogni lancio è indipendente dal precedente. Dobbiamo
cercare la distribuzione relativa a  particelle nel volumetto, e le restanti fuori.
Poichè abbiamo assunto che le particelle fossero non interagenti, siamo sicuri che la prob-
abilità che abbiamo trovato valida per una particella, sarà valida per tutte le altre. La
derivazione si fonda su questo assunto.
Consideriamo la prima particella, indicata con 1; può capitare che sia dentro o fuori;
poiché sono eventi indipendenti, la probabilità, di collocare la prima particella sarà
proporzionale a,  (1 − ).
Ad ogni evento si ripete la stessa storia; poiché, alla fine dobbiamo porre  , nel
volumetto e le restanti ( −  ), fuori, troveremo
 (1 − )−
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 37

Il coefficiente , dipende dal numero di combinazioni, che abbiamo a disposizione, per


scegliere,  distinte particelle, tra le  da porre nel piccolo contenitore. Questo numero
lo sappiamo già e quindi possiamo scrivere:
!
 ( ; ) =  (1 − )− (2.3)
 ! ( −  )!
Questa distribuzione è detta di Bernoulli o binomiale.
La distribuzione è ben normalizzata:
X
 =

 ( ; ) = 1 (2.4)


 =0

Esercizio 2: Valutare il numero medio di particelle, la varianza e la deviazione standard


Il numero medio sarà:
∆3 
h i =  =  = 0 ∆3  (2.5)

dove 0 è il numero medio di particelle per unità di volume, ed è costante.
La varianza di questa distribuzione è
µ 3 ¶µ ¶
∆ ∆3 
  =  (1 − ) =  1− (2.6)
 
e la deviazione standard è
s µ ¶µ ¶
p ∆3  ∆3 
  ( ) =  (1 − ) =  1− (2.7)
 

e la deviazione standard relativa, diventa


p
  ( )  (1 − ) 1
= '√ (2.8)
h i  
La proporzionalità della deviazione standard relativa con l’inverso della radice di N, è un
risultato importante, come discuteremo tra breve.
Esercizio 3: Porre in maniera simmetrica i risultati
Possiamo immediatamente estendere i precedenti risultati, al nostro esperimento in-
iziale, perché il volumetto era scelto in maniera arbitraria. La (2.3) diventa
µ ¶ µ ¶−
!  
 ( ; ) = 1− (2.9)
 ! ( −  )!  
oppure, in maniera simmetrica, poiché  =  + 
µ ¶ µ ¶
!  
 ( ;  ) = (2.10)
 ! !  
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 38

Possiamo anche riscrivere il numero medio di particelle contenute nella parte 


µ ¶

h i =  (2.11)

mentre quello in  sarà µ ¶

h i =  (2.12)

Notiamo che da queste due relazioni possiamo anche dedurre che
h i h i 
= = (2.13)
  
Possiamo anche riscrivere la deviazione standard,
s µ ¶µ ¶
 
  ( ) =  1− (2.14)
 
o ancora s µ ¶µ ¶
 
  ( ) =  (2.15)
 
che per la (15a) diventa s µ ¶

  ( ) = h i (2.16)

Possiamo anche valutare la deviazione standard relativa,
s µ ¶ sµ ¶
  ( ) 1  1 
= h i =p (2.17)
h i h i  h i 
p
La deviazione standard relativa risulta proporzionale a 1 h i, che nell’ipotesi di sis-
temi con un numero molto elevato di particelle (per esempio, in condizioni standard,
in un metro cubo ci sono circa 27 × 1025 particelle di un gas), diventa dell’ordine di
10−10 − 10−12 . Questo valore risulta molto più piccolo dell’accuratezza con la quale si
possono fare misure termodinamiche (è raro fare misure di densità meglio di una parte
su 106 ). Questo ci consente dire che il valore reale  di particelle contenute in un vol-
umetto, che è una proprietà del sistema e che non sapremo mai conoscere con certezza,
può, all’interno delle nostre misure sperimentali, considerarsi con buona approssimazione
uguale al numero medio di particelle h i, che siamo in grado di valutare sia teoricamente
che sperimentalmente.
Questo ci porterà anche a scrivere

 = h i (2.18)

ma dovremo sempre ricordarci che i due membri sono fisicamente differenti.


CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 39

Abbiamo analizzato le condizioni che consentono di fare la statistica, con ragionevoli


successi, nello spazio reale (o anche delle configurazioni) avendo assunto, non dimentichi-
amolo, la condizioni di equiprobabilità a priori: due volumetti uguali hanno la stessa
probabilità di contenere una molecola, indipendentemente dal luogo, ove sono posti i due
volumetti. Cioè, se si divide tutto lo spazio reale in volumetti uguali, la probabilità di
trovare una molecola in uno qualsiasi è la stessa.
Esercizio 4: Derivare la distribuzione di Poisson.
In questo caso, mantenendo inalterate le altre ipotesi, imponiamo una restrizione sul
valore della probabilità:
 ¿ 1 (2.19)
Questo significa considerare il volumetto, tanto piccolo da evitare che due particelle
possano, contemporaneamente essere, ad un certo istante, nello stesso volumetto. La
distribuzione delle probabilità, non è più quella binomiale, ma quella di Poisson:
h i exp (− h i)
Poisson ( ;  ) = (2.20)
 !
Per  = 0, poiché 0! = 1, otteniamo
µ ¶
∆3  ¡ ¢
Poisson (0; ) = exp (− h i) = exp − = exp −0 ∆3   (2.21)

Il caso  = 0 significa, che non ci sono particelle dentro il volumetto.
La distribuzione (2.21) è stata determinata per la prima volta da Clausius (1858), ed è
stata la prima distribuzione che è stata utilizzata per determinare valori medi di grandezze
fisiche. La (2.21) consenti a Clausius di derivare il cammino libero medio. Il lavoro
contenuto in questo articolo, convinse Maxwell, a dedicarsi alla teoria cinetica. Qualche
anno dopo vi si dedicherà anche L. Boltzmann.
Esercizio 5: Distribuzione in presenza di un campo esterno
Un gas ideale è costituito essenzialmente da particelle libere. Un gas reale prende in
considerazione anche le interazioni tra le particelle e anche la possibilità che il gas sia
immerso in un campo di forze esterne. Considereremo solo il caso di forze conservative.
Il tipico esempio, preso in considerazione anche da Boltzmann è quello dell’atmosfera
terrestre, che in prima approssimazione potrebbe pensarsi come un gas ideale, nel campo
gravitazionale della Terra.
Possiamo schematizzare il nostro problema immaginando una colonna d’aria, come
un gas contenuto in un certo recipiente
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 40

La sezione di base del recipiente sarà indicara con . Supponendo di essere all’equi-
librio, sappiamo che la distribuzione delle velocità è quella di Maxwell, dove la temper-
atura è la stessa in tutto il contenitore. Tuttavia, la presenza del campo gravitazionale
terrestre, tende ad attirare le molecole verso il basso, per cui ci sia aspetta che la dis-
tribuzione spaziale delle molecole cambi con l’altezza. Quindi, la distribuzione di Maxwell
che prevede una distribuzione uniforme del gas non è più valida. Per ottenere la dis-
tribuzione spaziale di questo gas, nel campo gravitazionale, dobbiamo determinare come
varia la densità  () con l’altezza.
Per determinare  (), valuteremo prima la forza gravitazionale agente sulle mole-
cole contenute nello strato di base  e altezza ∆. Alcune ipotesi sono necessarie.
Assumeremo
a) che lo strato abbia un’altezza ∆, sia molto più piccolo del raggio della Terra.
Questo ci assicura che tutte le molecole contenute nello strato sono sottoposte alla
stessa accelerazione di gravità, .
b) Sebbene la densità cambi con l’altezza, assumeremo che essa sia costante all’interno
del nostro strato.
c) Poiché dobbiamo fare considerazioni statistiche, il volume della strato che abbiamo
considerato, deve essere sufficientemente grande da contenere comunque un numero ele-
vato di molecole. Come abbiamo già discusso per altri volumetti, ciò si ottiene assumendo
che ∆, sia molto maggiore della distanza intermolecolare.
Ora possiamo procede con la nostra derivazione, supponendo che tutte le molecole sia
identiche e che la loro singola massa sia . La quantità  () ∆, rappresenta il numero
∆
di molecole contenute nello strato, di conseguenza,  =  () ∆, è la massa totale
∆
contenuto nello strato. La forza totale esercitata dalla Terra sullo strato è  . Poiché
siamo all’equilibrio, questa forza sarà equilibrata dalla pressione netta esercitata dalla
molecole esterne allo strato, sullo strato stesso, cioè

[ ( + ∆) −  ()]  = − () ∆

da cui deriviamo

= − ()

Sempre nel limite ∆ → 0, l’equazione di stato  = 0   , diventa,

 () =  ()  

che sostituita nella precedente equazione, ci porta alla seguente equazione per la densità

 ()
  = − ()

la cui soluzione è µ ¶

 () =  (0) exp −  (2.22)
 
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 41

La densità molecolare decresce con l’altezza. Questo risultato si può generalizzare al caso
tridimensionale e ad un qualsiasi campo conservativo agente sul gas e si ottiene
µ ¶
 (r)
 (r) =  (0) exp − (2.23)
 
dove  (r) è l’energia potenziale associata al campo esterno conservativo. Questo vuol
dire che
1
 (r) 3  (2.24)

rappresenta la probabilità di trovare una particella in (r 3 ). Allora, la distribuizione di
equilibrio di una gas soggetto ad un campo esterno conservativo, potrà scriversi
µ ¶

 (r ) =  (0) exp − (2.25)
 
e quindi la probabilità di trovare una particella, all’equilibrio, in (r 3 ) e velocità ( 3 )
è proprio la distribuzione di Boltzmann, (4.13).

2.8 Appendice: Derivazione del 1860 della distribuzione


delle velocità
L’isotropia delle velocità si riflette anche nella richiesta che la forma funzionale della
distribuzione delle probabilità deve avere la stessa forma lungo le tre componenti della
velocità, cioé
 () =  ( )  ( )  ( ) (46)
Ora deriviamo ambo i membri per  . Il primo membro diventa
 ()  ()  ³q 2 ´
=  + 2 + 2
  
ovvero
 ()   ()
= (47a)
  
Il secondo membro, una volta derivato
  ( )
[ ( )  ( )  ( )] =  ( )  ( )
 
diventa
  ()  ( )
[ ( )  ( )  ( )] = (47b)
  ( ) 
Dal confronto della (47a) e (47b) otteniamo
  ()  ()  ( )
=
   ( ) 
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 42

che riscriviamo come


1  () 1  ()  ( )
= (48a)
    ( ) 
Se si ripetono le stesse derivazioni per le altre componenti della velocità si otterranno

1  () 1  ()  ( )


= (48b)
    ( ) 
e
1  () 1  ()  ( )
= (48c)
    ( ) 
I primi membri sono uguali, lo saranno anche i secondi

1  ()  ( ) 1  ()  ( ) 1  ()  ( )


= =
  ( )    ( )    ( ) 
ovvero
1 1  ( ) 1 1  ( ) 1 1  ( )
= = (49)
  ( )    ( )    ( ) 
Ciascun termine dipende da una sola variabile, per cui devono essere uguali alla stessa
costante, che indichiamo con . Per esempio,

1 1  ( )
= (50)
  ( ) 
Questa equazione si risolve per separazione di variabile e si ottiene
¡ ¢
 ( ) = 1 exp 2 (51)

La costante 1 si può ottenere dalla condizione di normalizzazione.


Z ∞
¡ ¢
 1 exp 2 = 1 (51)
−∞

Questo integrale è finito solo se  è negativo. Porremo

 = − (52)

dove  è una quantità positiva. Poiché


Z ∞ r
¡ 2
¢ 
 exp − = (53)
−∞ 

alla fine otterremo r



1 = (54)

CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 43

Allora, r
 ¡ ¢
 ( ) = exp −2 (55a)

Analoghe considerazioni, per le altre componenti, porteranno ai seguenti risultati:
r r
 ¡ 2
¢  ¡ ¢
 ( ) = exp −  ( ) = exp −2 (55b)
 
La distribuzione di Maxwell, allora, sarà
³  ´32 ¡ ¢
 () = exp − 2 (56)

Rimane la determinazione del fattore .
Calcoliamo il valor medio dell’energia. Nel nostro caso l’unica energia che le particelle
possiedono è quella cinetica, per cui,
Z Z
 2 2
 =  (r v ) 3 3  (57)
2 2
che diventa Z
 2  2
 = 3  ()
2 2
ovvero ³  ´32  Z
 2 ∞ ¡ ¢
 = 4  4 exp −2 
2  2 0
Poiché Z r
∞ ¡ ¢ 3 
 exp −2  =
4
(58)
0 8 5
troviamo
2 3
 = (59)
2 4 
Per determinare  occorre fare un confronto con i dati sperimentali. Si può ovviare
a ciò confrontando tale risultato con la teoria cinetica elementare di Clausius che aveva
già effettuato il confronto con i dati sperimentali, stabilendo che l’energia cinetica media
per particella è data da
1 X1

3
 2 =   (60)
 =1 2 2
dove la costante  è la costante di Boltzmann , il cui valore è

 ' 1 38 × 10−23 (61)

Maxwell, introducendo la distribuzione delle velocità molecolari ha consentito di
trovare, per via probabilistica, il valore medio dell’energia da poter associate a ciascuna
CAPITOLO 2. ELEMENTI DI TEORIA CINETICA 44

particella. Di conseguenza, abbiamo, come nel caso del cammino libero medio, la possi-
bilità teorica alternativa per conoscere l’eventuale energia cinetica media per molecola.
L’uguaglianza tra i primi membri della (55) e (56) costituisce una svolta nella storia della
scienza. Viene ricordata questa e non quella fatta da Clausius perché qui si determina
l’energia che è la quantità principe dei sistemi fisici.
Allora, dagli esperimenti, cioè dalla (60) confrontata con la (59), si deduce che


= (62)
2 
La distribuzione di Maxwell diventa,
µ ¶32 µ ¶
  2 1
 () = exp − (63)
2  2  

E ciò conclude la nostra prova


Osservazione
Possiamo calcolare diverse valori medi.
Per esempio, possiamo calcolare la velocità quadratica media, con il seguente integrale
Z
  = 3  () 2
2
(64a)

Poiché abbiamo già fatto questo integrale, troviamo:


3 
  2 = (64b)

ovvero r
√ 3 
 =  2  = (65b)

dove abbiamo deciso di indicare con  , velocità termica, la radice quadrata della velocità
quadratica media. Essa è la velocità media che pensiamo di associare ad un gas che sia
in equilibrio ad una determinata temperatura:
1 2 3
 =  
2 2
Possiamo calcolare la velocità media, la velocità media,
Z
 =  = 3  ()  (66)

e si trova r
8 
 = (67)

In termini numerici queste due grandezze si possono considerare uguali.
Capitolo 3
Processi markoviani, random walk e
moto browniano

Ci proponiamo di approfondire alcuni aspetti dei processi markoviani trattando la legge


del decadimento radiattivo e un esempio di processo markoviano dicotomico. Passeremo
poi al random walk e finiremo con il moto browniano. Per ragioni di tempo non possiamo
sviluppare il modello delle due urne degli Ehrenfest, come altro esempio di processo
markoviano.

3.1 Legge del decadimento radiattivo


In natura alcuni elementi si trasformano in altri elementi. Esiste una unica legge statistica
che può descrivere queste trasformazioni: la legge del decadimento radiattivo.
Possiamo spiegare le caratteristiche generali del decadimento radioattivo sulla base
del suo carattere statistico. Assumeremo, come abbiamo già detto, le stesse ipotesi che
ha usato Clausius nello studio delle collisioni. Assumeremo che la probabilità che un
atomo decada in un intervallo di tempo ∆ sia proporzionale a ∆:
∆ (1)
e lo stato futuro dipende solo dal presente. La costante  è detta costante di disinte-
grazione. Ci proponiamo di determinare la funzione  () (probabilità di sopravvivenza)
che rappresenta la probabilità che al tempo  un atomo non sia ancora decaduto. Possiamo
scrivere
 ( + ∆) =  () (1 − ∆)
che ammette la seguente soluzione:
 () = exp (−) (2)
Il significato fisico di  si ottiene nel modo seguente. La quantità

 ()  = exp (−) 


45
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO46

rappresenta la probabilità che un atomo, non ancora decaduto al tempo , decada


subito dopo, ovvero nell’intervallo di tempo (  + ). La funzione

 () =  exp (−)

è una densità di probabilità, ben normalizzata. Si può verificare che,


Z ∞
 ()  = 1
0

Ciò comporta che il tempo medio di sopravvivenza di un atomo,  , detto vita media, sia
uguale (essendo il decadimento un processo statistico ogni singolo atomo può avere una
vita compresa tra 0 ed ∞) al valor medio di  secondo la distribuzione  ():
Z ∞
=  () 
0

da cui Z ∞
1
 =  exp (−) = (3)
0 
Avremmo potuto anche scrivere
R∞
 () 
 = R0∞
0
 () 

Allora, la probabilità che al tempo , un atomo non sia ancora decaduto, si scriverà:
µ ¶

 () = exp − (4)

dove il parametro essenziale è diventato la vita media,  .


Se la probabilità di essere presente al tempo , per un qualunque atomo è espressa
dalla (4), e, se il numero di atomi presenti al tempo  = 0 è indicato con 0 , il numero
totale di atomi non ancora decaduti al tempo , sarà:
µ ¶

 () = 0 exp − (5)

Questa equazione è nota come legge del decadimento radioattivo. L’equazione differen-
ziale associata sarà:
 ()  ()
=− (5a)
 
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO47

3.1.1 La funzione memoria


Abbiamo trovato per il decadimento radiattivo, la seguente relazione

= − (6)

dove  () rappresenta la probabilità che una particella di un gas radioattivo dopo un
tempo  non sia ancora decaduta.
E potremmo continuare con molti altri esempi. Una delle ipotesi necessarie per la
determinazione della legge esponenziale è che il futuro dipende solo da presente. Vogliamo
qui dare delle semplici indicazioni di come una sorta di memoria possa essere introdotta,
in forma matematica.
Consideriamo la generica equazione (6). Possiamo usare la definizione di delta di
Dirac e scrivere Z +∞
 ()
= − 0  ( − 0 )  (0 ) (7)
 −∞
In questa forma, si comprende meglio che il contributo alla variazione di  (), cioè la
sua derivata al primo membro, dipende solo dal valore della funzione in 
Se invece di una funzione così drammatica e centrata su un punto si prende una
funzione più dolce, si può provare ad includere nel contributo alla variazione della funzione
valori antecedenti a . Una di queste funzioni potrebbe essere una funzione esponenziale
(R.T. Robiscoe and J,C. Hermanson, AJP, 40 (1972) 1443 ):
Z µ ¶
 ()   0  − 0
=−  exp −  (0 ) (8)
  −∞ 
Questa funzione soddisfa anche la condizione
Z µ ¶
1  0  − 0
 exp − =1 (9)
 −∞ 
Questo suggerisce che possiamo andare oltre l’approssimazione usata nel decadimento
radiattivo, facendo la convoluzione della funzione  () con una seconda funzione:
Z ∞
 ()
= −  (0 )  ( − 0 ) 0 (10)
 −∞

dove la funzione  ( − 0 ), è definita dalla (10) e dalla condizione di normalizzazione


Z ∞
 ( − 0 ) 0 = 1 (11)
−∞

Tale funzione è detta funzione memoria. Notiamo che, se si assume,


 ( − 0 ) = 0    0 (12)
possiamo scrivere la precedente equazione anche
Z 
 ()
= −  (0 )  ( − 0 ) 0 (13)
 −∞
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO48

3.2 Il decadimento radioattivo come processo marko-


viano
Dobbiamo rivedere in un nuovo contesto alcune delle analisi fatte. Indicheremo gli stati
possibili di un sistema con un cerchio e le transizioni tra gli stati con delle linee continue
che legano gli stati, oppure una stato con se stesso.
a) Riconsideriamo da un punto di vista grafico il decadimento radiattivo

Una generica particella del gas radiattivo si trova all’istante  nello stato . La
probabilità di decadere in un tempo ∆, è ∆. Quando abbiamo scritto

 (  + ∆) =  ( ) (1 − ∆) (14)

abbiamo calcolato la probabilità che una particella, inizialmente nello stato  al tempo ,
continuava ad essere nello stato  al tempo  + ∆. La funzione

 ( ) = exp (−) (15)

può essere vista come la funzione di permanenza nello stato  (la funzione  ( ) è
normalizzata all’unità). La vita media
1
= (16)

può anche essere vista come tempo medio di permanenza nello stato .
Anche lo stato , potrebbe essere uno stato a vita media finita. E più in generale
potremmo avere la seguente situazione (non sono disegnate le probabilità di permanenza
nei singoli stati)

Il precedente grafico ha un significato preciso e le equazioni che si ricavano da esso sono


note come equazioni di Bateman; esse descrivono i decadimenti delle famiglie radiattive
presenti in natura.
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO49

Esercizio 1: Scrivere l’equazione di Bateman per una famiglia radiattiva costituita


da  membri.
Esercizio 2: Scrivere e risolvere l’equazione di Bateman per una famiglia radiattiva
costituiata da tre membri (padre, figlio e nipote stabile).
b) random walk: Non è data la funzione di permanenza in ; Gli stati iniziali possibili
sono, ( − ∆) e ( + ∆), al tempo ; Con probabilità , dallo stato ( − ∆), al tempo
, in ∆, si passa in ; oppure se si è, al tempo , in ( + ∆), si passa con probabilità ,
in . Il grafico che rappresenta il processo è:

Le equazioni le abbiamo già derivate e discusse.

3.3 I processi markoviani dicotomici.


Questi processi si riferiscono, per esempio, ai sistemi a due livelli discreti, che in inter-
azione con l’ambiente, effettuano transizioni tra due stati,  e  e delle probabilità sia
di trovare in sistema in ciascuno dei due stati sia dalle probabilità di transizioni da uno
stato all’altro. Questo è il caso, per esempio, di due stati di spin sotto l’azione di un
campo magnetico
La rappresentazione grafica di un tale processo sarà:

Probabilità di transizione e probabilità condizionate


Indichiamo con  (; ) la probabilità di trovare il sistema, al tempo , nello stato , e con
 (; ) la probabilità di trovare il sistema, al tempo , nelle stato . Queste probabilità,
che caratterizzano i due stati al tempo  sono state chiamate funzioni di permanenza. Per
studiare un processo abbiamo bisogno di caratterizzare le modalità con cui un certo stato
si modifica nel tempo. Poiché il futuro dipende solo da presente, lo stato al tempo  + ∆
dipenderà solo dallo stato del sistema al tempo , quindi dalla funzione di permanenza.
Per caratterizzare la dinamica dello stato specificheremo come lo stato si trasforma dopo
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO50

l’intervallo ∆; lo stato si trasformerà effettuando una transizione della durata di ∆.
Allora, se il sistema al tempo  è nello stato , assumeremo che esista una probabilità che
durante il successivo intervallo temporale ∆ effettui una transizione nello stato  e tale
probabilità sarà proporzionale all’intervallo temporale:

 ( ;   + ∆) = ∆ (17)

mentre, se era al tempo , nello stato , la probabilità di transizione nello stato , durante
l’intervallo ∆, sarà indicata con

 ( ;   + ∆) = ∆ (18)

Stiamo incominciando a prevedere un formalismo che possa essere generalizzato. In


questo formalismo, le quantità rilevanti sono solo le probabilità di permanenza e le
probabilità di transizioni.
Come si vede, le probabilità di transizioni sono delle probabilità condizionate (solo se
il sistema è in  , allora agisce la probabilità di transizione  ( ;   + ∆), e solo se
era in , agisce  ( ;   + ∆)).
Poiché le probabilità di transizioni non dipendono dal valore di  che si sceglie, il
processo considerato si dice omogeneo nel tempo.
Se i livelli non fossero discreti noi tratteremmo con densità di probabilità,  ( ) tale
che  ( )  rappresentebbero la probabilità di trovare il sistema, al tempo , in uno
stato i cui valori di  si troverebbero nell’intervallo (  + ).
Si comprende che tale modello è appena più complicato del precedente. Possiamo
scrivere un sistema di due equazioni, una riferita allo stato  e una riferita allo stato .
Possiamo scrivere

 ( + ∆; ) =  (; ) (1 − ∆) +  (; ) ∆ (19a)

 ( + ∆; ) =  (; ) (1 − ∆) +  (; ) ∆ (19b)


Ciascuna di queste equazioni è una equazione riferita ad uno stato del sistema, quindi
ad un nodo del grafico. Dal nodo potrebbero entrare e uscire altre probabilità condizion-
ate. Spieghiamo le due equazioni. La probabilità di trovare il sistema nello stato  al
tempo  + ∆ ha due contributi. Se era nello stato  al tempo  deve rimanervi anche al
tempo successivo ∆, mentre se era nello stato  dovrà effettuare una transizioni. E così
si hanno i due contributi al secondo membro della prima equazione. In maniera analoga,
la seconda equazione di bilancio.

3.3.1 Master equations


Procedendo come abbiamo imparato in precedenza, troveremo le due seguenti equazioni
.
 (; )
= − (; ) +  (; ) (20a)

CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO51

 (; )
= − (; ) +  (; ) (20b)

Come si può vedere, il tasso di variazione di ciascuno stato, per esempio  (; ) 
, ha un termine che tiene conto della possibilità di lasciare lo stato  (−; )) e di un
secondo termine che tiene conto delle transizioni in arrivo ( (; )). Equazioni di questo
tipo sono note come master equations.
Questo sistema può essere risolto, note le condizioni iniziali,
µ ¶
 
 (; ) = +  (0; ) − exp [− ( + ) ]
+ +
µ ¶
 
 (; ) = +  (0; ) − exp [− ( + ) ]
+ +
Le soluzioni cambiano in maniera monotona dai valori iniziali  (0; ) e  (0; ), a quelli
per  → ∞,
 
 (; ) =  (; ) =
+ +

Allora, il sistema non smette di fluttuare tra i due stati anche per tempi lunghi.
Esercizio 3: Trovare le soluzioni del problema markoviano dicotomico.
Linee giuda per la risoluzione. Cercando soluzioni del tipo

 (; ) =  exp ()  (; ) =  exp ()

si trova il sistema omogeneo


( + )  −  = 0
 − ( + )  = 0
Le soluzioni che si ottengono dall’annullamento del determinante sono

=0  = − ( + )

Da  = 0, dalla prima equazione

 −  = 0

e dalla condizione
 +  = 1
le due soluzioni, indipendenti dal tempo
 
 =  =
+ +
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO52

Le due soluzioni generali dovranno essere


 
 (; ) = +  exp [− ( + ) ]  (; ) = +  exp [− ( + ) ]
+ +
Le costanti,  e  si troveranno dalle condizioni iniziali
 
 (0; ) = +  (0; ) = +
+ +
e quindi
 
 =  (0; ) −  =  (0; ) −
+ +

3.3.2 Matrice di Ricorrenza e Matrice di Markov


In maniera più formale possiamo scrivere le precedenti equazioni

 ( + ∆) = (1 − ∆)  () + ∆ () (21a)

 ( + ∆) = ∆ () + (1 − ∆)  () (21b)


Supponiamo di avere un vettore di componenti,

X = (   )

i primi membri rappresentano il vettore al tempo ( + ∆), mentre al secondo membro


riconosciamo lo stesso vettore, al tempo . Allora, se rappresentiamo questi vettori, come
matrici ad una sola colonna, le precedenti equazioni, assumono, in notazione matriciale,
la seguente forma,
 ( + ∆) =  ( + ∆ )  () (22a)
che in forma esplicita diventa
µ ¶ µ ¶µ ¶
 ( + ∆) 1 − ∆ ∆  ()
= (22b)
 ( + ∆) ∆ 1 − ∆  ()

dove il prodotto tra matrici è inteso, riga per colonna. Risulta evidente, che la matrice
quadrata contiene tutte le informazioni sulla dinamica del processo e contine le forme
esplicite sulle transizioni tra gli stati. Tale matrice
µ ¶
1 − ∆ ∆
 = (23)
∆ 1 − ∆
è detta matrice di ricorrenza. La matrice, che si ottiene scambiando righe con colonne:
µ ¶
1 − ∆ ∆
 = (24)
∆ 1 − ∆
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO53

è detta matrice di Markov. La matrice di Markov è la trasposta della matrice di ricorrenza,


 =  (25)
Notiamo, che la somma di tutte le righe della matrice di Markov (o delle colonne della
matrice di ricorrenza) è uguale all’unità
X
 = 1 (26)

Se invece di un vettore di sole due dimensioni, abbiamo un vettore di N dimensioni,


X = 1   −1    +1  

3.3.3 Equazione di Chapmann-Kolmogorov


Possiamo estendere la precedente analisi. Se guardiamo alle equazioni (19), al primo
membro abbiamo la distribuzione relativa ad uno stato al tempo +∆, mentre al secondo
membro abbiamo la somma di tanti termini quanti sono gli stati al tempo ; ciascuno
dei termini è costituito dalla funzione di permanenza nello stato iniziale per il prodotto
della probabilità di transizione (probabilità condizionatà) dallo stato iniziale allo stato
rappresentato al primo membro al tempo  + ∆. Se gli stati possibili, al tempo ,
sono , avremo una situazione descritta sotto (non sono disegnate le probabilità di
permanenza nei singoli stati; appare solo quella per lo stato ; ci sono invece le probabilità
di transizioni da tutti gli altri stati verso lo stato n):

Allora, avremmo  equazioni del tipo:


X

 (  + ∆) =  ( )  (27)
=1

dove  = 1 2 . Nella somma al secondo membro abbiamo anche lo stato  e la


probabilità di permanere in questo stato.
Avremo, se si passa al continuo,
Z
 (  + ∆) =  ( )  ( ;   + ∆) (28)
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO54

Abbiamo, al primo membro, la funzione di permanenza nello stato (  + ) al tempo
 + ∆ e al secondo membro la funzione di permanenza in uno stato qualsiasi  ( )
per la probabilità di transizione (probabilità condizionata) dallo stato ( ) allo stato
(  + ∆). Più in generale
Z
 ( ) =  ( 0 )  ( 0 ;  ) (29)

per   0. Queste equazioni sono note con il nome di equazioni di Chapman-Kolmogorov.

3.4 Random walk ed equazione di diffusione


L’equazione di diffusione è molto diffusa in diversi ambiti fisici. Ora mostreremo che
l’equazione di diffusione appare anche in alcuni processi stocastici (l’evoluzione temporale
di una variabile casuale è detto processo stocastico o random).
Supponiamo di voler studiare il seguente moto (random walk in una dimensione): una
particella parte da  = 0 al tempo  = 0; in un certo tempo  la particella arriva nella
posizione con coordinata  Nell’andare dalla posizione iniziale a quella finale, ad ogni
intervallo di tempo ∆ può avanzare o arretrare di un tratto arbitrario ∆, compatibile
con l’intervallo temporale. Sebbene non sia essenziale potremo anche supporre che i passi
siano in numero di . Poiché i passi sono casuali, assumeremo che il passo (transizione)
da  ad  + ∆, nella direzione positiva dell’asse avvenga con una probabilità  mentre
il passo (transizione) da  ad  − ∆ avvenga con una probabilità  = 1 −  (gli eventi
possibili sono solo due ed eventi consecutivi sono indipendenti).
Definiamo la funzione  ( ) come la probabilità che una particella partita, al tempo
 = 0 dalla posizione  = 0, dopo  eventi, sia al tempo  in . Ad ogni intervallo ∆ la
particella può andare di un tratto ∆ in avanti o indietro. Assumeremo che la funzione
al tempo +∆ dipende solo dal suo valore al tempo : il processo è assunto markoviano.
Di conseguenza, possiamo scrivere la seguente equazione di bilancio:

 (  + ∆) =  ( − ∆ ) +  ( + ∆ ) (1)

Questa equazione di bilancio ci dice che la probabilità che la particella sia in  al tempo
 + ∆ è la somma di due contributi che dipendono entrambi solo dalla posizione che la
particella occupa al tempo . Il primo contributo è dovuto al fatto che la particella era in
 − ∆ al tempo  e quindi, per essere al tempo  + ∆, in , doveva, con una probabilità
, saltare in  durante l’intervallo di tempo ∆. Il secondo contributo è dovuto al fatto
che al tempo  la particella era, invece, in  + ∆ e con probabilità  doveva saltare in ,
durante l’intervallo ∆.
Possiamo sviluppare in serie la funzione sia nel tempo che nello spostamento. Vi è
una differenza importante tra lo sviluppo in serie temporale e quello spaziale. Mentre
sappiamo cosa voglia dire sviluppare nella variabile temporale per tempi brevi, nella
variabile spaziale abbiamo dei problemi in quanto lo spostamento ∆ che subisce la
particella può essere anche grande, perché l’unica cosa che possiamo dire è che esso deve
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO55

avvenire durante l’intervallo temporale ∆. Allora, potremmo sviluppare la dipendenza


temporale, al primo ordine mentre quella spaziale fino al secondo ordine e scrivere,

 (  + ∆) '  ( ) + ∆ +  (∆) (2)

mentre, per lo sviluppo spaziale avremo

 ∆2  2  ¡ 2¢
 ( − ∆ ) '  ( ) − ∆ + +  ∆ (3)
 2 2
e
 ∆2  2  ¡ 2¢
 ( + ∆ ) '  ( ) + ∆ + +  ∆ (4)
 2 2
Se trascuriamo i termini al secondo ordine in ∆ e al terzo ordine in ∆, avremo

  ∆2  2 
 + ∆ = ( + )  − ( − ) ∆ + ( + )
  2 2
che si riduce a
  ∆2  2 
∆= − ( − ) ∆ + (5)
  2 2
Ora dividiamo per ∆, e consideriamo il limite per ∆ → 0:
½ ∙ ¸¾ ½ ¾
 ∆  1 ∆2  2 
= − lim ( − ) + lim
 ∆→0 ∆  ∆→0 2 ∆ 2

Se poniamo ∙ ¸
∆ 1 ∆2
 = lim ( − )  = lim (6)
∆→0 ∆ ∆→0 2 ∆

otterremo la seguente equazione

  2
= − + 2 (7)
  
Questa equazione è nota come equazione di Fokker-Planck.
Supponiamo ora che
= (8)
cioè, che la probabilità di fare una transizione a destra sia uguale a quella di fare una
transizione a sinistra. Allora,  = 0, e l’equazione di F.P. si riduce alla equazione di
diffusione. otteniamo
 2
= 2 (9)
 
che è l’equazione di diffusione. Allora, l’equazione di diffusione descrive il moto di una
particella che si muove, in maniera casuale, con le modalità descritte sopra (il futuro
dipende solo dal presente e le probabilità di transizioni sono costanti e proporzionali
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO56

all’intervallo temporale ∆). Inoltre, valendo la condizione (8) abbiamo assunto che sono
uguali le probabilità di saltare in avanti o indietro.
Il passaggio al continuo si verifica se i vari passi ∆ sono piccoli comparati con le
dimensioni lineari delle regioni in cui  () varia in maniera apprezzabile. In altre parole,
se si divide tutto il percorso in tratti ∆ in ciascuno dei quali  () è costante, allora tutti
i ∆ devono essere più piccoli di ∆.
Se si escludono le derivate seconde spaziali, la (7) diventa

 
= − (10)
 
In questi casi, stiamo assumendo che anche i passi spaziali significativi sono dello
stesso ordine di grandezza di quelli temporali.

3.4.1 La soluzione
Nel caso in cui, il processo è descritto dall’equazione di diffusione, la soluzione è una
gaussiana. Più precisamente, si può mostrare che il random walk continuo, nel limite
diffusivo, è processo aleatorio a valor medio nullo e varianza proporzionale al tempo, la
cui distribuzione è µ ¶
1 2
 (0 2) = √ exp −
4 4
Il motivo di questa espressione è che una gaussiana, di valor medio  e varianza  2 si
scrive à !
2
¡ ¢ 1 ( − )
  2 = √ exp −
2 2 2 2
Nell’ipotesi che abbiamo esposto la funzione
µ ¶
1 2
 ( ) = √ exp −
4 4

è tale che  ( ) rappresenta la probabilità che la particella che al tempo  = 0 era in
 = 0 sarà trovata al tempo  in (  + ).

3.5 Moto Browniano


Nel 1827 il botanico Robert Brown, durante una ricerca sul processo di fecondazione di
una specie di fiore, osservò al microscopio che i grani di polline del fiore, quando erano
posti in una sospensione acquosa, presentavano un rapido moto oscillatorio. Fino al 1860
l’esperimento di Brown non interessò alcun fisico. Successivamente diversi ricercatori
iniziarono ad approfondire gli aspetti sperimentali e teorici del moto dei grani, detto poi
moto browniano.
Caratteristiche del moto browniano:
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO57

a) il moto è incessante
b) il moto di un qualunque grano è casuale in ogni direzione e non è influenzato dalla
storia passata del grano
c) la velocità dei grani cresce al cresce della temperatura della soluzione
d) la velocità cresce al diminuire della grandezza dei grani
e) la velocità diminuisce al crescere della viscosità del fluido
Vari tentativi teorici furono fatti prima della definitiva spiegazione del fenomeno da
parte di Einstein (1905) e indipendentemente da parte di Smoluchowski (1906). Succes-
sivamente Langevin (1908) propose di affrontare lo stesso problema in maniera ancora
differente.
Partiremo dall’analisi del moto browniano secondo la fisica deterministica. Questo
significa che il moto di una di queste particelle verrà descritta come una particella soggetta
alla forza peso e ad una forza d’attrito, cioé useremo l’equazione del paracadutista. La
soluzione di questa equazione, come è noto, prevede una velocità tendenziale costante (e
poi nulla). Non si osserva nulla di tutto ciò. La velocità della particella browniana è
tendenzialmente una velocità termica,
r
3 
 =

dove la temperatura  è la stessa delle particelle del fluido in cui la particella è immersa.
Accurate misure fatte sul moto delle particelle browniane mostrano che la deviazione
quadratica media risulta proporzionale al tempo

 ( −   () )2 = 2 (a)

in maniera tale che lo spostamento medio


q √
 ( −   () )2  ∝ 

Un modello teorico dovrebbe essere in grado di spiegare una tale dipendenza.

3.5.1 Il tentativo deterministico


Per descrivere il moto di una particella, con una velocità non troppo elevata, in un fluido
continuo, viene utilizzata la formula di Stokes. Secondo tale legge, la resistenza offerta
dal fluido al moto di una sfera di raggio 0 si scrive

 = −v = − (60 ) v (1)

dove  è il coefficiente di attrito interno del fluido e v la velocità posseduta dalla sfera
all’istante considerato.
Se sul corpo agisce la sola forza di Stokes dovremo risolvere l’equazione

 = −

CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO58

la cui soluzione è µ ¶

 () = 0 exp − (2)

dove

= (3)

è detto tempo di rilassamento.
Per    , la velocità si annulla. Gli esperimenti mostravano invece, dei moti
incessanti.
Passiamo a considerare una forza esterna, per esempio la forza peso. Limitandosi
al caso unidimensionale e scegliendo l’asse  come direzione verticale potremo scrivere
l’equazione del moto come segue:
v 1
 =  − v (4a)
 
oppure
v 1
=− v (4b)
 
Questa equazione è nota agli studenti come equazione del paracadutista.
Allora, la (4b) diventa
v v
=− (4c)
 
Se al tempo  = 0 la velocità iniziale è 0 , allora la soluzione della (2), si trova usando
il metodo della separazione. Infatti, avremo
Z () Z 
v
= 0
0  − v 0

Posto

=−  = − 

si ha µ ¶

 () = 0 exp −

e ritornando alle variabili originali si trova
µ ¶

 () =  + (0 −  ) exp − (5)

Per    avremo
 ,  (6)
La velocità tende a diventare costante (velocità di deriva). Si osservi che lo stesso risultato
si ottiene, rapidamente, dalle (4) ponendo  = 0.
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO59

Se al tempo  = 0, la particella è nella posizione  = 0, la (5) può essere integrata e


si ottiene ∙ µ ¶¸

 () =   +  (0 −  ) 1 − exp − (7)

Per    si ottiene
 () '   =   (8)
Il moto classico prevede una proporzianalità tra lo spostamento e il tempo.
Per finire, se si deriva la (5), si trova che l’accelerazione della particella è data da
³ µ ¶
0  ´ 
= − exp − (9)
 

3.5.2 Il metodo di Einstein


Il moto browniano è in palese contrasto con l’idea classica newtoniana della determi-
nazione della traiettoria. Einstein aveva compreso che non era possibile conoscere la ve-
locità iniziale della particella browniana, perché il numero di collisioni che una particella
browniana subiva nell’unità di tempo era talmente elevato (circa 1021 collisioni per sec-
ondo) che non si poteva pretendere di sviluppare un formalismo basato sulla conoscenza
simultanea della posizione e della velocità ad un certo istante. La meccanica newtoniana
doveva essere abbandonata (l’articolo sul moto browniano è del 1905, stesso anno in cui
scrive della relatività speciale e dell’effetto fotoelettrico; tutti questi casi concordavano
nel ritenere che la meccanica newtoniana non aveva validità generale).
Un aspetto del moto browniano è quello dell’emergenza di tale moto solo ad un tempo
ben preciso. Una discussione del modello collisionale del moto browniano porterebbe alla
comparsa di diversi tempi caratteristici all’interno dello stesso fenomeno.
Il tempo collisionale   .
Si stima che il numero di collisioni tra una particella browniana e una qualsiasi par-
ticella del fluido in cui le particelle browniane sono sospese è di circa 1021 collisioni per
secondo. Questo significa che il tempo medio di collisione tra una particella browniana e
le particelle del fluido è dell’ordine di

  ' 10−21 

Se avessimo l’opportunità di seguire sperimentalmente una particella browniana a


valori di questo ordine di grandezza vedremmo le singole collisioni tra una particella
browniana e le particelle del fluido. Il loro moto sarebbe rettilineo, prima e dopo le col-
lisioni e il processo sarebbe deterministico, in senso newtoniano (rimarrebbe il problema
del numero elevato di particelle).
Il tempo mesoscopico 
Questo tempo caratterizza uno spostamento finito, diciamo ∆r, che subisce una par-
ticella browniana come effetto cumulativo di un numero elevato di collisioni che essa
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO60

subisce. Questo tempo, durante il quale la particella browniana si sposta di un tratto


finito, deve necessariamente essere molto maggiore del tempo collisionale.

   

Questo significa anche che non possiamo andare nel limite per  tendente a zero,
perché altrimenti il tipo di moto stesso scomparirebbe. Allora, il moto browniano emerge
a tempi molto più lunghi del tempo collisionale. La descrizione di questo moto emergente
può essere fatta solo con teorie probabilistiche.
Il tempo osservativo  
Questo è il tempo durante il quale una particella browniana partita da una posizione
r = 0, arriva ad una nuova posizione r, diversa da zero. Questo è l’intervallo temporale
accessibile sperimentalmente al moto della particella browniana. Dovrà essere

   

Einstein, secondo il suo modo drastico di operare, non pensa più alla meccanica new-
toniana e fa ricorso ad un approccio totalmente nuovo (Langevin riprenderà invece il
formalismo newtoniano e lo reinterpreterà)
L’altra idea che sta dietro all’interpretazione del moto browniano da parte di Einstein
(e poi di Smoluchowski) è la condizione di assenza di influenza del passato sulla storia
futura della particella browniana: solo il presente condizione il futuro e non il passato. Il
moto browniano diventa anche il prototipo dei processi markoviani.
Ipotesi del modello di Einstein
1) ipotesi cinetica: le particelle browniane partecipano dell’agitazione termica del
mezzo in cui sono sospese e hanno quindi, all’equilibrio, una energia cinetica media di
traslazione pari a 3  2.
Questa è sicuramente una ipotesi importante e la velocità delle particelle browniane
deve tendere a quella termica. Le particelle di massa  e quelle di massa  hanno la
stessa energia cinetica media.Tuttavia, essendo le masse differenti, le loro velocità saranno
differenti,
r
3 
 =

2) Ogni particella browniana si muove in maniera indipendente dalle altre.
3) ipotesi di indipendenza statistica di eventi consecutivi per il moto della particella
browniana: esiste un tempo  che sebbene piccolo da un punto di vista macroscopico, è
abbastanza grande da un punto di vista microscopico, in maniera tale che durante l’inter-
vallo  molte molecole del fluido collidono con la particella browniana e il trasferimento
complessivo di quantità di moto da parte del mezzo alla particella produce uno sposta-
mento finito ∆r della sua posizione originale; dopo un’altro intervallo di tempo  , un
altro trasferimento complessivo di quantità di moto fa avvenire un’altro spostamento e i
due spostamenti sono tra loro incorrelati.
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO61

Inoltre, è importante ribadire che la misura sperimentale cui possiamo accedere è mag-
giore dell’intervallo temporale  e quest’ultimo è molto più grande del tempo collisionale.
Se avessimo l’opportunità di andare a tempi osservativi più piccoli del tempo collisionale,
l’ambiente sarebbe risolto nelle sue parti, vedremmo la particelle del fluido come singole
particelle, il loro moto sarebbe deterministico e scomparirebbe il moto browniano. Al-
lora, affinché l’ambiente rimanga tale, cioè come un sistema ad infiniti gradi di libertà
non risolvibile nelle sue parti, occorre limitarsi a valori di intervallo temporale brevi, ma
maggiori del tempo  (    ).
Come abbiamo detto, il valore di ogni spostamento ∆r è in generale differente dal
precedente. La variabile ∆r è una variabile casuale e si può definire una densità di
probabilità di transizione  (∆r  ) per essa. Ci limiteremo al caso unidimensionale.
Questa trattazione, con ∆ = ∆ = ∆ è stata già fatta in precedenza.
L’equazione che scriverà Einstein è essenzialmente una equazione di Chapman-Kolmogorov
(non nota al tempo di Einstein)
Z
 (  + ∆) =  ( )  ( ;   + ∆) (1)

Abbiamo, al primo membro, la funzione di permanenza nello stato (  + ) al tempo
 + ∆ e al secondo membro, nell’integrando, la funzione di permanenza in uno stato
qualsiasi  ( ) per la probabilità di transizione (probabilità condizionata) dallo stato
( ) allo stato (  + ∆). L’integrazione è fatto su tutti gli stati al tempo , ma bisogna
ricordarsi che sono permesse solo le transizioni che avvengono durante l’intervallo ∆.
Nell’articolo sul moto browniano, Einstein pone
 =+∆  = ∆
dove ∆ può essere sia positivo che negativo.

Bisogna valutare le transizioni dalla posizione  + ∆ alla posizione  (e le tran-


sizioni dalla posizione  − ∆ alla posizione ),in un intervallo temporale  = ∆. Con
 (∆  ) ∆ indicheremo la probabilità di transizione, per una particella browniana, da
una posizione  + ∆ ad una posizione , durante l’intervallo temporale  = ∆ (e con
 (−∆  ) ∆ l’analoga probabilità per le transizioni  − ∆ → ).
La densità di probabilità di transizione deve essere ben normalizzata:
Z∞
 (∆  ) ∆ = 1 (2)
−∞
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO62

La forma della probabilità di transizione deve essere tale che l’integrale su tutte gli
intervalli spaziali ∆ di provenienza, durante il fissato intervallo temporale  , diano la
certezza della transizione.
Infine Einstein assume che la probabilità di transizione sia una funzione pari (principio
del bilancio dettagliato),
 (∆  ) =  (−∆  ) (3)
La  non dipende dalla posizione iniziale, sia nello spazio che nel tempo.
Seguendo la notazione di Einstein, introduciano la distribuzione delle particelle brow-
niane  ( ) ( ( ) nella precedente notazione era una probabilità di occupazione di
uno stato). Essa ci dice che
 ( ) 
rappresenta il numero medio di particelle browniane contenute nell’intervallo (  + )
al tempo . Si trova immediatamente che
Z∞
 (  + ∆)  =   ( + ∆ )  (∆  ) ∆ (4)
−∞

Poiché ∆ è piccolo possiamo scrivere, con buona approssimazione,



 (  + ∆) '  ( ) + ∆ (5)

Inoltre, sviluppiamo in serie di Taylor, la stessa funzione dentro l’integrale, ma rispetto
a ∆:
 ∆2  2 
 ( + ∆ ) =  ( ) + ∆ + +  +  (6)
 2 2
Non possiamo fermarci al primo ordine perché, seppur piccolo, ∆ è arbitraria e non
abbiamo per il momento alcuna indicazione su dove fermare l’espansione. La (4) diventa
Z∞ Z∞
 
 ( ) + ∆ =  ( )  (∆  ) ∆ + ∆ (∆  ) ∆ +
 
−∞ −∞
Z∞
2 ∆2
+  (∆  ) ∆ + 
2 2
−∞

Poiché la  è pari, possiamo eliminare tutti i momenti dispari:


Z∞ Z∞
 2 ∆2
 ( ) + ∆ =  ( )  (∆  ) ∆ + 2  (∆  ) ∆ + 
  2
−∞ −∞
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO63

Ricordando la condizione di normalizzazione, possiamo eliminare i termini  ( ) da


ambo i membri e alla fine otterremo:
Z∞
  2 ∆2
∆ = 2  (∆) ∆ + 
  2
−∞

Ora, assumiamo che gli ordini superiori al quarto siano trascurabili (questa ipotesi in
realtà si è dimostrata non è necessaria, Pawula) e poniamo
Z∞
1
= ∆2  (∆) ∆ (7)
2∆
−∞

Otterremo
 2
= 2 (8)
 
Abbiamo avuto modo di dire che la soluzione di tale equazione è
µ ¶
1 2
( ) = √ exp − (9)
4 4

e può anche essere interpretata dicendo, (ricordiamo che la traiettoria di ciascuna parti-
cella browniana è indipendente dalle altre) che se al tempo  = 0 una particella browniana
è in  = 0, allora la probabilità di trovare la stessa particella, al tempo , in (  + ) è
µ ¶
1 2
√ exp − 
4 4

Il confronto con la distribuzione di Gauss generale ci dice che lo spostamento medio


è nullo
  () = 0 (10)
mentre la varianza è
 2 () = 2 (11)
Per ottenere, un adeguato spostamento medio della particella browniana, possiamo
usare la radice quadrata di questo valore (spostamento quadrato medio):
√ √
 =  2  = 2 (12)

che conferma la dipendenza dalla radice del tempo dello spostamento sperimentale.
Rimane la determinazione del coefficiente di diffusione , per operare il confronto con
i dati sperimentali.
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO64

3.5.3 Fluttuazione e dissipazione secondo Einstein


Secondo Einstein il fluido assorbe energia dalla particella per dissipazione ma cede al-
la particella energia attraverso le fluttuazioni del mezzo. Tra questi due contributi vi
deve essere una sorta di equilibrio dinamico che consente alla particella di avere uno
spostamento medio nullo.
Occorre trovare il legame tra i due contributi. Si può mostrare usando la teoria
cinetica che il processo diffusivo emerge da due condizioni:la conservazione della materia
a livello locale, cioé dalla verifica dell’equazione di continuità:
 Φ
=− (13)
 
dove  ( ) è la densità numerica delle particelle e da una legge fenomenica, che determina
i flussi come gradienti di campi scalari. Se ci riferisce alla concentrazione di particelle
allora il flusso al secondo membro della (13) può scriversi (legge di Fick):


Φ = − (14)

Abbiamo quindi già l’espressione del flusso diffusivo, Φ .
Il moto browniano è il moto di una particella (più particelle ma in moto indipen-
dente tra di loro) immerse in un ambiente esterno. Per collegare il coefficiente di diffu-
sione ai parametri dissipativi, anch’essi dipendenti anche dal mezzo occorrerà ipotizzare
che il sistema costituito dalla particella e dall’ambiente costituiscano un sistema ter-
modinamicamente chiuso. In questo modo, utilizzando la distribuzione di equilibrio di
Maxwell-Boltzmann si potrà ottenere il legame tra il flusso diffusivo con quello dissipati-
vo. Ciò sarà possibile perché ipotizzeremo che il sistema complessivo non è molto lontano
dall’equilibrio.
Dobbiamo determinare il flusso dissipativo. Un flusso può scriversi come prodotto
della densità numerica per la velocità (per ottenere una densità di corrente occorre molti-
plicare per una proprietà molecolare; per esempio, se si moltiplica per la carica si otterrà
una densità di corrente elettrica):
Φ =  (15)
dove  ( ) è la densità numerica delle particelle browniane. La velocità può dedursi
dalla legge di Stokes:

= =  (16)

dove  = 1, è la mobilità. In generale il coefficiente d’attrito non è costante perché le
forze d’attrito, dovute all’interazione tra una particella e il mezzo, hanno un carattere non
locale, con un tempo di correlazione (vedi il paragrafo sulla funzione memoria)  6=
0 che ci narrano della non markoviatà del processo dissipativo. Grazie all’ipotesi di
markovianità (per  → 0 la dipendenza temporale di  ha un carattere di delta di
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO65

Dirac) la dipendenza del coefficiente d’attrito si può assumere costante. Allora, l’intensità
del flusso dissipativo potrà scriversi

Φ =  ()  =  ()  () (17)

Questo significa che il flusso complessivo delle particelle browniane è costituito da due
parti:

Φ = − +  ()  () (18)

Ora, assumiamo che i due contributi, in condizioni di stazionarietà, siano eguali:

 =  ()  ()

ovvero
 
=  ()  (19)
 
Se la forza deriva da un potenziale

− () =  ()  (20)

e la soluzione (19) diventa


µ ¶

 () = 0 exp −  () (21)

Poiché il sistema particelle browniane e ambiente costituiscono un sistema termodi-
namicamente chiuso, le particelle browniane seguono le stesse leggi statistiche del fluido
in cui sono sospese. Quindi, all’equilibrio, la legge di dipendenza dalla variabile spaziale
segue la legge di Boltzmann:
µ ¶
 ()
 () = 0 exp − (22)
 

Dal confronto, tra la (21) e la (22) troviamo


 1
= (23)
  
Se le particelle browniane sono assunte sferiche di raggio 0 e il fluido è assunto essere un
mezzo continuo, allora il coefficiente d’attrito è dato dalla legge di Stokes

 = 60 (24)

dove  è il coefficiente di viscosità. In definitiva, avremo



 =   =  (25)
60
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO66

Nella (25), i coefficienti di proporzionalità sono, la costante di Boltzmann, il coeffi-


ciente di viscosità e la dimensione delle particelle del fluido. Tale relazione può essere
usata per determinare la costante di Boltzmann (Perrin, 1908) o, in maniera altermativa
le dimensioni atomiche, o se si preferisce, si può usare per la determinazione del numero
di Avogadro ( ):  =  .
La (25) è la conseguenza dell’uguaglianza dinamica tra il flusso di origine diffusivo
(fluttuazione) e quello dissipativo e in ciò anticipa il teorema di fluttuazione e dissipazione.
Conclusione, se sostituiamo la (25) nella (11) possiamo dire che nel moto browniamo lo
spostamento quadratico medio di una particella browniana è dato dalla seguente relazione:

 2 () = 2   (26)

3.6 Appendici al capitolo


Di seguito sono riportate due appendici, una sul random walk nel quale si mostra che
il comportamento diffusivo del random walk e’ una conseguenza del teorema del limite
centrale ed una seconda nella quale è descritto il metodo che Langevin utilizzò per spiegare
il moto browniano.

3.6.1 Appendice: random walk rivisitato


Abbiamo già trattato il random walk, mettendo in risalto il suo carattere markoviano.
Il moto browniano non è altro che un random walk con uguale probabilità di un passo
in avanti oppure un passo indietro. Nel modello che tra poco mostreremo questa uguale
probabilità vale 1/2. Abbiamo mostrato che, nel random walk, la funzione di distribuzione
che descrive gli spostamenti  ( ) soddisfa, sotto certe condizioni, ad un’equazione di
diffusione il cui coefficiente è
1 (∆)2
 = lim (1)
∆→0 2 ∆

e la soluzione dell’equazione di diffusione è una gaussiana. Ora, vogliamo riconsiderare


lo stesso processo per evidenziare il suo carattere stocastico.
Mostreremo che il comportamento diffusivo del random walk e’ una con-
seguenza del teorema del limite centrale che asserisce che la somma di un numero
elevato di variabili casuali indipendenti (nel caso specifico i passi in avanti e indietro)
tende ad una distribuzione gaussiana con larghezza che cresce in modo diffusivo. Pertan-
to potremmo dire che in tutti i sistemi fisici nei quali ci sia un qualche rumore (che ora
preciseremo) che causa delle fluttuazioni casuali, apparirà un comportamento diffusivo.
Infatti, mostreremo che esso consiste essenzialmente nella somma di un numero arbi-
trario di variabili casuali, assunte indipendenti. Ci limiteremo al caso unidimensionale,
che può considerarsi come la proiezione lungo un asse cartesiano di un moto in tre di-
mensioni. Assumiamo che il moto complessivo della particella avvenga in  intervalli
temporali ∆. Al tempo  = 0, la particella sia in  = 0. In ogni intervallo temporale
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO67

∆, la particella può saltare di un tratto ∆ a destra, con probabilità  = 12 e lo in-
dicheremo con (+∆), e a sinistra di un tratto (−∆) con una probabilità  = 12. Ogni
spostamento è indipendente dal precedente. Ogni spostamento definisce una variabile
aleatoria  che può prendere i valori  = (∆ −∆), con uguale probabilità. L’intero
processo, definisce una nuova variabile aleatoria, , definita da
X

=  (2)
=1

che può prendere i valori


 = 1 + 2 +  +  (3)
Possiamo valutare il valor medio e la varianza del processo stocastico complessivo,
partendo dal generico  .
Valutiamo il valor medio del generico spostamento:

X
2
1 1
h i =   = (∆) + (−∆) = 0 (4)
=1
2 2

e poiché
X

hi = h i
=
avremo
hi = 0 (5)
Valutiamo la varianza. ­ ®
 2 = 2 − h i2
troveremo, poiché il valor medio è nullo,
­ ® 1 1
 2 = 2 = (∆)2 + (−∆)2 = (∆)2 (6)
2 2
Poichè tutti gli spostamenti sono indipendenti gli uni dagli altri, la varianza di  è
la somma delle varianze delle  :
X
 2 =  2

avremo
 2 =  (∆)2 (7)
La varianza in termini del tempo
Ora, il tempo complessivo trascorso sarà

 = ∆
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO68

per cui

= (8)
∆
e la varianza diventa
(∆)2
 2 =  (9a)
∆
La dipendenza della deviazione standard dalla radice del tempo
q √
 2 ∝  (9b)

è un risultato del solo carattere stocastico del moto. In particolare, il processo è a valor
medio nullo e varianza data dalla (7).
Come avevamo annunciato il comportamento diffusivo del random walk e’ una
conseguenza del teorema del limite centrale.
Passiamo a confrontare tale risultato con la descrizione continua precedentemente
proposta. Avevamo trovato, nel caso del random walk continuo che, il coefficiente di
diffusione era
1 (∆)2
 = lim (9)
∆→0 2 ∆

quindi, il modello continuo prevede un moto a valor medio nullo e varianza

 2 {} = 2 (10)

Ma il limite per ∆ tendente a zero equivale per la (7) ad  tendente all’infinito, cioè il
numero di eventi (se si pensa alle collisioni in un gas questi eventi sono descritti da una
distribuzione di Poisson) deve diventare molto grande. Ma quando un numero di eventi
indipendenti, aventi valor medio e varianza finita, tende all’infinito, la distribuzione
che caratterizza l’evento complessivo deve tendere ad una distribuzione gaussiana, sotto
opportune condizioni (teorema del limite centrale). Allora, la nuova analisi del random
walk ci riporta, nel caso continuo, al precedente: esso è un processo aleatorio a valor
medio nullo e varianza proporzionale al tempo, la cui distribuzione di probabilità è
µ ¶
1 2
 ( ) =  (0 2) = √ exp − (11)
4 4

Il motivo di questa espressione è, ricordiamo ancora, che una gaussiana, di valor medio
 e varianza  2 , si scrive:
à !
2
¡ ¢ 1 ( − )
  2 = √ exp − (12)
2 2 2 2

Un processo gaussiano la cui varianza è lineare in  è un processo stocastico detto di


Wiener.
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO69

3.6.2 Appendice: equazione di Langevin del moto browniano


Nello studio del moto browniano, partendo dal modello microscopico collisionale si trova
che la variazione della quantità di moto di una particella è dovuto al contributo di due
termini opposti:
∆ = −20 + 2 (0 + 1 + −1 )
Entrambi i contributi al secondo membro si originano dall’interazione della particella
browniana con le particelle in cui essa è sospesa
Il primo termine a destra era il termine dissipativo dovuto alla forza di Stokes, mentre
il secondo, di natura random è quello attraverso il quale il fluido restituisce alla particella
l’energia dissipata.
Nel 1908 Langevin propose, sulla base di questa intuizione, che il moto della particella
browniana potesse pensarsi retto dalla seguente equazione:
 
 = −  +  () (1)
 
dove  è la velocità della particella browniana,  =  il tempo di rilassamento e  ()
sia una forza stocastica. Essa ha la forma di equazione di Newton ma con un termine
non deterministico,  (). La forza non deterministica indica chiaramente che l’intero
processo è stocastico.

Soluzione nel caso unidimensionale


Si veda Feynmann Volume I par.41. Questa trattazione è vicina a quella originaria fatta
da Langevin nel 1908.
Considereremo come direzione di moto il solo asse x. L’equazione diventa,
 1
 +  =  () (1)
 
dove la forza esterna è la forza di Langevin (forza esterna random).
Assumiamo che il valor medio della forza sia nullo;

h ()i = 0 1 −  (2)

e prendiamo il valor medio della (1):


 h i 1
 + h i = 0
 
la soluzione di tale equazione è
µ ¶
­ 0® 
h ()i =  exp − (3)

dove abbiamo posto
  =  (4)
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO70

La velocità media decade con un tempo di rilassamento dato dalla (4). Ritorniamo
alla (1) e scriviamola come
2  1 
+ =  () (5)
2   
dove ricordiamo  () è una forza per unità di massa.
Siamo interessati ora allo spostamento quadratico medio, cioé  2 . Quindi
abbiamo bisogno di una equazione differenziale per  2 .
Prendiamo la derivata prima di 2 :
 ¡ 2¢ 
 = 2
 
e la derivata seconda, derivando il precedente risultato, sarà
µ ¶2
2 ¡ 2 ¢ 2  
2
 = 2 2 + 2
  

Da queste equazioni otteniamo


 1  ¡ 2 ¢
=  (6)
 2 
e µ ¶2
2  1 2 ¡ 2 ¢ 
 2 = 2
 − (7)
 2  
Se moltiplichiamo la (5) per 

2  1 
 2
+  =  ()
   

possiamo riscriverla, usando le (6) e (7) come segue


µ ¶2
1 2 ¡ 2 ¢  1 1  ¡ 2¢
 − +  =  ()
2 2    2 

che riscriviamo come


µ ¶2
2 ¡ 2 ¢ 1  ¡ 2¢ 
 +  − 2 = 2 () (8)
2    

Prendiamo il valor medio, assumendo che

  ()  () = 0 2 −  (9)

cioè è assunto che tra la posizione istantanea e l’accelerazione istantanea non vi è cor-
relazione. Questa ipotesi che Langevin giustifica dicendo a causa della irregolarità di
CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO71

 () è in realtà equivalente all’ipotesi di Einstein sulla indipendenza statistica di eventi


consecutivi.. Prendendo la media della (8) si ottiene

2 ( 2 ) 1  ( 2 )
+ = 2  v2  (10a)
2  

Se svolgessimo lo stesso calcolo per le altre componenti troveremmo

2 (  2 ) 1  (  2 )
+ = 2  v2  (10b)
2  
e
2 (  2 ) 1  (  2 )
+ = 2  v2  (10c)
2  
In definitiva potremo scrivere

2 ( 2 ) 1  ( 2 )
+ = 2  v2  (11)
2  

con l’ovvio significato dei simboli.


Per la legge di equipartizione dell’energia, l’energia cinetica media per molecola ci dice
che
1 3
  v2 =  3 −  (12)
2 2
3
 v2 = (13)

Ora la (11) assume la forma

2 ( 2 ) 1  ( 2 ) 6
2
+ = (14)
   

La soluzione di questa equazione è


∙ ¸
2 6 2  ¡ − 
¢
  =  − 1− (15)
  

dove le costanti sono state scelte in maniera tale che al tempo  = 0 , sia  2  che la
sua derivata prima siano nulle. Osserviamo che, poiché
µ ¶
−   1 2
 '1− + −  (16)
  2  2

per     , si ha
3 2
 2 () '  = v2  2 (17)

CAPITOLO 3. PROCESSI MARKOVIANI, RANDOM WALK E MOTO BROWNIANO72

La soluzione dei tempi brevi è consistente con la soluzione reversibile

 = v

Se invece si va nel limite opposto     , si ottiene la soluzione irreversibile

6  
 2 () = 2 () '  = (6 )  (18)

Ricordiamo che Einstein aveva trovato per il coefficiente di diffusione l’espressione

= (19)
60
Il suo approccio aveva portato, nel caso unidimensionale ad moto a valor medio nullo e a
varianza proporzionale al tempo
  = 0 (20)
e
 2 () = 2 = 2 (21)
In tre dimensioni, si sarebbe ottenuto

h ()i = 0 (22)

2 () = 2 () = 6 (23)


Se si confronta la (18), di Einstein con la (23) di Langevin si vede che quest’ultimo prevede
un coefficiente di diffusione

 =  = (31)
60
che è uguale a quello di Einstein. I due approcci portano agli stessi risultati.
Capitolo 4
L’entropia statistica

La Termodinamica studia i sistemi macroscopici senza riferimento, in linea di principio


alla loro composizione molecolare. La meccanica newtoniana, o le formulazioni equivalen-
ti, deteminano il moto dei possibili costituenti molecolari dei corpi macroscopici. Occorre
provare a coniugare questi due formulazioni, che si riferiscono a due distinti mondi, il
mondo macroscopico e quello microscopico.
La coniugazione avviene attraverso l’introduzione della teoria della probabilità.
La teoria della probabilità tratta della predizione di eventi casuali, quindi non descrivibile
con concetti deterministici.
Esempi
1) Il lancio di una o più monete uguali, ma indipendenti e distinguibili.
Quando si lancia una moneta non possiamo predire con certezza che esca testa (T) op-
pure croce (C). Diciamo che abbiamo una certa probabilità che esca testa e una certa
probabilità che esca croce.
Se la moneta non è truccata, possiamo assumere che i due eventi, testa o croce siano
equiprobabili. In tal caso, si possono fare una serie di considerazioni quantitative.
Supponiamo di complicare un poco il nostro esperimento. Prendiamo quattro mon-
ete e lanciamole. I possibili risultati di ogni lancio sono i seguenti sedici risultati, che
raggrupperemo nel modo seguente:

Macrostati Microstati
4 teste TTTT
3 teste e 1 croce TTTC,TTCT;TCTT,CTTT
2 teste e 2 croci TTCC,TCTC,CTTC,TCCT,CTCT,CCTT
1 testa e 3 croci CCCT,CCTC,CTCC, TCC
4 croci CCCC

Il nostro modo di raggruppare i 16 risultati evidenzia che, “2 teste e 2 croci” è il risultato


che può, con maggiore frequenza, realizzarsi. La prima colonna della tabella è intitolata
“Macrostati”, la seconda “Microstati”. Allora, possiamo dire che abbiamo 5 macrostati,
ognuno che si può realizzare con una differente probabilità. Il macrostato “2 teste e 2
croci”, è quello che la maggiore probabilità di realizzarsi.
73
CAPITOLO 4. L’ENTROPIA STATISTICA 74

Supponendo che ciascuna moneta sia indipendente dalle altre, di conseguenza, ogni mi-
crostato ha una eguale probabilità di realizzarsi. Tuttavia, se noi eseguissimo moltissime
volte il lancio delle quattro monete constateremmo che si realizza con maggiore frequenza
lo stato macroscopico “2 teste e 2 croci”.
2) il lancio di  particelle in un contenitore, diviso in due parti
Supponiamo di avere  biglie e di lanciarle una alla volta, in un contenitore, diviso in due
parti,  e , di volume differente,  e  . Se assumiamo che ogni lancio sia indipendente
dal precedente e che tutte le biglie finiscano, con certezza, nel contenitore, potremo
costruire una tabella molto più grande e mostrare tutti i possibili risultati del lancio delle
biglie e valutare lo stato macroscopico più probabile. Possiamo evitate tutto ciò facendoci
aiutare dal calcolo combinatorio. Troveremo che il numero di biglie contenute, in  , cioè
 delle  biglie, è dato dalla seguente espressione,
µ ¶
 !
= (4.1)
  ! ( −  )!
Questa espressione sintetizza sia il risultato della tabella, in cui avevamo solo  = 4, che
qualsiasi altro risultato, per  arbitrario. Il calcolo combinatorio è la tecnica che arriva
in soccorso della teoria della probabilità quando deve esplicitare le sue inferenze.
Il risultato più rilevante dell’analisi della quattro biglie era l’affermazione dell’esistenza
di uno risultato con maggiore probabilità di realizzazione rispetto a tutti gli altri, e
questo corrispondeva ad uno dei possibili macrostati, che a sua volta era caratterizzato,
dall’avere in corrispondenza il maggior numero di microstati. Cioè, si realizzava con
maggiore frequenza, il macrostato, cui corrispondevano il maggior numero di microstati.
Questa particolarità, rende il macrostato con maggior possibilità di realizzazione, par-
ticolare, rispetto agli altri, tanto che, la teoria cinetica e poi la meccanica statistica,
hanno assunto che, lo stato che si realizza con maggiore frequenza è uno stato
di equilibrio.
Poiché la termodinamica si interessa di relazioni tra stati di equilibrio, dobbiamo indagare
le condizioni per la realizzazione degli stati di equilibrio, per poter conciliare il mondo
microscopico con quello macroscopico.
Abbiamo il primo indizio su come iniziare la nostra indagine sulla ricerca del legame tra
la meccanica newtoniana che governa il mondo microscopico e il mondo macroscopico in
stati di equilibrio.
Abbiamo bisogno di studiare quale sia il valore  che massimizza la relazione (4.1).
Poiché si considerano sempre un numero elevato di particelle, si passa dalla (4.1) al
logaritmo della (4.1). Poi si assume che l’argomento del logaritmo sia una variabile
continua e dopo ancora si utilizza un’approssimazione del fattoriale, che sempre compare
in questi tipi di conti. Vediamo come.
Stabilire il valore  che massimizza la relazione (4.1), equivale a ricercare il massimo
del logaritmo della (4.1), rispetto a  .
Indichiamo il numero di stati microscopici accessibili al sistema con
!
Ω= (4.2)
 ! ( −  )!
CAPITOLO 4. L’ENTROPIA STATISTICA 75

e passiamo al logaritmo µ ¶
!
ln Ω = ln (4.3)
 ! ( −  )!
Come si vede, abbiamo a che fare con il logaritmo di un numero molto elevato. Si
può approssimare il ln  con la funzione  = ln , e mostrare che vale la seguente
approssimazione di Stirling:
ln ! '  ln  −  (4.4)
Ora, le quantità sono funzioni continue e per trovare il massimo della funzione (4.3) si
può derivare rispetto ad  e porre il risultato uguale a zero. Allora, possiamo scrivere

ln Ω = ln (!) − ln ( !) − ln [( −  )!]

e poi applicare Stirling:

ln Ω =  ln  −  − [ ln  −  ] − {( −  ) ln [( −  )] − ( −  )}

Ora possiamo derivare rispetto a  , e troveremo


µ ¶
  − 
ln Ω = ln [( −  )] − ln  = ln
 

Ponendo µ ¶
 − 
ln =0

troviamo, che il valore più probabile si ottiene quando

 =
2
Abbiamo ritrovato il risultato che avevamo dedutto dal precedente esempio, ma senza far
uso di tabelle.

Lo stato macroscopico che si realizza con maggiore probabilità, e che quindi


corrisponde ad uno stato di equilibrio, è quello che rende massimo il log-
aritmo degli stati microscopici possibili, associati ad un determinato stato
macroscopico.

Il risultato precedente ha anche una sua verifica sperimentale. È l’espansione libera. Un


gas potendo decidere se rimanere confinato o distribuirsi in egual misura tra due porzioni
di spazio va naturalmente verso una equa distribuzione spaziale. E quando abbiamo
calcolato l’entropia di una espansione libera, abbiamo trovato
¡ ¢
∆ =  ln 2
CAPITOLO 4. L’ENTROPIA STATISTICA 76

L’entropia dell’espansione libera e la precedente analisi sembrano suggerire, che si pos-


sa determinare la variazione di entropia di un sistema macroscopico, valutando la con-
dizione che rende massima il numero di stati microscopici possibili, compatibili con lo
stato macroscopico, e quindi ponendo,

∆ =  ln Ω (4.5)

dove Ω, rappresenta il numero di stati microscopici possibili, associati al determinato


stato macroscopico. Questa formula è scritta sulla lapide mortuaria di L. Boltzmann,
anche se fu Planck fu il primo a scriverla in maniera esplicita.

4.1 La distribuzione più probabile


All’equilibrio la distribuzione dipende solo dal modulo della velocità e la quantità rilevante
è l’energia. Per utilizzare lo stesso formalismo che abbiamo usato nello spazio reale,
abbiamo bisogno di discretizzare l’energia, in maniera tale che si possa pensare ad un
certo numero di scatole, ciascuna etichettata, con un valore dell’energia  . Ovviamente,
avremo un numero piuttosto grande di scatole:

1  2        

Abbiamo imparato che le uniche informazioni che ci servono per dedurre la distribuzione
più probabile, cioè, quella che rappresenta lo stato di equilibrio, sono i numeri di particelle
che possiamo porre in ciascuna scatola energetica:

1  2          
Tuttavia, abbiamo dei vincoli che condizioneranno la distribuzione di particelle nelle varie
celle energetiche. Se il sistema che consideriamo è isolato, allora sia il numero di particelle
che l’energia totale si conserveranno:
X X
 =    =  (4.6)
 

La determinazione del numero di modi in cui possiamo distribuire le particelle nelle scatole
energetiche, sarà
!
Ω= (4.7)
1 !2 !     !   
Dobbiamo valutare il massimo della funzione
X
ln Ω = ln ! − ln ( !) (4.8)

con i vincoli imposti dalle condizioni (4.6).


CAPITOLO 4. L’ENTROPIA STATISTICA 77

Utilizzando il metodo dei moltiplicatori di Lagrange, troveremo che, il numero di occu-


pazione,  , dello stato con energia  , è
 =  exp (− ) (4.9)
dove le costanti  e  devono essere determinate.
Prova
Possiamo utilizzare la formula di Stirling, e scrivere
X
ln Ω =  ln  −  − [ ln  −  ]

che per la prima delle (4.6) si riduce a


X
ln Ω =  ln  −  ln  

Considerando le funzioni continue, calcoliamo il differenziale rispetto ai numeri di occu-


pazione
X 
 (ln Ω) = − ( ln  ) 


che diventa X
 (ln Ω) = − (ln  + 1) 

Dobbiamo imporre che X
− (ln  + 1)  = 0 (4.10)

Dai vincoli sulla conservazione del numero di particelle e dell’energia avremo
X X
 = 0   = 0 (4.11)
 

Grazie alla (4.11), la (4.10), si può anche scrivere


X
ln   = 0 (4.12)

Allora, per massimizzare ln Ω abbiamo tre condizioni, descritte dalle (4.11) e (4.12);
poiché abbiamo tre quantità che devono essere zero nello stesso tempo, possiamo molti-
plicare due di esse per arbitrarie costanti,
X X X
ln   = 0   = 0    = 0
  

dove le due costanti  , sono note come moltiplicatori di Lagrange. Le precedenti


relazioni si possono unire X
(ln  +  +  )  = 0

CAPITOLO 4. L’ENTROPIA STATISTICA 78

che porta a
ln  +  +  = 0
e infine
 = exp (− −  ) =  exp (− )
che conclude la prova.

4.2 La funzione di partizione di singola particella


Abbiamo trovato che il numero di occupazione di uno stato energetico,  è dato dalla
distribuzione
 =  exp (− ) (4.13)
dove la costante  è la costante di normalizzazione e
1
= (4.14)
 
La distribuzione più probabile è la distribuzione di equilibrio.
Dalla conoscenza della distribuzione di Boltzmann possiamo ottenere tutte le grandezze
fisiche relative allo stato di equilibrio. In maniera equivalente, le stesse grandezze fisiche
si possono ottenere dalla funzione di partizione di singola particella.

4.2.1 Il numero di particelle


Se si sommiamo la (4.13) su tutti gli stati accessibili al sistema, si otterrà il numero totale
di particelle nel contenitore. Questa è anche la condizione di normalizzazione:
X µ ¶

 = exp − (4.15)

 

Tutte le quantità fisiche macroscopiche che valuteremo, contengono la somma sugli stati
al secondo membro. Di conseguenza, risulta naturale fare la seguente posizione
X
= exp (− ) (4.16)

che è detta funzione di partizione di particella singola ( viene dalla parola tedesca
Zustandsumme).
La conoscenza di questa funzione consente di determinare tutte le grandezze fisiche
utili alla conoscenza macroscopica del sistema.
Per esempio, il numero totale di particelle si scriverà

 =  (4.17)

Possiamo valurare l’energia totale del sistema.


CAPITOLO 4. L’ENTROPIA STATISTICA 79

4.2.2 Energia del sistema


Valutiamo prima l’energia cinetica media per particella:
P
 exp (− ) 1X
hi = P =  exp (− ) (4.18)
 exp (− )  

Dalla (4.16), troviamo subito


" #
  X X
= exp (− ) = −  exp (− )
   

per cui
1  
hi = − =− (ln ) (4.19)
  
Poiché
1
 = −  (4.20)
  2
possiamo anche scrivere

hi =   2 (ln ) (4.21)

Nota la funzione di partizione (in questo caso il logaritmo della funzione di partizione),
con una semplice derivata troviamo il valor medio dell’energia del sistema. E l’energia
totale media sarà
hi =  hi (4.22)
ovvero

hi =   2 (ln ) (4.23)

La funzione di partizione dipende dal sistema fisico considerato.

4.2.3 Varianza dell’energia


Ora valuteremo le fluttuazione dell’energia. Per definizione, la varianza dell’energia media
per particella è ­ ®
 2 = 2 − hi2 (4.24)
Per valutare tale varianza bastarà valutare il primo termine al secondo membro, perché
il secondo è il quadrato della (4.19). Se facciamo una seconda derivata della funzione di
partizione, otteniamo
 2 X 2
=  exp (− ) (4.25)
 2 

per cui P 2
­ 2®   exp (− ) 1 2
 = P = (4.26)
 exp (− )   2
CAPITOLO 4. L’ENTROPIA STATISTICA 80

Allora, la varianza diventa


µ ¶2 µ ¶2
1 2 1  1 2 1 
 2 = − − = − 2 (4.27)
  2     2  
Valutiamo
µ ¶ µ ¶
 1  1  2    1 1 2 1  
= + = 2 −
     2       2  

Il secondo membro è uguale al secondo membro della (4.27), quindi,



 2 =
hi (4.28)

Possiamo valutare anche la deviazione standard relativa
q
p 
hi
2
 
= (4.29)
hi hi

Poiché, l’energia totale del sistema è data dalla (4.21) possiamo valutare la deviazione
standard relativa all’energia totale del sistema, immediatamente; e si avrà
q
p 
  hi
2
 1
= '√ (4.30)
hi  hi 
In conclusione, possiamo, all’interno delle incertezze sulle misure di energia, consid-
erare il valore medio dell’energia totale, come il valore vero.

4.2.4 L’entropia
Seguendo Boltzmann, definiamo la seguente entropia

 =  ln Ω (4.31)

che esplicitata diventa


" #
X
 =   ln  −  ln 

Dalla (4.13)
ln  = ln ( exp (− )) = ln  − 
quindi " #
X
 =   ln  −  (ln  +  )

CAPITOLO 4. L’ENTROPIA STATISTICA 81

da cui " #
X X
 =   ln  − ln   +   
 
ovvero
 =  [ (ln  − ln ) +  hi] (4.32)
Dalla relazione X X
=  =  exp (− )
 

prendendo il logaritmo otteniamo

ln  − ln  = ln  (4.33)

Possiamo sostituire questa espressione nella (4.32) e otterremo

 =  { ln  +  hi}

e ancora
hi
 =  ln  + (4.34)

Infine, utilizzando l’espressione dell’energia totale media, eq.(4.23)
½ ¾

 =  ln  +  (ln ) (4.35)


4.2.5 L’energia libera


Dalla termodinamica sappiamo che l’energia libera è espressa dalla relazione,

 =  −  (4.36)

dove  = hi =  hi. Avendo sia l’energia interna che l’entropia in funzione di ,
possiamo ottenere, in termini della funzione di partizione, anche l’energia libera:
½ ∙ ¸¾
2  
 =   (ln ) −   ln  +  (ln )
 

e semplificando,
 = −  ln  (4.37)
CAPITOLO 4. L’ENTROPIA STATISTICA 82

4.3 La densità degli stati


La forma esplicita della funzione di partizione dipende dal sistema fisico considerato.
Per calcolare la funzione di partizione classica dobbiamo effettuare la somma sugli stati.
Dobbiamo trasformare la somma in integrazione e per fare ciò avremo bisogno della
densità degli stati in termine dell’energia. Lo spazio che prima abbiamo discretizzato deve
ritornare continuo, e dobbiamo valutare, quanti stati sono nella guscio sferico, compreso
tra le energia , e  + . Ricordiamo che stiamo considerando il caso in cui le velocità
sono isotrope.
Una particella di massa M, che si muove nello spazio con una certa velocità, passa
attraverso stati che sono definiti dai valori che assumono, ad ogni istante, le sue coordinate
e la sua quantità di moto:

 ()   ()   ()   ()   ()   ()

Questo significa che i differenti stati della particella sono rappresentabili da punti in
uno spazio a sei dimensioni, detto spazio delle fasi, di singola particella, o spazio .
Una particella libera ha energia pari a
2
= (4.38)
2
Quando Boltzmann iniziò ad elaborare questo tipo di analisi, ipotizzò che non si
potesse considerare un punto come rappresentativo di uno stato, bensì, a causa delle
incertezze sperimentali, si dovesse sostituire al punto un volumetto nello spazio a sei
dimensioni, che chiameremo, punto equivalente:

(∆∆∆∆ ∆ ∆ )−

Se si divide il volume complessivo dello spazio  per tale volumetto, si ottiene il numero
totale di punti equivalenti che compongono l’intero spazio. Poiché, ciascuna coppia

∆∆ = 

ha le dimensioni dell’azione, ciascun punto equivalente dello spazio della fasi avrà la
dimensione di un’azione al cubo

(∆∆∆∆ ∆ ∆ )− = 3 (4.39)

Le considerazioni di Boltzmann facevano riferimento alle incertezze sulle misure che effet-
tuano. In meccanica quantistica, le coppie ∆∆ sono dette coppie di variabili coniugate,
e si dimostra che la costante  ha un valore, , che non dipende dalle nostre misure ed è
detta costante di Planck.
Quindi, la precedente relazione che aveva il difetto di essere indeterminata in fisica
classica diventa una costante fondamentale in meccanica quantistica.

(∆∆∆∆ ∆ ∆ )− = 3 (4.40)


CAPITOLO 4. L’ENTROPIA STATISTICA 83

Converremo di usare la notazione (4.40), dove, tuttavia, per ora,  è solo una costante
che rappresenta l’azione; questo per consentire un rapido confronto con i risultati quan-
tistici.
Allora, il punto rappresentativo dello spazio , avrà dimensione 3 . Se dividiamo un
qualsiasi volume dello spazio  per 3 , otterremo il numero di punti equivalenti contenuti
nel volume considerato. Consideriamo il nostro solito gas. Esso è posto in un contenitore
di volume  . La distribuzione di equilibrio non dipende dalle coordinate spaziali, di
conseguenza ha senso chiedersi quanti punti equivalenti ci sono nel seguente volume:
 ∆ ∆ ∆
(4.41)
3
Questo numero di punti equivalenti rappresenta il numero di stati, che indipendentemente
dalla posizione di una particella, corrispondono a valori della quantità di moto di una
particella compresi negli intervalli, (  ∆ ), (  ∆ ), (  ∆ ). Oppure, in termini di
velocità,
 3  ∆ ∆ ∆
(4.42)
3
Se si suppone che questi punti equivalenti siano abbastanza fitti da poterli trattare come
un continuo (da (  ∆ ), (  ∆ ), (  ∆ ), a (   ), (   ), (   )) allora, si
può definire una funzione detta densità degli stati, che consente di passare dalle somme
sugli stati agli integrali sugli stati. Poiché siamo interessati solo alla situazione di equilib-
rio, dove le componenti delle velocità risultano isotrope, possiamo limitarci al numero di
stati, che indipendentemente dalla posizione, abbiano la quantità di moto nell’intervallo
( ). Questo corrisponde al numero complessivo di questi punti contenuti nel volume
dello spazio tridimensionale, compreso tra le due sfere di raggio , e  + , cioè a 42 .
Quindi il numero cercato è

42 
3
e la densità degli stati avrà la seguente espressione
 2
 () = 4  (4.43)
3
In termini di velocità troveremmo,
µ ¶3

 () = 4 2 (4.44)

Se si è interessati alla densità degli stati, per unità di volume, avremo
µ ¶3
4 2 
 () = 3   () = 4 2 (4.45)
 
Ribadiamo che la costante , nei calcoli classici è ancora una costante indeterminata.
CAPITOLO 4. L’ENTROPIA STATISTICA 84

Spesso è utile avere la densità degli stati in termini dell’energia. Dall’uguaglianza

 ()  =  ()  (4.46)

si può ottenere la  (). Per passare alla densità degli stati in termini dell’energia
occorre la relazione tra momento ed energia.

4.3.1 Densità degli stati per particelle non relativistiche


La relazione non relativistica tra momento ed energia, di una particella libera, è

 = 2

Da questa relazione deduciamo


 √ √
 = √  → 2  = 2 ()32 
2
per cui, la densità degli stati in termini dell’energia, per particelle classiche non
relativistiche, è
 √
 () = 3 2 (2)32  (4.47)

E la densità degli stati per unità di volume sarà:
 () 1 √
 () = = 3 2 (2)32  (4.48)
 

4.4 Il gas ideale monoatomico


Ora possiamo calcolare la funzione di partizione del gas ideale:
X
= exp (− )

4.4.1 La funzione di partizione del gas ideale monoatomico


Passando alla notazione integrale dovremo scrivere,
Z ∞
=  () exp (−)  (4.49)
0

che esplicitata diventa


Z ∞√

 = 3 2 (2)32  exp (−) 
 0

Posto
 = 
CAPITOLO 4. L’ENTROPIA STATISTICA 85

avremo µ ¶32 Z ∞√
 2
 = 3 2  exp (−) 
  0
poiché Z √
∞ √ 
 exp (−)  =
0 2
alla fine otterremo µ ¶32
2 
= (4.50)
2
Ora possiamo valutare, in maniera esplicita, le diverse grandezze fisiche macroscopiche
per un gas ideale di particelle classico monoatomico, non relativistico.

4.4.2 L’energia interna


Determiniamo ora le espressioni esplicite delle quantità termodinamiche che abbiamo già
valutato.
L’energia media per particella aveva il seguente legame con la funzione di partizione
(vedi 4.19)

  = − (ln )

Usando la (4.50), avremo prima
µ ¶32
2 1
=
2 
e poi passando ai logaritmi,
µ ¶
3 2 3
ln  = ln  + ln − ln  (4.51)
2 2 2
Solo l’ultimo termine dipende da , per cui derivando otteniamo
3
  =   (4.52)
2
L’energia totale,
3
 =    =   (4.53)
2
E la capacità termica, diventerà
3
 =  (4.54)
2
Dalla conoscenza della funzione di partizione possiamo riottenere tutti i risultati della
teoria cinetica dei gas.
CAPITOLO 4. L’ENTROPIA STATISTICA 86

4.4.3 L’entropia
Abbiamo trovato, vedi (4.35) che
hi
 =  ln  +

Essa si può riscrivere prima come
 
 =  ln  +

e poi usando la (4.52) ½ ¾
3
 =  ln  + (4.55)
2
Ora possiamo riutilizzare la (4.50) e si ottiene
( µ ¶32 )
2  3
 =  ln  + ln + (4.56)
2 2

che riscriviamo ½ ¾
3
 =  ln  + ln (  ) +  (4.57)
2
dove la costante  è ∙ µ ¶ ¸
3 2
= ln −1 (4.58)
2 2
L’entropia che abbiamo ottenuto non è estensiva. Ricordiamo che per essere esten-
siva l’entropia deve essere omogenea di grado 1 nelle variabili estensive:

 (   ) =  (   )


La dipendenza dalle variabili estensive è contenuta nel termine
 =  ln 
ma
 ln ( ) 6=  ln 
Nell’appendice del prossimo capitolo è discussa ancora questo problema.

4.4.4 L’energia libera


Dalla relazione che lega l’energia libera alla funzione di partizione (vedi 4.37)
 = −  ln 
troviamo ( µ ¶32 )
2 
 = −  ln  + ln (4.59)
2
CAPITOLO 4. L’ENTROPIA STATISTICA 87

4.5 Esercizi
Esercizio 1: L’oscillatore armonico lineare
La funzione di partizione diventa,
Z Z ∞ µ ¶
1 ∞  (  )
=   exp −
 −∞ −∞  

dove
2 
 (  ) =+ 2
2 2
Allora Z µ ¶Z ∞ µ ¶
1 ∞ 2 
=  exp −  exp −
 −∞ 2  −∞ 2 
Gli integrali sono noti:
1p p
= 2  2 

ovvero √ √
2   2  1
= =
  
ovvero, considerando il logaritmo
µ ¶
2 √
ln  = ln  − ln 

L’energia media sarà


 (ln ) 1
  = − = =  
 
Capitolo 5
Distribuzione di un sistema di N
particelle

La distribuzione di Boltzmann, prima discussa è una distribuizione di particella singola


e la funzione di partizione che abbiamo derivato è nota come funzione di partizione di
particella singola.

5.0.1 La densità di probabilità di Maxwell-Boltzmann


Abbiamo mostrato che in un gas all’equilibrio il numero medio di particelle , che sono
contenute nel volumetto 3 3  è dato dalla distribuzione di Maxwell-Boltzmann:
µ ¶
3 3 
 =  (r p)    =  exp − 3 3  (5.1)
 
dove la costante  si ottiene dalla condizione di normalizzazione.
La quantità
  3 3
1 = =    (5.2)
 
rappresenta la probabilità che una particella del gas sia contenuta nel volumetto dello
spazio delle fasi 3 3 .
Posto

= (5.3)

potremo scrivere µ ¶

1 =  exp − 3 3  (5.4)
 
Lo spazio dove stiamo lavorando è lo spazio  della singola molecola. Poniamo,

 1 = 3 3  =    (5.5)

88
CAPITOLO 5. DISTRIBUZIONE DI UN SISTEMA DI N PARTICELLE 89

La precedente espressione ci dice che questa probabilità è proporzionale all’elemento di


volume dello spazio della molecola. Allora,
µ ¶

1 =  exp −  1 (5.6)
 
ci darà la probabilità di trovare una particella in  1 e la condizione di normalizzazione
sarà ora Z µ ¶

 exp −  = 1 (5.7)
 
Ricordiamoci che nella costante , ci deve essere la conoscenza della concentrazione in un
punto arbitrario (vedi esercizio alla fine del cap. II). Poiché l’energia dipende da (r p),
scriveremo
1 = 1 (r p) (5.8)

5.1 La funzione di partizione del sistema


La distribuzione di Maxwell-Boltzmann è una distribuzione di singola particella e con-
sente di calcolare la probabilità di trovare una generica particella in  1 . Lo spazio
astratto in cui essa opera è lo spazio . Questo spazio ha sei dimensioni. Un punto
in tale spazio rappresenta lo stato dinamico di una sola molecola e per rappresentare
l’intero gas occorrono N punti. Se le particelle del gas non sono interagenti oppure tali
che la loro interazione sia trascurabile, possiamo considerare la probabilità di trovare la
particella, diciamo 1, in  1 , e contemporaneamente di trovare la particella 2 in  2 , del-
lo stesso spazio. Poiché manca l’interazione, i due eventi che abbiamo considerato sono
indipendenti e la probabilità totale (probabilità congiunta) che cerchiamo si può scrivere:
µ ¶ µ ¶
2 1 2
2 (r1  p1 ; r2  p2 ) = 2 (1 2) =  exp − exp −  1  2 (5.9)
   
e quindi, µ ¶
2 1 + 2
2 (1 2) =  exp −  1  2 (5.10)

Ovviamente, la costante di normalizzazione è la stessa perché utilizziamo per en-
trambe le distribuzioni lo stesso valore di concentrazione, in un determinato punto.
Possiamo generalizzare la probabilità all’insieme di tutte le N particelle del gas.
L’unica condizione in comune che hanno è la costante .
La probabilità che la particella 1 sia in  1 , la particella 2 in  2 , e così via fino alla
particella  in   , si scriverà
µ ¶
 1 + 2 +  + 
 (1 2  ) =  exp −  1  2   (5.11)

Se ora si pone
 = 1 + 2 +  +  (5.12)
CAPITOLO 5. DISTRIBUZIONE DI UN SISTEMA DI N PARTICELLE 90

potremo scrivere ³  ´
 
 (1 2  ) =  exp −  (5.13)

dove abbiamo posto
 =  1  2   (5.14)
La (5.13) rappresenta la probabilità di trovare l’intero sistema, in un elemento di volume
, nel senso spiegato.
Dalla condizione di normalizzazione
Z µ ¶
 
 exp −  = 1 (5.15)
 
troviamo
1 1
 = R ³ ´ = (5.16)
exp −   

perché al denominatore abbiamo la somma sugli stati, ovvero la funzione di partizione


dell’intero sistema Z µ ¶

 = exp −  (5.17)
 
Seguendo il suggerimento del precedente capitolo possiamo definire la funzione di
energia libera del sistema
 = −  ln  (5.18)
da cui otteniamo la seguente espressione per la costante

  = exp (5.19)
 
La probabilità di trovare il sistema, in un elemento di volume  diventa
µ ¶
 − 
 = exp  (5.20)
 

Questa densità di probabilità


µ ¶
 − 
 = exp (5.21)
 

che si riferisce a tutto il sistema, all’equilibrio, è nota come distribuzione di Gibbs.


Notiamo subito che il legame tra la funzione di partizione di particella singola e
quella del sistema esiste una semplice relazione, essendo l’integrale al secondo membro
della (5.17), il prodotto di N integrali uguali:

 =   (5.22)
CAPITOLO 5. DISTRIBUZIONE DI UN SISTEMA DI N PARTICELLE 91

Notiamo inoltre che esiste una differenza con la relazione ottenuta dalla funzione di
partizione di singola particella che abbiamo trovato nel precedente capitolo,

 = −  ln  (5.23)

Allora, si comprende che nel caso di sistemi costituiti di parti non interagenti, i due
approcci sono equivalenti. Il vantaggio di usare le relazioni che si riferiscono all’intero
sistema risiede nel fatto che, in meccanica quantistica, è con queste relazioni che esiste la
corrispondenza.
Esercizio: Poiché Z µ ¶
 − 
hi =  exp (5.24)
 
è l’energia media totale del sistema, mostrare che

hi =  −  (5.25)

e
 = hi −   (5.26)
che è esattamente la relazione prevista dalla termodimanica.
Esercizio: Mostrare che

 =  ln  +   (ln  ) (5.27)

I

5.2 Appendice: Sull’estensività dell’entropia


Ora siamo pronti per discutere della mancata estensività dell’entropia calcolata nei prece-
denti capitoli e di come si potrebbe ripristinare questa proprietà.

5.2.1 Il gas ideale monoatomico


Riferendoci al solo gas ideale monoatomico abbiamo trovato che la funzione di partizione
di singola particella era
µ ¶32
2 
=
2
Poiché
 =  
troveremo che la funzione di
µ ¶32
 2 
 = 
2
CAPITOLO 5. DISTRIBUZIONE DI UN SISTEMA DI N PARTICELLE 92

e di conseguenza l’entropia
" µ ¶32 #
2 
 =  ln  
2

che diventa ½ ¾
3
 =   ln  + ln (  ) + 
2
Questa espressione rappresenta l’entropia del gas ideale monoatomico classico, qualunque
sia l’approccio che si utilizza.

5.2.2 L’entropia di mixing: rivisitazione


Quando abbiamo iniziato il corso avevamo discusso dell’entropia di mixing e del fatto
che l’espressione dell’entropia di Clausius, ottenuta nel caso di particelle differenti non
poteva applicarsi al caso di gas identici perché, le misure termodinamiche, sicuramente
non distinguevano i due stati nel ccaso di gas identici e l’entropia doveva risultare nulla.
Abbiamo visto che l’entropia del gas ideale monoatomico si scrive
∙ ¸
3
 =  ln  + ln (  ) +  (5.28)
2
Questa è l’entropia di un gas ideale, secondo la meccanica statistica classica, secondo
l’ipotesi che le particelle identiche siano sempre distinguibili e che la permutazione di due
particelle porta sempre a stati microscopici differenti.
Applichiamo questa espressione al caso in cui i due gas sono identici. Ricordiamo che
i due gas sono alla stessa temperatura. Avremo, prima della rimozione del diaframma
∙ ¸
 3
 =   ln  + ln (  ) + 
2
e ∙ ¸
3
 =   ln  + ln (  ) + 
2
Le entropie negli stati finali saranno
∙ ¸
 3
 =   ln  + ln (  ) + 
2
∙ ¸
 3
 =   ln  + ln (  ) + 
2
La variazione di entropia proviene solo dal primo termine, per cui, dopo la rimozione
del setto divisorio, la variazione di entropia del sistema sarà

∆ = ( +  )  ln  −   ln  −   ln  (5.29)


CAPITOLO 5. DISTRIBUZIONE DI UN SISTEMA DI N PARTICELLE 93

La variazione di entropia, per gas identici, che dovrebbe essere nulla per la termodinamica,
risulta invece, diversa da zero. L’entropia statistica classica non riproduce correttamente
il risultato termodinamico.
Vediamo come si potrebbe risolvere il problema.
Il termine che non fa annullare la variazione di entropia è il termine  ln  . Va-
lutiamo come questo termine scala quando si aumenta la dimensione del sistema. Se
l’entropia è estensiva deve accadere che

 (  ) =  ( )

Se prendiamo  = 2

2 ln (2 ) = 2 ln ( ) + 2 ln 2 6= 2 ln ( ) (5.30)

Il termine non rende l’entropia estensiva. Bisogna capire se la richiesta di estensività


possa suggerire come aggiustare questo termine, in maniera tale che la variazione di
entropia per gas identici sia nulla.

5.2.3 L’equazione di Sackur-Tetrode


La meccanica statistica classica fa ipotesi sul mondo microscopico e questo mondo è quello
della meccanica newtoniana. Le particelle sono impenetrabili e le traiettorie determinis-
tiche. Ogni volta che si scambiano due particelle identiche lo stato microscopico cambia.
Tuttavia, questo modo di contare ha portato ad una espressione dell’entropia sbagliata.
Occorre apportare una modifica al modo di contare gli stati delle particelle identiche.
Secondo la Meccanica quantistica la permutazione di due particelle non porta a stati
microscopici differenti, perché le particelle microscopiche non sono distinguibili. Di con-
seguenza, se si adotta l’ipotesi suggerita dalla meccanica quantistica, abbiamo contato
troppi stati microscopici: tutti quelli che erano ottenuti per permutazione degli indici,
dovevano essere considerati come un solo stato microscopico. Occorrerà dividere per !.
Adottando questo suggerimento, la funzione di partizione classica viene divisa per il
fattoriale di N.


 = (5.31)
!
Questa suddivisione significa che le N! permutazioni delle N distinguibili particelle devono
essere considerate come 1. In altre parole, le particelle microscopiche non possono essere
considerate distinguibili, e quindi si erano considerati troppi stati possibili. Il conteggio
era sbagliato. Per tutte le grandezze fisiche rilevanti, questa divisione non comporta
alcuna modifica, fatta eccezione per l’entropia.
Infatti, se si adotta l’espressione di Z del capitolo quarto (eq.4.50) e e il risultato
(5.22) e poi si divide per il fattoriale di N, troveremo
µ ¶32
 2  1
 =  2
(5.32)
 !
CAPITOLO 5. DISTRIBUZIONE DI UN SISTEMA DI N PARTICELLE 94

Di conseguenza l’entropia avrà le seguente espressione,


∙ ¸
3
 =  ln  + ln (  ) +  −  ln !
2

e applicando Stirling, troveremo


∙ ¸
3
 =  ln  + ln (  ) −   ln  +  + 
2

Si può porre insieme il logaritmo del volume, dentro la parentesi, con il nuovo logaritmo,
∙ ¸
 3
 =   ln + ln (  ) +  0 (5.33)
 2

dove 0 è una costante. Questa equazione è nota come equazione di Sackur-Tetrode. Ora
il termine significativo è diventato

 ln

e se valutiamo la condizione di scala, troviamo che essa è verificata,
 
 ln =  ln
 
La scelta di dividere la funzione di partizione per il fattoriale di  , rende l’entropia
statistica classica estensiva. Se consideriamo la condizione di estensività un vincolo,
allora dobbiamo optare per l’espressione (5.33).
Capitolo 6
Spazio delle fasi e meccanica
statistica

Si potrebbe dire che la meccanica statistica moderna inizia quando si passa dallo spazio
della singola molecola allo spazio Γ nel quale un intero sistema viene rappresentato da
un singolo punto. Lo scopo di questo capitolo è di studiare le proprietà geometriche dello
spazio Γ.

6.1 La struttura geometrica dello spazio delle fasi


Un rapido riesame di ciò che si apprende nel corso di meccanica analitica. L’energia è
un parametro importante, come abbiamo anche imparato dalla termodinamica. Nella
meccanica dei sistemi, l’utilizzo delle coordinate generalizzate ha degli ovvi vantaggi che
si imparano nel corso di meccanica analitica. Un modo per risolvere i problemi dinamici
consiste nel determinare la lagrangiana del sistema,  =  ( ()   ()  ) e poi risolvere
le equazioni di Eulero-Lagrange, che sono del secondo ordine.
Lo spazio utilizzato si chiama spazio delle configurazioni e il problema dinamico,
consiste nella determinazione della traiettoria, in tale spazio,

 =  ()

note le cordinate e le velocità generalizzate, ad un dato istante.


Facciamo alcune considerazioni riguardo all’energia. La conservazione dell’energia di
un sistema meccanico è legata alle traslazioni temporali. Se in un sistema si conserva
l’energia, allora il sistema è invariante per traslazioni temporali.
Come si riflette questo nella lagrangiana? La lagrangiana non può avere una dipen-
denza esplicita dal tempo. Questo significa che la lagrangiana può variare nel tempo, ma
solo attraverso la variazione di  e . Quindi, la conservazione dell’energia implica che la
forma della lagrangiana deve avere la seguente dipendenza funzionale,  =  ( ()   ()).

95
CAPITOLO 6. SPAZIO DELLE FASI E MECCANICA STATISTICA 96

Consideriamo la derivata totale temporale della lagrangiana,


∙ ¸
 X   
= ̇ + ̈ + (6.1)
 
  ̇ 

Poiché

 = (6.2)
 ̇
è il momento coniugato, avremo
  X 
= ( ̇ ) + (6.3)
   

Abbiamo detto che se si conserva l’energia, la lagrangiana non dipende esplicitamente


dal tempo, quindi 
= 0. Ma la derivata totale continua a non annullarsi perché la
lagrangiana può dipendere dal tempo, attraverso il primo termine, al secondo membro.
Di conseguenza, il formalismo lagrangiano non sembra il più adatto a descrivere i sistemi
dinamici, per i quali si conserva l’energia. In realtà, è lo spazio in cui è definita la
lagrangiana, cioè (  ̇ ) , che non possiede le giuste proprietà. Occorre formulare la
meccanica in un nuovo spazio, con una struttura molto simile allo spazio euclideo, lo
spazio delle fasi.
Ora introduciamo la funzione Hamiltoniana,
 X
= ( ̇ ) −  (6.4)
 

l’equazione (6.3) diventa


 
=− (6.5)
 
Nel caso in cui si conservi l’energia, il secondo membro è nullo,

=0 (6.6)

La conservazione dell’energia in un sistema comporta che l’Hamiltoniana del sistema,
si conserva. Dunque l’Hamiltoniana rappresenta l’energia di un sistema.
Se l’energia è una quantità fondamentale, allora, una formulazione che coinvolga
l’Hamiltoniana sembra più adatta a descrivere i sistemi dinamici. Le equazioni del moto
di questa nuova formulazione, sono
 
̇ = − ̇ = (6.7)
 
Notare il segno differente nelle due equazioni. Lo spazio delle soluzioni del moto è
detto, spazio delle fasi.
CAPITOLO 6. SPAZIO DELLE FASI E MECCANICA STATISTICA 97

Le equazioni sono ora del primo ordine. Note le  e le  ad un determinato istante,


possiamo seguire la traiettoria della particella, in questo spazio. Se abbiamo due sole
coordinate, lo stato iniziale è un punto e la traiettoria è una linea.
Se si considera, per esempio, l’oscillatore armonico, con  = 1, l’Hamiltoniana è
1¡ 2 2 ¢
=   + 2 (6.8)
2
lo spazio delle fase è bidimensionale e le equazioni del moto diventano:
̇ = − 2  ̇ =  (6.9)
Poichè l’energia si corserva, l’Hamiltoniana è costante nel tempo. Le curve di livello,
 ( ) =  (6.10)
nel caso  = 1 sono delle circonferenze, mentre nel caso  6= 1, sono delle ellissi. Queste
curve di livello rappresentano le traiettorie del punto materiale.

Abbiamo detto che nel caso  = 1 le traiettorie dell’oscillatore sono delle circonferenze
con il centro posto nell’origine del sistema di riferimento, ( ). Un punto, su una qualsiasi
di queste circonferenze, (il valore dell’energia fissa la circonferenza nello spazio delle
fasi: ad ogni energia possiamo associare una determinata circonferenza e un punto, se si
conserva l’energia rimane sempre sulla stessa circonferenza) si muove con velocità angolare
costante. Tangente a tale curva ci aspettiamo che ci sia un vettore velocità che non
abbiamo ancora compreso come sia legata all’Hamiltoniana del sistema.
Al variare del valore dell’energia potremmo riempire tutto lo spazio di circonferenze.
Questo insieme di circonferenze che associamo ad uno stesso sistema costituisce un fluido,
nell’ipotesi che i valori dell’energia siano talmente vicini da rappresentare un continuo.
Allora, nello spazio delle fasi, ad un oscillatore armonico possiamo pensare associato un
fluido. E tutto il fluido, nel corso del tempo, ruota intorno all’origine del sistema di
riferimento.
Tutto ciò si può generalizzare ad un numero arbitrario di coordinate generalizzate.
Se sono , lo spazio delle fasi avrà dimensione 2 e quindi il fluido associato al sistema
avrà anch’esso 2 dimensioni (se abbiamo un gas costituito da  particelle indipendenti,
allora dovremmo considerare 3 componenti  e 3 componenti  e la dimensione dello
spazio sarebbe di 2 = 6). Se si fissa l’energia del sistema, la superficie
 ( ) = 
CAPITOLO 6. SPAZIO DELLE FASI E MECCANICA STATISTICA 98

sarà una superficie di (2 − 1) dimensioni. Per ogni valore di  si ha una di queste
superfici e al variare di  queste superfici riempiono l’intero spazio delle fasi. Un punto
(stato del sistema) che si muove su di una di queste superfici rimane sempre su questa
superficie.
Allora, ad sistema fisico di  gradi di libertà possiamo associare un fluido nello spazio
delle fasi di 2 dimensioni.

6.1.1 Il teorema di Liouville


Sia  (    ) la densità del fluido che rappresenta un sistema nello spazio delle fasi.
Assumiamo che il fluido debba conservarsi in qualsiasi volumetto dello spazio delle fasi.
Nello spazio delle fasi le coordinate sono,  = (   ), mentre le velocità sono  = (̇  ̇ ),
quindi l’equazione di continuità si scrive,
X µ ¶
  (̇ )  (̇ )
=− + (6.11)
 =1
 

che diventa  µ ¶
 X   ̇   ̇
=− ̇ +  + ̇ + 
 =1
    
 ̇  ̇
Dobbiamo determinare 
e 
. Iniziamo con il primo termine. Sapendo che valgono
le equazioni di Hamilton:
µ ¶ µ ¶
 ̇   2 2  
= = = =
        

e riutilizzando le equazioni di Hamilton


 ̇   ̇
= (−̇ ) = −
  
otterremo,
X µ ¶
   ̇   ̇
=− ̇ −  + ̇ + 
 =1
    
Non abbiamo bisogno di derivare il secondo termine. Infatti, il secondo e quarto
termine, al secondo membro, si elidono e
X µ ¶
  
=− ̇ + ̇ (6.12)
 =1
 

da cui,
 µ ¶
 X  
+ ̇ + ̇ = 0
 =1
 
CAPITOLO 6. SPAZIO DELLE FASI E MECCANICA STATISTICA 99

Ma, il primo membro, è la derivata totale della densità,


 µ ¶
  X  
= + ̇ + ̇
  =1
 

quindi, abbiamo mostrato che,



=0 (6.13)

La densità del fluido dello spazio delle fasi è costante nel tempo. Il fluido della spazio
delle fasi è incomprimibile.
Prendiamo un volumetto di questo spazio a 2 dimensioni. Tutti i punti che sono ad
un certo istante in questo volumetto, dopo un certo intervallo di tempo, diciamo ∆, si
sono tutti spostati, ma si saranno tutti spostati in un altro volumetto che ha esattamente
lo stesso valore del precedente. Allora, un punto rimane per lo stesso tempo in volumi
uguali dello spazio delle fasi.

6.2 Appendici al capitolo


Se ci si limita a distribuzioni statistiche indipendenti dal tempo, cioè a  =  ( ), allora
 = 0 e quindi
X µ ¶
 
̇ + ̇ = 0
=1
 
In appendice introdurremo le parentesi di Poisson e mostreremo che il secondo membro
è data dalla parentesi di Poisson tra la distribuzione statistica e l’hamiltoniano
X µ ¶
 
̇ + ̇ = { }
=1
 

per cui per le distribuzioni statistiche indipendenti dal tempo si avrà

{ } = 0

6.2.1 Le parentesi di Poisson


Sullo spazio delle fasi è possibile definire delle funzioni,  =  (q ()  p ()  ) dette vari-
abili dinamiche. L’insieme di tutte le variabili dinamiche costituiscono uno spazio vet-
toriale di dimensione infinita. In questo spazio si può definire un prodotto tra coppie
ordinate di variabili dinamiche, il cui risultato è ancora una variabile dinamica.
Considerata la coppia ordinata di variabili dinamiche,  e  si può definire una nuova
variabile dinamica, nel modo seguente:
 µ
X ¶
   
{ } := − (6.14)
=1
   
CAPITOLO 6. SPAZIO DELLE FASI E MECCANICA STATISTICA 100

Questo prodotto tra variabili dinamiche ordinate è detto, parentesi di Poisson.


Questo prodotto gode delle seguenti proprietà:

{ } = − { } (6.15)

{  + } =  { } +  { } (6.16)

{ } = { }  +  { } (6.17)

{ { }} = { { }} +  { } (6.18)


Queste proprietà sono dette rispettivamente, di antisimmetria, di linearità (a destra),
regola di Leibniz e identità di Jacobi.
Uno spazio vettoriale con un prodotto vettoriale che abbia le proprietà appena esposte,
definisce un’algebra di Lie.
Possiamo allora dire che, lo spazio vettoriale, costituito dall’insieme delle variabili di-
namiche, definite sullo spazio delle fasi, costituisce un’algebra di Lie, rispetto al prodotto
(di due variabili) definito attraverso le parantesi di Poisson.

6.2.2 Le parentesi di Poisson e le costanti del moto


Consideriamo una generica variabile dinamica, definita sullo spazio delle fasi,  (q p),
che non dipenda esplicitamente dal tempo. Se la variazione avviene lungo una traiettoria
dello spazio delle fasi, la funzione  può considerarsi una funzione dipendente dal tempo,
attraverso le coordinate dello spazio delle fasi. Ha senso considerare la sua derivata
temporale, che si scrive:
 µ ¶
 X  
= ̇ + ̇
 =1
 

Ma nello spazio delle fasi valgono le equazioni di Hamilton, quindi


 µ ¶
 X    
= −
 =1
   
da cui

= { } (6.19)

La derivata temporale, di una qualsiasi funzione delle coordinate, che non dipenda
esplicitamente dal tempo, lungo una traiettoria dello spazio delle fasi, è sempre data dalla
parentesi di Poisson, tra la funzione e l’hamiltoniana.
CAPITOLO 6. SPAZIO DELLE FASI E MECCANICA STATISTICA 101

Poiché, le coordinate dello spazio, (   ) sono, a loro volta delle variabili dinamiche,
non meraviglia che le equazioni del moto, nello spazio delle fasi si possano, allora scrivere.
 
= {  } = {  } (6.20)
 
Notare che il segno meno è sparito nella prima equazione, anche se risulta nascosto
nella definizione della parantesi di Poisson.

6.2.3 Le parentesi di Poisson e l’equazione di continuità


L’equazione di continuità si scrive, nello spazio delle fasi,
 µ ¶
 X  
+ ̇ + ̇ = 0
 =1
 

Prendiamo,  = , e  = , dove  (    ) densità del fluido e  l’Hamiltioniano


del sistema. Possiamo scrivere,
X µ ¶
   
{ } = − (6.21)
=1
      

che diventa  µ ¶
X  
{ } = ̇ + ̇
=1
 
Questa ci autorizza a scrivere

+ { } = 0 (6.22)

E questa è la forma dell’equazione di Liouville, nello spazio delle fasi, in termini delle
parentesi di Poisson. Come avevamo annunciato nel paragrafo del teorema di Liouville,
se  non dipende esplicitamente dal tempo  = 0, e


=0 ⇐⇒ { } = 0


6.2.4 Le parentesi di Poisson e le trasformazioni canoniche


Se abbiamo delle coordinate cartesiane, è sempre vero che per trasformazioni ortogonali,
gli elementi di volume si conservano (lo jacobiano della trasformazione è 1):

  =   0
Tuttavia, se si passa dalle coordinate cartesiane a quelle polari, per esempio. abbiamo

 = 2 sin 


CAPITOLO 6. SPAZIO DELLE FASI E MECCANICA STATISTICA 102

Il volume non è conservato, essendo lo jacobiano diverso da 1.


Le trasformazioni canoniche sono quelle che lasciano la forma delle equazioni di
Hamilton invariata.
Supponiamo che una certa trasformazione di coordinate faccia passare dalle coordinate
canoniche, ( ) a ( ). Se dopo questa trasformazione l’Hamiltoniano è passato da
 ( ) a  (  ), e le nuove equazioni del moto sono

   
=− =
   
allora la trasformazione è detta canonica.
Condizione necessaria e sufficiente perché la trasformazione sia canonica è che con-
servi le parentesi di Poisson.

6.2.5 Flusso nello spazio delle fasi


Le equazioni di Hamilton sono
q  p 
=  (q p) = −  (q p)
 p  q
Se a queste equazioni si aggiungono le condizioni iniziali

q ( = 0) = q0 p ( = 0) = p0

allora attraverso le soluzioni è definito un flusso nello spazio delle fasi Φ tale che

Φ (q0  p0  ) = (q ()  p ()  ) (6.23)

Le trasformazioni Φ costituiscono un diffeomorfismo

Φ : R2 → R2 (6.24)

e definiscono un gruppo ad un sol parametro,

Φ+  
 = Φ ◦ Φ (6.25)

con
Φ0 =  (6.26)
dove  è un aperto in R2 ( ⊂ R2 ). Inoltre con || indichiamo una misura di .
Il teorema di Liouville, come conservazione della misura del volume nello spazio delle
fasi, è equivalente alla seguente relazione.
¯  ¯
¯Φ ¯ = || (6.27)
Capitolo 7
Gli ensembles statistici

La teoria cinetica ha mostrato che il comportamento termodinamico di un sistema cos-


tituito da un numero elevato di particelle può essere spiegato in base al comportamento
dinamico delle singole particelle, pur di sostituire la conoscenza deterministica newtoni-
ana con la conoscenza probabilistica. Lo spazio della teoria cinetica è lo spazio  della
singola molecola. La formulazione moderna della meccanica statistica consiste nel pas-
saggio ad uno spazio (spazio Γ) in cui un punto rappresentativo descrive l’intero sistema
e nel quale gli stati microscopici che corrispondono ad uno stesso stato macroscopico
costituiscono delle copie mentali del sistema (ensemble statistico).

7.1 Lo spazio Γ: macrostati e microstati


Un sistema costituito da N particelle è adeguatamente descritto nello spazio Γ di 6N
dimensioni. In tale spazio un punto rappresenta lo stato di un intero sistema. L’evoluzione
temporale viene rappresentata da una traiettoria in tale spazio e la conoscenza di tale
traiettoria determina in maniera completa la dinamica del sistema.
Un sistema termodinamico è determinato da pochi parametri e la descrizione di
uno stato termodinamico del sistema è una descrizione macroscopica del sistema. La
conoscenza di uno stato dinamico del sistema, nello spazio Γ, è una descrizione micro-
scopica. Occorre stabilire il legame tra la descrizione macroscopica di tipo termodinamico
e la conoscenza microscopica che si ottiene nello spazio Γ. Mentre è vero che ad uno stato
microscopico corrisponde un ben determinato stato macroscopico, non è vero il contrario.
Indichiamo con  uno stato macroscopico cui in termodinamica corrisponderebbe un de-
terminato stato di equilibrio. A tale stato macroscopico corrisponderebbero tanti stati
microscopici. Indichiamo con Γ il volume dello spazio Γ che contiene tutti gli stati mi-
croscopici che corrispondono allo stesso stato macroscopico . Questo significa che se il
sistema, durante l’evoluzione temporale, passa attraverso i soli stati che sono contenuti
in Γ il sistema, pur cambiando da un punto di vista microscopico, rimane sempre nello
stesso stato macroscopico . Per passare in uno stato macroscopico , differente da , il
sistema deve lasciare il volume Γ e passare in un altro volume dello spazio Γ, diciamo Γ ,
103
CAPITOLO 7. GLI ENSEMBLES STATISTICI 104

che corrisponde allo stato macroscopico . In altri termini, ad ogni stato macroscopico
di tipo termodinamico, , , , ....., corrispondono differenti volumi dello spazio Γ.
Possiamo anche descrivere l’evoluzione verso l’equilibrio. Supponiamo che il sistema
sia inizialmente in una stato macroscopico  e poi successivamente per qualche motivo
il sistema passa in un stato di equilibrio . Possiamo affermare che Γ  Γ : il volume
dello spazio Γ, corrispondente allo stato di equilibrio Γ risulta sicuramente maggiore del
volume iniziale Γ . Il sistema dinamico, da un punto di vista macroscopico, passa sempre
più tempo in volumi dello spazio Γ, associati a stati macroscopici, che sono sempre più
grandi.
Si potrebbe assumere una proporzionalità tra l’entropia e il logaritmo del volume
associato a ciascuno stato macroscopico in maniera tale che l’aumento del volume cor-
risponderebbe ad un aumento dell’entropia.
In altre parole, ad ogni microstato abbiamo associato un punto nello spazio Γ,
mentre ad un macrostato corrisponde un volume dello spazio delle fasi del sistema.
In questo nuovo contesto, l’entropia di uno stato macroscopico, risulta proporzionale al
logaritmo del volume occupato da tutti gli stati microscopici che corrispondono al deter-
minato stato macroscopico. Allo stato di equilibrio corrisponde un volume dello spazio
Γ maggiore, o anche molto maggiore, di quello fuori dall’equilibrio in cui inizialmente si
trovava il sistema.
Osservazione
Nel momento in cui si passa nello spazio Γ e un punto rappresenta l’intero sistema
risulta evidente che si rinuncia a fare ipotesi specifiche circa la costituzione microscopica
di un sistema. I risultati di questo formalismo avranno una validità generale. Secondo
Gibbs questa formulazione fornirebbe una fondazione razionale alla termodinamica come
si evince dal sottotitolo del suo libro Elementary Principles in Statistical Mechanics;
developed with special reference to the rational foundation of thermodynamics.

7.2 Le distribuzioni statistiche degli ensembles


Ora dobbiamo aggiungere il secondo ingrediente della moderna meccanica statistica.
Qualunque sia il sistema fisico macroscopico che si considera, si possono costruire delle
copie macroscopicamente identiche. Ogni copia corrisponderà allo stesso stato macro-
scopico, ma ogni copia sarà in un differente stato microscopico. In altri termini, i punti
delo spazio Γ che rappresentano l’evoluzione temporale del sistema al tempo  possono
essere pensati come rappresentativi di altrettante copie identiche dello stesso sistema,
evolutosi nel corso del tempo. Si comprende che il numero di copie deve essere in un
numero almeno uguale ai differenti possibili stati microscopici. Stiamo quindi parlando
di un numero molto elevato di copie mentali.Poiché ogni copia è indipendente dall’altra,
possiamo associare ad ogni copia ad un punto delle spazio Γ.
Un ensemble associato ad un determinato sistema è l’insieme delle copie che corrispon-
dono al sistema macroscopico.
Il numero totale di sistemi che costituiscono un ensemble deve comunque conservarsi.
CAPITOLO 7. GLI ENSEMBLES STATISTICI 105

In altri termini, deve valere anche per i punti rappresentativi di un ensemble l’equazione
di continuità: se si considera un volume V qualsiasi, il numero di punti rappresentativi
(numero di copie) che fluiscono nell’unità di tempo da V deve essere uguale al tasso di
decrescita del numero di copie (punti rappresentativi) in V. Poiché è sempre la dinami-
ca hamiltoniana che governa la dinamica dei punti rappresentativi, continua a valere il
teorema di Liouville. Quindi, possiamo definire una densità  (  ), in maniera tale che

 (  )  rappresenti il numero di sistemi che al tempo  si trova nell’ele-


mento di volume .

La funzione  è detta funzione di distribuzione dell’ensemble statistico. Sebbene si


parli di volumi infinitesi, questi volumi devono sempre essere tali da contenere tantissimi
punti (differenti microstati, o numero di copie, di un unico sistema macroscopico).
Per il teorema di Liouville,

=0

cioè, il fluido che descrive l’evoluzione temporale dell’ensemble statistico è incomprimi-
bile. D’altro canto se ci si limita alle distribuzioni di equilibrio (soluzioni stazionarie) la
 (  ) non può dipendere dal tempo in maniera esplicita:
 (  ) →  ( )
Tuttavia questa funzione può dipendere dal tempo attraverso le coordinate e i mo-
menti,  ( ()   ()) e questo implica che la distribuzione statistica può dipendere solo
da integrali primi del moto. In meccanica classica abbiamo solo 7 costanti del moto:
l’energia, le tre componenti della quantità di moto e le tre del momento della quantità di
moto. Le ultime sei quantità si conservano solo se il sistema non è confinato. Poiché il
nostro sistema è confinato, la  ( ) può dipendere solo dall’energia che sappiamo essere
legata all’invarianza per traslazioni temporali. Possiamo allora concludere affermando
che per un sistema isolato e all’equilibrio
 ( ) =  ()
Osservazione
Quando abbiamo introdotto i concetti probabilistici abbiamo detto che invece di cer-
care la determinazione precisa della posizione e della velocità di una particella dovevamo
cercare la probabilità di trovare una particella in un certo volume di uno spazio a sei
dimensioni. Il concetto di probabilità era legato allo stato di una singola particella. La
probabilità in Gibbs non è più riconducibile allo stato meccanico di un sistema individuale
e di conseguenza anche la sua entropia non potrà essere interpretata come una media di
qualche proprietà di un membro individuale dell’ensemble1 . In altri termini, la probabil-
ità è diventata più astratta, potendosi pensare ora come un concetto indipendente dalle
proprietà meccaniche del sistema.
1
I. Uffink, in Handbook of Philosophy of Science. Philosophy of Physics, J. Butterfield and J. Earmann
Eds, 2007 Elsevier, p. 924
CAPITOLO 7. GLI ENSEMBLES STATISTICI 106

7.2.1 Il valore medio rispetto al tempo e quello rispetto al-


l’ensemble
Supponiamo per un momento di ritornare allo spazio ordinario.
Supponiamo di dividere lo spazio in tante cellette, delle dimensioni di ∆3 . Possiamo
valutare la probabilità di trovare una particella in un determinato volumetto in due modi
distinti.
Consideriamo il generico volumetto, -esimo. Un particella, libera di accedere quante
volte vuole in questo volumetto, trascorre parte del tempo in esso e parte fuori.

Indichiamo con
∆1  ∆2      ∆
i differenti tempi di permanenza nel volumetto ∆3  , rispetto ad un tempo totale in cui
si osserva il sistema (il tempo totale è assunto molto più lungo del tempo di osservazione
di una singola misura). Allora, se indichiamo con
∆ = ∆1 + ∆2 +    + ∆
il tempo totale che una particella ha trascorso nel volumetto i-esimo, possiamo considerare
la seguente probabilità
∆
P () = lim
→∞ 
dove  è il tempo osservativo.
Il valore medio, di una qualsiasi grandezza si troverà ponendo
X
hi = P () 

La somma è estesa a tutti i volumetti in cui abbiamo diviso il nostro spazio. Questo
valore medio, si dice che è calcolato rispetto al tempo.
Supponiamo invece di avere un numero  di copie identiche del nostro contenitore. La dif-
ferenza tra le varie copie, è nella differente posizione in cui è possibile trovare la particella
che stiamo esaminando.
Se guardiamo ad un determinato istante tutte le copie,
CAPITOLO 7. GLI ENSEMBLES STATISTICI 107

possiamo valutare il numero di volte in cui la particella è nel contenitore -esimo, nello
stesso istante. Indichiamo tale numero con  .
Possiamo considerare la seguente probabilità

P () = lim
→∞ 

come la probabilità di trovare la particella nel -esimo volumetto.


Il valore medio, di una qualsiasi grandezza si troverà ponendo
X
hi = P () 

La somma è estesa a tutti i volumetti in cui abbiamo diviso il nostro spazio. Questo
valore medio, si dice che è calcolato rispetto all’ensemble.
Allora, la determinazione del numero medio si può fare in due modi equivalenti: o va-
lutando il tempo di permanenza di una molecola in un volumetto sul tempo totale di
osservazione, oppure valutando il numero di sistemi identici, nei quali una particella è in
un volumetto, rispetto al numero totale di sistemi identici. Sia il tempo osservativo che
il numero di sistemi identici devono essere molto grandi.
Noi assumeremo che le due medie portano allo stesso valore medio delle grandezze fisiche
che considereremo. Lo studio di questa uguaglianza e della sua validità è noto come
problema ergotico.
Ritornando allo spazio ΓIl valore medio di una grandezza fisica è dato dalla media
sull’ensemble RR
 ( )  (  )
   = RR
 (  )
Assumeremo che la media sull’ensemble è uguale alla media temporale.

7.3 Ensemble microcanonico.


Si abbia un sistema isolato (insieme microcanonico). In tal caso, si conserva l’energia
del sistema (), il numero di particelle () e il volume ( ). Per un sistema isolato
all’equilibrio è ragionevole assumere che tutte le regioni accessibili delle spazio delle fasi
abbiano una uguale probabilità a priori, ovvero all’equilibrio lo stato di un sistema può
essere con uguale probabilità in uno qualsiasi degli stati che soddisfano le condizioni
macroscopiche del sistema. E questo sarà il nuovo postulato di uguale probabilità a
priori.
Allora, tutti i punti dello spazio Γ che corrispondono ad uno stato macroscopico del
sistema con la stessa energia avranno lo stesso peso quando si valuterà un valore medio
sull’ensemble. La forma della distribuzione statistica dell’insieme microcanonico sarà
½
  ( ) = 
 ( ) =
0 
CAPITOLO 7. GLI ENSEMBLES STATISTICI 108

Poiché l’energia può essere determinata solo con una certa precisione, una forma più
corretta della distribuzione statistica sarebbe
½
    ( )   + 
 ( ) = (7.1)
0 
Il volume occupato dall’intero insieme microcanonico è
Z
Γ () =  ( )  (7.2)
()+

l’integrale di 2n-dimensionale è fatto su una regione dello spazio delle fasi soddisfacenti
i vincoli di volume costante, di costante numero di particelle, ma la cui hamiltoniana è
sottoposta al vincolo energetico,    ( )   + .

Più correttamente avremmo dovuto scrivere Γ (   ).


Indichiamo con Σ () il volume dello spazio Γ contenuto nella superficie ad energia
costante : Z Z
Σ () =  =  ( −  ( ))
()

Allora, il numero di stati la cui energia è compresa nella shell di energie (  + ) si
potrà scrivere
Γ () = Σ ( + ) − Σ () = Ω () 
dove abbiamo introdotto la densità degli stati Ω () = Σ()

.
Z Z
Ω ()  =  ( +  −  ( )) −  ( −  ( ))

da cui, nel limite  → 0, otterremo


Z

Ω ()  =   ( −  ( ))

In definitiva, possiamo scrivere
Z
Ω () =  ( −  ( )) (7.3)
CAPITOLO 7. GLI ENSEMBLES STATISTICI 109

ovvero, la densità di probabilità microcanonica si potrà scrivere,


 ( −  ( ))
 ( ) = (7.3a)
Ω ()
Allora, un ensemble microcanonico è una collezione mentale di sistemi simili tutti
preparati in maniera identica, con lo stesso numero di particelle, lo stesso volume e lo
stesso range di energia (  + ). La probabilità che un sistema sia in un particolare
stato è data dalla frazione dell’ensemble nel determinato stato. Gli stati sono solo quelli
accessibili, cioè quelli che sono compatibili con i vincoli imposti. Per determinare la
frazione di stati di nostro interesse dobbiamo valutare il numero totale di stati accessibili,
cioè Ω, e assegnare assegnato a ciascuno di essi una uguale probabilità a priori,
1
=

Osservazione
L’entropia di un sistema andrebbe definita come
 =  ln Γ ()
dove Γ () è definita dalla (7.2). Notiamo che l’argomento dell’integrale ha le dimensione
dell’azione ()3 . Come abbiamo discusso nel caso della densità degli stati nello spazio ,
potremmo dividere per una costante che abbia le dimensione dell’azione, in maniera tale
che l’argomento del logaritmo sia adimensionale. Questa costante in meccanica classica
è arbitraria e questo si riflette nel fatto che, in meccanica classica, l’entropia è definita
a meno di una costante arbitraria. Cosa diversa accade in meccanica quantistica dove la
costante è determinata ed è uguale alla costante di Planck. Quindi,
µ ¶
Γ ()
 =  ln
3
Se si considera il caso di un numero N praticamente infinito di sistemi, dovremmo scrivere
anche dividere per  !,/ µ ¶
Γ ()
 =  ln
3 !
al fine di considerare anche il corretto conteggio che porta l’entropia ad essere estensiva.
Sempre in questo caso l’entropia si potrebbe definire sia come
 =  ln Σ ()
che come
 =  ln Ω ()
perchè tutte queste definizioni differiscono per termini dell’ordine di ln , che nel limite
termodinamico ( e  → ∞, ma il rapporto  tende ad un valore costante) non è
significativo.
Abbiamo deciso di adottare la definizione  =  ln Ω ().
Ora valuteremo Ω in due casi: il gas ideale monoatomico e le particelle con momento
magnetico su reticolo.
CAPITOLO 7. GLI ENSEMBLES STATISTICI 110

7.3.1 Esempio 1: il gas ideale microcanonico


Innanzitutto Z Z
Σ ()
Ω () = =   3  ( −  ( ))
3

Se il sistema in esame è il gas ideale monoatomico, costituito da  particelle, si può
mostrare che √ q
 3
Ω () =  3
 (2)3−1
(32)!
Esercizio: Provare la precedente espressione.
La condizione di uniformità spaziale consente di fare immediatamente l’integrazione
sulle coordinate spaziali è immediata,
Z

Ω () =  3  ( −  ( )) (7.4)

Questo integrale non è altro che una ipersuperficie. Se  è la dimensione dello spazio,
la superficie si potrà scrivere come

 =  −1 (7.5)

dove  è una costante che dipende dalla dimensione dello spazio. L’integrale può essere
trasformato, usando la simmetria sferica del problema in un integrale in una dimensione.
Facciamoci guidare dal caso tridimensionale. Il nostro sistema è costituito da
particelle indipendenti,
Z Ã !
X3
2
Ω () =  1 2 3   − (7.6)
=1
2

Data la simmetria del problema, si possono usare le coordinate sferiche e integrare sulle
variabili angolari, Z ∞ µ ¶
2 2
Ω () =  4    − (7.7)
0 2
Questo risultato suggerisce di scrivere la (7.4) come segue
Z ∞ µ ¶
 3−1 2
Ω () =     − (7.8)
0 2

dove abbiamo indicato la costante geometrica con  . Questa costante dovrà essere
determinata.
Ritorniamo all’integrazione nel caso tridimensionale. L’integrazione sulla delta può
eseguirsi. Per esempio, posto

2
=  = 
2
CAPITOLO 7. GLI ENSEMBLES STATISTICI 111

Z ∞

Ω () =  4  √ (2)  ( − )
0 2
ovvero Z ∞ p
Ω () =  4  (2) ( − )
0
e quindi Z ∞ p
Ω () =  4  (2) ( − )
0
da cui √
Ω () =  4 2
Procedendo come nel caso tridimensionale, otterremo prima
Z ∞ q

Ω () =     (2)3−1  ( − ) (7.9)
0
e poi q
Ω () =    (2)3 −1

(7.10)
Non rimane che determinare la costante geometrica.
Per valutare la costante geometrica partiamo dagl’integrali gaussiani,
Z ∞ Z ∞
¡ 2¢ ¡ ¢ ¡√ ¢
1 exp −1   exp −2 = 
−∞ −∞

Lo stesso integrale può eseguirsi in coordinate sferiche generalizzate


Z ∞ Z ∞ Z ∞ ³´
¡ 2¢ ¡ 2¢ ¡ ¢ 1
1 exp −1   exp − =   exp −2 −1 =  Γ
−∞ −∞ 0 2 2
dove abbiamo utilizzato la funzione Gamma di Eulero,
Z ∞
Γ () =  exp (−) −1
0
Dal confronto dei due integrali otteniamo
√ 
2 
 = ¡  ¢
Γ 2
Per  intero ³´ ³ ´
Γ = −1 !
2 2
e alla fine si otterrà √ 

 =  (7.11)
(2)!
dove ricordiamo  = 3.
Introducendo questa espressione nella (7.10) si arriva a
√ q
 3

Ω () =  3  (2)3−1 (7.12)
(32)!
come avevamo annunciato.
CAPITOLO 7. GLI ENSEMBLES STATISTICI 112

L’entropia microcanonica e quella di Boltzmann


Per valutare l’entropia dobbiamo prendere il logaritmo di Ω ().
Quando prendiamo il logaritmo per definire l’entropia, l’argomento del logaritmo non
è un numero puro ma ha le dimensioni di un’azione elevata a 3. Se dividiamo Ω ()
per 3 (ma non per !) avremmo risolto il problema dimensionale. Questa operazione
è naturale in meccanica quantistica, mentre in meccanica classica questa costante rimane
arbitraria (si riveda la discussione sulla densità degli stati).
Allora, assumeremo di dividere la (7.12) per 3 . In questo modo, potremo anche
confrontare i risultati che otterremo con quelli ottenuti nel capitolo quinto. Mostrere-
mo che l’entropia microcanonica coincide con l’entropia calcolata da Boltzmann. Allora
partiamo da √ q
1   3
Ω () = 3  3  (2)3−1
 (32)!
Passando ai logaritmi, avremo
( √ q )
 3
ln Ω () =  ln  + ln 3  (2)3−1 (7.13)
(32)!

che riscriviamo come


( √ q )
2  3
ln Ω () =  ln  + ln ¡ 3 ¢  (2)3−1
2
−1 !

e poi (√ ) ∙ √ q ¸
 3−1 3−1
ln Ω () =  ln  + ln ¡ 3 ¢ + ln 2   (2)
3

2
−1 !
esplicitando
³√ ´ µ ¶ ∙ √ q ¸
3 3−1
ln Ω () =  ln  + ln  3 −1 − ln − 1 ! + ln 2  3  (2)
2
arriviamo a
µ ¶ µ ¶ ∙ √ q ¸
3 1 3 3−1
ln Ω () =  ln  + − ln  − ln − 1 ! + ln 2  3  (2)
2 2 2
Per  molto grande possiamo approssimare, i due termini
3 1 3 3 3
− ' −1'
2 2 2 2 2
e usare l’approssimazione di Stirling per il logaritmo del fattoriale:
µ ¶ µ ¶ µ ¶
3 3 3 3
ln !' ln −
2 2 2 2
CAPITOLO 7. GLI ENSEMBLES STATISTICI 113

Avremo,
µ ¶ µ ¶ ∙ √ q ¸
3 3 3 3 3−1
ln Ω () =  ln  + ln  − ln + + ln 2  3  (2)
2 2 2 2

da cui
µ ¶ µ ¶ ∙ √ q ¸
3 2 3 3 3 −1
ln Ω () =  ln  + ln + + ln 2   (2)
2 3 2

e infine ∙ µ ¶ ¸
3 2
ln Ω () '  ln  +  ln + (7.14)
2 3
dove  è una costante. Poiché,
 3
=   (7.15)
 2
potremo scrivere ∙ ¸
3
ln Ω () '  ln  +  ln (  ) + 
2
In definitiva, l’entropia sarà
½ ∙ ¸¾
3
 =  ln  + ln (  ) +  (7.16)
2

Possiamo confrontare tale espessione con l’entropia del gas ideale monoatomico deriva-
ta nel capitolo quinto ∙ ¸
3
 =  ln  + ln (  ) + 
2
Il confronto delle due ultime espressioni ci consente di affermare che l’entropia del gas
ideale monoatomico microcanonico coincide con l’entropia di Boltzmann dello stesso gas.

7.3.2 Esempio 2: particelle su reticolo con momento magnetico


Immaginiamo di disporre in ogni quadrato di una scacchiera un moneta. Come sappi-
amo ogni casella della scacchiera è numerata e identificabile. Con qualche meccanismo
potremmo ad ogni determinato istante far si che le monete possano diventare o testa o
croce. In altre parole, è come se lanciassimo tutte le monete insieme e quando cadono
ognuna finisce in una determinata casella. Ora la scacchiera in alcuni sistemi fisici si
chiama reticolo e su ogni nodo del reticolo si può pensare di porre un particella. Se le
particelle hanno un momento magnetico,  che può prendere solo due valori (si parla di
particelle con spin 1/2), quando si accende un campo magnetico esterno ogni particella
potrà orientare il suo momento magnetico o lungo il campo oppure nella direzione oppos-
ta. Diremo che nel primo caso l’energia della particella sarà 1 = − = −, mentre se
sono orientati nella direzione opposta, l’energia sarà 2 =  = . Come per il lancio delle
CAPITOLO 7. GLI ENSEMBLES STATISTICI 114

monete ci saranno 1 particelle che avranno energia 1 , mentre ci saranno 2 =  − 1


che avranno energia 2 . Poiché si conserva il numero di particelle e l’energia, possiamo
sia scrivere che
 = −1 + ( − 1 )  =  − 21  (7.17)
che determinare il numero totale di stati accessibili
!
Ω= (7.18)
1 ! ( − 1 )!
Passando al logaritmo µ ¶
!
ln Ω = ln
1 ! ( − 1 )!
e usando Stirling,

ln Ω =  ln  −  − 1 ln 1 + 1 − ( − 1 ) ln ( − 1 ) +  − 1

avremo prima
³ 1 ´ ³ 1 ´ ³ 1 ´
ln Ω =  ln  − 1 ln 1 −  1 − ln  −  1 − ln 1 −
  
e infine h ³ ´ ³
1 1 1 ´ ³ 1 ´i
ln Ω = − ln + 1− ln 1 − (7.19)
   
Posto

=

troveremo, dall’espressione dell’energia.
1 1− 1 1+
= 1− =
 2  2
e la seguente forma dell’entropia,
∙µ ¶ µ ¶ µ ¶ µ ¶¸
1+ 1+ 1− 1−
 = − ln + ln (7.20)
2 2 2 2
Ora, dal primo principio della termodinamica
µ ¶ µ ¶ µ ¶
1     1
= = = (7.21)
        
mentre µ ¶
  1+
=− ln
 2 1−
In definitiva µ ¶
1  1−
= ln (7.22)
 2 1+
CAPITOLO 7. GLI ENSEMBLES STATISTICI 115

Passando agli esponenziali


µ ¶
 1−
exp 2 =
  1+
poiché
1 + tanh 
exp (2) =
1 − tanh 
troveremo

 = − tanh
 
per cui, l’energia del sistema sarà

 = − tanh (7.23)
 

7.4 Ensemble canonico


L’ensemble microcanonico non è adatto a descrivere la maggior parte dei sistemi fisici,
perché limita ad un intervallo energetico molto ristretto la variabilità dell’energia. Molti
sistemi fisici sono meglio descrivibili se si suppone che essi siano in contatto termico
con una sorgente di calore il cui unico compito sarà quello di mantenere costante la
temperatura del sistema in esame. Come possiamo rappresentare questo sistema mediante
gli ensemble? Si considerano delle repliche mentali del sistema in esame, ma questa volta
viene focalizzata l’attenzione su una di queste repliche, mentre le rimanenti N − 1 copie
costituiscono il bagno termico in cui è immerso il sistema in esame. Le N − 1 sono in
contatto tra di loro e con il sistema in esame; a causa del contatto l’energia può essere
scambiata tra il sistema e il suo intorno. L’energia del sistema può ora variare, in principio,
da zero ad infinito. Poiché le copie si possono pensare allocate intorno al sistema in esame
e sono in posizioni quindi differenti, tutti i sistemi sono distinguibili. Indicheremo con
, il sistema in esame e con  (reservoir) l’insieme delle copie che costituiscono il bagno
termico. L’insieme del sistema + sia un sistema isolato. Questo significa che il sistema
complessivo è rappresentabile come un ensemble microcanonico.

Allora, la distribuzione statistica del sistema ( + ), che indicheremo con  potrà
scriversi,
1
= (1)
Ω ()
CAPITOLO 7. GLI ENSEMBLES STATISTICI 116

dove ricordiamo che      + . Indichiamo con  e con  le energie istantanee


del sistema  e del . Questo vuol dire che l’energia totale  =  +  è una costante.
Se le due parti,  ed  sono debolmente interagenti, si possono considerare come due
sistemi indipendenti e si può scrivere
 =   (2)
e quindi
1
  =
Ω ()
da cui
1 1 Ω ( )
 = = (3)
 Ω () Ω ()
Per valutare la nuova distribuzione statistica basta valutare Ω ( ). Possiamo pren-
dere il logaritmo di Ω ( ). Osserviamo, che il sistema  è piccolo rispetto alle rima-
nenti copie, sicuramente   , di conseguenza, poiché ln Ω ( ) = ln Ω ( − ),
dall’espansione:
µ ¶
 ln Ω ( )
ln Ω ( − ) ' ln Ω () −  + 
 '

otterremo
ln Ω ( ) = ln Ω () −  (4)
dove abbiamo posto µ ¶
 ln Ω ( )
= (5)
 '
Se si prende l’esponenziale dell’ultima relazione si ottiene
Ω ( ) = Ω () exp (−) (6)
Vediamo che questo risultato ci dice che il serbatoio viene coinvolto solo attraverso il
fattore . Ora possiamo ottenere la nuova distribuzione statistica
Ω ( ) Ω ()
 = = exp (−) =  exp (−) (7)
Ω () Ω ()
doce  è una costante che si può derivare dalla normalizzazione, ma che in ogni caso è
indipendente dal sistema A. La condizione di normalizzazione si ottiene sommando su
tutti gli stati del sistema piccolo, quindi
X
 exp (− ) = 1

La costante è l’inversa della funzione di partizione dell’ensemble canonico,


1 1
=P = (8)
 exp (− ) 
CAPITOLO 7. GLI ENSEMBLES STATISTICI 117

Di conseguenza, la distribuzione canonica sarà

exp (−)
 = (9)

Questa equazione esprime la probabilità che un particolare stato del sistema, la cui
energia è , sia occupato. Si può inoltre mostrare che
1
=
 
dove  è la temperatura dell’ambiente cui è connesso il sistema A.

7.4.1 Il gas ideale


Nel caso di un gas ideale costituito da N particella la funzione di partizione sarebbe
Z
 = 3 3  exp (− ( )) (10)

dove
X
2
= (11)
=1
2
L’integrazione può essere eseguita rapidamente perché avremmo N termini tutti uguali
alla funzione di partizione di particella singola
Z Z µ ¶
2
3 3
 =     exp − =  (2  )32 (12)
2 
per cui
 =   =   (2  )32 (13)
Ritroviamo ancora una volta il consueto risultato. E si potrebbero riottenere anche
tutti glia altri risultati.

7.4.2 L’entropia dell’ensemble canonico


Un discorso a parte merita l’entropia.
Abbiamo detto che tutte le copie sono distinguibili sebbene in contatto tra di loro e
con la copia in esame. Supponiamo che le possibili energie che può prendere un sistema
siano indicizzate in maniera discreta. Allora, ci saranno 1 copie nello stato con energia
1 , 2 copie nello stato con energia 2 , e così via. Il numero di modi di disporre 1 sistemi
in uno stato |1 i, 2 sistemi nello stato |2 i e così via sarà data dalla seguente espressione

N! N!
Ω= =Q (14)
1 !2 !  
CAPITOLO 7. GLI ENSEMBLES STATISTICI 118

L’entropia per gli N sistemi sarà


" #
N! Y
N =  ln Q =  [ln N !] − ln  ! (15)
  ! 

Usiamo Stirling,
" # " #
X X
N =  [ln N !] − ln  ! =  N ln N − N − ( ln  −  )
 
P
e poiché N =   otterremo
" #
X
N =  N ln N −  ln  (16)

Ora la riscriveremo come


" # " #
X X X ³ ´

N =   ln N −  ln  = −  ln
  
N

e in definitiva " #
X  ³  ´
N = − N ln (17)

N N
Poiché N tende all’infinito,

 = (18)
N
rappresenta la probabilità che il sistema sia nello stato | i. L’entropia per sistema
avrà la seguente espressione
" #
N X
= = −  ln  (19)
N 

Nel caso in cui la probabilità è costante, come nel caso microcanonico,


1
= (20)

l’entropia si riduce, come era prevedibile, a quella microcanonica, che coincide con quella
di Boltzmann:

XΩ µ ¶
1 1
 = − ln =  ln Ω (21)
=1
Ω Ω
CAPITOLO 7. GLI ENSEMBLES STATISTICI 119

7.4.3 L’energia libera


Possiamo esplicitare l’entropia per sistema nel modo seguente
⎡ ³ ´⎤

X exp −  
 = − ⎣  ln ⎦ (22)



che diventa
" # " #
X  X 1 X
 =   +  ln  =    + ln  (23)

  
  

Poiché, X
hi =  

è l’energia media, otterremo


hi
= +  ln 

che diventa
hi −   = −  ln  (24)

7.4.4 Il sistema a due livelli


Quando abbiamo descritto il sistema di particelle con momento magnetico sul reticolo
abbiamo assunto che ciascuna particella poteva prendere solo due valori dell’energia:
1 = − = − e 2 = . Il sistema è allora un sistema a due soli livelli di energia. La
funzione di partizione di questo singolo sistema a due livelli è
µ ¶ µ ¶ µ ¶∙ µ ¶¸
   2
 = exp + exp − = exp 1 + exp − (1)
       

La funzione energia libera sarà


∙ µ ¶¸
2
 = −  ln  = − −   ln 1 + exp − (2)
 

mentre l’entropia sarà


µ ¶ ∙ µ ¶¸
 2 2
=− =  ln 1 + exp − + ³ ´ (3)
    1 + exp 2


Possiamo valutare questa espressione in due casi limiti.


Caso    
CAPITOLO 7. GLI ENSEMBLES STATISTICI 120

Avremo µ ¶ µ ¶
  
→0 exp − = exp =1
     
il secondo termine si annulla mentre il primo diventa

 =  ln 2     (4)

Caso    
Il secondo termine, avendo al denominatore un esponenziale che diventa infinito, si
annulla. L’esponenziale del primo termine diventa nullo e rimane

 =  ln 1 = 0  →0 (5)

L’entropia si annulla quando la temperatura assoluta tende a zero. Questa è una


forma del terzo principio della termodinamica.
Infine, l’energia media del sistema,
2
hi =  +  = ³ ´ −
2
1 + exp  

Poiché µ ¶
2 1 + tanh  
exp =
  1 − tanh  
troveremo che l’energia media del sistema sarà

hi = − tanh   (6)

Questo risultato coincide con quello ottenuto nel caso microcanonico, solo che in quello
microcanonico non valutavamo l’energia media ma l’energia costante del sistema.

La capacità termica
Potremmo anche valutare la capacità termica del sistema. Infatti

 hi
= (7)

e troveremo
2 1 1
= 2 2 (8)
  cosh (  )
Possiamo valutare questa espressione in due limiti.
Caso    
Avremo

→0 cosh (  ) = 1
 
CAPITOLO 7. GLI ENSEMBLES STATISTICI 121

e quindi
2 1
=     (9)
  2
Caso    
Avremo

→∞ cosh () ' exp () = ∞
 
e quindi
=0  →0 (10)

7.5 Ensemble gran canonico


Supponiamo che il sistema A possa scambiare oltre che l’energia anche le particelle con
il serbatotio.

In questo caso
1
 = (1)
Ω ( )
e ripetendo le stesse considerazioni già svolte per l’ensemble canonico, troveremo che

Ω (   )
 = (2)
Ω ( )

Passiamo ai logaritmi e sviluppiamo in serie, utilizzando le due relazioni

 =  +   =  + 

’identità ln Ω (   ) = ln Ω ( −    −  ) , non solo rispetto all’energia ma


anche al numero di particelle
µ ¶
 ln Ω ( )
ln Ω ( −   − ) = ln Ω ( ) −  +
 ' '
µ ¶
 ln Ω ( )
+ 
 ' '
CAPITOLO 7. GLI ENSEMBLES STATISTICI 122

Ponendo
µ ¶ µ ¶
 ln Ω ( )  ln Ω ( )
= =
 '  '  ' '

troviamo prima
ln Ω (   ) = ln Ω ( ) −  − 
e poi
Ω (   ) = Ω ( ) exp (− − ) (3)
Allora,
Ω ( )
 = exp (− − ) =  0 exp (− − ) (4)
Ω ( )
dove la costante  0 sicuramente non dipende dal sistema . La costante  0 si ottiene
dalla normalizzazione e sarà l’inverso della funzione di partizione grancanonica:
1
0 = (5)
Z
con XX
Z= exp (− −  ) (6)
 

Vale la pena ricordare che l’energia dipende a sua volta dal numero di particelle.

7.5.1 Il significato di  e 
Il primo principio della termidinamica si scrive
   
 = + − (7)
  
D’altra parte la definizione statistica di entropia

 =  ln Ω (  )

comporta che
 ln Ω  ln Ω  ln Ω
 =   +   +  
  
Se si confrontano le due espressioni si ottengono le seguenti relazioni
 ln Ω 1  ln Ω   ln Ω 
= = =− (8)
        
CAPITOLO 7. GLI ENSEMBLES STATISTICI 123

7.5.2 Letture integrative


La letteratura sull’argomento è vasta. Sulla rete si trovano dispense introduttive di scuola
italiana di buon livello.
A. M. Glazer and J. S. Wark, Statistical mechanics. A survival guide, OUP, 2001
R. Bowley and M. Sanchez, Introductory Statistical mechanics, Clarendon press,
Oxford, 1998
R. K. Pathria, Statistical mechanics, Butterworth-Heinemann, Boston, 1996 (esiste
anche una edizione italiana)
G. Boffetta e A. Vulpiani: Probabilità in fisica; una introduzione, Springer, Milano,
2012
E. Guadagnini, Primo corso di Fisica statistica, Pisa university Press, Pisa, 2011.