Sei sulla pagina 1di 132

Introduzione alla Fisica Statistica

Dispense basate sul corso del prof. Stefano Zapperi

Giacomo Mandelli
This work is licensed under the Creative Commons
Attribution-NonCommercial-NoDerivatives 4.0 International License. To view a
copy of this license, visit http://creativecommons.org/licenses/by-nc-nd/4.0/ or
send a letter to Creative Commons, PO Box 1866, Mountain View, CA 94042,
USA.

Le immagini sono esenti da CC

1
Indice

1 Introduzione alle Probabilità 5


1.1 Obiettivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Alcuni Risultati nella Teoria delle Probabilità . . . . . . . . . . . . . 5
1.2.1 Una Variabile Random: Caso Continuo . . . . . . . . . . . . . 6
1.2.2 Distribuzione Uniforme Continua . . . . . . . . . . . . . . . . 10
1.2.3 Una Variabile Random: Caso Discreto . . . . . . . . . . . . . 10
1.3 Alcune Famose Distribuzioni . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 La Distribuzione Normale (Gaussiana) . . . . . . . . . . . . . 11
1.3.2 La Distribuzione Binomiale . . . . . . . . . . . . . . . . . . . 12
1.3.3 La Distribuzione di Poisson . . . . . . . . . . . . . . . . . . . 13
1.4 Più Variabili Aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5 Somma di Variabili Random e Teorema del Limite Centrale . . . . . . 17
1.6 Regole per Numeri Grandi . . . . . . . . . . . . . . . . . . . . . . . . 18

2 Il Random Walk 20
2.1 Caso Uno Dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Caso a Due Dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Altri Cammini Aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 L’Equazione di Diffusione . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5 Correnti di Materia e Generalizzazione del Random Walk . . . . . . . 24
2.5.1 In Assenza di Forzanti . . . . . . . . . . . . . . . . . . . . . . 24
2.5.2 In Presenza di Forzanti Indipendenti dalla Posizione . . . . . . 24
2.5.3 In Presenza di Forzanti Dipendenti dalla Posizione . . . . . . 25

3 Descrizione della Termodinamica 28


3.1 L’Insieme Microcanonico . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.2 Applicazione al Gas Ideale - Spazio delle Configurazioni . . . . 30
3.1.3 Spazio dei Momenti . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Derivazione della Termodinamica . . . . . . . . . . . . . . . . . . . . 35
3.2.1 Due Sistemi Isolati a Contatto . . . . . . . . . . . . . . . . . . 35
3.2.2 Altre Interazioni tra Sottosistemi . . . . . . . . . . . . . . . . 38
3.2.3 Entropia e Gas Ideale . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.4 Aggiustamenti al Volume dello Spazio delle Fasi . . . . . . . . 41
3.3 Dinamica nello Spazio delle Fasi ed Ergodicità . . . . . . . . . . . . . 41
3.3.1 Il Teorema di Liouville . . . . . . . . . . . . . . . . . . . . . . 41
3.3.2 Ergodicità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2
4 L’Entropia 45
4.1 Entropia ed Irreversibilità . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Entropia e Disordine . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.1 Il Paradosso di Gibbs . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Entropia come Ignoranza . . . . . . . . . . . . . . . . . . . . . . . . . 48

5 L’Ensamble Canonico 51
5.1 Descrizione Generale . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2 Calcolo di Grandezze termodinamiche . . . . . . . . . . . . . . . . . . 52
5.2.1 Estensività delle Variabili Termodinamiche nel Canonico . . . 54

6 L’Ensamble Gran Canonico 58


6.1 Descrizione Generale . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.1.1 Riscrittura della Gran Partizione . . . . . . . . . . . . . . . . 59
6.2 Fluttuazioni del Sistema . . . . . . . . . . . . . . . . . . . . . . . . . 60

7 La Termodinamica 61
7.1 Alcune Applicazioni degli Ensamble . . . . . . . . . . . . . . . . . . . 62
7.1.1 Meccanica: Frizioni e Fluttuazioni . . . . . . . . . . . . . . . . 62
7.1.2 Chimica: Equilibrio e Cinetica di Reazione . . . . . . . . . . . 65
7.1.3 Densità di Energia Libera per il Gas Ideale . . . . . . . . . . . 67

8 Il Modello di Ising 70
8.1 Sistemi Ferromagnetici . . . . . . . . . . . . . . . . . . . . . . . . . . 70
8.2 Il Magnetismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.3 Le Leghe Binarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
8.4 Liquidi, Gas e Punto Critico . . . . . . . . . . . . . . . . . . . . . . . 74
8.5 Approccio alla Soluzione del Modello di Ising . . . . . . . . . . . . . . 76
8.5.1 Approssimazione di Campo Medio . . . . . . . . . . . . . . . . 76
8.5.2 Soluzione Esatta 1D . . . . . . . . . . . . . . . . . . . . . . . 78
8.5.3 Soluzioni Approssimate . . . . . . . . . . . . . . . . . . . . . . 81

9 Meccanica Statistica Quantistica 88


9.1 Matrici di Densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.1.1 Applicazione all’Oscillatore Armonico . . . . . . . . . . . . . . 90
9.2 Statistica di Bose e Fermi . . . . . . . . . . . . . . . . . . . . . . . . 92
9.2.1 Bosoni e Fermioni Non Interagenti . . . . . . . . . . . . . . . 93
9.3 Statistica di Maxwell-Boltzmann . . . . . . . . . . . . . . . . . . . . 95

10 Parametri d’Ordine e Transizioni di Fase 97


10.1 Teoria di Landau per le Transizioni di Fase . . . . . . . . . . . . . . . 105

11 Correlazione, Fluttuazione e Dissipazione 109


11.1 Le Funzioni di Correlazione . . . . . . . . . . . . . . . . . . . . . . . 109
11.2 Ipotesi di Regressione di Onsager . . . . . . . . . . . . . . . . . . . . 113
11.3 Risposta del Sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
11.3.1 Esempio Pratico . . . . . . . . . . . . . . . . . . . . . . . . . 117
11.4 Suscettività all’Equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . 118
11.5 Il Teorema di Fluttuazione e Dissipazione . . . . . . . . . . . . . . . . 120

3
12 Transizioni di Fase 122
12.1 Transizioni di Fase e Discontinuità . . . . . . . . . . . . . . . . . . . 122
12.2 La Nucleazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
12.2.1 Teoria della Nucleazione . . . . . . . . . . . . . . . . . . . . . 125
12.3 Transizioni del Secondo Ordine . . . . . . . . . . . . . . . . . . . . . 127
12.4 Il Modello della Percolazione . . . . . . . . . . . . . . . . . . . . . . . 128
12.5 Fenomeni Critici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

4
Capitolo 1

Introduzione alle Probabilità

1.1 Obiettivo
L’obiettivo è andare a relazionare il mondo macroscopico, governato dalle leggi della
termodinamica, con il mondo microscopico, governato dalla meccanica classica e
quantistica. Il linea di massima si potrebbe studiare un sistema di N particelle con il
solo ausilio delle leggi del moto classico. Il problema di un approccio di questo tipo
sta nella necessità di conoscere esattamente le condizioni iniziali per poi conoscere
l’evoluzione temporale. Una descrizione probabilistica del sistema microscopico può
tornarci utile.

1.2 Alcuni Risultati nella Teoria delle Probabilità


Consideriamo una variabile random x con un set S = {x1 ; x2 ; ...; xN } di possibili
outcomes. L’insieme può essere discreto (risultati di un tiro di dadi) o continuo
(velocità delle particelle in un gas ad una certa temperatura T ). Un evento è un
sottoinsieme di S: E ⊂ S. Per esempio, nel caso discreto del dado, E = {1}. Ad
ogni evento è associata una probabilità p(E) ovvero la probabilità di ottenere un
risultato appartenente ad un sottoinsieme di tutti i possibili outcome.
Passiamo ora ad una visione più assiomatica della situazione. Le probabilità (usiamo
il buonsenso) devono soddisfare le seguenti proprietà:

Positività: p(E) ≥ 0. Tutte reali e non negative.

Additività: p(A + B) = p(A) + p(B) a patto che A e B siano eventi indipendenti.

Normalizzazione: p(S) = 1, infatti la variabile random x dovrà per forza di cose


avere un valore in S.

Da un punto di vista pratico siamo interessati a calcolare queste probabilità e


gli approcci possibili sono due:

Oggettivo: le probabilità vengono ottenute sperimentalmente dalla frequenza rela-


tiva per determinati eventi in più test indipendenti. Dati N trial, con un evento
A che occorre NA volte,
NA
p(A) = lim
N →∞ N

5
Soggettivo: risultato basato su considerazioni teoriche. Necessario nel momento
in cui viene a meno la conoscenza precisa dei risultati ottenuti. I risultati
cosı̀ ottenuti dovrebbero sempre essere verificati sperimentalmente con analisi
oggettiva.

1.2.1 Una Variabile Random: Caso Continuo


Ci concentriamo in questo capitolo sullo studio di una variabile random a valori
continui e numeri reali come possibili risultati: Sx = {−∞ < x < +∞}.

Funzione di probabilità cumulativa(CPF) P (x), come suggerisce il nome, espri-


me la probabilità di ottenere un risultato con un valore minore o uguale ad x,
P (x) = prob(E ⊂ [−∞, x]). Per la rappresentazione grafica entra in gioco il
buonsenso, in primis P(x) deve essere monotonicamente crescente, basti pen-
sare all’accumulo di valori possibili che ci si lascia alle spalle man mano che
x cresce. La crescita di x implica una crescita dell’insieme considerato ed ergo
la probabilità aumenta in modo proporzionale fino ad assumere il valore 1 per
x −→ ∞. Per x −→ −∞ invece ha senso che P (x) = 0, vedi immagine 1.1.

Figura 1.1

Funzione di densità di probabilità(PDF) p(x) è definita come la derivata in


x della CPF. In quanto tale, p(x) deve essere normalizzata.R +∞ Dunque: p(x) =
dP (x)/dx, p(x)dx = prob(E ∈ [x, x + dx]) con P (S) = −∞ p(x) dx = 1. p(x)
non ha limiti superiori e può contenere divergenze o cose stortignaccole a patto
che risultino integrabili e sul totale risulti una funzione normalizzabile.

Valore di aspettazione: di una funzione di una variabile casuale F (x). Viene


definito come: Z +∞
hF (x)i = p(x)F (x) dx
−∞

Intuitivamente significa pesare sulla p(x) e sommare i valori assunti dalla fun-
zione F (x) nel continuo di x. F(x) è essa stessa una variabile random ed è
perciò possibile operare su di essa nel modo in cui si opera con qualsiasi va-
riabile. Denominiamo i valori da essa assunti f . Cerchiamo ora di instaurare
una relazione tra le variabili x e f con l’ausilio dell’interpretazione di un gra-
fico come quello mostrato in figura 1.2. Possono esserci molteplici soluzioni xi

6
Figura 1.2

all’equazione F (x) = f e dunque la PDF associata a F (x) rispetta la seguente


equazione:
pF (f )df = prob (F (x) ∈ [f, f + df ])
Da cui:

X X dx
pF (f )df = p(xi )dxi ⇒ pF (f ) = p(xi )
i=1 i=1
dF x=xi
dx
può essere interpretato come il Jacobiano che ci permette di eseguire il
dF
cambio di variabili random da x a f .
Momenti della PDF. Sono i valori di aspettazione delle potenze delle variabili
random. L’ennesimo momento:
Z
mn = hx i = dxp(x)xn
n

Funzione caratteristica è la funzione generatrice dei momenti della distribuzione.


E’ la Fourier trasformata della PDF e corrisponde al valore di aspettazione
dell’esponenziale e−ikx :
Z

−ikx
p̃(k) = e = dxp(x)e−ikx

La PDF si può riottenere dalla funzione caratteristica mediante Fourier tra-


sformata inversa: Z
1
p(x) = dk p̃(k)e+ikx

I momenti della distribuzione possono essere ottenuti tramite espansione in
serie di potenze dell’esponenziale della funzione caratteristica in potenze di k:
* +∞ + +∞
X (−ik)n X (−ik)n
p̃(k) = xn = hxn i (1.1)
n=0
n! n=0
n!

I momenti possono essere generati anche espandendo la Pserie in punti diversi


+∞ (−ik)n
dall’origine con una traslazione del centro della stessa: n=0 n! h(x − x0 )n i.

7
Funzione generatrice dei cumulanti viene definita come il logaritmo della fun-
zione caratteristica. La sua espansione va a generare i cumulanti della distri-
buzione: ∞
X (−ik)n n
ln (p̃(k)) = hx ic (1.2)
n=1
n!
Per ottenere un’espressione dei cumulanti a partire dai momenti della distri-
buzione è possibile procedere in questo modo:
Partiamo dalla definizione di cumulante ovvero ln p̃(k) ed esplicitiamo p(k) in
serie di potenze anch’esse centrate nell’origine come il logaritmo. Otteniamo
dunque

X (−ik)n n
ln p̃(k) = ln(1 + hx i). (1.3)
1
n!
| {z }

P∞ n+1 n
Ricordandoci che: ln(1 + ) = 1 (−1) n
, la formula (1.3) diventa:
∞ ♣
n
n+1 
X
ln p̃(k) = (−1)
1
n

Eguagliando e confrontando l’espansione in potenze della (1.2) con i termini


ottenuti dall’espansione di ♣ si ottengono le espressioni desiderate per i cu-
mulanti, come quelle riportate nella tabella sottostante per i primi cumulanti.

hxic = hxi

hx2 ic = hx2 i − hxi2

hx3 ic = hx3 i − 3hx2 ihxi + 2hxi3


ecc...

Per esempio, il primo cumulante e il secondo si possono ottenere troncando ♣


e (1.1) al secondo ordine da cui si ottiene:

(−ik)2 2 (−ik)2 2 (−ik)3 (−ik)4 2 2


(−ik)hxi + hx i + hxi + hxihx2 i + hx i =
2 2 2 8
(−ik)2 2
(−ik)hxic + hx ic
2
Risolvendo l’uguaglianza per il primo e il secondo cumulante ritroviamo effet-
tivamente l’espressione desiderata.

I cumulanti forniscono una via facile e intuitiva per descrivere una PDF. Per
esempio, il primo cumulante è comunemente chiamato media, il secondo è
conosciuto come varianza e misura lo scostamento della curva associata alla
PDF dalla media. Il terzo cumulante è la skewness e misura il grado di asim-
metria della curva rispetto alla media. Il quarto cumulante è conosciuto come

8
curtosi e misura lo spessore delle code della distribuzione o in altri termini il
suo grado di appiattimento.

Può risultare molto utile in alcune situazioni andare a calcolare i momenti di


una distribuzione a partire dai cumulanti. Un importante teorema ci viene in
aiuto in questo caso e prima di snocciolarne la natura matematica andremo a
darne un’interpretazione grafica e di immediato utilizzo.
Dato un momento emmesimo disegnamo m puntini. Ogni possibile suddivisione
di un gruppo di puntini è associata ad un cumulante e la somma di tutte le
possibili suddivisioni va a generare il momento corrispondente, vedi immagine
1.3.

Figura 1.3

Le espressioni matematiche associate sono le seguenti:


hxi = hxic
hx2 i = hx2 ic + hxi2c
hx3 i = hx3 ic + 3hx2 ic hxic + hxi3c
ecc...

Il teorema si può dimostrare eguagliando le due espressioni per p̃(k):



"∞ #
X (−ik)m m X (−ik)n Y X  (−ik)npn  hxn ic pn 
n
hx i = exp hx ic =
m=0
m! n=1
n! n p
pn ! n!
n
(1.4)
Il risultato è: 0
X Y 1
hxm i = m! (1.5)
n
pn !(n!)pn hxn ipc n
|pn |
P
La sommatoria è ristretta tale che: npn = m.
Cerchiamo ora di dimostrarlo.
Vogliamo, prima di tutto, semplificare i termini (−ik)m e (−ik)npn :
esplicitiamo il termine di destra nell’equazione (1.4) fino alla potenza secon-
da di pn ed eguagliamolo all’espansione fino alla seconda potenza del primo

9
termine di (1.4):
Y
1 + (−ik)n hxn ic + (−ik)2n hxn i2c =

n
1 + (−ik)hxic + (−ik)2 hx2 i2c 1 + (−ik)2 hx2 ic + (−ik)4 hx2 i2c =


 2 2 2 2
X (−ik)m m
1 + (−ik)hxic + (−ik) hxic + (−ik) hx ic ... = hx i
m=0
m!

verificare che (−ik)m = (−ik)npn , quindi: ∞ 1


hxm i
P
Termine ha termine si può m=0 m!
=
  pn i
Q P 1 hxn ic m
n pn pn ! n!
, da cui esplicitando hx i otteniamo la (1.5).

1.2.2 Distribuzione Uniforme Continua


Data una distribuzione uniforme continua definita su un intervallo [a, b]:
1

p(x) =

U (a, b) → b−a
P (x) = x − a

b−a
Rb
Persiste la condizione di normalizzazione: a p(x)dx = 1.

1.2.3 Una Variabile Random: Caso Discreto


Dato un insieme discreto di variabili K definito come: K ∈ {0, 1, 2...} Possiamo
costruire la funzione generatrice di probabilità:

X
fK (x) = P (K = k)xk
k=0

dove i coefficienti P (K = k) sono associati ad una certa distribuzione discreta di


variabili, nel nostro caso K. Di per sè P (K = k) rappresenta la funzione di pro-
babilità di massa(PMF) ovvero la probabilità che k = K. Si può pensare alla
PMF come una trasposizione nel caso discreto della PDF dove al continuo di x a cui
viene associata una p(x), si ha un discreto di valori k (k ∈ K) a cui vengono asso-
ciati i vari P (k). Tornando alla funzione generatrice, in generale qualsiasi insieme di
probabilità associato a distribuzioni discrete può essere usato come coefficienti per
costruire una funzione espressa in termini di serie di potenze (la cui forma generale
è data dalla funzione generatrice).
Andiamo ora a vedere alcune proprietà della funzione generatrice:

Nel discreto, in generale,


P data una funzione definita nell’insieme discreto di punti
K: hf (K)i = k f (k)P (K = k), quindi

X
fK (x) = P (K = k)xk = hxK i
k=0

10
Le derivate della funzione caratteristica possono risultare utili se valutate nel punto
1. Infatti:

fK (1) = P (K = 0) + P (K = 1) + . . .
X
fK0 (1) = P (K = 1) + 2P (K = 2) + 3P (K = 3) = kP (K = k) = hKi
k
ecc . . .

1.3 Alcune Famose Distribuzioni


1.3.1 La Distribuzione Normale (Gaussiana)
1 (x−λ)2
p(x) = √ e− 2σ 2 (1.6)
2πσ 2
Ricaviamone la funzione caratteristica:
(x−λ)2
+∞
e−ikx− 2σ2
Z
he−ikx i = p̃(k) = dx √ (1.7)
−∞ 2πσ 2
Potremmo lavorare nel campo complesso ma velocizziamo le cose e andiamo a risol-
verlo con completamento del quadrato riconducendoci all’integrale noto di Gauss:
Z +∞ √
−αx2 π
e =
−∞ α
Raccogliamo e otteniamo:
1  2 2 2

− 2ikσ x − 2λx + λ + x =
2σ 2
1 
− 2 2x(ikσ 2 − λ) + λ2 + x2 =


1 2
− 2 x + (ikσ 2 − λ) =

1 2 k2σ2
− 2 x + (ikσ 2 − λ) − ikλ − =
2σ 2
La prima parte possiamo ricondurla all’integrale di Gauss con :

α = 1/2σ 2 , quindi:I = 2σ 2 π
k2σ2
Rimane: − ikλ −
2
Risulta quindi:
k2 σ 2
p̃(k) = e−ikλ− 2

da cui è possibile ricavare i momenti della distribuzione post espansione in serie di


potenze. Per ottenere i cumulanti:
k2σ2
ln p̃(k) = −ikλ −
2
e dall’espansione in serie, con un minimo di buonsenso: C1 = λ e C2 = σ 2 . Da notare
che essi sono i primi e i soli cumulanti diversi da zero per la distribuzione gaussiana.

11
Risulta ora facile computare i momenti della distribuzione utilizzando il teorema
(1.3):

hxi = λ
hx2 i = λ2 + σ 2
hx3 i = 3σ 2 λ + λ3
ecc . . .

1.3.2 La Distribuzione Binomiale


Dato uno spazio dei risultati binario per una possibile variabile stocastica S =
{A, B} possiamo definire le probabilità che gli eventi A e B accadano pA e pB con
pA + pB = 1.
Vogliamo ora calcolare la probabilità che accadano NA eventi di tipo A in un insieme
di N eventi totali. Utilizziamo la distribuzione binomiale per gli eventi di tipo A:
 
N
pA (NA ) = pNA pN −NA
NA A B

Con  
N N!
=
NA (N − NA )!NA !
che è noto come coefficiente dell’espansione binomiale di (pA + pB )N . Esso da il
numero di modi in cui è possibile ordinare N eventi di tipo A e B, considerando
gli eventi dello stesso tipo indistinguibili. Infatti, se avessimo N eventi tra loro di-
stinguibili avremmo un coefficiente N !. La necessità è poi quella di dividere questo
numero di eventi per il numero di scambi che si possono effettuare nell’insieme dei
due eventi, per ogni possibile combinazione (infatti facciamo un prodotto tra il nu-
mero di scambi di A e B).
Ci chiediamo ora se questa pA (NA ) sia normalizzata. Andiamo a sommare su tutti
gli NA possibili nel discreto (il limite al continuo di questa operazione porta alla nor-
malizzazione come definita precedentemente mediante l’uso dell’integrale su tutto
R):
XN X  N  N N −N
pA (NA ) = pA A pB A = (PA + PB )N = 1
N =0
NA
A

Possiamo ora calcolare la funzione caratteristica per la binomiale:


N  
X N A N −NA −ikNA
N
p̃N (k) = he −ikNA
i= pN
A pB e = pA e−ik + pB
0
NA

Da cui passando al logaritmo possiamo trovare la funzione generatrice:

ln p̃(k) = N ln pA e−ik + pB


Come possiamo notare la funzione generatrice è estensiva in N e avremo quindi


cumulanti proporzionali a N .
Per ricavare i cumulanti possiamo affidarci ad un procedimento intuitivo o ad uno

12
puramente matematico. Matematicamente, data l’espressione della generatrice che
possiamo riscrivere come
ln p̃(k) = N ln (p̃(k))
possiamo derivare l’espressione per i cumulanti da un confronto dell’espansione in
Taylor per il ln p̃(k) (essendo l’argomento nel dominio in cui il logaritmo è una
funzione intera) con l’espansione della stessa funzione in serie di potenze più generica
come quella usata nella definizione della generatrice centrata nell’origine. Infatti, in
generale, per una funzione intera complessa si può scrivere:

X f (k) (0)
f (z) = zk
k=0
k!

derivando la generatrice in ik si ottiene che può essere sviluppata come:



X ln p̃(n) (0)
ln p̃(k) = (−ik)n
n=0
n!

Confrontando i termini di questo sviluppo con la (1.2), si osserva che alla derivata
di ordine n-esimo corrisponde l’n-esimo cumulante.
Quindi:

∂ ln p̃(k)
hNA ic = − = N pA
∂ik k=0
e derivando ulteriormente la derivata prima:
hNA2 ic = N pA pB

Passiamo ora ad un metodo alternativo e intuitivo che ci aiuterà a comprendere


fisicamente i risultati precedenti. Abbiamo la generatrice N ln p̃N (k) da cui possiamo
riconoscere che ln p̃N (k) risulta essere la funzione generatrice per N = 1, quindi per
una singola prova. Quindi dopo N prove i cumulanti saranno N volte il cumulante
per una prova. In ogni prova, presa singolarmente, NA può assumere due valori 0 o
1 con probabilità pA , quindi per ogni l, hNAl i = pA (basta pensare alla sommatoria
per trovare i momenti nel discreto con estremo superiore N = 1).
Dopo N prove abbiamo dunque:

hNA ic = N pA
hNA2 ic = N (pA − p2A ) = N pA pB

Si può notare come la media vada a scalare come N , mentre √ la deviazione stan-
dard, ovvero la radice quadrata

della varianza, scala come N . Risulta che l’incer-
N
tezza relativa scala come N e quindi diventa man mano più piccola al crescere di
N . Tale distribuzione si può facilmente generalizzare alla distribuzione multinomiale
ovvero con più possibili risultati.

1.3.3 La Distribuzione di Poisson


Un classico esempio sono i fenomeni di decadimento radioattivo. Osservando del
materiale radioattivo in un intervallo di tempo T si ha:
La probabilità di uno e un solo evento in [t, t + dt] è proporzionale a dt per dt → 0

13
Le probabilità di eventi in intervalli differenti sono indipendenti le une dalle altre.

La probabilità di osservare M eventi nell’intervallo di tempo T è data dalla distribu-


zione di Poisson. Tale distribuzione è ottenuta come limite di quella binomiale. Dato
un intervallo T , andiamo a dividerlo in N intervalli di ampiezza dt t.c.: T /dt >> 1.
Un evento occorre in un segmento indipendentemente rispetto agli altri e con una
probabilità p = αdt. La probabilità che nessun evento accada risulta quindi essere
q = 1 − αdt. Il numero di eventi multipli in un singolo intervallo viene trascurato
poichè di probabilità trascurabile se comparata al primo evento. La probabilità nel
singolo intervallino risulta quindi essere esattamente descritta dalla binomiale. Il
prodotto delle n binomiali per gli intervalli ci da la distribuzione risultante.
In questo caso risulta comodo andare a definire, vedi il risultato per il binomiale a
N trial, la funzione caratteristica, poichè facilmente trasferibile al nostro caso dove
dai trial si passa agli n intervalli:
n T /dt
p̃(k) = pe−ik + q = lim 1 + αdt e−ik − 1

=
dt→0
exp α e−ik − 1 T
  

Nota: abbiamo utilizzato il limite notevole limx→0 (1 + x)1/x = e.


Dall’antitrasformata torniamo alla PDF:
Z +∞
dk
exp α e−ik − 1 T + ikx =
  
p(x) =
−∞ 2π
Z +∞ ∞
−αT dk ikx X (αT )M −ikM
e e e
−∞ 2π M =0
M !
Z +∞
dk ik(x−M )
Dall’intergrale della delta: e = δ(x − M )
−∞ 2π

X (αT )M
Otteniamo:pαT (x) = e−αT δ(x − M )
M =0
M !

Tale risultato mostra chiaramente come i soli possibili valori di x siamo gli interi M .
La probabilità che avvengano M eventi in T è dunque:

(αT )M
pαT (M ) = e−αT
M!
I cumulanti sono ottenuti dall’espansione:
+∞
−ik
 X (−ik)n
ln p̃αT (k) = αT e − 1 = αT
n=1
n!

Da cui, per ogni valore di n:


hM n ic = αT
Per ottenere i momenti possiamo utilizzare la formula (1.3):

hM i = (αT ); hM 2 i = (αT )2 + (αT )ecc . . .

14
1.4 Più Variabili Aleatorie
Consideriamo un set di più variabili casuali che vanno dunque a definire uno spa-
zio N-dimensionale, Sx = {−∞hx1 , x2 , ..., xN h∞}. Per esempio, nel moto di una
particella abbiamo più gradi di libertà da considerare. Per esempio, lo stato di un
sistema a N particelle, in termini di coordinate generalizzate può essere descritto da
un set di N posizioni: xN = {x1 , ..., xN }. La probabilità che il sistema si trovi in un
determinato stato è data da:

p(xN ) = p(x1 , ..., xN ) (1.8)

per cui vale ancora la condizione di normalizzazione data dall’integrale N-dimensionale:


Z
dxN p(xN ) = 1

E’ utile ora definire:


Probabilità congiunta (joint PDF): è la densità di probabilitàQdi ottenere un
determinato risultato in un determinato volumetto dN x = N i=1 dxi nell’in-
torno del punto x = {x1 , ..., xN }. La probabilità congiunta risulta essere nor-
malizzata, vedi (1.8), e se le variabili random risultano essere indipendenti la
probabilità congiunta per tutto il sistema risulta essere data dal prodotto delle
singole:
YN
p(x) = pi (xi ) (1.9)
i=1

Probabilità non condizionata (unconditional PDF): va a descrivere il com-


portamento di un sottoinsieme di variabili casuali indipendentemente dal va-
lore che assumono le altre. Per esempio, nel momento in cui siamo interessati
alla posizione di un gas di particelle, l’integrale sulla velocità in una data
posizione ci fornisce la PDF incondizionata. In generale:
Z N
Y
p(x1 , ..., xm ) = dxi p(x1 , ..., xN ) (1.10)
i=m+1

Probabilità condizionata (conditional PDF): descrive il comportamento di un


sottoinsieme di variabili casuali dipendentemente dal valore assunto dalle altre.
Dal teorema di Bayes:
p(x1 , ..., xN )
p(x1 , ..., xm |xm+1 , ..., xN ) = (1.11)
p(xm+1 , ..., xN )
Ci permette dunque di trovare la probabilità condizionata per un determinato
set di eventi in presenza di un altro insieme a valori noti (p(x1 , ..., xm |xm+1 , ..., xN )).
Il numeratore (p(x1 , ..., xN )) è la probabilità congiunta (che nel caso di eventi
indipendenti era data dal prodotto delle due probabilità). Al denominatore
abbiamo la probabilità per l’evento non condizionato a cui la probabilità di
nostro interesse risulta essere accoppiata (p(xm+1 , ..., xN )).
Un esempio di come tali condizionate si ripercuotono nella vita di ogni giorno
è l’idovinello di Monthy Hall delle tre porte. Il presentatore ti fa compiere una

15
scelta tra tre possibili porte dietro una delle quali si ha la possibilità di trovare
una macchina. Una volta compiuta la scelta, una delle porte senza macchi-
na viene scartata dal presentatore stesso, il quale chiederà poi al giocatore se
desidera mantenere la porta scelta precedentemente o se desidera cambiare la
scelta. Cosa fareste?
La probabilità post esclusione di una porta risulta essere una probabilità con-
dizionata dalla scelta del presentatore. Cerchiamo dunque di portarci a casa la
macchina utilizzando il teorema di Bayes. Riscriviamolo innanzitutto in una
forma più comoda a questa applicazione:
p(A ∩ B)
p(A|B) =
p(B)
Da cui, scrivendo il Bayes per una p(B) condizionata, p(A ∩ B) = p(A)p(B|A)
e quindi:
p(A)p(B|A)
p(A|B) =
p(B)
Definiamo p(A1,2,3 ) = 0.3 la probabilità non condizionata di trovare la macchi-
na (prima dell’intervento del presentatore). Definiamo con p(B) la probabilità
dell’esclusione di una delle due porte dal giocatore non scelte. Per forza di cose
p(B) = 0.5 in tutti i casi indipendentemente dalla nostra scelta. Definendo poi
p(B|A) come la condizionata per il presentatore nella scelta di una delle porte
da aprire successivamente alla nostra scelta:

p(B|An ) = 0.5 se la macchina si trova dietro la porta da noi scelta


p(B|An ) = 1 se la macchina si trova dietro la porta da egli scelta
p(B|An ) = 0 se la macchina si trova dietro la porta da entrambi non scelta

Definiamo ora p(A|B) ovvero la probabilità condizionata dopo l’intervento del


presentatore. Consideriamo il caso in cui da noi è stata selezionata la porta 1
e dal presentatore la porta 3. Utilizzando Bayes:
p(A)p(B|An )
p(An |B) =
p(B)
Quindi, le probabilità che data la nostra scelta e quella del presentatore la
macchina si trovi dietro una delle porte è la seguente:

p(A1 |B) = p(B|A1 )p(A)/p(B) = (0.5x0.3)/0.5 = 0.3


p(A2 |B) = p(B|A2 )p(A)/p(B) = (1x0.3)/0.5 = 0.6
p(A3 |B) = p(B|A3 )p(A)/p(B) = (0x0.3)/0.5 = 0

La scelta migliore è quindi cambiare porta poichè la probabilità di trovarci la


macchina raddoppia.
Funzione caratteristica congiunta: è data dalla trasformata di Fourier N-dimensionale
della joint PDF: * !+
XN
p̃(k) = exp −i kj xj (1.12)
j=1

16
Da cui poi è possibile ricavare i momenti e i cumulanti p-esimi come deriva-
te parziali p-esime in kn di p̃(k = 0) e ln p̃(k = 0). Regge ancora il metodo
utilizzato precedentemente, vedi equazione (1.3), per il calcolo dei momenti a
partire dai cumulanti. Sarà solamente necessario andare a numerare le palline
in funzione della variabile considerata.
Le correlazioni connesse come hxα ∗ xβ ic sono nulle se le variabili in gioco
sono indipendenti.

1.5 Somma di Variabili Random e Teorema del


Limite Centrale
PN
Consideriamo una somma di variabili random X = 1 xi con probabilità congiunta
p(x). La PDF per X risulta essere:
Z X −1
Z NY
N
pX (x) = d xp(x)δ(x − xi ) = dxi p(x1 , ..., xN −1 , x − x1 , ..., x − xN −1 )
1

La corrispondente funzione caratteristica risulta essere


* N
!+
X
p̃X (k) = exp −ik xj = p̃(k1 , ..., kN = k)
1

I cumulanti sono ottenuti espandendo:


X (−ik)2 X
ln p̃X (k) = −ik hxi1 ic + hxi1 xi2 ic + . . .
2 i,j

Se le variabili sono indipendenti:


Y
p(x) = pi (xi )
Y
p̃X (k) = p̃i (k)

I termini misti nei cumulanti si cancellano e rimane semplicemente il termine somma:


N
X
n
hX ic = hxni ic
1

Quando le N variabili casuali sono estratte dalla stessa distribuzione abbiamo:

hX n ic = N hxni ic

Quindi, la media scala per N grande come√N stesso,pmentre le fluttuazioni, misurate


come deviazioni standard, scalano√come N (Da hX 2 ic ). Considerando la varia-
bile aleatoria y = (X − N hxic )/ N possiamo notare che essa ha media nulla e
cumulanti che scalano come hy n ic ∝ N 1−n/2 . Per N → ∞ solo il secondo cumulante
sopravvive e la PDF di y converge alla distribuzione normale:
y2
 
1
lim = p exp −
N →∞ 2πhx2 ic 2hx2 ic

17
NB: la distribuzione normale è l’unica con soltanto primo e secondo cumulante.
La convergenza della PDF per la somma di molte variabili aleatorie alla distribuzione
normale è il risultato di un teorema più generale noto come teorema del limite
centrale. Tale teorema viene formalmente introdotto nel seguente modo:
data una serie di variabili identicamente ed indipendentemente distribuite
√ (i.i.d.)
con media µ e varianza σ 2 finita, la PDF della variabile aleatoria N /(SN − µ)
converge alla distribuzione normale con media nulla e varianza σ 2 .
Da notare che la condizione di indipendenza delle variabili non è forte, infatti è
sufficiente che:
XN
hxi1 ...xim ic << O N m/2

i1 ,...,im

1.6 Regole per Numeri Grandi


Si tratta di proprietà all’equilibrio per N → ∞ ovvero, nel microscopico, per sistemi
molto grandi. L’N dipendenza del sistema può essere di tre tipi:
~
Intensiva: quantità indipendenti da N (T, ~xN , P, B)
Estensiva: quantità direttamente proporzionali a N (E, S, V) O(N )
Esponenziali: come nel caso di numerazione dei microstati o volumi nello spazio
delle fasi (s.d.f.) O(exp(N φ))
Da notare che somme e integrali al limite termodinamico sono semplificate. Nel
caso delle serie consideriamo la somma di termini con dipendenza esponenziale:

X
S= i
1

con 0 ≤ i ∝ O(exp(N φ)) e numero di termini ℵ proporzionale a qualche potenza di


N (più debole dell’esponenziale). Possiamo scrivere, per ogni termine nella somma,
0 ≤ i ≤ max da cui, considerando il massimo termine come approssimazione della
somma stessa, max ≤ S ≤ ℵmax .
Se passiamo ora ad una proprietà intensiva come ln S/N da cui:
ln(max )/N ≤ ln S/N ≤ ln(max )/N + ln ℵ/N
Passando al limite termodinamico:
ln S/N = ln(max )/N = φmax
Nel caso degli integrali possiamo ricorrere a quella che viene chiamata saddle
point integration e che nasce dall’approssimazione di integrali del tipo:
Z
I = dxe(N φ(x)) (1.13)

Esso può essere approssimato dal massimo valore che l’integranda assume in corri-
spondenza del punto xmax che va a massimizzare φ(x). Espandendo l’esponente in
Taylor intorno a tale punto:
Z   
1 00 2
I = dx exp N φ(xmax ) − |φ (xmax )|(x − xmax ) + ...
2

18
La derivata prima nel massimo va ad annullarsi e la derivata seconda risulta essere
negativa. Troncando quindi al secondo ordine otteniamo:
Z   s
N 2π
I ≈ eN φ(xmax ) dx exp − |φ00 (xmax )|(x − xmax )2 = 00
eN φ(xmax )
2 N |φ (xmax )|
(1.14)
Un esempio applicativo è quello relativo all’approssimazione di Stirling per
N !. Partiamo dall’ottenere una rappresentazione del fattoriale, che possiamo vedere
come funzione gamma di Eulero:
Z ∞
N! = dxxN e−x
0

Per verificarla è sufficiente procedere con successive derivazioni per parti e il tred si
vede subito. La gamma non ha la forma dell’integrale (1.13), ma possiamo ricondurci
ad esso andando a scrivere: φ(x) = ln x − x/N . φ(x) ha un massimo in xmax = N
con quindi φ(xmax ) = ln N − 1 e φ00 (xmax ) = − N12 . Utilizzando la (1.14) si ottiene
quindi: √
N ! = N N e−N 2πN
Dal logaritmo:
1
ln N ! = N ln N − N + ln(2πN ) (1.15)
2

19
Capitolo 2

Il Random Walk

2.1 Caso Uno Dimensionale


In meccanica statistica è spesso richiesto di sommare o mediare una serie di quantità
fluttuanti:
X N
SN = li
1

Iniziamo con un caso semplice relativo a questo tipo di problemi, il caso del tiro
della moneta. Tiriamo N volte una moneta e per ogni lancio registriamo testa come
un passo avanti (associamo il numero +1) e croce come un passo indietro (associamo
il numero -1). Quanto sarà grande la somma ovvero Teste - Croci ??
Le probabilità che io vada avanti o indietro sono ovviamente le stesse e sono 1/2.
Ovviamente la media sarà nulla e risulta infatti utile andare a considerare altri
cumulanti in questo caso.
Partiamo dal considerare la varianza σ 2 = hSN 2
i. Dalla definizione standard,
come trasposizione del caso continuo al discreto con due possibili outcome, andiamo
a sommare sui possibili SN moltiplicandoli per le loro probabilità: ... Nel caso di un
solo passo, abbiamo varianza :

hS12 i = 1/2(1)2 + 1/2(−1)2 = 1

Dopo due passi abbiamo:

hS22 i = 1/4(2)2 + 1/4(−2)2 + 1/2(0)2 = 2

Dopo tre passi abbiamo:


hS32 i = . . . = 3
Si può iniziare ad individuare un trend e può essere formalizzando ricorrendo a delle
espressioni famigliari facenti uso delle relazioni trovate nella trattazione sulla somma
di variabili random: X
hSN i = hln i = 0
infatti non vado a muovermi dall’unico valore che mi è possibile assumere.
2
hSN i = h(SN −1 + lN )2 i = hSN
2 2 2
−1 i + h2lN SN −1 i + hlN i = hSN −1 i + 1

il termine centrale si annulla poichè le sue componenti sono tra loro scorrelate per
costruzione e il termine destra scompare poichè media del singolo passo. Il risultato

20
mostra come effettivamente ad ogni passo la varianza aumenti di 1 rispetto al pas-
so precedente. Tale risultato può anche essere ottenuto direttamente a partire dal
n
risultato precedente: hSN ic = N hS1n ic da cui è evidente poi che dopo N lanci
2
hSN i=N
Da cui √
σN = N

2.2 Caso a Due Dimensioni


Definiamo la serie degli N passi:
N
X
S~N = l~N
1

con |l| = L e direzione casuale. In questo caso è necessario escludere una correlazione
tra passi diversi imponendo la condizione
hl~n · l~m i = L2 hcosθi = L2 δn,m
Viene messo in evidenza il fatto che nel momento in cui i due passi considerati sono
diversi, essendo la direzione casuale, il coseno dell’angolo mediato dà un risultato
nullo poichè tutti i θ sono equamente probabili.
Facendo tesoro di questa considerazione si può procedere con il calcolo della varianza:
~N
hS 2 ~N −1 + ~lN )2 i = hS
i = h(S ~N −1 i + h2~lN S
~N −1 i + h~lN
2 ~N
i = hS 2 2
−1 i + L = N L
2


Da cui: σ = N L √
Il fatto che l’RMS scali come N ci permette di fare alcune considerazioni sul com-
portamento di questo sistema e di tutti i sistemi che vanno a scalare in questo modo.
Innanzi tutto possiamo introdurre il concetto di universalità. Infatti, si può notare
che il processo scala come una potenza di N indipendentemente dalla dimensione
dello stesso e dalle lunghezze dei passi, che potrei definire addirittura in modo sto-
castico. Tali processi appartengono alla stessa classe di universalità e lo mostrano
attraverso le proprietà emergenti, ovvero che possiamo andare a leggere a livello
macroscopico e che sono indipendenti dal microscopico. Sono interessanti poichè le
proprietà universali sono una caratteristica dei cambiamenti di fase, dove si trova-
no degli esponenti che descrivono la dipendenza del processo da alcune grandezze
termodinamiche. Inoltre è un processo che mostra invarianza di scala ovvero, se
prendo un cammino RW e lo spezzo in più parti casuali, esse saranno altrettanto
frastagliate e casuali. Tuttavia, nonostante tutti i RW di dimensione N siano diversi,
l’insieme di questi cammini è molto simile a quello dei cammini di dimensione N/4 a
condizione che N sia sufficientemente grande. Infatti, nel momento in cui esso inizia
a diminuire iniziano a vedersi le differenze tra questi insiemi.

2.3 Altri Cammini Aleatori


Abbiamo visto la legge esponenziale del tipo σN ∼ N ν con ν = 1/2.
Esistono tuttavia casi di RW in cui si possono avere deviazioni da questi esponen-
ti e appartenenza ad altre classi di universalità. E’ necessario cambiare le regole.

21
Per esempio possiamo considerare i ripiegamenti di un oggetto con snodi casua-
li e imponendo che nei ripiegamenti si vadano ad evitare sovrapposizioni. Questo
tipo di cammino aleatorio viene chiamato self avoiding random walk e viene
utilizzato per la simulazione di polimeri. Il vincolo sui ripiegamenti introduce un
esponente ν > 12 . Nel caso 2D, per cui si può risolvere esattamente questo problema,
l’esponente trovato è ν = 3/4.
Un’altra cosa che si può fare è utilizzare dati empirici. Un esempio può essere
il controllo della varianza del prezzo (l’andamento del prezzo è infatti una serie
temporale). In questo caso la valutazione dell’esponente della legge con cui scala ci
può dare informazioni qualitative sul fenomeno. Per esempio:

ν > 1/2: abbiamo tendenzialmente una maggior correlazione tra i passi nel RW

ν < 1/2: processo stocastico di tipo anti-persistente

ν è anche noto come esponente di Hurst, in particolare per la descrizione di un


segnale temporale S dipendente dal tempo. Se prendiamo una finestra temporale T
e misuriamo la varianza σT e poi la allarghiamo a T 0 a cui corrisponde σT 0 , troviamo
che σT ∝ T H dove H è l’esponente di Hurst.
Per la serie finanziaria il prezzo non segue tuttavia un aumento a passo costante
come in un RW classico ma, dato x(t) possiamo scrivere

x(t + δt) = x(t)η(t)

dove la nostra variabile aleatoria è η(t). Il logaritmo del prezzo è un processo RW.
Per ridurre i salti il modello è quello che si dice essere un RW moltiplicativo.
Prendiamo dunque S(t) = ln x(t), ora definendo S(t + δ(t)) = S(t) + ln η ci siamo
ricondotti al RW classico.

2.4 L’Equazione di Diffusione


Passiamo al limite continuo del RW. Dato un RW di passi discreti, che equazioni
segue la probabilità di trovare un RW ad un certo punto in un certo tempo? Per
esempio, pensiamo di avere tanti atomi nello spazio che diffondono, ciascuno in mo-
do random, e ci chiediamo: qual’è la distribuzione della concentrazione di questi
atomi??
L’idea è quindi quella di fissare un punto, nello spazio e nel tempo, e vedere quanti
RW ho, cioè quante traiettorie passano da questo punto.
Quello che si può dimostrare è che la ρ(x, t), ovvero la probabilità per la concentra-
zione di trovare un RW nel punto x al tempo t, segue la legge classica per il moto
diffusivo:
∂ρ
= D∇2 ρ (2.1)
∂t
I RW quindi diffondono.
Dimostrazione. Partiamo dall’equazione discreta per il RW: x(t + δt) = x(t) + l(t).
In maniera del tutto generale prendiamo un l(f ) aleatorio e descritto da una certa
funzione di distribuzione. Definiamo χ(l) ovvero la probabilità che il passo sia uguale

22
a l t.c.
Z +∞
dl χ(l) = 1(condizione di normalizzazione)
−∞
Z +∞
dl lχ(l) = 0(primo momento nullo. Simmetria nell’origine)
−∞
Z +∞
dl l2 χ(l) = a2 (secondo momento finito. Grandezza tipica definita)
−∞

Assumiamo che non ci sia correlazione tra i passi, quindi hl(t)l0 (t)i = a2 δ(t − t0 ).
Questo implica che:

hx2 (t + δt)i = h(x(t) + l(t))2 i = hx(t)2 i + 2hx(t)l(t)i + hl2 (t)i = hx2 (t)i + a2

Ad ogni passo δt aggiungiamo quindi a2 . Ora, data la ρ(x), come evolve la distribu-
zione? Sarà una convoluzione su tutti i possibili valori del mio passo (integro nella
variabile di partenza) da x0 al tempo t a x al tempo t + δt.
Z +∞
ρ(x, t + δt) = dx0 ρ(x0 , t)χ(x − x0 )
−∞

dove χ(x−x0 ) rappresenta la probabilità che da x0 il sistema vada in x. Con il cambio


di variabile x − x0 = z abbiamo:
Z +∞
dzρ(x − z)χ(z)
−∞

Da cui, espandendo in Taylor intorno a x:

∂ρ z 2 ∂ 2 ρ
ρ(x − z) = ρ(x) − z +
∂x 2 ∂x2
Da cui:
Z +∞ +∞ +∞ +∞
1 ∂ 2ρ
Z Z Z
∂ρ
dzρ(x − z)χ(z) = ρ(x) dzχ(z) − dzχ(z)z + dzz 2 χ(z) =
−∞ −∞ ∂x −∞ 2 ∂x2 −∞
a2 ∂ 2 ρ
ρ(x, t) +
2 ∂x2
Quindi:
ρ(x, t + δt) − ρ(x, t) a2 ∂ 2 ρ
=
dt 2dt ∂x2
e
ρ(x, t + δt) − ρ(x, t) ∂ρ ∂ 2ρ
lim = =D 2
dt→0 dt ∂t ∂x
a2
dove D = limdt→0 2dt

Nota che perchè il limite che definisce D abbia un √ valore sensato, la varianza
deve scalare (andare a zero) nello stesso modo in cui dt va a zero. Fisicamente, se
l’intervallo lo prendo più piccolo anche il passo andrà a ridursi. a2 è quindi un valore
fissato a dt fissato.
(approved by Echis)

23
2.5 Correnti di Materia e Generalizzazione del
Random Walk
2.5.1 In Assenza di Forzanti
Consideriamo il caso di un random walk soggetto a forze esterne. Per esempio un
sistema atomico con moti random a cui ad un certo punto viene applicato un campo
elettrico. Prima di trattare un sistema di questo tipo è importante mostrare che
esiste una legge di conservazione della materia e come questa si ripercuote sui risul-
tati. La figura 2.1 mostra un elemento nello spazio con estensione unidimensionale

Figura 2.1

∆x. In tale elemento abbiamo una corrente di materia in ingresso J(x) e in usci-
ta J(x + ∆x). All’interno dell’elemento abbiamo un numero n(x) di punti (in cui
possiamo trovare i nostri oggetti che si muovono di random walk) e data la densità
dei RW possiamo scriverlo come: n(x) = ρ∆x. Qual’è la variazione del numero di
particelle nell’elemento considerato? Essa sarà il risultato della differenza la corrente
in ingresso meno la corrente in uscita e tale affermazione regge grazie al principio
di conservazione della massa e all’assenza di pozzi o sorgenti all’interno. Abbiamo
quindi:
∂n ∂ρ
= J(x) − J(x + ∆x) = ∆x
∂t ∂t
Da cui:
δρ J(x) − J(x + ∆x) ∂J
= =−
δt ∆x ∂x
quindi la variazione della densità nel tempo è uguale alla variazione spaziale della
corrente! Esprimiamo ora J in funzione della densità. Possiamo ora ricordarci che
la ∂ρ
∂t
deve seguire l’equazione di diffusione e quindi l’unica scelta possibile per J è :

∂ρ
Jdif f (x) = −D
∂x

2.5.2 In Presenza di Forzanti Indipendenti dalla Posizione


Accendendo un drift nell’elemento considerato abbiamo che per il RW discreto:

x(t + ∆t) = x(t) + l(t) + γF ∆t

abbiamo quindi un bias netto dello step proporzionale alla mobilità γ e γF rappre-
senta l’elemento di velocità istantanea dovuto nel nostro caso ad un moto viscoso.
1
Trattando il moto viscoso secondo il modello di Stokes-Einstein abbiamo γ = 6πηR .
Nel modello consideriamo una sfera di raggio R a cui imponiamo una velocità v in
un fluido viscoso, la forza di drag viene cosı̀ definita:

Fd = −σπηvR

24
Possiamo quindi scrivere (per un intervallo di tempo lungo abbastanza da poter
F
considerare la velocità costante): mv̇ = F + Fd = 0 da cui v = 6πηR = γF .
Quindi, trattando il problema linearmente, avremo i termini della diffusione
(originati da l(t)) a cui si aggiunge un termine nato dalla forzante:
∂ρ ∂ρ
= D∇2 ρ − γF
∂t ∂x
Dimostrazione. Consideriamo una variazione della densità senza considerare la parte
casuale del moto dei sistemi. Questo ci permette di trattare la densità in modo rigido
e di scrivere una sua traslazione come uno spostamento della stessa dovuto alla
forzante: ρ(x, t+∆t) = ρ(x−γF ∆t, t) da cui espandendo linearmente in x: ρ(x, t)−
∂ρ
γF ∆t ∂x da cui dividendo per ∆t e facendo il limite otteniamo il termine da noi
cercato.
Per comodità riscriviamolo come:
 
∂ρ ∂ ∂ρ
= D − γF ρ
∂t ∂x ∂x
Quindi:
∂ρ
J = ργF − D (2.2)
∂x

2.5.3 In Presenza di Forzanti Dipendenti dalla Posizione


L’equazione per la corrente di per se non cambia, quindi rimane valida la (2.2).
Facciamo attenzione perchè invece cambia l’equazione di diffusione:
∂ 2ρ
 
∂ρ ∂J ∂ ∂ρ ∂ρ ∂F
=− =− ργF (x) − D = − γF − ργ +D 2
∂t ∂x ∂x ∂x ∂x ∂t ∂x

2.5.3.1 Gas Ideale in un Campo Gravitazionale


F = −mg
In questo caso l’equazione diventa:
∂ρ ∂ρ ∂ 2ρ
= mgγ +D 2
∂t ∂x ∂x
Vado ad una distribuzione di equilibrio mandando il tempo a infinito e cercando
una situazione stazionaria. Da notare che nel caso di un RW puro una situazione
di equilibrio, anche a tempi infiniti, non è raggiungibile! Guardando invece in faccia
la nostra equazione in presenza di forzante è facilmente intuibile che questo può
accadere. Quindi:  
∂ ∂ρ
mgγρ + D =0
∂x ∂x
Trovo quindi dalla soluzione del differenziale:
mgγ x
ρ∗ (x) = Ce− D
x
= Ce− 

Abbiamo quindi trovato l’andamento della densità nella situazione stazionaria ovvero
la soluzione all’equilibrio indipendente dal tempo per un RW in un campo gravita-
zionale. Rispetto al caso senza forzante si ha quindi l’introduzione di una lunghezza

25
caratteristica (prima assente). La forza esterna, introducendo la lunghezza caratte-
ristica, va quindi a rompere l’invarianza di scala. La lunghezza caratteristica risulta
essere . L’invarianza di scala è quindi universale ma con condizioni molto stringenti
e richiede l’assenza della rottura della simmetria dei moti a causa di una forzante.
Questo fenomeno è alla base delle transizioni di fase.

2.5.3.2 Soluzione dell’Equazione di Diffusione in Casi di Non Equilibrio


in Assenza di Forzanti
Risolviamo l’equazione lineare dipendente dal tempo per la diffusione in assenza di
forze esterne:
∂ρ
= ∇2 ρD
∂t
L’equazione è di tipo lineare, quindi dato un set di soluzioni noto, una qualsiasi
combinazione lineare di queste soluzioni è essa stessa soluzione. Se possiamo quindi
espandere la densità iniziale in diverse componenti abbiamo quindi, almeno for-
malmente, trovato una soluzione. Il modo più semplice per risolvere questo tipo di
equazioni è passare nello spazio di Fourier e considerare l’espressione generale delle
onde piane:
ρ(x, t) = ρ̃k (t)eikx
da questa potremmo poi generalizzare il risultato utilizzando qualsiasi composizio-
ne di onde piane. Sostitutiamola ora nell’equazione e vediamo se è possibile una
soluzione:
∂ ρ̃k (t)
= −k 2 Dρ̃k (t)
∂t
2
Da cui: ρ̃k (t) = ρ̃k (0)e−k Dt
Dove ρ̃k (0) sarà dato dalla trasformata di Fourier della ρ iniziale:
Z
ρ̃k (0) = ρ(x, 0)e−ikx dx

Quindi possiamo riscrivere:


Z
2 Dt
ρ̃k (t) = e−ikx ρ(x, 0)e−k dx

Da cui, antitrasformando :
Z
1
ρ(x, t) = eikx ρ̃k (t)dk

Abbiamo cosı̀ ottenuto la soluzione del problema generica a onde piane. Ogni compo-
nente dello sviluppo seguirà l’equazione di diffusione. Possiamo poi andare a ritroso
e verificare la soluzione da noi trovata:
Z Z
∂ρ(t) 1 ikx ∂ ρ̃k (t) dk
= e = −Dk 2 eikx ρ̃k (t)
∂t 2π ∂t 2π
Quindi, sostituendo la soluzione del problema ad onde piane nell’antitrasformata
otteniamo:
Z Z Z
1 0 −ikx0 −k2 Dt 0 1 0 2
ρ(x, t) = eikx
dx e ρ(x , 0)dk = dkdx0 ρ(x0 , 0)eik(x−x )−k Dt
2π 2π

26
Risolvendo con Gauss:
r Z
1 π (x−x0 )2
dx0 ρ(x0 , 0)e− 4Dt (2.3)
2π Dt
dove l’integrale rappresenta una convoluzione di gaussiane in x e il risultato dipen-
derà dalla forma della densità iniziale.
Supponiamo ora di lavorare con un kick di densità iniziale:

ρ(x, 0) = δ(x)

Sostituendo nell’integrale otteniamo:


r
1 x2
e 4Dt
4πDt

con σ = 4Dt

Alternativamente possiamo lavorare con le funzioni di Green e riscrivere il tutto


come: 
 ∂G = D∇2 G
∂t
G(x, 0) = δ(x)

G è nota come funzione di Green. Da cui la soluzione generale può essere scritta
come: Z
ρ(x, t) = dx0 G(x − x0 )ρ(x0 , 0)

Il risultato ottenuto è quindi espresso come una convoluzione dal punto iniziale.
In generale la funzione di Green descrive l’evoluzione di uno stato iniziale in un
punto, nel nostro caso la diffusione di particelle da un punto iniziale x0 . Nel caso da
noi considerato il kick (delta di Dirac) rappresenta la situazione in cui le particelle
sono inizialmente concentrate in un unico punto. La green G(x, t) a questo punto
rappresenta l’evoluzione di questo stato G(x, 0) = δ(x). Il risultato è che G(x, t) =
2
q
1 x
4πDt
e 4Dt e generalizzandolo, alla luce dell’equazione (2.3), otteniamo che con una
(x−x0 )2
q
G(x − x0 , t) = dx ρ(x , t)e− 4Dt è valida la formula di convoluzione più
1
R 0 0
4πDt
generale: Z
ρ(x, t) = dx0 G(x − x0 )ρ(x0 , 0)

27
Capitolo 3

Descrizione della Termodinamica

Vogliamo ora utilizzare i metodi probabilistici per descrivere la termodinamica. In


particolare la tratteremo mediante l’utilizzo della meccanica statistica d’equilibrio,
che permetterà di andare a definire la temperatura e le leggi alla base del com-
portamento di gas e liquidi. Un sistema non soggetto a forzanti esterne (pensiamo
ad un gas ideale isolato) è detto all’equilibrio se e quando si stabilizza dopo tempi
sufficientemente lunghi in uno stato che è indipendente dalle condizioni iniziali (ec-
cezione fatta per le variabili conservative come l’energia). Se il sistema è soggetto a
forze esterne il termine equilibrio, per la situazione finale, viene cambiato in stato
stazionario. Un sistema piccolo all’equilibrio continuerà a fluttuare. La meccanica
statistica descrive l’equilibrio come un media su tutti gli stati nello spazio delle
fasi in modo consistente con le leggi di conservazione. Questo definisce l’insieme
microcanonico.

3.1 L’Insieme Microcanonico


3.1.1 Definizione
La meccanica statistica ci permette di risolvere problemi ”in massa” che sarebbero
impossibili da risolvere senza il suo ausilio. Ci concentreremo sullo studio di N atomi
in condizioni di equilibrio in una box di volume V (qualsiasi tipo di atomi e in un
potenziale esterno arbitrario se necessario). Lavoreremo inoltre in approssimazione
classica. Domandiamoci ora: ”come deriviamo leggi macroscopiche dall’analisi del
comportamento di corpi microscopici?”.
Scriviamo innanzitutto le grandezze vettoriali da considerare per definire lo stato
del sistema in esame:

Q = (q1 , q2 , ..., q3N ) = (x1 , y1 , z1 , ..., xN ...)


P = (p1 , p2 , ..., p3N )

Queste grandezze mi definiscono quello che si chiama spazio delle fasi 6N dimen-
sionale. In questo spazio possiamo dunque definire grandezze derivate per descrivere
il moto del sistema come la velocità generalizzata (considerando la stessa massa per
F
tutti gli atomi): Q̇ = m e la forza generalizzata: Ṗ = F(Q). Ora dovremmo mediare
su tutte le traiettorie per conoscere l’evoluzione temporale del sistema e ciò richie-
derebbe di risolvere l’equazione del moto per tutte le 6N coordinate. E’ ovviamente
impensabile un approccio del genere. Boltzmann ipotizzò invece che la dinamica

28
di un sistema cosı̀ alto dimensionale sia in grado di esplorare tutto lo spazio delle
fasi in maniera uniforme. Si va dunque a studiare il sistema dopo tempi lunghi, in
modo tale che esso abbia avuto il tempo di esplorare tutto lo spazio a disposizione
con il vincolo che l’energia totale rimanga costante (è una grandezza invariante per
l’hamiltoniana se il sistema è conservativo):
P2
H= + U (Q) = E
2m
Essendo l’energia conservata e il campionamento dello spazio uniforme, ogni stato
risulta avere lo stesso peso e questo implica che nel calcolo di una proprietà è suffi-
ciente andare a pesarla sulla frazione dello spazio delle fasi che occupa il sistema. La
frazione corrisponde poi al volume. Nel caso di uno spazio 2D siamo interessati alla
shell di energia: EE + δE. Il sistema sarà dunque in questa zona ad energia costante
e noi contiamo il volume in un piccolo guscio con incertezza δE (se prendessimo
la sola linea a E costante avremmo un insieme a misura nulla e il calcolo sarebbe
inutile).
Calcoliamo dunque Ω(E)dE 1 ovvero il volume dello sdf occupato dal mio sistema
hamiltoniano all’equilibrio e descritto da energia totale E o meglio E +δE. Possiamo
scrivere formalmente questo concetto con l’integrale:
Z
d3N Qd3N P
E<H(Q,P )<E+dE

Possiamo riscriverlo considerando la funzione di Heaviside:


(
1x>0
θ(x) =
0x<0

si va quindi a ”liberare” gli estremi di integrazione:


Z Z Z

dQdP (θ(E + δE − H) − θ(E − H)) = δE dQdPθ(E−H) = δE dQdPδ(E−H)
∂E
Questo è dunque il peso statistico del nostro sistema all’equilibrio a energia E.
Calcoliamo ora la media su un osservabile ovvero l’aspettazione di una funzione di Q
e P. Essa sarà data dalla moltiplicazione del peso di una configurazione del sistema ,
data dalla divisione tra 1 e il peso statistico corrispondente a tutti gli stati (volume
dello sdf occupato dal sistema), per l’osservabile valutato in tutti i possibili punti
dello spazio delle fasi contenuti nella shell:
Z
1
hOi = dQdPδ(E − H)O
Ω(E)
Ora, la densità di probabilità di un certo stato ad energia E la possiamo esprimere
come:
δ(E − H)
p(E) =
Ω(E)
1
Con Ω(E) si intende l’energy shell volume ovvero il volume per δ(E) (per valori di δ(E)
infinitesimi). Il volume dello spazio delle fasi viene dunque formalmente definito come δ(E)Ω(E).
Nel lavorare con queste grandezze in questo e nei prossimi capitoli si andrà spesso a lavorare
direttamente con Ω(E) poichè si vanno ad ottenere i medesimi risultati e i calcoli per le proprietà
risultano semplificati. Inoltre la divisione del volume della shell per δ(E) rende i volumi (che tali
rimangono poichè in uno spazio iperdimensionale) indipendenti dalla scelta dello stesso δ(E).

29
la densità è uniforme e quindi tutti gli stati alla stessa energia hanno lo stesso peso.
Possiamo fare un parallelo con un dado dove Ω(E) è l’insieme di tutti i risultati
possibili e 1/6 è la densità di probabilità associata ad uno dei possibili risultati.
Questa ipotesi con E = costante ovvero un sistema isolato è l’ipotesi alla base del-
l’ensemble microcanonico in cui possiamo quindi considerare valida l’assunzione
che tutti gli stati alla stessa energia siano equamente probabili.

3.1.2 Applicazione al Gas Ideale - Spazio delle Configura-


zioni
Consideriamo un gas in assenza di potenziali esterni e in assenza di interazioni tra gli
atomi stessi. Per un gas di questo tipo, chiamato ideale, l’energia è indipendente dalla
configurazione Q assunta dagli atomi nel volume e questo ci permette di separare lo
studio delle posizioni (spazio delle configurazioni) da quello dei momenti (spazio
dei momenti). L’hamiltoniana, in generale, sarà dunque data da:
3N
X p2i
H=
i=1
2m

Passando nello spazio configurazionale, la densità di probabilità per il mio gas di


trovarsi in una qualsiasi configurazione Q sarà quindi semplicemente data da:
1
p(Q) =
VN
e Z
p(Q)dQ = 1

Ogni atomo ha dunque la stessa probabilità di trovarsi in qualsiasi punto del mio
volume.

3.1.2.1 Fluttuazioni Spaziali Tipiche del Sistema


Ci chiediamo ora quali sono le fluttuazioni tipiche del mio sistema relativamente alle
posizioni assunte dagli atomi nel volume V . Immaginiamo idealmente di dividere il
nostro volume in due e di avere 2N atomi da sistemarvi all’interno. Definiamo pm
come la probabilità che ci siamo N + m atomi nella parte destra del contenitore
e N − m atomi nella parte sinistra. Utilizzando la statistica binomiale con pd =
ps = 1/2 per i 2N atomi da sistemare indipendentemente gli uni dagli altri nelle due
parti:
 2N  
1 2N !
pm =
2 (N + m)!(N − m)!
n √
Utilizzando l’approssimazione di Stierling al limite termodinamico n! = ne 2πn:

1 2N 2N
pm = 2N (N + m)−(N +m) (N − m)−(N −m)
2
Da cui raccogliendo N otteniamo
 m −(N +m)  m −(N −m)
1+ 1−
N N
30
Passando al limite termodinamico otteniamo:
−N 
m2

m −m  m m m2
1− 2 1+ 1− = e− N
N N N
q
N
Tale risultato può essere visto come una gaussiana con σ = 2
. Abbiamo quin-

di una fluttuazione spaziale assoluta che cresce come N , mentre le fluttuazioni
relative decrescono come √1N .

3.1.3 Spazio dei Momenti


3N
X p2i
H= =E
1
2m
Da cui:
3N
X
p2i = 2mE
1

Nel caso 2D, facile da visualizzare, abbiamo la scomposizione del momento √ a dare:
2 2
x + y = 2mE. Questo è un cerchio nel piano 2D con raggio R = 2mE. In
3D il raggio della sfera è lo stesso e dalla sfera possiamo generalizzare il risultato
alle 3N dimensioni ottenendo una sfera 3N dimensionale. Matematicamente una
sfera di questo tipo viene considerata 3N − 1 dimensionale. Questo perchè viene
considerata la dimensionalità all’interno della sfera piuttosto che quella espressa
nello spazio esterno dell’osservatore. Una sfera nello spazio 3D vive in uno spazio 2D
poichè ,una volta fissato il raggio nelle tre dimensioni con pitagora, quello che rimane
necessario per definire la sfera sono due coordinate angolari. Una sfera con queste
dimensioni viene quindi indicata con Sl−1 . Ora dalla ipersuperficie della ipersfera
l−1
√R è necessario
S p discostarsi di δE ottenendo una ipercrosta data dai due raggi:
2mE e 2m(E + δE). Abbiamo dunque:
   
1 3N −1

3N −1
Ω(E) = µ S√ − µ S 2mE

δ(E) 2m(E+δ(E))

Quello che dobbiamo fare è dunque lavorare con volumi di ipersfere. Per il calcolo
esplicito di questi ipervolumi vedi il paragrafo 3.1.3.1.
Possiamo scrivere:
√ !
d  3N −1  d π 3N/2 ( 2mE)3N
Ω(E) = µ S√2mE = 3N

dE dE 2
!

da cui il peso statistico di un gas perfetto (volume della shell) è:


3N
π 2 (2m)3N/2 3N 3N −1
 
Ω(E) = 3N
 E 2
2
! 2

L’inverso di questo volume è dunque il peso statistico di un particolare set di mo-


menti P.

Qual’è ora la densità di probabilità ρ(p1 ) che la componente x del momento


del primo atomo abbia valore p1 ? Avendo fissato uno dei 3N gradi di libertà a p1

31
Figura 3.1

è necessario ricalcolare l’ipervolume corrispondente in E, Ep + δE che corrisponderà


all’ipervolume dell’iperanello nascente con raggio 2 R0 = 2mE − p21 . Quello che
dobbiamo fare è integrare su tutte le 3N − 1 variabili rimaste e ottenere cosı̀ il valore
dell’ipervolume 3N − 2 dimensionale dell’iperanello:
   3N −1
d 3N −2 π 2 3N −3
V ol(anello) = µ S√ = 3N −1
 (2mE − p21 ) 2 (3N − 1)m
dE 2mE−p21 !
2

3N
π 2 (3N m) 3N −2
Dividiamo ora per il volume totale esplicitando il raggio: Ω(E) = 3N R .
( 2)!
Otteniamo:
3N
(R0 )3N −3 R0 R2

Ωp (E) 1
ρ(p1 ) = 1 = π − 2 CN 3N −2 ∝
Ω(E) R R (R0 )3

dove CN è un fattore dipendente dal solo N e tende a 1 al limite termodinamico.


Abbiamo dunque, trascurando il fattore non dipendente da N e sostituendo il valore
di R e R0 :  3N
p21
 2
3 p2
1
ρ(p1 ) ∝ 1 − = e 2 N ln(1− 2mE )
2mE
Da cui espandendo il logaritmo al primo ordine:
2
3N p1
ρ(p1 ) ∝ e− 2 2mE

La funzione
q di distribuzione dei momenti ottenuta ha la forma di una gaussiana
con σ = 2mE 3N
. Rinormalizzata correttamente otteniamo:

2
1 3N p1
ρ(p1 ) = q e− 2 2mE (3.1)
4mEπ
3N

Abbiamo quindi ottenuto la distribuzione di probabilità per qualsiasi componente


di un momento di una qualsiasi delle nostre particelle. Da notare che il calcolo della
2
Applichiamo Pitagora N-dimensionale considerando i momenti come assi cardinali uscenti
dall’origine, vedi immagine 3.1

32
distribuzione dei momenti è stato fatto in totale assenza di conoscenza delle traiet-
torie atomiche del sistema !!!
Dalla distribuzione è possibile fare alcune considerazioni. Innanzi tutto possiamo
considerare p1 come la latitudine della sfera, considerazione che ha senso (vedi im-
magine 3.1), dunque dalla distribuzione gaussiana
q si può intuire che la maggior parte
dell’area superficiale è concentrata tra ± 2mE
3N
dall’equatore. Quindi per le ipersfe-
re è generalmente vero che gran parte dell’area superficiale è concentrata nei pressi
dell’equatore. Geometricamente sembra assurdo, ma a livello di meccanica statistica
ha senso. Si pensi infatti alla distribuzione in un gas ideale dove l’energia cinetica
risulta essere circa equamente divisa tra tutte le componenti di tutti i momenti, ora
la probabilità che uno di questi momenti abbia ad esso associato gran parte dell’e-
nergia cinetica totale (situazione di lontananza dall’equatore) è intuitivamente poco
probabile.
2E
Ora, dalla definizione di temperatura che vedremo prossimamente, kb T = 3N .
Sostituendo questa relazione nella (3.1) otteniamo:
p2
1 − 3N 1
ρ(p1 ) = √ e 2 2mkb T
(3.2)
2mkb T π
da cui possiamo ricavare l’importante teorema di equipartizione dell’energia:

p21 1
h i = kb T
2m 2
secondo cui ogni grado di libertà in approssimazione armonica, in equilibrio e in un
sistema classico, ha energia media pari a 12 kb T . Inoltre questo è il primo esempio
di distribuzione di Boltzmann per cui la probabilità che una particella abbia
energia cinetica K = p21 /2m è proporzionale a exp(− kK bT
).

Nota: dietro alla descrizione termodinamica che usiamo si nasconde una grande
assunzione di base ovvero l’ergodicità del sistema nel campionamento dello spazio
delle fasi. Infatti perchè reggano i calcoli di densità di probabilità fatti è necessario
che il sistema vada a campionare tutto lo spazio delle fasi in modo uniforme, ovvero
senza zone non campionate o buche di potenziale in cui rischia di trascorrere più
tempo.

3.1.3.1 Funzione Gamma e Ipervolume


Per lavorare con ipervolumi è necessario introdurre prima la funzione gamma di
Eulero, cosı̀ definita: Z ∞
Γ(x) = tx−1 e−t dt
0
Sviluppando l’integrale si trova:

Γ(x) = (x − 1)Γ(x − 1)

e continuando lo sviluppo:
Γ(x) = (x − 1)!

33
La funzione gamma risulta quindi essere una generalizzazione del fattoriale oltre il
campo reale e per n che può assumere anche valori non interi. Infatti possiamo scrive-
re per i seminteri: Γ(n/2) e risolvere per n pari o dispari sostituendo rispettivamente
n = 2w o n = 2w + 1. Nel primo caso otteniamo semplicemente:
n
Γ(w) = (n/2)! = Γ( + 1)
2

Per n dispari: Γ( 2w+1
2
) = Γ(w + 12 ). Notiamo che Γ(1/2) = π. Sviluppando la
gamma e raccogliendo 2 al denominatore possiamo riscriverne il valore come:

(2w − 1)!! √
Γ(w + 1/2) = π
2w
Passiamo ora all’estensione del concetto di coordinata polare in RN in relazione
alle coordinate euclidee (cartesiane fino al caso 3D). Una coordinata può essere
vista come una proiezione dallo spazio di una dimensione superiore. Per esempio,
x1 = ρcos(φ1 ) ovvero abbiamo la singola proiezione da uno spazio 2D allo spazio
1D di x1 . Salendo di dimensione, in 2D abbiamo la proiezione dallo spazio 3D:
x2 = ρ sin(φ1 ) cos(φ2 ). Continuando a salire di dimensione possiamo man mano
definire nuove coordinate euclidee e troviamo la relazione più generale:

xn−1 = ρ sin(φ1 ) . . . sin(φn−1 ) cos(φn )

ora, se ci fermiamo alla n-esima dimensione, pensando ad un parallelo 2D-3D con


3D dimensione massima, è sensato scrivere:

xn = ρ sin(φ1 ) . . . sin(φn−2 ) cos(φn−1 )

dove: ρ = |~x| e, sempre chiaro dal passaggio 3D-2D, φn−1 ∈ [0, 2π), mentre tutti gli
altri angoli variano in [0, π].
Possiamo ora pensare alla forma che avrà l’elemento infinitesimo di ipervolume
sempre estendendo il trend nel passaggio 2D a 3D e senza una derivazione formale a
partire dalla corrispondenza tra elementi di volume e quindi il calcolo del Jacobiano:

dx1 dx2 . . . dxn = ρn−1 dρ × w(φ1 . . . φn−1 )dφ1 dφ2 . . . dφn−1

dove w(φ1 . . . φn−1 ) è funzione dei seni e coseni degli angoli indicati ed è frutto
dell’espressione del Jacobiano.
Per il calcolo dell’ipervolume partiamo dalla definizione più generale come
integrale n-dimensionale: Z
V ol(Rn ) = d~x
|~
x|
3
passando alle coordinate polari:
Z R Z Z R
n n−1
V ol(R ) = ρ dρ P w(φ1 . . . φn−1 )dφ1 dφ2 . . . dφn−1 = ωn ρn−1 dρ
0 0

l’integrale sul raggio non crea grossi problemi, mentre è di vitale importanza trovare
un modo semplice per calcolare la parte angolare. Per farlo possiamo appoggiarci ad
3
per ~x si intende il vettore N-dimensionale delle coordinate

34
una funzione di supporto ovvero l’integrale di gauss generalizzato alle N dimensioni
dove il Jacobiano per il passaggio alle polari risulta essere il medesimo:

Z
2
e−|~x| = ( π)n
Rn

passando in polari: Z ∞ √
2
ωn ρn−1 e−ρ dρ = ( π)n
0
RR 2
La gamma di Eulero entra in gioco ora per il calcolo di 0 ρn−1 e−ρ dρ. Con una
sostituzione u = ρ2 otteniamo
Z ∞
1 ∞ ( n2 −1) −u
Z
(n−1)/2 −u du 1 n
u e √ = u e du = Γ
0 2 u 2 0 2 2
Da cui:
2π n/2
ωn =
Γ(n/2)
Tornando al volume della ipersfera:

ρn 2π n/2 n π n/2 n
V ol(Rn ) = ωn = ρ = n ρ
n nΓ( n2 ) n
2
Γ( 2
)

Dall’ultima espressione possiamo esprimere il risultato in funzione di n:


Per n pari:
π n/2 n
n

2
!
Per n dispari:
n+1 n−1
π 2 n
2 2
ρ
n!!
Più in generale, senza applicare la gamma a priori, il risultato può essere scritto in
ogni caso nel modo in cui si risolve per n pari. Dovesse capitare poi n dispari si
andrà a lavorare con la gamma per i seminteri.

3.2 Derivazione della Termodinamica


3.2.1 Due Sistemi Isolati a Contatto
Consideriamo scambi di calore in un contatto tra oggetti diversi. Prendiamo un
contenitore isolato diviso in due sottoinsiemi e con energia totale E. Le energie dei
due sottoinsiemi E1 ed E2 non sono costanti, ma globalmente: E = E1 + E2 . Essi
hanno inoltre un numero costante di particelle e sono debolmente accoppiati tra
di loro. Un accoppiamento di questo tipo può essere giustificato se pensiamo che
la superficie all’interfaccia è trascurabile rispetto ai volumi dei sistemi in esame e
quindi i fenomeni di accoppiamento risultano trascurabili. Dato il volume poi dei
due insiemi: Ω1 (E1 )dE1 e Ω2 (E2 )dE2 il volume totale risultante è dato dal prodotto
di essi sommati sul continuo a dare:
Z
Ω(E) = dE1 Ω1 (E1 )Ω2 (E − E1 )

35
Intuitivamente il concetto di volume come prodotto di volumi a minor dimensiona-
lità non è affatto intuitivo, ma può essere facilmente dimostrato attraverso l’utilizzo
delle funzioni delta di Dirac. Partiamo dalla definizione più generale di Ω(E):
Z
Ω(E) = dP1 dQ1 dP2 dQ2
E<H1 +H2 <E+δE

che possiamo riscrivere ”liberando gli estremi di integrazione” ed utilizzando la


funzione di Heaviside, e derivando la stessa, come:
Z Z Z
dP1 dQ1 dP2 dQ2 δ(E − H1 − H2 ) = dP1 dQ1 δ(E1 − H1 )Ω2 (E − H1 )dE1

riarrangiando l’ordine di integrazione otteniamo:


Z
dE1 Ω1 (E1 )Ω2 (E − E1 ) (3.3)

che possiamo riscrivere alternativamente come:


Z
dE1 dE2 δ(E − H1 − H2 )Ω1 (E1 )Ω2 (E2 )

Come evidente dalla (3.3) abbiamo fissato un valore di E1 e abbiamo calcolato in


funzione dell’energia totale il volume totale nello spazio delle fasi. Lavorando in
questo modo possiamo intuire che la densità di probabilità associata al sistema con
una determinata E1 è data da:
Ω1 (E1 )Ω2 (E − E1 )
ρ(E1 ) =
Ω(E)
dove ovviamente il valore di E1 può fluttuare. Si dimostrerà in seguito, ora prendia-
mola come un’assunzione ragionevole, che le fluttuazioni di questa energia per un
dato sistema sono ristrette all’intorno del valore E1∗ ovvero quell’energia che corri-
sponde al massimo nella ρ(E1 ).
Possiamo quindi scrivere:
dρ(E1 )
=0
dE1 E1 =E ∗
1

Derivando otteniamo:
( )
1 dΩ1 (E1 ) dΩ2 (E − E1 )
Ω2 (E − E1 ) − Ω1 (E1 ) =0
Ω(E) dE1 E1 =E ∗ dE1
E2 =E−E ∗
1 1

Da cui:
1 dΩ1 (E1 ) 1 dΩ2 (E − E1 )
=
Ω1 dE1 E1 =E ∗ Ω2 dE1
E2 =E−E ∗
1 1

Se andiamo ora a definire, per comodità, l’entropia all’equilibrio come

S = Kb ln Ω

possiamo riscrivere la precedente relazione come:


d
(S1 (E1 ) + S2 (E − E1 )) = 0
dE1

36
L’entropia totale E1 + E2 è dunque massimizzata. Quindi, all’equilibrio termico:
dS1 dS2
=
dE1 dE2
Ora, all’aumentare dell’energia, il valore del rapporto decresce e possiamo dunque
introdurre su questa base una nuova grandezza termodinamica, la temperatura:

1 ∂S
=
T ∂E V,N

E’ importante ricordarsi che i passaggi sono stati fatti a volume e numero di particelle
costanti. All’equilibrio, con massima E1 , risulta dunque:
1 1
=
T1 T2
ovvero: T1 = T2 .

3.2.1.1 Larghezza della Distribuzione


Analizziamo il fattore:
S1 (E1 ) S (E−E )
+ 2 k 1
Ω1 (E1 )Ω2 (E − E1 ) = e kb b

Espandendo intorno al massimo otteniamo:


!
S1 (E1∗ ) 2 ∗ 2

1 ∂ S1 S2 (E − E1 ) 1 ∂ S2
+ (E − E1∗ )2 + (E − E1∗ )2

exp 2
+ =
kb 2 ∂E1 E ∗ kb 2 ∂(E − E1 )2 E−E ∗
1 1
 2
∂ 2 S2
 
∗ ∗ 1 ∗ 2 ∂ S1
Ω1 (E1 )Ω2 (E2 ) exp (E1 − E1 ) +
2kb ∂(E1 )2 ∂(E2 )2

Che possiamo vedere come:

(E1 − E1∗ )2
 
ρ(E1 ) ' C exp −
2σ 2

ovvero una distribuzione gaussiana centrata nel valor medio E1∗ che risulta crescere,
per estensività 4 delle grandezze termodinamiche, come N . Abbiamo poi:

1 ∂ 2 S1 ∂ 2 S2
 
1
=− +
σ2 kb ∂E12 ∂E22
4
L’estensività deriva dall’additività della proprietà stessa nel momento in cui considero la globale
sul sistema come generata da una somma della stessa su N sistemi più piccoli in cui vado a dividere
il mio. L’additività tra i sottoinsiemi è a sua volta figlia della natura stessa delle interazioni tra le
particelle. Infatti è necessario che il contributo dell’interfaccia tra i sistemi sia trascurabile rispetto
al bulk. Questo succede quando le interazioni sono short-range, ma cade quando le interazioni
iniziano ad essere long-range come nel caso gravitazionale o elettrostatico. Tocchiamo con mano
l’additività dell’entropia con l’esempio visto prima per il sistema diviso in due interagenti: Ω(E) =
(E1 −E1∗ )2

dE1 Ω1 (E1 )Ω2 (E − E1 ) = √Ω1 (E1∗ )Ω2 (E2∗ ) e− 2σ2 = Ω1 (E1∗ )Ω2 (E2∗ )( 2πσ) da cui: Stot =
R R

S1 (E1∗ )+S2 (E −E1∗ )+kb ln( 2πσ). Abbiamo quindi una buona estensività a meno della correzione
sulle oscillazioni del sistema all’interfaccia introdotte dall’ultimo termine.

37
che quindi cresce come 1/N , da cui:

σ2 ∝ N

Da cui le fluttuazioni relative (fluttuazione over valore medio, remember RW) risul-
tano essere: √
σ2 1

'√
hE1 i N
Nel limite termodinamico è dunque sensato dire che la distribuzione è molto piccata.
Abbiamo finora lavorato con due sistemi all’equilibrio microcanonico a formare un
sistema più grande a E costante e in assenza di scambio di particelle e variazione di
volume tra i due sottosistemi. Andremo ora a valutare altri casi.

3.2.2 Altre Interazioni tra Sottosistemi


In generale possiamo avere varie combinazioni di scambi tra i sottosistemi. Possiamo
avere sistemi isolati in cui il volume può variare, sistemi in cui può esserci scam-
bio di particelle ed energia ecc. . .. Consideriamo il caso più generale in cui posso
avere scambio di energia, volume e particelle tra i sistemi. Come cambia l’entropia?
Nel capitolo precedente abbiamo introdotto la temperatura come una variazione
dell’entropia in funzione di E a V e N constanti. L’entropia che qui iniziamo a con-
siderare è il primo esempio di potenziale termodinamico che incontriamo nella nostra
vita...quindi siamo contenti... e possiamo indicarla come: S(N, V, E) poichè dipen-
dente da tali grandezze. Le derivate dei potenziali in funzione dei loro argomenti
sono potentissime e ci permetteranno di ricavare tutte le grandezze termodinamiche
di cui avremo bisogno. Iniziamo dunque con S. Consideriamo il caso dell’interazione
tra i due sottosistemi come fatto precedentemente e date le variazioni arbitrarie di
tutte le sue componenti possiamo scrivere che la variazione di entropia del sistema
complessivo è data da:
     
∂S1 ∂S2 ∂S1 ∂S2 ∂S1 ∂S2
∆S = − ∆E + − ∆V + − ∆N
∂E1 ∂E2 N,V ∂V1 ∂V2 N,E ∂N1 ∂N2 V,E

Dalla relazione generale:


dST = dE + pdV − µdN
possiamo scrivere dunque le grandezze in funzione delle derivate parziali dell’entropia
e andare a vedere come il sistema va a massimizzarla in risposta a scambi di natura
sopra indicata. Massimizziamo e troviamo:
   
P ∂S µ ∂S
= ; − = (3.4)
T ∂V N,E T ∂N V,E

in aggiunta a T1 che abbiamo già ricavato nel paragrafo precedente.


La termodinamica sembra facile e lineare, ma possono talvolta nascondersi alcune
insidie dovute a congetture non intuitive in questo zoo di derivate parziali. Per
esempio, noi conosciamo il potenziale chimico µ, la pressione P e la temperatura T
come funzioni delle derivate parziali dell’energia E:

∂E ∂E ∂E
−P = ;µ= ;T =
∂V S,N ∂N S,V ∂S N,V

38
tali relazioni, per essere consistenti, devono poter essere ricavate da quelle da noi
trovate, vedi equazioni (3.4). Per muoversi tra le due espressioni possiamo utilizzare
alcune proprietà di queste derivate prime. Una proprietà è che queste derivate devono
”disegnare”, se rappresentiamo la funzione S(E, V ) come una superficie, un triangolo
chiuso. Questo può essere verificato se pensiamo al percorso nello spazio se andiamo
a muoverci da un punto a ad un punto d secondo queste derivate parziali abbiamo
una distinzione in tre tratti:
P
a-b: Sb − Sa = (Vb − Va )
T
b-c: Ec − Eb = −P (Vc − Vb )
c-d: Ed − Ec = T (Sd − Sc )
Sostituendo le grandezze opportune da un tratto al successivo otteniamo l’identità:
c −Ea )(Vb −Va ) d −Ec )
− (E
(Va −Vb )(Sb −Sa )
= (E
(Sd −Sb )
che può essere facilmente verificata per Va = Vc e Ed = Ea ,
Sd = Sa ovvero creando un tratto a V-costante tra c e a e sovrapponendo quindi a
e d. Abbiamo dunque ottenuto una sorta di triangolo chiuso come quello mostrato
in figura 3.2. Questa chiusura implica un’importante proprietà di queste derivate

Figura 3.2: Triangolo delle derivate parziali

parziali, ovvero:
∂S ∂E ∂V
= −1
∂E V,N ∂V S,N ∂S E,N
Dimostrazione. Consideriamo per comodità le tre grandezze f, x, y e le loro derivate
parziali. I rispettivi movimenti nello spazio sono i seguenti:
  !
∂x
(x0 ; y0 ; f0 ) −→ x0 + ∆y; y0 + ∆y; f0 −→
∂y f
    !
∂x ∂y
−→ x0 + ∆y; y0 + ∆y + ∆f ; f0 + ∆f −→
∂y f ∂f x
      !
∂x ∂y ∂f
−→ x0 + ∆y + ∆x; y0 + ∆y + ∆f ; f0 + ∆f + ∆x
∂y f ∂f x ∂x y

39
Ora, per ottenere la chiusura del tracciato sulle tre derivate parziali è necessario
imporre:  
∂x
∆y + ∆x = 0






 ∂y f

 ∂y 
∆f + ∆y = 0

 ∂f x
  
∂f


 ∂x ∆x + ∆f = 0



y

Dunque:      
∂x ∂y ∂f
= −1
∂y f ∂f x ∂x y

 
P ∂E
Possiamo quindi scrivere: T
1/ ∂V S,N
T da cui

∂E
= −P
∂V S,N

Allo stesso modo:


∂S ∂N ∂E
= −1
∂N V,E ∂E S,V ∂S V,N
da cui:
∂E

∂N V,S

3.2.3 Entropia e Gas Ideale


Andiamo ora a trovare il valore di entropia per il nostro gas ideale nell’insieme
microcanonico che abbiamo precedentemente trattato. Sappiamo che
  
N 3N 3N 3N 3N
Ω=V π 2 (2mE) 2 !
2E 2
da cui l’entropia S = kb ln Ω:
   
3N 3N 3N
kb N ln V + kb ln + ln(2mπE) − kb ln ! =
2E 2 2
   
3N 3N 3N 3N
kb N ln V + kb ln + ln(2mπE) − kb ln −1 =
2E 2 2 2
 3/2 !
3N 3
kb N ln V + ln(2mπE)3/2 − ln + =
2 2
"   3/2 #
4mπE 3
kb N ln V +
3N 2

Dall’entropia cosı̀ trovata ricaviamo:


1 3N kb
=
T 2E
40
P N kb
=
T V
Abbiamo quindi:

L’energia media del gas alla temperatura T → E = 32 N kb T .


Abbiamo quindi un’energia media per particella e per grado di libertà pari a
1
kT
2 b

L’equazione di stato per il gas ideale:

P V = N kb T

3.2.4 Aggiustamenti al Volume dello Spazio delle Fasi


L’entropia come vista precedentemente fa il suo lavoro. Tuttavia ci scontriamo con
due problemi se guardiamo con più attenzione. In primis abbiamo un paradosso, che
vedremo in dettaglio nel capitolo successivo, chiamato paradosso di Gibbs, per cui
se mischiamo due gas identici l’entropia aumenta! Per ovviare a questo problema ve-
dremo che sarà semplicemente necessario dividere il volume dello spazio delle fasi per
un fattore N !. Questa correzione esprime l’indistinguibilità degli atomi, dividendo il
volume per i possibili modi in cui posso riarrangiare gli N atomi. Infatti è necessario
evitare il conteggio di punti identici nello spazio delle fasi per le N particelle.
Lo spazio delle fasi ha dimensionalità ([lunghezza][momento])3N e nel momento in
cui prendo il logaritmo è necessario avere una quantità adimensionale come argomen-
to. Per rendere adimensionale lo s.d.f. si può dimostrare che è sufficiente dividerne
il volume per un fattore h3N , dove h3 esprime il volume minimo occupato da un
atomo nello s.d.f. . Otteniamo quindi:

Ω −→
N !h3N

3.3 Dinamica nello Spazio delle Fasi ed Ergodicità


Nel nostro insieme microcanonico abbiamo dato per buono che una media sullo spa-
zio delle fasi accessibile per una data proprietà potesse darci il valore assunto dalla
proprietà stessa o la densità di probabilità di trovare il mio sistema in particolari
stati piuttosto che altri. Ecco alla base di questo lavoro si cela l’assunzione che il
mio sistema vada a campionare uniformemente tutto lo spazio delle fasi. Teorema di
Liouville ed ergodicità saranno i nostri strumenti per mostrare che una shell (super-
ficie) ad energia E nello spazio delle fasi è campionata in modo completo e uniforme
e che mediare sulla superficie energetica del sistema è una pratica consistente con
l’evoluzione temporale del sistema stesso (invarianza del volume nello spazio delle
fasi nel muoversi lungo traiettorie).

3.3.1 Il Teorema di Liouville


L’equiprobabilità di tutti i possibili stati nello s.d.f. era data per scontata, Liouville
andrà ora a rafforzare questa assunzione. Consideriamo dei sistemi Newtoniani non
dissipativi ovvero sistemi dinamici Hamiltoniani. Questi sistemi conservano l’energia,
data dall’Hamiltoniana come funzione delle posizioni e dei momenti delle particelle

41
costituenti il sistema. La dinamica di un sistema di questo tipo e la sua traiettoria
nello spazio delle fasi è descritta dalle equazioni di Hamilton.
3N
X p2i
H= + U (q1 , . . . , qN )
i=1
2m

∂H
q̇i = = pi /m


∂pi
∂H ∂U
ṗi = − =−


∂qi ∂qi
Possiamo quindi conoscere l’evoluzione temporale del sistema se conosciamo lo stato
iniziale.
Definiamo ora la densità di probabilità nello spazio delle fasi per il sistema in esame:
ρ(P, Q)
come evolve nel tempo questa densità?
La densità è localmente conservata, cioè non può essere né creata né distrutta, ma
può solo diffondere nello spazio delle fasi. La densità deve dunque obbedire all’e-
quazione di continuità (come quella a cui obbedisce la densità di massa in funzione
della corrente di massa5 ):
∂ρ ~ · J~
= −∇
∂t
con la corrente 6N dimensionale definita in generale come:
J~ = ρ~v = (ρq̇1 , . . . , ρq̇3N , ρṗ1 , . . . , ρṗ3N )
Abbiamo dunque:
∂ρ ~ 6N · (ρ~v ) =
= −∇
∂t
3N  
X ∂(ρq̇i ) ∂(ρṗi )
− + =
1
∂q i ∂p i
3N  
X ∂ρ ∂ q̇i ∂ρ ∂ ṗi
− q̇i + ρ+ ṗi + ρ
1
∂q i ∂q i ∂p i ∂p i
 
∂ q̇i ∂ ṗi
Essendo derivate seconde incrociate di H: ρ + =0
∂qi ∂pi
3N  
∂ρ X ∂ρ ∂ρ
Quindi: =− q̇i + ṗi
∂t 1
∂qi ∂pi

Definendo la derivata totale della densità nel tempo possiamo scrivere:


3N  
dρ ∂ρ X ∂ρ ∂ρ
= + q̇i + ṗi = 0
dt ∂t 1
∂q i ∂p i

5
Ricorda il caso 1D trattato ne capitolo sul RW. La divergenza introdotta nell’equazione succes-
siva è una generalizzazione di questo caso. In maniera più intuitiva si può dimostrare anche conside-
rando un cubetto e la variazione di densità al suo interno ∂ρ
∂t ∆V e uguagliandola R all’opposto
R del flus-
so della corrente attraverso la superficie del cubo. Utilizzando Gauss-Green: JdS = div(J)dV
e abbiamo dunque trovato la nostra equazione di continuità per il caso 3D

42
La derivata totale esprime l’evoluzione temporale della densità vista da una parti-
cella appartenente al flusso stesso in movimento. La derivata parziale esprime invece
la velocità nella variazione della densità vista da un punto fisso nello spazio delle
fasi. Il secondo termine esprime la velocità se il campo della densità rimane costante
nel tempo ed è il punto da cui si osserva che si muove.
Risultati del teorema:
Il flusso (fluido) nello spazio delle fasi è incomprimibile. La densità di elementi
infinitesimi del flusso nello spazio delle fasi non cambia nel tempo ovvero non si
hanno né espansioni né compressioni dello stesso. Elementi di volume vengono
quindi modificati nella forma lungo la traiettoria del sistema, ma il volume
rimane invariato.

Non sono presenti pozzi e sorgenti nello spazio delle fasi.

Una densità iniziale uniforme nello spazio delle fasi rimarrà tale nell’evoluzione
temporale del sistema.
Per concludere, la superficie (shell di volume ad una energia E) nello spazio delle
fasi può essere stortignaccolata quanto vogliamo lungo la dinamica, ma i pesi relativi
delle varie parti della superficie, dati dal loro volume, rimarrà invariato nel tempo.
Questo porta all’indipendenza dal tempo la descrizione dell’equilibrio nel nostro
sistema microcanonico.

3.3.2 Ergodicità
In parole povere ogni punto dello spazio delle fasi viene prima o poi esplorato da una
traiettoria del sistema. Non abbiamo zone con concentrazione di volumi anomale,
ovvero divergenze nello spazio.
Definizione. In un sistema ergodico, la traiettoria di quasi tutti i punti nello
spazio delle fasi, ovvero tutti i punti eccetto un insieme di misura nulla, passano
arbitrariamente vicino ad ogni altro punto nella superficie ad energia costante.
Una conseguenza fondamentale dell’ergodicità per un sistema è che la media
temporale di una grandezza termodinamica, O, coincide alla media termodinamica
d’insieme per il microcanonico, hOiS . La dimostrazione di questa conseguenza si può
articolare in tre step:
Le medie temporali sono costanti sulle traiettorie. Possiamo quindi scrivere:

O(P(0), Q(0)) = O(P(t), Q(t))

Le medie temporali sono costanti sulla superficie energetica. Questo impli-


ca che la media temporale all’equilibrio del nostro osservabile O è indipendente
dalle condizioni iniziali. Come ci si convince di una roba del genere? Considera
un sottoinsieme della superficie energetica Ra dove O < a, per qualche valore
di a. Essendo O costante lungo una traiettoria, ogni punto in Ra viene spedito
dall’evoluzione temporale in un altro punto in Ra . Dunque Ra è una compo-
nente ergodica. Avendo una dinamica ergodica sulla superficie, Ra o ha volume
nullo o il volume della superficie stessa. Questo implica che O è costante su
tutta la superficie.

43
Le medie temporali coincidono con le medie d’insieme. Dobbiamo mostra-
re che le traiettorie non stanno in una regione dello spazio delle fasi per più di
quanto dovrebbero. Il teorema di Liouville ci dice che l’insieme microcanonico
è time independent e questo ci permette di dire che la media termodinamica
coincide con la media temporale ovvero la media d’insieme della media tem-
porale. Essendo tuttavia la media temporale costante, vedi punto precedente,
in un sistema ergodico la media d’insieme coincide con la media temporale
ovunque.

Le definizioni sopra date sono quelle formalmente suggerite dal Sethna, ma possono
risultare al lettore poco chiare ed esaustive. Proponiamo6 dunque una dimostrazione
alternativa.
Dimostrazione. Il nostro obiettivo è dimostrare che la media d’insieme nel microca-
nonico, hOi coincide con la media temporale per l’osservabile O.

1. Mediamo sull’ensamble la media temporale: hOi. Essendo la media temporale,


come abbiamo mostrato nel secondo punto dell’elenco precedente, costante
sulla superficie energetica abbiamo:

hOi = ha∗ i = a∗ = O

2. Mediamo nel tempo la media d’ensamble: hOi.


Z Z
1
lim dt ρ(t, P, Q)O(P, Q)dPdQ
T →∞ T

Essendo la densità costante nel tempo (Liouville), o meglio in generale l’insieme


microcanonico è indipendente dal tempo, possiamo scrivere:
Z Z
1 1
lim dthO(P(0), Q(0))i = lim hO(P(0), Q(0))i dt = hO(P(0), Q(0))i = hOi
T →∞ T T

3. Mostriamo ora che hOi = hOi. Liouville mi dice che posso scambiare l’ordine
di integrazione poichè ho l’elemento di volume nell’integrazione nell’ensamble
che non dipende dal tempo (Jacobiano per la trasformazione unitario):

1 T 1 T
Z  Z 
hOi = lim hO(P, Q)idt = lim O(P, Q) = hOi
T →∞ T 0 T →∞ T 0

Le tre uguaglianze sopra indicate implicano: O = hOi


NOTA:
Esistono sistemi in cui il teorema ergodico non vale. Ne menzioniamo qui due tra
i più importanti. Il primo è il vetro in cui post transizione di fase si ha rottura
di simmetria e il sistema si divide in due fasi distintamente ergodiche. Un altro
esempio è il caso dell’interazione a tre corpi, in cui il teorema ergodico non vale,
principalmente per il fatto che nell’interazione sono coinvolte forze long-range.

6
Io e G. Botti

44
Capitolo 4

L’Entropia

Il termine entropia può assumere tre diverse accezioni:

Misura del disordine di un sistema

Misura dell’irreversibilità di un processo

Misura dell’ignoranza nella teoria dell’informazione, ovvero la mancanza di infor-


mazione

4.1 Entropia ed Irreversibilità


Pensiamo alla macchina di Carnot, vedi immagine 4.1 e 4.2.

Figura 4.1: Ciclo di Carnot

Abbiamo due bagni termici e un pistone applicati ad un serbatoio contenente un


gas perfetto, con temperatura T1 > T2 . Tra i due bagni c’è uno scambio di calore
attraverso il sistema. Con Q1 uscente dal bagno caldo e Q2 entrante nel bagno
freddo. Il lavoro netto fatto dal pistone sull’ambiente esterno risulterebbe quindi
essere W = Q1 − Q2 . Per far si che questa macchina fosse reversibile, Carnot pensò
ad un ciclo termodinamico ideale. Nel primo step del ciclo il sistema viene connesso
al bagno caldo, si ha un’espansione a temperatura costante per il gas a T1 in cui
una quantità di calore Q1 viene assorbita per mantenere stabile la T . Nella seconda
fase del ciclo il pistone si espande ulteriormente variando la pressione e raffreddando
il sistema alla T2 senza scambio di calore. Nel terzo step il sistema viene connesso

45
Figura 4.2: Macchina di Carnot

al bagno freddo e si ha una compressione a T2 costante in cui il calore Q2 viene


rilasciato al bagno per mantenere stabile la temperatura. Nel quarto e ultimo step
il pistone continua la compressione senza scambio di calore e riscaldando il gas a
T1 , ritornando cosı̀ allo stato iniziale. Il risultato fondamentale di questo ciclo, non
stiamo qui a fare tutti i calcoli, è che per ogni macchina termodinamica reversibile
(più in generale ogni trasformazione) vale la seguente relazione:

Q1 Q2
=
T1 T2
Venne successivamente introdotta la relazione:
Z B
δQ
S(B) − S(A) =
A T
su un cammino reversibile tra gli stati A e B. Su un ciclo reversibile:
I
δQ
∆S = =0
T
Questa definizione può aiutarci come indicatore di processi irreversibili, infatti per
un processo non reversibile si ha sempre: ∆S > 0. Per questo S risulta essere una
buona misura dell’irreversibilità di un processo.

4.2 Entropia e Disordine


Per andare a definire l’entropia come misura del disordine abbiamo bisogno della
meccanica statistica e quindi di tutto quello che abbiamo visto finora.
Poniamoci ora il problema del mixing di due gas perfetti diversi. Nello stato di
pre-mixing abbiamo N/2 atomi neri e altrettanti bianchi divisi in un contenitore di
volume totale 2V e ciascuno occupante un volume V . Togliamo poi la barriera tra i
due gas e aspettiamo l’equilibrio; come cambia l’entropia ?

46
Trascuriamo il contributo dovuto allo spazio dei momenti, anche perchè la distribu-
zione delle velocità risulta essere la stessa prima e dopo il mixing, e otteniamo:
!
V N/2
Sunmix = 2Kb ln N
2
!

dove il fattore due conta due volte il contributo dei gas presi singolarmente e il
fattore N2 !, essenziale per il paradosso di Gibbs, esclude i possibili scambi a dare
configurazioni identiche per gli N2 atomi indistinguibili dello stesso colore.
Calcolando allo stesso modo l’entropia post-mixing1 e otteniamo:
" ! !#
(2V )N/2 V N/2
∆S = 2kb ln N
− ln N
= 2kb ln 2N/2 = kb N ln 2
2
! 2
!

Abbiamo quindi una differenza in entropia che va ad aumentare a causa dell’au-


mento del disordine del sistema e aumenta di un fattore kb ln 2 per ogni particella che
vado a metterci, senza scegliere in quale delle due box vado a metterla, una particel-
la incrementando il disordine. In generale possiamo definire l’entropia di conteggio
come:
Scount = kb ln(numerodiconf igurazioni)
dove il sistema deve essere a livelli discreti e con configurazioni equamente probabili.

4.2.1 Il Paradosso di Gibbs


Consideriamo un sistema totale di volume 2V diviso inizialmente in due sistemi di
volume V . Entrambi i sistemi contengono N2 atomi dello stesso tipo. Rompiamo ora
la barriera tra i due sottosistemi. Situazione iniziale e finale sono identiche dal punto
di vista configurazionale dunque:
∆S = 0
Facciamo un calcolo formale ed esplicito:
N
!
V 2
Sunmix = 2kb ln N
2
!
N
 
(2V )
Smix = kb ln
N!
"  N
!#
(2V )N

V 2
dunque: ∆S = kb ln − 2 ln N =
N! 2
!
 
N
kb N ln 2V − N ln V − N ln N + N + N ln − N = 0
2
Ottimo risultato2 ! Infatti senza la correzione in N ! sull’indistinguibilità delle par-
ticelle avrei ottenuto un aumento dell’entropia mischiando i due gas uguali. L’au-
mento, se fai i calcoli togliendo i fattoriali al denominatore, è kb N ln 2 e risulta essere
quindi estensivo!!!
1
l’unico cambiamento rispetto alla formula precedente sta nel volume totale che consideriamo
per ciascuno dei due gas preso separatamente
2
E’ stata utilizzata l’approssimazione di Stirling. L’errore commesso su ∆S è subestensivo ovvero
S
non dipende da N . Ciò che conta è N . La termodinamica è infatti valida solo nel limite di N grande.

47
4.3 Entropia come Ignoranza
Entriamo ora nel mondo della teoria dell’informazione, che altro non è che un sottoin-
sieme di misura nulla dello spazio infinito dimensionale della conoscenza di Zapperi.
Vedremo infatti che potremmo ricondurre tutto a Boltzmann.
Consideriamo un sistema con M stati equiprobabili con probabilità
1
pi = , i ∈ [1, M ]
M
L’entropia sarà dunque data da:
1
S(M ) = kb ln M = −kb ln = −kb ln pi =
M
(essendo le probabilità tutte uguali) = −kb hln pi i =
X
− kb pi ln pi
i

L’entropia definita come: X


S = −kb pi ln pi
i

è chiamata entropia di Shannon e vale anche quando le pi sono diverse tra loro. In
questi casi si considera la densità degli stati ρ(Q, P). Dove ρ è l’equivalente di pi nel
continuo. Abbiamo dunque:
Z
dQdP
S = −kb 3N N !
ρ(Q, P) ln ρ(Q, P)
E<H<E+δE h

Messe qui cosı̀ queste sono solo definizioni. Ma perchè è una buona definizione di
entropia? Perchè entra a giocare un ruolo fondamentale nella teoria dell’informazio-
ne?
In informatica sostituiamo la costante di Boltzmann con quella di Shannon:
1
kb → ks =
ln 2
Infatti in informatica utilizziamo i bit ed è quindi necessario rinormalizzare tutto
con la nuova dimensione in modo tale che l’entropia sia misurata in bit3 . L’entropia
definita come: X
S = −ks pi ln pi
i

viene chiamata entropia di Shannon ovvero l’entropia associata ad una stringa di


bit.
Possiamo ora chiederci: ”Qual’è la quantità minima di informazione che posso tra-
smettere perchè qualcuno capisca?”
Se tutti i bit sono a zero mi basta il primo bit per farmi capire. Se i bit sono random
allora sto mandando tutte le parole possibili con un determinato numero di bit e ho
ignoranza massima. Nel caso in cui la pi è random ho quindi la minor informazione
possibile, non ho alcun modo di codificare il messaggio.
3
Il numero di stati raddoppia per ogni bit in più. Dato quindi un numero di stati ω, il numero
di bit ad esso associato è log2 ω

48
Per mostrare la relazione tra entropia e informazione posso dimostrare che quando
il sistema è totalmente random allora ho un massimo in entropia.
Consideriamo M stati, Pi con i : 1 → M . Vogliamo trovare il massimo dell’entropia.
Ci sono due modi fondamentali per procedere con questo lavoro. Il primo (vedi libro
Sethna) è di utilizzare alcune relazioni geometriche della funzione concava −x ln x
per x che va da 0 a 1. Noi faremo semplicemente il massimo della funzione. Poniamo
la derivata prima nulla e poi della seconda ne vediamo il segno. Il problema è che
qui è necessario introdurre un vincolo sulle pi :
N
X
pi = 1
i

Lavoriamo dunque con i moltiplicatori di Lagrange. Massimizziamo:


N
!
X
S0 = S − λ pi − 1
i

Calcoliamo la derivata nella generica variabile pj :

dS 0
 
1
= −ks 1 × ln pj + pj − λ(1) = 0 ; ∀j
dpj pj

Da cui:  
λ
p∗j = exp − − 1
ks
Da notare come queste probabilità siano tutte indipendenti da j. Significa quindi che
la condizione per avere un estremante è avere la stessa probabilità per ogni j. Manca
da trovare il moltiplicatore. Per trovarlo basta sostituire la soluzione nell’equazione
del vincolo. Se lo facciamo:
N  
X λ
exp − − 1 = 1
i
ks

Essendo gli M elementi della somma tutti identici possiamo riscriverla come:
 
λ
M exp − − 1 = 1
ks

Risolvendo troviamo λ.
Abbiamo quindi trovato che una distribuzione uniforme delle pj ci permette di avere
un estremante nell’entropia. Rimane da determinare se questo sia effettivamente
un massimo. Per farlo facciamo la derivata seconda dell’entropia: −ks p1j ; essendo ks
positivo allora abbiamo un massimo per ogni pj .
Il minimo dell’entropia sarà dunque il caso perfettamente deterministico. Per esem-
pio pongo P1 = 1 e pi = 0 ; ∀i > 1 e so dunque con esattezza il risultato (come nel
lancio di un dado truccato). Quindi:
!
X X
S = −ks pi ln pi = −ks p1 ln p1 + pi ln pi = 0
i i>1

49
Abbiamo dunque entropia minima nel caso di massima determinazione. L’entropia
è nulla e in generale sempre positiva perchè l’argomento del logaritmo è sempre mi-
nore di uno.

Un corollario del fatto che date pi nulle allora il loro contributo all’entropia di
Shannon è nullo ci dice che l’entropia di Shannon non è modificata dall’aggiunta di
stati altamente improbabili (probabilità nulla).
Se abbiamo invece a che fare con probabilità condizionate ?
Consideriamo due set di possibili eventi:
A = {a1 , . . . , aN } e B = {b1 , . . . , bN }
Definiamo la probabilità condizionata:
Ckl = P (A = ak |B = bl )
e la probabilità incondizionata:
P (A = ak ; B = bl )
Ora, dal teorema di Bayes, possiamo scrivere la probabilità che A assuma un deter-
minato valore ak indipendentemente dal valore assunto da B come:
X
P (A = ak ) = P (A = ak |B = bl )P (B = bl )
l

In un sistema di questo tipo cosa succede all’entropia di Shannon ?


Misurando S la mancanza di informazione, ovviamente, avendo a che fare con proba-
bilità condizionate avrò più informazione e quindi S dovrebbe diminuire. Calcoliamo
S(A, B), ovvero l’entropia incondizionata associata ad A e B:
X
S(A, B) = −ks Ckl ql ln Ckl ql
kl

dove: ql = P (B = bl ) e Ckl ql = P (A = ak , B = bl ). Quindi possiamo spezzare e


scrivere:
X X X X X
S(A, B) = −ks (ql Ckl ln Ckl + ql Ckl ln ql ) = −ks ql Ckl ln Ckl −ks ql ln ql Ckl
kl l k l k
P
essendo k Ckl = 1 possiamo riscrivere il tutto come:
hS(A|B)l iB + S(B)
dove hS(A|B)l iB rappresenta l’aspettazione dell’ignoranza dopo un evento di condi-
zionamento bl e si trova andando a pesare l’ignoranza dopo ciascun bl per la proba-
bilità di avere un dato bl .
Abbiamo quindi ottenuto una relazione tra entropia condizionata e non condizionata,
in particolare:
hS(A|B)l iB = S(A, B) − S(B)
che ha senso poichè esprime il fatto che, partendo dall’entropia associata alla di-
stribuzione congiunta di due eventi considerati indipendenti A e B, possiamo dire
che, in media, l’entropia condizionata dati i due eventi considerati dipendenti è data
dall’entropia iniziale meno l’ignoranza persa dall’aggiunta di informazioni riguar-
do all’evento B (che so che è accaduto), il quale andrà a condizionarmi l’evento
A. Sapendo qualcosa in più sul processo abbiamo dunque una diminuzione diretta
dell’entropia.

50
Capitolo 5

L’Ensamble Canonico

5.1 Descrizione Generale


Precedentemente abbiamo lavorato con l’insieme microcanonico, ora cambiamo in-
sieme e iniziamo a trattare con un sistema in equilibrio con un bagno termico,
vedi immagine 5.1. Abbiamo quindi il nostro sistema che scambia energia con l’am-

Figura 5.1: Sistema accoppiato con bagno termico

biente, ovvero il serbatoio termico a temperatura T di dimensioni molto maggiori


del sistema. Qual’è l’energia del sottosistema ES accoppiato con il nostro bagno
termodinamico? Sappiamo che E = EA + ES si conserva poichè ambiente e sotto-
sistema formano un sistema isolato. Inoltre, da quello che avevamo ricavato per il
microcanonico, la densità degli stati per il nostro sottosistema:

ρs ∝ ΩA (E − ES )

Utilizzando la formula di Boltzmann possiamo riscrivere:


SA (E−ES )
ΩA (E − ES ) = e kb

51
Consideriamo inoltre:
1 ∂SA
= = cost
T ∂EA
poichè l’ambiente è molto più grande e la sua temperatura non cambia.
Quello che vogliamo determinare è la densità degli stati per questo sottosistema o
ancor meglio il rapporto tra le loro densità. Supponiamo di avere due stati nel nostro
sottosistema:  
ρ(Sβ ) SA (E − Eβ ) − SA (E − Eα ))
= exp
ρ(Sα ) kb
posso espandere per piccole differenze tra Eα e Eβ , infatti il sottosistema è in equi-
librio con A e potrà dunque avere solo piccole fluttuazioni in energia (temperatura
costante). Dunque possiamo scrivere per le due energie pressochè uguali:
 
(Eα − Eβ ) ∂SA − ∆E
exp = e kb T
kb ∂E
Questo significa che per un determinato stato s del mio sottosistema avrò una densità
di probabilità:
− Es
ρ(s) ∝ e kb T
Ci manca di calcolare questa costante di proporzionalità. Possiamo pensare che
essa venga dal fatto che la ρ(s) essendo una densitàPdi probabilità debba essere
normalizzata e dunque la somma sugli stati accessibili s ρ(s) = 1. Possiamo quindi
scrivere:
− Es
e kb T
ρ(s) =
Z
dove Z è la costante di normalizzazione e assume due espressioni in funzione del
sistema in esame. Nel caso discreto:
X − Es
Z= e kb T
s

Nel caso continuo assume la forma dell’integrale nello spazio delle fasi:
Z
dQdP − H(Q,P)
e kb T
h3N N !
Z viene comunemente chiamata funzione di partizione ed è una funzione ca-
ratteristica per il nostro sistema.
Essa ci permette infatti di calcolare per il sistema in esame tutte le grandezze ter-
modinamiche di cui necessitiamo, paragonabili ai momenti della distribuzione.

5.2 Calcolo di Grandezze termodinamiche


Calcoliamo ora l’energia media del mio sistema in equilibrio con l’ambiente alla
temperatura T . Possiamo scrivere (come per il primo momento di una distribuzione
generale):
− kEsT
X X e b X e−βEs ∂ X ∂
hEs i = Es ρ(s) = Es = Es =− ln e−βEs = − ln Z
s s
Z s
Z ∂β s
∂β

52
Da notare che l’energia media è la derivata del logaritmo della funzione caratteri-
stica ovvero della funzione generatrice. Passiamo ora al calore specifico nella sua
definizione estensiva:
1 ∂2
 
∂hEi ∂hEi ∂β ∂hEi 1
N Cv = = = − = ln Z
∂T ∂β ∂T ∂β kb T 2 kb T 2 ∂β 2
Possiamo riscrivere questo risultato come:
2 −βEs
!
−βEs 2
σE2
P P
1 s −E s e E
s s e 1 2 2

N Cv = − P −βEs
+ P −βEs
= hE i − hEi =
kb T 2 se se kb T 2 kb T 2
Il calore specifico è quindi proporzionale alle fluttuazioni quadratiche dell’energia
(varianza dell’energia) nel sistema. Inoltre questo risultato evidenza il fatto che
√ σE 1
σE2 ∝ N Cv ⇒ σE ∝ N ⇒ ∝√
hEi N
quindi nel limite di N grande l’energia è pressochè costante. Questo mi fa intuire
l’uguaglianza tra ensemble microcanonico e canonico. Infatti, nel micronanonico ci
siamo messi nelle condizioni di lavorare con un sistema ad E costante e poi abbiamo
calcolato tutte le varie grandezze termodinamiche e nel canonico, partendo da un
sistema in condizioni diverse, con l’energia che può variare, abbiamo ottenuto che
nel limite termodinamico le fluttuazioni sono piccolissime e risulta quindi indistin-
guibile dal microcanonico.
In termodinamica lavoriamo dunque con grandezze mediate e quindi non vediamo
le fluttuazioni. La meccanica statistica descrive invece il sistema anche con N più
piccoli e tiene conto delle fluttuazioni, che comunque, al limite di N molto grande,
nella maggior parte dei casi, diventano trascurabili.
Calcoliamo ora l’entropia nell’insieme canonico. Partiamo dall’espressione di Shan-
non: X
S = −kb ps ln ps
s
sostituendo le densità di probabilità per gli stati nell’insieme canonico possiamo
scrivere:
X e−βEs  e−βEs  X e−βEs X e−βEs
S = −kb ln = −kb (−βEs ) + kb ln Z
s
Z Z s
Z s
Z
Quindi:
hEi
S = kb ln Z +
T
Riarrangiando il risultato trovato possiamo definire il potenziale termodinamico
(energia libera) di Helmoltz per il canonico come:
hEi − ST = −kb T ln Z → A(N, V, T ) = −kb T ln Z
Verifichiamo ora che tale risultato sia consistente con il risultato ottenuto dalla
termodinamica classica nel calcolo di derivate termodinamiche. Sappiamo che, dalla
definizione classica:
 
∂A ∂
= −S = −kb ln Z − kb T ln Z =
∂T V,N
∂T
∂β ∂ ln Z hEi
− kb ln Z − kb T = −kb ln Z − = −S
∂T ∂β T
dunque le due scritture per A sono consistenti.

53
5.2.1 Estensività delle Variabili Termodinamiche nel Cano-
nico
E’ una delle caratteristiche fondamentali dei potenziali termodinamici. Se abbiamo
sistemi in equilibrio con un bagno termico come dimostriamo questa estensività?
Consideriamo due sistemi, L e R, accoppiati con un bagno termico B, vedi immagine
5.2. I sistemi scambiano dunque energia con B ma sono tra loro isolati.

Figura 5.2: Sistemi isolati in contatto con bagno termico

Identifichiamo con la lettera i gli stati associati a L e con la lettera j gli stati
associati a R. Possiamo scrivere la funzione di partizione per il sistema intero come
la somma delle due Z, poichè l’Hamiltoniana totale si può dividere in due parti
disaccoppiate:
! !
L R L R
X X X
Z= e−β(Ei +Ej ) = e−βEi e−βEj = ZL ZR
i,j i j

quindi nel momento in cui l’Hamiltoniana va a separarsi nella somma di due compo-
nenti disaccoppiate, nel canonico possiamo fattorizzare direttamente la funzione di
partizione per il sistema e computare ciascuna delle due parti indipendentemente.
Scriviamo ora il potenziale di Helmoltz per questo sistema:

A = −kb T ln Z = −kb T ln(Zl ZR ) = Al + AR

dunque c’è estensività nei potenziali termodinamici nel canonico nel momento in
cui tratto con sottosistemi non interagenti. Ovviamente non stiamo considerando
interazioni tra L e R in questo sistema, ma cosa succede se prendo un gas e ne
raddoppio il volume e il numero di particelle. Non possiamo dire che non ci siano
interazioni tra i gas nelle due metà dei volumi ! Consideriamo il caso di un gas ge-
nerico che ha volume doppio rispetto ai due sottosistemi che lo compongono e che ci
siano scambi di energia e particelle tra questi sottosistemi. Abbiamo dunque tolto
la separazione rigida tra i sistemi e li abbiamo immersi in un bagno termico. Alla
somma diretta tra le energie libere per sistemi non interagenti Esx + Edx dovrem-
mo aggiungere il contributo energetico delle interazioni all’interfaccia tra sinistra e
destra. Se il gas è perfetto non ho interazioni e ho risolto il problema. Se Invece ho
interazioni allora ho un contributo che possiamo immaginare avvenire alla superfi-
cie di contatto tra i due sistemi. Tutto il contributo di interazione sarà localizzato
dunque sulla superficie, ma noi sappiamo che per volumi grandi Sup V ol
→ 0 e dunque

54
il termine di interazione, proporzionale alla superficie, viene ad essere fortemente
trascurabile rispetto alle proprietà termodinamiche di non interazione che crescono
come il volume.
La proporzionalità alla superficie dell’interazione ha come prerequisito la natura
short-range delle interazioni interatomiche. In sistemi con interazioni long-range que-
sta estensività viene a mancare. Un esempio è l’interazione gravitazionale in cui la
forza di interazione va molto lentamente a zero al crescere della distanza.

5.2.1.1 Esempi di Sistemi Disaccoppiati


Il gas ideale.
Ogni atomo in un gas ideale è isolato da tutti gli altri. Consideriamo un gas di N
atomi di massa m in un contenitore isolato di volume V = L3 . l’Hamiltoniana per
il sistema sarà:
3N
X p2i
H=
i
2m
La funzione di partizione sarà:
Z 3N 3N N
VN
Z
d pd q −β P3N p2
i
P3 p2
i
3 −β
Z= e i 2m = 3N d pe i 2m
h3N N ! h N!
essendo gli integrali uguali possiamo riarrangiarla come:
3N
VN V N p
Z 3N
p2
−β 2m
dpe = 3N 2πmkb T
h3N N ! h N!
Sostituendo l’espressione per il volume otteniamo:
 3N  3N
L 1/2 1 L 1
Z= (2πmkb T ) =
h N! λ N!
abbiamo definito la lunghezza d’onda termica di De Broglie come:
h
λ= √
2πmkb T

Calcoliamo ora l’energia interna media per il gas perfetto:


∂ 3
hEi = − ln Z = N kb T
∂β 2
Abbiamo quindi ritrovato il teorema di equipartizione dell’energia per i momenti
senza bisogno di calcolare volumi nello spazio delle fasi 3N dimensionale (come
avevamo fatto per il microcanonico). Allo stesso modo il calore specifico:
∂hEi 3
N Cv = = N Kb
∂T 2
Tutti i calcoli come si può vedere risultano più semplici ! Passiamo ora al calcolo
dell’energia di Helmoltz:
 
L
A = −kb T ln Z = −3N kb T ln + kb T ln N ! =
λ
   
L N 3
− 3N kb T ln + kb T N (ln N − 1) = N kb T ln λ − kb T N =
λ V
kb T N ln(ρλ3 ) − 1


55
dove ρ è la densità media per il gas.
L’entropia, allo stesso modo si può facilmente ricavare dalla derivata parziale di A:
∂A ∂
= −kb N ln(ρλ3 ) − 1 − kb T N ln λ3

S=−
∂T ∂T
Ora: ln λ3 = 3 ln λ = − 32 ln T + c.
Dunque:  
3
 3 5 3
S = −N kb T ln(ρλ ) − 1 + N kb = N kb − ln(ρλ )
2 2
abbiamo quindi buona estensività in N e abbiamo eliminato il paradosso di Gibbs
con questa definizione di entropia poichè è stato incluso N ! nella sua definizione.

L’oscillatore armonico con singolo grado di libertà.


Scriviamo l’Hamiltoniana per il sistema:

p2 q2
H(p, q) = + mω 2
2m 2
La funzione di partizione risulta dunque:
 
Z p 2 2
dqdp −β 2m +mω 2 q2
Z= e =
h
Z Z
1 p2
−β 2m βmω 2 q 2
dpe dqe− 2 =
h
!
1 p  r 2πk T
b
2πmkb T =
h mω 2
2π kb T 1
=
h ω β~ω
Nota che ~ω è il quanto dell’oscillatore armonico quantistico e il risultato è consi-
stente.
Calcoliamo ora le proprietà termodinamiche intensive (stiamo considerando un grado
di libertà) e possiamo immaginare che per N oscillatori armonici indipendenti il ri-
sultato sia semplicemente la potenza N-esima della grandezza intensiva normalizzata
a N !. Se gli oscillatori non sono indipendenti dovremmo diagonalizzare.

A = −kb T ln Z = kb T ln
kb T
∂ ln Z 1
hEi = − = = kb T
∂β β
che è l’energia per singolo grado di libertà per l’oscillatore armonico.
Il calore specifico:
Cv = kb
L’interesse nell’oscillatore armonico è grande poichè permette di trattare molecole
e solidi con modelli semplificati. Per esempio, un solido può essere visto come una
rete di oscillatori armonici accoppiati, quindi in generale se abbiamo un potenziale

56
che dipende da tutti i gradi di libertà del solido, in prima approssimazione possiamo
scriverlo come:
1X
V (Q) ∝ Kα,β Qα Qβ
2 α,β

dove Kα,β è la matrice di interazione tra le varie coppie di oscillatori le cui compo-
nenti sono le derivate seconde del potenziale interatomico. Diagonalizzando V (Q),
cambiando il sistema di riferimento, possiamo scrivere:
1X 2
V (Q) = q mωi2
2 i i

ottenendo cosı̀ i modi normali del solido ovvero quelle coordinate dove la matrice di
interazione risulta diagonale. Ci siamo ricondotti quindi ad un potenziale dato da
3N oscillatori armonici indipendenti. Dunque:
X p2 1
i
H= + mωi2 qi2
i
2m 2

dove le ωi sono le frequenze normali del mio solido. Ogni frequenza è dunque un
oscillatore armonico e quindi, essendole frequenze diverse ma indipendenti, possiamo
scrivere la funzione di partizione come:
Y Y 1
Z= Zi =
i i
β~ωi

e dunque il calore specifico del solido sarà:

N Cv = 3kb

57
Capitolo 6

L’Ensamble Gran Canonico

6.1 Descrizione Generale


Da sistema isolato (microcanonico) a scambio di energia con un serbatoio (canonico)
aggiungiamo ora lo scambio di particelle con l’ambiente, prima vietato nel canonico,
vedi immagine 6.1.

Figura 6.1: Sistema gran canonico

Abbiamo quindi il solito sistema isolato con energia e numero di particelle totale
costante e con un sottosistema che può scambiare con l’ambiente circostante sia
energia che materia. Possiamo quindi scrivere:
E = ET + ES e N = NT + NS
dove ES ed NS in questo caso saranno entrambi valori fluttuanti.
Quindi possiamo calcolare la densità di probabilità per un determinato stato come
per il canonico aggiungendo semplicemente una variabile in più:
ρ(ES , NS ) ∝ Ω2 (E − ES ; N − NS )
dove Ω2 è il volume dello spazio delle fasi occupato dal bagno termico. Quindi
riscrivendo in entropia utilizzando l’ensamble microcanonico, e quindi la formula di

58
Boltzmann, per il sistema globale isolato T + S possiamo scrivere:
S2 (E−ES ;N −NS ) ∂S2 ∂S ES NS µ
[−ES −NS ∂N2 ] k1 −k +
Ω2 (E − ES ; N − NS ) = e kb
∝e ∂E b =e bT kb T

Da notare che abbiamo sostituito, utilizzando la definizione in termodinamica clas-


sica del potenziale chimico:
∂S
µ = −T
∂N
Dunque, introducendo l’opportuno fattore di normalizzazione, troviamo la densità
di probabilità di uno stato nel microcanonico:
1 − kEST + Nk STµ
ρ(s) = e b b
Ξ
Definiamo Ξ come la funzione di gran partizione:
X − E S + NS µ
Ξ= e kb T kb T
s

da notare che abbiamo stati con numero di particelle NS ed energia ES da con-


siderare e avremo quindi più stati rispetto ai casi precedenti. Possiamo poi defi-
nire l’equivalente dell’energia libera da noi vista finora, ovvero il cosı̀ detto gran
potenziale:
Φ = −kb T ln Ξ = hEi − T S + µN
la cui espressione può essere facilmente verificata riarrangiando la formula a noi no-
ta per la variazione di entropia in funzione di volume, energia interna e numero di
particelle.

6.1.1 Riscrittura della Gran Partizione


Andiamo ora a valutare come l’energia fluttua dal valor medio in questo ensamble.
Riscriviamo la funzione di partizione in un modo alternativo. Nel gran canonico
la somma sugli stati può essere espressa in una doppia somma: una esterna sugli
stati con un certo numero di particelle M nel sistema e una interna, con numero di
particelle vincolato, sull’energia:
∞ X El
µM
− k 1T (ElM −µM ) − M
X X X
Ξ= e b = e kb T e kb T

M =0 lM M lM

Possiamo riconoscere nella somma interna la funzione di partizione per l’insieme


canonico (ad un dato numero fissato di particelle) e dunque possiamo riscrivere il
tutto come: ∞
X µM
Ξ= e kb T Z(T, V, M )
M =0
Ricordo che:
− kAT
A(M, V, T ) = −kb T ln Z ⇒ Z = e b

sostituendo nell’equazione precedente otteniamo:


X µM − A
Ξ= e kb T kb T
M

59
La quale risulta essere una scrittura del tutto equivalente a quella precedente se
non per il fatto che abbiamo sostituito alla somma sugli stati con una certa energia
ES la somma su stati a numero di particelle costanti e abbiamo utilizzato l’energia
di Helmoltz per indicare l’energia di un insieme di stati a M costante e quindi la
probabilità per il sistema di essere in uno qualsiasi di questi stati ad M costante.

6.2 Fluttuazioni del Sistema


Determiniamo come prima cosa il valore medio del numero di particelle nel sistema:
P − Emk−µN m

m Nm e T b kb T ∂Ξ ∂Φ
hN i = = =−
P − Emk−µNm
Ξ ∂µ ∂µ
m e bT

Dunque, per le fluttuazioni:


2
− Emk−µN
P m
− Emk−µN m
m Nm e
T
b 2
P
∂hN i 1 1 m Nm e
bT
=− 2 + =
∂µ Ξ kb T kb T Ξ
1
hN 2 i − hN i2

kb T
Quindi: p
σN (hN 2 i − hN i2 )
=
N hN i
Possiamo quindi scrivere:
 ∂hN i σN 1
hN 2 i − hN i2 ∝ ⇒ ∝p
∂µ N hN i

Andando al limite termodinamico queste fluttuazioni diventano quindi trascurabili


e torniamo all’insieme canonico.
Nota: se ci ricordiamo che al limite termodinamico il canonico va al microcanonico
allora questo equivale a dire che per N → ∞ tutti gli ensamble diventano equivalen-
ti. Un esempio in cui questo può essere utile è quando studiamo sistemi come quelli
liquido/vapore e vogliamo calcolare qualche grandezza termodinamica per il vapore.
In modo rigoroso dovremmo lavorare con l’insieme gran canonico poichè persiste un
continuo scambio di particelle tra le due fasi. Tuttavia, essendo un sistema macro-
scopico, possiamo dimenticarci delle fluttuazioni e lavorare con l’insieme canonico
considerando il numero medio di particelle nel vapore.

60
Capitolo 7

La Termodinamica

Diamo qualche definizione di quella che è la termodinamica al giorno d’oggi.

Definizione. La termodinamica è la teoria che studia le relazioni tra calore ed


energia meccanica e la loro interconversione.

Definizione. La termodinamica è la media sulla dinamica o sulle configurazioni nel


limite di N → ∞. E’ quindi il limite della meccanica statistica per N grande e in
situazioni di quasi equilibrio in cui le fluttuazioni, che abbiamo dimostrato scalare
come √1N , risultano essere trascurate e quello che viene osservato è il comportamento
medio del mio sistema.

Definizione. La termodinamica può essere formulata come teoria autoconsistente


o meglio come un sistema assiomatico che si basa sulla formulazione delle quattro
leggi della termodinamica:

Principio zero: transitività degli equilibri. Se due sistemi sono in equilibrio con un
terzo allora anch’essi sono tra loro in equilibrio.

Primo principio: Conservazione dell’energia. L’energia totale di un sistema isola-


to si conserva.

Secondo principio: L’entropia aumenta sempre. Un sistema isolato può subire


processi irreversibili, i cui effetti possono essere misurati da una funzione
termodinamica chiamata entropia.

Terzo principio: L’entropia va a zero allo zero assoluto in temperatura. L’entropia


per particella per due sistemi qualsiasi tende allo stesso valore man mano che
la temperatura va ad approcciare lo zero assoluto.

Definizione. La termodinamica può essere definita come uno zoo di derivate par-
ziali. Si definiscono una serie di potenziali termodinamici e le varie grandezze le cal-
coliamo come derivate parziali e tutto quanto è autoconsistente. Facciamo qualche
esempio:
A(N, V, T ) = E − T S(E, V, N )
quindi possiamo definire: S = − ∂A
∂T
. Uno può a questo punto chiedersi perchè A non
dipenda da E e dimostrarlo è alquanto semplice:
∂A ∂S
=1−T =0
∂E ∂E
61
Possiamo quindi vedere che è uno zoo autoconsistente. Possiamo poi passare da
potenziali o energie libere ad altre, con variabili indipendenti diverse, utilizzando
le trasformazioni di Legendre. Un esempio è proprio quello visto nella definizione
dell’energia libera di Helmoltz dove passiamo da un set N, V, E ad uno N, V, T . Le
trasformate di Legendre funzionano molto bene in questo caso, ma perchè funzionano
? Se prendiamo un sistema e lavoriamo nel microcanonico abbiamo che il sistema
andrà a minimizzare E(S, V, N ). Se vogliamo passare al set di variabili indipendenti
N, V, T , definiamo l’energia di Helmoltz A(N, V, T ). La teoria generale ci dice che
data una f (x), se vogliamo passare alla trasformata di Legendre in p = ∂f∂x
dobbiamo
minimizzare la funzione f (x) − xp e dunque:

f (p) = min {f (x) − xp}

e nel nostro caso:


A(N, V, T ) = min {E(N, V, S) − ST }
Le varie grandezze termodinamiche possono poi essere ricavate come semplici deri-
vate parziali dei vari potenziali. Riportiamo qualche esempio abbastanza potente di
seguito. Partiamo dalla relazione generale per il microcanonico:

dE = T dS − P dV + µdN

da cui possiamo derivare le varie relazioni dalle derivate parziali.


Passando con Legendre a A possiamo scrivere:

dA = d(E − T S) = dE − SdT − T dS = µdN − P dV − SdT

Possiamo poi definire l’energia di Gibbs: G(N, P, T ) = E − T S + P V da cui:

dG = −SdT + V dP + µdN

Un’altra energia molto utile in chimica l’entropia: H(S, P, N ) = E + P V da cui:

dH = T dS + V dP + µdN

Ed in fine il gran potenziale Φ(T, V, µ) = E − T S − µN da cui:

dΦ = −SdT − P dV − N dµ

7.1 Alcune Applicazioni degli Ensamble


7.1.1 Meccanica: Frizioni e Fluttuazioni
Consideriamo un punto materiale di massa m appeso ad una molla vincolata di
costante elastica K. Da meccanica 1 sappiamo che la molla raggiunge una situazione
di equilibrio quando:
−mg = K(h∗ − h0 )
da cui possiamo trovare l’altezza di equilibrio della molla soggetta alla forza gravi-
tazionale come:
mg
h∗ = h0 −
K

62
Figura 7.1: Massa m ad una molla vincolata

Bene, è interessante come fenomeno. Siamo infatti abituati a considerare questa mi-
nimizzazione energetica raggiunta ad h∗ come il risultato più sensato, ma l’energia
non dovrebbe conservarsi ? Se cosı̀ fosse la molla continuerebbe ad oscillare all’infi-
nito. Bene, consideriamo ora il fatto che molla e massa hanno un numero elevato di
gradi di libertà interni atomici e molecolari. L’oscillazione del nostro sistema sarà
dunque accoppiata con questi gradi di libertà e scambierà con essi energia. Essendo
la vibrazione interatomica espressa poi in frizione, l’energia verrà dissipata in calore.
Per esempio, proviamo a porre K = 10 N m−1 e kb T = 4 × 10−21 J. Calcoliamo le
fluttuazioni di h rispetto al valor medio h∗ :

h(h − h∗ )2 i

Dall’energia potenziale della molla, utilizzando il teorema di equipartizione dell’e-


nergia (siamo a T costante):
1 1
K(h − h∗ )2 = kb T
2 2
Da cui le fluttuazioni quadratiche medie saranno:
kb T
h(h − h∗ )2 i =
K
e la deviazione dalla media:
p
h(h − h∗ )2 i = 0.2 Å

63
Stiamo sereni dunque poichè le oscillazioni dal valore che ci aspettavamo, consi-
derando l’accoppiamento del sistema con l’ambiente, sono subatomiche. Abbiamo
quindi una minimizzazione dell’energia a meno di oscillazioni subatomiche.
Possiamo ora collegare questa visione statistica dell’oscillatore armonico con il coef-
ficiente di frizione nell’equazione di Newton per la legge del moto dell’oscillatore
armonico smorzato. Partiamo dall’equazione ideale e deterministica:
K
ḧ = − (h − h∗ )
m
Aggiungiamo un termine di rumore stocastico +(t) che rappresenta la forza derivan-
te dai gradi interni di libertà e un termine di frizione e dissipazione −γ ḣ che insieme
dovrebbero descrivere lo smorzamento e la fluttuazione rispetto al caso ideale. Il
fattore stocastico deve rispettare alcune richieste:

h(t)i = 0
h(t)(t0 )i = Dδ(t − t0 )

L’intensità di  dipende da γ e dalla T in modo tale da garantire una distribuzione


di Boltzmann del tipo:
2
P () = e− 2D con: D ∝ kb T
L’equazione complessiva risultante:
K
ḧ = − (h − h∗ ) + (t) − γ ḣ
m
è nota come equazione di Langevin.
E’ un’equazione stocastica e la soluzione richiede l’utilizzo di metodi particolari per
esempio per valutare come evolve la distribuzione di h e un’evoluzione di questa
equazione è la Fokker-Plank. Computazionalmente, in casi particolari, si può lavo-
rare in modo diretto andando ad integrare le equazioni del moto e aggiungendo ad
ogni step un numero casuale, facendone un tot poi mediamo e troviamo la distri-
buzione. Proviamo ora a risolvere questa benedetta equazione in qualche astruso
modo. Esplicitiamo bene le cose scrivendo la Langevin (pendolo smorzato) come:

γ η(t)
ẍ + ẋ + Ω20 x =
m m
dove:

hη(t)η(t0 )i = 2γkb T δ(t − t0 )


K
Ω20 = frequenza dell’oscillatore armonico
m
Nota: più è alta la temperatura più è elevato il rumore a cui le molecole del gas sono
sottoposte.
La sua soluzione dipende essenzialmente da η(t). Introduciamo lo spettro delle
correlazioni, ovvero la trasformata di Fourier delle correlazioni:
Z
Sν (Ω) = dte−iΩt hη(t)η(0)i = 2γkb T

64
nota che la trasformata della delta è 1. Il rumore è dunque un rumore bianco ovvero
ha uno spettro costante in Ω (a tutte le frequenze). Qual’è a questo punto lo spettro
di x, Sx (Ω) ovvero del segnale che misuriamo, cioè della soluzione ? Trasformiamo
in Fourier utilizzando le regole di derivazione della TF e otteniamo:

iγ η̃(Ω)
−Ω2 x̃(Ω) − Ωx̃(Ω) + Ω20 x̃(Ω) =
m m
Da cui la soluzione:
η̃(Ω)/m
x̃(Ω) = γ
Ω2o − Ω2 − m iΩ
Antitrasformando possiamo trovare la soluzione nel dominio del tempo, ma nota
che la soluzione dipende da η̃(Ω) ovvero dal rumore. Per trovare lo spettro, quindi
il comportamento medio del segnale, ricordiamo che possiamo scrivere la funzione
di correlazione T (hx(t)x(t0 )i) = h|x̃(Ω)|2 i poichè dipende solo dalla differenza dei
tempi, perchè abbiamo un sistema invariante nella traslazione temporale1 . Dunque:

1 h|η̃(Ω)|2 i 2γkb T
Sx (Ω) = h|x̃(Ω)|2 i = 2 2 = iγ 2
m Ω0 − Ω2 − Ω iγ

2 2
m
m2 Ω0 − Ω2 − m

Abbiamo quindi trovato lo spettro associato alla soluzione dell’equazione di Lange-


vin. Per la correlazione delle x faccio l’antitrasformata dello spettro.

7.1.2 Chimica: Equilibrio e Cinetica di Reazione


Consideriamo la reazione di Haber-Bosch per la formazione di ammoniaca da idro-
geno e azoto a T e V costante:

[N2 ] + 3[H2 ]
2[N H3 ]

Per il principio di azione di massa possiamo scrivere:

[N H3 ]2
Keq (T ) =
[N2 ][H2 ]3

Essendo a temperatura e volume costante possiamo definire l’energia di Helmoltz


per il sistema:
A(V, T, NH2 , NN2 , NN H3 )
All’avviarsi della reazione abbiamo un cambiamento del numero di atomi per cia-
scun composto e ciò si ripercuote in una variazione dell’energia libera che possiamo
scrivere nel seguente modo:
∂A ∂A ∂A
∆A = ∆NH2 + ∆NN2 + ∆NN H3
∂NH2 ∂NN2 ∂NN H3
∂A
Sostituendo a ∂N
il potenziale chimico µ, possiamo scrivere:

∆A = −3µH2 − µN2 + 2µN H3


1
Vedi teorema della correlazione: moltiplicando la trasformata di Fourier di un segnale per il
complesso coniugato di un altro segnale si ottiene la trasformata della correlazione tra i due segnali

65
La reazione procederà fino a quando l’energia libera raggiungerà un minimo, quindi:

−3µH2 − µN2 + 2µN H3 = 0

Assumiamo ora che le molecole si muovano in modo scorrelato le une dalle altre.
L’energia libera per ogni gas assumerà dunque la forma generale che assume nel caso
in cui trattiamo un gas perfetto:
   
N 3
A(N, V, T ) = N kb T ln λ − 1 + N F0
V
Il termine N F0 è un termine di correzione per l’energia interna delle molecole. La
costante F0 è l’energia di ground state se stiamo trattando con atomi, mentre per le
molecole a temperatura ambiente è la somma dell’energia di ground state E0 e del
contributo classico dovuto ai moti rotazionali. Il potenziale chimico assume quindi
la forma generale:
 
N 3
µ = F0 + kb T ln λ = kb T ln([N ]) + c + F0
V
Possiamo quindi scrivere:

−3(F0H2 +cH2 +kb T ln([H2 ]))−(F0N2 +cN2 +kb T ln([N2 ]))+(F0N H3 +cN H3 +kb T ln([N H3 ])) = 0

Da cui, riarrangiando i termini otteniamo:

[N H3 ]2 ∆F0 + 3cH2 + cN2 − 2cN H3


 
ln = = ln(Keq )
[H2 ]3 [N2 ] kb T
Quindi:
λ9H2 λ3N2
 
∆F0
ln(Keq ) = ln
kb T λ6N H3
Da cui:
λ9H2 λ3N2 ∆F 0
Keq = 6
e kb T
λN H 3
Il prefattore
λ9H2 λ3N2
K0 = 6
λN H3
ha una dipendenza debole dalla temperatura, infatti:
λ9H2 λ3N2 9 3

6
∝ T − 2 T − 2 T 3 = T −3
λN H3

Il fattore esponenziale è il fattore di Boltzmann e va a favorire lo stato finale nella


reazione nel momento in cui esso ha energia molecolare libera minore dello stato
iniziale. La dipendenza di fattore pre-esponenziale ed esponenziale (∆F0 si può sti-
mare utilizzando le funzioni di partizione per reagenti e prodotti) dalla temperatura
è trascurabile rispetto alla differenza di energia tra le molecole nel loro ground-state
∆E0 . Possiamo quindi scrivere:
∆E0

Keq ∝ e kb T

66
La velocità di reazione, in una visione più accurata del fenomeno, può essere calcolata
utilizzando l’equazione di Arrhenius:
− kBT
Γ ∝ Γ0 e b

La velocità dipenderà dunque dalla temperatura e dall’altezza della barriera tra


reagenti e prodotti e il tempo medio per superare la barriera sarà τ ∝ Γ1 .

7.1.3 Densità di Energia Libera per il Gas Ideale


Abbiamo già calcolato l’energia libera per un gas perfetto. Possiamo ora chiederci
com’è possibile descrivere la densità locale non uniforme nel tempo per un sistema
non omogeneo fuori dall’equilibrio. La densità di energia libera non sarà uniforme
nel tempo localmente. Quindi se vogliamo tener conto di questo dobbiamo adottare
una descrizione più raffinata rispetto al considerare solamente l’energia libera totale.
Possiamo pensare di descrivere lo stato locale del sistema in funzione dei parametri
d’ordine di campo, con un campo per ogni proprietà necessaria a caratterizzare lo
stato.
La densità di energia libera può dunque essere considerata dipendente da questi
campi e i relativi gradienti. L’energia libera totale sarà data dunque integrando
questa densità.
Spostiamoci ora nel caso specifico in cui trattiamo con un gas ideale. L’energia libera
ricordiamo che può essere scritta in termini di densità totale ρ = NV
e λ come:
A(N, V, T ) = N kb T [ln(ρλ3 ) − 1]
Questa scrittura ci fa pensare ad una possibile descrizione locale per il sistema.
Mettiamoci in una situazione mesoscopica ovvero in cui non considero un singolo
atomo, ma un insieme di essi di dimensione adeguata in modo da ottenere un un
campo ρi abbastanza liscio che descriva in modo opportuno le fluttuazioni della
densità. Per lavorare dunque con un sistema mesoscopico andiamo a dividerlo in
scatolette di volume
∆V = ∆L3
tale che esista all’intero di esse una densità locale ρ(xi ) da cui possiamo calcolare il
numero di atomi all’interno:
ni = ρ(xi )∆V
La densità di energia libera per il volumetto i-esimo sarà dunque definita come:
A(ni , ∆V, T )
f (ρi , T ) = = ρi kb T [ln(ρi λ3 ) − 1]
∆V
Possiamo da qui ricondurci alla descrizione macroscopica andando a integrare nello
spazio la densità o nel nostro caso discreto andando a lavorare con una sommatoria:
Z X
F [ρ] = f (ρ)d3 x = ∆V f (ρi )
i

La densità di energia libera ci permette inoltre di calcolare la probabilità associata


ad una data configurazione del gas con un una densità ρ:
R
e−β dV f (ρ)
p(ρ) =
Z
67
A livello di gas perfetto è abbastanza inutile, ma al più abbiamo una descrizione
locale legata alla densità del sistema.
Quello che abbiamo fatto è dunque integrare via i gradi di libertà presenti nella
visione microscopica del sistema e passare ad un campo di tipo coarse-grained. La
densità di energia libera f (ρ) può essere utilizzata per calcolare qualsiasi proprietà
di equilibrio del sistema che può essere definita in termini di densità ρ(x).
Inoltre, la densità di energia libera ci permette anche di calcolare leggi per l’evolu-
zione temporale di sistemi a densità non uniforme. Un sistema preparato con una
densità non uniforme andrà ad evolvere nel tempo ρ(x, t). Se in ogni piccolo volumet-
to il sistema è vicino all’equilibrio, allora ci si può aspettare che la sua evoluzione
temporale possa essere calcolata utilizzando la meccanica statistica di equilibrio,
anche se il sistema globalmente non è all’equilibrio. Una densità non uniforme sarà
ragionevolmente soggetta ad una forza che andrà a spingerla verso l’uniformità. L’e-
nergia libera totale andrà a diminuire quando particelle andranno a muoversi da
regioni ad alta densità a regioni a bassa densità. Possiamo quindi utilizzare la no-
stra densità di energia libera per calcolare questa forza e poi utilizzare la forza per
derivare leggi relative all’evoluzione temporale del sistema.
Il potenziale chimico per un sistema uniforme può essere scritto come:
∂A/V ∂F [ρ]
µ= =
∂N/V ∂ρ
Per un sistema non uniforme il potenziale chimico locale in un punto x può quindi
essere scritto come:
R
δ f (ρ) ∂
ρkb T [ln(ρλ3 ) − 1] = kb T ln(ρλ3 )

µ(x) = =
δρ ∂ρ
Il potenziale chimico può essere visto come una sorta di pressione per le particelle:
una particella può abbassare l’energia libera muovendosi dunque da regioni ad alto
potenziale chimico a regioni a basso potenziale. Possiamo quindi definire un gradiente
di pressione − ∂µ
∂x
ovvero una forza che agisce sulla particella.
Come evolve ρ in risposta a questa forza µ(x) ? La risposta a questo quesito dipende
fortemente dal sistema in esame, dalle grandezze conservate ecc. . . . Nel nostro caso
consideriamo un sistema in cui la densità locale delle particelle è conservata, ma
il momento è fortemente dumpato. Possiamo pensare per esempio a particelle di
profumo disperse in un contenitore pieno d’aria. In questo caso le particelle d’aria
saranno scatterate dal profumo. La velocità delle particelle sarà proporzionale alla
forza effettiva su di esse:
v = γ(∂µ/∂x)
in cui γ corrisponde alla mobilità. In questo caso stiamo utilizzando l’approssima-
zione di risposta lineare, la quale assume che in sistemi prossimi all’equilibrio hanno
correnti proporzionali ai gradienti delle relative proprietà. Possiamo quindi definire
la corrente come:  
∂µ ∂ρ
J = ρv = γρ(x) − = −γkb T
∂x ∂x
Quindi la velocità di variazione di ρ, considerando la conservatività della proprietà
associata alla densità locale delle particelle, risulta essere data dall’equazione di
diffusione in termini di correnti (già ricavata nel capitolo a inizio libro):
∂ρ ∂ 2ρ
= −∇ · J = γkb T 2
∂t ∂x
68
Nota: abbiamo ricavato in un modo ancora diverso rispetto a quelli già visti l’equa-
zione di diffusione. Abbiamo riscoperto la relazione di Einstein:

D = γkb T

e abbiamo osservato che per il gas ideale, nonostante l’assenza di energia potenziale
intrinseca il gradiente di potenziale chimico agisce come una forza esterna.

69
Capitolo 8

Il Modello di Ising

Modelli discreti per lo studio di fenomeni critici, transizioni di fase, magnetismo,


diagrammi di fase di leghe metalliche ecc. . . sono fortemente e largamente utilizzati.
In questo capitolo ci occuperemo del modello di Ising che è uno dei modelli discreti
tra i più studiati.

8.1 Sistemi Ferromagnetici


Consideriamo un solido con reticolo di atomi fissi e consideriamo solo lo spin come va-
riabile associata ad ogni atomo. La variabile di spin nel caso atomico consideriamo
possa assumere solo due valori: Si = ±1. Possiamo costruire una griglia quadra-
ta/cubica e associare ad ogni punto del reticolo un valore di Si , vedi immagine 8.1.
Consideriamo inoltre il caso di ferromagneti uniassiali ovvero con un cristallo fatto

Figura 8.1: Reticolo discreto di spin

in modo tale che sia possibile una sola direzione di magnetizzazione. Nel modello di
Ising l’Hamiltoniana del sistema cosı̀ descritto è data da:
X X
H = −J Si Sj − HSi
hi,ji i

70
dove:
P
hi,ji Si Sj è il termine di interazione/accoppiamento tra primi vicini. Infatti la
somma è ristretta in modo tale che J 6= 0 ⇔ i, jprimi vicini.

H è un termine di perturbazione proporzionale al campo magnetico esterno. Esso


va a favorire energeticamente gli stati Si orientati come il campo, andando ad
apportare un contributo negativo all’Hamiltoniana.

J è il termine di accoppiamento del modello. In questo caso, con un J > 0 andiamo a


favorire l’accoppiamento parallelo di spin adiacenti, ovvero il ferromagnetismo
nel solido. Tuttavia andremo a favorire in modo del tutto equivalente le due
situazioni di up e down e sarà la rottura di simmetria introdotta dal campo
magnetico esterno a decidere quali delle due situazioni risulta essere favorita.
Con un J < 0 favoriamo invece una situazione di anti-ferromagnetismo nel
solido.
L’energia libera di questo modello, nonostante la semplicità della formula, è mol-
to complicata da calcolare. Infatti è possibile avere soluzioni analitiche esatte solo
per casi monodimensionali e per casi bidimensionali in assenza di campo esterno,
utilizzando il metodo di Onsager. Negli altri casi, specialmente quello tridimensio-
nale, non è invece possibile avere una soluzione esatta e bisogna ricorrere ad alcune
approssimazioni.

8.2 Il Magnetismo
Il modello di Ising fu storicamente introdotto per lo studio dei magneti. Possiamo
definire la magnetizzazione come:
X
M= Si
i

In base al valore di J avremo diverse situazioni favorevoli per gli spin in gioco.
Generalmente la situazione di ferromagnetismo e quella di anti-ferromagnetismo
sono favorite alle basse temperature, mentre alle alte temperature ci si aspetta una
predominanza del fattore entropico e indipendentemente da segno di J avremo una
situazione con spin fluttuanti ovvero una fase paramagnetica e la magnetizzazione
per spin:
1 X
m= Si
N i
nulla.
Possiamo apprezzare meglio questi fenomeni andando a vedere i grafici relativi alla
magnetizzazione in funzione della temperatura per un reticolo cubico tridimensiona-
le. Nel caso di campo magnetico esterno nullo vedi immagine 8.2. Abbiamo quindi
una situazione a T nulla in cui gli spin che minimizzano l’Hamiltoniana (simmetrica)
sono −1 e +1 ed entrambi possono accadere con uguale probabilità. Aumentando
la temperatura iniziano ad essere rilevanti le fluttuazioni termiche e si ha una di-
minuzione della magnetizzazione per spin. Quando lo zero di magnetizzazione viene
raggiunto si è arrivati alla temperatura critica per il sistema in esame T = Tc . Questo
punto critico è matematicamente una discontinuità, infatti abbiamo derivata prima

71
Figura 8.2: Grafio della magnetizzazione per unità di volume contro temperatura al
variare del campo magnetico esterno applicato

nulla in quanto limite destro e sinistro non coincidono.


Nel momento in cui accendiamo un campo magnetico esterno il profilo di magnetiz-
zazione cambia, come possiamo apprezzare dall’immagine 8.2. Quello che si ha è un
comportamento più broad all’aumentare della temperatura, senza il raggiungimento
di una temperatura critica e con una continua diminuzione della magnetizzazione.
Abbiamo quindi una situazione in cui lo zero non viene raggiunto e in cui la sim-
metria dell’Hamiltoniana è rotta, ovvero non abbiamo una sovrapposizione tra stati
all’equilibrio con probabilità uguale, ma ne avremo uno solo con magnetizzazione
positiva o negativa in funzione del segno del campo magnetico.
Inoltre questi comportamenti valgono per dimensioni maggiori o uguali a due. Nel
caso di sistemi monodimensionali all’aumentare della temperatura la magnetizza-
zione va a zero con continuità, senza transizione di fase.
Nota: il modello di Ising risulta essere interessante per lo studio di una gran quantità
di fenomeni, oltre alla magnetizzazione, per cui tra l’altro l’applicabilità sarebbe ri-
dotta al caso di materiali uniassiali. Infatti questo modello si può adattare allo studio
di sistemi più generali in cui abbiamo una simmetria discreta. Vediamo ora alcune
di queste applicazioni.

8.3 Le Leghe Binarie


Possiamo mappare il problema dello studio di leghe binarie utilizzando il modello
di Ising. Consideriamo come caso esemplare la lega binaria Zn - Cu con reticolo a
corpo centrato. A zero Kelvin la struttura risulta ideale, ma aumentando la tem-
peratura alcuni Zn inizieranno a scambiare posizione con Cu. La probabilità che
questi scambi avvengano risulta comunque essere bassa. Raggiunta la temperatura
critica, nel nostro caso 742 K, Zn e Cu iniziano ad essere perfettamente mischiati
con probabilità del 50% di essere in un sito piuttosto che in un altro. Vediamo ora
di elaborare un modello per queste transizioni di fase in leghe binare. Consideriamo
una lega binaria di due atomi A e B a cui associamo un numero NA e NB . Consi-

72
deriamo le loro posizioni vincolate nei siti reticolari (singolarmente occupati) di un
determinato reticolo per cui abbiamo un numero γ di primi vicini per ogni sito, vedi
immagine 8.3. Il numero totale di siti è N = NA + NB . Possiamo ora distinguere tre

Figura 8.3: Modello di Ising per una lega binaria

tipi di coppie di primi vicini: AA, BB, AB (indistinguibile da BA). Possiamo dunque
descrivere una configurazione del sistema in funzione di NAA , NBB , NAB . Trascu-
rando il contributo cinetico all’energia e considerando esclusivamente le interazioni
tra primi vicini possiamo scrivere l’energia del sistema come:

Hbin = −EAA NAA − EBB NBB − EAB NAB

dove i termini di interazione E sono il costo energetico per avvicinare due atomi del
tipo indicato. In un modello di Ising possiamo scrivere l’Hamiltoniana come:

HIsing = −J(NAA + NBB − NAB ) − H(NA − NB ) − CN

Abbiamo considerato uno shift totale pari a CN dell’Hamiltoniana di Ising e una


magnetizzazione netta pari a NA − NB . E’ necessario ora far combaciare le due for-
mule. Possiamo utilizzare un po’ di relazioni utili. In primis, in un reticolo quadrato,
ricordandosi delle periodic boundary conditions (pbc), abbiamo che la somma del
numero delle coppie di primi vicini è pari al doppio del numero totale di atomi nel
reticolo:
NAA + NBB + NAB = 2N
Ora, colleghiamo ogni atomo A con i suoi primi vicini, considerando un doppio
legame nel momento in cui abbiamo due A adiacenti. Possiamo notare facilmente
che valgono le seguenti relazioni:

4NA = 2NAA + NAB


4NB = 2NBB + NAB

73
Risolvendo il sistema eliminando la dipendenza da N , NA e NB e riscrivendo la Ising
come Hbin (funzione dei soli termini di interazione) troviamo:

H = EAA − EBB
1
J = (EAA + EBB − 2EAB )
4
1
C = (EAA + EBB + 2EAB )
4
Abbiamo quindi che con un J < 0 la situazione favorita è quella a fasi intercalate,
mentre per J > 0 è favorita la separazione delle fasi. Sopra la temperatura critica
avremo invece una fase mischiata. Un modello più realistico doverebbe includere
nell’Hamiltoniana i termini di rilassamento reticolare nel caso sia evidente una diffe-
renza nelle dimensioni tra i due atomi e un termine che tenga conto delle fluttuazioni
termiche della posizione presenti nel sistema. Per far ciò basta effettuare una traccia
parziale e integrare le vibrazioni atomiche dalla posizione di equilibrio ottenendo
l’energia libera effettiva per ogni configurazione {si }:
 −H(P,Q)

Z Z
e kb T
F {si } = −kb T ln  dP dQ  = H {si } − T S {si }
{si } h3N

Dove {si } nel secondo integrale sta a indicare l’integrazione sugli atomi ri del tipo
si vicini al sito i.
L’entropia S {si } dovuta alle vibrazioni atomiche dipenderà dalla configurazione
{si } ed esplicitamente dalla temperatura. F {si } sarà la nuova hamiltoniana per il
sistema.

8.4 Liquidi, Gas e Punto Critico


Il modello di Ising può essere utilizzato anche come modello per le transizioni liquido-
gas. Si parla dunque di gas reticolare ovvero di atomi di gas racchiusi in elementi di
volume discreti. Ogni volumetto può essere singolarmente occupato e i movimenti
degli atomi vengono dunque discretizzati. Consideriamo nel reticolo le posizioni spin-
up (+1) come posizioni occupate e quelle spin-down (−1) come posizioni libere.
La fase gassosa avrà una prevalenza di siti spin-down nel reticolo e viceversa la
fase liquida. Nel nostro modello andiamo ora a trascurare il contributo cinetico
all’Hamiltoniana e consideriamo il solo contributo dell’interazione tra primi vicini
che assumiamo essere costante e pari a −0 . L’energia potenziale totale del sistema
sarà dunque quella di un gas con atomi fissi nelle posizioni del reticolo e in grado di
interagire attraverso un potenziale a due corpi:

∞ r = 0

v(r) = −0 r = 1

0 r > 1

Possiamo vedere questo potenziale come un potenziale di Morse discretizzato tra gli
atomi nel reticolo. Mappiamo ora questo risultato con Ising. Definiamo N come il
numero totale dei siti, NA come il numero di atomi e NAA il numero di coppie di

74
atomi adiacenti.
L’energia totale del reticolo è data da:

Egas = −0 NAA

Dal modello di Ising possiamo scrivere, in assenza di campo magnetico:

HIsing = −J(NAA + NBB − NAB )

e lavorando sulle due espressioni possiamo trovare la relazione: 4J = 0 . Abbiamo


quindi un modello reticolare di un gas non perfetto. L’introduzione di un campo
magnetico corrisponde invece all’introduzione di una pressione nel lattice gas. Ri-

Figura 8.4: Diagramma di fase pressione-temperatura

Figura 8.5: Transizione di fase in funzione del campo magnetico esterno e della
temperatura

cordiamo dalla termodinamica il diagramma di fase in immagine 8.4. Con questi


modelli il punto interessante è il punto critico. Le linee sono discontinuità del primo
ordine, con calore latente, vedi immagine 8.5. Al punto critico invece il calore latente
va a zero e non ho più distinzione tra gas e liquido. Andando da gas a liquido nel
punto critico abbiamo dunque una transizione equivalente a quella che avviene in

75
un ferromagnete. Il campo magnetico andrà a forzare una situazione piuttosto che
un’altra. Aumentando il campo da negativo a positivo, se siamo sotto la T criti-
ca, avremo una discontinuità del primo ordine. Se siamo invece sopra la T critica
non avremo discontinuità variando il campo magnetico (Pressione). La discontinuità
sarà nella densità del liquido e dunque essa sarà il nostro parametro d’ordine ov-
vero quella grandezza in grado di dirci come avviene una transizione. Per esempio
una transizione a variazione di densità continua sarà del secondo ordine, mentre con
una discontinuità avremo una transizione del primo ordine. Nella prossima parte del
corso vedremo il ruolo dei parametri d’ordine nelle transizioni di fase e tratteremo i
casi più generali che non è possibile studiare utilizzando il modello di Ising.

8.5 Approccio alla Soluzione del Modello di Ising


Abbiamo visto che il modello è utilizzato in generale per lo studio di transizioni di
fase di vario tipo. Ci occupiamo in questo capitolo di dimostrare l’esistenza delle
transizioni di fase mettendoci in alcune condizioni che ci permettono di far uso del
modello di Ising. Per fare questo si inizia con il calcolo della funzione di partizione
per il sistema utilizzando il modello, tramite cui andiamo poi a calcolare l’energia
libera e quindi le varie transizioni di fase dalla sua variazione. Il problema è la
risoluzione esplicita del modello nel caso bidimensionale e tridimensionale. In una
dimensione saremo invece in grado di risolverlo esplicitamente.

8.5.1 Approssimazione di Campo Medio


Partiamo con la soluzione nei casi multidimensionali introducendo un’approssima-
zione classica della fisica quando si tratta con sistemi interagenti: l’approssimazione
di campo medio. In questa approssimazione si fa interagire un singolo elemento del
sistema con la media di tutti gli altri. Partiamo dalla riscrittura dell’Hamiltoniana:
X
H=− si i
i

dove i è un campo effettivo che agisce sugli spin si :


0
X
i = H + J sj
j

dove il 0 indica la somma sui siti j primi vicini a i. Finora non abbiamo ancora
introdotto approssimazioni.P Introduciamo quindi il campo medio ovvero la media
su tutti i vicini al posto di 0j sj o in altre parole su ogni sito vicino a i metto un
valore pari alla media della magnetizzazione su tutto il sistema:

i ' H + Jzhsj i

dove z è il numero dei primi vicini e


1 X
hsj i = h si i = m
N i

76
dove la media di si è sui possibili stati (+1; −1) e m diventa cosı̀ il nostro parametro
variazionale (vado di SCF). Possiamo quindi scrivere:
X
H=− si (H + Jzm)
i

ottenendo quindi un’espressione per spin non interagenti accoppiati ad un campo


efficace esterno dato da H più un termine di interazione. La statistica adesso si fa
su spin separati e non interagenti !!
Qual’è la probabilità di avere uno stato con un determinato set si ({si })? Il peso
statistico sarà dato dal prodotto delle probabilità par ciascuno spin:
Q −βH(si ) Q +βsi (H+jzm)
ie e
P ({si }) = = i
Z Z
dove Z è la funzione di partizione (somma su tutte le possibili configurazioni). Per
ogni singolo spin ho:
+1
X
Zi = e−βHi = e+β(H+jzm) + e−β(H+jzm)
−1

da cui su tutti gli spin ho: Y


Z= zi
i

Quindi, per un singolo spin:

e+βsi (H+jzm)
Pi (si ) =
e+β(H+jzm) + e−β(H+jzm)
Da cui: Y
P ({si }) = Pi (si )
i

Dove sta il problema?


Sta nel fatto che noi vogliamo calcolare m, ma esso fa parte della soluzione stessa
al problema. Uso l’autoconsistenza fino a convergenza.
Possiamo scrivere quindi, dalla definizione di media sugli stati possibili:
1
X e+β(H+jzm) − e−βH+jzm)
m = hsi i = P (si = 1) − P (si = −1) = si P (si ) = =
si =−1
Z
tanh (β(H + Jzm))

Abbiamo quindi ottenuto un’equazione trascendente per m. Come estraiamo infor-


mazioni da questa soluzione non risolvibile analiticamente?
Cerchiamo una soluzione per H = 0:

m = tanh(βJmz)

Utilizziamo ora il metodo grafico plottando la curva di destra e la curva di sinistra in


un grafico F (m) contro m(vedi immagine 8.6). m = 0 risulta essere sicuramente una
soluzione, per le altre il risultato dipende dalla pendenza della tangente iperbolica
(dipendente dall’argomento). Le soluzioni saranno inoltre date dall’intersezione della

77
tangente con la retta passante per l’origine e di pendenza unitaria. Consideriamo la
pendenza della tangente < 1, per cui avremmo una sola soluzione (siamo sotto alla
retta), ed espandiamo in Taylor1 in prossimità dell’origine al posto di derivare:

d(tanh(βJzm))
= Jzβ
dm
m→0

Jz
Quindi dove Jzβ < 1 ⇒ kb T
< 1 la soluzione è unica e in m = 0. Alternativamente
posso scriverlo come:
Jz
T > Tc =
kb
Abbiamo quindi trovato la temperatura critica per il nostro sistema e la soluzione

Figura 8.6: Soluzione grafica in campo medio del modello di Ising due dimensionale

sarà unica. A pendenza più stretta, ovvero > 1, le soluzioni diventano tre. La so-
luzione risulta comunque essere altamente instabile e le possibilità più stabili sono
quelle a ±1.

In presenza di campo magnetico H si ha una traslazione della tangente iperbolica


con la conseguenza di una imminente perdita della soluzione per m = 0. Supponia-
mo di spostare il caso a tre soluzioni. Otteniamo sempre tre intersezioni in cui però
due sono quelle più stabili. Traslando invece quella a pendenza < 1 otteniamo una
sola soluzione stabile fuori dallo zero. Per H negativo la traslazione è identica ma nel
verso opposto. Utilizzando un programma di grafica si possono plottare ste soluzioni
e verificare che tutto torni.
Nota: La soluzione con l’approssimazione di campo medio e la fattorizzazione
di probabilità ci hanno permesso di lavorare con un problema a singola particel-
la. L’approssimazione di campo medio risulta essere buona per problemi di alta
dimensionalità.

8.5.2 Soluzione Esatta 1D


Nel caso uno dimensionale esatto abbiamo da considerare interazioni tra coppie di
spin e campo magnetico in modo esplicito senza introdurre approssimazioni. Sarà
1 x3
tanh(x) = x − 3!

78
dunque necessario procedere considerando le interazioni di ogni spin con i due suoi
primi vicini e l’effetto del campo magnetico. Una rappresentazione schematica ef-
ficace del sistema è data dall’immagine 8.7. Come si può osservare è necessario

Figura 8.7: Topologia del reticolo per il modello di Ising uno dimensionale

introdurre le condizioni periodiche al contorno imponendo:

SN +1 = SN

La configurazione del sistema è definita dall’insieme di variabili di spin:

{s1 , . . . , sN }

Cosı̀ definendo il sistema è possibile scrivere l’energia di una determinata configura-


zione del sistema come:
N
X X
E = −J si si+1 − H si
i=1 i

La funzione di partizione, definita precedentemente, sarà dunque data da:


XX X
Z= ... e−βE(si )
s1 s2 sN

Simmetrizziamo ora E per poterla poi esprimere in forma matriciale:


N
X 1 X
E = −J si si+1 − H (si + si+1 )
i=1
2 i

Possiamo ora riscrivere:


(βJsi si+1 + βH (si +si+1 ))
X X P
Z= ... e i 2

s1 sN

dove ogni si assume in modo del tutto indipendente valore +1 e −1. Definiamo una
matrice 2 × 2 chiamata P in funzione dei suoi elementi definiti come:
H
P = hsi |P |si+1 i = eβJsi si+1 +β 2 (si +si+1 )

79
Essendo due i possibili valori per lo spin possiamo scrivere gli unici elementi della
matrice come:

h+1|P | + 1i = eβJ+βH
h−1|P | − 1i = eβJ−βH
h−1|P | + 1i = e−βJ = h+1|P | − 1i

La matrice di trasferimento P sarà dunque:


βJ+βH
e
−βJ e−βJ
e eβJ−βH
La funzione di partizione può dunque essere riscritta come:
X X
Z= ... hs1 |P |s2 ihs2 |P |s3 i . . . hsN |P |s1 i
s1 sN

Possiamo poi riconoscere le identità nei prodotti tra elementi di matrice e possiamo
dunque scrivere:
X X X
Z= ... hsN |P |s1 i = hs1 |P N |s1 i = T r(P N )
s1 sN s1

Se diagonalizzo P N posso poi tracciare2 e trovare:

T r(P N ) = λN N
+ + λ−

dove le λ sono gli autovalori della matrice P con λ+ > λ− . Risolviamo dunque per
il determinante del secolare:
βJ+βH
e −λ e−βJ
det −βJ βJ−βH
=0
e e − λ
Troviamo:
 q 
βJ 2βJ 2
λ+/− = e cosh(Hβ) ± e cosh (βH) − 2 sinh(2βJ)

Possiamo quindi tracciare e arrivare al risultato tanto atteso. Tuttavia è importan-


te notare che per N elevato solo l’autovalore λ+ è rilevante. Infatti, se scriviamo
l’energia libera per il sistema:
 N !
λ−
A = −kb T ln Z = −kb T ln(λN N N
+ + λ− ) = −kb T ln λ+ 1+ =
λ+
 N !
λ−
− kb T N ln λ+ − kb T ln 1 +
λ+

Il secondo termine per N → ∞ va chiaramente a zero e il tutto si può riscrivere


come energia libera per spin:
 
1
q
2βJ 2
A(H, T ) = −J − kT ln cosh(Hβ) + e cosh (βH) − 2 sinh(2βJ)
N
2
Ricorda che la traccia è invariante rispetto alle trasformazioni unitarie

80
Come i comuni potenziali termodinamici le sue derivate parziali sono in grado di
restituirci importanti informazioni riguardo le variabili indipendenti da cui l’energia
dipende (logaritmo della funzione generatrice dei momenti). Possiamo infatti trovare
la magnetizzazione come derivata dell’energia rispetto al campo magnetico H:

1 sinh(βH)
M =m= q
N sinh2 (βH) − e−4βJ

Nota che il seno iperbolico è nullo quando l’argomento è nullo. Quindi la magne-
tizzazione è nulla quando il campo è nullo ovvero non esiste fase ferromagnetica.
Abbiamo un grafico come quello riportato in figura 8.8. Il modello unidimensionale

Figura 8.8: Soluzione esatta del modello di Ising uno dimensionale

non ha transizioni di fase in H = 0 a differenza del modello 2D indipendentemen-


te dalla temperatura a cui vado a lavorare. Per β → ∞ e H → 0 il limite della
magnetizzazione è uno ed è un risultato intuitivamente sensato poichè quando la
temperatura è nulla lo stato che minimizza l’energia è quello con gli spin tutti nella
stessa direzione.
Nota: Il campo medio è buono come approssimazione se saliamo a dimensioni del
sistema superiori alla quarta.
Per il modello di Ising la dimensione critica inferiore, ovvero la minima dimensione
alla quale si ha una transizione di fase, è due e la dimensione critica superiore, ovvero
quella in cui la transizione di fase può essere descritta dal campo medio, è quattro.
A seconda del modello queste transizioni critiche cambiano ed è interessante notare
che il modello 3D sta in mezzo alle due situazioni che sappiamo risolvere.

8.5.3 Soluzioni Approssimate


Possiamo approcciarci alla soluzione del modello in modo computazionale.
Ricapitolando:

d = 1: Per H = 0, M = 0 ∀T .

2 ≤ d ≤ 4:

M (T ) 6= 0 per T < Tc
M (T ) = 0 per T ≥ Tc

81
d > 4: Utilizzando l’approssimazione di campo medio, non l’abbiamo dimostrato
1
esplicitamente, risulta: M (T ) ∝ (Tc − T ) 2 . Per queste dimensioni la soluzione
risulta essere ragionevole in campo medio. Noi in questa approssimazione fac-
ciamo interagireP ogni spin non con i soli primi vicini ma con la media di tutti
1
gli spin: m̄ = N i si . La somma P sui primi vicini risulta essere invece, dato un
0
sistema di dimensione d: m0 = 2d 1
j sj . Per sistemi di dimensione alta succede
0
che m va ad essere sempre più simile a m̄.

Passiamo ora alla simulazione per la soluzione del modello di Ising in modo nu-
merico. Effettuiamo una dinamica di spin con delle traiettorie per il sistema e poi
mediamo. Come costruiamo un algoritmo ragionevole ?
Consideriamo un sistema 2D con N siti. Per un sito i-esimo casuale con i ∈ {1, . . . , N }
(utilizziamo un generatore casuale) i possibili valori di magnetizzazione per i primi
vicini sono: 

 4

2


X0 
mi = sj = 0

j −2




−4

Abbiamo quindi per uno spin i-esimo scelto casualmente (su o giù) due possibili
valori di energia:

E+ = −Jmi − H
E− = Jmi + H

In questo sito casuale abbiamo quindi due possibilità di valori energetici E+ o E− .


Come facciamo a scegliere tra i due? Ragionevolmente, guardando il suo intorno,
sceglieremo il segno di spin che ci darà l’energia più bassa. Questo è ragionevole
se lavoriamo a temperatura nulla e nonostante l’apparente semplicità possiamo ri-
schiare di rimanere intrappolati in minimi locali di energia. Tuttavia, se iniziamo
a lavorare ad una temperatura T , è necessario considerare il nostro sistema come
un sistema accoppiato con un bagno termico alla temperatura T . Come scegliamo
quindi lo stato di spin? Possiamo definire una probabilità per uno spin piuttosto che
l’altro:
e−βE+
P+ =
e−βE+ + e−βE−
P− = 1 − P+

Estraendo adesso un numero casuale,tra zero e uno, possiamo dire che se è più
piccolo di P+ andremo ad assegnare spin + altrimenti assegneremo spin −. Quello
che facciamo è quindi scegliere ogni stato per il sistema in funzione della probabilità
dello stesso la quale risulta dipendente dalla distribuzione di Boltzmann per l’insieme
canonico.
Una dinamica di questo tipo è una delle possibili dinamiche cinetiche che andrà poi
a convergere all’equilibrio. Abbiamo tuttavia altre possibilità. Un esempio è quello
che andiamo a riportare nella prossima sezione.

82
8.5.3.1 L’Algoritmo di Metropolis
In questo algoritmo partiamo generando una griglia casuale di spin. Decidiamo poi di
flippare lo stato di uno spin i-esimo e vediamo come cambia l’energia del sistema. La
probabilità di accettazione della mossa viene dunque assegnata nel seguente modo:

Pi = 1 ↔ ∆E < 0
Pi = e−β∆E ↔ ∆E > 0

Questo è quindi un altro esempio di dinamica per il sistema, ma qual’è la vera


cinetica del sistema? Perchè abbiamo più scelte per la dinamica possibile?
Il punto è che quello che andiamo a fare è una dinamica fittizia. Non abbiamo
una vera e propria evoluzione temporale della magnetizzazione. Quello che facciamo
è semplicemente andare a esplorare lo spazio delle configurazioni in modo ergodico
per poi mediare nel tempo, corrispondente alla media sull’ensamble, e calcolare delle
proprietà di equilibrio. Il tempo non è quindi sensato, io in ogni istante giro uno spin
alla volta, ma l’evoluzione temporale del sistema potrebbe essere del tutto diversa.
Come possiamo essere sicuri che questa cinetica monte-carlo vada a convergere ad
una configurazione di equilibrio?
Nella prossima sezione ci occupiamo del costrutto matematico per garantire questo
fenomeno.

8.5.3.2 La Catena di Markov


Il metodo monte-carlo è in generale un esempio di catena di Markov e sarà proprio
la matematica alla base delle catene di Markov che andrà a garantirci la convergenza
in uno stato di equilibrio per il sistema.
Consideriamo un determinato stato per il sistema ovvero una configurazione com-
posta da un numero finito di stati di spin:

α = {si , . . . , sN }

Per esempio per un sistema di N stati abbiamo 2N possibili configurazioni α per il


sistema. Possiamo quindi pensare ad un insieme finito di configurazioni {α} attra-
verso cui il sistema evolve in passi discreti. In una catena di Markov la probabilità
di muovermi in un nuovo stato per il sistema dipende unicamente dallo stato attuale
in cui mi trovo. In generale, sistemi che non dipendono dalla loro storia (smemorati)
sono detti Markoviani.
Definiamo per il nostro modello:
Pβα : matrice di probabilità per il passaggio da uno stato α del mio sistema ad
uno stato β. Essa risulta essere nulla nel nostro caso se due configurazioni
differiscono per più di un valore di spin.
ρ~β (n): vettore probabilità che il mio sistema si trovi in vari stati β allo step n-esimo.
L’evoluzione del sistema da uno step al successivo da un sistema descritto dal vettore
α a quello β è data da: X
ρβ (n + 1) = Pβα ρα (n)
α
Nota che P è una matrice perchè ci permette di passare da vettori a vettori. Inoltre
essendo il sistema Markoviano e quindi indipendente dal tempo in cui avviene la

83
transizione la matrice Pβα sarà uguale per ogni step. Vediamo ora come l’utilizzo
della matrice P in un algoritmo può portarci all’equilibrio termico il sistema. Sarà
dunque necessario andare a comprendere le proprietà di questa matrice e trovarne
gli autovalori e autovettori.
Innanzitutto gli elementi della matrice sono probabilità dunque:
0 ≤ Pαβ ≤ 1
e per la conservazione della probabilità lo stato α da qualche parte deve andare
dunque: X
Pβα = 1
β

La matrice di transizione non è poi simmetrica:


Pβα 6= Pαβ
Calcoliamo ora autovettori ed autovalori.
Data l’antisimmetria della matrice possiamo definire almeno un autovettore destro
e sinistro per ogni singolo autovalore. Per esempio, se consideriamo la matrice

0 1

0 0
 
1
abbiamo due autovalori nulli e autovettori sinistro ~a = 0 1 e destro ~b =

Nel
0
caso più generale possiamo scrivere l’autovettore destro come:
P · ρ~λ = λ~
ρλ
e l’autovettore sinistro:
~σ λT P = λ~σ λT
Nota che nel caso di autovalori degeneri potrebbero non esserci autovettori multipli
e di solito sinistro e destro saranno diversi tra loro.
Se la catena di Markov raggiunge uno stato di equilibrio ρ~∗ è ragionevole pensare
che questo stato rimanga inalterato se vi applichiamo una matrice di evoluzione
temporale generica P . Possiamo quindi scrivere:
P · ρ~∗ = ρ~∗
Quindi abbiamo una situazione di stallo quando abbiamo il sistema in uno stato cor-
rispondente all’autovettore destro con autovalore unitario. Una esempio può essere
a T = 0:
Vediamo ora qualche teorema necessario per procedere con ulteriori considera-
zioni:
1. La matrice di transizione ha almeno un autovettore destro ρ~∗ con autovalore
λ = 1.
Consideriamo l’autovettore sinistro ~σ ∗ le cui componenti risultano essere uno,
allora per ~σ ∗T :
X X
(~σ ∗T · P )α = σβ∗ Pβα = Pβα = 1 = σα∗T
β β

Quindi P deve avere un autovalore unitario e di conseguenza deve avere almeno


un autovettore destro con autovalore uno.

84
2. Ogni autovettore destro ρ~λ con autovalore λ diverso da uno deve avere com-
ponenti che sommano a zero. Infatti:
X X XX XX X
λ Pβλ = λPβλ = Pβα ρλα = Pβα ρλα = ρλα
β β β α α β α

ρλα = 0.
P
Tale identità risulta essere verificata solamente se λ = 1 o α

3. Da notare che potrei avere catene di Markov con più di una distribuzione di
probabilità stazionaria. Posso avere in generale stati transienti o cicli. Questi
fenomeni sono ostacoli nella ricerca dello stato di equilibrio per il nostro si-
stema. Per bypassarli possiamo concentrarci sullo studio di catene di Markov
ergodiche. In una catena di Markov ergodica e finita è una catena per cui una
certa potenza della matrice di transizione P n ha tutti gli elementi di matrice
positivi e non nulli. Una catena di questo tipo è irriducibile e non ha cicli
ovvero possiamo passare da un qualunque stato α ad ogni altro stato β in un
numero finito di passi. Segue dunque il Teorema di Perron-Frobenius:
Consideriamo la matrice A con elementi di matrice non negativi e tale che An
ha tutti elementi positivi. Allora A ha un autovalore positivo λ0 , con molte-
plicità uno, i cui corrispondenti autovettori destro e sinistro hanno tutte le
componenti positive. Inoltre ogni altro autovalore λ di A deve essere minore:
|λ| < λ0 .
Per una catena di Markov ergodica possiamo dunque utilizzare il teorema visto
precedentemente sugli autovettori destri e concludere che l’autovettore di Perron-
Frobenius con tutte le componenti positive deve essere quello a cui corrisponde
l’autovalore λ0 = 1. Questo autovettore, non sommando a zero, può essere riscalato
a dare somma uno, provando cosı̀ che una catena di Markov ergodica ha uno e un
solo autovettore indipendente dal tempo e corrispondente alla distribuzione di pro-
babilità ρ~∗ .

Abbiamo quindi dimostrato che esiste ed è unica la distribuzione di equilibrio in


una catena di Markov ergodica. Possiamo ora mostrare che partendo da una qualun-
~ una catena di Markov ergodica andrà a
que distribuzione di probabilità iniziale ρ(0)
convergere all’equilibrio. Per semplificare il lavoro poniamoci nella situazione in cui
la nostra catena di Markov rispetta il bilancio dettagliato. E’ ragionevole inclu-
dere il bilancio dettagliato nella nostra trattazione poichè è un’assunzione generale
valida per sistemi dinamici all’equilibrio. Una catena di Markov rispetta il bilancio
dettagliato se esiste una qualche distribuzione di probabilità ρ~∗ tale per cui:

Pαβ ρ∗β = Pβα ρ∗α

per ogni stato α e β.


In altre parole abbiamo un bilancio nel flusso di probabilità tra gli stati all’equili-
brio. Infatti, se un sistema isolato è invariante all’inversione temporale (non abbiamo
campi o dissipazione) e i suoi stati sono pure invarianti sotto inversione temporale
(non hanno momento o velocità specificati) allora la dinamica soddisfa automati-
camente il bilancio dettagliato. Infatti lo stato di equilibrio risulta essere lo stesso
anche sotto inversione temporale e quindi i flussi di probabilità devono corrispondere
anche sotto inversione temporale.

85
Il bilancio dettagliato ci permette di trovare un set completo di autovettori de-
stri per la nostra matrice diptransizione P . Se dividiamo l’equazione di bilancio
dettagliato per la catena per ρ∗β ρ∗α otteniamo una matrice reale e simmetrica Qαβ :
s s
ρ∗β ρ∗β ρ∗α ρ∗α
Qαβ = Pαβ = Pαβ p ∗ ∗ = Pβα p ∗ ∗ = Pβα = Qβα
ρ∗α ρβ ρα ρβ ρα ρ∗β

Essendo tale matrice reale e simmetrica possiede una base completa di autovettori
(questo per le P non era necessariamente vero):

Qτ λ = λτ λ

o in altri termini, esplicitando le componenti:


X
Qαβ τα = λτβ
α

Possiamo ora dimostrare che è possibile passare da questi autovettori agli autovettori

destri della nostra matrice P riscalandoli di un fattore ρ∗ . Infatti possiamo vedere
che cosı̀ facendo regge ovvero dimostrare che questi sono autovettori di P :
s
X X X q ρ∗α λ X q q
Pβα ρλα = Pβα ταλ ρ∗α = ∗ λ
ρ∗β τβλ = ρλβ λ
p
Pβα ρ∗β ∗
τ α = Q βα ρβ τα = λ
α α α
ρ β α

Abbiamo quindi dimostrato che gli autovettori ottenuti cosı̀ scalando quelli della
matrice Q sono anche autovettori di P .
Abbiamo ora tutti gli strumenti necessari per dimostrare il teorema principale il
quale elenca le condizioni che un algoritmo deve rispettare per convergere all’equi-
librio. Più formalmente:
un sistema dinamico discreto con un numero finito di stati è garantito convergere
alla distribuzione di equilibrio ρ~∗ se l’algoritmo:

è Markoviano , ovvero è privo di memoria e quindi P non dipende dal tempo


(probabilità di passare da uno stato all’altro indipendente dal tempo).

è ergodico , ovvero può arrivare ovunque in un numero finito di step e non presenta
cicli.

soddisfa il bilancio dettagliato , ovvero abbiamo la garanzia dell’esistenza di


una base completa di autovettori.

Dimostrazione. Consideriamo P la nostra matrice di transizione per l’algoritmo.


Essa è indipendente dal tempo poichè il sistema è Markoviano. Essendo valido il
bilancio dettagliato, P ha un set completo di autovettori ρ~λ . Essendo poi l’algoritmo
ergodico sappiamo che esiste un solo autovettore destro con autovalore unitario ρ~1 e
può essere scelto per essere l’autovettore corrispondente alla distribuzione stazionaria
ρ~∗ . Per il teorema di Frobenius tutti gli altri autovettori avranno autovalori λ con
|λ| < 1. Possiamo dunque scomporre la densità iniziale in termini della nostra base:
X
ρ~(0) = a1 ρ~∗ + aλ ρ~λ
|λ|<1

86
allora, al tempo n:
X
ρ~(n) = P ρ~(n − 1) = P n ρ~(0) = a1 ρ~∗ + aλ λn ρ~λ
|λ|<1

Essendo che la somma finita in questa equazione va a zero per n → ∞, la densità


converge all’unica componente che rimane: a1 ρ~∗ . Questo implica che a1 = 1 e dunque
si ha una garanzia di convergenza del nostro sistema alla ρ~∗

87
Capitolo 9

Meccanica Statistica Quantistica

Passiamo ora all’intento di descrivere un sistema quantistico facendo uso della mec-
canica statistica. In meccanica classica gli insiemi sono le distribuzioni di probabilità
ρ(Q; P) nello spazio delle fasi e abbiamo visto che lo studio di questa distribuzione
ci ha permesso di derivare tutta la termodinamica.

Pensiamo ora a come generalizzare questi concetti al caso quantistico. Pensiamo


per esempio di voler trattare un gas quantistico di atomi. Gli atomi sono ovviamente
descritti dalla meccanica quantistica e dall’interpretazione di Born possiamo dedurre
che ρ sarà funzione di |Ψ(Q)|2 o |Ψ(P)|2 a seconda della rappresentazione (ma non
funzione di entrambi a causa del principio di indeterminazione) che si va ad adottare.
E’ importante sottolineare infatti che nella quantistica è già intrinsecamente insita
una visione probabilistica ed è dunque necessario definire una densità di probabilità
(|Ψ(Q)|2 ) per un sistema quantomeccanico in un definito stato Ψ(Q), chiamiamolo
stato puro.
In meccanica statistica è dunque necessario introdurre un secondo livello di pro-
babilità per discutere e lavorare con un sistema considerato come insieme che ha
probabilità pn di trovarsi nei vari stati Ψn (Q). Gli ensemble in meccanica quanti-
stica sono chiamati stati misti e non sono originati dalla sovrapposizione di diverse
funzioni d’onda ma da un mixing non coerente.

Definiamo ora un generico osservabile A del nostro sistema e calcoliamone il valo-


re di aspettazione. Se il sistema si trova in un particolare stato Ψn (Q) l’aspettazione
sullo stato puro sarà:
Z
hAipure = Ψ∗n (Q)AΨn (Q)d3N Q

L’aspettazione sull’ensemble sarà invece data dalla doppia media:


X Z
hAi = pn Ψ∗n (Q)AΨn (Q)d3N Q
n

dove pn è la probabilità termica di trovarmi in un certo stato n. Questa probabi-


lità pn la conosciamo e dipende dall’ensamble di lavoro. Per esempio se lavoriamo
nell’insieme canonico avremo:
e−βEn
pn =
Z

88
dove gli En sono gli autovalori della funzione d’onda. Nel gran canonico avremmo
invece:
e−β(En −µNa )
pn =
Ξ

9.1 Matrici di Densità


Passiamo ora ad una scrittura in un formalismo più compatto facendo uso dei bra e
dei ket ovvero utilizzando le matrici densità. Possiamo scrivere:
X
hAiT = pn hΨn |A|Ψn i
n
P
Inserendo l’identità I = m |φm ihφm | otteniamo:
!
XX X X
hAiT = pn hΨn |φm ihφm |A|Ψn i = hφm A| pn |Ψn ihΨn | |φm i
m n m n
P
dove ( n pn |Ψn ihΨn |) risulta essere la base completa in Ψn pesata sui coefficienti
associati alla probabilità diversi da uno. Questa matrice la chiamiamo ρ ed è la
matrice di densità: !
X
ρ= pn |Ψn ihΨn |
n

Questa matrice si ottiene partendo dall’identità e scrivendo una matrice i cui ele-
menti diagonali sono le probabilità per il sistema di trovarsi alle varie energie. A
questo punto: X
hAiT = hφm |ρA|φm i = T r(ρA)
m

Abbiamo quindi trovato una scrittura compatta per la media termica. Ci basta fare
il prodotto della matrice che stiamo studiando per la matrice densità e facciamo la
traccia.

La generalizzazione quantistica della probabilità è dunque data proprio dalla ma-


trice densità che nel passaggio dal classico al quantistico è passata dall’essere uno
scalare ad una matrice o meglio un operatore che poi andiamo a rappresentare in
forma matriciale nelle sue basi. In generale quindi la media sarà descritta da una
media pesata sulla matrice di densità.
Vediamo ora qualche proprietà di questa matrice. La traccia, considerando la rap-
presentazione dell’operatore nella base ortonormale completa di nostra scelta:
!
X X X
T r(ρ) = T r pn |Ψn ihΨn | = pn T r (|Ψn ihΨn |) = pn = 1
n n n

quindi la traccia va a sommare a uno ed è ragionevole.

Nell’ensamble canonico possiamo scriverla come:


X e−βEn
ρc = |En ihEn |
n
Z

89
Infatti il sistema risulta essere descritto da un insieme di autostati dell’energia cia-
scuno con il suo peso di Boltzmann associato e dunque la matrice risulta essere
diagonalizzata nella sua base energetica. Possiamo ora pensare di scrivere questa
matrice di densità in modo indipendente dalla base utilizzata. Abbiamo:
X X  
−βEn −β Ĥ −β Ĥ
Z= e = hEn |e |En i = T r e
n n

possiamo quindi riscrivere, facendo agire ogni ket sull’esponenziale e raccogliendo


fuori l’esponenziale dell’hamiltoniana (oppure possiamo anche prendere l’elemento
totale di matrice e vedere che si cancellano):

e−β Ĥ X e−β Ĥ
ρc = |En ihEn | =
Z n
Z

Allo stesso modo possiamo trattare l’entropia di Shannon e troviamo la ri-


scrittura:
S = −kb T r(ρ̂ ln ρ̂)
Nota: la meccanica statistica quantistica è riducibile spesso a quella classica nel
momento in cui andiamo a lavorare ad elevate temperature o con sistemi grandi.
Inoltre è importante sottolineare che l’approccio quantistico ha risolto molti pro-
blemi tra cui quello dell’introduzione del fattore N ! sull’indistinguibilità che qui è
intrinseca nel sistema. Abbiamo quindi una soluzione esatta per casi quantistici che
poi può essere estesa al limite classico.

9.1.1 Applicazione all’Oscillatore Armonico


Classicamente abbiamo visto che per un oscillatore armonico tridimensionale Cs =
3kb T . Questo comportamento è corretto a temperature alte, per esempio per i solidi
abbiamo Cs = 3N kb e risulta essere quindi costante nella temperatura. Non risulta
dunque essere spiegabile dalla meccanica statistica classica perchè per T → 0 il
calore specifico tenda anch’esso a zero.
A bassa temperatura infatti le oscillazioni termiche nel sistema sono sempre minori
e il sistema tende a localizzarsi sempre di più negli stati quantistici.
Consideriamo un singolo oscillatore armonico quantistico. Gli autovalori risultano
essere:
1
En = (n + )~ω
2
e non abbiamo degenerazione tra gli stati, vedi immagine 9.1. Se ci fosse stata
avremmo dovuto porre particolare attenzione nel calcolo dei pesi statistici poichè la
somma non è sulle energie, ma sul numero di stati, quindi nel momento che a parità
di energia il numero di stati è molteplice dovremmo tenerne conto. Possiamo quindi
scrivere la funzione di partizione:

−β~ω(n+ 12 )
X X X
−βEn −β~ω/2
Z= e = e =e e−β~ωn
n n n=0

da cui espandendo in serie geometrica per xn :


e−β~ω/2 1
Z= −β~ω
=
1−e 2 sinh (β~ω/2)

90
Figura 9.1: Autovalori dell’oscillatore armonico

Avendo trovato la funzione di partizione è ora possibile calcolare alcune grandezze


termodinamiche per il nostro sistema e il primo passo per calcolare il calore specifico
è il calcolo dell’energia media:
   
∂ ∂ β~ω −β~ω
 1 1
hEi = − ln Z = + ln 1 − e = ~ω +
∂β ∂β 2 2 eβ~ω − 1
Possiamo notare che la forma finale ottenuta per hEi risulta essere identica alla
forma dell’energia degli autovalori dove però n ovvero lo stato in cui si trova è
sostituito con quello che possiamo definire hni ovvero un valore di eccitazione medio
per l’oscillatore armonico indotto dalle eccitazioni termiche. Il nostro oscillatore avrà
dunque una serie di stati accessibili, ma a causa dell’accoppiamento con un bagno
termico l’occupazione può cambiare e in media lo stato di eccitazione risulta essere:
1
hni =
eβ~ω −1
I limiti di questa funzione sono:
per T → 0 abbiamo β → ∞ e dunque n → 0 ovvero avremo il sistema nello stato
fondamentale poichè non interagente con il bagno termico.
per T → ∞ abbiamo β → 0 e dunque un n che diverge ovvero una preferenziale
occupazione degli stati eccitati ad alta energia e ritroviamo la definizione di
Boltzmann.
Siamo ora pronti per calcolare il calore specifico come derivata dell’energia rispetto
alla temperatura: 2
e−β~ω

∂E ~ω
Cv = = kb
∂T (1 − e−β~ω )2 kb T
Se andiamo a plottare Cv contro la T otteniamo il grafico riportato nell’immagine
9.2. Possiamo dunque espandere per le alte T e otteniamo un valore costante nella
temperatura:
e−β~ω ' 1 − β~ω ⇒ Cv → kb
Il risultato è concorde con il risultato classico ovvero in accordo con il teorema di
equipartizione dell’energia (limite classico corretto).
Se ora facciamo il limite per T → 0 otteniamo invece che Cv → 0.

91
Figura 9.2: calore specifico dell’oscillatore armonico quantistico

9.2 Statistica di Bose e Fermi


L’indistinguibilità delle particelle in meccanica quantistica non è fine a se stessa
ma ha delle conseguenze particolarmente importanti. Una funzione d’onda per un
certo numero di particelle deve rimanere invariata, a meno di un cambio di fase, nel
momento in cui abbiamo permutazioni nelle coordinate. In particolare nel caso di
bosoni (fotoni, fononi . . .) abbiamo spin intero e una funzione d’onda che rimane
invariata per scambi:
Ψ(r1 , r2 , . . . , rN ) = Ψ(r2 , r1 , . . . , rN ) = Ψ(rP1 , rP2 , . . . , rPN )
dove P indica le permutazioni sugli indici. Per i fermioni (elettroni, neutroni, protoni,. . .)
invece abbiamo spin semi-interi:
Ψ(r1 , r2 , . . . , rN ) = −Ψ(r2 , r1 , . . . , rN ) = σ(P )Ψ(rP1 , rP2 , . . . , rPN )
dove σ(P ) indica il segno della permutazione P-esima (cambierà nel momento in cui
abbiamo permutazioni pari o dispari).
Costruiamo ora la funzione d’onda per il sistema che rispetti la simmetria o l’an-
tisimmetria. Per farlo, dato un autostato non simmetrizzato φ con energia E, è
necessario simmetrizzarlo o antisimmetrizzarlo nel caso si voglia ottenere rispettiva-
mente una funzione d’onda bosonica o fermionica. Nel primo caso una scrittura che
va a soddisfare la simmetria è la somma su tutte le permutazioni:
1 X
Ψ((r1 , r2 , . . . , rN ) = √ φ(rP1 , rP2 , . . . , rPN )
N! P
Nel caso fermionico abbiamo invece:
1 X
Ψ((r1 , r2 , . . . , rN ) = √ σ(P )φ(rP1 , rP2 , . . . , rPN )
N! P
La meccanica statistica quantistica per particelle identiche si ottiene restringendo
la somma di ensamble sulle funzioni simmetriche o sulle funzioni antisimmetriche
nel caso in cui lavoriamo con fermioni o bosoni. Quindi per esempio la funzione di
partizione nel canonico rimane inalterata, ma la traccia è ora sul set completo di
stati (simmetrici o antisimmetrici) a molti corpi e la somma risulta essere dunque
sugli autovalori, ovvero energie, di autostati molti-corpi.

92
9.2.1 Bosoni e Fermioni Non Interagenti
La meccanica statistica quantistica a molti corpi è dura. E’ dunque tempo di intro-
durre approssimazioni: assumiamo che le particelle quantistiche non interagiscano le
une con le altre. Possiamo pensare a questo sistema come ad un gas perfetto (senza
interazioni) e quantistico. Possiamo dunque scrivere l’hamiltoniana come la somma
delle singole hamiltoniane delle particelle non interagenti:
N 
~2 2
X X 
NI
Ĥ = Ĥi = − ∇i + V (ri )
i i=1
2m

Tanto lo spettro degli autovalori e autovettori non cambia per le particelle identiche
per ogni Ĥ di singola particella. Per una particella possiamo risolvere l’equazione
agli autovalori per Ĥ e trovare gli autostati:

Ĥψk (r) = k sψk (r)

Per particelle distinguibili e non interagenti l’autofunzione per il sistema a molti


corpi può essere scritta come il prodotto delle autofunzioni ortonormali soluzioni del
problema single particle:
N
Y
NI
Ψ (r1 , r2 , . . . , rN ) = ψkj (rj )
j=1

dove la particella j si trova nell’autostato kj . Ovvio che prodotti di autofunzioni di


questo tipo non vanno a rispettare la simmetria richiesta da bosoni e fermioni. Pos-
siamo però simmetrizzare sommando su tutte le permutazioni possibili nei prodotti
e ottenere la funzione per i bosoni:
N
1 XY
ΨN I
bosoni (r1 , r2 , . . . , rN ) =√ ψkj (rPj )
N ! P j=1

Oppure antisimmetrizzare e ottenere l’autofunzione per i fermioni:


N
1 X Y
ΨN I
f ermioni (r1 , r2 , . . . , rN ) =√ σ(P ) ψkj (rPj )
N! P j=1

questo risulta essere il famoso determinante di Hartree-Fock. Nota che l’antisimme-


tria introduce il concetto di esclusione di Pauli. Infatti se andiamo ad antisimme-
trizzare un sistema in cui due fermioni occupano lo stesso stato otteniamo un’au-
tofunzione nulla. Questo implica che due elettroni con spin concorde non possono
occupare lo stesso autostato spaziale (stesso stato quantistico).

Torniamo a noi, come facciamo meccanica statistica quantistica su Bosoni/Fermioni


non interagenti? Per un sistema ad N particelle è innanzitutto necessario scrivere
una funzione di partizione che rispetti la simmetria o l’antisimmetria della funzione
d’onda del sistema.
Per questo tipo di sistemi è comodo lavorare nell’insieme gran-canonico e trattare
ogni autostato come popolato indipendentemente dagli altri autostati e che va a
scambiare particelle direttamente con il bagno esterno.

93
Calcoliamo la funzione di gran-partizione per il sistema di particelle non interagenti
come fattorizzazione: Y
ΞN I = Ξk
k

Bose.
Per i bosoni ogni numero di occupazione nk per un determinato stato k è valido.
Ogni particella in un determinato autostato k contribuisce con energia k e poten-
ziale chimico −µ. La funzione di gran-partizione per ogni singola particella diventa
dunque:

X 1
ΞN
k
I
= e−β(k −µ)nk =
n =0
1 − e−β(k −µ)
k

dunque la funzione di gran-partizione di per il sistema bosonico risulta essere:


Y 1
ΞN I
bosoni =
k
1− e−β(k −µ)

Se osserviamo bene il risultato ci ricorda la forma dell’oscillatore armonico ed infatti


il numero medio di particelle bosonico coincide con quello dell’oscillatore armonico.
Possiamo ora ricavare il gran-potenziale e dunque tutte le proprietà termodinamiche
necessarie: X
Φ = −kb T ln Ξ = Φk
k

Il numero medio di particelle in un livello (dai risultati generali ottenuti nel gran-
canonico) risulta dunque essere (essendo indipendente per ogni livello):

∂Φk e−β(k −µ) 1


hnk i = − = −β( −µ)
= β( −µ)
∂µ 1−e k e k −1
Questa risulta essere la famosa distribuzione di Bose-Einstein.
Notiamo dunque che hni per l’oscillatore armonico corrisponde al risultato della sta-
tistica di Bose con µ = 0. Questo ci permette di trattare le vibrazioni come particelle
che obbediscono alla statistica di Bose ovvero quelli che saranno poi chiamati fononi.
Fermi.
Per i fermioni abbiamo due soli possibili numeri di occupazione: nk = 0 e nk = 1.
La funzione di gran-partizione per un singolo stato k risulta dunque essere:
1
X
ΞN
k
I
= e−β(k −µ)nk = 1 + e−β(k −µ)
nk =0

Da cui per il sistema totale di fermioni:


Y
ΞN I = 1 + e−β(k −µ )

k

Calcoliamo dunque il gran-potenziale:


X
ln 1 + e−β(k −µ)

Φ = −kb T
k

94
da cui l’occupazione media per autostato o livello risulta:

e−β(k −µ) 1
hnk i = −β( −µ)
= β( −µ)
1+e k e k +1
Possiamo quindi definire la distribuzione per gli elettroni di Fermi-Dirac:
1
f () = hniF D =
eβ(−µ) +1
La distribuzione di Fermi assume la forma che si può osservare nel grafico riportato
nell’immagine 9.3. Come possiamo vedere dall’immagine abbiamo una distinzione in

Figura 9.3: distribuzione di Fermi

due casi. Nel primo, quello in cui abbiamo una funzione a gradino, la temperatura
di lavoro è nulla. Per ( − µ) → 0 la funzione tende a 12 . Per T → 0 la funzione
assume dunque valore 1 o 0 in funzione del fatto che µ sia maggiore o minore di .
Se la T è diversa da zero avremo uno smussamento della funzione in prossimità del
livello di Fermi.

9.3 Statistica di Maxwell-Boltzmann


Nel caso classico abbiamo avuto la necessità di introdurre un fattore di divisione
N ! per rendere l’entropia una grandezza ragionevolmente estensiva. L’introduzio-
ne fa si che si abbia indistinguibilità tra le particelle. Questa approssimazione si
può introdurre, seppure non abbia alcun significato fisico, nella meccanica statistica
quantistica.
Vediamo come un sistema si comporta introducendo un’approssimazione di que-
sto tipo. Se lavoriamo nell’insieme canonico, per N particelle indistinguibili non
interagenti, abbiamo una funzione di partizione per particella singola:
X
Z1 = e−βk
k

e dunque una funzione totale per particelle simili:

Z = Z1N

95
La funzione di partizione canonica di Maxwell-Boltzmann diventa dunque:
1 N
ZMB = Z
N! 1
Se sviluppiamo questa espressione per un caso semplice per esempio due particelle
con tre livelli energetici arriviamo ad un risultato interessante. Nell’insieme canonico
questa distribuzione tratta le occupazioni multiple, ovvero il loro peso nella Z, in
un compromesso tra il trattamento democratico bosonico e quello esclusivo di Fermi
assegnando pesi frazionari.

Siamo tuttavia forse più interessati al caso gran-canonico. La funzione di gran-


partizione risulta essere:
!M
X 1
e−β(k −µ)
X X P
Ξ= ZM eM βµ = e−βk eM βµ = e k

M M
M! k

Per cui il gran-potenziale risulta essere:


X
Φ = −kb T ln Ξ = −kb T e−β(k −µ)
k

Per particelle non interagenti, quindi, il numero medio di particelle che occupano un
autostato di singola particella con energia  è:
∂Φk
hniM B = − = e−β(−µ)
µ
Questo è esattamente il fattore di Boltzmann che ci saremmo aspettati dallo
studio di particelle distinguibili, quindi il fattore N ! non altera lo riempimento di
stati di particella singola per particelle non interagenti.

96
Capitolo 10

Parametri d’Ordine e Transizioni


di Fase

L’obiettivo di questo capitolo è dare un’idea del metodo utilizzato per categorizzare
diversi stati della materia e razionalizzare il passaggio tra di essi mediante l’osser-
vazione di grandezze specifiche meglio chiamate parametri d’ordine.

Per esempio, quando abbiamo parlato del modello di Ising avevamo un valore di
magnetizzazione spontanea che cambiava da zero ad un valore finito nel momento
in cui passavo da una fase ferromagnetica o antiferromagnetica ad una fase parama-
gnetica.
Un parametro d’ordine è quindi una grandezza che cambia da una fase all’altra ed
è in qualche modo legato alla rottura di simmetria tra le due fasi. Nel caso parama-
gnetico per esempio abbiamo una simmetria rotazionale della magnetizzazione che
viene rotta nella fase ferromagnetica dove abbiamo un’orientazione piuttosto che
l’altra.

Come generalizziamo questo concetto di parametro d’ordine e rottura di simme-


tria per transizioni di fase più complesse?
Quello che dobbiamo fare è definire la simmetria del sistema e la sua rottura per poi
cercare un parametro che mi descriva questa rottura. Poi possiamo vedere quali sono
le eccitazioni elementari ovvero le fluttuazioni del parametro d’ordine nel sistema.
Esse sono solitamente piccole fluttuazioni elastiche del parametro d’ordine, ma non
sempre. Possiamo infatti avere difetti topologici nel sistema che vanno a introdurre
delle variazioni non riconducibili a fluttuazioni elastiche. Per esempio nella magne-
tizzazione possiamo avere domini magnetici con la creazione di vortici, vedremo bene
poi. Una volta fatti questi passaggi possiamo scrivere una teoria generale ed effettiva
su queste transizioni di fase rispetto ad alcuni parametri d’ordine. Questo è quello
che fece Landau per esempio.

Iniziamo a parlare delle simmetrie dei sistemi in gioco. Pensiamo al significato


di simmetria. Prova a guardare le immagini 10.1 e 10.2. Quale sistema tra le coppie
illustrate è più simmetrico?

Chiaramente le simmetrie più alte sono possedute da sfera e liquido. La sfera


è simmetrica rispetto a tutte le rotazioni possibili e il liquido data la distribuzione
probabilistica delle particelle componenti su grande scala è simmetrico rispetto a

97
Figura 10.1: Quale tra cubo e sfera è più simmetrico?

Figura 10.2: Quale tra ghiaccio e acqua è più simmetrico?

qualsiasi operazione.
Nelle transizioni di fase abbiamo dunque un passaggio da sistemi più simmetrici a
sistemi meno simmetrici o viceversa. Se paragoniamo il caso del liquido o del ma-
gnete abbiamo che in entrambi abbassando la temperatura passiamo da situazioni
ad alta simmetria a situazioni a più bassa simmetria.

In generale esiste quindi un parametro d’ordine in grado di descrivere la rot-


tura di simmetria del sistema.
Possiamo dunque pensare ad un mapping tra spazio delle configurazioni e campo
del parametro d’ordine. Nel caso della magnetizzazione tre dimensionale abbiamo
che lo spazio del parametro d’ordine è una sfera. Infatti se consideriamo un solido
abbiamo per ogni posizione x = (x, y, z) una direzione della magnetizzazione locale
M(x). La lunghezza del vettore M(x) rimane più o meno invariata, ma la direzione
è aleatoria. Diventando un magnete il solido rompe la simmetria rotazionale e M
ci indica in quale direzione questo è successo. Il parametro d’ordine è dunque un
campo: per ogni posizione x nel solido M(x) ci dice la direzione locale del campo
in prossimità di x. Una visione alternativa a quella vettoriale per M(x) è pensare
a M come una mappa che ci fa passare dallo spazio reale allo spazio del parametro
d’ordine. Nel caso della magnetizzazione lo spazio del parametro d’ordine è una sfera
sulla cui superficie sono mappati i punti dello spazio reale. Infatti abbiamo un valore
|M | costante indipendente dalla direzione di M(x) ed essa può assumere valori sia
positivi che negativi, vedi immagine 10.3.
Un cristallo liquido, vedi immagine 10.4, è un liquido molecolare con una certa
cristallinità ovvero assi polari non disordinati. Il parametro d’ordine in questo caso
è il versore delle ”bacchette”. Esso ha una simmetria su e giù (n̂ = −n̂) e quindi
non è necessaria una sfera ma solamente una semisfera come spazio del parametro
d’ordine, vedi immagine 10.5. Una transizione da un liquido disordinato a cristalli

98
Figura 10.3: Spazio del parametro d’ordine per la magnetizzazione locale

liquidi è detta transizione di fase nematica.

Figura 10.4: Struttura nematica dei cristallo liquidi

Figura 10.5: Spazio del parametro d’ordine per un cristallo liquido

In un cristallo qual’è il parametro d’ordine?


In un cristallo il sistema è simmetrico per un certo numero di traslazioni lungo una
direzione. Abbiamo quindi una rottura di simmetria traslazionale in una transizione
di fase. Consideriamo un reticolo cristallino 2D con energia minima in un reticolo
quadrato. Una deformazione del reticolo può essere descritta da un vettore sposta-
mento u. Possiamo quindi dire che u(x) è lo spostamento necessario ad allineare il
reticolo ideale nella regione locale del reticolo reale. Si genera dunque un’ambiguità
nel definire quale atomo del reticolo ideale venga associato con uno reale. Dunque,
il vettore di spostamento cambia di un multiplo del passo reticolare nel momento in
cui cambiamo atomo di riferimento:
u ≡ u + ax̂ = u + max̂ + naŷ

99
L’insieme dei parametri d’ordine distinti forma dunque un quadrato che si chiude a
toro a causa delle condizioni periodiche al contorno.
In un caso monodimensionale per esempio avrei che lo spazio del parametro d’ordi-
ne è un cerchio di raggio a poichè nel momento in cui mi muovo lungo la retta di
multipli del mio passo reticolare sto in realtà ottenendo lo stesso parametro d’ordine.

Altri parametri d’ordine possono essere nella fase superconduttiva la funzione


d’onda del condensato di Bose-Einstein. Infatti i bosoni a bassa T condensano e il
parametro d’onda vive nel campo complesso in quanto funzione d’onda.
Ferromagneti uniassiali hanno parametri d’ordine scalari.
Per transizioni gas liquido abbiamo la densità come parametro d’ordine.

Landau dimostrò che l’universalità del modo in cui descriviamo una transizione
di fase dipende soltanto dallo spazio in cui vive il parametro d’ordine ovvero si va a
rompere lo stesso tipo di simmetria.
Una volta definito il parametro d’ordine possiamo dunque andare a studiare le
fluttuazioni di questo parametro. In un cristallo, per esempio, le eccitazioni sono
i fononi ovvero onde che si propagano nel reticolo date le oscillazioni dei nuclei.
Propongo di seguito una trattazione valida per i fononi, ma che si può estendere a
qualsiasi oscillazione di un parametro d’ordine poichè in prima approssimazioni si
può considerare elastica.
Mettiamoci nella condizione di lavorare con un reticolo 1D costituito da atomi se-
parati da una distanza reticolare a. Essi formeranno dunque una catena. Quello
che siamo interessati a fare è risolvere il moto classico di questa catena. Portiamoci
al limite infinitesimo, ovvero quella situazione in cui al posto di lavorare con una
catena iniziamo a lavorare con un mezzo continuo, una corda. Imponiamo alcune
ragionevoli condizioni al contorno per risolvere questo problema:

Gli estremi: (xi , t) e (xf , t) sono fissati

Il sistema andrà ad evolvere nel tempo minimizzando l’azione della lagrangiana L.


Il primo passo è dunque trovare un’espressione ragionevole per:

L=T −U

Per il potenziale ragioniamo con l’espressione di Hook:

δU = kδl

Il parametro d’ordine u dipende da x quindi possiamo vedere il problema come una


corda nel piano (x, u) che va a deformarsi nel tempo con estremi fissati e movimento
trasversale concesso (solo al parametro d’ordine è concessa una variazione in funzione
della variazione di x). Una deformazione della corda sarà in prima approssimazione
data da r
√ du
ds = dx2 + du2 = dx 1 +
dx
Possiamo ora procedere a calcolare la variazione di potenziale data dalla deformazio-
ne elastica. E’ necessario escludere il contributo di deformazione dovuto a dx perciò
chiamiamo
dl = ds − dx

100
La variazione di energia associata alla deformazione sarà dunque:
s 
 2
du
dU = kdl = kdx  1 + − 1
dx

Da cui approssimando in Taylor il termine sotto radice, per piccole oscillazioni del
parametro d’ordine, otteniamo:
 2
1 du
dU = kdx
2 dx

da cui passando alla somma continua su quella che possiamo pensare come una
catena di oscillatori infinitesimi otteniamo:
Z xf  2
1 du
U= dx k
xi 2 dx

Passiamo ora ad una descrizione altrettanto semplice per l’energia cinetica del siste-
ma. Essendo continuo possiamo pensare ad una densità uniforme della corda ρ(x) da
cui, muovendoci lungo la corda: dm = ρdx. Possiamo dunque esprimere la variazione
di energia cinetica come:
1 1
dT = dmv 2 = ρdxu̇
2 2
Da cui: Z
1
T = dx ρu̇
2
Chiamiamo S l’azione di L che andiamo a minimizzare per trovare la legge che
descrive l’evoluzione temporale del sistema in esame. Scriviamo dunque:
Z t2
S= L(t, u̇, ∂x u)dt
t1

Minimizziamola in funzione della variazione di u, δu otteniamo:


Z Z
δS = dt dx (ρu̇δ u̇ − k∂x uδ∂x u) =
Z Z
t2 x2
u̇δu|t1 − ρ dxdtüδu − k∂x uδu|x1 + k dtdx∂xx uδu =
Z 
δu dxdtρü − k∂xx u = 0

Essendo la variazione arbitraria la soluzione e quindi l’equazione del moto risulta


essere l’equazione della corda:
ρü = k∂xx u
La soluzione risulta essere:

u(x, t) = u0 cos(kx − ωk t)

questa rappresenta il moto di eccitazione fononico e delle onde sonore e descrive ogni
eccitazione di parametri d’ordine anche di natura diversa. Infatti l’energia risulta

101
essere elastica ovvero quadratica nella dipendenza dallo spostamento dalla posizione
di equilibrio. Come possiamo scrivere questa energia elastica in generale?
Scriviamo tutte le energie che dipendono da u e che soddisfano la simmetria del
nostro sistema. Possiamo esprimere l’energia elastica in una certa espansione:

E(u) = E0 + Au + Bu2 + . . . + u0 + (u0 )2 + . . .

dove abbiamo termini lineari e quadratici e dipendenti dal gradiente. Ovviamente


i termini lineari e quadratici in u andranno eliminati per motivi di simmetria tra-
slazionale del problema ovvero: E(u + a) = E(u) cioè non pago energia elastica
traslando il sistema. Inoltre tra i termini di gradiente sopravvive solo il termine qua-
dratico poichè abbiamo simmetria nella variazione di energia nel momento in cui il
parametro varia in una direzione piuttosto che l’altra. Quello che rimane è dunque
una variazione quadratica nel gradiente (trascurando gli ordini successivi)1 . Quindi
in generale i termini da tenere sono definiti in base alla simmetria del parametro
d’ordine con cui si sta lavorando.

Per la magnetizzazione possiamo lavorare nello stesso modo e avremo delle onde
di spin e l’energia elastica di spin sarebbe a questo punto proporzionale al quadrato
della derivata della magnetizzazione.
Possiamo poi avere delle onde rotazionali nei cristalli liquidi.

Il teorema di Goldstone a questo punto ci dice che nel momento in cui si


rompe una simmetria continua (rotazione, traslazione ecc. . .) abbiamo una rigidità
che si forma2 .

Passiamo ora a trattare dei difetti topologici, ovvero quei difetti strutturali
del mio sistema che non sono riconducibili ad una eccitazione elementare, cioè non
sono riconducibili semplicemente a deformazioni elastiche del sistema. Un esempio
classico è la dislocazione del cristallo come quella che possiamo vedere in immagine
10.6.

Figura 10.6: Dislocazione in un cristallo


1
Nota che questo è un modo alternativo e più intuitivo per la nostra applicazione di introdurre
la variazione di potenziale elastico come variazione lineare: E(u) − E0 = 21 K(u0 )2
2
Un liquido non ha rigidità di scorrimento, ma nel momento in cui solidifica abbiamo introdotto
una rigidità alla deformazione. Stessa cosa nei magneti. In un paramagnete abbiamo che le onde di
spin possono formarsi senza rigidità, senza resistenza, ma nel momento in cui passiamo in una fase
ferromagnetica allora lo spostamento inizia a costare energia e hoi dunque introdotto una rigidità
nel sistema

102
In questi cristalli sembrerebbe che tutto sia normale, che ogni atomo sia cir-
condato dall’adeguato numero di primi vicini, ma se ci concentriamo su una zona
specifica possiamo notare che è presente un’anomalia strutturale. In questo caso è
come se fosse stato inserito un semipiano di difetti. Questa struttura non può essere
ricondotta ad un cristallo perfetto con traslazioni perchè abbiamo introdotto una
singolarità nella struttura.
E’ possibile caratterizzare questo difetto chiudendo un opportuno circuito, vedi im-
magine 10.7, attorno al difetto e calcolandone l’integrale. Se cerchiamo di chiudere
il circuito lungo il reticolo di Bravaris in presenza di un difetto non riusciamo!(non
chiudiamo al punto di partenza se seguiamo un percorso simmetrico). Quello che
possiamo fare è quindi integrare sul circuito intorno alla singolarità e ci aspettiamo
che, come nel piano complesso, l’integrale non si annulli:
I
d~µ = ~b 6= 0

dove d~µ è il vettore spostamento.


Possiamo quindi assegnare ad ogni difetto un vettore che chiameremo vettore di
Burgers.

Figura 10.7: Chiusura del circuito intorno al difetto

Perchè sono importanti questi difetti topologici o linee di dislocazione?


Essi giocano un ruolo fondamentale nella deformazione elastica dei materiali, ma
anche nella deformazione plastica.
Una deformazione plastica per esempio è il caso di una lattina schiacciata o una
graffetta aperta oltre un certo angolo limite. In entrambi i casi la deformazione ri-
sulta essere irreversibile. Cosa determina questo comportamento?
Questo comportamento è indotto da uno spostamento delle dislocazioni. Nessun
materiale è perfetto, ma sono pieni di difetti, dislocazioni. Facciamo un esempio,
consideriamo un cristallo con reticolo cubico in cui sono presenti alcuni difetti. Im-
maginiamo di effettuare uno scorrimento di questo cubo. Se lo spostiamo poco tutto
ritorna al punto di partenza. Se invece aumentiamo lo spostamento ad un certo pun-
to come reagisce il sistema?

Gli atomi sono bloccati! L’energia per lo spostamento intrareticolare sarebbe


enorme e sarebbero bloccati gli uni con gli altri, quello che succede è infatti che
si sposta una dislocazione. Infatti è per spostare una dislocazione lascio inalterata

103
gran parte del reticolo e quello che devo rompere è solo un legame che andrò poi a
riformare in una posizione diversa adiacente. Spostare di un passo reticolare le di-
slocazioni costa quindi poca energia. Man mano che sposto queste dislocazioni esse
andranno ad accumularsi ai bordi e mi troverò tutti questi semipiani al bordo che
mi forma un gradino. Quello che lasciamo alle spalle delle dislocazioni al bordo è un
cristallo perfetto con reticolo privo di altre dislocazioni ovvero abbiamo cambiato la
forma macroscopica del nostro reticolo. Nel caso del cubo esso si deformerà in un
parallelepipedo.
Questo processo è alla base della lavorazione metallurgica dei materiali. Il quanto di
deformazione plastica è dunque la dislocazione. Per esempio in una graffetta che si
piega si parte da un cilindro dritto che poi va a piegarsi con un accumulo di dislo-
cazioni sul bordo esterno del piegamento.

Un modo alternativo di vedere queste singolarità è quello di vederle come cari-


che. Una carica è una singolarità del campo elettromagnetico ovvero una divergenza
del campo nella carica. Le dislocazioni sono anch’esse una singolarità e se facciamo
l’integrale del flusso del campo attorno ad una carica troviamo un valore finito come
anche succede con i difetti. Quindi c’è un’analogia molto stretta tra le due, la qua-
le va a rafforzarsi se consideriamo la modalità di interazione tra due dislocazioni.
Infatti esse sono soggette ad interazioni di campo elastico equivalente al campo elet-
tromagnetico. Una dislocazione crea un campo di deformazione attorno a sè stessa
e questo campo ci da un campo di stress che decade con una singolarità intorno alla
deformazione e decade come 1r . Abbiamo comunque un elettromagnetismo tensoriale
poichè il campo di stress non è simmetrico.
La forza che agisce tra due dislocazioni è data dunque da un’equazione equivalente
a quella relativa alla forza interagente tra campo e carica3 :

F~ = (~b · σ) × ˆl

dove ~b è il vettore di Burgers del difetto su cui il campo agisce, σ è il tensore degli
sforzi prodotti dall’altra dislocazione e ˆl è il versore di Burgers ovvero l’asse delle
dislocazioni.
Possiamo quindi creare un gas di dislocazioni che interagisce con campi di deforma-
zione. Questo è quello che succede all’interno delle lattine quando vado a piegarle.

Ovviamente la dislocazione non è l’unico difetto topologico presente nei mate-


riali. Possiamo infatti avere altri parametri d’ordine o difetti topologici come vortici
magnetici, ovvero zone in cui tutte le magnetizzazioni puntano nella stessa direzione.
Anch’essi andranno a deformare la magnetizzazione ed interagiranno a lungo range
con campi di deformazione di spin. Per esempio antivortice e vortice si attraggono
mentre vortice e vortice o viceversa si respingono.

Un altro esempio sono i cristalli liquidi dove abbiamo delle dislocazioni chiamate
disclinazioni. Una disclinazione è una mezza dislocazione. Anche nei cristalli pos-
siamo avere delle disclinazioni. Un esempio classico è quando prendiamo un foglio
e vogliamo trasformarlo in un cono, la punta del cono è una disclinazione. In due
dimensioni una dislocazione si può sempre scindere in una coppia di disclinazioni.
Dato un reticolo triangolare per esempio ogni atomo ha 6 vicini, ma ci possono essere
3
Meno campo generato dalla carica per la carica su cui agisce

104
atomi con 5 vicini; questo atomo è una disclinazione, ma anche un atomo con sette
vicini è una disclinazione, quindi in un reticolo triangolare abbiamo spesso coppie
di disclinazioni 5-7 e questa coppia pentagono-eptagono, se chiudiamo un circuito
intorno darà una dislocazione. Queste sono particolarmente importanti nelle transi-
zioni di fase per cristalli bidimensionali per esempio. Un premio nobel per la fisica è
stato assegnato perchè venne dimostrato che in un cristallo 2D si ha una transizione
di fase legata a difetti topologici. In particolare venne studiato un cristallo 2D che
fonde separando le disclinazioni in più step. Prima abbiamo la proliferazione delle
dislocazioni, dopodichè abbiamo la formazione di coppie di difetti 5-7 (fase hexati-
ca), poi quando queste coppie si separano abbiamo la formazione della fase liquida.
Tutto questo è particolarmente diverso dal caso 3D in cui la fusione coinvolge una
semplice transizione di fase del primo ordine!!!

Allo stesso modo, in un ferromagnete bidimensionale con siti in cui la magne-


tizzazione può ruotare nel piano (non Ising, ma modello xy), quello che si pensava,
giustificato dal teorema di Mermin-Wagner, è che non può esistere una fase ferroma-
gnetica nel caso di un magnete xy (magnetizzazione rotante). In realtà la transizione
è stata osservata ed è dovuta alla presenza di vortici e antivortici nel solido4 .

Abbandoniamo i difetti topologici e passiamo ora allo studio di una teoria che
permette di descrivere transizioni di fase ordinarie e sia costruita sulla base del
parametro d’ordine. Abbiamo visto che data una transizione di fase possiamo definire
un parametro d’ordine e che esso sarà soggetto a piccole oscillazioni nel tempo.

10.1 Teoria di Landau per le Transizioni di Fase


A questo punto, quello che dice Landau è che se il parametro d’ordine descrive
l’ordine della transizione allora forse posso descrivere l’andamento dell’energia del
mio sistema in funzione del parametro d’ordine stesso.
Quello che devo fare è considerare la giusta funzione del parametro d’ordine:
E = f (p. d’ordine)
ovvero rispettare eventuali richieste di simmetria del sistema e poi andare a vedere
cosa succede quando rompo questa simmetria. La funzione più semplice che descrive
il parametro d’ordine sarà un’espansione in Taylor della funzione nel parametro d’or-
dine stesso. Perchè posso farla? L’idea è quella che nella fase simmetrica il parametro
d’ordine è nullo e passando nella fase asimmetrica devia da questo zero assumendo
valori positivi o negativi, quindi se siamo ragionevolmente vicini alla transizione di
fase possiamo pensare che questa variazione nel parametro d’ordine sia piccola e
quindi espandere in Taylor la funzione da esso dipendente. L’espansione verrà fatta
anche su termini di gradiente per considerare le possibili eccitazioni del parametro:
F (φ, ∇φ) = A + Bφ + Cφ2 + Dφ4 + E∇φ + F (∇φ)2 + . . .
A questo punto cancelliamo i termini che non ci interessano nel nostro sistema in
esame.

4
Nota che il Nobel è stato annunciato per la topologia, ovvero transizioni di fase guidate da
difetti topologici

105
In un sistema tipo Ising per esempio5 è necessario introdurre una simmetria
m = −m e quindi cancellare i termini dispari (vogliamo simmetria rispetto all’in-
versione di spin). Considero poi solo il primo ordine nel gradiente e ottengo una
descrizione approssimata dell’energia di Ising in funzione del parametro d’ordine:
1 µ(T ) 2 g(T ) 4
F Ising = k(∇m)2 + f0 + m + m
2 2 4!
Proviamo ora a graficare questa dipendenza. Consideriamo il sistema uniforme ov-
vero:
∇m = 0
cioè stiamo lavorando con una magnetizzazione costante.
A questo punto è necessario distinguere il comportamento a seconda del valore di
µ(T ) che il mio sistema assume. Se µ > 0 sarò in una situazione in cui la dipendenza
diventa armonica e il grafico darà una parabola, vedi 10.10. Se il sistema è descritto
da questa funzione esso si metterà nel minimo di energia libera ovvero nel vertice
della nostra parabola. In questo minimo m = 0, quindi quando µ > 0 il sistema sarà
paramagnetico all’equilibrio.
Se µ < 0 abbiamo un massimo in m = 0 e se consideriamo gli altri termini, per m
grande il termine quartico vince e abbiamo la formazione di due minimi simmetrici
per l’energia libera. Il sistema a questo punti si metterà in uno dei due possibili
minimi. Questo è quello che ci aspettiamo nel caso di un sistema ferromagnetico
con campo nullo, ovvero abbiamo che la probabilità di trovarci in uno dei due stati
ferromagnetici è equivalente.

Nota che per essere tutto consistente dobbiamo a questo punto avere un pa-
rametro µ che deve essere dipendente dalla temperatura e che quindi andremo a
scrivere come µ(T ) poichè è necessario che per:
T = Tc ⇒ µ(T ) = 0
Per descrivere bene la transizione di fase possiamo quindi scrivere in prima appros-
simazione:
µ(T ) = µ0 (T − Tc )
Se accendiamo adesso un campo magnetico l’energia del sistema diventa:
F (m, H) = F (m, H = 0) − Hm
dove −Hm è l’energia associata al campo magnetico. Riplottando la funzione del-
l’energia otteniamo uno scift pari ad una retta in una direzione piuttosto che l’altra,
vedi immagine 10.8. Abbiamo quindi nella situazione ferromagnetica una magnetiz-
zazione di spin più favorita piuttosto che l’altra in funzione del segno di H. Il campo
magnetico ha dunque rotto la simmetria del sistema.
Possiamo quindi vedere in generale come varia la magnetizzazione in funzione del
campo.
Cerchiamo ora il parallelo tra questa descrizione e i grafici calcolati precedente-
mente di magnetizzazione in funzione della temperatura. Lavoriamo del caso in cui
H = 0:
µ0 g
F = (T − Tc )m2 + m4
2 4!
5
Consideriamo m il nostro parametro d’ordine

106
Figura 10.8: Energia libera di Landau per un sistema in campo elettromagnetico

Quello che facciamo adesso è metterci nella situazione di energia minima per il
sistema imponendo la derivata prima nulla e poi esprimiamo la magnetizzazione in
funzione della temperatura:
∂F
=0
∂m
da cui:   21
3!
m=± µ0 (Tc − T )
g
Plottando il risultato ottenuto si ottiene il grafico illustrato nell’immagine 10.9.

Figura 10.9: Magnetizzazione vs temperatura

Ovviamente questa soluzione va bene per T < Tc , per valori più grandi avremo
l’altra soluzione e il sistema in questo caso sarà paramagnetico con m = 0 (siamo
passati alla parabola).
Da notare che la soluzione che avevamo trovato con l’approssimazione di campo
medio aveva esponente ν = 12 . Infatti la teoria di Landau risulta essere una teoria
di campo medio per il modello di Ising. Questo è evidente poichè abbiamo preso la

107
Figura 10.10: Energia libera di Landau

magnetizzazione come una costante.


Possiamo anche vedere quando T = Tc come cambia la magnetizzazione con il cam-
po elettromagnetico reintroducendo il termine del campo magnetico e minimizzando
la funzione ponendo tutto uguale a zero.

Uno può scrivere una teoria di Landau generica in base al parametro d’ordine
con cui lavora. Per esempio in un ferromagnete di Heisenberg abbiamo vettori di
spin rotanti in una sfera. In questo caso abbiamo il sombrero:
~ )2 + B(M
F = (∇M )2 + A(M ~ )4

108
Capitolo 11

Correlazione, Fluttuazione e
Dissipazione

In generale un sistema all’equilibrio si trova macroscopicamente in una situazione


statica e omogenea. Tuttavia in esso sono presenti oscillazioni a livello microscopico
a causa per esempio delle fluttuazioni termiche a cui è soggetto. Usiamo in gene-
rale le funzioni di correlazione per andare a vedere l’entità di queste oscillazioni e
l’evoluzione spaziale e temporale del sistema.

11.1 Le Funzioni di Correlazione


Abbiamo visto come derivare leggi che descrivano l’evoluzione temporale e il com-
portamento del sistema nell’approcciarsi all’equilibrio. Siamo in grado di simulare
questi sistemi, vedi l’utilizzo del modello di Ising, ma come caratterizziamo, come
razionalizziamo il comportamento di questi sistemi? Come estraiamo informazioni
dal nostro insieme di sistemi? Insomma quello che ci serve è una funzione o dei
numeri che ci permettano di comparare i nostri risultati tra di loro e con i risultati
sperimentali.
Possiamo per esempio lavorare andando a confrontare la grandezza tipica di zone
di sistema e come questa evolve nel tempo. Ovvero potremmo pensare, per esempio
nel caso del modello di Ising (spin up o down), quanto un determinato stato, macchia
nera per esempio nell’immagine 11.1, è propensa ad estendersi ad una distanza r o
sopravvivere per un tempo τ . Oppure date due generiche immagini di un sistema,
per esempio dalla simulazione montecarlo del modello di Ising, uno può guardare
le immagini e farsi un’idea di come i vari cluster di spin sono organizzati, ma se
vogliamo avere una misura più quantitativa e razionale di questo pattern?
Il modo fondamentale per trattare questi problemi è quello di calcolare le funzioni
di correlazione, per esempio della densità o della magnetizzazione.

Una funzione di correlazione è definita come:

Ct (r) = hS(r + r0 )S(r0 )i

non dipende quindi da r poichè mi aspetto che essendo il sistema molto grande sus-
sista un’invarianza di traslazione nella sua definizione ovvero una dipendenza dalla
sola distanza tra due punti. Inoltre è una funzione di correlazione time-independent.

109
Figura 11.1: Separazione di fase in un modello di Ising

Infatti possiamo decidere di metterci in un determinato tempo e osservare la corre-


lazione in funzione di come varia una certa distanza nel sistema oppure fissare una
posizione e far variare il tempo. Possiamo quindi scrivere in modo del tutto generico
la funzione di correlazione come dipendente da entrambe le traslazioni, spaziali e
temporali.

Nel caso del modello di Ising questa funzione di correlazione ha un comporta-


mento interessante poichè diverge alla transizione di fase. Andiamo a vedere nel
dettaglio come lavoriamo per un sistema di questo tipo. Prendiamo l’immagine del
sistema ad una determinata temperatura. Consideriamo il verso di due spin nella
griglia: S(x, t) e S(x + r, t). Nel caso in cui r sia maggiore della dimensione tipi-
ca di un cluster di spin paralleli L(t) (ovviamente dipendente dal tempo), avremo
una situazione in cui questi due spin hanno un 50/50 di essere paralleli, quindi la
media del loro prodotto sarà circa zero. Se r è invece molto minore di L(t) gli spin
saranno molto probabilmente allineati e la media del loro prodotto sarà circa uno.
Quindi Ct (r) = hS(x + r, t)S(x, t)i andrà da zero a uno e incrocerà il valore 21 alla
L(t). Essendo il sistema in evoluzione temporale anche questa correlazione andrà ad
evolvere e come già visto possiamo scrivere in modo del tutto più generico:

C(r, τ ) = hS(x, t)S(x + r, t + τ )i

La C(r, 0) ci fornisce informazioni su come uno spin influenza i vicini e questa andrà
a cambiare nel momento in cui mi trovo a diverse temperature rispetto alla Tc . Per
esempio sotto la temperatura critica abbiamo un’influenza long-range tra gli spin:
spin molto distanti tenderanno ad allinearsi. Al di sopra della temperatura critica
tra vicini si tende a puntare nella stessa direzione, ma la preferenza è spazialmente
limitata. Questo ci porta ad intuire che in una situazione scorrelata, come quella
in cui T > Tc , abbiamo un decadimento molto rapido della correlazione in funzione
dell’aumento della distanza e per lunghe distanze r C(r, 0) → 0. Invece per T < Tc
essendoci maggior correlazione abbiamo un offset a correlazioni più alte a parità di
distanza e un decadimento più smooth, almeno fino alla ξ(T ) chiamata lunghezza

110
di correlazione ovvero il valore dopo il quale la correlazione diverge al valore long-
range in cui si hanno valori scorrelati, vedi immagine 11.2. Questo valore nel caso ci
trovassimo al di sotto della Tc è:

lim C(r, 0) = lim hS(x, 0)S(x + r, 0)i = hS(x, 0)ihS(x + r, 0)i = m2


r→∞ r→∞

Figura 11.2: Andamento della C(r, 0) nel modello di Ising

Alla transizione di fase, ovvero alla Tc cosa succede?


La ξ(T ) diverge portando a fluttuazioni su tutte le scale, ovvero abbiamo un sistema
correlato ad ogni grandezza di scala. L’andamento è una legge di potenza del tipo:

C(r, 0) ∝ r−(d−2+η)

Mentre per una temperatura poco più alta della temperatura critica si ha un an-
−r
damento come e ξ(T ) , vedi immagine 11.3. Come si può notare si ha una divergenza
nella ξ alla Tc . La lunghezza di correlazione diverge con un esponente ν:

Figura 11.3: Correlazione e legge di potenza

ξ(T ) ∝ (T − Tc )−ν

La funzione di correlazione ci da quindi informazioni su quanto sono grandi i domini


e nel momento in cui ξ diverge abbiamo dei cluster di spin correlati su tutte le scale

111
e a questo punto la funzione di correlazione decade con una legge a potenza.
Se siamo invece ad una temperatura alta l’esponenziale decade molto rapidamente
(ξ molto bassa). Nella fase ferromagnetica tutti gli spin sono allineati e questo por-
terebbe a farci pensare ad una correlazione infinita, quello che si fa è però sottrarre
la media e ottenere un comportamento simile a quello della fase paramagnetica:

C(r) = h(S(r + r0 ) − S(r0 ))2 i

In questo caso anche se tutti gli spin sono uguali a uno la correlazione va a zero.
Questo ci permette di vedere le correlazioni nelle fluttuazioni del parametro d’or-
dine rispetto al suo valore medio (questa viene chiamata funzione di correlazione
connessa).

La lunghezza di correlazione esprime qualitativamente la lunghezza dei domini


o meglio possiamo pensare ad una sorta di proporzionalità tra i due.

Sperimentalmente la funzione di correlazione è importante poichè è una misura


direttamente accessibile da misure di scattering.
Consideriamo per esempio lo scattering x-ray come quello mostrato nell’immagine
11.4. Abbiamo il raggio incidente con vettore d’onda k0 che viene scatterato e ne
misuriamo la lunghezza in uscita k0 + k.
La lunghezza d’onda della radiazione riflessa è proporzionale alla trasformata di

Figura 11.4: x-ray scattering

Fourier della densità elettronica ρ̃e (k) e l’intensità della radiazione ovvero |ρ̃e (k)|2
può essere facilmente misurata. Dimostriamo ora che questa intensità è direttamente
legata alla C(r):
Z
0
ρ̃(k) = dx0 eikx ρ(x0 ) quindi:

|ρ̃(k)|2 = ρ̃(k)ρ̃(−k) =
Z Z
0 ikx0
dx e ρ(x ) dxe−ikx ρ(x) =
0

Z Z
−ikr
dre dx0 ρ(x0 )ρ(x0 + r) =

L’integrale è la media della funzione di correlazione sul volume V . Nota che


questo è vero se il sistema è grande e invariante per traslazione. Qui il sistema è

112
grande e automediante quindi posso scambiare l’integrale con la media e otteniamo:
Z
|ρ̃(k)| ∝ dreikr V C(r) = V C̃(k)
2

infatti rigorosamente C(R) dovrebbe essere dato dalla media sull’ensamble in cui
stiamo lavorando (come faremmo per un normale osservabile).

11.2 Ipotesi di Regressione di Onsager


Egli si è posto la questione di come decadono le fluttuazioni nel tempo. Se c’è una
grossa fluttuazione di densità come evolve poi il sistema per tornare all’equilibrio?
Consideriamo un caso pratico come esempio la diffusione di molecole di profumo nel-
l’aria. Per questo sistema conosciamo la legge macroscopica che ci dice come evolve
una determinata densità di profumo iniziale (condizione iniziale macroscopica) in
una distribuzione più uniforme della stessa. Sappiamo infatti che questo fenomeno
macroscopico segue la legge di diffusione:
∂ρ
= D∇2 ρ
∂t
Possiamo adesso chiederci come sono correlate tra loro le fluttuazioni nel tempo?
Per esempio possiamo considerare una fluttuazione molto intensa che va a portarci
fuori dall’equilibrio al t = 0 e chiederci come decade nel tempo ad un profilo più
ragionevole, vedi immagine 11.5.
Definiamo la media [ρ(x, t)]ρi come la media sulle deviazioni di densità rispetto al
punto fissato ρ(x, 0) = ρi (x) al tempo zero. Questa media ci permette di valutare
come decadono le fluttuazioni naturali della densità data una condizione iniziale
specifica. L’ipotesi di regressione di Onsager sta nascosta in questa definizione ovvero
afferma che queste deviazioni spontanee dalla situazione di equilibrio (il fixed point
della media), vedi immagine 11.5, decadono seguendo le stesse leggi di evoluzione
temporale seguite dal sistema macroscopico.
Questo nel moto diffusivo del profumo si traduce nella scrittura:

Figura 11.5: Correlazione e legge di potenza

∂[ρ(x, t)]ρi
= D∇2 [ρ(x, t)]ρi
∂t

113
Dimostriamo adesso la potenza di una scrittura di questo tipo andando mostrare
che ci permette di fare la stessa identica considerazione sull’evoluzione temporale
delle correlazioni del sistema.
Definiamo la correlazione dipendente da più di un tempo come un’estensione, ovvero
una media temporale della correlazione a tempo fisso cioè della media sull’ensamble1 :
C ideal (r, τ ) = hρ(x + r, t + τ )ρ(x, t)iev
Sfruttando il fatto che il sistema è omogeneo ed invariante per traslazione temporale:
hρ(x + r, t + τ )ρ(x, t)iev = hρ(r, τ )ρ(0, 0)iev
a questo punto possiamo scambiare la media di ensamble e di evoluzione (incasinata
da calcolare) con la media prima sulle fluttuazioni dal valore iniziale fisso seguita
dalla media di ensamble rispetto al valore iniziale ovvero la equal-time correlation:
hρ(r, τ )ρ(0, 0)iev = h[ρ(r, τ )]ρi ρi (0)ieq
A questo punto abbiamo un’espressione familiare di questa correlazione time depen-
dent ed in virtù di Onsager possiamo scrivere2 :
∂C ideal (r, τ )
= D∇2 C ideal (r, τ )
∂t
Questo è il risultato importantissimo! Ed è più generale rispetto al caso da noi
considerato e ci permette di evolvere nel tempo le correlazioni per esempio partendo
da una equal-time correlation C(x, 0) possiamo trovare la funzione di correlazione
più generale per il sistema C(x, t).
Diamo ora un esempio più generale che può chiarirci le idee sulla potenza di questo
risultato.
Pensiamo di voler calcolare la funzione di correlazione di un sistema per un pa-
rametro d’ordine h(x, t). Definiamo nel modo più generale possibile le variazioni
macroscopiche di questo parametro dalla condizione di equilibrio supponendo di
conoscere la funzione di Green che ne descrive l’evoluzione temporale:
Z
h(x, t) = h − dx0 G(x − x0 , t)(h(x0 , 0) − h)

trasliamo il valor medio a zero e per comodità passiamo alla FT della convoluzione:
h̃(k, t) = G̃(k, t)h̃(k, 0)
A questo punto applichiamo la regressione di Onsager scrivendo:
[h̃(k, t)]hi = G̃(k, t)h̃i (k, 0)
Trasformando in Fourier e con qualche passaggio matematico a questo punto, con-
siderando C(x, t) = h[h(x, t)]hi hi (0)ieq , otteniamo:
C̃(k, t) = G̃(k, t)C̃(k, 0)
Potentissimo! Possiamo evolvere, data la funzione di Green per l’evoluzione macro-
scopica di una deviazione dall’equilibrio, la correlazione al tempo zero, calcolabile
con la meccanica statistica all’equilibrio, nella correlazione ad un qualunque tempo
per il sistema in esame.
1
nota che lavorando con delle correlazioni sulle fluttuazioni sarebbe necessario sottrarre dalle
densità la densità media ρ0 scrivendo: (ρ(x + r, t + τ ) − ρ0 )
2
si dimostra facendo brutalmente la derivata nel tempo in pochi passaggi.

114
11.3 Risposta del Sistema
Passiamo ora a far vedere come la funzione di correlazione sia legata alla risposta
del sistema ad una perturbazione.
Ho un sistema all’equilibrio con le mie fluttuazioni caratteristiche del caso e decido
di accendere una perturbazione e potrei farlo per esempio a diverse temperature. Per
esempio in una simulazione con modello di Ising posso accendere un campo oppure
in un gas variare la pressione e vedere il sistema come reagisce andando a vedere
le variazioni del parametro d’ordine quindi la magnetizzazione o la densità nei casi
sopra citati.
Armiamoci di mezzi statistici e buttiamoci in questa avventura.

Data una perturbazione ad un determinato sistema possiamo scrivere per l’ener-


gia libera:
F = F0 + Ff
dove F è l’energia a seguito della perturbazione, F0 è l’energia in assenza di pertur-
bazione e Ff è l’energia libera associata alla perturbazione esterna.
Se la perturbazione è sufficientemente piccola possiamo scrivere:
Z
Ff = − dxS(x, t)f (x, t)

sarà quindi una funzione dello spazio e del tempo. Il fatto che sia piccola implica che
il cambio nell’energia libera totale post-perturbazione sia lineare e accoppiata al pa-
rametro d’ordine S. Un campo perturbante f (x, t) è quindi una variabile coniugata
al parametro d’ordine. Se per esempio il mio parametro d’ordine fosse la posizione
(lo spazio) a questo punto Ff sarebbe il lavoro compiuto dal campo di forza f (x, t).
Allora se la perturbazione è piccola la variazione del parametro d’ordine sarà an-
ch’essa piccola e sarà direttamente proporzionale alla perturbazione stessa. Mi chiedo
quindi come sarà post-perturbazione il mio parametro d’ordine con perturbazione
piccola e una scrittura la più generale possibile è la seguente:
Z Z t
0
S(x, t) = dx dt0 χ(x − x0 , t − t0 )f (x0 , t)
−∞

la variazione del parametro d’ordine dipende linearmente dalla forzante. Il coeffi-


ciente χ che lega la forza alla risposta ovviamente non può essere costante, ma deve
dipendere dal tempo, come la perturbazione la quale agisce per un certo tempo, e
dallo spazio. χ viene chiamata suscettività e nel momento in cui la forzante non
dovesse dipendere da spazio o tempo allora essa diventerebbe una costante.
Questa teoria che afferma che il parametro d’ordine è lineare nella perturbazione del
sistema è chiamata teoria della risposta lineare.

Per lavorare con convoluzioni varie è comodo lavorare nello spazio reciproco tra-
sformando tutto in Fourier. Definiamo S̃(k, ω) = (F S)(x, t) e f˜(k, ω) = (F f )(x, t),
quindi:
S̃(k, ω) = f˜(k, ω)χ̃(k, ω)
Di solito, per comodità, si va poi a dividere la suscettività in due parti:

χ̃(k, ω) = χ̃0 (k, ω) + iχ̃00 (k, ω)

115
e vedremo adesso che parte reale ed immaginaria sono associate rispettivamente alla
risposta del sistema e alla dissipazione.

Calcoliamo la potenza media dissipata (energia per unità di tempo) per unità di
volume:
1 t
Z
∂S
P = lim f (t) dt
T →∞ T 0 ∂t
abbiamo quindi l’integrale di una forza f per una velocità ∂S ∂t
a darci una potenza
per unità di volume che poi viene mediata nel tempo durante la sua azione.
Possiamo pensare ad una dipendenza di S da f che possiamo plottare a dare ragio-
nevolmente un ciclo nel piano 2D. La potenza sarà dunque l’area di questo ciclo e nel
momento in cui faccio più cicli avrò la somma di queste potenze. Quella cheR abbiamo
scritto è dunque l’area del cerchio in una parametrizzazione alternativa a γ f (S)ds.
Oppure possiamo vederla come un’energia totale nel tempo diviso il tempo totale.

Procediamo dunque integrando per parti:


1 T
Z
∂f
P = lim − dtS(t)
T →∞ T 0 ∂t
A questo punto scriviamo la perturbazione come una perturbazione di coseni:
1
f (t) = Re[f (ω)e−iωt ] = (fω e−iωt + fω∗ eiωt )
2
Quindi possiamo scrivere:
Z T
1 iω
fω e−iωt − fω∗ eiωt

P = lim dtS(t)
T →∞ T 0 2
A questo punto possiamo scrivere S(t) come funzione della suscettività considerando
lo spazio uniforme, ovvero indipendentemente da esso:
Z +∞ Z +∞ Z +∞
0 0 0
1
S(t) = dt χ(t−t )f (t ) = dτ χ(τ )f (t−τ ) = dτ χ(τ ) fω e−iω(t−τ ) + fω∗ eiω(t−τ )
−∞ −∞ −∞ 2
e lo inserisco nell’espressione per la potenza ottenendo:
1 T
Z Z +∞
dτ χ(τ ) fω e−iω(t−τ ) + fω∗ eiω(t−τ ) ×

lim dt
T →∞ T 0 −∞
1 iω
fω e−iωt − fω∗ eiωt

2 2
Sviluppando il tutto pezzo per pezzo troveremmo che rimangono solo i termini che
accoppiano la f con il suo complesso coniugato. Gli altri termini al limite vanno a
zero. Otteniamo:
ω|fω |2 +∞
Z
P = dτ χ(τ ) sin(ωτ )
2 −∞
dove il termine seno deriva dal mettere insieme gli esponenziali complessi. E’ un
conto tedioso ma semplice. L’integrale che rimane è la parte immaginaria della FT:
Z +∞
= Im[F χ(t)]
−∞

116
Quindi:
ω
|fω |2 χ00 (ω)
P =
2
Abbiamo dimostrato che la parte immaginaria della suscettività è legata alla poten-
za dissipata dal sistema.

Un esempio di applicazione è il ciclo di isteresi di un materiale con variazione


del campo magnetico applicato. Quello che troviamo è che la magnetizzazione segue
una traiettoria ellissoidale mettendo un campo con frequenza ω. Quello che succede
è che l’area risulta essere proporzionale alla frequenza o meglio alla sua parte im-
maginaria, mentre con frequenze basse abbiamo una retta e la potenza dissipata è
nulla. Tutta la termodinamica si basa sul fatto che i sistemi soggetti a perturbazioni
si comportino in modo adiabatico e non abbiamo isteresi. In realtà non succede cosı̀
perchè applichiamo un campo magnetico con una certa frequenza e quindi otteniamo
un’isteresi.
Quindi qualsiasi perturbazione a frequenza finita porta con se una dissipazione.
Dimostreremo poi che la funzione di risposta ha un comportamento legato alla fun-
zione di correlazione in assenza di perturbazione. Pensa per esempio alla relazione
tra calore specifico e fluttuazioni dell’energia nel sistema.

11.3.1 Esempio Pratico


Facciamo adesso un esempio pratico di quello che abbiamo detto riguardo alla dis-
sipazione calcolando la suscettività dinamica e mostrando che effettivamente i conti
tornano. L’esercizio parte dalla definizione dell’energia in assenza di perturbazione
esterna. Scegliamo una funzione parabolica nel parametro d’ordine ovvero il primo
termine di espansione nella teoria di Landau:
1
F0 (S) = kS 2
2
Dobbiamo poi definire la forzante esterna e consideriamo una funzione dipendente
soltanto dal tempo:
f (x, t) = f (t) = f0 cos(ωt)
Calcoliamo ora la χ(ω).
Prima di tutto è necessario trovare S ovvero dovremmo dare un’equazione del moto.
Semplifichiamo assumendo che il moto è totalmente dissipativo e quindi:
∂S ∂F
γ =− = −kS + f (t)
∂t ∂S
per comodità consideriamo γ = 1.
Risolviamo l’equazione differenziale omogenea associata e poi utilizziamo la varia-
zione della costante:
S(t) = A(t)e−kt
da cui poi ributtando nell’equazione differenziale:
dA −kt
e − kAe−kt = −kAe−kt + f (t)
dt

117
da cui: Z
0
A(t) = dt0 ekt f (t0 )

Abbiamo quindi: Z t
0
S(t) = dt0 e−k(t−t ) f (t)
0
Da cui, per confronto:
χ(t) = e−kt θ(t)
Trasformiamo adesso in Fourier:
Z ∞
k + iω
χ̃(ω) = eiωt−kt θ(t)dt = 2 2
= χ0 + iχ00
−∞ k + iω

Adesso che abbiamo la soluzione possiamo prendere e vedere veramente com’è il


comportamento di S(t) in funzione di f :
Z t
0 k cos(ωt) + ω sin(ωt) f0 k
S(t) = dt0 f0 e−k(t−t ) cos(ωt) = f0 2 2
− 2 =
0 k +ω ω + k2
k ω f0 k
q
2 2
f (t) ± 2 2
f02 + f 2 − 2
k +ω k +ω ω + k2
Per risolverlo esprimo il cos come esponenziali complessi e tediosamente integro e
poi riarrangio il risultato con un po’ di algebra dei numeri complessi.
E’ interessante adesso la dipendenza da f . Il ± dipende da che parte del periodo
siamo. Per ω = 0 abbiamo:
f
S=
k
ovvero una risposta semplicemente proporzionale alla forza. Plottando il risultato
otteniamo una retta. Se ω non è nulla invece avremo una retta con un’ellisse aper-
ta sopra di essa (secondo termine dell’equazione). Il nostro parametro d’ordine fa
quindi un ciclo di isteresi e la potenza dissipata sarà proporzionale all’area del ciclo.
Facciamolo vedere considerando la potenza dissipata in un periodo:
Z 2π
ω ω ds
P = dtf0 cos(ωt) =
2π 0 dt
2 Z 2π
 
ω f0 k f0 ω
f0 cos(ωt) 2 (− sin(ωt)) + 2 cos(ωt) =
2π 0 k + ω2 k + ω2
ω 2 f02 ω
2 2
π = f02 χ00 (ω)
2π k + ω 2
infatti avevamo visto prima: χ00 (ω) = k2 +ω
ω
2.

Nota che la risposta è sempre successiva alla perturbazione.

11.4 Suscettività all’Equilibrio


Vediamo ora come calcolare la suscettività statica per un sistema all’equilibrio. Que-
sto è il caso in cui il sistema risulta essere soggetto ad una forza esterna indipen-
dente dal tempo, statica, e il sistema reagisce raggiungendo un equilibrio perturbato
e attraverso la meccanica statistica di equilibrio saremmo in grado di calcolare la

118
variazione statica nella media del campo del parametro d’ordine S(x).
Per la forzante abbiamo quindi un campo:

f (x, t) = f (x)

Immaginando un campo picco, possiamo applicare la risposta lineare e scrivere:


Z
S(x) = dx0 χ0 (x − x0 )f (x0 )

dove χ0 è la suscettività statica per il sistema. Passiamo alla FT spaziale:

S̃k = χ̃0 (k)f˜k

Il termine di energia libera dovuto all’interazione sarà dunque dato da:


Z
Ff = − dxf (x)S(x)

0
A questo punto: f (x) = dkeikx f˜k e S(x) = dk 0 eik x S̃k0 . Sostituendo le antitra-
R R

sformate otteniamo:
Z Z Z
0 i(k+k0 )x 0 0 dk
F = dxdkdk fk Sk0 e = dkdk fk Sk0 δ(k + k )2π = fk S−k

Nel limite discreto di questa espressione, in serie di Fourier, quindi lavorando con
frequenze che sono multipli di 2πl quindi3 :
3
In generale possiamo esprimere una funzione in serie di Fourier utilizzando una base di seni e
coseni e proiettando la funzione in questa base ottenendo:
+∞
X +∞
X
f (t) = (um |f )um = f˜m e−iωm t
m=−∞ m=−∞

2πm
dove ωm = T e ỹm è quella proiezione per una determinata frequenza associata a m della nostra
funzione: Z T
1
(um |f ) = f (t)eiωm t dt
T 0
che possiamo chiamare serie di Fourier della funzione con periodo T .
Se a questo punto ci troviamo a lavorare in una box cubica di lato L, le condizioni periodiche al
contorno sono imposte da questa dimensionalità e la serie risulta essere:
Z
˜ 1
fk = f (x)e−ik·x dV
V
e X
f (x) = ỹk eik·x
k

dove k corre su tutti i punti del reticolo formato dai vettori d’onda nella box:
2πm 2πn 2πo
k(m,n,o) = [ , , ]
L L L
Inoltre nel passare da trasformata a serie (continuo - discreto) si può operare nel seguente modo e
per estenderlo alle tre dimensioni è sufficiente sostituire il volume:
Z
1 1 X 1 X 2π 1X
dω ' ∆ω = =
2π 2π ω 2π T T ω
k

119
dd k
Z X
→ V
(2π)d k

Possiamo ora calcolare il valore di aspettazione del parametro d’ordine nel campo4 :
P
−β(F0 −V

T r S k fk S−k )
ke
hS˜k ieq = P 
T r e−β(F0 −V k fk S−k )

Dove l’operazione di traccia in questo caso integra su tutto lo spazio dei possibili
valori di Sk :
YZ
T r() = dSk
k

Ricordando che: P
Z(f ) = T r e−β(F0 −V fk S−k )

k

si mostra dunque facilmente che:


1 ∂
ln Z = hSk i
β ∂f−k
Ora, essendo Sk = χ0 fk , possiamo scrivere:

∂hSk i 1 ∂ 2 ln Z
χ0 (k) = =
∂fk β ∂fk f−k
Sviluppando il conto otteniamo:

∂hS̃k i
χ0 (k) = |f =0 = βV (hSk S−k i − hSk ihS−k i) = βV h(Sk − hSk i)2 i = β C̃(k, 0)
˜
∂ fk
Questo risultato è importantissimo e ci permette di legare la correlazione statica,
ovvero le fluttuazioni del nostro sistema, con la suscettibilità del sistema stesso.
Questo risultato fa parte di quello che è il teorema di fluttuazione e dissipazione.

11.5 Il Teorema di Fluttuazione e Dissipazione


E’ la versione complessiva di tutti i risultati da noi ottenuti. Come abbiamo relazio-
nato, nella sezione precedente, la suscettività statica con le funzioni di correlazione,
adesso andiamo a relazionare le funzioni di correlazione con la suscettività dinamica.

In generale possiamo sempre scrivere una soluzione come soluzione particolare al


tempo zero convoluta con la funzione di Green per l’evoluzione temporale del mio
sistema: Z
S(x, t) = dx0 G(x − x0 , t)S(x0 , 0)

Dal risultato precedente possiamo scrivere:

S̃(k, t = 0) = χ̃0 (k)f˜(k)


4
Ho omesso i vari tilde nelle equazioni sottointendendo che si sta lavorando con quantità Fourier
trasformate e il k è ovviamente inteso come vettore

120
Ma abbiamo anche in FT:

S̃(k, t) = G̃(k, t)S̃(k, 0)

Quindi:
S̃(k, t) = χ̃0 (k)f˜(k)G̃(k, t)
Ma sappiamo anche che, cambiando punto di vista, introducendo una suscettività
spazio-temporale per il nostro sistema:
Z Z t
0
S(x, t) = dx χ(x − x0 , t − t0 )f (x0 )
−∞

con un cambio di variabili τ = t − t0 e trasformando in Fourier otteniamo:


Z ∞
S̃(k, t) = dτ χ̃(k, τ )f˜(k)
t

Nota che volendo utilizzare risultati all’equilibrio consideriamo la forzante agente per
un certo periodo sul sistema come indipendente dal tempo. Per aggiustare l’estremo
inferiore a t di questa integrazione ricorda che la forzante lavora per t < 0 ed è nulla
t > 0. Perturbo quindi il sistema fino al tempo zero e poi guardo le fluttuazioni fino
all’equilibrio.
Uguagliando quindi le due espressioni:
Z ∞
dτ χ̃(k, τ ) = χ̃0 (k)G̃(k, t)
t

Dalla sezione precedente sappiamo che:

χ̃0 (k) = β C̃(k, 0)

ed utilizzando la relazione di Onsager possiamo scrivere:

C̃(k, 0)G̃(k, t) = C̃(k, t)

allora5 : Z ∞
dτ χ̃(k, τ ) = β C̃(k, t)
t
Quindi:
∂ C̃(k, t)
χ̃(k, t) = β
∂t
o riscritto nel dominio reale:
∂C(x, t)
χ(x, t) = −β
∂t
per t > 0.

Non andremo ad approfondire ulteriormente l’argomento, ma può essere utile


sapere che esiste una relazione tra parte reale e parte immaginaria della suscettività.
In particolare, grazie alle relazioni di Kramers-Kronig, è possibile esprimere parte
reale in funzione della parte immaginaria e dissipativa della suscettività.
5
In realtà dovremmo includere il volume V e scrivere βV , ma va bene anche cosı̀ nel senso che
probabilmente dipende dalla convenzione con cui stiamo lavorando

121
Capitolo 12

Transizioni di Fase

12.1 Transizioni di Fase e Discontinuità


Una transizione di fase di ordine n-esimo è definita tale se nel parametro d’ordine si
ha una variazione, un andamento con discontinuità, nella derivata n-esima al punto
di transizione.
Per esempio, un tipico diagramma di fase per un fluido ha la forma riportata in
figura 12.1(a) in cui abbiamo i tre stati di aggregazione. Le linee sono i punti in cui
si passa da una fase all’altra con una discontinuità nel primo ordine. E’ poi presente
un punto critico dove invece la discontinuità è del secondo ordine. Per esempio una
transizione di fase liq-gas è generalmente del primo ordine e solamente ad una certa
temperatura e pressione la transizione diventa del secondo ordine.
Al di sopra del punto non abbiamo più discontinuità tra le fasi. In una visione data
da un differente ensemble in cui controlliamo T e V abbiamo un andamento come
quello riportato in figura 12.1(b). Sulla cima della campana abbiamo la tempera-
tura critica e nel centro della campana abbiamo una situazione di coesistenza delle
due fasi. Per esempio l’acqua che bolle è una fase intermedia fino a quando tutto
non è passato in fase gas. Quindi le transizioni del primo ordine sono caratterizzate
dalla presenza di una coesistenza e dal calore latente. Questo calore è l’energia che
dobbiamo fornire per soddisfare la discontinuità nell’energia libera. Infatti tale di-
scontinuità è legata ad una variazione dell’entropia la quale a sua volta può essere
associata ad una variazione di calore che sarà proprio quello latente.
Questa coesistenza ovviamente era possibile vederla solo esplicitando la variazione
di volume.

Nel secondo ordine non abbiamo fase di coesistenza, ma abbiamo con continuità il
passaggio tra le due fasi. Gli stessi grafici si possono riplottare in funzione dell’energia
libera a seconda dell’ensamble in cui ci troviamo:

A(T, V, N ) = E − T S

oppure:
G(N, P, T ) = E − T S + P V
Plottando queste energie otteniamo i grafici mostrati in figura 12.2(a) e (b). Il grafico
dell’energia libera di Gibbs mostra un punto di incontro tra le linee liquido e gas e
qui si origina la discontinuità nella derivata prima rispetto alla temperatura. Questo
grafico indica le fasi stabili, ma è in realtà possibile sottoraffreddare o surriscaldare

122
Figura 12.1: Diagramma di fase P − T e T − V

Figura 12.2: Diagrammi di fase in funzione dell’energia libera

123
rispettivamente un gas e un liquido. Queste sono fasi metastabili e sono figlie della
cinetica con cui avviene la transizione di fase (pensiamo per esempio al ghiaccio
quando lo tiriamo fuori dal frigorifero. E’ necessario un certo tempo per sciogliere
tutto il cubetto!). Il proseguimento della curva del diagramma ci da le energie per
le fasi metastabili. Esiste ovviamente un limite per cui la fase metastabile diventa
instabile e si passa all’altra fase, ma in linea di massima se stiamo vicini al punto
critico possiamo avere una buona fase metastabile.
Dal grafico è facilmente possibile vedere che per una certa temperatura possiamo
avere due fasi e quella stabile è quella ad energia più bassa.

Questa cosa si visualizza bene se andiamo a lavorare con la teoria di Landau.


In assenza di campo magnetico abbiamo i due minimi alla stessa altezza. Se sup-
poniamo di mettere un piccolo campo magnetico allora un minimo va ad alzarsi
in energia. Questa situazione non è instabile, ma se le fluttuazioni termiche sono
sufficienti allora posso saltar fuori e ricadere nel minimo ovvero lo stato stabile,
vedi immagine 12.3. Quindi in generale in termini del parametro d’ordine m, se lo

Figura 12.3: Diagrammi di fase nella teoria di Landau

pensiamo proporzionale alla densità del mio fluido, abbiamo per m < 0 lo stato
liquido e per m > 0 lo stato gassoso. Avremo una transizione come quella mostrata
in figura con il nostro campo magnetico tramutato in pressione. Ovvio che variando
la pressione fase metastabile e stabile possono invertirsi.

Come possiamo saltare da uno stato all’altro?


Supponiamo di avere un sistema in una fase metastabile liquida e vogliamo capire
come fa a saltare alla fase gassosa stabile. Per rispondere a questa domanda ci viene
in soccorso la teoria della nucleazione.

12.2 La Nucleazione
Secondo la teoria della nucleazione l’idea alla base del fenomeno è che si forma un
nucleo stabile all’interno della fase metastabile. Questo nucleo va poi a crescere e ci
porta alla fase stabile. La teoria ha senso se pensiamo a delle bolle nell’ebollizione
o alla cristallizzazione di un liquido.
La teoria che andiamo a vedere è quella della cristallizzazione omogenea ovvero

124
consideriamo il sistema come puro permettendo dunque ai nuclei di nascere in qual-
siasi punto con la medesima probabilità. Sappiamo però che questa è pura fiction
ovviamente. Nessun sistema è puro e anzi sono le impurezze che permettono alla
nucleazione di partire con facilità. E’ in generale più facile espandere qualcosa di
esistente piuttosto che farlo nascere dal nulla.
1

12.2.1 Teoria della Nucleazione


Partiamo con il considerare il caso generale gas-liquido e poi passeremo all’applica-
zione al modello di Isinig.
Ho un liquido e sto cercando di capire come si forma il gas o meglio al contrario, ho
un gas e sto nucleando un liquido. Ho abbassato la temperatura sotto la Tc ovvero
mi sono portato ad un gas sottoraffreddato. Il sistema dovrebbe condensare, ma per
ora è in questa fase metastabile. Voglio stimare quindi il contributo energetico di
una bolla di liquido all’interno del gas, poichè voglio capire se sono stabili o meno
ovvero se crescono o si riassorbono.
Consideriamo una bolla di raggio R. I contributi all’energia libera saranno due.
Avremo un guadagno nell’energia dovuto al fatto che sto andando a creare una bol-
la di liquido in una fase metastabile di gas ed un contributo positivo dell’energia,
ovvero un prezzo che devo pagare dovuto alla tensione superficiale.
Il guadagno per molecola sarà dato dalla variazione del potenziale chimico tra gas e
liquido:
Ggas − Gliq ∂(Ggas − Gliq ) ∆T ∆S∆T
∆µ = ' =
N ∂T
T N N
Riscrivendo l’entropia totale in funzione del calore latente e la temperatura:
L ∆T L∆T
∆µ = N =
T N T
Questa è la variazione di potenziale chimico associata ad una molecola di gas per il
passaggio alla fase liquida. A questo punto calcoliamo il contributo per una goccia:

GR = σA − V ρ∆µ

Dove σ è la tensione superficiale e ρ è la densità della bolla. Data la forma sferica


riscriviamo:
L∆T ρ 4 3
GR = σ4πR2 − πR
T 3
Se andiamo a plottare questa energia in funzione del raggio2 otteniamo una funzione
come quella mostrata in figura 12.4. Possiamo dunque trovare il massimo:
∂G
=0
∂R
1
Una descrizione alternativa del fenomeno, rispetto a Landau, è data dalla descrizione di Max-
well. Egli mostrò che la zona di coesistenza coincide con la curva che minimizza la differenza tra le
aree delle due curve. Non è nell’interesse del corso descrivere nel dettaglio la cosa quindi andiamo
avanti. E’ semplicemente una costruzione diversa fatta utilizzando il potenziale di Van der Waals.
2
Per R piccolo domina il termine quadratico con un andamento parabolico verso lo zero, mentre
per R grande domina il termine cubico con concavità opposta.

125
Figura 12.4: Diagramma dell’energia libera per la nucleazione in funzione del raggio
della goccia

da cui:
2σT
Rc =
L∆T ρ
Questo raggio critico è il raggio per cui la bolla inizia a crescere. Per R < Rc l’energia
viene minimizzata riassorbendo la goccia, mentre per R > Rc ⇒ R → ∞.
Corrispondentemente abbiamo una barriera:

16πσ 3 1
G(Rc ) =
3ρ2 L2 (∆T )2

Se ∆T → 0 la barriera tende all’infinito che è sensato, poichè sarei in una fase


di coesistenza tra i due stati e non guadagno niente in un passaggio netto da uno
all’altro. Quello che faccio è dunque abbassare ancora la T (l’acqua termostatata
non bolle!!!).

12.2.1.1 Applicazione al Modello di Ising


Consideriamo un modello bidimensionale. L’hamiltoniana sarà come al solito data
da: X X
H = −J Si Sj − H Si
i,j i

Consideriamo H = 0 e uno stato iniziale in cui Si = −1. Abbiamo quindi una


maggioranza di spin negativi con una formazione di piccoli domini a spin positivi.
Accendiamo adesso un campo H > 0 ed entriamo quindi in una fase metastabile.
Qual’è quindi la variazione di energia associata alla formazione di una bolla di Ising
di raggio R?
Il prezzo da pagare è lo scambio degli spin sulla superficie che non sono contenti di
interfacciarsi con spin opposti. Approssimiamo la forma della bolla come sferica:

2πR R2
∆H(R) = J − Hπ 2
a a

126
dove a è il passo reticolare.
Plottando l’energia abbiamo una crescita lineare per piccoli R e poi un decadimento
parabolico a −∞, vedi immagine 12.5. Computando la derivata prima otteniamo:

Figura 12.5: Energia libera in funzione del raggio di nucleazione per il modello di
Ising

aJ
Rc =
H

12.3 Transizioni del Secondo Ordine


L’universalità è una caratteristica fondamentale delle transizioni di fase del secondo
ordine ed è questo che le rende particolarmente interessanti. Nella fisica possiamo
trovare facilmente universalità qualitativa ovvero leggi fisiche che assomigliano ad
altre, ma l’universalità quantitativa è tipica delle transizioni di fase.
Quello che abbiamo infatti è che per diverse transizioni abbiamo dei parametri quan-
titativi che sono gli stessi indipendentemente dal sistema. Questi sono gli esponenti
critici e per esempio hanno lo stesso valore se trattiamo transizioni gas-liquido o
ferromagnetiche.
Alla base dell’universalità sta l’idea che esiste un gruppo di simmetrie che sono le
stesse per questi sistemi. Non soltanto questi esponenti sono universali, ma anche
un insieme di funzioni lo è se il sistema è critico.
La teoria di queste transizioni, la vedremo in corsi più avanzati, è la teoria dei gruppi
di rinormalizzazione. L’idea è che alla transizione di fase le correlazioni divergono.
Se faccio quindi una trasformazione nello spazio della scala del sistema il sistema
diventa invariante di scala solo al punto critico. Cambiando la scala di osservazione
il risultato non cambia! Abbiamo una sorta di frattale. Quello che si studia è il flus-
so dei parametri nel cambiamento di scala e guardando come cambiano i parametri
posso disegnare grafici come quello mostrato in figura 12.6. Dalle curve posso vedere
come si muovono i parametri efficaci nel momento in cui cambio scala di osserva-
zione. Ci sono frecce e punti fissi ovvero punti invarianti di scala. Per esempio la
temperatura critica è l’unico punto in cui abbiamo invarianza di scala. Cambiando
parametri irrilevanti il comportamento critico del sistema non cambia. Per esempio

127
se aggiungiamo l’interazione tra 4 spin o se prendiamo un reticolo triangolare. Una

Figura 12.6: Gruppo di rinormalizzazione

caratteristica di sistemi invarianti in scala è l’assenza di una lunghezza caratteri-


stica. Vedi per esempio le immagini del modello di Ising alla Tc mostrate in figura
12.7. Il fenomeno possiamo pensare nasca da un bilancio entropico / entalpico. La
lunghezza di correlazione  diverge alla Tc con un esponente ν chiamato esponente
critico ed è indipendente dal sistema, è universale:

 ∝ (T − Tc )−ν

Sono complicati da calcolare. Un altro esponente critico è dato dalla funzione di


correlazione:
C(r) ∝ r2−d+η
dove η è l’esponente critico chiamato dimensione anomala. Un altro esponente che
abbiamo già visto è dato dalla dipendenza della magnetizzazione dalla temperatura
(l’avevamo visto in campo medio per esempio):

M ∝ (Tc − T )β

dove β è l’esponente critico e assume valore 12 in campo medio (valido per dimensioni
alte).
Alle transizioni di fase esistono quindi esponenti critici universali. Essi sono dipen-
denti dalla dimensione del sistema e in generale dalle sue simmetrie. In un modello
xy avremo per esempio simmetrie diverse e quindi un set diverso di esponenti critici.

12.4 Il Modello della Percolazione


E’ un altro modello relativamente semplice per lo studio delle transizioni di fase. De-
scrive per esempio il comportamento del caffè nel filtro. Illy, appassionato di scienze,
pagò dei fisici per studiare le dimensioni perfette del macinato in modo da ottimiz-
zare la percolazione dell’acqua attraverso il filtro.

128
Figura 12.7: Modello di Ising alla Tc

Il modello è definito su un reticolo. Prendiamo un reticolo quadrato e per ogni


sito del reticolo tiro un dado che mi da un valore tra zero e uno. Se il numero estratto
è più grande di P allora metto un segno nero, altrimenti lo marco bianco. A questo
punto posso immaginare che il nero sia un ostacolo e il bianco gli spazi vuoti. Se
metto un fluido sopra riuscirà a trovare un passaggio tra i pori?
La risposta dipende dal reticolo. Consideriamo un reticolo quadrato 2D in cui apria-
mo o chiudiamo i legami tra i nodi, vedi immagine 12.8. In questo caso, con una
percolazione di legame, abbiamo che il valore critico: Pc = 12 . Quindi, se consideria-
mo un caffè passante in verticale o orizzontale, abbiamo che per P > 1/2 il caffè
non passa.
Nel modello della percolazione possiamo considerare le zone connesse e aperte e colo-
rarle nello stesso modo. Quello che si nota è che per P > 1/2 non esiste un percorso
preferenziale che mi permette di passare, ho tanti cluster sconnessi. Alle Pc ho invece
invarianza di scala. Il nostro parametro di controllo, equivalente alla temperatura,
è P ovvero la probabilità di avere un sito occupato. E’ quindi un modello con i sui
esponenti critici e quello che si vede è che  diverge a Pc e

 ∝ (P − Pc )−ν

dove ν è il mio esponente critico ed è invariante nel momento in cui cambio reticolo
o lavoro aprendo legami piuttosto che siti (quello che cambia è Pc ).
Ovviamente in questo sistema abbiamo una diversa classe di universalità rispetto al
modello di Ising.

129
Figura 12.8: Universalità nella percolazione

12.5 Fenomeni Critici


Altri sistemi che ha un comportamento simile a quello critico sono i terremoti. La
legge di Gutemberg e Richter afferma che il numero di terremoti di una certa ma-
gnitudo segue una legge esponenziale (è una legge empirica). Questa è una legge a
potenza sotto mentite spoglie (logaritmo dell’energia del terremoto per la scala di
potenza dei terremoti). Alcuni modelli affermano che questa legge è simile a quella
delle transizioni di fase. Questa legge con esponente critico è associata dunque a
transizioni di fase. Quale?
Una proposta è data dal modello di Burridge-Knopoff, vedi immagine 12.9, in cui
la faglia è considerata come un cerchio elastico e lo strato superiore si muove come
se fosse collegato a dei blocchi tra loro collegati da molle. La transizione è tra fase
statica e dinamica della faglia e il terremoto è la manifestazione della criticità della
crosta terrestre.
In laboratorio posso lavorare con faglie piccole e per invarianza di scala posso esten-
dere alla crosta terrestre i risultati. La dinamica è tuttavia caotica e non è quindi
possibile prevederli intrinsecamente (attenzione alle bufale!!! La scienza non sempre
è in grado di prevedere).

Figura 12.9: Transizione di fase per i terremoti

130
Il cracking noise è un altro fenomeno interessante. Pieghiamo un foglio e studia-
mo come varia l’intensità del segnale in funzione del tempo. Scopriamo che anche
lui segue una legge a potenza ed è molto simile a quella del terremoto.
Rice crispies con un microfono. Il rumore segue la stessa legge a potenza di Gu-
temberg. Questi rumori vari hanno sempre la stessa legge a potenza. L’idea è che
quindi esistono classi di universalità per questi fenomeni dinamici e la teoria delle
transizioni di fase ci permette di studiarli. Per studiare fenomeni intermittenti e ru-
mori crepitanti possiamo quindi usare la legge delle transizioni di fasi. Queste leggi
verranno spiegate e applicate nei corsi più avanzate. Qui Zappe diverge sui Rice
Crispies.

Cit. Esplorate quello che ci circonda, c’è ancora tanto da scoprire. . .

131

Potrebbero piacerti anche