Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Giacomo Mandelli
This work is licensed under the Creative Commons
Attribution-NonCommercial-NoDerivatives 4.0 International License. To view a
copy of this license, visit http://creativecommons.org/licenses/by-nc-nd/4.0/ or
send a letter to Creative Commons, PO Box 1866, Mountain View, CA 94042,
USA.
1
Indice
2 Il Random Walk 20
2.1 Caso Uno Dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Caso a Due Dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Altri Cammini Aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 L’Equazione di Diffusione . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5 Correnti di Materia e Generalizzazione del Random Walk . . . . . . . 24
2.5.1 In Assenza di Forzanti . . . . . . . . . . . . . . . . . . . . . . 24
2.5.2 In Presenza di Forzanti Indipendenti dalla Posizione . . . . . . 24
2.5.3 In Presenza di Forzanti Dipendenti dalla Posizione . . . . . . 25
2
4 L’Entropia 45
4.1 Entropia ed Irreversibilità . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Entropia e Disordine . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.1 Il Paradosso di Gibbs . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Entropia come Ignoranza . . . . . . . . . . . . . . . . . . . . . . . . . 48
5 L’Ensamble Canonico 51
5.1 Descrizione Generale . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2 Calcolo di Grandezze termodinamiche . . . . . . . . . . . . . . . . . . 52
5.2.1 Estensività delle Variabili Termodinamiche nel Canonico . . . 54
7 La Termodinamica 61
7.1 Alcune Applicazioni degli Ensamble . . . . . . . . . . . . . . . . . . . 62
7.1.1 Meccanica: Frizioni e Fluttuazioni . . . . . . . . . . . . . . . . 62
7.1.2 Chimica: Equilibrio e Cinetica di Reazione . . . . . . . . . . . 65
7.1.3 Densità di Energia Libera per il Gas Ideale . . . . . . . . . . . 67
8 Il Modello di Ising 70
8.1 Sistemi Ferromagnetici . . . . . . . . . . . . . . . . . . . . . . . . . . 70
8.2 Il Magnetismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.3 Le Leghe Binarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
8.4 Liquidi, Gas e Punto Critico . . . . . . . . . . . . . . . . . . . . . . . 74
8.5 Approccio alla Soluzione del Modello di Ising . . . . . . . . . . . . . . 76
8.5.1 Approssimazione di Campo Medio . . . . . . . . . . . . . . . . 76
8.5.2 Soluzione Esatta 1D . . . . . . . . . . . . . . . . . . . . . . . 78
8.5.3 Soluzioni Approssimate . . . . . . . . . . . . . . . . . . . . . . 81
3
12 Transizioni di Fase 122
12.1 Transizioni di Fase e Discontinuità . . . . . . . . . . . . . . . . . . . 122
12.2 La Nucleazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
12.2.1 Teoria della Nucleazione . . . . . . . . . . . . . . . . . . . . . 125
12.3 Transizioni del Secondo Ordine . . . . . . . . . . . . . . . . . . . . . 127
12.4 Il Modello della Percolazione . . . . . . . . . . . . . . . . . . . . . . . 128
12.5 Fenomeni Critici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
4
Capitolo 1
1.1 Obiettivo
L’obiettivo è andare a relazionare il mondo macroscopico, governato dalle leggi della
termodinamica, con il mondo microscopico, governato dalla meccanica classica e
quantistica. Il linea di massima si potrebbe studiare un sistema di N particelle con il
solo ausilio delle leggi del moto classico. Il problema di un approccio di questo tipo
sta nella necessità di conoscere esattamente le condizioni iniziali per poi conoscere
l’evoluzione temporale. Una descrizione probabilistica del sistema microscopico può
tornarci utile.
5
Soggettivo: risultato basato su considerazioni teoriche. Necessario nel momento
in cui viene a meno la conoscenza precisa dei risultati ottenuti. I risultati
cosı̀ ottenuti dovrebbero sempre essere verificati sperimentalmente con analisi
oggettiva.
Figura 1.1
Intuitivamente significa pesare sulla p(x) e sommare i valori assunti dalla fun-
zione F (x) nel continuo di x. F(x) è essa stessa una variabile random ed è
perciò possibile operare su di essa nel modo in cui si opera con qualsiasi va-
riabile. Denominiamo i valori da essa assunti f . Cerchiamo ora di instaurare
una relazione tra le variabili x e f con l’ausilio dell’interpretazione di un gra-
fico come quello mostrato in figura 1.2. Possono esserci molteplici soluzioni xi
6
Figura 1.2
7
Funzione generatrice dei cumulanti viene definita come il logaritmo della fun-
zione caratteristica. La sua espansione va a generare i cumulanti della distri-
buzione: ∞
X (−ik)n n
ln (p̃(k)) = hx ic (1.2)
n=1
n!
Per ottenere un’espressione dei cumulanti a partire dai momenti della distri-
buzione è possibile procedere in questo modo:
Partiamo dalla definizione di cumulante ovvero ln p̃(k) ed esplicitiamo p(k) in
serie di potenze anch’esse centrate nell’origine come il logaritmo. Otteniamo
dunque
∞
X (−ik)n n
ln p̃(k) = ln(1 + hx i). (1.3)
1
n!
| {z }
P∞ n+1 n
Ricordandoci che: ln(1 + ) = 1 (−1) n
, la formula (1.3) diventa:
∞ ♣
n
n+1
X
ln p̃(k) = (−1)
1
n
hxic = hxi
I cumulanti forniscono una via facile e intuitiva per descrivere una PDF. Per
esempio, il primo cumulante è comunemente chiamato media, il secondo è
conosciuto come varianza e misura lo scostamento della curva associata alla
PDF dalla media. Il terzo cumulante è la skewness e misura il grado di asim-
metria della curva rispetto alla media. Il quarto cumulante è conosciuto come
8
curtosi e misura lo spessore delle code della distribuzione o in altri termini il
suo grado di appiattimento.
Figura 1.3
9
termine di (1.4):
Y
1 + (−ik)n hxn ic + (−ik)2n hxn i2c =
n
1 + (−ik)hxic + (−ik)2 hx2 i2c 1 + (−ik)2 hx2 ic + (−ik)4 hx2 i2c =
∞
2 2 2 2
X (−ik)m m
1 + (−ik)hxic + (−ik) hxic + (−ik) hx ic ... = hx i
m=0
m!
10
Le derivate della funzione caratteristica possono risultare utili se valutate nel punto
1. Infatti:
fK (1) = P (K = 0) + P (K = 1) + . . .
X
fK0 (1) = P (K = 1) + 2P (K = 2) + 3P (K = 3) = kP (K = k) = hKi
k
ecc . . .
11
Risulta ora facile computare i momenti della distribuzione utilizzando il teorema
(1.3):
hxi = λ
hx2 i = λ2 + σ 2
hx3 i = 3σ 2 λ + λ3
ecc . . .
Con
N N!
=
NA (N − NA )!NA !
che è noto come coefficiente dell’espansione binomiale di (pA + pB )N . Esso da il
numero di modi in cui è possibile ordinare N eventi di tipo A e B, considerando
gli eventi dello stesso tipo indistinguibili. Infatti, se avessimo N eventi tra loro di-
stinguibili avremmo un coefficiente N !. La necessità è poi quella di dividere questo
numero di eventi per il numero di scambi che si possono effettuare nell’insieme dei
due eventi, per ogni possibile combinazione (infatti facciamo un prodotto tra il nu-
mero di scambi di A e B).
Ci chiediamo ora se questa pA (NA ) sia normalizzata. Andiamo a sommare su tutti
gli NA possibili nel discreto (il limite al continuo di questa operazione porta alla nor-
malizzazione come definita precedentemente mediante l’uso dell’integrale su tutto
R):
XN X N N N −N
pA (NA ) = pA A pB A = (PA + PB )N = 1
N =0
NA
A
ln p̃(k) = N ln pA e−ik + pB
12
puramente matematico. Matematicamente, data l’espressione della generatrice che
possiamo riscrivere come
ln p̃(k) = N ln (p̃(k))
possiamo derivare l’espressione per i cumulanti da un confronto dell’espansione in
Taylor per il ln p̃(k) (essendo l’argomento nel dominio in cui il logaritmo è una
funzione intera) con l’espansione della stessa funzione in serie di potenze più generica
come quella usata nella definizione della generatrice centrata nell’origine. Infatti, in
generale, per una funzione intera complessa si può scrivere:
∞
X f (k) (0)
f (z) = zk
k=0
k!
Confrontando i termini di questo sviluppo con la (1.2), si osserva che alla derivata
di ordine n-esimo corrisponde l’n-esimo cumulante.
Quindi:
∂ ln p̃(k)
hNA ic = − = N pA
∂ik k=0
e derivando ulteriormente la derivata prima:
hNA2 ic = N pA pB
hNA ic = N pA
hNA2 ic = N (pA − p2A ) = N pA pB
Si può notare come la media vada a scalare come N , mentre √ la deviazione stan-
dard, ovvero la radice quadrata
√
della varianza, scala come N . Risulta che l’incer-
N
tezza relativa scala come N e quindi diventa man mano più piccola al crescere di
N . Tale distribuzione si può facilmente generalizzare alla distribuzione multinomiale
ovvero con più possibili risultati.
13
Le probabilità di eventi in intervalli differenti sono indipendenti le une dalle altre.
Tale risultato mostra chiaramente come i soli possibili valori di x siamo gli interi M .
La probabilità che avvengano M eventi in T è dunque:
(αT )M
pαT (M ) = e−αT
M!
I cumulanti sono ottenuti dall’espansione:
+∞
−ik
X (−ik)n
ln p̃αT (k) = αT e − 1 = αT
n=1
n!
14
1.4 Più Variabili Aleatorie
Consideriamo un set di più variabili casuali che vanno dunque a definire uno spa-
zio N-dimensionale, Sx = {−∞hx1 , x2 , ..., xN h∞}. Per esempio, nel moto di una
particella abbiamo più gradi di libertà da considerare. Per esempio, lo stato di un
sistema a N particelle, in termini di coordinate generalizzate può essere descritto da
un set di N posizioni: xN = {x1 , ..., xN }. La probabilità che il sistema si trovi in un
determinato stato è data da:
15
scelta tra tre possibili porte dietro una delle quali si ha la possibilità di trovare
una macchina. Una volta compiuta la scelta, una delle porte senza macchi-
na viene scartata dal presentatore stesso, il quale chiederà poi al giocatore se
desidera mantenere la porta scelta precedentemente o se desidera cambiare la
scelta. Cosa fareste?
La probabilità post esclusione di una porta risulta essere una probabilità con-
dizionata dalla scelta del presentatore. Cerchiamo dunque di portarci a casa la
macchina utilizzando il teorema di Bayes. Riscriviamolo innanzitutto in una
forma più comoda a questa applicazione:
p(A ∩ B)
p(A|B) =
p(B)
Da cui, scrivendo il Bayes per una p(B) condizionata, p(A ∩ B) = p(A)p(B|A)
e quindi:
p(A)p(B|A)
p(A|B) =
p(B)
Definiamo p(A1,2,3 ) = 0.3 la probabilità non condizionata di trovare la macchi-
na (prima dell’intervento del presentatore). Definiamo con p(B) la probabilità
dell’esclusione di una delle due porte dal giocatore non scelte. Per forza di cose
p(B) = 0.5 in tutti i casi indipendentemente dalla nostra scelta. Definendo poi
p(B|A) come la condizionata per il presentatore nella scelta di una delle porte
da aprire successivamente alla nostra scelta:
16
Da cui poi è possibile ricavare i momenti e i cumulanti p-esimi come deriva-
te parziali p-esime in kn di p̃(k = 0) e ln p̃(k = 0). Regge ancora il metodo
utilizzato precedentemente, vedi equazione (1.3), per il calcolo dei momenti a
partire dai cumulanti. Sarà solamente necessario andare a numerare le palline
in funzione della variabile considerata.
Le correlazioni connesse come hxα ∗ xβ ic sono nulle se le variabili in gioco
sono indipendenti.
hX n ic = N hxni ic
17
NB: la distribuzione normale è l’unica con soltanto primo e secondo cumulante.
La convergenza della PDF per la somma di molte variabili aleatorie alla distribuzione
normale è il risultato di un teorema più generale noto come teorema del limite
centrale. Tale teorema viene formalmente introdotto nel seguente modo:
data una serie di variabili identicamente ed indipendentemente distribuite
√ (i.i.d.)
con media µ e varianza σ 2 finita, la PDF della variabile aleatoria N /(SN − µ)
converge alla distribuzione normale con media nulla e varianza σ 2 .
Da notare che la condizione di indipendenza delle variabili non è forte, infatti è
sufficiente che:
XN
hxi1 ...xim ic << O N m/2
i1 ,...,im
Esso può essere approssimato dal massimo valore che l’integranda assume in corri-
spondenza del punto xmax che va a massimizzare φ(x). Espandendo l’esponente in
Taylor intorno a tale punto:
Z
1 00 2
I = dx exp N φ(xmax ) − |φ (xmax )|(x − xmax ) + ...
2
18
La derivata prima nel massimo va ad annullarsi e la derivata seconda risulta essere
negativa. Troncando quindi al secondo ordine otteniamo:
Z s
N 2π
I ≈ eN φ(xmax ) dx exp − |φ00 (xmax )|(x − xmax )2 = 00
eN φ(xmax )
2 N |φ (xmax )|
(1.14)
Un esempio applicativo è quello relativo all’approssimazione di Stirling per
N !. Partiamo dall’ottenere una rappresentazione del fattoriale, che possiamo vedere
come funzione gamma di Eulero:
Z ∞
N! = dxxN e−x
0
Per verificarla è sufficiente procedere con successive derivazioni per parti e il tred si
vede subito. La gamma non ha la forma dell’integrale (1.13), ma possiamo ricondurci
ad esso andando a scrivere: φ(x) = ln x − x/N . φ(x) ha un massimo in xmax = N
con quindi φ(xmax ) = ln N − 1 e φ00 (xmax ) = − N12 . Utilizzando la (1.14) si ottiene
quindi: √
N ! = N N e−N 2πN
Dal logaritmo:
1
ln N ! = N ln N − N + ln(2πN ) (1.15)
2
19
Capitolo 2
Il Random Walk
Iniziamo con un caso semplice relativo a questo tipo di problemi, il caso del tiro
della moneta. Tiriamo N volte una moneta e per ogni lancio registriamo testa come
un passo avanti (associamo il numero +1) e croce come un passo indietro (associamo
il numero -1). Quanto sarà grande la somma ovvero Teste - Croci ??
Le probabilità che io vada avanti o indietro sono ovviamente le stesse e sono 1/2.
Ovviamente la media sarà nulla e risulta infatti utile andare a considerare altri
cumulanti in questo caso.
Partiamo dal considerare la varianza σ 2 = hSN 2
i. Dalla definizione standard,
come trasposizione del caso continuo al discreto con due possibili outcome, andiamo
a sommare sui possibili SN moltiplicandoli per le loro probabilità: ... Nel caso di un
solo passo, abbiamo varianza :
il termine centrale si annulla poichè le sue componenti sono tra loro scorrelate per
costruzione e il termine destra scompare poichè media del singolo passo. Il risultato
20
mostra come effettivamente ad ogni passo la varianza aumenti di 1 rispetto al pas-
so precedente. Tale risultato può anche essere ottenuto direttamente a partire dal
n
risultato precedente: hSN ic = N hS1n ic da cui è evidente poi che dopo N lanci
2
hSN i=N
Da cui √
σN = N
con |l| = L e direzione casuale. In questo caso è necessario escludere una correlazione
tra passi diversi imponendo la condizione
hl~n · l~m i = L2 hcosθi = L2 δn,m
Viene messo in evidenza il fatto che nel momento in cui i due passi considerati sono
diversi, essendo la direzione casuale, il coseno dell’angolo mediato dà un risultato
nullo poichè tutti i θ sono equamente probabili.
Facendo tesoro di questa considerazione si può procedere con il calcolo della varianza:
~N
hS 2 ~N −1 + ~lN )2 i = hS
i = h(S ~N −1 i + h2~lN S
~N −1 i + h~lN
2 ~N
i = hS 2 2
−1 i + L = N L
2
√
Da cui: σ = N L √
Il fatto che l’RMS scali come N ci permette di fare alcune considerazioni sul com-
portamento di questo sistema e di tutti i sistemi che vanno a scalare in questo modo.
Innanzi tutto possiamo introdurre il concetto di universalità. Infatti, si può notare
che il processo scala come una potenza di N indipendentemente dalla dimensione
dello stesso e dalle lunghezze dei passi, che potrei definire addirittura in modo sto-
castico. Tali processi appartengono alla stessa classe di universalità e lo mostrano
attraverso le proprietà emergenti, ovvero che possiamo andare a leggere a livello
macroscopico e che sono indipendenti dal microscopico. Sono interessanti poichè le
proprietà universali sono una caratteristica dei cambiamenti di fase, dove si trova-
no degli esponenti che descrivono la dipendenza del processo da alcune grandezze
termodinamiche. Inoltre è un processo che mostra invarianza di scala ovvero, se
prendo un cammino RW e lo spezzo in più parti casuali, esse saranno altrettanto
frastagliate e casuali. Tuttavia, nonostante tutti i RW di dimensione N siano diversi,
l’insieme di questi cammini è molto simile a quello dei cammini di dimensione N/4 a
condizione che N sia sufficientemente grande. Infatti, nel momento in cui esso inizia
a diminuire iniziano a vedersi le differenze tra questi insiemi.
21
Per esempio possiamo considerare i ripiegamenti di un oggetto con snodi casua-
li e imponendo che nei ripiegamenti si vadano ad evitare sovrapposizioni. Questo
tipo di cammino aleatorio viene chiamato self avoiding random walk e viene
utilizzato per la simulazione di polimeri. Il vincolo sui ripiegamenti introduce un
esponente ν > 12 . Nel caso 2D, per cui si può risolvere esattamente questo problema,
l’esponente trovato è ν = 3/4.
Un’altra cosa che si può fare è utilizzare dati empirici. Un esempio può essere
il controllo della varianza del prezzo (l’andamento del prezzo è infatti una serie
temporale). In questo caso la valutazione dell’esponente della legge con cui scala ci
può dare informazioni qualitative sul fenomeno. Per esempio:
ν > 1/2: abbiamo tendenzialmente una maggior correlazione tra i passi nel RW
dove la nostra variabile aleatoria è η(t). Il logaritmo del prezzo è un processo RW.
Per ridurre i salti il modello è quello che si dice essere un RW moltiplicativo.
Prendiamo dunque S(t) = ln x(t), ora definendo S(t + δ(t)) = S(t) + ln η ci siamo
ricondotti al RW classico.
22
a l t.c.
Z +∞
dl χ(l) = 1(condizione di normalizzazione)
−∞
Z +∞
dl lχ(l) = 0(primo momento nullo. Simmetria nell’origine)
−∞
Z +∞
dl l2 χ(l) = a2 (secondo momento finito. Grandezza tipica definita)
−∞
Assumiamo che non ci sia correlazione tra i passi, quindi hl(t)l0 (t)i = a2 δ(t − t0 ).
Questo implica che:
hx2 (t + δt)i = h(x(t) + l(t))2 i = hx(t)2 i + 2hx(t)l(t)i + hl2 (t)i = hx2 (t)i + a2
Ad ogni passo δt aggiungiamo quindi a2 . Ora, data la ρ(x), come evolve la distribu-
zione? Sarà una convoluzione su tutti i possibili valori del mio passo (integro nella
variabile di partenza) da x0 al tempo t a x al tempo t + δt.
Z +∞
ρ(x, t + δt) = dx0 ρ(x0 , t)χ(x − x0 )
−∞
∂ρ z 2 ∂ 2 ρ
ρ(x − z) = ρ(x) − z +
∂x 2 ∂x2
Da cui:
Z +∞ +∞ +∞ +∞
1 ∂ 2ρ
Z Z Z
∂ρ
dzρ(x − z)χ(z) = ρ(x) dzχ(z) − dzχ(z)z + dzz 2 χ(z) =
−∞ −∞ ∂x −∞ 2 ∂x2 −∞
a2 ∂ 2 ρ
ρ(x, t) +
2 ∂x2
Quindi:
ρ(x, t + δt) − ρ(x, t) a2 ∂ 2 ρ
=
dt 2dt ∂x2
e
ρ(x, t + δt) − ρ(x, t) ∂ρ ∂ 2ρ
lim = =D 2
dt→0 dt ∂t ∂x
a2
dove D = limdt→0 2dt
Nota che perchè il limite che definisce D abbia un √ valore sensato, la varianza
deve scalare (andare a zero) nello stesso modo in cui dt va a zero. Fisicamente, se
l’intervallo lo prendo più piccolo anche il passo andrà a ridursi. a2 è quindi un valore
fissato a dt fissato.
(approved by Echis)
23
2.5 Correnti di Materia e Generalizzazione del
Random Walk
2.5.1 In Assenza di Forzanti
Consideriamo il caso di un random walk soggetto a forze esterne. Per esempio un
sistema atomico con moti random a cui ad un certo punto viene applicato un campo
elettrico. Prima di trattare un sistema di questo tipo è importante mostrare che
esiste una legge di conservazione della materia e come questa si ripercuote sui risul-
tati. La figura 2.1 mostra un elemento nello spazio con estensione unidimensionale
Figura 2.1
∆x. In tale elemento abbiamo una corrente di materia in ingresso J(x) e in usci-
ta J(x + ∆x). All’interno dell’elemento abbiamo un numero n(x) di punti (in cui
possiamo trovare i nostri oggetti che si muovono di random walk) e data la densità
dei RW possiamo scriverlo come: n(x) = ρ∆x. Qual’è la variazione del numero di
particelle nell’elemento considerato? Essa sarà il risultato della differenza la corrente
in ingresso meno la corrente in uscita e tale affermazione regge grazie al principio
di conservazione della massa e all’assenza di pozzi o sorgenti all’interno. Abbiamo
quindi:
∂n ∂ρ
= J(x) − J(x + ∆x) = ∆x
∂t ∂t
Da cui:
δρ J(x) − J(x + ∆x) ∂J
= =−
δt ∆x ∂x
quindi la variazione della densità nel tempo è uguale alla variazione spaziale della
corrente! Esprimiamo ora J in funzione della densità. Possiamo ora ricordarci che
la ∂ρ
∂t
deve seguire l’equazione di diffusione e quindi l’unica scelta possibile per J è :
∂ρ
Jdif f (x) = −D
∂x
abbiamo quindi un bias netto dello step proporzionale alla mobilità γ e γF rappre-
senta l’elemento di velocità istantanea dovuto nel nostro caso ad un moto viscoso.
1
Trattando il moto viscoso secondo il modello di Stokes-Einstein abbiamo γ = 6πηR .
Nel modello consideriamo una sfera di raggio R a cui imponiamo una velocità v in
un fluido viscoso, la forza di drag viene cosı̀ definita:
Fd = −σπηvR
24
Possiamo quindi scrivere (per un intervallo di tempo lungo abbastanza da poter
F
considerare la velocità costante): mv̇ = F + Fd = 0 da cui v = 6πηR = γF .
Quindi, trattando il problema linearmente, avremo i termini della diffusione
(originati da l(t)) a cui si aggiunge un termine nato dalla forzante:
∂ρ ∂ρ
= D∇2 ρ − γF
∂t ∂x
Dimostrazione. Consideriamo una variazione della densità senza considerare la parte
casuale del moto dei sistemi. Questo ci permette di trattare la densità in modo rigido
e di scrivere una sua traslazione come uno spostamento della stessa dovuto alla
forzante: ρ(x, t+∆t) = ρ(x−γF ∆t, t) da cui espandendo linearmente in x: ρ(x, t)−
∂ρ
γF ∆t ∂x da cui dividendo per ∆t e facendo il limite otteniamo il termine da noi
cercato.
Per comodità riscriviamolo come:
∂ρ ∂ ∂ρ
= D − γF ρ
∂t ∂x ∂x
Quindi:
∂ρ
J = ργF − D (2.2)
∂x
Abbiamo quindi trovato l’andamento della densità nella situazione stazionaria ovvero
la soluzione all’equilibrio indipendente dal tempo per un RW in un campo gravita-
zionale. Rispetto al caso senza forzante si ha quindi l’introduzione di una lunghezza
25
caratteristica (prima assente). La forza esterna, introducendo la lunghezza caratte-
ristica, va quindi a rompere l’invarianza di scala. La lunghezza caratteristica risulta
essere . L’invarianza di scala è quindi universale ma con condizioni molto stringenti
e richiede l’assenza della rottura della simmetria dei moti a causa di una forzante.
Questo fenomeno è alla base delle transizioni di fase.
Da cui, antitrasformando :
Z
1
ρ(x, t) = eikx ρ̃k (t)dk
2π
Abbiamo cosı̀ ottenuto la soluzione del problema generica a onde piane. Ogni compo-
nente dello sviluppo seguirà l’equazione di diffusione. Possiamo poi andare a ritroso
e verificare la soluzione da noi trovata:
Z Z
∂ρ(t) 1 ikx ∂ ρ̃k (t) dk
= e = −Dk 2 eikx ρ̃k (t)
∂t 2π ∂t 2π
Quindi, sostituendo la soluzione del problema ad onde piane nell’antitrasformata
otteniamo:
Z Z Z
1 0 −ikx0 −k2 Dt 0 1 0 2
ρ(x, t) = eikx
dx e ρ(x , 0)dk = dkdx0 ρ(x0 , 0)eik(x−x )−k Dt
2π 2π
26
Risolvendo con Gauss:
r Z
1 π (x−x0 )2
dx0 ρ(x0 , 0)e− 4Dt (2.3)
2π Dt
dove l’integrale rappresenta una convoluzione di gaussiane in x e il risultato dipen-
derà dalla forma della densità iniziale.
Supponiamo ora di lavorare con un kick di densità iniziale:
ρ(x, 0) = δ(x)
G è nota come funzione di Green. Da cui la soluzione generale può essere scritta
come: Z
ρ(x, t) = dx0 G(x − x0 )ρ(x0 , 0)
Il risultato ottenuto è quindi espresso come una convoluzione dal punto iniziale.
In generale la funzione di Green descrive l’evoluzione di uno stato iniziale in un
punto, nel nostro caso la diffusione di particelle da un punto iniziale x0 . Nel caso da
noi considerato il kick (delta di Dirac) rappresenta la situazione in cui le particelle
sono inizialmente concentrate in un unico punto. La green G(x, t) a questo punto
rappresenta l’evoluzione di questo stato G(x, 0) = δ(x). Il risultato è che G(x, t) =
2
q
1 x
4πDt
e 4Dt e generalizzandolo, alla luce dell’equazione (2.3), otteniamo che con una
(x−x0 )2
q
G(x − x0 , t) = dx ρ(x , t)e− 4Dt è valida la formula di convoluzione più
1
R 0 0
4πDt
generale: Z
ρ(x, t) = dx0 G(x − x0 )ρ(x0 , 0)
27
Capitolo 3
Queste grandezze mi definiscono quello che si chiama spazio delle fasi 6N dimen-
sionale. In questo spazio possiamo dunque definire grandezze derivate per descrivere
il moto del sistema come la velocità generalizzata (considerando la stessa massa per
F
tutti gli atomi): Q̇ = m e la forza generalizzata: Ṗ = F(Q). Ora dovremmo mediare
su tutte le traiettorie per conoscere l’evoluzione temporale del sistema e ciò richie-
derebbe di risolvere l’equazione del moto per tutte le 6N coordinate. E’ ovviamente
impensabile un approccio del genere. Boltzmann ipotizzò invece che la dinamica
28
di un sistema cosı̀ alto dimensionale sia in grado di esplorare tutto lo spazio delle
fasi in maniera uniforme. Si va dunque a studiare il sistema dopo tempi lunghi, in
modo tale che esso abbia avuto il tempo di esplorare tutto lo spazio a disposizione
con il vincolo che l’energia totale rimanga costante (è una grandezza invariante per
l’hamiltoniana se il sistema è conservativo):
P2
H= + U (Q) = E
2m
Essendo l’energia conservata e il campionamento dello spazio uniforme, ogni stato
risulta avere lo stesso peso e questo implica che nel calcolo di una proprietà è suffi-
ciente andare a pesarla sulla frazione dello spazio delle fasi che occupa il sistema. La
frazione corrisponde poi al volume. Nel caso di uno spazio 2D siamo interessati alla
shell di energia: EE + δE. Il sistema sarà dunque in questa zona ad energia costante
e noi contiamo il volume in un piccolo guscio con incertezza δE (se prendessimo
la sola linea a E costante avremmo un insieme a misura nulla e il calcolo sarebbe
inutile).
Calcoliamo dunque Ω(E)dE 1 ovvero il volume dello sdf occupato dal mio sistema
hamiltoniano all’equilibrio e descritto da energia totale E o meglio E +δE. Possiamo
scrivere formalmente questo concetto con l’integrale:
Z
d3N Qd3N P
E<H(Q,P )<E+dE
29
la densità è uniforme e quindi tutti gli stati alla stessa energia hanno lo stesso peso.
Possiamo fare un parallelo con un dado dove Ω(E) è l’insieme di tutti i risultati
possibili e 1/6 è la densità di probabilità associata ad uno dei possibili risultati.
Questa ipotesi con E = costante ovvero un sistema isolato è l’ipotesi alla base del-
l’ensemble microcanonico in cui possiamo quindi considerare valida l’assunzione
che tutti gli stati alla stessa energia siano equamente probabili.
Ogni atomo ha dunque la stessa probabilità di trovarsi in qualsiasi punto del mio
volume.
1 2N 2N
pm = 2N (N + m)−(N +m) (N − m)−(N −m)
2
Da cui raccogliendo N otteniamo
m −(N +m) m −(N −m)
1+ 1−
N N
30
Passando al limite termodinamico otteniamo:
−N
m2
m −m m m m2
1− 2 1+ 1− = e− N
N N N
q
N
Tale risultato può essere visto come una gaussiana con σ = 2
. Abbiamo quin-
√
di una fluttuazione spaziale assoluta che cresce come N , mentre le fluttuazioni
relative decrescono come √1N .
Nel caso 2D, facile da visualizzare, abbiamo la scomposizione del momento √ a dare:
2 2
x + y = 2mE. Questo è un cerchio nel piano 2D con raggio R = 2mE. In
3D il raggio della sfera è lo stesso e dalla sfera possiamo generalizzare il risultato
alle 3N dimensioni ottenendo una sfera 3N dimensionale. Matematicamente una
sfera di questo tipo viene considerata 3N − 1 dimensionale. Questo perchè viene
considerata la dimensionalità all’interno della sfera piuttosto che quella espressa
nello spazio esterno dell’osservatore. Una sfera nello spazio 3D vive in uno spazio 2D
poichè ,una volta fissato il raggio nelle tre dimensioni con pitagora, quello che rimane
necessario per definire la sfera sono due coordinate angolari. Una sfera con queste
dimensioni viene quindi indicata con Sl−1 . Ora dalla ipersuperficie della ipersfera
l−1
√R è necessario
S p discostarsi di δE ottenendo una ipercrosta data dai due raggi:
2mE e 2m(E + δE). Abbiamo dunque:
1 3N −1
3N −1
Ω(E) = µ S√ − µ S 2mE
√
δ(E) 2m(E+δ(E))
Quello che dobbiamo fare è dunque lavorare con volumi di ipersfere. Per il calcolo
esplicito di questi ipervolumi vedi il paragrafo 3.1.3.1.
Possiamo scrivere:
√ !
d 3N −1 d π 3N/2 ( 2mE)3N
Ω(E) = µ S√2mE = 3N
dE dE 2
!
31
Figura 3.1
3N
π 2 (3N m) 3N −2
Dividiamo ora per il volume totale esplicitando il raggio: Ω(E) = 3N R .
( 2)!
Otteniamo:
3N
(R0 )3N −3 R0 R2
Ωp (E) 1
ρ(p1 ) = 1 = π − 2 CN 3N −2 ∝
Ω(E) R R (R0 )3
La funzione
q di distribuzione dei momenti ottenuta ha la forma di una gaussiana
con σ = 2mE 3N
. Rinormalizzata correttamente otteniamo:
2
1 3N p1
ρ(p1 ) = q e− 2 2mE (3.1)
4mEπ
3N
32
distribuzione dei momenti è stato fatto in totale assenza di conoscenza delle traiet-
torie atomiche del sistema !!!
Dalla distribuzione è possibile fare alcune considerazioni. Innanzi tutto possiamo
considerare p1 come la latitudine della sfera, considerazione che ha senso (vedi im-
magine 3.1), dunque dalla distribuzione gaussiana
q si può intuire che la maggior parte
dell’area superficiale è concentrata tra ± 2mE
3N
dall’equatore. Quindi per le ipersfe-
re è generalmente vero che gran parte dell’area superficiale è concentrata nei pressi
dell’equatore. Geometricamente sembra assurdo, ma a livello di meccanica statistica
ha senso. Si pensi infatti alla distribuzione in un gas ideale dove l’energia cinetica
risulta essere circa equamente divisa tra tutte le componenti di tutti i momenti, ora
la probabilità che uno di questi momenti abbia ad esso associato gran parte dell’e-
nergia cinetica totale (situazione di lontananza dall’equatore) è intuitivamente poco
probabile.
2E
Ora, dalla definizione di temperatura che vedremo prossimamente, kb T = 3N .
Sostituendo questa relazione nella (3.1) otteniamo:
p2
1 − 3N 1
ρ(p1 ) = √ e 2 2mkb T
(3.2)
2mkb T π
da cui possiamo ricavare l’importante teorema di equipartizione dell’energia:
p21 1
h i = kb T
2m 2
secondo cui ogni grado di libertà in approssimazione armonica, in equilibrio e in un
sistema classico, ha energia media pari a 12 kb T . Inoltre questo è il primo esempio
di distribuzione di Boltzmann per cui la probabilità che una particella abbia
energia cinetica K = p21 /2m è proporzionale a exp(− kK bT
).
Nota: dietro alla descrizione termodinamica che usiamo si nasconde una grande
assunzione di base ovvero l’ergodicità del sistema nel campionamento dello spazio
delle fasi. Infatti perchè reggano i calcoli di densità di probabilità fatti è necessario
che il sistema vada a campionare tutto lo spazio delle fasi in modo uniforme, ovvero
senza zone non campionate o buche di potenziale in cui rischia di trascorrere più
tempo.
Γ(x) = (x − 1)Γ(x − 1)
e continuando lo sviluppo:
Γ(x) = (x − 1)!
33
La funzione gamma risulta quindi essere una generalizzazione del fattoriale oltre il
campo reale e per n che può assumere anche valori non interi. Infatti possiamo scrive-
re per i seminteri: Γ(n/2) e risolvere per n pari o dispari sostituendo rispettivamente
n = 2w o n = 2w + 1. Nel primo caso otteniamo semplicemente:
n
Γ(w) = (n/2)! = Γ( + 1)
2
√
Per n dispari: Γ( 2w+1
2
) = Γ(w + 12 ). Notiamo che Γ(1/2) = π. Sviluppando la
gamma e raccogliendo 2 al denominatore possiamo riscriverne il valore come:
(2w − 1)!! √
Γ(w + 1/2) = π
2w
Passiamo ora all’estensione del concetto di coordinata polare in RN in relazione
alle coordinate euclidee (cartesiane fino al caso 3D). Una coordinata può essere
vista come una proiezione dallo spazio di una dimensione superiore. Per esempio,
x1 = ρcos(φ1 ) ovvero abbiamo la singola proiezione da uno spazio 2D allo spazio
1D di x1 . Salendo di dimensione, in 2D abbiamo la proiezione dallo spazio 3D:
x2 = ρ sin(φ1 ) cos(φ2 ). Continuando a salire di dimensione possiamo man mano
definire nuove coordinate euclidee e troviamo la relazione più generale:
dove: ρ = |~x| e, sempre chiaro dal passaggio 3D-2D, φn−1 ∈ [0, 2π), mentre tutti gli
altri angoli variano in [0, π].
Possiamo ora pensare alla forma che avrà l’elemento infinitesimo di ipervolume
sempre estendendo il trend nel passaggio 2D a 3D e senza una derivazione formale a
partire dalla corrispondenza tra elementi di volume e quindi il calcolo del Jacobiano:
dove w(φ1 . . . φn−1 ) è funzione dei seni e coseni degli angoli indicati ed è frutto
dell’espressione del Jacobiano.
Per il calcolo dell’ipervolume partiamo dalla definizione più generale come
integrale n-dimensionale: Z
V ol(Rn ) = d~x
|~
x|
3
passando alle coordinate polari:
Z R Z Z R
n n−1
V ol(R ) = ρ dρ P w(φ1 . . . φn−1 )dφ1 dφ2 . . . dφn−1 = ωn ρn−1 dρ
0 0
l’integrale sul raggio non crea grossi problemi, mentre è di vitale importanza trovare
un modo semplice per calcolare la parte angolare. Per farlo possiamo appoggiarci ad
3
per ~x si intende il vettore N-dimensionale delle coordinate
34
una funzione di supporto ovvero l’integrale di gauss generalizzato alle N dimensioni
dove il Jacobiano per il passaggio alle polari risulta essere il medesimo:
√
Z
2
e−|~x| = ( π)n
Rn
passando in polari: Z ∞ √
2
ωn ρn−1 e−ρ dρ = ( π)n
0
RR 2
La gamma di Eulero entra in gioco ora per il calcolo di 0 ρn−1 e−ρ dρ. Con una
sostituzione u = ρ2 otteniamo
Z ∞
1 ∞ ( n2 −1) −u
Z
(n−1)/2 −u du 1 n
u e √ = u e du = Γ
0 2 u 2 0 2 2
Da cui:
2π n/2
ωn =
Γ(n/2)
Tornando al volume della ipersfera:
ρn 2π n/2 n π n/2 n
V ol(Rn ) = ωn = ρ = n ρ
n nΓ( n2 ) n
2
Γ( 2
)
35
Intuitivamente il concetto di volume come prodotto di volumi a minor dimensiona-
lità non è affatto intuitivo, ma può essere facilmente dimostrato attraverso l’utilizzo
delle funzioni delta di Dirac. Partiamo dalla definizione più generale di Ω(E):
Z
Ω(E) = dP1 dQ1 dP2 dQ2
E<H1 +H2 <E+δE
Derivando otteniamo:
( )
1 dΩ1 (E1 ) dΩ2 (E − E1 )
Ω2 (E − E1 ) − Ω1 (E1 ) =0
Ω(E) dE1 E1 =E ∗ dE1
E2 =E−E ∗
1 1
Da cui:
1 dΩ1 (E1 ) 1 dΩ2 (E − E1 )
=
Ω1 dE1 E1 =E ∗ Ω2 dE1
E2 =E−E ∗
1 1
S = Kb ln Ω
36
L’entropia totale E1 + E2 è dunque massimizzata. Quindi, all’equilibrio termico:
dS1 dS2
=
dE1 dE2
Ora, all’aumentare dell’energia, il valore del rapporto decresce e possiamo dunque
introdurre su questa base una nuova grandezza termodinamica, la temperatura:
1 ∂S
=
T ∂E V,N
E’ importante ricordarsi che i passaggi sono stati fatti a volume e numero di particelle
costanti. All’equilibrio, con massima E1 , risulta dunque:
1 1
=
T1 T2
ovvero: T1 = T2 .
(E1 − E1∗ )2
ρ(E1 ) ' C exp −
2σ 2
ovvero una distribuzione gaussiana centrata nel valor medio E1∗ che risulta crescere,
per estensività 4 delle grandezze termodinamiche, come N . Abbiamo poi:
1 ∂ 2 S1 ∂ 2 S2
1
=− +
σ2 kb ∂E12 ∂E22
4
L’estensività deriva dall’additività della proprietà stessa nel momento in cui considero la globale
sul sistema come generata da una somma della stessa su N sistemi più piccoli in cui vado a dividere
il mio. L’additività tra i sottoinsiemi è a sua volta figlia della natura stessa delle interazioni tra le
particelle. Infatti è necessario che il contributo dell’interfaccia tra i sistemi sia trascurabile rispetto
al bulk. Questo succede quando le interazioni sono short-range, ma cade quando le interazioni
iniziano ad essere long-range come nel caso gravitazionale o elettrostatico. Tocchiamo con mano
l’additività dell’entropia con l’esempio visto prima per il sistema diviso in due interagenti: Ω(E) =
(E1 −E1∗ )2
√
dE1 Ω1 (E1 )Ω2 (E − E1 ) = √Ω1 (E1∗ )Ω2 (E2∗ ) e− 2σ2 = Ω1 (E1∗ )Ω2 (E2∗ )( 2πσ) da cui: Stot =
R R
S1 (E1∗ )+S2 (E −E1∗ )+kb ln( 2πσ). Abbiamo quindi una buona estensività a meno della correzione
sulle oscillazioni del sistema all’interfaccia introdotte dall’ultimo termine.
37
che quindi cresce come 1/N , da cui:
σ2 ∝ N
Da cui le fluttuazioni relative (fluttuazione over valore medio, remember RW) risul-
tano essere: √
σ2 1
∗
'√
hE1 i N
Nel limite termodinamico è dunque sensato dire che la distribuzione è molto piccata.
Abbiamo finora lavorato con due sistemi all’equilibrio microcanonico a formare un
sistema più grande a E costante e in assenza di scambio di particelle e variazione di
volume tra i due sottosistemi. Andremo ora a valutare altri casi.
38
tali relazioni, per essere consistenti, devono poter essere ricavate da quelle da noi
trovate, vedi equazioni (3.4). Per muoversi tra le due espressioni possiamo utilizzare
alcune proprietà di queste derivate prime. Una proprietà è che queste derivate devono
”disegnare”, se rappresentiamo la funzione S(E, V ) come una superficie, un triangolo
chiuso. Questo può essere verificato se pensiamo al percorso nello spazio se andiamo
a muoverci da un punto a ad un punto d secondo queste derivate parziali abbiamo
una distinzione in tre tratti:
P
a-b: Sb − Sa = (Vb − Va )
T
b-c: Ec − Eb = −P (Vc − Vb )
c-d: Ed − Ec = T (Sd − Sc )
Sostituendo le grandezze opportune da un tratto al successivo otteniamo l’identità:
c −Ea )(Vb −Va ) d −Ec )
− (E
(Va −Vb )(Sb −Sa )
= (E
(Sd −Sb )
che può essere facilmente verificata per Va = Vc e Ed = Ea ,
Sd = Sa ovvero creando un tratto a V-costante tra c e a e sovrapponendo quindi a
e d. Abbiamo dunque ottenuto una sorta di triangolo chiuso come quello mostrato
in figura 3.2. Questa chiusura implica un’importante proprietà di queste derivate
parziali, ovvero:
∂S ∂E ∂V
= −1
∂E V,N ∂V S,N ∂S E,N
Dimostrazione. Consideriamo per comodità le tre grandezze f, x, y e le loro derivate
parziali. I rispettivi movimenti nello spazio sono i seguenti:
!
∂x
(x0 ; y0 ; f0 ) −→ x0 + ∆y; y0 + ∆y; f0 −→
∂y f
!
∂x ∂y
−→ x0 + ∆y; y0 + ∆y + ∆f ; f0 + ∆f −→
∂y f ∂f x
!
∂x ∂y ∂f
−→ x0 + ∆y + ∆x; y0 + ∆y + ∆f ; f0 + ∆f + ∆x
∂y f ∂f x ∂x y
39
Ora, per ottenere la chiusura del tracciato sulle tre derivate parziali è necessario
imporre:
∂x
∆y + ∆x = 0
∂y f
∂y
∆f + ∆y = 0
∂f x
∂f
∂x ∆x + ∆f = 0
y
Dunque:
∂x ∂y ∂f
= −1
∂y f ∂f x ∂x y
P ∂E
Possiamo quindi scrivere: T
1/ ∂V S,N
T da cui
∂E
= −P
∂V S,N
P V = N kb T
41
costituenti il sistema. La dinamica di un sistema di questo tipo e la sua traiettoria
nello spazio delle fasi è descritta dalle equazioni di Hamilton.
3N
X p2i
H= + U (q1 , . . . , qN )
i=1
2m
∂H
q̇i = = pi /m
∂pi
∂H ∂U
ṗi = − =−
∂qi ∂qi
Possiamo quindi conoscere l’evoluzione temporale del sistema se conosciamo lo stato
iniziale.
Definiamo ora la densità di probabilità nello spazio delle fasi per il sistema in esame:
ρ(P, Q)
come evolve nel tempo questa densità?
La densità è localmente conservata, cioè non può essere né creata né distrutta, ma
può solo diffondere nello spazio delle fasi. La densità deve dunque obbedire all’e-
quazione di continuità (come quella a cui obbedisce la densità di massa in funzione
della corrente di massa5 ):
∂ρ ~ · J~
= −∇
∂t
con la corrente 6N dimensionale definita in generale come:
J~ = ρ~v = (ρq̇1 , . . . , ρq̇3N , ρṗ1 , . . . , ρṗ3N )
Abbiamo dunque:
∂ρ ~ 6N · (ρ~v ) =
= −∇
∂t
3N
X ∂(ρq̇i ) ∂(ρṗi )
− + =
1
∂q i ∂p i
3N
X ∂ρ ∂ q̇i ∂ρ ∂ ṗi
− q̇i + ρ+ ṗi + ρ
1
∂q i ∂q i ∂p i ∂p i
∂ q̇i ∂ ṗi
Essendo derivate seconde incrociate di H: ρ + =0
∂qi ∂pi
3N
∂ρ X ∂ρ ∂ρ
Quindi: =− q̇i + ṗi
∂t 1
∂qi ∂pi
5
Ricorda il caso 1D trattato ne capitolo sul RW. La divergenza introdotta nell’equazione succes-
siva è una generalizzazione di questo caso. In maniera più intuitiva si può dimostrare anche conside-
rando un cubetto e la variazione di densità al suo interno ∂ρ
∂t ∆V e uguagliandola R all’opposto
R del flus-
so della corrente attraverso la superficie del cubo. Utilizzando Gauss-Green: JdS = div(J)dV
e abbiamo dunque trovato la nostra equazione di continuità per il caso 3D
42
La derivata totale esprime l’evoluzione temporale della densità vista da una parti-
cella appartenente al flusso stesso in movimento. La derivata parziale esprime invece
la velocità nella variazione della densità vista da un punto fisso nello spazio delle
fasi. Il secondo termine esprime la velocità se il campo della densità rimane costante
nel tempo ed è il punto da cui si osserva che si muove.
Risultati del teorema:
Il flusso (fluido) nello spazio delle fasi è incomprimibile. La densità di elementi
infinitesimi del flusso nello spazio delle fasi non cambia nel tempo ovvero non si
hanno né espansioni né compressioni dello stesso. Elementi di volume vengono
quindi modificati nella forma lungo la traiettoria del sistema, ma il volume
rimane invariato.
Una densità iniziale uniforme nello spazio delle fasi rimarrà tale nell’evoluzione
temporale del sistema.
Per concludere, la superficie (shell di volume ad una energia E) nello spazio delle
fasi può essere stortignaccolata quanto vogliamo lungo la dinamica, ma i pesi relativi
delle varie parti della superficie, dati dal loro volume, rimarrà invariato nel tempo.
Questo porta all’indipendenza dal tempo la descrizione dell’equilibrio nel nostro
sistema microcanonico.
3.3.2 Ergodicità
In parole povere ogni punto dello spazio delle fasi viene prima o poi esplorato da una
traiettoria del sistema. Non abbiamo zone con concentrazione di volumi anomale,
ovvero divergenze nello spazio.
Definizione. In un sistema ergodico, la traiettoria di quasi tutti i punti nello
spazio delle fasi, ovvero tutti i punti eccetto un insieme di misura nulla, passano
arbitrariamente vicino ad ogni altro punto nella superficie ad energia costante.
Una conseguenza fondamentale dell’ergodicità per un sistema è che la media
temporale di una grandezza termodinamica, O, coincide alla media termodinamica
d’insieme per il microcanonico, hOiS . La dimostrazione di questa conseguenza si può
articolare in tre step:
Le medie temporali sono costanti sulle traiettorie. Possiamo quindi scrivere:
43
Le medie temporali coincidono con le medie d’insieme. Dobbiamo mostra-
re che le traiettorie non stanno in una regione dello spazio delle fasi per più di
quanto dovrebbero. Il teorema di Liouville ci dice che l’insieme microcanonico
è time independent e questo ci permette di dire che la media termodinamica
coincide con la media temporale ovvero la media d’insieme della media tem-
porale. Essendo tuttavia la media temporale costante, vedi punto precedente,
in un sistema ergodico la media d’insieme coincide con la media temporale
ovunque.
Le definizioni sopra date sono quelle formalmente suggerite dal Sethna, ma possono
risultare al lettore poco chiare ed esaustive. Proponiamo6 dunque una dimostrazione
alternativa.
Dimostrazione. Il nostro obiettivo è dimostrare che la media d’insieme nel microca-
nonico, hOi coincide con la media temporale per l’osservabile O.
hOi = ha∗ i = a∗ = O
3. Mostriamo ora che hOi = hOi. Liouville mi dice che posso scambiare l’ordine
di integrazione poichè ho l’elemento di volume nell’integrazione nell’ensamble
che non dipende dal tempo (Jacobiano per la trasformazione unitario):
1 T 1 T
Z Z
hOi = lim hO(P, Q)idt = lim O(P, Q) = hOi
T →∞ T 0 T →∞ T 0
6
Io e G. Botti
44
Capitolo 4
L’Entropia
45
Figura 4.2: Macchina di Carnot
Q1 Q2
=
T1 T2
Venne successivamente introdotta la relazione:
Z B
δQ
S(B) − S(A) =
A T
su un cammino reversibile tra gli stati A e B. Su un ciclo reversibile:
I
δQ
∆S = =0
T
Questa definizione può aiutarci come indicatore di processi irreversibili, infatti per
un processo non reversibile si ha sempre: ∆S > 0. Per questo S risulta essere una
buona misura dell’irreversibilità di un processo.
46
Trascuriamo il contributo dovuto allo spazio dei momenti, anche perchè la distribu-
zione delle velocità risulta essere la stessa prima e dopo il mixing, e otteniamo:
!
V N/2
Sunmix = 2Kb ln N
2
!
dove il fattore due conta due volte il contributo dei gas presi singolarmente e il
fattore N2 !, essenziale per il paradosso di Gibbs, esclude i possibili scambi a dare
configurazioni identiche per gli N2 atomi indistinguibili dello stesso colore.
Calcolando allo stesso modo l’entropia post-mixing1 e otteniamo:
" ! !#
(2V )N/2 V N/2
∆S = 2kb ln N
− ln N
= 2kb ln 2N/2 = kb N ln 2
2
! 2
!
47
4.3 Entropia come Ignoranza
Entriamo ora nel mondo della teoria dell’informazione, che altro non è che un sottoin-
sieme di misura nulla dello spazio infinito dimensionale della conoscenza di Zapperi.
Vedremo infatti che potremmo ricondurre tutto a Boltzmann.
Consideriamo un sistema con M stati equiprobabili con probabilità
1
pi = , i ∈ [1, M ]
M
L’entropia sarà dunque data da:
1
S(M ) = kb ln M = −kb ln = −kb ln pi =
M
(essendo le probabilità tutte uguali) = −kb hln pi i =
X
− kb pi ln pi
i
è chiamata entropia di Shannon e vale anche quando le pi sono diverse tra loro. In
questi casi si considera la densità degli stati ρ(Q, P). Dove ρ è l’equivalente di pi nel
continuo. Abbiamo dunque:
Z
dQdP
S = −kb 3N N !
ρ(Q, P) ln ρ(Q, P)
E<H<E+δE h
Messe qui cosı̀ queste sono solo definizioni. Ma perchè è una buona definizione di
entropia? Perchè entra a giocare un ruolo fondamentale nella teoria dell’informazio-
ne?
In informatica sostituiamo la costante di Boltzmann con quella di Shannon:
1
kb → ks =
ln 2
Infatti in informatica utilizziamo i bit ed è quindi necessario rinormalizzare tutto
con la nuova dimensione in modo tale che l’entropia sia misurata in bit3 . L’entropia
definita come: X
S = −ks pi ln pi
i
48
Per mostrare la relazione tra entropia e informazione posso dimostrare che quando
il sistema è totalmente random allora ho un massimo in entropia.
Consideriamo M stati, Pi con i : 1 → M . Vogliamo trovare il massimo dell’entropia.
Ci sono due modi fondamentali per procedere con questo lavoro. Il primo (vedi libro
Sethna) è di utilizzare alcune relazioni geometriche della funzione concava −x ln x
per x che va da 0 a 1. Noi faremo semplicemente il massimo della funzione. Poniamo
la derivata prima nulla e poi della seconda ne vediamo il segno. Il problema è che
qui è necessario introdurre un vincolo sulle pi :
N
X
pi = 1
i
dS 0
1
= −ks 1 × ln pj + pj − λ(1) = 0 ; ∀j
dpj pj
Da cui:
λ
p∗j = exp − − 1
ks
Da notare come queste probabilità siano tutte indipendenti da j. Significa quindi che
la condizione per avere un estremante è avere la stessa probabilità per ogni j. Manca
da trovare il moltiplicatore. Per trovarlo basta sostituire la soluzione nell’equazione
del vincolo. Se lo facciamo:
N
X λ
exp − − 1 = 1
i
ks
Essendo gli M elementi della somma tutti identici possiamo riscriverla come:
λ
M exp − − 1 = 1
ks
Risolvendo troviamo λ.
Abbiamo quindi trovato che una distribuzione uniforme delle pj ci permette di avere
un estremante nell’entropia. Rimane da determinare se questo sia effettivamente
un massimo. Per farlo facciamo la derivata seconda dell’entropia: −ks p1j ; essendo ks
positivo allora abbiamo un massimo per ogni pj .
Il minimo dell’entropia sarà dunque il caso perfettamente deterministico. Per esem-
pio pongo P1 = 1 e pi = 0 ; ∀i > 1 e so dunque con esattezza il risultato (come nel
lancio di un dado truccato). Quindi:
!
X X
S = −ks pi ln pi = −ks p1 ln p1 + pi ln pi = 0
i i>1
49
Abbiamo dunque entropia minima nel caso di massima determinazione. L’entropia
è nulla e in generale sempre positiva perchè l’argomento del logaritmo è sempre mi-
nore di uno.
Un corollario del fatto che date pi nulle allora il loro contributo all’entropia di
Shannon è nullo ci dice che l’entropia di Shannon non è modificata dall’aggiunta di
stati altamente improbabili (probabilità nulla).
Se abbiamo invece a che fare con probabilità condizionate ?
Consideriamo due set di possibili eventi:
A = {a1 , . . . , aN } e B = {b1 , . . . , bN }
Definiamo la probabilità condizionata:
Ckl = P (A = ak |B = bl )
e la probabilità incondizionata:
P (A = ak ; B = bl )
Ora, dal teorema di Bayes, possiamo scrivere la probabilità che A assuma un deter-
minato valore ak indipendentemente dal valore assunto da B come:
X
P (A = ak ) = P (A = ak |B = bl )P (B = bl )
l
50
Capitolo 5
L’Ensamble Canonico
ρs ∝ ΩA (E − ES )
51
Consideriamo inoltre:
1 ∂SA
= = cost
T ∂EA
poichè l’ambiente è molto più grande e la sua temperatura non cambia.
Quello che vogliamo determinare è la densità degli stati per questo sottosistema o
ancor meglio il rapporto tra le loro densità. Supponiamo di avere due stati nel nostro
sottosistema:
ρ(Sβ ) SA (E − Eβ ) − SA (E − Eα ))
= exp
ρ(Sα ) kb
posso espandere per piccole differenze tra Eα e Eβ , infatti il sottosistema è in equi-
librio con A e potrà dunque avere solo piccole fluttuazioni in energia (temperatura
costante). Dunque possiamo scrivere per le due energie pressochè uguali:
(Eα − Eβ ) ∂SA − ∆E
exp = e kb T
kb ∂E
Questo significa che per un determinato stato s del mio sottosistema avrò una densità
di probabilità:
− Es
ρ(s) ∝ e kb T
Ci manca di calcolare questa costante di proporzionalità. Possiamo pensare che
essa venga dal fatto che la ρ(s) essendo una densitàPdi probabilità debba essere
normalizzata e dunque la somma sugli stati accessibili s ρ(s) = 1. Possiamo quindi
scrivere:
− Es
e kb T
ρ(s) =
Z
dove Z è la costante di normalizzazione e assume due espressioni in funzione del
sistema in esame. Nel caso discreto:
X − Es
Z= e kb T
s
Nel caso continuo assume la forma dell’integrale nello spazio delle fasi:
Z
dQdP − H(Q,P)
e kb T
h3N N !
Z viene comunemente chiamata funzione di partizione ed è una funzione ca-
ratteristica per il nostro sistema.
Essa ci permette infatti di calcolare per il sistema in esame tutte le grandezze ter-
modinamiche di cui necessitiamo, paragonabili ai momenti della distribuzione.
52
Da notare che l’energia media è la derivata del logaritmo della funzione caratteri-
stica ovvero della funzione generatrice. Passiamo ora al calore specifico nella sua
definizione estensiva:
1 ∂2
∂hEi ∂hEi ∂β ∂hEi 1
N Cv = = = − = ln Z
∂T ∂β ∂T ∂β kb T 2 kb T 2 ∂β 2
Possiamo riscrivere questo risultato come:
2 −βEs
!
−βEs 2
σE2
P P
1 s −E s e E
s s e 1 2 2
N Cv = − P −βEs
+ P −βEs
= hE i − hEi =
kb T 2 se se kb T 2 kb T 2
Il calore specifico è quindi proporzionale alle fluttuazioni quadratiche dell’energia
(varianza dell’energia) nel sistema. Inoltre questo risultato evidenza il fatto che
√ σE 1
σE2 ∝ N Cv ⇒ σE ∝ N ⇒ ∝√
hEi N
quindi nel limite di N grande l’energia è pressochè costante. Questo mi fa intuire
l’uguaglianza tra ensemble microcanonico e canonico. Infatti, nel micronanonico ci
siamo messi nelle condizioni di lavorare con un sistema ad E costante e poi abbiamo
calcolato tutte le varie grandezze termodinamiche e nel canonico, partendo da un
sistema in condizioni diverse, con l’energia che può variare, abbiamo ottenuto che
nel limite termodinamico le fluttuazioni sono piccolissime e risulta quindi indistin-
guibile dal microcanonico.
In termodinamica lavoriamo dunque con grandezze mediate e quindi non vediamo
le fluttuazioni. La meccanica statistica descrive invece il sistema anche con N più
piccoli e tiene conto delle fluttuazioni, che comunque, al limite di N molto grande,
nella maggior parte dei casi, diventano trascurabili.
Calcoliamo ora l’entropia nell’insieme canonico. Partiamo dall’espressione di Shan-
non: X
S = −kb ps ln ps
s
sostituendo le densità di probabilità per gli stati nell’insieme canonico possiamo
scrivere:
X e−βEs e−βEs X e−βEs X e−βEs
S = −kb ln = −kb (−βEs ) + kb ln Z
s
Z Z s
Z s
Z
Quindi:
hEi
S = kb ln Z +
T
Riarrangiando il risultato trovato possiamo definire il potenziale termodinamico
(energia libera) di Helmoltz per il canonico come:
hEi − ST = −kb T ln Z → A(N, V, T ) = −kb T ln Z
Verifichiamo ora che tale risultato sia consistente con il risultato ottenuto dalla
termodinamica classica nel calcolo di derivate termodinamiche. Sappiamo che, dalla
definizione classica:
∂A ∂
= −S = −kb ln Z − kb T ln Z =
∂T V,N
∂T
∂β ∂ ln Z hEi
− kb ln Z − kb T = −kb ln Z − = −S
∂T ∂β T
dunque le due scritture per A sono consistenti.
53
5.2.1 Estensività delle Variabili Termodinamiche nel Cano-
nico
E’ una delle caratteristiche fondamentali dei potenziali termodinamici. Se abbiamo
sistemi in equilibrio con un bagno termico come dimostriamo questa estensività?
Consideriamo due sistemi, L e R, accoppiati con un bagno termico B, vedi immagine
5.2. I sistemi scambiano dunque energia con B ma sono tra loro isolati.
Identifichiamo con la lettera i gli stati associati a L e con la lettera j gli stati
associati a R. Possiamo scrivere la funzione di partizione per il sistema intero come
la somma delle due Z, poichè l’Hamiltoniana totale si può dividere in due parti
disaccoppiate:
! !
L R L R
X X X
Z= e−β(Ei +Ej ) = e−βEi e−βEj = ZL ZR
i,j i j
quindi nel momento in cui l’Hamiltoniana va a separarsi nella somma di due compo-
nenti disaccoppiate, nel canonico possiamo fattorizzare direttamente la funzione di
partizione per il sistema e computare ciascuna delle due parti indipendentemente.
Scriviamo ora il potenziale di Helmoltz per questo sistema:
dunque c’è estensività nei potenziali termodinamici nel canonico nel momento in
cui tratto con sottosistemi non interagenti. Ovviamente non stiamo considerando
interazioni tra L e R in questo sistema, ma cosa succede se prendo un gas e ne
raddoppio il volume e il numero di particelle. Non possiamo dire che non ci siano
interazioni tra i gas nelle due metà dei volumi ! Consideriamo il caso di un gas ge-
nerico che ha volume doppio rispetto ai due sottosistemi che lo compongono e che ci
siano scambi di energia e particelle tra questi sottosistemi. Abbiamo dunque tolto
la separazione rigida tra i sistemi e li abbiamo immersi in un bagno termico. Alla
somma diretta tra le energie libere per sistemi non interagenti Esx + Edx dovrem-
mo aggiungere il contributo energetico delle interazioni all’interfaccia tra sinistra e
destra. Se il gas è perfetto non ho interazioni e ho risolto il problema. Se Invece ho
interazioni allora ho un contributo che possiamo immaginare avvenire alla superfi-
cie di contatto tra i due sistemi. Tutto il contributo di interazione sarà localizzato
dunque sulla superficie, ma noi sappiamo che per volumi grandi Sup V ol
→ 0 e dunque
54
il termine di interazione, proporzionale alla superficie, viene ad essere fortemente
trascurabile rispetto alle proprietà termodinamiche di non interazione che crescono
come il volume.
La proporzionalità alla superficie dell’interazione ha come prerequisito la natura
short-range delle interazioni interatomiche. In sistemi con interazioni long-range que-
sta estensività viene a mancare. Un esempio è l’interazione gravitazionale in cui la
forza di interazione va molto lentamente a zero al crescere della distanza.
55
dove ρ è la densità media per il gas.
L’entropia, allo stesso modo si può facilmente ricavare dalla derivata parziale di A:
∂A ∂
= −kb N ln(ρλ3 ) − 1 − kb T N ln λ3
S=−
∂T ∂T
Ora: ln λ3 = 3 ln λ = − 32 ln T + c.
Dunque:
3
3 5 3
S = −N kb T ln(ρλ ) − 1 + N kb = N kb − ln(ρλ )
2 2
abbiamo quindi buona estensività in N e abbiamo eliminato il paradosso di Gibbs
con questa definizione di entropia poichè è stato incluso N ! nella sua definizione.
p2 q2
H(p, q) = + mω 2
2m 2
La funzione di partizione risulta dunque:
Z p 2 2
dqdp −β 2m +mω 2 q2
Z= e =
h
Z Z
1 p2
−β 2m βmω 2 q 2
dpe dqe− 2 =
h
!
1 p r 2πk T
b
2πmkb T =
h mω 2
2π kb T 1
=
h ω β~ω
Nota che ~ω è il quanto dell’oscillatore armonico quantistico e il risultato è consi-
stente.
Calcoliamo ora le proprietà termodinamiche intensive (stiamo considerando un grado
di libertà) e possiamo immaginare che per N oscillatori armonici indipendenti il ri-
sultato sia semplicemente la potenza N-esima della grandezza intensiva normalizzata
a N !. Se gli oscillatori non sono indipendenti dovremmo diagonalizzare.
~ω
A = −kb T ln Z = kb T ln
kb T
∂ ln Z 1
hEi = − = = kb T
∂β β
che è l’energia per singolo grado di libertà per l’oscillatore armonico.
Il calore specifico:
Cv = kb
L’interesse nell’oscillatore armonico è grande poichè permette di trattare molecole
e solidi con modelli semplificati. Per esempio, un solido può essere visto come una
rete di oscillatori armonici accoppiati, quindi in generale se abbiamo un potenziale
56
che dipende da tutti i gradi di libertà del solido, in prima approssimazione possiamo
scriverlo come:
1X
V (Q) ∝ Kα,β Qα Qβ
2 α,β
dove Kα,β è la matrice di interazione tra le varie coppie di oscillatori le cui compo-
nenti sono le derivate seconde del potenziale interatomico. Diagonalizzando V (Q),
cambiando il sistema di riferimento, possiamo scrivere:
1X 2
V (Q) = q mωi2
2 i i
ottenendo cosı̀ i modi normali del solido ovvero quelle coordinate dove la matrice di
interazione risulta diagonale. Ci siamo ricondotti quindi ad un potenziale dato da
3N oscillatori armonici indipendenti. Dunque:
X p2 1
i
H= + mωi2 qi2
i
2m 2
dove le ωi sono le frequenze normali del mio solido. Ogni frequenza è dunque un
oscillatore armonico e quindi, essendole frequenze diverse ma indipendenti, possiamo
scrivere la funzione di partizione come:
Y Y 1
Z= Zi =
i i
β~ωi
N Cv = 3kb
57
Capitolo 6
Abbiamo quindi il solito sistema isolato con energia e numero di particelle totale
costante e con un sottosistema che può scambiare con l’ambiente circostante sia
energia che materia. Possiamo quindi scrivere:
E = ET + ES e N = NT + NS
dove ES ed NS in questo caso saranno entrambi valori fluttuanti.
Quindi possiamo calcolare la densità di probabilità per un determinato stato come
per il canonico aggiungendo semplicemente una variabile in più:
ρ(ES , NS ) ∝ Ω2 (E − ES ; N − NS )
dove Ω2 è il volume dello spazio delle fasi occupato dal bagno termico. Quindi
riscrivendo in entropia utilizzando l’ensamble microcanonico, e quindi la formula di
58
Boltzmann, per il sistema globale isolato T + S possiamo scrivere:
S2 (E−ES ;N −NS ) ∂S2 ∂S ES NS µ
[−ES −NS ∂N2 ] k1 −k +
Ω2 (E − ES ; N − NS ) = e kb
∝e ∂E b =e bT kb T
M =0 lM M lM
59
La quale risulta essere una scrittura del tutto equivalente a quella precedente se
non per il fatto che abbiamo sostituito alla somma sugli stati con una certa energia
ES la somma su stati a numero di particelle costanti e abbiamo utilizzato l’energia
di Helmoltz per indicare l’energia di un insieme di stati a M costante e quindi la
probabilità per il sistema di essere in uno qualsiasi di questi stati ad M costante.
m Nm e T b kb T ∂Ξ ∂Φ
hN i = = =−
P − Emk−µNm
Ξ ∂µ ∂µ
m e bT
60
Capitolo 7
La Termodinamica
Principio zero: transitività degli equilibri. Se due sistemi sono in equilibrio con un
terzo allora anch’essi sono tra loro in equilibrio.
Definizione. La termodinamica può essere definita come uno zoo di derivate par-
ziali. Si definiscono una serie di potenziali termodinamici e le varie grandezze le cal-
coliamo come derivate parziali e tutto quanto è autoconsistente. Facciamo qualche
esempio:
A(N, V, T ) = E − T S(E, V, N )
quindi possiamo definire: S = − ∂A
∂T
. Uno può a questo punto chiedersi perchè A non
dipenda da E e dimostrarlo è alquanto semplice:
∂A ∂S
=1−T =0
∂E ∂E
61
Possiamo quindi vedere che è uno zoo autoconsistente. Possiamo poi passare da
potenziali o energie libere ad altre, con variabili indipendenti diverse, utilizzando
le trasformazioni di Legendre. Un esempio è proprio quello visto nella definizione
dell’energia libera di Helmoltz dove passiamo da un set N, V, E ad uno N, V, T . Le
trasformate di Legendre funzionano molto bene in questo caso, ma perchè funzionano
? Se prendiamo un sistema e lavoriamo nel microcanonico abbiamo che il sistema
andrà a minimizzare E(S, V, N ). Se vogliamo passare al set di variabili indipendenti
N, V, T , definiamo l’energia di Helmoltz A(N, V, T ). La teoria generale ci dice che
data una f (x), se vogliamo passare alla trasformata di Legendre in p = ∂f∂x
dobbiamo
minimizzare la funzione f (x) − xp e dunque:
dE = T dS − P dV + µdN
dG = −SdT + V dP + µdN
dH = T dS + V dP + µdN
dΦ = −SdT − P dV − N dµ
62
Figura 7.1: Massa m ad una molla vincolata
Bene, è interessante come fenomeno. Siamo infatti abituati a considerare questa mi-
nimizzazione energetica raggiunta ad h∗ come il risultato più sensato, ma l’energia
non dovrebbe conservarsi ? Se cosı̀ fosse la molla continuerebbe ad oscillare all’infi-
nito. Bene, consideriamo ora il fatto che molla e massa hanno un numero elevato di
gradi di libertà interni atomici e molecolari. L’oscillazione del nostro sistema sarà
dunque accoppiata con questi gradi di libertà e scambierà con essi energia. Essendo
la vibrazione interatomica espressa poi in frizione, l’energia verrà dissipata in calore.
Per esempio, proviamo a porre K = 10 N m−1 e kb T = 4 × 10−21 J. Calcoliamo le
fluttuazioni di h rispetto al valor medio h∗ :
h(h − h∗ )2 i
63
Stiamo sereni dunque poichè le oscillazioni dal valore che ci aspettavamo, consi-
derando l’accoppiamento del sistema con l’ambiente, sono subatomiche. Abbiamo
quindi una minimizzazione dell’energia a meno di oscillazioni subatomiche.
Possiamo ora collegare questa visione statistica dell’oscillatore armonico con il coef-
ficiente di frizione nell’equazione di Newton per la legge del moto dell’oscillatore
armonico smorzato. Partiamo dall’equazione ideale e deterministica:
K
ḧ = − (h − h∗ )
m
Aggiungiamo un termine di rumore stocastico +(t) che rappresenta la forza derivan-
te dai gradi interni di libertà e un termine di frizione e dissipazione −γ ḣ che insieme
dovrebbero descrivere lo smorzamento e la fluttuazione rispetto al caso ideale. Il
fattore stocastico deve rispettare alcune richieste:
h(t)i = 0
h(t)(t0 )i = Dδ(t − t0 )
γ η(t)
ẍ + ẋ + Ω20 x =
m m
dove:
64
nota che la trasformata della delta è 1. Il rumore è dunque un rumore bianco ovvero
ha uno spettro costante in Ω (a tutte le frequenze). Qual’è a questo punto lo spettro
di x, Sx (Ω) ovvero del segnale che misuriamo, cioè della soluzione ? Trasformiamo
in Fourier utilizzando le regole di derivazione della TF e otteniamo:
iγ η̃(Ω)
−Ω2 x̃(Ω) − Ωx̃(Ω) + Ω20 x̃(Ω) =
m m
Da cui la soluzione:
η̃(Ω)/m
x̃(Ω) = γ
Ω2o − Ω2 − m iΩ
Antitrasformando possiamo trovare la soluzione nel dominio del tempo, ma nota
che la soluzione dipende da η̃(Ω) ovvero dal rumore. Per trovare lo spettro, quindi
il comportamento medio del segnale, ricordiamo che possiamo scrivere la funzione
di correlazione T (hx(t)x(t0 )i) = h|x̃(Ω)|2 i poichè dipende solo dalla differenza dei
tempi, perchè abbiamo un sistema invariante nella traslazione temporale1 . Dunque:
1 h|η̃(Ω)|2 i 2γkb T
Sx (Ω) = h|x̃(Ω)|2 i = 2 2 = iγ 2
m Ω0 − Ω2 − Ω iγ
2 2
m
m2 Ω0 − Ω2 − m
Ω
[N2 ] + 3[H2 ]
2[N H3 ]
[N H3 ]2
Keq (T ) =
[N2 ][H2 ]3
65
La reazione procederà fino a quando l’energia libera raggiungerà un minimo, quindi:
Assumiamo ora che le molecole si muovano in modo scorrelato le une dalle altre.
L’energia libera per ogni gas assumerà dunque la forma generale che assume nel caso
in cui trattiamo un gas perfetto:
N 3
A(N, V, T ) = N kb T ln λ − 1 + N F0
V
Il termine N F0 è un termine di correzione per l’energia interna delle molecole. La
costante F0 è l’energia di ground state se stiamo trattando con atomi, mentre per le
molecole a temperatura ambiente è la somma dell’energia di ground state E0 e del
contributo classico dovuto ai moti rotazionali. Il potenziale chimico assume quindi
la forma generale:
N 3
µ = F0 + kb T ln λ = kb T ln([N ]) + c + F0
V
Possiamo quindi scrivere:
−3(F0H2 +cH2 +kb T ln([H2 ]))−(F0N2 +cN2 +kb T ln([N2 ]))+(F0N H3 +cN H3 +kb T ln([N H3 ])) = 0
6
∝ T − 2 T − 2 T 3 = T −3
λN H3
66
La velocità di reazione, in una visione più accurata del fenomeno, può essere calcolata
utilizzando l’equazione di Arrhenius:
− kBT
Γ ∝ Γ0 e b
D = γkb T
e abbiamo osservato che per il gas ideale, nonostante l’assenza di energia potenziale
intrinseca il gradiente di potenziale chimico agisce come una forza esterna.
69
Capitolo 8
Il Modello di Ising
in modo tale che sia possibile una sola direzione di magnetizzazione. Nel modello di
Ising l’Hamiltoniana del sistema cosı̀ descritto è data da:
X X
H = −J Si Sj − HSi
hi,ji i
70
dove:
P
hi,ji Si Sj è il termine di interazione/accoppiamento tra primi vicini. Infatti la
somma è ristretta in modo tale che J 6= 0 ⇔ i, jprimi vicini.
8.2 Il Magnetismo
Il modello di Ising fu storicamente introdotto per lo studio dei magneti. Possiamo
definire la magnetizzazione come:
X
M= Si
i
In base al valore di J avremo diverse situazioni favorevoli per gli spin in gioco.
Generalmente la situazione di ferromagnetismo e quella di anti-ferromagnetismo
sono favorite alle basse temperature, mentre alle alte temperature ci si aspetta una
predominanza del fattore entropico e indipendentemente da segno di J avremo una
situazione con spin fluttuanti ovvero una fase paramagnetica e la magnetizzazione
per spin:
1 X
m= Si
N i
nulla.
Possiamo apprezzare meglio questi fenomeni andando a vedere i grafici relativi alla
magnetizzazione in funzione della temperatura per un reticolo cubico tridimensiona-
le. Nel caso di campo magnetico esterno nullo vedi immagine 8.2. Abbiamo quindi
una situazione a T nulla in cui gli spin che minimizzano l’Hamiltoniana (simmetrica)
sono −1 e +1 ed entrambi possono accadere con uguale probabilità. Aumentando
la temperatura iniziano ad essere rilevanti le fluttuazioni termiche e si ha una di-
minuzione della magnetizzazione per spin. Quando lo zero di magnetizzazione viene
raggiunto si è arrivati alla temperatura critica per il sistema in esame T = Tc . Questo
punto critico è matematicamente una discontinuità, infatti abbiamo derivata prima
71
Figura 8.2: Grafio della magnetizzazione per unità di volume contro temperatura al
variare del campo magnetico esterno applicato
72
deriamo le loro posizioni vincolate nei siti reticolari (singolarmente occupati) di un
determinato reticolo per cui abbiamo un numero γ di primi vicini per ogni sito, vedi
immagine 8.3. Il numero totale di siti è N = NA + NB . Possiamo ora distinguere tre
tipi di coppie di primi vicini: AA, BB, AB (indistinguibile da BA). Possiamo dunque
descrivere una configurazione del sistema in funzione di NAA , NBB , NAB . Trascu-
rando il contributo cinetico all’energia e considerando esclusivamente le interazioni
tra primi vicini possiamo scrivere l’energia del sistema come:
dove i termini di interazione E sono il costo energetico per avvicinare due atomi del
tipo indicato. In un modello di Ising possiamo scrivere l’Hamiltoniana come:
73
Risolvendo il sistema eliminando la dipendenza da N , NA e NB e riscrivendo la Ising
come Hbin (funzione dei soli termini di interazione) troviamo:
H = EAA − EBB
1
J = (EAA + EBB − 2EAB )
4
1
C = (EAA + EBB + 2EAB )
4
Abbiamo quindi che con un J < 0 la situazione favorita è quella a fasi intercalate,
mentre per J > 0 è favorita la separazione delle fasi. Sopra la temperatura critica
avremo invece una fase mischiata. Un modello più realistico doverebbe includere
nell’Hamiltoniana i termini di rilassamento reticolare nel caso sia evidente una diffe-
renza nelle dimensioni tra i due atomi e un termine che tenga conto delle fluttuazioni
termiche della posizione presenti nel sistema. Per far ciò basta effettuare una traccia
parziale e integrare le vibrazioni atomiche dalla posizione di equilibrio ottenendo
l’energia libera effettiva per ogni configurazione {si }:
−H(P,Q)
Z Z
e kb T
F {si } = −kb T ln dP dQ = H {si } − T S {si }
{si } h3N
Dove {si } nel secondo integrale sta a indicare l’integrazione sugli atomi ri del tipo
si vicini al sito i.
L’entropia S {si } dovuta alle vibrazioni atomiche dipenderà dalla configurazione
{si } ed esplicitamente dalla temperatura. F {si } sarà la nuova hamiltoniana per il
sistema.
Possiamo vedere questo potenziale come un potenziale di Morse discretizzato tra gli
atomi nel reticolo. Mappiamo ora questo risultato con Ising. Definiamo N come il
numero totale dei siti, NA come il numero di atomi e NAA il numero di coppie di
74
atomi adiacenti.
L’energia totale del reticolo è data da:
Figura 8.5: Transizione di fase in funzione del campo magnetico esterno e della
temperatura
75
un ferromagnete. Il campo magnetico andrà a forzare una situazione piuttosto che
un’altra. Aumentando il campo da negativo a positivo, se siamo sotto la T criti-
ca, avremo una discontinuità del primo ordine. Se siamo invece sopra la T critica
non avremo discontinuità variando il campo magnetico (Pressione). La discontinuità
sarà nella densità del liquido e dunque essa sarà il nostro parametro d’ordine ov-
vero quella grandezza in grado di dirci come avviene una transizione. Per esempio
una transizione a variazione di densità continua sarà del secondo ordine, mentre con
una discontinuità avremo una transizione del primo ordine. Nella prossima parte del
corso vedremo il ruolo dei parametri d’ordine nelle transizioni di fase e tratteremo i
casi più generali che non è possibile studiare utilizzando il modello di Ising.
dove il 0 indica la somma sui siti j primi vicini a i. Finora non abbiamo ancora
introdotto approssimazioni.P Introduciamo quindi il campo medio ovvero la media
su tutti i vicini al posto di 0j sj o in altre parole su ogni sito vicino a i metto un
valore pari alla media della magnetizzazione su tutto il sistema:
i ' H + Jzhsj i
76
dove la media di si è sui possibili stati (+1; −1) e m diventa cosı̀ il nostro parametro
variazionale (vado di SCF). Possiamo quindi scrivere:
X
H=− si (H + Jzm)
i
e+βsi (H+jzm)
Pi (si ) =
e+β(H+jzm) + e−β(H+jzm)
Da cui: Y
P ({si }) = Pi (si )
i
m = tanh(βJmz)
77
tangente con la retta passante per l’origine e di pendenza unitaria. Consideriamo la
pendenza della tangente < 1, per cui avremmo una sola soluzione (siamo sotto alla
retta), ed espandiamo in Taylor1 in prossimità dell’origine al posto di derivare:
d(tanh(βJzm))
= Jzβ
dm
m→0
Jz
Quindi dove Jzβ < 1 ⇒ kb T
< 1 la soluzione è unica e in m = 0. Alternativamente
posso scriverlo come:
Jz
T > Tc =
kb
Abbiamo quindi trovato la temperatura critica per il nostro sistema e la soluzione
Figura 8.6: Soluzione grafica in campo medio del modello di Ising due dimensionale
sarà unica. A pendenza più stretta, ovvero > 1, le soluzioni diventano tre. La so-
luzione risulta comunque essere altamente instabile e le possibilità più stabili sono
quelle a ±1.
78
dunque necessario procedere considerando le interazioni di ogni spin con i due suoi
primi vicini e l’effetto del campo magnetico. Una rappresentazione schematica ef-
ficace del sistema è data dall’immagine 8.7. Come si può osservare è necessario
Figura 8.7: Topologia del reticolo per il modello di Ising uno dimensionale
SN +1 = SN
{s1 , . . . , sN }
s1 sN
dove ogni si assume in modo del tutto indipendente valore +1 e −1. Definiamo una
matrice 2 × 2 chiamata P in funzione dei suoi elementi definiti come:
H
P = hsi |P |si+1 i = eβJsi si+1 +β 2 (si +si+1 )
79
Essendo due i possibili valori per lo spin possiamo scrivere gli unici elementi della
matrice come:
h+1|P | + 1i = eβJ+βH
h−1|P | − 1i = eβJ−βH
h−1|P | + 1i = e−βJ = h+1|P | − 1i
Possiamo poi riconoscere le identità nei prodotti tra elementi di matrice e possiamo
dunque scrivere:
X X X
Z= ... hsN |P |s1 i = hs1 |P N |s1 i = T r(P N )
s1 sN s1
T r(P N ) = λN N
+ + λ−
dove le λ sono gli autovalori della matrice P con λ+ > λ− . Risolviamo dunque per
il determinante del secolare:
βJ+βH
e −λ e−βJ
det −βJ βJ−βH
=0
e e − λ
Troviamo:
q
βJ 2βJ 2
λ+/− = e cosh(Hβ) ± e cosh (βH) − 2 sinh(2βJ)
80
Come i comuni potenziali termodinamici le sue derivate parziali sono in grado di
restituirci importanti informazioni riguardo le variabili indipendenti da cui l’energia
dipende (logaritmo della funzione generatrice dei momenti). Possiamo infatti trovare
la magnetizzazione come derivata dell’energia rispetto al campo magnetico H:
1 sinh(βH)
M =m= q
N sinh2 (βH) − e−4βJ
Nota che il seno iperbolico è nullo quando l’argomento è nullo. Quindi la magne-
tizzazione è nulla quando il campo è nullo ovvero non esiste fase ferromagnetica.
Abbiamo un grafico come quello riportato in figura 8.8. Il modello unidimensionale
d = 1: Per H = 0, M = 0 ∀T .
2 ≤ d ≤ 4:
M (T ) 6= 0 per T < Tc
M (T ) = 0 per T ≥ Tc
81
d > 4: Utilizzando l’approssimazione di campo medio, non l’abbiamo dimostrato
1
esplicitamente, risulta: M (T ) ∝ (Tc − T ) 2 . Per queste dimensioni la soluzione
risulta essere ragionevole in campo medio. Noi in questa approssimazione fac-
ciamo interagireP ogni spin non con i soli primi vicini ma con la media di tutti
1
gli spin: m̄ = N i si . La somma P sui primi vicini risulta essere invece, dato un
0
sistema di dimensione d: m0 = 2d 1
j sj . Per sistemi di dimensione alta succede
0
che m va ad essere sempre più simile a m̄.
Passiamo ora alla simulazione per la soluzione del modello di Ising in modo nu-
merico. Effettuiamo una dinamica di spin con delle traiettorie per il sistema e poi
mediamo. Come costruiamo un algoritmo ragionevole ?
Consideriamo un sistema 2D con N siti. Per un sito i-esimo casuale con i ∈ {1, . . . , N }
(utilizziamo un generatore casuale) i possibili valori di magnetizzazione per i primi
vicini sono:
4
2
X0
mi = sj = 0
j −2
−4
Abbiamo quindi per uno spin i-esimo scelto casualmente (su o giù) due possibili
valori di energia:
E+ = −Jmi − H
E− = Jmi + H
Estraendo adesso un numero casuale,tra zero e uno, possiamo dire che se è più
piccolo di P+ andremo ad assegnare spin + altrimenti assegneremo spin −. Quello
che facciamo è quindi scegliere ogni stato per il sistema in funzione della probabilità
dello stesso la quale risulta dipendente dalla distribuzione di Boltzmann per l’insieme
canonico.
Una dinamica di questo tipo è una delle possibili dinamiche cinetiche che andrà poi
a convergere all’equilibrio. Abbiamo tuttavia altre possibilità. Un esempio è quello
che andiamo a riportare nella prossima sezione.
82
8.5.3.1 L’Algoritmo di Metropolis
In questo algoritmo partiamo generando una griglia casuale di spin. Decidiamo poi di
flippare lo stato di uno spin i-esimo e vediamo come cambia l’energia del sistema. La
probabilità di accettazione della mossa viene dunque assegnata nel seguente modo:
Pi = 1 ↔ ∆E < 0
Pi = e−β∆E ↔ ∆E > 0
α = {si , . . . , sN }
83
transizione la matrice Pβα sarà uguale per ogni step. Vediamo ora come l’utilizzo
della matrice P in un algoritmo può portarci all’equilibrio termico il sistema. Sarà
dunque necessario andare a comprendere le proprietà di questa matrice e trovarne
gli autovalori e autovettori.
Innanzitutto gli elementi della matrice sono probabilità dunque:
0 ≤ Pαβ ≤ 1
e per la conservazione della probabilità lo stato α da qualche parte deve andare
dunque: X
Pβα = 1
β
84
2. Ogni autovettore destro ρ~λ con autovalore λ diverso da uno deve avere com-
ponenti che sommano a zero. Infatti:
X X XX XX X
λ Pβλ = λPβλ = Pβα ρλα = Pβα ρλα = ρλα
β β β α α β α
ρλα = 0.
P
Tale identità risulta essere verificata solamente se λ = 1 o α
3. Da notare che potrei avere catene di Markov con più di una distribuzione di
probabilità stazionaria. Posso avere in generale stati transienti o cicli. Questi
fenomeni sono ostacoli nella ricerca dello stato di equilibrio per il nostro si-
stema. Per bypassarli possiamo concentrarci sullo studio di catene di Markov
ergodiche. In una catena di Markov ergodica e finita è una catena per cui una
certa potenza della matrice di transizione P n ha tutti gli elementi di matrice
positivi e non nulli. Una catena di questo tipo è irriducibile e non ha cicli
ovvero possiamo passare da un qualunque stato α ad ogni altro stato β in un
numero finito di passi. Segue dunque il Teorema di Perron-Frobenius:
Consideriamo la matrice A con elementi di matrice non negativi e tale che An
ha tutti elementi positivi. Allora A ha un autovalore positivo λ0 , con molte-
plicità uno, i cui corrispondenti autovettori destro e sinistro hanno tutte le
componenti positive. Inoltre ogni altro autovalore λ di A deve essere minore:
|λ| < λ0 .
Per una catena di Markov ergodica possiamo dunque utilizzare il teorema visto
precedentemente sugli autovettori destri e concludere che l’autovettore di Perron-
Frobenius con tutte le componenti positive deve essere quello a cui corrisponde
l’autovalore λ0 = 1. Questo autovettore, non sommando a zero, può essere riscalato
a dare somma uno, provando cosı̀ che una catena di Markov ergodica ha uno e un
solo autovettore indipendente dal tempo e corrispondente alla distribuzione di pro-
babilità ρ~∗ .
85
Il bilancio dettagliato ci permette di trovare un set completo di autovettori de-
stri per la nostra matrice diptransizione P . Se dividiamo l’equazione di bilancio
dettagliato per la catena per ρ∗β ρ∗α otteniamo una matrice reale e simmetrica Qαβ :
s s
ρ∗β ρ∗β ρ∗α ρ∗α
Qαβ = Pαβ = Pαβ p ∗ ∗ = Pβα p ∗ ∗ = Pβα = Qβα
ρ∗α ρβ ρα ρβ ρα ρ∗β
Essendo tale matrice reale e simmetrica possiede una base completa di autovettori
(questo per le P non era necessariamente vero):
Qτ λ = λτ λ
Possiamo ora dimostrare che è possibile passare da questi autovettori agli autovettori
√
destri della nostra matrice P riscalandoli di un fattore ρ∗ . Infatti possiamo vedere
che cosı̀ facendo regge ovvero dimostrare che questi sono autovettori di P :
s
X X X q ρ∗α λ X q q
Pβα ρλα = Pβα ταλ ρ∗α = ∗ λ
ρ∗β τβλ = ρλβ λ
p
Pβα ρ∗β ∗
τ α = Q βα ρβ τα = λ
α α α
ρ β α
Abbiamo quindi dimostrato che gli autovettori ottenuti cosı̀ scalando quelli della
matrice Q sono anche autovettori di P .
Abbiamo ora tutti gli strumenti necessari per dimostrare il teorema principale il
quale elenca le condizioni che un algoritmo deve rispettare per convergere all’equi-
librio. Più formalmente:
un sistema dinamico discreto con un numero finito di stati è garantito convergere
alla distribuzione di equilibrio ρ~∗ se l’algoritmo:
è ergodico , ovvero può arrivare ovunque in un numero finito di step e non presenta
cicli.
86
allora, al tempo n:
X
ρ~(n) = P ρ~(n − 1) = P n ρ~(0) = a1 ρ~∗ + aλ λn ρ~λ
|λ|<1
87
Capitolo 9
Passiamo ora all’intento di descrivere un sistema quantistico facendo uso della mec-
canica statistica. In meccanica classica gli insiemi sono le distribuzioni di probabilità
ρ(Q; P) nello spazio delle fasi e abbiamo visto che lo studio di questa distribuzione
ci ha permesso di derivare tutta la termodinamica.
88
dove gli En sono gli autovalori della funzione d’onda. Nel gran canonico avremmo
invece:
e−β(En −µNa )
pn =
Ξ
Questa matrice si ottiene partendo dall’identità e scrivendo una matrice i cui ele-
menti diagonali sono le probabilità per il sistema di trovarsi alle varie energie. A
questo punto: X
hAiT = hφm |ρA|φm i = T r(ρA)
m
Abbiamo quindi trovato una scrittura compatta per la media termica. Ci basta fare
il prodotto della matrice che stiamo studiando per la matrice densità e facciamo la
traccia.
89
Infatti il sistema risulta essere descritto da un insieme di autostati dell’energia cia-
scuno con il suo peso di Boltzmann associato e dunque la matrice risulta essere
diagonalizzata nella sua base energetica. Possiamo ora pensare di scrivere questa
matrice di densità in modo indipendente dalla base utilizzata. Abbiamo:
X X
−βEn −β Ĥ −β Ĥ
Z= e = hEn |e |En i = T r e
n n
e−β Ĥ X e−β Ĥ
ρc = |En ihEn | =
Z n
Z
90
Figura 9.1: Autovalori dell’oscillatore armonico
91
Figura 9.2: calore specifico dell’oscillatore armonico quantistico
92
9.2.1 Bosoni e Fermioni Non Interagenti
La meccanica statistica quantistica a molti corpi è dura. E’ dunque tempo di intro-
durre approssimazioni: assumiamo che le particelle quantistiche non interagiscano le
une con le altre. Possiamo pensare a questo sistema come ad un gas perfetto (senza
interazioni) e quantistico. Possiamo dunque scrivere l’hamiltoniana come la somma
delle singole hamiltoniane delle particelle non interagenti:
N
~2 2
X X
NI
Ĥ = Ĥi = − ∇i + V (ri )
i i=1
2m
Tanto lo spettro degli autovalori e autovettori non cambia per le particelle identiche
per ogni Ĥ di singola particella. Per una particella possiamo risolvere l’equazione
agli autovalori per Ĥ e trovare gli autostati:
93
Calcoliamo la funzione di gran-partizione per il sistema di particelle non interagenti
come fattorizzazione: Y
ΞN I = Ξk
k
Bose.
Per i bosoni ogni numero di occupazione nk per un determinato stato k è valido.
Ogni particella in un determinato autostato k contribuisce con energia k e poten-
ziale chimico −µ. La funzione di gran-partizione per ogni singola particella diventa
dunque:
∞
X 1
ΞN
k
I
= e−β(k −µ)nk =
n =0
1 − e−β(k −µ)
k
Il numero medio di particelle in un livello (dai risultati generali ottenuti nel gran-
canonico) risulta dunque essere (essendo indipendente per ogni livello):
94
da cui l’occupazione media per autostato o livello risulta:
e−β(k −µ) 1
hnk i = −β( −µ)
= β( −µ)
1+e k e k +1
Possiamo quindi definire la distribuzione per gli elettroni di Fermi-Dirac:
1
f () = hniF D =
eβ(−µ) +1
La distribuzione di Fermi assume la forma che si può osservare nel grafico riportato
nell’immagine 9.3. Come possiamo vedere dall’immagine abbiamo una distinzione in
due casi. Nel primo, quello in cui abbiamo una funzione a gradino, la temperatura
di lavoro è nulla. Per ( − µ) → 0 la funzione tende a 12 . Per T → 0 la funzione
assume dunque valore 1 o 0 in funzione del fatto che µ sia maggiore o minore di .
Se la T è diversa da zero avremo uno smussamento della funzione in prossimità del
livello di Fermi.
Z = Z1N
95
La funzione di partizione canonica di Maxwell-Boltzmann diventa dunque:
1 N
ZMB = Z
N! 1
Se sviluppiamo questa espressione per un caso semplice per esempio due particelle
con tre livelli energetici arriviamo ad un risultato interessante. Nell’insieme canonico
questa distribuzione tratta le occupazioni multiple, ovvero il loro peso nella Z, in
un compromesso tra il trattamento democratico bosonico e quello esclusivo di Fermi
assegnando pesi frazionari.
M M
M! k
Per particelle non interagenti, quindi, il numero medio di particelle che occupano un
autostato di singola particella con energia è:
∂Φk
hniM B = − = e−β(−µ)
µ
Questo è esattamente il fattore di Boltzmann che ci saremmo aspettati dallo
studio di particelle distinguibili, quindi il fattore N ! non altera lo riempimento di
stati di particella singola per particelle non interagenti.
96
Capitolo 10
L’obiettivo di questo capitolo è dare un’idea del metodo utilizzato per categorizzare
diversi stati della materia e razionalizzare il passaggio tra di essi mediante l’osser-
vazione di grandezze specifiche meglio chiamate parametri d’ordine.
Per esempio, quando abbiamo parlato del modello di Ising avevamo un valore di
magnetizzazione spontanea che cambiava da zero ad un valore finito nel momento
in cui passavo da una fase ferromagnetica o antiferromagnetica ad una fase parama-
gnetica.
Un parametro d’ordine è quindi una grandezza che cambia da una fase all’altra ed
è in qualche modo legato alla rottura di simmetria tra le due fasi. Nel caso parama-
gnetico per esempio abbiamo una simmetria rotazionale della magnetizzazione che
viene rotta nella fase ferromagnetica dove abbiamo un’orientazione piuttosto che
l’altra.
97
Figura 10.1: Quale tra cubo e sfera è più simmetrico?
qualsiasi operazione.
Nelle transizioni di fase abbiamo dunque un passaggio da sistemi più simmetrici a
sistemi meno simmetrici o viceversa. Se paragoniamo il caso del liquido o del ma-
gnete abbiamo che in entrambi abbassando la temperatura passiamo da situazioni
ad alta simmetria a situazioni a più bassa simmetria.
98
Figura 10.3: Spazio del parametro d’ordine per la magnetizzazione locale
99
L’insieme dei parametri d’ordine distinti forma dunque un quadrato che si chiude a
toro a causa delle condizioni periodiche al contorno.
In un caso monodimensionale per esempio avrei che lo spazio del parametro d’ordi-
ne è un cerchio di raggio a poichè nel momento in cui mi muovo lungo la retta di
multipli del mio passo reticolare sto in realtà ottenendo lo stesso parametro d’ordine.
Landau dimostrò che l’universalità del modo in cui descriviamo una transizione
di fase dipende soltanto dallo spazio in cui vive il parametro d’ordine ovvero si va a
rompere lo stesso tipo di simmetria.
Una volta definito il parametro d’ordine possiamo dunque andare a studiare le
fluttuazioni di questo parametro. In un cristallo, per esempio, le eccitazioni sono
i fononi ovvero onde che si propagano nel reticolo date le oscillazioni dei nuclei.
Propongo di seguito una trattazione valida per i fononi, ma che si può estendere a
qualsiasi oscillazione di un parametro d’ordine poichè in prima approssimazioni si
può considerare elastica.
Mettiamoci nella condizione di lavorare con un reticolo 1D costituito da atomi se-
parati da una distanza reticolare a. Essi formeranno dunque una catena. Quello
che siamo interessati a fare è risolvere il moto classico di questa catena. Portiamoci
al limite infinitesimo, ovvero quella situazione in cui al posto di lavorare con una
catena iniziamo a lavorare con un mezzo continuo, una corda. Imponiamo alcune
ragionevoli condizioni al contorno per risolvere questo problema:
L=T −U
δU = kδl
100
La variazione di energia associata alla deformazione sarà dunque:
s
2
du
dU = kdl = kdx 1 + − 1
dx
Da cui approssimando in Taylor il termine sotto radice, per piccole oscillazioni del
parametro d’ordine, otteniamo:
2
1 du
dU = kdx
2 dx
da cui passando alla somma continua su quella che possiamo pensare come una
catena di oscillatori infinitesimi otteniamo:
Z xf 2
1 du
U= dx k
xi 2 dx
Passiamo ora ad una descrizione altrettanto semplice per l’energia cinetica del siste-
ma. Essendo continuo possiamo pensare ad una densità uniforme della corda ρ(x) da
cui, muovendoci lungo la corda: dm = ρdx. Possiamo dunque esprimere la variazione
di energia cinetica come:
1 1
dT = dmv 2 = ρdxu̇
2 2
Da cui: Z
1
T = dx ρu̇
2
Chiamiamo S l’azione di L che andiamo a minimizzare per trovare la legge che
descrive l’evoluzione temporale del sistema in esame. Scriviamo dunque:
Z t2
S= L(t, u̇, ∂x u)dt
t1
u(x, t) = u0 cos(kx − ωk t)
questa rappresenta il moto di eccitazione fononico e delle onde sonore e descrive ogni
eccitazione di parametri d’ordine anche di natura diversa. Infatti l’energia risulta
101
essere elastica ovvero quadratica nella dipendenza dallo spostamento dalla posizione
di equilibrio. Come possiamo scrivere questa energia elastica in generale?
Scriviamo tutte le energie che dipendono da u e che soddisfano la simmetria del
nostro sistema. Possiamo esprimere l’energia elastica in una certa espansione:
Per la magnetizzazione possiamo lavorare nello stesso modo e avremo delle onde
di spin e l’energia elastica di spin sarebbe a questo punto proporzionale al quadrato
della derivata della magnetizzazione.
Possiamo poi avere delle onde rotazionali nei cristalli liquidi.
Passiamo ora a trattare dei difetti topologici, ovvero quei difetti strutturali
del mio sistema che non sono riconducibili ad una eccitazione elementare, cioè non
sono riconducibili semplicemente a deformazioni elastiche del sistema. Un esempio
classico è la dislocazione del cristallo come quella che possiamo vedere in immagine
10.6.
102
In questi cristalli sembrerebbe che tutto sia normale, che ogni atomo sia cir-
condato dall’adeguato numero di primi vicini, ma se ci concentriamo su una zona
specifica possiamo notare che è presente un’anomalia strutturale. In questo caso è
come se fosse stato inserito un semipiano di difetti. Questa struttura non può essere
ricondotta ad un cristallo perfetto con traslazioni perchè abbiamo introdotto una
singolarità nella struttura.
E’ possibile caratterizzare questo difetto chiudendo un opportuno circuito, vedi im-
magine 10.7, attorno al difetto e calcolandone l’integrale. Se cerchiamo di chiudere
il circuito lungo il reticolo di Bravaris in presenza di un difetto non riusciamo!(non
chiudiamo al punto di partenza se seguiamo un percorso simmetrico). Quello che
possiamo fare è quindi integrare sul circuito intorno alla singolarità e ci aspettiamo
che, come nel piano complesso, l’integrale non si annulli:
I
d~µ = ~b 6= 0
103
gran parte del reticolo e quello che devo rompere è solo un legame che andrò poi a
riformare in una posizione diversa adiacente. Spostare di un passo reticolare le di-
slocazioni costa quindi poca energia. Man mano che sposto queste dislocazioni esse
andranno ad accumularsi ai bordi e mi troverò tutti questi semipiani al bordo che
mi forma un gradino. Quello che lasciamo alle spalle delle dislocazioni al bordo è un
cristallo perfetto con reticolo privo di altre dislocazioni ovvero abbiamo cambiato la
forma macroscopica del nostro reticolo. Nel caso del cubo esso si deformerà in un
parallelepipedo.
Questo processo è alla base della lavorazione metallurgica dei materiali. Il quanto di
deformazione plastica è dunque la dislocazione. Per esempio in una graffetta che si
piega si parte da un cilindro dritto che poi va a piegarsi con un accumulo di dislo-
cazioni sul bordo esterno del piegamento.
F~ = (~b · σ) × ˆl
dove ~b è il vettore di Burgers del difetto su cui il campo agisce, σ è il tensore degli
sforzi prodotti dall’altra dislocazione e ˆl è il versore di Burgers ovvero l’asse delle
dislocazioni.
Possiamo quindi creare un gas di dislocazioni che interagisce con campi di deforma-
zione. Questo è quello che succede all’interno delle lattine quando vado a piegarle.
Un altro esempio sono i cristalli liquidi dove abbiamo delle dislocazioni chiamate
disclinazioni. Una disclinazione è una mezza dislocazione. Anche nei cristalli pos-
siamo avere delle disclinazioni. Un esempio classico è quando prendiamo un foglio
e vogliamo trasformarlo in un cono, la punta del cono è una disclinazione. In due
dimensioni una dislocazione si può sempre scindere in una coppia di disclinazioni.
Dato un reticolo triangolare per esempio ogni atomo ha 6 vicini, ma ci possono essere
3
Meno campo generato dalla carica per la carica su cui agisce
104
atomi con 5 vicini; questo atomo è una disclinazione, ma anche un atomo con sette
vicini è una disclinazione, quindi in un reticolo triangolare abbiamo spesso coppie
di disclinazioni 5-7 e questa coppia pentagono-eptagono, se chiudiamo un circuito
intorno darà una dislocazione. Queste sono particolarmente importanti nelle transi-
zioni di fase per cristalli bidimensionali per esempio. Un premio nobel per la fisica è
stato assegnato perchè venne dimostrato che in un cristallo 2D si ha una transizione
di fase legata a difetti topologici. In particolare venne studiato un cristallo 2D che
fonde separando le disclinazioni in più step. Prima abbiamo la proliferazione delle
dislocazioni, dopodichè abbiamo la formazione di coppie di difetti 5-7 (fase hexati-
ca), poi quando queste coppie si separano abbiamo la formazione della fase liquida.
Tutto questo è particolarmente diverso dal caso 3D in cui la fusione coinvolge una
semplice transizione di fase del primo ordine!!!
Abbandoniamo i difetti topologici e passiamo ora allo studio di una teoria che
permette di descrivere transizioni di fase ordinarie e sia costruita sulla base del
parametro d’ordine. Abbiamo visto che data una transizione di fase possiamo definire
un parametro d’ordine e che esso sarà soggetto a piccole oscillazioni nel tempo.
4
Nota che il Nobel è stato annunciato per la topologia, ovvero transizioni di fase guidate da
difetti topologici
105
In un sistema tipo Ising per esempio5 è necessario introdurre una simmetria
m = −m e quindi cancellare i termini dispari (vogliamo simmetria rispetto all’in-
versione di spin). Considero poi solo il primo ordine nel gradiente e ottengo una
descrizione approssimata dell’energia di Ising in funzione del parametro d’ordine:
1 µ(T ) 2 g(T ) 4
F Ising = k(∇m)2 + f0 + m + m
2 2 4!
Proviamo ora a graficare questa dipendenza. Consideriamo il sistema uniforme ov-
vero:
∇m = 0
cioè stiamo lavorando con una magnetizzazione costante.
A questo punto è necessario distinguere il comportamento a seconda del valore di
µ(T ) che il mio sistema assume. Se µ > 0 sarò in una situazione in cui la dipendenza
diventa armonica e il grafico darà una parabola, vedi 10.10. Se il sistema è descritto
da questa funzione esso si metterà nel minimo di energia libera ovvero nel vertice
della nostra parabola. In questo minimo m = 0, quindi quando µ > 0 il sistema sarà
paramagnetico all’equilibrio.
Se µ < 0 abbiamo un massimo in m = 0 e se consideriamo gli altri termini, per m
grande il termine quartico vince e abbiamo la formazione di due minimi simmetrici
per l’energia libera. Il sistema a questo punti si metterà in uno dei due possibili
minimi. Questo è quello che ci aspettiamo nel caso di un sistema ferromagnetico
con campo nullo, ovvero abbiamo che la probabilità di trovarci in uno dei due stati
ferromagnetici è equivalente.
Nota che per essere tutto consistente dobbiamo a questo punto avere un pa-
rametro µ che deve essere dipendente dalla temperatura e che quindi andremo a
scrivere come µ(T ) poichè è necessario che per:
T = Tc ⇒ µ(T ) = 0
Per descrivere bene la transizione di fase possiamo quindi scrivere in prima appros-
simazione:
µ(T ) = µ0 (T − Tc )
Se accendiamo adesso un campo magnetico l’energia del sistema diventa:
F (m, H) = F (m, H = 0) − Hm
dove −Hm è l’energia associata al campo magnetico. Riplottando la funzione del-
l’energia otteniamo uno scift pari ad una retta in una direzione piuttosto che l’altra,
vedi immagine 10.8. Abbiamo quindi nella situazione ferromagnetica una magnetiz-
zazione di spin più favorita piuttosto che l’altra in funzione del segno di H. Il campo
magnetico ha dunque rotto la simmetria del sistema.
Possiamo quindi vedere in generale come varia la magnetizzazione in funzione del
campo.
Cerchiamo ora il parallelo tra questa descrizione e i grafici calcolati precedente-
mente di magnetizzazione in funzione della temperatura. Lavoriamo del caso in cui
H = 0:
µ0 g
F = (T − Tc )m2 + m4
2 4!
5
Consideriamo m il nostro parametro d’ordine
106
Figura 10.8: Energia libera di Landau per un sistema in campo elettromagnetico
Quello che facciamo adesso è metterci nella situazione di energia minima per il
sistema imponendo la derivata prima nulla e poi esprimiamo la magnetizzazione in
funzione della temperatura:
∂F
=0
∂m
da cui: 21
3!
m=± µ0 (Tc − T )
g
Plottando il risultato ottenuto si ottiene il grafico illustrato nell’immagine 10.9.
Ovviamente questa soluzione va bene per T < Tc , per valori più grandi avremo
l’altra soluzione e il sistema in questo caso sarà paramagnetico con m = 0 (siamo
passati alla parabola).
Da notare che la soluzione che avevamo trovato con l’approssimazione di campo
medio aveva esponente ν = 12 . Infatti la teoria di Landau risulta essere una teoria
di campo medio per il modello di Ising. Questo è evidente poichè abbiamo preso la
107
Figura 10.10: Energia libera di Landau
Uno può scrivere una teoria di Landau generica in base al parametro d’ordine
con cui lavora. Per esempio in un ferromagnete di Heisenberg abbiamo vettori di
spin rotanti in una sfera. In questo caso abbiamo il sombrero:
~ )2 + B(M
F = (∇M )2 + A(M ~ )4
108
Capitolo 11
Correlazione, Fluttuazione e
Dissipazione
non dipende quindi da r poichè mi aspetto che essendo il sistema molto grande sus-
sista un’invarianza di traslazione nella sua definizione ovvero una dipendenza dalla
sola distanza tra due punti. Inoltre è una funzione di correlazione time-independent.
109
Figura 11.1: Separazione di fase in un modello di Ising
La C(r, 0) ci fornisce informazioni su come uno spin influenza i vicini e questa andrà
a cambiare nel momento in cui mi trovo a diverse temperature rispetto alla Tc . Per
esempio sotto la temperatura critica abbiamo un’influenza long-range tra gli spin:
spin molto distanti tenderanno ad allinearsi. Al di sopra della temperatura critica
tra vicini si tende a puntare nella stessa direzione, ma la preferenza è spazialmente
limitata. Questo ci porta ad intuire che in una situazione scorrelata, come quella
in cui T > Tc , abbiamo un decadimento molto rapido della correlazione in funzione
dell’aumento della distanza e per lunghe distanze r C(r, 0) → 0. Invece per T < Tc
essendoci maggior correlazione abbiamo un offset a correlazioni più alte a parità di
distanza e un decadimento più smooth, almeno fino alla ξ(T ) chiamata lunghezza
110
di correlazione ovvero il valore dopo il quale la correlazione diverge al valore long-
range in cui si hanno valori scorrelati, vedi immagine 11.2. Questo valore nel caso ci
trovassimo al di sotto della Tc è:
C(r, 0) ∝ r−(d−2+η)
Mentre per una temperatura poco più alta della temperatura critica si ha un an-
−r
damento come e ξ(T ) , vedi immagine 11.3. Come si può notare si ha una divergenza
nella ξ alla Tc . La lunghezza di correlazione diverge con un esponente ν:
ξ(T ) ∝ (T − Tc )−ν
111
e a questo punto la funzione di correlazione decade con una legge a potenza.
Se siamo invece ad una temperatura alta l’esponenziale decade molto rapidamente
(ξ molto bassa). Nella fase ferromagnetica tutti gli spin sono allineati e questo por-
terebbe a farci pensare ad una correlazione infinita, quello che si fa è però sottrarre
la media e ottenere un comportamento simile a quello della fase paramagnetica:
In questo caso anche se tutti gli spin sono uguali a uno la correlazione va a zero.
Questo ci permette di vedere le correlazioni nelle fluttuazioni del parametro d’or-
dine rispetto al suo valore medio (questa viene chiamata funzione di correlazione
connessa).
Fourier della densità elettronica ρ̃e (k) e l’intensità della radiazione ovvero |ρ̃e (k)|2
può essere facilmente misurata. Dimostriamo ora che questa intensità è direttamente
legata alla C(r):
Z
0
ρ̃(k) = dx0 eikx ρ(x0 ) quindi:
|ρ̃(k)|2 = ρ̃(k)ρ̃(−k) =
Z Z
0 ikx0
dx e ρ(x ) dxe−ikx ρ(x) =
0
Z Z
−ikr
dre dx0 ρ(x0 )ρ(x0 + r) =
112
grande e automediante quindi posso scambiare l’integrale con la media e otteniamo:
Z
|ρ̃(k)| ∝ dreikr V C(r) = V C̃(k)
2
infatti rigorosamente C(R) dovrebbe essere dato dalla media sull’ensamble in cui
stiamo lavorando (come faremmo per un normale osservabile).
∂[ρ(x, t)]ρi
= D∇2 [ρ(x, t)]ρi
∂t
113
Dimostriamo adesso la potenza di una scrittura di questo tipo andando mostrare
che ci permette di fare la stessa identica considerazione sull’evoluzione temporale
delle correlazioni del sistema.
Definiamo la correlazione dipendente da più di un tempo come un’estensione, ovvero
una media temporale della correlazione a tempo fisso cioè della media sull’ensamble1 :
C ideal (r, τ ) = hρ(x + r, t + τ )ρ(x, t)iev
Sfruttando il fatto che il sistema è omogeneo ed invariante per traslazione temporale:
hρ(x + r, t + τ )ρ(x, t)iev = hρ(r, τ )ρ(0, 0)iev
a questo punto possiamo scambiare la media di ensamble e di evoluzione (incasinata
da calcolare) con la media prima sulle fluttuazioni dal valore iniziale fisso seguita
dalla media di ensamble rispetto al valore iniziale ovvero la equal-time correlation:
hρ(r, τ )ρ(0, 0)iev = h[ρ(r, τ )]ρi ρi (0)ieq
A questo punto abbiamo un’espressione familiare di questa correlazione time depen-
dent ed in virtù di Onsager possiamo scrivere2 :
∂C ideal (r, τ )
= D∇2 C ideal (r, τ )
∂t
Questo è il risultato importantissimo! Ed è più generale rispetto al caso da noi
considerato e ci permette di evolvere nel tempo le correlazioni per esempio partendo
da una equal-time correlation C(x, 0) possiamo trovare la funzione di correlazione
più generale per il sistema C(x, t).
Diamo ora un esempio più generale che può chiarirci le idee sulla potenza di questo
risultato.
Pensiamo di voler calcolare la funzione di correlazione di un sistema per un pa-
rametro d’ordine h(x, t). Definiamo nel modo più generale possibile le variazioni
macroscopiche di questo parametro dalla condizione di equilibrio supponendo di
conoscere la funzione di Green che ne descrive l’evoluzione temporale:
Z
h(x, t) = h − dx0 G(x − x0 , t)(h(x0 , 0) − h)
trasliamo il valor medio a zero e per comodità passiamo alla FT della convoluzione:
h̃(k, t) = G̃(k, t)h̃(k, 0)
A questo punto applichiamo la regressione di Onsager scrivendo:
[h̃(k, t)]hi = G̃(k, t)h̃i (k, 0)
Trasformando in Fourier e con qualche passaggio matematico a questo punto, con-
siderando C(x, t) = h[h(x, t)]hi hi (0)ieq , otteniamo:
C̃(k, t) = G̃(k, t)C̃(k, 0)
Potentissimo! Possiamo evolvere, data la funzione di Green per l’evoluzione macro-
scopica di una deviazione dall’equilibrio, la correlazione al tempo zero, calcolabile
con la meccanica statistica all’equilibrio, nella correlazione ad un qualunque tempo
per il sistema in esame.
1
nota che lavorando con delle correlazioni sulle fluttuazioni sarebbe necessario sottrarre dalle
densità la densità media ρ0 scrivendo: (ρ(x + r, t + τ ) − ρ0 )
2
si dimostra facendo brutalmente la derivata nel tempo in pochi passaggi.
114
11.3 Risposta del Sistema
Passiamo ora a far vedere come la funzione di correlazione sia legata alla risposta
del sistema ad una perturbazione.
Ho un sistema all’equilibrio con le mie fluttuazioni caratteristiche del caso e decido
di accendere una perturbazione e potrei farlo per esempio a diverse temperature. Per
esempio in una simulazione con modello di Ising posso accendere un campo oppure
in un gas variare la pressione e vedere il sistema come reagisce andando a vedere
le variazioni del parametro d’ordine quindi la magnetizzazione o la densità nei casi
sopra citati.
Armiamoci di mezzi statistici e buttiamoci in questa avventura.
sarà quindi una funzione dello spazio e del tempo. Il fatto che sia piccola implica che
il cambio nell’energia libera totale post-perturbazione sia lineare e accoppiata al pa-
rametro d’ordine S. Un campo perturbante f (x, t) è quindi una variabile coniugata
al parametro d’ordine. Se per esempio il mio parametro d’ordine fosse la posizione
(lo spazio) a questo punto Ff sarebbe il lavoro compiuto dal campo di forza f (x, t).
Allora se la perturbazione è piccola la variazione del parametro d’ordine sarà an-
ch’essa piccola e sarà direttamente proporzionale alla perturbazione stessa. Mi chiedo
quindi come sarà post-perturbazione il mio parametro d’ordine con perturbazione
piccola e una scrittura la più generale possibile è la seguente:
Z Z t
0
S(x, t) = dx dt0 χ(x − x0 , t − t0 )f (x0 , t)
−∞
Per lavorare con convoluzioni varie è comodo lavorare nello spazio reciproco tra-
sformando tutto in Fourier. Definiamo S̃(k, ω) = (F S)(x, t) e f˜(k, ω) = (F f )(x, t),
quindi:
S̃(k, ω) = f˜(k, ω)χ̃(k, ω)
Di solito, per comodità, si va poi a dividere la suscettività in due parti:
115
e vedremo adesso che parte reale ed immaginaria sono associate rispettivamente alla
risposta del sistema e alla dissipazione.
Calcoliamo la potenza media dissipata (energia per unità di tempo) per unità di
volume:
1 t
Z
∂S
P = lim f (t) dt
T →∞ T 0 ∂t
abbiamo quindi l’integrale di una forza f per una velocità ∂S ∂t
a darci una potenza
per unità di volume che poi viene mediata nel tempo durante la sua azione.
Possiamo pensare ad una dipendenza di S da f che possiamo plottare a dare ragio-
nevolmente un ciclo nel piano 2D. La potenza sarà dunque l’area di questo ciclo e nel
momento in cui faccio più cicli avrò la somma di queste potenze. Quella cheR abbiamo
scritto è dunque l’area del cerchio in una parametrizzazione alternativa a γ f (S)ds.
Oppure possiamo vederla come un’energia totale nel tempo diviso il tempo totale.
116
Quindi:
ω
|fω |2 χ00 (ω)
P =
2
Abbiamo dimostrato che la parte immaginaria della suscettività è legata alla poten-
za dissipata dal sistema.
117
da cui: Z
0
A(t) = dt0 ekt f (t0 )
Abbiamo quindi: Z t
0
S(t) = dt0 e−k(t−t ) f (t)
0
Da cui, per confronto:
χ(t) = e−kt θ(t)
Trasformiamo adesso in Fourier:
Z ∞
k + iω
χ̃(ω) = eiωt−kt θ(t)dt = 2 2
= χ0 + iχ00
−∞ k + iω
118
variazione statica nella media del campo del parametro d’ordine S(x).
Per la forzante abbiamo quindi un campo:
f (x, t) = f (x)
0
A questo punto: f (x) = dkeikx f˜k e S(x) = dk 0 eik x S̃k0 . Sostituendo le antitra-
R R
sformate otteniamo:
Z Z Z
0 i(k+k0 )x 0 0 dk
F = dxdkdk fk Sk0 e = dkdk fk Sk0 δ(k + k )2π = fk S−k
2π
Nel limite discreto di questa espressione, in serie di Fourier, quindi lavorando con
frequenze che sono multipli di 2πl quindi3 :
3
In generale possiamo esprimere una funzione in serie di Fourier utilizzando una base di seni e
coseni e proiettando la funzione in questa base ottenendo:
+∞
X +∞
X
f (t) = (um |f )um = f˜m e−iωm t
m=−∞ m=−∞
2πm
dove ωm = T e ỹm è quella proiezione per una determinata frequenza associata a m della nostra
funzione: Z T
1
(um |f ) = f (t)eiωm t dt
T 0
che possiamo chiamare serie di Fourier della funzione con periodo T .
Se a questo punto ci troviamo a lavorare in una box cubica di lato L, le condizioni periodiche al
contorno sono imposte da questa dimensionalità e la serie risulta essere:
Z
˜ 1
fk = f (x)e−ik·x dV
V
e X
f (x) = ỹk eik·x
k
dove k corre su tutti i punti del reticolo formato dai vettori d’onda nella box:
2πm 2πn 2πo
k(m,n,o) = [ , , ]
L L L
Inoltre nel passare da trasformata a serie (continuo - discreto) si può operare nel seguente modo e
per estenderlo alle tre dimensioni è sufficiente sostituire il volume:
Z
1 1 X 1 X 2π 1X
dω ' ∆ω = =
2π 2π ω 2π T T ω
k
119
dd k
Z X
→ V
(2π)d k
Possiamo ora calcolare il valore di aspettazione del parametro d’ordine nel campo4 :
P
−β(F0 −V
T r S k fk S−k )
ke
hS˜k ieq = P
T r e−β(F0 −V k fk S−k )
Dove l’operazione di traccia in questo caso integra su tutto lo spazio dei possibili
valori di Sk :
YZ
T r() = dSk
k
Ricordando che: P
Z(f ) = T r e−β(F0 −V fk S−k )
k
∂hSk i 1 ∂ 2 ln Z
χ0 (k) = =
∂fk β ∂fk f−k
Sviluppando il conto otteniamo:
∂hS̃k i
χ0 (k) = |f =0 = βV (hSk S−k i − hSk ihS−k i) = βV h(Sk − hSk i)2 i = β C̃(k, 0)
˜
∂ fk
Questo risultato è importantissimo e ci permette di legare la correlazione statica,
ovvero le fluttuazioni del nostro sistema, con la suscettibilità del sistema stesso.
Questo risultato fa parte di quello che è il teorema di fluttuazione e dissipazione.
120
Ma abbiamo anche in FT:
Quindi:
S̃(k, t) = χ̃0 (k)f˜(k)G̃(k, t)
Ma sappiamo anche che, cambiando punto di vista, introducendo una suscettività
spazio-temporale per il nostro sistema:
Z Z t
0
S(x, t) = dx χ(x − x0 , t − t0 )f (x0 )
−∞
Nota che volendo utilizzare risultati all’equilibrio consideriamo la forzante agente per
un certo periodo sul sistema come indipendente dal tempo. Per aggiustare l’estremo
inferiore a t di questa integrazione ricorda che la forzante lavora per t < 0 ed è nulla
t > 0. Perturbo quindi il sistema fino al tempo zero e poi guardo le fluttuazioni fino
all’equilibrio.
Uguagliando quindi le due espressioni:
Z ∞
dτ χ̃(k, τ ) = χ̃0 (k)G̃(k, t)
t
allora5 : Z ∞
dτ χ̃(k, τ ) = β C̃(k, t)
t
Quindi:
∂ C̃(k, t)
χ̃(k, t) = β
∂t
o riscritto nel dominio reale:
∂C(x, t)
χ(x, t) = −β
∂t
per t > 0.
121
Capitolo 12
Transizioni di Fase
Nel secondo ordine non abbiamo fase di coesistenza, ma abbiamo con continuità il
passaggio tra le due fasi. Gli stessi grafici si possono riplottare in funzione dell’energia
libera a seconda dell’ensamble in cui ci troviamo:
A(T, V, N ) = E − T S
oppure:
G(N, P, T ) = E − T S + P V
Plottando queste energie otteniamo i grafici mostrati in figura 12.2(a) e (b). Il grafico
dell’energia libera di Gibbs mostra un punto di incontro tra le linee liquido e gas e
qui si origina la discontinuità nella derivata prima rispetto alla temperatura. Questo
grafico indica le fasi stabili, ma è in realtà possibile sottoraffreddare o surriscaldare
122
Figura 12.1: Diagramma di fase P − T e T − V
123
rispettivamente un gas e un liquido. Queste sono fasi metastabili e sono figlie della
cinetica con cui avviene la transizione di fase (pensiamo per esempio al ghiaccio
quando lo tiriamo fuori dal frigorifero. E’ necessario un certo tempo per sciogliere
tutto il cubetto!). Il proseguimento della curva del diagramma ci da le energie per
le fasi metastabili. Esiste ovviamente un limite per cui la fase metastabile diventa
instabile e si passa all’altra fase, ma in linea di massima se stiamo vicini al punto
critico possiamo avere una buona fase metastabile.
Dal grafico è facilmente possibile vedere che per una certa temperatura possiamo
avere due fasi e quella stabile è quella ad energia più bassa.
pensiamo proporzionale alla densità del mio fluido, abbiamo per m < 0 lo stato
liquido e per m > 0 lo stato gassoso. Avremo una transizione come quella mostrata
in figura con il nostro campo magnetico tramutato in pressione. Ovvio che variando
la pressione fase metastabile e stabile possono invertirsi.
12.2 La Nucleazione
Secondo la teoria della nucleazione l’idea alla base del fenomeno è che si forma un
nucleo stabile all’interno della fase metastabile. Questo nucleo va poi a crescere e ci
porta alla fase stabile. La teoria ha senso se pensiamo a delle bolle nell’ebollizione
o alla cristallizzazione di un liquido.
La teoria che andiamo a vedere è quella della cristallizzazione omogenea ovvero
124
consideriamo il sistema come puro permettendo dunque ai nuclei di nascere in qual-
siasi punto con la medesima probabilità. Sappiamo però che questa è pura fiction
ovviamente. Nessun sistema è puro e anzi sono le impurezze che permettono alla
nucleazione di partire con facilità. E’ in generale più facile espandere qualcosa di
esistente piuttosto che farlo nascere dal nulla.
1
GR = σA − V ρ∆µ
125
Figura 12.4: Diagramma dell’energia libera per la nucleazione in funzione del raggio
della goccia
da cui:
2σT
Rc =
L∆T ρ
Questo raggio critico è il raggio per cui la bolla inizia a crescere. Per R < Rc l’energia
viene minimizzata riassorbendo la goccia, mentre per R > Rc ⇒ R → ∞.
Corrispondentemente abbiamo una barriera:
16πσ 3 1
G(Rc ) =
3ρ2 L2 (∆T )2
2πR R2
∆H(R) = J − Hπ 2
a a
126
dove a è il passo reticolare.
Plottando l’energia abbiamo una crescita lineare per piccoli R e poi un decadimento
parabolico a −∞, vedi immagine 12.5. Computando la derivata prima otteniamo:
Figura 12.5: Energia libera in funzione del raggio di nucleazione per il modello di
Ising
aJ
Rc =
H
127
se aggiungiamo l’interazione tra 4 spin o se prendiamo un reticolo triangolare. Una
∝ (T − Tc )−ν
M ∝ (Tc − T )β
dove β è l’esponente critico e assume valore 12 in campo medio (valido per dimensioni
alte).
Alle transizioni di fase esistono quindi esponenti critici universali. Essi sono dipen-
denti dalla dimensione del sistema e in generale dalle sue simmetrie. In un modello
xy avremo per esempio simmetrie diverse e quindi un set diverso di esponenti critici.
128
Figura 12.7: Modello di Ising alla Tc
∝ (P − Pc )−ν
dove ν è il mio esponente critico ed è invariante nel momento in cui cambio reticolo
o lavoro aprendo legami piuttosto che siti (quello che cambia è Pc ).
Ovviamente in questo sistema abbiamo una diversa classe di universalità rispetto al
modello di Ising.
129
Figura 12.8: Universalità nella percolazione
130
Il cracking noise è un altro fenomeno interessante. Pieghiamo un foglio e studia-
mo come varia l’intensità del segnale in funzione del tempo. Scopriamo che anche
lui segue una legge a potenza ed è molto simile a quella del terremoto.
Rice crispies con un microfono. Il rumore segue la stessa legge a potenza di Gu-
temberg. Questi rumori vari hanno sempre la stessa legge a potenza. L’idea è che
quindi esistono classi di universalità per questi fenomeni dinamici e la teoria delle
transizioni di fase ci permette di studiarli. Per studiare fenomeni intermittenti e ru-
mori crepitanti possiamo quindi usare la legge delle transizioni di fasi. Queste leggi
verranno spiegate e applicate nei corsi più avanzate. Qui Zappe diverge sui Rice
Crispies.
131