Sei sulla pagina 1di 29

Strumenti matematici

• Differenziali e forme differenziali.

Una forma differenziale è una espressione del tipo,

đF = F1(x, y) dx + F2(x, y) dy,

dove F1 and F2 sono delle funzioni assegnate. Un esempio familiare viene dalla meccanica: essa viene fuori dal lavoro
compiuto da una forza F,

đ𝑊 = ⃗⃗⃗⃗
𝐹 · 𝑑𝑟 = 𝐹𝑥 𝑑𝑥 + 𝐹𝑦 𝑑𝑦 + 𝐹𝑧 𝑑𝑧 .

2
La notazione đF significa che la forma in considerazione non è un differenziale esatto, quindi ∫1 đF può dipendere dal
cammino di integrazione. Se vale la condizione,

𝜕𝐹1 𝜕𝐹2
=
𝜕𝑦 𝜕𝑥

allora, đ𝐹 = 𝑑𝐹 è un differenziale esatto e,


2 2
∫1 đF = ∫1 𝑑F = F (2) – F (1)

indipendente dal cammino. Inoltre,

𝜕𝐹 𝜕𝐹
F1(x, y) = ed F2(x, y) =
𝜕𝑥 𝜕𝑦

risultano essere le coordinate del gradiente di una funzione F (x, y).

• Fattore integrante

Consideriamo una forma differenziale non esatta.

Se esiste una funzione 𝜆 (x, y) tale che

𝜆đF = 𝜆F1(x, y) dx + 𝜆F2(x, y) dy = df

cioè la forma diviene esatta , e di conseguenza,

𝜕𝜆𝐹1 𝜕𝜆𝐹2
=
𝜕𝑦 𝜕𝑥

la funzione 𝜆 (x, y) è detta fattore integrante e sia 𝜆 (x, y) che f (x, y) risultano essere funzioni di stato.

• Trasformata di Legendre

È una particolare trasformazione che genera un cambiamento di variabili tra coppie di variabili coniugate.

Consideriamo, ad esempio, la funzione f(x) e definiamo la variabile coniugata a x come,

𝑑𝑓(𝑥)
y≡
𝑑𝑥

La trasformata di Legendre di f è la seguente funzione di y:

𝑔(𝑦) ≡ 𝑓(𝑥) – 𝑦𝑥

1
dove la x a destra deve essere pensata come funzione di y.

Un calcolo diretto dà

𝑑𝑔(𝑦)
𝑑𝑦
=-𝑥 𝑑𝑓 = 𝑦𝑑𝑥 e 𝑑𝑔 = − 𝑥𝑑𝑦

Metodo dei moltiplicatori di Lagrange

Il metodo dei moltiplicatori di Lagrange è utilizzato per cercare i massimi ed i minimi di una funzione di più variabili
soggetta ad uno o più vincoli (nell’ipotesi che questi siano espressi da equazioni algebriche)

In particolare, consente di trasformare un problema di massimi e minimi di una funzione in n variabili soggetta a p
vincoli in un problema di ricerca di massimi e minimi di una funzione non vincolata in 𝑛 + 𝑝 variabili:

• Associando a ciascun vincolo, uno scalare incognito, detto appunto moltiplicatore di Lagrange.

• Definendo una nuova funzione L (detta Lagrangiana) che dipende dalla funzione originaria, dai vincoli e dai
moltiplicatori.

Si consideri una funzione in n variabili 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) soggetta ai p vincoli,

𝑔1 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = 0
{… … … … … … … … … …
𝑔𝑝 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = 0

Siano 𝜆1 , 𝜆2 , … , 𝜆𝑝 gli scalari associati ai vincoli.

Si definisce Lagrangiana, la funzione,

L(𝑥1 , 𝑥2 , … , 𝑥𝑛 , 𝜆1 , 𝜆2 , … , 𝜆𝑝 ) = 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) - 𝜆1 𝑔1 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) - ……- 𝜆𝑝 𝑔𝑝 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )

Di tale funzione si ricercano i punti stazionari risolvendo il sistema

𝜕𝐿
=0
𝜕𝑥1
……….
𝜕𝐿
=0
{𝜕𝑥𝑛
𝜕𝐿
=0
𝜕𝜆1
……….
𝜕𝐿
=0
{𝜕𝜆𝑝

Per la determinazione della natura dei punti stazionari, si ricorre all’Hessiano,

𝐿𝑥𝑥 𝐿𝑥𝑦 𝐿𝑥𝜆


H = |𝐿𝑦𝑥 𝐿𝑦𝑦 𝐿𝑦𝜆 |
𝐿𝜆𝑥 𝐿𝜆𝑦 𝐿𝜆𝜆

Si dimostra che se P (xo, yo, 𝜆o) è un punto stazionario sarà, se H (xo, yo, 𝜆o) > 0,

𝐿𝑥𝑥 > 0 minimo vincolato

𝐿𝑥𝑥 < 0 massimo vincolato

2
Elementi di probabilità e statistica

Molti problemi in teoria delle probabilità e, come vedremo in seguito, in Fisica Statistica richiedono il contare il
numero di modi in cui un particolare evento può accadere.

Numero di permutazioni

Sia N il numero di oggetti distinti. Il numero di permutazioni è dato da N!

Infatti, se si considerano N scatole ed N oggetti,

• ci sono N modi per scegliere il primo oggetto e porlo nella prima scatola,

• ci sono (N-1) modi per il secondo per la seconda scatola,

• etc.

Il totale dei modi è 𝑁(𝑁 − 1) (𝑁 − 2) … 1 = 𝑁!

Numero di disposizioni e numero di combinazioni

Il numero di disposizioni di n oggetti presi tra N oggetti rappresenta il numero di modi di sceglierne n tra N oggetti
considerando anche l’ordine di uscita (ad esempio (1,2) è diverso da (2,1)) ed è dato da,

𝑁!
(𝑁 − 𝑛)!

Se l’ordine di uscita non è rilevante (ad esempio (1,2) è uguale a (2,1)) allora il numero di combinazioni è dato da,

𝑁!
𝑛! (𝑁 − 𝑛)!

Probabilità

La Fisica statistica è sostanzialmente basata su concetti probabilistici.

Come vedremo in seguito, il valore di una grandezza fisica sperimentalmente osservata è interpretata come il suo
valore più probabile.

Questo valore corrisponde al massimo della probabilità di trovarlo. Inoltre, la quantità osservata è nient’altro che il
valore medio risultante da una media statistica sui microstati.

Riassumiamo, perciò, le principali proprietà delle probabilità e le leggi più usate.

Cominciamo col distinguere tra eventi discreti ed eventi continui.

 Eventi discreti

Possono essere distinti l’uno dall’altro senza errore o ambiguità. Pensate al lancio di un dado o a quello di una
moneta in cui il risultato è indipendente da quello precedente.

Supponiamo di effettuare N esperimenti ognuno con un proprio risultato.

Sia 𝑛𝑖 il numero di volte in cui appare un risultato di tipo i tra gli N risultati.

La probabilità di tale evento è,

3
𝑛𝑖
𝑃𝑖 = lim
𝑁→∞ 𝑁

Per ogni 𝑖 è, 0 ≤ 𝑃𝑖 ≤ 1

 Eventi continui – Densità di probabilità

In questo caso c’è sempre una incertezza (errore).

Esempio: Si vuole misurare la lunghezza di un tavolo. Sia ∆𝑃(𝑥) la probabilità che tale lunghezza appartenga
all’intervallo [𝑥, 𝑥 + ∆𝑥] e sia ∆𝑛(𝑥) il numero di volte tra le N misure in cui questo accade, allora,

∆𝑛(𝑥)
∆𝑃(𝑥) = lim
𝑁→∞ 𝑁

La densità di probabilità è definita da,

∆𝑃(𝑥) 𝑑𝑃(𝑥)
𝑊(𝑥) = lim =
∆𝑥→0 ∆𝑥 𝑑𝑥

La probabilità di trovare la lunghezza del tavolo nell’intervallo [𝑥, 𝑥 + ∆𝑥] è, così,

𝑑𝑃(𝑥) = W(x)dx W(x) ≥ 0

Proprietà fondamentali

• Normalizzazione
∑𝑖 𝑛𝑖
∑𝑖 𝑃𝑖 = =1
𝑁

+∞
1
∫ 𝑊(𝑥)𝑑𝑥 = ∫ 𝑑𝑃(𝑥) = ∫ 𝑑𝑛(𝑥) = 1
−∞ 𝑁

• Regola dell’addizione

Se 𝑒1 ed 𝑒2 sono due eventi discreti incompatibili con probabilità 𝑃(𝑒1 ) e 𝑃(𝑒2 ) la probabilità di trovare 𝑒1 o 𝑒2 è,

𝑃(𝑒1 𝑜 𝑒2 ) = 𝑃(𝑒1 ) + 𝑃(𝑒2 )

Per variabili continue, la probabilità di trovare x tra a e b sarà,


𝑏
𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = ∫ 𝑊(𝑥)𝑑𝑥
𝑎

Se i due eventi non sono incompatibili in N esperimenti, allora

𝑃(𝑒1 𝑜 𝑒2 ) = 𝑃(𝑒1 ) + 𝑃(𝑒2 ) − 𝑃(𝑒1 𝑒𝑑 𝑒2 )

• Regola della moltiplicazione

Se 𝑒1 ed 𝑒2 sono due eventi indipendenti,

𝑃(𝑒1 𝑒𝑑 𝑒2 ) = 𝑃(𝑒1 ) 𝑃(𝑒2 )

4
Valori medi

Per variabili discrete,

𝑓 ̅ = ∑ 𝑃𝑚 𝑓𝑚
𝑚

dove 𝑓𝑚 è il valore di 𝑓 nel microstato m di probabilità 𝑃𝑚 e la somma è su tutti gli stati.

Per eventi continui,


+∞
𝑓̅ = ∫ 𝑊(𝑥)𝑓(𝑥)𝑑𝑥
−∞

dove 𝑓(𝑥) è il valore di 𝑓 nello stato 𝑥.

Il valore più probabile di una variabile A corrisponde al massimo di 𝑃(𝐴) 𝑜 𝑊(𝐴).

Varianza

È definita da,
2 2
(∆𝑓)2 = ∑𝑚 𝑃𝑚 (𝑓𝑚 − 𝑓 ̅) = ̅̅̅
𝑓 2 − (𝑓 ̅)

La grandezza ∆𝑓 = √(∆𝑓)2 è nota come deviazione standard e rappresenta la dispersione della distribuzione
statistica. Una relazione analoga vale per il caso continuo. Di solito è usato il simbolo σ per indicarla.

La deviazione standard, o scarto quadratico medio, è, quindi, un indice di dispersione delle misure sperimentali.

È uno dei modi per rappresentare la dispersione dei dati attorno al valore atteso (valore medio).

Le distribuzioni statistiche

Una distribuzione di probabilità è una funzione che sintetizza la relazione tra i valori di una variabile casuale e la
probabilità che questi si presentino.

La conoscenza della distribuzione di probabilità di una variabile casuale fornisce uno strumento potente per
riassumere e descrivere il set di dati e per trarre conclusioni a partire dal campione della popolazione studiata

Una distribuzione di probabilità può essere rappresentata con una tabella, un grafico o una formula.

Una distribuzione continua non permette la stima della probabilità di estrarre un particolare valore, ma solo quelli
compresi in un dato intervallo. Per esempio, nella distribuzione delle altezze di una popolazione di studenti, non è
possibile stimare la probabilità di avere un individuo alto esattamente 176,000 cm ma quella di avere un individuo
tra 180 e 190 centimetri.

La forma di una distribuzione di probabilità continua è usualmente definita da una curva senza sbalzi, mentre per
una variabile discreta la probabilità è definita per i valori puntuali della variabile, e il grafico della distribuzione
rassomiglia ad una serie di impulsi

La forma di una distribuzione può essere simmetrica rispetto al valore centrale o ci può essere una coda più lunga da
un lato piuttosto che da un altro. Se la coda è a sinistra (destra) la distribuzione viene detta asimmetrica a sinistra
(destra).

5
Alcune distribuzioni teoriche di probabilità comunemente usate per descrivere dati sono: la distribuzione Gaussiana
o Normale, la distribuzione Binomiale e la distribuzione di Poisson.

Distribuzione normale (o Gaussiana)

La distribuzione normale (o Gaussiana) è la distribuzione continua più utilizzata in statistica

Le sue proprietà principali sono:

1. ha forma campanulare

2. le sue misure di posizione centrale (media, mediana e moda) coincidono

3. ha due punti di flesso in μ-σ e in μ+σ

4. assume valori compresi tra -∞ e +∞

5. ha come asintoto orizzontale l’asse delle ascisse

lim f ( x)  lim f ( x)  0
x  x 

La funzione di densità di probabilità della normale è data dalla seguente espressione:

1  x 
2

1   
2  
f ( x)  e
 2
dove:

μ = valore atteso (media) della popolazione

σ = scarto quadratico medio della popolazione

x = valori assunti dalla variabile aleatoria

Le probabilità di una distribuzione normale dipendono soltanto dai valori dei due parametri μ e σ.

Diverse combinazioni di questi parametri danno luogo a differenti distribuzioni normali.

Figura 1 Distribuzione normale al variare di μ. Figura 2 Distribuzione normale al variare di σ

6
Caratteristiche di una distribuzione Normale

La probabilità che un valore estratto a caso da una N (μ, σ2)


sia compreso nell’intervallo (μ -σ, μ+σ) è pari a 0.683 e che
sia compreso tra (μ -2σ, μ+2σ) è pari a 0,954.

Il 95% dei valori centrali di una distribuzione Normale


cadono nell’intervallo (μ - 1.96σ, μ+1.96σ) ed il 99%
nell’intervallo (μ – 2.58σ, μ+2.58σ).

Poiché i valori di μ e σ dipendono dal particolare problema


in considerazione le probabilità di trovare dei valori in un
determinato intervallo, anche diverso da quelli comunemente usati, e descritti nel grafico precedente, diventa
complicato.

Non ci sono tavole di probabilità per tutti i possibili valori di μ e σ, esiste una tavola unica che può essere usata per
tutte le variabili Normali. Tale tavola si riferisce ad una particolare distribuzione: la distribuzione Normale
Standardizzata.

La distribuzione normale standardizzata o normale ridotta, si ottiene mediante il cambiamento di variabile dato da

𝑋−𝜇
𝑍=
𝜎
La standardizzazione è una trasformazione che consiste nel:

- rendere la media nulla (μ = 0), poiché ad ogni valore viene sottratta la media;

- prendere la deviazione standard σ come unità di misura (σ = 1) della nuova variabile.

La distribuzione normale ridotta viene indicata con N (0,1), che indica appunto una distribuzione normale con media
0 e varianza uguale a 1.

In ogni distribuzione Normale con media μ e deviazione standard σ, la probabilità tra x1 e x2 è la stessa che tra z1 e z2
nella distribuzione Normale Standardizzata, dove

𝑋1 − 𝜇
𝑍1 =
𝜎
𝑋2 − 𝜇
𝑍2 =
𝜎
Distribuzione binomiale

Consideriamo un esperimento con solo due tipi di risultati possibili (es: Successo (1) - Non Successo (0))
rispettivamente con probabilità 𝑝 e 𝑞 = 1 − 𝑝.

Ripetendo n volte l'esperimento in modo che le ripetizioni diano luogo a risultati indipendenti la somma delle
realizzazioni 0,1 coinciderà con il numero di successi k.

7
Tale numero è una nuova variabile casuale (o meglio aleatoria), somma di n variabili casuali bernoulliane
indipendenti. La variabile casuale Binomiale è definita dalla seguente funzione di probabilità:

tale funzione esprime la probabilità della concomitanza di 𝑘 successi (indipendentemente dall'ordine) che si
alternano agli 𝑛 − 𝑘 insuccessi.

Il coefficiente binomiale:

coefficiente binomiale

esprime i modi distinguibili in cui possono essere ripartiti i k successi negli n tentativi, e, ovviamente, per il binomio
di Newton vale:

 k è un numero intero non negativo (k=0, 1, 2, 3, …, n)


 p è un valore compreso tra 0 e 1 esclusi (0<p<1)

Per una variabile casuale con distribuzione binomiale si può dimostrare che il valore medio è 𝜇 = 𝑛𝑝 e la varianza
vale: 𝑣𝑎𝑟(𝑋) = 𝑛𝑝𝑞 e la deviazione standard risulta: 𝜎 = 𝑛𝑝𝑞

Distribuzione di Poisson

La distribuzione di Poisson è anche detta distribuzione degli eventi rari. Se abbiamo un evento E, il numero di volte
che E si verifica è una variabile aleatoria discreta.

Una variabile aleatoria X (numero di volte che si verifica E), che può assumere i valori 0,1, 2, …, è detta variabile
aleatoria di Poisson con parametro λ se la sua distribuzione di probabilità per λ>0 è:

e   x
P( X ) 
x!
dove:

 λ parametro della Poisson


 x numero di volte che si verifica l’evento E

È un modello probabilistico adoperato per rappresentare situazioni di conteggio della n-esima occorrenza di certi
eventi in una unità di tempo o più precisamente del numero di “successi” in un certo intervallo continuo (di tempo,
di superficie, di lunghezza).

8
Le ipotesi di base della Poisson sono:

1.La probabilità del verificarsi di un evento è costante per tutti i sotto intervalli.

2.L’evento non si può verificare più di una volta in ciascuno dei sotto intervalli.

3.Eventi che si verificano in intervalli disgiunti sono indipendenti.

Una delle caratteristiche principali della variabile aleatoria di Poisson è che il suo valore medio e la sua varianza
coincidono e sono uguali al parametro λ della distribuzione.

In base al valore assunto dal parametro λ la


distribuzione prende differenti forme

Teorema del limite centrale (TLC)

Il teorema del limite centrale (TLC) afferma che, la somma (o la media) di un grande numero di variabili casuali ed
indipendenti e dotate della stessa distribuzione, è approssimativamente normale indipendentemente dalla
distribuzione soggiacente.

Questo significa che la distribuzione di alcune statistiche (per esempio la media del campione) diventa nota, anche se
non si sa nulla a proposito della forma della distribuzione della popolazione da cui i campioni sono stati tratti.

Cosa significa grande?

Una regola euristica afferma che un campione con 𝑛 ≥ 30 sia sufficiente a giustificare l’applicazione del TLC.

9
Fisica Statistica e Probabilità

La termodinamica è lo studio dei sistemi macroscopici indipendente dai loro costituenti microscopici.

La meccanica statistica è lo studio dei sistemi macroscopici che prende in considerazione i loro costituenti
microscopici - per esempio, atomi e molecole - e la maniera in cui essi obbediscono alle leggi della fisica.

Molti dei sistemi che osserviamo in natura - per esempio gas, solidi, liquidi, radiazione elettromagnetica (fotoni) -
sono fatti di un numero molto grande di particelle.

Lo studio di tali sistemi è complicato. Anche quando le interazioni tra le particelle sono piuttosto semplici, il grande
numero di particelle coinvolto genera una complessità che può produrre un comportamento alquanto inaspettato.

Gli esempi includono la transizione improvvisa di un liquido in un solido, la formazione di modelli tali come quelli
trovati nei fiocchi di neve, o l’organizzazione affascinante ed estremamente complessa che si verifica nei sistemi
biologici.

Allora come studiamo un sistema macroscopico fatto di 1024 particelle?

In principio, assumendo alcune interazioni ragionevoli tra le particelle, potremmo studiare l’equazione del moto di
una singola particella e seguire la sua evoluzione.

Ma tale compito per un grande numero di particelle è impossibile. Supponiamo un tentativo, in un singolo lancio di
una moneta, di usare le leggi della meccanica classica per predire l’evoluzione del movimento della moneta e quindi
la situazione finale. Anche se uno prende in considerazione tutte le interazioni con la mano e con l’aria, si avrebbe
bisogno di conoscere esattamente le condizioni iniziali. Questi eventi sono estremamente sensibili alle condizioni
iniziali. Ogni cambio infinitesimo nelle condizioni iniziali sarà amplificato drammaticamente, dando vita ad una
traiettoria completamente diversa.

Si deve ricorrere a nuovi concetti basati su un approccio probabilistico.

Si rinuncia ad una conoscenza dettagliata del sistema dato tentando di predire l’esatta evoluzione di tutte le singole
particelle.

Invece di predire l’esatta evoluzione di tutte le particelle individuali, l’approccio probabilistico si occupa solo della
probabilità che un dato evento si verifichi. Perciò la mira è di predire una distribuzione di probabilità per tutti gli
eventi microscopici.

Da tali distribuzioni probabilistiche si possono valutare valori medi e le fluttuazioni attorno a tali medie.

Nel caso di una moneta, che non ha apparente asimmetria, è naturale assumere che la probabilità che uno dei due
1
eventi si verifichi (per esempio, testa) sia 2. Questa predizione ovviamente non può essere verificata
sperimentalmente in un singolo evento (per esempio, un lancio).

Come si paragona la teoria con gli esperimenti?

Gli esperimenti devono essere il risultato di una media di più realizzazioni. Si ha bisogno di lanciare più monete o una
singola moneta più volte.

10
La frequenza della testa è data da

𝑁+
𝜔+ =
𝑁

dove N+ è il numero di monete con un risultato testa ed N è il numero totale di monete. Questa frequenza è una
quantità sperimentale che può essere misurata. Nel limite N → ∞, il risultato si avvicinerà ad 1/2 se la teoria è
corretta.

Collegamento T.D. – M.S.

È possibile seguire a livello microscopico i movimenti di tutte le molecole (1019 in un mg di gas)?

No, però è possibile determinare il comportamento più probabile del sistema con le tecniche della Meccanica
Statistica, se è nota l’espressione delle forze intermolecolari (per il caso dei gas).

È così possibile calcolare con la M.S. le poche grandezze macroscopiche necessarie per la descrizione termodinamica
(cioè macroscopica) del sistema: pressione, volume, temperatura, energia, entropia.

Nel caso semplice del gas ideale (l’energia totale del gas ideale è solo di tipo cinetico perché si trascurano le forze
intermolecolari) la M.S. dà gli stessi risultati della teoria cinetica.

Per sistemi più complessi del gas ideale la M.S. permette di ottenere risultati che non si ottengono con la sola T.D. di.

Per comprendere la logica della Meccanica Statistica è indispensabile chiarire prima il concetto di Probabilità.

In seguito, esamineremo il caso della suddivisione di N molecole tra le due metà di un recipiente per arrivare al
collegamento tra Entropia e Probabilità.

Probabilità

La definizione classica di probabilità è quella di Laplace:

N. casi favorevoli
P(evento) =
N. casi possibili

Lancio moneta: P(testa) = 1/2, P(croce) = 1/2

Lancio dado: P (1) = P (2) = … = P (6) = 1/6

• Una delle prime regole del calcolo è che, se due eventi sono indipendenti, P (A e B) = P(A)·P(B) (la
probabilità di ottenere “testa” e “2” lanciando simultaneamente moneta e dado è 1/2·1/6 = 1/12)

• Un esempio di risultato del calcolo: in un gran numero di lanci di due dadi, i lanci con punteggio totale 3
saranno circa 1/18.

Nel caso del gas, si tratta di calcolare la probabilità che il sistema si trovi in un determinato macrostato:

il calcolo viene affrontato contando quanti microstati (stati microscopici) corrispondono a quel macrostato (N. casi
favorevoli), assumendo che il sistema attraversi prima o poi tutti i microstati che sono compatibili con la sua energia
totale (N. casi possibili);

Il sistema spenderà più tempo nei macrostati che corrispondono a un maggior numero di microstati, cioè in quelli
più probabili.
11
Equilibrio a livello microscopico

Un litro di acqua in equilibrio a 10 °C costituisce un macrostato (identificato da p, V, T).

Dal punto di vista microscopico un litro di acqua a 10 °C è un’espressione molto ambigua: può corrispondere a un
gran numero di microstati (= elenco delle posizioni e velocità di tutte le molecole), indichiamo questo numero con
W.

L. Boltzmann trovò il modo di eliminare questa ambiguità: dimostrò che il macrostato di equilibrio per un sistema
isolato doveva corrispondere a quello di massima probabilità, probabilità data da:
𝑊
𝑃𝑟𝑜𝑏. = 𝑊0

(W0 è il numero totale di microstati a disposizione del sistema, fissata la sua energia).

Una importante proprietà dei sistemi macroscopici è la seguente: per un sistema costituito da più sottosistemi A, B,
C, … debolmente interagenti il numero di microstati è dato dal prodotto: W = WA·WB·WC·…
𝑊𝐴
dividendo per W0 si vede che lo stesso vale per la probabilità (𝑃𝐴 = 𝑊0
): P = PA·PB·PC·…

Entropia e numero di microstati

Come viene raggiunto l’equilibrio termodinamico in un sistema isolato che parte da una condizione di non equilibrio?

Per t1 < t < t2 avvengono scambi di calore tra i sottosistemi A, B, C… in modo tale che P = PA·PB·PC·… aumenta fino
all’equilibrio completo. Si sa che l’entropia S è una grandezza estensiva: S = SA+SB+SC+…, perciò l’unica relazione
possibile tra entropia e probabilità è:

𝑆 = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒 ∗ ln 𝑃 + 𝑐𝑜𝑠𝑡. 𝑎𝑑𝑑. = 𝑘 ln 𝑊 − 𝑘 ln 𝑊0 + 𝑐𝑜𝑠𝑡. 𝑎𝑑𝑑.

𝑆 = 𝐾𝐵 ln 𝑊 + 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒 𝑎𝑑𝑑𝑖𝑡𝑖𝑣𝑎.

𝐾𝐵 = 1.38·10-23 J/K è la costante di Boltzmann (introdotta da Planck il 14/12/1900).

Distribuzione di Maxwell-Boltzmann

Scopo della Fisica Statistica è determinare e studiare le proprietà macroscopiche di un sistema a partire dallo studio
a livello microscopico dei componenti fondamentali (atomi, molecole, elettroni, ecc.) del sistema stesso.

È importante realizzare che le tipiche grandezze macroscopiche che caratterizzano un sistema sono espressioni di un
comportamento medio dei componenti microscopici.

Ad esempio, la pressione di un gas è una misura della forza media esercitata dalle molecole del gas sulle pareti del
recipiente che le contiene.

12
Al fine di calcolare dei valori medi, è evidente che occorrerà ricorrere ad un formalismo di tipo statistico e quindi alla
conoscenza di distribuzioni di probabilità.

Come abbiamo detto un certo stato macroscopico della materia (gassosa, liquida o solida che sia) è caratterizzato da
una terna P, V, T che noi misuriamo.

Questo stato può essere realizzato microscopicamente in un grande numero di modi diversi a seconda delle posizioni
e delle velocità e quindi delle energie che possiedono le singole molecole.

Si può cioè misurare, in uno stesso volume occupato da un gas, una determinata pressione ed una determinata
temperatura e queste grandezze, pressione e temperatura, si possono ottenere con le molecole del gas distribuite in
modi diversi con energie diverse.

A diversi valori della terna P, V, T si hanno diversi stati macroscopici, ad esempio, dei gas, ciascuno dei quali si può
realizzare microscopicamente in vari modi.

In condizioni normali il gas occuperà uno stato ben determinato a cui compete una fissata terna P, V, T.

La domanda che ora ci poniamo è: quale probabilità deve essere attribuita ad un determinato stato macroscopico
(una determinata terna P, V, T) della materia (solida, liquida o gassosa che sia)?

Tenendo presente che uno stato macroscopico, ad esempio, di un gas si realizza generalmente quando ad esso
compete la massima probabilità, il problema è quello di

legare la probabilità di realizzazione di uno stato macroscopico con le possibili distribuzioni microscopiche delle
molecole che costituiscono il gas stesso.

Diciamo subito che lo stato macroscopico di un sistema a cui compete la massima probabilità, cioè lo stato
macroscopico che più probabilmente ricaviamo facendo delle misure P, V, T, è quello che microscopicamente può
essere realizzato in un numero maggiore di modi diversi

Supponiamo sia N il numero totale di molecole di un gas ed E la loro energia totale.

Supponiamo inoltre che le N molecole costituenti il gas interagiscono solo molto debolmente tra di loro in modo da
poter trascurare l’energia d'interazione e poter quindi parlare di energia "propria” di ciascuna molecola.

Osserviamo infine che le N molecole da noi considerate sono identiche ma classicamente distinguibili; ognuna ha
cioè una sua propria individualità.

Il problema della statistica è di distribuire la quantità assegnata E di energia fra le N molecole.

Posto che un certo numero di molecole avrà energia E0, un certo numero E1, un certo numero E2, ..., un certo
numero En (con E1 + E2 + ... + En = E), il problema è di calcolare la funzione di distribuzione, cioè, come E va distribuita
fra le N particelle.

Si vuole in definitiva determinare tutte le possibili distribuzioni dell'energia fra le N molecole (in modo che l’energia
totale sia sempre E).

Poiché distribuzioni (microscopicamente) diverse non necessariamente corrispondono a stati macroscopici


distinguibili, il problema della statistica è

determinare qual è lo stato macroscopico che può essere realizzato con il massimo numero di stati microscopici.

Abbiamo chiamato tale stato macroscopico stato di equilibrio del sistema.

13
Per facilitare i ragionamenti che svolgeremo, immaginiamo che il volume occupato dal gas sia diviso in tante cellette
(o stato, o livello) che chiameremo 1, 2, ..., M (queste cellette le supponiamo di ugual volume e in numero finito M),
che possono essere pensate come tante piccole scatolette entro le quali si possano disporre delle palline (le nostre
molecole).

La situazione può essere "letta" così: in un particolare stato macroscopico del gas in considerazione (una particolare
terna P, V, T), composto da N molecole
identiche ma distinguibili (e quindi
numerabili: 1, 2, ..., N),

 n1 molecole si trovano nello stato 1


di energia E1
 n2 molecole si trovano nello stato 2
di energia E2
 ...
 nM molecole si trovano nello stato
M di energia EM

originando così il primo possibile stato del


sistema.

A questo punto entra in gioco il fatto che le


molecole sono distinguibili classicamente, per cui si ottengono tutti gli stati microscopici che ci danno una stessa
configurazione macroscopica del nostro gas disponendo in tutti i modi possibili le molecole tra le diverse energie.

Ad esempio, date tre particelle (a, b, c), n1 = 2 si può ottenere in tre modi diversi:

𝑎𝑏 𝑎𝑐 𝑏𝑐

Al variare quindi della individualità delle molecole che occupano un determinato stato microscopico otteniamo tutti i
possibili stati microscopici che ci danno lo stesso stato macroscopico.

Se si vuole uno stato macroscopico diverso (una diversa terna P, V, T) si debbono cambiare i numeri nj (1) di
occupazione.

In ogni caso le condizioni che devono rimanere sempre valide sono:

A. il numero totale di molecole è costante ed uguale ad N, cioè

∑ 𝑛𝑗 (𝑖) = N
𝑗

B. l'energia totale delle molecole è costante ed uguale ad E, cioè,

∑ 𝑛𝑗 (𝑖) 𝐸𝑗 = E
𝑗

Come si può ben capire, ad esempio considerando un gas, vi sono moltissimi stati e un numero grandissimo di
molecole (miliardi di miliardi).

14
È allora impensabile procedere come nei nostri esempi non essendo bastante una vita per sistemare queste
molecole negli stati possibili.

Ecco allora che ci vengono in aiuto i metodi statistici, i quali, oltre a darci il numero di tutte le possibili distribuzioni
delle molecole nelle cellette, ci informano anche su quale distribuzione debba ritenersi la più probabile.

Relativamente a quest'ultima affermazione, possiamo trarre qualche aiuto dagli esempi fatti.

Si può infatti ammettere, senza eccessiva difficoltà, che un sistema (ad esempio un gas) tenderà a trovarsi
prevalentemente in quella classe di stati del sistema stesso corrispondente al più grande dei valori dei 𝑃𝑖 .

Quindi per noi 𝑃𝑖 rappresenta il numero di stati del sistema; allora, tanto più è grande 𝑃𝑖 , cioè tanto più è grande il
numero di stati microscopici del sistema che ci danno uno stesso stato termodinamico macroscopico, quanto più è
probabile che, se noi andassimo ad osservare il sistema in un determinato istante, troveremmo quello stato (ciò
equivale a dire che: gli eventi si svolgono nella direzione verso cui è più probabile si svolgano - teorema ergodico -).

Formalizzazione

Ciò che si può ricavare da quanto detto è che se si ha un sistema (isolato) in esso avvengono solo quelle
trasformazioni che lo portano verso lo stato a cui compete la massima probabilità (stato più stabile del sistema) e ciò
è sempre vero ogni qualvolta il numero N dei componenti del sistema è grandissimo e nel nostro caso (molecole di
un gas) la cosa è sempre verificata.

Dobbiamo distribuire N particelle tra diversi livelli (o scatole o stati, ecc.).

Per il primo livello il numero di modi per mettere n1 particelle è (coefficiente binomiale)

𝑁!
𝑛1 ! (𝑁 − 𝑛1 )!

Per il secondo livello, con n2 particelle da sistemare, abbiamo che il numero di modi è,

(𝑁 − 𝑛1 )!
𝑛2 ! (𝑁 − 𝑛1 − 𝑛2 )!

Il numero di modi complessivi su j stati sarà:

𝑁! (𝑁−𝑛1 )! 𝑁! 𝑁!
x
𝑛1 !(𝑁−𝑛1 )! 𝑛2 !(𝑁−𝑛1 −𝑛2 )!
x…. = 𝑛 !𝑛 !…𝑛 !… = ∏𝑗 𝑛𝑗 !
1 2 𝑗

Questa espressione deve in realtà essere corretta per un fattore, per tenere conto della possibilità che i diversi stati
energetici abbiano un diverso peso statistico: questo accade perché, insieme all’energia, ci sono altre grandezze che
definiscono lo stato dinamico della molecola, come p.es. il momento angolare: se la gamma di valori possibili per le
altre grandezze è più grande in certi stati, è più probabile che questi stati siano occupati. Quindi l’ipotesi di equa
probabilità per tutti gli stati energetici deve essere corretta per il cosiddetto fattore di degenerazione 𝑔𝑗 , che misura
appunto la diversa probabilità intrinseca di occupazione. Per trovare 𝑛𝑗 molecole nello stato con energia 𝐸𝑗 , la
probabilità intrinseca è proporzionale a 𝑔𝑗 𝑛𝑗 .

Se il livello j ha una degenerazione 𝑔𝑗 in modo che ognuna delle 𝑛𝑗 particelle può entrare in uno dei 𝑔𝑗 livelli in 𝑔𝑗 𝑛𝑗
modi che significa che per tutti i livelli il numero dei modi sarà, ∏𝑗 𝑔𝑗 𝑛𝑗 .

15
Otteniamo alla fine che, il numero totale dei modi sarà:
𝑛
𝑔𝑗 𝑗
Ω = 𝑁! ∏𝑗
𝑛𝑗 !

Dobbiamo massimizzare questo numero mantenendo fissate E ed N.


1
Questo significa, 𝑑Ω = 0 o, anche, 𝑑(ln 𝛺) = 𝛺
dΩ = 0.

Possiamo scegliere di massimizzare ln 𝛺 invece di Ω,

ln 𝛺 = ln 𝑁! + ∑ 𝑛𝑗 ln 𝑔𝑗 − ∑ ln 𝑛𝑗 !
𝑗 𝑗

A questo punto è utile introdurre la formula di Stirling che rende più semplici i calcoli da svolgere (N--->∞),

ln 𝑁 ! = 𝑁 ln 𝑁 − 𝑁

Quindi

ln 𝛺 ≈ 𝑁 ln 𝑁 − 𝑁 + ∑(𝑛𝑗 ln 𝑔𝑗 − 𝑛𝑗 ln 𝑛𝑗 + 𝑛𝑗 )
𝑗

= 𝑁 ln 𝑁 + ∑𝑗(𝑛𝑗 ln 𝑔𝑗 − 𝑛𝑗 ln 𝑛𝑗 )

𝑔
= 𝑁 ln 𝑁 + ∑𝑗 𝑛𝑗 ln ( 𝑗 )
𝑛𝑗

da cui,

𝑔
𝑑(ln 𝛺) = ∑𝑗 (𝑑𝑛𝑗 ln ( 𝑗) − 𝑑𝑛𝑗 ) = 0
𝑛𝑗

È un problema di massimo assoluto vincolato (sotto le condizioni di costanza del numero totale di particelle e
dell'energia) che si risolve normalmente con il metodo dei moltiplicatori di Lagrange.

Introducendo due costanti arbitrarie 𝛼 e 𝛽 legate ai vicoli come,

𝛼 ∑ 𝑑𝑛𝑗 = 0 , − 𝛽 ∑ 𝐸𝑗 𝑑𝑛𝑗 = 0
𝑗 𝑗

Otteniamo

𝑔
∑𝑗 (ln ( 𝑗) + 𝛼 − 𝛽𝐸𝑗 ) 𝑑𝑛𝑗 = 0
𝑛𝑗

Scegliamo 𝛼 e 𝛽 in modo che,

𝑔𝑗
ln ( ) + 𝛼 − 𝛽𝐸𝑗 = 0
𝑛𝑗

da cui, la configurazione più probabile del sistema è:

𝑛𝑗 = 𝑔𝑗 𝑒 𝛼 𝑒 −𝛽𝐸𝑗

Essendo, N = ∑𝑗 𝑛𝑗 = ∑𝑗 𝑔𝑗 𝑒 𝛼 𝑒 −𝛽𝐸𝑗 , si ha,


16
𝑁
𝑒𝛼 = −𝛽𝐸𝑗
∑𝑗 𝑔𝑗 𝑒

e quindi,
𝑁𝑔𝑗 𝑁𝑔𝑗
𝑛𝑗 = −𝛽𝐸𝑗 𝑒 −𝛽𝐸𝑗 = 𝑍
𝑒 −𝛽𝐸𝑗
∑𝑗 𝑔𝑗 𝑒

che è la nostra distribuzione di Maxwell-Boltzmann.

La grandezza Z è nota come funzione di partizione del sistema.

Relazione tra parametri macroscopici e microscopici

Abbiamo trovato quello che cercavamo, e cioè la funzione di distribuzione nei vari stati disponibili. Questa funzione
descrive lo stato microscopico (in particolare lo stato di equilibrio) del sistema quando siano specificati i due
parametri 𝛼 e 𝛽.

Lo stato macroscopico è descritto fissando il numero totale di particelle N e l’energia totale del sistema E.

∑𝑗 𝑛𝑗 = N , ∑𝑗 𝑛𝑗 𝐸𝑗 = E

e cioè, N = ∑𝑗 𝑛𝑗 = ∑𝑗 𝑔𝑗 𝑒 𝛼 𝑒 −𝛽𝐸𝑗 , così, anche per l’energia.

Discussione molto ma molto qualitativa

Per il nostro caso assumiamo l’energia come un continuo per cui possiamo sostituire le somme con gli integrali,

∫ 𝛼 𝑒 −𝛽𝐸𝑗 𝑑𝐸𝑗 = 𝑁
0


∫ 𝛼𝐸𝑗 𝑒 −𝛽𝐸𝑗 𝑑𝐸𝑗 = 𝐸
0

Il calcolo degli integrali fornisce,


𝛼 𝛼
𝑁= , 𝐸=
𝛽 𝛽2
𝑁 𝑁
Sostituendo la prima nella seconda abbiamo, 𝐸 = 𝛽 da cui, 𝛽 = 𝐸

1 𝐸
Cioè, 𝛽
= 𝑁 = ⟨𝐸𝑗 ⟩ (energia media per componente = 𝐾𝐵 T)

E quindi,
1
𝛽
= 𝐾𝐵 𝑇

Risultato vero in generale.

La distribuzione di Boltzmann è una espressione matematica che ci dà la distribuzione più probabile di un numero
grande di molecole tra stati di energia diversa.

In particolare, ci permette di calcolare, per un campione di particelle N in un sistema in equilibrio termico alla
temperatura T, il numero di particelle ni che trovano in uno stato di energia Ei paragonato a quelle, nj, che si trovano
in un altro stato di energia Ej.
17
Meccanica statistica e termodinamica

Prima legge

In termodinamica è: 𝑑𝑈 = đ𝑄 + đ𝑊

In meccanica statistica: 𝑈 = 𝐸 = ∑𝑗 𝑛𝑗 𝐸𝑗

da cui, 𝑑𝑈 = ∑𝑗 𝑛𝑗 𝑑𝐸𝑗 + ∑𝑗 𝑑𝑛𝑗 𝐸𝑗

Sappiamo che đ𝑊 = 𝑃𝑑𝑉 e questo implica un cambiamento delle condizioni al contorno (V) che porta ad un
cambiamento dei livelli di energia

đ𝑊 = ∑𝑗 𝑛𝑗 𝑑𝐸𝑗

𝜕𝐸𝑗
Così, per esempio, 𝑃 = ∑𝑗 𝑛𝑗 𝜕𝑉
.

Di conseguenza, đ𝑄 = ∑𝑗 𝑑𝑛𝑗 𝐸𝑗 che significa un arrangiamento diverso nella distribuzione.

Seconda legge

Partiamo dall’equazione 𝑇𝑑𝑆 = 𝑑𝑈 + 𝑃𝑑𝑉 – 𝑚𝑑𝑁, così da risultare S ≡ 𝑓(𝑈, 𝑉, 𝑁)

Sappiamo anche che Ω ≡ 𝑔(𝑈, 𝑉, 𝑁)

Nota: in trasformazioni adiabatiche, per esempio, đQ = 0

𝑑𝑆 = 0, 𝑐𝑖𝑜è 𝑆 = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒

Anche 𝑑𝑛j = 0, quindi Ω = costante

Per trasformazioni irreversibili l’entropia totale aumenta ma anche Ω totale aumenta dovendo lo stato di equilibrio
corrispondere al massimo di Ω.

Consideriamo due sistemi con entropia S1 e S2 e numero di microstati Ω 1 e Ω 2, l’entropia totale è S = S1 + S2, mentre
il numero di microstati totali è Ω = Ω 1*Ω 2.

Essendo

𝑆 ≡ 𝑓(Ω)

sarà, S1 ≡ f (Ω 1) ed S2 ≡ f (Ω 2) e, f (Ω 1 Ω 2) = f (Ω 1) + f (Ω 2)

Differenziamo f(Ω) rispetto, prima, a Ω 1 e poi a Ω 2, abbiamo:

𝜕𝑓(Ω) 𝜕𝑓(Ω1 Ω2 ) 𝜕𝑓(Ω1 Ω2 ) 𝜕𝑓(Ω) 𝜕𝑓(Ω1 )


𝜕Ω1
= 𝜕Ω1
= 𝜕(Ω1 Ω2 )
Ω2 = 𝜕Ω
Ω2 = 𝜕Ω1

Allo stesso modo si ottiene,

𝜕𝑓(Ω) 𝜕𝑓(Ω2 )
Ω1 =
𝜕Ω 𝜕Ω2

E quindi,

1 𝜕𝑓(𝛺1 ) 1 𝜕𝑓(𝛺2 )
𝛺2 𝜕𝛺1
=𝛺
1 𝜕𝛺2

18
e cioè,

𝜕𝑓(𝛺1 ) 𝜕𝑓(𝛺2 )
𝛺1 𝜕𝛺1
= 𝛺2 𝜕𝛺2
=𝑘

Da cui,

𝑆1 = 𝑓(𝑊1) = 𝑘 𝑙𝑛𝛺1 + 𝐶

𝑆2 = 𝑓(𝑊2) = 𝑘 𝑙𝑛𝛺2 + 𝐶

𝑆 = 𝑘 𝑙𝑛𝛺1 + 𝑘 𝑙𝑛𝛺2 + 𝐶 = 𝑆1 + 𝑆2

che implica C = 0. E quindi,

𝑆 = 𝑘 𝑙𝑛𝛺

con 𝑘 costante di Boltzmann (𝐾𝐵 ).

Abbiamo quindi un significato microscopico (statistico) dell’entropia.

Il sistema risulta perfettamente ordinato quando Ω = 1 ed S = k ln𝛺 = 0.

Quando diventano accessibili più microstati è Ω > 1 ed S > 0, e diminuisce la conoscenza sul sistema e aumenta il
disordine.

Dalla relazione che abbiamo ottenuto per S il valore preciso di k non può essere determinato, bisogna analizzare il
caso del gas perfetto.

Terza legge

Quando la temperatura tende a zero, il sistema (tutte le sue componenti) tende verso lo stato fondamentale con Ω =
1.

Questo lo si può capire guardando il comportamento della funzione di partizione.


𝐸𝑗 1
Per T ---> 0 i termini esponenziali 𝐾 tendono ad ∞ in quanto il termine ß = 𝐾 tende all’infinito e quindi ogni
𝐵𝑇 𝐵𝑇
termine della sommatoria di Z è zero, in quanto ha la forma e-x, con x ---> ∞ implica Z ---> 1 e siccome Z conta il
numero dei microstati accessibili, questo conferma quanto sopra.

Di conseguenza T ---> 0 e S ---> 0.

Altre variabili termodinamiche

Cominciamo con l’energia interna U (o E),

U = E = ∑𝑗 𝑛𝑗 𝐸𝑗

Essendo la funzione di partizione,

𝜕𝑍
Z = ∑𝑗 𝑔𝑗 𝑒 −𝛽𝐸𝑗 è | =
𝜕𝛽 𝑉,𝑁
∑𝑗(−𝐸𝑗 ) 𝑔𝑗 𝑒 −𝛽𝐸𝑗

𝑁𝑔𝑗 𝑁𝑔𝑗
per U abbiamo, (ricordiamo che 𝑛𝑗 = −𝛽𝐸𝑗 𝑒 −𝛽𝐸𝑗 = 𝑍
𝑒 −𝛽𝐸𝑗 )
∑𝑗 𝑔𝑗 𝑒

19
𝑁 𝑁 𝜕𝑍
U = 𝑍 ∑𝑗 𝐸𝑗 𝑔𝑗 𝑒 −𝛽𝐸𝑗 = - 𝑍 𝜕𝛽|
𝑉,𝑁

𝑑𝛽 1
Ed essendo, 𝑑𝑇 = − 𝑘𝑇 2 , otteniamo,

𝜕𝑙𝑛𝑍 𝜕𝑙𝑛𝑍
U=-N | =
𝜕𝛽 𝑉,𝑁
𝑁𝑘𝑇 2 |
𝜕𝑇 𝑉,𝑁

Abbiamo scritto (quando abbiamo ricavato la distribuzione di Maxwell-Boltzmann) che,

𝑔
ln 𝛺 ≈ 𝑁 ln 𝑁 + ∑𝑗 𝑛𝑗 ln (𝑛𝑗) (formula di Stirling),
𝑗

Ricordando che,
𝑁 𝑔𝑗 𝑍
𝑛𝑗 = 𝑔 𝑒 −𝛽𝐸𝑗
𝑍 𝑗 𝑛𝑗
= 𝑁 𝑒 𝛽𝐸𝑗

Possiamo scrivere,

ln 𝛺 = 𝑁 ln 𝑁 + 𝛽(∑𝑗 𝑛𝑗 𝐸𝑗 ) + 𝑁 ln 𝑍 - 𝑁 ln 𝑁= 𝛽𝑈 + 𝑁 ln 𝑍

E quindi,
𝑈
S = k ln 𝛺 = k (𝛽𝑈 + 𝑁 ln 𝑍) = + 𝑁 ln 𝑍
𝑇

L’ energia libera di Helmholtz F è definita come

𝐹 = 𝑈– 𝑇𝑆

Dalla precedente equazione per S otteniamo immediatamente che,

𝐹 = − 𝑁𝑘𝑇 𝑙𝑛 𝑍

Poiché,

𝑑𝐹 = 𝑑𝑈 – 𝑇𝑑𝑆 – 𝑆𝑑𝑇 = 𝑇𝑑𝑆 – 𝑃𝑑𝑉 − 𝑇𝑑𝑆 – 𝑆𝑑𝑇 = − 𝑃𝑑𝑉 – 𝑆𝑑𝑇

da quest’ultima possiamo calcolare,

𝜕𝐹 𝜕 ln 𝑍
• la pressione P = - (𝜕𝑉) = 𝑁𝑘𝑇 ( 𝜕𝑉 𝑇
)
𝑇

𝜕𝐹 𝑈
• l’entropia S = - (𝜕𝑇 ) = 𝑇
+ 𝑁𝑘 𝑙𝑛 𝑍 (che è lo stesso risultato trovato in precedenza)
𝑉

Dalle precedenti relazioni si possono calcolare tutte le funzioni di risposta.

I postulati della meccanica statistica

Come affermato più volte, la meccanica statistica studia i sistemi macroscopici esaminando i loro elementi
microscopici, elementi che obbediscono alle leggi della meccanica classica o meccanica quantistica. Per descrivere un
sistema isolato in completo dettaglio possiamo usare anche la meccanica classica o la meccanica quantistica.

Usando le leggi della meccanica quantistica, si deve trovare la soluzione - data la funzione d’onda ψ a t = 0 –
dell’equazione di Schrödinger dipendente dal tempo,

20
𝜕𝜓
𝑖ħ = H𝜓
𝜕𝑡

dove H è l’Hamiltoniana del sistema e ψ è la funzione d’onda.

In meccanica classica, uno stato microscopico di un sistema tridimensionale è caratterizzato dalle coordinate
{q1...q3N} ed i loro momenti coniugati {p1...p3N}. L’evoluzione del sistema si trova risolvendo le equazioni di Hamilton
che, per condizioni iniziali fissate, determinano tutta la dinamica del sistema.

Ogni variabile macroscopica A è una funzione delle 6N coordinate A = A[q(t), p(t)]. Ogni misura della variabile
macroscopica A corrisponde al fare una media Aobs su un intervallo di tempo opportuno τ,
1 𝜏
𝐴𝑜𝑏𝑠 ≡ 𝐴̅ = 𝜏 ∫0 A[q(t), p(t)]𝑑𝑡

Per esempio, la pressione è ottenuta usando un apparato che non misura il valore istantaneo della forza esercitata
dalle particelle sull’unità di superficie, ma una media sul tempo su un intervallo di tempo τ che dipende
dall’apparato. Per misurare la temperatura, un termometro dà il valor medio dell’energia cinetica.

In principio, per trovare il risultato teorico di una data misura, si dovrebbe risolvere l’equazione del moto e calcolare
l’integrale. Per un sistema macroscopico di 1024 particelle, questo compito è impossibile non solo per la difficoltà
intrinseca di risolvere 6 × 1024 equazioni differenziali accoppiate, ma anche perché sarebbe impossibile conoscere
esattamente le coordinate iniziali delle particelle.

Allora come si calcola 𝐴̅?

Dobbiamo prima rinunciare alla nozione che possiamo conoscere le coordinate del sistema ad ogni istante di tempo
e sostituire la media temporale con un’altra media chiamata media “d’insieme”, che vedremo darà lo stesso valore
della media sul tempo ma in una maniera molto più semplice.

Consideriamo un sistema di N particelle con un’energia fissata E ed un volume V.

Consideriamo un insieme fatto di N copie macroscopicamente identiche al sistema dato, quindi con la stessa energia
E, volume V, e numero di particelle N.

In ogni dato istante di tempo t0, ogni sistema sarà in una configurazione {𝑞𝑘 , 𝑝𝑘 } in cui k indica i sistemi dell’insieme
k = 1, 2, ..., N.

Ogni variabile dinamica macroscopica assumerà un valore Ak ≡ A (qk, pk) nel sistema k. La media di insieme è data da
N
1
⟨𝐴⟩𝑒𝑛𝑠 = ∑ 𝐴𝑘
N
𝑘=1

con N estremamente grande (N → ∞).

Per caratterizzare l’insieme e calcolare la media di insieme, dobbiamo dare la distribuzione dei sistemi su tutte le
configurazioni microscopiche.

Facciamo questo considerando la configurazione microscopica di ogni sistema caratterizzata dal valore delle
coordinate {q, p} ≡ {q1...q3N, p1...p3N}. Questo microstato può essere considerato come le coordinate di un punto
nell’iperspazio in 6N dimensioni chiamato spazio delle fasi.

Perciò i microstati degli N sistemi dell’insieme possono essere rappresentati da N punti nello spazio delle fasi.

21
La distribuzione che caratterizza l’insieme è descritta da una funzione ρ (p, q) definita nello spazio delle fasi tale che

𝜌(𝑝, 𝑞)𝑑𝑞𝑑𝑝 = 𝑑𝑁,

dove 𝑑𝑁 è il numero di sistemi caratterizzato da uno stato microscopico rappresentato nello spazio delle fasi dal
volume elementare 𝑑𝑝𝑑𝑞.

La media di insieme è allora data da,

∫ 𝐴(𝑝,𝑞)𝜌(𝑝,𝑞)𝑑𝑝𝑑𝑞
⟨𝐴⟩𝑒𝑛𝑠 =
∫ 𝜌(𝑝,𝑞)𝑑𝑝𝑑𝑞

con, ∫ 𝜌(𝑝, 𝑞)𝑑𝑝𝑑𝑞 = N.

Dobbiamo ora scegliere un insieme che ha la proprietà che la media di insieme di ogni quantità dinamica coincida
con la media temporale del sistema dato.

Per farlo, dobbiamo fare una scelta intuitiva e confrontare le sue conseguenze con i dati sperimentali.

Facciamo l’ipotesi che l’insieme corretto per descrivere un sistema in equilibrio, è distribuito uniformemente su tutte
le configurazioni permesse.

Questa ipotesi è conosciuta come il postulato dell’uguale a priori probabilità ed è espressa dicendo che, ρ (p, q) è
costante nello spazio delle fasi accessibile, (corrispondente a quei microstati con un numero di particelle N confinate
in un volume V e con energia 𝐸 ≤ 𝐻(𝑝, 𝑞) ≤ 𝐸 + 𝛿𝐸), e zero altrimenti.

Il postulato dell’uguale a priori probabilità è basato sull’idea intuitiva che tutte le configurazioni microscopiche sono
equivalenti.

La ragione di questa ipotesi è che non c’è ragione di privilegiare alcune configurazioni dando loro un peso diverso.
Nello stesso modo non c’è ragione di dare un peso diverso al lancio di una moneta o alle configurazioni di particelle
in una scatola.

Non c’è prova generale per questa ipotesi. Lo assumiamo quindi come postulato e dopo confrontiamo tutte le
conseguenze con gli esperimenti. Purché l’accordo con gli esperimenti sia corretto accettiamo il postulato. Al
contrario in assenza di accordo dovremmo essere pronti a contraddire il postulato.

Se il sistema dato non è in equilibrio, non possiamo fare questa assunzione.

Per esempio, nel caso delle particelle in una scatola, se prepariamo il sistema a t = t0 in cui tutte le particelle sono
nella parte sinistra della scatola, non tutte le configurazioni hanno lo stesso peso. Infatti, il sistema in questo caso
evolverà ed una quantità macroscopica come la frazione di particelle nella parte sinistra della scatola cambierà nel
tempo finché non raggiungerà il valore di equilibrio.

22
Spazio delle fasi e Teorema di Liouville

Consideriamo un sistema classico composto da N particelle.

Un microstato di tale sistema è completamente definito specificando le 3N coordinate di posizione 𝑞1 , … , 𝑞3𝑁 e i 3N


momenti 𝑝1 , … , 𝑝3𝑁 di tute le particelle che compongono il sistema.

Costruendo uno spazio a 6N dimensioni, un punto in tale spazio specificherà esattamente un microstato.

Questo spazio è lo spazio delle fasi, in cui ogni punto di coordinate (𝑞𝑖 , 𝑝𝑖 ) è rappresentativo di un microstato del
nostro sistema.

La distribuzione di punti nello spazio delle fasi al tempo t0 è caratterizzata dalla distribuzione ρ (q, p) ≡ ρ (q, p, t0).
Come evolve il tempo, ogni punto nello spazio delle fasi si muove in accordo alle equazioni di Hamilton.

Se questo postulato fondamentale descrive un sistema all’equilibrio, allora la distribuzione al tempo t0 deve essere
uguale alla distribuzione ad ogni tempo t.

Al tempo t, i punti saranno descritti in principio da una nuova funzione ρ (q, p, t). Comunque, mostreremo che tale
distribuzione è indipendente dal tempo come conseguenza del teorema di Liouville, in pratica

ρ (q, p, t0) ≡ ρ (q, p, t).

Questo risultato supporterà la validità del postulato dell’uguale a priori probabilità che si applica ai sistemi di
equilibrio.

Il proposito del teorema di Liouville è di dare l’equazione di evoluzione per ρ (q, p, t).

Poiché il numero di punti rappresenta il numero di sistemi N, questo numero si conserva. Quindi possiamo scrivere
un’equazione di continuità,

𝜕𝜌
̅ · 𝐽̅ +
∇ = 0,
𝜕𝑡

dove ρ è la densità di punti, 𝐽 ̅ = 𝜌 𝑣̅ il flusso, e 𝑣̅ = 𝑣̅ (𝑝, 𝑞) la velocità nello spazio delle fasi del punto (p, q).

Le componenti della velocità nello spazio delle fasi sono,

𝑣̅ ≡ 𝑣̅ (𝑝̇1 ,…, 𝑝̇3𝑁, 𝑞̇ 1 ,…, 𝑞̇ 3𝑁 )

quindi,

𝜕(𝜌𝑞̇ 𝑖 ) 𝜕(𝜌𝑝̇ )
̅∇· 𝐽 ̅ = ∑3𝑁
𝑖=1 ( 𝜕𝑞 + 𝜕𝑝 𝑖 ) =
𝑖 𝑖

𝜕(𝜌) 𝜕(𝑝̇ 𝑖 ) 𝜕(𝜌) 𝜕(𝑞̇ 𝑖 )


= ∑3𝑁
𝑖=1 ( 𝜕𝑞 𝑞̇ 𝑖 + 𝜌 𝜕𝑝𝑖
+ 𝜕𝑝𝑖
𝑝̇ 𝑖 +𝜌 𝜕𝑞𝑖
)
𝑖

Utilizzando le equazioni di Hamilton, possiamo scrivere,


3𝑁
𝑑𝜌 𝜕𝜌 𝜕(𝜌) 𝜕(𝜌)
= + ∑( 𝑞̇ 𝑖 + 𝑝̇ ) = 0
𝑑𝑡 𝜕𝑡 𝜕𝑞𝑖 𝜕𝑝𝑖 𝑖
𝑖=1

o, anche,

23
3𝑁
𝜕𝜌 𝜕(𝜌) 𝜕𝐻 𝜕(𝜌) 𝜕𝐻
+ ∑( + )=0
𝜕𝑡 𝜕𝑞𝑖 𝜕𝑝 𝑖 𝜕𝑝𝑖 𝜕𝑞𝑖
𝑖=1

dove la somma è chiamata parentesi di Poisson {ρ, H}.

Le equazioni ricavate sono enunciati equivalenti del teorema di Liouville.

La distribuzione ρ (q, p) = costante rispetto ad entrambe le variabili {q, p} ed il tempo 𝑡 è soluzione dell’equazione e
coincide a 𝑡 = 𝑡0 con la condizione iniziale ρ (q, p, 𝑡 0) = costante.

Quindi una distribuzione uniforme nello spazio delle fasi al tempo t0 rimarrà uniforme per ogni t

ρ (q, p, t) = ρ (q, p, t0).

Perciò l’ipotesi dell’uguale a priori distribuzione descrive un sistema in equilibrio in consistenza con il teorema di
Liouville.

Poiché il teorema di Liouville è indipendente dalla nostra ipotesi di uguale a priori probabilità, è interessante
esaminare le conseguenze del teorema di Liouville senza assumere a priori ρ (q, p) = costante (l’ipotesi di uguale a
priori probabilità).

Usando solo il teorema di Liouville, vediamo quali sono le condizioni necessarie che devono essere soddisfatte da ρ
(q, p, t) per descrivere una distribuzione all’equilibrio.

Se ρ (q, p, t) deve descrivere una distribuzione all’equilibrio, allora

𝜕𝜌
=0
𝜕𝑡

cioè ρ (q, p, t) = ρ (q, p).

Dal teorema di Liouville segue,

𝜕(𝜌) 𝜕(𝜌)
( 𝑞̇ 𝑖 + 𝑝̇ ) = 0
𝜕𝑞𝑖 𝜕𝑝𝑖 𝑖

e quindi ρ (q, p) deve essere necessariamente una costante del moto.

Ipotesi ergodica

L’assunzione di base della meccanica statistica all’equilibrio è che possiamo sostituire le medie temporali con le
medie di insieme, e quelle medie di insieme devono essere eseguite con la distribuzione dell’uguale a priori
probabilità; inoltre la media temporale è limitata al tempo caratteristico coinvolto nell’esperimento.

Chiaramente se l’ipotesi ergodica è valida la media sul tempo coinciderà con la media su un insieme uniformemente
distribuito e quindi l’ipotesi dell’uguale a priori probabilità è valida.

Abbiamo più volte ammesso che tutti i microstati di un particolare insieme statistico adatto a descrivere un dato
sistema siano accessibili.

Nella sua dinamica (intesa anche come dinamica di equilibrio) si suppone che il sistema possa spaziare su tutti i
microstati.

24
Ipotesi: un sistema in equilibrio visita (prima o poi) tutti i suoi microstati.

Questa rappresenta una formulazione equivalente dell’ipotesi ergodica. Capiamo perché.

In un tempo relativamente lungo, effettuiamo M misure (M molto grande) di una generica grandezza G. Diremo che
il valore osservabile di G è,

1 𝑀
𝐺𝑜𝑠𝑠 = ∑ 𝐺𝑗
𝑀 𝑗=1

e cioè, supponendo il sistema all’equilibrio, il valore osservabile della grandezza è il valor medio tra i valori
collezionati nelle M misure; dato che le M misure sono fatte in successione, una dopo l’altra, possiamo dire che tale
media è una media temporale.

Se ogni misura è così rapida da poter supporre che il sistema (durante la misura) sia in un unico microstato, potremo
scrivere,

1
𝐺𝑜𝑠𝑠 = ∑ 𝑃𝜐 𝐺𝜐 ≡ ⟨𝐺⟩
𝑀 𝜐

dove Gu è il valore di G corrispondente allo stato u; Pu corrisponde alla probabilità che tale microstato sia visitato (Pu
= numero di volte in cui lo stato è osservato tra le M misure, diviso M).

Si noti che la quantità ⟨𝐺⟩ è ora una media sull’insieme dei microstati visitati e quindi è una media spaziale (nel senso
dello spazio dei microstati!).

Più propriamente, tale media è una media sull’insieme statistico.

All’equilibrio il sistema visita tutti i suoi microstati, e per una serie di misure in un tempo sufficientemente lungo, la
media temporale e la media sull’insieme statistico si equivalgono.

I sistemi che soddisfano tale equivalenza vengono detti ergodici.

Si noti che se un sistema soddisfa l’ipotesi di ergodicità, all’equilibrio i valori medi delle grandezze possono essere
ottenuti effettuando delle medie sugli insiemi dei microstati che ben rappresenta il sistema.

Insiemi statistici

In generale, a seconda del tipo di microstati che includiamo nell’insieme statistico, diamo all’insieme statistico stesso
nomi diversi.

Ecco vari esempi e nomi di diversi insiemi statistici:

1. Insieme Microcanonico: è costituito da tutti i microstati di un sistema di N particelle, volume V ed energia E fissati
(sistema isolato);

2. Insieme Canonico: corrisponde all’insieme dei microstati di un sistema di N particelle e volume V: E può ora
fluttuare (è fissata la temperatura);

3. Insieme Grancanonico: corrisponde all’insieme dei microstati di un sistema di volume V: in quest’ultimo caso sia E
che N possono fluttuare.

Insieme Microcanonico

In tale insieme a tutti i microstati compete lo stesso valore dell’energia.


25
L’ipotesi fondante è la seguente: dato un sistema di N particelle in un volume V in equilibrio, tutti i microstati con la
stessa energia E hanno la stessa probabilità di essere visitati.

Se con Ω (N, V, E) indichiamo il numero di microstati con energia tra 𝐸 ed 𝐸 + 𝑑𝐸, la probabilità di un particolare
stato microscopico con energia Eu è,

1
𝑃𝜐 =
𝛺(𝑁, 𝑉, 𝐸𝜐 )

per qualsiasi stato nell’insieme.

In tale insieme alla funzione entropia viene assegnata la seguente espressione:

𝑆(𝑁, 𝑉, 𝐸) = 𝑘𝐵 ln 𝛺 (𝑁, 𝑉, 𝐸)

Tale scelta per la funzione entropia è compatibile con le proprietà introdotte in precedenza.

Infatti:

• S è una funzione estensiva:

Presi due sottosistemi indipendenti, A e B, con numero di stati ΩA e ΩB, il numero di stati complessivo è pari
a ΩA · ΩB. Quindi

𝑆 = 𝑘𝐵 ln(ΩA · ΩB) = 𝑘𝐵 ln(ΩA) + 𝑘𝐵 ln(ΩB) = 𝑆𝐴 + 𝑆𝐵

• S soddisfa la 2° legge della termodinamica.

• Temperatura:

1 𝜕𝑆 𝜕 ln 𝛺
=( ) = 𝑘𝐵 ( )
𝑇 𝜕𝐸 𝑁,𝑉 𝜕𝐸 𝑁,𝑉

Esempio

• Particelle indipendenti con due livelli energetici

Consideriamo un sistema costituito da N particelle identiche distinguibili e indipendenti, ognuna delle quali può
assumere energia 0 o 𝜖 > 0.

Un particolare stato (microstato), sarà quindi specificato dai numeri,

𝜐 ≡ (𝑛1 , 𝑛2 , … , 𝑛𝑁 ); 𝑛𝑗 = 0, 1

dove i valori di nj, 0 o 1, si identificano con il fatto che la particella j assume gli stati con energia 0 e 𝜀 ,
rispettivamente. Corrispondentemente, l’energia del sistema può essere scritta nella forma,
𝑁
𝐸𝜐 = 𝑛1 𝜖 + 𝑛2 𝜖 + ⋯ + 𝑛𝑁 𝜖 = ∑ 𝑛𝑗 𝜖 = 𝑚𝜖
𝑗=1

dove, m = ∑𝑁
𝑗=1 𝑛𝑗 e pari al numero di particelle che si trovano nello stato ad energia 𝜖 .

Il numero di stati con energia E sarà pari al numero di combinazioni di N elementi uguali a gruppi di m, cioè:

𝑁!
𝛺(𝑁, 𝐸 = 𝑚𝜖) =
(𝑁 − 𝑚)! 𝑚!

26
Ricordando quanto visto in precedenza, l’entropia del sistema corrisponde a,

𝑆(𝑁, 𝐸) = 𝑘𝐵 ln 𝛺 (𝑁, 𝐸)

e quindi possiamo scrivere per la temperatura:

1 𝜕𝑆 𝜕 ln 𝛺 1 𝜕 ln 𝛺
=( ) =( ) = ( )
𝑘𝐵 𝑇 𝜕𝐸 𝑁 𝜕𝐸 𝑁 𝜖 𝜕𝑚 𝑁

Sfruttiamo la formula di Stirling, valida per grandi N:

ln 𝑁 ! = 𝑁 ln 𝑁 − 𝑁

per riscrivere lnΩ come,

ln 𝛺 (𝑁, 𝐸) = ln 𝑁! − ln(𝑁 − 𝑚) ! (𝑁 − 𝑚)! − 𝑚! ln 𝑚!

= 𝑁 ln 𝑁 − (𝑁 − 𝑚) ln(𝑁 − 𝑚) − m ln 𝑚

Da qui otteniamo,

𝜕 ln 𝛺 𝑁
= ln(𝑁 − 𝑚) − ln 𝑚 = ln ( − 1)
𝜕𝑚 𝑚

che dà infine il risultato cercato,


𝑚 1 𝑁𝜖
= 1+𝑒 𝛽𝜖 e quindi 𝐸 =
𝑁 1+𝑒 𝛽𝜖

Tale relazione ci permette di esprimere l’energia del sistema in funzione della temperatura. Possiamo vedere che a T
= 0 anche l’energia si annulla. Questo è in pieno accordo con il fatto che a T = 0 il sistema occupa il suo stato di
minima energia, lo stato fondamentale (in queste condizioni vince il principio di minima energia!). Al contrario, per T
𝑁𝜖
→ ∞ sì ha E = 2 . Questo corrisponde ad avere ogni particella con uguale probabilità nei due stati possibili. In questa
situazione si ha il massimo disordine (domina il principio di massima entropia!).

Conteggio dei microstati

Da quanto detto è chiaro che, per un sistema con E ed N fissati, il lavoro “sporco” è il conteggio del numero di
microstati accessibili per il sistema.

Facciamo qualche esempio.

 Particella in una scatola unidimensionale (calcolo classico)

Consideriamo una singola particella di massa m confinata in una scatola unidimensionale di larghezza L.

Sappiamo che un microstato della particella è specificato dalla sua posizione x e dal suo momento p (un
microstato è un punto (𝑥, 𝑝) nello spazio delle fasi).

Essendo x e p variabili continue, il numero dei microstati del sistema con energia E non ha molto significato,
piuttosto la quantità 𝑔(𝐸)∆𝐸 che rappresenta il numero di microstati con energia compresa sulla shell ∆𝐸.

La quantità 𝑔(𝐸) è nota come densità degli stati.

Se con Γ(𝐸) indichiamo il numero di microstati con energia ≤ 𝐸 otteniamo:


27
𝜕Γ(𝐸)
𝑔(𝐸)∆𝐸 = Γ(𝐸 + ∆𝐸) − Γ(𝐸) ≈ ∆𝐸
𝜕𝐸
Se l’energia della particella è 𝐸 e la dimensione della scatola è 𝐿, allora i microstati con energia ≤ 𝐸sono
quelli ristretti al rettangolo mostrato in figura, dove

𝑝𝑚𝑎𝑥 = √2𝑚𝐸

x e p sono continue, ragion per cui il numero di microstati è infinito.

Per poterli contare conviene dividere il rettangolo in cellette ∆𝑥∆𝑝.

L’area dello spazio delle fasi occupata dalla traiettoria delle particelle è 2𝑝𝑚𝑎𝑥 𝐿, da cui otteniamo il
numero di microstati come

2𝑝𝑚𝑎𝑥 𝐿 2𝐿
Γ(𝐸) = = √2𝑚𝐸
∆𝑥∆𝑝 ∆𝑥∆𝑝

In fisica classica non abbiamo alcun criterio per scegliere i valori di ∆𝑥 e ∆𝑝.

Facciamo una digressione ricordando l’oscillatore armonico unidimensionale.

𝑝2 1
L’energia totale è 𝐸 = 2𝑚 + 2 𝑘𝑥 2 .

La parte dello spazio delle fasi attraversata dalla traiettoria x(t) p(t) può essere determinato
dall’energia totale, dividendo per 𝐸,

𝑝2 1𝑘 2
+ 𝑥 =1
2𝑚𝐸 2 𝑚
𝑘
Introducendo 𝜔2 = 𝑚 abbiamo:

𝑝2 1 𝑥2
+ =1
2𝑚𝐸 2 𝐸
𝑚𝜔 2
Lo spazio è determinato dall’ellisse di equazione

𝑥 2 𝑝2
+ =1
𝑎2 𝑏 2
2𝐸
 𝑎2 = 𝑚𝜔2 e 𝑏 2 = 2𝑚𝐸
𝐸
 Area 𝜋𝑎𝑏 = 2𝜋 𝜔

Quindi il numero di microstati in tale regione sarà:

𝜋𝑎𝑏 2𝜋𝐸
Γ(𝐸) = =
∆𝑥∆𝑝 𝜔∆𝑥∆𝑝

28
29