Sei sulla pagina 1di 150

POLITECNICO DI TORINO

Facoltà di Ingegneria dell’informazione


Corso di Laurea in Ingegneria Elettronica

Tesi di Laurea

Coerenza e decoerenza
Aspetti classici e quantistici

Relatori:
prof. Mario Vadacchino
prof. Mario Rasetti
Candidato:
Francesco Cascio

Settembre 2002
Sommario

La coerenza di fase, tra onde nella fisica classica, tra stati nella meccanica quanti-
stica, è la fonte di numerosi fenomeni dai notevoli risvolti teorici ed applicativi: in
questo lavoro abbiamo studiato l’origine della coerenza, i suoi effetti e i motivi del
suo venir meno, con particolare riguardo agli aspetti quantistici.
Dopo una breve analisi dell’interferenza di due sorgenti monocromatiche, nel
primo capitolo si discute la natura e l’interpretazione degli stati di sovrapposizione,
seguendo prima l’analisi proposta da Feynman, e poi tenendo conto delle posizioni
di Accardi. In particolare si analizza in dettaglio il criterio dell’invariante statistico
e la necessità di una probabilità quantistica.
Nel secondo capitolo si svolge un’analisi generale dei fenomeni di coerenza ottica.
Dapprima si discutono, nell’ambito classico, le conseguenze della natura estesa delle
sorgenti luminose, e soprattutto dell’incoerenza delle sorgenti termiche.
Dopo aver discusso brevemente le nozioni di coerenza spaziale e temporale, si
introduce e discute approfonditamente la nozione di coerenza ottica del primo e del
secondo ordine.
In quest’ambito si studia la coerenza ottica di alcuni semplici campi, consideran-
do in particolare gli stati di Fock, il campo prodotto da una sorgente laser (stato
coerente), e quello di una sorgente termica convenzionale, con riferimento all’inter-
ferenza di due fenditure per la coerenza ottica del primo ordine, e all’esperimento di
Hanbury-Brown e Twiss per quella del secondo ordine.
Nel terzo capitolo si analizza il fenomeno (quantistico) della decoerenza, ossia
del venir meno dei tratti caratteristici della meccanica quantistica in favore di ca-
ratteristiche classiche. Dopo aver introdotto la nozione di decoerenza, ed alcune
problematiche relative (in particolare il problema della misura e la riduzione de-
gli stati), si analizza la decoerenza indotta dall’ambiente mediante alcuni modelli
dell’ambiente di complessità crescente.
Infine si discute un metodo, proposto recentemente da Morigi e al., per misurare
la dinamica irreversibile (decoerente) di un oscillatore armonico interagente con un
sistema a due livelli.

I
II
Indice

Sommario I

1 Fenomeni di interferenza 1
1.1 Fenomeni classici di interferenza . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 L’interferenza di onde perfettamente sinusoidali . . . . . . . . 1
1.1.2 L’interferometro di Young . . . . . . . . . . . . . . . . . . . . 7
1.2 L’interferenza nella meccanica quantistica . . . . . . . . . . . . . . . 8
1.2.1 Interferenza di stati . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 L’interpretazione e il dualismo onda-corpuscolo . . . . . . . . 10
1.2.3 La radice probabilistica dei problemi . . . . . . . . . . . . . . 13
1.2.4 La soluzione ortodossa . . . . . . . . . . . . . . . . . . . . . . 15
1.2.5 La soluzione delle logiche quantistiche . . . . . . . . . . . . . . 15
1.2.6 La soluzione della probabilità quantistica . . . . . . . . . . . . 16
1.2.7 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Coerenza ed incoerenza ottica 21


2.1 Le origini della non perfetta monocromaticità . . . . . . . . . . . . . 21
2.2 Coerenza della luce termica . . . . . . . . . . . . . . . . . . . . . . . 24
2.3 Introduzione alla coerenza . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.1 Coerenza spaziale . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2 Coerenza temporale . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4 Coerenza ottica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4.1 Funzioni di correlazione del campo . . . . . . . . . . . . . . . 42
2.4.2 Coerenza ottica . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4.3 Coerenza ottica e indipendenza statistica . . . . . . . . . . . . 45
2.5 Coerenza ottica del primo ordine . . . . . . . . . . . . . . . . . . . . 48
2.5.1 Analisi quantistica dell’interferenza da due fenditure . . . . . . 50
2.5.2 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.6 Coerenza ottica del secondo ordine . . . . . . . . . . . . . . . . . . . 57
2.6.1 L’esperimento di Hanbury-Brown e Twiss . . . . . . . . . . . 61
2.6.2 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

III
3 La decoerenza 69
3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.1.1 Cos’è la decoerenza . . . . . . . . . . . . . . . . . . . . . . . . 69
3.1.2 Il problema della misura . . . . . . . . . . . . . . . . . . . . . 71
3.2 Misure bit-a-bit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.2.1 L’interazione sistema-rivelatore e la pre-misura . . . . . . . . . 74
3.2.2 L’interazione con un ambiente a due stati e la decoerenza . . . 80
3.3 La dinamica della decoerenza . . . . . . . . . . . . . . . . . . . . . . 83
3.4 Misurare la decoerenza . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.4.1 Misura della dinamica irreversibile . . . . . . . . . . . . . . . 87

Appendici 93
A La probabilità classica 97
A.1 Lo spazio delle probabilità . . . . . . . . . . . . . . . . . . . . . . . . 97
A.2 La probabilità condizionata . . . . . . . . . . . . . . . . . . . . . . . 100
A.3 Prodotto cartesiano di spazi campione . . . . . . . . . . . . . . . . . 103
A.4 Indipendenza statistica . . . . . . . . . . . . . . . . . . . . . . . . . . 104

B Processi stocastici 105


B.1 Medie temporali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
B.2 Medie statistiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
B.2.1 Densità di probabilità . . . . . . . . . . . . . . . . . . . . . . 106
B.2.2 Medie lineari e quadratiche . . . . . . . . . . . . . . . . . . . 107
B.3 Processi stocastici stazionari . . . . . . . . . . . . . . . . . . . . . . . 111
B.4 Processi ergodici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

C Segnale analitico 113


C.1 Segnale analitico: definizione . . . . . . . . . . . . . . . . . . . . . . . 113
C.2 Segnali quasi-monocromatici ed inviluppo complesso . . . . . . . . . . 115
C.3 Funzione di correlazione di segnali reali e dei corrispondenti segnali
analitici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

D Sistemi a due stati 119


D.1 Gli effetti di una perturbazione . . . . . . . . . . . . . . . . . . . . . 119
D.1.1 Effetti statici . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
D.1.2 Effetti dinamici . . . . . . . . . . . . . . . . . . . . . . . . . . 120
D.2 Le matrici di Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
D.2.1 Studio degli operatori di Pauli . . . . . . . . . . . . . . . . . . 123
D.2.2 Ulteriori proprietà delle matrici di Pauli . . . . . . . . . . . . 127

IV
E Il formalismo dell’operatore densità 131
E.1 L’operatore densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
E.1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
E.1.2 Gli stati puri . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
E.1.3 Le miscele statistiche . . . . . . . . . . . . . . . . . . . . . . . 135
E.1.4 I sistemi composti . . . . . . . . . . . . . . . . . . . . . . . . . 139
E.2 La master equation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
E.2.1 Calcolo mediante il metodo delle perturbazioni . . . . . . . . . 140

Bibliografia 143

V
VI
Capitolo 1

Fenomeni di interferenza

In questo capitolo esamineremo in dettaglio l’interferenza, prima nella sua più nota
manifestazione nell’ambito della fisica classica (interferenza di due onde sinusoidali,
con riferimento, in particolare, al caso delle onde elettromagnetiche), e poi l’interfe-
renza di due stati nella meccanica quantistica, evidenziando le analogie e le differenze
tra i due casi.

1.1 Fenomeni classici di interferenza


Il modello ondulatorio della luce fu introdotto nel 1801 da Young, e successivamente
ricevette un inquadramento teorico completo nella teoria dell’elettromagnetismo di
Maxwell.
Il semplice modello ondulatorio di Young ci permette di affrontare una prima
analisi dell’interferenza, capace di chiarirne le caratteristiche essenziali.
Vedremo nel prossimo capitolo un’analisi più avanzata capace di tener conto di
non idealità quali la non perfetta monocromaticità dell’onda, le dimensioni finite
della sorgente, e soprattutto la statistica della luce emessa dalla sorgente. Si tratta
di caratteristiche assolutamente non trascurabili se vogliamo giustificare il perché
non sempre si ottiene interferenza, e che ci permetteranno di distinguere tra sor-
genti di luce profondamente differenti come la luce termica, emessa da una sorgente
tradizionale (lampada ad incandescenza, ad arco ecc.), e quella emessa da un laser.

1.1.1 L’interferenza di onde perfettamente sinusoidali


Cominciamo con l’esaminare l’interferenza prodotta da due sorgenti luminose σ1
e σ2 (di coordinate r 1 , e r 2 rispettivamente, come illustrato nella figura 1.1) che
generino onde perfettamente monocromatiche alla frequenza f0 : le onde generate da
tali sorgenti sono dette coerenti in quanto la loro differenza di fase è costante.

1
1 – Fenomeni di interferenza

Figura 1.1.

Supponiamo che le due sorgenti generino entrambe un campo con la stessa


polarizzazione, in modo da poter trascurare la natura vettoriale del campo elet-
tromagnetico. Infine assumiamo, per semplicità, che le due sorgenti emettano in
fase.
Il campo prodotto nel punto r, all’istante t, dalla sorgente i-esima posta in r i ,
avrà la forma
Ei (r,t) = E0i (r) cos(ω0 t − k|r − r i |) (1.1)

ove E0i (r) > 0 è l’ampiezza del campo, ω0 = 2πf0 la sua pulsazione, e k la costante
di propagazione, che, nel vuoto, risulta k = 2π λ0
, essendo λ0 = c/f0 la lunghezza
d’onda, e c la velocità di propagazione della luce nel vuoto.
In base al principio di sovrapposizione degli effetti, il campo totale in un punto
di coordinata r, all’istante t, sarà

E(r,t) = E1 (r,t) + E2 (r,t). (1.2)

Ricordiamo ora che la somma di funzioni sinusoidali isofrequenziali è sempre


una funzione sinusoidale con la stessa frequenza: Ei (r,t) risulterà quindi un campo
sinusoidale con la stessa frequenza f0 (e la stessa costante di propagazione k) delle
sorgenti. Restano da calcolare il modulo e la fase.
Posto
Ei (r,t) = Re{E0i (r)eωt−k|r−ri | } ≡ Re{Ei } (1.3)

la (1.2) può quindi essere scritta

E = E1 + E2 = E01 e−iks1 + E02 e−iks2 = E0 eiα (1.4)

2
1.1– Fenomeni classici di interferenza

ove si è posto si = |r − r i |, e

E02 = E01
2
+ E022
+ 2E01 E02 cos δ (1.5a)
E01 sin ks1 + E02 sin ks2
tan α = − (1.5b)
E01 cos ks1 + E02 cos ks2
δ = k(s1 − s2 ) (1.5c)

ove δ = δ(r) racchiude la dipendenza dalle coordinate spaziali che ci interessa ai fini
dell’interferenza.
Dalla (1.5a) vediamo infatti che per δ = 2n π, con n = 0,1,2, . . . si ha un massimo
del modulo dell’ampiezza (interferenza costruttiva), mentre per δ = (2n + 1) π,
sempre con n = 0,1,2, . . ., si ha un minimo del modulo dell’ampiezza (interferenza
distruttiva), e quindi
(
2n π ⇒ E0,max = E01 + E02
δ= n = 0,1,2 . . . (1.6)
(2n + 1) π ⇒ E0,min = |E01 − E02 |.

Ricordando che k = λ0
, tali condizioni equivalgono a
(
nλ0 interferenza costruttiva, E = E0,max
s1 − s 2 = (1.7)
(2n + 1) λ20 interferenza distruttiva, E = E0,min .

Queste condizioni definiscono, nello spazio, dei paraboloidi di rotazione con i fuo-
chi nelle due sorgenti. Le frange di interferenza che osserviamo sullo schermo di
osservazione non sono altro che l’intersezione di tali superfici con lo schermo. Per
uno schermo parallelo all’asse che congiunge le due sorgenti, come quello che stiamo
considerando, tali intersezioni sono curve iperboliche. Se tuttavia lo schermo è a
grande distanza dalle sorgenti (a/D  1) e ci limitiamo a regioni vicine al piano di
simmetria (x/D  1), le frange risultano pressoché rettilinee, tra di loro parallele,
e perpendicolari all’asse che congiunge le due sorgenti.

L’intensità e le frange di interferenza


Per un campo elettromagnetico l’intensità istantanea è definita come il modulo del
vettore di Poynting, e rappresenta l’energia che all’istante t fluisce nell’unità di
tempo attraverso la superficie unitaria disposta ortogonalmente alla direzione di
propagazione.
Tutti gli strumenti utilizzati in ottica per rivelare il campo elettromagnetico
(compreso il nostro occhio) sono sensibili all’intensità piuttosto che al campo vero e
proprio, pertanto è l’intensità la grandezza che considereremo per discutere gli effetti
dell’interferenza.

3
1 – Fenomeni di interferenza

Nel caso dell’onda monocromatica che risulta dalla (1.4), l’intensità è proporzio-
nale al quadrato del campo1
I(r,t) ∝ E 2 (r,t) = E02 (r) cos2 [ω0 t + α(r)]. (1.8)
Sviluppando l’espressione del coseno al quadrato, a meno di un fattore di pro-
porzionalità, risulta
E2
I(r,t) = 0 {1 + cos[2(ω0 t + α)]}. (1.9)
2
Dalla (1.9) rileviamo subito come l’intensità risulta una funzione sinusoidale con
frequenza doppia rispetto al campo.
Le frequenze ottiche sono dell’ordine di f0 ∼ 1015 Hz, ossia il periodo delle oscilla-
zioni è T0 = 1/f0 ∼ 10−15 s, mentre i tempi di risposta degli apparati usuali arrivano
al più a Tr ∼ 10−12 s. Ne segue che la grandezza effettivamente misurata dagli ap-
parecchi è la media temporale dell’intensità, effettuata sul tempo di risposta dello
strumento Z
1 t+Tr /2
I(r,t) ≡< I(r,t) >Tr , I(r,t0 ) dt0 . (1.10)
Tr t−Tr /2
Se poi teniamo conto che Tr  T0 , per una funzione sinusoidale come la (1.9), I(r,t)
risulta indipendente dal tempo, ed è uguale quindi alla media temporale
Z
1 T /2 2 E 2 (r)
I(r) ' < I(r) >≡< I(r,t) >t = lim E (r,t) dt = 0 (1.11)
T →∞ T −T /2 2
Tenuto conto dell’espressione di E0 (1.5a), si ha quindi
q
I = I 1 + I 2 + 2 I 1 I 2 cos δ (1.12)

ove si è posto
1 2
E
Ii = i = 1,2. (1.13)
2 0i
Dalle (1.6) allora otteniamo i valori massimi e minimi dell’intensità che possiamo
vedere sullo schermo di osservazione al variare del punto di osservazione X (che
comporta una variazione della differenza di fase δ)
1
I max = (E01 + E02 )2 (1.14a)
2
1
I min = (E01 − E02 )2 . (1.14b)
2
1
Tenendo conto del campo magnetico si dimostra che il coefficiente di proporzionalità è Z1 , ove
p p
Z = µ/ è l’impedenza caratteristico del mezzo, che nel vuoto vale Z0 = µ0 /0 = 377 Ω. Nel
seguito per semplicità si scriverà che I = E 2 sottintendendo tale coefficiente di proporzionalità.

4
1.1– Fenomeni classici di interferenza

Definiamo ora la visibilità delle frange di interferenza come

I max − I min
ν, . (1.15)
I max + I min

Evidentemente 0 ≤ ν ≤ 1, e

ν=1 per I min = 0 (1.16a)


ν=0 per I max = I min . (1.16b)

In pratica poi ν ' 1 per I max  I min , cioè si ha massima visibilità delle frange di
interferenza quando i massimi sono molto pronunciati rispetto ai minimi.
Nel caso in esame la visibilità risulta
p √
2E01 E02 2 I 1I 2 2 %
ν= 2 2
= = (1.17)
E01 + E02 I1 + I2 %+1

ove % = I 1 /I 2 .
Tale funzione ha un unico massimo in corrispondenza di % = I 1 /I 2 = 1, ovvero
per E01 = E02 . In tale caso abbiamo E0,max = 2E01 , E0,min = 0, che in termini di
intensità vuol dire
2
I max = 4E01 = 4I 1 (1.18a)
I min = 0. (1.18b)

Per due sorgenti identiche, quindi, per via dell’interferenza, nei punti di massimo
l’intensità risulta ben il quadruplo dell’intensità che si avrebbe se ci fosse una sola
sorgente; d’altra parte l’intensità si annulla del tutto nei punti di minimo.
Ribadiamo infine un aspetto molto importante di quanto appena visto: la visibi-
lità delle frange di interferenza generate da due sorgenti monocromatiche identiche
risulta massima
ν = 1. (1.19)

Calcolo delle posizioni dei massimi e minimi nella figura di interferenza


L’espressione dell’intensità (1.12) non mostra immediatamente come appare la figura
di interferenza sullo schermo di osservazione: ciò che ci proponiamo di ricavare ora è
un’espressione in cui risulti esplicita la dipendenza dalla coordinata x sullo schermo.
Consideriamo il caso in cui la distanza a tra le fenditure è piccola rispetto alla
distanza D dallo schermo di osservazione o analogamente il caso in cui poniamo lo
schermo all’infinito (usando ad esempio una opportuna lente).

5
1 – Fenomeni di interferenza

In questo caso possiamo stimare facilmente la differenza di fase tra i due percorsi
dei raggi luminosi. In base a semplici ragionamenti geometrici (si veda la figura 1.1)
risulta
δ = k(s1 − s2 ) = ka sin θ. (1.20)
Le condizioni (1.7) valgono allora
(
n λa0 interferenza costruttiva: massimo dell’intensità media,
sin θ = (2n+1) λ0
(1.21)
2 a
interferenza distruttiva: minimo dell’intensità media.
Per θ  1 si può approssimare il seno dell’angolo con l’angolo stesso: per θ  1 si
ha la semplice relazione sin θ ≈ θ ≈ Dx , e quindi si ottiene
q  
a
I(x) = I 1 + I 2 + 2 I 1 I 2 cos 2π x (1.22)
λ0 D
che è l’espressione che cercavamo. Nel caso I 1 = I 2 si ha semplicemente
  
a
I(x) = 2I 1 1 + cos 2π x . (1.23)
λ0 D
Le posizioni dei massimi e dei minimi sono
D
xmax = n λ0 (1.24a)
a
(2n + 1) D
xmin = λ0 (1.24b)
2 a
ove n = 0,1,2 . . ., per cui risulta un massimo centrale per x = 0, e poi via via un
alternarsi lungo, l’asse x, di minimi e massimi, con un periodo spaziale pari a
D
∆x = λ0 . (1.25)
a
Per della luce visibile, essendo λ0 ∼ 0.5 µm, si ottengono delle frange separate di
circa ∆x ∼ 0.5 mm per D/a ∼ 103 .
Osserviamo infine che, se le due sorgenti avessero una differenza di fase (costante)
∆ϕ = ϕ1 − ϕ2 , allora si avrebbe
δ = k(s1 − s2 ) + ∆ϕ. (1.26)
L’intensità risulterebbe
  
a
I(x) = 2I 1 1 + cos 2π x − ∆ϕ (1.27)
λ0 D
e il massimo centrale, e tutta la figura di interferenza risulterebbero traslati di
λ0 D ∆ϕ
xm = = ∆x. (1.28)
2π a 2π

6
1.1– Fenomeni classici di interferenza

Figura 1.2. Rappresentazione schematica di un interferometro di Young su cui


incide un’onda piana. È rappresentata pure l’intensità media, con il caratte-
ristico andamento oscillante dovuto all’interferenza (trascurando gli effetti della
diffrazione).

1.1.2 L’interferometro di Young


Per realizzare sperimentalmente un allestimento capace di riprodurre quanto visto
in precedenza sono possibili varie soluzioni, tra cui l’uso di due laser che simulino le
due sorgenti sinusoidali.
In questa sede tuttavia ci limitiamo a generare due siffatte sorgenti coerenti me-
diante un interferometro di Young (figura 1.2), su cui incide un’onda piana2 mono-
cromatica e per semplicità assumiamo che il fronte d’onda sia parallelo agli schermi,
in modo che l’onda incida sulle due fenditure con la stessa fase: in base al prin-
cipio di Huygens, le due fessure situate nei punti P1 e P2 (con coordinata r 1 e r 2
rispettivamente) si comportano come sorgenti secondarie sinusoidali (coerenti, visto
che le onde sono originate sempre dalla stessa onda perfettamente monocromatica),
che, per fessure sufficientemente piccole (rispetto alla lunghezza d’onda dell’onda
incidente), possiamo considerare puntiformi: esse svolgono quindi il ruolo delle due
sorgenti puntiformi σ1 ed σ2 .
Per il resto vale quanto detto in precedenza, e sullo schermo di osservazione
appare una figura di interferenza, composta da frange chiare e scure alternate, e

2
In pratica si usa una sorgente sufficientemente piccola da poterla considerare puntiforme, posta
a grande distanza dallo schermo con le due fenditure, in modo da poter considerare piana l’onda
nelle prossimità delle due fenditure. Analizzeremo nel capitolo successivo gli effetti dell’estensione
spaziale della sorgente.

7
1 – Fenomeni di interferenza

non la semplice somma degli effetti provocati da ciascuna fenditura singolarmente


(ovvero quando l’altra è chiusa).
Il risultato importante, anche in questo caso, è che per una sorgente perfetta-
mente monocromatica, si ha massima visibilità delle frange d’interferenza. Questo
risultato non dipende, in particolare dalla distanza a tra le due fenditure.

1.2 L’interferenza nella meccanica quantistica


Analizziamo ora il fenomeno dell’interferenza, nella meccanica quantistica: volendo
svolgere un’analisi parallela a quella vista nel caso classico, considereremo l’interfe-
renza di fotoni, ma quanto diremo avrà validità molto generale, in quanto le carat-
teristiche ondulatorie nella meccanica quantistica sono associate a qualsiasi tipo di
particella, secondo la legge di de Broglie
h
λ= (1.29)
|p|
essendo, per una particella “classica”, p = mv, la quantità di moto ad essa relativa.
Discuteremo approfonditamente nel seguito la natura di tale dualismo onda-cor-
puscolo.

Diciamo subito che la radice dei fenomeni di interferenza risiede nella combinazione
tra

• il principio di sovrapposizione degli stati, secondo cui qualsiasi combinazione


lineare degli stati che un sistema può assumere è a sua volta uno stato possibile
del sistema, e

• il postulato secondo cui, dato un sistema nello stato normalizzato |ψi, la pro-
babilità di trovare come risultato della misura di una grandezza A l’autovalore
an del corrispondente operatore osservabile A è dato da

P|ψi (an ) = |hun |ψi|2 (1.30)

essendo |un i l’autovettore normalizzato di A associato ad an .

1.2.1 Interferenza di stati


L’interferometro di Young, figura 1.3, ci fornisce, anche in questo caso, un ottimo
esempio per illustrare queste idee.
Supponiamo che la sorgente σ sia cosı̀ debole da poter assumere che emetta un
fotone alla volta, e che tutti i fotoni siano uguali (o meglio preparati identicamente

8
1.2– L’interferenza nella meccanica quantistica

Figura 1.3. Rappresentazione dell’esperimento di interferenza di particelle quan-


tistiche.

nello stato |φi) in modo che possiamo considerare come esperimento elementare
quello relativo ad un solo fotone, e la successione di fotoni come la realizzazione di
un ensemble statistico (repliche dello stesso esperimento).
Sia poi |ψi i, con i = 1,2 il vettore di stato normalizzato relativo al passaggio del
fotone attraverso la fenditura i-esima.
Lo stato del fotone che trova entrambe le fenditure aperte sarà dato dalla somma
dei due stati |ψi i, opportunamente normalizzata:

|ψ12 i = (|ψ1 i + |ψ2 i)/ 2. (1.31)

Chiariamo innanzitutto il significato degli stati |ψ1 i, |ψ2 i e |ψ12 i.


I vari casi cui essi si riferiscono (una sola fenditura aperta, o ambedue aperte) li
possiamo considerare [11] come preparazioni effettuate mediante lo schermo con le
fenditure Σs , a partire dai fotoni nello stato |φi provenienti dalla sorgente σ. Tali
preparazioni sono differenti e incompatibili, in quanto, nel caso in cui diciamo che il
fotone passa attraverso la fenditura 1 ci riferiamo ad un apparato in cui la fenditura
2 è fisicamente ostruita, viceversa se il fotone passa dalla fenditura 2 è ostruita la 1,
e questi due allestimenti sono incompatibili sia tra di loro, sia con l’allestimento in
cui ambedue le fenditure sono aperte.
Possiamo formalizzare il passaggio attraverso lo schermo Σs , secondo i casi,
mediante i proiettori

S1 = |1i h1| solo la fenditura 1 aperta, (1.32a)


S2 = |2i h2| solo la fenditura 2 aperta, (1.32b)
S12 = |1i h1| + |2i h2| entrambe le fenditure aperte (1.32c)

9
1 – Fenomeni di interferenza

ove |ii indica che la fenditura i-esima è aperta e hi|ji = δij . Risulta infatti

Si |φi = |ii hi| |φi = hi|φi |ii = |ψi i i = 1,2 (1.33a)



S12 |φi = (|1i h1| + |2i h2|) |φi = |ψ1 i + |ψ2 i = 2 |ψ12 i . (1.33b)

Essendo i proiettori degli osservabili, le precedenti operazioni corrispondono ai


risultati delle misure delle grandezze corrispondenti. In particolare per quanto ri-
guarda S1 e S2 siamo interessati ai risultati relativi all’autovalore 1, mentre per
quanto riguarda S12 , poiché non distinguiamo tra il passaggio da una o dall’altra
fenditura, abbiamo considerato la proiezione sugli autospazi associati ad entrambi
gli autovettori |1i e |2i .

La densità di probabilità di rivelare il fotone nello stato |ψ12 i in un intorno del


punto X dello schermo di osservazione, compreso tra x e x + dx, sarà allora, in base
alla (1.30),
1 
P12 (x) = |hx|ψ12 i|2 = |hx|ψ1 i|2 + |hx|ψ2 i|2 + 2Re{hx|ψ1 ihx|ψ2 i∗ } (1.34a)
2
ovvero, osservando che ψ12 (x) = hx|ψ12 i,
1 
P12 (x) = |ψ12 (x)|2 = |ψ1 (x)|2 + |ψ2 (x)|2 + 2Re{ψ1 (x)ψ2∗ (x)} . (1.34b)
2
Essendo poi
Pi (x) = |ψi (x)|2 , i = 1,2 (1.35)
la densità di probabilità di trovare un fotone che è passato dalla fenditura i-esima
in un intervallo dello schermo di osservazione tra x e x + dx, possiamo scrivere

1 1
P12 (x) = P1 (x) + P2 (x) + Re{ψ1 (x)ψ2∗ (x)} (1.36)
2 2

che è l’espressione quantistica della (1.12).

1.2.2 L’interpretazione e il dualismo onda-corpuscolo


A questo punto viene naturale interpretare la (1.36) dicendo che il caso in cui sono
aperte entrambe le fenditure presenta effetti di interferenza, analogamente al ca-
so visto nel paragrafo 1.1.1: come per l’intensità, la probabilità con entrambe le
fenditure aperte non è la semplice somma (pesata) delle probabilità con una sola
fenditura aperta:
P12 (x) 6= p1 P1 (x) + p2 P2 (x) (1.37)

10
1.2– L’interferenza nella meccanica quantistica

ove p1 = p2 = 12 sono le probabilità del passaggio attraverso una o l’altra fenditura,


che nel nostro caso sono uguali visto che le due fenditure hanno la stessa ampiezza.
Ciò evidenzia l’aspetto ondulatorio dei fotoni: essi generano interferenza come
delle onde.
Tuttavia, come detto sin dall’inizio, le particelle quantistiche manifestano sia
caratteristiche ondulatorie che corpuscolari: l’aspetto corpuscolare consiste nel fat-
to che esse vengono rilevate sempre in unità discrete, e la figura d’interferenza è
un effetto cumulativo, risultato della rivelazioni di molti fotoni, uno dopo l’altro.
Ciascuna rivelazione corrisponde sempre esattamente ad un fotone, e mai a mezzo
fotone o ad un fotone e mezzo.
Seguendo l’intuizione classica relativa alle particelle, quando riveliamo un fotone
sullo schermo di osservazione siamo portati a pensare, con Feynman [6], che
Proposizione A: il fotone o passa dalla fenditura 1 oppure passa dalla 2,
essendo queste le uniche alternative.
Ammettendo ciò, possiamo pensare di suddividere le rivelazioni fatte sullo scher-
mo di osservazione in due classi: quelle dovute a fotoni che sono passati dalla fen-
ditura 1, e quelli che sono passati dalla 2. Tale suddivisione tuttavia non è opera-
tivamente fattibile con i dati raccolti in un esperimento con entrambe le fenditure
aperte: non sappiamo distinguere i due tipi di fotoni.
Quello che possiamo fare è di usare i dati relativi agli esperimenti con una sola
fenditura aperta: siano n1 (x) ed n2 (x) il numero di tali rivelazioni avvenute nei
pressi del punto di coordinata x, e N1 , N2 il numero totale di rivelazioni nei due casi
(con N1 + N2 = N12 , il numero totale di fotoni rivelati con ambedue le fenditure
aperte). Quindi in termini di probabilità sarà
ni (x)
Pi (x) ≈ (1.38)
Ni
e quindi se
n12 (x) = n1 (x) + n2 (x) (1.39)
allora
n12 (x) N1 n1 (x) N2 n2 (x)
P12 (x) ≈ = + ≈ p1 P1 (x) + p2 P2 (x). (1.40)
N12 N12 N1 N12 N2
Il fatto che i risultati sperimentali contraddicono tale espressione, ci porta a conclu-
dere, con Feynman, che qualcosa non va nel ragionamento che abbiamo fatto.
Vista la semplicità del ragionamento esposto, siamo indotti a ritenere falsa la
Proposizione A.
Tuttavia se la sottoponiamo ad una verifica diretta, come suggerisce Feynman,
essa risulta vera. Basta, almeno in linea di principio, osservare in maniera non

11
1 – Fenomeni di interferenza

distruttiva, ma tuttavia perturbativa, i fotoni (o comunque le particelle che usiamo


per l’esperimento di interferenza) subito dopo il passaggio attraverso le fenditure
per localizzare attraverso quale fenditura è avvenuto il passaggio. Risulta che, se il
meccanismo di osservazione è efficace, allora le frange di interferenza scompaiono:
non si riesce a seguire il percorso dei fotoni e avere contemporaneamente interferenza.
Viceversa se il meccanismo d’osservazione è inefficace, e non si disturbano troppo i
fotoni, permangono le frange d’interferenza3 .
A questo punto si impone la seguente conclusione: la distribuzione dei fotoni
sullo schermo quando li osserviamo è differente da quella che si ha quando non li
osserviamo.
Inoltre per quanto riguarda la Proposizione A siamo portati a dire, con Feynman
[6, §1-6], che
se si guardano i fori, o più precisamente, se si ha un apparecchio che
è capace di determinare se i fotoni passano attraverso la fenditura 1 o la
fenditura 2, allora si può dire attraverso quale foro è passato il fotone.
Ma quando non si prova a determinare da che parte passi il fotone,
quando non c’è niente nell’esperimento che perturbi il fotone, allora non
si può dire se il fotone passa attraverso la fenditura 1 oppure la fenditura
2.
Affermazioni di tale genere risultano piuttosto difficili da accettare: ne viene
fuori infatti l’immagine di una realtà che quando non la osserviamo è del tutto
differente da quando la osserviamo. Tuttavia è questa la posizione assunta dalla
scuola di Copenhagen, ossia l’interpretazione ortodossa della meccanica quantistica.
Per quanto ostica da accettare, essa ha il pregio di essere coerente con gli esperimenti:
se la si accetta e la si segue rigorosamente non si incorre in affermazioni che possano
essere contraddette sperimentalmente.

Questa, però, non è l’unica soluzione al problema. Lo stesso Feynman [5, §1-
5] avanza un’altra possibile argomentazione: non è la Proposizione A ad essere
falsa, bensı̀ c’è qualche sottile errore logico nella deduzione che porta alla (1.40). In
particolare è il metodo di calcolo delle probabilità a dover essere modificato, ossia
le probabilità non seguono più le consuete regole del calcolo delle probabilità, ma in
3
Per rendere le cose più esplicite, Feynman considera l’interferenza tra elettroni, e come rivela-
tore di percorso usa propone di usare sorgente luminosa posta dietro le fenditure, in modo che al
passaggio di un elettrone attraverso una fenditura, si generi un bagliore nei pressi della fenditura
interessata. Ora se la localizzazione è buona, le frange d’interferenza scompaiono, per via delle
perturbazioni della luce sugli elettroni.
Se invece si usa luce di lunghezza d’onda sufficientemente elevata (e quindi fotoni poco energetici)
che disturbino poco gli elettroni, quello che succede, è che il bagliore è cosı̀ ampio da non permettere
di risolvere da quale fenditura esso provenga, e quindi non riusciamo a sapere da quale fenditura
è passato l’elettrone. In questo caso però si ha interferenza.

12
1.2– L’interferenza nella meccanica quantistica

presenza di alternative indistinguibili occorre applicare delle nuove regole (che sono
poi quelle della meccanica quantistica).

1.2.3 La radice probabilistica dei problemi


Approfondiamo questo nuovo approccio, seguendo quanto proposto recentemente da
Accardi [1].
Osserviamo che la (1.37), con il segno di uguale, esprime quello che è nota nel
calcolo delle probabilità come teorema delle probabilità composte (si veda il teore-
ma A.2.2 nell’appendice A) secondo cui la probabilità di un evento x può essere
espressa come
P(x) = P(1)P(x|1) + P(2)P(x|2). (1.41)
ove P(i) = pi = 21 , mentre Pi (x) = P(x|i) = |ψi (x)|2 è la probabilità condizionata
di x dato i, cioè che accada x se è noto che è accaduto i (come al solito i = 1,2).
Se tale teorema non risulta applicabile, l’unica spiegazione consiste nel riconosce-
re che qualcuna delle ipotesi su cui si basa non è soddisfatta nel nostro esperimento
con le due fenditure (e in generale, in tutti casi in cui si ha interferenza).
Ciò che possiamo dire a questo punto è che, nel caso di interferenza (ovvero di
situazioni in cui sono presenti alternative indistinguibili), non vale il teorema delle
probabilità composte. Inoltre la meccanica quantistica ci dice qual è la formula da
applicare, ovvero la (1.36), per fare le corrette previsioni.
Da un punto di vista pragmatico il problema è risolto: abbiamo individuato la
formula che non vale, e sappiamo come sostituirla per descrivere correttamente la
realtà.
Si pone tuttavia il problema di capire esattamente perché non possiamo applicare
il teorema delle probabilità composte.
Cerchiamo allora di analizzare nuovamente con maggiore chiarezza i passi e le
ipotesi fatte [1, cap. V] nella dimostrazione di questo teorema.
A tal fine adotteremo una descrizione precisa dell’esperimento delle due fendi-
ture mediante il linguaggio del calcolo delle probabilità classico (di cui si fanno dei
richiami nell’appendice A).

1. Siano 1, 2 i punti campione “il fotone passa dalla fenditura i-esima” (i = 1, 2),
Uf = {1,2} lo spazio campione, e Bf = {∅,1,2,Uf } la σ-algebra, ove con abuso
di notazione, abbiamo indicato gli insiemi con lo stesso simbolo degli elementi
che li compongono.
In particolare si ha

1 ∪ 2 = Uf (1.42)
1 ∩ 2 = ∅. (1.43)

13
1 – Fenomeni di interferenza

2. Consideriamo a questo punto un nuovo spazio di probabilità, introducendo


l’evento x = “il fotone viene rivelato nel punto X (di coordinata x) dello scher-
mo di osservazione”, che al variare di X genera una famiglia di eventi (anche
in questo caso indichiamo con lo stesso simbolo il punto campione e il rela-
tivo evento elementare). Sia Uo il relativo spazio campione. Trattandosi di
un insieme continuo, per semplicità tralasciamo di scrivere esplicitamente una
σ-algebra, e trattiamo gli eventi x come se fossero discreti.
Consideriamo quindi lo spazio prodotto cartesiano Uf × Uo . Se, con ulteriore
abuso di notazione, indichiamo con x l’evento Uf × x dello spazio prodotto
cartesiano, ed analogamente con i l’evento i × Uo , con i = 1, 2, possiamo
scrivere
x = (x ∩ 1) ∪ (x ∩ 2) (1.44)
∅ = (x ∩ 1) ∩ (x ∩ 2) (1.45)
3. Poiché le probabilità (classiche) di eventi disgiunti si sommano, dalle (1.44) e
(1.45) segue immediatamente
P(x) = P(x ∩ 1) + P(x ∩ 2) (1.46)
mentre dalle (1.42) e (1.43) otteniamo
P(1) + P(2) = 1. (1.47)

4. Per definizione di probabilità condizionata (A.10)


P(x ∩ i)
P(x|i) = i = 1,2 (1.48)
P(i)
ove, secondo il linguaggio del calcolo del calcolo delle probabilità,
P(i) è la probabilità marginale di i (si veda il paragrafo A.3)
P(x ∩ i) la probabilità congiunta di i e x
P(x|i) la probabilità condizionata di i dato x.

5. Otteniamo quindi il teorema delle probabilità composte


P(x) = P(1)P(x|1) + P(2)P(x|2) (1.49)

Come detto se tale teorema non è applicabile, allora necessariamente qualcuno


dei passi che ci ha portato ad ottenerlo, e che abbiamo evidenziato con cura, non
deve essere accettabile. Tuttavia essendo i passi evidenziati “banalmente coerenti
dal punto di vista matematico, dobbiamo concludere che almeno uno di essi è basato
su un’ipotesi implicita” che non è soddisfatta nel caso dell’interferenza.
Varie correnti di pensiero hanno proposto varie soluzioni.

14
1.2– L’interferenza nella meccanica quantistica

1.2.4 La soluzione ortodossa


L’interpretazione ortodossa (cioè quella di Copenhagen, in questo caso esemplificata
dai ragionamenti di Feynman circa la Proposizione A) assume che non siano valide
le ipotesi di cui al punto 1 e 3: gli eventi (il fotone passa dalla fenditura) 1 e 2 non
sono incompatibili quando il fotone non è osservato, si ammette cioè che il fotone
(quando non è osservato) passi da ambedue le fenditure (come farebbe un’onda).

La soluzione proposta da Peres

Se due eventi non sono disgiunti, si potrebbe applicare la (A.8), che contempla
il caso di eventi non disgiunti. Tuttavia è difficile definire correttamente l’evento
intersezione 1 ∩ 2 e la sua probabilità.
Peres [11, pag. 38] precisa allora che, nella meccanica quantistica, quando l’unio-
ne di due eventi comporta il passaggio attraverso un percorso indeterminato, essa
non è più un evento (non si ha più una σ-algebra, presupposto essenziale per co-
struire uno spazio di probabilità classico), e non vale la regola della somma delle
probabilità usata nel passo 3.
Si osservi che non è in discussione il teorema della somma delle probabilità in
sé (equazione (A.8)), ma ancora una volta la sua applicabilità, in quanto alcune
situazioni non definiscono un evento in senso quantistico (“il passaggio di un sistema
quantistico attraverso un cammino indeterminato non è il verificarsi di un evento”).
La meccanica quantistica può allora essere considerata come una nuova teoria
probabilistica che definisce il calcolo delle probabilità per un nuovo tipo di eventi
costruibili a partire da quelli elementari mediante un insieme nuovo di operazioni
che tuttavia non permettono di creare una σ-algebra di eventi.
Si osservi infine che il primo passo che non è valido è ancora il passo 1, cioè
siamo sempre nell’ambito dell’interpretazione ortodossa, sebbene l’approccio opera-
zionistico di Peres evita accuratamente affermazioni circa gli oggetti non guardati.

1.2.5 La soluzione delle logiche quantistiche


In queste teorie, avanzate inizialmente da Birkhoff e von Neumann, si assume che
non sia valida un’ipotesi implicita nel punto 2: la legge distributiva della logica
classica.
Una tale tesi deriva dall’osservazione che alcune affermazioni sui risultati di un
esperimento possono essere messe in corrispondenza biunivoca con dei proiettori
ortogonali (si vedano ad esempio le (1.32)), e cosı̀ pure i connettivi logici e, o, non
possono essere messi in corrispondenza con le operazioni definite sui proiettori.

15
1 – Fenomeni di interferenza

Tuttavia i proiettori non soddisfano la legge distributiva, e quindi ne conse-


gue che anche le affermazioni sui risultati degli esperimenti non soddisfano la legge
distributiva.
Ad esempio assumiamo le corrispondenze

S1 = |1i h1| ←→ il fotone passa dalla fenditura 1, (1.50a)


S2 = |2i h2| ←→ il fotone passa dalla fenditura 2 (1.50b)

e facciamo corrispondere il prodotto dei proiettori con il connettivo logico e, la


somma con o.
Allora si vede che essendo
S1 S2 = 0 (1.51)
l’affermazione corrispondente “il fotone passa dalla fenditura 1 e dalla fenditura 2”
è sempre falsa.
Viceversa, essendo
S1 + S 2 = 1 (1.52)
per gli operatori che agiscono nello spazio generato dai due vettori |1i , |2i, allora
l’affermazione corrispondente “il fotone passa dalla fenditura 1 o dalla fenditura 2”
è sempre vera.
In generale, le logiche quantistiche si propongono di costruire un modello ma-
tematico di tutte le proposizioni fisicamente significative, in modo che vi sia una
corrispondenza tra operazioni nel modello matematico e i connettivi logici con i
quali si può operare sulle proposizioni. Un tale programma presenta tuttavia delle
difficoltà, ad esempio la connessione logica tra le affermazioni “la particella è loca-
lizzata tra x e x + ∆x” e “la particella ha una quantità di moto tra p e p + ∆p”
dovrebbe essere sempre falsa secondo i modelli della logica quantistica sinora svi-
luppati, mentre sappiamo che essa risulta vera quando le incertezze sulla posizione
e sulla quantità di moto soddisfano le relazioni di indeterminazione di Heisemberg.

1.2.6 La soluzione della probabilità quantistica


La probabilità quantistica, nella formulazione proposta da Accardi, accetta i primi
passi, e rivolge le critiche alle ipotesi implicite nel punto 4: non è detto che la
formula di Bayes sia applicabile e che, quindi, si possano identificare le probabilità
condizionate con quelle congiunte (e di conseguenza non si può applicare il teorema
delle probabilità composte).
Ricordiamo il significato degli eventi congiunti

x ∩ i = il fotone arriva in x e passa per la fenditura i (1.53)

16
1.2– L’interferenza nella meccanica quantistica

e condizionati
x|i = il fotone arriva in x dato che sia passato per la fenditura i. (1.54)
Quest’ultimo corrisponde a un esperimento in cui solo la fenditura i è aperta (con-
dizionamento fisico). Di più incerta interpretazione è l’evento congiunto: l’evento
“il fotone arriva in x e passa per la fenditura i”, in questo caso non prevede nessuna
verifica sperimentale, nel senso che entrambe le fenditure sono aperte e non c’è alcun
rivelatore di percorso (condizionamento tautologico o classico).
Ora la (1.48) non vale nel caso di condizionamento fisico, ma vale solo nel caso
del condizionamento tautologico o classico in cui le scelte sono sempre tutte possi-
bili. Ciò equivale a valutare sperimentalmente le probabilità P(x ∩ i), ma sappiamo
che non possiamo fare ciò senza disturbare il sistema: occorre quindi introdurre
esplicitamente un rivelatore R che individui attraverso quale fenditura sia passata il
fotone. In questo caso non si valuterà più P(x ∩ i) bensı̀ P(x ∩ i|R), e l’evento della
rivelazione della particella nel punto X sarà sempre condizionato dal rivelatore R,
cosicché alla fine misureremo P(x|R).
Sappiamo però già che questa è una situazione differente, nella quale in partico-
lare vale il teorema delle probabilità composte.

L’invariante statistico della doppia fenditura


La non validità della formula di Bayes è legata all’impossibilità di stabilire una
relazione tra delle probabilità che provengono da esperimenti incompatibili.
Come mostrato nell’appendice A, pag. 101, la definizione di probabilità condi-
zionata (A.10) a partire da uno spazio di probabilità preesistente, costituisce una
buona definizione di probabilità.
Tuttavia nel nostro caso non si tratta di definire una probabilità condizionata a
partire da un altro spazio di probabilità, ma del procedimento inverso: assegnare del-
le probabilità (quelle congiunte e quelle marginali) a partire da quelle condizionate,
e, in generale, ciò non è possibile.
Una tale assegnazione è possibile solo se è possibile definire un unico modello
statistico classico (nel senso di kolmogoroviano) per descrivere i dati sperimentali
mediante i quali calcoliamo le frequenze relative, che corrispondono alle probabilità
di cui discutiamo teoricamente.
Teorema 1.1 (dell’invariante statistico). Siano date le probabilità
P(x|1), P(x|2), P(x) (1.55)
che sono le uniche rilevabili sperimentalmente (mediante frequenze relative).
Affinché le probabilità
P(1), P(2), P(x ∩ 1), P(x ∩ 2) (1.56)

17
1 – Fenomeni di interferenza

siano descrivibili mediante uno stesso modello statistico classico le (1.55) devono
soddisfare la relazione [1, pag. 179]

P(x) − P(x|2)
∈ (0,1), (1.57a)
P(x|1) − P(x|2)

o equivalentemente
P(x) − P(x|1)
∈ (0,1). (1.57b)
P(x|2) − P(x|1)
Dimostrazione. Per semplicità di scrittura poniamo

x1 = P (x ∩ 1) x2 = P (x ∩ 2) (1.58a)
x3 = P (1) x4 = P (2) (1.58b)

che sono le incognite del problema, e

c1 = P (x|1) c2 = P (x|2) (1.59a)

c3 = P (x) (1.59b)
che sono i dati noti dagli esperimenti.
Affinché si possa usare un unico modello probabilistico classico per descrivere i dati
sperimentali dovranno essere verificate le (1.46), (1.47) e (1.48) ossia


 x3 + x 4 = 1

x1 + x 2 = c 3
(1.60)
 c1 x 3 − x 1 = 0


c2 x 4 − x 2 = 0

Inoltre le varie xi (i=1,2,3,4) dovranno rappresentare delle probabilità (cosı̀ come lo sono
le cj con j = 1,2,3). Escludendo i casi banali in cui le incognite e le costanti sono nulle o
uguali a uno, occorre che sia

0 < xi < 1 ∀cj ∈ (0,1), i = 1,2,3,4, j = 1,2,3. (1.61)

La soluzione del sistema è piuttosto semplice e porge




 x1 = c1 cc2 −c
−c
3

 x = c c12 −c31
2 2 c1 −c2
c2 −c3 (1.62)

 x 3 = c −c

 x = c12 −c31
4 c1 −c2

Affinché poi 0 < x1 < 1, essendo x1 = c1 x3 , con 0 < c1 < 1 vediamo subito che basta
richiedere che 0 < x3 < 1.

18
1.2– L’interferenza nella meccanica quantistica

Affinché 0 < x3 < 1 dovrà essere


c2 − c 3
0< <1 (1.63)
c2 − c 1

che, tenuto conto delle (1.58), è, a meno di moltiplicare numeratore e denominatore per
-1, il primo invariante statistico (1.57a) che cercavamo.
L’altro (1.57b) si ricava in maniera analoga dalla condizione 0 < x 4 < 1.

Osservazione. Le due espressioni dell’invariante statistico sono equivalenti.


Il primo invariante equivale a

0 < c 3 − c2 < c1 − c2 per c1 − c2 > 0
(1.64)
0 > c 3 − c2 > c1 − c2 per c1 − c2 < 0

dalle quali otteniamo 


c1 < c 3 < c 2 per c1 < c2
(1.65)
c1 > c 3 > c 2 per c1 > c2 .
Per il secondo invariante, in maniera analoga avremo

0 < c 3 − c1 < c2 − c1 per c2 − c1 > 0
(1.66)
0 > c 3 − c1 > c2 − c1 per c2 − c1 < 0

dalle quali otteniamo nuovamente la (1.65): le condizioni imposte dai due invarianti statistici sono
in realtà una sola, per questo basta verificare che risulti soddisfatto solo uno dei due.
Le (1.65) sono poi semplici da rappresentare graficamente: la regione da esse delimitata
all’interno del cubo 0 < cj < 1, j = 1,2,3 è rappresentata nella figura 1.4.
Può essere utile esprimere le condizioni dell’invariante statistico secondo la forma delle (1.65),
che in termini di probabilità valgono

P (x|1) < P (x) < P (x|2) per P (x|1) < P (x|2)
(1.67)
P (x|1) > P (x) > P (x|2) per P (x|1) > P (x|2) .

1.2.7 Conclusioni
Come evidenziato più volte da Accardi stesso, quello degli invarianti statistici è
un criterio per verificare a posteriori se i dati provenienti da vari esperimenti sono
descrivibili all’interno di un unico modello probabilistico classico. Al fisico si pone
tuttavia il problema, di scegliere quale modello probabilistico (classico o quantistico)
adottare per fare delle previsioni sui risultati di un esperimento.
Per essere concreti: in un esperimento di interferenza come quello analizzato,
date delle particelle con determinate caratteristiche fisiche (massa, ecc) ed uscenti
dalla sorgente σ con una certa velocità, si avranno frange d’interferenza? Ovvero
qual è la probabilità P (x) di rivelare le particelle in una determinata regione dello
schermo di osservazione?

19
1 – Fenomeni di interferenza

Figura 1.4. Rappresentazione grafica delle condizioni imposte dall’invariante sta-


tistico. Nella figura di sinistra sono rappresentati i piani corrispondenti alle con-
dizioni c2 = c1 , c3 = c1 e c3 = c2 , mentre nella figura di destra è rappresentata la
regione di spazio delimitata dall’invariante statistico cc31 −c
−c2 ∈ (0,1).
2

La risposta può essere data utilizzando il modello quantistico: si calcola P (x),


e si valuta la distanza tra le frange, confrontandola con il potere di risoluzione degli
apparati utilizzati per rilevare le frange.
A poco serve invece da questo punto di vista il criterio dell’invariante statistico,
che richiede la conoscenza di P (x) .
In caso di presenza di un rivelatore di percorso la risposta è più difficile, in quanto
occorre valutare quanto il rivelatore di percorso perturbi il comportamento delle
particelle. È peraltro evidente, che se il potere risolutore delle frange è incapace di
rivelare le frange sin dall’inizio, allora possiamo trascurare gli effetti del rivelatore di
percorso (sempre che esso non sia troppo invasivo), e affermare che la sua presenza
non altera i risultati dell’esperimento: è il caso di particelle classiche, in cui non
solo la particella viene perturbata poco dal rivelatore di percorso, ma le frange di
interferenza non sarebbero state rilevabili in ogni caso!

20
Capitolo 2

Coerenza ed incoerenza ottica

Nel paragrafo 1.1 abbiamo parlato di coerenza (di fase) con riferimento al caso di
onde o campi perfettamente sinusoidali la cui differenza di fase è costante, e abbiamo
visto che tale condizione genera fenomeni di interferenza.
In questo capitolo vedremo, in particolare, alcune ragioni per le quali il sempli-
ce modello usato nel paragrafo 1.1.1 di onde perfettamente sinusoidali, è incapace
di render conto del venir meno, in alcune situazioni sperimentali, dei fenomeni di
interferenza.
Inquadreremo poi l’interferenza prodotta da due onde in uno schema più generale,
mediante le nozioni di coerenza spaziale e temporale, per poi passare all’approccio
della coerenza ottica.
Ed infine affronteremo, dal punto di vista quantistico, il problema della coerenza
ottica, studiando la coerenza ottica di alcuni semplici campi, in particolare il campo
prodotto da una sorgente laser (che è altamente coerente) e quello di una sorgente
termica convenzionale.

2.1 Le origini della non perfetta monocromaticità


Abbiamo visto nel paragrafo 1.1 che le onde perfettamente monocromatiche mostra-
no coerenza di fase (e massima visibilità) qualunque sia la distanza spaziale tra le
due sorgenti, e qualunque sia il ritardo tra le due onde.
Le onde elettromagnetiche che stiamo considerando sono emesse da atomi che
passano da uno stato eccitato (d’energia E2 ) ad uno di livello energetico inferiore
E1 emettendo energia sotto forma di radiazione elettromagnetica, alla pulsazione
ω0 = E2 −E
~
1
.
Tale radiazione tuttavia non è perfettamente monocromatica. Le varie ragioni
di questa non perfetta monocromaticità sono molteplici ed intimamente legate al
processo di emissione.

21
2 – Coerenza ed incoerenza ottica

Limitandoci al caso dell’emissione spontanea, una prima sorgente di non mono-


cromaticità è la durata limitata dell’emissione di ciascun atomo.
Poi abbiamo la presenza di componenti di diversa frequenza, dovuta a differenti
transizioni: in questo caso, tuttavia, la presenza di più componenti spettrali, dovuta
ad atomi che effettuano salti energetici ben distinti, origina solo delle righe distinte
e in genere ben separate data la natura discreta dei livelli atomici. Pertanto essa
può essere eliminata mediante opportuni filtri.
Ed infine abbiamo dei fenomeni dovuti alla presenza di più atomi immersi in un
ambiente “rumoroso” che disturba in qualche modo l’emissione, causando dei bruschi
e imprevedibili salti della fase di ciascuna componente.
Tutti questi fenomeni originano uno spettro che non è esattamente una riga: si
parla pertanto di allargamento di riga.
È usuale la distinzione in allargamento omogeneo, dovuto al comportamento di
un insieme di atomi indistinguibili, che si comportano tutti allo stesso modo, ed
allargamento inomogeneo, dovuto a piccole differenze tra un atomo e l’altro, non più
indistinguibili.
Secondo questa classificazione, sono di tipo omogeneo l’allargamento naturale
dovuto al processo di emissione spontanea, le transizioni verso altri livelli, le collisioni
(elastiche) che causano delle brusche variazioni di fase, quelle (inelastiche) con i
fononi o altri atomi.
Sono invece di tipo inomogeneo l’allargamento dovuto alle impurità o quello per
effetto Doppler1 .
Tale distinzione è molto importante nella teoria del laser, perché i due tipi di
allargamento originano due differenti andamenti della saturazione del guadagno al
crescere della potenza, ma per l’analisi che ci interessa è del tutto trascurabile.
Per comprendere il meccanismo e gli effetti dell’allargamento, vediamo più in
dettaglio il caso dell’allargamento naturale e quello dovuto alle collisioni.

Allargamento naturale della linea spettrale


La luce emessa da un singolo atomo può essere considerata con buona approssimazio-
ne, come un’onda sinusoidale di durata limitata a τd , che è il tempo di decadimento
degli atomi della sorgente luminosa (τd ∼ 10−8 s):

E(t) = pτd (t) E0 cos(ω0 t) (2.1)

essendo pτd (t) = 1 per −τd /2 < t < τd /2, e nulla altrove.
1
Il fatto che gli atomi siano in continuo moto per semplice agitazione termica, comporta che
durante l’emissione di una singola onda, la frequenza della radiazione emessa risulta, per effetto
Doppler, maggiore o minore di quella di un atomo idealmente fermo, a secondo del verso in cui si
muove l’atomo rispetto a quello in cui consideriamo la propagazione della luce.

22
2.1– Le origini della non perfetta monocromaticità

Lo spetto corrispondente non sarà più una riga in corrispondenza della frequenza
f0 , ma risulterà allargato secondo la funzione di riga

sin[(ω − ω0 )τd /2]


E0 (2.2)
ω − ω0
dalla quale è evidente un allargamento della banda del segnale troncato rispetto
ad uno perfettamente sinusoidale. In particolare vale la relazione (relazione di
indeterminazione tempo-frequenza)

∆ω∆t ' 1 (2.3)

ove possiamo assumere ∆t ∼ τd , e ∆ω ∼ ω − ω0 .


Un valore tipico del tempo di decadimento è τd ∼ 10−8 s.
Per quanto riguarda la luce termica, l’effetto dell’allargamento naturale, seb-
bene presente, risulta in genere trascurabile rispetto agli altri tipi di allargamen-
to di riga: pertanto assumeremo che il campo emesso dagli atomi indisturbati sia
approssimativamente sinusoidale.
Un tale allargamento è legato proprio al processo di emissione, e pertanto è
presente anche nel caso di un laser: tuttavia in questo caso l’emissione stimolata
permette di mantenere la coerenza di fase tra le varie onde emesse dai vari atomi in
tempi differenti, superando quindi le limitazioni imposte dal processo di emissione.

Allargamento dovuto alle collisioni


Per via dell’agitazione termica, tra gli atomi avvengono continue collisioni, con un
tempo medio tra due collisioni τcoll ∼ 10−11 s, il che comporta che, durante il tempo
10−8
di decadimento di un atomo avvengano circa ττcoll d
∼ 10 3
−11 = 10 collisioni. Tuttavia

alle frequenza ottiche (f0 ∼ 1015 Hz, T0 = 10−15 s) nell’intervallo di tempo tra due
collisioni sono presenti sempre un elevato numero di oscillazioni complete e non
10−11
disturbate ( τTcoll
0
∼ 10 4
−15 = 10 ), tanto da poter parlare ancora ragionevolmente di

segnale sinusoidale.
Ora mentre i precedenti effetti di allargamento di riga comportavano sostan-
zialmente una lenta modulazione in ampiezza del segnale sinusoidale, le collisioni
comportano un suo brusco sfasamento casuale, cosı̀ che persino la radiazione emessa
da un singolo atomo ha una coerenza di fase (ovvero è continua) in media solo per
un tempo τcoll .
Solo nel caso dell’emissione stimolata (ovvero del laser) si riesce a mantenere la
coerenza di fase tra le emissioni dei vari atomi, superando anche i limiti imposti
dalle collisioni.
Rimuoviamo quindi l’ipotesi di campi perfettamente sinusoidali. Tuttavia è evi-
dente da quanto detto, che il campo mantiene certe caratteristiche sinusoidali, anche

23
2 – Coerenza ed incoerenza ottica

se per intervalli di tempo limitati. Pertanto nel seguito considereremo dei campi
quasi-monocromatici, ovvero dei campi per i quali la larghezza di banda ∆f è molto
più piccola della frequenza di centro banda f0 : si tratta di un’ipotesi ragionevole per
molte applicazioni.

2.2 Coerenza della luce termica


L’effetto degli sfasamenti casuali cui è soggetta la luce termica è una statistica della
luce gaussiana. Più precisamente, se consideriamo [7, §4.4] tutti gli atomi di una
sorgente termica che emettono luce ad una particolare frequenza f0 , il campo totale
risulta dalla somma di tante onde (sinusoidali, almeno in prima approssimazione).
Ciascun atomo è tuttavia indipendente dagli altri, per cui i vari contributi avranno
una fase casuale φn (t), la cui dipendenza dal tempo tiene conto degli sfasamenti
dovuti alle collisioni. Avremo cioè
N
X N
X
E(t) = En (t) = E0n ei[ω0 t+φn (t)] (2.4)
n=1 n=1

essendo N il numero di atomi che emettono alla pulsazione ω0 = 2πf0 , e E0n le


ampiezze del campo emesso da ciascun atomo.
Se ora assumiamo, per semplicità, che le ampiezze siano tutte uguali E0n = E0 ,
allora
N
X
E(t) = E0 eiω0 t eiφn (t) = E0 eiω0 t a(t)eiδ(t) (2.5)
n=1
ove si è posto
N
X
iδ(t)
a(t)e = eiφn (t) (2.6)
n=1
che altro non è che il cammino totale percorso nel classico problema del random
walk.
Il cammino totale a(t) all’istante t può variare tra 0 e N . È facile verificare allora
che l’ampiezza media del cammino risulta

< a(t) >e = N . (2.7)
Inoltre si ha che la probabilità che ad un particolare istante l’ampiezza del cammino
sia a(t) è
1 − a2 (t)
P{a(t)} = e N (2.8)
πN
cioè l’ampiezza a(t) ha una distribuzione di probabilità gaussiana, centrata nell’o-
rigine, da cui la denominazione di luce gaussiana per la luce emessa da sorgenti
termiche.

24
2.2– Coerenza della luce termica

Valutiamo ora l’intensità media della luce termica.


A tal fine supponiamo che a(t) e δ(t) varino lentamente rispetto alla portante
sinusoidale (f0 ∼ 1015 s). L’intensità media su un periodo risulta allora
< |E(t)|2 >T0 = E02 a2 (t) (2.9)
mentre l’intensità misurata con un rivelatore è la media su un tempo Tr  T0 , pari
al tempo di risposta dello strumento, per cui
I(t) =< |E(t)|2 >Tr = E02 < |a(t)|2 >Tr . (2.10)
Se supponiamo la sorgente stazionaria possiamo innanzitutto approssimare la media
su Tr con quella su tutto l’asse dei tempi (inoltre essendo ragionevolmente valida
anche l’ipotesi ergodica, ometteremo il pedice che le distingue)
* N N
+
X X
< |a(t)|2 >Tr '< |a(t)|2 >t =< |a(t)|2 >= eiφn e−iφm . (2.11)
n=1 m=1

Ora per m = n abbiamo la somma di N termini pari a 1, per cui risulta


* N N
+
X X
2 iφn −iφm
< |a(t)| >= N + e e (2.12)
n=1 m6=n
m=1

che, tenuto conto del ruolo simmetrico di n e m, possiamo riscrivere come


* N +
X
< |a(t)|2 >= N + 2 cos(φn − φm ) = N, (2.13)
n>m=1

ove, poiché le fasi φn variano in maniera casuale sul lungo periodo2 , il coseno ha
valor medio nullo, per cui l’intensità media risulta
I '< I >= N E02 ∀ Tr > τc . (2.14)
Si osservi in particolare che con un rivelatore con tempo di risposta Tr > τc le
fluttuazioni dell’intensità (che possono variare nell’intervallo [0, N 2 E02 ]) non vengono
rilevate.

Interferenza di luce termica


Consideriamo lo schema mostrato nella figura 2.1, con una sorgente puntiforme
gaussiana presente nell’origine O.
2
Ovvero per qualunque intervallo maggiore del tempo di coerenza τc , che è proprio il tempo
entro il quale le fasi sono, mediamente, costanti, e quindi resta costante la differenza di fase φ n −φm .

25
2 – Coerenza ed incoerenza ottica

Figura 2.1. Schema generale di un esperimento di interferenza. La sorgente è


posta nell’origine O.

Il campo nel punto r, come nella (1.2), sarà

E(r,t) = E1 (r,t) + E2 (r,t) (2.15)

ove Ei (r,t) è il campo prodotto in r dall’onda proveniente dalla fenditura in r i .


Come al solito supponiamo che le fenditure siano cosı̀ piccole da originare delle
onde sferiche, e che la distanza del punto di osservazione dalla sorgente sia molto
maggiore della lunghezza d’onda λ0 . Ponendo per semplicità

si = |r i − r|  λ0 (2.16a)
si
ti = t − (2.16b)
c
essendo c la velocità di propagazione della luce, il campo prodotto in r all’istante t
dalla fenditura i-esima sarà
1 1
Ei (r, t) = Ei (ti ) = E (r i , ti ) (2.17)
si si
ove Ei (t) ≡ E (r i , t) è il campo generato in r i dalla sorgente posta nell’origine.
La (2.15) vale allora
1  s1  1  s2 
E(r, t) = E r1, t − + E r2, t − =
s1 c s2 c
1
' [E(r 1 , t − s1 /c) + E(r 2 , t − s2 /c)] (2.18)
R
ove si è supposto di limitarci a punti vicini all’asse di simmetria, per i quali s 1 ≈ s2 ≈
R. Tale approssimazione (all’ordine zero rispetto alla differenza s2 − s1 ) è valida solo

26
2.2– Coerenza della luce termica

per il termine 1/si . Per il termine presente all’interno dell’espressione del campo,
trattandosi di un termine di fase, l’approssimazione all’ordine zero in generale non
è sufficientemente buona visto che le fasi originano un termine del tipo k(s2 − s1 ),
che richiede un’approssimazione di ordine superiore.
L’intensità media osservata in un punto r vale allora

I(r,t) =< |E(r,t)|2 >=


1 
= 2 < |E1 (r, t)|2 > + < |E2 (r, t)|2 > +
R 
+ < E1 (r, t)E2∗ (r, t) > + < E1∗ (r, t)E2 (r, t) > =
1 
= I 1 (r,t) + I 2 (r,t) + 2 < E(r 1 , t − s1 /c)E ∗ (r 2 , t − s2 /c) > +
R 
+ < E ∗ (r 1 , t − s1 /c)E(r 2 , t − s2 /c) > (2.19)

che possiamo riscrivere come

2
I(r,t) = I 1 (r,t) + I 2 (r,t) + Re{G(1) (x1 , x2 )}. (2.20)
R2

ove xi = (r i , t − si /c) = (r i , ti ), e si è introdotta la funzione di correlazione (classica)


del campo elettromagnetico

G(1) (x1 , x2 ) ,< E ∗ (x1 )E(x2 ) > (2.21)

della quale vedremo nel paragrafo 2.4.1 un suo studio più approfondito, nell’ambito
dell’ottica quantistica.
Nell’espressione dell’intensità (2.20), riconosciamo le intensità prodotte da cia-
scuna fenditura I i (r,t) ∝ G(1) (xi , xi ), più un termine aggiuntivo proporzionale a
Re{G(1) (x1 , x2 )} che è proprio il termine di interferenza. Per evidenziare meglio
l’effetto di quest’ultimo, conviene riscrivere la funzione di correlazione come

G(1) (x1 , x2 ) = |G(1) (x1 , x2 )| eiθ(x1 , x2 ) (2.22)

con θ(x1 , x2 ) = ]G(1) (x1 , x2 ) la fase della funzione di correlazione.


La media che figura nella (2.21), cosı̀ come quella dell’intensità, va intesa come
media temporale su di un periodo Tr pari al tempo di risposta quello del fotorivela-
tore. Per campi stazionari le medie non dipendono dal tempo, ma solo dal ritardo
τ = t 1 − t2 .

27
2 – Coerenza ed incoerenza ottica

In tale caso la funzione di correlazione (2.21), esplicitando la dipendenza tempo-


rale, vale
Z
(1) 1 Tr ∗
G (x1 ,x2 ) = E (r 1 ,t − s1 /c)E(r 2 ,t − s2 /c)dt
Tr 0
Z s1
1 Tr − c ∗
= E (r 1 ,t0 )E(r 2 ,t0 + τ )dt0
Tr − sc1
Z
1 Tr ∗
= E (r 1 ,t0 )E(r 2 ,t0 + τ )dt0 (2.23)
T 0
ove, nei limiti d’integrazione, trattandosi di un campo stazionario, si è traslato
l’intervallo d’integrazione, e si è posto
s2 − s 1
τ= = t2 − t1 . (2.24)
c
Quindi possiamo scrivere

G(1) (x1 ,x2 ) = G(1) (r 1 ,r 2 ; t1 ,t2 ) = G(1) (r 1 ,r 2 ; τ ) (2.25)

evidenziando esplicitamente che la funzione di correlazione dipende solo dal ritardo


τ tra i due campi.
In particolar modo la fase θ(r 1 ,r 2 ; τ ) = ]G(1) (r 1 ,r 2 ; τ ) dipende solo da τ , ossia
dalla differenza dei cammini ottici, analogamente a quanto avevamo visto nel caso
di onde monocromatiche.
L’intensità vale pertanto
1  (1) (1) (1)

I(r,t) = G (r 1 ,r 1 ; 0) + G (r 2 ,r 2 ; 0) + 2|G (r 1 ,r 2 ; τ )| cos θ(r 1 ,r 2 ; τ ) (2.26)
R2
che è analoga alla eq. (1.12): visto cha al variare del punto r sullo schermo di
osservazione, varia solo τ , il termine con il coseno è ancora una volta quello che
origina le frange di interferenza, mentre l’inviluppo delle frange è dato dal modulo
della funzione di correlazione del campo uscente dalle due fenditure.
Si osservi comunque che ciò che a noi interessa è la coerenza del campo nei punti
r 1 e r 2 , ed è solo per via dell’apparato sperimentale usato che ricorriamo all’intensità
in r per evidenziare i fenomeni di interferenza.
Dalla (2.26) risulta poi
1  (1) 
I max = 2
G (r 1 ,r 1 ; 0) + G(1) (r 2 ,r 2 ; 0) + 2|G(1) (r 1 ,r 2 ; τ )| (2.27a)
R
1  
I min = 2 G(1) (r 1 ,r 1 ; 0) + G(1) (r 2 ,r 2 ; 0) − 2|G(1) (r 1 ,r 2 ; τ )| (2.27b)
R

28
2.2– Coerenza della luce termica

per cui, ricordando la definizione di visibilità (1.15), si ha

I max − I min
ν≡ =
I max + I min
|G(1) (r 1 ,r 2 ; τ )|
= 2 (1) =
G (r 1 ,r 1 ; 0) + G(1) (r 2 ,r 2 ; 0)
p
I 1 I 2 G(1) (r 1 ,r 2 ; τ )

=2 p =
I1 + I2 G (r 1 ,r 1 ; 0)G (r 2 ,r 2 ; 0)
(1) (1)
p
I 1 I 2 (1)
=2 |g (r 1 ,r 2 ; τ )| (2.28)
I1 + I2
ove si è introdotto il coefficiente di correlazione del primo ordine

(1) G(1) (x1 ,x2 )


g (x1 ,x2 ; ) , p . (2.29)
G(1) (x1 ,x1 )G(1) (x2 ,x2 )
Dalla (2.28) risulta evidente la sostanziale equivalenza tra il modulo del coeffi-
ciente di correlazione e la visibilità. In particolare se il campo che incide sulle due
fenditure ha uguale intensità I 1 = I 2 , allora ν = |g (1) (x1 ,x2 )|, e la condizione di mas-
sima visibilità delle frange d’interferenza equivale ad un coefficiente di correlazione
di modulo unitario.

A questo punto non resta che calcolare la funzione di correlazione nel caso speci-
fico di un campo con statistica gaussiana (2.5), che, in virtù dell’ergodicità del cam-
po, possiamo calcolare come media temporale (sul tempo di risposta del rivelatore
Tr  τc ):
Z
(1) 1 Tr ∗
G (x1 ,x2 ) = E (r 1 ,t1 )E(r 2 ,t1 + τ )dt1
Tr 0
XN Z Tr
2 ik(s1 −s2 ) 1
= E0 e ei[φm (t1 +τ )−φn (t1 )] dt1 . (2.30)
n,m=1
Tr 0

Ora poiché le fasi formano un insieme di variabili casuali indipendenti uniforme-


mente distribuite tra 0 e 2π, per n 6= m anche la loro differenza è uniformemente
distribuita, e il contributo alla (2.30) è nullo.
Per n = m abbiamo invece la differenza tra i valori della stessa fase a due istanti
temporali differenti: ciascuna fase φn (t), cambia mediamente dopo un tempo τc ,
pertanto la differenza δn = φn (t1 ) − φn (t1 + τ ) assume un valore casuale per τ > τc ,
che come prima dà un contributo nullo alla (2.30), per cui

G(1)
gauss (r 1 ,r 2 ; τ ) = 0 per τ ≥ τc . (2.31)

29
2 – Coerenza ed incoerenza ottica

Figura 2.2. Grafici di una realizzazione delle fase φn (t), φn (t+τ ) e della differenza
di fase δn = φn (t) − φn (t + τ ), nel caso τ < τc .

Per τ < τc invece la differenza di fase δn = φn (t1 ) − φn (t1 + τ ) è nulla quando le


due fasi si sovrappongono, ed assume un valore casuale altrimenti (figura 2.2).
Su un intervallo di durata τc , l’integrale presente nella (2.30) vale quindi
Z τ Z τc
iδn
e dt1 + dt1 = τ eiδn + (τc − τ ) (2.32)
0 τ

e, se vogliamo calcolarne il valor medio, basta dividere tale espressione per τc . L’inte-
grale esteso a tutto l’intervallo Tr risulta allora uguale alla somma di tanti contributi
analoghi, e i termini τ eiδn tenderanno, in media, a cancellarsi lasciando solo quelli
del tipo τc − τ , che, se poniamo Tr = M τc , danno luogo ad un contributo M (τc − τ )
che poi dovendo essere diviso per Tr porge, in media, sempre un contributo del tipo
τc −τ
τc
.
In definitiva si ha
τc − τ ik(s1 −s2 )
G(1) 2
gauss (r 1 ,r 2 ; τ ) = N Eo e per τ < τc . (2.33)
τc

30
2.2– Coerenza della luce termica

Figura 2.3. Modulo del coefficiente di correlazione del primo ordine per un cam-
po monocromatico (perfettamente coerente) e uno termico (gaussiano), secondo il
semplice modello utilizzato e uno più realistico con spettro gaussiano.

(1)
Essendo poi Ggauss (xi ,xi ) = N E02 , il coefficiente di correlazione vale
(
τc −τ ik(s1 −s2 )
(1) τc
e per 0 ≤ τ < τc ,
ggauss (r 1 ,r 2 ; τ ) = (2.34)
0 per τ ≥ τc

ovvero in modulo, tralasciando l’indicazione esplicita dei due punti r 1 , r 2 ,


(
τc −τ
(1) τc
per 0 ≤ τ < τc ,
|ggauss (τ )| = (2.35)
0 per τ ≥ τc .

In questo risultato possiamo riscontrare le caratteristiche essenziali, che si ritrova-


no anche in analisi più raffinate3 : la luce di una sorgente termica può essere coerente
solo per τ = 0 (coerenza spaziale), risulta parzialmente coerente per 0 < τ < τc ,
e risulta completamente incoerente per τ  τc . Un comportamento ben differente
3
Espressioni più realistiche del coefficiente di correlazione del primo ordine si ottengono model-
lando adeguatamente lo spettro di potenza del processo. In particolare [15, §3.6] per uno spettro
lorentziano si ottiene
(1)
|ggauss (τ )| = e−γτ (2.36)
mentre se lo spettro è esso stesso gaussiano si ha
2 2
(1) τ
|ggauss (τ )| = e−γ (2.37)

con γ ∼ 1/τc .

31
2 – Coerenza ed incoerenza ottica

da quello di un’onda perfettamente monocromatica per la quale il coefficiente di


correlazione è identicamente uguale ad uno.
In definitiva in un interferometro di Young illuminato da una sorgente termica
disposta simmetricamente rispetto alle fenditure, si ha coerenza spaziale perfetta
solo nei pressi dell’asse di simmetria (e in generale, per una sorgente non simmetrica
nei pressi del massimo principale), ove τ = 0.
In corrispondenza dei massimi dell’intensità di ordine n risulta, in base alla (1.7)
s2 − s 1 n
τ= = (2.38)
c f0

per cui, per della luce termica visibile con τc ∼ 10−12 s, dovrebbero essere visibili
−12 s
circa n = Tτc0 ∼ 1010−15 s
= 103 frange di interferenza, in quanto durante il tempo di
coerenza la luce termica, dovrebbe comportarsi come un’onda monocromatica. In
pratica, tuttavia, i vari allargamenti di riga, e soprattutto gli effetti di diffrazione
dovuta alle dimensioni non trascurabili delle fenditure e l’estensione spaziale della
sorgente fanno sı̀ che siano visibili molte meno frange.
Se si usa un laser il tempo di coerenza è decisamente maggiore (anche se non
infinito): valori usuali, come detto anche in precedenza, sono dell’ordine di τc ∼
10−4 s.
A questo punto (ovvero tenuto conto della sola statistica del primo ordine) la
differenza tra la luce emessa da un laser e quella di una sorgente termica sembra solo
legata ad un tempo di coerenza maggiore. Vedremo che vi è anche una profonda
differenza qualitativa, ma a tal fine occorre analizzare le proprietà statistiche del
secondo ordine, e tenere in conto la natura quantistica della luce.

2.3 Introduzione alla coerenza


Puntualizziamo ora alcuni concetti relativi alla coerenza.

2.3.1 Coerenza spaziale


Data un’onda elettromagnetica monocromatica o quasi-monocromatica si fissi un
fronte d’onda (diciamo all’istante t = 0) e si considerino due punti P1 e P2 su di
esso. Siano E1 (t) e E2 (t) rispettivamente i campi nei due punti.
Per come abbiamo fissato i due punti (ovvero per la definizione stessa di fronte
di fase), i campi nei due punti sono in fase all’istante t = 0 (ovvero la differenza di
fase è nulla). Diremo allora che il campo mostra una perfetta coerenza tra i due
punti se tale differenza di fase resta nulla ∀t > 0 (e l’insieme dei punti per i quali si
ha perfetta coerenza è l’area di coerenza). Se tale condizione dovesse valere per due
qualsiasi punti del fronte d’onda, diremo che si ha perfetta coerenza spaziale.

32
2.3– Introduzione alla coerenza

Figura 2.4. Rappresentazione schematica di un interferometro di Young con una


sorgente estesa. I 1 , I 2 sono le intensità medie prodotte da ciascuna fenditura
singolarmente (ovvero quando l’altra è chiusa) tenendo conto anche della diffrazione
dovuta a fenditure non puntiformi, I coer l’intensità media prodotta nel caso di
buona coerenza, mentre I inc è relativo al caso di sovrapposizione di onde incoerenti.

L’interferometro di Young

Un apparato sperimentale che permette di mettere in evidenza questo tipo di coe-


renza è l’interferometro di Young (figura 2.4), che ora analizzeremo in maniera più
dettagliata.
Supponiamo che la luce venga generata da una sorgente σ, con dimensione carat-
teristica trasversale pari a ∆S. Le fenditure in P1 e P2 , sullo schermo Σs , saranno
coincidenti con i due punti nei quali vogliamo testare la coerenza spaziale. Per sem-
plicità supporremo (come illustrato in figura) che le due fenditure siano sistemate
simmetricamente rispetto alla sorgente, e che le dimensioni di tali fenditure siano
sufficientemente piccole da poter trascurare gli effetti di diffrazione.
Diremo che le frange d’interferenza sullo schermo di osservazione Σo sono la
manifestazione della coerenza del campo nei due punti P1 e P2 .
Si osservi che se la sorgente fosse puntiforme, la sua non perfetta monocromaticità
non creerebbe grossi problemi: a ciascun treno di onde pressoché monocromatico
si può applicare quanto visto per delle onde perfettamente monocromatiche (par.
1.1.1), e i vari treni di onde differiscono sostanzialmente per un fattore di fase che
non altera la figura d’interferenza.
Nel caso di una sorgente estesa quasi-monocromatica risulta invece che si hanno
frange di interferenza solo se i due punti P1 e P2 sono sufficientemente vicini, ovvero
se
λ0
∆θ ≤ (2.39)
2∆S

33
2 – Coerenza ed incoerenza ottica

Figura 2.5. Effetti della traslazione della sorgente sulla figura d’interferenza. I i è
l’intensita dovuta solo alla sorgente σi , i = 0,1

ove ∆θ è l’angolo sotto il quale sono viste le due fenditure dalla sorgente, λ0 = c/f0 la
lunghezza d’onda media del fascio luminoso, e ∆S la dimensione caratteristica della
sorgente. La corrispondente massima distanza tra i due punti P2 P1 che permette di
avere interferenza è detta lunghezza di coerenza trasversale.
Dimostrazione. Si consideri inizialmente una sorgente singola puntiforme e monocromatica, dispo-
sta simmetricamente rispetto alle due fenditure. Il campo da essa generato

E(t) = E0 cos(ωt) (2.40)

generera nei punti Pi i campi

Ei (t) = E0i cos(ωt − kRi ) i = 1,2. (2.41)

Ora nel caso in esame con una disposizione simmetrica E01 = E02 , e ϕ1 = kR1 = kR2 = ϕ2 , e a
tutti gli effetti possiamo applicare quanto visto nel paragrafo 1.1.1, con delle onde perfettamente in
fase (∆ϕ = ϕ1 −ϕ2 = 0), ottenendo una figura d’interferenza con il massimo principale in posizione
centrale rispetto alle due fenditure.
Se ora consideriamo una sorgente sempre puntiforme ma collocata ad una delle estremità
della sorgente estesa σ (σ1 nella figura 2.5), a parte una differenza nell’attenuazione dell’ampiezza,
trascurabile in prima approssimazione, avremo R10 6= R20 , e quindi una differenza di fase non nulla
tra i campi in P1 e P2 . Come visto nella (1.28) ciò comporta uno spostamento del massimo
principale della figura d’interferenza di
∆ϕ
xm = ∆x (2.42)

essendo ∆x = D a λ0 la separazione tra due massimi (o due minimi) della figura d’interferenza.
Ora affinché non si abbia la cancellazione della figura di interferenza, richiediamo che i massimi
generati da una tale sorgente non cadano nei pressi dei minimi generati da una sorgente puntiforme
disposta simmetricamente:
∆x
|xm | < . (2.43)
2

34
2.3– Introduzione alla coerenza

A questo punto basta usare l’espressione di xm in funzione di ∆x per ottenere

|∆ϕ| < π (2.44)

ed esprimendo ∆ϕ in funzione della distanza della sorgente dallo schermo con le fenditure abbiamo

λ0
|R1 − R2 | < . (2.45)
2
Ora possiamo approssimare le espressioni di Ri come
r   
a 2 1 (∆S − a/2)2
R1 = R2 + ∆S − 'R 1+ (2.46a)
2 2 R2
r   
2
a 2 1 (∆S + a/2)2
R2 = R + ∆S + 'R 1+ (2.46b)
2 2 R2

ove ∆S è la distanza della sorgente dall’asse di simmetria, e quindi


a∆S
|R1 − R2 | ' (2.47)
R
per cui la condizione di coerenza spaziale (2.43) vale

a∆S λ0
< . (2.48)
R 2
Il ragionamento e le conclusioni viste non cambiano se si considerano due sorgenti elementari
poste ai due estremi della sorgente estesa σ, in quanto nella discussione svolta in precedenza si
faceva riferimento allo sfasamento ∆ϕ introdotto dalla disposizione asimmetrica della sorgente.
Infine, per esprimere la condizione di coerenza spaziale in termini di angoli, basta osservare
che
a ∆θ
= 2 tan ' ∆θ (2.49)
R 2
e quindi
λ0
∆θ < (2.50)
2∆S.

La (2.39) è sostanzialmente dovuta alla natura non puntiforme della sorgente, e


possiamo giustificarla osservando [8, §4.2] che ciascuna sorgente elementare presente
nella sorgente σ origina delle frange di interferenza proprie sullo schermo di osser-
vazione (come visto nel paragrafo 1.1.1). Tuttavia data l’estensione spaziale della
sorgente, e la sua natura incoerente, sullo schermo vengono a sovrapporsi figure di
interferenza con massimi e minimi in posizioni differenti. Tali differenze aumenta-
no all’aumentare della separazione tra le due fenditure, fino alla cancellazione della
figura di interferenza totale.
È importante evidenziare come, nonostante le varie sorgenti elementari che for-
mano la sorgente σ siano incoerenti, e quindi in ultima analisi la sorgente sia (parzial-
mente) incoerente, nelle condizioni (2.39), si hanno frange di interferenza, rivelando

35
2 – Coerenza ed incoerenza ottica

Figura 2.6. Scema che illustra l’origine della coerenza spaziale nei due punti P 1 e
P2 a partire da due sorgenti incoerenti S1 e S2 .

la coerenza tra i campi nei due punti P1 e P2 : pur di porsi a sufficiente distanza da
una qualsiasi sorgente, si possono ottenere fenomeni di interferenza.
Per rendersi conto di come avvenga ciò, si considerino due sorgenti puntiformi S1
e S2 quasi-monocromatiche, con la stesse caratteristiche spettrali ma incoerenti (o
in altri termini, statisticamente indipendenti: possiamo considerarle come il modello
di due atomi distinti della sorgente σ).
I due treni d’onda che da ciascuna di esse partono verso i punti P1 e P2 (si veda
la figura 2.6) generano in questi punti i campi:

E1 (t), E2 (t) nel punto P1 (2.51a)


E10 (t), E20 (t) nel punto P2 . (2.51b)

Sia Rij = Si Pj , e consideriamo la sorgente S1 : se la differenza tra R11 ed R12 è


piccola rispetto alla lunghezza di coerenza, allora

E1 (t) ' E10 (t) (2.52a)

a meno di un fattore di fase determinato e costante (dipendente essenzialmente dalla


geometria). Analogamente per S2 : se R21 ' R22

E2 (t) ' E20 (t). (2.52b)

Sommando localmente i campi si ha:

E(P1 ; t) = E1 (t) + E2 (t) = E10 (t) + E20 (t) = E(P2 ; t) (2.53)

e quindi, nonostante l’indipendenza statistica tra E1 (t) e E2 (t), il campo totale in P1


risulta correlato a quello in P2 .

36
2.3– Introduzione alla coerenza

Figura 2.7. Definizioni degli angoli per la condizione di coerenza spaziale, in base
λ0
alla quale deve essere ∆θ ≤ 2∆S , o equivalentemente ∆θ 0 ≤ λ2a0 corrispondenti
rispettivamente agli angoli solidi ∆ω e ∆ω 0 .

L’area di coerenza
Con riferimento alla figura 2.4, l’area di coerenza è la regione intorno al punto Q
nella quale possiamo scegliere i punti P1 e P2 per avere frange di interferenza con
una buona visibilità:  2
2 Rλ0
∆A ∼ (R∆θ) ∼ (2.54)
∆S
ove si è usata la (2.39).
Calcoliamo i valori delle aree di coerenza per alcuni casi significativi. Per agevo-
lare i calcoli conviene elaborare l’espressione dell’area di coerenza: osserviamo che
essendo
(∆A)2
∆Ω , ∼ (∆θ)2 (2.55)
R2
l’angolo solido sotteso dall’area di coerenza4 , usando la (2.54) si ha
 2
λ0
∆Ω ∼ . (2.56)
∆S
Alternativamente possiamo definire l’angolo solido sotteso in Q dalla sorgente
(corrispondente all’angolo piano ∆ω 0 della figura 2.7)
(∆S)2
∆Ω 0 , (2.57)
R2
4
Un calcolo più preciso fornisce ∆Ω = π(∆θ)2 .

37
2 – Coerenza ed incoerenza ottica

ed allora la (2.54) può essere scritta come

λ20
∆A ∼ (2.58)
∆Ω 0
indipendentemente dalla distanza R.
Considerando una lunghezza d’onda λ0 = 0,5 µm (ottenuta filtrando opportuna-
mente e in maniera uguale la luce delle varie sorgenti), si ha:

Sorgente termica: ∆S = 1 mm, R = 2 m ⇒ ∆A ∼ 1 mm2


Sole : ∆θ0 = 4,65 · 10−3 rad ⇒ ∆A ∼ 3,67 · 10−3 mm2
Stella Beltegeuse: ∆θ 0 = 1,15 · 10−7 rad ⇒ ∆A ∼ 6 m2
avendo usato direttamente la (2.54) nel caso della sorgente termica, mentre negli
altri due casi si è usata la (2.58) con ∆Ω 0 = π(∆θ0 )2 .
Come si vede, una stella (vista dalla terra), data la grande distanza dal punto di
osservazione, riesce a produrre un’elevata area di coerenza, contrariamente al sole
che produce un’area di coerenza molto inferiore a quella di una sorgente termica
osservata da pochi metri di distanza.

2.3.2 Coerenza temporale


Data sempre un’onda elettromagnetica quasi-monocromatica consideriamo ora il
campo elettromagnetico in un solo punto P , a due istanti t e t + τ . Se fissato il
ritardo τ , la differenza di fase tra il campo all’istante t e quello all’istante t + τ
rimane costante diremo che il campo è coerente su di un intervallo τ . Se ciò dovesse
valere qualunque sia il valore di τ , allora parleremo di coerenza temporale perfetta
(in caso contrario di parla di coerenza temporale parziale, e il massimo valore di
ritardo τc viene detto tempo di coerenza).

L’interferometro di Michelson
Un esperimento classico che permette di evidenziare le proprietà di coerenza tempo-
rale di un raggio di luce è quello proposto da Michelson nel 1881 mediante l’interfero-
metro che porta il suo nome (figura 2.8). La luce proviene da una sorgente luminosa
quasi-monocromatica σ, e viene divisa in due fasci dallo specchio semiriflettente D
nel punto P .
A partire da P i due raggi percorrono due percorsi diversi, per poi venire ricom-
binati sempre in P con una differenza di percorso ∆l = c∆t (ove c è la velocità della
luce). Come nell’interferometro di Young i due raggi arrivano poi su uno schermo
Σ sul quale si osserva l’intensità della luce, che, nelle opportune condizioni, mostra
le caratteristiche frange di interferenza.

38
2.3– Introduzione alla coerenza

Figura 2.8. Schema di un interferometro di Michelson per lo studio della coerenza


temporale nel punto P . σ è la sorgente luminosa, D uno specchio semiriflettente
che serve da divisore di fascio, M1 , M2 due specchi, di cui il primo mobile e l’altro
fisso. Σ lo schermo di osservazione: nello studio della coerenza temporale si osserva
l’andamento dell’intensità al variare del ritardo introdotto spostando lo specchio
mobile M1 .

Risulta che si ottiene interferenza da una sorgente quasi-monocromatica solo per


ritardi temporali
1
∆t ∼ (2.59)
∆f
e, come detto sopra, il massimo valore di tale ritardo è il tempo di coerenza τ c =
∆tmax . La corrispondente differenza di percorso ∆l = cτc è detta lunghezza di
coerenza longitudinale.
Possiamo spiegare questi risultati osservando che le frange di interferenza sullo
schermo di osservazione sono dovute alla sovrapposizione di onde con frequenze
leggermente differenti per via della non perfetta monocromaticità della sorgente.
Al crescere delle ritardo tra i due raggi, la sovrapposizione di onde di differente
frequenza cancella gli effetti di interferenza.
Non ci dilunghiamo oltre in un’analisi quantitativa, ma ricordiamo solo alcuni
ordini di grandezza per alcuni casi di notevole interesse: una sorgente termica ed un
laser ben stabilizzato.

Sorgente termica: ∆f = 1012 Hz, ∆t = 10−12 s ⇒ ∆l = 0.3 mm


Sorgente termica mol- ∆f = 108 Hz, ∆t = 10−8 s ⇒ ∆l = 3 m
to monocromatica:
Sorgente laser: ∆f = 104 Hz, ∆t = 10−4 s ⇒ ∆l = 30 km.

39
2 – Coerenza ed incoerenza ottica

2.4 Coerenza ottica


Vediamo ora una adeguata formalizzazione della nozione di coerenza ottica del primo
ordine (corrispondente a quelle di coerenza spaziale e temporale viste in preceden-
za) mediante gli strumenti della teoria dei processi casuali, e una generalizzazione
mediante la nozione coerenza ottica di ordine superiore.
Tratteremo il campo elettromagnetico nella sua forma quantizzata, e per misu-
rare un tale campo supponiamo di usare un contatore di fotoni ideale. Un semplice
modello per tale dispositivo consiste in un sistema capace di assorbire un foto-
ne, e conseguentemente effettuare una transizione interna aumentando di livello
energetico.
Scomponiamo l’operatore che descrive il campo (per semplicità elettrico, ma il
discorso vale per qualunque operatore si usi per tale descrizione) in una parte positiva
e una parte negativa (con ovvio riferimento alle frequenze)
r
X ~ωk
E(r,t) = i [ak uk (r)e−iωk t − a†k u∗k (r)eiωk t ]
k
2 0

= E+ (r,t) + E− (r,t) (2.60)

ove ak , a†k sono gli operatori di annichilazione e creazione per il modo k, con relazioni
di commutazione
[ak ,ak0 ] = [a†k ,a†k0 ] = 0; [ak ,a†k0 ] = δk,k0 (2.61)
ωk la sua pulsazione, uk (r) delle funzioni modali dipendenti dalla geometria del
problema.
Si è posto r
X ~ωk
E+ (r,t) = i ak uk (r)e−iωk t (2.62)
k
2 0

che si può dimostrare essere l’operatore corrispondente all’assorbimento di un fotone


nei pressi del punto r all’istante t, e, nella teoria quantistica della fotorivelazione
si mostra che corrisponde alle nozione dell’ottica classica di segnale analitico del
campo5 . È
E− (r,t) = [E+ (r,t)]† (2.63)
ed E− (r,t) corrisponde alla creazione di un fotone nei pressi del punto r all’istante
t.
La probabilità che il rivelatore assorba un fotone è data da

Pif = | hf | E+ (r,t) |ii |2 (2.64)


5
Nell’appendice C si fanno alcuni richiami su questa rappresentazione di una funzione.

40
2.4– Coerenza ottica

essendo |ii lo stato iniziale del campo prima dell’assorbimento, e |f i quello finale,
dopo l’assorbimento.

L’intensità media in un punto sarà, allora, proporzionale alla somma delle pro-
babilità relative a tutti6 i possibili stati finali |f i, e quindi a meno di un coefficiente
di proporzionalità,

X X
< I(r,t) > = Pif = hi| E− (r,t) |f i hf | E+ (r,t) |ii
f f
− +
= hi| E (r,t)E (r,t) |ii (2.65)

P
ove si è tenuto conto della relazione di completezza f |f i hf | = 1. Si osservi poi
che se |ii = |0i, cioè siamo in assenza di campo, allora, tenuto conto della (2.60), si
ottiene < I >= 0, com’è ragionevole che sia.

Se il campo Psi trova inizialmente in una miscela di stati descritta dalla matrice
densità ρ = i pi |ii hi| allora l’intensità risultante sarà data dalla somma delle
intensità relative a ciascuno stato iniziale, pesate secondo le probabilità p i

X 
< I(r,t) >= pi hi| E− (r,t)E+ (r,t) |ii = Tr ρ E− (r,t)E+ (r,t) . (2.66)
i

6
Occorrerebbe considerare solo gli stati raggiungibili a partire da quello iniziale, ovvero che
differiscano da questo di un solo fotone. Tuttavia poiché E+ |ii ∝ a |ii ∝ |i − 1i, allora gli stati |f i
con f 6= i − 1 sono ortogonali |i − 1i e non danno contributo.

41
2 – Coerenza ed incoerenza ottica

2.4.1 Funzioni di correlazione del campo


Possiamo generalizzare quanto visto sopra definendo la funzione di correlazione del
primo ordine7,8 tra campo nel punto x = (r,t) e quello nel punto x0 = (r 0 ,t0 ) come

G(1) (x, x0 ) ,< E− (x)E+ (x0 ) >ρ ≡ Tr ρ E− (x)E+ (x0 ) (2.69)

ove si è introdotta la notazione < · >ρ per evidenziare che si tratta di una media
d’insieme effettuata su un sistema descritto dalla matrice densità ρ. Si tratta del-
la versione adatta agli operatori delle medie d’insieme di un processo casuale z(t).
Valgono pertanto le usuali considerazioni della teoria dei processi casuali, in par-
ticolare, per processi ergodici le medie temporali coincidono con le corrispondenti
medie d’insieme.
Nel caso di sorgenti stazionarie, il campo elettromagnetico è, con ottima ap-
prossimazione, un processo casuale ergodico. Pertanto, nel seguito, tralasceremo di
indicare il pedice per specificare a quale media (quantistica, d’insieme o temporale)
ci stiamo riferendo.
Confrontando la (2.69) con la (2.66) si ha

< I(x) >= G(1) (x,x) (2.70)

ovvero l’intensità del campo in un punto è uguale alla funzione di (auto)correlazione


del campo in quel punto9 .
7
Tale denominazione non è universalmente accettata, nel senso che alcuni autori [9] preferiscono
parlare di funzioni di correlazione di ordine 2n (e in tale ambito quella che qui definiamo come fun-
zione di correlazione del primo ordine viene indicata da questi autori come funzione di correlazione
del secondo ordine): ovviamente (pur di non fare confusione tra i due contesti) non cambia quasi
nulla nella sostanza, se non che la notazione del tipo 2n è generalizzabile a funzioni di correlazione
di ordine nm, utili nel caso di mezzi non lineari.
8
La definizione che qui si sta dando è una estensione di quanto visto in precedenza per il campo
classico.
Per la precisione la corrispondente espressione classica è quella che usa il segnale analitico
E + (x) ≡ Ê(r,t) corrispondente al campo classico E(r,t)

G(1) (x, x0 ) ,< E − (x)E + (x0 ) > (2.67)

essendo E − (x) = [E + (x)]∗ = Ê ∗ (r,t).


Risulta poi, in base alla relazione (C.18),

< E(x)E(x0 ) >= 2Re{< E − (x)E + (x0 ) >}. (2.68)

9
Si osservi che per T0 < Tr < τc , in base alla (C.23), risulta

I(x) =< E(x)E(x0 ) >Tr = 2|E + (t)|2 = 2E − (x)E + (x). (2.71)

42
2.4– Coerenza ottica

Inoltre posto
(1)
G12 (τ ) = G(1) (x1 ,x2 ) (2.75)
con x1 = (r 1 ,t1 ), x2 = (r 2 ,t2 ) e τ = t2 − t1 , allora
(1)
G12 (0) è la funzione di correlazione spaziale (2.76a)
(1)
Gii (τ ) è la funzione di correlazione temporale (in r i ) (2.76b)

con ovvio riferimento alle proprietà di coerenza spaziale e temporale del campo.
Più in generale, poi, definiamo le funzioni di correlazione di ordine n-esimo del
campo elettromagnetico come

G(n) (x1 , . . . ,xn ,x0n , . . . ,x01 ) ,< E− (x1 ) . . . E− (xn ) E+ (x0n ) . . . E+ (x01 ) >ρ

≡ Tr ρ E− (x1 ) . . . E− (xn ) E+ (x0n ) . . . E+ (x01 ) (2.77)

essendo x1 , . . . ,xn ,x0n , . . . ,x01 , 2n generici punti (spazio-temporali), in genere distinti


(in pratica tuttavia spesso tali punti sono accoppiati, come la notazione suggeri-
sce).
Si osservi che le definizione di funzioni di correlazione date sono la naturale esten-
sione delle funzioni di correlazione di processi casuali, con l’accortezza di ordinare
normalmente gli operatori del campo. Pertanto, sebbene in genere ci riferiremo ad
un campo quantizzato, quello che diremo può riferirsi in egual modo ai campi classici
(e quando ciò non sarà vero lo evidenzieremo esplicitamente).

Proprietà delle funzioni di correlazione


Vediamo delle semplici ma utili proprietà delle funzioni di correlazione appena de-
finite (peraltro analoghe a quelle delle funzioni di correlazione dei processi casuali)
che si ricavano facilmente, scegliendo opportunamente A, a partire dalla relazione

Tr ρA† A ≥ 0 (2.78)
Nel caso quantistico possiamo definire l’operatore corrispondente

I(x) = E− (x)E+ (x) (2.72)

ed quindi risulta
I(x) = 2 < I(x) >= 2G(1) (x,x) (2.73)
pur di intendere con I(x) l’intensità media non solo sul tempo Tr di risposta del fotorivelatore,
ma anche su un gran numero di fotorivelazioni relative allo stesso campo, per cui si è usata la
notazione
< I(x) >=< I(x) >= G(1) (x,x) (2.74)
ove si è pure tralasciato il fattore 2 che figurava nelle espressioni precedenti, includendolo di fatto
nel coefficiente di proporzionalità a meno del quale avevamo definito l’intensità.

43
2 – Coerenza ed incoerenza ottica

che, a sua volta, segue dal fatto che A† A risulta non negativo10 , qualunque sia
l’operatore (lineare) A.
Con A = E+ (x) si ottiene
G(1) (x, x) ≥ 0 (2.80)
e più in generale con A = E+ (xn ) . . . E+ (x1 )

G(n) (x1 , . . . ,xn ,xn , . . . ,x1 ) ≥ 0. (2.81)


Pn +
Una classe più ampia di relazioni la si ottiene ponendo A = j=1 λj E (xj )
P
ed osservando che cosı̀ facendo si ottiene i,j λ∗i λj G(1) (xi ,xj ) ≥ 0, cioè una forma
quadratica semidefinita positiva. Pertanto la matrice associata G, con elementi
Gij = G(1) (xi ,xj ), ha determinante non negativo: det G ≥ 0.
Per n = 2 la non negatività del determinante di G dà

G(1) (x1 , x1 )G(1) (x2 , x2 ) ≥ |G(1) (x1 , x2 )|2 (2.82)

che altro non è che la disuguaglianza di Schwarz11 .


Analogamente ponendo A = λ1 E+ (x1 ) . . . E+ (xn ) + λ2 E+ (x0n ) . . . E+ (x01 ) si gene-
ralizza tale relazione alle funzioni di correlazione di ordine superiore ottenendo

G(n) (x1 , . . . ,xn ,xn , . . . ,x1 ) G(n) (x01 , . . . ,x0n ,x0n , . . . ,x01 )
≥ |G(n) (x1 , . . . ,xn ,x0n , . . . ,x01 )|2 . (2.84)

2.4.2 Coerenza ottica


Diremo che un campo presenta coerenza ottica del primo ordine quando la funzione
di correlazione (2.69) si può scomporre nel prodotto di due funzioni una il complesso
coniugato dell’altra:

G(1) (x, x0 ) ≡< E− (x)E+ (x0 ) >= ε(x) ε∗ (x0 ) (2.85)


10
Si dice che un operatore A è non negativo (o meno propriamente, positivo) se

hu| A |ui ≥ 0 (2.79)

per qualsiasi vettore |ui appartenente allo spazio di Hilbert su cui è definito l’operatore A.
Si dimostra che un operatore non negativo è hermitiano.
11
A proposito è utile ricordare che è possibile interpretare le funzioni di correlazione come prodot-
to scalare nello spazio dei processi casuali: la (2.82) equivale, allora, alla disuguaglianza triangolare,
che per due vettori v, w vale
|v · w|2 ≤ ||v|| ||w||. (2.83)

44
2.4– Coerenza ottica

ossia come prodotto di una funzione solo di x, calcolata in x, per la stessa funzione
(a meno del complesso coniugato) calcolata nel punto x0 .

Più problematica è la definizione sulla coerenza di ordine superiore; per quanto


ci riguarda diremo che un campo presenta coerenza ottica di ordine N-esimo quando

G(n) (x1 , . . . ,xn ,x0n , . . . ,x01 ) = ε(x1 ) . . . ε(xn )ε∗ (x0n ) . . . ε∗ (x01 ) ∀n ≤ N (2.86)

ovvero presenta coerenza ottica di ordine n − 1, ed inoltre la funzione di correlazione


di ordine N si fattorizza anch’essa.
Queste condizioni matematiche hanno profonde implicazioni fisiche: nei para-
grafi successivi analizzeremo degli esperimenti oramai classici, in cui le condizioni di
coerenza ottica (di vario ordine) determinano e spiegano particolari comportamenti
del campo elettromagnetico.

2.4.3 Coerenza ottica e indipendenza statistica


Ricordiamo che due processi casuali z(x) e v(x), ove come al solito x = (r,t), si
dicono indipendenti se la densità di probabilità congiunta si fattorizza nel prodotto
delle densità di probabilità dei due processi casuali (si veda il paragrafo B.2.1 in
appendice per la notazione):

wζν (z,v; x,x0 ) = wζ (z; x)wν (v; x0 ) (2.87)

e il significato è quello noto dal calcolo delle probabilità, che si deduce dall’espres-
sione della densità di probabilità condizionata che per processi indipendenti risulta
w (z,v;x,x0 )
wζ|ν (z; x,x0 |v) ≡ ζνwν (v;x0 ) = wζ (z; x): la conoscenza del fatto che si sia verificato
un evento non modifica la probabilità che si verifichi l’altro evento.
Vediamo ora la relazione tra il concetto di indipendenza e quello di correlazione
(o coerenza ottica, ma il discorso ovviamente è del tutto generale).
A tal fine conviene usare la notazione dei processi casuali, e in particolare la defi-
nizione di funzione di correlazione mediante la densità di probabilità. Dati due pro-
cessi casuali z(x), v(x0 ), con valor medio nullo, definiamo la funzione di correlazione12
come Z Z +∞
(1) 0 0
Gzv (x,x ) ,< z(x) v(x ) >= zv wζν (z,v; x,x0 ) dz dv (2.89)
−∞
e nel seguito, quando non ci siano dubbi sui processi casuali cui si fa riferimento,
ometteremo i pedici zv scrivendo semplicemente G(1) (x,x0 ).
12
Per processi non a valor medio nullo, si ha [4]

G(1) 0 0 0
zv (x,x ) ,< [z(x) − mz (x)] [v(x ) − mv (x )] > (2.88)

ove mz (x) ,< z(x) >e , ed analogamente per v(x0 ).

45
2 – Coerenza ed incoerenza ottica

È facile verificare che per processi statisticamente indipendenti la funzione di


correlazione è nulla:

processi indipendenti ⇒ G(1) (x,x0 ) = 0 (proc. scorrelati). (2.90)


Infatti se i due processi sono indipendenti, la fattorizzazione (2.87) permette di scrivere
Z +∞ Z +∞
(1)
Gindip (x,x0 ) = z wζ (z; x) dz v wν (v; x0 ) dv. (2.91)
−∞ −∞

e tenuto conto che i processi casuali in questione hanno media nulla si ha


(1)
Gindip (x,x0 ) = 0. (2.92)

Introducendo il coefficiente di correlazione del primo ordine (o funzione di corre-


lazione del primo ordine normalizzata), definito come13

G(1) (x,x0 )
g (1) (x,x0 ) , p . (2.95)
G(1) (x,x)G(1) (x0 ,x0 )
Usando questa definizione si ha

processi indipendenti ⇒ g (1) (x,x0 ) = 0 (proc. scorrelati). (2.96)

Tuttavia in generale non vale il viceversa.


Si a consideri ad esempio, il caso v(x0 ) = z 2 (x), con wζ (z; x) pari: allora
Z +∞
(1) 0 3
G (x,x ) =< z (x) >= z 3 (x) wζ (z; x) dv = 0 (2.97)
−∞

in quanto l’integrale su tutto l’asse reale di una funzione dispari (prodotto di una
funzione dispari per una pari) è nullo. Quindi anche g (1) (x,x0 ) = 0, sebbene i due
processi abbiano una forte dipendenza funzionale.
Risulta che il coefficiente di correlazione e la funzione di correlazione del primo
ordine sono legati alla dipendenza lineare dei due processi casuali. Più precisamente:
13
In generale [4] il coefficiente di correlazione tra due processi casuali z(x) e v(x 0 ) è definito come

< [z(x) − mz ][v(x0 ) − mv ]∗ >e


g(x,x0 ) , p . (2.93)
< |z(x) − mz (x)|2 >e < |v(x0 ) − mv (x0 )]2 >e

Nel caso di processi casuali a valor medio nullo, come quelli che stiamo considerando, si ottiene
< z(x)v ∗ (x0 ) >e
g(x,x0 ) = p (2.94)
< |z(x)|2 >e < |v(x0 )]2 >e

analoga alla (2.95).

46
2.4– Coerenza ottica

un coefficiente di correlazione unitario vuol dire che esiste una dipendenza lineare
tra i due processi (ovvero i campi nei due punti). Un coefficiente di correlazione
nullo, viceversa, vuol solo dire la completa assenza di una relazione lineare, ma non
l’assenza di qualsiasi dipendenza tra i due processi: i processi possono quindi non
essere indipendenti.
In maniera più formale abbiamo:

Teorema 2.1. Dati due processi casuali z(x), v(x0 ), e fissati due punti x, x0

|g (1) (x,x0 )| = 1 ⇒ ∃a,b : v(x0 ) = az(x) + b (con probabilità uno) (2.98)

ovvero la variabile casuale ζ = z(x) ottenuta campionando il processo casuale z nel


punto x dipende linearmente da quella ottenuta campionando v nel punto x 0 (tranne,
al più, che per un insieme di valori che hanno probabilità nulla).
Dimostrazione. Definiamo il processi normalizzati
z − mz v − mv
ẑ = v̂ = (2.99)
σz σv

ove mz =< z > e σz =< z 2 − |mz |2 > sono (si veda il paragrafo B.2.2), rispettivamente la media
e la varianza del processo z(x), ed analogamente per v(x), (nel nostro caso m z = mv = 0, ma il
teorema ha validità generale).
Per questi nuovi processi risulta

< ẑ >=< v̂ >= 0 (2.100a)


2 2
< ẑ >=< v̂ >= 1 (2.100b)

e
g (1) (x,x0 ) =< ẑv̂ > . (2.100c)
Abbiamo poi

< (ẑ ± v̂)2 > =< ẑ 2 ± 2ẑv̂ + v̂ 2 >


=< ẑ 2 > ±2 < ẑv̂ > + < v̂ 2 >
= 2[1 ± g (1) (x,x0 )]. (2.101)

Si vede subito allora che se g (1) (x,x0 ) = 1 allora < (ẑ − v̂)2 >= 0, ovvero il processo casuale ẑ − v̂
ha varianza nulla, ovvero con probabilità pari a uno ẑ − v̂ assume un solo valore:

ẑ − v̂ = costante (2.102)

ovvero v = az + b, essendo b la costante di cui sopra, e a = σv /σz .


Analogo ragionamento vale nel caso g (1) (x,x0 ) = −1.

Si dimostra tuttavia che per processi casuali gaussiani l’indipendenza statistica


equivale alla completa scorrelazione.

47
2 – Coerenza ed incoerenza ottica

2.5 Coerenza ottica del primo ordine


Abbiamo detto nel paragrafo 2.4.2 che un campo presenta coerenza ottica del primo
ordine quando la funzione di correlazione (definita nella (2.69)) si può scrivere nella
forma:
G(1) (x, x0 ) = ε(x) ε∗ (x0 ). (2.103)
Chiariamo innanzitutto il ruolo dalla dipendenza da x, x0 : se la (2.103) vale per
due particolari coordinate spaziotemporali x, x0 , il campo in questi due punti sarà
coerente otticamente, mentre se la fattorizzazione vale qualunque siano i punti x, x 0
appartenenti ad un volume dello spaziotempo V allora parleremo di coerenza ottica
completa del campo (in V).
Vediamo ora alcune implicazioni di questa definizione.
Negli esperimenti di interferenza (tramite un interferometro di Young, ad esem-
pio) abbiamo introdotto il coefficiente di correlazione del primo ordine g (1) (x,x0 ) (si
veda l’equazione (2.29) e poi la (2.95)).
Innanzitutto, si ha
g (1) (x,x) = 1. (2.104)
Inoltre, tenuto conto della (2.82), si ha

0 ≤ |g (1) (x,x0 )| ≤ 1. (2.105)

Tali proprietà, come visto, sono strettamente legate alle nozione di visibilità delle
frange di interferenza (in particolare si veda la (2.28)).
Un’altra proprietà molto importante è la seguente:

coerenza ottica del primo ordine ⇐⇒ |g (1) (x,x0 )| = 1 (2.106)

ossia la fattorizzazione della funzione di correlazione del primo ordine equivale ad


avere un coefficiente di correlazione di modulo unitario.
Dimostrazione. È facile rendersi conto che la condizione di coerenza ottica del primo ordine (2.103)
implica che |g (1) (x,x0 )| = 1. Basta infatti una verifica diretta:
ε(x) ε∗ (x0 ) ε∗ (x) ε(x0 )
|g (1) (x,x0 )|2 = = 1. (2.107)
ε(x) ε∗ (x)ε(x0 ) ε∗ (x0 )

Dimostriamo ora che vale anche il viceversa, ossia che la condizione |g (1) (x,x0 )| = 1 implica la
(2.103).
Osserviamo a tal fine che la disuguaglianza di Schwarz, riformulata per le medie statistiche,
vale
| < A† B > |2 ≤ < A† A > < B † B > . (2.108)
In particolare se < A† A >= 0 allora < B† A >= 0 =< A† B > ∀B. Esplicitando le medie abbiamo
  
Tr ρA† A = 0 ⇒ Tr ρA† B = Tr ρB† A = 0 (2.109a)

48
2.5– Coerenza ottica del primo ordine

e per l’invarianza della traccia alle permutazioni anche



Tr AρB† = 0 (2.109b)
e vista l’arbitrarietà di B dalle precedenti relazioni segue che deve essere anche
ρA = Aρ = 0. (2.110)
A questo punto posto
G(1)∗ (x,x0 ) + 0
A = E+ (x) − E (x ) (2.111)
G(1) (x0 ,x0 )
si verifica facilmente che esso soddisfa la condizione < A† A >= 0 purché G(1) (x0 ,x0 ) 6= 0 e
|g (1) (x,x0 )| = 1 (ovvero |G(1) (x,x0 )|2 = G(1) (x,x) G(1) (x0 ,x0 )).
La (2.110) vale allora
G(1)∗ (x,x0 ) + 0
E+ (x)ρ = E (x )ρ (2.112a)
G(1) (x0 ,x0 )
G(1)∗ (x,x0 ) − 0
ρE− (x) = ρE (x ). (2.112b)
G(1) (x0 ,x0 )
Supponiamo ora che esista un punto z per il quale G(1) (z,z) 6= 0, tale per cui il grado di
correlazione sia unitario tra ogni coppia dei punti x, x0 , z (|g (1) (x,x0 )| = |g (1) (x,z)| = |g (1) (x0 ,z)| =
1), in modo da poter sostituire x o x0 con z nelle relazioni precedenti14 .
Possiamo allora scrivere

G(1) (x,x0 ) = Tr ρE− (x)E+ (x0 ) =
G(1)∗ (x,z)  −
= (1)
Tr ρE (z)E+ (x0 ) =
G (z,z)
G(1)∗ (x,z) (1)
= G (z,x0 ) =
G(1) (z,z)
G(1)∗ (x,z)G(1) (z,x0 )
= (2.114)
G(1) (z,z)
e quindi identificare la funzione che ci permette di fattorizzare la funzione di correlazione
G(1)∗ (x,z)
ε(x) = p . (2.115)
G(1) (z,z)

In definitiva possiamo riassumere le proprietà di coerenza ottica in funzione del


(modulo del) coefficiente di correlazione:
|g (1) (x,x0 )| = 1 coerenza ottica completa, (2.116a)
|g (1) (x,x0 )| ∈ (0,1) coerenza ottica parziale, (2.116b)
(1) 0 0
|g (x,x )| = 0 incoerenza ottica completa (x 6= x ) (2.116c)
14
A tal fine basta che
|g (1) (x,x0 )| = 1, ∀x,x0 ∈ V (2.113)
con V un volume spazio-temporale non degenere (ossia non puntiforme).

49
2 – Coerenza ed incoerenza ottica

ed è quindi naturale indicare |g (1) (x,x0 )| come il grado di coerenza al primo ordine
del campo tra i due punti x,x0 .
Ricordiamo che nel caso di onde perfettamente monocromatiche risulta
(1)
|gmonoc (x1 ,x2 )| = 1 ∀ x1 ,x2 . (2.117)
Si può dimostrare che vale anche il viceversa, cioè se |g (1) (x1 ,x2 )| = 1 ∀x1 ,x2 ,
allora il campo è strettamente monocromatico15 .

2.5.1 Analisi quantistica dell’interferenza da due fenditure


Illustriamo la definizione di coerenza ottica del primo ordine nel caso di campo
quantizzato, analizzando nuovamente l’interferenza prodotta da due fenditure in
un interferometro di Young: vedremo che l’interferenza è strettamente legata alla
funzione di correlazione del primo ordine del campo elettromagnetico.
Possiamo ora procedere come visto a proposito della sorgente termica, per calco-
lare, in generale, l’espressione dell’intensità media nel caso del campo quantizzato.
Con riferimento alle figure 2.1 e 2.4, in virtù del principio di sovrapposizione,
possiamo esprimere il campo incidente sullo schermo di osservazione (ove è situato
il rivelatore) come somma dei due campi incidenti provenienti dalle due fenditure
E+ (r, t) = E+ +
1 (r, t) + E2 (r, t). (2.118)
Supponendo che le fenditure siano cosı̀ piccole da originare delle onde sferiche
abbiamo
1 + si 
E+
i (r, t) = E r i , t − (2.119)
si i c
ove si = |r i − r|, e c indica la velocità di propagazione della luce.
La (2.118) vale allora
+ 1 + s1  1 +  s2 
E (r, t) = E r1, t − + E2 r 2 , t − =
s1 1 c s2 c
1
' [E+ (r 1 , t − s1 /c) + E+ 2 (r 2 , t − s2 /c)] =
R 1
1
= [E+ (x1 ) + E+ 2 (x2 )] =
R 1
1
= [E+ (x1 ) + E+ (x2 )] (2.120)
R
ove si è tenuto conto che s1 ≈ s1 ≈ R, si è posto, per semplificare la notazione,
xi = r i , t − sci , ed infine si è assunto che il campo presente nei pressi di una
fenditura sia indipendente da quello presente nell’altra cosicché E+ +
i (xi ) ' E (xi ).
15
D’altra parte risulta che non esistono campi completamente incoerenti, ossia se |g (1) (x1 ,x2 )| =
0 ∀x1 ,x2 , allora il campo è identicamente nullo.

50
2.5– Coerenza ottica del primo ordine

L’intensità osservata in un punto r vale allora, usando la (2.66), e la definizione


di funzione di correlazione del primo ordine (2.69)

I(r,t) = Tr ρ E− (r,t)E+ (r,t) =
1   
= 2 Tr ρ E− (x1 )E+ (x1 ) + Tr ρ E− (x2 )E+ (x2 ) +
R   
+ Tr ρ E− (x1 )E+ (x2 ) + Tr ρ E− (x2 )E+ (x1 ) =
1  
= 2 G(1) (x1 , x1 ) + G(1) (x2 , x2 ) + 2Re{G(1) (x1 , x2 )} (2.121)
R
che, tenuto conto della (2.70), ci dice che le intensità non si sommano semplicemente
2
I(r,t) = I 1 (r,t) + I 2 (r,t) + 2
Re{G(1) (x1 , x2 )}. (2.122)
R
Nell’espressione dell’intensità trovata, riconosciamo le intensità di ciascuna fendi-
tura16 I i (r,t) ∝ G(1) (xi , xi ), più un termine aggiuntivo proporzionale a Re{G(1) (x1 , x2 )}
che è proprio il termine di interferenza.
Anche in questo caso risulta
p
I 1 I 2 (1)
ν=2 |g (x1 ,x2 )| (2.125)
I1 + I2
confermando l’equivalenza tra il modulo del grado di correlazione e la visibilità. In
particolare se il campo che incide sulle due fenditure ha uguale intensità (I 1 = I 2 )
allora ν = |g (1) (x1 ,x2 )|, e la condizione di coerenza ottica (2.106) coincide con quella
di massima visibilità delle frange d’interferenza.

Avendo verificato la corrispondenza formale con la trattazione classica, proce-


diamo ora cercando di valutare esplicitamente la funzione di correlazione, usando
l’espressione quantistica del campo.
16
Si osservi che secondo la definizione (2.66)
(1)  +

I i (r i ,ti ) = Gi (xi , xi ) = Tr ρE−
i (xi )Ei (xi ) (2.123)

e in virtù dell’assunzione E+ +
i (xi ) ' E (xi ), l’intensità sullo schermo di osservazione relativa alla
fenditura i-esima vale
(1)  +

I i (r,t) = Gi (x, x) = Tr ρE− i (x)Ei (xi ) =
1  +

' 2 Tr ρE− i (xi )Ei (xi ) =
R
1 
= 2 Tr ρE− (xi )E+ (xi ) =
R
1
= 2 G(1) (xi , xi ) (2.124)
R

51
2 – Coerenza ed incoerenza ottica

Supponendo che vi sia solo un modo con pulsazione ω, il campo dovuto a ciascuna
fenditura è r
+ ~ω
Ek (r, t) = i ak uk (r)e−iωt . (2.126)
20
La funzione modale per un’onda sferica emessa da una sorgente in r i è
r
1 eik·(r−rk )
uk (r) = êk (2.127)
4πL |r − r k |

ove L indica il raggio del volume di normalizzazione, ed êk è il versore di polarizza-


zione.
In virtù di queste espressioni possiamo innanzitutto giustificare l’ipotesi E + (xi ) '
E+i (xi ), in quanto per r ' r i si ha ui (r)  uj (r).
Il campo incidente sullo schermo, poi, vale

E+ (r, t) = E+ +
1 (r, t) + E2 (r, t) =
r
~ω ê
'i √ e−iωt (a1 eiks1 + a2 eiks2 ) =
20 R 4πL
= f (r, t) (a1 eiks1 + a2 eiks2 ) (2.128)

ove si è posto r1 ≈ r2 ≈ R, e
r
~ω ê e−iωt
f (r, t) = i √ . (2.129)
20 4πL R

Sostituendo quindi la (2.128) nella (2.69) si ottiene



G(1) (xi ,xi ) = Tr ρE− (xi )E+ (xi ) =

= Tr ρE− (x i )E +
(x i ) =
2
i − i +
= R Tr ρEi (x)Ei (x) =
n o
= R2 |f (r, t)|2 Tr ρa†i ai (2.130a)

ove i = 1,2; analogamente



G(1) (x1 ,x2 ) = Tr ρE− (x1 )E+ (x2 ) =

= Tr ρE− +
1 (x1 )E2 (x2 ) =

= R2 Tr ρE− +
1 (x)E2 (x) =
n o
= R2 |f (r, t)|2 Tr ρa†1 a2 eik(s2 −s1 ) (2.130b)

52
2.5– Coerenza ottica del primo ordine

per cui il coefficiente di correlazione vale


n o
Tr ρa†1 a2
eik(s2 −s1 )
(1)
g (x1 ,x2 ) = r n o n o (2.131)
Tr ρa†1 a1 Tr ρa†2 a2

L’intensità media totale vale infine

I(r,t) = η[Tr {ρ a†1 a1 } + Tr {ρ a†2 a2 } + 2|Tr {ρ a†1 a2 }| cos Φ] (2.132)

ove

η = |f (r,t)|2 (2.133a)
Φ = k(s2 − s1 ) + φ (2.133b)
φ = ]Tr {ρ a†1 a2 } (2.133c)

che è l’espressione dell’intensità espressa direttamente in termini degli operatori di


creazione ed annichilazione.

Possiamo ora passare ad analizzare le proprietà di coerenza ottica di alcuni casi


semplici ma particolarmente importanti.

Interferenza di un singolo fotone


Sia |n1 ,n2 i lo stato in cui sono presenti n1 fotoni per il modo k1 , e n2 per il modo
k2 , che in questo caso sono associati al passaggio dalle due rispettive fenditure (ni =
0,1,2, . . .). In generale avremo
√ √
a†1 |n1 ,n2 i = n1 + 1 |n1 + 1,n2 i , a†2 |n1 ,n2 i = n2 + 1 |n1 ,n2 + 1i (2.134a)
√ √
a1 |n1 ,n2 i = n1 |n1 − 1,n2 i , a2 |n1 ,n2 i = n2 |n1 ,n2 i (2.134b)

Per un singolo modo (fotone) si ha

|1,0i = a†1 |0,0i , |0,1i = a†2 |0,0i (2.135)

ove |0,0i ≡ |0i è lo stato di vuoto, |1,0i lo stato del campo con un fotone che è
passato dalla fenditura 1, e analogamente |1,0i lo stato relativo al passaggio del
fotone dalla fenditura 2, con relazioni di ortonormalità h1,0|1,0i = h0,1|0,1i = 1,
h1,0|0,1i = 0.
Lo stato del campo corrispondente ad ambedue le fenditure aperte è esprimibile
come
|ψi = b† |0i , (2.136)

53
2 – Coerenza ed incoerenza ottica

essendo b† l’operatore di creazione per un modo del campo con entrambe le fenditure
aperte, che possiamo esprimere in funzione degli operatori di creazione associati ai
modi del campo con solo una fenditura aperta come

b† = (a†1 + a†2 )/ 2 (2.137)
e quindi √
|ψi = (|1,0i + |0,1i)/ 2 (2.138)
che risulta quindi sovrapposizione dei due stati che individuano il passaggio da una
o dall’altra fenditura dell’unico fotone presente (si tratta di una maniera più tecnica
di esprimere la (1.31)).
L’operatore densità corrispondente è allora
ρ = |ψi hψ| =
1
= (|1,0i + |0,1i)(h1,0| + h0,1|) =
2
1
= (|1,0i h1,0| + |1,0i h0,1| + |0,1i h1,0| + |0,1i h0,1|). (2.139)
2
Per applicare la (2.132) calcoliamo preliminarmente
n o n o
† †
Tr ρa1 a1 = Tr a1 a1 ρ =
1
= Tr {|1,0i h1,0| + |1,0i h0,1|} =
2
1
= (2.140)
2
essendo a†1 a1 |0,1i = 0. Procedendo analogamente per gli altri casi si ha sempre
n o 1
Tr ρa†i aj = i,j = 1,2. (2.141)
2
Applicando la (2.132) si ottiene quindi
I(r,t) = η(1 + cos Φ) (2.142)
con Φ = k(s2 − s1 ), e la presenza del termine cos Φ indica la nascita di frange di
interferenza.
In termini di coefficiente di correlazione abbiamo
g (1) (x1 ,x2 ) = eik(s2 −s1 ) (2.143)
ed evidentemente esso ha modulo unitario,
|g (1) (x1 ,x2 )| = 1 (2.144)
e quindi i due stati sono otticamente coerenti al primo ordine in maniera completa,
e si ha massima visibilità delle frange di interferenza.

54
2.5– Coerenza ottica del primo ordine

Interferenza di più fotoni indipendenti


Abbiamo visto che un fotone singolo riesce a produrre fenomeni di interferenza. Nel
caso di più fotoni la situazione è più complessa. Consideriamo lo stato

|ψi = |n1 ,n2 i = |n1 i |n2 i n1 ,n2 > 0 (2.145)

prodotto di stati di Fock, corrispondente all’interferenza tra fotoni distinti e indi-


pendenti.
Si vede facilmente che il coefficiente di correlazione è nullo
n o
(1) †
g (x1 ,x2 ) ∝ Tr ρa1 a2
1
=p Tr {|n1 i |n2 i hn1 − 1| hn2 + 1|}
n1 (n2 + 1)
=0 (2.146)

e quindi non si hanno frange di interferenza.

Gli stati di Fock hanno un interesse prevalentemente teorico, visto che in pra-
tica sono piuttosto difficili da realizzare. Viceversa un modello di stati realizzabili
facilmente mediante un laser sono gli stati coerenti.

Interferenza di stati coerenti


Sia |αi uno stato coerente, definito come un autostato dell’operatore di annichilazione

a |αi = α |αi (2.147)

per il quale risulta


1 2 †
|αi = e− 2 |α| eαa |0i . (2.148)

Inoltre il prodotto scalare di due stati coerenti vale


1 2 +|β|2 )−αβ ∗
hβ|αi = e− 2 (|α| (2.149)

e quindi
2
|hβ|αi|2 = e−|β−α| (2.150)
per cui due stati coerenti non sono ortogonali, tuttavia risultano quasi ortogonali
per |β − α|  1.
Consideriamo ora un campo nello stato coerente (generato da un laser ideale)
incidente sulle fenditure. Lo stato del campo uscente sarà

|ψi = |α1 ,α2 i = |α1 i |α2 i (2.151)

55
2 – Coerenza ed incoerenza ottica

prodotto tensoriale di due campi. Possiamo interpretare un tale campo come i due
raggi di luce distinti ma, come vedremo, coerenti uscenti dalle fenditure. D’al-
tra parte possiamo anche realizzare un tale stato mediante due laser distinti in un
esperimento in cui questi vengono fatti interferire direttamente sullo schermo di
osservazione, senza necessità delle due fenditure.
Ora usando la (2.148) con l’operatore (2.137)
† −α∗ b
|α1 i |α2 i = eαb |0i
† †
√1 (αa −α∗ a1 ) √1 (αa −α∗ a2 )
=e 2 1
e 2 2
|0i
αE αE

= (2.152)
2 2
l’operatore densità è αE αE Dα Dα

ρ = |ψi hψ| = (2.153)
2 2 2 2
e quindi
n o |α|2
Tr ρa†i aj = i,j = 1,2. (2.154)
2
Applicando la (2.132) si ha allora

I(r,t) = η|α|2 (1 + cos Φ) (2.155)

e la presenza del termine cos Φ indica, ancora una volta, che si ottengono fenomeni
di interferenza facendo interagire due raggi distinti di fotoni coerenti. Come nel caso
di un singolo fotone risulta

g (1) (x1 ,x2 ) = eik(s2 −s1 ) (2.156)

e quindi |g (1) (x1 ,x2 )| = 1.

2.5.2 Conclusioni
Si è visto che sia un singolo fotone, che uno stato coerente danno origine a fenomeni
di interferenza.
Nel caso quantistico non abbiamo considerato gli effetti dei disturbi (collisioni,
movimento degli atomi ecc.) che nel caso classico risultavano essenziali per la com-
prensione del comportamento della luce termica: ciò è dovuto al fatto che per una
sorgente che richiede una trattazione quantistica, quale il laser, possiamo in prima
approssimazione trascurare tali effetti.

Riassumiamo nella tabella 2.1 i risultati circa la coerenza ottica del primo ordine
dei casi che abbiamo visto.

56
2.6– Coerenza ottica del secondo ordine

Coefficiente di correlazione eq.


(1)
Sorgente sinusoidale punti- E(r,t) = E0 cos(ωt − k · r) |g12 (τ )| = 1 1.19
forme (
PN τc −τ
iω0 t iφn (t) (1) τc |τ | < τc ,
Sorgente termica puntifor- E(t) = E0 e n=1 e |g12 (τ )| = 2.34
me 0 |τ | ≥ τc .
√ (1)
Stato di Fock con 1 fotone |ψi = (|1,0i + |0,1i)/ 2 |g12 (τ )| = 1 2.143
(1)
Più fotoni indipendenti |ψi = |n1 ,n2 i = |n1 i |n2 i g12 (τ ) = 0 2.146
(1)
Stato coerente |ψi = |α1 ,α2 i = |α1 i |α2 i |g12 (τ )| = 1 2.156

Tabella 2.1. Coefficiente di correlazione di alcuni campi di particolare interesse


(1)
teorico e applicativo. Per semplicità di notazione si è posto g12 (τ ) ≡ g (1) (x1 ,x2 ).

2.6 Coerenza ottica del secondo ordine


Nel paragrafo 2.4.2 abbiamo definito la coerenza ottica di ordine N . Tuttavia, in
questa sede, ci limitiamo a studiare ed analizzare il significato fisico della coerenza
ottica del secondo ordine, anche se faremo dei cenni al caso generale.
Ricordiamo, si veda la (2.86), che un campo presenta coerenza ottica del secon-
do ordine se presenta coerenza ottica del primo ordine e se anche la funzione di
correlazione del secondo ordine si fattorizza
G(2) (x1 ,x2 ,x02 ,x01 ) = ε(x1 )ε(x2 )ε∗ (x02 )ε∗ (x01 ). (2.157)
Inoltre si ha il seguente legame con la coerenza ottica del primo ordine [9, §12.7]:
sia V un volume spazio-temporale non degenere, allora
|g (1) (x,x0 )| = 1 G(2) (x1 ,x2 ,x02 ,x01 ) = ε(x1 )ε(x2 )ε∗ (x02 )ε∗ (x01 )
⇒ (2.158)
∀x,x0 ∈ V ∀x1 .x2 ,x01 ,x02 ∈ V
ovvero la coerenza ottica del primo ordine implica quella del secondo ordine (in un
dato volume spazio-temporale V).
Dimostrazione. Studiamo la fattorizzazione di

G(2) (x1 ,x2 ,x02 ,x01 ) = Tr ρE− (x1 )E− (x2 )E+ (x01 )E+ (x02 ) (2.159)
con x1 ,x2 ,x02 ,x01 ∈ V.
Preso z ∈ V, distinto dai vari xi , per ipotesi il campo è coerente al primo ordine tra z e uno
qualsiasi dei punti x1 ,x2 ,x02 ,x01 ∈ V, allora applicando le (2.112), la prima con x0 = z e x = x1 ,x2 ,
e la seconda con x0 = z e x = x01 ,x02 , abbiamo
Y  G(1) (xr ,z)G(1)∗ (x0 ,z)  
G(2) (x1 ,x2 ,x02 ,x01 ) = (1) 2
r
Tr ρ[E− (z)]2 [E+ (z)]2 =
r=1,2
[G (z,z)]
G(2) (z,z,z,z)
= ε(x1 )ε(x2 )ε∗ (x02 )ε∗ (x01 ) (2.160)
G(1) (z,z)

57
2 – Coerenza ed incoerenza ottica

ove la definizione della funzione ε(x) è quella già vista al primo ordine
G(1)∗ (x,z)
ε(x) = p . (2.161)
G(1) (z,z)

Si osservi che in generale il coefficiente


G(2) (z,z,z,z)
g (2) ≡ 6= 1 (2.162)
G(1) (z,z)
è indipendente dai punti x1 ,x2 ,x02 ,x01 , ma dipende da punto di riferimento z e dal-
l’ordine (in questo caso il secondo), e solo per uno stato coerente vale uno.
Tale teorema ammette poi una generalizzazione al caso di coerenza ottica di
ordine N
|g (1) (x,x0 )| = 1 ∀x,x0 ∈ V ⇒ coerenza ottica di ordine N in V (2.163)
sempre nel senso della fattorizzazione della funzione di correlazione.

Il coefficiente di correlazione del secondo ordine


L’introduzione di una funzione di correlazione normalizzata (coefficiente di correla-
zione) non è tuttavia naturale come per il primo ordine. Ciò che si vorrebbe da una
tale funzione è che abbia modulo unitario quando la condizione di coerenza ottica
(2.157) è soddisfatta, e viceversa se il suo modulo è unitario allora la condizione di
coerenza ottica dovrebbe essere soddisfatta. Inoltre dovrebbe essere nulla per campi
completamente incoerenti. Infine per poter essere utile come indice di coerenza, il
valore uno dovrebbe essere il massimo, e zero il minimo. Tali richieste tuttavia non
possono essere soddisfatte tutte contemporaneamente.
Vediamo ora alcune possibili definizioni di coefficiente di correlazione del secondo
ordine [9, §12.6]: useremo la prima nella discussione dell’esperimento di Hanbury-
Brown e Twiss, mentre le altre sono, almeno in questa sede, di interesse puramente
speculativo.

Coerenza ottica secondo Glauber. Una prima definizione è quella dovuta a


Glauber:
(2) G(2) (x1 ,x2 ,x02 ,x01 )
gG (x1 ,x2 ,x02 ,x01 ) , p p (2.164)
G(1) (x1 ,x1 )G(1) (x01 ,x01 ) G(1) (x2 ,x2 )G(1) (x02 ,x02 )
e diremo che un campo presenta coerenza al secondo ordine secondo Glauber quando,
oltre ad essere coerente al primo ordine, è
(2)
|gG (x1 ,x2 ,x02 ,x01 )| = 1 (2.165)

58
2.6– Coerenza ottica del secondo ordine

e quindi secondo questa definizione la coerenza di secondo ordine sottintende quella


di primo, e più in generale quella di ordine N sottintende tutte quelle di ordine
inferiore.
Tuttavia in generale, sebbene la condizione sulla fattorizzazione della funzione
(2)
di correlazione (2.157) implichi che |gG (x1 ,x2 ,x02 ,x01 )| = 1, in generale non vale
il viceversa, né tantomeno il valore 1 è il massimo valore che può assumere tale
coefficiente di correlazione: in generale quindi tale coefficiente di correlazione non è
un buon indice di coerenza al secondo ordine, e la definizione di coerenza secondo
Glauber non è una buona definizione di coerenza ottica.
Per il coefficiente di correlazione definito sopra valgono, inoltre, le seguenti
proprietà:

• in generale
(2)
gG (x,x,x,x) 6= 1; (2.166)

• si verifica facilmente che


(2)
gG (x1 ,x2 ,x2 ,x1 ) = 1 ⇔ G(2) (x1 ,x2 ,x2 ,x1 ) = G(1) (x1 ,x1 )G(1) (x2 ,x2 ) (2.167)
(2)
e in particolare gG (x1 ,x2 ,x2 ,x1 ) = 1 implica la coerenza ottica al secondo
ordine secondo la (2.157): in tale caso (x0i = xi ) la definizione data da Glauber
si rivela significativa, ed è quella che useremo nella discussione dell’esperimento
di Hanbury-Brown e Twiss.

• Per una sorgente termica17 , generalizzando la (2.164) all’ordine N, si ha


(N )
gG (x, . . . ,x,x, . . . ,x) = N ! (2.169)

per cui il campo termico può manifestare coerenza ottica (secondo Glauber)
solo al primo ordine.

Coerenza ottica secondo Metha. Una seconda definizione è quella introdotta


da Metha:

(2) G(2) (x1 ,x2 ,x02 ,x01 )


gM (x1 ,x2 ,x02 ,x01 ) , Q2 (2.170)
(2) (2) 0 0 0 0 1/4
r=1 [G (xr ,xr ,xr ,xr )G (xr ,xr ,xr ,xr )]

e in questo caso abbiamo


17
Si dimostra che per una sorgente termica risulta

G(N ) (x, . . . ,x,x, . . . ,x) =< I N (x) >= N ! < I(x) >N (2.168)

che altro non è che una generalizzazione della (2.14).

59
2 – Coerenza ed incoerenza ottica

(2)
• gM (x,x,x,x) = 1;

(2)
• |gM (x1 ,x2 ,x02 ,x01 )| = 1 ⇒ coerenza ottica del secondo ordine
nel senso della fattorizzazione della funzione di correlazione del secondo ordine
(2.157). La dimostrazione segue sostanzialmente quella vista per la (2.158);

(2)
• in generale (e in particolare per un campo quantizzato) |gM (x1 ,x2 ,x02 ,x01 )| non è
limitato superiormente: ciò ne limita l’interpretazione come grado di coerenza
(al secondo ordine);

(2) (N )
• generalizzando poi |gM | ad ordini superiori, ed assumendo |gM | = 1 come
condizione di coerenza (secondo Metha) all’ordine N , la coerenza di ordine N
(secondo Metha) implica quella di ordine M, ∀M ≤ n, essendo n il numero di
fotoni presenti (n = ∞ se non c’è limite al numero di fotoni).

Coerenza ottica secondo Sudarshan. Infine vediamo quanto proposto da Su-


darshan:

(2) G(2) (x1 ,x2 ,x02 ,x01 )


gS (x1 ,x2 ,x02 ,x01 ) , (2.171)
[G(2) (x1 ,x2 ,x2 ,x1 )G(2) (x01 ,x02 ,x01 ,x02 )]1/2

e ora abbiamo
(2)
• gS (x,x,x,x) = 1;

(2)
• 0 ≤ |gS (x1 ,x2 ,x02 ,x01 )| ≤ 1;

(1) (N )
• |gS (x1 ,x01 )| = 1 ⇒ |gS (x1 , . . . ,xN ,x01 , . . . ,x0N )| = 1 ∀N
purché il numero dei fotoni non sia limitato: in altri termini, la coerenza
del primo ordine implica, nell’ipotesi data, quella secondo Metha di ordine
superiore;
(2)
• gS (x1 ,x2 ,x2 ,x1 ) = 1
ciò limita di molto l’utilità della definizione di Sudarshan, che per il resto aveva
mostrato di avere le giuste proprietà per poter definire un grado di coerenza
al secondo ordine: il caso x0i = xi è infatti proprio quello di cui ci occuperemo
nel seguito.

In definitiva, non è al momento nota una definizione soddisfacente di coefficiente


di correlazione del secondo ordine, che sia anche sufficientemente generale.

60
2.6– Coerenza ottica del secondo ordine

Figura 2.9. Schema di un esperimento di correlazione d’intensità.

2.6.1 L’esperimento di Hanbury-Brown e Twiss: misure di


correlazione dell’intensità
Un interessante esperimento che, utilizzando le correlazioni del secondo ordine, per-
mette di avere delle informazioni sulle fluttuazioni delle intensità è quello di Hanbu-
ry-Brown e Twiss (1956), che è anche stato il primo ad andare oltre i fenomeni di
interferenza di un singolo fotone.
Nell’esperimento originale della luce termica parzialmente coerente veniva divisa
mediante uno specchio semitrasparente e quindi inviata a due fotorivelatori P1 e P2 ,
come illustrato nella figura 2.9.
Hanbury-Brown e Twiss notarono che il coefficiente di correlazione tra le flut-
tuazioni delle fotocorrenti dei fotorivelatori presentava un massimo iniziale, e poi
decresceva al crescere della separazione tra i due fotorivelatori.

I due fotorivelatori possono essere separati sia temporalmente che spazialmente


(nella direzione perpendicolare al raggio di luce). Noi ci occuperemo solo del caso
temporale, e supporremo i due fotorivelatori perfettamente in asse ed equidistanti dal
divisore di fascio, e l’unica differenza sia dovuta al ritardo τ introdotto espressamente
dall’apparato.

Campo elettromagnetico classico

Cominciamo con un’analisi classica del campo elettromagnetico.


L’idea di fondo dell’esperimento consiste nell’esaminare non più le correlazioni
dell’ampiezza del campo, bensı̀ quelle relative all’intensità, date da una funzione di

61
2 – Coerenza ed incoerenza ottica

correlazione del tipo18


K(x1 ,x2 ) ,< I(x1 )I(x2 ) >=< I 1 (t)I 2 (t + τ ) > (2.172)
ove si è posto t1 = t, t2 = t + τ , ed I(x) indica come al solito la media temporale
effettuata dal fotorivelatore (con tempo di risposta, e quindi di media, Tr ), mentre
< · > indica un’ulteriore media di lungo periodo, su un intervallo T  Tr .
Posto
∆I(t) = I(t)− < I > (2.173)
la relativa funzione di correlazione è
< ∆I 1 (t)∆I 2 (t + τ ) >=< I 1 (t)I 2 (t + τ ) > − < I1 >< I2 > (2.174)
per cui risulta evidente lo stretto legame tra la correlazione delle intensità e la
correlazione delle fluttuazioni delle intensità: misurando la correlazione delle inten-
sità riusciamo ad avere informazioni sulle fluttuazioni dell’intensità, cosa che con
dei semplici esperimenti di interferenza (ovvero di coerenza del primo ordine) non
riuscivamo a fare.
Ricordiamo ora che l’intensità media, in termini di segnale analitico associato al
campo, vale, a meno di un fattore di proporzionalità, (si veda la (C.23))
I(x) = E − (x)E + (x) (2.175)
ove E + (x) indica sempre il segnale analitico associato al campo E(x), e conseguen-
temente E − (x) = [E + (x)]∗ . La funzione di correlazione K(x1 ,x2 ) delle intensità
corrisponde, quindi, alla funzione di correlazione del secondo ordine del campo
K(x1 ,x2 ) =< E − (x1 )E − (x2 )E + (x2 )E + (x1 ) >= G(2) (x1 ,x2 ,x2 ,x1 ) (2.176)
ove si è effettuato un riordino delle funzioni per mostrare la corrispondenza formale
con la funzione di correlazione del secondo ordine che avevamo visto per il campi
quantizzati (che, essendo degli operatori, sono sensibili all’ordine dei vari termini).
Possiamo scrivere più semplicemente la (2.176) come
(2)
G12 (τ ) =< E1− (t)E2− (t + τ )E2+ (t + τ )E1+ (t) > . (2.177)
Infine la definizione in termini di correlazione d’intensità porta alla seguente
definizione di un coefficiente di correlazione del secondo ordine per il campo
(2)
(2) G12 (τ )
g12 (τ ) , (1) (1)
(2.178)
|G11 (t,t)G22 (t + τ,t + τ )|
18
Cosı̀ come per le ampiezze, in alcuni casi potrà essere utile limitarsi a due punti spazialmente
distinti, e considerare le intensità allo stesso istante, oppure considerare un unico punto spaziale e
osservare le correlazioni tra due intensità a due istanti differenti.

62
2.6– Coerenza ottica del secondo ordine

corrispondente alla definizione di Glauber (2.164). Se assumiamo, per semplicità,


che il campo sia lo stesso in P1 e in P2 , e se consideriamo campi stazionari, allora
abbiamo
(1) (1) (1) (1)
G11 (t,t) = G11 (0) = G22 (0) = G22 (t + τ,t + τ ) (2.179)
per cui risulta
G(2) (τ )
g (2) (τ ) = (2.180)
|G(1) (0)|2
avendo omesso del tutto i pedici che indicano il punto in cui la funzione di correla-
zione del primo ordine viene calcolata.

Campo perfettamente monocromatico. In questo caso si verifica facilmente


che un campo perfettamente monocromatico è coerente anche al secondo ordine, ed
in particolare
(2)
g12 (τ ) =1 ∀τ. (2.181)
monocr.
Infatti considerando il campo
E(t) = E0 cos(ωt + φ) (2.182)
19
ed essendo Ei (t) = E(t), abbiamo già visto nella (1.13) che risulta

(1) 1 2 1
Gii (0) = I i (t) = E0i = E02 i = 1,2 (2.185)
2 2
e quindi si ha facilmente che

(2) 1 2 2 1 2 2 1
G12 (τ ) =< I 1 (t)I 2 (t + τ ) >= < E01 E02 >= E01 E02 = E04 (2.186)
4 4 4
e quindi segue facilmente la (2.181).

Luce termica. Si consideri ora un campo classico generato da una sorgente ter-
mica, che, come visto in precedenza, obbedisce ad una statistica gaussiana.
Per un tale tipo di campo, ossia per un processo casuale gaussiano, è possibile
esprimere i momenti centrali20 di ordine superiore in funzione di quelli del secondo
19
D’altra parte anche usando il segnale analitico si ha
1
E(t) = E0 eiφ e−iω0 t (2.183)
2
e quindi
1 2
I i (t) = 2|Ei (t)|2 = 2|E(t)|2 = E . (2.184)
2 0

20
Che sono le medie riferite al valor medio come la (B.17). Si tenga presente che nel nostro caso
il valore medio è nullo.

63
2 – Coerenza ed incoerenza ottica

ordine (teorema dei momenti, [9, §1.6.1]). In particolare, nel caso di media nulla,
risulta

< E1− (t)E2− (t + τ )E2+ (t + τ )E1+ (t) >=


=< E1− (t)E1+ (t) >< E2− (t + τ )E2+ (t + τ ) > +
+ < E1− (t)E2+ (t + τ ) >< E2− (t + τ )E1+ (t) > (2.187)

e tenuto conto della stazionarietà e delle proprietà delle correlazioni del primo ordine
abbiamo
(2)
G12 (τ ) =< E1− (t)E1+ (t) >< E2− (t)E2+ (t) > +| < E1− (t)E2+ (t + τ ) > |2 =
(1)
=< I 1 (t) >< I 2 (t) > +|G12 (τ )|2 =
(1)
=< I 1 (t) >< I 2 (t) > (1 + |g12 (τ )|2 ). (2.188)

Pertanto, per della luce termica, possiamo scrivere




g (2) (τ ) (1)
= 1 + |ggauss (τ )|. (2.189)
gauss

Dalla (2.35), che riportiamo per convenienza


(
τc −τ
(1) τc
per 0 ≤ τ < τc ,
|ggauss (τ )| = (2.190)
0 per τ ≥ τc .

si vede subito che per τ → ∞ (in pratica τ  τc ) g (2) (∞) = 1; d’altra parte per
τ → 0 (ovvero τ  τc ), risulta g (2) (0) = 2.
Si osservi poi come poi come la (2.158) non è applicabile visto che g (1) (τ ) = 1
solo per un punto, quello relativo a τ = 0.
In definitiva (
2 τ = 0,

g (2) (τ ) = (2.191)
gauss 1 τ →∞
cioè (si veda anche la figura 2.10) un campo termico, parzialmente coerente al primo
ordine, ha un coefficiente di correlazione al secondo ordine che, per ritardi tra le
due fotorivelazioni molto piccoli o nulli, è pari al doppio di quello di un campo
perfettamente monocromatico (perfettamente coerente), mentre ha un coefficiente
di correlazione unitario (uguale a quello di un campo monocromatico) per ritardi
molto grandi tra le due fotorivelazioni.
Tuttavia, poiché per la coerenza ottica del secondo ordine è richiesta anche quella
del primo, un campo termico non è otticamente nemmeno quando g (2) (τ ) → 1.

64
2.6– Coerenza ottica del secondo ordine

Figura 2.10. Coefficiente di correlazione del secondo ordine per un campo mono-
cromatico (o coerente) e per uno termico (secondo il semplice modello utilizzato
nei calcoli, e secondo uno più aderente ai risultati sperimentali).

Campo elettromagnetico quantizzato


In molti casi è richiesta la quantizzazione del campo elettromagnetico, ovvero alcuni
risultati sono spiegabili solo in ambito quantistico. Inoltre quando si usano dei
conteggi di fotoni, non si può più tralasciare la natura quantistica della luce.
Occorre quindi considerare la versione quantistica della funzione di correlazio-
ne (2.177), sostituendo il segnale analitico del campo E ± (t) con il corrispondente
operatore di campo quantizzato E± (t)
G(2) (τ ) =< E− (t)E− (t + τ )E+ (t + τ )E+ (t) > (2.192)
ove occorre fare attenzione all’ordinamento degli operatori (ordinamento normale).
Tenuto conto dell’espressione del campo quantizzato con un solo modo (2.126),
che ora, non dovendo distinguere tra il passaggio dalle fenditure, possiamo riscrivere
più semplicemente come
r
+ ~ω
E (r, t) = i au(r)e−iωt , (2.193)
20
il coefficiente di correlazione (2.178) è

(2) < a† a† aa >


g (0) = (2.194)
< a† a >2

65
2 – Coerenza ed incoerenza ottica

che, tenuto conto della relazione di commutazione [a,a† ] = 1, possiamo riscrivere


come

(2) < (a† a)2 > − < a† a >


g (0) =
< a† a >2
< (a† a)2 > − < a† a >2 − < a† a >
=1+
< a† a >2
Vn − n
=1+ (2.195)
n2
ove si sono introdotti il numero medio di fotoni

n =< a† a > (2.196a)

e la varianza del numero di fotoni

Vn =< (a† a)2 > − < a† a >2 . (2.196b)

Campo in uno stato di Fock. Consideriamo ora un campo che sia in uno stato
di Fock |ni, ovvero con un numero definito di fotoni; il corrispondente operatore
densità sarà
ρ = |ni hn| . (2.197)
Il numero medio di fotoni risulta21 allora n = n, e la varianza del numero di fotoni
Vn = 0. Il coefficiente di correlazione (2.195) risulta allora
1
(2)
g (0) =1− , n > 2. (2.202)
Fock n
La condizione n > 2 è legata al fatto che in questo caso stiamo rivelando due fotoni
sui due rivelatori, ed escludiamo il caso di un solo fotone, che, per quanto in una
sovrapposizione di stati, potrebbe essere rivelato da un solo fotorivelatore.
21
Si può effettuare molto semplicemente il calcolo in maniera diretta, ricordando che gli stati di
Fock sono autostati dell’operatore numero n = a† a

n |ni = n |ni (2.198)

per cui 
n = Tr ρa† a = Tr {|ni hn| n} = Tr {n |ni hn|} = n. (2.199)
Per la varianza occorre calcolare
 
< (a† a)2 >= Tr |ni hn| n2 = Tr n2 |ni hn| = n2 (2.200)

e quindi
Vn =< n2 > − < n >2 = 0. (2.201)

66
2.6– Coerenza ottica del secondo ordine

Campo in uno stato coerente. Se il campo è in uno stato coerente |αi, il


corrispondente operatore densità sarà

ρ = |αi hα| (2.203)

e il coefficiente di correlazione (2.195) ora vale22



(2)
g (0) =1 (2.208)
coerente

il che ci dice che un campo in uno stato coerente è otticamente coerente anche al
secondo ordine (e si può mostrare che lo è a tutti gli ordini).

2.6.2 Conclusioni
Si osservi che in generale risulta [9, §9.6.1]

g (2) (τ ) → 1 per τ → ∞ (2.209)

ovvero per τ sufficientemente grande, indipendentemente dal tipo di luce.


Pertanto g (2) (0) permette di caratterizzare il comportamento della coerenza al
secondo ordine. In particolare la luce termica, purché abbia un tempo di coerenza
22
Anche in questo caso il calcolo diretto è piuttosto semplice, tenuto conto della relazione di
commutazione degli operatori di creazione e annichilazione, e del fatto che gli stati coerenti sono
autostati dell’operatore di annichilazione

a |αi = α |αi . (2.204)

Essendo quello descritto da ρ = |αi hα| uno stato puro, conviene calcolare le medie direttamente,
senza usare la matrice densità

n = hα| a† a |αi = α∗ α = |α|2 . (2.205)

Per la varianza calcoliamo prima

< (a† a)2 > = hα| (a† a)2 |αi


= hα| a† aa† a |αi
= |α|2 hα| aa† |αi
= |α|2 hα| (a† a + 1) |αi
= |α|2 (|α|2 + 1)
= |α|4 + |α|2 (2.206)

e quindi
Vn =< n2 > − < n >2 = |α|2 . (2.207)

67
2 – Coerenza ed incoerenza ottica

non troppo piccolo rispetto al tempo di risposta dei fotorivelatori, presenta una sorta
di raggruppamento (bunching) dei fotoni, che tendono a far sı̀ che la probabilità 23
di due fotorivelazioni contemporanee (τ = 0) sia maggiore di due fotorivelazioni
separate da un intervallo τ (g (2) (0) > |g (2) (τ )|).
Di contro ciò non avviene con della luce in uno stato coerente (ossia quella emessa
da un laser nelle opportune condizioni) che si comporta come una sinusoide perfetta,
e la probabilità di una fotorivelazione su uno dei fotorivelatori è indipendente da
quello che avviene sull’altro; in altri termini possiamo dire che la probabilità di
due fotorivelazioni è indipendente dal tempo che le separa (ossia il coefficiente di
correlazione è costante).
Possiamo interpretare intuitivamente questi due comportamenti pensando che la
luce termica presenta fluttuazioni del campo ben maggiori di quella laser, pertanto
i fotorivelatori sono portati a rivelare i fotoni proprio durante i picchi di intensità,
il che ovviamente avviene per τ = 0.
Infine il caso in cui g (2) (0) < |g (2) (τ )| relativo al caso degli stati di Fock: que-
sto è un fenomeno non ammissibile classicamente, ma previsto solo dalla teoria
quantistica e noto come antibunching dei fotoni. Per quanto sia difficile realizzare
sperimentalmente campi in uno stato di Fock, sono state trovate situazioni (la ri-
sonanza fluorescente in particolare) che presentano antibunching, e che trovano una
spiegazione solo nella teoria quantistica (ne tralasciamo tuttavia l’analisi, visto che
esulerebbe dagli obbiettivi di questa tesi).

23
Risulta infatti, che la probabilità di rivelazione di un fotone è proporzionale all’intensità, ossia

P1 (x) ∝< I(x) > . (2.210)

Analogamente quella di rivelare due fotoni, uno in x1 e l’altro in x2 è

P2 (x1 ,x2 ) ∝< I(x1 )I(x2 ) > (2.211)

e, almeno in generale,
< I(x1 )I(x2 ) >6=< I(x1 ) >< I(x2 ) > (2.212)
ovvero le due probabilità P1 (xi ) non sono indipendenti: sebbene infatti i due eventi di fotorive-
lazione non si influenzino a vicenda, essi sono relativi ad uno stesso campo, le cui fluttuazioni
comportano le correlazioni delle intensità, e la dipendenza statistica delle probabilità.

68
Capitolo 3

La decoerenza

3.1 Introduzione
Abbiamo visto nel paragrafo 1.2 che la sovrapposizione coerente origina (nella mec-
canica quantistica oltre che nella teoria classica delle onde) fenomeni d’interferen-
za. Un punto essenziale per avere gli effetti d’interferenza era la necessità di non
disturbare l’evoluzione del sistema, ossia di mantenerlo ben isolato.
Nella realtà non esistono sistemi perfettamente isolati (se non l’intero universo)
e dobbiamo aspettarci che i risultati ottenuti sotto l’ipotesi sottintesa di perfetto
isolamento potrebbero non trovare un esatto riscontro nella realtà.

3.1.1 Cos’è la decoerenza


Al venir meno dei tratti caratteristici della meccanica quantistica in favore di caratte-
ristiche classiche, si dà il nome di decoerenza, e con teoria della decoerenza si intende
la teoria che, usando la stessa meccanica quantistica1 , tenta di spiegare i fenomeni
di decoerenza ponendo l’attenzione sul ruolo svolto dall’ambiente nel modificare il
comportamento dei sistemi solo approssimativamente isolati.
Osserviamo che inizialmente il termine coerenza (di cui decoerenza ne è la nega-
zione, nel senso che indica la perdita di coerenza) è stato usato nel campo delle onde,
intendendo l’assenza di dispersione spaziale nella propagazione delle onde, ovvero il
permanere di determinate relazioni di fase tra le onde calcolate in punti distinti nello
spazio. Nell’ambito quantistico, per quanto si possa parlare pure di funzioni d’onda,
e spesso di coerenza di fase, la coerenza di cui si parla ha una natura statistica,
visto che la natura stessa delle previsioni della meccanica quantistica è statistica:
non si osserva l’interferenza in un esperimento con un singolo sistema, ma si usa
1
Non ci occuperemo in questa sede di fenomeni di decoerenza in teorie che includono modifiche
sostanziali della meccanica quantistica.

69
3 – La decoerenza

un insieme di sistemi, preparati in egual modo (ensemble statistico), e l’interferenza


risulta dall’analisi dei risultati di tutti questi sistemi.
Esplicitamente sono caratteristiche tipicamente quantistiche quantistiche [2]:

• la presenza di effetti di interferenza in problemi nei quali sono presenti percorsi


alternativi ed indistinguibili (un esempio classico è l’esperimento delle due
fenditure);

• l’esistenza di termini non-diagonali nella matrice densità di un sistema;

• la generale impossibilità di descrivere un sistema (quantistico) mediante un


modello stocastico classico.

A cosa serve, o può servire, la decoerenza. La teoria della decoerenza ci può


aiutare a capire come mai il mondo classico è cosı̀ differente da quello quantistico,
sebbene gli oggetti classici siano composti da particelle che obbediscono alle leggi
quantistiche.
Tuttavia, come vedremo in seguito, la spiegazione fornita dalla decoerenza non
giustifica completamente il mondo classico, ma solo un mondo che agli occhi di
osservatori limitati appare classico: si tratta di due posizioni differenti, e che con il
progredire delle nostre conoscenze ed abilità potremmo essere in grado di distinguere
sperimentalmente.
Sono poi evidenti le possibili applicazioni pratiche di una tale conoscenza: quan-
do si vuole sfruttare il comportamento quantistico di un sistema occorrerà limitare
la decoerenza, per sfruttare pienamente le potenzialità dei sistemi microscopici. È
questo il caso, ad esempio, delle applicazioni che riguardano la quantum computation
ove, per riuscire a costruire dei computer utili per le applicazioni, occorre mante-
nere la coerenza tra un numero abbastanza elevato di sistemi quantistici, e ciò non
è assolutamente semplice, visto che, come vedremo, anche debolissime interazioni
con l’ambiente sono in grado di far perdere le necessarie correlazioni tra i sistemi
quantistici.

Sistemi macroscopici e microscopici. Quando si parla di sistema microscopico


si intende che l’hamiltoniana del sistema che stiamo considerando tiene conto di
tutti i gradi di libertà del sistema. I sistemi macroscopici, invece, sono quei sistemi
dei quali si considera esplicitamente solo un piccolo numero di gradi di libertà.
Poiché con il crescere del numero di atomi la descrizione completa di tutti i gradi
di libertà diviene impossibile, macroscopico è spesso sinonimo di sistema costituito
da molti atomi, mentre microscopico di un sistema con pochi atomi. Poiché questi
sono ben descritti dalla meccanica quantistica, allora si è portati ad far coincidere i
sistemi microscopici con quelli quantistici, e quelli macroscopici con quelli classici.

70
3.1– Introduzione

Tuttavia la corrispondenza non è esatta: ad esempio, le giunzioni di Josephson


superconduttrici oppure le barre di Weber usate per rivelare le onde gravitazionali,
manifestano comportamenti quantistici o quantomeno richiedono una descrizione
quantistica, pur essendo oggetti macroscopici. Viceversa, come vedremo nel seguito,
anche dei sistemi microscopici (non adeguatamente isolati) possono dare origine a
comportamenti classici.

Sistemi quantistici e classici. Ribadiamo allora il significato di comportamento


quantistico di un sistema. Elemento chiave è la linearità dell’equazione di Schrö-
dinger (ovvero la struttura lineare dello spazio degli stati) e la conseguente validità
del principio di sovrapposizione degli stati : dati due stati possibili di un sistema
quantistico (|ψ1 i , |ψ2 i), è possibile preparare il sistema in uno stato che sia la so-
vrapposizione lineare (coerente) dei due (|ψi = α |ψ1 i + β |ψ2 i). La meccanica
quantistica non ci dice come effettuare tale preparazione, ma ci assicura che un tale
stato esiste.
Uno stato di sovrapposizione corrisponde ad uno stato in cui entrambi gli stati
sono presenti con una particolare correlazione tra i due (coerenza di fase), e non ad
una mancanza di informazione circa quale dei due stati sia effettivamente assunto
dal sistema. La differenza tra le due situazioni può essere messa in evidenza in espe-
rimenti nei quali i due stati |ψi i interferiscono tra di loro: se sussiste una correlazione
tra i due stati allora si manifesteranno dei fenomeni di interferenza, altrimenti no.
D’altra parte parleremo di comportamento classico quando i comportamenti cor-
puscolari e ondulatori sono ben distinti, e la presenza di alternative conduce sempre
ad una sovrapposizione non coerente.

3.1.2 Il problema della misura


Introduciamo infine quello che è un esempio tipico di interazione tra un sistema quan-
tistico ed uno classico: esso ci servirà da esempio nell’analisi della manifestazione
della decoerenza e delle sue caratteristiche.
In generale si parla di misura quantistica per ogni interazione tra un sistema
quantistico ed uno classico. Ciò perché in qualsiasi misura su di un sistema quan-
tistico, alla fine perveniamo ad un risultato di tipo classico, quale, ad esempio, la
posizione di un indice su di una scala graduata o la traccia su di uno schermo, o
ancora, il tic di un contatore.
Si consideri ora il caso in cui il sistema quantistico sia in uno stato di sovrappo-
sizione
|ψiS = α |ϕ1 iS + β |ϕ2 iS (3.1)
e si pensi di farlo interagire opportunamente con un sistema classico (ad esempio
l’apparato di misura stesso).

71
3 – La decoerenza

Se supponiamo di poter descrivere l’apparato di misura come se fosse un siste-


ma quantistico, ovvero mediante un vettore di stato |φiA e mediante un’evoluzione
temporale regolata dall’equazione di Schrödinger, allora, per un’opportuna intera-
zione (descrivibile mediante una qualche hamiltoniana di interazione), avremo che
l’evoluzione del sistema composto sarà

|Ψ0 i = |ψiS ⊗ |φiA → |Ψ i = α |ϕ1 iS ⊗ |φ1 iA + β |ϕ2 iS ⊗ |φ2 iA . (3.2)

Tale risultato ci dice che in meccanica quantistica le interazioni (descritte mediante


operatori unitari) conservano la sovrapposizione, e quindi un sistema che si trova in
una sovrapposizione di stati resterà in una sovrapposizione di stati, anzi coinvolgerà
anche il sistema con cui ha interagito in questa sovrapposizione.
Tuttavia l’esperienza del mondo (classico) che ci circonda non sembra manifestare
queste sovrapposizioni di stati. Si pensi, a proposito, al paradosso del gatto di
Schrödinger: un gatto viene posto in una scatola, che lo isoli dal resto dell’universo,
assieme con un atomo che sta per decadere, e ad un contatore Geiger che non appena
rivela il decadimento dell’atomo fa scattare un meccanismo che uccide il gatto. Cosı̀
come la meccanica quantistica descrive l’atomo come sovrapposizione di due stati
(uno in cui l’atomo è decaduto e uno in cui non lo è) cosı̀ dovremmo descrivere anche
il gatto, che interagisce con l’atomo, come una sovrapposizione di stati, uno in cui
è morto e uno in cui è vivo. Tale situazione è però contraria alla nostra esperienza,
che annovera solo gatti vivi o gatti morti, e non, per usare un’espressione colorita,
gatti mezzi vivi e mezzi morti. Lo stesso vale per un’indice di uno strumento: esso
assume una posizione sufficientemente ben definita, in modo da poter distinguere i
vari possibili risultati.
A questo punto il semplice ricorso ad ulteriori sistemi classici che interagiscono
con i precedenti, se si accettano le stesse ipotesi circa la possibilità di descrivere il
tutto mediante la meccanica quantistica, come evidenziato da von Neumann [14],
non è in grado di risolvere il problema.
A tale problema, che esemplifica ciò che accade quando eseguiamo una misu-
ra (mediante un apparato classico) su di un sistema quantistico, si dà il nome di
problema della misura.
La via di uscita dell’interpretazione ortodossa consiste nel principio di riduzione
del pacchetto d’onde: l’atto della misura (ovvero l’interazione del sistema quantistici
con l’apparato di misura classico) fa collassare lo stato del sistema in uno degli
stati elementari (precisamente in uno degli autostati dell’operatore che descrive la
misura).
Tuttavia nell’interpretazione ortodossa nulla si dice sulla dinamica di un tale
processo (che come abbiamo detto non può essere un ordinario processo di evoluzione
unitario).
Sono poi state proposte altre soluzioni (diciamo, non ortodosse, nel senso che

72
3.2– Misure bit-a-bit

comportano modifiche sia all’interpretazione di Copenhagen, sia nella struttura stes-


sa della meccanica quantistica), senza che tuttavia nessuna sia riuscita a risolvere
definitivamente il problema.
Tra le più discusse ricordiamo la teoria di localizzazione spontanea proposta da
Ghirardi, Rimini e Weber o le teorie in cui il collasso della funzione d’onda è indotto
dalla gravità.
La teoria della decoerenza si pone ad un livello intermedio, in quanto pur restan-
do nell’ambito della meccanica quantistica, ne approfondisce gli aspetti relativi ai
sistemi aperti, permettendo di giustificare il fatto che in seguito ad una misura lo
stato del sistema collassi. Tuttavia non ci dice in quale stato esattamente il sistema
sia collassato: un tale obbiettivo, è al momento, completamente al di fuori della
nostra portata.
Come dice esplicitamente Zurek [16], la teoria della decoerenza non si propone
di dire in quale stato collassa il sistema (che equivarrebbe a predire l’esatto risultato
di una misura), ma, come vedremo, ci permette di dire se tale collasso è avvenuto
(ovvero se è avvenuta una misura) e quale misura è stata effettuata.

3.2 Misure bit-a-bit


Affrontiamo ora più in dettaglio problema della misura per farne un’analisi quanti-
tativa, secondo l’approccio proposto dalla teoria della decoerenza.
Il modello di base sarà quello di un sistema che interagisce con un apparato, il
quale a sua volta interagisce con l’ambiente.
Inizialmente considereremo dei sistemi, siano essi il sistema vero e proprio che
l’apparato e l’ambiente, molto semplici. Passeremo successivamente ad un modello
più realistici: sin dai casi più semplici, tuttavia, potremo evidenziare le caratteristi-
che salienti della teoria della decoerenza.
In ogni caso assumeremo che tutti i sistemi di cui parleremo siano descrivibili
mediante la meccanica quantistica, e quindi la natura classica dell’apparato (ossia
l’assenza di sovrapposizioni) dovrà emergere dall’analisi stessa che faremo.

Cominciamo considerando la misura su di un sistema a due stati S effettuata


da un apparato quantistico A anch’esso a due stati (ma distinguibile dal sistema).
Poiché due stati sono codificabili con un solo bit d’informazione, parleremo di sistemi
a un bit, e quindi essendo sia il sistema che l’apparato di misura dei sistemi ad un
bit, parleremo di misura bit-a-bit.
Una possibile realizzazione di un tale schema è mostrata nella figura 3.1 ove
si rileva il passaggio di un sistema dotato di spin che attraversa un apparato di
Stern-Gerlach reversibile mediante un sistema atomico che funge da rivelatore di
percorso.

73
3 – La decoerenza

Figura 3.1. Apparato di Stern-Gerlach reversibile (a) e sua rappresentazione sche-


matica, con indicate le due possibili traiettorie del sistema con spin 1/2 e l’ato-
mo che funge da rivelatore (b) [16]. I due stati di spin |↑i , |↓i corrispondono
rispettivamente agli stati |eiS e |giS .

Nel semplice modello che stiamo usando manca la descrizione di un qualsiasi


apparato (o ambiente) con caratteristiche classiche: tuttavia nella sua semplici-
tà potremo evidenziare come certi risultati non siano dovuti al carattere classico
dell’apparato o dell’ambiente, ma al modo con cui ci poniamo nei confronti del-
l’apparato e dell’ambiente quando eseguiamo una misura su un sistema quantistico.
Anzi vedremo che la natura classica dell’apparato emergerà in modo naturale per
via dell’interazione con l’ambiente.

Assumiamo che inizialmente il sistema S sia isolato dal resto dell’universo: pos-
siamo allora descrivere un tale sistema mediante uno spazio degli stati ΣS bidimen-
sionale, e sia (|eiS , |giS ) una base ortonormale di tale spazio.
Analogamente l’apparato di misura A sarà descritto da uno spazio ΣA anch’esso
bidimensionale, con (|eiA , |giA ) una base ortonormale.

3.2.1 L’interazione sistema-rivelatore e la pre-misura


Supponiamo che l’apparato sia inizialmente (t0 = 0) nello stato

|χ(t0 )iA = |+iA = (|eiA + |giA )/ 2 (3.3)

74
3.2– Misure bit-a-bit

e supponiamo che per via dell’interazione con il sistema S passi nello stato |giA
(rispettivamente |eiA ) quando rivela il sistema nello stato |eiS (risp. |giS ).
Supponiamo poi che il sistema si trovi inizialmente nello stato puro

|ϕ(t0 )iS = α |eiS + β |giS . (3.4)

Non essendoci stata interazione tra sistema ed apparato, lo stato iniziale del sistema
più l’apparato sarà descritto dal ket

|φi i ≡ |φ(t0 )iSA = |ϕ(t0 )iS ⊗ |χ(t0 )iA = (α |eiS + β |giS ) ⊗ |+iA (3.5)

prodotto diretto dei vettori di stato del sistema e del rivelatore.


L’interazione tra il sistema e l’apparato di misura permette di portare a termine
la prima parte dell’operazione di misura (spesso si parla di pre-misura), che consiste
nel creare le opportune correlazioni tra il sistema e l’apparato, che consentano il
passaggio delle informazioni circa lo stato del sistema.
Più precisamente, definiamo [17] l’interazione tra i due sistemi mediante l’ha-
miltoniana2

HSA = γ(|ei he|S − |gi hg|S ) ⊗ (|⊥i h⊥|A − |>i h>|A ) (3.6)

ove, per semplicità di scrittura, i termini del tipo| ·iZ h·|Z sono stati scritti sempli-
cemente come| ·i h·|Z , omettendo nei ket il pedice relativo al sottosistema, g è una
costante di accoppiamento, e

|⊥iA = (|eiA + i |giA ) / 2)

|>iA = (|eiA − i |giA ) / 2). (3.7)

Tale interazione permette di passare (ad un opportuno istante) dallo stato iniziale

|φi i = (α |eiS + β |giS ) ⊗ |+iA (3.8)

allo stato finale

|φc i ≡ |φ(t1 )iSA = α |eiS ⊗ |giA + β |giS ⊗ |eiA . (3.9)

2
Si dà qui l’espressione più conveniente per il seguito. Volendo si può esprimere l’hamiltoniana
in funzione degli stati base |eiA , |giA , e si ottiene:

HSA = iγ(|ei he|S − |gi hg|S ) ⊗ (|gi he|A − |ei hg|A ).

75
3 – La decoerenza

Dimostrazione. Per verificare tale affermazione basta usare la proprietà


X
f (A) |φi = cn f (an ) |ϕn i (3.10)
n

P
essendo A |ϕn i = an |ϕn i, e |φi = n cn |ϕn i (avendo supposto che l’insieme (|ϕn i) sia
una base)3 .

Occorre quindi calcolare autovalori ed autovettori dell’hamiltoniana: a tal fine osser-


viamo subito che l’espressione dell’hamiltoniana HSA = γH⊗S ⊗ H⊗A è già espressa in
forma diagonale. Infatti (|eiS , |giS ) è una base di autovettori di H⊗S in ΣS relativa agli
autovalori λ1,2 = ±1; analogamente, (|⊥iA , |>iA ) è una base di autovettori di H⊗A in ΣA
relativa agli autovalori η1,2 = ±1.
È immediato ora ricavare gli autovalori e gli autovettori di HSA (si tenga presente che
gli autovalori di αA sono dati dagli autovalori di A moltiplicati per α):

a11 = γ λ 1 η1 =γ |ϕ11 i = |eiS ⊗ |⊥iA


a12 = γ λ 1 η2 = −γ |ϕ12 i = |eiS ⊗ |>iA
(3.11)
a21 = γ λ 2 η1 = −γ |ϕ21 i = |giS ⊗ |⊥iA
a22 = γ λ 2 η2 =γ |ϕ22 i = |giS ⊗ |>iA .

A questo punto conviene esprimere il vettore |+iA che figura nello stato iniziale in
termini dei due autostati |⊥iA , |>iA :

|+iA = [(1 − i) |⊥iA + (1 + i) |>iA ]/2 (3.12)

e quindi la (3.8) diventa:

|φi i = (α |eiS + β |giS ) ⊗ [(1 − i) |⊥iA + (1 + i) |>iA ]/2. (3.13)

Posto δ = t/~, possiamo applicare la formula (3.10) ed otteniamo:

1 − i −iγδ 1 + i +iγδ
|φc i =α e |eiS ⊗ |⊥iA + α e |eiS ⊗ |>iA +
2 2
1 − i +iγδ 1 + i −iγδ
+β e |giS ⊗ |⊥iA + β e |giS ⊗ |>iA (3.14)
2 2

ed esprimendo gli stati |⊥iA , |>iA in funzione degli stati |eiA , |giA secondo la (3.7), dopo

3
Nel caso di operatori prodotto tensoriale, sarà comodo sostituire l’indice n con un doppio indice
i,j.

76
3.2– Misure bit-a-bit

un semplice riordino dei vari termini, si ottiene


α h i
|φc i = √ (1 − i) e−iγδ + (1 + i) eiγδ |eiS ⊗ |eiA +
2 2
α h i
+ √ i (1 − i) e−iγδ − (1 + i) eiγδ |eiS ⊗ |giA +
2 2
β h i
+ √ (1 − i) eiγδ + (1 + i) e−iγδ |giS ⊗ |eiA +
2 2
β h i
+ √ i (1 − i) eiγδ − (1 + i) e−iγδ |giS ⊗ |giA =
2 2
α
= √ (cos η − sin η) |eiS ⊗ |eiA +
2
α
+ √ (cos η + sin η) |eiS ⊗ |giA +
2
β
+ √ (cos η + sin η) |giS ⊗ |eiA +
2
β
+ √ (− cos η + sin η) |giS ⊗ |giA (3.15)
2
ove si è posto η = gδ. √
Per η = π4 + 2nπ, con n = 0,1,2, . . . risulta cos η = sin η = 22 e quindi il primo e
l’ultimo addendo scompaiono, lasciando solo il secondo e terzo, ovvero:

|φc i = α |eiS ⊗ |giA + β |giS ⊗ |eiA . (3.16)


π
La condizione η = 4 definisce la durata minima tSA dell’interazione per ottenere
esattamente |φc i:
π~
tSA = . (3.17)
4g

Lo stato finale |φc i è uno stato entangled o correlato: per definizione, esso non è
esprimibile come prodotto diretto di due vettori relativi ai due sistemi componenti

@ |ϕiS , |χiA : |φc i = |ϕiS ⊗ |χiA . (3.18)

Fisicamente possiamo dire che nello stato |φc i allo stato |giA del rivelatore
corrisponde lo stato |eiS del sistema, a |eiA corrisponde |giS .
Una verifica formale di tale affermazione può essere ottenuta proiettando lo stato
|φc i sui sottospazi di ΣA corrispondenti ai due stati che ci interessano:

(|gi hg|A ) |φc i = α |eiS ⊗ |giA (3.19a)


(|ei he|A ) |φc i = β |giS ⊗ |eiA . (3.19b)

77
3 – La decoerenza

Il risultato delle proiezioni sono pertanto i due stati nei quali si viene a trovare il
sistema composto dopo il collasso del vettore di stato conseguente alla misura.
Tuttavia |φc i rappresenta ancora uno stato puro, sovrapposizione dei due stati
che identificano i possibili risultati, e non è ciò che ci aspettiamo nel caso di una
misura classica in cui, alla fine della misura, l’apparato si trova in uno ed uno solo
dei suoi possibili stati, ovvero, prima che noi veniamo a conoscenza del risultato,
è descrivibile come una miscela statistica dei possibili risultati. In altri termini,
stando a |φc i la misura non è ancora propriamente avvenuta, ma c’è stata solo una
correlazione tra sistema ed apparato di misura, che è un passo essenziale verso la
misura vera e propria, e che pertanto è nota come pre-misura.

Per descrivere e distinguere agevolmente tra il caso puro e la miscela statistica,


conviene adottare il formalismo della matrice densità.
Con questo formalismo, se consideriamo un ensemble di coppie sistema+appara-
to, possiamo descrivere la nostra ignoranza sul possibile risultato tramite una miscela
di stati, il cui corrispondente operatore densità è

ρ0 = p1 |ei he|S ⊗ |gi hg|A + p2 |gi hg|S ⊗ |ei he|A =


 
p1 0 0 0
 0 0 0 0 
= 0 0
 (3.20)
0 0 
0 0 0 p2

essendo p1 , p2 le probabilità di trovare i due risultati, e (|eiS ⊗ |giA , |eiS ⊗ |eiA ,


|giS ⊗ |giA , |giS ⊗ |eiA ) la base ortonormale di ΣS ⊗ ΣA rispetto a cui è definita la
matrice.
Lo stato |φc i è invece uno stato puro, e il corrispondente operatore densità è :

ρ = |φc i hφc | =
= |α|2 |ei he|S ⊗ |gi hg|A + αβ ∗ |ei hg|S ⊗ |gi he|A +
+ α∗ β |gi he|S ⊗ |ei hg|A + |β|2 |gi hg|S ⊗ |ei he|A = (3.21)
 
|α|2 0 0 αβ ∗
 0 0 0 0 
= 0 0 0 0 

α∗ β 0 0 |β|2

ove la presenza dei due termini non nulli fuori dalla diagonale ci dice che ci troviamo
in uno stato puro correlato (entangled ).
Si osservi che già a questo punto potremmo pensare di eliminare i termini fuori

78
3.2– Misure bit-a-bit

dalla diagonale considerando l’operatore densità ridotto (si veda il paragrafo E.1.4)
ρr = TrS {ρ} = |α|2 |ei he|A + |β|2 |gi hg|A =
 2 
|α| 0
= (3.22)
0 |β|2
ottenuto tralasciando di considerare il sistema, e osservando solo l’apparato, e la
matrice finale è definita ora rispetto alla base (|eiA , |giA ). Tuttavia l’operazione di
trascurare il sistema sarebbe un’operazione puramente formale, senza alcuna reale
giustificazione: l’indice del nostro apparato di misura (nel nostro modello lo stato
dell’apparato) resterebbe in una (strana) sovrapposizione di stati.

L’ambiguità della base


Che lo stato |φc i non descriva correttamente ciò che vorremmo ottenere in una
misura, lo si può vedere meglio dal fatto che se cambiamo la base nello spazio ΣA ,
si ottiene sempre uno stato entangled, ma ora le correlazioni sono tra la nuova base,
ed altri stati del sistema S. Ora, come si vede nella (3.22), la base è importante,
perché mostra quali sono i possibili risultati della misura.
Consideriamo per semplicità il caso α = β = √12 . Passando, ad esempio, alla base
definita dai vettori

|±iA = (|eiA ± |giA )/ 2 (3.23)
si ottiene:
1 1
|φc i = |eiS ⊗ (|+iA + |−iA ) + |giS ⊗ (|+iA − |−iA )
2 2
1 1
= (|eiS + |giS ) ⊗ |+iA + (|eiS − |giS ) ⊗ |−iA
2 2
1 1
= √ |+iS ⊗ |+iA + √ |−iS ⊗ |−iA (3.24)
2 2
ove

|±iS = (|eiS ± |giS )/ 2 (3.25)
il che vuol dire che vi è pure una correlazione perfetta tra gli stati |+iA , |−iA e gli
stati |+iS , |−iS .
Proiettando lo stato |φc i sui due sottospazi corrispondenti ai due vettori |+iA ,
|−iA (cosa peraltro immediata tenuto conto della (3.24)) otteniamo:
1
|+i h+|A |φc i = √ |+iS ⊗ |+iA
2
1
|−i h−|A |φc i = √ |−iS ⊗ |−iA . (3.26)
2

79
3 – La decoerenza

Ora se il sistema composto dovesse subire il collasso di stato, non sarebbe ben
chiaro quali sono i possibili stati in cui collassare (ovvero i possibili risultati della
misura): |eiA , |giA oppure |+iA , |−iA , o una delle altre coppie definibile cambiando
in maniera analoga la base di ΣA . Ciò ci dice che ancora non è possibile dire che
cosa l’apparato abbia misurato sul sistema.
L’assurdo risulta ancora più evidente se si pensa al significato fisico di tali stati
nell’esperimento illustrato nella figura 3.1. Gli stati (3.25) indicano stati con spin
diciamo nella direzione x, ottenuti effettuando una misura con un apparato pre-
disposto per la misura di spin lungo la direzione z, che, com’è noto, sono misure
incompatibili.
Un’evoluzione unitaria può produrre solo risultati di tale natura, anche introdu-
cendo ulteriori passi intermedi dello stesso tipo.
È per questo che Von Neumann, discutendo tale problema, ha introdotto [14] un
“processo 1”, non unitario, per ottenere il collasso della funzione d’onda, ovvero per
passare dal caso puro ρ alla miscela statistica ρ0 ( o equivalentemente a ρr ). Tale
operazione, però, è poco soddisfacente dal punto di vista teorico (l’introduzione è
“ad hoc”, priva di una giustificazione elementare all’interno della teoria), ma ha il
pregio di evidenziare come gli operatori unitari della meccanica quantistica da soli
non riescono a risolvere il problema del collasso della funzione d’onda.

3.2.2 L’interazione con un ambiente a due stati e la decoe-


renza
L’approccio proposto da Zurek [16, 17, 18] mette in primo piano il fatto che i si-
stemi quantistici macroscopici non sono mai completamente isolati dall’ ambiente
esterno, e quindi è ragionevole aspettarsi che possano manifestare comportamenti
non direttamente spiegabili con quanto visto sinora. In particolare, tenendo nel do-
vuto conto il ruolo dell’ambiente e dell’osservatore, è possibile rendere conto, in un
senso opportuno, della perdita della coerenza nella sovrapposizione di due stati, e il
conseguente passaggio da stato puro a miscela statistica di stati (decoerenza indotta
dall’ambiente).
Si consideri quindi oltre al sistema S e al rivelatore quantistico A, l’ambiente E,
e modelliamo anche l’ambiente con un sistema quantistico a due stati, distinguibile
dai precedenti, descritto inizialmente dallo stato |ζ0 iE = |ζ(t0 )iE . Supponiamo poi
che l’interazione con l’ambiente avvenga all’istante t2 ≥ t1 .
Anche in questo caso possiamo descrivere l’interazione tra l’apparato e il suo
ambiente mediante un’opportuna hamiltoniana [17]

HAE = γ 0 (|ei he|A − |gi hg|A ) ⊗ (|gi hg|E − |ei he|E ) (3.27)

che, in maniera analoga a quanto visto per la (3.6), in un opportuno intervallo di

80
3.2– Misure bit-a-bit

tempo, permette di passare dallo stato

|Ψ1 iSAE = |φc i ⊗ |ζ0 iE (3.28)

allo stato

|Ψ i ≡ |Ψ iSAE = α |eiS ⊗ |giA ⊗ |eiE + β |giS ⊗ |eiA ⊗ |giE . (3.29)

|Ψ i rappresenta ancora uno stato puro entangled di tre sistemi, il cui corrispon-
dente operatore densità è
ρSAE = |Ψ i hΨ | . (3.30)
È ora naturale ignorare gli stati dell’ambiente E, visto che ci interessa il risultato
della misura, e non una qualche informazione sull’ambiente. Supponendo che i due
stati |giE , |eiE siano ortogonali (hg|eiE = 0) si ottiene:

ρrSA = TrE {ρSAE }


= |α|2 |ei he|S ⊗ |gi hg|A + |β|2 |gi hg|S ⊗ |ei he|A (3.31)

cioè considerando anche l’interazione con l’ambiente, e poi tenendo conto del fatto
che in pratica non rileviamo lo stato dell’ambiente, siamo riusciti ad ottenere la
corretta matrice densità (analoga cioè alla miscela statistica ρ0 vista nella (3.20)),
ed il tutto senza andare oltre l’ordinaria meccanica quantistica.
Il risultato precedente è il principale risultato della teoria della decoerenza: in
seguito ci occuperemo più in dettaglio della dinamica che porta a tale risultato, ma
esso resterà sempre il passo finale. Per comprenderne a fondo il significato allora,
analizziamo ulteriori aspetti dell’interazione tra l’apparato e l’ambiente.

La base preferita o base dell’indice


Nel caso di pre-misura, ovvero per un sistema nello stato (3.5), si era rilevato come
vi fosse un’ambiguità sulla base che identifica l’osservabile misurata sul sistema.
L’interazione con l’ambiente rimuove l’ambiguità della base rilevata in precedenza,
permettendo di definire in maniera univoca cosa è stato misurato dall’apparato.
Consideriamo infatti, lo stato |Ψ i, dato dalla (3.29): come già osservato, è
evidente la perfetta correlazione tra sistema, apparato e ambiente.
Se proviamo a cambiare la base dello spazio ΣA , usando ad esempio la base
(|+iA , |−iA ) otteniamo la rappresentazione
1 
|Ψ i = √ α |eiS ⊗ |eiE + β |giS ⊗ |giE ⊗ |+iA +
2
1 
+ √ − α |eiS ⊗ |giA + β |giS ⊗ |eiA ⊗ |−iA (3.32)
2

81
3 – La decoerenza

nella quale non si riscontra più la correlazione tra sistema, apparato ed ambiente
vista in precedenza, e soprattutto, non è possibile ricondurre la (3.32) nella forma

α0 |s+ iS ⊗ |E+ iE ⊗ |+iA + β 0 |s− iS ⊗ |E− iE ⊗ |−iA

per via dello stato entangled in cui si trovano il sistema e l’ambiente.


Proiettando lo stato |Ψ i mediante i proiettori |ei he|A oppure |gi hg|A otteniamo

|gi hg|A |Ψ i = α |eiS ⊗ |giA ⊗ |eiE (3.33a)


|ei he|A |Ψ i = β |giS ⊗ |eiA ⊗ |giE (3.33b)

ovvero degli stati prodotto diretto, che indicano la perfetta correlazione tra sistema,
apparato e ambiente.
Se invece proviamo a vedere cosa fornirebbe un test per vedere se l’apparato si
trova, ad esempio4 , nello stato |+iA , otteniamo:

1 
|+i h+|A |Ψ i = √ α |eiS ⊗ |eiE + β |giS ⊗ |giE ⊗ |+iA (3.34)
2
che per via della presenza di un stato entangled tra il sistema e l’ambiente, a differen-
za della (3.26), non è più esprimibile come prodotto diretto di tre stati appartenenti
ai tre sottosistemi S, A, E che stiamo considerando.
È venuta meno, quindi, la possibilità di conoscere lo stato del sistema una volta
noto che l’apparato è nello stato |+iA : come evidenzia Zurek, parte dell’informazione
che l’apparato aveva acquisito sul sistema, è stata ora persa dall’apparato e trasferita
nell’ambiente.
Ma questo non è un fatto negativo, anzi è proprio ciò che cercavamo: la presenza
dell’ambiente ha selezionato la base dell’apparato (|eiA , |giA ), cui viene dato il nome
di base dell’indice (dell’apparato di misura), in quanto è essa che determina cosa è
stato misurato dall’apparato.

L’osservabile indice
Tenuto conto delle (3.33) l’osservabile (o meglio la famiglia di osservabili) che de-
scrive la misura effettuata dall’apparato, e che chiameremo osservabile dell’indice è
data da
Λ = λg |gi hg|A + λe |ei he|A (3.35)
ove λg ,λe ∈ R affinché l’operatore sia hermitiano, e λg 6= λe affinché i due risultati
della misura siano distinguibili.
4
Il ragionamento e le conclusioni non cambiano anche se si usa un qualunque altro proiettore
diverso da |ei he|A e |gi hg|A .

82
3.3– La dinamica della decoerenza

Risulta evidente che la base dell’indice costituisce una base di autostati per
l’osservabile indice.
Un’altra proprietà importante, è il fatto che l’osservabile indice commuti con
l’hamiltoniana di interazione tra apparato ed ambiente

[HAE , Λ] = 0 (3.36)

che esprime il fatto che quando l’apparato è in autostato dell’osservabile indice Λ,


l’interazione con l’ambiente lo lascia imperturbato.

Aspetti dinamici
Accenniamo infine a due nozioni molto importanti legati all’evoluzione temporale
del sistema, ossia alla dinamica con cui avviene la decoerenza. Tuttavia per via del
modello dell’ambiente estremamente semplice, avranno valore molto limitato.
Possiamo definire il tempo di decoerenza come il tempo che occorre all’ambiente
per generare gli effetti di decoerenza: nel caso delle misure bit-a-bit esso coincide con
il tempo di interazione, visto che supponiamo che questa abbia una durata limitata.
In maniera analoga alla (3.17) risulta che per ottenere la giusta correlazione tra
apparato e ambiente, l’interazione tra i due deve durare esattamente tAE = π4 g~0 .
D’altra parte si vede che se l’interazione tra apparato ed ambiente continuasse
ulteriormente lo stato finale varierebbe ancora fino ad arrivare allo stato di partenza
per tr,AE = 2π g~0 : il tempo di ricorrenza, in questo semplice caso, risulta pertanto
confrontabile con quello di decoerenza.
Come vedremo nel prossimo paragrafo, il fatto che in questo caso il tempo di
ricorrenza risulti confrontabile con quello di decoerenza è dovuto al modello dell’am-
biente estremamente semplificato che abbiamo usato, e verrà meno considerando un
ambiente con N  1 atomi.

3.3 La dinamica della decoerenza


Consideriamo ora un modello più realistico dell’ambiente, che ci permetterà di stu-
diare la dinamica della decoerenza indotta dall’ambiente: supponiamo che l’ambiente
sia costituito da N sistemi quantistici a due livelli distinguibili e non interagenti tra
di loro, né con il sistema S, ma solo con l’apparato A.
Sia poi
|Ψi i = (α |eiS ⊗ |giA + β |giS ⊗ |eiA ) ⊗ |ζ0 iE (3.37)
lo stato iniziale (per semplicità si assuma che esso sia dato a t1 = 0), ove |ζ0 iE =
QN
k=1 ⊗[ak |giE,k + bk |eiE,k ] è lo stato iniziale dell’ambiente.
|Ψi i descrive il sistema e l’apparato in uno stato entangled, dopo l’interazione tra
i due, più l’ambiente che ancora non ha interagito con nessuno dei precedenti.

83
3 – La decoerenza

L’hamiltoniana
N
X (k)
HAE = HAE (3.38)
k=1
con  Y
(k)
HAE = γk (|ei he|A − |gi hg|A ) ⊗ |gk i hg|E,k − |ek i he|E,k ⊗1j .
j=1
j6=k

permette, in un intervallo di tempo t, di fare evolvere tale stato nello stato finale
N
Y h i
iγk t −iγk t
|Ψf (t)i = α |eiS ⊗ |giA ⊗ αk e |eiE,k + βk e |giE,k +
k=1
N
Y h i
+ β |giS ⊗ |eiA ⊗ αk e−iγk t |eiE,k + βk e+iγk t |giE,k
k=1

= α |eiS ⊗ |giA ⊗ |ζe (t)iE + β |giS ⊗ |eiA ⊗ |ζg (t)iE (3.39)

ove
N
Y h i
|ζe (t)iE = ⊗ αk eiγk t |eiE,k + βk e−iγk t |giE,k (3.40a)
k=1
YN h i
−iγk t iγk t
|ζg (t)iE = ⊗ αk e |eiE,k + βk e |giE,k (3.40b)
k=1

sono i due stati dell’ambiente che corrispondenti ai due possibili risultati della
misura.

L’osservabile dell’indice. Anche in questo caso l’osservabile dell’indice è quindi


definita come:
Λ = λg |gi hg|A + λe |ei he|A (3.41)
con le solite condizioni λg ,λe ∈ R e λg 6= λe .

L’operatore densità. Dato lo stato finale (3.39) il corrispondente operatore den-


sità è

ρSAE = |Ψf i hΨf | =


N
Y h
2
=|α| |ei he|S ⊗ |gi hg|A ⊗ |αk |2 |ei he|E,k + αk βk∗ ei2γk t |ei hg|E,k +
k=1

84
3.3– La dinamica della decoerenza

i
+ αk∗ βk e−i2γk t |gi he|E,k + |βk |2 |gi hg|E,k +

N
Y h
+ αβ ∗ |ei hg|S ⊗ |gi he|A ⊗ |αk |2 ei2γk t |ei he|E,k + αk βk∗ |ei hg|E,k +
k=1
i
+ αk∗ βk |gi he|E,k + |βk | e 2 −i2γk t
|gi hg|E,k +

N
Y h

+ α β |gi he|S ⊗ |ei hg|A ⊗ |αk |2 e−i2γk t |ei he|E,k + αk βk∗ |ei hg|E,k +
k=1
i
+ αk∗ βk |gi he|E,k + |βk |2 ei2γk t |gi hg|E,k +

N
Y h
2
+ |β| |gi hg|S ⊗ |ei he|A ⊗ |αk |2 |ei he|E,k + αk βk∗ e−i2γk t |ei hg|E,k +
k=1
i
+ αk∗ βk ei2γk t |gi he|E,k + |βk |2 |gi hg|E,k (3.42)

L’operatore densità ridotto. La matrice densità ridotta relativa al sistema e


all’apparato, tralasciando l’ambiente, è allora:
ρrSA =TrE ρSAE =
N
Y
2
 
=|α| |ei he|S ⊗ |gi hg|A |αk |2 + |βk |2 +
k=1
N
Y

 
+ α β |gi he|S ⊗ |ei hg|A |αk |2 e−i2γk t + |βk |2 e−i2γk t +
k=1
YN
 
+ α∗ β |gi he|S ⊗ |ei hg|A |αk |2 e−i2γk t + |βk |2 ei2γk t +
k=1
N
Y  
+ |β|2 |gi hg|S ⊗ |ei he|A ⊗ |αk |2 + |βk |2 (3.43)
k=1

che tenuto conto del fatto che |αk | + |βk |2 = 1, riscriviamo come
2

ρrSA =|α|2 |ei he|S ⊗ |gi hg|A + z(t) α∗ β |gi he|S ⊗ |ei hg|A +

+ z ∗ (t) α∗ β |gi he|S ⊗ |ei hg|A + |β|2 |gi hg|S ⊗ |ei he|A (3.44)

85
3 – La decoerenza

ove si è introdotta l’ampiezza di correlazione


N
Y  
z(t) , |αk |2 e−i2γk t + |βk |2 e−i2γk t =
k=1
YN
  
= cos 2γk t + i |αk |2 − |βk |2 sin 2γk t (3.45)
k=1

che è una misura di quanto, dopo l’interazione con l’ambiente, gli stati non diagonali
del sistema e dell’apparato sia ancora correlati.
L’ampiezza di correlazione dipende dalle condizioni iniziali dell’ambiente solo
attraverso le differenze |αk |2 −|βk |2 che sono le differenze tra la probabilità di trovare
l’ambiente negli autostati dell’hamiltoniana d’interazione |eiE,k e |giE,k .

Proprietà dell’ampiezza di correlazione


Si ha innanzitutto
z(t) = hζe (t)|ζg (t)iE (3.46)
che generalizza quanto ipotizzato per ottenere la (3.31): se i due stati |ζe (t)iE ,
|ζg (t)iE sono ortogonali, si ha la cancellazione dei termini non diagonali dell’opera-
tore densità ridotto ρrSA .
In generale, tuttavia, la condizione di ortogonalità non è verificata esattamente.
Pertanto è importante studiare la dipendenza temporale dell’ampiezza di correlazio-
ne, cui è legato lo smorzamento dei termini non diagonali di ρrSA . Si ha
z(0) = 1, (3.47)
|z(t)|2 ≤ 1, (3.48)
Z
1 T
< z(t) > = lim z(t)dt = 0, (3.49)
T →∞ T 0
N
2 1 Y
< |z(t)| > = N [1 + (|αk |2 − |βk |2 )2 ]. (3.50)
2 k=1

In particolare l’ultima espressione ci dice che, a parte il caso in cui lo stato iniziale
dell’ambiente coincide con uno degli autostati dell’hamiltoniana d’interazione (α k =
1 e βk = 0, o viceversa), il valor medio di |z(t)|2 è molto più piccolo rispetto ad
1, assunto inizialmente, anche per N relativamente piccoli. Fisicamente ciò vuol
dire che anche ambienti relativamente piccoli sono molto efficaci nello smorzare le
correlazioni e definire l’osservabile dell’indice.
In particolare se αk = βk ∀k, allora < |z(t)|2 >= 21N .
Si osservi tuttavia che per N finito, z(t) è una funzione quasi-periodica, e quindi
in un tempo sufficientemente lungo |z(t)| ritornerà arbitrariamente vicino ad 1.

86
3.4– Misurare la decoerenza

Tempo di ricorrenza
Si è visto che a partire dal valore iniziale z(0) = 1, |z(t)| decresce, tendendo ad
assumere valori prossimi zero, con fluttuazioni dell’ordine di √1N .
Tuttavia abbiamo detto che essendo |z(t)| una funzione quasi-periodica, per ogni
 > 0 esiste un intervallo di tempo T , che chiamiamo tempo di ricorrenza, dopo il
quale |z(t)| differirà da uno per meno di :

1 − |z(t)| < . (3.51)

Si dimostra tuttavia che per un ambiente macroscopico tale tempo di ricorrenza


è superiore alla durata stimata dell’universo, ossia il tempo tra il big bang e il big
crunch.

3.4 Misurare la decoerenza


3.4.1 Misura della dinamica irreversibile
Morigi e al.[10] hanno recentemente proposto di invertire l’evoluzione unitaria di un
oscillatore armonico accoppiato con un sistema a due livelli (modelli dell’interazione
tra un atomo ed una radiazione elettromagnetica monocromatica), in modo che, una
volta “eliminata” la parte unitaria dell’evoluzione, ciò che resta e fa differire lo stato
dell’oscillatore armonico da quello iniziale è dovuto ad un evoluzione irreversibile
(non unitaria), che ci dà una misura della dinamica di decoerenza del sistema.
Tale metodo può essere applicato, in particolare, a due situazioni sperimentali
particolarmente interessanti:

• trappole ioniche: la posizione del centro di massa dello ione è armonica, e


mediante la radiazione di un laser viene accoppiata con una transizione atomica
interna;

• cavità quanto-elettrodinamiche (QED): in questo caso è la radiazione mono-


modale all’interno della cavità ad essere armonica, e un atomo inviato dentro
la cavità viene utilizzato per sondare il campo nella cavità.

L’interazione tra il sistema a due 2 livelli e l’oscillatore armonico


Sia |gi lo stato di riposo e |ei quello eccitato del sistema a 2 livelli.
Usando il formalismo degli operatori di Pauli (si veda l’appendice D) l’hamilto-
niana del sistema sarà data da

H2L = ~ωσ † σ (3.52)

87
3 – La decoerenza

ove σ † = |ei hg|, σ = |gi he| sono gli operatori di incremento/decremento del livello
energetico5 . Si osservi che l’hamiltoniana (3.52) assume che la separazione di energia
tra i due livelli sia ∆E = ~ω, e che il livello energetico inferiore sia assunto come
riferimento (Eg = 0, e quindi Ee = ~ω).
Per l’oscillatore armonico useremo gli stati di base di Fock |ni, con n = 0,1,2, . . .,
autostati dell’operatore numero n = a† a, essendo a† e a rispettivamente gli operatori
di creazione e annichilazione fotonici. Assumiamo poi che la separazione tra i vari
livelli energetici dell’oscillatore armonico sia la stessa di quella tra i due livelli del
sistema a due stati (in modo che i due sistemi siano in risonanza); l’hamiltoniana
dell’oscillatore armonico sarà allora
1
Hosc = ~ω(a† a + ). (3.54)
2
Consideriamo ora un’interazione tra oscillatore armonico e sistema a due livelli
secondo il modello di Jaynes-Cummings [15, §10.3]: l’interazione tra i due sistemi è
data pertanto da
Hint,JC = ~g(σ † a + σa† ) (3.55)
ove g è la costante di accoppiamento.
L’hamiltoniana completa del sistema risulta allora

HJC = H2L + Hosc + Hint,JC = ~ω(σ † σ + a† a) + ~g(σ † a + σa† ) (3.56)

ove si è tralasciato il termine 12 ~ω (il che equivale ad una ridefinizione dello zero di
energia dell’oscillatore armonico).
Introduciamo infine un’hamiltoniana di sfasamento, definita come

Hkick (t) = ~πσσ † δ(t − τ ) (3.57)

il cui significato risulta evidente se osserviamo che essa determina un’evoluzione data
dall’operatore di evoluzione temporale6
i
R τ+
Ukick = e− ~ τ− Hkick dt
= σ † σ − σσ † = |ei he| − |gi hg| = σ 3 (3.60)
5
Si ha infatti

σ |ei = |gi σ |gi = 0 (3.53a)


† †
σ |gi = |ei σ |ei = 0. (3.53b)

6
Fissata la base (|ei , |gi) risulta
 
0 0
σσ † = |gi hg| = (3.58)
0 1

88
3.4– Misurare la decoerenza

e che quindi, se applicata ad un generico stato del sistema a due livelli7 porge
σ 3 (α |ei + β |gi) = α |ei − β |gi (3.61)
dalla quale risulta evidente lo sfasamento che genera tra i due stati del sistema a
due livelli.

Possiamo studiare ora l’evoluzione totale del sistema composto dall’oscillatore ar-
monico e dal sistema a 2 livelli unitamente allo sfasamento dovuto ad Hkick , descritta
dall’hamiltoniana
H(t) = HJC + Hkick = H0 + Hint + Hkick . (3.62)
ove si è posto H0 = Hosc + H2L = ~ω (σ † σ + a† a), e Hint = Hint,JC .
Il corrispondente operatore di evoluzione temporale, per l’intervallo (0,T ), è
i
RT
U(T ) = e− ~ 0 H(t) dt
. (3.63)
Nel caso di operatori, per poter scrivere l’esponenziale di una somma come il
prodotto degli esponenziali
eA+B = eA eB (3.64)
occorre che gli operatori commutino: [A,B] = 0.
Nel nostro caso risulta
[H0 ,Hint ] = 0 (3.65a)
[H0 ,σ 3 ] = 0 (3.65b)
[Hint ,σ 3 ] = 2Hint σ 3 =
= −2~ω(σ † a + σa† ) 6= 0 (3.65c)

ovvero, più semplicemente

{Hint ,σ 3 } = 0.
Allora per agevolare il calcolo della (3.63) suddividiamo l’intervallo di evoluzione
(0, T ) in tre sottointervalli (0, τ − ), (τ − , τ + ) e (τ + , T ) in modo tale che in ciascun
sottointervallo gli operatori di evoluzione che effettivamente agiscono sul sistema
commutino tra loro, infatti
e quindi  
0 0    
−iπ 
−iπσσ † 0 1 1 0 1 0
e =e = = = σ3 (3.59)
0 e−iπ 0 −1
ove si è tralasciato il fattore 1/2 che nella (D.19c) avevamo usato nella definizione della matrici di
Pauli.
7
Si osservi che Ukick (ovvero la sua estensione) agisce solo sullo stato del sistema a 2 livelli,
lasciando inalterato l’oscillatore armonico.

89
3 – La decoerenza

nell’intervallo (0, τ − ) agiscono solo H0 e Hint che commutano, tra di loro;

nell’intervallo (τ − , τ + ), data la natura impulsiva di Hkick , possiamo trascurare gli


altri due contributi;

nell’intervallo (τ + , T ) agiscono nuovamente solo H0 e Hint che commutano, tra di


loro.

Avremo allora

U(T ) = U(τ + ,T ) U(τ − , τ + ) U(0,τ − )


i i
R τ+ i
= e− ~ (H0 +Hint )(T −τ ) e− ~ τ−
Hkick (t) dt
e− ~ (H0 +Hint )τ
i i
= e− ~ (H0 +Hint )(T −τ ) σ 3 e− ~ (H0 +Hint )τ . (3.66)

Tenuto conto poi del fatto che H0 commuta sia con Hint che con σ 3 , possiamo
raggruppare l’azione di H0
i i i
U(T ) = e− ~ Hint (T −τ ) σ 3 e− ~ Hint τ e− ~ H0 T . (3.67)

Inoltre risulta
i i
e− ~ Hint t σ 3 = σ 3 e ~ Hint t . (3.68)
Osserviamo infatti che

Hint |n + 1, gi = ~g(aσ † + a† σ) |n + 1, gi
√ √
= ~g n + 1 |ni ⊗ |ei = ~g n + 1 |n, ei (3.69a)

avendo omesso per semplicità il pedice JC nell’hamiltoniana di interazione, ed invertito l’ordine


degli operatori, visto che, operando su spazi differenti, commutano. Analogamente

Hint |n, ei = ~g(aσ † + a† σ) |n, ei


√ √
= ~g n + 1 |n + 1i ⊗ |gi = ~g n + 1 |n + 1, gi . (3.69b)

Ne consegue che i vettori



|ϕ+ i = (|n, ei + |n + 1, gi) / 2 (3.70a)

|ϕ− i = (|n, ei − |n + 1, gi) / 2 (3.70b)

risultano autovettori di Hint , con autovalori Ω± = ±Ω = ±~g n + 1. Possiamo pertanto assumerli
come base in cui calcolare l’esponenziale, che risulta
i
e− ~ Hint t = e−Ωt |ϕ+ i hϕ+ | + eΩt |ϕ− i hϕ− | (3.71)

90
3.4– Misurare la decoerenza

e quindi poiché

e∓Ωt
e∓Ωt |ϕ± i hϕ± | σ 3 = √ (|n, ei ± |n + 1, gi) (hn, e| ± hn + 1, g|) σ 3
2
e∓Ωt
= √ (|n, ei ± |n + 1, gi) (hn, e| ± hn + 1, g|) (|ei he| − |gi hg|)
2
e∓Ωt
= √ (|n, ei ± |n + 1, gi) (hn, e| ∓ hn + 1, g|)
2
= e∓Ωt |ϕ± i hϕ∓ | (3.72)

si ha
i 
e− ~ Hint t σ 3 = e−Ωt |ϕ+ i hϕ+ | + eΩt |ϕ− i hϕ− | σ 3
= e−Ωt |ϕ+ i hϕ− | + eΩt |ϕ− i hϕ+ |

= σ 3 e−Ωt |ϕ− i hϕ− | + eΩt |ϕ+ i hϕ+ |
i
= σ 3 e ~ Hint t (3.73)

ove, si è tenuto conto che analogamente alla (3.72), si ha

σ 3 |ϕ± i hϕ± | = |ϕ∓ i hϕ± | . (3.74)

Tenuto conto della (3.68), l’operatore di evoluzione temporale vale in definitiva


i i
U(T ) = σ 3 e ~ Hint (T −2τ ) e− ~ H0 T
i 2τ −T
= σ 3 e− ~ (H0 + T
Hint )T
(3.75)

il che equivale ad un’evoluzione di tipo Jaynes-Cummings con una costante di


accoppiamento efficace
2τ − T
geff = g. (3.76)
T
Per τ = T2 si ha geff = 0 e quindi, a meno di uno sfasamento, lo stato finale è uguale
a quello iniziale8 .

Applicazione alle cavità QED


Consideriamo ora una cavità quanto-elettrodinamica (QED): si tratta di un sistema
composto da un atomo confinato opportunamente in una regione di spazio di dimen-
sioni comparabili con la lunghezza d’onda associata all’atomo. In una tale situazione
l’atomo oltre al normale accoppiamento con i modi continui del campo elettrico (con
cui si accoppierebbe l’atomo nello spazio libero) è fortemente accoppiato con i modi
del campo nella cavità.
8
In particolare sono le stesse le probabilità di trovare il sistema a due livelli in uno dei due stati
|ei o |gi .

91
3 – La decoerenza

Nel nostro caso possiamo usare l’atomo come una sonda per indagare il campo
elettromagnetico all’interno della cavità.
L’interazione tra l’atomo e la radiazione all’interno della cavità sarà descritta
mediante il modello di Jaynes-Cummings, mentre lo sfasamento (Hkick ) può essere
realizzato mediante un laser che accoppi in maniera quasi-risonante lo stato di riposo
dell’atomo |gi con un terzo stato atomico, realizzando cosı̀ un rapido impulso di
2π.
Possiamo usare in particolare lo schema proposto da Morigi e al. per misura-
re il decadimento del campo nella cavità dovuto all’accoppiamento con un bagno
markoviano allo zero assoluto.
L’equazione di evoluzione temporale dello stato del sistema composto atomo-ra-
diazione della cavità, descritto mediante la matrice densità ρ(t), può essere posta
nella forma
ρ̇ = Lρ (3.77)
con L l’operatore di Liouville, definito dall’equazione
 
i † 1 † 1 †
Lρ = − [H, ρ] + κ aρa − a aρ − ρa a (3.78)
~ 2 2
essendo κ è il tasso di decadimento del campo9 .
La soluzione della (3.77) dopo un intervallo di tempo T , tenuto conto di quanto
osservato in precedenza a proposito della (3.66), può essere espressa formalmente
come
ρ(T ) = eL(T −τ ) K eLτ ρ(0) (3.79)
ove
Kρ = σ 3 ρσ 3
esprime l’effetto dello sfasamento (che avviene all’istante τ ).
Tenendo presente che il sistema a noi direttamente accessibile è l’atomo, dobbia-
mo trascurare lo stato del campo, ovvero calcolare la matrice densità ridotta
ρr (t) = Trosc ρ(t). (3.80)
Gli elementi di ρr (T ) ci daranno le probabilità di transizione tra i vari stati
dovute all’interazione con il campo.
Assumiamo ora che l’atomo sia inizialmente nello stato |gi, e calcoliamo la pro-
babilità di trovarlo in tale stato dopo l’interazione. L’operatore densità iniziale è
allora X
ρ(0) = |gi hg| ⊗ ρnm |ni hm| (3.81)
n,m

9
La forma particolare della parte non unitaria di L (analoga a quella che figura nella master
equation di un oscillatore armonico smorzato) è stata scelta essenzialmente per convenienza di
calcolo. Il procedimento tuttavia è valido anche per altre scelte.

92
3.4– Misurare la decoerenza

e quindi
Pg = [ρr (T )]22 = hg| ρr (T ) |gi . (3.82)
La probabilità che l’atomo inizialmente nello stato iniziale |gi, emerga dalla cavi-
tà sempre nello stato |gi, nel caso di un campo con un solo fotone (ovvero l’oscillatore
nello stato |1i, e quindi ρ(0) = |gi hg| ⊗ |1i h1|), vale
 p 
g 2 κ2 e−κT /2 4 1
Pg = 1 − 64 sin 16g 2 − κ2 T . (3.83)
(16g 2 − κ2 )2 8

Si osservi che per κT  1 l’esponenziale decresce rapidamente, e quindi Pg → 1.


Nel caso generale di un atomo inizialmente nello stato iniziale |gi, ed un campo
in uno stato arbitrario, cui corrisponde l’operatore densità del sistema composto
X
ρ(0) = |gi hg| ⊗ ρnm |ni hm| (3.84)
n,m

il calcolo di ρ(T ), dato dalla (3.79), va effettuato mediante uno sviluppo perturbativo
al primo ordine in κT  1 e κ/g  1.
La probabilità che l’atomo emerga dalla cavità sempre nello stato |gi, vale:
∞  √ √
X κT sin(gT n) sin(gT n − 1)
Pg = 1 − ρnn (2n − 1) + κ √ −κ √
n=2
4 4g n 4g n − 1
κ h√ √ √
− n(4n − 3) sin(gT n) cos(gT n − 1) (3.85)
4g

√ √ √ i
− n − 1(4n − 1) sin(gT n − 1) cos(gT n)

Si osservi che Pg risulta uguale a 1 per ρ(0) = |gi hg| ⊗ |1i h1|, in quanto l’approssi-
mazione al primo ordine è insufficiente: in questo caso occorre usare la (3.83).

Conclusioni
Concludiamo osservando come lo schema visto, oltre a permetterci una misura della
dinamica di decoerenza dell’atomo e del campo nella cavità, permette una misu-
ra delle deviazioni dalla dinamica di Jaynes-Cummings (3.55) che abbiamo assunto
governare l’interazione atomo-radiazione (in particolare le deviazioni dall’approssi-
mazione di onda rotante).

93
3 – La decoerenza

94
Appendici
Appendice A

La probabilità classica

Il concetto intuitivo di probabilità costituisce la formalizzazione della frequenza re-


lativa con la quale si manifestano certi risultati ripetendo un numero elevato di volte
un esperimento casuale.
Per quanto siano stati fatti dei tentativi di costruire una teoria che fornisca delle
regole per poter calcolare le probabilità di alcuni eventi casuali a partire da altri
basata direttamente sulle frequenze relative, la soluzione più elegante è la formaliz-
zazione assiomatica proposta da Kolmogorov, che assume che a determinati eventi
siano associati dei numeri compresi tra 0 e 1, che vengono chiamati probabilità.
Tale teoria prescinde dall’interpretazione della probabilità come frequenza rela-
tiva, ma tuttavia tale interpretazione resta essenziale ai fini applicativi.
Senza voler essere esaustivi, vediamo pertanto i principi fondamentali della teo-
ria delle probabilità classica (kolmogoroviana), in modo da poterla confrontare con
quella quantistica.

A.1 Lo spazio delle probabilità


Sia U un insieme i cui elementi sono i possibili risultati degli esperimenti: chiame-
remo U spazio campione, e i suoi elementi u ∈ U , punti campione.
Sia poi B una famiglia di sottoinsiemi di U tale che

I. U è un elemento di B;

II. se A e B appartengono a B allora vi appartengono anche gli insiemi A ∪ B,


A ∩ B, A, B (se B soddisfa tali proprietà si parla di campo di eventi ) 1 ;
1
Abbiamo indicato con A ∪ B l’unione dei due insiemi A e B, A ∩ B la loro intersezione, A, B i
complementi rispetto allo spazio campione U , le cui definizioni sono quelle usuali della teoria degli
insiemi.

97
A – La probabilità classica

S
III. (additività
T numerabile) se A1 , A2 , . . . ,An , . . . sono elementi di B anche n An
e n An lo sono.
Se B soddisfa tutte e tre queste proprietà si parla di campo boreliano di eventi o
anche σ-algebra di eventi su U , e gli elementi della famiglia B si diranno eventi
casuali.
Un esempio di σ-algebra su U è l’insieme delle parti di U , ovvero la famiglia di
tutti i sottoinsiemi di U .
Chiameremo eventi elementari gli eventi casuali Ei ∈ B che non sono scomponi-
bili nell’unione di altri due eventi (non vuoti): formalmente @A,B ∈ B − {∅,E i } tali
che Ei = A ∪ B.
Si osservi, tuttavia, che gli eventi elementari non contengono necessariamente un
solo punto campione (anzi, gli insiemi con un solo punto campione potrebbero non
appartenere alla σ-algebra).
Assioma A.1.1 (Probabilità). Ad ogni evento casuale A è associato un numero
non negativo P (A) detto probabilità dell’evento A:

P (A) ≥ 0. (A.1)

Si parla anche di misura di probabilità.


Assioma A.1.2.
P (U ) = 1 (A.2)
Pertanto diremo anche che U rappresenta l’evento certo.
Assioma A.1.3 (della somma, o σ-additività). Se gli eventi A1 , A2 , . . . ,An , . . .
sono eventi incompatibili a due a due (cioè Ai ∩ Aj = ∅ per i 6= j), allora

P (A1 ∪ A2 ∪ · · · ∪ An ∪ . . .) = P (A1 ) + P (A2 ) + . . . + P (An ) + . . . (A.3)

ovvero più sinteticamente



! ∞
[ X
P Ai = P (Ai ) .
i=1 i=1

Definizione A.1.4 (Spazio di Probabilità). Dato uno spazio campione U , una


σ-algebra su di esso e una probabilità P (·), diremo spazio di probabilità la terna
(U,B,P (·)).
Nel caso di uno spazio di probabilità costruito su uno spazio campione con un
numero finito N di punti campione “equiprobabili2 ” si dimostra che una “buona”
2
Sui punti campione non è definita formalmente una misura di probabilità: ci riferiamo qui ad
una nozione intuitiva, per giustificare l’assegnazione di probabilità che stiamo per fare.

98
A.1– Lo spazio delle probabilità

Figura A.1.

assegnazione di probabilità di un evento A è data dal numero di punti campione nA


appartenenti all’evento, diviso il numero totale N di punti campione:
nA
P (A) = . (A.4)
N
Usando gli assiomi si dimostrano alcune notevoli proprietà:
P (∅) = 0 (A.5)
e per ∀A ∈ B
0 ≤ P (A) ≤ 1 (A.6)

P A = 1 − P (A) . (A.7)
Particolarmente importante è il seguente teorema:
Teorema A.1.1 (Regola della somma delle probabilità). Siano A, B due
eventi, allora:
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) (A.8)
Dimostrazione. Si considerino (figura A.1) le identità A1 = A−A∩B, B1 = B−A∩B
ed infine A∪B = A1 ∪B1 ∪(A∩B). Poiché questi ultimi tre eventi (cioè A1 , B1 , A∩B
) sono a due a due incompatibili, in virtù dell’assioma A.1.3 si ha la tesi.
Si osservi che questo teorema esprime una relazione tra grandezze note, in quanto
tutti e quattro gli eventi A, B, A ∪ B, A ∩ B sono eventi del campo di Borel B, e
quindi per ognuno di essi è assegnata, secondo l’assioma A.1.1, una probabilità.
Tuttavia è interessante il caso in cui si assegnano esplicitamente le probabilità
solo per una opportuna famiglia di sottoinsiemi dello spazio campione U , e si usa il
teorema precedente per calcolare le altre. Ancora una volto resta però da verificare se
l’assegnazione iniziale definisca correttamente una probabilità su tutta la σ-algebra
che interessa.

99
A – La probabilità classica

Figura A.2. Rappresentazione insiemistica degli eventi utilizzati per la definizione


della probabilità condizionata.

Probabilità congiunta
È usuale chiamare congiunto l’evento dato dall’intersezione di due eventi (A ∩ B),
corrispondente al verificarsi contemporaneo dei due eventi A e B, e si dice probabilità
congiunta la probabilià dell’evento congiunto P (A ∩ B).
Si osservi che risulta

A∪B =B∪A ⇒ P (A ∪ B) = P (B ∪ A) (A.9a)


A∩B =B∩A ⇒ P (A ∩ B) = P (B ∩ A) (A.9b)

Per quanto ci riguarda considereremo la probabilità congiunta come un semplice


modo per identificare quelle probabilità che si riferiscono all’intersezione di eventi.

A.2 La probabilità condizionata


Definizione A.2.1 (Probabilità condizionata). Dato uno spazio di probabilità
(U,B,P (·)), siano A e B due eventi, con P (B) 6= 0. Definiamo allora la probabilità
condizionata di A rispetto a B (ovvero la probabilità di A condizionata a B) e la
indicheremo con la notazione P (A|B), come

P (A ∩ B)
P (A|B) , . (A.10)
P (B)

La probabilità condizionata di A rispetto a B indica (figura A.2) la probabilità


che si verifichi A, noto che si è verificato (o più semplicemente, “dato”) B, ossia
considerando B come nuovo spazio campione.
Possiamo illustrare ulteriormente la definizione di probabilità condizionata considerando la
definizione di probabilità in termini di frequenze relative.

100
A.2– La probabilità condizionata

Sia
NA
P (A) =
N
con NA le occorrenze dell’evento A ed N il numero totale di volte che un esperimento viene ripetuto;
analogamente per B.
Risulta inoltre
NA∩B
P (A ∩ B) = .
N
Se ora consideriamo B come evento universale, allora per la probabilità di A condizionata
rispetto a B è ragionevole porre
NA∩B NA∩B N P (A ∩ B)
P (A|B) = = = .
NB N NB P (B)

Ovviamente se P (A) 6= 0 possiamo definire la probabilità condizionata di B


rispetto ad A come
P (A ∩ B)
P (B|A) , . (A.11)
P (A)
Una volta fissato l’evento condizionante B, la probabilità condizionata defini-
sce un nuovo spazio di probabilità, in quanto A0 = A|B costituisce un evento che
non appartiene al campo di Borel B: infatti esso è l’evento A ∩ B, considerato
in relazione allo spazio campione U 0 = B. Per cui, definito su U 0 un campo bo-
reliano B 0 , P 0 ( ·) = P ( ·|B) permette di definire un nuovo spazio di probabilità
(U 0 ,B 0 ,P 0 (·)) : la probabilità condizionata (rispetto ad un dato evento B) cosı̀ definita
è una probabilità, nel senso che soddisfa gli assiomi della probabilità.
Occorre verificare che essa soddisfi gli assiomi della probabilità.
Per il primo assioma abbiamo
P (B ∩ B)
P 0 (U 0 ) = P (B|B) = = 1. (A.12)
P (B)

Il secondo poi segue subito dalla non negatività di P (B) e P (A ∩ B), qualunque sia A:

P 0 (A0 ) ≥ 0 (A.13)

Infine per il terzo sull’additività, limitandoci per semplicità a due soli eventi A 01 ,A02 , con A01 ∩
A02 = ∅, (ossia (A1 ∩ B) ∩ (A2 ∩ B) = ∅ ) abbiamo

P 0 (A01 ∪ A02 ) = P (A1 ∪ A2 |B) =


P ((A1 ∪ A2 ) ∩ B)
= =
P (B)
P ((A1 ∩ B) ∪ (A2 ∩ B))
= =
P (B)
P (A1 ∩ B) + P (A2 ∩ B)
= =
P (B)
P (A1 ∩ B) P (A2 ∩ B)
= + =
P (B) P (B)

101
A – La probabilità classica

Figura A.3.

= P (A1 |B) + P (A2 |B) =


= P 0 (A01 ) + P 0 (A02 ). (A.14)

Poniamoci ora il problema di confrontare e mettere in relazione ad esempio i


numeri P (A) e P (A|B): nell’ambito della teoria kolmogoroviana ciò può essere
fatto senza problemi, in quanto dato lo spazio di probabilità (U,B,P (·)), quello
definito dalle probabilità condizionate (U 0 ,B 0 ,P 0 (·)) risulta ben definito.
Ovviamente visto il ruolo simmetrico dei due eventi A e B, definiamo anche la
probabilità di B dato A
P (A ∩ B)
P (B|A) , (A.15)
P (A)
con P (A) > 0.
Tra le probabilità cosı̀ definite valgono, in particolare, le seguenti relazioni:
Teorema A.2.1 (formula di Bayes). Dati lo spazio (U,B,P (·)) e due eventi A, B,
risulta
P (B|A) P (A)
P (A|B) = . (A.16)
P (B)
Dimostrazione. Dalla definizione (A.10) di probabilità condizionate segue che
P (A ∩ B) = P (A|B) P (B) = P (B|A) P (A) (A.17)
e dall’ultima uguaglianza segue subito la tesi.

Teorema A.2.2 (della probabilità composta). Siano A,B,X ∈ B degli eventi


casuali, e sia A ∩ B = ∅, X ⊆ A ∪ B. Allora
P (X) = P (X|A) P (A) + P (X|B) P (B) (A.18)

102
A.3– Prodotto cartesiano di spazi campione

Dimostrazione. La tesi segue facilmente dalla definizione di probabilità condizionata


e dal fatto che la probabilità dell’unione di due eventi disgiunti è la somma delle
probabilità dei due eventi: abbiamo infatti che

X = (X ∩ A) ∪ (X ∩ B), (X ∩ A) ∩ (X ∩ B) = ∅ (A.19)

e quindi
P (X) = P (X ∩ A) + P (X ∩ B) (A.20)
ed essendo
P (X ∩ A) P (X ∩ B)
P (X|A) = , P (X|B) = (A.21)
P (A) P (B)
segue
P (X) = P (A) P (X|A) + P (B) P (X|B) . (A.22)

Teorema A.2.3 (di BayesS della probabilità a posteriori). Sia A1 , . . . ,AN una
partizione di U (ovvero N
j=1 = U , con Aj ∩ Ak = ∅ per j 6= k). Allora risulta

P (Ai ) P (X|Ai )
P (Ai |X) = PN (A.23)
j=1 P (Aj ) P (X|Aj )

Dimostrazione. Dalla formula di Bayes otteniamo


P (Ai ) P (X|Ai )
P (Ai |X) = . (A.24)
P (X)
S
Essendo poi A1 , . . . ,AN una partizione di U , allora X = Nj=1 X ∩Aj , e (X ∩Aj )∩
(X ∩ Ak ) = ∅ per j 6= k, possiamo applicare il teorema della probabilità composta
per calcolare P (X):
XN
P (X) = P (Aj ) P (X|Aj ) (A.25)
j=1

che sostituito nella (A.24) porge la (A.23).

A.3 Prodotto cartesiano di spazi campione


Dati due spazi campione U1 , U2 , sia U = U1 × U2 lo spazio campione ottenuto dal
prodotto cartesiano di U1 e U2 , cioè lo spazio i cui elementi sono u = (u1 , u2 ), con
u1 ∈ U 1 e u 2 ∈ U 2 .

103
A – La probabilità classica

Se E1 ⊂ U1 ed E2 ⊂ U2 , allora possiamo considerare E = E1 × E2 costituito dai


punti (u1 , u2 ) con u1 ∈ E1 , e u2 ∈ E2 .
Chiameremo Ei la proiezione di E su Ui , mentre diremo Ui spazi campioni
marginali (o componenti) di U.
Si osservi che risulta
E1 × ∅ = ∅ × E2 = ∅. (A.26)
Ancora
E1 × E2 = (E1 × U2 ) ∩ (U1 × E2 ) (A.27)
Consideriamo ora i due spazi di probabilità marginali (Ui ,Bi ,Pi (·)), con i = 1,2,
associati ai due spazi campione. Sia B un campo di Borel su U . Assegnamo allora
una probabilità su B ponendo
P (E) = P1 (E1 ) · P2 (E2 ) ∀E = E1 × E2 , Ei ∈ Bi . (A.28)
Tale definizione non risulta definita su tutto B, ma solo sugli eventi del tipo E =
E1 ×E2 . Si dimostra, tuttavia, che essa può essere estesa, e in maniera unica, a tutto
B.
Si dimostra inoltre che questa è una buona definizione di probabilità, nel senso
che soddisfa gli assiomi della probabilità.
Tuttavia, occorre osservare che tale definizione non è la sola possibile in B: se
vale la (A.28) diremo che i due spazi di probabilità componenti sono statisticamente
indipendenti.

A.4 Indipendenza statistica


Vediamo più in dettaglio la nozione di indipendenza statistica3 .
Definizione A.4.1 (Eventi indipendenti). Dati due eventi A, B ∈ B diremo che
essi sono statisticamente indipendenti se
P (A ∩ B) = P (A) P (B) . (A.29)
Possiamo interpretare questa definizione osservando che, in base alle definizioni
di probabilità condizionate, risulta
P (A|B) = P (A) , P (B|A) = P (B) (A.30)
dalla quale è chiaro che per eventi indipendenti il verificarsi di uno dei due non altera
la probabilità che si verifichi l’altro.
Tuttavia le definizioni di probabilità condizionate richiedono che P (A) 6= 0, e
P (B) 6= 0, ed è perciò che la definizione (A.29) è più generale della (A.30).
3
Sebbene abbiamo introdotto tale nozione a proposito della probabilità definita nel prodotto
cartesiano di spazi campione, essa, come vedremo, ha portata generale, e pertanto nel seguito ci
riferiremo ad un generico spazio di probabilità.

104
Appendice B

Processi stocastici

Per processo stocastico (o casuale) si intende in genere un modello probabilistico di


un insieme di forme d’onda.
Con riferimento alle variabili casuali, possiamo dare una definizione più formale
di processo casuale [12]:
Definizione B.1 (Processo casuale). Data una variabile casuale α che può as-
sumere i valori a, e una funzione complessa x(t; a) della variabile reale t, ove a è da
considerarsi come un parametro, chiameremo processo casuale l’insieme di funzioni
x(t; α) associate ai valori assunti dalla variabile casuale α.
Per a fissato, diremo x(t; a) una realizzazione del processo casuale, mentre fis-
sando un particolare istante t0 , ξ0 = x(t0 ; α) altro non è che una variabile casuale.

B.1 Medie temporali


Vediamo come possiamo caratterizzare una generica realizzazione x(t) = x(t; a) di
un processo casuale x(t; α).
Definizione B.2 (media temporale). Definiamo la media temporale di una fun-
zione f (·) di un segnale x(t) come
Z
1 T /2
< f [x(t)] >, lim f [x(t)] dt. (B.1)
T →∞ T −T /2

È facile riconoscere che le medie cosı̀ definite soddisfano le seguenti proprietà:


< x∗ (t) > =< x(t) >∗ (B.2a)
< x(t − τ ) > =< x(t) > ∀τ (B.2b)
< a1 x1 (t) + a2 x2 (t) > = a1 < x1 (t) > +a2 < x2 (t) > (B.2c)
| < x(t)y ∗ (t) > |2 ≤ < |x(t)|2 >< |y(t)|2 > (B.2d)

105
B – Processi stocastici

Alcuni importanti medie sono

• il valor medio: Z T /2
1
x ≡< x(t) >= lim x(t)dt (B.3)
T →∞ T −T /2

• la potenza media:
Z T /2
2 1
Px ≡< |x(t)| >= lim |x(t)|2 dt (B.4)
T →∞ T −T /2

• la funzione di autocorrelazione temporale:


Z T /2
1
Φx (τ ) ≡< x(t)x(t + τ ) >= lim x(t)dt (B.5)
T →∞ T −T /2

B.2 Medie statistiche


Quanto visto nel paragrafo precedente ci dà delle informazioni sulla singola rea-
lizzazione del processo casuale, ma, almeno in generale (si vedano dopo i processi
ergodici), non ci riesce a dire molto sulle proprietà medie delle varie rappresentazioni
del processo casuale. A tal fine, pensando ora al tempo come ad un parametro, in-
trodurremo una descrizione probabilistica dei processo stocastici, e successivamente
delle medie statistiche, che per una dato istante t ci permetteranno di caratterizzare
le varie realizzazioni del processo stocastico.

B.2.1 Densità di probabilità


Si è già detto che fissato un istante t0 in un processo casuale x(t,ξ) si ottiene una
variabile casuale ξ0 = x(t0 ,ξ). Introduciamo le seguenti definizioni:

Definizione B.3. Dato un processo casuale reale x(t; ξ) ∈ R, la funzione di distri-


buzione cumulativa del primo ordine del processo x(t; ξ) è

Fξ (x; t) , P{ξ ≤ x} = P{x(t) ≤ x}. (B.6)

Definizione B.4 (densità di probabilità del primo ordine).


wξ (x,t) , Fξ (x; t). (B.7)
∂x

106
B.2– Medie statistiche

Molto spesso, quando non possono sorgere ambiguità, si userà poi la notazione
semplificata w(x,t).
Possiamo poi pensare di estrarre due (o più) variabili casuali da un processo:

ξ1 = x(t1 ) ξ2 = x(t2 ). (B.8)

Definizione B.5. Chiameremo funzione di distribuzione cumulativa del secondo


ordine del processo x(t) la funzione

Fξ1 ξ2 (x1 ,t1 ; x2 ,t2 ) , P{ξ1 ≤ x1 ; ξ2 ≤ x2 } = P{x(t1 ) ≤ x1 ; x(t2 ) ≤ x2 }. (B.9)

Definizione B.6 (densità di probabilità del secondo ordine).

∂2
wξ1 ξ2 (x1 ,t1 ; x2 ,t2 ) , Fξ ξ (x1 ,t1 ; x2 ,t2 ) (B.10)
∂x1 ∂x2 1 2
e anche in questo caso la si indicherà spesso semplicemente con w(x1 ,t1 ; x2 ,t2 ).
Tralasciamo la generalizzazione a funzioni di distribuzione cumulative e densità
di ordine n, peraltro immediate.

Coppie di processi casuali


Definizione B.7 (Indipendenza statistica). Diremo che due processi casua-
li x(t; ξ) e y(t; η) sono statisticamente indipendenti se le densità di probabilità
congiunte della coppia fattorizzano:

wξ,η (x,t; y,τ ) = wξ (x,t)wη (y,τ ). (B.11)

Si osservi che in questo caso non è corretto scrivere semplicemente w(x,t), visto
che in genere wξ (x,t) 6= wη (x,t).

B.2.2 Medie lineari e quadratiche


Definizione B.8 (Media). Chiameremo media d’insieme (o valore atteso) di un
processo casuale il momento del primo ordine1
Z +∞
mx (t) ≡ E{x(t; ξ)} ≡ E{ξ} , x wξ (x; t) dx (B.12)
−∞

Definizione B.9 (Autocorrelazione).

Cx (t1 ,t2 ) , E{x(t1 )x∗ (t2 )} (B.13)


1
Coerentemente con l’uso che si fa nella teoria dei processi casuali, si indica qui la media
d’insieme con E{x(t; ξ)}, mentre, nel resto della tesi, si è usata la notazione semplificata < x > e .

107
B – Processi stocastici

Nel caso di processi reali si ha


Z Z +∞
Cx (t1 ,t2 ) = x1 x2 wξ1 ξ2 (x1 ,t1 ; x2 ,t2 ) dx1 dx2 . (B.14)
−∞

Nel caso in cui t1 = t2 = t, la funzione di correlazione appena definita prende il


nome di valor quadratico medio del processo casuale e risulta
Z Z +∞
Cx (t,t) = x2 wξξ (x,t; x,t) dx2 . (B.15)
−∞

Nel caso di due processi casuali si generalizza la precedente mediante la defini-


zione della mutua correlazione
Z Z +∞

Cxy (t1 ,t2 ) , E{x(t1 )y (t2 )} = xy wξη (x,t1 ; y,t2 ) dxdy (B.16)
−∞

che, peraltro, è del tutto analoga alla precedente.

Definizione B.10 (Autocovarianza). Si dice autocovarianza del processo x(t)


agli istanti t1 e t2 la media congiunta:

Kx (t1 ,t2 ) , E{[x(t1 ) − mx (t1 )][x(t2 ) − mx (t2 )]∗ }. (B.17)

Si verifica facilmente che risulta

Kx (t1 ,t2 ) = Cx (t1 ,t2 ) − mx (t1 )m∗x (t2 ). (B.18)

Per t1 = t2 = t abbiamo la varianza

σx (t) , Kx (t,t) = Cx (t,t) − |mx (t)|2 . (B.19)

Definizione B.11 (Coeficiente di correlazione).

Kx (t1 ,t2 ) Kx (t1 ,t2 )


ρx (t1 ,t2 ) , =p (B.20)
σx (t1 )σx (t2 ) Kx (t1 ,t1 )Kx (t2 ,t2 )

e per un processo casuale a media nulla si ha


Cx (t1 ,t2 )

ρx (t1 ,t2 ) =p . (B.21)
mx =0 Cx (t1 ,t1 )Cx (t2 ,t2 )

Tralasciamo le definizioni esplicite di covarianza mutua tra due processi casuali,


e delle grandezze derivate, visto che si tratta di una estensione immediata di quanto
visto per un singolo processo casuale.

108
B.2– Medie statistiche

Si osservi tuttavia che se due processi sono statisticamente indipendenti allora


Cxy (t1 ,t2 ) = mx (t1 )m∗y (t2 ) e quindi ρxy (t1 ,t2 ) = 0. Tuttavia non vale il viceversa:
si pensi ad esempio a y(t) = x2 (t), con fξ (x) pari. Questi due processi non sono
statisticamente indipendenti, tuttavia è facile vedere che ρ = 0.
Ciò che quindi possiamo dire è che
(
0 processi non correlati,
ρ= (B.22)
1 processi correlati linearmente.

Tuttavia nel caso di variabili gaussiane si dimostra che la condizione ρ = 0 è


sufficiente a garantire l’indipendenza statistica.
Osserviamo infine che il significato del termine “correlazione” nella teoria delle
probabilità (e in tutti gli ambiti ad essa connessi, come in questo contesto) non
coincide con quello che ha nel linguaggio abituale.
Si consideri, ad esempio, un insieme U di N particelle di spin 1/2, tutte con spin
“in alto”. Sia poi V un insieme sempre di N particelle di spin 1/2, tutte con spin “in
basso”. Possiamo pensare ciascuna particella di U associata ad una di V, e dire che
le componenti lungo la direzione verticale dello spin dei due gruppi sono correlate.

UV P (U V ) P (U ) P (V )
↑U ↓V 1 1 1
↑U ↑V 0 1 0
↓U ↑V 0 0 0
↓U ↓V 0 0 1
Tabella B.1. Eventi possibili e relative probabilità nella scelta di due elementi uno
dall’insieme U con spin verso l’alto (↑U ), l’altro V costituito tutto da particelle con
spin verso il basso (↓V ).

Tuttavia dal punto di vista probabilistico non si ha alcuna correlazione: le proba-


bilità di trovare i quattro possibili risultati [(↑U , ↑V ), (↑U , ↓V ), (↓U , ↑V ), (↓U , ↓V )]
sono (tabella B.1) uguali ai prodotti delle probabilità dei singoli casi, per cui gli
eventi sono statisticamente indipendenti, cioè non correlati.
Si vedano anche gli esempi seguenti.

Segnale determinato. Si consideri una generica funzione f (t): in quanto proces-


so determinato (ossia non casuale) f (t) può essere portato fuori dalle medie. per cui
si ha

mf (t) = f (t) (B.23)


Cf (t1 ,t2 ) = f (t1 )f (t2 ) (B.24)

109
B – Processi stocastici

e in particolare il coefficiente di correlazione è unitario

ρf (t1 ,t2 ) = 1 ∀t1 ,t2 . (B.25)

Lo stesso risultato si ottiene se si considera il coefficiente di correlazione tra due


processi determinati f (t) e g(t).

Sinusoide con ampiezza casuale.

x(t) = A sin(2πf0 t + θ) (B.26)

ove f0 , θ sono costanti, mentre A è una variabile casuale con valor medio mA e
densità di probabilità fA (a).

mx (t) = mA sin(2πf0 t + θ) (B.27)

Cx (t1 ,t2 ) = E{A sin(2πf0 t1 + θ)A sin(2πf0 t2 + θ)}


= E{A2 } {cos[2πf0 (t1 − t2 )] − cos[2πf0 (t1 + t2 ) + 2θ]} (B.28)

Sinusoide con ampiezza e fase casuale.

y(t) = A sin(2πf0 t + θ) (B.29)

ove f0 , è una costante come prima, mentre A e θ sono due variabili casuali statisti-
camente indipendenti. Per A vale quanto detto sopra, mentre per θ assumiamo che
sia uniformemente distribuita nell’intervallo (−π, π).
Tenendo conto dell’indipendenza statistica tra ampiezza e fase si ottiene

my (t) = 0 (B.30)

1
Cy (t1 ,t2 ) = E{A2 } cos[2πf0 (t1 − t2 )] = Cy (t1 − t2 ) (B.31)
2
Si osservi che il campo elettromagnetico emesso da una sorgente termica, non
è ancora adeguatamente descritto mediante un processo casuale di questo tipo, in
quanto, ad esempio, in una realizzazione di y(t) l’ampiezza e la fase restano costanti,
mentre nel campo di cui sopra la fase subisce bruschi cambiamenti in una stessa
realizzazione.

110
B.3– Processi stocastici stazionari

Sinusoide con fase processo casuale.

z(t) = A sin(2πf0 t + θ(t)) (B.32)

ove θ(t) è un processo casuale costante a tratti (nel senso che le sue realizzazioni
sono funzioni costanti a tratti) con valori nell’intervallo (−π,π)

mz (t) = 0 (B.33)

1
Cz (t1 ,t2 ) = Cq (t1 ,t2 ) cos[2πf0 (t1 − t2 )] (B.34)
2

B.3 Processi stocastici stazionari


Definizione B.12 (processo stazionario). Diremo che un processo stocastico è
stazionario di ordine n se

w(x1 ,t1 + τ ; x2 ,t2 + τ ; . . . ; xn ,tn + τ ) = w(x1 ,t1 ; x2 ,t2 ; . . . ; xn ,tn ). (B.35)

Cioè se la densità di probabilità di ordine n è invariante per traslazioni rigide


della n-pla di variabili casuali estratte dal processo.
È poi evidente che nel caso del primo ordine la condizione di stazionarietà equivale
a richiedere che la densità di probabilità del primo ordine sia indipendente dal tempo:
w(x,t) = w(x).

Diremo che un processo è stazionario in senso stretto se è stazionario per ogni


ordine.
Diremo stazionario in senso lato un processo per il quale risultano stazionari la
media e l’autocorrelazione

mx (t) = mx (B.36a)
Cx (t1 ,t2 ) = Cx (t1 − t2 ). (B.36b)

Tuttavia per quanto un processo stazionario al secondo ordine sia stazionario in


senso lato, in generale non vale il viceversa.

B.4 Processi ergodici


Si dicono ergodici quei processi stocastici stazionari per i quali le medie temporali cal-
colate su una qualsiasi realizzazione del processo coincidono con le (corrispondenti)
medie statistiche, calcolate in un qualsiasi istante t.

111
B – Processi stocastici

112
Appendice C

Segnale analitico

Diamo qui dei brevi cenni alla teoria del segnale analitico: per ulteriori dettagli si
può consultare un testo specifico relativo all’analisi dei segnali come [13, cap. 9] o
anche [9, cap. 3], che, pur non essendo un testo specifico, propone un’ottima sintesi,
ed è quello a cui ci rifaremo per le convenzioni.

C.1 Segnale analitico: definizione


Introduciamo uno strumento che sarà utile nella rappresentazione dei campi quasi-
monocromatici.
Sia x(t) una funzione reale a quadrato integrabile, allora si definisce segnale
analitico associato a x(t) la funzione complessa
x̂(t) , F −1 {u(f )X(f )} (C.1)
ove u(f ) indica il gradino unitario, e
Z +∞
X(f ) ≡ F{x(t)} , x(t)ei2πf t dt (C.2)
−∞

la trasformata di Fourier1 di x(t).


Proprio per il fatto di considerare solo le frequenze positive, si usa anche la
notazione
x+ (t) ≡ x̂(t). (C.3)
Ricordando poi che
1 1
F −1 {u(f )} = δ(t) − i (C.4)
2 2πt
1
Si è scelta la convenzione di segno di Mandel e Wolf [9], opposta a quella di [13]. Si può
comunque passare facilmente dall’una all’altra con la posizione i = −j. I segni di alcuni risultati
saranno affetti quindi da tale scelta.

113
C – Segnale analitico

Figura C.1. Relazione tra lo spettro di un segnale e quello del segnale analitico
ad esso associato.

allora si dimostra che possiamo scrivere la (C.1) come


Z +∞
1 1 x(θ)
x̂(t) = x(t) − i dθ (C.5)
2 2π −∞ t−θ

e in particolare
x(t) = 2Re{x̂(t)} = x̂(t) + [x̂(t)]∗ . (C.6)

Segnale analitico di un segnale sinusoidale


Sia
x(t) = A cos(2πf0 t − φ) (C.7a)
usando la formula di Eulero, e ricordando che F{e−i2πf0 t } = δ(f − f0 ), si ottiene
facilmente che
1
x̂(t) = Aeiφ e−i2πf0 t . (C.7b)
2

Segnale analitico di un segnale modulato in ampiezza


Sia ora
y(t) = As(t) cos(2πf0 t − φ) (C.8a)

114
C.2– Segnali quasi-monocromatici ed inviluppo complesso

allora con semplici calcoli si ottiene

1
ŷ(t) = Aeiφ s(t) e−i2πf0 t (C.8b)
2
= s(t)x̂(t). (C.8c)

Tale risultato vale più generale per il prodotto di sue funzioni

y(t) = s(t)z(t) ⇒ ŷ(t) = s(t)ẑ(t) (C.9)

purché s(t) sia a banda strettamente limitata (ossia S(f ) = 0 ∀f : |f | > f max ), e
z(t) sia un segnale passabandaT spettralmente separato da s(t) (ovvero le rispettive
bande non si intersecano: Bs Bz = ∅).

C.2 Segnali quasi-monocromatici ed inviluppo com-


plesso
Consideriamo ora dei segnali a banda stretta, ovvero la cui trasformata di Fourier
sia nulla al di fuori di una banda (precisamente sia diversa da zero solo per |f | ∈
B = (f1 ,f2 ) , con l’origine non appartenete alla banda B).
Supponiamo poi che fissata una frequenza f0 ∈ B risulti

f2 − f 1
1 (C.10)
f0

e in tal caso diremo che il segnale in questione è quasi-monocromatico.


Possiamo pensare allora X(f ) come

X(f ) ≈ X0 (f − f0 ) + X0 (f + f0 ). (C.11)

e tenuto conto delle proprietà della convoluzione, un tale segnale può essere pensato
come un segnale in banda base (per il quale cioè lo spettro è concentrato in un’in-
tervallo contenente l’origine delle frequenze) detto inviluppo complesso modulato da
una portante alla frequenza f0

X(f ) ≈ X0 (f ) ∗ [δ(f − f0 ) + δ(f − f0 )]. (C.12)

In generale tuttavia le relazioni precedenti sono valide solo approssimativamente,


visto che la trasformata di Fourier di un segnale reale deve avere solo una simmetria
rispetto all’origine (dovuta alla relazione X(−f ) = X ∗ (f )), e non una simmetria di
traslazione (si veda anche la figura C.1).

115
C – Segnale analitico

Figura C.2. Inviluppo istantaneo A(t) di un segnale quasi-monocromatico.

Per ottenere una relazione esatta, particolarmente significativa, introduciamo la


funzione
X̃(f − f0 ) , u(f ) X(f ) (C.13)
e l’antitrasformata x̃(t) = F −1 {X̃(f )} è detta inviluppo complesso di x(t). Per
comprenderne il significato si osservi che risulta allora
x̂(t) = F −1 {X̃(f − f0 )} = x̃(t)e−i2πf0 t (C.14)
e quindi possiamo scrivere
x(t) = A(t) cos[2πf0 t − ϕ(t)] (C.15)
ove A(t) = 2|x̃(t)| = 2|x̂(t)| è l’inviluppo istantaneo di x(t), e ϕ(t) = ]x̃(t) la sua
fase istantanea (figura C.2).
Inoltre le ipotesi sulla banda del segnale (in particolare la condizione di quasi-
monocromaticità) ci assicurano che l’inviluppo istantaneo A(t) e la fase istantanea
ϕ(t) varino molto più lentamente della portante a frequenza f0 . Anzi si può dimo-
strare [9] che tra tutti i possibili inviluppi definibili mediante trasformazioni lineari
del segnale reale, quello definito mediante il segnale analitico, in un senso ben preciso,
è quello che varia più lentamente.
In definitiva possiamo dire che un segnale quasi-monocromatico può essere rap-
presentato nella forma
x(t) = A(t) cos[2πf0 t − ϕ(t)] (C.16a)
cui sono associati l’inviluppo complesso
x̃(t) = 2A(t)eiϕ(t) (C.16b)
di cui abbiamo visto l’interpretazione, e il segnale analitico
x̂(t) = 2A(t)eiϕ(t) e−i2pif0 t . (C.16c)

116
C.3– Funzione di correlazione di segnali reali e dei corrispondenti segnali analitici

C.3 Funzione di correlazione di segnali reali e dei


corrispondenti segnali analitici
Ricordiamo alcune proprietà (per la cui dimostrazione di veda [9, §3.1.3]) relative
alla statistica di un processo casuale, e dei corrispondenti segnali analitici e inviluppi
complessi.
Consideriamo un processo casuale (reale) x(t) stazionario in senso lato. Sia x̂(t)
il corrispondente segnale analitico2 ; si ottiene facilmente che

< x(t) >= 0 ⇔ < x̂(t) >= 0. (C.17)

Inoltre anche x̂(t) risulta stazionario in senso lato.


Presi poi due processi stazionari in senso lato x1 (t), x2 (t), per le funzioni di
correlazione si ha,

< x1 (t)x2 (t + τ ) >= 2Re{< x̂∗1 (t)x̂2 (t + τ ) >} (C.18)

ovvero, usando le notazioni


(1)
Gx̂1 x̂2 (τ ) =< x̂∗1 (t)x̂2 (t + τ ) > (C.19a)
G(1)
x1 x2 (τ ) =< x1 (t)x2 (t + τ ) > (C.19b)

si ha
(1)
G(1)
x1 x2 (τ ) = 2Re{Gx̂1 x̂2 (τ )}. (C.20)
(1)
Possiamo anche dire di più, e cioè che Gx̂1 x̂2 (τ ) risulta l’inviluppo complesso di
(1)
Gx1 x2 (τ )
(1)
Gx̂1 x̂2 (τ ) = Ĝ(1)
x1 x2 (τ ) (C.21)
e la (C.18) altro non è che una espressione della (C.6).
Per un singolo processo casuale, x(t) abbiamo che
(1)
G(1)
x (τ ) = 2Re{Gx̂ (τ )}. (C.22)
(1)
Nel caso di un processo quasi-monocromatico, poi, anche Gx (τ ) è quasi-monocro-
(1)
matica, e quindi il suo inviluppo istantaneo sarà dato da 2|Gx̂ (τ )| come mostrato
nella figura C.3.
L’utilizzo del segnale analitico ci permette pertanto di eliminare la parte for-
temente variabile legata alla portante sinusoidale, e concentrarci sulle correlazioni
2
In generale una realizzazione di un processo casuale non è necessariamente ad energia finita,
ovvero a quadrato integrabile. La definizione di segnale analitico va allora estesa opportunamente
nel campo delle funzioni generalizzate (distribuzioni). Tralasceremo nel seguito questi dettagli
matematici.

117
C – Segnale analitico

Figura C.3. Rappresentazione grafica della relazione tra la funzione di correlazio-


(1)
ne Gx (τ ) =< x(t)x(t + τ ) > di un segnale reale quasi-monocromatico e modulo
(1)
della funzione di correlazione Gx̂ (τ ) =< x̂∗ (t)x̂(t + τ ) > del segnale analitico
associato.

dell’inviluppo. In particolare risulta naturale considerare come tempo di correlazione


τc l’estensione temporale dell’inviluppo istantaneo.
Infine osserviamo che, in maniera analoga al caso di un segnale perfettamente mo-
nocromatico, nel calcolo della media del quadrato di un segnale quasi-monocromatico
su un intervallo T pari o superiore al periodo T0 = 1/f0 della portante (ma comun-
que, si veda la figura C.2, molto più piccolo del tempo 1/∆f su cui variano l’invilup-
po istantaneo A(t) e lo sfasamento istantaneo ϕ(t), in modo da poterli considerare
costanti) si ottiene
1
< x2 (t) >T = A2 (t) = 2|x̂(t)|2 . (C.23)
2

118
Appendice D

Sistemi a due stati

Consideriamo un generico sistema a due stati S, descritto mediante lo spazio di


Hilbert bidimensionale Σ.
Siano |ei , |gi i due stati di base, che supporremo essere gli autostati dell’hamil-
toniana H0 del sistema
H0 |ei = E+ |ei (D.1a)
H0 |gi = E− |gi (D.1b)
Assumiamo che tali stati siano ortonormali
he|ei = hg|gi = 1, he|gi = 0 per i,j = e,g (D.2)
pertanto (|ei , |gi) è una base ortonormale di Σ.
Se il sistema si trova inizialmente in uno di tali autostati dell’hamiltoniana, allora
resterà in tale autostato indefinitivamente (a meno di una variazione di fase, del tutto
irrilevante), e pertanto tali autostati si dicono stati stazionari. I due autovalori E ±
sono i due livelli energetici corrispondenti.

D.1 Gli effetti di una perturbazione


Supponiamo ora che il sistema interagisca con qualche altro sistema, e che l’hamil-
toniana che tiene conto dell’interazione sia
H = H0 + Hint (D.3)
ove Hint è propriamente l’hamiltoniana d’interazione, che assumiamo indipendente
dal tempo.
Nella base di autostati (|ei , |gi) di H0 avremo
   
E+ 0 W11 W12
H0 = Hint = (D.4)
0 E− W21 W22

119
D – Sistemi a due stati


con W11 ,W22 ∈ R e W21 = W12 affinché Hint sia hermitiano.

D.1.1 Effetti statici


In generale, per via della perturbazione, gli stati |ei, |gi non saranno più autostati
del sistema. Studiare gli effetti della perturbazione (non necessariamente “piccola”)
comporta allora calcolare i nuovi livelli energetici del sistema e i nuovi autostati
corrispondenti a tali livelli. In particolare gli stati (|ei , |gi) non saranno più stati
stazionari, e vi sarà una certa probabilità Pif (t), di transizione da uno all’altro.
L’equazione agli autovalori per la nuova hamiltoniana è
H |φ± i = E± |φ± i . (D.5)
ove E±0 6= E± , almeno in generale. Gli autovalori risultano
1 1p
E±0 = (E+ + W11 + E− + W22 ) ± (E+ + W11 − E− − W22 )2 + 4|W12 |2 (D.6)
2 2
e gli autovettori
θ −iχ/2 θ
|φ+ i = cos e |ei + sin eiχ/2 |gi (D.7a)
2 2
θ −iχ/2 θ
|φ− i = sin e |ei + cos eiχ/2 |gi (D.7b)
2 2
ove
2|W12 |
tan θ = (D.8)
E1 + W11 − E2 −12
χ = ]W21 ovvero W21 = |W21 |eiχ . (D.9)

D.1.2 Effetti dinamici


L’evoluzione di un generico stato
|ψ(t)i = a1 (t) |ei + a2 (t) |gi (D.10)
è data dall’equazione di Schrödinger
d
i~ |ψ(t)i = (H0 + Hint ) |ψ(t)i . (D.11)
dt
Proiettando sugli stati |ei , |gi si ottiene

 da (t)
 i~ 1 = (E+ + W11 )a1 (t) + W12 a2 (t)
dt (D.12)
 i~ da2 (t) = W a (t) + (E + W )a (t)

21 1 − 22 2
dt

120
D.1– Gli effetti di una perturbazione

la cui soluzione, in virtù delle (D.6) e (D.7a), è immediata e vale


0 0
|ψ(t)i = c+ e−iE+ t/~ |φ+ i + c− e−iE− t/~ |φ− i (D.13)

ove i coefficienti c± sono definiti dalle condizioni iniziali

|ψ(0)i = c+ |φ+ i + c− |φ− i . (D.14)

Se imponiamo ora che lo stato iniziale sia un autostato dell’hamiltoniana imper-


turbata, ad esempio |ei, otteniamo
 
iχ/2 θ θ
|ψ(0)i = |ei = e cos |φ+ i − sin |φ− i (D.15)
2 2

e quindi  
iχ/2 θ 0 θ 0
|ψ(t)i = e cos e−iE+ t/~ |φ+ i − sin e−iE− t/~ |φ+ i (D.16)
2 2
e quindi

Pe→g (t) = |hg|ψ(t)i|2 =


  0 
1 2 E+ − E−0
= sin θ 1 − cos t =
2 ~
 0 
2 2 E+ − E−0
= sin θ sin t . (D.17)
2~
E 0 −E 0
Pe→g (t) oscilla quindi nel tempo tra 0 e sin2 θ con frequenza + h − . Il valore
massimo è sin2 θ, il minimo 0.
Se per semplicità assumiamo W11 = W22 = 0, usando le (D.6) e la (D.8) si ottiene
 
4|W12 |2 2
p t
Pe→g (t) = sin 2
4|W12 | + (E+ − E− ) 2 (D.18)
4|W12 |2 + (E+ − E− )2 2~

nota come formula di Rabi.


E 0 −E 0
Se E1 = E2 allora la frequenza di oscillazione vale + h − = 2|Wh12 | e il valore
massimo di Pe→g (t) è 1: il sistema oscilla tra i due stati |ei e |gi, qualunque sia
W12 6= 0 (tuttavia è frequenza di oscillazione è proporzionale all’accoppiamento
|W12 |).
Il valore di sin2 θ decresce al crescere di E+ − E− , mentre la frequenza di oscilla-
zione cresce. Nel caso di accoppiamento debole E+ − E−  |W12 | si ha sin2 θ  1:
in questo caso E+0 − E−0 ' E+ − E− , e lo stato iniziale |ei è quasi-stazionario.

121
D – Sistemi a due stati

D.2 Le matrici di Pauli


Nello studio dei sistemi a due livelli è utile il formalismo usato inizialmente da Pauli
per descrivere le particelle con spin 1/2: ne vediamo dei brevi richiami.
Nello spazio degli operatori lineari che operano su Σ, e in generale su spazi
bidimensionali1 , gli operatori
 
1 1 0 1
σ 1 = (|ei hg| + |gi he|) = (D.19a)
2 2 1 0
 
1 1 0 −i
σ 2 = i(|gi he| − |ei hg|) = (D.19b)
2 2 i 0
 
1 1 1 0
σ 3 = (|ei he| − |gi hg|) = (D.19c)
2 2 0 −1
 
1 0
1 = |ei he| + |gi hg| = (D.19d)
0 1

formano una base, e i primi tre operatori con le loro rappresentazioni nella base
(|ei , |gi) sono noti come operatori o matrici di Pauli.
Esplicitamente, dato un generico operatore
 
M11 M12
M= (D.20)
M21 M22

possiamo esprimerlo come combinazione delle matrici di Pauli e dell’unità come


segue:

M11 + M22
M= 1 + (M11 − M22 ) σ 3 + (M12 + M21 ) σ 1 + i(M12 − M21 ) σ 2 (D.21)
2
che, con una notazione vettoriale, diventa:

M = a0 1 + a · σ (D.22)

ove a = (a1 , a2 , a3 ) e σ = (σ 1 , σ 2 , σ 3 ), e i coefficienti ai ∈ C possono essere definiti


per semplice confronto con la (D.21).
1
E nel corrispondente spazio C2,2 delle matrici 2 × 2 complesse (sul campo complesso C). In
questo caso la rappresentazione dei vettori di base sarà
   
1 0
|ei = |gi = .
0 1

122
D.2– Le matrici di Pauli

D.2.1 Studio degli operatori di Pauli


Osserviamo subito che gli operatori di Pauli sono hermitiani

σ i = σ †i i = 1,2,3 (D.23)

Inoltre
1
σ i σ †i = σ i σ i = 1 i = 1,2,3 (D.24)
4
e ricordando che un operatore U per il quale risulti UU† = U† U = 1 si dice unitario,
allora 2σ i sono unitari.
Infine le matrici di Pauli definite nella (D.19) hanno la stessa equazione caratte-
ristica
1
λ2 − = 0 (D.25)
4
e quindi gli stessi autovalori
1
λ± = ± . (D.26)
2

L’operatore σ 3

Per quanto riguarda σ 3 si ha:

1 1
σ 3 |ei = |ei , σ 3 |gi = − |gi (D.27)
2 2

gli stessi stati di base sono, cioè, autostati di σ 3 .

Gli operatori σ 1 , σ 2

Per quanto riguarda gli autovettori, tralasciamo lo studio di quelli di σ 1 e σ 2 , peral-


tro molto semplice algebricamente ma di difficile interpretazione da punto di vista
fisico. Consideriamo invece l’azione di σ 1 , σ 2 sugli stati di base:

1 1
σ 1 |ei = |gi σ 1 |gi = |ei (D.28a)
2 2
1 1
σ 2 |ei = i |gi σ 2 |gi = − i |ei (D.28b)
2 2

dalle quali si intuisce che tali operatori quando applicati su uno degli stati di base
permettono si ottenere, a meno di una costante moltiplicativa, l’altro.

123
D – Sistemi a due stati

Gli operatori σ ±
Introduciamo ora delle opportune combinazioni lineari di σ 1 , σ 2 che troveremo
particolarmente utili. Poniamo
 
0 0
σ + , σ 1 + i σ 2 = |ei hg| = (D.29a)
1 0
 
0 1
σ − , σ 1 − i σ 2 = |gi he| = . (D.29b)
0 0
Osserviamo subito che applicando questi operatori agli stati di base |ei , |gi si
ha
σ + |ei = 0 σ + |gi = |ei (D.30a)
σ − |gi = 0 σ − |ei = |gi . (D.30b)
σ + permette di passare da |gi a |ei, ma non il viceversa, visto che se applicato a |ei
produce il vettore nullo, privo di alcun significato fisico. Analogamente σ − permette
di passare solo da |ei a |gi.
Si osservi poi che
σ + = (σ − )† (D.31)
per cui sovente si usa la notazione semplificata σ − ≡ σ, e σ + ≡ σ † .

L’interpretazione fisica
A questo punto, tenuto conto della (D.27) e delle (D.30), possiamo pensare ai due sta-
ti |ei , |gi come corrispondenti a due livelli energetici ± (figura D.1) e l’hamiltoniana
di un tale sistema sarà data da
h = + |ei he| + − |gi hg| (D.32)
e cosı̀ facendo infatti risulta
h |ei = + |ei , h |gi = − |gi . (D.33)

Riferimento delle energie intermedio. Se ora assumiamo come origine delle


energie il valor medio 0 = (+ − − )/2, posto ∆ = + − − , avremo che
∆ ∆
h0 = |ei he| − |gi hg| = ∆ σ 3 (D.34)
2 2
ovvero ± = ± ∆2 .
Si vede allora come |ei corrisponde al livello energetico superiore (con energia
+ = ∆2 ), |gi a quello inferiore (con energia − = − ∆2 ), e gli operatori σ ± permettono
di incrementare o decrementare2 il livello energetico del sistema (con l’accortezza di
annullare lo stato se si va fuori dai limiti consentiti).

124
D.2– Le matrici di Pauli

Figura D.1. Livelli energetici di un sistema a 2 livelli. A sinistra non è specificato


lo zero delle energie, mentre a destra si è assunto uno zero al centro dei due livelli.

Riferimento delle energie ad − . D’altra parte se assumiamo come riferimento


il livello energetico inferiore, ossia − = 0, allora la (D.32) diventa
h− = ∆ |ei he| = ∆ σ + σ − (D.35)
e + = ∆.
Resta tuttavia immutato il significato fisico dei due stati: si è solo mutato il
riferimento rispetto al quale si misurano le energie.

I proiettori Pe e Pg
Altri due interessanti operatori sono quelli di proiezione
   
1 0 0 0
Pe = |ei he| = , Pg = |gi hg| = (D.36)
0 0 0 1
e la loro azione sugli stati di base è
Pe |ei = |ei Pe |gi = 0 (D.37a)
Pg |gi = |gi Pg |ei = 0. (D.37b)
2
Ciò è da intendersi in senso puramente formale, visto che gli operatori σ ± non sono hermitiani
(ma piuttosto σ + = σ †− ) e quindi non corrispondono ad una grandezza misurabile, né tantomeno
sono unitari, e quindi non possono essere assunti come un operatore di evoluzione temporale.
Volendo fare un’analogia, si può pensare agli operatori di creazione e annichilazione per un
sistema fermionico (con una sola particella), in cui |gi = |0f i sia lo stato di base senza alcuna
particella, e |ei = |1f i sia lo stato con la particella presente.

125
D – Sistemi a due stati

Com’è evidente essi hanno autovalori 0 e 1, ed autovettori gli stessi stati base (esat-
tamente per Pe all’autovalore 0 corrisponde l’autostato |gi, mentre all’autovalore 1
corrisponde |ei, viceversa per Pg ).
Nel caso di un generico stato |ψi = α |ei + β |gi avremo allora:
Pe |ψi = α |ei Pg |ψi = β |gi . (D.38)
L’interpretazione fisica di tali operatori è ora piuttosto semplice (come peral-
tro nel caso di un generico proiettore): la misura del proiettore Pe su un sistema
(preparato) nello stato |ψi = α |ei + β |gi fornirà con probabilità |P e |ψi |2 = |α|2
il risultato 1 (corrispondente all’ autostato |ei), e probabilità |P g |ψi |2 = |β|2 il ri-
sultato 0 (corrispondente all’ autostato |gi). Il valor medio delle misure sarà allora
< Pe >= |α|2 .
Analogamente per la misura di Pg su un sistema (preparato) sempre nello stato
|ψi fornirà con probabilità |Pe |ψi |2 = |α|2 il risultato 0 (corrispondente all’ auto-
stato |ei), e probabilità |Pg |ψi |2 = |β|2 il risultato 1 (corrispondente all’ autostato
|gi), e il valor medio delle misure sarà sarà allora < Pg >= |β|2 .

Conclusioni
Oltre ai tre operatori di Pauli (e all’operatore identità) abbiamo introdotto due
coppie di operatori: gli operatori di incremento/decremento del livello energetico
σ ± e i proiettori Pe e Pg . Si è visto poi come tali operatori agiscono nei confronti
degli stati di base |ei , |gi, e i risultati sono riassunti nella tabella D.1.
Possiamo ora vedere come questi operatori agiscono su di un generico stato |ψi =
α |ei + β |gi:
1
σ 1 |ψi = (α |gi + β |ei) (D.39)
2
1
σ 2 |ψi = i(α |gi − β |ei) (D.40)
2
1
σ 3 |ψi = (α |ei − β |gi) (D.41)
2
Si osservi che mentre tutti questi operatori sono osservabili, e quindi si può pensare
ad essi sia come corrispondenti ad una misura.
Si consideri, ad esempio, l’operatore σ 3 : nella (D.34) si è visto che la stessa
hamiltoniana del sistema a 2 livelli può essere espressa (con un opportuno riferimento
per le energie) in termini di σ 3 :
h0 = ∆σ 3 (D.42)
pertanto in questo caso possiamo pensare σ 3 come corrispondente alla misura del-
l’energia del sistema (in particolare, gli autovalori sono proporzionali ai possibili
risultati di una misura di energia).

126
D.2– Le matrici di Pauli

D’altra parte, visto che 2σ 3 risulta unitario, possiamo pensare tale operatore
come l’operatore di evoluzione temporale (per un dato intervallo di tempo) di un
qualche sistema3
U = |ei he| − |gi hg| = 2σ 3 . (D.44)
In tal caso, è proprio l’effetto di σ 3 sui vettori ad interessarci in quanto le (D.27)
esprimono realmente una trasformazione fisica del sistema (più o meno idealizzata):
il sistema evolve con una dinamica che comporta uno sfasamento tra i due stati di
base.
Nel caso di misure sul sistema due casi particolarmente significativi sono quelli
degli operatori di proiezione, di cui si è già detto in precedenza. In questo caso
|Pe |ψi |2 = |α|2 (risp. |Pg |ψi |2 = |β|2 ) è la probabilità di rilevare il sistema nello
stato |ei (risp. |gi) nella misura di un qualsiasi osservabile che abbia |±i come
autostati (e che quindi ha espressione generale A = a1 |ei he| + a2 |gi hg|).
Infine σ ± non sono né hermitiani né unitari, e pertanto essi vanno intesi solo come
operatori ausiliari, privi di un significato fisico diretto. È innegabile, tuttavia, la loro
utilità formale: molte osservabili si possono esprimere in termini di tali operatori,
ed è pertanto bene tenere presente come essi agiscono su di un generico stato |ψi.
Si trova facilmente

σ + |ψi = β |ei (D.45)


σ − |ψi = α |gi (D.46)

ma come detto prima a queste relazioni non corrisponde nessuna misura, né una
eventuale evoluzione dinamica del sistema.

D.2.2 Ulteriori proprietà delle matrici di Pauli


Le matrici di Pauli godono di alcune proprietà notevoli, in particolare posto σ̂ j =
2 σ j , risulta

det σ̂ j = −1 (D.47)
Tr σ̂ j = 0 j=1,2,3 (D.48)
σ̂ 2j = 1 (D.49)
σ̂ 1 σ̂ 2 = −σ̂ 2 σ̂ 1 = iσ̂ 3 (D.50)
σ̂ 1 σ̂ 2 σ̂ 3 = 1 (D.51)
3
Esplicitamente un tale sistema è uno con hamiltoniana

hkick = ~πσ †3 σ 3 δ(t − τ ) (D.43)

ove τ è l’istante in cui si verifica lo sfasamento.

127
D – Sistemi a due stati

operatore definizione |ei |gi α |ei + β |gi note


1 1 1 1
σ1 2
(|ei hg|
+ |gi he|) 2
|gi 2
|ei 2
(α |gi + β |ei) hermitiano,
2σ 1 unitario
1 1
σ2 2
i(|gi he| − |ei hg|) 2
i |gi − 21 i |ei 1
2
i(α |gi − β |ei) hermitiano,
2iσ 2 unitario
1 1
σ3 2
(|ei he| − |gi hg|) 2
|ei − 21 |gi 1
2
(α |ei − β |gi) hermitiano,
2σ 3 unitario
σ+ |ei hg| 0 |ei β |ei non hermitiano
σ− |gi he| |gi 0 α |gi non hermitiano
Pe |ei he| |ei 0 α |ei hermitiano
Pg |gi hg| 0 |gi β |gi hermitiano

Tabella D.1. Riepilogo dell’azione dei vari operatori sugli stati di base, e su un
generico stato |ψi. Si osservi che per operatori che agiscono su spazi a dimensione
finita, gli operatori osservabili coincidono con quelli hermitiani.

e tutte le altre equazioni analoghe alla (D.50) ottenibili permutando ciclicamente gli
indici.
Dalla (D.50) e dalle equazioni analoghe si ottiene poi:
[σ 1 ,σ 2 ] = iσ 3 (D.52a)
[σ 2 ,σ 3 ] = iσ 1 (D.52b)
[σ 3 ,σ 1 ] = iσ 2 (D.52c)
che sono delle proprietà tipiche degli operatori di momento angolare: esse sono ca-
ratteristiche degli operatori di Pauli, tanto che a partire dalle (D.52) è possibile
derivare tutte le altre proprietà viste prima, studiare lo spettro e ricavare anche le
(D.19) che abbiamo usato per definire gli operatori, in maniera peraltro molto ele-
gante (non occorre riferirsi ad una specifica rappresentazione, come invece abbiamo
dovuto fare nelle (D.19)) e generale (ovvero non legata al numero di dimensioni dello
spazio).
Viceversa le matrici di Pauli anticommutano:
{σ 1 ,σ 2 } = σ 1 σ 2 + σ 2 σ 1 = 0 (D.53a)
1
{σ 1 ,σ 1 } = {σ 2 ,σ 2 } = 1 (D.53b)
2
e analoghe relazioni valgono permutando gli indici.
Dalle definizioni (D.29) si ottiene poi
σ + σ − = |ei he| = Pe (D.54a)
σ − σ + = |gi hg| = Pg (D.54b)

128
D.2– Le matrici di Pauli

e quindi le relazioni di commutazione

[σ + ,σ − ] = 2 σ 3 (D.55)

e quelle di anticommutazione

{σ + ,σ + } = {σ − ,σ − } = 0 (D.56a)
{σ + ,σ − } = 1 (D.56b)

che ci confermano che gli operatori σ ± sono operatori fermionici (si veda quanto
detto nella nota 2, a pagina 125).

129
D – Sistemi a due stati

130
Appendice E

Il formalismo dell’operatore
densità

E.1 L’operatore densità


E.1.1 Introduzione
In meccanica quantistica si usano dei vettori per descrivere lo stato di un sistema.A
partire dai vettori di stato il formalismo della meccanica quantistica ci permette
di fare delle previsioni circa i risultati degli esperimenti cui possiamo sottoporre il
nostro sistema.
Tuttavia si può dare il caso di una conoscenza imprecisa circa lo stato di un
sistema: si pone allora la necessità di estendere tale formalismo in modo da poter
trattare efficientemente anche tali casi.

Stati puri
Iniziamo con il richiamare alcune definizioni e relazioni note.
Dato un sistema, diciamo che il sistema si trova in uno stato puro se lo stato
microscopico del sistema è perfettamente conosciuto. Un tale sistema viene descritto
da un vettore |ψi appartenete ad uno spazio di Hilbert Σ.
Sia poi (|ϕi i) una base ortonormale di Σ.
La proprietà di “base” ovvero di completezza è espressa dalla relazione (detta di chiu-
sura)
X
|ϕi i hϕi | = 1 (E.1)
i

ed esprime il fatto che qualsiasi vettore dello spazio Σ è esprimibile come combinazione
lineare dei vettori della base.

131
E – Il formalismo dell’operatore densità

La proprietà di ortonormalità è invece espressa da

hϕi |ϕj i = δij . (E.2)

I vettori della base possono essere scelti tra autostati di un insieme completo di osser-
vabili che commutano (in inglese Complete Set of Commuting Observables o brevemente
C.S.C.O. e spesso si usa pure la dicitura test massimale o completo in quanto nell’e-
sperimento che corrisponde ad un C.S.C.O. il numero di possibili risultati è il massimo
possibile).
Si osservi che, dato uno stato puro è possibile effettuare un’opportuna scelta delle
osservabili in modo che lo stato puro, sia lui stesso un autostato (basta considerare P =
|ψi hψ| come una delle osservabili) e quindi anche un elemento della base, per cui, in
una tale base tutti i coefficienti della combinazione lineare sono nulli, tranne uno. In
termini operazionistici ciò vuol dire che per uno stato puro esiste un test completo per il
quale possiamo predire con certezza (ovvero con probabilità uguale a uno) il risultato che
avremmo se lo effettuassimo sul sistema che si trova in uno stato puro.
Il vettore |ψi è esprimibile allora come combinazione lineare dei vettori della base
X
|ψi = αi |ϕi i (E.3)
i

ove i coefficienti αi sono dati dalle proiezioni del vettore di stato sugli elementi della base:
αi = hϕi |ψi. Inoltre supporremo spesso in seguito che i vettori di stato siano normalizzati,
cioè |hψ|ψi|2 = 1.
Ricordiamo poi, che se una grandezza fisica A viene misurata su di un sistema (pre-
parato) nello stato |ψi la probabilità di ottenere come risultato della misura l’autovalore
an della corrispondente osservabile A è data da

P (an ) = |hun |ψi|2 = hun |ψi∗ hun |ψi = hψ|un ihun |ψi = hψ| Pn |ψi (E.4)

ove |un i è l’autovettore (o autostato) normalizzato dell’operatore A corrispondente al-


l’autovalore an e Pn ≡ |un i hun | è il proiettore sull’autospazio associato all’autovalore
an 1 .
Il valor medio della misura dell’osservabile A è dato dalla media dei possibili risultati

1
Qualora lo spettro di A fosse degenere allora la formula precedente va sostituita con

gn
X
P (an ) = |huin |ψi|2
i=1


ove gn è il grado di degenerazione dell’autovalore an e { uin } un insieme ortonormale di autovettori
che forma un base dell’autospazio Σn associato all’autovalore an .

132
E.1– L’operatore densità

pesati secondo le probabilità che si ha di ottenerli, cioè:


X
< A >|ψi ≡ P (an ) an
n
X
= an hψ|un ihun |ψi
n
X
= hψ| A |un i hun |ψi = hψ| A |ψi (E.5)
n
X
= hψ|un i hun | A |um i hum |ψi
n,m
X
= c∗n cm Anm
n,m

ove Anm = hun | A |um i è l’elemento di matrice di posizione n m della matrice corri-
spondente all’operatore A, e cn = hun |ψi sono le proiezioni del vettore di stato sugli
autostati2 .
Infine l’equazione che regola l’evoluzione temporale dello stato per un sistema che
all’istante t0 sia nello stato |ψ(t0 )i, è data da

d
i~ |ψ(t)i = H(t) |ψ(t)i (E.6)
dt
ove H(t) è l’hamiltoniana del sistema.

Miscele statistiche
Supponiamo ora di sapere soltantoP che il sistema si trovi nello stato |ψi i con probabilità
pi , con i = 1, . . . , N , e ovviamente i pi = 1. Diremo allora che il sistema si trova in una
miscela statistica degli stati |ψ1 i , . . . , |ψN i con probabilità p1 , . . . , pN .
Poiché la (E.4) ci permette di fare delle previsioni circa i risultati di un esperimento a
partire dagli stati |ψi i,allora per tenere conto del fatto che conosciamo solo la probalilità
che il nostro sistema sia in un certo stato basta pesare tali previsioni con le probabilità p i .
Si tenga presente comunque che le probalilità pi sono evidentemente epistemiche, cioè
dovute ad una nostra ignoranza circa lo stato effettivo del sistema. Ben diversa invece
sono le probabilità che ci vengono forniti dalla meccanica quantistica (sebbene sulla precisa
natura di queste ultime il dibattito sia tutt’ora piuttosto vivo).

E.1.2 Gli stati puri


Introduciamo una descrizione alternativa per gli stati puri, che ci risulterà utile nel caso
delle miscele.
2
P
Per le osservabili gli autostati formano una
P base per cui n |un i hun | = 1 e l’espressione del
vettore di stato |ψi in tale base risulta |ψi = n cn |un i.

133
E – Il formalismo dell’operatore densità

Definiamo l’operatore densità corrispondente ad un sistema nello statu puro |ψ(t)i

ρ(t) , |ψ(t)i hψ(t)| . (E.7)

Tale definizione risulta ragionevole se si osserva che nella (E.5) figura il termine

c∗n cm = hun |ψi∗ hum |ψi = hum |ψihψ|un i = hum | ρ |un i

per cui il valor medio di un osservabile sarà esprimibile mediante l’operatore densità come
X X
< A >= hum | ρ |un i Anm = ρmn Anm (E.8)
m,n m,n

conviene comunque rielaborare tale espressione per ottenerne una più compatta; usando
la relazione di chiusura per gli autostati si ottiene
X X
< A >= hum | ρ |un i hun | A |um i = hum | ρA |um i = Tr {ρA} (E.9)
m,n m

ove si è introdotta la traccia di un operatore definita come


X X
Tr A , hun | A |un i = Ann (E.10)
n n

essendo Ann gli elementi di matrice diagonali della rappresentazione dell’operatore A nella
base scelta.
Come si vede si riesce a dare una espressione semplice del valor medio di un operatore in
termini dell’operatore densità, e questa descrizione evidenzia la dipendenza lineare dallo
stato, cosa che non era evidente nella (E.5), vista addirittura la presenza del termine
quadratico cm c∗n .
Un ulteriore vantaggio della rappresentazione di uno stato puro mediante l’operatore
densità consiste nel fatto che mentre un vettore di stato è determinato a meno di un fattore
di fase arbitrario (|ψi e eiθ |ψi rappresentano lo stesso stato), l’operatore densità, come
si vede facilmente dalla (E.7) non presenta tale indeterminazione: esso è unico per ogni
stato3 .
Non resta che vedere come calcolare la probabilità P (an ) e l’evoluzione temporale per
avere tutti gli strumenti per poter utilizzare l’operatore densità al posto dei vettori di
stato.
3
Poiché i vettori di stato erano assunti di norma unitaria, per l’operatore densità relativo al
caso puro risulta
ρ2 = |ψi hψ| |ψi hψ| = ρ
e X X X X
Tr ρ = hun | ρ |un i = hun | |ψi hψ| |un i = c∗n cn = |cn |2 = 1.
n n n n
2
Tr ρ = Tr ρ = 1
Si tenga presente che queste due proprietà sono valide solo per gli operatori densità associati ad
uno stato puro, mentre, come vedremo, non sono valide nel caso generale delle miscele statistiche.

134
E.1– L’operatore densità

La probabilità P (an ) dalla (E.4) risulta uguale al valor medio del proiettore Pn , ed
usando la (E.9) si ottiene

P (an ) = hψ| Pn |ψi = Tr {ρPn }. (E.11)

Infine l’equazione di evoluzione temporale si ottiene direttamente calcolando la derivata


dell’operatore densità
d d d|ψ(t)i dhψ(t)|
ρ(t) = (|ψ(t)i hψ(t)|) = hψ(t)| + |ψ(t)i (E.12)
dt dt dt dt
ed usando la (E.6) e la sua hermitiana coniugata4
d 1 1
ρ(t) = H(t) |ψ(t)i hψ(t)| + |ψ(t)i H(t) hψ(t)|
dt i~ −i~
1
= (H(t)ρ(t) − H(t)ρ(t)) (E.13)
i~
1
= [H(t),ρ(t)]
i~
ovvero
d
i~ ρ(t) = [H(t),ρ(t)]. (E.14)
dt

E.1.3 Le miscele statistiche


Consideriamo ora il caso generale di una miscela statistica.
Sia dato un sistema del quale P sappiamo che si può trovare nello stato |ψi i con proba-
bilità pi , con i = 1, . . . , N , e i pi = 1.
Come già accennato possiamo calcolare la probabilità P (a n ) di ottenere un certo ri-
sultato an mediando le probabilità Pi (an ) di trovare il risultato an se il sistema fosse nello
stato |ψi i secondo le probabilità pi che il sistema ha di trovarsi nello stato |ψi i, per cui
otteniamo X
P (an ) = pi Pi (an ) (E.15)
i
e ricordando la (E.11) che ora vale Pi (an ) = Tr {ρi Pn }, con ρi = |ψi i hψi |, si ha
( )
X X
P (an ) = pi Tr {ρi Pn } = Tr pi ρi Pn ≡ Tr {ρ Pn } (E.16)
i i

avendo posto X
ρ, pi ρi . (E.17)
i
4
Basta calcolare l’hermitiano coniugato di ambo i membri della (E.6) che si ottiene
d
−i~ hψ(t)| = hψ(t)| H(t)
dt
essendo ovviamente H† = H.

135
E – Il formalismo dell’operatore densità

che costituisce la definizione dell’operatore densità del sistema in considerazione 5 .


Come nel caso puro, ricaviamo per l’operatore densità le espressioni del valor medio
di un operatore e l’equazione di evoluzione temporale.
Dato una miscela statistica ρ il valor medio di un operatore A risulta
X X
< A >= P (an ) an = Tr {ρ Pn } an = Tr {ρA}
n n
P
ove si è tenuto conto del fatto che A = n a n Pn . In sintesi si ha

< A >= Tr {ρA} . (E.18)

Con A = Pn abbiamo ancora

P (an ) = Tr {ρPn }. (E.19)

Passiamo ora all’evoluzione temporale. Assumiamo ora che, contrariamente allo stato,
l’hamiltoniana del sistema H(t) sia perfettamente nota.
Se all’istante iniziale t0 il sistema è descritto dall’operatore densità ρ(t0 ) (cioè il sistema
è nello stato |ψi (t0 )i con probabilità pi ) allora all’istante t il sistema si troverà in una
miscela statistica di stati descritta dall’operatore densità ρ(t), soluzione dell’equazione

d
i~ ρ(t) = [H(t), ρ(t)] (E.20)
dt

generalmente nota come equazione di von Neumann o anche equazione (quantistica) di


Liouville.
Per ricavarla basta osservare che per ciascuno degli stati |ψi (t)i risulta valida l’equa-
zione di evoluzione temporale (E.6) e per il corrispondente operatore densità ρ i (t) vale la
(E.14) per cui

d d X X 1 1
ρ(t) = pi ρi (t) = [H(t), ρi (t)] = [H(t), ρ(t)] (E.21)
dt dt i~ i~
i i

da cui segue la (E.20).


Si osservi poi, che, nel caso di miscele statistiche, in generale, ρ2 6= ρ, e quindi Tr ρ2 ≤ 1.
Infine è facile verificare dalla definizione che ρ è un operatore positivo, ovvero

hu| ρ |ui ≥ 0 ∀ |ui (E.22)


P P
infatti hu| ρ |ui = k pk hu| ρk |ui = k pk |hu|ψk i|2 ≥ 0.
5
Per semplicità di notazione non si è indicata la dipendenza temporale, che ovviamente va
sempre tenuta in conto: ρ = ρ(t).

136
E.1– L’operatore densità

Popolazioni e correlazioni
Consideriamo gli elementi di matrice ρnn dell’operatore ρ nella base (|un i), di autovettori.
Dalla definizione (E.7) si ha
X
ρnn = pi [ρi ]nn (E.23)
i

Ricordando che ρi = |ψi i hψi |, siano

c(i)
n = hun |ψi i (E.24)
P (i)
le componenti di |ψi i nella base |un i (ovvero |ψi i = n cn |un i), il cui significato fisico è
(i)
il solito, cioè, |cn |2 indica la probabilità che un sistema preparato nello stato |ψi i risulti,
a seguito di una misura, nello stato |un i.
Risulta allora X
ρnn = pi |c(i)
n |
2
(E.25)
i
(i)
la cui interpretazione, tenuto conto del significato fisico di pi , e di |cn |2 è: ρnn rappresenta
la media delle probabilità di trovare il sistema nello stato |un i. Pertanto ci si riferisce a
ρnn come alla popolazione dello stato |un i.
In maniera analoga a quanto visto sopra si ha
X
ρnm = pi c(i)
n cm
(i)∗
(E.26)
i

(i) (i)∗
e il termine cn cm è un temine incrociato del tipo di quelli che si hanno quando due stati
interferiscono, e quindi ρnm è la media, sui possibili stati della miscela, di questi termini
incrociati. Si noti poi ρnm essendo la somma di numeri complessi può risultare nulla anche
senza che i singoli addendi siano nulli: in media gli effetti dell’interferenza tra i due stati
|ni e |mi non sono visibili. Se d’altra parte ρnm 6= 0 allora si può pensare alla presenza
di una certa correlazione tra i due stati in questione, da cui il nome di correlazioni (o
coerenze) per i termini non diagonali del tipo ρnm .
Usando il fatto che ρ è un operatore positivo (E.22) allora risulta

ρnn ρpp ≥ |ρnp |2 (E.27)

ovvero che ci possono essere coerenze solo tra stati popolati.

Osservazioni. Si badi bene che la distinzione tra popolazioni (di uno stato) e coerenze
(tra due stati) è relativa ad una data base dello spazio degli stati.
In particolare, visto che l’operatore densità è hermitiano, esso è allora anche diagona-
lizzabile, ovvero esiste una base ortonormale (|φi i) in cui ρ risulta diagonale. In tale base
il sistema risulta una miscela statistica degli stati |φi i, senza tuttavia che fra di essi vi sia
nessuna coerenza.

137
E – Il formalismo dell’operatore densità

P
|ψi ρ = |ψi hψ| ρ= i pi ρ i

P (an ) |hun |ψi|2 Tr {ρ(t)Pn } Tr {ρPn }

P ∗
Valor medio < A > hψ| A |ψi = n,m cn cm Anm Tr {ρ(t)A} Tr {ρ(t)A}

d d d
Evoluzione temporale i~ dt |ψ(t)i = H(t) |ψ(t)i i~ dt ρ(t) = [H(t), ρ(t)] i~ dt ρ(t) = [H(t), ρ(t)]

Normalizzazione hψ|ψi = 1 ρ2 = ρ , Tr ρ2 = 1 ρ2 6= ρ, Tr ρ2 ≤ 1

Tabella E.1. Vettori di stato e operatore densità.

Conclusioni
Riportiamo nella tabella E.1 i risultati più significativi.

Forme alternative dell’equazione di evoluzione temporale


Ricordiamo che l’equazione di evoluzione temporale per l’operatore densità (equazione di
von Neumann, (E.20)) vale
i~ ρ̇(t) = [H(t), ρ(t)] (E.28)

che riscriviamo nella forma (equazione di Liouville)

i
ρ̇(t) = [H(t), ρ(t)]
~
ovvero

ρ̇(t) = Lρ (E.29)

avendo definito l’operatore di Liouville come

i
Lρ(t) , [H(t), ρ(t)]. (E.30)
~

Nel caso di un’hamiltoniana che non dipende esplicitamente dal tempo, possiamo
risolvere formalmente la (E.29) ottenendo

ρ(t) = eL t ρ(0) (E.31)

138
E.1– L’operatore densità

E.1.4 I sistemi composti


Si supponga che lo spazio Σ sia il prodotto tensoriale di due spazi Σ = Σ1 ⊗ Σ2 e sia
(|φm i) (rispettivamente (|ϕn i)) una base ortonormale di Σ1 (risp. Σ2 ). Sia infine ρ un
operatore densità su Σ.
Possiamo allora introdurre l’operatore

TrΣ2 ρ = ρ(1) (E.32)

come l’operatore i cui elementi di matrice sono dati da


X
ρ(1)m0 m00 = hφm0 | hϕn | ρ |φm00 i |ϕn i (E.33)
n
P
e analogamente TrΣ1 ρ = ρ(2) con ρ(2)n0 n00 = m hφm | hϕn0 | ρ |φm i |ϕn00 i.
Risulta
Tr ρ = TrΣ1 (TrΣ2 ρ) = TrΣ2 (TrΣ1 ρ). (E.34)
Si osservi che se il sistema globale è in uno stato prodotto diretto ρ = σ(1) ⊗ τ (2)
allora ρ(1) ≡ TrΣ2 ρ = σ(1) e ρ(2) ≡ TrΣ1 ρ = τ (2). In generale però (se cioè il sistema non
è in uno stato prodotto diretto) ρ(1) ⊗ ρ(2) 6= ρ, e ciò per via delle correlazioni presenti
tra i sistemi che compongono il sistema globale.
e
Consideriamo ora l’osservabile A(1) che agisce sullo spazio Σ(1), e A(1) = A(1)⊗1(2)la
sua estensione in Σ.
e
Applicando la (E.18), e tenendo conto il valor medio di A(1) risulta
n o
e
< A(1) >= Tr ρA(1)e = Tr {ρ(1)A(1)} (E.35)

in base alla quale ρ(1) ci permette di calcolare i valori medi delle osservabili relative al
primo sistema, come se questo fosse un sistema isolato con operatore densità ρ(1).
Tenuto conto della (E.19), possiamo dire, infine, lo stesso delle probabilità di ottenere
determinati risultati relativi solo al primo sistema.

139
E – Il formalismo dell’operatore densità

E.2 La master equation


Dato un sistema composto descritto mediante una matrice densità ρ tot , abbiamo visto nella
(E.20) la legge di evoluzione temporale per ρtot (t). Quando si considera però solo uno dei
sottosistemi, non è nota una espressione esatta, almeno nel caso generale, dell’equazione
di evoluzione temporale della matrice densità del sottosistema in questione, anzi potrebbe
anche non esiste affatto un’equazione differenziale capace di descriverne l’evoluzione tem-
porale. Se esiste chiameremo master equation l’equazione, in genere approssimata, per
l’evoluzione temporale del sottosistema cui siamo interessati.
Un caso classico in cui si presenta una tale situazione è quella di un sistema in interazio-
ne con un bagno termico, e quello appena esposto è un metodo per introdurre e descrivere
dei meccanismi dissipativi all’interno del formalismo della meccanica quantistica.

E.2.1 Calcolo della master equation con il metodo delle per-


turbazioni
Consideriamo allora un sistema S, descritto dall’hamiltoniana HS accoppiato ad un ser-
batoio 6 R con hamiltoniana HR , e sia Hint l’hamiltoniana di interazione.
L’hamiltoniana totale del sistema composto sarà

Htot = HS + HR + Hint . (E.36)

Sia ora ρtot (t) la matrice densità del sistema composto, la cui equazione di evoluzione
temporale risulta, nella rappresentazione di interazione

dρtot (t)
i~ = [V(t), ρtot (t)] (E.37)
dt
ove si è evidenziata la dipendenza dal tempo, e si è posto

V(t) = U† (t) Hint (t) U(t)

essendo U(t) l’operatore di evoluzione del sistema composto imperturbato 7 .


Ci proponiamo di trovare una equazione di evoluzione temporale per la matrice densità
ridotta ρ relativa al solo sistema S. È noto [3] che la matrice densità ridotta del sistema
6
Il concetto di bagno termico o serbatoio di calore cui si fa qui riferimento si rifa a quella
della termodinamica in cui un tale sistema è capace di scambiare energia con un altro sistema,
generalmente molto più piccolo, senza modificare significativamente il proprio livello energetico.
7
Se HS e HR non dipendono dal tempo allora

i
U(t) = exp[− (HS + HR )t]. (E.38)
~
Si osservi poi che anche la matrice densità che figura nella (E.37) è data nella rappresentazione
di interazione.

140
E.2– La master equation

S si trova facilmente a partire da quella del sistema composto mediante l’operazione di


traccia parziale sul sistema che vogliamo ignorare (R)

ρ = TrR {ρtot }. (E.39)

Integrando ambo i membri della (E.37) otteniamo


Z
1 t
ρtot (t) = ρtot (0) + dt1 [V(t1 ), ρtot (t1 )] (E.40)
i~ 0
ed iterando il procedimento per esprimere l’operatore densità presente al secondo membro,
si ottiene

ρtot (t) = ρtot (0)+


∞  n Z
X t Z tn−1
1
+ dt1 . . . dtn [V(t1 ), . . . , [V(tn ), ρtot (0)]]. (E.41)
i~ 0 0
n=1

Per perturbazioni “piccole”, e ragionevole considerate un numero finito di termini, e nel


nostro caso assumiamo di poterci fermare al secondo ordine (n = 2).
Considerando la traccia parziale rispetto al serbatoio si ottiene un’espressione per la
matrice densità ridotta:

ρ(t) = ρ(0)+
∞  n Z t
X Z tn−1
1
+ dt1 . . . dtn TrR {[V(t1 ), . . . , [V(tn ), ρtot (0)]]}. (E.42)
i~ 0 0
n=1

Se ore assumiamo che inizialmente il sistema e il serbatoio siano in uno stato prodotto
diretto (cioè non entangled ) avremo che

ρtot (0) = ρR ⊗ ρ(0) (E.43)

e quindi possiamo riscrivere la (E.42) come

ρ(t) = [1 + G1 (t) + G2 (t) + . . .] ρ(0)


= G(t) ρ(0) (E.44)

ove
Z t
1
G1 = TrR dt1 [U(t1 ), ρR ⊗ (·)] (E.45a)
i~ t0
Z t Z t1
1
G2 = − 2 TrR dt1 dt2 [U(t1 ), [U(t2 ) ρR ⊗ (·)]] (E.45b)
~ t0 t0

e in generale
 n Z t Z tn−1
1
Gn = TrR dt1 . . . dtn [V(t1 ), . . . , [V(tn ), ρR ⊗ (·)]] (E.45c)
i~ t0 t0

141
E – Il formalismo dell’operatore densità

con t0 = 0, nel nostro caso.


Differenziando poi rispetto al tempo, e osservando che dalla (E.44) ρ(0) = G −1 (t) ρ(t),
si ha

= [Ġ1 (t) + Ġ1 (t) + . . .] ρ(0)
dt
= [Ġ1 (t) + Ġ1 (t) + . . .] G−1 (t) ρ(t)
= l(t)ρ(t) (E.46)

e l(t) è detto il generatore dell’evoluzione temporale per ρ.


Se a questo punto assumiamo che la perturbazione V(t) sia sufficientemente piccola
possiamo limitarci a considerare so i termini lineari e quadratici nella perturbazione V,
per cui otteniamo, a meno di termini di ordine superiore

= [Ġ1 (t) + Ġ2 (t) − Ġ1 (t)G1 (t)] ρ(t) (E.47)
dt
ove
1
Ġ1 (t) ρ(t) = TrR [V(t), ρR ⊗ ρ(t)] (E.48a)
i~
Z t
1
Ġ2 (t) ρ(t) = − 2 dt0 TrR [V(t), [V(t0 ), ρR ⊗ ρ(t)]] (E.48b)
~ 0
Z t
1
Ġ1 (t)G1 (t) ρ(t) = − 2 TrR [V(t), ρR ⊗ (·)] dt1 TrR [U(t1 ), ρR ⊗ ρ(t)]
~ 0
Z t
1
=− 2 dt0 TrR [V(t), ρR ⊗ TrR [V(t0 ), ρR ⊗ ρ(t)]]. (E.48c)
~ 0

La (E.47) esprime, nella rappresentazione di interazione, l’equazione di evoluzione tempo-


rale (approssimata) che cercavamo, indicata usualmente come master equation. Ricordia-
mo che essa è stata ottenuta sostanzialmente sotto due ipotesi

I. lo stato iniziale è uno stato non entangled,

II. è buona l’approssimazione al secondo ordine in V(t).

142
Bibliografia

[1] L. Accardi. Urne e camaleonti. Il Saggiatore, Milano, 1997.


[2] C. Anastopoulos. Frequently asked question about decoherence. quant-ph/0011123,
2000.
[3] C. Cohen-Tannoudji, B. Diu, and F. Laloë. Quantum Mechanics. Wiley-Interscience,
1977.
[4] W. Feller. An Introduction to Probability Theory and Its Applications. John Wiley
& Sons, Inc., New York, 2 v. 2nd edition, 1958-’71.
[5] R. Feynman and A. Hibbs. Quantum mechanics and path integrals. McGraw-Hill,
New York, 1965.
[6] R. Feynman, R. Leighton, and M. Sands. The Feynman Lectures of Physics, volume 3.
Addison-Wesley, Reading, 1965.
[7] E. Goldin. Waves and photons: an introduction to quantum optics. John Wiley &
Sons, Inc., New York, 1982.
[8] W. Lauterborn, T. Kurz, and M. Wiesenfeldt. Coherent optics: fundamentals and
applications. Springer-Verlag, Berlin Heildeberg, 1995.
[9] L. Mandel and E. Wolf. Optical coherence and quantum optics. Cambridge University
Press, Cambridge, 1995.
[10] G. Morigi, E. Solano, B.-G. Englert, and H. Walter. Measuring irreversible dynamics
of a quantum harmonic oscillator. quant-ph/0108082, 2001. Submitted to Phys. Rev.
A.
[11] A. Peres. Quantum Theory: Concepts and Methods. Kluwer Academic Publisher,
Dordrecht, 1993.
[12] L. Lo Presti e F. Neri. Introduzione ai processi casuali. CLUT, Torino, 1992.
[13] L. Lo Presti e F. Neri. L’analisi dei segnali. CLUT, Torino, 1992.
[14] J. von Neumann. I Fondamenti Matematici della Meccanica Quantistica. Il
Poligrafico, Padova, 1988.
[15] D. Walls and G. Milburn. Quantum Optics. Springer, Berlin, 1994.
[16] W. Zurek. Pointer basis of quantum apparatus: into what mixture does the packet
collapse. Phys. Rev. D, 24(6):1516–1525, 1981.
[17] W. Zurek. Environment-induced superselection rules. Phys. Rev. D, 26(8):1862–1880,
1982.
[18] W. Zurek. Decoherence and the transition from quantum to classical. Physics Today,
44:36–44, 1991.

143

Potrebbero piacerti anche