Sei sulla pagina 1di 250

Appunti di Metodi Matematici della Fisica II

Carlo Maria Bertoni

Anno Accademico 2003-2004


Indice

I Polinomi, Funzioni Speciali, Equazioni Differenziali. 2


1 Serie di potenze, Polinomi Ortogonali e Polinomi Ortogonali
Classici. 3
1.1 Serie di potenze. . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Polinomi ortogonali. . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Polinomi Ortogonali Classici. . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Polinomi di Hermite . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Polinomi di Laguerre. . . . . . . . . . . . . . . . . . . . . 14
1.3.3 Polinomi di Jacobi. . . . . . . . . . . . . . . . . . . . . . . 15
1.3.4 Polinomi di Legendre. . . . . . . . . . . . . . . . . . . . . 17

2 Equazioni differenziali ordinarie lineari. 19


2.1 Risoluzione diretta di una equazione del primo ordine. . . . . . . 19
2.2 Le equazioni lineari omogenee del secondo ordine. . . . . . . . . . 20
2.3 Il Wronskiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Un metodo per trovare u2 (x), nota u1 (x). . . . . . . . . . . . . . 22
2.5 Equazione del secondo ordine non omogenea. . . . . . . . . . . . 24
2.6 Soluzioni nell’intorno di un punto ordinario. . . . . . . . . . . . . 25
2.7 Soluzioni nell’intorno di un punto singolare isolato. . . . . . . . . 27
2.8 Punti singolari regolari. . . . . . . . . . . . . . . . . . . . . . . . 30
2.9 Studio nell’intorno del punto all’infinito. . . . . . . . . . . . . . . 32
2.10 Equazioni Fuchsiane con tre punti singolari isolati. . . . . . . . . 34
2.11 L’equazione ipergeometrica. . . . . . . . . . . . . . . . . . . . . . 37
2.12 Le soluzioni dell’equazione ipergeometrica. . . . . . . . . . . . . . 38
2.13 Le funzioni di Legendre. . . . . . . . . . . . . . . . . . . . . . . . 44
2.14 Le funzioni di Legendre con indice intero. . . . . . . . . . . . . . 46
2.15 Polinomi di Legendre e funzioni associate. . . . . . . . . . . . . . 46
2.16 L’equazione ipergeometrica confluente. . . . . . . . . . . . . . . . 48
2.17 La funzione ipergeometrica confluente. . . . . . . . . . . . . . . . 49
2.18 La funzione ipergeometrica confluente di seconda specie. . . . . . 53
2.19 La forma di Whittaker della equazione ipergeometrica confluente. 54
2.20 Le Funzioni di Bessel. . . . . . . . . . . . . . . . . . . . . . . . . 56
2.21 Funzioni di Bessel di ordine intero. . . . . . . . . . . . . . . . . . 60
2.22 Funzioni di Bessel di ordine semintero. . . . . . . . . . . . . . . . 61

1
2.23 Le funzioni di Bessel sferiche. . . . . . . . . . . . . . . . . . . . . 63

3 Operatori Integrali e Differenziali. Funzioni di Green. 65


3.1 Una premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.2 Operatori integrali. . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.3 Operatori differenziali lineari. . . . . . . . . . . . . . . . . . . . . 70
3.4 Operatori differenziali ed equazioni differenziali. . . . . . . . . . . 71
3.5 Condizioni al contorno. . . . . . . . . . . . . . . . . . . . . . . . . 73
3.6 Operatori autoaggiunti del secondo ordine. . . . . . . . . . . . . 75
3.7 Le Funzioni di Green. . . . . . . . . . . . . . . . . . . . . . . . . 78
3.8 Le funzioni di Green generalizzate. . . . . . . . . . . . . . . . . . 84
3.9 Condizioni al contorno non omogenee (cenno). . . . . . . . . . . . 86
3.10 Il Problema di Sturm-Liouville. . . . . . . . . . . . . . . . . . . . 87

4 Equazioni differenziali alle derivate parziali. 91


4.1 Equazioni del secondo ordine quasi-lineari. . . . . . . . . . . . . . 92
4.2 Condizioni al contorno. . . . . . . . . . . . . . . . . . . . . . . . . 97
4.3 Trasformate di Fourier e distribuzioni multidimensionali. . . . . . 101
4.4 Le funzioni di Green per le equazioni alle derivate parziali. . . . . 102
4.5 Operatori differenziali in coordinate curvilinee ortogonali in 3D. . 109
4.6 L’equazione di Laplace in 3D in coordinate polari sferiche. . . . . 111
4.7 L’ equazione di Schrödinger radiale per l’atomo di idrogeno. . . . 117

II Rotazioni, Momento angolare, Teoria dei Gruppi. 122


5 Rotazioni e momento angolare. 123
5.1 Rotazioni in 3D. . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.2 Il momento angolare in meccanica quantistica. . . . . . . . . . . 125
5.3 Spin 1/2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.4 Rotazioni per Stati con Spin 1/2. . . . . . . . . . . . . . . . . . . 132
5.5 Angoli di Eulero e operatori di rotazione. . . . . . . . . . . . . . 136
5.6 Costruzione delle rappresentazioni del gruppo delle rotazioni. . . 138
5.7 SU (2) e SO(3). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.8 Il Momento Angolare Orbitale e le Armoniche Sferiche. . . . . . . 144
5.9 Le rappresentazioni unitarie irriducibili del gruppo delle rotazioni. 147
5.10 Composizione di due momenti angolari. . . . . . . . . . . . . . . 150
5.11 I coefficienti di Clebsch-Gordan. . . . . . . . . . . . . . . . . . . . 151
5.12 Relazioni di ricorrenza dei coefficienti di C.-G. . . . . . . . . . . . 154
5.13 Funzioni spin-orbitali. . . . . . . . . . . . . . . . . . . . . . . . . 158
5.14 Operatori Vettoriali. . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.15 Tensori Cartesiani e Tensori Sferici. . . . . . . . . . . . . . . . . . 162
5.16 Teorema di Wigner-Eckart. . . . . . . . . . . . . . . . . . . . . . 165
5.17 Applicazioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
5.18 Applicazioni alla fisica atomica . . . . . . . . . . . . . . . . . . . 168
5.19 Applicazioni alla fisica nucleare. . . . . . . . . . . . . . . . . . . . 172

2
6 Gruppi di Lie ed Algebre di Lie. 178
6.1 Elementi di teoria dei gruppi. . . . . . . . . . . . . . . . . . . . . 179
6.2 Gruppi di Lie lineari. . . . . . . . . . . . . . . . . . . . . . . . . . 180
6.3 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
6.4 Esponenziale di una matrice, mappe esponenziali. . . . . . . . . . 186
6.5 Sottogruppi ad un solo parametro. . . . . . . . . . . . . . . . . . 186
6.6 Algebre di Lie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
6.7 Gruppi di Lie e Algebre di Lie semisemplici. . . . . . . . . . . . . 195
6.8 Un invariante di Casimir. . . . . . . . . . . . . . . . . . . . . . . 200
6.9 Le rappresentazioni dei generatori. . . . . . . . . . . . . . . . . . 201
6.10 Radici e pesi di un’algebra semplice. . . . . . . . . . . . . . . . . 203
6.11 Il gruppo SU (3). . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
6.12 Radici semplici. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
6.13 Ancora su SU (3). . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
6.14 Metodi Tensoriali. . . . . . . . . . . . . . . . . . . . . . . . . . . 221
6.15 Decomposizione di Clebsch-Gordan dei tensori SU (3). . . . . . . 223
6.16 Diagrammi di Young. . . . . . . . . . . . . . . . . . . . . . . . . 226
6.17 Applicazioni alla Fisica delle particelle. Ipercarica e stranezza. . 231

7 Gruppi finiti. 235


7.1 Elementi di teoria dei gruppi finiti. . . . . . . . . . . . . . . . . . 235
7.2 Alcuni esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
7.3 Le rappresentazioni dei gruppi finiti. . . . . . . . . . . . . . . . . 239
7.4 Carattere di una rappresentazione. . . . . . . . . . . . . . . . . . 243
7.5 Scomposizione di una rappresentazione. . . . . . . . . . . . . . . 244
7.6 La rappresentazione regolare. . . . . . . . . . . . . . . . . . . . . 245
7.7 Applicazioni in Fisica. . . . . . . . . . . . . . . . . . . . . . . . . 247

3
Parte I

Polinomi, Funzioni Speciali,


Equazioni Differenziali.

4
Capitolo 1

Serie di potenze, Polinomi


Ortogonali e Polinomi
Ortogonali Classici.

Richiameremo in questo capitolo alcuni concetti sviluppati nel primo corso di


metodi relativi agli sviluppi in serie, utilizzando il linguaggio relativo agli spazi
vettoriali infinito-dimensionali, in particolare lo spazio L2w (a, b). Passeremo dai
richiami sullo sviluppo in serie di potenze allo studio dei sistemi costituiti dai
polinomi ortogonali, per studiare poi i polinomi ortogonali classici, le loro propri-
età e le equazioni differenziali agli autovalori di cui sono soluzioni. E’ un primo
passo verso lo studio più generale delle equazioni differenziali e delle funzioni
speciali della fisica.

1.1 Serie di potenze.


Il concetto di base in uno spazio vettoriale può essere generalizzato al caso di
una base infinita. In particolare lo spazio delle funzioni f (x) ∈ L2w (a, b) è
uno spazio vettoriale infinito-dimensionale. Ciascun elemento di tale spazio può
essere pensato come il limite, nel senso di limite in media, di una combinazione
lineare di un numero finito di addendi, tutti appartenenti ad un insieme infinito
ma numerabile di funzioni {fn (x)}. Un tale insieme di funzioni si dice un insieme
completo di funzioni in L2w (a, b). La convergenza in media comporta che

Z 2
b n
X

lim f (x) − ci fi (x) w(x)dx = 0.
n→∞ a
i=0

La funzione peso w(x) è reale e positiva per a < x < b.


Vale il Teorema di Weierstrass: La funzione f (x) continua nell’interval-
lo chiuso [a, b] può essere approssimata da un polinomio di opportuno grado

5
n pn (x), ovvero esiste per qualunque  > 0 un polinomio pn (x) di n−esimo
grado,con n = n() tale che

|f (x) − pn (x)| <  per x ∈ [a, b]

Ogni funzione continua può quindi essere approssimata uniformemente in un


qualunque intervallo chiuso, ad ogni livello di accuratezza, da una combinazione
lineare di funzioni appartenenti alla successione di potenze

1, x, x2 , x3 , ..., xn , ...

che formano una base in L2w [a, b].


Il teorema di Weierstrass può essere esteso al caso di funzioni di più variabili
reali f (x1 , x2 , ..., xs ) continue nell’intervallo

ai ≤ xi ≤ b i (i = 1, 2, ..., s)

che possono essere approssimate a qualunque livello di precisione da una com-


binazione lineare di monomi

xm 1 m2 ms
1 x2 ...xs

con mi ≥ 0 ed intero.
Ritornando al caso delle funzioni di una sola variabile, la convergenza uni-
forme implica la convergenza in media, requisito molto più debole. La funzione
continua f (x) è la rappresentazione di un vettore | f > ∈ L2w (a, b); i polinomi
pn (x) rappresentano i vettori | pn > che sono combinazioni lineari di

| 0 >, | 1 >, | 2 >, ..., | n >

che sono (n + 1) vettori linearmente indipendenti, corrispondenti alle funzioni

1, x, x2 , ..., xn .

La convergenza uniforme implica che, se n > n̄()


Z b Z b
2
|f (x) − pn (x)| w(x)dx < 2 w(x)dx
a a
ovvero Z b
2
lim ρ(| pn >, | f >) ≡ |f (x) − pn (x)| w(x)dx = 0
n→∞ a
Si dimostra poi il seguente teorema:
Dato qualunque | f > ∈ L2w (a, b), esiste una successione di vettori | fn > ∈
2
Lw (a, b), ciascuno dei quali corrisponde ad una funzione continua fn (x), definita
a meno di una funzione nulla quasi dappertutto, che converge a | f >.
Conseguenza di ciò è che | f > ∈ L2w (a, b) è il limite di una successione di
combinzioni lineari di vettori corrispondenti alle potenze xn , ovvero

ρ(| f >, | pn >) = ρ(| f >, | fn >) + ρ(| fn >, | pn >) ≤  per n > ñ().

6
1.2 Polinomi ortogonali.
Riprendendo la notazione usuale per le funzioni, dalla successione {xn }, con
n = 0, 1, 2, ..., è possibile ricavare, con il procedimento di ortogonalizzazione
di Schmidt, in un qualunque intaervallo (a, b), rispetto a qualunque funzione
peso w(x) ≥ 0, la successione di polinomi {Pn (x)}, ciascuno dei quali ha grado
uguale all’indice n.
Z b
Pn (x)Pm (x)w(x)dx = 0 per n 6= m (1.1)
a

Si può allora scrivere


n
X
xn = cl Pl (x)
l=0

con i coefficienti della combinazione lineare scelti opportunamente. Segue allora


che un qualunque polinomio Πm (x) di grado m è scrivibile come
m
X
Πm (x) = ak Pk (x) (1.2)
k=0

Dalla (1.1) e dalla (1.2), segue che un qualunque polinomio Πm (x) di grado
m è ortogonale a tutti i polinomi ortogonali Pl (x) con l > m
Z b
(Πm , Pl ) ≡ Πm (x)Pl (x)w(x)dx = 0. (1.3)
a

Unicità. Se {Pn (x)} è un sistema di polinomi ortogonali in [a, b] rispetto


alla funzione peso w(x), ogni polinomio è determinato univocamente a meno di
una costante moltiplicativa.
La dimostrazione procede per induzione completa: la tesi è vera per P0 (x).
Se si suppone vera per Pn−1 (x), si può mostrare che è vera per Pn (x). Infatti
si può scrivere
n−1
X
Pn (x) = ak Pk (x) + Kn xn
k=0

Moltilplicando scalarmente per Pi (x), rispetto al peso w(x), tenendo conto


dell’ortogonalità si ha

(Pi , Pn ) = ai (Pi , Pi ) + Kn (Pi , xn )

Poichè il prodotto scalare (Pi , Pn ) deve essere nullo, si ha

(Pi , xn )
ai = −Kn
(Pi , Pi )

ovvero i coefficienti di Pn (x) sono determinati a meno di una costante Kn , che


definisce la standardizzazione del sistema di polinomi ortogonali.

7
Zeri dei polinomi ortogonali. Gli zeri di un sistema di polinomi ortogonali
sono tutti semplici ed interni all’intervallo chiuso [a, b].
Gli zeri non posson essere più di n. Supponiamo che m di questi x1 , x2 , ..., xm ,
con m ≤ n siano interni all’intervallo [a, b] e di ordine dispari. Si costruisca il
polinomio Πm (x) di grado m

Πm (x) = (x − x1 )(x − x2 )...(x − xm ) per m > 0


Πm (x) = 1 per m = 0.
Per m > 0 Πm (x) ha m zeri distinti del primo ordine. Avendo gli stessi zeri
di ordine dispari di Pn (x), Πm (x) cambia segno come Pn (x) quando x passa
attraverso xi , quindi il prodotto

Πm (x)Pn (x)w(x)

è positivo quasi ovunque e


Z b
Πm (x)Pn (x)w(x)dx > 0
a

Ciò è impossibile se m < n, quindi m = n, ovvero gli zeri sono n e quindi sono
zeri semplici e interni all’intervallo [a, b].
P∞
Un altro teorema. Sia f (x) una funzione continua in [a, b] e sia k=0 ck Pk (x)
la sua serie di Fourier rispetto al sistema di polinomi ortogonali {Pn (x)} . La
ridotta n−esima
Xn
Sn (x) = ck Pk (x) (1.4)
k=0

di tale sviluppo coincide con la f (x) in almeno n + 1 punti interni ad [a, b].
Dimostrazione. Siano x1 , x2 , ..., xm gli zeri dispari della funzione continua

f (x) − Sn (x)

interni ad [a, b]. Costruisco il polinomio

Πm (x) = (x − x1 )(x − x2 )...(x − xm )

che, essendo di grado m, posso scrivere come


m
X
Πm (x) = al Pl (x). (1.5)
l=0

Segue che
Z b
J= (f (x) − Sn (x))Πm (x)w(x)dx 6= 0 (1.6)
a

8
se m è il numero degli zeri di f (x) − Sn (x). Sostituendo la (1.4) e la (1.5) nella
relazione (1.6), possiamo riscrivere la J come
X∞ Xm Z
J= ck al Pk (x)Pl (x)w(x)dx
k=n+1 l=0

che risulta, per l’ortogonalità, diverso da zero se compaiono nella somma termini
con k = l ovvero se m ≥ n + 1. Allora gli zeri di f (x) − Sn (x) sono almeno
n + 1 in [a, b] e questi sono dispari.

Vi è poi una realazione di ricorrenza valida per un sistema qualunque di


polinomi ortogonali. Posto

kn = coefficiente di xn in Pn (x) 6= 0 (1.7)


0
kn = coefficiente di xn−1 in Pn (x) (1.8)
kn0 kn+1
rn = An = Bn = An (rn+1 − rn ) (1.9)
kn kn
Z b
hn = (Pn , Pn ) = |pn (x)|2 w(x)dx (1.10)
a
so che esistono n coefficienti reali ak tali che
n
X
Pn+1 (x) − An xPn (x) = ak Pk (x) (1.11)
k=0

Moltiplicando scalarmente per Pl (x) con l ≤ n − 2, otteniamo


Z b Z b Xn Z b
Pn+1 (x)Pl (x)w(x)dx−An Pn (x)Pl (x)w(x)dx = ak Pk (x)Pl (x)w(x)dx.
a a k=0 a

I due termini a sinistra dell’uguale sono nulli per ortogonalità e uno solo sop-
pravvive a destra per cui
Z b
0 = al [Pl (x)]2 w(x)dx ⇒ al = 0 per l ≤n−2
a

Si ha allora

Pn+1 (x) − An xPn (x) = an Pn (x) + an−1 Pn−1 (x) (1.12)

dove rimangono da determinare i coefficienti an e an−1 . Eguagliando i coeffici-


enti di xn a destra e sinistra dell’uguale si ha
0 0
kn+1 − An kn = an kn ,

da cui 0
kn+1 k0
an = An − An n = (rn+1 − rn )An = Bn .
kn+1 kn

9
Questa relazione ci permette di determinare il coefficiente an . Sostituiamo
quest’ultimo nella relazione (1.12)ed otteniamo

Pn+1 (x) = (An x + Bn )Pn (x) + an−1 Pn−1 (x)

Ora rimane da determinare il solo coefficiente an−1 . Moltiplicando scalarmente


entrambi i membri di questa espressione per Pn−1 (x), ricordando che ciascon
polinomio del sistema è ortogonale ad un qualunque polinomio di grado inferiore
e che
kn−1
Pn−1 (x)x = Pn (x) + Πn−1 (x)
k
Q
dove n−1 (x) è un polinomio di grado n − 1, otteniamo
Z b Z b
2
an−1 [Pn−1 (x)] w(x)dx = −An Pn−1 (x)xPn (x)w(x)dx =
a a
Z b  
kn−1 2 kn−1
= −An [Pn (x)] + Πn−1 (x)Pn (x) w(x)dx = −An hn
a kn kn
ovvero
kn−1
an−1 hn−1 = −An
hn
kn
da cui è possibile ricavare il coefficiente an−1 che diviene
kn−1 hn A n hn
an−1 = −An =−
kn hn−1 An−1 hn−1
Posto
A n hn
Cn = −an−1 = (1.13)
An−1 hn−1
la formula di ricorrenza di un sistema di polinomi ortogonali è la seguente

Pn+1 (x) = (An x + Bn )Pn (x) − Cn Pn−1 (x) (1.14)

dove i valori delle costanti sono legati alle precedenti relazioni.

1.3 Polinomi Ortogonali Classici.


Particolare importanza hanno i polinomi ortogonali classici che si possono ri-
cavare dalla espressione
1 dn
Pn (x) = [w(x)sn (x)] n (0, 1, 2, ...) (1.15)
w(x) dxn
dove; 1) P1 (x) è un polinomio di primo grado; 2) s(x) è un polinomio in x
di grado ≤ 2 con radici reali; 3) w(x) è una funzione reale con la proprietà
w(x) ≥ 0, integrabile in [a, b]; 4) inoltre è verificata la condizione

w(a)s(a) = w(b)s(b) = 0

10
ove a e b sono gli estremi di un intervallo finito o i limiti di un intervallo infinito.
Queste condizioni sono piuttosto restrittive. Pn (x) è un polinomio di grado n
in x, i polinomi {Pn (x)} costituiscono un sistema di funzioni ortogonali. Anche
la funzione peso w(x) appartiene ad una speciale classe di funzioni. Tutto questo
si dimostra a partire da due Lemmi ricavabili dalla (1.15). Si veda in proposito
P. Dennery, A. Krzywicki, pp.203-205 o il Rossetti, pp. 339-344..
Possiamo distinguere tre casi:
CASO A
2
s(x) = 1 w(x) = e−x a = −∞ b = +∞

i polinomi sono detti Polinomi di Hermite

Hn (x) n = 0, 1, 2, ... −∞≤x ≤∞

CASO B

s(x) = x w(x) = xν e−x a=0 b = +∞

i polinomi sono detti Polinomi di Laguerre

Lνn (x) n = 0, 1, 2, ... 0 ≤ x ≤ +∞

CASO C

s(x) = 1 − x2 w(x) = (1 − x)ν (1 + x)µ a = −1 b = +1

i polinomi sono detti Polinomi di Jacobi

Pn(ν,µ) (x) n = 0, 1, 2, ... − 1 ≤ x ≤ +1

Si può modificare la (1.15) inserendo una costante di standardizzazione, otte-


nendo cosı̀ la Formula di Rodriguez generalizzata
1 1 dn
Pn (x) = [w(x)sn (x)] n (0, 1, 2, ...) (1.16)
Kn w(x) dxn
dove il simbolo Kn va distinto dal già utilizzato coefficiente kn .

I Polinomi Ortogonali Classici (POC) godono di alcune proprietà generali


che possono essere facilmente dimostrate (indicheremo via via un suggerimento
per ricavare ogni dimostrazione delle proprietà enunciate, che sono comunque
ritrovabili su testi specializzati).

Equazione differenziale dei POC.

 
n − 1 00
s(x)Pn00 (x)+K1 P1 (x)Pn0 (x)+λn Pn (x) =0 con λn = −n K1 k1 + s (x)
2
(1.17)

11
Per la dimostrazione occorre porre
Z(x) = Dn+1 {s(x)D[w(x)sn (x)]}
dove Dn+1 è la derivata (n + 1)-esima; riscrivere la (1.16) come
Kn w(x)Pn (x) = Dn [w(x)sn (x)] (1.18)
e utilizzando la formula di Leibnitz per la derivata n−esima di un prodotto:
D(f g) = f 0 g + f g 0
D2 (f g) = f 00 g + 2f 0 g 0 + f g 00
D3 (f g) = f 000 g + 3f 00 g 0 + 3f 0 g 00 + f g 000
...
     
n n n n n−1 1 n
D (f g) = D (f )g + D (f )D (g) + Dn−2 (f )D2 (g) + ...
0 1 2
   
n 1 n−1 n
... + D (f )D (g) + f Dn (g)
1 n

Formula per la derivata dei POC.


hn i
s(x)Pn0 (x) = s00 x + αn Pn (x) + β n Pn−1 (x) (1.19)
2
dove
 
1 k0 Cn 1
αn = ns0 (0) − s00 n βn = − k1 K1 + (n − )s00 . (1.20)
2 kn An 2

Normalizzazione dei POC.


Z b Z
(−1)n kn n! b
hn = w(x)Pn2 (x)dx = w(x)sn (x)dx (1.21)
a K n a

si ricava integrando n volte per parti la (1.18).

Rappresentazione integrale dei POC. Si ottiene estendendo le funzioni w, s


e Pn al campo complesso e si scrive nella forma
I
1 n! w(z)sn (z)
Pn (x) = dz
2πi Kn w(x) C (z − x)n+1
che si ricava dalla (1.16), essendo w(z)sn (z) una funzione analitica. Come con-
seguenza di questo fatto, i POC possono essere ricavati da una Funzione Gen-
eratrice F (x, z) a sua volta sviluppabile in serie di potenze di z. I coefficienti
dello sviluppo, come funzioni di x, sono proporzionali ai Pn (x).
Passiamo ora ad esaminare i casi specifici, esprimendo la funzione peso, i
coefficienti, le relazioni di ricorrenza, le formule per la derivata, le equazioni
differenziali (agli autovalori), le proprietà, le funzioni generatrici dei POC che
appartengono alle diverse classi.

12
1.3.1 Polinomi di Hermite
Si ricavano ponendo
2
s(x) = 1 w(x) = e−x a = −∞ b = +∞

Kn = (−1)n kn = (2)n kn0 = 0


da cui Z +∞ √
n 2
hn = (−2) n! e−x dx = π2n n!
−∞

2n+1 n!
An = 2 Bn = 0 Cn = = 2n αn = 0 β n = 2n λn = 2n
2n (n− 1)!
La formula di Rodriguez generalizzata è
2 dn −x2
Hn (x) = (−1)n ex e (1.22)
dxn
Equazione differenziale

Hn00 (x) − 2xHn0 (x) + 2nHn (x) = 0 (1.23)

Relazione di ricorrenza

Hn+1 (x) = 2xHn (x) − 2nHn−1 (x) (1.24)

Formula della derivata


Hn0 (x) = 2nHn−1 (x) (1.25)
Forme esplicite dei polinomi di Hermite:

H0 (x) = 1

H1 (x) = 2x
H2 (x) = 2(2x2 − 1)
H3 (x) = 4(2x3 − 3x)
...
Esiste anche una formula generale esplicita
Int[n/2]
X (−1)k (2x)n−2k
Hn (x) = n! (1.26)
k!(n − 2k)!
k=0

Hanno parità definita ed è

Hn (x) = (−1)n Hn (−x) (1.27)

13
La funzione generatrice è

X
2 zn
e2xz−z = Hn (x) (1.28)
n=0
n!

Vediamo ora una applicazione ad un problema di base in meccanica ondulatoria.


Consideriamo le funzioni
2
/2
Zn (x) = e−x Hn (x) (1.29)

le cui derivate seconde sono


2
/2
  
Zn00 (x) = e−x Hn00 (x) − 2xHn0 (x) + x2 − 1 Hn (x)

Dalla (1.23) segue che


2
/2
Zn00 (x) = e−x (x2 − 2n − 1)Zn (x)

Quindi le funzioni Zn (x) sono le soluzioni dell’equazione


 
Zn00 (x) + (2n + 1) − x2 Zn (x) = 0

ovvero di    
1 d2 2 1
− + x Z n (x) = n + Zn (x) (1.30)
2 dx2 2
che è, in unità opportune, l’equazione di Schroedinger indipendente dal tempo
per l’oscillatore armonico unidimensionale. Tale equazione
~2 d 1
− ψ(x) + kx2 ψ(x) = Eψ(x)
2m dx2 2
con le sostituzioni
  12
k ~
ω2 = E = ~ω x= ξ ψ(x) = Ψ(ξ)
m mω
si trasforma nella equazione nelle variabili adimensionali
 
1 d2
− 2 + ξ 2 Ψ(ξ) = Ψ(ξ)
2 dξ
che è della forma (1.30) ed ha soluzioni normalizzabili del tipo Zn (ξ) solo per
 = n + 21 . Dalla normalizzazione dei polinomi di Hermite segue
Z +∞ Z +∞ Z +∞
2 √
dξ [Zn (ξ)]2 = dξe−ξ [Hn (ξ)]2 = hn = π2n n!
−∞ −∞ −∞

Per avere funzioni d’onda correttamente normalizzate


Z +∞
2
dx |ψ n (x)| = 1
−∞

14
porremo
ψ n (x) = cn Zn (ξ)
da cui   12

c2n 2n n! = 1

Le soluzioni dell’equazione d’onda per l’oscillatore armonico unidimensionale,
con la corretta normalizzazione, sono pertanto
 mω  14  1  12 mω 2

mω  12

ψ n (x) = exp(− x )H n x
~π 2n n! 2~ ~
 
1
E = ~ω n + .
2

15
1.3.2 Polinomi di Laguerre.
Si ottengono ponendo

s(x) = x w(x) = xα e−x α > −1 a=0 b = +∞

I polinomi di Laguerre Lα n (x) in generale dipendono dal parametro α > −1.


Se α = 0 si chiamano polinomi di Laguerre ordinari e si indicano con Ln (x).
I valori delle costanti sono:
n
(−1) n+α
Kn = n! kn = kn0 = − kn
n! n
Γ(n + α + 1) 1 2n + α + 1 n+α
hn = An = − Bn = Cn =
n! n+1 n+1 n+1
αn = n β n = −(n + α) λn = n
La formula di Rodriguez è
1 x −α dn 

n (x) = e x n
e−x xα+n (1.31)
n! dx
La relazione di ricorrenza è

(n + 1)Lα α α
n+1 (x) − (2n + α + 1 − x)Ln (x) + (n + α)Ln−1 (x) = 0 (1.32)

L’equazione differenziale è

xy 00 + (α + 1 − x)y 0 + ny = 0 (1.33)

La funzione generatrice è

X xz
Lα n
n (x)z = (1 − z)
−α−1 z−1
e , |z| < 1 (1.34)
n=0

Vi sono ulteriori relazioni per classi contigue di polinomi come


d α
L (x) = −Lα+1
n−1 (x)
dx n
Lnα−1 (x) = Lα α
n (x) − Ln−1 (x)

Alcune espressioni esplicite


1

0 (x) = 1 Lα
1 (x) = α+1−x Lα
2 (x) = [(1+α)(2+α)−2(2+α)x+x2 ] ....
2

16
1.3.3 Polinomi di Jacobi.
Si ottengono ponendo

s(x) = 1−x2 w(x) = (1−x)α (1+x)β a = −1 b = +1 α > −1 β > −1

Generalizzando al caso dei numeri reali l’espressione dei coefficienti binomiali


 
α Γ(α + 1)
=
β Γ(β + 1)Γ(α − β + 1)

si hanno per le costanti delle forme piuttosto complicate


 
n −n 2n + α + β n(α − β)
Kn = (−2) n! kn = 2 kn0 = kn
n 2n + α + β

2α+β+1 Γ(n + α + 1)Γ(n + β + 1) (2n + α + β + 1)(2n + α + β + 2)


hn = An =
(2n + α + β + 1)Γ(n + α + β + 1)n! 2(n + 1)(n + α + β + 1)
(α2 − β 2 )(2n + α + β + 1) (n + α)(n + β)(2n + α + β + 2)
Bn = Cn =
2(n + 1)(n + α + β + 1) (n + 1)(n + α + β + 1)(2n + α + β)
n(α − β) 2(n + α)(n + β)
αn = βn = λn = n(n + α + β + 1)
2n + α + β 2n + α + β
La Formula di Rodriguez è

(−1)n dn  
Pn(α,β) (x) = n
(1 − x)−α (1 + x)−β n (1 − x)n+α (1 + x)n+β (1.35)
2 n! dx
L’equazione differenziale è

(1 − x2 )y 00 + [β − α − (α + β + 2)x] y 0 + n(n + α + β + 1)y = 0 (1.36)

Le altre formule sono un po’ complicate, ma c’è una formula esplicita molto
compatta
n 
X  
n+α n+β
Pn(α,β) (x) =2 −n
(x − 1)n−k (1 + x)k (1.37)
k n−k
k=0

con la proprietà di simmetria

Pn(α,β) (−x) = (−1)n Pn(β,α) (x) (1.38)

Per particolari scelte di α e β ed anche con diverse scelte di Standardiz-


zazione, ovvero di valori di Kn , dai polinomi di Jacobi si ottengono classi speciali
di polinomi ortogonali classici. Per
1 1
α=β =λ− con λ>−
2 2

17
si hanno i polinomi di Gegenbauer (o ultrasferici)

Cnλ (x)

che per α = β = − 21 (λ = 0) divengono i Polinomi di Tchebichef di Prima


Specie Tn (x) e per α = β = 12 (λ = 1) divengono i Polinomi di Tchebichef di
Seconda Specie Un (x). Se scriviamo le relazione di ortogonalità tra i Polinomi
di Tchebichef di Prima Specie ritroviamo delle relazioni note, infatti:
Z +1
1
Tm (x)Tn (x)(1 − x2 )− 2 dx = 0 per m 6= n
−1

ponendo
x = cos θ dx = − sin θdθ con 0 < θ < π,
si ha
1 −1
(1 − x2 )− 2 = (sin θ)
Z π
Tm (cos θ)Tn (cos θ)dθ = 0 per m 6= n
0
Si mostra che è
Tn (cos θ) = cos nθ (1.39)
e la relazione precedente non è che la relazione di ortogonalità tra coseni
Z π
cos mθ cos nθdθ = 0 per m 6= n
0

Invece per i polinomi di Tchebichef di Seconda Specie si ha

sin(n + 1)θ
Un (cos θ) = (1.40)
sin θ
e molte delle relazioni tra i polinomi di Tchebichef sono parafrasi delle identità
trigonometriche. Ad esempio le relazioni

Tn (x) = Un (x) − xUn−1 (x) (1.41)

(1 − x2 )Un−1 (x) = xTn (x) − Tn+1 (x) (1.42)


divengono rispettivamente

sin(n + 1)θ = sin θ cos nθ + cos θ sin nθ

cos(n + 1)θ = − sin θ sin nθ + cos θ cos nθ.

18
1.3.4 Polinomi di Legendre.
Per finire consideriamo il caso speciale dei polinomi di Jacobi con α = β = 0,
ovvero λ = 21 . Si hanno cosı̀ i polinomi di Legendre (o polinomi sferici) che
compaiono nella risoluzione di molti problemi fisici. In questo caso

w(x) = 1

Le costanti divengono

(2n − 1)!! 2 2n + 1
Kn = (−2)n n! kn = hn = An =
n! 2n + 1 n+1
n
Bn = 0 Cn = αn = 0 β n = n λn = n(n + 1)
n+1
La formula di Rodriguez per i Polinomi di Legendre è
1 dn 2
Pn (x) = (x − 1)n (1.43)
2n n! dxn
L’importante equazione differenziale è

(1 − x2 )y 00 − 2xy 0 + n(n + 1)y = 0 (1.44)

ovvero
d d
(1 − x2 ) y + n(n + 1)y = 0.
dx dx
La relazione di ricorrenza è

(n + 1)Pn+1 (x) = (2n + 1)xPn (x) − nPn−1 (x) (1.45)

mentre le formule per la derivata sono

(1 − x2 )Pn0 (x) = n [Pn−1 (x) − xPn (x)] (1.46)

xPn0 (x) − Pn−1


0
(x) = nPn (x) (1.47)
Si possono scrivere le espressioni esplicite

P0 (x) = 1

P1 (x) = x
1
P2 (x) = (3x2 − 1)
2
1
P3 (x) = (5x3 − 3x)
2
1
P4 (x) = (35x4 − 30x2 + 3)
8
...

19
e la formula generale
Int[n/2]
X   
k n 2n − 2k
Pn (x) = 2 −n
(−1) xn−2k (1.48)
k n
k=0

Dalla scelta della normalizzazione segue che

Pn (1) = 1 (1.49)

Inoltre vale laproprietà di simmetria

Pn (−x) = (−1)n Pn (x) (1.50)

La funzione generatrice si scrive come



X
1
√ = Pn (x)z n con −1<x <1 e |z| < 1. (1.51)
1 − 2xz + z 2 n=0

E’ istruttivo ottenere le proprietà precedenti a partire dalla definizione (1.51)


della funzione generatrice.

20
Capitolo 2

Equazioni differenziali
ordinarie lineari.

Questo capitolo sarà dedicato allo studio delle equazioni differenziali ordinarie,
del secondo ordine, che compaiono in diversi campi della fisica classica e quan-
tistica. Oltre alle tecniche di costruzione delle soluzioni, considerereremo gli
aspetti generali e le trasformazioni che portano a trasformare un problema in
un altro della stessa famiglia. Cercando classi di soluzioni dipendenti da uno o
più parametri, considereremo diverse Funzioni Speciali che si incontrano spesso
nella soluzione dei problemi fisici.

2.1 Risoluzione diretta di una equazione del pri-


mo ordine.
Data l’equazione non-omogenea, con z ∈ R ,

du(z)
A(z) + B(z)u(z) = F (z) (2.1)
dz
con A(z) 6= 0, si pone
B(z) 1 dp(z)
= (2.2)
A(z) p(z) dz
dove p(z) > 0 e si ottiene

F (z)p(z)
p(z)u0 (z) + p0 (z)u(z) =
A(z)
ovvero
d F (z)p(z)
(p(z)u(z)) =
dz A(z)

21
che è immediatamente integrabile
Z z
p(t)F (t)
p(z)u(z) = dt + u(z0 )p(z0 )
z0 A(t)

Dalla (2.2) si ha
Z z
B(t)
p(z) = exp( dt) e p(z0 ) = 1
z0 A(t)

e quindi Z 
z
1 p(t)F (t)
u(z) = dt + u(z0 ) (2.3)
p(z) z0 A(t)
Questa è la soluzione generale che vale sia per il caso omogeneo che non omo-
geneo. La soluzione dipende da un parametro u(z0 ).

2.2 Le equazioni lineari omogenee del secondo


ordine.
Nella fisica ci interessano le equazioni differenziali del secondo ordine e, tra
queste, anzitutto quelle omogenee, che hanno la forma

d2 d
A(z) 2
u(z) + B(z) u(z) + C(z)u(z) = 0 (2.4)
dz dz
Scegliendo una funzione h(z) tale che
d
(h(z)A(z)) = h(z)B(z)
dz
di conseguenza è
h0 (z)A(z) + h(z)A0 (z) = h(z)B(z). (2.5)
L’equazione (2.4)può essere scritta, moltiplicando per h(z) entrambi i membri,
come
d2 d d
h(z)A(z) u(z) + h0 (z)A(z) u(z) + h(z)A0 (z) u(z) + h(z)C(z)u(z) = 0
dz 2 dz dz
ovvero
d d
(h(z)A(z)) u(z) + h(z)C(z)u(z) = 0.
dz dz
Dalla ()2.5) si ha

h0 (z) B(z) − A0 (z) d B(z)


= ⇒ (ln h(z) + ln A(z)) = .
h(z) A(z) dz A(z)
Z z
1 B(t)
h(z) = exp( dt)
A(z) z0 A(t)

22
Posto
Z z
B(t) C(z)
ω(z) = h(z)A(z) = exp( dt) Q(z) = h(z)C(z) = ω(z) (2.6)
z0 A(t) A(z)
si ottiene la forma autoaggiunta della equazione (2.4)
d d
ω(z) u(z) + Q(z)u(z) = 0. (2.7)
dz dz

Inserendo invece nella forma (2.4) u(z) = k(z)v(z) si ha


A(k 00 + 2k 0 v 0 + kv 00 ) + B(k 0 v + kv 0 ) + Ckv = 0
che, dividendo per kA e riordinando, porta all’equazione
k0 B k 00 k0 B C
v 00 + (2 + )v 0 + ( + + )v = 0
k A k k A A
Ponendo il coefficiente della derivata prima = 0, ovvero
k0 1B
=− ,
k 2A
si ottiene l’equazione differenziale in forma ridotta
v 00 (z) + J(z)v(z) = 0 (2.8)
dove Z z
B(t) 1 −1
k(z) = exp(− dt) = [ω(z)] 2
zo A(t) 2
   2
C(z) 1 d B(z) 1 B(z)
J(z) = − − . (2.9)
A(z) 2 dz A(z) 4 A(z)

Per finire consideriamo la forma standard, ponendo nell’equazione (2.4)


B(z) C(z)
p(z) = q(z) = (2.10)
A(z) A(z)
da cui
u00 (z) + p(z)u0 (z) + q(z)u(z) = 0 (2.11)
In termini di p(z) e q(z), le funzioni che compaiono nella forma autoaggiunta e
nella forma ridotta divengono
Z z
ω(z) = exp( p(t)dt) Q(z) = q(z)ω(z)
zo
1 1 dp (z) 1
u(z) = (ω(z))− 2 v(z) J(z) = q(z) − − (p(z))2 .
2 dz 4
Nel seguito si farà riferimento alla forma standard .

23
2.3 Il Wronskiano.
L’integrale di un’equazione differenziale lineare omogenea del secondo ordine è
del tipo
c1 u1 (z) + c2 u2 (z)
dove c1 e c2 sono costanti arbitrarie e u1 (z) ed u2 (z) due soluzioni particolari
linearmente indipendenti. Le due soluzioni in quanto linearmente indipendenti e
soluzioni particolari della equazione differenziale costituiscono un sistema fonda-
mentale di soluzioni. Condizione necessaria e sufficiente affinchè due soluzioni
costituiscano un sistema fondamentale di soluzioni è che il loro Wronskiano

u1 u2
w= 0
u1 u02

sia diverso da zero. La dimostrazione è banale.


Si osserva che la dipendenza da z del Wronskiano è indipendente dalla
conoscenza esplicita delle due soluzioni. Da

w = u1 u02 − u01 u2

ricordando che
u00 = −p(z)u0 (z) − q(z)u(z)
segue che

w0 (z) = u1 u002 − u001 u2 = −p(z)(u1 u02 − u01 u2 ) = −p(z)w(z)

da cui  Z z 
w(z) = w(z0 ) exp − p(t)dt
z0

che prende nome di formula di Liouville e che mostra che la dipendenza da z del
Wronskiano non dipende dalla forma esplicita della coppia di soluzioni, ma solo
dalla funzione p(z) che compare nella forma standard (2.11). La conoscenza del
Wronkiano è definita completamente se è noto w(z0 ) che dipende a sua volta
dal comportamento locale delle due soluzioni attorno a z = z0 . Notiamo poi
che, se p(z) = 0, il Wronskiano è una costante.

2.4 Un metodo per trovare u2(x), nota u1(x).


Qualora si conosca una soluzione particolare u1 si può sempre ottenere una
soluzione u2 linearmente indipendente. Infatti basta porre

u2 (z) = u1 (z)ψ(z)

da cui
u02 = u01 ψ + u1 ψ 0 u002 = u001 ψ + 2u01 ψ 0 + u1 ψ 00

24
Sostituendo nella (2.11) e ricordando che u1 è soluzione si ha

u01
ψ 00 + (2 + p(z))ψ 0 = 0
u1
da cui Z z
ln ψ 0 = −2 ln u1 − p(t)dt + k
z0
ovvero Z z
1
ψ0 = k exp(− p(t)dt)
u21 z0

dove k è una costante arbitraria non nulla. Integrando si ha


Z z Z η
1
ψ(z) = k dη 2 exp(− p(t)dt) + c.
z0 u1 (η) z0

Ponendo c = 0 e k = 1, Segue che


Z z Z η
1
u2 (z) = u1 (z) dη exp(− p(t)dt).
z0 u21 (η) z0

Poichè il wronskiano è

w(u1, u2 ) = u21 (z)ψ 0 (z) 6= 0

le due soluzioni sono linearmente indipendenti.

25
2.5 Equazione del secondo ordine non omoge-
nea.
Può essere scritta nella forma
u00 (z) + p(z)u0 (z) + q(z)u(z) = f (z) (2.12)
La soluzione generale è
u(z) = c1 u1 (z) + c2 u2 (z) + up (z)
dove up (z) è una soluzione particolare e dove u1 ed u2 sono soluzioni linear-
mente indipendenti dell’equazione omogenea associata. La soluzione può essere
otteneuta con un metodo analogo al precedente sostituendo nella (2.12) la u(z)
con la funzione u1 (z)v(z). Si ha
d2 v 2 du1 dv f (z)
+ (p(z) + ) =
dz 2 u1 dz dz u1 (z)
Posto
u21 1 dR w0 2u0 2 du1
R(z) = da cui = − + 1 = p(z) +
w(u1 , u2 ) R dz w u1 u1 dz
e quindi
d2 v 1 dR dv f (z)
+( ) =
dz 2 R dz dz u1 (z)
Questa, pensata come equazione in dvdz , è un’equazione del primo ordine. E’
pertanto immediatamente risolubile utilizzando la (2.3)
Z z
dv 1 R(t)f (t)
= dt.
dz R(z) z0 u1 (t)
Si può osservare che  
1 d u2
=
R(z) dz u1
per cui  Z z
dv d u2 u1 (t)f (t)
= dt =
dz dz u1 z0 w(u 1 (t), u2 (t))
 Z 
d u2 z u1 (t)f (t) u2 (t)f (t)
= dt −
dz u1 z0 w(u1 (t), u2 (t)) w(u1 (t), u2 (t))
Integrando e moltiplicando per u1 si ottiene
Z z Z z
u1 (t)f (t) u2 (t)f (t)
up (z) = u2 (z) dt − u1 (z) dt
z0 w(u1 (t), u2 (t)) z0 w(u1 (t), u2 (t))

La soluzione generale, nel caso di una equazione differenziale ordinaria del sec-
ondo ordine non omogenea, è ottenibile dalla conoscenza di una soluzione par-
ticolare della equazione omogenea. Occorre però trovare almeno una soluzione
particolare della equazione omogenea.

26
2.6 Soluzioni nell’intorno di un punto ordinario.
Studieremo l’equazione differenziale (2.11) per z variabile complessa e suppor-
remo che esista una regione R del piano z in cui le funzioni p(z) e q(z) siano
olomorfe. Se z0 ∈ R si dirà che z0 è un punto ordinario della equazione differen-
ziale, mentre tutti i punti zi che sono punti singolari per p(z) o q(z) si diranno
punti singolari.
Data l’equazione in forma standard

u00 (z) + p(z)u0 (z) + q(z)u(z) = 0

sia z = z0 un punto ordinario, dove p e q sono funzioni analitiche all’interno


del cerchio z ∈ C, con centro in z0 . Si cerca una soluzione u(z) con le condizioni

u(z0 ) = c0 u0 (z0 ) = c1 .

Ponendo u0 (z) = v(z) ottengo un sistema lineare di equazioni differenziali del


primo ordine

v 0 (z) = −p(z)v(z) − q(z)u(z)


u0 (z) = v(z)

che è un caso particolare del sistema generale

u0 (z) = µ(z)u(z) + ρ(z)v(z)


v 0 (z) = χ(z)u(z) + ϕ(z)v(z)

dove µ(z) = 0, ρ(z) = 1, χ(z) = −q(z), ϕ(z) = −p(z). Posso riscrivere il sistema
come     
d u µ ρ u
= (2.13)
dz v χ ϕ v
dove, in particolare,
    
d u 0 1 u
= (2.14)
dz v −q −p v

Il sistema (2.13) può essere risolto con le condizioni al contorno

u(z0 ) = α v(z0 ) = β

Per z ∈ C, con centro in z0 , si avrà

M = max {|µ(z)| , |ρ(z)| , |χ(z)| , |ϕ(z)|} z∈C

e il sistema di equazioni differenziali diviene un sistema di equazioni integrali


Z z
u(z) = α + (µ(z 0 )u(z 0 ) + ρ(z 0 )v(z 0 ))dz 0
z0
Z z
v(z) = β + (χ(z 0 )u(z 0 ) + ϕ(z 0 )v(z 0 ))dz 0
z0

27
che può essere risolto per approssimazioni successive, mediante le successioni
{un (z)},{vn (z)}
Z z
un (z) = α + (µ(z 0 )un−1 (z 0 ) + ρ(z 0 )vn−1 (z 0 ))dz 0
z0
Z z
vn (z) = β + (χ(z 0 )un−1 (z 0 ) + ϕ(z 0 )vn−1 (z 0 ))dz 0
z0

dove si è posto
u0 (z) = α v0 (z) = β
Si può mostrare che le successioni convergono assolutamente e uniformemente
nel cerchio C. Infatti da
Z z
u1 (z) − α = u1 (z) − u0 (z) = (µ(z 0 )α + ρ(z 0 )β)dz 0
z0
Z z
v1 (z) − β = v1 (z) − v0 (z) = (χ(z 0 )α + ϕ(z 0 )β)dz 0
z0

segue che , per m ≥ max {|α| , |β|}

|u1 (z) − u0 (z)| ≤ 2mM |z − z0 |


|v1 (z) − v0 (z)| ≤ 2mM |z − z0 |

Sottraendo da u2 (z) − α l’espressione di u1 (z) − α si ottiene facilmente


Z z
u2 (z) − u1 (z) = (µ(z 0 )((u1 (z 0 ) − u0 (z 0 )) + ρ(z 0 ) (v1 (z 0 ) − v0 (z 0 )))dz 0
z0

da cui
2
(2M |z − z0 |)
|u2 (z) − u1 (z)| ≤ m .
2
In generale si otterranno, per {un (z)} e {vn (z)} , le maggiorazioni
n
(2M |z − z0 |)
|un (z) − un−1 (z)| ≤ m
n!
n
(2M |z − z0 |)
|vn (z) − vn−1 (z)| ≤ m .
n!
Entro il cerchio C le serie

u0 + (u1 (z) − u0 ) + (u2 (z) − u1 (z)) + ... = lim un (z) = u(x)


n→∞
v0 + (v1 (z) − v0 ) + (v2 (z) − v1 (z)) + ... = lim vn (z) = v(x)
n→∞

saranno assolutamente convergenti, essendo maggiorate dalla successione delle


ridotte della (a sua volta convergente)

X (2M r0 )n
m = me2M r0 .
n=0
n!

28
Il sistema ha una sola soluzione definita completamente dalla scelta di u0 e di
v0 , che costituiscono le condizioni iniziali. Una soluzione linearmente indipen-
dente da quella trovata si ottiene da una nuova coppia di valori che non sia
proporzionale alla prima coppia.

Tornando all’eq. (2.11) dal momento che in C la u(z) è analitica possiamo


scrivere
X∞  
k 1 dk u
u(z) = ck (z − z0 ) con ck =
k! dz k z=z0
k=0

Posto c0 = α e c1 = β si ottiene, derivando k volte la (2.11),


  k    k+1
X 
dk+2 u k d u(z) dk−l p(z)
= −
dz k+2 z=z0 l dz k+1
dz k−l z=z0
l=0
k   k
X 
k d u(z) dk−l q(z)
− .
l dz k dz k−l z=z0
l=0

Se p(z) e q(z) sono polinomi in z, si ottengono relazioni di ricorrenza con un


numero finito di termini.

2.7 Soluzioni nell’intorno di un punto singolare


isolato.
E’ interessante lo studio del comportamento delle soluzioni in un intorno di un
punto singolare isolato. Attorno a z = z0 , p(z) e q(z) sono sviluppabili in serie
di Laurent.

X ∞
X
p(z) = pk (z − z0 )k q(z) = qk (z − z0 )k
k=−∞ k=−∞

nel cerchio 0 ≤ |z − z0 | ≤ r0 , dove r0 è la distanza da un altro punto singolare,


il più vicino a z0 . Entro il cerchio R cosı̀ definito, con l’esclusione del contorno
e del punto z0 ho solo punti ordinari. Posso ottenere le soluzioni u1 (z) ed
u2 (z) con il metodo precedente e continuarle analiticamente lungo una curva
C raggiungendo un qualunque punto del cerchio R, ad esclusione di z0 e della
frontiera. Se C è un percorso chiuso che circonda z0 e da z ritorna in z nel verso
positivo, le due funzioni possono differire da quelle originarie essendo z0 un
(+) (+)
possibile punto di polidromia. I nuovi valori saranno u1 (z) ed u2 (z), ancora
soluzioni della eq. (2.11) e quindi di nuovo esprimibili in termini di u1 (z) ed
u2 (z).
(+)
u1 (z) = a11 u1 (z) + a12 u2 (z)
(+)
u2 (z) = a21 u1 (z) + a22 u2 (z)

29
(+) (+)
Poichè u1 (z) e u2 (z) sono ancora linearmente indipendenti, sarà quindi
 
a11 a12
det 6= 0.
a21 a22

In più sarà possibile scegliere una particolare coppia di combinazioni di u1 (z) ed


u2 (z), tali che la matrice sia diagonale ovvero della forma
 
λ1 0
.
0 λ2

In questo modo la polidromia si manifesti con la particolare proprietà


(+)
u1 (z) = λ1 u1 (z) (2.15)
(+)
u2 (z) = λ2 u2 (z)

Nel caso in cui λ1 6= λ2 i due valori sono le radici, eventualmente complesse,


distinte della equazione secolare di secondo grado
 
a11 − λ a12
det = 0.
a21 a22 − λ

Le due soluzioni, quando z percorre una curva chiusa entro R attorno a z0 , si


comportano come la potenza complessa (z − z0 )ρ che è polidroma e si trasforma
come
(z − z0 )ρ → (z − z0 )ρ ei2πρ = λ(z − z0 )ρ
da cui
1
λ = e2πiρ ovvero ρ= ln λ
2πi
Quindi ρ può assumere i due valori
1
ρj = ln λj (2.16)
2πi
La forma delle due soluzioni è pertanto del tipo

uj (z) = (z − z0 )ρj wj (z)

dove wj (z) è una funzione monodroma, analitica nella corona circolare 0 <
|z − z0 | < r0 , quindi sviluppabile in serie di Laurent, mentre il fattore (z − z0 )ρj
è responsabile della eventuale polidromia. Si noti che gli esponenti ρj dati dalla
(2.16) sono definiti a meno di un intero ni .Questo è consistente con gli sviluppi

X
u1 (z) = (z − z0 )ρ1 ck (z − z0 )k (2.17)
k=−∞
X∞
u2 (z) = (z − z0 )ρ2 dk (z − z0 )k (2.18)
k=−∞

30
Nel caso che λ1 = λ2 , il problema si complica. Si ottiene
(+)
u1 (z) = λ1 u1 (z)
(+)
u2 (z) = a21 u1 (z) + λ1 u2 (z)

e segue che

X
u1 (z) = (z − z0 )ρ1 ck (z − z0 )k
k=−∞

X
u2 (z) = au1 (z) ln(z − z0 ) + (z − z0 )ρ1 dk (z − z0 )k
k=−∞

dove
1 a21
a= .
2πi λ1

31
2.8 Punti singolari regolari.
Il problema della determinazione esplicita delle soluzioni u1 (z) ed u2 (z) si ri-
solve in generale solo se nelle serie che compaiono in (2.17) e (2.18) vi è un
numero finito di potenze con esponente negativo. In tal caso il punto z0 si dice
punto singolare regolare o Fuchsiano. Il caso non-Fuchsiano non è trattabile
in generale. Ci si chiede che caratteristiche debbano avere p(z) e q(z) perchè
si abbiano solo casi Fuchsiani. Nel primo caso, quello con esponenti ρ1 e ρ2
distinti e con ρ1 − ρ2 6= n, se n è intero, si può scrivere

u1 = (z − z0 )ρ1 R1 (z − z0 ) u2 = (z − z0 )ρ2 R2 (z − z0 )

dove è possibile, grazie alla definizione dei due esponenti a meno di un numero
intero arbitrario, scegliere ρ1 e ρ2 in modo che le serie R1 ed R2 non abbiano
termini ad esponente negativo ed abbiano il coefficiente del termine Rdi grado
zero non nullo. Il Wronskiano w(u1 , u2 ) = u1 u02 − u01 u2 = w0 exp(− p(z)dz)
deve essere non nullo e quindi
d u00 u2 − u1 u002 w0
p(z) = − ln w = 1 0 0 =− .
dz u1 u2 − u 1 u2 w

Poichè il Wronskiano dovrà avere la forma

w(u1 , u2 ) = (z − z0 )ρ1 +ρ2 −1 R3 (z − z0 )

dove anche R3 è una serie dello stesso tipo. Segue che


ρ1 + ρ2 − 1
p(z) = − (1 + R4 (z − z0 ))
(z − z0 )

e quindi p(z) può presentare al massimo un polo del primo ordine



X
P (z − z0 )
p(z) = con P (z − z0 ) = pn (z − z0 )n .
(z − z0 ) n=0

Di conseguenza
u01 u00
q(z) = −p(z) − 1
u1 u1
che comporta che q(z) presenti al massimo un polo del secondo ordine

X
Q(z − z0 )
q(z) = 2 con Q(z − z0 ) = qn (z − z0 )n .
(z − z0 ) n=0

L’equazione in forma standard, nell’intorno |z − z0 | ≤ r0 del punto singolare


regolare z0 al finito diviene cosı̀
P (z − z0 ) 0 Q(z − z0 )
u00 (z) + u (z) + 2 u(z) = 0. (2.19)
(z − z0 ) (z − z0 )

32
dove P e Q sono funzioni analitiche nell’intorno considerato.
Sostituendo nella eq. (2.19) l’espressione

X
ρ k
u(z) = (z − z0 ) ck (z − z0 ) dove c0 = 1
k=0

e gli sviluppi in serie di P e Q, grazie all’uniforme convergenza, si ottiene una


successione di relazioni, la prima delle quali è

ρ(ρ − 1)(z − z0 )ρ−2 + ρp0 (z − z0 )ρ−2 + q0 (z − z0 )ρ−2 = 0

e le altre in (z − z0 )ρ−1 , (z − z0 )ρ , (z − z0 )ρ+1 , ..., (z − z0 )ρ+k , ... che coinvol-


gono i coefficienti ck . Dalla prima si ottiene l’equazione indiciale

ρ2 + (p0 − 1)ρ + q0 = 0 (2.20)

che ha due soluzioni: ρ1 e ρ2 , con la scelta Re(ρ1 ) ≥ Re(ρ2 ). Se è

ρ1 − ρ2 6= n = 0, 1, 2, ...

si avrà ∞
ρ1
X k
u1 (z) = (z − z0 ) ck (z − z0 ) (2.21)
k=0

X
ρ2
u2 (z) = (z − z0 ) c0k (z − z0 )k (2.22)
k=0

dove i coefficienti {ck } e {c0k } si determinano sostituendo la (2.21) e la (2.22)


nella (2.19) e ponendo uguale a zero il coefficiente di ogni termine dello sviluppo
in potenze risultante. Nel caso in cui si abbia

ρ1 − ρ2 = n = 0, 1, 2, ...

si avrà invece ∞
ρ1
X k
u1 (z) = (z − z0 ) ck (z − z0 ) (2.23)
k=0

X
u2 (z) = au1 (z) ln(z − z0 ) + (z − z0 )ρ2 dk (z − z0 )k (2.24)
k=0

dove la sostituzione permette di determinare tutti i coefficienti. Se n 6= 0 il


coefficiente a può anche essere nullo. In tal caso le soluzioni (2.23) e (2.22) sono
simili a quelle precedenti, anche se gli indici ρ1 e ρ2 differiscono di un intero.

33
2.9 Studio nell’intorno del punto all’infinito.
Consideriamo l’equazione differenziale in forma standard

u00 (z) + p(z)u0 (z) + q(z)u(z) = 0

Con la sostituzione
1
z=
µ
si ha
d d d2 3 d 4 d
2
= −µ2 = 2µ + µ
dz dµ dz 2 dµ dµ2
e quindi la (2.11) diviene

d2 u 1 du 1
µ4 2
+ [2µ3 − µ2 p( )] + q( )u = 0
dµ µ dµ µ
che può essere scritta in forma standard come

d2 u 2 1 1 du 1 1
2
+ [ − 2 p( )] + 4 q( )u = 0. (2.25)
dµ µ µ µ dµ µ µ
Ora µ = 0 è un punto ordinario se
2 1 1 1 1
[ − 2 p( )] e q( )
µ µ µ µ4 µ
tendono entrambe ad un limite finito per µ → 0, ovvero se
2 1 1
p(z) → + O( 2 ) q(z) → O( ) per z → ∞.
z z z4
In tal caso il punto all’infinito è un punto ordinario. Con la sostituzione effet-
tuata il problema si riduce al caso del punto ordinario al finito. Le due soluzioni
linearmente indipendenti hanno la forma

X
u(z) = cn z −n .
n=0

Se le precedenti condizioni non sono soddisfatte il punto all’infinito sarà


singolare. In particolare il punto singolare sarà regolare o Fuchsiano se
2 1 1
lim µ[ − 2 p( )] = cost.
µ→0 µ µ µ
2 1 1
lim µ [ 4 q( )] = cost.
µ→0 µ µ
ovvero se zp(z) e z 2 q(z) sono regolari per z → ∞. Per la determinazione delle
soluzioni si procede come nel caso al finito, facendo riferimento alla eq. (2.25) ,
con µ0 = 0.

34
Esprimendo le soluzioni in funzione di z, si avrà

X
u1 (z) = z −ρ1 cn z −n
n=0

X
u2 (z) = z −ρ2 c0n z −n
n=0
La seconda espressione vale nel caso che
ρ1 − ρ2 6= n = 0, 1, 2, ...
altrimenti è sostituita da

X
u2 (z) = bu1 (z) ln(z) + z −ρ2 c0n z −n
n=0

Gli esponenti ρ1 e ρ2 si possono determinare dalla equazione indiciale, che nel


caso del punto fuchsiano all’infinito si possono ottenere ponendo,
1 p0 1 q0 1
u(z) = z −ρ [1 + O( )] p(z) = + O( 2 ) q(z) = 2 + O( 3 )
z z z z z
Si ottiene
[ρ(ρ + 1) − p0 ρ + q0 ]z −ρ−2 + O(z −ρ−3 ) = 0
che porta all’equazione indiciale per il punto singolare regolare all’infinito
ρ(ρ + 1) − p0 ρ + q0 = 0 (2.26)
che differisce all’equazione indiciale per un punto singolare fuchsiano al finito,
anche nel significato dei coefficienti.

Nel caso di punti singolari non-Fuchsiani non esiste un metodo generale per
determinare due soluzioni. Ad esempio, per z0 finito, se
P (z) Q(z)
p(z) = q(z) =
(z − z0 )2 (z − z0 )3
con P (z) e Q(z) regolari in z0 si può porre

X
u = (z − z0 )ρ (1 + cn (z − z0 )n )
n=1

ed ottenere una equazione indiciale che è del primo ordine


p0 ρ + q0 = 0. (2.27)
In questo caso c’è un solo esponente, i coefficienti vanno determinati e si possono
trovare due soluzioni. Non è però detto che la serie converga in senso proprio,
ma può essere una serie asintotica.
Però può accadere che una singolarità non-Fuchsiana possa essere ottenuta,
tramite un processo al limite, dalla confluenza di più singolarità Fuchsiane. In
tal caso è possibile far uso delle tecniche precedentemente esposte e l’equazione
si dirà confluente.

35
2.10 Equazioni Fuchsiane con tre punti singolari
isolati.
Consideriamo un’equazione con tre punti singolari regolari isolati ξ 1 ξ 2 ξ 3 , siano
(αi , β i ) per i = 1, 2, 3 le tre coppie di soluzioni delle rispettive equazioni
indiciali. Scriveremo nelle usuali notazioni

u00 + p(z)u0 + q(z)u = 0

P (z)
p(z) = (2.28)
(z − ξ 1 )(z − ξ 2 )(z − ξ 3 )
Q(z)
q(z) = . (2.29)
(z − ξ 1 )2 (z − ξ 2 )2 (z − ξ 3 )2
Se il punto all’infinito è ordinario si avrà anche
 
2 1
p(z) ∼ q(z) ∼ O per z → ∞. (2.30)
z z4

Una possibile scelta di p(z) e q(z) che verifica questi requisiti è la seguente:

A1 A2 A3
p(z) = + + (2.31)
z − ξ1 z − ξ2 z − ξ3
 
1 B1 B2 B3
q(z) = + +
(z − ξ 1 )(z − ξ 2 )(z − ξ 3 ) z − ξ 1 z − ξ2 z − ξ3
con A1 + A2 + A3 = 2. Da questa scelta è facile scrivere le tre equazioni indiciali
come
Bi
ρ2 + (Ai − 1)ρ + =0
(ξ i − ξ k )(ξ i − ξ l )
con (i, k, l) permutazione di (1, 2, 3). Le soluzioni (αi , β i ) di ciascuna equazioni
indiciale hanno le proprietà

α i + β i = 1 − Ai

Bi
αi β i =
(ξ i − ξ k )(ξ i − ξ l )
da cui si ricava che
Ai = 1 − α i − β i
Bi = αi β i (ξ i − ξ k )(ξ i − ξ l )
mentre da A1 + A2 + A3 = 2, conseguenza della (2.31) e della (2.30), segue che
3
X
α 1 + β 1 + α2 + β 2 + α3 + β 3 = (αi + β i ) = 1. (2.32)
i=1

36
Con queste specificazioni l’equazione diventa
( 3 )
X 1 − αi − β (ξ − ξ 2 )(ξ 2 − ξ 3 )(ξ 3 − ξ 1 )
i
00
u + u0 − 1 ×
i=1
z − ξ i (z − ξ 1 )(z − ξ 2 )(z − ξ 3 )
 
α1 β 1 α2 β 2 α3 β 3
+ + u=0 (2.33)
(z − ξ 1 )(ξ 2 − ξ 3 ) (z − ξ 2 )(ξ 3 − ξ 1 ) (z − ξ 3 )(ξ 1 − ξ 2 )
che prende il nome di equazione di Papperitz-Riemann. E’ un’equazione che
generalizza diverse equazioni importanti della fisica matematica. E’ scritta in
funzione di nove parametri: i tre punti singolari regolari ξ i , i relativi esponenti
αi e β i , soluzioni delle equazioni indiciali, che verificano la regola di somma
(2.32). La soluzione dell’equazione è rappresentata dal simbolo di Riemann P,
che sarà scritto come
 
 ξ1 ξ2 ξ3 
u=P α1 α 2 α3 z
 
β1 β2 β3

Cosı̀ scritto il simbolo mostra interessanti proprietà che facilitano lo studio delle
soluzioni dell’equazione.
1. Le prime tre colonne sono tra loro permutabili.
2. Le componenti di ciascuna coppia di indici (αi , β i ) possono essere permu-
tate indipendentemente dalle altre.
3. Il simbolo P può essere moltiplicato per una qualunque costante k.
4. Una trasformazione omografica, ovvero una trasformazione del tipo
az + b
z0 = con ad − bc 6= 0
cz + d
trasforma i punti singolari
 0 
(ξ 1 , ξ 2 , ξ 3 ) → ξ 1 , ξ 02 , ξ 03 cosı̀ come z → z0

ma non cambia gli esponenti soluzioni delle equazioni indiciali


   0 0 0

 ξ1 ξ2 ξ3   ξ1 ξ2 ξ3 
P α1 α2 α3 z =P α1 α 2 α3 z 0
   
β1 β2 β3 β1 β2 β3

come può essere verificato direttamente, per sostituzione.


5. Per quanto riguarda gli esponenti vale invece la proprietà, di facile verifica,
 
 ξ1 ξ2 ξ3 
P α1 α 2 α 3 z =
 
β1 β2 β3

37
 
 ξ1 ξ2 ξ3 
= (z − ξ 1 )γ 1 (z − ξ 2 )γ 2 (z − ξ 3 )γ 3 P α1 − γ 1 α2 − γ 2 α3 − γ 3 z
 
β1 − γ1 β2 − γ2 β3 − γ3
purchè
γ 1 + γ 2 + γ 3 = 0.
Quest’ultima fornisce una trasformazione sulla u(z). Afferma che la soluzione
u(x) della eq. (2.33) può essere scritta come

u(z) = (z − ξ 1 )γ 1 (z − ξ 2 )γ 2 (z − ξ 3 )γ 3 v(z)

dove v(z) è ancora soluzione della eq. (2.33) con gli (αi , β i ) modificati. In-
vece la proprietà numero 4 corrisponde ad una trasformazione sulla variabile
indipendente (e ovviamente sui punti singolari).
Queste proprietà permettono, a partire dalla equazione di Papperritz-Riemann
(2.33), di giungere ad un’espressione di P che dipende da soli tre parametri, fis-
sando i tre punti singolari in (0, 1, ∞), ed ottenendo una equazione importante,
l’equazione ipergeometrica.

38
2.11 L’equazione ipergeometrica.
La trasformazione z → z 0 definita da
z − ξ1 ξ2 − ξ3
z0 =
z − ξ3 ξ2 − ξ1
trasforma i tre punti singolari regolari al finito (ξ 1 , ξ 2 , ξ 3 ) in (0, 1, ∞). Per la
proprietà numero 4
   
 ξ1 ξ2 ξ3   0 1 ∞ 
P α 1 α2 α3 z =P α1 α 2 α3 z 0
   
β1 β2 β3 β1 β2 β3
mentre per la proprietà numero 5 segue che
   
 0 1 ∞   0 1 ∞ 
P α1 α 2 α3 z 0 = (z 0 )α1 (z 0 −1)α2 P 0 0 α 1 + α2 + α3 z0 .
   
β1 β2 β3 β 1 − α1 β 2 − α2 β 3 + α1 + α2
Ponendo
α1 + α 2 + α 3 = a β 3 + α 1 + α2 = b β 1 − α1 = 1 − c
segue che
β 2 − α2 = c − a − b
e quindi
   
 0 1 ∞   0 1 ∞ 
P α1 α 2 α3 z0 = (z 0 )α1 (z 0 −1)α2 P 0 0 a z0
   
β1 β2 β3 (1 − c) (c − a − b) b
dove compaiono tre punti singolari regolari fissi in (0, 1, ∞) e tre soli parametri
(a, b, c).
Il simbolo di Riemann
 
 0 1 ∞ 
P 0 0 a z
 
(1 − c) (c − a − b) b
è la soluzione u di un’equazione che possiamo scrivere, sostituendo nella (2.33)
i valori dei nuovi parametri che compaiono ora nel simbolo. Si ha
 
00 c 1−c+a+b ab
u + + u0 + u=0
z z−1 z(z − 1)
che, moltiplicando per z(1 − z), diviene
z(1 − z)u00 + {c − (a + b + 1)z} u0 − abu = 0 (2.34)
e prende nome di equazione ipergeometrica.

39
2.12 Le soluzioni dell’equazione ipergeometrica.

Possiamo scrivere un sistema fondamentale di due soluzioni dell’equazione iper-


geometrica nel cerchio di convergenza centrato in ciascun punto singolare rego-
lare. Posto n = 0, 1, 2, ...

u1 = S1 (z) u2 = z 1−c S2 (z), per |z| < 1 1 − c 6= n


u3 = S3 (z−1) u4 = (z−1)c−a−b S4 (z−1) per |z − 1| < 1 c−a−b 6= n
−a −b
u5 = z S5 (1/z) u6 = z S6 (1/z) per |1/z| < 1 a − b 6= n
dove le Sn sono serie di potenze assolutamente convergenti nel cerchio di con-
vergenza indicato, con esponenti interi non negativi.
Consideriamo la prima soluzione

X
u1 = S1 (z) = ck z k
k=0

sostituendo nell’equazione (2.34) si ha



X ∞
X ∞
X
(z − z 2 ) ck k(k − 1)z k−2 + {c − (a + b + 1)z} ck kz k−1 − ab ck z k = 0
k=2 k=1 k=0

che posso riscrivere come



X ∞
X ∞
X
(z − z 2 ) ck k(k − 1)z k−2 + {c − (a + b + 1)z} ck kz k−1 − ab ck z k = 0
k=0 k=0 k=0

Raccogliendo i coefficienti delle potenze con lo stesso esponente intero si ha

−k(k − 1)ck + (k + 1)kck+1 + c(k + 1)ck+1 − (a + b + 1)kck − abck = 0 (2.35)

da cui
ck ((a + b + 1)k + k 2 − k + ab) = ck+1 (k 2 + k + ck + c)
ovvero
k(a + b + k) + ab
ck+1 = ck .
(k + c)(k + 1)
Ponendo c0 = 1 si ha
ab a(a + 1)b(b + 1)
c1 = c2 = ...
c 1 · 2 · c(c + 1)

e in generale

a(a + 1)...(a + k − 1)b(b + 1)...(b + k − 1) (a)k (b)k


ck = = (2.36)
k! c(c + 1)...(c + n − 1) k!(c)k

40
dove si è definito
Γ(a + k)
(a)k = a(a + 1)...(a + k − 1) = (2.37)
Γ(a)

L’ultima eguaglianza vale per a diverso da un numero intero non positivo. Si


noti che (a)1 = a e che inoltre conviene definire (a)0 = 1. Si ricordi che Γ(z)
ha poli semplici in corrispondenza degli interi non positivi, mentre 1/Γ(z) è una
funzione intera, che vale 0 per z = −N ( N = 0, 1, 2, ...).

La soluzione precedententemente ottenuta S1 (z) si scrive

X∞
(a)n (b)n n
F (a, b; c; z) = z
n=0
(c)n n!

che per |z| < 1 converge uniformemente. Definita per c 6= 0, −1, −2, ..., prende
nome di serie ipergeometrica, può essere continuata analiticamente al di fuori del
cerchio |z| < 1. Tale continuazione definisce la funzione ipergeometrica, che ha
punti singolari in z = 1 e z = ∞. La serie ipergeometrica può essere considerata
come una particolare rappresentazione della funzione ipergeometrica.
Scegliendo, invece di c0 = 1,
1
c0 =
Γ(c)

si può considerare la funzione


X∞
1 (a)n (b)n z n
F̄ (a, b; c; z) = F (a, b; c; z) =
Γ(c) n=0
Γ(c + n) n!

che rimane finita anche per c = −N , con N = 1, 2, .... Dal momento che i primi
N + 1 termini della serie per c = −N sono nulli si potrà scrivere

X (a)k+N (b)k+N z k+N
F̄ (a, b; −N ; z) = .
Γ(k) (k + N )!
k=1

Va notato però che per z → 0, questa soluzione ha un andamento del tipo

F̄ (a, b; −N ; z) ∼ cost z N +1 = cost z 1−c

ovvero non è una soluzione di tipo u1 ma di tipo u2 .

La serie ipergeometrica è una generalizzazione della serie geometrica. Questa


infatti si ottiene ponendo a = c e b = 1
X∞ ∞ ∞
(a)n (1)n n X (1)n n X n 1
F (a, 1; a; z) = z = z = z = per |z| < 1
n=0
(a) n n! n=0
n! n=0
1 − z

41
essendo (1)n = n!.
Si noti che la F è simmetrica rispetto allo scambio dei primi due parametri

F (a, b; c; z) = F (b, a; c; z)

Inoltre
X∞
a(a + 1)...(a + n − 1) n
F (a, b; b; z) = z =
n=0
n!
X∞ ∞  
−a(−a − 1)...(−a − n + 1)(−1)n n X −a
= z = (−z)n = (1 − z)−a .
n=0
n! n=0
n
(2.38)
Se a o b è un numero intero negativo la serie si tronca, riducendosi a una somma
finita di termini.

X N  
(−N )n (b)n n X N (b)n n
F (−N, b; c; z) = z = (−1)n z
n=0
n! (c) n n=0
n (c)n

Questa proprietà può essere estesa al caso N = 0

F (0, b; c; z) = 1,

si noti infatti che per ab = 0 una delle soluzioni della equazione (2.34) è u1 =
cost.
Molte funzioni note possono essere considerate come casi particolari della
funzione ipergeometrica, per particolari scelte dei parametri.
Ad esempio:
X∞ ∞
(1)n (1)n n X n!n!
F (1, 1; 2; z) = z = zn = (2.39)
n=0
n!(2) n n=0
n!(n + 1)!

X ∞
zn 1 X zk 1
= = = − ln(1 − z)
n=0
(n + 1) z k z
k=1

Le proprietà (2.38) e (2.39) valgono per z complesso con |arg(1 − z)| < π.
Valgono inoltre le relazioni con le funzioni trigonometriche inverse
1 1 3 1
F ( , ; ; z 2 ) = arcsin(z) per |arg(1 ± z)| < π
2 2 2 z
1 3 1
F ( , 1; ; −z 2 ) = arctan(z) per |arg(1 ± iz)| < π
2 2 z
e quelle con gli integrali ellittici completi
Z π/2
1 π 1 1
K(z) = (1 − sin2 ϕ)− 2 dϕ = F ( , ; 1; z 2 )
0 2 2 2
Z π/2
1 π 1 1
E(z) = (1 − sin2 ϕ) 2 dϕ = F (− , ; 1; z 2 )
0 2 2 2

42
per |arg(1 − z)| < π.

Utilizzando le proprietà del simbolo di Riemann, possiamo ottenere


   
 0 1 ∞   0 1 ∞ 
P 0 0 a z = z 1−c P c−1 0 a−c+1 z =
   
1−c c−a−b b 0 c−a−b b−c+1
 
 0 1 ∞ 
= z 1−c P 0 0 a−c+1 z
 
c−1 c−a−b b−c+1
che ci permette di scrivere una soluzione dell’equazione ipergeometrica in fun-
zione della soluzione della stessa equazione con nuovi coefficienti. Se al posto
dell’ultimo simbolo sostituiamo la funzione ipergeometrica F (a − c + 1, b − c +
1; 2 − c; z) otteniamo z 1−c F (a − c + 1, b − c + 1; 2 − c; z) che risulterà essere
una soluzione dell’equazione (2.34), che potrà essere linearmente indipendente
da F (a, b; c; z). Proprio questo avviene per c 6= n dove n è un qualunque intero.
Infatti in tal caso la nuova soluzione è proprio la

u2 = z 1−c F (a − c + 1, b − c + 1; 2 − c; z)

che va nell’intorno dello zero come u2 ∼ z 1−c con c non intero, mentre u1 ∼ 1.
La soluzione generale è allora del tipo

u(z) = AF (a, b; c; z) + Bz 1−c F (a − c + 1, b − c + 1; 2 − c; z). (2.40)

Con una trasformazione dello stesso tipo sul simbolo P che lascia però
invariati gli esponenti del punto z = 0, si ha
   
 0 1 ∞   0 1 ∞ 
P 0 0 a z = (1−z)c−a−b P 0 a+b−c c−b z =
   
1−c c−a−b b 1−c 0 c−a
 
 0 1 ∞ 
= (1 − z)c−a−b P 0 0 c−a z
 
1−c a+b−c c−b
da cui risulta che anche

u(z) = (1 − z)c−a−b F (c − a, c − b; c; z)

è una soluzione. Pertanto deve valere la relazione

(1−z)c−a−bF (c−a, c−b; c; z) = AF (a, b; c; z)+Bz 1−cF (a−c+1, b−c+1; 2−c; z)

per opportuni valori di A e B. Questi valori si determinano facilmente, per


z → 0, dall’andamento dei diversi termini. Si ha A = 1, B = 0. Segue quindi
che
F (a, b; c; z) = (1 − z)c−a−b F (c − a, c − b; c; z) (2.41)

43
che prende nome di relazione di autotrasformazione della funzione ipergeomet-
rica.
Altre trasformazioni si possono ottenere considerando il cambiamento di
variabile
az + b
z0 = con ad − bc 6= 0
cz + d
già studiato in precedenza. In particolare ci interessano quelle che permutano i
punti singolari (0, 1, ∞) tra di loro: esse sono
1 1 0 z−1 0 z
z0 = 1 − z z0 = z0 = z = z =
1−z z z z−1
Ad esempio l’ultima ci permette di scrivere
   
 0 1 ∞   0 ∞ 1 
z
P 0 0 a z =P 0 0 a z−1 =
   
1−c c−a−b b 1−c c−a−b b
   
 0 1 ∞  z  0 1 ∞ 
z a z
=P 0 a 0 z−1  = ( −1) P 0 0 a z−1
 z−1  
1−c b c−a−b 1−c b−a c−b
Tenendo conto della 2.40, determinando i coefficienti studiando l’andamento per
z = 0, si ottiene facilmente la relazione
z
F (a, b; c; z) = (1 − z)−a F (a, c − b; c; )
z−1
che è una delle cinque formule di Bolza. Le altre si ottengono dalle altre trasfor-
mazioni e sono più complicate per la presenza di due termini con le espres-
sioni dei due coefficienti in ciascuna. Altre importanti relazioni si ottengono da
trasformazioni non lineari del tipo
√ √
1+ 1−z 1+ 1−z −4z
z0 = z0 = √ z0 = ...
2 1− 1−z (1 − z)2

La formula della derivata n−esima della funzione ipergeometrica è di ovvia


derivazione
dn (a)n (b)n
n
F (a, b; c; z) = F (a + n, b + n; c + n; z). (2.42)
dz (c)n
La rappresentazione integrale della funzione ipergeometrica si può ottenere a
partire dal calcolo dell’integrale
Z 1
I(z) = ta−1 (1 − t)c−a−1 (1 − zt)−b dt
0

scrivendo poi
∞ 
X  ∞
X
−b (b)k
(1 − zt)−b = (−1)k z k tk = z k tk
k k!
k=0 k=0

44
e sostituendosi ha

X Z 1 ∞
X
(b)k k a−1+k c−a−1 (b)k Γ(a + k)Γ(c − a)
I(z) = z t (1 − t) dt = zk
k! 0 k! Γ(c + k)
k=0 k=0

ricordando che
Z 1
Γ(α)Γ(β)
tα−1 (1 − t)β−1 dt = B(α, β) = .
0 Γ(α + β)

Si ha ancora

X (b)k Γ(a)(a)k Γ(c − a) k Γ(a)Γ(c − a)
I(z) = z = F (a, b; c; z)
k! Γ(c)(c)k Γ(c)
k=0

da cui
Z 1
Γ(c)
F (a, b; c; z) = ta−1 (1 − t)c−a−1 (1 − zt)−b dt
Γ(a)Γ(c − a) 0

dove la rappresentazione integrale ha valididità limitata a Re(c) > Re(a) > 0 e


|z| < 1.

45
2.13 Le funzioni di Legendre.
Consideriamo l’equazione
 
2 00 0 µ2
(1 − z )u − 2zu + ν(ν + 1) − u=0 (2.43)
(1 − z 2 )
E’ un’equazione con tre punti singolari Fuchsiani: −1, 1, ∞. Prende nome di
equazione di Legendre. Per z → 1 si ha
−2z −2z
p0 = lim (z − 1) = lim =1
z→1 (1 − z 2 ) z→1 −(1 + z)
 
ν(ν + 1) µ2 2 µ2
q0 = lim − (z − 1) = −
z→1 (1 − z 2 ) (1 − z 2 )2 4
L’equazione indiciale ρ2 + (p0 − 1)ρ + q0 = 0 diviene

µ2
ρ2 − =0
4
ovvero
µ
ρ=± .
2
Per z → −1 si ottengono gli stessi valori, mentre per z → ∞ si ha p0 = 2 e
q0 = −ν(ν + 1) nella equazione indiciale ρ(ρ + 1) − p0 ρ + q0 = 0, che diviene

ρ(ρ − 1) = ν(ν + 1)

che ha soluzioni
ρ = −ν ρ = ν + 1.
La soluzione generale è
 
−1  1 ∞ 
u=P −µ/2 −µ/2 −ν z
 
µ/2 µ/2 ν + 1

Ponendo
1−z
z0 =
2
i punti singolari si muovono da −1, +1, ∞ a 1, 0, ∞. Cosı̀ si ha, con attenzione
ai passaggi intermedi che utilizzano le proprietà del simbolo P ,
   
  1−z − 2  0 1
µ
 0 1 ∞ ∞ 
1−z 2 1−z
u=P −µ/2 −µ/2 −ν 2 = 1−z P 0 0 −ν 2
  2 −1
 
µ/2 µ/2 ν + 1 µ −µ ν + 1

Una soluzione particolare è data da


 − µ2
µ z−1 1−z
Pν (z) = F (−ν, ν + 1; 1 − µ; )
z+1 2

46
o, dividendo per Γ(1 − µ), da
  µ2
1 z+1 1−z
Pνµ (z) = F (−ν, ν + 1; 1 − µ; ) (2.44)
Γ(1 − µ) z−1 2

Le Pνµ (z) prendono nome di Funzioni di Legendre di prima specie.


Possiamo ottenere un’altra espressione per queste funzioni, se utilizziamo la
formula di autotrasformazione della funzione ipergeometrica

F (a, b; c; z) = (1 − z)c−a−b F (c − a, c − b; c; z)

che comporta
  µ2  −µ
1 z+1 1+z 1−z
Pνµ (z) = F (1 − µ + ν, −µ − ν; 1 − µ; )
Γ(1 − µ) z−1 2 2
ovvero
2µ µ 1−z
Pνµ (z) = (z 2 − 1)− 2 F (1 − µ + ν, µ − ν; 1 − µ; ) (2.45)
Γ(1 − µ) 2

Se Pνµ (z) è soluzione anche Pν−µ (z) è soluzione e se µ non è un intero le due
funzioni sono linearmente indipendenti, anche se si preferisce considerare come
seconde soluzioni le
 
µ πeiπµ µ Γ(ν + µ + 1) −µ
Qν (z) = Pν (z) − P (z) (2.46)
2 sin πµ Γ(ν − µ + 1) ν

che prendono nome di Funzioni di Legendre di seconda specie.

47
2.14 Le funzioni di Legendre con indice intero.
Per µ = m interi, invece

Γ(ν − m + 1) m
Pν−m (z) = P (z) (2.47)
Γ(ν + m + 1) ν
e per m = 0
1−z
Pν0 (z) = F (−ν, ν + 1; 1; ) ≡ Pν (z) (2.48)
2
La funzione indicata con Pν (z) è soluzione dell’equazione

(1 − z 2 )u00 − 2zu0 + ν(ν + 1)u = 0. (2.49)


Dalla formula della derivata m-esima della funzione ipergeometrica si ha
 m
dm (−ν)m (ν + 1)m 1 1−z
m
Pν (z) = − F (−ν + m, ν + 1 + m; 1 + m; )
dz (1)m 2 2

Dalle proprietà della F , dall’espressione (2.45) con µ = −m si ha


 m
dm (−ν)m (ν + 1)m 1 1−z
m
Pν (z) = − F (ν + 1 + m, −ν + m; 1 + m; )=
dz (1)m 2 2
 m
(−ν)m (ν + 1)m 1 m
= − Γ(1 + m)2m (z 2 − 1)− 2 Pν−m (z) =
(1)m 2
Γ(−ν + m)Γ(ν + 1 + m) m m Γ(ν + 1 − m)
= (−1) m!(z 2 − 1)− 2 P m (z) =
Γ(−ν)Γ(ν + 1)m! Γ(ν + 1 + m) ν
Γ(−ν + m)Γ(ν + 1 − m) m
= (−1)m (z 2 − 1)− 2 Pνm (z) =
Γ(−ν)Γ(ν + 1)
(−ν) (−ν + 1)...(−ν + m − 1) m m
= (−1)m (z 2 − 1)− 2 Pνm (z) = (z 2 − 1)− 2 Pνm (z)
(ν) (ν − 1)...(ν − m + 1)
da cui
dm m
Pνm (z) = (z 2 − 1) 2 Pν (z) (2.50)
dz m
che è valida per qualunque ν ed m intero positivo.

2.15 Polinomi di Legendre e funzioni associate.


Se m = 0 e se ν = l, con l = 0, 1, 2, ..., si hanno le funzioni
1−z
Pl (z) = F (−l, l + 1; 1; )
2

48
che coincidono con i Polinomi di Legendre di grado l. Inoltre se l = −n con
n = 1, 2, ...
P−n (z) = Pn−1 (z).
Dalla (2.50) si ricavano anche le funzioni associate ai polinomi di Legendre
m dm
Plm (z) = (z 2 − 1) 2 Pl (z)
dz m
se 0 ≤ m ≤ l, mentre se −l ≤ m < 0 si utilizza la relazione (2.47) ovvero

(l − m)! −m
Plm (z) = P (z)
(l + m)! l
In questo modo le Plm (z) non nulle, dipendono dai due indici l ed m, con la
condizione −l ≤ m ≤ l.
La equazione (2.43) diviene, ponendo z = x con −1 ≤ x ≤ 1
 
d d m2
(1 − x2 ) − Plm (x) = −l(l + 1)Plm (x)
dx dx 1 − x2

che è un’equazione agli autovalori per l’operatore differenziale Om

d d m2
Om = (1 − x2 ) −
dx dx 1 − x2
che posso scrivere
Om | Plm >= −l(l + 1) | Plm > .
Notiamo che nella base dei | Plm > Om è autoaggiunto. Se l 0 6= l,

< Plm 0 | Om | Plm > − < Plm | Om | Plm 0 > =


Z +1
= [l0 (l0 + 1) − l(l + 1)] < Plm | Plm
0 > = Plm (x)Plm
0 (x)dx = 0
−1

Per ogni m il sistema di funzioni associate ai polinomi di Legendre Plm (x) per
l ≥ m costituisce un sistema di funzioni ortogonali. La normalizzazione è data
da Z +1
2 2 (l + m)!
[Plm (x)] dx = = hm
l .
−1 2l + 1 (l − m)!
Di conseguenza una qualunque funzione f (x) ∈ L21 (−1, 1) potrà esere sviluppata
in serie di Fourier
X∞
f (x) ∼ cl Plm (x)
l=m

con m fissato e Z +1
1
cl = m Plm (x)f (x)dx.
hl −1

49
2.16 L’equazione ipergeometrica confluente.
Partendo dall’equazione ipergeometrica, scritta nella variabile t,

t(1 − t)u00 + [c − (a + b + 1)t] u0 − abu = 0 (2.51)

si pone t = z/b e si ottiene

d2 u du
z(b − z) + [bc − (a + b + 1)z] − abu = 0
dz 2 dz
 
d2 u bc (a + b + 1) du abu
+ − − =0
dz 2 z(b − z) b−z dz z(b − z)
E’ una equazione differenziale con tre punti singolari Fuchsiani in 0, b, ∞. Con
la scelta b → ∞ si ottiene
d2 u h c i du a
+ − 1 − u=0 (2.52)
dz 2 z dz z
che prende nome di equazione ipergeometrica confluente. Ha solo due punti
singolari, 0 ed ∞, il primo è regolare, il secondo no. In un cerchio con centro
in punto z = 0, di qualunque raggio, possiamo ricavare le soluzioni. Si ha
l’equazione indiciale
ρ(ρ − 1) + cρ = 0
che ha soluzioni
ρ1 = 0 ρ2 = 1 − c
Le soluzioni si ottengono da quelle della equazione (2.51)

u1 = F (a, b; c; t) u2 = t1−c F (a − c + 1, b − c + 1; 2 − c; t)

sostituendo t = z/b si ha
z z
u1 = F (a, b; c; ) u2 = z 1−c F (a − c + 1, b − c + 1; 2 − c; ).
b b
La prima delle due soluzioni è data da

X (a)k (b)k z k
z
u1 = F (a, b; c; ) =
b (c)k k! bk
k=0

Occorrerà poi far tendere b → ∞.

50
2.17 La funzione ipergeometrica confluente.
E’ facile osservare che per b → ∞ La funzione ipergeometrica confluente.

(b)k
lim =1
b→∞ bk

e di conseguenza

X (a)k
z
u1 = lim F (a, b; c; ) = zk =
b→∞ b (c)k k!
k=0

a a(a + 1) z 2 a(a + 1)...(a + n − 1) z n


Φ(a, c; z) = 1 + z + + ... + + ... = (2.53)
c c(c + 1) 2! c(c + 1)...(c + n − 1) n!

X (a)k z k
=
(c)k k!
k=0

è la funzione ipergeometrica confluente o funzione di Kummer. La funzione è


regolare in z = 0, Φ(a, c; 0) = 1, il raggio di convergenza della serie è infinito.
La funzione ipergeometrica confluente è una funzione intera.
L’altra soluzione distinta da questa per c 6= 1, 2, ... è

u2 = z 1−c Φ(a − c + 1, 2 − c; z)

e la soluzione generale dell’equazione ipergeometrica confluente si potrà scrivere

u = A1 Φ(a, c; z) + A2 z 1−c Φ(a − c + 1, 2 − c; z) (2.54)

in qualunque z, purché sia c 6= 0, −1, −2, ...

Abbiamo visto che la funzione ipergeometrica confluente



X (a)k k
Φ(a, c; z) = z
(c)k k!
k=0

è una funzione intera. Essa assume valori speciali in corrispondenza di scelte


opportune dei parametri. Ad esempio

Φ(a, a; z) = ez

ez − 1
Φ(1, 2; z) =
z
Inoltre, per a = −n con n intero non negativo, si ha un polinomio di grado n
n  
X (−1)k n
Φ(−n, c; z) = zk.
(c)k k
k=0

51
La equazione ipergeometrica confluente si può scrivere come

zu00 + (c − z)u0 − au = 0 (2.55)

che per a = n e c = α + 1 diviene

zu00 + (α + 1 − z)u0 − nu = 0

che è l’equazione differenziali dei polinomi di Laguerre. Infatti, con opportuna


normalizzazione, si ha
 
n+α

n (x) = Φ(−n, α + 1; x).
n

Anche i polinomi di Hermite risultano legati alla funzione ipergeometrica con-


fluente
(2m)! 1
H2m (x) = (−1)m Φ(−m, ; x2 )
m! 2
(2m + 1)! 3
H2m+1 (x) = (−1)m 2xΦ(−m, ; x2 ).
m! 2

Per c = −n con n = 0, 1, 2, ... la definizione della Φ perde significato.


Conviene quindi definire
1
Φ̄(a, c; z) = Φ(a, c; x) (2.56)
Γ(c)

che ha un limite finito e può essere resa continua per c → −n. Infatti
∞ ∞
1 X (a)k z k 1 X (a)k Γ(−n)z k
Φ̄(a, −n; z) = = =
Γ(−n) (−n)k k! Γ(−n) Γ(k − n) k!
k=0 k=0


X ∞
X 0 ∞
X
(a)k z k (a)k0 +n+1 z k +n+1 (a)h+n z h+n
= = =
Γ(k − n) k! 0
Γ(k 0 + 1) (k 0 + n + 1)! Γ(h) (h + n)!
k=0 k =0 h=1

Di nuovo questa soluzione è del tipo u2 andando, per z → 0, come z n+1 = z 1−c .

Immediata è poi la formula della derivata n-esima della Φ

dn (a)n
Φ(a, c; z) = Φ(a + n, c + n; z) (2.57)
dz n (c)n

mentre dalla rappresentazione integrale della


Z 1
Γ(c)
0
F (a, b; c; z ) = ta−1 (1−t)c−a−1 (1−tz 0 )−b dt per Re(c) > Re(a) > 0
Γ(a)Γ(c − a) 0

52
ponendo z 0 = z/b e facendo il limite
 −b " − ztb #zt
zt zt
lim 1− = lim 1− = ezt
b→∞ b b→∞ b

si ha
Z 1
Γ(c)
Φ(a, c; z) = ezt ta−1 (1 − t)c−a−1 dt (2.58)
Γ(a)Γ(c − a) 0

che è la rappresentazione integrale della Φ(a, c; z) per Re(c) > Re(a) > 0.

Si può poi ricavare una relazione notevole per la Φ, ponendo nell’equazione


ipergeometrica confluente (2.55)

zu00 + (c − z)u0 − au = 0

la sostituzione
u(z) = ez v(z)
Si ha
zv 00 (z) + (c + z)v 0 (z) − (a − c)v(z) = 0
che, con la trasformazione z → −z, diviene

zv 00 (−z) + (c − z)v 0 (−z) − (c − a)v(−z) = 0

che è ancora una equazione ipergeometrica confluente in v(−z) con nuovi coef-
ficienti. Una soluzione particolare di questa è

v(−z) = Φ(c − a, c; z)

e quindi una soluzione particolare della (2.52) è la

u(z) = ez Φ(c − a, c; −z)

che per opportuni valori dei coefficienti potremo eguagliare alla soluzione gen-
erale 2.54

ez Φ(c − a, c; −z) = A1 Φ(a, c; z) + A2 z 1−c Φ(a − c + 1, 2 − c; z).

I coefficienti possono essere determinati considerando l’andamento all’origine:


si ha A1 = 1 ed A2 = 0, ottenendo cosı̀

Φ(a, c; z) = ez Φ(c − a, c; −z) (2.59)

che prende nome di relazione di Kummer.

Tra le altre proprietà notevoli vi sono alcune relazioni di ricorrenza

(c − a − 1)Φ(a, c; z) + aΦ(a + 1, c; z) − (c − 1)Φ(a, c − 1; z) = 0

53
cΦ(a, c; z) − cΦ(a − 1, c; z) − zΦ(a, c + 1; z) = 0
(a − 1 + z)Φ(a, c; z) + (c − a)Φ(a − 1, c; z) − (c − 1)Φ(a, c − 1; z) = 0
c(a + z)Φ(a, c; z) − acΦ(a + 1, c; z) − (c − a)zΦ(a, c + 1; z) = 0
(c − a)Φ(a − 1, c; z) + (2a − c + z)Φ(a, c; z) − aΦ(a + 1, c; z) = 0
c(c − 1)Φ(a, c − 1; z) − c(c − 1 + z)Φ(a, c; z) + (c − a)zΦ(a, c + 1; z) = 0
Le prime due si ottengono direttamente dalla definizione, lo sviluppo in serie,
mentre le altre si ricavano dalle prime due.
Da queste si ricavano anche le relazioni triangolari
z
Φ(a, c; z) = Φ(a + 1, c; z) − Φ(a + 1, c + 1; z)
c
c−a a
Φ(a, c; z) = Φ(a, c + 1; z) + Φ(a + 1, c + 1; z).
c c

54
2.18 La funzione ipergeometrica confluente di
seconda specie.
Se invece di studiare la soluzione nel cerchio di raggio qualunque centrato sul-
l’origine, vogliamo considerare l’intorno del punto all’infinito, punto singolare
non Fuchsiano, possiamo scrivere
 
1
u(z) = z −ρ 1 + O( )
z

Sostituendo nella (2.52) si ottiene

ρ=a

e provare con la soluzione



X
u(z) = z −a ck z −k (2.60)
k=0

Si ottiene  
c−a−1
ck = (a)k
k
Poichè
ck
lim =0
k→∞ ck+1
la serie non converge. Tuttavia si può considerare la (2.60) come lo svilup-
po asintotico di una soluzione che prende il nome di Funzione Ipergeometrica
confluente di seconda specie. Si avrà
n 
X 
c−a−1
Ψ(a, c; z) = (a)k z −a−k + O(z −a−n−1 ). (2.61)
k
k=0

Di questa funzione si può dare una rappresentazione integrale


Z ∞
1
Ψ(a, c; z) = e−zt ta−1 (1 − t)c−a−1 dt (2.62)
Γ(a) 0

valida per Re z > 0 e Re a > 0. La Ψ(a, c; z) può essere scritta come com-
binazione lineare delle due soluzioni u1 ed u2 . Determinando i coefficienti si
ha

Γ(1 − c) Γ(c − 1) 1−c


Ψ(a, c; z) = Φ(a, c; z) + z Φ(a − c + 1, 2 − c; z). (2.63)
Γ(a − c + 1) Γ(a)

Anche la Ψ(a, c; z) avrà relazioni di ricorrenza e proprietà notevoli. Ad esempio

Ψ(a, c; z) − aΨ(a + 1, c; z) − Ψ(a, c − 1; z) = 0

55
(c − a)Ψ(a, c; z) + Ψ(a − 1, c; z) − zΨ(a, c + 1; z) = 0
dm
Ψ(a, c; z) = (−1)m (a)m Ψ(a + m, c + m; z)
dz m
Una qualunque soluzione della equazione ipergeometrica può essere scritta
come combinazione lineare delle funzioni ipergeometriche confluenti di prima e
seconda specie
u = AΦ(a, c; z) + BΨ(a, c; z)
Inoltre valgono due relazioni che sono simmetriche rispetto alle espressioni (2.54)
e (2.59)
u = B1 Ψ(a, c; z) + B2 ez Ψ(c − a, c; −z)
Ψ(a, c; z) = z 1−c Ψ(a − c + 1, 2 − c; z).

2.19 La forma di Whittaker della equazione iper-


geometrica confluente.
Dalla forma
c−z 0 a
u00 + u − u=0
z z
si può passare alla forma ridotta, attraverso la sostituzione,
1
u = [ω(z)]− 2 v(z)
Z
c−z
ω(z) = exp[ dz] = z c e−z
z
per giungere a
v 00 (z) + J(z)v(z) = 0
dove
   2
a 1 d c−z 1 c−z
J(z) = − − − =
z 2 dz z 4 z
1 a − c/2 1 c(c − 1/2)
= − − + =
4 z 2 z2
1 κ 1/4 − ν 2
= − − +
4 z z2
Con la posizione
1 c−1
κ= (c − 2a) ν=
2 2
si ha
a = 1/2 + ν − κ c = 1 + 2ν

56
e l’equazione ipergeometrica confluente scritta nella forma di Whittaker
 
00 1 κ 1/4 − ν 2
v (z) + − + + v(z) = 0
4 z z2

ha soluzione generale

v(κ, ν; z) = z c/2 e−z/2 u(a, c; z)

dove u(a, c; z) è la soluzione generale della (2.52).

57
2.20 Le Funzioni di Bessel.
La equazione ipergeometrica confluente

zu00 + (c − z)u0 − au = 0

con soluzione generele u(a, c; z), scritta in forma ridotta, diviene


 1 
1 κ − ν2
v 00 + − + + 4 2 v=0
4 z z

con soluzione generale


c z
v = z 2 e− 2 u(a, c; z) dove c = 2ν + 1 a = c/2 − κ.

Ponendo κ = 0 si ha la equazione
 1 
00 1 4 − ν2
v + − + v=0 (2.64)
4 z2
La soluzione dipende solo dal parametro ν ed è

v(z) = z ν+1/2 e−z/2 u(ν + 1/2, 2ν + 1; z)

Con le sostituzioni

z = 2it v(2it) = t1/2 Zν (t)

si ottiene una nuova equazione in Zν (t) ed anche l’espressione della soluzione


generale in termine della u(a, c; t). Risostituendo t = z, si ha

1 0 ν2
Zν00 (z) + Zν (z) + (1 − 2 )Zν (z) = 0 (2.65)
z z
Zν (z) = z ν e−iz u(ν + 1/2, 2ν + 1; 2iz) (2.66)

La (2.65) e la (2.66) sono rispettivamente la equazione di Bessel e la soluzione


generale dell’equazione stessa in termini della soluzione generale della equazione
ipergeometrica confluente. Si incontra la eq. (2.65) insieme con le sue soluzioni
nella teoria del potenziale con condizioni al contorno cilindriche. Per questo
le funzioni Zν (z) si chiamano anche funzioni cilindriche. Esse sono oggetto di
diversi trattati, il più famoso è quello di G.N. Watson, A treatise of the theory
of Bessel functions, Cambridge Univ. Press (1962).

La equazione (2.64) nel caso ν = ±1/2 ha soluzioni immediatamente ot-


tenibili: v±1/2 (2iz) = sin z e v±1/2 (2iz) = cos z, da cui le Z−1/2 (z) sono del
tipo
sin(z) cos(z)
√ e √ .
z z

58
L’equazione di Bessel ha due punti singolari: uno Fuchsiano a z = 0 ed
uno non Fuchsiano a z = ∞. A z → 0 nell’equazione indiciale si ha p0 = 1 e
q0 = −ν 2 .
ρ2 = ν 2 quindi ρ = ±ν
Per ρ = ν la soluzione è del tipo

X
Jν (z) = z ν ck z k
k=0

che va inserita nell’equazione (2.65), dando origine la relazione tra i coefficienti


della serie
ck−2
ck = −
k(k + 2ν)
Ponendo c0 6= 0 e c1 = 0, la serie contiene solo potenze pari e si può porre
k = 2n
2−2 c2(n−1)
c2n = −
n(n + ν)
da cui posto
2−ν
c0 = +
Γ(ν + 1)
si ha
2−ν−2 2−ν−4 2−ν−6
c2 = − c4 = c6 = − ...
1 · Γ(ν + 2) 1 · 2 · Γ(ν + 3) 1 · 2 · 3 · Γ(ν + 4)
ovvero
2−ν−2n
c2n = dn = (−1)n
n!Γ(ν + n + 1)
Si ha allora che la soluzione cercata è data da
zν X

(−1)k  z 2k
Jν (z) = ν (2.67)
2 k!Γ(ν + k + 1) 2
k=0

che coincide peraltro con la espressione


1  z ν
Jν (z) = e−iz Φ(ν + 1/2, 2ν + 1; 2iz) (2.68)
Γ(ν + 1) 2
Jν (z) prendono nome di Funzioni di Bessel di prima specie. Per ν qualunque,
z = 0 e z = ∞ possono essere punti di polidromia. Per ν reale e z reale positivo
Jν (z) è monodroma e reale. Negli altri casi si sceglie di tagliare il piano comp-
lesso sul semiasse reale negativo per rendere la funzione monodroma: |arg z| <
π.

Per ν diverso da un intero, J−ν (z) è una soluzione linearmente indipen-


dente da Jν (z), ma si preferisce scegliere, come seconda soluzione della coppia
fondamentale, la soluzione
1
Yν (z) = (Jν (z) cos (πν) − J−ν (z)) (2.69)
sin(πν)

59
che prende nome di funzione di Bessel di seconda specie o funzione di Neumann.

Accanto alle funzioni di Bessel di prima e seconda specie si considerano anche


le funzioni di Hankel di prima e seconda specie definite da

Hν(1) (z) = Jν (z) + iYν (z) (2.70)

Hν(2) (z) = Jν (z) − iYν (z) (2.71)


Quando ν è reale e z è reale positivo
h Jν (z) ei Yν (z) sono reali, mentre le funzioni

(1) (2)
di Hankel sono complesse e si ha Hν (z) = Hν (z). Se invece ν e z sono
numeri complessi qualunque si ha
h i∗
∗ ∗ (2)
[Jν (z)] = Jν ∗ (z ∗ ) [Yν (z)] = Yν ∗ (z ∗ ) Hν(1) (z) = Hν ∗ (z ∗ ) (2.72)

Si può pertanto vedere un’analogia tra le funzioni di Bessel di prima e seconda


specie e le funzioni trigonometriche sin z e cos z, e tra le funzioni di Hankel di
prima e seconda specie le due funzioni esponenziali complesse eiz ed e−iz .
Si può mostrare che le funzioni di Henkel possono essere espresse in funzione
della soluzione Ψ della equazione ipergeometrica confluente mediante le due
espressioni
2i
Hν(1) (z) = − √ ei(z−πν) (2z)ν Ψ(ν + 1/2, 2ν + 1; −2iz) (2.73)
π
2i
Hν(2) (z) = √ e−i(z−πν) (2z)ν Ψ(ν + 1/2, 2ν + 1; 2iz) (2.74)
π
Dalla forma esse sono sicuramente soluzioni dell’equazione di Bessel. Utilizzando
la (2.63) si può calcolarne l’andamento nel limite z → 0 e si mostra che le
combinazioni lineari
1 h (1) i
Jν (z) = Hν (z) + Hν(2) (z)
2
1 h (1) i
Yν (z) = Hν (z) − Hν(2) (z)
2i
hanno il corretto comportamento al limite previsto per Jν (z) e Yν (z).

Le espressioni (2.73) e (2.74) consentono di ottenere facilmenti gli sviluppi


asintotici delle funzioni di Hankel a partire da quello della Ψ
 
ν 2 − 1/4 1
Ψ(ν+1/2, 2ν+1; −2iz) ∼ (−2iz)−ν−1/2 1 + + O( 2 ) per z → ∞
−2iz z

che comporta
r  
2 i(z− π ν− π ) ν 2 − 1/4 1
Hν(1) (z) ∼ e 2 4 1+ + O( 2 )
πz −2iz z

60
r  
2 −i(z− π ν− π ) ν 2 − 1/4 1
Hν(1) (z) ∼ e 2 4 1+ + O( 2 )
πz 2iz z
e da cui segue
r  
2 π π 1
Jν (z) ∼ cos(z − ν − ) 1 + O( ) (2.75)
πz 2 4 z
r  
2 π π 1
Yν (z) ∼ sin(z − ν − ) 1 + O( )
πz 2 4 z
In questo modo è poi possibile ottenere l’espressione asintotica a qualunque
ordine in 1/z,invece del solo primo termine. Si vede comunque che, per valori di
z reale positivo, al tendere di z all’infinito, le due funzioni si comportano come
funzioni oscillanti, con infiniti zeri che da un certo punto in poi sono distanziati
di π come le funzioni cos e sin. Invece per z → 0, per z e ν reali positivi Jν (z)
va a zero mentre Yν (z) diverge. Questo comportamento caratterizza le funzioni
di Bessel sul semiasse reale.

La derivata di Jν (z) a partire dallo sviluppo (2.68) è

ν  z ν−1 X  z 2k

d (−1)k
Jν (z) = +
dz 2 2 k!Γ(ν + k − 1) 2
k=0

 z ν X

(−1)k  z 2k−1
+ =
2 (k − 1)!Γ(ν + k − 1) 2
k=1

ν  z ν X  z 2k  z ν+1 X  z 2k


∞ ∞
(−1)k (−1)k
= −
z 2 k!Γ(ν + k − 1) 2 2 (k)!Γ(ν + k) 2
k=0 k=0

dove nell’ultimo termine si è fatta la sostituzione k → k + 1. Si può scrivere


allora l’espressione della derivata
ν
Jν0 (z) = Jν (z) − Jν+1 (z) (2.76)
z
Derivando ancora si ottiene un’espressione per la derivata seconda in termini
di Jν , Jν+1 e Jν+2 che, inserita nell’equazione di Bessel, origina la formula di
ricorrenza

Jν+1 (z) − Jν (z) + Jν−1 (z) = 0 (2.77)
z
Dalle due formule si ottiene un’espressione nuova per la derivata
ν
Jν0 (z) = − Jν (z) + Jν−1 (z) (2.78)
z
Queste tre formule valgono anche per le funzioni di Bessel di seconda specie e
le funzioni di Hankel.

61
Una rappresentazione integrale della Jν (z) si ottiene a partire dalla rappre-
sentazione integrale della funzione ipergeometrica confluente
Z +1
(z/2)ν
Jν (z) = √ eiρz (1 − ρ2 )ν−1/2 dρ
πΓ(ν + 1/2) −1

scrivibile anche come


Z π/2
2(z/2)ν
Jν (z) = √ cos(z sin φ)(cos φ)2ν dφ
πΓ(ν + 1/2) 0

1
e valide per Re ν > 2.

2.21 Funzioni di Bessel di ordine intero.


Per ν = n = 0, 1, 2, .... la (2.67) diviene

(−1)k  z 2k+n

X
Jn (z) =
k!(n + k)! 2
k=0

da cui
(z/2)2 (z/2)4 (z/2)6
J0 (z) = 1 − + − + ...
(1!)2 (2!)2 (3!)2
 
z (z/2)2 (z/2)4 (z/2)6
J1 (z) = 1− + − + ...
2 1!2! 2!3! 3!4!
2(n − 1)
Jn (z) = Jn−1 (z) − Jn−2 (z)
z
Invece per ν = −n = −1, −1, ... si ha

X (−1)k  z 2k−n X ∞
(−1)s+n  z 2s+n
J−n (z) = =
k!Γ(−n + k + 1) 2 s=0
k!s! 2
k=0

da cui
J−n (z) = (−1)n Jn (z)
mostra che per indice interi le funzioni di Bessel di prima specie con indice
opposto non sono linearmente indipendenti e pertanto la definizione della Yn (z)
va riconsiderata, in quanto la (2.69) è una forma del tipo 0/0. Assuendo la
definizione come limite si può applicare la regola di De l’Hospital
 
1
Yn (z) = lim Yν (z) = lim (Jν (z) cos (πν) − J−ν (z)) =
ν→n ν→n sin(πν)

 
1 ∂Jv n ∂J−v
= − (−1)
π ∂ν ∂ν ν=n

62
Uno sviluppo della Yn (z) è dato da

1 X (n − k − 1)!  z 2k−n
n−1
Yn (z) = − +
π k! 2
k=0

1 X (−1)k (z/2)n+2k h i

z
+ 2 ln − ψ(k + 1) − ψ(k + n + 1)
π k!(n + k)! 2
k=0

dove
Γ0 (z)
ψ(z) =
Γ(z)
è la derivata logaritmica della funzione Γ(z), che per valori interi di z vale
1 1
ψ(1) = −γ ψ(m + 1) = −γ + 1 + + ... + con m = 1, 2, ...
2 m
γ = 0.57721566... è la costante di Eulero-Mascheroni. Le Yn (z) sono spesso
indicate come Nn (z).

2.22 Funzioni di Bessel di ordine semintero.


Si è già mostrato come l’equazione di Bessel per ν = ±1/2 abbia soluzioni
linearmente indipendenti date da
sin z cos z
√ √
z z

Consideriamo ora in generale le funzioni di Bessel di prima specie di ordine sem-


intero Jl+1/2 (z) a partire da J1/2 (z) e J−1/2 (z) utilizzando la formula generale
2.67
 z  21 X

(−1)k  z 2k
J1/2 (z) = =
2 k!Γ(3/2 + k) 2
k=0
  12 X
(−1)k 2k  z 2k+1

1 2
= =
Γ(3/2) z k!(2k + 1)!! 2
k=0
  21 X∞
2 2 (−1)k
= z 2k+1 =
Γ(1/2) z 2(2k)!!(2k + 1)!!
k=0
r ∞ r
2 1 X (−1)k 2k+1 2 sin z
= √ z = √
π z (2k + 1)! π z
k=0

dove si è notato che



3 3 3 5 2k + 1 3 (2k + 1)!! 3 1 1 π
Γ( + k) = Γ( ) ... = Γ( ) Γ( ) = Γ( ) =
2 2 22 2 2 2k 2 2 2 2

63
2k (k!) = (2k)!! (2k)!!(2k + 1)!! = (2k + 1)!
In modo analogo si ricava
 z − 12 X
∞  z 2k r
(−1)k 2 cos z
J−1/2 (z) = = √
2 k!Γ(1/2 + k) 2 π z
k=0

e dalla relazione di ricorrenza



Jν+1 (z) = Jν (z) − Jν−1 (z)
z
si ha r  
2 sin z
J3/2 (z) = − cos z
πz z
r  
2 3 sin z 3 cos z
J5/2 (z) = 2
− − sin z
πz z z
e cosı̀ via, mentre dalla

Jν−1 (z) = Jν (z) − Jν+1 (z)
z
segue che r
2  cos z 
J−3/2 (z) = − − sin z
πz z
r  
2 3 cos z 3 sin z
J−5/2 (z) = + − cos z ...
πz z2 z
Si noti inoltre che la relazione (2.69) ci mostra che

Y 2n+1 (z) = (−1)n+1 J− 2n+1 (z)


2 2

ovvero le J ad indici semintero negativo corrispondono proprio alle funzioni di


seconda specie a indici seminteri positivi.
Di conseguenza
r
2 cos z
Y 21 (z) = − J− 21 (z) = − √
π z
r r
(1) 2 iz (2) 2 −iz
H 1 (z) = −i e H 1 (z) = i e
2 πz 2 πz
Solo per indici seminteri le funzioni di Bessel si riducono a funzioni elementari.

64
2.23 Le funzioni di Bessel sferiche.
Nel trattare l’equazione di Schroedinger indipendente dal tempo, in 3D, con
potenziale costante V0 , ponendo

yl (kr) m
ψ(r) = Yl (θ, ϕ)
r
dove le Ylm (θ, ϕ) sono le armoniche sferiche (che vedremo più avanti), si ottiene
la equazione radiale
 2  
d l(l + 1)
+ 1 − yl (ρ) = 0
dρ2 ρ2

dove p
2m(E − V0 )
ρ = kr k= l = 0, 1, 2, ...
~
dove yl è continua e nulla nell’origine. Posto

yl (ρ) = ρfl (ρ)

si ha   
d2 2 d l(l + 1)
+ + 1 − fl (ρ) = 0 (2.79)
dρ2 ρ dρ ρ2
Con l’ulteriore sostituzione
1
fl (ρ) = 1 vl (ρ)
ρ2
si ottiene la equazione
" 2 #
1 0 l + 21
vl00 + vl + 1 − vl = 0
ρ ρ2

che coincide con l’equazione di Bessel per ν = l + 1/2.


Le soluzioni della (2.79) sono le funzioni di Bessel sferiche di prima e di
seconda specie cosı̀ definite
  21   21
π l+1 π
jl (ρ) = Jl+ 12 (ρ) nl (ρ) = (−1) J−l− 21 (ρ)
2ρ 2ρ

da cui
sin ρ sin ρ cos ρ 3 sin ρ 3 cos ρ sin ρ
j0 = j1 = − j2 = − + ...
ρ ρ2 ρ ρ3 ρ2 ρ
che sono regolari all’origine
 
ρl ρ2
jl (ρ) ∼ 1− + ... per ρ → 0
(2l + 1)!! 2(2l + 3)

65
e hanno il comportamento asintotico
1 π
jl (ρ) ∼ sin(ρ − l ) per ρ→∞
ρ 2
mentre
cos ρ cos ρ sin ρ 3 cos ρ 3 sin ρ cos ρ
−n0 = − n1 = 2
+ − n2 = + − ...
ρ ρ ρ ρ3 ρ2 ρ
all’origine divergono
 l+1  
(2l + 1)!! 1 ρ2
−nl (ρ) ∼ 1+ + ... per ρ → 0
2l + 1 ρ 2(2l − 1)

Le jl compaiono nello sviluppo dell’onda piana con direzione di propagazione


lungo l’asse polare z

X
eikz = eikr cos θ = (2l + 1)il jl (kr)Pl (cos θ)
l=0

e Pl (x) sono i polinomi di Legendre.

66
Capitolo 3

Operatori Integrali e
Differenziali. Funzioni di
Green.

3.1 Una premessa.


E’ conveniente utilizzare una notazione, molto usata in fisica, che lega la rap-
presentazione delle funzioni con la simbologia degli spazi vettoriali astratti. Il
prodotto scalare
Z b
<f |g>= w(x)f ∗ (x)g(x)dx (3.1)
a

tra due funzioni, rispetto alla funzione peso w(x), può essere considerato come
la generalizzazione del prodotto in uno spazio N −dimensionale con una base
ortonormale, che può essere scritto in funzione delle componenti controvarianti
come
XN
∗
<a|b>= a j bj . (3.2)
j=1

Ciascun valore di f (x) per a ≤ x ≤ b può essere considerato come una com-
ponente del vettore | f > rispetto ad una base i cui vettori ortonogonali | x >
sono distribuiti con continuità. Si definisce allora

f (x) = < x | f > . (3.3)

La continuità di x crea problemi nel definire la normalizzazione di | x >.


L’ortogonalità impone comunque che

< x | x0 > = 0 per x0 6= x.

67
E’ possibile scrivere il vettore | f > in termini delle componenti
Z b
|f >= dxw(x)f (x) | x > (3.4)
a

Moltiplicando per < x0 |


Z b
< x0 | f > = f (x0 ) = dxw(x)f (x) < x0 | x >
a

e confrontando questa espressione con


Z b
f (x0 ) = dxf (x)δ(x − x0 )
a

dovremo porre
1 1 1
< x0 | x > = p δ(x − x0 ) = δ(x − x0 ) = δ(x − x0 ) (3.5)
w(x)w(x0 ) w(x) w(x0 )

Si risolve cosı̀ il problema della normalizzazione. In uno spazio SN , con una


base | ei > ortonormale, l’operatore identità si scrive
N
X
E= | ei >< ei |
i=1

Nello spazio delle funzioni l’operatore identità si scriverà in modo analogo


Z b
E= dx | x > w(x) < x | (3.6)
a

Come conseguenza potremo scrivere

Z b
< x0 | E | x00 > = < x0 | x00 > = dx < x0 | x > w(x) < x | x00 >
a
ovvero Z b
δ(x0 − x00 ) = dxδ(x0 − x)δ(x − x00 ) (3.7)
a
Questa espressione generalizza la già nota proprietà, valida per le funzioni f (x)
con buon comportamento in x = x0 ,
Z b
f (x0 ) = dxf (x)δ(x − x0 )
a

alla distribuzione δ stessa. La (3.7) rappresenta la naturale generalizzazione


della proprietà
N
X
δ ij = δ ik δ kj .
k=1

68
Se f (x) ∈ L2w (a, b), dato un sistema completo di funzioni ortonormali nellostesso
spazio, si può scrivere

X
f (x) = f k e(k) (x)
k=1

dove l’eguaglianza va intesa come convergenza in media della serie. L’espressione


può essere trascritta in notazione vettoriale, in S∞ ,

X
|f >= f k | ek >
k=1

dal momento che e(k) (x) è pensabile come il risultato di un prodotto scalare del
tipo indicato dalla (3.3)
e(k) (x) = < x | ek > .
In S∞ l’operatore identità si potrà scrivere

X
E= | ek >< ek |
k=1

Da quest’espressione, moltiplicando a sinistra per < x0 | e a destra per | x > si


ottiene ∞
1 X
p δ(x0 − x) = e(k) (x0 )e∗(k) (x) (3.8)
w(x)w(x )0
k=1

che costituisce lo sviluppo in serie della δ sul sistema completo di funzioni.

3.2 Operatori integrali.

Scriviamo ora un operatore integrale come


Z b Z b
K= dx00 dx0 | x00 > w(x00 )K(x00 , x0 )w(x0 ) < x0 | (3.9)
a a

Questa scrittura è la diretta generalizzazione dell’espressione, valida in S N


N X
X N
| ei > Kji < ej |
i=1 j=1

che è un modo di scrivere l’operatore K. Infatti moltiplicando a destra per


N
X
|f >= f l | el >
l=1

69
si ottine un vettore un vettore | g > di componenti
N
X
gi = Kji f j .
j=1

che costituisce la rappresentazione, ottenuta mediante un prodotto matriciale,


del prodotto di un operatore lineare per un vettore

|g>=K |f >

Se passiamo da SN a S∞ possiamo scrivere la stessa relazione utilizzando la


definizione (3.9)
Z b Z b
|g>= dx00 dx0 | x00 > w(x00 )K(x00 , x0 )w(x0 ) < x0 | f > =
a a

da cui, moltiplicando entrambi i membri a sinistra per < x |


Z b Z b
<x|g>= dx00 dx0 δ(x − x00 )w(x00 )K(x00 , x0 )f (x0 ),
a a

si ottiene la relazione funzionale


Z b
g(x) = dx0 w(x0 )K(x, x0 )f (x0 ) (3.10)
a

che è una rappresentazione integrale della funzione g(x), tramite il nucleo in-
tegrale K(x, x0 ). Abbiamo cosı̀ posto in evidenza la relazione tra la rappresen-
tazione matriciale del prodotto di un operatore per un vettore e la rappresen-
tazione analitica dello stesso prodotto data dalla (3.10).

Se l’operatore K è hermitiano, il nucleo integrale avrà la proprietà

K ∗ (x0 , x) = K(x, x0 )

simile alla proprietà delle matrici hermitiane, che rappresentano un operatore


hermitiano in una base ortonormale. Supponiamo ora che il nucleo integrale sia
sviluppabile in doppia serie di funzioni e(m) (x) costituenti un sistema completo
ortonormale in L2w (a, b).
X X
K(x, x0 ) = Knm < x | em >< en | x0 > = Knm e(m) (x)e∗(n) (x0 )
m,n m,n

Se la serie converga in media, ovvero


Z b Z b
2
lim dxdx0 w(x)w(x0 ) |K(x, x0 ) − KN (x, x0 )| = 0
N →∞ a a

70
dove
N
X
KN (x, x ) = 0
Knm e(m) (x)e∗(n) (x0 )
m,n
2
rappresenta la ridotta N -esima dello sviluppo in serie. La serie converge

in media se l’integrale
Z b Z b
2
dxdx0 w(x)w(x0 ) |K(x, x0 )|
a a

esiste ed è finito. In tale caso non solo la convergenza in media della se-
rie è assicurata, ma l’operatore lineare K rappresentato dal nucleo integrale
K(x, x0 ), risulta essere un operatore completamente continuo. Per lo studio
delle proprietà di tali operatori si rimanda alla Sezione 14 del capitolo III del P.
Dennery, A. Krzywicki, in particolare al teorema fondamentale sugli operatori
completamente continui hermitiani. Riportiamo qui alcune conseguenze.
Nel caso che K sia hermitiano, ovvero che si abbia
K(x, x0 ) = K ∗ (x0 , x)
possiamo scrivere l’equazione agli autovalori
K|f >=k|f >
con autovalori k reali, espressa nella rappresentazione analitica da
Z b
K(x, x0 )f (x0 )w(x0 )dx0 = kf (x) (3.11)
a
(n)
e che ha autovalori k = km e autovettori fm (x) = < x | n, km > . L’indice (n)
è necessario se allo stesso autovalore corrispondono più autovettori linearmente
indipendenti. In tal caso sarà possibile scegliere un numero finito di funzioni
ortonormali. Si può mostrare che
a) La (3.11) ammette almeno un autovalore non nullo.
b) Al di fuori di qualunque intervallo [−, ] può esistere solo un numero
finito di autovalori e il numero di funzioni ortonormali che corrispondono a uno
stesso autovalore è finito.
c) Ogni funzione g(x) che può essere rappresentata da una rappresentazione
integrale tramite il nucleo K(x, x0 ) come
Z b
g(x) = K(x, x0 )h(x0 )dx0
a

può essere sviluppata in serie di Fourier sulla base degli autovettori di K, le


(n)
funzioni fm (x), dove m è l’indice dell’autovalore km e l’indice n corre sulle
autofunzioni ortonormali che corrispondono allo stesso autovalore
X
(n)
g(x) = < n, km | g > fm (x)
m,n

71
La convergenza in media di questa serie è garantita dal fatto che
Z b
2
dx0 w(x0 ) |K(x, x0 )| < C
a

dove C è una costante reale indipendente da x.

3.3 Operatori differenziali lineari.


Analogamente al modo in cui sono stati definiti gli operatori integrali, si possono
definire gli operatori differenziali. Un operatore lineare differenziale L, che agisce
sulle funzioni | f > appartenenti ad uno spazio funzionale S, produce funzioni
L | f > che in generale appartengono ad uno spazio funzionale diverso. Ciascuna
funzione cosı̀ ottenuta è rappresentabile dal prodotto scalare (o elemento di
matrice)

df (x) d2 f (x) dN f (x)


< x | L | f > = a0 (x)f (x) + a1 (x) + a2 (x) 2 + ... + aN (x)
dx d x dxN
che si può anche scrivere come

< x | L | f > = Lx f (x) (3.12)

dove con Lx si indica l’operatore differenziale simbolico

d d2 dN
Lx = a0 (x) + a1 (x) + a2 (x) 2 + ... + aN (x) N
dx d x dx
Lo spazio S su cui agisce deve essere tale da poter definire le derivate delle
f (x) che gli appartengono. Deve essere uno spazio di funzioni derivabili N
volte o, se sono funzioni con discontinuità, devono avere come derivate delle
distribuzioni. lo spazio S 0 delle L | f > può comprendere anche funzioni dis-
continue e distribuzioni. In generale un operatore differenziale non è limitato,
ovvero il rapporto tra le due distanze dal vettore nullo di L | f > ed | f >
v
uR b
ρ(L | f >, 0) u dxw(x) |Lx f (x)|2
= t aR b 2
ρ(| f >, 0) dxw(x) |f (x)|
a

non ha un limite superiore. Quindi a maggior ragione gli operatori differenziali


non godono delle proprietà degli operatori completamente continui, come in-
vece gli operatori integrali hermitiani considerati in precedenza. Un operatore
differenziale L può avere un inverso e in tal caso esso è un operatore integrale.
L’equazione agli autovalori ottenuta da un operatore differenziale

L | f >= λ | f >

72
può essere riscritta come
1
L−1 | f >= |f >
λ
e le proprietà degli autovettori di L possono essere dedotte da quelle degli au-
tovettori di L−1 . In buona parte di questi appunti tratteremo lo studio degli
operatori inversi degli operatori differenziali.

3.4 Operatori differenziali ed equazioni differen-


ziali.
Vediamo una trattazione generale delle equazioni differenziali che utilizza la
teoria degli spazi vettoriali e degli operatori lineari.
Un’equazione differenziale lineare non omogenea può essere scritta come

Lx u(x) = f (x)

Il simbolo
d d2 dN
Lx = a 0 + a 1 + a2 2 + ... + aN N
dx dx dx
è significativo se applicato ad una funzione u(x), che rappresenta un elemento
in uno spazio vettoriale U . Lx u(x) è una combinazione lineare, con i coefficienti
ai a loro volta funzioni di x, di derivate i−esime di u(x). u(x) a sua volta è la
rappresentazione di un vettore in uno spazio vettoriale.
Sia {| u >} uno spazio vettoriale lineare rappresentato da funzioni più volte
derivabili, definite in a ≤ x ≤ b, che costituiscono il dominio di un operatore
differenziale lineare L. Il prodotto L | u > sia rappresentato dalle funzioni

Lx u(x)

le quali sono combinazioni lineari di funzioni derivabili o di distribuzioni δ(x),


senza contenere peraltro derivate della distribuzione δ(x).
Supponiamo poi che esista un operatore differenziale simbolico L†x che agisce
in uno spazio funzionale {| v >} . Esso rappresenta un operatore differenziale

L†x v(x)

con la proprietà
d
w(x)[v ∗ (x)Lx u(x) − u(x)(L†x v(x))∗ ] = {Q[u, v ∗ ]} (3.13)
dx
ove u(x) e v(x) sono funzioni complesse di variabile reale in a ≤ x ≤ b e w(x) è
una funzione reale definita positiva in a ≤ x ≤ b. Q[u, v ∗ ] è una forma bilineare
in u e v ∗ e nelle loro derivate, che nella forma più generale può essere scritta
come:
dv ∗ du du dv ∗
Q[u, v ∗ ] = auv ∗ + bu + c v∗ + d (3.14)
dx dx dx dx

73
dove a, b, c, d sono funzioni di x in a ≤ x ≤ b. Se la (3.13) è vera allora
si dice che l’operatore differenziale L†x è l’aggiunto di Lx rispetto alla funzione
peso w(x). Conseguenza della proprietà (3.13) è la formula
Z b Z b
dxw[v ∗ Lx u] − dxw[u(L†x v)∗ ] = Q[u, v ∗ ] |x=b −Q[u, v ∗ ] |x=a (3.15)
a a

che prende nome di identità di Green generalizzata. Il termine a destra del-


l’uguale si chiama termine di contorno o di superficie. (In questo caso la su-
perficie è data dai punti estremi a e b). L’operatore differenziale simbolico L†x
definito dalla (3.13) si può ottenere applicando eventualmente in modo ripetuto
la tecnica di integrazione per parti ed identificando l’operatore nella espressione
del tipo (3.13) che può essere ottenuta. Nel caso in cui è L†x = Lx si dice che
Lx è autoaggiunto.

Consideriamo due semplici esempi.


Un esempio di operatore differenziale lineare del primo ordine è
d
Lx =
dx
il cui aggiunto, rispetto al peso w(x) = 1, è

d
L†x = −
dx
Infatti Z Z
b b
d d ∗
dx[v ∗
u] − dx[u(− v) ] = [uv ∗ ] |x=b
x=a .
a dx a dx
Invece l’operatore differenziale lineare
d
Lx = i
dx
è autoaggiunto. Infatti
d
L†x = i = Lx
dx
essendo Z Z
b b
d d ∗
dx[v ∗ i u] − dx[u(i v) ] = [iuv ∗ ] |x=b
x=a .
a dx a dx

74
3.5 Condizioni al contorno.
Consideriamo condizioni al contorno omogenee per u(x), in x = a ed x = b, che
riguardino anche le derivate. Due condizioni del tipo
   
du du
α1 u(a) + β 1 + γ 1 u(b) + δ 1 =0
dx x=a dx x=b
   
du du
α2 u(a) + β 2 + γ 2 u(b) + δ 2 =0
dx x=a dx x=b
definiscono uno spazio vettoriale di funzioni; le condizioni suddette, se entrambe
verificate per due funzioni, u1 (x) e u2 (x), lo sono anche per una qualunque loro
combinazione lineare. Esse consentono di definire altre due condizioni analoghe
per v(x)    
dv dv
α3 v(a) + β 3 + γ 3 v(b) + δ 3 =0
dx x=a dx x=b
   
dv dv
α4 v(a) + β 4 + γ 4 v(b) + δ 4 =0
dx x=a dx x=b
scegliendo i coefficienti in modo che il termine di superficie sia nullo

Q[u, v ∗ ] |x=b −Q[u, v ∗ ] |x=a = 0.

In tal modo si ottiene l’identità di Green


Z b Z b

dxw[v Lx u] − dxw[u(L†x v)∗ ] = 0 (3.16)
a a

dove il termine di superficie è nullo. Le condizioni al contorno omogenee


per la v ∗ (x) che rendono nulla l’espressione si chiamano condizioni al contorno
omogenee aggiunte.

Esempi: Se Lx è del primo ordine, come nei precedenti esempi, e la con-


dizione al contorno è data dalla sola espressione

u(a) = u(b)

la condizione al contorno aggiunta che assicura l’annullamento del termine di


superficie è
v(a) = v(b).
Se la condizione al contorno fosse stata u(a) = 2u(b), la condizione al contorno
aggiunta sarebbe stata v(a) = v(b)/2.
Sottolineiamo il fatto che un sistema di condizioni al contorno omogenee
imposte sulla funzione u(x) definisce uno spazio vettoriale di funzioni, che in-
dicheremo con U . Lo stesso accade per le condizioni al contorno aggiunte im-
poste sullo spazio delle funzioni v(x), che apparterranno allo spazio vettoriale
V.

75
Nello spazio vettoriale U , e solo in tale spazio, facciamo agire l’operatore
lineare L tale che
< x | L | u > = Lx u(x)
Analogamente nello spazio vettoriale V possiamo definire un operatore lineare
L†
< x | L† | v > = L†x v(x).
Ricordando che possiamo scrivere

< x | f > = f (x) e quindi < f | x > = f ∗ (x)

e che possiamo rappresentare l’identità come


Z b
E= dxw(x) | x >< x |
a

potremo scrivere:

< v | L | u > − < u | L † | v >∗ =


Z b Z b
= dxw(x) < v | x >< x | L | u > − dxw(x) < u | x >∗ < x | L† | v >∗ =
a a
Z b Z b  ∗
= dxw(x)v ∗ [Lx u(x)] − dxw(x)u L†x v(x) =0
a a

Se vale l’identità di Green potremo scriverla come

< v | L | u > = < u | L † | v >∗ (3.17)

che sembra coincidere con la definizione di aggiunto. In realtà ciò non è cosı̀
banale: per ottenerla abbiamo dovuto limitare gli spazi funzionali su cui agis-
cono L ed L† , che sono stati definiti separatamente, agli elementi degli spazi
vettoriali U e V rispettivamente.
Va notato che, fissata la forma dell’operatore differenziale simbolico Lx , non
è definito immediatamente L. Infatti occorre specificare le condizioni al con-
torno omogenee che definiscono il sottospazio di funzioni U , che è parte inte-
grante della definizione di L. Cosı̀ pure per L† dovremo specificare le condizioni
autoaggiunte.
Di conseguenza, in un caso particolare, dire che L è hermitiano o autoag-
giunto, significa non solo affermare che

L† = L

ma anche che gli spazi U e V coincidono, ovvero che le condizioni al contorno


omogene e quelle aggiunte hanno la stessa forma e gli stessi coefficienti e quindi
che i due spazi vettoriali coincidono. Diremo che le condizioni al contorno
omogenee coicidono con le condizioni al contorno omogenee aggiunte ovvero
sono autoaggiunte.

76
Esempio:
d
L†x = Lx = i
dx
definisce un operatore autoaggiunto, nel caso in cui le condizioni al contorno
omogenee siano date dalla u(a) = u(b). Questo poichè la condizione al contorno
è dello stesso tipo di quella aggiunta v(a) = v(b). L non sarebbe autoaggiunto
scegliendo ad esempio u(a) = 2u(b), in quanto le condizioni al contorno aggiunte
sono date dalla u(a) = 12 u(b). Il dominio di L† è diverso da quello di L, poichè
la condizione al contorno aggiunta è diversa dalla condizione al contorno.

3.6 Operatori autoaggiunti del secondo ordine.


Una forma generale dell’operatore del secondo ordine è
d2 d
Lx = a +b +c
dx2 dx
dove a, b, c sono funzioni complesse della variabile reale x, con Re(a) > 0.
Scegliendo w(x) = 1,

d2 d ∗
L†x v = (a∗ v) − (b v) + c∗ v (3.18)
dx2 dx
e quindi l’operatore formale è
2
   2 ∗ 
† ∗ d da∗ ∗ d d a db∗ ∗
Lx = a + 2 −b + − +c (3.19)
dx2 dx dx dx2 dx
Dalle derivate di prodotti si ottiene
 
d2 u d2 (av ∗ ) d ∗ du d
v∗ a − u = av − u (av ∗
)
dx2 dx2 dx dx dx
du d(bv ∗ ) d
v∗ b +u = (buv ∗ )
dx dx dx
in modo che
Z b  x=b
∗ † ∗ ∗ du d ∗ ∗
dx[v (Lx u) − u(Lx v) ] = av − u (av ) + bv u .
a dx dx x=a

Lx dalla (3.19) è autoaggiunto, rispetto a w(x) = 1, se a, b, c sono reali e solo


se
da
= b. (3.20)
dx
In tale caso si ha
Z b   x=b
∗ † ∗ ∗ du dv ∗
dx[v (Lx u) − u(Lx v) ] = a v −u
a dx dx x=a

77
e  
d du
Lx u = a + cu (3.21)
dx dx
La (3.20) è molto restrittiva, ma si può dimostrare che, se a, b, c sono reali
ed a(x) > 0, una scelta opportuna della funzione peso nella definizione del
prodotto scalare può rendere autoaggiunto ogni operatore differenziale L x del
secondo ordine. Scrivendo infatti
 
1 d du
Lx u = ω(x) + cu con w(x) > 0 (3.22)
w(x) dx dx

essa coincide con la espressione di partenza per Lx u(x) se

ω 1 dω
=a e b=
w w dx
cosa che comporta
Z x
b(x0 ) 0 ω(x)
ω(x) = exp dx > 0 w(x) =
x0 a(x0 ) a(x)

Questa trasformazione era già stata vista all’inizio del precente capitolo. E’ la
trasformazione della equazione differenziale omogenea nella forma autoaggiunta.
Infatti dalla (3.22) si vede che l’operatore Lx è autoaggiunto rispetto a una
funzione peso w(x). Questo perchè calcolare l’aggiunto di Lx rispetto a un peso
w(x) è la stessa cosa che calcolare l’aggiunto di wLx rispetto a un peso unitario.
Si ha poi  
† 1 d dv
Lx v = ω(x) + cv
w(x) dx dx
ed anche
Z b   x=b
du dv ∗
dxw(x)[v ∗ (Lx u) − u(L†x v)∗ ] = ω(x) v ∗ −u
a dx dx x=a

Pertanto risulta provato che:


A) Un qualunque operatore differenziale Lx del secondo ordine

d2 d
Lx = a(x) + b(x) + c(x)
dx2 dx
con coefficienti dati da funzioni reali ed a(x) > 0, è autoaggiunto rispetto a una
funzione peso Z x
1 b(x0 ) 0
w(x) = exp 0
dx
a(x) x0 a(x )
ovvero
Z b   x=b
∗ ∗ ∗ du dv ∗
dxw(x)[v (Lx u) − u(Lx v) ] = a(x)w(x) v −u . (3.23)
a dx dx x=a

78
B) Se poi le condizioni al contorno di u(x), che definiscono lo spazio vettoriale
U su cui opera l’operatore lineare L rappresentato da Lx , sono di uno dei
seguenti tipi:
1.
u(a) = u(b) = 0 (condizioni di Dirichlet)
2.    
du du
= =0 (condizioni di Neumann)
dx x=a dx x=b
3.
   
du du
αu(a) − = βu(b) − = 0 con α, β reali
dx x=a dx x=b

4.
   
du du
u(a) = u(b); = condizioni periodiche, purché ω(a) = ω(b)
dx x=a dx x=b

allora le condizioni al contorno aggiunte sono delle stessa forma e lo spazio


vettoriale V su cui opera L† coincide con U , il termine di superficie è uguale
a zero, l’operatore L è hermitiano e vale la identità di Green (3.16) in senso
stretto nella forma
Z b
dxw(x)[v ∗ (Lx u) − u(Lx v)∗ ] = 0.
a

79
3.7 Le Funzioni di Green.

Consideriamo l’equazione non omogenea

Lx u(x) = f (x) (3.24)

con condizioni al contorno omogenee imposte su u(x). Consideriamo inoltre l’


equazione
L†x v(x) = h(x) (3.25)
dove L†x è l’aggiunto di Lx , v(x) soddisfa alle condizioni al contorno omogenee
aggiunte a quelle imposte ad u(x), mentre f ed h sono funzioni arbitrarie.
La ricerca delle soluzioni equivale alla ricerca delle soluzioni delle equazioni
operatoriali
L|u>=|f > (3.26)
L† | v > = | h > (3.27)
La soluzione della (3.26) si ottiene se esiste un operatore G tale che

LG = E (3.28)

dove E è l’operatore identità. La soluzione si ottiene moltiplicando entrambi i


mebri della (3.28) per | f > e confrontando con la (3.26) si ha

|u>= G|f > (3.29)

Se G esiste si chiama operatore di Green.

Possiamo dare dell’espressione (3.28) una rappresentazione matriciale proi-


ettando l’operatore nello spazio delle coordinate, ricordando poi la (3.12) e la
(3.5),
< x | LG | y > = Lx < x | G | y > = Lx G(x, y) =
δ(x − y)
=<x|E|y>=<x|y>=
w(x)
quindi la rappresentazione dell’operatore G, se esiste, è la soluzione dell’e-
quazione differenziale non omogenea

δ(x − y)
Lx G(x, y) = (3.30)
w(x)

quindi G(x, y), intesa come funzione di x, deve appartenere al dominio di L,


ovvero deve soddisfare le stesse condizioni al contorno omogenee imposte ad
u(x). Pertanto G | y > è un vettore dello stesso spazio di | u > . La differenza
tra la (3.30) e la (3.24) è che al posto della f (x) c’è una δ di Dirac divisa per
una funzione peso. La G(x, y) prende nome di funzione di Green.

80
Può inoltre esistere la funzione di Green per la equazione (3.25), dove com-
pare l’operatore differenziale aggiunto, che si indicherà con g(x, y)

δ(x − y)
L†x g(x, y) = (3.31)
w(x)

dove si noti che la g(x, y), intesa come funzione di x, deve soddisfare le condizioni
al contorno omogenee per la v(x), ovvero le condizioni al contorno omogenee
aggiunte. Ogni qual volta la soluzione della (3.30) esiste, l’operatore integrale G
è definito ed è l’inverso destro di L. Ogni qual volta la soluzione della equazione
(3.31) esiste, l’operatore integrale g è definito ed è l’inverso destro di L † .
Possiamo osservare che dalla identità di Green
Z b Z b
dxwv ∗ (Lx u) = dxwu(L†x v)∗
a a

ponendo v(x) = g(x, y) e tenendo conto della (3.24) e della (3.31) si ha


Z b Z b
∗ δ(x − y)
dxw(x) [g(x, y)] f (x) = dxw(x)u(x)
a a w(x)
ovvero
Z b
u(y) = dxw(x) [g(x, y)]∗ f (x) (3.32)
a

mentre ponendo u(x) = G(x, y) e tenendo conto della (3.25) e della (3.30) si ha
Z b
v(y) = dxw(x) [G(x, y)]∗ h(x) (3.33)
a

Assumiamo che G(x, y) e g(x, y) esistano e G(x, y) sia unica. Dall’identità


di Green, scritta con y 0 al posto di x, ponendo u = G(y 0 , y) e v = g(y 0 , x) si
ottiene
Z b Z b h i∗

0 0 0 0
dy w(y ) [g(y , x)] Ly G(y , y) =
0 dy 0 w(y 0 )G(y 0 , y) L†y0 g(y 0 , x)
a a
Z b Z b
∗ δ(y 0 − y) δ(y 0 − x)
dy 0 w(y 0 ) [g(y 0 , x)] = dy 0 w(y 0 )G(y 0 , y)
a w(y 0 ) a w(y 0 )
da cui
g(y, x) = G∗ (x, y) (3.34)
Questa proprietà assieme alle equazioni (3.32) ed (3.33) permettono di scrivere
le due equazioni integrali
Z b
u(y) = dxw(x)G(y, x)f (x) (3.35)
a

81
Z b
v(y) = dxw(x)g(y, x)h(x) (3.36)
a
che costitiscono la rappresentazione delle equazioni in cui compaiono vettori ed
operatori integrali
|u>= G|f > |v>= g|h>
La relazione (3.34) mostra poi che, se una delle due funzioni di Green è unica,
segue anche l’unicità dell’altra.
Ora se L è hermitiano, le condizioni al contorno associate alla u nella (3.24)
e alla v nella (3.25) sono le stesse. Segue che
G(x, y) = g(x, y)
e quindi
G(x, y) = G∗ (y, x)
Se i coefficienti dell’operatore differenziale Lx sono reali, anche G(x, y) è reale
e quindi
G(x, y) = G(y, x).
Considerando ora solo gli operatori differenziali del secondo ordine, si vede
che la (3.30) diviene
∂ 2 G(x, y) ∂G(x, y) δ(x − y)
Lx G(x, y) = a(x) 2
+ b(x) + c(x)G(x, y) =
∂x ∂x w(x)
con a(x) > 0. Vediamo che G(x, y) è una soluzione dell’equazione omogenea per
tutti i punti x dell’intervallo [a, b], con l’eccezione del punto x = y. G(x, y) è una
funzione ordinaria sicuramente nell’intervallo [a, y) e nell’intervallo (y, b]. Vedi-
amo se può esserlo anche in x = y. Sappiamo che è possibile scrivere l’operatore
differenziale nella forma
 
a(x) ∂ ∂G(x, y) δ(x − y)
ω(x) + c(x)G(x, y) =
ω(x) ∂x ∂x w(x)
Z b !
1 b(x0 )
con = exp dx0
ω(x) a a(x0 )
ovvero  
∂ ∂G(x, y) δ(x − y) ω(x)c(x)
ω(x) = ω(x) − G(x, y)
∂x ∂x a(x)w(x) a(x)
che integrata da
Z b
∂G(x, y) H(x − y) ω(x)c(x)
ω(x) = ω(x) − G(x, y)dx + C
∂x a(x)w(x) a a(x)
da cui si vede che G(x, y) può essere una funzione ordinaria, ma con una
discontinuità di salto nella derivata pari a
1
,
a(x)w(x)

82
quando x passa attraverso y. Invece G(x, y) è continua in x = y.

Siamo ora in grado di mostrare come si costruisce la G(x, y) e come si ev-


idenzia la sua unicità. Eccetto che nel punto x = y l’equazione di Green è
soluzione dell’equazione differenziale omogenea

Lx G(x, y) = 0 per x 6= y

Supponiamo che Lx sia un operatore differenziale del secondo ordine e che u1


ed u2 siano un sistema fondamentale di soluzioni dell’equazione differenziale
omogenea. Avremo che

u< (x, c1 , c2 ) = c1 u1 (x) + c2 u2 (x) per a≤x<y


u> (x, d1 , d2 ) = d1 u1 (x) + d2 u2 (x) per y<x≤b

dove c1 , c2 , d1 , d2 sono 4 costanti arbitrarie eventualmente dipendenti da y. La


G(x, y) è allora

G(x, y) = u< (x, c1 , c2 ) per a≤x<y


= u> (x, d1 , d2 ) per y<x≤b

Le 4 costanti da cui G(x, y) dipende sono determinabili - se è possibile determi-


narle in modo univoco - dalle condizioni al contorno cui la G(x, y), intesa come
funzione di x, deve obbedire e che sono le stesse fissate per u(x)

B1 (G) = 0 B2 (G) = 0

e dalle condizioni che G deve soddisfare: la continuità in x = y e la condizione


di discontinuità della derivata rispetto ad x nello stesso punto

G(x + 0, y) |x=y = G(x − 0, y) |x=y


d d 1
G(x + 0, y) |x=y = G(x + 0, y) |x=y +
dx dx a(y)w(y)
Queste quattro condizioni determinano il valore delle 4 costanti univocamente
in funzione di y univocamente, se e solo se

B1 (u1 ) B1 (u2 )

B2 (u1 ) B2 (u2 ) = 0,

ovvero se il sistema

αB1 (u1 ) + βB1 (u2 ) = 0


αB2 (u1 ) + βB2 (u2 ) = 0

che, per la linearità delle condizioni al contorno, può essere scritto come

B1 (αu1 + βu2 ) = 0
B2 (αu1 + βu2 ) = 0

83
ha delle soluzioni diverse dalla ovvia.
In conclusione, un’equazione lineare del secondo ordine

Lx u(x) = f (x)

con condizioni al contorno omogenee

B1 (u) = 0 B2 (u) = 0

ha una funzione di Green che esiste ed è unica, se Lx u(x) = 0, con le suddette


condizioni al contorno, non ha soluzioni diverse dalla ovvia. In particolare anche
la soluzione dell’equazione differenziale non omogenea è unica
Z b
u(x) = dyw(y)G(x, y)f (y).
a

Si può poi mostrare che la condizione della non esistenza di una soluzione non
ovvia per l’equazione omogenea Lx u = 0, che verifichi le condizioni al contorno,
non è solo sufficiente ma è anche necessaria per l’esistenza ed unicità della
funzione di Green. Supponiamo l’esistenza di G(x, y) e che esista una funzione
v tale che
L†x v = 0
con v(x) che soddisfa le condizioni al contorno aggiunte. Dalla identità di Green
Z b Z b
∗  ∗
dxw(x) [v(x)] Lx G(x, y) = dxw(x)G(x, y) L†x v(x)
a a

segue che
Z b
∗ δ(x − y)
dxw(x) [v(x)] =0
a w(x)
ovvero
v(y) = 0
che esclude l’esistenza di una soluzione non ovvia per l’equazione L†x v = 0. Per
questo esisterà un’unica funzione di Green g(x, y) associata all’operatore L †x . Di

conseguenza sarà unica la G(x, y) essendo g(y, x) = [G(x, y)] . L’unicità della
G(x, y) implica poi che Lx u(x) = 0 non abbia soluzioni diverse dalla ovvia. Se
le avesse potrebbero essere sommate a G(x, y), per dare altre funzioni di Green
compromettendo l’unicità.

Ricerchiamo la funzione di Green della equazione differenziale

d2
u(x) = f (x) (3.37)
dx2
Scegliamo w(x) = 1 ed 0 ≤ x ≤ a, con le condizioni al contorno omogenee

u(0) = 0 u(a) = 0 (3.38)

84
L’equazione omogenea
d2
u(x) = 0
dx2
ha una coppia di soluzioni

u1 = 1 u2 = x

Cerchiamo ora la soluzione dell’equazione

d2
G(x, y) = δ(x − y)
dx2
Per 0 ≤ x < y, la soluzione G(x, y) sarà del tipo u< = c1 + c2 x. Per y < x ≤ a,
invece u> = d1 + d2 x. Dalle condizioni al contorno (3.38) si determinano due
costanti arbitrarie:
c1 = 0 d1 = −ad2
Imponendo in x = y la continuità della G(x, y) e la discontinuità della derivata
uguale a 1/(a(x)) = 1, si ha

c2 y = d2 (x − a) d 2 − c2 = 1

da cui le due costanti arbitrarie restanti risultano completamente determinate


e sono funzioni di y
y−a y
c2 = d2 =
a a
Di conseguenza
y−a
G(x, y) = x per 0≤x<y
a
y
= (x − a) per y<x≤a
a
in cui è evidente la proprietà G(x, y) = G(y, x). La soluzione dell’equazione
(3.37) è
Z a Z Z
x−a x x a
u(x) = G(x, y)f (y)dy = f (y)ydy + f (y)(y − a)dy.
0 a 0 a x

85
3.8 Le funzioni di Green generalizzate.
L’esistenza di soluzioni non ovvie per l’equazione

Lx u = 0

che soddisfino le condizioni al contorno omogenee

B1 (u) = 0 B2 (u) = 0

implica anche l’esistenza di soluzioni non ovvie per la equazione omogenea

L†x v = 0

che soddisfino le condizioni al contorno omogenee aggiunte. Se ciò non fosse


vero esisterebbe una e una sola g(x, y) e questo, grazie al’uso dell’identità di
Green, porterebbe a negare l’ipotesi di esistenza di soluzioni non ovvie, essendo
u(x) = 0. Ammettiamo quindi che esistano dei vettori nello spazio funzionale
su cui opera L†x , ortonormali e in numero massimo di due per un operatore
differenziale del secondo ordine
| vi >
soluzioni della L† | v > = 0 con le condizioni al contorno aggiunte. Moltiplican-
do entrambi i membri di
L | u > =| f >
per < vi | si ha
< vi | L | u > = < v i | f >
da cui, per l’identità di Green, segue

< v i | f > = < v i | L | u > = < u | L † | vi > = 0

Quindi la condizione generale perché, in presenza della esistenza di soluzioni


non ovvie della Lx u = 0, esista una soluzione dell’equazione Lx u(x) = f (x), è
che le soluzioni di L†x vi (x) = 0 non ovvie siano ortogonali ad f (x).

< vi | f > = 0

Analogamente
< ui | h > = 0
è la condizione necessaria per l’esitenza di una soluzione del problema aggiunto

L†x vi (x) = h(x).

In questo caso le equazioni per le funzioni di Green, che prendono nome, di


equazioni di Green generalizzate, non sono più le (3.30) e (3.31) ma le seguenti

δ(x − y) X ∗
Lx G0 (x, y) = − vi (x)vi (y)
w(x) i

86
δ(x − y) X ∗
Lx g 0 (x, y) = − ui (x)ui (y)
w(x) i

Le soluzioni di queste equazioni non solo uniche perche si può aggiungere rispet-
tivamente a G0 (x, y) e a g 0 (x, y) una qualunque combinazione lineare delle ui (x)
o delle vi (x). Si può ottenere l’unicità imponendo le condizioni addizionali di
ortogonalità
Z b
dxw(x)ui (x)G0 (x, y) = 0
a
Z b
dxw(x)vi (x)g 0 (x, y) = 0.
a

Esemio: Ricerchiamo la funzione di Green della equazione differenziale


d2
u(x) = f (x)
dx2
Con w(x) = 1 ed −a ≤ x ≤ a, con le condizioni al contorno omogenee
periodiche
 2   2 
d d
u(a) = u(−a) u(x) = u(x)
dx2 x=−a dx2 x=a

L’equazione omogenea
d2
u(x) = 0
dx2
con queste condizioni al contorno ha una soluzione non ovvia

u1 = costante

che può essere normalizata


Z a
1
u21 (x)dx = 1 ovvero u1 = √
−a 2a
Cerchiamo ora la soluzione dell’equazione per la funzione di Green generalizzata
d2 1
G(x, y) = δ(x − y) +
dx2 2a
Per −a ≤ x < y, e per y < x ≤ a, si ottiene rispettivamente, utilizzando,
come nell’esempio precedente, la continuità di G in x = y e la discontinuità
della derivata e le condizioni al contorno, nonchè tenendo presente la nuova
equazione non omogenea per la G(x, y)

x2 y−a
G(x, y) = − + x+α per −a≤x<y
4a 2a
x2 y+a
= − + x + (α − y) per y<x≤a
4a 2a

87
Si noti la presenza di una costante non determinata dalle preedenti condizioni.
E’ possibile determinarla da
Z b
dxw(x)u1 (x)G0 (x, y) = 0
a

ottenendo
1 1 a
(x − y)2 + |x − y| −
G0 (x, y) = −
4a 2 6
e quindi un’unica soluzione anche per u(x).

3.9 Condizioni al contorno non omogenee (cen-


no).
Consideriamo anche il caso in cui le condizioni al contorno non sono omogenee,
ovvero non sono più del tipo

B1 (u) = 0 B2 (u) = 0 (3.39)

ma del tipo
B1 (u) = σ 1 B2 (u) = σ 2 (3.40)
Consideriamo l’equazione
Lx u(x) = f (x)
e procediamo nel determinare le funzioni di Green come se valessere le condizioni
al contorno omogenee (3.39) che si ottengono ponendo dalle (3.40) σ 1 e σ 2

uguali a zero. Data g(x, y) = [G(y, x)] la andiamo ad inserire nella eguaglianza
di Green generalizzata (3.15) che vale anche per condizioni al contorno non
omogenee, al posto di v(x), ottenendo
Z b Z b
x=b
dxw(x)G(y, x)Lx u(x)− dxw(x)[u(x)(L†x G(y, x))∗ ] = |Q[u(x), G(y, x)]|x=a
a a

Di qui, ricordando che un operatore differenziale del secondo ordine può essere
sempre posto in forma autoaggiunta, purché
Z x
1 b(x0 ) 0
w(x) = exp 0
dx
a(x) x0 a(x )

si può esplicitare i termine di superficie con la identità (3.23) e si ha


Z b    x=b
du ∂G(y, x)
u(y) = dxw(x)G(y, x)f (x) + w(x)a(x) G(y, x) − u(x)
a dx ∂x x=a

dove rispetto al caso di condizioni al contorno omogenee compare un termine


di superficie che contiene valori della u e della sua derivata e i valori della G e
della derivata, in a e in b.

88
3.10 Il Problema di Sturm-Liouville.
Sia L un operatore differenziale hermitiano

L = L†

L’analisi del problema agli autovalori

L | uλ > = λ | u λ > (3.41)

costituisce il cosiddetto problema di Sturm-Liouville. La controparte analitica


dell’equazione (3.41) è l’equazione differenziale agli autovalori

Lx uλ (x) = λuλ (x) (3.42)

dove però le funzioni uλ (x) sono soggette a condizioni al contorno omogeneee


autoaggiunte. Le condizioni al contorno insieme con i requisiti di derivabilità
definiscono uno spazio funzionale che è uno spazio vettoriale ed è il dominio di
L. Lx al solito è un operatore simbolico differenziale del secondo ordine.
In precedenza si è mostrato che l’equazione

Lx u(x) = f (x)

per qualunque f (x) con condizioni al contorno omogenee imposte su u(x), ha


una e una sola soluzione data da
Z b
u(x) = dyw(y)G(x, y)f (y)
a

e G(x, y) esiste, se l’equazione omogenea non ha una soluzione non ovvia ovvero
non esiste una soluzione non ovvia della equazione (3.42) con autovalore λ = 0.
Allora l’operatore integrale G non solo esiste ed è unico, ma essendo l’unico
inverso destro di L è anche il suo operatore inverso

LG = GL = E

e l’equazione agli autovalori (3.41) è equivalente a


1
G | uλ > = | uλ >
λ
essendo λ 6= 0. Si è poi mostrato che il nucleo integrale G(x, y) è una funzione
continua di entrambe le variabili. Poichè l’integrale
Z bZ b
2
dxdyw(x)w(y) |G(x, y)|
a a

esiste ed è finito, G è un operatore integrale completamente continuo. Inoltre


se L è hermitiano e G è unico, G è hermitiano

G = G†

89
Poichè L è hermitiano tutti i suoi autovalori sono reali e gli autovettori
corrispondenti ad autovalori diversi sono ortogonali, ovvero
Z b
dxw(x)uλ (x)u∗λ0 (x) = 0 per λ 6= λ0
a

Inoltre G è un operatore completamente continuo e quindi esiste almeno un


autovalore finito e al di fuori di in intervallo [−, ] vi può essere solo un numero
finito di autovalori, cui corrisponde un numero finito di autovettori. Inoltre non
può esservi un autovettore | u0 > 6= 0 con autovalore nullo, infatti

LG | u0 > = 0

sarebbe in contraddizione con

LG | u0 > = E | u0 > =| u0 > 6= 0

Si può quindi osservare che G avrà un’infinità numerabile di autovalori che


hanno zero come punto di accumulazione. Di conseguenza L avrà un ’infinità
numerabile di autovalori il cui modulo non è limitato. Per qualunque η > 0,
vi sarà solo un numero finito di autovalori di L nell’intervallo [−η, η] e a questi
corrisponderà un numero finito di autovettori normalizzabili. Gli autovettori di
L costituiscono una base nello spazio L2w (a, b), ovvero ogni f (x) appartenente
ad L2w (a, b) potrà essere sviluppata in serie degli autovettori e quindi
X (k)
f (x) = < ul,k | f > uλ (x)
λ,k

(k)
dove uλ (x) = < x | ul,k > e l’indice k distingue diversi autovettori ortonor-
mali che possono corrispondere, sempre in numero finito, allo stesso autovalore
λ. L’uguaglianza nello sviluppo in serie va intesa come convergenza in media.
La convergenza in media diviene convergenza uniforme se limitiamo lo spazio
delle funzioni f (x) alle funzioni continue e derivabili, con la possibilità di avere
discontinuità nella derivata di tipo salto, in modo che la derivata seconda esista
come funzione generalizzata.

Consideriamo ora la nuova equazione differenziale non omogenea

(Lx − l)u(x) = f (x) (3.43)

ove Lx rappresenta sempre un operatore differenziale L del secondo ordine, l


è un parametro, a ≤ x ≤ b. Anche nel caso in cui le soluzioni dell’equazione
omogenea non siano note, supponiamo di conoscere autovalori ed autovettori di
L, che compaiono nella equazione

Lx u(k) (k)
n (x) = λn un (x) (3.44)

90
e le condizioni al contorno omogenee autoaggiunte associate alla (3.43). La
funzione di Green dovrà soddisfare l’equazione omogenea
δ(x − y)
(Lx − l)Gl (x, y) = (3.45)
w(x)
dove si è evidenziata la dipendenza della Funzione di Green dal parametro
l. Possiamo sviluppare la Gl (x, y) pensata come funzione di x, in serie delle
autofunzioni

X
Gl (x, y) = a(k) (k)
n (y)un (x)
n=0, k
(k)
Usando l’identità di Green on v = un (x) e u = Gl (x, y)
Z b h i∗ Z b h i∗
(k)
dxw(x) un (x) (Lx − l)Gl (x, y) = dxw(x)Gl (x, y) (Lx − l)u(k)
n (x)
a a

h i∗ ∞
X Z h i∗
0
(k0 )
u(k)
n (y) = a(k )
m (y) dxw(x)um (x)(λn −l) u(k)
n (x) = (λn −l)a(k)
n (y)
m=0, k0

da cui h i∗
(k)
un (y)
a(k)
n (y) =
λn − l
lo sviluppo della funzione di Green è pertanto dato da
h i∗
(k) (k)

X un (y) un (x)
Gl (x, y) = . (3.46)
λn − l
n=0, k

Questa espressione è valida per ogni valore di l 6= λn . Per l = λn esiste una


soluzione non ovvia dell’omogenea associata alla (3.43) e sappiamo che una
funzione di Green in senso stretto in questo caso non esiste. L’espressione (3.46)
è data da uno sviluppo in serie: è il prezzo pagato per la non conoscenza delle
soluzioni della omogenea associata. Continuando analiticamente la funzione
Gl (x, y) per valori complessi di l si ha una funzione con poli semplici in λn , i
cui residui valgono
Xh i∗
− u(k)
n (y) u(k)
n (x)
k

da cui I ∞ h
X i∗
1
Gl (x, y)dl = − u(k)
n (y) u(k)
n (x)
2πi C n=0, k

se il circuito chiuso C include tutti gli autovalori sull’asse reale. Ma la serie a


destra dell’uguale è una rappresentazione della δ(x − y)
I
1
Gl (x, y)dl = −δ(x − y).
2πi C

91
Come esempio si può considerare il caso dell’equazione

d2 u(x)
+ lu(x) = f (x)
dx2
con le condizioni al contorno

u(0) = 0 u(a) = 0

Dalla coppia delle soluzioni dell’equazione omogenea associata

d2 u(x)
+ lu(x) = 0
dx2
√ √
u1 = sin lx u2 = cos lx
si costruisce la funzione di Green con il metodo usuale ottenendo:
√ √ √ √
sin lx sin l(a − y)H(y − x) + sin l(a − x) sin lyH(x − y)
Gl (x, y) = √ √
l sin la
Si vede che come funzione della variabile l la Gl (x, y) ha poli semplici in

n2 π 2
λn = n = 1, 2, ...
a2
che sono gli autovalori della

d2 un (x)
− = λn un (x)
dx2
dove gli autovettori sono
r
2 nπ
un (x) = sin( x)
a a
un sistema di funzioni completo con le condizioni un (0) = un (a) = 0. Infatti

2X nπ nπ
sin( x) sin( y) = δ(x − y)
a n=1 a a
ovvero ∞ Z a
2X nπ nπ
sin( x) dyg(y) sin( y) = g(x)
a n=1 a 0 a

che esprime lo sviluppo in serie di seni di una funzione g(x) che verifica le stesse
condizioni al contorno.

92
Capitolo 4

Equazioni differenziali alle


derivate parziali.

Si indica con u(xi ) = u(x1 , x2 , ..., xN ) una funzione di N variabili. Analoga-


mente al caso delle equazioni differenziali ordinarie, una equazione differenziale
alle derivate parziali è una espressione della forma
 
∂ l+m+...+n
F xi , u, l m u =0 (4.1)
∂x1 ∂x2 ...∂xnN

Se la derivata parziale di ordine più elevato è di ordine M −esimo, la equazione


differenziale alle derivate parziali si dice di M −esimo ordine.
Si chiama lineare una equazioni alle derivate parziali del tipo
X ∂ j+k+...+l
q + ru(xi ) + sik...l u(xi ) = 0 (4.2)
0<j+k+...l≤M
∂xj1 ∂xk2 ...∂xlN

dove i coefficienti di q, r, sjk...l sono funzioni di x1 , x2 , ..., xN .


Un esempio di equazione differenziale alle derivate parziali a coefficienti
costanti è dato dall’equazione di Laplace

XN
∂2
∆u = u=0 (4.3)
i=1
∂x2i

Considereremo in generale le variabili xi con (i = 1, 2, .., N ) reali. Pensate come


componenti di un vettore esse individuano un punto nello spazio e le funzioni
di xi sono funzioni del punto in uno spazio N −dimensionale.

Se possiamo scrivere la (4.1) come


 
∂ku ∂ l+m+...+n
= K xi , u, l m u (4.4)
∂xk1 ∂x1 ∂x2 ...∂xnN

93
k−1
∂u
con l + m + ... + n ≤ k, con delle condizioni al contorno per u, ∂x 1
, ..., ∂∂xk−1u
1
che definiscono tali funzioni nell’iperpiano x1 = a1 , che valgono in un intorno
del punto xi = ai ,
" #
∂j u
= Lj (x2, x3 , ..., xN ) per j = 0, 1, ..., k − 1
∂xj1 x =a
1 1

dove le Lj sono funzioni analitiche, se K è una funzione analitica rispetto a tutti


i suoi argomenti, allora esiste ed è unica la soluzione u(xi ) in un intorno di un
punto xi = ai . Questo è il teorema di Cauchy-Kovalevska.

4.1 Equazioni del secondo ordine quasi-lineari.


Invece di considerare condizioni al contorno che fissano il valore della funzione su
un iperpiano e delle derivate normali sullo stesso iperpiano x1 =cost , in generale
interessa il caso in cui si cerca una soluzione specificando i valori della stessa
su una qualunque ipersuperficie S(x1 , x2 , ..., xN ) = 0 insieme con le derivate
normali alla superficie in ciascun punto. Tali condizioni si chiamano condizioni
alla Cauchy e l’esistenza ed eventualmente l’unicità delle soluzioni e legata al
tipo delle equazioni differenziali alla derivate parziali. Un esame dei tipi di
equazioni si può limitare al caso delle equazioni al secondo ordine quasi-lineari
ovvero della forma
N
X ∂2u ∂u
amn (xi ) + F (xi , u, )=0
n,m=1
∂xm ∂xn ∂x

dove le funzioni anm (xi ) sono funzioni reali di N variabili reali. Poichè
∂ 2u ∂2u
=
∂xm ∂xn ∂xn ∂xm
senza perdita di generalità possiamo assumere
amn (xi ) = anm (xi )

Una matrice reale simmetrica può essere trasformata in una matrice diagonale
mediante una trasformazione opportuna, attraverso una matrice reale ortogo-
nale. In particolare con la trasformazione di coordinate del tipo
X X X
yj = Ojm xm xi = Oki yk Ojl Ojm = δ ml
m k j

diversa punto per punto si può diagonalizzare la matrice dei coefficienti in un


qualunque punto xi
N
X XN
∂2u ∂2u
amn (xi ) = a0kl (y)
n,m=1
∂xm ∂xn n,m=1
∂yk ∂yl

94
con X
a0kj (y) = Okm amn (x(yi ))Ojn
mn

La matrice ortogonale Olj può essere scelta in modo che a0kj (yl0 ) = bk (xi0 )δ kj .
Punto per punto, la parte al secondo ordine dell’equazione differenziale può
essere espressa in modo da non avere derivate seconde miste. Osservando poi
i segni di tutti i coefficienti delle derivate parziali seconde non miste, se tutti
i coefficienti sono non nulli ed hanno lo stesso segno, si dice che l’equazione è
di tipo ellittico in xi = xi0 ; se nel punto tutti i coefficienti sono diversi da zero
ma non hanno lo stesso segno si dice di tipo ultraiperbolico, o semplicemente
iperbolico se un solo coefficiente è di segno diverso dagli altri. Si dice invece che
è di tipo parabolico se un coefficiente almeno delle derivate seconde è nullo. Una
equazione alle derivate parziali può essere dello stesso tipo in un insieme di punti
o nell’intero insieme dei punti in cui è definita. Se i coefficienti sono costanti la
classificazione è semplice. Ad esempio le equazioni semplici in u = u(x, y) che
seguono sono dello stesso tipo ovunque.

L’equazione di Laplace
∂2u ∂2u
+ 2 =0
∂x2 ∂y
è di tipo ellittico.

L’equazione delle onde in 1D, con y che è una variabile proporzionale al


tempo t
∂2u ∂2u
− 2 =0
∂x2 ∂y
è di tipo iperbolico.

L’equazione della diffusione, con y sempre proporzionalale al tempo t

∂ 2 u ∂u
− =0
∂x2 ∂y
è di tipo parabolico.
Di solito le relazioni che esistono tra le derivate parziali di una funzione
u(xi ) in un’equazione differenziale alle derivate parziali, insieme con le con-
dizioni di Cauchy imposte su una ipersuperficie S(x1 , x2 , ..., xN ) = 0 permet-
tono di trovare sulla stessa ipersuperficie tutte le derivate di u(xi ) di ordine più
elevato. Quando è possibile ricostruire in modo unico in un punto xi l’intera se-
quenza delle derivate e quando esiste una soluzione analitica nell’intorno di tale
punto, allora è possibile ottenere i coefficienti dello sviluppo in serie della u(xi )
che è anche unico attorno al punto xi , sulla base delle relazioni tra le derivate
parziali e i coefficienti dello sviluppo. Possono comunque esistere delle ipersu-
perfici C(x1 , x2 , ..., xN ) = 0, con la proprietà che in ogni punto le condizioni al
contorno alla Cauchy e l’equazione stessa non sono sufficienti ad esprimere le

95
derivate di ordine più elevato. Tale ipersuperficie si chiama ipersuperficie carat-
teristica. Tali superfici, come le superfici ad esse tangenti, non vanno bene per
definire buone condizioni alla Cauchy.

Consideriamo il caso dell’equazione quasilineare del secondo ordine, con due


sole variabili indipendenti

∂2u ∂ 2u ∂2u ∂u ∂u
A(x, y) 2
+ 2B(x, y) + C(x, y) 2 = D(x, y, u, , ) (4.5)
∂x ∂x∂y ∂y ∂x ∂y
L’ipersuperficie in questo caso si riduce ad una curva in (x, y) esprimibile in
forma parametrica
x = X(t) y = Y (t)
dove il parametro t è scelto in modo che |t| misuri la distanza da un punto
della curva. Le derivate della u(x, y) nella direzione normale alla curva ed nella
direzione ad essa tangente sono date per qualunque t da

∂u ∂u dY ∂u dX
= −
∂n ∂x x=X(t),y=Y (t) dt ∂y x=X(t),y=Y (t) dt

∂u ∂u dX ∂u dY
= +
∂t ∂x x=X(t),y=Y (t) dt ∂y x=X(t),y=Y (t) dt
ove  2  2
dX dY
+ =1
dt dt
La conoscenza delle equazioni parametriche, della u(x, y) in ciascun punto della
curva (e di conseguenza della derivata nella direzione tangente) e della derivata
nella direzione normale consente di determinare le derivate di u rispetto ad x
e ad y in ogni punto della curva. Preso in punto della curva (x0 , y0 ) si può
ottenere uno sviluppo in serie della soluzione nelle due variabili indipendenti

X
u(x, y) = umn (x − x0 )m (y − y0 )n
m,n=0

I coefficienti dello sviluppo possono essere determinati dalla conoscenza delle


derivate in modo univoco in quanto
 m+n 
1 ∂ u
umn =
m!n! ∂x ∂xn x=x0 ,y=y0
m

Il problema è allora quello di determinare le derivate di ordine più elevato, a


cominciare dalle tre derivate del secondo ordine. Si ha che per ogni punto della
curva posso scrivere le due relazioni
 
d ∂u ∂ 2 u dX ∂ 2 u dY
= 2
+ (4.6)
dt ∂x ∂x dt ∂x∂y dt

96
 
d ∂u ∂ 2 u dX ∂ 2 u dY
= + 2 (4.7)
dt ∂y ∂x∂y dt ∂y dt
Le equazioni (4.5), (4.6) e (4.7) costituiscono un sistema di tre equazioni in tre
incognite
∂2u ∂2u ∂2u
, ,
∂x2 ∂x∂y ∂y 2
lineare e non omogeneo, che ha una soluzione unica se

A 2B C
dX dY
∆ = dt dt 0 6= 0
0 dX dY
dt dt

ovvero se non è verificata la eguaglianza


 2  2
dY dX dY dX
A(X(t), Y (t)) − 2B(X(t), Y (t)) + C(X(t), Y (t)) =0
dt dt dt dt
E poi facile vedere che la determinazione univoca delle derivate di ordine supe-
riore è possibile, se si verifica la stessa diseguaglianza. Invece non è possibile
determinare le derivate univocamente a partire da quelle del secondo ordine
lungo i punti (x, y) della curva caratteristica che sono descritti dalla equazione
 2
dy dy
A(x, y) − 2B(x, y) + C(x, y) = 0 (4.8)
dx dx
che corrisponde a sua volta alle due equazioni

dy B ± B 2 − AC
=
dx A
Pertanto in ogni punto (x0 , y0 ) si hanno due curve caratteristiche rappre-
sentabili come
α(x, y) = costante (4.9)
β(x, y) = costante (4.10)
che, nella approssimazione in cui A, B, C sono delle costanti, divengono.

B ± B 2 − AC
− x + y = costante
A
Nel caso in cui A, B, C siano funzioni, i risultati della discussione rimangono
ugualmente validi ma conviene considerare il caso più semplice in cui sono
costanti.

Consideriamo il caso B 2 − AC < 0. Le curve non sono reali ma si possono


introdurre le nuove variabili indipendenti reali
α(x, y) + β(x, y)
v=
2

97
α(x, y) − β(x, y)
w=
2i
la equazione (4.5) diviene
 
AC − B 2 ∂ 2 u ∂ 2u ∂u ∂u
2
+ 2
= D00 (v, w, u, , )
A ∂v ∂w ∂v ∂w

ovvero l’equazione è di tipo ellittico.

Consideriamo il caso B 2 − AC > 0. Le curve caratteristiche sono reali e si


riducono a due rette per coefficienti costanti. Si possono introdurre le nuove
variabili indipendenti reali

α(x, y) + β(x, y)
v=
2
α(x, y) − β(x, y)
w=
2
la equazione (4.5) diviene
 
AC − B 2 ∂ 2 u ∂ 2u ∂u ∂u
2
− 2
= D00 (v, w, u, , )
A ∂v ∂w ∂v ∂w

ovvero l’equazione è di tipo iperbolico.

Consideriamo il caso B 2 = AC. C’è una sola curva e si può scegliere

v = α(x, y)

w=x
la equazione (4.5) diviene

∂2u ∂u ∂u
A = D00 (v, w, u, , )
∂w2 ∂v ∂w
ovvero l’equazione è di tipo parabolico.

98
4.2 Condizioni al contorno.
Le condizioni al contorno alla Cauchy non sono sempre le più importanti.
Molti problemi fisici hanno condizioni al contorno specifiche. Se la descrizione
matematica di un fenomeno fisico è corretta, ci si deve aspettare che l’insieme
dell’equazione differenziale e delle condizioni al contorno portino ad un’unica
soluzione.
Accanto alle condizioni al contorno alla Cauchy dove il valore della soluzione
e delle sue derivate normali (la derivata prima nel caso delle equazioni del secon-
do ordine), sono specificate su un’ipersuperficie, vi sono altri tipi di condizioni al
contorno ricorrenti nei problemi fisici: le condizioni di Dirichlet dove si fissano
solo i valori della funzione su un’ipersuperficie e le condizioni di Neumann dove
si fissano solo i valori della derivata normale della funzione sull’ipersuperficie.

Equazione delle onde in una dimensione spaziale.

E’ l’equazione che descrive il moto di un’onda longitudinale o trasversale in


una corda.
∂2u 1 ∂2u
− =0 (4.11)
∂x2 c2 ∂t2
le equazioni delle curve caratteristiche sono

α = x + ct = costante β = x − ct = costante (4.12)

Utilizzando α e β come variabili indipendenti, si ha (naturalmente per punti che


non stanno solo sulle curve caratteristiche) si ha

∂2u
=0
∂α∂β
da cui la soluzione più generale è

u(x, t) = g(α) + h(β) = g(x + ct) + h(x − ct)

Consideriamo le condizioni al contorno alla Cauchy fissate a t = 0


∂u
u |t=0 = a(x) |t=0 = b(x) (4.13)
∂t
nell’intervallo
x1 ≤ x ≤ x 2
Si ha
g(x) + h(x) = a(x)
dg(x) dh(x)
c −c = b(x)
dx dx
da cui Z
1 x
g(x) − h(x) = b(x0 )dx0 + costante
c x1

99
e quindi
Z x
1 1
g(x) = a(x) + b(x0 )dx0 + costante
2 2c x1
Z x
1 1
h(x) = a(x) − b(x0 )dx0 + costante
2 2c x1

Da queste espressioni si può scrivere la soluzione


 Z 
1 1 x+ct 0 0
u(x, t) = a(x + ct) + a(x − ct) + b(x )dx
2 c x−ct

che è significativa, visto l’intervallo di definizione delle due funzioni a(x) e b(x),
solo per
x1 ≤ x ± ct ≤ x2
ovvero all’interno di un rettangolo R che ha per diagonale il segmento [x1 , x2 ]
sull’asse x, delimitato da quattro segmenti di retta delle rette caratteristiche
(4.12) passanti per i due estremi. Solo per x1 → −∞ e x2 → ∞ si ha che R
ricopre l’intero piano e la soluzione con le condizioni al contorno del tipo (4.13)
è determinata per ogni valore di t.
Se invece si vuole assegnare le condizioni in un segmento finito occorrono in-
formazioni aggiuntive: ad esempio occorre fissare i valori di u(x, t) come funzione
del tempo sia per x = x1 sia in x = x2 del tipo

u(x1 , t) = c(t) u(x2, t) = d(t)

Come esempio semplice consideraimo x1 = 0 e x2 → ∞. Occorre allora


specificare soli la prima delle due condizioni, ad esempio

u(0, t) = 0

ovvero la soluzione ha un nodo in x = 0. In tal caso si può mostrare che il prob-


lema e equivalente a avere le condizioni al contorno del tipo (4.13) specificate
su tutto l’asse x. Infatti se abbiamo
∂u
u |t=0 = A(x) |t=0 = B(x)
∂t
con
A(x) = a(x) B(x) = b(x) per x > 0
lasciando al momento non specificate le funzioni A(x) e B(x) per x < 0, la
soluzione
 Z 
1 1 x+ct
u(x, t) = A(x + ct) + A(x − ct) + B(x0 )dx0
2 c x−ct

potrà soddisfare la condizione aggiuntiva u(0, t) = 0 solo se

A(x) = −A(−x) B(x) = −B(−x)

100
che fissano A(x) e B(x) per qualunque valore di x.

Equazione della diffusione in 1D.

E’ l’equazione
∂2u 1 ∂u
2
− 2 =0 (4.14)
∂x a ∂t
E’ un’equazione di tipo parabolico e le curve caratteristiche sono le rette t =costante.
Pertanto non e possibile assegnare ad un tempo fissato t = 0 sia la

u(x, 0) = b(x) (4.15)

sia il valore della derivata normale cioè ∂u/∂t |t=0 . Infatti quest’ultima è fissata
dalla stessa equazione
∂u 2
2 d b(x)
= a
∂t dx2
t=0
e pertanto le condizioni alla Cauchy fissate sulla linea t = 0 sovra-determinerebbero
il problema. Scegliendo una funzione gradino come b(x)

u(x, 0) = 1 x>0
= 0 x<0

si nota che sia la equazione differenziale che la condizione iniziale restano in-
variate rispetto alla trasformazione di scala

x → sx t → s2 t

Pertanto
u(x, t) = u(sx, s2 t)
e ponendo
1
s= √ per t > 0
t

si ha che la u(x, t) diviene una funzione della sola variabile y = x/ t. Poichè

∂2u 1 d2 u ∂u du x
2
= = (− 3 )
∂x t dy 2 ∂t dy 2t 2

In tale variabile l’equazione differenziale (4.14) diviene un’equazione differenziale


ordinaria
d2 u y du
2
+ 2 =0 (4.16)
dy 2a dy
con le condizioni al contorno

u(−∞) = 0 u(∞) = 1

101
L’equazione differenziale ordinaria (4.14) si risolve facilmente. Una soluzione è
u1 =costante, l’altra si può ottenere dalla u1 usando la formula per la deter-
minazione della seconda soluzione con il metodo illustrato all’inizio della prima
parte. Z y Z η
1
u2 (y) = u1 (y) dη 2 exp(− p(t)dt).
y0 u1 (η) y0
ovvero Z y
0 2
/4a2
u2 (y) = k dy 0 e−(y )
y0

la soluzione, combinazione√delle due, diviene, imponendo le condizioni al con-


torno e sostituendo y = x/ t,
Z √
x/ t
2a 0 2
/4a2
u(x, t) = √ dy 0 e−(y )
π −∞

che è la soluzione dell’equazione della diffusione, definita per t > 0, con la


condizione iniziale a t = 0 data dalla distribuzione a gradino. La distribuzione
a gradino rappresenta il sistema inizialmente ordinato. L’effetto della diffusione
trasforma la funzione al crescere di t in una funzione sempre più liscia, per
effetto del disordine indotto dalla diffusione. Non vi sono soluzioni, ovviamente,
per t < 0. La condizione (4.15) è una condizione di Dirichlet.

Equazione di Laplace in 2D.

Si deve trovare una soluzione della equazione

d2 u d2 u
+ 2 =0 (4.17)
dx2 dy
in un insieme di punti del piano all’interno di una curva chiusa C. Non ci
sono curve caratteristiche nel piano (x, y) in quanto l’equazione differenziale
delle caratteristiche ha solo soluzioni complesse. Immaginiamo di partire da
condizioni al contorno di Dirichlet che fissano i valori di u sulla curva C. Se
esistono due soluzioni u1 ed u2 , anche u1 − u2 è una soluzione con valori nulli
sul contorno. Essendo questa una funzione armonica, può essere pensata come
la parte reale di una funzione analitica di z = x + iy, ma allora poichè la parte
reale di una funzione analitica non può avere un massimo o un minimo locale
nei punti interni dell’insieme delimitato da C, il massimo o il minimo di essa
deve trovarsi sul contorno, dove la funzione e’ nulla. Pertanto u1 − u2 è nulla
dappertutto entro C e di conseguenza la soluzione, se esiste è unica.
Il problema dell’esistenza è più difficile. Se C è una circonferenza con centro
nell’origine, data la funzione u su C si ha
Z 2π
1 R2 − r 2
u(r cos θ, r sin θ) = u(R cos θ, R sin θ) dθ 0
2π 0 R2 − 2Rr cos(θ − θ 0 ) + r2
(4.18)

102
In generale l’uso delle condizioni di Cauchy avrebbero costituito un insieme
di condizioni con nessuna soluzione a meno che la derivata normale fissata non
coincidesse proprio con quella della u utilizzata. In tal caso il problema avrebbe
avuto la stessa soluzione, ma sarebbe bastato un cambiamento infinitesimo su
una delle condizioni al contorno per avere un problema sovra-determinato, con
nessuna soluzione. Se le soluzioni non dipendono con continuità dalle condizioni
al contorno, allora esse sono instabili. Ciò significa che, da un punto di vista
fisico, non sono state scelte in modo appropriato.

4.3 Trasformate di Fourier e distribuzioni mul-


tidimensionali.
Le Trasformate di Fourier possono essere generalizzate al caso a più dimensioni.
Se f (x1 , x2 , ..., xN ) è una funzione di N variabili si definisce
Z +∞
1
F (k1 , k2, , ..., kN ) = N dxN f (x1 , x2 , ..., xN )e−i(k1 x1 +k2 x2 +...+kN xN )
(2π) 2 −∞

Z +∞
1
f (x1 , x2, , ..., xN ) = N dkN F (k1 , k2 , ..., kN )ei(k1 x1 +k2 x2 +...+kN xN )
(2π) 2 −∞

dove si è utilizzato il simbolo


Z +∞ Z +∞ Z +∞ Z +∞
dxN = dx1 dx2 ... dxN
−∞ −∞ −∞ −∞

per l’integrazione multipla. Le proprietà si estendono facilmente dal caso monodi-


mensionale a quello multidimensionale.
Cosı̀ si può introdurre la δ multidimensionale

δ N (x − x0 ) = δ(x1 − x01 )δ(x2 − x02 )...δ(xN − x0N ) =


Z +∞
1 0 0 0
= N
dkN ei[k1 (x1 −x1 )+k2 (x2 −x2 )+...+kN (xN −xN )] =
(2π) −∞
N Z
1 Y +∞ 0
= N
dkj eikj (xj −xj )
(2π) j=1 −∞

con la proprietà
Z +∞
f (x1 , x2, , ..., xN ) = dxN δ N (x − x0 )f (x01 , x02 , ..., x0N ) (4.19)
−∞

Con il cambiamento di coordinate

xi = Xi (y1 , y2 , ..., yN )

103
la proprietà (4.19) si trasforma in
Z +∞
f (X1 , X2, , ..., XN ) = J dN y 0 δ N (X − X 0 )f (X10 , X20 , ..., XN
0
)
−∞

dove lo jacobiano J è dato da


" #
∂(x01 , x02 , ..., x0N ) ∂x0i
J≡ 0 ) = det ∂y 0
∂(y10 , y20 , ..., yN j

Di conseguenza
δ N (X − X 0 ) = J −1 δ N (y − y 0 )
In coordinate sferiche

x = r sin θ cos Φ y = r sin θ sin Φ z = r cos θ

J = r2 sin θ
1
δ 3 (X − X 0 ) = 2 δ(r − r0 )δ(θ − θ0 )δ(Φ − Φ0 )
r sin θ
Per cui passando da coordinate cartesiane a sferiche si ha

δ(x − x0 )δ(y − y 0 )δ(z − z 0 )dxdydz →

→ δ(r − r0 )δ(θ − θ 0 )δ(Φ − Φ0 )drdθdΦ

4.4 Le funzioni di Green per le equazioni alle


derivate parziali.
Il metodo della funzione di Green può essere generalizzato al caso delle equazioni
differenziali a derivate parziali, dove trova le sue più efficaci applicazioni.
Sia Lxi un operatore differenziale simbolico del secondo ordine alle derivate
parziali. Può essere definito un operatore aggiunto, rispetto ad un peso che
assumeremo per semplicità 1, L†xi se si può scrivere l’identità

N
 ∗  X ∂
v Lxi u − u(L†xi v)∗ = [Qi (u, v ∗ )]
i=1
∂x i

dove Qi (u, v ∗ ) è una forma bilineare dipendente da u(x1 , x2, , ..., xN ), da v ∗ (x1 , x2, , ..., xN )
e dalle derivate ∂u/∂xi e ∂v ∗ /∂xi . Usando il teorema di Gauss in N dimensioni
Z X N I X N

Fi (x1 , x2 , ..., xN )dN x = Fi ni dS
V i=1 ∂xi S i=1

104
dove S è una ipersuperficie chiusa che racchiude l’ipervolume V , mentre ni sono
le proiezioni sugli assi coordinati del versore normale alla ipersuperficie in ogni
suo punto, che ha verso esterno. La identità di Green generalizzata sarà
Z I X
N
 
dN x v ∗ Lxi u − u(L†xi v)∗ = [Qi (u, v ∗ )ni ] dS
V S i=1

Date le condizioni al contorno omogenee per la funzione u sulla superficie S,


si possono definire condizioni omogenee aggiunte per la funzione v sulla stessa
superficie, in modo in modo che l’integrando a destra dell’uguale sia nullo su
tutta S. Si ottiene cosı̀ l’identità di Green
Z
 
dN x v ∗ Lxi u − u(L†xi v)∗ = 0
V

Come nel caso unidimensionale l’operatore simbolico Lxi insieme con le con-
dizioni al contorno omogenee che individuano lo spazio vettoriale delle u(xi )
definiscono un operatore differenziale astratto L

< x1 , x2 , ..., xN | L | u >= Lxi u(x1 , x2 , ..., xN )

dove i vettori | x1 , x2 , ..., xN > sono la base di uno spazio vettoriale, su cui
sono rappresentate le funzioni di N variabili. I vettori hanno la proprietà di
ortonormalità

< x1 , x2 , ..., xN | x01 , x02 , ..., x0N >= δ N (x − x0 )

Le funzioni di Green associate alle equazioni alle derivate parziali non omogenee

Lxi u(x1 , x2 , ..., xN ) = f (x1 , x2 , ..., xN )

L†xi v(x1 , x2 , ..., xN ) = h(x1 , x2 , ..., xN )


soddisfano le equazioni

Lxi G(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) = δ N (x − x0 )

L†xi g(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) = δ N (x − x0 )


Le funzioni G(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) e g(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) sod-
disfano nelle xi le stesse condizioni di u(xi ) e v(xi ) rispettivamente, sempre nella
forma omogenea. In generale

G(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) = g(x01 , x02 , ..., x0N ; x1 , x2 , ..., xN )

Se Lxi è hermitiano

G(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) = G∗ (x01 , x02 , ..., x0N ; x1 , x2 , ..., xN )

Se Lxi è hermitiano e i suoi coefficienti sono reali

G(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) = G(x01 , x02 , ..., x0N ; x1 , x2 , ..., xN )

105
E’ poi possibile esprimere le soluzioni delle equazioni non omogenee con le
espressioni
Z
u(x1 , x2 , ..., xN ) = dN yG(x1 , x2 , ..., xN ; y1 , y2 , ..., yN )f (y1 , y2 , ..., yN )

+(term. di superf.)

Z
v(x1 , x2 , ..., xN ) = dN yg(x1 , x2 , ..., xN ; y1 , y2 , ..., yN )h(y1 , y2 , ..., yN )

+(term. di superf.)

dove i termini di superficie sono presenti solo se le condizioni al contorno con-


tengono parti non omogenee.

Come esempio classico consideriameo la equazione di Laplace in 3D.

∇2 u(x, y, z) = f (x, y, z)

con
∂2 ∂2 ∂2
∇2 = + +
∂x2 ∂y 2 ∂z 2
che è l’operatore di Laplace. Si ha come conseguenza del teorema di Gauss in
3D che Z I
2 2
d3 x(u∇ v − v∇ u) = dS[u∇v − v∇u] · n
V S
che è un caso particolare dell’identità di Green generalizzata e che mostra che
∇2 è autoaggiunto. Con le condizioni al contorno omogene di Dirichlet (u = 0
su S) o di Neumann (∇u·n = 0 su S) poi ∇2 definisce un operatore hermitiano.

Nella soluzione dell’equazione

Lxi G = δ N (x − x0 )

si possono separare due contributi scrivendo

G = G s + G0

dove
Lxi Gs = δ N (x − x0 ) (4.20)
e quindi Gs è la parte derivabile nel senso delle distribuzioni, che origina la δ,
mentre G0 è una soluzione dell’equazione omogenea scelta in modo che la G
possa soddisfare le condizioni al contorno omogenee

Lxi G 0 = 0

Mentre nel caso delle equazioni differenziali ordinarie Gs è comunque una fun-
zione continua, con derivata discontinua e derivata seconda proporzionale alla

106
δ, nel caso delle equazioni differenziali a derivate parziali essa può avere vere
singolarità.

Esiste un metodo immediato per ottenere la parte singolare della funzione


di Green Gs per un operatore Lxi

∂ ∂ ∂2
Lxi = a 0 + a 1 + ... + aN + aN +1 2 +
∂x1 ∂xN ∂x1

∂2 ∂2
+aN +2 + ... + aN (N +3)/2 2
∂x1 ∂x2 ∂xN
del secondo ordine a coefficienti costanti, basato sulla rappresentazione di Fouri-
er della δ
 
Z +∞ X N
1
δ N (x − x0 ) = N
dN k exp i kj (xj − x0j )
(2π) −∞ j=1

Dalla (4.20) segue che la parte singolare della funzione di Green Gs è data da

Gs (x01 , x02 , ..., x0N ; x1 , x2 , ..., xN ) =


 P 
Z +∞ N
exp i j=1 kj (xj − x0j )
1
= N
dN k (4.21)
(2π) −∞ D
dove

D = a0 +ia1 k1 +...+iaN kN +aN +1 (ik1 )2 +aN +2 (ik1 )(ik2 )+...+aN (N +3)/2 (ikN )2

come può essere mostrato per diretta sostituzione.


Consideriamo ancora i casi semplici considerati in precedenza di equazioni
differenziali dei diversi tipi a coefficienti costanti, per affrontare il caso non
omogeneo in cui è presente un termine noto o sorgente. Determiniamo la parte
singolare Gs della funzione di Green.
A) Se l’operatore differenziale è il Laplaciano, si ottiene l’equazione di Pois-
son
∇2 u(r) = −4πρ(r)
La Funzione di Green è la soluzione di

∇2 G(r, r0 ) = δ(r − r0 )

e la sua parte singolare è, dalla (4.21), data da


Z +∞ 0 Z +∞ 0
1 eik·(r−r ) −1 eik·(r−r )
Gs (r, r0 ) = 3 d 3 k = d 3 k
(2π) −∞ −(k12 + k22 + k32 ) 3
(2π) −∞ k2

Posto
k1 = k sin θ cos φ k2 = k sin θ sin φ k3 = k cos θ

107
k · (r − r0 ) = kR cos θ R = |r − r0 | d3 k = k 2 sin θdrdθdφ
si ha Z Z Z
+∞ 2π π
−1
Gs (r, r0 ) = 3 dk dφ dθ sin θeikR cos θ =
(2π) 0 0 0
Z +∞ Z 2π  π
1 eikR cos θ
= 3 dk = dφ
(2π) 0 0 0 ikR
Z +∞
−4π sin kR −1 −1
= 3
dk = =
(2π) 0 kR 4πR 4π |r − r0 |
che è l’espressione del potenziale Coulombiano di una carica puntiforme.
B) Se l’operatore differenziale è quello che compare nella equazione della
diffusione, l’equazione non omogenea è del tipo
 2 
∂ 1 ∂
− 2 u(x, t) = −σ(x, t)
∂x2 a ∂t

e la parte singolare della funzione di Green


Z +∞ Z +∞ 0 0
0 ia2
0 eik1 (x−x )+k2 (t−t )
G(x, y; x , t ) = 2 dk1 dk2
4π −∞ −∞ k2 − ia2 k12

L’integrale in dk2 può essere calcolato con integrazione nel piano complesso k2 ,
per t > t0 , chiudendo percorso di integrazione nel semipiano superiore. Segue
che
Z
−a2 +∞ 0 2 2 0
G(x, y; x0 , t0 ) = dk1 eik1 (x−x )−a k1 (t−t ) per t > t0
2π −∞
= 0 per t0 > t

L’integrale è del tipo


Z +∞ r
2 π −(a2 /4b)
eiax−bx dx = e per b>0
−∞ b

e quindi
 
−a (x − x0 )2
G(x, y; x0 , t0 ) = p exp − 2 per t > t0
2 π(t − t0 ) 4a (t − t0 )
= 0 per t0 > t

C) Se l’operatore differenziale e quello che compare nell’equazione delle onde


in 3D  
2 1 ∂2
∇ − 2 2 u(r, t) = −4πρ(r, t)
c ∂t

108
L’equazione di Green è soluzione della
 
2 1 ∂2
∇ − 2 2 G(r, t; r0 , t0 ) = δ 3 (r − r0 )δ(t − t0 )
c ∂t

Posto per comodità


Z +∞ Z +∞
1 1
0
δ 3 (r − r ) = 3 d3 k eik·R 0
δ(t − t ) = 3 dω e−iωT
(2π) −∞ (2π) −∞

con
R = r − r0 T = t − t0
La soluzione per la parte singolare è data da
Z +∞ Z +∞
0 0 −c2 ik·R e−iωT
Gs (r, t; r , t ) = 4 d3 ke dω 2 2
(2π) −∞ −∞ c k − ω2

L’integrando nel secondo integrale


Z +∞
e−iωT
∆= dω
−∞ c2 k 2 − ω 2

ha due poli sull’asse di integrazione per ω = ±ck. L’integrale ha valori diversi


secondo come si definisce il percorso di integrazione attorno ai poli. Ci sono 4
possibili soluzioni diverse, ma con due di esse si possono costruire tutte quattro.
Esse sono, secondo che il cammino di integragrazione passa sopra o sotto le
singolarità e di conseguenza il cammino viene chiuso nel semipiano inferiore o
in quello superiore,

2π sin ck(t − t0 )
∆ritardata = per t > t0
ck
= 0 per t < t0

∆avanzata = 0 per t > t0


−2π sin ck(t − t0 )
= per t < t0
ck
La scelta tra le due soluzioni può essere effettuata su base fisica, imponendo
le condizioni al contorno. Usando la prima si hanno effetti che sono successivi
temporalmente al segnale della sorgente, mentre utilizzando la seconda si ha che
al contrario l’effetto precede la causa. Se vogliamo preservare la causalità nella
descrizione fisica dobbiamo prendere la funzione di Green ritardata.
Z +∞
−c sin ckT
Gritardata = d3 keik·R per T > 0
(2π)3 −∞ k
= 0 per T < 0

109
L’integrale in d3 k diviene
Z +∞
sin ckT
d3 keik·R
−∞ k
Z +∞ Z =1 Z 2π
= dkk sin ckT d cos θk eikR cos θk dφk =
0 −1 0
Z
1 +∞
= 4π dk sin ckT sin kR =
R 0
Z
π +∞ h ik(R+cT ) i
= − dk e − eik(R−cT ) =
R −∞
2π2
= − [δ(R + cT ) − δ(R − cT )]
R
dove R = |R| e dove il primo termine dell’ultima espressione non contribuisce
in quanto l’espressione è valida per T > 0. Inoltre
1 R
δ(R − cT ) = δ( − T )
c c
e si ha quindi

1 |r − r0 |
Gritardata (r, t; r0 , t0 ) = − δ( − (t − t0 )) per t > t0
4π |r − r0 | c
= 0 per t < t0

110
4.5 Operatori differenziali in coordinate curvili-
nee ortogonali in 3D.
Dato un sistema di coordinate curvilinee ortogonali, in generale si potrà scrivere

r ≡ {q1 , q2 , q3 }

La lunghezza di un segmento infinitesimo è

dr2 = g11 dq1 + g22 dq2 + g33 dq3

essendo il tensore metrico gij diagonale. Posto

gii = h2i

posso scrivere X
dr2 = (hi dqi )2
i

mentre il vettore dr è esprimibile dalla


X
dr = hi dqi ei = h1 dq1 e1 + h2 dq2 e2 + h3 dq3 e3
i

Il gradiente di una funzione allora è dato da


1 ∂ψ 1 ∂ψ 1 ∂ψ
∇ψ = e1 + e2 + e3
h1 ∂q1 h2 ∂q2 h3 ∂q3
mentre la divergenza di un vettore può essere espressa utilizzando la definizione
integrale R
SR V·dσ
∇ · V = R lim
V
dτ →0 V dτ
da cui
 
1 ∂ ∂ ∂
∇·V = (V1 h2 h3 ) + (V2 h1 h3 ) + (V3 h1 h2 )
h1 h2 h3 ∂q1 ∂q2 ∂q3
Segue un’ espressione generale del Laplaciano ∆ψ = ∇ · ∇ψ
 
1 ∂ h2 h3 ∂ψ ∂ h1 h3 ∂ψ ∂ h1 h2 ∂ψ
∆ψ = ( )+ ( )+ ( ) (4.22)
h1 h2 h3 ∂q1 h1 ∂q1 ∂q2 h2 ∂q2 ∂q3 h3 ∂q3

Pertanto la forma del Laplaciano di una funzione in coordinate polari sferiche


di ottiene da

r = {r, θ, φ} dr2 = dr2 + r2 dθ2 + (r sin θ)2 dφ2

h1 = 1 h2 = r h3 = r sin θ

111
e si scrive
1 ∂ 2 ∂ψ 1 ∂ ∂ψ 1 ∂2ψ
∆ψ = (r )+ 2 (sin θ )+ 2 2 (4.23)
2
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ ∂φ2

Mentre in coordinate circolari cilindriche

r = {ρ, θ, z} dr2 = dρ2 + ρ2 dθ2 + dz 2

h1 = 1 h2 = ρ h3 = 1
 
1 ∂ ∂ψ 1 ∂ 2 ψ d2 ψ
∆ψ = ρ + 2 2 + 2 (4.24)
ρ ∂ρ ∂ρ ρ ∂θ dz

112
4.6 L’equazione di Laplace in 3D in coordinate
polari sferiche.
L’equazione è
   
2 1 ∂ 2 ∂u 1 ∂ ∂u 1 ∂2u
∇ u= 2 r + 2 sin θ + =0 (4.25)
r ∂r ∂r r sin θ ∂θ ∂θ 2
r2 sin θ ∂φ2

può essere risolta con il metodo di separazione delle variabili ponendo

u(r, θ, φ) = R(r)P (θ)T (φ) (4.26)

Moltiplicando per r 2 e dividendo per u si ha


   
1 d dP (θ) 1 1 d2 T (φ) −1 d 2 dR(r)
sin θ + = r
P (θ) sin θ dθ dθ sin2 θ T (φ) dφ2 R(r) dr dr

deove tutti i ∂ sono diventati d, simbolo di derivate ordinarie.


I due membri ai lati dell’uguale sono funzioni di variabili diverse. L’eguaglian-
za implica che i le due espressioni siano uguali a una costante −λ
 
1 d dP (θ) 1 1 d2 T (φ)
sin θ + +λ=0
P (θ) sin θ dθ dθ sin θ T (φ) dφ2
2

 
d dR(r)
r2 − λR(r) = 0 (4.27)
dr dr
Moltiplicando la prima equazione per sin2 θ si ha
 
sin θ d dP (θ) −1 d2 T (φ)
sin θ + λ sin2 θ =
P (θ) dθ dθ T (φ) dφ2

Di nuovo abbiamo due funzioni di diversa variabile a sinistra e destra dell’uguale


che possiamo porre entrambe uguali a una costante m2 . Cosı̀ si ottengono due
equazioni
d2 T (φ)
+ m2 T (φ) = 0 (4.28)
dφ2
   
1 d dP m2
sin θ + λ− P =0
sin θ dθ dθ sin2 θ
Quest’ultima equazione si può scrivere
 
d2 P dP m2
+ cot θ + λ − P =0
dθ 2 dθ sin2 θ
e ponendo x = cos θ, se 0 ≤ θ ≤ π
dP dP dx dP
= = − sin θ
dθ dx dθ dx

113
d2 P 2 d P
2
dP
2 = sin θ 2
− cos θ
dθ dx dx
2
 
d P dP m2
sin2 θ 2 − 2 cos θ + λ− P =0
dx dx sin2 θ
ovvero  
d2 P dP m2
(1 − x2 ) 2 − 2x + λ− P =0 (4.29)
dx dx 1 − x2
Le tre equazioni (4.28), (4.27), (4.29) sono tre equazioni differenziali ordinarie
dipendenti da due costanti. Queste costanti non possono assumere qualunque
valore se vogliamo che le funzioni delle coordinate siano regolari in una sfera
centrata sull’origine. Ad esempio la (4.28) ha soluzioni

T (φ) = eimφ

solo se la costante m assume valri interi, positivi o negativi, la funzione è


ciclicamente continua nella variabile φ ovvero

T (0) = T (2π).

L’equazione (4.29) è proprio l’equazione di Legendre dove λ = ν(ν + 1). Le


Pνm (x) per qualunque valore di ν non sono funzioni finite nell’intervallo [−1, 1]
come qui richiesto, se non per ν = l = 0, 1, 2, ..., per cui divengono le funzioni
associate ai polinomi di Legendre. Pl0 (x) = Pl (x) è soluzione della equazione

(1 − x2 )Pl00 − 2xPl0 + l (l + 1) Pl = 0

Mentre valgono le relazioni, rispettivamente per m positivo ed m negativo,


m dm
Plm (x) = (x2 − 1) 2 Pl (x)
dxm
(l − m)! m
Pl−m (x) = (−1)m P (x)
(l + m)! l
che consentono di definire le funzioni associate ai polinomi di Legendre Plm (x)
per −l ≤ m ≤ l. Fissato l vi sono 2l + 1 valori di m. Fissato m i valori di l
possono essere l = m, m + 1, m + 2, ... La formula di ricorrenza dei polinomi di
Legendre è
(l + 1)Pl+1 (x) = (2l + 1)xPl (x) − lPl−1 (x)
quindi
P0 (x) = 1
P1 (x) = x
1
P2 (x) = (3x2 − 1)
2
1
P3 (x) = (5x3 − 3x)
2

114
...
Le armoniche sferiche.

Le funzioni associate ai polinomi di Legendre sono ortogonali


Z 1
dxPlm (x)Plm0 (x) = 0 per l 6= l0
−1

e non sono normalizzate all’unità, ma secondo la seguente espressione


Z 1
2 2 (l + m)!
dx [Plm (x)] =
−1 2l + 1 (l − m)!

Si possono ora definire le funzioni delle due variabili θ, φ, le armoniche sferiche,


con gli indici l, m, con −l ≤ m ≤ l
  12
2l + 1 (l − m)!
Ylm (θ, φ) = (−1) m
Plm (cos θ)eimφ (4.30)
4π (l + m)!
con 0 ≤ θ ≤ π, 0 ≤ φ ≤ 2π. Si può verificare facilmente che costituiscono un
sistema ortonormale di funzioni
Z 2π Z +1 h i∗
0
dφ d(cos θ) Ylm
0 (θ, φ) Ylm (θ, φ) = δ ll0 δ mm0
0 −1

Le prime armoniche sferiche sono le seguenti


1
Y00 (θ, φ) = √
2 π
r
1 3
Y10 (θ, φ) = cos θ
2 π
r
1 3
Y1±1 (θ, φ) = ∓ sin θe±iφ
2 2π
r
1 5
Y20 (θ, φ) = (3 cos2 θ − sin2 θ)
4 π
r
1 15
Y2±1 (θ, φ) = ∓ cos θ sin θe±iφ
2 2π
r
1 15
Y2±2 (θ, φ) = sin2 θe±2iφ ...
4 2π
In generale una qualunque funzione di θ, φ ovvero definita sulla superficie della
sfera, sotto condizioni molto generali, può essere espress come uno sviluppo in
serie di armoniche sferiche
l
∞ X
X
f (θ, φ) = flm Ylm (θ, φ)
l=0 m=−l

115
dove Z Z
2π +1 h 0
i∗
flm = dφ d(cos θ) Ylm
0 (θ, φ) f (θ, φ)
0 −1
ovvero I h i∗
0
flm = dΩ Ylm
0 (Ω) f (Ω)

dove (θ, φ) si indica con l’ unico simbolo Ω e dΩ = dφd(cos θ).


Per mostrare che il sistema delle armoniche sferiche è completo si può ricor-
dare che una qualunque funzione di tre variabili

f (x, y, z)

continua può essere approssimata uniformemente nel dominio −1 ≤ x, y, z ≤ 1


da una funzione
X
fn (x, y, z) = a(n)
mi ,mj ,mk x
mi mj mk
y z
0≤mi ,mj ,mk ≤n

Sulla sfera di raggio unitario

x2 + y 2 + z 2 = 1

e quindi non tutti i monomi dello sviluppo sono linearmente indipendenti e tra
i monomi dello stesso ordine l = mi + mj + mk si hanno solo 2l + 1 monomi
rlinearmente indipenti, quante sono le armoniche sferiche corrispondenti.

Finalmente è possibile considerare la soluzione per la parte radiale


 
d dR(r)
r2 − l(l + 1)R(r) = 0
dr dr
che ha soluzioni linearmente indipendenti

rl r−l−1

La prima soluzione è finita all’origine (nulla per l > 0) e quindi la soluzione


dell’equazione di Laplace all’interno di una sfera di raggio finito è finita e
monodroma e del tipo
u(r, θ, φ) = rl Ylm (θ, φ)
invece per la soluzione fuori da una sfera il comportamento limitato della seconda
soluzione è accettabile

u(r, θ, φ) = r−l−1 Ylm (θ, φ)

Si può allora risolvere il problema di trovare una soluzione generale della equazione
di Laplace o all’interno o all’esterno di una sfera di raggio ρ con condizioni di
Dirichlet sulla superficie. La condizione al contorno è

u(ρ, θ, φ) = h(θ, φ) (4.31)

116
che può essere sviluppata in serie
l
∞ X
X I h i∗
0
h(θ, φ) = alm Ylm (θ, φ) con alm = dΩ Ylm
0 (Ω) h(Ω)
l=0 m=−l

La soluzione interna sarà


l
∞ X
X  l
r
u(r, θ, φ) = alm Ylm (θ, φ) (4.32)
ρ
l=0 m=−l

mentre quella esterna


l
∞ X
X  ρ l+1
u(r, θ, φ) = alm Ylm (θ, φ). (4.33)
r
l=0 m=−l

E’ cosı̀ risolto il problema dell’equazione di Laplace con la condizione al


contorno di Dirichlet sulla superficie dalla sfera espressa dalla (4.31), sia per il
caso della soluzione interna (4.32), sia per il caso della soluzione esterna (4.33).
La soluzione esiste ed è unica.
Analogo è il caso delle condizioni al contorno di Neumann dove si fissa invece
la derivata normale della u(r, θ, φ) per r = ρ.

Una funzione f (Ω) è sviluppabile in serie di Fourier di funzioni sferiche Ylm


come
∞ X
X l
f (Ω) = Alm Ylm (Ω) (4.34)
l=0 m=−l
con I

Alm =< Ylm | f > = dΩ0 [Ylm (Ω0 )] f (Ω0 ) (4.35)

Varrà l’identità di Parseval


l
∞ X
X 2
< f | f >= |Alm | .
l=0 m=−l

Introducendo nella (4.34) la(4.35) si ha


I (∞ l )
X X ∗
f (Ω) = dΩ0 [Ylm (Ω0 )] Ylm (Ω) f (Ω0 )
l=0 m=−l

da cui
l
∞ X
X ∗
δ(Ω − Ω0 ) = [Ylm (Ω0 )] Ylm (Ω) (4.36)
l=0 m=−l
con
1
δ(Ω − Ω0 ) = δ(φ − φ0 )δ(cos θ − cos θ 0 ) = δ(φ − φ0 ) δ(θ − θ0 )
sin θ

117
ed anche
I Z 2π Z +1
dΩ0 δ(Ω − Ω0 ) = dφδ(φ − φ0 ) d(cos θ)δ(cos θ − cos θ 0 ) =
o −1
Z π
1
= dθ sin θ δ(θ − θ 0 ) = 1.
0 sin θ

In letteratura con ovvio significato dei simboli si indica spesso Ω ≡ (θ, φ)


con il versore r̂.
La differenza tra the le direzioni Ω e Ω0 dipende solo dall’angolo compreso
tra le due, che indichiamo con γ

cos γ = cos θ cos θ 0 + sin θ sin θ 0 cos(φ − φ0 )

Nell’intervallo
−1 ≤ cos γ ≤ 1
è allora possibile sviluppare la δ(Ω − Ω0 ) in serie di polinomi di Legendre

X
δ(Ω − Ω0 ) = al Pl (cos γ)
l=0

che moltiplicata a destra e sinistra per Pl0 (cos γ) ed integrando in dΩ0 implica

X Z +1 I
2πal Pl (cos γ)Pl0 (cos γ)d(cos γ) = dΩ0 Pl0 (cos γ)δ(Ω − Ω0 )
l=0 −1

Tenendo conto della relazione di ortogonalità dei Pl


Z +1
2δll0
Pl (x)Pl0 (x)dx =
−1 2l + 1

si ha

al0 = Pl0 (1) = 1
2l0 + 1
da cui ∞
X 2l + 1
δ(Ω − Ω0 ) = Pl (cos γ) (4.37)

l=0

che è la rappresentazione della δ(Ω − Ω0 ) in termini dei polinomi di Legendre


che avevamo cercato.
Confrontando la (4.37) con la (4.34) si ha

( l )
X X 2l + 1
m 0 ∗ m
[Yl (Ω )] Yl (Ω) − Pl (cos γ) = 0.

l=0 m=−l

118
In realtà si può dimostrare che ciascun termine della somma su l è nullo, anche
se per dimostrare questo occorre conoscere le proprietà delle Ylm (Ω) in quanto
componenti delle basi ad l fissato per le rappresentazioni irriducibili del gruppo
delle rotazioni e la struttura dei sottospazi vettoriali invarianti a dimensione
2l + 1 da esse ottenibili. Assumiamo per ora che ogni termine a l fissato sia
effettivamente nullo. Si ottiene allora un’importante relazione: il teorema di
addizione delle armoniche sferiche
l
4π X ∗
Pl (cos γ) = [Ylm (Ω0 )] Ylm (Ω) (4.38)
2l + 1
m=−l

che può anche essere scritto direttamente in termini delle Plm


Pl (cos θ cos θ 0 + sin θ sin θ0 cos(φ − φ0 ) =
Xl
(l − m)! m
= Pl (cos θ)Pl (cos θ0 ) + 2 Pl (cos θ)Plm (cos θ 0 ) cos m(φ − φ0 ) (4.39)
m=1
(l + m)!
che prende nome di teorema di addizione delle funzioni associate ai polinomi di
Legendre.

Ricordando poi lo sviluppo



X
eikz cos θ = il (2l + 1)jl (kr)Pl (cos θ)
l=0

scritto al termine del precedente capitolo, dove compaino le funzioni di Bessel


sferiche jl (x), è possibile scrivere in generale, per una qualunque onda piana,
eik·r = eikr cos γ
dove γ è l’angolo formato tra le direzione di k e di r, ovvero cos γ = k̂ · r̂, cioè
Ω0 ed Ω. Si ha quindi
l
∞ X
X ∗
eik·r = 4πil jl (kr) [Ylm (Ω0 )] Ylm (Ω) (4.40)
l=0 m=−l

che costituisce lo sviluppo di un onda piana in armoniche sferiche e funzioni di


Bessel sferiche.

4.7 L’ equazione di Schrödinger radiale per l’ato-


mo di idrogeno.
L’equazione non relativistica indipendente dal tempo per l’atomo d’idrogeno è
 
~2 e2
− ∆− Ψ(r) = EΨ(r) (4.41)
2m r

119
ovvero  
2me2 1 2m
∆+ 2 − 2 E Ψ(r) = 0
~ r ~
che differisce dalla (4.25) ∆Ψ(r) = 0 per due termini, che dovranno comparire
nella parte radiale, se scrivo la soluzione come

Ψ(r) = R(r)P (θ)T (φ).

L’equazione per la parte radiale sarà


   
1 d 2 dR(r) 2me2 1 2m l(l + 1)
r + − 2 E R(r) − R(r) = 0 (4.42)
r2 dr dr ~2 r ~ r2

ovvero, moltiplicando per r 2 ,


   
d 2 dR(r) 2me2 2m 2
r + r − 2 Er R(r) − l(l + 1)R(r) = 0 (4.43)
dr dr ~2 ~

Posto
yl (r)
R(r) = (4.44)
r
si ha  
d dR(r) d2 yl (r)
r2 =r
dr dr dr2
e quindi la (4.43) diviene
 
d2 yl (r) 2me2 2m l(l + 1)
r + − 2 Er − yl (r) = 0
dr2 ~2 ~ r

ovvero, dividendo per r,

d2 yl (r) A C
+ ( − B − 2 )yl (r) = 0 (4.45)
dr2 r r
dove
2me2 2mE
A= B= c = l(l + 1) (4.46)
~2 ~2
Per E < 0, ovvero per gli stati legati, e per r → ∞, l’equazione (4.45) diviene

yl00 = Byl

con B√ negativo ovvero per r → ∞ le soluzioni sono del tipo e−kr ed ekr , con
k = −B. Di queste solo la prima è accettabile, avendo il comportamento
all’infinito di una funzione normalizzabile.
Con il cambiamento di variabile
2√
x = 2kr = −2mE r (4.47)
~

120
l’equazione (4.45) divisa per 4k 2

d2 yl (r) A B C
+ ( 2 − 2 − 2 2 )yl (r) = 0
4k 2 dr2 4k r 4k 4k r
diviene  
d2 l(l + 1) ν 1
− + − yl = 0 (4.48)
dx2 x2 x 4
dove l’equazione dipende ora da un solo parametro adimensionale ν, oltre che
da l. Tale parametro adimensionale si può scrivere come
r
A 2me2 2me2 e2 mc2
ν= 2 = = √ = . (4.49)
4k 2~2 k 2~2 ~−1 −2mE ~c −2E

Ora per x → 0 la soluzione deve andare zero come xl+1 , mentre ad x → ∞ va


1
bene e− 2 x . Scegliamo quindi una soluzione della forma
1
yl (x) = xl+1 e− 2 x vl (x) (4.50)

che ha derivata seconda

xl+1 − 1 x xl+1 − 1 x xl+1 − 1 x 0


l(l + 1) e 2 v (x) − (l + 1)
l e 2 v (x) + 2(l + 1)
l e 2 vl (x)+
x2 x x
1 1 1 1
+ xl+1 e− 2 x vl (x) − xl+1 e− 2 x vl0 (x) + xl+1 e− 2 x vl00 (x)
4
1
che, inserita nella (4.48) da, dividendo per xl+1 e− 2 x ,
 2 
d 2l + 2 − x d l+1−ν
+ − vl (x) = 0
dx2 x dx x
ovvero  
d2 d
x + (2l + 2 − x) − (l + 1 − ν) vl (x) = 0 (4.51)
dx2 dx
che è l’equazione ipergeometrica confluente avente una soluzione regolare nel-
l’origine data da
vl (x) = Φ(l + 1 − ν, 2l + 2; x)
che è l’unica accettabile, in quanto l’altra soluzione nell’origine va come x−2l−1 .
Perchè la funzione (4.50) abbia norma finita occorre che la funzione F (l + 1 −
ν, 2l + 2; x) si riduca ad un polinomio ovvero che

l + 1 − ν = −n0 n0 = 0, 1, 2, ...

In tal caso essa è, a meno di una costante un polinomio di Laguerre, infatti si
ha
n0 !
Φ(−n0 , 2l + 2; x) = L2l+1
0 (x)
(2l + 2)n0 n

121
Inoltre la quantità ν definita dalla (4.49) diviene un numero intero

ν = n = n0 + l + 1 n = 1, 2, 3, ...

prende nome di numero quantico principale. Di conseguenza l’energia è quan-


tizzata  
e4 mc2
= n2
~2 c2 −2E
da cui segue la Formula di Rydberg

e4 m
E=− (4.52)
2~2 n2
ovvero, posto
e2
α= , (4.53)
~c
si ha
mc2
E = −α2 (4.54)
2n2
dove compare la costante adimensionale α, costante di struttura fine e l’energia
di legame dell’elettrone è espressa in funzione dell’energia associata alla massa
a riposo dell’elettrone. Conseguenza della (4.52) è che anche k è quantizzata

e2 m 1
k= =
~n na0

dove
~
a0 =
e2 m
è il raggio di Bohr e vale circa 0, 52917 10−10 m.

A questo punto, tenendo conto delle (4.44) e (4.50), è possibile scrivere la


soluzione radiale per n ed l assegnati
 3  l  
2 2r 2r
− na 2r
Rnl (r) = Nnl e 0 L2l+1
n−l−1 (4.55)
na0 na0 na0

In testi diversi vi sono diverse notazioni degli indici e diverse normalizzazioni


per i polinomi di Laguerre. Qui usiamo le definizioni del Rossetti e del Lebedev,
dove
Xm
(m + k)!
Lkm (x) = (−1)s xs (4.56)
s=0
(m − s)!(k + s)!k!
e dove la funzione generatrice è scritta come
xt
X∞
e− 1−t
= Lkm (x)tn .
(1 − t)k+1 n=0

122
Dalla normalizzazione Z
dr |Ψ(r) |2 = 1

si ha Z ∞ I
2
2
drr [Rnl (r)] dΩ |Ylm (Ω)|2 = 1
0
e per la parte radiale segue che
Z ∞
 2 2
Nnl2
dxe−x x2l L2l+1
n−l−1 (x) x = 1
0

La valutazione dell’integrale, utilizzando una formula ricavabile per mezzo della


funzione generatrice, consente di ottenere
  12
(n − l − 1)!
Nnl = .
2n(n + l)!

123
Parte II

Rotazioni, Momento
angolare, Teoria dei Gruppi.

124
Capitolo 5

Rotazioni e momento
angolare.

Lo scopo di questa parte del corso è lo studio delle simmetrie continue in fisica
e in particolare in meccanica quantistica. Partiremo, in questo capitolo, dallo
studio delle rotazioni in 3D, del gruppo delle rotazioni proprie SO(3) e dalle sue
rappresentazioni. I generatori del gruppo sono le tre componenti del momento
angolare. Avremo l’occasione, generalizzando, di introdurre altri gruppi continui
e di esaminare l’impatto della teoria dei gruppi (in particolare considerereremo
i gruppi di Lie e le algebre di Lie), sulla fisica del XX secolo.

5.1 Rotazioni in 3D.


Per ruotare un vettore reale in 3D, descritto mediante le sue componenti carte-
siane da un vettore colonna v, lo si moltiplica per una matrice reale ortogonale
R.
v0 = Rv
Si ha RT R = 1, dove indicheremo con 1 la matrice identità e dove RT = R−1 .
b.
Consideriamo un sottoinsieme delle rotazioni: quelle attorno ad un asse fisso n
b si rappresenta con
La rotazione di un angolo φ attorno ad n
Rnb (φ)
cui corrisponde la matrice
Rnb (φ).
b è il versore che individua l’asse di rotazione e φ è l’angolo di rotazione.
dove n
La rotazione identità E corrisponde alla matrice 1.
b =b
Per n z si ha
 
cos φ − sin φ 0
Rbz (φ) =  sin φ cos φ 0 
0 0 1

125
b.
Il verso positivo della rotazione è quello antiorario rispetto al versore n
Notiamo che una rotazione positiva dell’oggetto fisico equivale ad una rotazione
negativa del sistema di riferimento. E’ facile ottenere le matrici di rotazione
b ed y
attorno ad x b.
   
1 0 0 cos φ 0 sin φ
Rxb (φ) =  0 cos φ − sin φ  Ryb (φ) =  0 1 0 
0 sin φ cos φ − sin φ 0 cos φ

Consideriamo una rotazione infinitesima, ponendo φ = η e sviluppiamo al


secondo ordine in η .
 2

1 − η2 −η 0
 2 
Rbz (η) =  η 1 − η2 0 
0 0 1

Più in generale, per una qualunque rotazione attorno ad uno degli assi coordi-
nati, l’elemento di matrice è

η2
(Rba )bc = δ bc (1 − (1 − δ ab )) − ηeabc
2
a meno di termini di ordine piùelevato di η 2 . Gli indici assumono i valori xyz , o
123 , δ ab vale 1 per a = b e 0 per a 6= b , eabc vale +1 se abc è una permutazione
pari dei tre indici, −1 se è una permutazione dispari oppure vale 0 se vi sono
indici ripetuti.
Il prodotto di due rotazioni è ancora una rotazione. La matrice corrispon-
dente si ottiene moltiplicando la matrice della seconda rotazione per quella della
prima. Il prodotto non è commutativo se le due rotazioni hanno due assi diversi.
Ad esempio si ottiene
 
0 −η 2 0
Rxb (η)Ryb (η) − Ryb (η)Rxb (η) =  η 2 0 0  = Rbz (η 2 ) − 1 (5.1)
0 0 0

a meno di termini di ordine più alto di η 2 .

Vediamo come in meccanica ondulatoria si trasforma una funzione d’on-


da scalare ψ(r, t) per effetto di una rotazione infinitesima R (ovvero della
rotazione inversa R−1 del sistema di coordinate). Posto δr =δφ × r, con
δφ =(nx , ny , nz )δφ = n̂δφ ed indicando con p̆ l’operatore vettoriale che contiene
le derivate rispetto alle coordinate −i~∇, si ha

ψ 0 (r, t) = ψ(R−1 r, t) = ψ(r−δr, t) ' ψ(r, t) − (δφ ×r) · ∇ψ(r, t)


i i
ψ 0 (r, t) ' ψ(r, t) − (δφ ×r) · p̌ψ(r, t) = (1 − δφ · r × p̆)ψ(r, t)
~ ~

126
i
ψ 0 (r, t) = (1 − 1δφ · L̆ · δφ)ψ(r, t)
~
dove si vede che la funzione d’onda ruotata si ricava da quella iniziale mediante
l’operatore unitario (1 − ~i L̆ · δφ) in cui compaiono le tre componenti del mo-
mento angolare orbitale L̆ = r × p̌ ovvero i tre operatori hermitiani L̆x , L̆y , L̆z ,
in un prodotto scalare con il vettore δφ.

5.2 Il momento angolare in meccanica quantis-


tica.
In generale in meccanica quantistica, non soltanto in meccanica ondulatoria, per
ottenere una trasformazione infinitesima appartenente ad un gruppo continuo di
trasformazioni (traslazioni temporali, traslazioni spaziali, rotazioni,...) si agisce
sullo stato quantico | α > con un operatore unitario

Uη = 1 − iGη

L’operatore Uη è unitario, ovvero Uη† = Uη−1 . Questa proprietà è associata al


fatto che G è un operatore hermitiano (G = G† ) o un insieme di operatori
hermitiani, η è un parametro o un insieme di parametri reali associati alla
trasformazione infinitesima. Nel caso di una traslazione temporale η = δt e
l’operatore G è l’Hamiltoniano diviso per ~. Si dice che H è il generatore delle
traslazioni temporali. Nel caso di una traslazione spaziale η = δr = (δx, δy, δz),
i generatori delle traslazioni spaziali sono p̆x , p̆y , p̆z e p̆/~ è l’operatore vettoriale
hermitiano G scritto in forma cartesiana con le sue tre componenti.
Allo stesso modo per le rotazioni infinitesime attorno ad un asse n̂ di un
angolo δφ, si costruisce un operatore unitario
i
D(n̂,δφ) = 1 − J · n̂δφ (5.2)
~
dove compaiono le tre componenti dell’operatore J = (Jx , Jy , Jz ) momento an-
golare in tutta generalità. Le proprietà rilevanti di J possono essere dedotte dal
fatto che (Jx , Jy , Jz ) costituiscono i tre generatori delle rotazioni spaziali. Un
qualunque stato quantico sarà ruotato tramite D(n̂,δφ)

| α0 >= D(n̂,δφ) | α >

Se la rotazione è finita, si può pensare di ottenerla mediante un prodotto infinito


di rotazioni infinitesime attorno allo stesso asse n̂
i φ i
D(n̂,φ) = Dn̂ (φ) = lim (1 − J · n̂ )N = e− ~ J·n̂φ
N →∞ ~ N

i 1 2 i 3
=1− J · n̂φ − (J · n̂) φ2 + (J · n̂) φ3 + ...
~ 2!~2 3!~3

127
Ritorniamo alle rotazioni infinitesime. Vediamo come, applicando la relazione
trovata nella (5.1) , si possa trovare una importante relazione tra le componenti
di J.

Dxb (η)Dyb (η) − Dyb (η)Dxb (η) = Dbz (η 2 ) − 1


i 1 i 1
(1 − Jx η − 2 Jx2 η 2 )(1 − Jy η − 2 Jy2 η 2 )
~ 2~ ~ 2~
i 1 i 1
−(1 − Jy η − 2 Jy2 η 2 )(1 − Jx η − 2 Jx2 η 2 ) =
~ 2~ ~ 2~
i
= 1 − Jz η 2 − 1 + O(η 3 )
~
All’ordine η 2 si ha

η2 iη2
− 2
(Jx Jy − Jy Jx ) = − Jz
~ ~
ovvero si ottiene la regola di commutazione del momento angolare

Jx Jy − Jy Jx = i~Jz

Ripetendo la stessa procedura per tutte le coppie di assi si ottiene che

[Ja , Jb ] = i~eabc Jc (5.3)

ovvero
[Jx , Jy ] = i~Jz , [Jy , Jz ] = i~Jx , [Jz , Jx ] = i~Jy
che sono le relazioni di commutazione delle componenti del momento angolare.
Si noti che è possibile raggruppare le relazioni in un’unica espressione simbolica

J × J =i~J

Queste relazioni erano già note in meccanica ondulatoria per le componen-


ti di L̆ , Lx , Ly , Lz , dove rano state ottenute conoscendo esplicitamente che
L̆ = r × p̌, dalle relazioni di commutazione

[ra , pb ] = i~δab

Qui invece non abbiamo fatto nessuna ipotesi sulla forma di J. Abbiamo solo
utilizzato una proprietà delle rotazioni infinitesime ed in particolare della non
commutatività delle rotazioni infinitesime attorno ad assi diversi, espressa dalla
(5.1). Le relazioni di commutazione tra i generatori del gruppo delle rotazioni
proprie SO(3) date dalla (5.3) sono ottenute dalla struttura locale del gruppo
stesso, ovvero dalle proprietà della moltiplicazione tra gli elementi del gruppo,
in un intorno (η) dell’elemento unità.
Nota: Vi possono essere degli stati | ϕ > con la proprietà

Ja | ϕ > = 0 a = 1, 2, 3.

128
In tal caso si ha
D(n̂,φ) | ϕ > =| ϕ >
Questi stati invarianti per rotazione sono già noti: in meccanica ondulatoria
sono gli stati che hanno funzione d’onda che dipende solo dal modulo di r

< r | ϕ > = ϕ(r)

ovvero le funzioni d’onda con l = 0.

129
5.3 Spin 1/2.
Abbiamo visto come è stato possibile ricavare le regole di commutazione tra le
componenti di J dalla struttura locale del gruppo delle rotazioni. L, già noto
come momento angolare orbitale, è un caso particolare di J. Se esistono gradi
di libertà interni, le rotazioni agiscono anche su di esse ed i generatori, nello
spazio di tali gradi di libertà interni, si indicano con S = (Sx , Sy , Sz ), momento
angolare di spin. Il caso in cui si considerino i soli gradi di libertà di spin, per
s = 1/2, ci permetterà di ottenere la rappresentazione degli operatori D(n̂,δφ) in
forma di matrici 2 × 2, la rappresentazione non ovvia a più bassa dimensionalità
delle rotazioni in 3D.
Lo stato di un sistema quantistico a spin 1/2, dotato dei soli gradi di libertà
interni, si esprime come sovrapposizione di due stati quantici che indicheremo
con i due vettori di base ortonormali di uno spazio vettoriale complesso a due
dimensioni | + > e | − >

| χ >= c1 | + > +c2 | − >

In questa base si può costruire l’operatore identità

E =| + >< + | + | − >< − |

e l’operatore σ z , che è hermitiano,

σ z =| + >< + | − | − >< − |

che ha per autostati | + > e | − > rispettivamente con autovalori +1 e -1.


Introduco
1 ~
Sz = ~σ z = (| + >< + | − | − >< − |) (5.4)
2 2
da cui
~
Sz | ± >= ± | ± >
2
dove riconosciamo gli autovalori (e i relativi autostati) della componente z del
momento angolare di spin. Gli autostati di σ z possono essere preparati mediante
una misura effettuata sul sistema fisico a partire da un qualunque stato | χ > che
sia una combinazione di due stati. Misurare σ z significa contrarre o proiettare
| χ > su | + > o su | − > , secondo che il valore ottenuto nella misura sia ~/2
o -~/2.

Possiamo poi introdurre due operatori non hermitiani S+ ed S− cosı̀ fatti

S+ = ~σ + = ~ | + >< − | S− = ~σ − = ~ | − >< + | (5.5)

Essi innalzano o abbassano il valore della componente di spin, solo se questo


è possibile, ovvero: S+ | + >= 0 S+ | − >=| + > S− | + >=| − >
S− | − >= 0.

130
Gli operatori considerati sin qui sono operatori lineari O e quindi sono rap-
presentabili come matrici i cui elementi sono del tipo < m | O | n > nella base
del nostro spazio vettoriale
       
1 0 ~ 1 0 0 1 0 0
1= Sz = S+ = ~ Sz = ~
¯ 0 1 2 0 −1 0 0 1 0
(5.6)
Sappiamo che se invece degli autostati di Sz vogliamo costruire quelli di Sx ,
che indicheremo con | Sx ; + > e con | Sx ; − >, dovremo combinare linearmente
con coefficienti di ugual modulo gli stati | + > e | − > e garantire l’ortogonalità
dei due stati e la corretta normalizzazione di ciascuno
1 1 1 1
| Sx ; + >= √ | + > + √ eiδA | − > ; | Sx ; − >= √ | + > − √ e−iδA | − >
2 2 2 2
Una volta scritti gli autostati di Sx si può costruire l’operatore nello stesso modo
con cui si è scritto Sz nella (5.4)

~
Sx = (| Sx ; + >< Sx ; + | − | Sx ; − >< Sx ; − |) =
2
~ −iδ A
= (e | + >< − | + eiδ A | − >< + |)
2
Analogamente si ottiene
~ −iδ B
Sy = (e | + >< − | + eiδ B | − >< + |)
2
Imponendo che |< Sx ; ± | Sy ; + >|2 = 1/2, si ottiene che la differenza tra le fasi
deve essere δ B − δ A = ±π/2. La scelta δ A = 0 e δ B = π/2 non comporta
perdita di generalità e corrisponde a scegliere una terna xyz destrorsa. Si ha
quindi
~ 1
Sx = (| + >< − | + | − >< + |) = (S+ + S− )
2 2
~ −i
Sy = (−i | + >< − | + i | − >< + |) = (S+ − S− )
2 2
da cui

S+ = Sx + iSy S− = Sx − iSy
Nella nostra base a due componenti le matrici che rappresentano Sx ed Sy sono
   
~ 0 1 ~ 0 −i
Sx = Sy = (5.7)
2 1 0 2 i 0

La terna di operatori (o di matrici) Sx , Sy , Sz ha i seguenti anticommutatori e


commutatori.
1
{Sa , Sb } = ~2 δ ab (5.8)
2

131
[Sa , Sb ] = i~eabc Sc (5.9)
Mentre l’ultima relazione identifica i tre operatori come le componenti di un
momento angolare, la precedente è una proprietà valida nel sottospazio N = 2
qui considerato.

L’operatore S2 = Sx2 + Sy2 + Sz2 per N = 2 si scriverà

~2 ~2
S2 = (| + >< + | − | − >< − |)2 + (| + >< − | + | − >< + |)2 +
4 4
~2 3 3
+ (−i | + >< − | +i | − >< + |)2 = ~2 (| + >< + | + | − >< − |) = ~2 I
4 4 4
Vale poi la proprietà
[S2 , Sa ] = 0 (5.10)
che è vera in generale per un momento angolare

[J2 , Ja ] = 0 (5.11)

Dimostriamo la relazione, ad esempio per [J2 , Jz ], ricordando che [AB, C] =


A[B, C] +[A, C]B

[J2 , Jz ] = [Jx Jx + Jy Jy + Jz Jz , Jz ] = Jx [Jx , Jz ] + [Jx , Jz ]Jx

+Jy [Jy , Jz ] + [Jy , Jz ]Jy = −i~Jx Jy − i~Jy Jx + i~Jy Jx + i~Jx Jy = 0.

Le tre matrici di spin per N = 2 possono essere scritte come


~
Sk = σk
2
dove σ x , σ y , σ z che indicheremo con σ 1 , σ 2 , σ 3 sono le tre matrici di Pauli.

     
0 1 0 −i 1 0
σ1 = σ2 = σ3 = (5.12)
1 0 i 0 0 −1

Esse verificano le proprietà

σ a σ b = ieabc σ c + δ ab I σ †a = σ a T r(σ a ) = 0 Det(σ a ) = −1

Se a = (a1 , a2 , a3 ) è un vettore reale si ha


 
a3 a1 − ia2
σ · a =σ 1 a1 + σ 2 a2 + σ 3 a3 =
a1 + ia2 −a3
2
(σ · a) = a2 1.
¯

132
Per finire dimostriamo, generalizzando l’ultima relazione ottenuta, che

(σ · a) (σ · b) = (a · b ) 1 + iσ·(a × b) (5.13)
¯
Infatti
XX XX 1 1
(σ · a) (σ · b) = σ i a i σ j bj = ( {σ i , σ j } + [σ i , σ j ])ai bj =
i j i j
2 2
XX X
(δ ij + i eijk σ k )ai bj =
i j k
X XXX
= a i bi + i σ k ekij ai bj = (a · b) 1 + iσ·(a × b).
¯
i i j k

133
5.4 Rotazioni per Stati con Spin 1/2.
L’operatore di rotazione Dn̂ (φ), nello spazio degli stati N = 2, che ha per base gli
autostati di Sz , | χ >= c1 | + > +c2 | − > è dato da exp(− ~i S · n̂φ). Tenendo
conto che (σ · n̂)2n = I e che (σ · n̂)2n+1 = σ · n̂, si ha

i i φ φ
exp(− S · n̂φ) = exp(− σ · n̂φ) = I cos( ) − iσ · n̂ sin( ) =
~ 2 2 2
 
cos( φ2 ) − inz sin( φ2 ) (−inx − ny ) sin( φ2 )
= (5.14)
(−inx + ny ) sin( φ2 ) cos( φ2 ) + inz sin( φ2 )
che è la matrice 2 × 2 che trasforma gli spinori a due componenti per rotazione
attorno ad un asse qualunque n̂. Le due colonne rappresentano gli spinori
trasformati degli stati di base | + > e | − > . E’ evidente che una rotazione
di 2π attorno ad un qualunque asse trasforma | χ > in − | χ >, mentre una
rotazione di 4π trasforma | χ > in se stesso. Questa sorprendente proprietà
delle particelle con spin 1/2 è confermata sperimentalmente, negli esperimenti
di interferenza tra stati quantici dello stesso sistema che precorre due diversi
cammini: uno in presenza di un campo magnetico che produce una rotazione
(precessione) dello spin ed uno in assenza del campo magnetico. E’ cosı̀ possibile
sovrappore lo stato non ruotato e lo stato ruotato di 2π ed ottenere interferenza
distruttiva, come pure sovrappore lo stato non ruotato a quello ruotato di 4π
ottenendo interferenza costruttiva. Questi esperimenti sono stati effettuati con
neutroni e con muoni ed hanno confermato questa sorprendente proprietà degli
stati quantici a momento angolare semintero. Inoltre dalla considerazione della
(5.14) ci viene il sospetto di di dover considerare come distinte due rotazioni
che differiscono per 2π passando cosı̀ dall’insieme delle rotazioni a un insieme
di elementi che con esse è in corrispondenza 1 ←→ 2.Il nuovo insieme (gruppo
SU (2)) avrà le stesse proprietà locali del gruppo SO(3) delle rotazioni.

Vediamo invece come si trasforma il valore medio (valore di aspettazione) di


una componente di σ sullo stato ruotato

| χ0 >= Dn̂ (φ) | χ >

Prendiamo una rotazione attorno a ẑ e consideriamo la componente σ x

< χ0 | σ x | χ0 >=< χ | Dẑ† (φ)σ x Dẑ (φ) | χ >=


  
cos( φ2 ) + i sin( φ2 ) 0 0 1
=< χ |
0 cos( φ2 ) − i sin( φ2 ) 1 0
 
cos( φ2 ) − i sin( φ2 ) 0
× | χ >=
0 cos( φ2 ) + i sin( φ2 )
 
cos( φ2 ) + i sin( φ2 ) 0
=< χ |
0 cos( φ2 ) − i sin( φ2 )

134
 
0 cos( φ2 ) + i sin( φ2 )
× | χ >=
cos( φ2 ) − i sin( φ2 ) 0
 
0 cos2 ( φ2 ) − sin2 ( φ2 ) + 2i cos( φ2 ) sin( φ2 )
=< χ | 2 φ 2 φ φ φ | χ >=
cos ( 2 ) − sin ( 2 ) − 2i cos( 2 ) sin( 2 ) 0
 
0 cos(φ) + i sin(φ)
=< χ | | χ >=
cos(φ) − i sin(φ) 0
=< χ | σ x | χ > cos (φ) − < χ | σ y | χ > sin (φ)

I valori medi sullo stato ruotato delle componenti di σ si esprimono in fun-


zione dei valori medi delle componenti sullo stato non ruotato nello stesso mo-
do in cui un vettore ruotato si scrive in termini delle componenti non ruotate.
Ovvero i valori medi delle componenti del momento angolare si trasformano per
rotazione come le componenti di un vettore in R3 .
Possiamo anche scrivere

< χ0 | Sx | χ0 >=< χ | Dẑ† (φ)Sx Dẑ (φ) | χ >=< χ | Dẑ−1 (φ)Sx Dẑ (φ) | χ >=

=< χ | Sx | χ > cos (φ) − < χ | Sy | χ > sin (φ) (5.15)


Ruotando gli stati, quindi, si ottengono per i valori di aspettazione delle com-
ponenti del momento angolare di spin sullo stato ruotato, proprio le regole di
trasformazione dei vettori per rotazione
X
< χ0 | Sa | χ0 > = Rab Sb
b

Ruotare lo stato quantico, su cui si calcola il valore di aspettazione, equivale ad


effettuare la rotazione dell’operatore madiante la trasformazione di similitudine

Sx → Dẑ−1 (φ)Sx Dẑ (φ) (5.16)

Questa rotazione è invero la rotazione inversa per l’operatore, essendo quella


diretta

Dẑ (φ)Sx Dẑ−1 (φ).


Se avessi ruotato con la stessa rotazione diretta sia gli stati sia gli operatori

< χ | Dẑ−1 (φ)(Dẑ (φ)Sx Dẑ−1 (φ))Dẑ (φ) | χ >=< χ | Sx | χ >

avrei lasciato inalterato il valor medio. E’ chiaro che per rotazione diretta
dell’operatore intenderemo la trasformazione inversa della (5.16)

Sx → Dẑ (φ)Sx Dẑ−1 (φ). (5.17)

135
La proprietà (5.15) è in realtà una proprietà non solo di S ma di J e può essere
trasferita dai valori medi agli operatori ruotati secondo la (5.16). Possiamo
infatti osservare che
i i i 1 i 1
exp( Jz φ)Jx exp(− Jz φ) = (1+ Jz φ− 2 Jz2 φ2 +...)Jx (1− Jz φ+ 2 Jz2 φ2 +...) =
~ ~ ¯ ~ 2!~ ¯ ~ 2!~
i 1 iφ 1 iφ n
= Jx + φ[Jz , Jx ]+ ( )2 [Jz , [Jz , Jx ]]+...+ ( ) [Jz , [Jz , ...[Jz , Jx ]...]]+... =
~ 2! ~ n! ~
1 1
= Jx (1 − φ2 + ...) − Jy (φ − φ3 + ...) = Jx cos(φ) − Jy sin(φ).
¯ 2! 3!
Per una qualunque rotazione R avremo che
X
D−1 (R)Ja D(R) = Rab Jb (5.18)
b

dove la matrice Rab è quella che produce le rotazioni dei vettori in 3D. La pro-
prietà (5.18) identifica l’operatore J = (Jx , Jy , Jz ) come un operatore vettoriale.
Ritorniamo alle rotazioni spaziali sugli spinori a due componenti (S=1/2) e
costruiamo, nella base degli autostati di Sz , gli autostati di Sn̂ , con il versore
n̂ che forma un angolo β con l’asse z e la cui proiezione sul piano xy forma un
angolo α con l’asse delle x. Possiamo notare che n̂ si può ottenere a partire da ẑ
effettuando prima una rotazione di un un angolo β attorno ad y, poi ruotando
di α attorno al nuovo asse z. Per ottenere lo stato a spin ↑ dell’operatore S n̂
posso partire dall’autostato a spin ↑ di Sz applicando le due rotazioni. Voglio
trovare | χ > tale che
1
Sn̂ | χ↑ >= S · n̂ | χ↑ >= ~ | χ↑ >
2
 
1
a partire da | χ+ >= con le rotazioni.
0

| χ↑ >= Dz (α)Dy (β) | χ+ >


 
α α β β 1
| χ↑ >= (I cos( ) − iσ 3 sin( ))(I cos( ) − iσ 2 sin( ))
2 2 2 2 0
 
cos( α2 ) − i sin( α2 ) 0
| χ↑ >=
0 cos( α2 ) + i sin( α2 )
     
cos( β2 ) − sin( β2 ) 1 exp(−i α2 ) 0 cos( β2 )
× =
sin( β2 ) cos( β2 ) 0 0 exp(+i α2 ) sin( β2 )
da cui  
exp(−i α2 ) cos( β2 )
| χ↑ >= .
exp(+i α2 ) sin( β2 )

136
 
0
Analogamente partendo da | χ− >= avrei ottenuto
1
 
− exp(−i α2 ) sin( β2 )
| χ↓ >= .
exp(+i α2 ) cos( β2 )

Possiamo ancora osservare, per completezza, che i due autostati si potevano


direttamente ottenere dalla equazione agli autovalori
1
S · n̂ | χ >= ± ~ | χ >
2
ovvero da
σ · n̂ | χ >= ± | χ >
    
n3 n1 − in2 χ1 χ1
=± ,
n1 + in2 −n3 χ2 χ2
ponendo n1 = sin(β) cos(α), n2 = sin(β) sin(α), n3 = cos(β) e risolvendo.

137
Figura 5.1: Rotazioni ed angoli di eulero.

5.5 Angoli di Eulero e operatori di rotazione.


Una qualunque rotazione può essere descritta come prodotto di tre rotazioni
intermedie ed essere cosı̀ caratterizata dai 3 angoli di Eulero. Le tre rotazioni,
come indicato in Figura 5.1, possono avvenire nell’ordine: a) attorno all’asse
z, b) attorno al nuovo asse y 0 , c) attorno al nuovo asse z 0 . Il sistema di assi
x0 y 0 z 0 solidale con il corpo rigido coincide all’inizio con il sistema fisso xyz.
La prima rotazione avviene attorno all’asse z 0 = z ed è pari ad α, la seconda
avviene attorno all’asse y 0 , in cui è stata ruotata la retta orientata inizialmente
coincidente con l’asse y, ed è pari a β; l’ultima rotazione è attorno all’asse z 0 ed
è pari a γ. Si può scrivere:

R(α, β, γ) = Rz0 (γ)Ry0 (β)Rz (α) (5.19)

Le rotazioni per noi debbono essere riferite ad assi fissi del sistema di rifer-
imento che utilizziamo nel sistema di coordinate. Notiamo che la rotazione
attorno all’asse y 0 (ruotato di α attorno ad y, con una rotazione attorno a z)
può essere scritta come

Ry0 (β) = Rz (α)Ry (β)Rz−1 (α)

138
e che allo stesso modo

Rz0 (γ) = Ry0 (β)Rz (γ)Ry−1


0 (β).

Ne segue, tenendo conto che rotazioni attorno ad uno stesso asse commutano,
che

R(α, β, γ) = Ry0 (β)Rz (γ)Ry−1


0 (β)Ry 0 (β)Rz (α) = Ry 0 (β)Rz (γ)Rz (α) =

= Rz (α)Ry (β)Rz−1 (α)Rz (α)Rz (γ) = Rz (α)Ry (β)Rz (γ)


R(α, β, γ) = Rz (α)Ry (β)Rz (γ) (5.20)
In quest’ultima espressione le tre rotazioni sono riferite agli assi fissi e compaiono
nell’ordine inverso nel prodotto. I corrispondente operatore di rotazione sugli
stati quantici sarà
D(α, β, γ) = Dz (α)Dy (β)Dz (γ). (5.21)

139
5.6 Costruzione delle rappresentazioni del grup-
po delle rotazioni.
Una qualunque rotazione nello spazio 3D può essere rappresentata dalla trasfor-
mazione che essa genera su gli stati di base per lo spazio vettoriale che descrive
gli stati di un sistema quantistico. Assumiamo che {| ai >} sia un insieme
completo di stati. La matrice

< aj | D(α, β, γ) | ai >

costituisce una rappresentazione delle rotazioni nella base di questi stati. Cercher-
emo ora le rappresentazioni irriducibili del gruppo delle rotazioni spaziali, ovvero
le rappresentazioni ottenute dagli autostati di J2 e Jz , ricavati dai generatori
del gruppo continuo delle rotazioni.
Poniamo per comodità ~ = 1. Ja diviene adimensionale, ma è facile ritornare
al sistema di grandezze fisiche noto. Usiamo gli indici 123 invece di xyz.

[J1 , J2 ] = iJ3 [J2 , J3 ] = iJ1 [J3 , J1 ] = iJ2 (5.22)

J± = J1 ± iJ2 (5.23)
[J3 , J± ] = ±J± [J+ , J− ] = 2J3 (5.24)
Attenzione: in letteratura si trovano diverse versioni delle (5.23) e (5.24) a causa
di fattori di moltiplicazione
√ che compaiono nella definizione di J± . Questi fattori
possono essere 1/ 2 oppure 1/2. Qui prendiamo fattori uguali ad 1.
Consideriamo lo spettro di autovalori e gli autostati dell’operatore hermi-
tiano J3 .
J3 | m >= m | m > (5.25)
dove al momento m è un qualunque numero reale. J+ e J− sono gli operatori
che percorrono lo spazio degli autovettori di J3 . Infatti J± | m > è ancora una
autostato di J3 . Dalle (5.24)

J3 J± | m >= (J± J3 ± J± ) | m >= (m ± 1)J± | m >

risulta che è un autostato con autovalore (m±1). Otteniamo cosı̀ degli autostati
di J3 con autovalori che differiscono per numeri interi (in unità di ~). Per un
sottospazio che ha un numero finito di autovalori di J3 , chiamiamo j il maggiore
degli autovettori e | j, α > un suo autovettore. L’indice α è un ulteriore indice
nel caso che vi sia più di un autovettore. Scegliamo gli autovettori in modo che

< j, β | j, α >= δ αβ

Poichè j è l’autovalore massimo

J+ | j, α >= 0 J+ | j, β >= 0

mentre

J− | j, α >= Nj (α) | j − 1, α > J− | j, β >= Nj (β) | j − 1, β >

140
dove Nj (α) e Nj (β) sono opportune costanti moltiplicative. Consideriamo il
prodotto scalare
Nj∗ (β) Nj (α) < j − 1, β | j − 1, α >=
< j, β | J+ J− | j, α >=< j, β | J+ J− − J− J+ | j, α >=
< j, β | 2J3 | j, α >= 2jδ αβ
gli stati | j − 1, α > e | j − 1, β > sono otogonali se lo sono | j, α > e | j, β >,
mentre le costanti Nj (α) e Nj (β) possono essere scelte reali ed uguali a Nj =

2j.
Calcoliamo ora J+ | j − 1, α >

1 1 2j
J+ | j−1, α >= J+ J− | j, α > = [J+ , J− ] | j, α > = 2J3 | j, α >= √ | j, α > .
Nj Nj 2j

Quindi si ha

J+ | j − 1, α >= Nj | j, α > e J− | j, α >= Nj | j − 1, α > (5.26)



da dove è chiaro che J+ e J− non agiscono sull’indice α, ed Nj = 2j è lo stesso
nelle due relazioni, dal momento che (J+ )† = J− .
Le due relazioni (5.26) sono generalizzabili:

J+ | j−k−1, α >= Nj−k | j−k, α > e J− | j−k, α >= Nj−k | j−k−1, α >

dove Nj−k è reale. Si ha


2
Nj−k =< j − k, α | J+ J− | j − k, α >=< j − k, α | [J+ , J− ] | j − k, α > +
2 2
+ < j−k, α | J− J+ | j−k, α >=< j−k, α | 2J3 | j−k, α > +Nj−k+1 = 2(j−k)+Nj−k+1
Scrivendo la relazione ottenuta per diversi alori di k

Nj2 = 2j
2
Nj−1 = Nj2 + 2(j − 1)
2 2
Nj−2 = Nj−1 + 2(j − 2)
...
2 2
Nj−k = Nj−k+1 + 2(j − k)
e sommando membro a membro si ha
2
Nj−k = 2(j + (j − 1) + (j − 2) + ... + (j − k)) = (2j − k)(k + 1)

da cui p
Nj−k = (2j − k)(k + 1)

141
dove j è l’autovalore masimo e k è un intero positivo. Affinchè la sequenza sia
finita occorre che 2j sia intero. In tal caso per k = 2j si ha N−j = 0, ovvero

J− | −j, α >= 0

Se j è l’autovalore massimo −j è l’autovalore minimo e vi sono 2j +1 autovalori.


Posto j − k = m, si ha che

−j ≤ m ≤ j con j intero o semintero


p
Nj−k = (j + m)(j − m + 1)
Ora è possibile costruire le rappresentazioni dei tre generatori delle rotazioni.
Notiamo che gli elementi con α e β diversi sono nulli.

< m, α | Ji | m0 , β >= δ αβ < m | Ji | m0 >

J3 è diagonale. J+ e J− hanno non nulli rispettivamente i 2j elementi im-


mediatamente sopra o sotto la diagonale principale. Trascurando gli indici α
otteniamo rappresentazioni matriciali di dimensione (2j+1) dove j è l’autovalore
massimo.
Ripartiamo dalle relazioni (5.26)

J+ | j−k−1, α >= Nj−k | j−k, α > e J− | j−k, α >= Nj−k | j−k−1, α >

e applichiamo l’operatore J2 = J32 + 21 (J+ J− + J− J+ ) allo stato | j − k, α >


1 2 1 2
J2 | j−k, α >= (j−k)2 | j−k, α > + Nj−k | j−k, α > + Nj−k+1 | j−k, α >=
2 2
 
1 1
= (j − k)2 + (2j − k)(k + 1) + (2j − k + 1)k | j − k, α >=
2 2
= (j + 1)j | j − k, α > .
Le funzioni di base per questa rappresentazione sono autostati di J2 con auto-
valore comune j(j + 1).Trascurando gli indici α indichiamo le funzioni di base
della rappresentazione con | jm > . La rappresentazione si ottiene costruendo
gli elenti di matrice degli operatori di rotazione nella base dei (2j + 1) vettori
dove −j ≤ m ≤ j. Si partealle relazioni (5.26)
p
J− | jm >= (j + m)(j − m + 1) | j, m − 1 >
p
J+ | j, m0 − 1 >= (j + m0 )(j − m0 + 1) | j, m0 >
da cui, sostituendo m0 − 1 con m,
p
J+ | jm >= (j + m + 1)(j − m) | j, m + 1 >

Possiamo unificare le due relazioni in


p
J± | jm >= (j ∓ m)(j ± m + 1) | j, m ± 1 > (5.27)

142
ovvero p
J± | jm >= j(j + 1) − m(m ± 1) | j, m ± 1 > .
Queste relazioni vanno usate insieme con la (5.25)
J3 | jm >= m | jm >
E’ possibile scrivere le matrici dei generatori nella base | jm > . Ciascun
valore di j (numero quantico intero o semintero che identifica il momento an-
golare) individua un insieme di stati di base ortogonali e le matrici associate
alla rappresentazione j.Con le matrici a fissato j, di (2j + 1) righe e (2j + 1)
colonne, si costrutuisce la rappresentazione irriducibile del gruppo delle ro-
tazioni con etichetta j. Al numero quantico j corrisponde un insieme di stati
con degenerazione (o dimensione) [j] = 2j + 1.
Abbiamo già visto che per N = 2, ovvero j = 1/2
     
1 1 0 1 0 1 1 0 −i
J3 = J1 = J2 = .
2 0 −1 2 1 0 2 i 0
per N = 3, ovvero j = 1
   √   
1 0 0 0 2 √0 √0 0 0
J3 =  0 0 0  J+ = 0 0 2  J− =  2 √0 0 
0 0 −1 0 0 0 0 2 0
   
0 1 0 0 −i 0
1  1 
J1 = √ 1 0 1  J2 = √ i 0 −i  .
2 0 1 0 2 0 i 0
per N = 4, ovvero qj = 3/2, √ 3 3
3 1
J+ | 2 , 2 >= 15 3 3 3
4 − 4 | 2 , 2 >= 3 | 2 , 2 >,
q
3 1 15 1 3 1 3 1
J+ | 2 , − 2 >= 4 + 4 | 2 , 2 >= 2 | 2 , 2 >, ...

   √   
3 0 0 0 0 3 00 √0 0 0 0
1 0 1 0 0   0 0 2   0 
J3 =   J+ =  √0  J− = 
3 0 0 
2  0 0 −1 0   0 0 0 3   0 2 0
√ 0 
0 0 0 3 0 0 00 0 0 3 0
 √   √ 
√0 3 0 0 √0 − 3i 0 0
1 3 0 2 0  1 3i 0 −2i 0 
J1 =  √  J2 =  √ .
2 0 2 √0 3  2 0 2i √0 − 3i 
0 0 3 0 0 0 3i 0
e cosı̀ via.

Possiamo ora ottenere la matrice di rotazione qualunque, caratterizzata dai


tre angoli di Eulero (α, β, γ), per un dato j, reinserendo ~
(j) i i i
Dm0 ,m (α, β, γ) =< jm0 | exp(− αJz ) exp(− βJy ) exp(− γJz ) | jm >=
~ ~ ~

143
(j)
= exp(−im0 α − imγ)dm0 ,m (β)
dove
(j) i
dm0 ,m (β) =< jm0 | exp(− βJy ) | jm > .
~
Per j = 1/2  
(1) cos(β/2) − sin(β/2)
dm20 ,m (β) =
sin(β/2) cos(β/2)
Per j = 1
 √   
0 − 2i 0 2 1 0 −1
~ √ √ ~
Jy = 2i √0 − 2i  , Jy2 =  0 2 0 , Jy3 = ~2 Jy
2 2
0 2i 0 −1 0 1
 2  
i Jy Jy
exp(− βJy ) = I + (cos(β) − 1) − i sin(β)
~ ~ ~
Segue quindi che
 1

2 (1 + cos β) − √12 sin β 1
2 (1 − cos β)
(1)  √1 sin β cos β − √12 sin β 
dm0 ,m (β) =  2 .
1 √1 sin β 1
2 (1 − cos β) 2 2 (1 + cos β)

Nello stesso modo si procede per le rappresentazioni irriducibili a j più elevato.


Per j = 3/2 si ha
(3)
dm20 ,m (β) =
   √     √       
cos3 β2 − 3 cos2 β2 sin β2 3 cos β2 sin2 β2 − sin3 β2
 √         √     
 β β 
 3 cos2 2 sin 2 cos β2 A sin β2 B 3 cos β2 sin2 β2 
 √         √     
 
 3 cos β2 sin2 β2 − sin β2 B cos β2 A − 3 cos2 β2 sin β2 
   √     √       
sin3 β2 3 cos β2 sin2 β2 3 cos2 β2 sin β2 cos3 β2
   
dove A = (3 cos2 β2 − 2) e B = (3 sin2 β2 − 2).

(j)
E’ possibile scrivere una formula generale per le matrici dm,n (β)

X [(j + m)!(j − m)!(j + n)!(j − n)!] 2


1

d(j)
m,n (β) = (−1)t (5.28)
t
(j + m − t)!(j − n − t)!(t + n − m)!

×(cos(β/2))2j+m−n−2t (sin(β/2))2t+n−m
dove la somma sugli interi t è estesa a tutti valori che contengono fattoriali di
interi non negativi.

144
5.7 SU (2) e SO(3).

Le matrici R che, agendo su un vettore in tre dimensioni, operano una rotazione


attiva del vettore, introdotte nella prima lezione, sono matrici ortogonali reali a
determinante uguale a +1. Le matrici complesse appartenenti alla rappresen-
tazione irriducibile D (1) ricavate nella lezione A5 sono anch’esse matrici 3 × 3,
complesse, legate alle R da una trasformazione di similitudine.
Le due rappresentazioni sono equivalenti e hanno una importante caratteris-
tica: la rotazione di 2π attorno ad un qualunque asse n, coincide con la matrice
identità.
R(2π) = 1
La rappresentazione D (1/2) presentata sopra è ottenuta con matrici unitarie,
complesse, unimodulari della forma
 
a b
U=
−b∗ a∗
2 2
dove la unimodularità consiste in det(U ) = |a| + |b| = 1. Poichè U † = U −1
 ∗    
a −b a b 1 0
U †U = = .
b∗ a −b∗ a∗ 0 1

Dalla (5.14) una qualunque rotazione di un angolo φ attorno all’asse n si rapp-


resenta in questa rappresentazione ponendo

Re(a) = cos(φ/2) Im(a) = −nz sin(φ/2)

Re(b) = −ny sin(φ/2) Im(b) = −nx sin(φ/2).


E’ evidente che
D(1/2) (2π) = −1 D(1/2) (4π) = 1 (5.29)
In questa come in tutte le rappresentazioni a j semintero si ha una rappre-
sentazione a due valori del gruppo delle rotazioni. Data una una rotazione di
un angolo φ attorno ad un asse n, vi sono due matrici che rappresentano la
rotazione φ ± 2πk, secondo che k è un intero pari o dispari. Le due matrici
differiscono per un fattore (−1) che nel caso di matrici a dimensione pari non
altera il segno del determinante, ovvero l’unimodularità.
Il gruppo delle matrici reali 3 × 3, ortogonali, a determinante +1, ovvero il
gruppo SO(3) e il gruppo delle matrici 2×2 complesse, unitarie e a determinante
+1, ovvero il gruppo SU(2), hanno la stessa struttura locale, ma non sono glob-
almente identici. A ciascun elemento di SU(2) corrisponde un solo elemento di
SO(3), c’è quindi isomorfismo. A ciascun elemento di SO(3) corrispondono due
elementi di SU(2) che differiscono per un fattore (−1). Posso allora osservare
che gli elementi indicati nella 5.29 costituiscono un sottogruppo invariante N
di SU(2) e mediante questo posso realizzare un gruppo quoziente SU(2)/N ora
isomorfo a SO(3).

145
Posso osservare che SO(3) è un gruppo che non è semplicemente connesso,
mentre SU(2) lo è. Si dice allora che SU(2) è l’ universal covering group di SO(3).
Per notare che SO(3) non è semplicemente connesso posso rappresentare i suoi
elementi come punti di una sfera di raggio π nello spazio reale tridimensionale.
La direzione del vettore indica la direzione dell’asse di rotazione e il suo modulo
la rotazione positiva compresa tra φ = 0 e φ = π. Le rotazioni con −π < φ < 0
sono descritte dal segmento di punti che si trova sullo stesso asse, ma con il
segno opposto, cioè dall’altra parte rispetto all’origine. In questo modo ho
una corrispondenza biunivoca tra le rotazioni e i punti della sfera, ricordando
che la superficie della sfera va considerata solo per metà come appartenente
all’insieme. Dei due punti agli antipodi sulla superficie devo prenderne solo uno
in quanto in SO(3) le rotazioni attorno a uno stesso asse di ±π coincidono.
Percorrendo con continuità i punti dell’insieme al variare dei parametri che
descrivono la rotazione posso incontrare la superficie. In tal caso rientro nella
sfera agli antipodi e un percorso chiuso non può sempre essere trasformato con
continuità in un solo punto. Si può invece mostrare che SU(2) è semplicemente
connesso.

5.8 Il Momento Angolare Orbitale e le Armoniche


Sferiche.
Una realizzazione dell’algebra astratta del momento angolare è data dalla rap-
presentazione r degli stati per una particella scalare. La funzione d’onda di
Schroedinger di una particella nello stato | ψ > è data da
ψ(r) =< r | ψ >
e il momento angolare orbitale vale
L = −ir × ∇
Il set di autofunzioni per la ψ(r) sarà
ψ γlm (r) = Rγ (r)Ylm (θ, ϕ)
dove r =r(sin θ cos ϕ, sin θ sin ϕ, cos θ), Ylm (θ, ϕ) sono le armoniche sferiche e γ
è l’insieme degli altri numeri quantici, autovalori di un set completo di operatori
hermitiani che commutano con L2 ed Lz .

Data una terna di assi xyz, introduciamo anche un sistema di coordinate


polari; nel punto r consideriamo una nuova terna di assi x0 y 0 z 0 i cui versori
coincidono con i versori delle linee coordinate e0x = eθ , e0y = eϕ , e0z = eρ . Si ha
dr0 = (rdθ, r sin θdϕ, dr)
 
1 ∂ 1 ∂ ∂
∇0 = , ,
r ∂θ r sin θ ∂ϕ ∂r

146
r0 = (0, 0, r)
 
0 0 0 i ∂ ∂
L = −ir × ∇ = , −i , 0
sin θ ∂ϕ ∂θ
Per esprimere il vettore L rispetto alla terna xyz si può fare una trasformazione
di coordinate costituita da una rotazione passiva di un angolo −θ attorno all’asse
00
e0y seguita da un’altra rotazione passiva attorno al nuovo asse ez di un angolo
−ϕ. Va ricordato che le rotazioni passive equivalgono a una rotazione attiva
dell’angolo opposto. Posso cosı̀ scrivere la matrice di trasformazione M come:
  
cos ϕ − sin ϕ 0 cos θ 0 sin θ
M =  sin ϕ cos ϕ 0   0 1 0 =
0 0 1 − sin θ 0 cos θ
 
cos θ cos ϕ − sin ϕ sin θ cos ϕ
=  cos θ sin ϕ cos ϕ sin θ sin ϕ 
− sin θ 0 cos θ
Da L =M L0 ricavo che
∂ ∂
Lx = i(cot θ cos ϕ + sin ϕ )
∂ϕ ∂θ
∂ ∂
Ly = i(cot θ sin ϕ − cos ϕ )
∂ϕ ∂θ

Lz = −i (5.30)
∂ϕ
Segue che
∂ ∂
L± = exp(±iϕ)(cot θ ± ) (5.31)
∂ϕ ∂θ
 
1 ∂2 1 ∂ ∂
L2 = − + sin θ (5.32)
sin2 θ ∂ 2 ϕ sin θ ∂θ ∂θ
Da queste tre relazioni è possibile ricavare le Ylm (θ, ϕ) conoscendo anche le
equazioni
L2 Ylm (θ, ϕ) = l(l + 1)Ylm (θ, ϕ)
Lz Ylm (θ, ϕ) = mYlm (θ, ϕ)
p
L± Ylm (θ, ϕ) = l(l + 1) − m(m ∓ 1)Yl,m±1 (θ, ϕ)
con la condizione di di ortogonalità e normalizzazione
Z

(Yl0 m0 (θ, ϕ)) Ylm (θ, ϕ) sin θdθdϕ = δ l0 l δ m0 m (5.33)

147
In questo modo si ha
s
(l − m)! (2l + 1) imϕ m
Ylm (θ, ϕ) = e Pl (cos θ)
(l + m)! 4π

dove Pl m (cos θ) sono i polinomi associati di Legendre

(−1)l+m d m+l
Pl m (cos θ) = l
sinm θ m+l sin2l θ =
2 l! d cos θ
dm
= (−1)m sinm θ m
Pl (cos θ).
d cos θ
La scelta della fase è fatta in modo da avere la seguente proprietà

Yl,−m (θ, ϕ) = (−1)m (Ylm (θ, ϕ))∗ (5.34)

E’ inoltre conveniente in alcuni problemi usare le armoniche sferiche modificate


r

Clm (θ, ϕ) = Ylm (θ, ϕ) (5.35)
2l + 1
Si ha
Cl0 (θ, ϕ) = Pl (cos θ) Clm (0, ϕ) = δ m0 .

148
5.9 Le rappresentazioni unitarie irriducibili del
gruppo delle rotazioni.

(j)
Abbiamo visto come costruire le matrici Dm0 ,m (α, β, γ).
Ogni rotazione può essere descritta dalle rotazioni più semplici seguenti: 1)
rotazione di un angolo α attorno all’asse e3 , 2) seguita da una rotazione di un
angolo β attorno al nuovo asse e02 , 3) seguita ancora da una rotazione di un
angolo γ attorno al nuovo asse e003 . Analogamente a quanto evidenziato nella
sezione 5.5 si avrà

R(α, β, γ) = R(γe003 )R(βe02 )R(αe3 ) = R(αe3 )R(βe2 )R(γe3 ).

Va ricordato che il prodotto di una sequenza di rotazioni, in cui ciascuna avviene


attorno ad un asse solidale con il sistema ruotato nelle precedenti rotazioni,
è uguale al prodotto delle rotazione degli stessi angoli, in ordine inverso, ma
attorno ad assi fissi. Avremo quindi

R(η 2 n02 )R(η 1 n1 ) = R(η 1 n1 )R(η 2 n2 )

se vogliamo esprimere le rotazioni nel sistema degli assi fissi.

Per ottenere una rotazione degli stati | jm > autostati di J2 e Jz , devo


applicare l’operatore U (α, β, γ); proiettare lo stato ruotato su r̂ significa ottenere
lo stato di partenza calcolato in r̂0 . r̂0 si ottiene da r̂ con una rotazione inversa
a quella considerata: r̂0 = R−1 r̂.

ψ jm (r̂0 ) =< r̂0 | jm >=< r | U (α, β, γ) | jm >=


X X (j)
= < r | jm0 >< jm0 | U (α, β, γ) | jm >= ψ jm0 (r̂)Dm0 m (α, β, γ)
m0 m0

Per j intero (j = l) le funzioni di base sono le armoniche sferiche. Si può


scrivere, riferendosi alle armoniche sferiche modificate Clm (r̂),
X (l)
Clm (r̂0 ) = Dm0 m (α, β, γ)Clm0 (r̂) (5.36)
m0

che si può riscrivere come


X (l)
Clm0 (r̂0 ) = Dmm0 (R1 )Clm (r̂).
m

Analogamente si può scrivere per un’altra rotazione


00 X (l)
Clm00 (r̂ ) = Dm0 m00 (R2 )Clm0 (r̂0 )
m0

Dalle due relazioni si ricava che

149
00 X (l)
XX (l) (l)
Clm00 (r̂ ) = Dm0 m00 (R2 )Clm0 (r̂0 ) = Dm0 m00 (R2 )Dmm0 (R1 )Clm (r̂) =
m0 m0 m
X (l)
= Dmm00 (R)Clm (r̂)
m

dove X
(l) (l) (l)
Dmm00 (R) = Dmm0 (R1 )Dm0 m00 (R2 ) (5.37)
m0

Da quest’ultima relazione è evidente che le matrici ad l dato forniscono una rap-


presentazione (2l + 1)-dimensionale del gruppo delle rotazioni. Nell’effettuare il
prodotto delle due rotazioni in successione va ricordato quanto espresso all’inizio
del paragrafo, per utilizzare l’ordine corretto nel prodotto matriciale (5.37).

Le matrici della rappresentazione sono unitarie.


(j) (j)† (j) −1 (j)
(Dm0 m (α, β, γ))∗ = Dmm0 (α, β, γ) = Dmm0 (α, β, γ) = Dmm0 (−γ, −β, −α)

Inoltre dall’unitarietà
DD † = D† D = I
segue che X (j) (j)
(Dm0 n (R))∗ Dm0 m (R) = δ nm
m0
X (j) (j)
Dnm0 (R)(Dmm0 (R))∗ = δ nm
m0

Si può inoltre porre in evidenza l’ortogonalità tra i vettori ottenuti dagli gli
elementi di matrice omonimi, appartenenti a rappresentazioni irriducibili diverse
(Teorema GOT, Great Orthogonality Theorem). Nel prodotto scalare occorre
sommare i prodotti delle componenti su tutti gli elementi del gruppo. Qui, in un
gruppo continuo, occorre integrare sui parametri che identificano la rotazione
nel gruppo continuo
Z 2π Z 2π Z π
(j) (j 0 )
dα sin βdβ dγ(Dmm0 (α, β, γ))∗ Dnn0 (α, β, γ) =
0 0 0

8π 2
= δ jj 0 δ mn δ m0 n0 (5.38)
2j + 1
Vediamo ora una relazione tra gli elementi di matrice degli operatori di
rotazione D e le armoniche sferiche. Il versore ẑ dell’asse z è trasformato nel
versore n̂ dalla rotazione attiva ottenibile con α = φ e con β = θ. Riferendoci ai
vettori di stato, considerando gli autostati della posizione, sulla sfera di raggio
unitario, possiamo scrivere

| n̂ >= U (α = φ, β = θ, γ = 0) | ẑ >

150
X
= U (α = φ, β = θ, γ = 0) | l0 m0 >< l0 m0 | ẑ >
l 0 m0
X
< lm | n̂ >= < lm | U (α = φ, β = θ, γ = 0) | l 0 m0 >< l0 m0 | ẑ >
l 0 m0

dove è stata utilizzata la relazione di completezza per le funzioni a valore singolo,


definite sulla sfera unitaria, e si è effettuata una proiezione sullo stato | lm >
X
∗ l
Ylm (θ, φ) = Dmm 0 (α = φ, β = θ, γ = 0)Ylm (0, 0) =

m0
r
l 2l + 1
= Dm0 (α = φ, β = θ, γ = 0) Pl (cos θ0 = 1)

Segue che:
r
4π l
∗
Clm (θ, φ) = Ylm (θ, φ) = Dm0 (α = φ, β = θ, γ = 0) .
2l + 1

151
5.10 Composizione di due momenti angolari.
Consideriamo un sistema costituito da due sottosistemi distinti. Gli stati quan-
tici del sistema possono essere pensati come costituiti dal prodotto diretto dei
due spazi vettoriali.
| ai > ⊗ | b j > .
Indicati con 1 e 2 i due spazi posso considerare i generatori delle rotazioni in
entrambi
J(1) , J(2)
J costituisce invece il set di generatori delle rotazioni dell’inetero sistema. Se
1(1) e 1(2) sono gli operatori identità nei due sottospazi

J = J(1) ⊗ 1(2) + 1(1) ⊗ J(2)


2 2 (1) (2)
consideriamo il set di autovettori comuni di J(1) , J(2) , J z , J z
2
J(1) | j1 m1 j2 m2 >= j1 (j1 + 1) | j1 m1 j2 m2 >

J (1)
z | j1 m1 j2 m2 >= m1 | j1 m1 j2 m2 >
2
J(2) | j1 m1 j2 m2 >= j2 (j2 + 1) | j1 m1 j2 m2 >
J (2)
z | j1 m1 j2 m2 >= m2 | j1 m1 j2 m2 >

dove si intende, con notazione diversa da quella più comune, per gli stati nella
rappresentazione non accoppiata,

| j1 m1 j2 m2 >=| j1 m1 > ⊗ | j2 m2 >

In diversi libri di testo si usa per la base nella rappresentazione disaccoppiata


| j1 j2 ; m1 m2 >=| j1 m1 > ⊗ | j2 m2 > .
Tutte le componenti di J(1) commutano con quelle di J(2) . J ha le regole di
commutazione proprie di un momento angolare tra le sue componenti. Inoltre
2 2 (1) (2) (1) (2)
J2 = J(1) + J(2) + 2J (1) (2)
z Jz +J+ J− +J− J+

2 2
[J2 , J(1) ] = 0 [J2 , J(2) ] = 0
Ora osserviamo che
(1) (2) (1) (2) (1) (2) (1) (2)
[J2 , J (1) (1) (1)
z ] = [J + , J z ]J − + [J − , J z ]J + = −J + J − + J − J +

analogamente
(1) (2) (1) (2) (1) (2) (1) (2)
[J2 , J (2) (2) (2)
z ] = J + [J − , J z ] + J − [J + , J z ] = +J + J − − J − J +

da cui
[J2 , J z ] = [J2 , J (1) 2 (2)
z ] + [J , J z ] = 0

152
2 2
I quattro operatori J(1) , J(2) , J2 , J z commutano tra loro ed hanno un set di
autostati comuni che possono essere indicati come

| (j1 j2 )jm >

Avremo che 2
J(1) | (j1 j2 )jm >= j1 (j1 + 1) | (j1 j2 )jm >
2
J(2) | (j1 j2 )jm >= j2 (j2 + 1) | (j1 j2 )jm >
J2 | (j1 j2 )jm >= j(j + 1) | (j1 j2 )jm >
Jz | (j1 j2 )jm >= m | (j1 j2 )jm >
Abbiamo due set di vettori di base corrispondenti a due set massimali di op-
eratori che commutano. Il sottospazio | j1 m1 j2 m2 >=| j1 m1 > ⊗ | j2 m2 >
e il sottospazio dei vettori | (j1 j2 )jm > con j1 e j2 fissati, devono coincidere
e la base dell’uno si ottiene mediante una trasformazione unitaria della base
dell’altro.
XX
| (j1 j2 )jm >= | j1 m1 j2 m2 >< j1 m1 j2 m2 | (j1 j2 )jm > (5.39)
m1 m2

dove
Cjjm
1 m1 ,j2 m2
=< j1 m1 j2 m2 | (j1 j2 )jm > (5.40)
sono i Coefficienti di Clebsch-Gordan. Vediamone le proprietà.

5.11 I coefficienti di Clebsch-Gordan.


Posso scrivere

0 = (Jz − Jz(1) − Jz(2) ) | (j1 j2 )jm >= (m − Jz(1) − Jz(2) ) | (j1 j2 )jm >

dove non conosco l’effetto dei due operatori sullo stato, che non è un loro au-
tostato. Posso però proiettare su | j1 m1 j2 m2 > e far agire gli operatori a
sinistra. Si ha

0 = < j1 m1 j2 m2 | (m − Jz(1) − Jz(2) ) | (j1 j2 )jm >=

=< j1 m1 j2 m2 | (m − m1 − m2 ) | (j1 j2 )jm >=


= (m − m1 − m2 ) < j1 m1 j2 m2 | (j1 j2 )jm >
Sono allora diversi da zero solo i coefficienti di C.-G. con m = m1 + m2 .
Una seconda relazione riguarda i numeri quantici j. I coefficienti non nulli
verificano la relazione triangolare del modello di composizione vettoriale.

| j1 − j2 |≤ j ≤ j1 + j2 (5.41)

La dimostrazione è la seguente. Fissato j1 ≥ j2 (altrimenti scambio l’uno con


l’altro), noto che il valore massimo di m eguaglia la somma dei possibili valori

153
massimi di m1 ed m2 , ovvero mmax = j1 +j2 . Dalla condizione precedente allora
c’è un solo autovettore in entrambe le basi: in una è | (j1 j2 ), j1 + j2 , j1 + j2 >,
nell’altra è | j1 j1 j2 j2 > . La trasformazione unitaria 5.39 è definita a meno di
un fattore di fase che posso scegliere qui, ponendo

| (j1 j2 ), j1 + j2 , j1 + j2 >=| j1 j1 j2 j2 >

ovvero
Cjjj1 j1, j2 j2 = 1 per j = j 1 + j2 (5.42)
Per m = mmax − 1 = j1 + j2 − 1 corrispondono due possibili stati della vecchia
base ( m1 = j1 − 1, m2 = j2 ed anche m1 = j1 , m2 = j2 − 1). Ai due nuovi
stati ottenuti combinandoli, corrisponde uno stesso valore di m = j1 + j2 − 1,
compatibile con du valori valori di j che sono j1 +j2 e j1 +j2 −1. Cosı̀ continuando
si può vedere che al decrescere di m il numero dei vaolri di j compatibili con m
non può crescere indefinitamente dovendo ritornare ad uno per mmin = −j1 − j2
che è compatibile solo con j = j1 + j2 . Pertanto i valori di j, che decrescono di
un unità alla volta a partire da j1 + j2 dovranno essere limitati inferiormente.
La trasformazione 5.39 è unitaria e conserva il numero dei vettori di base. Nella
vecchia base il numero dei vettori | j1 m1 j2 m2 > è (2j1 + 1)(2j2 + 1). Si può
vedere facilemnte che i valori di j accettabili sono limitati inferiormente da
j1 − j2 . Calcoliamo il numero degli stati nella nuova base:
j=j
X 1 +j2  
2(j1 − j2 ) + 1) + 2(j1 + j2 ) + 1)
(2j+1) = (2j2 +1) = (2j1 +1)(2j2 +1).
j=j1 −j2
2

Resta cosı̀ dimostrato che i coeff. di K.-G. sono nulli eccetto che nei casi

m = m1 + m2 e 4(j1 j2 j) = 1 con | m1 |≤ j1 |, m2 |≤ j2 , |, m |≤ j
(5.43)
dove il simbolo 4(abc) = 1 se è soddisfatta la relazione triangolare 5.41, 4(abc) =
0 altrimenti.
La menzionata scelta della fase porta alla possibilità di avere coeff. di K.-G.
reali. La matrice dei coefficienti è reale unitaria quindi è una matrice ortogonale.
Segue allora che
X
< j1 m1 j2 m2 | (j1 j2 )jm >< j1 m01 j2 m02 | (j1 j2 )jm >= δ m1 ,m01 δ m2 ,m02
jm

X
< j1 m1 j2 m2 | (j1 j2 )jm >< j1 m1 j2 m2 | (j1 j2 )j 0 m0 >= δ j,j 0 δ m,m0 .
m1 ,m2

I coefficienti di K.-G. sono legati ai simboli 3j di Wigner dalla relazione


 
p j1 j2 j
< j1 m1 j2 m2 | (j1 j2 )jm >= (−1)j1 −j2 +m 2j + 1 . (5.44)
m1 m2 −m

Racah ha ottenuto una formula esplicita dei simboli 3j

154
  s
a b c a−b−γ (−a + b + c)!(a − b + c)!(a + b − c)!
= (−1)
α β γ (a + b + c + 1)!
p
× (a − α)!(a + α)!(b − β)!(b + β)!(c − γ)!(c + γ)!
X (−1)ρ
×
ρ
ρ!(a + b − c − ρ)!(a − b + c + ρ)!(a − α − ρ)!(−a − β + c + ρ)!(b + β − ρ)!

In questa espressione tutti gli argomenti dei fattoriali devono essere ≥ 0. Valgo-
no di conseguenza le relazioni triangolari tra a, b, c e la condizione α + β + γ =
0.

155
5.12 Relazioni di ricorrenza dei coefficienti di
C.-G.

Dalla relazione (5.27)


p
J± | jm >= (j ∓ m)(j ± m + 1) | jm ± 1 >

che vale sia per | jm > quando ad agire è J± , sia per | j1 m1 > e per | j2 m2 >
(1) (2)
quando ad agire sono rispettivamente J± e J± , si può scrivere
(1) (2)
XX
J± | (j1 j2 )jm >= (J± + J± ) | j1 m01 j2 m02 >< j1 m01 j2 m02 | (j1 j2 )jm >
m01 m02

ovvero p
(j ∓ m)(j ± m − 1) | j, m ± 1 >=
XX q
( (j1 ∓ m01 )(j1 ± m01 + 1) | j1 m1 ± 1, j2 m02 > +
m01 m02
q
+ (j2 ∓ m02 )(j2 ± m02 + 1) | j1 m1 , j2 m02 ± 1 > ) < j1 m01 j2 m02 | (j1 j2 )jm >
Moltiplicando a sinistra per < j1 m1 j2 m2 | con m1 ed m2 fissati, i soli termini
che rimangono nella somma sono quello con m1 = m01 ± 1 ed m2 = m02 nel
primo termine e quello con m1 = m01 ed m2 = m02 ± 1 nel secondo termine. Si
ottiene cosı̀:
p
(j ∓ m)(j ± m + 1) < j1 m1 , j2 m2 | j, m ± 1 >=
p
= (j1 ∓ m1 + 1)(j1 ± m1 ) < j1 m1 ∓ 1, j2 m2 | (j1 j2 )jm > + (5.45)
p
+ (j2 ∓ m2 + 1)(j2 ± m2 ) < j1 m1 , j2 m2 ∓ 1 | (j1 j2 )jm >
Queste sono le due relazioni di ricorrenza cercata. Differiscono per i segni in
alto o in basso nell’espressione.

Per applicarle facciamo riferimento al piano punteggiato (m1 , m2 ). La prima


relazione (derivata da J+ , quella con i segni in alto) esprime il termine con-
tenente (m1 , m2 ) in funzione dei termini (m1 − 1, m2 ) e con (m1 , m2 − 1).
La seconda relazione (derivata da J− ) esprime il termine contenente (m1 , m2 )
in funzione dei termini (m1 + 1, m2 ) e con (m1 , m2 + 1). Le relazioni sono
schematizzate nella Figura 5.2, con i due triangoli indicati con J+ e J− .

Nel piano (m1 , m2 ) si possono indicare tutti i punti che identificano gli stati
di base con j1 , j2 , j fissati. Si ricorda che che i coefficienti non nulli sono quelli
con m3 = m1 + m2 e | j1 − j2 |< j < j1 + j2 . I punti rappresentativi dei
coefficienti di C.-G. a j fissato, che compaiono nelle le relazioni (5.45) , si

156
m2

(m1,m2+1)

J-
(m1-1,m2)
(m1,m2) (m1+1,m2)
J+

(m1,m2-1)

m1

Figura 5.2: I vertici dei due triangoli visualizzano i coefficienti di C.-G. che
compaiono nelle due relazioni espresse dalla (5.45).

157
m2

m1+m2=j

D A
E B
C m1

m1+m2=-j

Figura 5.3: Nel piano (m1 , m2 ) sono indicati con i punti gli stati che contribuis-
cono alla composizione dei momenti angolari. Sono fissati j1 e j2 e poi j, con
| j1 − j2 | ≤ j ≤ j1 + j2 . per diversi valori di j si ottengono diversi poligoni.

trovano entro la figura piana con i lati m1 = j1 , m1 = −j1 , m2 = j2 , m2 =


−j2 , m1 + m2 = j, m1 + m2 = −j. Posso utilizzare le relazioni (5.45) per tutti
i punti che stanno entro la striscia m1 + m2 ≤ j ≤ m1 + m2 , anche quando
m1 ed m2 separatamente escono dai loro intervalli: in tal caso i coefficienti di
C.-G. sono nulli. Come indicato nella Figura 5.3 il termine corrispondente al
vertice A compare una formula J(−) in cui compare il termine corrispondente
al punto B sul bordo e quello di un punto esterno, che è un coefficiente nullo.
Si può scrivere B in funzione di A, C in funzione di B, e cosı̀ via per tutto il
lato AH. Il coeff. rappresentato da D alla sinistra di A, si ottiene da A e B,
mediante la formula J(+) e cosı̀ via per tutti i punti della figura, che rimangono
cosı̀ definiti a meno di un fattore, che è funzione di j. Questi fattori posono
essere determinati usando le relazioni di ortonormalità e fissando la convenzione
di fase ricordata nella lezione precedente.

Nelle tabelle successive si riportano. per esemplificare le coppie di valori


(m1 , m2 ) che compaiono nelllo sviluppo del termine | jm >

158
m 3 2 1 0 -1 -2 -3
(m1 , m2 ) (2,1) (1,1) (0,1) (-1,1) (-2,1) (-2,0) (-2,1)
(2,0) (1,0) (0,0) (-1,0) (-1,-1)
(2,-1) (1,-1) (0,-1)

# stati 1 2 3 3 3 2 1

Tavola 12.1 - Coppie di valori (m1 , m2 ) che compaiono nella composizione dei
momenti angolari j1 = 2 e j2 = 1. I valori di j possono essere 3, 2, 1. Nello
spazio prodotto diretto, il totale degli stati | j1 m1 > ⊗ | j2 m2 >, sono 15, come
la somma degli stati che corrispondono ai momenti angolari j = 3, j = 2, j = 1,
ovvero (2 × 3 + 1) + (2 × 2 + 1) + (2 × 1 + 1).

m 5/2 3/2 1/2 -1/2 -3/2 -5/2


(m1 , m2 ) (2,1/2) (1,1/2) (0,1/2) (-1,1/2) (-2,1/2) (-2,-1/2)
(2,-1/2) (1,-1/2) (0,-1/2) (-1,-1/2)

# stati 1 2 2 2 2 1

Tavola 12.2 - Altro esempio. Composizione dei momenti angolari j1 = 2 e


j2 = 1/2. I valori di j possono essere 5/2, 3/2. Nello spazio prodotto diretto,
il numero totale degli stati | j1 m1 > ⊗ | j2 m2 >, è 10, come la somma
degli stati che corrispondono ai momenti angolari j = 5/2, j = 3/2, ovvero
(2 × 5/2 + 1) + (2 × 3/2 + 1).

159
ms

J- J-

ml

m +m = m
l s j

Figura 5.4: Composizione di l (intero) ed s = 21 . Per j = l + 1


2 è indicato come
utilizzare le relazioni di ricorrenza tra i coefficienti di C.-G.

5.13 Funzioni spin-orbitali.


Nella combinazione del momento angolare orbitale e del momento angolare di
spin di un elettrone possiamo rapresentare nel piano (m1 , m2 ) ≡ (ml , ms ) gli
stati come due sequenze di 2l + 1 punti ciascuna delle quali ha ordinata +1/2 e
−1/2. (Si veda Figura5.4).

Per j = l + 1/2 per qualunque valore di m − 1/2 < l, si ha dalla relazione


(5.45) tramite J−
p
(l + 1/2 + m)(l + 1/2 − m + 1) < l (m − 3/2), 1/2 1/2 | l + 1/2, m − 1 >=
p
(l + m − 1/2)(l − m + 3/2) < l (m − 1/2), 1/2 1/2 | l + 1/2, m >
essendo nullo uno dei due termini a destra dell’uguale. Ponendo m − 1 → m
p
(l + m + 3/2)(l + 1/2 − m) < l (m − 1/2), 1/2 1/2 | l + 1/2, m >=
p
(l + m + 1/2)(l − m + 1/2) < l (m + 1/2), 1/2 1/2 | l + 1/2, m + 1 >
da cui
< l (m − 1/2), 1/2 1/2 | l + 1/2, m >=
s
l + m + 1/2
= < l (m + 1/2), 1/2 1/2 | l + 1/2, m + 1 > .
l + m + 3/2

160
Questa relazione si può riscrivere per m → m + 1, m → m + 2, ..., m → m + k,
se m + k ≤ l + 1/2. Si ha

< l (m − 1/2), 1/2 1/2 | l + 1/2, m >=


s
2k−1
(l + m + 1/2)(l + m + 3/2)...(l + m + 2 )
= < l (m+k−1/2), 1/2 1/2 | l+1/2, m+k >=
2k+1
(l + m + 3/2)(l + m + 5/2)...(l + m + 2 )
s
(l + m + 1/2)
= < l (m + k − 1/2), 1/2 1/2 | l + 1/2, m + k >
(l + m + k + 1/2)
Per m + k = l + 1/2 si ha l + m + k + 1/2 = 2l + 1 e si ottiene in generale

< l (m − 1/2), 1/2 1/2 | l + 1/2, m >=


s
(l + m + 1/2)
= < l l, 1/2 1/2 | l + 1/2, l + 1/2 >
(2l + 1)
ovvero, ricordando che < l l, 1/2 1/2 | l + 1/2, l + 1/2 >= 1,
s
(l + m + 1/2)
< l (m − 1/2), 1/2 1/2 | l + 1/2, m >= (5.46)
(2l + 1)

Ora si può osservare che nella trasformazione di C.-G. si passa dalla coppia
stati

| l m − 1/2 >| 1/2 1/2 >


| l m + 1/2 >| 1/2 − 1/2 >

alla coppia

| j = l + 1/2 , m >
| j = l − 1/2 , m >

La matrice di trasformazione tra le due basi è una matrice 2x2 reale e ortogonale
di cui abbiamo appena calcolato l’elemento di matrice a11 , espresso dalla (5.46).
Essa è del tipo  
cos α sin α
− sin α cos α
E’ facile allora calcolare gli altri elementi.
s
(l − m + 1/2)
< l (m + 1/2), 1/2 − 1/2 | l + 1/2, m >= (5.47)
(2l + 1)
s
(l − m + 1/2)
< l (m − 1/2), 1/2 1/2 | l − 1/2, m >= − (5.48)
(2l + 1)

161
s
(l + m + 1/2)
< l (m + 1/2), 1/2 − 1/2 | l − 1/2, m >= (5.49)
(2l + 1)
Utilizzando esplicitamente le armoniche sferiche come autostati di l, m posso
costruire la nuova base costituyita dalle funzioni spin-orbitali Ωjlm (θ, φ)
s
(l ± m + 1/2)
Ω(l±1/2)lm (θ, φ) = ± Yl(m−1/2) (θ, φ)χ+ +
(2l + 1)
s
(l ∓ m + 1/2)
+ Yl(m+1/2) (θ, φ)χ−
(2l + 1)
dove    
1 0
χ+ = χ− =
0 1
ovvero
 p 
1 ±p l ± m + 1/2Yl(m−1/2) (θ, φ)
Ω(l±1/2)lm (θ, φ) = √ . (5.50)
2l + 1 l ∓ m + 1/2Yl(m+1/2) (θ, φ)

162
5.14 Operatori Vettoriali.

Un vettore reale, definito dalle sue componenti cartesiane, si trasforma per


rotazione come 0 X
Vi = Rij Vj (5.51)
j

In meccanica quantistica si definisce operatore vettoriale un operatore a tre


componenti il cui valor medio si trasforma allo stesso modo; sapendo che

| α > → D(R) | α >

si ha
X
< α | Vi | α > →< α | D† (R)Vi D(R) | α > = Rij < α | Vj | α >
j

Se questo è richiesto per qualunque | α > si avrà


X
D† (R)Vi D(R) = Rij Vj
j

che nel caso di una trasformazione infinitesima è


 X
Vi + [Vi , J · n̂] = Rij (n̂, )Vj
i~ j

che può essere specializzata per una rotazione attorno a ẑ



Vx + [Vx , Jz ] = Vx − Vy
i~

Vy + [Vy , Jz ] = Vx + Vy
i~

Vz + [Vz , Jz ] = Vz
i~
ovvero
[Vx , Jz ] = −i~Vy [Vy , Jz ] = i~Vx [Vz , Jz ] = 0
In generale si ha
[Vi , Jj ] = i~eijk Vk (5.52)
che può essere assunta come definizione di operatore vettoriale. Da questa
definizione è evidente che J è un operatore vettoriale e sono operatori vettoriali
r = (x, y, z) e p = (px , py , pz ) poichè soddisfano la (5.52) con Ji = Li .

163
5.15 Tensori Cartesiani e Tensori Sferici.

Un tensore Tijk... di rango qualunque si trasforma per rotazione secondo la


0 X
Ti0 j 0 k0 ... = Rii0 Rjj 0 Rkk0 ...Ti0 j 0 k0 ... (5.53)
ijk...

Il numero degli indici si dice rango del tensore cartesiano. Il caso più semplice
di tensore di rango 2 è il prodotto diretto di due vettori (diade) ciascuno dei
quali è un tensore di rango 1: Tij = Ui Vj . Si può scrivere
 
U·V U i Vj − V j U i U i Vj + V j U i U·V
U i Vj = δ ij + + − δ ij
3 2 2 3

dove il tensore cartesiano di rango 2 è stato scritto come la somma di tre tensori
sferici: uno scalare invariante per rotazione, un tensore doppio antisimmetri-
co i cui termini possono essere pensati come le 3 componenti di un vettore
e12k (U × V)k ed un tensore simmetrico a traccia nulla che ha 5 componenti
indipendenti. Il numero delle componenti indipendenti sono 3 × 3 = 1 + 3 + 5.
Gli addendi sono le moltiplicità dei tensori sferici con l = 0, l = 1 e l = 2.
Questi tensori si traformano per rotazione come le rmoniche sferiche. Il tensore
cartesiano è stato cosı̀ ridotto in tre tensori sferici irriducibili.
Una prima definizione di tensore sferico è la seguente. Sia Ylm (n̂) un’ar-
monica sferica definita sulla sfera di raggio unitario. Sostituiamo n̂ con v̂ e
valutiamo
Tq(k) = Yqk (v̂)
questo è un tensore sferico di rango k con q = −k, ..., k.

Ora noto che a seguito di una rotazione

| n̂ > → D(R) | n̂ > =| n̂0 >

e che
X X (l)
D(R−1 ) | lm > = | lm0 >< lm0 | D(R−1 ) | lm > = | lm0 > Dm0 m (R−1 )
m0 m0

Moltiplicando per < n̂ |


X (l)∗
< n̂ |D(R−1 ) | lm > = < n̂ | lm0 > Dmm0 (R)
m0

ovvero X 0 (l)∗
Ylm (n̂0 ) = Ylm (n̂)Dmm0 (R) (5.54)
m0

164
Questqa può essere assunta come definizione, in base alle proprietà di trasfor-
mazione sotto rotazione, di un tensore sferico di rango k avente 2k + 1 compo-
nenti
Xk
† (k) (k)∗ (k)
D (R)Tq D(R) = Dqq0 (R)Tq0 (5.55)
q 0 =−k
ovvero
k
X (k) (k)
D(R−1 )Tq(k) D† (R−1 ) = Dq0 q (R−1 )Tq0
q 0 =−k

che, chiamando R la rotazione R−1 , si scrive


k
X (k) (k)
D(R)Tq(k) D† (R) = Dq0 q (R)Tq0 (5.56)
q 0 =−k

che è una nuova definizione di un tensore sferico, valida in generale anche per
momenti angolari seminteri. per una rotazione infinitesima generalizzata si ha
    k
X  
iJ · v iJ · v (k) iJ · v
1+ Tq(k) 1− = Tq 0 < kq | 0
1+ | kq >
~ ~ ~
q=−k

ovvero
k
X (k)
[J · v,Tq(k) ] = Tq0 < kq 0 | J · v | kq > (5.57)
q 0 =−k

Ponendo v = ẑ, si ha
k
X k
X
(k) (k)
[Jz ,Tq(k) ] = Tq0 < kq 0 | Jz | kq > = Tq0 ~qδ qq0
q 0 =−k q 0 =−k

ovvero
[Jz ,Tq(k) ] = ~qTq(k) (5.58)
mentre ponendo v = x̂ + iŷ
k
X (k)
[J± ,Tq(k) ] = Tq0 < kq 0 | J± | kq >
q 0 =−k

ovvero p
(k)
[J± ,Tq(k) ] = Tq±1 ~ (k ∓ q)(k ± q + 1) (5.59)
Ora la (5.58) e la (5.59) possono essere assunte come nuove definizioni di tensore
sferico irriducibile di rango k.

(k ) (k )
Vale il teorema: Se Xq1 1 e Zq2 2 sono due tensori sferici irriducibili di rango
k1 e k 2

165
k1
X k2
X
Tq(k) = < k1 q1 , k2 q2 | k1 k2 ; kq > Xq(k1 1 ) Zq(k2 2 ) (5.60)
q1 =−k1 q2 =−k2

è un tensore sferico irriducibile di rango k, con | k1 − k2 |< k < k1 + k2 . I


coefficienti sono quelli di C.-G.

< k1 q1 , k2 q2 | (k1 k2 )kq >= Ckkq1 q1 ;k2 q2

e la espressione (5.60) è del tutto analoga a quella che esprime i prodotti dei
vettori di base delle rappresentazioni irriducibili quando si compongono i mo-
menti angolari. La dimostrazione è diretta e si basa sulla verifica che la (5.60)
soddisfa la relazione (5.56).

Valutiamo ora gli elementi di matrice di operatori tensoriali sferici irriducibili


tra stati che sono autostati del momento angolare, o meglio di J2 e di Jz . Dalla
(5.58) segue
< α0 j 0 m0 | [Jz ,Tq(k) ] − ~qTq(k) | αjm >= 0

~ < α0 j 0 m0 | Tq(k) | αjm > ~(m0 − m − q) = 0


da cui
< α0 j 0 m0 | Tq(k) | αjm > 6= 0 solo se m0 = m + q (5.61)
che è la nota regola di selezione su m. Un altro modo di vedere questa proprietà
è di considerare come si trasforma per rotazione il prodotto scalare, che è un
(k)
invariante, tra Tq | αjm > e | α0 j 0 m0 >. Eseguiamo una rotazione attorno a
 
Tq(k) | αjm > → DTq(k) D−1 D | αjm > =
X (k)
= < kq 0 | D | kq > Tq0 e−imφ | αjm > =
q0
X (k)
= δ qq0 e−iφq Tq0 e−imφ | αjm >
q0

mentre 0
| α0 j 0 m0 > → D | α0 j 0 m0 > = e−im φ | α0 j 0 m0 >
Allora l’elemento di matrice, che è un invariante, si può scrivere come
0
< α0 j 0 m0 | Tq(k) | αjm > = eiφ(m −m−q) < α0 j 0 m0 | Tq(k) | αjm >

che è verificato per qualunque φ solo se m0 = m + q.

166
5.16 Teorema di Wigner-Eckart.
Gli elementi di matrice di operatori tensoriali tra gli autostati del momento
angolare sono dati dalla espressione
< α0 j 0 || T (k) || αj >
< α0 j 0 m0 | Tq(k) | αjm > = < jm, kq | (jk)j 0 m0 > √
2j + 1
0 0
j m
dove < jm, kq | (jk)j 0 m0 > = Cjm;kq e < α0 j 0 || T (k) || αj > non dipende da
0
m, m e q. L’elemento di matrice è diverso da zero solo se j e k si compongono a
dare j 0 , ovvero se è | j−k |≤ j 0 ≤ j+k. La dipendenza dai numeri m, m0 e q è di
tipo esclusivamente geometrico, tramite i coefficienti di C.-G. Dati j, k, j 0 , α, α0
basta calcolare
√ un solo elemento di matrice ridotto < α 0 j 0 || T (k) || αj > . Il
fattore 2j + 1 è parte della definizione dell’elemento di matrice ridotto.
La dimostrazione del teorema di Wigner-Eckart si basa sulla (5.59) che
possiamo riscrivere per gli elementi di matrice
(k)
p
< α0 j 0 m0 | [J± ,Tq(k) ] | αjm > = < α0 j 0 m0 | Tq±1 | αjm > ~ (k ∓ q)(k ± q + 1)
Esplicitando il primo termine si ha
p
(j 0 ± m0 )(j 0 ∓ m0 + 1) < α0 j 0 (m0 ∓ 1) | Tq(k) | αjm >
p
− (j ∓ m)(j ± m + 1) < α0 j 0 m0 | Tq(k) | αj(m ± 1) > =
(k)
p
= < α0 j 0 m0 | Tq±1 | αjm > ~ (k ∓ q)(k ± q + 1)
Questa espressione, con la trasformazione j → j1 , m → m1 , k → j2 , q →
m2 , j 0 → j, m0 → m, diviene
p (j2 )
(j ± m)(j ∓ m + 1) < α0 j (m ∓ 1) | Tm 2
| αj1 m1 >
p (j2 )
− (j1 ∓ m1 )(j1 ± m1 + 1) < α0 j m | Tm 2
| αj1 (m1 ± 1) > = (5.62)
(k)
p
= < α0 j m | Tm2 ±1 | αj1 m1 > ~ (j2 ∓ m2 )(j2 ± m2 + 1)
che è della stessa forma della relazione (5.45) ottenuta per i coefficienti di C.-G.
che riscriviamo
p
(j ∓ m)(j ± m + 1) < j1 m1 , j2 m2 | (j1 j2 )j, m ± 1 >=
p
= (j1 ∓ m1 + 1)(j1 ± m1 ) < j1 m1 ∓ 1, j2 m2 | (j1 j2 )jm > +
p
+ (j2 ∓ m2 + 1)(j2 ± m2 ) < j1 m1 , j2 m2 ∓ 1 | (j1 j2 )jm >
Si hanno cosı̀ due sistemi di equazioni lineari omogenee con gli stessi co-
efficienti. Pertanto la soluzione è la medesima a meno di un coefficiente di
proporzionalità.

< α0 j 0 m0 | Tq(k) | αjm > = < jm, kq | (jk)j 0 m0 > costante (indip. da m, m0 , q)

167
5.17 Applicazioni.

Vediamo alcune dirette applicazioni del teorema di Wigner-Eckart.

1) Un operatore tensoriale di rango k = 0 è un operatore scalare


(0)
T0 =S

Gli elementi di matrice di questo operatore nella base | α, jm > sono

< α, j 0 ||S|| α0 , j >


< α, j 0 m0 |S| α, jm > = δ jj 0 δ mm0 √ (5.63)
2j + 1

2) Un operatore vettoriale è un tensore sferico di rango k = 1, con le


componenti
(1) (1) (1)
T+1 , T0 , T−1
Gli elementi di matrice sono

0 (1)
0 jm < α, j T (1) α0 , j 0 >
< α, j m Tq α, jm > = C1q,j 0 m0 √ (5.64)
2j + 1

e sono nulli se non valgono le regole di selezione di dipolo: m0 − m = 1, 0, −1 e


j 0 − j = 1, 0, −1, con la esclusione del caso j = j 0 = 0.
3) Se j = j0 e V è un operatore vettoriale vale il Teorema di Proiezione

< α0 , jm |J · V| α, jm >
< α0 , jm0 |Vq | α, jm >= < jm0 |Jq | jm > . (5.65)
~2 j(j + 1)

La dimostrazione parte dalla definizione delle componenti sferiche di un opera-


tore vettoriale
1 1
J±1 = ∓ √ (Jx ± iJy ) = ∓ √ J± J0 = J z
2 2
dove si noti la distinzione tra J±1 e J± . Allora

< α0 , jm |J · V| α, jm >=< α0 , jm |Jo V0 − J+1 V−1 − J−1 V+1 | α, jm >=

= m~ < α0 , jm |V0 | α, jm >


~ p
−√ (j + m)(j − m + 1) < α0 , jm − 1 |V−1 | α, jm > +
2
~ p
√ (j − m)(j + m + 1) < α0 , jm + 1 |V+1 | α, jm >= cjm < α0 , j ||V|| α, j >
2
||dove l’ultima eguaglianza si ottiene applicando a ciascuno degli elementi di
matrice il teorema di Wigner-Eckart. cjm è un opportuno coefficiente: esso può
dipendere da j ma non da m, visto che J · V è un operatore scalare. Inoltre

168
esso non può dipendere da V dal momento che la dipendenza da V è tutta
nell’elemento di matrice ridotto. Posso allora scrivere che

< α0 , jm |J · V| α, jm >= cj < α0 , j ||V|| α, j >

ed anche
< α, jm J2 α, jm >= cj < α, j ||J|| α, j >
dove nell’ultima eguaglianza si è posto α0 = α ed m = m0 . Applicando ulterior-
mente il teorema di Wigner-Eckart e tenendo conto delle due relazioni appena
scritte, avrò

< α0 , jm0 |Vq | α, jm > < α0 , j ||V|| α, j > < α0 , jm |J · V| α, jm >


= =
< α, jm0 |Jq | α, jm > < α, j ||J|| α, j > < α, jm0 |J2 | α, jm >

Ma si ha < α, jm0 |Jq | α, jm > = < α | α >< jm0 |Jq | jm >=< jm0 |Jq | jm >
ed anche < α, jm J2 α, jm >=< jm J2 jm >= ~2 j(j + 1), da cui

< α0 , jm |J · V| α, jm >
< α0 , jm0 |Vq | α, jm >= < jm0 |Jq | jm > .
~2 j(j + 1)

169
5.18 Applicazioni alla fisica atomica
Le applicazioni della teoria del momento angolare alla fisica atomica sono una
parte importante dei corsi di Struttura della Materia. L’atomo è un sistema
a simmetria sferica e gli stati elettronici degli atomi possono essere classificati
secondo le rappresentazioni irriducibili del gruppo delle rotazioni. La simmetria
sferica, che può essere rotta dalla presenza di un campo esterno. Vediamo molto
in breve alcune semplici applicazioni.

a) Nello studio dell’interazione della radiazione con la materia l’assorbimento


o l’emissione di radiazione induce transizioni tra stati elettronici che hanno
diversi numeri quantici, associati a diverse rappresentazioni di SO(3). Le regole
di selezione considerate al punto (2) della precedente sezione sono un esempio
di tali applicazioni. Nei processi di interazione con la radiazione si ha a che fare
con elementi di matrice di transizione del tipo di dipolo

A· <αlm |p| α0 l0 m0 > ovvero A· <αlm |r| α0 l0 m0 >


dove A è il potenziale vettore e p ed r sono operatori vettoriali di rango 1. Dalla
(5.64) le regole di selezione della fisica atomica si ottengono facilmente.

b) L’esempio precedente è relativo ad una descrizione a singolo elettrone. I


numeri quantici αlm e α0 l0 m0 identificano due stati a singolo elettrone, l’elet-
trone che immaginaiamo coinvolto nella transizione (abbiamo inoltre trascurato
lo spin che non compare, a questo livello di approssimazione, nella transizione),
trattando l’effetto degli altri elettroni nell’atomo al più mediante un potenziale
effettivo. Il formalismo può essere esteso alla descrizione di stati a molti elet-
troni. In tal caso è possible considerare tutti gli elettroni nell’atomo. Si avranno
stati del tipo
| αJM >
ottenuti costruendo, ad esempio, funzioni d’onda antisimmetriche per scambio
di due elettroni, accoppiando i momenti angolari dei singoli elettroni, per per
ottenere di valori J ed M totali. Questi stati sono gli autostati dell’hamiltoniano
dell’atomo a molti elettroni, in cui il nucleo può essere trattato classicamente
come la sorgente di un potenziale coulombiano posto nell’origine, che attrae gli
elettroni, tra cui agisce un’interazione repulsiva. Si tien conto della repulsione
tra gli elettroni e della interazione spin-orbita scrivendo

X  p2  X
e2 X Ze2
 X
i
Ha = + VC (ri ) + − VC (ri ) + + ξ(ri )li ·si =
i
2m i<j
|ri −rj | i
ri i

Ha = H C + V 1 + V 2
dove
X  p2  X e2 X Ze2
 X
i
HC = + VC (ri ) V1 = − VC (ri ) + V2 = ξ(ri )li ·si .
i
2m i<j
|ri −rj | i ri i

170
Una scelta opportuna del potenziale centrale VC (r) può permettere di trattare
V1 e V2 come perturbazioni, partendo dagli stati a elettroni indipendenti che
sono autostati di HC . Spesso gli autostati di HC , che hanno energie pari alla
somma delle energie dei livelli a singolo elettrone occupati, che sono ottenuti
usando il principio di Pauli, sono fortemente degeneri.
Consideriamo ad esempio l’atomo di C (carbonio), che ha sei elettroni ed
ha uno stato fondamentale per HC , dato dalla configurazione fondamentale
(1s)2 (2s)2 (2p)2 con la sotto-shell esterna 2p non piena: le shell piene (1s)2 e
(2s)2 non ontribuiscono alla degenarione (sono singoletti); con due elettroni
equivalenti i 6 stati 2p possono essere occupati in (6 × 5)/2 = 15 modi diversi.
Lo stato a più bassa energia E0 di HC ha degenerazione 15. Questi stati possono
essere modificati dall’interazione V1 + V2 . Consideriamo
X e2 X Ze2

V1 = − VC (ri ) +
i<j
|ri −rj | i
ri
Per ottenere gli stati perturbati occorre diagonalizzare V1 nel sottospazio di tali
stati. Ricordando che V1 è invariante per rotazioni, anzi commuta separata-
mente con L ed S (momento angolare orbitale totale e momento angolare di
spin totale) , si può costruire con tali stati gli autostati di L2 , S2 , Lz ed Sz ,
componendo i momenti angolari dei 2 elettroni 2p. Con due elettroni p la parte
orbitale potrà avere L = 0, L = 1 oppure L = 2,mentre la parte di spin avrà
S = 0 o S = 1.Inoltre lo stato deve essere antisimmetrico per lo scambio di due
elettroni e questo comporta che le funzioni siano antisimmetriche nella parte or-
bitale e simmetriche in quelle di spin o viceversa. Rimangono cosı̀ tre multipletti
in cui si decompone il sottospazio di partenza
3 1 1
P (L = 1, S = 1) S(L = 0, S = 0) D(L = 2, S = 0)
la cui degenerazione(2L + 1)(2S + 1) vale rispettivamente 9,1,5 (che ha somma
15). In tale base, ottenuta per trasformazione di similitudine da quella di parten-
za, l’operatore V1 è diagonale e è ha tre diversi autovalori che corrispondono ai
tre termini spettrali della configurazione considerata.
Introducendo V2 , l’interazione spin-orbita, peraltro quasi trascurabile negli
atomi leggeri e per gli elettroni meno legati, introduco un temine che non con-
serva più L e S, ma solo J. Il primo termine spettrale si divide in tre livelli con
J = 0 (degenerazione 1), J = 1 (degenerazione 3) e J = 2 (degenerazione 5). In-
vece dalla composizione LS gli altri due termini spettrali hanno rispettivamente
J = 0 e J = 2, mantenendo entrambi la stessa degenerazione.
Questo è un cenno a come si possono ottenere in fisica atomica le strutture dei
livelli spettrali. Partendo da altre configuarazioni si possono ottenere altri livelli
e se partiamo da configurazioni energeticamente vicine occorre ener conto anche
dell’interazione tra configurazioni. Vi sono poi diversi schemi di accoppiamento
(LS, jj, ...).

c) Gli stati elettronici a molti elettroni sono cosı̀ associati ai numeri quantici
| αJM >

171
Nel caso di più elettroni gli operatori posizione e quantità di moto divengono
X X
r= ri p = pi
i i

che sono ancora operatori vettoriali. E’ possibile anche nello schema a molti
elettroni definire gli elementi di matrice e le regole di selezione per i processi di
assorbimento ed emissione.

d) In presenza di un campo esterno la simmetria sferica è rotta e ai diversi


valori della componente lungo l’asse ẑ del momento angolare corrispondono
autovalori diversi dell’energia. Vi è un’ulteriore perturbazione che nel caso di
un campo magnetico uniforme B è

|e| |e|
W =+ (B · (L + 2S)) = + (Bz · (Lz + 2Sz ))
2mc 2mc
che agisce sugli stati atomici
| E0 JM >
Se la perturabazione W è piccola rispetto all’interazione V2 è possibile valutare
il suo effetto su ciascun livello calcolando

< E0 JM | Lz + 2Sz | E0 JM 0 >

Poichè L + 2S è un operatore vettoriale come J dalla (5.65) possiamo scrivere

< E0 JM | L + 2S | E0 JM 0 > = g < E0 JM | J | E0 JM 0 >

dove g , il fattore di Landé, è il rapporto tra gli elementi di matrice ridotti di


L + 2S e di J. Quindi

< E0 JM | Lz + 2Sz | E0 JM > = g < E0 JM | Jz | E0 JM 0 >= g~M δM M 0

ovvero
E = E0 − g~M µB Bz (5.66)
che è la formula dell’effetto Zeeman. Per determinare il fattore di Landé g si
ricorda sempre la (5.65)

< JM | J · (L+2S) | JM 0 >


=g
~2 J(J + 1)

Poichè
1
J · (L+2S) = J2 + J · S = J2 + S2 + (J2 +S2 −L2 )
2
si ha
J(J + 1) + S(S + 1) − L(L + 1)
g =1+ . (5.67)
2J(J + 1)

172
Nel caso di un campo magnetico sia intenso tale che W >> V2 , conviene
partire dagli autostati di V1 ovvero dagli autostati di L ed S. Si avrà

< E0 LML SMS | Lz + 2Sz | E0 LML SMS > = ~µB (ML + MS )Bz

che è la formula dell’effetto Paschen-Back. Per valori del campo Bz intermedi


il calcolo è più complesso, am dovremo apssare con continuità dalla separazione
di livelli Zeeman a quella Paschen-Back.

e) Per finire valutiamo le correzioni spin-orbita per i livelli monoelettron-


ici. Partiamo dalla soluzione del problema ad un elettrone in presenza di un
potenziale centrale VC (r), ciscuno stato monoelettronico avrebbe energia nl con
degenerazione (2l + 1)(2s + 1) = 2(2l + 1). Introduciamo la perturbazione

1 1 dVC
V2 = L · S ξ(r) ξ(r) =
2m2 c2 r dr
Possiamo scrivere
1
< L · S >j = < J2 − L2 − S2 >j
2
dove il valor medio è calcolato sullo stato a j fissato j = l ± 1/2, cioè sullo stato
spin-orbitale (5.50). Si può scrivere per j = l + 1/2
 
1 2 1 3 3 ~2
< V2 >= ~ (l + )(l + ) − l(l + 1) − < ξ(r) > = < ξ(r) > l
2 2 2 4 2

e per j = l − 1/2
 
1 2 1 1 3 ~2
< V2 >= ~ (l − )(l + ) − l(l + 1) − < ξ(r) > = − < ξ(r) > (l + 1)
2 2 2 4 2

Poichè r1 dV
dr è positivo, ciascun livello viene diviso in due. Uno (j = l + 1/2) è
C

spostato verso l’alto (energie meno negative) di una quantità proporzionale ad

~2 l/2

L’altro (j = l−1/2) è spostato a più basse energie di una quantità proporzionale


a
~2 (l + 1)/2.
   
Il primo ha degenazione l + 12 = 2l + 2, il secondo l − 21 = 2l; viene lasciato
inalterato il baricentro dei due livelli. Per l = 0 non c’è separazione spin-orbita
e la degenazione rimane 2.

173
5.19 Applicazioni alla fisica nucleare.

I nuclei atomici sono sistemi formati da Z protoni e da N neutroni legati tra


loro dalle forze nucleari. Protoni e neutroni dal punto di vista delle interazioni
nucleari sono particelle abbastanza simili. Differiscono per la carica e vi è una
leggera differenza di massa a riposo. L’energia nel sistema di riferimento in cui la
particella è a riposo vale 938.3 M eV per il protone e 939.6 M eV per il neutrone.
Sono entrambi fermioni. E’ possibili descrivere il protone e il neutrone come due
stati della stessa particella, il nucleone. Un nucleo è un sistema di A = Z + N
nucleoni identici, che differiscono per il numero quantico di spin isotopico, che
vale +1/2 per il protone e −1/2 per il neutrone. Gli stati del sistema saranno
antisimmetrici rispetto alla permutazione di due di questi A fermioni.
Gli stati protone e neutrone costituicono un doppietto come gli stati a spin
opposto. I proiettori sugli stati del protone e del neutrone sono scrivibili in
funzione della terza componente dello spin isotopico o isospin
1 1
Πp = (1 + τ 3 ) Πn = (1 − τ 3 )
2 2
mentre in completa analogia con lo spin scriveremo
1 1
t= τ = (τ 1 , τ 2 , τ 3 )
2 2
     
0 1 0 −i 1 0
τ1 = τ2 = τ3 = .
1 0 i 0 0 −1
In un sistema a più nucleoni lo spin isotopico totale è
A
X
T= tj
j=1

I suoi valori potranno essere interi e seminteri (secondo che A è pari o dispari),
ma saranno ≤ A/2. La terza componente di T avrà valori
1
T3 = (Z − N ).
2
Una rotazione nello spazio dello spin isotopico è data da

exp(−i T · n̂φ)

e mescola le componenti neutrone e protone. L’evoluzione temporale del sistema


è descritta da un operatore hamiltoniano che nel suo termine dominante è invari-
ante per rotazioni di isospin. Vi sono poi altri termini nell’interazione, tra cui le
interazioni elettromagnetiche e quelle deboli. Le prime sono responsabili della
repulsione tra i protoni a distanza comparabile o più grande del raggio d’azione

174
delle forze nucleari, mentre le seconde sono responsabili dei decadimenti. Ad
esempio un neutrone libero decade spontaneamente in

n → p + e− + ν̄

ma ciò avviene su una scala di tempi (103 s.) enormemente superiori alla scala
dei tempi che qui ci interessa. Questi due termini non hanno la stessa simmetria
dell’interazione forte e sono responsabili delle differenze tra le due particelle del
doppietto. Possiamo scrivere
1
t2 = t23 + (t+ t− + t− t+ ) t± = tx ± ity
2
in analogia con il momento angolare.

Possiamo considerare | n > e | p > come autostati di t3 con autovalori −1/2


e +1/2
1 1
t3 | n >= − | n > t3 | p >= | p >
2 2
Entrambi | n > e | p > sono autostati del numero barionico B con autovalore
+1. L’operatore carica Q = T3 + 1/2B da

Q | n >= 0 | n > Q | p >= 1 | p >

Esistono anche tripletti di isospin: la famiglia dei mesoni π costituita da π − , π 0 , π + ,


con masse di circa 140 M eV , è un tripletto. Per i mesoni B = 0 e quindi Q = T3 .

T3 | π − >= −1 | π − > T3 | π 0 >= 0 | π 0 > T3 | π + >= +1 | π + >

ovvero
| π − >=| 1, −1 > | π 0 >=| 1, 0 > | π + >=| 1, +1 >
Il deutone è lo stato legato formato un protone e da un neutrone: è un singoletto
di isospin
| d >=| T = 0, T3 = 0 >
mentre 3 He (elio-3) e 3 H (trizio) costituiscono i due stati di un altro doppietto
1 1 1 1
|3 He >=| T = , T3 = > |3 H >=| T = , T3 = − >
2 2 2 2
E’ facile studiare la collisione protone-deutone con i due prodotti di reazione

p + d → π+ + 3H

p + d → π 0 + 3 He
Lo stato iniziale è lo stesso e, in terini dei numeri quantici di isospin, è
1 1 1 1
| + >| 00 >=| + >
2 2 2 2

175
ovvero è uno stato di un doppietto con T3 = 1/2. Lo stato finale è diverso nelle
due reazioni
1 1
π + + 3 H =| 1 1 >| − >
2 2
1 1
π 0 + 3 He =| 1 0 >| + >
2 2
Il rapporto tra le due sezioni d’urto è dato dal rapporto tra i quadrati degli
elementi dimatrice tra lo stato iniziale e quello finale
2
 <  2 12 21
σ p + d → π+ + 3H
1
2 + 1
2 | | 1 1 >| 1
2 − 1
2 > C11, 12 − 12

= 1 1 1 1
 = 1 1
σ (p + d → π 0 + 3 He) < 2 + 2 | | 1 0 >| 2 + 2 > C 2 21 1
10, + 2 2

che dipende dai soli coefficienti di C.-G.


11 2  q 2
C 2 2 2
11, 21 − 12 3

= 11 = q  =2


C 2 21 1 1
10, 2 + 2 3

Il rapporto è determinato da sole proprietà di simmetria e non dalla conoscenza


dell’interazione. Il valore previsto è in accordo con il risultato sperimentale che
vale 1.91±0.25.
4
He ha 2 protoni e 2 nutroni ed è un singoletto di isospin | 00 >. La reazione
4
d+d→ He + π 0

è proibita dal momento che lo stato finale è una componente di un tripletto con
T = 1 e T3 = 0. Infatti essa ha una sezione d’urto di 10−32 cm2 , ben sei ordini
di grandezza inferiore alle sezioni d’urto delle altre reazioni permesse. E’ invece
possibile la reazione
d + d → 4 He + γ
dal momento che il fotone γ non è un autostato dell’isospin, ma contiene diverse
componenti con diverso T ed in particolare T = 0.

Per finire si può considerare l’urto pione-nucleone in condizioni di risonanza.


Consideriamo in particolare la risonanza barionica ∆ (1232 M eV ) che è un
quadrupletto e la risonanza N ∗ (1516 M eV ) che è un doppietto. Il processo può
essere pensato come l’assorbimento e la riemissione di un pione da parte di un
nucleone. Ciascun elemento di matrice che descrive il processo di assorbimento
e di emissione è proporzionale a un coefficiente di K.-G. secondo lo schema di
seguito riportato. I grafici della Figura ?? riportano la sezione d’urto in funzione
dell’energia cinetica Kπ del π nel sistema del laboratorio dove il nucleone è a
riposo, per le collisioni π + + p → π + + p, π − + p → π 0 + n e π − + p → π − + p.

176
Figura 5.5: Sezioni d’urto pione-nucleone in funzione dell energia cinetica del
pione incicente sul nucleone bersoglio fisso nel sistema del laboratorio.

- + ++
D D0 D D
1232 T=3/2
-
p
p0 p0
+ -
p p
+
p T=1/2
938
n p

-3/2 -1/2 1/2 3/2 T3

-1 0 1 2 Q

Figura 5.6: Schema di livelli che illustra in termini di transizione tra livelli
barionici la risonanza ∆ nella collisione N − π. Le linee tratteggiate indicano
i possibili assorbimenti ed emissioni di pioni nelle transizioni tra il doppietto
barionico e il quadrupletto ∆. I valori delle masse sono espressi in M eV .

177
+
N0 N
1516 T=1/2
-
p
p0 p0
+
938
p T=1/2
n p

-1/2 1/2 T3

0 1 Q

Figura 5.7: Schema di livelli che illustra in termini di transizione tra livelli
barionici la risonanza N 0 -N + nella collisione N − π a circa 1516 M eV .

Per avere l’energia della risonanza W occorre scrivere la energia totale del
sistema nel riferimento del centro di massa del sistema pione-nucleone
p
W = (M c2 + mπ c2 )2 + 2Kπ M c2
dove M è la massa del nucleone e Mπ quella del pione. Vediamo l’energia delle
risonanze in M eV per il sistema N − π
p
W = (938 + 140)2 + 2Kπ · 938
Sulla scala delle energie cinetiche del pione incidente Kπ+ = 190 corrisponde
a W = 1232 (questa risonanza è presente nei due grafici), mentre Kπ− = 190
corronde a W = 1516 (questa risonanza è presente solo in π − + p → π 0 + n e
π − + p → π − + p. La risonanza ∆ (1232 M eV ) può essere interpretata come
una transizione ad un quartetto di isospin secondo lo schema di assorbimento e
riemissione di un pione indicato in Figura 5.6.

L’applicazione delle regole di selezione di dipolo ( per la natura vettori-


ale del π−tripletto) indica le transizioni possibili. Lo schma della risonanza
N ∗ (1516 M eV ) coinvolge transizione tra due doppietti indicati in Figura 5.7
spiega in modo ovvio come questa risonanza non sia presente nella reazione
π + + p → π + + p. La risonanza ∆ è un processo al secondo ordine in cui
domina l’elemento di matrice ridotto della matrice di diffusione
3 3
<T = || S || T = > .
2 2

178
Le sezioni d’urto stanno tra loro come le quarte potenze dei coefficienti di
G.-G.

σ(π + + p → π + + p) : σ(π − + p → π − + p) : σ(π − + p → π 0 + n)


4 4 2
1 1
< 1 1 | 3 3 > : < −1 1 3
| − > : < −1 | 1 3 1 1 3
− >< 0 − | − >
2 2 2 2 2 2 2 2 2 2 2 2
3 3 4 3 1 4 3 1
2 2 2 −2 2 −2 3
−1 2
C11, 1 1 : C1−1, 1 1 : C C2 2
1−1, 1 1 1 0, 1 − 1
2 2 2 2 2 2 2 2

4 1 √ 2 2
4 1
|1| : √ : √ √
3 3 3
1 2
1: :
9 9
che è ben verificata dai risultati sperimentali della risonanza ∆.

179
Capitolo 6

Gruppi di Lie ed Algebre di


Lie.

Abbiamo visto nel capitolo precedente come lo studio del momento angolare in
fisica e in meccanica quantistica in particolare sia legato allo studio del gruppo
delle rotazioni spaziali. Il gruppo continuo reale lineare O(3) e il gruppo SU (2),
in stretta relazione con esso, hanno tre generatori linearmente indipendenti che
possono essere descritti da tre operatori hermitiani, che sono le tre componenti
dell’operatore momento angolare. Questi tre generatori sono la base di un’al-
gebra non commutativa, definita dalle relazioni di commutazione del momento
angolare. E’ possibile associare a ciascuna rotazione finita un operatore uni-
tario in forma esponenziale. Tale operatore, agendo in uno spazio vettoriale
complesso ad N dimensioni (come devono essere i sottospazi degli stati della
meccanica quntistica), opera una trasformazione unitaria (trasforma una base
ortonormale in un’altra base ortonormale). Tale trasformazione in uno spazio
vettoriale complesso ad N dimensioni è la immagine della rotazione in R3 , la
rotazione che opera su un vettore reale in 3D. Le matrici ottenute da questi
operatori lineari ed unitari nella base degli autostati di J2 e Jz ,ovvero nella
base dei ket {| jm >} , costituiscono le rappresentazioni irriducibili del gruppo
delle rotazioni. N = 2j + 1: se j è un intero, N è dispari, mentre se j è
semintero N è pari. Nel primo caso ritroviamo dei vettori che, pensati come
funzioni delle variabili angolari, si riconducono alle armoniche sferiche, le auto-
funzioni del momento angolare orbitale. Nel secondo caso abbiamo le funzioni
spin-orbitali a j semintero, che si ottengono componendo le armoniche sferiche
con gli spinori a spin 1/2. Il prodotto diretto di più rappresentazioni irriducibili
è decomponibile in altre rappresentazioni irriducibili. In fisica atomica questa
teoria ha molte applicazioni. Ne abbiamo richiamate alcune e si è visto come
una simmetria analoga a quella delle rotazioni spaziali, la simmetria di isospin,
abbia consentito i primi efficaci passi della fisica nucleare.
In questo capitolo vogliamo generalizzare questo approccio. Rivediamo al-
cuni dei contenuti sin qui svolti nel quadro di una teoria più generale dei gruppi

180
continui.

6.1 Elementi di teoria dei gruppi.


Un insieme G di elementi g1, g2 , g3, ... forma un gruppo se è definita una legge
di moltiplicazione con le proprietà:
1) dati ga , gb , esiste gd ∈ G tale che

gd = g a gb

2) vale la proprietà associativa

ga (gb gc ) = (ga gb )gc

3) esiste in G un elemento e (unità o identità) tale che

ega = ga e = ga

4) Per ciascun elemento ga , esiste ed è unico in G un elemento ga−1 , inverso


di ga , tale che
ga ga−1 = ga−1 ga = e.
In generale l’elemento ga gb non è uguale a gb ga , ovvero la moltiplicazione
non è commutativa. Se per tutti gli elementi del gruppo ga gb = gb ga , il gruppo
si dice commutativo o Abeliano. Le rotazioni in 3D costituiscono un gruppo
non Abeliano, mentre le rotazioni in 2D (o quelle in 3D attorno allo stesso
asse), costitiscono un gruppo Abeliano. Se il numero degli elementi del gruppo
è finito il gruppo si dice finito e il numero di elementi si dice ordine del gruppo,
altrimenti il gruppo è infinito. Tra i gruppi infiniti considereremo i gruppi
continui in cui ciascun elemento è etichettato da un insieme di parametri e questi
parametri variano con continuità. Il numero dei parametri è la dimensione del
gruppo continuo.
Se un sottoinsieme proprio H di G costituisce un gruppo rispetto alla stessa
legge di moltiplicazione di G, allora si dice che H è un sottogruppo di G. Se
per qualunque g ∈ G, gHg −1 = H, allora H è un sottogruppo invariante di
G. (Attenzione: ciò non significa che, se a ∈ H, debba essere gag −1 = a, ma
che l’insieme degli elementi gag −1 , qualunque sia a, coincide con H).
Dato un sottogruppo H di G e dato g ∈ G, si può definire un coset destro
Hg, come pure un coset sinistro gH, insiemi che sono costituiti rispettivamente
dagli elementi hg e gh dove h ∈ H. Per i gruppi finiti il numero degli elementi
in ciascun coset è uguale all’ordine di H. Se H è un sottogruppo invariante, vi
è coincidenza tra coset destri e sinistri. E’ allora possibile dato un sottogruppo
invariante considerare l’insieme dei coset, considerando solo i coset distinti. Essi
formano a loro volta un gruppo, il gruppo G/H. Per i gruppi finiti l’ordine del
gruppo G/H è uguale all’ordine di G diviso l’ordine di H. Il risultato deve essere
un intero, quindi l’ordine di H deve essere un sottomultiplo dell’ordine di G.

181
Nel caso dei gruppi continui vale un risultato simile: il gruppo G/H ha
dimensione pari a quella di G meno la dimensione di H. Il gruppo delle rotazioni
in 3D ha dimensione 3 (dipende da tre parametri continui). Il gruppo delle
rotazioni attorno ad un asse ha dimensione 1. Esso è un sottogruppo del gruppo
delle rotazioni in 3D, ma non è un sottogruppo invariante. L’insieme dei cosets
(destri o sinistri) ha dimensione 2.
Possono esere definite delle relazioni di corrispondenza tra gli elementi di
due gruppi, come può avvenire in generale tra gli elementi di due insiemi. Se a
ciascun elemento ga di G corrisponde un elemento ga0 di G0 e la corrispondenza
preseva la tabella di moltiplicazione, ovvero

gc = g a gb =⇒ gc0 = ga0 gb0

tra i due gruppi vi è omomorfismo. Non si esclude nella definizione che ga0
possa essere l’immagine di diversi ga o che vi siano elementi di G0 che non sono
immagine di nessun elemento di G. Se invece la corrispondenza è biunivoca e
ciascun elemento ga0 è l’immagine di uno e di un solo elemento ga ∈ G si parla
di isomorfismo.
Se vi è un omomorfismo tra un gruppo G ed un gruppo di matrici quadrate,
complesse o reali, n × n
g ⇒ Γ(g)
il gruppo di matrici è una rappresentazione del gruppo di dimensione n, o
n−dimensionale. Se vi è isomorfismo

g ⇐⇒ Γ(g)

ad ogni elemento del gruppo corrisponde una e una sola matrice. In tal caso la
rappresentazione è fedele.

6.2 Gruppi di Lie lineari.


Gli elementi di un gruppo continuo sono etichettati con un insieme di r parametri
reali a1, a2 , ..., ar . Il numero minimo di parametri necessari per tale etichettatura
è la dimensione del gruppo continuo. La legge di moltiplicazione tra gli elementi
del gruppo
g(a1 , a2 , ..., ar )g(b1 , b2 , ..., br ) = g(c1, c2 , ..., cr )
può essere espressa tramite le funzioni

ci = φi (a1, a2 , ..., ar , b1, b2 , ..., br ) i = 1, 2, ..., r (6.1)

Queste funzioni debbono soddisfare le condizioni imposte dalle proprietà di


gruppo. Se le φi sono differenziabili il gruppo continuo è un gruppo di Lie.
Più precisamente interessano in Fisica i Gruppi di Lie lineari, che verificano
le seguenti proprietà:

182
1) G deve possedere almeno una rappresentazione fedele, costituita da un
gruppo di matrici di dimensione finita m, ovvero

g ⇐⇒ Γ(g)

che consenta di definire una distanza tra due elementi


  21
Xm X
m 
2
d(g, g 0 ) = |Γ(g)jk − Γ(g 0 )jk | (6.2)
 
j=1 k=1

che sia una metrica, ovvero abbia le proprietà

d(g, g 0 ) = d(g 0 , g) d(g, g) = 0 d(g, g 0 ) ≥ 0 per g 6= g 0

d(g, g 00 ) ≤ d(g, g 0 ) + d(g 0 , g 00 )


Tale definizione consente poi di definire un’intorno sferico dell’identità Mδ di
raggio δ > 0 costituto da tutti i g ∈ G tali che

d(g, e) < δ. (6.3)

2) Dato δ > 0 gli elementi della sfera Mδ centrata sull’identità, possono


essere parametrizzati da un insieme ordinato di r parametri reali a1 , a2 , ..., ar ,
in modo che a due elementi distinti corrispondano insiemi distinti di parametri
e che ad e corrisponda a1 = 0, a2 = 0, ..., ar = 0.
3) Deve esistere una funzione reale η(δ) tale che per
r
X
α2i < η
i=1

il corrispondente elemento

g(α1 , α2 , ..., αr ) ∈ Mδ

Questo comporta che per qualunque punto intorno sferico dell’origine in R r

(α1 , α2 , ..., αr ) ⇐⇒ g ⇐⇒ Γ(g) ⇐⇒ Γ(α1 , α2 , ..., αr )

corrisponde un elemento del gruppo, una matrice, che a sua volta è funzione
continua dei parametri.
4) La matrice deve essere analitica nei parametri, ovvero i suoi elementi sono
derivabili a tutti gli ordini in αi in tutti i punti dell’intorno inclusa l’origine. In
particolare le r matrici m × m ottenute derivando rispetto ai parametri
 
∂Γ({αi })jk
(as )jk = (6.4)
∂αs α1 =0,α2 =0,...,αr =0

costituiscono una base per uno spazio vettoriale lineare r−dimensionale.

183
6.3 Esempi.
Consideriamo alcuni esempi semplici di gruppi di Lie lineari e controlliamo che
verifichino le sopra indicate quattro proprietà.
A) Il gruppo dei numeri reali rispetto alla moltiplicazione. t ∈ R è un elemen-
to del gruppo con l’esclusione di t = 0. 1) Γ(t) = t è la rappresentazione fedele
costituita da matrici 1 × 1 non singolari che definisce la distanza; 2) |t − 1| < δ
è l’intorno Mδ dell’identità e la parametrizzazione si ottiene dalla mappa espo-
nenziale eα = t con un parametro reale che per α = 0 rappresenta l’identità.
Per verificare la proprietà 3, possiamo notare che dato l’intorno dell’identità
|t − 1| < 21 , ovvero 12 < t < 32 , possiamo definire un intorno sferico di dell’origine
in α, ad esempio
 2
2 3
α < ln
2
che corrisponde all’intervallo
2 3
<t<
3 2
che è completamente contenuto in Mδ con δ = 21 ed in esso si ha corrispondenza
biunivoca tra il parametro α e la matrice Γ(α) = (eα ) = (t) = t. Inoltre la
proprietà 4 è verificata: eα è una funzione analitica di α, la derivata (6.4) è la
matrice
a1 = (1)
che costituisce la base di uni spazio vettoriale unidimensionale. Il gruppo dei
numeri reali rispetto la moltiplicazione è un gruppo di Lie lineare a dimensione
1.
B) I gruppi O(2) ed SO(2). O(2) è il gruppo delle matrici reali 2 × 2
con |det(A)| = 1; SO(2) è quello delle matrici reali 2 × 2 con det(A) =1. Al
solito la rappresentazione fedele è costituito dalle stesse matrici A = Γ(A). Da
AT A = 1 e da AAT = 1 si hanno sei condizioni

A211 + A212 = A211 + A221 = A221 + A222 = A212 + A222 = 1

A11 A21 + A12 A22 = A11 A12 + A21 A22 = 0


Le soluzioni di queste equazioni sono di due tipi:
I)
A11 = A22 A12 = −A21 det(A) =1
e quindi
A211 + A212 = 1 e A ∈ SO(2)
La distanza dall’identità data dalla formula (6.2) è
1 1 1
d(A, 1) = (2(A11 − 1)2 + 2A212 ) 2 = (2A211 − 4A11 + 2 + 2A212 ) 2 = 2(1 − A11 ) 2

per A11 → 1 tale distanza tende a zero e A tende all’identità.

184
II) Il secondo insieme di soluzioni ha

A11 = −A22 A12 = A21 det(A) = −1

ed è valido solo per O(2). In questo caso la distanza dall’identità


1 1
d(A, 1) = ((A11 − 1)2 + (A22 − 1)2 + 2A212 ) 2 = (2A211 + 2 + 2A212 ) 2 = 2

è costante e vale 2. Il sottoinsieme di O(2) che non fa parte di SO(2) risul-


ta cosı̀ costituito dalle matrici con determinante −1 che hanno distanza finita
dall’identità, anzi sono tutti equidistanti (d(A, 1) = 2) dall’identità. Abbiamo
cosı̀ verificato la proprietà 1. La 2 richiede la parametrizzazione di un intorno
dell’identità, cosa possibile solo per una parte di SO(2) comune ai due gruppi.
La parametrizzazione con il solo parametro α 1
 
cos α1 sin α1
A = Γ(A) =
− sin α1 cos α1

va bene poiché per α1 = 0 si ha A = 1. Inoltre le funzioni sin e cos sono


analitiche. Essendoci un solo parametro la dimensione di ciascuno dei due gruppi
di Lie è 1. Anche la proprietà 3 è verificata: esiste un intorno dello zero in R
ad esempio
π π
− < α1 <
3 3
che rappresenta matrici che si trovano tutte comprese nell’intorno Mδ dell’iden-
tità, ad esempio con δ = 2 e la corrispondenza è biunivoca nell’insieme in cui
ciò è vero. In realtà SO(2) è parametrizzabile interamente con α1 in

−π < α1 ≤ π

e la parametrizzazione è analitica. Dalla (6.4) si ha che il vettore della base


unidimensionale è la matrice (proprietà 4)
 
0 1
a1 =
−1 0

Invece per gli elementi di O(2) che non appartengono a SO(2) si ha


    
− sin α1 cos α1 0 1 cos α1 sin α1
A = Γ(A) = = .
cos α1 sin α1 −1 0 − sin α1 cos α1

Anticipando nuove definizioni, diremo che il gruppo SO(2) è connesso, mentre


O(2) non lo è, essendo SO(2) la sua parte connessa.
C) SU (2). E’ il gruppo delle matrici complesse 2 × 2 unitarie u con una
condizione aggiuntiva: det u = 1. La rappresentazione fedele è al solito Γ(u) = u
   
a b a1 + ia2 b1 + ib2
u= = (6.5)
−b∗ a∗ −b1 + ib2 a1 − ia2

185
det u = a21 + a22 + b21 + b22 = 1
Si possono verificare le quattro proprietà a partire da una opportuna parametriz-
zazione con tre parametri reali.
  12
α3 α2 α1 1
a2 = b1 = b2 = a1 = 1 − (α21 + α22 + α23 ) (6.6)
2 2 2 4
Sostituendo in (6.5) e utilizzando la definizione di distanza (6.2) si ottiene come
distanza dall’identità
(   12 ) 12
1 2
d(u, 1) = 2 1 − 1 − (α1 + α22 + α23 ) (6.7)
4

Questa parametrizzazione che vale solo per gli elementi con a1 > 0, mostra che
fissato Mδ si ottiene una sfera intorno all’origine di R3 di raggio η corrispondente
a un insieme completamente contenuto in Mδ e con corrispondenza biunivoca.
Il gruppo SU (2) ha dimensione 3. Le tre matrici derivate in α 1 = α2 = α3 = 0
sono una base per uno spazio vettoriale tridimensionale reale
     
1 0 i 1 0 1 1 i 0
a1 = a2 = a3 = .
2 i 0 2 1 0 2 0 −i

Più in generale possiamo considerare alcuni importanti gruppi di Lie lineari, che
sono gruppi di matrici o gruppi ad essi isomorfi:

O(N ), SO(N ), SU (N ), U (N )

O(N ) è il gruppo delle matrici reali A ortogonali N × N con |det A| = 1,


N ≥ 2, di dimensione 21 N (N − 1)
SO(N ) è il gruppo delle matrici reali A ortogonali N × N con det A = 1,
N ≥ 2, di dimensione 21 N (N − 1)
SU (N ) è il gruppo delle matrici complesse u unitarie N × N con det u = 1,
N ≥ 2, di dimensione N 2 − 1
U (N ) è il gruppo delle matrici complesse u unitarie N × N , N ≥ 2, di
dimensione N 2 .
Sono tutti gruppi di Lie lineari reali indipendentemente dalla natura (reale
o complessa) delle matrici. La definizione di U (N ) va bene anche per N = 1. Il
gruppo U (1) è il gruppo delle matrici unitarie 1 × 1 (unidimensionale)

u = (eiα1 )

α1 è un buon parametro ai sensi della definizione di gruppo di Lie lineare


nell’intervallo
−π ≤ α1 < π.

Introduciamo per completare quanto sopra indicato alcune definizioni ed


osservazioni.

186
Componente connessa di un gruppo di Lie lineare è l’insieme di tutti gli
elementi che si possono ottenere variando con continuità gli elementi di matrice
della rappresentazione fedele. Ad esempio: il gruppo dei numeri reali rispetto
alla moltiplicazione ha due componenti connesse: quella con t > 0 e quella con
t < 0.
La componente connessa di un gruppo di Lie lineare che contiene l’identità
è un sottogruppo invariante di G, il sottoruppo connesso di G.
Un gruppo di Lie lineare è connesso se possiede solo una componente con-
nessa.
Un gruppo di Lie lineare e connesso può essere interamente parametrizzato
mediante n−ple ordinate di numeri reali

y1 , y2 , ..., yn ∈ Rn

che costituiscano in Rn un insieme connesso.


Si noti che tale parametrizzazione di tutto il gruppo connesso, non coin-
cide necessariamente con la parametrizzazione della definizione di gruppo di Lie
lineare, che implica la biunivocità in un intorno dell’identità.
Ad esempio la parametrizzazione di SU (2)

u ∈
SU (2) ⇒ (y1 , y2 , y3 ) ∈ R3
π
0 ≤ y1 ≤ − π ≤ y2 ≤ π − π ≤ y3 ≤ π
2
data da  
cos y1 eiy2 sin y1 eiy3
u=
− sin y1 e−iy3 cos y1 e−iy2
è una parametrizzazione di tutto il gruppo, ma non soddisfa la biunivocità
proprio nell’origine, dal momento che e è identificata da y1 = 0, y2 = 0 e y3
qualunque. Per questo tale parametrizzazione, adatta per mostrare la connes-
sione del gruppo, non è adatta per ricavare le matrici linearmente indipendenti
della (6.4): la terza matrice sarebbe nulla e questo non va bene per una base...

187
6.4 Esponenziale di una matrice, mappe espo-
nenziali.
Richiamiamo che cosa si intende per esponenziale di una matrice A; le definizioni
sono facilmente trasportabili dalle matrici n×n agli operatori lineari A che agis-
cono in un spazio vettoriale, dal momento che le matrici sono rappresentazioni
di operatori lineari.
Se A è una matrice n × n

X
A Aj
e = 1+
j=1
j!

La matrice n × n costituita da eA è definita per qualunque A e costituisce una


mappa continua e biunivoca di un intorno della matrice nulla 0 in un intorno
della matrice identità 1.
Il prodotto di due esponenziali eA ed eB esiste ed è un esponenziale di una
terza matrice eC
eA eB = e C
se converge la serie di matrici
1 1
C = A + B + [A, B] + {[A, [A, B]] + [B, [B, A]]} + .... (6.8)
2 12
Questo è noto come teorema di Campbell, Baker e Hausdorff. Se [A, B] = 0
allora eA eB = eB eA = eA+B .
Riassumiamo poi alcune proprietà degli esponenziali di matrici, facilmente
dimostrabili: ∗ ∗ T T † †
eA = e A eA = e A eA = e A
−1
eSAS = SeA S−1
Se λ1 , λ2 , ..., λn sono gli autovalori di A, allora eλ1 , eλ2 , ..., eλn sono gli
autovalori di eA . Da questa segue

det(eA ) = eTr(A) .

Inoltre esiste sempre la matrice inversa di eA che è


−1
eA = e−A

6.5 Sottogruppi ad un solo parametro.


Consideriamo la matrice:

0 0 0
A1 =  0 0 1  .
0 1 0

188
j−1
Osservando che per j dispari (θA1 )j = (−1) 2 θj A1 , mentre per j pari
j
(θA1 )j = (−1) θ j 1, si ottiene
2

 
1 0 0
eθA1 =  0 cos θ sin θ  (6.9)
0 − sin θ cos θ
La matrice, funzione di θ, rappresenta una rotazione passiva di un angolo θ
attorno alla direzione x̂ (o una rotazione attiva di −θ), che è un elemento di
un sottogruppo ad un solo parametro del gruppo delle rotazioni in 3D, costi-
tuito da tutte le rotazioni attorno all’asse x. Tutto questo è immediatamente
generalizzabile.
Un sottogruppo ad un solo parametro di un gruppo di Lie lineare è costituito
dagli elementi h(t) ∈ G,con t reale, tali che
h(s)h(t) = h(s + t)
da cui segue per le matrici di una rappresentazione
A(s)A(t) = A(s + t)
A t = 0 deve corrispondere l’identità A(0) = 1 e inoltre si ha s + t = t + s. Il
sottogruppo ad un solo parametro è un gruppo di Lie lineare Abeliano. Per
garantire la univocità nell’intorno dell’identità deve essere
 
dA
a= 6= 0
dt t=0
diversa dalla matrice nulla.
Ogni sottogruppo ad un parametro di un gruppo di Lie lineare di matrici
m × m si forma per esponenziazione di matrici m × m.
La dimostrazione è semplice. Si pone
dA
Ȧ(t) = a = Ȧ(0) (6.10)
dt
Si definisce
B(t) = A(t)e−tȦ(0) (6.11)
e si deriva
 
Ḃ(t) = Ȧ(t)e−tȦ(0) − A(t)Ȧ(0)e−tȦ(0) = Ȧ(t) − A(t)Ȧ(0) e−tȦ(0)

Essendo
A(t + s) − A(t) A(s) − A(0)
Ȧ(t) = lim = lim A(t) = A(t)Ȧ(0)
s→0 s s→0 s
si ha
Ḃ(t) = 0 ovvero B(t) = B(0) = A(0) = 1
Dalla (6.10) e dalla (6.11) segue
A(t) = eta .

189
6.6 Algebre di Lie.
Un’algebra di Lie è costituita da uno spazio vettoriale L e da un’operazione
bilineare [., .] da L × L in L con le seguenti proprietà:

[x1 + x2 , y] = [x1 , y] + [x2 , y] (6.12)

[αx, y] = α[x, y] (6.13)


[x, y] = −[y, x] (6.14)
[x, [y, z]] + [y, [z, x]] + [z, [x, y]] = 0 (6.15)
dove l’ultima proprietà prende nome di identità di Jacobi.
L’operazione bilineare qui descritta ha le proprietà già note del commuta-
tore [x, y] = xy − yx, definito in termini di un altro prodotto xy (associati-
vo, lineare e non commutativo). Notiamo che le proprietà qui descritte sono
quella dell’ordinario prodotto vettoriale x × y. Inoltre l’identità di Jacobi
è in alternativa alla proprietà associativa del prodotto, essendo equivalente a
[x, [y, z]] = [[x, y], z] + [[z, x], y], che diviene [x, [y, z]] = [[x, y], z] se [z, x] = 0.
Una rappresentazione di un’algebra L è un omomorfismo di L in un’algebra
di trasformazioni lineari definite su uno spazio vettoriale V di dimensione d. d
si dice dimensione della rappresentazione.
Una rappresentazione di un gruppo G è un omomorfismo di G in un’alge-
bra di trasformazioni lineari di uno spazio vettoriale V di dimensione d. d si
dice dimensione della rappresentazione. La rappresentazione si dice fedele, se
l’omomorfismo è anche un isomorfismo.
Un sottospazio vettoriale V1 ⊂ V si dice sottospazio invariante della rap-
presentazione se T v ∈ V1 quando v ∈ V1 e T è l’immagine di un qualunque
elemento di L o di G. Una rappresentazione si dice irriducibile se non ha sot-
tospazi invarianti propri, diversi cioè da {0} e V. Altrimenti si dice riducibile.
Essa è poi completamente riducibile se tutte le trasformazioni lineari possono
essere poste in forma di matrici con la stessa struttura a blocchi sulla diagonale,
ciascun blocco agendo sul corrispondente sottospazio invariante.
Consideriamo la rappresentazione T del gruppo continuo G nello spazio vet-
toriale V. Ad ogni r-pla di parametri, a1 , a2 , ..., ar che individua l’elemento del
gruppo corrisponde una trasformazione lineare T (a1 , a2 , ..., ar ) che opera nel-
lo spazio vettoriale V. La scelta dei parametri può essere fatta in modo che
alla r-pla nulla corrisponda l’elemento unità, ovvero esso sia rappresentato
dall’operatore identità E. Sviluppando attorno all’identità
X
T (ai ) ' E + a i Xi
i

dove gli Xi sono operatori lineari indipendenti dai parametri ai , si dicono oper-
atori infinitesimi o generatori del gruppo nella rappresentazione considerata e
possono essere espressi come derivate parziali
∂T (a1 , a2 , ..., ar )
Xi = |a1 =a2 =...=ar =0
∂ai

190
Per ogni rappresentazione T del gruppo G, i generatori Xi soddisfano le re-
lazioni di commutazione X
k
[Xi , Xj ] = Cij Xk (6.16)
k
k
dove Cij sono le costanti di struttura del gruppo.
Cosı̀ i generatori di un gruppo di Lie formano un algebra di Lie, mentre
i commutatori dei generatori definiscono le operazioni bilineari dell’algebra di
Lie. Se a e b apparengono a L
r
X r
X
a= α i Xi b= β i Xi
i=1 i=1

r
X
k
[a, b] = αj β l Cjl Xk
j,l,k=1

Anche [a, b] ∈ L è completamente determinato dalla conoscenza delle costanti


di struttura, che compaioni nella (6.16)

Un esempio.
SO(3) è il gruppo delle matrici A reali 3 × 3 con det A = 1. Esso è isomorfo
al gruppo delle rotazioni T su R3 . Si intende qui la rotazione propria T che
trasforma r in r0 mediante una rotazione del sistema di coordinate: r0 è il vettore
r nel sistema di coordinate ruotato (rotazione passiva). Accanto a questi due
gruppi consideriamo anche il gruppo delle trasformazioni P (T ) sulle funzioni
scalari
P (T )f (r) = f (R(T )−1 r)
e i tre gruppi sono mutuaamente isomorfi.

T ←→ R(T ) ←→ P (T ) R(T ) ∈ SO(3).

Una rotazione propria T appartiene all’insieme delle rotazioni attorno ad uno


stesso asse, che costituiscono un sottogruppo (abeliano) ad un solo parametro.
Corrispondentemente ciascuna matrice A o R(T ) di SO(3) appartiene ad un-
sottogruppo ad un solo parametro ed esisterà una matrice reale a 3 × 3 tale che
A = exp(ta). Essendo la matrice A reale ed ortogonale, AT = A−1 , aT = −a.
Viceversa se aT = −a, A = exp(ta) ∈ SO(3).
Allora ogni elemento di SO(3) si può ottenere dalla esponenziazione di una
matrice 3 × 3 antisimmetrica. Lo spazio delle matrici reali antisimmetriche 3 × 3
è a sua volta uno spazio vettoriale reale tridimensionale con una base che può
essere scelta in questo modo
     
0 0 0 0 0 −1 0 1 0
a1 =  0 0 1  a2 =  0 0 0  a3 =  −1 0 0  .
0 −1 0 1 0 0 0 0 0

191
Infatti  
0 a12 −a31
a= 0 0 a23  = a23 a1 + a31 a2 + a12 a3 .
a31 −a23 0
Le tre matrici (associate ciascuna al sottogruppo ad un parametro costituito
dalle rotazione attorno ad uno degli assi coordinati: Ox, Oy, Oz) formano la
base di un’agebra di Lie reale, i cui prodotti (commutatori) sono dati da

[a1 , a2 ] = −a3 [a2 , a3 ] = −a1 [a3 , a1 ] = −a2

Quindi le cui costanti di struttura dell’algebra di Lie so(3), associata al gruppo


di Lie SO(3), sono
k
Cjl = −jkl .
In generale indicheremo con le lettere minuscole le algebre di Lie corrispondenti
all’omonimo gruppo di Lie, indicato con lettere maiuscole.
Si possono vedere le corrispondenti proprietà nel gruppo degli operatori P (T )

P (T )f (r) = f ((eta )−1 r) = f (e−ta r)

Cosı̀ come è possibile definire a

a = lim (e−ta − 1)/t


t→0

si può ottenere
P (a) = lim (P (e−ta ) − P (1))/t
t→0

In questo modo possiamo scrivere

P (a)f (r) = lim (f (e−ta r) − f (r))/t


t→0

e poichè per piccoli valori di t


1 T
f (e−ta r) = f ((1 − ta + t2 a2 − ...)r) ' f (r − tar) = f (r) − t (ar) ∇f (r).
2
Segue allora che
P (a) = −rT aT ∇
dove ∇ è il vettore gradiente in formato colonna.
∂ ∂ ∂ ∂ ∂ ∂
P (a1 ) = y −z P (a2 ) = z −x P (a3 ) = x −y . (6.17)
∂z ∂y ∂x ∂z ∂y ∂x
I tre operatori riproducono le stesse regole di commutazione delle tre matrici
a1 , a 2 e a 3 .

[P (a1 ), P (a2 )] = −P (a3 ) [P (a2 ), P (a3 )] = −P (a1 ) [P (a3 ), P (a1 )] = −P (a2 )

In generale
[P (a), P (b)] = P ([a, b]).

192
Dalle relazioni (6.17) è evidente che a meno di una costante i generatori P (a j )
del gruppo delle trasformazioni P (T ) coincidono con le componenti dell’opera-
tore vettoriale momento angolare orbitale della meccanica ondulatoria.
~
Lj = P (aj )
i
Le regole di anticommutazione divengono

[Lx , Ly ] = i~Lz [Ly , Lz ] = i~Lx [Lz , Lx ] = i~Ly

quelle ben note del momento angolare. Il passare da espressioni reali a valori
complessi dei generatori, ovvero da un’algebra di Lie reale alla sua generaliz-
zazione complessa, risulta utile. Si possono definire gli operatori di innalzamento
ed abbassamento
L+ = Lx + iLy L− = Lx − iLy .

In generale è conveniente passare da un’algebra di Lie reale ad una cor-


rispondente algebra di Lie complessa, con le stesse dimensioni, la stessa base, a
meno di fattori moltiplicativi, e quindi le stesse costanti di struttura a meno di
fattori moltiplicativi. Un’algebra di Lie complessa di dimensione n è uno spazio
vettoriale complesso di dimensione n in cui è definito un prodotto di Lie o com-
mutatore, con le proprietà (6.12-6.15) con α complesso. Lo studio delle algebre
di Lie complesse è più semplice e vantaggioso dello studio delle algebre di Lie
reali. In questo modo è possibile associare i generatori ad operatori hermitiani
come Li e gli esponenziali
β
exp(−i i Li )
~
divengono operatori unitari. Si noti che nella precedente espressione abbiamo
sottointeso la somma su i entro l’argomento dell’esponenziale. Questi operatori
unitari sono importanti, in quanto realizzano delle trasformazioni unitarie nello
spazio vettoriale degli stati in meccanica quantistica.
Prima di passare allo studio delle algebre di Lie al caso complesso, vediamo
alcune proprietà importanti delle algebre di Lie reali e alcuni esempi. Alcuni
enunciati:
1) Ciascun gruppo di Lie lineare G può essere pensato come un gruppo di
matrici A m × m. La parametrizzazione biunivoca di un intorno dell’identità
con n parametri reali (n dimensione del gruppo) (x1 , x2 , ..., xn ) ∈ Rn definisce
la funzione matrice
A (x1 , x2 , ..., xn )
le cui componenti sono funzioni analitiche di (x1 , x2 , ..., xn ) .
Le n matrici m × m a1 , a2 , ..., an

 
∂Ajk
(ap )jk = (j, k = 1, 2, ...m; p = 1, 2, ..., n) (6.18)
∂xp x1 =x2 =...=xn =0

193
sono una base per uno spazio vettoriale a n dimensioni.
2) Si definisce curva analitica in G l’insieme di matrici

A (t) = A (x1 (t), x2 (t), ..., xn (t))

dove xp (t) (p = 1, 2...n) sono funzioni analitiche di t in t ∈ [0, t0 ) con t0 > 0.


3) Si definisce vettore tangente (nell’identità) alla curva analitica la matrice
 
dA
a=
dt t=0

Il vettore tangente a alla curva analitica A (t) in G è un’elemento dello spazio


vettoriale che ha per base le matrici (6.18).
4) Se a e b sono i vettori tangenti alle curve analitiche A (t) e B (t) in G
allora la matrice
[a, b] = ab − ba
è il vettore tangente alla curva analitica C (t) in G
√  √  √ −1 √ −1
C (t) = A t B t A t B t . (6.19)

La dimostrazione si basa sulla relazione (6.8).


5) A ciascun gruppo di Lie lineare G è associata un’algebra di Lie reale L
con le stesse dimensioni, la cui base è data da (6.18).
6) A ciascun algebra di Lie reale L corrisponde un gruppo di Lie lineare G.
7) Ad ogni elemento a di un’algebra di Lie reale L corrisponde un sottogrup-
po ad un parametro del gruppo di Lie lineare G

A(t) = eta −∞ <t<∞

8) Ogni elemento del gruppo di Lie lineare G in un intorno dell’identità


appartiene a un sottogruppo ad un parametro di G e quindi può essere ottenuto
esponenziando qualche elemento della corrispondente algebra di Lie.
9) Se G è un gruppo di Lie compatto ogni elemento del sottogruppo connesso
di G può essere espresso nella forma

ea

dove a è un elemento della corrispondente algebra di Lie reale. In particolare


se G è compatto e connesso ogni elemento può essere espresso come esponente
di una matrice dell’algebra.
10) Ogni elemento di un sottogruppo connesso di un qualunque gruppo di
Lie lineare G può essere espresso come un prodotto finito di esponenziali di
elementi della sua algebra di Lie reale L.
Alcuni altri esempi.
A) SU (N ).
Sia
eta (6.20)

194
un sottogruppo ad un parametro di G ≡ SU (N ). a è una matrice N ×N . Poichè
eta deve essere unitario
a† = −a (6.21)
ovvero a (come ta) è una matrice antihermitiana. Inoltre poichè

det(eta ) = 1

si avrà
tr a = 0 (6.22)
e quindi l’algebra L =su(N ) è costituita deall’insieme delle matrici antihermi-
taiane a traccia nulla. Ogni elemento di SU (N ) può essere scritto nella forma
(6.20), le proprietà (6.21-6.22) mostrano che la dimensione è N 2 − 1.
B) SL(2, R).
E’ il gruppo delle matrici reali 2 × 2 con det A = 1. Anche qui vi sono
elementi di G della forma eta . Si richiede di nuovo alla matrice a di avere
traccia nulla. L’algebra di Lie corrispondente, sl(2, R), è l’algebra delle matrici
2 × 2 a traccia nulla. Gli autovalori delle matrici a, reali o immaginari puri,
sono opposti: λ1 = − λ2 . Nel caso che siano reali la matrice esponente che si
ottiene dalla forma diagonale è
 λt 
e 0
0 e−λt

che ha i termini diagonali entrambi positivi. Nel caso di autovalori immaginari


la matrice diagonale esponente ha i termini diagonali di modulo 1.
Questi due casi non comprendono la matrice
 
r 0
A=
0 1/r

con r < −1, che è una matrice del gruppo connessa all’identità 1, dal momen-
to che è connessa alla matrice −1 e che questa è connessa alla matrice 1 dal
sottogruppo ad un parametro
 
cos θ sin θ
.
− sin θ cos θ

La matrice A non può essere scritta in una forma con un solo esponenziale come
la eq. (6.20) ma può essere scritta come prodotto di due esponenziali:
   
1 0 0 1
A = exp (λa1 ) exp(πa2 ) a1 = a2 = .
0 −1 −1 0

Questo è legato al fatto che SL(2, R) è connesso ma non compatto: una mappa
esponenziale del tipo exp(a) fornisce sempre una mappa di L in G. Questa
mappa è una mappa su G se il gruppo G è connesso e compatto. Se G è
connesso ma non compatto ogni elemento di G è esprimibile come prodotto di
esponenziali di elementi di L.

195
Un elenco dei gruppi di Lie reali e delle corrispondenti algebre di Lie reali,
con le proprietà delle matrici A e dei generatori a e con le dimensioni si può
trovare a pag. 150 di J.F.Cornwell, Group Theory in Physics: an introduction,
Academic Press, 1997 o a pag. 392 del trattato Group Theory in Physics dello
stesso autore.

196
6.7 Gruppi di Lie e Algebre di Lie semisemplici.
Consideriamo la struttura generale dei gruppi di Lie. Ad ogni elemento del
gruppo G, corrisponde un operatore U , che opera in uno spazio vettoriale V ,
funzione di d parametri (α1, α2 , ..., αd ) = α. Tali operatori hanno la stessa tavola
di moltiplicazione degli elementi del gruppo. Indicheremo ciascun operatore con
U (αi ) . L’operatore può essere anche funzione delle coordinate o delle derivate
rispetto alle coordinate, ma questo non sarà esplicitamente indicato. Con la
scelta dei parametri tale che U (0, 0, ..., 0) = 1, l’operatore identità, definiremo

∂U (α)
Lk = i | (6.23)
∂αk α=0
come i generatori del gruppo. In tal modo, con uno spostamento infinitesimo
nello spazio dei parametri dall’identità, potrò scrivere, sfruttando la continuità
e la differenziabilità che
U (δα) = I − iδαk Lk (6.24)
dove, da questo momento in poi, non indicheremo il simbolo di somma sugli
indici ripetuti, ma lo sottointenderemo, salvo preavviso. E possibile dato un
insieme finito di parametri scrivere in forma esponenziale l’operatore a partire
dalla forma infinitesima. Posto δαk = ak /N

αk L k N
U (α) = lim (I − i ) = exp(−iαk Lk ) (6.25)
N →∞ N
In questo modo fissato un qualunque valore dei parametri, anche piccoli, δαk
potremo scrivere, a tutti gli ordini, lo sviluppo
1 i
U (δα) = I − iδαk Lk − δαk δαj Lk Lj + δαk δαj δαm Lk Lj Lm + ... (6.26)
2! 3!
Dal modo in cui abbiamo scritto la (6.24) e la (6.23), se vogliamo che l’oper-
atore U sia unitario, ovvero che U −1 = U † , occorre che i generatori Lk siano
hermitiani, ovvero che L†k = Lk . Inoltre, dal momento che vi è una sola identità
nel gruppo, occorre che per qualunque valore di δα sia δαk Lk 6= 0. I generatori
Lk devono essere linearmente indipendenti.
Da questo momento, anche se il gruppo di Lie considerato è reale, assoceremo
agli elementi del gruppo operatori lineari unitari ed esprimeremo questi ultimi
in funzione di generatori, dati dalla eq. (6.23) tramite la (6.25), espressioni in
cui compare l’unità immaginaria.
Consideriamo due set di parametri δα e δβ e consideriamo la successione
delle quattro trasformazioni infinitesime

U −1 (δβ) U −1 (δα) U (δβ) U (δα) .

Poichè in generale non commutano l’operatore non coincide con l’identità a


meno di termini in δαk δβ m . Esisterà quindi una trasformazione U (δγ) uguale

197
al prodotto delle 4 trasformazioni. Conviene sviluppare le U ed i prodotti
fermandosi al secondo ordine
1 1
(I + iδβ m Lm − δβ m δβ n Lm Ln )(I + iδαk Lk − δαk δαi Lk Lj )
2 2
1 1
×(I − iδβ n Ln − δβ m δβ n Lm Ln )(I − iδαj Li − δαk δαi Lk Lj )
2 2
I termini al primo ordine si sommano a 0. Dei dieci termini al secondo ordine
ne rimangono solo due e quindi

U −1 (δβ) U −1 (δα) U (δβ) U (δα) = I + δαk δβ m (Lk Lm − Lm Lk )

che posso scrivere come


U (δγ) = I − iδγ j Lj
E’ possibile visulizzare la sequenza delle trasformazioni come una poligonale non
chiusa nello spazio dei parametri con un estremo nell’origine come indicato in
Figura (6.1). Al tendere a zero di δαk e di δβ m separatamente dovrà tendere a
zero anche δγ j . Posso scrivere
j
−iδγ j = Ckm δαk δβ m

da cui
j
[Lk , Lm ] = Ckm Lj (6.27)
relazioni che definiscono le costanti di struttura del gruppo di Lie o della sua
Algebra di Lie, che è l’algebra dei suoi generatori. Va notato che dalla definizione
(6.23) segue che le costanti di struttura possono essere complesse. Il prodotto di
Lie [Lk , Lm ] coincide con il commutatore Lk Lm − Lm Lk .
Vediamo alcune propriet̀a delle costanti di struttura. Da quelle del commu-
tatore:
j j
Ckm = −Cmk (6.28)
Dalla identità di Jacobi,

[[Li , Lj ], Lk ] + [[Lj , Lk ], Li ] + [[Lk , Li ], Lj ] = 0

si ha
Cijm [Lm , Lk ] + Cjkm [Lm , Li ] + Ckim [Lm , Lj ] = 0
Cij m Cmkn Ln + Cjkm Cmin Ln + Ckim Cmjn Ln = 0
ovvero
Cij m Cmkn + Cjkm Cmin + Ckim Cmjn = 0 (6.29)
dove, si noti, si somma sul solo indice ripetuto m, mentre gli indici ijkn sono
fissi. Tra questi i tre indici ijk compaiono nelle sole tre permutazioni di classe
pari.

198
-da B

C
db

-db
A

D da
dg
O

Figura 6.1: Schematizzazione dell’effetto delle quattro trasformazioni infinites-


ime in sequenza, discusse nel testo. Equivale ad una singola trasformazione
infinitesima.

Nello spazio vettoriale dei vettori tridimensionali costanti {v} l’operatore di


trasformazione associato al gruppo delle rotazioni spaziali attorno all’asse ẑ è
 
cos θ − sin θ 0
 sin θ cos θ 0 
0 0 1
Dalla (6.23) il generatore S3 è rappresentato da
 
0 −i 0
S3 =  i 0 0 
0 0 0
Gli altri due generatori sono rappresentati dalle matrici
   
0 0 0 0 0 i
S1 =  0 0 −i  , S2 =  0 0 0 
0 i 0 −i 0 0
Si vede che in questa, come nelle altre rappresentazioni del gruppo continuo
delle rotazioni spaziali
[Si , Sj ] = ieijk Sk
ovvero le costanti di struttura sino Cij k = ieijk . E’ facile verificare la (6.29),
esplicitando la somma su m,
X
(i)2 (eijm emkp + ejkm emip + ekim emjp ) =
m
(−1)(δ ik δ jp − δ ip δ kj + δ ij δ kp − δ jp δ ik + δ kj δ ip − δ kp δ ij ) = 0.

199
Vale la pena osservare che i tre generatori S1 , S2 , S3 qui introdotti per le trasfor-
mazioni dei vettori in 3D, hanno una espressione diversa rispetto ai generatori
J1 , J2 , J3 già visti nello spazio vettoriale con N = 3, degli stati | jm > con
j = 1. Gli uni possono essere ottenuti dagli altri mediante una trasformazione.
Se un gruppo di Lie G possiede un sottogruppo invariante continuo, questo
è un gruppo di Lie con i sui generatori

Ak per k = 1, ..., m

dove m è la dimensione del sottogruppo continuo. I restanti d − m generatori


di G sono
Gl per l = 1, ..., d − m.
Per i generatori del sottogruppo invariante si avrà la sottoalgebra

[Aj , Ak ] = bjkl Al (6.30)

mentre per i restanti generatori sarà

[Gj , Ak ] = djkl Al (6.31)

Quindi sono nulle le costanti di struttura che connettono un generatore del


gruppo che non è generatore del sottogruppo invariante ed un generatore del
sottogruppo invariante ai generatori del gruppo che non sono generatori del sot-
togruppo invariante. Questa proprietà è di facile dimostrazione considerando il
prodotto di quattro elementi nell’intorno dell’identità usato nel teorema iniziale
−1
G−1
ν Aλ Gν Aλ = A ρ Aλ = A γ

Nei commutatori misti possono comparire solo i generatori del sottogruppo in-
variante. Se lo spazio dei generatori di un gruppo di Lie ha una sottoalgebra
(6.30) si dice che possiede un ideale. Se i commutatori nella (6.30) sono tutti
nulli si dice che possiede un ideale abeliano. Queste definizioni si applicano sia
ai Gruppi di Lie, sia alle algebre dei loro generatori. Ancora se un gruppo di
Lie non possiede un ideale si dice semplice, se non possiede un ideale abeliano
si dice semisemplice. Cosı̀ le loro algebre.
Si dice rango di un gruppo di Lie il numero massimo di commutatori nulli tra
un qualunque generatore e l’insieme dei generatori. Per il gruppo delle rotazioni
SO(3) il rango è 1, mentre per il gruppo abeliano delle traslazioni in 3D il rango
è 3. Per tale gruppo, che ha per generatori i pi con [pi , pj ] = 0 e per parametri
(ρ1 , ρ2 , ρ3 ) = ρ,

U (ρ) = exp(−iρa pa ) = exp(−iρ1 p1 ) exp(−iρ2 p2 ) exp(−iρ3 p3 )

dove l’ultima eguaglianza deriva dai commutatori nulli tra i generatori. Questo
gruppo non è né semplice né semisemplice. Come accade per il gruppo continuo
a 6 dimensioni costituito da rotazioni e traslazioni.
Un criterio per verificare la semisemplicità di un gruppo di Lie si ottiene
andando a considerare la rappresentazione aggiunta o regolare, d dimensionale,

200
del gruppo. Questa è una rappresentazione costituita da matrici associate a
ciascun generatore, mediante le costanti di struttura, facendo attenzione - come
si vedrà più avanti - alla posizione degli indici
Dba (Li ) = Ciab
Queste d matrici linearmente indipendenti definiscono uno spazio vettoriale d
dimensionale. Si può introdurre un prodotto (Li , Lj ) definito come la traccia del
prodotto delle due matrici rappresentative D(Li ) e D(Lj ). Tali d × d prodotti
costituiscono il tensore metrico simmetrico

gij = gji = (Li , Lj ) = Ciab Cjba = Dba (Li )Dab (Lj )


Se il gruppo non è semisemplice il determinante del tensore metrico è nullo.
Per dimostrare ciò, marchiamo gli indici associati ai generatori del sottogruppo
invariante abeliano con un apice. Sia questo j che diviene j 0
0
gij 0 = Ciab Cj 0ab = Ciab 0 Cj 0ab
anche l’indice a viene marcato a causa della (6.31). Poi dalla (6.29) e ancora
dalla (6.31)
0 0 0 0
gij 0 = −Ca0bi Cj 0ab = −Ca0bi Cj 0ab0 = −Ca0bi × 0 = 0
Essendo 0 tutti gli elementi di una colonna det(gij ) = 0. Invece se det(gij ) 6= 0
il gruppo è semisemplice.
E’ interessante calcolare il determinante del tensore metrico di SO(3).
gij = −eikl ejlk = eikl ejkl = 2δ ij
det(gij ) = 8.
Il tensore metrico è invertibile e il tensore metrico inverso sarà nel nostro
caso g ij = (1/2)δij .
Chiamiamo operatore invariante o operatore di Casimir un operatore, fun-
zione dei generatori del gruppo, che commuti con tutti i generatori e quindi con
tutti gli operatori associati agli elementi del gruppo.
A questo punto è possibile formulare il teorema di G. Racah (1909-65). Per
ogni gruppo semisemplice di rango l, esistono l distinti operatori di Casimir,
che commutano tra di loro e con ogni generatore del gruppo. Essi sono esprim-
ibili come funzioni dei generatori del gruppo. Gli autovalori degli operatori di
Casimir definiscono in modo unico i multipletti del gruppo di Lie, ovvero i sot-
tospazi invarianti irriducibili su cui operano gli operatori associati agli elementi
del gruppo.
Un esempio. SO(3) è di rango 1, è semisemplice. Ha un operatore di Casimir
J2 = J12 + J22 + J32 , che è una forma bilineare nei generatori. [J2 , Ja ] = 0. Gli
autovalori di J2 sono j(j + 1) e ciascun valore di j identifica un sottospazio in-
variante irriducibile, che fornisce per i generatori e tutti gli operatori del gruppo
una base [j] = 2j + 1 dimensionale | jm > o multipletto.

201
6.8 Un invariante di Casimir.

Se il gruppo è semisemplice il tensore metrico gab è invertibile. L’inverso è


g ab . Il numero degli invarianti è pari al rango del gruppo. Uno degli operatori
invarianti è sempre dato da
C1 = g ab La Lb (6.32)
Infatti
[C1 , Ls ] = g ab [La Lb , Ls ] = g ab La [Lb , Ls ] + g ab [La , Ls ]Lb =
= g ab Cbsk La Lk + g ab Cask Lk Lb = g ab Cbsk La Lk + g ba Cbsk Lk La
dove nel secondo termine ho scambiato gli indici ripetuti, su cui si somma, a e
b.Sfruttando il fatto che il tensore metrico è simmetrico
[C1 , Ls ] = g ab Cbsk (La Lk + Lk La ) (6.33)
Grazie al tensore metrico inverso posso scrivere
Cbsk = g rk Brbs da cui Brbs = grl Cbsl
Quindi, dalla definizione di tensore metrico e dalle proprietà delle costanti di
struttura,
Brbs = grl Cbsl = Crpq Clqp Cbsl = Crpq Cbsl Clqp = −Crpq (Csql Clbp + Cqbl Clsp )

Bsrb = −Cspq (Cbql Clrp + Cqrl Clbp ) = −Crlp Cspq Cqbl − Crql Cpsq Clbp =
= −Crpq Csql Clbp − Crpq Clsp Cqbl = Brbs
Vale anche
Bbsr = Brbs
ovvero permutando ciclicamente gli indici non cambiano i valori. Se invece si
cambiano due indici tra di loro ovvero se si passa a permutazioni degli indici di
classe opposta si ottiene il segno opposto infatti dalla definizione è chiaro che
Brbs = −Brsb
e quindi anche
Bsrb = Bbsr = −Brsb .
Dalla (6.33) si può scrivere allora
[C1 , Ls ] = g ab Cbsk (La Lk + Lk La ) = g ab g rk Brbs (La Lk + Lk La )
dove compaiono somme di prodotti di elementi di tensori doppi nelle coppie di
indici (ab)(rk)(rb)(ak). Tre dei tensori sono simmetrici e uno antisimmetrico
(Brbs nei primi due indici). L’espressione pertanto è nulla.
[C1 , Ls ] = 0
La espressione (6.32) prende anche il nome di forma di Killing.

202
6.9 Le rappresentazioni dei generatori.
Una rappresentazione di un’algebra di Lie è una mappa dell’algebra (cioè dello
spazio vettoriale che ha per base i suoi generatori) su uno spazio di matrici D,
con le seguenti proprietà. Associando ad ogni generatore una matrice

Li → D(Li ) (6.34)

per ogni i, si definisce

D(αi Li + αj Lj ) = αi D(Li ) + αj D(Lj ) (6.35)

per qualunque i e j, in modo che sia

D([Li , Lj ]) = [D(Li ), D(Lj )] (6.36)

Si può costruire la rappresentazione, ovvero la forma esplicita delle matrici,


scegliendo una base ortonormale| φk > tale che

Li | φj >= Dkj (Li ) | φk > (6.37)

dove si ricorda che la somma sottointesa corre sull’indice k e si sottolinea il


fatto che l’indice su cui si somma è il primo indice di Dkj . Questo al fine di
poter scrivere, proiettando su | φl >

Dlj (Li ) =< φl | Li | φj >,

nella forma usuale dell’elemento di matrice in meccanica quantistica. Dalla


relazione
X
< φn | Li | φm >< φm | Lj | φk >=< φn | Li Lj | φk >
m

che proviene dalla X


| φm >< φm |= 1
m

e che trascrivo come


X
Dnm (Li ) Dmk (Lj ) = Dnk (Li Lj )
m

il consueto prodotto matriciale. Dalla

< φn | αi Li + αj Lj | φm >= αi < φn | Li | φm > +αj < φn | Lj | φm >

che trascrivo come

Dnm (αi Li + αj Lj ) = αi Dnm (Li ) + αj Dnm (Lj )

203
seguono le proprietà (6.35) e (6.36). La dimensione della rappresentazione (or-
dine delle matrici) è la dimensione dello spazio vettoriale che ha per base i
| φk > .

Per realizzare la rappresentazione regolare o aggiunta si costruisce una base


di vettori associata ai generatori stessi con la corrispondenza:

Li →| Li >

con le due proprietà


Li | Lj >= Cijk | Lk >
< Lj | Lk >= δ ik
Ne segue che
Dkj (Li ) =< Lk | Li | Lj >= Cijk
che è appunto la definizione di rappresentazione regolare od aggiunta in termini
delle costanti di struttura, come introdotto in precedenza.
Che questa scelta verifichi la (6.35) è evidente, mentre, per provare la (6.36),
devo provare che
X
Dnm (Li ) Dmk (Lj ) = Dnk (Li Lj )
m

Sottintendendo la somma su m, devo provare quindi che

Cimn Cjkm =< Ln | Li Lj | Lk >= Cjkm < Ln | Li | Lm >

= Cjkm Cimn
che risulta proprio un’identità. Inoltre scrivendo la (6.36) come

Dnk (Li Lj − Lj Li ) = Dnm (Li )Dmk (Lj ) − Dnm (Lj )Dmk (Li )

Dnk (Cijm Lm ) = Cimn Cjkm − Cjm


n
Cikm
da cui
Cijm Cmk
n
= −Cjkm Cmin − Ckim Cmj
n

si ha la relazione di Jacobi.

204
6.10 Radici e pesi di un’algebra semplice.
Vogliamo estendere ad un gruppo di Lie di rango m quanto già visto per SU (2),
dove per insieme dei generatori avevamo scelto J3 e J± . J3 costituiva da solo
l’insieme dei generatori hermitiani diagonalizzabili simultaneamente (ce ne era
uno solo), mentre J± erano gli operatori di innalzamento ed abbassamento.
In generale se Xa sono i generatori di un gruppo di Lie semplice, occorre
vedere quanti di essi sono diagonalizzabili simultaneamente, in una qualsiasi
rappresentazione. Posto di avere trovato m operatori hermitiani, ovvero

Hi = cia Xa Hi = Hi† i = 1, ..., m


che commutano
[Hi , Hj ] = 0. (6.38)
Si avrà
T r(Hi Hj ) = kD δ ij
dove kD dipende dalla rappresentazione D. Gli stati di base di una qualunque
rappresentazione D indicati con | µ, D > sono autovettori comuni degli m
operatori hermitaiani che commutano, con

Hi | µ, D > = µi | µ, D > (6.39)

L’insieme {Hi } prende nome di sottoalgebra di Cartan. Gli autovalori si


dicono pesi e il vettore µ di componenti µi si chiama vettore dei pesi. Il
vettore dei pesi µ è definito per cascuno stato (vettore di base) che appartiene
alla base di ciascuna rappresentazione, se si usa un definito ordinamento degli
Hi . (Nota: con riferimento a SU(2), i = 1, H1 = J3 , D è identificato da j ,
mentre il vettore dei pesi ha una sola componente m che identifica ciascuno
stato della base a j fissato).

Consideriamo ora la rappresentazione aggiunta. In essa i vettori di base sono


in egual numero dei generatori, inoltre vi è una corrispondenza tra generatori e
vettori di base Xa →| Xa > tale che

[Xa , Xb ] = Cabc Xc =⇒ Xa | Xb > = Cabc | Xc >

ovvero
Xa | Xb > =| [Xa , Xb ] > (6.40)
dove si intende che è | ai Xi > = ai | Xi > . Si ha ancora

< Xc | Xa | Xb > = Cabc

< Xa | Xb > = δ ab = λ−1 T r(Xa† Xb )


Nella rappresentazione aggiunta si ha poi che

Hi | H j > = 0 (6.41)

205
ovvero m stati di base con pesi nulli, mentre vi saranno h − m stati di base (h
è il numero di generatori) con autovalori reali α i non nulli

Hi | E α > = α i | E α > (6.42)

Ciò implica per la (6.40), dal momento che siamo nella rappresentazione aggiun-
ta, che in generale deve esistere una relazione operatoriale

[Hi , Eα ] = αi Eα (6.43)

con αi reali. Questa relazione comporta, eseguendo la hermitiana coniugazione,


che
[Eα† , Hi ] = αi Eα†
ovvero
[Hi , Eα† ] = −αi Eα† (6.44)
Dall’esame della rappresentazione aggiunta, abbiamo trovato che i generatori
diversi dal sottoinsieme di operatori hermitiani che commutano (la sottoalgebra
di Cartan) possono essere scritti come generatori dalla forma Eα ed Eα† , eviden-
temente non hermitiani, indicizzati dai vettori pesi α, che sono i pesi degli stati
loro corrispondenti nella rappresentazione aggiunta. Le relazioni (6.43) e (6.44)
sono vere per gli operatori, quindi in tutte le rappresentazioni, e generalizzano
le proprietà di J+ e di J− di SU (2). Notiamo che Eα† = E−α .
Le relazioni di ortonormalizzazione implicano

< Eα | Eβ > = λ−1 T r(Eα† Eβ ) = δ αβ

< Hi | Hj > = λ−1 T r(Hi Hj ) = δ ij


La scelta di λ, ovvero di kD nella rappresentazione aggiunta, determineranno
i valori di kD nelle altre rappresentazioni. I vettori α hanno componenti reali
non nulle. Essi sono i vettori peso (non nulli) nella rappresentazione aggiunta e
prendono nome di radici dell’algebra di Lie semplice.
Possiamo ora esaminare le proprietà degli operatori E±α , che sono proprio
gli operatori di innalzamento ed abbassamento per tutti gli autostati di Hi , in
ogni rappresentazione. Infatti

Hi Eα | µ, D > = [Hi , Eα ] | µ, D > +Eα Hi | µ, D > =

= αi Eα | µ, D > +µi Eα | µ, D > = (αi + µi )Eα | µ, D >


Eα | µ, D > è un autovettore di Hi con autovalore µi + αi , ovvero (µ + α)i .
Analogamente E−α | µ, D > è un autostato di Hi con autovalore µi − αi , ovvero
(µ − α)i . Occorre ora definire la costante di normalizzazione.

E±α | µ, D > = N±α,µ | µ ± α, D >


Ora in analogia a quanto già visto per SU (2), dove avevamo calcolato il
commutatore [J+ , J− ], andiamo a calcolare il commutatore [E+α , E−α ], cui

206
corrisponde nella rappresentazione aggiunta il vettore Eα | E−α >, che in
quella rappresentazione è un vettore che ha tutti i pesi nulli. Quindi, sempre
sottointendendo la somma su i, si ha

Eα | E−α > = β i | Hi >


dove

β i = < Hi | Eα | E−α > = λ−1 T r(Hi [Eα , E−α ]) = λ−1 T r(Hi Eα E−α

−Hi E−α Eα ) = λ−1 T r(E−α [Hi , Eα ]) = λ−1 T r(Eα† αi Eα ) = αi


Ritornando agli operatori, indipendentemente dalla rappresentazione si ha

[E+α , E−α ] = αi Hi (6.45)

Ora possimo calcolare, in una qualunque rappresentazione, le relazioni di ricor-


renza tra i coefficienti N±α,µ

< µ, D | E+α E−α | µ, D > − < µ, D | E−α Eα | µ, D > = αi < µ, D | Hi | µ, D >

ovvero

< µ − α, D | µ − α, D > − < µ + α, D | µ + α, D > = α · µ

| N−α,µ |2 − | N+α,µ |2 = α · µ
Poiché

N−α,µ = < µ − α, D | E−α | µ, D > = < µ − α, D | Eα† | µ, D > =

= < µ, D | Eα | µ − α, D >∗ = Nα,µ−α


posso scrivere la relazione di ricorrenza come

| Nα,µ−α |2 − | N+α,µ |2 = α · µ (6.46)

Con gli operatori di innalzamento e di abbassamento si giungerà ai bordi


dello spettro di autovalori. Esisteranno p e q, per cui

Eα | µ + pα, D > = 0 E−α | µ − qα, D > = 0

Potremo scrivere le relazioni

| Nα,µ+(p−1)α |2 −0 = α · (µ+pα)

| Nα,µ+(p−2)α |2 − | Nα,µ+(p−1)α |2 = α · (µ + (p − 1)α)


...... = ......
| Nα,µ+qα |2 − | Nα,µ−(q−1)α |2 = α · (µ + (q − 1)α)
0− | Nα,µ−qα |2 = α · (µ+qα)

207
Sommando membro a membro tutte le relazioni si ottiene
j=p
X p(p + 1) q(q + 1)
0= α·(µ + jα) = α · µ(p + q + 1) + α2 ( − )
j=−q
2 2

da cui
α·µ p−q m
=− =
α2 2 2
dove m è un intero relativo. Inoltre si possono determinare tutti i coefficienti
| Nα,µ+qα |2 .
Sia α un vettore di radici e µ un vettore di pesi di uno stato di base di
una qualunque rappresentazione. Se siamo nella rappresentazione aggiunta e
se µ 6= α, allora posso scrivere µ = β, un vettore di radici diverso da α. Sarà
allora
α·β m α·β m0
2
= 2 = (6.47)
α 2 β 2
Avremo che
2
mm0 (α · β)
= = cos2 θ ≤ 1
4 α2 β 2
ovvero per mm0 = 0, θ = 90◦ , per mm0 = 1, θ = 60◦ o θ = 120◦ , per mm0 = 2,
θ = 45◦ o θ = 135◦ , per mm0 = 3, θ = 30◦ o θ = 150◦, per mm0 = 4, θ = 0◦
o θ = 180◦ . Questi sono i valori permessi degli angoli tra i vettori radici delle
algebre di Lie semplici.
Insistendo sulle somiglianze tra SU (2) e le algebre semplici di rango m,
possiamo definire i generatori scalati

E ± =| α |−1 E±α E3 =| α |−2 αi Hi

Si può mostrare facilmente che essi soddisfano all’algebra SU (2)

[E3 , E ± ] = ±E ± [E + , E − ] = E3

come deriva per ciscun vettore-indice α dalle relazioni

[Hi , Eα ] = αi Eα [Hi , E−α ] = αi E−α [Eα , E−α ] = αi Hi

Ciascun Eα è cosı̀ associato ad una sottoalgebra SU (2) che comprende Eα , il


suo aggiunto E−α (opportunamente riscalati) e una combinazione lineare dei
generatori di Cartan.
Se | µ, D > è un autostato di E−α Eα , allora gli stati | µ + kα, D > ottenuti
applicando più volte Eα ed E−α a | µ, D > formano una rappresentazione
irriducibile per l’algebra SU (2).
La condizione che | µ, D > sia un autostato di E−α Eα è necessaria per
assicurare che lo stato non sia una combinazione lineare di stati con lo stesso µ
ma appartenenti a diverse rappresentazioni.
Questi stati hanno la proprietà

E3 | µ + kα, D > = | α |−2 (α · µ + kα · α) | µ + kα, D >

208
L’autovalore massimo di E3 , che corrisponde all’autostato | µ + pα, D >, è

j = (α · µ)/α2 + p
L’autovalore minimo di E3 , che corrisponde all’autostato | µ − qα, D >, è
2
−j = (α · µ)/α − q

209
6.11 Il gruppo SU (3).
E’ il gruppo delle matrici 3 × 3 complesse unitarie con determinante uguale a
1. I generatori sono le matrici 3 × 3 hermitiane a traccia nulla Ta = λa /2, con
a = 1, 2, ..., 8. Le matrici λa sono le matrici di Gell-Mann

     
0 1 0 0 −i 0 1 0 0
λ1 =  1 0 0  λ2 =  i 0 0  λ3 =  0 −1 0 
0 0 0 0 0 0 0 0 0
     
0 0 1 0 0 −i 0 0 0
λ4 =  0 0 0  λ5 =  0 0 0  λ6 =  0 0 1  (6.48)
1 0 0 i 0 0 0 1 0
   
0 0 0 1 0 0
1 
λ7 =  0 0 −i  λ8 = √ 0 1 0 
0 i 0 3 0 0 −2
Si ha
1
T r(Ta Tb ) = δ ab
2
T1 , T2 e T3 - è facile vedere - sono i generatori di un sottogruppo SU (2) di SU (3),
che è chiamato il sottogruppo di isospin o di T-spin. Le costanti di struttura
che compaiono nella espressione
[Ta , Tb ] = Cabc Tc
sono date da
Cabc = ifabc
dove i valori non nulli di fabc sono solo i seguenti: f123 = 1, f147 =√ 1/2, f156 =
−1/2,
√ f 246 = 1/2, f 257 = 1/2, f 345 = 1/2, f 367 = −1/2, f 458 = 3/2, f678 =
3/2 e quelli che si ottengono permutando i tre indici. Una permutazione di
classe pari lascia il valore invariato, una permutazione di clase dispari cambia
il segno. Possiamo scegliere i due generatori che commutano tra di loro per
ottenere la sottoalgebra di Cartan. Due matrici di Gell-Mann sono già diagonali
e commutano tra loro: H1 = T3 e H2 = T8 . Essi sono solo 2, il rango di
SU (3) è pertanto 2. Gli autovettori nella rappresentazione fornita dalle stesse
matrici (6.48) possono essere indicizzati con gli autovalori dei due operatori che
commutano T3 e T8 , ovvero dai loro pesi, indicandoli con | µ1 , µ2 >.
     
1 0 0
 0  ≡| 1 , √ 1
>  1  ≡| − 1 , √ 1
>  0  ≡| 0, − √1 >
2 2 3 2 2 3 3
0 0 1
(6.49)
Si possono riportare i tre pesi | µ1 , µ2 > sul piano degli autovalori di H1 e H2 ,
come è mostrato in Figura 6.2 per indicare gli stati di base della rappresentazione
fondamentale D1 . Essi formano i vertici di un triangolo equilatero.

210
H2

1.0

0.5

0
-1.0 -0.5 0.5 1.0
H1

-0.5

1.0

Figura 6.2: La rappresentazione fondamentale D 1 oppure [3] di SU (3).

I vettori radici - abbiamo visto - hanno la proprietà di ottenere un vettore


peso dall’altro, per addizione o sottrazione, spostandoci nel piano dei pesi, in
una qualunque rappresentazione. Si vede dalla Figura 6.2 che le radici sono sei
e precisamente i pesi non nulli della rappresentazione aggiunta:
√ √ √ √
1 3 1 3 1 3 1 3
( , ), (− , − ), (1, 0), (−1, 0), (− , ), ( , − )
2 2 2 2 2 2 2 2

I vettori radici sono riportati su grafico in Figura 6.3 , insieme ai due vettori
pesi nulli associati ai generatori della sottoalgebra di Cartan, per costruire i
vettori pesi della rappresentazione aggiunta. Sul piano degli autovalori di H1 e
H2 vi sono tutti gli otto stati del multipletto della rappresentazione aggiunta.
I generatori Eα associati alle radici si trovano molto facilmente a partire dalla
forma matriciale (6.48) , sapendo che sono matrici 3 × 3 che devono trasformare
gli autostati (6.49) l’uno nell’altro. Gli operatori Eα , in forma matriciale 3 × 3,
sono matrici formate da tutti 0 con un solo elemento fuori-diagonale uguale ad
1,a meno di un fattore di normalizzazione comune. Esse sono
1
√ (T1 ± iT2 ) = E±1,0
2
1
√ (T4 ± iT5 ) = E± 1 ,± √3
2 2 2

211
H2

1.0

-1.0 0 1.0
H1

-1.0

Figura 6.3: La rappresentazione aggiunta [8] di SU (3).

1
√ (T6 ± iT7 ) = E∓ 1 ,± √3
2 2 2

Questi operatori effettuano l’innalzamento ed abbassamento delle compo-


nenti dei vettori peso secondo tre direzione nello spazio dei vettori peso, per
uno spostamento pari ai vettori radici. Le tre direzioni formano angoli di
60◦ l’una con l’altra e corrispondono a tre sottoalgebre SU (2) che si indicano
rispettivamente con T-spin, V-spin e U-spin.

212
6.12 Radici semplici.
Dato un gruppo di Lie, dai suoi generatori si ottiene l’algebra di Lie corrispon-
dente. In essa vi è una sottoalgebra di Cartan di operatori hermitiani che
commutano H1 , H2 , .... Consideriamo un vettore peso µ (che ha per compo-
nenti gli autovalori µ1 , µ2 , ... di H1 , H2 , ... per ciascuno stato di base in una
rappresentazione irriducibile D. Ciascuno stato di base della rappresentazione è
un autostato di H1 , H2 , ...). Si dice che il vettore peso µ è positivo (negativo) se
la prima componente non nulla, nell’ordinamento assegnato degli Hi , è positiva
(negativa). Il vettore è zero se tutte le componenti sono nulle. Un vettore peso
x è maggiore di y, se la differenza x − y è positiva, ai sensi della precedente
definizione. Dalla stessa definizione possiamo determinare il vettore peso massi-
mo in ciascuna rappresentazione. Passando ai vettori radice, i vettori peso non
nulli della rappresentazione aggiunta, questi sono sempre o positivi o negativi,
mentre i restanti vettori peso della rappresentazione aggiunta coincidono con il
vettore zero (e ce ne sono m dove m è il rango del gruppo).
Un vettore radice è una radice semplice se è un vettore radice positivo che
non può essere scritto come somma di due vettori radice positivi. Se α e β sono
radici semplici, allora β − α non è una radice (chiameremo radice un vettore
radice). Infatti se assumiamo che β − α sia positivo e sia una radice, allora
β = α + (β − α) somma di due radici positive, non può essere semplice; se
invece assumiamo che β − α sia negativo e sia una radice allora è α che non è
semplice.
Se α e β sono radici semplici e β − α non è una radice, nella rappresen-
tazione aggiunta si avrà

Hi | E β > = β i | E β > E−α | Eβ > = 0

Tra gli autostati di Hi non vi è | β − α >, ovvero

E−α | β − qα > = 0 per q=0

La relazione (6.47)
α·µ 1
= − (p − q) (6.50)
α2 2
diviene ora
α·β 1
=− p
α2 2
Poichè α e β sono entrambi radici semplici sarà anche
α·β 1
= − p0
β2 2

dove p e p0 sono due interi positivi. Dalle due ultime relazioni segue che il coseno
dell’angolo tra due radici semplici è dato da
1p 0
cos θ = − pp
2

213
Inoltre è
β2 p
2
= 0
α p
Dal segno negativo del coseno segue che l’angolo tra le radici semplici è
π
≤θ<π
2
Si dimostra facilmente che le radici semplici sono vettori linearmente indipen-
denti e che il loro numero eguaglia il rango m del gruppo semplice.
Per costruire tutte le radici a partire dalle radici semplici si può scrivere
X
kα α
α

combinando le radici semplici con numeri interi positivi. Posto


X
kα = k
α

si procede con k = 1, 2, ...Per k = 1 si ritrovano tutte le radici semplici. Per


k = 2 si opera sull’insieme delle radici appena trovato (k = 1), che è quello delle
radici semplici, combinandole e si usa la formula (6.50) per vedere se si ottiene
una nuova radice o no. Per esempio per vedere se α + β è una radice si deve
considerare se
2α · β
= −p
α2
è soddisfatta con p > 0 , dove p è l’intero più elevato tale che β + pα sia una
radice, e quindi se α · β è negativo. In questo caso sappiamo che q è uguale a
zero poiché α e β sono radici semplici. Trovate altre radici si procede. Arrivati a
k = n, si esaminano le radici trovate con k < n. Di ognuna di esse (chiamiamola
γ) si conosce il valore di q. Possiamo allora usare la formula (6.50) per vedere
se γ + α è una radice.
2α · γ
= −p + q
α2
per determinare p. Se p è un intero positivo allora γ + α è una radice. E cosı̀
via.
Consideriamo l’esempio di SU (3). Vi sono sei radici di cui tre positive
√ √
1 3 1 3
(1, 0), ( , ), ( , − )
2 2 2 2
(1, 0) non è semplice poichè è la somma delle altre due. Le radici semplici sono
√ √
1 3 1 3
α =( , ), β =( , − )
2 2 2 2
consistentemente con il fatto che SU (3) è di rango 2. α2 = β 2 = 1, mentre
α · β = −1/2
2α · β
= −1 = −p ovvero p = 1
α2

214
per cui solo α + β è una radice positiva mentre non lo è, ad esempio α+2β.
Ricapitolando, per ogni gruppo semplice di rango m dobbiamo conoscere m
radici semplici. Da queste si ricavano tutte le radici. Poi si possono ricavare gli
Nα,β . I diagrammi di Dynkin sono un modo mnemonico per indicare le proprietà
delle radici di un gruppo di Lie, in termini delle radici semplici. Ciascuna radice
semplice si indica con un cerchio. Coppie di cerchi sono separati tra di loro se
l’angolo tra le corrispondenti radici è di 90◦ ( ), sono connessi da una linea
se l’angolo è di 120◦ ( − ), da due linee se l’angolo è di 135◦ ( = ), da
tre linee se l’angolo è di 150◦ ( ≡ ).
Si nota che:

SU (2) ⇒ SU (3) ⇒ −
Indicizziamo le radici semplici con un indice in alto αi con i = 1, ..., m
e consideriamo il peso massimo di una qualunque rappresentazione irriducibile
D, indicandolo con µ ; questo è tale se, data una qualunque radice positiva
φ , µ + φ non è un peso della rappresentazione. Perché questo sia vero basta
richiedere che µ + αi non sia una peso della rappresentazione. Ciò significa che
l’operatore di innalzamento Eαi , corrispondente ad αi , agendo su µ deve dare
zero; ovvero nella
2αi · µ
= −pi + q i
αi 2
pi è nullo. Di conseguenza
2αi · µ
= + qi (6.51)
αi 2
dove q i è un intero non-negativo. La relazione (6.51) associa ad ogni peso più
elevato della rappresentazione D una m-pla di numeri interi non negativi da cui,
stante la indipendenza lineare delle radici semplici αi , si ricava completamente
µ. Dalla conoscenza del peso più elevato µ ottenuto dai q i , si ricavano i pesi
dell’intera rappresentazione, applicando gli operatori di abbassamento E−αi
ripetutamente. Si è cosı̀ dimostrato che ciascuna rappresentazione irriducibile
di un gruppo di Lie semplice di rango m è individuata da una m-pla di numeri
interi non negativi.
Consideriamo ora i vettori µi cosı̀ definiti
2αi · µj
= δ ij (6.52)
αi 2
µi sono i vettori peso più elevati di una rappresentazione in cui un solo q i è
uguale ad uno e gli altri sono nulli. Chiamiamo D i la rappresentazione cor-
rispondente. Allora si potrà costruire una qualunque rappresentazione a partire
dalle Di . Infatti il peso massimo di una qualunque rappresentazione µ si potrà
scrivere come X
µ= q i µi .
i
I pesi definiti dalla relazione (6.52) e le relative rappresentazioni si dicono fonda-
mentali e qualunque rappresentazione può essere costruita a partire da queste,

215
cosı̀ come dalla sola rappresentazione fondamentale bidimensionale del gruppo
SU (2), s = 1/2 si possono ottenere, componendo n spin 1/2, delle rappresen-
tazioni a diversa dimensionalità, la più alta delle quali ha s = n/2. In un gruppo
di rango m invece vi sono m rappresentazioni fondamentali, che possono essere
composte a formare nuove rappresentazioni.

216
6.13 Ancora su SU (3).

Vediamo in dettaglio le conseguenze delle proprietà ottenute su SU (3), di rango


2. Le radici semplici di SU (3) sono
√ √
1 3 1 3
α1 = ( , ) α2 = ( , − )
2 2 2 2
Tramite la relazione
2αi · µj
= δ ij
αi 2
si ricavano i pesi fondamentali
1 1 1 1
µ1 = ( , √ ) µ 2 = ( , − √ )
2 2 3 2 2 3

µ1 è il peso più elevato di una rappresentazione già nota, la rappresentazione


fondamentale D1 , rappresentata in Figura 6.2.
Si può vedere facilmente che gli altri due pesi si ottengono a partire da µ1 ,
prima applicando l’operatore di abbassamento E−α √ 1 , poi applicando
√ al peso cosı̀
ottenuto l’operatore E−α . Tali pesi sono (0, −1/ 3) e (−1/2, 1/(2 3)). La rap-
2

presentazione D 1 è costituita dai vettori individuati dalle tre coppie di autovalori


di H1 ed H2 ottenuti sopra . La rappresentazione si indica anche come (1, 0)
o [3].
µ2 produce invece un’altra rappresentazione che vediamo ora: applicando √
E−α2 a | µ2 >, si ha lo stato | µ2 − α2 >, che nel piano H1 − H2 è (0, 1/ 3) .
A questo peso non si può ulteriormente applicare E−α2 . Infatti

2 µ2 − α 2 · α 2
=q−p
α2 · α2
diviene √
2(0, √13 ) · ( 21 , − 23 )
=q−p
1
dove p indica il numero di innalzamenti possibili e q il numero di abbassamenti
possibili. q = 0 e p = 1. Posso invece applicare E−α1 . Infatti

2 µ2 − α 2 · α 1
=q−p
α1 · α1
diviene √
2(0, √13 ) · ( 12 , 3
2 )
=q−p
1

217
H2

1.0

0.5

0
-1.0 -0.5 0.5 1.0
H1

-0.5

1.0

Figura 6.4: La rappresentazione D2 ovvero [3̄] di SU (3).

è verificata da q = 1 e p = 0. Il peso | µ2 − α2√− α1 > è il terzo peso della


rappresentazione ed ha componenti (−1/2, −1/(2 3)). I tre pesi della rappre-
sentazione sono indicati in Figura 6.4. La rappresentazione si indica anche come
(0, 1) o [3̄].

Ci chiediamo ora se i pesi ottenuti con questo metodo in ciascuna rapp-


resentazione irriducibile corrispondano ciascuno ad uno solo stato od abbiano
qualche degenerazione. Consideriamo una rappresentazione D di peso massimo
µ. | µ > è lo stato corrispondente. Costruendo
Eφ1 Eφ2 ...Eφn | µ >
dove φi è una qualunque radice ed n è qualunque si ottengono tutti gli stati
della rappresentazione. Però posso escludere tutti gli stati con almeno un φ
positivo senza perdere la completezza degli stati della rappresentazione. Questo
perchè se compare Eφ con φ positivo, questo può essere spostato verso destra
utilizzando le relazioni di commutazione fino a che non agisce direttamente su
| µ > dando zero. Tutti gli stati della rappresentazione possono essere ottenuti
nella forma

E−φ1 E−φ2 ...E−φn | µ >


dove ora φi sono radici semplici. Il peso più elevato corrisponde cosı̀ ad un
unico stato. Inoltre tutti gli stati della forma
(E−αi )n | µ >

218
sono unici. Si possono poi vedere delle simmetrie nelle rappresentazioni. Ad
esempio se µ è un peso ed α una radice

2(α · µ)
µ− α
α2
è ancora un peso, dato dalla riflessione di µ rispetto ad un iperpiano perpendico-
lare ad α. Ciascuna rappresentazione è invariante sotto tutte queste riflessioni.
L’insieme delle riflessioni associate a tutte le radici formano un gruppo, chiam-
ato il gruppo di Weyl dell’algebra. Consideriamo ora la rappresentazione D 2 di
SU (3). µ2 e µ2 − α2 corrispondono a stati unici. Il peso µ2 − α2 − α1 si ot-
tiene con una riflessione di Weyl rispetto all’iperpiano (una linea in questo caso)
perpendicolare alla radice (non semplice) α1 + α2 . Questo peso corrisponde ad
uno stato unico perchè è unica la sua riflessione di Weyl. Resta coı̀ dimostra-
to che anche la seconda rappresentazione fondamentale è formata da tre stati
non degeneri, ovvero è tridimensionale. Va osservato che i pesi della D 2 sono
semplicemente i pesi della D 1 cambiati di segno.
Se Ta sono i generatori in una rappresentazione D di un’algebra di Lie,
le matrici −Ta∗ soddisfano le stesse regole di commutazione: quindi anch’esse
generano una rappresentazione, la rappresentazione complessa coniugata D̄ della
rappresentazione D. Una rappresentazione è detta reale se è equivalente alla sua
complessa coniugata, altrimenti la rappresentazione si dice complessa. Se µ è un
peso della D, −µ è un peso della D̄. Poichè una rappresentazione è determinata
dal suo peso massimo e il peso massimo di D̄ è l’opposto del peso minimo di D, se
il peso minimo di D è l’opposto del peso massimo, allora D è reale. Altrimenti è
complessa. Nella D 1 di SU (3) il peso massimo è µ1 , ma il peso minimo è −µ2 ,
quindi è la complessa coniugata della seconda rappresentazione fondamentale
ed è complessa. In generale per indicare le rappresentazioni di SU (3) si usano
coppie di interi non negativi (q 1 , q 2 ) ovvero (m, n). Se m ed n sono diversi la
rappresentazione è complessa e si vede che (n, m) è la sua complessa coniugata.
(n, n) sono rappresentazioni reali.
Consideriamo ora la rappressentazione (2, 0). Con q 1 = 2 e q 2 = 0, il peso
massimo è
1
2µ1 = (1, √ ).
3
Sappiamo che 2µ1 −α1 e 2µ1 −2α1 sono pesi corrispondenti a stati unici, mentre
non vi è un peso 2µ1 − α2 . Vi sono invece altri tre pesi non degeneri che si
ottengono per riflessioni di Weyl:

2µ1 − α1 − α2 , 2µ1 − 2α1 − α2 , 2µ1 − 2α1 − 2α2

Riportandoli su grafico si ha qaunto è riportato in Figura 6.5. E’ evidente


che esistono 6 stati non degeneri. La rappresentazione (0, 2) = [6̄] è la sua
complessa coniugata, indicata in Figura 6.6.

219
H2

1.0

0.5

0
-1.0 -0.5 0.5 1.0
H1

-0.5

1.0

Figura 6.5: La rappresentazione (2, 0) ovvero [6] di SU (3).

H2

1.0

0.5

0
-1.0 -0.5 0.5 1.0
H1

-0.5

1.0

Figura 6.6: La rappresentazione (0, 2) ovvero [6̄] di SU (3).

220
H2

m-3a1-3a2 m-2a1-2a2 1.0 m-a1-a2 m

m-3a1-2a2
-1.0 0 1.0
m-2a1-a2 m-a1 H1

m-3a1-a2 m-2a1
-1.0

m-3a1

Figura 6.7: La rappresentazione (3, 0) ovvero [10] di SU (3).

La rappresentazione (1, 1) è reale, coincide con la rappresentazione aggiunta,


con 8 pesi, dal momento che il peso µ = (0, 0) in questa rappresentazione è due
volte degenere. La rappresentazione aggiunta si indica con [8] ed è riportata in
Figura 6.3.
Il motivo per cui ci sono due pesi nulli degeneri sta nel fatto che i due stati
E−α1 E−α2 | µ > ed E−α2 E−α1 | µ >, dove | µ > è il peso massimo della
rappresentazione (ed è non degenere), sono linearmente indipendenti.

Se consideriamo invece la rappresentazione (3, 0) abbiamo solo stati unica-


mente degeneri, procedendo come per la (2, 0), otteniamo, in Figura 6.7., 10
stati. Scriveremo (3, 0) ovvero [10]. La complessa coniugata è la (0, 3) ovvero
[10].

In generale una rappresentazione di SU (3) si rappresenta o con triangoli (in


tal caso tutti i pesi hanno degenerazione 1) se è del tipo (m, 0) o (0, n) oppure con
da esagoni se in (m, n) sia m sia n sono diversi da 0. Gli esagoni su cui si trovano i
pesi più esterni hanno lati di due diverse lunghezze, se m 6= n, alternativamente,
ma hanno angoli di 120◦ e sono centrati nell’origine. Passando dai pesi più
esterni a quelli dello strato più interno si passa da un poligono ad un altro e
la degenerazione aumenta di un unità per tutti i pesi dello strato interno. Se

221
Figura 6.8: La rappresentazione (4, 2) ovvero [60] di SU (3). Gli stati indicati
con cerchi chiari hanno degenerazione 1, quelli grigi hanno degenerazione 2,
quelli neri hanno degenerazione 3.

ancora più internamente vi è uno strato esagonale, vi sarà un ulteriore aumento


di 1 della degenerazione. Arrivati ad uno strato a triangolo la degenerazione
non aumenta più al passare da un triangolo all’altro più interno. In Figura
6.8. Si riporta l’esempio di una rappresentazione ad elevati valori di m ed n,
la (4, 2). Si dimostra che il numero degli stati linearmente indipendenti, base di
una qualunque rappresentazione irriducibile, è dato da

(n + 1)(m + 1)(n + m + 2)
D(m, n) = .
2

222
6.14 Metodi Tensoriali.
Consideriamo qui uno strumento per eseguire calcoli in SU (3), generalizzabile
ad altri gruppi. Consideriamo i vettori di base della rappresentazione [3],
indicandoli come segue
   
1 0
 0  =| , √ > =|1 >  1  =| − 1 , √
1 1 1
> =|2 >
0 2 2 3 0 2 2 3
 
0
 0  =| 0, − √1 > =|3 >
1 3

Con |i > si indica la tripletta di stati considerati, autovettori di H1 = T3 ed


H2 = T8 . Se
i
(Ta ) j = (λa )ij /2
è una matrice 3 × 3 che rappresenta ciascun generatore, si ha che
X j
T a |i > = |j > (Ta ) i
j

che indicheremo, sottointendendo il segno di somma sugli indici ripetuti, purché


uno in alto ed uno in basso, come
Ta |i > = |j > (Ta )ji (6.53)
Analogamente è possibile indicizzare gli stati della rappresentazione [3̄] come
1 1 1 1 1
| − , − √ > =|1 > | , − √ > =|2 > | 0, √ > =|3 >
2 2 3 2 2 3 3
La rappresentazione è la complessa coniugata data dalle matrici
j j i
− (Ta∗ ) i = − TaT i = − (Ta ) j
e quindi vale la
i
Ta |i > = |j > (Ta ) j (6.54)
Le relazioni (6.53) e (6.54) indicano come si trasformano sotto l’azione dei
generatori del gruppo (6.48) gli stati di base delle rappresentazioni [3] e [3̄].
Possiamo ora definire uno stato che è il prodotto diretto di n stati della [3] e di
m stati della [3̄]. Esso è il prodotto tensoriale
|ij11...i m i1 i2 im
....jn > =| >| > ... | >|j1 >|j2 > ... |jm > (6.55)
e si trasforma sotto l’azione dei generatori del gruppo come
n
X n
X
k i ...i kil+1 ...im
Ta |ij11...i
...jn > =
m
|ij11...i
...jl−1 kjl+1 ...jn > (Ta ) jl −
m
|j11 ....jl−1
n
> (Ta )ikl
l=1 l=1
(6.56)

223
Chiamiamo tensore | v > un qualunque stato in questo spazio prodotto tensoriale
ovvero una combinazione lineare
j1 ...jn
| v > =|ij11...i
...jn > vi1 ...im
m
(6.57)

dove
vij11...i
...jn
m

sono le componenti tensoriali con in alto gli indici relativi agli stati di [3] ed in
basso quelli realtivi agli stati di [3̄]. Consideriamo l’azione di uno dei generatori
Ta del gruppo su | v > espreso dalla (6.57)
j1 ...jn
Ta | v > =| Ta v > = Ta |ij11...i
...jn > vi1 ...im =
m

n
X n
X
k j1 ...jn i ...i kil+1 ...im i
= |ij11...i
...jl−1 kjl+1 ...jn > (Ta )jl vi1 ...im −
m
|j11 ....jl−1
n
> (Ta )kl vij11...i
...jn
m
=
l=1 l=1
n
X n
X
j j ...j kjl+1 ...jn k
j1 ...jn
= |ij11...i l 1 l−1
...jn > (Ta ) k vi1 ...im
m
− |ij11...i
....jn > (Ta ) il vi1 ...il−1 kil+1 ...im
m

l=1 l=1

dove nell’ultimo passaggio si sono scambiati i nomi di indici saturati in modo


da ottenere uno sviluppo di | Ta v > del tutto simile alla (6.57) ed arrivare a
scrivere un’espressione per le componenti tensoriali del tensore trasformato che
indicheremo con (Ta v)ij11...i
...jn
m

n
X n
X
j ...j kjl+1 ...jn
(Ta v)ij11...i
...jn
m
= (Ta )Jkl vi11...iml−1 − (Ta )kil vij11...i
...jn
l−1 kil+1 ...im
(6.58)
l=1 l=1

Ci proponiamo ora di estrarre da un prodotto tensoriale del tipo (6.55) gli


stati che corrispondono ad una rappresentazione irriducibile (n, m). Lo stato di
peso massimo è
|222...
111... >

che corrisponde al tensore vH che ha componenti

(vH )ij11ij22...i
...jn
m
= δ j1 1 δ j2 1 ...δ jn 1 δ i1 2 δ i2 2 ...δ im 2

Dallo stato di peso più alto si possono ottenere tutti gli stati in (n, m) agendo
sul tensore vH con gli operatori di abbassamento. Notiamo che vH è simmetrico
nello scambio di due indici alti e di due indici bassi e che si ha

δ ij11 (vH )ji11ij22...i


...jn
m
=0

e queste due proprietà si conservano anche rispetto alla trasformzione v H →


Ta vH . Il tensore è a traccia nulla ovvero
ij2 j3 ...jn
vii 2 i3 ...im
=0 per qualunque j2 , j3 , ..., jn , i2 , i3 , ..., im (6.59)

Si noti che le condizioni (6.59) indicano che ciascuna somma su i è nulla.

224
A sua volta δ ij è un tensore, a due indici, uno alto ed uno basso. Applicando
il generatore Ta dalla (6.56) si ha

(Ta )ik δ kj − (Ta )kj δ ik = (Ta )ij − (Ta )ij = 0

ovvero
(Ta δ) = 0
per qualunque generatore del gruppo. Il tensore δ ij si dice invariante poichè si
trasforma in se stesso sotto la trasformazione

exp(−iαa Ta )

esponenziale ottenuta tramite i generatori.


Ciascun tensore con n indici alti ed m bassi che rappresenti uno stato di
base di (n, m) è simmetrico nello scambio di due indici alti o di due indici bassi.
Viceversa un tensore con queste proprietà è uno stato di (n, m). Anche ikl ed
ikl sono tensori invarianti.

6.15 Decomposizione di Clebsch-Gordan dei ten-


sori SU (3).
Vogliamo decomporre il prodotto diretto di rappresentazioni irriducibili in ten-
sori appartenente a diverse rappresentazioni irriducibili. Consideriamo il prodot-
to tensoriale di v i e ui tensori di rango 1 entrambi appartenenti a [3]. Il prodotto
tensoriale [3] ⊗ [3] può essere scritto come
1 i j 1
v i uj = (v u + v j ui ) + ijk klm v l um
2 2
combinazione di un tensore doppio a indici alti e simmetrico nei due indici
1 i j
(v u + v j ui )
2
e quindi appartenente alla rappresentazione [6] = (2, 0) e di un tensore semplice
con un indice basso
klm v l um
che appartiene alla rappresentazione [3̄] = (0, 1). Il risultato della decompo-
sizione è
[3] ⊗ [3] = [6] ⊕ [3̄].
Consideriamo ora il prodotto tensoriale di v i e uj tensori di rango 1 apparte-
nenti a [3] e a [3̄] rispettivamente. Il prodotto tensoriale [3] ⊗ [3̄] può essere
scritto come  
1 1
v i uj = v i uj − δ ij v k uk + δ ij v k uk
3 3

225
combinazione di un tensore doppio a traccia nulla
 
i 1 i k
v uj − δ j v uk
3

che appartiene alla rappresentazione [8] = (1, 1), mentre il tensore v k uk senza
indici appartiene alla rappresentazione ovvia [1] = (0, 0).
In modo analogo si può decomporre il prodotto v i ([3])ujk ([8])

[3] ⊗ [8] = [15] ⊕ [6̄] ⊕ [3]

ovvero
(1, 0) ⊗ (1, 1) = (2, 1) ⊕ (0, 2) ⊕ (1, 0).
La decomposizione del prodotto in tensori simmetrici negli indici alti e bassi,
ovvero in tensori irriducibili, conserva la quantità (n − m) mod 3, che prende
nome di trialità. Si noti che i tensori invarianti δ ij e ijk o ijk hanno trialità 0.

Consideriamo oltre ai vettori ket, i bra


 ∗
< v | = vij11...i
...jn
m
< i1 ...im
j1 ...jn |

che sotto una trasformazione mediante Ta si trasformano con un segno meno.


Ad esempio consideriamo la tripletta < i | che si trasfoma cosı̀

− < i | Ta = − < i | Ta |j >< j | = −(Ta )ij < j |

da cui vediamo che un bra con indice basso si trasforma come un ket con indice
alto. Analogamente un bra con indice alto si trasforma come un ket con indice
basso. Conviene allora definire le componenti del tensore bra < v |
 ∗
j1 ...jn
v̄ji11 ...i
...jn
m
= v i1 ...im (6.60)

L’elemento di matrice < u | v > tra due stati | u > e | v > che appartengono
allo stesso spazio, ovvero sono tensori dello stesso tipo,
...km j1 ...jn
< u | v > = ūkl11...l n
vi1 ...im < k1 ...km
l1 ...ln | i1 ...im
j1 ...jn >=

...km j1 ...jn i1
= ūkl11...l n
vi1 ...im δ k1 ...δ ikmm δ jl11 ...δ jlnn = ūij11...i j1 ...jn
...jn vi1 ...im
m

Questo è uno scalare che non si trasforma sotto l’effetto dei generatori del
gruppo.
Calcoliamo il numero degli stati nel multipletto (n, m), ovvero il numero
delle componenti tensoriali indipendenti in un tensore simmetrico negli indici
alti e bassi. Per quanto riguarda gli indici alti dobbiamo determinare il nu-
mero di n−ple distinte dei numeri 1, 2, 3 considerando coincidenti due n−ple che
differiscono per l’ordine dei componenti: ciò coincide con la determinazione del

226
numero di modi con cui è possibile separare n oggetti identici, con due separatori
identici
×...× | × × ...× | × × ... × ×
ovvero
(n + 2)!
n!2!
Lo stesso vale per gli m indici bassi. Le componenti indipendenti sono

(n + 2)! (m + 2)!
B(n, m) =
n!2! m!2!
Applicando poi le condizioni (6.59) relative alla traccia nulla si hanno B(n −
1, m−1) condizioni. Quindi un tensore simmetrico a traccia nulla ha dimensioni

D(n, m) = B(n, m) − B(n − 1, m − 1) =


1
= [(n + 1)(n + 2)(m + 1)(m + 2) − n(n + 1)m(m + 1)] =
4
1 1
= (m + 1)(n + 1)[2(n + m) + 4] = (n + 1)(m + 1)(n + m + 2).
4 2

Gli operatori tensoriali sono del tutto simili agli stati. Se l’operatore

Oji11 ...i
...jn
m

si trasforma secondo la (6.56), consideriamo la combinazione lineare

W = wij11...i
...jn i1 ...im
m
Oj1 ...jn

L’insieme dei coefficienti w si comporta come un tensore.

227
6.16 Diagrammi di Young.
Consideriamo una nuova notazione per le rappresentazioni iriducibili di SU (3). Per
SU (3) è un modo più conveniente di riscrivere il formalismo tensoriale. I vantag-
gi consistono nell’offrire un algoritmo per la decomposizione alla Clebsch-Gordan
del prodotto tensoriale del prodotto di due rappresentazioni irriducibili, che si
generalizza facilmente ad SU (N ).
L’osservazione chiave è che la rappresentazione [3̄] è una combinazione an-
tisimmetrica di due [3] e cosı̀ possiamo scrivere una rappresentazione arbitraria
come un prodotto tensoriale di [3] con opportune proprietà di simmetria.

La rappresentazione (n, m) è pensabile come un tensore ovvero una tabella


di coefficienti
Aij11...i
...jm
n

Le componenti sono simmetriche per scambio degli indici alti tra di loro o degli
indici basi tra di loro. In più ci sono le condizioni di traccia nulla. Possiamo
innalzare gli indici più bassi con il tensore eijk ottenendo un oggetto con n + 2m
indici alti
ai1 ...in k1 l1 ...km lm = ej1 k1 l1 ...ejm km lm Aji11...i
...jm
n

che è un tensore antisimmetrico in ciascuna coppia di indici (kx , lx ) con x =


1, ..., m.
Associamo ora una cella a ciascun indice e disponiamo le n + 2m celle come
in Figura 6.9 , dove è raffigurato un diagramma di Young. Per determinare la
simmetria consideriamo gli stati

ai1 ...in k1 l1 ...km lm |i1 ...in k1 l1 ...km lm >

che formano la rappresentazione


√ (n, m). Ricordiamo che gli stati |1 > hanno il
peso massimo (1/2, 1/(2 3)) nella rappresentazione
√ [3]. Gli stati |3 > hanno
il peso immediatamente inferiore (0, −1/ 3). Il peso più alto nella rappresen-
tazione (n, m) si ottiene quando tutti gli ix hanno il valore 1 e tutte le coppie
kx , lx hanno i valori 1, 3.
Per lo stato a peso più elevato la componente del tensore è diversa da zero
se tutti gli i e tutti i k sono uguali ad 1 e tutti gli l sono uguali a 3. Tutte le
altre componenti non nulle sono ottenute per antisimmetrizzazione in tutte le
coppie (k, l).
Tutti gli stati nella rappresentazione (n, m) si ottengono agendo su questo
stato con gli operatori di abbassamento. La componente con tutti i = k = 1 e
tutte quelle con l = 3 vanno vanno in una componente simmetrica negli n + m
indici da i1 a in e da k1 a kn , ed anche simmetriche negli m indici da l1 a lm .
Le altre componenti si ottengono come prima antisimmetrizzando in ciascuna
coppia k, l.

Confrontando con il diagramma di Young di Figura 6.9 possiamo ricavare


una regola per preparare un tensore con le giuste proprietà di simmetria da dare
uno stato della rappresentazione (n, m). Prima simmetrizziamo negli indici di

228
k1 … km i1 … in
l1 … lm

… k1 … km i1 … in
… l1 … lm

i
eijk = j
k

Figura 6.9: Diagramma di Young per la rappresentazione (m, n) di SU (3). Il


secondo diagramma è quivalente al precedente tenendo conto della espressione
del tensore invariante antisimmetrico eijk .

ciascina riga del diagramma, poi antisimmetrizziamo negli indici di ciascuna


colonna. Nel caso che ci siano diagrammi con più di due celle in una colonna,
va assegnato un indice a ciascuna cella, si simmetrizza sulle celle delle righe e
poi su quelle di ciascuna colonna. In SU (3) un tensore che corrisponde a un
diagramma con quattro o più caselle in una colonna è nullo in quanto non è
possibile antisimmetrizzare completamente rispetto a quattro o più indici che
possono assumere solo tre valori. Una colonna con tre celle è semplicemente
un fattore eijk quindi l’ultimo diagramma indicato in Figura 6.9 corrisponde al
precedente e rappresenta sempre la (m, n).

Si possono dare regole semplici per decomporre i prodotti tensoriali di due


rappresentazioni irriducibili α e β corrispondenti ai diagrammi A e B. Posto
a nelle caselle della prima riga del secondo diagramma e b in quelle della sec-
onda, si procede aggiungendo le caselle della prima riga di B ad A ciascuna in
una differente colonna per formare nuovi diagrammi. Poi si prendono le celle
della seconda riga e le si aggiungono, ciascuna cella in una diversa colonna e
si formano nuovi diagrammi, con una restrizione: per evitare doppi conteggi,
andando da destra a sinistra e dall’alto al basso il numero delle celle a deve es-
sere maggiore o uguale del numero delle celle b. I diagrammi formati in questo
modo corrispondono alla decomposizione del prodotto α ⊗ β in rappresentazioni
irriducibili. In Figura 6.10 vi sono alcuni esempi che illustrano i diagrammi da
eliminare. Altre decomposizioni sono indicate in Figura 6.11.
La generallizzazione a SU (N ) è molto semplice. SU (N ) ha N 2 − 1 gener-
atori, è di rango N − 1. Le rappresentazioni fondamentali hanno dimensione N

229
a a b a b
b b a a
b

Figura 6.10: Diagrammi di Young e decomposizione dei prodotti diretti di


rappresentazioni irriducibili SU (3). Eliminazione dei diagrammi ridondanti.

230
Figura 6.11: Altre decomposizioni di Clebsch-Gordan di prodotti di
rappresentazioni irriducibili SU (3).

231
e il tensore invariante per antisimmetrizare è ej1 j2 ....jN . I diagrammi accettabili
sono quelli con al massimo N colonne.

232
6.17 Applicazioni alla Fisica delle particelle. Iper-
carica e stranezza.

Nella sezione 5.19 abbiamo visto come le interazioni forti conservino lo spin
isotopico o isospin T . Pur non sapendo molto sulla natura delle interazioni forti,
l’aver ipotizzato che esse erano invarianti per trasformazioni interne di isospin,
ci aveva permesso di individuare doppietti, tripletti, quadrupletti di isospin e
di ricavare delle relazioni quantitative sulle sezioni d’urto. Le interazioni forti
conservano anche la stranezza. La stranezza introduce un numero quantico
aggiuntivo S. Il neutrone N e il protone P hanno S = 0. Sono dei barioni ovvero
hanno numero barionico B = 1 e formano un doppietto di isospin. Accanto a
questi esiste un tripletto di isospin Σ− , Σ0 , Σ+ e un singoletto Λ0 , con S = −1.
Inoltre con S = −2 c’è un altro doppietto Ξ+ , Ξ0 . Tutte queste particelle sono
barioni ed hanno masse in un intervallo relativamente stretto, tra i 940 e i 1320
M eV .
Vi sono anche mesoni strani (per i mesoni è B = 0). Accanto al tripletto
π − , π 0 , π + e al singoletto η con S = 0, vi sono i due doppietti di mesoni K e
precisamente K 0 , K + con S = 1 e le antiparticelle K − e K̄ 0 con S = −1. I
mesoni K sono le particelle strane a massa più bassa (circa 490 M eV ). Dal
momento che le interazioni forti conservano la stranezza i K sono prodotti in
coppie particella-antiparticella con starnezza totale zero in collisioni ad alta
energia tra protoni
P + P → P + P + K+ + K−
I K decadono in circa 10−8 s, a causa della interazione debole, un tempo molto
lungo ristetto ai tempi tipici in cui l’interazione forte è rilevante nella collisione
(10−23 s). I due gruppi di particelle considerate differiscono per il numero bari-
onico (B = 1 e B = 0) e per lo spin (J = 1/2 e J = 0). Formano multipletti di
carica
Y
Q = T3 + (6.61)
2
dove l’ipercarica Y è definita da

Y =B+S

I valori assunti da T3 ed Y sono gli stessi per i due gruppi di particelle, come
indicato in Figura 6.12 e in entrambi i casi abbiamo ottetti che richiamano
√ la
rappresentazione [8] di SU (3), se poniamo H1 = T3 e H2 = ( 3/2)Y . La
diversità delle masse (energia degli stati) delle diverse componenti di ciscun
ottetto mostra che nell’interazione forte la simmetria SU (3) è una simmetria
approssimata. La dinamica delle interazioni forti è descritta da un hamiltoniano
che risulta dalla somma di più contributi: uno superforte (Hss ) ed uno medio
forte (Hms ) che rompe l’invarianza SU (3).
Prima di cercare informazioni quantitative, possiamo introdurre un’altro es-
empio. Si sono descritte in precedenza le risonanze barioniche che costituiscono
un quadrupletto di isospin (risonanza ∆ a 1232 M eV ). Queste 4 particelle con

233
Y Y
N P K0 K+
1
1

S- S0 L S+ p- p0 h p+

-1 1 T3 -1 1 T3

-
X- X0 K- K0
-1 -1

Figura 6.12: L’ottetto barionico e l’ottetto mesonico pseudoscalare. Ciascuno


stato del multipletto rappresenta una particella.

D- D0 D+ D++
1.0

S*- S*0 S*+

-1.0 0 1.0 T3

X*- X*0
-1.0

W-
-2.0

Figura 6.13: Il decupletto delle risonanze barioniche.

234
Y Y
-
s
d u
1/3

-1/2 1/2 T3 -1/2 1/2 T3

- -1/3 -
u d
-2/3
s

Figura 6.14: I tre quark e i tre antiquark.

il tripletto Σ∗ , il doppietto Ξ∗ e il singoletto Ω, formano un decupletto SU (3)


corrispondente alla rappresentazione irriducibile (3, 0) = [10]. All’interno dei
multipletti di T , per diversi valori di T3 e quindi di Q notiamo variazioni di mas-
sa molto piccole (qualche M eV ), ascrivibili alle interazioni elettromagnetiche o
deboli, mentre la massa cresce sensibilmente al decrescere di Y : si passa da
1232 della ∆ a 1385 della Σ∗ a 1533 della Ξ∗ a 1682 della Ω. Il decupletto delle
risonanze barioniche è mostrato in Figura 6.13. Queste risonanze barioniche
hanno spin 3/2. E’ da notare che il completamento del decupletto barionico
con la introduzione della risonanza Ω− è stato ipotizzato da Gell-Mann proprio
sulla base della simmetria approssimata SU (3). Ritornando agli aspetti inter-
pretativi, nei primi anni ’60 è stata effettuata una prima classificazione delle
particelle elementari, sulla base della simmetria SU (3) di Hss che viene rotta,
ma in modo trattabile dalla treoria perturbativa, da Hms . Al primo ordine le
masse (energie) dei barioni di ciascun multipletto possono essere descritte da
questa formula
1
< Hss > + < Hms > = a + bY + c[T (T + 1) − Y ] (6.62)
4
Questo perchè Hms , a differenza di Hss , non commuta con tutti i genera-
tori di SU (3) ma solo con T ed Y . Questa formula di Gell-Mann e Okubo
(1962) descrive bene le masse dell’ottetto e del decupletto barionico in termini
di due insiemi di tre costanti e conferma l’ipotesi della simmetria approssimata
SU (3). Le correzioni imputabili alla interazione elettromagnetica all’interno di
ciascun multipletto di isospin sono inferiori all’1% del valor medio della massa.
Ritornando alle famiglie mesoniche accanto all’ottetto dei mesoni psudoscalari,
ve ne sono altre tre, corrispondenti ad altri numeri quantici (momento ango-
lare intrinseco e parità). La formula di Gell-Mann e Okubo vale ancora, non
per la massa, ma per il suo quadrato. Mentre per i barioni la massa cresce
linearmente al diminuire dell’ipercarica, per i mesoni vi è simmetria Y → −Y .
Questo è impuabile al fatto che mentre i mesoni hanno spin intero (l’equazione
del moto è quadratica negli operatori quantità di moto ed energia, si veda l’e-

235
quazione di Klein-Gordon) i barioni hanno spin semintero (l’equazione del moto
è lineare, si veda l’equazione di Dirac). E’ poi da notare che nello stesso multi-
pletto per i mesoni compaiono particelle ed antiparticelle, mentre per i barioni
le antiparticelle appartengono alla rappresentazione complessa coniugata, che
nel caso della [8] è di nuovo una [8], mentre nel caso della [10] è la [10].Un
altro aspetto importante ed estremamente efficace nel predire le proprietà con-
siste nel pensare le rappresentazioni considerate in termine di decomposizione
dei prodotti di rapresentazioni fondamentali. La [8] può essere ottenuta da un
prodotto [3] ⊗ [3̄] = [8] ⊕ [1] e questo vale nel caso dei mesoni dove, accan-
to all’ottetto pseudoscalare già considerato, troviamo il singoletto η 0 , ma può
essere anche ottenuta da [3] ⊗ [3] ⊗ [3] = [10] ⊕ [8] ⊕ [8] ⊕ [1]. Questo indica
che le particelle considerate non sono elementari ma hanno una struttura in-
terna e possono essere pensate da costituenti elementari (quark ) associati alla
rappresentazione [3] e dalle loro antiparticelle associate alla rappresentazione
[3̄] (antiquark ). Si veda la Figura 6.14. I mesoni sono particelle costituite da
un quark e da un antiquark, mentre i barioni e le risonanze barioniche sono
costituite da tre quark. I quark sono particelle di momento angolare intrinseco
J = 1/2 e questo spiega come come i mesoni abbiano spin intero e i barioni
spin semintero (1/2 per l’ottetto e 3/2 per il decupletto). Le cariche dei tre
quark, che appartengono alla rappresentazione fondamentale, sono, sulla base
della relazione (6.61), date da:
2 1 1
qu = + e qd = − e qs = − e
3 3 3
Gli antiquark hanno carica opposta
2 1 1
qū = − e qd̄ = + e qs̄ = + e
3 3 3
dove si ricordi che −e è la carica dell’elettrone.
Questi nei primi anni ’60 erano i primi passi della teoria delle particelle
elementari. Successivamente la teoria dei gruppi di Lie e delle algebre di Lie
si sono rivelate una linea guida per lo sviluppo della tearia a livelli sempre più
completi. Nello sviluppo della fisica delle particelle elementari la ricerca delle
simmetrie interne ha ben compensato le difficoltà della conoscenza diretta delle
interazioni.

236
Capitolo 7

Gruppi finiti.

In questa parte ci riferiremo alla definizione di gruppo già nota, che richiamiamo
brevemente. Gruppo è un insieme di elementi, in cui è definita una moltipli-
cazione: a due elementi appartenenti al gruppo si associa un elemento del gruppo
stesso, il loro prodotto. Il prodotto può dipendere dall’ordine dei due elementi
(può essere non commutativo). Il prodotto è associativo. E’ definito anche il
prodotto di un elemento per sè stesso e deve essere un elemento del gruppo.
Esiste un elemento unità o identità che è l’emento neutro della moltiplicazione
(a destra o a sinistra). Ciascun elemento ha un inverso nel gruppo che è unico
e moltiplicato per l’elemento stesso (a destra o a sinistra) ha come prodotto
l’identità.
A differenza dei gruppi continui ciascun elemento non sarà associato a un
insieme di parametri, che, variando con continuità, identificano lungo una linea
nel gruppo diversi elementi del gruppo, ma da un indice discreto che assume un
numero finito di valori distinti. Gli elementi del gruppo sono pertanto ordinabili
secondo un indice intero i = 1, 2, ..., h.

7.1 Elementi di teoria dei gruppi finiti.


Indicheremo con h il numero di elementi ovvero l’ordine del gruppo.

G ≡ {X1 , X2 , ..., Xh }

Le proprietà che identificano un gruppo sono espresse dalla sua Tavola di


Moltiplicazione. Fissato l’ordinamento, il prodotto è l’operazione che caratteriz-
za l’insieme come gruppo e nella Tavola che ha h righe e h colonne nella casella
che si trova alla i-esima riga e alla k-esima colonna si riporta l’elemento

Xl = X i Xk

Si usa a volte prendere nell’ordinamento come elemento X1 l’elemento unità


o identità, che indicheremo con E. Altre volte conviene considerare E come
ultimo elemento Xh .

237
Teorema del riordinamento. Nella tavola di moltiplicazione di un gruppo
in ciascuna riga (e in ciascuna colonna) un elemento compare una volta sola.
Di conseguenza ogni riga è una permutazione dell’ordinamento fissato. Ogni
elemento del gruppo compare in ogni riga (o colonna).
Gruppi abeliani. Se per qualunque Xi , Xj

Xi Xj = X j Xi

ovvero se il prodotto è commutativo, il gruppo si dice abeliano. Se esiste un


elemento X ed un ordinamento tali che

Xn = X n con Xh = E

il gruppo, che è abeliano, si dice ciclico.


Sottogruppo. Un sottoinsieme proprio di G

S ≡ {S1 , S2 , ..., Sg }

formato da g elementi (incluso E), se è un gruppo rispetto al prodotto definito


in G, è un sottogruppo di G di ordine g.
Coset. Se S è un sottogruppo di G, dato un qalunque X ∈ G con X ∈ / S, si
definiscono gli insiemi SX ed XS coset destro e coset sinistro di S rispetto a
X.
Teorema. In SX non ci sono elementi di S.
Dimostrazione. Se ci fosse un elemento di S, allora Sk X = Sl , da cui X =
Sk−1 Sl ∈ S, che è falso. Il teorema vale anche per i coset sinistri.
Teorema. Due coset sono disgiunti.
Dimostrazione. Dati due elementi nei due coset Sk X ed Sl Y , se è Sk X =
Sl Y , avrò XY −1 = Sk−1 Sl ∈ S. Quindi, se XY −1 ∈ S, per il teorema del
riordinamento, SXY −1 = S. Seque che SX = SY . Se due coset hanno un
elemento comune coincidono, altrimenti non hanno elementi comuni.
Un sottogruppo S di ordine g del gruppo G di ordine h ripartisce il gruppo
G in insiemi disgiunti di g elementi costituiti dal sottogruppo e dai suoi coset
destri (o sinistri). Tali insiemi in numero di

h
=l
g
possono costituire a loro volta gli elementi di un gruppo, se S ha ulteriori
proprietà, come si vedrà più avanti.
Classi.
L’elemento B è il coniugato di A se A e B appartengono a G e vi è un
elemento X ∈ G tale che
B = XAX −1
Se B è coniugato di A, anche A è coniugato di B. Infatti

A = X −1 BX

238
Inoltre se B è coniugato di A e C è coniugato di B, anche C è coniugato di A.
A è poi coniugato di A, tramite l’identità.
Possiamo cosı̀ ripartire un gruppo in classi. Una classe è un insieme di
elementi di G che sono coniugati tra loro attraverso un qualunque elemento di G.
Le classi costituiscono insieme disgiunti. L’identità è coniugata solo di se stessa.
Pertanto l’identità da sola forma sempre una classe. Dal momento che la classe
cosı̀ ottenuta è formata dalla sola identità e gli insiemi sono disgiunti, questa è
l’unica classe ad essere sottogruppo. In un gruppo abeliano ogni elemento è una
classe dal momento che ogni elemento è coniugato solo di se stesso. Le classi si
indicheranno con
Ci
dove i = 1, 2, ..., nC . Valgono per qualunque X ∈ G le seguenti proprietà

X −1 Ci X = Ci

Ci Cj = X −1 Ci XX −1 Cj X = X −1 Ci Cj X
quindi il prodotto di due classi è una classe o è l’ unione di più classi. Nota la
tavola di moltiplicazione del gruppo è nota la struttura in classi e si può scrivere
l’espresione simbolica X
Ci Cj = cij,k Ck (7.1)
k

dove i coefficienti cij,k indicano il numero delle volte in cui la classe Ck compare
nel prodotto Ci Cj . Si noti che

Ci Cj = C j Ci

per cui cij,k = cji,k .


Sia S un sottogruppo costituito da classi complete di G. In tal caso X −1 SX =
S, a parte il riordinamamento. Si avrà che SX = XS, ovvero c’è coincidenza
tra coset destri e sinistri; il sottogruppo S è un sottogruppo invariante.
Ciascun coset può allora essere associato ad un suo elemento Ki . Indicheremo
il coset con
Ki = Ki S = SKi
Insieme al sottogruppo invariante S, che funge da identità, i coset possono
essere considerati come elementi di un gruppo di ordine l = h/g. Questo gruppo
è il Gruppo Fattore di G rispetto al Divisore Normale (o Sottogruppo Invariante)
S. Infatti
SKi = S(SKi ) = (SS)Ki = SKi = Ki
che è la proprietà dell’identità, e

Ki Kj = (SKi ) (SKj ) = Ki SSKj = Ki SKj = S(Ki Kj )

ovvero il prodotto dei due coset è il coset associato al prodotto dei due elementi
rappresentativi dei due cosets.

239
7.2 Alcuni esempi.
Consideriamo i gruppi di rotazioni proprie che lasciano inalterati poligoni o
solidi regolari.
Le rotazioni attorno ad un solo asse di simmetria che lasciano inalterato un
oggetto cilindrico costituiscono il gruppo continuo SO(2). Se l’oggetto ha per
sezione un poligono regolare di N lati ci sono N rotazioni attorno allo stesso asse
ciascuna con un angolo 2πn/N con n = 1, 2, ..., N. Il gruppo è il gruppo ciclico
CN di ordine N . Ciascun elemento è una classe e per n = N si ha l’elemento
identità. 
2 N
C N = CN , CN , ..., CN =E
I gruppi DN sono gruppi di rotazione propria con 2N elementi: hanno un asse di
simmetria N -aria ed N assi di simmetria doppia ortogonali all’asse principale.
La struttura in classi è più articolata.

D2 = {E, C2 , C20 , C200 }

D3 = {E, 2C3 , 3C20 }


D4 = {E, 2C4 , C2 , 2C20 , 2C200 }
e cosı̀ via con D5 , D6 , ecc... Interessante è il gruppo T delle rotazioni proprie
che lasciano invariato il tetraedro

T = E, 4C3 , 4C32 , 3C2

ch è formato da quattro classi:l’identità, le quattro rotazioni di 120◦ attorno


agli assi passanti per ciascun vertice ed il centro, le quattro rotazioni di −120 ◦
attorno agli stessi assi e le tre rotazioni di 180◦ attorno agli assi passanti per i
punti medi degli spigoli opposti. Il gruppo è di ordine 12.
Il gruppo O ha invece ordine 24 ed è costituito dall’insieme delle 24 rotazioni
proprie che trasformano un cubo in se stesso.

O (oppure W )= E, 3C42 , 6C4 , 6C2 , 8C3

a cinque classi: costituiscono una classe le tre rotazioni di 180◦ attorno ai tre assi
paralleli agli spigoli che passano per il centro del cubo, le sei rotazioni di ±90◦
attorno agli stessi assi, le sei rotazioni di 180◦ attorno agli assi che congiungono
i punti medi di due spigoli opposti, le 8 rotazioni di ±120◦ attorno agli assi
passanti per i vertici opposti.
Per completare i gruppi di rotazione proprie si può considerare il gruppo di
rotazioni proprie che lasciano invariato un dodecaedro regolare: è il gruppo P ,
di ordine 60.
E’ facile vedere come nei diversi gruppi diverse classi si costituiscano con gli
stessi elementi in funzione delle moltiplicazioni con altri elementi del gruppo.
In genere elementi della stessa classe sono dello sesso ’tipo’ con apparentamenti
più o meno stretti secondo i prodotti con i restanti elementi del gruppo.

240
Occorre poi considerare le rotazioni improprie che si ottengono moltiplicando
per l’inversione I le rotazioni proprie per ottenere nuove operazioni, tra cui le
riflessioni rispetto ad un piano. Si possono costruire i gruppi che contengono la
inversione Ḡ = G + IG

C̄N = CN + ICN D̄N = DN + IDN

Th = T + IT Oh = W + IW P̄ = P + IP
che semplicemente raddoppiano la struttura in classi. Gruppi di rotazioni che
contengono rotazioni improprie ma non l’inversione si possono costruire secondo
le indicazioni seguenti.
C2v = C2 + I(D2 − C2 )
C3v = C3 + I(D3 − C3 ) = {E, 2C3 , 3σ v }
C4v = C4 + I(D4 − C4 ) = {E, 2C4 , C2, 2σ v , 2σ d }
C6v = C6 + I(D6 − C6 ) = {E, 2C6 , 2C3 , C2 , 3σ v , 3σ d }
D2d = D2 + I(D4 − D2 ) D3h = D3 + I(D6 − D3 )
Td = T + I(W − T )
e i gruppi abeliani C2h , S4 e C3h del tipo

Cn + I(C2n − Cn ).

I gruppi considerati comprendono i 32 gruppi puntuali delle strutture cristalline


tridimensionali. Vanno infatti esclusi i gruppi che comprendono rotazioni di 72◦
che sono incompatibili con le traslazioni discrete dei reticoli cristallini. Per la
stessa ragione non si possono pavimentare dei piani con mattonelle pentagonali.
In fisica molecolare invece tali gruppi non vanno esclusi. Ad esempio P̄ , con
h = 120, è il gruppo della molecola di fullerene, C60 , i cui 90 legami (tra semplici
e doppi) formano esagoni e pentagoni che ricordano la superficie di un pallone
di calcio.

7.3 Le rappresentazioni dei gruppi finiti.

Associando ad ogni elemento di un gruppo A, B, ... una matrice Γ(A), Γ(B), ...
a n righe ed n colonne con la proprietà

Γ(A)Γ(B) = Γ(AB)

di preservare la tabella di moltiplicazione del gruppo, si ottiene una rappresen-


tazione del gruppo, di dimensionalità n.
In particolare Γ(E) sarà la matrice identità n × n e Γ(A−1 ) = [Γ(A)]−1 .
La rappresentazione è omeomorfa al gruppo. Se è isomorfa si dice fedele o ve-
ra. Nel primo caso, qualora più elementi corrispondano alla stessa matrice,

241
gli elementi del gruppo associati alla matrice identità costituiscono un sot-
togruppo invariante, e le altre matrici corrispondono ai suoi coset, formando
una rappresentazione fedele del gruppo fattore.
Se gli elementi del gruppo sono rotazioni proprie od improprie le matri-
ci avranno determinante ±1. Tali numeri costituiscono una rappresentazioni
1 dimensionale del gruppo. Tra le rappresentazioni 1 dimensionali vi è la
rappresentazione ovvia od identica, che associa ad ogni elemento +1.

Da due rappresentazioni Γ(1) e Γ(2) , rispettivamente di dimensionalità n1 ed


n2 , si può ottenere una rappresentazione di dimensionalità più elevata
 (1) 
Γ 0
Γ=
0 Γ(2)

e facendo eventualmenete seguire una trasformazione di similitudine

Γ0 = S −1 ΓS.

Si dice che una rappresentazione è riducibile se esiste una trasformazione di


similitudine tramite una matrice S che trasformi tutte le matrici della rappre-
sentazione in matrici con la stessa struttura a blocchi. E’ irriducibile in caso
contrario.
Se una rappresentazione è riducibile siamo interessati a sapere quali rappre-
sentazioni irriducibili vi compaiano e quante volte.
Seguono tre Lemmi.

Lemma 1. Una rappresentazione di un gruppo è equivalente ad una rappre-


sentazione con matrici unitarie, ovvero esiste una trasformazione di similitudine
che trasforma tutte le matrici della rappresentazione in matrici unitarie.

Lemma 2 (di Schur). Una matrice che commuta con tutte le matrici di
una rappresentazione irriducibile di un gruppo deve essere una matrice del tipo
C = cE, con c costante ed E matrice identità. (Nota: Se esiste una matrice non
di forma cE che commuta con tutte le matrici della rappresentazione, allora la
rappresentazione è riducibile).

Lemma 3. Date due rappresentazioni irriducibili di G, date da Γ(1) (Ai ) e


(2)
Γ (Ai ), rispettivamente di dimensionalità l1 ed l2 , se esiste una matrice M tale
che per qualunque Ai ∈ G

M Γ(1) (Ai ) = Γ(2) (Ai )M

si ha che: a) se l1 6= l2 la matrice rettangolare M ha tutti gli elementi nulli; b)


o M ha tutti gli elementi nulli o le due rappresentazioni sono equivalenti e

Γ(2) (Ai ) = M Γ(1) (Ai )M −1 .

242
Questi tre lemmi, la cui dimostrazione è fornita a parte, consentono di
dimostrare il teorema fondamentale:

Great Orthogonality Theorem (G.O.T.). Due rappresentazioni unitarie, in-


equivalenti, irriducibili, di un gruppo hanno le seguenti proprietà
Xh i∗
(j) h
Γ(i)
µν (R) Γαβ (R) = δ ij δ µα δ νβ . (7.2)
li
R

Sono importanti le seguenti osservazioni. La somma è estesa su tutti gli h ele-


menti del gruppo. (i) e (j) indicano due diverse rappresentazioni irriducibili di
dimensioni li ed lj . Le relazioni di ortogonalità riguardano vettori ad h com-
ponenti formati dagli elementi di matrice che hanno lo stesso posto in ciascuna
matrice. Ciascun vettore ha modulo quadro li /h. Considerando la totalità delle
rappresentazioni irriducibili posso ottenere
X
li2
i

vettori di tale tipo che devono essere ortogonali tra di loro. Pertanto segue
immediatamente che X
li2 ≤ h (7.3)
i

ovvero la somma dei quadrati delle dimensioni di tutte le rappresentazioni uni-


tarie inequivalenti irriducibili del gruppo non può superare l’ordine del gruppo.

243
Dimostrazione del G.O.T. Se Γ(1) e Γ(2) sono due rappresentazioni irriducibili
inequivalenti unitarie costruiamo una matrice M a l2 righe ed l1 colonne
X
M= Γ(2) (R)XΓ(1) (R−1 )
R

dove X è una qualunque matrice a l2 righe ed l1 colonne. Osserviamo che la


matrice ha proprio la proprietà richiesta dal terzo lemma: per qualunque T
X
Γ(2) (T )M = Γ(2) (T )Γ(2) (R)XΓ(1) (R−1 )Γ(1) (T −1 )Γ(1) (T ) =
R
" #
X
(2) (1)
= Γ (T R)XΓ ((T R) −1
) Γ(1) (T ) =
R
" #
X
(2) (1)
= Γ 0
(R )XΓ 0 −1)
((R ) Γ(1) (T ) = M Γ(1) (T )
R0

dove nel passare dalla somma su R alla somma su R 0 si è utilizzato il teorema


del riordinamento. Segue allora che, se le due rappresentazioni hanno l1 6= l2
oppure non sono equivalenti, la matrice M è nulla
X (2) (1)
Γαβ (R)Xβγ Γγδ (R−1 ) = 0
R

Pongo allora Xβγ = 1 solo se β = µ e se γ = λ, altrimenti Xβγ = 0. Avrò


X (1)
Γλδ (R−1 )Γ(2)
αµ (R) = 0
R

che tenendo conto dell’unitarietà da


X h (1) i∗
Γδλ (R) Γ(2)
αµ (R) = 0
R

ovvero l’ortogonalità degli elementi di matrice appartenenti a due diverse rappre-


sentazioni. Nel caso invece che i due indici indichino la stessa rappresentazione,
la matrice M non nulla commuta con tutte le matrici della rappresentazione e
si ha X (1) (1)
Γµβ (R)Xβγ Γγµ0 (R−1 ) = cδ µµ0
R
dove si e utilizzato il lemma di Schur. Posti tutti nulli gli elementi di Xβγ = 0
eccetto che l’elemento Xνν 0 = 1
X (1)
Γ(1)
µν (R)Γν 0 µ0 (R
−1
) = cνν 0 δ µµ0
R

Ponendo µ = µ0 e sommando su µ
X X (1) X
Γν 0 µ (R−1 )Γ(1)
µν (R) = cνν 0 δ µµ0 = cνν 0 l1
µ R µ

244
ovvero X X
(1) (1)
Γν 0 ν (E) = cνν 0 l1 ma Γν 0 ν (E) = hδνν 0
R R

da cui segue che


h
cνν 0 = δ νν 0 .
l1
Possiamo quindi scrivere
X (1) h
Γν 0 µ0 (R−1 )Γ(1)
µν (R) = δ µµ0 δ νν 0
l1
R

ovvero tenendo conto dell’unitarietà


X h (1) i∗ h
Γµ0 ν 0 (R) Γ(1)
µν (R) = δ µµ0 δ νν 0
l1
R

Ricapitolando si ha quindi che


X h (i) i∗ h
Γµ0 ν 0 (R) Γ(j)
µν (R) = δ ij δ µµ0 δ νν 0
l1
R

che può essere riscritta nel caso di rappresentazioni non unitarie come
X (i) h
Γ(j)
µν (R)Γν 0 µ0 (R
−1
)= δ ij δ µµ0 δ νν 0
l1
R

dove si deve fare attenzione alle diverse posizioni degli indici. Fine della di-
mostrazione.

7.4 Carattere di una rappresentazione.

Poichè una rappresentazione unitaria irriducibile rimane tale anche a seguito


di trasformazioni unitarie, c’è un grado di arbitrarietà nella definizione delle
matrici di una rappresentazione. Conviene far riferimaento ad invarianti quali
le tracce di una matrice. Carattere della i−esima rappresentazione è un vettore
di h numeri
li
X
χ(i) (R) = T r(Γ(i) (R)) = Γ(i)
µµ (R) (7.4)
µ=1

Due elemementi della stessa classe avranno matrici, nella stessa rappresen-
tazione, con la stessa traccia, visto che sono in relazione tra loro mediante la
trasformazione
B = XAX −1

245
che conserva la traccia. Quindi in una rappresentazione χ(i) (R) è lo stesso per
tutti gli R ∈ Ck della stessa classe, posso allora scrivere

χ(i) (Ck )

Dal G.O.T.
X h
Γ(i) ∗ (j)
µµ (R) Γαα (R) = δ ij δ αµ
li
R

Sommando su α e su µ si ha
X h X
χ(i) (R)∗ χ(j) (R) = δ ij δ αµ = hδ ij
li αµ
R

ovvero X
χ(i) (Ck )∗ χ(j) (Ck )Nk = hδ ij (7.5)
Ck

che è il teorema di ortogonalità dei caratteri. Nk è il numero di elementi nella


classe Ck . I caratteri sono vettori ortogonali e hanno per ciascuna rappresen-
tazione un numero di componenti pari al numero delle classi. Segue che il
numero delle rappresentazioni irriducibili nr è minore od uguale al numero delle
classi.
nr ≤ n C
Poi vedremo che varrà l’uguaglianza.

7.5 Scomposizione di una rappresentazione.


Se in una rappresentazione riducibile Γ(R) ciascuna rappresentazione irriducibile
Γ(i) (R) compare ni volte, per l’inavarianza della traccia si ha
X
χ(R) = ni χ(i) (R)
i

Moltiplicando per χ(j) (R)∗ e sommando su R ottengo


X X X
χ(j) (R)∗ χ(R) = χ(j) (R)∗ ni χ(i) (R) =
R R i
X X X
= ni χ(j) (R)χ(i) (R) = ni hδij = nj h
i R i
ovvero
1 X (j)
nj = χ (R)∗ χ(R). (7.6)
h
R

Data una qualunque rappresentazione riducibile la formula consente di deter-


minare il numero di volte in cui vi compare ogni rappresentazione unitaria
irriducibile. Questo è il teorema di decomposizione delle rappesentazioni.

246
7.6 La rappresentazione regolare.
E’ una rappresentazione costituita da matrici h×h, dove h è l’ordine del gruppo.
Ciascuna matrice è cosı̀ costruita. Dato l’elemento S ∈ G si definisce

(reg) −1
Γαβ (S) = 1 se Rα Rβ = S
−1
= 0 se Rα Rβ 6= S

La rappresentazione regolare si ottiene dalla tavola di moltiplicazione del grup-


po, riordinando le righe secondo l’ordine degli inversi. Per ogni lemento S si
scrive una matrice di zeri, ponendo delle unità solo nelle caselle dove compare
l’elemento S. Per mostrare che è una rappresentazione si deve mostrare che

Γ(reg) (T S) = Γ(reg) (T )Γ(reg) (S)

Ora
h i h h
X i h i
Γ(reg) (T )Γ(reg) (S) = Γ(reg) (T ) Γ(reg) (S)
αβ αλ λβ
λ=1
−1
Solo uno degli h prodotti non è nullo: quello in cui T = Rα Rλ e in cui S =
−1 −1
R R
 (reg)
λ β , che
 vale 1. In tal caso e solo in tal caso, poichè T S = Rα Rβ , si ha
Γ (T S) αβ = 1. Altrimenti gli elementi di matrice sono nulli. L’eguaglianza
è verificata. c.v.d.
Vediamo ora il carattere della rappresentazione regolare. La classe che
corrisponde all’identità ha matrice identità nella rappresentazione regolare, la
traccia è h. Tutte le altre classi hanno diagonale e quindi traccia nulla.

χ(reg) (Ck ) = hδ k1

essendo C1 = {E} . Applico il teorema di decomposizione


1 X (j) 1
ni = χ (R)∗ χ(reg) (R) = li h = li (7.7)
h h
R

Nella rappresentazione regolare ciascuna rappresentazione unitaria irriducibile


è contenuta numero di volte pari alla sua dimensionalità.
Segue poi che
X X
h = χ(reg) (E) = li χ(i) (E) = li2 (7.8)
i i

ovvero la somma dei quadrati delle dimensioni delle rappresentazioni unitarie


irriducibili inequivalenti eguaglia l’ordine del gruppo. (Teorema delle dimensioni
delle rappresentazioni irriducibili).
Un’ altra proprietà: Dalla decomposizione del prodotto di classi
X
Ci Cj = cij,k Ck
k

247
segue che, per qualunque rappresentazione irriducibile Γ(a) ,
X
Ni Nj χ(a) (Ci )χ(a) (Cj ) = la cij,k χ(a) (Ck )Nk
k

Dimostrazione. Considero la matrice


X
Ci = Γ(a) (R)
R∈Ci

associata alla classe Ci . Per qualunque elemento X del gruppo

Ci Γ(a) (X) = Γ(a) (X)Ci

per il lemma di Schur si ha


Ci = c i E
dove
T r(Ci ) = Ni χ(a) (Ci ) = ci la
ovvero
Ni χ(a) (Ci )
ci =
la
Dalla relazione di partenza possiamo scrivere, per le matrici associate alle classi,

Ni χ(a) (Ci ) Nj χ(a) (Cj ) X Nk χ(a) (Ck )


E= cij,k E
la la la
k

da cui la tesi.

Ora, riprendendo la proprietà dimostrata, sommando su (a) si ha


X X X
Ni Nj χ(a) (Ci )χ(a) (Cj ) = cij,k Nk la χ(a) (Ck ) =
a k a
X
= cij,k Nk χ(reg) (Ck ) = cij,1 N1 χ(reg) (C1 ) = cij,1 h
k

Ora possiamo prendere per Cj la classe degli inversi Ci−1 che può essere o no
coincidente con la classe di partenza. In questo caso, sia che coicidano o no
avremo, avremo
Ni = Nj = cij,1
e quindi X
χ(a) (Ci )χ(a) (Ci−1 )Ni = h
a
ovvero
X h
χ(a) (Ci )χ(a) (Ci )∗ =
a
Ni

248
Invece, se Cj non è la classe degli inversi, non c’è l’identità nella decomposizione
e quindi X
χ(a) (Ci )χ(a) (Cj )∗ = 0
a

Abbiamo cosı̀ dimostrato il teorema: i vettori dei caratteri di due classi nella
totalità delle rappresentazioni sono vettori ortogonali.
X h
χ(a) (Ci )χ(a) (Cj )∗ = δ ij (7.9)
a
Ni

Conseguenza del teorema è che il numero delle classi non può superare il numero
delle rappresentazioni
nC ≤ n r
che unito alla relazione già dimostarta

nr ≤ n C

ci permette di ottenere che il numero delle classi è uguale al numero delle


rappresentazioni irriducibili.
nC = n r (7.10)

7.7 Applicazioni in Fisica.

I teoremi sin qui dimostrati consentono di definire le tabelle dei caratteri di


tutti i gruppi finiti, una volta che si conoscano le tabelle di moltiplicazione e
la struttura in classi. Tramite il G.O.T. anche le matrici unitarie associate a
ciascun elemento in ogni rappresentazione unitaria irriducibile possono essere
ricavate.

Conoscendo il gruppo di simmetria dell’hamiltoniano del sistema è possibile


associare agli autovalori la rappresentazione di appartenenza. Gli autostati in-
fatti costituisconouna base per le rappresentazioni unitarie irriducibili. la è la
degenerazione del multipletto associato. La riduzione della simmetria, medi-
ante l’introduzione nell’hamiltoniano di una pertubazione che ha per gruppo di
simmetria un sottogruppo di quello dell’hamiltoniano impertubato, decompone
la rappresentazione irriducibile del gruppo nelle rappresentazioni irriducibili del
sottogruppo. Le rappresentazioni irriducibili del gruppo di più alta simmetria
sono in generale delle rappresentazioni riducibili per il sottogruppo.

Un gruppo abeliano ha un numero di classi pari al numero degli elementi.


Pertanto può avere solo rappresentazioni unidimensionali. I multipletti in tale
caso hanno degenerazione 1.

249

Potrebbero piacerti anche