Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1
2.23 Le funzioni di Bessel sferiche. . . . . . . . . . . . . . . . . . . . . 63
2
6 Gruppi di Lie ed Algebre di Lie. 178
6.1 Elementi di teoria dei gruppi. . . . . . . . . . . . . . . . . . . . . 179
6.2 Gruppi di Lie lineari. . . . . . . . . . . . . . . . . . . . . . . . . . 180
6.3 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
6.4 Esponenziale di una matrice, mappe esponenziali. . . . . . . . . . 186
6.5 Sottogruppi ad un solo parametro. . . . . . . . . . . . . . . . . . 186
6.6 Algebre di Lie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
6.7 Gruppi di Lie e Algebre di Lie semisemplici. . . . . . . . . . . . . 195
6.8 Un invariante di Casimir. . . . . . . . . . . . . . . . . . . . . . . 200
6.9 Le rappresentazioni dei generatori. . . . . . . . . . . . . . . . . . 201
6.10 Radici e pesi di un’algebra semplice. . . . . . . . . . . . . . . . . 203
6.11 Il gruppo SU (3). . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
6.12 Radici semplici. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
6.13 Ancora su SU (3). . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
6.14 Metodi Tensoriali. . . . . . . . . . . . . . . . . . . . . . . . . . . 221
6.15 Decomposizione di Clebsch-Gordan dei tensori SU (3). . . . . . . 223
6.16 Diagrammi di Young. . . . . . . . . . . . . . . . . . . . . . . . . 226
6.17 Applicazioni alla Fisica delle particelle. Ipercarica e stranezza. . 231
3
Parte I
4
Capitolo 1
Z 2
b n
X
lim f (x) − ci fi (x) w(x)dx = 0.
n→∞ a
i=0
5
n pn (x), ovvero esiste per qualunque > 0 un polinomio pn (x) di n−esimo
grado,con n = n() tale che
1, x, x2 , x3 , ..., xn , ...
ai ≤ xi ≤ b i (i = 1, 2, ..., s)
xm 1 m2 ms
1 x2 ...xs
con mi ≥ 0 ed intero.
Ritornando al caso delle funzioni di una sola variabile, la convergenza uni-
forme implica la convergenza in media, requisito molto più debole. La funzione
continua f (x) è la rappresentazione di un vettore | f > ∈ L2w (a, b); i polinomi
pn (x) rappresentano i vettori | pn > che sono combinazioni lineari di
1, x, x2 , ..., xn .
ρ(| f >, | pn >) = ρ(| f >, | fn >) + ρ(| fn >, | pn >) ≤ per n > ñ().
6
1.2 Polinomi ortogonali.
Riprendendo la notazione usuale per le funzioni, dalla successione {xn }, con
n = 0, 1, 2, ..., è possibile ricavare, con il procedimento di ortogonalizzazione
di Schmidt, in un qualunque intaervallo (a, b), rispetto a qualunque funzione
peso w(x) ≥ 0, la successione di polinomi {Pn (x)}, ciascuno dei quali ha grado
uguale all’indice n.
Z b
Pn (x)Pm (x)w(x)dx = 0 per n 6= m (1.1)
a
Dalla (1.1) e dalla (1.2), segue che un qualunque polinomio Πm (x) di grado
m è ortogonale a tutti i polinomi ortogonali Pl (x) con l > m
Z b
(Πm , Pl ) ≡ Πm (x)Pl (x)w(x)dx = 0. (1.3)
a
(Pi , xn )
ai = −Kn
(Pi , Pi )
7
Zeri dei polinomi ortogonali. Gli zeri di un sistema di polinomi ortogonali
sono tutti semplici ed interni all’intervallo chiuso [a, b].
Gli zeri non posson essere più di n. Supponiamo che m di questi x1 , x2 , ..., xm ,
con m ≤ n siano interni all’intervallo [a, b] e di ordine dispari. Si costruisca il
polinomio Πm (x) di grado m
Πm (x)Pn (x)w(x)
Ciò è impossibile se m < n, quindi m = n, ovvero gli zeri sono n e quindi sono
zeri semplici e interni all’intervallo [a, b].
P∞
Un altro teorema. Sia f (x) una funzione continua in [a, b] e sia k=0 ck Pk (x)
la sua serie di Fourier rispetto al sistema di polinomi ortogonali {Pn (x)} . La
ridotta n−esima
Xn
Sn (x) = ck Pk (x) (1.4)
k=0
di tale sviluppo coincide con la f (x) in almeno n + 1 punti interni ad [a, b].
Dimostrazione. Siano x1 , x2 , ..., xm gli zeri dispari della funzione continua
f (x) − Sn (x)
Segue che
Z b
J= (f (x) − Sn (x))Πm (x)w(x)dx 6= 0 (1.6)
a
8
se m è il numero degli zeri di f (x) − Sn (x). Sostituendo la (1.4) e la (1.5) nella
relazione (1.6), possiamo riscrivere la J come
X∞ Xm Z
J= ck al Pk (x)Pl (x)w(x)dx
k=n+1 l=0
che risulta, per l’ortogonalità, diverso da zero se compaiono nella somma termini
con k = l ovvero se m ≥ n + 1. Allora gli zeri di f (x) − Sn (x) sono almeno
n + 1 in [a, b] e questi sono dispari.
I due termini a sinistra dell’uguale sono nulli per ortogonalità e uno solo sop-
pravvive a destra per cui
Z b
0 = al [Pl (x)]2 w(x)dx ⇒ al = 0 per l ≤n−2
a
Si ha allora
da cui 0
kn+1 k0
an = An − An n = (rn+1 − rn )An = Bn .
kn+1 kn
9
Questa relazione ci permette di determinare il coefficiente an . Sostituiamo
quest’ultimo nella relazione (1.12)ed otteniamo
w(a)s(a) = w(b)s(b) = 0
10
ove a e b sono gli estremi di un intervallo finito o i limiti di un intervallo infinito.
Queste condizioni sono piuttosto restrittive. Pn (x) è un polinomio di grado n
in x, i polinomi {Pn (x)} costituiscono un sistema di funzioni ortogonali. Anche
la funzione peso w(x) appartiene ad una speciale classe di funzioni. Tutto questo
si dimostra a partire da due Lemmi ricavabili dalla (1.15). Si veda in proposito
P. Dennery, A. Krzywicki, pp.203-205 o il Rossetti, pp. 339-344..
Possiamo distinguere tre casi:
CASO A
2
s(x) = 1 w(x) = e−x a = −∞ b = +∞
CASO B
CASO C
n − 1 00
s(x)Pn00 (x)+K1 P1 (x)Pn0 (x)+λn Pn (x) =0 con λn = −n K1 k1 + s (x)
2
(1.17)
11
Per la dimostrazione occorre porre
Z(x) = Dn+1 {s(x)D[w(x)sn (x)]}
dove Dn+1 è la derivata (n + 1)-esima; riscrivere la (1.16) come
Kn w(x)Pn (x) = Dn [w(x)sn (x)] (1.18)
e utilizzando la formula di Leibnitz per la derivata n−esima di un prodotto:
D(f g) = f 0 g + f g 0
D2 (f g) = f 00 g + 2f 0 g 0 + f g 00
D3 (f g) = f 000 g + 3f 00 g 0 + 3f 0 g 00 + f g 000
...
n n n n n−1 1 n
D (f g) = D (f )g + D (f )D (g) + Dn−2 (f )D2 (g) + ...
0 1 2
n 1 n−1 n
... + D (f )D (g) + f Dn (g)
1 n
12
1.3.1 Polinomi di Hermite
Si ricavano ponendo
2
s(x) = 1 w(x) = e−x a = −∞ b = +∞
2n+1 n!
An = 2 Bn = 0 Cn = = 2n αn = 0 β n = 2n λn = 2n
2n (n− 1)!
La formula di Rodriguez generalizzata è
2 dn −x2
Hn (x) = (−1)n ex e (1.22)
dxn
Equazione differenziale
Relazione di ricorrenza
H0 (x) = 1
H1 (x) = 2x
H2 (x) = 2(2x2 − 1)
H3 (x) = 4(2x3 − 3x)
...
Esiste anche una formula generale esplicita
Int[n/2]
X (−1)k (2x)n−2k
Hn (x) = n! (1.26)
k!(n − 2k)!
k=0
13
La funzione generatrice è
∞
X
2 zn
e2xz−z = Hn (x) (1.28)
n=0
n!
ovvero di
1 d2 2 1
− + x Z n (x) = n + Zn (x) (1.30)
2 dx2 2
che è, in unità opportune, l’equazione di Schroedinger indipendente dal tempo
per l’oscillatore armonico unidimensionale. Tale equazione
~2 d 1
− ψ(x) + kx2 ψ(x) = Eψ(x)
2m dx2 2
con le sostituzioni
12
k ~
ω2 = E = ~ω x= ξ ψ(x) = Ψ(ξ)
m mω
si trasforma nella equazione nelle variabili adimensionali
1 d2
− 2 + ξ 2 Ψ(ξ) = Ψ(ξ)
2 dξ
che è della forma (1.30) ed ha soluzioni normalizzabili del tipo Zn (ξ) solo per
= n + 21 . Dalla normalizzazione dei polinomi di Hermite segue
Z +∞ Z +∞ Z +∞
2 √
dξ [Zn (ξ)]2 = dξe−ξ [Hn (ξ)]2 = hn = π2n n!
−∞ −∞ −∞
14
porremo
ψ n (x) = cn Zn (ξ)
da cui 12
~π
c2n 2n n! = 1
mω
Le soluzioni dell’equazione d’onda per l’oscillatore armonico unidimensionale,
con la corretta normalizzazione, sono pertanto
mω 14 1 12 mω 2
mω 12
ψ n (x) = exp(− x )H n x
~π 2n n! 2~ ~
1
E = ~ω n + .
2
15
1.3.2 Polinomi di Laguerre.
Si ottengono ponendo
(n + 1)Lα α α
n+1 (x) − (2n + α + 1 − x)Ln (x) + (n + α)Ln−1 (x) = 0 (1.32)
L’equazione differenziale è
xy 00 + (α + 1 − x)y 0 + ny = 0 (1.33)
La funzione generatrice è
∞
X xz
Lα n
n (x)z = (1 − z)
−α−1 z−1
e , |z| < 1 (1.34)
n=0
16
1.3.3 Polinomi di Jacobi.
Si ottengono ponendo
(−1)n dn
Pn(α,β) (x) = n
(1 − x)−α (1 + x)−β n (1 − x)n+α (1 + x)n+β (1.35)
2 n! dx
L’equazione differenziale è
Le altre formule sono un po’ complicate, ma c’è una formula esplicita molto
compatta
n
X
n+α n+β
Pn(α,β) (x) =2 −n
(x − 1)n−k (1 + x)k (1.37)
k n−k
k=0
17
si hanno i polinomi di Gegenbauer (o ultrasferici)
Cnλ (x)
ponendo
x = cos θ dx = − sin θdθ con 0 < θ < π,
si ha
1 −1
(1 − x2 )− 2 = (sin θ)
Z π
Tm (cos θ)Tn (cos θ)dθ = 0 per m 6= n
0
Si mostra che è
Tn (cos θ) = cos nθ (1.39)
e la relazione precedente non è che la relazione di ortogonalità tra coseni
Z π
cos mθ cos nθdθ = 0 per m 6= n
0
sin(n + 1)θ
Un (cos θ) = (1.40)
sin θ
e molte delle relazioni tra i polinomi di Tchebichef sono parafrasi delle identità
trigonometriche. Ad esempio le relazioni
18
1.3.4 Polinomi di Legendre.
Per finire consideriamo il caso speciale dei polinomi di Jacobi con α = β = 0,
ovvero λ = 21 . Si hanno cosı̀ i polinomi di Legendre (o polinomi sferici) che
compaiono nella risoluzione di molti problemi fisici. In questo caso
w(x) = 1
Le costanti divengono
(2n − 1)!! 2 2n + 1
Kn = (−2)n n! kn = hn = An =
n! 2n + 1 n+1
n
Bn = 0 Cn = αn = 0 β n = n λn = n(n + 1)
n+1
La formula di Rodriguez per i Polinomi di Legendre è
1 dn 2
Pn (x) = (x − 1)n (1.43)
2n n! dxn
L’importante equazione differenziale è
ovvero
d d
(1 − x2 ) y + n(n + 1)y = 0.
dx dx
La relazione di ricorrenza è
P0 (x) = 1
P1 (x) = x
1
P2 (x) = (3x2 − 1)
2
1
P3 (x) = (5x3 − 3x)
2
1
P4 (x) = (35x4 − 30x2 + 3)
8
...
19
e la formula generale
Int[n/2]
X
k n 2n − 2k
Pn (x) = 2 −n
(−1) xn−2k (1.48)
k n
k=0
Pn (1) = 1 (1.49)
20
Capitolo 2
Equazioni differenziali
ordinarie lineari.
Questo capitolo sarà dedicato allo studio delle equazioni differenziali ordinarie,
del secondo ordine, che compaiono in diversi campi della fisica classica e quan-
tistica. Oltre alle tecniche di costruzione delle soluzioni, considerereremo gli
aspetti generali e le trasformazioni che portano a trasformare un problema in
un altro della stessa famiglia. Cercando classi di soluzioni dipendenti da uno o
più parametri, considereremo diverse Funzioni Speciali che si incontrano spesso
nella soluzione dei problemi fisici.
du(z)
A(z) + B(z)u(z) = F (z) (2.1)
dz
con A(z) 6= 0, si pone
B(z) 1 dp(z)
= (2.2)
A(z) p(z) dz
dove p(z) > 0 e si ottiene
F (z)p(z)
p(z)u0 (z) + p0 (z)u(z) =
A(z)
ovvero
d F (z)p(z)
(p(z)u(z)) =
dz A(z)
21
che è immediatamente integrabile
Z z
p(t)F (t)
p(z)u(z) = dt + u(z0 )p(z0 )
z0 A(t)
Dalla (2.2) si ha
Z z
B(t)
p(z) = exp( dt) e p(z0 ) = 1
z0 A(t)
e quindi Z
z
1 p(t)F (t)
u(z) = dt + u(z0 ) (2.3)
p(z) z0 A(t)
Questa è la soluzione generale che vale sia per il caso omogeneo che non omo-
geneo. La soluzione dipende da un parametro u(z0 ).
d2 d
A(z) 2
u(z) + B(z) u(z) + C(z)u(z) = 0 (2.4)
dz dz
Scegliendo una funzione h(z) tale che
d
(h(z)A(z)) = h(z)B(z)
dz
di conseguenza è
h0 (z)A(z) + h(z)A0 (z) = h(z)B(z). (2.5)
L’equazione (2.4)può essere scritta, moltiplicando per h(z) entrambi i membri,
come
d2 d d
h(z)A(z) u(z) + h0 (z)A(z) u(z) + h(z)A0 (z) u(z) + h(z)C(z)u(z) = 0
dz 2 dz dz
ovvero
d d
(h(z)A(z)) u(z) + h(z)C(z)u(z) = 0.
dz dz
Dalla ()2.5) si ha
22
Posto
Z z
B(t) C(z)
ω(z) = h(z)A(z) = exp( dt) Q(z) = h(z)C(z) = ω(z) (2.6)
z0 A(t) A(z)
si ottiene la forma autoaggiunta della equazione (2.4)
d d
ω(z) u(z) + Q(z)u(z) = 0. (2.7)
dz dz
23
2.3 Il Wronskiano.
L’integrale di un’equazione differenziale lineare omogenea del secondo ordine è
del tipo
c1 u1 (z) + c2 u2 (z)
dove c1 e c2 sono costanti arbitrarie e u1 (z) ed u2 (z) due soluzioni particolari
linearmente indipendenti. Le due soluzioni in quanto linearmente indipendenti e
soluzioni particolari della equazione differenziale costituiscono un sistema fonda-
mentale di soluzioni. Condizione necessaria e sufficiente affinchè due soluzioni
costituiscano un sistema fondamentale di soluzioni è che il loro Wronskiano
u1 u2
w= 0
u1 u02
w = u1 u02 − u01 u2
ricordando che
u00 = −p(z)u0 (z) − q(z)u(z)
segue che
da cui Z z
w(z) = w(z0 ) exp − p(t)dt
z0
che prende nome di formula di Liouville e che mostra che la dipendenza da z del
Wronskiano non dipende dalla forma esplicita della coppia di soluzioni, ma solo
dalla funzione p(z) che compare nella forma standard (2.11). La conoscenza del
Wronkiano è definita completamente se è noto w(z0 ) che dipende a sua volta
dal comportamento locale delle due soluzioni attorno a z = z0 . Notiamo poi
che, se p(z) = 0, il Wronskiano è una costante.
u2 (z) = u1 (z)ψ(z)
da cui
u02 = u01 ψ + u1 ψ 0 u002 = u001 ψ + 2u01 ψ 0 + u1 ψ 00
24
Sostituendo nella (2.11) e ricordando che u1 è soluzione si ha
u01
ψ 00 + (2 + p(z))ψ 0 = 0
u1
da cui Z z
ln ψ 0 = −2 ln u1 − p(t)dt + k
z0
ovvero Z z
1
ψ0 = k exp(− p(t)dt)
u21 z0
Poichè il wronskiano è
25
2.5 Equazione del secondo ordine non omoge-
nea.
Può essere scritta nella forma
u00 (z) + p(z)u0 (z) + q(z)u(z) = f (z) (2.12)
La soluzione generale è
u(z) = c1 u1 (z) + c2 u2 (z) + up (z)
dove up (z) è una soluzione particolare e dove u1 ed u2 sono soluzioni linear-
mente indipendenti dell’equazione omogenea associata. La soluzione può essere
otteneuta con un metodo analogo al precedente sostituendo nella (2.12) la u(z)
con la funzione u1 (z)v(z). Si ha
d2 v 2 du1 dv f (z)
+ (p(z) + ) =
dz 2 u1 dz dz u1 (z)
Posto
u21 1 dR w0 2u0 2 du1
R(z) = da cui = − + 1 = p(z) +
w(u1 , u2 ) R dz w u1 u1 dz
e quindi
d2 v 1 dR dv f (z)
+( ) =
dz 2 R dz dz u1 (z)
Questa, pensata come equazione in dvdz , è un’equazione del primo ordine. E’
pertanto immediatamente risolubile utilizzando la (2.3)
Z z
dv 1 R(t)f (t)
= dt.
dz R(z) z0 u1 (t)
Si può osservare che
1 d u2
=
R(z) dz u1
per cui Z z
dv d u2 u1 (t)f (t)
= dt =
dz dz u1 z0 w(u 1 (t), u2 (t))
Z
d u2 z u1 (t)f (t) u2 (t)f (t)
= dt −
dz u1 z0 w(u1 (t), u2 (t)) w(u1 (t), u2 (t))
Integrando e moltiplicando per u1 si ottiene
Z z Z z
u1 (t)f (t) u2 (t)f (t)
up (z) = u2 (z) dt − u1 (z) dt
z0 w(u1 (t), u2 (t)) z0 w(u1 (t), u2 (t))
La soluzione generale, nel caso di una equazione differenziale ordinaria del sec-
ondo ordine non omogenea, è ottenibile dalla conoscenza di una soluzione par-
ticolare della equazione omogenea. Occorre però trovare almeno una soluzione
particolare della equazione omogenea.
26
2.6 Soluzioni nell’intorno di un punto ordinario.
Studieremo l’equazione differenziale (2.11) per z variabile complessa e suppor-
remo che esista una regione R del piano z in cui le funzioni p(z) e q(z) siano
olomorfe. Se z0 ∈ R si dirà che z0 è un punto ordinario della equazione differen-
ziale, mentre tutti i punti zi che sono punti singolari per p(z) o q(z) si diranno
punti singolari.
Data l’equazione in forma standard
u(z0 ) = c0 u0 (z0 ) = c1 .
dove µ(z) = 0, ρ(z) = 1, χ(z) = −q(z), ϕ(z) = −p(z). Posso riscrivere il sistema
come
d u µ ρ u
= (2.13)
dz v χ ϕ v
dove, in particolare,
d u 0 1 u
= (2.14)
dz v −q −p v
u(z0 ) = α v(z0 ) = β
27
che può essere risolto per approssimazioni successive, mediante le successioni
{un (z)},{vn (z)}
Z z
un (z) = α + (µ(z 0 )un−1 (z 0 ) + ρ(z 0 )vn−1 (z 0 ))dz 0
z0
Z z
vn (z) = β + (χ(z 0 )un−1 (z 0 ) + ϕ(z 0 )vn−1 (z 0 ))dz 0
z0
dove si è posto
u0 (z) = α v0 (z) = β
Si può mostrare che le successioni convergono assolutamente e uniformemente
nel cerchio C. Infatti da
Z z
u1 (z) − α = u1 (z) − u0 (z) = (µ(z 0 )α + ρ(z 0 )β)dz 0
z0
Z z
v1 (z) − β = v1 (z) − v0 (z) = (χ(z 0 )α + ϕ(z 0 )β)dz 0
z0
da cui
2
(2M |z − z0 |)
|u2 (z) − u1 (z)| ≤ m .
2
In generale si otterranno, per {un (z)} e {vn (z)} , le maggiorazioni
n
(2M |z − z0 |)
|un (z) − un−1 (z)| ≤ m
n!
n
(2M |z − z0 |)
|vn (z) − vn−1 (z)| ≤ m .
n!
Entro il cerchio C le serie
28
Il sistema ha una sola soluzione definita completamente dalla scelta di u0 e di
v0 , che costituiscono le condizioni iniziali. Una soluzione linearmente indipen-
dente da quella trovata si ottiene da una nuova coppia di valori che non sia
proporzionale alla prima coppia.
29
(+) (+)
Poichè u1 (z) e u2 (z) sono ancora linearmente indipendenti, sarà quindi
a11 a12
det 6= 0.
a21 a22
dove wj (z) è una funzione monodroma, analitica nella corona circolare 0 <
|z − z0 | < r0 , quindi sviluppabile in serie di Laurent, mentre il fattore (z − z0 )ρj
è responsabile della eventuale polidromia. Si noti che gli esponenti ρj dati dalla
(2.16) sono definiti a meno di un intero ni .Questo è consistente con gli sviluppi
∞
X
u1 (z) = (z − z0 )ρ1 ck (z − z0 )k (2.17)
k=−∞
X∞
u2 (z) = (z − z0 )ρ2 dk (z − z0 )k (2.18)
k=−∞
30
Nel caso che λ1 = λ2 , il problema si complica. Si ottiene
(+)
u1 (z) = λ1 u1 (z)
(+)
u2 (z) = a21 u1 (z) + λ1 u2 (z)
e segue che
∞
X
u1 (z) = (z − z0 )ρ1 ck (z − z0 )k
k=−∞
∞
X
u2 (z) = au1 (z) ln(z − z0 ) + (z − z0 )ρ1 dk (z − z0 )k
k=−∞
dove
1 a21
a= .
2πi λ1
31
2.8 Punti singolari regolari.
Il problema della determinazione esplicita delle soluzioni u1 (z) ed u2 (z) si ri-
solve in generale solo se nelle serie che compaiono in (2.17) e (2.18) vi è un
numero finito di potenze con esponente negativo. In tal caso il punto z0 si dice
punto singolare regolare o Fuchsiano. Il caso non-Fuchsiano non è trattabile
in generale. Ci si chiede che caratteristiche debbano avere p(z) e q(z) perchè
si abbiano solo casi Fuchsiani. Nel primo caso, quello con esponenti ρ1 e ρ2
distinti e con ρ1 − ρ2 6= n, se n è intero, si può scrivere
u1 = (z − z0 )ρ1 R1 (z − z0 ) u2 = (z − z0 )ρ2 R2 (z − z0 )
dove è possibile, grazie alla definizione dei due esponenti a meno di un numero
intero arbitrario, scegliere ρ1 e ρ2 in modo che le serie R1 ed R2 non abbiano
termini ad esponente negativo ed abbiano il coefficiente del termine Rdi grado
zero non nullo. Il Wronskiano w(u1 , u2 ) = u1 u02 − u01 u2 = w0 exp(− p(z)dz)
deve essere non nullo e quindi
d u00 u2 − u1 u002 w0
p(z) = − ln w = 1 0 0 =− .
dz u1 u2 − u 1 u2 w
Di conseguenza
u01 u00
q(z) = −p(z) − 1
u1 u1
che comporta che q(z) presenti al massimo un polo del secondo ordine
∞
X
Q(z − z0 )
q(z) = 2 con Q(z − z0 ) = qn (z − z0 )n .
(z − z0 ) n=0
32
dove P e Q sono funzioni analitiche nell’intorno considerato.
Sostituendo nella eq. (2.19) l’espressione
∞
X
ρ k
u(z) = (z − z0 ) ck (z − z0 ) dove c0 = 1
k=0
ρ1 − ρ2 6= n = 0, 1, 2, ...
si avrà ∞
ρ1
X k
u1 (z) = (z − z0 ) ck (z − z0 ) (2.21)
k=0
∞
X
ρ2
u2 (z) = (z − z0 ) c0k (z − z0 )k (2.22)
k=0
ρ1 − ρ2 = n = 0, 1, 2, ...
si avrà invece ∞
ρ1
X k
u1 (z) = (z − z0 ) ck (z − z0 ) (2.23)
k=0
∞
X
u2 (z) = au1 (z) ln(z − z0 ) + (z − z0 )ρ2 dk (z − z0 )k (2.24)
k=0
33
2.9 Studio nell’intorno del punto all’infinito.
Consideriamo l’equazione differenziale in forma standard
Con la sostituzione
1
z=
µ
si ha
d d d2 3 d 4 d
2
= −µ2 = 2µ + µ
dz dµ dz 2 dµ dµ2
e quindi la (2.11) diviene
d2 u 1 du 1
µ4 2
+ [2µ3 − µ2 p( )] + q( )u = 0
dµ µ dµ µ
che può essere scritta in forma standard come
d2 u 2 1 1 du 1 1
2
+ [ − 2 p( )] + 4 q( )u = 0. (2.25)
dµ µ µ µ dµ µ µ
Ora µ = 0 è un punto ordinario se
2 1 1 1 1
[ − 2 p( )] e q( )
µ µ µ µ4 µ
tendono entrambe ad un limite finito per µ → 0, ovvero se
2 1 1
p(z) → + O( 2 ) q(z) → O( ) per z → ∞.
z z z4
In tal caso il punto all’infinito è un punto ordinario. Con la sostituzione effet-
tuata il problema si riduce al caso del punto ordinario al finito. Le due soluzioni
linearmente indipendenti hanno la forma
∞
X
u(z) = cn z −n .
n=0
34
Esprimendo le soluzioni in funzione di z, si avrà
∞
X
u1 (z) = z −ρ1 cn z −n
n=0
∞
X
u2 (z) = z −ρ2 c0n z −n
n=0
La seconda espressione vale nel caso che
ρ1 − ρ2 6= n = 0, 1, 2, ...
altrimenti è sostituita da
∞
X
u2 (z) = bu1 (z) ln(z) + z −ρ2 c0n z −n
n=0
Nel caso di punti singolari non-Fuchsiani non esiste un metodo generale per
determinare due soluzioni. Ad esempio, per z0 finito, se
P (z) Q(z)
p(z) = q(z) =
(z − z0 )2 (z − z0 )3
con P (z) e Q(z) regolari in z0 si può porre
∞
X
u = (z − z0 )ρ (1 + cn (z − z0 )n )
n=1
35
2.10 Equazioni Fuchsiane con tre punti singolari
isolati.
Consideriamo un’equazione con tre punti singolari regolari isolati ξ 1 ξ 2 ξ 3 , siano
(αi , β i ) per i = 1, 2, 3 le tre coppie di soluzioni delle rispettive equazioni
indiciali. Scriveremo nelle usuali notazioni
P (z)
p(z) = (2.28)
(z − ξ 1 )(z − ξ 2 )(z − ξ 3 )
Q(z)
q(z) = . (2.29)
(z − ξ 1 )2 (z − ξ 2 )2 (z − ξ 3 )2
Se il punto all’infinito è ordinario si avrà anche
2 1
p(z) ∼ q(z) ∼ O per z → ∞. (2.30)
z z4
Una possibile scelta di p(z) e q(z) che verifica questi requisiti è la seguente:
A1 A2 A3
p(z) = + + (2.31)
z − ξ1 z − ξ2 z − ξ3
1 B1 B2 B3
q(z) = + +
(z − ξ 1 )(z − ξ 2 )(z − ξ 3 ) z − ξ 1 z − ξ2 z − ξ3
con A1 + A2 + A3 = 2. Da questa scelta è facile scrivere le tre equazioni indiciali
come
Bi
ρ2 + (Ai − 1)ρ + =0
(ξ i − ξ k )(ξ i − ξ l )
con (i, k, l) permutazione di (1, 2, 3). Le soluzioni (αi , β i ) di ciascuna equazioni
indiciale hanno le proprietà
α i + β i = 1 − Ai
Bi
αi β i =
(ξ i − ξ k )(ξ i − ξ l )
da cui si ricava che
Ai = 1 − α i − β i
Bi = αi β i (ξ i − ξ k )(ξ i − ξ l )
mentre da A1 + A2 + A3 = 2, conseguenza della (2.31) e della (2.30), segue che
3
X
α 1 + β 1 + α2 + β 2 + α3 + β 3 = (αi + β i ) = 1. (2.32)
i=1
36
Con queste specificazioni l’equazione diventa
( 3 )
X 1 − αi − β (ξ − ξ 2 )(ξ 2 − ξ 3 )(ξ 3 − ξ 1 )
i
00
u + u0 − 1 ×
i=1
z − ξ i (z − ξ 1 )(z − ξ 2 )(z − ξ 3 )
α1 β 1 α2 β 2 α3 β 3
+ + u=0 (2.33)
(z − ξ 1 )(ξ 2 − ξ 3 ) (z − ξ 2 )(ξ 3 − ξ 1 ) (z − ξ 3 )(ξ 1 − ξ 2 )
che prende il nome di equazione di Papperitz-Riemann. E’ un’equazione che
generalizza diverse equazioni importanti della fisica matematica. E’ scritta in
funzione di nove parametri: i tre punti singolari regolari ξ i , i relativi esponenti
αi e β i , soluzioni delle equazioni indiciali, che verificano la regola di somma
(2.32). La soluzione dell’equazione è rappresentata dal simbolo di Riemann P,
che sarà scritto come
ξ1 ξ2 ξ3
u=P α1 α 2 α3 z
β1 β2 β3
Cosı̀ scritto il simbolo mostra interessanti proprietà che facilitano lo studio delle
soluzioni dell’equazione.
1. Le prime tre colonne sono tra loro permutabili.
2. Le componenti di ciascuna coppia di indici (αi , β i ) possono essere permu-
tate indipendentemente dalle altre.
3. Il simbolo P può essere moltiplicato per una qualunque costante k.
4. Una trasformazione omografica, ovvero una trasformazione del tipo
az + b
z0 = con ad − bc 6= 0
cz + d
trasforma i punti singolari
0
(ξ 1 , ξ 2 , ξ 3 ) → ξ 1 , ξ 02 , ξ 03 cosı̀ come z → z0
37
ξ1 ξ2 ξ3
= (z − ξ 1 )γ 1 (z − ξ 2 )γ 2 (z − ξ 3 )γ 3 P α1 − γ 1 α2 − γ 2 α3 − γ 3 z
β1 − γ1 β2 − γ2 β3 − γ3
purchè
γ 1 + γ 2 + γ 3 = 0.
Quest’ultima fornisce una trasformazione sulla u(z). Afferma che la soluzione
u(x) della eq. (2.33) può essere scritta come
u(z) = (z − ξ 1 )γ 1 (z − ξ 2 )γ 2 (z − ξ 3 )γ 3 v(z)
dove v(z) è ancora soluzione della eq. (2.33) con gli (αi , β i ) modificati. In-
vece la proprietà numero 4 corrisponde ad una trasformazione sulla variabile
indipendente (e ovviamente sui punti singolari).
Queste proprietà permettono, a partire dalla equazione di Papperritz-Riemann
(2.33), di giungere ad un’espressione di P che dipende da soli tre parametri, fis-
sando i tre punti singolari in (0, 1, ∞), ed ottenendo una equazione importante,
l’equazione ipergeometrica.
38
2.11 L’equazione ipergeometrica.
La trasformazione z → z 0 definita da
z − ξ1 ξ2 − ξ3
z0 =
z − ξ3 ξ2 − ξ1
trasforma i tre punti singolari regolari al finito (ξ 1 , ξ 2 , ξ 3 ) in (0, 1, ∞). Per la
proprietà numero 4
ξ1 ξ2 ξ3 0 1 ∞
P α 1 α2 α3 z =P α1 α 2 α3 z 0
β1 β2 β3 β1 β2 β3
mentre per la proprietà numero 5 segue che
0 1 ∞ 0 1 ∞
P α1 α 2 α3 z 0 = (z 0 )α1 (z 0 −1)α2 P 0 0 α 1 + α2 + α3 z0 .
β1 β2 β3 β 1 − α1 β 2 − α2 β 3 + α1 + α2
Ponendo
α1 + α 2 + α 3 = a β 3 + α 1 + α2 = b β 1 − α1 = 1 − c
segue che
β 2 − α2 = c − a − b
e quindi
0 1 ∞ 0 1 ∞
P α1 α 2 α3 z0 = (z 0 )α1 (z 0 −1)α2 P 0 0 a z0
β1 β2 β3 (1 − c) (c − a − b) b
dove compaiono tre punti singolari regolari fissi in (0, 1, ∞) e tre soli parametri
(a, b, c).
Il simbolo di Riemann
0 1 ∞
P 0 0 a z
(1 − c) (c − a − b) b
è la soluzione u di un’equazione che possiamo scrivere, sostituendo nella (2.33)
i valori dei nuovi parametri che compaiono ora nel simbolo. Si ha
00 c 1−c+a+b ab
u + + u0 + u=0
z z−1 z(z − 1)
che, moltiplicando per z(1 − z), diviene
z(1 − z)u00 + {c − (a + b + 1)z} u0 − abu = 0 (2.34)
e prende nome di equazione ipergeometrica.
39
2.12 Le soluzioni dell’equazione ipergeometrica.
da cui
ck ((a + b + 1)k + k 2 − k + ab) = ck+1 (k 2 + k + ck + c)
ovvero
k(a + b + k) + ab
ck+1 = ck .
(k + c)(k + 1)
Ponendo c0 = 1 si ha
ab a(a + 1)b(b + 1)
c1 = c2 = ...
c 1 · 2 · c(c + 1)
e in generale
40
dove si è definito
Γ(a + k)
(a)k = a(a + 1)...(a + k − 1) = (2.37)
Γ(a)
X∞
(a)n (b)n n
F (a, b; c; z) = z
n=0
(c)n n!
che per |z| < 1 converge uniformemente. Definita per c 6= 0, −1, −2, ..., prende
nome di serie ipergeometrica, può essere continuata analiticamente al di fuori del
cerchio |z| < 1. Tale continuazione definisce la funzione ipergeometrica, che ha
punti singolari in z = 1 e z = ∞. La serie ipergeometrica può essere considerata
come una particolare rappresentazione della funzione ipergeometrica.
Scegliendo, invece di c0 = 1,
1
c0 =
Γ(c)
che rimane finita anche per c = −N , con N = 1, 2, .... Dal momento che i primi
N + 1 termini della serie per c = −N sono nulli si potrà scrivere
∞
X (a)k+N (b)k+N z k+N
F̄ (a, b; −N ; z) = .
Γ(k) (k + N )!
k=1
41
essendo (1)n = n!.
Si noti che la F è simmetrica rispetto allo scambio dei primi due parametri
F (a, b; c; z) = F (b, a; c; z)
Inoltre
X∞
a(a + 1)...(a + n − 1) n
F (a, b; b; z) = z =
n=0
n!
X∞ ∞
−a(−a − 1)...(−a − n + 1)(−1)n n X −a
= z = (−z)n = (1 − z)−a .
n=0
n! n=0
n
(2.38)
Se a o b è un numero intero negativo la serie si tronca, riducendosi a una somma
finita di termini.
∞
X N
(−N )n (b)n n X N (b)n n
F (−N, b; c; z) = z = (−1)n z
n=0
n! (c) n n=0
n (c)n
F (0, b; c; z) = 1,
si noti infatti che per ab = 0 una delle soluzioni della equazione (2.34) è u1 =
cost.
Molte funzioni note possono essere considerate come casi particolari della
funzione ipergeometrica, per particolari scelte dei parametri.
Ad esempio:
X∞ ∞
(1)n (1)n n X n!n!
F (1, 1; 2; z) = z = zn = (2.39)
n=0
n!(2) n n=0
n!(n + 1)!
∞
X ∞
zn 1 X zk 1
= = = − ln(1 − z)
n=0
(n + 1) z k z
k=1
Le proprietà (2.38) e (2.39) valgono per z complesso con |arg(1 − z)| < π.
Valgono inoltre le relazioni con le funzioni trigonometriche inverse
1 1 3 1
F ( , ; ; z 2 ) = arcsin(z) per |arg(1 ± z)| < π
2 2 2 z
1 3 1
F ( , 1; ; −z 2 ) = arctan(z) per |arg(1 ± iz)| < π
2 2 z
e quelle con gli integrali ellittici completi
Z π/2
1 π 1 1
K(z) = (1 − sin2 ϕ)− 2 dϕ = F ( , ; 1; z 2 )
0 2 2 2
Z π/2
1 π 1 1
E(z) = (1 − sin2 ϕ) 2 dϕ = F (− , ; 1; z 2 )
0 2 2 2
42
per |arg(1 − z)| < π.
u2 = z 1−c F (a − c + 1, b − c + 1; 2 − c; z)
che va nell’intorno dello zero come u2 ∼ z 1−c con c non intero, mentre u1 ∼ 1.
La soluzione generale è allora del tipo
Con una trasformazione dello stesso tipo sul simbolo P che lascia però
invariati gli esponenti del punto z = 0, si ha
0 1 ∞ 0 1 ∞
P 0 0 a z = (1−z)c−a−b P 0 a+b−c c−b z =
1−c c−a−b b 1−c 0 c−a
0 1 ∞
= (1 − z)c−a−b P 0 0 c−a z
1−c a+b−c c−b
da cui risulta che anche
u(z) = (1 − z)c−a−b F (c − a, c − b; c; z)
43
che prende nome di relazione di autotrasformazione della funzione ipergeomet-
rica.
Altre trasformazioni si possono ottenere considerando il cambiamento di
variabile
az + b
z0 = con ad − bc 6= 0
cz + d
già studiato in precedenza. In particolare ci interessano quelle che permutano i
punti singolari (0, 1, ∞) tra di loro: esse sono
1 1 0 z−1 0 z
z0 = 1 − z z0 = z0 = z = z =
1−z z z z−1
Ad esempio l’ultima ci permette di scrivere
0 1 ∞ 0 ∞ 1
z
P 0 0 a z =P 0 0 a z−1 =
1−c c−a−b b 1−c c−a−b b
0 1 ∞ z 0 1 ∞
z a z
=P 0 a 0 z−1 = ( −1) P 0 0 a z−1
z−1
1−c b c−a−b 1−c b−a c−b
Tenendo conto della 2.40, determinando i coefficienti studiando l’andamento per
z = 0, si ottiene facilmente la relazione
z
F (a, b; c; z) = (1 − z)−a F (a, c − b; c; )
z−1
che è una delle cinque formule di Bolza. Le altre si ottengono dalle altre trasfor-
mazioni e sono più complicate per la presenza di due termini con le espres-
sioni dei due coefficienti in ciascuna. Altre importanti relazioni si ottengono da
trasformazioni non lineari del tipo
√ √
1+ 1−z 1+ 1−z −4z
z0 = z0 = √ z0 = ...
2 1− 1−z (1 − z)2
scrivendo poi
∞
X ∞
X
−b (b)k
(1 − zt)−b = (−1)k z k tk = z k tk
k k!
k=0 k=0
44
e sostituendosi ha
∞
X Z 1 ∞
X
(b)k k a−1+k c−a−1 (b)k Γ(a + k)Γ(c − a)
I(z) = z t (1 − t) dt = zk
k! 0 k! Γ(c + k)
k=0 k=0
ricordando che
Z 1
Γ(α)Γ(β)
tα−1 (1 − t)β−1 dt = B(α, β) = .
0 Γ(α + β)
Si ha ancora
∞
X (b)k Γ(a)(a)k Γ(c − a) k Γ(a)Γ(c − a)
I(z) = z = F (a, b; c; z)
k! Γ(c)(c)k Γ(c)
k=0
da cui
Z 1
Γ(c)
F (a, b; c; z) = ta−1 (1 − t)c−a−1 (1 − zt)−b dt
Γ(a)Γ(c − a) 0
45
2.13 Le funzioni di Legendre.
Consideriamo l’equazione
2 00 0 µ2
(1 − z )u − 2zu + ν(ν + 1) − u=0 (2.43)
(1 − z 2 )
E’ un’equazione con tre punti singolari Fuchsiani: −1, 1, ∞. Prende nome di
equazione di Legendre. Per z → 1 si ha
−2z −2z
p0 = lim (z − 1) = lim =1
z→1 (1 − z 2 ) z→1 −(1 + z)
ν(ν + 1) µ2 2 µ2
q0 = lim − (z − 1) = −
z→1 (1 − z 2 ) (1 − z 2 )2 4
L’equazione indiciale ρ2 + (p0 − 1)ρ + q0 = 0 diviene
µ2
ρ2 − =0
4
ovvero
µ
ρ=± .
2
Per z → −1 si ottengono gli stessi valori, mentre per z → ∞ si ha p0 = 2 e
q0 = −ν(ν + 1) nella equazione indiciale ρ(ρ + 1) − p0 ρ + q0 = 0, che diviene
ρ(ρ − 1) = ν(ν + 1)
che ha soluzioni
ρ = −ν ρ = ν + 1.
La soluzione generale è
−1 1 ∞
u=P −µ/2 −µ/2 −ν z
µ/2 µ/2 ν + 1
Ponendo
1−z
z0 =
2
i punti singolari si muovono da −1, +1, ∞ a 1, 0, ∞. Cosı̀ si ha, con attenzione
ai passaggi intermedi che utilizzano le proprietà del simbolo P ,
1−z − 2 0 1
µ
0 1 ∞ ∞
1−z 2 1−z
u=P −µ/2 −µ/2 −ν 2 = 1−z P 0 0 −ν 2
2 −1
µ/2 µ/2 ν + 1 µ −µ ν + 1
46
o, dividendo per Γ(1 − µ), da
µ2
1 z+1 1−z
Pνµ (z) = F (−ν, ν + 1; 1 − µ; ) (2.44)
Γ(1 − µ) z−1 2
F (a, b; c; z) = (1 − z)c−a−b F (c − a, c − b; c; z)
che comporta
µ2 −µ
1 z+1 1+z 1−z
Pνµ (z) = F (1 − µ + ν, −µ − ν; 1 − µ; )
Γ(1 − µ) z−1 2 2
ovvero
2µ µ 1−z
Pνµ (z) = (z 2 − 1)− 2 F (1 − µ + ν, µ − ν; 1 − µ; ) (2.45)
Γ(1 − µ) 2
Se Pνµ (z) è soluzione anche Pν−µ (z) è soluzione e se µ non è un intero le due
funzioni sono linearmente indipendenti, anche se si preferisce considerare come
seconde soluzioni le
µ πeiπµ µ Γ(ν + µ + 1) −µ
Qν (z) = Pν (z) − P (z) (2.46)
2 sin πµ Γ(ν − µ + 1) ν
47
2.14 Le funzioni di Legendre con indice intero.
Per µ = m interi, invece
Γ(ν − m + 1) m
Pν−m (z) = P (z) (2.47)
Γ(ν + m + 1) ν
e per m = 0
1−z
Pν0 (z) = F (−ν, ν + 1; 1; ) ≡ Pν (z) (2.48)
2
La funzione indicata con Pν (z) è soluzione dell’equazione
48
che coincidono con i Polinomi di Legendre di grado l. Inoltre se l = −n con
n = 1, 2, ...
P−n (z) = Pn−1 (z).
Dalla (2.50) si ricavano anche le funzioni associate ai polinomi di Legendre
m dm
Plm (z) = (z 2 − 1) 2 Pl (z)
dz m
se 0 ≤ m ≤ l, mentre se −l ≤ m < 0 si utilizza la relazione (2.47) ovvero
(l − m)! −m
Plm (z) = P (z)
(l + m)! l
In questo modo le Plm (z) non nulle, dipendono dai due indici l ed m, con la
condizione −l ≤ m ≤ l.
La equazione (2.43) diviene, ponendo z = x con −1 ≤ x ≤ 1
d d m2
(1 − x2 ) − Plm (x) = −l(l + 1)Plm (x)
dx dx 1 − x2
d d m2
Om = (1 − x2 ) −
dx dx 1 − x2
che posso scrivere
Om | Plm >= −l(l + 1) | Plm > .
Notiamo che nella base dei | Plm > Om è autoaggiunto. Se l 0 6= l,
Per ogni m il sistema di funzioni associate ai polinomi di Legendre Plm (x) per
l ≥ m costituisce un sistema di funzioni ortogonali. La normalizzazione è data
da Z +1
2 2 (l + m)!
[Plm (x)] dx = = hm
l .
−1 2l + 1 (l − m)!
Di conseguenza una qualunque funzione f (x) ∈ L21 (−1, 1) potrà esere sviluppata
in serie di Fourier
X∞
f (x) ∼ cl Plm (x)
l=m
con m fissato e Z +1
1
cl = m Plm (x)f (x)dx.
hl −1
49
2.16 L’equazione ipergeometrica confluente.
Partendo dall’equazione ipergeometrica, scritta nella variabile t,
d2 u du
z(b − z) + [bc − (a + b + 1)z] − abu = 0
dz 2 dz
d2 u bc (a + b + 1) du abu
+ − − =0
dz 2 z(b − z) b−z dz z(b − z)
E’ una equazione differenziale con tre punti singolari Fuchsiani in 0, b, ∞. Con
la scelta b → ∞ si ottiene
d2 u h c i du a
+ − 1 − u=0 (2.52)
dz 2 z dz z
che prende nome di equazione ipergeometrica confluente. Ha solo due punti
singolari, 0 ed ∞, il primo è regolare, il secondo no. In un cerchio con centro
in punto z = 0, di qualunque raggio, possiamo ricavare le soluzioni. Si ha
l’equazione indiciale
ρ(ρ − 1) + cρ = 0
che ha soluzioni
ρ1 = 0 ρ2 = 1 − c
Le soluzioni si ottengono da quelle della equazione (2.51)
u1 = F (a, b; c; t) u2 = t1−c F (a − c + 1, b − c + 1; 2 − c; t)
sostituendo t = z/b si ha
z z
u1 = F (a, b; c; ) u2 = z 1−c F (a − c + 1, b − c + 1; 2 − c; ).
b b
La prima delle due soluzioni è data da
∞
X (a)k (b)k z k
z
u1 = F (a, b; c; ) =
b (c)k k! bk
k=0
50
2.17 La funzione ipergeometrica confluente.
E’ facile osservare che per b → ∞ La funzione ipergeometrica confluente.
(b)k
lim =1
b→∞ bk
e di conseguenza
∞
X (a)k
z
u1 = lim F (a, b; c; ) = zk =
b→∞ b (c)k k!
k=0
u2 = z 1−c Φ(a − c + 1, 2 − c; z)
Φ(a, a; z) = ez
ez − 1
Φ(1, 2; z) =
z
Inoltre, per a = −n con n intero non negativo, si ha un polinomio di grado n
n
X (−1)k n
Φ(−n, c; z) = zk.
(c)k k
k=0
51
La equazione ipergeometrica confluente si può scrivere come
zu00 + (α + 1 − z)u0 − nu = 0
che ha un limite finito e può essere resa continua per c → −n. Infatti
∞ ∞
1 X (a)k z k 1 X (a)k Γ(−n)z k
Φ̄(a, −n; z) = = =
Γ(−n) (−n)k k! Γ(−n) Γ(k − n) k!
k=0 k=0
∞
X ∞
X 0 ∞
X
(a)k z k (a)k0 +n+1 z k +n+1 (a)h+n z h+n
= = =
Γ(k − n) k! 0
Γ(k 0 + 1) (k 0 + n + 1)! Γ(h) (h + n)!
k=0 k =0 h=1
Di nuovo questa soluzione è del tipo u2 andando, per z → 0, come z n+1 = z 1−c .
dn (a)n
Φ(a, c; z) = Φ(a + n, c + n; z) (2.57)
dz n (c)n
52
ponendo z 0 = z/b e facendo il limite
−b " − ztb #zt
zt zt
lim 1− = lim 1− = ezt
b→∞ b b→∞ b
si ha
Z 1
Γ(c)
Φ(a, c; z) = ezt ta−1 (1 − t)c−a−1 dt (2.58)
Γ(a)Γ(c − a) 0
che è la rappresentazione integrale della Φ(a, c; z) per Re(c) > Re(a) > 0.
zu00 + (c − z)u0 − au = 0
la sostituzione
u(z) = ez v(z)
Si ha
zv 00 (z) + (c + z)v 0 (z) − (a − c)v(z) = 0
che, con la trasformazione z → −z, diviene
che è ancora una equazione ipergeometrica confluente in v(−z) con nuovi coef-
ficienti. Una soluzione particolare di questa è
v(−z) = Φ(c − a, c; z)
che per opportuni valori dei coefficienti potremo eguagliare alla soluzione gen-
erale 2.54
53
cΦ(a, c; z) − cΦ(a − 1, c; z) − zΦ(a, c + 1; z) = 0
(a − 1 + z)Φ(a, c; z) + (c − a)Φ(a − 1, c; z) − (c − 1)Φ(a, c − 1; z) = 0
c(a + z)Φ(a, c; z) − acΦ(a + 1, c; z) − (c − a)zΦ(a, c + 1; z) = 0
(c − a)Φ(a − 1, c; z) + (2a − c + z)Φ(a, c; z) − aΦ(a + 1, c; z) = 0
c(c − 1)Φ(a, c − 1; z) − c(c − 1 + z)Φ(a, c; z) + (c − a)zΦ(a, c + 1; z) = 0
Le prime due si ottengono direttamente dalla definizione, lo sviluppo in serie,
mentre le altre si ricavano dalle prime due.
Da queste si ricavano anche le relazioni triangolari
z
Φ(a, c; z) = Φ(a + 1, c; z) − Φ(a + 1, c + 1; z)
c
c−a a
Φ(a, c; z) = Φ(a, c + 1; z) + Φ(a + 1, c + 1; z).
c c
54
2.18 La funzione ipergeometrica confluente di
seconda specie.
Se invece di studiare la soluzione nel cerchio di raggio qualunque centrato sul-
l’origine, vogliamo considerare l’intorno del punto all’infinito, punto singolare
non Fuchsiano, possiamo scrivere
1
u(z) = z −ρ 1 + O( )
z
ρ=a
Si ottiene
c−a−1
ck = (a)k
k
Poichè
ck
lim =0
k→∞ ck+1
la serie non converge. Tuttavia si può considerare la (2.60) come lo svilup-
po asintotico di una soluzione che prende il nome di Funzione Ipergeometrica
confluente di seconda specie. Si avrà
n
X
c−a−1
Ψ(a, c; z) = (a)k z −a−k + O(z −a−n−1 ). (2.61)
k
k=0
valida per Re z > 0 e Re a > 0. La Ψ(a, c; z) può essere scritta come com-
binazione lineare delle due soluzioni u1 ed u2 . Determinando i coefficienti si
ha
55
(c − a)Ψ(a, c; z) + Ψ(a − 1, c; z) − zΨ(a, c + 1; z) = 0
dm
Ψ(a, c; z) = (−1)m (a)m Ψ(a + m, c + m; z)
dz m
Una qualunque soluzione della equazione ipergeometrica può essere scritta
come combinazione lineare delle funzioni ipergeometriche confluenti di prima e
seconda specie
u = AΦ(a, c; z) + BΨ(a, c; z)
Inoltre valgono due relazioni che sono simmetriche rispetto alle espressioni (2.54)
e (2.59)
u = B1 Ψ(a, c; z) + B2 ez Ψ(c − a, c; −z)
Ψ(a, c; z) = z 1−c Ψ(a − c + 1, 2 − c; z).
56
e l’equazione ipergeometrica confluente scritta nella forma di Whittaker
00 1 κ 1/4 − ν 2
v (z) + − + + v(z) = 0
4 z z2
ha soluzione generale
57
2.20 Le Funzioni di Bessel.
La equazione ipergeometrica confluente
zu00 + (c − z)u0 − au = 0
Ponendo κ = 0 si ha la equazione
1
00 1 4 − ν2
v + − + v=0 (2.64)
4 z2
La soluzione dipende solo dal parametro ν ed è
Con le sostituzioni
1 0 ν2
Zν00 (z) + Zν (z) + (1 − 2 )Zν (z) = 0 (2.65)
z z
Zν (z) = z ν e−iz u(ν + 1/2, 2ν + 1; 2iz) (2.66)
58
L’equazione di Bessel ha due punti singolari: uno Fuchsiano a z = 0 ed
uno non Fuchsiano a z = ∞. A z → 0 nell’equazione indiciale si ha p0 = 1 e
q0 = −ν 2 .
ρ2 = ν 2 quindi ρ = ±ν
Per ρ = ν la soluzione è del tipo
∞
X
Jν (z) = z ν ck z k
k=0
59
che prende nome di funzione di Bessel di seconda specie o funzione di Neumann.
che comporta
r
2 i(z− π ν− π ) ν 2 − 1/4 1
Hν(1) (z) ∼ e 2 4 1+ + O( 2 )
πz −2iz z
60
r
2 −i(z− π ν− π ) ν 2 − 1/4 1
Hν(1) (z) ∼ e 2 4 1+ + O( 2 )
πz 2iz z
e da cui segue
r
2 π π 1
Jν (z) ∼ cos(z − ν − ) 1 + O( ) (2.75)
πz 2 4 z
r
2 π π 1
Yν (z) ∼ sin(z − ν − ) 1 + O( )
πz 2 4 z
In questo modo è poi possibile ottenere l’espressione asintotica a qualunque
ordine in 1/z,invece del solo primo termine. Si vede comunque che, per valori di
z reale positivo, al tendere di z all’infinito, le due funzioni si comportano come
funzioni oscillanti, con infiniti zeri che da un certo punto in poi sono distanziati
di π come le funzioni cos e sin. Invece per z → 0, per z e ν reali positivi Jν (z)
va a zero mentre Yν (z) diverge. Questo comportamento caratterizza le funzioni
di Bessel sul semiasse reale.
ν z ν−1 X z 2k
∞
d (−1)k
Jν (z) = +
dz 2 2 k!Γ(ν + k − 1) 2
k=0
z ν X
∞
(−1)k z 2k−1
+ =
2 (k − 1)!Γ(ν + k − 1) 2
k=1
61
Una rappresentazione integrale della Jν (z) si ottiene a partire dalla rappre-
sentazione integrale della funzione ipergeometrica confluente
Z +1
(z/2)ν
Jν (z) = √ eiρz (1 − ρ2 )ν−1/2 dρ
πΓ(ν + 1/2) −1
1
e valide per Re ν > 2.
(−1)k z 2k+n
∞
X
Jn (z) =
k!(n + k)! 2
k=0
da cui
(z/2)2 (z/2)4 (z/2)6
J0 (z) = 1 − + − + ...
(1!)2 (2!)2 (3!)2
z (z/2)2 (z/2)4 (z/2)6
J1 (z) = 1− + − + ...
2 1!2! 2!3! 3!4!
2(n − 1)
Jn (z) = Jn−1 (z) − Jn−2 (z)
z
Invece per ν = −n = −1, −1, ... si ha
∞
X (−1)k z 2k−n X ∞
(−1)s+n z 2s+n
J−n (z) = =
k!Γ(−n + k + 1) 2 s=0
k!s! 2
k=0
da cui
J−n (z) = (−1)n Jn (z)
mostra che per indice interi le funzioni di Bessel di prima specie con indice
opposto non sono linearmente indipendenti e pertanto la definizione della Yn (z)
va riconsiderata, in quanto la (2.69) è una forma del tipo 0/0. Assuendo la
definizione come limite si può applicare la regola di De l’Hospital
1
Yn (z) = lim Yν (z) = lim (Jν (z) cos (πν) − J−ν (z)) =
ν→n ν→n sin(πν)
1 ∂Jv n ∂J−v
= − (−1)
π ∂ν ∂ν ν=n
62
Uno sviluppo della Yn (z) è dato da
1 X (n − k − 1)! z 2k−n
n−1
Yn (z) = − +
π k! 2
k=0
1 X (−1)k (z/2)n+2k h i
∞
z
+ 2 ln − ψ(k + 1) − ψ(k + n + 1)
π k!(n + k)! 2
k=0
dove
Γ0 (z)
ψ(z) =
Γ(z)
è la derivata logaritmica della funzione Γ(z), che per valori interi di z vale
1 1
ψ(1) = −γ ψ(m + 1) = −γ + 1 + + ... + con m = 1, 2, ...
2 m
γ = 0.57721566... è la costante di Eulero-Mascheroni. Le Yn (z) sono spesso
indicate come Nn (z).
63
2k (k!) = (2k)!! (2k)!!(2k + 1)!! = (2k + 1)!
In modo analogo si ricava
z − 12 X
∞ z 2k r
(−1)k 2 cos z
J−1/2 (z) = = √
2 k!Γ(1/2 + k) 2 π z
k=0
64
2.23 Le funzioni di Bessel sferiche.
Nel trattare l’equazione di Schroedinger indipendente dal tempo, in 3D, con
potenziale costante V0 , ponendo
yl (kr) m
ψ(r) = Yl (θ, ϕ)
r
dove le Ylm (θ, ϕ) sono le armoniche sferiche (che vedremo più avanti), si ottiene
la equazione radiale
2
d l(l + 1)
+ 1 − yl (ρ) = 0
dρ2 ρ2
dove p
2m(E − V0 )
ρ = kr k= l = 0, 1, 2, ...
~
dove yl è continua e nulla nell’origine. Posto
si ha
d2 2 d l(l + 1)
+ + 1 − fl (ρ) = 0 (2.79)
dρ2 ρ dρ ρ2
Con l’ulteriore sostituzione
1
fl (ρ) = 1 vl (ρ)
ρ2
si ottiene la equazione
" 2 #
1 0 l + 21
vl00 + vl + 1 − vl = 0
ρ ρ2
da cui
sin ρ sin ρ cos ρ 3 sin ρ 3 cos ρ sin ρ
j0 = j1 = − j2 = − + ...
ρ ρ2 ρ ρ3 ρ2 ρ
che sono regolari all’origine
ρl ρ2
jl (ρ) ∼ 1− + ... per ρ → 0
(2l + 1)!! 2(2l + 3)
65
e hanno il comportamento asintotico
1 π
jl (ρ) ∼ sin(ρ − l ) per ρ→∞
ρ 2
mentre
cos ρ cos ρ sin ρ 3 cos ρ 3 sin ρ cos ρ
−n0 = − n1 = 2
+ − n2 = + − ...
ρ ρ ρ ρ3 ρ2 ρ
all’origine divergono
l+1
(2l + 1)!! 1 ρ2
−nl (ρ) ∼ 1+ + ... per ρ → 0
2l + 1 ρ 2(2l − 1)
66
Capitolo 3
Operatori Integrali e
Differenziali. Funzioni di
Green.
tra due funzioni, rispetto alla funzione peso w(x), può essere considerato come
la generalizzazione del prodotto in uno spazio N −dimensionale con una base
ortonormale, che può essere scritto in funzione delle componenti controvarianti
come
XN
∗
<a|b>= a j bj . (3.2)
j=1
Ciascun valore di f (x) per a ≤ x ≤ b può essere considerato come una com-
ponente del vettore | f > rispetto ad una base i cui vettori ortonogonali | x >
sono distribuiti con continuità. Si definisce allora
67
E’ possibile scrivere il vettore | f > in termini delle componenti
Z b
|f >= dxw(x)f (x) | x > (3.4)
a
dovremo porre
1 1 1
< x0 | x > = p δ(x − x0 ) = δ(x − x0 ) = δ(x − x0 ) (3.5)
w(x)w(x0 ) w(x) w(x0 )
Z b
< x0 | E | x00 > = < x0 | x00 > = dx < x0 | x > w(x) < x | x00 >
a
ovvero Z b
δ(x0 − x00 ) = dxδ(x0 − x)δ(x − x00 ) (3.7)
a
Questa espressione generalizza la già nota proprietà, valida per le funzioni f (x)
con buon comportamento in x = x0 ,
Z b
f (x0 ) = dxf (x)δ(x − x0 )
a
68
Se f (x) ∈ L2w (a, b), dato un sistema completo di funzioni ortonormali nellostesso
spazio, si può scrivere
∞
X
f (x) = f k e(k) (x)
k=1
dal momento che e(k) (x) è pensabile come il risultato di un prodotto scalare del
tipo indicato dalla (3.3)
e(k) (x) = < x | ek > .
In S∞ l’operatore identità si potrà scrivere
∞
X
E= | ek >< ek |
k=1
69
si ottine un vettore un vettore | g > di componenti
N
X
gi = Kji f j .
j=1
|g>=K |f >
che è una rappresentazione integrale della funzione g(x), tramite il nucleo in-
tegrale K(x, x0 ). Abbiamo cosı̀ posto in evidenza la relazione tra la rappresen-
tazione matriciale del prodotto di un operatore per un vettore e la rappresen-
tazione analitica dello stesso prodotto data dalla (3.10).
K ∗ (x0 , x) = K(x, x0 )
70
dove
N
X
KN (x, x ) = 0
Knm e(m) (x)e∗(n) (x0 )
m,n
2
rappresenta la ridotta N -esima dello sviluppo in serie. La serie converge
in media se l’integrale
Z b Z b
2
dxdx0 w(x)w(x0 ) |K(x, x0 )|
a a
esiste ed è finito. In tale caso non solo la convergenza in media della se-
rie è assicurata, ma l’operatore lineare K rappresentato dal nucleo integrale
K(x, x0 ), risulta essere un operatore completamente continuo. Per lo studio
delle proprietà di tali operatori si rimanda alla Sezione 14 del capitolo III del P.
Dennery, A. Krzywicki, in particolare al teorema fondamentale sugli operatori
completamente continui hermitiani. Riportiamo qui alcune conseguenze.
Nel caso che K sia hermitiano, ovvero che si abbia
K(x, x0 ) = K ∗ (x0 , x)
possiamo scrivere l’equazione agli autovalori
K|f >=k|f >
con autovalori k reali, espressa nella rappresentazione analitica da
Z b
K(x, x0 )f (x0 )w(x0 )dx0 = kf (x) (3.11)
a
(n)
e che ha autovalori k = km e autovettori fm (x) = < x | n, km > . L’indice (n)
è necessario se allo stesso autovalore corrispondono più autovettori linearmente
indipendenti. In tal caso sarà possibile scegliere un numero finito di funzioni
ortonormali. Si può mostrare che
a) La (3.11) ammette almeno un autovalore non nullo.
b) Al di fuori di qualunque intervallo [−, ] può esistere solo un numero
finito di autovalori e il numero di funzioni ortonormali che corrispondono a uno
stesso autovalore è finito.
c) Ogni funzione g(x) che può essere rappresentata da una rappresentazione
integrale tramite il nucleo K(x, x0 ) come
Z b
g(x) = K(x, x0 )h(x0 )dx0
a
71
La convergenza in media di questa serie è garantita dal fatto che
Z b
2
dx0 w(x0 ) |K(x, x0 )| < C
a
d d2 dN
Lx = a0 (x) + a1 (x) + a2 (x) 2 + ... + aN (x) N
dx d x dx
Lo spazio S su cui agisce deve essere tale da poter definire le derivate delle
f (x) che gli appartengono. Deve essere uno spazio di funzioni derivabili N
volte o, se sono funzioni con discontinuità, devono avere come derivate delle
distribuzioni. lo spazio S 0 delle L | f > può comprendere anche funzioni dis-
continue e distribuzioni. In generale un operatore differenziale non è limitato,
ovvero il rapporto tra le due distanze dal vettore nullo di L | f > ed | f >
v
uR b
ρ(L | f >, 0) u dxw(x) |Lx f (x)|2
= t aR b 2
ρ(| f >, 0) dxw(x) |f (x)|
a
L | f >= λ | f >
72
può essere riscritta come
1
L−1 | f >= |f >
λ
e le proprietà degli autovettori di L possono essere dedotte da quelle degli au-
tovettori di L−1 . In buona parte di questi appunti tratteremo lo studio degli
operatori inversi degli operatori differenziali.
Lx u(x) = f (x)
Il simbolo
d d2 dN
Lx = a 0 + a 1 + a2 2 + ... + aN N
dx dx dx
è significativo se applicato ad una funzione u(x), che rappresenta un elemento
in uno spazio vettoriale U . Lx u(x) è una combinazione lineare, con i coefficienti
ai a loro volta funzioni di x, di derivate i−esime di u(x). u(x) a sua volta è la
rappresentazione di un vettore in uno spazio vettoriale.
Sia {| u >} uno spazio vettoriale lineare rappresentato da funzioni più volte
derivabili, definite in a ≤ x ≤ b, che costituiscono il dominio di un operatore
differenziale lineare L. Il prodotto L | u > sia rappresentato dalle funzioni
Lx u(x)
L†x v(x)
con la proprietà
d
w(x)[v ∗ (x)Lx u(x) − u(x)(L†x v(x))∗ ] = {Q[u, v ∗ ]} (3.13)
dx
ove u(x) e v(x) sono funzioni complesse di variabile reale in a ≤ x ≤ b e w(x) è
una funzione reale definita positiva in a ≤ x ≤ b. Q[u, v ∗ ] è una forma bilineare
in u e v ∗ e nelle loro derivate, che nella forma più generale può essere scritta
come:
dv ∗ du du dv ∗
Q[u, v ∗ ] = auv ∗ + bu + c v∗ + d (3.14)
dx dx dx dx
73
dove a, b, c, d sono funzioni di x in a ≤ x ≤ b. Se la (3.13) è vera allora
si dice che l’operatore differenziale L†x è l’aggiunto di Lx rispetto alla funzione
peso w(x). Conseguenza della proprietà (3.13) è la formula
Z b Z b
dxw[v ∗ Lx u] − dxw[u(L†x v)∗ ] = Q[u, v ∗ ] |x=b −Q[u, v ∗ ] |x=a (3.15)
a a
d
L†x = −
dx
Infatti Z Z
b b
d d ∗
dx[v ∗
u] − dx[u(− v) ] = [uv ∗ ] |x=b
x=a .
a dx a dx
Invece l’operatore differenziale lineare
d
Lx = i
dx
è autoaggiunto. Infatti
d
L†x = i = Lx
dx
essendo Z Z
b b
d d ∗
dx[v ∗ i u] − dx[u(i v) ] = [iuv ∗ ] |x=b
x=a .
a dx a dx
74
3.5 Condizioni al contorno.
Consideriamo condizioni al contorno omogenee per u(x), in x = a ed x = b, che
riguardino anche le derivate. Due condizioni del tipo
du du
α1 u(a) + β 1 + γ 1 u(b) + δ 1 =0
dx x=a dx x=b
du du
α2 u(a) + β 2 + γ 2 u(b) + δ 2 =0
dx x=a dx x=b
definiscono uno spazio vettoriale di funzioni; le condizioni suddette, se entrambe
verificate per due funzioni, u1 (x) e u2 (x), lo sono anche per una qualunque loro
combinazione lineare. Esse consentono di definire altre due condizioni analoghe
per v(x)
dv dv
α3 v(a) + β 3 + γ 3 v(b) + δ 3 =0
dx x=a dx x=b
dv dv
α4 v(a) + β 4 + γ 4 v(b) + δ 4 =0
dx x=a dx x=b
scegliendo i coefficienti in modo che il termine di superficie sia nullo
u(a) = u(b)
75
Nello spazio vettoriale U , e solo in tale spazio, facciamo agire l’operatore
lineare L tale che
< x | L | u > = Lx u(x)
Analogamente nello spazio vettoriale V possiamo definire un operatore lineare
L†
< x | L† | v > = L†x v(x).
Ricordando che possiamo scrivere
potremo scrivere:
che sembra coincidere con la definizione di aggiunto. In realtà ciò non è cosı̀
banale: per ottenerla abbiamo dovuto limitare gli spazi funzionali su cui agis-
cono L ed L† , che sono stati definiti separatamente, agli elementi degli spazi
vettoriali U e V rispettivamente.
Va notato che, fissata la forma dell’operatore differenziale simbolico Lx , non
è definito immediatamente L. Infatti occorre specificare le condizioni al con-
torno omogenee che definiscono il sottospazio di funzioni U , che è parte inte-
grante della definizione di L. Cosı̀ pure per L† dovremo specificare le condizioni
autoaggiunte.
Di conseguenza, in un caso particolare, dire che L è hermitiano o autoag-
giunto, significa non solo affermare che
L† = L
76
Esempio:
d
L†x = Lx = i
dx
definisce un operatore autoaggiunto, nel caso in cui le condizioni al contorno
omogenee siano date dalla u(a) = u(b). Questo poichè la condizione al contorno
è dello stesso tipo di quella aggiunta v(a) = v(b). L non sarebbe autoaggiunto
scegliendo ad esempio u(a) = 2u(b), in quanto le condizioni al contorno aggiunte
sono date dalla u(a) = 12 u(b). Il dominio di L† è diverso da quello di L, poichè
la condizione al contorno aggiunta è diversa dalla condizione al contorno.
d2 d ∗
L†x v = (a∗ v) − (b v) + c∗ v (3.18)
dx2 dx
e quindi l’operatore formale è
2
2 ∗
† ∗ d da∗ ∗ d d a db∗ ∗
Lx = a + 2 −b + − +c (3.19)
dx2 dx dx dx2 dx
Dalle derivate di prodotti si ottiene
d2 u d2 (av ∗ ) d ∗ du d
v∗ a − u = av − u (av ∗
)
dx2 dx2 dx dx dx
du d(bv ∗ ) d
v∗ b +u = (buv ∗ )
dx dx dx
in modo che
Z b x=b
∗ † ∗ ∗ du d ∗ ∗
dx[v (Lx u) − u(Lx v) ] = av − u (av ) + bv u .
a dx dx x=a
77
e
d du
Lx u = a + cu (3.21)
dx dx
La (3.20) è molto restrittiva, ma si può dimostrare che, se a, b, c sono reali
ed a(x) > 0, una scelta opportuna della funzione peso nella definizione del
prodotto scalare può rendere autoaggiunto ogni operatore differenziale L x del
secondo ordine. Scrivendo infatti
1 d du
Lx u = ω(x) + cu con w(x) > 0 (3.22)
w(x) dx dx
ω 1 dω
=a e b=
w w dx
cosa che comporta
Z x
b(x0 ) 0 ω(x)
ω(x) = exp dx > 0 w(x) =
x0 a(x0 ) a(x)
Questa trasformazione era già stata vista all’inizio del precente capitolo. E’ la
trasformazione della equazione differenziale omogenea nella forma autoaggiunta.
Infatti dalla (3.22) si vede che l’operatore Lx è autoaggiunto rispetto a una
funzione peso w(x). Questo perchè calcolare l’aggiunto di Lx rispetto a un peso
w(x) è la stessa cosa che calcolare l’aggiunto di wLx rispetto a un peso unitario.
Si ha poi
† 1 d dv
Lx v = ω(x) + cv
w(x) dx dx
ed anche
Z b x=b
du dv ∗
dxw(x)[v ∗ (Lx u) − u(L†x v)∗ ] = ω(x) v ∗ −u
a dx dx x=a
d2 d
Lx = a(x) + b(x) + c(x)
dx2 dx
con coefficienti dati da funzioni reali ed a(x) > 0, è autoaggiunto rispetto a una
funzione peso Z x
1 b(x0 ) 0
w(x) = exp 0
dx
a(x) x0 a(x )
ovvero
Z b x=b
∗ ∗ ∗ du dv ∗
dxw(x)[v (Lx u) − u(Lx v) ] = a(x)w(x) v −u . (3.23)
a dx dx x=a
78
B) Se poi le condizioni al contorno di u(x), che definiscono lo spazio vettoriale
U su cui opera l’operatore lineare L rappresentato da Lx , sono di uno dei
seguenti tipi:
1.
u(a) = u(b) = 0 (condizioni di Dirichlet)
2.
du du
= =0 (condizioni di Neumann)
dx x=a dx x=b
3.
du du
αu(a) − = βu(b) − = 0 con α, β reali
dx x=a dx x=b
4.
du du
u(a) = u(b); = condizioni periodiche, purché ω(a) = ω(b)
dx x=a dx x=b
79
3.7 Le Funzioni di Green.
LG = E (3.28)
δ(x − y)
Lx G(x, y) = (3.30)
w(x)
80
Può inoltre esistere la funzione di Green per la equazione (3.25), dove com-
pare l’operatore differenziale aggiunto, che si indicherà con g(x, y)
δ(x − y)
L†x g(x, y) = (3.31)
w(x)
dove si noti che la g(x, y), intesa come funzione di x, deve soddisfare le condizioni
al contorno omogenee per la v(x), ovvero le condizioni al contorno omogenee
aggiunte. Ogni qual volta la soluzione della (3.30) esiste, l’operatore integrale G
è definito ed è l’inverso destro di L. Ogni qual volta la soluzione della equazione
(3.31) esiste, l’operatore integrale g è definito ed è l’inverso destro di L † .
Possiamo osservare che dalla identità di Green
Z b Z b
dxwv ∗ (Lx u) = dxwu(L†x v)∗
a a
mentre ponendo u(x) = G(x, y) e tenendo conto della (3.25) e della (3.30) si ha
Z b
v(y) = dxw(x) [G(x, y)]∗ h(x) (3.33)
a
81
Z b
v(y) = dxw(x)g(y, x)h(x) (3.36)
a
che costitiscono la rappresentazione delle equazioni in cui compaiono vettori ed
operatori integrali
|u>= G|f > |v>= g|h>
La relazione (3.34) mostra poi che, se una delle due funzioni di Green è unica,
segue anche l’unicità dell’altra.
Ora se L è hermitiano, le condizioni al contorno associate alla u nella (3.24)
e alla v nella (3.25) sono le stesse. Segue che
G(x, y) = g(x, y)
e quindi
G(x, y) = G∗ (y, x)
Se i coefficienti dell’operatore differenziale Lx sono reali, anche G(x, y) è reale
e quindi
G(x, y) = G(y, x).
Considerando ora solo gli operatori differenziali del secondo ordine, si vede
che la (3.30) diviene
∂ 2 G(x, y) ∂G(x, y) δ(x − y)
Lx G(x, y) = a(x) 2
+ b(x) + c(x)G(x, y) =
∂x ∂x w(x)
con a(x) > 0. Vediamo che G(x, y) è una soluzione dell’equazione omogenea per
tutti i punti x dell’intervallo [a, b], con l’eccezione del punto x = y. G(x, y) è una
funzione ordinaria sicuramente nell’intervallo [a, y) e nell’intervallo (y, b]. Vedi-
amo se può esserlo anche in x = y. Sappiamo che è possibile scrivere l’operatore
differenziale nella forma
a(x) ∂ ∂G(x, y) δ(x − y)
ω(x) + c(x)G(x, y) =
ω(x) ∂x ∂x w(x)
Z b !
1 b(x0 )
con = exp dx0
ω(x) a a(x0 )
ovvero
∂ ∂G(x, y) δ(x − y) ω(x)c(x)
ω(x) = ω(x) − G(x, y)
∂x ∂x a(x)w(x) a(x)
che integrata da
Z b
∂G(x, y) H(x − y) ω(x)c(x)
ω(x) = ω(x) − G(x, y)dx + C
∂x a(x)w(x) a a(x)
da cui si vede che G(x, y) può essere una funzione ordinaria, ma con una
discontinuità di salto nella derivata pari a
1
,
a(x)w(x)
82
quando x passa attraverso y. Invece G(x, y) è continua in x = y.
Lx G(x, y) = 0 per x 6= y
B1 (G) = 0 B2 (G) = 0
ovvero se il sistema
che, per la linearità delle condizioni al contorno, può essere scritto come
B1 (αu1 + βu2 ) = 0
B2 (αu1 + βu2 ) = 0
83
ha delle soluzioni diverse dalla ovvia.
In conclusione, un’equazione lineare del secondo ordine
Lx u(x) = f (x)
B1 (u) = 0 B2 (u) = 0
Si può poi mostrare che la condizione della non esistenza di una soluzione non
ovvia per l’equazione omogenea Lx u = 0, che verifichi le condizioni al contorno,
non è solo sufficiente ma è anche necessaria per l’esistenza ed unicità della
funzione di Green. Supponiamo l’esistenza di G(x, y) e che esista una funzione
v tale che
L†x v = 0
con v(x) che soddisfa le condizioni al contorno aggiunte. Dalla identità di Green
Z b Z b
∗ ∗
dxw(x) [v(x)] Lx G(x, y) = dxw(x)G(x, y) L†x v(x)
a a
segue che
Z b
∗ δ(x − y)
dxw(x) [v(x)] =0
a w(x)
ovvero
v(y) = 0
che esclude l’esistenza di una soluzione non ovvia per l’equazione L†x v = 0. Per
questo esisterà un’unica funzione di Green g(x, y) associata all’operatore L †x . Di
∗
conseguenza sarà unica la G(x, y) essendo g(y, x) = [G(x, y)] . L’unicità della
G(x, y) implica poi che Lx u(x) = 0 non abbia soluzioni diverse dalla ovvia. Se
le avesse potrebbero essere sommate a G(x, y), per dare altre funzioni di Green
compromettendo l’unicità.
d2
u(x) = f (x) (3.37)
dx2
Scegliamo w(x) = 1 ed 0 ≤ x ≤ a, con le condizioni al contorno omogenee
84
L’equazione omogenea
d2
u(x) = 0
dx2
ha una coppia di soluzioni
u1 = 1 u2 = x
d2
G(x, y) = δ(x − y)
dx2
Per 0 ≤ x < y, la soluzione G(x, y) sarà del tipo u< = c1 + c2 x. Per y < x ≤ a,
invece u> = d1 + d2 x. Dalle condizioni al contorno (3.38) si determinano due
costanti arbitrarie:
c1 = 0 d1 = −ad2
Imponendo in x = y la continuità della G(x, y) e la discontinuità della derivata
uguale a 1/(a(x)) = 1, si ha
c2 y = d2 (x − a) d 2 − c2 = 1
85
3.8 Le funzioni di Green generalizzate.
L’esistenza di soluzioni non ovvie per l’equazione
Lx u = 0
B1 (u) = 0 B2 (u) = 0
L†x v = 0
< vi | f > = 0
Analogamente
< ui | h > = 0
è la condizione necessaria per l’esitenza di una soluzione del problema aggiunto
δ(x − y) X ∗
Lx G0 (x, y) = − vi (x)vi (y)
w(x) i
86
δ(x − y) X ∗
Lx g 0 (x, y) = − ui (x)ui (y)
w(x) i
Le soluzioni di queste equazioni non solo uniche perche si può aggiungere rispet-
tivamente a G0 (x, y) e a g 0 (x, y) una qualunque combinazione lineare delle ui (x)
o delle vi (x). Si può ottenere l’unicità imponendo le condizioni addizionali di
ortogonalità
Z b
dxw(x)ui (x)G0 (x, y) = 0
a
Z b
dxw(x)vi (x)g 0 (x, y) = 0.
a
L’equazione omogenea
d2
u(x) = 0
dx2
con queste condizioni al contorno ha una soluzione non ovvia
u1 = costante
x2 y−a
G(x, y) = − + x+α per −a≤x<y
4a 2a
x2 y+a
= − + x + (α − y) per y<x≤a
4a 2a
87
Si noti la presenza di una costante non determinata dalle preedenti condizioni.
E’ possibile determinarla da
Z b
dxw(x)u1 (x)G0 (x, y) = 0
a
ottenendo
1 1 a
(x − y)2 + |x − y| −
G0 (x, y) = −
4a 2 6
e quindi un’unica soluzione anche per u(x).
ma del tipo
B1 (u) = σ 1 B2 (u) = σ 2 (3.40)
Consideriamo l’equazione
Lx u(x) = f (x)
e procediamo nel determinare le funzioni di Green come se valessere le condizioni
al contorno omogenee (3.39) che si ottengono ponendo dalle (3.40) σ 1 e σ 2
∗
uguali a zero. Data g(x, y) = [G(y, x)] la andiamo ad inserire nella eguaglianza
di Green generalizzata (3.15) che vale anche per condizioni al contorno non
omogenee, al posto di v(x), ottenendo
Z b Z b
x=b
dxw(x)G(y, x)Lx u(x)− dxw(x)[u(x)(L†x G(y, x))∗ ] = |Q[u(x), G(y, x)]|x=a
a a
Di qui, ricordando che un operatore differenziale del secondo ordine può essere
sempre posto in forma autoaggiunta, purché
Z x
1 b(x0 ) 0
w(x) = exp 0
dx
a(x) x0 a(x )
88
3.10 Il Problema di Sturm-Liouville.
Sia L un operatore differenziale hermitiano
L = L†
Lx u(x) = f (x)
e G(x, y) esiste, se l’equazione omogenea non ha una soluzione non ovvia ovvero
non esiste una soluzione non ovvia della equazione (3.42) con autovalore λ = 0.
Allora l’operatore integrale G non solo esiste ed è unico, ma essendo l’unico
inverso destro di L è anche il suo operatore inverso
LG = GL = E
G = G†
89
Poichè L è hermitiano tutti i suoi autovalori sono reali e gli autovettori
corrispondenti ad autovalori diversi sono ortogonali, ovvero
Z b
dxw(x)uλ (x)u∗λ0 (x) = 0 per λ 6= λ0
a
LG | u0 > = 0
(k)
dove uλ (x) = < x | ul,k > e l’indice k distingue diversi autovettori ortonor-
mali che possono corrispondere, sempre in numero finito, allo stesso autovalore
λ. L’uguaglianza nello sviluppo in serie va intesa come convergenza in media.
La convergenza in media diviene convergenza uniforme se limitiamo lo spazio
delle funzioni f (x) alle funzioni continue e derivabili, con la possibilità di avere
discontinuità nella derivata di tipo salto, in modo che la derivata seconda esista
come funzione generalizzata.
Lx u(k) (k)
n (x) = λn un (x) (3.44)
90
e le condizioni al contorno omogenee autoaggiunte associate alla (3.43). La
funzione di Green dovrà soddisfare l’equazione omogenea
δ(x − y)
(Lx − l)Gl (x, y) = (3.45)
w(x)
dove si è evidenziata la dipendenza della Funzione di Green dal parametro
l. Possiamo sviluppare la Gl (x, y) pensata come funzione di x, in serie delle
autofunzioni
∞
X
Gl (x, y) = a(k) (k)
n (y)un (x)
n=0, k
(k)
Usando l’identità di Green on v = un (x) e u = Gl (x, y)
Z b h i∗ Z b h i∗
(k)
dxw(x) un (x) (Lx − l)Gl (x, y) = dxw(x)Gl (x, y) (Lx − l)u(k)
n (x)
a a
h i∗ ∞
X Z h i∗
0
(k0 )
u(k)
n (y) = a(k )
m (y) dxw(x)um (x)(λn −l) u(k)
n (x) = (λn −l)a(k)
n (y)
m=0, k0
da cui h i∗
(k)
un (y)
a(k)
n (y) =
λn − l
lo sviluppo della funzione di Green è pertanto dato da
h i∗
(k) (k)
∞
X un (y) un (x)
Gl (x, y) = . (3.46)
λn − l
n=0, k
da cui I ∞ h
X i∗
1
Gl (x, y)dl = − u(k)
n (y) u(k)
n (x)
2πi C n=0, k
91
Come esempio si può considerare il caso dell’equazione
d2 u(x)
+ lu(x) = f (x)
dx2
con le condizioni al contorno
u(0) = 0 u(a) = 0
d2 u(x)
+ lu(x) = 0
dx2
√ √
u1 = sin lx u2 = cos lx
si costruisce la funzione di Green con il metodo usuale ottenendo:
√ √ √ √
sin lx sin l(a − y)H(y − x) + sin l(a − x) sin lyH(x − y)
Gl (x, y) = √ √
l sin la
Si vede che come funzione della variabile l la Gl (x, y) ha poli semplici in
n2 π 2
λn = n = 1, 2, ...
a2
che sono gli autovalori della
d2 un (x)
− = λn un (x)
dx2
dove gli autovettori sono
r
2 nπ
un (x) = sin( x)
a a
un sistema di funzioni completo con le condizioni un (0) = un (a) = 0. Infatti
∞
2X nπ nπ
sin( x) sin( y) = δ(x − y)
a n=1 a a
ovvero ∞ Z a
2X nπ nπ
sin( x) dyg(y) sin( y) = g(x)
a n=1 a 0 a
che esprime lo sviluppo in serie di seni di una funzione g(x) che verifica le stesse
condizioni al contorno.
92
Capitolo 4
XN
∂2
∆u = u=0 (4.3)
i=1
∂x2i
93
k−1
∂u
con l + m + ... + n ≤ k, con delle condizioni al contorno per u, ∂x 1
, ..., ∂∂xk−1u
1
che definiscono tali funzioni nell’iperpiano x1 = a1 , che valgono in un intorno
del punto xi = ai ,
" #
∂j u
= Lj (x2, x3 , ..., xN ) per j = 0, 1, ..., k − 1
∂xj1 x =a
1 1
dove le funzioni anm (xi ) sono funzioni reali di N variabili reali. Poichè
∂ 2u ∂2u
=
∂xm ∂xn ∂xn ∂xm
senza perdita di generalità possiamo assumere
amn (xi ) = anm (xi )
Una matrice reale simmetrica può essere trasformata in una matrice diagonale
mediante una trasformazione opportuna, attraverso una matrice reale ortogo-
nale. In particolare con la trasformazione di coordinate del tipo
X X X
yj = Ojm xm xi = Oki yk Ojl Ojm = δ ml
m k j
94
con X
a0kj (y) = Okm amn (x(yi ))Ojn
mn
La matrice ortogonale Olj può essere scelta in modo che a0kj (yl0 ) = bk (xi0 )δ kj .
Punto per punto, la parte al secondo ordine dell’equazione differenziale può
essere espressa in modo da non avere derivate seconde miste. Osservando poi
i segni di tutti i coefficienti delle derivate parziali seconde non miste, se tutti
i coefficienti sono non nulli ed hanno lo stesso segno, si dice che l’equazione è
di tipo ellittico in xi = xi0 ; se nel punto tutti i coefficienti sono diversi da zero
ma non hanno lo stesso segno si dice di tipo ultraiperbolico, o semplicemente
iperbolico se un solo coefficiente è di segno diverso dagli altri. Si dice invece che
è di tipo parabolico se un coefficiente almeno delle derivate seconde è nullo. Una
equazione alle derivate parziali può essere dello stesso tipo in un insieme di punti
o nell’intero insieme dei punti in cui è definita. Se i coefficienti sono costanti la
classificazione è semplice. Ad esempio le equazioni semplici in u = u(x, y) che
seguono sono dello stesso tipo ovunque.
L’equazione di Laplace
∂2u ∂2u
+ 2 =0
∂x2 ∂y
è di tipo ellittico.
∂ 2 u ∂u
− =0
∂x2 ∂y
è di tipo parabolico.
Di solito le relazioni che esistono tra le derivate parziali di una funzione
u(xi ) in un’equazione differenziale alle derivate parziali, insieme con le con-
dizioni di Cauchy imposte su una ipersuperficie S(x1 , x2 , ..., xN ) = 0 permet-
tono di trovare sulla stessa ipersuperficie tutte le derivate di u(xi ) di ordine più
elevato. Quando è possibile ricostruire in modo unico in un punto xi l’intera se-
quenza delle derivate e quando esiste una soluzione analitica nell’intorno di tale
punto, allora è possibile ottenere i coefficienti dello sviluppo in serie della u(xi )
che è anche unico attorno al punto xi , sulla base delle relazioni tra le derivate
parziali e i coefficienti dello sviluppo. Possono comunque esistere delle ipersu-
perfici C(x1 , x2 , ..., xN ) = 0, con la proprietà che in ogni punto le condizioni al
contorno alla Cauchy e l’equazione stessa non sono sufficienti ad esprimere le
95
derivate di ordine più elevato. Tale ipersuperficie si chiama ipersuperficie carat-
teristica. Tali superfici, come le superfici ad esse tangenti, non vanno bene per
definire buone condizioni alla Cauchy.
∂2u ∂ 2u ∂2u ∂u ∂u
A(x, y) 2
+ 2B(x, y) + C(x, y) 2 = D(x, y, u, , ) (4.5)
∂x ∂x∂y ∂y ∂x ∂y
L’ipersuperficie in questo caso si riduce ad una curva in (x, y) esprimibile in
forma parametrica
x = X(t) y = Y (t)
dove il parametro t è scelto in modo che |t| misuri la distanza da un punto
della curva. Le derivate della u(x, y) nella direzione normale alla curva ed nella
direzione ad essa tangente sono date per qualunque t da
∂u ∂u dY ∂u dX
= −
∂n ∂x x=X(t),y=Y (t) dt ∂y x=X(t),y=Y (t) dt
∂u ∂u dX ∂u dY
= +
∂t ∂x x=X(t),y=Y (t) dt ∂y x=X(t),y=Y (t) dt
ove 2 2
dX dY
+ =1
dt dt
La conoscenza delle equazioni parametriche, della u(x, y) in ciascun punto della
curva (e di conseguenza della derivata nella direzione tangente) e della derivata
nella direzione normale consente di determinare le derivate di u rispetto ad x
e ad y in ogni punto della curva. Preso in punto della curva (x0 , y0 ) si può
ottenere uno sviluppo in serie della soluzione nelle due variabili indipendenti
∞
X
u(x, y) = umn (x − x0 )m (y − y0 )n
m,n=0
96
d ∂u ∂ 2 u dX ∂ 2 u dY
= + 2 (4.7)
dt ∂y ∂x∂y dt ∂y dt
Le equazioni (4.5), (4.6) e (4.7) costituiscono un sistema di tre equazioni in tre
incognite
∂2u ∂2u ∂2u
, ,
∂x2 ∂x∂y ∂y 2
lineare e non omogeneo, che ha una soluzione unica se
A 2B C
dX dY
∆ = dt dt 0 6= 0
0 dX dY
dt dt
97
α(x, y) − β(x, y)
w=
2i
la equazione (4.5) diviene
AC − B 2 ∂ 2 u ∂ 2u ∂u ∂u
2
+ 2
= D00 (v, w, u, , )
A ∂v ∂w ∂v ∂w
α(x, y) + β(x, y)
v=
2
α(x, y) − β(x, y)
w=
2
la equazione (4.5) diviene
AC − B 2 ∂ 2 u ∂ 2u ∂u ∂u
2
− 2
= D00 (v, w, u, , )
A ∂v ∂w ∂v ∂w
v = α(x, y)
w=x
la equazione (4.5) diviene
∂2u ∂u ∂u
A = D00 (v, w, u, , )
∂w2 ∂v ∂w
ovvero l’equazione è di tipo parabolico.
98
4.2 Condizioni al contorno.
Le condizioni al contorno alla Cauchy non sono sempre le più importanti.
Molti problemi fisici hanno condizioni al contorno specifiche. Se la descrizione
matematica di un fenomeno fisico è corretta, ci si deve aspettare che l’insieme
dell’equazione differenziale e delle condizioni al contorno portino ad un’unica
soluzione.
Accanto alle condizioni al contorno alla Cauchy dove il valore della soluzione
e delle sue derivate normali (la derivata prima nel caso delle equazioni del secon-
do ordine), sono specificate su un’ipersuperficie, vi sono altri tipi di condizioni al
contorno ricorrenti nei problemi fisici: le condizioni di Dirichlet dove si fissano
solo i valori della funzione su un’ipersuperficie e le condizioni di Neumann dove
si fissano solo i valori della derivata normale della funzione sull’ipersuperficie.
∂2u
=0
∂α∂β
da cui la soluzione più generale è
99
e quindi
Z x
1 1
g(x) = a(x) + b(x0 )dx0 + costante
2 2c x1
Z x
1 1
h(x) = a(x) − b(x0 )dx0 + costante
2 2c x1
che è significativa, visto l’intervallo di definizione delle due funzioni a(x) e b(x),
solo per
x1 ≤ x ± ct ≤ x2
ovvero all’interno di un rettangolo R che ha per diagonale il segmento [x1 , x2 ]
sull’asse x, delimitato da quattro segmenti di retta delle rette caratteristiche
(4.12) passanti per i due estremi. Solo per x1 → −∞ e x2 → ∞ si ha che R
ricopre l’intero piano e la soluzione con le condizioni al contorno del tipo (4.13)
è determinata per ogni valore di t.
Se invece si vuole assegnare le condizioni in un segmento finito occorrono in-
formazioni aggiuntive: ad esempio occorre fissare i valori di u(x, t) come funzione
del tempo sia per x = x1 sia in x = x2 del tipo
u(0, t) = 0
100
che fissano A(x) e B(x) per qualunque valore di x.
E’ l’equazione
∂2u 1 ∂u
2
− 2 =0 (4.14)
∂x a ∂t
E’ un’equazione di tipo parabolico e le curve caratteristiche sono le rette t =costante.
Pertanto non e possibile assegnare ad un tempo fissato t = 0 sia la
sia il valore della derivata normale cioè ∂u/∂t |t=0 . Infatti quest’ultima è fissata
dalla stessa equazione
∂u 2
2 d b(x)
= a
∂t dx2
t=0
e pertanto le condizioni alla Cauchy fissate sulla linea t = 0 sovra-determinerebbero
il problema. Scegliendo una funzione gradino come b(x)
u(x, 0) = 1 x>0
= 0 x<0
si nota che sia la equazione differenziale che la condizione iniziale restano in-
variate rispetto alla trasformazione di scala
x → sx t → s2 t
Pertanto
u(x, t) = u(sx, s2 t)
e ponendo
1
s= √ per t > 0
t
√
si ha che la u(x, t) diviene una funzione della sola variabile y = x/ t. Poichè
∂2u 1 d2 u ∂u du x
2
= = (− 3 )
∂x t dy 2 ∂t dy 2t 2
u(−∞) = 0 u(∞) = 1
101
L’equazione differenziale ordinaria (4.14) si risolve facilmente. Una soluzione è
u1 =costante, l’altra si può ottenere dalla u1 usando la formula per la deter-
minazione della seconda soluzione con il metodo illustrato all’inizio della prima
parte. Z y Z η
1
u2 (y) = u1 (y) dη 2 exp(− p(t)dt).
y0 u1 (η) y0
ovvero Z y
0 2
/4a2
u2 (y) = k dy 0 e−(y )
y0
d2 u d2 u
+ 2 =0 (4.17)
dx2 dy
in un insieme di punti del piano all’interno di una curva chiusa C. Non ci
sono curve caratteristiche nel piano (x, y) in quanto l’equazione differenziale
delle caratteristiche ha solo soluzioni complesse. Immaginiamo di partire da
condizioni al contorno di Dirichlet che fissano i valori di u sulla curva C. Se
esistono due soluzioni u1 ed u2 , anche u1 − u2 è una soluzione con valori nulli
sul contorno. Essendo questa una funzione armonica, può essere pensata come
la parte reale di una funzione analitica di z = x + iy, ma allora poichè la parte
reale di una funzione analitica non può avere un massimo o un minimo locale
nei punti interni dell’insieme delimitato da C, il massimo o il minimo di essa
deve trovarsi sul contorno, dove la funzione e’ nulla. Pertanto u1 − u2 è nulla
dappertutto entro C e di conseguenza la soluzione, se esiste è unica.
Il problema dell’esistenza è più difficile. Se C è una circonferenza con centro
nell’origine, data la funzione u su C si ha
Z 2π
1 R2 − r 2
u(r cos θ, r sin θ) = u(R cos θ, R sin θ) dθ 0
2π 0 R2 − 2Rr cos(θ − θ 0 ) + r2
(4.18)
102
In generale l’uso delle condizioni di Cauchy avrebbero costituito un insieme
di condizioni con nessuna soluzione a meno che la derivata normale fissata non
coincidesse proprio con quella della u utilizzata. In tal caso il problema avrebbe
avuto la stessa soluzione, ma sarebbe bastato un cambiamento infinitesimo su
una delle condizioni al contorno per avere un problema sovra-determinato, con
nessuna soluzione. Se le soluzioni non dipendono con continuità dalle condizioni
al contorno, allora esse sono instabili. Ciò significa che, da un punto di vista
fisico, non sono state scelte in modo appropriato.
Z +∞
1
f (x1 , x2, , ..., xN ) = N dkN F (k1 , k2 , ..., kN )ei(k1 x1 +k2 x2 +...+kN xN )
(2π) 2 −∞
con la proprietà
Z +∞
f (x1 , x2, , ..., xN ) = dxN δ N (x − x0 )f (x01 , x02 , ..., x0N ) (4.19)
−∞
xi = Xi (y1 , y2 , ..., yN )
103
la proprietà (4.19) si trasforma in
Z +∞
f (X1 , X2, , ..., XN ) = J dN y 0 δ N (X − X 0 )f (X10 , X20 , ..., XN
0
)
−∞
Di conseguenza
δ N (X − X 0 ) = J −1 δ N (y − y 0 )
In coordinate sferiche
J = r2 sin θ
1
δ 3 (X − X 0 ) = 2 δ(r − r0 )δ(θ − θ0 )δ(Φ − Φ0 )
r sin θ
Per cui passando da coordinate cartesiane a sferiche si ha
N
∗ X ∂
v Lxi u − u(L†xi v)∗ = [Qi (u, v ∗ )]
i=1
∂x i
dove Qi (u, v ∗ ) è una forma bilineare dipendente da u(x1 , x2, , ..., xN ), da v ∗ (x1 , x2, , ..., xN )
e dalle derivate ∂u/∂xi e ∂v ∗ /∂xi . Usando il teorema di Gauss in N dimensioni
Z X N I X N
∂
Fi (x1 , x2 , ..., xN )dN x = Fi ni dS
V i=1 ∂xi S i=1
104
dove S è una ipersuperficie chiusa che racchiude l’ipervolume V , mentre ni sono
le proiezioni sugli assi coordinati del versore normale alla ipersuperficie in ogni
suo punto, che ha verso esterno. La identità di Green generalizzata sarà
Z I X
N
dN x v ∗ Lxi u − u(L†xi v)∗ = [Qi (u, v ∗ )ni ] dS
V S i=1
Come nel caso unidimensionale l’operatore simbolico Lxi insieme con le con-
dizioni al contorno omogenee che individuano lo spazio vettoriale delle u(xi )
definiscono un operatore differenziale astratto L
dove i vettori | x1 , x2 , ..., xN > sono la base di uno spazio vettoriale, su cui
sono rappresentate le funzioni di N variabili. I vettori hanno la proprietà di
ortonormalità
Le funzioni di Green associate alle equazioni alle derivate parziali non omogenee
G(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) = g(x01 , x02 , ..., x0N ; x1 , x2 , ..., xN )
Se Lxi è hermitiano
G(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) = G∗ (x01 , x02 , ..., x0N ; x1 , x2 , ..., xN )
G(x1 , x2 , ..., xN ; x01 , x02 , ..., x0N ) = G(x01 , x02 , ..., x0N ; x1 , x2 , ..., xN )
105
E’ poi possibile esprimere le soluzioni delle equazioni non omogenee con le
espressioni
Z
u(x1 , x2 , ..., xN ) = dN yG(x1 , x2 , ..., xN ; y1 , y2 , ..., yN )f (y1 , y2 , ..., yN )
+(term. di superf.)
Z
v(x1 , x2 , ..., xN ) = dN yg(x1 , x2 , ..., xN ; y1 , y2 , ..., yN )h(y1 , y2 , ..., yN )
+(term. di superf.)
∇2 u(x, y, z) = f (x, y, z)
con
∂2 ∂2 ∂2
∇2 = + +
∂x2 ∂y 2 ∂z 2
che è l’operatore di Laplace. Si ha come conseguenza del teorema di Gauss in
3D che Z I
2 2
d3 x(u∇ v − v∇ u) = dS[u∇v − v∇u] · n
V S
che è un caso particolare dell’identità di Green generalizzata e che mostra che
∇2 è autoaggiunto. Con le condizioni al contorno omogene di Dirichlet (u = 0
su S) o di Neumann (∇u·n = 0 su S) poi ∇2 definisce un operatore hermitiano.
Lxi G = δ N (x − x0 )
G = G s + G0
dove
Lxi Gs = δ N (x − x0 ) (4.20)
e quindi Gs è la parte derivabile nel senso delle distribuzioni, che origina la δ,
mentre G0 è una soluzione dell’equazione omogenea scelta in modo che la G
possa soddisfare le condizioni al contorno omogenee
Lxi G 0 = 0
Mentre nel caso delle equazioni differenziali ordinarie Gs è comunque una fun-
zione continua, con derivata discontinua e derivata seconda proporzionale alla
106
δ, nel caso delle equazioni differenziali a derivate parziali essa può avere vere
singolarità.
∂ ∂ ∂2
Lxi = a 0 + a 1 + ... + aN + aN +1 2 +
∂x1 ∂xN ∂x1
∂2 ∂2
+aN +2 + ... + aN (N +3)/2 2
∂x1 ∂x2 ∂xN
del secondo ordine a coefficienti costanti, basato sulla rappresentazione di Fouri-
er della δ
Z +∞ X N
1
δ N (x − x0 ) = N
dN k exp i kj (xj − x0j )
(2π) −∞ j=1
Dalla (4.20) segue che la parte singolare della funzione di Green Gs è data da
D = a0 +ia1 k1 +...+iaN kN +aN +1 (ik1 )2 +aN +2 (ik1 )(ik2 )+...+aN (N +3)/2 (ikN )2
∇2 G(r, r0 ) = δ(r − r0 )
Posto
k1 = k sin θ cos φ k2 = k sin θ sin φ k3 = k cos θ
107
k · (r − r0 ) = kR cos θ R = |r − r0 | d3 k = k 2 sin θdrdθdφ
si ha Z Z Z
+∞ 2π π
−1
Gs (r, r0 ) = 3 dk dφ dθ sin θeikR cos θ =
(2π) 0 0 0
Z +∞ Z 2π π
1 eikR cos θ
= 3 dk = dφ
(2π) 0 0 0 ikR
Z +∞
−4π sin kR −1 −1
= 3
dk = =
(2π) 0 kR 4πR 4π |r − r0 |
che è l’espressione del potenziale Coulombiano di una carica puntiforme.
B) Se l’operatore differenziale è quello che compare nella equazione della
diffusione, l’equazione non omogenea è del tipo
2
∂ 1 ∂
− 2 u(x, t) = −σ(x, t)
∂x2 a ∂t
L’integrale in dk2 può essere calcolato con integrazione nel piano complesso k2 ,
per t > t0 , chiudendo percorso di integrazione nel semipiano superiore. Segue
che
Z
−a2 +∞ 0 2 2 0
G(x, y; x0 , t0 ) = dk1 eik1 (x−x )−a k1 (t−t ) per t > t0
2π −∞
= 0 per t0 > t
e quindi
−a (x − x0 )2
G(x, y; x0 , t0 ) = p exp − 2 per t > t0
2 π(t − t0 ) 4a (t − t0 )
= 0 per t0 > t
108
L’equazione di Green è soluzione della
2 1 ∂2
∇ − 2 2 G(r, t; r0 , t0 ) = δ 3 (r − r0 )δ(t − t0 )
c ∂t
con
R = r − r0 T = t − t0
La soluzione per la parte singolare è data da
Z +∞ Z +∞
0 0 −c2 ik·R e−iωT
Gs (r, t; r , t ) = 4 d3 ke dω 2 2
(2π) −∞ −∞ c k − ω2
2π sin ck(t − t0 )
∆ritardata = per t > t0
ck
= 0 per t < t0
109
L’integrale in d3 k diviene
Z +∞
sin ckT
d3 keik·R
−∞ k
Z +∞ Z =1 Z 2π
= dkk sin ckT d cos θk eikR cos θk dφk =
0 −1 0
Z
1 +∞
= 4π dk sin ckT sin kR =
R 0
Z
π +∞ h ik(R+cT ) i
= − dk e − eik(R−cT ) =
R −∞
2π2
= − [δ(R + cT ) − δ(R − cT )]
R
dove R = |R| e dove il primo termine dell’ultima espressione non contribuisce
in quanto l’espressione è valida per T > 0. Inoltre
1 R
δ(R − cT ) = δ( − T )
c c
e si ha quindi
1 |r − r0 |
Gritardata (r, t; r0 , t0 ) = − δ( − (t − t0 )) per t > t0
4π |r − r0 | c
= 0 per t < t0
110
4.5 Operatori differenziali in coordinate curvili-
nee ortogonali in 3D.
Dato un sistema di coordinate curvilinee ortogonali, in generale si potrà scrivere
r ≡ {q1 , q2 , q3 }
gii = h2i
posso scrivere X
dr2 = (hi dqi )2
i
h1 = 1 h2 = r h3 = r sin θ
111
e si scrive
1 ∂ 2 ∂ψ 1 ∂ ∂ψ 1 ∂2ψ
∆ψ = (r )+ 2 (sin θ )+ 2 2 (4.23)
2
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ ∂φ2
h1 = 1 h2 = ρ h3 = 1
1 ∂ ∂ψ 1 ∂ 2 ψ d2 ψ
∆ψ = ρ + 2 2 + 2 (4.24)
ρ ∂ρ ∂ρ ρ ∂θ dz
112
4.6 L’equazione di Laplace in 3D in coordinate
polari sferiche.
L’equazione è
2 1 ∂ 2 ∂u 1 ∂ ∂u 1 ∂2u
∇ u= 2 r + 2 sin θ + =0 (4.25)
r ∂r ∂r r sin θ ∂θ ∂θ 2
r2 sin θ ∂φ2
d dR(r)
r2 − λR(r) = 0 (4.27)
dr dr
Moltiplicando la prima equazione per sin2 θ si ha
sin θ d dP (θ) −1 d2 T (φ)
sin θ + λ sin2 θ =
P (θ) dθ dθ T (φ) dφ2
113
d2 P 2 d P
2
dP
2 = sin θ 2
− cos θ
dθ dx dx
2
d P dP m2
sin2 θ 2 − 2 cos θ + λ− P =0
dx dx sin2 θ
ovvero
d2 P dP m2
(1 − x2 ) 2 − 2x + λ− P =0 (4.29)
dx dx 1 − x2
Le tre equazioni (4.28), (4.27), (4.29) sono tre equazioni differenziali ordinarie
dipendenti da due costanti. Queste costanti non possono assumere qualunque
valore se vogliamo che le funzioni delle coordinate siano regolari in una sfera
centrata sull’origine. Ad esempio la (4.28) ha soluzioni
T (φ) = eimφ
T (0) = T (2π).
(1 − x2 )Pl00 − 2xPl0 + l (l + 1) Pl = 0
114
...
Le armoniche sferiche.
115
dove Z Z
2π +1 h 0
i∗
flm = dφ d(cos θ) Ylm
0 (θ, φ) f (θ, φ)
0 −1
ovvero I h i∗
0
flm = dΩ Ylm
0 (Ω) f (Ω)
f (x, y, z)
x2 + y 2 + z 2 = 1
e quindi non tutti i monomi dello sviluppo sono linearmente indipendenti e tra
i monomi dello stesso ordine l = mi + mj + mk si hanno solo 2l + 1 monomi
rlinearmente indipenti, quante sono le armoniche sferiche corrispondenti.
rl r−l−1
Si può allora risolvere il problema di trovare una soluzione generale della equazione
di Laplace o all’interno o all’esterno di una sfera di raggio ρ con condizioni di
Dirichlet sulla superficie. La condizione al contorno è
116
che può essere sviluppata in serie
l
∞ X
X I h i∗
0
h(θ, φ) = alm Ylm (θ, φ) con alm = dΩ Ylm
0 (Ω) h(Ω)
l=0 m=−l
da cui
l
∞ X
X ∗
δ(Ω − Ω0 ) = [Ylm (Ω0 )] Ylm (Ω) (4.36)
l=0 m=−l
con
1
δ(Ω − Ω0 ) = δ(φ − φ0 )δ(cos θ − cos θ 0 ) = δ(φ − φ0 ) δ(θ − θ0 )
sin θ
117
ed anche
I Z 2π Z +1
dΩ0 δ(Ω − Ω0 ) = dφδ(φ − φ0 ) d(cos θ)δ(cos θ − cos θ 0 ) =
o −1
Z π
1
= dθ sin θ δ(θ − θ 0 ) = 1.
0 sin θ
Nell’intervallo
−1 ≤ cos γ ≤ 1
è allora possibile sviluppare la δ(Ω − Ω0 ) in serie di polinomi di Legendre
∞
X
δ(Ω − Ω0 ) = al Pl (cos γ)
l=0
che moltiplicata a destra e sinistra per Pl0 (cos γ) ed integrando in dΩ0 implica
∞
X Z +1 I
2πal Pl (cos γ)Pl0 (cos γ)d(cos γ) = dΩ0 Pl0 (cos γ)δ(Ω − Ω0 )
l=0 −1
si ha
4π
al0 = Pl0 (1) = 1
2l0 + 1
da cui ∞
X 2l + 1
δ(Ω − Ω0 ) = Pl (cos γ) (4.37)
4π
l=0
118
In realtà si può dimostrare che ciascun termine della somma su l è nullo, anche
se per dimostrare questo occorre conoscere le proprietà delle Ylm (Ω) in quanto
componenti delle basi ad l fissato per le rappresentazioni irriducibili del gruppo
delle rotazioni e la struttura dei sottospazi vettoriali invarianti a dimensione
2l + 1 da esse ottenibili. Assumiamo per ora che ogni termine a l fissato sia
effettivamente nullo. Si ottiene allora un’importante relazione: il teorema di
addizione delle armoniche sferiche
l
4π X ∗
Pl (cos γ) = [Ylm (Ω0 )] Ylm (Ω) (4.38)
2l + 1
m=−l
119
ovvero
2me2 1 2m
∆+ 2 − 2 E Ψ(r) = 0
~ r ~
che differisce dalla (4.25) ∆Ψ(r) = 0 per due termini, che dovranno comparire
nella parte radiale, se scrivo la soluzione come
Posto
yl (r)
R(r) = (4.44)
r
si ha
d dR(r) d2 yl (r)
r2 =r
dr dr dr2
e quindi la (4.43) diviene
d2 yl (r) 2me2 2m l(l + 1)
r + − 2 Er − yl (r) = 0
dr2 ~2 ~ r
d2 yl (r) A C
+ ( − B − 2 )yl (r) = 0 (4.45)
dr2 r r
dove
2me2 2mE
A= B= c = l(l + 1) (4.46)
~2 ~2
Per E < 0, ovvero per gli stati legati, e per r → ∞, l’equazione (4.45) diviene
yl00 = Byl
con B√ negativo ovvero per r → ∞ le soluzioni sono del tipo e−kr ed ekr , con
k = −B. Di queste solo la prima è accettabile, avendo il comportamento
all’infinito di una funzione normalizzabile.
Con il cambiamento di variabile
2√
x = 2kr = −2mE r (4.47)
~
120
l’equazione (4.45) divisa per 4k 2
d2 yl (r) A B C
+ ( 2 − 2 − 2 2 )yl (r) = 0
4k 2 dr2 4k r 4k 4k r
diviene
d2 l(l + 1) ν 1
− + − yl = 0 (4.48)
dx2 x2 x 4
dove l’equazione dipende ora da un solo parametro adimensionale ν, oltre che
da l. Tale parametro adimensionale si può scrivere come
r
A 2me2 2me2 e2 mc2
ν= 2 = = √ = . (4.49)
4k 2~2 k 2~2 ~−1 −2mE ~c −2E
l + 1 − ν = −n0 n0 = 0, 1, 2, ...
In tal caso essa è, a meno di una costante un polinomio di Laguerre, infatti si
ha
n0 !
Φ(−n0 , 2l + 2; x) = L2l+1
0 (x)
(2l + 2)n0 n
121
Inoltre la quantità ν definita dalla (4.49) diviene un numero intero
ν = n = n0 + l + 1 n = 1, 2, 3, ...
e4 m
E=− (4.52)
2~2 n2
ovvero, posto
e2
α= , (4.53)
~c
si ha
mc2
E = −α2 (4.54)
2n2
dove compare la costante adimensionale α, costante di struttura fine e l’energia
di legame dell’elettrone è espressa in funzione dell’energia associata alla massa
a riposo dell’elettrone. Conseguenza della (4.52) è che anche k è quantizzata
e2 m 1
k= =
~n na0
dove
~
a0 =
e2 m
è il raggio di Bohr e vale circa 0, 52917 10−10 m.
122
Dalla normalizzazione Z
dr |Ψ(r) |2 = 1
si ha Z ∞ I
2
2
drr [Rnl (r)] dΩ |Ylm (Ω)|2 = 1
0
e per la parte radiale segue che
Z ∞
2 2
Nnl2
dxe−x x2l L2l+1
n−l−1 (x) x = 1
0
123
Parte II
Rotazioni, Momento
angolare, Teoria dei Gruppi.
124
Capitolo 5
Rotazioni e momento
angolare.
Lo scopo di questa parte del corso è lo studio delle simmetrie continue in fisica
e in particolare in meccanica quantistica. Partiremo, in questo capitolo, dallo
studio delle rotazioni in 3D, del gruppo delle rotazioni proprie SO(3) e dalle sue
rappresentazioni. I generatori del gruppo sono le tre componenti del momento
angolare. Avremo l’occasione, generalizzando, di introdurre altri gruppi continui
e di esaminare l’impatto della teoria dei gruppi (in particolare considerereremo
i gruppi di Lie e le algebre di Lie), sulla fisica del XX secolo.
125
b.
Il verso positivo della rotazione è quello antiorario rispetto al versore n
Notiamo che una rotazione positiva dell’oggetto fisico equivale ad una rotazione
negativa del sistema di riferimento. E’ facile ottenere le matrici di rotazione
b ed y
attorno ad x b.
1 0 0 cos φ 0 sin φ
Rxb (φ) = 0 cos φ − sin φ Ryb (φ) = 0 1 0
0 sin φ cos φ − sin φ 0 cos φ
Più in generale, per una qualunque rotazione attorno ad uno degli assi coordi-
nati, l’elemento di matrice è
η2
(Rba )bc = δ bc (1 − (1 − δ ab )) − ηeabc
2
a meno di termini di ordine piùelevato di η 2 . Gli indici assumono i valori xyz , o
123 , δ ab vale 1 per a = b e 0 per a 6= b , eabc vale +1 se abc è una permutazione
pari dei tre indici, −1 se è una permutazione dispari oppure vale 0 se vi sono
indici ripetuti.
Il prodotto di due rotazioni è ancora una rotazione. La matrice corrispon-
dente si ottiene moltiplicando la matrice della seconda rotazione per quella della
prima. Il prodotto non è commutativo se le due rotazioni hanno due assi diversi.
Ad esempio si ottiene
0 −η 2 0
Rxb (η)Ryb (η) − Ryb (η)Rxb (η) = η 2 0 0 = Rbz (η 2 ) − 1 (5.1)
0 0 0
126
i
ψ 0 (r, t) = (1 − 1δφ · L̆ · δφ)ψ(r, t)
~
dove si vede che la funzione d’onda ruotata si ricava da quella iniziale mediante
l’operatore unitario (1 − ~i L̆ · δφ) in cui compaiono le tre componenti del mo-
mento angolare orbitale L̆ = r × p̌ ovvero i tre operatori hermitiani L̆x , L̆y , L̆z ,
in un prodotto scalare con il vettore δφ.
Uη = 1 − iGη
i 1 2 i 3
=1− J · n̂φ − (J · n̂) φ2 + (J · n̂) φ3 + ...
~ 2!~2 3!~3
127
Ritorniamo alle rotazioni infinitesime. Vediamo come, applicando la relazione
trovata nella (5.1) , si possa trovare una importante relazione tra le componenti
di J.
η2 iη2
− 2
(Jx Jy − Jy Jx ) = − Jz
~ ~
ovvero si ottiene la regola di commutazione del momento angolare
Jx Jy − Jy Jx = i~Jz
ovvero
[Jx , Jy ] = i~Jz , [Jy , Jz ] = i~Jx , [Jz , Jx ] = i~Jy
che sono le relazioni di commutazione delle componenti del momento angolare.
Si noti che è possibile raggruppare le relazioni in un’unica espressione simbolica
J × J =i~J
[ra , pb ] = i~δab
Qui invece non abbiamo fatto nessuna ipotesi sulla forma di J. Abbiamo solo
utilizzato una proprietà delle rotazioni infinitesime ed in particolare della non
commutatività delle rotazioni infinitesime attorno ad assi diversi, espressa dalla
(5.1). Le relazioni di commutazione tra i generatori del gruppo delle rotazioni
proprie SO(3) date dalla (5.3) sono ottenute dalla struttura locale del gruppo
stesso, ovvero dalle proprietà della moltiplicazione tra gli elementi del gruppo,
in un intorno (η) dell’elemento unità.
Nota: Vi possono essere degli stati | ϕ > con la proprietà
Ja | ϕ > = 0 a = 1, 2, 3.
128
In tal caso si ha
D(n̂,φ) | ϕ > =| ϕ >
Questi stati invarianti per rotazione sono già noti: in meccanica ondulatoria
sono gli stati che hanno funzione d’onda che dipende solo dal modulo di r
129
5.3 Spin 1/2.
Abbiamo visto come è stato possibile ricavare le regole di commutazione tra le
componenti di J dalla struttura locale del gruppo delle rotazioni. L, già noto
come momento angolare orbitale, è un caso particolare di J. Se esistono gradi
di libertà interni, le rotazioni agiscono anche su di esse ed i generatori, nello
spazio di tali gradi di libertà interni, si indicano con S = (Sx , Sy , Sz ), momento
angolare di spin. Il caso in cui si considerino i soli gradi di libertà di spin, per
s = 1/2, ci permetterà di ottenere la rappresentazione degli operatori D(n̂,δφ) in
forma di matrici 2 × 2, la rappresentazione non ovvia a più bassa dimensionalità
delle rotazioni in 3D.
Lo stato di un sistema quantistico a spin 1/2, dotato dei soli gradi di libertà
interni, si esprime come sovrapposizione di due stati quantici che indicheremo
con i due vettori di base ortonormali di uno spazio vettoriale complesso a due
dimensioni | + > e | − >
E =| + >< + | + | − >< − |
σ z =| + >< + | − | − >< − |
130
Gli operatori considerati sin qui sono operatori lineari O e quindi sono rap-
presentabili come matrici i cui elementi sono del tipo < m | O | n > nella base
del nostro spazio vettoriale
1 0 ~ 1 0 0 1 0 0
1= Sz = S+ = ~ Sz = ~
¯ 0 1 2 0 −1 0 0 1 0
(5.6)
Sappiamo che se invece degli autostati di Sz vogliamo costruire quelli di Sx ,
che indicheremo con | Sx ; + > e con | Sx ; − >, dovremo combinare linearmente
con coefficienti di ugual modulo gli stati | + > e | − > e garantire l’ortogonalità
dei due stati e la corretta normalizzazione di ciascuno
1 1 1 1
| Sx ; + >= √ | + > + √ eiδA | − > ; | Sx ; − >= √ | + > − √ e−iδA | − >
2 2 2 2
Una volta scritti gli autostati di Sx si può costruire l’operatore nello stesso modo
con cui si è scritto Sz nella (5.4)
~
Sx = (| Sx ; + >< Sx ; + | − | Sx ; − >< Sx ; − |) =
2
~ −iδ A
= (e | + >< − | + eiδ A | − >< + |)
2
Analogamente si ottiene
~ −iδ B
Sy = (e | + >< − | + eiδ B | − >< + |)
2
Imponendo che |< Sx ; ± | Sy ; + >|2 = 1/2, si ottiene che la differenza tra le fasi
deve essere δ B − δ A = ±π/2. La scelta δ A = 0 e δ B = π/2 non comporta
perdita di generalità e corrisponde a scegliere una terna xyz destrorsa. Si ha
quindi
~ 1
Sx = (| + >< − | + | − >< + |) = (S+ + S− )
2 2
~ −i
Sy = (−i | + >< − | + i | − >< + |) = (S+ − S− )
2 2
da cui
S+ = Sx + iSy S− = Sx − iSy
Nella nostra base a due componenti le matrici che rappresentano Sx ed Sy sono
~ 0 1 ~ 0 −i
Sx = Sy = (5.7)
2 1 0 2 i 0
131
[Sa , Sb ] = i~eabc Sc (5.9)
Mentre l’ultima relazione identifica i tre operatori come le componenti di un
momento angolare, la precedente è una proprietà valida nel sottospazio N = 2
qui considerato.
~2 ~2
S2 = (| + >< + | − | − >< − |)2 + (| + >< − | + | − >< + |)2 +
4 4
~2 3 3
+ (−i | + >< − | +i | − >< + |)2 = ~2 (| + >< + | + | − >< − |) = ~2 I
4 4 4
Vale poi la proprietà
[S2 , Sa ] = 0 (5.10)
che è vera in generale per un momento angolare
[J2 , Ja ] = 0 (5.11)
0 1 0 −i 1 0
σ1 = σ2 = σ3 = (5.12)
1 0 i 0 0 −1
132
Per finire dimostriamo, generalizzando l’ultima relazione ottenuta, che
(σ · a) (σ · b) = (a · b ) 1 + iσ·(a × b) (5.13)
¯
Infatti
XX XX 1 1
(σ · a) (σ · b) = σ i a i σ j bj = ( {σ i , σ j } + [σ i , σ j ])ai bj =
i j i j
2 2
XX X
(δ ij + i eijk σ k )ai bj =
i j k
X XXX
= a i bi + i σ k ekij ai bj = (a · b) 1 + iσ·(a × b).
¯
i i j k
133
5.4 Rotazioni per Stati con Spin 1/2.
L’operatore di rotazione Dn̂ (φ), nello spazio degli stati N = 2, che ha per base gli
autostati di Sz , | χ >= c1 | + > +c2 | − > è dato da exp(− ~i S · n̂φ). Tenendo
conto che (σ · n̂)2n = I e che (σ · n̂)2n+1 = σ · n̂, si ha
i i φ φ
exp(− S · n̂φ) = exp(− σ · n̂φ) = I cos( ) − iσ · n̂ sin( ) =
~ 2 2 2
cos( φ2 ) − inz sin( φ2 ) (−inx − ny ) sin( φ2 )
= (5.14)
(−inx + ny ) sin( φ2 ) cos( φ2 ) + inz sin( φ2 )
che è la matrice 2 × 2 che trasforma gli spinori a due componenti per rotazione
attorno ad un asse qualunque n̂. Le due colonne rappresentano gli spinori
trasformati degli stati di base | + > e | − > . E’ evidente che una rotazione
di 2π attorno ad un qualunque asse trasforma | χ > in − | χ >, mentre una
rotazione di 4π trasforma | χ > in se stesso. Questa sorprendente proprietà
delle particelle con spin 1/2 è confermata sperimentalmente, negli esperimenti
di interferenza tra stati quantici dello stesso sistema che precorre due diversi
cammini: uno in presenza di un campo magnetico che produce una rotazione
(precessione) dello spin ed uno in assenza del campo magnetico. E’ cosı̀ possibile
sovrappore lo stato non ruotato e lo stato ruotato di 2π ed ottenere interferenza
distruttiva, come pure sovrappore lo stato non ruotato a quello ruotato di 4π
ottenendo interferenza costruttiva. Questi esperimenti sono stati effettuati con
neutroni e con muoni ed hanno confermato questa sorprendente proprietà degli
stati quantici a momento angolare semintero. Inoltre dalla considerazione della
(5.14) ci viene il sospetto di di dover considerare come distinte due rotazioni
che differiscono per 2π passando cosı̀ dall’insieme delle rotazioni a un insieme
di elementi che con esse è in corrispondenza 1 ←→ 2.Il nuovo insieme (gruppo
SU (2)) avrà le stesse proprietà locali del gruppo SO(3) delle rotazioni.
134
0 cos( φ2 ) + i sin( φ2 )
× | χ >=
cos( φ2 ) − i sin( φ2 ) 0
0 cos2 ( φ2 ) − sin2 ( φ2 ) + 2i cos( φ2 ) sin( φ2 )
=< χ | 2 φ 2 φ φ φ | χ >=
cos ( 2 ) − sin ( 2 ) − 2i cos( 2 ) sin( 2 ) 0
0 cos(φ) + i sin(φ)
=< χ | | χ >=
cos(φ) − i sin(φ) 0
=< χ | σ x | χ > cos (φ) − < χ | σ y | χ > sin (φ)
< χ0 | Sx | χ0 >=< χ | Dẑ† (φ)Sx Dẑ (φ) | χ >=< χ | Dẑ−1 (φ)Sx Dẑ (φ) | χ >=
avrei lasciato inalterato il valor medio. E’ chiaro che per rotazione diretta
dell’operatore intenderemo la trasformazione inversa della (5.16)
135
La proprietà (5.15) è in realtà una proprietà non solo di S ma di J e può essere
trasferita dai valori medi agli operatori ruotati secondo la (5.16). Possiamo
infatti osservare che
i i i 1 i 1
exp( Jz φ)Jx exp(− Jz φ) = (1+ Jz φ− 2 Jz2 φ2 +...)Jx (1− Jz φ+ 2 Jz2 φ2 +...) =
~ ~ ¯ ~ 2!~ ¯ ~ 2!~
i 1 iφ 1 iφ n
= Jx + φ[Jz , Jx ]+ ( )2 [Jz , [Jz , Jx ]]+...+ ( ) [Jz , [Jz , ...[Jz , Jx ]...]]+... =
~ 2! ~ n! ~
1 1
= Jx (1 − φ2 + ...) − Jy (φ − φ3 + ...) = Jx cos(φ) − Jy sin(φ).
¯ 2! 3!
Per una qualunque rotazione R avremo che
X
D−1 (R)Ja D(R) = Rab Jb (5.18)
b
dove la matrice Rab è quella che produce le rotazioni dei vettori in 3D. La pro-
prietà (5.18) identifica l’operatore J = (Jx , Jy , Jz ) come un operatore vettoriale.
Ritorniamo alle rotazioni spaziali sugli spinori a due componenti (S=1/2) e
costruiamo, nella base degli autostati di Sz , gli autostati di Sn̂ , con il versore
n̂ che forma un angolo β con l’asse z e la cui proiezione sul piano xy forma un
angolo α con l’asse delle x. Possiamo notare che n̂ si può ottenere a partire da ẑ
effettuando prima una rotazione di un un angolo β attorno ad y, poi ruotando
di α attorno al nuovo asse z. Per ottenere lo stato a spin ↑ dell’operatore S n̂
posso partire dall’autostato a spin ↑ di Sz applicando le due rotazioni. Voglio
trovare | χ > tale che
1
Sn̂ | χ↑ >= S · n̂ | χ↑ >= ~ | χ↑ >
2
1
a partire da | χ+ >= con le rotazioni.
0
136
0
Analogamente partendo da | χ− >= avrei ottenuto
1
− exp(−i α2 ) sin( β2 )
| χ↓ >= .
exp(+i α2 ) cos( β2 )
137
Figura 5.1: Rotazioni ed angoli di eulero.
Le rotazioni per noi debbono essere riferite ad assi fissi del sistema di rifer-
imento che utilizziamo nel sistema di coordinate. Notiamo che la rotazione
attorno all’asse y 0 (ruotato di α attorno ad y, con una rotazione attorno a z)
può essere scritta come
138
e che allo stesso modo
Ne segue, tenendo conto che rotazioni attorno ad uno stesso asse commutano,
che
139
5.6 Costruzione delle rappresentazioni del grup-
po delle rotazioni.
Una qualunque rotazione nello spazio 3D può essere rappresentata dalla trasfor-
mazione che essa genera su gli stati di base per lo spazio vettoriale che descrive
gli stati di un sistema quantistico. Assumiamo che {| ai >} sia un insieme
completo di stati. La matrice
costituisce una rappresentazione delle rotazioni nella base di questi stati. Cercher-
emo ora le rappresentazioni irriducibili del gruppo delle rotazioni spaziali, ovvero
le rappresentazioni ottenute dagli autostati di J2 e Jz , ricavati dai generatori
del gruppo continuo delle rotazioni.
Poniamo per comodità ~ = 1. Ja diviene adimensionale, ma è facile ritornare
al sistema di grandezze fisiche noto. Usiamo gli indici 123 invece di xyz.
J± = J1 ± iJ2 (5.23)
[J3 , J± ] = ±J± [J+ , J− ] = 2J3 (5.24)
Attenzione: in letteratura si trovano diverse versioni delle (5.23) e (5.24) a causa
di fattori di moltiplicazione
√ che compaiono nella definizione di J± . Questi fattori
possono essere 1/ 2 oppure 1/2. Qui prendiamo fattori uguali ad 1.
Consideriamo lo spettro di autovalori e gli autostati dell’operatore hermi-
tiano J3 .
J3 | m >= m | m > (5.25)
dove al momento m è un qualunque numero reale. J+ e J− sono gli operatori
che percorrono lo spazio degli autovettori di J3 . Infatti J± | m > è ancora una
autostato di J3 . Dalle (5.24)
risulta che è un autostato con autovalore (m±1). Otteniamo cosı̀ degli autostati
di J3 con autovalori che differiscono per numeri interi (in unità di ~). Per un
sottospazio che ha un numero finito di autovalori di J3 , chiamiamo j il maggiore
degli autovettori e | j, α > un suo autovettore. L’indice α è un ulteriore indice
nel caso che vi sia più di un autovettore. Scegliamo gli autovettori in modo che
< j, β | j, α >= δ αβ
J+ | j, α >= 0 J+ | j, β >= 0
mentre
140
dove Nj (α) e Nj (β) sono opportune costanti moltiplicative. Consideriamo il
prodotto scalare
Nj∗ (β) Nj (α) < j − 1, β | j − 1, α >=
< j, β | J+ J− | j, α >=< j, β | J+ J− − J− J+ | j, α >=
< j, β | 2J3 | j, α >= 2jδ αβ
gli stati | j − 1, α > e | j − 1, β > sono otogonali se lo sono | j, α > e | j, β >,
mentre le costanti Nj (α) e Nj (β) possono essere scelte reali ed uguali a Nj =
√
2j.
Calcoliamo ora J+ | j − 1, α >
1 1 2j
J+ | j−1, α >= J+ J− | j, α > = [J+ , J− ] | j, α > = 2J3 | j, α >= √ | j, α > .
Nj Nj 2j
Quindi si ha
J+ | j−k−1, α >= Nj−k | j−k, α > e J− | j−k, α >= Nj−k | j−k−1, α >
Nj2 = 2j
2
Nj−1 = Nj2 + 2(j − 1)
2 2
Nj−2 = Nj−1 + 2(j − 2)
...
2 2
Nj−k = Nj−k+1 + 2(j − k)
e sommando membro a membro si ha
2
Nj−k = 2(j + (j − 1) + (j − 2) + ... + (j − k)) = (2j − k)(k + 1)
da cui p
Nj−k = (2j − k)(k + 1)
141
dove j è l’autovalore masimo e k è un intero positivo. Affinchè la sequenza sia
finita occorre che 2j sia intero. In tal caso per k = 2j si ha N−j = 0, ovvero
J− | −j, α >= 0
J+ | j−k−1, α >= Nj−k | j−k, α > e J− | j−k, α >= Nj−k | j−k−1, α >
142
ovvero p
J± | jm >= j(j + 1) − m(m ± 1) | j, m ± 1 > .
Queste relazioni vanno usate insieme con la (5.25)
J3 | jm >= m | jm >
E’ possibile scrivere le matrici dei generatori nella base | jm > . Ciascun
valore di j (numero quantico intero o semintero che identifica il momento an-
golare) individua un insieme di stati di base ortogonali e le matrici associate
alla rappresentazione j.Con le matrici a fissato j, di (2j + 1) righe e (2j + 1)
colonne, si costrutuisce la rappresentazione irriducibile del gruppo delle ro-
tazioni con etichetta j. Al numero quantico j corrisponde un insieme di stati
con degenerazione (o dimensione) [j] = 2j + 1.
Abbiamo già visto che per N = 2, ovvero j = 1/2
1 1 0 1 0 1 1 0 −i
J3 = J1 = J2 = .
2 0 −1 2 1 0 2 i 0
per N = 3, ovvero j = 1
√
1 0 0 0 2 √0 √0 0 0
J3 = 0 0 0 J+ = 0 0 2 J− = 2 √0 0
0 0 −1 0 0 0 0 2 0
0 1 0 0 −i 0
1 1
J1 = √ 1 0 1 J2 = √ i 0 −i .
2 0 1 0 2 0 i 0
per N = 4, ovvero qj = 3/2, √ 3 3
3 1
J+ | 2 , 2 >= 15 3 3 3
4 − 4 | 2 , 2 >= 3 | 2 , 2 >,
q
3 1 15 1 3 1 3 1
J+ | 2 , − 2 >= 4 + 4 | 2 , 2 >= 2 | 2 , 2 >, ...
√
3 0 0 0 0 3 00 √0 0 0 0
1 0 1 0 0 0 0 2 0
J3 = J+ = √0 J− =
3 0 0
2 0 0 −1 0 0 0 0 3 0 2 0
√ 0
0 0 0 3 0 0 00 0 0 3 0
√ √
√0 3 0 0 √0 − 3i 0 0
1 3 0 2 0 1 3i 0 −2i 0
J1 = √ J2 = √ .
2 0 2 √0 3 2 0 2i √0 − 3i
0 0 3 0 0 0 3i 0
e cosı̀ via.
143
(j)
= exp(−im0 α − imγ)dm0 ,m (β)
dove
(j) i
dm0 ,m (β) =< jm0 | exp(− βJy ) | jm > .
~
Per j = 1/2
(1) cos(β/2) − sin(β/2)
dm20 ,m (β) =
sin(β/2) cos(β/2)
Per j = 1
√
0 − 2i 0 2 1 0 −1
~ √ √ ~
Jy = 2i √0 − 2i , Jy2 = 0 2 0 , Jy3 = ~2 Jy
2 2
0 2i 0 −1 0 1
2
i Jy Jy
exp(− βJy ) = I + (cos(β) − 1) − i sin(β)
~ ~ ~
Segue quindi che
1
2 (1 + cos β) − √12 sin β 1
2 (1 − cos β)
(1) √1 sin β cos β − √12 sin β
dm0 ,m (β) = 2 .
1 √1 sin β 1
2 (1 − cos β) 2 2 (1 + cos β)
(j)
E’ possibile scrivere una formula generale per le matrici dm,n (β)
d(j)
m,n (β) = (−1)t (5.28)
t
(j + m − t)!(j − n − t)!(t + n − m)!
×(cos(β/2))2j+m−n−2t (sin(β/2))2t+n−m
dove la somma sugli interi t è estesa a tutti valori che contengono fattoriali di
interi non negativi.
144
5.7 SU (2) e SO(3).
145
Posso osservare che SO(3) è un gruppo che non è semplicemente connesso,
mentre SU(2) lo è. Si dice allora che SU(2) è l’ universal covering group di SO(3).
Per notare che SO(3) non è semplicemente connesso posso rappresentare i suoi
elementi come punti di una sfera di raggio π nello spazio reale tridimensionale.
La direzione del vettore indica la direzione dell’asse di rotazione e il suo modulo
la rotazione positiva compresa tra φ = 0 e φ = π. Le rotazioni con −π < φ < 0
sono descritte dal segmento di punti che si trova sullo stesso asse, ma con il
segno opposto, cioè dall’altra parte rispetto all’origine. In questo modo ho
una corrispondenza biunivoca tra le rotazioni e i punti della sfera, ricordando
che la superficie della sfera va considerata solo per metà come appartenente
all’insieme. Dei due punti agli antipodi sulla superficie devo prenderne solo uno
in quanto in SO(3) le rotazioni attorno a uno stesso asse di ±π coincidono.
Percorrendo con continuità i punti dell’insieme al variare dei parametri che
descrivono la rotazione posso incontrare la superficie. In tal caso rientro nella
sfera agli antipodi e un percorso chiuso non può sempre essere trasformato con
continuità in un solo punto. Si può invece mostrare che SU(2) è semplicemente
connesso.
146
r0 = (0, 0, r)
0 0 0 i ∂ ∂
L = −ir × ∇ = , −i , 0
sin θ ∂ϕ ∂θ
Per esprimere il vettore L rispetto alla terna xyz si può fare una trasformazione
di coordinate costituita da una rotazione passiva di un angolo −θ attorno all’asse
00
e0y seguita da un’altra rotazione passiva attorno al nuovo asse ez di un angolo
−ϕ. Va ricordato che le rotazioni passive equivalgono a una rotazione attiva
dell’angolo opposto. Posso cosı̀ scrivere la matrice di trasformazione M come:
cos ϕ − sin ϕ 0 cos θ 0 sin θ
M = sin ϕ cos ϕ 0 0 1 0 =
0 0 1 − sin θ 0 cos θ
cos θ cos ϕ − sin ϕ sin θ cos ϕ
= cos θ sin ϕ cos ϕ sin θ sin ϕ
− sin θ 0 cos θ
Da L =M L0 ricavo che
∂ ∂
Lx = i(cot θ cos ϕ + sin ϕ )
∂ϕ ∂θ
∂ ∂
Ly = i(cot θ sin ϕ − cos ϕ )
∂ϕ ∂θ
∂
Lz = −i (5.30)
∂ϕ
Segue che
∂ ∂
L± = exp(±iϕ)(cot θ ± ) (5.31)
∂ϕ ∂θ
1 ∂2 1 ∂ ∂
L2 = − + sin θ (5.32)
sin2 θ ∂ 2 ϕ sin θ ∂θ ∂θ
Da queste tre relazioni è possibile ricavare le Ylm (θ, ϕ) conoscendo anche le
equazioni
L2 Ylm (θ, ϕ) = l(l + 1)Ylm (θ, ϕ)
Lz Ylm (θ, ϕ) = mYlm (θ, ϕ)
p
L± Ylm (θ, ϕ) = l(l + 1) − m(m ∓ 1)Yl,m±1 (θ, ϕ)
con la condizione di di ortogonalità e normalizzazione
Z
∗
(Yl0 m0 (θ, ϕ)) Ylm (θ, ϕ) sin θdθdϕ = δ l0 l δ m0 m (5.33)
147
In questo modo si ha
s
(l − m)! (2l + 1) imϕ m
Ylm (θ, ϕ) = e Pl (cos θ)
(l + m)! 4π
(−1)l+m d m+l
Pl m (cos θ) = l
sinm θ m+l sin2l θ =
2 l! d cos θ
dm
= (−1)m sinm θ m
Pl (cos θ).
d cos θ
La scelta della fase è fatta in modo da avere la seguente proprietà
148
5.9 Le rappresentazioni unitarie irriducibili del
gruppo delle rotazioni.
(j)
Abbiamo visto come costruire le matrici Dm0 ,m (α, β, γ).
Ogni rotazione può essere descritta dalle rotazioni più semplici seguenti: 1)
rotazione di un angolo α attorno all’asse e3 , 2) seguita da una rotazione di un
angolo β attorno al nuovo asse e02 , 3) seguita ancora da una rotazione di un
angolo γ attorno al nuovo asse e003 . Analogamente a quanto evidenziato nella
sezione 5.5 si avrà
149
00 X (l)
XX (l) (l)
Clm00 (r̂ ) = Dm0 m00 (R2 )Clm0 (r̂0 ) = Dm0 m00 (R2 )Dmm0 (R1 )Clm (r̂) =
m0 m0 m
X (l)
= Dmm00 (R)Clm (r̂)
m
dove X
(l) (l) (l)
Dmm00 (R) = Dmm0 (R1 )Dm0 m00 (R2 ) (5.37)
m0
Inoltre dall’unitarietà
DD † = D† D = I
segue che X (j) (j)
(Dm0 n (R))∗ Dm0 m (R) = δ nm
m0
X (j) (j)
Dnm0 (R)(Dmm0 (R))∗ = δ nm
m0
Si può inoltre porre in evidenza l’ortogonalità tra i vettori ottenuti dagli gli
elementi di matrice omonimi, appartenenti a rappresentazioni irriducibili diverse
(Teorema GOT, Great Orthogonality Theorem). Nel prodotto scalare occorre
sommare i prodotti delle componenti su tutti gli elementi del gruppo. Qui, in un
gruppo continuo, occorre integrare sui parametri che identificano la rotazione
nel gruppo continuo
Z 2π Z 2π Z π
(j) (j 0 )
dα sin βdβ dγ(Dmm0 (α, β, γ))∗ Dnn0 (α, β, γ) =
0 0 0
8π 2
= δ jj 0 δ mn δ m0 n0 (5.38)
2j + 1
Vediamo ora una relazione tra gli elementi di matrice degli operatori di
rotazione D e le armoniche sferiche. Il versore ẑ dell’asse z è trasformato nel
versore n̂ dalla rotazione attiva ottenibile con α = φ e con β = θ. Riferendoci ai
vettori di stato, considerando gli autostati della posizione, sulla sfera di raggio
unitario, possiamo scrivere
| n̂ >= U (α = φ, β = θ, γ = 0) | ẑ >
150
X
= U (α = φ, β = θ, γ = 0) | l0 m0 >< l0 m0 | ẑ >
l 0 m0
X
< lm | n̂ >= < lm | U (α = φ, β = θ, γ = 0) | l 0 m0 >< l0 m0 | ẑ >
l 0 m0
m0
r
l 2l + 1
= Dm0 (α = φ, β = θ, γ = 0) Pl (cos θ0 = 1)
4π
Segue che:
r
4π l
∗
Clm (θ, φ) = Ylm (θ, φ) = Dm0 (α = φ, β = θ, γ = 0) .
2l + 1
151
5.10 Composizione di due momenti angolari.
Consideriamo un sistema costituito da due sottosistemi distinti. Gli stati quan-
tici del sistema possono essere pensati come costituiti dal prodotto diretto dei
due spazi vettoriali.
| ai > ⊗ | b j > .
Indicati con 1 e 2 i due spazi posso considerare i generatori delle rotazioni in
entrambi
J(1) , J(2)
J costituisce invece il set di generatori delle rotazioni dell’inetero sistema. Se
1(1) e 1(2) sono gli operatori identità nei due sottospazi
J (1)
z | j1 m1 j2 m2 >= m1 | j1 m1 j2 m2 >
2
J(2) | j1 m1 j2 m2 >= j2 (j2 + 1) | j1 m1 j2 m2 >
J (2)
z | j1 m1 j2 m2 >= m2 | j1 m1 j2 m2 >
dove si intende, con notazione diversa da quella più comune, per gli stati nella
rappresentazione non accoppiata,
2 2
[J2 , J(1) ] = 0 [J2 , J(2) ] = 0
Ora osserviamo che
(1) (2) (1) (2) (1) (2) (1) (2)
[J2 , J (1) (1) (1)
z ] = [J + , J z ]J − + [J − , J z ]J + = −J + J − + J − J +
analogamente
(1) (2) (1) (2) (1) (2) (1) (2)
[J2 , J (2) (2) (2)
z ] = J + [J − , J z ] + J − [J + , J z ] = +J + J − − J − J +
da cui
[J2 , J z ] = [J2 , J (1) 2 (2)
z ] + [J , J z ] = 0
152
2 2
I quattro operatori J(1) , J(2) , J2 , J z commutano tra loro ed hanno un set di
autostati comuni che possono essere indicati come
Avremo che 2
J(1) | (j1 j2 )jm >= j1 (j1 + 1) | (j1 j2 )jm >
2
J(2) | (j1 j2 )jm >= j2 (j2 + 1) | (j1 j2 )jm >
J2 | (j1 j2 )jm >= j(j + 1) | (j1 j2 )jm >
Jz | (j1 j2 )jm >= m | (j1 j2 )jm >
Abbiamo due set di vettori di base corrispondenti a due set massimali di op-
eratori che commutano. Il sottospazio | j1 m1 j2 m2 >=| j1 m1 > ⊗ | j2 m2 >
e il sottospazio dei vettori | (j1 j2 )jm > con j1 e j2 fissati, devono coincidere
e la base dell’uno si ottiene mediante una trasformazione unitaria della base
dell’altro.
XX
| (j1 j2 )jm >= | j1 m1 j2 m2 >< j1 m1 j2 m2 | (j1 j2 )jm > (5.39)
m1 m2
dove
Cjjm
1 m1 ,j2 m2
=< j1 m1 j2 m2 | (j1 j2 )jm > (5.40)
sono i Coefficienti di Clebsch-Gordan. Vediamone le proprietà.
0 = (Jz − Jz(1) − Jz(2) ) | (j1 j2 )jm >= (m − Jz(1) − Jz(2) ) | (j1 j2 )jm >
dove non conosco l’effetto dei due operatori sullo stato, che non è un loro au-
tostato. Posso però proiettare su | j1 m1 j2 m2 > e far agire gli operatori a
sinistra. Si ha
| j1 − j2 |≤ j ≤ j1 + j2 (5.41)
153
massimi di m1 ed m2 , ovvero mmax = j1 +j2 . Dalla condizione precedente allora
c’è un solo autovettore in entrambe le basi: in una è | (j1 j2 ), j1 + j2 , j1 + j2 >,
nell’altra è | j1 j1 j2 j2 > . La trasformazione unitaria 5.39 è definita a meno di
un fattore di fase che posso scegliere qui, ponendo
ovvero
Cjjj1 j1, j2 j2 = 1 per j = j 1 + j2 (5.42)
Per m = mmax − 1 = j1 + j2 − 1 corrispondono due possibili stati della vecchia
base ( m1 = j1 − 1, m2 = j2 ed anche m1 = j1 , m2 = j2 − 1). Ai due nuovi
stati ottenuti combinandoli, corrisponde uno stesso valore di m = j1 + j2 − 1,
compatibile con du valori valori di j che sono j1 +j2 e j1 +j2 −1. Cosı̀ continuando
si può vedere che al decrescere di m il numero dei vaolri di j compatibili con m
non può crescere indefinitamente dovendo ritornare ad uno per mmin = −j1 − j2
che è compatibile solo con j = j1 + j2 . Pertanto i valori di j, che decrescono di
un unità alla volta a partire da j1 + j2 dovranno essere limitati inferiormente.
La trasformazione 5.39 è unitaria e conserva il numero dei vettori di base. Nella
vecchia base il numero dei vettori | j1 m1 j2 m2 > è (2j1 + 1)(2j2 + 1). Si può
vedere facilemnte che i valori di j accettabili sono limitati inferiormente da
j1 − j2 . Calcoliamo il numero degli stati nella nuova base:
j=j
X 1 +j2
2(j1 − j2 ) + 1) + 2(j1 + j2 ) + 1)
(2j+1) = (2j2 +1) = (2j1 +1)(2j2 +1).
j=j1 −j2
2
Resta cosı̀ dimostrato che i coeff. di K.-G. sono nulli eccetto che nei casi
m = m1 + m2 e 4(j1 j2 j) = 1 con | m1 |≤ j1 |, m2 |≤ j2 , |, m |≤ j
(5.43)
dove il simbolo 4(abc) = 1 se è soddisfatta la relazione triangolare 5.41, 4(abc) =
0 altrimenti.
La menzionata scelta della fase porta alla possibilità di avere coeff. di K.-G.
reali. La matrice dei coefficienti è reale unitaria quindi è una matrice ortogonale.
Segue allora che
X
< j1 m1 j2 m2 | (j1 j2 )jm >< j1 m01 j2 m02 | (j1 j2 )jm >= δ m1 ,m01 δ m2 ,m02
jm
X
< j1 m1 j2 m2 | (j1 j2 )jm >< j1 m1 j2 m2 | (j1 j2 )j 0 m0 >= δ j,j 0 δ m,m0 .
m1 ,m2
154
s
a b c a−b−γ (−a + b + c)!(a − b + c)!(a + b − c)!
= (−1)
α β γ (a + b + c + 1)!
p
× (a − α)!(a + α)!(b − β)!(b + β)!(c − γ)!(c + γ)!
X (−1)ρ
×
ρ
ρ!(a + b − c − ρ)!(a − b + c + ρ)!(a − α − ρ)!(−a − β + c + ρ)!(b + β − ρ)!
In questa espressione tutti gli argomenti dei fattoriali devono essere ≥ 0. Valgo-
no di conseguenza le relazioni triangolari tra a, b, c e la condizione α + β + γ =
0.
155
5.12 Relazioni di ricorrenza dei coefficienti di
C.-G.
che vale sia per | jm > quando ad agire è J± , sia per | j1 m1 > e per | j2 m2 >
(1) (2)
quando ad agire sono rispettivamente J± e J± , si può scrivere
(1) (2)
XX
J± | (j1 j2 )jm >= (J± + J± ) | j1 m01 j2 m02 >< j1 m01 j2 m02 | (j1 j2 )jm >
m01 m02
ovvero p
(j ∓ m)(j ± m − 1) | j, m ± 1 >=
XX q
( (j1 ∓ m01 )(j1 ± m01 + 1) | j1 m1 ± 1, j2 m02 > +
m01 m02
q
+ (j2 ∓ m02 )(j2 ± m02 + 1) | j1 m1 , j2 m02 ± 1 > ) < j1 m01 j2 m02 | (j1 j2 )jm >
Moltiplicando a sinistra per < j1 m1 j2 m2 | con m1 ed m2 fissati, i soli termini
che rimangono nella somma sono quello con m1 = m01 ± 1 ed m2 = m02 nel
primo termine e quello con m1 = m01 ed m2 = m02 ± 1 nel secondo termine. Si
ottiene cosı̀:
p
(j ∓ m)(j ± m + 1) < j1 m1 , j2 m2 | j, m ± 1 >=
p
= (j1 ∓ m1 + 1)(j1 ± m1 ) < j1 m1 ∓ 1, j2 m2 | (j1 j2 )jm > + (5.45)
p
+ (j2 ∓ m2 + 1)(j2 ± m2 ) < j1 m1 , j2 m2 ∓ 1 | (j1 j2 )jm >
Queste sono le due relazioni di ricorrenza cercata. Differiscono per i segni in
alto o in basso nell’espressione.
Nel piano (m1 , m2 ) si possono indicare tutti i punti che identificano gli stati
di base con j1 , j2 , j fissati. Si ricorda che che i coefficienti non nulli sono quelli
con m3 = m1 + m2 e | j1 − j2 |< j < j1 + j2 . I punti rappresentativi dei
coefficienti di C.-G. a j fissato, che compaiono nelle le relazioni (5.45) , si
156
m2
(m1,m2+1)
J-
(m1-1,m2)
(m1,m2) (m1+1,m2)
J+
(m1,m2-1)
m1
Figura 5.2: I vertici dei due triangoli visualizzano i coefficienti di C.-G. che
compaiono nelle due relazioni espresse dalla (5.45).
157
m2
m1+m2=j
D A
E B
C m1
m1+m2=-j
Figura 5.3: Nel piano (m1 , m2 ) sono indicati con i punti gli stati che contribuis-
cono alla composizione dei momenti angolari. Sono fissati j1 e j2 e poi j, con
| j1 − j2 | ≤ j ≤ j1 + j2 . per diversi valori di j si ottengono diversi poligoni.
158
m 3 2 1 0 -1 -2 -3
(m1 , m2 ) (2,1) (1,1) (0,1) (-1,1) (-2,1) (-2,0) (-2,1)
(2,0) (1,0) (0,0) (-1,0) (-1,-1)
(2,-1) (1,-1) (0,-1)
# stati 1 2 3 3 3 2 1
Tavola 12.1 - Coppie di valori (m1 , m2 ) che compaiono nella composizione dei
momenti angolari j1 = 2 e j2 = 1. I valori di j possono essere 3, 2, 1. Nello
spazio prodotto diretto, il totale degli stati | j1 m1 > ⊗ | j2 m2 >, sono 15, come
la somma degli stati che corrispondono ai momenti angolari j = 3, j = 2, j = 1,
ovvero (2 × 3 + 1) + (2 × 2 + 1) + (2 × 1 + 1).
# stati 1 2 2 2 2 1
159
ms
J- J-
ml
m +m = m
l s j
160
Questa relazione si può riscrivere per m → m + 1, m → m + 2, ..., m → m + k,
se m + k ≤ l + 1/2. Si ha
Ora si può osservare che nella trasformazione di C.-G. si passa dalla coppia
stati
alla coppia
| j = l + 1/2 , m >
| j = l − 1/2 , m >
La matrice di trasformazione tra le due basi è una matrice 2x2 reale e ortogonale
di cui abbiamo appena calcolato l’elemento di matrice a11 , espresso dalla (5.46).
Essa è del tipo
cos α sin α
− sin α cos α
E’ facile allora calcolare gli altri elementi.
s
(l − m + 1/2)
< l (m + 1/2), 1/2 − 1/2 | l + 1/2, m >= (5.47)
(2l + 1)
s
(l − m + 1/2)
< l (m − 1/2), 1/2 1/2 | l − 1/2, m >= − (5.48)
(2l + 1)
161
s
(l + m + 1/2)
< l (m + 1/2), 1/2 − 1/2 | l − 1/2, m >= (5.49)
(2l + 1)
Utilizzando esplicitamente le armoniche sferiche come autostati di l, m posso
costruire la nuova base costituyita dalle funzioni spin-orbitali Ωjlm (θ, φ)
s
(l ± m + 1/2)
Ω(l±1/2)lm (θ, φ) = ± Yl(m−1/2) (θ, φ)χ+ +
(2l + 1)
s
(l ∓ m + 1/2)
+ Yl(m+1/2) (θ, φ)χ−
(2l + 1)
dove
1 0
χ+ = χ− =
0 1
ovvero
p
1 ±p l ± m + 1/2Yl(m−1/2) (θ, φ)
Ω(l±1/2)lm (θ, φ) = √ . (5.50)
2l + 1 l ∓ m + 1/2Yl(m+1/2) (θ, φ)
162
5.14 Operatori Vettoriali.
si ha
X
< α | Vi | α > →< α | D† (R)Vi D(R) | α > = Rij < α | Vj | α >
j
163
5.15 Tensori Cartesiani e Tensori Sferici.
Il numero degli indici si dice rango del tensore cartesiano. Il caso più semplice
di tensore di rango 2 è il prodotto diretto di due vettori (diade) ciascuno dei
quali è un tensore di rango 1: Tij = Ui Vj . Si può scrivere
U·V U i Vj − V j U i U i Vj + V j U i U·V
U i Vj = δ ij + + − δ ij
3 2 2 3
dove il tensore cartesiano di rango 2 è stato scritto come la somma di tre tensori
sferici: uno scalare invariante per rotazione, un tensore doppio antisimmetri-
co i cui termini possono essere pensati come le 3 componenti di un vettore
e12k (U × V)k ed un tensore simmetrico a traccia nulla che ha 5 componenti
indipendenti. Il numero delle componenti indipendenti sono 3 × 3 = 1 + 3 + 5.
Gli addendi sono le moltiplicità dei tensori sferici con l = 0, l = 1 e l = 2.
Questi tensori si traformano per rotazione come le rmoniche sferiche. Il tensore
cartesiano è stato cosı̀ ridotto in tre tensori sferici irriducibili.
Una prima definizione di tensore sferico è la seguente. Sia Ylm (n̂) un’ar-
monica sferica definita sulla sfera di raggio unitario. Sostituiamo n̂ con v̂ e
valutiamo
Tq(k) = Yqk (v̂)
questo è un tensore sferico di rango k con q = −k, ..., k.
e che
X X (l)
D(R−1 ) | lm > = | lm0 >< lm0 | D(R−1 ) | lm > = | lm0 > Dm0 m (R−1 )
m0 m0
ovvero X 0 (l)∗
Ylm (n̂0 ) = Ylm (n̂)Dmm0 (R) (5.54)
m0
164
Questqa può essere assunta come definizione, in base alle proprietà di trasfor-
mazione sotto rotazione, di un tensore sferico di rango k avente 2k + 1 compo-
nenti
Xk
† (k) (k)∗ (k)
D (R)Tq D(R) = Dqq0 (R)Tq0 (5.55)
q 0 =−k
ovvero
k
X (k) (k)
D(R−1 )Tq(k) D† (R−1 ) = Dq0 q (R−1 )Tq0
q 0 =−k
che è una nuova definizione di un tensore sferico, valida in generale anche per
momenti angolari seminteri. per una rotazione infinitesima generalizzata si ha
k
X
iJ · v iJ · v (k) iJ · v
1+ Tq(k) 1− = Tq 0 < kq | 0
1+ | kq >
~ ~ ~
q=−k
ovvero
k
X (k)
[J · v,Tq(k) ] = Tq0 < kq 0 | J · v | kq > (5.57)
q 0 =−k
Ponendo v = ẑ, si ha
k
X k
X
(k) (k)
[Jz ,Tq(k) ] = Tq0 < kq 0 | Jz | kq > = Tq0 ~qδ qq0
q 0 =−k q 0 =−k
ovvero
[Jz ,Tq(k) ] = ~qTq(k) (5.58)
mentre ponendo v = x̂ + iŷ
k
X (k)
[J± ,Tq(k) ] = Tq0 < kq 0 | J± | kq >
q 0 =−k
ovvero p
(k)
[J± ,Tq(k) ] = Tq±1 ~ (k ∓ q)(k ± q + 1) (5.59)
Ora la (5.58) e la (5.59) possono essere assunte come nuove definizioni di tensore
sferico irriducibile di rango k.
(k ) (k )
Vale il teorema: Se Xq1 1 e Zq2 2 sono due tensori sferici irriducibili di rango
k1 e k 2
165
k1
X k2
X
Tq(k) = < k1 q1 , k2 q2 | k1 k2 ; kq > Xq(k1 1 ) Zq(k2 2 ) (5.60)
q1 =−k1 q2 =−k2
e la espressione (5.60) è del tutto analoga a quella che esprime i prodotti dei
vettori di base delle rappresentazioni irriducibili quando si compongono i mo-
menti angolari. La dimostrazione è diretta e si basa sulla verifica che la (5.60)
soddisfa la relazione (5.56).
mentre 0
| α0 j 0 m0 > → D | α0 j 0 m0 > = e−im φ | α0 j 0 m0 >
Allora l’elemento di matrice, che è un invariante, si può scrivere come
0
< α0 j 0 m0 | Tq(k) | αjm > = eiφ(m −m−q) < α0 j 0 m0 | Tq(k) | αjm >
166
5.16 Teorema di Wigner-Eckart.
Gli elementi di matrice di operatori tensoriali tra gli autostati del momento
angolare sono dati dalla espressione
< α0 j 0 || T (k) || αj >
< α0 j 0 m0 | Tq(k) | αjm > = < jm, kq | (jk)j 0 m0 > √
2j + 1
0 0
j m
dove < jm, kq | (jk)j 0 m0 > = Cjm;kq e < α0 j 0 || T (k) || αj > non dipende da
0
m, m e q. L’elemento di matrice è diverso da zero solo se j e k si compongono a
dare j 0 , ovvero se è | j−k |≤ j 0 ≤ j+k. La dipendenza dai numeri m, m0 e q è di
tipo esclusivamente geometrico, tramite i coefficienti di C.-G. Dati j, k, j 0 , α, α0
basta calcolare
√ un solo elemento di matrice ridotto < α 0 j 0 || T (k) || αj > . Il
fattore 2j + 1 è parte della definizione dell’elemento di matrice ridotto.
La dimostrazione del teorema di Wigner-Eckart si basa sulla (5.59) che
possiamo riscrivere per gli elementi di matrice
(k)
p
< α0 j 0 m0 | [J± ,Tq(k) ] | αjm > = < α0 j 0 m0 | Tq±1 | αjm > ~ (k ∓ q)(k ± q + 1)
Esplicitando il primo termine si ha
p
(j 0 ± m0 )(j 0 ∓ m0 + 1) < α0 j 0 (m0 ∓ 1) | Tq(k) | αjm >
p
− (j ∓ m)(j ± m + 1) < α0 j 0 m0 | Tq(k) | αj(m ± 1) > =
(k)
p
= < α0 j 0 m0 | Tq±1 | αjm > ~ (k ∓ q)(k ± q + 1)
Questa espressione, con la trasformazione j → j1 , m → m1 , k → j2 , q →
m2 , j 0 → j, m0 → m, diviene
p (j2 )
(j ± m)(j ∓ m + 1) < α0 j (m ∓ 1) | Tm 2
| αj1 m1 >
p (j2 )
− (j1 ∓ m1 )(j1 ± m1 + 1) < α0 j m | Tm 2
| αj1 (m1 ± 1) > = (5.62)
(k)
p
= < α0 j m | Tm2 ±1 | αj1 m1 > ~ (j2 ∓ m2 )(j2 ± m2 + 1)
che è della stessa forma della relazione (5.45) ottenuta per i coefficienti di C.-G.
che riscriviamo
p
(j ∓ m)(j ± m + 1) < j1 m1 , j2 m2 | (j1 j2 )j, m ± 1 >=
p
= (j1 ∓ m1 + 1)(j1 ± m1 ) < j1 m1 ∓ 1, j2 m2 | (j1 j2 )jm > +
p
+ (j2 ∓ m2 + 1)(j2 ± m2 ) < j1 m1 , j2 m2 ∓ 1 | (j1 j2 )jm >
Si hanno cosı̀ due sistemi di equazioni lineari omogenee con gli stessi co-
efficienti. Pertanto la soluzione è la medesima a meno di un coefficiente di
proporzionalità.
< α0 j 0 m0 | Tq(k) | αjm > = < jm, kq | (jk)j 0 m0 > costante (indip. da m, m0 , q)
167
5.17 Applicazioni.
< α0 , jm |J · V| α, jm >
< α0 , jm0 |Vq | α, jm >= < jm0 |Jq | jm > . (5.65)
~2 j(j + 1)
168
esso non può dipendere da V dal momento che la dipendenza da V è tutta
nell’elemento di matrice ridotto. Posso allora scrivere che
ed anche
< α, jm J2 α, jm >= cj < α, j ||J|| α, j >
dove nell’ultima eguaglianza si è posto α0 = α ed m = m0 . Applicando ulterior-
mente il teorema di Wigner-Eckart e tenendo conto delle due relazioni appena
scritte, avrò
Ma si ha < α, jm0|Jq| α, jm > = < α | α >< jm0 |Jq | jm >=< jm0 |Jq | jm >
ed anche < α, jm J2 α, jm >=< jm J2 jm >= ~2 j(j + 1), da cui
< α0 , jm |J · V| α, jm >
< α0 , jm0 |Vq | α, jm >= < jm0 |Jq | jm > .
~2 j(j + 1)
169
5.18 Applicazioni alla fisica atomica
Le applicazioni della teoria del momento angolare alla fisica atomica sono una
parte importante dei corsi di Struttura della Materia. L’atomo è un sistema
a simmetria sferica e gli stati elettronici degli atomi possono essere classificati
secondo le rappresentazioni irriducibili del gruppo delle rotazioni. La simmetria
sferica, che può essere rotta dalla presenza di un campo esterno. Vediamo molto
in breve alcune semplici applicazioni.
X p2 X
e2 X Ze2
X
i
Ha = + VC (ri ) + − VC (ri ) + + ξ(ri )li ·si =
i
2m i<j
|ri −rj | i
ri i
Ha = H C + V 1 + V 2
dove
X p2 X e2 X Ze2
X
i
HC = + VC (ri ) V1 = − VC (ri ) + V2 = ξ(ri )li ·si .
i
2m i<j
|ri −rj | i ri i
170
Una scelta opportuna del potenziale centrale VC (r) può permettere di trattare
V1 e V2 come perturbazioni, partendo dagli stati a elettroni indipendenti che
sono autostati di HC . Spesso gli autostati di HC , che hanno energie pari alla
somma delle energie dei livelli a singolo elettrone occupati, che sono ottenuti
usando il principio di Pauli, sono fortemente degeneri.
Consideriamo ad esempio l’atomo di C (carbonio), che ha sei elettroni ed
ha uno stato fondamentale per HC , dato dalla configurazione fondamentale
(1s)2 (2s)2 (2p)2 con la sotto-shell esterna 2p non piena: le shell piene (1s)2 e
(2s)2 non ontribuiscono alla degenarione (sono singoletti); con due elettroni
equivalenti i 6 stati 2p possono essere occupati in (6 × 5)/2 = 15 modi diversi.
Lo stato a più bassa energia E0 di HC ha degenerazione 15. Questi stati possono
essere modificati dall’interazione V1 + V2 . Consideriamo
X e2 X Ze2
V1 = − VC (ri ) +
i<j
|ri −rj | i
ri
Per ottenere gli stati perturbati occorre diagonalizzare V1 nel sottospazio di tali
stati. Ricordando che V1 è invariante per rotazioni, anzi commuta separata-
mente con L ed S (momento angolare orbitale totale e momento angolare di
spin totale) , si può costruire con tali stati gli autostati di L2 , S2 , Lz ed Sz ,
componendo i momenti angolari dei 2 elettroni 2p. Con due elettroni p la parte
orbitale potrà avere L = 0, L = 1 oppure L = 2,mentre la parte di spin avrà
S = 0 o S = 1.Inoltre lo stato deve essere antisimmetrico per lo scambio di due
elettroni e questo comporta che le funzioni siano antisimmetriche nella parte or-
bitale e simmetriche in quelle di spin o viceversa. Rimangono cosı̀ tre multipletti
in cui si decompone il sottospazio di partenza
3 1 1
P (L = 1, S = 1) S(L = 0, S = 0) D(L = 2, S = 0)
la cui degenerazione(2L + 1)(2S + 1) vale rispettivamente 9,1,5 (che ha somma
15). In tale base, ottenuta per trasformazione di similitudine da quella di parten-
za, l’operatore V1 è diagonale e è ha tre diversi autovalori che corrispondono ai
tre termini spettrali della configurazione considerata.
Introducendo V2 , l’interazione spin-orbita, peraltro quasi trascurabile negli
atomi leggeri e per gli elettroni meno legati, introduco un temine che non con-
serva più L e S, ma solo J. Il primo termine spettrale si divide in tre livelli con
J = 0 (degenerazione 1), J = 1 (degenerazione 3) e J = 2 (degenerazione 5). In-
vece dalla composizione LS gli altri due termini spettrali hanno rispettivamente
J = 0 e J = 2, mantenendo entrambi la stessa degenerazione.
Questo è un cenno a come si possono ottenere in fisica atomica le strutture dei
livelli spettrali. Partendo da altre configuarazioni si possono ottenere altri livelli
e se partiamo da configurazioni energeticamente vicine occorre ener conto anche
dell’interazione tra configurazioni. Vi sono poi diversi schemi di accoppiamento
(LS, jj, ...).
c) Gli stati elettronici a molti elettroni sono cosı̀ associati ai numeri quantici
| αJM >
171
Nel caso di più elettroni gli operatori posizione e quantità di moto divengono
X X
r= ri p = pi
i i
che sono ancora operatori vettoriali. E’ possibile anche nello schema a molti
elettroni definire gli elementi di matrice e le regole di selezione per i processi di
assorbimento ed emissione.
|e| |e|
W =+ (B · (L + 2S)) = + (Bz · (Lz + 2Sz ))
2mc 2mc
che agisce sugli stati atomici
| E0 JM >
Se la perturabazione W è piccola rispetto all’interazione V2 è possibile valutare
il suo effetto su ciascun livello calcolando
ovvero
E = E0 − g~M µB Bz (5.66)
che è la formula dell’effetto Zeeman. Per determinare il fattore di Landé g si
ricorda sempre la (5.65)
Poichè
1
J · (L+2S) = J2 + J · S = J2 + S2 + (J2 +S2 −L2 )
2
si ha
J(J + 1) + S(S + 1) − L(L + 1)
g =1+ . (5.67)
2J(J + 1)
172
Nel caso di un campo magnetico sia intenso tale che W >> V2 , conviene
partire dagli autostati di V1 ovvero dagli autostati di L ed S. Si avrà
< E0 LML SMS | Lz + 2Sz | E0 LML SMS > = ~µB (ML + MS )Bz
1 1 dVC
V2 = L · S ξ(r) ξ(r) =
2m2 c2 r dr
Possiamo scrivere
1
< L · S >j = < J2 − L2 − S2 >j
2
dove il valor medio è calcolato sullo stato a j fissato j = l ± 1/2, cioè sullo stato
spin-orbitale (5.50). Si può scrivere per j = l + 1/2
1 2 1 3 3 ~2
< V2 >= ~ (l + )(l + ) − l(l + 1) − < ξ(r) > = < ξ(r) > l
2 2 2 4 2
e per j = l − 1/2
1 2 1 1 3 ~2
< V2 >= ~ (l − )(l + ) − l(l + 1) − < ξ(r) > = − < ξ(r) > (l + 1)
2 2 2 4 2
Poichè r1 dV
dr è positivo, ciascun livello viene diviso in due. Uno (j = l + 1/2) è
C
~2 l/2
173
5.19 Applicazioni alla fisica nucleare.
I suoi valori potranno essere interi e seminteri (secondo che A è pari o dispari),
ma saranno ≤ A/2. La terza componente di T avrà valori
1
T3 = (Z − N ).
2
Una rotazione nello spazio dello spin isotopico è data da
exp(−i T · n̂φ)
174
delle forze nucleari, mentre le seconde sono responsabili dei decadimenti. Ad
esempio un neutrone libero decade spontaneamente in
n → p + e− + ν̄
ma ciò avviene su una scala di tempi (103 s.) enormemente superiori alla scala
dei tempi che qui ci interessa. Questi due termini non hanno la stessa simmetria
dell’interazione forte e sono responsabili delle differenze tra le due particelle del
doppietto. Possiamo scrivere
1
t2 = t23 + (t+ t− + t− t+ ) t± = tx ± ity
2
in analogia con il momento angolare.
ovvero
| π − >=| 1, −1 > | π 0 >=| 1, 0 > | π + >=| 1, +1 >
Il deutone è lo stato legato formato un protone e da un neutrone: è un singoletto
di isospin
| d >=| T = 0, T3 = 0 >
mentre 3 He (elio-3) e 3 H (trizio) costituiscono i due stati di un altro doppietto
1 1 1 1
|3 He >=| T = , T3 = > |3 H >=| T = , T3 = − >
2 2 2 2
E’ facile studiare la collisione protone-deutone con i due prodotti di reazione
p + d → π+ + 3H
p + d → π 0 + 3 He
Lo stato iniziale è lo stesso e, in terini dei numeri quantici di isospin, è
1 1 1 1
| + >| 00 >=| + >
2 2 2 2
175
ovvero è uno stato di un doppietto con T3 = 1/2. Lo stato finale è diverso nelle
due reazioni
1 1
π + + 3 H =| 1 1 >| − >
2 2
1 1
π 0 + 3 He =| 1 0 >| + >
2 2
Il rapporto tra le due sezioni d’urto è dato dal rapporto tra i quadrati degli
elementi dimatrice tra lo stato iniziale e quello finale
2
< 2 12 21
σ p + d → π+ + 3H
1
2 + 1
2 | | 1 1 >| 1
2 − 1
2 > C11, 12 − 12
= 1 1 1 1
= 1 1
σ (p + d → π 0 + 3 He) < 2 + 2 | | 1 0 >| 2 + 2 > C 2 21 1
10, + 2 2
è proibita dal momento che lo stato finale è una componente di un tripletto con
T = 1 e T3 = 0. Infatti essa ha una sezione d’urto di 10−32 cm2 , ben sei ordini
di grandezza inferiore alle sezioni d’urto delle altre reazioni permesse. E’ invece
possibile la reazione
d + d → 4 He + γ
dal momento che il fotone γ non è un autostato dell’isospin, ma contiene diverse
componenti con diverso T ed in particolare T = 0.
176
Figura 5.5: Sezioni d’urto pione-nucleone in funzione dell energia cinetica del
pione incicente sul nucleone bersoglio fisso nel sistema del laboratorio.
- + ++
D D0 D D
1232 T=3/2
-
p
p0 p0
+ -
p p
+
p T=1/2
938
n p
-1 0 1 2 Q
Figura 5.6: Schema di livelli che illustra in termini di transizione tra livelli
barionici la risonanza ∆ nella collisione N − π. Le linee tratteggiate indicano
i possibili assorbimenti ed emissioni di pioni nelle transizioni tra il doppietto
barionico e il quadrupletto ∆. I valori delle masse sono espressi in M eV .
177
+
N0 N
1516 T=1/2
-
p
p0 p0
+
938
p T=1/2
n p
-1/2 1/2 T3
0 1 Q
Figura 5.7: Schema di livelli che illustra in termini di transizione tra livelli
barionici la risonanza N 0 -N + nella collisione N − π a circa 1516 M eV .
Per avere l’energia della risonanza W occorre scrivere la energia totale del
sistema nel riferimento del centro di massa del sistema pione-nucleone
p
W = (M c2 + mπ c2 )2 + 2Kπ M c2
dove M è la massa del nucleone e Mπ quella del pione. Vediamo l’energia delle
risonanze in M eV per il sistema N − π
p
W = (938 + 140)2 + 2Kπ · 938
Sulla scala delle energie cinetiche del pione incidente Kπ+ = 190 corrisponde
a W = 1232 (questa risonanza è presente nei due grafici), mentre Kπ− = 190
corronde a W = 1516 (questa risonanza è presente solo in π − + p → π 0 + n e
π − + p → π − + p. La risonanza ∆ (1232 M eV ) può essere interpretata come
una transizione ad un quartetto di isospin secondo lo schema di assorbimento e
riemissione di un pione indicato in Figura 5.6.
178
Le sezioni d’urto stanno tra loro come le quarte potenze dei coefficienti di
G.-G.
179
Capitolo 6
Abbiamo visto nel capitolo precedente come lo studio del momento angolare in
fisica e in meccanica quantistica in particolare sia legato allo studio del gruppo
delle rotazioni spaziali. Il gruppo continuo reale lineare O(3) e il gruppo SU (2),
in stretta relazione con esso, hanno tre generatori linearmente indipendenti che
possono essere descritti da tre operatori hermitiani, che sono le tre componenti
dell’operatore momento angolare. Questi tre generatori sono la base di un’al-
gebra non commutativa, definita dalle relazioni di commutazione del momento
angolare. E’ possibile associare a ciascuna rotazione finita un operatore uni-
tario in forma esponenziale. Tale operatore, agendo in uno spazio vettoriale
complesso ad N dimensioni (come devono essere i sottospazi degli stati della
meccanica quntistica), opera una trasformazione unitaria (trasforma una base
ortonormale in un’altra base ortonormale). Tale trasformazione in uno spazio
vettoriale complesso ad N dimensioni è la immagine della rotazione in R3 , la
rotazione che opera su un vettore reale in 3D. Le matrici ottenute da questi
operatori lineari ed unitari nella base degli autostati di J2 e Jz ,ovvero nella
base dei ket {| jm >} , costituiscono le rappresentazioni irriducibili del gruppo
delle rotazioni. N = 2j + 1: se j è un intero, N è dispari, mentre se j è
semintero N è pari. Nel primo caso ritroviamo dei vettori che, pensati come
funzioni delle variabili angolari, si riconducono alle armoniche sferiche, le auto-
funzioni del momento angolare orbitale. Nel secondo caso abbiamo le funzioni
spin-orbitali a j semintero, che si ottengono componendo le armoniche sferiche
con gli spinori a spin 1/2. Il prodotto diretto di più rappresentazioni irriducibili
è decomponibile in altre rappresentazioni irriducibili. In fisica atomica questa
teoria ha molte applicazioni. Ne abbiamo richiamate alcune e si è visto come
una simmetria analoga a quella delle rotazioni spaziali, la simmetria di isospin,
abbia consentito i primi efficaci passi della fisica nucleare.
In questo capitolo vogliamo generalizzare questo approccio. Rivediamo al-
cuni dei contenuti sin qui svolti nel quadro di una teoria più generale dei gruppi
180
continui.
gd = g a gb
ega = ga e = ga
181
Nel caso dei gruppi continui vale un risultato simile: il gruppo G/H ha
dimensione pari a quella di G meno la dimensione di H. Il gruppo delle rotazioni
in 3D ha dimensione 3 (dipende da tre parametri continui). Il gruppo delle
rotazioni attorno ad un asse ha dimensione 1. Esso è un sottogruppo del gruppo
delle rotazioni in 3D, ma non è un sottogruppo invariante. L’insieme dei cosets
(destri o sinistri) ha dimensione 2.
Possono esere definite delle relazioni di corrispondenza tra gli elementi di
due gruppi, come può avvenire in generale tra gli elementi di due insiemi. Se a
ciascun elemento ga di G corrisponde un elemento ga0 di G0 e la corrispondenza
preseva la tabella di moltiplicazione, ovvero
tra i due gruppi vi è omomorfismo. Non si esclude nella definizione che ga0
possa essere l’immagine di diversi ga o che vi siano elementi di G0 che non sono
immagine di nessun elemento di G. Se invece la corrispondenza è biunivoca e
ciascun elemento ga0 è l’immagine di uno e di un solo elemento ga ∈ G si parla
di isomorfismo.
Se vi è un omomorfismo tra un gruppo G ed un gruppo di matrici quadrate,
complesse o reali, n × n
g ⇒ Γ(g)
il gruppo di matrici è una rappresentazione del gruppo di dimensione n, o
n−dimensionale. Se vi è isomorfismo
g ⇐⇒ Γ(g)
ad ogni elemento del gruppo corrisponde una e una sola matrice. In tal caso la
rappresentazione è fedele.
182
1) G deve possedere almeno una rappresentazione fedele, costituita da un
gruppo di matrici di dimensione finita m, ovvero
g ⇐⇒ Γ(g)
il corrispondente elemento
g(α1 , α2 , ..., αr ) ∈ Mδ
corrisponde un elemento del gruppo, una matrice, che a sua volta è funzione
continua dei parametri.
4) La matrice deve essere analitica nei parametri, ovvero i suoi elementi sono
derivabili a tutti gli ordini in αi in tutti i punti dell’intorno inclusa l’origine. In
particolare le r matrici m × m ottenute derivando rispetto ai parametri
∂Γ({αi })jk
(as )jk = (6.4)
∂αs α1 =0,α2 =0,...,αr =0
183
6.3 Esempi.
Consideriamo alcuni esempi semplici di gruppi di Lie lineari e controlliamo che
verifichino le sopra indicate quattro proprietà.
A) Il gruppo dei numeri reali rispetto alla moltiplicazione. t ∈ R è un elemen-
to del gruppo con l’esclusione di t = 0. 1) Γ(t) = t è la rappresentazione fedele
costituita da matrici 1 × 1 non singolari che definisce la distanza; 2) |t − 1| < δ
è l’intorno Mδ dell’identità e la parametrizzazione si ottiene dalla mappa espo-
nenziale eα = t con un parametro reale che per α = 0 rappresenta l’identità.
Per verificare la proprietà 3, possiamo notare che dato l’intorno dell’identità
|t − 1| < 21 , ovvero 12 < t < 32 , possiamo definire un intorno sferico di dell’origine
in α, ad esempio
2
2 3
α < ln
2
che corrisponde all’intervallo
2 3
<t<
3 2
che è completamente contenuto in Mδ con δ = 21 ed in esso si ha corrispondenza
biunivoca tra il parametro α e la matrice Γ(α) = (eα ) = (t) = t. Inoltre la
proprietà 4 è verificata: eα è una funzione analitica di α, la derivata (6.4) è la
matrice
a1 = (1)
che costituisce la base di uni spazio vettoriale unidimensionale. Il gruppo dei
numeri reali rispetto la moltiplicazione è un gruppo di Lie lineare a dimensione
1.
B) I gruppi O(2) ed SO(2). O(2) è il gruppo delle matrici reali 2 × 2
con |det(A)| = 1; SO(2) è quello delle matrici reali 2 × 2 con det(A) =1. Al
solito la rappresentazione fedele è costituito dalle stesse matrici A = Γ(A). Da
AT A = 1 e da AAT = 1 si hanno sei condizioni
184
II) Il secondo insieme di soluzioni ha
−π < α1 ≤ π
185
det u = a21 + a22 + b21 + b22 = 1
Si possono verificare le quattro proprietà a partire da una opportuna parametriz-
zazione con tre parametri reali.
12
α3 α2 α1 1
a2 = b1 = b2 = a1 = 1 − (α21 + α22 + α23 ) (6.6)
2 2 2 4
Sostituendo in (6.5) e utilizzando la definizione di distanza (6.2) si ottiene come
distanza dall’identità
( 12 ) 12
1 2
d(u, 1) = 2 1 − 1 − (α1 + α22 + α23 ) (6.7)
4
Questa parametrizzazione che vale solo per gli elementi con a1 > 0, mostra che
fissato Mδ si ottiene una sfera intorno all’origine di R3 di raggio η corrispondente
a un insieme completamente contenuto in Mδ e con corrispondenza biunivoca.
Il gruppo SU (2) ha dimensione 3. Le tre matrici derivate in α 1 = α2 = α3 = 0
sono una base per uno spazio vettoriale tridimensionale reale
1 0 i 1 0 1 1 i 0
a1 = a2 = a3 = .
2 i 0 2 1 0 2 0 −i
Più in generale possiamo considerare alcuni importanti gruppi di Lie lineari, che
sono gruppi di matrici o gruppi ad essi isomorfi:
O(N ), SO(N ), SU (N ), U (N )
u = (eiα1 )
186
Componente connessa di un gruppo di Lie lineare è l’insieme di tutti gli
elementi che si possono ottenere variando con continuità gli elementi di matrice
della rappresentazione fedele. Ad esempio: il gruppo dei numeri reali rispetto
alla moltiplicazione ha due componenti connesse: quella con t > 0 e quella con
t < 0.
La componente connessa di un gruppo di Lie lineare che contiene l’identità
è un sottogruppo invariante di G, il sottoruppo connesso di G.
Un gruppo di Lie lineare è connesso se possiede solo una componente con-
nessa.
Un gruppo di Lie lineare e connesso può essere interamente parametrizzato
mediante n−ple ordinate di numeri reali
y1 , y2 , ..., yn ∈ Rn
u ∈
SU (2) ⇒ (y1 , y2 , y3 ) ∈ R3
π
0 ≤ y1 ≤ − π ≤ y2 ≤ π − π ≤ y3 ≤ π
2
data da
cos y1 eiy2 sin y1 eiy3
u=
− sin y1 e−iy3 cos y1 e−iy2
è una parametrizzazione di tutto il gruppo, ma non soddisfa la biunivocità
proprio nell’origine, dal momento che e è identificata da y1 = 0, y2 = 0 e y3
qualunque. Per questo tale parametrizzazione, adatta per mostrare la connes-
sione del gruppo, non è adatta per ricavare le matrici linearmente indipendenti
della (6.4): la terza matrice sarebbe nulla e questo non va bene per una base...
187
6.4 Esponenziale di una matrice, mappe espo-
nenziali.
Richiamiamo che cosa si intende per esponenziale di una matrice A; le definizioni
sono facilmente trasportabili dalle matrici n×n agli operatori lineari A che agis-
cono in un spazio vettoriale, dal momento che le matrici sono rappresentazioni
di operatori lineari.
Se A è una matrice n × n
∞
X
A Aj
e = 1+
j=1
j!
det(eA ) = eTr(A) .
188
j−1
Osservando che per j dispari (θA1 )j = (−1) 2 θj A1 , mentre per j pari
j
(θA1 )j = (−1) θ j 1, si ottiene
2
1 0 0
eθA1 = 0 cos θ sin θ (6.9)
0 − sin θ cos θ
La matrice, funzione di θ, rappresenta una rotazione passiva di un angolo θ
attorno alla direzione x̂ (o una rotazione attiva di −θ), che è un elemento di
un sottogruppo ad un solo parametro del gruppo delle rotazioni in 3D, costi-
tuito da tutte le rotazioni attorno all’asse x. Tutto questo è immediatamente
generalizzabile.
Un sottogruppo ad un solo parametro di un gruppo di Lie lineare è costituito
dagli elementi h(t) ∈ G,con t reale, tali che
h(s)h(t) = h(s + t)
da cui segue per le matrici di una rappresentazione
A(s)A(t) = A(s + t)
A t = 0 deve corrispondere l’identità A(0) = 1 e inoltre si ha s + t = t + s. Il
sottogruppo ad un solo parametro è un gruppo di Lie lineare Abeliano. Per
garantire la univocità nell’intorno dell’identità deve essere
dA
a= 6= 0
dt t=0
diversa dalla matrice nulla.
Ogni sottogruppo ad un parametro di un gruppo di Lie lineare di matrici
m × m si forma per esponenziazione di matrici m × m.
La dimostrazione è semplice. Si pone
dA
Ȧ(t) = a = Ȧ(0) (6.10)
dt
Si definisce
B(t) = A(t)e−tȦ(0) (6.11)
e si deriva
Ḃ(t) = Ȧ(t)e−tȦ(0) − A(t)Ȧ(0)e−tȦ(0) = Ȧ(t) − A(t)Ȧ(0) e−tȦ(0)
Essendo
A(t + s) − A(t) A(s) − A(0)
Ȧ(t) = lim = lim A(t) = A(t)Ȧ(0)
s→0 s s→0 s
si ha
Ḃ(t) = 0 ovvero B(t) = B(0) = A(0) = 1
Dalla (6.10) e dalla (6.11) segue
A(t) = eta .
189
6.6 Algebre di Lie.
Un’algebra di Lie è costituita da uno spazio vettoriale L e da un’operazione
bilineare [., .] da L × L in L con le seguenti proprietà:
dove gli Xi sono operatori lineari indipendenti dai parametri ai , si dicono oper-
atori infinitesimi o generatori del gruppo nella rappresentazione considerata e
possono essere espressi come derivate parziali
∂T (a1 , a2 , ..., ar )
Xi = |a1 =a2 =...=ar =0
∂ai
190
Per ogni rappresentazione T del gruppo G, i generatori Xi soddisfano le re-
lazioni di commutazione X
k
[Xi , Xj ] = Cij Xk (6.16)
k
k
dove Cij sono le costanti di struttura del gruppo.
Cosı̀ i generatori di un gruppo di Lie formano un algebra di Lie, mentre
i commutatori dei generatori definiscono le operazioni bilineari dell’algebra di
Lie. Se a e b apparengono a L
r
X r
X
a= α i Xi b= β i Xi
i=1 i=1
r
X
k
[a, b] = αj β l Cjl Xk
j,l,k=1
Un esempio.
SO(3) è il gruppo delle matrici A reali 3 × 3 con det A = 1. Esso è isomorfo
al gruppo delle rotazioni T su R3 . Si intende qui la rotazione propria T che
trasforma r in r0 mediante una rotazione del sistema di coordinate: r0 è il vettore
r nel sistema di coordinate ruotato (rotazione passiva). Accanto a questi due
gruppi consideriamo anche il gruppo delle trasformazioni P (T ) sulle funzioni
scalari
P (T )f (r) = f (R(T )−1 r)
e i tre gruppi sono mutuaamente isomorfi.
191
Infatti
0 a12 −a31
a= 0 0 a23 = a23 a1 + a31 a2 + a12 a3 .
a31 −a23 0
Le tre matrici (associate ciascuna al sottogruppo ad un parametro costituito
dalle rotazione attorno ad uno degli assi coordinati: Ox, Oy, Oz) formano la
base di un’agebra di Lie reale, i cui prodotti (commutatori) sono dati da
si può ottenere
P (a) = lim (P (e−ta ) − P (1))/t
t→0
In generale
[P (a), P (b)] = P ([a, b]).
192
Dalle relazioni (6.17) è evidente che a meno di una costante i generatori P (a j )
del gruppo delle trasformazioni P (T ) coincidono con le componenti dell’opera-
tore vettoriale momento angolare orbitale della meccanica ondulatoria.
~
Lj = P (aj )
i
Le regole di anticommutazione divengono
quelle ben note del momento angolare. Il passare da espressioni reali a valori
complessi dei generatori, ovvero da un’algebra di Lie reale alla sua generaliz-
zazione complessa, risulta utile. Si possono definire gli operatori di innalzamento
ed abbassamento
L+ = Lx + iLy L− = Lx − iLy .
∂Ajk
(ap )jk = (j, k = 1, 2, ...m; p = 1, 2, ..., n) (6.18)
∂xp x1 =x2 =...=xn =0
193
sono una base per uno spazio vettoriale a n dimensioni.
2) Si definisce curva analitica in G l’insieme di matrici
ea
194
un sottogruppo ad un parametro di G ≡ SU (N ). a è una matrice N ×N . Poichè
eta deve essere unitario
a† = −a (6.21)
ovvero a (come ta) è una matrice antihermitiana. Inoltre poichè
det(eta ) = 1
si avrà
tr a = 0 (6.22)
e quindi l’algebra L =su(N ) è costituita deall’insieme delle matrici antihermi-
taiane a traccia nulla. Ogni elemento di SU (N ) può essere scritto nella forma
(6.20), le proprietà (6.21-6.22) mostrano che la dimensione è N 2 − 1.
B) SL(2, R).
E’ il gruppo delle matrici reali 2 × 2 con det A = 1. Anche qui vi sono
elementi di G della forma eta . Si richiede di nuovo alla matrice a di avere
traccia nulla. L’algebra di Lie corrispondente, sl(2, R), è l’algebra delle matrici
2 × 2 a traccia nulla. Gli autovalori delle matrici a, reali o immaginari puri,
sono opposti: λ1 = − λ2 . Nel caso che siano reali la matrice esponente che si
ottiene dalla forma diagonale è
λt
e 0
0 e−λt
con r < −1, che è una matrice del gruppo connessa all’identità 1, dal momen-
to che è connessa alla matrice −1 e che questa è connessa alla matrice 1 dal
sottogruppo ad un parametro
cos θ sin θ
.
− sin θ cos θ
La matrice A non può essere scritta in una forma con un solo esponenziale come
la eq. (6.20) ma può essere scritta come prodotto di due esponenziali:
1 0 0 1
A = exp (λa1 ) exp(πa2 ) a1 = a2 = .
0 −1 −1 0
Questo è legato al fatto che SL(2, R) è connesso ma non compatto: una mappa
esponenziale del tipo exp(a) fornisce sempre una mappa di L in G. Questa
mappa è una mappa su G se il gruppo G è connesso e compatto. Se G è
connesso ma non compatto ogni elemento di G è esprimibile come prodotto di
esponenziali di elementi di L.
195
Un elenco dei gruppi di Lie reali e delle corrispondenti algebre di Lie reali,
con le proprietà delle matrici A e dei generatori a e con le dimensioni si può
trovare a pag. 150 di J.F.Cornwell, Group Theory in Physics: an introduction,
Academic Press, 1997 o a pag. 392 del trattato Group Theory in Physics dello
stesso autore.
196
6.7 Gruppi di Lie e Algebre di Lie semisemplici.
Consideriamo la struttura generale dei gruppi di Lie. Ad ogni elemento del
gruppo G, corrisponde un operatore U , che opera in uno spazio vettoriale V ,
funzione di d parametri (α1, α2 , ..., αd ) = α. Tali operatori hanno la stessa tavola
di moltiplicazione degli elementi del gruppo. Indicheremo ciascun operatore con
U (αi ) . L’operatore può essere anche funzione delle coordinate o delle derivate
rispetto alle coordinate, ma questo non sarà esplicitamente indicato. Con la
scelta dei parametri tale che U (0, 0, ..., 0) = 1, l’operatore identità, definiremo
∂U (α)
Lk = i | (6.23)
∂αk α=0
come i generatori del gruppo. In tal modo, con uno spostamento infinitesimo
nello spazio dei parametri dall’identità, potrò scrivere, sfruttando la continuità
e la differenziabilità che
U (δα) = I − iδαk Lk (6.24)
dove, da questo momento in poi, non indicheremo il simbolo di somma sugli
indici ripetuti, ma lo sottointenderemo, salvo preavviso. E possibile dato un
insieme finito di parametri scrivere in forma esponenziale l’operatore a partire
dalla forma infinitesima. Posto δαk = ak /N
αk L k N
U (α) = lim (I − i ) = exp(−iαk Lk ) (6.25)
N →∞ N
In questo modo fissato un qualunque valore dei parametri, anche piccoli, δαk
potremo scrivere, a tutti gli ordini, lo sviluppo
1 i
U (δα) = I − iδαk Lk − δαk δαj Lk Lj + δαk δαj δαm Lk Lj Lm + ... (6.26)
2! 3!
Dal modo in cui abbiamo scritto la (6.24) e la (6.23), se vogliamo che l’oper-
atore U sia unitario, ovvero che U −1 = U † , occorre che i generatori Lk siano
hermitiani, ovvero che L†k = Lk . Inoltre, dal momento che vi è una sola identità
nel gruppo, occorre che per qualunque valore di δα sia δαk Lk 6= 0. I generatori
Lk devono essere linearmente indipendenti.
Da questo momento, anche se il gruppo di Lie considerato è reale, assoceremo
agli elementi del gruppo operatori lineari unitari ed esprimeremo questi ultimi
in funzione di generatori, dati dalla eq. (6.23) tramite la (6.25), espressioni in
cui compare l’unità immaginaria.
Consideriamo due set di parametri δα e δβ e consideriamo la successione
delle quattro trasformazioni infinitesime
197
al prodotto delle 4 trasformazioni. Conviene sviluppare le U ed i prodotti
fermandosi al secondo ordine
1 1
(I + iδβ m Lm − δβ m δβ n Lm Ln )(I + iδαk Lk − δαk δαi Lk Lj )
2 2
1 1
×(I − iδβ n Ln − δβ m δβ n Lm Ln )(I − iδαj Li − δαk δαi Lk Lj )
2 2
I termini al primo ordine si sommano a 0. Dei dieci termini al secondo ordine
ne rimangono solo due e quindi
da cui
j
[Lk , Lm ] = Ckm Lj (6.27)
relazioni che definiscono le costanti di struttura del gruppo di Lie o della sua
Algebra di Lie, che è l’algebra dei suoi generatori. Va notato che dalla definizione
(6.23) segue che le costanti di struttura possono essere complesse. Il prodotto di
Lie [Lk , Lm ] coincide con il commutatore Lk Lm − Lm Lk .
Vediamo alcune propriet̀a delle costanti di struttura. Da quelle del commu-
tatore:
j j
Ckm = −Cmk (6.28)
Dalla identità di Jacobi,
si ha
Cijm [Lm , Lk ] + Cjkm [Lm , Li ] + Ckim [Lm , Lj ] = 0
Cij m Cmkn Ln + Cjkm Cmin Ln + Ckim Cmjn Ln = 0
ovvero
Cij m Cmkn + Cjkm Cmin + Ckim Cmjn = 0 (6.29)
dove, si noti, si somma sul solo indice ripetuto m, mentre gli indici ijkn sono
fissi. Tra questi i tre indici ijk compaiono nelle sole tre permutazioni di classe
pari.
198
-da B
C
db
-db
A
D da
dg
O
199
Vale la pena osservare che i tre generatori S1 , S2 , S3 qui introdotti per le trasfor-
mazioni dei vettori in 3D, hanno una espressione diversa rispetto ai generatori
J1 , J2 , J3 già visti nello spazio vettoriale con N = 3, degli stati | jm > con
j = 1. Gli uni possono essere ottenuti dagli altri mediante una trasformazione.
Se un gruppo di Lie G possiede un sottogruppo invariante continuo, questo
è un gruppo di Lie con i sui generatori
Ak per k = 1, ..., m
Nei commutatori misti possono comparire solo i generatori del sottogruppo in-
variante. Se lo spazio dei generatori di un gruppo di Lie ha una sottoalgebra
(6.30) si dice che possiede un ideale. Se i commutatori nella (6.30) sono tutti
nulli si dice che possiede un ideale abeliano. Queste definizioni si applicano sia
ai Gruppi di Lie, sia alle algebre dei loro generatori. Ancora se un gruppo di
Lie non possiede un ideale si dice semplice, se non possiede un ideale abeliano
si dice semisemplice. Cosı̀ le loro algebre.
Si dice rango di un gruppo di Lie il numero massimo di commutatori nulli tra
un qualunque generatore e l’insieme dei generatori. Per il gruppo delle rotazioni
SO(3) il rango è 1, mentre per il gruppo abeliano delle traslazioni in 3D il rango
è 3. Per tale gruppo, che ha per generatori i pi con [pi , pj ] = 0 e per parametri
(ρ1 , ρ2 , ρ3 ) = ρ,
dove l’ultima eguaglianza deriva dai commutatori nulli tra i generatori. Questo
gruppo non è né semplice né semisemplice. Come accade per il gruppo continuo
a 6 dimensioni costituito da rotazioni e traslazioni.
Un criterio per verificare la semisemplicità di un gruppo di Lie si ottiene
andando a considerare la rappresentazione aggiunta o regolare, d dimensionale,
200
del gruppo. Questa è una rappresentazione costituita da matrici associate a
ciascun generatore, mediante le costanti di struttura, facendo attenzione - come
si vedrà più avanti - alla posizione degli indici
Dba (Li ) = Ciab
Queste d matrici linearmente indipendenti definiscono uno spazio vettoriale d
dimensionale. Si può introdurre un prodotto (Li , Lj ) definito come la traccia del
prodotto delle due matrici rappresentative D(Li ) e D(Lj ). Tali d × d prodotti
costituiscono il tensore metrico simmetrico
201
6.8 Un invariante di Casimir.
Bsrb = −Cspq (Cbql Clrp + Cqrl Clbp ) = −Crlp Cspq Cqbl − Crql Cpsq Clbp =
= −Crpq Csql Clbp − Crpq Clsp Cqbl = Brbs
Vale anche
Bbsr = Brbs
ovvero permutando ciclicamente gli indici non cambiano i valori. Se invece si
cambiano due indici tra di loro ovvero se si passa a permutazioni degli indici di
classe opposta si ottiene il segno opposto infatti dalla definizione è chiaro che
Brbs = −Brsb
e quindi anche
Bsrb = Bbsr = −Brsb .
Dalla (6.33) si può scrivere allora
[C1 , Ls ] = g ab Cbsk (La Lk + Lk La ) = g ab g rk Brbs (La Lk + Lk La )
dove compaiono somme di prodotti di elementi di tensori doppi nelle coppie di
indici (ab)(rk)(rb)(ak). Tre dei tensori sono simmetrici e uno antisimmetrico
(Brbs nei primi due indici). L’espressione pertanto è nulla.
[C1 , Ls ] = 0
La espressione (6.32) prende anche il nome di forma di Killing.
202
6.9 Le rappresentazioni dei generatori.
Una rappresentazione di un’algebra di Lie è una mappa dell’algebra (cioè dello
spazio vettoriale che ha per base i suoi generatori) su uno spazio di matrici D,
con le seguenti proprietà. Associando ad ogni generatore una matrice
Li → D(Li ) (6.34)
203
seguono le proprietà (6.35) e (6.36). La dimensione della rappresentazione (or-
dine delle matrici) è la dimensione dello spazio vettoriale che ha per base i
| φk > .
Li →| Li >
= Cjkm Cimn
che risulta proprio un’identità. Inoltre scrivendo la (6.36) come
Dnk (Li Lj − Lj Li ) = Dnm (Li )Dmk (Lj ) − Dnm (Lj )Dmk (Li )
si ha la relazione di Jacobi.
204
6.10 Radici e pesi di un’algebra semplice.
Vogliamo estendere ad un gruppo di Lie di rango m quanto già visto per SU (2),
dove per insieme dei generatori avevamo scelto J3 e J± . J3 costituiva da solo
l’insieme dei generatori hermitiani diagonalizzabili simultaneamente (ce ne era
uno solo), mentre J± erano gli operatori di innalzamento ed abbassamento.
In generale se Xa sono i generatori di un gruppo di Lie semplice, occorre
vedere quanti di essi sono diagonalizzabili simultaneamente, in una qualsiasi
rappresentazione. Posto di avere trovato m operatori hermitiani, ovvero
ovvero
Xa | Xb > =| [Xa , Xb ] > (6.40)
dove si intende che è | ai Xi > = ai | Xi > . Si ha ancora
Hi | H j > = 0 (6.41)
205
ovvero m stati di base con pesi nulli, mentre vi saranno h − m stati di base (h
è il numero di generatori) con autovalori reali α i non nulli
Ciò implica per la (6.40), dal momento che siamo nella rappresentazione aggiun-
ta, che in generale deve esistere una relazione operatoriale
[Hi , Eα ] = αi Eα (6.43)
206
corrisponde nella rappresentazione aggiunta il vettore Eα | E−α >, che in
quella rappresentazione è un vettore che ha tutti i pesi nulli. Quindi, sempre
sottointendendo la somma su i, si ha
β i = < Hi | Eα | E−α > = λ−1 T r(Hi [Eα , E−α ]) = λ−1 T r(Hi Eα E−α
ovvero
| N−α,µ |2 − | N+α,µ |2 = α · µ
Poiché
| Nα,µ+(p−1)α |2 −0 = α · (µ+pα)
207
Sommando membro a membro tutte le relazioni si ottiene
j=p
X p(p + 1) q(q + 1)
0= α·(µ + jα) = α · µ(p + q + 1) + α2 ( − )
j=−q
2 2
da cui
α·µ p−q m
=− =
α2 2 2
dove m è un intero relativo. Inoltre si possono determinare tutti i coefficienti
| Nα,µ+qα |2 .
Sia α un vettore di radici e µ un vettore di pesi di uno stato di base di
una qualunque rappresentazione. Se siamo nella rappresentazione aggiunta e
se µ 6= α, allora posso scrivere µ = β, un vettore di radici diverso da α. Sarà
allora
α·β m α·β m0
2
= 2 = (6.47)
α 2 β 2
Avremo che
2
mm0 (α · β)
= = cos2 θ ≤ 1
4 α2 β 2
ovvero per mm0 = 0, θ = 90◦ , per mm0 = 1, θ = 60◦ o θ = 120◦ , per mm0 = 2,
θ = 45◦ o θ = 135◦ , per mm0 = 3, θ = 30◦ o θ = 150◦, per mm0 = 4, θ = 0◦
o θ = 180◦ . Questi sono i valori permessi degli angoli tra i vettori radici delle
algebre di Lie semplici.
Insistendo sulle somiglianze tra SU (2) e le algebre semplici di rango m,
possiamo definire i generatori scalati
[E3 , E ± ] = ±E ± [E + , E − ] = E3
208
L’autovalore massimo di E3 , che corrisponde all’autostato | µ + pα, D >, è
j = (α · µ)/α2 + p
L’autovalore minimo di E3 , che corrisponde all’autostato | µ − qα, D >, è
2
−j = (α · µ)/α − q
209
6.11 Il gruppo SU (3).
E’ il gruppo delle matrici 3 × 3 complesse unitarie con determinante uguale a
1. I generatori sono le matrici 3 × 3 hermitiane a traccia nulla Ta = λa /2, con
a = 1, 2, ..., 8. Le matrici λa sono le matrici di Gell-Mann
0 1 0 0 −i 0 1 0 0
λ1 = 1 0 0 λ2 = i 0 0 λ3 = 0 −1 0
0 0 0 0 0 0 0 0 0
0 0 1 0 0 −i 0 0 0
λ4 = 0 0 0 λ5 = 0 0 0 λ6 = 0 0 1 (6.48)
1 0 0 i 0 0 0 1 0
0 0 0 1 0 0
1
λ7 = 0 0 −i λ8 = √ 0 1 0
0 i 0 3 0 0 −2
Si ha
1
T r(Ta Tb ) = δ ab
2
T1 , T2 e T3 - è facile vedere - sono i generatori di un sottogruppo SU (2) di SU (3),
che è chiamato il sottogruppo di isospin o di T-spin. Le costanti di struttura
che compaiono nella espressione
[Ta , Tb ] = Cabc Tc
sono date da
Cabc = ifabc
dove i valori non nulli di fabc sono solo i seguenti: f123 = 1, f147 =√ 1/2, f156 =
−1/2,
√ f 246 = 1/2, f 257 = 1/2, f 345 = 1/2, f 367 = −1/2, f 458 = 3/2, f678 =
3/2 e quelli che si ottengono permutando i tre indici. Una permutazione di
classe pari lascia il valore invariato, una permutazione di clase dispari cambia
il segno. Possiamo scegliere i due generatori che commutano tra di loro per
ottenere la sottoalgebra di Cartan. Due matrici di Gell-Mann sono già diagonali
e commutano tra loro: H1 = T3 e H2 = T8 . Essi sono solo 2, il rango di
SU (3) è pertanto 2. Gli autovettori nella rappresentazione fornita dalle stesse
matrici (6.48) possono essere indicizzati con gli autovalori dei due operatori che
commutano T3 e T8 , ovvero dai loro pesi, indicandoli con | µ1 , µ2 >.
1 0 0
0 ≡| 1 , √ 1
> 1 ≡| − 1 , √ 1
> 0 ≡| 0, − √1 >
2 2 3 2 2 3 3
0 0 1
(6.49)
Si possono riportare i tre pesi | µ1 , µ2 > sul piano degli autovalori di H1 e H2 ,
come è mostrato in Figura 6.2 per indicare gli stati di base della rappresentazione
fondamentale D1 . Essi formano i vertici di un triangolo equilatero.
210
H2
1.0
0.5
0
-1.0 -0.5 0.5 1.0
H1
-0.5
1.0
I vettori radici sono riportati su grafico in Figura 6.3 , insieme ai due vettori
pesi nulli associati ai generatori della sottoalgebra di Cartan, per costruire i
vettori pesi della rappresentazione aggiunta. Sul piano degli autovalori di H1 e
H2 vi sono tutti gli otto stati del multipletto della rappresentazione aggiunta.
I generatori Eα associati alle radici si trovano molto facilmente a partire dalla
forma matriciale (6.48) , sapendo che sono matrici 3 × 3 che devono trasformare
gli autostati (6.49) l’uno nell’altro. Gli operatori Eα , in forma matriciale 3 × 3,
sono matrici formate da tutti 0 con un solo elemento fuori-diagonale uguale ad
1,a meno di un fattore di normalizzazione comune. Esse sono
1
√ (T1 ± iT2 ) = E±1,0
2
1
√ (T4 ± iT5 ) = E± 1 ,± √3
2 2 2
211
H2
1.0
-1.0 0 1.0
H1
-1.0
1
√ (T6 ± iT7 ) = E∓ 1 ,± √3
2 2 2
212
6.12 Radici semplici.
Dato un gruppo di Lie, dai suoi generatori si ottiene l’algebra di Lie corrispon-
dente. In essa vi è una sottoalgebra di Cartan di operatori hermitiani che
commutano H1 , H2 , .... Consideriamo un vettore peso µ (che ha per compo-
nenti gli autovalori µ1 , µ2 , ... di H1 , H2 , ... per ciascuno stato di base in una
rappresentazione irriducibile D. Ciascuno stato di base della rappresentazione è
un autostato di H1 , H2 , ...). Si dice che il vettore peso µ è positivo (negativo) se
la prima componente non nulla, nell’ordinamento assegnato degli Hi , è positiva
(negativa). Il vettore è zero se tutte le componenti sono nulle. Un vettore peso
x è maggiore di y, se la differenza x − y è positiva, ai sensi della precedente
definizione. Dalla stessa definizione possiamo determinare il vettore peso massi-
mo in ciascuna rappresentazione. Passando ai vettori radice, i vettori peso non
nulli della rappresentazione aggiunta, questi sono sempre o positivi o negativi,
mentre i restanti vettori peso della rappresentazione aggiunta coincidono con il
vettore zero (e ce ne sono m dove m è il rango del gruppo).
Un vettore radice è una radice semplice se è un vettore radice positivo che
non può essere scritto come somma di due vettori radice positivi. Se α e β sono
radici semplici, allora β − α non è una radice (chiameremo radice un vettore
radice). Infatti se assumiamo che β − α sia positivo e sia una radice, allora
β = α + (β − α) somma di due radici positive, non può essere semplice; se
invece assumiamo che β − α sia negativo e sia una radice allora è α che non è
semplice.
Se α e β sono radici semplici e β − α non è una radice, nella rappresen-
tazione aggiunta si avrà
La relazione (6.47)
α·µ 1
= − (p − q) (6.50)
α2 2
diviene ora
α·β 1
=− p
α2 2
Poichè α e β sono entrambi radici semplici sarà anche
α·β 1
= − p0
β2 2
dove p e p0 sono due interi positivi. Dalle due ultime relazioni segue che il coseno
dell’angolo tra due radici semplici è dato da
1p 0
cos θ = − pp
2
213
Inoltre è
β2 p
2
= 0
α p
Dal segno negativo del coseno segue che l’angolo tra le radici semplici è
π
≤θ<π
2
Si dimostra facilmente che le radici semplici sono vettori linearmente indipen-
denti e che il loro numero eguaglia il rango m del gruppo semplice.
Per costruire tutte le radici a partire dalle radici semplici si può scrivere
X
kα α
α
214
per cui solo α + β è una radice positiva mentre non lo è, ad esempio α+2β.
Ricapitolando, per ogni gruppo semplice di rango m dobbiamo conoscere m
radici semplici. Da queste si ricavano tutte le radici. Poi si possono ricavare gli
Nα,β . I diagrammi di Dynkin sono un modo mnemonico per indicare le proprietà
delle radici di un gruppo di Lie, in termini delle radici semplici. Ciascuna radice
semplice si indica con un cerchio. Coppie di cerchi sono separati tra di loro se
l’angolo tra le corrispondenti radici è di 90◦ (
), sono connessi da una linea
se l’angolo è di 120◦ (
−
), da due linee se l’angolo è di 135◦ (
=
), da
tre linee se l’angolo è di 150◦ (
≡
).
Si nota che:
SU (2) ⇒
SU (3) ⇒
−
Indicizziamo le radici semplici con un indice in alto αi con i = 1, ..., m
e consideriamo il peso massimo di una qualunque rappresentazione irriducibile
D, indicandolo con µ ; questo è tale se, data una qualunque radice positiva
φ , µ + φ non è un peso della rappresentazione. Perché questo sia vero basta
richiedere che µ + αi non sia una peso della rappresentazione. Ciò significa che
l’operatore di innalzamento Eαi , corrispondente ad αi , agendo su µ deve dare
zero; ovvero nella
2αi · µ
= −pi + q i
αi 2
pi è nullo. Di conseguenza
2αi · µ
= + qi (6.51)
αi 2
dove q i è un intero non-negativo. La relazione (6.51) associa ad ogni peso più
elevato della rappresentazione D una m-pla di numeri interi non negativi da cui,
stante la indipendenza lineare delle radici semplici αi , si ricava completamente
µ. Dalla conoscenza del peso più elevato µ ottenuto dai q i , si ricavano i pesi
dell’intera rappresentazione, applicando gli operatori di abbassamento E−αi
ripetutamente. Si è cosı̀ dimostrato che ciascuna rappresentazione irriducibile
di un gruppo di Lie semplice di rango m è individuata da una m-pla di numeri
interi non negativi.
Consideriamo ora i vettori µi cosı̀ definiti
2αi · µj
= δ ij (6.52)
αi 2
µi sono i vettori peso più elevati di una rappresentazione in cui un solo q i è
uguale ad uno e gli altri sono nulli. Chiamiamo D i la rappresentazione cor-
rispondente. Allora si potrà costruire una qualunque rappresentazione a partire
dalle Di . Infatti il peso massimo di una qualunque rappresentazione µ si potrà
scrivere come X
µ= q i µi .
i
I pesi definiti dalla relazione (6.52) e le relative rappresentazioni si dicono fonda-
mentali e qualunque rappresentazione può essere costruita a partire da queste,
215
cosı̀ come dalla sola rappresentazione fondamentale bidimensionale del gruppo
SU (2), s = 1/2 si possono ottenere, componendo n spin 1/2, delle rappresen-
tazioni a diversa dimensionalità, la più alta delle quali ha s = n/2. In un gruppo
di rango m invece vi sono m rappresentazioni fondamentali, che possono essere
composte a formare nuove rappresentazioni.
216
6.13 Ancora su SU (3).
217
H2
1.0
0.5
0
-1.0 -0.5 0.5 1.0
H1
-0.5
1.0
218
sono unici. Si possono poi vedere delle simmetrie nelle rappresentazioni. Ad
esempio se µ è un peso ed α una radice
2(α · µ)
µ− α
α2
è ancora un peso, dato dalla riflessione di µ rispetto ad un iperpiano perpendico-
lare ad α. Ciascuna rappresentazione è invariante sotto tutte queste riflessioni.
L’insieme delle riflessioni associate a tutte le radici formano un gruppo, chiam-
ato il gruppo di Weyl dell’algebra. Consideriamo ora la rappresentazione D 2 di
SU (3). µ2 e µ2 − α2 corrispondono a stati unici. Il peso µ2 − α2 − α1 si ot-
tiene con una riflessione di Weyl rispetto all’iperpiano (una linea in questo caso)
perpendicolare alla radice (non semplice) α1 + α2 . Questo peso corrisponde ad
uno stato unico perchè è unica la sua riflessione di Weyl. Resta coı̀ dimostra-
to che anche la seconda rappresentazione fondamentale è formata da tre stati
non degeneri, ovvero è tridimensionale. Va osservato che i pesi della D 2 sono
semplicemente i pesi della D 1 cambiati di segno.
Se Ta sono i generatori in una rappresentazione D di un’algebra di Lie,
le matrici −Ta∗ soddisfano le stesse regole di commutazione: quindi anch’esse
generano una rappresentazione, la rappresentazione complessa coniugata D̄ della
rappresentazione D. Una rappresentazione è detta reale se è equivalente alla sua
complessa coniugata, altrimenti la rappresentazione si dice complessa. Se µ è un
peso della D, −µ è un peso della D̄. Poichè una rappresentazione è determinata
dal suo peso massimo e il peso massimo di D̄ è l’opposto del peso minimo di D, se
il peso minimo di D è l’opposto del peso massimo, allora D è reale. Altrimenti è
complessa. Nella D 1 di SU (3) il peso massimo è µ1 , ma il peso minimo è −µ2 ,
quindi è la complessa coniugata della seconda rappresentazione fondamentale
ed è complessa. In generale per indicare le rappresentazioni di SU (3) si usano
coppie di interi non negativi (q 1 , q 2 ) ovvero (m, n). Se m ed n sono diversi la
rappresentazione è complessa e si vede che (n, m) è la sua complessa coniugata.
(n, n) sono rappresentazioni reali.
Consideriamo ora la rappressentazione (2, 0). Con q 1 = 2 e q 2 = 0, il peso
massimo è
1
2µ1 = (1, √ ).
3
Sappiamo che 2µ1 −α1 e 2µ1 −2α1 sono pesi corrispondenti a stati unici, mentre
non vi è un peso 2µ1 − α2 . Vi sono invece altri tre pesi non degeneri che si
ottengono per riflessioni di Weyl:
219
H2
1.0
0.5
0
-1.0 -0.5 0.5 1.0
H1
-0.5
1.0
H2
1.0
0.5
0
-1.0 -0.5 0.5 1.0
H1
-0.5
1.0
220
H2
m-3a1-2a2
-1.0 0 1.0
m-2a1-a2 m-a1 H1
m-3a1-a2 m-2a1
-1.0
m-3a1
221
Figura 6.8: La rappresentazione (4, 2) ovvero [60] di SU (3). Gli stati indicati
con cerchi chiari hanno degenerazione 1, quelli grigi hanno degenerazione 2,
quelli neri hanno degenerazione 3.
(n + 1)(m + 1)(n + m + 2)
D(m, n) = .
2
222
6.14 Metodi Tensoriali.
Consideriamo qui uno strumento per eseguire calcoli in SU (3), generalizzabile
ad altri gruppi. Consideriamo i vettori di base della rappresentazione [3],
indicandoli come segue
1 0
0 =| , √ > =|1 > 1 =| − 1 , √
1 1 1
> =|2 >
0 2 2 3 0 2 2 3
0
0 =| 0, − √1 > =|3 >
1 3
223
Chiamiamo tensore | v > un qualunque stato in questo spazio prodotto tensoriale
ovvero una combinazione lineare
j1 ...jn
| v > =|ij11...i
...jn > vi1 ...im
m
(6.57)
dove
vij11...i
...jn
m
sono le componenti tensoriali con in alto gli indici relativi agli stati di [3] ed in
basso quelli realtivi agli stati di [3̄]. Consideriamo l’azione di uno dei generatori
Ta del gruppo su | v > espreso dalla (6.57)
j1 ...jn
Ta | v > =| Ta v > = Ta |ij11...i
...jn > vi1 ...im =
m
n
X n
X
k j1 ...jn i ...i kil+1 ...im i
= |ij11...i
...jl−1 kjl+1 ...jn > (Ta )jl vi1 ...im −
m
|j11 ....jl−1
n
> (Ta )kl vij11...i
...jn
m
=
l=1 l=1
n
X n
X
j j ...j kjl+1 ...jn k
j1 ...jn
= |ij11...i l 1 l−1
...jn > (Ta ) k vi1 ...im
m
− |ij11...i
....jn > (Ta ) il vi1 ...il−1 kil+1 ...im
m
l=1 l=1
n
X n
X
j ...j kjl+1 ...jn
(Ta v)ij11...i
...jn
m
= (Ta )Jkl vi11...iml−1 − (Ta )kil vij11...i
...jn
l−1 kil+1 ...im
(6.58)
l=1 l=1
(vH )ij11ij22...i
...jn
m
= δ j1 1 δ j2 1 ...δ jn 1 δ i1 2 δ i2 2 ...δ im 2
Dallo stato di peso più alto si possono ottenere tutti gli stati in (n, m) agendo
sul tensore vH con gli operatori di abbassamento. Notiamo che vH è simmetrico
nello scambio di due indici alti e di due indici bassi e che si ha
224
A sua volta δ ij è un tensore, a due indici, uno alto ed uno basso. Applicando
il generatore Ta dalla (6.56) si ha
ovvero
(Ta δ) = 0
per qualunque generatore del gruppo. Il tensore δ ij si dice invariante poichè si
trasforma in se stesso sotto la trasformazione
exp(−iαa Ta )
225
combinazione di un tensore doppio a traccia nulla
i 1 i k
v uj − δ j v uk
3
che appartiene alla rappresentazione [8] = (1, 1), mentre il tensore v k uk senza
indici appartiene alla rappresentazione ovvia [1] = (0, 0).
In modo analogo si può decomporre il prodotto v i ([3])ujk ([8])
ovvero
(1, 0) ⊗ (1, 1) = (2, 1) ⊕ (0, 2) ⊕ (1, 0).
La decomposizione del prodotto in tensori simmetrici negli indici alti e bassi,
ovvero in tensori irriducibili, conserva la quantità (n − m) mod 3, che prende
nome di trialità. Si noti che i tensori invarianti δ ij e ijk o ijk hanno trialità 0.
da cui vediamo che un bra con indice basso si trasforma come un ket con indice
alto. Analogamente un bra con indice alto si trasforma come un ket con indice
basso. Conviene allora definire le componenti del tensore bra < v |
∗
j1 ...jn
v̄ji11 ...i
...jn
m
= v i1 ...im (6.60)
L’elemento di matrice < u | v > tra due stati | u > e | v > che appartengono
allo stesso spazio, ovvero sono tensori dello stesso tipo,
...km j1 ...jn
< u | v > = ūkl11...l n
vi1 ...im < k1 ...km
l1 ...ln | i1 ...im
j1 ...jn >=
...km j1 ...jn i1
= ūkl11...l n
vi1 ...im δ k1 ...δ ikmm δ jl11 ...δ jlnn = ūij11...i j1 ...jn
...jn vi1 ...im
m
Questo è uno scalare che non si trasforma sotto l’effetto dei generatori del
gruppo.
Calcoliamo il numero degli stati nel multipletto (n, m), ovvero il numero
delle componenti tensoriali indipendenti in un tensore simmetrico negli indici
alti e bassi. Per quanto riguarda gli indici alti dobbiamo determinare il nu-
mero di n−ple distinte dei numeri 1, 2, 3 considerando coincidenti due n−ple che
differiscono per l’ordine dei componenti: ciò coincide con la determinazione del
226
numero di modi con cui è possibile separare n oggetti identici, con due separatori
identici
×...× | × × ...× | × × ... × ×
ovvero
(n + 2)!
n!2!
Lo stesso vale per gli m indici bassi. Le componenti indipendenti sono
(n + 2)! (m + 2)!
B(n, m) =
n!2! m!2!
Applicando poi le condizioni (6.59) relative alla traccia nulla si hanno B(n −
1, m−1) condizioni. Quindi un tensore simmetrico a traccia nulla ha dimensioni
Gli operatori tensoriali sono del tutto simili agli stati. Se l’operatore
Oji11 ...i
...jn
m
W = wij11...i
...jn i1 ...im
m
Oj1 ...jn
227
6.16 Diagrammi di Young.
Consideriamo una nuova notazione per le rappresentazioni iriducibili di SU (3). Per
SU (3) è un modo più conveniente di riscrivere il formalismo tensoriale. I vantag-
gi consistono nell’offrire un algoritmo per la decomposizione alla Clebsch-Gordan
del prodotto tensoriale del prodotto di due rappresentazioni irriducibili, che si
generalizza facilmente ad SU (N ).
L’osservazione chiave è che la rappresentazione [3̄] è una combinazione an-
tisimmetrica di due [3] e cosı̀ possiamo scrivere una rappresentazione arbitraria
come un prodotto tensoriale di [3] con opportune proprietà di simmetria.
Le componenti sono simmetriche per scambio degli indici alti tra di loro o degli
indici basi tra di loro. In più ci sono le condizioni di traccia nulla. Possiamo
innalzare gli indici più bassi con il tensore eijk ottenendo un oggetto con n + 2m
indici alti
ai1 ...in k1 l1 ...km lm = ej1 k1 l1 ...ejm km lm Aji11...i
...jm
n
228
k1 … km i1 … in
l1 … lm
… k1 … km i1 … in
… l1 … lm
…
i
eijk = j
k
229
a a b a b
b b a a
b
230
Figura 6.11: Altre decomposizioni di Clebsch-Gordan di prodotti di
rappresentazioni irriducibili SU (3).
231
e il tensore invariante per antisimmetrizare è ej1 j2 ....jN . I diagrammi accettabili
sono quelli con al massimo N colonne.
232
6.17 Applicazioni alla Fisica delle particelle. Iper-
carica e stranezza.
Nella sezione 5.19 abbiamo visto come le interazioni forti conservino lo spin
isotopico o isospin T . Pur non sapendo molto sulla natura delle interazioni forti,
l’aver ipotizzato che esse erano invarianti per trasformazioni interne di isospin,
ci aveva permesso di individuare doppietti, tripletti, quadrupletti di isospin e
di ricavare delle relazioni quantitative sulle sezioni d’urto. Le interazioni forti
conservano anche la stranezza. La stranezza introduce un numero quantico
aggiuntivo S. Il neutrone N e il protone P hanno S = 0. Sono dei barioni ovvero
hanno numero barionico B = 1 e formano un doppietto di isospin. Accanto a
questi esiste un tripletto di isospin Σ− , Σ0 , Σ+ e un singoletto Λ0 , con S = −1.
Inoltre con S = −2 c’è un altro doppietto Ξ+ , Ξ0 . Tutte queste particelle sono
barioni ed hanno masse in un intervallo relativamente stretto, tra i 940 e i 1320
M eV .
Vi sono anche mesoni strani (per i mesoni è B = 0). Accanto al tripletto
π − , π 0 , π + e al singoletto η con S = 0, vi sono i due doppietti di mesoni K e
precisamente K 0 , K + con S = 1 e le antiparticelle K − e K̄ 0 con S = −1. I
mesoni K sono le particelle strane a massa più bassa (circa 490 M eV ). Dal
momento che le interazioni forti conservano la stranezza i K sono prodotti in
coppie particella-antiparticella con starnezza totale zero in collisioni ad alta
energia tra protoni
P + P → P + P + K+ + K−
I K decadono in circa 10−8 s, a causa della interazione debole, un tempo molto
lungo ristetto ai tempi tipici in cui l’interazione forte è rilevante nella collisione
(10−23 s). I due gruppi di particelle considerate differiscono per il numero bari-
onico (B = 1 e B = 0) e per lo spin (J = 1/2 e J = 0). Formano multipletti di
carica
Y
Q = T3 + (6.61)
2
dove l’ipercarica Y è definita da
Y =B+S
I valori assunti da T3 ed Y sono gli stessi per i due gruppi di particelle, come
indicato in Figura 6.12 e in entrambi i casi abbiamo ottetti che richiamano
√ la
rappresentazione [8] di SU (3), se poniamo H1 = T3 e H2 = ( 3/2)Y . La
diversità delle masse (energia degli stati) delle diverse componenti di ciscun
ottetto mostra che nell’interazione forte la simmetria SU (3) è una simmetria
approssimata. La dinamica delle interazioni forti è descritta da un hamiltoniano
che risulta dalla somma di più contributi: uno superforte (Hss ) ed uno medio
forte (Hms ) che rompe l’invarianza SU (3).
Prima di cercare informazioni quantitative, possiamo introdurre un’altro es-
empio. Si sono descritte in precedenza le risonanze barioniche che costituiscono
un quadrupletto di isospin (risonanza ∆ a 1232 M eV ). Queste 4 particelle con
233
Y Y
N P K0 K+
1
1
S- S0 L S+ p- p0 h p+
-1 1 T3 -1 1 T3
-
X- X0 K- K0
-1 -1
D- D0 D+ D++
1.0
-1.0 0 1.0 T3
X*- X*0
-1.0
W-
-2.0
234
Y Y
-
s
d u
1/3
- -1/3 -
u d
-2/3
s
235
quazione di Klein-Gordon) i barioni hanno spin semintero (l’equazione del moto
è lineare, si veda l’equazione di Dirac). E’ poi da notare che nello stesso multi-
pletto per i mesoni compaiono particelle ed antiparticelle, mentre per i barioni
le antiparticelle appartengono alla rappresentazione complessa coniugata, che
nel caso della [8] è di nuovo una [8], mentre nel caso della [10] è la [10].Un
altro aspetto importante ed estremamente efficace nel predire le proprietà con-
siste nel pensare le rappresentazioni considerate in termine di decomposizione
dei prodotti di rapresentazioni fondamentali. La [8] può essere ottenuta da un
prodotto [3] ⊗ [3̄] = [8] ⊕ [1] e questo vale nel caso dei mesoni dove, accan-
to all’ottetto pseudoscalare già considerato, troviamo il singoletto η 0 , ma può
essere anche ottenuta da [3] ⊗ [3] ⊗ [3] = [10] ⊕ [8] ⊕ [8] ⊕ [1]. Questo indica
che le particelle considerate non sono elementari ma hanno una struttura in-
terna e possono essere pensate da costituenti elementari (quark ) associati alla
rappresentazione [3] e dalle loro antiparticelle associate alla rappresentazione
[3̄] (antiquark ). Si veda la Figura 6.14. I mesoni sono particelle costituite da
un quark e da un antiquark, mentre i barioni e le risonanze barioniche sono
costituite da tre quark. I quark sono particelle di momento angolare intrinseco
J = 1/2 e questo spiega come come i mesoni abbiano spin intero e i barioni
spin semintero (1/2 per l’ottetto e 3/2 per il decupletto). Le cariche dei tre
quark, che appartengono alla rappresentazione fondamentale, sono, sulla base
della relazione (6.61), date da:
2 1 1
qu = + e qd = − e qs = − e
3 3 3
Gli antiquark hanno carica opposta
2 1 1
qū = − e qd̄ = + e qs̄ = + e
3 3 3
dove si ricordi che −e è la carica dell’elettrone.
Questi nei primi anni ’60 erano i primi passi della teoria delle particelle
elementari. Successivamente la teoria dei gruppi di Lie e delle algebre di Lie
si sono rivelate una linea guida per lo sviluppo della tearia a livelli sempre più
completi. Nello sviluppo della fisica delle particelle elementari la ricerca delle
simmetrie interne ha ben compensato le difficoltà della conoscenza diretta delle
interazioni.
236
Capitolo 7
Gruppi finiti.
In questa parte ci riferiremo alla definizione di gruppo già nota, che richiamiamo
brevemente. Gruppo è un insieme di elementi, in cui è definita una moltipli-
cazione: a due elementi appartenenti al gruppo si associa un elemento del gruppo
stesso, il loro prodotto. Il prodotto può dipendere dall’ordine dei due elementi
(può essere non commutativo). Il prodotto è associativo. E’ definito anche il
prodotto di un elemento per sè stesso e deve essere un elemento del gruppo.
Esiste un elemento unità o identità che è l’emento neutro della moltiplicazione
(a destra o a sinistra). Ciascun elemento ha un inverso nel gruppo che è unico
e moltiplicato per l’elemento stesso (a destra o a sinistra) ha come prodotto
l’identità.
A differenza dei gruppi continui ciascun elemento non sarà associato a un
insieme di parametri, che, variando con continuità, identificano lungo una linea
nel gruppo diversi elementi del gruppo, ma da un indice discreto che assume un
numero finito di valori distinti. Gli elementi del gruppo sono pertanto ordinabili
secondo un indice intero i = 1, 2, ..., h.
G ≡ {X1 , X2 , ..., Xh }
Xl = X i Xk
237
Teorema del riordinamento. Nella tavola di moltiplicazione di un gruppo
in ciascuna riga (e in ciascuna colonna) un elemento compare una volta sola.
Di conseguenza ogni riga è una permutazione dell’ordinamento fissato. Ogni
elemento del gruppo compare in ogni riga (o colonna).
Gruppi abeliani. Se per qualunque Xi , Xj
Xi Xj = X j Xi
Xn = X n con Xh = E
S ≡ {S1 , S2 , ..., Sg }
h
=l
g
possono costituire a loro volta gli elementi di un gruppo, se S ha ulteriori
proprietà, come si vedrà più avanti.
Classi.
L’elemento B è il coniugato di A se A e B appartengono a G e vi è un
elemento X ∈ G tale che
B = XAX −1
Se B è coniugato di A, anche A è coniugato di B. Infatti
A = X −1 BX
238
Inoltre se B è coniugato di A e C è coniugato di B, anche C è coniugato di A.
A è poi coniugato di A, tramite l’identità.
Possiamo cosı̀ ripartire un gruppo in classi. Una classe è un insieme di
elementi di G che sono coniugati tra loro attraverso un qualunque elemento di G.
Le classi costituiscono insieme disgiunti. L’identità è coniugata solo di se stessa.
Pertanto l’identità da sola forma sempre una classe. Dal momento che la classe
cosı̀ ottenuta è formata dalla sola identità e gli insiemi sono disgiunti, questa è
l’unica classe ad essere sottogruppo. In un gruppo abeliano ogni elemento è una
classe dal momento che ogni elemento è coniugato solo di se stesso. Le classi si
indicheranno con
Ci
dove i = 1, 2, ..., nC . Valgono per qualunque X ∈ G le seguenti proprietà
X −1 Ci X = Ci
Ci Cj = X −1 Ci XX −1 Cj X = X −1 Ci Cj X
quindi il prodotto di due classi è una classe o è l’ unione di più classi. Nota la
tavola di moltiplicazione del gruppo è nota la struttura in classi e si può scrivere
l’espresione simbolica X
Ci Cj = cij,k Ck (7.1)
k
dove i coefficienti cij,k indicano il numero delle volte in cui la classe Ck compare
nel prodotto Ci Cj . Si noti che
Ci Cj = C j Ci
ovvero il prodotto dei due coset è il coset associato al prodotto dei due elementi
rappresentativi dei due cosets.
239
7.2 Alcuni esempi.
Consideriamo i gruppi di rotazioni proprie che lasciano inalterati poligoni o
solidi regolari.
Le rotazioni attorno ad un solo asse di simmetria che lasciano inalterato un
oggetto cilindrico costituiscono il gruppo continuo SO(2). Se l’oggetto ha per
sezione un poligono regolare di N lati ci sono N rotazioni attorno allo stesso asse
ciascuna con un angolo 2πn/N con n = 1, 2, ..., N. Il gruppo è il gruppo ciclico
CN di ordine N . Ciascun elemento è una classe e per n = N si ha l’elemento
identità.
2 N
C N = CN , CN , ..., CN =E
I gruppi DN sono gruppi di rotazione propria con 2N elementi: hanno un asse di
simmetria N -aria ed N assi di simmetria doppia ortogonali all’asse principale.
La struttura in classi è più articolata.
a cinque classi: costituiscono una classe le tre rotazioni di 180◦ attorno ai tre assi
paralleli agli spigoli che passano per il centro del cubo, le sei rotazioni di ±90◦
attorno agli stessi assi, le sei rotazioni di 180◦ attorno agli assi che congiungono
i punti medi di due spigoli opposti, le 8 rotazioni di ±120◦ attorno agli assi
passanti per i vertici opposti.
Per completare i gruppi di rotazione proprie si può considerare il gruppo di
rotazioni proprie che lasciano invariato un dodecaedro regolare: è il gruppo P ,
di ordine 60.
E’ facile vedere come nei diversi gruppi diverse classi si costituiscano con gli
stessi elementi in funzione delle moltiplicazioni con altri elementi del gruppo.
In genere elementi della stessa classe sono dello sesso ’tipo’ con apparentamenti
più o meno stretti secondo i prodotti con i restanti elementi del gruppo.
240
Occorre poi considerare le rotazioni improprie che si ottengono moltiplicando
per l’inversione I le rotazioni proprie per ottenere nuove operazioni, tra cui le
riflessioni rispetto ad un piano. Si possono costruire i gruppi che contengono la
inversione Ḡ = G + IG
Th = T + IT Oh = W + IW P̄ = P + IP
che semplicemente raddoppiano la struttura in classi. Gruppi di rotazioni che
contengono rotazioni improprie ma non l’inversione si possono costruire secondo
le indicazioni seguenti.
C2v = C2 + I(D2 − C2 )
C3v = C3 + I(D3 − C3 ) = {E, 2C3 , 3σ v }
C4v = C4 + I(D4 − C4 ) = {E, 2C4 , C2, 2σ v , 2σ d }
C6v = C6 + I(D6 − C6 ) = {E, 2C6 , 2C3 , C2 , 3σ v , 3σ d }
D2d = D2 + I(D4 − D2 ) D3h = D3 + I(D6 − D3 )
Td = T + I(W − T )
e i gruppi abeliani C2h , S4 e C3h del tipo
Cn + I(C2n − Cn ).
Associando ad ogni elemento di un gruppo A, B, ... una matrice Γ(A), Γ(B), ...
a n righe ed n colonne con la proprietà
Γ(A)Γ(B) = Γ(AB)
241
gli elementi del gruppo associati alla matrice identità costituiscono un sot-
togruppo invariante, e le altre matrici corrispondono ai suoi coset, formando
una rappresentazione fedele del gruppo fattore.
Se gli elementi del gruppo sono rotazioni proprie od improprie le matri-
ci avranno determinante ±1. Tali numeri costituiscono una rappresentazioni
1 dimensionale del gruppo. Tra le rappresentazioni 1 dimensionali vi è la
rappresentazione ovvia od identica, che associa ad ogni elemento +1.
Γ0 = S −1 ΓS.
Lemma 2 (di Schur). Una matrice che commuta con tutte le matrici di
una rappresentazione irriducibile di un gruppo deve essere una matrice del tipo
C = cE, con c costante ed E matrice identità. (Nota: Se esiste una matrice non
di forma cE che commuta con tutte le matrici della rappresentazione, allora la
rappresentazione è riducibile).
242
Questi tre lemmi, la cui dimostrazione è fornita a parte, consentono di
dimostrare il teorema fondamentale:
vettori di tale tipo che devono essere ortogonali tra di loro. Pertanto segue
immediatamente che X
li2 ≤ h (7.3)
i
243
Dimostrazione del G.O.T. Se Γ(1) e Γ(2) sono due rappresentazioni irriducibili
inequivalenti unitarie costruiamo una matrice M a l2 righe ed l1 colonne
X
M= Γ(2) (R)XΓ(1) (R−1 )
R
Ponendo µ = µ0 e sommando su µ
X X (1) X
Γν 0 µ (R−1 )Γ(1)
µν (R) = cνν 0 δ µµ0 = cνν 0 l1
µ R µ
244
ovvero X X
(1) (1)
Γν 0 ν (E) = cνν 0 l1 ma Γν 0 ν (E) = hδνν 0
R R
che può essere riscritta nel caso di rappresentazioni non unitarie come
X (i) h
Γ(j)
µν (R)Γν 0 µ0 (R
−1
)= δ ij δ µµ0 δ νν 0
l1
R
dove si deve fare attenzione alle diverse posizioni degli indici. Fine della di-
mostrazione.
Due elemementi della stessa classe avranno matrici, nella stessa rappresen-
tazione, con la stessa traccia, visto che sono in relazione tra loro mediante la
trasformazione
B = XAX −1
245
che conserva la traccia. Quindi in una rappresentazione χ(i) (R) è lo stesso per
tutti gli R ∈ Ck della stessa classe, posso allora scrivere
χ(i) (Ck )
Dal G.O.T.
X h
Γ(i) ∗ (j)
µµ (R) Γαα (R) = δ ij δ αµ
li
R
Sommando su α e su µ si ha
X h X
χ(i) (R)∗ χ(j) (R) = δ ij δ αµ = hδ ij
li αµ
R
ovvero X
χ(i) (Ck )∗ χ(j) (Ck )Nk = hδ ij (7.5)
Ck
246
7.6 La rappresentazione regolare.
E’ una rappresentazione costituita da matrici h×h, dove h è l’ordine del gruppo.
Ciascuna matrice è cosı̀ costruita. Dato l’elemento S ∈ G si definisce
(reg) −1
Γαβ (S) = 1 se Rα Rβ = S
−1
= 0 se Rα Rβ 6= S
Ora
h i h h
X i h i
Γ(reg) (T )Γ(reg) (S) = Γ(reg) (T ) Γ(reg) (S)
αβ αλ λβ
λ=1
−1
Solo uno degli h prodotti non è nullo: quello in cui T = Rα Rλ e in cui S =
−1 −1
R R
(reg)
λ β , che
vale 1. In tal caso e solo in tal caso, poichè T S = Rα Rβ , si ha
Γ (T S) αβ = 1. Altrimenti gli elementi di matrice sono nulli. L’eguaglianza
è verificata. c.v.d.
Vediamo ora il carattere della rappresentazione regolare. La classe che
corrisponde all’identità ha matrice identità nella rappresentazione regolare, la
traccia è h. Tutte le altre classi hanno diagonale e quindi traccia nulla.
χ(reg) (Ck ) = hδ k1
247
segue che, per qualunque rappresentazione irriducibile Γ(a) ,
X
Ni Nj χ(a) (Ci )χ(a) (Cj ) = la cij,k χ(a) (Ck )Nk
k
da cui la tesi.
Ora possiamo prendere per Cj la classe degli inversi Ci−1 che può essere o no
coincidente con la classe di partenza. In questo caso, sia che coicidano o no
avremo, avremo
Ni = Nj = cij,1
e quindi X
χ(a) (Ci )χ(a) (Ci−1 )Ni = h
a
ovvero
X h
χ(a) (Ci )χ(a) (Ci )∗ =
a
Ni
248
Invece, se Cj non è la classe degli inversi, non c’è l’identità nella decomposizione
e quindi X
χ(a) (Ci )χ(a) (Cj )∗ = 0
a
Abbiamo cosı̀ dimostrato il teorema: i vettori dei caratteri di due classi nella
totalità delle rappresentazioni sono vettori ortogonali.
X h
χ(a) (Ci )χ(a) (Cj )∗ = δ ij (7.9)
a
Ni
Conseguenza del teorema è che il numero delle classi non può superare il numero
delle rappresentazioni
nC ≤ n r
che unito alla relazione già dimostarta
nr ≤ n C
249