Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Lezioni sulla
2 4 6 8 4 5 0 0 0 0 0 0 0 0 0 0 0 5 4 8 6 4 2
3 6 9 6 8 4 5 0 0 0 0 0 0 0 0 0 5 4 8 6 9 6 3
4 8 6 9 6 8 4 5 0 0 0 0 0 0 0 5 4 8 6 9 6 8 4
5 4 8 6 9 6 8 4 5 0 0 0 0 0 5 4 8 6 9 6 8 4 5
0 5 4 8 6 9 6 8 4 5 0 0 0 5 4 8 6 9 6 8 4 5 0
0 0 5 4 8 6 9 6 8 4 5 0 5 4 8 6 9 6 8 4 5 0 0
0 0 0 5 4 8 6 9 6 8 4 10 4 8 6 9 6 8 4 5 0 0 0
0 0 0 0 5 4 8 6 9 6 13 8 13 6 9 6 8 4 5 0 0 0 0
0 0 0 0 0 5 4 8 6 14 10 16 10 14 6 8 4 5 0 0 0 0 0
0 0 0 0 0 0 5 4 13 10 17 12 17 10 13 4 5 0 0 0 0 0 0
0 0 0 0 0 0 0 10 8 16 12 18 12 16 8 10 0 0 0 0 0 0 0
0 0 0 0 0 0 5 4 13 10 17 12 17 10 13 4 5 0 0 0 0 0 0
0 0 0 0 0 5 4 8 6 14 10 16 10 14 6 8 4 5 0 0 0 0 0
0 0 0 0 5 4 8 6 9 6 13 8 13 6 9 6 8 4 5 0 0 0 0
0 0 0 5 4 8 6 9 6 8 4 10 4 8 6 9 6 8 4 5 0 0 0
0 0 5 4 8 6 9 6 8 4 5 0 5 4 8 6 9 6 8 4 5 0 0
0 5 4 8 6 9 6 8 4 5 0 0 0 5 4 8 6 9 6 8 4 5 0
5 4 8 6 9 6 8 4 5 0 0 0 0 0 5 4 8 6 9 6 8 4 5
4 8 6 9 6 8 4 5 0 0 0 0 0 0 0 5 4 8 6 9 6 8 4
3 6 9 6 8 4 5 0 0 0 0 0 0 0 0 0 5 4 8 6 9 6 3
2 4 6 8 4 5 0 0 0 0 0 0 0 0 0 0 0 5 4 8 6 4 2
1 2 3 4 5 0 0 0 0 0 0 0 0 0 0 0 0 0 5 4 3 2 1
Author:
Enrico Onofri (Parma, 1946)
Dipartimento di Scienze Mat. Fis. e Inf.
Universita` di Parma
43121 Parma, Italy
In copertina: una matrice “iperbolica”: per saperne di più risolvere l’esercizio 45 (parte II).
Prefazione vii
Notazioni viii
Prefazione alla prima edizione ix
I - Introduzione 1
Capitolo 1. Spazi lineari in Meccanica Classica 3
1.1. Il tensore d’inerzia 3
1.2. Modi normali di due oscillatori accoppiati 6
1.3. Modi normali di n oscillatori accoppiati 8
1.4. Spazi a infinite dimensioni 11
1.4.1. Un sistema con n particelle e n → ∞ 11
1.4.2. Un’equazione integrale 14
Problemi 17
Soluzioni 18
vi
Prefazione
La prima edizione di queste lezioni [Ono84] risale all’epoca “pre-computer”, sia nel
senso che allora non era ancora di↵uso l’uso del calcolatore personale, e quindi l’approccio
numerico a problemi complessi riguardava per lo più applicazioni avanzate, ma non faceva
parte della formazione di base del Fisico, sia anche per il fatto che la preparazione del testo
era ancora basata su manoscritto-dattilografia-stampa. Ciò ha comportato che, una volta
esaurite le copie a suo tempo prodotte dall’Editore Zara, le Lezioni siano sopravvissute
solo grazie alla disponibilità di qualche copia salvata dalla estinzione. Mi sono allora
deciso, d’accordo con il titolare della Editrice Zara, cui vanno i miei ringraziamenti, a
riportare le lezioni su supporto elettronico. Nell’occasione ho pensato che fosse tempo di
rinnovare il testo aggiungendo quelle informazioni essenziali che riguardano l’applicazione
di moderne tecniche numeriche alla soluzioni di problemi lineari, ormai entrate nell’uso
molto di↵uso tra Fisici a tutti i livelli. Il testo originale è quindi integrato con esercizi
che richiedono l’uso del calcolo numerico; le soluzioni sono date utilizzando il linguaggio
matlab in quanto si presta a scrivere un codice in modo molto leggibile, oppure nei casi
dove è conveniente, il linguaggio simbolico Mathematica. Nel testo solo l’ossatura dei
programmi sarà riportata, in modo da convogliare il nocciolo dell’idea, mentre i codici
completi funzionanti sono riportati a parte in forma di archivio a sè stante, disponibile
su rete. La copertina originale (una matrice iperbolica di dimensione 23) era stata a suo
tempo prodotta “a mano”; ora è sufficiente utilizzare il codice hpm.m inserendo la prima
riga della matrice.
Rispetto alla prima edizione, oltre all’aggiunta di esercizi e di esempi di applicazione
di calcolo numerico/simbolico, ho inserito un capitolo sulle applicazioni alla teoria delle
probabilità. Si tratta di un ambito in cui l’analisi lineare gioca un ruolo importante e l’ar-
gomento dovrebbe entrare, a mio giudizio, nel curriculum standard degli studenti di Fisica
al I livello. Qui l’accento è posto più sulle tecniche di simulazione piuttosto che sull’analisi
matematica. Il problema è costituito dal fatto che una presentazione matematicamente
consistente prenderebbe facilmente troppo spazio rispetto a quanto previsto dalle ristret-
tezze di un corso semestrale e non si arriverebbe ad esplorare problemi interessanti. La
possibilità di simulare numericamente situazioni anche complesse con il minimo sforzo
permette invece di addentrarsi rapidamente nelle problematiche delle variabili aleatorie
(random variables), delle catene di Markov, delle camminate aleatorie (random walks), dei
processi di↵usivi retti da equazioni di↵erenziali stocastiche. Naturalmente le simulazioni
non permettono mai di raggiungere risultati sicuri al 100%, ma forniscono in ogni caso
una buona guida per congetturare il risultato cercato, e nella stragrande maggioranza dei
casi realistici è quanto abbiamo a disposizione (oltre all’esperimento reale) in mancanza
di un risultato basato sull’analisi matematica.
Desidero ringraziare quelli tra i miei colleghi (in particolare Ra↵aella Burioni e Gian
Carlo Rossi) che mi hanno onorato utilizzando la prima edizione del libro e mi hanno
vii
cosı̀ stimolato a metterlo nella forma attuale in formato elettronico. Inoltre sono molto
riconoscente a tutti i colleghi con cui ho goduto di una felice collaborazione in questi
anni, G. Marchesini, G. Cicuta, M. Bonini, F. Di Renzo, R. DePietri, G. P. Tecchiolli,
G. Veneziano, V. Fateev. Da tutti loro ho imparato qualcosa per me importante. Desidero
inoltre ringraziare gli studenti che hanno frequentato il corso di Metodi Probabilistici della
Fisica nel 2004–2005, per gli stimoli che mi hanno fornito rendendo il compito di docente
piuttosto gradevole. Inoltre un grazie particolare all’amico Augusto Schianchi , collega
della Facoltà di Economia, per la curiosità sempre vivace che dimostra per quei problemi
di matematica che si collocano alla frontiera tra Economia e Fisica.
Notazioni
Il testo è articolato in capitoli, sottosezioni, problemi, soluzioni, osservazioni: queste
ultime sono indicate con (per invitare il lettore a rallentare un attimo e riflettere; il
simbolo è scelto in omaggio a Donald E. Knuth e al suo manuale di TEX). Le soluzioni
dei problemi sono raggruppate alla fine di ciascun capitolo e identificate con #nn. Un
estratto da un codice in un linguaggio quale matlab, Mathematica o C è segnalato da un
formato particolare del tipo
<nome del programma>
1 function Y=hpm(row)
2 ....
3 N=length(row);
4 U=eye(N,N);
5 X=diag(ones(N-1,1),-1);
6 X=X+X’;
7 ... etc ...
∗
In questa seconda edizione si è infatti cercato di completare il testo in questa direzione.
†
...e ora anche una Parte IV
ix
I - Introduzione
CAPITOLO 1
M= ⇢(r) r ∧
dr
ˆ
dV
R dt
avendo fissato la seguente notazione: ⇢ è la densità di massa al punto r; dV è l’elemento
di volume. Essendo per un corpo rigido dr�dt = ! ∧ r, si ottiene ∗
M= ⇢(r) r ∧ (! ∧ r) dV
ˆ
= ⇢(r) ((r ⋅ r) ! − (! ⋅ r) r) dV
ˆ
In componenti
j=1 R j
Le nove quantità Iij = R ⇢(r) (r2 ij − xixj) dV formano una matrice quadrata (ten-
´
sore d’inerzia). La relazione tra M e ! non è dunque di proporzionalità, in generale.
Tuttavia M e ! sono legati da una relazione lineare, il che significa che indicando con
M(!) la funzione ! → M si ha:
M( !) = M(!)
M(!1 + !2) = M(!1) + M(!2) .
∗
Ricordiamo che per tre vettori qualunque a, b, c, vale la formula a ∧ (b ∧ c) = (a ⋅ c)b − (a ⋅ b)c.
3
Meccanica Classica 1.1
In componenti, si ottiene
� Iij !j = !i
3
j=1
� (Iij − ij) !j = 0 .
3
j=1
Si tratta dunque di risolvere un sistema lineare omogeneo di tre equazioni in tre incognite.
Tale sistema ammette l’unica soluzione ! = 0 (che non ci interessa) a meno che non sia
(1.1) det � Iij − ij �= 0 .
Prima di considerare esplicitamente quest’ultima equazione, è possibile anticipare alcune
proprietà delle soluzioni. È importante riconoscere che la matrice I è simmetrica, cioè
Iij = Iji. Questo fatto ha notevoli conseguenze:
i) il numero deve essere reale, infatti
∑ij Iij!i!j ¯
= =
∑i �!i�2
ii) Se 1 e 2 sono due valori distinti per cui il sistema lineare ammette soluzioni
!(1) e !(2) entrambe non nulle, allora !1 ⋅ !2 = 0.
Infatti sia
� Iij !j =
(1) (1)
1!i
j
� Iij !j =
(2) (2)
2!i
j
(2)
Moltiplichiamo la prima equazione per !i e sommiamo sull’indice i; moltiplichiamo la
(1)
seconda equazione per !i e sommiamo su i. Otteniamo allora
� Iij !i !j = ⋅ !(1)
(2) (1) (2)
1!
ij
� Iij !i !j = ⋅ !(2)
(1) (2) (1)
2!
ij
I due membri a sinistra sono uguali per via della simmetria di I. Dunque
( 1− 2) !
(1)
⋅ !(2) = 0
ed essendo 1 ≠ 2, si ottiene che !(1) e !(2) sono ortogonali. Consideriamo dunque
l’equazione (1.1), e cioè
���I11 − I12 I13 ����
���
��� I21 I22 − I23 ���� = 0
��� I �
� 31 I32 I33 − ����
Sviluppando il determinante e raccogliendo i termini omogenei in :
3
− p1 2
+ p2 − p3 = 0
4
1.1. IL TENSORE D’INERZIA
dove
p1 = � Iii
i
I I I I I I
p2 = � I � � ≡ � 11 12� + � 11 13� + � 22 23�
ij
i<j
ij I21 I22 I31 I33 I32 I33
�i j k�
p3 = � I �i j k� ≡ det �I�
i<j<k �i j k�
= �I + I ± (I ′ 22 − I ′ 33)2 + 4I ′ 223�
1 ′ ′
2,3 22 33
2
Come si vede le soluzioni sono sempre reali e positive (in particolare si può avere 2 = 3
solo se I ′ 22 = I ′ 33 e I ′ 23 = 0). Ricordiamo che le direzioni individuate dai vettori !(1) ,
!(2) e !(3) ortogonali si dicono assi principali del corpo rigido. Tali assi sono individuati
univocamente solo se 1 ≠ 2 ≠ 3. Infatti se capita che ad es. 2 = 3 allora ogni
combinazione lineare
! = a !(2) + b !(3)
soddisfa l’equazione I! = 2!. Notiamo che questo fatto si verifica se il corpo ha
simmetria cilindrica, ma non vale il viceversa. Ad es. il tensore d’inerzia di un cubo
omogeneo ha tutti i momenti d’inerzia coincidenti, pur non avendo il cubo simmetria
sferica. Agli e↵etti inerziali tuttavia il cubo si comporta come una sfera.
5
Meccanica Classica 1.2
Le due molle fissate alle pareti abbiano modulo di elasticità k e la molla che accoppia le
masse abbia modulo . Indicando con x1 e x2 gli scostamenti dalle posizioni di equilibrio
delle due masse, l’energia potenziale del sistema è data da
V(x1, x2) = 12 k x21 + 12 k x22 + 12 (x1 − x2)2
= 12 (k + ) (x21 + x22) − x1x2
Adottando unità di misura in cui la massa sia uno, le equazioni del moto sono
ẍ1 = − = −(k + ) x1 + x2
@V
(1.2)
@x1
ẍ2 = − = x1 − (k + ) x2
@V
@x2
Un modo elementare per risolvere questo sistema di equazioni lineari è dato dalla sosti-
√ √
tuzione
(1.3) ⇠ = (x1 + x2)� 2 ; ⌘ = (x2 − x1)� 2
Si trova infatti
¨ = −k ⇠
⇠
¨ = −(k + 2 ) ⌘
⌘
Le equazioni sono ora separate e la soluzione è data da
⇠(t) = A cos(! t + ) ; ⌘(t) = B cos(!′ t + ✏) ;
√ √
con ! = k e !′ = k + 2 ; A, B, , ✏ sono costanti arbitrarie. Il sistema di equazioni può
essere scritto in forma più compatta introducendo un vettore a due componenti x = (x1, x2)
e l’operatore lineare ⌦2 definito da
k+ −
⌦2 � 1� = � � � 1�
x x
x2 − k+ x2
6
1.2. MODI NORMALI
per cui
= −⌦2 x .
d2x
dt2
È immediato riconoscere che la trasformazione (1.3) altro non è che una rotazione del
piano. Si può dunque a↵ermare che il sistema è stato risolto introducendo quel sistema
di riferimento in cui la matrice ⌦2 assume la forma più semplice, cioè quella diagonale.
Vedremo d’altronde che per ogni matrice simmetrica (qual’è ⌦2) esiste una rotazione
che la trasforma nella forma diagonale. La trasformazione Eq. (1.3) può essere trovata
cercando le direzioni per cui vale l’equazione
⌦2 � 1� = !2 � 1�
x x
x2 x2
in modo analogo a quanto si è fatto per individuare gli assi principali del corpo rigido. In
generale un sistema lineare del tipo
� x1 � � x1 �
� x2 � �x �
� � = −⌦2 � 2 �
d2
dt2 � ⋮ � � ⋮ �
�xn� �xn�
può essere separato in n equazioni disaccoppiate mediante una rotazione nello spazio
(x1, x2, . . . , xn), purché la matrice ⌦2 sia simmetrica. Un esempio è o↵erto nella sezione
seguente.
La soluzione del problema precedente è elementare e certo non richiede l’ausilio del calcolatore.
Tuttavia si presta a evidenziare alcune tecniche di programmazione matlab che sono utili in casi
più complessi. Dovendo risolvere il sistema (1.2) si può ricorrere a una delle routines di soluzione
di equazioni di↵erenziali che le librerie di matlab mettono a disposizione. Le equazioni risolubili
con ode45 (o con le altre routines simili) sono del tipo
dy(t)
= f(t, y(t))
dt
dove y(t) può essere un vettore di qualunque dimensione. Se scegliamo
�x1(t)�
� �
�x (t)�
� 2 �
y(t) = � �
�ẋ1(t)�
� �
�ẋ2(t)�
� �
la soluzione si può impostare cosı̀ (ponendo m = 1)
dueosc.m
function ydot = dueosc(t,x,k,lam)
x1=x(1); x2=x(2); v1=x(3); v2=x(4);
ydot = [ v1; v2;
-(k+lam)*x1+lam*x2; lam*x1 - (k+lam)*x2];
7
Meccanica Classica 1.3
� ⋮ ⋮ �
�x1(tN) x2(tN) v1(tN) v2(tN)�
� �
che contiene la soluzione “campionata” negli istanti {tj}. Ovviamente questo modo di risoluzione
si applica anche nel caso di equazioni non lineari. ◁
Supponiamo che le masse possano subire solo spostamenti longitudinali. Il moto tra-
sversale si può studiare in modo analogo. Siano x1, x2, . . . , xn gli spostamenti delle masse
dai punti di equilibrio. L’energia potenziale del sistema sarà allora data da
V = � (xj − xj−1)2
1 n+1
2 j=1
dove �(n + 1) è la costante di elasticità della molla e si conviene che x0 = xn+1 = 0.
Tenendo conto che l’energia cinetica è la somma m ∑j ẋ2i , le equazioni del moto sono
1
2
date da
m ẍj = (xj−1 − 2xj + xj+1)
e possono essere scritte in forma matriciale introducendo la matrice colonna �xj�:
� x1 � �2 -1 0 0
0 . . . . . 0 � � x1 �
� x2 � �-1 . . . . . 0 � � x2 �
� � � �� �
2 -1 0
0
� x3 � �0 ..... 0� � �
� � � -1 2 -1
0 � � x3 �
d2 �
� ⋮ �
�
�⋮ ⋮ � �
� ⋮� � ⋮ �
m 2� � = − �
�0
�� �
dt � x` � � -1 . . . 0 � � �
� � x` �
(1.4)
� ⋮ � �⋮ � � ⋮ �� ⋮ �� �
0 ... -1
2
� � � ⋮ � �
� � � �� �
�xn−1� �0 0 ..... 0 -1 2 -1 xn−1�
� �
� xn � �0 0 ..... 0 0 -1 2� � xn �
ovvero
8
1.3. MODI NORMALI
ẍ = −⌦2 x
La matrice indicata con ⌦2 è simmetrica: come vedremo in seguito (Cap.2) esiste allora
una rotazione di assi R nello spazio x1, x2, . . . , xn tale che ⌦2 diventa una matrice diago-
nale; le variabili dinamiche ⇠i = ∑ Rijxj si dicono “modi normali” del sistema ed hanno
una evoluzione temporale periodica
⇠˙ i(0)
⇠l(t) = ⇠i(0) cos !it + sin !it .
!i
Vediamo come si trova esplicitamente la rotazione R. Si tratta in pratica di cercare le
soluzioni del sistema lineare
ẍi = −!2 xi ⇒ �(!2 ij − ⌦ij) xj
2
= 0.
j
avendo indicato con n−1, n−2, ... determinanti simili a quello che ci interessa ma con
dimensione via via decrescente. L’equazione
n+( − 2) n−1 + n−2 =0
è una equazione alle di↵erenze finite, lineare e omogenea a coefficienti costanti (rispetto a
n). La soluzione generale è data dalla combinazione lineare di due soluzioni indipendenti,
le quali si trovano (in analogia con il caso delle equazioni di↵erenziali) ponendo n = en↵
che ci dà
en↵ + ( − 2) e(n−1)↵ + e(n−2)↵ = 0
ossia
e2↵ + ( − 2) e↵ + 1 = 0
da cui
�
z = e↵ = 12 (2 − ) ± 12 ( − 2)2 − 4
9
Meccanica Classica 1.3
Posto = 2(1 − cos #) si trova z = e±i# e dunque la soluzione generale si trova nella forma
n = Aein# + Be−in#
Imponendo le condizioni “al contorno” (n = 1, 2) si determinano A e B:
n = 1 �⇒ A ei# + B e−i# = 2 − = 2 cos #
n = 2 �⇒ A e2i# + B e−2i# = (2 − )2 − 1 = 4 cos2 # − 1
Con un po’ di algebra si trova A = B = − 12 iei#� sin # e infine
sin((n + 1)#)
n =
sin #
Gli zeri del determinante, ossia le frequenze proprie di vibrazione del sistema elastico,
sono date perciò da
� �
!j = j = 2 k�m sin � � , j = 1, 2, . . . n.
j⇡�2
n+1
Indichiamo con ⇠(j) le soluzioni dell’equazione
⌦2 ⇠(j) = !2j ⇠(j)
cioè i modi normali. È possibile fissare un fattore moltiplicativo arbitrario in modo tale
che
� �⇠k �2 = 1 .
(j)
n
k=1
La matrice Rjk =
(j)
⇠krappresenta la rotazione che porta ⌦ alla forma diagonale. Esplici-
tamente si trova �
⇠k =
(j) 2 kj⇡
n+1 n+1
sin .
Lo spettro di frequenze, nel caso di valori molto grandi di n, diventa essenzialmente
quello �
di una corda di violino - cioè frequenze multiple di una frequenza fondamentale
!1 ≈ 2 k�m n+1⇡
.
(n)
Si noterà che i modi normali ⇠j si annullano per j = 0 e j = n+1, il che corrisponde alla
convenzione x0 = xn+1 = 0. In e↵etti un metodo più veloce per determinare le soluzioni consiste
nel ricercare soluzioni del tipo ⇠j = ei↵j e nell’imporre la condizione al contorno alla soluzione
generale. Tuttavia il metodo illustrato qui è più potente. Nel caso di masse diverse oppure molle
di costante elastica di↵erente, in ogni caso il calcolo del determinante si può impostare in modo
ricorsivo, e risolvere in modo efficiente, almeno per via numerica. Ogni qual volta un problema
complesso è ricondotto ad una relazione di ricorrenza che può essere risolta in un numero di
passi proporzionale al numero di gradi di libertà il problema si può considerare risolto, da un
punto di vista pratico. Osservare ad esempio il grande risparmio di operazioni aritmetiche nel
calcolo attraverso la relazione di ricorrenza rispetto al calcolo di un determinante generico (n!
◁
operazioni).
Anche per il problema precedente sarebbe superfluo ricorrere al calcolatore. Tuttavia se le
forze tra le masse fossero leggermente diverse, magari con correzioni al di là della approssimazione
elastica, e conseguentemente le equazioni del moto fossero non–lineari, il ricorso al calcolatore
risulta indispensabile. Questa è stata una delle prime applicazioni dei calcolatori elettronici,
grazie a una felice idea di Enrico Fermi. Per saperne di più provare a chiedere a Google “Fermi
Pasta Ulam”. Rimanendo nel contesto lineare, l’analisi numerica può fornire tecniche per il
10
1.4. SPAZI A INFINITE DIMENSIONI
calcolo dello spettro di matrici anche di grandi dimensioni. Nel caso degli n oscillatori accoppiati
(Eq. (1.4)) lo spettro di frequenze si trova con
nosc.m
F = diag(ones(n,1)) -... % diagonale principale
diag(ones(n-1,1),-1); % diagonale (i-1,i)
F = F + F’; % simmetrizzare F
frequenze = sqrt(eig(F)); % eig ritorna lo spettro di F
avendo posto k = m = 1 senza perdere in generalità. F è una matrice tridiagonale, dunque una
tipica matrice sparsa. In questi casi, se è necessario studiare matrici di grandi dimensioni, si
possono utilizzare matrici specialmente studiate per questi casi. Ad es.
2 L 0 @t 2 0 @x
ˆ L 2 2
= � ⇢ � � − ⌧ � � � dx
1 @y 1 @y
0 2 @t 2 @x
dove ⇢ = M�L è la densità di massa lineare e ⌧ = KL è la tensione della corda. L’equazione
del moto diventa
@2y KL2 y(q a + a) − 2y(q a) + y(q a − a)
=
@t2 M a2
e al limite per a → 0, considerando soluzioni “lisce” ossia continue e di↵erenziabili,
=
@2y ⌧ @2y
@t2 ⇢ @x2
nota come l’equazione d’onda. I modi normali assumono una forma semplice al limite:
�
p⇡x √
= � sin � � a⌘p
n
2
(n + 1)a p+1
y(x)
L
↓ (n → ∞)
�
2 ∞
= � sin � �
p⇡x
y(x) p .
L p=1 L
Con una serie di trasformazioni si può esprimere tutte le grandezze che entrano nella
dinamica del sistema in termini continui:
L = � ⌘˙ p − � sin2 � � ⌘2
1 Ma n 2 2KL n p⇡
2 L p=1 a p=1 2(n + 1) p
1 ∞ ˙2
→ ⇢ � � − !2p 2p�
2 p=1 p
�
(!p = p ⇡, p = 1, 2, 3, . . .) .
K
M
Le variabili p sono esprimibili in funzione di y(x) secondo le relazioni
�
√
= = � sin � � yq
2a n pq⇡
n + 1 q=1 n+1
p a⌘ p
�
= 2�L � sin � � y(x) a
n
p⇡x
q=1 L
� ˆ L
→ 2�L sin � � y(x) dx
p ⇡.x
0 L
Abbiamo cosı̀ ottenuto un limite continuo per n → ∞. La situazione di può riassumere in
questi termini. La descrizione matematica di una fune elastica con massa uniformemente
distribuita è fornita dalla funzione y(x, t) che rappresenta a t fissato la forma della fune.
12
1.4. SPAZI A INFINITE DIMENSIONI
La Lagrangiana del sistema è data dalla Eq.(1.6) da cui si ricava l’equazione del moto
attraverso il principio variazionale di Euler-Lagrange (noi qui le abbiamo ottenute come
limite del caso discreto). Il sistema presenta moti armonici collettivi analoghi ai modi
normali di una catena discreta, in particolare si ha
� ∞
y(x) = 2�L � sin � � p
p ⇡x
p=1 L
� ˆ L
p = sin � � y(x) dx
p ⇡x
2�L
�
0 L
1 ∞ ˙2
L = ⇢ � � p − !2p 2p� , !p =
K
p⇡.
2 p=1 M
La trasformazione y(x) ⇔ p è la classica trasformata di Fourier. Cosı̀ come è scritta
è una relazione formale che acquista significato quando ´si precisano i valori che possono
assumere le p (ad es y(x) deve essere continua con 0 y(x)2dx < ∞). Notiamo che
L
L
0 p x
y(p)
Figura 1-4. Deformazione della fune sotto una forza applicata in un punto p.
piccola deformazione, la corda risulta in equilibrio se, detto y(p) lo spostamento della
fune nel punto p di applicazione della forza e detta ⌧ la tensione della fune si ha
f = ⌧y(p)�p + ⌧y(p)�(L − p)
(si considerino molto piccoli gli angoli in 0 e L). Lo spostamento in un punto qualunque
x sarà dato da
�
�
� per x < p
x
�
�
�
y(p)
�p
y(x) = �
�
�
� L−x
�
� per p < x < L .
�
�L − p
y(p)
e in definitiva
x (L − p) per x < p
y(x) = �
f
⌧L p (L − x) per p < x < L .
Si noti la forma simmetrica assunta da quest’ultima espressione nello scambio tra x e p.
Applicando n forze f1, f2, ..., fn nei punti p1, p2, ..., pn e sommando tutti gli spostamenti
(cosa lecita trattandosi di piccole deformazioni elastiche) si ottiene
Supponiamo che n sia molto grande in modo da poter considerare la forza distribuita
con continuità sulla fune. Per potere procedere al limite conviene definire fk = f(pk)�n e
porre L�n → d⇠ cosicché si ottiene la semplice formula
L
y(x) = 2 d⇠ f(⇠) �(L − ⇠) x #(⇠ − x) + (L − x) ⇠ #(x − ⇠)�
1
ˆ
(1.7)
⌧L 0
14
1.4. SPAZI A INFINITE DIMENSIONI
= (x)
d✓(x)
dx
si trova facilmente che
= −f(x)�(⌧L2)
@2y(x)
@x2
il che significa che l’operatore di↵erenziale @2�@x2 e l’operatore integrale (1.7) sono uno
l’inverso dell’altro! La funzione G(x, ⇠) prende il nome di funzione di Green, termine pur-
troppo utilizzato in diversi contesti con diversi significati. Se anziché studiare l’equilibrio
della fune ne studiassimo il moto, al posto della forza dovremmo introdurre (secondo il
principio di D’Alembert) il termine −⇢ @ @t
2 y(x)
2 , essendo ⇢ la densità di massa. L’equazione
15
Problemi
Problema 3. Calcolare gli assi principali di un corpo rigido avente il seguente tensore
di inerzia √
� 5�4 1�4 -1�√8�
I = � 1�4√ 5�4 √ -1� 8�
�-1� 8 -1� 8 3�2 �
Problema 4. Dimostrare la relazione
r ∧ (! ∧ r) = ! r2 − r (! ⋅ r)
(Cenno: r ∧ (! ∧ r) giace nel piano individuato da ! e da r, dunque
r ∧ (! ∧ r) = A! + Br .
Si proietta la relazione lungo ! e r, e ciò permette di ricavare A e B.)
Problema 5. Considerare la superficie (ellissoide) individuata dall’equazione
� Iij !i!j = 2T = costante
ij
= 2
@2⌘(x, t) 1 @2⌘(x, t)
@x2 c @t2
sapendo che ⌘(x, 0) = f(x), � @⌘ �
@t t=0 = 0. (Cenno: sfruttare la soluzione generale ⌘(x, t) =
f(x − ct) + g(x + ct)).
Problema 11. Supponiamo che una corda vibrante sia inizialmente configurata con
⌘(x, 0) = Ax(L-x), ⌘(x,
˙ 0) = 0. Quali modi normali sono eccitati e con quali ampiezze?
Problema 12. Come nel precedente esercizio, ma
�
�
�
�A x per x < `
⌘(x, 0) = �
� per ` < x < L
.
�
L-x
�
�
A`
L-`
Problema 13. Ad uno sca↵ale di legno sono appesi N pendoli identici che risultano
accoppiati tra loro in quanto lo sca↵ale può oscillare orizzontalmente nel piano dei pendoli
con una forza di richiamo elastica K. Determinare i modi normali del sistema accoppiato
sca↵ale-pendoli nel caso di piccole oscillazioni debolmente smorzate dall’attrito.
Soluzioni
#. 13 Si veda [BSRW02] per una trattazione dettagliata. Volendo procedere con le
proprie forze si può analizzare il problema facilmente nel limite di piccole oscillazioni.
Siano ✓i gli angoli e X la coordinata orizzontale dello sca↵ale. Allora la Lagrangiana è
presto formulata come
L= Ẋ + � (`✓˙ i + Ẋ)2 − X −
M⌦2 2 mg`
� ✓2
M 2 m
2 2 i 2 2 i i
che danno le equazioni del moto (⇠ = X�`, ⇢ = m�M)
¨
⇠(t) = −⌦2 ⇠(t) + ⇢!2 � ✓i
i
!+ ≈ ⌦ +
N ⇢ !2
4⌦
!− ≈ ! −
N ⇢ !3
4⌦2
e quindi il modo collettivo con tutti i pendoli che oscillano all’unisono è quello con la
frequenza minima. Altra faccenda è quella di studiare le oscillazioni in regime non–lineare.
C’è sempre la possibilità di utilizzare il calcolo numerico. Il codice huygens.m permette
di sperimentare il caso generale con un numero qualunque di pendoli e oscillazioni di
ampiezza arbitraria in presenza di attrito. Per raggiungere uno stato stazionario stabile,
come per gli orologi a cucù presso un tipico orologiaio nelle valli trentine, bisogna anche
prevedere un meccanismo di scappamento che rifornisca il sistema dell’energia dissipata.
Il tutto presenta la complicazione di un sistema non–lineare, e il fenomeno interessante
che si presenta in certi regimi di parametri è quello scoperto da Huygens nel ’600 (v. art.
cit.).
19
II - Operatori Lineari in spazi a dimensione finita
CAPITOLO 2
Spazi Lineari
(c) R∞ : lo spazio delle successioni di numeri reali (x1, x2, . . . , xn, . . .) con le operazioni
di somma e prodotto analoghe al caso di Rn.
(d) Lo spazio F(M) delle funzioni a valori reali definite su un insieme arbitrario M
x∶ M � R
∗
Ci basiamo sui testo di Gelfand [Gel89], Shilov [Shi77] e Gantmacher [Gan59].
23
Spazi lineari 2.1
j=0
(rientra in (d) con M = R oppure C e con la restrizione che le funzioni devono
essere polinomi).
(f) Lo spazio M(n, R) delle matrici quadrate a n righe e n colonne
x = �xij�i,j=1,2,...,n
x + y = �xij + yij�
a x = �a xij�
Definizione 2.1.2. Sia R uno spazio lineare. Si dice che k vettori x1, x2, . . . , xk di R
sono linearmente dipendenti se esistono k numeri reali a1, a2, . . . , ak non tutti nulli tali
che
� aj x j = 0
k
j=1
Se k vettori non sono linearmente dipendenti, essi si dicono linearmente indipendenti: ciò
significa che in questo caso la relazione ∑kj=1 aj xj = 0 implica a1 = a2 = . . . = ak = 0.
Risulta immediato dalla definizione che se k vettori x1, x2, . . . , xk sono linearmente
dipendenti, allora almeno uno tra di essi, diciamo xk, è esprimibile come combinazione li-
neare degli altri. Il concetto di lineare indipendenza permette di definire la dimensionalità
di uno spazio lineare. Nel caso più intuitivo dello spazio ordinario (tridimensionale) si ha
che qualunque vettore è esprimibile come combinazione lineare di tre vettori non com-
planari. Dunque nello spazio esistono terne di vettori linearmente indipendenti, ma ogni
gruppo di quattro o più vettori risultano linearmente dipendenti. Uno spazio lineare si
dice avere dimensione finita se esiste un limite superiore al numero di vettori linearmente
indipendenti, e cioè:
Definizione 2.1.3. Uno spazio lineare R si dice n−dimensionale se
i) esso contiene n vettori linearmente indipendenti
ii) n + 1 vettori sono sempre linearmente dipendenti.
Uno spazio lineare si dice infinito–dimensionale se esso contiene n vettori indipendenti
per ogni numero naturale n.
In questa prima parte considereremo solo spazi lineari a n dimensioni. Se non speci-
ficato diversamente, R sarà uno spazio lineare n-dimensionale.
2.1.2. Basi in uno spazio lineare.
Definizione 2.1.4. Ogni insieme di n vettori x1, x2, . . . , xn linearmente indipendenti
in uno spazio R n−dimensionale si dice costituire una base in R.
24
2.1. SPAZI LINEARI REALI
Assegnata una base in R, ogni vettore x si può individuare mediante n numeri reali.
Infatti per ipotesi x, x1, x2, . . . , xn sono linearmente dipendenti e dunque esiste una scelta
di costanti {ai, i = (0, 1, 2, ...n)} tali che
−a0 x + a1 x1 + a2 x2 + . . . + an xn = 0
con a0 ≠ 0 (altrimenti x1, x2, . . . , xn sarebbero linearmente dipendenti, per cui x è espri-
mibile come combinazione lineare dei vettori della base
x = a−1
0 (a1 x1 + a2 x2 + . . . + an xn)
j=1 j=1
�⇒
x(2) = � cj xj a x(1) = � (a cj ) xj
(2) (1)
n n
j=1 j=1
Ne segue il
Teorema 2.1.1. Tutti gli spazi lineari n-dimensionali sono tra loro isomorfi. Spazi
lineari con di↵erente dimensionalità sono tra loro non isomorfi.
(per isomorfismo tra spazi lineari si intende l’esistenza di una corrispondenza biunivoca
che rispetta le operazioni di somma e prodotto).
Definizione 2.1.5. Un sottoinsieme R ′ ⊂ R è detto sottospazio di R se esso forma
uno spazio lineare secondo le stesse operazioni definite in R.
L’insieme vuoto {�} e {R} soddisfano banalmente alla definizione e si dicono pertanto
sottospazi impropri . Ogni altro sottospazio verrà detto proprio. L’insieme R ′ di tutte
le combinazioni lineari di k vettori linearmente indipendenti forma un sottospazio lineare
k-dimensionale.
Siano ora (e1, e2, . . . , en) e (e1′ , e2′ , . . . , en′ ) due basi in R. Si avrà allora
e1′ = a11 e1 + a21 e2 + . . . + an1 en
e2′ = a12 e1 + a22 e2 + . . . + an2 en
⋮
en = a1n e1 + a2n e2 + . . . + ann en
′
La matrice �aij� ha determinante non nullo; infatti se fosse det(a) = 0 per il teorema di
Cramer esisterebbe una n−pla di numeri reali non tutti nulli c1, ..., cn tali che
� aijcj = 0
n
i=1
25
Spazi lineari 2.2
da cui seguirebbe
� ciei′ = � � ci aji ej = 0
j i j
ossia {ej′ } non costituirebbe una base. La matrice A = �aij� si dice la matrice di tra-
sformazione dalla base {e} alla base {e ′ }. La conoscenza di A permette di esprimere
le componenti di un vettore rispetto a una base in termini delle componenti rispetto alla
seconda base (ove non ci sia pericolo di ambiguità eviteremo di indicare i limiti delle
sommatorie)
= � �� aji ci′ � ej
j i
da cui
cj = � aji ci′
i
′
� c1� � a11 a12 . . . a1n� � c1�
� c2� � a21 a22 . . . a2n� � c2′ �
� �=� �� �
� ⋮� � . . . � � ⋮�
�cn� �an1 an2 . . . ann� �cn′ �
L’espressione di un vettore x in termini delle due basi si può allora ritrovare in questo
formalismo come segue
′
� c1� � c1�
�c � � c′ �
x = �e1 e2 . . . en� � 2� = �e1 e2 . . . en� A � 2�
� ⋮� � ⋮�
�cn� �cn′ �
′
� c1�
� c′ �
= �e1′ e2′ . . . en′ � � 2�
� ⋮�
�cn′ �
Il formalismo matriciale è del tutto equivalente all’uso esplicito degli indici. Conviene familia-
rizzarsi con questo sistema che è alla base della manipolazione di matrici e vettori nel linguaggio
matlab, che verrà utilizzato nel seguito per risolvere problemi di analisi lineare. ◁
26
2.3. SPAZI LINEARI METRICI
27
Spazi lineari 2.3
Si controlla facilmente che tutti gli assiomi della Def. 2.3.1 sono soddisfatti.
b) Sia Pn lo spazio dei polinomi in una variabile reale di grado inferiore a n e con
coefficienti complessi. Si definisce
ˆ 1
�p1, p2� = p1(x) p2(x) dx
−1
(1 + x2 + y2)n+1
dx dy .
R2
Sia (e1, e2, . . . , en) una base in C. Dalle proprietà del prodotto interno segue che la
conoscenza della matrice
hij = �ei, ej�
è sufficiente per calcolare il prodotto interno di qualunque coppia di vettori. Infatti se
⇠ = ∑ ziei, ⌘ = ∑ wiei , si ha
�⇠, ⌘� = �� ziei, � wjej, �
= � zi wj�ei, ej�
i,j
= � zi hij wj
i,j
La matrice �hij� si dice la matrice metrica dello spazio unitario C e gode delle seguenti
proprietà:
i) hij = hji, ovvero h è Hermitiana;unamatricea valoricomplessichecoincideconlatravestaconiuge
ii) per ogni n−pla di numeri complessi ↵1, ...↵n si ha ∑ij ↵i hij ↵j ≥ 0 e il segno di
uguaglianza vale solo se tutte le ↵j sono nulle. Si dice che h è positiva definita.
Ogni matrice che soddisfa i) e ii) può essere utilizzata per definire un prodotto interno.
Teorema 2.3.1. Ogni spazio unitario ammette basi ortonormali ossia tali che la
matrice metrica è data dalla matrice unità hij = ij.
Dimostrazione. Da una qualunque base (e1, e2, ..., en) si costruisce una base orto-
�e , e � �e1, e2�
normale (f1, f2, ..., fn) attraverso il procedimento di Schmidt: Sia f1 = e1, f2 = � 1 1 �,
e1 e2
e in generale per k ≤ n
��� �e1, e1� �e1, e2� . . . �e1, ek� ����
���
��� �e2, e1� �e2, e2� . . . �e2, ek� ����
���
fk = ���� ⋮ ⋮ ⋮ ⋮ ���
���
����ek-1, e1� �ek=1, e2� . . . �ek-1, ek�����
��� e1 e2 ... ek ����
Si verifica immediatamente che fk è ortogonale a tutti i vettori e1, e2, ..., ek-1 e quindi a
tutti gli f1, f2, ..., fk-1. Resta ora solo da “normalizzare” i vettori della nuova base, ossia
si moltiplica ogni fk per �fk�-1. �
28
2.3. SPAZI LINEARI METRICI
2.3.1. Matrici unitarie. Siano (e1, e2, ..., en) e (e1′ , e2′ , ..., en′ ) due basi ortonormali;
sarà allora, per quanto appena detto
ei′ = � uji ej .
j
La matrice U = �uij� ha come elementi di matrice uij = �ei, ej′ �. Se scambiamo una base
con l’altra troviamo che la matrice U gode di una notevole proprietà:
u = �e , e ′ � = �e ′ , e � = (U -1)
ij i j j i ji
29
cit ii
Spazi lineari 2.3
e indicando con = ei' il determinante della matrice, segue = ↵ ei', = − ei', e perciò
ogni matrice unitaria 2 × 2 è della forma
U =� �
↵
- ei' ↵ ei'
con la condizione �↵�2 + � �2 = 1. Il sottoinsieme caratterizzato da = 1 forma un sotto-
gruppo indicato con SU(2), il gruppo delle matrici unitarie 2 × 2 con determinante uguale
a uno. Una conveniente parametrizzazione è la seguente† :
=� �
01
1
10
=� �
0 -i
2
i 0
=� �
1 0
3
0 -1
note come matrici di Pauli (introdotte in realtà dal matematico inglese Arthur Cayley
decenni prima‡ , e già note sotto forma di algebra dei quaternioni da W.R. Hamilton,
1843).
Figura 2-1. Brougham Bridge, Dublin, dove i quaternioni sono venuti alla luce.
†
Equivalente alla rappresentazione in termini di quaternioni, q ∈ Q: U � q0 + q1 i + q2 j + q3 k, ∑ q2j = 1.
‡
L’opera omnia di Cayley si trova on line attraverso Wikipedia.
30
2.4. FUNZIONALI LINEARI E SPAZIO DUALE
Problema 2-1. Date due matrici unitarie parametrizzate in termini di (✓, n), deter-
minare il loro prodotto, facendo uso della identità §
j k = jk + i � "jkm m
m
Il gruppo SU(2) è intimamente legato al gruppo delle rotazioni in tre dimensioni reali,
ossia al gruppo delle matrici ortogonali SO(3) (vedi Probl.72).
Si ha allora
(⇠) = � ↵i (ej) j(ei) = �� (ej) j� (⇠) .
ij j
Ogni funzionale lineare è pertanto esprimibile come combinazione lineare degli n funzionali
lineari i. �
La base { i} in C � è detta la base duale rispetto alla base {ei} in C. Finora non si
è considerata una struttura metrica in C. Supponiamo ora che C sia uno spazio unitario.
Allora si ha
Teorema 2.4.2. Sia C uno spazio unitario. Allora in corrispondenza ad ogni ∈ C�
esiste un unico vettore ♯ ∈ C tale che
(⇠) = � ♯
, ⇠�, (∀⇠ ∈ C) .
§
" è il simbolo di Ricci, definito da "123 = "231 = "312 = 1, "132 = "213 = "321 = -1, "ijk = 0 negli altri casi (due
indici uguali).
31
Spazi lineari 2.4
��� j1 j2 j3
o anche
���
���m1m2m3�
��� E, P, ±
�
che porrebbero altrimenti qualche problema tipografico. ◁
32
2.4. FUNZIONALI LINEARI E SPAZIO DUALE
È
i dellalowortam
essendo {ei} i vettori di una base ortonormale. Nella nuova notazione si ha
�⇠� = � �ei� �ei�⇠�
i
ovvero
opuntono
�⇠� = �� �ei� �ei�� �⇠�
i
che si può interpretare come il fatto che l’espressione formale ∑i �ei� �ei�, quando appli-
cata a un qualunque vettore, lo lascia inalterato. D’altra parte l’espressione �⌘� �⌘� ha
il significato di proiettore lungo la direzione individuata dal vettore �⌘�, infatti secon-
do la convenzione di Dirac, l’espressione �⌘� �⌘�⇠� rappresenta il vettore �⌘� moltiplicato
per il numero complesso �⌘�⇠�. In conclusione la somma dei proiettori lungo i vettori
di una base ortonormale lascia invariato ogni vettore dello spazio. Questo fatto si dice
costituire la “relazione di completezza” per i vettori �ei�. Vedremo meglio tutto ciò più
avanti in termini di “operatori lineari”. Tenendo presente che, nel senso specificato prima,
∑i �ei� �ei� = , si ha
�⌘�⇠� = �⌘� � �ei� �ei�⇠�
i
= � �ei�⌘� �ei�⇠�
i
33
Spazi lineari 2.4
dunque aji = �ej�ei′ � è la matrice di trasformazione dalla base {ei} alla {ei′ }. Se {ei′′ } è
una terza base, si avrà
aij = �ei�ej′ � = � �ei�ek′′ � �ek′′ �ej′ � = (Ae→e Ae )ij
′′ ′′ →e
k
ovvero le matrici di trasformazione da una base all’altra si compongono secondo il prodotto
“righe-per-colonne”. Indubbiamente il formalismo di Dirac permette di ricavare queste
relazioni senza sforzo.
Eh
34
CAPITOLO 3
Operatori Lineari
sono i casi estremi di operatori lineari.
Esistono molti “zeri” da tenere concettualmente distinti: il numero zero 0, il vettore nullo
0, l’operatore nullo O, etc. Ove non si creino ambiguità utilizzeremo in tutti i casi, per non
appesantire troppo il formalismo, il simbolo 0. ◁
Teorema 3.1.1. Ogni operatore lineare è individuato dalla sua azione sui vettori di
una base.
Dimostrazione. Sia A un operatore lineare, e sia �ei� � i = 1, .., n} una base. Sia
inoltre
A �ej� = � aij �ei�
i Alei eillei c e i Alei lei
Allora si ha patientia
A �⇠� = A � ⇠j �ej� = � aij ⇠j �ei�
j ij
L’azione di A è perciò “rappresentata” dalla matrice aij sulle componenti dei vettori e
diremo che �aij� è la matrice rappresentativa di A nella base prescelta. �
Sia C uno spazio unitario. Allora le coordinate di A �i� nella base ortonormale �i� sono
date da
�j� A �⇠� = � �j� A �i� �i�⇠� .
i
Dunque in una base ortonormale la matrice rappresentativa di qualunque operatore lineare
A è data da Aij = �i� A �j�.
3.1.1. Cambiamenti di base. Sotto un cambiamento di base ortonormale �↵� =
∑j �j� �j�↵� = �j� Sj↵, la matrice rappresentativa di ogni operatore viene modificata attra-
verso una trasformazione di similitudine:
VI
A↵′ = �↵� A � � = � �↵�i� �i� A �j� �j� p� = � U↵i Aij U j
u vip
ij ij
Due matrici legate tra loro dalla relazione (3.3) si dicono matrici simili e condividono sia maidata1
unitario
numerose proprietà, come vedremo in seguito.
Esempio. Consideriamo l’operatore D introdotto in precedenza (esempio d). Il pro-
dotto interno è definito in modo che
1
�k� → � � zk , (i = 0, 1, ..., n)
n 2
k
sia una base ortonormale. La matrice rappresentativa di D si calcola facilmente:
�
n 2 k-1 � √
1
√
da cui
�h� D �k� = k (n − k + 1)
�
h,k-1
Se poniamo n = 2j, k = m+j troviamo che gli elementi di matrice divengono (j+m)(j-m+1)
che coincidono con quelli della componente Jx-iJy del momento angolare in meccanica
quantistica [LL76]. ◁
3.1.2. Algebra degli Operatori lineari. Se consideriamo l’insieme B(C) di tutti
gli operatori lineari in uno spazio n−dimensionale C, troviamo che è possibile definire su ta-
le insieme una struttura algebrica. Innanzitutto B è uno spazio lineare n2−dimensionale;
ciò si riconosce dal fatto che in modo del tutto naturale si possono definire le operazioni
di somma e di moltiplicazione per numeri complessi:
(A + B) �⇠� ≡ A �⇠� + B �⇠�
( A) �⇠� ≡ A �⇠�
La matrice rappresentativa della somma A + B in una qualunque base è data dalla somma
delle rispettive matrici. Ora, ogni operatore lineare si può esprimere come combinazione
lineare degli n2 operatori E(ij) aventi rappresentazione matriciale
�k� E(ij) �h� ≡ ki jh
cioè la matrice E(ij) ha tutti elementi nulli, tranne quello nella k−esima riga, h−esima
colonna. Ovviamente
Aij = � Akh ki hj = � Akh Eij
(kh)
kh kh
�⇠, t� = A �⇠, t�
d
dt
ovvero in componenti
� ⇠1(t)� � a11 a12 a13 . . . a1n� � ⇠1(t)�
⇠2(t)� � a21 . . . a2n� � ⇠2(t)�
d �� � � �� �
a22 a23
� ⇠3(t)� = � a31 . . . a3n� � ⇠3(t)�
dt � � � �� �
a32 a33
� ⋮� � ⋮ � ⋮� � . . .�
�⇠n(t)� �an1 an2 an3 . . . ann� �⇠n(t)�
ha come soluzione formale
�⇠, t� = exp{t A} �⇠, 0�
dove exp{t A} ≡ ∑0
∞
tn An�n!.Si pone il problema di controllare la convergenza di una
serie di potenze in un operatore lineare. A tale scopo conviene introdurre il concetto di
norma:
Definizione 3.1.2. Si dice che l’applicazione A ∈ B � �A� ∈ R+ definisce una norma
se sono soddisfatte le seguenti condizioni
i) �A� ≥ 0, (�A� = 0 ⇒ A = O)
ii) � A� = � ��A� ( ∈ C)
iii) �A + B� ≤ �A� + �B�
iv) �A B� ≤ �A� �B�
Una possibile definizione di norma è data da
�A⇠�
�A� = sup = max �A �⇠��
�⇠� �⇠�⇠�=1
L’uso del simbolo �.� in vari contesti potrebbe ingenerare confusione: usiamo �aij� per indicare
sinteticamente una matrice A,��⇠�� per la lunghezza del vettore �⇠� e ora per indicare la norma di
un operatore. Dal contesto dovrebbe essere chiaro a quale caso di faccia riferimento, comunque
si richiede al lettore una certa attenzione. Il vantaggio è quello di non introdurre un numero
eccessivo di notazioni diverse. ◁
N N N
Nel caso di funzioni “intere”, cioè con la sola singolarità all’infinito, la serie di Taylor
converge per ogni operatore lineare. Vedremo in seguito un metodo generale per il calcolo
di funzioni di operatore basato sulla “teoria spettrale”. Per il momento notiamo che,
essendo B(C) uno spazio a dimensione finita, nella successione {Aj � j = 0, 1, 2, ..., k, ...} da
un certo k in poi le potenze di A saranno linearmente dipendenti dalle potenze più basse.
Ciò permette in alcuni casi di sommare rapidamente la serie di Taylor. Si mostrerà più
avanti che esiste per ogni operatore lineare A un polinomio P(z) di ordine non superiore a
n = dim(C) tale che P(A) = 0; questo polinomio si calcola facilmente una volta introdotta
una rappresentazione in una base e cioè P(z) = det(z − A) e risulta indipendente dalla
base prescelta.
Problema 3-2. Calcolare la funzione exp{i t 1} essendo 1 la prima matrice di Pauli
(vedi il § 2.3.1 a pag.30).
0 (it)
Soluzione. La serie ∑∞ n n�n! si può facilmente risommare osservando che 2
=
1 i
e quindi
∞
(it)n n ∞ (-)n t2n ∞
(-)n t2n+1
� = � + �
n! 1 n=0 (2n)! n=0 (2n + 1)!
i 1
0
= cos(t) + i sin(t) 1
=� �
cos(t) i sin(t)
i sin(t) cos(t)
◁
Problema 3-3. Lo stesso problema precedente ma per la matrice
1 �
0 1 0�
J = √ �1 0 1� .
2 �0 1 0�
Soluzione. Suggerimento: cercare una relazione che leghi J3 alle potenze inferiori.
Provare a utilizzare il risultato anticipato nel testo.
Problema 3-4. Si calcoli la funzione f( 1) per
(a) f(z) = sin(z)
(b) f(z) = 1�(1 + "z)
(c) f(z) = log(1 + "z)
Si sarà notato, nell’ultimo problema, che si sono considerate anche funzioni non intere, e
quindi la convergenza non vale incondizionatamente (vincolo su "). La funzione ( +A)-1 ritorna,
se esiste e se la serie converge, giusto l’operatore inverso di +A. Questo caso particolare rientra
◁
in uno ben più generale che vedremo in seguito.
Il linguaggio matlab o↵re un ausilio molto potente per manipolare matrici e vettori, costi-
tuendo un vero e proprio laboratorio di calcolo. Assumiamo che il lettore sia familiare con le
basi del linguaggio e le convenzioni adottate. In matlab la funzione esponenziale di matrici è
realizzata dalla funzione expm, ad es.
>> s1=[0,1;1,0];
>> expm(i*pi/2*s1)
ans =
0 0 + 1.0000i
0 + 1.0000i 0
39
Operatori Lineari 3.1
>> t=linspace(0,2*pi,128);
>> [T,firstcolumn]=ode45(@pauli,t,[1;0]);
>> [T,secondcolumn]=ode45(@pauli,t,[0;1]);
(ode45 è solo una delle numerose routines di soluzione numerica di equazioni di↵erenziali ordi-
narie; si consulti la documentazione per scegliere quella più adatta al proprio problema). Caso
per caso sarà chiaro se interessa l’intera matrice exp{A} oppure la sua azione su un singolo
vettore e si sceglierà di conseguenza la routine più economica. Se si desidera un risultato esatto
si può utilizzare un linguaggio simbolico quale Mathematica:
Tuttavia conviene agli inizi allenarsi a calcolare senza questi ausili automatici – inoltre non è
consigliabile affidarsi acriticamente a questi strumenti! ◁
40
3.1. DEFINIZIONI FONDAMENTALI
La formula di Lagrange per l’inversa di una matrice è consigliabile solo per matrici di piccole
dimensioni; infatti il numero di operazioni necessarie cresce come il fattoriale della dimensio-
ne della matrice. Esistono algoritmi molto più efficienti (Gauss) e questi sono utilizzati nei
programmi di calcolo automatico. Si veda [GL96]. ◁
41
Operatori Lineari 3.2
= (z2 − 1)-1 � �
z1
1z
Se ne deduce che (A) = {1, -}. Come dominio U possiamo scegliere ad esempio un cerchio
di raggio maggiore di uno centrato in z = 0. Si trova allora
e�
xp(A) = � � dz
1 eitz z 1
‰
2⇡i z2−1 1 z
�z�=2
I1 =
1 eitz
‰
z2−1
dz
2⇡i
�z�=2
I2 =
1 eitz
‰
z2−1
z dz
2⇡i
�z�=2
che si valutano con il metodo dei residui. Il risultato finale è stesso che avremmo ottenuto
sommando la serie di Taylor
e� 1�2) =� �.
cos(t�2) i sin(t�2)
xp(i t
i sin(t�2) cos(t�2)
◁
Problema 3-6. Applicare la definizione al caso f(z) = eitz e
�0 -i 0�
A → � i 0 -i�
�0 i 0�
◁
Una prima proprietà importante della applicazione f^ è la seguente
43
Operatori Lineari 3.2
f̂1(A) f̂2(A) = f�
1 f2(A)
se f1 e f2 sono definite in un dominio comune che soddisfi alle ipotesi della Def. 3.2.1.
Dimostriamo preliminarmente il
Lemma. Per il risolvente vale l’identità
R(z) − R(w)
R(z) R(w) = −
z−w
(3.6)
(2⇡i)2
@U1 @U2
(2⇡i)2 z − z′
dz dz
@U1 @U2
��� � � � � � � � � � � � � � ��� � � � � � � � � � � � � � � ��
�⇒−2⇡if2 (z)
f1(z)
+ f2(z ′ ) R(z ′ ) dz dz ′
1
‰ ‰
(2⇡i)2 z − z′
@U2 @U1
��� � � � � � � � � � � � �� � � � � � � � � � � � ��
�⇒ 0
2⇡i
@U1
avendo applicato due volte il teorema di Cauchy, nel secondo caso z è esterno al cammino
di integrazione e quindi l’integrale si annulla. �
Ciò mostra in definitiva che la definizione di f^ rispetta la struttura algebrica delle
funzioni analitiche sotto somma e prodotto. Questo fatto sarà molto utile nel seguito.
3.2.1. Proprietà dello Spettro.
Teorema 3.2.3. Autovettori corrispondenti ad autovalori distinti sono fra loro linear-
mente indipendenti.
Dimostrazione. Siano { 1, ..., r} autovalori distinti di A e {� 1� , ..., � r�} gli auto-
vettori corrispondenti. Supponiamo che valga la relazione
� ck � k� = 0
r
1
Applicando 1, 2, .., r − 1 volte l’operatore A si otterrà
� k� = 0 (j = 1, ..., r) .
r
� ck
j-1
k
1
44
3.2. TEORIA SPETTRALE
(A, z) = det(z − A) = � (z − k)
m
rk
.
k=1
Il generico elemento di matrice del risolvente è della forma
(z − A)ij =
Aij
(A, z)
ossia è una funzione razionale di z avente poli di ordine ≤ rk nei punti che costituiscono lo
spettro. La formula di Riesz–Dunford si può allora trasformare introducendo lo sviluppo di
Taylor di f(z) attorno a ciascun autovalore. Siano k contorni semplici ciascuno contenente
al suo interno un solo autovalore (vedi Fig. 3-3).
45
Operatori Lineari 3.2
= ∑k
⌫ ⌫
Figura 3-3. @U k
Troviamo dunque
f ( k)
rk -1 (`)
= (z − A) (z − k) dz
m
� �
1
‰
(3.7) ^
f(A) - 1 `
2⇡i k=1 k `=0 `!
f ( k) (`)
m rk -1 (`)
≡� � Ek ,
k=1 `=0 `!
(`)
dove si sono introdotti gli operatori Ek secondo la definizione
Ek ≡ (z − A)-1 (z − k)` dz .
(`) 1
‰
2⇡i k
Scriveremo allora
r( )-1
f(`) ( ) (`)
(3.8) ^
f(A) = � � E ,
∈ (A) `=0 `!
Siamo ora in grado di dimostrare alcune proprietà fondamentali dalla corrispondenza
f(z) � f(A)
^ definita attraverso la formula di Riesz–Dunford - una proprietà la abbiamo
già mostrata in precedenza (Teor. 3.2.2).
Teorema 3.2.4. Se f(z) = zm allora f(A)
^ = Am
Dimostrazione. Segue dal Teor. 3.2.2, tuttavia una dimostrazione diretta o↵re qual-
che spunto interessante (Cauchy al lavoro). Per m = 0 si ha
(z − A) dz = ( − A�z)-1
1 1 dz
‰ ‰
- 1
2⇡i @U 2⇡i @U z
46
3.2. TEORIA SPETTRALE
2⇡i ∈ (A)
Analogamente si trova
A= � � E +E �
(0) (1)
∈ (A)
e in generale
Ak = � � kE +k + ...�
(0) k-1 (1)
E
∈ (A)
(2⇡i)
(3.9) 2
′
= dz R(z)(z − ) (z − ′ )` (z ′ − z)-1 dz ′
1 ′
‰ ‰
`
(2⇡i)2
′
��� � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � ��� � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � ��
(�)
+ dz ′ R(z ′ )(z ′ − )
′ `′
(z − )` (z − z ′ )-1 dz
1
‰ ‰
(2⇡i)2
′
��� � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � �� � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � ��
(��)
Consideriamo prima il caso ≠ ′ : in entrambi gli integrali che non contengono il risolvente
(� e ��) la singolarità è esterna al cammino di integrazione e dunque otteniamo il fattore
′ . Per = ′ , scegliamo interno a ′ . Allora �� si annulla e il primo integrale ci dà
quanto a↵ermato dal teorema. �
47
Operatori Lineari 3.2
(3.11) = � P
∈ (A)
e la decomposizione spettrale
(3.12) A= � ( P +E )
∈ (A)
P Pµ = µP P Eµ = Eµ P = µE
Operatori, che come gli operatori P, soddisfano l’identità P2 = P si dicono operatori di
proiezione. ◁
Allora vale 0(A) = 0, e o è il polinomio di grado minimo tra tutti quelli per cui p(A) = 0.
Dimostrazione. Si applichi la (3.10) con f(z) = 0(z). Ovviamente un polinomio
di grado inferiore darebbe luogo a una derivata non nulla in qualche termine del tipo
E . Si noti che il polinomio caratteristico soddisfa (A) = 0, un risultato che era
f(`) ( ) `
�
`!
noto a Cayley .
Siamo ora in grado di formulare il teorema generale sulla diagonalizzabilità .
Teorema 3.2.7. Per ogni operatore lineare A in uno spazio lineare n−dimensionale
C, le seguenti a↵ermazioni sono equivalenti:
i) A è diagonalizzabile, cioè ammette una base di autovettori;
48
3.2. TEORIA SPETTRALE
� 0 ....................... 0 �
� �
1 r 1
� 0 0 ................ 0 �
� �
2 r 2
� �
� �
0 0 3 r 3 0 ............. 0
� ⋮ � �� ⋮ �
� �
� ⋮ �� � ⋮ �
� �
� �
� 0 . . . . . . . . . . . . . . . . 0 m-1 r 0 �
� �
m -1
0 .................. 0 m r m
�Or 1 0 .................................... 0 �
� 0 ( 2 − 1) r �
� 0 ...................... 0 �
� 0 ( 3 − 1) r 3 0 . . . . . . . . . . . . . . . . . . . . �
� �
2
� �
0 0
A− 1=� ⋮ � �� ⋮ �
� �
� ⋮ �� � ⋮ �
� �
� 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 ( m-1 − 1) r �
� 0 �
� 0 ................................ �
m -1
0 ( m− 1) r m
�( 1− m) r 0 ..................................... 0 �
� ( 2− m) ....................... 0 �
1
� �
0 r 2 0
� ( 3 − m) r 3 0 . . . . . . . . . . . . . . . . . . . . . 0 �
� 0 0 �
A− m=�
� ⋮ � �� ⋮ ��
� ⋮ �� � ⋮ �
� �
� �
� 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 ( m-1 − m) r 0 �
� 0 ................................. 0
m -1
Or m �
e questo fissa (i) �⇒ (iv). Sia ora (A) ≡ ∏k(A − zk) = 0, con tutti gli zk distinti (iv)).
Ne segue
(z) − (A)
R(z) = (z − A)-1 ≡
1
(z) z −A
;
A= � P
∈ (A)
Dalla relazione di completezza Eq. (3.11) inoltre per ogni vettore vale la decomposizione
�⇠� = � P �⇠� .
∈ (A)
il che mostra che ogni vettore è decomponibile in componenti che sono autovettori di A.
Assumiamo ora che gli autovettori di A non formino una base. Sia �altro� uno dei vettori
linearmente indipendente dagli autovettori che si debbono aggiungere per ottenere una
base. Ma anche �altro� si può decomporre in �altro� = ∑ ∈ (A) P �altro� ed è quindi
esprimibile come combinazione lineare di autovettori, il che contraddice l’ipotesi. �
Gli operatori di proiezione (X2 = X) sono diagonalizzabili; al contrario gli operatori nilpotenti
(E⌫+1 = 0) non sono diagonalizzabili. ◁
A titolo di curiosità, perchè la cosa non rappresenta grandi vantaggi sul piano pratico,
^
citiamo il seguente risultato: per ogni funzione f(z) tale che f(A) sia ben definita, esiste un
polinomio Pf(A) di grado non superiore a dim(C) − 1 tale che Pf(A) ≡ f(A). ^ Il polinomio
è dato dalla formula integrale
f(z) 0(z) − 0(⇣)
Pf(⇣) =
1
‰
0(z) z−⇣
dz .
2⇡i
infatti
f(z) 0(z) − 0(A)
Pf(A) =
1
‰
0(z) z −A
dz
2⇡i
^ in quanto 0(A) ≡ O.
e la formula coincide con la definizione di f(A)
Ci si può chiedere cosa succede nel caso in cui non valgano le condizioni del Teor. 3.2.7.
L’operatore in questo caso non possiede abbastanza autovettori per costruire una base. La sua
forma matriciale standard non sarà una matrice diagonale, bensı̀ una matrice del tipo
� 1 r + Er 0 ........................................ 0 �
� + Er �
1 1
� 0 0 ......................... 0 �
� �
2 r
� + �
2 2
E
� �
0 0 3 r 3 r 3 0 ....................... 0
� ⋮ � �� ⋮ �
� �
� ⋮ �� � ⋮ �
� �
� + Er �
� 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 m-1 r 0 �
� �
m -1 m -1
0 ................................. 0 m r m
+ Er m
Meccanica Quantistica sono per lo più libere da questa complicazione. Un esempio di matrice
di questo tipo è la seguente
�0 1 0 0 �
�0 0 1 0 �
X=� �
�0 0 0 0 �
�0 0 0 a�
Il polinomio caratteristico è (z) = z3(z − a), e la matrice ammette solo due autovettori
�1� �0�
�0� �0�
�1� � � � , �2� � � �
�0� �0�
�0� �1�
L’autovalore 0 ha molteplicità 3, ma il risolvente ha in 0 un polo del terzo ordine:
� 0 1�z 1�z2 0 �
R(z) = � �
� 0 0 1�z 0 �
� 0 0 1 �
0 z−a
e dunque ⌫0 = 2. Si noti che matrici di questo tipo costituiscono un problema anche dal punto
di vista numerico, in quanto il calcolo dello spettro può presentare instabilità. Consideriamo
infatti una matrice leggermente modificata
�0 1 0 0�
�0 0�
X(") = � �
0 1
�" 0 0 0�
�0 0 0 a�
Lo spettro in questo caso è dato da (X(")) = {"1�3, "1�3 e2⇡i�3, "1�3 e4⇡i�3, a} cioè esso è costituito
da quattro autovalori distinti e la matrice risulta diagonalizzabile. Immaginiamo cosa succede se
invece di un blocco 3-dimensionale si trattasse di un blocco K-dimensionale con K molto grande
e ammettiamo che " sia in realtà un piccolo errore che si è inserito nel calcolo della matrice
ottenuta per via numerica. L’errore sullo spettro risulta dell’ordine di "1�K che può risultare
molto grande anche se " ≈ 10-16. Le problematiche relative alla diagonalizzazione di matrici
anche di grandi dimensioni sono a↵rontate esaurientemente su [GL96]. ◁
1
perilteatrodiRitaognifuriadi
♯
⌘ = H† ⌘ .
51 puòun recintocomeprodotto solare
Operatori Lineari 3.3
Segue che
(H − )m-1 � � = 0
infatti, essendo reale si ha
�(H − )m-1 � �� = � � (H − )m-2(H − )m � � = 0
2
in S1⊥ . Sia �2� un autovettore comune in S1⊥ . Procedendo successivamente in questo modo,
si ottiene una base comune ortogonale. Il viceversa è ovvio, in quanto matrici diagonali
commutano tra loro. �
Teorema 3.3.10. Un operatore lineare è diagonalizzabile in una base ortogonale se e
solo se esso è normale.
Dimostrazione. Dimostriamo la necessità. Sia Nij = i ij la matrice che rappre-
senta N nella base dei suoi autovettori. Allora N † è diagonale con elementi Nij = i ij (per
questo è essenziale che la base sia ortogonale) le due matrici rappresentative commutano
e dunque N è normale. Viceversa, supponiamo che N sia normale, e poniamo
H1 = N + N † , H2 = i(N − N † ) .
H1 e H2 sono operatori autoaggiunti e commutanti, cui si può applicare il teorema
precedente. Indipendentemente dal Teor. 3.3.9 si può argomentare anche come segue:
sia
(N − )⌫ �⇠� = 0
Mostriamo che ciò implica (N − ) �⇠� = 0 e quindi che il polinomio minimale di N deve
avere tutte radici semplici. Sia N ≡ N − e per ogni k compreso tra 0 e ⌫ troviamo
�N N �⇠�� = �⇠� N N
⌫-k †k k † ⌫-k
N ⌫-k N † k �⇠� = �N ⌫ �⇠�� = 0 .
Ne segue N ⌫-kN † k �⇠� = 0 e anche (N ± N † )⌫ �⇠� = 0 . Ma (N + N † ) e i(N − N † ) sono
autoaggiunti per cui si conclude che N �⇠� = 0. �
3.4. Funzioni di più operatori lineari
3.4.1. Insiemi completi di operatori autoaggiunti. Consideriamo un certo nu-
mero ` di operatori autoaggiunti A1, A2, ..., A` a due a due commutanti. Ad ognuno di
essi è associata una decomposizione spettrale
Aj = �
(j) (j)
i Pi .
i
(j)
Lemma. I proiettori Pi commutano tutti a due a due.
Dimostrazione. È noto che i proiettori sono esprimibili attraverso la formula di
Riesz–Dunford in termini del risolvente dell’operatore e quindi sono funzioni dell’opera-
tore; la commutatività è quindi diretta conseguenza della commutatività degli operatori
Aj. �
Teorema 3.4.1. Gli operatori
Pi1 i2 ...i` ≡ Pi1 Pi2 . . . Pi`
(1) (2) (`)
55
Operatori Lineari 3.4
Definizione 3.4.1. Gli operatori A1, A2, . . . , A` si dicono costituire un insieme com-
pleto di operatori autoaggiunti commutanti se ogni proiettore Pi1 i2 ...i` proietta su un
sottospazio mono–dimensionale oppure è l’operatore nullo.
Teorema 3.4.2. Gli operatori A1, A2, . . . , A` formano un insieme completo di operato-
ri autoaggiunti commutanti se e solo se ogni altro operatore autoaggiunto B che commmuti
con tutti gli Aj è una funzione di A1, A2, . . . , A`.
Dimostrazione. Dalla definizione segue che per ogni scelta di autovalori j esiste al
più un autovettore � i1 i2 ... i` �; Dalla commutatività segue che anche B � i1 i2 ... i` �
(1) (2) (`) (1) (2) (`)
�
È chiaro che se qualche Pi1 i2 ...i` proietta su un sottospazio a dimensione maggiore di uno
esisteranno operatori commutanti con tutti gli Aj , ma non esprimibili in termini degli stessi
proiettori. In genere si aggiungono allora uno o più operatori per “completare” l’insieme. La
definizione di insieme completo è importante in Meccanica Quantistica (si parla allora di “insiemi
completi di osservabili commutanti”). ◁
k=0
Sia �St� che �Tt� sono minori di exp( n1 (�A� + �B�)), e perciò
�Stn − Ttn� ≤ n �St − Tt� exp(�A� + �B�) .
Si tratta di mostrare che il limite di quest’ultima espressione per n → ∞ vale 0. Svilup-
pando in serie si trova
S t − Tt = [A, B] + O(1�n3)
1
2n2
e perciò lim (n �St − Tt�) = 0. �
n→∞
n=0 n!
La terminologia discende dalla teoria dei gruppi di Lie; Ad X corrisponde alla rappresentazione
aggiunta dell’algebra di Lie. ◁
n→∞
j=1
n→∞
j=1
n→∞
Questa formula viene applicata al caso degli operatori “canonici” che soddisfano le regole
di commutazione di Heisenberg [a, a† ] = . Tuttavia gli operatori canonici esistono solo
nello spazio di Hilbert (∞−dimensionale, vedi Cap. 4.3.3). Ci si può chiedere se, almeno,
esistano matrici finite cui applicare la formula di BCH : [A, [A, B] = [B, [A, B] = 0. La
risposta è a↵ermativa tuttavia queste condizioni pongono severe restrizioni sulle matrici
A e B (vedi Eserc. 72 e segg.).
In generale il prodotto eA eB è esprimibile come uno sviluppo infinito nella forma (per
lo sviluppo completo si vedano le note alla fine del capitolo e anche il Probl. 81):
(3.14) eA eB = exp {H(A, B)}
H(A, B) = A + B + 12 [A, B] + 12
1
[A, [A, B]] + 12
1
[B, [B, A]] − 24
1
[A, [B, [A, B]]] + . . .
58
3.4. FUNZIONI DI PIÙ OPERATORI LINEARI
(Si parla in questi casi di “inverso generalizzato”). Il calcolo del risolvente è ottenibile
semplicemente da
�E0′ �
R0(E0) �E0′ � =
E0′ − E0
R0(E0) �E0� ≡ 0 .
Se a questo punto inseriamo gli sviluppi in serie nell’equazione precedente otteniamo la
seconda relazione di ricorrenza
Le Eq. (3.19),(3.20) formano un algoritmo ricorsivo che in linea di principio può generare i
coefficienti della serie perturbativa ad ogni ordine per il caso non–degenere. Il vantaggio di
60
3.4. FUNZIONI DI PIÙ OPERATORI LINEARI
1 = �E0� V �E0�
�⌘1� = −R(E0) V �E0�
� �E0� V �E0′ � �2
2 = − �E0� VR(E0)V �E0� = �
E′ ≠E0 E0 − E0′
0
61
Operatori Lineari 3.4
Poche righe di Mathematica danno il risultato in pochi decimi di secondo utilizzando diret-
tamente la routine di diagonalizzazione:
pert ex1.nb
H0[n_]:= SparseArray[{i_,i_}->i,{n,n}]
V[n_] := SparseArray[{{i_,j_}/;Abs[i-j]==1 -> 1},{n,n}]
H[n_] = H0[n]+a V[n];
Series[Eigenvalues&[[H[10],{a,0,6}]]
↼
che fornisce in output (" �
� a)
a4 7a6 127a8
1 − a2 + − + + O(a10)
2 12 144
a4 2a6 15a8
2− + − + O(a10)
2 3 16
a6 a8
3− + + O(a10)
12 16
a8
4+ + O(a10)
144
5 + O(a10)
......
Si nota che al crescere di n (fino a n = N�2) l’autovalore En presenta una correzione −"2n�(n!(n−
1)!). Viene spontaneo chiedersi se ci sia un modo semplice di capire questo fatto (vedi il
◁
Probl. 80).
Il programma Mathematica PertTh.nb, incluso nel disco in dotazione del libro, permette
di risolvere problemi elementari di teoria delle perturbazioni in modo automatico. È naturale
chiedersi il motivo di e↵ettuare calcoli di questo genere “con carta e matita” quando l’uso del
computer può alleviare la fatica. Il consiglio è sempre quello di familiarizzarsi con l’argomento
senza l’uso del calcolatore e solo in seguito, con le idee chiare, risparmiarsi la fatica. Ai primi
passi è addirittura consigliabile l’uso del regolo calcolatore... ◁
Esempio. Sia H = H0 + "V, essendo (H0)ij = N2(2 i,j- i,j+1- j,i+1) e Vij = N12 j (N-j) ij,
dim(C) = N-1. Lo spettro di H0 è noto (En = 2N2(1- cos( n⇡
N ))). La teoria delle perturba-
zioni al primo ordine dà
N-1
= N � sin ( )
(n) 2 2 nj⇡ j(N-j)
1 .
j=1 N N2
mentre al secondo ordine la formula è meno maneggevole
=
(n) 2
�
N )- cos( N )
N4
.
2
m≠n Cos( n⇡ m⇡
62
3.4. FUNZIONI DI PIÙ OPERATORI LINEARI
√ √
Esempio. Sia H = H0 +"V, essendo (H0)ij = j-1 ij e Vij = i,j+1 i+ j,i+1 j; per N = 10
√
si ha ad es.:
� √0 " 1 √ 0 0 0 0 0 0 0 0 �
�" 1 1 " 2 0 0 �
� �
� 0 "√2 2 "√3 0
0 0 0 0 0
�
� √ √ �
� �
0 0 0 0 0
� 0 �
� 0 " 3 √
3 " 4 √0 0 0 0 0 �
� 0 0 �
� 0 " 4 √ 4 " 5 √ �
H�� �
0 0 0 0
� 0 0 �
� 0 0 0 " 5 √ 5 " 6 √ 0 0 �
� 0 0 �
� 0 " 6 √ 6 " 7 √ �
� �
0 0 0 0
� 0 0 �
� 0 " 7 √ 7 " 8 √ �
� 0 8 " 9�
0 0 0 0
� 0 0 0 0 0 0 " 8 √ �
� 0 0 0 0 0 0 0 0 " 9 9 �
= 0 (elementi diagonali della pertur-
(n)
La teoria delle perturbazioni al primo ordine dà 1
bazione). Al secondo ordine
�V12�2
= = -1
(1)
2
E0(1)-E0(2)
�V21�2 �V23�2
= + = -1
(2)
2
E0(2)-E0(1) E0(2)-E0(3)
�V32�2 �V34�2
= + = -1
(3)
2
E0(3)-E0(2) E0(3)-E0(4)
��
�VNN-1�2 �VN-1N�2
= + = -1
(N-1)
2
E0(N)-E0(N-1) E0(3)-E0(4)
�VN,N-1�2
= = N-1
(N)
2
E0(N)-E0(N-1)
Poche istruzioni di Mathematica aiutano a destreggiarsi nei calcoli algebrici dell’esempio
precedente. Si veda pert ex6.nb. ◁
3.4.4.2. Autovalori degeneri. Nel caso l’autovalore imperturbato corrisponda a più di
un autostato (P proietta su un sottospazio a dimensione > 1) le formule del paragrafo
precedente devono essere modificate. Già il punto di partenza è da studiare attentamente:
la base di autovettori è definita a meno di trasformazioni unitarie all’interno del sotto-
spazio degenere (come succede in un corpo rigido con simmetria assiale, un caso in cui gli
assi principali di inerzia non sono definiti univocamente). Perciò si deve per prima cosa
individuare la base corretta nel limite di perturbazione zero. Siano �E0, ↵� {↵ = 1, 2, ..., r} i
vettori di base nel sottospazio degenere appartenenti all’autovalore E0. L’equazione (3.17)
diventa perciò
(H0-E0) �E", ↵� = (E"-E0) �E", ↵� -"V �E", ↵�
e prendendo il prodotto interno con �E0, � otteniamo
" �E0, � V �E0, ↵� = (" 1 + O(" )) �E0, �E", ↵�
2
(t) = A (t)
d
(3.21)
dt
dove (t) è un vettore dipendente dal tempo t e A è un operatore lineare che può essere
a sua volta funzione del tempo. Consideriamo per il momento il caso di A indipendente
dal tempo. Allora è immediato verificare che
(t) = exp{tA} (0)
è la soluzione del sistema. L’esponenziale dell’operatore si può, almeno in linea di
principio, calcolare con i metodi della teoria spettrale: se A = ∑ ( P + E ) allora sarà
Nella pratica si devono a↵rontare vari problemi per portare in fondo il calcolo. Tutto
dipende dalla dimensione della matrice, dalle sue caratteristiche (diagonalizzabilità, po-
sizione e natura dello spettro, quasi–degenerazione degli autovalori, stabilità rispetto a
piccole perturbazioni, ad es. gli errori introdotti dalla aritmetica a numero finito di cifre,
etc. - si veda ad es. [ML78]).
Se l’operatore è dipendente dal tempo la teoria spettrale non è più applicabile, all’in-
fuori del caso particolare in cui tale dipendenza sia banale e cioè
A(t) = � j(t) Pj
j
(A(t) è funzione di A(0), dunque con gli stessi proiettori spettrali P). In questo caso si
avrà ˆ t
(t) = � e 0 (⌧)
Pj (0) ≡ exp � A(⌧) d⌧� (0) .
´t
j d⌧
j 0
65
Operatori Lineari 3.4
In generale tuttavia l’equazione precedente non è soluzione della Eq. (3.21): se A(t) e
A(t ′ ) non possono essere diagonalizzati simultaneamente per ogni coppia (t, t ′ ), non vale
la formula di derivazione
ˆ t ˆ t
exp � A(⌧) d⌧� = A(t) exp � A(⌧) d⌧� .
d ?
(?)
dt 0 0
Si procede allora nel modo seguente: si definisce U(t) l’operatore lineare che soddisfa
l’equazione
U(t) = A(t) U(t) , U(0) = ,
d
dt
e integrando entrambi i membri si ottiene
ˆ t
U(t) = + A(⌧) U(⌧) d⌧ .
0
Quest’ultima equazione si può iterare per ottenere
ˆ t ˆ t ⌧
U(t) = + A(⌧) U(⌧) d⌧ + A(⌧) A(⌧ ′ ) U(⌧ ′ ) d⌧ ′ d⌧
ˆ
0 0 0
e dopo n iterazioni
t t ⌧
U(t) = + A(⌧) U(⌧) d⌧ + A(⌧) A(⌧) d⌧ ′ d⌧ + ...+
ˆ ˆ ˆ
0 0 0
ˆ t ˆ ⌧1 ˆ ⌧n−2
... A(⌧1) A(⌧2)...A(⌧n−1) d⌧1d⌧2...d⌧n−1
0 0 0
ˆ t ˆ ⌧1 ˆ ⌧n−1
... A(⌧1) A(⌧2)...A(⌧n) U(⌧n) d⌧1d⌧2...d⌧n .
0 0 0
Al limite per n → ∞ si ottiene la soluzione
∞
ˆ t ˆ ⌧1 ˆ ⌧n−1
(3.22) U(t) = + � ... A(⌧1) A(⌧2) . . . A(⌧n) d⌧1 d⌧2 . . . d⌧n
n=1 0 0 0
L’equazione precedente assomiglia all’ esponenziale exp 0 A(t ′ )dt ′ con la di↵erenza fon-
´t
damentale che nel suo sviluppo in serie compaiono prodotti A(t1)A(t2) . . . A(tn) in cui gli
argomenti sono strettamente ordinati t1 > t2 > . . . tn. Si introduce di solito l’operatore di
ordinamento temporale T che agisce su ogni prodotto A(t1)A(t2) . . . A(tn) permutando
i fattori in modo che gli argomenti soddisfino la proprietà di ordinamento. Ad es.
A(t)A(s) per t > s
T (A(t) A(s)) = �
A(s)A(t) per t < s
L’Eq. 3.22 si può allora scrivere formalmente
t
U(t) = T �exp A(s)ds�
ˆ
Si tratta ovviamente di una scrittura compatta in tutto e per tutto equivalente alla
Eq. 3.22 e la sua utilità consiste quasi esclusivamente nella sua facile memorizzabilità;
solo in casi molto speciali questa espressione può essere sfruttata in modo sintetico senza
passare attraverso lo sviluppo in serie. L’Eq. 3.22 è nota in meccanica quantistica come
“sviluppo di Dyson” (ma è in realtà dovuta a Vito Volterra).
66
3.4. FUNZIONI DI PIÙ OPERATORI LINEARI
0
La soluzione dell’equazione è pertanto
t
(t) = e T �exp e−t H0 V(t ′ ) et H0 dt ′ � (0) .
′ ′
ˆ
tH0
0
d
Come applicazione determiniamo la derivata exp A(t): si ha
dt
d
exp A(s) = lim �eA(s+h) − eA(s) �
1
ds h→0 h
d
Identificando A(s) con H0 e h A(s) con V possiamo applicare lo sviluppo di Dyson:
ds
ˆ 1
dA(t) ⌧A(t)
eA(s+h) = eA(s) + h e(1−⌧)A(s) e d⌧ + O(h2) ,
0 dt
e perciò
d
ˆ 1
dA(s) ⌧A(s)
exp A(s) = eA(s) e−⌧A(s) e d⌧
ds 0 ds
dA(s) 1 A(s) dA(s)
= eA(s) − 2e �A(s), � + ...
ds ds
◁
67
Appendice II
dove w(x) è una funzione positiva quasi dappertutto nell’intervallo (a, b), che chiameremo
“peso” (tale intervallo potrà essere finito o infinito, potendosi sempre ricondurre alle scelte
(−1, 1), (0, +∞), (−∞, +∞)). I monomi 1, x, x2, ..., xN formano una base in PN. La matrice
metrica è data in questa base da
b
hij = w(x) xi+j dx ≡ mi+j
ˆ
��� m0 . . . mk ����
���
. . . mk+1 ����
m1 m2
��� m1 �
Pk(x) = Nk ���� ⋮ . . . ⋮ ����
m2 m3
⋮ ⋮
��� �
���mk−1 . . . m2k−1����
. . . xk ����
mk mk+1
��� 1 x x2
È facile verificare attraverso un calcolo esplicito che Pk(x) è ortogonale a tutti i polinomi
di grado inferiore: sviluppando Pk secondo la formula di Lagrange applicata all’ultima
riga,
�xj�Pk� = � G(k)
i �x �x � = � mi+j Gi
(k)
k
j i
i=0 i
(k)
avendo indicato con Gi il complemento algebrico di xi nel determinante che definisce
Pk; indicheremo anche semplicemente con Gn il complemento algebrico della potenza
†
Il grado massimo è arbitrario e infatti in tutto lo sviluppo della teoria può essere preso grande a piacere e
anche infinito, ma questo ci porterebbe direttamente al capitolo seguente.
69
Appendice II 3.5
(n)
massima, ossia Gn . Ne segue
��� m0 mk ����
���
mk+1 ����
m1 m2 ...
��� m1 �
�x �Pk� = ���� ⋮ ⋮ ����
m2 m3 ...
⋮ ⋮
��� �
j
...
���mk−1 m2k−1����
mj+k ����
mk mk+1 ...
��� mj mj+1 mj+2 ...
È chiaro che per 0 ≤ j < k il determinante si annulla avendo due righe uguali. La costante
Nk si può fissare per imporre la normalizzazione di Pk in base a qualche convenzione. Se
richiediamo �Pk� = 1 allora si dimostra che
Nn = (Gn Gn+1)−1�2, Gn ≡ Gn
(n)
Esempio. I polinomi di Legendre sono definiti per (a, b) = (−1, 1), w(x) = 1�2.
1
mk = xk dx =
ˆ
1 1+(−1)k
2 2(k+1)
−1
P1(x) = 1
P2(x) = � � = x
10
1x
���1 0 1�3���
� � 1
P3(x) = �����0 1�3 0 ����� = �x2 − �
1
���1 x x2 ��� 3
� �
3
��� 1 0 1�3 0 ���
��� �
��� 0 1�3 0 1�5�����
P4(x) = �� � = �x −
4 3
���1�3 0 1�5 0 ���� 135
3
x�
���� 1 x x2 x3 ����
5
70
3.5. POLINOMI ORTOGONALI
Per ottenere una base ortonormale si tratta ora di moltiplicare ciascun polinomio per la
costante di normalizzazione Nn. Otteniamo cosı̀
P0(x) = 1
√
P1(x) = 3 x
1√
P2(x) = 5 �3x2 − 1�
2
1√
P3(x) = 7 �5x3 − 3x�
2√
P4(x) = 18 9 �35x4 − 30x2 + 3�
...
Vedremo tuttavia che esistono tecniche più efficienti per calcolare i polinomi, ad es. quella
delle relazioni di ricorrenza e delle funzioni generatrici. ◁
3.5.2. Relazioni di ricorrenza.
Teorema 3.5.1. I polinomi ortogonali {Pn(x)} definiti rispetto a qualunque peso w(x)
soddisfano ad una relazione di ricorrenza del tipo
(3.23) x Pj(x) = aj Pj+1(x) + bj Pj(x) + cj Pj−1(x)
Dimostrazione. I polinomi Pn(x) formano una base, pertanto dovrà esistere uno
sviluppo del tipo
x Pn(x) = � ↵jnPj(x) .
n+1
j=0
I coefficienti dello sviluppo si possono ottenere prendendo il prodotto interno con Pj(x) :
�Pj�x Pn� = ↵jn �Pj�2
Tuttavia si ha �Pj�x Pn� = �x Pj�Pn�, come si controlla facilmente tenendo conto che i
polinomi sono a valori reali. Ne segue che
↵jn = 0 per j + 1 < n
e quindi lo sviluppo contiene solo tre termini. �
√
Supponiamo ora che i polinomi siano normalizzati, cioè �Pn� = 1, e indichiamo con
n = Gn�Gn+1 il coefficiente di xn di Pn(x). Si ha allora
x Pj(x) = x (j xj + . . .) = (j+1xj+1 + . . .)
j
j+1
il che mostra che nella Eq. (3.23) si deve avere aj =
j
. Di più, tenendo conto della
j+1
relazione di simmetria si ha
cj = �Pj−1�x Pj� = �x Pj−1�Pj� =
j−1
.
j
I coefficienti bk sono calcolabili, non cosı̀ semplicemente, a partire dal coefficiente di xn−1
[Erd55]; nel caso in cui il peso w(x) e l’intervallo (a, b) siano simmetrici rispetto a x = 0
si ha bk = 0 in quanto i polinomi sono a parità definita (ossia Pn contiene sono potenze
pari di x se n è pari, e solo potenze dispari se n è dispari).
71
Appendice II 3.5
√
Problema 3-1. Determinare la forma dei polinomi ortogonali nel caso (a, b) = (−1, 1),
w(x) = 1 − x .
2
√
Problema 3-2. Determinare la forma dei polinomi ortogonali nel caso (a, b) = (−1, 1),
w(x) = 1� 1 − x2.
Problema 3-3. Determinare la forma dei polinomi ortogonali nel caso (a, b) = (−1, 1),
w(x) = (1 − x)↵−1 (1 + x) −1.
3.5.3. Zeri dei polinomi ortogonali.
Teorema 3.5.2. Ogni polinomio Pn(x) di una base ortogonale ha tutti i suoi zeri reali
e semplici
Dimostrazione. Supponiamo che Pn abbia m zeri reali di molteplicità dispari, in-
dicati con x1, ..., xm, più altri eventuali zeri di molteplicità pari. Attraversando ciascuno
di questi punti Pn cambia segno; ora sia Q(x) = (x − x1)(x − x2) . . . (x − xm). Dato che Q
cambia segno in ciascun punto xj, il prodotto Q Pn ha sempre lo stesso segno. Dunque
il prodotto scalare �Pn�Q� non può annullarsi, ma allora Q deve avere un grado almeno
pari a quello di Pn, in caso contrario dovrebbe essere ortogonale a Pn. Ne segue che Pn
ha tutti zeri semplici e reali. �
Esiste un metodo molto efficace per determinare gli zeri dei polinomi di una qualunque
famiglia ortogonale dovuto a Golub e Welsch [GW69]; si riduce il problema a quello di
determinare lo spettro di una matrice tridiagonale simmetrica, il che può essere a↵rontato
con metodi molto efficienti (vedi [GL96]).
Partiamo dalla relazione di ricorrenza
x Pn(x) = anPn+1 + bn Pn(x) + cn Pn−1(x)
Fissiamo un n massimo, diciamo N. Allora la relazione si può riscrivere nel formato
seguente
Questa relazione parla da sola! Ogni zero xk di Pn+1(x) è autovalore della matrice a primo
membro costruita con i coefficienti della relazione di ricorrenza. Gli zeri si possono dunque
determinare diagonalizzando questa matrice, e per questo scopo sono disponibili algoritmi molto
efficienti. Il fatto poi che gli zeri siano semplici fa sı̀ che la accuratezza numerica sia ottima. Nei
programmi a disposizione su rete si troveranno i codici matlab per calcolare gli zeri e i pesi di
integrazione Gaussiana, definiti nel seguito, per tutti i polinomi “classici”. Di passaggio notiamo
che il fatto che gli zeri siano tutti distinti concorda con il carattere della matrice: gli autovalori
di una matrice tridiagonale con elementi tutti non nulli fuori della diagonale principale non
possono essere degeneri.
72
3.5. POLINOMI ORTOGONALI
L’idea che permette di calcolare gli zeri dei polinomi ortogonali si può utilizzare per altre
famiglie di funzioni speciali che soddisfino a una relazione di ricorrenza a tre termini, ad es. alle
funzioni di Bessel (vedi il Probl.35, a Pag.148).
basata sulle proprietà dei polinomi ortogonali (seguiamo direttamente la trattazione di [Hoc71]).
Cominciamo a considerare il caso in cui F sia un polinomio di grado 2n − 1 e definiamo allora
n
Pn(x)
'(x) = � F(xj)
j=1 (x − xj)Pn′ (x)
avendo indicato con x1, ..., xn gli n zeri reali e distinti di Pn(x) e Pn′ (x) = dPn�dx. Per il teorema
dell’Hôpital si ha che F e ' coincidono in tutti i punti xj; allora la di↵erenza F − ' è divisibile
per Pn(x)
b b
Pn(x)
F(x) w(x) dx = w(x) � F(xj)
ˆ ˆ
dx
a a j (x − xj)Pn′ (x)
b
+ Pn(x) Q(x) w(x) dx
ˆ
b
= � F(xj) Pn(x) dx
1 w(x)
ˆ
j Pn′ (x) a x − xj
I coefficienti
b
n,j = Pn(x) dx
1 w(x)
ˆ
Pn′ (x) a x − xj
si possono calcolare una volta per tutte essendo indipendenti da F(x). Si chiamano pesi della
formula di quadratura di Gauss. Si ha in definitiva l’identità
b
F(x) w(x) dx = � n,j F(xj)
ˆ
a j
73
Appendice II 3.5
che rappresenta una formula di quadratura esatta per tutti i polinomi di grado ≤ 2n − 1. Se
applichiamo la formula alle potenze 1, x, x2, ..., xn otteniamo il sistema
1=� n,j
j
m1 = � n,j xj
j
m2 = � 2
n,j xj
j
�
mn = � n
n,j xj
j
che ci fornisce il valore dei pesi .
Esempio. Sia n = 3 e consideriamo la formula di quadratura Gaussiana per
1 1
ˆ
F(x) dx
2 −1
� �
Gli zeri di P3 sono (− 3�5, 0, 3�5). I pesi si trovano risolvendo il sistema
� 1 1 1 �� 3,1� �m0� � 1 �
�x1 x2 x3� � 3,2� = �m1� = � 0 � .
�x21 x22 x23� � 3,3� �m2� �1�3�
I codici Legendre-Gauss.nb e Hermite-Gauss.nb contengono semplici istruzioni Mathematica
per calcolare i pesi. Questo ha solo uno scopo pedagocico, in quanto Mathematica contiene tutta
una suite di routine di integrazione anche multidimensionale. ◁
Mediante la tecnica illustrata nella sezione precedente mediante la quale si calcolano gli zeri,
è possibile anche calcolare i pesi j. Si veda ad es. [QSS07]; nel package annesso a queste
74
3.5. POLINOMI ORTOGONALI
w(y) dy 1 ∞ tn d n
= � � � [w(x) (x)n] = (x, t) .
w(x) dx w(x) n=0 n! dx
Per applicare la formula si deve esprimere y in funzione di x e t dalla Eq. (3.24)
(a) Polinomi di Hermite:
H (x)
w(x) = e−x , (x) = −1, y = x − t, ∑n nn! tn = exp{−(x − t)2 + x2} = ...
2
75
Appendice II 3.6
‡
√
Nel caso reale, G coincide con il volume del parallelepipedo avente spigoli u1 , ..., un .
76
3.6. DISUGUAGLIANZE FONDAMENTALI
y=x p−1
ha come funzione inversa x = yq−1
e quindi a �p e b �q rappresentano le due aree S1
p q
e S2 in figura
b
S1
S2
x
a
e ovviamente la somma S1 + S2 ≤ ab. Il segno di uguale vale solo per b = ap−1. Ne segue che
assumendo senza perdita di generalitචche �x�p = �y�q = 1
�xi�p �yi�q
� �xi yi� ≤ � � + �= 1
p + 1
q = 1.
i i p q
Ora dall’identità
�(�xi� + �yi�) = � �(�xi� + �yi�) �xi� + (�xi� + �yi�) �yi��
p p−1 p−1
i i
§
http://en.wikipedia.org/wiki/Minkowski inequality
¶
Se x e y soddisfano la disuguaglianza di Holder, anche x e µy la soddisfano per qualunque , µ.
77
Appendice II 3.6
78
Problemi
Il simboli � e �� indicano gli esercizi più impegnativi. Il simbolo # segnala che la soluzione,
n �∞
almeno parziale, è riportata in fondo al capitolo. Importante: Il segno sarà utilizzato
per segnalare argomenti dove la dimensione finita è cruciale e non è possibile estrapolare a spazi
∞−dimensionali, anche se la cosa non è evidente dal contesto. Una collezione molto ricca di
esercizi si trova su [GL74]..
Problema 1. Sia (e1, e2, ..., en) una base in uno spazio lineare R. Dimostrare che l’insieme
R ′ dei vettori che soddisfano la relazione x = ∑n
i=1 ci ei con
�
�a11c1 + a12c2 + ... + a1ncn = 0
�
�
�
�
�
�a21c1 + a22c2 + ... + a2ncn = 0
�
�
�
�⋮
�
�
�
�
�am1c1 + am2c2 + ... + amncn = 0
(m ≤ n) forma un sottospazio lineare di R. Qual’è la dimensione di R ′ ?
Problema 2. Siano (e1, e2, e3) vettori ortonormali. Dimostrare che i vettori (e1′ , e2′ , e3′ )
definiti da
�
� e1′ = √1 e1 + √i e2
�
�
� �
� ′
2 2
�e2 = √i e1 + √1 e2 + 23 i e3
�
�
�
�
6 6
�
� 3e ′
= √1 e1 + √1 e2 − √i e3
3 3 3
sono linearmente indipendenti.
Problema 3. Dimostrare che se i vettori di una base soddisfano la relazione
n
� �j� �j� =
j=1
det � � =
1 V(x) V(y)
1 − xiyj i,j=1,...,n ∏i ∏j(1 − xi yj)
.
79
Problemi 3.6
Problema 10. Sia Pn lo spazio lineare costituito dai polinomi a coefficienti complessi in
una variabile x con grado ≤ n. Sia ej = xj−1, j = 1, 2, ..., n − 1, n la base naturale dei monomi.
Determinare la matrice rappresentativa dei seguenti operatori lineari:
i) (D p)(x) = dp(x)�dx.
ii) (Q p)(x) = x dp(x)�dx.
iii) (T p(x)) = p(x + 1).
e calcolarne lo spettro.
Problema 11. Determinare l’operatore inverso (se esiste) dei seguenti operatori lineari
nello spazio Pn dell’esercizio precedente: i) D + ; ii) Q + ; iii) T .
Problema 12. Nello spazio Pn dell’Eserc.10 sia definito un prodotto interno in uno dei
modi seguenti
a) �p1� p2� ≡ 12 −1 p1(x) p2(x) dx
´1
´∞
b) �p1� p2� ≡ 0 e−x p1(x) p2(x) dx
´∞
c) �p1� p2� ≡ −∞ e−x p1(x) p2(x) dx
2
Problema 15. � Sia definito il prodotto interno in Pn in modo tale che �xj� xk� = �nj�
−1
jk.
Si consideri l’operatore
(J p)(x) = 12 nx p(x) + 12 (1 − x2) dp(x)�dx .
Determinare la decomposizione spettrale di J . Verificare che gli autovettori di J sono ortogonali
tra loro.
Problema 16. Determinare lo spettro delle seguenti matrici
√ √
�√0 3 0 0 � �√3x 3 0 0 �
� 3 0 2 0 � � 3 x 2 0 �
A=� � 0 2 0 √3�
� B=� � 0 2 −x √3 �
�
� √ � � √ �
� 0 0 3 0 � � 0 0 3 −3x�
√
Spiegare per quale motivo gli autovalori sono proporzionali: EB = 1 + x2 EA.
Problema 17. Calcolare il logaritmo dell’operatore rappresentato dalla matrice
cos ↵ i sin ↵
� �.
i sin ↵ cos ↵
Problema 22. � Dimostrare che per qualunque f(z) tale che esista f(A)
^ si ha (con le
notazioni del Problema precedente)
m
det �z − f(A)�
^ = � (z − f( k))
rk
1
√ �0 1 0�
Problema 27. Sia A = 1�2 �10 1�. Determinare l’operatore exp{it A}.
�0 1 0�
82
Problemi
dove
��� T1 . . 0 ����
��� -1
. . 0 ����
0 0
��� T2 -2
�
�� T . . 0 ����
T1 0
qj(A) = det ����� 3
-3
�
1 T2 T1
��� ⋮ ⋮ � � . . ⋮ ����
���Tj-1 �
T1 -j+1����
j!
���
T2 T1 ����
Tj-2 .. T2
�� Tj Tj-1 .. T3
Problema 32. �� Secondo le notazioni del Probl. 30, ricavare le seguenti identità valide per
il caso aj = a qj−1, q ≠ 1:
n
(z) = � � � (−a)j qj(j−1)�2 zn−j
n
j=0
j q
∞
n+j−1
(z)−1 = � � � aj z−n−j
j=0
j q
dove
(q; q)n n
� � = , (↵, q)n ≡ � (1 − ↵ qj−1) , [n]! = (q, q)n
n
j q (q; q)j (q; q)n−j j=1
Problema 33. # Sia A0 un operatore autoaggiunto invertibile e sia P = �v� �v�. Dimostrare
che l’operatore A = A0 + " P è invertibile per " sufficientemente piccolo e il suo inverso è dato da
A−1
0 P A0
−1
A−1 = A−1
0 +"
+ " Tr(A−1
.
0 P)
Problema 34. Con riferimento all’esercizio precedente, dimostrare che
det(z − A0 − "P) = det(z − A0) �1 − " �v� (z − A0)−1 �v�� .
Questa relazione si può utilizzare per calcolare lo spettro di A noto quello di A0.
Problema 35. Sia Q la matrice Qij = i+j-1, (i, j = 1, 2, ..., n. Dimostrare che vale l’equazione
Q3 − n2Q2 − 12 n (n -1) Q
1 2 2
=0
e dedurne la decomposizione spettrale (vedi anche il Probl.9).
Problema 36. Sia Pn lo spazio dei polinomi complessi con prodotto interno come nel Probl.
15. Determinare la rappresentazione matriciale dell’operatore (D p)(x) = dp(x)�dx nella base
ortonormale ej = N -1�2 xj-1, (j = 1, 2, ..., n). Costruire l’aggiunto Hermitiano di D e darne una
rappresentazione indipendente dalla base.
Problema 37.# � (Modello di Eherenfest). Sono date due urne contenenti N biglie numerate
da 1 a N. Si estrae ripetutamente un numero a caso compreso tra 1 e N e la biglia corrispondente
al numero estratto cambia posto dall’urna in cui si trova all’altra.
a) Dimostrare che la probabilità p(n, t) di trovare n biglie nella prima urna dopo t estra-
zioni soddisfa la relazione
� p(0, t + 1) � �0 1�N 0 0 ........... 0� � p(0, t) �
� p(1, t + 1) � �1 0 2�N 0 0� � p(1, t) �
� � � � � �
0 ......
� p(2, t + 1) � �0 1-1�N 0 3�N 0 . . . . . . 0� � �
� � � � � p(2, t) �
� ⋮ � = �⋮ ........... � ........... � �
⋮� = � ⋮ �
� � � �
�p(N-2, t + 1)� �0 0 . . . . 3�N 0 1-1�N � �p(N-2, t)�
� � � � � �
� � � � � �
�p(N-1, t + 1)� �0 0 . . . . . . . . . 2�N 0 1� �p(N-1, t)�
� p(N, t + 1) � �0 0 0 . . . . . . . . . 1�N 0� � p(N, t) �
ossia p(n, t + 1) = N (N − n + 1) p(n − 1, t) + N (n + 1) p(n + 1, t).
1 1
83
Problemi 3.6
� 0 n3 -n2�
Z = �-n3 0 n1�
� n2 -n1 0�
�0 1 t 0�
�t 0 t�
A=� �
0
�t 0 0 −2i�
�0 t 2i 0�
. Per quali valori di t lo sviluppo perturbativo converge?
Problema 42. Un operatore lineare T ha la seguente rappresentazione matriciale detta
“triangolare superiore”:
�t11 t12 t13 . . . . t1n �
� 0 t22 t23 . . . . t2n �
� �
T � � 0 0 t33 . . . . t3n �
� �
� ⋮ ⋮ ⋮ � ⋮ �
� 0 0 0 . . . . tnn�
Qual’è lo spettro di T ? Nell’ipotesi che tutti gli autovalori siano distinti calcolare (exp T )ii e
(exp T )ii+1.
Problema 43. Dimostrare che se X ha tutti autovalori distinti e Y commuta con X allora
Y è diagonale nella stessa base in cui lo è X .
84
Problemi
Problema 51.#Sia J l’operatore lineare (nilpotente) rappresentato dalla matrice Jij = ij+1.
Dimostrare che ogni operatore che commuta con J è funzione di J .
Problema 52 (Coppie di Lax). Siano A(t) e B(t) operatori lineari che soddisfano l’equa-
zione
dA(t)
= B(t) A(t) − A(t) B(t) ;
dt
dimostrare che lo spettro di A è indipendente dal tempo.
Problema 54. Dimostrare che per ogni coppia di operatori lineari X , Y vale l’identità
exp(tX ) exp(sY) exp(−tX ) exp(−sY) = 1 + t s (X Y − YX ) + O(t2) .
Cenno: sviluppare in serie di potenze in t, s.
Problema 57. # �� Dimostrare, facendo uso della soluzione del Cap.3.5.3, la formula di
Christho↵el–Darboux
N−1
N−1 pN(x) pN−1(y) − pN−1(x) pN(y)
� pn(x) pn(y) =
n=0 N x−y
dove pn(x) = n x + ... è una base di polinomi ortonormali.
n
86
Problemi
Problema 58. Sia PN lo spazio dei polinomi ortogonali di grado ≤ N rispetto a una
qualunque misura di integrazione. Dimostrare che la funzione
N
K(x, y) ≡ � n(x) n(y)
n=0
definita per una scelta di vettori di base ortonormali n(x) è indipendente dalla base. Inoltre
mostrare che per ogni polinomio p(x) vale la relazione
�ex� p� = p(x)
essendo ex il polinomio ex(y) = K(x, y). In altre parole, K(x, y) fa le funzioni della (x, y) di
Dirac nello spazio PN.
(1 + x2 + y2)N+2
R2
i) Determinare la normalizzazione dei vettori ek(x) = Nkzk in modo che formino una base
ortonormale (z = x + iy).
ii) Calcolare la funzione K(x, y) definita nel Probl.58.
iii) Dimostrare che per ↵, ∈ C, �↵�2 + � �2 = 1, l’operatore U(↵, ) definito come
↵z +
(U p)(z) = (− z + ↵)N p � �
− z+↵
è unitario.
iv) Selezionati ↵ = cos 12 , = sin 12 , si determini l’operatore J tale che U = exp(i J ).
Problema 61. Dimostrare l’identità
n
Ad X (Y) = � � � Xk Y (-X)n-k
n n
j=0 k
Problema 65.# Sia K un operatore tale che −K sia invertibile, esiste ciè unica la soluzione
dell’equazione x = K x + y , con y assegnato.
i) Discutere la convergenza del procedimento iterativo
xt+1 = K xt + y , x0 = 0 , t = 1, 2, 3, ...
ii) mostrare che, scelto un parametro reale ! compreso tra 0 e 1, il nuovo procedimento
iterativo
xt+1 = (1 − !) xt + !(K xt + y) , x0 = 0 , t = 1, 2, 3, ...
se converge determina la stessa soluzione.
Il parametro ! è noto come parametro di rilassamento e in genere facilita la convergenza
dell’iterazione.
Problema 66. Sia RA (z) = (z − A)−1 il risolvente di A. Dimostrare che se z0 è un
autovalore di A allora RA ammette lo sviluppo (di Laurent)
∞
RA (z) = � An (z − z0)n ,
n=−⌫−1
M = i �x −y �
@ @
@y @x
R=x +y
@ @
.
@x @y
iv) Dimostrare che il commutatore [M, R] è zero e sfruttare questo fatto per semplificare
il calcolo degli autovalori di M.
v) Siano K1 = x +y , K2 = x + y ; determinare i commutatori tra K1, K2, M.
@ @ @ @
@x @y @y @x
Problema 68.# � Sia Hn lo spazio dei polinomi armonici in tre variabili di grado ≤ n:
(3)
(3)
p ∈ Hn ∶ p(x, y, z) = � cijk xi yj zk
i+j+k≤n
2
@ 2 @ 2
�� � + � � + � � � p(x, y, z) = 0 .
@
@x @y @z
Determinare lo spettro dell’operatore M3 = i �x @y
@
− y @x
@
�.
88
Problemi
z x − iy
Problema 69. Sia U = � � una matrice unitaria 2 × 2. Sia inoltre X = � �
a b
−b̄ ā x + iy −z
una matrice Hermitiana a traccia nulla, pure 2 × 2. Si dimostri che X ′ = U X U† è Hermitiana a
traccia nulla e che gli elementi di matrice di X ′ definiscono le variabili x ′ , y ′ , z ′ legate a x, y, z
da una rotazione spaziale.
Problema 70. Sia S una generica matrice complessa 2 × 2 con determinante uguale a uno
z + t x − iy
(S ∈ SL(2, C)). Sia inoltre X = � � con x, y, z, t reali. Si verifichi che X ′ = S X S†
x + iy −z + t
è della stessa forma di X con variabili x ′ , y ′ , z ′ , t ′ legate a x, y, z, t da una trasformazione di
Lorentz.
Problema 71. Dimostrare che la serie definita dalla Eq.3.13 converge per ogni t e ogni
coppia di operatori A, B.
n �∞
Problema 72.# Dimostrare che le relazioni
[A, B] = Z , [A, Z] = O , [B, Z] = O ,
implicano Z = O nel caso che A sia diagonalizzabile.
In Meccanica Quantistica si considerano gli operatori canonici q e p che soddisfano le regole
di commutazione di Heisenberg
�
[q, p] = ih
La tesi del problema implica che q e p non possono essere realizzati con matrici finito–dimensionali.
Si tornerà su questo nella Parte III.
n �∞
Problema 73.# � Siano A e B due operatori lineari tali che A + tB abbia spettro
indipendente da t. Dimostrare che B è nilpotente.
n �∞
Problema 74. Siano A, B e C operatori lineari tali che A+tB+t2 C abbia spettro
indipendente da t. Dimostrare che C è nilpotente.
Anche questo risultato NON si estende a infinite dimensioni, ad es. per gli operatori q, p della
Meccanica Quantistica vale la relazione
� �
e−itp�h �p2 + q2� eitp�h = �p2 + q2� − 2tq + t2
che viola palesemente l’a↵ermazione.
n �∞
Problema 75.# L’operatore non può essere un commutatore, cioè non esistono
operatori A, B tali che [A, B] = .
Problema 76. Determinare lo spettro dell’operatore
�0 1 a 0 0 ...... 0�
�1 0�
� �
a 1 a 0 0 ....
�a 0�
� 1 a 1 a 0 0 . �
X(a) = �
�⋮ ��� ⋮ �
�
�0 a�
� �
� �
...... a 1 a 1
�0 ...... 0 a 1 a 1�
�0 ......... 0 a 1 0�
89
Problemi 3.6
corrispondente a una matrice definita secondo il Probl.45 utilizzando la teoria delle perturbazioni
nel parametro a.
Problema 77. Una matrice ha tutti elementi nulli al di fuori della prima riga e della prima
colonna. Trovare il suo spettro.
Problema 78. Una matrice ha tutti elementi nulli al di fuori delle prime due righe e delle
prime due colonne. Ridurre il problema della determinazione dello spettro a quello di una matrice
4 × 4.
Problema 79.#Siano �a1� , ..., �ar� e �b1� , ..., �br� vettori arbitrari in uno spazio n−dimensionale
(r < n). Dimostrare che lo spettro dell’operatore
A = � �aj� �bj�
j
è dato dalle r radici dell’equazione
det �z ij − �bi� aj�� =0
mentre i rimanenti n − r autovalori sono tutti nulli.
Problema 80.# � La matrice rappresentativa di H( ) è data da
�1 0 ............... 0�
� 0�
� �
2 0 .............
�0 0�
� �
3 0 ...........
�0 0�
� 0 4 0 ......... �
H��
�0 0�
�
�0 0�
0 0 5 0 ......
� �
� �
0 0 0 6 0 ...
�⋮ ⋮ ..... � � � � ⋮�
� �
�0 .......... 0 N-1 �
�0 ............ 0 N�
Dimostrare che l’ n−esimo autovalore (n < N�2) ammette uno sviluppo in serie del tipo En =
n + (n) 2n) e calcolare (n).
Problema 81. � Vale la seguente rappresentazione per lo sviluppo di Baker–Campbell–
Hausdor↵ (Rychtmeyer e Greenspan, Commun.Pure Appl. Math. XVIII (1965) pag. 107):
1
X Y
Z = log(e e ) = X + �eAd X etAd Y � Y dt
ˆ
0
dove
z log z
(z) =
z−1
Utilizzare questa formula per ottenere i primi termini dello sviluppo come nell’Eq.3.14.
Soluzioni
#. 5 Moltiplichiamo il determinante per ∏i,j(1 − xi yj) e distribuiamo i fattori contenenti xi
alla i−esima riga. Ne risulta il determinante
det �∏i≠j(1 − xi yj)�
che è un polinomio di grado n−1 in tutte le variabili xi e yi. Dato che esso si annulla se per una
coppia qualunque xi = xj, esso deve contenere il fattore V(x) (Vandermonde) e analogamente
V(y). Contando le potenze si vede che il fattore che rimane indeterminato deve essere una
costante, che si determina controllando il limite xn → ∞.
. 8 Il determinante è un Vandermonde cammu↵ato!
#
90
3.6. SOLUZIONI
#. 9 La matrice che si ottiene ponendo z = 0 è di rango 2, infatti la somma della riga i+1 con
la riga i − 1 è il doppio della riga i−esima. Questo implica che nello sviluppo del determinante
caratteristico compaiono soltanto le potenze zn, zn−1 e zn−2. Si trova quindi
det = (−z(n+(−z)n−1(1 + 3 + 5 + ... + 2n − 1) + (−z)n−2 �((2i − 1)(2j − 1) − (i + j − 1)2) = etc .
i<j
La matrice soddisfa l’identità U4 = con radici semplici 1, i, −1, −i e quindi lo spettro è contenuto
in questo insieme di valori. Tuttavia determinare la rispettiva molteplicità non è un problema
di semplice soluzione. Una soluzione brutale consiste nel chiedere a Mathematica, cosı̀
U[n_]:=Array[Exp[2 Pi I (#1-1)(#2-1)/n]/Sqrt[n] & ,{n,n}];
(* .........Nota Bene....ˆ.....ˆ................ˆ......... *)
Eigenvalues[U[5]]
[-1, i, -i, 1, 1]
Eigenvalues[U[6]]
[-1, -1, i, -i, 1, 1]
etc, e tentare di estrarne una regolarità. La trattazione generale si trova su [Meh89], Sec.7.12
dove si mostra che la molteplicità è data da r(1) = [(n + 4)�4], r(−1) = [(n + 2)�4], r(i) =
[(n + 1)�4], r(−i) = [(n − 1)�4], dove [ . ] indica la “parte intera”.
(. . . , z−3, z−2, z−1, 1, z, z2, . . .) yj = (. . . , z3, z2, z, 1, z−1, z−2, . . .) con lo stesso autovalore z + z−1. È
sufficiente richiedere che il vettore A xj + B yj si annulli per j = 0 e j = N + 1 per ottenere lo
spettro.
Il codice matlab hpm.m costruisce la matrice a partire dalla prima riga. La parte centrale è
data da
hpm.m
1 function Y=hpm(row)
2 ....
3 N=length(row);
4 U=eye(N,N);
5 X=diag(ones(N-1,1),-1);
6 X=X+X’;
7 T=X;
8 Y=U*row(1);
9 Y=Y+X*row(2);
10 for n=3:N
11 Z=T*X-U; % relazione di ricorrenza
12 Y=Y+Z*row(n);
13 U=X;
14 X=Z;
15 end
Dalla linea 10 alla 15 si utilizza la relazione di ricorrenza del Probl. 47. Si potrebbe anche
programmare direttamente Yn+1m = Ynm+1 + Ynm−1 − Yn−1m ma questo richiede un doppio loop
e un codice meno chiaro. Tuttavia (sorpresa!) il numero di operazioni richieste dalla regola di
ricorrenza è molto superiore rispetto al codice “banale” e di conseguenza il tempo di esecuzione
risulta anche superiore, il che non è rilevante per il calcolo una tantum, ma può essere rilevante
per un codice utilizzato più volte come parte di un programma. Ad es. per dimensione 1000 i
tempi sono rispettivamente 57 e 3 sec. Questo esempio dimostra che non sempre l’algoritmo
più evoluto risulta più conveniente!
. 46 La matrice è iperbolica, dunque la sua prima riga contiene tutta l’informazione ne-
#
cessaria, secondo quanto visto al Probl. 45. Può essere anche utilizzato un mezzo più diretto
ignorando questa proprietà ad es.
92
3.6. SOLUZIONI
dove S è la matrice
�0 1 0 .... 0 0 0�
�0 0�
� �
0 1 0 .... 0
�0 0�
� 0 0 1 0 ... �
S=�
�⋮ ��� ⋮�
�
�0 0�
� �
� �
...... 0 0 1
�0 0 ...... 0 0 1�
�1 0 0 ...... 0 0�
Ma SN = e dunque ...etc. Si veda [Meh89] per maggiori dettagli (oppure Wikipedia: circulant
matrix).
Sappiamo che se [X, Y] = 0 e se Y ha tutti autovalori distinti allora X = f(Y). Il risultato
appena dimostrato è all’estremo opposto, tutti autovalori uguali, J non è diagonalizzabile, ma
la commutatività è limitata alle funzioni di J .
t11 x1 + t12 x2 = x1
t21 x1 + t22 x2 + t23x3 = x2
t32 x2 + t33 x3 + t34x4 = x3
⋮
tn-1n-2 xn-2 + tn-1n-1 xn-1 + tn-1nxn = xn-1
tnn-1 xn-1 + tnn xn = xn
A = S T S −1
essendo poi molto agevole trovare gli autovalori di T . Si veda la sez. 4.5.3.
#. 57 Si veda [Hoc71]. Oppure si tenti una dimostrazione per induzione matematica partendo
da N = 2.
. 59 Dal problema precedente si sa che p(x0) = �ex0 � p�. Dalla diseguaglianza di Cauchy si
#
sa anche che
�p(x0)� ≤ �ex0 � �p� = �ex0 �
. 62 Si tratta di un problema che ha legami con la teoria dei processi stocastici - lo stesso di
#
un random walk sulle facce del cubo. Si può formalizzare il problema introducendo la matrice
di adiacenza i cui indici sono in corrispondenza biunivoca con le facce e gli elementi di matrice
sono uno se le facce sono adiacenti e zero altrimenti. Nel caso in esame la matrice di adiacenza
è ovviamente
�0 1 1 0 1 1�
�1 1�
�1 1�
0 0 1 1
� �
A=� �
0 0 1 1
�0 1�
� 1 1 0 1 �
�1 0�
�1 0�
1 1 1 0
1 1 1 0
94
3.6. SOLUZIONI
95
Problemi 3.6
. 75 Si prenda la traccia: Tr(AB) − Tr(BA) = 0 per la proprietà ciclica della traccia, mentre
#
n �∞
Tr( ) = dim . In infinite dimensioni c’è la possibilità di aggirare questo ostacolo,
se non altro il concetto di traccia non si applica a tutti gli operatori, e infatti la regola di
commutazione [A, B] = è uno dei mattoni fondamentali della Meccanica Quantistica.
H0[n_]:=SparseArray[{i_,j_}-> i,{n,n}];
V[n_]:=SparseArray[{i_,j_}/;Abs[i-j]==1 -> 1,{n,n}];
H[n_]:=H0[n]+ x V[n];
Series[Eigenvalues[H[20],{x,0,14}]
96
3.6. SOLUZIONI
Tuttavia una dimostrazione formale non è difficile da ottenere sfruttando un po’ di algebra. Sia
Wij = i,j+1 − j,i+1 .
W è antisimmetrica, per cui exp{ W} è unitaria. Si trovano subito le proprietà di commutazione
[W, H0] = −V , [W, V] = −2 �1� �1� + 2 �N� �N�
Si ha allora, applicando la Eq.3.13
k k
W
(H0 + V) e− W
= H0 − V + � Ad W (H0) + V + � Ad W (V)
k k
e
k≥2 k! k≥1 k!
= H0 + Ṽ
dove si utilizza la notazione usuale Ad X(Y) ≡ [X, Y]. Ciò mostra che l’operatore H0 + V è
unitariamente equivalente a H0 + Ṽ e si possono calcolare gli elementi di matrice di Ṽ come
segue:
k+2 k+1
Ṽ = � (H0) + � (V)
k+2 k+1
Ad W Ad W
k≥0 (k + 2)! k≥0 (k + 1)!
(k + 1) k+2
= −2 � Ad W (P1 − PN)
k
k≥0 (k + 2)!
L’elemento di matrice diagonale di �n� Ṽ �n�, che ci dà la correzione principale all’autovalore
n−esimo si può calcolare tenendo conto che si ha �n� W m �1� = 0 per m < n-1 e quindi il primo
contributo si ha per k = 2n-2, cosicché la correzione è proporzionale a 2n. Il coefficiente di
2n-2
W n-1P1W n-1 nel commutatore multiplo Ad W P1, si trova immediatamente utilizzando lo
sviluppo dell’Es.61: si trova (-1) � n-1 � da cui 2n = (n-1)!n!
n-1 2n-2 1
, in quanto il segno è assorbito
dal segno di �1� W n-1
�n�. Quando n > N�2 diventa dominante l’elemento di matrice �N� W k �N�;
la correzione risulta anti–simmetrica rispetto a N�2 e la somma di tutti le correzioni è nulla
(come deve essere per via che Tr(V) = 0).
97
III - Operatori lineari nello spazio di Hilbert
CAPITOLO 4
Spazio di Hilbert
�f(z)�2 dz ∧ dz ;
ˆ
D
il prodotto interno è dato da
D
In uno spazio ad infinite dimensioni valgono tutte le proprietà già dimostrate nella Parte II
a patto che siano coinvolti solo vettori in numero finito. Ad esempio valgono le disuguaglianze
considerate nell’App. 3.6 a p. 76.
Dati n vettori ortonormali (e1, e2, . . . , en) è unica la decomposizione del vettore ⇠ ∈ H
n
⇠ = � ⇠i ei + ⇠⊥
i=1
∗
La notazione dz ∧ dz è quella delle forme di↵erenziali; equivale all’elemento d’area dx dy.
101
Spazio di Hilbert 4.1
i=1
che viene chiamata “disuguaglianza di Bessel”.
Una successione di vettori {⇠n�(n = 1, 2, ∞)} si dice convergente con limite ⇠ se �⇠ − ⇠n� → 0
per n → ∞. Dato un insieme S di vettori in H si indica con S e si chiama chiusura di H l’insieme
formato da tutti i punti limite di S, cioè tutti i vettori ⇠ per cui esista una successione con ⇠
come limite. S si dice chiuso se S ≡ S. S si dice denso in S ′ se S = S ′ .
Una successione si dice di Cauchy se per ogni " > 0 prefissato esiste un N tale che
�⇠j − ⇠k� < " ∀ (j, k) > N
Si dimostra facilmente che ogni successione convergente è “di Cauchy”, ma non vale in generale
il contrario.
Definizione 4.1.1. Uno spazio lineare dotato di norma �.� si dice completo se ogni succes-
sione di Cauchy converge ad un vettore dello spazio.
Ogni spazio a dimensione finita risulta completo, ma ciò non è vero per spazi ad infinite
dimensioni. Lo spazio C2 ad es. non è completo. Per dimostrarlo è sufficiente esibire anche una
sola successione di Cauchy non–convergente.
Esempio. Definiamo la successione in C2(0, 1) come segue, indicando con xn il punto xn =
1�2 − 1�n:
�
� per 0 ≤ x < xn
�
�
�
0
fn(x) = �1 + n (x − 2 ) xn ≤ x < 12
1
�
�
�
�
�1 2 ≤x≤1
1
Si ha (per n < m)
2 (xn − xm)2 1
�fn − fm� = > (1�2 − xn) =
1
3 1 − 2xn 3 3n
dunque la successione è di Cauchy. D’altra parte non esiste alcuna funzione continua f(x) tale
che lim �fn − f� = 0. ◁
Un criterio per decidere se uno spazio è completo è il seguente:
102
4.1. SPAZI LINEARI AD INFINITE DIMENSIONI
Teorema 4.1.1. Uno spazio metrico H è completo se e solo se ogni serie assolutamente
convergente è convergente.
Non si tratta di un gioco di parole: una serie ∑∞
n ⇠n è assolutamente convergente se converge
la serie ∑∞
n �⇠n �. ◁
Dimostrazione. Sia (⇠(1) , ⇠(2) , ..., ⇠(n) , ...) ∈ `2 con �⇠(n) − ⇠(m) � < " (∀ n > m > N"). Si
ha ovviamente che le successioni delle componenti dei vettori sono di Cauchy, in quanto
(n) (m)
�⇠j − ⇠j � ≤ �⇠(n) − ⇠(m) �
(n)
e perciò esiste il limite, per ogni j, limn → ∞ ⇠j = ⇠j. Resta da dimostrare che ∑∞
n �⇠n� è
2
�
�limM→∞
�
�
(n)
∑j=1 j − ⇠j�2 < "2
∞
�⇠
�
�
�
�
� � 2
(n) (n) 2 (n) (n) 2
∑j=1 �⇠j� = ∑j=1 �⇠j − ⇠j − ⇠j � ≤ � ∑j=1 �⇠j − ⇠j� + ∑j=1 �⇠j � �
M 2 M M 2 M
Ogni spazio non–completo può essere completato, cioè può essere realizzato come sottospazio
denso di uno spazio completo. Il procedimento è analogo a quello che definisce il campo dei
numeri reali a partire dai razionali. Dato lo spazio C (non completo) si costruisce lo spazio C i
cui elementi sono le successioni di Cauchy in C:
C = {⌅ � ⌅ = (⇠1, ⇠2, ..., ⇠n, ...) ∈ C}
e si pone
�⌅� ⌅ ′ � ≡ lim �⇠n� ⇠n
′
�
n→∞
⌃ ⇧
Definizione 4.1.2. Uno spazio metrico completo H è detto uno spazio di Hilbert.
Nelle applicazioni si considerano per lo più spazi di Hilbert che soddisfano la condizione
supplementare di separabilità
Definizione 4.1.3. Uno spazio di Hilbert H si dice separabile se esso contiene
una successione ⇠1, ⇠2, ..., ⇠n, ... ovunque densa. Cioè per ogni " > 0 e per ogni vettore ⇠ ∈ H
esiste un k" tale che
�⇠ − ⇠k" � < "
La successione cui si fa riferimento nella definizione di separabilità è l’analogo della successione
dei numeri razionali che è ovunque densa nel campo reale. ◁
Ci occuperemo solo di spazi di Hilbert separabili, per cui ometteremo il termine “separabile”
a meno che non sia opportuno sottolinearlo. Si può dimostrare che ogni spazio di Hilbert
separabile ammette basi ortonormali complete, ed anzi ogni base ortonormale è numerabile.
Una base ortonormale è data da un insieme di vettori
e1, e2, . . . , en, . . .
con �ei� ej� = ij, con la proprietà che
∀ j ∶ �rj� ⇠� = 0 �⇒ ⇠ = 0 .
104
4.1. SPAZI LINEARI AD INFINITE DIMENSIONI
È chiaro che non è sufficiente costruire un insieme infinito ortonormale per avere una base;
l’ultima condizione è essenziale per fare sı̀ che ⇠ = ∑j �ej� �ej� ⇠�, o equivalentemente
� �ej� �ej� =
j
`2 è il modello fondamentale di spazio di Hilbert separabile; ogni altro spazio si↵atto può
essere messo in corrispondenza biunivoca (e isometrica) con `2 mediante l’introduzione
di una base ortonormale:
b) L2(a, b): consideriamo lo spazio C2(a, b) delle funzioni continue definite nell’intervallo
(a, b). Sappiamo che lo spazio non è completo. Il procedimento generale di comple-
tamento porta allo spazio L2(a, b). questo spazio non è costituito da un insieme di
funzioni, bensı̀ da classi di equivalenza di successioni di Cauchy di funzioni continue;
questo fatto rende piuttosto complicata la geometria di questo spazio. È equivalente
definire L2 come lo spazio delle funzioni “misurabili secondo Lebesgue”, ma anche se-
condo questa definizione è necessario considerare le classi di equivalenza rispetto alla
relazione f ∼ g se f − g = 0 quasi dappertutto. Nelle applicazioni, tuttavia, sono alcuni
sottospazi di L2, ad es. quello delle funzioni assolutamente continue, che entreranno in
gioco nella teoria degli operatori lineari. L2 è completo e separabile. Una base ortonor-
male numerabile è fornita ad esempio dai polinomi ortogonali rispetto ad una misura
a µ(dx) = 1, come introdotti nell’appendice 3.5.
´b
c) H2(D) è completo e separabile. Ad es. per D ≡ {z �, �z� < 1} una base ortonormale è
data da
√
en(z) = n + 1 zn , (n = 0, 1, 2, . . . , ∞) .
Un generico vettore di H2(D) è dato da una serie di potenze del tipo
∞ √
f(z) = � fn n + 1 zn
n=0
uno spazio di Hilbert separabile (lo spazio di Fock in fisica quantistica costituisce un
esempio con N → ∞).
◁
105
Spazio di Hilbert 4.1
4.1.2. Funzionali lineari. Un funzionale lineare nello spazio di Hilbert H è definito co-
me nel caso finito–dimensionale. Tuttavia ci si rende conto immediatamente che non tutti i
funzionali lineari possono essere definiti dappertutto in H (a meno di non operare una defi-
nizione convenzionale impiegando le cosiddette basi di Hamel [Mad70, Tay58]). Se ad es.
z ∈ `2 = (z1, z2, ..., zn, ...), definiamo
∞
(z) = � zj .
j=1
È chiaro che esistono vettori in `2 per cui la serie che definisce diverge (ad. es. zj = 1�j). Un
funzionale lineare sarà perciò definito in un opportuno sottospazio lineare D detto il dominio
di
∈D ⊂H � C.
Definizione 4.1.4. Un funzionale lineare con dominio D è detto limitato se esiste un
numero positivo M tale che
� (⇠)� ≤ M �⇠� .
Teorema 4.1.3. Un funzionale lineare ( , D ) è limitato se e solo se esso è continuo.
Dimostrazione. Sia {⇠n � n = 1, 2, ...} una successione di vettori in D avente limite ⇠ ∈ D .
Da �⇠ − ⇠n� → 0 segue anche
� (⇠n) − (⇠)� = � (⇠ − ⇠n)� ≤ M �⇠n − ⇠� → 0
dunque è continuo. Viceversa, se è continuo segue che è limitato: infatti supponiamo che
non sia limitato, e perciò che per ogni n esista un vettore ⇠n tale che � (⇠n)� > n �⇠n�. Ne
segue
� � dy > 1
⇠n
n �⇠n�
�⇠n � �n �
⇠n
ma la successione tende a zero il che contraddice la continuità.
Definizione 4.1.5. Un funzionale lineare si dice densamente definito se la chiusura del suo
dominio è tutto lo spazio D = H.
Un funzionale lineare densamente definito si può estendere per continuità a tutto lo spazio
conservando le sue proprietà. Sia ad es. H = L2(0, 1) e
ˆ 1
(f) = f(x) dx , D = {f ∈ C2(0, 1) ⊂ L2(0, 1)}
0
cioè il dominio è costituito dalle funzioni continue a quadrato sommabile. Dalla disuguaglianza†
�
�ˆ 1
f(x) dx� ≤ �
ˆ 1
� �f(x)�2 dx
0 0
segue che il funzionale è limitato. Il teorema che segue rappresenta l’analogo di quello dimostrato
nella Parte II ( 2.4.2 a p. 31):
Teorema 4.1.4 (di Riesz). Il più generale funzionale lineare limitato è della forma
♯
(⇠) = � � ⇠� .
†
�f(x) − f(y)dy�2 ≥ 0.
´1 ´1
Conseguenza di 0 0
106
4.1. SPAZI LINEARI AD INFINITE DIMENSIONI
Dimostrazione. Diamo due dimostrazioni, una elementare e una indipendente dalla intro-
duzione di una specifica base. Siano {e1, e2, ..., en, ...} i vettori di una base ortonormale. Sia
⇠ = ∑ ⇠iei; per la continuità di si avrà
∞
(⇠) = � ⇠i (ei)
i
(N) (N)
� �� ≤ M � �
2
In conclusione lo spazio dei funzionali lineari continui su uno spazio di Hilbert è identificabile
con lo spazio stesso in modo del tutto naturale, ed è consistente utilizzare la notazione di Dirac
anche per lo spazio di Hilbert. Nell’esempio fornito in precedenza (a pag. 106) in e↵etti (f)
coincide con il prodotto interno di f con la funzione identicamente uguale a uno. In L2(0, ∞)
invece la stessa espressione non definisce un funzionale continuo.
Esempio. Un esempio importante di funzionale lineare è il seguente. Sia H = L2(−1, 1) e
(f) = f(0) , D = C2(−1, 1) .
Il funzionale lineare cosı̀ definito risulta essere illimitato e perciò sfugge al teorema di Riesz:
´ alcun vettore in L2 tale che sia (f) = � � f�, anche se nella pratica corrente si scrive
non esiste
spesso (x) f(x) dx = f(0). Per dimostrare che (f) è illimitato è sufficiente considerare una
successione quale
�
� x > 1�n
�
�
�
0
fn(x) = �1 − n x 0 < x < 1�n
�
�
�
�
�f(−x) x < 0
Si trova (f) = 1 e �fn�2 = 2 0 (1 − n x)2 dx = 3n , e dunque il rapporto � (f)�� �f� può assumere
´ 1�n 2
valori grandi a piacere. Un altro modo di verificare questo fatto è di considerare lo spazio N ( )
che risulta denso in L2(−1, 1) e quindi il suo complemento ortogonale risulta vuoto. ◁
107
Spazio di Hilbert 4.2
Esempio. Come ultimo esempio si consideri il funzionale ⇢(.) definito in L2(−∞, ∞) da‡
ˆ ∞
⇢(f) = f(x) dx , D(⇢) = L2 ∩ L1
−∞
È facile costruire una successione di funzioni {fn} che mostrano come ⇢ sia illimitato.
Più avanti incontreremo l’operatore
ˆ +∞
(F f)(x) = eixy f(y) dy
−∞
(la trasformata di Fourier ; è chiaro che ⇢(f) = (Ff). ◁
108
4.2. OPERATORI LINEARI NELLO SPAZIO DI HILBERT
allora se l’operatore è chiuso, ne segue che (⇠, ⌘) ∈ G e quindi ⇠ ∈ DA e A⇠ = ⌘. Ciò non esclude
che esistano successioni ⇠n con limite ⇠ ∈ DA ma A⇠n divergente, oppure successioni con A⇠n
convergente ma lim ⇠n ∉ DA , oppure ancora successioni con A⇠n convergente ma ⇠n divergente.
La prima eventualità si presenta per operatori chiusi ma discontinui, l’ultima è sfruttata nella
definizione di spettro continuo.
Se GA non è chiuso, si può esaminare la sua chiusura GA : se questa costituisce un sottospazio
lineare di H×H allora GA costituisce il grafico di un operatore (A, DA ) che viene detto la chiusura
di A.
Definizione 4.2.5. Si assuma che la chiusura del grafico GA sia un sottospazio lineare di
H × H. Allora l’operatore avente grafico GA è detto la chiusura di (A, DA )
Definizione 4.2.6. Un operatore (A, DA ) si dice continuo se per ogni successione ⇠n ∈ DA
avente limite in DA vale la proprietà
A lim ⇠n = lim A⇠n
n→∞ n→∞
109
Spazio di Hilbert 4.2
§
Ricordiamo che il codominio di un operatore U è dato dall’insieme {⌘ ∈ H � ∃⇠ −
−
∋ ⌘ = U ⇠}.
111
Spazio di Hilbert 4.2
Esempio. Sia f(x) ∈ L2(−∞, ∞); per ogni numero reale a sia definito l’operatore
(Ta f)(x) ≡ f(x − a)
che rappresenta la traslazione della funzione f. È immediato verificare che Ta è isometrico.
Inoltre, dato che Ta T−a = , Ta risulta invertibile e pertanto unitario. ◁
Esempio. Sia f(x) ∈ L2(0, ∞); per ogni numero reale a sia definito l’operatore
�
�
�f(x − a) (x > a)
(Ta f)(x) ≡ �
�
� (0 < x < −a)
�
0
che rappresenta ancora una traslazione della funzione f; dato che siamo sulla semiretta x > 0 è
come considerare la funzione identicamente nulla per x negativi. È immediato verificare che per
a > 0 Ta è isometrico. Tuttavia, dato che per a negativo la traslazione avviene verso sinistra,
la funzione viene “tagliata” della porzione 0 < x < −a e di conseguenza l’operatore Ta per a < 0
non è isometrico e ammette un intero sottospazio ∞−dimensionale di vettori con Ta⇠ = 0. ◁
Esempio. Più un generale si consideri in L2(R3) l’insieme di operatori definiti da
(TR,a f)(x) = f(R−1(x − a)
dove R è una qualunque matrice ortogonale, che rappresenta una rotazione nello spazio R3.
Anche in questo caso si verifica facilmente che T è isometrico e invertibile, dunque unitario. Ciò
discende dal fatto che lo Jacobiano della trasformazione y = R x + a è dato da det R = ±1. ◁
4.2.4. Aggiunto Hermitiano per Operatori non limitati. Sia (A, DA ) un operatore
non limitato definito densamente in H. Consideriamo il funzionale lineare
⌘(⇠) = �⌘, A ⇠� , ⇠ ∈ DA .
Sia DA† il sottospazio di H tale che per ogni ⌘ ∈ DA† esiste un vettore ^ che soddisfa l’identità
⌘(⇠) = �⌘, A ⇠� = � ^ , ⇠�; .
Si verifica facilmente che la corrispondenza ⌘ � ^ è lineare. Si definisce allora l’operatore A† ,
l’aggiunto Hermitiano di A come l’operatore lineare con dominio DA† tale che A† ⌘ = ^ . Si noti
che a priori non si può dire nulla in generale sul dominio DA† in quanto manca la possibilità di
invocare il teorema di Riesz. In e↵etti si danno esempi di operatori non limitati il cui aggiunto
ha dominio ristretto al vettore nullo 0.
Perchè la definizione sia consistente si tratta di mostrare che la corrispondenza è e↵ettiva-
mente lineare. Si procede come segue: se �⌘, A ⇠� = � 1, ⇠� = � 2, ⇠� ne segue � 1 − 2, ⇠� = 0
e dunque 1 = 2 in quanto DA è denso in H.
Ricordando la Def. 4.2.2, si ha
Teorema 4.2.4. Sia A ⊃ B allora B † ⊃ A† .
Dimostrazione. Le condizioni che definiscono DB† sono senz’altro soddisfatte in DA† . �
È interessante considerare il grafico (secondo la Def. 4.2.3) dell’operatore aggiunto. A questo
scopo, definiamo l’operatore J in H × H che agisce come segue
J (⇠, ⌘) = (i⌘, −i⇠) .
112
4.2. OPERATORI LINEARI NELLO SPAZIO DI HILBERT
A† ⊇ A
cioè l’aggiunto Hermitiano di A è una sua estensione, oppure coincide con A.
Teorema 4.2.9. L’operatore simmetrico B sia un’estensione dell’operatore simmetrico A;
allora
A ⊂ B ⊆ B † ⊆ A†
Definizione 4.2.11. Un operatore (A, DA ) è detto autoaggiunto se coincide con il suo
aggiunto Hermitiano, e cioè
A = A† , DA = DA †
Definizione 4.2.12. Un’operatore simmetrico è detto essenzialmente autoaggiunto
se (A† )† = A† ossia se il suo aggiunto Hermitiano è autoaggiunto, nel qual caso A† è l’unica
estensione autoaggiunta di A.
4.2.5. Operatori di↵erenziali in L2(a, b). Sia f ∈ L2(a, b) continua, di↵erenziabile con
derivata in L2. Allora
df(x)
(D f)(x) =
dx
definisce un operatore lineare. L’equazione precedente specifica l’azione dell’operatore D men-
tre le specifiche sulla funzione f ne definiscono il dominio. La stessa espressione di↵erenziale
corrisponde a tanti di↵erenti operatori lineari a seconda di come sia specificato il dominio (ad
es. potremmo richiedere che f sia C∞ , oppure analitica, oppure che si annulli al bordo, etc.). È
necessario familiarizzarsi con il con il fatto che la scelta del dominio è spesso decisiva per carat-
terizzare le proprietà dell’operatore. Ciò corrisponde d’altronde, nelle applicazioni alla Fisica, al
113
Spazio di Hilbert 4.2
fatto che le equazioni di↵erenziali (eq.d’onda, eq. di Schroedinger, eq. del calore, etc.) ammet-
tono in generale una varietà di soluzioni ma sono le condizioni al contorno del problema che, ove
siano “ben poste”, permettono di individuare la soluzione corretta in modo univoco. L’insistenza
sull’importanza della definizione di dominio di un operatore di↵erenziale non è dunque un puro
scrupolo di rigore matematico (per quanto legittimo) ma è dettata, al contrario, dalle esigenze
delle applicazioni. Studieremo ora l’esempio più semplice di operatore di↵erenziale, rimandando
agli esercizi per altri esempi.
4.2.5.1. Operatori di↵erenziali del I ordine. Sia C∞ il dominio di L2(a, b) cosı̀ definito¶
C∞ = {f ∈ L2(a, b) � f derivabile infinite volte, f(n) (a) = f(n) (b) = 0 (∀ n ≥ 0)}
Sia (D0, C∞ ) l’operatore definito nel dominio C∞ da
df(x)
(D0 f)(x) = −i
.
dx
Teorema 4.2.10. (D0, C∞ ) è un operatore simmetrico ma non autoaggiunto.
Dimostrazione. Per ogni f ∈ C∞ si ha
ˆ b b
′
�f, D0 g� = −i f(x) g (x) dx = i f ′ (x) g(x) dx = �D0f, g�
ˆ
(4.3)
a a
(niente termini al contorno nell’integrazione per parti per la definizione di C∞ ). L’operatore
aggiunto D0† si costruisce come segue: si cercano i vettori f ∈ L2 tali che esista un h ∈ L2 che
soddisfi la relazione
�f, D0 g� = �h, g� (∀ g ∈ C∞ )
Esplicitamente
ˆ b ˆ b
′
(4.4) −i f(x) g (x) dx = h(x) g(x) dx
a a
Ora, ogni g ∈ C∞ può rappresentarsi nella forma g(x) = a z(y) dy che inserita dell’Eq.4.4
´x
fornisce
ˆ b ˆ b ˆ x
−i f(x) z(x) dx = h(x) z(y)dx dy
a a a
b b
=
ˆ ˆ
z(y) h(x) dx dy
a y
ossia
b b
z(x) �−if(x) − h(y)dy� dx = 0 .
ˆ ˆ
(4.5)
a x
Ora, z(x) non individua un sottospazio denso, infatti se il suo integrale è in C∞ , essa deve
soddisfare il vincolo ˆ b
z(x) dx = g(b) − g(a) = 0
a
e dunque z(x) è ortogonale alla funzione costante. Dall’Eq. (4.5) si conclude allora che
ˆ b
f(x) = −i h(x) dy + f(b)
x
ed infine
df(x)
h(x) = −i .
dx
¶
Qui stiamo considerando funzioni continue con tutte le derivate, a cui si applica il teorema fondamentale
del calcolo integrale, che non è applicabile in generale ai vettori di L2 .
114
4.2. OPERATORI LINEARI NELLO SPAZIO DI HILBERT
df(x)
(D� f)(x) = −i
dx
f ∈ C� = {f ∈ L2(a, b), f(x) a.c., df�dx ∈ L2, f(b) = f(a) = 0}
D� è una estensione simmetrica di D0 ma non ancora un operatore autoaggiunto. Ulteriori esten-
sioni sono definite alleggerendo ancora le condizioni al contorno, ma preservando la proprietà di
simmetria. Sia (per �↵� ≤ ⇡)
df(x)
(D↵ f)(x) = −i
dx
f ∈ C↵ = {f ∈ L2(a, b), f(x) a.c., df�dx ∈ L2, f(b) = f(a) ei↵}
Dato che C↵ ⊃ C∞ si ha D↵ †
⊂ D0† ed è perciò superfluo ripetere tutto l’argomento di Pag. 114.
Sarà sufficiente verificare che le condizioni al contorno su D↵ †
coincidono con quelle su D↵ per
concludere che D↵ è autoaggiunto per ogni valore reale prefissato per ↵. Si ha infatti
ˆ b
�g, D↵f� = −ig(x)f(x)�a + i g ′ (x) f(x) dx = �−ig ′ , f� + i(g(b)ei↵ − g(a))f(a)
b
Allora f(x) = a (x − y) z(y) dy è la più generale espressione di una funzione in DH0 . Analoga-
´x
mente a quanto fatto in precedenza nel § 4.2.5.1 si trova che l’equazione
�g, H0 f� = �h, f�
implica
b b
z(x) �g(x) − (y − x) h(y) dt� dx = 0
ˆ ˆ
a x
e quindi DH† è costituito dalle funzioni del tipo
o
b
g(x) = (y − x)h(y) dy + A x + B
ˆ
e cioè DH† si ottiene da DH0 eliminando le condizioni al contorno. Per costruire estensioni
autoaggiunte di H0 dovremo rilasciare alcune delle quattro condizioni lineari al bordo. Poniamo
0
dove
�
�
� ↵1f(a) + ↵2f(b) + ↵3f ′ (a) + ↵4f ′ (b) = 0
c.c. = �
�
� 1f(a) + 2f(b) + 3f (a) + 4f (b) = 0
′ ′
�
Dato che DH ⊃ DH0 si avrà DH† ⊂ DH0 e quindi potremo limitarci ad imporre che le condizioni
al contorno per H† siano identiche a quelle di H:
� �
↵1 ↵2 ↵3 ↵4
1 2 3 4
� g(a) �
↵1 ↵2 ↵3 ↵4 � g(b) �
� �� ′ �=0
1 2 3 4 �g (a)�
�g ′ (b)�
116
4.3. TEORIA SPETTRALE
La matrice � i� deve avere rango due in modo che le condizioni al contorno siano due equazioni
↵
i
↵′
linearmente indipendenti. Inoltre due matrici � i� e � i′ � che siano legate da una relazione del
↵
i i
tipo
↵i′
=� ��� �′�
u v ↵i
wz ii
definiscono le stesse c.c. a patto che il determinante u z − v w non si annulli. Possiamo sfruttare
questo fatto per ridurre una parte della matrice a un formato standard. Ad es. se il minore
� �
↵1 ↵2
1 2
Lo spettro residuo ⇢(A) è l’insieme dei numeri complessi z per i quali è violata la condizione
(��), cioè esiste almeno un vettore ortogonale al codominio Rz −A . Questo significa che
�⌘, (z − A)⇠� = 0 = �(z − A† )⌘, ⇠�
e dunque z è nello spettro puntuale di A† .
n �∞
Notiamo che spettro continuo e spettro residuo sono caratteristici dello spazio di
Hilbert (infinite dimensioni). Inoltre non è più semplicemente l’equazione agli autovalori A⇠ = ⇠
a determinare lo spettro di un operatore, ma è necessaria un’analisi più raffinata. Infine, a
di↵erenza del caso finito–dimensionale, non si ha alcuna garanzia a priori che lo spettro non
sia vuoto. Vedremo infatti esempi di operatori aventi tutto il piano complesso come insieme
risolvente, e che ammettono un’estensione avente spettro puntuale che invade tutto il piano
complesso! È solo limitandosi a classi particolari di operatori (autoaggiunti, unitari, normali,
compatti, etc.) che si potrà mettere un po’ d’ordine nella teoria spettrale.
118
4.3. TEORIA SPETTRALE
che è in `2 per ogni valore complesso con � � < 1. Scegliendo una successione di vettori norma-
lizzati � n� con n → ei si trova che i punti sulla circonferenza di raggio uno appartengono
allo spettro continuo C (T ). In conclusione P (T ) = {�z� < 1} , C (T ) = {�z� = 1}, ⇢(T ) = �,
n→∞
(R(z, q) f)(x) =
f(x)
z−x
Se z non cade nell’intervallo (a, b) R(z, q) è ovviamente limitato come si verifica con la disu-
guaglianza
ˆ b 2
� � dx ≤ max ��z − x�−2� �f�2
f(x)
a z−x a≤x≤b
Se z appartiene all’intervallo, è necessario restringere l’operatore inverso al dominio di funzioni
tali che f(x)�(z − x) sia in L2. Inoltre è immediato costruire una successione di vettori fn con
norma uno tali che �q fn� → 0 ad es.
�√
�
� n �z − x� < 2n 1
fn(x) = �
�
�
�
0 altrove
Si trova infatti ˆ b
�(q − z) fn� = n (x − z)2 ✓ (2n�x − z� ≤ 1) dx ≤
2 1
a 4n
Abbiamo perciò mostrato che RES(q) = {z ∈ C � z ∉ [a, b]}, C (q) = [a, b], P (q) = ⇢(q) = �.
Si noterà che il risolvente è una funzione analitica di z con un taglio in corrispondenza dello
spettro continuo; infatti per ogni elemento di matrice del risolvente si ha
ˆ b
�f, R(z, q) g� =
f(x) g(x)
dx
a z−x
Se f e g sono funzioni continue, la discontinuità attraverso il taglio è valutabile facilmente
lim {�f, R(x0 + i", q) g� − �f, R(x0 − i", q) g�} = 2⇡i f(x0) g(x0).
"→0
◁
119
Spazio di Hilbert 4.3
a patto che eiz(a−b) ≠ 1 cioè z ∉ {2n⇡�(b − a) � n ∈ Z}, che costituisce lo spettro puntuale. ◁
Mathematica può essere utilizzata per esplorare varie condizioni al contorno. Una semplice
istruzione permette di ricavare il risolvente per gli operatori di↵erenziali più semplici. Si consideri
il codice seguente
Resolvent.nb
DSolve[{i f’[x] + z f[x] == g[x], f[0]==f[2Pi] }, f[x],x]
DSolve[{f’’[x]+z f[x] == DiracDelta[x],f[-Pi]==f[Pi],
f’[-Pi]==f’[Pi]}, f[x], x]//Simplify
Dalla prima istruzione si ottiene il risolvente per l’operatore D e questo presenta poli nei punti z ∈
Z; la seconda operazione produce il risolvente per l’operatore −d2�dx2 con condizioni periodiche
al contorno, e questo presenta poli semplici per z = n2, n ∈ Z, che costituiscono gli autovalori
dello spettro puntuale. ◁
4.3.2. Proprietà analitiche del risolvente. Gli elementi di matrice del risolvente, nel
caso di spazi finito–dimensionali, sono funzioni razionali, e dunque funzioni analitiche dapper-
tutto eccetto che per un numero finito di poli, che costituiscono lo spettro dell’operatore. Nel
caso dello spazio di Hilbert le proprietà analitiche del risolvente non sono cosı̀ semplici, tuttavia
vale ancora il seguente teorema
Teorema 4.3.2. Il risolvente R(z, A) = (z −A)−1 è analitico in z nell’intorno di ogni punto
dell’insieme risolvente.
Dimostrazione. La serie
∞
� (w − z) R(w, A)
n n+1
0
converge ad un operatore limitato se �z − w� �R(w, A)� < 1. Dunque se w ∈ RES(A) e �w − z� <
1� �R(w, A)� la serie definisce l’operatore R(z, A), il che mostra che RES(A) è un insieme aperto e
120
4.3. TEORIA SPETTRALE
che il risolvente è sviluppabile in serie di potenze nell’intorno di ogni punto dell’insieme risolvente.
Una dimostrazione più dettagliata fa uso della identità (vedi § 3.6)
R(z, A) = R(w, A) + (w − z) R(w, A) R(z, A)
che si può iterare†† per ottenere
n
R(z, A) = � (z − w)j R(w.A)−(j+1) + (w − z)n+1 R(w, A)−(n+1) R(z, A) .
0
Nell’ipotesi che �z − w� �R(w, A)� < 1, R(z, A) esiste limitato e quindi
n
�R(z, A) − � (z − w)j R(w, A)−(j+1) � ≤ �(w − z)�n+1 �R(w, A)−1� �R(z, A)� �→ 0 .
n+1
n→∞
0
�
n �∞
Se A è illimitato RES(A) può anche essere vuoto; se invece A è limitato il teorema
precedente è senz’altro operante, però l’insieme RES(A) non è necessariamente connesso, e quindi
non è detto che il risolvente si possa ricostruire dappertutto per continuazione analitica.
Un’equazione del tipo x = x0 + K, x si “itera” sostituendo alla x del membro di destra dell’equazione con
††
l’intera espressione x0 + K x ottenendo cosı́ x = x0 + K(x0 + K(x0 + . . .))
121
Spazio di Hilbert 4.3
ovvero pq e qp hanno lo stesso spettro non vuoto. Dalla regola di commutazione si ha allora che
(qp) = (pq) = (qp − i )
ossia se ne può concludere che se z ∈ (qp) allora anche z − i è nello spettro e in generale lo sarà
z − ni per n intero qualunque, il che contraddice il fatto che qp è limitato. �
Dal momento che q e p devono essere definiti in un opportuno dominio Dq,p ⊂ H, le regole di
commutazione sono da intendere più correttamente cosı̀
qp − pq ⊂ i
Per maggiori dettagli sul problema della rappresentazione delle regole di commutazione di
Heisenberg si veda [Put67] ◁
Esempio. Gli operatori canonici ammettono una rappresentazione in termini di operatori
di↵erenziali
(q f)(x) = x f(x), (p f)(x) = −i df(x)�dx
oppure in termini di matrici infinito–dimensionali
√ √
�√0 1 √0 . . . . . � � √0 1 √0 . . . . . . �
� 1 0 � �− �
� √ 2 √0 . . . . . . . . . � � 1 √
0 2 √0 . . . . . . . . . �
�
1 � 0 � �
1 � 0 − 2 0 �
p� √ � , q� √ �
� ⋮ � � �
2 0 3 0 . . . . . . 3 0 . . . . . .
2� � � �√ � � ⋮ � � �√ �
� √ � i 2 � √ �
� ⋮ n 0 n+1 � � ⋮ − n 0 n+1 �
� � � �� � � � ��
numerabile.
Il termine spettro discreto non deve trarre in inganno: seppure P sia numerabile, è facile
costruire casi in cui P riempie densamente un intervallo reale; ad es. sia M una matrice infinita
diagonale che contenga sulla diagonale tutti i razionali contenuti in un intervallo [a, b]. In questo
caso lo spettro puntuale è denso in [a, b] e lo spettro continuo è dato dai numeri irrazionali in
[a, b]. Nelle applicazioni alla Meccanica Quantistica tuttavia solo alcuni operatori autoaggiunti
si qualificano a rappresentare modelli realistici di Hamiltoniano e molti esempi “patologici” sono
solo curiosità matematiche. ◁
122
4.3. TEORIA SPETTRALE
4.3.4.1. Considerazioni euristiche. A questo punto, per proseguire nello studio delle pro-
prietà generali degli operatori autoaggiunti è necessario introdurre il concetto di famiglia spet-
trale. Procediamo per via euristica basandoci sulla formula di Riesz–Dunford. Consideriamo un
caso semplice in cui P (A) sia formato da un numero finito di punti z1, z2, ..., zn e C (A) sia un
intervallo finito [a, b] sulla retta reale, con P (↵) ∩ C (A) = �. Abbiamo visto che il risolvente
Rz(A) = (z − A)−1 ammette uno sviluppo in serie attorno ad ogni punto dell’insieme risolvente
e quindi costituisce una funzione analitica con singolarità confinate allo spettro dell’operatore.
Si avrà perciò
Rw(A)
Rz(A) =
1
‰
dw
2⇡i w−z
essendo un cammino chiuso frontiera di un intorno di z ∉ (A). Deformiamo il contorno
in modo che una porzione ′ sia “gonfiata” e mandata all’infinito del piano complesso ( ′ ) e
un’altra porzione ′′ contenga al suo interno tutto lo spettro (vedi figura). Come nel caso finito
che costituisce l’analogo della decomposizione spettrale 3.7 valida per spazi di dimensione finita.
Ponendo
ˆ x+
Ex = lim lim " → 0 �((x ′ − i") − A)−1 − ((x ′ + i") − A)−1� f(x) dx ′
1
→0 2⇡i −∞
la decomposizione spettrale si scrive in modo più compatto
ˆ ∞
f(A) =
^ f(x) d Ex
−∞
Si noti che per ogni x reale, Ex definisce un proiettore. Esaminiamo come si comporta Ex
nell’intorno di un punto dello spettro puntuale. Sia x1 < z1 < x2 e si assuma che nell’intervallo
(x1, x2) non cadano altri punti dello spettro oltre a z1. Si trova
ˆ x2
(Ex2 − Ex1 ) �zk� = �(x − i") − A)−1 − ((x + i") − A)−1� dx �zk�
1
2⇡i x1
�
�
−1 �0 k≠1
= dz(z − zk) �zk� = �
1
‰
��z � k = 1
.
2⇡i 1 �
� 1
e quindi, comunque vicini siano x2, x1, Ex2 − Ex1 = P1 dove P1 è il proiettore nel sottospazio
appartenente all’autovalore z1; analogamente per tutti gli altri zk si avrà che Ex presenta una
discontinuità pari a Pk allorché x passa da sinistra a destra di un punto nello spettro puntuale.
Inoltre lo stesso calcolo mostra che Ex′ = Ex′′ qualora nell’intervallo (x ′ , x ′′ ) non cadano autova-
lori di A. La decomposizione spettrale prende contributo anche dallo spettro continuo. Intorno
a z ∈ C Ex varia con continuità.
4.3.4.2. Famiglie spettrali. Le considerazioni euristiche del paragrafo precedente suggerisco-
no di introdurre la seguente definizione:
Definizione 4.3.1. Una famiglia di operatori autoaggiunti Ex dipendenti dal parametro
reale x si dice una famiglia spettrale se
i) per ogni x reale Ex è un proiettore ortogonale su di un sottospazio lineare dello spazio
di Hilbert;
ii) per ogni vettore ⇠ e per x < y si ha
�Ex⇠� ≤ �Ey⇠�
iii) limx→−∞ Ex = 0, limx→+∞ Ex = ;
iv) lim"→+0 �(Ex+" − Ex) ⇠� = 0
Segue da i) e ii) che Ex Ey = Ey Ex = Ex per x < y. La condizione iv) è una convenzione che
prescrive la continuità a destra della famiglia spettrale.
Si possono ora definire integrali sulla famiglia spettrale nel modo seguente: sia f(x) continua
in un intervallo (a, b). Suddividiamo l’intervallo in n parti x0 ≡ a, x1, x2, . . . , xn−1, xn ≡ b e
formiamo le somme parziali
n
Sn = � f(xk) (Exk − Exk−1 )
k=1
Se f(x) è limitata, Sn definisce un operatore lineare limitato. passiamo ora al limite per n → ∞
in modo che tutti gli intervalli xk − xk−1 tendano a zero. Il limite si definisce come l’integrale
della f(x) rispetto alla famiglia spettrale Ex e si indica con
ˆ b
f(x) dEx
a
124
4.3. TEORIA SPETTRALE
Si intende che il limite è nel senso della norma dello spazio di Hilbert. È importante la relazione
ˆ b 2 ˆ b
� f(x) dEx ⇠� = �f(x)�2 d�⇠, Ex ⇠� .
a a
valida per ogni ⇠ nel dominio di A. Sotto opportune condizioni sulla f(x) si considera anche
il caso a = −∞ e b = ∞. Enunciamo ora, senza darne dimostrazione, i risultati più importanti
della teoria spettrale per gli operatori autoaggiunti nello spazio di Hilbert:
Teorema 4.3.5 (I teorema spettrale). Per ogni operatore autoaggiunto (A, DA ) esiste una
ed una sola famiglia spettrale Ex avente le seguenti caratteristiche
´∞
i) ⇠ ∈ DA se-e-solo-se esiste finito l’integrale −∞ x2d �⇠, Ex ⇠�
´∞ ´∞
ii) se ⇠ ∈ DA allora A ⇠ = −∞ x dEx ⇠ e perciò �A ⇠�2 = −∞ x2 d �⇠, Ex ⇠�
Viceversa, ogni operatore definito attraverso le condizioni i, ii) a partire da una famiglia spettrale
è autoaggiunto. Se A è limitato, ogni operatore limitato B che commuti con A commuta anche
con ogni Ex.
La presentazione che si è data in questa sezione è molto schematica e si sono esposti solo
argomenti di plausibilità per la decomposizione spettrale. Si consiglia perciò di approfondire
l’argomento consultando, ad es. [Nai68, Tay58]. ◁
La conoscenza della famiglia spettrale determina completamente lo spettro dell’operatore.
Infatti si ha:
Teorema 4.3.6 (II Teorema spettrale). Sia Ex la famiglia spettrale di un operatore autoag-
giunto A. allora l’asse reale è suddiviso come segue:
a) x0 è un punto di RES(A) se Ex è costante in un intorno di x0;
b) x0 è un autovalore (x0 ∈ P (A)) se Ex è discontinuo in x0, cioè lim Ex0 −h ≠ Ex0 ;
h→0+
c) x0 appartiene allo spettro continuo se Ex è continuo in x0 ma non costante in alcun
intorno di x0.
La dimostrazione è semplice, una volta acquisito il Teorema I. Infatti da
ˆ ∞
�(A − x0 ) ⇠� =
2
(x − x0)2 d�⇠, Ex ⇠�
−∞
segue che se Ex è costante nell’intervallo (x0 − ✏, x0 + ✏)
∞
�(A − x0 ) ⇠� = (x − x0) d�⇠, Ex ⇠� > ✏ d�⇠, Ex ⇠� = ✏2 �⇠�2
ˆ ˆ
2 2 2
�x−x0 �>✏ −∞
il che mostra che x0 ∈ RES(A). Supponiamo ora che esista il limite lim (Ex0 − Ex0 − ) = P ≠ O.
→0+
allora
AP = x dEx(Ex0 − Ex0 − )
ˆ
ˆ x0 ˆ x0 − x0
= x dEx − x dEx = x dEx → x0 P
ˆ
−∞ −∞ x0 − →0
125
Spazio di Hilbert 4.3
e perciò x0 ∈ C (A).
Ci si potrebbe chiedere come si potrebbe caratterizzare il caso di un autovalore dello spettro
discreto immerso in un intervallo che rappresenti lo spettro continuo: in tal caso la famiglia
spettrale ha una discontinuità e in più non rimane costante in alcun intorno del punto. ◁
Esempio. Sia q l’operatore in L2(a, b)
(q f)(x) = x f(x)
Applicando la definizione di Ex di Pag.4.3.4.1 si trova:
dt ′
ˆ t+
(Et f)(x) = lim [(t ′ − i✏ − Q)−1 − (t ′ + i✏ − Q)−1] f(x)
→0 −∞ 2⇡i
✏→0
dt ′
ˆ t+
= lim [(t ′ − i✏ − Qx)−1 − (t ′ + i✏ − x)−1] f(x)
→0 −∞ 2⇡i
✏→0
ˆ t+
= lim dt ′ ′
✏�⇡
(t − x)2 + ✏2
f(x)
→0 −∞
�
✏→0
�
�0 t<x
=�
�
�f(x) t ≥ x
�
ossia
d
Esempio. L’operatore p = −i in L2(−∞, +∞): mostreremo nel §4.3.4.3 che il risolvente
dx
di p è dato da
ˆ ±∞
−1
�(k ∓ i✏ − p) f� (x) = i ei(k∓i✏) (x−y) f(y) dy
x
e quindi, passando al limite su , ✏,
ˆ k+
(Ek f)(x) = �(k ′ − i✏ − p)−1 − (k ′ + i✏ − p)−1� dk ′ f(x)
1
2⇡ x
ˆ k+ ˆ +∞
′
eik (x−y) e−✏�x−y� f(y) dy
′
=
1
dk
2⇡ −∞ −∞
Si noterà che E∞ = equivale alla formula di inversione di Fourier. Il formalismo introduce
spontaneamente il fattore di “smorzamento adiabatico” exp{−✏�x − y�} che permette di trattare
qualunque f in L2, mentre la formula di Fourier senza regolatore si applica solo a L2 ∩ L1. ◁
L’uso della famiglia spettrale Ex è conveniente per descrivere lo spettro continuo, mentre
nei punti dello spettro puntuale è più semplice e naturale passare ai proiettori P dati dalla
discontinuità di Ex. La decomposizione spettrale è dunque scritta più convenientemente nella
forma
f(A) = � f(x) Px + f(x) d Ex
ˆ
^
x∈P (A)
x∈C (A)
Nei testi di Meccanica Quantistica si suole porre formalmente
dEx ∶= �x� dx �x� , con �x� x ′ � = (x − x ′ ) .
126
4.3. TEORIA SPETTRALE
Questo formalismo (alla Dirac) è euristicamente efficace, ma bisogna tenere presente che una
trattazione rigorosa in questi termini richiederebbe l’estensione dello spazio di Hilbert ad uno
spazio di distribuzioni ([Nai68], §21). ◁
4.3.4.3. Operatori di↵erenziali in L2(−∞, ∞). Sia p = −id�dx l’operatore già considerato nel
capitolo precedente a pag.126. Il dominio sia definito da
df
Dp = {f ∈ L2(−∞, ∞), a.c. ∈ L2}
dx
L’operatore p è autoaggiunto. Vogliamo costruire l’operatore risolvente di p. Si tratta di risolvere
l’equazione di↵erenziale
((k − p) f) (x) = g(x)
per Im{k} ≠ 0. La soluzione generale è ovviamente
ˆ x
f(x) = −i eik(x−y) g(y) dy
a
con a reale arbitraria. Si tratta di fissare a in modo che f ∈ L2 per qualunque g ∈ L2. Dato che
f(x) è esprimibile come convoluzione
ˆ x−a
f(x) = i eikt g(x − t) dt
0
una disuguaglianza dovuta a Young (vedi commento a pag.128) permette di concludere che deve
porsi
�
�
�a = −∞ per Im{k} > 0
�
�
�a = +∞ per Im{k} < 0
�
infatti
�
�
�eikt✓(t) ∈ L1(−∞, ∞) per Im{k} > 0
� ikt
�
�e ✓(−t) ∈ L1(−∞, ∞) per Im{k} < 0
�
Si ha perciò
�
�
�−i −∞ eik(x−y) f(y) dy per Im{k} > 0
´x
−1
(Rk(p) f)(x) = ((k − p) f)(x) = � ´ ∞ ik(x−y)
�
� per Im{k} < 0
� x
i e f(y) dy
Si veda anche il capitolo successivo 4.3.7. Si trova perciò che il risolvente di p è una funzione
analitica per Im{k} ≠ 0 con una discontinuità Rk+i✏(p) − Rk−i✏(p) ≠ 0 su tutto l’asse reale che
d2
costituisce lo spettro continuo di p. Si può studiare in modo analogo l’operatore − 2 che risulta
dx
autoaggiunto nel dominio costituito dalle funzioni a.c. con derivata a.c. e derivata seconda in
L2. Il risolvente di p2 si può ottenere da quello appena calcolato essendo
Nella variabile complessa = k il risolvente presenta un taglio sull’asse reale positivo che
2
Facendo uso dell’espressione esplicita del risolvente possiamo calcolare qualunque funzione
di p2, ad es.
itp2 �2
(e f)(x) = ( − p2)−1 eit �2 f(x) d
1
ˆ
2⇡i
ˆ it �2 ˆ ∞ √
=− √ ei �x−y� f(y) dy
1 e
4⇡ −∞
Si trova pertanto
∞ √
itp2 �2 d �2+i �x−y�
(e f)(x) = − √ eit
1
ˆ ˆ
dy f(y)
4⇡ −∞
integrale di Fourier.
Disuguaglianza di Young: sia
∞
(f � g)(x) = f(y) g(x − y) dy
ˆ
−∞
´∞
allora �f � g�2 ≤ �f�1 �g�2, essendo �f�q = ( −∞ �f(x)�q dx)1�q. Si veda [RS78] per una disugua-
glianza più generale e per la dimostrazione. ◁
4.3.5. Operatori compatti. Una classe di operatori che presenta interessanti proprietà
spettrali è quella degli operatori compatti (detti anche “completamente continui”). Premettiamo
la seguente definizione:
Definizione 4.3.2. un sottoinsieme M in uno spazio unitario completo (finito o infinito
dimensionale) è detto compatto se ogni successione infinita ⇠n contenuta in M ha almeno un
punto di accumulazione in M e cioè da ogni successione è possibile estrarre una sottosuccessione
convergente in M.
128
4.3. TEORIA SPETTRALE
n �∞
Ricordiamo che ogni sottoinsieme chiuso e limitato di uno spazio a n dimensioni (reale
o complesso) è compatto (teorema di Bolzano–Weierstrass). Ciò non è più vero in uno spazio di
Hilbert. Ad es. la sfera unitaria
S∞ = {⇠ ∈ H � �⇠� = 1}
√
è un insieme chiuso, limitato ma non compatto; in e↵etti ogni successione di vettori ortonormali
⇠n (�⇠n� ⇠m� = nm) è tale che �⇠i − ⇠j� = 2 e quindi non ha alcun punto di accumulazione.
Proprietà importante degli insiemi compatti è quella relativa alla possibilità di ricoprirli con
un numero finito di aperti; più precisamente sia Un una qualunque successione di aperti tali
che l’unione �n Un contenga l’insieme compatto M. Allora esiste sempre un numero finito di
aperti Un1 , Un2 , ..., Unk la cui unione contiene M (“da ogni ricoprimento si può estrarre un
ricoprimento finito”).
Daremo qui di seguito una lista di definizioni e di teoremi senza dimostrazioni. Si vedano
[Nai68, Tay58, RS80] per maggiori dettagli.
Definizione 4.3.3. Un operatore lineare A nello spazio di Hilbert H è detto compatto se
esso trasforma ogni sottoinsieme chiuso e limitato in H in un sottoinsieme compatto.
Teorema 4.3.7. Ogni operatore compatto è limitato.
Teorema 4.3.8. Se A è compatto e B è continuo allora A B e BA sono compatti.
Teorema 4.3.9. Se An è una successione di operatori compatti ed esiste un operatore A
tale che
∀⇠ ∈ H ∶ �(A − An)⇠� < �⇠�
1
n
allora anche A è compatto.
Teorema 4.3.10. Sia A � �aij� la matrice rappresentativa di A in una base ortonormale.
Se
∞
� �aij� = Tr(A A) < ∞
2 †
i,j=1
allora A è compatto.
Teorema 4.3.11. Sia K l’operatore in L2(a, b) definito da
ˆ b
(K f)(x) = K(x, y) f(y) dy .
a
Se
b b
dy �K(x, y)�2 < ∞
ˆ ˆ
(4.9) dx
a a
allora K è un operatore compatto.
Le condizioni dei due teoremi precedenti sono solo sufficienti per la compattezza. Si parla
in questi casi di operatori di Hilbert–Schmidt che costituiscono una sottoclasse di operatori
compatti. ◁
Teorema 4.3.12 (Teorema spettrale per operatori compatti). Lo spettro di un operatore
compatto è costituito da un insieme finito o infinito di punti aventi come unico punto di accu-
mulazione lo zero. Ogni punto dello spettro ≠ 0 è un autovalore discreto (∈ P ) con molteplicità
finita; lo zero può appartenere a C oppure a ⇢.
Come si nota, ad eccezione di quanto può accadere nello zero, gli operatori compatti pre-
sentano proprietà spettrali molto simili agli operatori finito–dimensionali. Una proprietà di
frequente applicabilità è la seguente:
129
Spazio di Hilbert 4.3
Teorema 4.3.13. Sia A un operatore simmetrico tale che il suo risolvente esista e sia un
operatore compatto per almeno un punto z ∈ RES(A). Allora lo spettro di A consiste di soli
autovalori isolati con molteplicità finita che si accumulano all’infinito. Inoltre il risolvente è
compatto per tutti i punti dell’insieme risolvente.
La teoria degli operatori compatti si è sviluppata in connessione con lo studio delle equazioni
integrali. Sia g ∈ L2(a, b) e si cerchi la soluzione dell’equazione
ˆ b
z f(x) − K(x, y) f(y) dy = g(x)
a
dove z ∉ (K), il “nucleo” K sia simmetrico (K(x, y) = K(y, x)) e soddisfi la Eq.4.9; per i teoremi
enunciati in precedenza si avrà
∞
K(x, y) = � n un(x) un(y)
n=1
con n → 0 per n → ∞.La soluzione è allora
∞ b
−1
f(x) = � (z − n) un(x) un(y) g(y) dy
ˆ
n=1 a
Nel caso di indici di difetto uguali, esiste un procedimento costruttivo per determinare l’e-
stensione autoaggiunta dell’operatore simmetrico. Si sceglie una isometria U da N+ a N− , e si
pone (fissiamo z = i)
DB = {⇠ + ⌘+ + U⌘+ �⇠ ∈ DA , ⌘+ ∈ N+ }
B(⇠ + ⌘+ + U⌘+ ) = A⇠ + i⌘+ − iU⌘+
Si veda [RS78]. Le estensioni autoaggiunte sono dunque in corrispondenza con gli elementi del
gruppo U(m+ ) con m2+ parametri reali. ◁
Esempio. Il caso più semplice è quello dell’operatore D0 di 114 che definiamo per semplicità
nell’intervallo simmetrico (− log(2), log(2)). Gli spazi di difetto sono caratterizzati da
d
−i f± (x) = ±if± (x) ⇒ f± (x) = C e∓x
dx
e le isometrie da N= a N+ sono parametrizzate da una fase :
U ∶ f− ⇒ ei f+
In conclusione il dominio della estensione autoaggiunta D è dato da
D = {f0 + Ce−x + Cei ex � f0 ∈ D0}
e l’azione di D è semplicemente
D(f0 + Ce−x + Cei ex) = f0 + iCe−x − iCei ex
Si noti che le funzioni in D soddisfano la condizione al contorno
f(log(2)) = C�2 + 2ei , f(− log(2)) = 2C + ei �2
e quindi il rapporto
1
+ 2 ei
f(log(2))�f(− log(2)) = 2
2 + 12 ei
risulta di modulo uno, il che corrisponde a quanto già visto in precedenza. ◁
4.3.7. Teorema di Stone. abbiamo visto nella Parte II lo stretto legame che intercorre
tra gli operatori autoaggiunti e gli operatori unitari. Questo legame è importante nelle appli-
cazioni alla Meccanica Quantistica per la costruzione della dinamica a partire dall’operatore
Hamiltoniano. In uno spazio di Hilbert vale il seguente risultato generale:
Teorema di Stone, 1932. Sia U(t) una famiglia di operatori unitari, parametrizzata dalla
variabile reale t, che soddisfi alle seguenti condizioni
i) U(0) =
ii) U(t1) U(t2) = U(t1 + t2)
iii) U(t) è continuo in t nel senso che �⇠, U(t) ⌘� è una funzione continua per ogni scelta
di vettori ⇠, ⌘ ∈ H.
Allora esiste un unico operatore autoaggiunto (A, DA ) tale che
�) U(t) = exp{itA}
��) DA = {⇠ ∈ H�∃ limt→0 t−1(U(t) − )⇠}
L’operatore A è detto il generatore infinitesimale del gruppo a un parametro U(t).
Sia ad esempio T (a) il gruppo di trasformazioni unitarie in L2(R) definito a Pag. 112
(T (a) f)(x) = f(x − a)
131
Spazio di Hilbert 4.3
L’operatore T (a) è unitario per ogni valore di a , soddisfa alle condizioni del teorema di Stone:
in particolare la continuità
R a→0
Quest’ultima non è necessaria per il teorema di Stone, ad es. non è realizzata nel caso di T (.);
infatti per ogni a si può trovare uno stato ⌘a tale che T (a)⌘a sia ortogonale a ⌘a. D’altro
canto dalla relazione
�(U(a) − )⇠�2 = �U⇠�2 − �⇠, U(a) ⇠� − �U(a) ⇠, ⇠� + �⇠�2 �→ 0
a→0
si vede che nel caso di gruppi di operatori unitari la continuità debole implica quella forte. Si
veda [RS80] per una trattazione più ampia dell’argomento. ◁
Si rivelano spesso utili le due formule seguenti che legano il risolvente del generatore infini-
tesimale alla trasformata di Laplace di U(t):
ˆ ∞
(z − A)−1 = −i eizte−itA dt (Im{z} > 0)
0
0
(z − A)−1 = i eizte−itA dt (Im{z} < 0)
ˆ
−∞
valida anche nella forma reale
∞
−1
(A − z ) = e−t(A−z )
ˆ
(4.10) dt
0
Questo risultato è collegato a proprietà dei polinomi di Hermite sotto trasformata di Fourier
(vedi il § esercizi). ◁
‡‡ ´ +M
Alternativamente si può definire l’integrale come “limite–in–media” l.i.m. exp{i x y}f(y)dy
M→∞ −M
133
Appendice III
Si arriva cosı̀ all’espressione del propagatore quantistico in termini di “somma sui cammini”
(Feynman, 1946) [FH65].
questo fatto può rendere del tutto impraticabile l’idea - immaginiamo Nx ∼ O(103), ciò impli-
cherebbe O(1018) operazioni aritmetiche - del tutto improponibile. La soluzione, nota da tempo
[FFS82, OMT91] consiste nel modificare l’iterazione inserendo due trasformate di Fourier,
schematicamente
exp{−it K�N} exp{−it V�N} � F † exp{−it K(p)�N} F exp{−it V(x)�N}
Il risultato è il nuovo schema iterativo
i) tmp (xi) ← e−i⌧V(xi ) (xi, n⌧), (i = 1, ..., Nx)
ii) (pj) ← (F tmp )(pj)
iii) (pj) ← e−i⌧K(pj ) (pj)
iv) (x, (n + 1)⌧) ← F †
Naturalmente anche la trasformata di Fourier, se discretizzata in modo ingenuo, comporta
O(N2x) operazioni aritmetiche; esiste invece la possibilità di calcolare la trasformata in O(Nx log(Nx))
operazioni, adottando la trasformata di Fourier veloce o FFT. In questo modo risulta realizza-
bile l’idea della formula di Trotter anche in sistemi a 3 gradi di libertà. I programmi matlab in
allegato wms, wms2, wavepktj realizzano l’idea in 1 e 2 gradi di libertà. In figura il caso di un
potenziale V(x) ∝ (x2 − x20)2 con una funzione iniziale concentrata intorno al “vuoto classico”
di sinistra.
137
Appendice III 4.5
while(t<t1),
psi=psi.*U;
phi=fft(psi);
psi=ifft(phi.*W);
psi=psi.*U;
t=t+tau;
end
Qui W contiene exp{−i⌧p2�2} ed è calcolato una sola volta prima di iniziare l’iterazione; U
contiene l’evoluzione in x ma di un tempo ⌧�2, e infatti viene applicato due volte: la scelta sim-
metrizzata exp{−i⌧ V�2} exp{−i⌧K} exp{−i⌧ V�2} è il più semplice sistema di “miglioramento’
della formula di Lie–Trotter, con un errore complessivo O(⌧2) anziché O(⌧). ∗ Si consulti il
codice matlab per vedere come preparare i vettori xi e pi a Pag.140.
La disponibilità di trasformate veloci, oltre alla FFT, allarga il dominio di applicabilità della
formula di Lie–Trotter. È possibile a↵rontare problemi di evoluzione temporale per funzioni
definite sulla sfera S2 = {x ∈ R3 � �x� = 1} utilizzando una versione veloce della trasformata†
(#, ') � c`m
(#, ') = � c`m Y`m(#, ')
`≥0
−`≤m≤`
Utilizzando questa trasformata veloce è possibile a↵rontare efficientemente problemi di evolu-
zione sulla sfera con Hamiltoniano H = − + V(x) dove è l’operatore di Laplace–Beltrami sulla
sfera (codice matlab nella directory mexs2kit). ◁
4.5.2. Matrici sparse e problemi spettrali. Per una trattazione completa dell’approccio
numerico a problemi spettrali, o più in generale alla soluzione di problemi lineari, il riferimento
principale è tuttora [GL96]. Qui mi preme illustrare un aspetto particolarmente importante e di
cui tutti possono trarre vantaggio anche senza dovere trasformarsi in esperti analisti. L’elemento
cruciale che permette di a↵rontare problemi di grande taglia è rappresentato dalla introduzione
della struttura di “matrice sparsa”. L’idea consiste nello sfruttamento di una caratteristica tipica
delle matrici che entrano nei problemi di fisica matematica una volta discretizzati e che discende
dal carattere locale delle interazioni: le matrici che rappresentano l’energia ovvero le forze di
un sistema dinamico sono in genere a bassa densità di elementi di matrice, ossia una porzione
rilevante di elementi di matrice sono nulli. Ad es. la forza di una catena di oscillatori accoppiati,
Eq. 1.4 è diversa da zero solo lungo la diagonale principale e le due diagonali immediatamente
adiacenti - ossia si tratta di una matrice tridiagonale; in generale. in dimensionalità più alta,
le matrici interessanti non sono tridiagonali ma pure presentano una percentuale di elementi di
matrici non–nulli piccola rispetto al totale. tipicamente O(d Nd) rispetto a O(N2d), se d è la
dimensione dello spazio in cui agiscono le interazioni. Una matrice a bassa densità è detta in
gergo sparsa e per questi casi si è introdotto un metodo di rappresentazione che sfrutta queste
∗
L’implementazione della FFT adottata in matlab è al momento la FFTW di Frigo, Johnson e Kral.,
(fftw@fftw.org)
†
Parole chiave: SpharmonicKit, S2kit.
138
4.5. METODI COMPUTAZIONALI
(j)
inoltre identifichiamo le colonne di S con n vettori �e(1) , e(2) , . . . , e(n) , �, ossia Sij ≡ ei . Nel
caso simmetrico, i vettori e(j) sono tra loro ortogonali. Allora la relazione S T = M S diventa
M e(j) = j−1 e
(j−1)
+ ↵j e(j) + je
(j+1)
Da questa relazione si ottiene e(j+1) per ricorrenza a partire da e(1) che può essere scelto
arbitrariamente. Tenendo conto di ortogonalità e normalizzazione si ricava successivamente
M e(1) = ↵1 e(1) + 1e
(2)
⇒ ↵1 = �e(1) , M e(1) �
e(2) = −1
1 (M − ↵1 ) e(1)
M e(2) = 1e
(1)
+ ↵2 e(2) + 2e
(3)
⇒ ↵2 = �e(2) , M e(2) �
e(3) = −1
2 �(M − ↵2 ) e(2) − 1e
(1)
�
...
Purtroppo l’algoritmo non è utilizzabile in pratica per via del fatto che l’ortogonalità dei vet-
tori e(j) è verificata solo in aritmetica esatta; lavorando in precisione finita, invece, si genera
un errore che rapidamente si amplifica fino a degradare completamente la natura ortonormale
della base. Ciò ha e↵etti imprevedibili sullo spettro, ma con grande probabilità assolutamen-
te letali (per esempio si producono copie spurie di autovalori multipli). Varianti dell’algorit-
mo vengono incontro a questo problema e sono correntemente utilizzate per calcoli realisti-
ci; la routine eigs di matlab impiega l’algoritmo di Arnoldi, della libreria Arpack (si veda
http://www.caam.rice.edu/software/ARPACK/ dove si trova ampia documentazione). Arnol-
di ha il vantaggio di un’ottima stabilità e può essere impiegato anche a operatori non–simmetrici.
Se si vuole implementare il proprio codice facendo uso solo di software “open source” la di-
sponibilità di Arpack, FFTW, gsl, etc. è da tenere ben presente, in un quadro in continua
evoluzione. Per un “case study” che illustra bene un’applicazione di Arpack e di varie trasfor-
mate integrali si possono consultare i documenti http://arxiv.org/abs/physics/0407098,
http://arxiv.org/abs/math-ph/0407021.
H = − 12 + V(x)
140
4.5. METODI COMPUTAZIONALI
Costruire reticolo x e p
dx = 2*L/N;
x0 = -L*(1-1/N) : dx : L*(1-1/N);
[x,y,z] = meshgrid(x0,x0,x0);
r = sqrt(x.ˆ2+y.ˆ2+z.ˆ2);
k = fftshift(pi*(-N/2:N/2-1)/L);
[kx,ky,kz]=meshgrid(k,k,k);
k2 = kx.ˆ2 + ky.ˆ2 + kz.ˆ2;
(c) definire operatori di↵erenziali di utilizzo comune (nello spazio dei momenti): @2�@x2 �
-kx.^ 2, etc.; � -kx.^ 2 - ky.^ 2 - kz.^ 2.
(d) definire l’energia potenziale, ad es V = r.^ 2/2;
(e) definire l’operatore Hamiltoniano come sotto-routine: il vettore di ingresso è sempre per
eigs un vettore colonna; essendo “psi” un array N × N × N è necessario trasformarlo
attraverso l’istruzione “reshape”; “↵tn” riconosce l’array 3-D e ne prende la trasformata
di Fourier; la moltiplicazione per −k2 realizza il Laplaciano nello spazio dei momenti e la
successiva antitrasformata ci riporta nello spazio delle coordinate; un ultimo “reshape”
è necessario per inviare a eigs un vettore colonna:
Hamiltoniana
function xout=Hamiltonian(xin)
psi = reshape(xin(1:Nˆ3),N,N,N);
fpsi = fftn(psi);
Deltapsi = real(ifftn(k2.*fpsi));
Hpsi = 0.5* Deltapsi + V .* psi;
xout = reshape(Hpsi, Nˆ3, 1);
end
141
Problemi
Il simboli � e �� indicano gli esercizi più impegnativi. Il simbolo # segnala che la soluzione,
almeno parziale, è riportata in fondo al capitolo.
Problema 1. Dimostrare che `2 è uno spazio lineare.
Problema 2. Dimostrare che C2(a, b) e H2(D) sono spazi lineari (vedi a Pag. 101 per le
definizioni).
Problema 3. Per quali valori di ↵ la successione {n−↵�n = 1, 2, 3, . . . , ∞} è in `2?
Problema 4. Determinare quale tra le seguenti funzioni individua un vettore di L2(0, 1):
(a) (1 + x2)−1�2
(b) 1� cos(!x)
(c) x↵, ↵ ∈ R
Problema 14. # Sia (p2 f)(x) = −f ′′ (x) con condizioni al contorno periodiche (f(−⇡) =
f(⇡), f ′ (−⇡) = f ′ (⇡)). Calcolare il risolvente di p2.
Problema 15. Come il problema precedente con di↵erenti condizioni al contorno:
i) f(−⇡) = f(⇡) = 0
ii) f(−⇡) = −f(⇡), f ′ (−⇡) = −f ′ (⇡)
Problema 16.# Siano q e p gli operatori canonici in L2(−∞, ∞). Se indichiamo con �A� il
modulo di A, cioè la funzione di A che corrisponde al valore assoluto x → �x�, determinare la
matrice rappresentativa dell’operatore S = �p� + �q� nella base dei polinomi di Hermite un(x) =
√
( ⇡2nn!)−1�2 Hn(x) e−x �2. Dimostrare che in base a semplici proprietà di simmetria
2
�um+1, S u2n� = 0
�u4m+1, S u4n+3� = 0
�u4m, S u4n+2� = 0
144
Problemi
Problema 18.# Dimostrare che per due operatori limitati A e B se C = [A, B] commuta con
entrambi gli operatori allora lo spettro di C è costituito al più del punto z = 0.
Problema 19. Sia H2(D) lo spazio di Hilbert delle funzioni analitiche regolari f(z) nel disco
D = {z ∈ C � �z� < 1} tali che
D
Per ogni funzione analitica h(z) meromorfa all’interno del disco si definisce (Thf)(z) ≡ h(z) f(z).
Discutere le principali proprietà (definizione del dominio, invertibilità, etc) di Th in particolare
per h(z) = zn, n ∈ Z.
Problema 20. # Dimostrare che il funzionale lineare z(f) = f(z) in H2(D) è continuo e
determinare il vettore ez ∈ H2(D) tale che
Problema 21. Lo spazio di Bargmann B è lo spazio di Hilbert delle funzioni f(z) analitiche
regolari in tutto C tali che esista l’integrale
exp{−�z�2} �f(z)�2 dz ∧ dz
1
¨
⇡ C
(Utf)(z) = e−1�2t
2 −tz
f(z + t)
si ottiene un gruppo di trasformazioni unitarie in B.
145
Problemi 4.5
Problema 23.# Sia �n� una base ortonormale nello spazio di Hilbert. Si definisce l’operatore
Aq per ogni reale q, (0 < q < 1) come segue
�
�
�0 (n = 0)
Aq �n� = ��
�
� 1 − q �n − 1�
� (n > 0)
2n
An
q Aq = �[j]! � j � � j � q Aq Aq
†m n m 2(n−j)(m−j) †m−j n−j
j≥0
Problema 24.#� Sia H`2 lo spazio di Hilbert delle funzioni analitiche regolari nel disco {�z� <
1} con prodotto interno
2` − 1
�f, g� ≡ �1 − �z�2� f(z) g(z)dz dz , (` > 1�2).
¨
2`−2
⇡ �z�<1
d d d
La relazione di commutazione [ ,z ] = implica che
dz dz dz
d d
−t d
Jt = e dz J e dz = J + t
t
dz
Si chiede: è lecito concludere che J0 = J e Jt hanno lo stesso spettro? Dopo avere tratto le
conclusioni ... calcolare lo spettro di Jt.
√
Problema 27. Sia a l’operatore di “annichilazione” definito su una base ortonormale da
a �n� = n �n − 1�. Si determini lo spettro dell’operatore
S = (1 + a† a)−1�2 a
e si mostri che S † è isometrico ma non unitario.
Problema 28.# L’operatore G è definito in L2(−∞, ∞) dall’espressione
ˆ +∞
f(x − y) − f(x)
(G f)(x) = lim
1
dy
⇡ "→0 −∞ y2 + "2
con f(x) a.c., f ′ (x) ∈ L2. Determinare exp tG.
Problema 29.# Sia f ∈ L2(−1, 1; w(x)dx) sufficientemente regolare affinché esista l’integrale
(in parte principale di Cauchy)
f(x) − f(y)
ˆ 1
(K f)(x) = − w(y) dy
−1 (x − y)
2
√
Determinare lo spettro puntuale di K nel caso w(x) = 1 − x2.
Problema 30.# Si studi l’operatore integrale (l’operatore di Tuck∗ , vedi [TN02])
(⌘) − (⇠)
ˆ 1
(4.1) (K )(⇠) = d⌘
0 �⇠ − ⌘�
e si mostri che K è diagonalizzabile nella base dei polinomi di Legendre Pn(2⇠−1) con autovalori
dati dai numeri armonici hn = ∑n −1
j=1 j .
Problema 33. # � Sia (✓) una qualunque funzione a.c. con ′ ∈ L2 e tale che (⇡) =
(−⇡) + 2 n ⇡ per n intero. Si trovi il minimo del funzionale (non–lineare)
− ei (✓ )
¨ ⇡ i (✓) ′ 2
H[ ] ≡ 2 � � d✓ d✓ ′
1 e
i✓ − ei✓′
4⇡ −⇡ e
n �∞
Problema 34.# Sia T l’operatore “di shift” in `2
�
�
�0 (n = 1)
T �n� = �
�
��n − 1� (n > 1)
�
Determinare lo spettro dell’operatore autoaggiunto X = 12 (T + T † ). Sia TN il troncamento di T
al sottospazio finito generato da �n� , n ≤ N. Che relazione c’è tra lo spettro di T e quello di TN?
E tra lo spettro di X e quello di XN = 12 (TN + TN† )?
Problema 35.#� Sia T = ; T = T (come definito al problema precedente). Si definisca T
0 1 n
in modo che soddisfi la relazione di ricorrenza
2T Tn = Tn+1 + Tn−1
Trovare un’espressione esplicita per Tn per qualunque n. Sia poi N l’operatore diagonale N �n� =
n �n�. Dimostrare che lo spettro dell’operatore autoaggiunto
T +T †
Y = N −1�2 N −1�2
2
è dato dai reciproci degli zeri della funzione di Bessel J0: P (Y) = {y ∈ R � J0(1�y) = 0}.
Problema 36. Con le notazioni del problema precedente, si determini lo spettro dell’opera-
tore
T +T †
Ys = (N + s )−1�2 (N + s )−1�2
2
(s reale non–negativo).
Problema 37.# Nella base ortonormale �n� , (n = 1, 2, 3, ...) si definisce l’operatore
n
Sa �n� = � aj−1 �n − j�
j=0
con a un qualunque numero complesso di modulo inferiore a uno. Si dimostri che Sa è limitato,
se ne determini lo spettro e si trovi Sa† .
Problema 38.# Determinare lo spettro dell’operatore integrale Ka definito dalla relazione
ˆ a
(Ka f)(x) = 21
e−�x−y� f(y) dy .
−a
Generalizzare al caso di un operatore della forma
ˆ a
(K f)(x) = F(�x − y�) f(y) dy .
−a
Problema 39. Sia A l’operatore definito in una base ortonormale dalla matrice
�a0 a1 a2 a3 ... �
�a1 �
� �
a0 a1 a2 ...
A � �a2 �
� �
a1 a0 a1 ...
�a3 a2 a1 a0 ... �
� ⋮ � � �
ossia tale che Aij = a�i−j� . Determinare se A è limitato, utilizzando il criterio di Schur.
148
4.5. SOLUZIONI
Problema 40.# Sia p come definito nel Probl.22. Considerare l’operatore B = g(x)−1 p g(x)
con g(x) = x e−x �2. Dimostrare che
2
Y= (B − x )−1 X (A − x )−1 dz
1
‰
2⇡i
soddisfa l’equazione B Y − Y A = X se il contorno è una curva semplice chiusa contenente al
suo interno lo spettro di A ma nessun punto dello spettro di B.
Problema 42. Sia Aij = (1 + i + j)−1, (i, j ∈ Z+ ). Si dimostri che A definisce un operatore
limitato. Si applichi il criterio di Schur, oppure si tenga conto del fatto che A è la matrice dei
momenti della distribuzione uniforme nell’intervallo (0, 1)
ˆ 1
Aij = xi+jdx = �xi, xj�
0
Problema 43. Siano p e q gli operatori canonici in L2(−⇡, ⇡), con condizioni periodiche al
contorno. Determinare
C(s, t) = exp{itp} exp{isq} exp{−itp} exp{−isq}
Problema 44. Sia M la matrice simmetrica
�a1 b1 0 0 0 0 ... �
�b1 a2 b2 0 �
�0 b a b �
0 0 ...
� �
M�� �
0 0 ...
� 0 0 b1 a2 �
2 1 1
� b2 0 ... �
� 0 0 0 b2 �
� ⋮ ⋮ �
a1 b1 ...
� � �
(M2n−12n−1 = a1, M2n2n = a2,M2n−12n = b1, M2n2n+1 = b2). Determinare lo spettro di M
(assumendo che la base sia ortonormale).
Soluzioni
. 5 Dobbiamo chiederci in quale circostanze le infinite relazioni �ej� ⇠� = 0 implichi �⇠� = 0:
#
dato che �ej� ⇠� = a ⇠n + b ⇠n+1 si trova che per �a� < �b� esiste il vettore
(1, −b�a, (−b�a)2, . . . , , (−b�a)n, . . .) ∈ `2
e ortogonale a tutti i vettori della successione, la quale perciò non costituisce una base.
. 6 È sufficiente considerare la funzione
#
�
�∞
f(x) = � � g(n2(x − n))
n=1
con g(x) = 0 per x > 1�2, g(x)dx = 1, g continua e positiva con tutte le derivate continue. Si
´
trova
∞ ˆ
f(x) dx = � g(n2(x − n))dx = � n−2 = ⇣(2) = ⇡2�6
ˆ
2
n=1
149
Problemi 4.5
Dunque f è in L2 ma non ha limite per x → ∞. Se si assume che la funzione sia in L2, sia
assolutamente continua e con derivata in L2 segue invece:
ˆ x
d
ˆ x
f(x) = f(0) +
2 2
f(y) dy = f(0) + 2
2 2
f(y) f ′ (y) dy
0 dy 0
e il limite di f all’infinito esiste per la convergenza del prodotto interno di due funzioni di L2.
Inoltre il limite, se esiste, è ovviamente uguale a zero.
. 7 La relazione che definisce l’aggiunto
#
� , G � = �⌘, �
per = �1� , �2� , ..., �n� , ... mostra che
� � j� = � � k�
se G �j� = G �k�. Il punto è che esistono infiniti k per ogni j che soddisfano la condizione e quindi
�j� � assume lo stesso valore infinite volte e deve perciò annullarsi. Questo vale per ogni j e
dunque � � = 0 e G† ha dominio vuoto. G è ovviamente illimitato, altrimenti si contravverrebbe
al teorema di Riesz, tuttavia ciò si può controllare direttamente: si ha
√
= �1� + �2� + �4� + . . . + �kn� ; �G � = n = n � �
e dunque �G � � � � può essere grande a piacere.
. 9 Il problema si può mappare su uno già risolto: infatti si consideri la trasformazione
#
f(x) = x g(x)
Dato che 0 < a < x < b la trasformazione è continua e invertibile. Si avrà dunque l’equazione
agli autovalori
d −1 d
2 �x dx x
i
+ x−1 x� g(x) = g(x)
dx
ma si ha anche
d −1 d d d d
x x + x−1 x = x(x−1 − x−2) + x−1(x + 1) = 2
dx dx dx dx dx
d
e l’equazione si riduce a i g(x) = g(x) con condizioni al contorno g(a) = g(b), dunque
dx
g(x) = exp{i k x} con autovalori {k � (b − a)k = 2n⇡, n ∈ Z}.
. 10 Dalla relazione
#
ˆ ∞ ˆ ∞
d −x2 2 d
f(x) e dx = − f(x), (ex g(x) e−x ) e−x dx
2 2
g(x),
−∞ dx −∞ dx
si conclude che
d −x2 d
B † g(x) = −ex
e g(x) = (− + 2x) g(x)
2
dx dx
Lo spettro di B è puntuale e riempie tutto il piano complesso, infatti
B f(x) = f ′ (x) = b f(x) ⇒ f(x) = N ebx ∈ H
mentre lo spettro di B † B si determina secondo quanto si sa dalla Meccanica Quantistica, infatti
d d
B B† − B† B = [ , 2x − ] = 2
dx dx
√
e perciò B è unitariamente equivalente a un multiplo dell’operatore di annichilazione (p−iq)� 2.
Lo spettro di B † B è perciò quello dell’oscillatore armonico - si veda qualunque testo di Meccanica
Quantistica.
150
4.5. SOLUZIONI
da cui discendono la seconda e la terza relazione, mentre la prima è conseguenza della parità
un(−x) = (−)n un(x). Gli integrali che permettono di costruire la matrice
ˆ ∞
un um e−x �2 dx
2
0
sono esprimibili in termini di funzioni Ipergeometriche, ma sono più comodamente calcolati con
mathematica. Si può stimare lo spettro attraverso l’approssimazione WKB secondo cui detto
En l’n-esimo autovalore si ha
dq dp ≈ (n + 1�2)
1
¨
2⇡ �q�+�p�=En
L’integrale è ovviamente dato da 2E2n e quindi si avrà approssimativamente
√
En ≈ ⇡(n + 1�2) , n = 0, 1, 2, ... .
Il calcolo dello spettro si può impostare prendendo un troncamento della matrice a dimensione
finita. Tuttavia la matrice richiede un consistente tempo di elaborazione e non è pratico raggiun-
gere dimensioni rilevanti (≥ 64). Un’altra strategia di calcolo è chiaramente superiore: si utilizza
la rappresentazione spettrale per �p� e l’algoritmo di Arnoldi per il calcolo dello spettro: 0.2sec
per il calcolo con una discretizzazione di 1024 punti: il codice matlab è il seguente (depurato da
qualche dettaglio tecnico, il codice completo si trova in rete)
absp.m
function [E,Psi,x] = absp(N, L, Neig)
% Spectral code: |p| in momentum space
% Usage:
% [E,psi,x]=absp(N,L,Neig)
Il grado di approssimazione della formula WKB si può stimare utilizzando il codice matlab
“absp.m” allegato. L’errore 1 − EWKB�E sull’autovalore n−esimo risulta dell’ordine di 10−3�n.
. 18 Dato che e−tA B etA = B − t C e inoltre e−tA è limitato e quindi costituisce una trasfor-
#
mazione di similitudine, lo spettro di B coincide con quello di B − tC, ovvero lo spettro di B�t
con quello di −C + B�t. Se prendiamo t molto grande il raggio spettrale di B�t diventa piccolo a
piacere e quindi ciò vale anche per C.
152
4.5. SOLUZIONI
�z� = � √ �n�
zn
n≥0 n!
essendo �n� la base ortonormale costituita dagli autostati dell’oscillatore armonico. La
componente di un vettore qualunque �f� lungo �z� è una funzione intera in B e per la
disuguaglianza di Cauchy si ha
zn �z�2n
�f(z)�2 = � �z� f� �2 = � � √ �n� f� �2 ≤ � ⋅ �f�2 = e�z� �f�2
2
n≥0 n! n!
(b) L’aggiunto di d�dz si trova dalla definizione: integrando per parti si trova
@e−�z� f(z)
2
−�z�2 dg(z)
dz ∧ dz = g(z)dz ∧ dz = e−�z� z f(z) g(z) dz ∧ dz
¨ ¨ ¨
2
e f(z)
dz @z
d †
e dunque � � f(z) = z f(z).
dx
(c) Lo spettro dell’operatore H si trova facilmente risolvendo un’equazione di↵erenziale del
primo ordine:
df
(z + c) = ( − c) f(z)
dz
che ha soluzione generale
f(z) = N e−cz (z + c) +�c�2
Affinché f sia una funzione intera è necessario che + �c�2 ∈ Z+ , ossia lo spettro è dato
da = n − �c�2, n = 0, 1, 2, 3, ....
153
Problemi 4.5
(d) Si ha
a ei!t = e−i!ta
†a †a
a ei!ta
e perciò
d
= Ht , Ht = e−i!ta a �a† a + c a + c a† � ei!ta a
† †
i
dt
Si applica la “rappresentazione di interazione” (a pag.67) per ottenere
(t) = e−i!ta e−i!t(H0 −!a (0)
†a † a)
Il prodotto �z� f� definisce una funzione in B a meno per il fattore e−�z� �2 che viene associato
2
−∞
e si verifica poi che
d √
K = K (q + ip)� 2 .
dz
. 23 Si veda l’articolo sul Nuovo Cim.65A, pag.298 (1981), e anche [AO84].
#
. 24 Come per i Probl.19-20-21 si determina una base ortonormale
#
en(z) = Nn zn
e si costruisce il nucleo K(z, w) = ∑ en(z)√en(w) che costituisce la “delta di Dirac” in questi
spazi di funzioni analitiche. Si trova Nn = (n + 2`)� (2`) n! e infine
K(z, w) = (1 − z w)−2` .
Il punto iv) si discute operando una trasformazione di variabile
az + b
w=
bz + a
e constatando che per s = ` lo Jacobiano cancella esattamente i fattori davanti a f(z) e quindi
U risulta unitario. In questo modo si costruiscono le rappresentazioni del gruppo di Lorentz in
due dimensioni SO(2, 1) ∼ SU(1, 1) [Bar47].
154
4.5. SOLUZIONI
. 25 Si vedano [VW06, BCO07] per la soluzione analitica. Come esercizio di analisi nu-
#
merica, si può invece a↵rontare il problema molto facilmente utilizzando un programma matlab.
La matrice infinita si deve troncare a dimensione finita N; per ogni scelta di N i primi r(N)
autovalori saranno calcolati con precisione accettabile, r(N) essendo da valutare caso per caso:
il principio cui affidarsi in mancanza d’altre informazioni è che gli autovalori sono a↵etti da un
errore di taglia finita, analogo a quanto succede ponendo un sistema quanto–meccanico in una
scatola finita: la presenza di un volume finito in genere aumenta il valore dell’energia (si pensi
a una “compressione adiabatica” dal volume infinito a L. L’errore sarà meno rilevante per gli
√ Ad es. per un oscillatore
autostati il cui autovettore è ampiamente contenuto nel volume finito.
�
armonico di cui si sa che la scala di lunghezze tipiche è fissata da h�m! e la funzione d’onda
1 2 2 �
è in gran parte interna alla zona “classica” 2 m ! x � nh! è facile determinare la dimensio-
ne della scatola di normalizzazione. In un problema come quello in esame, non c’è intuizione
fisica che aiuti, tuttavia si può procedere allargando via via il numero di stati fino a raggiungere
stabilità. Per a↵rontare un problema agli autovalori di grandi dimensioni si può utilizzare una
routine matlab come eigs che calcola lo spettro di matrici sparse. Nel nostro caso si definisce
la matrice attraverso le routines spdiags che producono una matrice sparsa da sottoporre poi a
eigs.
susyqm.m
function [E,V,H] = susyqm(lam, B, Negv, flag)
% Veneziano-Wosiek susyQM
% compute the spectrum through sparse methods (eigs) for large
% matrices, dim=B
% Usage [E,V,H] = susyqm(lam, B, Negv)
% ------------ omesso il setup, vedi file susyqm.m ------
% building the sparse matrices H
D = (0:B)’; % diagonal m.e. (column vector)
OD = sqrt(lam*D.*(D+1)); % off-diagonal m.e.
Si consiglia di sperimentare con il codice per vari valori di . Si troverà che per � 1 un
troncamento 100 × 100 è già adeguato, mentre per crescente e dell’ordine di uno il problema
tende a scappare di mano. In e↵etti per = 1 l’operatore attraversa una transizione a un diverso
regime; per = 1 lo spettro è continuo. Ci si accorge facilmente di quanto accade intorno a = 1
in base al fatto che gli autovalori diventano fortemente dipendenti dal troncamento finito. Ad es.
per = .9999 lo spettro calcolato per B = 10n, n = 3, 4, 5, 6 mostra che solo per dimensione di 106
si intravede stabilità rispetto al troncamento (il calcolo prende circa un minuto). La dimensione
massima raggiungibile dipende dalle caratteristiche dell’hardware e da quanto è sparsa la matrice.
Nel caso presente Negv = 10, B = 4∗106 è già vicino al limite in un sistema con 4GBy di memoria
fisica.
10ˆ3 10ˆ4 10ˆ5 10ˆ6
_______________________________________________________
1 0.0002 0.0000 0.0000 0.0000
2 0.0049 0.0005 0.0001 0.0001
3 0.0150 0.0014 0.0002 0.0002
4 0.0303 0.0029 0.0004 0.0003
5 0.0508 0.0048 0.0006 0.0004
6 0.0765 0.0073 0.0008 0.0005
7 0.1074 0.0103 0.0011 0.0006
8 0.1435 0.0138 0.0014 0.0007
9 0.1848 0.0178 0.0018 0.0008
10 0.2313 0.0222 0.0023 0.0009
155
Problemi 4.5
∞ −1
H[ ] − ⌫[ ] = � (�n� − n) � n� = −2 � n �
2
n�
2
≥0
−∞ −∞
Il minimo si ha per n = 0, n = −1, −2, ..., −∞, il che implica che la funzione ei (#) = ∑∞ nz
n
si estende a una funzione analitica regolare all’interno del disco �z� = �e � < 1. Le condizioni
0
i#
(#)
�ei �=1 per �z� = 1
′
(z) dz = 2⇡⌫
˛
G.Andrews D. Bernoulli
E. Cartan
A. Cauchy L. Dirichlet
F. Dyson
L. Euler
J. Fourier E. Fermi, W. Heisenberg e W. Pauli
R.P. Feynman
C.F. Gauss
G.H. Golub
G. Hardy
W.R. Hamilton
D. Hilbert
C. Hermite
J.R. Klauder
M. Kac
A.M. Legendre
S. Lie
A. Markov
M. Mehta
C. Moler
B. Pascal
H. Poincaré G. Polya
B. Simon
R. Stallman
E.P. Wigner
IV - Applicazioni alla Teoria delle Probabilità
CAPITOLO 5
Introduzione
In quali circostanze si parla di “caso” e si basano perciò le nostre previsioni su valutazioni di
probabilità? Rimanendo nel contesto della Fisica Classica, il caso fa la sua apparizione in feno-
meni dove le osservazioni sono dominate da un grande numero di fattori imponderabili, troppo
numerosi per potere essere tenuti in conto in modo sistematico; e però proprio il grande numero
di fattori permette di prevedere almeno entro certi limiti il risultato delle osservazioni. I casi
più comuni e familiari sono dati da fatti legati al gioco: l’uscita di un numero al lotto, il lancio
dei dadi, il gioco della roulette etc. In ciascuno di questi casi, il fenomeno che porta alla vincita
o alla sconfitta cadrebbe in linea di principio sotto le leggi della meccanica e tuttavia il risultato
dipende da un cosı̀ grande numero di fattori (la velocità iniziale di rotazione della roulette, la
velocità e la direzione della pallina, lo stato della superficie della roulette che modifica l’aderen-
za, l’attrito con l’aria e la presenza di microcorrenti d’aria, le variazioni di temperatura, l’attrito
del perno della roulette che determina il tempo di rotazione, cos’altro? Bene, nessuno di questi
fattori è alla portata delle misure del giocatore istante per istante (e neppure del croupier) e
perciò il massimo che si possa concludere è che per ragioni di pura e semplice simmetria ogni
numero della roulette è a priori ugualmente probabile. Allo stesso modo l’uscita del lancio di
due dadi o i numeri al lotto sono esempi di eventi imprevedibili con sicurezza in quanto deter-
minati da numerosi fattori e da condizioni iniziali non controllabili. Non ci addentreremo nella
discussione su quale sia la definizione corretta di probabilità. Spesso si è caduti nella trappola
di definire la probabilità in modo logicamente circolare. Perciò adotteremo un punto di vista
molto pragmatico. La probabilità P di un evento E è un numero compreso tra zero e uno e
sulla base della conoscenza di questo numero siamo pronti a scommettere che in N esperimenti
preparati nelle stesse condizioni l’evento si produrrà approssimativamente NP volte, ossia P è
una valutazione a priori della frequenza di un evento casuale. L’impostazione di un problema
di probabilità è dunque nei casi più semplici fondata su alcuni passaggi fondamentali: i) l’indi-
viduazione degli elementi che contribuiscono alla definizione del fenomeno (eventi elementari);
l’individuazione tra questi dell’insieme completo di eventi elementari che si possono considerare
equiprobabili; iii) l’analisi combinatoria che permette di valutare la probabilità di un evento
complesso una volta ridotto ai suoi elementi. Allora, piuttosto che analizzare in modo rigoroso
le basi dell’approccio probabilistico (De Finetti, Laplace, Poincaré, Feller) procediamo adottan-
do lo schema matematico della probabilità come ipotesi di lavoro. Le conferme che provengono
173
Probabilità 5.1
dalla sua applicazione a problemi concreti permetterà allora di convincerci della validità del-
l’approccio. Prima di iniziare un paio di osservazioni che sono per me molto importanti. Prima
di tutto il manifestarsi del caso in fenomeni fisici non è legato esclusivamente a quanto detto
finora (la presenza di numerosi fattori imponderabili); sappiamo ormai per certo che i fenomeni
quantistici sono caratterizzati da comportamenti casuali non riconducibili a semplici modelli di
agenti sub-microscopici e non osservati. Il caso sembra entrare nelle leggi fisiche in modo intrin-
seco, anche se la cosa non piaceva al grande Alberto. Gli esperimenti condotti nell’arco degli
ultimi trent’anni hanno mostrato che certe misure di correlazione sono incompatibili con una
impostazione probabilistica in senso tradizionale (disuguaglianze di Bell ). Non ci occuperemo
di probabilità in ambito quantistico.
Una seconda osservazione è che la ragione per cui un numero sempre crescente di fisici si sono
occupati di tecniche probabilistiche sta nel fatto che queste tecniche si rivelano molto potenti
e permettono di sviluppare algoritmi di calcolo per la soluzione di problemi che di per sé non
hanno nulla di aleatorio∗ . Ciò è dovuto a particolari coincidenze per cui la soluzione di certe
equazioni di↵erenziali (ad es. l’equazione di Laplace) è equivalente alla soluzione di problemi
di “camminate aleatorie” (random walk, RW per brevità). In molte situazioni è più agevole
simulare un RW piuttosto che risolvere una complicata equazione alle derivate parziali.
Bibliografia ragionata. Normalmente la bibliografia si dà alla fine. Tuttavia è giusto citare
subito le fonti per queste lezioni. Mi sono basato sull’agile testo di Rozanov [Roz69], ricco di
esempi. Come esercizi iniziali consiglio il libretto di Mosteller [Mos65], con esempi tratti dalla
vita di tutti i giorni (più o meno). Un ottimo trattato di riferimento è [PR69]. A un livello più
elementare [Gne79]. Inoltre sulla collezione [Wax54] si trovano lavori originali che hanno fatto
la storia della applicazione di concetti di probabilità alla teoria fisica (Chandrasekhar, Ornstein-
Uhlenbeck, Kac). Il testo di Kac [Kac59] è molto avanzato dal punto di vista matematico
e presenta la connessione con la probabilità quantistica. Le problematiche connesse al ruolo
della probabilità in fisica quantistica sono presentate in molti testi di meccanica quantistica.
Il libro di Bell [Bel87] contiene una raccolta di scritti del fisico irlandese, alla base di molti
sviluppi recenti. Ma una presentazione per non specialisti si può trovare utilmente nel libro di
Penrose [Pen89], edizione italiana [Pen97]. Il trattato di Feller [Fel68] costituisce il riferimento
standard per la teoria delle probabilità e permette di approfondire tutti gli argomenti coperti
in queste lezioni. Per le connessioni tra probabilità, random walk e teoria quantistica dei campi
si può consultare [ID89], primo volume. Un altro testo ricco di idee, esempi, problemi e che
presenta un approccio originale alla teoria della probabilità è il libro di Backlawski, Cerasoli e
Rota [BCR84].
Convenzioni adottate nel testo. Utilizziamo i simboli standard di teoria degli insiemi � (unio-
ne), � (intersezione), � (insieme vuoto). Il complementare di un sottoinsieme è indicato con
� A = {! ∈ ⌦�! ∉ A}.
∗
In una prima versione era scappato un “causale” anziché “casuale”, il che induce a utilizzare preferibilmente
il termine proveniente dal Latino.
174
5.1. LA DEFINIZIONE MATEMATICA DI PROBABILITÀ
L’insieme ⌦ può essere costituito da un insieme finito (le facce di un dado), infinito nume-
rabile (i punti di un reticolo cristallino), da una varietà geometrica (ad es. un segmento di R,
una regione piana in R2, una qualunque superficie S, un dominio in Rn, etc.). I sottoinsiemi
che costituiscono ⌃ devono essere misurabili, cioè per ogni ∈ ⌃ è definito il valore 0 ≤ P( ) ≤ 1.
Vengono assunti alcuni assiomi che caratterizzano uno spazio di probabilità.
†
Ogni problema di probabilità legato al poker è ampiamente trattato in letteratura. Ad es. si può chiedere
a Wikipedia: http://en.wikipedia.org/wiki/Poker probability.
175
Probabilità 5.1
poker.m
1 function p=poker(nC, N)
2 % Random draws from a deck of nC different cards in 4 suits
3 % p returns the number of pokers served to the first player
4 % in N shuffles
5 % Usage:
6 % p=poker(nC, N)
7 % default: nC=9, N=5000; nC should not exceed 13.
8
9 if nargin<2, N=5000; end
10 if nargin<1, nC=9; end % nine cards 6-10,J,Q,K,A
11 if(nC>13),disp(’nC should be <= 13; setting nC=13’); n=13;end
12 C=1:nC;
13 M=sort([C,C,C,C]); % 4 suits
14 p=0;
15 for j=1:N
16 G=M(randperm(4*nC));
17 G=sort(G(1:5));
18 if(G(1)==G(4)||G(2)==G(5))
19 p=p+1;
20 end
21 end
Note: M contiene quattro copie identiche (il colore è qui irrilevante) di nC carte; randperm al rigo 15 mescola
il mazzo, le prime cinque carte, per sempicità vengono date al primo giocatore (contrariamente all’uso, ma agli
e↵etti statistici è irrilevante) e si controlla, una volta messe in ordine crescente, se le prime quattro o le ultime
quattro sono uguali, nel qual caso scatta il contatore p ← p + 1. Il risultato permette di valutare oltre il valore
atteso (valore medio), anche la fluttuazione del fenomeno, cioè di quanto il numero osservato in ogni simulazione
si scosti dal valore medio. La figura che segue presenta attraverso un istogramma il risultato di 200 partite ognuna
con 1000 smazzate. L’istogramma è confrontato con una distribuzione di Bernoulli ‡ con valore medio 1000/899. Il
metodo è denominato “MonteCarlo” e sarà illustrato un po’ più in generale nel cap. 5.3.4. Il valor medio calcolato
sugli eventi simulati risulta 1.17 non molto lontano da quello esatto. Tuttavia si noterà che abbiamo utilizzato un
numero di eventi simulati dell’ordine di grandezza dell’intera popolazione. I casi in cui è vantaggioso e↵ettuare
una simulazione sono quelli in cui lo spazio degli eventi è molto grande e il campione è scelto in modo mirato ma
di dimensioni molto più piccole. ◁
Esempio. L’insieme ⌦ sia dato dai giorni dell’anno; la famiglia ⌃ è data da tutti i possibili
sottoinsiemi di giorni dell’anno, ad es. i giorni dispari, oppure le domeniche, etc. Una misura di
probabilità è una funzione che associa un numero reale positivo o nullo a ogni giorno dell’anno,
con la condizione che la somma dia uno. Ogni particolare fenomeno casuale che sia associato
ai giorni dell’anno è associato a una particolare misura. Se ci chiediamo “qual’è la probabilità
che in un certo periodo dell’anno la temperatura media superi i 300C”, la risposta dipenderà
da tanti fattori non controllabili che si dovrà per forza di cose basare la stima sulla statistica
degli anni precedenti. Più che di probabilità, in questo caso, si parlerebbe di inferenza statistica.
Questo genere di problemi non saranno trattati in queste lezioni, per quanto siano della massima
importanza in svariati campi. ◁
Si vedano prima di proseguire i primi esempi nella sezione Problemi a pag.205.
L’applicazione dello schema astratto di “spazio di probabilità” a problemi concreti (in Fisica
o in qualunque altro contesto) si basa sull’assunto che gli eventi elementari di ⌦ siano associati
‡
Diamo per scontato che il lettore conosca le distribuzioni statistiche elementari, Gauss, Cauchy, Bernoulli-
binomiale, Poisson. Un richiamo si trova in Appendice.
176
5.1. LA DEFINIZIONE MATEMATICA DI PROBABILITÀ
70
60
50
frequenza
40
30
20
10
0
0 1 2 3 4 5 6 7 8
n poker su 1000 smazzate per 200 partite
ad eventi che si possono osservare e registrare e su cui è possibile e↵ettuare rilevazioni statistiche.
Se in una serie di osservazioni l’evento ! è osservato n(!) volte su un totale di N, il nostro
modello probabilistico dovrà essere in grado di prevedere che
≈ P(!)
n(!)
N
La questione dell’applicabilità di questi concetti a situazioni reali passa attraverso la precisazione
del significato del simbolo ≈. Ci si aspetta che la frequenza n(⌦) e la probabilità P(!) tendano
n(!)
a coincidere quando il numero di eventi sia sufficientemente grande. Quest’idea si realizza nei
vari teoremi “dei grandi numeri”. Attenzione però che ci sono pochi concetti quali la legge dei
grandi numeri ad essere maggiormente travisati dai non esperti, come vicende legate al Lotto
dimostrano ampiamente.
5.1.1. La formula di inclusione/esclusione. Siano A1, A2, ..., AN sottoinsiemi dello spa-
zio degli eventi ⌦. Ci si chiede qual’è la probabilità che si realizzi un evento contenuto in uno
qualunque dei sottoinsiemi? La risposta P(∪iAi) = ∑N i=1 P(Ai) è ovviamente a↵etta da errore se
?
gli eventi non sono a due a due disgiunti. Viene spontaneo correggere la formula compensando
per le intersezioni
ma anche questa formula non funziona se esistono triple intersezioni Ai ∩ Aj ∩ Ak. La risposta
corretta è data dalla formula di inclusione/esclusione ([Roz69] (Teor.2.2), [Poi12] (pag.59); si
177
Probabilità 5.1
Supponiamo che la collezione di eventi B = {Bj�j = 1, ..., n} sia caratterizzata dal fatto che
per ogni coppia Bj ∩ Bk = � e inoltre �n
k=1 Bk = ⌦. B si dice un insieme completo di eventi e
vale la relazione generale
n
(5.2) P(A) = � P(A�Bk) P(Bk) .
k=1
178
5.2. VARIABILI ALEATORIE
Si noterà la somiglianza formale con la formula che esprime lo sviluppo di uno stato quan-
tistico su una base
� � = � �n� �n� �
n
ma la di↵erenza sta nel fatto che in teoria delle probabilità si compongono i valori di P, non le
ampiezze.
5.1.3. La formula di Bayes. Se B1, B2, . . . , Bn è un insieme completo di eventi incompa-
tibili tra loro allora vale la formula
P(Bk) P(A�Bk) P(Bk) P(A�Bk)
P(Bk�A) = = n
P(A) ∑k=1 P(Bk)P(A�Bk)
La formula precedente, pur essendo una conseguenza immediata della definizione di proba-
bilità condizionata, può risultare utile. Si veda il Probl. 9.
5.1.4. Indipendenza statistica. Se P(A�B) = P(A), ciò significa che la conoscenza del-
l’avverarsi dell’evento B non ha alcuna influenza sulla nostra aspettativa relativamente ad A. Si
dice allora che A e B sono statisticamente indipendenti. Esplicitamente la condizione suona cosı̀
P(A ∩ B) = P(A) P(B) .
La relazione di indipendenza statistica è dunque simmetrica. In generale, dati n eventi
A1, A2, . . . , An, questi si dicono mutuamente indipendenti se per ogni combinazione di indici
e ogni k, (2 ≤ k ≤ n),
P(Ai1 ∩ Ai2 ∩ . . . ∩ Aik ) = P(Ai1 ) P(Ai2 ) . . . P(Aik )
Un esempio di eventi che sono indipendenti a due a due ma non mutuamente è il seguente: nel
lancio di due dadi, A={il primo dado dà un numero dispari}, B={il secondo dado dà un numero
dispari}, C={la somma dei dadi è dispari}. Si trova P(A) = 1�2, P(B) = 1�2, P(C) = 1�2. Ora si
verifica facilmente che P(A ∩B) = 1�4, P(A ∩C) = 1�4, P(B ∩C) = 1�4; tuttavia P(A ∩B ∩C) = 0!
Dunque i tre eventi non sono mutuamente indipendenti.
costituiscono delle coordinate che permettono di individuare gli eventi di ⌦ in modo simile alle
coordinate che si utilizzano in geometria. Ad es., l’evento rappresentato dall’estrazione di un K♡
può essere messo in corrispondenza con una variabile aleatoria a valori interi nell’intervallo [1−32]
e il re di cuori corrisponde al valore 7. Avendo valori reali, le variabili aleatorie ammettono tutta
una serie di operazioni aritmetiche che hanno un significato probabilistico/statistico. Vediamo
alcune di queste operazioni.
Se X è una v.a., si definisce il valore di aspettazione (o valore medio)
M[X] = � X(!) P(!) .
!∈⌦
Inoltre come è familiare dalla statistica, si definisce la varianza
D[X] = M[(X − M[X]]2
e la skewness
S[X] = M[(X − M[X])3]�D[X]3�2
che dà una misura della asimmetria della v.a.
179
Probabilità 5.2
−∞
Questa definizione si applica sia a variabili discrete (come Bernoulli o Poisson) sia a variabili
continue (come Gauss). Il significato del di↵erenziale nella formula precedente è da interpretare
nel senso delle distribuzioni (più precisamente l’integrale è nel senso di Stieltjes). In molti casi
si trova che la f.d.d. per una v.a. continua può essere rappresentata attraverso una densità di
probabilità, ossia
x
[x] =
ˆ
⇢(y) dy
−∞
(è la densità ⇢ ad es. che è collegata in meccanica ondulatoria alla funzione d’onda attraverso
la relazione di Born ⇢ = � �2).
5.2.2. Funzione generatrice. Sia X una v.a. a valori interi. Consideriamo l’espressione
F(z) = M[zX] = � pi zi .
i
essendo pi = P(X = i). Si tratta di un polinomio nella variabile z che contiene in sè ovviamente
tutte le informazioni su X. Ad es. si avrà
M[X] = � i pi = F ′ (1)
i
D[X] = M[(X− < X >)2] = F ′′ (1) + F ′ (1) − F ′ (1)2 .
La funzione F viene chiamata funzione generatrice della v.a. X. Per variabili a valori continui si
utilizza comunemente una definizione un po’ di↵erente
180
5.2. VARIABILI ALEATORIE
ossia la funzione di probabilità della somma di v.a. indipendenti è data dalla convoluzione delle
rispettive funzioni di probabilità. In nodo analogo si trattano le v.a. a valori continui.
181
Probabilità 5.2
Possiamo ora apprezzare l’utilità della definizione di funzione generatrice. Si trova che la
f.g. per la somma D1 + D2 è data da
F12(z) = � pipjzi+j = F(z)2 ;
i,j
ossia la f.g. per la somma di v.a. indipendenti si ottiene moltiplicando le funzioni generatrici
degli addendi. Ciò costituisce una bella facilitazione!
Problema 5-2. Considerare le v.a. Xi di Bernoulli. Ogni Xi ha una f.g. data da
F(z) = q + p z .
Calcolare la f.g. per la somma di n variabili di Bernoulli indipendenti, e dedurne il valor medio
e la varianza.
Soluzione. Si ha immediatamente Fn(z) = (q + p z)n e dunque
′
M[� Xi] = Fn [1] = n p
′′ ′ ′
D[� Xi] = Fn (1) + Fn (1) − (Fn (1))2 = n(n − 1)p2 + np − (np)2 = n q p
◁
5.2.5. La legge dei grandi numeri. Sotto questa denominazione vanno numerosi risultati
che riguardano valori asintotici di distribuzioni di probabilità quando il numero di gradi di libertà
tende all’infinito. L’idea generale è quella della meccanica statistica; un sistema costituito da un
numero molto grande di particelle in debole interazione può essere studiato facilmente sfruttando
le semplificazioni che si presentano nel limite di infinite particelle. Per variabili aleatorie un
caso importante è quello della somma di un grande numero di v.a. indipendenti e tutte con
la medesima distribuzione di probabilità. L’esempio più semplice è quello della variabile di
Bernoulli X = ∑ Xi. La sua funzione generatrice è semplicemente (q + pz)n. Il valore medio è
dato da np quindi conviene considerare la v.a. centrata X − M[X], a media zero. Tuttavia non è
ancora possibile prendere esplicitamente il limite n → ∞ in quanto la deviazione standard vale
nqp e cresce indifinitivamente. Si può allora considerare la v.a. normalizzata
X − M[X]
(5.4) ⌘= �
D[X]
che ha perciò media zero e varianza uno. Calcoliamo la sua funzione generatrice nella forma
adatta per una distribuzione continua
−i √npt
F⌘(x) = M[eit⌘] = e ].
it √nXp q
(5.5) npq M[e
Adesso però possiamo utilizzare la formula che riduce il calcolo alla potenza n−esima della f.g.
per una singola v.a.:
−i √npt
n
F⌘(x) = e �q + pe �
i √npq
t
(5.6) npq
� p � q
−i qn −i pn
n
= �q e + pe �
t t
(5.7)
Osserviamo ora che, nel limite n → ∞, la funzione F⌘ ammette un semplice sviluppo asintotico
che si ottiene sviluppando le funzioni esponenziali:
n
t2
(5.8) F⌘ = �1 − + O(n−3�2)�
2n
e pertanto al limite n → ∞ la f.g. si riduce a una distribuzione normale di Gauss. Abbiamo
ricavato un risultato, noto come legge dei grandi numeri, o teorema si DeMoivre-Laplace, secondo
182
5.3. PROCESSI ALEATORI
0.9
0.8
0.7
0.6
i/m
0.5
0.4
0.3
0.2
0.1
0
!3 !2 !1 0 1 2 3 4
X
Figura 5-3. De Moivre: legge dei grandi numeri, istogramma con erfc() sovrapposta
cui la somma ⌘ definita nell’Eq. (5.4) nel limite di n molto grande è ben descritta da una
distribuzione normale. Il risultato è molto generale. Non dipende dalla natura dettagliata della
distribuzione di probabilità della singola Xi. Il risultato vale anche, sotto opportune restrizioni,
nel caso in cui la distribuzione di Xi possa dipendere da i. Si veda [Roz69]. Il programma
demoivre.m dimostra attraverso una simulazione lo stesso risultato. Si costruisce una matrice
di 0 e 1 distribuiti secondo Bernoulli e la somma sulle colonne corrisponde alla v.a. X. Si
analizza l’istogramma e si può controllare di quanto di↵erisce da una distribuzione normale in
funzione delle dimensioni dell’esperimento. In Fig.5-3 la linea´continua è data√dalla funzione
erf(), che riproduce la distribuzione Gaussiana (cumulata), cioè −∞ exp{− 12 y2}� 2⇡. I risultati
x
della simulazione siano X1, X2, ..., Xi, ..., Xm, ordinati in modo crescente, vengono riportati sul
diagramma sull’asse delle ascisse e sulle ordinate si riporta l’indice scalato (i�m).
�0 1�5 0 0 0 0�
�1 0 2�5 0 0 0�
�0 4�5 0 3�5 0 0�
� �
M=� �
�0 0 3�5 0 4�5 0�
� �
�0 0 0 2�5 0 1�
�0 0 0 0 1�5 0�
Si nota che la matrice è caratterizzata dal fatto che ogni elemento di matrice è non–negativo
(deve rappresentare una probabilità) e inoltre la somma degli elementi di matrice su ogni colonna
vale esattamente uno. Questo vale in generale: ogni matrice che rappresenta la probabilità di
transizione di una catena di Markov deve soddisfare queste condizioni e viene chiamata matrice
stocastica.
(5.10) Mij ≥ 0, � Mij = 1 .
i
�
Se consideriamo la matrice trasposta M la condizione (5.10) implica che il vettore con tutte
componenti uguali a uno è autovettore con autovalore uno. Dunque det(1 − M� ) = 0, ma
il determinante di una matrice è uguale a quello della trasposta, dunque anche M ammette
l’autovalore uno. Inoltre si può vedere che tutti gli autovalori di M devono essere localizzati nel
disco di raggio uno. Ciò discende dal teorema di Gershgorin ([QRF00], riportato in Appendice).
La matrice M permette di calcolare il vettore di probabilità ad ogni tempo t (intero) secondo
la semplice formula
p(t) = Mt p(0) .
Ammettiamo che M sia diagonalizzabile § . Allora vale la decomposizione spettrale
M= � P
∈ (M)
e quindi
Mt = �
t
P .
∈ (M)
Per tempi molto grandi gli autovalori in modulo inferiori a uno decadono esponenzialmente e
sopravvivono solo quelli in modulo uguali a uno. L’autovalore uno esiste sempre; caso per caso
possono esistere altri autovalori ei . Si avrà allora
p(t) ∼ P1p(0) + � ei tPei p(0) .
t→∞
I termini oscillanti si mediano a zero e quindi il processo tende al limite rappresentato dall’au-
tovettore appartenente all’autovalore uno, che rappresenta la distribuzione stazionaria. Sotto
condizioni più restrittive gli autovalori di M sono interni al cerchio unitario, ad eccezione del sin-
golo autovalore uno, e quindi la convergenza del processo è assicurata indipendentemente dalla
media temporale. Queste condizioni sono enunciate nel teorema di Perron–Frobenius riportato
in appendice (si veda [Var62, Gan59]).
Problema 5-3 (Random walk). Si consideri il random walk in una sola dimensione. Il
sistema comporta infiniti stati e quindi l’analisi non può basarsi su quanto detto finora, in
particolare i teoremi di Perron e Frobenius non sono applicabili. Dunque è necessario studiare il
problema con metodi ad hoc. Si ha Pnm = 12 ( n,m+1 + m,n+1). Il calcolo della potenza t − esima
§
Quello che è noto in generale sullo spettro di una matrice stocastica irriducibile è che gli autovalori di modulo
uno si identificano con le radici dell’unità per un qualche intero r e sono semplici. Per gli autovalori di modulo
inferiore a uno non si ha una descrizione cosı̀ precisa.
184
5.3. PROCESSI ALEATORI
e nel caso che si parta dal vettore iniziale un = n,j, per un dato j, si avrà c(k) = (−k)j.
Troviamo allora che l’applicazione di P è data semplicemente da
ˆ ⇡
(Ptu)n = (−k)j (k)n (cos k)t
dk
−⇡ 2⇡
e quindi per l’elemento j → j vale l’espressione
ˆ ⇡
(Pt)jj = (cos k)t
dk
.
−⇡ 2⇡
La funzione generatrice Gj(s) (dall’Eq.(5.2)) è quindi
ˆ ⇡
s cos k dk
(5.11) Gj(s) =
−⇡ 1 − s cos k 2⇡
Il calcolo o↵re
√
Gj(s) = √ − 1, Fj(s) = 1 − 1 − s2 .
1
1 − s2
Si ottiene allora che i) il camminatore ritorna con probabilità uno al punto di partenza e ii)
il tempo medio di ritorno è infinito (dato che la derivata in s = 1 diverge), un risultato dovuto
a G. Polya. La stessa proprietà vale per il random walk nel piano, mentre in dimensione tre o
superiore la probabilità di ritorno risulta inferiore a uno (si veda [ID89]). Si può infatti vedere
facilmente che l’integrale (5.11) diventa
dkn s ∑ cos ki
ˆ ⇡ ˆ ⇡
Gj(s) =
dk1
−⇡ 2⇡ n − s ∑ cos ki
...
−⇡ 2⇡
e la convergenza o divergenza dell’integrale per k piccolo (in gergo nell’infrarosso) si può decidere
anche senza calcolarlo esplicitamente. Ponendo s = 1, l’integrando presenta un polo del secondo
ordine a k = 0. Se n ≥ 3 l’integrale è finito, il che ´ implica che il camminatore ha solo una
probabilità finita di ritornare al punto di partenza ( k n−1
dk�k2 < ∞ per n ≥ 3).
Problema 5-4 (Il problema della coda al botteghino). Il problema a↵rontato nel Probl.5,
senza disporre di strumenti specifici, si può ricondurre al problema del random walk. Il numero
di biglietti da 5 euro presenti in cassa varia di ±1 esattamente come nel random walk in una
dimensione. Si tratta di valutare la percentuale di cammini che ritornano all’origine senza
mai passare per valori negativi. Si è visto che ad ogni cammino di questo tipo corrisponde
un cammino con due passi in più tale da non passare mai per lo zero prima dell’ultimo passo.
Quindi possiamo contare i cammini che ci interessano attraverso un problema di “primo ritorno”
all’origine. Abbiamo visto che la probabilità di ritornare per la prima volta all’origine dopo t
passi ha come funzione generatrice F(s), Eq. (5-3)
√ ∞
F(s) = 1 − 1 − s2 = 2 � � �(s�2)2n+2�(n + 1)
2n
n=0 n
185
Probabilità 5.3
da cui si deduce che la probabilità di tornare per la prima volta all’origine dopo 2(n + 1) passi
è uguale a 2−2n−1�2n n
��(n + 1). Tenendo conto che il ritorno all’origine può avvenire restando
sempre a valori positivi oppure negativi, e che ci sono in totale 22n+2 cammini lunghi 2n + 2, il
numero di cammini che si mantengono a valori positivi prima di tornare all’origine è �2n n
��(n+1)
e questo coincide, per quanto visto nel Probl. 5-4, al numero di cammini lunghi 2n che non
scendono mai sotto lo zero. Si noterà che ci sono diversi modi di impostare il problema della
coda: se sappiamo a priori che il numero di biglietti da 5 e da 10 euro sono uguali, allora la
probabilità è da conteggiare limitatamente ai cammini che comunque partono e arrivano a zero
in 2n passi; in questo caso la probabilità di “non-attesa” è appunto 1�(n + 1). Se invece non
abbiamo alcuna informazione sulla distribuzione dei biglietti il numero di cammini possibili è
√
dato da 22n. Dimostrare che in questo caso la probabilità di non essere costretti ad attendere, per
mancanza di resto, diminuisce di un ulteriore fattore 2−2n�2n �
n ≈ 1� ⇡n(1− 8n + 128n2 +O(n )).
1 1 −3
L’idea è del tutto intuitiva: dopo k estrazioni e c esemplari prescelti si comincia di nuovo con
N � N − k e n � n − c. Questo garantisce che alla fine il numero di esemplari è precisamente
n; resta però da dimostrare che in questo modo ogni campione viene selezionato davvero a caso
(per esempio non si accumulano i campioni verso la fine della selezione). Il programma matlab
aiuta a decidere positivamente:
campioni.m
function X = campioni(n,N)
% Selezionare a caso n campioni da una popolazione di N elementi
X=[];
nc=n; % campioni ancora da estrarre
Nc=N; % esemplari residui
while nc>0,
if(rand < nc/Nc)
X=[X, Nc]; % ok selezionato un campione
nc = nc-1;
end
Nc=Nc-1; % rimangono Nc esemplari
end
5.3.2. Catene di Markov continue. Studiamo ora un’altra varietà di processi aleatori.
Sempre limitandoci a sistemi con un numero finito di stati possibili, esistono casi in cui la
probabilità pn(t) dipende da un parametro continuo t. Si pensi ad esempio a un insieme di
186
5.3. PROCESSI ALEATORI
nuclidi radioattivi A1, A2, . . . , AN di cui si conosce il ritmo di decadimento i→j; la densità
pn(t) soddisfa l’equazione di↵erenziale
che è automaticamente soddisfatto se ∑n Hn,m = 0, cioè la somma degli elementi di ogni colonna
somma a zero. Si richiederà inoltre che gli elementi fuori diagonale Hn,m siano positivi (rappre-
sentano una probabilità di transizione nell’unità di tempo), mentre i termini diagonali devono
saldare il bilancio della colonna e quindi sono negativi.
Dunque ognuno dei cerchi Ci ha centro sull’asse reale negativo e passa per l’origine. In conclusio-
ne, detto h il massimo valore assoluto degli elementi sulla diagonale di H, lo spettro è compreso
nel cerchio di raggio h centrato in −h. Se consideriamo l’evoluzione infinitesimale
p(t + t) ∼ p(t) + t H p(t)
questa è equivalente a una catena di Markov con matrice di transizione
M = 1 + tH
a patto di scegliere un passo t sufficientemente piccolo, e precisamente t ≤ 1�h. Il problema è
quindi ricondotto a quello di catene discrete. Nel caso irriducibile, la distribuzione asintotica è
perciò sempre data dalla soluzione di H = 0.
Si noti che, viceversa, ogni catena di Markov discreta si può trasformare in un processo
continuo: per ogni salto della catena si introduca un certo numero nh (halt) di pause in cui il
processo si arresta; la decisione di arresto sia presa con probabilità nh�(nh + 1), ne segue allora
un processo governato da
pt+1 = (1 − r) pt + r M pt
avendo introdotto il “parametro di rilassamento” r = 1�(nh+1). È chiaro che se facciamo crescere
nh l’equazione tenderà a rappresentare un’evoluzione continua governata dall’equazione
= (M − 1) pt
dpt
dt
187
Probabilità 5.3
Si vede che la matrice M−1 è proprio una matrice a elementi positivi fuori diagonale e soddisfa la
condizione che la somma su ogni colonna si annulla. È quindi del tipo considerato nel paragrafo
precedente.
5.3.4. Il metodo MonteCarlo. Con il termine MonteCarlo si intende una vasta categoria
di tecniche e algoritmi che permettono di simulare numericamente un processo fisico (totalmente
o parzialmente) governato dal caso. L’interesse può risiedere nel processo stesso (ad es. si
vuole studiare la dinamica dei neutroni in un reattore) oppure il processo in sè è fittizio, non
rappresenta cioè una situazione fisica reale, ma il risultato dell’analisi statistica coincide con una
qualche grandezza collegata, questa sı̀, alla fisica. Ad es. lo studio di un sistema di meccanica
statistica in quattro dimensioni, pur non corrispondendo a un sistema fisica reale, permette di
calcolare grandezze che hanno un’interpretazione in termini di masse o ampiezze di transizione
in fisica quantistica. Le tecniche MonteCarlo nascono con i primi calcolatori elettronici, un nome
che ricorre molto di frequente (Metropolis) è quello di un collaboratore di Enrico Fermi e John
Von Neumann (si veda a proposito [Mal03]). Si deve in gran parte a Mark Kac l’intuizione
secondo cui lo studio di processi stocastici attraverso la simulazione numerica può fornire metodi
di calcolo per la meccanica quantistica.
Un problema tipico che si presenta è quello di generare successioni di stati individuati da
coordinate x1, x2, . . . , xn e che sono distribuiti a caso secondo una probabilità
P(x ∈ S) = e− H[x] .
1
ˆ
(5.12)
Z x∈S
r = rand;
if r < p_1
return 1
else if r < p_1 + p_2
return 2
else if r < p_1 + p_2 + p_3
return 3
.....
end if
A parte la go↵aggine dello schema, appare evidente che il metodo risulta poco efficiente. Sarà
necessario in media e↵ettuare O(N) controlli logici per estrarre un singolo risultato. Una
formulazione più compatta è la seguente, ma è solo un miglioramento estetico:
q=cumsum(p)-p(N); % q=[0,p(1),p(1)+p(2),...,1-p(N)]
x=[];
for j=1:Nsample
r=rand;
x=[x; max(find(q<r))];
end
È evidente che l’idea si può tradurre in un metodo per estrarre efficientemente un valore
i ∈ {1, 2, ..., N} con probabilità p1, p2, . . . , pN. Il problema si mappa su quello dei portalettere
con l’equivalenza pi = `i�L. Se al portalettere Pj spettano `j′ lettere per Ij si pone ⇡j = `j′ N�L.
Ad ogni portalettere viene assegnato un secondo indirizzo Ij′ . Avendo perciò a disposizione le
tabelle {⇡j, Ij′ � j = 1 ∶ N} si può definire cosı̀ un metodo per estrarre a caso dall’insieme {Ij} con
probabilità {pj}:
i) si estrae un numero intero j a caso tra 1 e N
ii) si estrae un numero reale r tra 0 e 1
iii) se r < ⇡j si sceglie Ij
iv) altrimenti si sceglie Ij′ (l’altro indirizzo)
Il metodo è noto come il metodo degli alias. Si veda [Knu98], vol.II, oppure [Pel94]. L’imple-
mentazione matlab si trova nel package accluso (KnuthAliasMethod). Si può utilizzare anche
per il caso di distribuzioni continue. A questo scopo si suddivide il campo di definizione in
tanti canali (bins) in modo che la scelta del canale viene e↵ettuata con il metodo degli alias e
all’interno del canale si approssima la distribuzione con una funzione lineare per la quale esiste
un algoritmo veloce. Il lavoro addizionale costituito dalla costruzione delle tabelle è ampiamen-
te ripagato dalla velocità dell’algoritmo (a patto che si lavori in assetto costante, cioè che la
distribuzione di probabilità sia sempre la stessa!).
essendo J una costante e la notazione < xy > viene a significare che la somma va estesa alle
coppie di primi vicini. In presenza di un campo magnetico esterno B all’energia va aggiunto
anche un termine − ∑x B ⋅ µ(x). Ora il valore di una grandezza fisica, quale la magnetizzazione,
è esprimibile attraverso un integrale del tipo
−1
�M(x)� = Z( ) � dµ(x)e−
ˆ
H(n)
µ(x) .
x∈Z3
In generale si desidera valutare il valor medio di una qualunque grandezza fisica, funzione
definita nello spazio delle fasi,
In casi speciali, per modelli più semplici, si è riusciti a trovare metodi per calcolare integrali
cosı̀ complessi per via analitica. Tuttavia, nella gran parte dei modelli interessanti, la via della
simulazione MonteCarlo rappresenta l’unica risorsa.
Sono stati concepiti vari metodi per realizzare questo obiettivo. Forse il più semplice con-
cettualmente q̀uello del cosiddetto “heat bath”. Nella sua forma più semplice il metodo consiste
nel visitare sequenzialmente tutti i punti del reticolo (in gergo una sweep e di volta in volta
determinare µ(x) come se fosse l’unica variabile dinamica (tutte le altre variabili si tengono
temporaneamente congelate). Dato che µ(x) interagisce solo con un numero limitato di pri-
mi vicini, lo spazio di probabilità è costituito dai punti della sfera con densità di probabilità
proporzionale a
6
exp{− J µ(x) ⋅ � µ(xk) − B ⋅ µ(x)}
k=1
dove xk indica i primi vicini di x.
A titolo di esempio, prendiamo un modello più semplice che basterà a chiarire l’idea. Il
modello di Ising prevede in ogni punto di un reticolo spaziale una variabile a due soli valori ±1,
essenzialmente una restrizione del modello di Heisenberg in cui si vincoli ogni magnete ad avere
la stessa direzione in modo che sopravvive come variabile solo l’orientazione. Se consideriamo
di più il caso di un reticolo piano il modello si riduce al seguente
Per un qualunque spin µ(x) i primi vicini sono quattro e per una data configurazione si
possono riscontrare le situazioni seguenti
+ + − + + − + + − −
+�+ +�− +�+ −�+ +�+ +�− +�− −�+ −�+ +�+ ......
+ + + + − + − − + −
più tutte le altre simili per un totale di 24. La probabilità di µ(x) dipende solo dalla somma
degli spin primi vicini; detta s(x) = J ∑y µ(y) �x−y�,1 la probabilità sarà data semplicemente
da
e±s(x)
P(µ(x)=±1) = s(x)
+ e−s(x)
.
e
La somma s(x) può assumere solo cinque valori di↵erenti, ed è quindi molto facile e rapido
assegnare a µ(x) un valore in accordo con questa formula. Si applica questa ricetta a tutti
gli spin successivamente e poi si ricomincia. Ovviamente è necessario limitare il sistema a
un numero finito di punti individuando una regione finita del piano. In gergo questo si dice
“fissare il cut–o↵ infrarosso”. Non è consigliabile e↵ettuare la sweep punto per punto, ma
conviene agire su un sottoreticolo di variabili disaccoppiate, ad esempio tutte quelle di posto
pari (somma delle coordinate) e in seguito quelle di posto dispari. Il problema si presta a
essere a↵rontato in parallelo. Un grande numero si sweeps sarà necessario per generare una
configurazione del modello non troppo correlata alla iniziale. Infatti certe configurazioni locali
tendono a mantenersi stabili: per grande gli spin tendono a favorire valori uguali tra primi
vicini (spin allineati) ed esiste perciò un tempo caratteristico per ogni modello che è necessario
attendere prima che la correlazione sia diminuita di un fattore 1�e - si considera cioè che la
correlazione avrà una dipendenza dal “tempo” della catena di Markov del tipo C(t, t ′ ) = exp(−�t−
t ′ ��⌧). Tanto più piccolo è ⌧, il tempo di autocorrelazione, tanto più efficiente sarà il processo
di generazione di configurazioni statisticamente indipendenti. Molto studio è stato messo nella
analisi e nello sviluppo di algoritmi nel tentativo di abbattere il tempo di autocorrelazione. È
un buon investimento, perchè un algoritmo che migliori l’efficienza rappresenta un risparmio
di tempo e/o di denaro. Per chi sia interessato a sviluppi recenti si consiglia di consultare i
191
Probabilità 5.3
Proceedings delle conferenze di Teorie di Gauge su Reticolo, che escono con cadenza annuale, in
particolare [Sok91].
b(x) = −∇H(x), 2 = 2� .
Dunque è possibile costruire un processo aleatorio x(t) che è garantito convergere per tempi
grandi a una distribuzione stazionaria che può essere scelta a piacere. Questo significa che l’EDS
può essere utilizzata come algoritmo di simulazione MonteCarlo.
192
5.3. PROCESSI ALEATORI
−∞
e l’equazione di Langevin assume la forma
@x(t, ⌧) @2x(t, ⌧)
= − V ′ (x(t)) + ⌘(t, ⌧)
@⌧ @t2
Il fatto importante è che si possono ottenere informazioni sullo spettro di energia e su ele-
menti di matrice quantistici dallo studio di funzioni di correlazione del processo aleatorio. Ad
es. si ha (vedi appendice)
�
(5.17) M[x(t)x(s)] ∼ � ��E0�q�E��2 e−(E−E0 )�t−s��h
E
dove q è l’operatore di posizione. Questa corrispondenza o↵re la possibilità di stimare le carat-
teristiche spettrali di sistemi quantistici complessi per i quali un calcolo attraverso l’equazione
di Schroedinger non sarebbe possibile. Ovviamente l’approccio MonteCarlo introduce necessa-
riamente degli errori (statistici e sistematici) che devono essere valutati e ridotti al minimo. Ma
questo riguarda un altra serie di lezioni.
193
Appendice IV
Media: M[x] = .
Dev.St.: D[x] =
√
Skewness: 1�
● Distribuzione di Gauss
Spazio degli eventi elementari: ⌦ = R
e− 2 x �
1 2
v.a.: X(x) = x
Media: M[X] = 0
Dev.St.: D[X] =
Skewness: 0
● Gauss multidimensionale
Spazio degli eventi elementari: ⌦ = Rn
e− 2 �x� A �x�
1 −1
195
Appendice IV 5.5
´∞
Funzione generatrice: F(t) = −∞ dx ei<t�x> ⇢(x) = e− 2 �t� A�t�
1
v.a.: Xi(x) = xi
Media: M[Xi] = 0
Dev.St.: < Xi Xj > = Aij .
La matrice A di dimensione n è positiva definita, ossia �x� A �x� > 0 per ogni vettore
x non nullo. Il calcolo della funzione di distribuzione per una densità di probabilità
gaussiana in Rn si e↵ettua come segue M ≡ A−1 = R−1 ⇤ R, ⇤ diagonale:
n ˆ
= N � ei(R⇠)j x− 2 ⇤jj x dx =
1 2
�
j=1
� 2⇡ − 2⇤1 (R⇠)j 2
= N � ��
n
e jj �=
j=1 ⇤jj
(2⇡) 2 − 1 <(R⇠)�⇤−1 (R⇠)> (2⇡) 2 − 1 <⇠�M−1 ⇠>
n n
=N√ e 2 =N√ e 2
det M det M
e imponendo F(0) = 1 si trova
√
det M − 1 <x�Mx>
⇢(x) = n e 2
(2⇡) 2
� 0 B12 0 ... 0 �
� 0 ... 0 �
� �
0 B23
� ⋮ ⋮ � ⋮ �.
� �
...
� 0 0 0 . . . Br−1,r�
�Br,1 0 0 ... 0 �
● Gli autovalori di modulo ⇢(A), per una matrice ciclica di indice k, sono semplici e coin-
cidono con le radici k-esime dell’unità exp{2⇡ij�r}, e in generale per ogni autovalore
anche exp{2⇡ i j�r} appartiene allo spettro.
Il teorema determina le proprietà asintotiche del processo di Markov. Infatti per tempi
lunghi la matrice di transizione sarà data da
r−1
Pt ∼ � e2⇡ijt�r Pj + O( sub ) ,
t
t→∞
j=0
dove i termini trascurabili sono associati a tutti gli autovalori in modulo inferiori a uno e sub è
quello di modulo più grande. Si a↵erma di solito che il limite della distribuzione di probabilità
esiste solo per il caso primitivo, cioè per r = 1. Questo è a rigore vero, ma irrilevante per le
applicazioni dove quello che conta è il comportamento del processo mediato su un tempo finito.
Infatti è chiaro che il contributo alla probabilità a tempi lunghi degli autovettori con autovalore
exp{2⇡ij�r}, j > 0 risulta fortemente attenuato se procediamo ad una media su un tempo finito
(ricordiamo che per una qualunque radice dell’unità ! ≠ 1 si ha ∑rk=1 !k = 0). Si veda anche il
seguente § 5.8.
197
Appendice IV 5.7
Polya.m
1 function Wtot=polya(Nsw,n,s,w1,b1)
2 % Usage: [Wtot,P]=polya(Nsw,n,s,w1,b1)
3 % Default: n=10, Nsw=1000, w1=b1=5, s=0
4 if nargin<4, w1 = 5; end
5 if nargin<5, b1 = w1; end
6 if nargin<2, n = 10; end
7 if nargin<1, Nsw =1000; end
8 if nargin<3, s = 0; end
9
10 Wtot=[];
11 for j=1:Nsw % start Nsw draws from Polya
12 N=w1+b1; p=w1/N; W=0; w=w1; b=b1; % initialize
13 for k=1:n
14 if(rand<p), W=W+1; w=w+s;
15 else, b=b+s;
16 end
17 N=w+b; p=w/N; % update
18 end
19 Wtot=[Wtot,W]; % store result
20 end
198
5.8. CALCOLO DEL TEMPO MEDIO DI RITORNO
n+1 N−n+1
p(n, t + 1) = p(n + 1, t) + p(n − 1, t)
N N
(dove il primo coefficiente è da considerare uguale a zero per n = N e il secondo per n = 0) si
traduce in una relazione per G(n, t):
N−1
n+1 N−n+1
G(x, t + 1) = � � p(n + 1, t) xn + p(n − 1, t) xn�
n=0 N N
N−1
d d
= �� p(n + 1, t) xn+1 + p(n − 1, t) xn − x2 p(n − 1, t) xn−1�
1 1
n=0 N dx N dx
1 − x2 d
= p(x) + x p(x)
N dx
La distribuzione di probabilità stazionaria deve soddisfare l’equazione G(x, t + 1) = G(x, t) ossia
dG
(1 + x) x, t) = N G(x, t) che ha come unica soluzione G(x, t) = N (1 + x)2. La normalizzazione
d(
(∑ p(n) = G(1, t) = 1), impone N = 2−n. Ne segue che la distribuzione di equilibrio è data da
p(n) = 2−n �N n
�. Per N molto grande i valori più grandi di probabilità si hanno per n ≈ N�2. Per
esercizio si calcoli M[n] e D[n]. Con un calcolo analogo si trovano tutti gli altri autovalori della
matrice di transizione (precisamente {j�N�j = −N, −N+1, ..., N−1, 1}. La presenza dell’autovalore
−1 implica che la matrice M di transizione è ciclica di indice 2.
P=� P
Gj(s) = � (P )jj
s
1−s
dFj ∑ (1−s )2
(P )jj
(5.18) µj = =
ds (∑ 1−s (P
1
)jj)2
1
(1−s)2
(P1)jj + ∑ ′ (1−s )2 (P )jj
(5.19) =
( 1−s
1
(P1)jj + ∑ ′ 1−s
1
(P )jj)2
(5.20) = (P1)−1jj + O(1−s) .
dove ∑ ′ indica la somma estesa agli autovalori diversi da uno. Ora il proiettore P1 è dato da
(P1)nm = uR n um essendo u e u gli autovettori destri e sinistri di P con autovalore uno. Dato
L R L
che l’autovettore sinistro ha tutte componenti uguali a uno (dalla la condizione di stocasticità
Eq. 5.10) si ha per il limite s → 1
µj = 1�uRj
Si noti che nel caso di matrice di transizione irriducibile tutte le componenti della distribuzione
stazionaria uR sono strettamente positive.
Il codice Mathematica che segue calcola le funzioni generatrici F e G per il modello di
Ehrenfest.
EhrenfestP[n_]:=
SparseArray[{{i_,j_}/;i-j==1->1-(j-1)/n,{i_,j_}/;i-j==-1->
i/n},{n+1,n+1}]
P[n_]:=P[n]=Normal[EhrenfestP[n]];
R[n_,s_]:=R[n,s]=
Simplify[s P[n] .Inverse[IdentityMatrix[n+1]-s P[n],
Method->CofactorExpansion]];
G[n_,s_]:=G[n,s]=Simplify[Tr[R[n,s],List]];
F[n_,s_]:=F[n,s]=Simplify[G[n,s]/(1+G[n,s])];
K=15;
Simplify[F[K,s]]/.s->1
{1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1}
(* ritorno c.p.1 per tutti i casi iniz. *)
Series[D[F[K,s],s],{s,1,1}] (* Output omesso *)
mu=Limit[D[H[K,s],s],s->1]
{32768, 32768/15, 32768/105, 32768/455, 32768/1365, 32768/3003,
32768/5005, 32768/6435, 32768/6435, 32768/5005, 32768/3003,
32768/1365, 32768/455, 32768/105, 32768/15, 32768}
(* 2ˆ15/Binomial(15,k) *)
L’ultimo passaggio presume familiarità con il formalismo dei path integrals di Feynman come
sviluppati ad es. su [Fey72]. Si veda [Pol77] per l’applicazione al calcolo del gap di energia e
per l’estensione a sistemi più interessanti.
M[dw(t) dw(s)] = dt (t − s) ,
√
La funzione rappresenta il coefficiente di di↵usione, cosicché dw(t) fornisce il contributo
aleatorio allo spostamento infinitesimo, come descritto in figura.
)
dt
x (t+
1/2
dw(t)
t
, t) d
b(x
x(t)
201
Appendice IV 5.10
La probabilità che x(t) si trovi al tempo t in una certa porzione di spazio I ⊂ Rn è data da:
dove ⇢(x, t) è la densitá di probabilitá. Si trova, sotto opportune condizioni, che ⇢(x, t) soddisfa
= ⇢ − ∇ (⇢b)
@⇢
(5.22)
@t 2
detta equazione di Kolmogorov. Il primo addendo rappresenta la parte detta di↵usiva del
processo, mentre il secondo è il classico termine dell’equazione di continuità del campo b di cui
la (5.22) rappresenta una generalizzazione.
Nel caso in cui il drift è il gradiente di una funzione, allora è immediato determinare la
distribuzione invariante, cioè la soluzione stazionaria dell’Eq.(5.22). Sia infatti
b(x) = − ∇S(x) .
2
Segue che il membro di destra dell’equazione si annulla per ⇢ = exp{−S}. Nell’applicazione alla
meccanica quantistica, la funzione S rappresenta l’azione (euclidea, cioè a tempo immaginario)
�
e per consistenza è presente un fattore 1�h
dove x(0) è la condizione iniziale. Dato che x risulta sovrapposizione lineare di variabili gaussiane
(sempre che lo sia x(0)), la soluzione è data ad ogni istante da una variabile aleatoria gaussiana;
per caratterizzarla è allora sufficiente conoscerne la media e la (co-)varianza. Dalla (5.23) si trova
�
Il calcolo della radice quadrata A−1�2 non pone eccessivi problemi; inoltre è e↵ettuata una volta sola nel
corso del calcolo.
202
5.10. PROCESSI DIFFUSIVI
ˆ t ˆ t
A(t′ −t) ′
(eA(t −t) )jh dwh(t ′′ )�
′′
M[xi(t) xj(t)] = M� (e )ik dwk(t )
0 0
ˆ tˆ t
(eA(t −t) )ik(eA(t
′′ −t)
)jh M[dwk(t ′ ) dwh(t ′′ )]
′
=
0 0
ˆ tˆ t
(eA(t −t) )ik (eA(t
′′ −t)
(t ′ − t ′′ ) d t ′
′
= )jh 2 kh
0 0
t
(e2A(t −t) )ij d t ′
′
=2
ˆ
0
1 − e−2At
=� �
A ij
Si è sfruttato il fatto che la matrice A è simmetrica. Nel limite per t → ∞ si trova
M[xi(t) xj(t)] → (A−1)ij
Se adottiamo la scelta di Parisi, = A−1, la soluzione diviene
ˆ t
−t
et −t A−1�2dw(t ′ )
′
x(t) = x(0)e +
0
da cui segue
M[xi(t)xj(t)] = (A−1)ij �1 − e−2t�
Quindi la soluzione dipende dalla scelta di , ma non la distribuzione stazionaria, che è data da
⇢(x, t) → N exp{− 12 �x� A �x�}
Un problema interessante è quello di realizzare algoritmi efficienti per studiare numericamente
la soluzione di equazioni di↵erenziali stocastiche; teniamo conto infatti che i casi in cui si sa
risolvere esattamente l’equazione si riducono a poca cosa (caso lineare o riconducibile a). Un
metodo molto semplice è basato sull’osservazione seguente: per integrazione si ha dall’Eq. (5.14)
(avendo assunto = 1)
ˆ t+⌧
x(t + ⌧) = x(t) + b(x(t ′ )) dt ′ + w(t + ⌧) − w(t) ,
t
e√dunque la parte casuale è data esattamente da un contributo gaussiano con media 0 e varianza
⌧. L’integrale invece bisogna approssimarlo in modo accurato. La formula del trapezio è la
prima possibilità
t+⌧
b(x(t ′ )) dt ′ ≈ 12 ⌧ (b(x(t)) + b(x(t + ⌧))) .
ˆ
t
Questo tuttavia obbliga a risolvere un’equazione implicita per ottenere x(t + ⌧). In alternativa si
può approssimare ulteriormente la formula inserendo x(t + ⌧) ≈ x(t) + b(x(t))⌧ + w(t + ⌧) − w(t)
nella formula del trapezio.
Per altri algoritmi, più accurati, si può consultare [KP99]. Per l’applicazione delle equazioni
stocastiche al Monte Carlo si veda invece [DH87].
203
Problemi
Il simboli � e �� indicano gli esercizi più impegnativi. Il simbolo # segnala che la soluzione,
almeno parziale, è riportata in fondo al capitolo.
Problema 1. Si considerino tutti i possibili intervalli contenuti nel segmento (0, 1) e tutte
le loro possibili unioni (pluri–intervalli). Ad un qualunque intervallo è associata una lunghezza
e questa si può assumere come P().
Problema 2. # Si tirano tre dadi. Si determini la probabilità che la somma dia 11 oppure
12. (Nel ’600, un certo DeMère, che passava molto tempo al tavolo da gioco, si era stupito del
fatto che P(11) > P(12), almeno stando alle sue osservazioni, ma Pascal diede la dimostrazione
che il fatto era del tutto prevedibile sulla base di un argomento matematico).
Problema 3. Un cubo di legno ha le facce colorate. Il cubo viene sezionato in dieci parti
parallelamente alla faccia x − y, poi ancora i dieci parti secondo x − z e infine secondo y − z.
Qual’è la probabilità che scegliendo a caso uno dei mille cubetti questo abbia due facce colorate?
Problema 4.#Si sceglie a caso un numero intero compreso tra 1 e 1000. Qual’è la probabilità
che il cubo del numero abbia le ultime due cifre uguali a 1? (cioè n3 = ∗ ∗ ∗11).
Problema 5. # � Duecento spettatori si presentano in fila ordinata alla biglietteria del
cinema Astra, in possesso per la metà di biglietti da 5 Euro e l’altra metà di biglietti da 10.
La cassa del teatro è inizialmente vuota. Qual’è la probabilità che nessuno nella coda debba
aspettare per avere il resto?
Problema 6. # Una variante dell’esercizio precedente: supponiamo che nella coda ci siano
n+m spettatori muniti di banconote da 5 Euro e n−m con 10 Euro. Come varia la probabilità
che la coda non incontri interruzioni?
Problema 7. In un gioco a premi, il presentatore mette sul tavolo tre buste di cui una sola
contiene il premio. Una volta scelta la busta, al concorrente viene indicata quale tra le due buste
rimanenti è sicuramente vuota e gli si o↵re la possibilità di modificare la scelta. Il concorrente
argomenta che a questo punto la probabilità di vincere è al 50% e tanto vale mantenere la scelta
iniziale. Tuttavia il concorrente sbaglia a non approfittare dell’o↵erta. Perché?
Problema 8. # Il classico problema “della rovina del giocatore”: giocando a testa-o-croce
un giocatore gioca ogni volta un Euro. Assumendo che il suo capitale iniziale sia di x Euro, il
giocatore si ripropone di continuare ad oltranza fino a raggiungere un capitale di m Euro (m > x)
oppure perde tutto. Qual’è la probabilità di uscire con il portafoglio vuoto? (vedi gambler.m).
Problema 9.# In dieci contenitori si hanno nell’ordine 2 palle bianche e 2 nere nei primi
nove, mentre nell’ultimo sono contenute 5 bianche e una nera. Si estrae a caso una palla senza
sapere da quale contenitore. Se si è scelta una palla bianca, qualè la probabilità che ce ne siano
altre quattro nello stesso contenitore?
Problema 10. Dimostrare la formula
P(A ∩ B ∩ C) = P(A) P(B�A) P(C�A ∩ B) .
205
Problemi 5.10
Problema 11. Due punti vengono scelti a caso nell’intervallo (0, L). Qual’è la probabilità
che la loro distanza non superi `?
Problema 12. Due urne contengono inizialmente NA particelle di tipo A e NB di tipo B
ciascuna. Viene spostata a caso una particella dalla prima alla seconda urna e successivamente
dalla seconda alla prima. Il processo si ripete indefinitamente. Come varia la probabilità di
avere nA particelle di tipo A nella prima urna (e nB del secondo tipo)?
Problema 13. Passeggiata aleatoria (random walk): consideriamo un reticolo nel piano
costituito da tutti i punti con coordinate cartesiane intere, x = (n1, n2). Ad ogni istante una
particella puntiforme salta a caso dalla sua posizione ad una vicina con uguale probabilità in
ognuna della quattro direzioni. Determinare la la probabilità Pt(n1, n2) di trovare la particella
nel punto (n1, n2) all’istante t.
Problema 14. Sia dato un grafo rappresentato in Fig. 5-6. Si considera un cammino
casuale sul grafo che inizia in O. Ad ogni diramazione il cammino sceglie un ramo con la stessa
probabilità (tranne che ritornare indietro). Qual’è la probabilità di raggiungere il nodo A?
Problema 17 (Problema di Ehrenfest continuo). Si prenda il problema delle due urne del
Cap. 5.3.1, con una variante: l’estrazione a caso non avviene con regolarità ogni ⌧ secondi,
piuttosto l’estrazione avviene con probabilità dt nell’intervallo dt. Siamo dunque nel caso
prefigurato, con un parametro di rilassamento
p(t + dt) = (1 − dt) p(t) + dt ME p(t)
dove abbiamo indicato con ME la matrice stocastica del modello discreto delle due urne. Si ha
dunque un processo di Markov in tempo continuo governato dalla matrice HE = ME − 1. Dal
risultato dell’App. 5.7 si può verificare che lo spettro di HE è contenuto nel cerchio di raggio uno
centrato in −1. Per visualizzare l’evoluzione del vettore di probabilità si può utilizzare il codice
aug problem3.m.
Problema 18. Dimostrare che la matrice di transizione del modello di Ehrenfest soddisfa
l’equazione M T + T M = 0 essendo T la matrice diagonale con elementi di matrice Tn,n = (−1)n.
(ciò implica anche che lo spettro di autovalori di M deve essere simmetrico intorno all’origine
delle coordinate).
Problema 19. Dalla relazione Eq. 5.18 ricavare i primi due termini dello sviluppo di Taylor
per µj(s) e dedurne la varianza del tempo medio di ritorno D(⌧j).
Problema 20.#� Si consideri una matrice M n×n Hermitiana i cui elementi di matrice sono
estratti a caso da una distribuzione Gaussiana normale. Determinare la densità di probabilità
P( ∈ [x, x + dx]) per gli autovalori, nel limite di n molto grande. La distribuzione è nota come
“legge del semicerchio di Wigner” ([Wig67, Meh89, Cic09]).
Problema 21.# �� Costruire un algoritmo che permetta di estrarre matrici unitarie a caso,
uniformemente rispetto alla misura invariante [dU] = [d, g U] = [d U g].
Soluzioni
#. 2 Le disposizioni dei tre dadi che portano a una somma uguale a 11 sono le 6 seguenti:
6 + 4 + 1, 6 + 3 + 2, 5 + 5 + 1, 5 + 4 + 2, 5 + 3 + 3, 4 + 4 + 3, ma tenendo conto delle permutazioni
possibili (6 + 4 + 1, 6 + 1 + 4, 4 + 1 + 6, 4 + 6 + 1, 1 + 6 + 4, 1 + 4 + 6 etc.) si tratta in realtà 27 su
216 possibilità, mentre per il 12 si ha 6 + 5 + 1, 6 + 4 + 2, 6 + 3 + 3, 5 + 5 + 2, 5 + 4 + 3, 4 + 4 + 4,
sempre 6 partizioni, ma solo 25 combinazioni. DeMère si era ingannato non tenendo conto delle
permutazioni possibili.
#. 4 Il problema si imposta facilmente in termini aritmetici. Se n = c0 + 10c1 + 100c2 con ci
compreso tra 0 e 9, si avrà n3 = c30+30c20c1(mod100) (in quanto tutti gli altri termini comportano
un fattore almeno pari a 100 e quindi non influiscono sulle ultime due cifre; 1000 non è compreso,
ma è comunque da scartare). Ora il termine 30c21c2 influenza solo la penultima cifra del risultato
e quindi si dovrà avere c30 = 1(mod10), che implica c0 = 1 e di conseguenza c1 = 7. Di tutte le
scelte possibili per c0 e c1 solo una soddisfa la richiesta, dunque la probabilità è uguale a 1/100.
Un semplice comando matlab trae dall’impiccio nel caso non si sia particolarmente forti in
aritmetica:
>> n=1:1000;
>> N3=n.^3;
>> length(find(N3 - floor(N3/100)*100 == 11))/1000
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
10 20 30 40 50 60 70 80 90 100
del programma per vari valori di n, si trova il diagramma di Fig. 5-7 Risulta naturale conget-
turare che la probabilità sia almeno approssimativamente 1�n. La simulazione si realizza cosı̀:
ogni spettatore con biglietto da 5 aumenta la scorta della cassa, mentre uno con biglietto da dieci
la fa diminuire. Dunque una qualunque coda si può mettere in corrispondenza biunivoca con una
successione di +1 e −1 in quantità uguali a n. Si ottengono tutte le possibili code considerando
tutte le combinazioni di 2n elementi a n a n (che sono in numero di �2n n
�). Non è consiglia-
bile tentare di enumerare tutte le code possibili e contare per quante di queste la cassa rimane
sempre rifornita, per n=100 si tratta si un numero a 58 cifre! Però c’è il modo di estrarre a
caso un numero ragionevole di combinazioni e sulla base di questo campionamento e↵ettuare
208
5.10. SOLUZIONI
una stima. Naturalmente, dato che si tratta di una sorta di sondaggio, bisognerà tenere presente
che il risultato è soggetto a errore statistico, e possibilmente bisognerà quantificarlo. La parte
più difficile della simulazione è costituita di solito proprio dalla valutazione corretta delle flut-
tuazioni statistiche. Nella fig. 5-8 una simulazione per n = 20 con un totale di 2 × 105 campioni
0.054
data 1
y median
0.052
y std
0.05
<P>
0.048
0.046
0.044
0.042
0 2 4 6 8 10 12 14 16 18 20
bin
(sempre poco numerosi rispetto al totale delle possibilità) è analizzata suddividendo il campione
in gruppi di 20 e valutando la deviazione standard. Risulta che il valore più probabile della media
è 1�21, ossia in generale 1�(n+1). La soluzione si può determinare con il metodo della riflessione
speculare (si veda [Gne79], Cap.I, Es. 5), oppure con il metodo della funzione generatrice, che
ora utilizziamo. Sia N(n) il numero di casi favorevoli (nessuno tra i 2n spettatori è costretto
ad attendere). Sia poi N0(n) il numero di casi in cui la cassa rimane sempre in possesso di
almeno un biglietto da 5 Euro, ad eccezione del momento iniziale e di quello finale, in cui per
ipotesi non vi sono biglietti da 5 disponibili. Allora siano 2m gli spettatori che passano dalla
cassa prima che questa sia priva di biglietti da 5; ovviamente 1 ≤ m ≤ n e si avrà
n
N(n) = � N0(m)N(n − m)
m=1
Dal grafico in Fig. 5-9 si capisce anche che ad ogni evento favorevole si può associare un
cammino lungo due passi in più che ritorna a zero per la prima volta dopo 2(n + 1) passi (il
problema del “primo ritorno” di un cammino aleatorio) Abbiamo perciò che N0(n + 1) = N(n)
e quindi vale una relazione di ricorrenza che permette di ricostruire facilmente N(n):
n
N(n + 1) = � N(m)N(n − m)
m=0
209
Problemi 5.10
Sia F(x) = ∑m≥0 N(n)xn; moltiplicando i due termini della relazione di ricorrenza per xn+1 si
trova
� N(m + 1)x = F(x) − 1 = x F(x)2 .
m+1
√
m≥0
. 6P=
# 2m+1
n+m+1 .
#. 8 Se indichiamo con p(x) la probabilità della “rovina” per un capitale iniziale x. Al primo
tentativo, dopo una vincita la nuova probabilità sarà p(x + 1) e in caso di perdita p(x − 1). I due
casi sono equiprobabili, perciò
. 15 Sia fj(t) la probabilità che il processo torni per la prima volta in j dopo t passi. Allora
#
si avrà
(Pt)jj = fj(t) + fj(t − 1) Pjj + fj(t − 2) (P2)jj
+ . . . fj(t − k) (Pk)jj + . . . + fj(1) (Pt−1)jj
(5.1)
t−1
= � fj(t − k)(Pk)jj
k=0
che si giustifica considerando che lo stato può tornare per la prima volta in k passi per poi
tornare di nuovo (senza restrizioni) nei t − k passi residui.
L’equazione permette di calcolare fj dalla conoscenza delle potenze di P, un problema pura-
mente algebrico. Dato che l’equazione è data da una convoluzione è facile risolverla introdu-
cendo le funzioni generatrici
∞
(5.2) Gj(s) = � (Pt)jj st
t=1
∞
(5.3) Fj(s) = � fj(t) st .
t=1
Dalla soluzione possiamo verificare che Fj(1), ossia la probabilità totale di tornare in j, risulta i)
minore di uno se la serie Gj(1) è convergente, ii) uguale a uno se la stessa serie diverge. Inoltre il
tempo medio di ritorno, ossia ⌧j = ∑∞ t=1 t fj(t) risulta dato da ⌧j = ds �s=1. Sia uj la distribuzione
dFj
211
Problemi 5.10
Wigner-caso simmetrico reale
function E=wigner(N, samples)
E=[];
for n=1:samples
M = randn(N); % distrib. normale per gli elementi di matrice
M=(M+M’)/2; % simmetrizzazione
E=[E;eig(M)]; % accumula gli autovalori
end
hist(E,samples*N/1000); % disegna l’istogramma
√Si noterà
√ che gli autovalori si distribuiscono secondo una densità concentrata nell’intervallo
[− 2N, 2N]. Ciò si ripete nel caso di matrici hermitiane
Wigner-caso Hermitiano
function E=wigner(N, samples)
E=[];
for n=1:samples
M = randn(N)+i*randn(N);
M=(M+M’)/2/sqrt(2);
E=[E;eig(M)];
end
hist(E,samples*N/1000);
Un piccolo numero di esperimenti può essere sufficiente per stabilire la legge generale. Per
la teoria si vedano i riferimenti consigliati.
#. 21 Il caso unitario è incluso negli studi di Mehta et al, quindi i riferimenti sono gli stessi.
Per eseguire esperimenti numerici si può utilizzare un algoritmo non banale†
†
Ringrazio vivamente F. Mezzadri per avermi fornito il codice.
212
5.10. SOLUZIONI
rsm.m
function E=rsm(N,sample,col)
% Usage:
% E=rsm(N, sample, col)
% N=dimension, sample=number of random matrices
col=’b’;
phi=linspace(0,2*pi,100);
plot(exp(i*phi),’r’,’LineWidth’,2);
hold on
xi = -log(rand(N)); % log-uniform
x=xi./(ones(max(size(xi)),1)*sum(xi)); % normalizzare
E=eig(x);
h=plot(E*sqrt(N),’.’,’MarkerSize’,1,’EraseMode’,’none’);
axis([-1.1,1.1,-1.1,1.1]);
axis square
for j=1:sample
xi=-log(rand(N));
x=xi./(ones(max(size(xi)),1)*sum(xi));
W=eig(x);
set(h,’XData’,real(W)*sqrt(N),’YData’,imag(W)*sqrt(N))
drawnow
E=[E; W];
end
E=E(find(abs(E)<.99))*sqrt(N); % esclude E=1 dal plot
� �� �� �� �� �� �
123 123 123 123 123 123
123 312 231 132 213 321
dunque D(3) = 1�3. Ma il numero di permutazioni è n! e non è quindi il caso di procedere nello
stesso modo per n = 16 che comporta circa 1.3 × 1012 permutazioni. Utilizzando la funzione
randperm già nota dall’Eserc. 5-1 a Pag. 175, è molto facile farsi un’idea di quanto può valere
D(16). Secondo la simulazione (20 pacchetti di 10000 permutazioni scelte a caso, molto inferiore
al numero totale di permutazioni possibili) si ha che D(16) ≈ .369 ± 0.004 (Fig. 5-10). Il codice
sta, volendo, in una riga:
derangments.m
function p=drngts(N, smpl)
n=0; for j=1:smpl,if(any(randperm(N)==1:N)), n=n+1; end; end;p=n/N;
Vediamo cosa ci può dire la formula di inclusione/esclusione. Partiamo dal fatto che per ogni
i (1 ≤ i ≤ n) l’insieme delle permutazioni che lascia fisso i è un gruppo di permutazioni su
n-1 elementi, indichiamolo con Ai. Inoltre Ai ∩ Aj è l’insieme di permutazioni che lascia due
elementi fissi, e cosı̀ via. Avremo perciò (indicando con �A� il numero di elementi di A)
n! D(n) = n! − � �Ai� + � �Ai ∩ Aj� − � �Ai ∩ Aj ∩ Ak� + ...
i i>j i>j>k
213
Calcolo di D(16) attraverso campionamento
0.378
0.376
0.374
0.372
0.37
D(16)
0.368
0.366
0.364
0.362
0.36
0.358
0 2 4 6 8 10 12 14 16 18 20
Per n grande si ha perciò D(n) ≈ exp(−1) ≈ .3679. Il problema era stato risolto già da Poincaré
[Poi12] dove si trova anche la formula di inclusione/esclusione.
. 25 Considerando i chicchi di volume trascurabile rispetto a quello dei panettoni, possiamo
#
considerare che la distribuzione delle uvette sia uniforme. La presenza di una uvetta in un
dato panettone sarà 1�N. Il problema è quindi equivalente a una successione di n estrazioni di
Bernoulli con p = 1�N, e quindi E = np = n�N. Dato che p è presumibilmente piccolo e sia n che
N sono grandi, la distribuzione binomiale converge a quella di Poisson e la probabilità cercata è
data da 1 − P[0] = 1 − exp{−np} = 1 − exp{−n�N}.
214
Bibliografia
[AO84] G.E. Andrews and E. Onofri, Lattice gauge theory, orthogonal poly- nomials, and q-
hypergeometric functions, Special Functions: Group Theoretical Aspects and Applications
(A. Askey, T. H. Koornwinder, and W. Schempp, eds.), D. Reidel Pub.Co., 1984, pp. 163–188.
[Arn78] V. Arnol ′ d, Metodi matematici della meccanica classica, Editori Riuniti, Roma, 1978.
[Bar47] V. Bargmann, Irreducible Unitary Representations of the Lorentz Group, Ann. Math, 48
(1947), no. 3, 568.
[BCO07] M. Bonini, G. M. Cicuta, and E. Onofri, Fock space methods and large N, J. Phys. A40 (2007),
F229–F234.
[BCR84] K. Baclawski, M. Cerasoli, and G.C. Rota, Introduzione alla Probabilità, UMI, 1984.
[Bel87] J. S. Bell, Speakable and unspeakable in quantum mechanics, Cambridge UP, Cambridge, 1987.
[BSRW02] M. Bennet, M/F/ Schatz, H. Rockwood, and K. Wiesenfeld, Huygen’s clocks, Proc. R. Soc.
Lond. A458 (2002), 563–579.
[BW69] C. M. Bender and T. T. Wu, Anharmonic Oscillator, Phys. Rev. 184 (1969), no. 5, 1231–1260.
[CH62] R. Courant and D. Hilbert, Methods of Mathematical Physics, Interscience, 1962.
[Cic09] G. Cicuta, to be announced, ch. X, Springer, 2009.
[CMO80] M. Casartelli, G. Marchesini, and E. Onofri, A singular integral operator arising from 1/N
expansions: analytical and numerical results, J.Phys.A: Math.& Gen. 13 (1980), 1217–1225.
[DH87] P.H. Damgaard and H.Hü↵el, Stochastic Quantization, Phys.Rep. (1987), no. 152(5-6), 227.
[Dir29] P. A. M. Dirac, The Principles of Quantum Mechanics, Clarendon Press, Oxford, 1929,
traduzione italiana ediz. Boringhieri, Torino, 1959.
[Erd55] A. Erdélyi (ed.), Higher Trascendental Functions, vol. I-III (Bateman Manuscript Project),
McGraw-Hill, New York, 1955.
[Fel68] W. Feller, An Introduction to Probability Theory and its Applications, Wiley series in
probability and mathematical statistics, J. Wiley & Sons, New York, 1968.
[Fey72] R. P. Feynman, Statistical Mechanics, W. A. Benjamin, Inc., Reading, Mass., 1972.
[FFS82] M. D. Feit, J. A. Fleck, and A. Steiger, Solution of the Schroedinger equation by a spectral
method, J. Comput. Phys. 47 (1982), 412–433.
[FH65] R. P. Feynman and A. R. Hibbs, Quantum mechanics and path integrals, McGraw-Hill, 1965.
[Fis63] M. Fisz, Probability Theory and Mathematical Statistics, 3rd ed., J. Wiley & Sons, New York,
1963.
[FPO04] V.A. Fateev, R.De Pietri, and E. Onofri, Exact and semiclassical approach etc., J.Phys.A 37
(2004), 11379–11390.
[Gan59] F. R. Gantmacher, The Theory of Matrices, Chelsea Pub. Co., New York, 1959.
[Gel89] I. M. Gelfand, Lectures on linear algebra, Dover, 1989.
[Gin00] M. Gintis, Game Theory Evolving, Princeton UP, 2000.
[GL74] I. Glazman and Y. Liubitch, Analise Linéarie dan les Espaces de DimensionFinies, MIR,
Moscou, 1974.
[GL96] G.H. Golub and C.F. Van Loan, Matrix Computations, iii ed., Johns Hopkins U.P., Baltimore,
USA, 1996.
[GMS94] M. Goossens, F. Mittelbach, and A. Samarin, The LATEX Companion, Addison-Wesley,
Reading, Mass., 1994.
[Gne79] B. Gnedenko, Teoria della probabilita‘, MIR, 1979.
[GR65] L. S. Gradshteyn and I. M. Ryzhik, Table of Integrals, Series and Products, IV ed., Academic
Press, New York, 1965.
215
[GW69] G.H Golub and J.H. Welsch, Calculation of gauss quadrature rules, Math. Comput. 23 (1969),
221–230.
[Hal82] P.R. Halmos, A Hilbert space problem book, Springer, N.Y., 1982.
[Ham62] M. Hamermesh, Group Theory and its Applications to Physical Problems, Addison Wesley,
Reading, Mass., 1962.
[Hel78] S. Helgason, Lie Groups and Symmetric Spaces, Academic Press, New York, 1978.
[HLP52] G. Hardy, J.E. Littlewood, and G. Polya, Inequalities, Cambridge U.P., 1952.
[Hoc71] H. Hochstadt, The Functions of Mathematical Physics, Wiley-Interscience, New York, 1971.
[ID89] C. Itzykson and J. M. Drou↵e, Théorie Statistique des Champs, InterEditions, Paris, 1989.
[Kac59] M. Kac, Probability and Related Problems in the Physical Sciences, Interscience, New York,
1959.
[Kir74] A. Kirillov, Elements de la Théorie des Representations, MIR, Mosca, 1974.
[Knu98] D. Knuth, The art of computer programming, Addison–Wesley, 1998.
[KP99] P. E. Kloeden and E. Platen, Numerical Solution of Stochastic Di↵erential Equations,
Applications of Mathematics, vol. 23, Sringer, Berlin, 1999.
[KS85] J. R. Klauder and B. Skagerstam (eds.), Coherent States, Applications in Physics and
Mathematical Physics, World Scientific, Singapore, 1985.
[Lan50] C. Lanczos, An Iteration Method for the Solution of the Eigenvalue Problem of Linear
Di↵erential and Integral Equations, J. Res. Nat. Bureau St. 45 (1950), no. 4, 255–282.
[Lit50] D. E. Littlewood, The Theory of Group Characters, Oxford U.P., 1950.
[LL76] L. D. Landau and E. M. Lifshitz, Meccanica quantistica, teoria non relativistica, Editori
Riuniti, Roma, 1976.
[Mad70] I. J. Maddox, Elements of Functional Analysis, Cambridge University Press, Cambridge, 1970.
[Mal03] G. Maltese, Enrico Fermi in America, Le Ellissi, Zanichelli, Bologna, 2003.
[Meh89] M.L. Mehta, Matrix Theory, Selected Topics and Useful Results, Les Editions de Physique,
Les Ulis (F), 1989.
[ML78] C. Moler and C. Van Loan, Nineteen Dubious Ways To Compute The Exponential Of A
Matrix, SIAM Review 20 (1978), no. 4, 801–836.
[Mos65] F. Mosteller, Fifty challenging problems in probability with solutions, Dover, New York, 1965.
[Nai68] M. A. Naimark, Linear Di↵erential Operators, vol. 2, Frederic Ungar, New York, 1968.
[Nel67] E. Nelson, Dynamical Theories of Brownian Motion, Princeton University Press, Princeton,
N.J., 1967.
[New66] R. G. Newton, Scattering Theory of Waves and Particles, McGraw-Hill, New York, 1966.
[NO76] A. Nikiforov and V. Ouvarov, éleménts de la Théorie des Fonctions Speciales, MIR, Mosca,
1976.
[OD99] E. Onofri and C. Destri, Istituzioni di Fisica Teorica, Carocci, Roma, 1999.
[OMT91] E. Onofri, P. Maraner, and G. P. Tecchiolli, Spectral Methods in Computational Quantum
Mechanics, Int. J. Comput. Appl. Math. (1991), 209–219.
[Ono84] E. Onofri, Lezioni sulla teoria degli operatori lineari, Ediz. Zara, Parma, 1984.
[Ono85] , A nonlinear variational problem, SIAM Rev, 1985, 27.
[Pel94] A. Pelissetto, Elementary particles, quantum fields and statistical mechanics, Elementary par-
ticles, Quantum Fields and Statistical Mechanics (M. Bonini, G. Marchesini, and E. Onofri,
eds.), Università di Parma, 1994.
[Pen89] R. Penrose, The Emperor New Mind, Oxford U. Press, 1989.
[Pen97] , La mente nuova dell’imperatore, BUR, Rizzoli, Milano, 1997.
[Poi12] H. Poincaré, Calcul des Probabilités, Gauthiers–Villars ed., (disponibile su gallica.fr ), Paris,
1912.
[Pol77] A. M. Polyakov, Nucl.Phys. 120B (1977), 429.
[PR69] Yu. V. Prohorov and Yu. A Rozanov, Probability Theory, Springer Verlag, Berlin, 1969.
[Put67] C. R. Putnam, Commutation Properties of Hilbert Space Operators and related topics,
Erg.d.Math.und i.Grenz., vol. 36, Springer-Verlag, New York, 1967.
[PW81] G. Parisi and Y.-S. Wu, perturbation theory without gauge fixing, Sci. Sinica (1981), 483.
[QRF00] A. Quarteroni, R.Sacco, and F.Saleri, Matematica Numerica, Springer–Verlag Italia, Milano,
2000.
216
[QSS07] A. Quarteroni, R. Sacco, and F. Saleri, Numerical Mathematics, 2nd ed., Texts in Applied
Mathematics, vol. 37, Springer, 2007.
[Reb83] C. Rebbi, Lattice Gauge Theory and Montecarlo simulations, World Sci., Singapore, 1983.
[Roz69] Yu. A. Rozanov, Probability theory: a concise course, Dover, 1969.
[RS78] M. Reed and B. Simon, Methods of Mathematical Physics, vol. II, Academic Press, New York,
1978.
[RS80] , Methods of Mathematical Physics: I - Functional Analysis, vol. I, Academic Press,
New York, 1980.
[Sak90] J. J. Sakurai, Meccanica quantistica moderna, Zanichelli, Bologna, 1990.
[Shi77] G. Shilov, Linear algebra, Dover, 1977.
[Sok91] A. D. Sokal, How to beat critical slowing down: 1990 update, Lattice 90 (U.M.Heller et al,
ed.), North-Holland, 1991.
[Sok97] , Functional integration (Cargèse, 1996), ch. Monte Carlo methods in Statistical
Mechanics: Foundations and New Algorithms, pp. 131–192, Plenum, New York, 1997.
[Sta99] R. P. Stanley, Enumerative Combinatorics, vol. 2., Cambridge U.P., 1999.
[Sze59] G. Szegö, Orthogonal Polynomials, American Mathematical Society, Provedence, R.I., 1959.
[Tay58] A. E. Taylor, Introduction to functional Analysis, J. Wiley, New York, 1958.
[TN02] E.O. Tuck and J.N. Newman, Longitudinal waves in slender moonpools, 17th Int. Workshop
on Water Waves and Floating Bodies, Cambridge (London) (R. Rainey, ed.), RINA, 2002.
[Var62] R. S. Varga, Matrix iterative analysis, Prentice–Hall, Englewood Cli↵s, N.J., 1962.
[VW06] G. Veneziano and J. Wosiek, Planar quantum mechanics: An intriguing supersymmetric
example, JHEP 01 (2006), 156.
[Wax54] N. Wax (ed.), Selected papers on Noise and Stochastic Processes, Dover, New York, 1954.
[Wig67] E. P. Wigner, Random Matrices in Physics, SIAM Review 9 (1967), no. 1, 1–23.
217
Indice analitico
Symbols alias
Ad(X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 metodo degli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
C2 (a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 Andrews . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154, 160
H2 . . . . . . . . . . . . . . . . . . . . . . . . . . .101, 105, 143, 145 Arnold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
L2 (a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 arpack . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
R(^ n, ↵). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .35 autoaggiunto . . . . . . vedi operatore, autoaggiunto
SU(2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 autocorrelazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
[n]! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 B
Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Bargmann . . . . . . . 160, vedi spazio, di Bargmann
D[.] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii rappresentazioni di SU(1, 1) . . . . . . . . . . . . . . 154
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Bayes . . . . . . . . . . . . . . . . . . . vedi formula, di Bayes
M(n, R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 BCH . . . . . . . . . . . . . . . . . . . . . . . . . . .vedi formula, di
M[.] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii Baker–Campbell–Hausdor↵
�.�. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38, 102 Bergman . . . . . . . . . . . . . . . vedi nucleo di Bergman
P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Bernoulli . . . 160, 180, 182, vedi distribuzione, di
S[.] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Bernoulli
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Bessel . . . . . . . . . . . . vedi disuguaglianza, di Bessel
� � . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 bessel.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 binomiale . . . . . . . . . . vedi distribuzione,binomiale
P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Bonini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .30 bra . . . . . . . . . . . . . . . . . . . . vedi Dirac, notazione di
� � . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
`2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101, 103
^ ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
f(X
C
B(C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 c.c.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .116
p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 cambiamenti di base . . . . . . . . . . . . . . . . . . . . . . . . . 36
q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 canonici . . . . . . . . . . . . . . . . vedi operatori, canonici
RES() . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Cartan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Tr() . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 Casartelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93, 156
n �∞
"ijk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30n catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
. . . viii, 79, 89, 96, 111, 118, 121, 129, Cayley . . . . . . . . . . . . . . . . . vedi teorema, di Cayley
148 chiuso . . . . . . . . . . . . . . . . . . . . vedi operatori, chiusi
chiusura
A di un operatore . . . . . . . . . . . . . . . . . . . . . . . . . . 109
a.c. . . . . . . vedi funzione, assolutamente continua Christho↵el–Darboux
absp.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 formula di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
aggiunto Hermitiano . . . . . . . . . . . . . . . . . . . . 51, 110 Cicuta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155, 211
aleatoria . . . . . . . . . . . . . . . . . vedi variabili aleatorie circolante
algebra matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
degli operatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
219
codici . . 7, 11, 61, 91, 92, 96, 120, 138, 140, 141, triangolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
152, 155, 175, 186, 189, 197, 200, 208, disuguaglianze . . . . . . . . . . . . . . . . . . . . . . . . . . . 75–78
211–213 doppio prodotto vettoriale . . . . . . . . . . . . . . . . . . . 17
codominio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Drou↵e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
compatto dueosc.m. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7
operatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 Dyson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
completamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
completezza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
completo E
spazio lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Ehrenfest . . . . . . . . . . . . vedi modello, di Ehrenfest
condizionata . . . . . . vedi probabilità condizionata eigs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
contorno emacs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii
condizioni al . . . . . . . . . . . . . . . . . . . . . . . vedi c.c. ensemble unitario . . . . . . . . . . . . . . . . . . . . . . . . . . 212
corda vibrante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .13 equazione
correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 di Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
Courant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 di Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Criterio di Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Erdelyi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Esempi . . 36, 43, 56, 61, 62, 64, 70, 74, 102, 105,
D 107, 108, 111, 112, 118, 119, 122, 126, 131,
decomposizione spettrale . . . . . . . . . . . . . . . 45, 184 140, 176, 180, 181
(f) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145, 146 estensione
(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107, 126 di operatore. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .108
DeMère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 operatori simmetrici . . . . . . . . . . . . . . . . . . . . . 130
derangements.m . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .161
determinante
di Gram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 F
di Vandermonde . . . . . . . . . . . . . . . . . . . . . . . 79, 90
DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 Famiglia spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . 124
diagonalizzabilità Fateev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
teorema di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162, 188
difetto Feynman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135, 162
indici di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115, 130 FFTW . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138n
di↵erenziali . . . . . . . . . vedi operatori, di↵erenziali fftn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
dimensionalità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .24 formula
Dirac di Baker-Campbell-Hausdor↵ . . . . . . . . . . . . . . 58
funzione (x) . . . . . . . . . . . . . . . . . . . . . . . 107, 126 di Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
notazione di . . . . . . . . . . . . . . . . . . . . . . . . . . . 32–34 di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 di Lie–Trotter . . . . . . . . . . . . . . . . . . . . . . . 135–138
condizioni di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 di Riesz–Dunford . . . . . . . . . . . . . . . . . . . . . . . . . 43
distribuzione Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 trasformata . . . . . . . . . . . . . . . . . . . . . . . . . . 13, 132
di Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . 176, 195 discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 veloce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
di Gauss multidimensionale . . . . . . . . . . . . . . 195 Frobenius . . . vedi teorema, di Perron–Frobenius
di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 funzionale
di Polya . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 limitato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
di probabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 funzionali lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 funzione
distribuzione stazionaria. . . . . . . . . . . . . . . . . . . .184 assolutamente continua . . . . . . . . . . . . . . . . . . 115
disuguaglianza di Green . . . . . . . . . . . . . . . . . . . . . 14–15, 144, 151
di Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 generatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
di Holder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Funzione di distribuzione . . . . . . . . . . . . . . . . . . . 180
di Minkowski. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .76 funzioni di operatori . . . . . . . . . . . . . . . . . . . . . 37–41
di Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78, 127 Funzioni di più operatori . . . . . . . . . . . . . . . . . . . . 55
220
G Klauder . . . . . . . . . . . . . . . . . . . . . . . . . . 104, 157, 165
Knuth. . . . . . . . . . . . . . . . . . . . . . . . . .ii, viii, 165, 186
Gambler’s ruin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Kolmogorov 165, vedi equazione, di Kolmogorov
Gantmacher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23n
Gauss . . . . . . . . . 163, vedi distribuzione, di Gauss L
formule di quadratura . . . . . . . . . . . . . . . . . 73–75
GaussHerm.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
GaussLeg.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Laguerre
Gelfand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23n seepolinomi, di Laguerre . . . . . . . . . . . . . . . . . 217
Gershgorin . . . . . . . . . vedi teorema, di Gershgorin Lamport. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .ii, 166
teorema di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 Lanczos
giocatore algoritmo di . . . . . . . . . . . . . . . . . . . . . . . . . . 94, 139
problema del . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Langevin . . . . . . . . . . . vedi equazione, di Langevin
Glazman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Golub . . . . . . . . . . . . . . . . . . . 41, 51, 72, 91, 94, 163 seepolinomi, di Legendre . . . . . . . . . . . . . . . . . 217
grafico Lemma di Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
di un operatore . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Lie . . . . . . . . . . . . . . . . . . . . 166, vedi formula, di Lie
Green . . . . . . . . . . . . . . . . . . vedi funzione, di Green Lie–Trotter . . . . . . . . vedi formula, di Lie–Trotter
Littlewood . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
H M
Halmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143, 151 Maddox . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Hamermesh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 Maltese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Hamilton. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .164 Markov . . . . . . . . . . . 167, vedi processi di Markov
Hardy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78, 164 catene di . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183, 186
Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 matrice
regole di commutazione . . . . . . . . . . . . . . . . . . 121 circolante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Helgason . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104, 105 iperbolica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii, 85
Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 irriducibile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
seepolinomi, di Hermite . . . . . . . . . . . . . . . . . . 217 metrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27, 28, 69
Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 rappresentativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
spazio di . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101, 104 stocastica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95, 184
Hochstadt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75, 94 unitaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
hpm.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 matrice di trasformazione. . . . . . . . . . . . . . . . . . . .25
huygens.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 matrici
random
I hermitiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
inclusione/esclusione . . . . . . . . . . . . . . . . . . . . . . . 177 positive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
indice di autovalore. . . . . . . . . . . . . . . . . . . . . . . . . .48 unitarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
indipendenza sparse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138–141
statistica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .179 tridiagonali. . . . . . . . . . . . . . . . . . . . . . . . . . .86, 138
indipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . .24 Mehta . . . . . . . . . . . . . . . . . . . . . . . . . 91, 93, 167, 211
Insiemi completi di operatori . . . . . . . . . . . . . . . . 55 metodo
Insiemi irriducibili di operatori . . . . . . . . . . . . . . 56 MonteCarlo . . . . . . . . . . . . . . . . . . . . . . . . . 188–193
inverso dinamico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
calcolo dell’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 metodo di “splitting”. . . . . . . . . . . . . . . . . . . . . . .135
iperbolica . . . . . . . . . . . . . . vedi matrice, iperbolica Metropolis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Ising . . . . . . . . . . . . . . . . . . . . . vedi modello, di Ising Mezzadri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212n
isometrico . . . . . . . . . . . vedi operatore, isometrico modello
Itzykson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 di Ehrenfest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
K di Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91, 165 modi normali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
ket . . . . . . . . . . . . . . . . . . . . vedi Dirac, notazione di Moler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
221
MonteCarlo . . . . . . . . . . vedi metodo, MonteCarlo poker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175n
polinomi
N classici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
di Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Naimark . . . . . . . . . . . . . . . . . . . . . 115, 125, 127, 129
di Laguerre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Neumann
di Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . 70, 75
condizioni di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69–75
Newton,R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
polinomio
norma
caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
di un operatore . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
minimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
normale . . . . . . . . . . . . . . . . vedi operatore, normale
Polya . . . . . 168, 185, vedi distribuzione, di Polya
Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii
portalettere
nucleo di Bergman . . . . . . . . . . . . . . . . . . . . . . . . . 104
il problema del . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
primo ritorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
O probabilità
operatore misura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
autoaggiunto . . . . . . . . . . . . . . . . . . . . . . . . . 52, 110 spazio di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
di proiezione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 probabilità condizionata . . . . . . . . . . . . . . . . . . . . 178
di shift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .119 problemi . . . . 30, 39, 41, 43, 48, 54, 72, 175, 182,
inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 184–186, 189, 207
isometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 processi di Markov . . . . . . . . . . . . . . . . . . . . . . . . . 183
normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52, 54 processi di↵usivi . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
risolvente . . . . . . . 42, 44, 60, 118–120, 127, 144 prodotto interno. . . . . . . . . . . . . . . . . . . . . . . . . . . . .27
proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 proiettore . . . . . . . . . vedi operatore, di proiezione
unitario . . . . . . . . . . . . . . . . . . . . . . . . . . 52, 53, 111 Putnam . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
operatori
canonici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Q
chiusi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
compatto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 quadratura . . vedi Gauss, formule di quadratura
continui . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 quantizzazione stocastica . . . . . . . . . . . . . . . . . . . 193
di proiezione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Quarteroni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 quaternioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30n
di↵erenziali . . . . . . . . . . . . . . . . . . . . . . . . . 113, 127
limitati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 R
nello spazio di Hilbert . . . . . . . . . . . . . . . 108–117
rsm.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207, 212
non limitati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
random variables . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
oscillatori accoppiati . . . . . . . . . . . . . . . . . . . . . . . . . . 6
random walk . . . . . . . . . . . . . . . . . . . . . 184, 205, 206
range . . . . . . . . . . . . . . . . . . . . . . . . . . . vedi codominio
P Rappresentazione di interazione . . . . . . . . . . . . . 67
parametro di rilassamento . . . . . . . . . . . . . . . . . . . 88 Reed-Simon . . . . . . . . . . . . . . . . . . . . . . . . . . . 128–132
Parisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 Reitter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii
Pascal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168, 205 relazione
Path-integrals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 di completezza . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 relazione di ricorrenza . . . . . . . . . . . . . . . . . . . . . . . 72
matrici di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Resolvent.nb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .120
Pelissetto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 reticolo duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 Ricci
Perron–Frobenius simbolo di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30n
teorema di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 ricorrenza, relazioni di . . . . . . . . . . . . . . . . . . . . . . . 71
perturbazioni Riesz . . . . . . . . . . . . . . . . . . . . vedi teorema, di Riesz
teoria delle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Riesz–Dunford . . vedi formula, di Riesz–Dunford
peso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 risolvente . . . . . . . . . . . . . vedi operatore, risolvente
Poincaré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168, 214 ritorno
Poisson . . . . . . . . . . . vedi distribuzione, di Poisson tempo medio di . . . . . . . . . . . . . . . . . . . . . 199, 206
222
ritorno all’origine. . . . . . . . . . . . . . . . . . . . . . . . . . .205 di Perron–Frobenius . . . . . . . . . . . . . . . . . . . . . 196
Rodriguez di Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
formula di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 di Stone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 di Wintner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
teoria spettrale. . . . . . . . . . . . . . . . . . . . .42, 117–121
S traccia
S2kit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138n di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
schr3D.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 trasformata
Schur . . . . . . . . . . . . . . . . . . . . vedi Criterio di Schur di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
lemma di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 trasformata di Fourier
separabile . . . . . . . . . . . . . . . vedi spazio, separabile discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
serie veloce. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .137
asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 trasformazioni di base . . . . . . . . . . . . . . . . . . . . . . . 25
perturbativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 tridiag.c . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139n
Shilov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23n tridiagonale . . . . . . . . . . . . . . . . . . . . . . . . vedi matrici
similitudine Tuck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
trasformazioni di . . . . . . . . . . . . . . . . . . . . . . . . . . 57 operatore di . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147n
Simon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 U
skewness . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 ue.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
sottospazio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 unitario . . . . . . . . . . . . . . . . vedi operatore, unitario
spazi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 spazio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
spazi lineari complessi . . . . . . . . . . . . . . . . . . . . . . . 27
spazio V
di Bargmann . . . . . . . . . . . . . . . . . . . 145, 146, 153
variabili
di Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . 101, 104
indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
di probabilità . . . . . . vedi probabilità, spazio di
variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
separabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Veneziano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
spazio unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Von Neumann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
spettro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
W
puntuale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169, 211
residuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 legge del semicerchio . . . . . . . . . . . . . . . . . . . . . 207
Stallman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii, 169 wigner.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
Stone Wintner
teorema di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 teorema di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Sturm
criterio di . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139n Y
successioni (pseudo)casuali . . . . . . . . . . . . . . . . . 188 Young
susyqm.m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 disuguaglianza . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
SVD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
sviluppo di Dyson . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Z
sviluppo di Lagrange . . . . . . . . . . . . . . . . . . . . . . . . 41
Zeri
sviluppo spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
delle funzioni di Bessel . . . . . . . . . . . . . . . . . . . 157
Szego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
zeri
dei polinomi ortogonali . . . . . . . . . . . . . . . . . . . . 72
T
Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106, 109, 130
tensore
d’inerzia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
teorema
di Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
di Gershgorin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
223
Elenco delle figure
2-1 Brougham Bridge, Dublin, dove i quaternioni sono venuti alla luce. 30
225