Sei sulla pagina 1di 13

LA DISTRIBUZIONE DI GAUSS-DIMOSTRAZIONE COMPLETA!

di Leonardo Rubino

leonrubino@yahoo.it
per www.fisicamente.net
Giugno 1994 Rev. 00
Agosto 2011 Rev. 01

Indice:
-Indice.

Pag.1

-Introduzione.

Pag.2

-Capitolo 1: Concetti introduttivi.

Pag.3

Par. 1.1: Sulla Probabilit di un evento e dintorni.

Pag.3

Par. 1.2: Prove ripetute.

Pag.6

Par. 1.3: Richiami di calcolo combinatorio.

Pag.7

Par. 1.4: La Distribuzione Multinomiale.

Pag.8

Par. 1.5: La Distribuzione Ipergeometrica.

Pag.8

Par. 1.6: La Distribuzione Normale di Gauss.

Pag.9

Par. 1.7: Un segnale della Natura: la Gaussiana in Meccanica Quantistica.

Pag.12

Introduzione.
La statistica probabilmente la scienza alla base di tutto lUniverso, in quanto la stessa meccanica
quantistica si basa su di essa.
Nel presente file si vuole dare una rara dimostrazione della distribuzione di Gauss, visto che la
quasi totalit dei testi disponibili (opinione di chi scrive) la enuncia soltanto, senza darne prova.
Si d poi una descrizione di quella che la regola del tre sigma, molto usata in campo tecnico.
Per ultimo, si voluto sottolineare una particolarit della meccanica quantistica, dove limposizione
del segno di eguaglianza nelle relazioni di indeterminazione di Heisenberg porta appunto ad una
funzione donda gaussiana, che riduce appunto al minimo la situazione di incertezza quantistica.
Si vuole poi qui fare una raccomandazione che vale comunque in qualsiasi ambito scientifico, ossia
quella del non fidarsi ciecamente dellintuizione, in campo statistico e probabilistico. E vero che,
forse, 95 volte su 100 lintuizione porta a conclusioni corrette, e chi scrive un forte fruitore
dellintuizione, alla base della quale stanno tantissime scoperte scientifiche, ma anche vero che,
ogni tanto, lintuizione inganna. A tal proposito, voglio riportare un caso inerente ad una
trasmissione televisiva chiamata Lets Make a Deal, in cui vi erano tre porte chiuse e dietro una di
esse stava un premio; dopo che il concorrente sceglieva una delle tre porte, il conduttore andava ad
aprire una delle due porte non scelte dal concorrente, per mostrare a questultimo cosa vi (o non vi
) dietro ad essa. Veniva ovviamente aperta una porta che non nascondeva il premio.
A questo punto viene chiesto al concorrente se vuole ora tenere la porta da lui scelta
originariamente o se vuole switchare (cambiare) con laltra, tra le due non scelte, che rimasta
chiusa.
A prima vista, affidandosi allintuizione, sembrerebbe che cambiare porta non necessariamente
pi conveniente che tenere quella gi scelta, in quanto si tratta del banale caso di due porte ancora
chiuse, dietro una delle quali vi il premio, dunque si avrebbe (il 50%) di probabilit di avere il
premio sia che si tenga la porta attualmente selezionata che switchando sullaltra.
Bene, questo il classico caso in cui LINTUIZIONE TRADISCE, in quanto lultimo ragionamento
fatto COMPLETAMENTE ERRATO!
La scelta pi conveniente SEMPRE QUELLA DI ABBANDONARE LA PORTA
PRECEDENTEMENTE SCELTA e di prendere laltra! Vediamo perch:
chiamiamo le tre porte A, B e C e supponiamo che tu, concorrente, abbia scelto la porta A; ora:
1-se il premio dietro B, il conduttore ti aprir la porta C e dunque, se tu passi a B vinci.
2-se invece il premio dietro C, il conduttore aprir e ti mostrer B e, se tu cambi con C, pure vinci.
3-se invece ancora il premio dietro A, ossia dietro la porta da te originariamente scelta, il
conduttore aprir indifferentemente B o C e tu, se cambi perdi, mentre se tieni A, vinci.
Potete facilmente verificare che il cambiare (switchare) porta conduce alla vittoria del premio in ben
due casi su tre (1 e 2), mentre porta a perdere solo in uno su tre (caso 3).
NON E DUNQUE VERO CHE TENERSI LA PORTA CHE GIA SI E SCELTA E
INDIFFERENTE, ma bens sempre conveniente cambiare!

Capitolo 1: Concetti introduttivi.


Par. 1.1: Sulla Probabilit di un evento e dintorni.

Se su n prove possibili un evento si pu verificare favorevolmente k volte, si dice che la sua


probabilit p :
p=

k
n

( 0 p 1 ); p=1 (100%) levento certo, mentre p=0 levento impossibile.

La probabilit dellevento contrario q:


q=

nk
.
n

Ovviamente: p+q=1.
Se si hanno pi di due eventi, ossia m eventi, si pu dire che:
m

p
i =1

= 1.

Esempio: nel lanciare un dado, qual la probabilit che esca una certa faccia?
q=

k 1
= .
n 6

La Frequenza di un evento.
Se eseguiamo m prove e levento B si verifica mB volte, la frequenza dellevento B :
m
mB
; 0 1 e i = 1 .
m
i =1
C una similitudine col concetto di probabilit.
Il concetto di probabilit di natura astratta (matematica), mentre quello di frequenza di natura
empirica (fisica).

La legge dei grandi numeri, o legge empirica del caso, o legge di G. Bernoulli:
(questo un postulato di natura sperimentale)
Al crescere del numero delle prove, la frequenza di un evento tende a diventare uguale alla sua
probabilit.
In modo pi volgare: con un gran numero di prove, la pratica tende alla teoria.
La Probabilit totale:
Se C si verifica quando si verifica uno qualsiasi dei k fenomeni B1, ,Bk, escludentisi a vicenda, e
ciascuno con probabilit singole p1,.,pk, la probabilit di C :
k

pC = pi
i =1

Esempio: lancio un dado; qual la probabilit che esca luno o il due? (basta che esca uno dei due)
2

pC = pi =
i =1

1 1 1
+ = .
6 6 3

La somma di probabilit una probabilit maggiore.


La Probabilit composta:
Se C si verifica quando si verificano tutti gli eventi B1,B2,..,Bk, ognuno di probabilit p1,,pk,
allora
k

pC = p1 p2 ...... pk = pi
i =1

Esempio: lancio tre dadi; qual la probabilit che esca il cinque su tutti e tre contemporaneamente?
3

pC = pi =
i =1

111
1
=
6 6 6 216

Il prodotto di probabilit una probabilit minore.


Sul concetto di distribuzione:
Linsieme di tutte le probabilit di tutti i valori che la variabile casuale x pu assumere detta la
distribuzione delle probabilit di x.
Valor medio di x:
x
x =
n
E, per una media pesata, ossia se ogni valore xi di x ha una probabilit sua pi:
n

x = xi p i
=1

Nel passaggio al continuo, non si hanno singoli valori discreti xi, ma infiniti valori, come quelli che
x pu assumere in un certo intervallo, e le sommatorie, notoriamente, diventano integrali:
se dp la probabilit che x sia compreso tra e + d , allora:
dp = f ( )d , con f ( ) che la densit di probabilit.
Molto intuitivamente, la probabilit che x stia tra a e b :
b

Pa ,b = f ( )d ; inoltre, per la definizione di probabilit massima:


a

f ( )d = 1 , dove X il campo di variabilit di x.

La FUNZIONE DI DISTRIBUZIONE F(t) corrispondente ad f ( ) :


F (t ) =

f ( )d , sicch: Pa ,b = f ( )d = F (b) F (a) .


a

Sui libri, F(t) tabulata.


Sempre nel caso del continuo, il valor medio di x :
x = f ( )d (media di pesata con i pesi proporzionali a f ( ) )
X

E per il valor medio di una funzione g(x):


n

g ( x) = g ( xi ) pi

(nel discreto)

i =1

g ( x ) = g ( ) f ( )d (nel continuo)
X

Valor medio del quadrato (caso del discreto):


n

vm _ di _ x 2 = xi2 pi
i =1

Valor quadratico medio:


vqm = vm _ di _ x 2
Lo scarto:
xi = s = xi x
La varianza:
essa il valor medio dei quadrati degli scarti:
n

( x 2 ) = ( xi x )2 pi .
i =1

Nel continuo, si ha: ( x 2 ) = ( x )2 f ( )d


X

Una propriet della varianza:


( x 2 ) = vm _ di _[( x x ) 2 ] = vm _ di _[ x 2 2 xx + ( x ) 2 ] = (vm _ di _ x 2 ) 2 xx + ( x ) 2 = (vm _ di _ x 2 ) ( x ) 2
(1.1)
Lo scarto quadratico medio:
( x ) = ( x 2 ) ( la radice della varianza)

Par. 1.2: Prove ripetute.

La Legge Binomiale di Bernoulli:


esponiamola tramite un esempio: si lancia un dato 5 volte. Qual la probabilit che esca due volte
una data faccia?
(p=1/6, q=5/6, n=5, k=2)
n
Pk = ( ) p k q n k
k
n
n!
( ( )=
)
k
k!(n k )!

(1.2)

P2 =

5! 1 2 5 3
( ) ( ) = 0,16075 = 16,075%
2!3! 6 6

Dimostrazione:
Calcoliamo P0 (k=0, ossia levento non si verifica); levento contrario, che ha probabilit (1-p)=q si
n
presenta in tutte le n prove con probabilit (1-p)n=qn , dunque: P0 = q n = ( ) p 0 q n 0
0
Calcoliamo ora P1, cio levento si verifica nella r-esima prova con probabilit p1, mentre nelle (n1) prove rimanenti si verifica levento contrario con probabilit q(n-1) ; inoltre, r pu essere scelto in
n modi diversi; si ha:

n
P1 = np q n 1 = ( ) p 1q n 1
1
Calcoliamo ora P2, ossia quando levento si verifica nella r-esima e nella s-esima prova con
probabilit p2, mentre gli eventi contrari hanno probabilit q(n-2); tuttavia, i due numeri r ed s
n
n(n 1)
possono essere scelti tra n numeri ed in
modi diversi, cio in ( ) modi diversi; infatti, il
2
2
primo lo scelgo in n modi, mentre per il secondo restano (n-1) modi ed essendo gli eventi
indistinguibili, bisogna dividere per due, poich uno varrebbe laltro. Dunque:
n(n 1) 2 n 2 n 2 n 2
P2 =
p q = ( )p q
2
2
Nel caso di Pk, la probabilita dellevento favorevole pk e quella dellevento contrario q(n-k) e le k
n
prove possono essere prese in ( ) combinazioni diverse, da cui lasserto.
k
Valor medio di k:
n
k = k ( ) p k q n k = np
k
k =0
(si diano ad n dei valori diversi e si vedr che questa equazione sempre verificata)
per dimostrarla, si tenga conto innanzitutto che la sommatoria pu partire anche da k=1, in quanto
per k=0 si ha un valore nullo, dunque omissibile. Inoltre, tenendo conto della espressione per il
n n
binomio di Newton per (a+b)n, si ha: (binomio di N.: ( p + q ) n = ( ) p k q n k = ( p + 1 p ) n = 1 )
k =0 k
n

n
n(n 1)!
(n 1)!
pp k 1q n k = np
p k 1q n k = np ( p + q )( n 1) = np
(
k

1
)!
(
n

k
)!
(
k

1
)!
(
n

k
)!
k =1
k =1
n

k =

Il valore pi probabile di k dunque np, o lintero pi vicino ad esso.


n
n n
Inoltre, sempre per il binomio di Newton, si ha che: Pk = ( ) p k q n k = 1
k =0
k =0 k
varianza di k:
n

(k 2 ) = vm _ di _[(k k)]2 = vm _ di _[(k np)]2 = (k k) 2 Pk = npq ;


k =0

infatti,
n

n
n
n!
n!
n!
k 2 pk qnk =
[k (k 1) + k ] p k q n k = [k (k 1)]
pk qnk +
k!(n k )!
k = 0 k!( n k )!
k = 0 k!( n k )!
k =0

vm _ di _(k 2 ) =
n

+ k
k =0

n!
pk qnk =
k!(n k )!

(ora, nellultimo membro, la prima sommatoria pu partire da k=2, mentre la seconda gi la


calcolammo, quindi:)
(n 2)!
p k 2 q n k + np = n(n 1) p 2 ( p + q ) n 2 + np = n(n 1) p 2 + np =
k = 2 ( k 2)!( n k )!
n

= n(n 1) p 2

= n 2 p 2 np 2 + np = vm _ di _(k 2 ) e dunque, considerando che, per la (1.1):


(k 2 ) = vm _ di _[(k k) 2 ] = (vm _ di _ k 2 ) (k)2 , discende che:
( k 2 ) = (vm _ di _ k 2 ) (k) 2 = (n 2 p 2 np 2 + np ) n 2 p 2 = np(1 p) = nqp

La radice di tale quantit sar ovviamente lo scarto quadratico medio di k: (k ) = (k 2 ) = nqp .

Par. 1.3: Richiami di calcolo combinatorio.

combinazione di n elementi presi a gruppi di k:


per quanto detto allinizio di pagina 6 sul modo di scegliere due numeri r ed s tra n, si aveva che tali
n
modi erano ( ) .
2
Dunque, la combinazione di n elementi presi a gruppi di k :
n
Cn , k = ( )
k
Ora, se i gruppi di k elementi possono differire anche per lordine nel quale compaiono, si parla di
disposizione di n elementi a gruppi di k:
Dn, k = k!Cn , k
Infatti, riguardo le diverse disposizioni di k elementi, noto che con k colori si possono fare k!
bandiere, da cui la permutazione di n elementi presi a gruppi di n:

Pn, n = Dn, n =

n!
= n!
0!

Par. 1.4: La Distribuzione Multinomiale.

Se si eseguono n prove e si vuole che levento 1, con probabilit p1, si verifichi k1 volte, levento 2,
con probabilit p2, si verifichi k2 volte e levento n, con probabilit pn, si verifichi kn volte, la
probabilit che ci accada :
P( k1 , k 2 ,..., k n ) =

n!
p1k1 p2k 2 ... pnk n
k1!k2 !...k n!

Esempio: si ha una scatola con 50 palline, 20 bianche, 10 rosse, 5 nere e 15 gialle; calcolare la
probabilit P che estraendo 10 palline, queste siano 3R, 2B, 4N e 1G (dopo ogni estrazione, la pallina
viene rimessa nella scatola):
P(3R , 2 B , 4 N ,1G ) =

10!
1 2 1
3
( )3 ( ) 2 ( ) 4 ( )1
3!2!4!1! 5 5 10 10

Par. 1.5: La Distribuzione Ipergeometrica.

Se da una scatola con N palline, di cui k rosse, si esegue unestrazione di x palline ( x k ) ed ogni
pallina estratta non viene riposta nella scatola, bisogna abbandonare la Legge di Bernoulli e
ricorrere alla distribuzione ipergeometrica; la possibilit di estrarre in sequenza x palline rosse ed
(n-x) palline di altro colore ovviamente (il prodotto di tutte le probabilit delle estrazioni):
P' ( x) =

k k 1
k ( x 1) N k N k 1 N k (n x 1)

......

=
N N 1
N ( x 1) N x N x 1
N (n 1)

k!
( N n)!
( N k )!
k! ( N n)!
( N k )!

......
=

;
(k x )!
N!
( N k n + x)! N ! (k x )! ( N k n + x)!

il numero complessivo di queste sequenze di palline il numero di combinazioni di n oggetti a x a


x:
n
n!
C (n, x ) = ( ) =
, dunque, la probabilit totale di avere x palline rosse :
x
x!(n x)!
P( x ) = C (n, x) P' ( x) =

C (k , x )C ( N k , n x)
(legge ipergeometrica)
C ( N , n)

con:
k=n. di palline rosse
n=n. di estrazioni
N=n. totale di palline
x=n. di palline rosse che si vogliono estrarre (variabile ipergeometrica)

Par. 1.6: La Distribuzione Normale di Gauss.

Essa una approssimazione della distribuzione di Bernoulli (1.2) quando il n. di prove tende ad
infinito.
Riportiamo qui lespressione della distribuzione di Bernoulli:
n
n!
Pk = ( ) p k q n k =
pk qnk
(1.3)
k
(n k )!k!
e riportiamo qui anche una espressione per lapprossimazione del fattoriale di un numero, detta
Formula di Stirling: x! ( 2 ) x

x+

1
2 x

ecco una dimostrazione della Formula di Stirling:


consideriamo lespressione ln x! ; per essa, se x un intero, possiamo scrivere che:
x

ln x!= ln 1 + ln 2 + ... + ln( x 1) + ln x = ln x = ln x (x ) , con (x) = 1 , in quanto, parlandosi di


un intero, si hanno salti di una unit.
Ora, per x molto grande, (x) = 1 sar piccolo rispetto ad x stesso e dunque (x ) sar considerabile
come un dx e la sommatoria diverr un integrale:
x

ln x!= ln x dx = x ln x x + 1 , ossia:
1

ln x!= x ln x x + 1 .

(1.4)

Elevando ora la base dei logaritmi neperiani e=2,718 a tali quantit espresse nei due membri della
(1.4), si ha:
1
1
1
x+
x+

e x ln x
x x
ln x!
( x ln x x +1)
(ln x ) x x
2
2 x
e e = x e e = ( x e) x e ( 2 ) x 2 e x
e = x!= e
= x e=e
e
dove lultimissima eguaglianza (quella col 2 ) la accettiamo proprio in virt del fatto che si sta
parlando di una approssimazione.
Dunque:
x! ( 2 ) x

x+

1
2 x

(Formula di stirling)

(1.5)
-------------------

Ripartendo ora dalla distribuzione di Bernoulli (1.3) in x:


n
n!
Px = ( ) p x q n x =
p x q n x e dalla Formula di Stirling (1.5):
x
(n x)! x!
x! ( 2 ) x

x+

1
2 x

e ricordando che a pag. 6 avevamo ottenuto np come espressione per il valor medio di k, definiamo
un = np x , da cui: x = np v e sostituiamo tale x nella espressione di Bernoulli, qui sopra:

n
n!
n!
Px = ( ) p x q n x =
p xqn x =
p ( np v ) q ( n + v np ) (per Stirling)
x
(n x)! x!
(n + v np )!(np v)!
[e poi anche perch: (1-p)=q]
2 n

2 (nq + v)
1
=
2

1
( nq + v + )
2
n+

n+

1
2 n

e ( nq v ) 2 (np v)

1
( np v + )
2 ( np + v )

p ( np v ) q ( nq + v ) =

n 2 p ( np v ) q ( nq + v )
=
1
1
v np v + 2
v nq + v + 2
[nq(1 + )]
[np(1 )]
np
nq

1
2npq

1
(1 +

v
)
nq

1
nq + v +
2

(1

v np v + 2
)
np

Ricordando ora che a x si pu scrivere anche come: a x = e x ln a e ricordando anche che, per gli
Sviluppi in Serie di Taylor, si ha:
1
ln(1 + x) x x 2 + ... x
2
v
v
v
v
da cui: ln(1 + )
e ln(1 ) , si ha:
nq
nq
np
np
Px =

n!
p xq n x
(n x )!x!

1
1
v
1
v
exp[ (nq + v + ) ln(1 + )] exp[ (np v + ) ln(1 )]
2
nq
2
np
2npq

v2
v
v2
1
1 v
1
exp[ (nq + v + )( 2 2 )]exp[ (np v + )( 2 2 )]
2 nq 2n q
2 np 2n p
2npq

1
v2
v( p q)
exp[
+
]
2npq
2npq
2npq

Se ora, nella (1.6), p q

Px =

n!
p xq n x
(n x)! x!

[
1
Px =
e
2npq

( x np ) 2
]
2 npq

(1.6)

1
, e ricordando poi come definimmo v , si ha:
2

1
v2
1
( x np) 2
exp(
)=
exp[
] , ossia:
2npq
2npq
2npq
2npq

(Distribuzione di Gauss)

(1.7)

1
non pienamente soddisfatta, il secondo addendo
2
nellesponenziale della (1.6) generer una asimmetria intorno al valore v = 0 , o, ci che lo stesso,
intorno ad x=np, ma tale asimmetria scompare per n , in quanto si ha che:

Se invece la condizione precedente p q

lim n

v( p q)
= 0.
2npq

Per motivi estetici, riscriviamo ora la (1.7) in k, invece che in x:


Pk =

[
1
e
2npq

( k np ) 2
]
2 npq

( k np ) 2

1 [ 2npq ]
1 [ 2 z 2 ]
(k np )
Definendo ora la funzione ( z ) =
e
=
e
, con z =
, si ha che (z )
2
2
npq
la legge normale della probabilit o curva degli errori di Gauss.
Ricordando poi le espressioni che ottenemmo per lo scarto semplice ( s = k k = k np ) e per lo
1

scarto q.m. di k ( (k ) = (k 2 ) = k = nqp ), si ha:


Pk = f (k ) =

1
k 2

1 k k 2
(
)
2 k

1
k 2

1 s 2
(
)
2 k

(1.7)

f(k)
f( ) k k =

(k)

k
Fig. 1: Gaussiana.

Valutiamo ora la probabilit che levento si verifichi un numero di volte compreso tra k e k :
k

k 2

Pk , k = Pk dk =

( k np ) 2
]
2 npq

dk ; passando ora alla variabile dintegrazione z:

z
1 2z2
e
dz = ( z )dz .
z
z
2
Consideriamo ora la funzione:
1
t
t
1 2 x2
(t ) =
e
dx = ( z )dz ; si ha che:

2
k np
k np
Pk , k = (t ) (t ) = (
) (
) . Esistono tabelle di valori della funzione (t ) .
npq
npq
La regola del 3 :

Pk , k =

Riprendiamo la (1.7):
Pk = f (k ) =

1
k 2

1 k k 2
(
)
2 k

1
k 2

1 s 2
(
)
2 k

= P( s)

Tale P(s) la probabilit che lo scarto sia compreso tra due valori prefissati; ora, a livello
differenziale, la probabilit dp che lo scarto s sia compreso entro lintervallo infinitesimo ds :
dp = P(s )ds =

1
k 2

1 s 2
(
)
2 k

ds e, quindi, la probabilit che lo scarto s sia compreso tra i valori s1

ed s2 P:
s2

s2

s2

s1

s1

s1

P1, 2 = dp = P(s )ds =

1 s 2
(
)
2 k

e
ds
(1.8)
k 2
P1,2 larea sottesa dalla Gaussiana tra s1 ed s2 ; si calcola facilmente, tramite lintegrale della (1.8),
che:
-0,68<s<0,68
-<s<
-1,64<s<1,64
-2<s<2
-2,58<s<2,58
-3<s<3

P=50%
P=68,3%
P=90%
P=95,9%
P=99%
P=99,7%

Allora, la probabilit che lo scarto dal valore medio di una misura sia compreso tra -3 e +3 del
99,7%, ossia un valore piuttosto accettabile, da cui la frequente adozione della regola del tre sigma
appunto.
Par. 1.7: Un segnale della Natura: la Gaussiana in Meccanica Quantistica.

Conosciamo le seguenti relazioni di indeterminazione:


h
h
x p
e E t .
2
2
Ci chiediamo in quale caso particolare valga il segno di ugualianza, ossia in che caso il prodotto
delle due intererminazioni (ossia dei due delta) sia il pi basso possible, ossia il meno incerto
possible, ossia il pi certo possible; a tal proposito, si ridimostra la (3.33) di pag. 26 del mio file
sullUnificazione, in questaltro modo:
(per le definizioni dei vari F , G e F , G si faccia sempre riferimento alle pagine 24, 25 e 26
del link)
introduciamo loperatore O = F + i G ( ); esso palesemente non hermitiano, in quanto:
O+ = F i G O ; la norma di O , per definizione di norma, positiva (O , O ) 0 .
Essendo poi (O , O ) = (, O+ O ) ed esplicitando, si ha:
( O+ O = 2F + 2G + i F G i G F )
2 < 2F > + < i[ F , G ] > + < 2G > 0 , ossia:
2 (F ) 2 + < i[ F , G ] > + (G ) 2 0 ; il discriminante di tale forma quadratica negative o nullo,
visto il tipo di disegualianza, dunque:
(< i[ F , G ] > ) 2 4(F ) 2 (G ) 2 0 , da cui lasserto, ossia la (3.33).
Vale quindi il segno di eguaglianza quando il discriminante nullo ed in corrispondenza di ci, si
ottiene:

< i[ F , G ] >
; in corrispondenza di tale valore, si ha: (Omin , Omin ) = 0 , cio:
2(F ) 2
Omin = 0 . Esplicitando, in questultima relazione, Omin , si ha:
min =

< i[ F , G ] >
( F < F > ) + i(G < G >)] = 0 .
(1.9)
2(F ) 2

Nel caso in cui F=x e G=px= ih


, si ha: i[ F , G ] = i[ x, p x ] = h , e la (1.9) si pu cos scrivere:
x
< px >
x < x >
[
+ i
] = 0 , ossia:
2
2(x )
x
h
[

d
x < x > < p x >
= [
+i
]dx , la cui soluzione :

2(x) 2
h
( x ) = Ne

( x < x > ) 2
4 ( x ) 2

< px >
x
h

, che un pacchetto donde di forma gaussiana centrato in <x>.


-----------------------------