di Leonardo Rubino
leonrubino@yahoo.it
per www.fisicamente.net
Giugno 1994 Rev. 00
Agosto 2011 Rev. 01
Indice:
-Indice.
Pag.1
-Introduzione.
Pag.2
Pag.3
Pag.3
Pag.6
Pag.7
Pag.8
Pag.8
Pag.9
Pag.12
Introduzione.
La statistica probabilmente la scienza alla base di tutto lUniverso, in quanto la stessa meccanica
quantistica si basa su di essa.
Nel presente file si vuole dare una rara dimostrazione della distribuzione di Gauss, visto che la
quasi totalit dei testi disponibili (opinione di chi scrive) la enuncia soltanto, senza darne prova.
Si d poi una descrizione di quella che la regola del tre sigma, molto usata in campo tecnico.
Per ultimo, si voluto sottolineare una particolarit della meccanica quantistica, dove limposizione
del segno di eguaglianza nelle relazioni di indeterminazione di Heisenberg porta appunto ad una
funzione donda gaussiana, che riduce appunto al minimo la situazione di incertezza quantistica.
Si vuole poi qui fare una raccomandazione che vale comunque in qualsiasi ambito scientifico, ossia
quella del non fidarsi ciecamente dellintuizione, in campo statistico e probabilistico. E vero che,
forse, 95 volte su 100 lintuizione porta a conclusioni corrette, e chi scrive un forte fruitore
dellintuizione, alla base della quale stanno tantissime scoperte scientifiche, ma anche vero che,
ogni tanto, lintuizione inganna. A tal proposito, voglio riportare un caso inerente ad una
trasmissione televisiva chiamata Lets Make a Deal, in cui vi erano tre porte chiuse e dietro una di
esse stava un premio; dopo che il concorrente sceglieva una delle tre porte, il conduttore andava ad
aprire una delle due porte non scelte dal concorrente, per mostrare a questultimo cosa vi (o non vi
) dietro ad essa. Veniva ovviamente aperta una porta che non nascondeva il premio.
A questo punto viene chiesto al concorrente se vuole ora tenere la porta da lui scelta
originariamente o se vuole switchare (cambiare) con laltra, tra le due non scelte, che rimasta
chiusa.
A prima vista, affidandosi allintuizione, sembrerebbe che cambiare porta non necessariamente
pi conveniente che tenere quella gi scelta, in quanto si tratta del banale caso di due porte ancora
chiuse, dietro una delle quali vi il premio, dunque si avrebbe (il 50%) di probabilit di avere il
premio sia che si tenga la porta attualmente selezionata che switchando sullaltra.
Bene, questo il classico caso in cui LINTUIZIONE TRADISCE, in quanto lultimo ragionamento
fatto COMPLETAMENTE ERRATO!
La scelta pi conveniente SEMPRE QUELLA DI ABBANDONARE LA PORTA
PRECEDENTEMENTE SCELTA e di prendere laltra! Vediamo perch:
chiamiamo le tre porte A, B e C e supponiamo che tu, concorrente, abbia scelto la porta A; ora:
1-se il premio dietro B, il conduttore ti aprir la porta C e dunque, se tu passi a B vinci.
2-se invece il premio dietro C, il conduttore aprir e ti mostrer B e, se tu cambi con C, pure vinci.
3-se invece ancora il premio dietro A, ossia dietro la porta da te originariamente scelta, il
conduttore aprir indifferentemente B o C e tu, se cambi perdi, mentre se tieni A, vinci.
Potete facilmente verificare che il cambiare (switchare) porta conduce alla vittoria del premio in ben
due casi su tre (1 e 2), mentre porta a perdere solo in uno su tre (caso 3).
NON E DUNQUE VERO CHE TENERSI LA PORTA CHE GIA SI E SCELTA E
INDIFFERENTE, ma bens sempre conveniente cambiare!
k
n
nk
.
n
Ovviamente: p+q=1.
Se si hanno pi di due eventi, ossia m eventi, si pu dire che:
m
p
i =1
= 1.
Esempio: nel lanciare un dado, qual la probabilit che esca una certa faccia?
q=
k 1
= .
n 6
La Frequenza di un evento.
Se eseguiamo m prove e levento B si verifica mB volte, la frequenza dellevento B :
m
mB
; 0 1 e i = 1 .
m
i =1
C una similitudine col concetto di probabilit.
Il concetto di probabilit di natura astratta (matematica), mentre quello di frequenza di natura
empirica (fisica).
La legge dei grandi numeri, o legge empirica del caso, o legge di G. Bernoulli:
(questo un postulato di natura sperimentale)
Al crescere del numero delle prove, la frequenza di un evento tende a diventare uguale alla sua
probabilit.
In modo pi volgare: con un gran numero di prove, la pratica tende alla teoria.
La Probabilit totale:
Se C si verifica quando si verifica uno qualsiasi dei k fenomeni B1, ,Bk, escludentisi a vicenda, e
ciascuno con probabilit singole p1,.,pk, la probabilit di C :
k
pC = pi
i =1
Esempio: lancio un dado; qual la probabilit che esca luno o il due? (basta che esca uno dei due)
2
pC = pi =
i =1
1 1 1
+ = .
6 6 3
pC = p1 p2 ...... pk = pi
i =1
Esempio: lancio tre dadi; qual la probabilit che esca il cinque su tutti e tre contemporaneamente?
3
pC = pi =
i =1
111
1
=
6 6 6 216
x = xi p i
=1
Nel passaggio al continuo, non si hanno singoli valori discreti xi, ma infiniti valori, come quelli che
x pu assumere in un certo intervallo, e le sommatorie, notoriamente, diventano integrali:
se dp la probabilit che x sia compreso tra e + d , allora:
dp = f ( )d , con f ( ) che la densit di probabilit.
Molto intuitivamente, la probabilit che x stia tra a e b :
b
g ( x) = g ( xi ) pi
(nel discreto)
i =1
g ( x ) = g ( ) f ( )d (nel continuo)
X
vm _ di _ x 2 = xi2 pi
i =1
( x 2 ) = ( xi x )2 pi .
i =1
(1.2)
P2 =
5! 1 2 5 3
( ) ( ) = 0,16075 = 16,075%
2!3! 6 6
Dimostrazione:
Calcoliamo P0 (k=0, ossia levento non si verifica); levento contrario, che ha probabilit (1-p)=q si
n
presenta in tutte le n prove con probabilit (1-p)n=qn , dunque: P0 = q n = ( ) p 0 q n 0
0
Calcoliamo ora P1, cio levento si verifica nella r-esima prova con probabilit p1, mentre nelle (n1) prove rimanenti si verifica levento contrario con probabilit q(n-1) ; inoltre, r pu essere scelto in
n modi diversi; si ha:
n
P1 = np q n 1 = ( ) p 1q n 1
1
Calcoliamo ora P2, ossia quando levento si verifica nella r-esima e nella s-esima prova con
probabilit p2, mentre gli eventi contrari hanno probabilit q(n-2); tuttavia, i due numeri r ed s
n
n(n 1)
possono essere scelti tra n numeri ed in
modi diversi, cio in ( ) modi diversi; infatti, il
2
2
primo lo scelgo in n modi, mentre per il secondo restano (n-1) modi ed essendo gli eventi
indistinguibili, bisogna dividere per due, poich uno varrebbe laltro. Dunque:
n(n 1) 2 n 2 n 2 n 2
P2 =
p q = ( )p q
2
2
Nel caso di Pk, la probabilita dellevento favorevole pk e quella dellevento contrario q(n-k) e le k
n
prove possono essere prese in ( ) combinazioni diverse, da cui lasserto.
k
Valor medio di k:
n
k = k ( ) p k q n k = np
k
k =0
(si diano ad n dei valori diversi e si vedr che questa equazione sempre verificata)
per dimostrarla, si tenga conto innanzitutto che la sommatoria pu partire anche da k=1, in quanto
per k=0 si ha un valore nullo, dunque omissibile. Inoltre, tenendo conto della espressione per il
n n
binomio di Newton per (a+b)n, si ha: (binomio di N.: ( p + q ) n = ( ) p k q n k = ( p + 1 p ) n = 1 )
k =0 k
n
n
n(n 1)!
(n 1)!
pp k 1q n k = np
p k 1q n k = np ( p + q )( n 1) = np
(
k
1
)!
(
n
k
)!
(
k
1
)!
(
n
k
)!
k =1
k =1
n
k =
infatti,
n
n
n
n!
n!
n!
k 2 pk qnk =
[k (k 1) + k ] p k q n k = [k (k 1)]
pk qnk +
k!(n k )!
k = 0 k!( n k )!
k = 0 k!( n k )!
k =0
vm _ di _(k 2 ) =
n
+ k
k =0
n!
pk qnk =
k!(n k )!
= n(n 1) p 2
Pn, n = Dn, n =
n!
= n!
0!
Se si eseguono n prove e si vuole che levento 1, con probabilit p1, si verifichi k1 volte, levento 2,
con probabilit p2, si verifichi k2 volte e levento n, con probabilit pn, si verifichi kn volte, la
probabilit che ci accada :
P( k1 , k 2 ,..., k n ) =
n!
p1k1 p2k 2 ... pnk n
k1!k2 !...k n!
Esempio: si ha una scatola con 50 palline, 20 bianche, 10 rosse, 5 nere e 15 gialle; calcolare la
probabilit P che estraendo 10 palline, queste siano 3R, 2B, 4N e 1G (dopo ogni estrazione, la pallina
viene rimessa nella scatola):
P(3R , 2 B , 4 N ,1G ) =
10!
1 2 1
3
( )3 ( ) 2 ( ) 4 ( )1
3!2!4!1! 5 5 10 10
Se da una scatola con N palline, di cui k rosse, si esegue unestrazione di x palline ( x k ) ed ogni
pallina estratta non viene riposta nella scatola, bisogna abbandonare la Legge di Bernoulli e
ricorrere alla distribuzione ipergeometrica; la possibilit di estrarre in sequenza x palline rosse ed
(n-x) palline di altro colore ovviamente (il prodotto di tutte le probabilit delle estrazioni):
P' ( x) =
k k 1
k ( x 1) N k N k 1 N k (n x 1)
......
=
N N 1
N ( x 1) N x N x 1
N (n 1)
k!
( N n)!
( N k )!
k! ( N n)!
( N k )!
......
=
;
(k x )!
N!
( N k n + x)! N ! (k x )! ( N k n + x)!
C (k , x )C ( N k , n x)
(legge ipergeometrica)
C ( N , n)
con:
k=n. di palline rosse
n=n. di estrazioni
N=n. totale di palline
x=n. di palline rosse che si vogliono estrarre (variabile ipergeometrica)
Essa una approssimazione della distribuzione di Bernoulli (1.2) quando il n. di prove tende ad
infinito.
Riportiamo qui lespressione della distribuzione di Bernoulli:
n
n!
Pk = ( ) p k q n k =
pk qnk
(1.3)
k
(n k )!k!
e riportiamo qui anche una espressione per lapprossimazione del fattoriale di un numero, detta
Formula di Stirling: x! ( 2 ) x
x+
1
2 x
ln x!= ln x dx = x ln x x + 1 , ossia:
1
ln x!= x ln x x + 1 .
(1.4)
Elevando ora la base dei logaritmi neperiani e=2,718 a tali quantit espresse nei due membri della
(1.4), si ha:
1
1
1
x+
x+
e x ln x
x x
ln x!
( x ln x x +1)
(ln x ) x x
2
2 x
e e = x e e = ( x e) x e ( 2 ) x 2 e x
e = x!= e
= x e=e
e
dove lultimissima eguaglianza (quella col 2 ) la accettiamo proprio in virt del fatto che si sta
parlando di una approssimazione.
Dunque:
x! ( 2 ) x
x+
1
2 x
(Formula di stirling)
(1.5)
-------------------
x+
1
2 x
e ricordando che a pag. 6 avevamo ottenuto np come espressione per il valor medio di k, definiamo
un = np x , da cui: x = np v e sostituiamo tale x nella espressione di Bernoulli, qui sopra:
n
n!
n!
Px = ( ) p x q n x =
p xqn x =
p ( np v ) q ( n + v np ) (per Stirling)
x
(n x)! x!
(n + v np )!(np v)!
[e poi anche perch: (1-p)=q]
2 n
2 (nq + v)
1
=
2
1
( nq + v + )
2
n+
n+
1
2 n
e ( nq v ) 2 (np v)
1
( np v + )
2 ( np + v )
p ( np v ) q ( nq + v ) =
n 2 p ( np v ) q ( nq + v )
=
1
1
v np v + 2
v nq + v + 2
[nq(1 + )]
[np(1 )]
np
nq
1
2npq
1
(1 +
v
)
nq
1
nq + v +
2
(1
v np v + 2
)
np
Ricordando ora che a x si pu scrivere anche come: a x = e x ln a e ricordando anche che, per gli
Sviluppi in Serie di Taylor, si ha:
1
ln(1 + x) x x 2 + ... x
2
v
v
v
v
da cui: ln(1 + )
e ln(1 ) , si ha:
nq
nq
np
np
Px =
n!
p xq n x
(n x )!x!
1
1
v
1
v
exp[ (nq + v + ) ln(1 + )] exp[ (np v + ) ln(1 )]
2
nq
2
np
2npq
v2
v
v2
1
1 v
1
exp[ (nq + v + )( 2 2 )]exp[ (np v + )( 2 2 )]
2 nq 2n q
2 np 2n p
2npq
1
v2
v( p q)
exp[
+
]
2npq
2npq
2npq
Px =
n!
p xq n x
(n x)! x!
[
1
Px =
e
2npq
( x np ) 2
]
2 npq
(1.6)
1
, e ricordando poi come definimmo v , si ha:
2
1
v2
1
( x np) 2
exp(
)=
exp[
] , ossia:
2npq
2npq
2npq
2npq
(Distribuzione di Gauss)
(1.7)
1
non pienamente soddisfatta, il secondo addendo
2
nellesponenziale della (1.6) generer una asimmetria intorno al valore v = 0 , o, ci che lo stesso,
intorno ad x=np, ma tale asimmetria scompare per n , in quanto si ha che:
lim n
v( p q)
= 0.
2npq
[
1
e
2npq
( k np ) 2
]
2 npq
( k np ) 2
1 [ 2npq ]
1 [ 2 z 2 ]
(k np )
Definendo ora la funzione ( z ) =
e
=
e
, con z =
, si ha che (z )
2
2
npq
la legge normale della probabilit o curva degli errori di Gauss.
Ricordando poi le espressioni che ottenemmo per lo scarto semplice ( s = k k = k np ) e per lo
1
1
k 2
1 k k 2
(
)
2 k
1
k 2
1 s 2
(
)
2 k
(1.7)
f(k)
f( ) k k =
(k)
k
Fig. 1: Gaussiana.
Valutiamo ora la probabilit che levento si verifichi un numero di volte compreso tra k e k :
k
k 2
Pk , k = Pk dk =
( k np ) 2
]
2 npq
z
1 2z2
e
dz = ( z )dz .
z
z
2
Consideriamo ora la funzione:
1
t
t
1 2 x2
(t ) =
e
dx = ( z )dz ; si ha che:
2
k np
k np
Pk , k = (t ) (t ) = (
) (
) . Esistono tabelle di valori della funzione (t ) .
npq
npq
La regola del 3 :
Pk , k =
Riprendiamo la (1.7):
Pk = f (k ) =
1
k 2
1 k k 2
(
)
2 k
1
k 2
1 s 2
(
)
2 k
= P( s)
Tale P(s) la probabilit che lo scarto sia compreso tra due valori prefissati; ora, a livello
differenziale, la probabilit dp che lo scarto s sia compreso entro lintervallo infinitesimo ds :
dp = P(s )ds =
1
k 2
1 s 2
(
)
2 k
ed s2 P:
s2
s2
s2
s1
s1
s1
1 s 2
(
)
2 k
e
ds
(1.8)
k 2
P1,2 larea sottesa dalla Gaussiana tra s1 ed s2 ; si calcola facilmente, tramite lintegrale della (1.8),
che:
-0,68<s<0,68
-<s<
-1,64<s<1,64
-2<s<2
-2,58<s<2,58
-3<s<3
P=50%
P=68,3%
P=90%
P=95,9%
P=99%
P=99,7%
Allora, la probabilit che lo scarto dal valore medio di una misura sia compreso tra -3 e +3 del
99,7%, ossia un valore piuttosto accettabile, da cui la frequente adozione della regola del tre sigma
appunto.
Par. 1.7: Un segnale della Natura: la Gaussiana in Meccanica Quantistica.
< i[ F , G ] >
; in corrispondenza di tale valore, si ha: (Omin , Omin ) = 0 , cio:
2(F ) 2
Omin = 0 . Esplicitando, in questultima relazione, Omin , si ha:
min =
< i[ F , G ] >
( F < F > ) + i(G < G >)] = 0 .
(1.9)
2(F ) 2
d
x < x > < p x >
= [
+i
]dx , la cui soluzione :
2(x) 2
h
( x ) = Ne
( x < x > ) 2
4 ( x ) 2
< px >
x
h