Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
DI BAYES
1.1
Introduzione
La teoria delle probabilit una scienza matematica che si occupa delle regolarit negli
eventi casuali (aleatori). Si dice che un evento aleatorio se, ripetuto pi volte un
esperimento, levento si verifica ogni volta un po diversamente.
Diamo alcuni esempi di eventi aleatori:
a) Un esperimento consiste nel lanciare un dado (un cubo omogeneo recante su
ciascuna delle sue facce un numero da 1 a 6). Il risultato dellesperimento il
numero di punti segnato sulle facce del dado. In seguito a ripetuti esperimenti il
risultato varia in modo aleatorio. Queste variazioni sono dovute allazione di diversi
fattori talvolta poco importanti e anche impercettibili, che intervengono ogni volta
che si lancia il dado e questultimo cade sulla tavola, come per esempio, limpulso
iniziale comunicato al dado, la rugosit della superficie della tavola, le vibrazioni del
pavimento sul quale sta la tavola, ecc.: anche se sono state prese tutte le misure
necessarie per la conservazione delle condizioni dellesperimento, non si pu
assicurare la stabilit dei risultati.
b) Un esperimento consiste nel fatto che la cassa automatica di un autobus viene
riempita di monete durante la giornata. Questa cassa si vuota alla fine della
giornata e si conta lincasso (risultato della prova). chiaro che questo risultato
varia da un giorno allaltro e oscilla attorno ad un valore medio, entro certi limiti.
Queste variazioni sono dovute a fattori aleatori: il numero dei passeggeri saliti
sullautobus, il numero di passeggeri con o senza abbonamento, ecc.
c) Un esperimento consiste nel pesare un corpo, con la bilancia automatica, un certo
numero di volte. I risultati di esperimenti ripetuti non sono rigorosamente costanti.
Le fluttuazioni sono dovute allazione di numerosi fattori, come per esempio, la
posizione del corpo sul piatto della bilancia, le vibrazioni aleatorie della tavola, gli
errori della stima delle indicazioni dellapparecchio, ecc.
d) Si spara con un cannone disposto sotto un angolo 0 rispetto allorizzonte, alla
velocit iniziale v0, avendo i proiettili le medesime caratteristiche balistiche (peso,
forma). La traiettoria teorica interamente determinata da queste condizioni, la
traiettoria sperimentale subisce variazioni a causa degli effetti secondari: errori di
fabbricazione del proiettile, scarto del peso dal suo valore nominale, errore di
messa a punto del proiettile, condizioni meteorologiche, ecc. Se sono sparati molti
colpi in condizioni a prima vista simili, si ottiene non una sola curva teorica, bens
tutto un fascio di traiettorie, che riflette la dispersione dei proiettili.
Tutti gli esempi menzionati sopra sono considerati dallo stesso punto di vista: sono
sottolineate le variazioni aleatorie, i risultati diversi in una serie di esperimenti, le cui
condizioni essenziali sono mantenute costanti. Tutte queste variazioni sono sempre legate
alla presenza di fattori secondari, che influiscono sul risultato dellesperimento, ma non
figurano tra
le
condizioni
dellesperimento,
evidente che non esistono in natura effetti fisici che non hanno elementi casuali. Per
quanto esatte e identiche siano le condizioni dellesperimento, impossibile raggiungere
risultati completamente e esattamente coincidenti al ripetersi dellesperimento.
Ogni fenomeno deterministico inevitabilmente accompagnato da scarti aleatori. Tuttavia
in certe applicazioni pratiche si possono trascurare questi elementi aleatori sostituendo un
fenomeno reale con uno schema semplificato, un suo modello, supponendo che nelle
condizioni date dallesperimento esso si realizzi in modo ben determinato.
Per la risoluzione di un certo numero di problemi, il metodo classico delle scienze esatte
sembra, tuttavia, poco adatto. Esistono dei problemi in cui il risultato di un esperimento
dipende da un numero di fattori cos grande che non praticamente possibile registrarli
tutti e tenerne conto. Questo il caso dei problemi in cui i fattori aleatori secondari,
intimamente legati gli uni agli altri, giocano un ruolo importante, per di pi, il loro numero
talmente grande e la loro influenza cos complicata che non giustificato limpiego dei
metodi classici.
I primi studi che portarono successivamente a concetti legati alla probabilit possono
essere trovati a met del XVI secolo nel Liber de ludo ale di Cardano (del 1526, ma
pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo
Galilei (pubblicato nel 1656), nei quali i due autori ottengono degli elenchi di numeri
facendo ricorso alle permutazioni.
Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba
essere interrotto, venne affrontato da Fra Luca dal Borgo (detto Paccioli) in Summa de
arithmetica,
geometria,
proportioni
et
proportionalita
(pubblicato
nel
1494)
Nel 1654 Pascal annuncia all'Accademia di Parigi che sta lavorando sul problema della
riparitizione della messa in gioco. In una lettera del 29 luglio dello stesso anno a Fermat
propone la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat
utilizzava metodi basati sulle combinazioni.
Nel 1713 Jakob Bernoulli formula in Ars conjectandi il primo teorema limite, ovvero la
legge dei grandi numeri.
Ancora prima di Bernoulli fu notata una particolarit dei fenomeni aleatori, che si pu
chiamare stabilit delle frequenze per un gran numero di prove e che si manifesta nel
fatto che per un gran numero di prove, aventi ciascuna un risultato aleatorio, la frequenza
relativa di comparsa di ciascuno dei risultati tende a stabilizzarsi, convergendo a un certo
numero, cio alla probabilit di questo risultato. Per esempio, quando si lancia un gran
numero di volte una moneta, la frequenza relativa di comparsa della testa tende a 1/2;
quando si lancia un gran numero di volte un dado a sei facce, la frequenza di comparsa
del cinque tende a 1/6, ecc.
Bernoulli fu per il primo a dare il fondamento teorico di questo fatto empirico. Il teorema
di Bernoulli, la forma pi semplice della legge dei grandi numeri, stabilisce una relazione
tra la probabilit di un evento e la frequenza della sua comparsa; quando il numero di
prove sufficientemente grande, ci si pu aspettare, con una certezza elevata, che la
frequenza coincida a piacere con la probabilit.
Un altro periodo importante nello sviluppo della teoria delle probabilit legato al nome di
Moivre (1667-1754). Fu lui ad introdurre e a dimostrare, nel caso pi semplice, una legge
particolare osservata spesso nei fenomeni aleatori: la cosiddetta legge normale (o legge di
Gauss). La legge normale gioca un ruolo particolarmente importante nei fenomeni aleatori.
Il gruppo di teoremi che danno un fondamento a questa legge per differenti condizioni
porta il nome generale di teorema limite centrale.
Un ruolo particolare nello sviluppo della teoria delle probabilit lha avuto Laplace (17491827), che ha dato unesposizione concisa e sistematica dei fondamenti della teoria delle
probabilit, ha dimostrato una delle forme del teorema limite centrale (teorema di MoivreLaplace) e ha sviluppato numerose applicazioni della teoria delle probabilit a questioni
pratiche, in particolare, allanalisi degli errori nellosservazione e nella misura.
Un altro passo in avanti nello sviluppo della teoria delle probabilit appartiene a Gauss
(1777-1855), che ha dato un fondamento ancora pi generale alla legge normale e ha
elaborato un metodo per trattare i dati sperimentali, noto con il nome di metodo dei minimi
quadrati. Notevoli sono i lavori di Poisson (1781-1840) che ha dimostrato la legge dei
4
grandi numeri in una forma pi generale di quella di Bernoulli e per primo ha applicato la
teoria delle probabilit ai problemi di tiro. Una delle leggi di distribuzione che gioca un
ruolo particolarmente importante nella teoria delle probabilit e delle sue applicazioni,
porta il nome di Poisson.
Allinizio del XIX secolo, in Russia, appare la celebre scuola matematica di S. Pietroburgo
che ha dato alla teoria delle probabilit il suo fondamento logico e teorico e ne ha fatto uno
strumento sicuro, esatto ed efficace di conoscenza. A P. ebyev (1821-1894), eminente
matematico russo, sono dovuti lo sviluppo e la generalizzazione della legge dei grandi
numeri; inoltre, egli ha introdotto nella teoria delle probabilit il potente ed efficace metodo
dei momenti.
A. Markov (1856-1922), allievo di ebyev, ha ugualmente arricchito la teoria delle
probabilit di scoperte e di metodi molto importanti. Markov ha esteso il dominio di
applicazione della legge dei grandi numeri e del teorema limite centrale a esperimenti
indipendenti e dipendenti. Il merito essenziale di Markov consiste nellaver posto le basi di
una branca nuova della teoria delle probabilit, cio la teoria dei processi aleatori o
stocastici.
Un gran numero di lavori fondamentali nei diversi campi della teoria delle probabilit e
della statistica matematica appartiene a A. Kolmogorov. stato lui a dare una costruzione
assiomatica perfetta della teoria delle probabilit collegandola con un settore importante
dellanalisi, sviluppando la sua teoria nel 1933.
1.2
Probabilit e definizioni
3. Probabilit classica
La definizione classica di probabilit risale al XVII secolo ed dovuta a Laplace. Tale
definizione, poi ripresa da C.F. Circe nel 1910, si pu enunciare nel modo seguente: la
probabilit, p( A ) , di un evento A il rapporto tra il numero N di casi "favorevoli" (cio
il manifestarsi di A ) e il numero totale M di risultati ugualmente possibili e mutuamente
escludentisi:
p A
N
.
M
(1.1)
Questa probabilit talvolta detta probabilit a priori: il motivo dell'appellativo "a priori"
deriva dal fatto che possibile stimare la probabilit di un evento a partire dalla simmetria
del problema.
Ad esempio, nel caso di un dado regolare si sa che la probabilit di avere un numero
qualsiasi dei sei presenti sulle facce 1/6 e infatti, nel caso dell'uscita di un 3, si ha:
un 3
p 3
1
.
6
Analogamente, nel caso di una puntata sul colore rosso alla roulette la probabilit di
vincere pari a 18
al
caso di eventi
con
una
La quantit 1
ka
.
A
probabilit che ha un sasso di colpire una particolare superficie unitaria del muro:
moltiplicando questa densit per l'area favorevole si ottiene direttamente la probabilit.
Si noti bene che questa definizione oggettiva di probabilit diventa di difficile applicazione
nelle numerose situazioni in cui la densit di probabilit non pu pi essere considerata
uniforme, ovvero quando vengono meno le condizioni di simmetria. Ad esempio nel caso
del bambino che lancia i sassi contro il muro pu verificarsi che le dimensioni dei fori
varino dal centro verso i bordi del muro e il bambino cerchi di mirare al centro.
4. Probabilit empirica
La definizione di probabilit empirica dovuta largamente a R. Von Mises ed la
definizione sperimentale di probabilit come limite della frequenza misurabile in una serie
di esperimenti. Essa ricalca lo schema della definizione classica, introducendo per
un'importante variazione: sostituisce al rapporto numero casi favorevoli / numero di casi
possibili il rapporto numero di esperimenti effettuati con esito favorevole / numero
complessivo di esperimenti effettuati. Il vantaggio di questa modifica che questa
definizione si applica senza difficolt anche ai casi in cui la densit di probabilit non
uniforme, ovvero, per quanto riguarda esperimenti con risultati discreti, non necessario
specificare che i risultati debbano essere ugualmente possibili e mutuamente escludentisi.
Vediamo allora come viene definita la probabilit empirica o probabilit a posteriori: la
probabilit di un evento il limite cui tende la frequenza relativa di successo all'aumentare
del numero di prove. In pratica, se abbiamo un esperimento ripetuto m volte ed un certo
risultato A che accade
) quando
m tende all'infinito:
p( A ) lim
n
.
m
(1.2)
m volte lo stesso
esperimento sia misurando simultaneamente m esperimenti identici. L'insieme degli m
Gli m tentativi possono essere effettuati sia ripetendo in sequenza
tentativi prende il nome di gruppo.
Esistono alcune delicate questioni riguardo l'esistenza e il significato del limite presente
nella definizione di probabilit empirica:
quindi che molte situazioni della vita quotidiana, non sono soggette all'uso di questa
definizione di probabilit: rappresentano esempi di questo tipo il risultato di una
partita di calcio, quello di una roulette russa o il tempo atmosferico di domani.
Inoltre, per venire incontro ad una necessit di "operativit", quasi tutti sono concordi nel
definire la probabilit come il valore della frequenza relativa di successo su un numero di
prove non necessariamente tendente all'infinito, ma giudicato sufficientemente grande.
Ad esempio, se si lancia una moneta non truccata, la frequenza di croci dopo numerosi
lanci si assester in generale sul 50%; tuttavia, anche se estremamente improbabile,
esiste la possibilit che ci sia una sequenza di tutte croci: questo il difetto logico della
definizione frequentista.
5. Probabilit assiomatica
La definizione della probabilit matematica dovuta a A.N. Kolmogorov.
Sia S un insieme di possibili risultati A i di un esperimento S A 1 , A 2 , A 3 ,... .
Se tali eventi sono mutuamente escludentisi allora per ognuno di essi esiste una
probabilit p A
probabilit:
I) p A 0;
II)se, come ipotizzato, A 1 e A 2 sono eventi mutuamente escludentisi, allora deve
valere: p A 1oppureA 2 p( A 1 ) p( A 2 ) dove p( A 1oppureA 2 ) la probabilit di
avere il risultato A 1 o il risultato A 2 ;
p( A i ) 1 , dove la sommatoria estesa su tutti gli eventi mutuamente
III)
i
escludentisi.
Le conseguenze dei tre assiomi sono:
gli assiomi illustrati e le loro conseguenze sono sufficienti a fare qualsiasi conto,
anche complicato, con le probabilit e ad ottenere un risultato numerico corretto.
D'altra parte essi non dicono niente su cosa sia la probabilit e quale sia la sua
natura: per questo si vedano le definizioni di probabilit classica, probabilit
empirica e probabilit soggettiva;
9
6. Probabilit soggettiva
La concezione soggettivista della probabilit porta ad una definizione che si potrebbe
formulare nel modo seguente: la probabilit di un evento A la misura del grado di
fiducia che un individuo coerente attribuisce, secondo le sue informazioni e opinioni,
all'avverarsi di A .
Il campo di applicabilit di questa definizione molto vasto; occorre aggiungere che la
"coerenza" significa la corretta applicazione delle norme di calcolo e che la misura del
grado di fiducia, cio la valutazione di probabilit, viene fatta sull'intervallo (0,1)
attribuendo la probabilit 0 all'evento impossibile e 1 a quello certo. Circa il fatto che la
valutazione sia qui un atto soggettivo, molto si potrebbe dire; interessa osservare che
soggettivo non significa arbitrario. Di fatto, appena vi siano premesse sufficienti, le
valutazioni individuali concordano per quanti siano interessati al medesimo problema.
Vediamo un esempio: Alessio disposto a scommettere 1 contro 20 sul fatto che nel
pomeriggio arrivi finalmente l'idraulico a riparare il rubinetto che perde da una settimana:
attribuisce cio a tale evento una probabilit pari ad 1
10
1.1
(1.3)
p( A B) p( A ) p(B) p( A B) .
(1.4)
che equivale a:
l'unione
bisogna
dei
togliere
relativa
alla
due
la
loro
A B
11
Il teorema dell'addizione delle probabilit, come nel caso del prodotto, facilmente
estendibile a pi di due eventi, sempre operando le stesse considerazioni che abbiamo
fatto per i due eventi A e B .
8. Probabilit condizionata
Si dice che l'evento A dipendente dall'evento B se la probabilit dell'evento A
dipende dal fatto che l'evento B si sia verificato o meno. Mentre diciamo che l'evento A
indipendente dall'evento B se la probabilit del verificarsi dell'evento A non dipende
dal fatto che l'evento B si sia verificato o no.
Vediamo alcuni esempi:
-
Unurna contiene due palline bianche ed una nera. Due persone estraggono
ciascuna una pallina dallurna. Si considerino i seguenti eventi:
evento A = la prima persona estrae una pallina bianca,
evento B = la seconda persona estrae una pallina bianca.
La probabilit che si verifichi levento A in assenza di informazioni su B 2 ; se
3
invece noto che levento B si verificato, la possibilit che si verifichi levento A
diventa 1 . Da ci si conclude che levento A dipendente dallevento B .
2
12
(1.5)
p( A B) 1 .
3 e
2
(1.6)
p( A B ) p( A ) .
(1.7)
(1.8)
p( A B ) p( A ) p(B ) p( A B ) .
(1.9)
che equivale a:
13
10.
(1.10)
Dimostriamo questo teorema per gli eventi che si riducono a uno schema di casi.
Supponiamo che i risultati possibili della prova si riducano a n casi che indichiamo con n
punti:
k B
mA
.
l AB
n
Supponiamo che m casi siano favorevoli allevento A e k casi allevento B ; non essendo
Calcoliamo
p B A ,
(1.11)
che A sia verificato. Se noto che levento A ha avuto luogo, degli n casi possibili
allinizio della prova rimangono possibili solo quegli m casi che sono favorevoli allevento
14
p B A
l
.
m
Sostituendo le espressioni di p AB , p( A ) e
p B A
(1.12)
nella formula (1.10), si ottiene
(1.13)
p( A B ) p( A ) ;
p(B A ) p(B )
importante: la probabilit del prodotto di due eventi indipendenti uguale al prodotto delle
probabilit di questi eventi:
p( A B) p( A ) p(B) .
(1.14)
p A p A B .
(1.15)
(1.16)
p AB p A p B A ;
(1.17)
p AB p B p A B ,
da cui:
p A p B A p B p A B
(1.18)
(1.19)
(1.20)
(1.21)
p A 1 A 2 ...A n p A 1 p A 2 ...p A n ,
16
(1.22)
cio: la probabilit del prodotto di eventi indipendenti uguale al prodotto delle probabilit
di questi eventi.
Usando il segno del prodotto, si pu scrivere questo teorema come segue:
Esempio 2
p A i .
i
i1
i1
(1.23)
1
2
Consideriamo un evento A esattamente
un colpo va a centro. Questo
dove
della cio
pallina
alla prima
estrazione
1 rappresenta
eventoA pu
verificarsi l'apparizione
in modi diversi,
si bianca
decompone
in pi
varianti
A 1 , A 2 ,A 3
gli eventi
0.4 0.5 0.3 0.6 0.5 0.3 0.6 0.5 0.7 0.36
Esempio 3
Nelle condizioni dellesempio precedente trovare la probabilit che almeno
un colpo vada a centro.
Consideriamo levento B almeno un17
colpo va a centro.
da cui:
p(B ) 1 p(B ) 1 0.09 0.91 .
18
19
A partire dai teoremi finora illustrati, osserviamo che dati due eventi A e B qualsiasi,
possibile esprimere A come:
A A B A B
(1.24)
p A p A B A B p A B p B p A B p B p A B p B p A B 1 p B
(1.25)
Ricorriamo ad un esempio per chiarire il concetto: si suppone che una popolazione sia
predisposta ad essere attaccata da un virus per il 30%, mentre ovviamente il restante 70%
pi forte dal punto di vista immunitario. Si sa da indagini statistiche che tra gli individui
predisposti se ne ammalano annualmente il 50%, mentre tra quelli pi forti il 20%. Qual
la probabilit che un individuo qualsiasi si ammali?
Sia A levento un individuo si ammala e B levento un individuo predisposto. Si ha:
p B A
p A B p B
p B A
p A
p A B p B p A B p B
(1.26)
Come esempio, immaginiamo che una analisi sia affidabile al 95%, cio dia risultati positivi
se un individuo malato per il 95% e ugualmente risultati positivi se lindividuo sano per
il restante 5%. E noto che la malattia diffusa tra la popolazione al 1%. Calcoliamo la
probabilit che il soggetto sia malato a condizione che il risultato sia positivo.
Sia A levento risultato positivo dellanalisi e sia B levento individuo effettivamente
malato.
Si ha:
p B A
p A B p B
0.95 * 0.01
p A B p B p A B p B
pB j A
p B j A
p A
p A B p B
n
21
p A B j p B j
i
(1.27)