Sei sulla pagina 1di 17

1 - CALCOLO DELLE PROBABILITA E TEOREMA

DI BAYES

1.1 Introduzione
La teoria delle probabilit una scienza matematica che si occupa delle regolarit negli
eventi casuali (aleatori). Si dice che un evento aleatorio se, ripetuto pi volte un
esperimento, levento si verifica ogni volta un po diversamente.
Diamo alcuni esempi di eventi aleatori:

a) Un esperimento consiste nel lanciare un dado (un cubo omogeneo recante su


ciascuna delle sue facce un numero da 1 a 6). Il risultato dellesperimento il
numero di punti segnato sulle facce del dado. In seguito a ripetuti esperimenti il
risultato varia in modo aleatorio. Queste variazioni sono dovute allazione di diversi
fattori talvolta poco importanti e anche impercettibili, che intervengono ogni volta
che si lancia il dado e questultimo cade sulla tavola, come per esempio, limpulso
iniziale comunicato al dado, la rugosit della superficie della tavola, le vibrazioni del
pavimento sul quale sta la tavola, ecc.: anche se sono state prese tutte le misure
necessarie per la conservazione delle condizioni dellesperimento, non si pu
assicurare la stabilit dei risultati.
1 Calcolo delle probabilit e teorema di Bayes
________________________________________________________________________________________________

b) Un esperimento consiste nel fatto che la cassa automatica di un autobus viene


riempita di monete durante la giornata. Questa cassa si vuota alla fine della
giornata e si conta lincasso (risultato della prova). chiaro che questo risultato
varia da un giorno allaltro e oscilla attorno ad un valore medio, entro certi limiti.
Queste variazioni sono dovute a fattori aleatori: il numero dei passeggeri saliti
sullautobus, il numero di passeggeri con o senza abbonamento, ecc.
c) Un esperimento consiste nel pesare un corpo, con la bilancia automatica, un certo
numero di volte. I risultati di esperimenti ripetuti non sono rigorosamente costanti.
Le fluttuazioni sono dovute allazione di numerosi fattori, come per esempio, la
posizione del corpo sul piatto della bilancia, le vibrazioni aleatorie della tavola, gli
errori della stima delle indicazioni dellapparecchio, ecc.
d) Si spara con un cannone disposto sotto un angolo 0 rispetto allorizzonte, alla
velocit iniziale v0, avendo i proiettili le medesime caratteristiche balistiche (peso,
forma). La traiettoria teorica interamente determinata da queste condizioni, la
traiettoria sperimentale subisce variazioni a causa degli effetti secondari: errori di
fabbricazione del proiettile, scarto del peso dal suo valore nominale, errore di
messa a punto del proiettile, condizioni meteorologiche, ecc. Se sono sparati molti
colpi in condizioni a prima vista simili, si ottiene non una sola curva teorica, bens
tutto un fascio di traiettorie, che riflette la dispersione dei proiettili.

Tutti gli esempi menzionati sopra sono considerati dallo stesso punto di vista: sono
sottolineate le variazioni aleatorie, i risultati diversi in una serie di esperimenti, le cui
condizioni essenziali sono mantenute costanti. Tutte queste variazioni sono sempre legate
alla presenza di fattori secondari, che influiscono sul risultato dellesperimento, ma non
figurano tra le condizioni essenziali. Le condizioni essenziali dellesperimento,
determinando grosso modo il suo verificarsi, restano invariate; le condizioni secondarie
variano da un esperimento allaltro e fanno apparire delle variazioni aleatorie nei risultati.
evidente che non esistono in natura effetti fisici che non abbiano elementi casuali. Per
quanto esatte e identiche siano le condizioni dellesperimento, impossibile raggiungere
risultati completamente e esattamente coincidenti al ripetersi dellesperimento.
Ogni fenomeno deterministico inevitabilmente accompagnato da scarti aleatori. Tuttavia
in certe applicazioni pratiche si possono trascurare questi elementi aleatori sostituendo un
fenomeno reale con uno schema semplificato, un suo modello, supponendo che nelle
condizioni date dallesperimento esso si realizzi in modo ben determinato.
Per la risoluzione di un certo numero di problemi, il metodo classico delle scienze esatte
sembra, tuttavia, poco adatto. Esistono dei problemi in cui il risultato di un esperimento
dipende da un numero di fattori cos grande che non praticamente possibile registrarli
tutti e tenerne conto. Questo il caso dei problemi in cui i fattori aleatori secondari,
intimamente legati gli uni agli altri, giocano un ruolo importante, per di pi, il loro numero
talmente grande e la loro influenza cos complicata che non giustificato limpiego dei
metodi classici.

2
1 Calcolo delle probabilit e teorema di Bayes
___________________________________________________________________________________________________________

I primi studi che portarono successivamente a concetti legati alla probabilit possono
essere trovati a met del XVI secolo nel Liber de ludo ale di Cardano (del 1526, ma
pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo
Galilei (pubblicato nel 1656), nei quali i due autori ottengono degli elenchi di numeri
facendo ricorso alle permutazioni.
Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba
essere interrotto, venne affrontato da Fra Luca dal Borgo (detto Paccioli) in Summa de
arithmetica, geometria, proportioni et proportionalita (pubblicato nel 1494) e
successivamente da Tartaglia, per poi essere risolto da Pascal e Fermat.
La nascita del concetto moderno di probabilit viene attribuita a due grandi scienziati quali
Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665), in particolar modo nella
corrispondenza che si scambiavano discutendo di un problema legato al gioco d'azzardo:
Se si lanciano pi volte due dadi, quanti lanci sono necessari affinch si possa
scommettere con vantaggio che esce il doppio sei?
Nello stesso periodo Christiaan Huyghens (1629-1695) scrive De ratiociniis in ale ludo
nel quale utilizza il concetto di valore atteso e il campionamento statistico con e senza
riposizionamento. I suoi lavori influenzano tra l'altro Pierre de Montmort (1678-1719) che
scrive nel 1708 Essai d'analyse sur le jeux de hasard, ma anche Jakob Bernoulli e
Abraham de Moivre.
Nel 1654 Pascal annuncia all'Accademia di Parigi che sta lavorando sul problema della
riparitizione della messa in gioco. In una lettera del 29 luglio dello stesso anno a Fermat
propone la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat
utilizzava metodi basati sulle combinazioni.
Nel 1713 Jakob Bernoulli formula in Ars conjectandi il primo teorema limite, ovvero la
legge dei grandi numeri.
Ancora prima di Bernoulli fu notata una particolarit dei fenomeni aleatori, che si pu
chiamare stabilit delle frequenze per un gran numero di prove e che si manifesta nel
fatto che per un gran numero di prove, aventi ciascuna un risultato aleatorio, la frequenza
relativa di comparsa di ciascuno dei risultati tende a stabilizzarsi, convergendo a un certo
numero, cio alla probabilit di questo risultato. Per esempio, quando si lancia un gran
numero di volte una moneta, la frequenza relativa di comparsa della testa tende a 1/2;
quando si lancia un gran numero di volte un dado a sei facce, la frequenza di comparsa
del cinque tende a 1/6, ecc.
Bernoulli fu per il primo a dare il fondamento teorico di questo fatto empirico. Il teorema di
Bernoulli, la forma pi semplice della legge dei grandi numeri, stabilisce una relazione tra
la probabilit di un evento e la frequenza della sua comparsa; quando il numero di prove
sufficientemente grande, ci si pu aspettare, con una certezza elevata, che la frequenza
coincida a piacere con la probabilit.
Un altro periodo importante nello sviluppo della teoria delle probabilit legato al nome di
Moivre (1667-1754). Fu lui ad introdurre e a dimostrare, nel caso pi semplice, una legge
particolare osservata spesso nei fenomeni aleatori: la cosiddetta legge normale (o legge di
Gauss). La legge normale gioca un ruolo particolarmente importante nei fenomeni aleatori.

3
1 Calcolo delle probabilit e teorema di Bayes
________________________________________________________________________________________________

Il gruppo di teoremi che danno un fondamento a questa legge per differenti condizioni
porta il nome generale di teorema limite centrale.
Un ruolo particolare nello sviluppo della teoria delle probabilit lha avuto Laplace (1749-
1827), che ha dato unesposizione concisa e sistematica dei fondamenti della teoria delle
probabilit, ha dimostrato una delle forme del teorema limite centrale (teorema di Moivre-
Laplace) e ha sviluppato numerose applicazioni della teoria delle probabilit a questioni
pratiche, in particolare, allanalisi degli errori nellosservazione e nella misura.
Un altro passo in avanti nello sviluppo della teoria delle probabilit appartiene a Gauss
(1777-1855), che ha dato un fondamento ancora pi generale alla legge normale e ha
elaborato un metodo per trattare i dati sperimentali, noto con il nome di metodo dei minimi
quadrati. Notevoli sono i lavori di Poisson (1781-1840) che ha dimostrato la legge dei
grandi numeri in una forma pi generale di quella di Bernoulli e per primo ha applicato la
teoria delle probabilit ai problemi di tiro. Una delle leggi di distribuzione che gioca un
ruolo particolarmente importante nella teoria delle probabilit e delle sue applicazioni,
porta il nome di Poisson.
Allinizio del XIX secolo, in Russia, appare la celebre scuola matematica di S. Pietroburgo
che ha dato alla teoria delle probabilit il suo fondamento logico e teorico e ne ha fatto uno
strumento sicuro, esatto ed efficace di conoscenza. A P. ebyev (1821-1894), eminente
matematico russo, sono dovuti lo sviluppo e la generalizzazione della legge dei grandi
numeri; inoltre, egli ha introdotto nella teoria delle probabilit il potente ed efficace metodo
dei momenti.
A. Markov (1856-1922), allievo di ebyev, ha ugualmente arricchito la teoria delle
probabilit di scoperte e di metodi molto importanti. Markov ha esteso il dominio di
applicazione della legge dei grandi numeri e del teorema limite centrale da esperimenti
indipendenti a dipendenti. Il merito essenziale di Markov consiste nellaver posto le basi di
una branca nuova della teoria delle probabilit, cio la teoria dei processi aleatori o
stocastici.
Un gran numero di lavori fondamentali nei diversi campi della teoria delle probabilit e
della statistica matematica appartiene a A. Kolmogorov. stato lui a dare una costruzione
assiomatica della teoria delle probabilit, collegandola con un settore importante
dellanalisi, sviluppando la sua teoria nel 1933.
Si torni indietro: nel 1763 fu pubblicato in Inghilterra un articolo del reverendo Thomas
Bayes, che divenne famoso per le sue implicazioni. Secondo larticolo, fare delle previsioni
su un fenomeno dipende non solo dalle osservazioni che lo scienziato ottiene dai suoi
esperimenti, ma anche da ci che egli stesso pensa e ha compreso del fenomeno
studiato, ancor prima di procedere allesperimento stesso. Tali premesse furono sviluppate
nel 1900 da illustri studiosi, quali B. de Finetti (La prvision: ses lois logiques, ses sources
subjectives, 1937), Savage (The foundation of statistics, 1959) e altri ancora.

4
1 Calcolo delle probabilit e teorema di Bayes
___________________________________________________________________________________________________________

1.2 Le definizioni della probabilit


1.2.1 Probabilit classica
La definizione classica di probabilit risale al XVII secolo ed dovuta a Laplace. Tale
definizione, poi ripresa da C.F. Circe nel 1910, si pu enunciare nel modo seguente: la
probabilit, p( A ) , di un evento A il rapporto tra il numero m di casi "favorevoli" (cio il
manifestarsi di A ) e il numero totale n di risultati ugualmente possibili e mutuamente
escludentisi:
m
p(A ) = . (1.1)
n

Questa probabilit talvolta detta probabilit a priori: il motivo dell'appellativo "a priori"
deriva dal fatto che possibile stimare la probabilit di un evento a partire dalla simmetria
del problema.
Ad esempio, nel caso di un dado regolare si sa che la probabilit di avere un numero
qualsiasi dei sei presenti sulle facce 1/6 e infatti, nel caso dell'uscita di un 3, si ha:

un 3
1
p(3) = = .
una faccia qualsiasi del dado 6

Analogamente, nel caso di una puntata sul colore rosso alla roulette la probabilit di
vincere pari a 18 , cio circa il 49% (infatti i numeri rossi sono 18 su un totale di 37,
37
essendoci oltre ai 18 numeri neri, anche lo zero che verde).
L'estensione al caso di eventi con risultati continui si attua attraverso una
rappresentazione geometrica in cui la probabilit di un evento casuale data dal rapporto
tra l'area favorevole all'evento e l'area totale degli eventi possibili.
Si consideri un esempio. Si supponga che un bambino lanci dei sassi contro una parete
forata senza prendere la mira. Siano i fori sulla parete distribuiti a caso e per semplicit
assumiamo che le dimensioni dei sassi siano molto piccole rispetto a quelle dei fori. Ci si
chiede qual la probabilit p che un sasso passi dall'altra parte.
Se A l'area della parete e a l'area di ciascuno dei k fori, la probabilit che un sasso passi
data dall'area "favorevole" divisa l'area totale

ka
p= .
A

La quantit 1 pu essere considerata come una densit di probabilit. Essa infatti la


A
probabilit che ha un sasso di colpire una particolare superficie unitaria del muro:
moltiplicando questa densit per l'area favorevole si ottiene direttamente la probabilit.

5
1 Calcolo delle probabilit e teorema di Bayes
________________________________________________________________________________________________

Si noti bene che questa definizione oggettiva di probabilit diventa di difficile applicazione
nelle numerose situazioni in cui la densit di probabilit non pu pi essere considerata
uniforme, ovvero quando vengono meno le condizioni di simmetria. Ad esempio nel caso
del bambino che lancia i sassi contro il muro pu verificarsi che le dimensioni dei fori
varino dal centro verso i bordi del muro e il bambino cerchi di mirare al centro.

1.2.2 Probabilit empirica


La definizione di probabilit empirica dovuta largamente a R. Von Mises ed la
definizione sperimentale di probabilit come limite della frequenza misurabile in una serie
di esperimenti. Essa ricalca lo schema della definizione classica, introducendo per
un'importante variazione: sostituisce al rapporto numero casi favorevoli / numero di casi
possibili il rapporto numero di esperimenti effettuati con esito favorevole / numero
complessivo di esperimenti effettuati. Il vantaggio di questa modifica che questa
definizione si applica senza difficolt anche ai casi in cui la densit di probabilit non
uniforme, ovvero, per quanto riguarda esperimenti con risultati discreti, non necessario
specificare che i risultati debbano essere ugualmente possibili e mutuamente escludentisi.
Vediamo allora come viene definita la probabilit empirica o probabilit a posteriori: la
probabilit di un evento il limite cui tende la frequenza relativa di successo all'aumentare
del numero di prove. In pratica, se abbiamo un esperimento ripetuto n volte ed un certo
risultato A che accade m volte, la probabilit di A data dal limite della frequenza ( m )
n
quando n tende all'infinito:
m
p( A ) = lim . (1.2)
n n

Gli n tentativi possono essere effettuati sia ripetendo in sequenza m volte lo stesso
esperimento sia misurando simultaneamente m esperimenti identici.

Esistono alcune delicate questioni riguardo l'esistenza e il significato del limite presente
nella definizione di probabilit empirica:
la probabilit cos definita non una propriet solo dell'esperimento, ma anche
funzione del particolare gruppo su cui viene calcolata. Ad esempio la probabilit di
sopravvivenza ad una certa et, calcolata su diversi campioni di popolazione a cui
una stessa persona appartiene (maschi, femmine, fumatori, non fumatori,
deltaplanisti, ecc.), risulta diversa;
la probabilit empirica si pu rigorosamente applicare soltanto agli esperimenti
ripetibili, per i quali il limite per m tendente all'infinito ha significato. Si deduce
quindi che molte situazioni della vita quotidiana, non sono soggette all'uso di questa
definizione di probabilit: rappresentano esempi di questo tipo il risultato di una
partita di calcio, quello di una roulette russa o il tempo atmosferico di domani.

6
1 Calcolo delle probabilit e teorema di Bayes
___________________________________________________________________________________________________________

Inoltre, per venire incontro ad una necessit di "operativit", quasi tutti sono concordi nel
definire la probabilit come il valore della frequenza relativa di successo su un numero di
prove non necessariamente tendente all'infinito, ma giudicato sufficientemente grande.
Ad esempio, se si lancia una moneta non truccata, la frequenza di croci dopo numerosi
lanci si assester in generale sul 50%; tuttavia, anche se estremamente improbabile,
esiste la possibilit che ci sia una sequenza di tutte croci: questo il difetto logico della
definizione frequentista.

1.2.3 Probabilit assiomatica


La definizione della probabilit matematica dovuta a A.N. Kolmogorov.
Sia S un insieme di possibili risultati (A i ) di un esperimento S = {A 1, A 2 , A 3 ,...} .
Se tali eventi sono mutuamente escludentisi allora per ognuno di essi esiste una
probabilit p(A ) rappresentata da un numero reale soddisfacente gli assiomi di
probabilit:

I. p(A ) 0 ;
II. se, come ipotizzato, A 1 e A 2 sono eventi mutuamente escludentisi, allora deve
valere: p(A 1oppureA 2 ) = p( A 1 ) + p( A 2 ) dove p( A 1oppureA 2 ) la probabilit di
avere il risultato A 1 o il risultato A 2 ;
III. p( A i ) = 1 , dove la sommatoria estesa su tutti gli eventi mutuamente
i

escludentisi.

Le conseguenze dei tre assiomi sono:


p( A i ) = p(nonA i ) = 1 p( A i ) , cio la probabilit di non ottenere l'evento A i uguale
ad uno meno la probabilit di ottenerlo;
p( A i ) 1 , cio la probabilit un numero reale appartenente all'intervallo [0,1]; in
pratica: 0 p( A i ) 1 dove 1 rappresenta la certezza di ottenere l'evento A i e 0
quella di non ottenerlo.

Di seguito alcune osservazioni:


la definizione di probabilit matematica pu essere estesa senza problemi alle
variabili continue;
gli assiomi illustrati e le loro conseguenze sono sufficienti a fare qualsiasi conto,
anche complicato, con le probabilit e ad ottenere un risultato numerico corretto.
D'altra parte essi non dicono niente su cosa sia la probabilit e quale sia la sua
natura: per questo si vedano le definizioni di probabilit classica, probabilit
empirica e probabilit soggettiva;

7
1 Calcolo delle probabilit e teorema di Bayes
________________________________________________________________________________________________

tutte le definizioni di probabilit soddisfano le condizioni espresse da questi


assiomi.

1.2.4 Probabilit soggettiva


La concezione soggettivista della probabilit porta ad una definizione che si potrebbe
formulare nel modo seguente: la probabilit di un evento A la misura del grado di
fiducia che un individuo coerente attribuisce, secondo le sue informazioni e opinioni,
all'avverarsi di A .

Il campo di applicabilit di questa definizione molto vasto; occorre aggiungere che la


"coerenza" significa la corretta applicazione delle norme di calcolo e che la misura del
grado di fiducia, cio la valutazione di probabilit, viene fatta sull'intervallo (0,1)
attribuendo la probabilit 0 all'evento impossibile e 1 a quello certo. Circa il fatto che la
valutazione sia qui un atto soggettivo, molto si potrebbe dire; interessa osservare che
soggettivo non significa arbitrario. Di fatto, appena vi siano premesse sufficienti, le
valutazioni individuali concordano per quanti siano interessati al medesimo problema.
Si consideri un esempio: Alessio disposto a scommettere 1 contro 20 sul fatto che nel
pomeriggio arrivi finalmente l'idraulico a riparare il rubinetto che perde da una settimana:
attribuisce cio a tale evento una probabilit pari ad 1 (meno del 5%). E come se ci si
21
trovasse ad effettuare un sorteggio da un'urna con 1 pallina rossa (evento positivo = arrivo
dell'idraulico) e 20 palline nere (eventi negativi = assenza dell'idraulico).
Ricapitolando: Alessio sta implicitamente dando una valutazione di probabilit, e tale
valutazione attribuisce una probabilit 1 al realizzarsi dell'evento positivo = arrivo
21
dell'idraulico. La frazione che esprime la probabilit ha numeratore uguale ad 1, che
corrisponde a quanto Alessio disposto a puntare, e denominatore pari a 21
corrispondente alla puntata di Alessio sommata alla puntata di un ipotetico sfidante.
Per quanto il dominio della probabilit soggettiva appaia ad alcuni incerto e arbitrario, vale
la pena di osservare che proprio questa la definizione di probabilit a cui pi spesso si
ricorre nelle considerazioni quotidiane ("domani piover, "questa volta passer l'esame",
ecc.).

1.3 Teoremi fondamentali del calcolo delle probabilit


Di seguito sono riportati alcuni teoremi che riguardano la combinazione di eventi, senza
alcuna pretesa di esaustivit.
Si segnalano altres alcune definizioni.
I risultati mutuamente escludentisi di un esperimento aleatorio (come il lancio di un paio di
dadi) sono detti eventi elementari. Linsieme di tutti gli eventi associati con un dato
esperimento, detto spazio degli eventi elementari.
Due eventi A e B sono detti mutuamente esclusivi ovvero incompatibili se non possono
accadere contemporaneamente; lunione di due eventi A B intesa come lavverarsi di

8
1 Calcolo delle probabilit e teorema di Bayes
___________________________________________________________________________________________________________

almeno uno dei due; lintersezione di due eventi A B invece lavverarsi di entrambi gli
eventi. Inoltre, la differenza A B tra due eventi indica lavverarsi di A, ma non di B e,
infine, si indica con A il complementare di A, che rappresenta il fatto che A non avviene.

1.3.1 Teorema delladdizione delle probabilit


Nel caso di eventi mutuamente escludentisi si ha:

p( A B) = p( A ) + p(B) (1.3a)

Nel caso che due eventi non siano mutuamente escludentisi, il teorema di addizione delle
probabilit afferma che:
p( A B) = p( A ) + p(B) p( A B) (1.3b)

che equivale alla seguente formula:

p( A + B) = p( A ) + p(B) p( A B) . (1.4)

La dimostrazione del teorema si ricava osservando la figura 1: se i due insiemi


rappresentano rispettivamente la probabilit di successo dell'evento A e dell'evento B
allora la probabilit che si verifichi almeno uno dei due uguale alla somma delle aree dei
due insiemi.
Per nel momento in cui si
considera l'unione dei due
insiemi bisogna togliere la
A
quantit relativa alla loro
intersezione in quanto viene
considerata due volte: una volta
per ciascun insieme. A B B
Se si considera A formato da
(A-B) e ( A B ), allora,
necessariamente, per avere la
superficie interessata bisogna
sommare ad A la superficie di
B, da cui sia esclusa ( A B ). Figura 1

Il teorema dell'addizione delle probabilit facilmente estendibile a pi di due eventi,


sempre operando le stesse considerazioni fatte per i due eventi A e B .

1.3.2 Probabilit condizionata


Si dice che l'evento A dipendente dall'evento B se la probabilit dell'evento A dipende
dal fatto che l'evento B si sia verificato o meno. Mentre si dice che l'evento A
indipendente dall'evento B se la probabilit del verificarsi dell'evento A non dipende dal
fatto che l'evento B si sia verificato o no.
9
1 Calcolo delle probabilit e teorema di Bayes
________________________________________________________________________________________________

Alcuni esempi:

- si consideri lesperimento costituito dal lancio di due monete.


Siano:
evento A = lapparizione di testa al lancio della prima moneta,
evento B = lapparizione di testa al lancio della seconda moneta.
La possibilit del verificarsi di A non dipende dal fatto che B si sia verificato o
meno, sicch levento A pu dirsi indipendente dallevento B .
- unurna contiene due palline bianche ed una nera. Due persone estraggono
ciascuna una pallina dallurna. Si considerino i seguenti eventi:
evento A = la prima persona estrae una pallina bianca,
evento B = la seconda persona estrae una pallina bianca.
La probabilit che si verifichi levento A in assenza di informazioni su B 2 ; se
3
invece noto che levento B si verificato, la possibilit che si verifichi levento A
diventa 1 . Da ci si conclude che levento A dipendente dallevento B .
2

La probabilit dellevento A , calcolata a condizione che levento B si sia verificato, si dice


probabilit condizionata di A e si denota nella seguente modalit:

p(A B ). (1.5)

Nel caso del secondo esempio citato si ha quindi: p( A ) = 2 e p( A B) = 1 .


3 2

La condizione di indipendenza dellevento A dallevento B si pu scrivere:

p( A B) = p( A ) , (1.6)

mentre la condizione di dipendenza diventa:

p( A B) p( A ) . (1.7)

1.3.3 Teorema del prodotto delle probabilit


In generale, per prodotto delle probabilit di due eventi si intende il verificarsi di entrambi
simultaneamente. Ad esempio, se l'evento A consiste nell'estrazione di un due da un
mazzo di carte e l'evento B nell'estrazione di una carta di picche, allora l'evento C = A B
consiste nell'apparizione di un due di picche.
Il teorema si pu quindi scrivere nella seguente forma:

p( A B) = p( A ) + p(B) p( A B) (1.8)

10
1 Calcolo delle probabilit e teorema di Bayes
___________________________________________________________________________________________________________

che equivale a:
p( A B) = p( A ) + p(B) p( A + B) . (1.9)

La dimostrazione del teorema facilmente intuibile sempre dall'osservazione della Figura


1, dove la quantit p( A B) corrisponde alla zona bianca di intersezione tra i due insiemi.
Tale zona, nel caso della somma dei due insiemi viene ricoperta due volte, quindi,
togliendo la grandezza p( A B) si eliminano le parti non comuni dei due insiemi e in pi
si sottrae anche una volta la superficie p( A B) , proprio come si voleva.
Il teorema del prodotto delle probabilit, come nel caso dell'addizione, facilmente
estendibile al caso di pi variabili, applicando le stesse considerazioni fatte nel caso di due
variabili.
Esiste anche un'altra formulazione di questo teorema, che va sotto il nome di teorema
delle probabilit composte.

1.3.4 Teorema delle probabilit composte


Un altro modo per esprimere il teorema di moltiplicazione delle probabilit rappresentato
dal teorema delle probabilit composte.
Tale teorema pu essere enunciato nel modo seguente: la probabilit del prodotto di due
eventi uguale al prodotto della probabilit di uno degli eventi per la probabilit
condizionata dell'altro cio, come si visto, la probabilit del secondo evento, calcolata a
condizione che il primo abbia luogo:

p( A B) = p( A ) p(B A ) = p(B) p( A B) . (1.10)

Si dimostra questo teorema per gli eventi che si riducono a uno schema di casi. Si
supponga che i risultati possibili della prova si riducano a n casi indicati con n punti:

k B

mA

.
l AB

Si supponga che m casi siano favorevoli allevento A e k casi allevento B ; non essendo
A e B supposti incompatibili, si ammette che esistano, in generale, dei casi favorevoli
allevento A e allevento B simultaneamente.

11
1 Calcolo delle probabilit e teorema di Bayes
________________________________________________________________________________________________

Sia l il numero di tali casi. Allora:


l
p(AB ) =
n (1.11)
m
p(A ) = .
n

Si calcola p(B A ), vale a dire la probabilit dellevento B , a patto che A sia verificato. Se
noto che levento A ha avuto luogo, degli n casi possibili allinizio della prova rimangono
possibili solo quegli m casi che sono favorevoli allevento A , essendo l di questi m casi
favorevoli allevento B . Di conseguenza:
l
p(B A ) = . (1.12)
m

Sostituendo le espressioni di p(AB ), p( A ) e p(B A ) nella formula (1.10), si ottiene


unidentit. Il teorema dimostrato.
evidente che applicando il teorema di moltiplicazione, lordine del susseguirsi degli
eventi A e B non ha nessuna importanza e si pu scrivere questo teorema come segue:

p(AB ) = p(B ) p(A B ) . (1.13)

Si noti che se gli eventi A e B sono mutuamente escludentisi, la probabilit condizionata


si annulla per definizione, mentre se gli eventi sono indipendenti si ha che p(B A ) = p(B) e
analogamente p( A B) = p( A ) ; da questo ultimo caso discende un 1 corollario molto
importante: la probabilit del prodotto di due eventi indipendenti uguale al prodotto delle
probabilit di questi eventi:
p( A B) = p( A ) p(B) . (1.14)

Come visto, il corollario segue immediatamente dalla definizione di eventi indipendenti.


Inoltre: se levento A indipendente dallevento B , anche levento B indipendente da
A . Questo 2corollario pu essere cos dimostrato.
noto che levento A non dipende da B , cio:

p(A ) = p(A B ) . (1.15)

Si richiede di dimostrare che levento B indipendente anchesso da A , cio:

p(B ) = p(B A ) . (1.16)

12
1 Calcolo delle probabilit e teorema di Bayes
___________________________________________________________________________________________________________

Per la dimostrazione si supponga p(A ) 0 .


Si scrive il teorema di moltiplicazione nelle due forme:

p(AB ) = p(A ) p(B A )


(1.17)
p(AB ) = p(B ) p(A B )
da cui:
p(A ) p(B A ) = p(B ) p(A B ) (1.18)

o, in accordo con la condizione (1.15):

p(A ) p(B A ) = p(B ) p(A ) . (1.19)

dividendo ambedue i membri delluguaglianza (1.19) per p(A ) , si ottiene:

p(B A ) = p(B ) , (1.20)


ci che volevasi dimostrare.
Da questo corollario segue che la dipendenza o lindipendenza degli eventi sono sempre
reciproche. Ci premesso si pu dare una nuova definizione di eventi indipendenti: due
eventi si dicono indipendenti se il verificarsi di uno dei due non altera la probabilit di
realizzazione dellaltro.
La nozione di indipendenza di eventi pu essere estesa a un numero qualsiasi di eventi.
Pi eventi sono detti mutuamente indipendenti se nessuno di essi dipende da tutto
linsieme degli altri.

Il teorema pu essere generalizzato al caso di un numero qualsiasi di eventi. Nella forma


generale esso si enuncia nel modo seguente: la probabilit del prodotto di pi eventi
uguale al prodotto delle probabilit di questi eventi, essendo calcolata la probabilit di
ciascun i-esimo evento, a condizione che tutti gli i-1 eventi si siano verificati:

( )
p A 1A 2 ...A n = p(A 1 ) p(A 2 A 1 ) p(A 3 A 1A 2 )...p(A n A 1A 2 ...A n1 ) . (1.21)

Questa formula pu essere dimostrata con lo stesso metodo di induzione adottato in


precedenza.
Per gli eventi indipendenti il teorema si semplifica e assume la forma:

p(A 1A 2 ...A n ) = p(A 1 ) p(A 2 )...p(A n ) , (1.22)

cio: la probabilit del prodotto di eventi indipendenti uguale al prodotto delle probabilit
di questi eventi.

13
1 Calcolo delle probabilit e teorema di Bayes
________________________________________________________________________________________________

Usando il segno del prodotto, si pu scrivere questo teorema come segue:

n n
p A i = p(A i ). (1.23)
i =1 i =1

Consideriamo alcuni esempi di applicazione del teorema.

Esempio 1
Un'urna contiene 2 palline bianche e 3 palline rosse. Si estraggono due
palline dall'urna. Trovare la probabilit che le due palline estratte siano
entrambe bianche.
Si denoti con A l'evento apparizione di due palline bianche. L'evento A il
prodotto di due eventi elementari:

A = A1A 2

dove A 1 rappresenta l'apparizione della pallina bianca alla prima estrazione


e A 2 la probabilit di ottenere la pallina bianca alla seconda estrazione.
In virt del teorema delle probabilit composte si ha:

p( A ) = p( A 1 ) p( A 2 A 1 ) = ( 2 ) ( 1 ) = 0.1
5 4

Si consideri la stessa situazione in cui dopo la prima estrazione, la pallina


estratta viene rimessa nell'urna (si parla allora di estrazione con
reintroduzione); in questo caso gli eventi A 1 e A 2 sono indipendenti e, per il
corollario, si ha:
p( A ) = p( A 1 ) p( A 2 ) = ( 2 ) ( 2 ) = 0.16 .
5 5
Esempio 2
Nelle applicazioni pratiche, in generale, levento la cui probabilit si
determina, viene rappresentato come una somma di pi eventi incompatibili
(varianti dellevento in esame), ciascuno di essi essendo, a sua volta, un
prodotto di eventi.

Tre colpi siano sparati successivamente su un bersaglio. La probabilit di


colpire il bersaglio al primo, al secondo e al terzo colpo uguale,
rispettivamente, a p1 = 0.4 , p 2 = 0.5 e p 3 = 0.7 . Determinare la probabilit
che di questi tre colpi uno vada esattamente a centro.

14
1 Calcolo delle probabilit e teorema di Bayes
___________________________________________________________________________________________________________

Si consideri un evento A esattamente un colpo va a centro. Questo evento


pu verificarsi in modi diversi, cio si decompone in pi varianti incompatibili.
Si denotino con A1, A 2 , A 3 gli eventi che consistono nel colpire il bersaglio,
rispettivamente, al primo, al secondo e al terzo colpo e A 1 , A 2 ,A 3 gli eventi
che consistono nel mancare il bersaglio rispettivamente al primo, secondo e
terzo colpo. Di conseguenza:

A = A 1 A 2 A 3 + A 1A 2 A 3 + A 1 A 2 A 3 .

Usando i teoremi di addizione e moltiplicazione degli eventi e tenendo conto


delle propriet degli eventi contrari si trova:

p( A ) = p( A 1 A 2 A 3 ) + p( A 1A 2 A 3 ) + p( A 1 A 2 A 3 ) =
= 0.4 0.5 0.3 + 0.6 0.5 0.3 + 0.6 0.5 0.7 = 0.36.

Esempio 3
Nelle condizioni dellesempio precedente si trovi la probabilit che almeno un
colpo vada a centro.
Si consideri levento B almeno un colpo va a centro.
Usando il procedimento e le notazioni dellesempio precedente si pu
rappresentare levento B come una somma di varianti incompatibili:

B = A 1 A 2 A 3 + A 1A 2 A 3 + A 1 A 2 A 3 + A 1A 2 A 3 + A 1 A 2 A 3 + A 1A 2 A 3 + A 1 A 2 A 3

Occorre dunque trovare mediante il teorema di moltiplicazione la probabilit


di ciascuna delle varianti e sommarle. Tuttavia questo procedimento troppo
complicato; qui pi opportuno passare dallevento B al suo contrario B ,
nessun colpo va a centro.
evidente che:
B = A1 A 2 A 3 .

Per il teorema di moltiplicazione:

p(B) = p( A 1 A 2 A 3 ) = 0.6 0.5 0.3 = 0.09


da cui:
p(B) = 1 p(B) = 1 0.09 = 0.91 .

15
1 Calcolo delle probabilit e teorema di Bayes
________________________________________________________________________________________________

Lultimo esempio unillustrazione dellopportunit di applicare gli eventi


contrari in teoria delle probabilit, che si enuncia nel modo seguente: se
levento contrario A si decompone in un numero pi piccolo di varianti
dellevento A , opportuno, calcolando le probabilit, passare allevento
contrario.

1.4.4 Teorema di Bayes


Esso si ricava semplicemente a partire dai teoremi finora illustrati; si osservi infatti che,
dati due eventi A e B qualsiasi, possibile esprimere A come:

(
A = (A B ) A B ) (1.24)
per cui:

( ) ( ) () ( )
p(A ) = p(A B ) + p A B = p(A B ) p(B ) + p A B p B = p(A B ) p(B ) + p A B [1 p(B )]
(1.25)

Si ricorre ad un esempio per chiarire il concetto: si suppone che una popolazione sia
predisposta ad essere attaccata da un virus per il 30%, mentre ovviamente il restante 70%
pi forte dal punto di vista immunitario. Si sa da indagini statistiche che tra gli individui
predisposti se ne ammalano annualmente il 50%, mentre tra quelli pi forti il 20%. Qual
la probabilit che un individuo qualsiasi si ammali?
Sia A levento un individuo si ammala e B levento un individuo predisposto. Si ha:

( )( ) ( )
p(A ) = p(A B )p(B ) + p A B p B = p(A B )p(B ) + p A B [1 p(B )] = 0.5 * 0.3 + 0.2 * 0.7 = 0.29

che la probabilit che un individuo qualsiasi si ammali.

Si riscrive lespressione della probabilit condizionata, tenendo conto della definizione


data in precedenza e dellespressione (1.25):

p(B A ) p(A B ) p(B )


p(B A ) = = (1.26)
p(A ) ( ) ()
p(A B ) p(B ) + p A B p B

Come esempio, si immagini che unanalisi sia affidabile al 95%, cio dia risultati positivi se
un individuo malato per il 95% e ugualmente risultati positivi se lindividuo sano per il
restante 5%. E noto che la malattia diffusa tra la popolazione al 1%. Si calcoli la
probabilit che il soggetto sia malato a condizione che il risultato sia positivo.
Sia A levento risultato positivo dellanalisi e sia B levento individuo effettivamente
malato.

16
1 Calcolo delle probabilit e teorema di Bayes
___________________________________________________________________________________________________________

Si ha:
p(A B )p(B ) 0.95 * 0.01
p(B A ) = = = 0.16 .
( )( )
p(A B )p(B ) + p A B p B 0.95 * 0.01 + 0.05 * 0.99

La formula pu essere generalizzata e si ottiene quello che comunemente viene chiamato


Teorema di Bayes:

p(A B ) p(B )
( ) p(Bpj(A)A ) = n j j .
p Bj A = (1.27)
p(A B i ) p(B i )
1

17

Potrebbero piacerti anche