Sei sulla pagina 1di 33

TEORIA DELLA PROBABILITÀ

1
1.1. CENNI STORICI
I primi contributi all’elaborazione della teoria della probabilità risalgo-
no alla fine del XV secolo. Luca Pacioli, amico di Leonardo da Vinci, si oc-
cupa del problema della ripartizione della posta tra giocatori nel caso di in-
terruzione di un popolare gioco in uno dei volumi della Summa de arithmeti-
ca, geometria, proportioni et proportionalita pubblicata nel 1494. Il problema,
successivamente studiato da Tartaglia, è infine risolto da Pascal e Fermat.
Girolamo Cardano analizza il gioco dei dadi nel Liber de ludo aleae – scritto
nel 1526, ma pubblicato dopo un secolo e mezzo, nel 1663 – e da Galileo Ga-
lilei (Sulla scoperta dei dadi, 1656). Da notare che i due autori ricorrono al cal-
colo combinatorio per ottenere il numero di sequenze risultanti dal lancio
di un dado n volte.
L'individuazione di un preciso riferimento cronologico per la nascita
della definizione di probabilità è una questione ancora aperta. Una delle
tappe fondamentali sembra essere il 1654. Antoine Gombaud, cavaliere di
Méré, un nobile francese appassionato di giochi d'azzardo, richiama l'at-
tenzione di Pascal sull'apparente contraddizione emersa in un popolare
gioco d’azzardo, consistente nel lancio ripetuto di una coppia di dadi. Il
problema che Gombaud sottopone a Pascal è calcolare la probabilità di ot-
tenere almeno un "doppio 6" nell'arco di 24 lanci. Una regola operativa dif-
fusa tra i giocatori dell’epoca suggeriva che scommettere sull’evento “il
doppio 6 si verifica almeno una volta su 24 lanci” sarebbe stato vantaggio-
so, ma i calcoli di Gombaud portavano a conclusioni opposte.
Questo ed altri problemi sollevati da Gombaud portarono Pascal e Fer-
mat ad uno scambio epistolare, nel quale furono formulati per la prima vol-
ta alcuni principi fondamentali della teoria della probabilità. Infatti, sebbe-
ne alcuni problemi specifici concernenti i giochi aleatori fossero stati risolti
da matematici italiani già nel XV e XVI secolo, come si è detto in preceden-
za, nessuna formulazione teorica generale era stata sviluppata prima del
carteggio Pascal‒Fermat.
2

Lo scienziato olandese Christian Huygens, un insegnante di Leibnitz,


venuto a conoscenza di questa corrispondenza, pubblica nel 1657 il primo
trattato di teoria della probabilità, dal titolo De ratiociniis in ludo aleae. Poi-
ché il libro si occupava di giochi aleatori, la cui “febbre” stava dilagando in
quel periodo, la teoria della probabilità divenne presto famosa e si sviluppò
rapidamente durante il XVIII secolo. Tra gli studiosi ai quali si devono fon-
damentali contributi alla teoria della probabilità in questo periodo, ricor-
diamo Jacob Bernoulli (1654-1705) e Abraham De Moivre (1667-1754).
Nel 1812 Pierre Simon de Laplace (1749-1827) introduce nuove idee e
tecniche matematiche nel suo testo Théorie Analytique des Probabilités. Se
prima di Laplace la teoria della probabilità si occupava per lo più dello svi-
luppo di una matematica dei giochi aleatori, allo studioso francese si deve
l’applicazione di un approccio probabilistico in molti problemi scientifici e
pratici. La teoria degli errori, la matematica attuariale e la meccanica stati-
stica sono esempi di alcune delle applicazioni della teoria della probabilità
sviluppate nel XIX secolo.
In quegli stessi anni, Gauss, con il contributo dello stesso Laplace, pre-
sentava una prima formulazione della distribuzione normale, conosciuta
anche come distribuzione di Gauss-Laplace, che costituisce uno dei cardini
su cui si fonda la statistica moderna.
Dai tempi di Laplace, molti studiosi hanno contribuito alla sviluppo
formale della teoria della probabilità. Tra i più importanti Chebychev,
Markov, von Mises, De Finetti e Kolmogorov.
Una delle difficoltà nello sviluppo di una teoria matematica della pro-
babilità è stata il raggiungimento di una definizione di probabilità suffi-
cientemente rigorosa e precisa per l'utilizzo all’interno di un modello ma-
tematico ma, al tempo stesso, flessibile al fine di essere utilizzata per
l’analisi di un’ampia gamma di fenomeni. La ricerca di una definizione ac-
cettabile ha richiesto quasi tre secoli ed è stata segnata da innumerevoli di-
spute. Il problema è stato definitivamente risolto nel XX secolo, quando la
teoria della probabilità è stata riformulata su basi completamente assioma-
tiche. Nel 1933, nella monografia Grundbegriffe der Wahrscheinlichkeitsrech-
nung (Fondamenti di teoria della probabilità), Kolmogorov delinea l’approccio
assiomatico che è alla base della moderna teoria della probabilità. Da allora,
queste idee sono state alquanto sviluppate e la teoria della probabilità ora è
parte di una più generale disciplina matematica, la teoria della misura.
3

1.2. L’EVOLUZIONE DELLE DEFINIZIONI


La teoria della probabilità è una branca delle discipline matematiche che
studia i problemi di definizione e misurazione dell’incertezza.
La realtà che ci circonda è la sintesi – il prodotto – di infiniti fatti le cui
cause si intrecciano e si sovrappongono. Nonostante l’estrema complessità
della realtà fenomenica e la difficoltà di individuare leggi generali,
l’osservazione e l’esperienza pongono in evidenza ripetizioni e regolarità –
è il cosiddetto problema sull’induzione di Hume – che possono essere con-
densate in affermazioni del tipo: “Ogni volta che si realizza un certo insie-
me di condizioni B, si verifica l’evento E”. In questo caso, l’evento E è detto
evento certo, in quanto definito in maniera univoca dall’insieme delle condi-
zioni B. In notazione logica sarà

E B

Se il set informativo a disposizione dell’agente non è B, ma un sottoin-


sieme parziale di condizioni C, non si avrà come conseguenza necessaria il
verificarsi di E. Si parlerà in questo caso di evento incerto, o casuale.
Il concetto di probabilità si presenta con due significati: quello di chance,
quando l’osservazione sul risultato di un esperimento e la sua valutazione
dipendono dal caso – nel senso chiarito in precedenza – e l’esperimento è
suscettibile di essere ripetuto un gran numero di volte; e quello di probabili-
tà in senso stretto, attinente ad un esperimento difficilmente ripetibile.
Introduciamo tre concetti, che risulteranno utili nel seguito della tratta-
zione:

Esperimento casuale. Operazione (o sequenza di operazioni) il cui


esito non può essere previsto con certezza.

Evento elementare. Qualunque risultato a cui può dare luogo un


esperimento. Gli eventi elementari  possono essere considerati
come elementi di un più generale spazio degli eventi.

Spazio campione. È l’insieme di tutti gli eventi elementari o even-


to certo. In generale gli eventi elementari costituiranno sottoinsiemi
in .

Occupiamoci adesso della definizione della misura di probabilità e della


sua evoluzione storica.
4

Definizione classica. Originariamente dovuta a Laplace, afferma che


dato uno spazio finito di eventi , la probabilità è il rapporto tra il numero n
dei casi favorevoli al verificarsi di un qualunque evento  e il numero n dei casi
possibili, posto che gli eventi siano tutti equiprobabili.

n
Pr( )    
n

La definizione classica è una definizione a priori. Per esempio, con rife-


rimento all’esperimento consistente nel lancio di una moneta ben bilancia-
ta, l’agente conosce ex ante gli eventi elementari (testa, croce) cui
l’esperimento può dare luogo. Gli eventi hanno la caratteristica fondamen-
tale di essere necessari, in quanto nel corso dell’esperimento o l’uno o l’altro
degli eventi elementari deve necessariamente verificarsi; mutuamente esclu-
sivi (o incompatibili), tali cioè che il verificarsi dell’uno esclude il verificarsi
dell’altro; ed equiprobabili, in quanto si assume che nessuno dei due eventi
elementari abbia maggiori chance di manifestarsi rispetto all’altro.
Per quanto di immediata comprensibilità e di pronta applicazione a
semplici problemi pratici, la definizione classica è insoddisfacente da un
punto di vista logico. Infatti, il riferimento nella definizione alla nozione di
equiprobabilità dei risultati configura una tautologia1. Inoltre, a prescindere
dalle sue lacune logiche, l’applicabilità della definizione classica è confinata
a quei contesti in cui l’osservatore sia in grado di rappresentare ex ante lo
spazio degli eventi elementari e che questi, come detto, siano equiprobabili,
condizioni che difficilmente si presentano nella realtà.

Definizione frequentista. Formulata da Venn (1834-1923), emerge da


un ragionamento a posteriori fondato sull’osservazione dei risultati di un
esperimento.
Consideriamo un esperimento articolato in n prove, nel corso del quale
si verifichino k eventi elementari 1 ...k tra loro incompatibili, ma non
equiprobabili. Ipotizziamo che in n prove l’evento elementare i si sia ma-
nifestato ni volte. Definendo la frequenza relativa dell’evento i il rapporto
ni n , la misura di probabilità del generico evento elementare  è il limite della sua
frequenza relativa al divergere del numero di prove.

1 È appena il caso di ricordare che in logica la tautologia è un’affermazione vera per defini-
zione e, in quanto tale, fondamentalmente priva di contenuto informativo. Una tautologia,
in altre parole, ragiona circolarmente attorno agli argomenti o alle definizioni. Un esempio
di affermazione tautologica: “La tautologia è ciò che è tautologico”.
5

In simboli avremo che

n
Pr( )  lim   
n n

La definizione frequentista è stata anche definita legge empirica del caso.


Proprio perché formulata a posteriori, presenta alcune limitazioni. Quella
più ovvia è che la misura di probabilità nella definizione frequentista pre-
suppone lo svolgimento di un esperimento articolato su un gran numero di
prove. Se un evento non si è ancora manifestato nel corso dell’esperimento,
non se ne può misurare la probabilità: sarebbe infatti necessario ripetere
l’esperimento infinite volte per avere la certezza che tutti gli eventi elemen-
tari si siano effettivamente manifestati.
Inoltre, sebbene la definizione frequentista sia largamente diffusa nelle
scienze applicate, non è universale. Per risolvere il problema
dell’universalità sono stati proposti due approcci più consistenti sul piano
matematico, l’impostazione soggettiva e quella assiomatica.

Definizione soggettiva. L’approccio in termini soggettivi appare alla


fine degli anni venti del XX secolo in risposta alle citate lacune logiche
dell’impostazione classica e di quella frequentista.
Partiamo da una premessa generale. Nella vita di tutti i giorni possono
manifestarsi eventi unici, irripetibili, rispetto ai quali un osservatore po-
trebbe essere chiamato a prendere decisioni, senza conoscerne pienamente
conseguenze e implicazioni. In questi contesti, di incertezza in senso pro-
prio più che di rischio2, le misure classiche e frequentiste di probabilità non
risultano più applicabili.
Sviluppata indipendentemente da Ramsey (1903-1930) e De Finetti
(1906-1985), l’impostazione soggettiva afferma che la probabilità di un evento
è una misura p del grado di fiducia che un individuo attribuisce al verificarsi di
sulla base delle sue opinioni ed informazioni sull’evento e il principio di coeren-
za.
In realtà De Finetti preferiva utilizzare una definizione più operativa: la
probabilità di un evento , secondo l’opinione di un individuo I, è il prezzo p che I

2Dobbiamo a Knight la distinzione tra rischio (measurable uncertainty) e incertezza (unmeasu-


rable uncertainty). Una decisione in condizioni di rischio si realizza quando il decisore ha co-
gnizione di tutti gli stati in cui può manifestarsi un fenomeno ed è in grado di associare una
misura di probabilità a ciascuno stato. Di contro, quando l’agente non dispone di una rap-
presentazione completa dello spazio degli stati e/o non è in grado di assegnare una misura
di probabilità a ciascuno di essi, si parlerà più propriamente di decisioni in condizioni di in-
certezza.
6

giudica equo pagare per riscuotere un importo unitario nel caso in cui  si verifi-
chi.
L’impostazione soggettiva tende a recuperare, in un certo senso, un
concetto di probabilità prossimo al senso comune, quello che, nota
D’Agostini (1999), si ha “prima di andare a scuola” e che si continua a uti-
lizzare inconsciamente dopo, “nonostante quello che si è appreso”. Per i
soggettivisti la probabilità è una misura del grado di fiducia – in inglese de-
gree of belief – che una qualsiasi affermazione sia vera. E poiché quanto più
si crede in un’affermazione, tanto più si è disposti a scommettere su di essa,
si può utilizzare il concetto di scommessa coerente per definire in maniera
operativa la misura di probabilità.
Nella concezione di De Finetti una scommessa è coerente quando non
determina una perdita certa a priori per il banco o per lo scommettitore,
mentre il prezzo pagato si definisce equo se lo scommettitore non muta i
termini della scommessa anche quando scambia il suo ruolo con quello di
banco.
Quindi coerenza significa il rispetto di alcuni criteri di carattere logico.
Con la diretta implicazione che, per quanto in questa impostazione la valu-
tazione sia un atto soggettivo, non è arbitraria. Infatti, se nell’analisi di un
problema le valutazioni di una pluralità di osservatori potrebbero non con-
cordare, quando il set informativo di cui dispone l’osservatore rimane immu-
tato, non deve mutare il suo grado di fiducia circa l’avverarsi di .
Un esempio contribuirà a chiarire i concetti appena esposti. Conside-
riamo l’evento ‘‘vittoria del pilota X nella gara automobilistica Y”. Ipotiz-
ziamo che dietro pagamento di 0 euro un allibratore ve ne promettesse 100
nel caso si verifichi accettereste di partecipare alla scommessa? Sicura-
mente sì, in quanto l’allibratore vi ha chiesto 0 per partecipare al gioco e
l’evento  potrebbe verificarsi. Ipotizziamo adesso che l’allibratore vi chie-
da di scommettere 10 eurocent. In questo caso accettereste di partecipare?
Quasi certamente la risposta sarebbe ancora affermativa, perché a fronte di
una perdita massima di 10 eurocent la vincita potrebbe essere molto supe-
riore. Ma se per scommettere l’allibratore vi chiedesse 90 euro, accettereste
di partecipare? Verosimilmente no, a meno che il vostro information set non
vi induca a ritenere che la scommessa è comunque vantaggiosa. Dunque
con un prezzo di 10 eurocent partecipate alla scommessa, mentre non par-
tecipate se non a condizioni stringenti quando il prezzo è di 90 euro.
Generalizzando, se uno scommettitore accetta di partecipare al gioco
pagando un prezzo p, accetterà a maggior ragione al prezzo p*  p . Di con-
tro, se uno scommettitore non partecipa al gioco al prezzo p, rifiuterà a
maggior ragione al prezzo p * *  p . Esisterà quindi un valore soglia di p
che separa la decisione di partecipare alla scommessa da quella di non par-
7

tecipare. Quel valore soglia p è la probabilità soggettiva da voi assegnata a


.
In generale, se un certo evento  nell’ambito di una scommessa coeren-
te e ipotizzando che il prezzo sia equo, viene dato “x contro y”, la probabili-
tà soggettiva di  risulterà pari a

y
p( ) 
yx

Per esempio, se un allibratore propone una scommessa “4 contro 1” sul


verificarsi di un certo evento , significa che si impegna, al verificarsi
dell’evento, a riconoscere allo scommettitore un premio pari a 4 più il rim-
borso del prezzo pagato da quest’ultimo per partecipare al gioco – pari ad 1
– da cui è immediato ottenere p()  1 (1  4)  0,2 .

Definizione assiomatica. Formulata da Kolmogorov (1903-1987), è con-


siderata la definizione più consistente sul piano matematico, in quanto,
come chiarito in precedenza, si fonda su alcuni principi generali di teoria
della misura. In base a tale definizione, data una algebra3 C di sottoinsiemi
A   , la misura di probabilità Pr è una funzione che associa ad ogni sottoinsieme
A un numero reale non negativo. In simboli

Pr : A 

La funzione di probabilità soddisfa 4 assiomi:

1. Non negatività. Pr( A)  0 A  C


2. Normalizzazione. Pr()  1
3. Additività finita.
Dati due eventi A e B incompatibili, tali cioè che A  B  

Pr( A  B)  Pr( A)  Pr( B)

4. Completa additività.
Data una famiglia composta da un’infinità numerabile di eventi
{ Ak }  { AK ; k  1,2,...} a due a due incompatibili, tali cioè che
Ai  Aj   i  j

3Il lettore interessato può consultare l’Appendice 1 per alcune sintetiche informazioni sulla
nozione di algebra e in generale sulla teoria degli insiemi.
8

  
Pr  Ak    Pr( Ak )
 k 1  k 1

Nell’impostazione assiomatica si adotta una definizione di probabilità


su una algebra C perché si è interessati non soltanto agli eventi elementa-
ri, ma anche a sequenze finite o infinite di operazioni di unione, intersezio-
ne, differenza, negazione. Gli eventi complessi così definiti appartengono
di nuovo a C, per cui se ne può definire la probabilità. Notare anche che,
per le leggi di De Morgan, data una successione { Ak }  C

   
se   Ak   C    Ak   C
 k 1   k 1 

e quindi anche le probabilità degli eventi intersezione possono essere misu-


rate.

1.3. PROPRIETÀ DELLA MISURA DI PROBABILITÀ


La misura di probabilità gode di alcune proprietà che consentono di
quantificare l’incertezza dell’osservatore non soltanto circa il verificarsi di
eventi elementari, ma anche circa il verificarsi di sottoinsiemi di eventi, cioè
di suddivisioni dello spazio campione . Queste proprietà sussistono indi-
pendentemente dalla definizione adottata di probabilità. Nel caso delle de-
finizioni classiche e frequentistiche, le proprietà sono una conseguenza del-
la formula di calcolo adottata (una frequenza relativa), mentre nelle defini-
zioni soggettivistiche e assiomatiche trovano fondamento in alcuni principi
di natura logica.
Ad ogni modo, nel seguito della trattazione, preferiamo per motivi for-
mali attenerci esclusivamente all’impostazione assiomatica. Dagli assiomi
1‒4 elencati in precedenza derivano tutte le proprietà della probabilità.

Proprietà 1. Probabilità dell’evento negazione.

Pr(A)  1  Pr( A) A  C

Dimostrazione. Poiché A  { :   A} , questo implica che A  A   e


A  A   . In virtù dell’assioma 2 è Pr()  1 , mentre per l’assioma 3 ri-
sulta Pr( A  A)  Pr( A)  Pr(A) . Nel complesso avremo che

Pr( A)  Pr(A)  Pr()  Pr(A)  1  Pr( A)


9

Osservando poi che

    Pr( )  1  Pr()  Pr( )  1  1  0


Proprietà 2. Estremi della misura di probabilità

0  Pr( A)  1 A  C

Dimostrazione. Poiché in virtù dell’assioma 1 risulta Pr( A)  0 , mentre


per l’assioma 2 è Pr()  1 , allora risulterà anche Pr(A)  0 . Si è poi visto
che Pr(A)  1  Pr( A) . Combinando i risultati precedenti si avrà quindi

Pr(A)  0  1  Pr( A)  0  Pr( A)  1

Combinando questo risultato con l’assioma 1, otteniamo

0  Pr( A)  1

Proprietà 3. Additività in una successione finita. Data una famiglia compo-
sta da un numero finito di eventi { Ak }  { Ak ; k  1,2,...,n} a due a due in-
compatibili, tali cioè che Ai  Aj   i  j

 n  n
Pr  Ak    Pr( Ak )
 k 1  k 1

Dimostrazione. Data una famiglia finita di 3 eventi { A1 , A2 , A3 }  C a due


a due incompatibili, risulterà

( A1  A2 )  A3  ( A1  A3 )  ( A2  A3 )      

e poiché in virtù dell’assioma 3 Pr( A  B)  Pr( A)  Pr( B) segue che

Pr[( A1  A2 )  A3 ]  Pr( A1  A2 )  Pr( A3 ) 


 Pr( A1 )  Pr( A2 )  Pr( A3 )

Naturalmente, quanto dimostrato per una successione di tre eventi può
essere esteso ad una qualsiasi successione finita di eventi.
10

Proprietà 4. Teorema delle probabilità totali. Dati due eventi A, B  C com-


patibili, caratterizzati cioè da intersezione non vuota ( A  B   ), si avrà che

I. Pr( B  A)  Pr( B)  Pr( A  B)


II. Pr( A  B)  Pr( A)  Pr( B)  Pr( A  B)

Dimostrazione. Innanzitutto notiamo che B  ( A  B)  ( B  A) . Inoltre si


ha che A  B  A  ( B  A) (Fig. 1.1). I due eventi ( A  B) e ( B  A) sono
incompatibili, per cui ( A  B)  ( B  A)   e quindi

Pr( B)  Pr( A  B)  Pr( B  A)  Pr( B  A)  Pr( B)  Pr( A  B)

Figura 1.1 ‒ Rappresentazione di due sottoinsiemi di


eventi compatibili

Essendo poi Pr( A  B)  Pr( A)  Pr( B  A) , combinando i due risultati


avremo che

Pr( A  B)  Pr( A)  Pr( B)  Pr( A  B)



Il teorema delle probabilità totali può essere esteso al caso di tre eventi
(Fig. 1.2). Infatti, data una famiglia di tre eventi { A, B, C } a due a due com-
patibili, si può dimostrare che

Pr( A  B  C )  Pr( A)  Pr( B)  Pr(C ) 


 Pr( A  B)  Pr( A  C )  Pr( B  C ) 
 Pr( A  B  C )
11

Figura 1.2 ‒ Rappresentazione di tre sottoinsiemi di


eventi compatibili

Il risultato precedente può infine essere generalizzato. Data una fami-


glia di n eventi { Ak ; k  1,2,...,n } a due a due compatibili, la probabilità della
loro unione è uguale alla somma delle probabilità degli eventi, meno la
somma delle intersezioni tra coppie di eventi, più la somma delle intersezio-
ni tra triple di eventi, meno la somma delle intersezioni tra quadruple di
eventi, e così via, per giungere alla probabilità dell’intersezione della n-upla
di eventi, con segno positivo se n è dispari, negativo in caso contrario.

Proprietà 5. Probabilità in una relazione di inclusione

Se A  B  Pr( A)  Pr( B)

Dimostrazione. Ricordando che ( B  A )={  :   B    A } avremo che


( A  B)  A  ( B  A) e ( A  B)  B . Quindi

Pr( B)  Pr( A  B)  Pr( A)  Pr( B  A)  Pr( A)


Proprietà 6. Probabilità condizionata. Dati due eventi A,B  C si ipotizzi


che B   e che non risulti vuota l’intersezione tra i due sottoinsiemi A e B
( A  B   ). Ipotizziamo di essere interessati all’evento condizionato { A si
verifica essendosi verificato B }, evento che denoteremo come ( A B ). La mi-
sura di probabilità dell’evento condizionato è data dalla seguente relazione:

Pr( A  B)
Pr( A B)  Pr( B)  0
Pr( B)
12

Dimostrazione. Sia l’evento condizionante B una partizione di eventi


elementari B   . Sia C B una algebra costituita da B e dall’evento con-
dizionato ( A B ) coincidente con l’intersezione A  B (nel senso che si veri-
fica l’evento condizionato ( A B ) se e solo se si manifesta un evento ele-
mentare presente nell’intersezione A  B ):



CB  A  B

 B

Associamo ad ogni evento compreso in C B una misura di probabilità


PrB : A B   , in cui  B assume la funzione di evento certo. Nella parti-
zione  B l’evento A  B non ha probabilità Pr( A  B) , ma una misura di
probabilità PrB ( A  B) > Pr( A  B) . Ricordando che vale l’identità ( A B ) =
( A  B ), possiamo scrivere la seguente relazione:

Pr( A  B) : PrB ( A  B)  Pr(B ) : Pr()

da cui, sostituendo, è agevole mostrare che

Pr( A  B)
Pr( A  B) : Pr( A B)  Pr( B) : 1  Pr( A B) 
Pr( B)

Naturalmente, se si considera come evento condizionante A, vale anche


il seguente risultato:

Pr( A  B)
Pr( B A)  Pr( A)  0
Pr( A)

La principale conseguenza della proprietà appena illustrata è la seguen-


te. Se risolviamo una delle due precedenti relazioni per Pr( A  B) , otte-
niamo la probabilità dell’evento intersezione:

Pr( A  B)  Pr( B) Pr( A B)  Pr( A) Pr( B A)

relazione quest’ultima definita come “principio o postulato della probabilità


composta”.
13

L’evento ( A B ) esprime una revisione nelle aspettative dell’osservatore


circa il manifestarsi di A, che in qualche modo risulta collegato al verificarsi
dell’evento condizionante B, al fine di tenere conto del cambiamento avve-
nuto nell’information set a seguito del verificarsi di B.
Per esemplificare, ipotizziamo di effettuare un esperimento di estrazio-
ne in blocco4 di palline da un’urna contenente 5 palline bianche e 5 nere. Na-
turalmente, questo esperimento non ha particolare interesse in sé, ma con-
cettualizza situazioni del mondo reale che sono caratterizzate da una com-
plessità ben diversa. Ad ogni modo, assumiamo che alla prima estrazione si
sia ottenuta una pallina di colore nero (evento B) e che questa, conforme-
mente allo schema di estrazione scelto, non sia reintrodotta nell’urna, alte-
rando pertanto la composizione di quest’ultima. Ci domandiamo a quanto
ammonta la probabilità di ottenere nell’estrazione successiva una pallina
bianca (evento A), essendosi verificato l’evento condizionante B nella prima
estrazione. Con la composizione di partenza dell’urna la probabilità di
estrarre nella prima prova una pallina bianca sarebbe stata pari al rapporto
tra il numero delle palline bianche e il totale delle palline contenute
nell’urna, cioè 0,5. Notare che questa probabilità non cambierebbe, nelle
estrazioni successive, se si adottasse uno schema di estrazione con ripetizio-
ne, la cui principale caratteristica è quella di lasciare immutata la composi-
zione dell’urna dopo lo svolgimento di ciascuna delle prove. Se viceversa si
adotta uno schema di estrazione in blocco, la composizione dell’urna si alte-
ra ad ogni successiva estrazione, influenzando i successivi risultati. Estratta
nella prima prova una pallina nera, infatti, la probabilità di ottenere nella
seconda estrazione una pallina bianca sarà pari a 5 su 9, cioè 0,555.
L’implicazione più diretta di questo semplice esperimento è che il mec-
canismo di estrazione delle palline dall’urna determina la relazione di di-
pendenza o l’indipendenza tra eventi.
Più formalmente, tornando al concetto di evento condizionato ( A B ),
va osservato che il verificarsi dell’evento B potrebbe migliorare la conoscen-
za delle circostanze che determinano il verificarsi dell’evento A, il che in
precedenza ci ha consentito di affermare che PrB ( A  B) > Pr( A  B) . Ma ciò
non si verifica necessariamente. Può accadere che il manifestarsi di B potreb-
be non rappresentare un’informazione rilevante per l’osservatore. È il caso

4 Si ha estrazione bernoulliana o con ripetizione quando, in un esperimento di estrazione di n


unità da un’urna probabilistica, le unità sono reimmesse nell’urna dopo la registrazione del
risultato e possono essere estratte nuovamente, per cui la composizione dell’urna non si
modifica al susseguirsi delle prove. Si ha viceversa estrazione in blocco o senza ripetizione,
quando le unità estratte non sono reimmesse nell’urna dopo la registrazione del risultato.
Nel secondo caso, il manifestarsi di un certo risultato nello svolgimento della prova i-esima
dipenderà dall’intera sequenza dei risultati che lo hanno preceduto.
14

dell’estrazione con ripetizione, in cui Pr( A B)  Pr( A) , condizione che ci


consente di affermare che l’evento A è stocasticamente indipendente
dall’evento B.
Nel caso di indipendenza tra eventi, scriveremo pertanto

Pr( A  B)
Pr( B A)   Pr( B)  Pr( A  B)  Pr( A) Pr( B)
Pr( A)

In altri termini, nel caso di indipendenza tra eventi la probabilità dell’evento


intersezione è data dal prodotto delle probabilità associate ai singoli sottoinsiemi
che formano l’intersezione.

Proprietà 7. Probabilità assoluta. È una diretta conseguenza e, in un certo


senso, l’estensione della proprietà precedente ad un certo numero n di
eventi condizionanti.

Figura 1.3 ‒ Rappresentazione di B e degli eventi


condizionanti {Ak}

Sia data una partizione di in n sottoinsiemi { Ak ; k  1,...,n } mutuamente


esclusivi e necessari. Se B è un qualsiasi evento la cui manifestazione è condi-
zionata al verificarsi dell’uno o l’altro degli eventi condizionanti { Ak }, allo-
ra potremo scrivere che

n n
Pr( B)   Pr( Ak  B)   Pr( Ak ) Pr( B Ak )
k 1 k 1

Dimostrazione. Il verificarsi dell’evento B è condizionato al verificarsi


dell’uno o l’altro degli n eventi condizionanti { Ak } (Fig. 1.3).
In simboli avremo quindi che
15

n
B  ( A1  B)  ( A2  B)  ...  ( An  B)   ( Ak  B)
k 1

Essendo gli eventi a due a due incompatibili, cioè tali che


( Ai  B)  ( Aj  B)   i  j , in virtù della Proprietà 3 possiamo affermare
che

 n  n
Pr( B)  Pr  ( Ak  B)    Pr(Ak  B)
 k 1  k 1

e ricordando la Proprietà 6 sugli eventi condizionati potremo in ultimo


scrivere che

n n
Pr( B)   Pr(Ak  B)   Pr( Ak ) Pr( B Ak )
k 1 k 1

Il risultato precedente, noto come teorema delle probabilità assolute, riveste


un ruolo fondamentale nella definizione della successiva proprietà.

Proprietà 8. Teorema di Bayes o sulla probabilità delle cause. Formulato da


Thomas Bayes (1702-1761) — anche se pubblicato postumo due anni dopo
la sua morte in Essays towards solving a problem in the doctrine of chances — e
da Laplace ‒ che forse non era al corrente del lavoro di Bayes ‒ nel 1774, è
alla base di innumerevoli applicazioni pratiche e di un particolare approc-
cio statistico, detto appunto bayesiano.

Sia data una partizione di in n sottoinsiemi { Ak ; k  1,...,n } esaustivi e


mutuamente esclusivi. Sia inoltre B un qualsiasi evento la cui manifestazione
è condizionata al verificarsi dell’uno o l’altro degli eventi condizionanti
{ Ak }. Allora, verificatosi l’evento B, la probabilità che Ak sia la causa che
ha determinato il manifestarsi di B è data dalla seguente relazione:

Pr( Ak ) Pr( B Ak )
Pr( Ak B)  n
 Pr( Ak ) Pr( B Ak )
k 1
16

Dimostrazione. Dalla Proprietà 6 e, in particolare, dalla definizione di


probabilità condizionata, sappiamo che

Pr( Ak  B)
Pr( Ak B) 
Pr( B)

Inoltre, applicando al numeratore del precedente rapporto il principio


della probabilità composta, possiamo scrivere che

Pr( Ak  B)  Pr( Ak ) Pr( B Ak )

Infine, applicando la Proprietà 7 al denominatore del rapporto, avremo


che

n n
Pr( B)   Pr( Ak  B)   Pr( Ak ) Pr( B Ak )
k 1 k 1

Combinando i tre risultati, potremo pertanto scrivere che

Pr( Ak ) Pr( B Ak )
Pr( Ak B)  n
 Pr( Ak )  
 Pr( Ak ) Pr( B Ak )
k 1

dove

Pr( B Ak )
 n
 Pr( Ak ) Pr( B Ak )
k 1

L’interpretazione del teorema è particolarmente densa di implicazioni.


Consideriamo un esperimento articolato in una singola prova, durante la
quale può avvenire uno e uno solo tra n eventi { Ak ; k  1,2,...,n } e che, veri-
ficatosi il generico evento Ak con probabilità Pr( Ak ) , si manifesti un certo
evento ( B Ak ) con probabilità Pr( B Ak ) . Il teorema di Bayes consente di
risalire alla probabilità Pr( Ak B) che, essendosi manifestato B, tale evento
sia stato determinato dall’evento Ak , motivo per cui è indicato come teore-
ma sulla probabilità delle cause.
17

Da notare che la quantità Pr( Ak ) è una probabilità a priori assegnata


dall’osservatore, mentre la quantità Pr( Ak B) è una probabilità a posteriori,
in quanto valutata dopo il manifestarsi di B.
La distinzione tra probabilità a priori e probabilità a posteriori è essen-
ziale per la corretta comprensione del teorema. Nelle parole di Henri Poin-
caré5 infatti, “... questi problemi sono classificati come probabilità delle cause e so-
no i più importanti di tutti per le loro applicazioni scientifiche [...] Un effetto po-
trebbe essere prodotto dalla causa a o dalla causa b. L'effetto è appena stato osserva-
to. Ci domandiamo la probabilità che sia dovuto alla causa a. Questa è una probabi-
lità di causa a posteriori. Ma non la potrei calcolare, se una convenzione più o me-
no giustificata non mi dicesse in anticipo qual'è la probabilità a priori che la causa
a entri in gioco”.
Un semplice esempio, tratto da D’Agostini (2001), può rendere più chia-
ro come applicare il teorema. Ipotizziamo che 10 anni fa il mercato auto-
mobilistico si ripartisse tra le marche A1, A2 e A3, le cui quote di mercato
ammontavano rispettivamente al 70, al 25 e al 5 per cento del totale. Sap-
piamo anche che dopo 10 anni sono ancora funzionanti il 6 per cento delle
auto di marca A1, il 22 per cento di quelle di marca A2 e il 75 per cento di
quelle di marca A3. Un nostro amico possiede un'automobile funzionante
acquistata 10 anni fa. Qual'è la probabilità che sia della marca A1?
Un modo di risolvere il problema è considerare il numero N di auto
prodotte 10 anni fa e quello NF 10 di quelle circolanti dopo dieci anni, orga-
nizzando le informazioni in nostro possesso nella seguente tabella:

Tabella 1 — Esempio di applicazione del teorema di Bayes

Marca Quota di mercato Pr(F 10) N0 NF 10

A1 0,70 0,06 0,70  N 0,06  0,70  N


A2 0,25 0,22 0,25  N 0,22  0,25  N
A3 0,05 0,75 0,05  N 0,75  0,05  N

Dall’esame della tabella precedente è immediato calcolare che, ipotiz-


zando pari a N il numero di autoveicoli prodotti 10 anni fa, ne circoleranno
funzionanti ancora oggi il 4,2 per cento della marca A1, il 5,5 per cento della
marca A2 e il 3,75 per cento della marca A3.

5 Henri Poincaré (1854 –1912), matematico, fisico, astronomo e filosofo della scienza, è stato
candidato 12 volte al premio Nobel in fisica. È noto per una serie di risultati nettamente in
anticipo sui tempi, quali la scoperta dell’attrattore strano che è alla base della teoria del caos e
la formulazione della teoria della relatività ristretta.
18

Applichiamo il teorema di Bayes:

Pr( A1 ) Pr( F10 A1 )


Pr( A1 F 10 )  3

 Pr( Ak ) Pr( F10 Ak )
k 1
0 ,70  0 ,06
 
0 ,70  0 ,06  0 ,25  0 ,22  0 ,05  0 ,75
0 ,042
  0 ,312
0 ,042  0 ,055  0 ,0375

Quindi la probabilità che un automobile funzionante con 10 anni di vita


sia della marca A1 è pari al 31 per cento.
Naturalmente, questo è un modo estremamente semplificato di applica-
re il teorema di Bayes. Ben più interessante è l’interpretazione adottata da
una particolare scuola statistica, definita appunto bayesiana.
Visto attraverso lenti bayesiane, il teorema fornisce una rappresentazio-
ne formalizzata del processo attraverso il quale un osservatore esprime un
grado di fiducia su una congettura relativa un certo fenomeno aleatorio
d’interesse Ak e ne verifica empiricamente la validità attraverso un espe-
rimento. L’esperimento incrementa l’information set dell’osservatore, deter-
minando l’aumento o la diminuzione del grado di fiducia sulla congettura
iniziale. Naturalmente, fondandosi su una valutazione soggettiva del grado
di fiducia, l’interpretazione bayesiana non è completamente riconducibile
al principio di induzione.
Ipotizziamo che un osservatore formuli una congettura su Ak . Non
sempre il generico evento Ak risulta osservabile. Quindi la misura Pr( Ak )
è una probabilità a priori attraverso cui l’osservatore assegna soggettivamen-
te un grado di fiducia alla congettura su Ak prima di verificarne la validità.
La verifica empirica si svolge tramite un esperimento, il cui scopo è
quello di costituire un information set sull’evento Ak . Poiché Ak non è os-
servabile, la costruzione dell’information set si baserà su un evento osserva-
bile B, in qualche modo collegato ad Ak . Condotto l’esperimento,
l’osservatore assegnerà alla congettura un nuovo grado di fiducia
Pr( Ak B) , configurato come probabilità a posteriori, in quanto ottenuto com-
binando la probabilità a priori Pr( Ak ) con le evidenze derivanti dalle verifi-
che svolte.
Nella relazione definitoria del teorema, il rapporto
19

Pr( B Ak )
 n
 Pr( Ak ) Pr( B Ak )
k 1

è un fattore di scala che misura l’impatto derivante dall’osservazione


dell’evento B sulla probabilità a priori Pr( Ak ) .
Al numeratore figura la verosimiglianza — concetto che, come vedremo
in seguito, svolge un ruolo chiave nell’inferenza statistica — mentre al de-
nominatore figura la probabilità marginale, cioè la probabilità di osservare B
a seguito del manifestarsi dell’uno o dell’altro degli eventi condizionanti
{ Ak } .
È relativamente agevole dimostrare che Pr( Ak B)  1 . Infatti, sempre
con riferimento alla relazione definitoria del teorema, avremo che

Pr( Ak ) Pr( B Ak )
Pr( Ak B)  n
 Pr( Ak ) Pr( B Ak )
k 1

Nell’espressione precedente, Pr( Ak B) assume valori inferiori o uguali


all’unità se il denominatore del rapporto risulta maggiore o uguale al nu-
meratore. Ricordando che valgono le identità Pr( Ak ) Pr( B Ak )  Pr( Ak  B)
n
e Pr(B)   Pr( Ak ) Pr(B Ak ) , la condizione può essere scritta come
k 1

Pr( B)  Pr( Ak  B)

Il segno di uguaglianza vale a condizione che

Pr( B)  Pr( Ak  B)

situazione che si verifica quando Pr( B Ak )  1 , cioè quando al manife-


starsi di Ak l’evento B si verifica sempre. In qualunque altro caso la probabi-
lità a posteriori Pr( Ak B) assumerà valori strettamente inferiori all’unità.
20

1.4. OSSERVAZIONI CONCLUSIVE


21

APPENDICE 1. ELEMENTI DI TEORIA DEGLI INSIEMI


L’insieme può essere visto come una collezione di oggetti che presentano
una o più caratteristiche comuni. Nel caso dello spazio campione ,
l’elemento comune agli eventi  è quello di essere i risultati ottenibili nel
corso di un esperimento.

Relazioni su insiemi. In matematica, per relazione intendiamo un colle-


gamento tra oggetti.

La prima relazione fondamentale è quella di appartenenza. Diremo che


un evento elementare  appartiene ad un sottoinsieme A di eventi elemen-
tari (e indicheremo tale relazione come   A ) se soddisfa un criterio di
appartenenza specifico (Figura 1.4). Se per esempio A è l’insieme dei nume-
ri naturali minori di 10, il criterio di appartenenza sarà descritto come

A  { :  numero naturale minore di 10} 


 { :   N ;   10}

La definizione precedente si legge come “A insieme degli eventi elementari


 appartenenti ai numeri naturali minori di dieci”.

Figura 1.4 ‒ Relazione di appartenenza

Definita l’appartenenza è immediato derivare la relazione di non apparte-


nenza. Infatti, fissato l’insieme B dei numeri naturali maggiori o uguali a 10

B  { :   N;   10}

allora se   A    B .
22

La seconda relazione fondamentale, riferita a due sottoinsiemi, è quella


di inclusione. Dati due sottoinsiemi A e B, si ha una relazione di inclusione
se tutti gli elementi appartenenti ad uno dei due sottoinsiemi appartengono
anche all’altro. In simboli avremo che

A  B    A,  B

La definizione sarà letta come “A è incluso in B se e solo se, per ogni  ap-
partenente ad A,  appartiene a B”.

Figura 1.5 ‒ Relazione di inclusione stretta

Parleremo poi di relazione di inclusione stretta (che indicheremo come


A  B ) se ogni elemento di A è anche elemento di B, ma esistono alcuni
elementi di B che con certezza non appartengono ad A.
La relazione di inclusione è riflessiva, antisimmetrica e transitiva. Infatti

1. A A
2. A BB A A  B
3. A B BC  AC

La proprietà di antisimmetria è importante in quanto consente di definire


la relazione di uguaglianza tra due o più sottoinsiemi.

La terza relazione fondamentale è quella di disgiunzione. Dati due sot-


toinsiemi A e B, diremo che A e B sono disgiunti se non hanno alcun ele-
mento in comune, cioè se la loro intersezione è insieme vuoto.
La relazione di disgiunzione tra sottoinsiemi è simmetrica, nel senso che
se A è disgiunto da B, deve valere anche la relazione opposta, ma non è ri-
flessiva né transitiva. Infatti, se è chiaro che un insieme A non può essere
23

disgiunto da A, cioè da sé stesso, potrebbe non risultare immediato che la


relazione di disgiunzione non è transitiva. Per convincerci della validità
dell’affermazione, tuttavia, basta fare riferimento alla situazione rappresen-
tata nella Figura 1.6.

Figura 1.6 ‒ Relazione di disgiunzione.


Caso di 3 sottoinsiemi

Dall’osservazione del diagramma, appare evidente che A è disgiunto da


B, B è disgiunto da C, ma C non è disgiunto da A. Quindi in generale la rela-
zione di disgiunzione non è transitiva.
Estendiamo la relazione di disgiunzione a famiglie di sottoinsiemi. Una
famiglia di sottoinsiemi { Ak ; k  1,2,...,n } si dirà costituita da insiemi mutua-
mente disgiunti, o mutuamente esclusivi, se per ogni coppia di indici distinti i
e j, con i  j , i corrispondenti sottoinsiemi risultano disgiunti. Nel caso in
cui, infine, lo spazio degli eventi  possa essere suddiviso in un certo nu-
mero di sottoinsiemi mutuamente esclusivi appartenenti ad una famiglia F,
si dirà che F è una partizione di .

Operazioni su insiemi. In matematica, si definisce operazione una legge


di composizione da uno o più insiemi agli elementi compresi in essi. Si trat-
ta di una definizione alquanto astratta, su cui non è opportuno soffermarci,
e la riportiamo soltanto per uniformità di trattazione. Nel seguito, quindi, ci
affidiamo ad un concetto primitivo di operazione, come confronto tra due o
più sottoinsiemi.

Definiamo innanzitutto l’operazione di unione tra sottoinsiemi. Con rife-


rimento a due sottoinsiemi A, B   , l’unione è l’insieme composto dagli
eventi elementari compresi in A o in B o in entrambi. In simboli avremo che
24

A, B   A  B  { :   A    B}
La definizione precedente si legge come “dati due sottoinsiemi di eventi
elementari A,B appartenenti allo spazio di eventi , l’evento unione è l’insieme di
eventi elementari che appartengono a A o a B”. Graficamente si avrà che

Figura 1.7 ‒ Operazione di unione

Notare che nel diagramma precedente i due sottoinsiemi presentano


eventi elementari in comune. Se questa situazione non si verifica, parlere-
mo di unione di eventi disgiunti.

La seconda operazione è quella di intersezione tra sottoinsiemi. Con rife-


rimento a due sottoinsiemi A, B   , l’intersezione è l’insieme composto da-
gli eventi elementari compresi in A e in B. In simboli avremo che

A, B   A  B  { :   A    B}

La definizione si legge come “dati due sottoinsiemi di eventi elementari A,B


appartenenti allo spazio di eventi , l’evento intersezione è l’insieme di eventi
elementari che appartengono a A e a B”. Graficamente si avrà che

Figura 1.8 ‒ Operazione di intersezione


25

La terza operazione che analizziamo è quella di complemento assoluto, o


negazione. Con riferimento ad un sottoinsieme A   , definiamo il comple-
mento assoluto o negazione di A l’insieme degli eventi elementari compresi in
 e non appartenenti al sottoinsieme A. In simboli avremo che

A   :   A

L’evento A quindi si verifica se e solo se non si verifica A. Da un pun-


to di vista grafico, rappresentiamo il complemento assoluto nel modo seguen-
te:

Figura 1.9 ‒ Operazione di negazione

Elenchiamo di seguito alcune implicazioni dell’operazione di comple-


mento assoluto:

1. (A)  A
2. A  A  
3. A  A  
4.   
5.   

L’estensione dell’operazione di complemento assoluto è indicata come


complemento relativo o differenza. Con riferimento a due sottoinsiemi
A, B   caratterizzati dall’avere uno o più eventi elementari in comune,
tali cioè che A  B   , il complemento relativo o evento differenza A  B è
l’insieme composto dagli eventi elementari compresi in A e non compresi
in B. In simboli avremo che

A, B   A  B  { :   A    B}
26

Notare che, diversamente dalle operazioni di unione e intersezione, in


generale l’operazione di complemento relativo non è simmetrica, per cui po-
tremo definire, dati i due sottoinsiemi A e B, un secondo evento differenza
B  A , definito come l’insieme composto dagli eventi elementari compresi
in B e non compresi in A. In simboli avremo che

A, B   B  A  { :   B    A}

Da un punto di vista grafico possiamo rappresentare gli eventi differen-


za nel modo seguente:

Figura 1.10 ‒ Operazione di differenza

Naturalmente A  B  B  A  A B .

Proprietà delle operazioni su insiemi. Le operazioni su insiemi godono


di alcune o di tutte le proprietà elencate successivamente.

Proprietà commutativa
AB  B A
AB  B A

Proprietà associativa
A  ( B  C )  ( A  B)  C
A  ( B  C )  ( A  B)  C

Proprietà distributiva
A  ( B  C )  ( A  B)  ( A  C )
A  ( B  C )  ( A  B)  ( A  C )
27

Leggi di De Morgan
( A  B)  (A)  (B)
( A  B)  (A)  (B)

Estensione a più eventi. Data una famiglia composta da un numero fi-


nito di eventi { Ak ; k  1,2,...,n }, la loro unione è l’insieme composto dagli
eventi elementari  appartenenti a A1 o A2 o … o An, mentre la loro interse-
zione sarà data dall’insieme composto dagli eventi elementari  apparte-
nenti a A1 e A2 e … e An.
In simboli, per l’operazione di unione di n eventi, avremo che

n
 Ak  { :   A1    A2      An }
k 1

mentre per l’operazione di intersezione potremo scrivere che

n
 Ak  { :   A1    A2      An }
k 1

Quanto alle leggi di De Morgan, la loro estensione a n eventi assume la


seguente formulazione:

n n
  A k   A k
k 1 k 1
n n
  A k   A k
k 1 k 1

Estensione a successioni di eventi. Data la successione di eventi


A1 , A2 ,  Ak ; k  1, 2, scriveremo che:

 Ak  { :   Ak } per almeno un k  1,2 ,
k 1

 Ak  { :   Ak } per ogni k  1,2 ,
k 1

Quanto alle leggi di De Morgan, saranno modificate come segue:

 
  A k   A k
k 1 k 1
 
  A k   A k
k 1 k 1
28

Classi completamente additive (—algebre). In matematica, una σ-


algebra o tribù su un insieme di eventi Ω, è una famiglia di sottoinsiemi di Ω
che gode di alcune proprietà di stabilità rispetto a operazioni quali l’unione
numerabile e il passaggio al complementare.
Il concetto di σ-algebra è alla base della teoria della misura, della teoria del-
la probabilità incentrata sull’impostazione assiomatica e di tutte le nozioni di
misurabilità, sia di insiemi, sia di funzioni. Infatti la σ-algebra è un caso par-
ticolare di algebra di insiemi, ed è utilizzata ampiamente in analisi matemati-
ca, per gli svariati vantaggi che le misure definite su σ-algebre hanno rispet-
to alle operazioni di passaggio al limite.

Consideriamo uno spazio di eventi  e un suo sottoinsieme A. Consi-


deriamo poi una classe C tale che

1. Contenga     C
2. Se A C  A C . In altri termini, la classe C deve contenere sia
l’evento A, sia la sua negazione A .
3. Data una sequenza finita o infinita A1 , A2 ,  Ak ; k  1, 2, di
eventi appartenenti a C, anche la loro unione appartiene a C. In sim-
boli avremo che
 
{ Ak : Ak  C}    Ak   C
k  1 

Se valgono le proprietà 1—3, allora C è detta σ-algebra o classe comple-


tamente additiva e si indica come C  { Ai : Ai  } .
Il concetto di σ-algebra è stato introdotto perché condensa e riassume
l’insieme di tutte le operazioni di confronto fra eventi elementari o sottoin-
siemi di eventi elementari, con particolare riferimento alle operazioni di
unione, intersezione, differenza. A partire da uno stesso spazio campione
, possono essere costituite più classi di eventi C, ognuna delle quali deve
contenere  (proprietà 1) e il non evento    (proprietà 2). Quindi la
più piccola classe completamente additiva è formata solo da  e  :
C  { ; } .
Nel caso di insiemi continui definiti su  , è impossibile effettuare con-
fronti, per cui preliminarmente vanno fissati intervalli del tipo

  (  , X ]
  [X0 , X1 ]

a partire dai quali è di nuovo possibile costruire la σ-algebra.


29

ESERCIZI CAPITOLO 1
Esercizio 1.1. Quanti numeri interi di 3 cifre fra loro diversi possono essere
ottenuti con le cifre {1, 2, 3}?

Soluzione. I numeri interi di 3 cifre sono pari al numero di permutazioni sem-


plici di 3 oggetti tra loro diversi, e cioè 3! = 6.

Esercizio 1.2. Quanti numeri interi di 3 cifre fra loro diversi possono ottener-
si con le cifre {1, 2, 3, 4}?

Soluzione. Il numero cercato è pari al numero di disposizioni semplici di 4 og-


getti di classe 3, cioè

4!
 24 .
4  3  !

Esercizio 1.3. Quante sequenze di tre oggetti fra loro diversi possono otte-
nersi a partire dal seguente insieme: {A, B, C, D, E}?

Esercizio 1.4. Ipotizziamo di effettuare un esperimento consistente


nell’estrazione di tre palline da un’urna contenente 4 palline bianche e due
nere. Quante sequenze di classe 3 fra loro diverse possono ottenersi come
risultato dell’esperimento?

Esercizio 1.5. Quanti sottoinsiemi di 3 elementi possono ottenersi a partire


dallo spazio degli eventi:

  A, B, C, D

Esercizio 1.6. Si supponga di voler permutare nell’ordine (con ripetizione)


10 monete, di cui 5 euro, 3 sterline e 2 dollari. Quante permutazioni posso-
no essere ottenute?

Soluzione. Definiamo “permutazione con ripetizione” di n oggetti, di cui k1 di


tipo 1, k2 di tipo 2,…, ks di tipo s [con is1 ki  n ] una loro successione ordi-
nata di classe n. Il numero di permutazioni con ripetizione è dato dalla seguen-
te relazione:

n!  n 
r P k 1 ...k s     
k1! k2 !...ks !  k1 k2 ... ks 
30

 n 
dove   è il coefficiente multinomiale.
 k1 ... ks 

Applicando la precedente relazione si ottiene che

10 !
r P5 ,3 ,2    2.520
5!3!2!

Esercizio 1.7. Nel gioco del poker, in quanti modi possibili si può presentare
una doppia coppia?

Esercizio 1.8. E un full?

Esercizio 1.9. Quanti numeri di 3 cifre possono ottenersi disponendo con ri-
petizione i numeri {1,2,3,4}?

Soluzione. Ricordando che, nel caso di disposizioni con ripetizione, sono am-
missibili anche sequenze del tipo {1,1,1}, {2,2,1} ecc., il numero complessivo di
ripetizioni sarà dato dalla relazione:

r Dn , k  nk

e quindi, nel problema in esame, avremo r D4 ,3  43  64 .

Esercizio 1.10. Quanti campioni di ampiezza 4 possono ottenersi estraendo


con ripetizione da una popolazione di ampiezza 10?

Esercizio 1.11. Si consideri l’esperimento consistente nel lancio di 4 monete.


Quanti sono i possibili risultati, considerando i due esiti possibili (testa o
croce) di ciascun lancio?

Soluzione. Il numero richiesto è quello delle combinazioni con ripetizione di


due elementi di classe 4, cioè:

 n  k  1
r Cn , k   
 k 
31

Quindi, nel problema analizzato, il numero di combinazioni con ripetizione sa-


 2  4  1  5  5!
rà pari a r C 2 ,4         5 . Infatti, lo spazio degli
 4   4  4 ! 5  4  !
eventi di classe 4 sarà dato da:

  {TTTT,TTTC,TTCC,TCCC, CCCC}

Esercizio 1.12. Dato lo spazio degli eventi   1,2,3 costruire la  -algebra


completa dei sottoinsiemi di eventi appartenenti a  .

Soluzione. Si avrà che


1  2  3

C
1,2 1,3  2,3
1,2,3

Esercizio 1.13. Dato lo spazio degli eventi   {1,2,3} 1) costruire la  -


algebra completa; 2) verificare che se A  C  A  C ; 3) verificare che se
k k
  Ai  C   Ai  C .
i 1 i 1

Soluzioni.
1) Vedi Esercizio 4.12.
2) Scelto arbitrariamente un sottoinsieme di ampiezza 1 o 2 di C, è agevole ve-
rificare che:

se A   1,2 C  A   3 C


se A   3 C  A   1,2 C

3) Scelti arbitrariamente due sottoinsiemi di ampiezza unitaria

A1   1 e A2   3

a) A1  A2    1,3  ( A1  A2 )   2 C


32

A1    2,3 e A2    1,2


2
b)  Ai   A1   A2    2,3    1,2   2 C
i 1
c.v.d

Esercizio 1.14. Dato lo spazio degli eventi   {bianco, nero , rosso} 1) costruire
la  -algebra completa C; 2) verificare che se A  C  A  C ; 3) verificare
k k
che se   Ai  C   Ai  C .
i 1 i 1

Esercizio 1.15. Sia data un’urna probabilistica contenente 8 palline bianche e


2 nere. Si richiede di: 1) costruire lo spazio degli eventi  ; 2) costruire la
più piccola  -algebra a partire da  e 3) costruire la  -algebra completa.

Esercizio 1.16. Si consideri l’esperimento consistente nel lancio di due dadi.


Dopo aver elencato tutti i possibili risultati dell’esperimento, si determini:
1) la probabilità di ottenere un punteggio totale pari a 7; 2) la probabilità di
ottenere il punteggio 3 al primo lancio; 3) la probabilità di ottenere 3 al
primo lancio o 7 come somma dei punteggi dei due lanci; 4) la probabilità
di ottenere 3 al primo lancio e 7 come somma dei punteggi dei due lanci.

Esercizio 1.17. Sia data un’urna probabilistica contenente 8 palline bianche e


due nere e si ipotizzi di effettuare un esperimento consistente
nell’estrazione in blocco di due palline dall’urna. Si richiede di: 1) costruire
la  -algebra completa su  ; 2) calcolare le probabilità dei singoli eventi
elementari BB , BN , NB , NN ; 3) calcolare la probabilità del sottoin-
sieme

A1  { : bianco alla prima estrazione}

e 4) calcolare la probabilità di ottenere una pallina bianca alla prima estra-


zione o due palline nere come esito delle due estrazioni.

Esercizio 1.18. Qual è la probabilità di estrarre a caso da un mazzo di carte


da poker: 1) una carta di cuori o una figura; 2) una carta rossa [cuori o qua-
dri] o una carta con punteggio multiplo di 3 [intendendo per J, Q e K = 11,
12 e 13]; 3) una carta pari o una carta di picche.
33

Esercizio 1.19. Un consumatore può acquistare un prodotto della marca X


con probabilità pari a 0,1 e un prodotto della marca Y con probabilità 0,3.
Sapendo che un consumatore ha acquistato uno dei due prodotti, calcolare
la probabilità che si tratti di un prodotto della marca Y.

Esercizio 1.20 In un college, il 25 per cento dei maschi studia matematica,


mentre solo il 10 per cento delle femmine fa altrettanto. Le femmine sono il
60 per cento della popolazione complessiva del collegio. Viene scelto uno
studente a caso. Sapendo che studia matematica, valutare la probabilità che
sia femmina e commentare il risultato ottenuto.

Esercizio 1.21. Si consideri l’esperimento consistente nel lancio di tre dadi. Si


calcoli la probabilità che 1) la somma dei punteggi sia pari a 10; 2) 2 dei 3
dadi presentino lo stesso punteggio; 3) un solo dado presenti il punteggio
6.

Esercizio 1.22. Si consideri l’esperimento consistente nel lancio di n dadi.


Qual è la probabilità di ottenere un dato punteggio – ad esempio il 4 – k
volte nel corso dell’esperimento?

Esercizio 1.23. A quanto ammonta la probabilità di vincere al lotto 1) un


ambo giocando due numeri; 2) un terno giocando tre numeri; 3) una qua-
terna giocando quattro numeri; 4) una cinquina giocando cinque numeri.

Potrebbero piacerti anche