Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
22 ottobre 2002
ii
Indice
1 Fondamenti 1
1.1 Esperimento aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Spazio dei campioni. Eventi . . . . . . . . . . . . . . . . . . 2
1.1.2 Operazioni tra eventi . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Algebre e -algebre . . . . . . . . . . . . . . . . . . . . . . 9
1.1.4 Gli assiomi della probabilità . . . . . . . . . . . . . . . . . . 11
1.2 Esempi di spazi di probabilità . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1 Lancio di una coppia di dadi . . . . . . . . . . . . . . . . . . 15
1.2.2 Sorgente binaria senza memoria . . . . . . . . . . . . . . . . 16
1.2.3 Spazio dei campioni discreto . .
. . . . . . . . . . . . . . . . 18
1.2.4 Coppia di arrivi in . . . . . . . . . . . . . . . . . . . . 19
1.3 Definizioni alternative di probabilità . . . . . . . . . . . . . . . . . . 21
1.3.1 Definizione classica . . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Frequenza relativa . . . . . . . . . . . . . . . . . . . . . . . 21
1.4 Tecniche di conteggio . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5 Eventi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.6 Probabilità condizionata . . . . . . . . . . . . . . . . . . . . . . . . 34
1.7 Leggi Fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.8 Probabilità, incertezza ed informazione. . . . . . . . . . . . . . . . . 43
1.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
iii
2.11 V.a. doppie: CDF, pmf e pdf condizionate. . . . . . . . . . . . . . . . 38
2.11.1 Coppie di v.a. discrete: pmf condizionate. . . . . . . . . . . . 39
2.11.2 Coppie di v.a.continue: pdf condizionate. . . . . . . . . . . . 40
2.12 Caratterizzazione probabilistica di ve.a.. . . . . . . . . . . . . . . . . 42
2.12.1 Distribuzioni e densità condizionate . . . . . . . . . . . . . . 43
2.13 Variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . 44
2.14 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
iv
Capitolo 1
Fondamenti
Nello studio dei fenomeni fisici è di fondamentale importanza avere a disposizione
un modello matematico che renda possibile la descrizione o la predizione di alcune
caratteristiche di interesse. La relazione fornisce ad esempio il modello matem-
atico per descrivere la velocità di un corpo in caduta libera nel vuoto. Questo è un
esempio di modello deterministico in quanto ripetendo più volte lo stesso esperimento
si osserveranno, essenzialmente, gli stessi valori di velocità in determinati punti dello
spazio. In condizioni non ideali tuttavia, questa legge può fornire risultati completa-
mente inadeguati: si pensi, ad esempio, al moto di una particella di polvere soggetta,
oltre all’accelerazione di gravità, anche all’azione di disturbi ambientali difficilmente
predicibili, quali gradienti di temperatura, pressione e umidità.
Lo scopo della teoria della probabilità è quello di fornire modelli matematici per
trattare situazioni non predicibili in maniera deterministica. I primi studi sulla teoria
della probabilità risalgono al 1650 quando il Cavalier de Méré chiese agli amici Pascal
e Fermat di sviluppare un modello matematico per descrivere alcune “ricorrenze del
gioco d’azzardo”. Più avanti, verso gli inizi del 1900, basandosi sulle idee di Emile
Borel circa la teoria della misura, André Kolmogorov elaborò un insieme di assiomi
tramite i quali la teoria della probabilità poteva essere formalizzata mediante la teoria
della misura.
Lo scopo del seguente capitolo è di fornire i concetti fondamentali della teoria della
probabilità insieme con le linee di guida per una sua corretta applicazione.
1
1.1.1 Spazio dei campioni. Eventi
Ogni volta che si effettua un esperimento si osserva la risposta dell’ambiente ad una
data sollecitazione e se ne ricava un risultato sperimentale. La singola esecuzione di
un esperimento si chiama prova e ad ogni prova corrisponde un risultato, diciamolo .
Per un dato esperimento l’insieme di tutti i possibili risultati si chiama spazio dei
campioni o spazio delle prove e può essere finito, infinito numerabile (cioè indicizza-
bile mediante l’insieme degli interi positivi), o infinito non numerabile. Se lo spazio
dei campioni è finito o numerabile lo diremo anche discreto.
ed il corrispondente spazio dei campioni è:
Se, infine, si osserva l’emissione della sorgente fino a quando non si ottiene un
1, il risultato è del tipo
ed è infinito numerabile.
2
#
#
$
%
&
Esempio: coppie di arrivi in . Si consideri l’arrivo di un viaggiatore e di un
treno in una certa stazione nell’intervallo . Il generico risultato è la coppia
degli istanti di arrivo del viaggiatore e del treno ed il corrispondente spazio dei
campioni è
3
Pertanto, in questo caso, lo spazio delle prove è il quadrato di figura 1.1.1 ed è
infinito non numerabile, precisamente è continuo.
Figura 1.1: Lo spazio delle prove relativo ad una coppia di arrivi.
possibili risultati dell’esperimento: tale proposizione definisce un sottoinsieme di risul-
tati, cioè un sottoinsieme dello spazio dei campioni . L’evento si verifica in una
generica prova dell’esperimento se il particolare risultato di tale prova appartiene ad
, cioè se .
“il numero di uno è minore di due”
#
“il numero di uno è uguale a due”
Se si effettua una prova il cui risultato è
gli eventi
#
ed si
verificano mentre non si verifica.
4
Esempio: coppie di arrivi in (continuazione).
Analogamente sono eventi (fig. 1.1.1):
“il viaggiatore ed il treno arrivano contemporaneamente”
“il viaggiatore arriva prima del treno”
#
e ”
“il viaggiatore arriva tra
#
Si noti che lo spazio dei campioni è esso stesso un evento cosı̀ come si include tra
gli eventi anche l’insieme vuoto . L’evento si verifica in ogni prova, per cui viene
5
mai. Infine gli eventi del tipo
detto evento certo, mentre l’evento è l’evento impossibile in quanto non si verifica
, costituiti cioè da un unico risultato, sono detti eventi
elementari.
W W
Figura 1.3: Diagrammi di Venn relativi alla disgiunzione e alla congiunzione di eventi
disgiunzione di due eventi e , cioè l’evento o , è l’evento che si verifica quando
si verifica almeno uno tra i due eventi, eventualmente entrambi: essa coincide quindi
con l’unione dei sottoinsiemi e , cioè col sottoinsieme costituito dai risultati che
con
, oppure
appartengono ad oppure a , eventualmente ad entrambi, e sarà pertanto denotata
, (vedi figura 1.3).
Analogamente la congiunzione di due eventi e è l’evento che si verifica quando
si verificano sia che ; coincide quindi con l’intersezione dei sottoinsiemi e ,
cioè col sottoinsieme costituito dai risultati che appartengono sia ad che a e la si
denota pertanto con
, oppure
, (vedi figura 1.3).
Due eventi e la cui intersezione è non vuota
si dicono compat-
Viceversa, due eventi e
ibili in quanto, in una prova dell’esperimento in esame, possono verificarsi entrambi.
che non possono mai verificarsi contemporaneamente,
cioè per i quali
, si dicono mutuamente esclusivi o incompatibili (figura
1.4).
La negazione di un evento è l’evento che si verifica ogni volta che non si verifica
; essa è pertanto il complemento del sottoinsieme , cioè il sottoinsieme costituito
da tutti i risultati che non appartengono ad (figura 1.4). Ovviamente un evento ed
il suo negato sono sempre mutuamente esclusivi.
6
W W
Figura 1.4: Diagrammi di Venn relativi alla negazione di eventi e ad eventi mutuamente
esclusivi.
Infine la differenza
tra due eventi è l’evento che si verifica ogni volta che
si verifica , ma non ; essa è pertanto il sottoinsieme costituito dai risultati che
appartengono ad e non appartengono a ; in altri termini si ha:
Per comodità del lettore nella tabella 1.3 sono riportate le più comuni proprietà di
unione, intersezione e complementazione.
esame gli eventi
“il numero di uno nel pacchetto è pari o nullo”
“il numero di uno è minore di due”
#
“il numero di uno è uguale a due”
è minore
od uguale
a due”
è l’evento
“il numero di uno nel pacchetto è nullo”
mentre la loro congiunzione
7
Idempotenza
Associatività
Commutatività
Distributività
Leggi di De Morgan
Complementazione
e
Quindi
ed
sono compatibili ed in ogni prova si verificano o meno entrambi
#
a seconda che il risultato sia o no . Analogamente la congiunzione di
ed è l’evento
#
“il numero di uno nel pacchetto è due”
#
Pertanto anche
ed sono compatibili: in particolare se il risultato della
#
prova è
(oppure o ) si verificano entrambi, mentre se il
risultato è
si verifica e no; infine se il risultato è (oppure
#
#
, o ) non si verifica nessuno dei due.
Viceversa, avendosi
, e sono mutuamente esclusivi.
La differenza è l’evento
”ilnumero
di uno nel
pacchetto è pari o nullo e non minore di due”
Infine l’evento
”ilnumero
di uno nel pacchetto è dispari”
8
è il complemento di
.
cioè la condizione:
è per definizione
In alternativa è anche utilizzata la notazione:
soddisfacente cioè la condizione:
è per definizione
o, con altra notazione:
9
un evento: ciò porta ad imporre alcuni condizioni sull’insieme degli eventi che si
sintetizzano dicendo che deve essere un’algebra.
Formalmente una famiglia non vuota di sottoinsiemi di è un’algebra di eventi
se
- A1:
- A2:
Dalle condizioni A1 ed A2 segue che sono soddisfatte anche le seguenti proprietà:
- P1:
- P2:
- P3:
- P4:
Un’algebra di eventi è pertanto chiusa rispetto alle operazioni di complemen-
tazione, unione ed intersezione eseguite su un numero finito di eventi.
Talvolta è però necessario operare dei ragionamenti al limite per cui occorre pren-
dere in esame successioni di eventi: in tal caso si richiede che comunque si operi su una
successione di eventi si abbia ancora un evento. Ciò porta ad imporre che non solo
sia un’algebra, ma una -algebra. Precisamente un’algebra di eventi è una -algebra
se:
- A2.b
In altri termini una -algebra è chiusa rispetto alle operazioni di complementazione,
unione ed intersezione eseguite su un numero finito o un’infinità numerabile di eventi;
conseguentemente anche il limite di una successione monotona di eventi è un evento.
Infine si osservi che le famiglie
ove
denota l’insieme di tutti i sottoinsiemi di (insieme delle parti di ), costi-
tuiscono, rispettivamente, la più piccola e la più grande -algebra (algebra); inoltre la
più piccola -algebra (algebra) contenente un dato evento è
10
1.1.4 Gli assiomi della probabilità
Ad ogni evento occorre associare un numero
che ne misura la probabilità; a
tal fine consideriamo la funzione:
ove è l’insieme degli eventi. Tale corrispondenza non può essere arbitraria, ma deve
soddisfare le seguenti condizioni (assiomi della probabilità):
A3a. Finita additività:
A3b: Numerabile additività:
e
Gli assiomi della probabilità sono anche noti come assiomi di Kolmogorov dal
nome del fondatore dell’approccio assiomatico. Essi affermano che la probabilità di
un qualsiasi evento è non negativa (A1), che l’evento certo ha probabilità uno (A2) ed
inoltre la probabilità di due eventi mutuamente esclusivi è la somma delle probabilità
dei singoli eventi (A3a); tale proprietà vale anche per un’infinità numerabile di eventi
a due a due mutuamente esclusivi (A3b).
Si noti che in alternativa all’assioma della numerabile additività molti autori
preferiscono considerare l’assioma di continuità:
A3b bis: Continuità della probabilità:
ove l’uguaglianza deve valere per ogni successione monotona, crescente o decrescente,
di eventi. È possibile dimostrare che l’assioma di continuità è equivalente a quello
della numerabile additività.
Dagli assiomi di Kolmogorov segue che la probabilità gode anche delle seguenti
proprietà:
11
P1:
P2:
P3:
P4: (subadditività)
P5: (monotonicità)
ove le varie relazioni valgono qualunque siano gli eventi o .
In altri termini la probabilità dell’evento impossibile è nulla; la probabilità di una
negazione è semplicemente il complemento ad uno della probabilità dell’affermazione;
la probabilità di una differenza è la differenza tra la probabilità del primo evento e
quella della congiunzione; la probabilità di una disgiunzione è, per eventi non neces-
sariamente mutuamente esclusivi, pari alla somma delle probabilità degli eventi cos-
tituenti meno quella della loro congiunzione; infine la probabilità è crescente rispetto
alla relazione d’inclusione.
W W
Analogamente, applicando l’assioma dell’additività alla relazione
12
da cui, essendo gli eventi
e
mutuamente esclusivi, per l’additività
della probabilità si ha che:
onde la P3.
Per quanto concerne la P4 innanzi tutto osserviamo che si ha (vedi figura 1.5):
con e
eventi mutuamente esclusivi. Pertanto, per l’additività della
probabilità si ha:
da cui, per la P3, segue l’asserto.
Si noti che la P4 vale anche per un numero finito o un’infinità numerabile di
eventi, si ha cioè:
(1.1)
Tale disuguaglianza prende il nome di numerabile subadditività o maggiorazione
dell’unione (Union Bound).
Con ragionamento analogo a quello seguito per la dimostrazione della P4, è pos-
sibile dimostrare anche la monotonicità della probabilità (P5). Precisamente, come
illustrato in figura 1.6, risulta:
W
13
Per comodità del lettore gli assiomi e le proprietà della probabilità sono riassunte
nella tabella 1.4.
A1 Non negatività
A2 Normalizzazione
A3b bis Continuità
per ogni successione monotona di eventi.
P1
P2 Complemento
P3 Differenza
P4a Unione
P4b Subadditività
P4c
Numerabile
subadditività
P5 Monotonicità
3.
2. è la -algebra degli eventi.
è la legge di probabilità soddisfacente gli assiomi di Kolmogorov.
La coppia
è invece denominata spazio misurabile.
14
1.2 Esempi di spazi di probabilità
In questo paragrafo riprendiamo in esame alcuni degli esempi già considerati allo scopo
di completarli mostrando come definire la legge di probabilità.
illustrato in tabella 1.2. Come famiglia di eventi consideriamo l’insieme delle parti di
, cioè:
In questo caso lo spazio dei campioni, e quindi anche l’insieme degli eventi, è fini-
to. Conseguentemente è sufficiente assegnare le probabilità agli eventi elementari, per
definire la probabilità di un qualunque altro evento. Infatti ogni evento può sempre
essere riguardato come l’unione degli eventi elementari che lo costituiscono secondo
la relazione
(1.2)
e, quindi, essendo gli eventi elementari mutuamente esclusivi e dovendo essere la
probabilità additiva, si ha:
(1.3) "
Si noti esplicitamente che la relazione (1.2) vale sempre, cioè sia se il numero di
eventi elementari costituenti l’evento è discreto, sia se tale numero è più che numer-
abile. Viceversa la relazione (1.3) vale se il numero di eventi elementari costituenti
è finito in virtù della finita additività (A3), o se è numerabile, in virtù della numerabile
additività (A3b).
Nel caso in esame non vi è alcuna ragione per cui alcuni risultati dovrebbero veri-
ficarsi preferenzialmente rispetto agli altri, a meno che i dadi non siano truccati; con-
seguentemente gli eventi elementari sono assunti equiprobabili (principio di ragion
! ! "
insufficiente), cioè si pone:
! !
Conseguentemente in virtù della (1.3) la probabilità di un qualsiasi evento vale:
(1.4)
15
ove denota la cardinalità di un insieme.
La funzione cosı̀ definita, come è immediato verificare, è una probabilità nel senso
che soddisfa gli assiomi. Infatti essa è non negativa (A1); inoltre si ha (A2):
Infine, avendosi
Definita la legge di probabilità calcoliamo la probabilità dei seguenti eventi:
“facce uguali”
“la“la somma
somma è compresa fra 7 e 10, estremi inclusi”
è 2, 7 o 8”
! ! !
!
!"# !"# !$ !$ !"% !"% !"& !"&
Tali eventi sono i seguenti sottoinsiemi di :
!
!"& !"# !"% !$ !$ !"% !"# !"& !
!"# !"&
!$ !"% !"% !$ !"& !"# !$ !"& !"% !"% !"& !$
le cui cardinalità sono
Conseguentemente le loro probabiltà valgono:
16
Anche in questo caso l’insieme dei possibili risultati e quello degli eventi sono finiti.
Conseguentemente, sulla scorta di quanto detto nel paragrafo precedente, per assegnare
" , con
una legge di probabilità è sufficiente definire la probabilià dell’evento
, necessariamente deve aversi
. Posto infatti
, ove . "
Conseguentemente resta definita la probabilità di tutti gli eventi elementari e quindi,
per la (1.2) e la (1.3), la probabilità di un qualsiasi altro evento.
#
Ricordiamo che in tal caso lo spazio dei campioni è:
ed è illustrato nella tabella 1.1. Come algebra degli eventi consideriamo di nuovo
l’insieme delle parti, cioè:
Pertanto, ancora una volta, è sufficiente assegnare la probabilità degli eventi elementari
per definire anche la probabilità di un qualsiasi altro evento
. A tal fine asseg-
namo un numero non negativo agli eventi elementari come illustrato nella tabella 1.5,
cioè con la legge:
#
(0, 0, 0 )
#
(0, 0, 1 )
(0, 1, 0 )
# (0, 1, 1)
$ (1, 0, 0 )
% (1, 0, 1 )
& (1, 1, 0 )
(1, 1, 1) #
#
Tabella 1.5: Probabilità dei pacchetti di lunghezza 3.
(1.5)
, ,
ove
analogamente
denota il numero
denota il numero di 1 presenti nella stringa ed
"
sottoinsieme di con la relazione:
(1.6)
17
La funzione cosı̀ definita è una probabilità nel senso che soddisfa gli assiomi. In-
vero è immediato verificare la non negatività (A1) e la additività (A3); per quanto
riguarda l’assioma di normalizzazione (A2), con l’ausilio della tabella 1.5 è immediato
verificare che si ha:
" #
# #
onde l’asserto.
Nel caso di pacchetti di lunghezza arbitraria si può procedere in modo analogo,
cioè definendo la probabilità degli eventi elementari con la posizione
"
sia discreto. Precisamente è sufficiente definire le probabilità degli eventi elementari
con i vincoli
"
" (1.7)
(1.8)
è immediato verificare che vale anche la finita additività se gli eventi e sono dis-
giunti. Infine, in modo analogo, è possibile dimostrare anche la numerabile additività
se è infinito numerabile.
18
1.2.4 Coppia di arrivi in
Si riprenda in esame l’esperimento dell’esempio 3, relativo all’arrivo a caso di un vi-
aggiatore e di un treno in una certa stazione nell’intervallo , il cui spazio delle
prove è il quadrato:
di figura 1.1.1. Tale spazio è infinito non numerabile, precisamente è continuo.
Nel caso di spazi continui, come famiglia di eventi, si considera la più piccola -
algebra contenente gli intervalli (sotto-rettangoli del quadrato nel caso in esame): essa
è costituita dai sottoinsiemi misurabili, per i quali cioè è definita l’area, del quadrato
.
Dai dati del problema, cioè arrivi a caso, è ragionevole ipotizzare che la proba-
bilità di avere arrivi in un certo intervallo non dipenda dagli estremi dell’intervallo,
ma solo dalla sua durata, e quindi, più in generale, che la probabilità di un evento sia
proporzionale alla sua area. In altri termini, nel caso in esame, una possibile legge di
probabilità è:
denota l’area di
(1.9)
ove , ed è illustrata in fig. 1.2.4, .
19
ha:
“viaggiatore e treno arrivano contemporaneamente”"
Si noti che l’evento
“viaggiatore e treno arrivano contemporaneamente”
ha probabilità nulla pur non essendo l’evento impossibile, analogamente l’evento
$
complementare
“viaggiatore e treno non arrivano contemporaneamente”
ha probabilità uno pur non essendo l’evento certo. Nel primo caso si dice che
è l’evento impossibile con probabilità uno (c.p.u.) o quasi con certezza (q.c.) e,
sinteticamente si scrive
$
c.p.u.
analogamente, nel secondo si dice che è l’evento certo con probabilità uno e,
sinteticamente, si scrive
$
c.p.u.
Conseguentemente, considerati due eventi eguali c.p.u., con riferimento ad una gener-
ica prova, la probabilità che uno dei due eventi si possa verificare e l’altro no è nulla,
mentre la probabilità che si verifichino entrambi gli eventi o che non si verifichi nessuno
dei due è uno.
Si osservi infine che la corrispondenza definita dalla (1.9) è una possibile legge
di probabilità ogni volta che lo spazio delle prove è un sottoinsieme di di misura
finita. Qualora si utilizzi la probabilità definita dalla (1.9), si dice che la probabilità è
stata assegnata a caso; tale assegnazione è l’equivalente, per spazi delle prove continui,
dell’equiprobabilità degli eventi elementari considerata nel caso discreto.
20
1.3 Definizioni alternative di probabilità
Storicamente, l’approccio assiomatico non è l’unico utilizzato per definire la prob-
abilità: nel presente paragrafo si considerano brevemente il cosiddetto approccio
classico e quello frequentistico.
di una coppia di dadi. Tale relazione la si interpreta dicendo che la probabilità di un
evento è il rapporto tra il numero di casi favorevoli al verificarsi dell’evento (numero
degli eventi elementari costituenti ) ed il numero dei casi possibili (numero degli
eventi elementari costituenti ).
La legge di probabilità definita dalla (1.4) è la cosiddetta definizione classica di
probabilità. Essa però è applicabile solo ad esperimenti il cui spazio dei campioni
sia finito e implicitamente ipotizza che gli eventi elementari siano equiprobabili. Tale
definizione è pertanto circolare nel senso che nel dare la definizione utilizza il concetto
che si vuole definire.
Tuttavia, con riferimento a spazi delle prove finiti, l’equiprobabilità degli eventi el-
ementari è comunemente assunta quando dai dati del problema non risulti alcuna infor-
mazione che porti a considerare un evento elementare più o meno probabile di un altro.
In altri termini la perfetta simmetria tra gli eventi elementari giustifica l’assunzione
della loro equiprobabilità: Principio di simmetria o Principio di ragion insufficiente.
frequenza relativa di un evento. A tal fine si definisce frequenza relativa di un evento
in prove come il rapporto:
che si verifica l’evento ed il numero complessivo
delle prove. La probabilità di è poi definita come il limite della frequenza relativa
in prove, indipendenti ed effettuate tutte in identiche condizioni, al divergere di
(Legge empirica del caso): in altri termini, si pone:
(1.10)
Tale definizione però postula l’esistenza del limite ed è circolare in quanto il con-
cetto di indipendenza è esso stesso un concetto probabilistico (vedi sezioni successive)
cosı̀ come l’effettuare le prove in identiche condizioni.
21
Nell’ambito dell’approccio assiomatico, come si vedrà in un prossimo capitolo,
è possibile però dimostrare che la frequenza relativa, in opportune ipotesi che tra-
ducono in termini precisi l’affermazione “prove indipendenti ed effettuate in identiche
condizioni”, converge alla probabilità (Legge dei grandi numeri).
Si osservi però che la (1.10) ha notevole valore operativo in quanto, in ipotesi di
norma soddisfatte in pratica, risulta:
0.9
0.8
0.7
Frequenza relativa
0.6
0.5
0.4
0.3
0.2
0.1
0
0 1 2 3 4
10 10 10 10 10
Numero di lanci
precedentemente analizzato, ed in particolare l’evento:
“facce uguali”
la cui probabilità vale:
In figura 1.8 è riportato l’andamento della frequenza relativa di tale evento in funzione
del numero delle prove: l’andamento della frequenza di successo è molto irregolare
22
se il numero delle prove è basso, ma, mano a mano che tale numero cresce, lo scosta-
mento dal valore precedentemente calcolato diventa trascurabile. Nella stessa figura
l’andamento della frequenza di successo è riportato per tre diverse serie di prove: i vari
andamenti sono inizialmente molto diversi, ma la loro differenza è trascurabile se il
numero delle prove è sufficientemente elevato.
Si osservi infine che gli andamenti riportati in figura 1.8 si possono anche inter-
pretare come la conferma sperimentale delle ipotesi che sono alla base dell’analisi
precedentemente effettuata.
23
Teorema fondamentale del conteggio (o Principio di moltiplicazione): La cardina-
lità dell’insieme definito dal prodotto cartesiano
ove
è un insieme finito, di cardinalità , è:
ovvero:
In particolare si ha:
Prova: è costituito da tutte le -ple ordinate
in
Poiché il primo elemento della -pla può essere scelto in
modi diversi e cosı̀ via, segue l’asserto.
modi diversi, il secondo
Q.E.D.
Esempio: Detto alfabeto di una sorgente l’insieme di tutti i simboli differenti che essa
# $
può emettere, si consideri la sorgente con alfabeto
(1.11)
tutti diversi tra loro.
#
I -pacchetti sono le terne ordinate di simboli dell’alfabeto , cioè gli elementi
dell’insieme la cui cardinalità, a norma del teorema fondamentale, vale:
# # #
Detto poi
#
il sottoinsieme dei -pacchetti, costituiti da simboli tutti diversi tra
loro, la sua cardinalità la si ricava tenendo presente che, dovendo essere i simboli
della terna tutti diversi, il primo simbolo, diciamolo , va scelto nell’alfabeto,
cioè nell’insieme
di cardinalità
24
Il secondo simbolo, diciamolo , va scelto nell’alfabeto privato del simbolo
precedentemente scelto e quindi nell’insieme
di cardinalità
ed, infine, il terzo, diciamolo , nell’alfabeto privato dei due simboli
precedentemente scelti e quindi nell’insieme
#
di cardinalità
#
In definitiva si ha:
#
#
si ottiene che, per ognuna delle 4 estrazioni, il risultato sarà sempre un elemento
di . Ciò significa che l’insieme di tutte le sequenze di 4 carte cosı̀ ottenute,
che comprende anche quelle sequenze in cui la stessa carta si ripete più volte, è
l’insieme
$
la cui cardinalità, per il principio di moltiplicazione, è:
$ $ $
Nel secondo caso si esclude la possibilità che la stessa carta possa ripetersi e
onda sarà un elemento di
quindi, mentre la prima carta estratta apparterrà ancora all’insieme
cioè dell’insieme
, la sec-
meno il risultato della prima
25
estrazione e cosı̀ via. Pertanto, detto
$
il sottoinsieme delle sequenze di 4 carte
tutte diverse tra loro, la sua cardinalità, a norma del teorema fondamentale, vale:
$
# $
di elementi di , cioè gli elementi di
, sono . Viceversa le -ple ordinate, con
, senza ripetizione di elementi di sono:
ove denota il fattoriale di 1 .
Si noti che, mentre l’insieme delle -ple ordinate con ripetizione non è mai vuoto
per ogni e naturali, quello delle -ple ordinate senza ripetizione è vuoto per
Le -ple ordinate di elementi di un insieme , finito e non vuoto, di cardinalità
.
sono anche dette disposizioni, con o senza ripetizione, di elementi su posti.
Pertanto il numero delle disposizioni, con ripetizione, di elementi su posti, denotato
con , vale:
Analogamente, il numero delle disposizioni, senza ripetizione, di elementi su posti,
dette anche permutazioni di elementi su posti, denotato con , vale:
1 Ricordiamo che si definisce fattoriale di un numero naturale , e lo si denota appunto con
, il prodotto
26
In particolare, le disposizioni, senza ripetizione, di elementi su posti sono dette
permutazioni ed il loro numero vale:
Esse sono le -ple ordinate, senza ripetizione, di tutti gli elementi dell’insieme ,
e quindi differiscono soltanto per la posizione dei singoli elementi all’interno della
sequenza.
Gli esempi precedenti si riferiscono a situazioni in cui l’ordine è rilevante, ma es-
istono altre situazioni in cui l’ordine dei singoli elementi all’interno della -pla non
rappresenta una caratteristica discriminante, come illustrato dal seguente:
Esempio: Supponiamo che siamo interessati a considerare i gruppi di 2 simboli di-
versi, estratti dall’alfabeto (1.11) di 4 simboli, ma questa volta senza essere
interessati all’ordine. In altri termini siamo interessati a valutare il numero di tutti
i possibili sottoinsiemi di di cardinalità 2. Tale numero può ricavarsi da quel-
lo delle coppie ordinate di simboli diversi, identificando quelle che differiscono
$
solo per l’ordine. Il numero delle coppie ordinate è
Tra queste, quelle che differiscono solamente per l’ordine dei simboli, e che si
ottengono l’una dall’altra permutando, cioè scambiando di posizione, i simboli
tanto il numero $
che le costituiscono, sono, per le considerazioni precedenti, in numero di 2!. Per-
di coppie non ordinate, estratte da un alfabeto di 4 simboli,
è:
$
Tali coppie sono dette combinazioni di classe 2 dei 4 elementi dell’alfabeto.
Più in generale i sottoinsieme di cardinalità di un insieme , di cardinalità , sono
dette combinazioni di classe degli elementi di . Sulla scorta delle considerazioni
fatte nell’esempio precedente, si ha che il numero delle combinazioni di classe di
elementi, denotato con , vale:
Ovvero,
ove si è introdotto il coefficiente binomiale:
27
Ricordiamo che tali coefficienti possono essere valutati ricorsivamente con il trian-
golo di Tartaglia riportato in figura 1.9: in tale triangolo ogni riga inizia e termina con
un 1, inoltre ogni elemento interno di una riga si ottiene sommando i due elementi che
lo sovrastano nella riga precedente.
di 5 carte da un mazzo di 52 carte francesi. Valutare la probabilità dell’evento:
della probabilità per cui è necessario calcolare le cardinalità sia dello spazio dei
campioni che dell’evento . Poichè nella situazione in esame non ha importanza
l’ordine delle carte che costituiscono la generica cinquina, la cardinalità dello
spazio dei campioni è pari al numero di combinazioni di classe 5 di 52 elementi,
cioè
prima che esso può essere visto come l’unione dei seguenti 4 eventi mutuamente
esclusivi:
“si estraggono 5 carte di cuori”
“si estraggono 5 carte di quadri”
“si estraggono 5 carte di fiori”
“si estraggono 5 carte di picche”
28
Tali eventi sono equipotenti e la cardinalità di ciascuno è pari al numero di
combinazioni di classe 5 di 13 elementi (il numero di carte dello stesso seme),
cioè
Per poter contare le sequenze con due 1 si consideri un alfabeto fittizio compos-
posizioni si ottengono
%
to da tre 0 e due 1. Permutando i 5 simboli dell’alfabeto su tutte le possibili
sequenze con tre 0 e due 1. A causa della pre-
senza di simboli uguali, però, alcune delle permutazioni cosı̀ ottenute risultano
indistinguibili; precisamente sono indistinguibili tutte le sequenze che si otten-
gono dalla permutazione di simboli uguali. Poichè nell’alfabeto ci sono tre 0 e
due 1, le permutazioni che, a partire da una certa disposizione dei simboli, danno
luogo a sequenze indistinguibili sono in numero di
. Ciò significa che, per
dividere il numero iniziale per
%
ottenere il numero di sequenze diverse in cui sono presenti tre 0 e due 1, bisogna
. In conclusione, il numero delle sequenze
in cui sono presenti 2 simboli ”1” è:
29
appartenenti ad un insieme di cardinalità 5 (le possibili posizioni all’interno della
sequenza) e cioè il numero delle combinazioni di classe 2 di 5 elementi:
Le combinazioni di classe di elementi sono i sottoinsiemi di cardinalità di
un insieme di cardinalità : gli elementi costituenti il sottoinsieme sono però tutti
distinti. In alcuni casi invece si è interessati a calcolare il numero di insiemi di cardi-
nalità costituiti da elementi dell’insieme consentendo però che i singoli elementi
possano ripetersi, come illustrato dal seguente
Esempio: Si riprenda in esame il lancio di una coppia di dadi: i possibili risultati sono
le coppie ordinate di elementi di
"! !
!"# !$ !"% !"&
!
!"#
dalla coppia
!# !
Ovviamente è implicito in tale assunzione la possibilità di distinguere la coppia
e simili: ciò è ad esempio possibile se i due dadi
sono di colore diverso. Se non è possibile distinguere tali coppie allora l’insieme
dei possibili risultati dell’esperimento è l’insieme delle coppie non ordinate, con
eventuale ripetizione degli elementi; precisamente è l’insieme:
"!
!
" "!
!
" " !
"! # " !
! $ " !
"! % "! "! &
""!"!$#
!"# "!"#
!$ "!$
!$
!"%
"!"#
"!$
!"%
!"&
"!"# !"&
"!"& !"&
di cardinalità
.
Per contare gli insiemi di cardinalità costituiti da elementi appartenenti ad un
insieme di cardinalità , con possibilità di ripetizione, si può operare come segue.
30
Si supponga di aver a disposizione scatole numerate da 1 ad , rappresentanti gli
elementi di , e biglie, una per ogni elemento da scegliere: ogni -pla non ordinata
con ripetizione si può ottenere ponendo le biglie nelle scatole; ovviamente porre più
biglie nella stessa scatola equivale a scegliere più volte l’elemento corrispondente a tale
estratti dall’alfabeto
#
, di $
scatola. A scopo illustrativo in figura 1.10 sono riportati alcuni insiemi di elementi
elementi. Dalla figura è evidente
#
# $
$
# $
$ $
# $
Figura 1.10: Disposizioni non ordinate (combinazioni), con ripetizione di 4 elementi
su 3 posti.
che ad ogni disposizione delle 3 barre (le barre denotano le pareti di separazione delle
singole scatole mentre le doppie barre denotano le due pareti terminali che non vanno
con ripetizione, dall’alfabeto
# $
considerate) e delle 3 biglie corrisponde un sottoinsieme di
elementi estratti,
e viceversa. Pertanto il numero
di disposizioni non ordinate con ripetizione di 4 elementi su 3 posti coincide con il
numero di sequenze binarie di lunghezza 6 costituite da 3 barre e 3 biglie, cioè con le
disposizioni non ordinate (combinazioni) di classe 3 di 6 elementi:
31
Disposizioni con ripetizione senza ripetizione
ordinate
non ordinate
(combinazioni)
Tabella 1.7: Disposizioni di elementi su posti.
In tabella 1.7 sono riassunti i risultati stabiliti relativamente alle possibili dis-
posizioni, ordinate e non ordinate, con e senza ripetizione, di elementi su
posti.
grafo quando verrà introdotta la probabilità condizionata, viene formalizzato con la
seguente definizione: due eventi e si dicono indipendenti se:
(1.12)
Si noti che tale definizione è simmetrica nel senso che se è indipendente da anche
è indipendente da .
Eventi non indipendenti sono anche detti correlati.
Si osservi che se e sono indipendenti lo sono anche e , e , e (vedi
Ex. 1.22).
Osserviamo esplicitamente che la definizione di indipendenza non va confusa con
quella di eventi mutuamente esclusivi. Infatti se gli eventi e
sono indipenden-
ti allora la loro probabilità congiunta è data dalla (1.12); conseguentemente possono
essere anche mutuamente esclusivi solo se almeno uno dei due ha probabilità nulla.
Pertanto eventi mutuamente esclusivi, aventi probabilità non nulla, sono correlati. Tale
affermazione si giustifica anche intuitivamente: infatti se gli eventi sono mutuamente
esclusivi il verificarsi dell’uno esclude il verificarsi dell’altro e quindi saper o meno
che uno dei due si è verificato influenza la nostra aspettativa sul verificarsi o meno
dell’altro.
32
di eventi: precisamente gli eventi
La definizione di indipendenza può essere generalizzata ad un numero arbitrario
si dicono statisticamente indipendenti
si ha:
In altri termini eventi sono indipendenti se lo sono a coppie, terne, quaterne, etc..
probabilità definita dalla (1.5) e dalla (1.6) e valutiamo se gli eventi
sono indipendenti.
Con l’ausilio della tabella delle probabilità degli eventi elementari (tabella 1.5)
e tenendo presente la costituzione degli eventi di interesse illustrata nella tabella
"
#
1.8, è immediato verificare che:
" #
# " #
#
#
#
$
% # #
( 1, 0, 0) ( 0, 1, 0) ( 0, 0, 1)
& & %
( 1, 0, 1) ( 0, 1, 1) ( 0, 1, 1)
( 1, 1, 0) ( 1, 1, 0) ( 1, 0, 1)
#
( 1, 1, 1) ( 1, 1, 1) ( 1, 1, 1)
"
In modo analogo, con l’ausilio della tabella 1.9, si ha:
#
#
# "
#
# "
33
#
#
#
& ( 1, 1, 0) % ( 1, 0, 1) # ( 0, 1, 1)
#
#
( 1, 1, 1) ( 1, 1, 1) ( 1, 1, 1)
#
sono indipendenti a coppie. Avendosi inoltre
# " "
gli eventi
sono indipendenti.
In modo del tutto analogo si può verificare che gli eventi:
tal fine, dato un evento , avente probabilità non nulla, si consideri la corrispondenza:
(1.13)
34
Tale corrispondenza soddisfa gli assiomi di Kolmogorov e, quindi, definisce una nuova
legge di probabilità denominata la probabilità condizionata. Invero si ha:
La definizione data di probabilità condizionata soddisfa le condizioni che intu-
itivamente sono richieste alla probabilità condizionata. Infatti, dalla (1.13) segue
che:
La prima di tali relazioni afferma che, se il verificarsi di
è condizione sufficiente
per il verificarsi di , allora la probabilità di condizionata a deve essere uno; la
seconda asserisce che, se il verificarsi di è condizione necessaria per il verificarsi
di , allora la probabilità di condizionata a non deve diminuire; infine la terza
relazione afferma che se e sono mutuamente esclusivi, allora il verificarsi dell’uno
esclude il verificarsi dell’altro e, quindi la probabilità dell’uno condizionata all’altro
deve essere nulla. Tali proprietà sono illustrate in figura 1.11.
W W W
35
nulla allora risulta:
non muta la probabilità di verificarsi dell’altro. Viceversa per eventi correlati proba-
bilità a priori e probabilità condizionate differiscono. In tal caso, se
si dice che è positivamente correlato a , altrimenti si dice che è negativamente
correlato a . È possibile dimostrare che se è correlato positivamente a allora
Si noti che
anche è positivamente correlato ad (vedi esercizi).
oltre che probabilità di condizionata a è anche numerica-
mente uguale alla verosimiglianza di per . Le due nozioni però sono diverse: invero
da
, come già detto è una legge di probabilità, mentre la verosimiglianza, definita
, come è facile verificare, non lo è. In altri termini nel primo caso l’evento
condizionante è fisso, mentre varia quello condizionato; nel caso della verosimiglianza
invece, è l’evento condizionato a non variare, mentre quello condizionante varia.
Il significato della probabilità condizionata è ulteriormente chiarito dalla sua
interpretazione frequentistica. Infatti, secondo tale interpretazione risulta:
prove gli eventi
ove e denotano rispettivamente il numero di volte che si verificano in
e, rispettivamente, . Pertanto la probabilità condizionata è la
frazione di volte che si verifica l’evento non più in tutte le prove, ma limitatamente
a quelle in cui si verifica . In altri termini le prove in cui non si verifica vanno
scartate e non contribuiscono più al calcolo della frequenza relativa.
La definizione di probabilità condizionata e le sue proprietà sono presentate
sinteticamente nella tabella 1.10.
Introdotta la probabilità condizionata, è possibile estendere la definizione di eventi
indipendenti ad eventi condizionalmente indipendenti. Precisamente, due eventi e
si dicono condizionalmente indipendenti dato l’evento
a probabilità non nulla
( ) se
(1.14)
36
Probabilità condizionata
Proprietà
Eventi indipendenti
Tabella 1.10: Probabilità condizionata e sue proprietà.
Anche in questo caso, come è immediato verificare, si ha
cioè l’ulteriore condizionamento a (rispettivamente ad ) non ha alcun effetto sulla
probabilità condizionata a .
In modo del tutto analogo si estende la definizione di indipendenza condizionale a
più di due eventi.
Più in generale sussiste la seguente Regola della catena:
Legge di Bayes:
Dalla legge della probabilità congiunta segue che:
Tale relazione è nota come legge o formula di Bayes e consente di scambiare i ruoli di
evento condizionato e condizionante.
37
Legge della probabilità totale: Si consideri una partizione finita
termini, gli eventi
o numerabile dell’evento certo costituita da eventi aventi probabilità non nulla; in altri
, sono a due a due mutuamente esclusivi e necessariamente
in ogni prova si verifica uno ed uno solo di tali eventi. In tale ipotesi la probabilità di
un qualsiasi evento può calcolarsi con la seguente relazione, nota come legge della
probabilità totale:
Invero, essendo
una partizione dell’evento certo, si ha:
Essendo le congiunzioni
come illustrato in figura 1.12 con riferimento ad una partizione finita dell’evento certo.
, a loro volta a due a due mutuamente esclusive,
per l’additività della probabilità si ha:
da cui, per la legge della probabilità composta, segue l’asserto.
W
ottiene la seguente formulazione alternativa della legge di Bayes
38
Legge della
probabilità congiunta:
Legge della
probabilità totale:
partizione discreta di
Legge di Bayes
seconda formulazione
"
-
e sono rispettivamente l’ingresso e l’uscita del canale;
-
-
;
"
" .
;
Dimostrare che:
assegnati e , è definita la probabilità di ogni evento
la probabilità d’errore
" è uguale a indipenden-
temente dal valore di ;
per
ingresso ed uscita del canale sono indipendenti;
per i simboli d’ingresso e di uscita omonimi sono correlati,
positivamente se
e negativamente se
;
se i simboli in ingresso sono equiprobabili lo sono anche in uscita.
39
0
0
1
1
Figura 1.13: Schemi del BSC
uscita, dato il simbolo d’ingresso.
Cominciamo con l’osservare che, in questo caso, come spazio campione
possibile considerare l’insieme di tutte le possibili coppie
, ovvero
è
e come eventi tutti i sottoinsiemi di .
Calcoliamo, ad esempio, la probabilità dell’evento elementare
;
applicando la legge della probabilità congiunta si ha:
"
" "
Dal momento che il calcolo della probabilità degli altri eventi elementari si
svolge in maniera analoga si è mostrato che la probabilità di ogni evento è
funzione di ed .
La probabilità d’errore si può calcolare con la legge della probabilità totale;
infatti si ha:
"
Tale probabilità è quindi indipendente dal valore di . Si noti che questo risultato
è dovuto all’ipotesi di simmetria del canale e non è più valido nel caso in cui le
40
0 0 0 0
1 1 1
" "
pertanto:
"
"
"
"
ossia i simboli di uscita sono equiprobabili indipendentemente dal valore della
"
probabilità dei simboli di ingresso . Inoltre, nell’ipotesi si ha:
"
e quindi i simboli di uscita sono indipendenti dai simboli di ingresso. E’ evidente
che in tal caso la trasmissione di simboli è del tutto inutile: infatti, poiché i
simboli di uscita sono equiprobabili ed indipendenti dai simboli d’ingresso si
possono ottenere le stesse prestazioni rinunciando alla trasmissione e generando
localmente l’uscita del canale completamente a caso, ad esempio lanciando una
moneta bilanciata.
41
Ora, si osservi che, dalle espressioni delle probabilità a priori dei simboli
d’uscita segue che:
" "
" "
- Se allora
, ,
"
"
ossia i simboli d’ingresso e di uscita sono positivamente correlati quando
assumono lo stesso valore;
- Se
ingresso ed uscita sono indipendenti, qualsiasi sia il valore di ,
" "
come già discusso;
- Se allora
, ,
" "
" "
Quindi:
- Se
allora
, , ossia
"
"
i simboli d’ingresso e di uscita sono negativamente correlati se assumono
" "
valori diversi;
- Se
allora
, , ossia
42
Ad esempio, supposto, per semplicità, e di aver osservato in uscita il
valore
, le probabilità dei simboli d’ingresso sono date da:
"
"
Si può quindi notare come l’osservazione di un simbolo in uscita modifichi la
legge di probabilità dei simboli di ingresso in maniera dipendente dal valore
di . In particolare, per
o per
, tale distribuzione è fortemente
asimmetrica, il che è indice del fatto che il canale può operare con prestazioni
soddisfacenti.
43
“Il primo simbolo emesso è 1”
“Il secondo simbolo emesso è 1”
poichè le emissioni sono indipendenti. Inoltre da quanto detto precedentemente risulta:
Dal momento che le emissioni sono indipendenti, è ragionevole imporre che:
(1.16)
desiderate, che sia cioè decrescente con la probabilità dell’evento (1.15), additiva per
eventi indipendenti (1.16) e non negativa (1.17), debba essere del tipo:
(1.18)
Si osservi che la definizione (1.18) garantisce anche che ad un evento a probabilità uno,
in particolare all’evento certo, è associato un contenuto informativo nullo, come deve
intuitivamente essere dal momento che il verificarsi di un tale evento non aggiunge
alcuna informazione supplementare.
Inoltre, si noti che avendosi:
le costanti ed concorrono a fissare l’unità di misura dell’informazione.
La scelta di gran lunga più comune per definire il contenuto informativo associato
ad un evento è:
(1.19)
e l’informazione espressa dalla (1.19) è misurata in bit.
Il significato di tale scelta è illustrato dal seguente esempio. Si consideri una
sorgente binaria che emetta un simbolo
tra due simboli equiprobabili; in tal caso
l’informazione associata ai singoli simboli vale:
"
"
44
Pertanto 1 bit è l’informazione associata ad una scelta tra due alternative equiprobabili.
Si osservi che usualmente il termine bit è di solito utilizzato con due diversi sig-
nificati: il primo, quello introdotto in questo paragrafo, cioè come unità di misura
dell’informazione (bit=binary information unit); il secondo come sinonimo di cifra bi-
naria (bit=binary digit). I due concetti sono però profondamente diversi e non vanno
confusi; in particolare, una cifra binaria ha l’informazione di un bit se e solo se le due
cifre sono equiprobabili.
45
1.9 Esercizi
Ex. 1.1 Un esperimento aleatorio consiste nel provare il funzionamento di una lam-
padina osservando la sua durata. Definire il corrispondente spazio dei campioni, speci-
ficando se è di tipo continuo o di tipo discreto. Si individuino inoltre i seguenti
eventi:
”la durata della lampada è superiore a 10”
”la durata della lampada è non inferiore a 5”
”la durata della lampada è compresa tra 5 e 30”
Ex. 1.2 Si determini lo spazio dei campioni relativo al doppio lancio di un dado. Si
le carte estratte sono tutte di coppe” ,
stabilire in quali delle seguenti estrazioni si verifica l’evento :
46
Ex. 1.5 Si considerino i quattro gruppi sanguigni 0, A, B e AB. Una qualsiasi persona
può ricevere il sangue da un donatore del suo stesso gruppo ed anche da un donatore del
gruppo 0, mentre una persona del gruppo AB può ricevere il sangue da uno qualsiasi dei
quattro gruppi. Un esperimento aleatorio consiste nel determinare il gruppo sanguigno
per ogni coppia di donatori che arriva in una banca del sangue.
”ciascuno dei due donatori può ricevere il sangue dall’altro”
”nessuno dei due donatori può ricevere il sangue dall’altro”
3. Nell’ipotesi che gli eventi elementari siano equiprobabili, si calcolino le
probabilità dei tre eventi individuati.
Ex. 1.6 Una moneta non truccata viene lanciata quattro volte. Si determini lo spazio
c. ;
;.
d.
e.
sapendo che:
Ex. 1.9 e
sono due eventi tali che
e
. Stabilire se
sono mutuamente esclusivi. Più in generale mostrare che e non sono mutuamente
esclusivi se le loro probabilità soddisfano la relazione .
47
Ex. 1.10 Dimostrare la seguente disuguaglianza di Bonferroni:
Ex. 1.11 Due persone, Tizio e Caio, tentano di telefonarvi a caso tra le 17 e le 18
indipendentemente l’una dall’altra. Tizio, avendo un unico gettone prevede una tele-
fonata di tre minuti, mentre Caio, che ha due gettoni, prevede una telefonata di sei
minuti. Ipotizzando che ognuno faccia un solo tentativo, calcolare:
Ex. 1.15 Relativamente all’esperimento del lancio di una coppia di dadi non truccati,
”facce uguali”
si considerino gli eventi
Ex. 1.16 Si consideri l’esperimento in cui i possibili risultati sono le terne
in posizione
sono indipendenti.
48
Ex. 1.17 Gli eventi
sono indipendenti. Posto
, determi-
nare la probabilità che:
a) non se ne verifichi nessuno;
b) se ne verifichi almeno uno;
c) se ne verifichi esattamente uno, non importa quale.
Ex. 1.19 Dimostrare che è più facile ottenere almeno un 6 lanciando un dado 4 volte
che un 12 lanciando due dadi 24 volte.
Ex. 1.20 Si lancia un dado finchè non esce la stessa faccia due volte consecutive.
Valutare la probabilità di lanciare il dado N volte.
Ex. 1.21 Due giocatori, A e B, lanciano alternativamente una moneta e vince chi per
primo ottiene testa. Si assuma che A inizi il gioco. Determinare la probabilità che vinca
A supposta la moneta ben bilanciata. Ripetere il calcolo per una moneta arbitraria.
Ex. 1.22 Dimostrare che se
e
sono eventi indipendenti, allora anche
e
,
e
, e , lo sono.
Ex. 1.23 Siano e due eventi. Dimostrare che se
allora e
sono statisticamente indipendenti.
Ex. 1.24 Dimostrare che se è positivamente (rispettivamente negativamente) corre-
lato a allora anche è positivamente (rispettivamente negativamente) correlato a
.
Ex. 1.25 Dimostrare la regola a catena della probabilità, cioè che
49
Ex. 1.26 Sia
una partizione discreta dell’evento . Dimostrare che
per ogni evento risulta
Ex. 1.27 Da un mazzo di carte francesi (senza jolly) si sottrae una carta senza
guardarla. Poi si gira un’altra carta: con quale probabilità quest’ultima è di fiori?
Ex. 1.28 Una moneta non truccata viene lanciata 10 volte e gli esperimenti (lanci)
"
"
sono tutti indipendenti. Calcolare:
qualsiasi . Dire se
teste
teste e 1 croce in ordine
testa al decimo lancio 9 teste nei primi 9 lanci è minore,
"
uguale o maggiore di 0.5. Stabilire se è più facile avere N teste e N croci su 2N lanci o
N+1 teste e N+1 croci su 2N+2 lanci.
minuti. Un viaggiatore, a sua volta, arriva alla stazione in un istante qualsiasi dello
stesso intervallo di tempo, indipendentemente dal treno. Determinare:
quanto deve valere affinchè il viaggiatore prenda il treno con probabilità 0.68.
la probabilità di prendere il treno senza aspettare;
dopo
la probabilità di prendere il treno senza aspettare, sapendo che il treno è arrivato
.
Ex. 1.30 Alle elezioni, il signor K vota per la lega (evento ). Stabilire con quale
probabilità vive nel nord ( ), centro ( ) o sud ( ) dell’Italia sapendo che:
,
,
,
Ex. 1.31 Uno studente può sostenere l’esame di Economia con uguale probabilità con
i professori A, B e C, i quali bocciano con probabilità 0.1, 0.3 e 0.2 rispettivamente.
Sapendo che uno studente è stato bocciato, qual è la probabilità che abbia sostenuto
l’esame con A?
50
due dadi non truccati. Il giocatore sceglie un dado a caso, lo lancia, e ottiene 6. Val-
utare la probabilità che sia stato lanciato il dado truccato. Ripetere il calcolo sapendo
che, lanciato una seconda volta lo stesso dado, si è ottenuto ancora 6.
# $
Ex. 1.33 Due terminali, A e B, sono connessi tra loro tramite quattro interruttori
# $
; precisamente e sono connessi in serie tra loro e in parallelo a
ed a . Nell’ipotesi che gli interruttori possano essere aperti o chiusi con uguale
probabilità indipendentemente l’uno dall’altro, determinare:
è chiuso;
la probabilità che l’interruttore
$ sia chiuso, sapendo che i terminali sono
connessi.
Ex. 1.34 Tre sorgenti binarie indipendenti emettono il simbolo 1 con probabilità
e sono connesse tramite un interruttore ad un BSC di parametro .
L’interruttore è connesso per il 50% del tempo alla prima sorgente, e per il 25% del
tempo a ciascuna delle altre due sorgenti indipendentemente dallo stato della sorgente.
Determinare:
51