Sei sulla pagina 1di 55

Appunti di Teoria dei Fenomeni Aleatori

Ernesto Conte Carmela Galdi

22 ottobre 2002
ii
Indice

1 Fondamenti 1
1.1 Esperimento aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Spazio dei campioni. Eventi . . . . . . . . . . . . . . . . . . 2
1.1.2 Operazioni tra eventi . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Algebre e -algebre . . . . . . . . . . . . . . . . . . . . . . 9
1.1.4 Gli assiomi della probabilità . . . . . . . . . . . . . . . . . . 11
1.2 Esempi di spazi di probabilità . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1 Lancio di una coppia di dadi . . . . . . . . . . . . . . . . . . 15
1.2.2 Sorgente binaria senza memoria . . . . . . . . . . . . . . . . 16
1.2.3 Spazio dei campioni discreto . .
 
. . . . . . . . . . . . . . . . 18
1.2.4 Coppia di arrivi in . . . . . . . . . . . . . . . . . . . . 19
1.3 Definizioni alternative di probabilità . . . . . . . . . . . . . . . . . . 21
1.3.1 Definizione classica . . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Frequenza relativa . . . . . . . . . . . . . . . . . . . . . . . 21
1.4 Tecniche di conteggio . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5 Eventi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.6 Probabilità condizionata . . . . . . . . . . . . . . . . . . . . . . . . 34
1.7 Leggi Fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.8 Probabilità, incertezza ed informazione. . . . . . . . . . . . . . . . . 43
1.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2 Variabili e vettori aleatori 1


2.1 Variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2.2 Spazio di probabilità generato dalla
. . . . . . . . . . . . . . . . 7
2.3 Funzione di Distribuzione Cumulativa . . . . . . . . . . . . . . . . . 8
2.3.1 CDF empirica . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2 Proprietà della CDF . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Variabili aleatorie discrete . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Variabili aleatorie continue. . . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Distribuzioni e densità condizionate. . . . . . . . . . . . . . . . . . . 25
2.7 Vettori aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.8 CDF congiunta di v.a. doppie. . . . . . . . . . . . . . . . . . . . . . 30
2.9 Variabili aleatorie discrete doppie. . . . . . . . . . . . . . . . . . . . 33
2.10 Variabili aleatorie continue doppie. . . . . . . . . . . . . . . . . . . . 36

iii
2.11 V.a. doppie: CDF, pmf e pdf condizionate. . . . . . . . . . . . . . . . 38
2.11.1 Coppie di v.a. discrete: pmf condizionate. . . . . . . . . . . . 39
2.11.2 Coppie di v.a.continue: pdf condizionate. . . . . . . . . . . . 40
2.12 Caratterizzazione probabilistica di ve.a.. . . . . . . . . . . . . . . . . 42
2.12.1 Distribuzioni e densità condizionate . . . . . . . . . . . . . . 43
2.13 Variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . 44
2.14 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

iv
Capitolo 1

Fondamenti
Nello studio dei fenomeni fisici è di fondamentale importanza avere a disposizione
un modello matematico che renda possibile la descrizione o la predizione di alcune

caratteristiche di interesse. La relazione fornisce ad esempio il modello matem-
atico per descrivere la velocità di un corpo in caduta libera nel vuoto. Questo è un
esempio di modello deterministico in quanto ripetendo più volte lo stesso esperimento
si osserveranno, essenzialmente, gli stessi valori di velocità in determinati punti dello
spazio. In condizioni non ideali tuttavia, questa legge può fornire risultati completa-
mente inadeguati: si pensi, ad esempio, al moto di una particella di polvere soggetta,
oltre all’accelerazione di gravità, anche all’azione di disturbi ambientali difficilmente
predicibili, quali gradienti di temperatura, pressione e umidità.
Lo scopo della teoria della probabilità è quello di fornire modelli matematici per
trattare situazioni non predicibili in maniera deterministica. I primi studi sulla teoria
della probabilità risalgono al 1650 quando il Cavalier de Méré chiese agli amici Pascal
e Fermat di sviluppare un modello matematico per descrivere alcune “ricorrenze del
gioco d’azzardo”. Più avanti, verso gli inizi del 1900, basandosi sulle idee di Emile
Borel circa la teoria della misura, André Kolmogorov elaborò un insieme di assiomi
tramite i quali la teoria della probabilità poteva essere formalizzata mediante la teoria
della misura.
Lo scopo del seguente capitolo è di fornire i concetti fondamentali della teoria della
probabilità insieme con le linee di guida per una sua corretta applicazione.

1.1 Esperimento aleatorio

Scopo di questo paragrafo è la definizione formale di un esperimento aleatorio: a tal


fine è necessario introdurre l’insieme dei possibili risultati dell’esperimento in esame,
gli eventi e la legge di probabilità come verrà illustrato nei sotto-paragrafi seguenti.

1
1.1.1 Spazio dei campioni. Eventi
Ogni volta che si effettua un esperimento si osserva la risposta dell’ambiente ad una
data sollecitazione e se ne ricava un risultato sperimentale. La singola esecuzione di


un esperimento si chiama prova e ad ogni prova corrisponde un risultato, diciamolo .
Per un dato esperimento l’insieme di tutti i possibili risultati si chiama spazio dei
campioni o spazio delle prove e può essere finito, infinito numerabile (cioè indicizza-
bile mediante l’insieme degli interi positivi), o infinito non numerabile. Se lo spazio
dei campioni è finito o numerabile lo diremo anche discreto.

Esempio: sorgente binaria.


Si consideri una sorgente che emetta simboli binari. Se l’esperimento consiste
nell’emissione da parte della sorgente di un solo simbolo, lo spazio dei campioni
è l’insieme
    

Se invece si osserva l’emissione di un pacchetto di simboli, sinteticamente 


 -pacchetto, il generico risultato è un’ennupla ordinata di cifre binarie del tipo

             
        

    
ed il corrispondente spazio dei campioni è:


cioè l’insieme delle  -ple binarie: anche


  , einpuò
questo caso lo spazio delle prove
è finito, precisamente ha cardinalità
tabellare come illustrato in tabella 1.1 per  
  .
essere rappresentato in forma

Se, infine, si osserva l’emissione della sorgente fino a quando non si ottiene un
1, il risultato è del tipo
    
 

Il corrispondente spazio dei campioni è


   
        
 

ed è infinito numerabile.

Esempio: lancio di dadi.


Si consideri il lancio di un dado: per tale esperimento lo spazio dei campioni è:
  "! ! !"# !$ !"% !"& 
    

2

  # 
  


  


 

 
  

#  
 

$      

%  
  

&   
   

   
  

Tabella 1.1: Spazio dei campioni per pacchetti di lunghezza 3.

cioè l’insieme delle 6 facce del dado.


Se poi si lancia il dado due volte o, equivalentemente, si lancia una coppia di

  "! ! !"# !$ !"% !"& 


dadi lo spazio dei campioni è:
    

ed è illustrato in tabella 1.2.


 !  !   !  !   !  !"#   !  !$   !  !"%   !  !"& 
 !  !   !  !   !  !"#   !  !$   !  !"%   !  !"& 
 !"#  !   !"#  !   !"#  !"#   !"#  !$   !"#  !"%   !"#  !"& 
 !$  !   !$  !   !$  !"#   !$  !$   !$  !"%   !$  !"& 
 !"%  !   !"%  !   !"%  !"#   !"%  !$   !"%  !"%   !"%  !"& 
 !"&  !   !"&  !   !"&  !"#   !"&  !$   !"&  !"%   !"&  !"& 
Tabella 1.2: Spazio dei campioni relativo al lancio di una coppia di dadi.

  
Esempio: coppie di arrivi in . Si consideri l’arrivo di un viaggiatore e di un
  

treno in una certa stazione nell’intervallo . Il generico risultato è la coppia
    

degli istanti di arrivo del viaggiatore e del treno ed il corrispondente spazio dei
campioni è
    
3
Pertanto, in questo caso, lo spazio delle prove è il quadrato di figura 1.1.1 ed è
infinito non numerabile, precisamente è continuo.






 
Figura 1.1: Lo spazio delle prove relativo ad una coppia di arrivi.

Considerato un esperimento siamo interessati a sapere se i risultati soddisfino o


meno determinate condizioni: siamo cioè interessati a conoscere se si verifichino o
meno determinati eventi. Formalmente un evento è una proposizione concernente i


possibili risultati dell’esperimento: tale proposizione definisce un sottoinsieme di risul-
tati, cioè un sottoinsieme dello spazio dei campioni . L’evento si verifica in una
 
  
generica prova dell’esperimento se il particolare risultato di tale prova appartiene ad
, cioè se .

Esempio: sorgente binaria (continuazione).


Con riferimento all’emissione di un pacchetto di lunghezza 3 sono, ad esempio,
eventi
          

“il numero di uno nel pacchetto è pari o nullo”

 
              

 
“il numero di uno è minore di due”
     
 # 
              

        
“il numero di uno è uguale a due”
          


Se si effettua una prova il cui risultato è     
gli eventi
 #
ed si
verificano mentre non si verifica.

4
  
Esempio: coppie di arrivi in (continuazione).

 
Analogamente sono eventi (fig. 1.1.1):

  
“il viaggiatore ed il treno arrivano contemporaneamente”
     
 
 

      
“il viaggiatore arriva prima del treno”
 
 # 
 

 e  ”
        
   

  
    
“il viaggiatore arriva tra
   

 
 
 

 
 
   





#

 

Figura 1.2: Alcuni eventi relativi all’esempio 3.


Si noti che lo spazio dei campioni è esso stesso un evento cosı̀ come si include tra

gli eventi anche l’insieme vuoto . L’evento si verifica in ogni prova, per cui viene

5
mai. Infine gli eventi del tipo   
detto evento certo, mentre l’evento è l’evento impossibile in quanto non si verifica
, costituiti cioè da un unico risultato, sono detti eventi
elementari.

1.1.2 Operazioni tra eventi


Gli eventi sono sottoinsiemi dello spazio dei campioni e le operazioni sugli eventi
corrispondono pertanto alle usuali operazioni tra sottoinsiemi. Cosı̀ ad esempio, la

 

 

W W
 

Figura 1.3: Diagrammi di Venn relativi alla disgiunzione e alla congiunzione di eventi

  
disgiunzione di due eventi e , cioè l’evento o , è l’evento che si verifica quando


  
si verifica almeno uno tra i due eventi, eventualmente entrambi: essa coincide quindi
con l’unione dei sottoinsiemi e , cioè col sottoinsieme costituito dai risultati che

con

 
, oppure
 

appartengono ad oppure a , eventualmente ad entrambi, e sarà pertanto denotata
, (vedi figura 1.3).

 

Analogamente la congiunzione di due eventi e è l’evento che si verifica quando
si verificano sia che ; coincide quindi con l’intersezione dei sottoinsiemi e ,

 
   
cioè col sottoinsieme costituito dai risultati che appartengono sia ad che a e la si
denota pertanto con



, oppure

, (vedi figura 1.3).
Due eventi e la cui intersezione è non vuota


si dicono compat-
   
Viceversa, due eventi e

ibili in quanto, in una prova dell’esperimento in esame, possono verificarsi entrambi.

  
che non possono mai verificarsi contemporaneamente,
cioè per i quali



, si dicono mutuamente esclusivi o incompatibili (figura
1.4).

  
La negazione di un evento è l’evento che si verifica ogni volta che non si verifica


; essa è pertanto il complemento del sottoinsieme , cioè il sottoinsieme costituito


da tutti i risultati che non appartengono ad (figura 1.4). Ovviamente un evento ed

il suo negato sono sempre mutuamente esclusivi.

6
 
 
W W

Figura 1.4: Diagrammi di Venn relativi alla negazione di eventi e ad eventi mutuamente
esclusivi.

  
Infine la differenza


tra due eventi è l’evento che si verifica ogni volta che
si verifica , ma non ; essa è pertanto il sottoinsieme costituito dai risultati che

 
appartengono ad e non appartengono a ; in altri termini si ha:
  


Per comodità del lettore nella tabella 1.3 sono riportate le più comuni proprietà di
unione, intersezione e complementazione.

Esempio: sorgente binaria (continuazione).


Con riferimento all’emissione di un pacchetto di lunghezza 3, si riprendano in

 
esame gli eventi

         
“il numero di uno nel pacchetto è pari o nullo”

 
              

 
“il numero di uno è minore di due”
     
# 
              

        
“il numero di uno è uguale a due”

   degli eventi  ed  è l’evento


          

    “il numero di uno nel pacchetto


La disgiunzione

   è minore
  od uguale
 a due”
   
 

 è l’evento
                           


   “il numero  di uno nel pacchetto è nullo”
mentre la loro congiunzione

    

7
  
 

     
Idempotenza







     
 

         
  
Associatività 


 

      
    
Commutatività

  
 

    
 

Distributività  
  
  
 


 

Leggi di De Morgan  
  

 

Complementazione
  

 e    


   
 

Tabella 1.3: Principali proprietà dell’unione e dell’intersezione

Quindi
 
ed

sono compatibili ed in ogni prova si verificano o meno entrambi

#
  
a seconda che il risultato sia o no . Analogamente la congiunzione di
ed è l’evento
  #    

    
  “il numero di  uno nel pacchetto è due”

  #    
       

Pertanto anche
  ed sono compatibili: in particolare se il risultato della

 #
        
prova è
  
(oppure o ) si verificano entrambi, mentre se il
     

risultato è
    si verifica e no; infine se il risultato è (oppure

 #   #
        
, o ) non si verifica nessuno dei due.

Viceversa, avendosi
   , e sono mutuamente esclusivi.

   
La differenza è l’evento

         
”ilnumero
 
di uno nel
   
pacchetto è pari o nullo e non minore di due”
    

Infine l’evento
          
 
”ilnumero
 
di uno nel pacchetto è dispari”
            

8
è il complemento di
 .

Come è noto le usuali operazioni insiemistiche possono essere eseguite anche su


famiglie infinite, numerabili o più che numerabili, di sottoinsiemi; inoltre, nel caso di
spazi delle prove infiniti, occorre anche effettuare dei ragionamenti limite. A tal fine ri-

mente il limite di una successione  


cordiamo che si definiscono i limiti per successioni monotone di sottoinsiemi. Precisa-
 crescente di sottoinsiemi, soddisfacente

    
cioè la condizione:
  



 




è per definizione 
 



 
In alternativa è anche utilizzata la notazione:



   


Analogamente il limite di una successione decrescente di sottoinsiemi,

    
soddisfacente cioè la condizione:
  



 




è per definizione 
 


o, con altra notazione:
  



1.1.3 Algebre e  -algebre


Quando si sono introdotti gli eventi, volutamente, non si è discusso se tutti i sottoin-
siemi dello spazio delle prove siano eventi. Invero ciò non è sempre conveniente o
possibile. Infatti non sempre è conveniente considerare eventi tutti i possibili sottoin-
siemi dello spazio delle prove; ad esempio, con riferimento alla sorgente binaria, se
siamo interessati non alla struttura del pacchetto di bit ma solo alla sua parità, a sapere
cioè se il numero di bit costituenti il pacchetto è o meno pari, è conveniente limitar-
si a considerare solo tale evento (più in generale solo gli eventi di interesse) e quelli
che si ottengono operando con le usuali operazioni insiemistiche a partire da tale even-
to. È quindi necessario garantirsi che operando su tali sottoinsiemi si ottenga ancora

9
un evento: ciò porta ad imporre alcuni condizioni sull’insieme degli eventi che si
sintetizzano dicendo che deve essere un’algebra.
Formalmente una famiglia non vuota di sottoinsiemi di è un’algebra di eventi

 
se
  
 
- A1:

- A2:
      

 
Dalle condizioni A1 ed A2 segue che sono soddisfatte anche le seguenti proprietà:

- P1:
      

   
  
   
- P2:
   
  
    
   
- P3:

- P4:
         
 
Un’algebra di eventi è pertanto chiusa rispetto alle operazioni di complemen-
tazione, unione ed intersezione eseguite su un numero finito di eventi.
Talvolta è però necessario operare dei ragionamenti al limite per cui occorre pren-
dere in esame successioni di eventi: in tal caso si richiede che comunque si operi su una
successione di eventi si abbia ancora un evento. Ciò porta ad imporre che non solo
sia un’algebra, ma una -algebra. Precisamente un’algebra di eventi è una -algebra
se:

- A2.b
      
   
  

In altri termini una -algebra è chiusa rispetto alle operazioni di complementazione,
unione ed intersezione eseguite su un numero finito o un’infinità numerabile di eventi;
conseguentemente anche il limite di una successione monotona di eventi è un evento.
Infine si osservi che le famiglie
     
  

ove

 
denota l’insieme di tutti i sottoinsiemi di (insieme delle parti di ), costi-
 
tuiscono, rispettivamente, la più piccola e la più grande -algebra (algebra); inoltre la

 
più piccola -algebra (algebra) contenente un dato evento è
      

10

1.1.4 Gli assiomi della probabilità
Ad ogni evento occorre associare un numero
  che ne misura la probabilità; a

   
tal fine consideriamo la funzione:
  

ove è l’insieme degli eventi. Tale corrispondenza non può essere arbitraria, ma deve
soddisfare le seguenti condizioni (assiomi della probabilità):

A1. Non negatività:


   
  
A2. Normalizzazione:
  

  
 
A3a. Finita additività:
           
  
A3b: Numerabile additività:

   

 

        
 


 e


Gli assiomi della probabilità sono anche noti come assiomi di Kolmogorov dal
nome del fondatore dell’approccio assiomatico. Essi affermano che la probabilità di
un qualsiasi evento è non negativa (A1), che l’evento certo ha probabilità uno (A2) ed
inoltre la probabilità di due eventi mutuamente esclusivi è la somma delle probabilità
dei singoli eventi (A3a); tale proprietà vale anche per un’infinità numerabile di eventi
a due a due mutuamente esclusivi (A3b).
Si noti che in alternativa all’assioma della numerabile additività molti autori
preferiscono considerare l’assioma di continuità:

  
A3b bis: Continuità della probabilità:

   


ove l’uguaglianza deve valere per ogni successione monotona, crescente o decrescente,
di eventi. È possibile dimostrare che l’assioma di continuità è equivalente a quello
della numerabile additività.
Dagli assiomi di Kolmogorov segue che la probabilità gode anche delle seguenti
proprietà:

11

   
 


P1:

       
 
P2:


      
    

  

 
P3:

 
  
     
P4: (subadditività)
   

 
P5: (monotonicità)

ove le varie relazioni valgono qualunque siano gli eventi o .
In altri termini la probabilità dell’evento impossibile è nulla; la probabilità di una
negazione è semplicemente il complemento ad uno della probabilità dell’affermazione;
la probabilità di una differenza è la differenza tra la probabilità del primo evento e
quella della congiunzione; la probabilità di una disgiunzione è, per eventi non neces-
sariamente mutuamente esclusivi, pari alla somma delle probabilità degli eventi cos-
tituenti meno quella della loro congiunzione; infine la probabilità è crescente rispetto
alla relazione d’inclusione.


 
 
   

W W
        

Figura 1.5: Diagrammi di Ven per


  
           
    

La dimostrazione della prima proprietà segue dall’applicazione dell’additività


all’uguaglianza
  

   
Analogamente, applicando l’assioma dell’additività alla relazione


e tenendo presente l’assioma di normalizzazione si ricava la proprietà P2.


Per quanto concerne P3, consideriamo due eventi arbitrari

e : come è


immediato verificare (vedi figura 1.5) si ha:
  

   

    

       

12
da cui, essendo gli eventi


e

   
mutuamente esclusivi, per l’additività

  
della probabilità si ha che:
 

   
onde la P3.

     
Per quanto concerne la P4 innanzi tutto osserviamo che si ha (vedi figura 1.5):
     
   


con e

     eventi mutuamente esclusivi. Pertanto, per l’additività della
probabilità si ha:
 
      
   
da cui, per la P3, segue l’asserto.
Si noti che la P4 vale anche per un numero finito  o un’infinità numerabile di
eventi, si ha cioè:  
    


 (1.1)

Tale disuguaglianza prende il nome di numerabile subadditività o maggiorazione
dell’unione (Union Bound).
Con ragionamento analogo a quello seguito per la dimostrazione della P4, è pos-
sibile dimostrare anche la monotonicità della probabilità (P5). Precisamente, come

  
illustrato in figura 1.6, risulta:
    

da cui, essendo gli addendi mutuamente esclusivi, segue che:



 

W
  

Figura 1.6: Diagramma di Ven di


  
    

13
      
        
Per comodità del lettore gli assiomi e le proprietà della probabilità sono riassunte
nella tabella 1.4.

       
A1 Non negatività
 
    


A2 Normalizzazione
   
   
  

A3a Finita additività   





       
 
Numerabile
A3b
additività 
    
  
 
 



  


A3b bis Continuità


per ogni successione monotona di eventi.


   
 
P1

    
  
 
P2 Complemento


    
 
  
  
P3 Differenza

 
    
 

   
P4a Unione
   
P4b Subadditività

P4c
Numerabile

      



     
 
subadditività
    
P5 Monotonicità

Tabella 1.4: Assiomi e proprietà della probabilità.

In conclusione, un esperimento aleatorio o spazio di probabilità è la terna


    
1.

dove:
è l’insieme di tutti i possibili risultati sperimentali (spazio dei campioni).

3.
  
2. è la -algebra degli eventi.
è la legge di probabilità soddisfacente gli assiomi di Kolmogorov.

La coppia
   è invece denominata spazio misurabile.


14
1.2 Esempi di spazi di probabilità
In questo paragrafo riprendiamo in esame alcuni degli esempi già considerati allo scopo
di completarli mostrando come definire la legge di probabilità.

1.2.1 Lancio di una coppia di dadi


Si riprenda in esame il lancio di una coppia di dadi: ricordiamo che lo spazio dei
campioni è l’insieme
  "! ! !"# !$ !"% !"& 
    


illustrato in tabella 1.2. Come famiglia di eventi consideriamo l’insieme delle parti di
, cioè:

 
In questo caso lo spazio dei campioni, e quindi anche l’insieme degli eventi, è fini-
to. Conseguentemente è sufficiente assegnare le probabilità agli eventi elementari, per
definire la probabilità di un qualunque altro evento. Infatti ogni evento può sempre
essere riguardato come l’unione degli eventi elementari che lo costituiscono secondo
la relazione

    (1.2)

e, quindi, essendo gli eventi elementari mutuamente esclusivi e dovendo essere la
probabilità additiva, si ha:
  

(1.3)  "



Si noti esplicitamente che la relazione (1.2) vale sempre, cioè sia se il numero di
eventi elementari costituenti l’evento è discreto, sia se tale numero è più che numer-

abile. Viceversa la relazione (1.3) vale se il numero di eventi elementari costituenti
è finito in virtù della finita additività (A3), o se è numerabile, in virtù della numerabile
additività (A3b).
Nel caso in esame non vi è alcuna ragione per cui alcuni risultati dovrebbero veri-
ficarsi preferenzialmente rispetto agli altri, a meno che i dadi non siano truccati; con-
seguentemente gli eventi elementari sono assunti equiprobabili (principio di ragion

 !  !  "    
insufficiente), cioè si pone:

 !  !      
    

   
Conseguentemente in virtù della (1.3) la probabilità di un qualsiasi evento vale:

    

(1.4)

15

ove denota la cardinalità di un insieme.
La funzione cosı̀ definita, come è immediato verificare, è una probabilità nel senso
che soddisfa gli assiomi. Infatti essa è non negativa (A1); inoltre si ha (A2):

    
 
Infine, avendosi


    
   


vale anche la finita additività (A3).


Definita la legge di probabilità calcoliamo la probabilità dei seguenti eventi:

 “facce uguali”
   
  “la“la somma 
somma è compresa fra 7 e 10, estremi inclusi”
è 2, 7 o 8”

   ! !  ! !  !"# !"#  !$ !$  !"% !"%  !"& !"&  
Tali eventi sono i seguenti sottoinsiemi di :
                

   ! !"&  ! !"%  !"# !$  !$ !"#  !"% !  !"& ! 


                 

! !"&  !"# !"%  !$ !$  !"% !"#  !"& !  !"# !"& 
                 

!$ !"%  !"% !$  !"& !"#  !$ !"&  !"% !"%  !"& !$  
                

  ! !  ! !"&  ! !"%  !"# !$  !$ !"#  !"% ! 


!"& !  ! !"&  !"# !"%  !$ !$  !"% !"#  !"& !  
                 

                


le cui cardinalità sono
       

       
Conseguentemente le loro probabiltà valgono:
     


1.2.2 Sorgente binaria senza memoria


Nel caso in cui la sorgente binaria emetta un solo simbolo, lo spazio dei campioni è:
    

mentre gli eventi sono gli elementi di:



              

16
Anche in questo caso l’insieme dei possibili risultati e quello degli eventi sono finiti.
Conseguentemente, sulla scorta di quanto detto nel paragrafo precedente, per assegnare
 
 "  , con
  
una legge di probabilità è sufficiente definire la probabilià dell’evento
, necessariamente deve aversi
 
. Posto infatti
, ove .  "     
Conseguentemente resta definita la probabilità di tutti gli eventi elementari e quindi,
per la (1.2) e la (1.3), la probabilità di un qualsiasi altro evento.

Consideriamo ora il caso in cui la sorgente emetta un pacchetto di lunghezza 3.

    #
Ricordiamo che in tal caso lo spazio dei campioni è:


ed è illustrato nella tabella 1.1. Come algebra degli eventi consideriamo di nuovo
l’insieme delle parti, cioè:

 
Pertanto, ancora una volta, è sufficiente assegnare la probabilità degli eventi elementari
per definire anche la probabilità di un qualsiasi altro evento

. A tal fine asseg-
 
namo un numero non negativo agli eventi elementari come illustrato nella tabella 1.5,
cioè con la legge:

  
  #  
     
   (0, 0, 0 )    #
   (0, 0, 1 )   
   (0, 1, 0 )   
 #   (0, 1, 1)   
$   (1, 0, 0 )   
 %   (1, 0, 1 )   
 &   (1, 1, 0 )   
    (1, 1, 1)   #


  #       
 
Tabella 1.5: Probabilità dei pacchetti di lunghezza 3.
  

       
 
(1.5)
,   ,
 
ove
analogamente
 denota il numero 
denota il numero di 1 presenti nella stringa ed


 di 0. Si estenda poi la legge ad un qualsiasi

          "
sottoinsieme di con la relazione:
 
(1.6)


17
La funzione cosı̀ definita è una probabilità nel senso che soddisfa gli assiomi. In-
vero è immediato verificare la non negatività (A1) e la additività (A3); per quanto
riguarda l’assioma di normalizzazione (A2), con l’ausilio della tabella 1.5 è immediato
verificare che si ha:
      "   #     #    #  


onde l’asserto.
Nel caso di pacchetti di lunghezza arbitraria si può procedere in modo analogo,
cioè definendo la probabilità degli eventi elementari con la posizione


       
 
  

ed utilizzando poi la relazione (1.6) per estendere la legge ad un arbitrario evento.


Anche in tal caso, come è immediato verificare, la corrispondenza (1.6) soddisfa gli
assiomi di Kolmogorov.

1.2.3 Spazio dei campioni discreto


Si osservi che la procedura esposta negli esempi precedenti può in generale essere
utilizzata per definire la legge di probabilità nell’ipotesi che lo spazio dei campioni

  "
sia discreto. Precisamente è sufficiente definire le probabilità degli eventi elementari
con i vincoli

  "       
 "   (1.7)
   (1.8)


utilizzando poi la (1.6) per estendere la probabilità ad un evento arbitrario.


Infatti la probabilità cosı̀ definita è certamente non negativa e, per la (1.8),
normalizzata ad uno. Inoltre, tenendo presente che

           

  

è immediato verificare che vale anche la finita additività se gli eventi e sono dis-
 


giunti. Infine, in modo analogo, è possibile dimostrare anche la numerabile additività
se è infinito numerabile.

18

1.2.4 Coppia di arrivi in
Si riprenda in esame l’esperimento dell’esempio 3, relativo all’arrivo a caso di un vi-
  
aggiatore e di un treno in una certa stazione nell’intervallo , il cui spazio delle
prove è il quadrato:
    
di figura 1.1.1. Tale spazio è infinito non numerabile, precisamente è continuo.
Nel caso di spazi continui, come famiglia di eventi, si considera la più piccola -
algebra contenente gli intervalli (sotto-rettangoli del quadrato nel caso in esame): essa

è costituita dai sottoinsiemi misurabili, per i quali cioè è definita l’area, del quadrato
  
.
Dai dati del problema, cioè arrivi a caso, è ragionevole ipotizzare che la proba-
bilità di avere arrivi in un certo intervallo non dipenda dagli estremi dell’intervallo,
ma solo dalla sua durata, e quindi, più in generale, che la probabilità di un evento sia
proporzionale alla sua area. In altri termini, nel caso in esame, una possibile legge di
probabilità è:
   




  denota l’area di 
 (1.9)


ove , ed è illustrata in fig. 1.2.4, .

 

 








Figura 1.7: Legge di probabilità per lo spazio delle prove dell’esempio 3.

La legge di corrispondenza definita dalla (1.9) è una probabilità in quanto, come è


immediato verificare, è non negativa ed è normalizzata ad 1; inoltre la finita (rispettiva-
mente numerabile) additività segue dalla finita (rispettivamente numerabile) additività
dell’area: sono pertanto soddisfatti gli assiomi.
In particolare, utilizzando la legge di probabilità (1.9), si veda anche la fig. 1.1.1, si

19
ha:
    “viaggiatore e treno arrivano contemporaneamente”" 
  
  

 “il viaggiatore arriva prima del treno” "  


 # 
  

   “il viaggiatore arriva tra   e   ”"        

 
Si noti che l’evento
 “viaggiatore e treno arrivano contemporaneamente”
ha probabilità nulla pur non essendo l’evento impossibile, analogamente l’evento

$
complementare
 “viaggiatore e treno non arrivano contemporaneamente”
ha probabilità uno pur non essendo l’evento certo. Nel primo caso si dice che

è l’evento impossibile con probabilità uno (c.p.u.) o quasi con certezza (q.c.) e,
sinteticamente si scrive
 
 $

c.p.u.
analogamente, nel secondo si dice che è l’evento certo con probabilità uno e,
sinteticamente, si scrive
$  
c.p.u.

In generale si dice che


  
  "  
se e solo se (sse):
       

 
  
o, equivalentemente sse
       

Conseguentemente, considerati due eventi eguali c.p.u., con riferimento ad una gener-
ica prova, la probabilità che uno dei due eventi si possa verificare e l’altro no è nulla,
mentre la probabilità che si verifichino entrambi gli eventi o che non si verifichi nessuno
dei due è uno.

Si osservi infine che la corrispondenza definita dalla (1.9) è una possibile legge

di probabilità ogni volta che lo spazio delle prove è un sottoinsieme di di misura
finita. Qualora si utilizzi la probabilità definita dalla (1.9), si dice che la probabilità è
stata assegnata a caso; tale assegnazione è l’equivalente, per spazi delle prove continui,
dell’equiprobabilità degli eventi elementari considerata nel caso discreto.

20
1.3 Definizioni alternative di probabilità
Storicamente, l’approccio assiomatico non è l’unico utilizzato per definire la prob-
abilità: nel presente paragrafo si considerano brevemente il cosiddetto approccio
classico e quello frequentistico.

1.3.1 Definizione classica


Si riprenda in esame la relazione (1.4) che definisce la probabilità nel caso del lancio

 
di una coppia di dadi. Tale relazione la si interpreta dicendo che la probabilità di un
evento è il rapporto tra il numero di casi favorevoli al verificarsi dell’evento (numero


degli eventi elementari costituenti ) ed il numero dei casi possibili (numero degli
eventi elementari costituenti ).
La legge di probabilità definita dalla (1.4) è la cosiddetta definizione classica di
probabilità. Essa però è applicabile solo ad esperimenti il cui spazio dei campioni
sia finito e implicitamente ipotizza che gli eventi elementari siano equiprobabili. Tale
definizione è pertanto circolare nel senso che nel dare la definizione utilizza il concetto
che si vuole definire.
Tuttavia, con riferimento a spazi delle prove finiti, l’equiprobabilità degli eventi el-
ementari è comunemente assunta quando dai dati del problema non risulti alcuna infor-
mazione che porti a considerare un evento elementare più o meno probabile di un altro.
In altri termini la perfetta simmetria tra gli eventi elementari giustifica l’assunzione
della loro equiprobabilità: Principio di simmetria o Principio di ragion insufficiente.

1.3.2 Frequenza relativa


In alternativa all’approccio assiomatico si può definire la probabilità sulla scorta della


frequenza relativa di un evento. A tal fine si definisce frequenza relativa di un evento

in prove come il rapporto:
 
  



tra il numero di volte  




 
che si verifica l’evento ed il numero complessivo 
delle prove. La probabilità di è poi definita come il limite della frequenza relativa

in prove, indipendenti ed effettuate tutte in identiche condizioni, al divergere di 
 
(Legge empirica del caso): in altri termini, si pone:

   
 


(1.10)

Tale definizione però postula l’esistenza del limite ed è circolare in quanto il con-
cetto di indipendenza è esso stesso un concetto probabilistico (vedi sezioni successive)
cosı̀ come l’effettuare le prove in identiche condizioni.

21
Nell’ambito dell’approccio assiomatico, come si vedrà in un prossimo capitolo,
è possibile però dimostrare che la frequenza relativa, in opportune ipotesi che tra-
ducono in termini precisi l’affermazione “prove indipendenti ed effettuate in identiche
condizioni”, converge alla probabilità (Legge dei grandi numeri).
Si osservi però che la (1.10) ha notevole valore operativo in quanto, in ipotesi di

  
norma soddisfatte in pratica, risulta:



 



Tale relazione fornisce la base per la stima di una probabilità.

0.9

0.8

0.7
Frequenza relativa

0.6

0.5

0.4

0.3

0.2

0.1

0
0 1 2 3 4


10 10 10 10 10


Numero di lanci

Figura 1.8: Andamento della frequenza relativa dell’evento  “facce uguali” .

A scopo illustrativo si riprenda in esame il lancio di una coppia di dadi,


precedentemente analizzato, ed in particolare l’evento:
 “facce uguali”
la cui probabilità vale:
   
In figura 1.8 è riportato l’andamento della frequenza relativa di tale evento in funzione
del numero delle prove: l’andamento della frequenza di successo è molto irregolare

22
se il numero delle prove è basso, ma, mano a mano che tale numero cresce, lo scosta-
mento dal valore precedentemente calcolato diventa trascurabile. Nella stessa figura
l’andamento della frequenza di successo è riportato per tre diverse serie di prove: i vari
andamenti sono inizialmente molto diversi, ma la loro differenza è trascurabile se il
numero delle prove è sufficientemente elevato.
Si osservi infine che gli andamenti riportati in figura 1.8 si possono anche inter-
pretare come la conferma sperimentale delle ipotesi che sono alla base dell’analisi
precedentemente effettuata.

1.4 Tecniche di conteggio


Dagli esempi precedenti risulta che, nel caso di esperimenti aleatori con insieme dei
risultati finito, è spesso possibile ipotizzare l’equiprobabilità degli eventi elementari
dato che, nelle situazioni più comuni, non si hanno ragioni sufficienti per poter ritenere
che un qualsiasi evento elementare sia più o meno probabile rispetto ad un altro. In
tal caso la probabilità di un generico evento è data dal rapporto tra il numero di casi
favorevoli ed il numero dei casi possibili, secondo la (1.4), e quindi può essere calcolata
semplicemente contando il numero di elementi costituenti l’evento di interesse. Più
in generale, saper valutare la cardinalità di un sottoinsieme finito torna utile anche
per spazi dei campioni finiti, ma con eventi elementari non equiprobabili, oltre che in
contesti diversi da quello della probabilità.
Il primo, fondamentale, risultato consiste nel delineare un metodo sistematico per
poter contare il numero delle sequenze di lunghezza ( -ple ordinate) di elementi
appartenenti, nel caso più generale, ad insiemi diversi.

Esempio: Si è interessati a contare il numero di tutte le possibili sequenze di lunghezza


2 che si ottengono lanciando prima una moneta e poi un dado. A tal fine, come
illustrato nella tabella 1.6 per ognuno dei 2 possibili risultati del lancio della

! ! !"# !$ !"% !"&


    !      !      !"#     !$     !"%     !"& 
  !   !   !"#   !$   !"%   !"&
Tabella 1.6: Coppie ordinate per il lancio di una moneta e di un dado.

cosı̀ un insieme composto da  coppie diverse.



moneta bisogna considerare i 6 possibili risultati del lancio del dado, ottenendo
 
Il risultato stabilito nell’esempio precedente è un caso particolare del seguente:

23

Teorema fondamentale del conteggio (o Principio di moltiplicazione): La cardina-
lità dell’insieme definito dal prodotto cartesiano
      

  
ove
  è un insieme finito, di cardinalità   , è:
    

  

ovvero:

     

  

In particolare si ha:
  



Prova: è costituito da tutte le -ple ordinate
         
            
 


in

Poiché il primo elemento della -pla può essere scelto in
modi diversi e cosı̀ via, segue l’asserto.
modi diversi, il secondo
Q.E.D.

Esempio: Detto alfabeto di una sorgente l’insieme di tutti i simboli differenti che essa

     #  $ 
può emettere, si consideri la sorgente con alfabeto
  
(1.11)

costituito da 4 simboli. Calcolare il numero di pacchetti di lunghezza 3 ( - 


pacchetti) ed il numero di pacchetti sempre di lunghezza 3 costituiti da simboli


tutti diversi tra loro.

 #
I -pacchetti sono le terne ordinate di simboli dell’alfabeto , cioè gli elementi

 
dell’insieme la cui cardinalità, a norma del teorema fondamentale, vale:
#  #  #  
Detto poi
#
il sottoinsieme dei -pacchetti, costituiti da simboli tutti diversi tra 
loro, la sua cardinalità la si ricava tenendo presente che, dovendo essere i simboli
della terna tutti diversi, il primo simbolo, diciamolo , va scelto nell’alfabeto,  
cioè nell’insieme
  
di cardinalità
     
24
  
 
Il secondo simbolo, diciamolo , va scelto nell’alfabeto privato del simbolo

      
precedentemente scelto e quindi nell’insieme
 
di cardinalità
   


ed, infine, il terzo, diciamolo , nell’alfabeto privato dei due simboli        


         
precedentemente scelti e quindi nell’insieme
#  

di cardinalità
 #  
In definitiva si ha:


#       #          

Esempio: Si consideri l’estrazione di 4 carte da un mazzo di carte napoletane (40


carte), effettuata in due modalità differenti:
a. dopo ogni estrazione la carta estratta viene reinserita nel mazzo di carte;
b. dopo ogni estrazione la carta estratta non viene reinserita nel mazzo di carte.
Calcolare il numero di tutte le possibili quaterne di carte nei due casi.

Nel primo caso, indicando con



l’insieme costituito dalle 40 carte napoletane,


si ottiene che, per ognuna delle 4 estrazioni, il risultato sarà sempre un elemento
di . Ciò significa che l’insieme di tutte le sequenze di 4 carte cosı̀ ottenute,
che comprende anche quelle sequenze in cui la stessa carta si ripete più volte, è
l’insieme
         $
la cui cardinalità, per il principio di moltiplicazione, è:
 $   $   $         

Nel secondo caso si esclude la possibilità che la stessa carta possa ripetersi e

onda sarà un elemento di

quindi, mentre la prima carta estratta apparterrà ancora all’insieme
cioè dell’insieme
, la sec-
meno il risultato della prima

25
estrazione e cosı̀ via. Pertanto, detto
$
il sottoinsieme delle sequenze di 4 carte
tutte diverse tra loro, la sua cardinalità, a norma del teorema fondamentale, vale:


$        #   $                 

Gli esempi precedenti mettono in evidenza due caratteristiche fondamentali delle


-ple considerate: la prima è la loro natura intrinseca di sequenze, cioè gruppi costi-
tuiti da un insieme ordinato di elementi. Si parla quindi di -ple ordinate che, come
risulta evidente dagli esempi, possono differire anche solo per l’ordine degli elementi
che le compongono, cioè non per il loro valore ma per la loro posizione all’interno
della sequenza. La seconda caratteristica viene evidenziata dal fatto che, nel contare
le sequenze, il conteggio dà luogo a risultati diversi a seconda che gli elementi pos-
sano ripetersi o meno. Nei due casi si parla rispettivamente di conteggio con e senza
ripetizione.
Sulla scorta di quanto detto precedentemente, supposto di estrarre gli elementi cos-
   

tituenti la -pla tutti da uno stesso insieme di cardinalità
 , le -ple ordinate


di elementi di , cioè gli elementi di
 
, sono . Viceversa le -ple ordinate, con
, senza ripetizione di elementi di sono:
        

  
     

 
 
ove denota il fattoriale di 1 .
Si noti che, mentre l’insieme delle -ple ordinate con ripetizione non è mai vuoto
  
per ogni e naturali, quello delle -ple ordinate senza ripetizione è vuoto per
Le -ple ordinate di elementi di un insieme , finito e non vuoto, di cardinalità
.

 
sono anche dette disposizioni, con o senza ripetizione, di elementi su posti.

Pertanto il numero delle disposizioni, con ripetizione, di elementi su posti, denotato
con  , vale:
  

Analogamente, il numero delle disposizioni, senza ripetizione, di elementi su posti,

dette anche permutazioni di elementi su posti, denotato con , vale:
          

  
     

    
1 Ricordiamo che si definisce fattoriale di un numero naturale , e lo si denota appunto con
, il prodotto

dei primi numeri naturali, cioè:




Il fattoriale può anche essere valutato ricorsivamente con la relazione:

  

ove, per convenzione, si assume !"


# .

26
 
In particolare, le disposizioni, senza ripetizione, di elementi su posti sono dette
permutazioni ed il loro numero vale:
 

Esse sono le -ple ordinate, senza ripetizione, di tutti gli elementi dell’insieme ,
 
e quindi differiscono soltanto per la posizione dei singoli elementi all’interno della
sequenza.
Gli esempi precedenti si riferiscono a situazioni in cui l’ordine è rilevante, ma es-
istono altre situazioni in cui l’ordine dei singoli elementi all’interno della -pla non
rappresenta una caratteristica discriminante, come illustrato dal seguente:


Esempio: Supponiamo che siamo interessati a considerare i gruppi di 2 simboli di-
versi, estratti dall’alfabeto (1.11) di 4 simboli, ma questa volta senza essere


interessati all’ordine. In altri termini siamo interessati a valutare il numero di tutti
i possibili sottoinsiemi di di cardinalità 2. Tale numero può ricavarsi da quel-
lo delle coppie ordinate di simboli diversi, identificando quelle che differiscono

$   
solo per l’ordine. Il numero delle coppie ordinate è


Tra queste, quelle che differiscono solamente per l’ordine dei simboli, e che si
ottengono l’una dall’altra permutando, cioè scambiando di posizione, i simboli

tanto il numero $
che le costituiscono, sono, per le considerazioni precedenti, in numero di 2!. Per-
di coppie non ordinate, estratte da un alfabeto di 4 simboli,
è: 
$     
Tali coppie sono dette combinazioni di classe 2 dei 4 elementi dell’alfabeto.
 
Più in generale i sottoinsieme di cardinalità di un insieme , di cardinalità , sono

dette combinazioni di classe degli elementi di . Sulla scorta delle considerazioni


fatte nell’esempio precedente, si ha che il numero delle combinazioni di classe di
elementi, denotato con , vale:

    
  
Ovvero, 
 
ove si è introdotto il coefficiente binomiale:
 
    
27
Ricordiamo che tali coefficienti possono essere valutati ricorsivamente con il trian-
golo di Tartaglia riportato in figura 1.9: in tale triangolo ogni riga inizia e termina con
un 1, inoltre ogni elemento interno di una riga si ottiene sommando i due elementi che
lo sovrastano nella riga precedente.


 
  
   
   
    








 







 






Figura 1.9: Triangolo di Tartaglia

Esempio: Si consideri l’estrazione contemporanea, cioè senza criteri di ordinamento,


di 5 carte da un mazzo di 52 carte francesi. Valutare la probabilità dell’evento:

 “le 5 carte sono tutte dello stesso seme” 


Per calcolare la probabilità richiesta occorre innanzitutto definire lo spazio dei
campioni dell’esperimento considerato. Esso è costituito da tutte le cinquine di
carte differenti; inoltre, per simmetria, gli eventi elementari sono equiprobabili.
Ci troviamo quindi in condizioni di poter applicare la regola (1.4) per il calcolo


della probabilità per cui è necessario calcolare le cardinalità sia dello spazio dei
campioni che dell’evento . Poichè nella situazione in esame non ha importanza
l’ordine delle carte che costituiscono la generica cinquina, la cardinalità dello
spazio dei campioni è pari al numero di combinazioni di classe 5 di 52 elementi,

           
cioè

    

         

  

Per quanto riguarda il calcolo della cardinalità dell’evento d’interesse, si osservi

 
prima che esso può essere visto come l’unione dei seguenti 4 eventi mutuamente
esclusivi:
 
 

 
“si estraggono 5 carte di cuori”
 
“si estraggono 5 carte di quadri” 
 
“si estraggono 5 carte di fiori”
“si estraggono 5 carte di picche”

28
Tali eventi sono equipotenti e la cardinalità di ciascuno è pari al numero di
combinazioni di classe 5 di 13 elementi (il numero di carte dello stesso seme),
cioè
 
       
    

     

e quindi la cardinalità dell’evento di interesse, essendo l’unione di 4 eventi


mutuamente esclusivi, è pari alla somma delle cardinalità dei singoli addendi,
cioè
   
      

   
In definitiva la probabilità di estrarre 5 carte dello stesso seme è:

    
  

   
 

Esempio: Si consideri l’emissione di un pacchetto di lunghezza 5 da parte di una


sorgente binaria. Calcolare il numero di pacchetti contenenti 2 simboli 1.

Per poter contare le sequenze con due 1 si consideri un alfabeto fittizio compos-

posizioni si ottengono
 %
to da tre 0 e due 1. Permutando i 5 simboli dell’alfabeto su tutte le possibili

sequenze con tre 0 e due 1. A causa della pre-
senza di simboli uguali, però, alcune delle permutazioni cosı̀ ottenute risultano
indistinguibili; precisamente sono indistinguibili tutte le sequenze che si otten-
gono dalla permutazione di simboli uguali. Poichè nell’alfabeto ci sono tre 0 e
due 1, le permutazioni che, a partire da una certa disposizione dei simboli, danno
luogo a sequenze indistinguibili sono in numero di
 
. Ciò significa che, per  
dividere il numero iniziale per
  %  
ottenere il numero di sequenze diverse in cui sono presenti tre 0 e due 1, bisogna
. In conclusione, il numero delle sequenze
in cui sono presenti 2 simboli ”1” è:

  

 
   

cioè il numero delle combinazioni di classe 2 di 5 elementi.


Allo stesso risultato si perviene se il problema viene riformulato come conteggio
di tutte le possibili coppie delle posizioni dei simboli 1 estratte fra le 5 possibili
posizioni all’interno della sequenza. In tal modo risulta evidente che si deve
calcolare il numero delle coppie non ordinate (le posizioni degli 1) di elementi

29
appartenenti ad un insieme di cardinalità 5 (le possibili posizioni all’interno della
sequenza) e cioè il numero delle combinazioni di classe 2 di 5 elementi:

    

Il risultato ottenuto in questo esempio si può ovviamente generalizzare al con-



teggio delle sequenze binarie di lunghezza in cui siano presenti simboli 1: il

loro numero è dato dalle combinazioni di classe di elementi, cioè:

 



Le combinazioni di classe di elementi sono i sottoinsiemi di cardinalità di

un insieme di cardinalità : gli elementi costituenti il sottoinsieme sono però tutti
distinti. In alcuni casi invece si è interessati a calcolare il numero di insiemi di cardi-
nalità costituiti da elementi dell’insieme consentendo però che i singoli elementi

possano ripetersi, come illustrato dal seguente

Esempio: Si riprenda in esame il lancio di una coppia di dadi: i possibili risultati sono
le coppie ordinate di elementi di
  "! ! !"# !$ !"% !"&      

! !"# 

dalla coppia
  !# ! 
Ovviamente è implicito in tale assunzione la possibilità di distinguere la coppia

e simili: ciò è ad esempio possibile se i due dadi
sono di colore diverso. Se non è possibile distinguere tali coppie allora l’insieme
dei possibili risultati dell’esperimento è l’insieme delle coppie non ordinate, con
eventuale ripetizione degli elementi; precisamente è l’insieme:
 "!  ! "  "!
  ! "  " !  "! #   " !  ! $   " !  "! %  "! "! & 
  

"!  !  "!   !"#   "!  !$   "!  !"%   "!  !"& 

  ""!"!$# 

!"#  "!"#


!$  "!$



!$ 
!"% 


"!"#
"!$


!"% 
!"&


"!"#  !"& 

"!"%  !"%   "!"%


  !"& 

"!"&  !"&
di cardinalità
  .


Per contare gli insiemi di cardinalità costituiti da elementi appartenenti ad un

insieme di cardinalità , con possibilità di ripetizione, si può operare come segue.

30
 

Si supponga di aver a disposizione scatole numerate da 1 ad , rappresentanti gli
elementi di , e biglie, una per ogni elemento da scegliere: ogni -pla non ordinata
con ripetizione si può ottenere ponendo le biglie nelle scatole; ovviamente porre più
biglie nella stessa scatola equivale a scegliere più volte l’elemento corrispondente a tale

estratti dall’alfabeto
      #
  
, di $  
scatola. A scopo illustrativo in figura 1.10 sono riportati alcuni insiemi di elementi

elementi. Dalla figura è evidente

    # 
 
  # $
    $ 
 
   #  $
   $  $ 
 
   #  $
Figura 1.10: Disposizioni non ordinate (combinazioni), con ripetizione di 4 elementi
su 3 posti.

che ad ogni disposizione delle 3 barre (le barre denotano le pareti di separazione delle

singole scatole mentre le doppie barre denotano le due pareti terminali che non vanno
 
con ripetizione, dall’alfabeto
      #  $ 
considerate) e delle 3 biglie corrisponde un sottoinsieme di
  
elementi estratti,
e viceversa. Pertanto il numero
di disposizioni non ordinate con ripetizione di 4 elementi su 3 posti coincide con il
numero di sequenze binarie di lunghezza 6 costituite da 3 barre e 3 biglie, cioè con le
disposizioni non ordinate (combinazioni) di classe 3 di 6 elementi:

    

Generalizzando il ragionamento esposto con riferimento al caso precedente, si ha



che il numero delle disposizioni non ordinate con ripetizione di elementi su posti,

 
dette anche combinazioni con ripetizione di classe di elementi, sono date da


  
biglie , cioè di
  
in quanto coincidono con le possibili combinazioni di classe di barre più
elementi. Si osservi esplicitamente che, cosı̀ come per le
disposizioni ordinate, anche nel caso delle combinazioni la ripetizione degli elementi
permette di prendere in considerazione situazioni in cui il numero di posti risulta

maggiore del numero di elementi, per cui la formula precedente è valida anche per
 
.

31
Disposizioni con ripetizione senza ripetizione

        

 
ordinate
 
    
non ordinate
(combinazioni)
      

Tabella 1.7: Disposizioni di elementi su posti.

In tabella 1.7 sono riassunti i risultati stabiliti relativamente alle possibili dis-

posizioni, ordinate e non ordinate, con e senza ripetizione, di elementi su
posti.

1.5 Eventi indipendenti


Da un punto di vista intuitivo due eventi sono indipendenti se non si influenzano: se
cioè il verificarsi dell’uno non altera le aspettative che si hanno sul verificarsi o meno
dell’altro. Tale punto di vista intuitivo, come sarà meglio chiarito nel prossimo para-


grafo quando verrà introdotta la probabilità condizionata, viene formalizzato con la


 
seguente definizione: due eventi e si dicono indipendenti se:

      

(1.12)


Si noti che tale definizione è simmetrica nel senso che se è indipendente da anche

è indipendente da .



Eventi non indipendenti sono anche detti correlati.
 
Si osservi che se e sono indipendenti lo sono anche e , e , e (vedi
    
Ex. 1.22).
Osserviamo esplicitamente che la definizione di indipendenza non va confusa con
quella di eventi mutuamente esclusivi. Infatti se gli eventi e

sono indipenden-

ti allora la loro probabilità congiunta è data dalla (1.12); conseguentemente possono
essere anche mutuamente esclusivi solo se almeno uno dei due ha probabilità nulla.
Pertanto eventi mutuamente esclusivi, aventi probabilità non nulla, sono correlati. Tale
affermazione si giustifica anche intuitivamente: infatti se gli eventi sono mutuamente
esclusivi il verificarsi dell’uno esclude il verificarsi dell’altro e quindi saper o meno
che uno dei due si è verificato influenza la nostra aspettativa sul verificarsi o meno
dell’altro.

32
di eventi: precisamente gli eventi
      
La definizione di indipendenza può essere generalizzata ad un numero arbitrario
si dicono statisticamente indipendenti


                 


se per ogni sottoinsieme di eventi
   

si ha:
                





  

  
In altri termini  eventi sono indipendenti se lo sono a coppie, terne, quaterne, etc..

Esempio: Sorgente binaria senza memoria (continuazione)


Si riprenda in esame l’emissione di un pacchetto lungo 3 con l’assegnazione di

        
probabilità definita dalla (1.5) e dalla (1.6) e valutiamo se gli eventi
  

sono indipendenti.
Con l’ausilio della tabella delle probabilità degli eventi elementari (tabella 1.5)
e tenendo presente la costituzione degli eventi di interesse illustrata nella tabella

    "     #
1.8, è immediato verificare che:

  


     "  # 
  #   "     # 


  # 
  
  # 
  
  # 
  

$
% # #
( 1, 0, 0) ( 0, 1, 0) ( 0, 0, 1)

& & %
( 1, 0, 1) ( 0, 1, 1) ( 0, 1, 1)
( 1, 1, 0) ( 1, 1, 0) ( 1, 0, 1)
  
      #       
( 1, 1, 1) ( 1, 1, 1) ( 1, 1, 1)

Tabella 1.8: Terne costituenti gli eventi 


        .   

        "
In modo analogo, con l’ausilio della tabella 1.9, si ha:
  # 
 # 


     #  " 


# 


      #   " 

33

  # 
  
  # 
  
  # 
  

& ( 1, 1, 0) % ( 1, 0, 1) # ( 0, 1, 1)
  
               #         #  
( 1, 1, 1) ( 1, 1, 1) ( 1, 1, 1)

Tabella 1.9: Terne costituenti gli eventi 


                     .

Pertanto gli eventi


           

#
sono indipendenti a coppie. Avendosi inoltre
            #  "       "
   
gli eventi
           

sono indipendenti.
In modo del tutto analogo si può verificare che gli eventi:
           
    

generico evento elementare


  
 #  
sono indipendenti. Ciò si esprime sinteticamente dicendo che le coordinate del

sono indipendenti; in altri termini i bit
sono emessi indipendentemente l’uno dall’altro. Invero l’assegnazione di prob-
abilità agli eventi elementari riportata in tabella 1.5 è stata effettuata ipotizzando
l’indipendenza dei vari bit, e ciò spiega anche l’attributo senza memoria dato alla
sorgente binaria considerata.

1.6 Probabilità condizionata


Spesso, con riferimento ad un determinato esperimento, le probabilità cambiano in
relazione all’eventuale informazione disponibile in merito ai risultati dell’esperimento
stesso. Intuitivamente la probabilità di ottenere “un due” lanciando un dado è diversa
dalla probabilità che si verifichi tale evento se è noto che il risultato della prova è pari.
Tale considerazione viene formalizzata introducendo la probabilità condizionata. A


        
tal fine, dato un evento , avente probabilità non nulla, si consideri la corrispondenza:
  
 


  
     
(1.13)

34
Tale corrispondenza soddisfa gli assiomi di Kolmogorov e, quindi, definisce una nuova

 
legge di probabilità denominata la probabilità condizionata. Invero si ha:
  
    
       
     

           
   





 

  
  
   
         
 

    


La definizione data di probabilità condizionata soddisfa le condizioni che intu-
itivamente sono richieste alla probabilità condizionata. Infatti, dalla (1.13) segue
che:
   
 



     
      

 

    




 

  

  
   
        
  
La prima di tali relazioni afferma che, se il verificarsi di

è condizione sufficiente

per il verificarsi di , allora la probabilità di condizionata a deve essere uno; la
 

 

 
seconda asserisce che, se il verificarsi di è condizione necessaria per il verificarsi

di , allora la probabilità di condizionata a non deve diminuire; infine la terza

relazione afferma che se e sono mutuamente esclusivi, allora il verificarsi dell’uno
esclude il verificarsi dell’altro e, quindi la probabilità dell’uno condizionata all’altro
deve essere nulla. Tali proprietà sono illustrate in figura 1.11.

                             
                                                  
                                                     
                                                            
                                                                            
                                               
W W W

Figura 1.11: Proprietà della probabilità condizionata

Si noti inoltre che, se


 e

sono statisticamente indipendenti ed a probabilità non

35
nulla allora risulta:
   
 


  
  
 
 

 

     


In altri termini, per eventi statisticamente indipendenti, il verificarsi o meno dell’uno

   
non muta la probabilità di verificarsi dell’altro. Viceversa per eventi correlati proba-


bilità a priori e probabilità condizionate differiscono. In tal caso, se

si dice che è positivamente correlato a , altrimenti si dice che è negativamente
   



correlato a . È possibile dimostrare che se è correlato positivamente a allora



Si noti che
   
anche è positivamente correlato ad (vedi esercizi).

oltre che probabilità di condizionata a è anche numerica-
 


mente uguale alla verosimiglianza di per . Le due nozioni però sono diverse: invero


  

da
 
, come già detto è una legge di probabilità, mentre la verosimiglianza, definita

, come è facile verificare, non lo è. In altri termini nel primo caso l’evento
condizionante è fisso, mentre varia quello condizionato; nel caso della verosimiglianza
invece, è l’evento condizionato a non variare, mentre quello condizionante varia.
Il significato della probabilità condizionata è ulteriormente chiarito dalla sua
interpretazione frequentistica. Infatti, secondo tale interpretazione risulta:

  
 
    



 


prove gli eventi

 
ove   e  denotano rispettivamente il numero di volte che si verificano in

e, rispettivamente, . Pertanto la probabilità condizionata è la


frazione di volte che si verifica l’evento non più in tutte le prove, ma limitatamente
 
a quelle in cui si verifica . In altri termini le prove in cui non si verifica vanno
scartate e non contribuiscono più al calcolo della frequenza relativa.
La definizione di probabilità condizionata e le sue proprietà sono presentate
sinteticamente nella tabella 1.10.
Introdotta la probabilità condizionata, è possibile estendere la definizione di eventi
indipendenti ad eventi condizionalmente indipendenti. Precisamente, due eventi e


 
si dicono condizionalmente indipendenti dato l’evento

a probabilità non nulla

  
 
( ) se

  
    (1.14)

Analogamente alla definizione (1.12), l’indipendenza equivale alla fattorizzazione


della probabilità congiunta, ma, in questo caso, la probabilità considerata è quella
condizionata.

36
    
 


  
     

       
Probabilità condizionata
    



   

   

  
Proprietà  
    
  
 
  

  

 

Eventi indipendenti     
Tabella 1.10: Probabilità condizionata e sue proprietà.

  
Anche in questo caso, come è immediato verificare, si ha
 
     
    

cioè l’ulteriore condizionamento a (rispettivamente ad ) non ha alcun effetto sulla

probabilità condizionata a .
In modo del tutto analogo si estende la definizione di indipendenza condizionale a
più di due eventi.

1.7 Leggi Fondamentali


Legge della probabilità congiunta: Dalla definizione di probabilità condizionata
segue che:
 

              
Tale relazione esprime la cosiddetta legge della probabilità congiunta (o compos-
ta): la probabilità di una congiunzione di eventi è data dal prodotto della probabilità
incondizionata dell’uno per la probabilità condizionata dell’altro.

              
Più in generale sussiste la seguente Regola della catena:





  

 






Legge di Bayes:
 
Dalla legge della probabilità congiunta segue che:
   



     

Tale relazione è nota come legge o formula di Bayes e consente di scambiare i ruoli di
evento condizionato e condizionante.

37
Legge della probabilità totale: Si consideri una partizione    finita  
termini, gli eventi

   
o numerabile dell’evento certo costituita da eventi aventi probabilità non nulla; in altri
, sono a due a due mutuamente esclusivi e necessariamente


in ogni prova si verifica uno ed uno solo di tali eventi. In tale ipotesi la probabilità di
un qualsiasi evento può calcolarsi con la seguente relazione, nota come legge della
probabilità totale:         
     
Invero, essendo
 una partizione dell’evento certo, si ha:

  
   
 

 

Essendo le congiunzioni

 
come illustrato in figura 1.12 con riferimento ad una partizione finita dell’evento certo.
  
, a loro volta a due a due mutuamente esclusive,

per l’additività della probabilità si ha:
     


da cui, per la legge della probabilità composta, segue l’asserto.

                                          
                                           

                                          
                                          
                                          
                                           
                                          
                                          
                                          
                                          
                                          
                                           


W

Figura 1.12: Partizione dell’evento certo ricoprente



Legge di Bayes, seconda formulazione. Esprimendo nella formula di Bayes la
probabilità dell’evento condizionante a mezzo della legge della probabilità totale si

 
ottiene la seguente formulazione alternativa della legge di Bayes
    
    
 
   

  

Per comodità del lettore la definizione di probabilità condizionata, le sue proprietà


e leggi fondamentali della probabilità sono riassunte nella tabella 1.11.

38
Legge della  

     
        
probabilità congiunta:
   





Regola della catena:            









      
  


   

      
Legge di Bayes: 

  

     


Legge della
probabilità totale:

     
partizione discreta di

Legge di Bayes
seconda formulazione
     


 

   


Tabella 1.11: Leggi fondamentali.

Esempio: canale binario simmetrico (BSC) Si consideri il canale binario simmetri-


co (BSC) di figura ove:
 
  


"



-
e sono rispettivamente l’ingresso e l’uscita del canale;
  
-
- 

  

   ;

 "    

  

  " .

 
   ;
Dimostrare che:


 
assegnati e , è definita la probabilità di ogni evento
la probabilità d’errore
   

 
" è uguale a indipenden-
temente dal valore di ;
  
per
  
ingresso ed uscita del canale sono indipendenti;
per i simboli d’ingresso e di uscita omonimi sono correlati,
positivamente se

e negativamente se
 
;   
se i simboli in ingresso sono equiprobabili lo sono anche in uscita.

Calcolare inoltre la legge di probabilità sullo spazio d’ingresso condizionata al


generico valore del simbolo d’uscita.
Il BSC rappresenta un semplice modello di canale di comunicazione “rumoroso”.
In tale canale, a causa del rumore, non sempre il simbolo di uscita coincide
col simbolo d’ingresso, in quanto vi è una probabilità di errore condizionata

39

0 

0



1  

1
Figura 1.13: Schemi del BSC

pari ad . Il canale è detto “simmetrico” perché le probabilità di ricevere un


simbolo diverso da quello trasmesso, noto il simbolo trasmesso, non dipende
dal particolare simbolo trasmesso. Si osservi che l’aleatorietà dei simboli di
uscita scaturisce da una duplice casualità: l’incertezza sul simbolo d’ingresso,
che è aleatorio, e l’incertezza sull’aver il canale introdotto o meno un errore. Per
poter separare gli effetti di questo duplice meccanismo aleatorio bisogna quindi
condizionare al valore dell’ingresso e considerare le probabilità dei simboli di


uscita, dato il simbolo d’ingresso.
Cominciamo con l’osservare che, in questo caso, come spazio campione

possibile considerare l’insieme di tutte le possibili coppie


, ovvero

 è

      
             


e come eventi tutti i sottoinsiemi di .
Calcoliamo, ad esempio, la probabilità dell’evento elementare
       ;

applicando la legge della probabilità congiunta si ha:
  
       "
  "    "


  
     
   
 

  

Dal momento che il calcolo della probabilità degli altri eventi elementari si
svolge in maniera analoga si è mostrato che la probabilità di ogni evento è
funzione di ed .
La probabilità d’errore si può calcolare con la legge della probabilità totale;


infatti si ha:
   "  
 
 

 "  "  "  "




     
  
     



  
Tale probabilità è quindi indipendente dal valore di . Si noti che questo risultato
è dovuto all’ipotesi di simmetria del canale e non è più valido nel caso in cui le

40

0 0 0  0



1  1 1


Figura 1.14: BSC non rumoroso

due probabilità di errore condizionate dipendano dal simbolo d’ingresso. Inoltre,


si osservi che il caso più sfavorevole corrisponde ad

; infatti, se
    
  
invertendo il simbolo di uscita posso ottenere una probabilità di errore pari a

. In particolare i valori

ed corrispondono entrambi al caso   
di canale non rumoroso, in quanto l’uscita del canale specifica univocamente
l’ingresso, come illustrato in fig. 1.14
Per stabilire in quali ipotesi i simboli in ingresso ed in uscita al BSC siano o
meno indipendenti calcoliamo la probabilità di avere un certo simbolo di uscita.
Applicando ancora la legge della probabilità totale si ottiene:
    "
"      "        

  "      " 
 


              
  


  

  " ; in alternativa, è sufficiente 

osservare che l’evento   è il complemento dell’evento    ; si ha



 


In modo analogo è possibile valutare


 


pertanto:
  

 "     

  "     


Da tali relazioni si trae la conclusione che, per    è


  

  "    

 "   
ossia i simboli di uscita sono equiprobabili indipendentemente dal valore della
  
 "  
probabilità dei simboli di ingresso . Inoltre, nell’ipotesi si ha:
  

  "    

   

       
e quindi i simboli di uscita sono indipendenti dai simboli di ingresso. E’ evidente
che in tal caso la trasmissione di simboli è del tutto inutile: infatti, poiché i
simboli di uscita sono equiprobabili ed indipendenti dai simboli d’ingresso si
possono ottenere le stesse prestazioni rinunciando alla trasmissione e generando
localmente l’uscita del canale completamente a caso, ad esempio lanciando una
moneta bilanciata.

41
Ora, si osservi che, dalle espressioni delle probabilità a priori dei simboli
d’uscita segue che:

     "     "      
  "  "       
     

 
 

 

  

   

Di conseguenza, ci si rende conto che:

- Se allora  


, ,
  

      "    

  "     
ossia i simboli d’ingresso e di uscita sono positivamente correlati quando


assumono lo stesso valore;
- Se  
ingresso ed uscita sono indipendenti, qualsiasi sia il valore di ,

     "   "   
come già discusso;
- Se allora



, ,
  

    

  

ossia i simboli d’ingresso e di uscita sono negativamente correlati quando


assumono lo stesso valore, coerentemente con la precedente osservazione
che per
 
è opportuno invertire i simboli di uscita.

Analogamente risulta:

     "    "         
  "  "     
     

 
 

 

   

  

Quindi:

- Se  
allora


, , ossia
  

      "    

  "     
i simboli d’ingresso e di uscita sono negativamente correlati se assumono

     "  "   
valori diversi;
- Se

allora


, , ossia
  

     

  

i simboli d’ingresso e di uscita sono positivamente correlati se assumono


valori diversi.

Per verificare che i simboli di uscita sono equiprobabili se lo sono i simboli di


ingresso è sufficiente sostituire nelle espressioni generali delle loro probabilità,
precedentemente calcolate, a il valore

. Si noti che, in tale ipotesi, i simboli

d’uscita sono equiprobabili indipendentemente dal valore di .
Infine, il calcolo della legge di probabilità sullo spazio di ingresso condizionata
al generico valore del simbolo di uscita si esegue applicando la legge di Bayes:

    "     "      "   


  "



 

   


 

   

42
Ad esempio, supposto, per semplicità, e di aver osservato in uscita il   
valore

, le probabilità dei simboli d’ingresso sono date da:
 

    

  "     

   

  " 
Si può quindi notare come l’osservazione di un simbolo in uscita modifichi la
legge di probabilità dei simboli di ingresso in maniera dipendente dal valore
di . In particolare, per
 
o per

, tale distribuzione è fortemente

asimmetrica, il che è indice del fatto che il canale può operare con prestazioni
soddisfacenti.

1.8 Probabilità, incertezza ed informazione.


La definizione quantitativa del contenuto informativo di un evento è legato alla
probabilità di tale evento. Invero si considerino le seguenti affermazioni:

- Domani, 15 agosto, sarà una bella giornata.

- Domani sera il capo del governo e quello dell’opposizione si esibiranno in uno


spogliarello in piazza.

e chiedamoci quale delle due ha un maggior contenuto informativo. L’ovvia risposta è


la seconda delle due, in quanto la prima è scontata, mentre la seconda è sorprendente.
In altri termini, da un punto di vista intuitivo, ha un elevato contenuto informativo
un’affermazione molto imprevedibile. Ciò è in accordo con un noto luogo comune
del giornalismo: notizia non è un cane che morde una persona, ma una persona che
morde un cane. Quindi, anche nel linguaggio comune, il contenuto informativo di
un’affermazione è legato alla sua probabilità di verificarsi: precisamente più un evento
è improbabile maggiore è l’informazione che fornisce, una volta che si sia verificato.
 
 
 
Considerato uno uno spazio di probabilità , ci proponiamo di definire
 
quantitativamente l’informazione associata all’evento .
A tal fine, osserviamo che dalla discussione precedente segue che è ragionevole
richiedere che il contenuto informativo di un evento , diciamolo

 
 
, debba essere
 
   
una funzione decrescente della , vale a dire
               

(1.15)
 
Allo scopo di stabilire ulteriori proprietà da imporre alla si consideri una sor-
gente binaria senza memoria, cioè che emette i simboli (bit) indipendentemente l’uno
dall’altro, e si prendano in esame i seguenti eventi:

43
  

     
“Il primo simbolo emesso è 1”
“Il secondo simbolo emesso è 1”

“Il primo ed il secondo simbolo emessi sono 1”



le cui probabilità valgono:
             

       
poichè le emissioni sono indipendenti. Inoltre da quanto detto precedentemente risulta:
 
   

     
 
Dal momento che le emissioni sono indipendenti, è ragionevole imporre che:
 
   
(1.16)

cioè che l’informazione sia additiva per eventi indipendenti.


Infine, in aggiunta alle condizioni (1.15) e (1.16), si richiede anche che l’informa-
zione sia non negativa, si impone cioè:
      
È possibile dimostrare che l’unica funzione che soddisfi le tre condizioni
   
(1.17)

desiderate, che sia cioè decrescente con la probabilità dell’evento (1.15), additiva per

  
eventi indipendenti (1.16) e non negativa (1.17), debba essere del tipo:
 
       
(1.18)

Si osservi che la definizione (1.18) garantisce anche che ad un evento a probabilità uno,
in particolare all’evento certo, è associato un contenuto informativo nullo, come deve
intuitivamente essere dal momento che il verificarsi di un tale evento non aggiunge
alcuna informazione supplementare.
Inoltre, si noti che avendosi: 

    

 

le costanti ed concorrono a fissare l’unità di misura dell’informazione.


La scelta di gran lunga più comune per definire il contenuto informativo associato

  
ad un evento è:
 

 
(1.19)

e l’informazione espressa dalla (1.19) è misurata in bit.
Il significato di tale scelta è illustrato dal seguente esempio. Si consideri una
sorgente binaria che emetta un simbolo
tra due simboli equiprobabili; in tal caso

  
l’informazione associata ai singoli simboli vale:
  

  "    

 "   


44
Pertanto 1 bit è l’informazione associata ad una scelta tra due alternative equiprobabili.
Si osservi che usualmente il termine bit è di solito utilizzato con due diversi sig-
nificati: il primo, quello introdotto in questo paragrafo, cioè come unità di misura
dell’informazione (bit=binary information unit); il secondo come sinonimo di cifra bi-
naria (bit=binary digit). I due concetti sono però profondamente diversi e non vanno
confusi; in particolare, una cifra binaria ha l’informazione di un bit se e solo se le due
cifre sono equiprobabili.

45
1.9 Esercizi

Ex. 1.1 Un esperimento aleatorio consiste nel provare il funzionamento di una lam-
padina osservando la sua durata. Definire il corrispondente spazio dei campioni, speci-
ficando se è di tipo continuo o di tipo discreto. Si individuino inoltre i seguenti


eventi:
 ”la durata della lampada è superiore a 10”

  ”la durata della lampada è non inferiore a 5”
 ”la durata della lampada è compresa tra 5 e 30”
Ex. 1.2 Si determini lo spazio dei campioni relativo al doppio lancio di un dado. Si

   ”la somma dei due lanci è 5”


individuino inoltre i seguenti eventi:

 ”primo lancio pari” 



  ”primo lancio pari e la somma dei due lanci è 5”

 ”primo lancio pari oppure la somma dei due lanci è 5”
Ex. 1.3 Si consideri un canale binario, cioè un mezzo di trasmissione che accetta in
ingresso simboli “0” e “1” e fornisce in uscita simboli “0” e “1”. A causa dei disturbi
presenti sul canale, però, non sempre il simbolo in uscita è uguale a quello che viene
effettivamente trasmesso, è cioè possibile che si verifichi un errore di trasmissione.
Per tale motivo, il funzionamento del canale binario può essere correttamente descritto
come un esperimento aleatorio. Si individuino lo spazio dei campioni relativo alla

  ”si è verificato un errore nella trasmissione del simbolo 1” 


trasmissione di un solo simbolo e gli eventi:

  ”si è verificato un errore di trasmissione” 




 ”si è ricevuto il simbolo 0” 

 ”si è trasmesso il simbolo 1”

carte napoletane. Considerato l’evento


  
Ex. 1.4 Un esperimento aleatorio consiste nell’estrarre tre carte da un mazzo di


le carte estratte sono tutte di coppe” ,


stabilire in quali delle seguenti estrazioni si verifica l’evento :

 (2 di bastoni, 5 di coppe, asso di denari)

#  (asso di spade, 7 di denari, 10 di spade)

$ (asso di spade, 6 di coppe, 10 di spade)


(asso di coppe, 2 di coppe, 3 di coppe)

46
Ex. 1.5 Si considerino i quattro gruppi sanguigni 0, A, B e AB. Una qualsiasi persona
può ricevere il sangue da un donatore del suo stesso gruppo ed anche da un donatore del
gruppo 0, mentre una persona del gruppo AB può ricevere il sangue da uno qualsiasi dei
quattro gruppi. Un esperimento aleatorio consiste nel determinare il gruppo sanguigno
per ogni coppia di donatori che arriva in una banca del sangue.

1. Si determini lo spazio dei campioni relativo a quest’esperimento.

  ”il secondo donatore può ricevere il sangue dal primo” 


2. Si individuino i seguenti eventi:


    ”ciascuno dei due donatori può ricevere il sangue dall’altro”
 ”nessuno dei due donatori può ricevere il sangue dall’altro”
3. Nell’ipotesi che gli eventi elementari siano equiprobabili, si calcolino le
probabilità dei tre eventi individuati.

Ex. 1.6 Una moneta non truccata viene lanciata quattro volte. Si determini lo spazio

  ”si ottengono esattamente tre teste” 


dei campioni e si calcoli la probabilità dei seguenti eventi:

  ”si ottiene almeno una testa” 




 ”il numero di teste è uguale al numero di croci” 

 ”il numero di teste è maggiore del numero di croci” 
 
 
Ex. 1.7 Dati due eventi e si mostri che:
     
 
Ex. 1.8 Calcolare le seguenti probabilità:
 ;


a.
  ;
   

b.


 

c. ;

    ;.

d.


        
e.
    

sapendo che: 

Ex. 1.9 e
 
sono due eventi tali che
      e
       . Stabilire se


   
sono mutuamente esclusivi. Più in generale mostrare che e non sono mutuamente


esclusivi se le loro probabilità soddisfano la relazione .

47
Ex. 1.10 Dimostrare la seguente disuguaglianza di Bonferroni:
 

     
   
Ex. 1.11 Due persone, Tizio e Caio, tentano di telefonarvi a caso tra le 17 e le 18
indipendentemente l’una dall’altra. Tizio, avendo un unico gettone prevede una tele-
fonata di tre minuti, mentre Caio, che ha due gettoni, prevede una telefonata di sei
minuti. Ipotizzando che ognuno faccia un solo tentativo, calcolare:

- la probabilità che Tizio o Caio riescano a parlarvi;


- la probabilità che Tizio e Caio riescano a parlarvi.

Ex. 1.12 L’esperimento in esame consiste nel valutare la durata di un componente.


  
 
Verificare che lo spazio delle prove è e che la corrispondenza:
     
  

è una legge di probabilità per l’esperimento in esame.

Ex. 1.13 Un esperimento ha

risultati possibili. Dimostrare che si possono
 

individuare al più eventi distinti relativi a tale esperimento.

Ex. 1.14 Siano e due eventi a probabilità non nulla. Dimostrare che se sono
indipendenti non sono mutuamente esclusivi e viceversa.

Ex. 1.15 Relativamente all’esperimento del lancio di una coppia di dadi non truccati,

  ”facce uguali”
si considerino gli eventi

   ”la somma è compresa fra 7 e 10 (inclusi)”


  ”la somma è 2, 7 o 8” 
Si verifichi se i tre eventi sono indipendenti.

                   
Ex. 1.16 Si consideri l’esperimento in cui i possibili risultati sono le terne
          

  c’è una 


Assunti equiprobabili gli eventi elementari, si verifichi se gli eventi

in posizione
         

sono indipendenti.

48
Ex. 1.17 Gli eventi
   
  
sono indipendenti. Posto
    , determi-
nare la probabilità che:
a) non se ne verifichi nessuno;
b) se ne verifichi almeno uno;
c) se ne verifichi esattamente uno, non importa quale.

Ex. 1.18 Un generatore deve alimentare 5 carichi intermittenti connessi in parallelo;


ciascun carico è collegato per un quarto del tempo, indipendentemente dagli altri, ed
assorbe 2W.
Determinare un appropriato spazio di probabilità atto a descrivere il problema in
esame. Sapendo che il generatore può al più erogare 6W, determinare inoltre con che
probabilità non si possa soddisfare la richiesta di potenza.

Ex. 1.19 Dimostrare che è più facile ottenere almeno un 6 lanciando un dado 4 volte
che un 12 lanciando due dadi 24 volte.

Ex. 1.20 Si lancia un dado finchè non esce la stessa faccia due volte consecutive.
Valutare la probabilità di lanciare il dado N volte.

Ex. 1.21 Due giocatori, A e B, lanciano alternativamente una moneta e vince chi per
primo ottiene testa. Si assuma che A inizi il gioco. Determinare la probabilità che vinca
A supposta la moneta ben bilanciata. Ripetere il calcolo per una moneta arbitraria.


Ex. 1.22 Dimostrare che se
 e

sono eventi indipendenti, allora anche
 e

,
 e
 
, e , lo sono.

 
Ex. 1.23 Siano e due eventi. Dimostrare che se
         allora  e

sono statisticamente indipendenti.


Ex. 1.24 Dimostrare che se è positivamente (rispettivamente negativamente) corre-

  
lato a allora anche è positivamente (rispettivamente negativamente) correlato a
.

              
Ex. 1.25 Dimostrare la regola a catena della probabilità, cioè che





  

 







49
        
Ex. 1.26 Sia
 una partizione discreta dell’evento . Dimostrare che

      
per ogni evento risulta
  


 

Ex. 1.27 Da un mazzo di carte francesi (senza jolly) si sottrae una carta senza
guardarla. Poi si gira un’altra carta: con quale probabilità quest’ultima è di fiori?

Ex. 1.28 Una moneta non truccata viene lanciata 10 volte e gli esperimenti (lanci)
     " 
"
sono tutti indipendenti. Calcolare:
qualsiasi . Dire se
  teste

teste e 1 croce in ordine
testa al decimo lancio 9 teste nei primi 9 lanci è minore,
"
uguale o maggiore di 0.5. Stabilire se è più facile avere N teste e N croci su 2N lanci o
N+1 teste e N+1 croci su 2N+2 lanci.

Ex. 1.29 Un treno arriva a caso in una stazione nell’intervallo e vi sosta






minuti. Un viaggiatore, a sua volta, arriva alla stazione in un istante qualsiasi dello
stesso intervallo di tempo, indipendentemente dal treno. Determinare:

quanto deve valere  affinchè il viaggiatore prenda il treno con probabilità 0.68.
la probabilità di prendere il treno senza aspettare;

dopo

la probabilità di prendere il treno senza aspettare, sapendo che il treno è arrivato

.

Ex. 1.30 Alle elezioni, il signor K vota per la lega (evento ). Stabilire con quale

    


       
probabilità vive nel nord ( ), centro ( ) o sud ( ) dell’Italia sapendo che:
     

     
,



 

     
,
,




    

Ex. 1.31 Uno studente può sostenere l’esame di Economia con uguale probabilità con
i professori A, B e C, i quali bocciano con probabilità 0.1, 0.3 e 0.2 rispettivamente.
Sapendo che uno studente è stato bocciato, qual è la probabilità che abbia sostenuto
l’esame con A?

lancio con probabilità


 
Ex. 1.32 Un giocatore disonesto trucca un dado in modo da ottenere il numero 6 in un
e un qualsiasi altro risultato con probabilità

. Sfortu-
 
natamente (per lui) al momento del lancio il dado truccato si trova mescolato con altri

50
due dadi non truccati. Il giocatore sceglie un dado a caso, lo lancia, e ottiene 6. Val-
utare la probabilità che sia stato lanciato il dado truccato. Ripetere il calcolo sapendo
che, lanciato una seconda volta lo stesso dado, si è ottenuto ancora 6.

 # $
         
Ex. 1.33 Due terminali, A e B, sono connessi tra loro tramite quattro interruttori

# $
 
; precisamente e sono connessi in serie tra loro e in parallelo a
ed a . Nell’ipotesi che gli interruttori possano essere aperti o chiusi con uguale
probabilità indipendentemente l’uno dall’altro, determinare:

un appropiato spazio di probabilità atto a descrivere il problema in esame;


la probabilità che i terminali A e B siano connessi;
la probabilità che i terminali A e B siano connessi, sapendo che l’interruttore



è chiuso;
la probabilità che l’interruttore
 $ sia chiuso, sapendo che i terminali sono
connessi.

 
    
Ex. 1.34 Tre sorgenti binarie indipendenti emettono il simbolo 1 con probabilità
 
e sono connesse tramite un interruttore ad un BSC di parametro .
L’interruttore è connesso per il 50% del tempo alla prima sorgente, e per il 25% del
tempo a ciascuna delle altre due sorgenti indipendentemente dallo stato della sorgente.
Determinare:

le probabilità dei simboli in uscita al BSC;


la probabilità che il canale sia connesso alla prima sorgente avendo osservato uno
zero in uscita al BSC.

51