Sei sulla pagina 1di 6

LA PROBABILITA' (II PARTE)

LA PROBABILITA' CONDIZIONATA Supponiamo di avere 2 eventi A e B con

p( B) > 0 .
Si definisce

p( A \ B) =

p( A I B) p( B)

(*)

e si legge "probabilit di A condizionata a B".

Interpretazione come frequenza: Chiamo n(B) il numero di volte in cui si verifica B, lo stesso vale per

n( A I B )

p( A I B) = p( B)

lim
n

Vediamo quindi, al crescere di n, quante volte si verifica A nelle volte in cui si verificato B. Esempio del dado = { 1, 2,3, 4,5, 6} A = { 1} > p ( A) = B = { 1,3,5} 1 (gli eventi sono equiprobabili) 6 (esce un risultato dispari)

n( A I B ) n( A I B ) n = lim n( B ) n( B ) n n

La probabilit che sia uscito 1 nell'ipotesi che si abbia avuto un risultato dispari : 1 p ({ 1} ) 1 p( A \ B) = =6= 3 3 p({ 1,3,5} ) 6

OSSERVAZIONI

1) TEOREMA DELLA PROBABILITA' COMPOSTA


Si pu riscrivere l'espressione in un secondo modo:

p( A I B) = p( A \ B) p( B) p ( A I B ) , non facile,

utile per trovare trovare.

mentre le altre sono semplici da

2) FORMULA DI BAJES Sia

p ( A) 0

(per ipotesi)

p ( B \ A) =

p ( B I A) p ( B I A) = p( B \ A) p( A) p ( A)

sostituendo in (*), si ottiene la

p( A \ B) =
BAJES

p ( B \ A) p ( A) p( B)

FORMULA DI

INTERPRETAZIONE GRAFICA DELLA PROABILITA' CONDIZIONATA

La probabilit condizionata un restringimento dello spazio dei campioni: se B resta fisso e si fa variare A come se avessimo un nuovo spazio dei campioni che chiamiamo B. Anche con B spazio dei campioni devono valere gli assiomi della probabilit. Infatti:

1) p ( A \ B ) 0 2) p ( B \ B) = 1 3) p(UAk \ B ) = p ( Ak \ B ) Ai I A j = per ogni i,j


k k

Dimostrazioni 1) le probabilit sono sempre maggiori di 0, quindi il rapporto maggiore di 0. 2)

p ( B \ B )=
3)

p( B I B p( B) = =1 p( B) p( B)

p (UAk \ B ) = =

p ((UAk ) I B )
k

p( A
k

p( B) =
k

p (U( Ak I B ))
k

p( B)

I B)

p( B)

p( Ak I B) = p ( Ak \ B ) p( B) k

Gli assiomi valgono anche nel caso in cui B = spazio dei campioni. In effetti la probabilit condizionata una probabilit con uno spazio dei campioni ristretto.

La probabilit condizionata serve anche per esprimere la seguente espressione molto importante. Abbiamo

{ Bi }
B k I Bj =

UB
i

= p ( A) = p (A I Bi )
i

Sono eventi mutualmente esclusivi ed esaustivi

A = A I = A I (UBi ) = U( A I Bi )
i

Poich sono presenti probabilit di intersezione, cerchiamo di scriverle come probabilit condizionate:

p(A I
i

Bi ) = p(A \ Bi ) p( Bi ) = p ( A)
i

L'espressione trovata rappresenta il teorema delle PROBABILITA' TOTALI. Serve se abbiamo una famiglia di eventi di cui conosciamo la probabilit e per i quali pi semplice calcolare la

probabilit dell'intersezione piuttosto che quella dell'evento A. C' anche un'altra espressione: supponiamo di avere Bk e di voler calcolare p(Bk\A) supposto che p(A) sia diverso da zero p ( Bk \ A) = p( Bk I A) p ( A \ Bk ) p ( Bk ) = n p ( A) p( A \ Bi ) p( Bi )
i =1

tale espressione prende il nome di TEOREMA DI BAJES.


ESEMPIO DI APPLICAZIONE DEL TEOREMA DI BAJES Abbiamo 2 monete: la moneta 1 con probabilit equa ( p(T) = 1/2), la moneta 2 non equa (p(T) = 2/3) Mettiamo le monete nel barattolo e ne lanciamo una a caso; se esce croce, qual la probabilit che abbiamo lanciato la moneta 1? Intuitivamente diremo che la prima pi probabile della seconda. Soluzione

1 2 1 B2 = " stata scelta la moneta 2" con p ( B2 ) = 2 B1 = " stata scelta la moneta 1" con p ( B1 ) = B2 = B1
A rappresenta l'evento esce croce

A = { C} p ( B1 \ A) = p ( A \ B1 ) = p( A \ B1 ) p( B1 ) p ( A \ B1 ) p ( B1 ) + p ( A \ B2 ) p ( B2 ) 1 2

p ( A \ B2 ) =

1 3

La probabilit maggiore del 50% in quanto la probabilit che esca C con la moneta 1 del 50%, mentre la probabilit che esca C con la moneta 2 solo 1/3.

1 1 1 3 2 2 p ( B1 \ A) = = 2 = > 50% 1 1 1 1 5 5 + 2 2 3 2 6

EVENTI INDIPENDENTI--------------------IMPORTANTE!!!!!!!! Dati 2 eventi A e B, si dice che essi sono indipendenti se e solo se

p ( A I B ) = p( A) p ( B )
Supponiamo che A e B sono indipendenti e che p(B) sia diverso da zero per ipotesi, allora

p( A \ B) =

p ( A I B) p ( A) p ( B) = = p ( A) p( B) p( B)

Ci dimostra che se i due eventi sono indipendenti il verificarsi di B non condiziona il verificarsi di A:

p ( A \ B) = p ( A)
Allo stesso modo si ottiene anche che

p ( B \ A) = p ( B )
ESEMPIO

con p ( A) 0

Nel lancio di due dadi, consideriamo gli eventi: A = "risultato dispari col primo dado" B = "risultato dispari col secondo dado" C = "la somma dei due risultati dispari" Determinare se gli eventi sono a due a due indipendenti:

1 2 1 p( B) = 2 1 p (C ) = 2 p ( A) =

p( A) p ( B ) = p ( A) p (C ) = p( B) p (C ) =

1 4

Tutti i casi possibili nel lancio di due dadi sono 36

A I B = { ( 1,1) , ( 1,3) , ( 1,5 ) , ( 3,1) , ( 3,3) , ( 3,5 ) , ( 5,1) , ( 5,3) ( 5,5 ) } p ( A I B) = 1 4

A I C = { ( 1, 2 ) , ( 1, 4 ) , ( 1, 6 ) , ( 3, 2 ) , ( 3, 4 ) , ( 3, 6 ) , ( 5, 2 ) , ( 5, 4 ) ( 5, 6 ) } p( A I C ) = 1 4

B I C = { ( 2,1) , ( 4,1) , ( 6,1) , ( 2,3) , ( 4,3) , ( 6,3) , ( 2,5 ) , ( 4,5 ) ( 6,5 ) } p( B I C ) = 1 4

Gli eventi sono tutti indipendenti tra loro a 2 a 2. INDIPENDENZA DI EVENTI NEL CASO MAGGIORE DI DUE

Dati gli eventi A1 , A2 ,..., An sono indipendenti se e solo se valgono le seguenti relazioni: p ( Ai I Aj ) = p( Ai ) p ( Aj ) p ( Ai I Aj I Ak ) = p ( Ai ) p( Aj ) p ( Ak ) con i j k p ( Ai I Aj I ... I An ) = p( Ai ) p( Aj ) ... p ( An )
Nel caso dell'esempio precedente dei due dadi, per stabilire l'indipendenza dei 3 eventi, bisogna verificare che

p ( A I B I C ) = p ( A) p ( B ) p (C ) 1 1 1 1 p ( A) p ( B) p (C ) = = 2 2 2 8

mentre

A I B I C = > p( A I B I C ) = p () = 0

Quindi gli eventi sono a 2 a 2 indipendenti, ma non tutti fra loro indipendenti. Nel caso di numero di eventi maggiore di due, vale la definizione di indipendenza di questo paragrafo. Per 2 eventi vale la precedente.