Sei sulla pagina 1di 16

Lezione 12 - 17/03/21

Continuiamo l'esercizio della scorsa volta risolvendolo:


Esercizio b un gioco consiste nel lanciare le due monete di prima.
Si vince se si ottengono 2 Teste e si perde negli altri casi.
Ripetiamo questo gioco 5 volte . Si consieri X la V.A. "n° totale di vittorie".
- Calcolare P(X = 2)
- Calcolare P(X = 2|X ⩽ 2)

P({ X = 2 }|{ X ⩽ 2 })
Soluzione
Nella singola prova la probabilità di vittoria è:
1 1 1
⋅ =
2 3 6
Noi abbiamo 5 prove indipendenti.
1
X è binomiale(5, ).
6
k 5-k
5 1 1
P(X = k) = 1-
k 6 6
2 5-2
5 1 1
P(X = k) = 1-
2 6 6
La seconda parte ci richiede invece:
X=2 ⊂ X⩽2 2 3
5 1 1
⏜⏟⏟⏟ ⏝⏟⏟⏟ ⏞
P X = 2, X ⩽ 2 2
1- 6
P(X = 2) 6
P(X = 2|X ⩽ 2) = = = j 5-j
=
P(X ⩽ 2) P(X ⩽ 2) 2 5 1 1
⏠⏣⏣⏣
⏡⏣⏣⏣ ⏢ ∑ 1-
FX (x) j=0 j 6 6
P(X = 2)
=
P(X = 0) + P(X = 1) + P(X = 2)

Introduciamo ora una nuova V.A. discreta.

Variabile aleatoria Ipergeometrica


V.A. discreta.
La descriviamo tramite un esperimento proababilistico:
Consideriamo una popolazione di N individui.
La popolazione è divisa in due sottopopolazioni:
N

N-S

Indichiamo con S il n° di individui che possiede una certa caratteristica �.


Abbiamo la partizione della popolazione in individui con e senza la caratteristica.
Estraiamo n individui dagli N grandi senza ripetizioni.
Quale è la probabilità che k individui abbiamo la caratteristica �?
Definizione Variabile aleatoria Ipergeometrica
Penso alla V.A. X che contra il numero di individui che abbiano � nel campione estratto di
n
individui.
Chiameremo X V.A. ipergeometrica.
NB questa è una estrazione ripetuta in cui l'urna cambia ad ogni estrazione di
composizioni
C'è dipendenza tra le varie estrazioni, che sono di fatti delle prove Bernoulliane:
� → successo
C
� → fallimento
Determiniamo la densità discreta di X:
Penso al supporto, quanti individui con la caratteristica � posso avere?
k individui k individui
hanno � non hanno �
⏜⏟⏟ ⏞⏜⏟⏟
⏝⏟⏟
S
⏝⏟⏟
N-S

k n-k (1)
P(X = k) = , k ∈ S = { 0, 1, 2, … , n }
N
n
⏠⏣⏣
⏡⏣⏣

combinazioni
S! (N-S)!
⋅ (n-k)!(N-S-(n-k))!
k! S - k !
= (2)
N!
n!(N-n)!
Nella parte quadrettata di (2) vediamo che se k è maggiore di S (cioé voglio estrarre 5
individui dai 4 che hanno �) verrebbe un fattoriale negativo, che in valore assoluto vale ∞
e
che quindi l'inverso vale 0.

Questo perché il fattoriale è un caso particolare della funzione gamma:


�(x)
Quando x è intero:
�(k) = (k - 1)!
Disegniamo la funzione gamma:

�(x)

-4 -3 -2 -1 0 1 2 3 4

A seconda del limite si può andare a +∞ o a -∞

Quando il fattoriale diventa negativo cioé


�(0) = (-1)!
Come vediamo la funzione esplode cioè:
|�(0)| = ∞
Quindi questa è la scrittura generale semplicemente protrebbero venire dei fattoriali di
numeri negativi che fanno sì che la formula dia 0.

Esempio n=5 e la sequenza B = �, � C , � C , �, � C


Voglio valutare:
ho appena estratto
un individuo senza
caratteristica

S N-S
⏜⏟⏟⏟
⏝⏟⏟⏟
N-S-1
⏞ S-1 N-S-2
P(B) = ⋅ ⋅ ⋅ ⋅
N N-1 N-2 N-3 N-4
⏠⏣⏣
⏡⏣⏣

un individuo
è stato estratto
In generale:
esaurisco i k successi
⏜⏟⏟⏟⏟⏟⏟ ⏝⏟⏟⏟⏟⏟⏟
S S-1 S-2

2-k+1 N-S N - S - (n - k) + 1
P �=�1 ,� 2 ,…,� n ) = ⋅ ⋅ ⋅…⋅ ⋅ ⋅…⋅
con k successi N N-1 N-2 N-k+1 N-k N-k- n-k +1
Altri ordini di estrazione non avebbero cambiato le probabilità per la proprietà
commutativa
del prodotto.

Chiamo:
Xk (�) = � k
Xk è la V.A. che restituisce la componente k-esima della sequenza.
E considero l'evento:
Ak = { Xk = � }
Quindi:

P( �, �, � C , � C , �, � C = P A 1 ∩ A 2C ∩ A 3C ∩ A 4 ∩ A 5C =
= P A 5 |A 1 ∩ A 2C ∩ A 3C ∩ A 4 ⋅ P A 1 ∩ A 2C ∩ A 3C ∩ A 4 = (3)

La probabilità quadrettata in (3) sono già in grado di calcolarla:


N-S-2
= ⋅ P A 1 ∩ A 2C ∩ A 3C ∩ A 4
N-4
Mi sono quindi liberato di una intersezione:
N-S-2
= ⋅ P A 4 |A 1 ∩ A 2C ∩ A 3C ⋅ P A 1 ∩ A 2C ∩ A 3C =
N-4
⏠⏣⏣⏣⏣⏣ ⏡⏣⏣⏣⏣⏣
estrarre un individuo con la ⏢
caratteristica conoscendo le
estrazioni precedenti
N-S-2 S-1
= . ⋅ P A 1 ∩ A 2C ∩ A 3C =
N-4 N-3
N-S-2 S-1
= . ⋅ P A 3C |A 1 ∩ A 2C ⋅ P A 1 ∩ A 2C =
N-4 N-3
N-S-2 S-1 N-S-1 N-S S
= . ⋅ ⋅ ⋅
N-4 N-3 N-2 N-1 N
In generale:
S(S - 1) ⋅…⋅ (S - K + 1)(N - S)(N - S + 1) ⋅…⋅ (N - S - n - k + 1)
P(X = k) =
⏠⏣⏣⏣ ⏡⏣⏣⏣ N(N - 1) ⋅…⋅ (N - n + 1)
probabilità di ⏢
una (4)
sequenza con k
successi
E quindi questa è la probabilità per una sequenza di k successi.
Quindi questo va moltiplicato per il numero di sequenze.
Perciò (4) diventa (consideriamo le sequenze ordinate).

n S(S - 1) ⋅…⋅ (S - K + 1)(N - S)(N - S + 1) ⋅…⋅ (N - S - n - k + 1(5)


)
P(X = k) =
k N(N - 1) ⋅…⋅ (N - n + 1)

Queste due densità discrete che abbiamo derivato in (1) ed in (5) dovranno essere la
stessa
cosa perché sono relative alla stessa V.A.
Prendiamo allora (1) e riscriviamola come (5):
S! (N-S)!

k! (S-k)! (n - k)! (N-S-n+k)!
P(X = k) = =
N!
n! (N-n)!
n! S(S - 1) ⋅…⋅ (S - k + 1)(S - k)! ⋅ (N - S)(N - S - 1) ⋅…⋅ (N - S - n + k + 1)
= ⋅
k!(n - k)! (S - k)!N(N - 1) ⋅…⋅ (N - n + 1)
⏠⏣⏣⏣
⏡⏣⏣⏣
n ⏢
k

Quindi (1) e (5) sono la stessa formula QED ⊠

Variabile aleatoria di Poisson


Variabile aleatoria unidimensionale de discreta
Definizione variabile aleatoria di Poisson
Diremo che X ha densità di Poisson di parametro � ∈ R + , se:
�k
P(X = k) = e -� , k = 0, 1, 2, 3, …
k!
Osservazione nello sviluppo di Taylor
+∞ +∞ +∞
�k �k
-� �
1=e e =e -� ∑ = ∑ e -�
= ∑ P(X = k)
k=0 k! k=0 k! k=0

Proprietà che lega Poisson alle binomiali


La binomiale conta il numero di successi in prove Bernoulliane indipendenti.
Sia:
(Xn ) n∈N *
una successione di V.A. binomiali tali che:


Xn ∼ BIN n, , ∀n ∈ + N *
n
k n-k
n � � (6)
P(Xn = k) = 1-
k n n
Cosa succede per n → +∞
Riscrivo (6) ma con il limite:
n-k

1-
n

k ⏜⏟⏟⏟⏟
n⏝⏟⏟⏟⏟

-k
n! � � �
lim P(Xn = k) = lim 1- 1- =
n → +∞ n → +∞ k!(n - k)! n n n
n(n - 1) ⋅…⋅ (n - k + 1)(n - k)!
(n - k)!

�k
⏜⏟⏟⏟⏟⏟ ⏝⏟⏟⏟⏟⏟ ⏞
n(n - 1) ⋅…⋅ (n - k + 1) �
n

-k

= lim 1- 1-
=
k! n → +∞ nk n n
⏠⏣⏣⏡⏣⏣

porto fuori ⏠⏣⏣⏣⏣⏣
=⏡⏣⏣⏣⏣⏣
1
⏠⏣⏣⏣
⏢ limite ⏡⏣⏣⏣ ⏢
notevole ⏠⏣⏣⏣
=⏡⏣⏣⏣
1 ⏢
dal limite
tutto ciò che non al numeratore ho k termini = e -� per n → +∞
dipende da n siccome al denominatore ho n k per n → +∞
posso semplicemente prendere
ogni termine (che è meno di n)
e dividerlo per n
� k -k
= e
k!
Quindi il limite di questa successione di Binomiali diventa una Poisson.


Nelle successione la probabilità di successo è , quindi dipende da n è diventa molto
n
piccola all'aumentare di n.
Perciò le prove diventano "quasi quasi-impossibili" per n molto grande.
Così come il numero di prove è numericamente n, quindi all'aumentare di n, in
conclusione,
ho tantissime prove con molta poca probabilità di successo.
L Poisson diventa un'approssimazione della binomiale quando ho questi presupposti.

Per questo motivo:


Definizione legge degli eventi rari
La poisson viene anche detta legge degli eventi rari.
Proprietà di composizione per le Variabili Aleatorie
Sia X una V.A. , X : Ω → R con funzione di disttribuzione F X e sia g : R → R una
funzione
borel-misurabile (cioè misurabile rispetto alla � - algebra di Borel).
Allora la funzione:
Y = g◦X:Ω→R
è una Variabile Aleatoria.
Dimostrazione
Consideriamo lo spazio di probabilità:
(�, F, P)
E tramite la V.A. andiamo in R e tramite g "riandiamo" in R.
Y mi fa invece fare il salto diretto.
Ω X g
R R

Y = g◦X
Allora:
∀B ∈ B(R)
Y (B) = � ∈ Ω / Y(�) ∈ B } = { � ∈ Ω / (g ◦ X)(�) ∈ B } = � ∈ Ω / X(�) ∈ g -1 (B)
-1

Notiamo che:
• B ∈ B(R) perché l'ho scelto io
• g -1 (B) ∈ B(R) per la misurabilità di g
X -1 g -1 (B) ∈ F
• ∥ per la misurabilità di X
-1
Y (B)
Quindi è misurabile e quindi è una V.A.

Visto che Y è una V.A. allora:


(�, F, P) ↷ (R, B(R), PY )
e

P Y (B) = P(Y ∈ B) = P(g ◦ X) ∈ B) = P X ∈ g -1 (B)


⏠⏣⏣ ⏡⏣⏣ ⏢
lo chiamo
C∈B(R)
Perciò io posso valutare la denistà discreta di Y tramite la distribuzione di probabilità della
X
e la funzione g.
Osservazione
Analogamente:
X : Ω → Rd , d ∈ N*
g : Rd → Rk , k ∈ N*
Allora:
Y = g◦X
è una variabile aleatoria.

Esempio
X : Ω → R2
g : R 2 → R , g borel-misurabile
Y : Ω → R è una V.A.
Esempio Lancio due dadi

X1 = "risultato del primo dado"


X2 = "risultato del secondo dado"
X = (X 1 , X 2 )
Y = g(X) = g((X1 , X2 )) = X1 + X2

Potrebbero piacerti anche