Sei sulla pagina 1di 12

Esercitazione 6 - 30/3/21

Esercizio 1 Un'urna contiene n palline numerate da 1 a n, estraiamo k palline dalle n


disponibili uniformemente a caso e con ripetizione, sommo i numeri scritti sulle palline.
Determinare media e varianza del totale.
Dobbiamo pensare ogni estrazione modella da una V.A. e pensare alla somma di queste
VV.AA. che è una V.A. a sua volta, della quale voglio solo sapere il valore atteso e la
varianza.
Voglio cioè sapere il valore medio e la dispersione dei valori rispetto ad esso.
Voglio sapere quanto sia allargato il supporto.
Soluzione

"numero scritto
Xi = sulla pallina alla , i = 1, … , k
i-esima estrazione"
k
T = ∑ Xi
i=1
T e la V.A. somma di tutti i risultati.
k k
ET = E∑ Xi = ∑ EXi (1)
i=1 i=1

Quindi adesso devo solo calcolare i singoli valori attesi di ogni X i


Cosa possiamo dire sui singoli X i , essendoci ripetizione, le X i sono identicamente
distribuite.
Siccome sono identicamente distribuite allora (1) diventa:
k
= ∑ EX1 = kEX1
i=1
Il valore atteso del totale è k volte il valore atteso di una di esse.
Quindi:
1
n n
n
1
EX1 = ∑ rP
⏜⏟⏟
⏝⏟⏟

( X 1 = r) = ∑r =
r=1 ⏠⏣⏣⏣
⏡⏣⏣
⏢ n r=1
la probabilità di ⏠⏣⏣
⏡⏣⏣

estrarre la pallina r è somma dei
uguale per tutte le palline primi n
numeri naturali
1 n(n + 1) n + 1
= ⋅ ≡
n 2 2
Otteniamo:
n+1
ET = k
2
2
VarT = ET 2 - ET
⏠⏣⏣
⏡⏣⏣

lo conosco
2
k k k k k k k
2
ET = E ∑ Xi =E ∑ Xi2 + ∑ ∑ Xj Xr = ∑ EXi2 + ∑ ∑ E(Xj Xr ) =
i=1 i=1 j=1 r=1 i=1 j=1 r=1 ⏠⏣⏣ ⏡⏣⏣⏣ ⏢ (2)
j≠r j≠r momento misto

⏠⏣⏣⏣⏣ ⏡⏣⏣⏣⏣
sviluppiamo ⏢
il quadrato

Definizione momento misto


Simile alla covarianza, ma calcolato sui momenti non centrati, siano X,Y VV.AA. il loro
momento misto si definisce come:
E(XY)

Tornando a (2), sfruttando nuovamente la identica distribuzione delle VV.AA.


k k k
= ∑ EX12 + ∑ ∑ E(X1 X2 ) =
i=1 j=1 r=1
j≠r
L'argomento della somma non dipende da i, né da j, né da r
= kEX12 + k(k - 1)E(X1 X2 ) (3)

Calcoliamo il momento secondo di X 1 e ricordo che se le VV.AA. sono identicamente


distribuite allora possiamo calcolare il valore atteso al quadrato di una di esse.
(3) perciò diventa:
n
= k∑ i 2 P(X1 = i) + k(k - 1)[EX1 ] 2 =
i=1
2
n
k n+1
= ∑ i2 + k(k - 1) =
n i=1 2
⏠⏣⏣
⏡⏣⏣

la somma dei primi n
numeri naturali al quadrato
n(n + 1)(2n + 1)
6
k n(n + 1)(2n + 1) ( n + 1) 2
= + k(k - 1)
n 6 4
Quindi:
2
2 2 k(n + 1)(2n + 1) ( n + 1) 2 n+1
VarT = ET - [ET] = + k(k - 1) - k =
6 4 2
k(n + 1)(2n + 1) k(n + 1) 2
= -
6 4
Anche se c'è un segno negativo questa somma rimane sempre e comunque positiva.
Esercizio 2 Sia X,Y due VV.AA. indipendenti, discrete e tali che:
X è distribuita uniformemente su { -1, 0 }
Y è distribuita uniformemente su { 0, 1 }
1
Cioè assegnano probabilità uguale ai due punti su cui sono uniformi.
2
a determinare la distribuzione di probabilità di:
Z = X+Y
b determinare la Cov(Y, Z)
Queste due VV.AA. sono un po' rietichettare il lancio di una moneta bilanciata.
Ricordiamo che per le VV.AA. discreta la distribuzione di probabilità coincide con la
densità
discreta.

NB
Z �Z (B)
∑ P(X = xi )
i/xi ∈B

Diverso discorso, anche se collegato, calcolare la funzione di distribuzione

FZ
a
Z = X+Y
Calcolo il supporto di Z come prima cosa:
{ -1, 0, 1 }
Quindi calcolo densità discreta per ognuno di questi valori:
P(Z = -1) = P(X = -1, Y = 0)
Uso ora la indipendenza tra X e Y
1 1 1
P(X = 1)P(Y = 0) = · =
2 2 4
Procedo con gli altri punti del supporto:
1 1 1
P(Z = 1) = P(X = 0, Y = 1) = P(X = 1)P(Y = 0) = · =
⏠⏣⏣⏣⏣⏣⏣ ⏡⏣⏣⏣⏣⏣⏣ 2 2 4
sono letteralmente lo stesso evento ⏢
P(Z = 0)
Siccome è un po' più complicata, posso usare il fatto che la somma delle probabilità di
tutti i
punti del supporto somma ad 1.
Questo mi permette di usare le probabilità degli altri punti per calcolare l'ultima che mi
manca.
1 1 1
P(Z = 0) = 1 - P(Z = -1) - P(Z = 1) = 1 - - =
4 4 2
Il fatto che le VV.AA. non siano indipendenti non ci dice a priori che la Covarianza sia
diversa
da 0.
Usiamo la formula:
Cov(Y, Z) = E[(Y - òEY)(Z - EZ)] = E[YZ - ZEY - YEZ + EYEZ] =
= EYZ - EZEY - EYEZ + EYEZ = EYZ - EZ EY
⏠⏣⏣
⏡⏣⏣

=0
NB
1 1 1
EY = 0 ⋅ +1⋅ =
2 2 2
1 1 1
EX = - 1 ⋅ +0⋅ = -
2 2 2
1 1
EZ = EX + EY = - + =0
2 2
Quindi la covarianza coincide con il momento misto.
EYZ = E[Y(X + Y)] = EXY + EY 2 = EXEY + EY 2 =
⏠⏣⏣⏣
Essendo⏡⏣⏣⏣ ⏢
che X,Y
sono indipendenti
mi riporto ad esse
1 1 1 1 1 1 1
= - ⋅ + 02 ⋅ + 12 ⋅ = - + =
2 2 2 2 4 2 4
Cioè:
1
Cov(Y, Z) =
4
E quindi le variabili non sono indipendenti.
Esercizio 3 si consideri il vettore aleatorio (X,Y) con densità discreta congiunta:
� j � k � jk
P(X = j, Y = k) = c , j, k = 0, 1, 2, …
j!k!
con � > 0, � > 0, � ∈ (0, 1] , c costante
a determinare le densità discrete marginali delle due VV.AA.
b far vedere se � = 1 le VV.AA. X e Y sono indipendenti.
c determinare
P(X = j|Y = k) , j = 0, 1, 2, …
a
∞ ∞ j k jk
�� �
P(X = j) = ∑ P(X = j, Y = k) = ∑ c =
k=0 k=0 j!k!
k
�j ∞ �� j �j j
=c ∑ =c e �� , j = 0, 1, 2, …
j! k=0 k! j!
⏠⏣⏣⏣ ⏡⏣⏣⏣ ⏢
esponenziale
∞ ∞
� j � k � jk
P(Y = k) = ∑ P(X = j, Y = k) = ∑ c =
j=0 j=0 j!k!
k
� k
=c e �� , k = 0, 1, 2, …
k!
b
La prima cosa che viene in mente è che � è un parametro nella densità discreta.
Per quanto riguarda il concetto di indipendenza, noi sappiamo che se � = 1 le VV.AA.
sono
indipendenti quindi il concetto di dipendenza è determinato dalla misura di probabilità.
Comunque cosa succede per � = 1?
� j � k � jk
P(X = j|Y = k) = c (4)
j!k!
Dobbiamo far vedere che il prodotto delle marginali è uguale a (4)
Dobbiamo capere come sia fatto c.

NB
c è quella variabile che normalizza la misura di probabilità quindi io la posso
scrivere in un altro modo :
1
c= perchè deve far sì che la somma delle densità discrete di tutti
� j � k � jk
∑∑
j!k!
j k
i punti dia proprio 1.
Però nel caso � = 1 :
-1
1 �j �k
c= = ∑ ∑ = e -� e �
-1
= e -� e -�
∑∑ � �
j k jk

j j! k k!
j!k!
j k

Perciò (4) diventa


j
-� -� � �k -� �
j
-� �
k
=e e =e e (5)
j!k! j! k!
Questi due fattori in (5), se andassimo a sostituire quanto sappiamo di c e di � nelle
marginali di X e Y, vedremmo essere proprio le loro equazioni.
c
E(X = j, Y = k) � j � k � jk k!
P(X = j|Y = k) = =c ⋅ c -1 k
=
P(Y = k) j!k! e �� � k
j
�� k k
= e -�� = Po �� k
j!
⏠⏣⏣⏣⏡⏣⏣⏣
∼Po �� k

Chiamo l'evento B = { Y = k } che è un evento che dipende da k.
P(X = J|B) = Q B (X = j)
⏠⏣⏣⏣
densità ⏡⏣⏣⏣
discreta ⏢
di X
condizionata a B
(distribuzione di
probabilità discreta
condizionata)
[Non parte del programma]

Potrebbero piacerti anche