Sei sulla pagina 1di 10

Lezione 25 - 4/05/2021

Esercizio 1 Sia una scatola con 4 palline numerate: (0,1,1,2)


Vengono effettuate n estrazioni con reinserimento.
Sia Y la V.A. che somma tutti i valori delle n palline estratte (sommo tutti i numeri che
appaiono).
Determinare la legge di Y. Cioè la distribuzione di Y cioè la sua densità discreta.

Soluzione Chiamiamo
"numero sulla pallina
Xi =
estratta all'i-esima estrazione"

Allora avrò il vettore aleatorio:


(X 1 , X 2 , … , X n )
Avendo reintroduzione queste VV.AA. sono I.I.D.
Dal punto di vista statistico questo è un campione casuale.
Con popolazione
Xi ∼ X
Con distribuzione
1
P(X = 0) =
4
1
P(X = 1) =
2
1
P(X = 2) =
4
Adesso noi vogliamo la distribuzione di
n
Y ∼ ∑ Xi
i=1
Usiamo ora la funzione generatrice delle probabilità
Φ X (t) = Et X
Questa funzione è molto simile alla funzione generatrice dei momenti.

Φ X (t) = Et = ∑ t k P(X = k)
X

k=0
Questo nel caso in cui il supporto coincida con l'insieme dei numeri naturali.
In generale se:
SX { x1 , x2 , x3 , … }

Φ X (t) = Et X
= ∑ t x P(X = x i )
i

i=1
Qui il supporto della variabile aleatorio è limitato a tre punti:
2 2
1 1 1 1 1
Φ X (t) = Et = ∑ t P(X = k) = 1 ⋅
X k
+t ⋅ 1
+t ⋅2
= + t =
k=0 4 2 4 2 2
2
1 1 (1)
= 1- + t
2 2
⏨⏨
NB
Se Z ∼ Bin(n, p)
allora :
∞ ∞
Φ Z (t) = ∑ t P(Z = k) = ∑ t k
k n
k
p k (1 - p) n-k =
k=0 k=0 ⏠⏣⏣
⏡⏣⏣⏢
n!
k! (n - k)!
⏠⏣⏣⏣
⏡⏣⏣⏣

quando k supera n
il binomiale diventa negativo
n
=∑
n
(tp) k (1 - p) n-k = (1 - p + tp) n
k
funzione ⏠⏣⏣⏣ ⏡⏣⏣⏣delle⏢
k=0
generatrice probabilità
di una bin(n,k)

Tornando a (1)
2
1 1
= 1- + t
2 2
Quindi mi rendo conto che :

1
X ∼ Bin 2,
2
n
Passiamo ora alla nostra Y = ∑ X i
i=1
Voglio trovare la funzione generatrice delle probabilità:

Φ Y (t) = E t X1 +X2 +…+Xn = E t X1 t X2 ⋅…⋅ t Xn = indipendenza =


2 2 2
X1 X2 Xn 1 1 1 1 1 1
= Et ⋅ Et ⋅…⋅ Et = 1- + t ⋅ 1- + t ⋅…⋅ 1 - + t =
⏠⏣⏣
⏡⏣⏣
⏢ 2 2 2 2 2 2
funzione
generatrice delle
probabilità di X1
2n
1 1
= 1- + t
2 2
Adesso che cosa posso dire su Y?

1
Y ∼ Bin 2n,
2
Efficienza ⟿ stimatori corretti
Abbiamo fatto il teorema di cramer-rao che è molto importante perché ci dice che gli
stimatori corretti hanno varianza non più piccola di un certo valore.
Le ipotesi di regolarità devono valere, esso vale sia per le VV.AA. assolutamente continue
sia
per le VV.AA. discrete.
Queste condizioni di regolarità non sono particolarmente stringenti, non valgono solo in
casi
anomali.

Abbiamo sempre lavorato con un campione casuale X = (X 1 ,........., X n ) di questo tipo


con
n ∈ N*.
Immaginiamo ora di avere derivato T n stimatore di �, esso vale per n, ma cosa succede
quando n cresce?
Io posso immaginare di avere una successione di campioni casuali
(X1 ,........., Xn ) taglia n con stimatore T n
(X1 ,........., Xn+1 ) taglia n + 1 con stimatore T n+1
(X1 ,........., Xn+2 ) taglia n + 2 con stimatore T n+2

Proprietà asintotiche degli stimatori:


n → +∞ (grandi campioni)
Definizione stimatore asintoticamente corretto
Uno stimatore T n = g n (X 1 , … , X n ) per il parametro � è detto "asintoticamente corretto"
se
lim ET n = �
n → +∞
Ciò significa che posso avere non solo la correttezza e la distorsione come qualità di uno
stimatore.
Quindi lo stimatore non è corrette per ogni taglia del campione casuale n, ma si corregge
con una taglia molto grande (che va ad infinito).

Osservazione

correttezza ⟹ asintotica correttezza

Definizione stimatore consistente


Uno stimatore T n = g n (X 1 , … , X n ) è detto consistente per il parametro � se:
lim P(| T n - � | < �) = 1 ∀� > 0
n → +∞
Se ricordiamo nelle 3 convergenze che abbiamo visto, avevamo la convergenza in
probabilità che aveva una definizione molto simile
P
cioè T n ⏪⏫ �

La similitudine c'è anche con la legge debole dei grandi numeri.


Teorema
Sia T n uno stimatore asintoticamente corretto per � e con varianza finita ∀n.
Se lim VarT n = 0 ⟹ T n è consistente.
n → +∞
Dimostrazione con una delle disguguaglianze che abbiamo visto, quelle di Markov
errore quadratico medio
MSE(T n )
⏜⏟⏟⏟⏟
⏝⏟⏟⏟⏟
2 ⏞
E(T n - �)
0 ⩽ P(| T n - � | ⩾ �) ⩽ =
�2
E' evidente che se il termine a destra va a 0 allora anche il termine centrale andrà a 0.
asintoticamente corretto
n → +∞
⏪⏪⏪⏫ 0
n → +∞
⏪⏪⏪⏫ 0
⏜⏟⏟
⏝⏟⏟
⏞ ⏜⏟⏟⏟⏟
⏝⏟⏟⏟⏟
2 ⏞
VarT n + (ET n - �)
=
�2
Quindi
n → +∞
P(| T n - � | ⩾ �) ⏪⏪⏪⏫ 0 consistenza

Ritorniamo un attimo ad un'altra proprietà che caratterizza gli stimaotri senza essere una
proprietà asintotica essa sarà un requisito fondamentale di ogni stimatore che ricaveremo

Sufficienza
Sia un campione casuale X = (X 1 ,........., X n ) di taglia n.
Sia un statistica S = s(X 1 , … , X n )
Prendo queste variabili del campione casuale e le sintetizzo in una sola V.A., quindi ho
operato una riduzione dimensionale.
Ma fare questa operazione fa perdere delle informazioni rispetto al fenomeno in esame?
Supponiamo di avere una statistica G = g(X 1 , … , X n ) = X 1 , beh qui è ovvio che sto
perdendo delle informazioni perchè considero solo le informazioni di X 1 .
A me piacerebbe avere un'idea del fatto di quantificare la perdita di informazioni. O
quanto
meno capire se alcune statistiche (alcuni stimatori) fanno perdere informazioni o meno.
Così
da poter usare solamente gli stimatori in cui non si perdono informazioni.

In conclusione uno stimatore è sufficiente se non perde informazioni.


Esempio
Sia X = (X 1 ,........., X n ) un campione casuale estratto da una popolazione
X ∼ Be(p)
Fissiamo n = 3 quindi avermo il campione casuale X = (X 1 X 2 X 3 )
Considero la statistica S = X 1 + X 2 + X 3
Quindi quando il campione casuale si realizza:
(X1 , X2 , X3 )(�) = (x 1 , x 2 , x 3 )
S(�) = s 0 = s(x 1 , x 2 , x 3 ) = x 1 + x 2 + x 3
Quindi:
Campione Statistica

(0, 0, 0) s0 = 0

(0, 0, 1) s0 = 1

(0, 1, 0) s0 = 1

(1, 0, 0) s0 = 1


Quindi i risultati del campione vengono accorpati sul supporto della statistica.
Sto facendo una bella operazione di acccorpamento.
Quindi vorrei assicurarmi che tutto ciò non faccia danni.
Definizione statistica sufficiente
Sia X = (X 1 ,........., X n ) un campione casuale estratto da una popolazione con densità
f( ∙ ; �).
Una statistica S = (X 1 , … , X n ) è detta sufficiente se la distribuzione condizionata di
X = (X1 ,........., Xn ) dato l'evento { S = s 0 } non dipende da � per ogni valore di
s 0 ∈ Supp(S).

Quindi io, conoscendo S posso eliminare dalla distribuzione del campione casuale il
parametro.
Quindi non posso derivare da essa altri stimatori.

Potrebbero piacerti anche