Sei sulla pagina 1di 5

Elementi di Probabilit`a e Statistica

Prova di verifica intermedia del giorno 3/04/14

Esercizio 1

Un canale di trasmissione dati pu`o ricevere messaggi binari da due sor- genti A e B: ognuna delle due sorgenti produce messaggi i cui bit successivi

sono indipendenti tra loro. Per la sorgente A per`o i bit possono essere 0 o 1 con probabilit`a 1/2 mentre per B il bit 0 viene inviato con probabilit`a 1/3 (ed il bit 1 con probabilit`a 2/3).

`

E arrivato un messaggio di lunghezza 10 del quale si ignora se sia stato

inviato da A o da B (e in totale incertezza si suppone che sia stato inviato da A o da B con probabilit`a 1/2).

a) Sia X la v.a. che indica il numero di bit 1 presenti nel messaggio: qual

`e la distribuzione di probabilit`a di X e la sua speranza?

b) Supponiamo che X assuma il valore 3 (cio`e 3 volte `e stato inviato il

bit 1): `e pi`u probabile che il segnale sia stato inviato da A o da B? E se X assume il valore 7?

Esercizio 2

Sia θ un numero con 0 <θ < 1 e si consideri una variabile aleatoria a valori

in IN = 0, 1, opportuna costante.

a) Calcolare il valore di c(θ) che rende la funzione sopra scritta una funzione di probabilit`a.

+ 1) . θ k , dove c(θ) `e una

tale che P(X = k) = c(θ) . (k

b) Presa X con tale legge, calcolarne la funzione generatrice delle proba-

bilit`a (precisando dove `e definita), la speranza e la varianza.

c) Prese X e Y indipendenti entrambe con questa legge di probabilit`a,

calcolare la legge di probabilit`a di X +Y . Suggerimento. Ricordiamo che, per m N e x (1, 1), si ha

1

(1 x) m+1 =

n=0

n + m

m

x n

.

Esercizio 3 Consideriamo ora come modello statistico un campione X 1 ,

, X n di

variabili aleatorie indipendenti aventi la distribuzione di probabilit`a sopra

indicata, al variare di θ 0 , 1 .

d) Determinare un riassunto esaustivo e, se esiste, la stima di massima

verosimiglianza di θ ; questa stima `e consistente?

1

e) Determinare un test per l’ipotesi H 0 θ 0,3 contro l’alternativa

H 1 θ < 0,3 al livello 0,05 , portando avanti i conti fin dove sono fattibili.

Soluzione commentata:

Esercizio 1

Identifichiamo con A (rispettivamente B) l’evento “il messaggio `e stato inviato dalla sorgente A” (risp. sorgente B).

a) Vale la formula (per 0 k 1)

P{X = k} = P{X = k|A}.P(A) + P{X = k|B}.P(B) =

Il

=

10 1

k

2 10 . 2 + 10

1

k

2 3 k .

3 10k 1

1

2

calcolo della speranza `e semplificato dal fatto che si pu`o scrivere

E[X] = 1

2

10

k=0

k 10

k

1 10 + 1

2

2

10

k=0

k 10

k

3 k .

2

1

3 10k

e

binomiali ottenendo il risultato E[X] = 1

ci si riporta facilmente al calcolo (ben noto) della speranza di variabili

2

10

2

+

1 20

2

3

=

35

6

.

Commento: diversi studenti hanno scritto che la variabile X `e binomiale

di parametri 10 e

esatto ma la modellizzazione `e sbagliata.

b) Prendiamo un generico k con 0 k 10 : dalla formula di Bayes si

P{A|X = k} = P{X = k|A}P(A) P{X = k}

e

se `e pi`u probabile A o B (condizionatamente a {X = k} ) `e sufficiente verifi- care se `e maggiore (o minore) 1 2 10 oppure 3 k . 1 3 10k : facili conti provano che con k = 3 `e pi`u probabile A e con k = 7 `e pi`u probabile B.

formula analoga per P{B|X = k} . Poich´e P(A) = P(B) = 1 2 per decidere

12 7 . Il calcolo della speranza risulta casualmente

2

2 + 3 =

2

1

1

1 2

ricava

2

Esercizio 2 Derivando il noto sviluppo ottiene

1

(1 x) 2 =

1

(1x) =

nx n1 =

n=0 x n (valido per 1 < x < 1) si

(n + 1)x n

n=1

n=0

(che `e un caso particolare dello sviluppo del suggerimento, ponendo m = 1). a) Applicando la formula precedente con x = θ si ottiene che c(θ) = (1 θ) 2 .

2

b) Applicandola di nuovo con x = si ottiene la funzione generatrice,

che `e

G X (t) =

n=0

t n (n + 1)(1 θ) 2 θ n =

(1 θ) 2

(1 ) 2

Questa funzione `e definita per |t| < θ 1 , dunque in un intervallo che contiene strettamente [1 , 1] : ne segue che la variabile ha momenti primo e secondo (anzi, tutti i momenti). Dalla funzione generatrice si ricavano la speranza

t1G

lim

X (t) =

lim

t1

(1 θ) 2 2θ (1 ) 3

=

2θ

(1 θ)

poi si calcola

lim

t1

G

X (t) =

lim

t1

(1 θ) 2 6θ 2

(1 ) 4

=

6θ 2

(1 θ) 2

da cui la varianza `e

6θ 2 (1 θ) 2 +

2θ

(1 θ)

4θ

2

(1 θ) 2 =

2θ 2 (1 θ) 2

.

c) La legge di X + Y , data dalla formula di convoluzione, `e

P{X + Y

= n} = (1 θ) 4 θ n

n

k=0

(k + 1)(n k + 1) =

(1 θ) 4 θ n

n

k=0

1 + n + nk k 2 ;

il calcolo non `e agevole (richiedendo la conoscenza della formula

k=0 n k 2 = n(n + 1)(2n + 1)/6), il risultato `e

P{X + Y = n}

=

(1 θ) 4 θ n (1 + n) 2 + n(n + 1)/2 n(n + 1)(2n + 1)/6 =

=

(1 θ) 4 θ n (1 + 11n/6 + n 2

+

n 3 /6)

;

`

E pi`u semplice procedere come segue: dalla teoria sappiamo che

G X+Y (t) = G X (t)G Y (t) = (1 (1 ) θ) 4 4

usando la formula in suggerimento, con m = 3, otteniamo

1

(1 x) 3+1 =

n=0

3

n + 3

3

x n

.

da cui, ponendo x = ,

G X+Y (t) =

(1 θ)

4

tθ) 4 = (1 θ) 4

(1

n=0

n + 3

3

t n θ n

.

Sempre dalla teoria sappiamo che la funzione generatrice individua unica- mente la legge di probabilit`a, e dunque

P{X + Y

= n} = n + 3 θ n (1 θ) 4

3

Commento: un altro modo di procedere. Consideriamo una v.a. Z 2 bino-

miale negativa di parametri p ]0, 1[ e k = 2: la sua legge `e P (Z 2 = h) =

(h 1)p 2 (1 p) h2 per h 2; se definiamo p

niamo una v.a. che ha legge data da P (Y = h) = (h + 1)(1 θ) 2 θ h per ogni n naturale, si ottiene dunque che c(θ) = (1 θ) 2 . A esercitazione `e stato mostrato che la somma di v.a. indipendenti e binomiali negative `e ancora una v.a. binomiale negativa; infatti la funzione generatrice di una generica v.a. Z k binomiale negativa di parametri p (0, 1) e k 1 `e

= Z 2 2 otte-

= 1 θ e Y

t k p k

(1 t(1 p)) k

(e questo era stato mostrato usando lo sviluppo riportato nel suggerimento).

Dunque Z 2 ha la stessa legge della somma di due v.a. geometriche e indipen- denti: questo permette di dire che la speranza e la varianza di Z 2 sono 2/p e

2p/(1p) 2 , e dunque la speranza e la varianza di X sono 2/p2 = 2θ/(1θ) e 2(1 p)/p 2 = 2θ/(1 θ) 2 . Notiamo inoltre che G X (t) = G Z 2 (t)t 2 : questo

si pu`o vedere come facile conseguenza della relazione Y = Z 2 2. Per lo

stesso motivo, la legge di X + Y coincide con la legge di Z 4 4, dove Z 4 `e binomiale negativa di parametri p = 1 θ e k = 4.

Esercizio 3 a) Sullo spazio Ω = IN n , la verosimiglianza ha l’espressione

L θ ; k 1 ,

, k n = (1 θ) 2n

n

i=1

(k i + 1) θ k 1 +···+k n

ed

`e evidente che un riassunto esaustivo `e la v.a. T (k 1 ,

, k n ) = k 1 +···+k n

(o

anche T = i=1 n X i indicando come d’uso con X i la proiezione canonica

di

indice i).

Dato a 0 , il massimo della funzione θ (1 θ) 2n θ a si ottiene nel punto a/(2n + a) (bisogna considerare separatamente il caso a = 0 e a > 0 )

4

e da qui seguirebbe la formula per la stima di massima verosimiglianza

E scritto seguirebbe poich´e in realt`a non `e definita se

θ n T(k 1 ,

Tuttavia non `e difficile vedere che la successione ( θ n ) n1 `e consistente:

ad esempio se si estende l’insieme dei parametri a [0, 1[ si ottiene che la stima `e ben definita e che la successione `e consistente poich´e siamo in un modello esponenziale. Si vede poi che P θ { θ n = 0} = P θ { in X i = 0} = (1 θ) 2n −→ 0 .

in X i

2n+ in X i .

, k n ) = 0 .

`

=

`

b) E facile constatare che il modello `e a rapporto di verosimiglianza cre-

scente rispetto a T e di conseguenza la buona regione critica `e della forma in X i d : si tratta allora di trovare il massimo intero k tale che si abbia

P 0,3

in

X i k 0,05

I conti a questo punto non sono fattibili in pratica; alcuni studenti hanno utilizzato (a volte propriamente ed a volte no) l’approssimazione data dal teorema Limite Centrale. Bisogna per`o osservare che questa approssimazione diventa ragionevole quando la taglia del campione `e grande, inoltre si sarebbe dovuto utilizzare una forma del T.L.C pi`u generale di quella data a lezione.

5