Sei sulla pagina 1di 5

Analisi dei Dati 16/17 – Secondo compitino – 9 giugno 2017

Esercizio 1.

Il vettore aleatorio (X, Y ) è uniforme sul quadrato Q di vertici (1, 0), (2, 1), (1, 2), (0, 1).

(a.) Calcolare le densità marginali f X (x) ed f Y (y) .

(b.) Determinare se le variabili X e Y sono indipendenti.

(c.) Calcolare le probabilità P X Y 1 , P max(X, Y ) 1 .

Nota Bene. Si riducano al minimo i calcoli tracciando i grafici e usando le simmetrie.

[punti 6 = 3 + 2 + 1]

Soluzione (a.) y Fig.1 2 y=x+ 1 1 y=-x+ 1 Q x 1 2 x
Soluzione
(a.)
y
Fig.1
2
y=x+ 1
1
y=-x+ 1 Q
x
1
2
x
y Fig.2 2 Q 1 [ x-y≥1 ] 1 2 x
y
Fig.2
2
Q
1
[ x-y≥1 ]
1
2
x
y Fig.3 2 Q 1 [max( x,y )≤ 1] 1 2 x
y
Fig.3
2
Q
1
[max( x,y )≤ 1]
1
2
x

La densità congiunta è

f XY (x, y) =

1

area(Q) χ Q (x, y) =

La marginale f X (x) si ottiene come

f X (x) = −∞ f XY (x, y) dy =

−∞

1

2 χ Q (x, y) .

2 1 χ Q (x, y) dy .

È evidente dalla Fig.1 che f X (x) è nulla per x / [0, 2], e ha simmetria pari rispetto ad x = 1, quindi

f X (x) =

x+1

x+1

1

2 dy =

x + 2,

2 x + 1 (x + 1) = x,

1

x

[0, 1],

x [1, 2]

f X (x) 1 1 2 x
f X (x)
1
1 2 x

dove, per la prima riga si faccia riferimento alla Fig.1, per la seconda alla già notata simmetria pari rispetto ad x = 1. In modo più diretto e compatto, per ogni x [0, 2]

f X (x) =

2−|x1|

|x1|

2 1 dy = 1 − |x 1| χ [0,2] (x).

La marginale f Y coincide con la f X , vista la simmetria di Q rispetto al I quadrante.

(b.) Le variabili X ed Y non sono indipendenti poiché f X (x)f Y (y) = f XY (x, y).

(c.) P X Y

1

1 = 0, vedi Fig.2, e P max(X, Y ) 1 = 4 , vedi Fig.3.

Esercizio 2. [punti 6 = 3 + 2 + 1]

Le variabili aleatorie X N (1, 4), Y N (1, 9), e B b(p) sono indipendenti. Sia

Z = BX + (1 B)Y.

(a.) Calcolare la funzione di distribuzione di Z.

(b.) Calcolare la densità (usuale o generalizzata) e specificare il tipo di Z.

(c.) Calcolare il valore atteso di Z.

Soluzione

(a.) Applicando la formula della probabilità totale, ed indicando con Φ(z) la FdD della normale standard,

F Z (z) = P(Z z) = P BX + (1 B)Y

z

= P BX + (1 B)Y z B = 0 P (B = 0) + P BX + (1 B)Y z B = 1 P (B = 1)

= P Y

z (1 p) + P X z p

= (1 p) Φ z 1 + p Φ z 1 .

3

2

(b.) La FdD F Z (z) è una mistura delle due distribuzioni gaussiane N (1, 4) ed N (1, 9) ed è quindi una funzione continua, derivabile ovunque, con derivata (densità)

f Z (z) = (1 p)φ z 1 + p φ z 1 ,

3

2

dove φ(z) è la densità normale standard. Poiché F Z (z) ammette densità (nel senso usuale), la v.a. Z è assolutamente continua.

(c.) Scrivendo simbolicamente la mistura di densità gaussiane f Z (z) nella forma

f Z (z)

= (1 p)N (1, 9)(z) + pN (1, 4)(z),

il valore atteso è

E(Z) = −∞ zf Z (z) dz = −∞ z (1 p)N (1, 9)(z)+ pN (1, 4)(z) dz = (1 p) · 1+ p · 1 = 1 .

In modo più formale, ricordando la definizione di Z e le proprietà delle v.a. indipendenti,

E(Z) = E BX + (1 B)Y = E(BX) + E(Y ) E(BY )

= E(B)E(X) + E(Y ) E(B)E(Y ) = p · 1 + 1 p · 1 = 1 .

Esercizio 3. [punti 6 = 3 + 3]

Il vettore aleatorio (U, V ) è gaussiano, di media nulla e matrice di covarianza

Σ := 3

2

2

2 .

Si definiscano le variabili aleatorie

X := U V,

Y

:= V .

(a.) Dare la descrizione probabilistica completa del vettore aleatorio (X, Y ) .

(b.)

Calcolare P |Y X| ≤ 3 .

Soluzione

(a.) Il vettore (X, Y ) si può scrivere come

X

Y

=

1

0

1

1

U

V = A

U

V ,

con ovvia definizione della matrice A.

Il vettore (X, Y ) è gaussiano, essendo una trasformazione lineare del vettore gaussiano (U, V ) , ed è quindi completamente specificato, nel senso probabilistico, dal vettore della media e dalla matrice di covarianza.

Il vettore della media è

E X = EA V = AE

Y

U

V = 0

U

0 .

La matrice di covarianza coincide quindi con quella di correlazione e vale

E

X 2

XY

XY

Y 2

= AΣA =

1

0

1 3

2

1

2

2

1

1

0

1

=

1

0

0

2

.

(b.) Per quanto ricavato in (a.), le v.a. X ed Y sono congiuntamente gaussiane e scorrelate, quindi indipendenti, e specificamente X N (0, 1) ed Y N (0, 2). La v.a. Y X è quindi gaussiana, di media nulla, e varianza var(Y X) = var(Y ) + var(X) = 3. Si ricava

P |Y X| ≤ 3 = P |Y X|

3

3

3 = P (|Z| < 1) = 2Φ(1) 1 0.68 .

Esercizio 4. [punti 6 = 3 + 2 + 1]

I processi stocastici (X n ) nZ e (Y n ) nZ sono congiuntamente gaussiani, stazionari, a media nulla, e funzione di autocorrelazione rispettivamente

r X (k) := 2δ(k) δ(k 1) δ(k + 1),

r Y (k) := 2δ(k) + δ(k 2) + δ(k + 2),

è inoltre noto che

E(X n Y m ) = 0,

per ogni m, n Z .

Si definisca il processo

V n := X n Y n ,

(a.) Calcolare la funzione di autocorrelazione di (V n ) e tracciarne il grafico.

(b.) Calcolare la

(c.) Determinare, se esiste, c R tale che V 5 cV 4 e V 4 siano indipendenti.

n Z .

matrice di covarianza del vettore W := (V 1 , V 3 , V 4 ) .

Soluzione

(a.) Il calcolo diretto fornisce

r V (n + k, n) = E(V n+k V n ) = E (X n+k Y n+k )(X n Y n )

= E X n+k X n E X n+k Y n E Y n+k X n + E Y n+k Y n

= r X (n + k, n) + r Y (n + k, n)

= 4δ(k) δ(k 1) δ(k + 1) + δ(k 2) + δ(k + 2) =: r V (k).

La funzione di autocorrelazione dipende solo da k, e con l’usuale convenzione è stata ridefinita r V (k). Il processo (V n ) è normale e stazionario. Il grafico di r V (k) è riportato qui sotto; si noti che r V (k) = 0 se |k| ≥ 3.

 

4

  4 r V ( k )  

r V (k)

 

1

-1 1
-1 1

-1

1

-1 1
-1 1
-1 1

-4 -3 -2

-1

   

2

3

4 k

 

(b.) Il vettore W è gaussiano, di media nulla, e matrice di covarianza

Σ

:= E(WW ) = E(V 3 V 1 )

E(V 4 V 1 )

E(V

1

)

2

4

= 1

0

1

4

1

E(V 1 V 3 ) E(V 2 )

3

E(V 4 V 3 )

0

1 .

4

E(V 1 V 4 )

E(V 3 V 4 ) = r V (2)

r V (0)

E(V

4

)

2

r V (3)

r V (2) r V (0)

r V (1)

r V (3) r V (1)

r V (0)

(c.) Poiché le variabili del processo (V n ) sono congiuntamente gaussiane, per imporre l’indipendenza è sufficiente imporre la scorrelazione, ovvero che

E (V 5 cV 4 )V 4 = E(V 5 cV 4 )E(V 4 ) = 0,

dove si è tenuto conto che il processo (V n ) ha media nulla, E(V n ) = E(X n Y n ) = E(X n ) E(Y n ) = 0. Imponendo la condizione di scorrelazione si ricava

0 = E (V 5 cV 4 )V 4 = E(V 5 V 4 ) c E(V

4

2 ) = r V (1) c r V (0) = 1 4c,

da cui c = 1

4 .

Esercizio 5. [punti 6 = 3 + 2 + 1]

Sia (X n ) n1 una sequenza indipendente ed identicamente distribuita di v.a. bernoulliane, X n b(p), con p (0, 1) dato. Si consideri la sequenza di v.a. (Y n ) n1 , dove

Y n := X 1 · X 2 · X 3

· X n .

(a.) Studiare la convergenza in distribuzione di (Y n ) applicando il teorema di Lévy. Suggerimento: che variabile aleatoria è Y 2 = X 1 X 2 ?

(b.) Studiare la convergenza in media e in media quadratica di (Y n ).

(c.) Studiare, a partire dalla definizione, la convergenza in probabilità di (Y n ).

Soluzione

(a.) Si indichi con ϕ n (ω) = E e jωY n la funzione caratteristica di Y n . Allora è

ϕ 1 (ω) = E e jωY 1 = E e jωX 1 = 1 p + pe jω .

Per calcolare ϕ 2 (ω) si osservi che la v.a. Y 2 ha alfabeto {0, 1} ed è

[Y 2 = 1] = [X 1 X 2 = 1] = [X 1 = 1] [X 2 = 1] ,

quindi Y 2 è bernoulliana, Y 2 b(p 2 ), e la funzione caratteristica è

ϕ 2 (ω) = 1 p 2 + p 2 e jω .

Analogamente la v.a. Y n è bernoulliana Y n b(p n ), infatti

quindi risulta

Poiché

[Y n = 1] = [X 1 X 2 ··· X n = 1] =

n

k=1

[X k = 1] ,

ϕ n (ω) = 1 p n + p n e jω .

n ϕ n (ω) = lim

lim

n 1 p n + p n e jω = 1,

e poiché la funzione costante ϕ(ω) = 1 è la funzione caratteristica della v.a. degenere nulla,

per il teorema di Lévy si conclude che Y n −→ 0.

(b.) Per la convergenza in media quadratica alla costante nulla si consideri che

D

n E(|Y n 0| 2 ) = lim

lim

n→∞ E(Y

n

2

) =

n p n = 0,

lim

L

2

L

1

ne segue che Y n −→ 0 e, per le note proprietà, anche che Y n −→ 0.

(c.) Verifichiamo se sussiste la convergenza in probabilità alla costante nulla. Poiché Y n assume solo i valori {0, 1}, per ogni < 1

n P(|Y n 0| > ) = lim

lim

n P(Y n = 1) = lim

n p n = 0,

P

potendosi così concludere che Y n −→ 0.