Sei sulla pagina 1di 20

Lezione 13 22/03/2021

Possiamo costruire delle nuove variabili aleatorie tramite delle funzioni misurabili.
Y = g◦X
Questa definizione rimane valida anche se stiamo valutando della varaibili aleatorie a
valorin
in R d
Esempio lezione precedente
Estrazione sequenziale di due palline numerate da 1 a 6 senza reintroduzione.
Y 1 , Y 2 sono le V.A. "numeri associati alle palline estratte".
- Qual è la probabilità che i due numeri estratti differiscano almeno di due.
CIoè vogliamo sapere:

P |Y 1 - Y 2 | ⩾2 =
⏠⏣⏣⏣ ⏡⏣⏣⏣⏢
V.A. Z=g(Y=(Y 1 ,Y 2 ))

= ∑ ∑ P(Y1 = y1 , Y2 = y2 ) =
(y1 ,y2 )/|y1 -y2 |⩾2
= P(Y 1 = 1, Y 2 = 3) + P(Y 1 = 3, Y 2 = 1) + P(Y 1 = 1, Y 2 = 4) +…
CIoè graficamente:
y2 sommiamo la parte
7 indicata dalle frecce
6

-3 -2 -1 0 1 2 3 4 5 6 7 8 9 10
-1 cosicché si soddisfi la condizione
richiesta di avere "differenza 2"

Vado a sommare solamente rispetto al vincolo che abbiamo.


Proposizione
Consideriamo U e V due V.A. discrete con funzione di di densità dicreta:
P(U = u, V = v) = p(u, v)
Consideriamo:
Z = U+V
La V.A. Z ha densità discreta:
la seconda
Densità doppia la calcolo in
del vettore (U,V) questo modo

= ∑ ⏜⏟⏟⏟
⏝⏟⏟⏟ ⏜⏟⏟
⏝⏟⏟

f z ( z) p ⏞ t , z-t =
⏠⏣⏣
⏡⏣⏣

densità discreta
t ⏦
la prima coordinata
la calcolo "normalmente"
di Z
nella variabile

= ∑ t p(z - t, t)
⏠⏣⏣⏣ ⏡⏣⏣⏣
equivalentemente ⏢
posso
scambiare il calcolo delle
coordinate

Dimostrazione

P(U + V = z) = ∑ ∑ P(U = u, V = v) =
(u,v)/u+v=z

= ∑ ∑ P(U = u, V = v) = ∑ P(U = z - v, V = v) =
(u,v)/u=z-v v

= ∑ p(z - v, v) QED ⊠
v
⏠⏣⏣⏣
riscritto ⏡⏣⏣⏣
in ⏢
notazione
abbreviata
Dimostrare la seconda formula si fa scambiando semplicemente le variabili
Osservazione [(U,V) indipendenti]
Se U,V, sono indipendenti allora la densità discreta si fatorizza:
p(u, v) = p 1 (u)p 2 (v)
e quindi:

P(U + V = z) = ∑ p 1 (z - v)p 2 (u)


v

Definizione convoluzione delle componenti aleatorie


La formula precedente è detta convoluzione delle densità discrete delle variabili aleatorie
marginali che compongono il vettore dato.
Esempio
Sia:
X ∼ Po(�) , � > 0 , Y ∼ Po(�) , � > 0
X,Y indipendenti.
Abbiamo:
+∞
P(X + Y = z) = ∑ P(X = z - v)P(Y = v) =
v=0
+∞
� z-v �v
=∑ e -�
⋅ e -� =
v=0 ( z - v) ! v!
⏠⏣⏣⏣ ⏠⏣⏣
⏡⏣⏣

densità⏡⏣⏣⏣ ⏢
discreta densità discreta
della prima Poisson della seconda Poisson
per X = z - v per Y = v
+∞
z! 1
= ∑ e -(�+�) � z-v � v ⋅ =
v=0 (z - v)!v! z!
così da ⏡⏣⏣⏣
⏠⏣⏣⏣ ⏢
poter qui ⏦
z! ausiliario
costruire il coefficiente
binomiale
+∞
e -(�+�) e -(�+�)
= ∑ z
v
� z-v v
� = (� + �) z
z! v=0 z! ⏠⏣⏣ ⏡⏣⏣ ⏢
⏠⏣⏣⏣
così da ⏡⏣⏣⏣ ⏢
poter qua
risultato del
binomio di Newton
costruire un binomio
di Newton
Quindi:
Z = X + Y ∼ Po(� + �)

Introduciamo uno strumeto molto importante:

Valore Atteso
Spesso viene indicato come: "valore di aspettazione", "attesa", "media", "speranza
matematica".
Definizione Valore Atteso
Sia X una V.A. discreta e quasi certamente positiva (P(X ⩾ 0) = 1)
Il valore atteso EX della V.A. X, la quale ha supporto S = { x 1 . x 2 , x 2 , … } è:
+∞
EX = ∑ x i P(X = x i )
i=1 ⏠⏣⏣⏣ ⏡⏣⏣⏣
pesate ⏢
Osservazione
La serie è a termini positivi.
< +∞
EX =
= +∞
Definizione Valore atteso per una qualsiasi V.A.
Sia X una V.A. discreta a valori reali.
Sia X + = MAX(X, 0)
⏠⏣⏣⏣⏣ ⏡⏣⏣⏣⏣
parte positiva di X ⏢
Sia X - = MIN(X, 0)
⏠⏣⏣⏣⏣ ⏡⏣⏣⏣⏣
parte negativa di X ⏢
Sia X + che X - sonoi due variabili aleatorie quasi certamente positive.
Allora:
Finito
±∞
∄ → Nel caso
i valori di EX + e EX -
EX = EX + - EX - =
diano una somma non definita
Esempio EX + = EX - = + ∞
Allora :
EX + - EX - = + ∞ - ∞ = ∄
Osservazione

E|X| = EX + + EX - (1)

Definizione Variabile aleatoria integrabile


Se:
V.A. q.c.
posotiva
⏜⏟⏟
⏝⏟⏟

E|X| < + ∞
Allora X si dice integrabile.
Osservazione
Se lavoro su (1)
cambio la definizione perché sto usando
definizione di valore atteso la parte negativa
⏜⏟⏟⏟⏟
⏝⏟⏟⏟⏟
⏞ ⏜⏟⏟⏟⏟⏟⏟
⏝⏟⏟⏟⏟⏟⏟

E|X| = ∑ x i P(X = x i ) + ∑ (-x i )P(X = x i ) =
i/ xi ⩾ 0 i/ xi ⩽ 0
⏠⏣⏣
⏡⏣⏣
⏢ ⏠⏣⏣
⏡⏣⏣

sommatoria sommatoria
della parte della parte
positiva negativa

= ∑ |x i |P(X = x i )
i=1
Posso vedere come io voglia il valore atteso del modulo di X e io usi nella formula i
moduli
dei valori per ottenere ciò.
Esempio di calcolo del valore atteso

X ∼ Be(p)
Considerato che il supporto della V.A. è S = { 0, 1 } il valore atteso EX risulta essere:
2
EX = ∑ x i P(X = x i ) = x 1 P(X = x 1 ) + x 2 P(X = x 2 ) =
i=1
= 0 ⋅ ( 1 - p) + 1 ⋅ p = p
Perciò il valore atteso di questa Bernoulli è p, cioè la probabilità di successo, cerchiamo di
visualizzarlo:
P(X = x)

1-p

0 p 1

EX
esso non è altro che la media, pesata con le probabilità, degli elementi del supporto
per questo si trova più spostato verso 1, perchè 1 è più probabile
ed è anche il motivo per cui una delle sue denominazioni è proprio "media"

Esempio
Adesso immaginiamo di avere due V.A. discrete
X, Y / Y = f(X) (2)
Io per entrambe posso calcolare il valore atteso:

EX = ∑ x i P(X = x i ) (3)
i=1

EY = ∑ y i P(Y = y i ) (4)
i=1
Dobbiamo notare che, nelle definizioni (4) e (3) non abbiamo fatto menzione di (2) cioè
che
Y sia funzione di X.
Sto semplicemente sommando i valori del supporto moltiplicati per la probabilità che la
V.A. li
assuma.
E' possibile mettere mettere in relazione EX e EY conoscendo (2)
Teorema
Sia Z una V.A. ottenuta come
Z = f(X = (X1 , … Xn )) = f(X1 , X - 2, … Xn )
Dove:
f : Rn → R
è borel-misurabile.
Diciamo che Z è integrabile se:

∑ |f x 1i , … , x ni | ⋅ P X1 = x 1i , X2 = x 2i , … , Xn = x ni < + ∞
i=1 ⏦
i-esimo
punto del supporto
di X1

Dove:
+∞
SX = x 1i , … , x ni
i=1
Inoltre:

EZ = ∑ f x 1i , … , x ni P X1 = x 1i , X2 = x 2i , … , Xn = x ni
i=1
La cosa importante è che non vado a scrivere il valore atteso tramite il supporto della
variabile aleatoria Z, ma tramite i punti del supporto di X (che può anche essere un
vettore
aleatorio costituito da una sola V.A. e perciò essere una normale V.A.
Dimostrazione
Studiare:

E|Z| = ∑ |z i |P(Z = z i )
i=1
Dove:
SZ = { z1 , z2 , … }
Usiamo ora degli insiemi che chiamo:
A j = {(x 1 , … x n ) / f(x 1 , … , x n ) = z j } = f -1 (z j ) (5)
Considero l'evento
{ Z = z j } = { � ∈ Ω / Z(�) = z j } = { � ∈ Ω / f(X1 , … Xn )(�) = z j } =
= ⋃ x∈A { X1 = x 1 , … , Xn = x n }
j

⏠⏣⏣⏣⏣⏣⏣ ⏡⏣⏣⏣⏣⏣⏣
tutti quei punti del tipoX ⏢
1 =x 1 ,…,X n =x dove
il mio vettore x(x1 ,…xn ) viaggia in nel j-esimo
insieme Aj , quello relativo a zj , definito in (5)

Quindi:

P(Z = z j ) = ∑ x∈A P(X1 = x 1 , … , Xn = x n )


j (6)
⏠⏣⏣⏣⏣⏣⏣⏣⏣⏣
quindi adesso ho una rappresentazione ⏡⏣⏣⏣⏣⏣⏣⏣⏣⏣
della probabilità di Z=zj in termini degli elementi⏢del supporto della V.A. X

Otteniamo:
questo è funzione
di x=(x1 ,…xn )
∞ ∞
∑ |zj |P(Z = zj ) = ∑ ⏜⏟⏟⏟
⏝⏟⏟⏟
|z j |
⏞P(X = x , … , X = x ) =
1 1 n n
j=1 j=1
⏠⏣⏣⏣⏣⏣⏣⏣⏣
ciò che abbiamo ottenuto in⏡⏣⏣⏣⏣⏣⏣⏣⏣
(6) a cui abbiamo aggiunto ⏢
la moltiplicazione per |zj |

= ∑ ∑ |f(x 1 , … , x n )|P(X1 = x 1 , … , Xn = x n ) =
j=1 x∈Aj
⏠⏣⏣
⏡⏣⏣

sto sommando per tutti i
valori di j
e per ogni j considero tutti
gli elementi di Aj
Glodabalmente sto sommando
su tutti i valori del supporto del
vettore aleatorio X=(X1 ,.....,Xn )
tutti i punti delo supporto


⏜⏟⏟⏟⏟ ⏝⏟⏟⏟⏟ ⏞
= |f x 1i , … , x ni | P X1 = x 1i , … , Xn = x ni
i=1
⏠⏣⏣
⏡⏣⏣

basta una
sola somma

Se la parte arancione alla fine è finita < +∞ allora lo è anche la parte azzurra all'inizio, e
perciò Z è integrabile, per definizione di integrabilità.

Naturalmente qui cè anche il caso unidimensionale, basta porre n = 1.

Calcoliamo ora:
∞ ∞
EZ = ∑ z j P(Z = z j ) = ∑ z j ∑ P(X1 = x 1 , … , Xn = x n ) =
j=1 j=1 x∈Aj
stessi passaggi di prima manca solo il modulo a z j

= ∑ ∑ f(x 1 , … , x n )P(X1 = x 1 , … , Xn = x n ) =
j=1 x∈Aj

= ∑ f x 1i , … , x ni P X1 = x 1i , … , Xn = x ni
i=1
Quindi tornando a (4) non ho solo la definizione:

EY = ∑ y i P(Y = y i ) (7)
i=1
Ma sapendo che vale (2)
X, Y / Y = f(X)
Posso scrivere:

EY = ∑ f(x i )P(X = x i ) (8)
i=1
E' evidente che (7)=(8)
Proprietà 1 del valore atteso
Date X,Y V.A. integrabili, si ha:
1) EcX = cEX , ∀c ∈ R
2) E[X + Y] = EX + EY
Cioè il valore atteso è un operatore lineare.
Dimostrazione
Usiamo il teorema precedente.

R2 → R
f:
(x, y) ⇝ x + y
Dobbiamo fare vedere che la V.A. è integrabile e poi calcolarne E.

∑ ∑ |f(xi , yi )| ⋅ P(X = xi , Y = yj ) =
i j
è proprio il risultato dovendo far vedere che
della funzione che converge va bene anche
abbiamo definito nell Hp la disuguaglianza
⏜⏟⏟⏟⏟
⏝⏟⏟⏟⏟

= ∑∑ |x i + y j | ⋅ P(X = x i , Y = y j )⏜⏟⏟⏟

⩽⏟⏟⏟

i j
disuguaglianza
triangolare NDS

⩽ ∑ ∑ (|x i | + |y j |) ⋅ P(X = x i , Y = y j ) =
⏜⏟⏟⏟
⏝⏟⏟⏟

i j
divido la somma negli addendi relativi ad i e a quelli relativi a j
⏜⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟
⏝⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟

= ∑∑ |x i | ⋅ P(X = x i , Y = y j ) ∑ ∑
i j
|y j | ⋅ P(X = x i , Y = y j )
i j ⏠⏣⏣
⏡⏣⏣ ⏢
non dipende da j ⏠⏣⏣
⏡⏣⏣

giriamo queste
si può portare fuori due sommatorie
tanto è uguale

∑∑ |x i | ⋅ P(X = x i , Y = y j )∑ ∑ |y j | ⋅ P(X = x i , Y = y j ) =
i j ⏠⏣⏣
⏡⏣⏣ ⏢ j i ⏠⏣⏣
⏡⏣⏣⏢
non dipende da j non dipende da i
si può portare fuori si può portare fuori

= ∑ |x i | ∑ ⋅ P(X = x i , Y = y j ) ∑ |y j | ∑ ⋅ P(X = x i , Y = y j ) =
i j j i
⏠⏣⏣⏣⏣⏣ ⏡⏣⏣⏣⏣⏣
sto facnedo una ⏢
somma su j di
⏠⏣⏣⏣⏣⏣
sto ⏡⏣⏣⏣⏣⏣
facendo la somma ⏢
su i di tutti
tutti i valori del supporto della Y i valori del supporto della congiunta X
sto quindi
marginalizzando
⏜⏟⏟⏟
⏝⏟⏟⏟
=
⏞ ∑ |x | P(X = x ) ∑ |y | P(Y = y )
i i j j
(9)
i ⏠⏣⏣⏣ ⏡⏣⏣⏣ ⏢
per effetto della
j
⏠⏣⏣⏣ ⏡⏣⏣⏣ ⏢
per effetto della
maginalizzazione maginalizzazione
⏠⏣⏣⏣⏣
⏡⏣⏣⏣⏣
<+∞ ⏢⏠⏣⏣⏣⏣
⏡⏣⏣⏣⏣
<+∞ ⏢
X e Y sono integrabili per ipotesi perciò le due quantità in (9) sono finite
Perciò la V.A. somma delle nostre due variabili aleatorie è integrabile, dobbiamo ora
calcolarne il valore atteso:

E(X + Y) = ∑ ∑ (x i + y j ) ⋅ P(X = x i , Y = y j ) =
i j

= ∑ x i ∑ P(X = x i , Y = y j ) + ∑ y j ∑ P(X = x i , Y = y j ) =
i j j i
⏠⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣ ⏡⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣
marginalizziamo da una parte e ⏢
marginalizziamo dall'altra nei due addenti
per effetto della
marginalizzazione
ottengo
⏜⏟⏟⏟ ⏞∑ x P(X = x )∑ y P(Y = y ) = EX + EY
⏝⏟⏟⏟
= i i j j
i j

Esercizio dimostrare il punto 1

Proprietà 2 del valore atteso


Monotonia del valore atteso
X,Y V.A. unidimensionali, a valori reali, integrabili.
1. se P(X ⩾ Y) = 1 ⟹ EX ⩾ EY
2. |EX| ⩽ E|X|
Dimostrazione del punto 1

Z = X-Y
Grazie alla proprietà precedente so che, se X e Y sono integrabili, Z sono integrabili.
Prendo allora il fatto che:
1 = P(X ⩾ Y) ⟺ P(Z ⩾ 0) = 1

∑ 1 [0,+∞] (z i )P(Z = z i )
i
⏠⏣⏣⏣⏣⏣
somma dei valori delle probabilità degli ⏡⏣⏣⏣⏣⏣ ⏢
elementi non negatividel supporto della Z
Quindi:

EZ = ∑ zi ⋅ P(Z = z i )
i ⏦
⩾0 ⏠⏣⏣⏣
⏡⏣⏣⏣
⩾0 ⏢
perchè Z è una V.A. per def. di
q.c. non negativa per Hp probabilità
Cioé:
E(X - Y) ⩾ 0
sfruttando la linearità del valore atteso
EX - EY ⩾ 0
mat
EX ⩾ EY QED ⊠
Dimostrazione del punto 2
Dati x, y ∈ R è evidente che se |x| ⩽ |y| ⟺ -|y| ⩽ x ⩽ |y|
Quindi passando alle variabili aleatorie:
-|X| ⩽ X ⩽ |X|
Applico il valore atteso in tutti i membri:
-E|X| ⩽ EX ⩽ E|X|
Cioè
|EX| ⩽ E|X|

Potrebbero piacerti anche