Sei sulla pagina 1di 6

Lezione 14 - 24/03/21

Il valore assunto dal valore atteso può anche non


essere un punto del supporto!!
Momenti, Varianza, Covarianza
Definizione momento
Sia X una V.A. a valori reali. Diremo che X ammette momento di ordine
k , k = 1, 2, 3, … se X k è integrabile. Lo indicheremo con:
EX k , k = 1, 2, 3, …
E' evidente che il valore atteso coincide con il momento di ordine 1.
Driemo che X ammette momento centrato di ordine k se la V.A. (X - EX) k è integrabile.
Lo indicheremo con:
E(X - EX) k , k = 1, 2, 3, …

Se avessimo una variabile aleatoria con tutti i momenti finiti, cioè X k è integrabile ∀k
avrei una V.A. particolarmente buona e facile da usare.

E' evidente che la elevazione a potenza produce una V.A. più difficile da usare soprattutto
per k elevati.

X k assume i valori del supporto di X, ma elevati alla k, che quindi si spostano sempre di
più verso infinito.

Nel momento centrato il valore atteso (che ricordiamo essere un numero) ha il compito di
centrare la V.A.
Se facessimo infatti:
E[X - EX] = 0
Quindi una V.A. centrata ha media 0, da qui il nome centrata.

Definizione varianza
Chiameremo Varianza il momento centrato di ordine 2:
VarX = E(X - EX) 2
Essa è un indice indicatore di quanto la mia variabile aleatoria è dispersa è lontana dal
mio valore atteso.
Osservazione

VarX = E(X - EX) 2 (1)


Questo è il valore atteso della parentesi tonda al quadrato evidentemente, possiamo
riscriverlo così:
VarX = E[(X - EX)] 2
Ma tornando a (1)
VarX = E(X - EX) 2 = E X 2 + (EX) 2 - 2XEX =
= EX 2 + (EX) 2 - 2 EXEX = EX 2 - (EX) 2
⏠⏣⏣
⏡⏣⏣
2⏢
(EX)
Questo è un altro modo di scrivere la varianza.
Spesso questa ultima rappresentazione è più semplice da calcolare.
Osservazione

EX = ∑ xjk P(X = xj )
k

j=1
Attenzione qui non ho usato la definizione di valore atteso, ma ho usato il teorema della
scorsa volta che mi permette di calcolare il valore del valore atteso più semplicemente
(uso la densità discreta di X e non di X k ).
Similmente:

VarX = ∑ (xj - EX) 2 P(X = xj )
j=1

Proprietà dei momenti


Se X ha momento di ordine k finito, allora ha anche momento di ordine r ⩽ k finito.
Dimostrazione
Fisso r ⩽ k.
Facciamo una serie di considerazioni:
• se |x| ⩽ 1 ⟹ |x| r ⩽ 1
• se |x| ⩽ 1 ⟹ |x| r ⩽ |x| k perché k ⩾ r
Quindi ∀x ∈ R si ha:
|x| r ⩽ 1 + |x| k
Consegeuntemente:
|X| r ⩽ 1 + |X| k
E allora:
E|X| r ⩽ 1 + E|X| k < + ∞ QED ⊠
Z ∼ Be(p)
2
VarZ = EZ 2 - (EZ) 2 = 0 2 ⋅ P(Z = 0) + 1 2 ⋅ P(Z = 1) - p = p - p 2 = p(1 - p)
E⏦
Be

Proprietà della Varianza


Siano X,Y VV.AA. unidimensionali a valori in R e sia a ∈ R
1. Var(aX) = a 2 VarX
2. Var(a + X) = VarX
3. Var(X + Y) = VarX + VarY + 2Cov(X, Y)
La varianza è un operatore quadratico
Dove
Definizione covarianza

Cov(X, Y) = E[(X - EX)(Y - EY)] (2)


1
Var(aX) = E(aX - E(aX)) 2 = E a 2 X 2 + [E(aX)] 2 - 2aXE(aX) =
= a 2 EX 2 + a 2 [EX] 2 - 2a 2 [EX] = a 2 EX 2 - (EX) 2 = a 2 VarX
2
2
Var(a + X) = E a + X - E(a + X) = Var(a + X) =
⏠⏣⏣ ⏡⏣⏣ ⏢
linearità del
valore atteso
2 2
= E a+X- Ea - EX = E a + X - a - EX =
⏠⏣⏣
⏡⏣⏣

=a
valore atteso
di una V.A. degenere
= E[X - EX] 2 = VarX
3
2
Var(X + Y) = E[X + Y - E(X + Y)] 2 = E (X - EX) + (Y - EY) =
⏠⏣⏣⏣⏣ ⏡⏣⏣⏣⏣
linearità del valore atteso e

riorganizzazione delle parentesi
2 2
= E (X - EX) + (Y - EY) + 2(X - EX)(Y - EY) =
= E(X - EX) 2 + E(Y - EY) 2 + 2E(X - EX)(Y - EY) =
= VarX + VarY + 2Cov(X, Y) (3)
Cosa succederebbe se X,Y fossero indipendenti?
Se guardiamo in (2) la definizione di covarianza.
Quando ho la dipendenza massima? Quando X=Y
Allora:
Cov(X, Y) = Cov(X, X) = VarX
In generale la covarianza misura la mutua dispersione tra le variabili X e Y.

Invece se X e Y sono indipendenti, in particolare è la Covarianza a venir modificata:


Cov(X, Y) = E[(X - EX)(Y - EY)] = E(X - EX) E(Y - EY) =
⏠⏣⏣⏣⏣⏣ ⏡⏣⏣⏣⏣⏣ ⏢
il valore atteso a questo punto si fattorizza
⏠⏣⏣⏣ ⏡⏣⏣⏣
linearità del
⏢⏠⏣⏣⏣ ⏡⏣⏣⏣
linearità del

valore atteso valore atteso
numero
⏜⏟⏟
⏝⏟⏟

= EX - E EX EY - E(EY) = EX - EX EY - EY = 0
⏠⏣⏣ ⏠⏣⏣⏡⏣⏣⏢
=⏡⏣⏣
EX
⏢ idem
valore atteso
V.A. degnere
Quindi, in caso di indipendenza:
Var(X + Y) = VarX + VarY
Per il semplice fatto che nella formula (3) ho "tolto" il 3° addendo in quanto vale 0.
Definizione funzione generatrice dei momenti
Sia X una V.A. unidimensionale a valori reali.
La funzione generatrice dei momenti m X (t) : R → R
è tale che:
mX (t) = Ee tX per tutti i valori di t per cui il valore atteso è finito
Questa è una funzione deterministica, non c'è niente di aleatorio in quanto legata al
calcolo del valore atteso.
Essa dipende però anche dalla variabile t, il che definisce una funzione.
Osservazione
uso il teorema per calcolare
le funzioni di VV.AA.
⏜⏟⏟⏟⏟
⏝⏟⏟⏟⏟

mX (t) = ∑ e txi P(X = xi ) =
i=1
Posso pensare di espandere l'esponenziale in serie di Taylor intorno allo 0
∞ ∞
(txi ) j t j
= ∑ P(X = xi )∑ = ∑ ∑ xij P(X = xi ) =
i=1 j=0
j! j=0
j! i=1
∞ j
= ∑ EX j
t
j=1
j!
Quindi, ricordando l'espansione di Taylor di una funzione intorno allo 0:
dj
EX j = mX (t)|t=0 (4)
dt j
X ∼ Po(𝜆)
k
∞ k ∞ ∞ e 𝜆 t
∑ ∑ tk 𝜆 -𝜆 -𝜆 ∑ t
mX (t) = tk
e P(X = k) = e e =e = e -𝜆 e 𝜆e =
k=0 k=0
k! k=0 k!
⏠⏣⏣⏣ ⏡⏣⏣⏣ ⏢
sommatoria di
un esponenziale
𝜆 e t -1
=e
Calcolata la funzione generatrice dei momenti possiamo anche tornare indietro ed
espanderla, ma, come si può vedere in (4) per espanderla in serie Taylor dobbiamo
comunque calcolare i momenti tramite la derivazione ripetuta.
Quindi, se immaginiamo di calcolare il momento primo (valore atteso):
d 𝜆 t
e -1
EX = mX (t)|t=0 = 𝜆e e t |t=0 = 𝜆
dt
Proprietà della funzione generatrice dei momenti
Date X,Y VV.AA. indipendenti allora:
mX+Y (t) = mX (t) ⋅ mY (t)
Cioè
Ee t(X+Y) =
E questo è vero perché, per quanto visto nella esercitazione 5, il valore atteso si fattorizza
qunado le VV.AA. sono indipendenti.
= Ee tX+tY = E e tX e tY = Ee tX Ee tY
⏠⏣⏣
⏡⏣⏣

X,Y sono
indipendenti

tX tY
e , e sono
indipendenti
Questo ci dice, che, conoscendo le funzioni generatrici dei momenti delle due singole
VV.AA. possiamo ricostruire la funzione generatrice dei momenti della V.A. somma, a
patto che le due VV.AA. siano indipendenti.
Proposizione
Sia X,Y VV.AA. con funzione generatrice dei momenti (cioè i momenti esistono).
Allora sono identicamente distribuite
se e solo se
mX (t) = mY (t) , ∀t / ∃mX (t) ∧ ∃mY (t)
Quindi di fatto abbiamo una caratterizzazione della distribuzione della VV.AA. tramite la
funzione generatrice dei momenti.
Esempio siano X,Y due VV.AA. indipendenti e tali che:
X ∼ Po(𝜆)
Y ∼ Po(𝜇)
Studio:
Z = X+Y
Già nello studio della convoluzione abbiamo visto che una somma di due variabili
aleatorie di Poisson indipendenti è ancora distribuita come una variabile di Poisson con
parametro pari alla somma dei parametri.
Conosco la funzione dei momenti di X e Y in quanto sono delle poisson quindi posso
scrivere la funzione generatrice dei momenti sfruttando quanto detto prima.
Sappiamo che:
𝜆 e t -1
mX (t) = e
𝜇 e t -1
mY (t) = e
Perciò
𝜆 e t -1 𝜇 e t -1 (𝜆+𝜇) e t -1
mZ (t) = mX (t) ⋅ mY (t) = e ⋅e =e
Dobbiamo notare che la funzione generatrice dei momenti di Z ha la stessa forma della
funzione generatrice dei momenti di una Poisson di parametro 𝜇 + 𝜆 .
Quindi posso concludere:
Z ∼ Po(𝜆 + 𝜇)
Quindi la funzione generatrice dei momenti non è utile non solo a generare i momenti, ma
ci permette di lavorare più semplice mente su alcune VV.AA.

Potrebbero piacerti anche