Sei sulla pagina 1di 18

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

1

4 — Variabili aleatorie

1

Introduzione

A seconda del fenomeno che studiamo, lo spazio campionario e gli eventi di cui ci interessa calcolare la probabilit`a possono essere molto complicati da esprimere con il linguaggio della probabilit`a elementare. Esiste un “meccanismo” standard, per riconvertire in un linguaggio pi`u spiccatamente matematico alcuni aspetti della suddivisione dello spazio campionario in eventi. In questo capitolo studieremo tale meccanismo, osservando (e si tratta di una cosa molto importante) che questa modellizzazione matema- tica ha il pregio di astrarre dal fenomeno particolare, per studiarne il comportamento probabilistico da un punto di vista pi`u generale. Esempio 1. Non ci facciamo caso, ma quando lanciamo un dado immediatamente convertiamo lo spazio campionario

Ω = , , , , ,

nel pi`u comodo Ω = {1, 2, 3, 4, 5, 6}, che tuttavia gi`a ne rappresenta una traduzione nel campo dei numeri. Esempio 2. Alcuni esempi immediati:

Supponiamo di lanciare in aria per quattro volte una moneta, e di essere interessati a calcolare la probabilit`a che sui quattro lanci escano tre teste ed una croce; se volessimo descrivere questo esperimento solo con gli eventi “esce testa” ed “esce croce”, correremmo il rischio di infilarci dritti in un ginepraio di casi, sottocasi, eccetera, `e molto meglio allora, disporre di un meccanismo che idealmente “conti” le teste uscite, con il quale quindi sia facile esprimere la frase “sono uscite esattamente tre teste”.

Siamo ad un centralino e, misurando il tempo che intercorre tra una telefonata e la successiva, dobbiamo calcolare la probabilit`a che non trascorra pi`u di un minuto, evidentemente `e comodo trasferire direttamente le relazioni tra le durate a delle relazioni tra numeri.

Stiamo giocando a Monopoli, ci interessa che, al prossimo lancio dei dadi, il punteggio ottenuto sia 8, se volessimo di nuovo occuparci di questo con eventi qualsiasi, dovremmo prendere in considerazione gli eventi “sul primo dado sono usciti due pallini, sul secondo dado ne sono usciti sei”, “sul primo dado sono usciti tre pallini, sul secondo dado ne sono usciti cinque”, e cos`ı via fino a “sul primo dado sono usciti sei pallini, sul secondo dado ne sono usciti due”.

La trasformazione che ci permette di tradurre gli eventi della realt`a in numeri si chiama variabile aleatoria, vediamo come si costruisce e come funziona. Partiamo dallo spazio di probabilit`a (Ω, F , P), immaginiamo di suddividere Ω in tutti gli eventi elementari ω i , non ci interessa se gli ω i sono in numero finito o infinito, una variabile aletoria X `e una “funzione” da Ω in R che fa corrispondere a ciascun ω i un numero reale: X(ω) = r, questa corrispondenza deve avvenire in modo che r R l’insieme A r cos`ı definito

A r = {ω|X(ω) r},

sia un evento. Evidenziamo tutto ci`o in una definizione.

Definizione 1 (Variabile aleatoria). Dato uno spazio di probabilit`a (Ω, F , P), si dice variabile aleatoria una corrispondenza tra gli elementi di ed i numeri (reali). Per poter essere una variabile aleatoria, tale corrispondenza deve soddisfare la seguente propriet`a

A r = {ω|X(ω) r} ∈ F

r R

Chiameremo supporto l’insieme dei valori che la variabile aleatoria pu`o assumere.

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

2

Esempio 3. Riprendiamo i tre esempi (la moneta, le telefonate e i dadi).

Nell’esempio della moneta, Ω `e formato da tutte le “quaterne” con gli esiti dei lanci, con ovvia simbologia:

Ω = {T 1 T 2 T 3 T 4 , T 1 T 2 T 3 C 4 ,

,

C 1 C 2 C 3 T 4 ,

C

1 C 2 C 3 C 4 }

ciascun ω i `e allora una di queste quaterne (quante sono?) e l’evento “sono uscite tre teste ed una croce” corrisponde all’evento

E = {T 1 T 2 T 3 C 4 , T 1 T 2 C 3 T 4 , T 1 C 2 T 3 T 4 , C 1 T 2 T 3 T 4 }

se adesso introduciamo la variabile aleatoria X =“numero di teste uscite su quattro lanci”, possiamo scrivere

(X = 3) = E = {T 1 T 2 T 3 C 4 , T 1 T 2 C 3 T 4 , T 1 C 2 T 3 T 4 , C 1 T 2 T 3 T 4 }.

Nell’esempio del centralino, supponiamo che il tempo intercorso tra una telefonata e la successiva venga misurato in secondi, possiamo pensare che lo spazio campionario Ω sia composto da tutti i numeri positivi, definiamo allora la variabile aleatoria

X = “Tempo (in secondi) intercorso tra la terza e la quarta telefonata”,

la probabilit`a che il tempo intercorso tra la terza e la quarta telefonata sia al massimo un minuto pu`o scriversi allora come

P [“Al massimo un minuto tra terza e quarta telefonata”] = P [X 60] .

Per quanto riguarda i dadi, sappiamo che

Ω = , , , ,

, ,

l’evento che corrisponde a “la somma vale 8”, chiamiamolo S 8 , `e dato da tutte e sole le coppie sottoelencate:

S 8 = , , , , ,

se allora X `e la variabile aleatoria “somma dei risultati”, allora

(X = 8) = S 8 .

Anche dagli esempi, appare evidente l’esistenza di due differenti tipi di variabili aleatorie: quelle che possono assumere certi valori ben precisi (pensiamo alla moneta o ai dadi, ma pensiamo anche alla variabile aleatoria che descrive il numero di stelle presenti nell’universo: quest’ultima — a priori — pu`o assumere anche valori infinitamente grandi, tuttavia `e vincolata ad assumere valori interi), e quelle che assumono — a priori — qualsiasi valore di un intervallo, limitato o illimitato che sia (ad esempio, il tempo che intercorre tra le due telefonate). Le variabili aleatorie del primo tipo si dicono variabili aleatorie discrete, quelle del secondo tipo variabili aleatorie continue. In effetti, vi `e un terzo tipo di variabili aleatorie, le cosiddette variabili aleatorie miste, costituite come suggerisce il nome dalla combinazione di una componente discreta e di una continua. Delle variabili miste parleremo pi`u avanti, per ora limitiamoci a considerare le variabili aleatorie discrete e continue: le definizioni e le propriet`a che regolano l’impiego delle prime e delle seconde sono leggermente differenti; definiremo separatamente i due tipi, dopodich´e esporremo in parallelo le propriet`a e le applicazioni di entrambe.

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

3

2

Definizioni

2.1 Densit`a di variabili aleatorie discrete

Abbiamo visto che una variabile aleatoria X discreta pu`o assumere solo “certi” valori, siano essi x i (se

, probabilit`a che X assuma proprio quel valore: P [X = x i ] = p X (x i ); ovviamente, avremo

sono in numero finito, i ∈ {1, 2,

per ciascuno di essi, potremo definire la

n}, altrimenti i ∈ {1, 2,

});

i

p X (x i ) = 1;

l’“oggetto” p X che abbiamo ricavato `e fondamentale, mettiamolo in evidenza attribuendogli un nome.

Definizione 2 (Densit`a di probabilit`a di una variabile aleatoria discreta). L’insieme delle quantit`a

p X (x i ) (= P [X = x i ])

`e detto densit`a (discreta) della variabile X.

Possiamo a questo punto definire in maniera univoca la probabilit`a che X assuma certi valori: sup- poniamo di dover calcolare P [a < X b], innanzitutto stabiliamo quali dei possibili valori di X stanno effettivamente tra a e b, questi formeranno un sottoinsieme (chiamiamolo A) di tutti gli x i :

A = {x i |a < x i b},

ora, P [a < X b] altro non `e che la somma delle probabilit`a relative agli x i che appartengono ad A:

P[a < X b] = P[X = x i ];

x i A

analogamente, possiamo elencare per maggior chiarezza alcuni dei casi possibili

P[X

c]

=

P[X

=

x i ]

ove

A = {x i |x i c},

 

x i A

P[X > d] =

P[X = x i ]

ove

A = {x i |x i > d}.

x i A

Osserviamo poi che pu`o sussistere una differenza sostanziale tra P [a < X b] e P [a < X < b], infatti

P[a < X b] = P[a < X

< b] + P[X = b] ,

e, se uno degli x i coincide con b, P [X = b] `e un numero diverso da zero. Inoltre, visto che si tratta di eventi complementari, abbiamo la seguente relazione:

P[X > d] = 1 P[X d] .

Esempio 4. Sia X la variabile aleatoria “Numero di Teste uscite dopo due lanci d’una moneta equilibrata”. Possiamo elencare cos`ı gli elementi dello spazio Ω:

Ω = {(T, T ); (T, C); (C, T ); (C, C)} ;

si tratta chiaramente di uno spazio equiprobabile, il che significa che ciascuna delle quattro coppie ha probabilit`a 1/4 di accadere. Evidentemente, X pu`o assumere i valori 0 (due croci), 1 (una testa ed una croce) e 2 (due teste). Scriviamo allora esplicitamente la corrispondenza definita da X:

X(T, T ) = 2

X(C, T ) = X(T, C) = 1

X(C, C) = 0,

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

4

o anche

quindi

(T, T ) (X = 2);

P [X = 2] = 1 4 ;

A titolo di esempio:

(T, (C, C) T ) (X = 1);

P [X = 1] =

2

4 ;

(C, C) (X = 0);

P [X = 0] = 1

4 .

P [2 < X

< 0.5]

=

P [X = 0]

0 `e l’unico valore tra -2 e 0.5.

< 0.5]

=

P [2 < X 0.5]

0.5 non `e tra i valori di X.

P [2 < X P [0 < X

2]

=

P [X

= 1] + P [X = 2]

P [0 < X

<

2]

=

P [X = 1]

 

La densit`a p X non `e una funzione, possiamo comunque rappresentarla graficamente, evidenziando con barre verticali i valori che assume:

p X (x)

0.5

0 . 5

0.25

0 . 25
 
0 . 25    
 
 

1

2

x

2.2 Densit`a di variabili aleatorie continue

Se X `e una variabile aleatoria continua, cambia completamente l’ambiente nel quale ci muoviamo: ora

il supporto (ossia i valori che X pu`o assumere) costituisce un insieme I R, che ha la potenza del

continuo; questo impone che la probabilit`a che X assuma un preciso valore di I debba per forza essere 0. In altre parole, se X `e continua, qualsiasi sia a,

P[X = a] = 0.

A molte variabili aleatorie continue `e possibile associare una “funzione di densit`a di probabilit`a” f X tale

per cui, a, b R,

P[a < X b] = f X (x) dx

a

b

per distinguerle, queste vengono chiamate “variabili aleatorie assolutamente continue” Notiamo che possiamo prolungare la funzione di densit`a a tutti i valori reali, con la semplice relazione

I f X (x) = 0.

x

Riordiniamo quanto abbiamo detto in una definizione:

Definizione 3 (Funzione densit`a di probabilit`a di una variabile aleatoria continua). Sia X una variabile aleatoria continua, se esiste una funzione f X tale per cui, a, b R,

b

P[a < X b] = f X (x) dx,

a

allora f X (x) `e detta funzione densit`a di probabilit`a di X.

Ci`o significa che esistono variabili aleatorie continue cui non `e possibile associare una densit`a, di queste non ci occuper- emo, e pertanto useremo senza pericolo di equivoco la dicitura “variabile aleatoria continua” intendendo in realt`a “variabile aleatoria assolutamente continua”.

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

5

Osserviamo alcune cose:


b altro non `e che una “somma” dei valori di f X (x), fatta per tutti i valori della x tra a e b, tale

a

definizione si ricollega a quella analoga per le variabili aleatorie discrete.

Sia per la definizione di integrale, sia per quanto dicevamo pi`u sopra, se X `e una variabile aleatoria continua l’uguaglianza P [a < X b] = P [a < X < b] `e sempre vera, contrariamente a quanto pu`o accadere con le variabili aleatorie discrete.

Ovviamente, f X (x) 0 per ogni x R; e f X (x) > 0 solo se x I.

Per definizione di probabilit`a,

+

−∞

f X (x) dx = 1.

Esaminiamo brevemente, adattandole al caso continuo, le probabilit`a elencate pi`u sopra riguardo alle variabili aleatorie discrete:

c

P[X c] = P[X < c] =

−∞

f X (x) dx,

P[X c] = P[X

> c] = +f X (x) dx.

c

Esempio 5. Supponiamo che sia possibile estrarre un numero reale a caso nell’intervallo [1, 3], in modo

 

`

che nessuna zona dell’intervallo sia privilegiata. Sia Y la variabile aleatoria “numero estratto”.

E chiaro

che il supporto di Y `e dato dallo stesso intervallo [1, 3], e che su questo intervallo la funzione densit`a avr`a un valore costante k (equivalente probabilistico di una sbarretta “omogenea”), la f Y sar`a allora definita nel modo seguente:

f Y (x) =

0

k

0

x < 1 1 x 3 , x > 3

quanto vale k? Sfruttiamo il fatto che per ogni densit`a f Y (x) dx = 1:

+

−∞

f Y (x) dx = 1 3 k dx = 2k = 1,

1

1

pertanto k = 2 . Il grafico di f Y `e indicato in figura

f Y (x) 1 0.5 x 1 3
f Y (x)
1
0.5
x
1
3

2.3 Funzioni di ripartizione

Sia nel caso di una variabile aleatoria discreta, sia nel caso di una variabile aleatoria continua, possiamo definire la funzione di ripartizione, o funzione cumulativa:

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

6

Definizione 4 (Funzione di ripartizione). Data una variabile aleatoria X, la funzione

F X (t) = P[X t]

prende il nome di funzione di ripartizione di X.

Ovviamente, le modalit`a effettive di calcolo della F X differiscono per le variabili aleatorie discrete e continue:

oppure

F X (t) = t

−∞

F X (t) =

x i t P[X = x i ]

f X (x) dx.

Esempio 6. Le funzioni di ripartizione delle due variabili aleatorie X e Y degli esempi 4 e 5 hanno le seguenti espressioni:

F X (x) =

  0

  

1

  4

 

3

 

4

 

x < 0

0 x < 1

1 x < 2

1 x 2

,

F Y (x) =

   0

x < 1

1 x < 3 .

x 1

2

1 x 3

I grafici delle due F sono riportati qui di seguito

F X (x) 1 0.75 0.5 0.25 x 1 2
F X (x)
1
0.75
0.5
0.25
x
1
2
F Y (x) 1 0.5 x 1 3
F Y (x)
1
0.5
x
1
3

Possiamo subito fare alcune osservazioni. Se X `e discreta, la F X sar`a fatta “a scalini”, come nella prima figura: in corrispondenza di ogni scalino, la F `e continua a destra; nella figura, evidentemente tutti gli x i sono rappresentati, dato che F raggiunge il valore 1. Se X `e continua, allora la sua F dovr`a essere continua (essendo l’integrale di una funzione f che, perlomeno, `e continua a tratti. Riassumendo, le principali propriet`a della F sono le seguenti:

F `e compresa tra 0 e 1.

F `e crescente (meglio: non decrescente).

lim t F X (t) = 0 e lim t+ F X (t) = 1.

F `e limitata a sinistra e continua a destra.

F `e una funzione continua se X `e continua, F `e fatta ”a scalini” se X `e discreta.

Il ruolo di F `e fondamentale per calcolare le probabilit`a, esse possono essere sempre scritte in funzione di F ; se X `e discreta:

P[a < X b] = F X (b) F X (a)

P [X > a] = (1 P [X a]) = 1 F X (a)

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

7

(ricordando che in questo caso pu`o capitare che P [X < b]

= P [X b]); se X `e continua

P[a < X < b] = P[a X

b] = F X (b) F X (a)

P[X

< b] = P[X b] = F X (b)

P[X

> a] = P[X

a] = 1 F X (a).

3 Indici di posizione di una varabile aleatoria

3.1 Valore atteso di una variabile aleatoria

Definizione 5 (Valore atteso). Data una variabile aleatoria X, il suo valore atteso, se esiste, `e dato da:

E[X] = x i P[X = x i ]

i

+

E[X] =

−∞

xf X (x) dx.

Osserviamo che si tratta di una “media pesata” dei valori che X pu`o assumere. Come `e accaduto per

la

funzione di ripartizione, anche in questo caso la definizione matematica cambia a seconda che si tratti

di

variabile aleatoria discreta o continua.

Esempio 7. Supponiamo che X possa assumere unicamente i valori -2, 0 e 1, con la seguente legge:

P [X = 2] =

3

10 ,

1

P [X = 0] = 5 ,

P [X = 1] =

il valore atteso di X sar`a allora

E[X] = 2 · 10 + 0 · 5 + 1 · 2 = 1

3

1

1

10 .

1

2 ;

Esempio 8. Prendiamo adesso la variabile aleatoria continua Y definita dalla funzione di densit`a

calcoliamo E [Y ]:

+

E[Y ] =

−∞

f Y (y) =

1

3

0

y 2

1 < y < 2

altrove

,

2

yf Y (y) dy = 1 y

1

3

y 2 dy =

y 4

1

3

4

2

1

= 5 4 .

Il valore atteso gode delle seguenti propriet`a, la prima `e immediata, la seconda costituisce una formula alternativa per il calcolo di E [X].

Propriet`a 1. Siano a e b due numeri reali, allora:

E[a] = a,

aE [X] + b.

E [aX + b] =

Propriet`a 2. Sia X una qualsiasi variabile aleatoria, e sia F X la sua funzione di ripartizone, allora

0

E[X] = −∞ F X (x) dx + +[1 F X (x)] dx.

0

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

8

Dimostrazione: Dimostriamo questa propriet`a nel caso in cui X sia continua, per definizione

di F X si ha che

[1 F X (x)] =

x

+

f X (t) dt

e

x

F X (x) =

−∞

f X (t) dt

quindi

allo stesso modo

+

0

[1 F X (x)] dx = +dx

0

t=x

t=+

f X (t) dt =

= +

0

dt

x=t

x=0

f X (t) dx = +tf X (t) dt,

0

−∞ F X (x) dx =

0

t=−∞ dx −∞

t=0

x

f X (t) dt =

= −∞ dt

x=t

0

x=0

0

f X (t) dx =

−∞

tf X (t) dt,

e pertanto, unendo le due formule:

+

0

0

[1 F X (x)] dx +

−∞

F X (x) dx =

= +

0

tf X (t) dt + −∞ tf X (t) dt =

−∞

0

+

tf X (t) dt = E [X] .

3.2 Moda, Quantili e Mediana

Definizione 6 (Moda). Sia X una variabile aleatoria discreta o continua, si chiama moda di X il valore, se esiste, per cui `e massima la densit`a.

Se X `e discreta, la moda esiste sempre (ma potrebbe non essere unica: due o pi`u valori potrebbero avere lo stesso valore della densit`a p X ), se X `e continua, pu`o anche capitare che la moda non esista. Esempio 9.

) Sia X la variabile aleatoria dell’esempio 4, la moda di X `e 1.

) Sia Y la variabile aleatoria “esito del lancio di un dado”, ciascuno dei 6 valori di Y `e la sua moda.

) Siano U , V e W le variabili aleatorie con densit`a rispettivamente

la

6x(1 x)

f U (x) =

0

 
 

3

x 2

1 x 1

f V (x) =

2

0

 

altrove

 

1

0 < x < 1

f W (x) =

2 x

0

altrove

0 x 1 altrove

moda di U `e 1 2 , V ha come mode 1 e 1, W non ha moda.

Ricordiamo che negli integrali doppi, sotto ipotesi per noi sempre verificate, `e possibile scambiare l’ordine di integrazione.

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

9

Definizione 7 (Quantile). Dato α (0, 1), si dice quantile di ordine α della variabile aleatoria X il pi`u piccolo numero x α tale che

P[X < x α ] α P[X

x α ] .

Osserviamo che, se X `e una variabile aleatoria continua e ha come supporto un intervallo, il quantile x α `e l’unica soluzione dell’equazione F X (x α ) = α:

1 F X (x) α x α x
1
F X (x)
α
x α
x

mentre in tutti gli altri casi l’equazione F X (x α ) = α pu`o non avere soluzione (in presenza di un punto di discontinuit`a di F ) o averne infinite (quando F X (x) = α per ogni x [a, b)):

1

1

α

F X (x)

F X (x)

 

α

 
   
 
   
 

x

x

nel primo caso si sceglie come quantile l’ascissa del punto di discontinuit`a, nel secondo caso l’ascissa dell’estremo sinistro dell’intervallo:

1 F X (x) α x α x Un particolare quantile `e la mediana:
1
F X (x)
α
x α
x
Un particolare quantile `e la mediana:
1 F X (x) α x α x
1
F X (x)
α
x α
x

Definizione 8 (Mediana). Si dice mediana della variabile aleatoria X il quantile di ordine 0.5: x 0.5 .

Esempio 10. Calcoliamo il generico quantile di ordine α della variabile aleatoria dell’esempio 7. Ricaviamo immediatamente che

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

10

Pertanto

F X (x) =

  0

 

x < 2

2 x < 0 0 x < 1

0.3

0.5

1 x 1

,

0 < α 0.3 0.3 < α 0.5 α > 0.5

 

1

0.5

0 . 5
 
0 . 3

0.3

 

2

 

1

x

x α = 2, x α = 0, x α = 1.

 

Esempio 11. Calcoliamo il generico quantile y α di ordine α della variabile aleatoria dell’esempio 8. Poich´e

allora

F Y (y) =

y

1 1

3 t 2 dt =

1

9

(y 3 + 1),

1 y −1 2
1
y
−1
2

   0

1

9

y < 1

1 y < 2 ,

(y 3 + 1)

1 y 2

in un caso come questo `e sufficiente, posto 0 < α < 1, osservare che y α `e l’unica soluzione dell’equazione

F Y (y α ) = α, poich´e senz’altro 1 < y α < 2 possiamo scrivere:

1

9 (y α

3

+ 1) = α,

y α = 9α 1.

3

4 Variabile aleatoria funzione di un’altra variabile aleatoria

In generale, se X `e una variabile aleatoria e g `e una funzione reale di variabile reale, allora anche g(X)

`e una variabile aleatoria. A partire da F X `e allora possibile calcolare le probabilit`a relativamente alla nuova variabile aleatoria g(X), illustreremo tale metodo con due esempi. Esempio 12. Sia X la variabile aleatoria il cui supporto `e l’intervallo [0, 2], avente la seguente funzione

di ripartizione:

F X (x) =

0

x

2

1

x < 0

0 x < 2

x 2

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

11

Definiamo le seguenti variabili aleatorie: V = X 2 , W = e X ; calcoliamo F V e F W . Consideriamo dapprima V , ovviamente il supporto di V sar`a l’intervallo [0, 4], pertanto

F V (v) = 0

v 0

e

F V (v) = 1

v 4;

mentre, se v [0, 4]:

F V (v) = P[V

v] = P X 2 v = P X v = F X ( v),

quindi, poich`e v [0, 4] v [0, 2]:

F V (v) =

0

F X ( v) = v

v < 0

0 v < 4

1

2

  v 4

.

Consideriamo ora W , il cui supporto sar`a [e 0 , e 2 ] = [1, e 2 ], di nuovo:

mentre, se w [1, e 2 ]:

F W (w) = 0

w 1

e

F W (w) = 1

w e 2 ;

F W (w) = P[W w] = P e X w = P [X log w] = F X (log w),

quindi, poich`e w [1, e 2 ] log w [0, 2]:

F W (w) =

0

F X (log w) = log w

1

2

w < 1

1 w < e 2

w e 2

.

Questo metodo si pu`o applicare (con la dovuta attenzione) a variabili aleatorie di ogni tipo. Inoltre, solo nel caso che X sia continua, vale il seguente teorema:

Teorema 1. Sia X una variabile aleatoria continua e sia Y = g(X). Se g `e una funzione invertibile nel supporto di X, e h `e la sua inversa , allora:

f Y (y) = f X (h(y))|h (y)|.

Dimostrazione: Supponiamo che g sia crescente, allora

F Y (y) = P[Y y] = P[g(X) y] = g(x)y f (x)dx

adesso sfruttiamo le regole dell’integrazione per sostituzione (se x = h(t), e h > 0):

g(x)y f (x)dx = ty f (h(t))h (t)dt.

Da questo caso generale ne discende in particolare, se il legame tra X e Y `e lineare (Y = aX + b),

che

f Y (y) = f X y b

a

1

|a| .

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

12

4.1 Un importante esempio — Simulazione

Sia X una variabile aleatoria tale che

f X (x) =

f X ( x ) =

1

0

0 x 1

altrove

F X (x) =

  0

x

1 x 1

x < 0

0 x < 1

e sia G una funzione di distribuzione continua e strettamente crescente. Mostriamo che, se Y = G 1 (X), allora F Y (y) = G(y), infatti

F Y (y) = P[Y y] = P G 1 (X) y = P [X G(y)] = G(y).

Questo risultato `e molto utile qualora sia necessario simulare una variabile aleatoria continua Y , infatti X rappresenta un numero estratto in maniera casuale nell’intervallo [0, 1] (cio`e, l’output di una routine random) e, note che siano G e G 1 , `e possibile trasformare X in Y .

4.2 Valore atteso di una funzione di una variabile aleatoria

Il nostro scopo sar`a ora il seguente: abbiamo una certa variabile aleatoria X, della quale conosciamo densit`a eccetera, abbiamo poi una variabile aleatoria Y che `e funzione di X (cio`e Y = g(X)), dobbiamo calcolare E [g(X)]. Ovviamente `e possibile farlo a patto di ricavare la densit`a della g(X), ma abbiamo appena visto che ci`o non `e sempre agevole. Il prossimo teorema fornisce una scorciatoia.

Teorema 2. Sia X una variabile aleatoria e Y = g(X) una sua funzione, allora, se E [g(X)] esiste, si ha

E [g(X)] = g(x i )P[X = x i ] ,

i

+

E [g(X)] =

−∞

g(x)f X (x) dx.

Dimostrazione: Lo dimostriamo nel caso discreto. Ogni y j `e immagine di uno o pi`u x i , chiamiamoli x j,i , cio`e

questo significa che

g(x j,i ) = y j

i,

P[Y = y j ] = P[X = x j,i ] .

i

Calcoliamo il valore atteso di g(X):

E [g(X)] = E [Y ] = y j P[Y = y j ] =

j j

y j

i

P[X = x j,i ] ,

e quindi

E [g(X)] = E [Y ] =

j

i

y j P[X = x j,i ] ,

ma proprio poich´e y j = g(x j,i ) possiamo scrivere che

j

i

y j P[X = x j,i ] =

j

i

g(x j,i )P[X = x j,i ] ,

osserviamo che l’ultima somma viene effettuata (anche se in ordine sparso) su tutti gli x i , quindi altro non `e che i g(x i )P[X = x i ].

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

13

Esempio 13. Riprendiamo le variabili aleatorie X e Y degli esempi 7 e 8, e proviamo a calcolare E X 2 , E Y 2 e E e Y :

e

E X 2 = (2) 2 · 10 + (0) 2 · 5 + (1) 2 ·

3

1

+

E Y 2 =

−∞

y 2 f Y (y) dy = 1 y 2 1

2

3 y 2 dy =

1

17

10 ;

2

y 5

5

3

1

2 =

1

E e Y

=

=

+

−∞

2

e y f Y (y) dy =

1

e y 1

3 y 2 dy =

1

3

e y (y 2 2y + 2) 2

1 =

2

3 e 2

5

3e .

= 31

15

5 Momenti di una variabile aleatoria

Definizione 9 (Momenti di una variabile aleatoria). Si dice momento k-esimo di una variabile aleatoria X, e si indica con µ k , la seguente quantit`a:

µ k = E X k = x

i

k

i

p X (x i ),

+

µ k = E X k =

−∞

x k f X (x) dx.

Osserviamo che il momento primo di una variabile aleatoria `e lo stesso valore atteso, ci`o spiega perch´e useremo sovente (quando sar`a chiaro dal contesto) il simbolo µ per la media di X.

5.1 Varianza di una variabile aleatoria

Definizione 10 (Varianza). Data una variabile aleatoria X, il cui valore atteso vale E [X] = µ, si chiama Varianza di X, e si indica con Var [X] il seguente valore atteso:

Var [X] = E (X µ) 2 .

Possiamo dimostrare la seguente formula

Proposizione 1.

Dimostrazione:

Var [X] = E X 2 µ 2 .

Var [X]

=

E (X µ) 2 = E X 2 2+ µ 2 =

=

E X 2 2µE[X] + µ 2 =

=

E X 2 µ 2 = E X 2 (E [X]) 2 .

Osserviamo quindi che, a partire dai momenti di X, possiamo scrivere

Var [X] = µ 2 (µ 1 ) 2 .

Come per il valore atteso, anche per la varianza valgono alcune semplici propriet`a:

Propriet`a 3. Siano a e b due numeri reali, allora:

Probabilit`a e Statistica — Appunti 2009 — ©Marco Boella

14

Var [aX + b] = a 2 Var [X].

Esempio 14. Possiamo calcolare le varianze delle due variabili aleatorie X e Y definite negli esempi 7

e

8, sappiamo gi`a (esempio 13) che

1

E[X] = 10 ,

E X 2 = 17 ,

10

E[Y ] = 5 4 ,

E Y 2 = 31 15 ;

e

ricaviamo velocemente, usando la proposizione sopra dimostrata:

Var [X] = 17

10

10 2

1

=

169

100 ,

Var [Y ] = 31 15

5 2 = 121

4

240 .

Esempio 15. Qual `e il significato della varianza? Vediamo di calcolare la varianza delle quattro variabili

aleatorie cos`ı definite:

P[X 1 = 1] = 0.5 P[X 1 = 1] = 0.5

P[Y 1 = 61] = 0.5 P[Y 1 = 59] = 0.5

P[X 2 = 10] = 0.5

P[Y 2 = 70] = 0.5 P[Y 2 = 50] = 0.5 ;

P[X 2 = 10] = 0.5

si vede subito che

E[X 1 ] = E[X 2 ] = 0

E[Y 1 ] = E[Y 2 ] = 60,

facendo poi i conti

 

E

E

E

E

pertanto

X

X

2

1

= (1) 2 · 0.5 + (1) 2 · 0.5 = 1

2 = (10) 2 · 0.5 + (10) 2 · 0.5 = 100

2

Y

2

1

Y

2

2

= (59) 2 · 0.5 + (61) 2 · 0.5 = 3601

= (50) 2

· 0.5 + (70) 2 · 0.5 = 3700

Var [X 1 ] = 1 (0) 2 = 1

Var [X 2 ] = 100 (0) 2 = 100

Var [Y 1 ] = 3601 (60) 2 = 1

Var [Y 2 ] = 3700 (60) 2 = 100.

A conferma di quanto enunciato sopra tra le due propriet`a della varianza, vediamo in effetti che, in accordo

con le relazioni X 1 + 60 = Y 1 e X 2 + 60 = Y 2 , si h