Sei sulla pagina 1di 13

Variabili casuali doppie continue

Variabili casuali doppie continue


Quando lesito di un esperimento casuale `e una coppia di risultati numerici
X e Y entrambi appartenenti a intervalli niti o inniti dellinsieme dei
numeri reali diremo che (X, Y ) rappresenta una variabile continua doppia.
Cos` come una variabile casuale continua singola viene reppresentata
attraverso la sua funzione di densit`
a, anche le variabili doppie vengono
descritte attraverso la loro funzione di densit`a che in questo caso `e una
funzione a due variabili e prende il nome di funzione di densit`a congiunta.
Per la variabile casuale (X, Y ) indicheremo con pX,Y (x, y) o fX,Y (x, y)
la sua densit`
a congiunta. Attraverso la funzione di densit`a congiunta
possiamo calcolare la probabilit`
a di ogni evento relativo alla v.c (X, Y ).
Sia infatti B = {x : x Bx , y : y By }. Linsieme B `e quindi
uguale al prodotto cartesiano degli insiemi Bx e By , ovvero B = Bx By .
Levento (X, Y ) B equivale allintersezione degli eventi X Bx e Y
a di questo evento `e data dal volume sotto la supercie
By e la probabilit`
descritta dalla funzione di densit`
a di (X, Y ) limitatamente allinsieme B,
ovvero

fX,Y (x, y)dxdy


P [(X, Y ) B] = P (X Bx , Y By ) =
B

=
fx,y (x, y)dx dy
By

Bx

Analogamente al caso di una singola variabile casuale, anche per le variabili doppie la densit`
a congiunta non pu`o essere negativa e il suo integrale
sullinsieme R R deve essere pari ad 1.
ESEMPIO: 4.2 Verica su una densit`
a.
Consideriamo la seguente funzione
(x+y)
e
fX,Y (x, y) =
0

x > 0, y > 0
altrove

Verichiamo che `e una densit`


a congiunta.
La funzione fX,Y (x, y) `e sempre maggiore o uguale a 0 (x, y) R R.
Inoltre


fX,Y (x, y)dxdy =
e(x+y) dydx
0
0
RR

ex ey dxdy
=

0 0
ey
ex dx dy
=
0
0
y
=
e dy = 1
0

49

50

CAPITOLO 4. Variabili casuali doppie


e quindi la funzione fX,Y denisce eettivamente una densit`a.

Data la funzione di densit`a congiunta della v.c. (X, Y ) possiamo calcolare le densit`
a di X e di Y , che in questo contesto verranno chiamate
anche densit`
a marginali. Esattamente abbiamo che la marginale di X si
ottiene integrando la densit`a congiunta rispetto a tutti i valori che pu`o
assumere Y e quindi

fX,X (x, y)dy
fX (x) =

e analogamente
fY (y) =

fX,Y (x, y)dx

A partire dalle variabili casuali continue possiamo denire il concetto


di densit`
a condizionata. La densit`a condizionata di X dato Y = y riporta
la densit`
a di probabilit`a della variabile casuale X quando si `e vericato
Y = y. Essa verr`a indicata con fX|Y (x|y) ed `e pari al rapporto tra la
densit`
a congiunta e la densit`a marginale di X, In formule
fX|Y (x|y) =

fXY (x, y)
.
fY (y)

(4.1)

Per quanto riguarda la densit`a di Y condizionata ad X = x abbiamo


quindi
fXY (x, y)
.
(4.2)
fY |X (y|x) =
fX (x)
Le funzioni di densit`a condizionate sono a tutti gli eetti delle funzioni
di densit`
a, quindi devono essere maggiori o ugali a 0 e il loro integrale
(rispetto allargomento non condizionate) deve valere 1.
Osserviamo inne che conoscendo la densit`a marginale di Y e la condizionata di X|Y = y y possiamo ricavare la densit`a congiunta di X, Y .
Infatti, in base alla formula (4.1) abbiamo
fX,Y = fX|Y (x|y) fY (y).
Analogamente conoscendo la densit`a marginale di X e la condizionata di
Y |X = x x possiamo ricavare la densit`a congiunta di X, Y . Infatti, in
base alla formula (4.2) abbiamo
fX,Y = fY |X (y|x) fX (x).
ESEMPIO: 4.3 Simulazione in R di una variabile casuale doppia.
Supponiamo che la variabile doppia (X, Y ) sia tale che Y |X = x N (x, 1) e
X N (0, 1). Vogliamo disegnare in R 1000 realizzazioni della variabile doppia
(X, Y ). Possiamo procedere cos`

Alcune osservazioni sulla media


> x = rnorm(1000, 0, 1)
> y = rnorm(1000, x, 1)
> plot(x = x, y = y, pch = 16, col = 2)

ESERCIZI
4.1 Sia (X, Y ) una v.c. doppia con densit`a congiunta
2(x+y)
x > 0, y > 0
4e
fX,Y (x, y) =
0
altrove
Calcolare le densit`
a marginali di X e di Y
4.2 Sia (X, Y ) una v.c. doppia. Supponiamo che X N (0, 1) e Y |X =
x N (x, 1), ovvero la distribuzione di Y condizionata al risultato
X = x `e Normale con media x e varianza 1. Calcolare la densit`a
congiunta della v.c (X, Y ), la densit`a marginale di Y e la densit`a
condizionata di X|Y = y.
4.3 Supponiamo che la densit`
a congiunta della variabile (X, Y ) sia pX,Y (x, y) =
ey nella regione 0 < x < y < e 0 altrove. Calcolare le densit`a
marginali di X e di Y , la densit`
a condizionata di X dato Y = y, la
densit`a condizionata di Y dato X = x

Alcune osservazioni sulla media


Abbiamo denito la media X come

E(X) =
x p(x) dx
In alcuni casi, X `e una componente della variabile doppia (X, Y ). In
questi casi deniamo media di X condizionata ad Y = y la quantit`a

E(X|Y = y) = x pX|Y (x|y)dx

51

52

CAPITOLO 4. Variabili casuali doppie


osserviamo inoltre che possiamo scrivere

x pX,Y (x, y)dx dy.


E(X) =
x
pX,Y (x, y)dy dx =
Notiamo che nellultimo passaggio abbiamo invertito lordine di interazione. Inoltre, poiche pX,Y (x, y) = pX|Y (x|y)pY (y) possiamo anche
scrivere


E(X) =
x pX|Y (x|y)pY (y)dx dy

=
pY (y)
x pX|Y (x|y)dx dy

=
pY (y) (E(X|Y = y)) dy
= E(E(X|Y ))

ovvero, la media di X `e anche la media della variabile casuale E(X|Y ).


(Riettere sul fatto che E(X|Y ) `e una variabile casuale!!!). Questa regola
vale anche per variabili discrete.
ESEMPIO: 4.4 .
Sia N P oisson() e X|N Binomiale(N, ) allora
E(X|N = n) = n
e quindi
E(X) = E(E(X|N )) = E(N ) =

Data una variabile casuale doppia (X, Y ) ed una sua trasformazione


g(x, y) (che quindi associa alla coppia (x, y) un solo valore) la media della
variabile casuale g(X, Y ) `e data da

E(g(X, Y )) = g(x, y)fX,Y (x, y)dxdy


Una denizione analoga vale anche per le variabili discrete, ovvero

E(X + Y ) =
(x + y)p(x, y)
x

ESEMPIO: 4.5 Media della somma di due variabili discrete.


Sia (X, Y ) una v.c. doppia che assume i valori (0, 0), (0, 1), (1, 0), (1, 1) con
probabibilit`
a 1/4, 1/4, 1/4, 1/4. La media della v.c. W = X + Y `e quindi
1
1

1
1
1
1
(x + y)PX,Y (x, y) = 0 + 1 + 1 + 2 = 1
4
4
4
4
x=0 y=0

Indipendenza e misure di associazione

ESERCIZI
4.4 Sia (X, Y ) una v.c. doppia. Supponiamo che X N (0, 1) e Y |X =
x N (x, 1). Quanto vale la media della variabile Y ?
4.5 Sia (X, Y ) una v.c. doppia con densit`a congiunta
(x+y)
x > 0, y > 0
e
fX,Y (x, y) =
0
altrove
Calcolare la media della variabile casuale W = X + Y
4.6 Sia (X, Y ) il risultato del lancio di due dadi regolari. Calcolare la
media della variabile casuale W = (X + Y )
4.7 Sia X, Y una v.c doppia discreta che assume i valori x = 0, 1, . . . , ,
2 x+y
dimostrare che
y = 0, 1, . . . , con probabilit`
a p(x, y) = e x!y!
E(X + Y ) = 2

Indipendenza e misure di associazione


Due variabili casuali continue sono indipendenti se e solo se la loro densit`a
congiunta `e data dal prodotto delle densit`a marginali, ovvero se e solo se
fX,Y (x, y) = fX (x)fY (y)

(x, y) R R

Analogamente, due varibaili casuali discrete si dicono indipendenti se


la loro distribuzione di probabilit`
a congiunta `e data dal prodotto delle
probabilit`a marginali, ovvero se e solo se
p(X = x, Y = y) = p(X = x)p(Y = y)

(x, y)

ESEMPIO: 4.6 R e lindipendenza.


In R `e molto facile generare coppie di variabili casuali indipendenti. Ad esempio,
attraverso il comando
> rexp(2)
[1] 0.5039330 0.2287825
abbiamo generato una realiazzazione della variabile casuale (X, Y ) dove X e Y
sono indipendenti ed entrambe si distribuiscono come una v.c. esponenziale di
media 1.
Con il comando

53

54

CAPITOLO 4. Variabili casuali doppie


> rnorm(2, mean = c(-3, 3))
[1] -2.035268

2.416678

generiano invece due variabili Normali indipendenti con medie diverse e


rispettivamete uguali a -3 e 3 e con pari a 1

Osserviamo che se X e Y sono indipendenti allora la densit`a di Y


condizionata ad X = x in realt`a non dipende da x cos` come la densit`a
X condizionata ad Y = y in realt`a non dipende da y. Dimostre, per
esercizio, che fX|Y (x|Y = y) = fX (x) implica che fY |X (y|X = x) =
fY (y). Osservazioni analoghe valgono per le variabili discrete.
Se due variabili casuali non sono indipendenti, allora sono dipendenti.
Per misurare il grado di associazione tra due variabile casuali possiamo
utilizzare la covarianza che misura il grado di dipendenza lineare tra due
variabili. La covarianza tra le variabili casuali X e Y `e denita da
Cov(X, Y ) = E[(X E(X))(Y E(Y ))]
Si dimostra (provare per esercizio) che, se a, b, c e d sono delle costanti
Cov(aX + b, cY + d) = a c Cov(X, Y ).
Inoltre, se X e Y sono variabili indipendenti allora la covarianza vale
0. Bisogna per`
o fare attenzione alla relazione opposta, ci possono essere
variabili che hanno covarianza 0 e che sono dipendenti.
Per avere una misura indipendente dallunit`a di misura si utilizza la
correlazione. La correlazione tra le variabili casuali X e Y `e denita da
Cor(X, Y ) =

Cor(X, Y )
V ar(X) V ar(Y )

La correlazione `e invariante rispetti a cambiamenti di posizione e scala.


Abbiamo infatti che se X e Y sono variabili casuali e a, b, c e d costanti
Cor(aX + b, cY + d) = Cor(X, Y )
Correlazione e covarianza, per`o, misurano solo lassociazione lineare
tra due variabili casuali. Ovvero sono strumenti in grado di rilevare
solo quelle situazioni in cui le relizzazioni delle due variabili casuali si
dispongono intorno ad una retta

ESERCIZI
4.8 Sia (X, Y ) una v.c. doppia con densit`a congiunta
(x+2y)
x > 0, y > 0
2e
fX,Y (x, y) =
0
altrove
dimostrare che X e Y sono indipendenti

Indipendenza e misure di associazione


4.9 Sia (X, Y ) una v.c. doppia dove X e Y sono indipendenti ed entrambe
Normali standard. Calcolare la densit`a congiunta di (X, Y )
4.10 Sia (X, Y ) una v.c. continua doppia con densit`a congiunta proporzionale
a c per 0 x 1 e 0 y x e pari a 0 al di fuori di questo insieme. Disegnare larea del piano in cui la densit`a `e positiva. Calcolare geometricamente (ovvero utilizzando il concetto di integrale
a due variabili come volume sotto la supercie descritta dalla funzione integranda) il valore della costante c. Stabilire se X e Y sono
indipendenti.
4.11 Siano X1 e X2 due variabili casuali esponenziali indipendenti con media pari a 1. Calcolare la funzione di densit`a della variabile casuale
min {X1 , X2 }

Analisi bivariate per insiemi di dati con R


In R sono disponibili diversi insiemi di dati. Per poterci lavorare bisogna
dare il comando data con il nome del data set. Uno di questi data set si
chiama iris e lo possiamo caricare con il seguente comando
> data(iris)
per vedere i nomi degli altri data set basta dare il comando data(). Una
volta eseguito il comando data(iris) R avr`a in memoria un oggetto dal
nome iris. Per R questo oggetto sar`
a un data.frame, ovvero una sorta
di matrice le cui colonne possono essere dei numeri oppure dei nomi.
Vediamo, ad esempio, le prime 5 righe delloggetto iris
> iris[1:5, ]

1
2
3
4
5

Sepal.Length Sepal.Width Petal.Length Petal.Width Species


5.1
3.5
1.4
0.2 setosa
4.9
3.0
1.4
0.2 setosa
4.7
3.2
1.3
0.2 setosa
4.6
3.1
1.5
0.2 setosa
5.0
3.6
1.4
0.2 setosa

Se un oggetto `e un data.frame possiano ottenere informazioni inportanti


sulle sue colonne con il comando summary
> summary(iris)
Sepal.Length
Min.
:4.300
1st Qu.:5.100
Median :5.800
Mean
:5.843
3rd Qu.:6.400
Max.
:7.900
Species
setosa
:50
versicolor:50
virginica :50

Sepal.Width
Min.
:2.000
1st Qu.:2.800
Median :3.000
Mean
:3.057
3rd Qu.:3.300
Max.
:4.400

Petal.Length
Min.
:1.000
1st Qu.:1.600
Median :4.350
Mean
:3.758
3rd Qu.:5.100
Max.
:6.900

Petal.Width
Min.
:0.100
1st Qu.:0.300
Median :1.300
Mean
:1.199
3rd Qu.:1.800
Max.
:2.500

55

CAPITOLO 4. Variabili casuali doppie

iris[, 3]

56

0.5

1.0

1.5

2.0

2.5

iris[, 4]

Spesso `e importante saper descrivere il grado di associazione tra due


variabili casuali X e Y . Avendo delle realizzazioni delle variabili stesse
possiamo trarre informazioni sulla loro associazione.
Consideriamo le prime 4 variabili del data set iris. Le realizzazioni della prima variabile (lunghezza dei sepali) sono i dati della prima colonna, le
relaizzazioni della seconda variabile sono riportate nella seconda colonna
e cos` via. Possiamo trarre delle informazioni sul grado di associazione
tra le realizzazioni della terza e quarta variabile attraverso il seguente
diagramma a dispersione presente nel lucido successivo e ottenuto in R
tramite il comando
> plot(y = iris[, 3], x = iris[, 4], col = 3)
E evidente una associazione positiva tra i due insiemi di dati!
In R possiamo anche ottenere velocemente i graci a dispersione tra
tutte e 4 le variabili quantitative presenti nel data set iris con il comando
> pairs(iris[, 1:4])
Il comando cov ci permette invece di ottenere le covarianze tra tutte
le coppie di colonne
> cov(iris[, 1:4])

Sepal.Length
Sepal.Width
Petal.Length
Petal.Width

Sepal.Length
0.68569351
-0.04243400
1.27431544
0.51627069

Sepal.Width Petal.Length Petal.Width


-0.04243400
1.2743154
0.5162707
0.18997942
-0.3296564 -0.1216394
-0.32965638
3.1162779
1.2956094
-0.12163937
1.2956094
0.5810063

Indipendenza e misure di associazione

3.0

4.0

0.5

1.5

2.5

6.5

7.5

2.0

4.0

4.5

5.5

Sepal.Length

2.0

3.0

Sepal.Width

1.5

2.5

Petal.Length

0.5

Petal.Width

4.5

5.5

6.5

7.5

Sulla diagonale sono riportate le varianze dei dati di ogni colonna, le


covarianze sono gli elementi fuori dalla diagonale
In R per avere le correlazioni tra i dati contenuti nelle prime 4 colonne
del data set iris possiamo dare
> cor(iris[, 1:4])

Sepal.Length
Sepal.Width
Petal.Length
Petal.Width

Sepal.Length Sepal.Width Petal.Length Petal.Width


1.0000000 -0.1175698
0.8717538
0.8179411
-0.1175698
1.0000000
-0.4284401 -0.3661259
0.8717538 -0.4284401
1.0000000
0.9628654
0.8179411 -0.3661259
0.9628654
1.0000000

57

58

CAPITOLO 4. Variabili casuali doppie

CAPITOLO

Variabili casuali multiple

Versione del 25 marzo 2011


Quando lesito di un esperimento casuale `e una nupla (un vettore)
di numeri x = (x1 , . . . , xn ) diremo che x `e la realizzazione di una variabile
casuale multipla X = (X1 , X2 , . . . , Xn ). Una variabile casuale multipla `e
quindi il risultato congiunto ottenuto osservando contemporaneamente n
variabili casuali X1 , X2 , . . . , Xn . Le singole variabili casuali Xi vengono
anche chiamate le componenti della variabile multipla.
Una variabile casuale multipla le cui componenti sone tutte variabili
continue viene identicata tramite la sua funzione di densit`a congiunta fX1 ,...,Xn (x1 , . . . , xn ). Una variabile casuale multipla le cui componenti sono variabili discrete viene descritta attraverso la distribzione di
probabilit`a congiunta PX1 ,...,Xn (X1 = x1 , X2 = x2 , . . . , Xn = xn )
Il concetto di indipendenza visto per le variabile casuali doppie pu`o essere esteso al caso di pi`
u variabili aleatorie. In particolare n variabili casuali continue (ovvero le componenti di una v.c. multipla) (X1 , . . . , Xn ) sono
indipendenti se e solo se la loro densit`a congiunta `e uguale
al prodotto

delle densit`a marginali, ovvero fX1 ,...,Xn (x1 , . . . , xn ) = ni=1 fXi (xi ).
Analogamente, n variabili casuali discrete (X1 , . . . , Xn ) sono indipendenti se e solo se la loro distribuzione di probabilit`a congiunta `e uguale al
prodotto
a marginali, ovvero PX1 ,...,Xn (X1 = x1 , . . . , Xn =
delle probabilit`
xn ) = ni=1 PXi (Xi = xi )

Campioni casuali
Un campione casuale `e una variabile casuale multipla a componenti indipendenti
59

60

CAPITOLO 5. Variabili casuali multiple


Un insieme x1 , . . . , xn di osservazioni costituisce una realizzazione di
un campione casuale di ampiezza n, estratto da una variabile casuale
avente densit`
a (o distribuzione di probabilit`a) f , se e solo se
1. Per ogni i, xi `e una realizzazione della variabile casuale X dove
Xf
2.
Le osservazioni xi , i = 1, . . . , n sono indipendenti, ovvero p(x1 , . . . , xn ) =
n
i=1 f (xi )

Linsieme delle osservazione xi . . . , xn verr`a anche chiamato, insieme di


dati o data set. Inoltre, diremo che
x1 , . . . , xn i.i.d. f

oppure che x1 , . . . , xn i.i.d. X

ovvero che x1 , . . . , xn sono indipendenti e identicamente distribuite come


la v.c. avente distribuzione f
Supponiamo di avere un campione casuale estratto da una variabile
casuale X avente densit`a ( o distribuzione di probabilit`a) f . Sia la
media di X, ovvero = x f (x)dx e sia 2 la varianza di X, ovvero
2 = (x )2 f (x) dx.

Generalmente e 2 saranno incogniti. Infatti, di solito sapremo qual


`e la famiglia parametrica a cui appartiene la densit`a ma non sapremo
esattamente quale elemento della famiglia ha generato i dati.
Utilizzeremo la media del campione
x
n =

x 1 + x 2 + + xn
n

per stimare
0 Per un campione di ampiezza n quanto accurata `e x
n come stima
di ?
0 Allaumentare di n, x
n si avvicina a ?
0 Quanto deve essere n per avere un determinato livello di accuratezza?

Sapremo rispondere a queste domande una volta enunciate la legge


debole dei grandi numeri e il teorema del limite centrale. Per poter capire
bene questi teoremi abbiamo bisogno di alcuni risulati intermedi

Media e varianza di somme di variabili casuali

Media e varianza di somme di variabili casuali


Teorema. Siano X1 , X2 , . . . , Xn , n variabili casuali con medie 1 , 2 , . . . , n .
Allora
E(X1 + X2 + + Xn ) = 1 + 2 + + n
Dimostrazione (`e suciente dimostrare il caso n = 2)
E(X1 + X2 ) =
=

(x1 + x2 )f (x1 , x2 ) dx1 dx2

[x1 f (x1 , x2 ) + x2 f (x1 , x2 )] dx1 dx2




=
x1 f (x1 , x2 ) dx2 dx1 +
x2 f (x1 , x2 ) dx1 dx2

f (x1 , x2 ) dx2 dx1 + x2


f (x1 , x2 ) dx1 dx2
=
x1

=
x1 fX1 (x1 ) dx1 + x2 fX2 (x2 ) dx2 = 1 + 2

61

Potrebbero piacerti anche