Sei sulla pagina 1di 105

VARIABILI ALEATORIE

Si è visto in precedenza che un "esperimento" nel senso della TdP è definito dall'insieme dei suoi
possibili risultati, cioè dallo spazio campionario S, dai sottoinsiemi di S detti anche eventi, e dalla
probabilità associata a tali eventi.

Abbiamo anche osservato che i risultati di un esperimento, ossia gli eventi elementari di S, possono
essere degli enti di natura qualsiasi.

Ad esempio, nell'esperimento del "lancio di un dado" gli eventi elementari sono le singole "facce" del
dado, nell'esperimento del "lancio di una moneta" gli eventi elementari sono le "facce" della moneta,
nell'esperimento consistente nella "prova di durata" di un certo componente meccanico gli eventi
elementari sono tutte le possibili "durate di funzionamento" fino al guasto espresse in una opportuna
unità di misura.

Tuttavia, al fine di una più agevole trattazione matematica di una così variegata tipologia di situazioni,
può risultare utile associare ad ogni possibile risultato elementare di un esperimento un numero reale
che lo identifichi.
Ciò premesso, con il termine variabile aleatoria si definisce una funzione definita sullo spazio S la
quale, ad ogni evento elementare, fa corrispondere un numero reale.

Ad esempio, nel caso dell'esperimento consistente nel "lancio di un dado", il cui spazio S è definito
dal seguente insieme
S =  f1, f 2 , f3 , f 4 , f5 , f 6 

possiamo definire la variabile aleatoria X come la funzione

X ( fi ) = i i = 1,...,6

cioè la funzione che all'evento elementare  f1 associa il numero 1, all'evento elementare  f2
associa il numero 2, e così via.

La regola che definisce la corrispondenza tra gli eventi elementari dell'esperimento ed i numeri reali
può essere scelta in maniera del tutto arbitraria.
Ad esempio, sebbene nel caso appena illustrato la scelta operata appare come la più ovvia, nulla
avrebbe impedito di definire la variabile aleatoria X come
X ( fi ) = 10i i = 1,...,6

Tale variabile aleatoria associa il valore numerico 10 all'evento elementare  f1 , il valore numerico 20
all'evento elementare  f 2  , e così via.

In molti casi lo spazio campionario S è già di per sé costituito da un insieme numerico, come l'insieme
(o un sottoinsieme) dei numeri interi o dei numeri reali.

Ciò, ad esempio, si verifica nel caso dell'esperimento costituito dalla "prova di durata" di un
componente meccanico i cui eventi elementari sono dei "tempi al guasto", cioè dei numeri,
concettualmente appartenenti all'insieme dei numeri reali positivi.

In tali casi la variabile aleatoria che stabilisce la corrispondenza tra evento elementare e numero reale
si riduce alla funzione identità
X ( x) = x 0 x
Tuttavia, è opportuno osservare che, anche in questi casi, nulla vieta di utilizzare regole diverse. Ad
esempio, in alcune applicazioni potrebbe essere conveniente definire sullo spazio campionario la
seguente variabile aleatoria
0 se 0  x  T
X ( x) = 
1 se x T

in cui T è un valore prefissato.

Si osservi che, per come è stata definita, una variabile aleatoria è una funzione che ad ogni risultato
sperimentale associa un unico valore numerico, tuttavia tale funzione può associare valori numerici
identici ad eventi elementari diversi.

L'ultimo esempio introdotto illustra in maniera chiara questo concetto. Infatti, ad ogni istante t
compreso tra 0 e T tale variabile aleatoria assegna sempre lo stesso valore numerico, in particolare il
numero 0.

Pertanto, mentre a ciascun evento elementare corrisponde un unico valore numerico, lo stesso valore
numerico può essere rappresentativo di più eventi elementari dello spazio S.
Una volta definita una variabile aleatoria su di un certo spazio S, è possibile individuare gli eventi di S
mediante opportuni sottoinsiemi dell'insieme dei numeri interi o dei numeri reali.

Ad esempio, relativamente all'esperimento del "lancio di un dado" con spazio S =  f1, f 2 , f3 , f 4 , f5 , f 6  ,


definita la variabile aleatoria
X ( fi ) = i i = 1,...,6
segue che
l'insieme  X  3 corrisponde all'evento  f1, f 2 , f3

l'insieme  X  2.5 corrisponde all'evento  f1, f 2 

l'insieme 3  X  6 corrisponde all'evento  f 4 , f5 , f 6 

l'insieme  X  0 corrisponde all'evento 

l'insieme  X = 4 corrisponde all'evento  f 4 

e così via.
Pertanto, una volta definita una variabile aleatoria su di un certo spazio S, invece di associare la
probabilità agli eventi di S, è possibile associare tale probabilità ai corrispondenti insiemi numerici
generati dalla variabile aleatoria.

Così ritornando all'esempio precedente, invece di associare la probabilità all'evento

A =  f1, f 2 , f3

possiamo associare tale probabilità all'insieme numerico

 X  3
In altri termini, invece di chiederci qual è la probabilità che nell'esecuzione dell'esperimento si presenti
una delle facce f1, f 2 , f3 , possiamo chiederci qual è la probabilità che nell'esecuzione dell'esperimento
la variabile aleatoria X assuma un valore numerico minore o uguale a 3.
Una variabile aleatoria si dice essere di tipo discreto se può assumere un numero finito o una infinità
numerabile di valori.
Ad esempio una variabile aleatoria definita sullo spazio associato all'esperimento del "lancio di un
dado" o sullo spazio associato all'esperimento di "conteggio" del numero di autovetture che in un
giorno transitano ad un casello autostradale.
Una variabile aleatoria si dice essere di tipo continuo se può assumere una infinità non numerabile di
valori.
Ad esempio una variabile aleatoria definita sullo spazio associato all'esperimento consistente nella
esecuzione di una "prova di durata" di una certa unità tecnologica.
Nel seguito una variabile aleatoria sarà sempre indicata da una lettera maiuscola X, Y¸ Z etc., mentre
con le corrispondenti lettere minuscole x, y, z etc. verrà indicato un valore generico ma fissato
appartenente all'insieme dei numeri reali.

In particolare, la notazione  X  x starà ad indicare l'insieme di tutti i valori che la variabile aleatoria
X può assumere che siano minori o uguali ad un generico ma fissato numero x.
FUNZIONE DI DISTRIBUZIONE DI UNA VARIABILE ALEATORIA

Si definisce funzione di distribuzione (o semplicemente distribuzione) della variabile aleatoria X la


seguente funzione definita sull'insieme dei numeri reali
F ( x) = Pr  X  x −  x 

cioè la funzione che, per ogni assegnato valore x compreso nell'intervallo (−, ) , uguaglia la
probabilità che, nell'esecuzione dell'esperimento, la variabile aleatoria X assuma un valore minore o
uguale ad x.

Proprietà della Funzione di Distribuzione


Una funzione di distribuzione gode delle seguenti proprietà
1) F (−) = 0 F (+) = 1
2) F ( x ) è una funzione monotona non decrescente con x

3) F ( x ) è una funzione continua alla destra, cioè F ( x + ) = F ( x)


(i simboli F ( x + ) e F ( x − ) stanno ad indicare, rispettivamente, il limite destro lim →0 F ( x +  ) ed il limite
sinistro lim →0 F ( x −  ) della funzione F ( x ) )

Nota la funzione di distribuzione è possibile calcolare la probabilità di osservare un qualunque evento


di interesse. Ad esempio, sulla base della definizione di funzione di distribuzione, è facile dimostrare
che
Pr  x1  X  x2  = F ( x2 ) − F ( x1 )
e che
Pr( X = x) = F ( x) − F ( x − )
Si ha, infatti
 X  x2 =  X  x1   x1  X  x2 
dove gli eventi a secondo membro sono incompatibili. Pertanto, in base al III assioma della TdP si ha
Pr  X  x2  = Pr  X  x1 + Pr  x1  X  x2 

da cui segue
Pr  x1  X  x2  = F ( x2 ) − F ( x1 )
Si consideri, ora, un punto x1 molto prossimo a x2 ed alla sua sinistra, tale cioè che x1 = x2 −  con 
numero piccolo a piacere. Risulta
Pr  x2 −   X  x2  = F ( x2 ) − F ( x2 −  )

ma, per  → 0 , ( x2 −  ) → x2 , mentre F ( x2 −  ) → F ( x2− ) , per cui

Pr  X = x2  = F ( x2 ) − F ( x2− )

Esaminiamo, ora, alcuni esempi di funzione di distribuzione

Esempio 1) Consideriamo l'esperimento del "lancio di un dado" con spazio S =  f1, f 2 , f3 , f 4 , f5 , f 6  .


Definiamo la variabile aleatoria
X ( fi ) = i i = 1,...,6

e assumiamo che Pr  X = i = 1/ 6 i = 1,...,6 .

La funzione di distribuzione è in questo caso una funzione discontinua nei punti xi = i (i = 1,...,6) , con
un tipico andamento a "gradini".
1

F(x)
0.8

0.6

0.4

0.2

0
-2 -1 0 1 2 3 4 5 6 7
x 8 (1)

È facile verificare, ad esempio, che

F (3+ ) = F (3) = 3/ 6 ma che F (3− ) = 2 / 6

Inoltre, Pr( X = 3) = F (3) − F (3− ) = 3/ 6 − 2 / 6 = 1/ 6



Esempio 2) Consideriamo l'esperimento costituito dalla "prova di durata di un certo componente
elettronico. Lo spazio S è costituito da tutti i possibili "tempi al guasto" compresi nell'intervallo (0,  ) .
Definiamo sullo spazio S la variabile aleatoria
X ( x) = x 0 x

1 − exp(− x) 0 x
Un possibile modello di funzione di distribuzione è il seguente F ( x) = 
0 x0
1

F(x)
0.8

0.6

0.4

0.2

0
x
-2 0 2 4 6 8 (2)
È facile verificare che F ( x ) è effettivamente una funzione di distribuzione, infatti

F (−) = 0 F (+) = 1 − exp(−) = 1

Inoltre, tale funzione è monotona non decrescente ed, essendo continua, è a maggior ragione
continua alla destra.

È interessante osservare che, nel caso di distribuzioni continue, dal momento che, qualunque sia x, il
limite destro ed il limite sinistro della funzione coincidono, cioè F ( x + ) = F ( x − ) = F ( x) , risulta

Pr  X = x = F ( x) − F ( x − ) = 0

cioè il generico evento elementare  X = x deve necessariamente avere probabilità nulla.

Si osservi, tuttavia, che ciò non equivale a dire che tale evento elementare non possa presentarsi.
In particolare, dalla precedente considerazione discende che, nel caso di variabili aleatorie continue,
agli eventi
 X  x e  X  x
deve essere attribuita la stessa probabilità di verificarsi, essendo nullo il contributo dell'evento
elementare  X = x . Allo stesso modo, ciò accade per gli eventi

 x1  X  x2  x1  X  x2  x1  X  x2


Nota la funzione di distribuzione è possibile calcolare la probabilità associata ad un qualunque evento
dello spazio S.

Esempio: Relativamente all'esempio della prova di durata di un componente elettronico, se si volesse


calcolare la probabilità di osservare un tempo al guasto compreso tra 2 e 3 unità di tempo, sulla base
delle precedenti considerazioni, si avrebbe

Pr 2  X  3 = F (3) − F (2) = 1 − exp(−3)  − 1 − exp(−2) 


= 0.1353 − 0.0498 = 0.0855

Funzione Massa di Probabilità

Si definisce funzione massa di probabilità (o, semplicemente, funzione di probabilità) di una variabile
aleatoria discreta X, cioè una variabile aleatoria definita su di uno spazio S costituito da un insieme
numerabile di eventi elementari, la funzione
 p( xi ) = Pr  X = xi   xi   x1, x2 ,..., xn 

 p ( x) = 0 altrove

Sulla base di tale definizione, si ha che p ( x)  0 .

È, inoltre, facile stabilire la relazione che lega la funzione di probabilità alla corrispondente funzione di
distribuzione. Si ha, infatti
Pr  X  x = Pr  X = x1  X = x2  ...  X = xk 
= Pr  X = x1 + Pr  X = x2  +  + Pr  X = xk 

in cui xk = max  x1,..., xn   x , essendo gli eventi elementari mutuamente esclusivi tra loro.
Da ciò discende che
F ( x) =  p( xi )
xi :xi  x
Inoltre, ovviamente, risulta
p( xi ) = F ( xi ) − F ( xi− )
e

 p( xi ) = 1
i =1

Esempio: Nell'esperimento del lancio di un dado con spazio S =  f1, f 2 , f3 , f 4 , f5 , f 6  e variabile


aleatoria X ( fi ) = i i = 1,...,6 , una possibile funzione di probabilità è la seguente

p (i ) = 1/ 6 i = 1,...,6
p(i)

1/6      

0 1 2 3 4 5 6 7 (3)

Funzione densità di probabilità

Sia X una variabile aleatoria continua. Si definisce funzione densità di probabilità di X la funzione

dF ( x)
f ( x) =
dx

cioè la derivata della funzione di distribuzione F ( x ) .

Si osservi che, a rigore, anche nel caso di variabile aleatoria continua la funzione F ( x ) può non
essere derivabile in ogni punto del suo insieme di definizione, ad esempio per la presenza di punti
angolari.

A questa difficoltà concettuale si ovvia definendo la funzione f ( x ) in tutti i punti in cui la funzione F ( x )
ammette derivata ed assegnandole un valore arbitrario (purché positivo) nei restanti punti.
Proprietà della funzione densità di probabilità

Poiché, per definizione, la funzione di distribuzione F ( x ) è una funzione monotona non decrescente,
ne consegue che
f ( x)  0 −  x 
inoltre, dalla definizione di f ( x ) , risulta
x2
x 1
f ( x)dx = F ( x2 ) − F ( x1 )

In particolare, ricordando che F (−) = 0 e F (+) = 1, segue


+ x
− f ( x)dx = 1 e − f (u)du = F ( x)
Si osservi inoltre che, poiché dalla definizione di funzione di distribuzione si ha
dF ( x) = Pr  x  X  x + dx

ne consegue che
f ( x)dx = Pr  x  X  x + dx

Pertanto la quantità a primo membro assume il significato di "probabilità che il risultato sperimentale
sia compreso nell'intervallo infinitesimo ( x, x + dx) .

Esempio: Consideriamo l'esperimento definito dalla prova di durata di un certo componente


elettronico, sul cui spazio è stata definita la variabile aleatoria X ( x) = x , e supponiamo che la
distribuzione di tale variabile aleatoria sia data da
1 − exp(− x) 0 x
F ( x) = 
0 x0

Sulla base della definizione di funzione densità si avrà

exp(− x) 0 x
f ( x) = 
0 x0
f(x)

0 x (4)

Poiché le funzioni F ( x ) e f ( x ) sono legate dal fatto che la seconda è la derivata della prima,
assegnato un certo esperimento, è del tutto equivalente esprimere la sua probabilizzazione in termini
di F ( x ) oppure in termini di f ( x ) .
È, comunque, opportuno ribadire che la funzione f ( x ) non rappresenta una probabilità, ma è l'area
ad essa sottesa ad essere una probabilità, come è immediato riconoscere ricordando il significato
geometrico di integrale di una funzione.
Esempio: Con riferimento all'esempio precedente, la probabilità di osservare un tempo di guasto
compreso tra 2 e 3 unità di tempo è data dall'area sottesa dal grafico della funzione f ( x) = exp(− x) tra
i punti 2 e 3.

f(x)

-2 -1 0 1 2 3 4 5 x 6 (5)


VALORE ATTESO DI UNA VARIABILE ALEATORIA
Si definisce valore atteso (o media , o speranza matematica) di una variabile aleatoria X, il numero
E( X ) dato da

E( X ) =  x p ( x) se X è una v.a. discreta


x: p ( x ) 0

+
E( X ) =  x f ( x)dx se X è una v.a. continua
−

Esempio: Nel caso dell'esperimento del lancio di un dado con spazio S =  f1, f 2 , f3 , f 4 , f5 , f 6  , variabile
aleatoria X ( fi ) = i per i = 1,...,6 e funzione di probabilità
p (i ) = 1/ 6 i = 1,...,6
il valore atteso della variabile aleatoria X risulta
6
1 1 1 21
E( X ) =  i p(i) = 1 + 2  +  + 6  = = 3.5
i =1 6 6 6 6

Esempio: Nel dell'esperimento consistente nella prova di durata di un componente elettronico si è, in
precedenza assunto
exp(− x) 0  x  
f ( x) = 
0 x0

Pertanto, in questo caso, il valore atteso della variabile aleatoria X è dato da

+ 0  
E( X ) =  x f ( x)dx =  x  0 dx +  x exp( − x)dx =  x exp( − x)dx
− − 0 0

da cui integrando per parti, si ha

E( X ) =  − x exp(− x) 0 +  − exp(− x)0 = 0 + 1 = 1


 


È interessante osservare che, dalla definizione di valore atteso di una variabile aleatoria, ne discende
una stretta analogia tra tale concetto ed il concetto di baricentro, sia nel caso di masse concentrate in
un numero finito di punti di un asse che nel caso di una massa distribuita con continuità lungo un
asse.

In altri termini, il valore atteso di una variabile aleatoria può essere interpretato come il baricentro
delle probabilità, sia nel caso di probabilità concentrate che nel caso di probabilità distribuite lungo
l'asse x con densità (di probabilità) pari a f ( x ) .

Anche alla luce di tale analogia, si ribadisce che il valore atteso di una variabile aleatoria è un numero
che assume un ben determinato valore in relazione ai valori numerici che la variabile aleatoria può
assumere ed alla forma della funzione F ( x ) .
Principali proprietà del valore atteso di una variabile aleatoria
Sia X una v.a. e sia g una qualsiasi funzione reale. Definiamo la variabile aleatoria g ( X ) come la
regola che associa al risultato sperimentale e, in corrispondenza del quale X (e) = x , il numero
g ( e ) = g  X (e )  = g ( x )

Ad esempio, se la funzione g è la potenza di secondo grado e la v.a. X associa all'evento elementare


e il numero 2, allora la variabile aleatoria g ( X ) associa a tale evento il numero 4.
Ciò premesso, se con p ( x ) e f ( x ) indichiamo, rispettivamente, la funzione massa di probabilità e la
funzione densità di probabilità di una variabile aleatoria X, si ha
1) E  g ( X ) =  g ( x) p( x) se X è una v.a. discreta
x: p ( x ) 0

+
2) E  g ( X ) =  g ( x) f ( x)dx se X è una v.a. continua
−

In altri termini, per calcolare il valore atteso della variabile aleatoria g ( X ) , possiamo fare riferimento
alla probabilizzazione dello spazio S in termini della variabile aleatoria X.
Dimostriamo questo importante risultato nel caso di variabile aleatoria discreta.

Ricordiamo che le probabilità sono sempre associate ad eventi, ossia a sottoinsiemi dello spazio S.

L'introduzione di una variabile aleatoria costituisce uno strumento operativo che consente, in
alternativa, di associare tali probabilità a sottoinsiemi dei numeri reali.

Cambiare variabile aleatoria, ossia cambiare la regola di corrispondenza tra eventi elementari di S e
numeri reali, non modifica in alcun modo la probabilità degli eventi originari. Pertanto, se con e
indichiamo il generico evento elementare di S, risulta
Pr{e} = Pr  X (e) = x = Pr  g  X (e)  = g ( x)
da cui segue che
E  g ( X ) =  g ( x) Pr  g ( x)
g ( x ):Pr g ( x ) 0

=  g ( x) Pr( x) =  g ( x) p( x)
x:Pr( x ) 0 x: p ( x ) 0
Un caso particolarmente significativo di funzione di una variabile aleatoria è quello della
trasformazione lineare di una variabile aleatoria X, ossia

g ( X ) = bX + a

con a e b costanti. Sulla base delle considerazioni precedenti, risulta

+
E bX + a  =  ( bx + a ) f ( x)dx
−
+ +
= b x f ( x)dx + a  f ( x)dx = bE  X  + a
− −

ovvero la trasformazione lineare della variabile aleatoria X si traduce nella trasformazione lineare del
suo valore atteso.

In particolare si osservi che


E[b] = b E[bX ] = bE[ X ]
Si consideri, ora una variabile aleatoria con funzione densità f ( x ) simmetrica rispetto ad un punto  ,
cioè tale che
f ( − z) = f ( + z) 0 z
In tal caso è facile dimostrare, ma è anche intuitivamente evidente, ricordando l'analogia tra il
concetto di valore atteso e quello di baricentro, che E[ X ] =  .
0.4 1
f(x) f(x)
0.8
0.3

0.6

0.2

0.4

0.1
0.2

0 0
-4 -2 0  2 4 x 6 (6) 0 1  2 x 3 (7)

Infine, si noti che, se E[ X ] è il valore atteso della variabile aleatoria X, allora


+
−  x − E[ X ] f ( x)dx = 0
VALORE ATTESO DI ORDINE N

Data una variabile aleatoria X, si definisce valore atteso (o momento) di ordine n, la quantità

1) E[X n ] =  x n p( x) se X è una v.a. discreta


x: p ( x ) 0

+ n
2) E[X n ] =  x f ( x)dx se X è una v.a. continua
−

Si osservi che questa definizione può essere vista come applicazione della regola per il calcolo del
valore atteso al caso di trasformazione g ( X ) = X n .

Particolare rilevanza nelle applicazioni ha il momento del secondo ordine definito dalle ovvie relazioni

1) E[X 2 ] =  x 2 p ( x) se X è una v.a. discreta


x: p ( x ) 0

+ 2
2) E[X 2 ] =  x f ( x)dx se X è una v.a. continua
−
Esempio: Consideriamo l'esperimento consistente nel lancio di un dado con spazio
S =  f1, f 2 , f3 , f 4 , f5 , f 6  , variabile aleatoria X ( fi ) = i per i = 1,...,6 e funzione di probabilità p (i ) = 1/ 6
i = 1,...,6 .

Il momento del secondo ordine risulta


6
E[X ] =
2
 x p( x) =  i 2 p (i )
2

x: p ( x ) 0 i =1

1 91
= (1 + 4 + 9 + 16 + 25 + 36 ) =
6 6
mentre il momento del terzo ordine vale
6
E[X ] =
3
 x p ( x) =  i 3 p (i )
3

x: p ( x ) 0 i =1

1 441
= (1 + 8 + 27 + 64 + 125 + 216 ) =
6 6

VALORE ATTESO CENTRALE DI ORDINE N

Sia X una variabile aleatoria e sia E[ X ] il suo valore atteso. Si definisce valore atteso centrale (o
momento centrale) di ordine n della variabile aleatoria X, la quantità

1) 
E ( X − E  X )
n
 = 
x: p ( x ) 0
( x − E  X ) p ( x )
n
se X è una v.a. discreta

2) 
E ( X − E  X )
n
 =
+
−
( x − E  X ) f ( x)dx
n
se X è una v.a. continua

Particolare rilevanza nelle applicazioni ha il momento centrale del secondo ordine, generalmente noto
come varianza della variabile aleatoria X, definito dalle seguenti relazioni

1) 
E ( X − E  X )
2
 = 
x: p ( x ) 0
( x − E  X ) p ( x )
2
se X è una v.a. discreta

2) 
E ( X − E  X )
2
 =
+
−
( x − E  X ) f ( x)dx
2
se X è una v.a. continua
Esempio: Consideriamo l'esperimento consistente nel lancio di un dado con spazio
S =  f1, f 2 , f3 , f 4 , f5 , f 6  , variabile aleatoria X ( fi ) = i per i = 1,...,6 e funzione di probabilità p (i ) = 1/ 6
per i = 1,...,6 .

Si è in precedenza mostrato che il valore atteso di questa variabile aleatoria è dato da E( X ) = 3.5 .

Pertanto, la varianza della variabile aleatoria X è data da

    =  (i − 3.5)
6
Var  X  = E ( X − E  X ) = E ( X − 3.5 )
2 2 2
p (i )
i =1
1 8.75
= (−2.5) 2 + (−1.5) 2 + (−0.5) 2 + 0.52 + 1.52 + 2.52  =
6 3

Esempio: Consideriamo l'esperimento consistente nella "prova di durata" di un certo componente
elettronico e sia X la variabile aleatoria che misura la durata di vita del dispositivo. Assumiamo che
tale variabile aleatoria sia caratterizzata da una funzione densità di probabilità data da

exp(− x) 0 x
f ( x) = 
0 x0

Come ricavato in precedenza, il valore atteso di tale variabile aleatoria X è pari a E( X ) = 1.

Calcoliamo la varianza della variabile aleatoria X. Dalla definizione di varianza si ha


+ +
Var  X  =  ( x − E  X ) ( x − 1) f ( x)dx +  ( x − 1) f ( x)dx
0
f ( x)dx = 
2 2 2
− − 0
 
=  ( x − 1) exp(− x)dx =  − ( x − 1) exp(− x)  + 2  ( x − 1) exp(− x)dx
2 2 2
0  0 0

= 0 +1+ 0 =1

Anche la varianza di una variabile aleatoria, così come il suo valore atteso, è un numero che assume
un valore fissato in relazione ai valori assunti dalla variabile aleatoria X e dalla sua funzione di
distribuzione.

Ovviamente, per come è definita, la varianza non può che essere un numero positivo.

È interessante osservare che, come il concetto di valore atteso si può mettere in relazione con il
concetto di baricentro di un sistema di masse, così il concetto di varianza si può mettere in relazione
con il concetto di momento di inerzia di un sistema di masse, calcolato rispetto al baricentro.

Ne consegue che, così come il momento di inerzia rappresenta una misura di come è dispersa la
massa rispetto al baricentro, analogamente la varianza è una misura di dispersione degli eventi
osservabili rispetto al valore atteso.
Tra la varianza di una variabile aleatoria X ed i suoi momenti del primo e del secondo ordine sussiste
la seguente fondamentale relazione
Var ( X ) = E( X 2 ) −  E( X ) 
2

Si ha, infatti

Var ( X ) = E  X − E( X ) 
2
 =
−


x − E( X )  f ( x)dx
2


=   x 2 − 2 xE( X ) + E( X ) 2  f ( x)dx
−
  
= x 2 f ( x)dx − 2E( X )  xf ( x)dx + E( X ) 2  f ( x)dx
− − −

= E( X 2 ) − 2E( X )E( X ) + E( X ) 2 = E( X 2 ) − E( X ) 2

Tenendo conto dell'analogia tra massa e probabilità, tale relazione esprime il ben noto risultato che il
momento di inerzia rispetto al baricentro si può anche esprimere come somma del momento di inerzia
rispetto ad un generico polo O (in questo caso il punto zero) e del prodotto dell'intera massa
concentrata nel baricentro (nel caso della probabilità tale valore è pari ad 1) per il quadrato della
distanza di tale polo dal baricentro.
Si è visto in precedenza che una trasformazione lineare della variabile aleatoria X si traduce nella
medesima trasformazione lineare del valore atteso E( X ) , si ha cioè E  bX + a  =bE  X  + a .

Nel caso della varianza risulta invece Var bX + a  = b 2Var  X  .

Si ha, infatti

Var bX + a  = E bX + a − E ( bX + a )  2

= E bX + a − bE ( X ) − a  
2

= E b  X − E ( X )   = b E  X − E ( X )  
2 2 2 2

= b 2 Var( X )
FUNZIONE DI DISTRIBUZIONE E FUNZIONE DENSITÀ CONDIZIONATE

Sia X una variabile aleatoria definita su di uno spazio S e siano F ( x ) e f ( x ) , rispettivamente, la sua
funzione di distribuzione e la funzione densità di probabilità. Sia, poi, A un evento di S.

Si definisce funzione di distribuzione di X condizionata al verificarsi dell'evento A, la seguente


funzione
Pr ( X  x)  A
F ( x | A) =
Pr  A

La funzione F ( x | A) è una funzione di distribuzione a tutti gli effetti, per cui

F (− | A) = 0 e F ( | A) = 1

e, inoltre,
F ( x2 | A) − F ( x1 | A) = Pr  x1  X  x2 | A
Se la variabile aleatoria X è di tipo continuo è possibile definire la corrispondente funzione densità
condizionata come segue

dF ( x | A) Pr  x  X  x + x | A
f ( x | A) = = lim
dx x →0 x

Tale funzione gode di tutte le proprietà di una funzione densità e, pertanto


f ( x | A)  0 e − f ( x | A) dx = 1
Se l'evento A è espresso in termini della variabile aleatoria X allora F ( x | A) è determinata dalla
funzione F ( x ) .
Esempio: Sia X una v.a. con funzione di distribuzione F ( x ) , e sia A =  X  a con a valore tale che

Pr  A = Pr  X  a = F (a)  0

La funzione di distribuzione della variabile aleatoria X condizionata dall'evento A =  X  a è data da

Pr ( X  x)  ( X  a)
F ( x | X  a) =
Pr  X  a

Sia x un generico valore tale che x  a , allora, come mostra il grafico


(X x) (X a) = (X a)

a x (8)

Pr  X  a
( X  x)  ( X  a) =  X  a , e F ( x | X  a) = =1 xa
Pr  X  a
Sia, invece, x un generico valore tale che x  a , allora

(X x) (X a) = (X x)



x a (9)

Pr  X  x F ( x)
( X  x)  ( X  a) =  X  x , e F ( x | X  a) = = xa
Pr  X  a F (a)

FUNZIONE DI UNA VARIABILE ALEATORIA

Sia X una variabile aleatoria definita su di uno spazio S di un esperimento E, e sia h() una qualsiasi
funzione reale.

Indichiamo con la notazione Y = h( X ) la regola che all'evento elementare e  S in corrispondenza del


quale X (e) = x , associa il numero

Y ( e) = h  X ( e)  = h ( x )

Pertanto, Y è una variabile aleatoria definita sullo spazio S e si dice che essa è una funzione (o una
trasformazione) della variabile aleatoria X.

Al fine di una completa descrizione della variabile aleatoria Y = h( X ) è necessario conoscere la sua
funzione di distribuzione, cosicché un classico problema della Teoria della Probabilità consiste nel
determinare la funzione FY ( y ) note che siano le funzioni FX ( x) e h() .
Assegnato un numero reale y, sia IY l'insieme di tutti i numeri reali x tali che

h( x )  y

Sulla base della definizione di funzione di una variabile aleatoria, segue che

 X (e)  IY   Y (e)  y
cioè i due eventi sono equivalenti, ovvero ogni volta che si verifica l'uno si verifica anche l'altro.

Ciò implica che


FY ( y ) = Pr Y  y = Pr  X  IY 

Per calcolare la funzione di distribuzione della variabile aleatoria Y, per ogni fissato y, si deve, quindi

a) individuare l'insieme IY

b) calcolare la probabilità che la variabile aleatoria X appartenga a tale insieme.


Esempio: Sia X una variabile aleatoria con funzione di distribuzione FX ( x) nota. Consideriamo la
variabile aleatoria Y = h( X ) = aX + b ottenuta applicando una trasformazione lineare alla variabile
aleatoria X. Esaminiamo prima il caso in cui a  0 e, successivamente, il caso in cui a  0 .
a) Caso a  0
4

h(x)
3

y a>0
2

Iy
 0


-4 0 4 8
x=(y-b)/a (10)

Dalla figura è immediato riconoscere che, fissato un numero y, l'insieme IY costituito da tutti i valori di
x per i quali ax + b  y è dato da
 y −b
IY =  x  
 a 
Segue, pertanto
FY ( y ) = Pr Y  y = Pr  X  IY 
 y −b  y −b 
= Pr  X   = FX  
 a   a 
a) Caso a  0
4
h(x)

a<0
2
y

Iy
0 


-4 0 4 8
x=(y-b)/a (11)
Dalla figura è immediato riconoscere che, fissato un numero y, l'insieme IY costituito da tutti i valori di
x per i quali ax + b  y è dato da
 y −b 
IY =   x  
 a 
Segue, pertanto
FY ( y ) = Pr Y  y = Pr  X  IY 
 y −b  y −b 
= Pr  X   = 1 − FX  
 a   a 

Generalizzando i precedenti risultati, si può affermare che, se la funzione h( x ) è monotona, si ha

 FX  h −1 ( y )  h() monotona crescente


  
FY ( y ) = 
−1
1 − FX  h ( y )  h() monotona decrescente

in cui il simbolo h −1 () indica la funzione inversa di h() .


Più ingenerale, consideriamo il caso in cui la funzione h( x ) non sia monotona.

A titolo di esempio, si consideri la funzione y = h( x) rappresentata nella figura seguente

1) Se y  yu allora l'insieme IY coincide con l'evento certo S. Infatti, h( x)  y per ogni x  (−, ) e,
pertanto, segue che

FY ( y ) = Pr Y  y = Pr  X  S  = 1
2) Se y = y1 allora IY =  x  x1 e, pertanto, segue che

FY ( y1 ) = Pr Y  y1 = Pr  X  x1 = FX ( x1 )

in cui x1 = h −1 ( y1 ) è l'unica soluzione dell'equazione h( x) = y1 .


3) Se y = y2 allora l'equazione y2 = h( x) ammette tre soluzioni: x2 , x2 e x2 da cui segue che
IY = ( x  x2 )  ( x2  x  x2) e, pertanto, segue che

FY ( y2 ) = Pr Y  y2  = Pr  X  x2  + Pr  x2 X  x2


= FX ( x2 ) + FX ( x2) − FX ( x2 )
4) Se y = yl , allora per nessun valore di x è verificata la disuguaglianza h( x)  yl e, pertanto IY   ,
da cui segue
FY ( y ) = Pr Y  y = Pr  = 0
Nel caso di una variabile aleatoria X di tipo discreto è possibile adottare un metodo di calcolo più
diretto.

Sia X una variabile aleatoria discreta che assume i valori xk con k = 1, 2,... , e sia Y = h( X ) la variabile
aleatoria trasformata.

Ovviamente anche Y sarà una variabile aleatoria discreta che assume i valori yk = h( xk ) con k = 1, 2,...

Se la variabile aleatoria Y assume il valore yk in corrispondenza di un unico valore xk della variabile


aleatoria X, allora si avrà Pr Y = yk  = Pr  X = xk 

Se, invece, la variabile aleatoria Y assume il valore yk in corrispondenza di più di un valore della
variabile aleatoria X, ad esempio se yk = h( xi ) = h( x j ) , allora si avrà

Pr Y = yk  = Pr  X = xi  + Pr  X = x j 
Esempio: Si consideri l'esperimento del lancio di un dado "ben bilanciato" e sia X = i − 2 la variabile
aleatoria definita sullo spazio di tale esperimento. L'insieme dei valori che tale variabile aleatoria può
assume è dato quindi dalla differenza tra il valore i osservato nel singolo lancio ed il numero 2.
L'insieme dei valori che tale variabile aleatoria può assumere è, pertanto, definito dall'insieme
−1,0,1, 2,3, 4 e, stante l'ipotesi di omogeneità del dado, ciascuno di tali eventi elementari ha
probabilità pari ad 1/6 di verificarsi.
Consideriamo la trasformazione Y = X 2 e determiniamo la probabilizzazione della v.a. Y.
Ovviamente anche Y è una variabile aleatoria discreta che assume valori nell'insieme 0,1, 4,9,16 .

In particolare si ha Pr Y = 0 = Pr  X = 0 = 1/ 6 e, analogamente

Pr Y = 4 = Pr  X = 2 = 1/ 6
Pr Y = 9 = Pr  X = 3 = 1/ 6
Pr Y = 16 = Pr  X = 4 = 1/ 6
ma
Pr Y = 1 = Pr  X = −1 + Pr  X = 1 = 1/ 6 + 1/ 6 = 2 / 6 ■
Determinazione della funzione densità della variabile trasformata
Sia X una variabile aleatoria continua definita su uno spazio S e sia Y = h( X ) una sua trasformazione
mediante una funzione reale h() .
Il problema che si vuole esaminare consiste nel determinare la funzione densità di probabilità della
variabile aleatoria Y a partire dalla funzione densità della variabile aleatoria X.
Fissato un generico valore y, siano x1, x2 ,..., xn le radici reali dell'equazione Y = h( x) , cioè i valori
numerici tali che
y = h( x1 ) = h( x2 ) = ... = h( xn )
Vale il seguente teorema fondamentale
f X ( x1 ) f X ( x2 ) f (x )
fY ( y ) = + +  + X n
| h( x1 ) | | h( x2 ) | | h( xn ) |
in cui h( x ) indica la derivata della funzione h( x ) .
Nel caso in cui, per un certo valore y, l'equazione y = h( x) non ammette soluzioni reali, allora
fY ( y ) = 0 .
Esempio: Sia X una variabile aleatoria continua e sia Y = aX + b . Fissato il numero y, l'equazione
y = ax + b ammette l'unica soluzione x1 = ( y − b) / a .

d
D'altro canto h( x1 ) = (ax + b) = a e, pertanto,
dx x1

f X ( x1 ) 1  y −b 
fY ( y ) = = fX  
| h( x1 ) | | a |  a 


Esempio: Sia X una variabile aleatoria continua e sia Y = aX 2 (a  0) .

x1 x2

1) Se y  0 , l'equazione y = ax 2 non ammette radici reali e, pertanto fY ( y ) = 0 .

2) Se y  0 , l'equazione y = ax 2 ammette due soluzioni x1 = − y / a e x2 = y / a .


D'altro canto,
d
h( x) = (ax 2 ) = 2ax
dx x1

e, quindi, h( x1 ) = −2 ay e h( x2 ) = 2 ay .

Dal teorema fondamentale della trasformazione risulta

f X (− y / a ) fX ( y / a) 1 
fY ( y ) = + =  f X (− y / a ) + f X ( y / a )  y  0
2 ay 2 ay 2 ay

COPPIE DI VARIABILI ALEATORIE

FUNZIONE DI DISTRIBUZIONE CONGIUNTA

Sia E un esperimento avente spazio S. Consideriamo il caso in cui sullo spazio S siano definite due
variabili aleatorie, X e Y, cioè due funzioni tali che, in corrispondenza del singolo evento elementare
e  S si abbia X (e) = x e, contemporaneamente, Y (e) = y con x e y numeri reali appartenenti in
generale all'insieme (−, +) .

Ad esempio, tale situazione si potrebbe presentare nel caso in cui si è interessati a formalizzare in
termini probabilistici l'esperimento consistente nella realizzazione di un certo componente meccanico
di cui è importante tenere sotto controllo due dimensioni caratteristiche, lo spessore X e la lunghezza
Y.

È del tutto evidente che, in tale caso, a ciascun elemento prodotto (evento elementare
dell'esperimento E), è contemporaneamente associato uno specifico valore di spessore x ed uno
specifico valore di lunghezza y.
Si definisce funzione di distribuzione congiunta (o mista) delle variabile X e Y, la funzione di due
variabili FXY ( x, y ) , tale che

FXY ( x, y ) = Pr ( X  x)  (Y  y ) −   x, y  

cioè la funzione che, per ogni coppia di valori ( x, y )  (−, ) , uguaglia la probabilità dell'evento
intersezione ( X  x)  (Y  y ) .

Ovviamente, in quanto rappresentativa di una probabilità, tale funzione deve rispettare il vincolo

0  FXY ( x, y )  1 ( x, y )  (−, )

Inoltre, FXY (, ) = 1 dal momento che ( X  )  (Y  )  S .

D'altro canto, poiché ( X = −)  (Y  y )   X = − e l'evento a secondo membro ha probabilità nulla
di verificarsi, anche l'evento a primo membro ha probabilità nulla di verificarsi e, pertanto
FXY (−, y ) = 0 per ogni y e, analogamente, si ha FXY ( x, −) = 0 .
Dati due eventi A e B, ricordiamo che, se A  B , allora A  B = A . Ciò premesso, osserviamo che
l'evento Y   coincide con l'evento certo, ovvero coincide con S, per cui risulta

( X  x)  (Y  ) =  X  x
e ciò implica che
FXY ( x, ) = Pr ( X  x)  (Y  ) = Pr  X  x = FX ( x)

dove FX ( x) rappresenta la funzione di distribuzione della sola variabile aleatoria X. Tale funzione è
anche detta funzione di distribuzione marginale della variabile aleatoria X.

Ovviamente, un discorso analogo vale per la variabile aleatoria Y, per la quale risulta

FXY (, y ) = Pr ( X  )  (Y  y ) = Pr Y  y = FY ( y )
È opportuno notare che, mentre è sempre possibile ricavare le distribuzioni marginali quando è nota
la distribuzione congiunta, l'operazione inversa in generale non è possibile. In altri termini, in generale
la conoscenza delle distribuzioni marginali FX ( x) e FY ( y ) delle variabili aleatorie X e Y non è
sufficiente a definire la distribuzione congiunta FXY ( x, y ) .
Questo risultato è intuitivamente evidente se si riflette sul fatto che, mentre la distribuzione congiunta
associa le probabilità ad eventi rappresentati da valori assunti congiuntamente dalle due variabili
aleatorie nell'esecuzione dell'esperimento, le distribuzioni marginali associano le probabilità ad eventi
rappresentati da valori assunti da ciascuna singola variabile aleatoria senza riguardo al valore che
nello stesso esperimento è assunto dall'altra.
Siano ora x1 e x2 due valori che la variabile aleatoria X può assumere con x1  x2 , e sia y un generico
valore della variabile aleatoria Y. Si ha
( X  x2 )  (Y  y) = ( X  x1)  (Y  y)  ( x1  X  x2 )  (Y  y)
e poiché i due eventi a secondo membra sono incompatibili, risulta
Pr ( x1  X  x2 )  (Y  y ) = Pr ( X  x2 )  (Y  y ) − Pr ( X  x1 )  (Y  y )
= FXY ( x2 , y ) − FXY ( x1, y )  0
Analogamente, per y1  y2
Pr ( X  x)  ( y1  Y  y2 ) = FXY ( x, y2 ) − FXY ( x, y1 )  0

Da ciò segue che FXY ( x, y ) è una funzione non decrescente di x e y.

Si osservi che, posto x1  x2 e y1  y2 , risulta

( x1  X  x2 )  (Y  y2 ) = ( x1  X  x2 )  (Y  y1)  ( x1  X  x2 )  ( y1  Y  y2 )
e gli eventi a secondo membro sono incompatibili. Si ha, pertanto

Pr ( x1  X  x2 )  ( y1  Y  y2 ) = Pr ( x1  X  x2 )  (Y  y2 ) − Pr ( x1  X  x2 )  (Y  y1)
= FXY ( x2 , y2 ) − FXY ( x1, y2 ) − FXY ( x2 , y1) + FXY ( x1, y1)  0
Esempio: Siano X e Y due variabili aleatorie definite sullo spazio S. Consideriamo la seguente
funzione di due variabili
1 − exp(− x)1 − exp(− y)  x  0; y  0
FXY ( x, y ) = 
0 altrove

e verifichiamo che essa è una funzione di distribuzione congiunta. Si ha


FXY (, ) = 1 − exp(−) 1 − exp(−)  = 1

FXY ( x, −)  FXY ( x,0) = 1 − exp( − x ) 1 − exp( −0)  = 0

FXY (−, y )  FXY (0, y ) = 1 − exp(0) 1 − exp(− y )  = 0

Siano ora x1 e x2 due valori tali che x1  x2 , segue


FXY ( x2 , y ) − FXY ( x1, y ) = 1 − exp( − x2 ) 1 − exp( − y )  + 1 − exp( − x1 ) 1 − exp( − y ) 
= 1 − exp(− y )  exp(− x1 ) − exp(− x2 )   0

in quanto exp(− x1 )  exp(− x2 ) .


Ciò implica che la funzione FXY ( x, y ) è non decrescente rispetto ad x. Un ragionamento analogo porta
a verificare che essa è non decrescente anche rispetto ad y.

FUNZIONE DI PROBABILITÀ e FUNZIONE DENSITÀ DI PROBABILITÀ CONGIUNTE

Le variabili aleatorie X e Y possono essere entrambe discrete, entrambe continue o anche miste.

Nel caso siano entrambe discrete è possibile definire la funzione (massa) di probabilità congiunta
Pr ( X = x)  (Y = y ) x, y   x1,..., xn ; y1,..., yn 
p XY ( x, y ) = 
0 altrove

Ovviamente p XY ( x, y )  0 x, y  (−, ) .

Vale, inoltre, la seguente relazione

FXY ( x, y ) =   p XY ( xi , yi )
xi  x yi  y

che stabilisce il legame tra la funzione (massa) di probabilità congiunta e la funzione di distribuzione
congiunta delle variabili aleatorie X e Y.
Nel caso in cui le variabili aleatorie X e Y siano entrambe continue è possibile definire la funzione
densità di probabilità congiunta
 2 FXY ( x, y )
f XY ( x, y ) =
x y
in corrispondenza di tutti i punti nei quali la derivata esiste (nei punti nei quali la derivata non esiste ad
f XY ( x, y ) può essere assegnato un valore arbitrario).
Ovviamente f XY ( x, y )  0 x, y  (−, ) .

Si ha, inoltre, come estensione della relazione mostrata nel caso di singola variabile aleatoria,
 
− − f XY ( x, y)dxdy = 1
e
x y
− − f XY (u, v)dudv = FXY ( x, y)
Pr ( x1  X  x2 )  ( y1  Y  y2 ) = 
x2 y2
x1 y
1
f XY ( x, y )dxdy
Tali relazioni mostrano che, anche in questo caso, è del tutto equivalente definire la probabilizzazione
dello spazio S in termini di FXY ( x, y ) o di f XY ( x, y ) .

Data una funzione di distribuzione congiunta di X e Y, si è visto come calcolare la funzione di


distribuzione marginale di ciascuna di tali variabili. Ovviamente, è anche possibile definire la funzione
densità marginale di tali variabili come
dFX ( x) 
f X ( x) = =  f XY ( x, y )dy
dx −

dFY ( y ) 
fY ( y ) = =  f XY ( x, y )dx
dy −

si ha, infatti
dFX ( x) d
f X ( x) = = FXY ( x, )
dx dx
d x    
=   f XY ( , y )dy d =  f XY ( x, y )dy
dx −  −  −
Esempio: Siano X e Y due variabili aleatorie definite sullo spazio S, e sia

1 − exp(− x)1 − exp(− y)  x  0; y  0


FXY ( x, y ) = 
0 altrove

la loro funzione di distribuzione congiunta. La funzione densità congiunta si ottiene come

 2 FXY ( x, y )    
f XY ( x, y ) = =  1 − exp(− x) 1 − exp(− y ) 
x y y  x 
   
= 1 − exp( − y )  1 − exp( − x ) 
y  x 

= 1 − exp(− y )  exp(− x)  = exp(− x)exp(− y )
y
In particolare, è facile verificare che

   
0 0 exp(− x)exp(− y ) dx dy =  exp(− x)dx  exp( − y )dy 
  
 0   0 
=  − exp(− x) 0  − exp(− y ) 0
 

=  −0 + 1 −0 + 1 = 1
Si ha, inoltre
 
f X ( x) =  f XY ( x, y )dy =  exp(− x)exp(− y ) dy
0 0

= exp(− x)  exp(− y ) dy = exp(− x)
0
e, analogamente
 
fY ( x) =  f XY ( x, y )dx =  exp(− x)exp( − y ) dx
0 0

= exp(− y )  exp(− x) dx = exp(− y )
0

MOMENTO MISTO E COVARIANZA DI UNA COPPIA DI V.A.

Nel caso di una singola variabile aleatoria X è stato introdotto il concetto di "momento di ordine n"
E[X n ] che, nel caso di n = 1, dà luogo al valore atteso ed il concetto di " momento centrale di ordine n"
 
E [X − E( X )]n che, nel caso di n = 2 , dà luogo alla varianza della variabile aleatoria X.

Nel caso di una coppia di variabili aleatorie X e Y questi concetti e le regole introdotte per il calcolo
numerico di tali quantità restano, ovviamente, validi per ciascuna di tali variabili. Cioè si avrà

+
E( X ) =  x f X ( x)dx
−

+
Var( x) =  ( x − E  X ) f X ( x)dx
2
−

(e le analoghe relazioni per la variabile Y) in cui f X ( x ) ( fY ( y ) ) rappresenta la densità marginale della


densità congiunta f XY ( x, y ) .
Tuttavia, nel caso di una coppia di variabili aleatorie X e Y, è anche utile introdurre il concetto di
momento misto (o momento incrociato), definito come segue

+ +
E( XY ) =   xy f XY ( x, y )dxdy
− −

ed il concetto di covarianza, cioè il corrispondente momento centrale, dato da

Cov( X , Y ) = E  X − E( X ) Y − E(Y ) 


+ +
=   x − E( X ) y − E(Y ) f XY ( x, y)dxdy
− −

Si osservi che nel caso di variabili discrete valgono delle relazioni analoghe con la sostituzione degli
integrali con sommatorie e funzioni densità con funzioni di probabilità.

Tra la covarianza ed il momento misto esiste la seguente relazione

Cov( X , Y ) = E( XY ) − E( X )E(Y )
Si ha, infatti
Cov( X , Y ) = E  X − E( X ) Y − E(Y ) 
= E  XY − XE(Y ) − YE( X ) + E( X )E(Y )
= E( XY ) − E( X )E(Y ) − E(Y )E( X ) + E( X )E(Y )
= E( XY ) − E( X )E(Y )
COEFFICIENTE DI CORRELAZIONE
Date due variabili aleatorie X e Y, si definisce coefficiente di correlazione, r, la seguente quantità
Cov( X , Y )
r= −1  r  1
Var( X )Var(Y )

infatti, per ogni X e Y, vale la seguente relazione Cov{ X ,Y }2  Var{ X }Var{Y } , nota come
disuguaglianza di Cauchy-Schwarz.

Il coefficiente di correlazione rappresenta una misura del grado di dipendenza lineare che intercorre
tra le variabili aleatorie X e Y. Infatti, se Y = aX + b si ha
E(Y ) = aE( X ) + b e Var(Y ) = a 2Var( X )
da ciò segue che
Cov( X , Y ) = E  X − E( X ) Y − E(Y ) 

 
= E  X − E( X ) ( aX + b ) − ( aE( X ) + b ) 

= E  X − E( X )  a ( X − E( X ) ) 


= aE  X − E( X )
2
 = aVar( X )
da cui segue
Cov( X , Y ) aVar( X ) +1 se a  0
r= = =
Var( X )Var(Y ) Var( X ) a 2Var( X ) −1 se a  0

Pertanto, quanto più il valore di r è prossimo a 1 tanto più le variabili X e Y dipendono linearmente
tra loro.
Se Cov( X , Y ) = 0 , il che implica che r = 0 , si dice che le variabili aleatorie X e Y sono tra loro
incorrelate.
VALORE ATTESO DI UNA FUNZIONE DI UNA COPPIA DI VARIABILI ALEATORIE

Sia h( x, y ) una qualsiasi funzione reale di due variabili. Siano, poi, X e Y due variabili aleatorie definite
sullo spazio S di un certo esperimento E. Definiamo su S la variabile aleatoria Z = h( X , Y ) come quella
regola che, al generico evento elementare e  S , associa il numero h( x, y ) . Cioè

h(e) = h  X (e), Y (e)  = h( x, y ) e  S

Dal momento che Z = h( X , Y ) è una variabile aleatoria è possibile definire il suo valore atteso. Sulla
base di ragionamenti analoghi utilizzati nel caso di singola variabile aleatoria, si ha

 x  y h( x, y ) p XY ( x, y ) nel caso discreto



E  Z  = E  h( X , Y )  =  + +
   h( x, y ) f XY ( x, y )dxdy nel caso continuo
 − −
Un caso particolarmente interessante da esaminare, in quanto presente in molte situazioni di
interesse applicativo, è quello in cui la variabile aleatoria Z è la somma delle variabili aleatorie X e Y
Z = h( X , Y ) = X + Y
In particolare, in questo caso si ha
E ( X + Y ) = E ( X ) + E (Y )

Ovvero il valore atteso della somma di due variabili aleatorie è uguale alla somma dei valori attesi di
ciascuna di esse. Dimostriamo questo risultato nel caso di variabili aleatorie continue.
Per la definizione di valore atteso di una funzione di due variabili aleatorie si ha
+ +
E( X + Y ) =   ( x + y ) f XY ( x, y )dxdy
− −

da cui, con semplici passaggi, risulta


+ + + +
E( X + Y ) =   x f XY ( x, y )dxdy +   y f XY ( x, y )dxdy
− − − −
+ + +  +
= x  f XY ( x, y )dy dx +  y  f XY ( x, y )dx  dy
 
−  −  − 
 − 
+ +
= x f X ( x) dx +  y fY ( y ) dy
− −
= E ( X ) + E (Y )

Questo risultato può essere generalizzato al caso della somma di un qualunque numero n di variabili
aleatorie X 1, X 2 ,..., X n . Si ha, cioè

E  i =1 X i  =  i =1 E ( X i )
n n
 
Calcoliamo, ora, la varianza della variabile aleatoria Z = h( X , Y ) = X + Y .

Dalla definizione di varianza di una variabile aleatoria segue


Var( X + Y ) = E ( X + Y ) − E ( X + Y ) 2

= E  X + Y − E( X ) − E(Y )  
2


= E ( X − E( X ) ) + (Y − E(Y ) ) 
2

 
= E  X − E( X )  + Y − E(Y )  + 2  X − E( X ) Y − E(Y ) 
2 2

= Var( X ) + Var(Y ) + 2Cov( X , Y )

Pertanto, in generale, la "varianza della somma" di due variabili aleatorie differisce dalla "somma delle
varianze" di ciascuna di tali variabili per la presenza del termine 2Cov( X , Y ) .
COPPIE DI VARIABILI ALEATORIE INDIPENDENTI

Come è noto, dati due eventi A e B, si dice che tali eventi sono (stocasticamente) indipendenti se
risulta Pr ( A  B ) = Pr ( A ) Pr ( B ) .

Siano, ora, X e Y due variabili aleatorie definite su un certo spazio S. Si dice che X e Y sono
(stocasticamente) indipendenti se gli eventi  X  x e Y  y sono (stocasticamente) indipendenti
comunque si scelga la coppia di valori ( x, y ) se, cioè, ( x, y )  ( −, +) risulta

Pr ( X  x )  (Y  y ) = Pr  X  x Pr Y  y

Ricordando il significato di funzione di distribuzione congiunta e di distribuzione marginale, da tale


definizione segue che, nel caso di variabili aleatorie indipendenti si ha
FXY ( x, y ) = FX ( x) FY ( y )
Tale proprietà può essere anche espressa in termini di funzioni densità di probabilità

f XY ( x, y ) = f X ( x) fY ( y )
A tale riguardo vale anche il ragionamento inverso. Cioè se la funzione di distribuzione congiunta (o la
funzione densità di probabilità congiunta) di una coppia di variabili aleatorie X e Y si può ottenere
come prodotto delle corrispondenti marginali, allora tali variabili aleatorie sono stocasticamente
indipendenti.

Una fondamentale conseguenza della proprietà di indipendenza è che se (e solo se) due variabili
aleatorie X e Y sono stocasticamente indipendenti allora la conoscenza delle funzioni di distribuzione
(o funzioni densità di probabilità) marginali è sufficiente a determinare la funzione di distribuzione ( o
densità) congiunta.

Esempio: Siano X e Y due variabili aleatorie definite sullo spazio S, e sia

1 − exp(− x)1 − exp(− y)  x  0; y  0


FXY ( x, y ) = 
0 altrove

la loro funzione di distribuzione congiunta.


Poiché
FX ( x) = FXY ( x, ) = 1 − exp(− x)
e
FY ( x) = FXY (, y ) = 1 − exp(− y )

è immediato verificare che FXY ( x, y ) = FX ( x) FY ( y ) . Pertanto, le variabili aleatorie X e Y sono


indipendenti.

Analizziamo, ora, alcune conseguenze che discendono dalla condizione di indipendenza tra le
variabili aleatorie X e Y.

Si è in precedenza introdotto il concetto di momento misto di due variabili aleatorie X e Y, definito


dalla seguente relazione
+ +
E( XY ) =   xy f XY ( x, y )dxdy
− −
Sotto l'ipotesi di indipendenza, tale relazione si può porre nella seguente forma
+ +
E( XY ) =   xy f X ( x) fY ( y )dxdy
− −
+ +
=   x f X ( x)dx    y fY ( y )dy 
 −   − 
= E( X )E(Y )
cioè, nel caso di indipendenza, il momento misto si ottiene come prodotto dei valori attesi delle
variabili aleatorie X e Y.

Si osservi, tuttavia, che non è necessariamente vero il contrario. In altri termini, date due variabili
aleatorie X e Y il fatto che E( XY ) = E( X )E(Y ) non implica che tali variabili siano indipendenti.

In particolare, variabili aleatorie che soddisfano la relazione E( XY ) = E( X )E(Y ) si dicono non


correlate.

Ne consegue che l'indipendenza è una proprietà più "forte" della non correlazione, in quanto implica
anche il prodotto delle marginali.
Un'altra importante conseguenza della proprietà di non correlazione e, quindi, a maggior ragione della
proprietà di indipendenza, è la seguente. Si è visto che se si considera la variabile aleatoria somma di
due variabili aleatorie X e Y, in generale si ha
Var( X + Y ) = Var( X ) + Var(Y ) + 2Cov( X , Y )
in cui
Cov( X , Y ) = E( XY ) − E( X )E(Y )
Ma, se le variabili aleatorie X e Y sono non correlate, allora E( XY ) = E( X )E(Y ) e, di conseguenza,
Cov( X , Y ) = 0 , per cui si ha
Var( X + Y ) = Var( X ) + Var(Y )
In altri termini, si può affermare che se due variabili aleatorie sono non correlate o, a maggior ragione
indipendenti, allora la varianza della variabile aleatoria somma coincide con la somma delle varianze
delle due variabili aleatorie.
Questo risultato può essere generalizzato al caso di n variabili aleatorie non correlate o, a maggior
ragione indipendenti
Var  i =1 X i  =  i =1 Var ( X i )
n n
 
FUNZIONI DI DISTRIBUZIONE E FUNZIONI DENSITÀ CONDIZIONATE

Siano X e Y due variabili aleatorie definite sullo spazio S e sia FXY ( x, y ) la loro funzione di
distribuzione congiunta.

Nel caso di una singola variabile aleatoria X, dato un evento A con probabilità non nulla, la funzione di
distribuzione della variabile aleatoria X condizionata al verificarsi di A è definita da
Pr  X  x  A
FX ( x | A) =
Pr  A
Supponiamo, ora, che l'evento A sia espresso in termini della variabile aleatoria Y. Sia, ad esempio
A = Y  y con y valore fissato e
Pr  A = Pr Y  y = FY ( y )  0

Dalla definizione di distribuzione condizionata, si ha


Pr  X  x  Y  y FXY ( x, y )
FX ( x | Y  y ) = =
Pr Y  y FY ( y )
La corrispondente funzione densità di probabilità si può ottenere per derivazione

y
F ( x, y ) / x
f X ( x | Y  y ) = XY =
− f XY ( x, )d
+ y
FY ( y )
− − f XY ( x, )d dx
In generale per definire una probabilità condizionata al verificarsi di un evento A deve essere
Pr  A  0 .

Tuttavia, nel caso particolare in cui A = Y = y è possibile definire la funzione di distribuzione e la


funzione densità di probabilità condizionate facendo ricorso ad una procedura di limite.
In particolare, si definisce funzione di distribuzione della variabile aleatoria X condizionata all'evento
Y = y , il seguente limite
Pr ( X  x )  ( y  Y  y + y )
FX ( x | Y = y ) = lim
y →0 Pr  y  Y  y + y
Pr ( X  x )  ( y  Y  y + y ) / y
= lim
y →0 Pr  y  Y  y + y / y
FXY ( x, y ) / y
=
fY ( y )

in cui fY ( y ) è la funzione densità marginale della variabile aleatoria Y.

Derivando la precedente relazione, si ha

FX ( x | Y = y )  2 FXY ( x, y ) / xy f XY ( x, y )


f X ( x | Y = y) = = =
x fY ( y ) fY ( y )
Poiché
+
f X ( x) =  f XY ( x, y )dy
−
e
f XY ( x, y ) = f X ( x | Y = y ) fY ( y )
si ha, anche
+
f X ( x) =  f X ( x | Y = y ) fY ( y )dy
−

Questa relazione definisce la regola per eliminare il condizionamento all'evento Y = y .

Inoltre, questa relazione può essere interpretata come l'espressione del "Teorema delle Probabilità
Totali" in forma continua. Allo stesso modo il Teorema di Bayes diventa

fY ( y | X = x) f X ( X )
f X ( x | Y = y) =
fY ( y )

Ragionamenti analoghi si applicano al caso di condizionamento all'evento  X = x .


FUNZIONI DI UNA COPPIA DI VARIABILI ALEATORIE

Siano X e Y due variabili aleatorie definite sullo spazio S e sia h( x, y ) una funzione delle variabili reali
x e y. Indichiamo con la notazione Z = h( X , Y ) la regola che all'evento elementare e  S , per il quale
X (e) = x e Y (e) = y , associa il numero

Z (e) = h  X (e), Y (e)  = h( x, y )

Z rappresenta, quindi, una variabile aleatoria funzione delle variabili aleatorie X e Y e si pone il
problema di determinare la funzione di distribuzione FZ ( z ) e la funzione densità di probabilità f Z ( z ) di
tale variabile aleatoria in termini della funzione h( x, y ) e della funzione densità congiunta f XY ( x, y )
della variabili aleatorie X e Y.
Fissato un numero z, indichiamo con Dz la regione del piano ( x, y ) per la quale h( x, y )  z .

Tale regione può non essere semplicemente connessa

Si ha
Z  z  ( X ,Y )  Dz 
e, quindi
FZ ( z ) = Pr Z  z = Pr ( X , Y )  Dz 
=  f XY ( x, y )dxdy
Dz
La densità f Z ( z ) può essere determinata per derivazione della funzione di distribuzione FZ ( z ) , oppure
direttamente individuando la regione Dz del piano ( x, y ) tale che

z  h ( x , y )  z + dz

Si ha
 z  Z  z + dz  ( X ,Y )  Dz 
e, quindi
f Z ( z ) =  f XY ( x, y )dxdy
Dz
CASO Z = X + Y

Fissato il numero z, osserviamo che la regione Dz tale che x + y  z è rappresentata dal semipiano
alla sinistra della retta di equazione x + y = z .

FZ ( z ) = Pr Z  z = Pr ( X , Y )  Dz 
+  z − y
= f XY ( x, y )dx  dy
 −
−  
e, derivando rispetto a z
+
fZ ( z) =  f XY ( z − y, y )dy
−

La funzione di distribuzione FZ ( z ) può essere ottenuta anche integrando su strisce elementari verticali
anziché orizontali.

Si ha
FZ ( z ) = Pr Z  z = Pr ( X , Y )  Dz 
+  z − x
= f XY ( x, y )dy  dx
−  − 
da cui, derivando rispetto a z

+
fZ ( z) =  f XY ( x, z − x)dx
−

Nel caso in cui le variabili aleatorie X e Y sono indipendenti, allora

f XY ( x, y ) = f X ( x) fY ( y )

e, quindi, la funzione densità di probabilità della loro somma uguaglia la funzione di convoluzione
delle funzioni densità

+ +
fZ ( z) =  f X ( z − y ) fY ( y )dy =  f X ( x) fY ( z − x)dx
− −

In particolare, se le variabili aleatorie X e Y assumono solo valori positivi, allora

z z
f Z ( z ) =  f X ( z − y ) fY ( y )dy =  f X ( x) fY ( z − x)dx
0 0
Nel caso di variabili aleatorie X e Y indipendenti, l'integrale di convoluzione può essere ottenuto
anche applicando un diverso ragionamento.
In effetti, affinché la somma Z = X + Y sia contenuta in un intorno del punto z, si deve verificare il
seguente evento elementare: la variabile aleatoria X assume un valore nell'intorno del punto x e
contemporaneamente la variabile aleatoria Y assume un valore nell'intorno del punto y = z − x (si
veda la seguente figura)

Tale evento, nel caso di variabili aleatorie X e Y indipendenti, ha probabilità di verificarsi pari a
f X ( x)dx fY ( z − x)dz
per cui, integrando rispetto ad x si ha
+
f Z ( z ) dz =  f X ( x)dx fY ( z − x)dx dz
−
Nel caso in cui le variabili aleatorie X e Y assumono solo valori positivi, allora, affinché la somma
Z = X + Y sia contenuta in un intorno del punto z, la variabile aleatoria X deve assumere valori minori
di z e, quindi, l'integrale diventa

z
f Z ( z ) dz =  f X ( x)dx fY ( z − x)dx dz
0

Ovviamente, i precedenti ragionamenti possono essere svolti a partire dal valore assunto dalla
variabile aleatoria Y e, quindi, si avrà anche

+
fZ ( z) =  f X ( z − y )dx fY ( y )dy −   x, y  +
−

z
f Z ( z ) =  f X ( z − y )dx fY ( y )dy x, y  0
0
CASO DI N VARIABILI ALEATORIE

Sia E un esperimento avente spazio S. Consideriamo il caso in cui sullo spazio S siano definite n
variabili aleatorie, X 1, X 2 ,..., X n , cioè n funzioni tali che, in corrispondenza del singolo evento
elementare e  S si abbia, contemporaneamente, X i (e) = xi i = 1, 2,..., n con xi i = 1, 2,..., n numeri reali
appartenenti in generale all'insieme (−, +) .

La funzione di distribuzione congiunta delle n variabili aleatorie è definita da

F ( x1, x2 ,..., xn ) = Pr  X1  x1    X n  xn  −   x1, x2 ,..., xn  +


In questo caso, esistono: n marginali di ordine n, n!/  2! (n − 2)! = n(n − 1) / 2 di ordine 2, e così via fino
a n!/  (n − 1)! 1! = n marginali di ordine n − 1.

Tali marginali sono completamente determinate dalla funzione di distribuzione congiunta. In


particolare, le marginali possono essere ottenute inserendo nella funzione di distribuzione congiunta il
valore xi =  in corrispondenza delle variabili da eliminare.
Ad esempio, nel caso di n = 4 , la funzione di distribuzione marginale del secondo ordine relativa alle
variabili X 1 e X 2 è data da

F ( x1, x2 ) = F ( x1, x2 , , ) −  x1, x2  +

Nel caso in cui le n variabili aleatorie X 1, X 2 ,..., X n sono di tipo continuo è possibile definire la funzione
densità di probabilità congiunta come segue

F ( x1, x2 ,..., xn )
f ( x1, x2 ,..., xn ) =
x1x2  xn

ed è tale che
+ +
f ( x1, x2 ,..., xn )  0 e − 
−
f ( x1, x2 ,..., xn )dx1dx2 ...dxn = 1

Ovviamente, vale anche la relazione inversa


Le densità marginali si ottengono o per derivazione delle corrispondenti funzioni di distribuzione o
integrando la funzione densità congiunta rispetto alle variabili che si vogliono eliminare.

Ad esempio, per n = 4 la densità marginale del secondo ordine relativa alle variabili X 1 e X 2 è data da
+ +
f ( x1, x2 ) =   f ( x1, x2 , x3 , x4 )dx3dx4
− −

Si osservi che, mentre la conoscenza della funzione di distribuzione congiunta determina


univocamente le marginali di qualunque ordine, in generale, la conoscenza delle distribuzioni
marginali fino all'ordine n − 1 non determina la funzione di distribuzione congiunta di n variabili
aleatorie.

Tuttavia, se variabili aleatorie X 1, X 2 ,..., X n sono tra loro indipendenti allora la funzione di distribuzione
congiunta è data dal prodotto delle marginali di ordine 1
F ( x1, x2 ,..., xn ) = FX1 ( x1 ) FX 2 ( x2 )  FX n ( xn )

Ovviamente, si ha anche
f ( x1, x2 ,..., xn ) = f X1 ( x1 ) f X 2 ( x2 )  f X n ( xn )

Il concetto di funzione di distribuzione e funzione densità condizionate, introdotto nel caso di una
coppia di variabili aleatorie, si estende al caso di n variabili aleatorie come segue

 n−k F ( x1,..., xn ) / xk +1  xn


F ( x1,..., xk | xk +1,..., xn ) = n−k
 F ( xk +1,..., xn ) / xk +1  xn

f ( x1,..., xk ,..., xn )
f ( x1,..., xk | xk +1,..., xn ) =
f ( xk +1,..., xn )

In particolare, vale la seguente relazione

f ( x1,..., xn )
f ( xn | xn−1,..., x1 ) =
f ( x1,..., xn−1 )

da cui si ricava
f ( x1,..., xn ) = f ( xn | xn−1,..., x1 ) f ( x1,..., xn−1)
Applicando questa relazione in maniera ricorsiva si perviene al seguente risultato

f ( x1,..., xn ) = f ( xn | xn−1,..., x1 ) f ( x1,..., xn−1)


= f ( xn | xn−1,..., x1 ) f ( xn−1 | xn−2 ,..., x1 ) f ( x1,..., xn−2 )
= 
= f ( xn | xn−1,..., x1 ) f ( xn−1 | xn−2 ,..., x1 )  f ( x2 | x1 ) f ( x1 )

che consente di esprimere la funzione densità di probabilità congiunta delle n variabili aleatorie come
prodotto di opportune densità condizionate.

Per eliminare delle specifiche variabili da una funzione densità condizionata valgono le seguenti
regole

A) Per eliminare una variabile a sinistra del segno di condizionamento si deve integrare la funzione
densità sull'intero dominio di definizione rispetto a quella variabile
B) Per eliminare una variabile a destra del segno di condizionamento si deve prima moltiplicare per la
funzione densità di tale variabile condizionata alle rimanenti variabili a destra e, poi, integrare
sull'intero dominio di definizione rispetto alla variabile da eliminare.

Esempio:

A) Data la funzione densità condizionata f ( x1, x2 , x3 | x4 ) per eliminare le variabili a sinistra x2 e x3 si


procede come segue

+ +
f ( x1 | x4 ) =   f ( x1, x2 , x3 | x4 )dx2dx3
− −

B) Data la funzione densità condizionata f ( x1 | x2 , x3 , x4 ) per eliminare le variabili a destra x2 e x3 si


procede come segue

+ +
f ( x1 | x4 ) =   f ( x1 | x2 , x3 , x4 ) f ( x2 , x3 | x4 )dx2dx3
− −

Il concetto di momento misto di ordine k definito come E  X1k X 2k  , introdotto nel caso di una coppia di
variabili aleatorie, si generalizza al coso di n variabili aleatorie come segue

+ + k k
E  X1k X 2k  X nk  =   x1 x2  xnk f ( x1, x2 ,..., xn )dx1dx2  dxn
− −

Anche i concetti di covarianza e di correlazione si estendono al caso di n variabili aleatorie


considerando tutte le possibili coppie di variabili X i , X j . In questo caso, tuttavia, è utile utilizzare una
rappresentazione di tipo matriciale introducendo la matrice di varianze e covarianze V, avente
elementi

vij = E  X i − E ( X i )   X j − E ( X j )  
i, j = 1,..., n

e la corrispondente matrice di correlazione R, avente elementi

vij
rij = i, j = 1,..., n
Var ( X i ) Var ( X j )
Sia la matrice V che la matrice R sono simmetriche rispetto alla diagonale principale, in quanto

vij = v ji rij = r ji per i  j

Se la variabili aleatorie X 1, X 2 ,..., X n sono non correlate o, a maggior ragione indipendenti, ossia se
vij = 0 per i  j con i, j = 1,..., n , allora

V =  Var( X1 ),...,Var( X n )   I e R=I

essendo I la matrice identità.

Nel caso di variabili non correlate o, a maggior ragione, indipendenti si ha

Var  i =1 X i  =  i =1 Var ( X i )
n n
 
FUNZIONI DI N VARIABILI ALEATORIE

Sia E un esperimento avente spazio S, e supponiamo che su tale spazio siano definite n variabili
aleatorie X 1,..., X n . Definiamo ora n variabili aleatorie Y1,..., Yn tali che

Y1 = h1 ( X1,..., X n ) ,..., Yn = hn ( X 1,..., X n )

cioè le variabili aleatorie Y1,..., Yn sono delle funzioni note delle variabili aleatorie X 1,..., X n .

Il problema che si vuole esaminare consiste nel determinare la funzione densità di probabilità
congiunta delle variabili aleatorie Y1,..., Yn , note che siano: a) la funzione densità di probabilità
congiunta della variabili aleatorie X 1,..., X n , e b) le funzioni h1 (),..., hn () .

Si supponga che, fissati n valori y1,..., yn , il sistema di equazioni

h1 ( x1,..., xn ) = y1, , hn ( x1,..., xn ) = yn

ammetta un'unica soluzione reale x1 ,..., xn .


Si ha
f X1 X n ( x1 ,..., xn )
fY1Yn ( y1,..., yn ) =
J ( x1 ,..., xn )

in cui J ( x1 ,..., xn ) rappresenta il determinante della matrice Jacobiana della trasformazione ovvero

 h1 / x1  h1 / xn 


J ( x1,..., xn ) =     
 
hn / x1  hn / xn 

calcolata nella soluzione x1 ,..., xn .

Esempio:

Date le variabili aleatorie X 1,..., X n caratterizzate da una funzione densità di probabilità congiunta
f X1 X n ( x1,..., xn ) sia
Y1 = X1 Y2 = X 1 + X 2  Yn = X 1 +  + X n
Fissati n valori y1,..., yn , il sistema di equazioni

x1 = y1 x1 + x2 = y2  x1 +  + xn = yn
ammette l'unica soluzione
x1 = y1 x2 = y2 − y1  xn = yn − yn −1

La matrice Jacobiana della trasformazione calcolata nella soluzione è data da

 1 0  0 0 
 1 1  0 0 
 
J ( x1 ,..., xn ) =     
 
 1 1  1 0 
 1 1  1 1 

ed il suo determinante è uguale ad 1. Pertanto,


f X1 X n ( x1 , x2 ,..., xn )
fY1Y2 Yn ( y1, y2 ..., yn ) = = f X1 X n ( y1, y2 − y1,..., yn − yn−1) ■
J ( x1 , x2 ,..., xn )

Esempio:

Date le variabili aleatorie X 1,..., X n caratterizzate da una funzione densità di probabilità congiunta
f X1 X n ( x1,..., xn ) sia

Y1 = X1 Y2 = X 2 − X1  Yn = X n − X n−1

Fissati n valori y1,..., yn , il sistema di equazioni

x1 = y1 x2 − x1 = y2  xn − xn−1 = yn

ammette l'unica soluzione

x1 = y1 x2 = y1 + y2  xn = y1 +  + yn
La matrice Jacobiana della trasformazione calcolata nella soluzione è data da

 1 0  0 0 
 −1 1  0 0 
 
J ( x1 ,..., xn ) =      
 
 0 0  1 0 
 0 0  −1 1 

ed il suo determinante è uguale ad 1. Pertanto,

f X1 X n ( x1 , x2 ,..., xn )


fY1Y2 Yn ( y1, y2 ..., yn ) = = f X1 X n ( y1, y1 + y2 ,..., y1 +  + yn )
J ( x1 , x2 ,..., xn )

Potrebbero piacerti anche