Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
(x,y)D
XY
|g(x, y)|p
XY
(x, y)
es convergente, llamaremos esperanza matematica de la variable aleatoria g(X, Y ) a la serie:
E[g(X, Y )] =
(x,y)D
XY
g(x, y)p
XY
(x, y).
Denicion 1.3 Sea (X, Y ) una Variable Aleatoria Bidimensional absolutamente continua con funcion de den-
sidad f
XY
. Sea g : R
2
R una funcion medible Borel. Si la integral:
+
|g(x, y)|f
XY
(x, y)dxdy
es nita, llamaremos esperanza matematica de la variable aleatoria g(X, Y ) a:
E[g(X, Y )] =
+
g(x, y)f
XY
(x, y)dxdy.
1.1. Propiedades de la esperanza.
Si k es una constante, E[k] = k.
E[k] =
kF(dx) = k
F(dx) = k ya que
F(dx) = 1.
Sea (X, Y ) una variable aleatoria, y sea g(X, Y ) una funcion medible Borel. Si g(X, Y ) esta acotada en el
soporte de la VA, es decir, existen valores a, b tal que a g(X, Y ) b para todo (x, y) en el soporte de
(X, Y ), entonces a E[g(X, Y )] b.
Sea (X, Y ) una variable aleatoria, y sean g(X, Y ) y h(X, Y ) dos funciones medibles Borel cuyas esperanza
existan, y sean a y b dos constantes cualesquiera, entonces:
E[a g(X, Y ) + b h(X, Y )] = a E[g(X, Y )] + b E[h(X, Y )]
Sea (X, Y ) una variable aleatoria, y sean g(X, Y ) y h(X, Y ) dos funciones medibles Borel cuyas esperanza
existan. Si g(X, Y ) h(X, Y ), entonces:
E[g(X, Y )] E[h(X, Y )]
E[g(X, Y )] existe y es nita si y solo si E[|g(X, Y )|] < +. Entonces |E[g(X, Y )]| E[|g(X, Y )|].
1
2. Momentos de una Variable Aleatoria bidimensional.
2.1. Momentos respecto al origen.
Denicion 2.1 Se llama momento respecto al origen de ordenes (k, l) de la variable aleatoria (X, Y ), y se
denota por
kl
a la esperanza matematica de la funcion g(X, Y ) = X
k
Y
l
. Es decir,
kl
= E[X
k
Y
l
].
Si k = 1 y l = 0,
10
coincide con la media de la VA X tomando su distribucion marginal.
Si k = 0 y l = 1,
01
coincide con la media de la VA Y tomando su distribucion marginal.
Por tanto a
10
y
01
se les llama media (o esperanza) marginal de las VA X e Y respectivamente.
En general,
k0
=
k
y
0l
=
l
, calculados los segundos miembros a traves de las correspondientes
distribuciones marginales.
2.2. Momentos respecto a la media.
Denicion 2.2 Se llama momento central o respecto a la media de ordenes (k, l) de la variable aleatoria
bidimensional (X, Y ) a la esperanza matematica de la funcion g(X, Y ) = (X
10
)
k
(Y
01
)
l
. Se representa
por
kl
. Por tanto:
kl
= E[(X
10
)
k
(Y
01
)
l
]
Si k = l y l = 0,
20
coincide con la varianza de la VA X tomando su distribucion marginal.
Si k = 0 y l = 2,
02
coincide con la varianza de la VA Y tomando su distribucion marginal.
Por tanto a
20
y
02
se les llama varianza marginal de las VA X e Y respectivamente.
En general,
k0
=
k
y
0l
=
l
, calculados los segundos miembros a traves de las correspondientes
distribuciones marginales.
Al momento
11
se le llama covarianza entre las variables aleatorias X e Y , y a veces se representa por
Cov(X, Y ) o por
XY
.
Denicion 2.3 Sea X el vector aleatorio (X
1
, . . . , X
n
). Si cada coordenada del vector aleatorio tiene segundo
momento nito, entonces la varianza de X se dene como la matriz cuadrada y simetrica:
V ar(X) =
V ar(X
1
) Cov(X
1
, X
2
) Cov(X
1
, X
n
)
Cov(X
2
, X
1
) V ar(X
2
) Cov(X
2
, X
n
)
.
.
.
.
.
.
.
.
.
Cov(X
n
, X
1
) Cov(X
n
, X
2
) V ar(X
n
)
XY
=
11
Y
Con
X
= +
20
,
Y
= +
02
Proposicion 4.1 El coeciente de correlacion cumple que:
1. Si X e Y son independientes, entonces (X, Y ) = 0.
2. 1 1.
3. |(X, Y )| = 1 si y solo si existen constantes a y b tales que Y = aX +b, con a 0 si (X, Y ) = 1 y a < 0
si (X, Y ) = 1.
1. Si X e Y son independientes,
11
= 0, por tanto (X, Y ) = 0.
2. 1 1:
3
2
=
2
11
20
02
0.
2
1 aplicando la desigualdad de Schwarz.
Por tanto, 0
2
1 y 1 1.
3. Demostramos ambos lados:
Si X = aY + b con a = 0:
(X, Y ) =
Cov(X, aX + b)
V ar(X)V ar(aX + b)
=
aV ar(X)
|a|V ar(X)
=
1 si a > 0
1 si a < 0
Sean (X, Y ) tales que |(X, Y )| = 1.
Sean U = (X
X
)/
X
, V = (Y
Y
)/
Y
. Por tanto, E(U) = E(V ) = 0, V ar(U) = E(U
2
) =
V ar(V ) = E(V
2
) = 1.
(U, V ) = E[UV ]. Es facil probar que (U, V ) = (X, Y ). Por tanto, E(UV ) = 1. Entonces:
V ar(UV ) = E[(UV )
2
][E(UV )]
2
= E[(UV )
2
] = E(U
2
)2E(UV )+E(V
2
) = 2(1E(UV )) = 0
Dado que V ar(UV ) = 0, (UV ) es una VA degenerada e igual a una constante. Como E(UV ) = 0,
(U V ) = 0. Por tanto,
X
X
X
=
Y
Y
Y
y Y =
Y
+ (X
x
)
Y
/
X
, que establece una relacion
lineal entre X e Y .
Si = 1: V ar(U + V ) = 0, y como E(U + V ) = 0, U + V = 0 y
X
X
X
=
Y
Y
Y
.
5. Funcion caracterstica bidimensional.
Denicion 5.1 Sea (X, Y ) una variable aleatoria bidimensional. Llamaremos funcion caracterstica de la VA
(X, Y ) a la esperanza matematica de la funcion:
g(X, Y ) = e
i(tX+uY )
Y se representa as:
XY
(t, u) = E[e
i(tX+uY )
]
5.1. Propiedades de la funcion caracterstica.
Como e
i(tX+uY )
= cos (tX + uY ) + i sin (tX + uY ),
XY
(t, u) siempre sera convergente.
|
XY
(t, u)|
XY
(0, 0) = 1
kl
=
1
i
k+l
k+l
l
(t, u)
t=0,u=0
XY
(t, 0) =
1
(t),
XY
(0, u) =
2
(u), siendo
1
(t),
2
(u) las funciones caractersticas de las distribu-
ciones marginales de X e Y .
Sea la VA bidimensional (X, Y ). Sea la VA Z = X + Y . Entonces,
Z
(t) =
XY
(t, t).
La funcion caracterstica caracteriza totalmente la distribucion de probabilidad.
Teorema 5.1 Sea (X, Y ) una variable aleatoria bidimensional con funcion caracterstica
XY
(t, u).Entonces,
X e Y son VA independientes si y solo si
XY
(t, u) =
X
(t)
Y
(u).
Teorema 5.2 Sean X
1
, X
2
, . . . , X
n
una coleccion de variables aleatorias mutuamente independientes, con fun-
ciones caractersticas
1
(t),
2
(t), . . . ,
n
(t), entonces la funcion caracterstica de la variable aleatoria Z =
n
i=1
X
i
es:
Z
(t) =
n
i=1
i
(t).
4