Sei sulla pagina 1di 13

distmultiv.doc vgaribay@eio.uva.

es
1

Tema 1: Distribuciones Multivariantes.

1.- Conceptos de Repaso.
Leyes de Probabilidad Conjunta.
Leyes Marginales.
Leyes condicionadas.
Independencia.
Momentos.

2.- Matrices aleatorias
Matriz aleatoria nxp dimensional X= =(X
ij
); Vector aleatorio p-dim X=
11 1p
n1 np
X ... X
... ...
X ... X
| |

|
\ .
|
|
1
2
p
X
X
...
X
| |
|

|
|
\ .
|
|
.
Esperanza o media del v.a. (vector aleatorio) X es el vector = EX=
1
2
p
EX
EX
...
EX
| |
|
|
|
|
|
\ .
=
1
2
p

...

| |
|
|
|
|
|
\ .

Anlogamente, esperanza o media de la matriz aleatoria X es la matriz nxp EX= (EX
ij
)= E(
ij
)
Transformaciones lineales de vectores o matrices aleatorias X:
Sea Y=AX+C con A= y C= constantes. Entonces, EY= A EX + C.
11 1p
k1 kp
a ... a

a ... a
| |
|
|
|
\ .

1
k
c
...
c
| |
|
|
|
\ .
Sea Y=AXB+ C con A, B y C matrices de constantes. Entonces, EY= A EX B+ C.
Matriz de varianzas-covarianzas de un v.a. X (tambin llamada matriz de dispersin)Z
X

Es la matriz de trmino genrico Cov(X
i
, X
j
): Z
X
= Cov(X)= E(X- )(X- )
t
=
= = = (o
ij
)
2
1 1 1 1 p p
2
p p 1 1 p p
(X - ) ... (X - )(X - )
E
(X - )(X - ) ... (X - )
| |
|

|
\ .

|
1 1
p 1 p
Var X ... Cov(X , X )

Cov(X , X ) ... Var X
| |
|
|
|
\ .

p
Z
X
= E(XX
t
)- EX EX
t
(generaliza la conocida relacin VarX=EX
2
- E
2
X).
Sea Y=AX+C. Entonces Z
Y
= A Z
X
A
t
. En efecto,
Z
Y
= E(Y-
Y
)(Y-
Y
)
t
= E(AX+C- A-X)( AX+C- A-X)
t
=A E(X- )(X- )
t
A
t
=A Z
X
A
t

Matriz de correlaciones de un vector aleatorio X, R
X
:
Es la matriz de trmino genrico Corr(X
i
, X
j
)=
ij
ii jj



R
X
= D
1/2
Z
X
D
1/2
, siendo D
1/2
=
11 pp
diag( , ... , ) ; D=
11
pp

0
0
| |
|
|
|
|
\ .

distmultiv.doc vgaribay@eio.uva.es
2
Matriz de Covarianzas para dos vectores aleatorios X e Y:
Cov(X,Y)= ( Cov(X
i
, Y
j
))= E(X-EX)(Y-EY)
t

Generaliza la matriz de dispersin, pues Z
X
= Cov(X,X)
Transformaciones lineales. Cov(AX+C, BY+D)= A Cov(X,Y) D
t



3.- Repaso de lgebra
i) (AB)
t
=B
t
A
t
; det(A)=det(A
t
); det(AB)= detA det B; (AB)
-1
= B
-1
A
-1
; (A
t
)
-1
= (A
-1
)
t
.
ii) P ortogonal: PP
t
=P
t
P=I; P
t
=P
-1
; La transformacin x Px es un giro de ejes.
iii) Valores propios i
i
y vectores propios x
i
de una matriz simtrica A:
Ax
i
=i
i
x
i
; i
i
0 Vi; rg(A)=n de autovalores positivos
u
1
... up vectores propios unitarios (u
i
t
u
i
=1) y ortogonales (u
i
t
u
j
=0) asociados a i
1
... i
p

iv) Diagonalizacin (P
t
Z P= A) y reconstruccin (Z = P A P
t
) de Z a partir de los i
i
y los u
i
:
Si =diag(i
1
,..., i
p
) y P= (u
1
|...|u
p
), se tiene que Z P=P A
...y como P es ortogonal (P
t
P=I=PP
t
), tenemos: P
t
Z P=A y Z = PA P
t

v) A definida positiva (se nota A>0): x
t
Ax>0 Vx,; i
i
>0 Vi.
A semidefinida positiva (se nota A>0): x
t
Ax>0 Vx,; i
i
0 Vi.
vi) Si Z es una matriz pxp simtrica y Z>0, existe una matriz B pxp tal que Z = B B
t
.
En efecto, B= PA
1/2
verifica la condicin: B B
t
= PA
1/2
A
1/2
P
t
= PA P
t
= Z

vii) A idempotente (AA=A) y simtrica (A
t
=A).
Sus autovalores sern 1 0 (pues ix=Ax=AAx=Aix=i
2
x =i =1 0)
rg(A)= traza(A). En efecto, rg(A)=n i 's positivos =traza(A), pues los i 's son 0's y 1s,
pero traza(A)=traza(P
t
A P)=traza(PP
t
Z)=traza(A)

viii) Subespacio vectorial generado por las columnas de A (todas sus c.l. posibles):
ImA= [A]={Ax; xeR
p
} (pues cada Ax es una c.l. de las columnas de A)
ix) Proyeccin ortogonal del punto x sobre el subespacio [A]: proy
[A]
x

Es el punto de [A] ms prximo a x.
Su forma es P
[A]
x, siendo P
[A]
=A(A
t
A)
-1
A
t
la matriz de proyeccin sobre [A].
P
[A]
es idempotente y simtrica (de hecho todas las matrices de proyeccin y slo ellas lo son)
distmultiv.doc vgaribay@eio.uva.es
3
4.- Esperanza Condicionada
Sea X un v.a. y H una funcin que transforma X.
E(H(X)/Y=y) es el valor esperado de H(X) utilizando la ley de X condicionada por Y=y.
E(H(X)/Y) es una v.a. funcin de Y, que toma el valor E(H(X)/Y=y) cuando Y=y.
Propiedades:
i) Si C es constante, E(C/Y)=C Esperanza de constante
ii) E(aX+b/Y)= a E(X/Y)+ b Linealidad
iii) E(E(X/Y))= EX Esperanza iterada
iv) E(X/Y)=C = Cov(X,Y)=0 Si no depende de Y
v) Var(X/Y)= E(X
2
/Y) - E
2
(X/Y) Varianza condicionada
vi) Var(X)= Var(E(X/Y)) + E(Var(X/Y))
Regresin Terica:
i) Se define la funcin de regresin terica de Y sobre X como la funcin H(X) que ms se parece
a Y con el criterio LSE, es decir, hace mnimo el error cuadrtico medio esperado, E(Y-H(X))
2
. Esta
funcin resulta ser H(X)=E(Y/X) siempre.
Si X es un vector aleatorio p-dim, la superficie H(X
1
, ..., X
n-1
) que mejor aproxima la v.a. X
n
en
el sentido LSE es pues la esperanza condicionada H(X
1
, ..., X
n-1
)= E(X
n
/X
1
, ..., X
n-1
).
ii) Se define la funcin de regresin LINEAL terica de Y sobre X, como la funcin LINEAL de
X, H(X), que minimiza E(Y-H(X))
2
.
Cuando la curva de regresin terica E(X
n
/X
1
, ..., X
n-1
) resulta ser lineal en X
1
, ..., X
n-1
,
directamente sta ser tambin la regresin lineal.

5.- Distribucin Normal
5.1 Normal Univariante X~ N (,o
2
)
Densidad: f
X
(x)=
2
1 x-
- ( )
2
1
e
2
para xeR. Media E(X)= Varianza Var(X)=o
2
.
i) Transformaciones lineales: aX+b ~ N (a+b, a
2
o
2
)
ii) Funcin caracterstica
X
(t)= exp ( i t -
1
2
t
2
o
2
)
iii) Reproductividad:
X~ N(
X
,o
X
2
), Y~ N(
Y
,o
Y
2
) independientes = X+Y~ N (
X
+
Y
,o
X
2
+o
Y
2
)
Recprocamente: [X, Y independientes, X+Y ~ N] = [X~ N e Y~ N]
En definitiva, para X e Y v.a. independientes: X+Y ~ N . X~ N e Y~ N
y lo mismo para n variables independientes: X
1
+ ... +X
n
~ N . X
1
~ N ... y X
n
~ N
iv) Cuadradados:
X ~ N(0,1) = X
2
~
2
1

X
1
... X
n
v.a.i.i.d. N(0,1) = X
1
2
+ ... +X
n
2
~
2
n
(n grados de libertad)
X
1
... X
n
v.a.i. N (
i
,1) = X
1
2
+ ... +X
n
2
~
2
n
(o) con o=
1
2
+ ... +
n
2
(descentralidad)
distmultiv.doc vgaribay@eio.uva.es
4
v) Momentos muestrales: Si X
1
... X
n
v.a.i.i.d. N(,1)
media muestral X~ N (,
1
n
o
2
); varianza muestral
2
1

S ~
2
n-1
; X y S independientes.
vi) Distribucin t
n
: [ X ~ N (0,1), Y ~
2
n
, independientes] =
X
Y/n
~ t
n
(n g.de l.)
vii) Distribucin F
n,m
: [ X ~
2
n
, Y ~
2
m
, independientes ] =
X/n
Y/m
~ F
n,m
(n,m g.de l.)
viii) Distribucin F descentrada: [ X ~
2
n
(o) , Y ~
2
m
, independientes ] =
X/n
Y/m
~ F
n,m
(o)

4.2 Normal Multivariante :
X ~ N
p
(, Z); dimensin p, media , dispersin Z .
Definicin 1)
El v.a. X= (X
1
, ..., X
p
) tiene distribucin N
p
(, Z) si su densidad es
( )
( ) ( )
-1 p
1 1
( ) exp ; x R
2
2
t
p
f x x x
t
| |
= E
|
\ .
E
e
con cualquier vector de R
p
y Z cualquier matriz simtrica definida positiva.
para p=1 tenemos la normal univariante ya estudiada.
Definicin 2)
El v.a. X= (X
1
, ..., X
p
) tiene distribucin Normal multivariante si a
t
X ~ N
1
VaeR
p

(es decir, si toda combinacin lineal de sus componentes es normal univariante)
Esta segunda definicin de N
p
es ms general que la primera e incluye tanto las normales no
singulares (Z >0) como las degeneradas (Z 0, Z =0).
Propiedades de la N
p
:
i) Momentos: Si X ~ N
p
, existen E(X)= y Cov(X)= Z
ii) Regiones de equidensidad de un vector X ~ N
p
(, Z) con Z >0
f(x)=c . ( ) ( )
t
-1
x- x- =c*
El corte de la densidad f(x) a una altura c es un elipsoide (elipse si p=2). Z determina la forma
del elipsoide y c su tamao. Est centrado en . Los autovectores de Z determinan las direcciones de
los ejes principales del elipsoide y los autovalores, su longitud. Para p=2 podemos visualizar la
funcin de densidad en forma de campana. Las elipses de equidensidad aparecen al cortar f (x,y) por
planos paralelos a la base. Al crecer c disminuye su tamao manteniendo la forma (son elipses
homotticas).






distmultiv.doc vgaribay@eio.uva.es
5
iii) Funcin caracterstica:
X
(t)= exp ( i t' -
1
2
t' Z t)
iv) Toda transformacin lineal (de cualquier dimensin) de un vector Normal es Normal.
X ~ N
p
, Y= AX+B = Y ~ N
p
( A+B, A Z A
t
)
En consecuencia, VaeR aX ~ N
p
( a, a
2
Z ), puesto que aX AX con A= a I
p


v) Las marginales de cualquier dimensin de un vector normal son normales:
Troceamos el vector X ~ N
p
(, Z) en dos subvectores X
(1)
y X
(2)
de dimensiones k y p-k
respectivamente. Se parte y de forma congruente:
(1) (1)
11 12
(2) (2) 21 22
X

X= ; = ; =
X
| | | |
| |
| |
|
| |
\ .
\ . \ .

Entonces, X
(1)
= B
1
X para B
1
=(I
k
| 0)
kxp

y aplicando iv), X
(1)
~ N
k
(B
1
, B
1
Z B
1
t
) N
k
((1),

Z
11

)
Anlogamente, X
(2)
= B
2
X para B
2
=( 0 | I
p-k
)
(p-k)xp
, luego X
(2)
~ N
k
((2),

Z
22

).
En particular, cada componente X
i
de un vector normal es N
1

vi) El recproco de v) no es cierto.
Desafortunadamente, aunque las componentes de un vector sean normales, no se tiene
garantizado que la distribucin conjunta sea normal.
La normalidad conjunta ser rechazada si se detecta falta de normalidad en una componente
(tests de ajuste de Kolmogoroff, Liliefords,
2
, Shapiro-Wilks, ...).
Por contra, aunque todas las componentes una por una superen la prueba, la normalidad
multivariante del vector no est garantizada y es necesario desarrollar tests multivariantes especficos
para contrastar la normalidad conjunta. Los estudiaremos ms adelante.
vii) Bajo normalidad conjunta, independencia e incorrelacin coinciden.
Si X
(1)
y X
(2)
son dos vectores aleatorios con ley conjunta Normal (X
(1)
, X
(2)
) ~ N
p
, entonces
X
(1)
, X
(2)
independientes . Cov(X
(1)
, X
(2)
)= 0
Nota: NO es suficiente que X
(1)
y X
(2)
sean normales por separado. Es necesaria la normalidad
conjunta.
viii) Reproductividad: La suma de N
p
independientes es N
p

Sean X
(1)
... X
(n)
v.a.i. X
i
~ N
p
(
i
, Z
i
) y sean a
1
... a
n
constantes reales.
entonces
n n n
2
i i p i i i i
i=1 i=1 i=1
Y= a X ~ N ( a , a )

Si adems, las X
i
son igualmente distribuidas,
entonces
1
n
2 2
i i p 1 n n
i=1
Y= a X ~ N ((a +...a ), (a +...a ))

En particular, la media muestral n X de una m.a.s. N


p
(, Z) es N
p
(,
1
n
Z)
ix) Recprocamente, la suma de vectores independientes es N
p
slo si cada sumando N
p

distmultiv.doc vgaribay@eio.uva.es
6

x) Condicionadas:
|
Si ~ N , las funciones de regresin de Y sobre X y de X sobre Y son rectas.
La versin multivariante tambin se verifica (notacin de vi):
Para X=
|
~ N
p
(, Z) las leyes condicionales son stas:
a
(2)
+ Z
21
Z
11
-1
(x
1
-
(1)
) resulta lineal en x
1
, luego es tambin la

- Z
21
Z
11
-1
Z
12
se nota como Z
22.1
. Es la matriz
e esta matriz de covarianzas Z
22.1
se denominan
Sorprendentemente no dependen del valor x
1
observado.
i)
tribucin N
p
(, Z) se obtiene transformando linealmente p Normales(0,1) independientes.
t t 1/2 t
a
mular observaciones N
p
a partir de N
1
(0,1)
1/2
semidefinida positiva; adems, cuando es definida positiva, la distribucin admite
) mpre tes incorreladas
acin consigue normales centradas e incorreladas:
Y=A(X-) con A=
X|
|
Y
\ .
2
(1)
X
|
|
\
|
(2)
X
.
X
(2)
/ X
(1)
= x
1
~ N
p-k
(
(2)
+ Z
21
Z
11
-1
(x
1
-
(1)
), Z
22
- Z
21
Z
11
-1
Z
12
)
X
(1)
/ X
(2)
= x
2
~ N
k
(
(1)
+ Z
12
Z
22
-1
(x
2
-
(2)
), Z
11
- Z
12
Z
22
-1
Z
21
)
As, la esperanza condicionad
regresin lineal de X
(2)
sobre X
(1)
.
La matriz de dispersin de la ley condicional, Z
22
de covarianzas de X
(2)
tras eliminar el efecto de X
(1)
.
Las correlaciones calculadas a partir d
correlaciones parciales de X
(2)
conocido X
(1)
.


x Teorema de representacin
La dis
En efecto:

Diagonalizamos Z: P Z P= A ; Z= P A P ; tomamos B=PA , de forma que B B =Z.
Sean ahora X
1
... X
n
v.a.i.i.d. N
1
(0,1); el vector X= (X
1
, ... , X
n
)
t
ser N
p
(0,I
n
), puesto que tod
c.l. de sus componentes ser N
1
(por la reproductividad de la N
1
); entonces, Y=B X+ ~ N
p
(, Z)
Nota: Este resultado es muy importante. Permite si

independientes, transformndolas mediante B=PA .
Corolario: Existe la N
p
(, Z) V y V Z de dispersin (una matriz es de dispersin si y slo si es
simtrica y
densidad)
x Sie es posible transformar linealmente un vector para obtener componen
(bajo normalidad conjunta, incorrelacin equivale a independencia).
Por ejemplo, si p=2, esta transform
12
11 22
-sen cos -
|
\ .
cos sen
2
siendo tg2=
| |
;
Y=P
t
X resulta de
mp
s en R
p
, y este giro hace
ntes
e varianza 1: Si Z= A
-1/2
Y= A
-1/2
P
t
X, entonces Z
Z
= A
-1/2
P
t
Z P A
-1/2
A
-1/2
A A
-1/2
=I

es una transformacin ortogonal (giro de ejes de magnitud o en el plano)
En general se obtiene el mismo resultado transformando por la matriz de paso P=[u
1
|...|u
p
]. Las
columnas u
i
son vectores propio unitarios ortogonales de Z. En efecto, el vector
co onentes independientes, pues P
t
Z P= A= diag(i
1
, ... ,i
p
) , autovalores de Z.
La transformacin P es ortogonal, as que corresponde a un giro de eje
coincidir los ejes de coordenadas con los ejes del elipsoide de equidensidad.
Premultiplicando Y por A
-1/2
=diag(i
1
-1/2
, ... , i
p
-1/2
) se obtienen componentes independie
d
distmultiv.doc vgaribay@eio.uva.es
7
4.3 Teorema Central del Lmite Multivariante
Resultados previos.
i) La distribucin de un vector aleatorio queda determinada por la distribucin de todas las
combinaciones lineales de sus componentes, puesto que
X
(t)= E (e
i t' X
)=
t' X
(1)
ii) Convergencia en Ley de vectores aleatorios
Definicin: { } si
n
n=1
X Y
L

n
X Y
n
limF (x) F (x)

= Vx de continuidad de F
Y

Diremos que la sucesin de vectores aleatorios p-dimensionales X
1
... X
n
... converge en ley al
vector aleatorio Y (o a la distribucin F
Y
) si las funciones de distribucin convergen a F
Y
.
n
X
F
iii) Teorema de Cramer y Wold: { } . [VaeR
p
,
n
n=1
X
L

Y
{ }
t t
n
n=1
a X a Y
L

]
La convergencia en ley de vectores aleatorios p-dimensionales equivale a la convergencia en
ley en R de todas las posibles combinaciones lineales (v.a. unidimensionales).
sta es una idea que se aplica con frecuencia en anlisis multivariante y ayuda a resolver
muchos problemas: Un problema multivariante equivale a una coleccin de problemas univariantes
que sabemos ya resolver.

TCL para v.a.i.i.d.
Sea X
1
, X
2
, ... X
n
... una sucesin de vectores aleatorios independientes igualmente distribuidos,
de media y dispersin Z.
La sucesin de medias muestrales
n
n
i
i=1
1
X = X
n

verifica:
L
n
p
n (X - ) N (0, ) E
En efecto, VoeR
p
o
t
X
1
... o
t
X
n
... son v.a.i.i.d.
1
(o
t
, o
t
Zo), luego o
t
n X ~
1
(o
t
,
1
n
o
t
Zo)
y por el TCL univariante,
t t
n
L
t
X -

/ n
N(0,1),
o sea,
L t t t
n n( X - ) N(0, ) o bien,
L t t
n n(X - ) N(0, )
y por el Th. de Cramer-Wald se tiene el resultado:
L
n
p
n (X - ) N (0, ) E
Delta-Mtodo
Si
L
n
p
n (X - ) N (0, ) E y g: R
p
R
p
es diferenciable,
entonces
t=
'
L
n
p
t=
(g(t)) (g(t))
n (g(X ) - g()) N (0, )
(t) (t)
| | | |
E
| |
\ . \ .

4.4 Distribucin de formas cuadrticas en un vector normal.
i) x ~ N
p
(, o
2
I
p
) = x
t
x / o
2
~
2
p
(
1
2

t
) (chi-2 descentrada)
ii) x ~ N
p
(, Z) con Z > 0 = (x- )
t
Z
1
(x- )

~
2
p


= x
t
Z
1
x ~
2
p
(
t
Z
1
)
iii) x ~ N
p
(, Z) con Z > 0; A y B matrices de constantes. Entonces:
x
t
Ax ~
2
rg(A)
(
t
A ) . A

Z

es idempotente
x
t
Ax independiente de x
t
Bx . A

Z

B= 0
distmultiv.doc vgaribay@eio.uva.es
8
5.- Distribucin de Wishart
En el muestro de la N
1
la distribucin
2
aparece como suma de cuadrados de N
1
(0,1)
independientes:
x
1
, x
2
, ... x
n
v.a.i.i.d. N
1
(0, o
2
); x = ; x
t
x =
1
n
x
x
| |
|
|
|
\ .

n
2
i
i=1
x

~ o
2

2
n

Anlogamente, en el caso multivariante aparece la distribucin de Wishart en una m.a.s. de
tamao n de una N
p
( 0, Z):
x
1
, x
2
, ... x
n
v.a.i.i.d. N
p
(0, Z ); individuo i x
i
= ; matriz de datos X =
i1
ip
x
x
| |
|
|
|
\ .

t
1
t
n
x

x
| |
|
|
|
|
\ .

C = X
t
X = = (c
ij
) ~ W
p
(n , Z )
n
t
i i
i=1
x x

La ley conjunta de todos los elementos de C se denomina distribucin de Wishart basada en n


Normales p-dimensionales de dispersin Z.
Se nota como W
p
(n , Z ). p es la "dimensin" y n, los "grados de libertad", como en la
2
.
La distribucin de Wishart es el anlogo multivariante de la
2
n
: En el muestreo de la N
1
se
introduce la como la ley de la varianza muestral. En el muestro de la N
p
se introduce la W
p
(k , Z )
como la ley de la matriz de covarianzas muestrales S.
La funcin de densidad de la Wishart es una expresin matemtica compleja y de poco inters
prctico.
Propiedades
i) Generaliza la
2
:
W
1
( k , o
2
) o
2

2
k

ii) Reproductividad:
C
1
~ W
p
( k
1
, Z ) , C
2
~ W
p
( k
2
, Z ) indeps. = C
1
+ C
2
~ W
p
( k
1
+ k
2
, Z )
iii) Transformaciones:
C ~ W
p
( k , Z ) , B cualquier matriz qxp de constantes = B C B
t
~ W
q
( k , B Z B
t
)
En particular, para B= b
t
= (b
1
... b
p
) se tiene que
b
t
C b ~ W
1
( k , b
t
Z b ) o
2
b

2
k
, siendo o
2
b
= b
t
Z b
as, las f.c. (forma cuadrtica) en matrices Wishart son
2
.
Nota: antes veamos la condicin para que una f.c. x'Ax en un vector x~N
p
fuera
2
.
Los elementos diagonales de C~W son
2
, pues tomando b
t
=(0...1...0): c
ii
= b
t
C b ~ o
ii

2
k

iv) C ~ W
p
( k , Z ) =

ij ij ij ij
ij ij
ij ij ii jj ii jj
1+ r 1+ c
1 1 1
ln ~ N( ln , ), siendo r = y =
2 1- r 2 1- k-2 c c


v) C ~ W
p
( k , Z ), o
ij
= 0 =
ij k-1 2
ij
k- 1
r ~
1- r
t
distmultiv.doc vgaribay@eio.uva.es
9

6.- Distribuciones esfricas y elpticas
http://fedc.wiwi.hu-berlin.de/xplore/tutorials/mvahtmlnode42.html
http://artax.karlin.mff.cuni.cz/~branm1am/download/Elliptical%20Distributions24.ppsx
Definicin de distribucin esfrica
Se dice que un vector aleatorio X p-dimensional es esfrico (o simtricamente esfrico) cuando
su distribucin no cambia bajo rotaciones del sistema de coordenadas., es decir, si la distribucin de
BX es la misma que la de X para toda matriz ortogonal B.
Una definicin equivalente cuando X admite funcin de densidad f
X
:
f
X
(x) depende de x slo a travs de
n
2
i
i=1
x

= x
t
x
las curvas de equidensidad de un v.a. esfrico, son esferas de R
p
centradas en O.
Ejemplos de distribuciones esfricas:
i)
( ) ( )
t p
X 2
p
p
2
1 1
f (x)= exp - x x para x R
2
2
| |
e
|
\ .
, o sea X ~ N
p
( 0, o
2
I
p
)
ii) f
X
(x
1
, x
2
)=
2
t
[1- (x
1
2
+ x
2
2
)] para x
1
2
+ x
2
2
< 1 en R
2
iii) f
X
(x)= C para x
t
x < 1 , o sea X ~U(E
1
) siendo E
1
la esfera unidad de R
p
iv) f
X
(x
1
, x
2
)=
1
2t
exp[- (x
1
2
+ x
2
2
)
1/2
] en todo R
2

v) Distribucin de Cauchy bidimensional: f
X
(x)=
1
2t
exp[1+ (x
t
x)
-3/2
] en todo R
2

vi) Normal contaminada:
Sea Z una v.a. discreta que toma dos valores z
1
y z
2
con probabilidades p
1
y p
2
respectivamente.
Sea X un vector aleatorio k-dimensional cuyas leyes condicionadas por Z=z
i
son N(0, o
i
2
I
k
).
Entonces f
X
(x)= p
1
f
X/Z=z1
(x)+ p
2
f
X/Z=z2
(x); se dice que X sigue distribucin Normal contaminada.

Propiedades
i) Si X tiene distribucin esfrica bidimensional y p(X=0)=0, entonces T=X
1
/X
2
~ Cauchy
ii) Si X tiene distribucin esfrica p-dimensional y p(X=0)=0, entonces
T=
1
2 2
2 p
Z
Z +...+Z
p-1
~ t
p-1
Definicin de distribucin elptica
Sea Z un vector aleatorio p-dimensional con distribucin esfrica, meR
p
y AeM
pxp
constantes.
El vector transformado X=AZ+m se dice que tiene distribucin elptica
Propiedades
i) EX= m; Cov(X)= cAA
t
.
ii) f
X
(x)= f
Z
(A
-1
(x-m)) |det(A
-1
)|, aplicando teorema del Jacobiano de cambio de variable.
iii) Las curvas de equidensidad sos elipsoides centrados en m: x / (x-m)
t
M
-1
(x-m)= c
te

Ejemplos de distribuciones elpticas:
i) N
p
(, Z)
ii) f
X
(x)= p det(V)
-1/2
en (x-m)
t
V
-1
(x-m) < 1;
por ejemplo, X= m+AZ, con Z uniforme en la esfera unidad y V=AA
t
.
distmultiv.doc vgaribay@eio.uva.es
10

2
7.-
o papel que la distribucin t en el muestreo de la N
1
, que
2
sconocida.
Def
2
Se dice que X ~ T
2
p, k
cuando
Distribucin T de Hotelling
Es una distribucin univariante. La distribucin T
2
de Hotelling es simplemente una F
multiplicada por una constante. Aparece en el muestreo de la N
p
y permite construir contrastes sobre
la media desconociendo Z. Juega el mism
permite contrastar con o de
inicin de distribucin T
k- p+1
k p
X ~ F
p, k-p+1

Simblicamente: T
2
p, k

k p
k- p+1
F
p, k-p+1

Anlogamente, se define la T
2
descentrada a partir de la F descentrada:
X ~ T
2
p, k
(o) cuando
k- p+1
k p
X ~ F
p, k-p+1
(o); T
2
p, k
(o)
k p
k- p+1
F
p, k-p+1
(o)
Res
W ~ dependientes

t -1 2 t 1
Simblicamente: k N
p
(0, Z)
t
[W
p
(k, Z)]
-1
N
p
(0, Z) T
2
p, k
(... que no depende de Z !!!) [1]
Es la versin multivariante de la ya conocida relacin: t
k

ultado importante

W
p
(k, Z) , x ~ N
p
(, Z), in =
i) k (x- )
t
W
-1
(x- ) ~ T
2
p, k
(versin centrada)
ii) k x W x ~ T
p, k
(o) con o = Z (versin descentrada)

2
k
/ k
N(0,1)
con N y
2
independientes,
ilar a la multivariante [1]:
k
-1
o a la media muestral (~N
p
) y la matriz de
cov
os tr n de formas cuadrticas:

2 t
2) b
t
W b ~ W
1
( k , b
t
Z b ) o
2
b

2
k
, siendo o
2
b
= b
t
Z b
3) k x
t
W
-1
x ~ T
2
p, k
(o)
cuyos cuadrados dan una versin equivalente de aspecto sim
N(0,1) (
k
) N(0,1) F
1, k

Aplicaremos ms adelante este importante resultad
2
arianzas empricas (~W
p
) en el muestreo de la N
p
.
Con ste, completam es resultados importantes sobre distribuci
1) x
t
A x ~
rg(A)
( A ) . A

Z es idempotente

k p
k- p+1
F
p, k-p+1
(o) con o =
t
Z
1

ta Multivariante
8.1 Beta univariante
Sean H ~ o
2

2
mH
y E ~ o
2

2
mE
independientes; sean T=


8.- Distribucin Be
H
E
y V=
H T
E+H 1+T
= .
Se dice que:
V tiene una distribucin Beta invertida de tipo I con
H
m
2
y
E
m
2
g. de l. :
H E
m m
,
2 2
V ~
distmultiv.doc vgaribay@eio.uva.es
11
T tiene una distribucin Beta invertida de tipo II con
H
m
2
y
E
m
2
g.de l.;
H
E
m ,
H
m
T ~ F
m
E
m

Las funciones de densidad de T y V son:

H
E H
m
-1
2
T m +m
H E
2
1 t
f (t)= ; 0 t
m m
( , )
(1+t)
2 2
s < donde
(a) (b)
(a,b) =
(a+b)


H E
m m
-1 -1
2 2
V
H E
1
f (v)= v (1-v) ; 0 v 1
m m
( , )
2 2
s s

8.2 Beta multivariante
Sean H ~ W
p
(m
H
, Z) y E ~ W
p
(m
E
, Z) independientes;
La generalizacin multivariante natural de 8.1 llevara a definir las matrices aleatorias
T= H E
-1
y V= H (E+H)
-1

estudiando la distribucin de sus autovalores i, determinante y traza (producto y suma de los i).
En su lugar se utilizan estas otras dos matrices T y V
T= E
-1/2
H E
-1/2
(Beta II o invertida multivariante)
V= (E+H)
-1/2
H (E+H)
-1/2
(Beta I multivariante)
que siempre son simtricas y por tanto diagonalizables,
tienen los mismos autovalores [pues ABu= iu = BA(Bu)= i(Bu)]
y por tanto los mismos determinantes (Hi
i
) y trazas (Zi
i
)
Los resultados ms interesantes sobre distribuciones de estas matrices, sus valores propios
(mximo, mnimo, determinante, traza...) son stos:
1) A de Wilks U-distribucin: U= | I- V | =
|E|
|E+H|
~ U
p, mH, mE

Aparece como TRV para los contrastes de linealidad en el Modelo Lineal Multivariante.
Se conocen aproximaciones asintticas F y
2
.
2) Traza de Pillay: V
(s)
= traza (V) = tr [ H(E+H)
-1
], con s= min(p, m
H
)
Se conoce su distribucin exacta, aproximaciones y ley asinttica
2
p.mH
.
3) Traza de Lawley-Hotelling: T
2
g
= m
E
traza( T ) = m
E
tr [ HE
-1
]
Su distribucin asinttica es
2
p.mH
.
4) Mayor raz de Roy: max
i
( i
i
) , siendo i1 ... i
p
los autovalores de T (T= HE
-1
).
En la prctica, estos cuatro estadsticos suelen transformarse en estadsticos F y se utilizan para
contrastar una misma hiptesis multivariante, por ejemplo, hiptesisis de no efecto en modelos
lineales multivariantes. En unos casos, el F estadstico es exacto y en otros casos es una
aproximacin. En muchos problemas los cuatro estadsticos dan lugar al mismo valor F y a los
mismos p-valores, pero no siempre. La mayor raz de Roy es una cota superior para los cuatro y da
una cota inferior para el p-valor; por eso suele ignorarse cuando es el nico significativo de los
cuatro.

distmultiv.doc vgaribay@eio.uva.es
12
9.- Apndice: Transformaciones de vectores aleatorios
9.1 Distribuciones discretas (ya visto en Primer Curso)
9.2 Distribuciones continuas (Teorema del Jacobiano, de cambio de variable)

* Transformacin T y su inversa S:











1 1 1 k 1 1 1 k
k k 1 k k k 1 k
x S (y , , y ) y T (x , , x )
transf. inversa transf. directa

S T
x S (y , , y ) y T (x , , x )
= . = .

` `
)

= . = .
)





1 k 1 k
1
1 k 1 k
de la transf. de la transf. x x y y
J J
inversa, S directa, T y y x x
c . c .
= =
`
c . c .
)

* Det. Jacobiano: Nota: J
1
= 1 / J



* Teorema del Jacobiano:
}
A
dx f(x)
=
}

T(A) 1
dy | J | (S(y)) f
(f:
k
integrable; Ae
k
)



* Aplicacin del Teorema para funciones de densidad:

Aplicando el teorema del jacobiano a la integral de una densidad f
X
, aparece un resultado general de gran
utilidad prctica. Obtenemos la densidad f
Y
de un vector Y que es funcin T de otro vector X, a partir de la densidad f
X


Enunciado: Sea X un vector aleatorio continuo con densidad f
X
.

Sea Y= T (X), donde T es un difeomorfismo; sea S su transformacin inversa.

Entonces Y es continua y


f
Y
(y) = f
X
(S(y)) | J
1
|


Demostracin: Be
k

p
Y
(B) =
}
por ser f
Y
la densidad de Y ;
B Y
dy (y) f
p
Y
(B) = p
X
(S(B)) , por ser S(B) la contraimagen de B por T,
y p
X
(S(B)) = = (aplicando el Th. del Jacobiano) = ,
X
S(B)
f (x) dx
} X 1
B
f (S(y)) | J | dy
}
luego
}
= Be
k

B Y
dy (y) f
X 1
B
f (S(y)) | J | dy
}
y por tanto, f
Y
(y) = f
X
(S(y)) | J
1
| c.s. c.q.d.

* Conclusin:

Tenemos un procedimiento para calcular directamente la densidad de una nueva v.a. Y=T(X) a partir de la de X:



) y (y f
densidad nueva
k 1 Y

. =


inversa transf.
la de Jacobiano
del mdulo
y
S
J
1
) y (y S x
...
) y (y S x
: y las de funcin como
x las con densidad vieja
k 1 X
1
k 1 k k
k 1 1 1
i
J ) x , , (x f
c
c
=
. =
. =
.






distmultiv.doc vgaribay@eio.uva.es
13

* Un resultado ms general:

Sea X un vector aleatorio continuo k-dimensional con densidad f
X
.
Sea Y= T(X), donde T:
k

k
NO es un difeomorfismo porque no es una aplicacin 1-1 de S
X
a S
Y
.
pero S
X
se descompone en r regiones A
1
A
r

cada punto imagen y tiene hasta r antecedentes, x
1
e A
1
, , x
r
e A
r

y en cada regin A
i
, T: A
i

k
S es un difeomorfismo, con inversa S
i
.
Ejemplo:
Sea T(x,y)= ( |x|, |y|)
T no es difeomorfismo, pues no es 1-1:
u > 0, v > 0 T
-1
(u,v) = { (u,v), (-u,v), (u,-v), (-u,-v) }
Pero en cada cuadrante C
i
de
2
la aplicacin T S que es 1-1 y difeomorfismo.


En C
1
T(x,y)= (x,y); transf. inversa: S
1
(u,v)= (u,v) con jacobiano J
1
1
En C
2
T(x,y)= (-x,y); : S
2
(u,v)= (-u,v) J
1
2

En C
3
T(x,y)= (-x,-y); : S
3
(u,v)= (-u,-v) J
1
3

En C
4
T(x,y)= (x,-y); : S
4
(u,v)= (u,-v) J
1
4
















La contraimagen por T de cualquier Borel B ser entonces la unin de r conjuntos disjuntos B
i
S
i
(B):
T
-1
(B) = B
1
+ + B
r
.




As:


p
Y
(B) = p
X
(B
1
+ + B
r
) = p
X
(B
i
) =
(1)

r
=1 i =1 i =1 i
r
}
B
dy (y) f Y
i
}

B
dy (y) f Y
i
r
i
i
i
i i i
i
X i X X i 1
B B
i, T:A T(A ) es difeomorfismo, con inversa S y Jacobiano J ;
(1)
p (B ) f (x) dx (T. Jacobiano) f (S (y)) J dy

= = =

} }


Y
1
f (y)





Por tanto la densidad de Y es:


f
Y
(y) = f
i
Y
(y) con f
i
Y
(y) = f
X
(S
i
(y)) | J
1
i
| i=1r

r


= i 1

Nota: A veces todas las f
i
Y
(y) coinciden y eso agiliza mucho los clculos, pues en ese caso:

f
Y
(y) = r f
1
Y
(y) = r f
X
(S
1
(y)) | J
1
1
|

Potrebbero piacerti anche