Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
DISTRIBUCIONES DE PROBABILIDAD
Oscar Alexander Manrique Salas
Jaime Yesith Valencia Galvan
ABSTRACT
In research data measurements are made, many times, measured data are random variables. To
save costs and time, working with the entire population, instead, is take random samples that are
representative of the population (for these samples are representative should be random).
Researchers and others interested in the analysis the outcome of the data, whether they are
concerned with data taken in the sample can inductions on people, and for that need to know if
the data distribution follows a distribution is already known, as this would facilitate the work in
large way, as being so, they may extrapolate from the sample to the population
0. INTRODUCCIÓN
El presente artículo nace como requisito dentro del proceso de aprendizaje para estudiantes de
Maestría en Ingeniería Industrial de la Universidad Industrial de Santander en Bucaramanga
(Colombia). Los parámetros para el mismo establecieron que debe abordarse los temas sobre
distribuciones multivariantes e inferencia a partir de datos de este tipo, localizados en los
capítulos 9 y 10 de Peña (2002).
1. MARCO TEÓRICO
1.2.1. Definición. Tal como existe una función de probabilidad para variables unidimensionales,
igualmente se puede definir una distribución de probabilidad conjunta para variables aleatorias n-
dimensionales, tal como , donde su función de probabilidad se establece por:
, es decir la probabilidad de que cada uno de los
componentes del vector aleatorio tome cierto valor máximo.
También existe la función de probabilidad para las variables discretas. La función de probabilidad
de una variable discreta es la función
f ( x)dx ...... f ( x1 ,......, x p )d x1 ....dx p 1
b)
1.2.2. Distribución marginal. Si se desea conocer la probabilidad de que uno de los componentes
del vector aleatorio tome cierto valor sin considerar la condición que tomen los demás, se estará
hablando una probabilidad marginal, por lo cual se desaria tener disponible la función de densidad
de probabilidad para esta componente (o variable unidimensional), la cual puede obtenerse a
partir de:
f ( xi ) ...... f ( x1 ,......, x p )d x1 ..dxi 1dxi 1 ..dx p
Como se observa cada representa la función de densidad de cada variable sin tomar en
cuenta las demás variables
1.2.4. Independencia. Para dos vectores de variables aleatorias y se dice que son vectores
independientes si el conocimiento de uno de ellos no aporta información respecto a los valores del
otro, es decir, que la distribución condicionada es idéntica a la marginal, matemáticamente:
O sea que dos vectores de variables aleatorias son independientes si su probabilidad conjunta es
el producto de las probabilidades individuales, dicho de otra forma, si su distribución conjunta es
el producto de las distribuciones marginales. Generalizando para m variables, se dice que son
variables aleatorias independientes si se cumple que:
1.3.2 Esperanza de una función. Si disponemos de una función escalar y g (x) de un vector de
variables aleatorias, es valor medio de esta función esta dado por:
( x ,......, x p )' Rp
1.3.3. La matriz de varianzas y covarianzas. Un vector aleatorio x = 1 , de , con
' ( ,......, )
1 p V E[( x )( x )' ]
vector de medias al ser aplicado x , establece una matríz
conocida como la matriz de varianzas y covarianzas. En su diagonal se encontraran las varianzas de
2
los componentes, i , y fuera de ella las covarianzas entre los pares de variables, ij , la matriz de
covarianzas es simétrica y semidefinida positiva, es decir que para cualquier vector, w , se cumple:
w'Vx w 0
tr(Vx ) / p
Se define la varianza media como el promedio de las variaciones dado por , la
1/ p
Vx VE Vx
varianza generalizada es y la varianza efectiva .
Rp
1.3.4. Transformaciones de vectores aleatorios. Sea x un vector de con función de densidad
fx x
, y sea otro vector aleatorio definido mediante la transformación uno a uno:
y1 g1 ( x1 ,......, x p )
y p g p ( x1 ,......, x p )
Vx V y
vectores de medias y , a las matrices de covarianzas, se verifica la relación:
y A x
Además
Vy AVx A' .
1.4. DEPENDENCIA ENTRE VARIABLES ALEATORIAS
La distribución de dirichlet es útil para representar datos que son proporciones, para ello usamos
variables que toman valores en el intervalo [0,1], supongamos que tenemos un vector de variables
continuas
x ( x1 ,..., xG )' , donde cada x j representa una proporción asignada a cada variable de
0 xj 1
tal forma que y
G
x
j 1
j 1
La función de densidad de probabilidad de una distribución de dirichlet es:
( 0 )
f ( x1 ,..., xG ) x11 1...xG G 1
(1 )( 2 )...( G )
Donde (.) es la función gamma y
(1 ,..., G )' es el vector de parámetros que caracteriza la
distribución, y
G
0 '1 j
j 1
La esperanza de una distribución de dirichlet está dada por:
E ( x) x
0
j
Los parámetros indican la esperanza relativa de cada componente y
1 1 1
Var ( x) ( diag ( ) 2 ' )
( 0 1) 0 0
Lo que indica que la varianza de cada componente es:
j ( 0 j )
var( x j )
02 ( 0 1)
El parámetro 0 determina la varianza de los componentes, que decrecen rápidamente con 0 ,
las variables de tipo dirichlet están ligadas por una ecuación de restricción, con lo que no son
linealmente independientes y su matriz de covarianzas es singular. Las covarianzas entre dos
componentes está dada por:
j i
cov( xi , x j )
02 ( 0 1)
Donde la covarianzas también disminuyen con
0 , pero aumentan al aumentar las esperanzas de
las variables.
Un vector x tiene una distribución normal p-dimensional si su función de densidad es del tipo:
1 2 p 2
f ( x) V 2 exp[(1 / 2)( x )'V 1 ( x )]
Propiedades:
a) La distribución es simétrica alrededor de .
b) La distribución tiene un único máximo en .
c) La media del vector aleatorio normal es y su matriz de varianzas y covarianzas es V .
d) Si p variables tienen distribución conjunta normal y están incorreladas son independientes.
e) Cualquier vector x p-dimensional con matriz V no singular puede convertirse mediante una
transformación lineal en un vector z normal p-dimensional con vector de medias 0 (cero) y matriz
de varianzas y covarianzas igual a la identidad ( I ). Se define normal p-dimensional estándar a la
densidad de z que viene dada por:
1 1
p 2 exp[ (1 / 2) z ' z ]
p
f ( z) p 2 exp [ (1 / 2) z i ]
2
(2 ) i 1
(2 )
f) Las distribuciones marginales son normales.
g) Cualquier subconjunto de h p variables es h-dimensional.
h) Si y es (k 1) , k p , el vector y Ax , donde A es una matriz de ( k p ) , es normal k-
dimensional.
i) Al cortar con hiperplanos paralelos al definido por las p variables que forman la variable
vectorial , x , se obtienen las curvas de nivel
( x )'V 1 ( x ) Constante
Las curvas de nivel son elipsoide y definen una medida de la distancia de un punto al centro de la
distribución, esta medida se llama distancia de Mahalanobis y se representa por:
D 2 ( x )'V 1 ( x )
j) La distancia de Mahalanobis se distribuye como una con p grados de libertad.
2
1.8. DISTRIBUCIONES ELIPTICAS
x ( x ,...x )'
i p
Una variable vectorial sigue una distribución esférica si su función de densidad
depende de la variable solo por la distancia euclídea:
p
xx' xi2
i 1
Lo cual implica que los contornos de equiprobabilidad de la distribución son esferas de centro en
el origen y que la distribución es invariante ante rotaciones. La función de densidad normal
estándar multivariante,
1 1
exp[ (1 / 2) x' x] i1
p
f ( x) exp[(1 / 2) xi2 ]
(2 ) (2 )
p 2 p 2
simétrica y definida positiva, este conjunto de vectores sigue una distribución de Wishart con m
1
p( p 1)
grados de libertad. La distribución conjunta de los 2 elementos distintos de W es:
( m p 1) / 2 1
f ( w11 ,..., w pp ) c W exp[ tr (W )]
2
W (m)
donde c es una constante. Se dice que W se distribuye p , donde p indica que se trata de la
distribución de los elementos de una matriz cuadrada y simétrica de orden p , y m son los grados
( x ,..., x ) N (0, )
de libertad. Supongamos m vectores aleatorios 1 m de una distribución p
en
donde representa la matriz de covarianzas, la distribución de los elementos de la matriz
m
W xi xi '
i 1
Es la distribución Wishart con m grados de libertad y matriz de parámetros , dada por
( m p 1) / 2 1
f ( w11 ,..., w pp ) c m / 2 W exp[ tr 1W ]
2
Las siguientes propiedades se evidencian en la distribución de Wishart:
1.10. LA T2 DE HOTELLING
N ( ,V )
, la variable ( x )'V ( x ) es una con p grados
1 2
Si x es un vector aleatorio p
p2
de mahalanobis y la distribución de Hotelling a una distribución , para n grande la
p2
distribución de Hotellinmg es muy similar a una , para tamaños más pequeños tiene una
p2
mayor variabilidad que la .
1
_ _ N p ( , V )
Si x es la media muestral, como x se distribuye n , la distribución:
_ 1 _
S 1 _ _
( x )' ( ) ( x ) n( x )' S ( x )
n
es una T , si p 1 , la T se reduce a:
2 2
_
n ( x )2
T2 t2
2
S
T 2 (1, m) t 2
que es el estadístico t de student , se puede afirmar que m . La distribución de
El método de máxima verosimilitud escoge como estimador de los parámetros el valor que haga
máxima la probabilidad de que el modelo a estimar genere la muestra observada. Supongamos
una muestra aleatoria simple de n elementos de una variable aleatoria p-dimensional, x , con
f ( x )
función de densidad ,donde (1 ,...,r )' es un vector de parámetros que tienen
dimensión r pn . Llamando
X ( x1 ,..., xn ) , a los datos de la muestra, la función de densidad
conjunta de la muestra es:
f ( x ) i 1 f ( xi )
n
2
La función de soporte, despreciando las constantes es:
n 1 n
L( , V X ) log V ( x )'V 1 ( x )
2 2 i 1
Esta función es posible transformarla a la siguiente expresión:
n n n
L( ,V X ) log V trV 1S ( x )'V 1 ( x )
2 2 2
Esta función solo depende de la muestra a través de los valores x y S , estimadores suficientes de
y V . Para obtener el estimador del vector medias de la población asumimos que
aquel que hace este término lo menor posible, y se hace cero si tomamos x , esto permite
concluir que x es el estimador de máxima verosimilitud de . Se puede demostrar que el
Muchas veces se desea comprobar si una muestra proviene de una distribución con parámetros
conocidos, para ello es conveniente realizar un contraste de hipótesis con el objetivo de rechazar o
no la hipótesis planteada mediante los datos observados. La teoría de contraste de verosimilitudes
proporciona pruebas estadísticas que tienen ciertas propiedades óptimas para tamaños de
muestras grandes. Dado un parámetro vectorial, , p-dimensional, que toma valores en , que es
p
un subconjunto de R , supongamos que se desea contrastar la hipótesis:
H 0 0
frente a una hipótesis alternativa:
H1 0
El método de razón de verosimilitudes toma el valor que hace más probable obtener la muestra
observada y que es compatible con la hipótesis. Bajo la hipótesis
H 0 para encontrar la máxima
parámetros
0 , se calcula la probabilidad de los datos supuesto 0 . Si 0 permite muchos
valores, se elige el valor del parámetro que haga máxima la probabilidad de obtener la muestra. La
probabilidad de la muestra observada es proporcional a la distribución conjunta de las
observaciones, esto hace que si sustituimos en esta función los datos disponibles obtenemos la
función de verosimilitud, el máximo de esta función en
0 proporciona el máximo valor de la
f (H 0 )
verosimilitud compatible con la hipótesis. Para obtener la máxima probabilidad bajo la
hipótesis alternativa se calcula el máximo f ( H1 ) de la función sobre el conjunto
0 .
Comparando
f ( H 0 ) y f ( H1 ) mediante la razón de verosimilitudes
f (H 0 )
RV ,
f ( H1 )
rechazamos
H0 , cuando RV sea suficientemente pequeño, la región de rechazo de
H 0 , está
definida por RV a , donde a es el nivel de significancia de la prueba. Para conocer el valor de
a es necesario conocer el tipo de distribución de RV cuando es cierta H 0 . Cuando el tamaño
muestral es grande, el doble de la diferencia de soportes entre la hipótesis alternativa y la nula,
H0
cuando es cierta se define mediante:
2 ln RV 2[ L( H1 ) L( H 0 )]
donde
L( H i ) log f ( H i ) , con i 0,1 ,se distribuye como una 2 con grados de libertad igual a
la diferencia de dimensión entre los espacios y 0 .Se rechaza
H 0 cuando el soporte de los
H
datos para H1 es significativamente mayor que para 0 .
( x1 ,..., xn ) de N p ( ,V )
Supongamos una muestra una población , vamos a contrastar la
hipótesis
H o : o , V cualquiera
con la hipótesis
H 1 : o ,V cualquiera
construyendo un contraste de razón de verosimilitudes, calculando el máximo de la función en
H o y H1 . Ya sabemos que para una población normal x y S son estimadores verosímiles,
reemplazando en la función de soporte, se tiene:
n np
L( H1 ) log S
2 2
H
En o el estimador de es o , con algunas operaciones se puede escribir la función de soporte
de la siguiente manera:
n n
L(V X ) log S trV 1S 0
2 2
1 n
S0 ( xi o )( xi o )'
n i 1 S
donde . Se puede demostrar que 0 es el estimador máximo
Ho S0 Ho
verosímil de V bajo , sustituyendo V por en la 13unción de soporte para se tiene:
n np
L( H o ) log S 0
2 2
S0
2( L( H1 ) L( H 0 )) n log
S H0
La diferencia de soportes es , permitiendo rechazar , cuando
el soporte para H1 sea significativamente mayor que para 0 . La distribución de es una , con
2
H
grados de libertad igual a la diferencia de las dimensiones del espacio en que se mueven los
H0
parámetros de las dos hipótesis. La dimensión del espacio para es
p p( p 1) / 2 p( p 1) / 2 , el numero de términos diferentes en V , y la dimensión del espacio
S0 T2
1
S n 1 T 2 (n 1)(( x o )' S 1 ( x o )) , tiene una
Se tiene que , donde el estadístico
distribución T 2 de Hotelling con p y n 1 grados de libertad. Es posible usar la relación entre el
estadístico T2 y la distribución F,
para calcular los percentiles de T2. Rechazaremos
H 0 cuando T 2
T2
n log(1 )
sea suficientemente grande, utilizando n 1 .
diferencia de las dimensiones del espacio en que se mueven los parámetros de las dos hipótesis.
p ( p 1) / 2 , el numero de términos diferentes en V , Esta prueba sirve para contrastar si V0 I ,
n
n log S trS np
con lo cual el estadístico se reduce a 2 .
de libertad p( p 1) / 2 p p( p 1) / 2 .
1.15.3. Contraste de esfericidad. Si suponemos que todas las variables tienen la misma varianza y
están incorreladas, se puede plantear un contraste de esfericidad. Supongamos las hipótesis:
Ho :V 2I cualquiera
Contra
H1 : y V cualquiera
n
aproximaciones anteriores mejoran si se sustituye en los estadísticos anteriores n por c donde
nc
es menor que n y depende de p y del contraste. Estas correciones son significativa cuando el
tamaño de la muestra es pequeño, es grande y el estadístico obtenido esta cercano al valor critico,
pero pierden importancia cuando p / n es pequeño y el estadístico resultante es concluyente en
cualquiera de las direcciones.
2. SIMULACIÓN EXPERIMENTAL
2.1.1. El Caso Discreto. Una empresa desarrolla 2 tipos de productos: pantalones y camisas, hay 2
tipos de pantalones (a 100 y a 250 pesos) y 3 tipos de camisas (a 50, a 100 y a 200 pesos),
supongamos que se tiene un cliente que ha comprado un pantalón y una camisa, sea X=valor del
pantalón, y Y=valor de la camisa, las posibles parejas son:
(100,50),(100,100),(100,200);(250,50),(250,100),(250,200), cualquier otro par tiene probabilidad
cero, a continuación se muestra la tabla de probabilidad conjunta:
Tabla 1. Distribución de probabilidad para las variables X= precios de pantalones, y Y= precios de camisa
p(X,Y) Y
50 100 200
X 100 0.2 0.1 0.2
250 0.05 0.15 0.3
Fuente: [2]
Así que p(100,100) = P(X=100 y Y=100)= 0.1 y, P(Y≥100) = P(100,100) + P(100,200) + P(250,100) +
P(250,200) = 0.75
Los posibles valores de X son: X1=100 y X2=250, si se calculan los totales en las filas de la tabla de
probabilidad conjunta se tiene:
px(100) = p(100,50) + p(100,100) + p(100,200) = 0.5
px(250) = p(250,50) + p(250,100) + p(250,100) = 0.5
Así que la función de masa de probabilidad marginal de X es:
px(x) = 0.5 si x = 100,250; 0 de lo contrario
De la misma manera la función de probabilidad marginal de Y se obtiene sumando las columnas:
py(y) = 0.25 si y = 50,100; 0.5 si y = 200; 0 de lo contrario
Y así que P(Y≥100) = py(100) + py(200) = 0.75 igual que antes
2.1.2. El Caso Continuo. Un banco dispone de una ventanilla para automovilistas y una ventanilla
para el otro tipo de público, un día al azar, sea X= la cantidad de tiempo en que la ventanilla para
automovilistas está en uso (por lo menos un cliente está siendo atendido o esperando ser
atendido) y Y=la cantidad de tiempo que la ventanilla normal está en uso. Así que el conjunto de
los posibles valores de (X,Y) es el rectángulo D= { (x,y): 0≤x≤1, 0≤y≤1} suponga que la función de
densidad de probabilidad conjunta de (X,Y) está dada por:
Para verificar que la anterior es una función de densidad de probabilidad se deja a interés del
lector demostrar que:
La probabilidad de que ninguna ventanilla esté ocupada más de un cuarto del tiempo es:
2.2. PROPIEDADES DE LAS VARIABLES ALEATORIAS
-2 1 4
3 0 -1
5 1 2
-1 3 6
2 -7 4
-1 0 -1
VarX=cov(X)
B: Para estandarizar los datos de la forma indicada, utiliza el vector de medias calculado en el
numeral anterior: a cada Xij se le resta la media de la variable Xj y se divide por la desviación Sj
como se muestra a continuación:
% calculo desviacion estandar
DesvX=std(X);
% tamano de X
[filas columnas]=size(X);
% matriz identidad
I=ones(filas,1);
% Estandarizo los datos
EstandarX=(X-I*MediasX)./repmat(DesvX,filas,1)
La función B=repmat(A,M,N) crea una matriz B que es la copia de A de tamaño MxN. M es el
número de veces que se van a copiar las filas de A, y N es el número de veces que se van a copiar
las columnas de A, como se muestra en el siguiente ejemplo:
A =
2 3
2 3
5 4
repmat(A,1,1)
ans =
2 3
2 3
5 4
repmat(A,2,1)
ans =
2 3
2 3
5 4
2 3
2 3
5 4
repmat(A,1,2)
ans =
2 3 2 3
2 3 2 3
5 4 5 4
C: Para poder calcular la nueva matriz Y que se forma al realizar algunas operaciones sobre las
variables X1, X2 y X3, se necesita manipular todos los datos de cada variable (X1, X2 y X3), es decir,
se necesita acceder a todos los elementos de cada columna de la matriz X, para ello se usa la
siguiente notación: X(:,2) esto retorna la columna 2 de la matriz X, y X(3,:) retorna la fila 2 de la
matriz X. Para armar la matriz de datos Y, se introducen los vectores Y1 y Y2 en una matriz Y, luego
de esto, se calcula el correspondiente vector de medias:
% creo las nuevas variables Y1 y Y2
Y1=-X(:,1)+2*X(:,2)-X(:,3);
Y2=X(:,1)+X(:,2);
% Armo la matriz Y
Y=[Y1 Y2]
% vector de medias de Y
MediasY=mean(Y)
% Armo la matriz Z
Z=[Z1 Z2]
% matriz de varianza-covarianza
VarZ=cov(Z)
MediasX =
VarX =
EstandarX =
Y =
0 -1
-2 3
-5 6
1 2
-20 -5
2 -1
MediasY =
-4.0000 0.6667
Z1 =
0
-0.8165
-2.0412
0.4082
-8.1650
0.8165
Z2 =
0
-1.4142
-3.5355
0.7071
-14.1421
1.4142
Z =
0 0
-0.8165 -1.4142
-2.0412 -3.5355
0.4082 0.7071
-8.1650 -14.1421
0.8165 1.4142
VarZ =
11.2667 19.5144
19.5144 33.8000
CorrXYZ =
El siguiente ejemplo ilustra cómo utilizar la fórmula Multinomial para calcular la probabilidad de
un resultado de un experimento Multinomial.
Supongamos que una carta es extraída al azar de una baraja de naipes, y luego se ponerse de
nuevo en el fajo. Este ejercicio se repite cinco veces. ¿Cuál es la probabilidad de sacar 1 trébol, 1
corazón, 1 diamante, y 2 picas?
Solución: Para resolver este problema, se aplica la fórmula multinomial. Sabemos lo siguiente:
El experimento consta de 5 pruebas, por lo que n = 5.
Los 5 ensayos producir 1 trébol, 1 corazón, diamante de 1 y 2 picas; 1 para n = 1, n 2 = 1, n 3 = 1, y
n 4 = 2.
En cualquier juicio en particular, la probabilidad de sacar una pala, el corazón, diamante, o club es
de 0,25, 0,25, 0,25 y 0,25, respectivamente. Por lo tanto, p 1 = 0,25, p 2 = 0.25, p 3 = 0,25 y P 4 =
0.25.
Reemplazando en la fórmula Multinomial:
= P [n! / (N 1! * N 2! ... N k!)] * (1 p n 1 * p 2 n 2 *... * K k p n)
multiplicacion=1;
[fila columna]=size(f_ocurrencias);
for i=1:columna
multiplicacion=multiplicacion*f_ocurrencias(i);
end
temporal=prob.^ocurrencias;
multiplicacion2=1;
[fila columna]=size(temporal);
for i=1:columna
multiplicacion2=multiplicacion2*temporal(i);
end
Se tiene que:
Así, si sacamos cinco cartas y en cada ensayo se introduce la carta a la baraja (asegurando la
independencia del experimento), la probabilidad de sacar 1 trébol, 1 corazón, 1 diamante, y 2
picas es 0,0586
La tabla presentada, contiene las medidas de 5 variables biométricas sobre gorriones hembra,
recogidos casi moribundos después de una tormenta. Los primeros 21 sobrevivieron mientras que
los 28 restantes no lo consiguieron. Las variables son X1 = Longitud total, X2= extensión del ala, X3
= longitud del pico de la cabeza, X4= longitud del húmero, y X5 = longitud del esternón. Realícense
comparaciones de medias y de covarianzas entre el grupo de supervivientes y el de no
supervivientes.
Fuente: [4]
Llamamos X e Y a las matrices de datos del grupo de supervivientes y del de no supervivientes,
respectivamente. Mediante Matlab calculamos los vectores de medias y las matrices de
covarianzas de cada grupo
y obtenemos:
En matlab:
T2 = nx*ny/n*(mx-my)*inv(S)*(mx-my)’;
F= (nx+ny-p-1)/((nx+ny)*p)*T2
Percentil = finv(0.95, p, nx+ny-1)
P_valor= 1- fcdf(F, p, nx+ny-p-1)
Con un valor de T2= 0,923 y F = 2,3454, quedando en la zona de rechazo, por lo tanto no se puede
argüir con seguridad que las matrices de covarianzas sean iguales entre las dos poblaciones.
CONCLUSIONES
1) Muchos de los problemas que se presentan en la vida real implican más de una variable
aleatoria, de ahí la importancia en el conocimiento y manejo de las VAND
2) Los buenos estimadores son consistentes y eficientes cuando se les compara con otros
estimadores. Los más eficientes (los que poseen la varianza más pequeña) son funciones de los
estadísticos suficientes que mejor resumen la información respecto al parámetro de estudio
3) La técnica denominada método de máxima verosimilitud es un instrumento útil para encontrar
estimadores ya que éstos son consistentes y se les ajusta para que sean insesgados, y a menudo
proporcionan estimadores in sesgados de varianza mínima
BIBLIOGRAFIA
[2] MEYER Paul L. (1973) Probabilidad y aplicaciones estadísticas. Versión en español por Calos
Prado Campos de libro Introductory probability and statistical applications. Fondo Educativo
Interamericano S. A.
[3] MARTIN F. Susana y otros (2001). Guía completa de Statgraphics, desde MS-Dos a Statgraphics
Plus. Editorial Diaz De Santos. Madrid (España).
[4] FLURY Bernard. (1997) A first Course in Multivariate Statistics. Editorial Board. New York.
[5] BAILLO M. Amparo, y GIRANÉ Ch. Aurea. (2008) 100 problemas resueltos de Estadística
Multivariante (Implementados en Matlab). Publicaciones Delta. Madrid (España)
CURRICULO