Sei sulla pagina 1di 17

República Bolivariana de Venezuela

Universidad José Antonio Páez

Facultad de Ingeniería

Valencia Edo Carabobo

Estadística

Participante

Ronald Hernández CI 28359893

Andrés Heras CI 28258362

Valencia 07 Octubre 2019


Distribución Multinomial

La distribución multinomial es una generalización de la distribución binomial. En este caso,


en un experimento interesa estudiar no la ocurrencia de un único suceso o la de su
contrario, sino la de varios sucesos (tres o más).

La distribución multinomial, M(n,p1,...,pn) proporciona probabilidades de obtener,


en m repeticiones independientes de un experimento, x1 veces el suceso A1, x2 veces el
suceso A2,..., xn veces el suceso An, donde dichos sucesos forman una partición del
espacio muestral, es decir, tal que para y

donde , por tanto, se cumple .

Así, considerando que Xi es el número de veces que se presenta el suceso Ai en


las m repeticiones tenemos que la variable n-dimensional (X1, X2, ..., Xn) sigue
una distribución multinomial de parámetros n, p1, ..., pn y su función de probabilidad es

para con .

Hay que tener en cuenta que si (X1, X2, ..., Xn) es una variable multidimensional entonces
existe una relación lineal entre sus componentes ya que X1+ X2+ ...+ Xn = m, por lo que,
una de las variables, por ejemplo Xn, se puede poner como combinación lineal del resto,
Xn=m-X1- X2- ...- Xn-1. Por tanto, el fenómeno que describe la variable (X1, X2, ..., Xn)
queda igualmente descrito por una variable de una dimensión menor, (X1, X2, ..., Xn-1),
sin que esta pérdida de dimensión suponga una pérdida de información.

Por ejemplo, una variable multinomial de dimensión dos (X1, X2), M(n,p1,p2), se puede
describir considerando una cualquiera de sus componentes que tiene una distribución
binomial, por lo que en realidad esta variable es unidimensional y no bidimensional.

Además, cada una de las n variables, Xi, que forman una multinomial M(n,p1,...,pn) siguen
distribuciones binomiales B(m,pi), es decir, las distribuciones marginales de una
multinomial son binomiales, por tanto, la esperanza y la varianza de cada una de estas
variables es, E[Xi]=m·pi y Var(Xi)=mpi(1-pi). Además la covarianza entre dos cualesquiera

de sus componentes es, .

Estos momentos de las variables componentes de una multinomial se pueden agrupar en


forma de matriz dando lugar a las denominadas matriz de esperanzas y matriz de
varianzas-covarianzas, que recogen las características teóricas principales de la
distribución multinomial (medias, varianzas y covarianzas)

Ejemplo: El entrenador de un equipo de baloncesto opina que los jugadores A, B y C


tienen similares aptitudes para ser titulares del equipo en la posición de base. Así,
determina que jueguen el mismo número de minutos cada partido. Se sabe que el 40% de
las canastas son de C, mientras que A y B consiguen un 30% de encestes. Calcular la
probabilidad de que en un partido con 9 encestes de dos puntos, A consiguiera dos, B tres
y C cuatro.

Sea la variable tridimensional que recoge el número de encestes de A, de B y


de C, respectivamente. Dicha variable es una multinomial con n=9, p1=0.3, p2=0.3 y
p3=0.4. Así,
Distribución hipergeométrica

La distribución hipergeométrica multivariante H(N, m, p1,..., pn) es una generalización de


la distribución hipergeómetrica. Proporciona probabilidades de extraer x1 bolas del color
1, x2 bolas del color 2,...y xn bolas del color n de una urna en la que hay N1,...Nn bolas de
colores diferentes (N=N1+···+Nn). Realizamos m extracciones sin reposición ,y
consideramos las variables, Xi, número de bolas extraídas de color i (i = 1, 2, ..., n). La
variable n-dimensional (X1, X2, ..., Xn) sigue una distribución hipergeométrica

multivariante de parámetros N, m, p1, ..., pn, donde , es decir, la proporción de


bolas de color i-ésimo (i= 1, 2,..,n) en la primera extracción.

NOTA: Si las extracciones se hiciesen con reposición entonces se trataría de una


distribución multinomial.

La función de probabilidad de la distribución hipergeométrica multivariante es

para con
y (i = 1, 2,..., n).

Además, igual que en la distribución anterior, hay que tener en cuenta que existe una
relación lineal entre las variables componentes, X1+ X2+ ...+ Xn = m, por lo que, una de las
variables, por ejemplo Xn, se puede poner como combinación lineal del resto, Xn=m-X1-
X2- ...- Xn-1. Por tanto, el fenómeno que describe la variable (X1, X2, ..., Xn) queda
igualmente descrito por una variable de una dimensión menor, (X1, X2, ..., Xn-1), sin que
esta pérdida de dimensión suponga una pérdida de información.

Análogamente, una variable hipergeométrica multivariante de dimensión dos (X1,


X2), H(N,m,p1,p2), se puede describir considerando una cualquiera de sus componentes
que tiene una distribución hipergeométrica, por lo que en realidad esta variable es
unidimensional y no bidimensional.

Además, cada una de las n variables, Xi, que forman una hipergeométrica H(N,m,p1,...,pn)
siguen distribuciones hipergeométricas univariantes H(N,m,pi), es decir, las distribuciones
marginales de una hipergeométrica multivariante son hipergeométricas, por tanto, la
esperanza y la varianza de cada una de estas variables es, E[Xi]=m·pi y Var(Xi)=mpi(1-pi)(N-
m)/(N-1). Además la covarianza entre dos cualesquiera de sus componentes es,

Estos momentos de las variables componentes de una hipergeométrica multivariante se


pueden agrupar en forma de matriz dando lugar a las denominadas matriz de
esperanzas y matriz de varianzas-covarianzas, que recogen las características teóricas
principales de la distribución hipergeométrica multivariante (medias, varianzas y
covarianzas)

donde

Ejemplo: En un equipo de baloncesto con 12 jugadores, han hecho una comisión de 4


representantes. En la plantilla hay 3 pivotes, 3 base y 6 aleros. ¿Cuál es la probabilidad de
que haya 2 bases y 2 pivotes?

Tenemos una variable tridimensional que recoge el número de pivotes, bases


y aleros, respectivamente, que forman parte de la comisión. Dicha variable es una
hipergeométrica multivariante con N=12, n=4, N1=3, N2=3 y N3=6. Así,
Distribucion Normal

La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre
(1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más
profundos y formuló la ecuación de la curva; de ahí que también se la conozca, más
comúnmente, como la "campana de Gauss". La distribución de una variable normal está
completamente determinada por dos parámetros, su media y su desviación estándar,
denotadas generalmente por y . Con esta notación, la densidad de la normal viene
dada por la ecuación:
Ecuación 1:

que determina la curva en forma de campana que tan bien conocemos (Figura 2). Así, se
dice que una característica sigue una distribución normal de media y varianza ,y
se denota como , si su función de densidad viene dada por la Ecuación 1.
Al igual que ocurría con un histograma, en el que el área de cada rectángulo es
proporcional al número de datos en el rango de valores correspondiente si, tal y como se
muestra en la Figura 2, en el eje horizontal se levantan perpendiculares en dos
puntos a y b, el área bajo la curva delimitada por esas líneas indica la probabilidad de que
la variable de interés, X, tome un valor cualquiera en ese intervalo. Puesto que la curva
alcanza su mayor altura en torno a la media, mientras que sus "ramas" se extienden
asintóticamente hacia los ejes, cuando una variable siga una distribución normal, será
mucho más probable observar un dato cercano al valor medio que uno que se encuentre
muy alejado de éste.
Propiedades de la distribución normal:
La distribución normal posee ciertas propiedades importantes que conviene destacar:

i. Tiene una única moda, que coincide con su media y su mediana.

ii. La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor
entre y es teóricamente posible. El área total bajo la curva es,
por tanto, igual a 1.
iii. Es simétrica con respecto a su media . Según esto, para este tipo de
variables existe una probabilidad de un 50% de observar un dato mayor
que la media, y un 50% de observar un dato menor.
iv. La distancia entre la línea trazada en la media y el punto de inflexión de la
curva es igual a una desviación típica ( ). Cuanto mayor sea , más
aplanada será la curva de la densidad.
v. El área bajo la curva comprendido entre los valores situados
aproximadamente a dos desviaciones estándar de la media es igual a 0.95.
En concreto, existe un 95% de posibilidades de observar un valor
comprendido en el intervalo .
vi. La forma de la campana de Gauss depende de los parámetros y
(Figura 3). La media indica la posición de la campana, de modo que para
diferentes valores de la gráfica es desplazada a lo largo del eje
horizontal. Por otra parte, la desviación estándar determina el grado de
apuntamiento de la curva. Cuanto mayor sea el valor de , más se
dispersarán los datos en torno a la media y la curva será más plana. Un
valor pequeño de este parámetro indica, por tanto, una gran probabilidad
de obtener datos cercanos al valor medio de la distribución.
Como se deduce de este último apartado, no existe una única distribución normal, sino
una familia de distribuciones con una forma común, diferenciadas por los valores de su
media y su varianza. De entre todas ellas, la más utilizada es la distribución normal
estándar, que corresponde a una distribución de media 0 y varianza 1. Así, la expresión
que define su densidad se puede obtener de la Ecuación 1, resultando:

Es importante conocer que, a partir de cualquier variable X que siga una


distribución se puede obtener otra característica Z con una distribución normal
estándar, sin más que efectuar la transformación:

Esta propiedad resulta especialmente interesante en la práctica, ya que para una


distribución existen tablas publicadas (Tabla 1) a partir de las que se puede obtener
de modo sencillo la probabilidad de observar un dato menor o igual a un cierto valor z, y
que permitirán resolver preguntas de probabilidad acerca del comportamiento de
variables de las que se sabe o se asume que siguen una distribución aproximadamente
normal.
Consideremos, por ejemplo, el siguiente problema: supongamos que se sabe que el peso
de los sujetos de una determinada población sigue una distribución aproximadamente
normal, con una media de 80 Kg y una desviación estándar de 10 Kg. ¿Podremos saber
cuál es la probabilidad de que una persona, elegida al azar, tenga un peso superior a 100
Kg?
Denotando por X a la variable que representa el peso de los individuos en esa población,
ésta sigue una distribución . Si su distribución fuese la de una normal estándar
podríamos utilizar la Tabla 1 para calcular la probabilidad que nos interesa. Como éste no
es el caso, resultará entonces útil transformar esta característica según la Ecuación 2, y
obtener la variable:

Para poder utilizar dicha tabla. Así, la probabilidad que se desea calcular será:

Como el área total bajo la curva es igual a 1, se puede deducir que:

Esta última probabilidad puede ser fácilmente obtenida a partir de la Tabla 1, resultando
ser Para la segunda probabilidad, sin embargo, encontramos el
problema de que las tablas estándar no proporcionan el valor de para valores
negativos de la variable. Sin embargo, haciendo uso de la simetría de la distribución
normal, se tiene que:

Finalmente, la probabilidad buscada de que una persona elegida al azar tenga un peso
entre 60 y 100 Kg., es de 0.9772-0.0228=0.9544, es decir, aproximadamente de un 95%.
Resulta interesante comprobar que se obtendría la misma conclusión recurriendo a la
propiedad (iii) de la distribución normal.
No obstante, es fácil observar que este tipo de situaciones no corresponde a lo que
habitualmente nos encontramos en la práctica. Generalmente no se dispone de
información acerca de la distribución teórica de la población, sino que más bien el
problema se plantea a la inversa: a partir de una muestra extraída al azar de la población
que se desea estudiar, se realizan una serie de mediciones y se desea extrapolar los
resultados obtenidos a la población de origen. En un ejemplo similar al anterior,
supongamos que se dispone del peso de n=100 individuos de esa misma población,
obteniéndose una media muestral de Kg, y una desviación estándar
muestral Kg, querríamos extraer alguna conclusión acerca del valor medio real de
ese peso en la población original. La solución a este tipo de cuestiones se basa en un
resultado elemental de la teoría estadística, el llamado teorema central del límite. Dicho
axioma viene a decirnos que las medias de muestras aleatorias de cualquier variable
siguen ellas mismas una distribución normal con igual media que la de la población y
desviación estándar la de la población dividida por En nuestro caso, podremos
entonces considerar la media
muestral con lo cual, a partir de la propiedad (iii) se conoce que
aproximadamente un 95% de los posibles valores de caerían dentro del

intervalo Puesto que los valores de y son desconocidos,


podríamos pensar en aproximarlos por sus análogos muéstralas, resultando

Estaremos, por lo tanto, un 95% seguros de


que el peso medio real en la población de origen.
Estadística subyacente es mucho más compleja, en líneas generales éste es el modo de
construir un intervalo de confianza para la media de una población.
APROXIMACIÓN DE LA NORMAL A LA BINOMIAL.

En este caso se estarán calculando probabilidades de experimentos Binomiales de una


forma muy aproximada con la distribución Normal, esto puede llevarse a cabo si n y p =
p(éxito) no es muy cercana a 0 y 1, o cuando n es pequeño y p tiene un valor muy cercano
a ½ ; esto es,

Donde:

x = variable de tipo discreto; solo toma valores enteros

= np = media de la distribución Binomial

= = desviación estándar de la distribución Binomial

Cuando ocurren las condiciones anteriores, la gráfica de la distribución Binomial, es muy


parecida a la distribución Normal, por lo que es adecuado calcular probabilidades con la
Normal en lugar de con la Binomial y de una forma más rápida.

En resumen, se utiliza la aproximación Normal para evaluar probabilidades Binomiales


siempre que p no esté cercano a 0 o 1. La aproximación es excelente cuando n es grande y
bastante buena para valores pequeños de n si p está razonablemente cercana a ½. Una
posible guía para determinar cuando puede utilizarse la aproximación Normal es tener en
cuenta el cálculo de np y nq. Sí ambos, np y nq son mayores o iguales a 5, la aproximación
será buena.

Antes de empezar a resolver problemas con la aproximación Normal, es bueno aclarar que
se están evaluando probabilidades asociadas a una variable discreta x, con una
distribución que evalúa variables de tipo continuo como es la Normal,

Por lo que z sufre un pequeño cambio como se muestra a continuación:

¿Por qué vamos a sumar o a restar ½ a x?

Este es un factor de corrección debido a que se está evaluando una variable discreta con
una distribución continua, por lo que hay que delimitar claramente desde que punto se va
a evaluar la variable, dicho de otra forma, en que límite de la barra (inferior o superior)
nos debemos posicionar para determinar la probabilidad requerida, cada barra de
probabilidad a evaluar tiene como base la unidad, ese es el porqué del ½.

Ejemplos:
1. La probabilidad de que un paciente se recupere de una rara enfermedad de la sangre
es de 0.4. Si se sabe que 100 personas han contraído esta enfermedad, ¿Cuál es la
probabilidad de que: a) al menos 30 sobrevivan?, b) más de 46 sobrevivan?, c) menos de
50 no sobrevivan?

Solución:

a)

n = 100

p = p(paciente se recupere) = 0.40

q = p(paciente no se recupere) = 1 – p = 1 – 0.40 = 0.60

= np = (100)(0.40) = 40 pacientes se recuperen

= = pacientes que se recuperan

x = variable que nos define el número de pacientes que se recuperan

x = 0, 1, 2,....,100 pacientes que se recuperan

X = 29.5 = 40

p( z = -2.14) =0.4838

p(x 30 ) = p(z = -2.14) +0.5 = 0.4838 + 0.5 = 0.9838


a)

p (z = 1.33) = 0.4082

p(x 46) = 0.5 – p(z = 1.33) = 0.5 – 0.4082 = 0.0918

b) n = 100

p = p(paciente no sobreviva) = 0.60

q = p(paciente sobreviva) = 1 – p = 0.40

Pacientes que no se recuperan

Pacientes que no se recuperan

x = variable que nos define el número de pacientes que no sobreviven

x = 0, 1, 2, ....,100
p (z = -2.14) = 0.4838

p(x 50) = 0.5 – p(z = -2.14) = 0.5 – 0.4838 = 0.0162

2. Una prueba de opción múltiple tiene 200 preguntas, cada una con 4
posibles respuestas, de las cuáles solo una es la correcta ¿cuál es la probabilidad de que
al azar se den de 25 a 30 respuestas correctas para 80 de las 200 preguntas acerca de los
cuales el estudiante no tiene conocimientos?

Solución:

n = 80

p = p(dar una contestación correcta) = 0.25

q = p(dar una contestación incorrecta) = 1 – p = 0.75

preguntas contestadas correctamente

preguntas contestadas correctamente

x = número de preguntas que son contestadas correctamente = 0, 1, 2,...,80


, p(z1 = 1.16) = 0.377

, p(z2 = 2.71) = 0.4966

p(25 x 30) = p(z2) – p(z1) = 0.4966 – 0.377 = 0.1196

3. Si 35% de los productos manufacturados en cierta línea de producción es defectuoso,


¿cuál es la probabilidad de que entre los siguientes 1000 productos manufacturados en
esa línea a) menos de 354 productos sean defectuosos?, b) entre 342 y 364 productos
sean defectuosos?, c)exactamente 354 productos sean defectuosos?

Solución:

a)n = 1000

p = p(un producto sea defectuoso) = 0.35

q = p(un producto no sea defectuoso) = 1- p = 0.65

productos defectuosos

15.0831 productos defectuosos

x = número de productos defectuosos que se manufacturan en la línea = 0, 1, 2,..., 1000


, p(z = 0.23) = 0.091

p (x 354 ) = 0.5 + p(z = 0.23) = 0.5 + 0.091 = 0.5091

b)

, p(z1= - 0.56) = 0.2123

0.96, p(z2= 0.96) = 0.3315


p (342 x 364) = p(z1) + p(z2) = 0.2123 + 0.3315 = 0.5438

c)

0.23, p(z1 = 0.23) = 0.091

, p(z2= 0.30) = 0.1179

p(x = 354) = p(z2) - p(z1) = 0.1179 – 0.091 = 0.0269

Potrebbero piacerti anche