Sei sulla pagina 1di 26

4. DISTRIBUCIONES DE PROBABILIDAD.

Una distribucin de probabilidad indica toda la gama de valores que pueden


representarse como resultado de un experimento si ste se llevase a cabo.
Es decir, describe la probabilidad de que un evento se realice en el futuro, constituye una
herramienta fundamental para la prospectiva, puesto que se puede disear un escenario de
acontecimientos futuros considerando las tendencias actuales de diversos fenmenos naturales
Toda distribucin de probabilidad es generada por una variable (porque puede tomar
diferentes valores) aleatoria x (porque el valor tomado es totalmente al azar), y pueden ser
discretas o continuas.

4.1 DISTRIBUCIONES DE VARIABLES ALEATORIAS DISCRETAS.


Una variable aleatoria es discreta cuando su campo de variacin (dominio de definicin)
est constituido por un conjunto finito o infinito numerable de valores posibles. Cada suceso de
W se corresponde con un valor.
Ej 1 : ante el experimento : lanzar un dado diez veces se aleatoriza de forma que la variable
aleatoria X = n de ases que se obtengan : X ={0,1,2,3,4,5,6,7,8,9,10} (v.a. discreta de orden
finito)
Ej 2 : ante el experimento : contemplar los coches que pasen por un tramo de carretera se
aleatoriza de forma que la variable aleatoria X = n de coches que pasen: X={0,1,2,3,...} ( X=
N ) (v. a. discreta de orden infinito)
Si la variable aleatoria es discreta, cada valor de los pertenecientes al campo de
variacin se corresponder con un suceso del lgebra de sucesos. (lo que permitir despus
asignar probabilidades a cada valor ).
Una variable aleatoria discreta es el modelo terico de una variable estadstica discreta
(con valores sin agrupar).
Una variable aleatoria discreta es aquella cuya funcin de distribucin es escalonada.
PROPIEDADES DE UNA VARIABLE ALEATORIA DISCRETA (X)
p(xi)<1 Las probabilidades asociadas a cada uno de los valores que toma x deben ser mayores o
iguales a cero y menores o iguales a 1.
E p(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los valores que toma x
debe ser igual a 1.

4.1.1 DISTRIBUCIN BINOMIAL.


Es una de las distribuciones de probabilidad ms tiles (control de calidad, produccin,
investigacin). Tiene que ver con el experimento aleatorio que produce en cada ensayo o prueba
uno de dos resultados posibles mutuamente excluyentes: ocurrencia de un criterio o
caracterstica especfico (llamado xito) y no ocurrencia de ste (llamado fracaso). Los trminos
o calificativos de "xito y fracaso" son solo etiquetas y su interpretacin puede no corresponder
con el resultado positivo o negativo de un experimento en la realidad.
Para definir la distribucin binomial, en resumen, podemos definir estos criterios:
1- El experimento aleatorio consiste en ensayos o pruebas repetidas, e idnticas y fijadas antes
del experimento (pruebas de Bernoulli). Son pruebas con reemplazamiento o con reposicin.

2- Cada uno de los ensayos o pruebas arroja solo uno de dos resultados posibles resultados:
xito fracaso.
3- La probabilidad del llamado xito (
ensayo o prueba.

, permanece constante para cada

4- Cada prueba o ensayo se repite en idnticas condiciones y es independiente de las dems.


Cuando estas propiedades se cumplen en el experimento aleatorio se dice que el constituye un
proceso de Bernoulli y cada uno de los ensayos que lo conforman se llama experimento de
Bernoulli.
5. El inters recae en hallar la probabilidad de obtener nmero de xitos al realizar ensayos del
mismo E.A.
La funcin de probabilidad de X en esas condiciones ser:

Para

entero y

CARACTERSTICAS DE LA DISTRIBUCIN BINOMIAL.

a)

Tendencia central:

aplicando la definicin

de valor esperado se obtiene que para esta distribucin:


b)

Dispersin variacin:

lo

que conduce a que una v.a. binomial X tiene como varianza


c)

Por lo tanto su desviacin estandar:

d) Asimetria deformacon (Forma): con base en la razn entre los momentos centrales de
orden dos y tres como quedo definido antes:

sobre la base de que si:


Generalmente la distribucin binomial es sesgada asimetrica hacia la derecha, sesgo
que se va perdiendo cuanto ms grande sea el valor de
se acerque a

(por lo tanto

tienda a

(# de pruebas) y en la medida en que

), limite en el cual se torna simtrica.

Para el caso considerado y utilizando tanto la metodologa tradicional de la definicin de


conceptos como usando las frmulas simplificadas, tenemos:

Total

; tambien

Su

funcin

de

distribucin

acumulada

sera:

4.1.1.1 ESPERANZA MATEMTICA Y VARIANZA DE LA DISTRIBUCIN BINOMIAL.


Una base para explicar la distribucin binomial es el Modelo de Bernoulli, el cual es ms
simple, porque solamente comprende el estudio de un experimento.
El modelo de Bernoulli se aplica a variables aleatorias que slo pueden tener dos
resultados o valores, como: hombre o mujer, sano o enfermo, defectuoso o no defectuoso, etc. A
uno de los resultados se le llama xito (E) y al otro fracaso (F) y las probabilidades de que ocurra
cada valor se representan por
y
. Por facilidad, supongamos que los valores
que toman los resultados son 1 y 0, por lo que la distribucin de probabilidad respectiva es:

f(x)

Debido a que solamente hay 2 posibles resultados y estos son mutuamente excluyentes, se
cumple que

, por lo que

La esperanza para esta funcin es:

Para obtener la variancia tenemos que:

y como:

entonces:

Dado que el modelo de Bernoulli solo se aplica al estudio de un experimento, debemos


extrapolar estas frmulas al caso n-dimensional. Siendo asi, las formulas quedaran:
E(x)= n.p
V(x)= n.p.q

4.1.2 DISTRIBUCIN DE POISSON.


Llamada as por su autor Simon Denis Poisson, probabilista del siglo XIX, pues fue el primero en
describirla. Es una generalizacin de la distribucin binomial cuando sobre un

. se define

una variable aleatoria


que representa el nmero de xitos independientes que ocurren para
intervalos de medida especficos ( tiempos, lugares, espacios) , adems con una probabilidad de
ocurrencia pequea.
Se le llama distribucin de los "eventos raros" pues se usa como aproximacin a la binomial
cuando el tamao de muestra es grande y la proporcin de xitos es pequea.

Esos intervalos de medida pueden referirse a: Tiempo: (Segundo, minuto, hora, da, semana,
etc.) rea: (Segmento de lnea, pulgada cuadrada, Centmetro cuadrado, etc.). Volumen:( Litro,
galn, onza, etc.)
Ejemplos

Nmero de defectos por

Nmero de personas que llegan a un taller automotriz en un lapso de tiempo especfico.

Nmero de impulsos electrnicos errados transmitidos durante espacio de tiempo


especfico.

Nmero de llamadas telefnicas que ingresan a un conmutador por minuto.

Nmero de interrupciones en servicios de energa en intervalos de un dia.

Cantidad de tomos que se desintegran en sustancia radioactiva.

Nmero de accidentes automovilsticos en un cruce especfico durante una semana.

.en piezas similares de un material ..

Criterios propiedades
1.

Se da un intervalo de medida que divide un todo de nmeros reales y donde el conto de


ocurrencias es aleatorio. Esa divisin puede ser un subintervalo de medida.

2.

El nmero de ocurrencias de resultados en el intervalo subintervalo de medida, es


independiente de los dems intervalos subintervalos. por eso se dice que el proceso de
Poisson no tiene memoria.

3.

La probabilidad de que un solo resultado ocurra en un intervalo de medida muy corto


pequeo es la misma para todos los dems intervalos de igual tamao y es proporcional
a la longitud del mismo al tamao de medida.

4.

La probabilidad de que ms de un resultado ocurra en un intervalo subintervalo corto


es tan pequea que se considera insignificante (cercana igual a cero).

Procesos que se ajustan a estos criterios, se dice, son procesos de Poisson.


Definicin
Sea una variable aleatoria que representa el nmero de eventos aleatorios independientes que
ocurren con igual rapidez en un intervalo de medida. Se tiene entonces que la funcin de
probabilidad de esta variable, se expresa por:

Donde es parmetro de tendencia central de la distribucin y representa el nmero promedio


cantidad esperada de ocurrencias (xitos) del evento aleatorio por unidad de medida por
muestra;

Nmero de ocurrencias especificas para el cual se desea conocer

la probabilidad respectiva. Segun sea el valor de de

, se define toda una familia de

probabilidades de Poisson. La probabilidad de que una variable aleatoria de Poisson


igual a un valor de
como:

sea menor

se halla por la funcin de distribucin acumulativa, planteada entonces

Los resultados de las probabilidades individuales para valores de


conforme la variable aleatoria toma valores cada vez ms grandes.

sern ms pequeos

Caractersticas de la distribucin de Poisson

Valor Esperado:

, el cual debe ser conocido.

Varianza:
Forma sesgo: Hacia la derecha con sesgo positivo y que se va perdiendo a medida que
crece. Veamos una grfica de funciones de probabilidad para diferentes valores de

Se puede calcular un coeficiente de asimetra mediante la expresin


mientras en una distribucin binomial:

Es de observar que

en Poisson se puede dar que

Alternativa: Si se da la probabilidad de tener, de manera exacta, ocurrencias en un intervalo


veces mayor que el de refencia en la medicin entonces la distribucin de probabilidades de Y
nmero de xitos en la nueva unidad de referencia viene dada por

Donde
Promedio de ocurrencias por intervalo unidad de medida considerada en X
Y

Nmero de intervalos unidades de medida especificados.

Aqu

Ejemplo
El nmero de pulsos que llegan a un contador GEIGER se presentan en promedio de 6 pulsos por
minuto. Hallar la probabilidad de que en 15 minutos se reciban exactamente 20 pulsos.

es decir, que una frecuencia de 6 pulsos por minuto es eqyivalente a una de 1

por

minutos.

4.1.2.1 ESPERANZA MATEMTICA Y VARIANZA DE LA DISTRIBUCIN DE POISSON.


La distribucin de Poisson tiene la caracterstica de que la esperanza y la varinancia son iguales,
esto es:

4.1.3 DISTRIBUCIN HIPERGEOMTRICA.


Muchas veces en la prctica es difcil realizar pruebas con reposicin reemplazamiento. Por
ejemplo, si en el control de calidad se pierde el elemento que se prueba, pues no se puede hacer
reposicin directamente. Se planta entonces la prueba sin reposicin, donde los elementos de
la muestra se toman todos a la vez y no individualmente donde el elemento seleccionado no se
reintegra al experimento a la muestra nuevamente.
Sus aplicaciones estan en areas con uso considerable de muestreo de aceptacin, pruebas
electronicas y de aseguramiento de la calidad, fabricacin de piezas, etc.
En la distribucin Hipergeomtrica
(sin reposicin) de tamao

cantidad de resultados xitos en una muestra aleatoria

, tomada de una poblacin de tamao

una caracteristica propiedad (xito) antes del muestreo y

y de la cual

satisface

no la satisface (fracaso).

Criterios o propiedades
1.

La poblacin
una parte:

del conjunto de unidades elementos es de orden fnito, de los cuales


"son xitos", y otra parte:

son "fracasos".

2.

Cada elemento puede ser caracterizado como xito fracaso.

3.

Se obtiene una muestra aleatoria de elementos todos a la vez (sin reemplazamiento) y


no de forma independiente. No son pruebas repetidas.

4.

El tamao de la muestra aleatoria

es grande relativamente en comparacin con el

tamao de la poblacin. Generalmente:


5.

Se busca la probabilidad de
elementos y

nmero de xitos a partir de los

fracasos a partir de los

resultados

elementos asi clasificados, al obtener

una muestra aleatoria de tamao


Caractersticas

En la practica, si

, no se aplica el

pues su valor tendera a cero

La funcin de distribucin acumulativa quedar definida entonces por:

Pueden ser calculos tediosos laborosos cuando


forma simplificada de recurrencia:

es grande. Por ello hay quienes aplican la

Ejemplo
En una empresa industrial diariamente se producen 90 unidades de unidad metalmecnica, de
las cuales generalmente 5 salen defectuosas. Se examina en un dia cualquiera una muestra de 5
unidades. Hallar la probabilidad de

unidades defectuosas.

para
que resolviendo permite definir la tabla de distribucin de probabilidad:

Si representamos grficamente la tabla resultante, tenemos:


Calculamos el valor de sus principales medidas caractersticas:

Media:

Que simplificadamente:

Varianza:
tambien.

y que an de forma mas simplificada:

Sesgo: Hacia la derecha positivo como se v graficamente. Adems, aqui:


y

pues

pues

4.1.3.1 Esperanza matemtica y varianza de la distribucin hipergeomtrica.


Al igual que en la distribucin Binomial, podemos considerar a la variable
Hipergeomtrica como una suma de N variables Xi dependientes, ya que no hay reemplazo. Sin

embargo, la propiedad aditiva de la Esperanza no requiere independencia, por lo que para esta
variable es vlido establecer que:

E(X1 + X2 + .... + Xn) = E(X1) + E(X2) + ...+ E(Xn)

Cada E(Xi) es la proporcin de xito del tipo a en la muestra de tamao n, lo que


podemos calcular como

= E(X) = n

y como son n elementos entonces:

En el caso de la variancia recordemos que en el modelo Binomial, donde el muestreo es


con reemplazo, se tiene que:

V(X) = npq = n
, pero como en el modelo Hipergeomtrico no hay reemplazo, se
introduce el llamado factor de correccin, cuya deduccin queda fuera del alcance este libro, por
lo solamente lo usaremos y que es

V(X) = n

. Entonces tenemos que la variancia es:

4.1.4 DISTRIBUCIN GEOMTRICA.


La distribucin Geomtrica tambin est relacionada con una secuencia de ensayos de Bernoulli,
excepto que el nmero de ensayos no es fijo. En consecuencia, la distribucin geomtrica hereda
las caractersticas de la distribucin binomial, a excepcin del concepto del cual se quiere
calcular la probabilidad. En este caso la variable aleatoria de inters, denotada mediante X, se
define como el nmero de ensayos requeridos para lograr el primer xito. Es obvio que para
obtener el primer xito se debe realizar el experimento cuando menos una vez, por lo que los
valores que puede tomar la variable aleatoria X son 1, 2, 3, ... , n, esto es, no puede tomar el
valor cero. En este caso se cumple que (X = x) si y slo si los primeros (x 1) ensayos son
fracasos (q) y el x-simo ensayo es xito (p), por lo que:

P(X = x) =
De acuerdo a lo anterior, podemos decir que:
Una variable aleatoria X se distribuye de acuerdo con un modelo probabilstico geomtrico, si su
funcin de probabilidades es:

Ejemplo. Se lanza un dado hasta que aparece el nmero 6. Cul es la probabilidad de que el
nmero de lanzamientos sean 3?
Solucin.
En este problema el xito es la aparicin del nmero 6 y la probabilidad de que salga el nmero
6 al lanzar un dado es 1/6, por lo que p = 1/6 y q = 5/6. Como nos interesa calcular la
probabilidad de que el 6 aparezca en el tercer lanzamiento, entonces:

P(X = 3) = (

)3-1 (

)=(

)2 (

) = 0.1157

Ejemplo. La probabilidad de que cierto anlisis clnico d una reaccin positiva es 0.4. Los
resultados de los anlisis son independientes unos de otros Cul es la probabilidad de que la
primera reaccin positiva ocurra antes del tercer anlisis?
Solucin.
Aqu el xito es que salga una reaccin positiva, por lo que p = 0.4 y q = 0.6. Si la primera
reaccin positiva debe aparecer antes del tercer anlisis, entonces:
P(X < 3) = P(X = 1) + P(X = 2) = (0.6) 1-1 (0.4) + (0.6)2-1 (0.4) = 0.64
4.7 ESPERANZA MATEMTICA Y VARIANZA DE LA DISTRIBUCIN GEOMTRICA.
La media y la variancia de la distribucin Geomtrica se obtiene en la forma siguiente:

Ejemplo.
a)

Se lanzan 2 dados hasta que la suma de los nmeros que aparecen sea 7. Calcular:

La esperanza del nmero de lanzamientos que se necesiten.

b)

La variancia del nmero de lanzamientos que se necesiten.

Solucin.
El xito en este experimento es que la suma de los nmeros que aparecen sea 7, por lo que el
primer paso es el clculo de su probabilidad.
En problemas anteriores hemos visto que la magnitud del espacio muestral de este experimento
es 36. Ahora calculemos el nmero de formas posibles en que aparece el 7. Los posibles
resultados son: {(1, 6) (2, 5) (3, 4) (4, 3) (5, 2) (6, 1)} y aplicando la funcin de conjunto aditivo
vemos que son 6 resultados, por lo que p = 6/36 = 1/6 y q = 5/6.

a)

Sabemos que para calcular el valor esperado utilizamos el modelo matemtico que dice

y sustituyendo valores
b)

La

variancia

del

nmero

de

lanzamientos

se

calcula

con:

4.2 DISTRIBUCIONES DE VARIABLES ALEATORIAS CONTINUAS.

Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores
existentes dentro de un intervalo. En el caso de variable continua la distribucin de probabilidad
es la integral de la funcin de densidad, por lo que tenemos entonces que:

4.2.1 DISTRIBUCIN UNIFORME.

Funcin de Densidad
Una variable aleatoria continua X se apega a un modelo probabilstico uniforme en el intervalo
[a, b], si todos los puntos del intervalo tienen la misma probabilidad de ocurrencia.
Definicin. Una variable aleatoria X est distribuida uniformemente en el intervalo [a, b], en
donde a y b son finitos, si su funcin de densidad es:

De acuerdo a lo anterior, una variable aleatoria distribuida uniformemente, tiene una funcin de
densidad que es una constante en el intervalo de definicin [a, b]. A fin de satisfacer la condicin
de que
intervalo.

, la funcin de densidad debe ser igual al recproco de la longitud del

Para cualquier subintervalo [c, d], en donde a c<d b, la P(c x d)=


. As,
la probabilidad slo depende de la magnitud del subintervalo y no de la ubicacin del mismo.
Funcin de Distribucin Acumulada.
La Funcin de Distribucin Acumulada est dada por:

, por lo que:

Ejemplo. Sea X una lnea cuyos valores se apegan a una distribucin uniforme. Se elige un
punto al azar sobre el segmento de la lnea [0, 2]. Cul es la probabilidad de que el punto
elegido se encuentre entre 1 y 1.5?.
Solucin.
Se ha establecido que para cualquier subintervalo que est dentro del intervalo donde tiene
validez la distribucin, la probabilidad se calcula mediante la siguiente expresin:

P(c

d)=

En consecuencia:

4.2.1.1 ESPERANZA MATEMTICA Y VARIANZA DE LA DISTRIBUCIN UNIFORME.

La media o esperanza de una variable aleatoria continua es


.
Si referimos esta expresin al intervalo [a, b] y utilizamos la funcin de densidad de la
distribucin, tenemos que:

La variancia se calcula con la siguiente expresin:

, donde
. Si nuevamente referimos esta
expresin al intervalo [a, b] y utilizamos la funcin de densidad de la distribucin, tenemos:

Sustituyendo valores tenemos:

Este resultado indica que la variancia de X no depende individualmente de a y de b, sino slo de


(b-a)2, es decir, del cuadrado de su diferencia. Por lo tanto, las variables aleatorias distribuidas
uniformemente en un intervalo (no necesariamente el mismo), tendrn variancias iguales si las
longitudes de los intervalos son iguales.

4.2.2 DISTRIBUCIN EXPONENCIAL.

La variable aleatoria exponencial, es el tiempo que transcurre hasta que se da el primer evento
de Poisson. Es decir, la distribucin exponencial puede modelar el lapso entre dos eventos
consecutivos de Poisson que ocurren de manera independiente y a una frecuencia constante.
Esta distribucin se emplea con bastante frecuencia con objeto de modelar problemas del tipo
"tiempo - falla" y como modelo para el estudio de intervalos en problemas de espera; por
ejemplo, la duracin de componentes electrnicos. Posteriormente se demostrar que la
distribucin exponencial no tiene memoria, es decir, la probabilidad de ocurrencia de eventos
presentes o futuros no depende de los que hayan ocurrido en el pasado. De esta forma, la
probabilidad de que una unidad falle en un lapso especfico depende nada ms de la duracin de
ste y no del tiempo en que la unidad ha estado en operacin.
Funcin de Densidad
Definicin. Si una variable aleatoria X tiene una distribucin exponencial, su funcin de densidad
de probabilidades esta dada por:

Esta distribucin se caracteriza por un parmetro q, que representa el lapso promedio de tiempo
entre dos eventos independientes de Poisson. En el contexto de la Teora de la Confiabilidad, q
recibe el nombre de tiempo promedio entre fallas, y 1/q es la frecuencia de falla. En ocasiones la
distribucin exponencial se define en trminos del parmetro l = 1/q .
Supongamos que un componente tiene la propiedad de que el tiempo transcurrido de operacin
no afecta la posibilidad del componente de funcionar al menos b unidades adicionales de tiempo.
Es decir, la probabilidad de que el componente funcione durante ms de a + b unidades de
tiempo, dado que ya oper durante por lo menos a unidades de tiempo, es igual a la probabilidad
de que un componente nuevo funcione durante por lo menos b unidades de tiempo, si se pone
en servicio el componente nuevo en el tiempo 0.
Funcin de Distribucin Acumulada
La funcin de distribucin acumulada se obtiene en forma directa y est dada por:

Tambin sabemos que P(X > x) = 1 - P(X x), de lo cual obtenemos:

4.2.2.1 ESPERANZA MATEMTICA Y VARIANZA DE LA DISTRIBUCIN EXPONENCIAL.

El valor esperado y la variancia de esta distribucin estn dadas por:

Valor esperado:

Variancia
En problemas de la Teora de la Confiabilidad, el inters recae en determinar el tiempo de vida
promedio de un componente o de un sistema de estos.
El problema consiste en identificar la distribucin de probabilidades de la variable aleatoria que
proporcione de manera adecuada un modelo para el tiempo de falla. Una cantidad muy til es la
funcin de confiabilidad.
Definicin. Sea T una variable aleatoria que representa el tiempo de vida de un sistema y sea f(t)
la f.d.p. de la variable aleatoria T. La funcin de confiabilidad del sistema R(t) al tiempo t, es la
probabilidad de que el lapso de duracin del sistema sea mayor que un tiempo t dado. De
acuerdo con esto:
R(t) = P(X > t) = 1-F(t)

para t > 0

Ejemplo. El tiempo de vida de un circuito obedece una ley exponencial, con parmetro l =
1/1000. Una compaa que produce estos circuitos desea garantizarlos por cierto tiempo. Por
cuntas horas se puede garantizar su funcionamiento, de modo que la probabilidad de que el
circuito funcione despus del nmero de horas garantizadas sea del 95%?
En este caso la f.d.p. est especificada por:

Sea a el nmero de horas por las que se garantiza el circuito. Entonces:

Resolviendo para a se obtiene:

Ejemplo. Supngase que una variable aleatoria X se distribuye uniformemente en [0, 2] y que
otra variable aleatoria Y se distribuye en forma exponencial con parmetro l. Encontrar el valor
del parmetro, de tal manera que P(x < 1 ) = P(y < 1 ).
La f.d.p. de la v. a. X est dada por:

La f.d.p. de la variable aleatoria Y est dada por:

Evaluando estas probabilidades tenemos:

Por lo tanto:

. Resolviendo para l se tiene:

4.2.3 DISTRIBUCIN GAMMA.

Para

se define la funcin

como

Esta funcin verifica las siguientes propiedades:


-

.
-

con

Se dice que una variable aleatoria,


que,

, tiene una distribucin gamma de parmetros

, tal

, si tiene como funcin de densidad

Se verifica que

, de donde se deduce que,

, por tanto,

. La distribucin
y

y que

Destaca como caso particular de este tipo de distribucin la

entre las ocurrencias

que es la distribucin

se utiliza para calcular la distribucin del tiempo transcurrido


de un proceso de Poisson de media

4.2.3.1 ESPERANZA MATEMTICA Y VARIANZA DE LA DISTRIBUCIN GAMMA.

Su

esperanza

es

Su

varianza

La distribucin Gamma (, p = 1) es una distribucin Exponencial de parmetro . Es


decir, el modelo Exponencial es un caso particular de la Gamma con p = 1.

Dadas dos variables aleatorias con distribucin Gamma y parmetro comn

es

p.

p2

X ~ G(, p1) y Y ~ G(, p2)


se cumplir que la suma tambin sigue una distribucin Gamma
X + Y ~ G(, p1 + p2).
Una consecuencia inmediata de esta propiedad es que, si tenemos k variables aleatorias con
distribucin Exponencial de parmetro (comn) e independientes, la suma de todas ellas
seguir una distribucin G(, k).

4.2.4 DISTRIBUCIN NORMAL.

La distribucin normal naci el 12 de noviembre de 1933, mediante un pequeo trabajo que


public el matemtico francs Abraham De Moivre (1667 - 1754), como medio de evaluar
aproximadamente la funcin de distribucin Binomial para valores grandes de n. Su pensamiento
fue desde el histograma hasta la curva continua, para encontrar finalmente la ecuacin de la
curva normal.
De Moivre fue expulsado de Francia por ser hugonote y fue a vivir a Inglaterra, donde
daba asesoramiento sobre los juegos de azar. Sin embargo, los juegos de azar no ganaron nada
con el conocimiento de la distribucin normal y en esa poca no se encontraron aplicaciones
prcticas a esta distribucin, por lo que curva y ecuacin cayeron en el olvido.
No fue sino hasta finales del siglo XVIII y principios de XIX, en que apareci un problema prctico
que requiri la distribucin normal para su solucin. Los astrnomos siempre se encontraban
ante la difcil situacin de que los resultados de sus medidas eran diferentes, lo cual era
originado por la imperfeccin de los aparatos que utilizaban. Sin embargo, tenan que averiguar
la forma de encontrar el valor correcto ms probable ante una gran cantidad de resultados.
Gauss (17771855) introdujo la distribucin normal para la solucin de este problema,
apareciendo su primera referencia impresa en 1809. l observ que la distribucin de
frecuencias de los resultados de las medidas se aproximaba a una distribucin normal, por lo que
a la curva se le llam Curva de Errores de Gauss y a la distribucin correspondiente se le conoci
incorrectamente como Distribucin Gaussiana.
No obstante que haya sido Gauss quien dio a conocer esta distribucin, la realidad es que fue
Adolphe Lambert Qutelet, eminente en todos los campos de la ciencia, quien hizo la entrada
triunfal de esta distribucin al mostrar su enorme importancia en la solucin de una amplia gama
de problemas.

Durante el siglo XIX se realizaron diversos intentos tratando de establecerle a esta


distribucin la ley probabilstica base de todas las variables continuas y debido a esto se utiliz el
trmino normal. Al parecer Qutelet fue el primero que habl de Distribucin Normal.
Importancia de la Distribucin Normal
La distribucin normal es sin lugar a dudas la ms importante y la de mayor uso de todas las
distribuciones continuas de probabilidad. Su aplicacin abarca prcticamente todas las reas de
la ciencia, gran parte de los fenmenos naturales y proporciona una representacin adecuada, al
menos en una primera aproximacin, de gran cantidad de variables fsicas. As, su uso
comprende problemas relativos a la ingeniera, economa, sociologa, agricultura, medicina,
biologa, finanzas, meteorologa, geofsica, mediciones de partes manufacturadas, errores de
instrumentos de medicin, etc. Puntualizando podemos decir que:
1. Son muchas las variables aleatorias que estn distribuidas normalmente cuando se realizan
experimentos u observaciones empricas y hay otras ms que estn distribuidas en forma
aproximadamente normal.
2. Ciertas distribuciones se pueden aproximar mediante la distribucin normal. Esto se cumple,
por ejemplo, para la distribucin binomial.
3.
Ciertas variables que son bsicas para justificar pruebas estadsticas estn distribuidas en
forma normal, como las distribuciones muestrales de muestras grandes, intervalos de confianza,
pruebas de hiptesis, el teorema del lmite central, etc.
Propiedades de la distribucin normal.
Las principales caractersticas de esta distribucin son:
1.
La distribucin tiene 2 parmetros: media (m) y desviacin estndar (s) y queda
perfectamente determinada por ellos. Debido a esto es que la notacin abreviada que se usa
para representar la distribucin es N(m, s)
2.
La moda (el valor ms frecuente), la mediana (el valor central) y la media tienen el mismo
valor.
3.

El rea total bajo la curva y el eje de las x es la unidad.

4.
La curva tiene forma de campana, por lo que se le llama curva acampanada o campana
de Gauss
5.
La distribucin es simtrica respecto a la media, es decir, el 50% del rea est a la
izquierda de la media y el otro 50% a la derecha.
6.
El punto de inflexin de la curva (el punto donde la curva deja de ser cncava hacia abajo
y empieza a ser cncava hacia arriba), se encuentra a una distancia de una desviacin estndar
(+s y -s) respecto al eje de las y, e invariablemente la tangente en este punto de inflexin corta
al eje de las x a una distancia de 2 desviaciones estndar (+2s y -2s).
7.
La curva se extiende en ambas direcciones y tiende gradualmente a unirse al eje de las x
(se hace asinttica al eje de las x), por lo que solamente se juntan en menos infinito (-) y en
mas infinito (+), aunque en la prctica la curva se corta en +4s y -4s.

Funcin de Densidad

Se dice que una variable aleatoria X tiene distribucin normal, si su funcin de densidad de
probabilidad (f d p) est dad por:

Funcin de Distribucin Acumulada


Por su parte para la funcin de distribucin acumulada tenemos:

Definicin. La funcin de distribucin acumulada de la distribucin normal es:

Desafortunadamente no existe una solucin exacta para la integral, por lo que su


evaluacin solamente puede obtenerse utilizando mtodos de aproximacin (numricos), y an
as la evaluacin tendra que realizarse para cada par (m, s).
Tomando en cuenta lo anterior y que y que las medidas a las que se aplica la distribucin
normal son de ndoles muy diversas, como comportamiento de pesos, estaturas, longitudes,
coeficiente de inteligencia, sueldos, producciones, vida de productos, etc., la solucin para cada
par de datos sera muy laboriosa y complicada.
Para que todos los conceptos se puedan reducir a un solo esquema, es necesario que la
media y desviacin estndar de la distribucin normal estn fijos, de modo que la distribucin
permanezca invariable. Esto se logra mediante un cambio de escala, transformando los valores
reales de la distribucin (x) a valores de desviacin estndar, los cuales reciben el nombre de
valores estandarizados.

4.2.4.1 ESPERANZA MATEMTICA Y VARIANZA DE LA DISTRIBUCIN NORMAL.

Su esperanza es .
Su varianza es 2 y, por tanto, su desviacin tpica es .
Es simtrica respecto a su media , como puede apreciarse en la representacin anterior.
Media, moda y mediana coinciden ().
Cualquier transformacin lineal de una variable con distribucin Normal seguir tambin el
modelo Normal. Si X ~ N(, ) y definimos Y = aX + b (con a 0), entonces Y ~ N(a + b, |a|).
Es decir, la esperanza de Y ser a + b y su desviacin tpica, |a|.
Cualquier combinacin lineal de variables normales independientes sigue tambin una
distribucin Normal. Es decir, dadas n variables aleatorias independientes con distribucin Xi ~
N(i, i) para i = 1, 2, ..., n la combinacin lineal: Y = anXn + an1Xn1+ ... + a1X1 + a0 sigue
tambin el modelo Normal:

4.2.5 DISTRIBUCIN DE PEARSON.

La distribucin ji-cuadrada es la distribucin muestral de s 2. O sea que si se extraen todas las


muestras posibles de una poblacin normal y a cada muestra se le calcula su varianza, se
obtendr la distribucin muestral de varianzas.
Para estimar la varianza poblacional o la desviacin estndar, se necesita conocer el estadstico
X2. Si se elige una muestra de tamao n de una poblacin normal con varianza
estadstico:

, el

tiene una distribucin muestral que es una distribucin ji-cuadrada con gl=n-1 grados de libertad
y se denota X2 (X es la minscula de la letra griega ji). El estadstico ji-cuadrada esta dado por:

donde n es el tamao de la muestra, s2 la varianza muestral y


la varianza de la poblacin de
donde se extrajo la muestra. El estadstico ji-cuadrada tambin se puede dar con la siguiente
expresin:

Propiedades de las distribuciones ji-cuadrada


1.

Los valores de X2 son mayores o iguales que 0.

2.

La forma de una distribucin X 2 depende del gl=n-1. En consecuencia, hay un nmero


infinito de distribuciones X2.

3.

El rea bajo una curva ji-cuadrada y sobre el eje horizontal es 1.

4.

Las distribuciones X2 no son simtricas. Tienen colas estrechas que se extienden a la


derecha; esto es, estn sesgadas a la derecha.

5.

Cuando n>2, la media de una distribucin X2 es n-1 y la varianza es 2(n-1).

6.

El valor modal de una distribucin X2 se da en el valor (n-3).

La funcin de densidad de la distribucin X2 esta dada por:

para x>0

4.2.5.1 Esperanza matemtica y varianza.

En la distribucin ji cuadrada la esperanza es igual al nmero de grados de libertad, que es igual


al tamao de la muestra menos 1
E(x)=gl=n-1
Por otro lado, la varianza es igual a dos veces el nmero de grados de libertad,
Var(x)=2*gl

REPBLICA BOLIVARIANA DE VENEZUELA


MINISTERIO DEL PODER POPULAR PARA LA DEFENSA
UNIVERSIDAD NACIONAL EXPERIMENTAL POLITECNICA DE LA FUERZA ARMADA
NUCLEO ZULIA
INGENIERIA EN SISTEMAS
PROBABILIDAD Y ESTADISTICAS
SECCIN 03-ISI-D02

UNIDAD IV: DISTRIBUCIONES DE PROBABILIDAD

INTEGRANTES:
ENRIQUE CORDERO
CI. 20662798
KERMAN SANCHEZ
CI. 25668245

MARACAIBO, MARZO DE 2016

INDICE
4. Distribuciones de probabilidad
4.1.Distribuciones de variables aleatorias discretas
4.1.1. Distribucin Binomial.
4.1.1.1. Esperanza matemtica y varianza

de

la

distribucin

Binomial.
4.1.2. Distribucin de Poisson.
4.1.2.1. Esperanza matemtica y varianza de la distribucin de
Poisson.
4.1.3. Distribucin geomtrica.
4.1.3.1. Esperanza matemtica

varianza

de

la

distribucin

geomtrica.
4.1.4. Distribucin hipergeomtrica.
4.1.4.1. Esperanza matemtica

varianza

de

la

distribucin

hipergeomtrica.
4.2.Distribuciones de variables aleatorias continuas.
4.2.1. Distribucin Uniforme.
4.2.1.1. Esperanza matemtica y varianza

de

la

distribucin

uniforme.
4.2.2. Distribucin Exponencial.
4.2.2.1. Esperanza matemtica

varianza

de

la

distribucin

Exponencial.
4.2.3. Distribucin Gamma.
4.2.3.1. Esperanza matemtica

varianza

de

la

distribucin

Gamma.
4.2.4. Distribucin normal.
4.2.4.1. Esperanza matemtica y varianza de la distribucin normal.
4.2.5. Distribucin de Pearson.
4.2.5.1. Esperanza matemtica y varianza.
Anexos
Bibliografia

BIBLIOGRAFIA

- Manual de Estadstica. David Ruiz Muoz. Universidad Pablo de Olavide.


2000
- Teora de Probabilidades y Estadstica Matemtica. Gert Maibaum.
Editorial Pueblo y educacin. 1988
- Probabilidad y estadstica para ingenieros. Ronald E. Walpole, Raymond
H. Myers, Sharon L. Myers. Pearson Education. 1998
- Probabilidad e inferencia estadstica. Luis A. Santal. Universidad de
Buenos Aires. 1970

Potrebbero piacerti anche