Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIN DE CONJUNTO. 1.1.2 NOTACIN. 1.1.3 EJEMPLOS. 1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACO. 1.1.5 OPERACIONES ENTRE CONJUNTOS 1.1.6 EJEMPLO 1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERS 1.2 MODELOS PROBABILSTICOS 1.2.1 CARACTERSTICAS DE LOS FENMENOS ALEATORIOS 1.2.2 CONCEPTOS BSICOS DE ANLISIS COMBINATORIO 1.2.3 CONCEPTO DE PROBABILIDAD 1.2.4 TEORA AXIOMTICA DE LA PROBABILISDAD 1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORA AXIOMTICA DE LA PROBABILIDAD 1.2.6 TEORA CLSICA DE LA PROBABILIDAD 1.2.7 TEORA FRECUENCIAL O A POSTERIORI 1.2.8 PROBABILIDAD MARGINAL 1.2.9 PROBABILIDAD CONDICIONAL 1.2.10 TEOREMA DE BAYES 1.2.11 PROBLEMAS 2. VARIABLES ALEATORIAS 2.1 VARIABLE ALEATORIA DISCRETA 2.2 FUNCIONES DE DOS O MS VARIABLES DISCRETAS 2.3 FUNCIN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS 2.4 FUNCIN DE DENSIDAD CONDICIONAL 2.5 VARIABLE ALEATORIA CONTINUA
2.6
FUNCIN
DE
DENSIDAD
PARA
VARIABLE
CONTINUA
PLURIDIMENSIONAL 2.7 ESPERANZA MATEMTICA 2.8 MOMENTOS CON RESPECTO AL ORIGEN 2.9 MOMENTOS DE ORDEN RESPECTO A UNA CONSTANTE
2.10 MOMENTOS DE ORDEN CON RESPECTO A LA MEDIA 2.11 VARIANZA DE UNA FUNCIN DE PROBABILIDAD 2.12 FUNCIN GENERATRIZ DE MOMENTOS 2.12.1 PROPIEDADES DE LA FUNCIN GENERATRIZ DE MOMENTOS 2.12.2 TEOREMA 2.13 FUNCIN CARACTERSTICA 2.14 EJERCICIOS 3. DISTRIBUCIONES PROBABILSTICAS 3.1 PRINCIPALES DISTRIBUCIONES DE PROBABILIDAD PARA
VARIABLE DISCRETA 3.1.1 DISTRIBUCIN BINOMIAL 3.1.2 DISTRIBUCIN HIPERGEOMTRICA 3.1.3 DISTRIBUCIN DE POISSON 3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS 3.2.1 DISTRIBUCIN UNIFORME O RECTANGULAR 3.2.2 DISTRIBUCIN NORMAL (0, 1 ) : n(0, 1) 3.2.3 DISTRIBUCIN NORMAL CON MEDIA m y VARIANZA s2: h(m,s2) 3.2.4 DISTRIBUCIN JI DOS CON UN GRADO DE LIBERTAD: X 2 (1) 3.2.5 DISTRIBUCIN JI DOS CON n GRADO DE LIBERTAD X 2 (n) 3.2.6 DISTRIBUCIN t DE ESTUDENT 3.2.7 DISTRIBUCION F DE SNEDECOR 3.2.8 TEOREMA CENTRAL DEL LMITE 3.2.9 TEOREMA DE MOIVRE 3.2.10 EJERCICIOS BIBLIOGRAFIA
1.1.1 DEFINICIN DE CONJUNTO. Un conjunto no es ms que una coleccin de objetos, elementos o miembros. 1.1.2 NOTACIN. Por convencionalismo se tiene, mientras no se diga lo contrario, los conjuntos, los denotaremos con letras maysculas y los elementos con letras minsculas. 1.1.3 EJEMPLOS. 1.1.3.1 Sea A un conjunto compuesto por los elementos: a, b, c y d. Es decir,
A = {a, b, c, d }, donde podemos asegurar que a pertenece a A y se escribe
1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACO. En muchos casos restringimos la teora de conjuntos en trminos de subconjuntos, ya que los relacionamos con respecto a otro conjunto o espacio que los contiene, esto es, conjunto Universal y lo denotamos con la letra U.
Cuando un conjunto no tiene elementos, se denomina conjunto vaco y lo representamos con la letra , (FI).
1.1.4.1
{X / X
iguales a 1.
1.1.4.2
Si lanzamos un dado, el conjunto de todos los posibles resultados es el universo o Espacio Universal: { 1, 2 , 3, 4 , 5, 6}
1.1.5.1
UNIN. Se define como el conjunto de todos los elementos, que pertenecen a A o a B, o tanto a A como a B, (siendo A y B previamente definidos).
A Unin B, esto es ( A B ) .
1.1.5.2
1.1.5.3
DIFERENCIA. Son todos los elementos que de A que no pertenecen a B, esto es, A B.
1.1.5.4
complemento
de
(A
B)
se
escribe
( A B ) o ( A B ) o ( A B )C.
1.1.6 Ejemplo:
1.1.7.1
Sean
tres
conjuntos
cualesquiera,
tal
que
si
A B y B C A C.
1.1.7.2 1.1.7.3
A B = B A: Ley conmutativa de la unin. A (B C ) = ( A B ) C = A B C: Ley asociativa de la
interseccin. 1.1.7.6
A (B C ) = ( A B ) ( A C )
A (B C ) = ( A B ) ( A C ) A - B = A B
Si A B A B o B A A = A y A = A U = U y A U = A
(A
(A
El clculo de probabilidades es la teora matemtica que sirve de modelo, para la descripcin y anlisis de los fenmenos estadsticos o aleatorios.
Por fenmenos o experimentos aleatorios, entendemos que son aquellos cuyos resultados estn establecidos pero no se pueden predecir con exactitud A priori1, o sea que en situaciones idnticas pueden presentar resultados diferentes; adems los fenmenos pueden ocurrir repetidamente en forma indefinida.
1.2.1.1
Multiplicidad de la ocurrencia
1.2.1.2
1.2.1.3 1.2.1.4
Aleatoriedad, porque no pueden predecir Ley del Azar, si una cierta experiencia se repite n veces y anotamos el nmero n(A) de veces que ocurre una caracterstica determinada, se
Palabra del latn que significa que viene antes, o sea, antes de la prueba.
observa la frecuencia
a un valor fijo. Haremos nfasis en la ltima caracterstica o propiedad de los fenmenos aleatorios, conocida tambin como Estabilidad de las frecuencias o Principio de la regularidad estadstica.
Todo fenmeno exige la evidencia de alguna regularidad, el clculo de probabilidades se basa en la regularidad estadstica que caracteriza a los fenmenos aleatorios.
Los fenmenos aleatorios se caracterizan por la imposibilidad de predecir resultados individuales, sin embargo, si consideramos un nmero de pruebas repetidas o simultneas, la situacin cambia, y a pesar de la irregularidad de los resultados individuales o aislados, los resultados promedios o globales muestran una sorprendente regularidad.
Para explicar este principio de la regularidad, tomemos un ejemplo clsico citado por numerosos autores de temas estadsticos: Supongamos el lanzamiento de una moneda perfecta, donde representamos por n el nmero de lanzamientos de la moneda y sea, A: El resultado consistente en caer cara, entonces n(A) ser la frecuencia absoluta o nmero de veces de caer cara dentro del experimento, luego la frecuencia relativa ser h(a) =
valores de n, esta frecuencia relativa tiende a estabilizarse alrededor de un valor ms o menos constante. Si observamos la figura No. 1, vemos claramente que la frecuencia h(A) flucta ampliamente para pequeos valores de n, pero al aumentar
n, las oscilaciones se hacen cada vez menos intensas y para grandes valores de n el grfico parece indicar la tendencia de h(A) a alcanzar un valor lmite o ideal,
Figura No. 1
Fundamentalmente el anlisis combinatorio se ocupa tanto de los diversos modos de ordenar los elementos de un conjunto, como del estudio de las agrupaciones que se pueden formar con dichos elementos, as pues, por anlisis combinatorio podemos afirmar que es la parte de la matemtica en que se estudian las agrupaciones que pueden formarse con elementos dados, (objetos. Nmeros, ...), teniendo en cuenta el nmero de elementos que entran en cada grupo y el orden en que estn colocados, prescindiendo del valor numrico de los elementos, si lo tuvieren.
En el anlisis combinatorio podemos considerar: Las variaciones, permutaciones, combinaciones y el principio fundamental de cuenta. VARIACIONES2. Se denomina variacin, de los elementos de un
1.2.2.1
conjunto, una disposicin ordenada de los mismos. Si hay n elementos en el conjunto, el nmero de variaciones depender del nmero de objetos m que se deseen tomar y ordenar.
Algunos autores las llaman ordenaciones, otros las consideran como un caso especial de las permutaciones.
la nocin de factorial de un nmero, primero que todo dicho nmero debe definirse como el elemento de los nmeros enteros positivos sin incluir el cero, as pues, el factorial de n y se escribe n! Se define como: n! = n(n-1) (n-2) ... x3x2x1 y decimos que 0! = 1, por definicin.
n! (n-m)!
1.2.2.2
EJERCICIO. Hay 15 candidatos para ocupar los cargos de presidente, vicepresidente, secretario, tesorero, fiscal, de una asociacin gremial. De cuntas maneras diferentes se pueden ocupar estos cargos?
Tenemos que el primer cargo, o sea, el cargo del presidente puede ser ocupado por cualquiera de los 15 candidatos, es decir, hay 15 maneras diferentes de ocupar dicho cargo. Ahora, una vez ocupado el cargo de presidente, nos quedan14 candidatos disponibles para ocupar el segundo cargo, digamos el de vicepresidente, una vez ocupado dicho cargo, el siguiente se puede ocupar de 13 maneras y as sucesivamente; tal como lo indicamos a continuacin:
luego, el nmero
V515 =
= 360.360
1.2.2.3
Si suponemos que cada uno de los m elementos, puede figurar cualquier nmero de veces en una misma variacin, obtenemos las variaciones con repeticin, cuyo nmero lo podemos calcular auxilindonos con la frmula:
m
n VRm =
As en el caso del ejercicio 1.2.2.2, el presidente una vez nombrado, participa en la eleccin de vicepresidente y a su vez ste en la del presidente, tesorero, secretario y fiscal a as sucesivamente; es decir:
P Vp x 15 15 S T F x x 15 15 15
15 V R5 = ( 15 )5 = 759.375
1.2.2.4
= n! .
Ahora, en el caso que entre los n elementos, existan h iguales entre s; ( h < n), el nmero de permutaciones est dado por la expresin:
h n
n! h!
Pero puede presentarse el caso en que dentro de los n haya ms de una clase de elementos iguales entre s, es decir, existan h1, iguales entre s, h2 iguales entre s,
., h t
por la expresin:
h1 ,h2 ,.........ht
n
Cuando los elementos no se suponen ubicados en una lnea recta, sino en un circulo, se dice que la permutacin es circular, esto es, no hay primero ni ltimo elemento; lo que implica tener que fijarse uno, como punto de referencia. El nmero de permutaciones circulares est dado por: c P n = PCn = (n 1)!.
El nmero de permutaciones diferentes que se pueden formar con la palabra SACO es: P4 = 4! ; en dicha palabra no se encuentran letras iguales.
Veamos ahora con la palabra CHALECO, en este caso hay dos elementos iguales entre s, luego el nmero de permutaciones est dado por:
P
-
2 7
7! 2!
= 2.520 .
Observamos que para n = 8 elementos hay h1 = nmero de tes = 3; h2 = nmero de eses = 3 y h3 = nmero de uves = 2; entonces el nmero de permutaciones estar dado por:
P8
3 ,3 ,2
8! 3! 3! 2!
= 560
Si tenemos 5 estudiantes sentados alrededor de una mesa redonda, de cuntas maneras de pueden permutar?
En este caso de distribucin circular de los elementos, debemos primero que todo, fijar un elemento de referencia; as, llamemos los estudiantes con las letras A, B,
C, D, E; si fijamos el estudiante C, solamente quedan para intercambiarse los estudiantes A, B, D, E; si fijamos el estudiante A, pueden intercambiarse B, C, D, E y as sucesivamente. Observamos pues que de los 5 estudiantes slo quedan 4 para permutarse.
= 4! = 24 .
Luego
el
nmero
de
permutaciones
est
dado
por:
P C5
1.2.2.5
COMBINACIONES
Las combinaciones de orden m de n objetos: a1, a2, ...... an; son los grupos de m objetos que se pueden formar entre los n, de modo que dos cualesquiera difieran en algn objeto.
A diferencia de las variaciones, en las combinaciones, no importa el orden de sucesin de los elementos.
Cm
(n m)
n! m! (n - m)!
1 m n
Un ejemplo ilustrativo para la anterior definicin puede ser: Cuntas diferentes podemos extraer de las letras A, E, I, O, U?
ternas
En este caso consideramos que la terna (A, E, I) = (E, A, I) = (E, I, A) = (I, E, A) = (I, A, E) = (A, I, E), ya que no nos interesa el orden de colocacin de los elementos dentro de la terna, solo nos interesan todas aquellas ternas que difieran al menos en un elemento.
C3
5! 3! 2!
= 10
1.2.2.6
Si
1
- - - : Maneras.
n
---
;
n
estar
dado
por:
- - - = n
En general, en todo experimento, si hay n pruebas, cada una de las cuales pueden dar resultados independientes, el total de resultados diferentes ser h . As por ejemplo: Al lanzar un dado una vez, el nmero de resultados posibles es 6, o sea,
1 = 61 = 6 .
Si lanzamos el dado dos veces, n = 2 hay 2 = 6 2 = 36 resultados posibles; si se lanza el dado tres veces, n = 3 3 = 6 3 posibles. resultados
Podemos decir entonces, basados en la experiencia que podemos asociar la frecuencia h(A) con un nmero p(A), para cada suceso A dentro del experimento, de tal manera que p(A) = h(A) cuando n ; diremos entonces que p(A), es la
probabilidad del suceso A. La probabilidad de un suceso suele llamarse tambin frecuencia terica o verdadera.
El objeto de la teora de probabilidades es proporcionar un modelo matemtico adecuado a la descripcin e interpretacin de los experimentos aleatorios.
Veamos ahora, las definiciones de algunos de los elementos sobre los cuales se asienta la teora de probabilidades.
1.2.3.1
ESPACIO MUESTRAL
El espacio muestral
contiene un nmero finito de puntos o un nmero infinito numerable3 de puntos. As por ejemplo, en el lanzamiento de un dado, una vez, el espacio muestral S es = {1, 2, 3, 4, 5, 6}, que es un espacio con nmero finito de puntos. Ahora si el experimento consiste en lanzar una moneda legal, hasta que aparezca el primer sello, el espacio muestral es: S = {1, 2, 3, ...... }; Ya que el resultado deseado puede ocurrir en la primera, segunda, tercera, . . . , tirada. El espacio muestral S es continuo si contiene un nmero infinito no numerable de puntos. As por ejemplo, un experimento aleatorio consiste en observar la resistencia a la tensin de ciertas vigas, bajo las mismas condiciones; el resultado puede ser cualquier nmero positivo por consiguiente el espacio muestral es continuo.
Se llama numerable el conjunto infinito cuyos elementos se pueden numerar, es decir, poner en concordancia con cada elemento un nmero entero de modo que a distintos elementos les correspondan nmeros diferentes. Un conjunto infinito cuyos elementos no se pueden llevar a la correspondencia biunvoca con los nmeros enteros se llama No numerable.
1.2.3.2
SUCESO
Es el conjunto de resultados favorables o deseados en un experimento dado. Por ejemplo, un experimento aleatorio, consiste en lanzar dos dados y una moneda. Uno de los sucesos puede ser; A = suma de puntos menor que 4 para los dados y sello para la moneda, luego, A = {(1, 1, s); (1, 2, s); (2, 1, s)} como puede verse, el suceso A no es ms que un subconjunto del espacio muestral S.
Muchos autores suelen llamar los sucesos aleatorios como eventos. Cuando los elementos de un suceso coinciden con los elementos del espacio muestral decimos que es suceso seguro; cuando los sucesos estn formados por un solo punto del espacio muestral se denominan sucesos elementales; y cuando el conjunto de posibles resultados es el vaco decimos que el suceso de llama suceso imposible.
Partiendo de las caractersticas observadas en simples experiencias, podemos construir un modelo abstracto que nos traduzca y generalice, para aplicarlas en situaciones ms complicadas. Es decir, establecemos en forma axiomtica el clculo de probabilidades. Llamaremos P (A) a la probabilidad del suceso A en el experimento aleatorio, dentro del espacio muestral S. P(A) es una funcin de conjunto que satisface los tres axiomas siguientes:
1. P(A) 0 2. P(S) = 1
es
una
1.2.5 TEOREMAS
FUNDAMENTALES
DEDUCIBLES
DE
LA
TEORA
AXIOMTICA DE LA PROBABILIDAD 1.2.5.1 Si P(A) es la probabilidad de un suceso A, la probabilidad del suceso contrario a A es igual a UNO menos la probabilidad de A, es decir,
P(A ) = 1 - P(A)
Demostracin: Si
A A = S y A A' = ,
sea,
son
mutuamente
excluyentes,
por
P(S) = 1.
1.2.5.2
P( ) = 0 .
Demostracin:
Luego debemos probar que P(A) 1, por teorema 1.2.1, vemos que P(A) = 1 P
(A); pero P (A') 0 , por axioma primero P(A) 1 luego 0 P(A) 1.
1.2.5.3
Si A1 A2 P(A1 ) P(A2 )
Demostracin:
' Si A1 A2 A1 A1 A2 = A2
' A2 = A1 A1 1 ' 1 2
[ ] P [A (A A )] = P (A
c A1 A2
1.2.5.4
Para
cualquier
par
de
sucesos
A1
A2
se
tiene
que
P ( A1 A2 ) = P A1
' A2
)+ P (A
) (
A2 ) + P A2
' A1
P(A1
' A2
) = P(A1 ) - P(A1 A2 ),
3
' ' Por otra parte; A2 = (A1 A2 ) (A2 A1 ) y (A1 A2 ) (A2 A1 ) = ' P (A2 ) = P (A1 A2 ) + P (A2 A1 ) ' P (A2 A1 ) = P (A2 ) - P(A1 A2 )
1.2.6
En ciertos problemas, con espacio muestral discreto y nmero finito de puntos, (los juegos de azar por ejemplo), es realista suponer que la probabilidad asignada
hallar la probabilidad P(A) para un subconjunto A del espacio muestral, con n(A) puntos, cada uno con probabilidad
1 : n
P(A) =
Se puede comprobar que para un espacio muestral discreto con n puntos, la funcin P es funcin de probabilidad si cumple con los axiomas anotados anteriormente:
1 n
Es P (A) =
n(A) 0 n
n es el total de puntos en S.
As por ejemplo, sea el experimento lanzar un dado una vez. El espacio muestral S = {1, 2, 3, 4, 5, 6} donde cada punto, (o resultado), de S tiene igual oportunidad, es decir, P(1) = P(2) = P(3) = ...... = P(6) = Ahora, definamos el suceso A = nmero obtenido menor que 3
A =
1 6
{X / X
< 3}
A = { 1, 2}
P (A) =
n(A) 2 1 = = n 6 3
1.2.7
Es aquella que consiste en encontrar el valor de probabilidad, despus de repetirse el experimento un nmero considerable de veces. Por ejemplo; la probabilidad que tiene un jugador A de ganar cierto juego es P(A) = 3/5 y la probabilidad de perderlo es P(A) = 2/5; estas probabilidades son a posteriori, puesto que se conocieron despus de observar el juego de A repetidas veces.
Tanto la teora clsica como la frecuencial presentan serias dificultades, la primera en cuanto a la Ambigedad, de que parte siempre de espacios muestrales finitos y resultados equiprobables, pero cuando los resultados posibles generan un espacio muestral discreto infinito, como por ejemplo al hallar la probabilidad de que un nmero natural sea impar, dicha teora nos deja en nada; mientras que, la segunda teora presenta el inconveniente en cuanto a Repetirse el experimento un nmero considerable de veces; de ah la importancia que toma la teora axiomtica de la probabilidad, evitndonos los tropiezos o limitaciones de las teoras clsica y frecuencial.
1.2.8
PROBABILIDAD MARGINAL
Supongamos que el espacio muestral S, discreto formado por un nmero n finito de puntos, cada uno con igual probabilidad
1 . n
Ahora, hagamos una particin del espacio muestral S en m1 subconjuntos mutuamente excluyentes: A1, A2,A3,......, Am1 Hagamos otra particin de S en m2 subconjuntos mutuamente excluyentes, as.
B1, B2,B3,......, Bm2
Entonces los n puntos de S pueden clasificarse de la siguiente manera, utilizando la tabla de doble entrada:
La tabla indica, por ejemplo, que: el resultado n12 tiene a la vez el atributo A1 y el atributo B2; n11: nmero de veces en que ocurren simultneamente los atributos A1 y B1 respectivamente; y en general nij, es el nmero de veces en que ocurren simultneamente los atributos Ai y Bj. Luego la probabilidad de que sucedan Ai y Bj simultneamente ser:
P (Ai , B j ) = nij n
Pero si nos interesa solamente obtener la probabilidad del suceso Ai, sin interesarnos la clasificacin B, tendremos:
O bien, si nos interesa nicamente hallar la probabilidad del suceso Bj, estar dada por:
P Bj =
( )
m1
nij n
i =1
i =1
P(Ai B j )
y
B
m1
Aqu escogemos nicamente dos criterios de clasificacin A y B; pero es obvio que la idea de probabilidad marginal, se pueda generalizar a ms de dos criterios de clasificacin.
1.2.9
PROBABILIDAD CONDICIONAL
Vamos a definir un tipo especial de probabilidades, que se denominan probabilidades condicionales o relativas. La probabilidad del suceso A condicionada por el suceso B, o probabilidad de A habiendo ocurrido B, es por definicin:
P( A B ) = P (B ) Pr obabilidad que A y B ocurran simultneamente Pr obabilidad m arg inal de B
P( A B ) =
Aunque esta idea es completamente general; podemos describir esta probabilidad condicional utilizando el caso particular de espacio muestral discreto con nmero finito de puntos, e igual probabilidad para cada punto. Utilizando la particin del espacio muestral y la tabla de doble entrada que formamos para escribir la probabilidad marginal, tenemos.
Imaginmonos que se examina el resultado de un experimento aleatorio para un atributo pero no para el otro. Deseamos hallar la probabilidad de que el otro atributo tenga un valor determinado.
Supongamos que una vez realizado el experimento se observa que tiene el atributo B3, deseamos hallar la probabilidad de que tenga adems el atributo A2.
m1
i=1
i3
y de estos los
resultados favorables a A2 son: n23, de esta manera, la probabilidad de A2 cuando se sabe que ha ocurrido B3 es:
n 23
P ( A2 B3 ) =
n
i =1
m1
i3
P ( A2 B3 )
n23 = m1 n ni 3 i =1 n
P( A2 B3 ) =
P( A2 B3 ) P(B3 )
En general:
P (Ai B j ) =
P(Ai B j ) P(B j )
; es decir,
La probabilidad de Ai dado Bj, es igual a la probabilidad de que ocurran Ai y Bj simultneamente sobre la probabilidad marginal de Bj. Tambin se tiene que:
P (B j Ai ) = P (Ai B j ) P ( Ai )
Ahora, utilizando el criterio de probabilidad condicional, podemos definir el carcter de dependencia e independencia de sucesos. Si A y B son sucesos dependientes,
P(AB) P(B) P(AB) P (B A) = P(A) P( A B ) =
. P( A B ) . P (B A)
1.2.10
TEOREMA DE BAYES
A1 A2 A3 . . . . . Ai A j . . . . . An =
Y sea un conjunto H definido de tal manera que:
H = ( A1 H ) ( A2 H ) . . . ( An H )
[( Ai H ) (A j H )] = con
i j
P(H) = P ( A1 H ) + P( A2 H ) + . . . + P( An H )
P ( A1 H ) =
Entonces:
P(A1 ) P(H A1 ) + P(A2 ) P(H A2 ) + . . . + P(An ) P(H An )
P ( A1 H ) =
P(A1 ) P(H A1 )
1.2.11.1 PROBLEMAS
Un joyero posee tres cofres para guardar joyas: en uno guarda los artculos de oro, en otro los de plata y en el tercero el cobre. Tiene 30 artculos de oro, los cuales son 10 relojes y 20 anillos; 40 artculos de plata: 10 anillos y 30 relojes; y 10 artculos de cobre, as: 5 anillos y 5 relojes.
Si el joyero elige un cofre al azar y extrae un artculo, tambin al azar, que resulta ser un anillo. Cul es la probabilidad de que sea de oro?
Solucin:
Sea: O: Representa artculos de oro C: Representa artculos de cobre P: Representa artculos de plata A: Representa los anillo R: Representa los relojes
Lo que el problema nos pregunta, es lo siguiente: P(Sea de oro/ (dado que)Result anillo?)= P(O/A) = ?
Como el joyero escoge las urnas o cofres al azar y como son 3, cada uno tiene igual oportunidad de ser seleccionado, es decir, P(O) = P(C) =P(P) = 1/3. Adems el problema nos proporciona la siguiente informacin, as:
P( A O ) = P (R O ) P( A P )
20 2 5 1 = ; P( A C ) = = 30 3 10 2 10 1 5 1 = = ; P (R C ) = = 30 3 10 2 10 1 30 3 = = ; P (R P ) = = 40 4 40 4
P(O A) = P (O A) = P (O A) =
(1 3) . (2 3) (1 3) (2 3) + (1 3) (1 2) + (1 3) (1 4)
8 17
P (O ) . P ( A O ) P (O ) P( A O ) + P (C ) P ( A C ) + P(P ) P( A P )
1.2.11.2 Una caja con 1.000 tornillos contiene: 50 con defecto de tipo A 32 con defecto del tipo B 18 con defecto del tipo C 7 con defecto del tipo A y del tipo B 5 con defecto del tipo A y del tipo C 4 con defecto del tipo B y del tipo C 2 con defecto del tipo A, del tipo B y del tipo C
Si extrae un tornillo al azar, calcular: 1. La probabilidad de que el tornillo tenga un defecto del tipo A o del tipo b o de ambos. Solucin: Como se puede ver los sucesos son compatibles, es decir:
A B ; AC ; A B C
Lo que se nos pregunta no es ms que la probabilidad de la unin de los sucesos
A y B:
2. Hallar la probabilidad de que, tenga al menos uno de los 3 tipos de defectos. Solucin: Que tenga al menos uno implica que se presente uno solo o 2 o los 3 defectos; luego nos piden hallar:
P( A B C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC) 50 32 18 7 5 4 2 + + + 1000 1000 1000 1000 1000 1000 1000 43 P( A B C ) = 500 P( A B C ) =
Solucin: Sea D el suceso de tener al menos uno de los tres defectos; O sea
D = A B C; entonces D, ser el suceso no tener defectos de ningn tipo.
( A B' ) (A B) (B A' ) =
( A B' )
( A B ) (B A' ) = ( A B )
1.2.11.4 En un naipe de 40 cartas se hace una extraccin de 5 cartas y resultan 2 espadas. Cul es la probabilidad de que una de ellas sea el as? Cul es la probabilidad de que una sea el as y la otra el rey?
SOLUCIN:
Sea A el suceso extraer dos espadas en una muestra de 5 cartas. Sea el suceso B, extraer el as de espadas en la muestra de 5 cartas. Luego, la probabilidad que nos piden es: P(B/A)
P(AB) P(A)
P (B A) =
El suceso (AB) es entonces, extraer 2 espadas y una de ellas es el as de espadas, en la muestra de 5 cartas; luego:
P(AB) =
) (9 ) (30 ) (1 1 1 3 . (40 5)
) (1 1 : En las 10 cartas espadas, hay 1 as y ese es el que tomamos. (19 ) : Una vez considerado el as de espadas, la segunda carta de espadas, la
) (30 3 : Las otras 3 cartas que hacen parte de la muestra de 5, las tomamos
lgicamente de las 30 restantes, y podemos tomar de las 9 restantes.
P(A) =
Luego:
P(B/A) =
(19 ) ) (10 2
1 5
Para responder la segunda parte del ejercicio; definamos el suceso A de idntica forma como en el caso anterior y definamos que B sea el suceso Extraer as de espadas y rey de espadas en una muestra de 5 cartas, tenemos: El suceso (A B) : Extraer dos espadas, una el rey y otra el AS en una muestra de 5 cartas. Pero vemos que (A B) = B. Luego:
P(B/A) =
P(B/A) =
P(B/A) =
1.2.11.5 Se han adquirido 3.000 botellas de vino a $8 cada una; 2.000 a $9 cada una y 1.000 a $10 cada una. Se extrae una botella al azar y se vende a $9,50. Cul es la probabilidad de ganar; $1,50? 0,50?; de perder $0,50?
SOLUCIN:
Para ganar $1,50 es necesario extraer una botella de $8. Sea A el suceso que indique tal extraccin. Luego, P(A) =
Para ganar $0,50 es necesario extraer una botella de $9; llamemos B a este suceso, tenemos:
P(B) =
Ahora, para perder $0,50, es necesario extraer una botella de $10; llamemos C, este suceso; luego
P(C) =
1.2.11.6 Se tienen 3 libros de matemticas, 4 de fsica y 6 de qumica. Si se colocan en un estante al azar: Cul es la probabilidad de que los de qumica queden todos juntos?
SOLUCIN
adems los 6 libros de qumica pueden cambiar de lugar entre ellos, sin dejar de permanecer unidos; luego tenemos:
P(A) =
8! 6! 2 = 13! 429
Cul es la probabilidad de que en cada extremo quede un libro de fsica y en el centro un libro de qumica? Sea A el suceso un libro de fsica en cada extremo y un libro de qumica en el centro
P(A) =
n(A) n
Uno de los extremos se puede ocupar de 4 maneras, el otro de 3 maneras y la posicin central de 6 maneras, quedan 10 libros para los 10 restantes puestos, que se pueden llenar de 10! = P10 maneras. Luego; n(A) = 4 x 3 x 6 x 10!
y
n = 13!
P(A) =
1.2.11.7 Un empleado que trabaja en cierta factora debe elegir dos caminos para llegar a su casa, uno de ellos es a travs de un tnel y el otro a travs de un puente. La ruta a elegir se hace al azar, siendo 1/3 la probabilidad que tiene de elegir el tnel y 2/3 la de escoger el puente. Si elige el tnel llega a su casa a las 6 p.m., el 75% de las veces, mientras que si escoge el puente llega a las 6 p.m., el 70% de las veces.
Cierto da llega a casa a las 6 p.m. y al preguntarle su esposa qu camino eligi l responde, que el puente. Cul es la probabilidad de que haya respondido la verdad?
P(A) = 1/3
Sea B el suceso de elegir el puente P(B) = 2/3 Sea C el suceso de llegar a la casa a las 6 p.m.
La probabilidad pedida es, entonces: P(B/C) Adems, el problema nos da la siguiente informacin:
P(C/A) = 0 ,75 ; P(C/B) = 0 ,70 P(B C) P(B) P(C/B) = P(C) P(B) P(C/B) + P(A) P(C/A) (2 3) (0,70) P(B/C) = = 0 ,65 (2 3) (0,70) + (1 3) (0,75) P(B/C) =
1.2.11.8 Se extraen naipes con reemplazamiento5 de una baraja de 40 cartas, (Naipe espaol), hasta que aparezca el primer as. Cul es la probabilidad de que el nmero de extracciones hubiese sido 5?
SOLUCIN:
Para que la quinta extraccin se obtenga el primer as, en las cuatro extracciones anteriores, no debe aparecer ningn as; por consiguiente, la probabilidad es:
4
36 4 P(o) = . = 0,066 40 40
= P(No aparezca en la primera extraccin) x P(No aparezca en la segunda) x ...... x P(No aparezca en la cuarta) x P(Aparezca en la quinta extraccin).
P(o) =
36 35 34 33 4 x x x x = 0,073 40 39 38 37 36
Quiere decir que todo elemento que fue extrado una vez observado, regresa a su poblacin de origen, y vuelve a tener oportunidades de salir, en este caso de muestreo la poblacin permanece constante.
1.2.11.9 Una urna contiene 25 piezas, de las cuales 10 son defectuosas. Se toman dos piezas al azar, de la urna. Cul es la probabilidad de que ambas piezas sean buenas? Qu ambas sean defectuosas? Que una sea buena y la otra defectuosa?
SOLUCIN:
Empecemos por responder la primera pregunta as: Sea A1, suceso Pieza seleccionada es buena, en la primera extraccin. Sea A2 suceso Pieza seleccionada es buena, en la segunda extraccin.
15 14 7 . = 25 24 20
Tambin podemos responder esta pregunta, haciendo uso del anlisis combinatorio; as:
n(H) n
n = C 25 2
15 ) ( 15! 13! 2! 7 P(H) = 2 = = 25 ( 2 ) 25! 23! 2! 20
Sea G: Las 2 piezas resultan ser defectuosas Sea R el suceso Una resulta ser buena y la otra defectuosa Sea H, las dos piezas seleccionada son buenas
n(G) P(G) = = n
) (10 2 = ) (25 2
3 y 20
P(R) =
buena es la primera consideracin; y la segunda consideracin, que la primera sea buena y la segunda sea mala; as:
P(R) =
10 15 15 10 1 x + x = 25 24 25 24 2
1 = P(H) + P(S) + P(R)
1 = 7 / 20 + 3 / 20 + 1/ 2
VERIFICACIN:
1 = 1, Verdadero!
SOLUCIN:
P(A) =
n(A) n
n(A) = V19 2! = 18
n = V 2 = 90
10
18 1 = 90 5
P( 3 y 4 sean vecinos) = P( 3 y 4 ) + P( 4 y3 ) = 9
1 1 1 1 2 1 x +9 x = = 10 9 10 9 10 5
1.2.11.11 Se lanza una moneda "Honesta" 15 veces y se registra su resultado l cabo de cada tirada. Determnese la probabilidad de que ocurra "al meno na cara", al final e los 15 lanzamientos. SOLUCIN: Sea "A" el suceso obtener al menos una cara \ sabemos que el nmero de resultados posibles de un experimento aleatorio est dado por: Kn \ K es el nmero del evento simple, en este caso, los resultados de lanzar una moneda una vez son
2: cara o sello y "n" representa el nmero de veces en que se repite el evento simple n=15. Ahora
Como cada ocurrencia de evento simple tiene la misma probabilidad de ocurrir y sus resultados son independientes, es decir,
O sea:
Lo que significa que prcticamente tenemos la seguridad de observar por lo menos una cara. 1.2.11.12 Una urna contiene "n" bolas azules y "m" bolas rojas. Si de la urna tomamos una muestra aleatoria de "K" bolas Cul es la probabilidad de que al sacar una bola sea Azul? SOLUCIN: n+m = Total de Bolas K = Total de bolas en la extraccin
La probabilidad pedida = P ( ) =
n + m 1 n VK n = . n +m n+m VK
1.2.11.13 Del ejercicio anterior [1.2.11.12], al extraer la muestra aleatoria de K bolas; nos preguntamos: 1.2.11.13.1 Cul es la probabilidad de que sean "P" azules donde el muestreo se hace "Con remplazamiento"? 6 SOLUCIN:
P veces Un suceso de la forma AAA........A K P veces Donde la probabilidad de RRR......R
K P
En este caso el valor de probabilidad varia de una extraccin a otra; as: Para una ocurrencia posible, la probabilidad ser:
6 7
Con remplazamiento" ; Se hace la extraccin y regresa a la poblacin. "Sin remplazamiento" ; Se hace la extraccin y no regresa a la poblacin.
K P () = P
n+mK np n+m n
1.2.11.14 Cul es el nmero mnimo de veces que es preciso lanzar dos dados para que la probabilidad de sacar un seis doble sea mayor que la de no sacarlo? SOLUCIN: La probabilidad de obtener el resultado (6,6) = 1/6 * 1/6 = 1/36 La probabilidad de no obtener un (6,6)= 1- 1/36 = 35/36 si se lanza el dado "n" veces, la probabilidad de que no salga un seis doble es : (35/36)n luego la probabilidad de que salga al menos una vez ser 1-(35/36)n , de donde, n > log2 /(log36- log35)
1.2.11.15
funciona cuando todos ellos estan cerrados. El funcionamiento de los interruptores es independiente en cada uno de ellos, tanto en lo que se refiere al cierre o la apertura, y para cada uno de ellos, la probabilidad de que no funcione es 0,1. Cul es la probabilidad de que no funcione el mecanismo en conjunto? SOLUCIN:
" el suceso que nos indica que el mecanismo "Falle" " el suceso que nos indica que el mecanismo "No Falle"
Sea Sea
: Los sucesos que indican que el interruptor J est cerrado . \ J= 1,2,3,4. : Los sucesos complementarios, es decir que el interruptor J est abierto.
J= 1,2,3,4
Es decir que funcione el interruptor 1 "Y" el interruptor 2 "Y" el interruptor 3 "Y" el interruptor 4; Luego P(Mecanismo funcione) = = P(S1 S2 S3 S4 )
Como los SJ son independientes = P(S1) P(S2 ) P(S3) P(S4 ) = 0.9 * 0.9 * 0.9 * 0.9 = (0.9)4 = 0.6561 Entonces P(F) = 1 - 0.6561 = 0.3439
Tambin se puede resolver el problema definiendo a
2. VARIABLES ALEATORIAS Tomemos un espacio muestral S, con funcin de probabilidad P(A) definida para un suceso A; si X es una funcin de valores reales definida en S, (o sea que cada punto del espacio muestral se le hace corresponder un punto del eje X), se dice que X es una variable aleatoria unidimensional. En general, si cada punto de
S, se hace corresponder con un punto, (X1, X2, --- Xn) del espacio n-dimensional, se
tiene una variable aleatoria pluridimensional. Por ejemplo: Sea el experimento aleatorio lanzar una moneda dos veces. El espacio muestral S = {(c,s); (s,c); (c,c);
(s,s)} consta de 4 puntos. Sea X la variable aleatoria que nos representa el
nmero de sellos. Dicha variable puede tomar los siguientes 4 valores, correspondientes a los 4 puntos de S: 1, 1, 0, 2.
Estando la funcin de probabilidad completamente definida para el espacio muestral S, como P(A) =
P(x = 0 ) = P(x = 1 ) =
1 , para designar la probabilidad de que el nmero de sellos sea cero; 4 1 : Probabilidad de obtener un sello y 2
P(x = 2 ) =
Veamos otra forma, de tratar el experimento anterior, as: Sea X la variable aleatoria que representa el nmero de sellos y sea Y la variable aleatoria que representa el nmero de caras. La variable aleatoria bidimensional transformar los puntos de S en puntos del plano X Y. Luego a: (c,c) corresponde x = 2, y = 0, o sea, (2,0) (c,s) corresponde x = 1, y = 1, o sea, (1, 1) (s,c) corresponde x = 1, y = 1, o sea, (1, 1) (s,s) corresponde x = 0, y = 2, o sea, (0, 2)
Entonces, P[(2 , 0 )] =
1 1 ; P[( 1, 1 )] = y as sucesivamente 4 2
En general, es aquella variable aleatoria con un nmero finito o infinito numerable de puntos. En el caso de que la variable sea unidimensional, con valores posibles
X1, X2, ......, Xn; y con probabilidades: f(x1), f(x2), f(x3), ...... - f(xn) , para cada uno de dichos valores, el conjunto cuyos
elementos son los pares ordenados, ((x, f(x)), es llamado funcin de densidad, o funcin de cuanta o funcin de probabilidad de la variable aleatoria X. Para cualquier subconjunto A de los puntos X1, X2, ......, Xn; tenemos entonces que:
P(A) =
X A
f(x)
Supongamos que un experimento aleatorio consiste en lanzar dos dados y registrar el nmero posible de puntos. Cada resultado puede asociarse con el valor de una variable aleatoria X; por lo tanto, X toma los valores: 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12. Calculemos ahora f(x), o sea, la probabilidad de que aparezcan X puntos.
Sabemos que el espacio muestral consta de 36 puntos, (1,1), (1,2), . . ., (1,6); (2,1). (2,2) . . ., (2,6); (3,1), (3,2), . . ., (3,6); (4,1). (4,2) . . ., (4,6); (5,1), (5,2), . . ., (5,6); (6,1). (6,2) . . ., (6,6). El nmero de casos en que pueden caer X puntos es:
X1 : para X = 2, 3, 4, 5, 6, 7 X = 8, 9, 10, 11, 12 y 13 X : para
Luego
f(x) = f(x) =
X =2
X-1 36
12
13 - X 36
= 1
y f(x) 0
X =8
Para todo X, definido del experimento tratado. Una vez conocida f(x) podemos hallar las diversas funciones de distribucin relativas a X. Denominemos
Fx (x) = P[x x ] = Fx (x) = P[x x ] como funcin de distribucin
f(x)
Por ejemplo:
x-1 1 = 36 6
P( 6 x 8 ) = P( 6 x 7 ) + P(x = 8 ) =
x =6
x - 1 13 - X + , x = 8 36 36
Las condiciones que debe cumplir f(x) para ser funcin de densidad de una variable aleatoria discreta unidimensional, son: 1. Si el dominio de la funcin es X1, X2, . . . Xn f(x) 0
2.
f(xi) = 1
tambin, (Remitindonos al ejercicio anterior), la probabilidad
Hallemos
condicional de que el nmero de puntos sea menor que 3, cuando se sabe que dicho nmero es menor que 8.
Sea A el suceso Nmero de puntos menor que 3 Sea B el suceso Nmero de puntos menor que 8 Deseamos hallar:
P(A B) P(B)
P(A/B) =
(A B)
= {X x = 2}
P(A B) =
Por otra parte,
x-1 ;x = 2 36
P(A B) =
1 36
P(B) =
21 x-1 = 36 x = 2 36
7
1 36 1 x = 36 21 21
En general, las funciones de densidad de variable discreta pluridimensional, tiene las mismas propiedades de las funciones similares de una variable. Podemos decir entonces que una funcin f(x1, x2, ...... , xn) es una funcin de densidad de n variables reales si y solo s: 1. f ( x1 , x 2 , . . . . ., x n ) 0 2.
x x
1 2
...
f ( x , x , . . . ., x n ) x
1 2
= 1
Las funciones de densidad conjunta o de dos variables aleatorias discretas, se representan entonces de esta misma manera.
Sea X la variable aleatoria de tipo discreto, que nos representa el nmero de puntos del dado y Y la variable aleatoria discreta que nos representa el nmero de puntos del dado
X = 1, 2, 3, 4, 5, 6 Y = 1, 2, 3, 4, 5, 6
f(x, y) =
puntos en el dado .
1.
f(x, y) =
1 36
f(x, y)
>
2.
36
y =1 y =1
= 1
Una urna contiene 6 bolas blancas, 5 bolas negras y 4 bolas azules. Si se extraen 4 bolas, hallar la funcin de densidad conjunta del nmero de bolas negras y azules.
SOLUCIN: Sea X la variable aleatoria que representa el nmero de bolas azules en la muestra. Sea Y la variable aleatoria que representa el nmero de bolas negras en la muestra. El recorrido conjunto de las variables X e Y Conjunta est dado por : y su funcin de Probabilidad
0 X + Y 4 f(x, y) =
5 6 (4 x ) ( y ) (4 - (x+ y) ) (15 4)
De igual manera podemos hallar la funcin de distribucin correspondiente a una situacin deseada, as por ejemplo,
Hallemos,
F( 2 , 1 ) = P(X 2, Y 1 ) = f( 0, 0 ) + f( 0, 1 ) + f( 1, 0 ) + f( 1, 1 ) + f( 2, 0 ) + f( 2, 1 )
F( 2, 1 ) =
f(x, y)
y =0 x =0
Al hablar de funcin de densidad conjunta podemos definir la funcin de densidad marginal de X o de Y. Llamemos entonces f1(x) la funcin de densidad marginal para X y f2(y) la funcin de densidad marginal para Y.
f(x, y) =
Para: X = 1, 2, ---- 4
Y = 1, 2, ---- 5 f(x, y) = 0 f1(x) =
4 -x
f(x,y)
y =0 4 -x y =0
f1 (x) =
5 6 (4 x ) ( y ) (4 - (x+ y) ) (15 4)
Observamos que la funcin de densidad marginal de X, la calculamos utilizando el recorrido de la otra variable, con el fin de que la conjunta nos quede en trminos de una sola variable.
Ahora:
4 -y
f 2 (y) =
f(x, y)
x =0
Si tenemos una funcin de densidad de variable discreta pluridimensional en general, podemos hallar la funcin de densidad condicional que deseemos; para el caso de funcin de densidad conjunta f(x, y), se tendrn dos funciones de densidad condicional, as:
1. G(xy) = P(x/y) =
2. H(xy) = P(y/x) =
Si nos remitimos de nuevo al ejemplo de la distribucin de las bolas negras y azules; tenemos:
g(x,y)
g(x,y) =
6 (4 x) + y) 4 (x 15 ) ( 4 4 6 ) ( x 4(x+ y)
4 y x =0
Es la que puede tomar cualquier valor dentro del intervalo que se considere; es decir, es aquella que toma un nmero infinito de valores. El concepto de funcin de densidad f(x), difiere en este caso al de variable discreta, ya que, aqu no es lgico hallar la probabilidad en un punto sino en un intervalo. Ya habamos visto que P(X x) = Fx (x) para < X < diremos que Fx(x) es la funcin de distribucin, (acumulativa), para la variable continua; podemos desde luego hallar la probabilidad en cualquier intervalo; encontremos:
P ( a < X b)
Sea A el suceso : Sea B el suceso : Sea C el suceso :
{X / X
a}
{X / X
b} b}
{X / a < X
P ( x X x + x) = Fx ( x + x) Fx ( x)
Dividiendo por x :
P ( x X x + x) Fx ( x + x) Fx ( x) = x x
( x X x + x) d . = Fx ( x) = f x ( x) x dx
O sea, que la primera derivada de la funcin de distribucin es la funcin de densidad, (En el caso, claro est, de variables aleatorias continuas). O tambin vale afirmar que:
x
Fx ( x) = P( x X ) =
f (u)du
Las propiedades que debe cumplir fx(x) Para que sea funcin de densidad de variable aleatoria, son: Dominio de fx(x), tal que X es real
f x ( x) 0x ( , )
1. 2. 3.
( x)dx = 1
Veamos el siguiente ejemplo ilustrativo, a la situacin que acabamos que ver: La variable aleatoria X tiene como funcin de densidad:
f x ( x) = 2 x f x ( x) = 0
Hallar:
12
1. P(X < 1 2 ) =
12
P(X < 1 2 ) = 1 4 = Fx ( 1 2 )
1/2
1/4
2xdx = 16
x
3. Fx (x) = P(X x) =
0 x
f(u)du
Fx (x) =
Fx (x) = 2udu = X 2
0
0du + f(u)du
0
]0 = X 2
x (0,1)
DE
DENSIDAD
PARA
VARIABLE
CONTINUA
PLURIDIMENSIONAL
f(x1 , x2 ,..., xn ) debe ser 1. f(x1 , x2 ,..., xn ) 0 X i ; i = 1,2,...., n 2. X 1 : Real; X 2 : Real;...; X n : Real
3.
2.7 ESPERANZA MATEMTICA La esperanza matemtica, valor esperado o media de la variable aleatoria X se define como:
n
E ( x) =
Xf
En estructura, E(x) es similar a al media aritmtica comn, X , obtenida de los valores X1, X2, . . . ., Xn ; que observamos en una muestra, con frecuencias relativas
h1, h2, . . . , hn respectivamente , as : X =
n
X i hi
i =1
hi =
ni ; en donde si el n
tamao de la muestra n es muy grande hi f(xi ) (segn lo que se afirm en la teora frecuencial de la probabilidad). TERICAMENTE E(x) significa el valor central de la distribucin de probabilidad. La esperanza matemtica tiene las siguientes propiedades principales: 1. E(x) al igual que la media, es un nmero que depende de todos los valores de la serie y de sus respectivas probabilidades, ya que todos ellos entran en su clculo. 2. Si X e Y son variables aleatorias, entonces :
E (X + Y) = E(X) + E(Y)
3. Si A es una constante y X una variable, E(Ax) = A E(x) 4. Se X e Y son variables aleatorias independientes E(X.Y) = E(X) E(Y)
7. La esperanza matemtica es un valor que oscila en el intervalo (Mnimo Xi; mximo Xi), en donde, tiende a situarse en el centro, para as considerarse representativa de los valores de la serie de datos. 8. Si X es variable aleatoria y a una constante,
E ( x + a) = E ( x) + a
9. X variable aleatoria y , a y b constantes, E (ax + b) = aE ( x) + b
2.8 MOMENTOS CON RESPECTO AL ORIGEN Los momentos con respecto al origen de una variable aleatoria X, son los valores esperados de X .
E ( X ) = ( xi) f ( xi)
i =1
E( X ) =
f ( x)dx
E (( x a ) ) =
( x a)
f ( x)dx
2.10
Llamaremos, pues, de ahora en adelante, la media de la distribucin de la variable o media poblacional con la letra griega
E (( x ) ) =
(x )
. f ( x)dx
El momento de orden uno o primer momento, con respecto a es igual a cero , o sea : E [( x )] = 0; ya que E ( x ) = E ( x) = = 0 .
2.11
Si X es una variable aleatoria discreta, donde X = x1, x2, ...., xn con media E ( x) = ; la Varianza de X, a la cual llamaremos Var(x), se define como el momento de orden dos, con respecto a ; es decir,
VAR( x) =
(x )
f ( x)dx
Var ( x) = x
Veamos por ejemplo, si X es una variable aleatoria continua, con funcin de densidad f(x):
VAR ( x) = VAR ( x) =
(x )
. f ( x)dx
2 X f ( x)dx 2
Xd ( x)dx +
f ( x)dx
Pero
f ( x)dx = E ( x 2 )
2 X f ( x)dx = 2 X f ( x)dx = 2 E ( x) = 2 . = 2 2 :
Luego:
VAR ( x) = E ( x 2 ) 2 2 + 2 VAR ( x) = E ( x 2 ) 2
2.12
M x (t ) = E (e ) = e tx . f ( x).dx
tx
La importancia de la funcin generadora de momentos, radica en el hecho de que ella es nica y determina completamente la distribucin de una variable aleatoria, esto es, si dos variables aleatorias tienen una misma funcin Generatriz de momentos, deben tener igual distribucin.
La demostracin de esta propiedad omitida en estos apuntes, se basa en la unidad que existe entre la f.g.m. y la funcin de distribucin. La existencia de la funcin generatriz de momentos para b<t<b, donde b es nmero positivo, garantiza la existencia de las derivadas de cualquier orden en
t=0.
2.12.2
TEOREMA:
Demostracin:
yt
M y (t ) = E e = E e
M y (t ) = e .M x (ta )
tb
( ) [
t ( ax + b )
] = E (e ) = E (e
t . ax + tb
tax
. e = e .E e
tb
tb
( )
tax
2.12.2 TEOREMA. Sean X, Y, variables aleatorias independientes y Z=X+Y, con funciones generatrices de momentos, Mx(t), My(t) y Mz(t) respectivamente, entonces:
Mz(t) = Mx(t) My(t)
DEMOSTRACIN:
M z (t ) = E e
[ ] ) = E (e = E (e . e )
tz t ( x+ y ) tx ty
= M x (t ).M y (t )
M xi (t)
n
Si
Z = X i , entonces
i =1
M z (t) = M xi (t)
i =1
2.13
FUNCIN CARACTERSTICA
Esta funcin siempre existe y se encuentra definida en el campo de los nmeros complejos. Cumple las propiedades de la f.g.m. Slo que se definen en un marco mucho ms amplio como el de los nmeros complejos. Se define como:
( ) = E e
( )
ix
ix
( ) = E e
( )= e
x
ix
. f x ( x)
( ) = E e
( )= e
ix
ix
. f x ( x)dx
2.14
EJERCICIOS
2.14.1 Supngase que un nmero se selecciona al azar entre los enteros del 1 al 20. Sea X el nmero de sus divisores. Construir la funcin de densidad de X. Cul es la probabilidad de que haya 4 o ms divisores al extraer un entero al azar.
SOLUCIN:
Hagamos el siguiente anlisis; para detectar el nmero de divisores del 1 al 20, as:
1 2 3 4 5 6 7 8 9 10 11 12 12 14 15 16 17 18 19 20
2.14.2 Se lanza un dado hasta que aparezca seis. Hallar la funcin de densidad del nmero de tiradas.
Divisores
1 2
1 3
1 2 4
1 5
1 2 3 6
1 7
1 2 4 8
1 3 9
1 2 5 10
1 3 4 6 12
1 7
1 3 5
1 2 4 16
1 3 6 9 18
1 4 5 10 20
11 2
13 2
17 2
19 2
14 15 8
X :
5 +1+ 3 9 = 20 20
P ( x = 1) = f x (1) =
1 6
Que aparezca al cabo de la segunda tirada, eso implica, que necesariamente en la primera tirada ocurrieran los resultados: 1, 2, 3, 4 o 5 nicamente y en la segunda aparecer el 6.
5 1 P ( x = 2) = f x (2) = . 6 6
5 5 1 5 1 5 5 1 P ( x = 3) = f x (3) = x x = . x x 6 6 6 6 6 6 6 6
5 5 5 1 5 P ( x = 4) = f x ( 4) = x x x = 6 6 6 6 6
1a 2a 3a 4a 3 1a 2a 3a 2
1 5 5 5 1 . x x x 6
6 6 6 6
. . .
. . .
. . .
x 1
5 P(x = x) = f x ( x) = 6
1 . 6
2.14.3 De un lote de 10 televisores hay 4 defectuosos; se extrae una muestra de 3 sin reemplazamiento. Hallar la funcin de densidad del nmero de defectuosos en la muestra. Sea X la variable aleatoria que representa el nmero de defectuosos en la muestra.
P ( X = x) = f x ( x) = Casos favorables Casos posibles
( )
posibles de tamao 3.
4 )( 6 ( x . 3 x ) X : 0, 1, 2, 3. f ( x) = ) (10 3
x
f x ( x) = 0
para x {0 , 1, 2 , 3}
Encontrar C y hallar P ( x 5)
SOLUCIN: Sabemos que para que fx(x) sea funcin de densidad es necesario que se cumpla que:
f
x =0
( x) = 1
f x ( x) 0
Partiendo de
( x) = 1; tenemos:
c + 2c + 2c + 3c + c2 + 7c2 + c = 1 10c2 + 9c 1 = 0
c=
9 + 81 + 40
20 9 11 c= 20
9 + 121 20 c = 2 / 20 c = 1
Pero como f x ( x) 0
Que c = 1 / 10
Ahora,
1 + 2 + 17 20 1 = = 100 100 5
Tambin se puede resolver esta pregunta, utilizando el complemento; ya que sabemos que la probabilidad en todo el espacio o recorrido de la variable es 1, tenemos:
P ( x 5) = 1 P ( x < 5) = 1 P ( x 4) = 1 Fx (4) = 1 f ( x) = 1 { f x (0) + f x (1) + f x (2) + f x (3) + f x (4)} 0 + 1 + 2 + 2 + 3 = 1 10 8 2 1 = 1 = = 10 10 5
x =0
2.14.5 Una variable X tiene su grfico de distribucin, (rea), en forma de tringulo rectngulo de base 5, para X entre, 2 y 7. La pendiente de la hipotenusa es positiva. Dibujar el grfico y hallar P ( x 4) y P ( x > 5) .
Debemos encontrar la altura h del tringulo, partiendo de que el rea, (Espacio muestral), debe ser igual a la unidad, as:
rea :
bxh =1 2
5 xh 2 =1 h = 2 5
Ahora para hallar P ( x 4) no es ms que el valor del rea del tringulo pequeo; para ello es necesario averiguar h; por tringulos semejantes se tiene que:
h 5 2/5 5 = = h' 2 h' 2 4 4 5h ' = h ' = 5 25 2 4 / 25 4 Luego, P ( x 4) = = 2 25
En este ejercicio, bien lo podemos trabajar, como venamos haciendo o bien, hallando la funcin, (ecuacin), que acta en dicho campo, (espacio).
Para ello utilizamos la ecuacin de la lnea recta que pasa por dos puntos, es decir, la ecuacin de la recta que pasa por los puntos:
( x1 , y1 )
( x2 , y 2 ) ( 7 , 2/ 5 )
(2 , 0) y
Y2 Y1 ( x x1 ) x 2 x1
Y Y1 =
2/5 0 ( x 2) 72 2 4 Y= x 25 25 Y 0 =
Luego:
f x ( x) =
2 4 x 25 25
X [2, 7 ] X (2, 7)
f x ( x) = 0
7
si
4 2 P ( x > 5) = x dx 25 25 5 16 = 25
O tambin;
= 1 P( x 5)
4 2 = 1 x dx 25 25 2 16 = 25
5
2.14.6 Si fx(x) = 4K (x3-1) para 1 < x < 10 , es una funcin que determina el tiempo de ocurrencia de un experimento. Hallar el valor de K, para el cual f(x) es funcin de probabilidad. Para que f(x) sea funcin de densidad de variable aleatoria continua, es necesario:
1. Dominio de X, sea real 2. f ( x ) 0
3.
f ( x)dx = 1
Segn las 2 primera condiciones, implica que el valor de K debe ser positivo para que f ( x) 0
1
10 1 3
1)dx + 0dx = 1
10
x4 = 4K X = 1 4 1 K= 9963
3. DISTRIBUCIONES PROBABILSTICAS
3.1
Este modelo de probabilidad de refiere en general, a aquellos experimentos que consisten en un nmero de pruebas independientes, en la cual se llamar p la probabilidad de xito de cada prueba y q=1-p, la probabilidad de fracaso. Para que un experimento se pueda calificar como Binomial8 debe presentar las 4 propiedades siguientes:
1. Debe haber un nmero finito de pruebas. 2. Cada prueba debe tener como resultado un xito o un fracaso. 3. Todas las pruebas deben tener idnticas probabilidades de xito. 4. Debe haber independencia entre cada una de las pruebas.
Veamos ahora una serie de ejemplos en donde se cumple y en donde no se cumple, cada una de las propiedades anteriores. 1. Se lanza una moneda 5 veces; n=5 Luego se cumple la primera propiedad. Se lanza una moneda hasta que aparezca cara. No hay un nmero finito de pruebas, luego aqu no se cumple la primera propiedad.
2. Al tirar una moneda aparecer siempre cara o sello cada una con probabilidad 1/2 ; una de ellas se puede considerar xito segn el caso y la otra Fracaso. Cumple la segunda propiedad.
8
Es decir, su experimentacin se da a travs del muestreo con reemplazamiento o en el muestreo sin Reemplazamiento que provenga de Poblaciones muy grandes y tamaos de muestra relativamente grandes.
Supongamos que en una jaula haya 3 ratones: Uno blanco, uno gris y otro negro. Si se considera xito extraer ratn blanco y Fracaso extraer ratn gris; qu se podr decir entonces si la extraccin fuera ratn negro? Luego en este caso no se cumple la segunda propiedad.
3. Al extraer una carta con reemplazamiento 4 veces de una baraja ordinaria, la probabilidad de extraer un as es:
4 1 = 40 10
y permanece constante.
Cumple la tercera propiedad. Si la extraccin se hace sin reemplazamiento, la probabilidad de xito vara de una prueba a otra; luego no se cumple la tercera propiedad. 4. Citando la situacin anterior, se puede adaptar aqu, ya que al hacer extracciones con reemplazamiento los sucesos son independientes y si se hacen sin reemplazamiento seran dependientes. Q Ahora, para analizar completamente la distribucin Binomial y sus caractersticas, empecemos por definir la distribucin de Bernoulli: Un ensayo de Bernoulli, es aquel experimento en el cual solo hay dos resultados que nos interesan: El suceso A y el suceso A. As por ejemplo, Al lanzar 1 moneda A: caer cara A = caer sello Al lanzar 1 dado A: nmero obtenido es par A : nmero obtenido es impar. Al elegir una persona al azar, en una ciudad C A : la persona elegida naci en C A : la persona elegida no naci en C. Luego tenemos que A A' = ... A A' = S A un ensayo de Bernoulli, le hacemos corresponder una variable aleatoria
X, as: 1 : Si se presenta el suceso A X = 0 : Si se presenta el suceso A'
Probabilidad de fracaso
Sea X la variable aleatoria que se distribuye como un ensayo de Bernoulli, donde su funcin de densidad fx(x), est dada por :
f x ( x) = P ( X = x) = p x .q 1 x ; x = 0,1 f x ( x) = 0 para x {0, 1}
Podemos decir tambin que un Ensayo de Bernoulli se conoce con el nombre de Binomial con parmetros (1, p) y podemos escribir b(1, p). CARACTERSTICAS DE LA BINOMIAL (1, p ) ;
b(1, p)9
3.1.1.1
= X . p x .q 1 x
x =0
= 0+ p = p E ( x) = = p
2. VARIANZA. Var ( x ) =
x = E( x 2 ) (E (x ))
2
E(x ) = X 2 .f(x)
2 x =0
x = p p 2 x = pq
= p(1 p)
10
M x (t ) = E (e ) = e . f x ( x)
tx tx x =0 t
= e . f x + e . f x (1) M x (t ) = q + p e
t
t .0
4. FUNCIN CARACTERSTICA
X ( ) = E (eix ) = eix . f x ( x)
1 x =0
X ( ) = q + p ei
3.1.1.2
=e
(i ).0
. f x (0) + e . f x (1)
b(n, p)11
Sean X1, X2, X3, ...... , Xn; Variables aleatorias independientes, todas binomiales (1, p); es decir:
Notacin abreviada
X = X1+ X2+ X3+ X4+ X5, es una Binomial (5, p); donde X representa el nmero total
de xitos, en 5 ensayos de Bernoulli. Veamos otro ejemplo ilustrativo; sea el experimento aleatorio lanzar una moneda 10 veces, entonces definimos: Sea : X1 : nmero de caras en el primer lanzamiento.
X2 : nmero de caras en el segundo lanzamiento. . . . . . .
lanzamientos. Los posibles valores de X = {0, 1, 2, ......, 10} Y p = 0.5 (Probabilidad de caer cara)
X ~ b (10, 0.5)
3.1.1.3
CARACTERSTICAS DE LA b(n, p)
Cada Xi ~ b(1,p)
E(X) = E(x1+x2+ --- +xn) = E(x1)+ E(x2)+ --- +E(xn) = p+ p + ...+p n veces
Luego :
luego:
x
2
y cada Xi ~ b (1, p)
M x (t ) = E e
Mx
( ) (q + p e )...(q + p e ) = (q + p e ) (t ) = (q + p e )
= q + pe
t n t
= M x1 (t ).M x2 (t )...M xn (t )
t t n
( ) = E e
( ) = (q + p e )
ix
i n
La hallamos en forma similar a Mx(t), o tambin basta con hacer t = i en Mx(t) para as obtener
( ) .
5. Hallemos, el valor de la funcin de probabilidad, (Modelo), de la distribucin Binomial (n, p). Encontremos fx(x) por medio de la funcin caracterstica , as:
( ) = E e
i n
( )= e
ix n x =0
ix
f x ( x)
( ) = q + p e
i n n
[(q + p e )]
= e
x =0
ix
f x ( x)
n
Resaltemos que,
(a + b )
( )
(q + p e ) (q + p e )
i n
=
x =0 n
( )
n q n x p i x e
ix
( )
i n
= n x
x =0
( )e
2
q n x p x
(n x )e
n x =0
ix
q n x p x = e f x ( x)
ix x =0
Probemos que fx(x) es funcin de probabilidad: Es obvio que fx(x) 0. Ahora resta, saber si
(n x )p
n x =0 n
q n x = 1
(n x )p
n x =0
3.1.1.4
PROBLEMA
Si la probabilidad de acertar en un blanco es 1/5 y se hacen 10 disparos en forma independiente. Cul es la probabilidad de acertar por lo menos 2 veces. Encuntrese tambin, la probabilidad de acertar en el blanco al menos 2 veces, si suponemos que se acert por lo menos 1 vez?
SOLUCIN
p=1/5 : Probabilidad de acertar en el blanco o probabilidad de xito. q=4/5 : Probabilidad de no acertar o sea probabilidad de fracaso. n=10: El experimento es claramente Binomial.
X ~b (10, 1/5)
X : Variable aleatoria que representa el nmero de veces de dar en el blanco, X = 0, 1, 2, ---, 10
10 1 4 ( )( ) (4 5 ) + ( 1 )(5 ) (5 )
1
Sea
B = {X / X = 0}
1 X ~ fx(x) = 10 x 5
( )( ) (4 5)
x
10 x
; X : 0,1,2,...10
Luego,
Nos piden hallar, la probabilidad de acertar por lo menos 2 veces, (o sea P(A)), dado que se acert por lo menos 1 vez, (P(B)); es decir, P ( A / B ) =
P( A / B) = P ( A) 0.64 = = 0.71 P ( B ) 0.90 P( A B) P( B)
3.1.2
DISTRIBUCIN HIPERGEOMTRICA
La distribucin Hipergeomtrica considera el caso en el cual una poblacin finita se divide en dos grupos, uno de los cuales se considera xitos y el otro Fracasos. Por consiguiente si se toma sin reemplazamiento una muestra de n elementos y se desea hallar la probabilidad de obtener X xitos, tenemos:
N = Tamao de la poblacin Np = Nmero de xitos en la poblacin Nq = Nmero de fracasos en la poblacin
Np + Nq = N
X = Variable aleatoria que nos representa el nmero de xitos en la muestra n = Tamao de la muestra n x = Nmero de fracasos en la muestra, utilizando las definiciones dadas,
podemos hallar la funcin de densidad para una variable aleatoria X que se distribuya Hipergeomtricamente, as:
fx(x) = P(X=x); donde el suceso, (X=x), (o sea, suceso de xitos en la muestra), se
Np Nq x n-x
x Np
( )
Luego,
( )
Para X = 0, 1, . . . , n
x n Np
X = 0, 1, ..., Np
S x Np n > Np
3.1.2.1
Pero, aqu hay que tener presente que cada Xi es dependiente, pero, ya que, la propiedad aditiva de la esperanza no nos exige el carcter de independencia o dependencia, no tenemos problema aplicarla aqu.
E(X) = E(x1+x2+ ... + xn) E(X) = E(x1) + E(x2) + ... + E(xn)
Entonces,
Cada E ( Xi ) = E ( x) =
Np = P: N
Np Np Np + + ... + N N N n veces
Np = nP N
E( X ) = n
2. VARIANZA: Var(x)=
x :
en forma similar a como lo hicimos en la Binomial (n, p), ya que ella no es aditiva para variables dependientes, pero sin necesidad de entrar aqu en exposiciones de rigurosidad matemtica, simplemente, podemos afirmar que la Varianza de esta distribucin, es:
N n Np Nq Var ( x) = n N 1 N N N n Var ( x) = n P Q N 1
N n ; se denomina N 1
factor de correccin, para el muestreo sin reemplazamiento. En caso de que la poblacin finita N sea muy grande, ( N ) , Entonces
N n 1 N 1
3.1.2.2
PROBLEMA
Se quiere comprar un lote de 25 lmparas. Se eligen 5 de ellas al azar y se examinan de modo que si menos de 2 fallan, el lote es aceptado, de lo contrario ser rechazado. Cul es la probabilidad de que el lote sea rechazado si contiene un total de 4 lmparas defectuosas?
SOLUCIN : Sea X : Variable aleatoria que representa el nmero de lmparas defectuosas en la muestra.
El experimento que se realiza aqu es sin reemplazamiento en una poblacin finita, en donde hay dos clases excluyentes de lmparas, unas defectuosas, (que llamamos xitos), y otras no defectuosas, ( que llamamos fracasos).
N = 25 : Total lmparas en la poblacin Nq = 21 : Total lmparas no defectuosas en la poblacin Np = 4 : Total lmparas defectuosas en la poblacin n = 5 : Tamao de la muestra aleatoria sin reemplazamiento.
Entonces,
X = 0, 1, 2, 3, y 4
X Np n > Np
X ~ Hipergeomtricamente; con:
4 )( 21 ) ( x 5 x f ( x) = X :,1,2,3,4
x
25
P ( X 2) = 1 P(X<2)
= 1 P ( X 1) = 1 Fx(1)
= 1 {fx(0) + fx(1)} = 0.17
3.1.2.3
De manera intuitiva se puede observar, que para N y Np grande y n relativamente pequeo respecto a N, la distribucin Hipergeomtrica se aproxima a la Binomial
(n, p); porque en este caso, la muestra sin reemplazamiento tiene efecto
X: 0, 1, 2, 3, 4, 5.
X < Np X n < Np
cada prueba.
3 2 f x (3) = 5 3 p (1 p )
()
= 5 3
Resolviendo
()
10 6 10 6 + 10 8
y
10 6 1 10 6 + 10 8
3.1.3
DISTRIBUCIN DE POISSON
Esta distribucin es aplicable a muchos procesos que indican demandas de servicio, tales como, el nmero de mquinas en una gran planta, que se paran durante cualquier da; el nmero de personas que atiende un cajero de banco en media hora; el nmero de llamadas telefnicas recibidas en una central durante 15 minutos; el nmero de autos que son atendidos en una estacin de gasolina durante 10 minutos; el nmero de unidades de un artculo determinado vendido durante un da. Tambin es aplicable el modelo de Poisson a fenmenos que no implican tiempo, tales como, el nmero de errores tipogrficos por pgina; el nmero de conexiones soldadas defectuosamente en un ensamble elctrico; el nmero de cuerpos extraos, (como piedritas o burbujitas), incrustados en una botellas de vidrio, etc.
Dados los ejemplos de aplicacin anteriores, los resultados posibles son 0, 1, 2, 3,. . . . y as sucesivamente; es as, que no puede haber ninguna llamada
telefnica durante un perodo de 5 minutos o puede haber una, y as sucesivamente, lo que implica, que la variable de Poisson puede tomar valores desde cero hasta infinito.
Para el anlisis de esta distribucin utilizaremos el siguiente ejemplo: Supongamos que una compaa de telfonos recibe en un tiempo T un nmero R de llamadas. Sea t una fraccin observada del tiempo T. Cul es la probabilidad de que se
produzcan X llamadas en t?
Supongamos que T es mucho ms grande que t ; como tambin suponemos que las llamadas estn distribuidas con probabilidad uniforme en todo el tiempo, luego se deduce que la probabilidad de que haya X llamadas en t es:
t (R X ) T
t 1 T
Rx
Y partiendo de aqu, obtenemos la distribucin de Poisson, haciendo que R y T sean lo ms grandes, ( R de llamadas
R permanezca constante. T
, en la forma:
R! t R t 1 X ( R X )! X ! R T T
Vemos que entre R y (R-(x-1)), hay exactamente X productos, los cuales podemos dividir respectivamente por cada uno de los X productos que hay en RX , luego:
X R X
R 1 2 3 ( x 1) R t t 1 1 1 1 1 R R R R R T T X!
Si llamamos p =
t R y d= ; T T
entonces:
1 2 ( x 1) td X 1 1 1 (t d ) 1 R R R R X! 1 2 ( x 1) X 1 1 1 (t d ) R Lim R R R X!
R X
td 1 R
R X
(t d ) X etd
X!
Podemos generalizar entonces, y decir, que una variable aleatoria distribuye segn Poisson, si la funcin de densidad est dada por:
se
f x ( x) =
X e
X!
x : 0,1,2....
Donde
3.1.3.1
1. ESPERANZA: E(x)
X e
X
E ( x) =
X =0
X!
X =1
( X 1)!
Haciendo
Y = x-1, tenemos: Y!
Y +1
E ( x) =
Y =0
=
Y =0
Y!
E ( x) = e
Y =0
Y!
La expresin
luego;
E ( x) = e e =
Y =0
Y! ,
E ( x) = : Media de la distribucin
2. VARIANZA: Var(x)=
X
Var(x) = E(x2) (E(x))2
Var ( x) =
x =0
x2 e
X!
E(x ) =
2 x =0
x2 e
X! xe
x
=
x =0
x2 e
x( x 1)!
=
x =1
( x 1)!
E(x 2 ) =
Y =0
( y + 1)e
Y!
y +1
=
Y =0
( y + 1)e
y
Y!
=
y =0
Ye
Y! Ye
+
y =0 y
Y!
y =0
Y!
y =0
Y!
= E (Y ) +
y e Y ! = 1 y =0
Pero E (Y ) =
M X (t ) = E e = e f x ( x) = e
tx tx x =0 x =0
( )
tx
e
X!
M X (t ) = e
x =0
e X!
t
= e 1 + = e e
( et 1)
t +
2 3 t e e + + ... 2! 3! t
et
=e
( et 1)
M X (t ) = e
E ( x)
M ' X (t = 0)
M ' X (t ) =
( et 1)
E ( x) = M ' X (t = 0) =
2 2
et et
Luego;
Var ( X ) = + 2 2 =
3.1.3.2
Con el fin de comprobar de que la distribucin de Poisson es una buena aproximacin a la binomial, cuando n (tamao de la muestra), es muy grande y
mientras que el nmero de pruebas n tiende a infinito, ( n ) , de una forma tal que la media = np permanezca constante, la aproximar a la distribucin de Poisson con media distribucin binomial se
f x ( x) =
f x ( x) =
f x ( x) =
p=
Luego :
n x
1 1 x 1 1 1 ... 1 n n n f x (x) = (1 p )x
x (1 p )n x!
(1 p )
1 = (1 p ) p
1 = (1 p ) p
Lim (1 + Z )1 Z = e z 0
Por lo tanto, haciendo Z = - p
Lim (1 p )1 p p0
=e
Adems :
1 2 x 1 1 1 ...1 n Lim n n =1 n (1 p )x
fx
e ( x) =
X!
; X : 0,1,2,...
3.1.3.3
EJERCICIOS
1. Un cuadro de telfonos atiende un promedio de 600 llamadas durante una hora de aglomeracin. El cuadro puede hacer un mximo de 20 conexiones por minuto. Estmese la probabilidad de que el cuadro quede rebasado en un minuto dado.
SOLUCIN
= 600 = 10
Sea X la variable aleatoria que representa el nmero de llamadas; entonces, la probabilidad de que el cuadro quede rebasado en un minuto dado es:
10
10 X
X =0
X!
= 1 0.99841 (tablas )
2. Una compaa de seguros, halla que el 0.005% de la poblacin, fallece cada ao en cierto tipo de accidente. Cul es la probabilidad de que la compaa tenga que pagar a ms de 3 de sus 10.000 asegurados, contra tales accidentes, en un ao dado?
Sea Sea
p : Probabilidad de fallecer una persona en un ao p = 0.00005 X : Variable aleatoria que representa el nmero de personas que fallecen
en un ao dado.
X ~ b(10.000, 0.00005)
x 10.000 x f x ( x) = 10.000 x (0.00005) (0.99995)
Cosa que por aqu resultara muy laborioso, pero basta observar que p es muy pequeo, ( p 0), y n es muy grande, (n ); luego podemos resolver el problema aproximndolo a la distribucin de Poisson;
= n p = 10.000 0.00005
= 0 .5 X~Poisson con = 0.5
f x ( x) =
(0.5) X e0.5
X!
Luego, se pregunta:
= 0 .5
= 0.5
(Valor hallado en tablas)
= 1-0.99825 = 0.00175
Quiere decir, que el riesgo que tiene la compaa aseguradora es casi nulo, o prcticamente ninguno.
3.2
Esta distribucin surge, por ejemplo, en el estudio del redondeo de errores cuando las observaciones se registran con cierta precisin. As por ejemplo, si las observaciones sobre la temperatura diaria se registran redondeadas al grado ms prximo, podr suponerse que la diferencia en grados entre la temperatura real y la registrada es un nmero que oscila entre 0.5 y 0.5 y que el error se distribuye uniformemente a lo largo de este intervalo.
Sean a y b dos nmeros reales, tales que a<b. La variable aleatoria X se distribuye uniformemente en (a,b) si:
f x ( x) = K f x ( x) = 0
f ( x)dx = 1
Kdx = 1
a
K (b a ) = 1
uniforme es:
K=
f x ( x) =
3.2.1.1
M x (t ) = E e =
a
( )
tx
tx
f x ( x)dx
1 tx M x (t ) = 0dx + e dx + 0dx b a a b M x (t ) =
1 1 tx dx = e ba a t (b a )
b
[(e
bt
at
)]
bt at e e M x (t ) =
t (b a )
2. ESPERANZA: E(X)
a b b
1 1 E ( X ) = X f x ( x) dx = 0dx + X X dx dx + 0 dx = ba ba a b a E( X ) = 1 X2 2(b a )
b a
b2 a2 2(b a )
(b a ) (b + a ) = a + b
2(b a ) 2 a+b 2
2
Luego E ( X ) =
3. VARIANZA: Var(x) =
Var ( x) = E ( x 2 ) [E ( X )]
E( X 2 ) =
2 X f x ( x)dx =
1 1 2 X 2 0dx + X 2 X 2 dx dx + X 0 dx = ba a ba a b
E( X 2 ) =
1 X3 3(b a )
b a
b3 a 3 3(b a )
( b a )(b 2 + ab + a 2 ) b 2 + ab + a 2 = =
3(b a ) 3 b 2 + ab + a 2 3
E( X 2 ) =
Luego,
b 2 + ab + a 2 (a + b ) Var ( x) = 3 4
12
0 Fx ( x) = 1
si si
x<a x<b
Fx (x) = P(X x) =
f(u)du =
0 du +
1 du b a a
xa 1 x u ]a = ba ba
xa Para a < x < b ba Para X ( a, b)
Fx ( x) =
Fx ( x) = 0
3.2.1.2
EJEMPLO
Una empresa tiene una curva de costos dada por la funcin C=1.000+2x; siendo X el nmero de artculos. En el mercado vende cada unidad a $5. La demanda de artculos es uniforme entre 25.000 y 30.000 unidades. Cul es el beneficio esperado?
SOLUCIN:
X: Variable aleatoria que nos representa la demanda de los artculos
~ U (25.000; 30.000); 12
Sea B: El beneficio o utilidad, donde la funcin de utilidad la establecemos de la forma, ventas totales, menos, costos totales, as:
B = 5X (1.000 + 2.X) B = 3 X 1.000
f z ( x) =
1 2
1 X2 2
< x <
12
El siguiente tipo de integrales que mencionaremos, son fundamentales para el desarrollo y pruebas de distribuciones continuas, como la normal, chi_cuadrado, T de student, entre otras , ellas son:
X
0 0
p 1
ax
dx =
( p)
ap
2 p 1 X e
ax 2
dx =
( p)
2a p
( p ) = ( p 1) ( p 1) = ( p 1) ( p 2 ) ( p 2 ) p > 0
( p ) = ( p 1)
p Z +
y (1 2 ) = (Por definicin)
1 2
( 1 2 ) X 2
, es funcin de densidad:
X ( , )
2.
f ( x)dx = 1
1 2
( 1 2 ) X 2
dx
2 2
e
0
( 1 2 ) X 2
dx =
2 2
(1 2)
1 2 2
1 2
2 =1 2
2 p 1 = 0 p = 1 2 y, a = 1 2
3.2.2.1
es la f.g.m.13 de
z ~ n(0,1)
Empleando la tcnica de la funcin de distribucin acumulativa Fx(x) hallemos la funcin de densidad Fx(x) para C ~ h ( m , s2) 14
x 1 1 z 2 e 2 dz 2 = f ( z ) ( x ), luego d dX Fx ( x ) = f x (x ) = 1 2 z 1 ; e 2
1 e 2 2
1 x
M x (t ) = E e tx = E e t ( z + ) = E e t z e t
t t z t z
[ ] [ ] [ = e E [e ( ) ] = e M
=e
t 1 2 2 t 2 e
(t )
1 t + t 2 2 e
= M x (t )
2. Funcin caracterstica z( )
[ ]
1 2 2 e
Z (0,1)
3. Esperanza: []
[] = z (t = 0) z (t ) =
1 2 t t.e 2
[] = z (t = 0) = 0 x e 2
( 0) 2
=0
14
[ ]
(t) = z
VAR[ ] = 1 0 = 1
1 2 (t) 2 e
1 2 t 2 2 t e
(t = 0 ) = 1 E Z2 = Mz
[ ]
3.2.3 DISTRIBUCION NORMAL CON MEDIA y VARIANZA 2 : ( , 2 ) Sabemos que , variable aleatoria que se distribuye (0,1) Decimos que la v.a12 se distribuye ( , 2 ) , si = + > 0 para < < y < X < 2. Funcin Caracterstica : x ( ) Hacemos t= i en x ( t ) a x ( ) = 3. Media de la distribucin
1 i 2 2 2 e
x ( t ) = ( + t )e
2
t+
1 2 2 t 2
a [x ] = x (t = 0) =
4 Varianza de la distribucin : VAR( X ) = x 2
VAR( X ) = ( x 2 ) [( x)] = x (t = 0) ( x ) (t = 0)
2
x ( t ) = .e
2
t + 2t 2
1 2
+ ( + t )e
2 2
t + 2t 2
1 2
a x (t = 0) = 2 + 2 ; luego :
VAR( X ) = x + 2 2 = x
2 2
12
Curva normal
Al cambiar con constante, la forma de la curva no cambia, se correr nicamente hacia la izquierda o hacia la derecha.
Sobre la curva de la distribucin normal ( ( , 2 ) podemos afirmar: 1. Es simtrica respecto a la lnea x = 2. Tiene un punto de mxima en x = 3. Tiene como asntota horizontal al eje x 4. Presenta dos puntos de inflexin, en: x= y + 5. La media, la moda y la mediana coinciden 6. El rea comprendida entre dos puntos de inflexin, y + ; es aproximadamente el 68 % en el rea total. 7. El rea comprendida entre 2 y + 2 es aproximadamente el 95.4% del rea total y el rea comprendida entre 3 y + 3 es aproximadamente el 99.7 % del rea total.
Fy ( x) = P[ y x ] = X 2 x = x x x
] [
( 2 ) 1 .e 2 .d 2
fy ( x ) =
d d Fy ( x) = d ( x) d ( x)
x x
1 1 2 ( 2 ) e .d 2
1 2( e 2
x )2
1 2 ( d( x) e dx 2
1 1
x )2
d ( x ) dx
fy ( x ) =
con un grado de libertad. Esta variable se simboliza por 2 (1) : 3.2.4.1 Funcin Generatriz de momentos de la 2 (1) :
[ ] [ ]
1 1
x 1 X 2 .e 2 .dx = e . 2 0 tx
x (1 2 t ) x 1 X 2 .e 2 .dx 2
x 2 (1) (t ) = (1 2t )
1 2
es la f. g. m de la 2 (1)
x 2 ( 1 ) ( ) = (1 2 i )
= e i
x 2(1 )
3.2.5 Distribucin JI DOS, con n grados de libertad 2 ( n ) consideramos ahora las variables aleatorias : X 1 , X 2 X n ...... Xn Todas las normales (0 , 1) e independientes
(n)
]a
definamos primero a 2 n = = X 2 1 + X 2 2 + ..........X 2 n esta nueva variable es la de JI DOS con n grados de libertad13 como cada X j J = 1,2,......n; es una X 2 (1) , entonces la X 2 ( n ) es la suma de n X 2 (1) independientes. Luego:
x 2 ( n ) ( ) = e i ( x
= e
2 2 2 1 ,x 2 + ..........+ x n
ix 21
. e ix 21
(......) e ix 2 n
1
a x 2 ( n ) ( ) = (1-2i )
n 2
ahora, retomando la funcin caracterstica, encontramos la funcin de densidad de la X 2 ( n ) sea f x 2 ( n ) ( x) la funcin de densidad de la X 2 ( n ) . Por definicin de funcin caracterstica se cumple que:
x 2 ( n ) ( ) =(1-2i )
n 2
ix 2 ( n ) ,= e =
e
0
ix .
. f x 2 ( n ) d ( x) (A)
p 1
.e a. .d =
( p ) ap
13
n 2
x 1 a dz = dz a 2 2
n 1 2
( 1 2 i )
n 2
=
0
. n .e n 2 ( ) 2 2 1 2
n 1 x
x 2 .e i x dx
1 n 2 ( ) 2
. 2 .e 2 .eix dx (B)
e
0
i x
.f x 2 (x)dx =
(n)
1
n 22
n ( ) 2
n x 1 2 2 . .e .e i x dx
como existe una relacin biunvoca entre la funcin caracterstica y la funcin densidad . a
f x 2 (x)dx =
(n)
1
n 22
n ( ) 2
n x 1 2 2 .e
; x>0
f x 2 ( n ) ( x) =
1 2
n n 0 2 2 ( )
. 2 .e
2d
a
n n
1 1 n x 2 ( n ) (t ) = (2)(1 2t ) 2 = n(1 2t ) 2 2
x 2 ( n ) (t ) = 2n( + 1)(1 2t )
n 2
n 2 2
= n(n + 2)(1 2t )
n 2 2
(n)
= 2 (1 ) 2 = n(n + 2) n 2 = 2n
a 2 2 ( n ) = 2n
vemos as que en la variable aleatoria 2 ( n ) , la media de coincide con el numero de grados de libertad y la varianza es dos veces este numero. DISTRIBUCION t DE ESTUDENT
t(n) =
1 2 (x 1 + x 2 2 + .......x 2 n ) n
Y=
2 2 Y= x(n) n
FY (y) = [ y ] =
2 2 (n) y n
2 2 n = ( n ) y 2 = 2( n ) 2 y 2 n
F 2 (
(n)
n 2 y ) 2 1
(n)
sabemos que F 2
n 22
n ( ) 2
n
2
n
2
y2
n 1 2
a FY (y) =
1
n . 2 2 (
n ) 2
y2
n 1 2
2 d
d 2 y 2 2 1 2 f Y (y) = FY (y) = n .e d dy 0 . n 2 2 ( ) 2 1
=
1
n . 2
n 2 ( ) 2
.(
n
2
y )
n 1 2 2
.e
1 n . 2 y2 2
2n
.y
n 2( ) 2 n y 2 2 2 e. 2 y n 1 f Y (y) = n 2 ( ) 2
Ahora la funcin de densidad conjunta ( ( , ) , est dada por f x , y ( x. y ) = f x ( x). f y ( y )
2y n 2( ) 2 .e 2 y.n 1 . 2 n n ( ) 2
n n
2
f x, y (x.y) =
1 e 2
1 ny 2 + x 2 2 2
1 x2 2 2
= K.y
n 1
.e
K =
n n + 1 2 ( ) 2
n 2( ) 2 2
x Ft ( n ) ( z ) = t( n ) Z = Z = y e
f ( x, y)dxdy
x Z ; (o sea, y
la regin C es aquel recinto de la distribucin conjunta en donde donde x yz ) < z < veamos la grfica
a Ftn ( z ) = K
z. y
y n 1.e
1 ny 2 + x 2 . 2 2
x x = v J = y y=v
x v v = y 0 v
=v 1
v = v; ya que v = y ; y o
dxdy = vdu.dv
Ft(n) (z) = K
n 1
.e
1 nV 2 + .V 2 . 2 2
.V.dV.d
= K
z
0 V
.e
1 n+ 2 . 2 v 2 2
dV .d
n+1 n + 2 = a= 2 2 2
1 n+ 2 . 2 v 2 2
V n .e
0
n+1 ) z d 2 .dv = . 2 n +1 n+ 2 2 2( ) (1 + ) 2 2 n (
du
(1 +
n +1 ) 2 Ft ( n ) ( z ) = n n ( ) 2
2
n
n +1 2
n +1 ) 1 2 ; < x < . f t ( n ) ( x) = 2 n +1 n n ( ) (1 + x ) 2 2 n
3.2.7 DISTRIBUCCION F DE SNEDECOR: Sean 1, 2,........... m ; y1 , y2,.......... yn ; (m+n) variables aleatorias independientes normales (0, ); se define la variable aleatoria F de snedecor con (m,n) g , l como:
1 2 2 2 + .............. + m ( 1 + 2 ) m F= F= 1 2 2 2 + .............. + yn ( y1 + y2 ) n
sea: =
x 2 x1 2 ( ) + ........... + (( m ) 2 m
xi
(0,1)
2
m
(2m )
1
m 22
m ( ) 2
m 1 1 2 .e 2 .du
1 2 x m m f x (x) = F x (x) = m .( 2 x) 2 .e 2 . 2 m 2 2 ( ) 2
1 m
f (x, y) = K.X
m
m n ( ) 2 .( ) 2 2 2 K = m n m + n. ( ). ( ) 2 2
f ( x, y)dxdy
R
F( F ) ( z ) = K
zy
m 1 2
1 n ( mx + ny ) 1 2 2 2 . y .e dydy
v = v a j = V =V J= 0,1
a dxdy = Vdudv
Encontremos los limites: Para V, son los mismos para y V (0, ) Para =; =
x , para x = 0 = 0 V Para x = zy = z
F( F ) ( z ) = K
( .V )
m 1 2
.V 2 .e
1 2 2
( mV + nV )
VdVd
= K
0
m+ n m + n m .V 2 1 1 2 2 V .e 2 0
m + n) ( 2 Luego: = = m+n + m n 2 ( ) 2 2
( =2
m + n) 2
m+n
m+n ( )( .m + n) 2
m+n 2
Simplificando la constante y derivado la integral con respecto a z, y cambiando z por x, la funcin de densidad de la F con (m , n) g , l , ser en definitiva:
m n 2 m .n 2
f (x) =
F(m, n) =
1 m 2 xi m 1 1 yi2 n 1
n
1 F(m,n)
1 n 2 yi n 1 1 m 2 Xi m 1
= F(n, m)
Esto significa que el inverso de una F con (m, n) g , l es una F con (n, m) g , l . En el manejo de tablas es muy til esta propiedad, ya que:
1 1 1 f ( m, n ) x = = f ( n, m ) x f ( m, n) x
igualmente distribuidas con medias y varianzas 2 finitas. A partir de esta sucesin podemos definir otra as
S n (S n ) {y n } = sn
con S n = x1 + x2 + ................ + xn
Esta forma es aplicable en aquellos casos en los cuales debamos encontrar probabilidaes relativas a la suma de n variables aleatorias con n grande s S n = x1 + x2 + ................ + xn y las distribuidas , (n grande), entonces:
a
xi
so independientes e igualmente
S n aproxima {E ( S n );
sn }
variable aleatoria z ( 0,1). Este teorema, es un caso partucular del T.C.L14 En efecto, n a n = B1 + B2 + ..........Bn con independientes entre si
np = (xn ); n.p.q = xn
y(n)
xn E(xn ) xn
las y( n ) cumplen con las hiptesis del T.L.C al igual que en el teorema de moivre es aplicable para binomiales (n, p , con n grande: Si X b (n,p) con n grande a
14
3.2.10 Ejercicios
Solucion : x =
a ( x1 + ..........x100
( , ) ; por T.L.C
(5000,100)
solucin
1 ( ) = 72. = 24 = n. p 3
2 2 y = 24. = n.p.q = 16 3
a (24,4) ; Por teorema de Moivre a (22 28) = (21.5 28.5) , usando
discreta
= (
21.5 24 28.5 24 <Z < ) = 4 4
1 2
a (50;5) ; por teorema de moivre a ( y = 50) = (49.5 < y < 50.5) usando la correcin para V.A .D
= ( 49.5 50 50.5 50 <Z < )= 5 5
4. La venta diaria de ua fbrica de cierto articulo, tiene una distribucin uniforme entre 20 y 40 artculos . Que probabilidad tiene la fbrica de vender ms de 6370 artculos en 182 das. Solucin sea la venta total en los 182 das
a E ( xi ) = 30
(xi2
40
2 x = 1
100 18200 = 3 3
(5460;
( x > 6370) = ( Z >
18200 ) ; luego 3
P(Z > 11.8 ) = 0 Es casi imposible que la venta en 182 dias supere los 6370 articulos 5. una persona acostumbra participar en un juego en las cuales sus probabilidades de ganar y perder son iguales. Siempre que gana una partida recibe $ 5 y siempre que pierde paga # 5. Un da se dirige al sitio de juego con la intension de jugar 400 partidas. Que cantidad de dinero debe llevar si quiere tener probabilidad de 0.95, de hacer frente a sus posibles perdidas? Solucin Sea i la V.A que indica la perdida en la partida i - sima?
a = x1 + x2 + ........ + x400 es la perdida total en las 400 partidas
( xi = 5) =
1 2
al menos una
( xi = 5) =
1 2
a ( xi2 ) = 52
1 1 50 + ( 5) 2 = = 25 2 2 2
2 xi = 25 0 = 25 = 5 2
luego, ( x) = 400 E ( xi ) = 0
2 2 x = 400 xi = 400.5 2 = 10.000
6. Demuestre que si x1 , x 2 ,........, x n son V.A independiente e igualmente distribuidas f x ( x) = 2 x para 0 x 1 ; entonces:
n +k x1 , x2 ......... + xn e 2 n
= F ( 2k ); con f ( x)
sea 1 = l nx1 + l nx2 + .........l nxn las variables l nx son igualmente distribuidas e independientes:
i
( Ln xi ) =
l
0
n x.2 xdx
(Ln xi ) =
2 l xi =
0 ( l n x)
.2xdx =
1 2
1 1 2 1 1 ( )2 = = 2 2 4 4 4
1 2 n 2
luego: ( x) = n( ) =
2 x =
n n n ; luego x (- ; ) 2 2 4
n n +k n + 2 2) n 2
n a ( X + k n ) = ( Z 2
= ( Z 2k ) = F (2k ) . l.q.qd .
KENETT,
Ron;
SHELEMYAHU,
Zacks.
2000.
Estadstica
Industrial
LOPES, Paulo Alfonso.1999 Probabilidad y Estadstica. Prentice-Hall. Bogot MASON ,Robert y LIND , Douglas.1995. Estadstica para Administracin y
Economa. Alfaomega , Mjico