Sei sulla pagina 1di 118

TABLA DE CONTENIDOS

1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIN DE CONJUNTO. 1.1.2 NOTACIN. 1.1.3 EJEMPLOS. 1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACO. 1.1.5 OPERACIONES ENTRE CONJUNTOS 1.1.6 EJEMPLO 1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERS 1.2 MODELOS PROBABILSTICOS 1.2.1 CARACTERSTICAS DE LOS FENMENOS ALEATORIOS 1.2.2 CONCEPTOS BSICOS DE ANLISIS COMBINATORIO 1.2.3 CONCEPTO DE PROBABILIDAD 1.2.4 TEORA AXIOMTICA DE LA PROBABILISDAD 1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORA AXIOMTICA DE LA PROBABILIDAD 1.2.6 TEORA CLSICA DE LA PROBABILIDAD 1.2.7 TEORA FRECUENCIAL O A POSTERIORI 1.2.8 PROBABILIDAD MARGINAL 1.2.9 PROBABILIDAD CONDICIONAL 1.2.10 TEOREMA DE BAYES 1.2.11 PROBLEMAS 2. VARIABLES ALEATORIAS 2.1 VARIABLE ALEATORIA DISCRETA 2.2 FUNCIONES DE DOS O MS VARIABLES DISCRETAS 2.3 FUNCIN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS 2.4 FUNCIN DE DENSIDAD CONDICIONAL 2.5 VARIABLE ALEATORIA CONTINUA

2.6

FUNCIN

DE

DENSIDAD

PARA

VARIABLE

CONTINUA

PLURIDIMENSIONAL 2.7 ESPERANZA MATEMTICA 2.8 MOMENTOS CON RESPECTO AL ORIGEN 2.9 MOMENTOS DE ORDEN RESPECTO A UNA CONSTANTE

2.10 MOMENTOS DE ORDEN CON RESPECTO A LA MEDIA 2.11 VARIANZA DE UNA FUNCIN DE PROBABILIDAD 2.12 FUNCIN GENERATRIZ DE MOMENTOS 2.12.1 PROPIEDADES DE LA FUNCIN GENERATRIZ DE MOMENTOS 2.12.2 TEOREMA 2.13 FUNCIN CARACTERSTICA 2.14 EJERCICIOS 3. DISTRIBUCIONES PROBABILSTICAS 3.1 PRINCIPALES DISTRIBUCIONES DE PROBABILIDAD PARA

VARIABLE DISCRETA 3.1.1 DISTRIBUCIN BINOMIAL 3.1.2 DISTRIBUCIN HIPERGEOMTRICA 3.1.3 DISTRIBUCIN DE POISSON 3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS 3.2.1 DISTRIBUCIN UNIFORME O RECTANGULAR 3.2.2 DISTRIBUCIN NORMAL (0, 1 ) : n(0, 1) 3.2.3 DISTRIBUCIN NORMAL CON MEDIA m y VARIANZA s2: h(m,s2) 3.2.4 DISTRIBUCIN JI DOS CON UN GRADO DE LIBERTAD: X 2 (1) 3.2.5 DISTRIBUCIN JI DOS CON n GRADO DE LIBERTAD X 2 (n) 3.2.6 DISTRIBUCIN t DE ESTUDENT 3.2.7 DISTRIBUCION F DE SNEDECOR 3.2.8 TEOREMA CENTRAL DEL LMITE 3.2.9 TEOREMA DE MOIVRE 3.2.10 EJERCICIOS BIBLIOGRAFIA

1 NOCIONES ELEMENTALES DE PROBABILIDAD

1.1 NOCIONES SOBRE CONJUNTOS

1.1.1 DEFINICIN DE CONJUNTO. Un conjunto no es ms que una coleccin de objetos, elementos o miembros. 1.1.2 NOTACIN. Por convencionalismo se tiene, mientras no se diga lo contrario, los conjuntos, los denotaremos con letras maysculas y los elementos con letras minsculas. 1.1.3 EJEMPLOS. 1.1.3.1 Sea A un conjunto compuesto por los elementos: a, b, c y d. Es decir,
A = {a, b, c, d }, donde podemos asegurar que a pertenece a A y se escribe

a A; b A; c A; d A; (a, b ) A; (b, c, d ) A; etc.


1.1.3.2 Cuando un elemento o un grupo de elementos no pertenece a un conjunto, lo denotamos as: . Remitindonos al ejemplo 1.1.3.1 tenemos que la pareja (h, k ) A. 1.1.3.3 Dados los conjuntos A y B los cuales tienen como elementos : 1, 3, 5, 7, 9 y 1, 7, 9; respectivamente, entonces decimos que el conjunto B es subconjunto de A.

1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACO. En muchos casos restringimos la teora de conjuntos en trminos de subconjuntos, ya que los relacionamos con respecto a otro conjunto o espacio que los contiene, esto es, conjunto Universal y lo denotamos con la letra U.

Cuando un conjunto no tiene elementos, se denomina conjunto vaco y lo representamos con la letra , (FI).

1.1.4.1

Ejemplo de conjunto vaco:

El conjunto de todos los nmeros reales X tales que X2 = -1, es decir,

{X / X

= -1 = , ya que no existen cuadrados de nmeros reales que sean

iguales a 1.

1.1.4.2

Ejemplo de conjunto Universal:

Si lanzamos un dado, el conjunto de todos los posibles resultados es el universo o Espacio Universal: { 1, 2 , 3, 4 , 5, 6}

1.1.5 OPERACIONES ENTRE CONJUNTOS

1.1.5.1

UNIN. Se define como el conjunto de todos los elementos, que pertenecen a A o a B, o tanto a A como a B, (siendo A y B previamente definidos).

A Unin B, esto es ( A B ) .

1.1.5.2

INTERSECCIN. Es el conjunto de elementos que pertenecen simultneamente a A y a B, (A y B previamente definidos), y se escribe A B.

Cuando A B = , decimos que A y B son conjuntos disjuntos o Distintos.

1.1.5.3

DIFERENCIA. Son todos los elementos que de A que no pertenecen a B, esto es, A B.

1.1.5.4

COMPLEMENTO. Si B C A, entonces, A B se denomina el complemento de B relativo a A y se escribe: B A o B A o B C A. . Si A


= U, nos referimos a U B, sencillamente como el complemento de B:
B o B o B C . El

complemento

de

(A

B)

se

escribe

( A B ) o ( A B ) o ( A B )C.
1.1.6 Ejemplo:

A = {0, 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9} B = {a, 1, e, 3, i, 5, o, 7 , u, 9} C = {2 , 4 , 6 , 8} D = {a,u}


Hallar: A B; B D; A - B; C A. Entonces:

A B = {0 , 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9} {a, 1, e, 3, i, 5, o, 7 , u, 9} A B = {0 , 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9 , a, e, i, o, u} B D, vemos claramente que, D B. Luego, B D = B. Ahora, A - B = {0 , 2 , 4 , 6 , 8} y por ltimo C A = C A = {0 , 1, 3, 5, 7 , 9}

1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERS


A, B, C,

1.1.7.1

Sean

tres

conjuntos

cualesquiera,

tal

que

si

A B y B C A C.
1.1.7.2 1.1.7.3
A B = B A: Ley conmutativa de la unin. A (B C ) = ( A B ) C = A B C: Ley asociativa de la

unin 1.1.7.4 1.1.7.5


A B: Ley conmutativa de la interseccin = B A A (B C ) = ( A B ) C = A B C: Ley asociativa de la

interseccin. 1.1.7.6
A (B C ) = ( A B ) ( A C )

1.1.7.7 1.1.7.8 1.1.7.9 1.1.7.10 1.1.7.11 1.1.7.12 1.1.7.13

A (B C ) = ( A B ) ( A C ) A - B = A B

Si A B A B o B A A = A y A = A U = U y A U = A

(A
(A

B ) = A B : Se conoce como la primera Ley de Morgan

B ) = A B : Segunda Ley de Morgan

1.1.7.14 Para cualquier par de conjuntos A y B A = ( A B ) A B .

1.2 CLCULO DE PROBABILIDADES

El clculo de probabilidades es la teora matemtica que sirve de modelo, para la descripcin y anlisis de los fenmenos estadsticos o aleatorios.

Por fenmenos o experimentos aleatorios, entendemos que son aquellos cuyos resultados estn establecidos pero no se pueden predecir con exactitud A priori1, o sea que en situaciones idnticas pueden presentar resultados diferentes; adems los fenmenos pueden ocurrir repetidamente en forma indefinida.

1.2.1 CARACTERSTICAS DE LOS FENMENOS ALEATORIOS

1.2.1.1

Multiplicidad de la ocurrencia

1.2.1.2

Variabilidad, ya que pueden presentar resultados distintos en cada experimento.

1.2.1.3 1.2.1.4

Aleatoriedad, porque no pueden predecir Ley del Azar, si una cierta experiencia se repite n veces y anotamos el nmero n(A) de veces que ocurre una caracterstica determinada, se

Palabra del latn que significa que viene antes, o sea, antes de la prueba.

observa la frecuencia

n(A) , tiende a estabilizarse, esto es, se aproxima n

a un valor fijo. Haremos nfasis en la ltima caracterstica o propiedad de los fenmenos aleatorios, conocida tambin como Estabilidad de las frecuencias o Principio de la regularidad estadstica.

Todo fenmeno exige la evidencia de alguna regularidad, el clculo de probabilidades se basa en la regularidad estadstica que caracteriza a los fenmenos aleatorios.

Los fenmenos aleatorios se caracterizan por la imposibilidad de predecir resultados individuales, sin embargo, si consideramos un nmero de pruebas repetidas o simultneas, la situacin cambia, y a pesar de la irregularidad de los resultados individuales o aislados, los resultados promedios o globales muestran una sorprendente regularidad.

Para explicar este principio de la regularidad, tomemos un ejemplo clsico citado por numerosos autores de temas estadsticos: Supongamos el lanzamiento de una moneda perfecta, donde representamos por n el nmero de lanzamientos de la moneda y sea, A: El resultado consistente en caer cara, entonces n(A) ser la frecuencia absoluta o nmero de veces de caer cara dentro del experimento, luego la frecuencia relativa ser h(a) =

n(A) . La experiencia indica que para grandes n

valores de n, esta frecuencia relativa tiende a estabilizarse alrededor de un valor ms o menos constante. Si observamos la figura No. 1, vemos claramente que la frecuencia h(A) flucta ampliamente para pequeos valores de n, pero al aumentar
n, las oscilaciones se hacen cada vez menos intensas y para grandes valores de n el grfico parece indicar la tendencia de h(A) a alcanzar un valor lmite o ideal,

muy prximo a 0.5. Ver figura No. 1.

Figura No. 1

1.2.2 CONCEPTOS BSICOS DE ANLISIS COMBINATORIO

Fundamentalmente el anlisis combinatorio se ocupa tanto de los diversos modos de ordenar los elementos de un conjunto, como del estudio de las agrupaciones que se pueden formar con dichos elementos, as pues, por anlisis combinatorio podemos afirmar que es la parte de la matemtica en que se estudian las agrupaciones que pueden formarse con elementos dados, (objetos. Nmeros, ...), teniendo en cuenta el nmero de elementos que entran en cada grupo y el orden en que estn colocados, prescindiendo del valor numrico de los elementos, si lo tuvieren.

En el anlisis combinatorio podemos considerar: Las variaciones, permutaciones, combinaciones y el principio fundamental de cuenta. VARIACIONES2. Se denomina variacin, de los elementos de un

1.2.2.1

conjunto, una disposicin ordenada de los mismos. Si hay n elementos en el conjunto, el nmero de variaciones depender del nmero de objetos m que se deseen tomar y ordenar.

Algunos autores las llaman ordenaciones, otros las consideran como un caso especial de las permutaciones.

Las variaciones de n elementos tomados en grupo de m en m se denotan por:


n Vm Vn:m nVm Vn m . Antes de definir el nmero de variaciones, aclaremos

la nocin de factorial de un nmero, primero que todo dicho nmero debe definirse como el elemento de los nmeros enteros positivos sin incluir el cero, as pues, el factorial de n y se escribe n! Se define como: n! = n(n-1) (n-2) ... x3x2x1 y decimos que 0! = 1, por definicin.

Luego el nmero de variaciones est dado por la expresin:


n = Vm

n! (n-m)!

donde n representa el total de elementos del conjunto y m: el

nmero de elementos que desean ordenar.

1.2.2.2

EJERCICIO. Hay 15 candidatos para ocupar los cargos de presidente, vicepresidente, secretario, tesorero, fiscal, de una asociacin gremial. De cuntas maneras diferentes se pueden ocupar estos cargos?

Tenemos que el primer cargo, o sea, el cargo del presidente puede ser ocupado por cualquiera de los 15 candidatos, es decir, hay 15 maneras diferentes de ocupar dicho cargo. Ahora, una vez ocupado el cargo de presidente, nos quedan14 candidatos disponibles para ocupar el segundo cargo, digamos el de vicepresidente, una vez ocupado dicho cargo, el siguiente se puede ocupar de 13 maneras y as sucesivamente; tal como lo indicamos a continuacin:

Pr esidente Vicepresidente Secretario Tesorero Fiscal x x x x , 15 14 13 12 11

luego, el nmero

total de maneras diferentes para integrarse dicha junta es: 15 x 14 x 13 x 12 x 11 =


360.360 . n = 15: nmero de candidatos, m = 5: Personas a ocupar los cargos.

V515 =

15! 15 x14 x13 x12 x11 10! = 10! ( 15-5 )!

= 360.360

1.2.2.3

VARIACIONES CON REPETICIN

Si suponemos que cada uno de los m elementos, puede figurar cualquier nmero de veces en una misma variacin, obtenemos las variaciones con repeticin, cuyo nmero lo podemos calcular auxilindonos con la frmula:
m

n VRm =

As en el caso del ejercicio 1.2.2.2, el presidente una vez nombrado, participa en la eleccin de vicepresidente y a su vez ste en la del presidente, tesorero, secretario y fiscal a as sucesivamente; es decir:
P Vp x 15 15 S T F x x 15 15 15

15 V R5 = ( 15 )5 = 759.375

1.2.2.4

PERMUTACIONES. cuando m es igual a


n m

Las variaciones, de orden m de n elementos n, decimos entonces que son permutaciones. El

nmero de permutaciones diferentes est dado por la expresin:

= n! .

Ahora, en el caso que entre los n elementos, existan h iguales entre s; ( h < n), el nmero de permutaciones est dado por la expresin:

h n

n! h!

Pero puede presentarse el caso en que dentro de los n haya ms de una clase de elementos iguales entre s, es decir, existan h1, iguales entre s, h2 iguales entre s,
., h t

iguales entre s; entonces el nmero de permutaciones est dado

por la expresin:

h1 ,h2 ,.........ht
n

n! , donde : h1 + h2 + ... + ht = n h1 ! h2 ! ... ht !

Cuando los elementos no se suponen ubicados en una lnea recta, sino en un circulo, se dice que la permutacin es circular, esto es, no hay primero ni ltimo elemento; lo que implica tener que fijarse uno, como punto de referencia. El nmero de permutaciones circulares est dado por: c P n = PCn = (n 1)!.

A manera de ejemplos ilustremos un poco los conceptos de permutaciones ya dados:

El nmero de permutaciones diferentes que se pueden formar con la palabra SACO es: P4 = 4! ; en dicha palabra no se encuentran letras iguales.

Veamos ahora con la palabra CHALECO, en este caso hay dos elementos iguales entre s, luego el nmero de permutaciones est dado por:

P
-

2 7

7! 2!

= 2.520 .

Dadas las siguientes letras: T, S, S, V, V, T, T, S; cuntas permutaciones diferentes podemos hallar?

Observamos que para n = 8 elementos hay h1 = nmero de tes = 3; h2 = nmero de eses = 3 y h3 = nmero de uves = 2; entonces el nmero de permutaciones estar dado por:

P8

3 ,3 ,2

8! 3! 3! 2!

= 560

Si tenemos 5 estudiantes sentados alrededor de una mesa redonda, de cuntas maneras de pueden permutar?

En este caso de distribucin circular de los elementos, debemos primero que todo, fijar un elemento de referencia; as, llamemos los estudiantes con las letras A, B,

C, D, E; si fijamos el estudiante C, solamente quedan para intercambiarse los estudiantes A, B, D, E; si fijamos el estudiante A, pueden intercambiarse B, C, D, E y as sucesivamente. Observamos pues que de los 5 estudiantes slo quedan 4 para permutarse.
= 4! = 24 .

Luego

el

nmero

de

permutaciones

est

dado

por:

P C5

1.2.2.5

COMBINACIONES

Las combinaciones de orden m de n objetos: a1, a2, ...... an; son los grupos de m objetos que se pueden formar entre los n, de modo que dos cualesquiera difieran en algn objeto.

A diferencia de las variaciones, en las combinaciones, no importa el orden de sucesin de los elementos.

El nmero de combinaciones est dado por la frmula:

Cm

(n m)

n! m! (n - m)!

1 m n

Un ejemplo ilustrativo para la anterior definicin puede ser: Cuntas diferentes podemos extraer de las letras A, E, I, O, U?

ternas

En este caso consideramos que la terna (A, E, I) = (E, A, I) = (E, I, A) = (I, E, A) = (I, A, E) = (A, I, E), ya que no nos interesa el orden de colocacin de los elementos dentro de la terna, solo nos interesan todas aquellas ternas que difieran al menos en un elemento.

Luego el nmero de ternas diferentes est dado por:

C3

5! 3! 2!

= 10

1.2.2.6

PRINCIPIO FUNDAMENTAL DE CUENTA

Si
1

, , , - - - - - ; son n acciones distintas que se pueden realizar de


1 2 3 n 2 n

, , - - - maneras respectivamente, entonces el nmero total de maneras


como se pueden efectuar , , , - - - - -
1 2 3 n

en sucesin, viene dado por:

- - - : Maneras.
n

Ahora, si el nmero de maneras como se pueden efectuar cada una de las

i Acciones, (i = 1, ......, n), es idntico, es decir; 1


entonces el nmero total de maneras

---

;
n

estar

dado

por:

- - - = n

_____ n veces ____

En general, en todo experimento, si hay n pruebas, cada una de las cuales pueden dar resultados independientes, el total de resultados diferentes ser h . As por ejemplo: Al lanzar un dado una vez, el nmero de resultados posibles es 6, o sea,

1 = 61 = 6 .
Si lanzamos el dado dos veces, n = 2 hay 2 = 6 2 = 36 resultados posibles; si se lanza el dado tres veces, n = 3 3 = 6 3 posibles. resultados

1.2.3 CONCEPTO DE PROBABILIDAD

Podemos decir entonces, basados en la experiencia que podemos asociar la frecuencia h(A) con un nmero p(A), para cada suceso A dentro del experimento, de tal manera que p(A) = h(A) cuando n ; diremos entonces que p(A), es la

probabilidad del suceso A. La probabilidad de un suceso suele llamarse tambin frecuencia terica o verdadera.

El objeto de la teora de probabilidades es proporcionar un modelo matemtico adecuado a la descripcin e interpretacin de los experimentos aleatorios.

Veamos ahora, las definiciones de algunos de los elementos sobre los cuales se asienta la teora de probabilidades.

1.2.3.1

ESPACIO MUESTRAL

Es el conjunto o totalidad de resultados posibles dentro de un experimento aleatorio; lo llamaremos S.

El espacio muestral

puede ser discreto y continuo. Es discreto cuando

contiene un nmero finito de puntos o un nmero infinito numerable3 de puntos. As por ejemplo, en el lanzamiento de un dado, una vez, el espacio muestral S es = {1, 2, 3, 4, 5, 6}, que es un espacio con nmero finito de puntos. Ahora si el experimento consiste en lanzar una moneda legal, hasta que aparezca el primer sello, el espacio muestral es: S = {1, 2, 3, ...... }; Ya que el resultado deseado puede ocurrir en la primera, segunda, tercera, . . . , tirada. El espacio muestral S es continuo si contiene un nmero infinito no numerable de puntos. As por ejemplo, un experimento aleatorio consiste en observar la resistencia a la tensin de ciertas vigas, bajo las mismas condiciones; el resultado puede ser cualquier nmero positivo por consiguiente el espacio muestral es continuo.

Se llama numerable el conjunto infinito cuyos elementos se pueden numerar, es decir, poner en concordancia con cada elemento un nmero entero de modo que a distintos elementos les correspondan nmeros diferentes. Un conjunto infinito cuyos elementos no se pueden llevar a la correspondencia biunvoca con los nmeros enteros se llama No numerable.

1.2.3.2

SUCESO

Es el conjunto de resultados favorables o deseados en un experimento dado. Por ejemplo, un experimento aleatorio, consiste en lanzar dos dados y una moneda. Uno de los sucesos puede ser; A = suma de puntos menor que 4 para los dados y sello para la moneda, luego, A = {(1, 1, s); (1, 2, s); (2, 1, s)} como puede verse, el suceso A no es ms que un subconjunto del espacio muestral S.

Muchos autores suelen llamar los sucesos aleatorios como eventos. Cuando los elementos de un suceso coinciden con los elementos del espacio muestral decimos que es suceso seguro; cuando los sucesos estn formados por un solo punto del espacio muestral se denominan sucesos elementales; y cuando el conjunto de posibles resultados es el vaco decimos que el suceso de llama suceso imposible.

1.2.4 TEORA AXIOMTICA DE LA PROBABILIDAD

Partiendo de las caractersticas observadas en simples experiencias, podemos construir un modelo abstracto que nos traduzca y generalice, para aplicarlas en situaciones ms complicadas. Es decir, establecemos en forma axiomtica el clculo de probabilidades. Llamaremos P (A) a la probabilidad del suceso A en el experimento aleatorio, dentro del espacio muestral S. P(A) es una funcin de conjunto que satisface los tres axiomas siguientes:

1. P(A) 0 2. P(S) = 1

Para cualqeuier suceso A S

3. P(A,UA2UA3U .........) = P(A1 ) + P(A2 ) + ....., si A1 , A2 , A3 ..........


Ai A j = para i j .

es

una

sucesin de sucesos mutuamente excluyentes o incompatibles, es decir, si

1.2.5 TEOREMAS

FUNDAMENTALES

DEDUCIBLES

DE

LA

TEORA

AXIOMTICA DE LA PROBABILIDAD 1.2.5.1 Si P(A) es la probabilidad de un suceso A, la probabilidad del suceso contrario a A es igual a UNO menos la probabilidad de A, es decir,
P(A ) = 1 - P(A)

Demostracin: Si
A A = S y A A' = ,

sea,

son

mutuamente

excluyentes,

P(A A' ) = P (S), por axioma tercero. P (A A' ) = P(A) + P(A' )

segundo axioma tenemos que

por

P(S) = 1.

P(A A' ) = P(A) + P(A' ) = 1 .

Luego: P(A) = 1 P(A).

1.2.5.2

La probabilidad de un suceso lgicamente imposible es cero; o sea,

P( ) = 0 .
Demostracin:

= S' P() = P(S') y por el teorema 1.2.5.1, sabemos que:

P(S') = 1 - P(S), pero P(S) = 1 P(S') = P() = 1 - 1 = 0


Luego: P ( ) = 0. 1.2.5.3 0 P(A) 1 Cualquiera que sea el suceso A Demostracin:

P (A) 0 por axioma primero

Luego debemos probar que P(A) 1, por teorema 1.2.1, vemos que P(A) = 1 P
(A); pero P (A') 0 , por axioma primero P(A) 1 luego 0 P(A) 1.

1.2.5.3

Si A1 A2 P(A1 ) P(A2 )

Demostracin:
' Si A1 A2 A1 A1 A2 = A2

Tal como se puede apreciar en el siguiente diagrama:

' A2 = A1 A1 1 ' 1 2

[ ] P [A (A A )] = P (A

c A1 A2

' ) P(A1 ) + P(A1 A2 ) = P(A2 ), como

' P(A1 ) 0 y P(A1 A2 ) 0 ,

Luego podemos concluir que:


P(A1 ) P(A2 ).

1.2.5.4

Para

cualquier

par

de

sucesos

A1

A2

se

tiene

que

P(A1 A2 ) = P(A1 ) + P(A2 ) - P(A1 A2 ) .

Demostracin: Ayudmonos a travs del siguiente grfico:

Observando el diagrama, podemos ver claramente que:


' ' A1 A2 = (A1 A2 ) A1 A2 A2 A1 , por consiguiente :

P ( A1 A2 ) = P A1

' A2

)+ P (A

) (

A2 ) + P A2

' A1

' ) y que Ahora; de modo similar vemos que: A1 = (A1 A2 ) (A1 A2

' ' (A1 A2 ) (A1 A2 ) = P(A1 ) = P(A1 A2 ) + P(A1 A2 )

P(A1

' A2

) = P(A1 ) - P(A1 A2 ),
3

' ' Por otra parte; A2 = (A1 A2 ) (A2 A1 ) y (A1 A2 ) (A2 A1 ) = ' P (A2 ) = P (A1 A2 ) + P (A2 A1 ) ' P (A2 A1 ) = P (A2 ) - P(A1 A2 )

Ahora, remplazando: (2) y (3) en (1) se tienen que.


P(A1 A2 ) = P(A1 ) + P(A2 ) - P(A1 A2 ), SI A1 A2 = P(A1 A2 ) = P(A1 ) + P(A2 )

1.2.6

TEORA CLSICA DE LA PROBABILIDAD4

En ciertos problemas, con espacio muestral discreto y nmero finito de puntos, (los juegos de azar por ejemplo), es realista suponer que la probabilidad asignada

Tambin se conoce como teora A priori de la probabilidad o regla de Laplace

a cada punto del espacio muestral es

1 . Podemos entonces de esta manera n

hallar la probabilidad P(A) para un subconjunto A del espacio muestral, con n(A) puntos, cada uno con probabilidad

1 : n

P(A) =

n(A) 1 1 1 + + ---- + = n n n n ____n(A) veces ____

Se puede comprobar que para un espacio muestral discreto con n puntos, la funcin P es funcin de probabilidad si cumple con los axiomas anotados anteriormente:

Probabilidad para cada punto =

1 n

Probabilidad para un subconjunto A S

Es P (A) =

n(A) 0 n

n es el total de puntos en S.

As por ejemplo, sea el experimento lanzar un dado una vez. El espacio muestral S = {1, 2, 3, 4, 5, 6} donde cada punto, (o resultado), de S tiene igual oportunidad, es decir, P(1) = P(2) = P(3) = ...... = P(6) = Ahora, definamos el suceso A = nmero obtenido menor que 3
A =

1 6

{X / X

< 3}

A = { 1, 2}

Luego, n(A) = nmero de veces favorables al suceso A = 2, n(A): frecuencia de A, y


n es el total de resultados posibles del experimento n = 6.

P (A) =

n(A) 2 1 = = n 6 3

1.2.7

TEORA FRECUENCIAL O A POSTERIORI

Es aquella que consiste en encontrar el valor de probabilidad, despus de repetirse el experimento un nmero considerable de veces. Por ejemplo; la probabilidad que tiene un jugador A de ganar cierto juego es P(A) = 3/5 y la probabilidad de perderlo es P(A) = 2/5; estas probabilidades son a posteriori, puesto que se conocieron despus de observar el juego de A repetidas veces.

Tanto la teora clsica como la frecuencial presentan serias dificultades, la primera en cuanto a la Ambigedad, de que parte siempre de espacios muestrales finitos y resultados equiprobables, pero cuando los resultados posibles generan un espacio muestral discreto infinito, como por ejemplo al hallar la probabilidad de que un nmero natural sea impar, dicha teora nos deja en nada; mientras que, la segunda teora presenta el inconveniente en cuanto a Repetirse el experimento un nmero considerable de veces; de ah la importancia que toma la teora axiomtica de la probabilidad, evitndonos los tropiezos o limitaciones de las teoras clsica y frecuencial.

1.2.8

PROBABILIDAD MARGINAL

Supongamos que el espacio muestral S, discreto formado por un nmero n finito de puntos, cada uno con igual probabilidad

1 . n

Ahora, hagamos una particin del espacio muestral S en m1 subconjuntos mutuamente excluyentes: A1, A2,A3,......, Am1 Hagamos otra particin de S en m2 subconjuntos mutuamente excluyentes, as.
B1, B2,B3,......, Bm2

Entonces los n puntos de S pueden clasificarse de la siguiente manera, utilizando la tabla de doble entrada:

B1 A1 A2 A3 . . . Ai . . . Am1 n11 n21 n31 . . . ni1 . . . nm11

B2 n12 n22 n32 . . . ni2 . . . nm12

B3 n13 n23 n33 . . . ni3 . . . nm13

... ... ... ... . . . ... . . . ...

Bj n1j n2j n3j . . . nij . . . nm1j

... ... ... ... . . . ... . . . ...

Bm 2 n1m2 n2m2 n3m2 . . . nim2 . . . nm1m2

La tabla indica, por ejemplo, que: el resultado n12 tiene a la vez el atributo A1 y el atributo B2; n11: nmero de veces en que ocurren simultneamente los atributos A1 y B1 respectivamente; y en general nij, es el nmero de veces en que ocurren simultneamente los atributos Ai y Bj. Luego la probabilidad de que sucedan Ai y Bj simultneamente ser:
P (Ai , B j ) = nij n

Pero si nos interesa solamente obtener la probabilidad del suceso Ai, sin interesarnos la clasificacin B, tendremos:

ni1 + ni2 + ni3 + - - - + nim2 n m2 n m2 ij P ( Ai ) = = P Ai B j j =1 n j =1 P ( Ai ) =

O bien, si nos interesa nicamente hallar la probabilidad del suceso Bj, estar dada por:

P Bj =

( )

m1

nij n

i =1

i =1

P(Ai B j )
y
B

m1

Donde P(Ai) y P(Bj) reciben el nombre de probabilidad marginal de A respectivamente.

Aqu escogemos nicamente dos criterios de clasificacin A y B; pero es obvio que la idea de probabilidad marginal, se pueda generalizar a ms de dos criterios de clasificacin.

1.2.9

PROBABILIDAD CONDICIONAL

Vamos a definir un tipo especial de probabilidades, que se denominan probabilidades condicionales o relativas. La probabilidad del suceso A condicionada por el suceso B, o probabilidad de A habiendo ocurrido B, es por definicin:
P( A B ) = P (B ) Pr obabilidad que A y B ocurran simultneamente Pr obabilidad m arg inal de B

P( A B ) =

Aunque esta idea es completamente general; podemos describir esta probabilidad condicional utilizando el caso particular de espacio muestral discreto con nmero finito de puntos, e igual probabilidad para cada punto. Utilizando la particin del espacio muestral y la tabla de doble entrada que formamos para escribir la probabilidad marginal, tenemos.

Imaginmonos que se examina el resultado de un experimento aleatorio para un atributo pero no para el otro. Deseamos hallar la probabilidad de que el otro atributo tenga un valor determinado.

Supongamos que una vez realizado el experimento se observa que tiene el atributo B3, deseamos hallar la probabilidad de que tenga adems el atributo A2.
m1

El total de resultados de B3 es: n13 + n23 + n22 + . . . + ni 3 =

i=1

i3

y de estos los

resultados favorables a A2 son: n23, de esta manera, la probabilidad de A2 cuando se sabe que ha ocurrido B3 es:
n 23

P ( A2 B3 ) =

n
i =1

m1

i3

Si dividimos el numerador y el denominador de la expresin por n, se tiene:

P ( A2 B3 )

n23 = m1 n ni 3 i =1 n

P( A2 B3 ) =

P( A2 B3 ) P(B3 )

En general:

P (Ai B j ) =

P(Ai B j ) P(B j )

; es decir,

La probabilidad de Ai dado Bj, es igual a la probabilidad de que ocurran Ai y Bj simultneamente sobre la probabilidad marginal de Bj. Tambin se tiene que:
P (B j Ai ) = P (Ai B j ) P ( Ai )

Ahora, utilizando el criterio de probabilidad condicional, podemos definir el carcter de dependencia e independencia de sucesos. Si A y B son sucesos dependientes,
P(AB) P(B) P(AB) P (B A) = P(A) P( A B ) =

P(A,B) = P(B) P(A,B) = P(A)

. P( A B ) . P (B A)

La ocurrencia de A afecta la ocurrencia de B o viceversa, ya que A B . Si A y B son sucesos independientes


P(A/B) = P(A) : El suceso A, no depende de la ocurrencia de B. P(B/A) = P(B) : El suceso B, no depende de la ocurrencia de A.

Para sucesos independientes se tiene que: P(AB) = P(A) P(B).

1.2.10

TEOREMA DE BAYES

Consideremos el caso de n sucesos


A1, A2, . . . . . . , An; mutuamente excluyentes, de tal manera que:

A1 A2 A3 . . . . . Ai A j . . . . . An =
Y sea un conjunto H definido de tal manera que:
H = ( A1 H ) ( A2 H ) . . . ( An H )

[( Ai H ) (A j H )] = con

i j

P(H) = P ( A1 H ) + P( A2 H ) + . . . + P( An H )

Si deseamos encontrar, por ejemplo,


P(A1/H) se tiene:
P ( A1 H ) = P (H ) P ( A1 H ) P( A1 H ) + P ( A2 H ) + . . . + P ( An H )

P ( A1 H ) =

Pero si no conocemos: P(A1H); P(A2H) ...... P(AnH) y conocemos P(H/A1); P(H/A2);


P(H/An) podemos expresar de la siguiente manera: P(A1H) = P(A1) P(H/A1) P(A2H) = P(A2) P(H/A2) . . . . . . . . .

P(AnH) = P(An) P(H/An)

Entonces:
P(A1 ) P(H A1 ) + P(A2 ) P(H A2 ) + . . . + P(An ) P(H An )

P ( A1 H ) =

P(A1 ) P(H A1 )

Dicha expresin es la que conocemos como Teorema de Bayes.

1.2.11.1 PROBLEMAS

Un joyero posee tres cofres para guardar joyas: en uno guarda los artculos de oro, en otro los de plata y en el tercero el cobre. Tiene 30 artculos de oro, los cuales son 10 relojes y 20 anillos; 40 artculos de plata: 10 anillos y 30 relojes; y 10 artculos de cobre, as: 5 anillos y 5 relojes.

Si el joyero elige un cofre al azar y extrae un artculo, tambin al azar, que resulta ser un anillo. Cul es la probabilidad de que sea de oro?

Solucin:

Sea: O: Representa artculos de oro C: Representa artculos de cobre P: Representa artculos de plata A: Representa los anillo R: Representa los relojes

Lo que el problema nos pregunta, es lo siguiente: P(Sea de oro/ (dado que)Result anillo?)= P(O/A) = ?

Como el joyero escoge las urnas o cofres al azar y como son 3, cada uno tiene igual oportunidad de ser seleccionado, es decir, P(O) = P(C) =P(P) = 1/3. Adems el problema nos proporciona la siguiente informacin, as:

P( A O ) = P (R O ) P( A P )

20 2 5 1 = ; P( A C ) = = 30 3 10 2 10 1 5 1 = = ; P (R C ) = = 30 3 10 2 10 1 30 3 = = ; P (R P ) = = 40 4 40 4

Entonces, por el teorema de Bayes:

P(O A) = P (O A) = P (O A) =

(1 3) . (2 3) (1 3) (2 3) + (1 3) (1 2) + (1 3) (1 4)
8 17

P (O ) . P ( A O ) P (O ) P( A O ) + P (C ) P ( A C ) + P(P ) P( A P )

1.2.11.2 Una caja con 1.000 tornillos contiene: 50 con defecto de tipo A 32 con defecto del tipo B 18 con defecto del tipo C 7 con defecto del tipo A y del tipo B 5 con defecto del tipo A y del tipo C 4 con defecto del tipo B y del tipo C 2 con defecto del tipo A, del tipo B y del tipo C

Si extrae un tornillo al azar, calcular: 1. La probabilidad de que el tornillo tenga un defecto del tipo A o del tipo b o de ambos. Solucin: Como se puede ver los sucesos son compatibles, es decir:

A B ; AC ; A B C
Lo que se nos pregunta no es ms que la probabilidad de la unin de los sucesos
A y B:

P ( A B ) = P(A) + P(B) - P( A B ) P( A B ) = 50 32 7 3 + = 1000 1000 1000 40

2. Hallar la probabilidad de que, tenga al menos uno de los 3 tipos de defectos. Solucin: Que tenga al menos uno implica que se presente uno solo o 2 o los 3 defectos; luego nos piden hallar:

P( A B C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC) 50 32 18 7 5 4 2 + + + 1000 1000 1000 1000 1000 1000 1000 43 P( A B C ) = 500 P( A B C ) =

3. Hallar la probabilidad de que el tornillo est libre de los tres defectos.

Solucin: Sea D el suceso de tener al menos uno de los tres defectos; O sea
D = A B C; entonces D, ser el suceso no tener defectos de ningn tipo.

P(D') = 1 - P(D) = 1 - P( A B C ) P(D') = 1 -

43 457 = 500 500

1.2.11.3 Sean A y B dos sucesos tales que A B Probar que:

P[(A B' ) (B A' ) ] = P(A) + P(B) - 2P(A B)


PRUEBA: Ayudmonos a travs del siguiente diagrama de Venn:

( A B' ) (A B) (B A' ) =

P[( A B' ) (B A' )] = P ( A B' ) + P (B A' )

y P[( A B' ) ( A B ) (B A' )] = P ( A B' ) + P ( A B ) + P(B A' ) Pero

( A B' )

( A B ) (B A' ) = ( A B )

Luego igualando y , tenemos:


P ( A B ) = P(A) + P(B) - P(A B) = P(AB') + P(AB) + P(BA') P(AB') + P(BA') = P(A) + P(B) - P(AB) - P(AB)

P (( AB' ) (BA' )) = P(A) + P(B) - 2 P(AB)

1.2.11.4 En un naipe de 40 cartas se hace una extraccin de 5 cartas y resultan 2 espadas. Cul es la probabilidad de que una de ellas sea el as? Cul es la probabilidad de que una sea el as y la otra el rey?

SOLUCIN:

Sea A el suceso extraer dos espadas en una muestra de 5 cartas. Sea el suceso B, extraer el as de espadas en la muestra de 5 cartas. Luego, la probabilidad que nos piden es: P(B/A)
P(AB) P(A)

P (B A) =

El suceso (AB) es entonces, extraer 2 espadas y una de ellas es el as de espadas, en la muestra de 5 cartas; luego:

P(AB) =

) (9 ) (30 ) (1 1 1 3 . (40 5)

) (1 1 : En las 10 cartas espadas, hay 1 as y ese es el que tomamos. (19 ) : Una vez considerado el as de espadas, la segunda carta de espadas, la
) (30 3 : Las otras 3 cartas que hacen parte de la muestra de 5, las tomamos
lgicamente de las 30 restantes, y podemos tomar de las 9 restantes.

(40 5 ) : Es el nmero total, de posibles muestras de tamao 5, que podemos


extraer de la poblacin de 40 cartas. Analizando en forma anloga, tenemos:

P(A) =

)(30 ) (10 2 3 (40 5) ) (9 ) (30 ) (1 1 1 3 ) (30 ) (10 2 3


=

Luego:
P(B/A) =

(19 ) ) (10 2

1 5

Para responder la segunda parte del ejercicio; definamos el suceso A de idntica forma como en el caso anterior y definamos que B sea el suceso Extraer as de espadas y rey de espadas en una muestra de 5 cartas, tenemos: El suceso (A B) : Extraer dos espadas, una el rey y otra el AS en una muestra de 5 cartas. Pero vemos que (A B) = B. Luego:

P(B/A) =

P(A B) P(B) = P(A) P(A)

P(B/A) =

)(1 )(30 ) 40 ) (1 1 1 3 (5 )(30 ) 40 ) (10 2 3 (5 ( )


1 10 2 = 1 45

P(B/A) =

1.2.11.5 Se han adquirido 3.000 botellas de vino a $8 cada una; 2.000 a $9 cada una y 1.000 a $10 cada una. Se extrae una botella al azar y se vende a $9,50. Cul es la probabilidad de ganar; $1,50? 0,50?; de perder $0,50?

SOLUCIN:

Para ganar $1,50 es necesario extraer una botella de $8. Sea A el suceso que indique tal extraccin. Luego, P(A) =

n(A) 3.000 1 = = n 6.000 2

Para ganar $0,50 es necesario extraer una botella de $9; llamemos B a este suceso, tenemos:

P(B) =

2.000 1 n(B) = = 6.000 3 n

Ahora, para perder $0,50, es necesario extraer una botella de $10; llamemos C, este suceso; luego

P(C) =

n(C) 1.000 1 = = n 6.000 6

1.2.11.6 Se tienen 3 libros de matemticas, 4 de fsica y 6 de qumica. Si se colocan en un estante al azar: Cul es la probabilidad de que los de qumica queden todos juntos?

SOLUCIN

Sea A el suceso que representa Libros de qumica siempre juntos; luego.


P(A) = n(A) Casos favorables al suceso = n Total de casos posibles

n = 13! , ya que hay un total de 13 libros para permutar; y el nmero de


permutaciones favorables al suceso A, n(A) = 8! 6! = P8 x P6 puesto que se consideran 3 diferentes libros de matemticas, 4 de fsica y 1 (un)solo bloque de qumica, o sea, 8 elementos, (3M + 4F + 1Q), que puede ocupar cualquier lugar;

adems los 6 libros de qumica pueden cambiar de lugar entre ellos, sin dejar de permanecer unidos; luego tenemos:

P(A) =

8! 6! 2 = 13! 429

Cul es la probabilidad de que en cada extremo quede un libro de fsica y en el centro un libro de qumica? Sea A el suceso un libro de fsica en cada extremo y un libro de qumica en el centro

P(A) =

n(A) n

Uno de los extremos se puede ocupar de 4 maneras, el otro de 3 maneras y la posicin central de 6 maneras, quedan 10 libros para los 10 restantes puestos, que se pueden llenar de 10! = P10 maneras. Luego; n(A) = 4 x 3 x 6 x 10!
y

n = 13!

P(A) =

4 x 3 x 6 x 10! 6 = 13! 143

1.2.11.7 Un empleado que trabaja en cierta factora debe elegir dos caminos para llegar a su casa, uno de ellos es a travs de un tnel y el otro a travs de un puente. La ruta a elegir se hace al azar, siendo 1/3 la probabilidad que tiene de elegir el tnel y 2/3 la de escoger el puente. Si elige el tnel llega a su casa a las 6 p.m., el 75% de las veces, mientras que si escoge el puente llega a las 6 p.m., el 70% de las veces.

Cierto da llega a casa a las 6 p.m. y al preguntarle su esposa qu camino eligi l responde, que el puente. Cul es la probabilidad de que haya respondido la verdad?
P(A) = 1/3

Sea A el suceso de elegir el tnel

Sea B el suceso de elegir el puente P(B) = 2/3 Sea C el suceso de llegar a la casa a las 6 p.m.

La probabilidad pedida es, entonces: P(B/C) Adems, el problema nos da la siguiente informacin:
P(C/A) = 0 ,75 ; P(C/B) = 0 ,70 P(B C) P(B) P(C/B) = P(C) P(B) P(C/B) + P(A) P(C/A) (2 3) (0,70) P(B/C) = = 0 ,65 (2 3) (0,70) + (1 3) (0,75) P(B/C) =

1.2.11.8 Se extraen naipes con reemplazamiento5 de una baraja de 40 cartas, (Naipe espaol), hasta que aparezca el primer as. Cul es la probabilidad de que el nmero de extracciones hubiese sido 5?

SOLUCIN:

Para que la quinta extraccin se obtenga el primer as, en las cuatro extracciones anteriores, no debe aparecer ningn as; por consiguiente, la probabilidad es:
4

36 4 P(o) = . = 0,066 40 40
= P(No aparezca en la primera extraccin) x P(No aparezca en la segunda) x ...... x P(No aparezca en la cuarta) x P(Aparezca en la quinta extraccin).

Si las extracciones fueran sin reemplazamiento, tendramos:

P(o) =

36 35 34 33 4 x x x x = 0,073 40 39 38 37 36

Quiere decir que todo elemento que fue extrado una vez observado, regresa a su poblacin de origen, y vuelve a tener oportunidades de salir, en este caso de muestreo la poblacin permanece constante.

1.2.11.9 Una urna contiene 25 piezas, de las cuales 10 son defectuosas. Se toman dos piezas al azar, de la urna. Cul es la probabilidad de que ambas piezas sean buenas? Qu ambas sean defectuosas? Que una sea buena y la otra defectuosa?

SOLUCIN:

Empecemos por responder la primera pregunta as: Sea A1, suceso Pieza seleccionada es buena, en la primera extraccin. Sea A2 suceso Pieza seleccionada es buena, en la segunda extraccin.

Luego, la probabilidad se reduce a:

P(A1 A2 ) = P(A1 ) P(A2 /A1 ) =

15 14 7 . = 25 24 20

Tambin podemos responder esta pregunta, haciendo uso del anlisis combinatorio; as:

Sea H: El suceso extraer dos piezas buenas P(H) =

n(H) n

n(H) = C 15 2 : De la poblacin de piezas buenas tomamos las 2 y los casos


posibles o muestras posibles de tamao 2 de toda la poblacin est dado por:

n = C 25 2
15 ) ( 15! 13! 2! 7 P(H) = 2 = = 25 ( 2 ) 25! 23! 2! 20

Ahora, entremos a resolver la segunda pregunta formulada en el problema; y seguidamente la ltima:

Sea G: Las 2 piezas resultan ser defectuosas Sea R el suceso Una resulta ser buena y la otra defectuosa Sea H, las dos piezas seleccionada son buenas

Podemos afirmar que: H G R = S H G R =


Luego, P(H G R) = P(S)
1 = P(H) + P(S) + P(R)

Ya sabemos que P(H) = 7/20 Entonces hallemos P(G) y P(R)

n(G) P(G) = = n

) (10 2 = ) (25 2

3 y 20

P(R) =

n(R) ; Aqu debemos considerar que la primera sea mala y la segunda n

buena es la primera consideracin; y la segunda consideracin, que la primera sea buena y la segunda sea mala; as:

P(R) =

10 15 15 10 1 x + x = 25 24 25 24 2
1 = P(H) + P(S) + P(R)
1 = 7 / 20 + 3 / 20 + 1/ 2

VERIFICACIN:

1 = 1, Verdadero!

1.2.11.10 Los dgitos 0, 1, 2, ---, 9 se acomodan en un orden aleatorio.

Encuentre la probabilidad de que los dgitos 3 y 4 sean vecinos.

SOLUCIN:

Ilustremos el problema de la siguiente forma:

34xxxxxxxx x34xxxxxxx xxxxxxxx34 43xxxxxxxx x43xxxxxxx . . . xxxxxxxx43

Sea el suceso de A Los dgitos 3 y 4 sean vecinos Luego:

P(A) =

n(A) n

n(A) = V19 2! = 18
n = V 2 = 90
10

Luego, P(A) = O tambin.

18 1 = 90 5

P( 3 y 4 sean vecinos) = P( 3 y 4 ) + P( 4 y3 ) = 9

1 1 1 1 2 1 x +9 x = = 10 9 10 9 10 5

1.2.11.11 Se lanza una moneda "Honesta" 15 veces y se registra su resultado l cabo de cada tirada. Determnese la probabilidad de que ocurra "al meno na cara", al final e los 15 lanzamientos. SOLUCIN: Sea "A" el suceso obtener al menos una cara \ sabemos que el nmero de resultados posibles de un experimento aleatorio est dado por: Kn \ K es el nmero del evento simple, en este caso, los resultados de lanzar una moneda una vez son

2: cara o sello y "n" representa el nmero de veces en que se repite el evento simple n=15. Ahora

Como cada ocurrencia de evento simple tiene la misma probabilidad de ocurrir y sus resultados son independientes, es decir,

O sea:

Lo que significa que prcticamente tenemos la seguridad de observar por lo menos una cara. 1.2.11.12 Una urna contiene "n" bolas azules y "m" bolas rojas. Si de la urna tomamos una muestra aleatoria de "K" bolas Cul es la probabilidad de que al sacar una bola sea Azul? SOLUCIN: n+m = Total de Bolas K = Total de bolas en la extraccin

la bola azul la mantenemos "fija" en en el lugar (k+1)


n + m 1 se obtienen VK casos favorables para cada bola azul, luego los casos n + m 1 favorables para todas las bolas azules est dado por n VK y los casos n +m posibles estn dados por: VK +1

La probabilidad pedida = P ( ) =

n + m 1 n VK n = . n +m n+m VK

1.2.11.13 Del ejercicio anterior [1.2.11.12], al extraer la muestra aleatoria de K bolas; nos preguntamos: 1.2.11.13.1 Cul es la probabilidad de que sean "P" azules donde el muestreo se hace "Con remplazamiento"? 6 SOLUCIN:
P veces Un suceso de la forma AAA........A K P veces Donde la probabilidad de RRR......R

n n ese suceso, est dada por: n +m n +m

K P

, pero para la ocurrencia de


P K P

K n n todos los posibles sucesos, esta dado por P () = P n +m n +m


se hace "Sin remplazamiento"? 7 SOLUCIN:

1.2.11.13.2 Cul es la probabilidad de que sean "P" azules donde el muestreo

En este caso el valor de probabilidad varia de una extraccin a otra; as: Para una ocurrencia posible, la probabilidad ser:

6 7

Con remplazamiento" ; Se hace la extraccin y regresa a la poblacin. "Sin remplazamiento" ; Se hace la extraccin y no regresa a la poblacin.

n n 1 n ( p 1) m m 1 m (K p 1) = ... ... n + m n + m 1 n + m ( p 1) n + m p n + m ( p + 1) n + m (K 1) (n + m K )! n! m! n+mK ( n p )! (m (K p ))! ( n p )! (m K + p )! np = = (n + m )! (n + m )! n+m n ! m! n (n + m K )!


Ahora teniendo en cuenta todas las ocurrencias posibles

K P () = P

n+mK np n+m n

1.2.11.14 Cul es el nmero mnimo de veces que es preciso lanzar dos dados para que la probabilidad de sacar un seis doble sea mayor que la de no sacarlo? SOLUCIN: La probabilidad de obtener el resultado (6,6) = 1/6 * 1/6 = 1/36 La probabilidad de no obtener un (6,6)= 1- 1/36 = 35/36 si se lanza el dado "n" veces, la probabilidad de que no salga un seis doble es : (35/36)n luego la probabilidad de que salga al menos una vez ser 1-(35/36)n , de donde, n > log2 /(log36- log35)

1.2.11.15

Un mecanismo elctrico que contiene, cuatro interruptores, solo

funciona cuando todos ellos estan cerrados. El funcionamiento de los interruptores es independiente en cada uno de ellos, tanto en lo que se refiere al cierre o la apertura, y para cada uno de ellos, la probabilidad de que no funcione es 0,1. Cul es la probabilidad de que no funcione el mecanismo en conjunto? SOLUCIN:

Sea " Sea "

" el suceso que nos indica que el mecanismo "Falle" " el suceso que nos indica que el mecanismo "No Falle"

Sea Sea

: Los sucesos que indican que el interruptor J est cerrado . \ J= 1,2,3,4. : Los sucesos complementarios, es decir que el interruptor J est abierto.

J= 1,2,3,4

y as calcularamos para los interruptores J= 2,3,4


El mecanismo funciona si y solo si: S1 S2 S3 S4

Es decir que funcione el interruptor 1 "Y" el interruptor 2 "Y" el interruptor 3 "Y" el interruptor 4; Luego P(Mecanismo funcione) = = P(S1 S2 S3 S4 )

Como los SJ son independientes = P(S1) P(S2 ) P(S3) P(S4 ) = 0.9 * 0.9 * 0.9 * 0.9 = (0.9)4 = 0.6561 Entonces P(F) = 1 - 0.6561 = 0.3439
Tambin se puede resolver el problema definiendo a

El mecanismo no funciona siempre que uno de los interruptores este abierto.

2. VARIABLES ALEATORIAS Tomemos un espacio muestral S, con funcin de probabilidad P(A) definida para un suceso A; si X es una funcin de valores reales definida en S, (o sea que cada punto del espacio muestral se le hace corresponder un punto del eje X), se dice que X es una variable aleatoria unidimensional. En general, si cada punto de
S, se hace corresponder con un punto, (X1, X2, --- Xn) del espacio n-dimensional, se

tiene una variable aleatoria pluridimensional. Por ejemplo: Sea el experimento aleatorio lanzar una moneda dos veces. El espacio muestral S = {(c,s); (s,c); (c,c);
(s,s)} consta de 4 puntos. Sea X la variable aleatoria que nos representa el

nmero de sellos. Dicha variable puede tomar los siguientes 4 valores, correspondientes a los 4 puntos de S: 1, 1, 0, 2.

Estando la funcin de probabilidad completamente definida para el espacio muestral S, como P(A) =

n(A) ; podemos escribir, por ejemplo: n

P(x = 0 ) = P(x = 1 ) =

1 , para designar la probabilidad de que el nmero de sellos sea cero; 4 1 : Probabilidad de obtener un sello y 2

P(x = 2 ) =

1 : Probabilidad de obtener dos sellos. 4

Veamos otra forma, de tratar el experimento anterior, as: Sea X la variable aleatoria que representa el nmero de sellos y sea Y la variable aleatoria que representa el nmero de caras. La variable aleatoria bidimensional transformar los puntos de S en puntos del plano X Y. Luego a: (c,c) corresponde x = 2, y = 0, o sea, (2,0) (c,s) corresponde x = 1, y = 1, o sea, (1, 1) (s,c) corresponde x = 1, y = 1, o sea, (1, 1) (s,s) corresponde x = 0, y = 2, o sea, (0, 2)

Entonces, P[(2 , 0 )] =

1 1 ; P[( 1, 1 )] = y as sucesivamente 4 2

2.1 VARIABLE ALEATORIA DISCRETA

En general, es aquella variable aleatoria con un nmero finito o infinito numerable de puntos. En el caso de que la variable sea unidimensional, con valores posibles
X1, X2, ......, Xn; y con probabilidades: f(x1), f(x2), f(x3), ...... - f(xn) , para cada uno de dichos valores, el conjunto cuyos

elementos son los pares ordenados, ((x, f(x)), es llamado funcin de densidad, o funcin de cuanta o funcin de probabilidad de la variable aleatoria X. Para cualquier subconjunto A de los puntos X1, X2, ......, Xn; tenemos entonces que:
P(A) =

X A

f(x)

P(A) representa la suma de f(x) para aquellos valores de X que pertenecen


a A; luego P(A) es llamada FUNCIN DE DISTRIBUCIN para el suceso A.

Veamos el siguiente ejemplo:

Supongamos que un experimento aleatorio consiste en lanzar dos dados y registrar el nmero posible de puntos. Cada resultado puede asociarse con el valor de una variable aleatoria X; por lo tanto, X toma los valores: 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12. Calculemos ahora f(x), o sea, la probabilidad de que aparezcan X puntos.

Sabemos que el espacio muestral consta de 36 puntos, (1,1), (1,2), . . ., (1,6); (2,1). (2,2) . . ., (2,6); (3,1), (3,2), . . ., (3,6); (4,1). (4,2) . . ., (4,6); (5,1), (5,2), . . ., (5,6); (6,1). (6,2) . . ., (6,6). El nmero de casos en que pueden caer X puntos es:
X1 : para X = 2, 3, 4, 5, 6, 7 X = 8, 9, 10, 11, 12 y 13 X : para

Luego

f(x) = f(x) =

X-1 n(x) = X = 2 , 3, 4 , 5 , 6 , 7 36 n 13 - X para X = 8, 9 , 10 , 11, 12 36

f(x) = 0 para X ( 2, 3,. . . . ., 12 )


Puesto que:

X =2

X-1 36

12

13 - X 36

= 1

y f(x) 0

X =8

Para todo X, definido del experimento tratado. Una vez conocida f(x) podemos hallar las diversas funciones de distribucin relativas a X. Denominemos
Fx (x) = P[x x ] = Fx (x) = P[x x ] como funcin de distribucin

acumulativa de la variable aleatoria X, as:


X x

f(x)

Por ejemplo:

P(x 4 ) = F( 4 ) = Pr obabilidad de obtener 4 puntos o menos P(x 4 ) = FX ( 4 ) =


x=2 4

x-1 1 = 36 6

P( 6 x 8 ) = Pr obabilidad de otener un puntaje comprendido entre 6 y 8 inclusive

P( 6 x 8 ) = P( 6 x 7 ) + P(x = 8 ) =

x =6

x - 1 13 - X + , x = 8 36 36

Las condiciones que debe cumplir f(x) para ser funcin de densidad de una variable aleatoria discreta unidimensional, son: 1. Si el dominio de la funcin es X1, X2, . . . Xn f(x) 0

2.

f(xi) = 1
tambin, (Remitindonos al ejercicio anterior), la probabilidad

Hallemos

condicional de que el nmero de puntos sea menor que 3, cuando se sabe que dicho nmero es menor que 8.

Sea A el suceso Nmero de puntos menor que 3 Sea B el suceso Nmero de puntos menor que 8 Deseamos hallar:
P(A B) P(B)

P(A/B) =

El suceso A = {X / x = 2} El suceso B = {X / x = 2, 3, 4, 5, 6, 7} Luego el suceso

(A B)

= {X x = 2}

P(A B) =
Por otra parte,

x-1 ;x = 2 36

P(A B) =

1 36

P(B) =

21 x-1 = 36 x = 2 36
7

Concluimos entonces que, P(A/B) = P(X < 3 / X < 8)

1 36 1 x = 36 21 21

2.2 FUNCIONES DE DOS O MAS VARIABLES DISCRETAS

En general, las funciones de densidad de variable discreta pluridimensional, tiene las mismas propiedades de las funciones similares de una variable. Podemos decir entonces que una funcin f(x1, x2, ...... , xn) es una funcin de densidad de n variables reales si y solo s: 1. f ( x1 , x 2 , . . . . ., x n ) 0 2.

x x
1 2

...

f ( x , x , . . . ., x n ) x
1 2

= 1

Las funciones de densidad conjunta o de dos variables aleatorias discretas, se representan entonces de esta misma manera.

Tomemos como ejemplo, el lanzamiento de dos dados.

Sea X la variable aleatoria de tipo discreto, que nos representa el nmero de puntos del dado y Y la variable aleatoria discreta que nos representa el nmero de puntos del dado
X = 1, 2, 3, 4, 5, 6 Y = 1, 2, 3, 4, 5, 6

f(x, y) =

1 : Probabilidad de obtener X puntos en el dado y Y 36

puntos en el dado .

Probemos que f(x, y) si es funcin de probabilidad:

1.

f(x, y) =

1 36

f(x, y)

>

2.

36
y =1 y =1

= 1

Luego f(x, y) si es funcin de probabilidad. Q Veamos ahora otro ejemplo:

Una urna contiene 6 bolas blancas, 5 bolas negras y 4 bolas azules. Si se extraen 4 bolas, hallar la funcin de densidad conjunta del nmero de bolas negras y azules.

SOLUCIN: Sea X la variable aleatoria que representa el nmero de bolas azules en la muestra. Sea Y la variable aleatoria que representa el nmero de bolas negras en la muestra. El recorrido conjunto de las variables X e Y Conjunta est dado por : y su funcin de Probabilidad

0 X + Y 4 f(x, y) =

5 6 (4 x ) ( y ) (4 - (x+ y) ) (15 4)

De igual manera podemos hallar la funcin de distribucin correspondiente a una situacin deseada, as por ejemplo,

Hallemos,

F( 2 , 1 ) = P(X 2, Y 1 ) = f( 0, 0 ) + f( 0, 1 ) + f( 1, 0 ) + f( 1, 1 ) + f( 2, 0 ) + f( 2, 1 )

F( 2, 1 ) =

f(x, y)
y =0 x =0

2.3 FUNCIN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS

Al hablar de funcin de densidad conjunta podemos definir la funcin de densidad marginal de X o de Y. Llamemos entonces f1(x) la funcin de densidad marginal para X y f2(y) la funcin de densidad marginal para Y.

En el caso del ejemplo de las bolas negras y azules, tenemos:


5 6 (4 x ) ( y ) (4 - (x+ y) ) (15 4)

f(x, y) =

Para: X = 1, 2, ---- 4
Y = 1, 2, ---- 5 f(x, y) = 0 f1(x) =
4 -x

si X ( 1, 2 , ---, 4 ) Y ( 1, 2 , ---, 5 ) = f(x, 0 ) + f(x, 1 ) + f(x, 2 ) + f(x, 3 ) + - - - - + f(x, 4-x)

f(x,y)
y =0 4 -x y =0

f1 (x) =

5 6 (4 x ) ( y ) (4 - (x+ y) ) (15 4)

Observamos que la funcin de densidad marginal de X, la calculamos utilizando el recorrido de la otra variable, con el fin de que la conjunta nos quede en trminos de una sola variable.

Ahora:
4 -y

f 2 (y) =

f(x, y)
x =0

2.4 FUNCIN DE DENSIDAD CONDICIONAL

Si tenemos una funcin de densidad de variable discreta pluridimensional en general, podemos hallar la funcin de densidad condicional que deseemos; para el caso de funcin de densidad conjunta f(x, y), se tendrn dos funciones de densidad condicional, as:

1. G(xy) = P(x/y) =

f(x, y) f 2 (y) f(x, y) f 1 (x)

2. H(xy) = P(y/x) =

Si nos remitimos de nuevo al ejemplo de la distribucin de las bolas negras y azules; tenemos:

g(x,y)

5 6 (15 ) (4 x ) (x ) + y) (x 4 4 6 (15 ) (5y ) (4 x) + y) (x 4 4


4 y x =0

g(x,y) =

6 (4 x) + y) 4 (x 15 ) ( 4 4 6 ) ( x 4(x+ y)
4 y x =0

2.5 VARIABLE ALEATORIA CONTINUA

Es la que puede tomar cualquier valor dentro del intervalo que se considere; es decir, es aquella que toma un nmero infinito de valores. El concepto de funcin de densidad f(x), difiere en este caso al de variable discreta, ya que, aqu no es lgico hallar la probabilidad en un punto sino en un intervalo. Ya habamos visto que P(X x) = Fx (x) para < X < diremos que Fx(x) es la funcin de distribucin, (acumulativa), para la variable continua; podemos desde luego hallar la probabilidad en cualquier intervalo; encontremos:

P ( a < X b)
Sea A el suceso : Sea B el suceso : Sea C el suceso :

{X / X

a}

{X / X

b} b}

{X / a < X

Los sucesos A y C son mutuamente excluyentes, ya que A C = ; luego


P ( A C ) = P( A) + P(C ) ; Adems A C = B P( B) = P( A) + P(C ) P ( X b) = P ( X a ) + P ( a < X b ) P ( a < X b ) = P ( X b) P ( X a ) P (a < X b) = Fx (b) Fx (a )
Ahora siendo F continua en X = b Se puede probar que P(x=b)=0, esto implica que para variables continuas, se tienen que:
P (a < X b) = P (a < X < b) = P (a X < b) = P (a X b) = Fx (b) Fx (a )

Partiendo de la funcin de distribucin podemos obtener la funcin de densidad, as:

P ( x X x + x) = Fx ( x + x) Fx ( x)

Dividiendo por x :
P ( x X x + x) Fx ( x + x) Fx ( x) = x x

Pasando al lmite cuando x 0


Lim
x 0

( x X x + x) d . = Fx ( x) = f x ( x) x dx

O sea, que la primera derivada de la funcin de distribucin es la funcin de densidad, (En el caso, claro est, de variables aleatorias continuas). O tambin vale afirmar que:
x

Fx ( x) = P( x X ) =

f (u)du

Para un intervalo a X b) se tiene que


P (a X b) = f ( x)dx
a b

Las propiedades que debe cumplir fx(x) Para que sea funcin de densidad de variable aleatoria, son: Dominio de fx(x), tal que X es real
f x ( x) 0x ( , )

1. 2. 3.

( x)dx = 1

Veamos el siguiente ejemplo ilustrativo, a la situacin que acabamos que ver: La variable aleatoria X tiene como funcin de densidad:

f x ( x) = 2 x f x ( x) = 0

Si 0 < X < 1 Si X (0,1)

Hallar:
12

1. P(X < 1 2 ) =

f(x)dx = 0dx + 2xdx


0

12

P(X < 1 2 ) = 1 4 = Fx ( 1 2 )
1/2

2. P(1/4 < X < 1/2) =

1/4

2xdx = 16
x

3. Fx (x) = P(X x) =
0 x

f(u)du

Fx (x) =

Fx (x) = 2udu = X 2
0

0du + f(u)du
0

]0 = X 2

Luego Fx (x) = X 2 x (0,1) Fx (x) = 0


2.6 FUNCIN

x (0,1)

DE

DENSIDAD

PARA

VARIABLE

CONTINUA

PLURIDIMENSIONAL

En el caso de variable continua pluridimensional, la funcin de densidad

f(x1 , x2 ,..., xn ) debe ser 1. f(x1 , x2 ,..., xn ) 0 X i ; i = 1,2,...., n 2. X 1 : Real; X 2 : Real;...; X n : Real

3.

....... f(x1 x2 ...x n )dx1 dx2 ...dx n = 1

2.7 ESPERANZA MATEMTICA La esperanza matemtica, valor esperado o media de la variable aleatoria X se define como:
n

E(x) = xi f(xi ) para variable discreta con dominio, X1, X2 . . ., Xn y funcin de


i =1

densidad f(xi). Para variable continua la esperanza matemtica se define como:

E ( x) =

Xf

( x)dx ; siendo f(x) la funcin de densidad.

En estructura, E(x) es similar a al media aritmtica comn, X , obtenida de los valores X1, X2, . . . ., Xn ; que observamos en una muestra, con frecuencias relativas
h1, h2, . . . , hn respectivamente , as : X =
n

X i hi
i =1

hi =

ni ; en donde si el n

tamao de la muestra n es muy grande hi f(xi ) (segn lo que se afirm en la teora frecuencial de la probabilidad). TERICAMENTE E(x) significa el valor central de la distribucin de probabilidad. La esperanza matemtica tiene las siguientes propiedades principales: 1. E(x) al igual que la media, es un nmero que depende de todos los valores de la serie y de sus respectivas probabilidades, ya que todos ellos entran en su clculo. 2. Si X e Y son variables aleatorias, entonces :
E (X + Y) = E(X) + E(Y)

3. Si A es una constante y X una variable, E(Ax) = A E(x) 4. Se X e Y son variables aleatorias independientes E(X.Y) = E(X) E(Y)

5. Si X1, X2, ......., Xe son variables aleatorias


E ( X 1 + X 2 + ..... + X e ) = E ( X 1 ) + E ( X 2 ) + .... + E ( X e )

6. Si X1, X2, ......., Xt son variables aleatorias independientes


E ( X 1 + X 2 + ..... + X t ) = E ( X 1 ) E ( X 2 ) * .... * E ( X t )

7. La esperanza matemtica es un valor que oscila en el intervalo (Mnimo Xi; mximo Xi), en donde, tiende a situarse en el centro, para as considerarse representativa de los valores de la serie de datos. 8. Si X es variable aleatoria y a una constante,

E ( x + a) = E ( x) + a
9. X variable aleatoria y , a y b constantes, E (ax + b) = aE ( x) + b

2.8 MOMENTOS CON RESPECTO AL ORIGEN Los momentos con respecto al origen de una variable aleatoria X, son los valores esperados de X .

Para variables aleatorias de tipo discreto.


X1, X2, ...., Xn se define el momento de orden con respecto al origen, como:

E ( X ) = ( xi) f ( xi)

i =1

En variables continuas, es:

E( X ) =

f ( x)dx

2.9 Momentos de orden respecto a una constante En variables discretas;


n

E((x a) ) = (xi a) . f(xi ) a, es una constante


i =1

Para variables continuas, se tiene:

E (( x a ) ) =

( x a)

f ( x)dx

2.10

Momentos de orden respecto a la media = E ( x)

Llamaremos, pues, de ahora en adelante, la media de la distribucin de la variable o media poblacional con la letra griega

Luego el momento de orden respecto a , en variables discretas, es:

E((x ) ) = (xi ) .f(xi )


i =1

En variables continuas, es:

E (( x ) ) =

(x )

. f ( x)dx

El momento de orden uno o primer momento, con respecto a es igual a cero , o sea : E [( x )] = 0; ya que E ( x ) = E ( x) = = 0 .

2.11

Varianza de una funcin de probabilidad

Si X es una variable aleatoria discreta, donde X = x1, x2, ...., xn con media E ( x) = ; la Varianza de X, a la cual llamaremos Var(x), se define como el momento de orden dos, con respecto a ; es decir,

Var(x) = x = E((x )2 ) = (xi )2 f(xi )


i =1 n

Ahora, en el caso de variable continua, se tiene que:

VAR( x) =

(x )

f ( x)dx

Adems, podemos probar que

Var ( x) = x

= E ( x) 2 2 para variables aleatorias discretas o continuas.

Veamos por ejemplo, si X es una variable aleatoria continua, con funcin de densidad f(x):

VAR ( x) = VAR ( x) =

(x )

. f ( x)dx

2 X f ( x)dx 2

Xd ( x)dx +

f ( x)dx

Pero

f ( x)dx = E ( x 2 )

2 X f ( x)dx = 2 X f ( x)dx = 2 E ( x) = 2 . = 2 2 :

Luego:
VAR ( x) = E ( x 2 ) 2 2 + 2 VAR ( x) = E ( x 2 ) 2

2.12

FUNCIN GENERATRIZ DE MOMENTOS

Se llamar funcin generatriz de momentos (f.g.m.), a la expresin:


Mx(t) = E (etx), cuando este valor esperado existe para b < t < b; donde b es

nmero real positivo. Para el caso de variables discretas se tiene que:


M x (t ) = E (e tx ) = e tx . f ( x) f ( x) exista

Y para variables continuas, as:

M x (t ) = E (e ) = e tx . f ( x).dx
tx

2.12.1 PROPIEDADES DE LA FUNCIN GENERATRIZ DE MOMENTOS

La importancia de la funcin generadora de momentos, radica en el hecho de que ella es nica y determina completamente la distribucin de una variable aleatoria, esto es, si dos variables aleatorias tienen una misma funcin Generatriz de momentos, deben tener igual distribucin.

La demostracin de esta propiedad omitida en estos apuntes, se basa en la unidad que existe entre la f.g.m. y la funcin de distribucin. La existencia de la funcin generatriz de momentos para b<t<b, donde b es nmero positivo, garantiza la existencia de las derivadas de cualquier orden en
t=0.

2.12.2

TEOREMA:

Sea X una variable aleatoria con funcin generatriz de

momentos Mx(t). Sea y=a . x+b, entonces My(t) = ebtMx (at)

Demostracin:
yt

M y (t ) = E e = E e
M y (t ) = e .M x (ta )
tb

( ) [

t ( ax + b )

] = E (e ) = E (e
t . ax + tb

tax

. e = e .E e

tb

tb

( )
tax

2.12.2 TEOREMA. Sean X, Y, variables aleatorias independientes y Z=X+Y, con funciones generatrices de momentos, Mx(t), My(t) y Mz(t) respectivamente, entonces:
Mz(t) = Mx(t) My(t)

DEMOSTRACIN:

M z (t ) = E e

[ ] ) = E (e = E (e . e )
tz t ( x+ y ) tx ty

= M x (t ).M y (t )

El teorema anterior, se puede generalizar a n variables aleatorias independientes,


xi, con funcin generatriz de momentos:
n

M xi (t)
n

Si

Z = X i , entonces
i =1

M z (t) = M xi (t)
i =1

2.13

FUNCIN CARACTERSTICA

Esta funcin siempre existe y se encuentra definida en el campo de los nmeros complejos. Cumple las propiedades de la f.g.m. Slo que se definen en un marco mucho ms amplio como el de los nmeros complejos. Se define como:

( ) = E e

( )
ix
ix

En caso de variable aleatoria discreta, se tiene que:


x

( ) = E e

( )= e
x

ix

. f x ( x)

Y en caso continuo, as:

( ) = E e

( )= e
ix

ix

. f x ( x)dx

2.14

EJERCICIOS

2.14.1 Supngase que un nmero se selecciona al azar entre los enteros del 1 al 20. Sea X el nmero de sus divisores. Construir la funcin de densidad de X. Cul es la probabilidad de que haya 4 o ms divisores al extraer un entero al azar.

SOLUCIN:

Hagamos el siguiente anlisis; para detectar el nmero de divisores del 1 al 20, as:
1 2 3 4 5 6 7 8 9 10 11 12 12 14 15 16 17 18 19 20

La probabilidad de que haya 4 o ms divisores, es:

P ( x 4) = f x (4) + f x (5) + f x (6) =

2.14.2 Se lanza un dado hasta que aparezca seis. Hallar la funcin de densidad del nmero de tiradas.

SOLUCIN Sea X la variable aleatoria que nos representa el nmero de tiradas.

Divisores

1 2

1 3

1 2 4

1 5

1 2 3 6

1 7

1 2 4 8

1 3 9

1 2 5 10

1 3 4 6 12

1 7

1 3 5

1 2 4 16

1 3 6 9 18

1 4 5 10 20

11 2

13 2

17 2

19 2

14 15 8

X :

Variable aleatoria que representa el nmero de divisores en los

nmeros del 1 al 20.


X f (x) 1 1/20 2 8/20 3 2/20 4 5/20 5 1/20 6 3/20

5 +1+ 3 9 = 20 20

Luego, puede ocurrir que aparezca, seis, en la primera tirada

P ( x = 1) = f x (1) =

1 6

Que aparezca al cabo de la segunda tirada, eso implica, que necesariamente en la primera tirada ocurrieran los resultados: 1, 2, 3, 4 o 5 nicamente y en la segunda aparecer el 6.

5 1 P ( x = 2) = f x (2) = . 6 6
5 5 1 5 1 5 5 1 P ( x = 3) = f x (3) = x x = . x x 6 6 6 6 6 6 6 6
5 5 5 1 5 P ( x = 4) = f x ( 4) = x x x = 6 6 6 6 6
1a 2a 3a 4a 3 1a 2a 3a 2

1 5 5 5 1 . x x x 6

6 6 6 6

. . .

. . .

. . .
x 1

5 P(x = x) = f x ( x) = 6

1 . 6

2.14.3 De un lote de 10 televisores hay 4 defectuosos; se extrae una muestra de 3 sin reemplazamiento. Hallar la funcin de densidad del nmero de defectuosos en la muestra. Sea X la variable aleatoria que representa el nmero de defectuosos en la muestra.
P ( X = x) = f x ( x) = Casos favorables Casos posibles

Los casos favorables pueden ocurrir de:


4 6 x 3 x

( )

10 o sea, el nmero total de muestras y los casos posibles son 3

posibles de tamao 3.

4 )( 6 ( x . 3 x ) X : 0, 1, 2, 3. f ( x) = ) (10 3
x

f x ( x) = 0

para x {0 , 1, 2 , 3}

2.14.4 Dada la siguiente funcin de densidad:


X f (x) 0 0 1 c 2 2c 3 2c 4 3c 5 c2 6 2c2 7 7c2+c

Encontrar C y hallar P ( x 5)

SOLUCIN: Sabemos que para que fx(x) sea funcin de densidad es necesario que se cumpla que:

f
x =0

( x) = 1

f x ( x) 0

Partiendo de

( x) = 1; tenemos:

c + 2c + 2c + 3c + c2 + 7c2 + c = 1 10c2 + 9c 1 = 0

c=

9 + 81 + 40

20 9 11 c= 20

9 + 121 20 c = 2 / 20 c = 1

Pero como f x ( x) 0

Que c = 1 / 10

Luego la tabla de probabilidades, queda:


X f (x) 0 0 1 1/10 2 2/10 3 2/10 4 3/10 5 1/100 6 2/100 7 17/100

P ( x 5) = f x (5) + f x (6) + f x (7)

Ahora,

1 + 2 + 17 20 1 = = 100 100 5

Tambin se puede resolver esta pregunta, utilizando el complemento; ya que sabemos que la probabilidad en todo el espacio o recorrido de la variable es 1, tenemos:
P ( x 5) = 1 P ( x < 5) = 1 P ( x 4) = 1 Fx (4) = 1 f ( x) = 1 { f x (0) + f x (1) + f x (2) + f x (3) + f x (4)} 0 + 1 + 2 + 2 + 3 = 1 10 8 2 1 = 1 = = 10 10 5
x =0

2.14.5 Una variable X tiene su grfico de distribucin, (rea), en forma de tringulo rectngulo de base 5, para X entre, 2 y 7. La pendiente de la hipotenusa es positiva. Dibujar el grfico y hallar P ( x 4) y P ( x > 5) .

Debemos encontrar la altura h del tringulo, partiendo de que el rea, (Espacio muestral), debe ser igual a la unidad, as:

rea :

bxh =1 2

5 xh 2 =1 h = 2 5

Ahora para hallar P ( x 4) no es ms que el valor del rea del tringulo pequeo; para ello es necesario averiguar h; por tringulos semejantes se tiene que:
h 5 2/5 5 = = h' 2 h' 2 4 4 5h ' = h ' = 5 25 2 4 / 25 4 Luego, P ( x 4) = = 2 25

En este ejercicio, bien lo podemos trabajar, como venamos haciendo o bien, hallando la funcin, (ecuacin), que acta en dicho campo, (espacio).

Para ello utilizamos la ecuacin de la lnea recta que pasa por dos puntos, es decir, la ecuacin de la recta que pasa por los puntos:

( x1 , y1 )

( x2 , y 2 ) ( 7 , 2/ 5 )

(2 , 0) y
Y2 Y1 ( x x1 ) x 2 x1

Y Y1 =

2/5 0 ( x 2) 72 2 4 Y= x 25 25 Y 0 =

Luego:

f x ( x) =

2 4 x 25 25

X [2, 7 ] X (2, 7)

f x ( x) = 0
7

si

4 2 P ( x > 5) = x dx 25 25 5 16 = 25

O tambin;

= 1 P( x 5)
4 2 = 1 x dx 25 25 2 16 = 25
5

2.14.6 Si fx(x) = 4K (x3-1) para 1 < x < 10 , es una funcin que determina el tiempo de ocurrencia de un experimento. Hallar el valor de K, para el cual f(x) es funcin de probabilidad. Para que f(x) sea funcin de densidad de variable aleatoria continua, es necesario:
1. Dominio de X, sea real 2. f ( x ) 0

3.

f ( x)dx = 1

Segn las 2 primera condiciones, implica que el valor de K debe ser positivo para que f ( x) 0
1

10 1 3

f(x)dx = 0dx + 4K(x

1)dx + 0dx = 1
10

x4 = 4K X = 1 4 1 K= 9963

3. DISTRIBUCIONES PROBABILSTICAS

3.1

Principales distribuciones de probabilidad para variable discreta.

3.1.1 Distribucin Binomial

Este modelo de probabilidad de refiere en general, a aquellos experimentos que consisten en un nmero de pruebas independientes, en la cual se llamar p la probabilidad de xito de cada prueba y q=1-p, la probabilidad de fracaso. Para que un experimento se pueda calificar como Binomial8 debe presentar las 4 propiedades siguientes:

1. Debe haber un nmero finito de pruebas. 2. Cada prueba debe tener como resultado un xito o un fracaso. 3. Todas las pruebas deben tener idnticas probabilidades de xito. 4. Debe haber independencia entre cada una de las pruebas.

Veamos ahora una serie de ejemplos en donde se cumple y en donde no se cumple, cada una de las propiedades anteriores. 1. Se lanza una moneda 5 veces; n=5 Luego se cumple la primera propiedad. Se lanza una moneda hasta que aparezca cara. No hay un nmero finito de pruebas, luego aqu no se cumple la primera propiedad.

2. Al tirar una moneda aparecer siempre cara o sello cada una con probabilidad 1/2 ; una de ellas se puede considerar xito segn el caso y la otra Fracaso. Cumple la segunda propiedad.
8

Es decir, su experimentacin se da a travs del muestreo con reemplazamiento o en el muestreo sin Reemplazamiento que provenga de Poblaciones muy grandes y tamaos de muestra relativamente grandes.

Supongamos que en una jaula haya 3 ratones: Uno blanco, uno gris y otro negro. Si se considera xito extraer ratn blanco y Fracaso extraer ratn gris; qu se podr decir entonces si la extraccin fuera ratn negro? Luego en este caso no se cumple la segunda propiedad.

3. Al extraer una carta con reemplazamiento 4 veces de una baraja ordinaria, la probabilidad de extraer un as es:

4 1 = 40 10

y permanece constante.

Cumple la tercera propiedad. Si la extraccin se hace sin reemplazamiento, la probabilidad de xito vara de una prueba a otra; luego no se cumple la tercera propiedad. 4. Citando la situacin anterior, se puede adaptar aqu, ya que al hacer extracciones con reemplazamiento los sucesos son independientes y si se hacen sin reemplazamiento seran dependientes. Q Ahora, para analizar completamente la distribucin Binomial y sus caractersticas, empecemos por definir la distribucin de Bernoulli: Un ensayo de Bernoulli, es aquel experimento en el cual solo hay dos resultados que nos interesan: El suceso A y el suceso A. As por ejemplo, Al lanzar 1 moneda A: caer cara A = caer sello Al lanzar 1 dado A: nmero obtenido es par A : nmero obtenido es impar. Al elegir una persona al azar, en una ciudad C A : la persona elegida naci en C A : la persona elegida no naci en C. Luego tenemos que A A' = ... A A' = S A un ensayo de Bernoulli, le hacemos corresponder una variable aleatoria
X, as: 1 : Si se presenta el suceso A X = 0 : Si se presenta el suceso A'

Entonces la P(x=1)= p: Probabilidad de xito


P(x=0)= q:

Probabilidad de fracaso

Sea X la variable aleatoria que se distribuye como un ensayo de Bernoulli, donde su funcin de densidad fx(x), est dada por :
f x ( x) = P ( X = x) = p x .q 1 x ; x = 0,1 f x ( x) = 0 para x {0, 1}

Podemos decir tambin que un Ensayo de Bernoulli se conoce con el nombre de Binomial con parmetros (1, p) y podemos escribir b(1, p). CARACTERSTICAS DE LA BINOMIAL (1, p ) ;
b(1, p)9

3.1.1.1

1. ESPERANZA. Sea x~ b(1, p) 10


E ( x) = X . f x ( x)
x =0 1 1

= X . p x .q 1 x
x =0

= 0+ p = p E ( x) = = p

2. VARIANZA. Var ( x ) =

x = E( x 2 ) (E (x ))
2

E(x ) = X 2 .f(x)
2 x =0

= 0 2 .f x (0) + 12 .f x (1) = f x (1) = p Luego :

x = p p 2 x = pq

= p(1 p)

3. FUNCIN GENERATRIZ DE MOMENTOS Por definicin es:

10

Notacin abreviada ~ : Interpretmoslo como, se distribuye

M x (t ) = E (e ) = e . f x ( x)
tx tx x =0 t

= e . f x + e . f x (1) M x (t ) = q + p e
t

t .0

4. FUNCIN CARACTERSTICA

X ( ) = E (eix ) = eix . f x ( x)
1 x =0

X ( ) = q + p ei
3.1.1.2

=e

(i ).0

. f x (0) + e . f x (1)

DISTRIBUCIN BINOMIAL (n, p) :

b(n, p)11

No es ms que n ensayos de Bernoulli con una misma probabilidad de xito


p.

Sean X1, X2, X3, ...... , Xn; Variables aleatorias independientes, todas binomiales (1, p); es decir:

X 1 ~ b(1, p ) f x1 (x1 ) = p x1 q 1 x1 X 2 ~ b(1, p ) f x2 (x2 ) = p x2 q 1 x2 ..... ...... X n ~ b(1, p ) f xn (xn ) = p xn q 1 xn


La variable aleatoria,
X = X1+ X2+ X3+...... + Xn, se dice que se distribuye Binomial (n, p) : b(n, p)

Por ejemplo, sean Xi, (i=1, 2, , 5), binomiales (1, p)


11

Notacin abreviada

X = X1+ X2+ X3+ X4+ X5, es una Binomial (5, p); donde X representa el nmero total

de xitos, en 5 ensayos de Bernoulli. Veamos otro ejemplo ilustrativo; sea el experimento aleatorio lanzar una moneda 10 veces, entonces definimos: Sea : X1 : nmero de caras en el primer lanzamiento.
X2 : nmero de caras en el segundo lanzamiento. . . . . . .

X10 : nmero de caras en el dcimo lanzamiento.

Luego: X = X1+X2 + --- + X10

: Representa el nmero de caras que pueden ocurrir en los 10

lanzamientos. Los posibles valores de X = {0, 1, 2, ......, 10} Y p = 0.5 (Probabilidad de caer cara)
X ~ b (10, 0.5)

3.1.1.3

CARACTERSTICAS DE LA b(n, p)

1. ESPERANZA Sea X = X1+X2+ ...... + Xn

Cada Xi ~ b(1,p)
E(X) = E(x1+x2+ --- +xn) = E(x1)+ E(x2)+ --- +E(xn) = p+ p + ...+p n veces

Luego :

E ( X ) = n. p = : Media de la distribucin b(n, p)

2. VARIANZA. Sea X ~ b(n, p)


X = X1+X2+ ...... + Xn Cada Xi ~ b(1, p) ; Var(X) = Var(X1+X2+ --- +Xn) = Var(X1) + Var(X2)+ --- + Var(Xn) = pq + pq + ... + pq n veces Var(x) = npq =

luego:

x
2

3. FUNCIN GENERATRIZ DE MOMENTOS: M X (t)


X = X1 + X 2 + + X n

y cada Xi ~ b (1, p)

M x (t ) = E e

( ) ] = E [e = E [e . e ... e ] = E (e ).E (e )...E (e )


tx t ( x1 + x2 +... xn ) tx1 tx2 txn tx1 tx2 txn

Mx

( ) (q + p e )...(q + p e ) = (q + p e ) (t ) = (q + p e )
= q + pe
t n t

= M x1 (t ).M x2 (t )...M xn (t )

t t n

4. FUNCIN CARACTERSTICA: Sea X ~ b(n, p)

( ) = E e

( ) = (q + p e )
ix

i n

La hallamos en forma similar a Mx(t), o tambin basta con hacer t = i en Mx(t) para as obtener

( ) .

5. Hallemos, el valor de la funcin de probabilidad, (Modelo), de la distribucin Binomial (n, p). Encontremos fx(x) por medio de la funcin caracterstica , as:

Sabemos que, Adems, Luego,

( ) = E e
i n

( )= e
ix n x =0

ix

f x ( x)

( ) = q + p e
i n n

[(q + p e )]

= e
x =0

ix

f x ( x)
n

Resaltemos que,

(a + b )

n x x = n x a b , frmula del binomio de Newton, que x =0

( )

asociaremos de la forma siguiente :

(q + p e ) (q + p e )

i n

=
x =0 n

( )

n q n x p i x e
ix

( )

i n

= n x
x =0

( )e
2

q n x p x

(n x )e
n x =0

ix

q n x p x = e f x ( x)
ix x =0

Luego para cada X


n p x q n x f x ( x) = x f x ( x) = 0

con X : 0,1,2,..., n Para X en otra parte

Probemos que fx(x) es funcin de probabilidad: Es obvio que fx(x) 0. Ahora resta, saber si

(n x )p
n x =0 n

q n x = 1

(n x )p
n x =0

q n x = (q + p ) : Por binomio de newton


= (1) n = 1

3.1.1.4

PROBLEMA

Si la probabilidad de acertar en un blanco es 1/5 y se hacen 10 disparos en forma independiente. Cul es la probabilidad de acertar por lo menos 2 veces. Encuntrese tambin, la probabilidad de acertar en el blanco al menos 2 veces, si suponemos que se acert por lo menos 1 vez?

SOLUCIN
p=1/5 : Probabilidad de acertar en el blanco o probabilidad de xito. q=4/5 : Probabilidad de no acertar o sea probabilidad de fracaso. n=10: El experimento es claramente Binomial.

X ~b (10, 1/5)
X : Variable aleatoria que representa el nmero de veces de dar en el blanco, X = 0, 1, 2, ---, 10

Sea A suceso: Acertar por lo menos 2 veces


A : Acertar a lo sumo una vez

P(A' ) = P(X = 0) + P(X = 1) = f x (0) + f x (1)


1 = 10 0 5 = 0.36
0 10

10 1 4 ( )( ) (4 5 ) + ( 1 )(5 ) (5 )
1

Luego la probabilidad pedida es:


P(A) = 1 P(A) = 1 - 0.36 P(A) = 0.64

Contestemos ahora la segunda pregunta, para ello definamos:


B : Suceso de acertar por lo menos 1 vez B : Suceso de fallar exactamente 10 veces
B = {X / X = 1, 2, 3, ..., 10}

Sea

B = {X / X = 0}

Sabemos pues que X ~ b(10, 1/5)

1 X ~ fx(x) = 10 x 5

( )( ) (4 5)
x

10 x

; X : 0,1,2,...10

Luego,

P(B) = P( x 1) = 1 P( x < 1) = 1 P ( x = 0) = 1 P ( B ' ) 4 = 1 f x ( 0) = 1 5 P(B) = 1 0.10 = 0.90 P(B) = 0.90


10

Nos piden hallar, la probabilidad de acertar por lo menos 2 veces, (o sea P(A)), dado que se acert por lo menos 1 vez, (P(B)); es decir, P ( A / B ) =
P( A / B) = P ( A) 0.64 = = 0.71 P ( B ) 0.90 P( A B) P( B)

3.1.2

DISTRIBUCIN HIPERGEOMTRICA

La distribucin Hipergeomtrica considera el caso en el cual una poblacin finita se divide en dos grupos, uno de los cuales se considera xitos y el otro Fracasos. Por consiguiente si se toma sin reemplazamiento una muestra de n elementos y se desea hallar la probabilidad de obtener X xitos, tenemos:
N = Tamao de la poblacin Np = Nmero de xitos en la poblacin Nq = Nmero de fracasos en la poblacin

Np + Nq = N

X = Variable aleatoria que nos representa el nmero de xitos en la muestra n = Tamao de la muestra n x = Nmero de fracasos en la muestra, utilizando las definiciones dadas,

podemos hallar la funcin de densidad para una variable aleatoria X que se distribuya Hipergeomtricamente, as:
fx(x) = P(X=x); donde el suceso, (X=x), (o sea, suceso de xitos en la muestra), se

puede dar de:

Np Nq x n-x

x Np

Ahora el nmero total de muestras posibles de tamao n que podemos extraer de

N la poblacin de N elementos es: n


Np Nq x n x f x ( x) = N n

( )

Luego,

( )

Para X = 0, 1, . . . , n

x n Np

X = 0, 1, ..., Np

S x Np n > Np

3.1.2.1

CARACTERSTICAS DE LA DISTRIBUCIN HIPERGEOMTRICA

1. ESPERANZA: E(X): Para deducirla podemos emplear el mismo criterio


que utilizamos en la distribucin Binomial (n, p), en donde, consideremos la variable hipergeomtrica X como una suma de n variables: X= X1+X2+ ... +
Xn ;

Pero, aqu hay que tener presente que cada Xi es dependiente, pero, ya que, la propiedad aditiva de la esperanza no nos exige el carcter de independencia o dependencia, no tenemos problema aplicarla aqu.
E(X) = E(x1+x2+ ... + xn) E(X) = E(x1) + E(x2) + ... + E(xn)

Entonces,

Cada E ( Xi ) = E ( x) =

Np = P: N

Proporcin de xito en la poblacin,

Np Np Np + + ... + N N N n veces
Np = nP N

E( X ) = n

2. VARIANZA: Var(x)=

x :

En este caso, ya no podemos deducir la Varianza

en forma similar a como lo hicimos en la Binomial (n, p), ya que ella no es aditiva para variables dependientes, pero sin necesidad de entrar aqu en exposiciones de rigurosidad matemtica, simplemente, podemos afirmar que la Varianza de esta distribucin, es:
N n Np Nq Var ( x) = n N 1 N N N n Var ( x) = n P Q N 1

Q : Proporcin de fracasos en la poblacin, y

N n ; se denomina N 1

factor de correccin, para el muestreo sin reemplazamiento. En caso de que la poblacin finita N sea muy grande, ( N ) , Entonces

N n 1 N 1

3.1.2.2

PROBLEMA

Se quiere comprar un lote de 25 lmparas. Se eligen 5 de ellas al azar y se examinan de modo que si menos de 2 fallan, el lote es aceptado, de lo contrario ser rechazado. Cul es la probabilidad de que el lote sea rechazado si contiene un total de 4 lmparas defectuosas?

SOLUCIN : Sea X : Variable aleatoria que representa el nmero de lmparas defectuosas en la muestra.

El experimento que se realiza aqu es sin reemplazamiento en una poblacin finita, en donde hay dos clases excluyentes de lmparas, unas defectuosas, (que llamamos xitos), y otras no defectuosas, ( que llamamos fracasos).
N = 25 : Total lmparas en la poblacin Nq = 21 : Total lmparas no defectuosas en la poblacin Np = 4 : Total lmparas defectuosas en la poblacin n = 5 : Tamao de la muestra aleatoria sin reemplazamiento.

Entonces,

Ahora, X : Puede tomar los valores;

X = 0, 1, 2, 3, y 4

X Np n > Np

X ~ Hipergeomtricamente; con:
4 )( 21 ) ( x 5 x f ( x) = X :,1,2,3,4
x

25

La probabilidad de que el lote sea rechazado, es por lo tanto;

P ( X 2) = 1 P(X<2)
= 1 P ( X 1) = 1 Fx(1)
= 1 {fx(0) + fx(1)} = 0.17

3.1.2.3

APROXIMACIN DE LA DISTRIBUCIN HIPERGEOMTRICA A LA DISTRIBUCION BINOMIAL

De manera intuitiva se puede observar, que para N y Np grande y n relativamente pequeo respecto a N, la distribucin Hipergeomtrica se aproxima a la Binomial

(n, p); porque en este caso, la muestra sin reemplazamiento tiene efecto

Np despreciable sobre la proporcin P de xitos de la poblacin, P = . Ilustremos N


esta situacin mediante el ejemplo siguiente: Supongamos que una urna contiene 106 bolas rojas y 108 bolas blancas. Seleccionemos al azar, una muestra de 5 bolas, la probabilidad de que haya 3 bolas rojas en la muestra, la da la frmula:

10 ) (10 ) ( 5-3 f (3) = 3 10 ) (10 + 3


6 8
x

X: 0, 1, 2, 3, 4, 5.

X < Np X n < Np

Ahora, si la extraccin se hace con reemplazamiento, se habrn repetido 5


10 6 pruebas independientes, con probabilidad constante P = 6 , de xito, para 10 + 10 8

cada prueba.

En este caso, la probabilidad de extraer 3 bolas rojas, lo obtenemos de la frmula Binomial:

3 2 f x (3) = 5 3 p (1 p )

()

= 5 3
Resolviendo

()

10 6 10 6 + 10 8
y

10 6 1 10 6 + 10 8

podemos ver que

3.1.3

DISTRIBUCIN DE POISSON

Esta distribucin es aplicable a muchos procesos que indican demandas de servicio, tales como, el nmero de mquinas en una gran planta, que se paran durante cualquier da; el nmero de personas que atiende un cajero de banco en media hora; el nmero de llamadas telefnicas recibidas en una central durante 15 minutos; el nmero de autos que son atendidos en una estacin de gasolina durante 10 minutos; el nmero de unidades de un artculo determinado vendido durante un da. Tambin es aplicable el modelo de Poisson a fenmenos que no implican tiempo, tales como, el nmero de errores tipogrficos por pgina; el nmero de conexiones soldadas defectuosamente en un ensamble elctrico; el nmero de cuerpos extraos, (como piedritas o burbujitas), incrustados en una botellas de vidrio, etc.

Dados los ejemplos de aplicacin anteriores, los resultados posibles son 0, 1, 2, 3,. . . . y as sucesivamente; es as, que no puede haber ninguna llamada

telefnica durante un perodo de 5 minutos o puede haber una, y as sucesivamente, lo que implica, que la variable de Poisson puede tomar valores desde cero hasta infinito.

Para el anlisis de esta distribucin utilizaremos el siguiente ejemplo: Supongamos que una compaa de telfonos recibe en un tiempo T un nmero R de llamadas. Sea t una fraccin observada del tiempo T. Cul es la probabilidad de que se

produzcan X llamadas en t?
Supongamos que T es mucho ms grande que t ; como tambin suponemos que las llamadas estn distribuidas con probabilidad uniforme en todo el tiempo, luego se deduce que la probabilidad de que haya X llamadas en t es:

t (R X ) T

t 1 T

Rx

Y partiendo de aqu, obtenemos la distribucin de Poisson, haciendo que R y T sean lo ms grandes, ( R de llamadas

T ), para que la densidad o probabilidad

R permanezca constante. T

Ahora escribamos el producto


X R X

, en la forma:

R! t R t 1 X ( R X )! X ! R T T

; (Multiplicamos y dividimos por RX, con el fin de

simplificar las expresiones factoriales).


X R X

t R t R ( R 1) ( R 2)( R 3)...( R ( x 1)) ( R X )! 1 T T X ( R X )! X ! R

Vemos que entre R y (R-(x-1)), hay exactamente X productos, los cuales podemos dividir respectivamente por cada uno de los X productos que hay en RX , luego:
X R X

R 1 2 3 ( x 1) R t t 1 1 1 1 1 R R R R R T T X!

Si llamamos p =

t R y d= ; T T

entonces:

1 2 ( x 1) td X 1 1 1 (t d ) 1 R R R R X! 1 2 ( x 1) X 1 1 1 (t d ) R Lim R R R X!

R X

td 1 R

R X

(t d ) X etd
X!

Podemos generalizar entonces, y decir, que una variable aleatoria distribuye segn Poisson, si la funcin de densidad est dada por:

se

f x ( x) =

X e
X!

x : 0,1,2....

Donde

= td , en el ejemplo, es cualquier nmero positivo y llamaremos en

general, N a la poblacin, (que en nuestro ejemplo es R). Luego; = Np.

3.1.3.1

CARACTERSTICAS DE LA DISTRIBUCIN DE POISSON

1. ESPERANZA: E(x)
X e
X

E ( x) =

X =0

X!

X =1

( X 1)!

Haciendo

Y = x-1, tenemos: Y!
Y +1

E ( x) =
Y =0

=
Y =0

Y!

E ( x) = e
Y =0

Y!

La expresin
luego;
E ( x) = e e =

Y =0

Y! ,

es la expansin en series de Maclaurn de

E ( x) = : Media de la distribucin

2. VARIANZA: Var(x)=

X
Var(x) = E(x2) (E(x))2

Var ( x) =
x =0

x2 e

X!

E(x ) =
2 x =0

x2 e

X! xe
x

=
x =0

x2 e

x( x 1)!

=
x =1

( x 1)!

Haciendo Y = x-1 X=y+1 ; luego

E(x 2 ) =
Y =0

( y + 1)e
Y!

y +1

=
Y =0

( y + 1)e
y

Y!

=
y =0

Ye

Y! Ye

+
y =0 y

Y!

y =0

Y!

y =0

Y!

= E (Y ) +

y e Y ! = 1 y =0

Pero E (Y ) =

E ( X 2 ) = 2 + ; entonces: Var ( x) = 2 + 2 = Var ( x) =

Ntese que en esta distribucin la media y la varianza son iguales.

3. FUNCIN GENERATRIZ DE MOMENTOS MX(t)

M X (t ) = E e = e f x ( x) = e
tx tx x =0 x =0

( )

tx

e
X!

M X (t ) = e

x =0

e X!
t

= e 1 + = e e
( et 1)

t +

2 3 t e e + + ... 2! 3! t

et

=e

( et 1)

M X (t ) = e

Q Empleando la funcin generatriz de momentos, podemos hallar tambin la


media y la varianza, de la distribucin de Poisson, as:

E ( x)

M ' X (t = 0)

M ' X (t ) =

( et 1)

E ( x) = M ' X (t = 0) =
2 2

Ahora, Var ( x) = E ( X 2 ) [E ( x)]

= M ' ' X (t = 0) [M ' X (t = 0)]


t t M ' ' X (t ) = e ( e 1) e t + e ( e M ' ' X (t = 0) = { 1 + } = + 2 1)

et et

Luego;

Var ( X ) = + 2 2 =

3.1.3.2

APROXIMACIN DE LA DISTRIBUCIN DE POISSON A LA DISTRIBUCION BINOMIAL(n,p)

Con el fin de comprobar de que la distribucin de Poisson es una buena aproximacin a la binomial, cuando n (tamao de la muestra), es muy grande y

p , (probabilidad de xitos), muy pequea; veamos el siguiente teorema, que dice


: Si la probabilidad

de xito en una sola prueba, tiende a cero, (p0) ,

mientras que el nmero de pruebas n tiende a infinito, ( n ) , de una forma tal que la media = np permanezca constante, la aproximar a la distribucin de Poisson con media distribucin binomial se

PRUEBA: Escribamos la frmula de la distribucin binomial (n, p), de la forma siguiente:

f x ( x) =

n(n 1)(n 2)...(n x + 1)(n x)! x n x p q x!(n x)!

f x ( x) =

n(n 1)(n 2)...(n x + 1) x n x p (1 p ) x!

Multipliquemos el numerador y el denominador por nx

f x ( x) =

n(n 1)(n 2)...(n x + 1) n x (np ) x (1 p ) x n x!

p=

Luego :

_____ x productos _____

n(n 1)(n 2)...(n x + 1) f x ( x) = n 1 nx nx nx ........nx! n n


_____ X veces _____

n x

1 1 x 1 1 1 ... 1 n n n f x (x) = (1 p )x

x (1 p )n x!

Ahora, expresemos (1 p)n en la forma:


np

(1 p )

1 = (1 p ) p

1 = (1 p ) p

Adems, segn la definicin del nmero e,

Lim (1 + Z )1 Z = e z 0
Por lo tanto, haciendo Z = - p

Lim (1 p )1 p p0

=e

Adems :

1 2 x 1 1 1 ...1 n Lim n n =1 n (1 p )x

Porque p 0 y n , cuando = np es constante, luego la expresin queda:


x

fx

e ( x) =
X!

; X : 0,1,2,...

3.1.3.3

EJERCICIOS

1. Un cuadro de telfonos atiende un promedio de 600 llamadas durante una hora de aglomeracin. El cuadro puede hacer un mximo de 20 conexiones por minuto. Estmese la probabilidad de que el cuadro quede rebasado en un minuto dado.

SOLUCIN

El cuadro atiende un promedio de llamadas por minuto, igual a:

= 600 = 10

llamadas / hora 60 minutos / hora llamadas por minuto

Sea X la variable aleatoria que representa el nmero de llamadas; entonces, la probabilidad de que el cuadro quede rebasado en un minuto dado es:

P ( X > 20) = 1 P ( X 20) = 1


20

10

10 X

X =0

X!

= 1 0.99841 (tablas )

= 0.00159; es decir, que prcticamente el nmero de llamadas por minuto,

no sobrepasan la capacidad mxima del cuadro telefnico.

2. Una compaa de seguros, halla que el 0.005% de la poblacin, fallece cada ao en cierto tipo de accidente. Cul es la probabilidad de que la compaa tenga que pagar a ms de 3 de sus 10.000 asegurados, contra tales accidentes, en un ao dado?

Sea Sea

p : Probabilidad de fallecer una persona en un ao p = 0.00005 X : Variable aleatoria que representa el nmero de personas que fallecen

en un ao dado.

n = 10.000 nmero de asegurados o tamao de la muestra.


Este problema posee la caracterstica de ser Binomial

X ~ b(10.000, 0.00005)
x 10.000 x f x ( x) = 10.000 x (0.00005) (0.99995)

Cosa que por aqu resultara muy laborioso, pero basta observar que p es muy pequeo, ( p 0), y n es muy grande, (n ); luego podemos resolver el problema aproximndolo a la distribucin de Poisson;

= n p = 10.000 0.00005
= 0 .5 X~Poisson con = 0.5

f x ( x) =

(0.5) X e0.5
X!

Luego, se pregunta:

P ( X > 3) = 1 P ( X 3) = 1 Fx (3), = 0.5

= 0 .5

= 0.5
(Valor hallado en tablas)

= 1-0.99825 = 0.00175

Quiere decir, que el riesgo que tiene la compaa aseguradora es casi nulo, o prcticamente ninguno.

3.2

PRINCIPALES DISTRIBUCIONES CONTINUAS

3.2.1 DISTRIBUCIN UNIFORME O RECTANGULAR

Esta distribucin surge, por ejemplo, en el estudio del redondeo de errores cuando las observaciones se registran con cierta precisin. As por ejemplo, si las observaciones sobre la temperatura diaria se registran redondeadas al grado ms prximo, podr suponerse que la diferencia en grados entre la temperatura real y la registrada es un nmero que oscila entre 0.5 y 0.5 y que el error se distribuye uniformemente a lo largo de este intervalo.

Deduzcamos la funcin de densidad de esta distribucin:

Sean a y b dos nmeros reales, tales que a<b. La variable aleatoria X se distribuye uniformemente en (a,b) si:

f x ( x) = K f x ( x) = 0

Para todo X (a, b) Para todo X (a, b)

Determinemos, ahora el valor de K como f x ( x) = K X (a, b)

f ( x)dx = 1

Kdx = 1
a

K (b a ) = 1
uniforme es:

K=

1 ; luego, la funcin de densidad de la distribucin ba

f x ( x) =

1 para a < x < b ba

3.2.1.1

CARACTERSTICAS DE LA DISTRIBUCIN UNIFORME

1. FUNCIN GENERATRIZ DE MOMENTOS: Mx(t)

M x (t ) = E e =
a

( )
tx

tx

f x ( x)dx

1 tx M x (t ) = 0dx + e dx + 0dx b a a b M x (t ) =
1 1 tx dx = e ba a t (b a )
b

[(e

bt

at

)]

bt at e e M x (t ) =

t (b a )

2. ESPERANZA: E(X)
a b b

1 1 E ( X ) = X f x ( x) dx = 0dx + X X dx dx + 0 dx = ba ba a b a E( X ) = 1 X2 2(b a )

b a

b2 a2 2(b a )

(b a ) (b + a ) = a + b
2(b a ) 2 a+b 2
2

Luego E ( X ) =

3. VARIANZA: Var(x) =

Var ( x) = E ( x 2 ) [E ( X )]

E( X 2 ) =

2 X f x ( x)dx =

1 1 2 X 2 0dx + X 2 X 2 dx dx + X 0 dx = ba a ba a b

E( X 2 ) =

1 X3 3(b a )

b a

b3 a 3 3(b a )

( b a )(b 2 + ab + a 2 ) b 2 + ab + a 2 = =
3(b a ) 3 b 2 + ab + a 2 3

E( X 2 ) =
Luego,

b 2 + ab + a 2 (a + b ) Var ( x) = 3 4

4a 2 + 4ab + 4b 2 3a 2 6ab 3b 2 Var ( x) = 12 a 2 2ab + b 2 (a b ) = Var ( x) = 12 12


2 ( a b) Var ( x) = 2

12

4. FUNCIN DE DISTRIBUCIN ACUMULATIVA FX(x) X~U(a, b)

Por definicin FX(x) = P ( X x)

0 Fx ( x) = 1

si si

x<a x<b

Fx (x) = P(X x) =

f(u)du =

0 du +

1 du b a a

xa 1 x u ]a = ba ba
xa Para a < x < b ba Para X ( a, b)

Fx ( x) =

Fx ( x) = 0

3.2.1.2

EJEMPLO

Una empresa tiene una curva de costos dada por la funcin C=1.000+2x; siendo X el nmero de artculos. En el mercado vende cada unidad a $5. La demanda de artculos es uniforme entre 25.000 y 30.000 unidades. Cul es el beneficio esperado?

SOLUCIN:
X: Variable aleatoria que nos representa la demanda de los artculos

~ U (25.000; 30.000); 12

Sea B: El beneficio o utilidad, donde la funcin de utilidad la establecemos de la forma, ventas totales, menos, costos totales, as:
B = 5X (1.000 + 2.X) B = 3 X 1.000

Luego, el beneficio esperado es:

E ( B ) = E (3 X 1000) = 3E ( x) 1000 25.000 + 30.000 E ( B ) = 3 1000 2 E ( B ) = 81.500

3.2.2 DISTRIBUCIN NORMAL (0, 1 ) : n(0, 1)


Una variable aleatoria Z, se dice que tiene una distribucin normal (0, 1), si su funcin de densidad, est dada por:

f z ( x) =

1 2

1 X2 2

< x <

12

Lase, X se distribuye uniforme en el intervalo ...)

El siguiente tipo de integrales que mencionaremos, son fundamentales para el desarrollo y pruebas de distribuciones continuas, como la normal, chi_cuadrado, T de student, entre otras , ellas son:

X
0 0

p 1

ax

dx =

( p)
ap

: Euleriana de primer orden

2 p 1 X e

ax 2

dx =

( p)
2a p

: Euleriana de segundo orden

( p ) = ( p 1) ( p 1) = ( p 1) ( p 2 ) ( p 2 ) p > 0

( p ) = ( p 1)

p Z +

y (1 2 ) = (Por definicin)

Probemos ahora s, si f z ( x) = 1. Obvio que f z ( x) > 0

1 2

( 1 2 ) X 2

, es funcin de densidad:

X ( , )

2.

f ( x)dx = 1

1 2

( 1 2 ) X 2

dx

2 2

e
0

( 1 2 ) X 2

dx =

2 2

(1 2)
1 2 2
1 2

2 =1 2

2 p 1 = 0 p = 1 2 y, a = 1 2

Luego, fz(x) si es funcin de densidad.

3.2.2.1

CARACTERSTICAS DE LA NORMAL (0, 1) : n(0 , 1 )

1. FUNCIN GENERATRIZ DE MOMENTOS: Mz(t)

Operemos el exponente, de la siguiente forma:

La integral es una Euleriana de Segundo Orden

es la f.g.m.13 de

z ~ n(0,1)

Empleando la tcnica de la funcin de distribucin acumulativa Fx(x) hallemos la funcin de densidad Fx(x) para C ~ h ( m , s2) 14

x Fx x = P[ X x ] = P[z + x ] = P z + 1 2 z x Fz e dz = Fx ( z ) = 2 x z = f z ( z ) = Funcin de Densidad


2

Por teorema del clculo integral sabemos que:


13

f.g.m.: lase como funcin generatriz de momentos

x 1 1 z 2 e 2 dz 2 = f ( z ) ( x ), luego d dX Fx ( x ) = f x (x ) = 1 2 z 1 ; e 2
1 e 2 2

1 x

< x < < <

3.2.2.2 CARACTERSTICAS PRINCIPALES

1. Funcin generatriz de momentos MX(t)

M x (t ) = E e tx = E e t ( z + ) = E e t z e t
t t z t z

[ ] [ ] [ = e E [e ( ) ] = e M
=e
t 1 2 2 t 2 e

(t )

1 t + t 2 2 e

= M x (t )

2. Funcin caracterstica z( )

z ( ) = E e i z haciendo t =i en la f.g.m. luego z ( ) = z ( ) =


1 2 2 i 2 e 1 2 2 e

[ ]

1 2 2 e

Z (0,1)

3. Esperanza: []
[] = z (t = 0) z (t ) =
1 2 t t.e 2

[] = z (t = 0) = 0 x e 2

( 0) 2

=0

[] = 0 : media de la distribucin (0,1)

2 4. varianza : VAR (Z) = z

14

Lase C se distribuye normal m , s2

2 (t = 0 ) {M VAR[ ] = E Z 2 E [(Z )]2 = M z z (t = 0 )}

[ ]

(t) = z

VAR[ ] = 1 0 = 1

1 2 (t) 2 e

1 2 t 2 2 t e

(t = 0 ) = 1 E Z2 = Mz

[ ]

3.2.3 DISTRIBUCION NORMAL CON MEDIA y VARIANZA 2 : ( , 2 ) Sabemos que , variable aleatoria que se distribuye (0,1) Decimos que la v.a12 se distribuye ( , 2 ) , si = + > 0 para < < y < X < 2. Funcin Caracterstica : x ( ) Hacemos t= i en x ( t ) a x ( ) = 3. Media de la distribucin
1 i 2 2 2 e

x ( t ) = ( + t )e
2

t+

1 2 2 t 2

a [x ] = x (t = 0) =
4 Varianza de la distribucin : VAR( X ) = x 2

VAR( X ) = ( x 2 ) [( x)] = x (t = 0) ( x ) (t = 0)
2

x ( t ) = .e
2

t + 2t 2

1 2

+ ( + t )e
2 2

t + 2t 2

1 2

a x (t = 0) = 2 + 2 ; luego :
VAR( X ) = x + 2 2 = x
2 2

12

lase variable aleatoria

5. Forma de la curva de la distribucin normal.

Curva normal

Las figuras muestran varias curvas de distribucin de e idnticos valores de .

normal con diferentes valores

Al cambiar con constante, la forma de la curva no cambia, se correr nicamente hacia la izquierda o hacia la derecha.

Sobre la curva de la distribucin normal ( ( , 2 ) podemos afirmar: 1. Es simtrica respecto a la lnea x = 2. Tiene un punto de mxima en x = 3. Tiene como asntota horizontal al eje x 4. Presenta dos puntos de inflexin, en: x= y + 5. La media, la moda y la mediana coinciden 6. El rea comprendida entre dos puntos de inflexin, y + ; es aproximadamente el 68 % en el rea total. 7. El rea comprendida entre 2 y + 2 es aproximadamente el 95.4% del rea total y el rea comprendida entre 3 y + 3 es aproximadamente el 99.7 % del rea total.

3.2.4 Distribucin JI dos con un grado de libertad : X (2 1)


Sea X una v.a normal(0,1). Consideremos la variable Y = 2 . Encontremos su funcin de densidad sea Fy ( x) la funcin de distribucin de Y, ( obviamente los valores de deben ser positivos), a

Fy ( x) = P[ y x ] = X 2 x = x x x

] [

( 2 ) 1 .e 2 .d 2

la funcin de densidad de Y ser

fy ( x ) =

d d Fy ( x) = d ( x) d ( x)

x x

1 1 2 ( 2 ) e .d 2

1 2( e 2

x )2

1 2 ( d( x) e dx 2
1 1

x )2

d ( x ) dx

fy ( x ) =

x 1 .x 2 .e 2 , x > 0 ; es la funcin densidad de la distribucin JI DOS , 2

con un grado de libertad. Esta variable se simboliza por 2 (1) : 3.2.4.1 Funcin Generatriz de momentos de la 2 (1) :

a y (t ) = X 2 (1) = etx = ety


2

[ ] [ ]
1 1

x 1 X 2 .e 2 .dx = e . 2 0 tx

x (1 2 t ) x 1 X 2 .e 2 .dx 2

la integral anterior es una Eureliana de primera especie, se tiene que; 1 1 1 p 1 = p = y a = (1 2t ), luego 2 2 2


1 1 ( ) . 2 1 2 = 2 x 2 (1) (t ) = t = ( 1 2 ) . 1 2 1 2t 1 ) 2 (1 2t ) 2 . 2 ( 2

x 2 (1) (t ) = (1 2t )

1 2

es la f. g. m de la 2 (1)

3.2.4.2 Funcin caracterstica de la 2 (1) : x 2 (1) ( ) Haciendo t = i en


x 2 (1) (t ) obtenemos la funcin caracterstica as
1 2

x 2 ( 1 ) ( ) = (1 2 i )

= e i

x 2(1 )

3.2.5 Distribucin JI DOS, con n grados de libertad 2 ( n ) consideramos ahora las variables aleatorias : X 1 , X 2 X n ...... Xn Todas las normales (0 , 1) e independientes

Deduzcamos su funcin caracterstica:


x 2 ( n ) ( ) = eix

(n)

]a

definamos primero a 2 n = = X 2 1 + X 2 2 + ..........X 2 n esta nueva variable es la de JI DOS con n grados de libertad13 como cada X j J = 1,2,......n; es una X 2 (1) , entonces la X 2 ( n ) es la suma de n X 2 (1) independientes. Luego:

x 2 ( n ) ( ) = e i ( x
= e

2 2 2 1 ,x 2 + ..........+ x n

ix 21

. e ix 21

(......) e ix 2 n
1

por ser independiente


ix 2 pero cada e J = (1 - 2i ) 2 J = 1,2, ........ , n

a x 2 ( n ) ( ) = (1-2i )

n 2

ahora, retomando la funcin caracterstica, encontramos la funcin de densidad de la X 2 ( n ) sea f x 2 ( n ) ( x) la funcin de densidad de la X 2 ( n ) . Por definicin de funcin caracterstica se cumple que:
x 2 ( n ) ( ) =(1-2i )

n 2

ix 2 ( n ) ,= e =

e
0

ix .

. f x 2 ( n ) d ( x) (A)

por otra parte sabemos que:

p 1

.e a. .d =

( p ) ap

13

Los grados de libertad de g l , es el numero de variables aleatorias independientes.

1 (p) 1 = z p 1 .e az .dz = p p a (p) 0 a

En la integral anterior hagamos: a = 1 2i y p =


1 1 2 .e (1 2i ) z .dz a = z n n ( )0 (1 2 i) 2 2

n 2

Apliquemos cambio de variable, as: Sea 2z = x a z =

x 1 a dz = dz a 2 2
n 1 2

( 1 2 i )

n 2

=
0

. n .e n 2 ( ) 2 2 1 2
n 1 x

x 2 .e i x dx

1 n 2 ( ) 2

. 2 .e 2 .eix dx (B)

= eix . f x 2 ( n ) ( x)dx (A)


0

comparando (A) y (B), para cada x se tiene que

e
0

i x

.f x 2 (x)dx =
(n)

1
n 22

n ( ) 2

n x 1 2 2 . .e .e i x dx

como existe una relacin biunvoca entre la funcin caracterstica y la funcin densidad . a

f x 2 (x)dx =
(n)

1
n 22

n ( ) 2

n x 1 2 2 .e

; x>0

La distribucin de la 2 ( n ) esta dada por:

f x 2 ( n ) ( x) =

1 2

n n 0 2 2 ( )

. 2 .e

2d

3.2.5.1 Momentos de la 2 ( n ) : ya vimos que la f. g. m de la 2 ( n ) es:


x 2 ( n ) (t ) = (1 2t )
n 2

a
n n

1 1 n x 2 ( n ) (t ) = (2)(1 2t ) 2 = n(1 2t ) 2 2

x 2 ( n ) (t ) = 2n( + 1)(1 2t )

n 2

n 2 2

= n(n + 2)(1 2t )

n 2 2

x 2 ( n ) (t = 0) = n =1 : es el momento de orden 1 con respecto Al origen 1 =


x 2 ( n ) (t = 0) = n = (n + 2) = 2 es el momento de orden 2 con respecto al origen
2 = ( 2 )

luego la varianza de la 2 ( n ) es:

(n)

= 2 (1 ) 2 = n(n + 2) n 2 = 2n

a 2 2 ( n ) = 2n

vemos as que en la variable aleatoria 2 ( n ) , la media de coincide con el numero de grados de libertad y la varianza es dos veces este numero. DISTRIBUCION t DE ESTUDENT

Sean: X , X 1 , X 2 X 3 ...... Xn variables aleatorias independiente todas las normales

(0, ) ; se define la variable aleatoria t con n. g. l , As:

t(n) =

1 2 (x 1 + x 2 2 + .......x 2 n ) n

encontremos la funcin de densidad de la t( n ) , pero antes, definamos la variable ,


as :

Y=

1 2 (x (1) + x 2 (2) + .......x 2 (n) ) t(n) = n

como (0, ) ; su funcin de densidad es:


. 2 1 f x ( x) = e 2 2 1 x2

La variable aleatoria , se puede expresar de la siguiente forma

x 2 (n) 2 x 2 (1) x 2 (2) x 2 (3) ( + 2 + 2 + ............... + 2 ) n 2

Pero como cada xi es normal (0, ) ; entonces

xi , entonces es normal (0,1) a

x 2 (1) x 2 (2) x 2 (3) x 2 (n) , , .......... ..... , 2 ( n ) ; luego; + + 2 2 2 2

2 2 Y= x(n) n
FY (y) = [ y ] =

2 2 (n) y n

2 2 n = ( n ) y 2 = 2( n ) 2 y 2 n

F 2 (
(n)

n 2 y ) 2 1
(n)

sabemos que F 2

n 22

n ( ) 2
n
2

n
2

y2

n 1 2

a FY (y) =

1
n . 2 2 (

n ) 2

y2

n 1 2

2 d

La funcin de densidad de ser, por tanto:

d 2 y 2 2 1 2 f Y (y) = FY (y) = n .e d dy 0 . n 2 2 ( ) 2 1
=

1
n . 2

n 2 ( ) 2

.(

n
2

y )

n 1 2 2

.e

1 n . 2 y2 2

2n

.y

n 2( ) 2 n y 2 2 2 e. 2 y n 1 f Y (y) = n 2 ( ) 2
Ahora la funcin de densidad conjunta ( ( , ) , est dada por f x , y ( x. y ) = f x ( x). f y ( y )
2y n 2( ) 2 .e 2 y.n 1 . 2 n n ( ) 2
n n
2

f x, y (x.y) =

1 e 2
1 ny 2 + x 2 2 2

1 x2 2 2

= K.y

n 1

.e

; < x < ;0 < y <

K =

n n + 1 2 ( ) 2

n 2( ) 2 2

Llamemos Ft ( n ) ( z ) a la funcin de distribucin de la v.a t

x Ft ( n ) ( z ) = t( n ) Z = Z = y e

f ( x, y)dxdy
x Z ; (o sea, y

la regin C es aquel recinto de la distribucin conjunta en donde donde x yz ) < z < veamos la grfica

a Ftn ( z ) = K

z. y

y n 1.e

1 ny 2 + x 2 . 2 2

Hagamos el siguiente cambio en las variables:

x x = v J = y y=v

x v v = y 0 v

=v 1

v = v; ya que v = y ; y o

dxdy = vdu.dv

Los limites son:

Para V, igual que para Y:(0,) Para =


x con v fijo, x v z. y = x = z.y v = z

Ft(n) (z) = K

n 1

.e

1 nV 2 + .V 2 . 2 2

.V.dV.d

= K
z

0 V

.e

1 n+ 2 . 2 v 2 2

dV .d

La integral entre llaves es una eureliana de segundo orden, donde : 2p-1 =n

n+1 n + 2 = a= 2 2 2

1 n+ 2 . 2 v 2 2

V n .e
0

n+1 ) z d 2 .dv = . 2 n +1 n+ 2 2 2( ) (1 + ) 2 2 n (
du
(1 +

n +1 ) 2 Ft ( n ) ( z ) = n n ( ) 2

2
n

n +1 2

Esta funcin de distribucin de la t con n, n.gl . Su funcin de densidad, ser entonces:

n +1 ) 1 2 ; < x < . f t ( n ) ( x) = 2 n +1 n n ( ) (1 + x ) 2 2 n

3.2.7 DISTRIBUCCION F DE SNEDECOR: Sean 1, 2,........... m ; y1 , y2,.......... yn ; (m+n) variables aleatorias independientes normales (0, ); se define la variable aleatoria F de snedecor con (m,n) g , l como:

1 2 2 2 + .............. + m ( 1 + 2 ) m F= F= 1 2 2 2 + .............. + yn ( y1 + y2 ) n

1 2 1 2 2 2 2 ( 1 + 2 + .............. + m ) ( y12 + y2 + .............. + yn ) m n

Para determinar la funcin de densidad F, encontremos antes las distribuciones de e .


a Funcin de distribucin de

sea: =

x 2 x1 2 ( ) + ........... + (( m ) 2 m
xi

Como cada x1 (0, ) ; los


a 1=

(0,1)

2
m

(2m )

2 m m a Fx ( x) = [ x ] = (2m ) x = (2m ) x = F x 2 ( m ) ( .x) m

1
m 22

m ( ) 2

m 1 1 2 .e 2 .du

1 2 x m m f x (x) = F x (x) = m .( 2 x) 2 .e 2 . 2 m 2 2 ( ) 2

1 m

m m m ( )2 1 2 x 2 f x (x) = . 2 .e 2 Para 0 < x < m m ( ) 2


en forma similar obtenemos a f y ( y )

n n n ( )2 1 2 .y 2 2 2 f y (y) = .y .e ; para 0 < y < n n ( ) 2


por la independencia entre x , y ; su densidad conjunta es:
f ( x , y ) = f x ( x). f y ( y ) para 0 < x, y <
1 m n 1 1 2 ((mx + ny)) 2 y 2 .e 2
n

f (x, y) = K.X
m

m n ( ) 2 .( ) 2 2 2 K = m n m + n. ( ). ( ) 2 2

ahora la funcin de distribucin F es:


F( F ) ( z ) = [F z ] = z =

f ( x, y)dxdy
R

R es la regin en donde yz ; como especificamos en la siguiente grfica:

F( F ) ( z ) = K

zy

m 1 2

1 n ( mx + ny ) 1 2 2 2 . y .e dydy

hacemos las variables, as


x = .v y=v

v = v a j = V =V J= 0,1

a dxdy = Vdudv

Encontremos los limites: Para V, son los mismos para y V (0, ) Para =; =
x , para x = 0 = 0 V Para x = zy = z

F( F ) ( z ) = K

( .V )

m 1 2

.V 2 .e

1 2 2

( mV + nV )

VdVd

= K
0

m+ n m + n m .V 2 1 1 2 2 V .e 2 0

la integral entre llaves es una Euleriana de primer orden, as


P 1 = m +1 m. + n 1 a = 2 2

m + n) ( 2 Luego: = = m+n + m n 2 ( ) 2 2
( =2
m + n) 2

m+n

m+n ( )( .m + n) 2

m+n 2

Entonces la funcin de distribucin de la F de snedecor es:


m+n m n m+n ( ) 2 .( ) 2 .2 2 .2 2 . m + ( ) z m 1(m + n) 2 2 2 FF (z) = 2 d 0 2 m n ( ) ( ) 2 2

Simplificando la constante y derivado la integral con respecto a z, y cambiando z por x, la funcin de densidad de la F con (m , n) g , l , ser en definitiva:
m n 2 m .n 2

f (x) =

m+n m+2 ) m 1 2 2 (mx + n) 2 y x > 0 m n ( ) ) 2 2 (

Volvamos a la definicin de la V , a F (m, n) :

F(m, n) =

1 m 2 xi m 1 1 yi2 n 1
n

1 F(m,n)

1 n 2 yi n 1 1 m 2 Xi m 1

= F(n, m)

Esto significa que el inverso de una F con (m, n) g , l es una F con (n, m) g , l . En el manejo de tablas es muy til esta propiedad, ya que:
1 1 1 f ( m, n ) x = = f ( n, m ) x f ( m, n) x

3.2.8 TEOREMA CENTRAL DEL LIMITE (De Lindeberg y levy) sea

{xi } = {x1 , x2 , x3 .......}

una sucesin de variables aleatorias independeintes e

igualmente distribuidas con medias y varianzas 2 finitas. A partir de esta sucesin podemos definir otra as

S n (S n ) {y n } = sn

con S n = x1 + x2 + ................ + xn

entonces la sucecin normal (0,1)

{yn } converge en distribucin a una variable aleatoria Z

Esta forma es aplicable en aquellos casos en los cuales debamos encontrar probabilidaes relativas a la suma de n variables aleatorias con n grande s S n = x1 + x2 + ................ + xn y las distribuidas , (n grande), entonces:
a

xi

so independientes e igualmente

S n aproxima {E ( S n );

sn }

3.2.9 TEOREMA DE MOIVRE : Sea (n,p);

{xn } = {x1 , x2 , x3 .......xn...........} una sucesin de


entonces la sucesin,

v.a. independientes binomiales

n n. p {yn } = , converge en distribucion a una


n. p.q

variable aleatoria z ( 0,1). Este teorema, es un caso partucular del T.C.L14 En efecto, n a n = B1 + B2 + ..........Bn con independientes entre si

cada Bin b (1 , p) las bi son

np = (xn ); n.p.q = xn

y(n)

xn E(xn ) xn

las y( n ) cumplen con las hiptesis del T.L.C al igual que en el teorema de moivre es aplicable para binomiales (n, p , con n grande: Si X b (n,p) con n grande a

14

Lase T.C.L. como teorema central de limite.

S n aproxima (n.p; n. p.q )

3.2.10 Ejercicios

Ilustremos las aplicaciones de estos teoremas, con algunos ejemplos:


2 1. Sea x la media de una muestra aleatoria tamao n= 100 de la distribucin 50 encontrar, en forma aproximada el valor de P(49 < x < 51).

Solucion : x =

1 2 ( x1 + ..........xn ) cada xi N 50 e independientes n

a ( x1 + ..........x100

( , ) ; por T.L.C

donde = 100E ( xi ) = 100 x 50 = 5000


x1 + x 2 + .......... + x100
a x ( 5000 100 ; ) 100 100

(5000,100)

a x (50,1) a (49 < x < 51) = ( 49 50 51 50 <Z < )= 1 1

a (1 < z < 1) = 0.6826 = (1) (1)

2. sea una variable aleatoria binomial (72; =)

1 3 encontrar un valor aproximado de (22 28)

solucin

1 ( ) = 72. = 24 = n. p 3

2 2 y = 24. = n.p.q = 16 3
a (24,4) ; Por teorema de Moivre a (22 28) = (21.5 28.5) , usando

correccin para variable de V.A

discreta
= (
21.5 24 28.5 24 <Z < ) = 4 4
1 2

(0.625 < z < 1.125) = 0.6042.

3. sea b(100, ) encuentre P(y = 50) solucin: E(y) =100


1 1 = 50 2 = 50 = 25 2 2

a (50;5) ; por teorema de moivre a ( y = 50) = (49.5 < y < 50.5) usando la correcin para V.A .D
= ( 49.5 50 50.5 50 <Z < )= 5 5

= ( 0.1 < Z < 0.1) = 0.0796 = (0.1) (0,1)

4. La venta diaria de ua fbrica de cierto articulo, tiene una distribucin uniforme entre 20 y 40 artculos . Que probabilidad tiene la fbrica de vender ms de 6370 artculos en 182 das. Solucin sea la venta total en los 182 das

= x1 + x2 + .......... + x182 ; donde xi es la venta en el da i- simo. x i uniforme (20, 40)


f( x) =
1 1 = ; para X (20,40) 20 b a

a E ( xi ) = 30

(xi2

1 40 2 x3 56000 2800 = = = )= x dx 20 20 60 20 60 3 2800 100 (30)2 = 3 3

40

2 x = 1

(x) = 182. (xi ) = 182.30 = 5460


2 2 x = 182. x = 182. i

100 18200 = 3 3

(5460;
( x > 6370) = ( Z >

18200 ) ; luego 3

6370 5460 )= 18200 3

P(Z > 11.8 ) = 0 Es casi imposible que la venta en 182 dias supere los 6370 articulos 5. una persona acostumbra participar en un juego en las cuales sus probabilidades de ganar y perder son iguales. Siempre que gana una partida recibe $ 5 y siempre que pierde paga # 5. Un da se dirige al sitio de juego con la intension de jugar 400 partidas. Que cantidad de dinero debe llevar si quiere tener probabilidad de 0.95, de hacer frente a sus posibles perdidas? Solucin Sea i la V.A que indica la perdida en la partida i - sima?
a = x1 + x2 + ........ + x400 es la perdida total en las 400 partidas
( xi = 5) =
1 2

al menos una

( xi = 5) =

1 2

a ( xi2 ) = 52

1 1 50 + ( 5) 2 = = 25 2 2 2

2 xi = 25 0 = 25 = 5 2

luego, ( x) = 400 E ( xi ) = 0
2 2 x = 400 xi = 400.5 2 = 10.000

(0;100) ; por T.C.L


Sea K las cantidad que debe llevar, de modo que
( x k ) = 0.95 a ( x k ) = 0.95 100

k = 1.645 a k = 164.50 100

a debe llevar $ 164.50

6. Demuestre que si x1 , x 2 ,........, x n son V.A independiente e igualmente distribuidas f x ( x) = 2 x para 0 x 1 ; entonces:
n +k x1 , x2 ......... + xn e 2 n

= F ( 2k ); con f ( x)

funcion de distribucion (0,1). Suponga n grande. Solucion:


n +k [x1 ........x n ] e 2 n

n = l nx1 + l nx2 + .........l nxn + k n 2

sea 1 = l nx1 + l nx2 + .........l nxn las variables l nx son igualmente distribuidas e independientes:
i

( Ln xi ) =

l
0

n x.2 xdx

1 = ; resolviendo por parte 2

(Ln xi ) =
2 l xi =

0 ( l n x)

.2xdx =

1 2

1 1 2 1 1 ( )2 = = 2 2 4 4 4
1 2 n 2

luego: ( x) = n( ) =
2 x =

n n n ; luego x (- ; ) 2 2 4
n n +k n + 2 2) n 2

n a ( X + k n ) = ( Z 2

= ( Z 2k ) = F (2k ) . l.q.qd .

BIBLIOGRAFIA BERENSON , Mark y LEVINE David. 1987 Estadstica para Administracin y


Economa.Interamericana.

BLANCO, Castaeda Liliana. 2004. "Probabilidad". Unibiblos. Universidad


Nacional de Colombia.

FELLER , William.1985. Introduccin a la Teora de Probabilidades y sus


Aplicaciones. Limusa. Mjico,

KENETT,

Ron;

SHELEMYAHU,

Zacks.

2000.

Estadstica

Industrial

Moderna.International Thomson Editores.Mjico.

LOPES, Paulo Alfonso.1999 Probabilidad y Estadstica. Prentice-Hall. Bogot MASON ,Robert y LIND , Douglas.1995. Estadstica para Administracin y
Economa. Alfaomega , Mjico

MENDENHALL, William; SINCICH, Ferry.1997 .Probabilidad y Estadstica para


Ingeniera y Ciencias.Prentice-Hall Hispanoamericana.Mjico.

MOOD , Alexander y GRAYBILL , Franklin. 1980. Introduccin a la Teora de la


Estadstica. Aguilar. Madrid

MUOZ, Quevedo Jos Mara, 2002. "Introduccin a la teora de Conjuntos".


Cuarta Edicin. Panamericana, formas e impresos S.A.

P. L. MEYER. 1992. Probabilidad y Aplicaciones Estadsticas.Adisson Wesley


Iberoamericana.

SCHEAFFER, Richard L. ; McCLAVE, James T. 1993 Probabilidad y Estadstica


para Ingeniera.Grupo Editorial Iberoamericana.Mjico.

WALPOLE , R.E. y MEYER , R.H. 1990. Probabilidad y Estadstica para


Ingenieros.Interamericana. Mjico,

YA LUN CHOU. Anlisis Estadstico. Interamericana. Mjico,1985.

Potrebbero piacerti anche