Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
11
serie de matemtica
-a
PROBABILIDAD E
INFERENCIA ESTADISTICA
por
Luis A. Sontol
Facultad de Ciencias Exactos y Naturales
Universidad de Buenos Aires
Buenos Aires, ARGENTINA
Copyright 1970 by
The General Secretariat of the
Organization of American States
Washington, D. C.
Primera edicin,
Segunda edicin,
corregida y actualizada
1970
1975
111
La colecci6n de monograf{as cientficas consta de cuatro series, en espanol y portugus, sobre temas de ftsica, qumica,
biologa y matemtica. Desde sus comienzos, estas obras se destinaron a profesores y alumnos de ciencias de enseYlanza secundaria
y de los primeros anos de la universitaria; de stos se tiene ya
testimonio de su buena acogida.
Este prefacio brinda al Programa Regional de Desarrollo Cient{fico y Tecnolgico de la Secretara General de la Organizacin
de los Estados Americanos la ocasi6n de agradecer al doctor
Luis A. Santal6, autor de esta monografa , y a quienes tengan el
inters y buena voluntad de contribuir a su divulgacin.
Septiembre de 1970
IV
INDICE
Pgina
A los Lectores . . . . . . . . . . . . . . . . . . . , . .. , , . . . . . . . . . . .
iii
4
6
9
9
11
13
17
19
19
22
l. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . .
2.
3,
4.
5.
6.
7.
B.
9.
10.
CAPITULO CUARTO.
33
37
38
39
40
42
44
45
47
47
DISTRIBUCION BINOMIAL.
.. .. ...
49
.. ....
.. . . . .
.. .. ..
52
53
55
CAPITULO QUINTO.
DISTRIBUCION DE POISSON
59
63
66
CAPITULO OCTAVO.
1.
2.
3.
4.
5.
6.
7.
75
81
85
LA FORMULA DE B A YES
VI
71
72
87
88
91
92
94
96
97
99
101
l.
2.
3.
4.
S.
La Distribucin X2 . .
La Distribucin t de Student . . . .. . . . . , . . . . . . . . .
Estimacin por Intervalos de Confianza...........
Verificacin de Hip te s is ...... . . , . .. .. . . .. ..
Comparacin d e Distribucione s Expe rimentale s
y Tericas: Te st del X2 , . . , .
105
107
109
111
11 9
122
1 25
131
112
1
LA DEFINICION CLASICA DE PROBABILIDAD Y
PRIMEROS EJEMPLOS
l.
DEFINICION CLASICA
La definici6n clsica de probabilidad es la que figura por ejem plo e n l a famo sa "Te or{a Analitica de l as Probabilidadesn (Libro
II, cap. l) de P. S. Laplace, obra hist6ricamente fundamental,
publicada en 1812. Es la siguiente:
de que se verifique,
plo siguiente:
"Se lanza al aire por dos veces consecutivas una moneda cuyos
lados opuestos llamaremos "cara" y" cruz". Se pide la probabilidad de obtener cara por lo menos una vez". A primera vista
podr{a creerse que los casos posibles son: las dos veces cara,
una vez cara y otra cruz, y l as dos veces cruz. Contando de esta
man era nos encontramos con dos casos favorables y tr es casos
posibles; por tanto la probabilidad ser{a 2/3.
Sin embargo, un poco de atenci6n pone de manifiesto que el
caso en que sale una vez cara y otra vez cruz es ms frecuente
que los otros dos; en efecto, puede ocurrir que salga la primera
vez cara y la segunda cruz o viceversa. El segundo caso tiene,
pues, dos posibilidades y hay que contarlo dos veces, como si se
tratara de dos casos diferentes. Representada la cara por C y la cruz
por F, los verdaderos casos posibles son (C, C), (C, F), (F, C),
(F,F), y por tanto hay tres casos favorablesy cuatro posibles, de
manera que la soluci6n del problema es 3/ 4.
La definici6n de Laplace supone que el nmero de casos favorables, y por tanto tambin el de casos posibles, es finito. En
e ste caso la probabilidad de un suceso es siempre un nmero real
c omprendido entr e O y l. La probabilidad O s ignifica que no hay
ningn caso favorabl e, o sea, que el suceso es imposible. La probabilida d l significa que e l nmero de casos favorables es igua l
al nmero de casos posibles, o sea, que el suceso es seguro.
Si hay infinitos casos posibles, la definici6n anterior debe modificarse, pero ello se hace fcilrne nte sustituyendo el nwnero de
casos favorables o posibles, por la medida de los mismos. La
teor{a de probabilidades apar ece as{ {ntimamente ligada con la
t eor{a de l a medida de conjuntos, Supongamos e l siguiente problema:
Elegido al azar un punto d entro de un segmento A de longitud
b/a.
Obsrvese en este ejemplo, que si en vez del segmento B
considersemos un conjunto finito de puntos del segmento A, la
probabilidad resultar{a ser igual a O, sin que ello signifique imposibilidad. Anlogamente, si en vez de un segmento contenido
en A tomamos un conjunto de puntos B que sea el mismo A, excepto un nmero finito de puntos, como la medida de B es igual a la
de A, resulta que la p robabilidad es 1, s in que ello signifique
certeza, O sea: el hecho de que la probabilidad O implique imposibilidad y la probabilidad 1 certeza no es vlido si se trata de la
probabilidad de conjuntos infinitos.
2..
PRINCIPIOS FUNDAMENTALES
= ~ = R +f =
P(A)
+P(B).
[ l. 1]
Los su-
Probabilidades Compuestas,
blema:
Los casos posibles son ahora 6 6 36, pues en el dado rojo puede
salir cualquier nmero del 1 al 6 y, por cada caso, en el dado
blanco puede tambin salir cualquier valor entre I y 6. De entre
estos 36 casos posibles, nicamente hay un caso favorable, y por
tanto la probabilidad buscada es 1/ 36. Se tiene as que, mientras
que la probabilidad de que en el dado rojo salga 2 es I/ 6 y la de
que en el dado blanco salga 5 es tambin I/6, la probabilidad de
que ocurran a la vez los dos sucesos e s igual al producto
(I/6) (1/ 6) = 1/36.
Este hecho es general. Supongamos que para un suceso A hay
m1 casos favorables entre n 1 posibles y que para otro suceso B hay
m2 casos favorables entre n 2 casos posibles. Entonces se tiene
P(A) =
Consideremos ahora el conjunto de
1 y P(B) = m2 /n 2
pares de casos posibles y favorables. Es claro que habr 71171 2
pares de c asos posibles y, entre ellos, habr m1m2 casos favorables
(en que tienen lugar A y B simultneamente). Por tanto P(A y B) =
m1m2 /n 1 n 2
P(A) P(B).
mJn
Probabilidades Compuestas:
[ l. 2]
3,
Mediante la definicin de Laplace y los princ1p1os fundamentales anteriores, y siempre que el nmero de casos posibles s ea finito
(stos se lla man probabilidades finitas) , se pueden resolver muchos
problemas, En r ealidad son problemas de an~lisis combinatorio,
en los cuales la idea de probabilidad nicamente sirve para darles
un enunciado atractivo, pero cuya mayor o menor dificultad slo
estriba en los razonamientos y frmulas de tipo combinatorio que
es necesario emplear. Por esto hemos reunido en el Apndic e I
las frmulas nece s arias. Vamos a ver algunos ejemplos.
Problema l, l. Una urna contiene boZiUas numeradas del 1 al 5.
Se sacan sucesivamente al azar Zas 5bolillas (sin reposici6n). Se
busca la probabilidad de que juntando los nmeros de cada bolilla
segn el orden de extraccin resulte el nmero 21345.
Soluci6n, Los casos posibles son las permutaciones que pueden formarse con las 5 bolillas, o sea, P 6 = 5 ! = 120. Puesto que
hay un solo caso favorable, el resultado es 1/ 120.
Problema l. z.
al 9.
Se
Ca r
c.+~, r
_
-
a ! (a + b - r) ! .
(a - r) ! (a + b !
P~,10,10,10
401
Para contar los casos favorables, observemos que pres cindiendo de los ases, las 36 cartas restantes se pueden distribuir de
Pr, 9 , 9 , 9 = (36!)/(9!) 4 maneras y luego lo s 4 ases de 4!maneras .
Por tanto, el nmero de casos favorables es e l producto de estos
dos nmeros y la probabilida d buscada resulta P = O, 109.
Hall<ll'
Problema l. 8.
20.
J.2
18 17
201918
.l.
20
4,
PROBABILIDAD Y FRECUENCIA
5,
Tanto las probabilida d e s que pueden s e r calculadas de antemano, c omo las que re s ulta n c omo fr ecue ncia d e cierto proceso
10
LA PROBABILIDAD EN TORNEOS
El triunfo en l as competencias d e p o rtivas depende e n gran me-
dida de la influencia del azar, tal vez ms de lo que parece a primera vista. Consideremos dos ejemplos:
l. Sea u n juego entre dos jugadores o dos equipos, A y B
Supon g amos que la p robabilidad d e g anar A sea O, 6 y la de gar
B sea O, 4 . L a probabilidad de empate se supone nula, pues t '
en el caso de e mpatar, la parti da s e repite hasta que g ana
los jugadores.
Si juegan una sola partida, la probabilidad de resultar c ampen
B, que es el que juega peor, es O, 4, que es bastante grande . Se
puede disminuir esta probabilidad si se conviene e n j ugar 3 p art i das y declarar c ampen al que g ane por l o menos 2 de e lla s .
Entonce s la p r ob abi lida d d e que B r esulte campen es p 3 =
= 3(0, 4 )2 , O, 6 + (O , 4) 3 = O, 3 5, que es inferio r a l a probabilidad anterior. Si se juegan 5 parti das y se declara c ampen al que g ane
por lo menos 3 de ellas, la probabilidad de que el campen sea B
es p 6 = 10, (0,4) 3 (0, 6 )2 + 5(0,4) 4 , 0,6 + (0,4)6 = 0,317. Si se jue gan 7 p artidas y se d e clara camp en al que gane por lo menos 4,
la probabilidad de que resulte campen B e s p 7 = O, 290. Vemos
q u e la pr obabilidad va disminuyendo, pero con l e ntitud, d e manera
que aun en u n nmero r e lativamen t e g r ande de partidas, la proba bilidad de que resulte campen e l peor es bas t ante significativa
(aunque por cier to siempr e es infer io r a O, 5 ).
2, Cuando se celebran torneo s eliminatorios, o sea s in que
jueguen todos contra todos, la influencia del orden en las eliminatorias e s mucha. Vamos a dar un ejemplo de tres j ugadores A,
By C, tales q u e A juega mejor que B, B juega m e jor que C y,
sin embargo, C juega mejor que A. Al d eci r "A juega m e j or que
B" qui ere decir que l a probabilidad de que A gane a B es superior
a la de que B gane a A, o sea que e n un nmero grande de partidas
e ntre es tos jugadores, e l nme ro de l as partida s g anada s por A
supera al de las ganadas por B.
11
Supongamos que cada jugador dispone de un dado especial, cuyas caras estn numeradas segn indica la tabla siguiente:
12
p(A,B)
1 6/30,
p(B,A)
14/3 0,
p(C,A)
16/29
p(A,C)
13/29,
p (B,C)
16/30,
p(C,B)
14/30
de manera que
p(A,B) > p (B,A),
p (B, C) > p ( C, B)
y sin embargo
2
DEFINICION AXIOMATICA DE PROBABILIDAD Y PRIMERAS
CONSECUENCIAS
z.
De finici6n
l . Se llama espaaio muestral, asociado a un e xperimento, al conjunto de todos los resultados posibles de dicho
experimento.
En general repres enta remos por E a l os espacios muestrales,
Los experimentos q ue dan lugar a espacios muestrales se llaman
experimentos aleatorios.
Para que un conjunto de e l eme ntos sea un espaci omuestral debe haber, por tanto, un cierto proceso c uyos resultados sean, precisamente, los elementos del c o njunto.
Ejemplo l. Los nmeros l, 2, 3, 4, S, 6 constituyen el espacio
mue s tra! del experimento aleatorio de "lanzar un dado" cuyas caras
es t n numeradas del J al 6.
Ejemplo 2. Las letras C y F constituyen el es p a cio muestra!
del experimento aleatorio de "lanzar una moneda", pr oceso cuyo
r esultado puede ser cara ( C ) o cruz {F) .
13
Ejemplo 3, Los pares (C, C), (C, F), (F, C), (F, F) constituyen
el espaciomuestral del proceso de "lanzar dos monedas simultneamente11.
Ejemplo 4, Los nmeros 3, 4, ... , 1 8 constituyen el espacio
muestral del experimento aleatorio de "lanzar 3 dados y sumar los
nmeros obtenidos".
Ejemplo 5. Si se tiene una urna con N botillas numeradas de
a N y se van sacando sucesivamente todas ellas, anotando ordenadamente los nmeros que van saliendo; entonces las N ! permutaciones que se pueden formar con los nmeros 1 a N constituyen
el espacio muestral del experimento aleatorio de "s acar todas las
bolillas de la urna".
Ejemplo 6, Supongamos un punto que se mueve sobre una circunferencia y que puede dete nerse en cualquier punto de l a misma;
los puntos de la circunferencia constituyen un espacio muestral,
en este caso constituido por infinitos elementos.
14
Precisemos ahora la definici6n de los conjuntos de casos favorables. Desde luego stos deben ser subconjuntos de E. Cuando
E es finito, no hay inconveniente en considerar como posibles
conjuntos favorables a todos lo s subconjuntos de E. Pero cuando
E es infinito, la consideraci6n de " todos" los subconjuntos de E
puede presentar dificultades.
Por otra parte, no es necesario
considerar todos los subconjuntos del espacio muestra! para poder
construir la idea de probabilidad de acuerdo con lo s ejemp lo s del
capitulo anterior. Lo importante es que si A y B representan
conjuntos de casos favorables de ciertas proposiciones, la uni6n
A U B debe ser tambin un conjunto de casos favorables, precisamente el correspondiente a la proposici6n "A o B" . Tambin el
conjunto complementario A = E - A debe figurar en la clase de
conjuntos de c asos favorables , puesto que corresponde a la proposicin 11 no se cumple A 11
Dentro d e la matemtica hay precisamente una estructur a especial para clases de subco njuntos de un conjunto, llamada o - lge bra (o lgebl'a de Bol'el o 11tl'ibu") que cumple dichas condiciones.
Su definici6n es la siguiente:
E B,
entonces
entonces UA1 E B,
= E - A E B.
u A E B;
a)
b)
</>
E E B;
c) Si A 1 , A 2 E B "' A. 1 , A. 2 E B "' 1 U A. 2
A 1 l A 2 E B "'
"' A 1 l A 2 E B. En general, si A 1 , A 2 , E B entonces la intersecci6n l A 1 E B.
Obsrvese, pues, que no ha sid o necesario postular que la
intersecci6n de conjuntos de una a-lgebra pertenece a la misma;
ello es una consecuencia de las propiedades i) y ii) de la definici6n.
A partir de esta definici6n, los clsicos casos favorables se
incluyen dentro de los llamados "sucesos", cuya definici6n es la
siguiente:
Definici6n z. 3. Los elementos de una a-lgebra B en un espacio muestra! E, se llaman sucesos. Los elementos de E se
llaman sucesos elementales.
Definicin Z.4. Se dic e que los sucesos A 1 ,A 2 , son incompatibles si no existe ningn elemento de E que p e rtenezca a dos o
ms de ellos, es decir, si A 1 l AJ = </> para todo par de ndices
i ,. j.
Ejemplo 1, Al lanzar un dado hemos visto que el espacio
muestral es E = (1,Z,3,4,5,6). Un suceso puede s e r el subconjunto (3,4) y co rresponde al hecho de salir "3 6 4", o sea a la
uni6n de lo s s ucesos e lementales (3J y (4). Otro suceso es
( 1, z, 5). Ambos sucesos son. incompatible s. En cambio no lo
son los sucesos (3, 4) y ( 1, 4, 6J pues ambos tie nen en comn el
elemento ( 4).
Ejemplo Z. En el espacio mue s tra! E = (3, 4, ... , 18} correspondiente al proceso de lanzar 3 dados y sumar los puntos
obtenidos, un suceso es (3, 5, 7, 11 , 13, 17), que corresponde a
la proposici6n "la suma es un nmero primo". Otro suceso es el
formado por los nmeros pares (4, 6, 8, 10, 12, 14, 16, 18}, y los
dos sucesos son incompatibles.
15
Entonces
P(A) ;, O
II.
Si A 1 , A 2 ,
P(A 1 )
t
III.
16
P(E) =
l.
diser>eto.
Convenio. Hemos dado la definici6n general de probabilidad,
vlida para espacios muestrales E cualesquiera. Sinembargo, en
la presente monografa supondremos s iempre, por simplicidad, lo
siguiente:
a) Si E es finito o infinito numerable, la a - lgebra B ser
siempre el conjunto de todos los subconjuntos de E.
b) Si E es el conjunto de puntos de la recta (o del plano, o, en
general, de R") la a -lgeb ra B ser la constituida por todos los
conjuntos medibies d e E. En particular, en el caso de la recta,
B ser e l conjunto de todos los int e rvalos abiertos, m s los c onjuntos fo rmados por un solo punto y lo s conjuntos que pueda n formarse por la unin d e un nmero finito o de una infinidad numerable
de estos conjuntos. No se considerarn otros conjuntos ms generales.
Ejemplo 2, Para el lector familiarizado con l a noci6n de medida de conjuntos sobre la recta real (lo que no har falta en lo
sucesivo, pues nos limitaremos a conjuntos formados por la uni6n
de segmentos disjuntos y entonces la medida es la suma de las longitudes de los mismos), podemos decir gue, dado el segmento (a, b),a <
<by la a-lgebra de los subconjuntos medibles del mismo, para cada
uno de estos subconjuntos, por ejemplo a., se puede definir P(a.) =
= (a.)/(b-a), donde ( a.) es la medida de a.. Evidentemente, esta
definici6n de probabilidad es admisible, por cumplirse los axiomas
I, II, III. Vemos as l a v inc ulaci6n estrecha entr e la noci6n d e
probabilidad y la de medida. Como b-a = ((a, b)), la probabilidad aparece como cociente de medidas. Para conjuntos de puntos
del plano, del espacio o de R" puede establecerse la misma definici6n.
2.
2.
Llamando
A =
E - A = suceso opuesto a l A, es
P(A) =
l - P(A).
[2. 1]
17
Si A
yB
nB
c f.
(/> ,
entonces
[2. 2]
n B) u (A n B),
B = (A
n B) u (A n B)
P(A l B) + P(A l
B),
P(B)
[2. 3]
18
Por otra parte, la identidad
A UB =
(A l B) U (AlB) U (AlB)
n os d a
P(A
u B)
P(A
n B) + P(A n B) +
P(
n B)
[2. 4 ]
Pongam o s A = A 1, B =
I P( A d - P (A1 n A
1
1 ,j , k
P (A1 l AJ l Aic) -
t,J
3)
[ 2. 5 ]
donde las sumas se extienden en cada caso a todas las combinaciones posibles entre los diferentes ndices t, j, k,
3,
LA DEFINICION CLASICA
[Z. 6]
l.
m P(A)
m/n.
19
4.
PROBABILIDAD CONDICIONAL
P(BIA)
P(A lB)
P(A)
[Z , 7]
P(A
lP(A l B 1 )
I
P(A)
n (U B))
P(A)
P(B,
IAJ
P(U (A l B))
P(A)
lP,(B),
1
de sucesos incompatibles.
P,(E)
20
P (A)
P(A)
n B)
1.
A partir de ella se
to,
P(B l A)
P(B) .
se t iene
[2.8]
[2.9]
P(B).
(A y B independientes)
[2 .10]
P(Ai B) = P(,A).
[ 2, 11]
[2. 11].
Puesto que el hecho de que un elemento pertenezca a la interseccin A n B significa que a la vez pertenece a A "y" a B, la
relacin [2.10 ] equivale ala [l. 2] (principio de las probabilidades
compuestas). Ntese, sin embargo, que si bien las definiciones
2. 5 y 2. 6 tienen su origen en la idea intuitiva de sucesos independie ntes, al ser ahora establecidas como definiciones desaparece toda posible ambigedad, y adquieren un sentido bien preciso.
La definicin de independencia se generaliza a
sucesos de la manera siguiente:
Definicin 2. 7.
ms
de dos
independientes (o aompZetamente
[2. l 2]
para k = 2, 3, .. , n, donde (t 1, t 2, ... , tk)
cualquiera de los n nmeros 1, 2, .. , n.
es una combinacin
P(A
P(A lB)
P(A) P(B),
P(A l C)
P(A) P{C),
P(B l C)
P(B) P(C),
n B n C)
y son
inaompatibZes si A l B
P(A) P(B)
r/J.
[2.1 3 ]
21
5,
EJEMPLOS
22
[2. 14]
donde l 1 , l 2 , ln son los nmeros entre l y n que salen de la primer a urna, y J 1 ,J 2 , ,J. son los que salen de la segunda. El
nmero total de elementos d e E es (n!)2 (casos posibles) y la probabilidad de cada uno ser (n ! -. Sea A 1 e l conjunto de elementos
de E, e n los c u a les el nmero l de la primera fila coincide con e l
nmero j = t de la segunda, independientemente del lugar en que
ocurra la coincidencia.
matrices de la forma
Por ejemplo,
3 \
3 .)
Se trata de calcular P(A1 U A 2 U .. U A,). Para ello se aplica
la f6rmula[2. 5], quereduceelproblemaalclculo de las probabilidades del segundo miembro. Vamos a buscar el valor de cada
sumando:
a) Probabilidad P(Ai). El nmero de elementos [z. 14) en que
coinciden los nmeros t, se calcula de la siguiente manera. Fijado el lugar en que ocurre la coincidencia, los restantes n - l
nmeros de la primera y de la segunda filas pueden ser cualesquiera, y por tanto se tienen {(n - 1) !) 2 casos. Como el lugar de la
coincidencia puede ser tambin c ualquiera, se tienen, en cada
caso, n posibilidades ms. Por tanto, A 1 est compuesto de
n{{n-1)!) 2 elementos [2.1 4], y en c onsecuencia
P(Ai)
n{{n-1)!) 2
(n!)
- "n'
l.
lP{A 1 )
n. (n -
I ) ( {n - 2) !) 2
(n !)
n.{n-1)
P{A1 l AJ)
1, J
..!.. .
2
c) Anlogamente,
P(A,
n AJ
y por tanto
1,.1,1c:
P(A,
n AJ n A.)
n(n - 1 ){n - 2 )
23
[2.15]
P( 1)
1,
P(5)
O, 6333 . ,
O, 5,
P(6)
P(3)
O, 666 .. ,
O, 6319 .. ,
P(7)
P(4)
O, 625,
= o, 6321 .
y para valores mayores de 7, quedan invariables las cuatro primeras cifras decimales.
Este problema se encuentra por primera vez en el libro de
P. R. Mootmort, titulado Essai d Analyse sur les jeu:r: de Hasard,
publicado e n 1708, y presenta muchas variantes. Por ej e mplo:
24
r
P, =
10
20
23
30
o, 706
Los si-
40
60
O, 89 O, 99.
Se ha set\alado el nmero r = 23, pues en tal caso la probabilidad es prcticamente 1/2. Obsrvese que si las personas son
60 o ms, la probabilidad es superior al 99%, es decir hay
casi certe z a de que por lo menos dos personas cumplan aos
el mismo dfa, resultado un tanto sorprendente a primer a
vista.
n +e
n+r+c
Si las dos primeras han salido ne gras, en e l m omento de hace r
l a tercera extracci6n la urna c ontiene n + 2c bolillas n e gr a s y r
25
n+c
n+r
n+r+c
n + 2c
n +r+Zc
n
n+r
n +e
+
-t-
n + (1<1
e
n -t- r + ( K 1
1 )e
- 1 e
26
donde N = k 1
+ ka .
l)c)
Se trata de h a llar
objetos de la clase My s -X dela clase R. Las posibles combinaciones de X objetos de la clase M son
y las posibles combina-
(1)
de elementos de A es(~)~
.'."0,
por tanto ,
el nmero
y la probabilidad buscada
20,
r = 10, s = 5
27
Problema 2. 7. Si se lanzan 3 dados al azar, mil es Za probabilidad de que la suma de los nme:ros obtenidos sea, :respectivamente, 9, 10, 11 12?
Solucin.
( i, j, k) con 1 s i, j, k s 6.
28
Por tanto
25
P(A;,) = 26 = O, 1157.,,
De modo anlogo, formando directamente las ternas, cuya suma e s 10, 11 12 resulta
P(A1o) =
P(A11 )
i{
6
o,
P(A;,)
125 ... ,
25
2l6
= 0,1157,
Figura en
1 +2 +6
1 +3 +5
1+4 +4
2 +2 +5
2 +3 +4
3 +3 +3,
2 +4 +4
3+3+4 ,
10
1 +3 +6
1 +4 +5
2 +2 +6
2+3+5
11
1 +4 +6
1+ 5+5
2 +3 +6
2+4+5
3+4+4,
12
1 + 5 +6
2+4+6
2 +5 +5
3 +3 + 6
4+4 +4.
La explicaci6n est, como .hemos visto, en que las descomposiciones no tienen la misma probabilidad, puesto que por permutaci6n de los sumandos pueden provenir de ternas diferentes.
Problema 2.. 8. Una Zoter{a tiene N nmeroe y un solo premio.
Un jugador compra n billetes de un eoZo sorteo y otro jugador compra un solo billete durante n sorteos conseautivoe, de manera que
los dos jugadores apuestan Za misma cantidad. Cul tiene mayor
probabilidad de sacar eZ premio?
Soluci6n.
de la lotera.
29
Obsrvese a.hora que para todo par de ente r os N,m > 2, es
d e lo cual se ded uce P 2 < P 1 , es decir, el primer juga dor tiene una
probabilidad mayor de sacar el premio. E l resultado es natural.
En efect o, el primer juga dor s6lo puede sacar e l pr emio una sol a
vez, en tanto que el segundo, exponiendo el mismo dinero , tiene
la posibilidad de ganarlo varias veces. Es natural, por tanto, que
la probabilidad de sacarlo "por lo menos una ve z " sea menor para
este ltimo que para el primero.
Problema 2. 9, Un tirador tiene Za probabilidad p de dar en el
blanco. Se Ze ofrecen dos alternativas: a) Hacer un solo disparo;
b) lulcer 3 disparos eon Za condicin de dar por Zo menos 2 veces
en e Z blanco. CuZ alternativa es ms favorable aZ tirador ?
30
Solucin. Si se especificara cul de los dados debe dar el nmero 1, c ul el nmero 2, etctera, la probabilidad ser{a el
producto de las proba bilidades respectivas,ose;,, (1/ 6) 6 = 1/7776.
Pero como el dado que sale 1 puede ser cualquiera (5 posibilidade s ), el que sale 2 pue de ser cualquiera de los 4 restantes (4 posibilidades), el que sale 3, cualquiera de los 3 restantes (3 posibilidades), etctera, resulta que hay 5 ,4,3 ,2= 120 posibilidades
ms, y por tanto la prob<>bilidad buscada es 120/ 7776 = 5/324 =
o, 015.
Otros Problemas. Damos a continuacin otros ejemplos simples de problemas, de los que se indica nicamente la solucin.
l. Se lanzan 2 dados, hllese Za probabilidad de que Za diferencia entre eZ mayor y el menor de loe nmeros respectivos sea
2:
3.
Solucin.
12/36 = 1/3.
Por
Por
que
a) P,
= 1/ 11;
b) P, = 16/33.
7. Tres cunigos han acordado, si Zas circunstancias se lo permiten, acudir a una determinada cita. La probabilidad de cada uno
de poder ir es P. Cul es Za probabilidad de que acudan dos amigos y falte el teraero?
Solucin.
= 3P2 ( 1 - p) .
una bolilla de cada urna, lcul es la probabilidad de que ambas boZi Uas sean de Z mismo color?
Solucin.
9. En un tribunal
des respeativas de dar
"haUar l.a probabilidad
biendo que e Z mismo se
31
Solucin. La probabilidad de que un bimotor no termine la travesa es p 2 y la de que no termine la travesa un cuadrimotor,
p 4 + 4p 3 (1 - p). Por tanto, suponiendo p < 1, los bimotores son
ms seguros si p > 1/3, y son ms seguros los cuadrimotores en
caso contrario.
11, Un avin trimotor puede volar con slo el motor central o
bien con los dos motores laterales. En una detemiinada traves-a,
la probabilidad de fallar el motor central es Po y la de faZZar cada
uno de los motores laterales es Pi , Cul es la probabilidad de que
el avin no pueda temiinar la traves-a?
Solucin,
32
P = P 0 Pi(2 -A).
3
VARIABLES ALEATORIAS,
l,
FUNCIONES DE PROBABILIDAD
VARIABLES ALEATORIAS
Los elementos del espacio muestra! E, que hemos llamado sucesos elementales, son elementos abstractos y, en consecuencia,
tambin lo son los sucesos o elementos de la o-lgebra B definida
en E. La probabilidad P, por otra parte, es una funcin cuyo dominio es el conjunto de los sucesos y cuyo codominio es el intervalo [O, 1 J de los nmeros reales. Para poder aplicar el clculo
mate mtico, es conveniente que el dominio de la funcin P pertenez ca ta mbin al conjunto de lo s nmeros r eal es R, a fn de que P
sea una funcin de nmeros reales en nmeros reales.
Supongamos,por ejemplo, el experimento aleatorio de lanzar dos
monedas y ver si stas salen cara C o cruz F. El espacio muestral E es el conjunto de los 4 pares:
(C, C), (C, F), (F, C), (F, F).
[3. 1]
X(F, C)
1, X(F, F)
= O,
P(C,C)
1/4, P(l)
P(C, F) + P(F, C)
P(F, F) = 1/4.
1/ 2, P(O)
Vemo s, pues , que la funcin X hace corresponder a cada elem e nto de E un nme r o re a l y que, adems , el c o njunto d e e lement o s d e E, cuya imagen es uno de estos nme r os reales, es un
e lemento d e B, o s ea, es u n s u c eso, y t ie ne, p o r tanto, una de termina da probabilidad.
33
34
Por cierto que si E es finito y aceptamos el convenio de la pgina 16, segn el cual Bes el conjunto de todos los subconjuntos
de E, la ltima condicin puede suprimirse, y variable aleatoria
finita es cualquier funcin X: E - R.
Puesto que el conjunto x-l(x 1) (elementos de E cuy a imagen por
X es el nmero x,) es un elemento de B, t e ndr u na cierta probabilidad, que se representa por
P(X-1 (x,)) = P(X = x,)
[3. 2]
f(x,)
x,
I=
f(x,)
1
P(E)
l.
< x.. Muchas veces interesa la probabilidad de que X torne un valor igual o meno1' que :,;1 Su valor ser
[3. 4]
lo cual da lugar a la siguiente definici6n.
Definici6n 3.2.
= 1.
Se lanzan 3 monedas.
nmero de oa1'as.
Ejemplo l.
to1'ia
X =
Soluci6n,
AnaZ{oese
e, C),
(C, F, F),
(C,
e, F),
(F, C, F),
(C, F, C),
(F,
e, C)
cada uno de los c uales tiene la misma probabilidad 1/ 8. L os nmeros posibles de caras son x 1 = O, x 2 = 1, x 3 = 2, x 4 = 3.
Los
v alor es de la funcin de probabilidad y de la funcin de distribucin
estn dados en la siguiente tabl a:
X
1/8
3/8
3/8
1/8
1/8
1/2
7/8
= (1)(1/2)3,
X=
0,1,2,3.
35
Se tiene:
No. sacado
1O
11
12
3' 2
De aqu se deduce
x-1 0)
x-1 (4)
(l},
x-1(2) =
[6, 8,101,
x-1(3)
( 2,3,5,7,11},
x- 1 (6 ) =
( 4, 9},
(12}
36
1/12
5/ 12
1/ 6
1/4
1/ 12
1/12
1/ 2
2/3
11/12
Esto nos dice, por ejemplo, que la probabilidad de que un nmero elegido al azar entre I y 12 tenga 3 divisores es f(3) = 1/ 6,
y la pr obabilidad de que tenga menos d e 3 divisores e s F(2) = 1/ 2.
tantes.
Soluci6n, La probabilidad de cada par ordenado es 1/36. Contando directamente en cada caso el nmero de pares que corres pande n a cada valo r d e X o de Y, resultan las siguientes tablas :
X
1/36 1/ 18 1/ 12
1/ 36 1/ 12
10
1/ 6
5/36
1/ 9
1/ 12
1/9 5/36
11
23/3 6
7/36
1/ 12
l /36
1/ 36
1/36
2 3/3 6
15/ 18
1/ 12
1 7/ 18
35/36
12
1/ 18 1/36
l
Estas tablas resuelven problemas del siguiente tipo: a) Lanzando dos dados al azar, la probabilidad de que la suma de los
puntos sea 7 es (7) = l/6, y la de que la suma de los puntos sea
,;;10, es F(lO) = 11/12; b) Dados al azar dos nmeros entre 1 y 6,
la probabilidad de que su m. c, d. sea menor que 5 vale F(4) = 1 7/ 18.
Ejemplo 4. Ejercicio. Se lanzan dos dados y sean l, J Zos nmeros obtenidos. Estdiese Za va:riabZe aleatoria X = ni>lero de
divisores de la SW71a l + j , y comprense Zos resultados con los
del ejemplo 2.
Z.
ESPERANZA MATEMATICA
Sea una variable aleatoria finita X que puede tomar los valores
, x. con las probabilidades f(x 1 ), f(x), .. , f(x.).
x 1, x 2 ,
E(X)
=
1
Si
[3. 5]
X1f{;;,;).
1
1,
o sea, es igual
E(G(X)) =
!
G(,x)f(xl).
[ 3, 6 J
= 3, 5.
z.
Ejemplo
La esperanza matemtica de la suma d e los nmeros re sultantes al lanzar dos dados a la vez, se gn el ejemplo 3
d e la seccin 1 , ser
37
38
En particular a 1
por l a ecuacin
k
= E (X).
L os
E((X- a 1)k)
t=
xtf (x,).
momentos centrados
!
1
[3. 7 J
=l
(x 1 - a 1 )kf(x 1),
se define n
[3 . 8]
Es particularmente importante elmomento centrado de se g undo orden, que da lugar a la s iguie nte d e fin ici6n.
Deinici6n 3. 6. Se llama varianza o variancia de una variable
aleato ria X al m omento centrado d e s e gundo orde n . S e r epre senta
por c,2 o por c,2 (X), o sea
n
Var(X)
0 2
o "(X)
E((X - a 1 ) 2 )
(3.9]
1= 1
Deinici6n 3. 7. El nme ro n o n egativ o o, r a z cuadrad a d e l a va rianza, se llama desviacin t{pica o desviacin "standard" de la
variable aleatoria X.
Se comprende que c,2 mida en cierta manera la s e p araci6n de
los valores de X de su valor medio a 1 En efecto, como cr2 es una
s uma de trminos p o sitivos, si o 2 es pequea, t odos ellos deben
s er pe q u e os y p o r tanto, o b i e n x 1 - a 1 es p e q u e o (para t od o x 1 ) o
bien e s peque a l a p r obabilidad f(x 1). Al contrar i o , si o 2 e s g r an d e, ello sign ifica que hay va lo r es d e X muy s epar ados d e su valor
medio . En resumen, la idea que se debe tener de cr2 es que si
tiene un valor pe q ue o se trata de una variable aleat oria X cuyo s
valores difieren poco de su valor medio y, si tiene un valor grande, significa que hay valore s d e X a lejado s de su v alor medi o .
L as s i g uientes r e l a cione s en las cuales a, b s on co ns tantes son
imp o r tantes y su d e m ostr aci6n, e n cada c aso, e s una consecue ncia i nmediata d e l a s definici ones a n t eri or es , por l o que nos limita mos a e nunciarlas :
E( a X + b )
a E(X ) + b
[3.10 ]
[3. 11]
E(X 2 )
(E(X) ) 2
cr2 (a X + b )
4,
[3. 12 J
[3. 13]
LA DESIGUALDAD DE TCHEBYCHEFF
Sea H(X) una funci6n de la v aria ble aleatoria X que n o t om e valore s negativos, o s ea, H(x 1 ) :a< O par a t od os los v alo re s x 1 d e X.
Se a K > O una constante dad a, y sean x 1 ( i, = 1, 2 , , n,) l o s v alo r e s
de X , y X a a quellos valore s para lo s cual es s ea H (xa) :a< K . Tenemos
n
E (H (X) )
1=1
39
H(X) sea
igual o
[3 . 14 ]
x - a, 1
.,
ka) s
w1
[ 3. 15 ]
[3. 16 J
~;.
S.
40
l
J
P(x ,, YJ ) =
(3. 17 ]
f (x ,) ,
p u es t o q u e la smna, r espec to d e J, d e l a probabili d a d d e que ocu rra (x, y) es igu a l a la probabilida d ~ e qu e o c u rr a x ,, l o que da l a
prime r a igu ald a d. La s e g unda e s a nalog a.
Se tiene e l siguiente teorema,
Teorema 3, l.
las variabZes
aleatori as
X e Y se verifiaa
E(X + Y ) = E (X) + E(Y )
Demoetraci6n. Basta aplicar l a
[3.17 ] , En e fecto
d efinicin y
[3. 18]
la s
igu a ldades
E(X + Y)
(x 1 + y,)P(x, y,)
1,J
E(X) + E(Y),
n, y l as sumas respecto
Con la misma demostraci6n, tenindo se en cuenta [3, 10], resulta de manera general que si Xl' X 2 , , x. son variables aleatorias cualesquiera y av a?. , , an son constantes, entonces
E(alXl + a 2X2 +. . +
En lademostraci6n sehasupuestoqueX e Yson variables aleatorias finitas. Sustituyendo las sumas por series o por integrales, la
mismademostraci6npruebaque el teorema es vlido tambin para
las variables aleatorias discretas y continuas definidas en el captulo
6. La misma observaci6n es vlida para los teoremas 3 .2, 3 ,3 y 3, 4.
El teorema anterior permite resolver algunos problemas de manera ms fcil que por clculo directo. Por ejemplo:
Problema 3, l.
Dos urnas contienen, cada una, bolillas numeradas de 1 a 1 O. Se saca una boliUa de cada urna y se suman tos
nmeros obtenidos, cul es el valor medio de Za suma ?
Soluci6n. Si X e Y son las variables aleatorias que expresan el
nmero sacado de cada urna, es E(X) = E(Y) = (1/ 10)(1 + 2 + . + 10) =
= 11/2 yportantolasoluci6n es E(X +Y)= 11,
Problema 3. 2. Una urna contiene 1 O boliUas numeradas de 1 a
10, Si se sacan a Za vea dos bolillascul es e l valor medio de Za
suma?
x,,
41
x,, y 3 de las
variables.
Teorema 3 2.
0
dientes, entonces
cr2 (X
+ Y)
cr2(X)
[3.20]
+ cr2(Y).
Demostraci6n. Siend o X e Y independientes, se cumple la igualdad ltima y por tanto, poniendo E (X) = 0.1 y E(Y ) = 13 1, se tie ne
cr 2(X + Y) =
(x 1 + y 3 - a. 1 - S 1) 2f(x,);,( y,)
,, J
1,J
(x, -a.
1 )f(x,)
3)
L<Y, - 13 );,( y, )
1
y como h(y
(y 3 - S1)f(x, ) ;,( yJ ) +
1,J
42
En particular, si
a1
= 1,
a2(X - Y)
6.
o 2 = -1 ,
=
[3 . 22]
tes, se tiene
[ 3. 23]
= f(x 1)'7(y3),
E(X. Y)
y por tanto
l
1,J
E (X) E(Y).
1,J
desarrollando
[3 . 2 4 J
D e aqu se deduce que, e n el caso de variables aleatorias dependientes, la frmula f3. 23 J debe se r sustituida por
[3 . 25]
[3.26]
cov(X, Y) = O.
Teorema 3. 4,
indepen-
dientes o no vale
o 2(X + Y)
Demostraci6n,
Se tiene
o2<X + Y) =
(x 1 - a 1 + YJ - \3 1 )P (x, yJ)
,, J
+ 2
(x, - a H yJ - s
1
1 JP(x"
yJ)
1,J
43
nidos.
CORRELACION
Puesto que cov(X, Y) = O en el caso en que X e Y son independientes, puede decirse que la cov(X, Y) mide, en cierta manera, el
grado de dependencia entre X e Y. Sin embargo, cov(X, Y) tiene el
inconveniente de depender de las unidades de medida, es decir, si en
vez de X e Y se toman las variables aX , bY (a;, b constantes) es
cov(aX, bY) = ab cov(X, Y), como resulta inmediatamente de la definicin. Para evitar es t e inconveniente se ha recurrido al siguiente concepto:
44
cov(X Y)
a (X) a!Y)
[ 3. 28 J
Este cociente no cambia si se multiplican las variables aleatorias por constantes positivas. Se va a demostrar que -1 s; p s; 1. Para
ello, siendo A, dos constantes, consideremos
[ 3 . 30]
de donde:
a)
p 2 s; 1, y por tanto -1 s; p s; l.
"'
b) Si p = 1, existen valores A=
= 0 (no ambos nulos),
para l os cuales [3 . 29 J se anula, o sea E(A 0 (X - a 1 ) + 0 (Y - A1 )) 2 = O,
l o que exige que sea
o.
[3. 31
x,,
!=
ei'f(x,),
[3.32]
El nombre pr oviene de que, c o nocida la funcin 'f( t ), s us derivadas sucesivas en el punto t = O, s o n los momento s d e X. En
efecto, se tiene
,y(O) =
lt(x1 )
'=
,y,(Q)
xtf(x1 )
E(X)
'f" (O)
.icrt<x,)
E (X 2 )
,y(rl(O) =
x;f(x1)
Y, en general,
a,
E(X)
a,. .
[ 3.33 ]
45
Demostraci6n.
lo sern
[ 3, 34]
Xn son
[3.35]
Por la definici6n [3 .3 2], la funci6n de probabilidad determina
la funci6n generatriz de momentos. Ahora se plantea el problema
inverso: Dada la funci6n generatriz ''( t), queda uni'vocamente determinada la funci6n de probabilidad f? Este es un teorema matemtico difi'cil, Se trata de buscar una f6rmula de inversi6n que
permita despejar las f(x 1 ) en [3. 32 J. Se puede demos trar que bajo
ciertas condiciones muy amplias, que se cumplen siempre en los
casos usuales, la inversi6n es posible, es decir , la funci6n generatriz determina uni'v ocamente la funci6n de probabilidad. Nosotros admitiremos este resultado sj.n d e m ostraci6n.
46
1, 2, ... , n + l.
n--h<e'
e2t
+ .. , + e (n+1),
3. 3 5 ] ,
+ e (n+l) t,.
[3. 3 6]
e htph
1'
[3.3 7]
z.
Ejemplo
Se desea saber cul es la probabilidad de sacar la
suma 15 arrojando 6 dados. Hay que tomar s = 15, r = 6 , 7'I = 5, y
resulta P 16 = (l/6S)(C 14, 5 ~ C 611 C 8 , 5 )
833/23328,
9.
FUNC!ON CARACT:E:RISTICA
47
La funcin generatriz puede definirse igualmente para variables aleatorias con una infinidad numerable de valores. Basta,
para ello, sustituir la suma de [3.32] por una serie desde i, = 1
hasta t, = "' En este caso, s in e mbargo , la funcin generatriz slo
tendr sentido si la serie resulta convergente, Si en lugar de ex,
se toma etxt, donde f, es la unidad imaginaria, la convergencia es
siempre ms segura. Por otra parte, en el caso de variables
aleatorias con~inuas, que veremos ms adelante, la sustitucin de
ext por etxt presenta t odava otras ventajas (poder aplicar, por
ejemplo, la frmula de inversin de :Fourier), De aqu que en los
tratados de probabilidades desde un punto de vista superior, en
vez de la funcin generatriz de momentos, se suele utiliza r la llamada funcin caracter{stica, definida por
'l'(t)
'l'( i,t)
E(e!Xt).
10.
R:E:CRESION
S e an dos variables aleatorias X e Y y sea tJ = f(x,, Y ) laprohabilidad del par X= x, e Y = YJ De manera anloga a [2. 8), se
tiene ahora
h(X) =
lf
[3.39]
donde f(YJlx1 ) representa la probabilidad de que sea Y= Yi, condicionada a X= x 1 , y h(x1 ) es la probabilidad de X= x 1 Para cada valor de X, por ejemplo X= x 1 , la esperanza de Y es un cierto
valor
Yl = lYif(Yilx).
J
Se tiene as una funcin y' cuyo dominio es el conjunto de valores de X, que se llama la regresi6n de Y sobre X.
Se trata de aproximar esta funcin mediante una expresin lineal y = a + bx. Para e llo se aplica el mtodo de los mnimos cuadrados, que consiste e n determinar las constantes a y b de manera
que la esperanza
48
sea rr"nima. Para determinar los valores de a y b que hacen mnima E, d e ben ser nulas las derivadas parciales de esta expresin
respecto de a y b y se tienen las ecuaciones (teniendo e n cuenta
[3. 39 ] y que
lf
1i
= 1)
l,l
E(Y) - a - bE (X) =
O,
E(X Y)
- a E(X) - b E (X 2 )
b
'
cov(X, Y)
o2 (X)
4
DISTRIBUCION BINOMIAL, LEY DE LOS GRANDES NUMEROS
1.
DISTRIBUCION BINOMIAL
n/
J.
49
AAA .. A,
AA .. ,AB,
AA . .. BA,
. . .,
BB . .. B
(4. 2]
= 0,1, . . . ,n
50
y tambin es muchas veces til lafuncin de distribucin binomial,
a sabe r,
[ 4. 3]
F(x)
$;c.
Para ver c6mo vara la funci6n b( r;n, p), dados p y n, formemos el cociente
b (r ;n, p)
b(r - I;n, p )
(n - T + l)p
Tq
+ (n + 1 )p - r
Tq
en tanto que parar< r 0 , la funcin b( r ;n,p) c receypara r > r 0 de crece. Es decir, b( r;n, p) tiene en es te caso un solo v alor r. en e l
que toma s u valor mximo. Como ve r e mos ms adelante, este v alor
mximo es aproximadamente igual a !/ (2nnpq )1/3. En las figur as
1 y 2 se dan ejemplos de ambos casos.
b(r 9, o.4)
0,4
0,3
0,2
0,1
Fig. l.
b ( r ; 10, o. 2s)
51
0,4
0,3
0,2
0,1
Fig. 2.
El clculo de P, no es fcil para valores un poco grandes den
y r. Se pueden aplicar tablas de l os nmeros combinatorios o tablas de factoriales (vase el Apndice III) o la frmula de Stirling
(Apndice I) . Sin embargo, en general, es ms p r ctico sustituir
la ley binomial por otr a ley aproximada, como la de Poisson o la
normal, que veremos en e l prximo captulo .
Problema 4. 1. Se lanza una moneda 20 veoes . Se busca : a ) Za
probabilidad de sacar 14 veces cara; b) el nmero m<s probable de
caras y Za probabilidad de que salga este nwnero.
Solucin, Los clculos pueden hacerse directamente para darse cuenta de lo engorrosos que son, pero aqu han sido hechos
mediante la tabla de factoriales.
38760
1048576
20 !
( 20\(1):P
14/2
= 6!14!2:P
a)
P,4
b)
10
(2)(..!.)a:,
10 2
184756
1048576
o, 036 ...
= np = 10,
= o
'
y es
176 . . . .
52
=1 p + O q = P
E(X) = np.
Por
[4. 4]
[ 4. 5]
Estas frmula s [4. 4 J y [ 4 . 5 J se pue den tambin obtener directamente. En efect o , prubese, como e jercicio, que
l"'
t'
r b(r;n,p)
np,
= o
"'
(r - n,p) 2 b(r;n, p)
npq.
[4. 6]
r::: o
De aqu se deduce,
( e'p + q) n.
[4. 7]
E(X)
'I'' (O)
np = a.1
E(X 2 )
'l'"(O)
n(n - l)p 2 + np
cf'(X)
3,
E(X~) - (E(X))~
npq,
TEOREMA DE BERNOULLI
Apliquemos la desigualdad de Tcheby cheff [3, 15] a una variable binomial. Siendo E(X) = a. 1 = np, o 2 "' npq, resulta
[ 4. 8 J
que puede escribirse
l
,; ,2
Dado un nmero positivo cualquiera
minar h de manera que sea
,/J!j.
n
>
;,
>
;,
[4. 9]
;./fq_
( 4. 10 J
Definicin 4. 1,
entero
P(\z.
h >
de un
- p\ >
h)
tiende a
cero,
53
tiva
54
[ 4. 12]
Solucin. Se quiere que sea o, 45 ,; X/n,; O, 55, o sea \X/1.000 - o, s ,;_O, 05; en [4, 12 J es e = o, 05, n = l. 000, p = q = 1/2, con
lo cual se tiene
_x_
n :e
13.888.
Problema 4. 4.
Se quiere saber la frec:uencia de fumadores en
una aierta poblaain (o sea, el cociente de dividir el nmero de fumadores por el total de la pobl<;win). Para ello se eligen n personas al aaar y se halla la freauencia de las que fuman. Se desea
saber qu valor debe tener n para que esta frec:uenaia no difiera de
la real en ms de O, 00 5 , con una probabilidad :e O, 95 .
Solucin. E n e s t e c aso n o se con o c e p , de m ane r a que t o m aremos la acotacin [4.13]. Siendo e = 0 , 005 = 510-3, se deduce
de [4.12] que debe s e r
106
- 4. 25. n :e o, 9 5 ,
de donde n :e 200 . 000.
Esta acotacin es e x cesiva . Ms adelan t e , d espu s de estudiar
l a dis tribuci n norma l (p r obl e ma 6 , 3) s e ve r que p u e d e r e ducir s e
mucho. Lasdesigualdades [ 4.ll ] [ 4.1 2] no deben, casi nunca,
aplicarse en este tipo de problemas, pues las acotaciones resultantes
son siempre, e n general, mucho pe o res que las que pueden obtenerse
por otros mtodos. Sin embargo, desde el punto de v ista terico
estas desigualdades son fundamentale s.
4.
El t eorema de Bernoulli pertenece a un tipo gen e r a l de teo re mas conocidos c on el n om b re de 11 leyes de los grande s nmeros ".
Ellos difieren entre s en el grado de g e neralidad, p ero s o n siempre teoremas lmites que relacionan frecuencias con pr obabilidades
o c on v alore s medios. Vamos a dar o tro de ellos.
Cons idere mos u n dad o . Si X es l a variab le a le a t o ria que indica los puntos de sus car as , es E(X )
3 , 5 . Supon gamo s que se
lanza e l dad o n veces y se h a lla la "media experim e nta l " s./n = sum a total de lo s puntos obt eni dos d i v idid a p o r n. C ul es l a p ro b abilidad de que es ta media expe rim e nta l difi era d e la t e rica
55
r" -
0
n
[4. 15]
zjn,
ka/ In= e,
o bien, poniendo
56
o bien
Estas desigualdades permiten enunciar el siguiente teorema
(que es otra "ley de los grandes nmeros "):
Teorema de Bernoulli Generalizado,
Dada una suaesin X 1 ,
X2 , de VCU'iables aleatorias, dos a dos independientes, aon una
misma distribuain de probabilidad y aon media a1 y varianza 0 2 finitas, se verifiaa (para todo e > O)
lim P(\Zn -a1 \ el
n- co
donde
z.
= X1 +
x2
n.
o,
[ 4. 1 7 J
+ . .. + x .
perimental
z./n,
of,
Entonces la suma z, tendr ciertamediaE(Z,) = m,yciertavarianza s~- Bajo ciertas condiciones muy amplias, se verifica entonces que, para todo e > O,
[4. 18]
Cuando es ta igualdad se cumple, se dice que la sucesin X 1 satisface la Zey dbiZ de los grandes nmeros.
Si, todava de manera ms precisa, para cada e > O, > O
existe un entero N tal que, con probabilidad > 1 - o, se cumplan,
para todo r > o, las desigualdades
n
N,N+I, .. ,N+r,
[ 4. 1 9]
57
5
DISTRIBUCION DE POISSON
l,
np
A.
[ 5. 1]
b( r :n, p )
(~)p'rr'
= (
~)(k)' 0- ~
n-r
n (n - 1) . .. (n - r + 1 )(1,_Y (i ~
r !(l - V n,)'
n ) \,_
l\ n
n
;i
(I - \jn)'
~)
59
Paran - "' (manteniendo fijo r), elnumerador del segundo quebrado tiende al, puesto que es el producto de un nmero finito de
factores, cada uno de los cuales tiende a 1, El denominador tambin tiende a l. El ltimo factor tiende a e-A (vase el Apndice
II). Por tanto queda
[5.2]
Se tiene as, siempre que A> O, una nueva funci6n de probabilidad para una variable aleatoria X que tome los v alores O,l, 2, ...
Esta funci6n de probabilidad
A'
- ;1_
rT e '
60
= 0,1,2, .. .
[5. 3]
se llama la funain de probabilidad de Poisson. Una variable aleatoria que pueda tomar los valores r = O, 1, 2,.,., con la probabilidad P,, se llama una variable de Poisson.
De acuerdo con la
definici6n 3. 2, la funai6n de distribuain de Poisson ser
[5. 4 ]
F(r)
1= l
Teniendo en cuenta cmo ha sido obtenida, resulta que la funci6n P, nos da un valor aproximado de b(r;n, p) para valores pequeos d e p. Prcticamente se c onsidera que la aproximacin es
aceptable si p < O, 1 y np < 5 . Por esto se llama tambin la func i6n
o la ley de las pequeas probabilidades.
La fig ura 3 rep re s enta la
funci6n b(r; lO,O, 1) y l afigura 41a funcin e- 1/r! pudindose apre ciar la analoga.
Obsrvese que P, sirve para variables aleatorias que pueden tomar una infinidad numerable de valores (r = O, 1, .. ),
Para estas variables, las definiciones de esperanza matemtica, varianza y momentos son las mismas que la s estudiadas
en el captulo 3 pero , en v ez de sumas finita s, hay que tomar se ries.
Por ejemplo, s e pueden comprobar,
guientes f6rmulas :
como ejercicio, l as
si-
= o
E(X)
A,
r:::: o
OI
0,2
61
Fig. 3.
OI
o;i
0,1
Fig. 4.
o
o(X)
o(X)
= \.
[ 5. 5]
I"' - - -e
(e':I.) ' -A
'Y ( t )
r:: o
[S . 6]
r!
62
'l''(O)
o 2 (X) = 'l'"(O) - ,_ 2 = \.
Por
Es t e valor no es fcil de calcular di rectame nte. Se pueden utilizar tablas apropi adas o aplicar la f6rmula de Stirling (Apndice
II), pero es ms cmodo aplicar la f rmula de Poisson para np =
= 1, 4 = ). (teniendo en cuenta que p = O, 028 < O, 1 y que n,p < 5).
Utilizando la tabla de la funci6n de probabilidad de Poisson (Apndice III) , resulta P 5 = O, O11. Si la frmula [ 5. 7] se hubiera calculado directamente, el resultado exacto sera o, 0099. Vemos, pues,
que la aproximacin es buena .
Problema 5. 2. Una fbriaa produae ciertas piezas y se sabe
que la probabilidad de que una pieza sea defeatuosa es p = 0,02.
= e - a = 0,1 3 5
+P 1 + P
+ P 3 = ~ e - 2 = 0,857 ...
b/
63
= 0,1,2, ...
[5.8]
Para r
1 y b pequeo, sea b t:ix; utilizando el desarrollo en
serie de e-A, (vase el Apndice II) y despreciando los trminos
del orden de (6x)2, resulta que la probabilidad de que un intel'Valo
de longitud t:ix contenga uno de los puntos distribuidos aZ azar es
\ . t:ix.
[5. 9]
b/
64
[ 5. 1 O J
(5. 11]
Poniendo AX= t, Xdx = d t, y recordando la integral que define
la funcin r (x) (vase el Apndice II), resulta
E(x)
=+
(5. 12]
Naturalmente que en todo lo anterior, la recta puede representar el tiempo t y cada punto d e la misma ser un instante determinado.
Entonces el es q uema anterior se presta a muc has
interpretaci on es , como vam os a v er m ed iant e a lgunos ej e mplos.
Problema 5. 5, Por un punto de una carreter>a pasa un pr>omedio de 5 automviles por> minuto. Suponiendo que el paso de los mismos sigue un pr>oceso de Poisson, cul es la probabilidad de que en
un minuto no pase automvil alguno ?
Solucin.
Aplicando [5 . 8 ], re sulta P =
e- =O, 0067.
Problema 5, 6, Supongamos (lo cual se adapta bastante a la r>eaZidad) que los momentos en que tienen lugar nacimientos se reparten
al azar durante todas las horas del d{a. Supongamos tambin que en
una ciudad determinada tenga lugar por> tl'fflino medio un nacimiento
cada 65 minutos. Cul es Za probabilidad de que durante 2 hor>as
no tenga lugar ningn nacimiento?
Soluci6n, Basta a plicar [ 5 . 8 J para r
Resulta p = e- 1 , 8 3 = O, 16 0 ,
o,
1/65, b= 120 .
65
66
3.
Un pr oceso aleatorio importante que tiene varias interpretaciones es el llamado de maner a general "proce so de nacimiento y
mue rte " o "pr oceso de inmigracin y emigracin" .
Se trata de
es tudiar el comportamient o de un co njunto de eleme ntos (partculas,
personas, llamadas t e l e fnica s , .. } en e l cual, c on el tr a nscurs o
de tiempo, se incorporan nuevos elementos (segn cierta probabi-
lo cual expresa que la probabilidad de que en el instante t hayan clientes es igual a la probabilidad de que en el instante t - lit haya n - 1 por
la probabilidad de que llegue uno nuevo, ms la probabilidad de que en
el instante t - lit hayan+ 1, por la probabilidad de que uno se retire,
m s l a probabilidad de que en el instante t - lit haya n clientes, por la
pr obabilidad de que en e l intervalo considerado no salga n i llegue ninguno. La probabilidad deque en e lintervalo (t -lit, t ) se p roduzca
ms de un suceso (llegada o salida de clie ntes) e s infinitsima de or den igual o superior a(lit)2 y por tanto no se ha tenido en cuenta en [5.13].
Paran= O, [5.13] se reduce a
P
0(
t)
= P / t - lit)l\lit
+ P.( t - lit)( 1 -
),.lit) .
[5.14]
67
[5.16]
Escribiendo estas ecuaciones para n= 1, 2, .. , n,- 1 y sumando,
queda 1tP = ,_P -V de donde
P, = p"P
Puesto que d ebe se r
1 - p, y se obtiene
donde
[5. 17 ]
p = ~K
P =
68
0,
[5.18]
(1 - p)p".
_e._
1 - p
[5.19]
p"
= (1 -
0 -1.
f(-r In)
[5.20]
f( T)
J(T \ n)P. =
n =o
[5.21]
n
~
)\\>- p
s\f(T)d
T =
o
[5. 22]
11. - /.. .
Si se desea el tiempo medio de espera "hasta llegar a la ventanilla", teniendo en cuenta que el tiempo medio de atenci6n es 1/ 11.
(puesto que 11. es el nmero medio de c lientes atendidos por unidad
de tiempo), resulta
E(T 1 )
E(r)-'it
[5.2 3]
11. (l - p ).
= SO,
E( n)
= 3.
por hora, l auntas ventanillas deben habilitarse para que la longitud media de Za aoZa no s uper e a los 3 alientes por ventanilla?
Solllci6n. Llamando v al nme ro de v e n tanillas, es A = 200,
E(n) = 3v , y por tanto, se ti e ne la ecuaci6n 3v 2 - l Sv - 5 = O,
donde v = 6.
K
= 40 v,
69
Ejemplo 3.
Un doator sabe que eZ tiempo medio de que dispone
para atender a aada paciente es de 20 minutos. Suponiendo que Zos
pacientes ZZegan al azar, auntos paaientes debe aitar por hora
para que eZ promedio de Zos que esperan no sea superior a dos?
Solucin,
Ejemplo 4.
En una estacin de serviaio Uega un auto cada 6
minutos y tarda 4 minutos en ser atendido. Se pide: a) Za probabilidad de que el auto que llega no tenga que esperar y b) eZ tiempo medio de espera desde que ZZega hasta eZ momento en que es atendido.
Solucin.
a)
70
6
DISTRIBUCION NORMAL, VARlABLES ALEATORIAS CONTINUAS
Si r -
oo
y n -
oo
de manera
que
\ r - np - x <
[ 6. l
oo,
lnpq
J
71
b (r n
'
calcular
b(r:n, p ) p or l a f rmula
p) = (n)p'q,,..' - - -1- r
/ znnpq
6 -, 212
[6. 3 J
donde
[ 6. 4 J
Esta aproximacin de b(r;n, p) se llama la aproximaain por Za
funain normaZ, de la que nos ocuparemos a continuacin, L os intervalos de valores
[6. 5 J
72
2.
H a s ta ahora hemos c ons iderado variabl es aleatorias que pue den tomar un nmero finito de valores (var i able s aleatorias finitas)
o bien, por exte n s i n natural , variables a l e atorias que pueden tomar una infinidad numerab l e de val ores , como la variable d e
Poiss on, Se di ce que estas v ariables son discretas.
xv x 2 ,
= P(X
s; x) ,
[6. 6]
(X 1).
De [ 6. 6 J se d educe n inmedia t amente las siguientes propieda des d e toda funcin de dis tribucin: l. F (,c) e s montona n o
decrec i ente; 2 . F (- ~ ) = O (probabilidad del conjunto vaco) y F (+"')=
= 1 (probabilidad de E) . Adems
P (a < X s; b ) = F( b ) - F(a) .
[6. 7 J
73
integral de Za forma
F(x)
s:j(x)dx,
[6. 8]
donde fes llamada funain de densidad o de densidad de probabilidad de la variable aleatoria X. Tambin por simplicidad, supondremos que fes continua o, por lo menos, "continua por pedazos",
o sea, compuesta de un nmero finito o de una infinidad numerable de pedazos continuos.
De [6 . 7] y [6. 8] se d e duce
b
74
[6. 9]
f(x)
2:
o,
r "'f( x )dx
l.
[6.10]
Obsrvese gue la condicin [ 6 . 9] excluye e l caso de las probabilidades discretas. En efecto, en es te caso segn [6. 9], Za
probabilidad de que X tome exaatamente un valor dado x 0 es siempre
nula. Es el caso que ya observamos en el captulo 1. 1 donde la
probabilidad nula no significa imposibilidad. Esto hace que sea
lo mismo considerar la probabilidad P(a s:x,;; b) que la P(a <x < b).
Veamos la interpretacin geomtrica de estos conceptos.
Sea f una funcin de densidad. Su g r'.fi ca ser una curva como
la de la figura 6 (que puede ser discontinua, como en el punto X 0 ).
El rea limitada entre la curva y el eje x es l. La funcin de distribucin F nos da, para cada x, el rea comprendida entre el eje
x y la curva, desde - oo hasta la ordenada correspondiente al punto
x (rea rayada en la figura). E s ta rea F(x) representa la probabilidad d e que X t om e un valor <: x,
Las definiciones de esperanza matemtica, varianza y momentos d e una variable a leato ria co ntinua son anlogas a l as dadas
para variables aleatorias discretas, slo que se debe sustituir las
sumas por integrales, es decir:
f(X)
X
Fig. .
E(X)
r
00
a(X) = (
xf(x)d x,
00
[ 6. 11]
a e-(,-,,)
con
a, b > O.
[ 6 .1 3]
aM
E(X)
a.,
a 2 (X)
[6. 14 J
[6. 13 J se
[6.15]
75
[6. 16]
Una aplicacin importante es la siguiente. Si X e Y son variables aleatorias normales independientes de medias a.,, O.v, y
varianzas
por el teorema 3. 6 , l a funci6n generatriz d e
momentos de la variable X + Y se r
a:, ~'
[6.17]
76
[6. 18 J
y a la funcin de distribucin
Hx)
1- (
1
= -/2i,
J_a, e- dx .
Estas funciones Cl (x), ~(x) han sido t a buladas, Tablas ms o menos extensas se encuentran en todos los libros de clculo de
probabilidades.
tablas.
t (-X)
[6.20]
~(xl
-x
Fig. 7.
Esta relacin hace que sea suficiente tabular t (x) para valores
positivos d e x. Un detalle que conviene tener en cuenta para no
proseguir con cl culos innecesarios es que
~(x) < O, 001
para
x < -3, l
para
x > 3, 1
X'
X - a
[6.21]
("
(,-a) a
= J..,,, f(x)dx = 1J-oo cp(x' )d x' =
(x _e;\
~ - a-)"
[6 . 22 J
77
Teorema 6, Z.
Para una variable aleatoria normal de esperanza a y varianza o, la probabilidad de que est aontenida en el intervalo [a, b ] viene expresada por
P(a < X :. b) =
(b ~ ') - ~ ( ~ ~ .
[ 6 . 23 J
;,
a + eJ
se
tipo
expresa
por
P( a - e
,;X
:. a+el =
2p(%') - l.
[6.24]
P( a. - ax ,; X ,; a + ax) = 2t(x) - 1 ,
78
0, 90
o, 95
0, 99
0 ,999 .
[ 6 . 26 ]
Recordemos que en t odas estas f 6rmulas el signo ,; puede sus tituirse por <, puesto quelaprobabilidaddequeXtome undetermin ado valor es nula.
Volvamos ahora a la igualdad aproximada [ 6 . 3] que se deduce
del teorema de De Moivre-Laplace. Siendo la esperanza de lafunci6n binomial igual a n,p y la v arianza igual a npq, el ltimo trmino
d e (6. 3] esde la forma [ 6. 15]y, por tanto, resulta quelafunci6nde
probabilidad binomia l, en e l lmite, es una funci6n de densidad nor mal. Se dice que l a funci6nbinomial es "asint6tic ame nt e normal".
P or tanto, como ya obs e rvamos , tomando el lmite c omo valor aproximado, r esulta que , para valores grandes de n y r , y no d emasi ado
+ b(6;10, o, 4).
[6. 27]
q,
79
Fig. 8.
Esta suma es el rea de los rectngulos de la figura 8, puesto
que cada sumando es la altura de un rectngulo de base unidad.
Considerando la aproximaci6n [6. 3], se tiene la curva
[ 6 . 28 ]
r epresentada en la figura 8 . Si en vez del r e a de los rec tngulo s,
tomamos el rea limitada por la curva y las rectas x = 3, :x = 6, se
tendr el valor aproximado de P(3 ,; X ,; 6).
En este caso l a aproximaci6n n o es muy buena, como se observa e n la fi gura, pe ro lo h emos expuesto para comprender e l paso
de l a suma de va lo r e s de b( r ;n, p ) para distintos val ores de r, al
rea l imitada por la cor r e s pondi ente curva normal, la cual s e
calcul a fcilme nte media nte una tab la de l a funcin t (x). En e l
e j emplo anterior, el clcul o exacto del segundo miembro de [ 6 . 2 7 ],
da P(3 ,; X ,; 6 ) = O, 778, y el clculo mediante la funcin q,, apli-
'
0,09
0,08
80
0,06
0,05
0,04
0,03
01)2
0,01
10
20
25
Fig. 9.
Es decir, delteor e made DeMoivre-Laplace, quehe mos enunciado como una aproximaci6n puntual d e l a funci6n de probabilidad
binomial por la funci6n de densidad normal, s e deduce una aproximaci6n entre la suma de las reas de los rectngulos originados
por la funci6n de probabilidad binomial y el rea de la funci6n normal correspondiente. Puesto que el rea de la funci6n de densidad
normal, comprendida entre dos ordenadas, es igual a la diferencia
entr e los valores de la funci6n de distribuci6n P(x), es posible
enunciar:
Teorema de De Moivre-Laplace (Segunda parte ). Si X es Za
variabZe aZeatoria que representa eZ nmero de xitos en n pruebas
de un proaeso de BernouZZi de probabiZidad p, se verifiaa
P(a < X ,; b) -
~(b-np} _ ~(g-nl'._\.
\JnpqJ
rnq
[6. 29]
Consideremos
- 1
[6.30]
2~
~ jfq)-
[6.31]
El t e orema de De Moivre-Laplace esuncasoparticular del siguiente teorema, cuya demostraci6n no se va a dar (puede verse
81
en los libros de Feller, (l) Reny(2) o Ros (3) citados en la Bibliografa), pero cuyo enunciado conviene tener presente en muchas
cuestiones de probabilidad.
X 1, X
2 ,
z.
+ ... +
+X
= X1
x. -na'
[ 6 .32]
a/n,
n-oo
82
Hz)
de distribucin
[ 6 .33]
es asintticamente normal.
el teorema de De Moivre-Laplace .
Aplicaci6n 2. Si las variables Xn son variabl es d e Poisson d e
parmetro y , y por t anto E(X n) = y, a 2(X n) = y (para todo n), la suma X =X 1 + X 2 + ... + Xn es otra variable de Pois son de parme t.r o n y = A (vase la aplic acin del captulo 5.1). Entonce s [ 6 . 32]
y (6 . 33] permiten escribir
X- A
lim P ( - - - <
n-"'
o sea
lim
/A
[6. 34 J
-i; e- A =
H z ).
[, 35 ]
Problema 6. l. Una ruleta tiene 35 nmeros. Calcular la probabilidad de que en 1,000 jugadas el nwnero 12 salga un nmero de
veces comprendido entre 25 y 30.
Solucin, Se aplica la f6rmula[ 6 .20], Aunquep = l / 35es pequeo, siendo h = 1. 000 grande, se puede aplicar la aproximacin
[6.29], y se obtiene P(25,s;X,s;30)=t(0,585)-H-0, 390)=q,(0,585)+
+ q,(O, 390) - 1 = O, 37.
Problema 6. 2, Se lanza un dado 100 veces. Se desea saber la
probabilidad de que el nmero 6 salga ms de 20 veces.
Solucin, Aplicando [6.29] para n = 100, p = 1/6 ,
P(X > 20) = 1 - ij>(O, 89) = O, 19.
resulta
Problema 6, 3. Tanto la desigualdad de Tchebycheff, en la forma [ 4. 11] del teorema de Bernoulli, como la frmula [6 . 31 ],
permiten calcular el nmero n de pruebas necesarias para que la
frecuencia experimental difiera de p en menos de un e dado, con
cierta probabilidad tambin dada.
Sin embargo, como ya se observ al final del problema 4. 4, la frmula [4. 11 J da casi siempre acotaciones excesivas.
Se recomienda aplicar siempre la
frmula [6.31].
Consideremos por ejempl o el mismo prob l ema 4 . 4.
Segn
o sea
q,G~)
> O, 975.
[6.36]
E:
Segn el enunciado, e s e = 5,10-~. Elproducto pq n o es conocido, pero segn [4.13] es siempre pq ,s; 1/ 4. Por tanto, [6.36]
83
se cumplir con seguridad sin> (1, 96) 2 104 :38, 420 , Vemos que
este nmero es muy inferior al 200,000 dado por la frmula [4. 11 J.
Problema 6, 4, Un cent1'o tur{etico debe l'ecibil' 1. 000 pel'eonas, Zas cualee debel'n distl'ibuil'ee entl'e dos hoteles igualee.
Suponiendo que cada pel'eona elige uno u otl'o de los hoteles con Za
misma pl'obabilidad 1/2, se desea sabel' Za capacidad m{nima de cada hotel (nwnel'o de pel'sonae que se pueden albel'gar) para que, con
pPobabiZidad supel'iol' a O, 95, todae Zas pel'sonas encuentl'en alojamiento.
Solucin, Es np = 500, npq = 250. Hay que calcular :x: de modo
queP(500-X!:.X!:.500+x)>0,95. Puestoquen es grande, podemos
aplicar [6. 29], resultando
P(500
-X,;
X ,; 500 + X) =
t(~) -
t(~)
2t(/2%') - l.
84
>
o, 075,
X> 30,
'
para 530
Problema 6. 5.
En una votaain de una poblacin numerosa, un
candidato obtiene el 60% de los votos. Se desea sabel' la pl'obabiZidad de que en una muestra de 1 00 votantes, tomados al azar, menos del 5 0% voten por el candidato.
Solucin,
escribir
P(i < p - e/ n )
' (
- )
Tnpq
1-
'(Tnjq).
Problema 6, 6.
Un mediaamento aontra aierta enfermedad es
efiaaz en el80% de los aasos. Se ensaya una modifiaaai6n del mismo, y se observa que en 100 enfermos tratados result efiaaz en 90
de ellos. Cules Za probabilidad de que este resultado del tratamiento sea debido al azar?
Soluci6n. Es un caso anlogo al ante rior.
cribir [6 . 29] p ara a = np + e , b = "', y queda
= 4,
aonsistente este heaho aon Za igualdad de Zas probabilidades de naaimiento de varn o mujer?
Soluci6n, A p liquemos [6. 31] a l c aso p = O, 5, X /h = O, 514 y
por tanto e = O, 014, / n/pq = 6 32, 4. Resulta
P
(1~- o, 5 \ > o, 01 4)
= 2 (1 - H8, 8 5)).
Como ~(8, 85), que no se halla en las tablas, es del orden 1 - 10-9, resulta que la probabilidad de que el nacimiento de 51,400
o ms varones sea debido al azar, si la probabilidad fuera O, 5, es insignificante. Por tanto, debe rechazarse la hiptesis de que sea p =
= o, 5,
Es t e tipo d e proble mas, se e s tudia n con m s d e talle e n e l
capt ulo 8 , a l tratar de l a "ver i fi cacin de hiptes i s ".
5,
Adems de la funcin de densida d n o rmal, que e s la ms importante , son tambin de inte r s las s i g uiente s :
a) Funcin de densidad uniforme .
D epende de d os p arm et r os
a y b (a < b ) y val e
f(x ) =
1
o=a
f(x)
O para x
f.
[ a, b].
85
De aqu
E(X) =
a +b
-z,
( b - a )2
if(X) = ~
Depende d e un parme-
o,
f(x )
if (X)
=?
O para x,:; O.
=- ,
Depende de un parmetr o
a y vale
f(x )
l+(x - a)2
para
- "'<X<"'.
86
7
LA FORMULA DE BAYES
1,
INFERENCIA ESTADISTICA
87
FORMULA DE BAYES
n Ail
= P(Ail P(BIA,l =
[ 7. 1]
88
P(B)
P(B l E)
P(B l (U A 1 ))
P(U (B lAi))
[7. 2]
lP(B l A 1 ).
1
[ 7. 3]
P(A) P(B I A 1 )
negros.
ha e:rtra{do una bolilla de una de Zas urnas y ha resultado ser blanca. Se supone que, a priori, Zas dos urnas eran igual.mente probables. CuZ es Za probabilidad de que Za boUUa haya sido e:z:traia de Za urna A 1 ?
Soluci6n. Es P(Ai) = P(A2 ) = 1/ 2, P(B IA1) = 10/ 25 = 2/5,
P(B IA 2 ) = 25 / 30 = 5/6 . Por tanto la f6rmula d e Bayes da
P(A1IB) = 12/3 7.
Problema 7. Z. Una fbrica tiene tres mquinas A 1 , A 2, y A:, para producir ciertas piezas, tales que: A 1 produce eZ 30% de las
piezas con un porcentaje det 2% de piezas defectuosas; A 2 produce
eZ 25% de Zas piezas con eZ 1% de defectuosas y A:, produce eZ 45%
de Zas piezas con eZ 3% de defectuosas. Se elige aZ azar una pieza
que sale de Za fbrica para Za venta y resulta ser defectuosa, auz
es Za probabilidad de que provenga de Za mquina A 1 , de Za A 2 o de
Za A,, ?
Soluci6n. Es P(Ai)= o, 3 , P(A 2) =O, 25, P(A,,) = o, 4 5 , P(B IA1 ) =
O, 02, P(B I A 2 ) = O, O1, P(B I A,,) = O, 03. Con estos datos, las
probabilidades P(A1 IB) de que la pieza defectuosa (suceso B) provenga de l a mquina A 1 , resultan
P(A1IB) = o,273,
P(A2IBJ = 0,114,
P(AaiB) = 0,614.
Problema 7. 3. La f6rmula de Bayes permite calcular la probabilidad "a posteriori", despus de r ealizado un cierto experimento,
de un s u ces o cuya probabilidad "a priori" se c onoce. Supongamos,
por ejemplo, una moneda desconocida a Za que atribuimos una probabilidad p 1 de tener dos caras. Se lanza Za moneda TL veces consecutivas y en todas eZZas sale cara. Cul es Za probabilidad,
despus de estos lances, de que Za moneda tenga dos caras ?
Soluci6n. Sea A 1 el suceso "tene r dos c aras", A 2 el suceso
opuesto (t e n e r una s ola car a ) y B el suceso "salir ca ra TL veces
c o nsecutivas ". Es P (A1) = Pi, P(BiAiJ = 1, P(B IA 2) = (1 / Z)",
P(A 2 ) = l - P 1. Por tanto, la f6rmula d e B ay es da para la probabilidad bus c ada
Pi
89
partir de un valor estimado Pi, mediante una muestra (en e l ejemplo anterior el lanzamiento n. veces de la mo.neda) se consigue un
mejor valor de la probabilidad estimada.
Debido a la ambigedad de la probabilidad a priori, el uso de
la f6rmula de Bayes en este tipo de problemas ha sido muy discutida. En general, se procura no usarla, si bien, modernamente,
hay escuelas que procuran tomarla como base de toda la teora de
la inferencia estadsti c a (vase el libro de Lindley, citado en la
Bibliografa (6 )).
90
8
ESTIMACION POR PUNTO
l.
MUESTRAS
i
b)
Vamos a suponer siempre que estas dos condiciones se cumplen, lo que facilita la realizacin de inducciones a partir de la
muestra. Supongamos, por ejemplo, que la poblacin sea e l conjunto de los habita ntes de un pas cuya edad est comprendida entre 20 y 2l aos, y que X representa la talla de l os mismos: Al
hablar de una "muestra" d e esta poblacin se sobr entiende que se
h an tomado n habitantes i ndependientes entre s(no e ntre los de una
misma ascendencia o entre l os que practican un mismo deporte) y
que, adems, es lcito suponer que todos ellos tienen la misma probabilidad de tener una talla entre ciertos lmites (o sea,
todos estn sujetos a la misma funcin de densidad de probabilidad).
El problema de e l egir bien l as muestras, d e manera que se
cumplan la s me ncionadas condiciones a) y b), no es un problema
fcil. Hay dive rsas t cnicas que se adaptan a cad a cas o particu lar. Pa ra poblaciones finitas es til e l uso de las "tablas d e nmeros aleatorios", es decir, tablas de nmeros que pue den considerar se
como elegidos al azar. Entonces, para tomar una muestra de
91
2,
[8. 2]
y la varianza de la muestra es
s 2 = _!
t(x , -x)
nl
1
92
J. x2 - x
nl'
[8. 3]
del
a,
}x
[8 . 4 ]
m,
-k !(x, -x)'
[8.
sJ
exceso ,; 2 de la
1
n!X,
+ x,. + . . . + x.).
[8 . 6]
Aplicando los teoremas del capi'tulo 3 referentes a la esperanza y a la varianza de una suma de variables aleatorias, y teniendo en cuenta [8. 1] y [8 . 6] resulta
[8. 7]
E(X) = E(X)
y tambin, puesto que las X 1 son independientes, cr2(X)
+ X 2 + ... + X 0 ) = (l /n)cr2(X) , o sea,
cr2(X) =
=(l / n,2)cr2(X 1 +
cr2(X) .
[8.8]
[8. 9]
52 = {I(x,-XJ
l
*lDC, n
52
E(X) -
(X - E(X))J
93
{Icx,-E(X)] 2 - [X-E(X)J2.
l
E(X - E(X)) 2
E(X - E(X)) 2
resulta
E(5)
n, - 1
= -n,-cr2<X).
[ 8. 10]
n \.n/
es
calcular
[8.11]
Observaci6n, En el caso de una poblaci6nfinita, es interesante distinguir entre las muestras aon reemplazamiento, en las que
Aplicando los teoremas del capi'tulo 3 referentes a la esperanza y a la varianza de una suma de variables aleatorias, y teniendo en cuenta [8. 1] y [8 . 6] resulta
[8. 7]
E(X) = E(X)
y tambin, puesto que las X 1 son independientes, cr2(X)
+ X 2 + ... + X 0 ) = (l /n)cr2(X) , o sea,
cr2(X) =
=(l / n,2)cr2(X 1 +
cr2(X) .
[8.8]
[8. 9]
52 = {I(x,-XJ
l
*lDC, n
52
E(X) -
(X - E(X))J
93
{Icx,-E(X)] 2 - [X-E(X)J2.
l
E(X - E(X)) 2
E(X - E(X)) 2
resulta
E(5)
n, - 1
= -n,-cr2<X).
[ 8. 10]
n \.n/
es
calcular
[8.11]
Observaci6n, En el caso de una poblaci6nfinita, es interesante distinguir entre las muestras aon reemplazamiento, en las que
sesgo.
Ejemplo l,
x-
El estimador
1
n!X,
+ x 2 + ... + x.J
(8 . 14 J
(8. 1 5 J
P( \X - E(X)
o"(f)
:e E:) ,; ne
[8.16]
Esto nos dice que al tomar X por E(X), el error que se comete converge a cero en probabilidad (definicin 4, 1 ).
Por
tanto, el estimador X de E(X) es tanto mejor cuanto mayor es el
tamao de l a muestra, lo cuales intuitivamente evidente (suponiendo, naturalmente, que o 2 (X) tiene u n valor finito).
E(n _ l S 2 )
o 2 (X).
[8 . 1 7]
95
f(x;e)
e1
para
\xi ,. e
e)
para
\x 1 >
f(x;
e.
[8. 18]
e,
\x,\
4,
ESTIMADORES CONSISTENTES
96
De manera ms precisa, se dice que T es consistente, si dados dos nmeros positivos cualesquiera e, T], arbitrariamente
pequeos, existe un entero N tal que, para todo n > N, es P( \T -
- e\ < d
> 1 - TJ
Segn esta definicin y lo demostrado en los ejemplos del nmero anterior, los es timadores X de E (X) , nS 2/ (n - 1) de o 2 (X) son
estimadores consistentes.
Estos dos son casos particulares del siguiente teorema
Teorema 8, l,
E(T ) -
8,
o2 (T) - O,
[ 8. 19 ]
escribir
P(IT- E (T)\,. ko (T)) :a 1
-?
[ 8. 20]
;e
1 - h12
[ 8. 21]
Poniendo l /h2 = TJ y puesto que, por hiptesis, ha(T) + 1e E(T) \ - O, cualquiera que sea e habr un entero positivo N suficientemente grande tal que, para todo n > N, ha(T) + \ 9 - E(T) 1 < e
y, en consecuencia,
P( \ T - 9 \ <
el
;e
1 - 11
5.
ESTIMADORES SUFICIENTES
97
;e
1 - h12
[ 8. 21]
Poniendo l /h2 = TJ y puesto que, por hiptesis, ha(T) + 1e E(T) \ - O, cualquiera que sea e habr un entero positivo N suficientemente grande tal que, para todo n > N, ha(T) + \ 9 - E(T) 1 < e
y, en consecuencia,
P( \ T - 9 \ <
el
;e
1 - 11
5.
ESTIMADORES SUFICIENTES
97
1)
~?nJ
Ejemplo 2, Sea una variable normal de la que se quiere estimar la media, conocida la varian za o 2 Tomemos el estimador
T = (1/n) (X 1 + X 2 + .. +X,).
La funci6n de densidad de una
muestrax1,x 2 , . . . , x 0 es el producto de la s funciones de densidad de cada X 1 (puesto que son independientes), o sea
f(x 1, X 2,
X 8)
n,
e -:l(x1- 8)2/202
G(ffn)
I>~
n
1 -
8 )2 =
l <(x
1 -
x,
es
t ) + ( t - 9))2
l(X
1 -
t) 2
+ n (t - 8 )2
e -n(t- 8
l/
2
S (X1,X 2 ,
l _ -:(x1--t)20"
,X ) -_ _
__,, _
;;e:
8 1
u (v2n)
0
Ejemplo 3, Sea una variable de Poisson de parmetro \, Tomemos T = (l/n)(X1 + X2+ ... +X0 ) como estimadorde8=\, Resulta
6,
Por tanto,
T es un
ESTIMADORES EFICIENTES
Un nsmo p a rmetro 9 puede estim arse por distintos esti madores. Por ejemplo, p a ra estimar E(X) se puede toma r cualqui er
estimador de la f orma T = c 1X 1 +c 2 X 2 + ... + C0 X 0 (C 1 constantes).
Si se qui e r e que T sea inses gado bastar que se cum p l a c 1 + c 2 +
+ ... + c 0 = l. Aparece e ntonces e l problema de e legir, entre
todos los posibles estimadores de un parmetro, elmejorde todos,
99
cr 2 (T)
[8. 25]
E(T-9) 2
100
Desigualdadde Cramer-Rao. Sif(x;9) es ta funain de probabiZidad (o ta funain de densidad) de 'la VlI1'iabZ.e aleatoria X, bajo
aiertas aondiaiones muy amplias de Z.a misma, Z.a Va1'ianaa de =lquier estimador insesgado T de e aumple la desigualdad
2
a (T)
:e,
l
(
log f(X;9))
nE
ae
.
2
[8.26]
_ log(o/Z).
[8. 2 7]
=(
a log
f (x;a., cr2 )
ocr2
a.) _ _
l_
204
2a2
(;,; -
y por tanto
ya que 114
lo log f (X;a., a l
L oa2 J
= 30
2o4
'
za4/n,
mador S 0 = (l/nJ(X 1
a2(S~)
...f. o4.
n
[8. 28]
101
7.
[s. 29]
El mtodo de mxima verosimilitud co nsiste en tomar, como
valor estimado de 8, el valor que hace mxima la funci6n P. Es
de c ir, se elige el valor del parmetro para e l cual es mxima la
probabilidad de haber sacado la muestra obtenida.
Pue sto que si P es mxima tambin l o ser su logaritmo; para
convertir el producto en suma, se suele tomar la funci6n L = log P
y determinar 8 por la ecuaci6n
oL
atf
\o
= {,
log f(x 1; 8 )
a9
o.
[ 8. 3 O]
Si esta ecuaci6n tiene alguna soluci6n 9 = constante, independiente de las x 1 , es ta soluci6n se deja de lado. Toda otra soluci6n,
que sea funci6n de las x 1 , constituye un estimador de mxima ve rosimilitud del parmetro 9.
de donde r es ulta de inmediato que e l estimador de mxima verosimilitud para A es i = (l/n )(X 1 + X 2 + + X.).
102
-b f(X
1 -
a) 2
log o2
log
(ffn.
Si se supone conocida o 2 ,
X= (l/n)(X1 + X2 + +
para a resulta
el estimador usual
x.).
Si a
l \
4L (x 1
2o 1
a2
a)
son
=
oL/oa = o, oL/002
- ::-,; =
2 a~
o'
de donde a2 =
desconocidos,
~I(X
1 -
a )2
el sistema
de
ecuaciones
o da
n
x,
l\'.
- 2
nL<xi
-x>.
1
las xi).
e compatible
m:dmo de P
con Za muestra.
\x, \.
mente ef i cientes .
Observaci6n2, Lafunci6n P(x1 ,x2 , ,x.; 8 ) de [8.29]esla
mismafuncinf(x 1 ,x2 , ,x.;8)de [ 8 , 24], Por tanto, sise tieneun
estimador suficiente T, la ecuacin [8. 30] equivale a il r (t , 8 )/c 8 = O.
Esto n os dice que si existe un estimador suficiente cuyos valores sean
t , todo estimador de mxima verosimilitud e st dado p o r la ecuacin
or( t ;8)/ c 8 = O, o sea, e s u n a funcinde T . En otras palabras:si e:r:is-
103
9
ESTIMACION POR INTERVALOS DE CONFIANZA. VERIFICACION
DE HIPOTESIS
l.
x2
xf + x;
+ . . +
x;.
[ 9. 1 ]
[.9. 2 J
donde r (n/2) es la funcin "gamma" que se define en e l Apndice
II. L a correspondiente funcin de distribucin 2 es
[9. 3]
Tambin nos interesaremos por
= s"'
x.
i'.(x)dx,
X~
2:
O.
[9. 4 J
n..
[9. 5 J
105
X:
A partir de [9. 2 J y como ejercicio de c'.lculo integral se pueden calcular los valores
E(X 2 )
[9. 6 J
= n,,
Si las variables normales x, son de tipo N(a., c,2 ), basta reducirlas al tipo N(O, l ), es decir, se considera la suma
[9. 7]
106
En particular, escribien-
S~
= 1i;(X, - o.) 2
nS~/a 2
[9. 8]
s2
-/iI(x, -XJ
[9.9]
donde
= (l/n,)(X 1 + X 2 + . +
x.J,
los
I(x, - X)
= O)
y el
-x;
nz, ... ,
nz
sf
n,S~ + n 2 S~
+ ... + 7iicS,;'
[9.10]
a
est distribuida como una X2 con n
libertad.
+ n 2 + .. . +
nk -
h; grados de
Z.
LA DISTRIBUCION t DE STUDENT
_ _Y_
[9.11]
- /X/n
/nTT
r ( aj
r(4)
(l
+ xn2\ -(n+1)/
[9.12]
~}
t.
La curva y= s,(xl es simtrica respectode x = O. La probabilidad de que sea \ T \ > t 0 la suma de las dos reas rayadas en
la figura 10, y su valor, que dependa de t 0 y de n, es
107
P( \ T \ > to)
s,(x)dx
[9. 13 J
p,
'
Fig. 10.
108
n
-~
cr2(T) -
O,
[9.14]
T -
X-a.
- S//n-J
[9. 15]
tiene una distribuci6n de Student con n - 1 g rado s de libertad. Ob srvese que en [9. 15] no figur a la varianza cr2
Ejemplo 2, Sean X 1 ( i, = 1, z,, .. , n,) e YJ{j = 1, 2, .. ,n)muestras independ ientes de las variab les normales X e Y, de media s
a.,,
respectivas E(X) =
E(Y) = O.y y de la misma varianza cr 2 (X) =
Llamando S~ y S~ a las sumas [9 . 9], segn [9. 10],
la variable aleatoria
= cr2(Y) = cr 2
[9.16]
tiene una distribucin x_ con n, + nv - 2 grados de libertad.
otra parte
x - Y) -
(o., - o.xl
cr(l/n, + l /nvl11a
Por
[9.17]
tiene una distribucin normal N(O, l ), como resulta de aplicar el teorema 6. 1 y teniendo en cuenta que if (X) = a2/n.,,, cr2 (Y) = a2 /ny. Se puede
demostrar gue [9.16] y [9.17] son independientes. Por tanto, la variable
[9. 18)
tiene una distribucin de Student con n, + nv - 2 grados de libertad.
Es importante observar que en esta frmula no aparece la varianza 02.
3.
109
Volvamos ahora a la estimacin de parmetros de una distribucin de probabilidad. Consideremos una poblacin descrita por l a
variable aleatoria X, cuya distribucin depende de un parmetro desconocido 8. Si x 1 , x 2 , , x. es una muestra de la poblacin, se desea
encontrar dos funciones a(x1,xa, ... , x.) y b(X1, X 2 , , x.) tales que
P(a,;e,;b)
= 1-ri
[9.19)
confianza.
Aunque existen varios criterios generales para hallar intervalos de confianza, nos vamos a limitar a los ejemplos ms comunes
de una poblacin normal o "asintticamente normal" (es decir,
cuya distribucin de probabilidad sea aproximadamente normal
para muestras grandes).
[9.20]
o sea
1 - r
[9.21]
110
s / ~ ,;
t (n- l;r))
= 1 - r
[9. 22]
Se
1 - T)
tablas
3,565
b) Interva lo de confianza para la varianza. Sabemos que la variable aleatoria ns/ o 2 tiene distribucin X2 con n - l grados de libertad. Dado l - r, hay que hallar a , b tales que
P (a ,;
nS
cr2
,;
b) =
[ 9.24]
l - r
nS 2
P( b < 7 )
2'
P(a , ; ~ ) =
---
nS ,; o ,; 1:.
P(-v
a ) =
1 - r
x y
[9. 2 5 J
entonc es se
[9.26]
4.
VERIFICACION DE HIPOTESIS
x.>
E,
[ 9. 2 7]
= 91)
1 - r
e9. 2s J
[9.29]
T).
111
Sea una poblacin normal N(a., o) con o 2 conocida y a. desconocida. Hacemos la hiptesis nula a. = a. Queremos preparar un
test de esta hiptesis. Sea X = (1/ nHX 1 + X 2 + . + Xn).
Considerando una probabilidad = O, 05 sabemos que
[9.30]
que, poniendo o(X) = a/ / (a es dato), se puede escribir
[9.31]
Por tanto, un test de la hiptesis a. = a. 0 al 5% puede ser: "Se
elige una muestra y se calcula sumedia x=(I/nHx1 +x2 + ... +xn).
Si esta media cae fuera del intervalo[a. 0 - l, 960/ ./, a. 0 + I, 960/l]
se rechaza la hiptesis a. = a.0 11
La probabilidad de equivocarse, o sea, de rechazar la hiptesis siendo cierta, es O, 05.
Obsrvese que el test construido no es umco. El mismo mtodo permite construir otros muchos. Por ejemplo, se cumple
tambin
112
P
ex ; , a.
+ 1 , 6 s 0 / /l =
o, os
y por tanto, otro test podra ser: "Si la media de la muestra tiene
5.
TEORICAS:
Sea X una variable aleatoria cuyo dominio es una cierta poblacin. Hasta ahora hemos supuesto conocida la funcin de probabilidad o de densidad, salvo un parmetro de la misma. Supongamos
ahora que desconocemos la distribucin de probabilidad. En este
caso se hace la hiptesis de que esta distribucin es una determinada y se trata de verificar, mediante una muestra, si esta hiptesis es correcta o no. Para e llo e s til el mtodo d e l x, que
pasamos a exponer.
Supongamos que l a variable ale a toria X puede toma r los v a lores
Xv x 2 , , x, y que, de acuerdo con la hiptesis hecha, las proba-
~ (n t
u = L
i
- np ) 2
1
np,
[9. 32 J
[9.33]
x;
Problema 9. l. Se quiel'e Ve1'ifica1' Za hiptesis de que eZ nacimiento de va2>ones sigue Za Zey binomial con p = 1/2. Se tiene una
muestl'a de 100.000 nacimientos, de Zos cuales 51 .400 de los nacidos han sido Val'ones y eZ l'esto mujel'es. Este l'esultado confi1'111a
o niega la hiptesis hecha, aZ niveZ de significacin dell pD1' l. 000?
Soluci6n.
no s da
u
Si la hip6tesis es cierta, es p 1 = p 2
1/2, y [9. 32 ]
78 4
'.
113
puede escribir
np
(n,/n - p) 2
nq
pq/n
y, por tanto, P(u > u 0 ) se puede calcular por la frmula [6, 31].
Problema 9. 2. Se Zanza un dado 6. 000 veces y resulta que Zas
aaras 1,2,3,4,5,6 saZen, respectivamente, Zos siguientes nmeros
de veces
Solucin.
U
114
Solucin. Supo niend o una distribucin normal, podemos aplicar la distribucin d e l a variable aleatoria [ 9 . 18) p a r a verificar
l a hiptesis a, = Ctv. Tenemos X = 23, 33 , Y = 17, 62, (S~n, +
+ S~nv)/(n, + nv - 2) = 14, 79, con lo cual resulta t = 3, 05. El nmero de grados de libertad es 15, Por tanto, segn las tablas de
la funcin t de Student, el valor 3, 05 queda fuera del intervalo de
115
Regi6n
Fumadores
56
87
142
71
88
72
100
142
Total
758
No fumad ores
17
20
58
20
31
23
25
48
242
Totales
73
107
200
91
119
95
125
190
1.000
Se puede inferir de estos resultados que la proporcin de fumadores var{a de una regin a otra?
Soluci6n. Si se hace la hip6tesis de que la proporci6n no vara,
la probabilidad experimental de que una persona sea fumador,
calculada a partir de la muestra anterior, es p = O, 758, con lo cual
resulta
(56 - 55J/s5 + (87 - 81J/ 81 + (142 - 152 2 /152 + (71 -69)2 /69 +
+ (88 - 90)2/90 + (72 - 72)2 /72 + (10 0 - 95)2 /95 + (142 - 144)2 /144+
116
El nmero de grados de libertad es 2 (puesto que hay 3 parmetros independientes , que son el nmero de alumnos aprobados
por cada examinador). La tabla de x, al nivel O, 05 da X~= 5, 99.
Siendo este valor superior a 4, 8, la hiptesis es aceptable, o sea,
los 3 examinadores pueden considerarse igualmente exigentes.
Problema 9. 7. Se quie>'e Ve1'ifiaa1' Za eficaaia de una vaauna.
Se aonside1'an 7 . 000 pe>'sonas vaaunadas y se obse1'Va que de ellas
60 han adqui>'ido Za enfe,.,,,edad y no as{ Zas >'estantes 6. 940.
En
aambio, de 12. 000 pe1'sonas no vaaunadas se obse1'Va que 200 han
adqui>'ido Za enfe1'fTledad y 11.800 no. Qu puede deduai1'se de ello?
Soluci6n. Vamos a verificar la hiptesis de que la vacuna sea
ineficaz. En tal caso la probabilidad de contraer la enfermedad,
deducida de la muestra, es p = (60 + 200)/19.000 = 0,0136.
De
aqu
117
118
APENDICE I
COMBINATORIA
de anlisis combinatorio que son fundamentales para muchos problemas de probabilidades en conjuntos finitos.
1.
Permutaciones
a, b se pueden formar l as
119
ab, ba
y con tres e lementos
mento es
P.= n(n-l)(n-2) 2.l
n!
[ 1J
r elementos elegidos
(n ., r ) es
[2]
Z.
Combinaciones
e las
abe, abd, abe, bed , bee , aed, aee, bde , ade, ede.
El nmero de combinaciones de r elementos entre n dados se
representa por Cn, r
Para encontrarlo, observemos que si en
cada combinacin cambiamos de todas las maneras posibles el
orden d e los elementos, tendremos r! permutaciones de r elementos elegidos entre los n dados. Por tanto debe ser c.,, r ! =
= P . ,,. Teniendo en cuenta [z] resulta que el nmero de combi-
c., r =
(n -
r')! r !
[ 3J
= ( ~)
120
El smbolo(~) se llama el nmero combinatorio de
tomados r a r .
3,
n objetos
4.
[4]
Particiones
n!
5.
[5]
Frmula de Stirling
121
~ /2nnn"e ".
[6]
Decir que el segundo miembro es un valor aproximado del primero, cuando n es grande, quiere d ecir que el lmite del segundo
miembro dividido por el primero tiende a l a unidad p a r an - "',
aunque los valores de a mbo s miembros d e [6 ] pue d e n dife rir en
cantida des grandes.
6.
El Binomio de Newton
coeficientes de
z",
= O.
APENDICE U
ALGUNAS FORMULAS DE CALCULO
1.
El Nmero e
El nmero e
lim
f1 + 1.)",
n
[ l
n-m \'
122
lim
f1
,Z.-HX) \_:
se tiene
+~)".
n
[2]
~ ~n
L n!
+1\ +
n= o
+ x +
n!
[3 J
En p artic ular
e
2.
2+.l.+.l+
2!
3!
_!_ _ ___!_+_..!__+
2!
3!
4!
. .. '
f(x ) = a e - b(x-c) ,
a , b > O.
Queremos calcular
[4]
o se a, por el cambio de variab l es
I
\ oo
a j_ 00 e - b y d y
X -
e = y
[ 5]
r cos 9, z
r sen 9),
Por tanto
[6]
En particular, para a= 1/ffn, b = 1/2, e= O, resulta
debe
[8]
La esperanza matemtica c orrespondiente a esta funcin ser
<l
= E(X) =
s:
X f(x) dx =
~r"'
2
X e-b(x-c) d x
c.
La varianza es
(X ) =
1
2D
=-
-S"'
o/2 -"'
etxe-(x--<l)"/2G2 d x.
G2 ,
123
tx -~ 2o
--=-\xa 20
tcr2) 2
2 tao2
zo
t 2 o4 )
y aplicando [7],
resulta
3.
La Funci6n Gamma
Se define por la integ ral
f' (X) =
124
s~
t-l e-t d
t.
1) = n ! = n(n- l)(n-2) .. 2. l.
[JO]
APENDICE IlI
Tabla 1
Tabla de Factoriales n!
n!
71,
24
120
720
5040
40320
362880
10
3 628800
11
39 9 16800
12
479 00 1600
13
6 227 020800
14
87 178 291200
15
1 307674 368000
16
20 922789 888000
17
18
19
20
125
Tabla Z
Valor e s de l a F unci6n de Probabilid ad de Poiss on P , =
~
o
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
,_ '
r! e
-i,.
0 ,2
o, 4
o,6
o, 8
10
o, 8 19
o , 164
0 ,0 16
0 , 00 1
o, 6 7 0
0,268
0, 0 54
0,007
o, 0 0 1
0,549
o, 3 29
0,099
0,020
o, 003
0,449
o, 359
o, 144
o, 0 38
o,0 0 8
0,00 1
o, 368
0,368
o, 184
0,06 1
o, O15
o, 0 03
o, 13 5
0 , 271
0,211
o, 180
0, 090
0,03 6
o, O12
0, 0 03
0 , 001
o, o5o
o, 149
o, 2 24
o, 224
o, 168
o, 10 1
o, 050
o, 0 22
0, 008
0,003
o, 001
0,018
o, 073
o, 146
o, 195
o, 195
o, 156
o, 104
0 ,0 59
0,0 30
o, O 13
o, 005
0,002
o, 0 0 1
0,007
o, 034
o, 084
o, 140
o, 17 5
o, 17 5
o , 146
o, 104
o, 065
0 ,036
0,0 18
o,oos
0,003
0,00 1
0, 0 0 1
0 , 00 6
0,022
o, 052
0, 09 1
o, 128
o, 149
o, 149
o , 130
o, 101
o, 07 1
0,045
o, 026
o, O14
0,001
o, 00 3
0,0 00
0, 0 00
0, 002
o,o os
o, O19
o,0 38
0,0 63
0, 0 90
o, 113
o, 125
o, 125
o , 1 14
0, 0 95
0 , 0 73
0, 0 52
o, 035
Tabla 3
Valores de la Funcin de Densidad de la Distribucin Normal N(O, 1)
(X)
f(X)
f(X)
o, 3989
0,0540
o, 1
0,3969
2, 1
0,0440
0,2
O, 3 910
2,2
o,0355
0,3
o, 3 814
2,3
0,0283
0,4
o, 3 683
2,4
0,0224
o, 5
0,3521
2, 5
o, 0175
0,6
0,3332
2,6
0,0136
o, 7
0,3122
2, 7
0,0104
o, 8
0,2897
2, 8
0,0079
o, 9
0,2661
2,9
0,0059
o,2420
0,0044
1, l
0,2118
3, 1
0,0033
1, 2
o, 1942
3,2
0,0024
1, 3
O, 1714
3,3
o, 0017
1, 4
o, 1497
3,4
0,0012
1, 5
0,1295
3, 5
0,0009
1, 6
o, 1109
3,6
0,0006
1, 7
0,0940
3, 7
0,0004
1, B
o,0789
3, B
0,0003
1, 9
0,0656
3, 9
0,0002
127
Tabla 4
Tabla de la Funcin de Distribucin Normal
~(X)
---L..
r e-x/ dx
/2n j_oo
~(X)
~(X)
o,o
o,sooo
2,0
o, 9772
128
= P(X ,. X) =
o, l
0,53 98
2, l
O, 9821
0,2
o,5793
2,2
0,9861
0,3
o,6179
2,3
0,9893
o,4
o,6554
2,4
o, 9918
o,5
O, 6915
2,5
o, 9938
o, 6
o, 7257
2,6
0,9953
o, 7
o, 7580
2, 7
o, 9965
o, 8
o, 7881
2,8
0,9974
0,9
0,8159
2,9
0,9981
1, O
O, 84 13
3,0
o, 9987
1, l
o, 8643
3, l
0,9990
1, 2
0,8849
3,2
0,9993
1, 3
0,9032
3, 3
0,9995
1, 4
0, 9 192
3,4
0,9 997
1, 5
0,9332
3, 5
0,9998
1, 6
0,9452
1, 7
0,9554
1, 8
o, 96 41
1, 9
o, 9 713
Tabla 5
Distribucin de
x:
Valores de
~
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
25
30
x;
0,99
0,95
o, 90
o, 10
o, 05
o,oo
0,02
o, 12
0,30
o,55
0;87
1,24
1, 65
2,09
2,56
3,05
3,57
4, 11
4,66
5,23
5,81
6,41
7, O1
7,63
8,26
11, 52
14, 95
o,oo
o, 10
0,35
0,71
1, 15
1,64
2, 17
2, 73
3,33
3,94
4,57
5,23
5,89
6,57
7,26
7, 96
8,67
9,39
10, 12
10,85
14, 61
18, 49
0,02
o, 21
o,58
1, 06
1, 61
2, 20
2, 83
3,49
4, 17
4, 87
5, 58
6,30
7,04
7, 79
8, 55
9, 31
10, 08
10, 86
11, 65
12, 44
16, 4 7
20,60
2, 71
4, 61
6,25
7, 78
9,24
10, 64
12, 02
13, 36
14, 68
15, 99
17,27
18, 55
19, 81
21, 06
22, 3 1
23,54
24, 77
25, 99
27,20
28, 41
34, 38
40,26
3, 84
5, 99
7, 81
9,49
11, 07
12,59
14,07
15, 51
16, 92
18, 31
19, 67
21, 03
22,36
23,68
25, 00
26,30
27, 59
28, 87
30, 14
31, 41
37,65
43, 77
co
0,025
5,02
7, 38
9,35
11, 14
12, 83
14, 45
16, O1
17, 53
19, 02
20,48
21,92
23, 34
24, 74
26, 12
27,49
28,84
30, 19
31, 53
32, 85
34, 17
40, 65
46,98
o, 01
o, 001
6, 63
9,21
11,34
13, 28
15, 09
16, 81
18,47
20,09
21, 67
23, 21
24, 72
26,22
27,69
29, 14
30,58
32,00
33,41
34,80
36, 19
37,57
44, 31
50,89
10, 83
13, 82
16,27
18, 47
20,52
22,46
24, 32
26, 13
27,88
29,59
31, 26
32, 91
34,53
36, 12
37,70
39,25
40, 79
42, 31
43,82
45, 32
52,62
59, 70
...
CI
Tabla 6
Distribucin t de Student: P( 1T [ > t 0 )
Valores de t 0
~
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
25
30
0,90
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
158
142
137
134
132
131
130
130
129
129
129
128
128
128
128
128
128
127
12 7
127
12 7
127
s"'
s .(x)dx
'
o, 70
0,50
0,20
o, 10
0,05
0,02
o, O1
o, 510
o,445
0,424
0,414
0,408
0,404
0,402
0,399
0,398
0,397
o, 396
0,395
0,394
0,393
0,393
0,392
0,392
0,392
o, 391
o, 391
0,390
0,389
1,000
o, 8 16
o, 765
o, 741
o, 727
o, 718
o, 716
o, 706
o, 702
o, 700
o,697
0,695
o,694
o,692
o, 691
o, 69 0
o,689
o,688
o, 688
o,687
o,684
0,683
3,078
1, 886
1,638
1, 533
1,476
1,440
1,41 5
1, 397
1,383
1,372
1,363
1,356
1,350
1,345
1,341
l, 337
1,333
1,330
1,328
1,325
l, 316
1,310
6,314
2,920
2,353
2, 132
2, O15
1,943
1, 895
1, 860
1, 833
1, 812
1, 796
1, 782
1, 771
1, 761
1, 753
1, 746
1,740
1, 734
1,729
l, 725
1, 708
1, 697
12, 706
4,303
3, 182
2, 776
2, 571
2,447
2,365
2,306
2,262
2,228
2,201
2, 179
2, 160
2, 145
2, 131
2, 120
2, 110
2, 10 l
2,093
2,086
2,060
2,042
31,821
6,965
4, 541
3,747
3,36 5
3, 143
2,998
2,896
2, 821
2,764
2,718
2,681
2,650
2,624
2,602
2,583
2,567
2, 552
2,539
2, 528
2,485
2,457
63,65 7
9,925
5,841
4,604
4,032
3,707
3,499
3,355
3,250
3, 169
3, 106
3,055
3,0 12
2,977
2,947
2, 9 21
2, 898
2,878
2,86 1
2,845
2,787
2,750
BIBLIOGRAFIA
La bibliografa sobre probabilidades yestadsticaes cuantiosa,
y por ese motivo nos limitaremos a sefialar algunos textos fundamentales y otros que, por estar en idioma castellano y ser de carcter elemental, pueden ser tiles como textos de iniciacin.
Textos Fundamentales
(1) FELLER, W, An lntroduction to Probability Theory and its
Applications, Wiley, Nueva York, Vol, 1 (1950),
(2) RENY, A, Wahrsecheinlichkeitsrechnung mit einem Anhang uber
Informationstheorie, Deutsche r Ver lag der Wissenschaften,
Berln (1966),
(3) RIOS, S.
(1967).
McGraw-Hill,
Nueva York
Textos Intermedios
(4) CRAMER, H, Elementos de la Teora de
Aplicacione s, Aguilar, Madrid (1 963).
Probabilidades y
131
l.
N 2,
N 3,
N 4.
N s.
N 6.
N 7.
N 8.
N 9.
N 1
N 11.
N 12 .
N 13.
N 14.
Serie de ffeica
N l.
N 2.
N 3.
N 4.
N 5.
N
6.
7.
B.
9.
133
';
N 10.
N 11.
Serie de qumica
N
1.
N 2.
N 3.
N 4.
N
N
5.
6.
N
N
8.
9.
7.
N 10 .
134
N 11.
N 12.
N 13.
Serie de biologa
N
l.
2.
3.
4.
N
N
N
6.
N
N
5.
7.
8.
9.
N 10.
N 11.
N 12.
N 13.
N 14.
En preparaci6n
Serie de matemtica
Estructuras Algebraicas IV (Algebra Multilineal), por Orlando
Villamayor y Artibano Micali.
Estructuras Algebraicas V (Teori'a de Cuerpos), por Dari'o J.
Picea.
Estructuras Algebraicas VI (Estructura de Algebras), por
Artibano Micali.
Introducci6n al Anlisis, por Manuel Balanzat,
lntroducci6n a la Integral de Lebesgue en la Recta, por Juan
Antonio Gatica.
Introduc;a.o a Anlise Funcional: Espac;os de Banach e Clculo
Diferencial, por Leopoldo Nachbin .
Introducci6n a los Espacios de Hilbert, por Jase I . Nieto.
Introduc;a.o as Equac;5es Diferenciais Ordinrias, por ChaimS.
H1inig.
Introducci6n a la Computacin, por Jaime Michelow.
Teori'a General de la Optimizacin, por Enrique Cansado.
Teor{a de Grafos, por Fausto Alfredo Toranzos.
Programacin Lineal, por Fernando L. Garagorry.
Serie de fsica
El Lser, por Mario Garavaglia.
Clculo d e Errores, Aplicaci6n y Teori'a, porWolfgang Meckbach.
Oceanografi'a Fi'sica, por Luis E. Herrera.
Serie de qufmica
Paramagnetismo Electrnico, por Juan A. Mc.Millan.
Productos Naturales Vegetales, por Venancio Deulofeu y colaboradores.
Esteroqui'mica Orgnica, por Juan A. Garbarino.
Fotometri'a de Llama por Emisi6n, por Juan Rami'.'rez Muoz.
Fotometri'a de Llama por Absorci6nAt6mica, por Juan Rami'.'rez
Muoz.
135
136
Nota: Las personas interesadas en adquirir estas obras deben dirigirse a la Unidad de Ventas y Circulaci6n, Organizacin
de los Estados Americanos, Washington, D. C., 20006 o a las
Oficinas de la Secretara General de la OEA en el pas
respectivo.