Sei sulla pagina 1di 140

monografa no.

11

serie de matemtica

Programa Regional de Desarrollo Cientfico y Tecnolgico


Departamento de Asuntos Cientficos
Secretara Genera I de la
Organizacin de los Estados Americanos

-a

PROBABILIDAD E
INFERENCIA ESTADISTICA
por
Luis A. Sontol
Facultad de Ciencias Exactos y Naturales
Universidad de Buenos Aires
Buenos Aires, ARGENTINA

Programa Regional de Desarrollo Cientfico y Tecnolgico


Departamento de Asuntos Cientficos
Secretara General de lo
Organizacin de los Estados Americanos
Washington, D. C.

Copyright 1970 by
The General Secretariat of the
Organization of American States
Washington, D. C.

Derechos Reservados, 1970


Secretara General de la
Organizacin de los Estados Americanos
Washington, D.C.

Primera edicin,
Segunda edicin,
corregida y actualizada

1970

1975

Esta monografa ha sido preparada para su publicacin en el


Departamento de Asuntos Cientficos de la Secretara General
de la Organizacin de los Estados Americanos.
Editora: Eva V. Chesneau
Revisor Tcnico: Prof. Evelio Fabbroni
Instituto Interamericano de Estadstica
Organizacin de los Estados Americanos
Washington, D.C.

El programa de monograf{as cient{ficas es una faceta de la


vasta labor de la Organizaci6n de los Estados Americanos, a cargo del Departamento de Asuntos Cient'ficos de la Secretar'a General
de dicha Organizaci6n, a cuyo financiamiento contribuye en forma
importante el Programa Regional de Desarrollo Cient'fico y Tecnolgico.
Concebido por los J e fes de Estado Ameri canos e n su Reunin
celebrada en Punta del Este, Uruguay, e n 1967, y cristalizado en
las deliberaciones y mandatos de la Quinta Reunin del Consejo
Interamericano Cultural, llevada a cabo en Maracay, Venezuela,
en 1968, el Programa Regional de Desarrollo Cient'fico y Tecnolgico es la expresin de las aspiraciones preconizadas por los
Jefes de Estado Americanos en el sentido de poner la ciencia y la
tecnolo g'a al servicio de los pueblos latinoamericanos.
D e mostrando gran visin, dichos dignatarios reconocieron
que la ciencia y la tec nolog a estn transformando la estructura
econ6mica y social de muchas naciones y que, en esta hora, por
ser instrumento indispensable de progreso en Ami,rica Latina,
necesitan un impulso sin precedentes .

El Programa Regional de Desarrollo Cientiiico y Tecnolgico


es un complemento de los esfuerzos nacionale s d e los pa'ses latinoamericanos y se orienta h acia la adopcin de medidas que permitan el fomento de la inve stigacin, la ens e?lanz a y l a difusin de l a
ciencia y la tecnolog'a; laformaciny perfeccionamiento de personal cient'fico; el intercambio de informaciones, y la transferen cia y adaptacin a los pa'ses latinoamericanos del conocimiento y
las tecnolog{as generadas en otras regiones.
En el cumplimiento de estas premisas fundamentales, el programa de monograf{a s r epres enta una contribucin directa a la
ense?lanza de las ciencias en niveles educati vos que abarcan important'simos sectores de la poblacin y, al mismo tiempo, propug na
l a difusin del saber cient'fi co.

111

La colecci6n de monograf{as cientficas consta de cuatro series, en espanol y portugus, sobre temas de ftsica, qumica,
biologa y matemtica. Desde sus comienzos, estas obras se destinaron a profesores y alumnos de ciencias de enseYlanza secundaria
y de los primeros anos de la universitaria; de stos se tiene ya
testimonio de su buena acogida.
Este prefacio brinda al Programa Regional de Desarrollo Cient{fico y Tecnolgico de la Secretara General de la Organizacin
de los Estados Americanos la ocasi6n de agradecer al doctor
Luis A. Santal6, autor de esta monografa , y a quienes tengan el
inters y buena voluntad de contribuir a su divulgacin.

Septiembre de 1970

IV

INDICE
Pgina
A los Lectores . . . . . . . . . . . . . . . . . . . , . .. , , . . . . . . . . . . .

iii

CAPITULO PRIMERO. LA DEFINICION CLASICA DE


PROBABILIDAD Y PRIMEROS EJEMPLOS
1.
2.
3,
4,
5,
6.

L a Defini cin Clsica . . . , . .. , , .. .. , .. ... ... .


Principios Fundamentales.....................
Probabilidad y Combinatoria .. . ...... .. .. , .. , .
Probabilidad y Frecuencia . . . . . . . . . . . . . . . . . . . .
La Probabilidad Subjetiva o Grado de Creencia . .
La Probabilidad en Torneos . . . . . . . . . . . . . . . . . . .

4
6
9
9
11

CAPITULO SEGUNDO. DEFINICION AXIOMATICA DE


PROBABILIDAD Y PRIMERAS CONSECUENCIAS
l.
2.
3.
4.
5,

Axiomas de la Teorfa de Probabilidades . . . . . . . .


Consecuencias de los Axiomas . . . . . . . . . . . . . . . . .
La Definicin Clsica ...... , ... , . . . . . . . . . . . . ,
Probabilidad Condicional ... . ...... . . . . . . . . . . .
Ejemplos . . . . . . . . . . . . .. . . . .... . . . . . . . . . . . . .

13
17

19
19
22

CAPITULO TERCERO . VARIABLES ALEATORIAS.


FUNCIONES DE PROBABILIDAD

l. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . .
2.
3,
4.
5.
6.
7.
B.
9.
10.

Esperanza Matemtica... . ... .. . . . . . . . . . . . . . . .


Momentos de Una Variable Aleatoria . . . . . . . . . .
La Desigualdad de Tchebycheff . . . . . . . . . . . . . . . .
Suma de Variables Aleatorias . . . . . . . . . . . . . . .
Pr odu c t o de Variables Aleatorias . . . . . . . . . . . .
Correl acin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Funcin Generatriz de Momentos . . . . . . . . . . . . .
Funcin Cara c ters tica . . . . . . . . . . . . . . . . . . . . . .
Regresin...................................

CAPITULO CUARTO.

33
37
38
39
40
42
44
45
47
47

DISTRIBUCION BINOMIAL.

LEY DE LOS GRANDES NUMEROS


1, Distribucin Binomial . . . . . . . . . . . . . . . .
2. Esperanza Matemtica y Varianza de Una
Variable Binomial . . . . . . . . . . . . . . . . .
3. Teo rem a de Bernoulli . . . . . . . . . . . . . . . . .
4. Leyes de los Grandes Nmeros . . . . . . . .

.. .. ...

49

.. ....
.. . . . .
.. .. ..

52
53
55

CAPITULO QUINTO.

DISTRIBUCION DE POISSON

l. Funcin de Probabilidad de Poiss o n . . . . . . . . . . . . . ,


2. Dis tribucin Uniforme de Puntos Sobre Una
Recta o de Sucesos en el Tiempo . . . . . . . . . . . . . .
3 . El Problema de las Fila s de Espera ...... . ...... ,

59
63
66

CAPITULO SEXTO. DISTRIB UCION NORMAL.


VARIABLES ALEATORIAS CONTINUAS
1. Aproximacin de la Distribucin Binomial por
la Normal ... . ............. . , .. .. .... . . ,,..
2, Variables Aleatorias Continuas ... . .. , ... ... , . , .
3. Funcin de Densidad de P r obabilidad y Funcin
de Distribucin Normal ... , . .. . . .. . . . . . . , . . . , ,
4. Teorema Central del Lmite .... , .... . .. .. , . , , ,
5. Otras Funciones d e Densidad . ... . .. ..... , . , . . . . .
CAPITULO SEPTIMO.

CAPITULO OCTAVO.
1.
2.
3.
4.
5.
6.
7.

75
81
85

LA FORMULA DE B A YES

1. Inferencia Estadstica ... , , . , . . . . . . . . . . . . . . . . . . .


2. Frmula de Bayes , . . , . , , . . . , , . .. , . . . . . . . . , . . .

VI

71
72

87
88

ESTIMACION POR PUNTO

Muestras . . . . ..... .. ......... , . .. . .. , .... ,..


Media y V a r ianza de Una Muestra .. , ........ ,., .
Estimadores .. . . .. . ... , .. , . . . . . . . . . ... ... , . . .
Estima dores Co nsistent es . . . , . . . . . . . . , ,.. . . . . . .
Estimadores Suficientes . , , .. , . . . . . . . . . , .. , . . . . .
Estimadores Eficientes . . . . . . . . . . . . . . . . . . . . . . . .
E s timadores de Mxima V e rosimilitud . ... , . . . . . .

91
92
94
96
97
99
101

CAPITULO NOVENO. ESTIMACION POR INTERVALOS


D E CONFIANZA. VERIFICA CIO N DE HIPOTESIS

l.
2.
3.
4.
S.

La Distribucin X2 . .
La Distribucin t de Student . . . .. . . . . , . . . . . . . . .
Estimacin por Intervalos de Confianza...........
Verificacin de Hip te s is ...... . . , . .. .. . . .. ..
Comparacin d e Distribucione s Expe rimentale s
y Tericas: Te st del X2 , . . , .

105
107
109
111

APENDICE l. COMBINATORIA. . . ..... .. .... . .... . .. . .


APENDICE II. ALGUNAS FORMULAS DE CALCULO . . . .
APENDICE Ill. TABLAS... ... ... ..... . .. . .. ... . .. . . ..

11 9
122
1 25

Bibli o grafa ..... ... ..... .. . . .. . . . . . . . . . . . . . . . .. .....

131

112

1
LA DEFINICION CLASICA DE PROBABILIDAD Y
PRIMEROS EJEMPLOS

l.

DEFINICION CLASICA

Las teoras matemticas, sobre todo las que tienen relaci6n


con los fen6meno s naturales, a los que tratan primero de entender
para luego predecir, se construye n siempre a partir de conc eptos intuitivos, suficientemente claros para que pue dan ser
aplicad os en las prime r as etapas de la t e ora, pero no suficientemente rigurosos para que queden a salvo de objeciones
cuando la rrsma alcanza cierto g rado de desarrollo. Se hace necesario, entonces, revisar los fundamentos, precisando las definiciones y dndoles, si ello es posible, una construcci6n axiomtica.
De esta manera, si alguna vez aparece n resultados contradictorios
o parad6jicos , se sabr bien que lo nico que deber ser r evisado
son los axiom as y a e llos habr que acudir tambin siempre que
se desee una extensi6n o una lirrtaci6n de la teora.
Sin embargo , p ara empe zar a estudiar una teora, no siempre

es el carrno axiomtico el ms recomendable. Los axiomas son


elaborados por quienes conocen muy bien la teora, y su verdadero
sentido y necesidad se comprenden con claridad tan s6lo cuando
se est ya farrliarizado con los elementos y relaciones bsicas
que e llos tratan de afirmar de manera abstracta y precisa. Es
mejor empeza r por definiciones t a l ve z no muy exactas y con ejemplos simples, pero substanciale s, para poder comprender lueg o
el verdade ro sentido de los axiomas, y para que los rrsmos apa rezcan de manera natural como expresi6n sinttica y firme de
conocirrentos ya adquiridos.
En e l caso de la teori'a de las probabilidades vamos a seguir
este carrno, dando en este primer captulo la definici6n clsica y
algunos ejemplos, para ver luego c6mo, a partir de ellos como
mode l o, se puede construir una teor{a axiomtica.

La definici6n clsica de probabilidad es la que figura por ejem plo e n l a famo sa "Te or{a Analitica de l as Probabilidadesn (Libro
II, cap. l) de P. S. Laplace, obra hist6ricamente fundamental,
publicada en 1812. Es la siguiente:

Definici6n l, l, Probabilidad de un suceso es la raz6n entre el


nmero de casos favorables y el nmero total de casos posibles,
siempre que nada obligue a creer que alguno de estos casos debe
tener lugar de preferencia a lo s dems, lo que hace que todos sean,
para nosotros, igualmente posibles.
Por ejemplo, supuesto un dado ordinario, o sea, un cubo con
las caras numeradas del uno al seis, al ser lanzado de manera
arbitraria sobre un plano, la probabilidad de que salga e l nmero
2 ser 1/ 6. En efecto, si el dado est bien c onstruido y el lanzamiento se hace completamente al azar, no hay nada que obligue a
creer que una de las caras tenga que salir de preferencia a las
dems; las seis caras son, por tanto, igualmente posibles. Existiendo un solo caso favorable y seis casos posibles, la probabilidad
ser I / 6, como ya dijimos.

En cambio, si en vez de un dado de forma cbica, suponemos


que el mismo se alarga segn una de sus dimensiones hasta formar
un prisma r ecto d e base cuadrada y a ltura mayor que los lados de
la base, evidentemente las seis caras dejan de ser "igualmente
posibles". La probabilidad de que salga una determinada cara ya
no es 1/ 6, pues si bien contina habiendo un solo caso favorable y
seis posibles, entre estos ltimos los hay que estn en mejores
condicione s para salir que otros; es ms probable, en efecto, que
salga una cara lateral que no una bas e y esta probabilidad aumenta
al aumentar la altura del prisma.
Como segundo ejemplo, supong amos un bolillero o urna c on 20
bolillas blancas y 8 rojas. Sacando una bolilla al azar, cul es
la probabilidad de que resulte roja? H ay 28 casos posibles, de los
cuales s6lo 8 son favorables; luego, la probabilidad ser 8/28 = 2/7.
Este resultado supone que todas las bolillas son igualmente posibles; si hubiera algunas con ms probabilidad de salir que otras
(por ejemplo, si la s hubiera d e diferentes tama'!'los) l a probabilidad
sera distinta .
El inconveni e nt e de l a definici6n anterior radica precisamente
en la necesidad de fija r l a atenci6n en que todos los casos sean
"igualmente posibles". Hay veces, como en lo s ejemplos que
acabamos de mencionar, en que el cumplimiento o no de esta condici6n salta a la vista, mientras que otras veces tal hecho pasa
inadvertido y se necesita mucha atenci6n y "buen sentido" para
ponerlo de manifiesto.
Muchas vece s, aun cuando los c as os no sean igualmente posibles , se puede apli car l a definici6n anterior, con tal de tener
cuidado de contar cada caso tantas veces c omo pos ibilidades hay

de que se verifique,
plo siguiente:

Consideremos, siguiendo a Laplace, el ejem-

"Se lanza al aire por dos veces consecutivas una moneda cuyos
lados opuestos llamaremos "cara" y" cruz". Se pide la probabilidad de obtener cara por lo menos una vez". A primera vista
podr{a creerse que los casos posibles son: las dos veces cara,
una vez cara y otra cruz, y l as dos veces cruz. Contando de esta
man era nos encontramos con dos casos favorables y tr es casos
posibles; por tanto la probabilidad ser{a 2/3.
Sin embargo, un poco de atenci6n pone de manifiesto que el
caso en que sale una vez cara y otra vez cruz es ms frecuente
que los otros dos; en efecto, puede ocurrir que salga la primera
vez cara y la segunda cruz o viceversa. El segundo caso tiene,
pues, dos posibilidades y hay que contarlo dos veces, como si se
tratara de dos casos diferentes. Representada la cara por C y la cruz
por F, los verdaderos casos posibles son (C, C), (C, F), (F, C),
(F,F), y por tanto hay tres casos favorablesy cuatro posibles, de
manera que la soluci6n del problema es 3/ 4.
La definici6n de Laplace supone que el nmero de casos favorables, y por tanto tambin el de casos posibles, es finito. En
e ste caso la probabilidad de un suceso es siempre un nmero real
c omprendido entr e O y l. La probabilidad O s ignifica que no hay
ningn caso favorabl e, o sea, que el suceso es imposible. La probabilida d l significa que e l nmero de casos favorables es igua l
al nmero de casos posibles, o sea, que el suceso es seguro.
Si hay infinitos casos posibles, la definici6n anterior debe modificarse, pero ello se hace fcilrne nte sustituyendo el nwnero de
casos favorables o posibles, por la medida de los mismos. La
teor{a de probabilidades apar ece as{ {ntimamente ligada con la
t eor{a de l a medida de conjuntos, Supongamos e l siguiente problema:
Elegido al azar un punto d entro de un segmento A de longitud

a, cules la probabilidad de que pertenezca a otro segmento B


de longitud b contenido en el primero ?
N a turalmente, el nmero de casos posibles, que es el nmero
de puntos del segmento A, lo mismo que e l nmero de casos favorables, que e s el nmero d e puntos del s egmento B, s on ambos
infinitos. Sin embargo, considerando los punto s como i g ualmente
po sibles, b as ta tomar l a l ongitud de cada segmento (o, con mayor ge neralidad, su medida, si se tratara de conjuntos de puntos que no
llenaran todo el segmento), ~ nvezdel nmero de puntos, para que

la definici6n sea aplicable, y la probabilidad resulta ser igual a

b/a.
Obsrvese en este ejemplo, que si en vez del segmento B
considersemos un conjunto finito de puntos del segmento A, la
probabilidad resultar{a ser igual a O, sin que ello signifique imposibilidad. Anlogamente, si en vez de un segmento contenido
en A tomamos un conjunto de puntos B que sea el mismo A, excepto un nmero finito de puntos, como la medida de B es igual a la
de A, resulta que la p robabilidad es 1, s in que ello signifique
certeza, O sea: el hecho de que la probabilidad O implique imposibilidad y la probabilidad 1 certeza no es vlido si se trata de la
probabilidad de conjuntos infinitos.
2..

PRINCIPIOS FUNDAMENTALES

Probabilidades Totales. Hemos visto que la probabilidad de


que al lanzar un dado al a z ar salga el nmero 2 es 1/ 6. Suponga mos que se busca l a probabilidad de que "salga el 2 o el 5 11
Tenemos en este caso dos casos favorables, el 2 y el 5, dentro
de los mismos seis casos posibles. Por tanto, la probabilidad es
2/6 = 1/3.

Supongamos, como segundo ejemplo, una urna con 20 bolillas


blancas, 16 rojas y 5 azules; en total 41 bolillas. La probabilidad
de que una bolUla sacada al azar sea blanca es P(blanca) = 20/41,
puesto que hay 20 casos favorables y 41 posibles. Anlogamente
l a probabilidad de que la bolilla sacada al azar sea roja es P(roja) =
16/ 4 l. Supongamos que s e quiera hallar la probabilidad de que
la bolilla extrada sea "blanca o roja". Los casos favorables son
20 + 16 = 36, y los posibles son los mismos 41 de antes. Por
tanto la probabilidad buscada ser P(blanca o roja) = (20 + 16)/41 =
= 20/41 + 16/41 = P(blanca) + P(roja).

El hecho es general. Supongamos que el nmero total de casos


posibles de un dete rmina do suc eso es n , dentro de los cuales hay
m casos en que s e produce el suceso A y r ca sos en que se produce
el suceso B . Ser P(A) = m/n, P(B) = r/n. Si A y B no pueden
tener lugar simultneamente, o sea los m casos correspondientes
a A son distintos de los r casos correspondientes a B(se dice que
A y B son incompatibles), entonces el nmero de casos en que puede
tener lugar A o B ser m + r y por tanto
P(A o B)

= ~ = R +f =

P(A)

+P(B).

[ l. 1]

Este hecho constituye el clsico Pr>inci pio de las Probabilidades

Totales, que se enuncia:

Si dos sucesos A y B son incompatibles, Za probabilidad de que


oCU1'l'a "A o B"es ifJWlZ a Za suma de Za probabilidad de A ms Za
probabilidad de B.
La condicin de que A y B sean incompatibles, es decir, que
no puedan ocurrir simultneamente, es indispensable. Consideremos, por ejemplo, el mismo caso de un dado numerado de 1 a b
y supongamos que A representa el suceso de que salga el 2 y B el
suceso de que salga un nmero par. Se tiene as P(A)
I/6 y
P(B)
3/6 = I/2 (puesto que entre 1 y 6 hay tres nmeros pares) .
La probabilidad de "A o B", o sea, la que salga el2 o salga un
nmero par no es, sin embargo, P(A) + P(B) = 2/3, puesto que si

ocurre A, tambin ocurre B, por ser 2 un nmero par.

Los su-

cesos no son incompatibles y por tanto la relacin [ l. l] no es


vlida. La probabilidad en este caso es simplemente igualalade
B o sea I/2.
Obsrvese que el razonamiento puede repetir se con un nmero de
sucesos mayor que dos. Siempre que ellos se excluyan mutuamente,
es decir, sean incompatibles entre s, la probabilidad de que ocurra
uno u otro es igual a la suma de las probabilidades respectivas.

Probabilidades Compuestas,
blema:

Consideremos el siguiente pro-

"Se lanzan simultneamente dos dados, uno rojo y otro blanco,


y se busca la probabilidad de que el rojo salga 2 y el blanco 5."

Los casos posibles son ahora 6 6 36, pues en el dado rojo puede
salir cualquier nmero del 1 al 6 y, por cada caso, en el dado
blanco puede tambin salir cualquier valor entre I y 6. De entre
estos 36 casos posibles, nicamente hay un caso favorable, y por
tanto la probabilidad buscada es 1/ 36. Se tiene as que, mientras
que la probabilidad de que en el dado rojo salga 2 es I/ 6 y la de
que en el dado blanco salga 5 es tambin I/6, la probabilidad de
que ocurran a la vez los dos sucesos e s igual al producto
(I/6) (1/ 6) = 1/36.
Este hecho es general. Supongamos que para un suceso A hay
m1 casos favorables entre n 1 posibles y que para otro suceso B hay
m2 casos favorables entre n 2 casos posibles. Entonces se tiene
P(A) =
Consideremos ahora el conjunto de
1 y P(B) = m2 /n 2
pares de casos posibles y favorables. Es claro que habr 71171 2
pares de c asos posibles y, entre ellos, habr m1m2 casos favorables
(en que tienen lugar A y B simultneamente). Por tanto P(A y B) =
m1m2 /n 1 n 2
P(A) P(B).

mJn

Podemos, por tanto, enunciar el siguiente Principio de Zas

Probabilidades Compuestas:

Si dos sucesos son independientes entre s{, Za probabiUdad de


que O<!Ul'ran A y B a Za vez, es igual al producto de Za probabiUdad
de A por la probabiUdad de B, o sea,
P(A y B) = P(A) P(B).

[ l. 2]

La condicin de que A y B sean independientes es fundamental.


En caso contrario, la igualdad [ l. 2] deja de ser v~lida. Suponga mos, por ejemplo, que se lanza un dado y se busca la probabilidad de que el nmero resultante sea "par y menor que 4".
Si A indica el suceso 11 par 11 y B el suceso "menor que 4",
resulta P(A)
1/2 y P(B) = 3/6 = 1/2, El nico caso favorable es el 2 y por tantoP(AyB) = 1/6, mientras que P(A) P(B) =
= 1/4. Esto nos dice que los sucesos "par" y "menor que
4" no son independientes: si se sabe ya que es par, es menos probable que sea menor que 4 que si no se supiera.

Muchas veces no es f~cil averiguar a priori si dos sucesos son


o no independientes, Por esto, veremos en el capftulo siguiente
que es mejor tomar la condicin [ l. 2] como definicin de independencia, es decir, se dice que dos sucesos A y B son independientes
si se cumple [ l. 2], y no lo son en caso contrario,

3,

PROBABILIDAD Y COMBINA TO RIA

Mediante la definicin de Laplace y los princ1p1os fundamentales anteriores, y siempre que el nmero de casos posibles s ea finito
(stos se lla man probabilidades finitas) , se pueden resolver muchos
problemas, En r ealidad son problemas de an~lisis combinatorio,
en los cuales la idea de probabilidad nicamente sirve para darles
un enunciado atractivo, pero cuya mayor o menor dificultad slo
estriba en los razonamientos y frmulas de tipo combinatorio que
es necesario emplear. Por esto hemos reunido en el Apndic e I
las frmulas nece s arias. Vamos a ver algunos ejemplos.
Problema l, l. Una urna contiene boZiUas numeradas del 1 al 5.
Se sacan sucesivamente al azar Zas 5bolillas (sin reposici6n). Se
busca la probabilidad de que juntando los nmeros de cada bolilla
segn el orden de extraccin resulte el nmero 21345.
Soluci6n, Los casos posibles son las permutaciones que pueden formarse con las 5 bolillas, o sea, P 6 = 5 ! = 120. Puesto que
hay un solo caso favorable, el resultado es 1/ 120.
Problema l. z.

al 9.

Se

Una urna contiene 10 boUZZas numeradas del O


sacan sucesivamente al azar 5boZiUas (sin reposicin).

Se busca Za probabilidad de que juntando los nineros de cada una


en el orden de extraccin resulte el nmero 80314.
Soluci6n. El nmero de casos posibles es el nmero de permutaciones o variaciones de 5 elementos elegidos entre 10 (vase
Apndice I), o sea, P 10, 6 = 10 9 8 7 6 = 30240, Luego la probabilidad buscada es 1/30240.
Problema l, 3, Una urna contiene a boUUas blancas y b boliUas
negras. Al sacar al azar r boliUae de una vez (suponiendo r s:a,
cul es Za probabilidad de que todas ellas sean blancas?
Soluci6n, E:l nmero de casos posibles es igual al nmero de
combinaciones de r bolillas tomadas entre las a + b existentes, o
sea, es igual a Ca+b,r El nmero de casos favorables es igual al
nmero de combinaciones de r bolillas tomadas entre las a blancas,
o sea, c., r Por tanto, la probabilidad buscada es:
p

Ca r

c.+~, r

_
-

a ! (a + b - r) ! .
(a - r) ! (a + b !

Problema l, 4. Se tiene 5 pares de zapatos mezclados y cada


par es distinto de los dems. Si se eligen 2 zapatos al azar, qu
probabilidad hay de que correspondan a un mismo par?
Soluci6n, El nmero de casos posibles es i gual al de combinaciones de 2 objetos elegido s entre 10, o sea, C 10 , 2 = 45. Los casos
favorables son 5, igual e n nmero al de los 5 pares existentes.
Por tanto la probabilidad buscada es P = 5/ 45
1/9.

Problema l. S. Se tiene una baraja de 40 cartas, donde hay 4


ases. Se reparten stas entre 4 personas, de manera que toquen l O
cartas a cada una . Qu probabi Zidad hay de que a cada una toque
un as?
So1uci6n, Los casos posibles
conjuntos de IO, o sea

P~,10,10,10

son las particiones de 40 en

401

Para contar los casos favorables, observemos que pres cindiendo de los ases, las 36 cartas restantes se pueden distribuir de
Pr, 9 , 9 , 9 = (36!)/(9!) 4 maneras y luego lo s 4 ases de 4!maneras .
Por tanto, el nmero de casos favorables es e l producto de estos
dos nmeros y la probabilida d buscada resulta P = O, 109.

Problema l. 6. Sin personas se sientan al a.a<ll' en una fila,


cual es la probabilidad de que dos de ellas dete1'11!inadas queden
una al lado de la otra?
Soluci6n. El nmero de casos posibles es n ! Para contar los
favorables, se suponen las (n - 2) ! maneras en que pueden sentarse
las restantes personas y se intercalan sucesivamente las dos que
se quieren vecinas, desde el principio al final. Hay 1"1- 1 posibilidades, y alternando las dos personas quedan, en cada caso, dos
posibilidades m'.s. Por tanto el resultado es P = 2(n - l) (n - 2) !/1"1 ! 2/n.

Problema l. 7. Se elige al a.a<ll' un nmero de 6 aifras.


la probabilidad de que todas las aijras sean diferentes.

Hall<ll'

Soluci6n. Los nmeros de 6 cifras son los comprendidos entre


100. 000 y 999. 999, o sea, los casos posibles son 9 105 Los casos
favorables se calculan de la siguiente manera: la primera cifra puede
se r cualquiera de las 1, 2, . , 9 (o sea, hay 9 posibilidades); la segunda cifra puede ser cualquiera de las O, 1, 2, , 9 menos la ya elegida
(o sea, hay 9 posibilidades); la tercera puede ser cualquiera de las
O, 1, 2, ... , 9 menos las dos ya elegidas (o sea, hay 8 posibilidades).
As sucesivamente, se ve que los casos favorables son 9 9 8
152. 880. La probabilidad buscada resulta igual a
7 6 5
P=0,151.

'f!!n una urna hay 20 bolill.as numeradas de l a


Si se van saaando al a.a<ll' una a una sin reposiain, aul es
la probabilidad de que la bolilla nmero 8 salga preaisamente en
la oatava e:i:traaain?

Problema l. 8.

20.

Soluci6n. La probabilidad de que la bolilla No. 8 no salga la


primera vez es 19/20; la probabilidad de que tampoco salga la segunda vez es 18/19 y as sucesivamente. La probabilidad de que
s salga la octava vez es l / 13, puesto que quedan 13 bolilla s.
Luego, por el principio de las probabilidades compuestas, la probabilidad buscada es:

J.2

18 17
201918

.l.

20

Obsrvese que este resultado es independiente del nme ro 8


es decir, la probabilida d es la misma para cualquier bolilla y
cualquier extracci6n, lo que es evidente a priori, pues cualqui e r
bolilla tiene la misma probabilidad de salir en cualquier extracci6n.

4,

PROBABILIDAD Y FRECUENCIA

En los casos de lanzamiento de dados o extracci6n de bolillas,


bajo ciertas condiciones hasta ahora no muy precisas de "igual
posibilidad", la probabilidad se puede calcular a priori. En realidad, como hemos visto, se trata de problemas de anlisis combinatorio, disfrazados con lenguaje probabilstico.
Hay otro tipo de problemas en que la probabilidad aparece como
resultado de muchos ensayos o pruebas, sin que se pueda pensar
en calcularla de antemano, ya sea por desconocerse la manera de
actuar de las causas que originan elfen6meno, ya sea por ser stas
demasiado numerosas o complicadas. Supongamos, por ejemplo,
que en una determinada poblaci6n se ha observado que en los ltimos 100. 000 nacimientos, 51. 600 de los nacidos han sido varones.
Se dice entonces que la "probabilidad" de que un nuevo nacimiento
sea de var6n es igual a 51. 600/ 100. 000
O, 516. Esta probabilidad se llama probabiUdad experimentaZ, probabiUdad estadCstica o
frecuencia. Se obtiene tambin como cociente al dividir el nmero
de casos favorables por el nmero de casos posibles. Se diferencia de los problemas del nmero anterior en que all los casos
favorables se calculaban a partir de ciertas hip6tesis, sin necesidad
de ensayos, en tanto que ahora son resultados de la experiencia.

Otro ejemplo clsico es el siguiente. Supongamos que se toma


nota del nmero de personas de una poblaci6n que fallecen a los X
aos . Si d, es e l nmero de personas que fallecen a los x aos de
edad, dentro de un nmero t otal 1, de personas considerada s , s e
puede decir que la "probabilidad de vida" a los X aos (o sea, la
probabilidad de que una persona de x aos llegue a cumplir X+ 1
aos) es (l,-d,)/ 1,. Estos datos figuranen las llamadas tablas de
mortalidad, que varan con la poblacin de que se trata y con el
tiempo, y en ellas se basan los seguros de vida.
La importancia prctica fundamental del clculo de probabili dades e striba en que la probabilidad experimental y la probabilidad
terica, cuando sta se pue de calcular y b a j o condiciones muy amplias , tienden a coincidir cua ndo el nmero de experimentos es
grande . E s d e cir, si en un problema de lanza miento de dados o de
extracci6n de bolillas se repite el experimento un gran nmero de
veces y se calcula la frecuencia de cierto suceso, ella tiende a
coincidir (en el sentido que precisaremos ms adelante) con la probabilidad terica calculada de antemano,

5,

LA PROBABILIDAD SUBJETIVA O GRADO DE CREENCIA

Tanto las probabilida d e s que pueden s e r calculadas de antemano, c omo las que re s ulta n c omo fr ecue ncia d e cierto proceso

experimental, son probabilidades objetivas, que pueden expresarse


en nmeros y ser sometidas al clculo matemtico. Son las nicas
de que trata el clculo de probabilidades.
Hay otros casos, sin embargo, en que la palabra "probabilidad"
se usa en un sentido menos preciso, casos en que, si bien es
posible una evaluaci6n ms o menos grosera de la misma, no se
pueden dar reglas para su determinaci6n precisa, y por tanto escapa al tratamiento matemtico. Se trata, ms bien, de un "grado
de creencia" acerca de que tenga o no lug ar un determinado hecho.
Supongamos el siguiente caso:
"Dos pa{ses A y B estn en guerra, cules la probabilidad de
que triunfe el pa{s A?"

10

Evidentemente, no es !{cito decir: como hay dos casos posibles,


la derrota o la victoria, y uno solo favorable, la probabilidad es
1/2. En efecto, puede muy bien ser que los dos casos no sean
i g u a lmente posibles y hay que juzgar t e nie ndo en cuenta l a pote ncialidad blica, las condiciones geogrficas, la cie ncia militar de
los estados mayores, etc. para evaluar la mayor o menor posibilidad de cada caso. Se comprende que es una cuesti6n compleja y
que no cabe pensar en una evaluaci6n exacta de la probabilidad.
Tampoco se puede acudir a la probabilidad experimental o estad{stica, pues la guerra en cuesti6n es un caso nico que no se puede
repetir sucesivamente, ni se dispone de un g ran nmero d e c asos
anlogo s , como en la probabilidad de vida o muerte de una p e r s ona.
Sin embargo, tampoco es exacto decir que no tiene sentido
hablar de probabilidad en este caso, pues no hay duda de que es
posible cierta evaluaci6n de la misma. Podr{a, por ejemplo, preguntarse la opini6n de 100 personas capacitadas e imparciales de
un pa{s neutral y dividir por 100 el nmero de respuestas favorables a la victoria del pa{s A. Es muy probable que si el resultado arrojase un saldo favorable d e l 90"/o, o se a , una probabi lidad
P = O, 9, este resulta do no dife riera mu c h o d e l que se obt e ndr{a si
en vez d e 100 pers onas se cons ultara n a l. 000, i g u almente capacitadas e imparciales.
De todas maneras este tipo de problemas no puede considerarse
incluido en la esfera de la pr o babilidad experiment al, puesto que
e l resultado n o proviene de una e s tad{stica de casos idnticos o
muy anlogos, sino que se basa en opiniones subjetivas de un caso
nico, opiniones qu e, a un s uponiendo qu e hayan sido e mitida s con
conocimiento de la s condicione s blicas de lo s dos pa{se s , e stn
influe nciadas por l a a pr e ciaci6n s ubje tiva d e l as misma s (v al e nt{a ,
capacidad directiva, voluntad de lucha,,,,) que no puede "me dirse"
ni graduarse en una escala imparcial y objetiva.

Preguntas del mismo tipo son: Cules la pro babilidad de que


haya vida en Marte?, cul la de que Napolen muriera envenenado?, cul la d e que el equipo x g ane el campeonato ?
Todos estos problemas quedan fuera de la teora de las probabilidades en el sentido usual, que es el que vamos a seg uir en los
captulos siguientes, si bien se han hecho y se siguen haciendo
interesantes tentativas para que ellos puedan tratar se tambin por
mtod o s mate mtico s .
6,

LA PROBABILIDAD EN TORNEOS
El triunfo en l as competencias d e p o rtivas depende e n gran me-

dida de la influencia del azar, tal vez ms de lo que parece a primera vista. Consideremos dos ejemplos:
l. Sea u n juego entre dos jugadores o dos equipos, A y B
Supon g amos que la p robabilidad d e g anar A sea O, 6 y la de gar
B sea O, 4 . L a probabilidad de empate se supone nula, pues t '
en el caso de e mpatar, la parti da s e repite hasta que g ana
los jugadores.
Si juegan una sola partida, la probabilidad de resultar c ampen
B, que es el que juega peor, es O, 4, que es bastante grande . Se
puede disminuir esta probabilidad si se conviene e n j ugar 3 p art i das y declarar c ampen al que g ane por l o menos 2 de e lla s .
Entonce s la p r ob abi lida d d e que B r esulte campen es p 3 =
= 3(0, 4 )2 , O, 6 + (O , 4) 3 = O, 3 5, que es inferio r a l a probabilidad anterior. Si se juegan 5 parti das y se declara c ampen al que g ane
por lo menos 3 de ellas, la probabilidad de que el campen sea B
es p 6 = 10, (0,4) 3 (0, 6 )2 + 5(0,4) 4 , 0,6 + (0,4)6 = 0,317. Si se jue gan 7 p artidas y se d e clara camp en al que gane por lo menos 4,
la probabilidad de que resulte campen B e s p 7 = O, 290. Vemos
q u e la pr obabilidad va disminuyendo, pero con l e ntitud, d e manera
que aun en u n nmero r e lativamen t e g r ande de partidas, la proba bilidad de que resulte campen e l peor es bas t ante significativa
(aunque por cier to siempr e es infer io r a O, 5 ).
2, Cuando se celebran torneo s eliminatorios, o sea s in que
jueguen todos contra todos, la influencia del orden en las eliminatorias e s mucha. Vamos a dar un ejemplo de tres j ugadores A,
By C, tales q u e A juega mejor que B, B juega m e jor que C y,
sin embargo, C juega mejor que A. Al d eci r "A juega m e j or que
B" qui ere decir que l a probabilidad de que A gane a B es superior
a la de que B gane a A, o sea que e n un nmero grande de partidas
e ntre es tos jugadores, e l nme ro de l as partida s g anada s por A
supera al de las ganadas por B.

11

Supongamos que cada jugador dispone de un dado especial, cuyas caras estn numeradas segn indica la tabla siguiente:

El juego consiste en que cada jugador lanza su propio dado y


gana el que saca el nmero mayor. Si sale el mismo nmero, hay
empate, y se repite el juego.
Si se llama p(X, Y) a la probabilidad de que X gane a Y (siendo
X, Y= A, B, C), por simple recuento de casos posibles y favorables, se encuentran l as siguientes probabilidades:

12

p(A,B)

1 6/30,

p(B,A)

14/3 0,

p(C,A)

16/29

p(A,C)

13/29,

p (B,C)

16/30,

p(C,B)

14/30

de manera que
p(A,B) > p (B,A),

p (B, C) > p ( C, B)

y sin embargo

p(A,C) < p(C,A)

lo cual parece paradjico.

2
DEFINICION AXIOMATICA DE PROBABILIDAD Y PRIMERAS
CONSECUENCIAS

1, -AXIOMAS DE LA TEORIA DE LAS PROBABILIDADES


En los problemas de probabilidad que hemos visto en el captulo anterior se notan los s iguientes elementos: a) el conjunto de los
casos posibles; b) el co njunto d e los casos favorables; c) la probabilidad de cada caso favorable, que es un nmero real comprendido
entre O y l. Quere mo s ahora precisar las definiciones de estos
conjuntos y dar forma axiomtica a la t eora de l a probabilidad.
El conjunto de "casos posibles" puede ser cualquier conjunto
abstracto, con la condici6n de que sus elementos aparezcan corno
resultado de un experimento (lanzar un dado, sacar una bolilla de
una urna, elegir un nmero en una t abla, . ). En vez d e "conjunto de casos posibles" se ha introducido el nombre de "espacio
muestra!", c uya definici6n es la siguiente :

z.

De finici6n
l . Se llama espaaio muestral, asociado a un e xperimento, al conjunto de todos los resultados posibles de dicho
experimento.
En general repres enta remos por E a l os espacios muestrales,
Los experimentos q ue dan lugar a espacios muestrales se llaman

experimentos aleatorios.
Para que un conjunto de e l eme ntos sea un espaci omuestral debe haber, por tanto, un cierto proceso c uyos resultados sean, precisamente, los elementos del c o njunto.
Ejemplo l. Los nmeros l, 2, 3, 4, S, 6 constituyen el espacio
mue s tra! del experimento aleatorio de "lanzar un dado" cuyas caras
es t n numeradas del J al 6.
Ejemplo 2. Las letras C y F constituyen el es p a cio muestra!
del experimento aleatorio de "lanzar una moneda", pr oceso cuyo
r esultado puede ser cara ( C ) o cruz {F) .

13

Ejemplo 3, Los pares (C, C), (C, F), (F, C), (F, F) constituyen
el espaciomuestral del proceso de "lanzar dos monedas simultneamente11.
Ejemplo 4, Los nmeros 3, 4, ... , 1 8 constituyen el espacio
muestral del experimento aleatorio de "lanzar 3 dados y sumar los
nmeros obtenidos".
Ejemplo 5. Si se tiene una urna con N botillas numeradas de
a N y se van sacando sucesivamente todas ellas, anotando ordenadamente los nmeros que van saliendo; entonces las N ! permutaciones que se pueden formar con los nmeros 1 a N constituyen
el espacio muestral del experimento aleatorio de "s acar todas las
bolillas de la urna".
Ejemplo 6, Supongamos un punto que se mueve sobre una circunferencia y que puede dete nerse en cualquier punto de l a misma;
los puntos de la circunferencia constituyen un espacio muestral,
en este caso constituido por infinitos elementos.

14

Precisemos ahora la definici6n de los conjuntos de casos favorables. Desde luego stos deben ser subconjuntos de E. Cuando
E es finito, no hay inconveniente en considerar como posibles
conjuntos favorables a todos lo s subconjuntos de E. Pero cuando
E es infinito, la consideraci6n de " todos" los subconjuntos de E
puede presentar dificultades.
Por otra parte, no es necesario
considerar todos los subconjuntos del espacio muestra! para poder
construir la idea de probabilidad de acuerdo con lo s ejemp lo s del
capitulo anterior. Lo importante es que si A y B representan
conjuntos de casos favorables de ciertas proposiciones, la uni6n
A U B debe ser tambin un conjunto de casos favorables, precisamente el correspondiente a la proposici6n "A o B" . Tambin el
conjunto complementario A = E - A debe figurar en la clase de
conjuntos de c asos favorables , puesto que corresponde a la proposicin 11 no se cumple A 11
Dentro d e la matemtica hay precisamente una estructur a especial para clases de subco njuntos de un conjunto, llamada o - lge bra (o lgebl'a de Bol'el o 11tl'ibu") que cumple dichas condiciones.
Su definici6n es la siguiente:

Definic6n Z. z. Una o - lgebra en un conjunto E es una clase


B de subconjuntos A 1 de E, tales que se cumplen las dos condiciones s i guientes:
i) Si A 1 , A 2 ,
ii) Si A E B,

E B,

entonces

entonces UA1 E B,

= E - A E B.

Como es bien sabido, U significa la unin de conjuntos, y l la


inte:rseccin de stos. Adems el conjunto vaco se representar
por</>.
Consecuencias.

De la deinici6n anterior se deduce:

u A E B;

a)

b)

</>

E E B;

c) Si A 1 , A 2 E B "' A. 1 , A. 2 E B "' 1 U A. 2
A 1 l A 2 E B "'
"' A 1 l A 2 E B. En general, si A 1 , A 2 , E B entonces la intersecci6n l A 1 E B.
Obsrvese, pues, que no ha sid o necesario postular que la
intersecci6n de conjuntos de una a-lgebra pertenece a la misma;
ello es una consecuencia de las propiedades i) y ii) de la definici6n.
A partir de esta definici6n, los clsicos casos favorables se
incluyen dentro de los llamados "sucesos", cuya definici6n es la
siguiente:
Definici6n z. 3. Los elementos de una a-lgebra B en un espacio muestra! E, se llaman sucesos. Los elementos de E se
llaman sucesos elementales.
Definicin Z.4. Se dic e que los sucesos A 1 ,A 2 , son incompatibles si no existe ningn elemento de E que p e rtenezca a dos o
ms de ellos, es decir, si A 1 l AJ = </> para todo par de ndices
i ,. j.
Ejemplo 1, Al lanzar un dado hemos visto que el espacio
muestral es E = (1,Z,3,4,5,6). Un suceso puede s e r el subconjunto (3,4) y co rresponde al hecho de salir "3 6 4", o sea a la
uni6n de lo s s ucesos e lementales (3J y (4). Otro suceso es
( 1, z, 5). Ambos sucesos son. incompatible s. En cambio no lo
son los sucesos (3, 4) y ( 1, 4, 6J pues ambos tie nen en comn el
elemento ( 4).
Ejemplo Z. En el espacio mue s tra! E = (3, 4, ... , 18} correspondiente al proceso de lanzar 3 dados y sumar los puntos
obtenidos, un suceso es (3, 5, 7, 11 , 13, 17), que corresponde a
la proposici6n "la suma es un nmero primo". Otro suceso es el
formado por los nmeros pares (4, 6, 8, 10, 12, 14, 16, 18}, y los
dos sucesos son incompatibles.

15

Tenemos ahora todos los elementos necesarios para poder dar


forma axiomtica al c onceptode probabilidad, tomando como modelo los ejemplos y definici6ndel captulo anterior, pero dndoles
forma abstracta, como corre s ponde a una teor{a matemtica.

Sea E un espacio muestra! y B una a-lgebra e n E.


se establece la definici6n siguiente.

Entonces

Definici6n 2. 5. Se llama p1'0babiZidad de un suceso A E B a un


nmero real P(A), que cumple los siguientes axiomas:
I.

P(A) ;, O

II.

Si A 1 , A 2 ,

son sucesos incompatibles , entonces

P(A 1 )
t

III.

16

P(E) =

l.

Obsrvese que el axioma II no es ms que el principio de las


probabilidades totales del captulo l (extendido a un nmero finito
o infinito de sucesos), teniendo e n cuenta que la uni6n de varios
conjuntos es el conjunto cuyos elementos pertenecen a uno o a otro
de los conjuntos.
Toda terna (E, B, P) qu e cumpla las condiciones anteriores,
se llama un espacio de pr>obabiiidad. Si e l es pacio muestra! es
finito, el espacio de probabilidad se llama tambin finito. Si E
es finito o infinito numerable, el espacio de probabilidad se llama

diser>eto.
Convenio. Hemos dado la definici6n general de probabilidad,
vlida para espacios muestrales E cualesquiera. Sinembargo, en
la presente monografa supondremos s iempre, por simplicidad, lo
siguiente:
a) Si E es finito o infinito numerable, la a - lgebra B ser
siempre el conjunto de todos los subconjuntos de E.
b) Si E es el conjunto de puntos de la recta (o del plano, o, en
general, de R") la a -lgeb ra B ser la constituida por todos los
conjuntos medibies d e E. En particular, en el caso de la recta,
B ser e l conjunto de todos los int e rvalos abiertos, m s los c onjuntos fo rmados por un solo punto y lo s conjuntos que pueda n formarse por la unin d e un nmero finito o de una infinidad numerable
de estos conjuntos. No se considerarn otros conjuntos ms generales.

De acuerdo con este convenio, en general en lo sucesivo no


har falta mencionar la a-lgebra B, sino tan s6lo E y P.
Ejemplo 1. Sea E = [a 1 , a 2 , , 1 a 6 } el espacio muestra! correspondiente al lanzamiento de un dado. Los elementos a, son
los nmeros 1, 2,.,., 6. La a-lgebra B de los sucesos est
constituida por todos los subconjuntos de E. Podemos definir
P(a 1 )
1/ 6, para todo -, lo cual equivale a suponer que el dado
es perfecto; si no fuera un cubo exacto o no estuviera construido
de material homogneo, la probabilidad de cada cara podra cambiar, Segn el axioma ll, si i, i' j, ser P(a 1 U aJ) = probabilidad
de que salga el nmero i o el j = P(a) + P(aJ) = Z/6 = 1/3. Anlogamente, por el axioma ll, si t,j,k son diferentes, es P(a 1 U
U aJ U a.)= P(a 1 ) + P(aJ) + P(a.) = 1/2. Obsrvese que P([a 3,a4 } U
U [a 1 , a 4 , a 6 }) no es la suma de las probabilidades de los sucesos
(a3, a 4 } y (a 1 , a 4 , a 6 }, puesto que no son incompatibles I por tener
en comn el elemento a 4

Ejemplo 2, Para el lector familiarizado con l a noci6n de medida de conjuntos sobre la recta real (lo que no har falta en lo
sucesivo, pues nos limitaremos a conjuntos formados por la uni6n
de segmentos disjuntos y entonces la medida es la suma de las longitudes de los mismos), podemos decir gue, dado el segmento (a, b),a <
<by la a-lgebra de los subconjuntos medibles del mismo, para cada
uno de estos subconjuntos, por ejemplo a., se puede definir P(a.) =
= (a.)/(b-a), donde ( a.) es la medida de a.. Evidentemente, esta
definici6n de probabilidad es admisible, por cumplirse los axiomas
I, II, III. Vemos as l a v inc ulaci6n estrecha entr e la noci6n d e
probabilidad y la de medida. Como b-a = ((a, b)), la probabilidad aparece como cociente de medidas. Para conjuntos de puntos
del plano, del espacio o de R" puede establecerse la misma definici6n.

2.

CONSECUENCIAS DE LOS AXIOMAS

A partir de los axiomas que definen l a probabilidad y m ediante


la aplicaci6n de simples r e laciones de l a teora de conjuntos, se
pueden deducir las siguientes consec uencias:
l. P(91) = O. En efecto, aplicando el axioma II a los conjuntos 91 y E, resulta P(91 U E) = P(91) + P(E). Pero 91 U E = E y
P(E)
1 (axioma III), Por tanto, queda l = P(91) + l, de donde
P(91)
O.

2.

Llamando

A =

E - A = suceso opuesto a l A, es

P(A) =

l - P(A).

[2. 1]

17

En efecto, aplicando el axioma Il a A U = E, se tiene P(A)


+ P(A) = P(E), y por el axioma III , resulta [2. 1].

En efecto, es A 2 = A 1 U (A 2 n 1), y por los axiomas Il y I,


resulta P(A 2 ) = P(A1) + P (A 2 l A) .e P(A1).
4. Cualquie ra que sea A es P(A) s l.
A e E y de la c on secu e ncia anterior.
5.

Si A

yB

C onse c uencia de ser

son sucesos c ompatibles, o sea A

nB

c f.

(/> ,

entonces

P(A U B) = P(A ) + P(B) - P(A l B).


Demostraci6n.

[2. 2]

Observe mos las identidades


A = (A

n B) u (A n B),

B = (A

n B) u (A n B)

de las cuales , por el axioma II, se deduce


P(A)

P(A l B) + P(A l

B),

P(B)

P(A l B) + P(A l B).

[2. 3]

18
Por otra parte, la identidad
A UB =

(A l B) U (AlB) U (AlB)

n os d a
P(A

u B)

P(A

n B) + P(A n B) +

P(

n B)

[2. 4 ]

y de [2. 3] y [2. 4] r e sulta inmediatamente la r e laci6n [2. 2] que


se quera d e mostra r.
E sta r e l aci6n se p u e d e g ene r a liza r .
A 2 U Aa. Re s ulta

Pongam o s A = A 1, B =

P (A1 U A 2 U Aa) = P (A1) + P(A 2 U Aa) - P(A1 l (A 2 U Aa)) =


P(A1) + P(A 2 ) + P(Aa) - P (A 2 lAa) - P((A l A2) U (A1 l Aa)) =
P (A 1 ) + P(A 2) + P(Aa) - P(A1 lA2) - P(A1 l Aa) - P(A2 l Aa) +
+ P(A1 l A2 l Aa).
En gene r a l, por indu c ci6 n, re s ulta la f6rmula
P (A 1 U A 2 U . U A,. )

I P( A d - P (A1 n A
1

1 ,j , k

P (A1 l AJ l Aic) -

t,J

3)

[ 2. 5 ]

donde las sumas se extienden en cada caso a todas las combinaciones posibles entre los diferentes ndices t, j, k,
3,

LA DEFINICION CLASICA

Veamos cmo los axiomas I, II, III y sus consecuencias se


relacionan con la definici6n clsica de La place dada en el captulo l.
Supongamos que el espacio muestral se compone de un nmero
finito de sucesos A 1 , A 2, . , . , A., o sea, E = A 1 U A 2 U U An,
que sean incompatibles entre s, o se a, A 1 l AJ = r/J para todo
l f J, Entonces, segn los axiomas II y III,

[Z. 6]

l.

Si suponemos, adems, que todos los sucesos A 1 tienen la


misma probabilidad (que es lo que quiere decir la frase "igualmente
posibles" de la definici6n de Laplace), tenemos P(A 1 ) = P(A:a) =
= P(A. ) y, por tanto, segn [Z. 6] ser P(Ad = 1/n. Sea
ahora un suceso A formado por la uni6n de m sucesos A 1 , o sea,
A = A 11 U A 12 U U A,.. La probabilidad de A ser
P(A) =

m P(A)

m/n.

19

Se tiene as el resultado coincidente con la definici6n clsica.

4.

PROBABILIDAD CONDICIONAL

Queremos ahora incluir en el esquema axiomtico el principio


de las probabilidades compuestas mencionadas en el captulo l.
All nos referamos a sucesos "independientes", aunque quedaba
un poco impreciso el significado de estas palabras, advirtiendo
que la f6rmula [ l. 2] perda su validez si los sucesos no eran independientes. Vamos a ver ahora c 6mo se pueden tratar estas
id eas d e ntro de la teora axiomtica.
Sea (E, B, P) un espacio de probabilida d c ompuesto del espacio muestral E, la a-lgebra By la probabilidad P. Sea A E B un
suceso tal que P(A) ;t O.
Definici6n Z.S. Se llama probabiZidad condicional de un suceso B E B, dado el suceso A E B, y se repres ent a por P (B A), al
cociente

P(BIA)

P(A lB)
P(A)

[Z , 7]

Hay que demostrar que esta definici6n es admisible, es decir,


que la probabilidad condicional P,(B)
P(B I A), definida para
todo B E B, una vez fijado A E B, cumple con los axiomas I, II y
III de toda probabilidad. En otras palabras, hay que probar que
(E, B, P , ) es otro espacio de probabilidad.

El axioma I dice que deb e ser P(B I A) ;, O, lo cual es inmediato


por ser P(B n A) ;, O y P(A) > O. El axioma 11 se cumple por ser
p (U B ) =
A

P(A

lP(A l B 1 )
I

P(A)

n (U B))
P(A)

P(B,

IAJ

para toda sucesin B 1 , B 2 ,

P(U (A l B))
P(A)
lP,(B),
1

de sucesos incompatibles.

El axioma III s e cumpl e por ser


P (A l E)
P(A)

P,(E)

20

P (A)
P(A)

Por tanto la definici6n 2. 5 es admisible.


puede escribir
P(A

n B)

1.
A partir de ella se

P(A) P(B IAJ.

A nlogam e nte, fi jadoelsucesoBy supuesto P(B)


la probabilidad condiciona l
P(Aj B) =

to,

P(B l A)
P(B) .

se t iene

[2.8]

Obsrvese que la ecuaci6n [ 2. 6] no se demuestra ni es ningn


axioma: es una definici6n, y se complementa con la siguiente
definicin.
Definicin 2. 6.
se verifica que
P(BIA)

Se dice que dos sucesos son independientes si

[2.9]

P(B).

Obsrve se que en este caso , segn [2, 7], es


P( A l B) = P(A) P(B)

(A y B independientes)

[2 .10]

y por tanto, c ompara ndo con [2. 9], es tambin

P(Ai B) = P(,A).

[ 2, 11]

Esto nos dice que la independencia es una propiedad simtrica,


que puede definirse por cualquiera de las igualdades [2. 9]

[2. 11].
Puesto que el hecho de que un elemento pertenezca a la interseccin A n B significa que a la vez pertenece a A "y" a B, la
relacin [2.10 ] equivale ala [l. 2] (principio de las probabilidades
compuestas). Ntese, sin embargo, que si bien las definiciones
2. 5 y 2. 6 tienen su origen en la idea intuitiva de sucesos independie ntes, al ser ahora establecidas como definiciones desaparece toda posible ambigedad, y adquieren un sentido bien preciso.
La definicin de independencia se generaliza a
sucesos de la manera siguiente:
Definicin 2. 7.

ms

de dos

Se dice que varios sucesos A 1 , A 2 , , A. son


independientes) si se verifica

independientes (o aompZetamente

[2. l 2]
para k = 2, 3, .. , n, donde (t 1, t 2, ... , tk)
cualquiera de los n nmeros 1, 2, .. , n.

es una combinacin

Por ejemplo, para que 3 sucesos A, B, C sean independientes,


se debe c umplir

P(A

P(A lB)

P(A) P(B),

P(A l C)

P(A) P{C),

P(B l C)

P(B) P(C),

n B n C)

P(A) P(B) P(C).

Obsrvese que la ltima relacin no puede deducirse de l as


tres primeras, es decir, l as cuatro condiciones son necesarias.
Naturalmente, no hay que confundir la independencia con la
incompatibilidad.
Segn las definiciones 2. 4 y 2. 6 se tiene:
Dos sucesos A y B son independientes si se verifica
P(A l B)

y son

inaompatibZes si A l B

P(A) P(B)

r/J.

[2.1 3 ]

21

5,

EJEMPLOS

Vamos a resolver algunos problemas clsicos que resultan de


la aplicaci6n directa de la definici6n de probabilidad y de sus primeras propiedades, Son problemas del mismo tipo que los estudiados en el captulo 1, pero ahora se pueden puntualizar ms las
etapas de la soluci6n, Son problemas ms bien de inters hist6rico,
pero que tienen importancia por ser representativos de un amplio
campo de problemas anlogos,
Problema 2, l. Se tiran doe dadoe at azar y se quiere hattar
Za probabilidad de que Za sumade Zoepuntoe obtenidoseea iguaZaIO.

22

Solucin. El espacio muestra! es el conjunto de los 36 pares


ordenados (l, J), donde l puede tomar los valores I, 2, ... , 6 del
primer dado y j los valores 1, 2, ... , 6 del segundo. Siempre que
se trate de un problema con dados y no se indique lo contrario, se
supone que el dado es correcto y por tanto la probabilidad de que salga cada cara es la misma. En con secuencia, la probabilidad de
cada par (l ,J) ser tambin la misma, cualquiera que sea el par,
ysegnelNo. 3, esta probabilidad ser 1/36, puesto que hay 36
casos posibles y la suma de las probabilidades debe ser l. El
problema consiste en hallar la probabilidad del suc es o A= [ (l, J);l +
+j
10}, o sea, laprobabilidaddelsuceso formado por los pares
(4,6), (5,5), (6,4). Tratndose de 3 par e s , todos con la misma
probabilidad, por el axioma II, ser P(A) = 3 /36 = 1/12.

Problema 2. 2. (P roblema de las coincidencias). Se tienen


doe urnae aon n bolittae aada una, numeradae de 1 a n. Se
va eaaando eimuZtneamente 1 boZiZZa de aada urna, y ee quiere
haltar Za probabilidad de que, aZ terminar Za e:r:traaain de todae
Zas boZittae, ee haya extra{do, por Zo menos una vez, el miemo nmero de aada urna.
Solucin. El espacio muestra! E
matrices de la forma

est formado por todas l as

[2. 14]
donde l 1 , l 2 , ln son los nmeros entre l y n que salen de la primer a urna, y J 1 ,J 2 , ,J. son los que salen de la segunda. El
nmero total de elementos d e E es (n!)2 (casos posibles) y la probabilidad de cada uno ser (n ! -. Sea A 1 e l conjunto de elementos
de E, e n los c u a les el nmero l de la primera fila coincide con e l
nmero j = t de la segunda, independientemente del lugar en que

ocurra la coincidencia.
matrices de la forma

A:, es el conjunto de las

Por ejemplo,

3 \

3 .)
Se trata de calcular P(A1 U A 2 U .. U A,). Para ello se aplica
la f6rmula[2. 5], quereduceelproblemaalclculo de las probabilidades del segundo miembro. Vamos a buscar el valor de cada
sumando:
a) Probabilidad P(Ai). El nmero de elementos [z. 14) en que
coinciden los nmeros t, se calcula de la siguiente manera. Fijado el lugar en que ocurre la coincidencia, los restantes n - l
nmeros de la primera y de la segunda filas pueden ser cualesquiera, y por tanto se tienen {(n - 1) !) 2 casos. Como el lugar de la
coincidencia puede ser tambin c ualquiera, se tienen, en cada
caso, n posibilidades ms. Por tanto, A 1 est compuesto de
n{{n-1)!) 2 elementos [2.1 4], y en c onsecuencia

P(Ai)

n{{n-1)!) 2
(n!)
- "n'

l.

lP{A 1 )

b) Probabilidad P(A 1 n AJ). Fijados los lugares en que ocurren


las coincidencias de los nmeros t y J, los n - 2 nmeros restantes pueden ser cualesquiera; por tanto quedan {(n - 2) !) 2 casos.
Como los lugares de las c oincidencias pueden ser c ualesquiera d e
los n., resultan, para cad a caso, n.{n. - 1) posibilidades ms ; en
total, A 1 l AJ est compuesto de ({n. - 2) !) 2 n.{n.- !) casos y por tanto

n. (n -

I ) ( {n - 2) !) 2
(n !)

n.{n-1)

P{A1 l AJ)
1, J

..!.. .
2

c) Anlogamente,
P(A,

n AJ

l Ak) = ((n.- 3 ) ! )2n(n - l)(n - Z)


{n!)2

y por tanto

1,.1,1c:

P(A,

n AJ n A.)

n(n - 1 ){n - 2 )

23

Se tiene as como resultado final (procediendo sucesivamente)


que la probabilidad de por lo menos una coincidencia es
p

[2.15]

Paran.~"', P = 1 - e - 1 = O, 6321. . (Vase el Apndice II).


Es curioso que para valores relativamente pequeos de n. se obtienen ya valores muy pr6ximos a este valor lmite. As, se tiene
P(2)

P( 1)

1,

P(5)

O, 6333 . ,

O, 5,

P(6)

P(3)

O, 666 .. ,

O, 6319 .. ,

P(7)

P(4)

O, 625,

= o, 6321 .

y para valores mayores de 7, quedan invariables las cuatro primeras cifras decimales.
Este problema se encuentra por primera vez en el libro de
P. R. Mootmort, titulado Essai d Analyse sur les jeu:r: de Hasard,
publicado e n 1708, y presenta muchas variantes. Por ej e mplo:

24

a) Dos .jugadores tienen una baraja de 40 cartas cada uno y van


sacando simultneamente Zas cartas una a una. Cul es Za probabilidad de que, al terminar Zas cartas, los dos jugadores hayan sacado Za misma carta por Zo menos una vez ?

Evidenteme nte , la probabilidad es la misma de antes P(40) =


Ello quiere decir que repitiendo el experimento un
gran nmero de vec es , por trmino m edio habr coincidencia 6
veces de cada 10. En cuanto sea n. > 2, es ms probable de que
haya coincidencia de que no la haya.
O, 632 1. .

b) Se tiene un cierto nmero de cartas y sus correspondientes


sobres. Se mezclan unas y otros, y se va metiendo una carta
cualquiera dentro de cada sobre. Cul es Za probabilidad de que
una carta por Zo menos se haya metido en su correspondiente sobre ? El resulta do e s t dado s iempre por la f6rmula [2. 15] y,

como vimos, da siempre prcticamente el mismo valor O, 6 3 en


cuanto sea n.=> 5.
Problema 2. 3. (Problema de los nacimientos).
En una reunin de r personas, cul es Za probabilidad de que, por Zo menos
dos de ellas, aum,Zan aos el mismo d{a ?
Soluci6n. Pr esc indimos de la po s ibilidad de que alguien h aya
n aci do e l 29 de febr e ro y por tanto supone mos que e l ailo ti e ne 365
das. El espacio mue stra! se compone de los posibles conjuntos

de r fechas y tiene por tanto 365' elementos, todos con la misma


probabilidad 365-'. En vez del suceso cuya probabilidad se busca,
consideremos el opuesto: el de que ningn par de personas cumpla
at\os el mismo d{a. El nmero de elementos de este suceso se
calcula as{: la primera persona tiene 365 posibilidades; la segunda, no habiendo nacido el mismo d{a que la primera, tiene 364
posibilidades; la tercera persona tiene 363 posibilidades y as sucesivamente, la ltima persona tiene 365 - (r - l) posibilidades.
En total, el suceso opuesto consta de 365. 364. 363 .. (365 - (r - 1))
elementos. Su probabilidad es igual a este nmero dividido por
36sr, y la probabilidad del s u cesoobjetodel problema ser (suponiendo r > 1)
1 _ 365. 364... (365 - r + 1)
365'
Este nmero no es fcil de calcular directamente.
guientes valores dan una idea de su comportamiento:
No. de personas
Probabilidad

r
P, =

10

20

23

O, 027 O, 117 0,411 O, 507

30

o, 706

Los si-

40

60

O, 89 O, 99.

Se ha set\alado el nmero r = 23, pues en tal caso la probabilidad es prcticamente 1/2. Obsrvese que si las personas son
60 o ms, la probabilidad es superior al 99%, es decir hay
casi certe z a de que por lo menos dos personas cumplan aos
el mismo dfa, resultado un tanto sorprendente a primer a
vista.

Problema 2.. 4. (Esquema de contagio de Polya).


Supongamos
una urna con n boUZZ.as negras y r rojas. Se saca una bolilla y
se devuelve a Za urna junto con otras e boZiZZas deZ mismo color.
Se desea haUar Za probabilidad de que en N = k 1 + k 2 extracciones
salgan k 1 boUZZas negras y k 2 boUUas rojas.
Soluci6n. Consideremos primero la probabilidad de que las bolillas neg ras salgan justo e n las k 1 primeras extr acciones . La pro babilidad de bolilla negra en la primera extracci6n es n/ (n + r ) y la
probabilidad de que sea negra en la segunda extracci6n, condicionada
a que haya sido negra la primera, es (n + e)/ (n + r +e). Por tanto, segn [2. 7] la probabilidad de dos negras sucesivas es

n +e
n+r+c
Si las dos primeras han salido ne gras, en e l m omento de hace r
l a tercera extracci6n la urna c ontiene n + 2c bolillas n e gr a s y r

25

rojas, luego la probabilidad de que la tercera sea tambin negra


es (n + 2c)/(n + r + 2c), y por tanto la probabilidad de que las tres
primeras sean negras es
__n__ .

n+c

n+r

n+r+c

n + 2c
n +r+Zc

Prosiguiendo este razonamiento se llega a la extraccin k 1 sima, con la probabilidad

n
n+r

n +e
+

-t-

n + (1<1
e

n -t- r + ( K 1

1 )e
- 1 e

de que todas las bolillas hayan salido negras. La probabilidad de


que la siguiente sea roja es r / (n + r + k 1c), Se ailaden luego e bolillas rojas, con lo cual l a probabilidad de una nueva extraccin
roja es (r + c)/(n + r + (k1 + l)c). Procediendo sucesivamente result a que l a probabilidad de que l as k 1 primeras extracciones sean
ne g ras y la s k 2 siguientes sean rojas es

n(n +e) . (n + (k1 - l)c) r (r +e) . (r + (r + (ka- l)cJ


(n + r)(n + r + e ) . . (n + r + (N - l)c)

26

donde N = k 1

+ ka .

Si se da otro orden cualquiera en que salgan k 1 bolillas negras


y k 2 rojas, la probabilidad es siempre l a misma (como se ve de
inmediato por el mi smo c lculo a nterior ). Por tanto, la probabilidad buscada de que salgan exactamente k, bolillas negras y ka
rojas, independientemente del orden, ser igual a la probabilidad
anterior multiplicada por el nmero de combinaciones de k 1 (o k 2 )
objetos tomados entre N de ellos. En definitiva, el resultado es

_ (N\n(n +e) . (n + (k 1 -l)c) r (r +e) . (r + (k2


k 1)
(n + r)(n+r+c) (n + r + (N - l)c )

l)c)

Problema 2, 5, Se tiene un aonjunto formado por m objetos de


una misma olase M y por r objetos de una misma dase R. Se eligen al azar s objetos. Se busoa Za probabilidad de que entre ellos
haya x de Za olase M y s - x de Za alase R.
Solucin, Es un problematpico de combinatoria. El espacio
E es el conjunto de las combinacione s d es objetos entrem + r = n
objetos dados. Su nmero es ( ~ ) y cada uno de estos sucesos e le mental es tiene l a misma probabilidad (

Se trata de h a llar

la probabilidad del subconjunto A, cuyos elementos consten de X

objetos de la clase My s -X dela clase R. Las posibles combinaciones de X objetos de la clase M son
y las posibles combina-

(1)

ciones des - x objetos de la c lase R son ~'::.

de elementos de A es(~)~

.'."0,

por tanto ,

el nmero

y la probabilidad buscada

Por ejemplo, si de una clase de 30 alumnos, compuesta de 20


varones y 10 mujeres, se eligen 5 alumnos al azar, cules la
probabilidad de que entre ellos haya exactamente 2 mujeres?
Aplicando la frmula ltima donde m =
x=3resulta: P = 2850/7917 = 0,36 ...

20,

r = 10, s = 5

Problema 2. 6. Se desea halZar: a) la probabilidad de sacar


por lo menos una vez el 6 al arrojar un dado 4 veces; b) la probabilidad de sacar dos 6 por lo menos una vez al umzar dos dados 24
veces.
Soluci6n. a) La probabilidad de no sacar el 6 en una jugada
es 5/6 y la de no sacarlo vez alguna en 4 jugadas ser (5/6)4,
puesto que cada jugada es independiente de las dems. Por tanto
la probabilidad buscada e s P 1 = 1- (5/6)4 = 671/1296 = O, 517 ..
b) La probabilidad de no sacar e l 6 dos veces en una jugada e s
35/36, y la de no sacarlo vez a l g una en 24 jugadas ser (35/3 6 )24
Luego la probabilidad de sacar el 6 dos veces por lo menos una
vez ser
P

1 - (35/ 36)"" = 0,49.,.

El problema tiene inters histrico, y se conside r a como uno


de los que dieron o rigen a l clculo de probabilidades. Segn
figura en las Oeuvres de F ermat, pgina 296 (Carta de B .
Pascal a P. de Fermat , del 29 de julio de 1654), e l problema fue
propuesto a Pascal por un tal Caballero de Mer, quien no se explicaba que, en el caso a), la probabilidad fuera mayor que 1/2 y
en el caso b) fuera menor que 1/2, siendo asi' que 4 es a 6 (razn
del nmero de tiradas al nmero de posibilidades en el primer
caso) como 24 es a 36 (razn del nmero de tiradas al nmero de
posibilidades en el segundo caso ). Lo curioso e s que el Caballe ro
de Mer lleg;;<ba a esta con clusin , para l paradjica, por experiencia d e juga dor, a pesar de ser los resultados muy prximos a

27

1/2. Esto prueba tanto la precisi6n a que se puede llegar sin


clculo, con un fino espfritu de observaci6n, como la extrema
coincidencia de la probabilidad calculada a p:rio:ri con la frecuencia
obtenida mediante repetidos easayo.5.

Problema 2. 7. Si se lanzan 3 dados al azar, mil es Za probabilidad de que la suma de los nme:ros obtenidos sea, :respectivamente, 9, 10, 11 12?
Solucin.

El espacio muestra! est formado por las ternas


Como todas ellas tienen igual probabilidad, resulta que sta es (1/6) 3 = 1/216. Consideremos el suceso A,. formado por las ternas tales que i, + j + k = 9. Las
ternas que lo constituyen son

( i, j, k) con 1 s i, j, k s 6.

(1,2,6), (2,6,1), (6,1 ,2 ), (2,1,6), (1,6,2), (6,2,1),


(1,3,5), (3,5, 1), (1,5,3), (5, 1,3), (5,3, 1), (3, 1,5),
(1,4,4), (4, 1,4), (4,4, 1), (2,2,5), (2,5,2), (5,2,2),
(2,3,4), (3,4,2), (4,2,3), (2,4,3), (4,3,2), (3,2,4),(3,3,3).

Tenemos, en total, 25 ternas .

28

Por tanto

25
P(A;,) = 26 = O, 1157.,,

De modo anlogo, formando directamente las ternas, cuya suma e s 10, 11 12 resulta
P(A1o) =

P(A11 )

i{
6

o,

P(A;,)

125 ... ,

25
2l6

= 0,1157,

Tambin este problema tiene inte rs histrico.

Figura en

Le Ope:re di Galileo GaliZei, vol. XIV, Firenze 1855, bajo e l ttulo


Considerozione aop:ra il giuoco dei dadi, y fue propuesto a Galileo
( 1564-1642) por un jugador que se extraaba de que la probabilidad
fuera distinta, siendo as{ que los cuatro nmeros 9, 10, 11 y 12 admiten el mismo nmero de descomposiciones en tres sumandos,
a saber:

1 +2 +6

1 +3 +5

1+4 +4

2 +2 +5

2 +3 +4

3 +3 +3,

2 +4 +4

3+3+4 ,

10

1 +3 +6

1 +4 +5

2 +2 +6

2+3+5

11

1 +4 +6

1+ 5+5

2 +3 +6

2+4+5

3+4+4,

12

1 + 5 +6

2+4+6

2 +5 +5

3 +3 + 6

4+4 +4.

La explicaci6n est, como .hemos visto, en que las descomposiciones no tienen la misma probabilidad, puesto que por permutaci6n de los sumandos pueden provenir de ternas diferentes.
Problema 2.. 8. Una Zoter{a tiene N nmeroe y un solo premio.
Un jugador compra n billetes de un eoZo sorteo y otro jugador compra un solo billete durante n sorteos conseautivoe, de manera que
los dos jugadores apuestan Za misma cantidad. Cul tiene mayor
probabilidad de sacar eZ premio?
Soluci6n.
de la lotera.

Elespaciomuestralestformadopor los N nmeros


Al decir que se tratadeunalotera, se sobrentiende

que todos los nmeros tienen la ntlsma probabilidad de ser pre-

miados, y por tanto esta probabilidad es 1/N. El primer jugador,


al comprar n nmeros, tendr una probabilidad de ganar el premio
igual a P 1 = n/N. En el caso del segundo jugador se razona de
la siguiente manera. La probabilidad de no sacar e l pr emio en e l
primer sorteo es (N - 1)/N; la probabilidad de no sacar e l premio
ni en el primero ni en e l segundo sorteo ser ((N - 1)/N) 2 , y la
probabilidad de no sacar ninguna vez el premio en n jugadas ser
((N - 1)/N)". Por tanto, la probabilidad de sacar el premio por lo
menos una vez ser

29
Obsrvese a.hora que para todo par de ente r os N,m > 2, es

Escribiendo esta desigualdad para m


mando miembro a miembro, resulta

n,n-1, . .. ,3,2 y su-

d e lo cual se ded uce P 2 < P 1 , es decir, el primer juga dor tiene una
probabilidad mayor de sacar el premio. E l resultado es natural.
En efect o, el primer juga dor s6lo puede sacar e l pr emio una sol a
vez, en tanto que el segundo, exponiendo el mismo dinero , tiene
la posibilidad de ganarlo varias veces. Es natural, por tanto, que
la probabilidad de sacarlo "por lo menos una ve z " sea menor para
este ltimo que para el primero.
Problema 2. 9, Un tirador tiene Za probabilidad p de dar en el
blanco. Se Ze ofrecen dos alternativas: a) Hacer un solo disparo;
b) lulcer 3 disparos eon Za condicin de dar por Zo menos 2 veces
en e Z blanco. CuZ alternativa es ms favorable aZ tirador ?

Solucin. La probabilidad de dar 2 veces en el blanco en 3


disparos es 3P 2 ( l -P), puesto quep( l -P) es la probabilidad de dar
en el blanco 2 veces especificadas y errar la tercera. La probabilidad de dar las 3 veces en el blanco es p 3 , Por tanto, la probabilidad de dar por lo menos 2 veces en el blanco en 3 disparos es
p 3 + 3P2 (1 -P), Para que la segundaalternativa sea ms ventajosa
que la primera debe ser, por tanto, p 3 + 3P2 (1- P ) > P, o sea,
2p 2 - 3P + 1 < o, de donde 1/ 2 < P < l. Por tanto, si p > 1/2, es
ventajosa la segunda alternativa, pero si p < 1/2 es prefe rible l a
primera. Si p = 1/2 las dos alternativas son equivalentes
Problema 2. 1 O. Se lanzan simultneamente al azar 5 dado e cul
ee Za probabilidad de que salgan los nineros 1,2,3,4,5?

30

Solucin. Si se especificara cul de los dados debe dar el nmero 1, c ul el nmero 2, etctera, la probabilidad ser{a el
producto de las proba bilidades respectivas,ose;,, (1/ 6) 6 = 1/7776.
Pero como el dado que sale 1 puede ser cualquiera (5 posibilidade s ), el que sale 2 pue de ser cualquiera de los 4 restantes (4 posibilidades), el que sale 3, cualquiera de los 3 restantes (3 posibilidades), etctera, resulta que hay 5 ,4,3 ,2= 120 posibilidades
ms, y por tanto la prob<>bilidad buscada es 120/ 7776 = 5/324 =
o, 015.
Otros Problemas. Damos a continuacin otros ejemplos simples de problemas, de los que se indica nicamente la solucin.
l. Se lanzan 2 dados, hllese Za probabilidad de que Za diferencia entre eZ mayor y el menor de loe nmeros respectivos sea
2:

3.

Solucin.

Por cmputo directo resulta P

12/36 = 1/3.

2. Se lanzan 2 dados, hllese la probabilidad de que la suma


de los nmeros obtenidoe sea 7 10.
Solucin, En e l problema 2, I se vio que P(lO) = 1/ 12.
c lculo directo resulta anlogamente P(7) = 6/36 = 1/ 6,
tanto, la probabilidad pedida es P
1/12 + 1/6 = 1/ 4.

Por
Por

3. Se lanzan 2 dados, hllese la probabilidad de que la suma


de los nmeroe que ealgan sea igual a 7 y, al miemo tiempo, la diferencia entre el mayor y el menor eea igual a l.
Solucin. Si A e s e l suceso "sacar la suma 7" y B el suceso
"difere n cia igual a l" es P(A) = 1/6 (problema a nterior) y por
calculo directo r es ulta P (B IAJ = 1/ 3. Por tanto, P(A n B) =

P(A) P(BIA) = (I/6)(1/3) = I/18. Obsrvese que el hecho de


que P(B IA) t- P(B) prueba que los sucesos A y B no son independientes.

4. Se lanza un da.do rojo y otro bZanao, hllese Za probabilidad


de que el nmero del rojo sea mayor que el del blanco.
Solucin. Contando los sucesos elementales que cumplen con el
enunciado y el total de sucesos elementales resulta P = 15/36.

5. Una urna contiene 4 boZiZZas blancas yB rojas y se sacan


dos boZiZZas sucesivcunente, sin reposicin de Za primera sacada.
Hllese: a) Za probabilidad de que Zas dos boliZlas sean blancas;
b) Za probabilidad de que una sea blanca y la otra roja.
Solucin.

que

a) P,

= 1/ 11;

b) P, = 16/33.

6. Se lanzan al a2ar n, monedas, hllese Za probabilidad de


por lo menos n - 1 de ellas salgan cara o salgan crua.

Solucin. La probabilidad de que n salgan cara es (I/2 y la


de que n- 1 salgan cara es n(l/2)". Luego la probabilidad de
por lo menos n - l salgan cara es la suma (n + l)/2. Anlogamente, la probabilidad de por lo menos salgan n, - l cruz es tambin
(n, + 1)/2". La probabilidad buscada es, por tanto, la suma de las
dos, o sea, (n + l)/2-1 Esto suponen,> 2. Para n = 2 la probabilidad es evidentemente i gual a l.

7. Tres cunigos han acordado, si Zas circunstancias se lo permiten, acudir a una determinada cita. La probabilidad de cada uno
de poder ir es P. Cul es Za probabilidad de que acudan dos amigos y falte el teraero?
Solucin.

= 3P2 ( 1 - p) .

B. La urna A contiene x boliZZas blancas e y boliUas negras.


La urna B contienex'bolillas blancas ey' boliZlas negras. Se saaa

una bolilla de cada urna, lcul es la probabilidad de que ambas boZi Uas sean de Z mismo color?
Solucin.

p = (xx' + yy' )/ (x + y) (x' + y').

9. En un tribunal
des respeativas de dar
"haUar l.a probabilidad
biendo que e Z mismo se

de tres personas A, By C, Zas probabi lidaun fallo justo son P,, Pa y Pe


Se desea
de que el fallo del tribunal sea justo, satoma por mayor{a de votos.

31

Solucin. P = P.Pa + P.Pc + PaP, - 2P,PaP,.


10.
Una determinada travesta puede hacerse con aviones bimotores o con auadrimotores.
Los bimotores pueden volar con un soZa motor y los auadrimotores slo con dos.
La probabilidad de que
u~ motor falle durante la traves{a es p. Cules aviones son los
mas seguros?

Solucin. La probabilidad de que un bimotor no termine la travesa es p 2 y la de que no termine la travesa un cuadrimotor,
p 4 + 4p 3 (1 - p). Por tanto, suponiendo p < 1, los bimotores son
ms seguros si p > 1/3, y son ms seguros los cuadrimotores en
caso contrario.
11, Un avin trimotor puede volar con slo el motor central o
bien con los dos motores laterales. En una detemiinada traves-a,
la probabilidad de fallar el motor central es Po y la de faZZar cada
uno de los motores laterales es Pi , Cul es la probabilidad de que
el avin no pueda temiinar la traves-a?

Solucin,

32

P = P 0 Pi(2 -A).

3
VARIABLES ALEATORIAS,
l,

FUNCIONES DE PROBABILIDAD

VARIABLES ALEATORIAS

Los elementos del espacio muestra! E, que hemos llamado sucesos elementales, son elementos abstractos y, en consecuencia,
tambin lo son los sucesos o elementos de la o-lgebra B definida
en E. La probabilidad P, por otra parte, es una funcin cuyo dominio es el conjunto de los sucesos y cuyo codominio es el intervalo [O, 1 J de los nmeros reales. Para poder aplicar el clculo
mate mtico, es conveniente que el dominio de la funcin P pertenez ca ta mbin al conjunto de lo s nmeros r eal es R, a fn de que P
sea una funcin de nmeros reales en nmeros reales.
Supongamos,por ejemplo, el experimento aleatorio de lanzar dos
monedas y ver si stas salen cara C o cruz F. El espacio muestral E es el conjunto de los 4 pares:
(C, C), (C, F), (F, C), (F, F).

[3. 1]

Si s lo interesa el nme ro de caras , de manera que los dos


pares intermedios puedan considerarse equivalentes, podemos introducir la funcin X: E - R definida por X = nmero de caras, o
sea,
X(C, C) = 2, X(C, F)

X(F, C)

1, X(F, F)

= O,

T e nemos as un nuev o c onjunto (2, 1, OJ, ahora formad o por


nme ros reales, a cada uno d e l o s cuales c o rre s ponde una probabilida d. A s
P(2)

P(C,C)

1/4, P(l)

P(C, F) + P(F, C)
P(F, F) = 1/4.

1/ 2, P(O)

Vemo s, pues , que la funcin X hace corresponder a cada elem e nto de E un nme r o re a l y que, adems , el c o njunto d e e lement o s d e E, cuya imagen es uno de estos nme r os reales, es un
e lemento d e B, o s ea, es u n s u c eso, y t ie ne, p o r tanto, una de termina da probabilidad.

33

Las funciones X: E - R que cumplen estas condiciones se llaman vaPiables aleatorias.


La palabra variable indica que la
funcin puede tomar diversos valores (en el ejemplo anterior
2, I, O) y la palabra aleato:ria indica que estos valores provienen de
un experimento leatorio (en el ejemplo anterior lanzar dos
monedas) y, por tanto, a cada uno de sus valores corresponde una determinada probabilidad.
En realidad sera ms
apropiado llamarlas funciones aleatorias, pero el uso ha sancionado la primera denominacin.
En este captulo 3 vamos a limitarnos a variables aleatorias
que pueden tomar nicamente un nmero finito de valores. Se llaman variables aleatorias finitas. Su definicin precisa es la siguiente:
Definici6n 3. l. Dado un espacio de probabilidad (E, B, P), se
llama v<U'iable aleatoria finita a toda funcin X: E - R que pueda
tomar nicamente u n nme ro finito d e valore s X = Xi, x 21 , x.,
c on la condicin de que , para cualquiera de ellos, por ejemplo
x,, el conjunto x-1(x1) sea un elemento de B.

34

Por cierto que si E es finito y aceptamos el convenio de la pgina 16, segn el cual Bes el conjunto de todos los subconjuntos
de E, la ltima condicin puede suprimirse, y variable aleatoria
finita es cualquier funcin X: E - R.
Puesto que el conjunto x-l(x 1) (elementos de E cuy a imagen por
X es el nmero x,) es un elemento de B, t e ndr u na cierta probabilidad, que se representa por
P(X-1 (x,)) = P(X = x,)

[3. 2]

f(x,)

y se establece la siguiente definicin.

Definici6n 3.2. La funcin f definida por [3.2] se llama la


funcin de probabilidad d e la variable a l e atoria X.
Se dice, abreviadamente, que f(x,) es la probabilidad de que la
variable aleatoria X tome el valor

x,

Sean Xp x 2 , , x. los valores de X y pongamos A 1 = x-l(x 1) =


{a E E;X(a) = x 1}. Segn [3. 2] y los axiomas d e la definicin de
probabilidad, ten dr e mos
n

I=

f(x,)
1

P(E)

l.

Por otra parte, dado que los valores de f son probabilidades,


es siempre f ;a, O. Las dos relaciones
[3. 3 J

se cumplen siempre para cualquier funci6n de probabilidad.


Supongamos que los valores de X estn o rdenado s x 1 <x 2 < ... <

< x.. Muchas veces interesa la probabilidad de que X torne un valor igual o meno1' que :,;1 Su valor ser
[3. 4]
lo cual da lugar a la siguiente definici6n.
Definici6n 3.2.

L a funci6n F definida por [3.4] se llama la

funoin de dist1'ibuoin de la variable aleatoria finita X.

= 1.

Obsrvese que F(x,)

Se lanzan 3 monedas.
nmero de oa1'as.

Ejemplo l.

to1'ia

X =

Soluci6n,

AnaZ{oese

'/.a Va1'iable alea-

El espacio muestra! consta de 8 e l ementos:


(C,

e, C),

(C, F, F),

(C,

e, F),

(F, C, F),

(C, F, C),

(F,

e, C)

(F, F, C), .(F, F, F)

cada uno de los c uales tiene la misma probabilidad 1/ 8. L os nmeros posibles de caras son x 1 = O, x 2 = 1, x 3 = 2, x 4 = 3.
Los
v alor es de la funcin de probabilidad y de la funcin de distribucin
estn dados en la siguiente tabl a:
X

1/8

3/8

3/8

1/8

1/8

1/2

7/8

Ob s rvese, como detalle que ser importante en el prximo


captulo, que lo s valores d e f estn dados por la frmula
f(x)

= (1)(1/2)3,

X=

0,1,2,3.

35

Ejemplo z.. Una urna contiene 12 boliZZas numeradas de I a 12.


Se saca una bolilla y se quiere analizar la variable aleatoria X=
= nwnero de divisores del nmero obtenido.
So1uc6n.

Se tiene:

No. sacado

1O

11

12

3' 2

De aqu se deduce

x-1 0)
x-1 (4)

(l},

x-1(2) =

[6, 8,101,

x-1(3)

( 2,3,5,7,11},

x- 1 (6 ) =

( 4, 9},

(12}

con lo cual se puede escribir la siguiente tabla:

36

1/12

5/ 12

1/ 6

1/4

1/ 12

1/12

1/ 2

2/3

11/12

Esto nos dice, por ejemplo, que la probabilidad de que un nmero elegido al azar entre I y 12 tenga 3 divisores es f(3) = 1/ 6,
y la pr obabilidad de que tenga menos d e 3 divisores e s F(2) = 1/ 2.

Ejemplo 3. Se lanzan 2 dados y sean i, J

tantes.

Estdiense las variables aleatorias


= m.c.d,(t ,J) = mximo aomn divisor de i,j.

los nmeros resulX


t + J, Y =

Soluci6n, La probabilidad de cada par ordenado es 1/36. Contando directamente en cada caso el nmero de pares que corres pande n a cada valo r d e X o de Y, resultan las siguientes tablas :
X

1/36 1/ 18 1/ 12

1/ 36 1/ 12

10

1/ 6

5/36

1/ 9

1/ 12

1/9 5/36

11

1/ 6 5/18 15/ 3 6 21/36 13/18 15/ 18 11/ 12 35/36

23/3 6

7/36

1/ 12

l /36

1/ 36

1/36

2 3/3 6

15/ 18

1/ 12

1 7/ 18

35/36

12

1/ 18 1/36
l

Estas tablas resuelven problemas del siguiente tipo: a) Lanzando dos dados al azar, la probabilidad de que la suma de los
puntos sea 7 es (7) = l/6, y la de que la suma de los puntos sea
,;;10, es F(lO) = 11/12; b) Dados al azar dos nmeros entre 1 y 6,
la probabilidad de que su m. c, d. sea menor que 5 vale F(4) = 1 7/ 18.
Ejemplo 4. Ejercicio. Se lanzan dos dados y sean l, J Zos nmeros obtenidos. Estdiese Za va:riabZe aleatoria X = ni>lero de
divisores de la SW71a l + j , y comprense Zos resultados con los
del ejemplo 2.

Z.

ESPERANZA MATEMATICA
Sea una variable aleatoria finita X que puede tomar los valores
, x. con las probabilidades f(x 1 ), f(x), .. , f(x.).

x 1, x 2 ,

Definici6n 3. 3. Se llama esperanza matemtica o valor medio de


la variable aleatoria X, a la expr esin
n

E(X)

=
1

Si

[3. 5]

X1f{;;,;).
1

f = constante, puesto que lf(x 1) = 1, debe ser f(x 1) = 1/n, y

la esperanza matemtica resulta E(X) = (1 / n.)

1,

o sea, es igual

a l a media a ritmtica de los val ores de X.


Ms generalmente, se establece la siguiente d efinici6n.
Definic i6n 3. 4. Se llama esperanza matemtica o valor medio de
una funcin G(X) de la variable aleatoria X, a la expresin
n

E(G(X)) =
!

G(,x)f(xl).

[ 3, 6 J

Ejemplo l. La esperanza matemtica de l a v ariable a le a t o ria


X = nmero que r esulta al lanzar un dado, ser
E(X) = 1(1 / 6) + 2(1/6) + 3(1 /6) + 4(1/6) + 5(1/6) + 6(1 / 6)

= 3, 5.

z.

Ejemplo
La esperanza matemtica de la suma d e los nmeros re sultantes al lanzar dos dados a la vez, se gn el ejemplo 3
d e la seccin 1 , ser

E (X) = (1/36)(2 +3.2 +4,3 +5 .4 +6 . 5 +7. 6 +8 . 5 +9 .4 +10. 3 +


+ 11.2+ 12) = 7.

37

Ejemplo 3. La esperanza matemtica del nmero de divisores


de un nmero elegido al azar e ntre l y 12, segn el ejemplo 2 de
la seccin 1, ser
E(X) = (1/12)(1 +2. 5 +3.2 +4.3 +6.1) = 2.91.

38

.MOMENTOS DE UNA VARIABLE ALEATORIA

L a esperanza matemtica de un a variable aleatoria es un dato


muy importante de l a misma, pero no dice nada acerca de la dis persin de sus valores alrededor de esta esperanza o valor medio.
Por ejemplo, si X representa el capital de una persona escogida al azar de un grupo de dos , tanto si la primera posee
$99,000 y la segunda $1.000, como si cadaunatiene $50,000, el
valor medio o esperanza matemtica tiene el mismo valor de
$50. 000, Igualmente, del hecho de saber que la talla media de un
conjunto de personas es 1, 67 m no se puede deducir si todas tienen
una altura aproximada a este valor medio o s i hay algunas muy altas
y otras muy bajas. Otro ejemplo tpico es el caso en que X repre senta el caudal de las aguas de un ro durante las 52 semanas del
ao. Del conocmiento de su valor medio no se puede deducir si
se trata de un ro de caudal aproximadamente constante durante
todo el ao, o bien de un ro muy caudaloso en invierno y casi seco en verano.
P or este m otivo s e h an introducido ms datos que, en cierta
manera, permiten medir es ta disper s in de l os valore s de X alr e dedor d e su valor medio E (X) . Estos datos sue l en ser l a espe ranza matemtica de ciertas funciones G(X). Por ejemplo, se
puede tomar G(X) = IX - E(X) 1 = valor absoluto de la diferencia
X - E(X). Evidentemente esta esperanza nos dar una idea de la
mayor o menor concentracin de los valor es de X en torno de E(X).
Sin embargo, como los valores absolutos son de incmodo manejo
matemticamente, se han preferido otras funciones . Las ms importantes son las potencias de X, que dan lug ar a l os llamados
m omentos, que pasamo s a definir.

Definicin 3. 5, Se llama momento de orden k de la variable


aleatoria finita X a la esperanza matemtica de X', o sea,
E(Xk)
1

En particular a 1
por l a ecuacin
k

= E (X).

L os

E((X- a 1)k)

t=

xtf (x,).

momentos centrados

!
1

[3. 7 J

=l

(x 1 - a 1 )kf(x 1),

se define n

[3 . 8]

Es particularmente importante elmomento centrado de se g undo orden, que da lugar a la s iguie nte d e fin ici6n.
Deinici6n 3. 6. Se llama varianza o variancia de una variable
aleato ria X al m omento centrado d e s e gundo orde n . S e r epre senta
por c,2 o por c,2 (X), o sea
n

Var(X)

0 2

o "(X)

E((X - a 1 ) 2 )

(x1 -a1 ) 2 f (x 1).

(3.9]

1= 1

Deinici6n 3. 7. El nme ro n o n egativ o o, r a z cuadrad a d e l a va rianza, se llama desviacin t{pica o desviacin "standard" de la
variable aleatoria X.
Se comprende que c,2 mida en cierta manera la s e p araci6n de
los valores de X de su valor medio a 1 En efecto, como cr2 es una
s uma de trminos p o sitivos, si o 2 es pequea, t odos ellos deben
s er pe q u e os y p o r tanto, o b i e n x 1 - a 1 es p e q u e o (para t od o x 1 ) o
bien e s peque a l a p r obabilidad f(x 1). Al contrar i o , si o 2 e s g r an d e, ello sign ifica que hay va lo r es d e X muy s epar ados d e su valor
medio . En resumen, la idea que se debe tener de cr2 es que si
tiene un valor pe q ue o se trata de una variable aleat oria X cuyo s
valores difieren poco de su valor medio y, si tiene un valor grande, significa que hay valore s d e X a lejado s de su v alor medi o .
L as s i g uientes r e l a cione s en las cuales a, b s on co ns tantes son
imp o r tantes y su d e m ostr aci6n, e n cada c aso, e s una consecue ncia i nmediata d e l a s definici ones a n t eri or es , por l o que nos limita mos a e nunciarlas :
E( a X + b )

a E(X ) + b

[3.10 ]

[3. 11]

E(X 2 )

(E(X) ) 2

cr2 (a X + b )

4,

[3. 12 J
[3. 13]

LA DESIGUALDAD DE TCHEBYCHEFF

Sea H(X) una funci6n de la v aria ble aleatoria X que n o t om e valore s negativos, o s ea, H(x 1 ) :a< O par a t od os los v alo re s x 1 d e X.
Se a K > O una constante dad a, y sean x 1 ( i, = 1, 2 , , n,) l o s v alo r e s
de X , y X a a quellos valore s para lo s cual es s ea H (xa) :a< K . Tenemos
n
E (H (X) )

1=1

H(x1) f (x1) "' H(xa) f(xal ;,: K l t <xal


a
a

39

Pero lf(xa) indica la probabilidad de que


mayor que K .

H(X) sea

igual o

Por tanto se tiene

[3 . 14 ]

P(H(X) ;,, K) s; E()t(X)) ,

En particular, tomando H(X) = (X - a ,) y K = 11:3 0, resulta la


llamada desiguaZdad de TCHEBYCHEFF, a saber,
P(

x - a, 1

.,

ka) s

w1

[ 3. 15 ]

Poniendo ka = k ,, se puede escribir tambin


P(IX- a ,I ;,, k 1 ):;;

[3. 16 J

~;.

La desig ualdad de Tchebycheff es muy importante, y aunque la


hemos demostrado para variables aleatorias finitas , ella e s v lida
con anloga demostraci6n para las v ariables a l e atorias di s cre t as
y c ontin uas, que se d efinir n en e l captulo 6.

S.

40

SUMA DE VARIABLES ALEATORIAS

Sean X e Y dos variables aleatorias y {x,, f(x,) } ( i = 1 , 2, . , n),


[ yJ, ,( yJ)}(j = 1 , 2, .. , , m) los v alores respectivos de X e Y, junto
c on sus corr e spondi ente s pr o b a bilidades.
Definici6n 3. 8. Se llama va ria ble a l eat ori a suma X + Y a l a v a ria b le ale a tori a que toma los v a lores x , + yJ ( i, = 1, 2 , ... , n; j =
= 1, 2 , .. , m), con l a s p r obabilidade s P (x ,, yJ ) = P (X = x ,, Y = yJ)
= probabilidad de q u e X tome e l v a l or x , e Y t ome el val o r Yr

Obs r v ense las relaciones

l
J

P(x ,, YJ ) =

(3. 17 ]

f (x ,) ,

p u es t o q u e la smna, r espec to d e J, d e l a probabili d a d d e que ocu rra (x, y) es igu a l a la probabilida d ~ e qu e o c u rr a x ,, l o que da l a
prime r a igu ald a d. La s e g unda e s a nalog a.
Se tiene e l siguiente teorema,
Teorema 3, l.

Cua Zesquiera que sean

las variabZes

aleatori as

X e Y se verifiaa
E(X + Y ) = E (X) + E(Y )
Demoetraci6n. Basta aplicar l a
[3.17 ] , En e fecto

d efinicin y

[3. 18]
la s

igu a ldades

E(X + Y)

(x 1 + y,)P(x, y,)

1,J

E(X) + E(Y),

donde las sumas respecto de i van de 1 a


de j van de 1 a m,

n, y l as sumas respecto

Con la misma demostraci6n, tenindo se en cuenta [3, 10], resulta de manera general que si Xl' X 2 , , x. son variables aleatorias cualesquiera y av a?. , , an son constantes, entonces

E(alXl + a 2X2 +. . +

a.x.) = a 1E(Xl) +a2E(X2) + . , . + a..E(X.) .


[3.19]

En lademostraci6n sehasupuestoqueX e Yson variables aleatorias finitas. Sustituyendo las sumas por series o por integrales, la
mismademostraci6npruebaque el teorema es vlido tambin para
las variables aleatorias discretas y continuas definidas en el captulo
6. La misma observaci6n es vlida para los teoremas 3 .2, 3 ,3 y 3, 4.
El teorema anterior permite resolver algunos problemas de manera ms fcil que por clculo directo. Por ejemplo:
Problema 3, l.
Dos urnas contienen, cada una, bolillas numeradas de 1 a 1 O. Se saca una boliUa de cada urna y se suman tos
nmeros obtenidos, cul es el valor medio de Za suma ?
Soluci6n. Si X e Y son las variables aleatorias que expresan el
nmero sacado de cada urna, es E(X) = E(Y) = (1/ 10)(1 + 2 + . + 10) =
= 11/2 yportantolasoluci6n es E(X +Y)= 11,
Problema 3. 2. Una urna contiene 1 O boliUas numeradas de 1 a
10, Si se sacan a Za vea dos bolillascul es e l valor medio de Za
suma?

Soluci6n. Aqu l as variables aleatorias X e Y, que expr esan


r espectivamente el nmero de la primera y s e gunda bolilla, no son
independientes, pues no pueden tomar el mismo valor, Sin embargo, puesto que el teorema 3. 1 vale igualmente, resulta que la
solucin es la misma de antes, o sea, E(X +Y)= 11.
Antes de seguir necesitamos la siguiente definici6n, que est
de acuerdo con [2. 10] .
Dos variables aleatorias X e Y cuyas funciones de probabilidad
re spectiva s son f y (J, se dic e que son independientes, si, y s 6lo si,
la probabilidad del par (X =
Y = Y, ) es igual a l producto de la
probabilidad f (X) por la probabilidad g(y, ). Es decir, si se cumple

x,,

41

para todo par de valores

x,, y 3 de las

variables.

Si X e Y son dos variables aleatorias indepen-

Teorema 3 2.
0

dientes, entonces
cr2 (X

+ Y)

cr2(X)

[3.20]

+ cr2(Y).

Demostraci6n. Siend o X e Y independientes, se cumple la igualdad ltima y por tanto, poniendo E (X) = 0.1 y E(Y ) = 13 1, se tie ne
cr 2(X + Y) =

(x 1 + y 3 - a. 1 - S 1) 2f(x,);,( y,)

,, J

(x, - a.1)f(x 1) ;,( y 3) +

1,J

(x, -a.

1 )f(x,)

3)

L<Y, - 13 );,( y, )
1

y como h(y

(y 3 - S1)f(x, ) ;,( yJ ) +

1,J

= l, lf(x,)= 1, E(X - a. 1 ) = O, E(Y - 13 1 )= O, resulta [3. 20].

En general, de [3. 20 J y [ 3 . 13 J resulta, para variables aleatorias independientes:

42
En particular, si

a1

= 1,

a2(X - Y)

6.

o 2 = -1 ,
=

[3 . 22]

a2(X) + cr2 (Y) .

PRODUCTO DE VARIABLES ALEATORIAS

Deinici6n 3. 9. Se llama va:r>iable aleatoria producto X Y d e


las variables aleato rias X(x, f(x 1)), Y(yl' ;,(y3)), a la variable aleat o ria que toma los valores x 1 y 3 con probabilidades P(x 1 , Yi ).
Teorema 3. 3. Si X e Y son Va:r>iables aleatori as independien-

tes, se tiene
[ 3. 23]

E(X Y) = E(X ) E(Y) .

Demostraci6n. Siendo X e Y independiente s, e s

= f(x 1)'7(y3),
E(X. Y)

y por tanto

l
1,J

x, if(x,) ;,( y J) = lx,f(x,) I y 3;,(y 3)


!

E (X) E(Y).

Si l as variables a leat orias X e Y no son independientes, conviene adoptar la siguiente definici6n.

Deinici6n 3, 10, Se llama covarianza o covariancia de d os variables aleato rias X e Y a la expresin


cov(X, Y) = E((X - a 1 }(Y - S1 )) =

(x 1 - a 1 HyJ - \3 1 )P(x " y J),

1,J

donde, como siempre, E(X) = al' E(Y) = 13 1


Otra forma de i a covarianza , que se obtiene
E((X - a 1 )(Y - 13 1 )) = E(XY - a 1 Y - S1X + a 1 13 1 ), es

desarrollando

[3 . 2 4 J

cov (X, Y) = E(X, Y) - E(X)E(Y).

D e aqu se deduce que, e n el caso de variables aleatorias dependientes, la frmula f3. 23 J debe se r sustituida por

E(X Y) = E(X ) E(Y)

+ cov (X, Y).

[3 . 25]

En parti cul a r, si X e Y son independientes, se verific a

[3.26]

cov(X, Y) = O.

Teorema 3. 4,

Paroa dos varoiables aleatoroias X e Y

indepen-

dientes o no vale

o 2(X + Y)
Demostraci6n,

o2 (X) + o2 (Y) + 2 cov(X, Y). [3. 27]

Se tiene

o2<X + Y) =

(x 1 - a 1 + YJ - \3 1 )P (x, yJ)

,, J

+ 2

(x, - a H yJ - s
1

1 JP(x"

yJ)

1,J

y teniendo en cuenta [3, 17] y l a defi nicin de covarianza, re s ulta e l


enunciado ,
Problema 3, 3, Dos urnas contienen, cada una, 5 bolillas numeroadas de 1 a 5. Si se saca una bolilla de cada urna y se multiplican los nmeroos obtenidos, cul es el valor medio de est e
producto ?
Soluci6n, Como l as variabl es aleatorias X e Y que representan
lo s nmeros sacados de cada urna, son independientes, y E (X) =
= E (Y) = (1 /5 )(1 + 2 + .. . + 5 ) = 3, resulta E (X Y) = 9.

43

Problema 3, 4, Una urna contiene 5 boliltas numeradas de l a


5. Se sacan dos boZiZkzs aZ azar y se r,ruZtipZican Zos nwneros obte-

nidos.

CuZ es eZ vaZor medio deZ producto?

Soluci6n, Ahora las variables X e Y son dependientes y por


tanto no puede aplicarse la frmula [3. 23 J. Hay que hacer el clculo directo. Los casos posibles son (1, 2), (1, 3), . ,(4,5), yde cadaunode ellos laprobabilidades 1/10. Por tanto, E(X Y) = B, 5, resultado distinto del anterior.
7,

CORRELACION

Puesto que cov(X, Y) = O en el caso en que X e Y son independientes, puede decirse que la cov(X, Y) mide, en cierta manera, el
grado de dependencia entre X e Y. Sin embargo, cov(X, Y) tiene el
inconveniente de depender de las unidades de medida, es decir, si en
vez de X e Y se toman las variables aX , bY (a;, b constantes) es
cov(aX, bY) = ab cov(X, Y), como resulta inmediatamente de la definicin. Para evitar es t e inconveniente se ha recurrido al siguiente concepto:

44

Deinici6n 3, 11. Se llama coeficiente de co:rrekzcin entre dos


variables aleatorias, cuyas desviaciones tpicas a (X) , a(Y) no sean
nulas, al cociente
P =

cov(X Y)
a (X) a!Y)

[ 3. 28 J

Este cociente no cambia si se multiplican las variables aleatorias por constantes positivas. Se va a demostrar que -1 s; p s; 1. Para
ello, siendo A, dos constantes, consideremos

Por s e r la esperanza matemtica un cuadrado, esta expresin


es siempre :e O, y por tanto
a 2 (X). a 2 (Y) - (cov (X, Y)) 2 :e O

[ 3 . 30]

de donde:
a)

p 2 s; 1, y por tanto -1 s; p s; l.

"'

b) Si p = 1, existen valores A=
= 0 (no ambos nulos),
para l os cuales [3 . 29 J se anula, o sea E(A 0 (X - a 1 ) + 0 (Y - A1 )) 2 = O,
l o que exige que sea

o.

[3. 31

x,,

Esta igualdad significa que l o s nico s par e s d e valore s


y l de
las variables X, Y que tienen probabilidad distinta de cero de ocurrir, son los que verifican A0 (X 1 - a )+ 0 (yJ - S) = O, es decir, los
pares (x,, Yi) son ~oo r denadas de puntos pertenecientes a la recta
[3.31]. Esto implica que entreX e Yhayunacorrespondenciafuncional lineal, o sea, se tiene el sig uiente teorema.
Teorema 3. 5. El coeficiente de correlacin es un nmero real
p eomprendiao entre -l y +l, tal que p = 1 impliea que entre X e Y

existe una dependencia funeional lineal .


Si X e Y son independientes, hemos visto que p = O, Sin embar go,
esta conclici6n ne c esaria no es suficiente para la independencia de
las variables X e Y, Consideremos el siguie nte ejemplo, Sea U la
variable ale atoria que representa el nmero de un dado lanzado al
azar, y sea V la variable anloga para un segundo dado, independiente
del primero. C o n s ideremos las variables aleatorias X = U + V e Y =
= U-V. Tendre mos E(X, Y)= E(U2 - V 2 )= E(U 2 )-E(V2 ) = O, Por otra
parte , tambin es E(Y) = E(U) -E(V) = O. P o r c onsig uiente, seg n
[ 3 . 24 ] es c ov(X, Y)= O, d e don d e p= O, Sin embarg o, X e Y no son in dependie nte s , pues e llas t oman val o r es pares o i m p ares a l a vez .
8,

FUNCION GENERATRIZ DE MOMENTOS

Definici6n 3. lZ. Se llama funcin generatriz de momentos o,


s implemente , funcin generatriz de la variable aleatoria X, a la
esperanza matemtica d e la funci6n e Xt, o s e a, a l a fu n ci6n de t
d e finida p or
'f(t) = E(e " ) =

!=

ei'f(x,),

[3.32]

El nombre pr oviene de que, c o nocida la funcin 'f( t ), s us derivadas sucesivas en el punto t = O, s o n los momento s d e X. En
efecto, se tiene
,y(O) =

lt(x1 )
'=

,y,(Q)

xtf(x1 )

E(X)

'f" (O)

.icrt<x,)

E (X 2 )

,y(rl(O) =

x;f(x1)

Y, en general,

a,

E(X)

a,. .

Teorema 3, 6, Si 'f,( t) , '!'y( t) son Zas funci ones generatrices de


Zas variabl es aleatorias independientes X e Y, y 'f,.y( t ) es Za funein generat riz de Za variable al eatoria X+ Y, s e verifica
'f,+v( t ) = 'f,(t ) , 'fv (t ),

[ 3.33 ]

45

Demostraci6n.
lo sern

En efecto, si X e Y son independientes, tambin

e" y evt, y por tanto, segn [3. 22]

''m(t) = E(e(x+v)t) = E(e ''eY) = E(e")E(eY') = '',(t)''y(t).


Repitiendo el razonamiento, resulta que si X 1, X 2 , ,
variables aleatorias independientes, se tiene

[ 3, 34]

Xn son

[3.35]
Por la definici6n [3 .3 2], la funci6n de probabilidad determina
la funci6n generatriz de momentos. Ahora se plantea el problema
inverso: Dada la funci6n generatriz ''( t), queda uni'vocamente determinada la funci6n de probabilidad f? Este es un teorema matemtico difi'cil, Se trata de buscar una f6rmula de inversi6n que
permita despejar las f(x 1 ) en [3. 32 J. Se puede demos trar que bajo
ciertas condiciones muy amplias, que se cumplen siempre en los
casos usuales, la inversi6n es posible, es decir , la funci6n generatriz determina uni'v ocamente la funci6n de probabilidad. Nosotros admitiremos este resultado sj.n d e m ostraci6n.

46

Aunque ms adelante ya veremos otras aplicaciones del ltimo


teorema, vamos ahora a aplicarlo a la soluci6n de un problema
clsico de De Moivre (The doctrine of chances, 171 8) .

Problema 3. 5. Una urna oontiene n + 1 boliUas nwneradas


Se saca r veces unaboliUa y se devueZvea la urna
Se desea saber la probabilidad de
despus de anotar su nmero.
que la swna de los r nmeros as{ obtenidos sea igual a un valor dados.

1, 2, ... , n + l.

Soluci6n, La probabilidad es distinta de cero s6lo si r ,;; s ,;;


,;; r(n + l); supongamos que esta condici6n se cumple. Consideremos las r variables aleatorias X 1, X 2 , , , , x. correspondientes a
los nmeros de cada extracci6n. Cada una de estas variables puede t omar, independientemente una de otra , l os valores 1, 2, , .. , n +
+ 1, con probabilidad 1/ (n + l) para cada uno. Por t anto, para
cualquier x,, es
'', /t) =

n--h<e'

e2t

+ .. , + e (n+1),

3. 3 5 ] ,

y por consiguiente, segn


''x1+X2, . +xn(t) = {n

l)' {e '+ e2t +, ..

+ e (n+l) t,.

[3. 3 6]

P o r o tr a parte, segn la definici6n d e funcin generatriz, es


,{. + 1)

''x 1+x 2 +,,,+x.( t ) =


h

e htph
1'

[3.3 7]

donde P h es la probabilidad de que la suma de las r bolillas sea


n,. Por consiguiente, el coeficiente de e'' en la expresin 3. 36]
es la probabilidad buscada. Elevando la potencia r-sima del segundo miembro de (3. 36 J y juntando trminos semejantes se obtiene el resultado

donde C I J indican los nmer os combinatorios (vase el Apndice I)


y la sum;,. alternada debe proseguirse mientras ninguno de los ndices resulte negativo ni el segundo mayor que el primero.
Ejemplo l. Se desea hallar la probabilidad de sacar la suma 9
arrojando 3 dados, Hay que hacer s = 9, r = 3, n, = 5 en la frmula general y resulta P 9 = (l/6 3 )(c., 2 - C 3 , 1C 2 , 2 ) = 25/216 de acuerdo con e l problema 2. 7.

z.

Ejemplo
Se desea saber cul es la probabilidad de sacar la
suma 15 arrojando 6 dados. Hay que tomar s = 15, r = 6 , 7'I = 5, y
resulta P 16 = (l/6S)(C 14, 5 ~ C 611 C 8 , 5 )
833/23328,

9.

FUNC!ON CARACT:E:RISTICA

47

La funcin generatriz puede definirse igualmente para variables aleatorias con una infinidad numerable de valores. Basta,
para ello, sustituir la suma de [3.32] por una serie desde i, = 1
hasta t, = "' En este caso, s in e mbargo , la funcin generatriz slo
tendr sentido si la serie resulta convergente, Si en lugar de ex,
se toma etxt, donde f, es la unidad imaginaria, la convergencia es
siempre ms segura. Por otra parte, en el caso de variables
aleatorias con~inuas, que veremos ms adelante, la sustitucin de
ext por etxt presenta t odava otras ventajas (poder aplicar, por
ejemplo, la frmula de inversin de :Fourier), De aqu que en los
tratados de probabilidades desde un punto de vista superior, en
vez de la funcin generatriz de momentos, se suele utiliza r la llamada funcin caracter{stica, definida por
'l'(t)

'l'( i,t)

E(e!Xt).

Como nosotros no vamos a utilizar esta funcin caracterstica,


nos contentamos con la definicin,

10.

R:E:CRESION

S e an dos variables aleatorias X e Y y sea tJ = f(x,, Y ) laprohabilidad del par X= x, e Y = YJ De manera anloga a [2. 8), se
tiene ahora

h(X) =

lf

[3.39]

donde f(YJlx1 ) representa la probabilidad de que sea Y= Yi, condicionada a X= x 1 , y h(x1 ) es la probabilidad de X= x 1 Para cada valor de X, por ejemplo X= x 1 , la esperanza de Y es un cierto
valor

Yl = lYif(Yilx).
J

Se tiene as una funcin y' cuyo dominio es el conjunto de valores de X, que se llama la regresi6n de Y sobre X.
Se trata de aproximar esta funcin mediante una expresin lineal y = a + bx. Para e llo se aplica el mtodo de los mnimos cuadrados, que consiste e n determinar las constantes a y b de manera
que la esperanza

48

sea rr"nima. Para determinar los valores de a y b que hacen mnima E, d e ben ser nulas las derivadas parciales de esta expresin
respecto de a y b y se tienen las ecuaciones (teniendo e n cuenta
[3. 39 ] y que

lf

1i

= 1)

l,l

E(Y) - a - bE (X) =

O,

E(X Y)

- a E(X) - b E (X 2 )

donde, aplicando [3.12] y [3. 24]

a = E(Y) - cov(X, Y) E(X)


o 2 (X)

b
'

cov(X, Y)

o2 (X)

Es t os son los coeficientes de la llamada reata de r egresi n de


Y sobre X. E l coeficiente b se llama aoefiaiente de regresin.

4
DISTRIBUCION BINOMIAL, LEY DE LOS GRANDES NUMEROS
1.

DISTRIBUCION BINOMIAL

En 1713 se public un libro famoso y fundamental en la historia


del clculo de probabilidades, titulado AZ'B Conjeatandi, cuyo autor, Jacobo Bernoulli, haba fallecido ocho aos antes. En este
libro Bernoulli introduce el siguiente modelo probabili'stico, llamado de las "pruebas repetidas" o " pruebas de Bernoulli".
Supongamos una urna con n 1 bolillas blanc as y n 2 bolillas negras. La probabilidad de sacar una bolilla blanca es p =
(n 1 + 2 )
y la de sacar una bolilla negra es q = nj (n 1 + n 2 ).
Se hacen n
pruebas, devolviendo cada vez la bolilla a la urna para que todas
las pruebas estn en las mismas condiciones. Se desea hallar la
probabilidad de que en el curso de tales pruebas salgan r bolillas blancas y n - r bolillas negras (independientemente del orden
en que salgan).

n/

La solucin es fcil. Si se pidiera la probabilidad del mi smo


problema, pero dando e l orden en que van saliendo las bolillas,
como en cada extraccin la probabilidad de blanca es p y la de ne gra es q y se trata de sucesos independientes, segn la relacin
[2. 12] aplicada sucesivamente, resulta que laprobabilidad buscada sera p'q-r. Si el orden no interesa, hay que sumar esta probabilidad para todas las ordenaciones posibles, que son ( ~ ), puesto
que las r bolillas blancas pueden distribuirse entre las n extracciones. Resulta asi' que la probabilidad buscada es
[4. 1]
Esta funcin de probabilidad que, una vez dados n y p, tiene un
valor determinado para cada r, se llama la funai6n binomial, por
ser sus valores iguales a los trminos del desarrollo de (p + q)" por la
frmula del binomio de Newton. Puesto quep +q = 1, esto prueba, adems, que P,=l (lasuma extendidaar=O ,l, .. ,n), c omo debe
ser segn l a primera condicin [3. 3

J.

49

El modelo o esquema de Bernoulli tiene muchas aplicaciones.


Para enunciarlo de manera general, dentro del sistema axiomtico del captulo z, podemos establecer que todo esquema de
Bernoulli consta de los siguientes elementos: a) Un experimento aleatorio del cual pueden resultar un xito A con probabilidad p
o un fracaso B con probabilidad q 1- p; b) un nmero n de pruebas
que, anotando cada vez si tie ne lugar A o B, da lugar al espacio
muestra! E formado por los Zn elementos siguientes

AAA .. A,

AA .. ,AB,

AA . .. BA,

. . .,

BB . .. B

cada uno de los cuales consta den letras, elegidas entre A y B, de


todas las maneras posibles, teniendo en cuenta el orden; c) el nmero r de xitos A en cada prueba, lo que da origen a la variable
aleatoria X, cuyos valores posibles son O, I, z, ... , n con las probabilidades respectivas P 0 ,P,,Pn dadas por [4.1'].
Todo proceso en las condiciones anteriores se dice que sigue
la distribucin binomial, o la ley binomial, confunci6n de probabilidad [ 4, 1 ] . Es costumbre adoptar l a notac i6n

b( r ;n,p) =(f) p ' q-r, r

(4. 2]

= 0,1, . . . ,n

50
y tambin es muchas veces til lafuncin de distribucin binomial,
a sabe r,
[ 4. 3]

F(x)

que da la probabilidad de que el nmero de xitos A sea

$;c.

Para ver c6mo vara la funci6n b( r;n, p), dados p y n, formemos el cociente

b (r ;n, p)
b(r - I;n, p )

(n - T + l)p

Tq

+ (n + 1 )p - r
Tq

Distingamos dos casos : a) Exis teunenteror =r 0 t a lque (n +I)p=


r 0 En este caso, para este valor r 0 es b(r 0 ;n, p) = b(T 0 - l;n,p)
y para valores r > r 0 es b( r;n,p) < b(r- l;n,p) (o sea b es decreciente), en tanto que para valores T < T 0 es b(T; n,p) > b(T -1 ;n,p)
(o sea, bes tambin decreciente hacia la izquierda). En resumen,
b( T;n, p) tiene dos valores igual es, correspondientes a T. = (n + 1 )p
y a T0 - 1, para los cuales toma el valor mximo. b) No exis t e
un ent ero T 0 que sea i gu a l a (n + l) p . En este caso, sea r 0 e l
nico e nte ro compredido e ntre (n + l) p - 1 y (n + l) p. Este se r e l
ni co valor de T para el cual b( r 0 - l; n,P) < b( r 0 ;n , p ) > /;\r,+ l ; n,p),

en tanto que parar< r 0 , la funcin b( r ;n,p) c receypara r > r 0 de crece. Es decir, b( r;n, p) tiene en es te caso un solo v alor r. en e l
que toma s u valor mximo. Como ve r e mos ms adelante, este v alor
mximo es aproximadamente igual a !/ (2nnpq )1/3. En las figur as
1 y 2 se dan ejemplos de ambos casos.

b(r 9, o.4)
0,4
0,3
0,2
0,1

Fig. l.

b ( r ; 10, o. 2s)

51

0,4
0,3
0,2
0,1

Fig. 2.
El clculo de P, no es fcil para valores un poco grandes den
y r. Se pueden aplicar tablas de l os nmeros combinatorios o tablas de factoriales (vase el Apndice III) o la frmula de Stirling
(Apndice I) . Sin embargo, en general, es ms p r ctico sustituir
la ley binomial por otr a ley aproximada, como la de Poisson o la
normal, que veremos en e l prximo captulo .
Problema 4. 1. Se lanza una moneda 20 veoes . Se busca : a ) Za
probabilidad de sacar 14 veces cara; b) el nmero m<s probable de
caras y Za probabilidad de que salga este nwnero.

Solucin, Los clculos pueden hacerse directamente para darse cuenta de lo engorrosos que son, pero aqu han sido hechos
mediante la tabla de factoriales.

38760
1048576

20 !
( 20\(1):P
14/2
= 6!14!2:P

a)

P,4

b)

La probabilidad mxima corresponde a r


p

10

(2)(..!.)a:,
10 2

184756
1048576

o, 036 ...

= np = 10,
= o

'

y es

176 . . . .

2. ESPERANZA MA TEMA TICA Y VARIANZA DE UNA VARIABLE


BINOMIAL
En un esquema de Bernoulli podemos siempre considerar la variable aleatoria X 0 , llamada variable de Be:rnouZZi, que solamente
pued e tomar dos valores: el x, = l, con probabilidad p, si el experimento aleatorio re s ulta un xito, y el valor x 2 = O, con probabilidad
q, si el mismo resulta un fracaso. Entonces la variable aleatoria
binomial X es la suma de n variables de Bernoulli.

52

La esperanza matemtica de X 0 es E(X 8 )


tanto, segnelteorema3.l, es

=1 p + O q = P

E(X) = np.

Por

[4. 4]

Por otra parte, e s 0 2(X 9 ) = E((X 0 - p) 2) =E(X~) - p = p- p2 = pq,


y segn el teorema 3. 2, tratndose de variables aleatorias independientes (puesto que cada experimento es independiente de los
anteriores), resulta
cr2(X) = n,pq,

[ 4. 5]

Estas frmula s [4. 4 J y [ 4 . 5 J se pue den tambin obtener directamente. En efect o , prubese, como e jercicio, que

l"'
t'

r b(r;n,p)

np,

= o

"'

(r - n,p) 2 b(r;n, p)

npq.

[4. 6]

r::: o

La funcin generatriz de la variable binomial X, segn la definicin 3. 12, es


'f( t )

De aqu se deduce,

( e'p + q) n.

[4. 7]

E(X)

'I'' (O)

np = a.1

E(X 2 )

'l'"(O)

n(n - l)p 2 + np

y por tanto, nuevamente

cf'(X)

3,

E(X~) - (E(X))~

npq,

TEOREMA DE BERNOULLI

Apliquemos la desigualdad de Tcheby cheff [3, 15] a una variable binomial. Siendo E(X) = a. 1 = np, o 2 "' npq, resulta

[ 4. 8 J
que puede escribirse
l

,; ,2
Dado un nmero positivo cualquiera
minar h de manera que sea

,/J!j.
n

>

;,

>

;,

[4. 9]

siempre se puede deter-

;./fq_

( 4. 10 J

con l o cual (4. 9] se puede escribir


[4. 11

Recordemos que X denota el nmero de xitos en una sucesin de


pruebas de Bernoulli, de manera que X /n es igual a la frecuencia relativa con que aparece el xito en n pruebas. Por consiguiente, observando que el segundo miembro en [ 4 . 11] tiende a O paran - "', queda
demostrado e l siguiente teorema fundamental.

Teorema de Bernoulli, En una sucesin de pruebas de Ber'nouili,


dado un nmero positivo ; arbitrario, Za probabilidad de que Za
frecuencia relativa deZ xito en n pruebas difiera de .'la probabilidad p en una cantidad mayor que ; , tiende a cero cuando n - "' .
Conviene adoptar la siguiente definicin,

Definicin 4. 1,
entero
P(\z.
h >

Una vari abl e a leatoria z., dependiente

de un

n, s e dice que converge en probabilidad al l'mite P , si

- p\ >

h)

tiende a

cero,

para n - "', cualquiera quesea

53

Con esta definicin, el teorema de Bernoulli se puede enunciar


brevemente:
En

tiva

tda 8UCesin de pruebas de Be:rrroulZi, Za frecuencia rela-

X/ n converge en probabi Zidad a p .

Este teorema es uno de los ms importantes de la teora de las


probabilidades. Por su intermedio quedan vinculados los conceptos de probabilidad experimental o frecuencia y el de probabilidad
t erica. Por ejemplo, en el lanzamiento de una moneda, la probabilidad de salir cara es p = 1/2 . Si se hace el experimento n veces y se divide el nmero de veces que ha salido cara por n, el
teorema de Bernoulli dice que este cociente converge (en probabilidad) a 1/2. Decir "en probabilidad" significa que si bien
nunca puede haber seguridad absoluta, ello ha de ocurrir con una
probabilidad tan cerca de 1 como se quiera.
En vez de (4 . 11 ], es til a veces la relacin equivalente
P(I~ - p \ < ) ;, l - ~ .

54

[ 4. 12]

A veces n o se conoce p para poder aplicar (4. 11 J [4.12].


En tal caso, observemos que (p- q) 2 ;, o, de donde p + q 2 ;, 2pq, y
por tanto p + q + 2p, ;, 4pq, o sea (p + q) 2 ;, 4pq, y como p + q = 1,
resulta que siempre se verifica la desigualdad
[ 4. 13 J
de manera que, tanto en [4.11 ] como en [4.12], en el segundo
miembro se puede sustituir pq por 1/ 4.
Veamos los siguientes ejemplos.

Problema 4, 2. Se lanza una moneda l. 000 veces.


Se desea
,
una acotacin de ta probabilidad de que salga cara un numero de vBces comprendido entre 450 y 550.

Solucin. Se quiere que sea o, 45 ,; X/n,; O, 55, o sea \X/1.000 - o, s ,;_O, 05; en [4, 12 J es e = o, 05, n = l. 000, p = q = 1/2, con
lo cual se tiene

_x_

P<l1.ooo- 0 , 5 1 s o,o 5 J"' 1 -4.o,05 2 .1 . 000 = o, 9 ,


o sea que h ay una probabilidad i g ual o supe rior al 90% de que el nmero
de caras est comprendido entre 450 y 550,

Problema 4. 3. Cuntas veces hay que Zanaar un dado para


que, con probabilidad :e O, 9, la freauencia relativa con que salga
el 1 difiera de 1/6 en no ms de o, 01 ?
Solucin. Se quiere que sea \X/n -p\,;;0,01. Aplicando(4.12 ]
en el caso p = 1/6, q = 5/ 6, e= o, 01, r e sulta q ue debe s er
5.104
:e o
- 36n(0,01) 2
, 9
de d o nde,

n :e

13.888.

Problema 4. 4.
Se quiere saber la frec:uencia de fumadores en
una aierta poblaain (o sea, el cociente de dividir el nmero de fumadores por el total de la pobl<;win). Para ello se eligen n personas al aaar y se halla la freauencia de las que fuman. Se desea
saber qu valor debe tener n para que esta frec:uenaia no difiera de
la real en ms de O, 00 5 , con una probabilidad :e O, 95 .
Solucin. E n e s t e c aso n o se con o c e p , de m ane r a que t o m aremos la acotacin [4.13]. Siendo e = 0 , 005 = 510-3, se deduce
de [4.12] que debe s e r
106

- 4. 25. n :e o, 9 5 ,
de donde n :e 200 . 000.
Esta acotacin es e x cesiva . Ms adelan t e , d espu s de estudiar
l a dis tribuci n norma l (p r obl e ma 6 , 3) s e ve r que p u e d e r e ducir s e
mucho. Lasdesigualdades [ 4.ll ] [ 4.1 2] no deben, casi nunca,
aplicarse en este tipo de problemas, pues las acotaciones resultantes
son siempre, e n general, mucho pe o res que las que pueden obtenerse
por otros mtodos. Sin embargo, desde el punto de v ista terico
estas desigualdades son fundamentale s.
4.

LEYES DE LOS GRANDES NUMEROS

El t eorema de Bernoulli pertenece a un tipo gen e r a l de teo re mas conocidos c on el n om b re de 11 leyes de los grande s nmeros ".
Ellos difieren entre s en el grado de g e neralidad, p ero s o n siempre teoremas lmites que relacionan frecuencias con pr obabilidades
o c on v alore s medios. Vamos a dar o tro de ellos.
Cons idere mos u n dad o . Si X es l a variab le a le a t o ria que indica los puntos de sus car as , es E(X )
3 , 5 . Supon gamo s que se
lanza e l dad o n veces y se h a lla la "media experim e nta l " s./n = sum a total de lo s puntos obt eni dos d i v idid a p o r n. C ul es l a p ro b abilidad de que es ta media expe rim e nta l difi era d e la t e rica

55

E (X) = 3, 5 en menos de un nmero dado : > O? Es tamos ante una


situacin anloga a la del teorema de Bernoulli, slo que en vez
de la probabilidad se trata del valor medio,
Planteemos el problema en general, Sea Xl' X 2 , , , x.,., ,una
sucesin de variables aleatorias, dos a dos independientes, todas
con la misma distribucin de probabilidad de la variable aleatoria X.
Sea E(X 1 ) = E(X) = av o 2 (X 1 ) = o(X) = o 2 , Pongamos z.=X 1 + X 2 +
+ , , + X 0 , Tendremos
[ 4. 14]
y por haber supuesto que las X 1 son independientes dos a dos, tambin
0 2(z",

r" -

0
n

[4. 15]

Aplicando la desigualdad de Tchebycheff a la variable aleatoria


tenemos

zjn,

ka/ In= e,

o bien, poniendo

56

o bien
Estas desigualdades permiten enunciar el siguiente teorema
(que es otra "ley de los grandes nmeros "):
Teorema de Bernoulli Generalizado,
Dada una suaesin X 1 ,
X2 , de VCU'iables aleatorias, dos a dos independientes, aon una
misma distribuain de probabilidad y aon media a1 y varianza 0 2 finitas, se verifiaa (para todo e > O)
lim P(\Zn -a1 \ el

n- co
donde

z.

= X1 +

x2

n.

o,

[ 4. 1 7 J

+ . .. + x .

En otras palabras: el ltmite, en probabilidad, de la media ex-

perimental

z./n,

paran~"', es igual a la media teriaa a 1

En este teorema la condicin de que la varianza sea finita es


excesiva, pero si se prescinde de ella, la demostracin es ms
compl eja (vas e, por ejemplo, Feller(l)).
Todava el teorema puede generalizarse, suponiendo que las
X 1 tienen diferentes medias E(X 1 ) = a 1 y diferentes varianzas

of,

Entonces la suma z, tendr ciertamediaE(Z,) = m,yciertavarianza s~- Bajo ciertas condiciones muy amplias, se verifica entonces que, para todo e > O,

[4. 18]

Cuando es ta igualdad se cumple, se dice que la sucesin X 1 satisface la Zey dbiZ de los grandes nmeros.
Si, todava de manera ms precisa, para cada e > O, > O
existe un entero N tal que, con probabilidad > 1 - o, se cumplan,
para todo r > o, las desigualdades
n

N,N+I, .. ,N+r,

[ 4. 1 9]

se dice que la suces in X 1 satisface la Zey fuerte de los grandes


nmeros.
La bsqueda de las condiciones mnimas para que una sucesin
X1' X 2 , de variables aleatorias cumpla la ley dbil o la ley
fuerte de los grandes nmeros da lugar a cuestiones difciles.
Muchos teoremas al respecto, junto con ejercicios y comentarios,
pueden verse en los libros d e Feller, (i) Reny(2 ) y Ros( 3 ) citados
en la bibliografa,

57

5
DISTRIBUCION DE POISSON

l,

FUNCION DE PROBABILIDAD DE POISSON

Ya dijimos que la expresi6n b(r; n, p) [ 4. 2] de la funci6n de


probabilidad binomial es difcil de calcular directamente para va lores un poco grandes de r y n . Se puede hacer mediante tablas
apropiadas, pero muchas veces es preferible sustituir la expresi6n b(r; n, p) por otra de mejor manejo para el clculo y suficientemente aproximada en las aplicaciones,
Un primer caso en que esto es posible es para valores pequeos
de P, tales que el producto np sea relativamente pequeo aun para
valores bastante grandes de n. Planteemos el problema de buscar
el lmite de la funci6n de probabilidad binomial para el caso en
que p tiende a cero, al mismo tiempo que n tiende a infinito, de
m aner a que el valor medio [4.4] se mantenga igual auna constante p ositiva \ , o se a,

np

A.

[ 5. 1]

Desde luego que se trata de un caso lmite te6rico, pues la


probabilidad p en cualquier experimento tiene un valor fijo y, por
tanto, el producto np cr ece con n . Sin embargo el lmite no s dar
un val or aproximado d e b(r ;n,p ) para los val ores d e n y p t a l es
que su producto no difiera m u cho de \ ,
Se tiene

b( r :n, p )

(~)p'rr'

= (

~)(k)' 0- ~

n-r

n (n - 1) . .. (n - r + 1 )(1,_Y (i ~

r !(l - V n,)'

n ) \,_

l\ n
n

\' (l -1/n,)(I -2/n) ... (1 - ( r - 1)/n) ( -{\".

;i

(I - \jn)'

~)

59

Paran - "' (manteniendo fijo r), elnumerador del segundo quebrado tiende al, puesto que es el producto de un nmero finito de
factores, cada uno de los cuales tiende a 1, El denominador tambin tiende a l. El ltimo factor tiende a e-A (vase el Apndice
II). Por tanto queda

[5.2]

donde se sobrentiende que

y p estn ligados por la relaci 6 n [5.1 ).

Se tiene as, siempre que A> O, una nueva funci6n de probabilidad para una variable aleatoria X que tome los v alores O,l, 2, ...
Esta funci6n de probabilidad

A'

- ;1_

rT e '

60

= 0,1,2, .. .

[5. 3]

se llama la funain de probabilidad de Poisson. Una variable aleatoria que pueda tomar los valores r = O, 1, 2,.,., con la probabilidad P,, se llama una variable de Poisson.
De acuerdo con la
definici6n 3. 2, la funai6n de distribuain de Poisson ser

[5. 4 ]

F(r)
1= l

Teniendo en cuenta cmo ha sido obtenida, resulta que la funci6n P, nos da un valor aproximado de b(r;n, p) para valores pequeos d e p. Prcticamente se c onsidera que la aproximacin es
aceptable si p < O, 1 y np < 5 . Por esto se llama tambin la func i6n
o la ley de las pequeas probabilidades.
La fig ura 3 rep re s enta la
funci6n b(r; lO,O, 1) y l afigura 41a funcin e- 1/r! pudindose apre ciar la analoga.
Obsrvese que P, sirve para variables aleatorias que pueden tomar una infinidad numerable de valores (r = O, 1, .. ),
Para estas variables, las definiciones de esperanza matemtica, varianza y momentos son las mismas que la s estudiadas
en el captulo 3 pero , en v ez de sumas finita s, hay que tomar se ries.
Por ejemplo, s e pueden comprobar,
guientes f6rmulas :

como ejercicio, l as

si-

= o

E(X)

A,
r:::: o

OI

0,2

61
Fig. 3.

OI

o;i

0,1

Fig. 4.
o

o(X)

Sin embargo, es ms fcil calcular la media y la varianza de


una variable de Poisson de la siguiente manera,
Puesto que la
media de una v ariable binomial es np, que ahora es la constante ).,
y la vari anza de la variable binomial es npq = n,p(l - p) = ,_(l - ,_/-,) - ,., resulta que la esperanza y la varianza de la variable aleatoria
de Poisson de parmetro A son
E(X)

o(X)

= \.

[ 5. 5]

La funci6n generatriz de momentos de la variable de Pois son


es

I"' - - -e

(e':I.) ' -A

'Y ( t )

r:: o

[S . 6]

r!

y d e aqu se deduce, nuevamente,


E(X)

62

'l''(O)

o 2 (X) = 'l'"(O) - ,_ 2 = \.

Aplicac6n. Por el teorema 3. 6, la expres6n anterior de '\'( t)


nos dice que si X 1 , X 2 , , x. son variables aleatorias de Poisson,

aon parmetros \ 1 , \ 2 , , 1,_ 0 , la variable aleatoria BW11a X = X 1 +


+ X 2 + .. + x. es tambin una variabZe de Poisson aon pari:vnetro
>-, + :l.a + .. . + J..
Problema 5. 1, Se tiran dos dados 50 veaes. Se desea halZar
la probabilidad de que salgan dos 6 exaatamente 5 veaes.
Soluci6n. La probabilidad de que salgan dos 6 es 1/36.
tanto, segn el esquema binomial, la probabilidad pedida es

Por

Es t e valor no es fcil de calcular di rectame nte. Se pueden utilizar tablas apropi adas o aplicar la f6rmula de Stirling (Apndice
II), pero es ms cmodo aplicar la f rmula de Poisson para np =
= 1, 4 = ). (teniendo en cuenta que p = O, 028 < O, 1 y que n,p < 5).
Utilizando la tabla de la funci6n de probabilidad de Poisson (Apndice III) , resulta P 5 = O, O11. Si la frmula [ 5. 7] se hubiera calculado directamente, el resultado exacto sera o, 0099. Vemos, pues,
que la aproximacin es buena .
Problema 5. 2. Una fbriaa produae ciertas piezas y se sabe
que la probabilidad de que una pieza sea defeatuosa es p = 0,02.

Se desea hallar Za probabilidad de que, en un Zote de lOOpiezas,no


haya piezas defectuosas, y tambin Za probabilidad de que haya, a
Zo sumo, 3 piezas defectuosas.
Solucin.
= O, resulta

Aplic ando la funcin de Poissonpara A = np = 2, r=

= e - a = 0,1 3 5

y la probabilida d d e que h aya a lo s u m o 3 d e fectuo sas s er :


F(3) = P( r,:;3 ) = P

+P 1 + P

+ P 3 = ~ e - 2 = 0,857 ...

Problema 5. 3, Un artiZZero dispara a un blanco y sabe que Za


probabilidad de acertar es p = 1/ 100 . Cuntos disparos tendr
que hacer para tener una probabilidad mayor que 90% de dar en eZ
blanco por Zo menos una vez ?
Soluc in. A p licand o direc tamente l a fu ncin b inomi al, r esulta
que la probabilidad de dar en el blanc o por lo menos una ve z es la
complementaria de no dar en el blanco vez alguna, o sea 1 - (O, 99)n.
Si se quiere que esta probabilidad cumpla la condicin l - (O, 99)n >
> O, 9, resulta n> (2 - log 99-1 = 228.
Como pe s p equea , e n v ez d e l c lculo d i rect o se p uede a plicar
l a apr oximacin d e P oisson. La pro b ab ilidad de no dar v e z a l guna
en el b l anco e s e-\ y la p r obabili d a d de dar por l o menos una
vez ser l - e- 1'. E l p r obl ema impone que sea 1 - e- 1' > O, 9, o sea,
0,1 > e-o' 1 ", dedonden > l00/ l oge =230. V emos, pues, que la
aproximacin de Poisson es muy buena.

2 DISTRIBUCION UNIFORME DE PUNTOS SOBRE UNA RECTA


O DE SUCESOS EN EL TIEMPO
Un proceso m uy corriente e n q u e a p a r ece l a funci n d e Pois son
e s el s i g u i ent e .
Supo ngamos un segmento A de longitud a y otr o s e g mento B de
longitud b c ontenido en A. Supon g amos , adems , que la pro babilidad de que un punto x, dado al azar en A, pertenez c a a B, sea
igual a
a, indep endientemente d e l a p o sicin d e B d e ntr o d e A.
Si se dan al azar n puntos e n A, l a prob a bilidad de que r d e ellos s e
h allen en B se r b( r;n,p). E l coci e nte n/a es e l nmer o m e d i o de
punto s , dados al azar , por unidad de longitud. Sea n/a= 1', y su pongamo s q u e a crece ha s t a c ubri r t oda l a rect a, a l m ismo t i e mpo que n c rece t a mbin d e mane r a q u e e l nmerome di o A de puntos
por unidad de longitud permane zca c ons tante. Se r

b/

63

Por tanto se cumple la condicin [ 5. 1 ], con el parmetro l..b


en vez de ,., y para n. - "' resulta que la probabilidad de que r de
los puntos dados al azar pertenezcan a B ser
p

= 0,1,2, ...

[5.8]

Para r
1 y b pequeo, sea b t:ix; utilizando el desarrollo en
serie de e-A, (vase el Apndice II) y despreciando los trminos
del orden de (6x)2, resulta que la probabilidad de que un intel'Valo
de longitud t:ix contenga uno de los puntos distribuidos aZ azar es

\ . t:ix.

[5. 9]

b/

64

El hecho de haber supuesto p =


a independiente de la posicin
del segmento B dentro del A significa que al extenderse A a toda
la recta, la probabilidad de que uno de los puntos dados al azar
caiga sobre B depende nicamente de la longitud de B, pero no de
la posicin de B sobre la recta. Esta suposicin, en vista de la
frmula [5.BJ a que se llega, se enuncia diciendo que los puntos
estn distribuidos sobre la recta segn un proceso de Poisson.
Precisando, sentamos la siguiente definicin

Definicin 5 . l. Se dice que infinitos puntos estn distribuidos


sobre la recta segn un proceso de Poisson, cuando la probabilidad de que un punto pertenezca a un segmento B (de longitud b),
c ondicionada a que pertenezca a l segmento A (de longitud a), tal
que B e A, es b/ a, cualquiera que sea la posicin de A sobre la
recta y la posicin de B dentro de A.
Segn esta definicin, el resultado [5.8] se enuncia de acuerdo con el siguiente teorema

Teorema 5. l. Supuestos dados sobre Za recta infinitos puntos


aZ azar segn un proceso de Poisson, con un promedio de \ puntos
por unidad de longitud, Za probabilidad de que rde eZZos pertenezcan a un segmento dado de longitud b est dada por [5.BJ.
Consideremos ahora un punto cualquiera M de la recta y busquemos la probabilidad de que e l r-simo punto, a partir de M, de
un pro c eso de Poisson se encuentre a una distancia comprendida
entrexyx+ XdeM. Segn [5.8], la probabilidad de que en el
segmento de longitud x haya r - l puntos es e - A( \x) ,- 1/ (r - l) ! , y la
probabilidad de que en e l se gmento t:ix hayaunpunto, es \ t:ix (s e gn [5. 9]). La probabilida d buscada es igual al produc to de estas
dos, o sea, f,(x)t:ix, donde

[ 5. 1 O J

De aqu se deduce, por ejemplo, que la distancia media entre


un punto cualquiera y el r-simopunto del proceso que le sigue es

(5. 11]
Poniendo AX= t, Xdx = d t, y recordando la integral que define
la funcin r (x) (vase el Apndice II), resulta
E(x)

=+

(5. 12]

Naturalmente que en todo lo anterior, la recta puede representar el tiempo t y cada punto d e la misma ser un instante determinado.
Entonces el es q uema anterior se presta a muc has
interpretaci on es , como vam os a v er m ed iant e a lgunos ej e mplos.

Problema S. 4, Se sabe que durante ciertas horas las llamadas


telefnicas a una central estn distribuidas al azar segn un proceso de Poisson, con un promedio de 3 llamadas por minuto. Se desea hallar la probabilidad: a) de que transcurran 4 minutos sin
llamadas; b) de que en l minuto haya exactamente 3 Hamadas;
c) de que en 2 minutos haya 8 llamadas .
Soluci6n, Se aplica siempre [5 . 8]. R esulta : a) )e = 3, b = 4,
= O, por tanto, P = e-1a < 10--4; b) )e= 3, b= l, r:3; por tanto ,
P= (27/6 )e - 3 = O, 224; c) )e = 3, b = 2 , r = 8; por t anto, P =
= (6 8/ S!)e-6 = O, 103 .

Problema 5. 5, Por un punto de una carreter>a pasa un pr>omedio de 5 automviles por> minuto. Suponiendo que el paso de los mismos sigue un pr>oceso de Poisson, cul es la probabilidad de que en
un minuto no pase automvil alguno ?
Solucin.

Aplicando [5 . 8 ], re sulta P =

e- =O, 0067.

Problema 5, 6, Supongamos (lo cual se adapta bastante a la r>eaZidad) que los momentos en que tienen lugar nacimientos se reparten
al azar durante todas las horas del d{a. Supongamos tambin que en
una ciudad determinada tenga lugar por> tl'fflino medio un nacimiento
cada 65 minutos. Cul es Za probabilidad de que durante 2 hor>as
no tenga lugar ningn nacimiento?
Soluci6n, Basta a plicar [ 5 . 8 J para r
Resulta p = e- 1 , 8 3 = O, 16 0 ,

o,

1/65, b= 120 .

65

Problema 5, 7. Se sabe que eZ nmerode part{auZas emitidas por


una substancia radiactiva, con eZ tiempo, obedece a una Zey de
Poisson. Supongamos que Za emisin oaurre a razn de 3 O part{auZas
por minuto. Se desea saber Za probabilidad de que durante 7, 5 segundos sean emitidas exactamente 3 part{auZas.
Soluci6n. Se a plica [5.8] para)..= 0,5 (nmero de part{culas
emitidas por segundo}, b = 7, 5, y resulta P = (3, 75) 3 e-3 75 (1 /6) .
La tabla de la funcin de Poisson da entonces P = O, 20.
Caso del plano o del espacio, Si en vez de una re c ta se considera el plano o e l espacio, el razonamiento que condujo a la frmula [5. 8 J sigue siendo vlido.

66

Supongamos, por ejemplo, el caso d e l espa c io. Sea B un


dominio de volumen b, contenido en un dominio A de volumen a.
Represntese la probabilidad de q ue un punto dado al a zar en A
pertenezca a B, por b/a (proceso de Poisson). Dados a l azar n
puntos en A, la probabilidad de gue r de e llo s es t n en B, es
b(r;n, p), y suponiendo que A crece hasta llenar todo el espacio, al
mismo tiempo que tambin n crece de manera que la densidad median/ a = ).. se mantenga constante {;\. = nmero medio de puntos por
unidad de volumen}, entonces, pasando al lmite, resulta que la
probabilidad de que B contenga exactamente r puntos est dada por
la misma frmula [5.8]. Por ejemplo, es tpico elsiguienteproblema:
Problema S. 8, Se sabe que un Z{quido contiene aiertas bacterias a razn de 4 baaterias por am 3 Se desea saber Za probabilidad de que una muestra de 1 cm 3 no aontenga baateria aZguna y
tambin Za probabiZidad de que en 1/2 am 3 haya por Zo menos una
bacteria.
Soluci6n. En el c aso de la primera pregunta e s ,_ = 4, b = 1,
r = O; p o r tanto P = e'"" = O, 0183 . En el d e la segunda, puesto que
la probabilidad de gue no contenga a l guna bacteria es e-2, la probabilidad de gue contenga por lo menos una bacteria ser P = l - 6 -2 = o, 864.

3.

EL PROBLEMA DE LAS FILAS DE ESPERA

Un pr oceso aleatorio importante que tiene varias interpretaciones es el llamado de maner a general "proce so de nacimiento y
mue rte " o "pr oceso de inmigracin y emigracin" .
Se trata de
es tudiar el comportamient o de un co njunto de eleme ntos (partculas,
personas, llamadas t e l e fnica s , .. } en e l cual, c on el tr a nscurs o
de tiempo, se incorporan nuevos elementos (segn cierta probabi-

ldad) y desaparecen otros (tambin con cierta probabilidad). Para


fijar las ideas, aunque las 6rmulas son las mismas en cualquier
interpretaci6n, vamos a estudiar el problema de las "colas" o filas
de espera.
Consideremos una sola ventanilla de atenci6n de clientes, los
cuales, a medida que llegan, se van colocando en la cola o fila de
espera, hasta el momento de ser atendidos. Supongamos que la
llegada de los cliente s sigue un proceso de Pois son, de parmetro
),. . Esto quiere decir que la probabilidad de que lleguen r clientes en
un interv alo de tiemp o b est dada por [5.8], y la pr obabilidad de
que llegue un cliente en el intervalo t:,t es ),.t:,t [5. 9], es decir, depende slo del intervalo 6 t, pero no del momento en que este intervalo se considera (o sea, no se tiene en cuenta el caso de que
en ciertas horas la afluencia de clientes puede ser mayor que en
otras). Igualmente, se hace la hiptesis de que la probabilidad de
que en el intervalo 6 t un cliente t ermine de ser atendido y abandone la fila es igual a x6t, siendo K otra constante. Ello equivale a
supone r que la salida de l os c liente s sigue tambin una ley de
Poisson, d e parmetro x, Recordemos que ),. significa e l nmero
medio d e clientes que llegan por unidad de tiempo, y x el nmero
medio de clientes que son atendidos por unidad d e tiempo.
Sea P.( t) la probablidad de que en el instante t la cola tengan
clientes. Puesto que la llegada y la salida se consideranindependientes, tendr emos (salvo trminos en (6 t )2 que no tenemos en cuenta)
Pn( t)

P._ 1 ( t - 6t)Mt + P n+/ t -li t)1t6 t +


[5 .1 3]
+ P.( t -li t Hl - Alit - Klit) ,

lo cual expresa que la probabilidad de que en el instante t hayan clientes es igual a la probabilidad de que en el instante t - lit haya n - 1 por
la probabilidad de que llegue uno nuevo, ms la probabilidad de que en
el instante t - lit hayan+ 1, por la probabilidad de que uno se retire,
m s l a probabilidad de que en el instante t - lit haya n clientes, por la
pr obabilidad de que en e l intervalo considerado no salga n i llegue ninguno. La probabilidad deque en e lintervalo (t -lit, t ) se p roduzca
ms de un suceso (llegada o salida de clie ntes) e s infinitsima de or den igual o superior a(lit)2 y por tanto no se ha tenido en cuenta en [5.13].
Paran= O, [5.13] se reduce a
P

0(

t)

= P / t - lit)l\lit

+ P.( t - lit)( 1 -

),.lit) .

[5.14]

Pasando al p rime r miembro de [ 5. 13 Jy [5. 14] el trmino que


no contiene lit, dividie ndo ambos miembros por lit y pasando al lmite para lit - O, quedan l as ecuaciones dife renciales
[5.15]

67

Estas son las ecuaciones fundamentales del proceso.


Supongamos t lo bastante grande para que desaparezca la influencia de los primeros momentos en que la cola se inicia. Es
decir, supong amos un estado estacionario, con las P independientes de t. Entonces, en las ecuaciones [5.15], los primeros miembros son nulos y los segundos son indepe ndientes de t , quedando

[5.16]
Escribiendo estas ecuaciones para n= 1, 2, .. , n,- 1 y sumando,
queda 1tP = ,_P -V de donde

P, = p"P
Puesto que d ebe se r
1 - p, y se obtiene

donde

[5. 17 ]

p = ~K

P. = 1, r esultan las condiciones p < 1 y

P =

68

0,

[5.18]

(1 - p)p".

Esta es la probabilidad d e que la cola tenga n clientes. En


particular, la probabilidad de encontrar la ventanilla desocupada
esP 0 =l- p.
El m~ero medio de clientes ser

_e._
1 - p

[5.19]

donde h emos utilizado que fn p- 1 =(1- p)-2 , c omoresultaalderiva r


l a suma

p"

= (1 -

0 -1.

En todas e stas f rmulas se supone p < 1.


Sea T e l tiempo que trans curre de sde que un cliente llega hasta
que sale, despus de haber sido atendido. Sea (-r)t:,-r la probabilidad de que este tiempo est comprendido entre T y T + t:,-r. Sial
llegar, la cola tienen clientes, segn la frmula [ 5.10] la probabilidad de q ue en e l tiempo transcurrid o h asta e lmoment o d e salir
(tiempo de atend er a los n clientes de la cola, ms el tiempo de
atende r al que llega) est comprendido entre TY T + T, es f( T \nl-r,
donde

f(-r In)

[5.20]

Obsrvese, efectivamente, que si la re c ta considerada en la


f6rmula [5.10] es el eje de los tiempos, la distancia x que all figura es ahora el tiempo T, dado n,. Por tanto

f( T)

J(T \ n)P. =

n =o

[5.21]
n

O sea; Za funcin de densidad de probabiZidad deZ tiempo de espera


(desde que el aliente ZZega hasta que saZe)es Za [5. 21] para T ;e O y f = O
para T < O.
El tiempo medio de espera ser
E(T) =

~
)\\>- p

s\f(T)d
T =
o

[5. 22]

11. - /.. .

Si se desea el tiempo medio de espera "hasta llegar a la ventanilla", teniendo en cuenta que el tiempo medio de atenci6n es 1/ 11.
(puesto que 11. es el nmero medio de c lientes atendidos por unidad
de tiempo), resulta
E(T 1 )

E(r)-'it

[5.2 3]

11. (l - p ).

Es te tiempo medio de espe ra "hasta llega r a l a v entanilla" es


til, por ejemplo, para muchas personas que s 6lo se impacientan
hasta el momento de llegar a la ventanilla, pero que luego no les
importa el tiempo durante e l cual son a tendidos y no hacen nada
para abreviarlo.
Ejemplo l.
Una oficina debe atender un promedio de 200 alientes que llegan al azar aada 4 horas, y se quiere que Za longitud media de Za ao l a no sea superior a 3 alientes. Cuntos ali entes por
hora debe ser aapaz de atender Za oficina?
Solllci6n. Es )..
t es por hora.

= SO,

E( n)

= 3.

P o r tanto [5, 19] da K 6 7 clien-

Ejemplo 2. Si aada ventanilla de una o.fiaina puede atender a


40 alientes por hora y se sabe que aauden en promedio 200 alientes

por hora, l auntas ventanillas deben habilitarse para que la longitud media de Za aoZa no s uper e a los 3 alientes por ventanilla?
Solllci6n. Llamando v al nme ro de v e n tanillas, es A = 200,
E(n) = 3v , y por tanto, se ti e ne la ecuaci6n 3v 2 - l Sv - 5 = O,
donde v = 6.
K

= 40 v,

69

Ejemplo 3.
Un doator sabe que eZ tiempo medio de que dispone
para atender a aada paciente es de 20 minutos. Suponiendo que Zos
pacientes ZZegan al azar, auntos paaientes debe aitar por hora
para que eZ promedio de Zos que esperan no sea superior a dos?
Solucin,

Dos pacientes por hora.

Ejemplo 4.
En una estacin de serviaio Uega un auto cada 6
minutos y tarda 4 minutos en ser atendido. Se pide: a) Za probabilidad de que el auto que llega no tenga que esperar y b) eZ tiempo medio de espera desde que ZZega hasta eZ momento en que es atendido.
Solucin.

a)

P 0 = 1 - (2/3) = 1/3; b) E(Ti) = 12 - 4=8 minutos.

Ejemplo 5. EZ tiempo medio de atenain de una ventaniZ Za es de


1 O minutos y llega un a Ziente aada 11 minutos. HUese Za longitud

de Za aoZa y en aunto disminuye Za misma si eZ tiempo de atenain se


reduae a 9 minutos.
Solucin,

La longitud media de la cola en el primer caso es

E(n) = 10, y en el segundo, E(n ) = 5, o sea, se reduce a la mitad.

70

Esto prueba la rapidez con que disminuye la cola al aumentar la


eficiencia del servicio.

6
DISTRIBUCION NORMAL, VARlABLES ALEATORIAS CONTINUAS

l. APROXIMACION DE LA DISTRIBUCION BINOMIAL POR LA


NORMAL
Hemos visto que suponiendo n,p = ,_ = constante, la di stribuci6n
binomial tiende a la de Poisson, Consideremos ahora el caso en que
p no sea demasiado pequeo y que tanto n como r sean grandes,
En tal caso se puede demostrar el siguiente teorema

Si r -

Teorema de De Moivre - Laplace,

oo

y n -

oo

de manera

que
\ r - np - x <

[ 6. l

oo,

lnpq

J
71

entonaes se verifiaa que


[ 6. 2 J
No se da la demostracin de este teorema por exigir clculos
un poco largos y delicados. Ella se puede hallar en los libros de
Feller(l) o Reny. (2 ) En realidad, la condicin [6. 1 J se puede
reemplazar por otra menos exigente, En efecto, se puede demostrar que la relacin asinttica [6. 2 J es vlida con slo suponer
que n y r tienden a oo de manera tal que, siendo p constante, sea
lim ( r - np) 3 /n 2 = O (vase, Fellerhl),
L a frmula [ 6. 2 J permite
aproximada

b (r n

'

calcular

b(r:n, p ) p or l a f rmula

p) = (n)p'q,,..' - - -1- r
/ znnpq

6 -, 212

[6. 3 J

donde

[ 6. 4 J
Esta aproximacin de b(r;n, p) se llama la aproximaain por Za
funain normaZ, de la que nos ocuparemos a continuacin, L os intervalos de valores

n, r,p, para los cuales la aproximacin normal

[6 . 3 J es buena, y se pueden tomar ambos miembros como iguales,


no son fciles de establecer. En general, se suele considerar que
la aproximacin [6. 3] es buena para p > O, 1 y n,p > 5.
Por ejemplo, es b(20;25, O, 6) = O, 029 y, usando la aproximacin dada por [6.3], resulta b (20;25,0,6) =0,022 . Igualmente es
b(l5;100,0,2) = 0,048 y la aproximacin [6.3] da b(lS;l00,0,2)
= o, 046.
Es clsico un experimento de Galton para comprobar la frmula [6. 3] para el caso p = 1/2. Consiste en una tabla como se ilustra en la figura 5, colocada verticalmente o inclinada, por cuya parte
superior se introducen numerosas bolillas (perdigones), las cuales, al caer, se encuentran con obstculos que las obligan a desviarse hacia la derecha o hacia la izquierda, con probabilidad 1/2. En
el caso de la figura, cada bolilla se encuentra con 6 obstculos
(n, = 6 ). Las bolillas que se han de s viado r veces hacia la izquierda y 6 - r hacia la derecha van a parar a la casilla r(r = O, 1, 2, ... , 6 ).
L a p r o babilidad d e que una bolilla vaya a parar en la casilla r es

[6. 5 J

72

Haciendo el experimento con


N bolillas, el nmero ms probable de bolillas que van a parar
a la cas illa r es igual a l valor
medio NP, .
Efectivamente , la
experiencia prueba que ellas van
tomando la forma de campana
expresada por la c urva que indica el segundo miembro de
[ 6 . 5 ] ,como muestra la figura 5 .
E s t a c u r va de c ampana es la que
vamos a estudiar e n l o que sigue,
p e r o antes conviene dar algunas
definiciones
sobre variables
aleatorias continuas.
Fig. 5.

2.

VARIABLES ALEATORIAS CONTINUAS

H a s ta ahora hemos c ons iderado variabl es aleatorias que pue den tomar un nmero finito de valores (var i able s aleatorias finitas)
o bien, por exte n s i n natural , variables a l e atorias que pueden tomar una infinidad numerab l e de val ores , como la variable d e
Poiss on, Se di ce que estas v ariables son discretas.

En ambos casos, representando sobre el eje x los valores


, Xn, de la variable aleatoria X y tomando sobre cada x 1
el valor f(x,) de la probabilidad correspondiente, se tiene la grfica de la funci6n de probabilidad de X, que es un conjunto discreto
de puntos cuyas coordenadas son (X 1, f(x 1 )), i., = 1, 2, 3, . . . ,
As{
se hizo en las figuras 1, 2, 3 y 4.

xv x 2 ,

El resultado [ 6 . 3 ] , donde x puede tomar c ualquie r valor re a l,


conduce a es tudiar variables a le atorias el nmero d e cuyos valores
n o es finito ni nume rab l e . Para s implificar, vamos a supon e r que
son variables que pueden tomar todos los valores reales , desde - co
hasta +oo, atribuyendo la probabilidad O al conjunto de los valores
que no puede tomar. Se llaman variables aleatorias continuas. Recordemos que p ara el caso finito, la definicin de v ariable aleatoria
va ligada a la definici6n de funcin de probabilidad. En el caso general es mejor asociarla a la funci6nde distribuci6n. Suponiendo un
espacio de p robabilidad general (E , B, P), se establece la sig uiente definicin.
Definicin 6. l. Se llama va:riabZe aleatoria definida en un espacio de probabilidad (E, B, P) a toda funcin X: E - R de E en el
conjunto de lo s nmeros reales, tal que, para todo x E R, el conjunto de elementos a E E para los cuales X(a) s; x, pertenec e a B.

La ltima condicin nos dice que el conjunto de elementos a E


E E para l o s c uales X (a) s; x, t i e n e asignada una probabilidad, que
representaremos abreviadam ente por
F (x)

= P(X

s; x) ,

[6. 6]

y se llama la funein de distribuein de la variable aleatoria X.


Se dice que F(;,,;) es igual a la probabilidad de que K tome un valor
s; x,
Obse r vemo s q ue esta d e fini c in de variabl e a l eator ia es apli cable tambin a variabl es a l eator ias finitas . En efecto , e n tal caso, s uponiendo l a ordenaci6n X 1 < X2 < . . , < Xn y llama ndo E 1 a l
conjunto de e l ementos a de E tales que X(a) s; X 1 , resulta que el
conjunto x-1 (Xi) es E 1 n E 1_ 1, y por tant:'i si E 1 y E 1_ 1 pertenecen a

B, tambin pertenece a Bel conjunto X

(X 1).

De [ 6. 6 J se d educe n inmedia t amente las siguientes propieda des d e toda funcin de dis tribucin: l. F (,c) e s montona n o
decrec i ente; 2 . F (- ~ ) = O (probabilidad del conjunto vaco) y F (+"')=
= 1 (probabilidad de E) . Adems
P (a < X s; b ) = F( b ) - F(a) .

[6. 7 J

73

En el caso de una variable aleatoria discreta, la funcin de


distribucin F(x) es una funcin escalonada, expresada por sumas
de la forma [3. 4]. Vamos a considerar ahora el caso en que F(X)
es una funcin continua, en cuyo caso diremos que la correspondiente variable aleatoria es aontinua. F(x) puede ser una funcin
complicada, pero, para simplificar, vamos a considerar nicamente funaiones de distribuain que puedan expresarse mediante una

integral de Za forma

F(x)

s:j(x)dx,

[6. 8]

donde fes llamada funain de densidad o de densidad de probabilidad de la variable aleatoria X. Tambin por simplicidad, supondremos que fes continua o, por lo menos, "continua por pedazos",
o sea, compuesta de un nmero finito o de una infinidad numerable de pedazos continuos.
De [6 . 7] y [6. 8] se d e duce
b

P(a < x,;; b) = SJ(x )dx

74

[6. 9]

y las mencionadas propiedades de F nos dicen que toda funcin de


densidad cumple las condiciones

f(x)

2:

o,

r "'f( x )dx

l.

[6.10]

Obsrvese gue la condicin [ 6 . 9] excluye e l caso de las probabilidades discretas. En efecto, en es te caso segn [6. 9], Za
probabilidad de que X tome exaatamente un valor dado x 0 es siempre
nula. Es el caso que ya observamos en el captulo 1. 1 donde la
probabilidad nula no significa imposibilidad. Esto hace que sea
lo mismo considerar la probabilidad P(a s:x,;; b) que la P(a <x < b).
Veamos la interpretacin geomtrica de estos conceptos.
Sea f una funcin de densidad. Su g r'.fi ca ser una curva como
la de la figura 6 (que puede ser discontinua, como en el punto X 0 ).
El rea limitada entre la curva y el eje x es l. La funcin de distribucin F nos da, para cada x, el rea comprendida entre el eje
x y la curva, desde - oo hasta la ordenada correspondiente al punto
x (rea rayada en la figura). E s ta rea F(x) representa la probabilidad d e que X t om e un valor <: x,
Las definiciones de esperanza matemtica, varianza y momentos d e una variable a leato ria co ntinua son anlogas a l as dadas
para variables aleatorias discretas, slo que se debe sustituir las
sumas por integrales, es decir:

f(X)

X
Fig. .

E(X)

r
00

a(X) = (

xf(x)d x,

00

((x- E(X)) f (x)d x,

[ 6. 11]

y anlogamente se definen los momentos de orden superior.

La funcin generatriz de mome ntos se define tambin como la


esperanza d e la funcin e", o sea:
[6.12]

3. FUNCION DE DENSIDAD DE PROBABILIDAD Y FUNCION DE


DISTRIBUCION NORMAL
Consideremos una funcin de densidad de la forma
f(x)

a e-(,-,,)

con

a, b > O.

[ 6 .1 3]

La prime ra condicin [6 . 10] se cumple , y la segunda conduce


a la relacin
= 1 (vase el Apndice II).
La esperanza y la
varianza de la variable aleatoria X con la funcin de densidad de
probabilidad f( x ) valen (Apndice II)

aM

E(X)

a.,

a 2 (X)

d e manera q ue poniend o de manifies to e s to s valore s ,


escri b e
f(x)

[6. 14 J
[6. 13 J se

[6.15]

75

Toda funcin de la forma [6. 15 J se lla ma una


Las variables aleatorias con una tal funci6n de densidad de probabilidad se llaman normales y la correspondiente funci6n de distribuci6n se llama una
funci6n de distribuci6n normal.
Definici6n 6, Z.

funcin de densidad de probabilidad normal.

Se dice que la funci6n de densidad de probabilidad o la variable


aleatoria o la funci6n de distribucin de la definicin anterior son
del tipo N(a., cr2 ).
La funcin generatriz de momentos de la funcin [6.15] es
(vase el Apndice II)

[6. 16]
Una aplicacin importante es la siguiente. Si X e Y son variables aleatorias normales independientes de medias a.,, O.v, y
varianzas
por el teorema 3. 6 , l a funci6n generatriz d e
momentos de la variable X + Y se r

a:, ~'

[6.17]

76

Comparando con [6, 16 J re s ulta


Teorema 6, l,
La variable aleatoria suma de dos variables
aleatorias normales independientes de t i po N (a.,, a~), N(a.v, 0 ~ ) es
otra variable aleatoria normal de tipo N(a., + a.v, a; + 07).
Evidentemente, el teorema se generaliza de inmediato a la suma de 7l variables aleatorias normales independientes. Ms generalmente, dadas nvariables aleatorias normales independientes
X 1 de tipo s N(a., a~), la combinacin lineal a,X 1 e s otra variable
aleatoria normal d e tipo N(la,a. 1 ,lafaf),
Particularmente inte resante es el caso N(O, 1), que corres ponde a la funcin de densidad de probabilidad

[6. 18 J
y a la funcin de distribucin

Hx)

1- (
1
= -/2i,
J_a, e- dx .

Estas funciones Cl (x), ~(x) han sido t a buladas, Tablas ms o menos extensas se encuentran en todos los libros de clculo de

probabilidades.
tablas.

En el Apndice III se da un ejemplo de estas

La grfica de la funci6n cp (x) tiene la forma de campana de la


figura 7 . t(X) representa el rea entre la curva y el eje x desde
_., hasta el punto x . Obsrvese que, por simetra, e l rea rayada
desde _., hasta - x es igual al rea rayada desde x hasta "', y como
el rea t otal es 1, resulta
l - ~(X).

t (-X)

[6.20]

~(xl

-x

Fig. 7.

Esta relacin hace que sea suficiente tabular t (x) para valores
positivos d e x. Un detalle que conviene tener en cuenta para no
proseguir con cl culos innecesarios es que
~(x) < O, 001

para

x < -3, l

~(x) > O, 999

para

x > 3, 1

de manera que, prcticamente, basta conocer los valores de Hx)


e n el i ntervalo [O, 3 ].
Para calcular la funcin de densidad de probabilidad o la fun cin de distribucin de una variable normal N (a, cr2 ) mediante las
correspondientes de N(O, 1) basta hacer el cambio de variable

X'

X - a

[6.21]

con lo cual la funcin de distribucin F(;c) se transforma de la siguiente manera:


F {x)

("
(,-a) a
= J..,,, f(x)dx = 1J-oo cp(x' )d x' =

(x _e;\

~ - a-)"

[6 . 22 J

Por tanto, recordando [6. 7 ], se tiene el importante teorema


siguiente.

77

Teorema 6, Z.
Para una variable aleatoria normal de esperanza a y varianza o, la probabilidad de que est aontenida en el intervalo [a, b ] viene expresada por
P(a < X :. b) =

(b ~ ') - ~ ( ~ ~ .

[ 6 . 23 J

Como la funci6n ip est tabulada, esta f6rmula p ermite calcular


P(a < X :. b) para toda variable aleatoria normal,
En particular, aplicando [6. 20] resulta:
La probabilidad de que la variable aleatoria normal X de

N(a , o) est aomprendida en el inte1'Valo [a. -

;,

a + eJ

se

tipo
expresa

por
P( a - e

,;X

:. a+el =

2p(%') - l.

[6.24]

Poniendo e = ax, esta i g ualdad puede tambin escribir se en la


forma
[6 . 25]

P( a. - ax ,; X ,; a + ax) = 2t(x) - 1 ,

78

En gene r al, son de inter s las probabilidades que tienen los


valores O, 90, O, 95, O, 99, 6 o, 999. Como se deduce de las tablas,
estos valores corresponden a X= 1, 65, X= 1, 96, X= z, 582 X=
= 3,29, de mane ra que, para toda variable normal N(a, o ), se
cumple
P(a.- 1, 650 < X :.a+ l, 650)

0, 90

P(a- 1,960 < X :.a +l,960)

o, 95

P(a - 2, 58 a < X :.a +2,58o)

0, 99

P(a. -3,29 o < X ,; a + 3 , 29 a )

0 ,999 .

[ 6 . 26 ]

Recordemos que en t odas estas f 6rmulas el signo ,; puede sus tituirse por <, puesto quelaprobabilidaddequeXtome undetermin ado valor es nula.
Volvamos ahora a la igualdad aproximada [ 6 . 3] que se deduce
del teorema de De Moivre-Laplace. Siendo la esperanza de lafunci6n binomial igual a n,p y la v arianza igual a npq, el ltimo trmino
d e (6. 3] esde la forma [ 6. 15]y, por tanto, resulta quelafunci6nde
probabilidad binomia l, en e l lmite, es una funci6n de densidad nor mal. Se dice que l a funci6nbinomial es "asint6tic ame nt e normal".
P or tanto, como ya obs e rvamos , tomando el lmite c omo valor aproximado, r esulta que , para valores grandes de n y r , y no d emasi ado

peque!'.los de P, se podr.l: calcular b(r;n,p) mediante las tablas de la


funci6n cp (x), despus de hacer el cambio [6. 21 ], que es el mismo
[6 .4]. Sin embargo, ms importante que calcular el valor aproximado de b(r;n, p), que para r y n. grandes es siempre un valor
pequeo, es el clculo de la probabilidad de gue la variable binomial X est comprendida entre ciertos lmites dados.
Consideremos, por ejemplo, elcaso b(r;l0,0,4) de la figura 8,
y supongamos gue se quiere hallar la probabilidad de que 3 ,; X ,; 6.
Ser
P(3,; X,; 6)

b{3;10,0,4) + b(4;10,0,4) + b(5;10,0,4) +

+ b(6;10, o, 4).

[6. 27]

q,

79

Fig. 8.
Esta suma es el rea de los rectngulos de la figura 8, puesto
que cada sumando es la altura de un rectngulo de base unidad.
Considerando la aproximaci6n [6. 3], se tiene la curva
[ 6 . 28 ]
r epresentada en la figura 8 . Si en vez del r e a de los rec tngulo s,
tomamos el rea limitada por la curva y las rectas x = 3, :x = 6, se
tendr el valor aproximado de P(3 ,; X ,; 6).
En este caso l a aproximaci6n n o es muy buena, como se observa e n la fi gura, pe ro lo h emos expuesto para comprender e l paso
de l a suma de va lo r e s de b( r ;n, p ) para distintos val ores de r, al
rea l imitada por la cor r e s pondi ente curva normal, la cual s e
calcul a fcilme nte media nte una tab la de l a funcin t (x). En e l
e j emplo anterior, el clcul o exacto del segundo miembro de [ 6 . 2 7 ],
da P(3 ,; X ,; 6 ) = O, 778, y el clculo mediante la funcin q,, apli-

cando [6.25], donde a.=np=4, o=/npq


+ ~(0,64)-1 =0,713.

1, 54, resulta Hl, 95) +

Para valores grandes den, y r la aproximaci6n de la suma de


rectngulos por el rea limitada por la curva normal correspondiente es suficiente en todas las aplicaciones, Por ejemplo, la
figura 9 representa los valores de b(r;lOO, O, 2) y los de la curva
correspondiente

donde se ve que la coincidencia es casi total.

'
0,09
0,08

80

0,06
0,05

0,04
0,03
01)2

0,01

10

20

25

Fig. 9.
Es decir, delteor e made DeMoivre-Laplace, quehe mos enunciado como una aproximaci6n puntual d e l a funci6n de probabilidad
binomial por la funci6n de densidad normal, s e deduce una aproximaci6n entre la suma de las reas de los rectngulos originados
por la funci6n de probabilidad binomial y el rea de la funci6n normal correspondiente. Puesto que el rea de la funci6n de densidad
normal, comprendida entre dos ordenadas, es igual a la diferencia
entr e los valores de la funci6n de distribuci6n P(x), es posible
enunciar:
Teorema de De Moivre-Laplace (Segunda parte ). Si X es Za
variabZe aZeatoria que representa eZ nmero de xitos en n pruebas
de un proaeso de BernouZZi de probabiZidad p, se verifiaa

P(a < X ,; b) -

~(b-np} _ ~(g-nl'._\.

\JnpqJ

rnq

[6. 29]

Como antes, el s{mbolo- representa "aproximadamente igual".


El verdadero significado es que, paran, a, b - "'de manera tal que
(b-np)/./npq y (a-np)/!npq_ tiendan a valores finitos, entonces el
l{mite del primer miembro de [6. 29] es igual al l{mite del segundo.
La obtenci6n de acotacione s precisas del error que se comete
al tomar la aproximaci6n [6. 29 J es un problema sumamente dif{cil
(vase, por ejemplo, Feller, (i) pg. 140). Se suele admitir, de
manera un poco ambigua, pues depende de la precisi6n que se desee en cada caso, que para valores no muy pequeos de p (por
ejemplo, p<O, 1) y relativamente grandes de n.(por ejemplo, n. >20),
la aproximacin es muy buena, sobre todo si el intervalo [a, b] no
se aparta mucho del valor medio np. Segn Cramer, (4 ) la aproximaci6n es satisfactoria para n pq > 10.
Hemos visto dos aproximaciones posibles de la distribucin binomial: la de Poisson y la normal. Para valores grandes de n.p
ambas tienden a coincidir. Por ejemplo, para b(lS;l00,0,2) =
= O, 048, la aproximaci6n normal da O, 046 y la aproximaci6n de
Poisson da O, 051.
Nuevamente la ley de los grandes nmeros.
[6. 29] para b = n p + e , a = n,p- e. Resulta

P(np - e < X s np + E:)

Consideremos

- 1

[6.30]

y tambin, poniendo en en vez de e


P( \~ - p \ < e) -

2~

~ jfq)-

[6.31]

Esta igualdad a proximada significa que, p a ra n. - "', a mbo s


miembros tienen el mismo lmite. Pero, para n - "', el segundo
miembro tiende a 1 (pues ~(oo) = 1), con lo cual queda demostrado
nuevamente el teorema de Bernoulli (captulo 4. 3), a saber: en

una sucesin de pruebas de Bel'nOulli con probabilidad p , dado un


nWl!ero cualquiera e > O, Za probabilidad de que el nWl!ero de xitos
dividido por n. difiera de p en menos de e, tiende a Za unidad para
n - co.
4,

TEOREMA CENTRAL DEL LIMITE

El t e orema de De Moivre-Laplace esuncasoparticular del siguiente teorema, cuya demostraci6n no se va a dar (puede verse

81

en los libros de Feller, (l) Reny(2) o Ros (3) citados en la Bibliografa), pero cuyo enunciado conviene tener presente en muchas
cuestiones de probabilidad.

Si Zas variabZes aZeatorias


son independientes y tienen todas Za misma distribucin, con esperanza matemtica a y varianza a 2 finitas y a i O,
entonces Za nueva variabZe aZetoria
Teorema Central del Lmite.

X 1, X

2 ,

z.

+ ... +

+X

= X1

x. -na'

[ 6 .32]

a/n,

es asintticamente normaZ, es decir, su funcin


F .(z ) cumpZe, para todo z, Za rel.acin
lim F( z) =

n-oo

82

Hz)

de distribucin
[ 6 .33]

Aplicaci6n. l, Conside r e mos e l caso particular en que l as Xn


son variables d e Bernoulli, o sea, variable s que t oman nicamente los valores O y 1, de manera q ue P(X. = 1) = p, P(X. =O)= q =
= 1 - p. En este caso es a= 1, p +O, q = p, 02= (1- p)2. p+p2 q =
= pq . La suma X 1 + X 2 +.,. + x. es la variable aleatoria que indica el nmero de xitos en un proceso binomial de n pruebas .
Poniendo X =X 1 + X 2 + .. + x., el teorema central del lmite nos
dice que la nueva variable

es asintticamente normal.

E sto es, precisame nte, lo que afirma

el teorema de De Moivre-Laplace .
Aplicaci6n 2. Si las variables Xn son variabl es d e Poisson d e
parmetro y , y por t anto E(X n) = y, a 2(X n) = y (para todo n), la suma X =X 1 + X 2 + ... + Xn es otra variable de Pois son de parme t.r o n y = A (vase la aplic acin del captulo 5.1). Entonce s [ 6 . 32]
y (6 . 33] permiten escribir
X- A
lim P ( - - - <

n-"'
o sea
lim

/A

[6. 34 J

-i; e- A =

H z ).

[, 35 ]

n - "' < \ +..;x r .

Esta relacin nos dice que, para A grande, Za distribucin de


Poisson puede aproximarse mediante Za distribucin normaZ.

Por este motivo, las tablas de la funcin de Poisson no suelen


pasar de A= 10. Para valores A> 10, cada sumando de [6.35] es
despreciable, y la suma debe calcularse por tablas de la funcin
q,(z).
Ejemplo, La variable X tiene distribucin de Poisson de parmetro A= 900. Calclese P(X < 950), Aplicando [6. 35] tenemos
A + z/1
900 + 30z 950, de donde z = 1, 666, y la probabilidad
pedida es Hl, 666) = O, 95,

Problema 6. l. Una ruleta tiene 35 nmeros. Calcular la probabilidad de que en 1,000 jugadas el nwnero 12 salga un nmero de
veces comprendido entre 25 y 30.
Solucin, Se aplica la f6rmula[ 6 .20], Aunquep = l / 35es pequeo, siendo h = 1. 000 grande, se puede aplicar la aproximacin
[6.29], y se obtiene P(25,s;X,s;30)=t(0,585)-H-0, 390)=q,(0,585)+
+ q,(O, 390) - 1 = O, 37.
Problema 6. 2, Se lanza un dado 100 veces. Se desea saber la
probabilidad de que el nmero 6 salga ms de 20 veces.
Solucin, Aplicando [6.29] para n = 100, p = 1/6 ,
P(X > 20) = 1 - ij>(O, 89) = O, 19.

resulta

Problema 6, 3. Tanto la desigualdad de Tchebycheff, en la forma [ 4. 11] del teorema de Bernoulli, como la frmula [6 . 31 ],
permiten calcular el nmero n de pruebas necesarias para que la
frecuencia experimental difiera de p en menos de un e dado, con
cierta probabilidad tambin dada.
Sin embargo, como ya se observ al final del problema 4. 4, la frmula [4. 11 J da casi siempre acotaciones excesivas.
Se recomienda aplicar siempre la
frmula [6.31].
Consideremos por ejempl o el mismo prob l ema 4 . 4.

Segn

[6. 31 ], queremos que se cumpla


2-{effq) - 1 > O, 95,

o sea

q,G~)

> O, 975.

Las tablas de la funcin q, dan


n,>(l,96)2Pi.

[6.36]

E:

Segn el enunciado, e s e = 5,10-~. Elproducto pq n o es conocido, pero segn [4.13] es siempre pq ,s; 1/ 4. Por tanto, [6.36]

83

se cumplir con seguridad sin> (1, 96) 2 104 :38, 420 , Vemos que
este nmero es muy inferior al 200,000 dado por la frmula [4. 11 J.
Problema 6, 4, Un cent1'o tur{etico debe l'ecibil' 1. 000 pel'eonas, Zas cualee debel'n distl'ibuil'ee entl'e dos hoteles igualee.
Suponiendo que cada pel'eona elige uno u otl'o de los hoteles con Za
misma pl'obabilidad 1/2, se desea sabel' Za capacidad m{nima de cada hotel (nwnel'o de pel'sonae que se pueden albel'gar) para que, con
pPobabiZidad supel'iol' a O, 95, todae Zas pel'sonas encuentl'en alojamiento.
Solucin, Es np = 500, npq = 250. Hay que calcular :x: de modo
queP(500-X!:.X!:.500+x)>0,95. Puestoquen es grande, podemos
aplicar [6. 29], resultando
P(500

-X,;

X ,; 500 + X) =

t(~) -

t(~)

2t(/2%') - l.

Para que esta probabilidad sea > O, 9 5, usando las tablas de la


funcin t, resulta que debe ser
, (1 5: 81)

84

>

o, 075,

15x81 > 1,906,

X> 30,

'

Es decir, bastar que cada hotel tenga capacidad


personas.

para 530

Problema 6. 5.
En una votaain de una poblacin numerosa, un
candidato obtiene el 60% de los votos. Se desea sabel' la pl'obabiZidad de que en una muestra de 1 00 votantes, tomados al azar, menos del 5 0% voten por el candidato.
Solucin,
escribir

La ecuacin [ 6,Z9 ] para b= np-e, a =-"', sepuede

P(i < p - e/ n )

' (

- )
Tnpq

1-

'(Tnjq).

E n e l cas o a c tual es p = O, 6, n = 10 0, e/n = O, 1, e


10 ,
/npq = 124= 4, 9, y las tablas d e la funcin t d a n t(2, 04) = O, 97 9.
Por tanto, la probabilidad buscada es O, OZ l,

En la prctica, este problema se aplica a la inversa: sabiendo


que una muestra tomada a l a zar en una poblacin (supue s t a binomial) ha dado como r esultado el r por ciento de v otos a favor d e
cierto candidato, ave rigu a r la probabilida d d e que dicho candida t o
obteng a el s por c iento o m s en la e l ec cin ve rdader a .

Problema 6, 6.
Un mediaamento aontra aierta enfermedad es
efiaaz en el80% de los aasos. Se ensaya una modifiaaai6n del mismo, y se observa que en 100 enfermos tratados result efiaaz en 90
de ellos. Cules Za probabilidad de que este resultado del tratamiento sea debido al azar?
Soluci6n. Es un caso anlogo al ante rior.
cribir [6 . 29] p ara a = np + e , b = "', y queda

Conviene ahora es-

En el caso del problema, es p = O, 8 , n = 100 1 e/n = o, 1, /njxj =


t(2, 5) = O, 994. Por tanto, si p = O, 8 laprobabilidad de haber
obtenido X/n;,, O, 9 es O, 006, Como e sta probabilidad es muy pequea, hay que inferir que la modificacin ha mejorado e l m e dicamento.

= 4,

Problema 6 . 7, Se ha observado que de 10 0, 000 naaimientos,


51.400 de los naaidos han sido varones y el resto mujeres.
Es

aonsistente este heaho aon Za igualdad de Zas probabilidades de naaimiento de varn o mujer?
Soluci6n, A p liquemos [6. 31] a l c aso p = O, 5, X /h = O, 514 y
por tanto e = O, 014, / n/pq = 6 32, 4. Resulta
P

(1~- o, 5 \ > o, 01 4)

= 2 (1 - H8, 8 5)).

Como ~(8, 85), que no se halla en las tablas, es del orden 1 - 10-9, resulta que la probabilidad de que el nacimiento de 51,400
o ms varones sea debido al azar, si la probabilidad fuera O, 5, es insignificante. Por tanto, debe rechazarse la hiptesis de que sea p =
= o, 5,
Es t e tipo d e proble mas, se e s tudia n con m s d e talle e n e l
capt ulo 8 , a l tratar de l a "ver i fi cacin de hiptes i s ".
5,

OTRAS FUNCIONES DE DENSIDAD

Adems de la funcin de densida d n o rmal, que e s la ms importante , son tambin de inte r s las s i g uiente s :
a) Funcin de densidad uniforme .

D epende de d os p arm et r os

a y b (a < b ) y val e
f(x ) =

1
o=a

para x E [a, b],

f(x)

O para x

f.

[ a, b].

85

De aqu
E(X) =

a +b
-z,

( b - a )2
if(X) = ~

b) Funcin de densidad exponencial.


tro A> O y vale
f (x)

= Ae- ). para x >

Depende d e un parme-

o,

f(x )

if (X)

=?

O para x,:; O.

Para esta funcin es


E(X)

=- ,

c) Funcin de densidad de Cauchy.

Depende de un parmetr o

a y vale
f(x )

l+(x - a)2

para

- "'<X<"'.

La espe r anza matemtica y l a varianza de esta funcin va l e n "'

86

7
LA FORMULA DE BAYES

1,

INFERENCIA ESTADISTICA

El clculo de probabilidades es un capitulo de la matemtica.


Como tal, se construye a partir de unas definiciones y unos axiomas, nicas fuente s de que depende la validez de los resultados.
Aunque los modelos y ejemplos del clculo de probabilidades provienen de la experiencia (lanzamiento de mone das o dados, extr acci6n de bolillas de urnas, e t c . ), de ella se toma s6lo el
es quema, para lleg ar a l as ide as, p e ro la validez de los teoremas
a que se llega 'no depe nde nunca de resultados experi mentales.
Ms bien al revs, si el resultado de un teorema no coincide con
el de la experiencia, la discrepancia se atribuye a que sta ha sido
mal realizada, o a que los elementos de la misma (moneda, dado,
urna, . .. ) no estaban en buenas condiciones.
La estad{stica, en c ambio, es una ciencia experim e ntal. Tra ta de orde nar, estudiar y pred eci r el compor t amie nto de ciertas
car acters ti cas d e los e l ementos de u n conjunto, lla m a d o pobZaain, aoZeativo o universo, que existe de hecho en la naturaleza.
Decimos que es una c iencia experimental porque, si bien u tiliza a
modo de herramienta el clculo de probabilidades, su objeto es el
estudio de conjuntos c uyo comportamiento no se puede cambiar, y
el estadstico debe utilizar la parte de la matemtica que ms le
convenga para llega r a r esulta dos acordes con l a realidad.
Dentr o d e l a esta ds tica, el capitulo ms vin culado con la teor a
d e las probab ilid ades es e l lla mado d e l a infe r e ncia est a dstica.
Su objeto es en cierta manera el inverso del de los captulos
precedentes. Hasta ahora hemos e studiado funciones de probabilidad o de distribuci6n, y de ellas hemos sacado consecuencias sobre las poblaciones que se a daptaban a ellas. La funci6n d e
probabilidad era un dato. El problema de l a inferenc i a estad{s ti ca
es el inve rs o : a partir ciertos datos d e una poblaci6n, aver iguar
l a funci6n de probabilidad que los rige. Los datos que se c onoce n
de l a pobl aci6n proceden de ciertas muestr as de la mis ma, o sea,
d e c i erto s sub conjunt o s e l egidos en e lla, y de l as propiedades de
las muestras hay que "inferir" las d e toda la poblac i6n.

87

A veces, a partir de las muestras, hay que estimar los valores


de ciertos parmetros de la poblaci6n (media, varianza), y otras
veces hay que verificar hip6tesis sobre los valores de estos parmetros. Ya veremos ejemplos en los captulos que siguen.
En ste, como puente entre las probabilidades y la inferencia
estadstica, vamos a dar la llamada f6rmula de Bayes.
2.

FORMULA DE BAYES

Sean A 1 , , A 2 , , A, l'l sucesos que se excluyen mutuamente


y cuya uni6n es todo el espacio muestra! E, o sea, A 1 U A 2 U ... U
U A. = E. Sea B un suceso tal que P(B) f. o, y supongamos que
se conocen tanto las probabilidades condicionales P(B I A) como
las probabilidades P(A).
El problema de Bayes consiste en calcular, con los datos anteriores, las probabilidades P(A 1 1 B). Segn [ 2. 7) tenemos
P(B

n Ail

= P(Ail P(BIA,l =

P(Bl P(A, IBl

[ 7. 1]

y segn el axioma II de la definici6n 2. 5 de probabilidad

88
P(B)

P(B l E)

P(B l (U A 1 ))

P(U (B lAi))

[7. 2]

lP(B l A 1 ).
1

De [7. 1) y [7. 2] se deduce


P (A,IB) = ~(A, lB) =
P(A 1 l B)
1

P(A,) P(B A,)

[ 7. 3]

P(A) P(B I A 1 )

Esta es la f6rmula c onocida con el nombre de f'l'frlUla de Bayes


(publicada por J. Bayes en PhilosophicaZ Transactions, 1764), la
cual expresa la llamada "probabilidad de las causas", pues resuelve el siguiente problema: Suponiendo que un suceso B puede producirse como consecuencia de c ualquiera de los sucesos A 1 y
sabiendo que B se ha producido, averiguar la probabilidad de que
haya sido debido a la causa A 1 Se supone n co nocidas las probabilidades P(Ai) y P(B I A).
Problema 7. 1. La U1"IU1 A 1 -contiene 10 boZillas blancas y 15
La urna A 2 contiene 25 boZiUas blancas y 5 negras. Se

negros.

ha e:rtra{do una bolilla de una de Zas urnas y ha resultado ser blanca. Se supone que, a priori, Zas dos urnas eran igual.mente probables. CuZ es Za probabilidad de que Za boUUa haya sido e:z:traia de Za urna A 1 ?
Soluci6n. Es P(Ai) = P(A2 ) = 1/ 2, P(B IA1) = 10/ 25 = 2/5,
P(B IA 2 ) = 25 / 30 = 5/6 . Por tanto la f6rmula d e Bayes da
P(A1IB) = 12/3 7.
Problema 7. Z. Una fbrica tiene tres mquinas A 1 , A 2, y A:, para producir ciertas piezas, tales que: A 1 produce eZ 30% de las
piezas con un porcentaje det 2% de piezas defectuosas; A 2 produce
eZ 25% de Zas piezas con eZ 1% de defectuosas y A:, produce eZ 45%
de Zas piezas con eZ 3% de defectuosas. Se elige aZ azar una pieza
que sale de Za fbrica para Za venta y resulta ser defectuosa, auz
es Za probabilidad de que provenga de Za mquina A 1 , de Za A 2 o de
Za A,, ?
Soluci6n. Es P(Ai)= o, 3 , P(A 2) =O, 25, P(A,,) = o, 4 5 , P(B IA1 ) =
O, 02, P(B I A 2 ) = O, O1, P(B I A,,) = O, 03. Con estos datos, las
probabilidades P(A1 IB) de que la pieza defectuosa (suceso B) provenga de l a mquina A 1 , resultan
P(A1IB) = o,273,

P(A2IBJ = 0,114,

P(AaiB) = 0,614.

Problema 7. 3. La f6rmula de Bayes permite calcular la probabilidad "a posteriori", despus de r ealizado un cierto experimento,
de un s u ces o cuya probabilidad "a priori" se c onoce. Supongamos,

por ejemplo, una moneda desconocida a Za que atribuimos una probabilidad p 1 de tener dos caras. Se lanza Za moneda TL veces consecutivas y en todas eZZas sale cara. Cul es Za probabilidad,
despus de estos lances, de que Za moneda tenga dos caras ?
Soluci6n. Sea A 1 el suceso "tene r dos c aras", A 2 el suceso
opuesto (t e n e r una s ola car a ) y B el suceso "salir ca ra TL veces
c o nsecutivas ". Es P (A1) = Pi, P(BiAiJ = 1, P(B IA 2) = (1 / Z)",
P(A 2 ) = l - P 1. Por tanto, la f6rmula d e B ay es da para la probabilidad bus c ada

Pi

P(A1 1 B) = Pi+(l-Pi )( 1/ 2)n


Por ejemplo, si Pi =
Observac i6n.

10...,, resulta P(A1 1 B) - 10-4.

Este ltimo problema se b asa e n la probabilidad

a priori P 1, que e n cierto modo es un " g r a do de c reencia" ace r ca


d e una determinada c u esti6n. E l ejemplo pon e d e manifiesto la
relaci6n de la f6rmula de Bayes con la inferencia estad{stica: a

89

partir de un valor estimado Pi, mediante una muestra (en e l ejemplo anterior el lanzamiento n. veces de la mo.neda) se consigue un
mejor valor de la probabilidad estimada.
Debido a la ambigedad de la probabilidad a priori, el uso de
la f6rmula de Bayes en este tipo de problemas ha sido muy discutida. En general, se procura no usarla, si bien, modernamente,
hay escuelas que procuran tomarla como base de toda la teora de
la inferencia estadsti c a (vase el libro de Lindley, citado en la
Bibliografa (6 )).

90

8
ESTIMACION POR PUNTO

l.

MUESTRAS

Sea X una variable aleatoria, discreta o continua, cuyafunci6n


de probabilidad o de densidad sea f, y cuyo dominio sea una cierta
poblaci6n (o espacio muestra!) dada ,
Una muest1'a de tamao n, significa un conjunto x 1 , x'ill , .x-n de
valo res de X. Para que una muestra sea til h ay que suponer que
h a sido tomada "al azar" con la funci6n de probabilidad o de densidad f. Esto significa que se cumplen las dos condiciones siguientes:
a) Cada uno de los valo-res x 1 puede considerarse como un valor de una nueva variable aleatoria X 1 que tiene la misma funci6n
de probabilidad o de densidad f que X. Por tanto

i
b)

= 1,2, . . . ,n. [8.l]

L as variables a l eat orias X 1 son i ndependient es.

Vamos a suponer siempre que estas dos condiciones se cumplen, lo que facilita la realizacin de inducciones a partir de la
muestra. Supongamos, por ejemplo, que la poblacin sea e l conjunto de los habita ntes de un pas cuya edad est comprendida entre 20 y 2l aos, y que X representa la talla de l os mismos: Al
hablar de una "muestra" d e esta poblacin se sobr entiende que se
h an tomado n habitantes i ndependientes entre s(no e ntre los de una
misma ascendencia o entre l os que practican un mismo deporte) y
que, adems, es lcito suponer que todos ellos tienen la misma probabilidad de tener una talla entre ciertos lmites (o sea,
todos estn sujetos a la misma funcin de densidad de probabilidad).
El problema de e l egir bien l as muestras, d e manera que se
cumplan la s me ncionadas condiciones a) y b), no es un problema
fcil. Hay dive rsas t cnicas que se adaptan a cad a cas o particu lar. Pa ra poblaciones finitas es til e l uso de las "tablas d e nmeros aleatorios", es decir, tablas de nmeros que pue den considerar se
como elegidos al azar. Entonces, para tomar una muestra de

91

tamao n, se numeran todos los elementos del conjunto y se toman


n nmeros sucesivos de dichas tablas. Para poblaciones infinitas
se pueden tambin utilizar las tablas de nmeros aleatorios, sustituyendo la poblaci6n infinita por otra poblaci6n finita de anloga composicin.

2,

MEDIA Y VARIANZA DE UNA MUESTRA

Supongamos una variable aleatoria X, y sean X, Xz, , x. sus


valores en una determinada muestra de tamao n. La media de la
muestra es

[8. 2]
y la varianza de la muestra es

s 2 = _!
t(x , -x)
nl
1

92

J. x2 - x
nl'

[8. 3]

Obsrvese la diferencia entre estos valores y la esperanza o


media E(X) y la varianza cr(X). En estos ltimos intervienen todos
los posibles valores de X, en tanto que en [8. 2] y de [8. 3 J intervienen nicamente n valores.
De manera anloga, t eniendo en cuenta las definiciones
captulo 3, se definen e l momento d e orden r de l a muestra

del

a,

}x

[8 . 4 ]

y el momento centrado de orden r

m,

-k !(x, -x)'

[8.

sJ

A veces interesa la llamada aeimetr{a ~\ y e l


muestra, que se definen por

exceso ,; 2 de la

Considerando cada valor x I de la muestra como valor de una


variable a lea toria X 1 , entonces
ser e l valor de la variable aleatoria

1
n!X,
+ x,. + . . . + x.).

[8 . 6]

Aplicando los teoremas del capi'tulo 3 referentes a la esperanza y a la varianza de una suma de variables aleatorias, y teniendo en cuenta [8. 1] y [8 . 6] resulta

[8. 7]

E(X) = E(X)
y tambin, puesto que las X 1 son independientes, cr2(X)
+ X 2 + ... + X 0 ) = (l /n)cr2(X) , o sea,

cr2(X) =

=(l / n,2)cr2(X 1 +

cr2(X) .

[8.8]

La varianza de Za muestra s 2 puede considerarse tambin como


el valor de una nueva variable aleatoria 5 2 , definida por

[8. 9]

52 = {I(x,-XJ
l

Para calcular la esperanza de 5 2, obse rvemos que se puede


escribir

*lDC, n

52

E(X) -

(X - E(X))J

93

{Icx,-E(X)] 2 - [X-E(X)J2.
l

Teniendo en cuenta que

E(X - E(X)) 2

E(X - E(X)) 2

resulta
E(5)

n, - 1
= -n,-cr2<X).

[ 8. 10]

Un poco ms complicado, pero tampoco difi'cil,


cr2(5 2) , El resultado es
cr(5 )

,.(X)(n-1\Z - (n,- 3)(n,-l)cr4(X ).

n \.n/

es

calcular

[8.11]

Para el caso de una variable aleatoria normal, es 4 = 3cr 4 y,


por tanto, cr2(5 2 ) = (2(n, - l)/n 2 )cr4 ,

Observaci6n, En el caso de una poblaci6nfinita, es interesante distinguir entre las muestras aon reemplazamiento, en las que

Aplicando los teoremas del capi'tulo 3 referentes a la esperanza y a la varianza de una suma de variables aleatorias, y teniendo en cuenta [8. 1] y [8 . 6] resulta

[8. 7]

E(X) = E(X)
y tambin, puesto que las X 1 son independientes, cr2(X)
+ X 2 + ... + X 0 ) = (l /n)cr2(X) , o sea,

cr2(X) =

=(l / n,2)cr2(X 1 +

cr2(X) .

[8.8]

La varianza de Za muestra s 2 puede considerarse tambin como


el valor de una nueva variable aleatoria 5 2 , definida por

[8. 9]

52 = {I(x,-XJ
l

Para calcular la esperanza de 5 2, obse rvemos que se puede


escribir

*lDC, n

52

E(X) -

(X - E(X))J

93

{Icx,-E(X)] 2 - [X-E(X)J2.
l

Teniendo en cuenta que

E(X - E(X)) 2

E(X - E(X)) 2

resulta
E(5)

n, - 1
= -n,-cr2<X).

[ 8. 10]

Un poco ms complicado, pero tampoco difi'cil,


cr2(5 2) , El resultado es
cr(5 )

,.(X)(n-1\Z - (n,- 3)(n,-l)cr4(X ).

n \.n/

es

calcular

[8.11]

Para el caso de una variable aleatoria normal, es 4 = 3cr 4 y,


por tanto, cr2(5 2 ) = (2(n, - l)/n 2 )cr4 ,

Observaci6n, En el caso de una poblaci6nfinita, es interesante distinguir entre las muestras aon reemplazamiento, en las que

para todo n (tamao de l a muestra) y todo valor posible de 9. Si


(8. 13 J no se cumple, el estimador se llama sesgado, o que tiene

sesgo.
Ejemplo l,

Supongamos que se quiere estimar el valor medio

o esperanza de una variable aleatoria X, cualquiera que sea su


densidad o funcin de probabilidad.

x-

El estimador

1
n!X,
+ x 2 + ... + x.J

(8 . 14 J

es un estimador inse sgado, por cumplirse [8. 7].


Recordando la desigualdad de Tchebycheff (3. 15 ], para cualquier nmero k, > O se tiene
P( IX - E(X) \ .e: ko(X)) ,; 7

(8. 1 5 J

Poniendo ko (X) = e y aplicando (8. 8 J r esulta

P( \X - E(X)

o"(f)
:e E:) ,; ne

[8.16]

Esto nos dice que al tomar X por E(X), el error que se comete converge a cero en probabilidad (definicin 4, 1 ).
Por
tanto, el estimador X de E(X) es tanto mejor cuanto mayor es el
tamao de l a muestra, lo cuales intuitivamente evidente (suponiendo, naturalmente, que o 2 (X) tiene u n valor finito).

Ejemplo 2. Para estimar la varianza o(X), para cualquier


distribucin de probabilidad, podemos tomar el estimador S 2 [8. 9 J.
Entonces, la relacin (8. 1 O] nos di c;:e que S 2 es un estimador sesgado, Por este motivo, suele tomarse como estimador de la varianza 0 8 (X) la funcin ns/ (n - l ), pues entonc;:es
n

E(n _ l S 2 )

o 2 (X).

[8 . 1 7]

Igual que en e l ejemplo anterior, la desigualdad de Tchebycheff


permite acotar la probabilidad del error que se comete al tomar
nS 2/(n-l) como valor de o2<X) . Teniendo en cuenta [8.11 ] y suponiendo que 4 (X) y o 2 (X) son finitos, resulta tambin que, en
probabilidad JnS 2/ (n- l) - o"(X) \ - O, paran - "'

Ejemplo 3, Hay estimado re s que n o son una funcin simple de


los valores de la mues tra y por tanto se pre stan menos al clcul o,
y deben ser estudiados en cada caso por mtodos particulares.
Cons ideremos, por ejemplo, la variabl e aleatoria X c uya funcin
de densidad es

95

f(x;e)

e1

para

\xi ,. e

e)

para

\x 1 >

f(x;

e.

[8. 18]

e,

Es el caso de una distribucin uniforme en el intervalo [ +8 ).


Dada una muestra Xi, x 2 , , x. tomamos como estimador de la
amplitud e la variable aleatoria XM, cuyos valores son X" = mximo
de \x, 1, La funcin de densidad de probabilidad de la muestra es
(2e- si todos los
son ,;;e, ycero si algn ix,\ es >8. Con esto
se calcula fcilmente gue

\x,\

Se trata, por tanto, de un estimador sesgado, aungue el sesgo


tiende a desaparecer en muestras grandes (n, - oo).

4,

ESTIMADORES CONSISTENTES

Definici6n 8, l, Un estimador T(X 1 , X 2 , , , X 0 ) del parmetro


8 se dice que es aoneietente, si T converge en probabilidad a 8.

96

De manera ms precisa, se dice que T es consistente, si dados dos nmeros positivos cualesquiera e, T], arbitrariamente
pequeos, existe un entero N tal que, para todo n > N, es P( \T -

- e\ < d

> 1 - TJ

Segn esta definicin y lo demostrado en los ejemplos del nmero anterior, los es timadores X de E (X) , nS 2/ (n - 1) de o 2 (X) son
estimadores consistentes.
Estos dos son casos particulares del siguiente teorema

Si para n - "', ee verifiaa

Teorema 8, l,

E(T ) -

8,

o2 (T) - O,

[ 8. 19 ]

entonaee T ee un eetimador aoneietente de 9,


Demostraci6n,

La desigualdad de Tchebycheff [3. 1 5) se puede

escribir
P(IT- E (T)\,. ko (T)) :a 1

-?

[ 8. 20]

Escribiendo T- e = (T - E(T )) - ( 8 - E(T)), resulta gue , s i e mpre


que se cumpla \T-E(T)\,;; ka(T), se cumplir tambin

\T-e\ s; IT-E(T)I + \s-E(Tll s;/rn(Tl + le-E(T)\,


y por tanto, de [8.19] se deduce
P(I T - e 1 $ /w(T) + 1e - E(T) \)

;e

1 - h12

[ 8. 21]

Poniendo l /h2 = TJ y puesto que, por hiptesis, ha(T) + 1e E(T) \ - O, cualquiera que sea e habr un entero positivo N suficientemente grande tal que, para todo n > N, ha(T) + \ 9 - E(T) 1 < e
y, en consecuencia,
P( \ T - 9 \ <

el

;e

1 - 11

cualesquiera que sean e, 11, lo cual prueba el teorema.

5.

ESTIMADORES SUFICIENTES

Supongamos una variable aleatoria cuya funcin de probabilidad


sea la binomial. El parme tr o e es ahora l a pr obabilidad p. Con sideremos las variables de Bernoulli Xl' X 2 , , X 0 , cada una de
las cuales toma el valor 1 (xito) conprobabilidad p, y el valor O
(fracaso)conprobabilidadq = l -p. Puestoque E(X 1 ) =p, la variable aleatoria
[ 8 . 22]
que d a e l nmero medio de xi tos en cada m ue stra, es un e s timador insesgado de p. Supongam os que, intentando s er ms precisos,
considersemos en la muestra, no slo el nmero de xitos (que
es la suma X 1 + X 2 + ... + X), sino tambin el orden de los mismos. Entonces, la probabilidad de una determinada sucesin ordenada con r xitos es prqn-r. Si no se tiene en cuenta el orden, la
probabilidad de r xitos es ( ~)prqn-r. Para la estimacin d e P, lo mis mo da c o nocer e sta ltima proba bilidad que la primera prqn-r. E s
deci r , e l h e cho de con o ce r e l o r den en que s e h a n s u c edido los
xitos y fracasos no aade ninguna informacin s upleme nta ria a
l a que proporciona e l s a b e r e l nme r o d e xito s. En otras pala bras, de una muestra x 1 , x 2 , . . , Xn lo nico que interesa, para
estimar p, es el nmero de xitos. Por este motivo se dice que
Tes un estimado r suficiente. La definicin precisa es como sigue

Definicin 8.2. Sean T, W do s estimadore s del parmetr o 9 de


una cie rta funcin de pr ob a bilida d (o funcin d e densidad). Si, dado
T, la funcin de probabilidad condicional (o funcin de densida d
condicio n a l) de W n o depe nde de 8 , cua lquiera que sea W, el e s tim a dor T se dice suficiente .

97

\T-e\ s; IT-E(T)I + \s-E(Tll s;/rn(Tl + le-E(T)\,


y por tanto, de [8.19] se deduce
P(I T - e 1 $ /w(T) + 1e - E(T) \)

;e

1 - h12

[ 8. 21]

Poniendo l /h2 = TJ y puesto que, por hiptesis, ha(T) + 1e E(T) \ - O, cualquiera que sea e habr un entero positivo N suficientemente grande tal que, para todo n > N, ha(T) + \ 9 - E(T) 1 < e
y, en consecuencia,
P( \ T - 9 \ <

el

;e

1 - 11

cualesquiera que sean e, 11, lo cual prueba el teorema.

5.

ESTIMADORES SUFICIENTES

Supongamos una variable aleatoria cuya funcin de probabilidad


sea la binomial. El parme tr o e es ahora l a pr obabilidad p. Con sideremos las variables de Bernoulli Xl' X 2 , , X 0 , cada una de
las cuales toma el valor 1 (xito) conprobabilidad p, y el valor O
(fracaso)conprobabilidadq = l -p. Puestoque E(X 1 ) =p, la variable aleatoria
[ 8 . 22]
que d a e l nmero medio de xi tos en cada m ue stra, es un e s timador insesgado de p. Supongam os que, intentando s er ms precisos,
considersemos en la muestra, no slo el nmero de xitos (que
es la suma X 1 + X 2 + ... + X), sino tambin el orden de los mismos. Entonces, la probabilidad de una determinada sucesin ordenada con r xitos es prqn-r. Si no se tiene en cuenta el orden, la
probabilidad de r xitos es ( ~)prqn-r. Para la estimacin d e P, lo mis mo da c o nocer e sta ltima proba bilidad que la primera prqn-r. E s
deci r , e l h e cho de con o ce r e l o r den en que s e h a n s u c edido los
xitos y fracasos no aade ninguna informacin s upleme nta ria a
l a que proporciona e l s a b e r e l nme r o d e xito s. En otras pala bras, de una muestra x 1 , x 2 , . . , Xn lo nico que interesa, para
estimar p, es el nmero de xitos. Por este motivo se dice que
Tes un estimado r suficiente. La definicin precisa es como sigue

Definicin 8.2. Sean T, W do s estimadore s del parmetr o 9 de


una cie rta funcin de pr ob a bilida d (o funcin d e densidad). Si, dado
T, la funcin de probabilidad condicional (o funcin de densida d
condicio n a l) de W n o depe nde de 8 , cua lquiera que sea W, el e s tim a dor T se dice suficiente .

97

Ejemplo l. Sea el casoyaconsideradodeunavariablebinomial


de parmetro 8 = p, Suponiendo una muestra con r xitos y teniendo
en cuenta la ordenaci6n es f(x;9) = pqrr-. Respecto del estimador
T = (l/n )(X 1 + X 2 + x es t = r/n. La descomposici6n [8. 24]
se cumple para r(t;9) =
p'( 1 - P)-', s = 1/ (Zn}

1)

~?nJ

Ejemplo 2, Sea una variable normal de la que se quiere estimar la media, conocida la varian za o 2 Tomemos el estimador
T = (1/n) (X 1 + X 2 + .. +X,).
La funci6n de densidad de una
muestrax1,x 2 , . . . , x 0 es el producto de la s funciones de densidad de cada X 1 (puesto que son independientes), o sea

f(x 1, X 2,

X 8)
n,

e -:l(x1- 8)2/202

G(ffn)

y puesto que, poniendo t =

I>~
n

1 -

8 )2 =

l <(x

1 -

x,

es

t ) + ( t - 9))2

l(X

1 -

t) 2

+ n (t - 8 )2

resultan los dos factores


r(t;9)

e -n(t- 8

l/
2

S (X1,X 2 ,

l _ -:(x1--t)20"
,X ) -_ _
__,, _
;;e:
8 1
u (v2n)
0

En el ltimo fa c t or puede ponerse t = ( 1/n )(x 1 + x 2 + .. . + X0 )


p a ra d estacar que slo d epende de las x 1 Por tanto -, T = X es un
estimador suficiente del valor medio E(X).

Ejemplo 3, Sea una variable de Poisson de parmetro \, Tomemos T = (l/n)(X1 + X2+ ... +X0 ) como estimadorde8=\, Resulta

y l a d e s c omposicin [8. 24] salta a la vista.


estimador suficiente de A.

6,

Por tanto,

T es un

ESTIMADORES EFICIENTES

Un nsmo p a rmetro 9 puede estim arse por distintos esti madores. Por ejemplo, p a ra estimar E(X) se puede toma r cualqui er
estimador de la f orma T = c 1X 1 +c 2 X 2 + ... + C0 X 0 (C 1 constantes).
Si se qui e r e que T sea inses gado bastar que se cum p l a c 1 + c 2 +
+ ... + c 0 = l. Aparece e ntonces e l problema de e legir, entre
todos los posibles estimadores de un parmetro, elmejorde todos,

99

o sea, aquel cuyos valores posibles sean todos muy cercanos al


valor de 9. Una manera de medir la "bondad" de un estimador T,
o bien, de medir el "riesgo" de obtener valores demasiado apartados del verdadero valor de e, consiste en considerar la varianza
(suponiendo estimadores insesgados)

cr 2 (T)

[8. 25]

E(T-9) 2

y pedir que ella sea lo menor posible.


Definici6n 8. 3. Unestimadorinsesgado Tdeunparmetro 8 se
dice que es efieiente o de m{nima Va1'ianaa si, dado otro estimador
insesgado cualquiera W de e, se cumple siempre cr2 (T) :. cr2 (W).
Para un mismo 9 puede haber ms de un estimador eficiente.
El problema d e hallarlo no es, en gene ral, fcil. Un criterio a
veces til es el que se deriva de la siguiente d es igualdad, que
enunciamos sin demostraci6n:

100

Desigualdadde Cramer-Rao. Sif(x;9) es ta funain de probabiZidad (o ta funain de densidad) de 'la VlI1'iabZ.e aleatoria X, bajo
aiertas aondiaiones muy amplias de Z.a misma, Z.a Va1'ianaa de =lquier estimador insesgado T de e aumple la desigualdad
2

a (T)

:e,

l
(
log f(X;9))
nE
ae

.
2

[8.26]

De esta manera, si s e encuentra un estim ador T cuya varianza


resulte igual al segundo miembro de [8. 26], es seguro que tal
estimador es eficiente. Sin embargo, hay que tener en cuenta
que muchas veces el nnimo expresado por [8. 26] no es alcanzable
por ningn estimador.
Ejemplo. Sea X una variable aleatoria normal; la funci6n de
densidad es la [6.15]. P or tanto
(X- a.)2
log f(x;a., cr2 ) = - 2 a2

_ log(o/Z).

[8. 2 7]

Si se _quiere estimar la media a., es el log f /oa. = (x - a.)/ a 2 , y


E((X- a.)/ cr2 ) 2
1/cr4 )E(X- a.) 2
l /cr2 Por tanto, la cota inferior
dada por la desigualdad de Cramer-Rao es a/n. Como este valor
es precisamente la varianza del estimador inses gado T = X, resulta que X es un estimador eficiente de la media.

=(

Si se quier e estimar la varianza, d e [8. 27] se deduce

a log

f (x;a., cr2 )
ocr2

a.) _ _
l_
204
2a2

(;,; -

y por tanto

ya que 114

lo log f (X;a., a l
L oa2 J

= 30

2o4

'

Por tanto [8.26 ] nos dice que todo estimador de

la varianza de una variable normal tiene la varianza

za4/n,

Distingamos ahora dos casos . El estimador inses g ado (n/(n -1 ))5 2


de o 2 segn [8.11], tiene la varianza(2/(n- l)) o4, que es m a yor
que 2 a4 /n y por tanto la desigualdad de Cramer-Rao no permite
decidir si es o no eficiente.

En cambio, si se conoce la media a., se puede tomar el estin

mador S 0 = (l/nJ(X 1

a.) 2 , para el cual se tiene

a2(S~)

...f. o4.
n

[8. 28]

Por tanto, en este caso, se trata de un estimador eficiente.

101
7.

ESTIMADORES DE MAXIMA VEROSIMILITUD

Dentro d e la estimaci6n por punto, uno de los mtodos ms


naturales y tiles es el llamado de m.xima vez,osimiZitud, que vamos a exponer, Supongamos una poblaci6n sujeta a la funci6n de
probabilidad (o funci6n de densidad) f (x ;9). Se extrae una muestra
x 1 , x 2 , , x . Puesto que la funci6n de probabilidad (o de densidad)
para cada x 1 es f(x 1 ; 8) , la funci6nde probabilidad (o de densidad) de
la muestra ser el producto

[s. 29]
El mtodo de mxima verosimilitud co nsiste en tomar, como
valor estimado de 8, el valor que hace mxima la funci6n P. Es
de c ir, se elige el valor del parmetro para e l cual es mxima la
probabilidad de haber sacado la muestra obtenida.
Pue sto que si P es mxima tambin l o ser su logaritmo; para
convertir el producto en suma, se suele tomar la funci6n L = log P
y determinar 8 por la ecuaci6n

oL
atf

\o
= {,

log f(x 1; 8 )

a9

o.

[ 8. 3 O]

Si esta ecuaci6n tiene alguna soluci6n 9 = constante, independiente de las x 1 , es ta soluci6n se deja de lado. Toda otra soluci6n,
que sea funci6n de las x 1 , constituye un estimador de mxima ve rosimilitud del parmetro 9.

Ejemplo l. Distribuci6n binomial. Hay que e stimar p. Es f(x;p) =


, x, ser

p( 1 - pl-, y para una muestra x 1 , x 2 ,

Aplicando [8. 30] resulta inmediatamente el estimador


( l/n)(X1 + X 2 + . +X.).

Ejemplo 2.. Distribuci6ndePoisson. Enestecasoes f(X ;A)


=(A/x!)e-\ y por tanto

de donde r es ulta de inmediato que e l estimador de mxima verosimilitud para A es i = (l/n )(X 1 + X 2 + + X.).

102

Ejemplo 3. Distribuci6n normal. Hay dos parmetros posibles


deestimar:lamediaaylavarianza a 2 Haciendoel producto den
funcion e s [6. 15] y tomando logaritmos resulta

-b f(X

1 -

a) 2

log o2

log

(ffn.

Si se supone conocida o 2 ,

X= (l/n)(X1 + X2 + +

para a resulta

el estimador usual

x.).

Si se supone c onocida a, para a resulta


n

Si a

l \
4L (x 1
2o 1

a2

a)

son
=

oL/oa = o, oL/002

- ::-,; =
2 a~

o'

de donde a2 =

desconocidos,

~I(X

1 -

a )2

el sistema

de

ecuaciones

o da
n

x,

l\'.
- 2
nL<xi
-x>.
1

Ejemplo 4. Distribuci6n uniforme. El caso de la func i6n [ 8 . 18]


d a la fun ci6n P(x1 ,x 2 , ,x.; 9 ) = 1/(29)" siempr e que para todo
i sea I X 1 1 ,; 9 y P = O, si algnx 1 es > 9. En este c aso no se puede
aplicar directamente [ 8. 3 O] (lo que darra 9 = O, que no depende de

las xi).

Hay que seguir un razonamiento dire c to: eZ

se obtiene para eZ m{nimo valor de

e compatible

m:dmo de P
con Za muestra.

\x, \.

Pero este valor mnimo d e 8 e s precis amente el mximo de los


O sea, el mtodo de mxima verosimilitud da nuevamente, para 8,
el estimador d e l ejemplo 3 de la secci6n 3.
Observaci6n l, Se puede demostrar que, para n g rande, la
varianza de los estimadores de mxima verosimilitud tiene por
lmite la c ota inferior dada por la desigualdad de C ramer-Rao.
Es decir : Zos estimadores de mzima verosimilitud son asi nttiaa-

mente ef i cientes .
Observaci6n2, Lafunci6n P(x1 ,x2 , ,x.; 8 ) de [8.29]esla
mismafuncinf(x 1 ,x2 , ,x.;8)de [ 8 , 24], Por tanto, sise tieneun
estimador suficiente T, la ecuacin [8. 30] equivale a il r (t , 8 )/c 8 = O.
Esto n os dice que si existe un estimador suficiente cuyos valores sean
t , todo estimador de mxima verosimilitud e st dado p o r la ecuacin
or( t ;8)/ c 8 = O, o sea, e s u n a funcinde T . En otras palabras:si e:r:is-

te un esti mador suficiente, todo estimador de mxima verosimilitud


es una funcin deZ mismo.

103

9
ESTIMACION POR INTERVALOS DE CONFIANZA. VERIFICACION
DE HIPOTESIS

l.

LA DISTRIBUCION 'X.2 ("ji" cuadrado).

Antes de entrar en la estimacin de parmetros por el mtodo


de intervalos de confianza son necesarias algunas distribuciones
importantes que vamos a enunciar. Nos limitaremos a expone r sus
principales propiedades sin entrar en su demostracin, la que, sin
ser difcil, exige el clculo de c i ertas integrales mltiples que se
quieren evitar . Las respectivas demostraciones pueden verse, por
ejemplo, en el libro de Ros, ( 3 ) citado en la bibliografa.
Sean X 1 , X 2 , , X. variables aleatorias independientes normales N(O, 1), es decir, de media O y varianza l. Consideremos la
nueva variable aleatoria

x2

xf + x;

+ . . +

x;.

[ 9. 1 ]

Se demue stra que l a fun c in de densidad de esta variabl e X.2


es

[.9. 2 J
donde r (n/2) es la funcin "gamma" que se define en e l Apndice
II. L a correspondiente funcin de distribucin 2 es

[9. 3]
Tambin nos interesaremos por

P(X2 > X~)

= s"'

x.

i'.(x)dx,

X~

2:

O.

[9. 4 J

Esta es una probabilidad, cuyo valor depende de X~ y de


R e presentndola por p , es c ribiremos
P(X2 > X~) = P

n..

[9. 5 J

105

En general interesa, dados p y n, calcular x: para que [9. 5 J


se cumpla. Para ello se han construido las tablas de x (vase el
Apndice III), que dan el correspondiente x: para distintos valores
de p y d~ 7i. El nmero n se llama el nmero de grados de libertad de X .
En resumen, prescindiendo de su procedencia, lo que interesa

es saber que las tablas de y,_2 resuelven el siguiente problema:


"Dadas n variables aleatorias independientes normales N(O, 1), sean
X 1 , X 2 , , X., y la probabilidad P, calcular el valor
tal que sea
P(x > X~) = P, siendo X2 la suma [9. l]".

X:

A partir de [9. 2 J y como ejercicio de c'.lculo integral se pueden calcular los valores
E(X 2 )

[9. 6 J

= n,,

Si las variables normales x, son de tipo N(a., c,2 ), basta reducirlas al tipo N(O, l ), es decir, se considera la suma

[9. 7]

106

que tendr entonces una distribuci6n x 2


do

En particular, escribien-

S~

= 1i;(X, - o.) 2
nS~/a 2

resulta que la v=iable aleatoria


n, grados de libertad.

[9. 8]

tiene Za distribucin x con

En cambio, si se considera la surr1a


n

s2

-/iI(x, -XJ

[9.9]

donde

= (l/n,)(X 1 + X 2 + . +

x.J,

los

sumandos del s egundo


n

miembro ya no son independientes (puesto que

I(x, - X)

= O)

y el

resultado anterior deja de ser vlido. En este caso se demuestra


que: si Zas varir1btes aleatorias independientes X, son nomales
de tipo N(o., o 2 ), la nueva v=iabZe aleatoria r,;5 2/ 0 2 tiene una distribucin x con n - l grados de libertad.

-x;

Ob s rvese que s i Xi, X~, ... ,


s on var iables inde pendie ntes distribuidas como
con n 1 ,
n,. g rados de libertad
respectivamente, la SUIUa xr + xi +... +-X: s er una v a riable
distribuida como x con n 1 +
+ . . + n,. grados de libertad,

nz, ... ,

nz

puesto que la suma de las xf equivaleaunasumade n 1 +n2 + ... +


+7iic variables normales N(O, 1). En particular, si de una poblaci6n normal de varianza cr2, se toman k muestras independientes
de tama'l\os Tii, n 2 , , 7\, y de cada una se forma la suma
anloga a la ( 9. 9], la cantidad

sf

n,S~ + n 2 S~

+ ... + 7iicS,;'

[9.10]

a
est distribuida como una X2 con n
libertad.

+ n 2 + .. . +

nk -

h; grados de

Observaci6n. Una propiedad importante de la distribucin x


es que sta tiende a la distribuci6n normal cuando el nmero de
grados de libertad tiende a "' Es decir, teniendo en cuenta los valores (9. 6 ], resulta que la X2 tiende a una normal de tipo N(n, 2n).
Esto hace que las tablas de la distribuci6n X2 estn, en general,
calculadas hasta n = 30 slamente. Para ms grados de libertad
se utilizan las tablas de la funcin de distribucin normal~.

Z.

LA DISTRIBUCION t DE STUDENT

Sea X una variable aleatoria cuya funci6n de distribucin es la


X2 con n grados de libertad, y sea Y otra variable aleatoria, independiente de X, que sea normal N(O, 1).
Inte r esa muchas vece s l a v ariable aleatoria
T

_ _Y_

[9.11]

- /X/n

Se demuestra (vase, por ejemplo, Cramer(4 )) que la funcin


de densidad de T es
1

/nTT

r ( aj

r(4)

(l

+ xn2\ -(n+1)/

[9.12]

~}

Esta funci6n de densidad corresponde a la llamada distPiquien la


public6 con el pseud6nimo de Student en 1908.

buain t ,de Student, debida al ingls W. S. Gosset,

El nmero n es el nmero de grados de libertad d e

t.

La curva y= s,(xl es simtrica respectode x = O. La probabilidad de que sea \ T \ > t 0 la suma de las dos reas rayadas en
la figura 10, y su valor, que dependa de t 0 y de n, es

107

P( \ T \ > to)

s,(x)dx

[9. 13 J

p,

'

Fig. 10.

108

Anlogamente al caso de X2 , se han tabulado los valores de t 0 en


funci6n de p y de n.
Las tablas de la funci6n t (vase el Apndice III) resuelven el siguiente problema: "Dadas las variables aleatorias X e Y en las condiciones dichas, y una probabilidad P,
hallar el t 0 > O para el cual es P( 1T 1 > t 0 ) = P".
La esperanza y la varianza de T son (para n> 1 y n> 2, respectivamente)
E ( T) =

n
-~

cr2(T) -

O,

[9.14]

Para n - ', la distribuci6n t converge a la distribuci6n normal


reducida N(O, 1 ), de manera que para n > 30, en vez de las tablas
de t, se utilizan las tablas d e la funci6n ~. ya que para n > 3 O los
valores de la distribuci6n t casi no se modifican.
Ejemplo 1. Sean X 1 , X 2 , ,Xn variables independientes normales N (O, 1 ). Hemo s visto que n5 2/ cr2 tiene una distribuci6n X2 con n - l
grados de libertad, Por atraparte, (X - a)/(cr//) tie ne distribuci6n
normalN(O,l)ysedemuestrague es independiente de n5 2 /cr2 , Por
tanto

T -

X-a.

- S//n-J

[9. 15]

tiene una distribuci6n de Student con n - 1 g rado s de libertad. Ob srvese que en [9. 15] no figur a la varianza cr2

Ejemplo 2, Sean X 1 ( i, = 1, z,, .. , n,) e YJ{j = 1, 2, .. ,n)muestras independ ientes de las variab les normales X e Y, de media s

a.,,

respectivas E(X) =
E(Y) = O.y y de la misma varianza cr 2 (X) =
Llamando S~ y S~ a las sumas [9 . 9], segn [9. 10],
la variable aleatoria

= cr2(Y) = cr 2

[9.16]
tiene una distribucin x_ con n, + nv - 2 grados de libertad.
otra parte

x - Y) -

(o., - o.xl

cr(l/n, + l /nvl11a

Por

[9.17]

tiene una distribucin normal N(O, l ), como resulta de aplicar el teorema 6. 1 y teniendo en cuenta que if (X) = a2/n.,,, cr2 (Y) = a2 /ny. Se puede
demostrar gue [9.16] y [9.17] son independientes. Por tanto, la variable

[9. 18)
tiene una distribucin de Student con n, + nv - 2 grados de libertad.
Es importante observar que en esta frmula no aparece la varianza 02.

3.

109

ESTIMACION POR INTERVALOS DE CONFIANZA

Volvamos ahora a la estimacin de parmetros de una distribucin de probabilidad. Consideremos una poblacin descrita por l a
variable aleatoria X, cuya distribucin depende de un parmetro desconocido 8. Si x 1 , x 2 , , x. es una muestra de la poblacin, se desea
encontrar dos funciones a(x1,xa, ... , x.) y b(X1, X 2 , , x.) tales que
P(a,;e,;b)

= 1-ri

[9.19)

donde T] es un valor dado, en general prximo a O. El intervalo


[a, b) se llama un intervalo de confianza y 1 - T] es el coeficiente de

confianza.
Aunque existen varios criterios generales para hallar intervalos de confianza, nos vamos a limitar a los ejemplos ms comunes
de una poblacin normal o "asintticamente normal" (es decir,
cuya distribucin de probabilidad sea aproximadamente normal
para muestras grandes).

Ejemplo l. Distribucin normal d e varianza a conocida. En


este caso, aplicando [6.25] a la variable X= (I /n)(X 1 +X 2 + ... +
+ .. + x.), tenemos

P(o. - xa /In < X < o. + xa/ /n) = 1 - ri

[9.20]

o sea

P(X - xo/ / < a < X + xo//)

1 - r

[9.21]

donde, por comparacin con [6.24], es r =2(1- Hx)). Dador, las


tablas de la funcin t permiten calcular x, y entonces tenemos,
para la media a, el intervalo (X - xo//n, X + xo/.f) cuyo co eficiente de confianza es 1 - r.

Por ejemplo, dado o= o, 003, n = o, 05,


= o, 124, n = 100, se
encue ntra x = 1, 96, y e l intervalo en gue se encuentra la media
desconocida a , con un coeficiente de confianza 1 - r = O, 95, es
(O, 1234,; a,; O, 1246) .
Ejemplo Z.
Distribucin normal de varianza desconocida.
a) Intervalo de confianza para la media. Si o 2 no se conoce, no se
puede aplicar [ 9. 20], pero s la variable aleatoria [9. 15], que no
depende de a2 y tiene una distribucin de Student con n - 1 grados
de libertad. Dado el coeficiente de confianza 1 - r, las tablas de
l a distribucin t nos dan el valor t(n - l ;T] ) tal que
P(- t (n - l;r),.

110

s / ~ ,;

t (n- l;r))

= 1 - r

[9. 22]

gue tambin se puede escribir

Se
1 - T)
tablas
3,565

tiene as un intervalo de confianz a para a con el coe ficiente


Por ejemplo, dados r = O, 05, n = 17,
= 4, s = O, 84, las
dan t (l 6;0, 05) = 2, 12 y resulta el intervalo de confianza
,; a,; 4,445, cuyo coeficiente de confianza es O, 95.

b) Interva lo de confianza para la varianza. Sabemos que la variable aleatoria ns/ o 2 tiene distribucin X2 con n - l grados de libertad. Dado l - r, hay que hallar a , b tales que
P (a ,;

nS
cr2
,;

b) =

[ 9.24]

l - r

Hay muchas maneras de e le g ir a, b que cumplan es ta condicin.


Por comodidad de clculo se suelen elegir de manera gue sea

nS 2

P( b < 7 )

2'

P(a , ; ~ ) =

---

L o s valores de a y b r es ultan d e las tablas de


cumple [9. 24], gue s e pue de escribir

nS ,; o ,; 1:.
P(-v
a ) =

1 - r

x y

[9. 2 5 J
entonc es se

[9.26]

Por ejemplo, dados r = O, 1 O, n = 20, s 2 = 1. 000, utilizando las


tablas de x (para n - 1 grados de libertad), para que se cumplan
las condiciones [9.25Jresultaa=l0,117 y b=30,144,yportanto se tiene el intervalo 663 ,,; o 2 ,,; 1. 976, con el coeficiente de confianza O, 90.

4.

VERIFICACION DE HIPOTESIS

Supongamos nuevamente una variable aleatoria X con funcin de


probabilidad o de densidad f (x ; e) dependiente d e un parmetro 9 . Supongamos conocidalaformade la funcin!, pero noelparmetro 9.
Sehaceunahiptesis, H 0 , de quesea 9 = 9 0 Se trata entonces, mediante una muestra,de verificar el grado de certeza de esta hiptesis.
Por costumbre se dice que se trata de verificar la "hiptesis nula".
Aveces, junto con la H 0 se formulanotrashiptesis H" por ejemplo, 9 = 8 1 9 < 9 0 9 > 9 0 Se trata entonces ge verificar tambin es tas hiptesis, llamadas "hiptesis alternativas". Las lneas
generales del mtodo a seguir son las siguientes:
Toda muestra x = (x i, x 2 , , x.), por ser un conjunto de n nmeros reales, se puede representar por un punto x del espacio
euclidiano de n dimensiones. Elaborar un test para v erificar la
hiptesis H 0 , significa buscar una regin R de dicho espacio, tal
que: a) Si la muestra = (x1 , x 2 , ,
corresponde a un punto de
R, se rechaza la hiptesis H 0 ; b) Si la muestra x corresponde a un
punto exterior a R, se acepta la hiptesis H 0

x.>

Si slo hay dos a lternativas H 0 Hi, r echazar H 0 e quivale a


aceptar H 1 Rechazar H 0 (8 = 8 0 ) cuando en verdad es 9 = 8 0 , se
llama e?To1' de tipo I. La probabilidad del error de tipo I es
P(xER; 9 = e.) =

E,

[ 9. 2 7]

que se llama nivel de significacin.


Si slo hay la alternativa H 1 (9 = 8 1 ), no rechazar H 0 cuando en
realidad debiera hacerse, por ser 8 = 8 1 , se llama e1'1'01'detipo II,
y su probabilidad es P(x ~ R;8 = 9 1 ) = r. En este caso (8 = 8 1 , como
nica alternativa) nos interesarem9s tambin p or l a probabilidad
P(x E R;

= 91)

1 - r

e9. 2s J

que se llama potencia.


Definicin 9. 1. Se llamafuncin de potencia del test definido por
la regin R con respecto al valor 8 del parmetro, a la probabilidad
P(x E R; 8).

[9.29]

Todo el problema consiste en hallar la regin R, dador, e ,


Consideremos el siguiente problema ilustrativo.

T).

111

Sea una poblacin normal N(a., o) con o 2 conocida y a. desconocida. Hacemos la hiptesis nula a. = a. Queremos preparar un
test de esta hiptesis. Sea X = (1/ nHX 1 + X 2 + . + Xn).
Considerando una probabilidad = O, 05 sabemos que

[9.30]
que, poniendo o(X) = a/ / (a es dato), se puede escribir

[9.31]
Por tanto, un test de la hiptesis a. = a. 0 al 5% puede ser: "Se
elige una muestra y se calcula sumedia x=(I/nHx1 +x2 + ... +xn).
Si esta media cae fuera del intervalo[a. 0 - l, 960/ ./, a. 0 + I, 960/l]
se rechaza la hiptesis a. = a.0 11
La probabilidad de equivocarse, o sea, de rechazar la hiptesis siendo cierta, es O, 05.
Obsrvese que el test construido no es umco. El mismo mtodo permite construir otros muchos. Por ejemplo, se cumple
tambin

112
P

ex ; , a.

+ 1 , 6 s 0 / /l =

o, os

y por tanto, otro test podra ser: "Si la media de la muestra tiene

un valor superior a a. 0 + 1, 650//, se r e chaza la hiptesi s a.= a. 0 " .


La probabilidad de error de tipo I es la mis ma o, 05 de antes.
La teora de verificacin de hiptesis da reglas o criterios para elegir el ms conveniente, dentro de la naturaleza del problema,
de los tests posibles .

5.

COMPARACION DE DISTRIBUCIONES EXPERIMENTALES Y


TEST DEL X2

TEORICAS:

Sea X una variable aleatoria cuyo dominio es una cierta poblacin. Hasta ahora hemos supuesto conocida la funcin de probabilidad o de densidad, salvo un parmetro de la misma. Supongamos
ahora que desconocemos la distribucin de probabilidad. En este
caso se hace la hiptesis de que esta distribucin es una determinada y se trata de verificar, mediante una muestra, si esta hiptesis es correcta o no. Para e llo e s til el mtodo d e l x, que
pasamos a exponer.
Supongamos que l a variable ale a toria X puede toma r los v a lores
Xv x 2 , , x, y que, de acuerdo con la hiptesis hecha, las proba-

bilidades respectivas sean Pv Pa, ... , p,, a las que llamaremos


probabilidades te6ricas. Tomemos una muestra de tamao n y
sean ni, n 2 , , ~ los nmeros de veces que aparecen, respectivamente, los valores Xp x 2 '.. , x, de manera que n 1 + n 2 + ... + n, =
= n Formemos el estad1stico

~ (n t

u = L
i

- np ) 2
1
np,

[9. 32 J

que, en cierto modo, ya se ve que mide l a discr e pancia, e n valor


absoluto, entre los valores medios te6ricos np , y los obtenidos en
la muestra. Un teorema muy importante de Pearson, cuya demostraci6n no damos (vase, por ejemplo, R{os (3)), dice que Za distl'i-

bucin deZ estad{stioo u, pa1'a n ([l'ande, tiende a una distl'ibucin


x con r - l ([l'ados de tibel'tad, cuando la hip6tesis planteada es
cierta.
Es decir, aunque no sea exacto (pues s6lo lo es para n - "'), se
acostumbra poner u = x y entonces las t abl as de X2 , dados r y ,
permiten calcular X~ t al que
P(x > x~ l =

[9.33]

Entonces, fijado el nivel de significacin E, si el valor [:9. 32]


es superior al
obtenido, rechazamos lahip6tesis.

x;

Problema 9. l. Se quiel'e Ve1'ifica1' Za hiptesis de que eZ nacimiento de va2>ones sigue Za Zey binomial con p = 1/2. Se tiene una
muestl'a de 100.000 nacimientos, de Zos cuales 51 .400 de los nacidos han sido Val'ones y eZ l'esto mujel'es. Este l'esultado confi1'111a
o niega la hiptesis hecha, aZ niveZ de significacin dell pD1' l. 000?
Soluci6n.
no s da
u

Si la hip6tesis es cierta, es p 1 = p 2

1/2, y [9. 32 ]

(51. 400 - 5 0 . 000)


(48. 60 0 - 50 . 000) 3 _
50.000
+
50.000
-

78 4
'.

Puesto que r = 2, buscamos x con 1 grado de libe rtad. Las


tablas nos dicen que P(x > 1 O, 83) = O, 001. Por tanto, utilizamos
l a regi6n crtica (10,83, oo) .
Como e l valor obtenido para el estadstico u (78 , 4) pertenece a esta reg i n crtica, la hiptesis debe
rechazarse. La probabilidad del nacimiento de un var6n es superi or a la del nacimiento de u n a mujer .
El mismo problema fue tratado directamente en el problema
6. 7, y se lleg6 al mismo resultado. El hecho e s general en e l
sentid o que: cuando Za Val'iabZe aleatol'ia puede tomal' slo dos va-

113

lores, r = 2, el metodo del x2


en utUizar la fl'TTIUla [ 6. 31].

coincide con el mtodo que consiste


En efecto, en este caso, [9.32] se

puede escribir

<n1 - np) 2 + (n2 - nq) 2

np

(n,/n - p) 2

nq

pq/n

y, por tanto, P(u > u 0 ) se puede calcular por la frmula [6, 31].
Problema 9. 2. Se Zanza un dado 6. 000 veces y resulta que Zas
aaras 1,2,3,4,5,6 saZen, respectivamente, Zos siguientes nmeros
de veces

800, 1.080, 960, 1.086, 1.304, 770.


Es el dado perfecto?
Es deair, son estos resultados compatibles con Za hiptesis p 1 = l/6(i, = 1,2,3,4,5,6)? Se desea un
nivel de significacin igual a O, 00 l.

Solucin.
U

114

Aplicando el mtodo del

al caso p = 1/6, resulta

= - -1-(2002 + 80 + 40 + 862 + 304 2 + 2302) = 200 69


l. 000
'

El nmero de grados de libertad es 5, Segn las tablas de x2,


el valor 200 queda sin duda en la regin crtica. Es decir, se
concluye que, o bien el dado es defectuoso, o el experimento h a
sido mal realizado.
Problema 9. 3. De un conjunto de 17 plantas, 9 de ellas fueron sometidas a un tratamiento qu{mfoo y el nmero de frutos fue,
respectivamente,

17, 27, 18, 25, 27, 29, 27, 23, 17

mientras que Zas no sometidas aZ tratamiento, dieron los siguientes


nmeros de frutos
16, 16, 20, 16, 20, 17, 15, 21.
Puede considerarse que eZ tratamiento surti efeato ?

Solucin. Supo niend o una distribucin normal, podemos aplicar la distribucin d e l a variable aleatoria [ 9 . 18) p a r a verificar
l a hiptesis a, = Ctv. Tenemos X = 23, 33 , Y = 17, 62, (S~n, +
+ S~nv)/(n, + nv - 2) = 14, 79, con lo cual resulta t = 3, 05. El nmero de grados de libertad es 15, Por tanto, segn las tablas de
la funcin t de Student, el valor 3, 05 queda fuera del intervalo de

las t, para el nivel de significacin O, 01. Por tanto a este nivel


de significacin las dos muestras no pueden considerarse procedentes de una misma poblacin, o sea, debe considerarse que el
tratamiento surti efecto.

Problema 9, 4, Un teat de inteligencia entre ZO aZumnoa de una


poblacin X da un puntaje medio de 90 y una varianza de IDO. El
mismo test aplieado a 30 alumnos de la poblaain Y da un puntaje
medio de 110 y una varianza de 80. Se desea saber, al nivel de
significacin O, 01, si hay diferenaiasignifiaativa entre los alumnos
de las dos poblaciones.
Solucin, Suponiendo que el puntaje tiene una distribucin normal, aplicamos el test de Student [9.18 ] para ver si la hiptesis
a.,= a., de igual promedio es aceptable. Es X= 90, Y= 80, n., = 20,
nv = 30, s~ = 100, s~ = 80. P o r tanto, sustituyendo e n [9 . 18] resulta t = 3 , 62. Como los grados de libertad son 48, las tablas de
lafuncin t , alnive!0,01, dan t 0 = 2,57. Luego,como3,62queda
fuera de este intervalo, debemos rechazar la hiptesis de igual
promedio de inteligencia. El rechazo est fundado en que, si el
promedio fuera el mismo, la probabilidad de resultados con \ t \ >
> 2, 57 es O, 01 (uno por ciento).
En los problemas 9. 1 y 9. 2 se conocen las probabilidades teri cas p 1 para poder escribir el es tadstic o U [9.32]. H ay veces,
sin embargo , en que estas probabilidade s tericas no se conocen
y hay que estimarlas mediante la misma muestra. En este caso,
bajo condiciones muy amplias y, con ciertas precauciones sobre
las que aqu no podemos entrar, tambin se puede aplicar el criterio del 2 , sustituyendo las probabilidades tericas por las estimadas y prestando atencin al nmero de grados de libertad, que
es igual a l nmero de parmetros independientes menos 1.
El
mtodo r esulta d e muc ha aplicac in prctica, s i bien h a y que te n er
cuidado en casos extremo s , Vamos a dar tres ejemplos tpicos,
que puede n servir de modelo para muchos casos a nlogos. El primer problema que sigue est tomado, con ligera variacin en el
enunciado, del clsico libro de Yule y Kendall titulado "Introduction
to the Theory o Statistics":

Problema 9. 5. Un pa{s est dividido en 8 regiones y se desea


saber si la proporcin de fumadore s vari de una r egin a otra.
Para ello se toma una muestra de aada una de estas regiones y los
resultados se resumen en Za siguiente tabla:

115

Regi6n
Fumadores

56

87

142

71

88

72

100

142

Total
758

No fumad ores

17

20

58

20

31

23

25

48

242

Totales

73

107

200

91

119

95

125

190

1.000

Se puede inferir de estos resultados que la proporcin de fumadores var{a de una regin a otra?
Soluci6n. Si se hace la hip6tesis de que la proporci6n no vara,
la probabilidad experimental de que una persona sea fumador,
calculada a partir de la muestra anterior, es p = O, 758, con lo cual
resulta
(56 - 55J/s5 + (87 - 81J/ 81 + (142 - 152 2 /152 + (71 -69)2 /69 +

+ (88 - 90)2/90 + (72 - 72)2 /72 + (10 0 - 95)2 /95 + (142 - 144)2 /144+

+ (17-18) 2 / 18 + (20 - 26) 2 /26 + (58 -48) 2 /48 + (20 -22) 2 / 22 +


+ (31 -29) 2 /29 + (23 -23) 2 /23 + (25 - 30) 2 /30 + (48 - 46) 2 /46
6, 28.

116

El nmero de grados de libertad es 7, puesto que elnmero de


parmetros independientes es 8. En efecto, sabiendo el tamao de
cada muestra, para conoce r todo el experimento, basta conocer,
por ejemplo, el nme ro de fumadores de cada regi6n. Tomando
el nivel de signiicaci6n O, 05 las tablas dan X~ = 14, 06. Puesto
que 6, 28 queda fuera de la regi6n crrtica, se deduce que el criterio del x no permite deducir que haya diferencia alguna en la proporci6n. de fumadores de una regi6n a otra.

Problema 9, 6. Hay que examinar 240 alwrmos, los cuales se


distribuyen entre 3 examinadores A, B y C.
Los resultados obtenidos son los siguientes : el examinador A aprueba 60 alwrmos, el
B aprueba 70 y el C aprueba 68. Se desea verificarla hiptesis de
que los 3 examinadores sean igualmente exigentes.

Solucin. Si los 3 examinadores son igualmente exigentes , la


probabilidad de aprobar, estimada experimentalmente de !amuestra, es p = (60 + 70 + 68)/240 = O, 825. Por tanto se tiene :
x

(60 - 66) 2 /6 6 + 10 - 66)2/66

+ (10 - 14)2 /14 + (12 - 14)2 / 14

+ (68 - 66) 2/66 + 20 - 142/ 14 +


= 4, 8.

El nmero de grados de libertad es 2 (puesto que hay 3 parmetros independientes , que son el nmero de alumnos aprobados
por cada examinador). La tabla de x, al nivel O, 05 da X~= 5, 99.
Siendo este valor superior a 4, 8, la hiptesis es aceptable, o sea,
los 3 examinadores pueden considerarse igualmente exigentes.
Problema 9. 7. Se quie>'e Ve1'ifiaa1' Za eficaaia de una vaauna.
Se aonside1'an 7 . 000 pe>'sonas vaaunadas y se obse1'Va que de ellas
60 han adqui>'ido Za enfe,.,,,edad y no as{ Zas >'estantes 6. 940.
En
aambio, de 12. 000 pe1'sonas no vaaunadas se obse1'Va que 200 han
adqui>'ido Za enfe1'fTledad y 11.800 no. Qu puede deduai1'se de ello?
Soluci6n. Vamos a verificar la hiptesis de que la vacuna sea
ineficaz. En tal caso la probabilidad de contraer la enfermedad,
deducida de la muestra, es p = (60 + 200)/19.000 = 0,0136.
De
aqu

(6 . 940 - 6 . 904)/6. 904 + 11. 800 - 11. 836)/11. 836 +

+ (60 - 96) 2 /96 + (200 - 164) 2 / 164 = 21, 6.


El nmero de grados de libertad es 1, puesto que los parmetros independientes pueden ser los nmeros de personas que adquieren la enfermedad. Por tanto, al nivel de signific a cin O, 05
es ~ = 3, 84. Por consiguiente, l a hiptesis debe rechazarse , o
sea, la vacuna es eficaz o bien, por lo menos, tal es la conclusin
a que llega e l criterio del x.
Problema 9. 8. Se desea sabe>' el po1'aentaje de televidentes
que sintonizan un detenninado p>'ogr>ama de televisin, a paPtfr de
una muest1'a tomada al azar>. Se admite un e>'1'01' de O, 05 y un aoefiaiente de aonfianza de O, 95. Se pide el tamao de Za muest1'a a
toma>', suponiendo muy g1'ande el nme>'o de televidentes.
Solucin. En este tipo de problemas cabe suponer que la distribucin de la muestra es la normal y que, por tanto, se puede
aplicar [9.3 1], t eniendo en cuenta que , para una variable de
Bernoulli, es a= p(l - p); p es la probabilidad de que un telev idente sintonic e el programa en cuestin. Resulta I, 96 a/ / ,; O, 05 y
por tanto n ~ (1, 96/0, 05) 2 o-2. Si p n o se conoce hayque usar la desigualdad p {l - p ) ,; 1/ 2, y resulta que basta tomar una muestra de
n ~ (1, 96/0, 05) 2 (1/ 4) = 384 televidentes.
Si e l e rr o r admisible fu e ra d e O, 02, el tamao de la mue stra
debiera se r n ~ (1, 96/0, 02) 2 (1 / 4) = 2. 401 televidentes. Si por experiencia con otr os programas anlogos, se c on ociera el val or de
P, el tamao de la muestra se puede disminuir y el ve rdadero va lor de p se deduce de la expresin a = p (l -p).

117

Con respecto al tamao de las muestras destinadas a averiguar


una determinada caracterstica de una poblacin, supuesta numerosa, el ejemplo anterior est incluido en el siguiente teorema general: "Si una poblacin tiene una determinada caracterstica en
la proporcin P, la proporcin de la misma caracterstica en las
muestras de tamao n es una variable aleatoria aproximadamente
normal, de valor medio p y varianza [p(l -p)/ n] 1 l211 ,

118

APENDICE I
COMBINATORIA

Resumimos en este Apndice algunas definiciones y f6rmulas

de anlisis combinatorio que son fundamentales para muchos problemas de probabilidades en conjuntos finitos.
1.

Permutaciones

Una permutacin d e n elementos, es una disposicin de l os


mismos en un determinado orden.
Por ejemplo,
pe rmutaci one s

con dos elementos

a, b se pueden formar l as

119

ab, ba
y con tres e lementos

a, b, e las seis permutaciones siguientes

abe, bca, cab, bac , acb, cba.


En general, d ados n elementos, para formar una permutacin
se elige uno cualquiera de e llos (n posibilidades), despus se elige
uno cualquiera de los n - 1 restantes (n - l posibilidades) y as sucesivamente. Resulta que el nmero de permutaaiones con n ele-

mento es
P.= n(n-l)(n-2) 2.l

n!

[ 1J

Este nmero se llama factorial de n y est definido para todo


nmer o natura l. Por c onvencin, se define O! = 1.
A v eces interesan l as permutaciones de r elementos elegidos
entre n elementos dados (n ;;, r), llamadas tambin "variaciones".

Para formar una de ellas se elige primero un elemento de los n,


dados (n posibilidades), despus un segundo elemento entre los n - 1
restantes (n - 1 p o sibilidades) y as sucesivamente hasta el r -simo
e le mento, que s e r elegido entre los n - r + 1 elementos restantes.
Resulta as que el nmero de permutaciones que s e pueden formar de

r elementos elegidos
(n ., r ) es

entre Zos de un conjunto dado de n elementos


= n (n-l)(n-2 ) (n-r + l) = _n_!_
(n- r )!

[2]

Z.

Combinaciones

Una combinacin de r elementos de un conjunto de n elementos


(llamada combinacin de tipo (n, r)) es todo subconjunto de r elementos del conjunto de los n dados,
Por ejemplo, si los n elementos son las letras a, b, e, d,
combinaciones de r = 3 elementos son las 1 O siguientes

e las

abe, abd, abe, bed , bee , aed, aee, bde , ade, ede.
El nmero de combinaciones de r elementos entre n dados se
representa por Cn, r
Para encontrarlo, observemos que si en
cada combinacin cambiamos de todas las maneras posibles el
orden d e los elementos, tendremos r! permutaciones de r elementos elegidos entre los n dados. Por tanto debe ser c.,, r ! =
= P . ,,. Teniendo en cuenta [z] resulta que el nmero de combi-

naciones de r elementos elegidos entre los de un conjunto de n elementos es

c., r =

(n -

r')! r !

[ 3J

= ( ~)

120
El smbolo(~) se llama el nmero combinatorio de
tomados r a r .
3,

n objetos

Combinaciones con Repeticin


Una combinacin con repeticin de tipo (n, r) es un conjunto de

r elementos, distintos o repetidos, elegidos entre los de un conjunto dado de n elementos.


Por ejemplo, con 3 elementos a, b, e se pueden formar las
siguientes combinaciones con repeticin de 3 elementos

a aa , aab, aae , a bb, abe, aee , bbb, bbe, bee , eee .


Para calcular el nmero C~, r de combinaciones con repeticin
de tipo (n, r ) se puede proceder de la manera siguiente. Supngase
que los l'l elementos son a 1 , a 2 , , Cada combinacin con repeticin se puede ord e nar con los ndices en orden creciente y
lue go (pa ra distinguir los ndi ces repetidos) al'iadir a cada ndi ce
e l nmero de o rde n que tiene menos uno. Por ejemplo, si n = 5,
r = 4, l a combinacin a 2 a 3 a 3 a4 se escribira a 2 a 4 a 5 a 7 S e tiene as
s i e mpre una combinacin sin repeti c i n d e tipo (n + r - 1, r ). R e c proc ame nte, d a d a una combinacin de este tipo, rebaj a ndo cada
ndice , una vez ordenada, de un entero igual al nmero de orden

menos uno, tendremos una combinacin con repeticin de tipo


(n, r). Por tanto: eZ nmero de Zas combinaciones con :repeticin

de tipo(n, r) es igual aZ de Zas combinaciones sin :repeticin del


tipo (n + r - 1, r), o sea
(n + r - 1 )!
(n - 1 )! r!

4.

[4]

Particiones

Inte resa a veces el nmero de maneras e n que un conjunto de


rh(li = 1, 2, ... , i,)
elementos cada uno (is: n;r 1 + r 2 + ... + r 1 = n). El nmero de
estas particiones se representa por P;1 ,, , ,, 1 , y para obtenerlo
basta observar que tomando una de las nf permutaciones de los n
elementos y permutando entre s los r 1 primeros (lo que da r 1 !
casos), luego los r 2 siguientes y as suc e sivamente, siempre se
obtendr una misma particin. En cambio, partiendo d e otra permutacin, l as mismas ope rac i o n es dan lugar a una particin distinta. Por tant o

n elementos se puede repartir en t, subconjuntos de

n!
5.

[5]

Frmula de Stirling

121

El clculo del valor exacto den!= n(n- l)( n -2) .. . 2. l, resulta


pes ado cuando n es un tanto grande. Algunos valores se dan en la
Tabla I del Ap.:;ndi ce III. Para el clculo con logaritmos es til
la siguiente f6rmula aproximada de Stirling (1730)
n!

~ /2nnn"e ".

[6]

Decir que el segundo miembro es un valor aproximado del primero, cuando n es grande, quiere d ecir que el lmite del segundo
miembro dividido por el primero tiende a l a unidad p a r an - "',
aunque los valores de a mbo s miembros d e [6 ] pue d e n dife rir en
cantida des grandes.
6.

El Binomio de Newton

('f) aparecen como

Los nmeros combinatorios


la frmula del binomio de Newton.
(a+

coeficientes de

=(~) a " +(7) a"-1 b + ... +( ~) a"-' b' + ... +( ~) b". [ 7 ]

En particular, para a = 1, b = 1 y par a a = 1 y b = -1 result a n


las f6rmulas
(~)+(?)+ ... +(~)=

z",

(~)-(7)+ ... +(-1)( ~ )

= O.

APENDICE U
ALGUNAS FORMULAS DE CALCULO

1.

El Nmero e
El nmero e

2, 71828 ... se define por

lim

f1 + 1.)",
n

[ l

n-m \'

Ms generalmente, para cualquier

122

lim

f1

,Z.-HX) \_:

se tiene

+~)".
n

[2]

La f6rmula de Mac Laurin da inmediatamente el siguiente desarrollo en serie

~ ~n
L n!

+1\ +

n= o

+ x +
n!

[3 J

En p artic ular

e
2.

2+.l.+.l+
2!

3!

_!_ _ ___!_+_..!__+
2!
3!
4!

. .. '

Integrales de la Funci6n de :beneidad Normal


Sea
2

f(x ) = a e - b(x-c) ,

a , b > O.

Queremos calcular

[4]
o se a, por el cambio de variab l es
I

\ oo

a j_ 00 e - b y d y

X -

e = y

[ 5]

Para ello se sigue el clsico artificio siguiente:

y pasando a coordenadas polares (y=

r cos 9, z

r sen 9),

Por tanto

[6]
En particular, para a= 1/ffn, b = 1/2, e= O, resulta

Si queremos que f(x) sea una funcin de probabilidad,


ser I = 1 y por tanto

debe

[8]
La esperanza matemtica c orrespondiente a esta funcin ser
<l

= E(X) =

s:

X f(x) dx =

~r"'

2
X e-b(x-c) d x

c.

La varianza es

que se calcula inte grando por partes, y resulta


G

(X ) =

1
2D

Por tanto, poniendo de manifiesto la media a y la varianza


se tiene

La funci6n gene ratriz de momentos es


$( t )

=-

-S"'

o/2 -"'

etxe-(x--<l)"/2G2 d x.

G2 ,

123

Para calcular esta integral se observa que el exponente se


puede escribir

tx -~ 2o

--=-\xa 20

tcr2) 2

2 tao2

y haciendo el cambio de variables X - a - to 2 =

zo

t 2 o4 )

y aplicando [7],

resulta

Los momentos centrados de [8] son


(2k) ! ""
~)

3.

La Funci6n Gamma
Se define por la integ ral

f' (X) =

124

s~

t-l e-t d

t.

Esta funci6n es positiva y tiende a "'para x - O y para x - "'.


Presenta un mnimo para x 0 = 1, 4616, en el cual la funci6n vale
f'(x0 ) = O, 8856. Para valores naturales de x, sea X= n + 1, la
funci6n gamma da e l factorial de n, o sea
f'(n

1) = n ! = n(n- l)(n-2) .. 2. l.

[JO]

APENDICE IlI
Tabla 1
Tabla de Factoriales n!
n!

71,

24

120

720

5040

40320

362880

10

3 628800

11

39 9 16800

12

479 00 1600

13

6 227 020800

14

87 178 291200

15

1 307674 368000

16

20 922789 888000

17

355 68 7428 096000

18

6402 373705 72 8000

19

121 645 100408 83 2000

20

2 43 2902 008176 640000

125

Tabla Z
Valor e s de l a F unci6n de Probabilid ad de Poiss on P , =

~
o
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15

,_ '

r! e

-i,.

0 ,2

o, 4

o,6

o, 8

10

o, 8 19
o , 164
0 ,0 16
0 , 00 1

o, 6 7 0
0,268
0, 0 54
0,007
o, 0 0 1

0,549
o, 3 29
0,099
0,020
o, 003

0,449
o, 359
o, 144
o, 0 38
o,0 0 8
0,00 1

o, 368
0,368
o, 184
0,06 1
o, O15
o, 0 03

o, 13 5
0 , 271
0,211
o, 180
0, 090
0,03 6
o, O12
0, 0 03
0 , 001

o, o5o
o, 149
o, 2 24
o, 224
o, 168
o, 10 1
o, 050
o, 0 22
0, 008
0,003
o, 001

0,018
o, 073
o, 146
o, 195
o, 195
o, 156
o, 104
0 ,0 59
0,0 30
o, O 13
o, 005
0,002
o, 0 0 1

0,007
o, 034
o, 084
o, 140
o, 17 5
o, 17 5
o , 146
o, 104
o, 065
0 ,036
0,0 18
o,oos
0,003
0,00 1

0, 0 0 1
0 , 00 6
0,022
o, 052
0, 09 1
o, 128
o, 149
o, 149
o , 130
o, 101
o, 07 1
0,045
o, 026
o, O14
0,001
o, 00 3

0,0 00
0, 0 00
0, 002
o,o os
o, O19
o,0 38
0,0 63
0, 0 90
o, 113
o, 125
o, 125
o , 1 14
0, 0 95
0 , 0 73
0, 0 52
o, 035

Tabla 3
Valores de la Funcin de Densidad de la Distribucin Normal N(O, 1)

(X)

f(X)

f(X)

o, 3989

0,0540

o, 1

0,3969

2, 1

0,0440

0,2

O, 3 910

2,2

o,0355

0,3

o, 3 814

2,3

0,0283

0,4

o, 3 683

2,4

0,0224

o, 5

0,3521

2, 5

o, 0175

0,6

0,3332

2,6

0,0136

o, 7

0,3122

2, 7

0,0104

o, 8

0,2897

2, 8

0,0079

o, 9

0,2661

2,9

0,0059

o,2420

0,0044

1, l

0,2118

3, 1

0,0033

1, 2

o, 1942

3,2

0,0024

1, 3

O, 1714

3,3

o, 0017

1, 4

o, 1497

3,4

0,0012

1, 5

0,1295

3, 5

0,0009

1, 6

o, 1109

3,6

0,0006

1, 7

0,0940

3, 7

0,0004

1, B

o,0789

3, B

0,0003

1, 9

0,0656

3, 9

0,0002

127

Tabla 4
Tabla de la Funcin de Distribucin Normal
~(X)

---L..
r e-x/ dx
/2n j_oo

~(X)

~(X)

o,o

o,sooo

2,0

o, 9772

128

= P(X ,. X) =

o, l

0,53 98

2, l

O, 9821

0,2

o,5793

2,2

0,9861

0,3

o,6179

2,3

0,9893

o,4

o,6554

2,4

o, 9918

o,5

O, 6915

2,5

o, 9938

o, 6

o, 7257

2,6

0,9953

o, 7

o, 7580

2, 7

o, 9965

o, 8

o, 7881

2,8

0,9974

0,9

0,8159

2,9

0,9981

1, O

O, 84 13

3,0

o, 9987

1, l

o, 8643

3, l

0,9990

1, 2

0,8849

3,2

0,9993

1, 3

0,9032

3, 3

0,9995

1, 4

0, 9 192

3,4

0,9 997

1, 5

0,9332

3, 5

0,9998

1, 6

0,9452

1, 7

0,9554

1, 8

o, 96 41

1, 9

o, 9 713

Tabla 5
Distribucin de

x:

P(X2 > X~)

Valores de

~
1
2
3
4
5
6
7
8
9
10
11
12
13

14
15
16
17
18
19
20
25
30

x;

0,99

0,95

o, 90

o, 10

o, 05

o,oo
0,02
o, 12
0,30
o,55
0;87
1,24
1, 65
2,09
2,56
3,05
3,57
4, 11
4,66
5,23
5,81
6,41
7, O1
7,63
8,26
11, 52
14, 95

o,oo
o, 10
0,35
0,71
1, 15
1,64
2, 17
2, 73
3,33
3,94
4,57
5,23
5,89
6,57
7,26
7, 96
8,67
9,39
10, 12
10,85
14, 61
18, 49

0,02
o, 21
o,58
1, 06
1, 61
2, 20
2, 83
3,49
4, 17
4, 87
5, 58
6,30
7,04
7, 79
8, 55
9, 31
10, 08
10, 86
11, 65
12, 44
16, 4 7
20,60

2, 71
4, 61
6,25
7, 78
9,24
10, 64
12, 02
13, 36
14, 68
15, 99
17,27
18, 55
19, 81
21, 06
22, 3 1
23,54
24, 77
25, 99
27,20
28, 41
34, 38
40,26

3, 84
5, 99
7, 81
9,49
11, 07
12,59
14,07
15, 51
16, 92
18, 31
19, 67
21, 03
22,36
23,68
25, 00
26,30
27, 59
28, 87
30, 14
31, 41
37,65
43, 77

co

0,025

5,02
7, 38
9,35
11, 14
12, 83
14, 45
16, O1
17, 53
19, 02
20,48
21,92
23, 34
24, 74
26, 12
27,49
28,84
30, 19
31, 53
32, 85
34, 17
40, 65
46,98

o, 01

o, 001

6, 63
9,21
11,34
13, 28
15, 09
16, 81
18,47
20,09
21, 67
23, 21
24, 72
26,22
27,69
29, 14
30,58
32,00
33,41
34,80
36, 19
37,57
44, 31
50,89

10, 83
13, 82
16,27
18, 47
20,52
22,46
24, 32
26, 13
27,88
29,59
31, 26
32, 91
34,53
36, 12
37,70
39,25
40, 79
42, 31
43,82
45, 32
52,62
59, 70

...
CI

Tabla 6
Distribucin t de Student: P( 1T [ > t 0 )
Valores de t 0

~
1
2
3
4
5
6
7
8
9
10
11
12
13

14
15
16
17
18
19
20
25
30

0,90
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,
o,

158
142
137
134
132
131
130
130
129
129
129
128
128
128
128
128
128
127
12 7
127
12 7
127

s"'

s .(x)dx

'

o, 70

0,50

0,20

o, 10

0,05

0,02

o, O1

o, 510
o,445
0,424
0,414
0,408
0,404
0,402
0,399
0,398
0,397
o, 396
0,395
0,394
0,393
0,393
0,392
0,392
0,392
o, 391
o, 391
0,390
0,389

1,000
o, 8 16
o, 765
o, 741
o, 727
o, 718
o, 716
o, 706
o, 702
o, 700
o,697
0,695
o,694
o,692
o, 691
o, 69 0
o,689
o,688
o, 688
o,687
o,684
0,683

3,078
1, 886
1,638
1, 533
1,476
1,440
1,41 5
1, 397
1,383
1,372
1,363
1,356
1,350
1,345
1,341
l, 337
1,333
1,330
1,328
1,325
l, 316
1,310

6,314
2,920
2,353
2, 132
2, O15
1,943
1, 895
1, 860
1, 833
1, 812
1, 796
1, 782
1, 771
1, 761
1, 753
1, 746
1,740
1, 734
1,729
l, 725
1, 708
1, 697

12, 706
4,303
3, 182
2, 776
2, 571
2,447
2,365
2,306
2,262
2,228
2,201
2, 179
2, 160
2, 145
2, 131
2, 120
2, 110
2, 10 l
2,093
2,086
2,060
2,042

31,821
6,965
4, 541
3,747
3,36 5
3, 143
2,998
2,896
2, 821
2,764
2,718
2,681
2,650
2,624
2,602
2,583
2,567
2, 552
2,539
2, 528
2,485
2,457

63,65 7
9,925
5,841
4,604
4,032
3,707
3,499
3,355
3,250
3, 169
3, 106
3,055
3,0 12
2,977
2,947
2, 9 21
2, 898
2,878
2,86 1
2,845
2,787
2,750

BIBLIOGRAFIA
La bibliografa sobre probabilidades yestadsticaes cuantiosa,
y por ese motivo nos limitaremos a sefialar algunos textos fundamentales y otros que, por estar en idioma castellano y ser de carcter elemental, pueden ser tiles como textos de iniciacin.

Textos Fundamentales
(1) FELLER, W, An lntroduction to Probability Theory and its
Applications, Wiley, Nueva York, Vol, 1 (1950),
(2) RENY, A, Wahrsecheinlichkeitsrechnung mit einem Anhang uber
Informationstheorie, Deutsche r Ver lag der Wissenschaften,
Berln (1966),
(3) RIOS, S.
(1967).

Mtodos Estadsti cos,

McGraw-Hill,

Nueva York

Textos Intermedios
(4) CRAMER, H, Elementos de la Teora de
Aplicacione s, Aguilar, Madrid (1 963).

Probabilidades y

(5) FREEMAN, H. Introduction to Statistical Inference, AddisonWesley, Reading, Mass. (1963) .


(6) LINDLEY, D. V. Introduction to Probability and Statistics,
from a B ayesi an Viewpoint; Part I. Probability, P a rt II.
Inference, Cambridge University Press, Londres (196 5 ).
(7) TORANZOS, F.I. Estadstica, Kapelusz, Buenos Aires (1962).
Textos Elementales
(8) MASTROGIOVANI, M. de . Esta dstic a y Probabilidad para
Educadores, Estrada, B uenos Aires {1969).
(9) NUEZ, J. A. y L ENZI, R. V. Introduccin a l Clculo de
Probabi lidades, Centro Argentino de Profesores de Enseanza
Media, Buenos Aires (1968).

131

COLECCION DE MONOORAFIAS CIENTIFICAS


Publicadas
Serie de matemtica
N

l.

N 2,
N 3,
N 4.
N s.
N 6.
N 7.
N 8.
N 9.
N 1
N 11.

N 12 .
N 13.

N 14.

La Revoluci6n en las Matemticas Es colares, por el


Consejo Nacional de Maestros de Matemticas de los
Estados Unidos de Amrica.
Espacios Vectoriales y Geometr{a Analihca, por Luis
A. Santal6.
Estructuras Algebraicas I, por Enzo R. Gentile.
Historia de las Ideas Modernas en la Matemtica, por
Jos Babini.
Algebra Lineal, por Orlando Villamayor.
Algebra Linear e Geometra Euclidiana, por Alexandre
Augusto Martina Rodrigues.
El Concepto de Nmero, por Csar A. Trejo.
Funciones de Variable Compleja, por Jos I. Nieto.
Introducci6n ala Topolog{a General, por JuanHorvth.
Func;oes Reais, por Djairo G. de Figueiredo .
Probabilidad e Inferencia Estad{stica, por Luis A.
Santal6.
Estructuras Algebraicas II (Algebra Lineal), por Enzo
R. Gentile .
La Revoluci6n en las Matemticas Escolares (Segunda
Fase), por Howard F. Fehr, John Camp y Howard
Kellogg.
Estructuras Algebraicas III (Grupos Finitos), por
Horado O'Brien.

Serie de ffeica
N l.
N 2.
N 3.
N 4.
N 5.
N

6.

7.

B.

9.

Concepto Moderno del Ncleo, por D. Allan Bromle y .


Panorama d e la Astronom{a Moderna, por Flix
Cernuschi y Sayd Codina .
La Estructura Electr6nica de los S61idos, por Leopoldo
M. Falicov.
F{sica de Part{culas, por Igor Saavedra.
Experimento, Razonamiento y Creacin en F{sica, por
Flix Cernuschi.
Semiconductores, por George Bemski.
Fernando Alba
Aceleradores de Part{culas, por
Andrade.
F{sica Cuntica, por Onofre Rojo y H. Mcintosh.
La Radiacin Csmica, por Gastn R. Mej{a y Carlos
Aguirre.

133

';

N 10.
N 11.

Astrofi'sica, por Carlos Jaschek y Mercedes C. de


Jaschek.
Ondas, por Osear J. Bressan y Enrique Gaviola.

Serie de qumica
N

1.

N 2.
N 3.
N 4.
N
N

5.
6.

N
N

8.

9.

7.

N 10 .

134

N 11.

N 12.
N 13.

Cintica Qui'mica Elemental, por Harold Behrens


Le Bas.
Bioenergtic a, por Isaias Raw y Walte r Colli.
Macromolculas, porAlejandroPaladiniyM. Burat'hik.
Mecanismos de las Reacciones Orgnicas, por Jorge
A. Brieux.
Elementos Encadenados, por Jacobo G6mez-Lara.
Enseanza de la Qui'mica Experimental, por Francisco
Giral.
Fotoqui'mica de Gases, por Ralf-Dieter Penzhorn.
Introduc ci6n a la Geoqui'mic a, por Flix Gonz~e z Bonorino.
Resonancia Magntica Nuclear de Hidrgeno, por Pedro
Joseph-Nathan.
Cromatografi'a Li'quida de Alta Presi6n, por Harold M.
McNair y Benjami'n Esquivel H.
Actividad Optica, Dispe rsin Rotatoria Optica y Dicroi"smo Circular en Qui"mica Orgnica, por Pierre
Cra bb.
Espectros c opia Infrarroja, por Jess Morcillo Rubio.
Polaro g r afi'a , por Alejandro J. Arvi'a y Jorge A. Bolzan.

Serie de biologa
N

l.

2.

3.

4.

N
N
N

6.

N
N

5.
7.
8.

9.

N 10.

La Gentica y la Revolucin en las Ciencias Biolgicas,


por Jos Luis Reissig .
Bases E c ol gicas de la Explotaci6n Agropecuaria en la
Amrica Latina, por Guille r m o M a nn F.
La Tax onomi"a y la Revoluci6n en las Ciencias Biol6gic a s, por E li'as R. d e la Sota .
Principios Bsicos para la Ensefianza de la Biologi'a,
por Oswaldo Frota-Pessoa.
A Vida da Clula, por Renato Basile.
Microorganismos, por J . M. Gutirrez-Vzquez .
Principios G en e rales de Microbiologi'a, por Norberto
J. Palleroni.
Los Virus, por Enriqueta P izarro-S ur e z y Gamba .
Introduc ci6n a la Ecologi'a d e l Bentos Marino , por
Manue l Ve gas Vlez.
Biosi'ntesis de Protei'nas y el Cdigo Gentico, por
Jorge E. Allende ,

N 11.
N 12.
N 13.
N 14.

Fundamentos de Inmunologi'a e Inmunoqui'mica, por


Flix C6rdoba Alva y Sergio Estrada-Parra.
Bacteri6fagos, por Romilio Espejo T.
Biogeografi'a de Amrica Latina, por Angel L.
Cabrera y Abraham Willink.
Relaci6n Husped-Parsito. Mecanismo de Patogenicidad de los Microorganisinos, por Manuel Rodr{guez
Leiva.

En preparaci6n
Serie de matemtica
Estructuras Algebraicas IV (Algebra Multilineal), por Orlando
Villamayor y Artibano Micali.
Estructuras Algebraicas V (Teori'a de Cuerpos), por Dari'o J.
Picea.
Estructuras Algebraicas VI (Estructura de Algebras), por
Artibano Micali.
Introducci6n al Anlisis, por Manuel Balanzat,
lntroducci6n a la Integral de Lebesgue en la Recta, por Juan
Antonio Gatica.
Introduc;a.o a Anlise Funcional: Espac;os de Banach e Clculo
Diferencial, por Leopoldo Nachbin .
Introducci6n a los Espacios de Hilbert, por Jase I . Nieto.
Introduc;a.o as Equac;5es Diferenciais Ordinrias, por ChaimS.
H1inig.
Introducci6n a la Computacin, por Jaime Michelow.
Teori'a General de la Optimizacin, por Enrique Cansado.
Teor{a de Grafos, por Fausto Alfredo Toranzos.
Programacin Lineal, por Fernando L. Garagorry.
Serie de fsica
El Lser, por Mario Garavaglia.
Clculo d e Errores, Aplicaci6n y Teori'a, porWolfgang Meckbach.
Oceanografi'a Fi'sica, por Luis E. Herrera.
Serie de qufmica
Paramagnetismo Electrnico, por Juan A. Mc.Millan.
Productos Naturales Vegetales, por Venancio Deulofeu y colaboradores.
Esteroqui'mica Orgnica, por Juan A. Garbarino.
Fotometri'a de Llama por Emisi6n, por Juan Rami'.'rez Muoz.
Fotometri'a de Llama por Absorci6nAt6mica, por Juan Rami'.'rez
Muoz.

135

Cromatografa en Papel y en Capa Delgada, por Jorge A.


Dom'nguez.
Momento Polar, por Pedro Lehman.
Fluorescencia Atmica, por Juan Ramrez Muoz.
Introduc;ao a Espectrometra de Massa das Substancias

Organicas, por Otto R. Gottlieb.


Los Esteroides, por Josef E. Herz.
Termoqumica Moderna, por Jaime Cases.
Cromatografa de Gases, por Harold M. McNair.
Serie de biologa

136

Micologa, por Margarita Silva-Hutner, William C. Merz y


Luiz R. Travassos.
Procesos Microbianos Aerobios de Importancia Industrial, por
Carlos Casas-Campillo.
Microbiologa de Suelos, por Luis Longeri Spada,
Ecologa Fisiolgica, por Ernesto Medina.
Etologa: El Estudio del Comportamiento Animal, por Ral
Vaz-Ferreira.
Citogentica Bsica y Biologa de los Cromosomas, por F. A .
Saez y H. Cardoso.
Citogentica Ultraestructural y la Biologa Molecular de los
Cromosomas, por R. Wettstein y J. Roberto Sotelo.
Anlisis de Sistemas en Ecologa, por Gilberto C. Gallopn.
Ecologa de Poblaciones, por Jorge E. Rabinovich.
Sistemas Ecol6gicos y el Hombre, por Ariel E. Lugo.
Inventario de Vegetaci6n de Biomas, por Jorge Morello.

Nota: Las personas interesadas en adquirir estas obras deben dirigirse a la Unidad de Ventas y Circulaci6n, Organizacin
de los Estados Americanos, Washington, D. C., 20006 o a las
Oficinas de la Secretara General de la OEA en el pas
respectivo.

Potrebbero piacerti anche