Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
y estadstica matemtica
Gert Maibaum
www.FreeLibros.com
Teora de probabilidades
y estadstica matemtica
www.FreeLibros.com
Teora de probabilidades
y estadstica matemtica
GertMaibaum
EDITORIAL
PUEBLO Y EDUCACIN
www.FreeLibros.com
Tom ada de la edicin en alem n de la editorial D eutscher Verlag der W issenschaften, B erln,
1976.
r im e n reim presin, 1 9 8 8
SN L C :R A 0 1 .1 3 5 6 0 .0
www.FreeLibros.com
N o ta a la edicin en espaol
Este libro, publicado en 1976, expone de forma rigurosamente exacta y desde posiciones
acordes con nuestra concepcin cientfica del mundo, los conceptos y mtodcs fundamen
tales de la teoria de probabilidades y la estadstica matemtica. Por esta razn, y porque
responde a las exigencias en cuanto a la formacin en la disciplina Probabilidades y E s
tadstica que deben tener los estudiantes de la Licenciatura en Educacin, especialidad
Matemtica, se ha decidido la publicacin de esta obra en nuestro pas para que sirva de
texto bsico, lo cual no excluye su utilizacin por otro circulo de lectores.
Esperamos que esta obra sea acogida favorablemente y que constituya un til instru
mento en manos de nuestros estudiantes.
d ir e c c i n d e Fo r m a c i n y Pe r f e c c io n a m ie n t o d e Pe r s o n a l P e d a g g ic o
www.FreeLibros.com
P refacio
www.FreeLibros.com
n d ice
0. I n tr o d u c c i n ............................................................................................................................................ 11
2. P r o b a b ilid a d ............................................................................................................................................ 26
2.1 Frecuencia relativa .................................................................................................................................. 27
2.2 D efinicin clsica de probabilidad ................................................................................................... 29
2.3 Definicii. geomtrica de probabilidad ........................................................................................... 32
2.4 D efinicin axiomtica de probabilidad ........................................................................................... 35
2.5 Leyes de clculo para probabilidades ............................................................................................. 37
3. P r o b a b ilid a d c o n d ic io n a d a ......................................................................................................... 40
3.1 Definicin de probabilidad condicionada ...................................................................................... 41
3.2 Teorema de la m ultiplicacin para probabilidades .................................................................. 43
3.3 Independencia de sucesos aleatorios ................................................................................................ 45
3.4 Frmula de la probabilidad total ...................................................................................................... 47
3.5 Frmula de Bayes .................................................................................................................................... 49
4. V a r ia b le s a le a t o r ia s d is c r e ta s ..................................................................................................... 51
4.1 Definicin general de variable aleatoria ....................................................................................... 51
4.2 D efinicin de variable aleatoria discreta ...................................................................................... 55
4.3 Caractersticas num ricas de las variables aleatorias discretas .......................................... 58
4.4 Distribucin discreta uniforme ..................................... ...................................................................... 63
4.5 Diftribucin binom ial .............................................................................................................................. 64
4.6 Distribucin hipergeom trica ............................................................................................................... 69
4.7 Distribucin de Poisson .......................................................................................................................... 71
5. V a r ia b le s a le a t o r ia s c o n t in u a s ...................................... ............................................................ 74
5.1 Definicin de variable aleatoria continua ......................... ............................................................ 74
www.FreeLibros.com
M e he esforzado mucho por presentar los conceptos y proposiciones fundamentales de
la Teora de probabilidades de forma matemticamente exacta, pero a la vez intuitiva.
El objetivo esencial de los captulos sobre Estadstica matemtica est en la explicacin y
fundamentacin de las principales formas de deduccin de esta disciplina. En su totali
dad, la exposicin est hecha, de modo tal, que la aplicacin prctica no debe ofrecer di
ficultad alguna. Adems, se introdujeron por esto numerosos ejemplos de las ms diversas
ramas. A causa de la extensin se tuvo que renunciar a una parte especialmente dedicada
a ejercicios, que mostrara la amplia aplicacin de la Teora de probabilidades y de la Es-
tadlstica matemtica. El lector interesado puede encontrar tambin en la bibliografa re-
ferencias al respecto.
Quisiera aprovechar la ocasin para agradecer efusivamente a mi estimado maestro,
Herr Profesor Dr. rer. nat. hbil. P.H. Miiller, quien ha revisado todo el manuscrito de
forma sumamente critica y me ha dado numerosas y valiosas indicaciones, tanto para la
concepcin y estructuracin del libro, como tambin para su redaccin definitiva. Ade
ms, es para mi un agradable deber agradecer a los editores de la serie M athem atik f&r'
Lehrer - e n particular al editor coordinador, Herr Profesor Dr. se. nat. W. E n g e l- y a
la empresa nacionalizada Deutscher Verlag der W issenschaften- especialmente a Frl.
Dipl.-Math. E. Arndt y a la redactora de este libro, Frau Dipl. -M a th . K. B r a tz - por
la grata cooperacin, ayuda y competente asesoramiento. A continuacin quisiera agra
decer cordialmente a los cajistas de la empresa nacionalizada Druckhaus Mximo Gor-
ki en Altenburg por el cuidadoso trabajo realizado por ellos. Por ltimo, tengo que agra
decer a Frl. I. Tittel y a mi esposa; ambas me han ayudado mucho en la confeccin del
manuscrito.
Espero que el libro responda a las necesidades. Aceptar con gusto cualquier indicacin
proveniente del crculo de lectores.
www.FreeLibros.com
5.2 Caractersticas numricas de las variables aleatorias continuas ........................................................ 77
5.3 Distribucin continua uniforme .................................................................................................... 80
5.4 Distribucin normal ........................................................................................................................... 81
5.5 Distribucin exponencial .................................................................................................................. 87
5.6 Distribucin x- t V F ........................................................................................................................ 89
5.6.1 Distribucin x, ...................................................................................................................................... W
5.6.2 Distribucin t ........................................................................................................................................ 92
5.6.3 Distribucin F ....................................................................................................................................... 93
www.FreeLibros.com
11.4.2 D cim a / doble ............................................................................................. ................................................ 195
11.4.3 D cim a ....... ............................................................................................ '................................................ 1%
11.4.4 Dcim a F ......................................................................................................................................................... 197
11.4.5 Dcim a para una probabilidad desconocida ................................................................................. 197
11.5 Ejemplos im portantes de dcim as no param tricas ..................................................................... 198
11.5.1 D cim a de ajuste X ................................................................................................................................... 199
1 1.5.2 D cim a de K olm ogorov ............................................................................................................................ 200
11.5.3 D cim a de hom ogeneidad x ................................................................................................................. 201
11.5.4 D cim a para dos distribuciones ........................................................................................................... 201
11.5.5 D cim a de independencia x ................................................................................................................. 202
11.6 Ejemplo de aplicacin ............................................................................................................................... 203
www.FreeLibros.com
0. In trod u ccin
www.FreeLibros.com
11
La T eoria de probabilidades y la Estadstica m atem tica, incluyendo sus disciplinas es
peciales y sus dom inios de aplicacin (todas las ramas del saber que se ocupan en lo esen
cial del tratam iento m atem tico de fenm enos aleatorios) son conocidas en los ltimos
tiempos con el nombre de estocsticas (o r lo s: el objetivo, la suposicin; griego).
www.FreeLibros.com
12
1. S ucesos aleatorios
En este captulo nos ocuparemos de los sucesos aleatorios, que son aquellos que pueden
presentarse bajo determinadas condiciones, pero no de forma obligatoria; nosotros los
concebiremos como resultados de experimentos aleatorios, que son los que tienen un de
senlace incierto en el marco de distintas posibilidades. Junto a la explicacin detallada de
estos y otros conceptos, trataremos en este captulo las operaciones entre surcsos aleato
rios. Por ltimo, llegaremos a conocer el concepto lgebra de sucesos, de gran importancia
para la construccin axiomtica de la Teora de probabilidades. Analizaremos tambin la
relacin entre lgebras de sucesos, lgebras de Boole y lgebras de conjuntos.
Ejemplos
1. El lanzamiento de una moneda es un experimento aleatorio. Los posibles resultados
de este experimento estn caracterizados por "estrella arriba y "escudo arriba
2. La tirada nica de un dado despus de agitarlo en un cubilete es un experimento
aleatorio. Los posibles resultados de este experimento estn caracterizados por el nmero
que aparece en la cara superior del dado.
3. Las tiradas de un dado despus de agitarlo en un cubilete pueden considerarse como
un experimento aleatorio. Si solo nos interesamos porque aparezca el nmero seis, este ex
perimento tiene n + 1 resultados. (Las veces que aparezca el nmero seis es una llamada
variable aleatoria discreta que puede aceptar los n + 1 valores 0, 1. 2, .... n.)
4. La extraccin al azar de una muestra de n objetos de una poblacin (por ejemplo,
la produccin diaria de una fbrica) de N objetos, que contiene un nmero M de defec
13
www.FreeLibros.com
tuosos, puede entenderse com o un experimento aleatorio. Aqui se realiza una extraccin
(sin reposicin) de la muestra y cada uno de los N objetos en total tiene la misma opor
tunidad de ser sacado. Si solo nos interesam os por el nmero de objetos defectuosos en
la muestra, este experimento tiene n + 1 desenlaces, en el caso que se cumpla Ai > rt. (El
nmero de objetos defectuosos es tambin una variable aleatoria discreta, cuya distribu
cin de probabilidad desem pea una importante funcin en el control estadstico de la ca
lidad.)
5. Toda m edicin (por ejemplo, de una longitud, un ngulo, un tiempo, una magnitud
fsica), puede concebirse com o un experimento aleatorio. D e una parte, las mediciones
realizadas en un mismo objeto son, por lo general, diferentes a causa de las insuficiencias
del observador para llevarlas a cabo con precisin una y otra vez. Por otra parte, las me
diciones realizadas en varios objetos iguales conducen tambin a resultados distintos,
como consecuencia de las diferencias existentes entre estos.
En las consideraciones sobre sucesos aleatorios queremos referirnos a aquellos que pue
den concebirse com o casos especiales de sucesos aleatorios: sucesos seguros y sucesos im
posibles.
www.FreeLibros.com
14
Los sucesos seguros son los que se presentan obligatoriamente bajo las condiciones que
caracterizan al experimento aleatorio considerado; los sucesos imposibles son los que no
se pueden presentar nunca.
Designaremos, de forma nica, los sucesos seguros con 2 (se lee: omega mayscula) y
los sucesos imposibles, con 0 (con el smbolo del conjunto vacio).
A menudo se pueden ilustrar los sucesos aleatorios por medio de subcor\juntos sobre la
recta numrica o en el plano.
Ejemplos
1. El experimento aleatorio consiste en rotar un disco al cual se ha lijado un indicador.
Los infinitos resultados imaginables de este experimento son las posiciones que puede te
ner el indicador cuando el disco permanece quieto. Cada una de estas posiciones puede
caracterizarse mediante la amplitud del ngulo <p formado entre el eje positivo de las x
y el indicador (fig. 1).
l n <p
Figura 1
De esta forma, todo suceso A relacionado con este experimento aleatorio puede descri
birse por medio del conjunto A de aquellas amplitudes de ngulos q> que son convenien
tes para el suceso considerado, y decimos esto en el sentido de que el suceso A se pre
senta si y solo si la posicin del indicador cuando el disco no se mueve se describe por
una de las amplitudes de ngulos del conjunto A. Si, por ejemplo, el suceso A consiste en
que el indicador permanezca quieto en el tercer cuadrante, le asociamos a este suceso el
3n
intervalo de n a sobre el eje <p, o sea, el conjunto
2
15
www.FreeLibros.com
El conjunto
Para consideraciones generales se ilustran tambin los sucesos aleatorios mediante con
juntos de puntos en el plano. Posteriormente analizaremos ms exactamente la estrecha
relacin entre los sucesos aleatorios y los conjuntos (ver l.S ).
A continuacin queremos definir una relacin entre sucesos aleatorios con la cual se
pueda despus concebir tambin la igualdad de sucesos aleatorios en forma matemtica.
Adems, nos imaginaremos siempre que los sucesos aleatorios observados pertenecen a un
determinado experimento aleatorio.
A ZB,
16
www.FreeLibros.com
Luego utilizamos aqu un smbolo de la teora de conjuntos (ver MfL Tomo 1, 1.5); la
figura 3 debe recordarnos el comportamiento correspondiente en conjuntos. (Se puede ha
cer corresponder a un sistema de sucesos, perteneciente a un experimento aleatorio, un
sistema de subconjuntos de un conjunto universo, de forma tal que la relacin A G fl exista
para sucesos aleatorios A, y B si y solo si el conjunto asociado al suceso A es un subcon-
junto del asociado al suceso B. En particular, se hace corresponder al suceso seguro el
conjunto universo y al suceso imposible, el conjunto vaco (ver 1.5).
E je m p lo . Tirada de un dado.
Con la definicin 1 se confirma enseguida que para todo suceso aleatorio A se cumplen
las proposiciones siguientes:
17
www.FreeLibros.com
para recordar las definiciones de las operaciones correspondientes con conjuntos. Todos
los ejemplos de este epgrafe se refieren, para mayor sencillez, al experimento aleatorio
consistente en la tirada nica d.e un dado.
A'uB
A n B
Figura 4
E je m p lo . Tirada de un dado.
A ... El nmero obtenido es par (4 = {2,4,6}).
B ... El nmero obtenido es mayor o igual que 3 (B = {3,4,5,6}).
A^j B ... El nmero obtenido es distinto de 1 (A = {2 ,3 ,4 ,5 ,6 }).
A kj$= A , A v A = A , A u l = l , (1)
A^AuB, BSAuB. (2)
A v B = B 'u A (conmutatividad), (3)
A u ( B v C ) =04 ^B ) u C (asociatividad). (4)
o tambin con
U A ,.
1=1
o tambin con
U A ,.
18
www.FreeLibros.com
1.3.2 P r o d u c t o de sucesos
A nB
Figura 5
E j e m p lo . T ira d a de un dado.
A ... H1 nm ero obtenido es p a r M ={2.4.6}).
B ... El nm ero obtenido es m enor que 3 (/?= ! 1.2}).
A n B ... El n m ero obtenido es igual a 2 (.4 n B = {2}).
A rio = o. A n A = A . A n i = A . (5)
A ^ B QA. A n B Q B . (6)
A n B = B r\A (co n m u ta tiv id a d ). (7)
A n( B nC") =(A n B ) n ( ' (a so cia tiv id a d ). (8)
n a ,.
i-1
G en eralizan d o , podem os designar al suceso que o c u rre si ysolo sic ad a uno de los su
cesos de la sucesin (infinita) A r A 2. ... de sucesos 4,( = 1.2. ...) o curre, m ediante
A , n A n ...
o tam bin
n .4 .
1
Aqu querem os in tro d u cir an dos conceptos sobre los cuales volverer os posteriorm en-
www.FreeLibros.com
19
www.FreeLibros.com
D e f in ic i n 5. Dos sucesos aleatorios A y B se llaman m utuamente excluyentes, si se
cumple
A r\B = $.
A r\B = <j>significa en cuanto al contenido, que la ocurrencia comn de los sucesos A y B
es imposible. Se dice tambin que A y B son incompatibles o que A y B son disjuntos
(fig. 6).
Figura 6
---------- Ar\Ak=<>(j^k),------------------------------------------------------------------
A,<jA2u ... ui4,u... =.
E je m p lo . Tirada de un dado.
A , ... El nmero obtenido al tirar el dado es igual a i (i'= l,2 ,3 ,4 ,5 ,6 ).
{Av Aj, Ay A4, A,, At) es un sistema completo de sucesos.
De modo general, si consideramos un experimento aleatorio que tiene siempre como re
sultado la ocurrencia de exactamente uno de los sucesos aleatorios Av A, A ..., en
tonces el conjunto de estos resultados forma un sistema completo de sucesos.
Figura 7
E je m p lo . Tirada de un dado.
20
www.FreeLibros.com
Por tanto, si A es un suceso aleatorio que no es imposible niseguro, es decir, A 0 ,
A * l , entonces el conjunto {A. a ) es un sistema completo de sucesos.
Adems, se verifica directamente la validez de las proposiciones
0 = i, = <>, (A )= A . (10)
AQB^B^A, (11)
A vB = A u (B n A ), (14)
A u B =B < j (A n B ), (15)
A u B = ( A n B ) u (A n B ) u (A n B ) . (16)
Figura 8
A \B
www.FreeLibros.com
E je m p lo . Tirada de un dado.
A ... El nmero obtenido es par (. = {2,4,6}).
B ... El nmero obtenido es menor e igual que 3 (2 ? = {l,2 ,3 }).
A \ B ... El nmero obtenido es igual a 4 a 6 (>4\B = {4,6}).
B \A ... El nmero obtenido es igual a 1 a 3 ( f i\^ = { l,3 } ).
A \B = A n B (17)
A& B q
i A B Figura 10
22
www.FreeLibros.com
2. Si dos sucesos aleatorios pertenecen a A , este contiene tambin su suma:
^4eA, B e A ^ A v B e A .
3. Para todo suceso aleatorio perteneciente a A , este contiene tambin al suceso com
plementario:
A eA=*.4 A.
A t A, B s A ^ A n B e A , A \B e A , A A B eA .
Si A y B son elem entos del lgebra de sucesos A , en to n ces resulta, sobre la base de las propiedades
2 y 3 del lgebra de sucesos, que A n B e A y de aqui (aplicando de nuevo las propiedades 2 y 3 ), que
A \ B e A y A /\B eA ,
A \ B gA y A cJisA .
3. Se cum ple f"') A = A (ver 1.3 (1 2 ).) Si A- (i = 1 ,2 ,...) son elem entos del lgebra de su-
= i .<=i _
cesos A , entonces resulta a con secu en cia de la propiedad 3 del lgebra de sucesos A te A (i = l ,2 , . .. ) .
www.FreeLibros.com
Concluimos este epgrafe con la definicin del llamado suceso elemental y con una ob
servacin sobre la estructura matemtica del lgebra de sucesos.
D e f in ic i n 2 . Sea A un lgebra de sucesos. Un suceso A sA se llama suceso elemen
tal (con respecto a A) si no existe un suceso B e A , B*<p y B ^ A , tal que se cumpla B ^ A .
En caso contrario A se llama suceso compuesto.
D e f i n i c i n 3 . Sea M un conjunto sobre el cual estn definidas dos operaciones + y (es decir,
funciones que asocian a cada dos elementos x e M y y s M los elementos x-t-y y x y pertenecientes a M).
M se llama un lgebra de Boole, si se satisfacen las proposiciones siguientes para cualesquiera elemen
tos x . y . z de M:
1. xy=y-*-x, x y = y x (conmutatividad). t
2. x + ( y + z ) =(x-t-y) 4-z. x - {y z) = (x y) z (asociatividad).
3. x + ( x y) =x, x ( x + y ) = x (absorcin).
4. x + (y z) = ( x + y ) -(x-t-r) (distributividad).
5. Existen elementos 0 y e en M con x 0 = 0 y x-*-e=e.
6. Para todo x e M existe un x 'eM (el llamado complemento de x) con x x '= 0 y x-t-x=e.
www.FreeLibros.com
Si, adems, la siguiente condicin 4 se satisface, entonces A se llama una o- lgebra de
subconjuntos de 2 y el par [52, A] se llama un espacio medible.
4. Para toda sucesin de subconjuntos pertenecientes a A, este contiene tambin su
unin:
25
www.FreeLibros.com
2. P robabilidad
En este capitulo nos dedicaremos al concepto probabilidad, que constituye el concepto cen
tral y fundamental de la Teora de probabilidades y tambin de la Estadstica matemtica.
j'Vqu caracterizamos al concepto probabilidad mediante axiomas, de acuerdo con un pro
cedimiento usual hoy en da en la matemtica moderna (epgrafe 2.4). Para la formacin
del sistema de axiomas partiremos de las propiedades comunes de la frecuencia relativa
(epgrafe 2.1) y del as llamado concepto clsico de probabilidad (epgrafes 2.2 y 2.3). El
concepto clsico de probabilidad se basa en la en realidad no universalmente aplica
b l e - definicin clsica de probabilidad, que en realidad no es universalmente aplicable,
y segn la cual la probabilidad de un suceso aleatorio es igual al cociente del nmero de
resultados del experimento convenientes para el suceso observado, entre el nmero total
de posibles resultados; en una relacin semejante se dice que un resultado del experimento
es conveniente para un suceso, cuando este implica la ocurrencia del suceso considerado.
Las consideraciones sobre la frecuencia relativa deben convencernos, en particular, de
que el grado de indeterminacin de la ocurrencia de un suceso aleatorio se puede concebir
siempre de forma objetiva mediante un nmero. En este contexto llamamos la atencin de
que el concepto probabilidad utilizado en el lenguaje comn muestra con frecuencia ca
racteres subjetivos y que con este slo se intenta dar en muchas ocasiones una proposicin
cualitativa con respecto al propio convencimiento de la ocurrencia de una situacin de
terminada.
Se calcularon probabilidades antes de que existiera una construccin axiomtica del
Clculo de probabilidades (por ejemplo, en el marco de la estadstica poblacional, en pro
blemas de aseguramiento y tambin en juegos de azar). N o obstante, el desarrollo impe
tuoso de la tcnica y de las ciencias naturales desde el comienzo de nuestro siglo situ al
clculo de probabilidades exigencias elevadas. D e aqu se desprendi la necesidad de cons
truir el Clculo de probabilidades, y con esto la Estadstica matemtica, como una disci
plina matemtica rigurosamente fundamentada. La solucin de este problema, uno de los
23 grandes problemas de la matemtica nombrados por el famoso matemtico alemn D.
Hilbert (1862-1943) en el Segundo Congreso Internacional de M atemticos en Pars
(1900), fue lograda por el importante matemtico sovitico A .N . Kolmogorov (nacido en
1903), quien public en 1933 una construccin axiomtica de Clculo de probabilidades,
que se ha convertido en la base de todos los libros de texto modernos existentes, sobre la
Teora de probabilidades.
www.FreeLibros.com
E s in te r e sa n te q ue D . H ilb e r t en su c o n fe r e n c ia en el a o 1900 en P a rs c o n sid er a r a al
C lc u lo d e p r o b a b ilid a d e s c o m o un c a p tu lo d e la fsica , en el c u a l los m to d o s m a tem
tic o s d e s e m p e a n un p a p e l so b r e sa lien te . S o lo p o r m ed io d e la fu n d a m e n ta c i n a x io m
tic a d el C lc u lo d e p r o b a b ilid a d e s y la e x p lic a c i n d e lo s c o n c e p to s fu n d a m e n ta le s lig a d o s
a este p or A .N . K o lm o g o r o v se in teg ra el c lc u lo d e p r o b a b ilid a d e s al e d ific io d e la m a
tem tic a de fo rm a a r m n ic a y c o m o u na v a lio s a d is c ip lin a e sp e cia l.
C o r o la r io 1
1. 0 ^ f(A )^ 1.
2 / ( H ) = l.
3. f ( A u B ) =f( A) +f( B) p a ra Ar\B=<t>.
4. / (0) =0.
5. f(A) = 1 f n( A ) .
6. f(A u B ) = f S A ) + f n(B) f n(A n B ) .
7. D e A E B r e su lta f(A) = / (B ).
www.FreeLibros.com
funcin es, por tanto, un conjunto de sucesos aleatorios; queremos suponer siempre que
se trata de un lgebra de sucesos.
Hn relacin con el corolario 1 se debe hacer hincapi en una cuestin importante para la forma de
proceder en la caracterizacin axiomtica del concepto probabilidad: toda funcin r e a l/d e fin id a sobre
un lgebra de sucesos que posea las propiedades 1, 2 y 3, posee tambin las propiedades 4, 5, 6 y 7.
Aqui queremos demostrar esto solo en un ejemplo; mostremos que de las propiedades 2 y 3 resulta la
propiedad 5: se cumple A r \ A = <t> y por la propiedad S , J [ A v A ) = J { A ) + f l . A ) . A cada causa de que
A v A = l se cumple, por la propiedad 2, la relacin/(/) \j A) = 1. Luego, se cumple 1 =J{A) + A A ) , es de
cir. se cumple f[A ) = 1 J{A)
Analizaremos ahora hasta dnde la frecuencia relativa de un suceso (en una serie de
n repeticiones de un mismo experimento, realizadas independientemente una de otra), es
una medida apropiada para el grado de indeterminacin de la ocurrencia de este suceso.
Para determinar un valor concreto de la frecuencia relativa se tiene que realizar pri
mero una serie de experimentos semejante; por lo dems se obtendr generalmente un va
lor distinto al repetir la serie de experimentos considerada. Pero si se llevan a cabo largas
series de repeticiones independientes de un mismo experimento y se indaga cada vez la
frecuencia relativa del suceso aleatorio considerado, se comprueba que estos nmeros se
diferencian poco unos de otros, es decir, que la frecuencia relativa muestra una cierta es
tabilidad. Luego, las frecuencias relativas del suceso A varian ligeramente, por lo general
alrededor de un cierto valor que frecuentemente desconocemos. Queremos llamar a este
valor la probabilidad del suceso A. Est claro que no podemos calcular la probabilidad de
un suceso por esta va, sino solo obtener un valor estimado para esa probabilidad. Sin em
bargo, con esto hemos logrado el convencimiento de que el grado de indeterminacin de
la ocurrencia de un suceso aleatorio se puede caracterizar de forma objetiva mediante un
nmero.
Por ltimo, queremos analizar la interrogante de si para toda serie de experimentos con
creta, la sucesin (f (A)) de las frecuencias relativas/ (A) de un suceso A converge hacia
un lmite comn f( A ) cuando n * (Si este fuera el caso se podra definir sencillamente
28
www.FreeLibros.com
la probabilidad de un suceso aleatorio como el lm ite de la sucesin de las frecuencias re
lativas.) Pero esto no es as. Por un lado, solo es posible crear una sucesin fin ita de fre
cuencias relativas, de modo que no se puede decidir nunca si existe la convergencia de la
sucesin investigada, convergencia entendida en el sentido de la de las sucesiones num
ricas. Por otro lado, an si no se presta atencin a esta circunstancia, se puede pensar
tambin que no tiene que existir una convergencia de la sucesin ). Si se cumpliera
que lim f n( )= f(A ), entonces existira para todo e > 0 un nmero natural n0, tal que
lf n(A) para todo n0. Pero recurriendo al ejemplo anterior es fcil imaginar
que el suceso nm ero arriba no ocurre ni una sola vez en series de experimentos muy
largas, de modo que la inecuacin |/ (A) f(A ) |< e para un nmero suficientemente pe
queo e > 0 no se cumple para todo n a partir de un cierto ndice n0. (A decir verdad un
caso semejante nos parece muy improbable .)
U na form ulacin matem tica precisa del efecto de estabilizacin de la frecuencia rela
tiva se realiza m s tarde por otro cam ino con el tratam iento de la Ley de los Grandes N
meros.
www.FreeLibros.com
29
Nm ero de resultados posibles: ISO
N m ero de los resultados favorables para A: 1 5 0 -2 1 = 129
Con esto se obtiene
, * , = * = J . - . o . 86=86%.
k 150 50
La aplicacin de la definicin clsica de probabilidad est permitida solo en el marco
de determinados experimentos aleatorios. Queremos reflexionar sobre cmo se reflejan las
condiciones de los experimentos aleatorios en propiedades (adicionales) de las lgebras de
sucesos. Designem os con A al lgebra de sucesos correspondiente a un experimento
aleatorio con un nmero finito de resultados A v A, ..., A k igualmente posibles, que deben
concebirse como sucesos elementales de dicha lgebra de sucesos. Todo suceso aleatorio
arbitrario A e A , A ^ fa se puede expresar com o la suma de aquellos sucesos elementales
A, que implican a A, es decir, para los cuales se cumple que A A . Para hallar la pro
babilidad del suceso A es necesario conocer solo, junto al nmero total k de los sucesos
elementales, el nmero de los sucesos elem entales A, que im plican a A. Con esto est c\aro
que a cada suceso aleatorio A e A est asociado de forma univoca mediante (1) un nmero
real, o sea, que por medio de (1) est definida una funcin real sobre A. En particular
se cumple a causa de
g(yll) = g ( ^ 2) = . . . = ( ^ t) = l
la relacin
P iA j = P (A }) = ... = P iA J = 4 - , (2)
k
es decir, la condicin de que los resultados sean igualmente posibles se refleja en que los
sucesos elementales A ( j = \ , 2 ,. .. ,k ) tienen la misma probabilidad.
Corolario 1
1. 0 < W < 1.
2. P ( n ) = l .
3. P(A u B ) =P(A) +P(B) para AnB=<j>.
4. P(<>) = 0 .
5. P ( A ) = l- P { A ) .
6. P(A u B ) =P{A) +P{B) P(A n B ).
7. D e A S B resulta P(A) < P{B).
Como suplem ento de las propiedades 2 y 4 aclaram os que de P{A) = 1 o P(A) = 0 se deduce que A = S l
o>< = 0. U n suceso aleatorio A tiene, por consiguiente, la probabilidad uno o cero si y solo si es un su
ceso seguro o imposible.
Adem s, se debe llam ar la atencin de que es suficiente dem ostrar las proposiciones 1 hasta 3, ya
que com o fue explicado en el epgrafe 2 .1 , toda funcin real definida sobre un lgebra de sucesos que
posea las propiedades 1 hasta 3, posee tambin la s propiedades 4 hasta 7.
30
www.FreeLibros.com
interesan, o sea, el clculo del nmero de los casos posibles y del de los convenientes en
cada ocasin, se efecta, por lo general, con los mtodos de la combinatoria (ver MfL, To
mo 1,3.6). Esto no es siempre muy sencillo.
Ejemplos
1. Calculemos la probabilidad para ganar la lotera * en 5 de 35 (suceso G), es decir,
para acertar tres nmeros (suceso A ), cuatro (suceso B) o cinco (suceso C). Se cumple
( 5 \ / 3 0 \ 5 -4 3 0 -2 9
*W =( ) l ) = ---------------------- = 4 350,
' 3 / V 2 / 1 -2 1 -2
- = C ) C ) = T >
g(B) 150
P ( B ) = -----------------------= 0,0005 (probabilidad de obtener cuatro),
k 324 632
pla aos un da determinado, es igual para los 365 das, luego es igual a i.
365
Indagamos primero el nmero k de los posibles resultados del experimento, consistiendo
un posible resultado en elegir n das (no necesariamente distintos) de los 365. El nmero
365 -365 ... 365
de estas posibilidades es igual (considerando la sucesin) a k = -------------------------=365"
n factores
(por lo dems se cumple que para n > 4, k = 365" es mayor que un billn).
31
www.FreeLibros.com
Para el clculo de la probabilidad buscada tenemos que averiguar ahora el nmero g(A)
de los resultados favorables para A. Es mucho ms conveniente calcular primero el n
mero g(A) de los desenlaces favorables para A. El suceso A consiste en que entre las n
personas elegidas no haya dos o ms que cumplan aos el mismo dia, es decir, en que ca
da una de las n personas cumpla aos un da distinto al de todos los dems. El nmero
de los resultados favorables para A es igual (considerando de nuevo la sucesin) a
a . i U
(_ !6> ' .
k 365"
de donde resulta, segn una frmula anterior (ver corolario 1, proposicin 5), la proba
bilidad buscada
P tA )= l-P (A )= l-
(" >
365"
En la tabla siguiente damos, para distintas n, la probabilidad de que entre n personas, por
lo menos dos cumplan aos el mismo da.
n 10 20 22 23 24 30 40 50
32
www.FreeLibros.com
2. los sucesos A y B, a los cuales corresponden dominios parciales de igual medida (por
ejemplo, intervalos de igual longitud, conjuntos de puntos en el plano de igual rea, cuer
pos en el espacio tridimensional de igual volum en), posean tambin la misma probabili
dad, se calcula la probabilidad de un suceso A. que est en relacin con un experimento
semejante, segn la frmula
A E
Figura 11
m(A) = 6 0 6 0 - 2 m(E) = 6 0 60
2
33
www.FreeLibros.com
y obtenemos con esto para la probabilidad buscada
y = -L *
m{E) V 4 / 16
La probabilidad del encuentro con 15 min de espera es, por tanto, algo menor que 0,5.
Dejamos al lector que verifique que, por ejemplo, la probabilidad del encuentro con
30 min de espera es igual a 0,75. Adems, el lector puede deducir fcilmente una relacin
general entre la probabilidad del encuentro y el tiempo de espera.
Obsrvese que a los sucesos aleatorios a los cuales corresponde un dominio parcial, que
posee una dimensin ms pequea que el dominio bsico E (por ejemplo, un punto sobre
una recta numrica, una recta en el plano, un plano en el espacio), les corresponde la
probabilidad cero.
La definicin geomtrica de probabilidad dio m otivo en pocas anteriores a todo tipo de falsos en
tendim ientos, equivoco? y criticas; esta condujo incluso en cierta medidai a un rechazo del clculo de
probabilidades com o disciplina cientfica. Para fundamentar esto se hizo referencia a problemas cuya
solucin es dependiente del m todo utilizado, es decir, que conducen a distintos resultados con mtodos
de solucin diferentes. La causa de esto no radica en cualesquiera contradicciones del concepto geom
trico de probabilidad, sino en la insuficiente precisin en el planteam iento del problema. Traem os un
ejemplo que es conocido en la literatura com o la paradoja de Bertrand; este proviene, como otros mu
chos ejemplos semejantes, del m atem tico francs J. Bertrand (1822-1900).
mtA) r 1
P{A) = ------------------- .
m () Ir 2_____________________________________________________________________
S o l u c i n 2. Fijemos un punto final de la cuerda sobre la circunferencia, tracemos la
la circunferencia en este punto y dibujemos un tringulo equiltero inscrito en ella con un vrtice en
dicho punto (fig. 14). Hl suceso A ocurre si y solo si la cuerda cae en el sector angular del
medio. Luego se cumple
%
^ ) = ^ L = i l = _L.
m(E) n 3
34
www.FreeLibros.com
Figura 13
longitud de la cuerda, entonces se cum ple que / = 2 ^ r ! - p ! (fig. 15), El suceso A ocurre si y solo si
m(A) (i)'- ,
m(E) rb:
Figura 15
En el planteam iento del problema no est fijado qu se entiende por el trazado aleatorio de una cuer
da. En las soluciones dadas esto fue concebido cada vez de m anera diferente. En la solucin 1 se parti
del m odelo de la tirada aleatoria de un punto sobre un intervalo de la longitud 2r; en la 2, del lan
zam iento aleatorio de un punto sobre un intervalo de la longitud it , y en la 3, de la tirada aleatoria
de un punto sobre la superficie de un crculo con radio r. entendindose cada vez la palabra aleatoria
tal como se indica en la definicin geom trica de probabilidad. Las tres soluciones dadas no son, por
tanto, soluciones del problema anterior, sino de otros 3 problem as distintos entre s; el problema mismo
no es, sin precisin de lo que se entiende por trazado aleatorio de una cuerda, soluble en la forma
dada.
www.FreeLibros.com 35
(que restringen bastante su aplicacin) - frmulas para el clculo de probabilidades. U na
frmula aplicable en todos los casos para el clculo de probabilidades no existe y no puede
tampoco existir. Por eso, para la construccin sucesiva del clculo de probabilidades, que
remos tomar por base algunas suposiciones (axiomas) que se traducen en propiedades y
reglas de clculo, relativas al concepto de probabilidad y que reconoceremos como vlidas
sin demostracin. Aqu partiremos naturalmente de las experiencias acumuladas hasta
ahora por nosotros, o sea, construiremos el sistema de axiomas del clculo de probabili
dades de las propiedades comunes de la frecuencia relativa y de los conceptos clsico y
geomtrico de probabilidad.
Para la formulacin del sistema de axiomas partiremos de un lgebra de sucesos A.
Decimos que sobre A est definida una probabilidad P (o una m edida de probabilidad) ,
si P es una funcin con las propiedades sealadas en los siguientes axiomas.
Os: p ( A 1.
Con el axioma 1 se establece, por tanto, el dominio de definicin y la imagen de la fun
cin P; P es una funcin real definida sobre un lgebra de sucesos con valores entre cero
y uno. El axioma 1 lleva implcito tambin que todo suceso aleatorio posee una probabi
lidad bien determinada.
Observemos al respecto que un lgebra de sucesos al cual pertenezcan los sucesos alea
torios A y B contiene tambin, segn definicin, a A u , o sea, que junto con A y B tam
bin A j B pertenece al dominio de definicin de la funcin P.
y ^ e A O ^ l^ ,...,/! ) ,
A ,r \A k=4>(i^k; i,k = l,2 ,...,n )
36
www.FreeLibros.com
A x io m a 4 . D ado un conjunto infinito numerable de sucesos aleatorios mutuamente ex
cluyentes dos a dos del lgebra de sucesos considerada, la probabilidad de que ocurra uno
de ellos es igual a la suma de las probabilidades de estos sucesos:
v4,eA 0 = 1 . 2 ,. .. ) .
A , n A k = <t> (iV&.'i'./c = l , 2 .. .. ) ,
Advertimos que un lgebra de sucesos a la cual pertenezcan los sucesos >4^' = 1 ,2 ,...)
1" 1 ;=1
Aj pertenece al dom inio de definicin de la funcin P. El concepto lgebra de sucesos
est fijado de tal modo, que todos los sucesos que aparecen en los axiomas y en las pro
posiciones del epgrafe 2.5, que se deducen de estos, pertenecen al lgebra de sucesos, es
decir, al dom inio de definicin de la funcin P.
N o dem ostrarem os este teorem a, pero lo com entarem os un poco. Si (d;) es una sucesin de subcon
juntos (de un conjunto universo i), entonces las sucesiones con A, ^ A E y A , 2 a } 2 . . . son conver
gentes en el sentido del lim ite algebraico conjuntista, y se cum ple que
lim A k= At y lim A k= A
k~~ ,=1 * ,=1
respectivam ente. Luego, las proposiciones conten idas en el teorem a significan la validez de
P (lim A ) = lim P {AJ. Esto es equivalente a la continu idad de P.
Los axiomas 1 hasta 3 proporcionan que se pueden demostrar en el caso en que se apli
que la definicin clsica de probabilidad (ver 2.2 , cololario 1, proposiciones 1 hasta 3).
Asim ism o son vlidas proposiciones semejantes para la funcin f , que hace corresponder
a cada suceso aleatorio A e A la frecuencia relativa de la ocurrencia de A en n repeticiones
realizadas independientes unas de otras del experimento aleatorio observado (ver 2.1,
corolario 1, proposiciones 1 hasta 3 ). N o formularemos com o axiomas para el concepto
general de probabilidad las otras propiedades com unes establecidas para la frecuencia
relativa y el concepto clsico de probabilidad, porque ellas se pueden deducir de los
axiomas 1 hasta 3 (ver 2 .5 ). Tam poco exigirem os que A sea un suceso seguro cuando se
cum pla que P{A) = 1 , ya que esta proposicin no es verdadera en el m arco de la definicin
geom trica de probabilidad (ver 2 .3 ). En este contexto introducirem os dos conceptos.
www.FreeLibros.com 37
D e f in ic i n 2. Si A es un lgebra de sucesos y P una probabilidad sobre A, entonces
se llama al par [A, P] una familia de probabilidades.
A causa de la estrecha relacin entre las lgebras de sucesos y los espacios medibles,
verificada en el epgrafe l.S , se puede partir tambin en la introduccin axiomtica del
concepto probabilidad de un espacio medida [2,A]. Entonces se denomina a una funcin
P definida sobre la o-lgebra A de subconjuntos del conjunto universo 2, una medida de
probabilidad, si esta posee las propiedades expresadas en los axiomas 1 hasta 4.
m = 0. ( 1)
D e m o s t r a c i n . Se cumple que 0e2 (ver 1.4, corolario 1, proposicin 1), o sea, que
el suceso imposible pertenece al dominio de definicin de P. A causa de que 0m>= tp, se
cumple, segn el axioma 3, que
/\* v 0 = P (# + F (6 = 2 P (0 .
Como 0 u 0 = 0 , se cumple que P(<j>yj<t>) =P{<j>) y con esto que P(<t>) =2P(</>), de donde se ob
tiene (1).
P ( ) = \- P { A ) . (2)
38
www.FreeLibros.com
T e o r e m a 3 . Para sucesos aleatorios cualesquiera A<= A y A gA se cumple que
donde los sumandos situados a la derecha son en todos los casos mutuamente excluyentes
dos a dos (fig. 8). D e la aplicacin del axioma 3 y del corolario dado a continuacin de
este se obtiene que
P(A ^ B ) = P ( A ) + P ( B n A ) ,
P(A j B) = P ( B ) + P ( A r , B ) , _
P(A \ j B ) = P ( A n B ) + P [ B n A ) + P ( A r > B ) .
Si formamos la diferencia entre la suma de las dos primeras ecuaciones y la tercera ecua
cin, se obtiene (3).
B -A u (B n A ) con A n ( B n A ) = 0 .
Figura 16
L J A n=Sl, A jn A t = 0 (/Vfc).
La aplicacin del corolario dado a continuacin del axioma 3 o la aplicacin del axio
ma 4, proporciona, bajo la consideracin del axioma 2, la proposicin de este teorema.
39
www.FreeLibros.com
3. Probabilidad con d icionad a
40
www.FreeLibros.com
pie para la frecuencia relativa f(A\B) de la ocurrencia de A en los m experimentos en los
cuales B ocurre, la relacin
<i>
m m f n (B)
Si el experimento aleatorio observado posee fc(< <*>) resultados y estos son igualmente po
sibles, entonces se cumple para la probabilidad P(A\B) del suceso A bajo la condicin de
que el suceso B ocurra, segn la definicin clsica, la relacin
g(A nB )
F U \ B ) - * m L = --------i --------,2)
m m _ m
k
denotando g(C ), como antes, el nmero de los resultados que provocan la presencia del
suceso C.
Las relaciones (1) y (2) son la base para la siguiente definicin general de probabilidad
condicionada.
P(A\B) = p (A n B )~ (3)
P(B)
41
www.FreeLibros.com
I 1-------- 1 II I--------1 III
_________p________________ Q_____________ 1 ~ ( p + q)
I m m W iWWiWWWW | \-------------------------1
O --------------------- .--------------------- - 1
1- p Figura 18
p im
Con P(A) = q y P{B) =1 P(B) =1 - p (fig. 18), obtenemos
P(A\B) = - i - ,
1 -P
Indicamos algunas inferencias directas de (3), que fundamentan ms ampliamente la
conveniencia de la definicin 1.
C o r o la r io 1. Si a la ocurrencia del suceso aleatorio 2?e A, P(B) > 0 , est siempre uni
da la ocurrencia del suceso aleatorio ^4eA (B ^ A ), entonces se cumple P{A\E) =1.
P{A).
( ] \ A ) = = ) Pi\B) = > P {A ).
V 6 2 / 3
( ^ ) = = ) P i 4 \ m = = p (a ).
42
www.FreeLibros.com
Llamamos tambin la atencin de que la probabilidad condicionada f\A | B) de A con
respecto a B se debe diferenciar exactamente de la probabilidad condicionada P(B\A) de
B con respecto a A y tambin de la probabilidad P(A nB ) de la ocurrencia simultnea de
los sucesos A y B.
E je m p lo . Tirada de un dado.
A ... El nmero obtenido al tirar el dado no es mayor que 4.
B ... El nmero obtenido al tirar el dado es igual a 3, 5 o 6.
P(A) = = , P{B) = = ,
6 3 6 2
P (A nB ) = , P{A\B) = , P{B\A) = .
6 3 4
La correspondencia
es una funcin definida sobre el lgebra de sucesos A para up suceso fijo B e A de proba
bilidad positiva P(B) > 0 . Designemos esta funcin con PB; se cumple por tanto que
P M ) =P(A\B) = P{A nB ) ,
P(B)
P ( l) 1
43
www.FreeLibros.com
bilidad P(A r\B) se present en el epgrafe 3.1 en la definicin de la probabilidad condi
cionada. Despejando la ecuacin (3) de 3.1 obtenemos la proposicin siguiente:
T e o r e m a 1 .(Teorema de la multiplicacin)
Sean A y B sucesos aleatorios con probabilidades positivas. Entonces se cumple que
P(A\B) P(B\A)
(2)
P{A) P{B)
Entonces se cumple que A = A 1rA1 y, por tanto, que P[A) =P (A 1n A ). Utilizaremos para
el clculo de esta probabilidad la frmula (1) en la forma
PA,) = = , PA}\At) = .
10 5 9
Con esto
5 9 3 '
(Se puede obtener tambin este resultado directamente por medio de la definicin clsica
de probabilidad: -------
6 5 1 -2 1 )
P{A) =
1 2 1 0 -9 3
44
www.FreeLibros.com
T e o r e m a 2. Sean A v A ,..., A n sucesos aleatorios con
P {A n B )= P (A ) P[B) , (1)
o sea, si la probabilidad del producto de los sucesos es igual al producto de las probabi
lidades de dichos sucesos.
45
www.FreeLibros.com
El ejemplo siguiente debe ilustrar no solo el concepto independencia de dos sucesos,
sino tambin preparar la ampliacin de la definicin de independencia al caso de ms de
dos sucesos.
E je m p lo . Tiremos dos dados una vez -im aginem os los dados num erados- y obser
vemos los sucesos siguientes:
A ... El nmero obtenido con el dado 1 es impar.
B ... El nmero obtenido con el dado 2 es par.
C ... Los nmeros obtenidos son ambos pares o impares.
Supongamos que los 36 resultados posibles del lanzamiento de dos dados son igualmente
probables. Entonces obtenemos (mediante la definicin clsica de probabilidad) que
m = m = n Q = =
36 2
P(A nB) = I \A n C ) = P {B n C ) = =
36 4
Los sucesos A, B y C son, por tanto, independientes dos a dos. Sin embargo, se cumple
por ejemplo que P[C\a n B ) = 0 * P (C ), es decir, el suceso C no es independiente del suceso
A n B . Por consiguiente, no designaremos a los sucesos A. B y C como completamente in
dependientes unos de otros.
(2 )
Los sucesos aleatorios A v A v ...,A n,... de una sucesin infinita se llaman completamente in
dependientes si para todo nmero natural n los sucesos A v A P...,A son completamente
independientes.
Par finalizar este epgrafe, queremos indicar un teorema que proporciona ideas interesantes sobre
las familias de probabilidades y sobre el concepto independencia.
T e o r e m a 1. (Lema de Borrl-Cantelli)
Sea [A,/) una familia de probabilidades y (AJ N una sucesin de sucesos aleatorios AeA . Con A m
denotamos al suceso aleatorio que tiene lugar si y solo si ocurre un nmero infinito de sucesos de la
sucesin N.
a) Si se cumple que X P[A) < , entonces P A J = 0 , o sea, a lo sumo un nmero finito de su-
b) Si se cumple que f \ A n) = ~ y los sucesos A VA,,... son independientes dos a dos, entonces se
www.FreeLibros.com
Este teorem a, que no querem os dem ostrar, desem pea una funcin importante en la dem ostracin de
las leyes fuertes de los grandes nmeros. Sin embargo, queremos fundam entar por lo m enos que la pro
posicin de este teorem a es razonable, o sea, que se cum ple A. Esto resulta en virtud de las pro
piedades de un lgebra de sucesos (ver 1.4, definicin 1 y corolario 1) sobre la base de la relacin
A_= (~) Ak
n=0 Jk=n
es el llam ado limite superior de la sucesin W )6 N: se cum ple que x e A _ si y solo si x es elem ento
de un nm ero infinito de subconjuntos A n. )
m = % P ( B \A ) P { .A ) . (1)
1=1
O b s e r v a c i n . La frm ula (1) se llam a frm ula de la probabilidad total o tambin com pleta por
que con ella se puede calcular la probabilidad (incondicionada) de un suceso B a partir de sus pro-
babilidades condicionadas, que en este contexto se designa com o probabilidad total o com pleta
(fig. 19).
Figura 19
B=KJ (B n A ,).
www.FreeLibros.com
47
D e aqu resulta (ver 2.4, corolario 1)
/>(B) = 2
1=1
La aplicacin del teorema de la multiplicacin proporciona por ltimo (ver 3.2, teore
ma 1)
P(B) = 2 P (B \A ) P (A ),
/o ,7 0,2 0,1
P = ( 0,3 0,5 0,2
\0 ,3 0 0,7
www.FreeLibros.com
3.5 Frmula de Bayes
La frmula de Bayes sirve para el clculo de las probabilidades condicionadas PiA\B) de
los sucesos A k de un sistema com pleto {A v A v ..., A n} de sucesos con respecto a un suceso
B de probabilidad positiva {k = 1, 2 ,..., n), a partir de las probabilidades P{A) y de las
probabilidades condicionadas P[B \A ) ( i = l , 2 ,..., w).
m .l . K u w ( t = 1 , 2.......(1)
2 r w
1=1
D e m o s t r a c i n . Se cumple (ver 3.2 (2))que
( t _ , , 2 ....
PIA,) PIB)
D e aqui resulta
| P J B jA J W
PB)
W .U ) - (fctr 2,......
1=1
o sea, se cumple (1).-------------
rik=PiAh\B ) ^ l
P(B) q,
( k = 1, 2 ,..., n; j = 1, 2 , .. ., m ),
49
www.FreeLibros.com
(Por ejemplo, se cumple que rll= PaP% = 2 --3 = 0,24, es decir, la probabilidad de
q, 0,25
que la seal x 2 haya sido enviada cuando se recibi la seal y, es de 0,24.)
Queremos fundamentar un poco la significacin de la frmula de Bayes. Para ello po
demos partir de la consideracin de un experimento aleatorio en el cual, en cada opor
tunidad, ocurre exactamente uno de los sucesos aleatorios A, A ,..., A n. Imaginemos que
no es posible una observacin directa del experimento con respecto a la ocurrencia de los
sucesos A v A j,..., A n, pero que las probabilidades de estos sucesos son conocidas o que
existen valores estimados para ellas. (En esta relacin se denominan tambin las proba
bilidades PA) ( = l , 2 ,..., ti) como probabilidades a priori.) Si se puede observar ahora
la ocurrencia del suceso B en la realizacin del experimento, se procura utilizar esta in
formacin en la toma de la decisin sobre cul de los sucesos A v A v ..., A n ocurre en el
experimento. Para ello se calcularn las probabilidades condicionadas P{Ak\B) de los su
cesos A k( k = 1, 2 ,..., n) con respecto a B segn la frmula de Bayes. (En este contexto se
denominan tambin las probabilidades P{Ak\B) (fc= l, 2 ,..., n) como probabilidades a pos-
teriori.)
Una regla de decisin posible y muy clara consiste en que ante la presencia del suceso
B se considere como ocurrido aquel de los sucesos A k{ k = 1, 2 ,..., n) que tiene la mayor
probabilidad bajo la hiptesis de que el suceso B ocurre; por tanto, se elige entre los su
cesos v4t(fc= l, 2 ,..., rt) aquel que, dando por sentado a B, tiene mayor probabilidad. Na
turalmente, esta decisin no est excenta de error, pero, se puede indicar la probabilidad
de una decisin falsa. Sobre este principio de decisin se basan muchas reflexiones, par
ticularmente de la Estadstica matemtica; el principio se debe a un clrigo ingls, Tho-
mas Bayes (fallecido en 1763), pero fue solo conocido y aplicable despus de una nueva
formulacin hecha por P.S. Laplace.
E je m p lo . Si aplicamos el principio de decisin descrito al modelo considerado de un
sistema de trasmisin de noticias, esto significa que ante la recepcin de la seal y con
sideramos como enviada aquella seal x,, para la cual la probabilidad rt es el mximo del
conjunto de los nmeros rjk (fc= l, 2 ,..., n), es decir, que tiene la mayor robabilidad de
haber sido enviada. Para el ejemplo numrico esto significa, que ante la recepcin de las
seales y v y 2 y y t se decidi por x v x 2 y x }, respectivamente. (Estas tres decisiones estn
provistas de errores; la probabilidad de una decisin falsa asciende a 0,3 para la deduc
cin de y, a x,, 0,4 para la de y a x y a 0,44 para la de y a x,.)
50
www.FreeLibros.com
4. Variables aleatorias discretas
En este captulo queremos trabajar con las llamadas variables aleatorias discretas, cuya
caracterstica comn consiste en que pueden aceptar un nmero finito o infinito numera
ble de valores; en el capitulo 5 nos ocuparemos d las llamadas variables aleatorias con
tinuas, cuyos valores imaginables cubren un intervalo.
A estas consideraciones queremos anteponer la definicin general de variable aleatoria,
que requiere del concepto espacio de probabilidad, y la definicin de funcin de distribu
cin de una variable aleatoria.
5!
www.FreeLibros.com
D e f i n i c i n l.S e a [i,A ,P ] un espacio de probabilidad. Una funcin real X definida
sobre ft (m e AT(co) e R) se llama una variable aleatoria (sobre[l,A,P]), si para todo
nmero real x se cumple que
{o}Eft:Jf((D) < x } e A .
F x )= P { X < x ), x e R (1)
52
www.FreeLibros.com
D e m o s tr a c i n . Consideremos que X designa una variable aleatoria con la funcin de distribucin
F.
1. Como F(,x) indica la probabilidad de un suceso aleatorio, se cumple que CK F(x) $ 1 (ver 2.4,
axioma 1).
2. D e x t < x resulta (A'< jc,) (X < x ) y de aqu (ver 2.5, teorem a 4) P ( X < x t) $ P ( X < x 2) es decir,
F(X) Z F ( X).
3- Si (x) es una sucesin m ontona creciente de nmeros reales x < a con lim x n= a. entonces se
cumple que ( X< x ) i (X<x^) y L J (X < x ) = ( X < a ) . De aqui resulta (ver 2.4. teorema 1) que
n=i
P (X < a ) = lim (A"<x), o sea, F(a) = lim F(x), con lo cual est demostrada la continuidad por la iz
quierda de F.
4. La existencia de los lim ites sealados resulta de la monotona y del acotam iento de F (proposicio
nes 1 y 2); adems, se cum ple evidentem ente que 0 ^ lim F(x) lim F(x) 1. Por tanto, es suficien
te demostrar que se cum ple lim F ( - n ) = 0 y lim F(n) 1, recorriendo n el conjunto de los nmeros
naturales. Para ello considerem os los sucesos m utuamente excluyentes dos a dos X<j),
( j= 0 , 1 , 2 , . . . ) . Entonces se cum ple (ver 2 .4, axiomas 2 y 4) que
y, por consiguiente,
Como la diferencia de dos nmeros situados entre cero y uno puede tener el valor uno, solo si el mi
nuendo es igual a uno y el sustraendo igual a cero, resulta de aquf que
con lo cual todo est demostrado. Adem s podem os afirmar que la propiedad 1 resulta directamente
de las propiedades 2 y 4.
P (X = c) = F c + 0 ) - F c ) ; (3)
aqu designa F J,c+0) el lmite por la derecha de la funcin de distribucin Fx de la va
riable aleatoria X en el punto c. Por tanto, si c es un punto de continuidad de la funcin
de distribucin de X, entonces X acepta el valor c con la probabilidad cero, o sea, el su
ceso {X c) es un suceso casi imposible.
Con (3) se comprueba la validez de las ecuaciones siguientes:
53
www.FreeLibros.com
que en unin con (1) muestran cmo se calcula, mediante la funcin de distribucin FA,
la probabilidad de que la variable aleatoria X acepte un valor de un intervalo arbitrario
dado.
Ahora queremos tratar brevemente las funciones de variables aleatorias. Primero nos
ocuparemos de la igualdad de variables aleatorias. Las variables aleatorias son funciones
y, por tanto, ya est definida en principio la igualdad de dos de ellas. En la Teoria de
probabilidades es conveniente y usual definir un concepto igualdad un poco ms general,
el cual considere la particularidad del dom inio de definicin comn (conjunto universo de
un espacio de probabilidad) de una forma adecuada.
/ >({a)e:A'(a)) = y(co)}) = 1 ,
( 10)
a
para 0,
para x < 0,
l / ^ x ) F r( x + 0 ) para x > 0 . (12)
www.FreeLibros.com
o sea. (9). En el caso de que a < 0 se obtiene que
o sea. (10).
2. Para xsS 0 se cumple que F }(x) =P( X*<x) = 0 . Para x > 0 se obtiene que
o sea, (12).
Desde el punto de vista del Clculo de probabilidades podemos considerar una variable
aleatoria discreta como dada, si estn dados los distintos valores x k de la variable alea
toria X y las llamadas probabilidades individuales p k= P (X = x k), con las cuales la variable
aleatoria X acepta estos valores. En casos concretos se mencionan por conveniencia solo
aquellos valores x k. para los cuales la probabilidad individual correspondiente p k es po
sitiva; sin embargo, no queremos acordar esto rigurosamente, para que no resulten difi
cultades innecesarias en las consideraciones tericas.
Se caracteriza una variable aleatoria discreta X. que acepta los valores x k con las pro
babilidades p k, por la llamada tabla de distribucin.
A. V. ...
P ! n2 p>
55
www.FreeLibros.com
P( X = x)
Jki.
Figura 21
El teorema siguiente muestra, entre otras cosas, que mediante la tabla de distribucin
se fija realmente la funcin de distribucin de la variable aleatoria considerada.
1. Pk> 0,
Dejamos la demostracin sencilla de este teorema al lector; esta se obtiene de los axio
mas del Clculo de probabilidades y mediante referencia a la definicin de funcin de dis
tribucin. N o hemos excluido en la definicin 1 el caso de que la variable aleatoria X pue
da aceptar solo un nico valor x,; ella aceptara entonces este valor con la probabilidad
1. La tabla de distribucin perteneciente a esta variable aleatoria A" y la funcin de dis
tribucin tienen la forma sencilla siguiente:
X: ir*. 22).
I 1 para x > x ,
y
i
y-FJx)
l
l
l1
i
0 X, X Figura 22
Se dice tambin que X posee una distribucin puntual (en el punto x ,) . Por consiguiente,
una variable aleatoria distribuida en un punto posee siempre, independientemente del re
sultado del experimento, un mismo valor. Este caso puede concebirse como caso extremo
de lo casual.
56
www.FreeLibros.com
Si entonces el objetivo tampoco es acertado, se dispara una tercera y hasta una cuarta
vez, en caso de no dar en el blanco con el tercer tiro. Independientemente de si el cuarto
tiro fue certero o no, no se dispara despus ninguna otra vez. Designemos con X el n
mero de los tiros disparados por los cazadores; X es una variable aleatoria discreta. Los
valores posibles de esta variable aleatoria son los nmeros 1, 2, 3 y 4. Calculemos ahora
las probabilidades individuales p k= P { X = k ) para k = 1, 2, 3 y 4. Para ello introduzcamos
los sucesos siguientes:
A ... El tiro nmero i es certero ( i = l , 2, 3, 4).
Se cumple que P(A) = 0 ,4 y P() = 0 ,6 . Adems, los sucesos A v A P A y A 4 son com-
pletamente independientes (ver 3.3, definicin 2). As, por ejemplo, la probabilidad del
suceso da en el blanco con el tercer tiro es igual a la probabilidad de este suceso bajo la
condicin de que los tiros anteriores fueran certeros; por tanto, en esta reflexin no posee
ninguna significacin el que, por ejemplo, no se disparen otros tiros en caso de dar en el
blanco con el primero.
Expresemos los sucesos (A'= 1), ( X = 2 ) , (X = 3) y (X = 4 ) mediante los sucesos A v A }, A,
y av
(X = l ) = A V
(JT=2 ) = A l n A v
( X = 3 ) = A i n A 1n A r
( X - 4 ) = A n A }nA.
Luego, se muestra que no necesitamos para esto al suceso A t.
Considerando la independencia de los sucesos A A A, y A , obtenemos
Pl= P ( X = l ) = P < A = 0 , 4 ,
Pl= P ( X = 2 ) = P [A 1n A ^ =P (A i)P (AJ = 0,6 0 ,4 = 0 ,2 4 ,
p , = P ( X = 3) = ^ , 0 ^ ^ , ) =P{AP{AJ>P{AJ = 0 ,6 0 ,6 0 ,4 = 0 ,1 4 4 ,
P a= P { X = 4) ^ P i A ^ A ^ A J = P { A l)P (A P {A J = 0 ,6 0 ,6 0 ,6 = 0 ,2 1 6 .
(El clculo de p A hubiramos podido hacerlo ms sencillo, ya que los sucesos (A"= 1),
(X = 2 ) , (X =3 ) y (X = 4) forman un sistema completo de sucesos y con esto se cumple que
Pl +P>+Pi + P * = l) -
La tabla de distribucin de la variable aleatoria X tiene* por consiguiente, la forma si
guiente (comparar con fig. 23):
1 2 3 4
P ( X = x)
57
www.FreeLibros.com
Para la funcin de distribucin Fx se obtiene (fig. 24)
para 1,
1
U = 0 ,4 para 1 <x 2,
Fx(x) = p ( X < x ) = l p t + p t= 0 , 6 4 para 2 <xS 3,
P ^ + P i =0,784 para 3 < x < 4,
\P l + P i + P } + P 4 = l para x>4.
Figura 24
E X = J * Pt (1)
k
se llama valor esperado de la variable aleatoria X; aqu se supone que la serie situada en
el miembro derecho de (1 ) converge absolutamente, o sea, que se cumple que
nmero finito de valores, de modo que a toda variable aleatoria discreta con un nmero
finito de valores le corresponde, segn (1 ), un valor esperado.)
Por consiguiente, el valor esperado de una variable aleatoria discreta es la media pe
sada de todos los valores x t de X, emplendose como peso de todo valor x k la probabilidad
individual correspondiente p k. (Aqu no se presenta explcitamente la divisin por la suma
de todos los pesos, usual para, la media pesada, ya que esta suma es igual a uno.)
58 t
www.FreeLibros.com
La tabla de distribucin de una variable aleatoria discreta que toma los valores xk con las probabi
lidades pk, se ilustra bien com o un sistema de masas puntuales que posee en los lugares xk m asas pk (y
tiene, por tanto, la masa total u n o ). En esta ilustracin corresponde al valor esperado de la variable
aleatoria el centro de gravedad del sistema de m asas puntuales.
y? g(xk) p l converge absolutamente (es decir, si ^ |pt < <*>), entonces se cumple
* k
Eg(X) = J l x j p k. (4)
k
Dejamos la demostracin al lector. Para g(x) = x se cumple el teorema 2 sobre la base
de la definicin 1. Para g ( x ) = ( x - c ) J y g'(x) = |x c| * (j un nmero natural arbitrario,
c un nmero real cualquiera) se obtiene respectivamente con (4) que
59
www.FreeLibros.com
y
E \ X - c \ >=
D e f in ic i n 2 . Sea X una variable aleatoria discreta con el valor esperado EX, que
toma los valores x k con las probabilidadesp k= P ( X = x k). Entonces el nmero D 2X definido
solo un nmero finito de valores, de modo que, a toda variable aleatoria discreta con un
nmero finito de valores le corresponde segn (7) una varianza.) El nmero
gx = { d x (8)
Si se ilustra una variable aleatoria discreta X (valor esperado EX, varianza D !X) como un sistema
de masas puntuales (con el centro de gravedad E X ), entonces corresponde a la varianza D X el momen
to de inercia de este sistema con respecto a un eje que pasa por el centro de gravedad.
60
www.FreeLibros.com
T e o r e m a 3 . Sea X una variable aleatoria discreta con valor esperado E X y varianza
D 2X, que toma los valores x k con las probabilidades p k. Entonces existe E X 1, y se cumple
(8)
D * = 2 * * - * )* A = 2 W - ^ e x h e x ) 2) p k
k k
k k
Si se ilustra una variable aleatoria discreta com o un sistem a de m asas puntuales con la m asa total
teorem a de Steiner, segn el cual, el m om ento de inercia de un sistem a semejante de m asas puntuales
respecto a un eje que pasa por el origen, es igual a la suma del m om ento de inercia con respecto a un
eje que pasa por el centro de gravedad y el cuadrado de la distancia del centro de gravedad al origen.
Por esta razn, se denom ina tam bin en la Teoria de probabilidades la proposicin del teorem a 3 como
teorem a de Steiner.
Veamos ahora una proposicin que se corresponde bien con nuestras ideas acerca del
contenido del concepto varianza.
D 2 (a X + b ) = a 2D 2X. ( 10 )
D 2 (a X + b ) = E ( a X + b - E ( a X + b ) ) 2
= E (aX + b -a E X -b ) l
=E (a\X -E X )*)
= a iE ( X - E X ) * = a iD 1X.
D 1 ( - X ) = D 2X, (ID
y
(1 2 )
www.FreeLibros.com
61
x
El paso de la variable aleatoria X a la -------- se llam a normar.
\D*X
X E X
Para la variable aleatoria Z = ----------------- se cumple, por tanto, que E = 0 y D %
Z = 1;
yjD>X
X E X
el paso de l a ----------------- se llama estandarizar.
\ I d *X
Las caractersticas tratadas hasta ahora: valor esperado y varianza, pertenecen a los denom inados
momentos. A continuacin traem os la definicin de los momentos.
D e f i n i c i n 3 . Sea X una variable aleatoria discreta que toma los valores x k con las probabilidades
p adem s, sea j .un nmero natural y c, un nmero real arbitrario. Entonces los nmeros
A simple vista se observa que se cum plen las ecuaciones u(0) = E X , n,(Jf) = 0 ,u ,(0 ) = E X 1, 0,(0) = E X 1
y \iJ(E X )= D * X = a j(E X ). La ecuacin (9) plantea que n ,(J0 = M-a(0) -[n ,(0 ) l1.
An queremos dar y demostrar una inecuacin sobre momentos.
T e o r e m a 6 . Sea X una variable aleatoria discreta con la varianza D*X y c un nmero real arbi
trario. Entonces se cumple que
Z ) y r n a(c); (15)
H,(c) = E ( X - c ) 1= ^ (x k ~ c ) 1Pk= ^ (x i - 2 c x t + c J) p k
k k
= 2 x l P k -2 c 2 x k P k + cl 2 Pk
k k k
= E X - 2 c E X + c
^ E X * -(E X ) + (E X ) - 2 c E X + c 1
= D tX + ( E X ~ c ) i > D 'X ,
de donde se obtiene la proposicin del teorem a 6.
El teorem a 6 m uestra que la varianza es el ms pequeo de los m omentos de segundo orden. El lector
debiera comparar esta proposicin con la correspondiente sobre m omentos de inercia.
El teorem a siguiente, sin dem ostracin, contiene algunas otras proposiciones sobre momentos, utili
zndose para los m om entos iniciales ordinarios de orden j la notacin (0 )); para los momen
tos centrales ordinarios de orden j, la notacin \ij (iij=\iJEX))y para los m omentos iniciales absolutos
de orden j, la notacin P/Py=dj(0)).
62
www.FreeLibros.com
T e o r e m a 7 . Se cum plen las proposiciones siguientes:
Las caractersticas derivadas de los momentos, dadas en la siguiente definicin, son de importancia
para la apreciacin de una distribucin de probabilidad.
D e f i n i c i n 4 . Sea X una variable aleatoria discreta con varianza positiva. Entonces se llam a
E {X -E X )* n4
11= - 3 = 3 (curtosis). (18)
p k= P { X = x J = ( k = l , 2 ,...,n ). (1)
n
Se dice tambin, entonces, que X posee una distribucin discreta uniforme (en los valores
x x,,...,x ).
63
www.FreeLibros.com
En casos de aplicacin se considera distribuida uniformemente una variable aleatoria
con un nmero finito de valores, si sta -expresado de forma intuitiva- no prefiere nin
guno de sus valores. Asi se acepta, por ejemplo, que el nmero que resulta al tirar un da
do es una variable aleatoria distribuida uniformemente (en los nmeros 1 hasta 6), as co
mo que los nmeros emitidos en Tele-Lotto tambin poseen una distribucin uniforme.
E X = ? x k. (2)
n
luego se obtiene la media aritmtica de los valores; para la varianza se cumple (ver 4.3
(9)) que
(3)
para k = 0, 1, 2,...,n. Se dice tambin que X posee una distribucin binomial con los pa
rmetros n y p.
Antes de que investiguemos de forma ms exacta la distribucin binomial, queremos
ocuparnos de su existencia. El punto de partida lo constituye un suceso aleatorio A, que
se presenta en el resultado de un determinado experimento aleatorio con la probabilidad
P(A) =p. El nrneu (aleatorio) F(A), de la ocurrencia de A en n repeticiones realizadas
independientemente unas de otras del experimento aleatorio considerado, es una variable
aleatoria discreta con los n + 1 valores 0, 1, 2......n. Ahora queremos calcular las proba
bilidades
p k=P(Fn(A) =k) para k = 0, 1, 2,...,n .
64
www.FreeLibros.com
existen
C)
A, se obtiene
sucesiones de resultados, para los cuales aparte-; k veces A y (nk) veces
P(F(A) = k ) = p V - p )" (2 )
(:)
La frecuencia absoluta, concebida como variable aleatoria, de la ocurrencia del suceso
A(P(A) = p ) en n repeticiones independientes del experimento tomado por base posee, por
consiguiente, una distribucin binomial con los parmetros n y p (ver 2 . 1 ). _____
Para destacar la dependencia de cada una de las probabilidades P( X=k) de una varia
ble aleatoria distribuida binomialmente con los parmetros n y p, de estos parmetros, se
utiliza ocasionalmente la notacin b(k; n,p ),
b(k; n, p) =
C) p k (i - p Y (3)
0 1 2 3 4 5 6 7
65
www.FreeLibros.com
y P^C=k) <0,0005 para k = 8, 9 ,...,2 0 (ver tabla 1 (12.1) y fig. 25). Con esto se demuestra
que el resultado descrito anteriormente de la muestra (5 piezas fo n dimensiones no ade
cuadas en la muestra aleatoria de 20 piezas), suponiendo que p = 0 ,1 0 , posee una proba
bilidad que es aproximadamente igual a 0,03 (= 3 % ). Por tanto, sobre la base de esta
muestra se pondrn seriamente en duda los informes del productor. Si se quiere estimar
la probabilidad p de producir una pieza con dimensiones no adecuadas, sobre la base de
la muestra independientemente de los informes del productor, entonces se utilizar como
valor estimado p la frecuencia relativa de la presencia de piezas con dimensiones
no-----adecuadas en la----- muestra, es decir, se utilizar el nmero
A 5 1 A
p = = = 0,25 (25 %). (Se reflexiona fcilmente que p es aquel nmero para el cual
20 4 A
la funcin p *b(5;20,P) acepta el mximo, o sea, que p es aquel valor para el cual es
mayor la probabilidad de obtener una muestra como la extrada.)
b ( k + l ; n, p) = -2 b(k;n,p), (5)
k+1 1 p
66
www.FreeLibros.com
b(k 1; rt, p) = - ----- b(k; n, p ). (6)
n -fc + 1 p
Las demostraciones de las frmulas indicadas son fciles de realizar mediante el empleo
de la definicin de los coeficientes del binomio y utilizando (3). La frmula (4) muestra
que para hacer tablas nos podemos limitar al caso 0 < p ^ 0,5; las frmulas (5) y (6) son
frmulas para el clculo recursivo de b(k + 1; n,p) y b(k 1; n,p) a partir de b(k;n,p).
Por lo dems, se debe tener en cuenta que el clculo de b(k; n,p) tropieza con dificulta-
des, particularmente para n grandes y p pequeas; con posterioridad conoceremos frmu-
las de aproximacin, convenientes precisamente para estos casos.
Nos dedicaremos ahora a la determinacin del valor esperado y de la varianza de va
riables aleatorias distribuidas binomialmente.
EX=np, (7)
D 1X = n p ( l - p ) , (8)
(9)
= np [p + (l -/>)]"-* = np.
Asi vemos que, en concordancia con nuestras ideas sobre este contenido, el valor espe
rado de la frecuencia absoluta F(A)' de la ocurrencia de A en n repeticiones independien
tes de un experimento, es igual al producto del nmero n de experimentos por la proba
bilidad P{A) de este suceso, y que la varianza para p = 0 y p = 1 es igual a cero y para
p = , es mxima.
2
El teorema siguiente da informacin sobre el coeficiente de variacin 0, el coeficiente de asimetra
Y y la curtosis ti de una distribucin binomial.
67
www.FreeLibros.com
T e o r e m a 3. Sea X una variable aleatoria distribuida binomialmente con los parm etros n y p. En
tonces se cumple que
. (10)
np
12p
y= (11)
\]n p (\-p )
^ J-W -P ). (12)
n p ( l- p )
Renunciaremos a la demostracin de (11) y (12); (10) se aclara sobre la base de (7) y (9). Obser
EfSA) = e ( ^ - ) = - L EFn(A) = np = p =P (A ) ,
^ n 7 n n
D 2f (A) =D * ( ) = D*FA) = Pd - p ) = _ 0 (n - * ~ ) .
' n ' n1 n2 n
Las relaciones (13) y (14) muestran que entre la probabilidad de un suceso aleatorio,
introducida axiomticamente, y las frecuencias relativas de este suceso, halladas de forma
prctica, existen nexos muy estrechos. La validez de las relaciones sealadas constituye
un motivo suficiente para estimar la probabilidad de un suceso- aleatorio mediante fre
cuencias relativas; este valor estimado representar tanto mejor un valor aproximado de
la probabilidad cuanto mayor sea el nmero de los experimentos realizados. La posibili
dad de estimar probabilidades de modo razonable hace de la teoria de probabilidades una
disciplina matemtica de aplicacin prctica.
68
www.FreeLibros.com
4.6 D istribucin hipergeom trica
La distribucin hipergeomtrica es una distribucin discreta, que posee gran significacin
prctica, sobre todo en el control estadstico de la calidad.
P( X =k) = (1 )
a) con reposicin,
b) sin reposicin.
V1 /
69
www.FreeLibros.com
b) P( X= 1) =
( 100 \ /1 0 0
10 / V. 10
Nos asalta entonces la idea, de que cada una de las probabilidades de la distribucin
hipergeomtrica y binomial no se diferencian esencialmente, si el tamao de la muestra
n es pequea en relacin con el tamao N del lote de merbancias ( n N ) . En este caso,
por ejemplo, la no reposicin de un objeto defectuoso tiene una influencia muy pequea
sobre la distribucin de probabilidad para la prxima extraccin. (En esta relacin es in
teresante la proposicin siguiente: tambin en una muestra sin reposicin la probabilidad
de extrer un objeto defectuoso es igual para las distintas extracciones; esta es igual a
(2)
Por ltimo, indicaremos el valor esperado y Ja varianza de una variable aleatoria dis
tribuida hipergeomtricamente.
D 2X = n p ( - p ) 1 (4)
N- 1
Dejamos la demostracin de esto al lector. Comparemos an el valor esperado y la va
rianza del nmero (aleatorio) de los objetos defectuosos en una muestra sin reposicin
(distribucin hipergeomtrica), con los parmetros correspondientes en una muestra con
reposicin (distribucin binomial, ver 4.5 (7) y (8)). Como se aprecia, los valores espe
rados son iguales con ambos mtodos de extraccin de la muestra. Por el contrario, la va
rianza en una muestra sin reposicin es menor que en una con reposicin
( n p ( \ - p ) < np(l - p ) para 1 < n < N), pero para N grande la diferencia es pequea
N l
teorema 1.
70
www.FreeLibros.com
4.7 Distribucin de Poisson
La distribucin de Poisson es una distribucin discreta en un nmero infinito numerable
de valores; esta desempea una importante funcin como distribucin limite de la distri
bucin binomial, en particular, para el clculo numrico de las probabilidades b(k; n,p)
cuando n es grande y p pequea.
D e f in ic i n 1. Sea X un nmero positivo arbitrario. Una variable aleatoria X, que
puede tomar los valores 0, 1, 2 ,..., se denomina distribuida segn Poisson con el parmetro
X, si se cumple que
Xk
P [ X = k ) = <rx (1)
k\
para k = 0, 1, 2 ,... Se dice entonces que X posee una distribucin de Poisson con'el par
metro X.
La evidencia de que mediante (1) est definida una probabilidad, se obtiene directa-
Xk
mente aplicando el desarrollo en serie de la funcin exponencial el = > ---- <*.<
*=o k !
Con el objetivo de destacar la dependencia del parmetro X de las probabilidades
P ( X = k) de una variable aleatoria X, que posee una distribucin de Poisson con parmetro^
A., se utiliza ocasionalmente la notacin p(k; X) para estas probabilidades
Xk e~*~
p(k; X) ---------- . (2)
k!
, T til ->
T , kl (t-l)l
xj
e x=X ex e~x=X.
j -o J-
El siguiente teorema ofrece ms informacin sobre la influencia del parm etro X en la distribucin
de Poisson.
www.FreeLibros.com
T e o re m a 2. Sea X una variable aleatoria distribuida segn Poisson con el parm etro >.>0. Enton
ces se cumple que
I
De mo s t r a c i n . Con p = se cumple que
n
(" ) o - f )- - _ A V ( i - A V
V k t n nn k! ' n ' V n '
i.
El teorema (3) muestra que se pueden sustituir las probabilidades b{k;n,p) de una va-
riable aleatoria distribuida binomialmente con los parmetros rt y p , por las p(k\ X) de
una variable aleatoria distribuida segn Poisson con el parmetro X = np, en el caso de un
nmero n grande y uno p pequeo; para > > 1 y p 1 se cumple, por tanto, que
Como los nmeros b(k; n,p) son difciles de calcular, especialmente para el caso > > 1
y p < < 1, la relacin (9) es muy til para la determinacin numrica de probabilidades de
la distribucin binomial. Para el clculo de las probabilidades de la distribucin de
Poisson, que se necesitan tambin en la aplicacin de (9), son convenientes las frmulas
recursivas dadas en el siguiente teorema.
72
www.FreeLibros.com
Las probabilidades de la distribucin de Poisson se encuentran en tablas para valores
de X moderadamente grandes (ver tabla 2 (12.2), all 20); para mayores valores de X
conoceremos posteriormente frmulas de aproximacin.
Nos ocuparemos ahora con la cuestin de cules de las variables aleatorias, que se pre
sentan en casos de aplicacin, poseen una distribucin de Poisson.
Si se puede interpretar una variable aleatoria X (con un modelo) como el nmero de
ocurrencias de un suceso aleatorio A en una larga serie de experimentos independientes,
en los cuales el suceso A tiene siempre una probabilidad pequea, entonces X puede con
cebirse de forma aproximada como distribuida segn Poisson. La fundamentacin mate
mtica de esto radica en que el nmero (aleatorio) de la ocurrencia de un suceso A en
n repeticiones realizadas independientemente unas de otras de un mismo experimento, po
see una distribucin binomial con los parmetros n y p, y que en el caso n 1 y p 1
se cumple la proposicin (9). (A causa de que p 1 se denomina tambin con frecuencia
la distribucin de Poisson como distribucin de los sucesos raros, una denominacin evi
dentemente poco acertada.) Aqui se establece, de forma conveniente, el parmetro X igual
a la media aritmtica de los valores observados de la variable aleatoria (ver para esto (3)
y 4 .3 , observacin antes del teorema 1). Por ltimo, nombremos algunos ejemplos con
cretos de variables aleatorias, que pueden aceptarse distribuidas segn Poisson de acuerdo
con el modelo anteriormente ilustrado: el nmero (aleatorio) de llamadas que llegan a
una central telefnica durante un determinado lapso, el nmero de roturas de los hilos
que ocurren en una hilandera, para una determinada clase de tejido, dentro de un pe
riodo de tiempo dado; el nmero de tomos de una sustancia radiactiva que se descom
ponen en un intervalo de tiempo fijado, etctera.
73
www.FreeLibros.com
5, Variables aleatorias continuas
En este capitulo queremos tratar las variables aleatorias continuas, cuya caracterstica co
mn consiste en que el dominio de valores es un intervalo (estando tambin permitido el
conjunto R ). En relacin con variables aleatorias continuas nos interesa particularmente
que la variable aleatoria considerada tome valores de un intervalo arbitrario dado. La
probabilidad de que una variable aleatoria continua tome un valor determinado cualquie
ra, es siempre igual a cero, de modo que no se puede caracterizar la distribucin de pro
babilidad de una variable aleatoria continua indicando probabilidades particulares. Lue
go, las variables aleatorias continuas se caracterizan por el hecho de que la probabilidad
de tomar valores de un intervalo cualquiera se obtiene como el rea entre el eje x y la
llamada densidad de probabilidad sobre el intervalo considerado. Esto conduce, por tan
to, a la aplicacin del concepto de integral y en especial, a la utilizacin de integrales im
propias.
Observe el lector la aualoga de las definiciones, frmulas y proposiciones de este cap
tulo con las correspondientes del capitulo 4; estas solo se diferencian con frecuencia en
que en lugar del smbolo de sumatoria y de la probabilidad particular estn el smbolo de
integral y la diferencial de la funcin de distribucin, respectivamente.
Utilizando una teoria general de la integracin y la medida, se puede tra tar al mismo tiempo varia
bles aleatorias discretas y continuas. De esta forma se pueden representar de forma nica, mediante
integrales adecuadas, las probabilidades, el valor esperado, la varianza y los momentos de orden su
perior que nos interesan, obtenindose, naturalm ente, tanto en el caso discreto como continuo, las de
finiciones, frmulas y proposiciones dadas en este libro.
(1)
74
www.FreeLibros.com
v Figura 26
Desde el punto d)e vista del Clculo de probabilidades, podemos entender que una va
riable aleatoria continua X est dada cuando conocemos la funcin f x. La funcin se
llama densidad de probabilidad (tambin: densidad de distribucin, densidad o funcin de
densidad) de la variable aleatoria X. El teorema siguiente muestra que mediante la fun
cin de densidad est fijada realmente la funcin de distribucin de la variable aleatoria
considerada (ver 4.2, teorema 1).
2. F J x ) = J U t ) dt (fig. 21).
y, Fx ( x o ) - P ( X<x<, )
Fx ( b ) ~ F ( a ) P( a <
X <, b)
Figura 27
Tambin aqui dejamos la demostracin al lector; se debe observar que para una varia
ble aleatoria continua X y para un nmero real cualquiera c, se cumple que (ver 4. i (3)).
www.FreeLibros.com
2 Figura 28
Esta funcin es no negativa y se cumple que J" J[x)dx = 1 (fig. 28). Si una variable
P(X^ a)
P{X> >)=1.
Para la funcin de distribucin F correspondiente a esta variable aleatoria (fig. 29) se ob
tiene que
0 para x ^ a,
a+ b
para af~
V b-a f
F(x) = P(X <x) - f M ii.
a+ b
para ------- x ^ b,
b - a f)
~ 2 (V 2
para x ^ b.
Y > '= H v )
1
2
a a +b b
2 Figura 29
www.FreeLibros.com
2. La variable aleatoria Y = X i posee la funcin de densidad/,.,
fM ) = 1
para x > 0 .
2fx
3. La variable aleatoria y= |A '|p o see la funcin de densidad f v
para x ^ 0 (4)
fA x)
-r,f x(x) + f - x ) para x > 0 .
La demostracin de este teorema se obtiene fcilmente con el teorema 3 del epigrafe 4.1,
aplicando la proposicin 3 del teorema 1.
E X = J xfx)dx (1)
se llama valor esperado de la variable aleatoria X; aqu se supone que la integral situada
J |x |f / x ) d x < o o .
77
www.FreeLibros.com
I.os teoremas siguientes son tiles para el clculo con valores esperados.
E (aX +b ) = a E X + b . (2)
U x ) ~ u f x ( Lr )
(ver S .l, teorema 2, proposicin 1). Con esto obtenemos aplicando (1) y
f t)d t= i
E V = E ( a X + b ) = j ' r f x ) d x = J ~ Xp-| f x dx
=aEX+b.
(En el clculo se debe realizar una diferenciacin de casos con respecto al signo de a. )
Por tanto, se cumple en particular para una variable aleatoria continua X, la relacin
converge absolutamente (es decir, si se cumple que J ' |g(x| f x(x) dx < ), entonces
se cumple que
con la frmula Eg(X) I y f tVl) (y)dy, lo cual exige, por consiguiente, el conocimiento de
la densidad de probabilidad f tla de la variable aleatoria g(X) (ver demostracin del teore
ma 1). Esto no es necesario utilizando (4), mediante la cual se simplifica considerable
mente en muchas ocasiones el clculo de Eg(X); de aqui se desprende la importancia del
teorema 2.
E ( Xr -c
- cV
) =
= j If ( x - c ) f x ) dx (5)
78
www.FreeLibros.com
E \ X - c \ > = j \ x - c \ f x ) dx (6)
D 2X = E ( X - E X ) 2= ( x - E X ) 2 f / x ) dx (7)
ax=\j D*X (8 )
=2 f i t1 - i - ( l - J - ) d t= ( b - a ) 2.
J) b a ' b a ' 24
Por consiguiente, para una variable aleatoria continua X se cumplen tambin las rela
ciones
D \ - X ) = D 2X (11)
www.FreeLibros.com
D 2\ 1=1- (12)
\ D 2X
C o m o e n e l c a s o d e la s v a r ia b le s a le a t o r ia s d is c r e ta s , se u t iliz a t a m b i n p a r a la s c o n tin u a s
X
e l c o n c e p to c e n tr a r p a r a e l p a s o d e A" a X - E X , e l d e n o r m a r p a r a e l d e X a ---------------
X -E X
y e l de e s ta n d a r iz a r p a r a e l d e X a ----------------
y j 'X .
Por ltimo queremos advertir que el valor esperado y la varianza, como para el caso de las variables
aleatorias discretas, son m omentos especiales que caracterizarem os en la definicin siguiente.
n/c)I = E ( X
* - cc)), '== lJ ( x - c ) f x ) dx (13)
a / c ) = |J T c| \ x - c \ f / x ) dx (14)
los momentos ordinario y absoluto d e orden j con respecto a c respectivam ente, suponindose la conver
gencia de la integral situada a la derecha en (14). Para c = 0 se habla de m omentos iniciales y para
c = E X de m omentos centrales (se supone la existencia de E X ).
Las proposiciones sobre momentos dadas a continuacin de la definicin 3 (4 .3 ), se cum plen tambin
para variables aleatorias continuas. D e igual modo que para las variables aleatorias discretas, se de
finen para las continuas las caractersticas numricas derivadas de los momentos: coeficiente de va
riacin, coeficiente de asim etra y curtosis (ver 4.3, definicin 4 ).
para a ^ b,
b -a
m =< (i)
para los dems.
Se dice tambin que X posee una d is tr ib u c i n u n if o r m e (sobre el intervalo [a, 6]) o una d i s
trib u c i n r e c ta n g u la r (fig. 30).
80
www.FreeLibros.com
f
1
y - f x( *)
1
b-a
a X Figura 30
0 para x < a,
x-a
F x)=P (X < x)=\ fA 0dt= < (2)
b a
1 para x > b.
a+b
E X = f xfx)dx = d x = (3)
J -- Ja b - a ~2~
y para la varianza
ianza se tiene
D*X (4)
Para una variable aleatoria continua existe una distribucin uniforme, si y solo si esta
toma valores de subintervalos de igual longitud pertenecientes a su dominio de valores y
que es a su vez un intervalo, con igual probabilidad. En casos de aplicacin se acepta que
una variable aleatoria est distribuida uniformemente, si sta -hablando sin mucha pre
cisin- no prefiere ninguno de los subintervalos de igual longitud (de su dominio de va
lores) .
www.FreeLibros.com
D e f in ic i n 1. Sea 11 un nmero real y o un nmero positivo. Una variable aleatoria
continua se denomina distribuida normalmente con los parmetros |i y a 2, si la densidad
de probabilidad f x tiene la forma
fx )= - - e 2"' , <x<~. (1 )
\/2n o
Se dice tambin que X posee una distribucin normal con los parmetros n y a 2 o una dis-
tribucin N(\l, a 2) (fig. 32).
y =f x m
o +o x Figura 32
La demostracin de que mediante (1) est definida realmente una densidad de proba
bilidad, se basa fundamentalmente sobre la ecuacin
j ' e~ dt=' .
funcin - .
V2n o
www.FreeLibros.com
Para la funcin de distribucin de una variable aleatoria distribuida normalmente con
los parmetros ti y o 1, se utiliza generalmente la notacin 4>, donde de forma anloga a
(2), la dependencia de ti y a 2 queda expresada en la forma
r j r - lju
(JC, n, o 2) = I <p(; m O1) d t = I e w dt (4)
J \2 n a J - -
El teorema siguiente pone de manifiesto la significacin terico-probabilistica de los pa
rmetros 11 y a 2.
T e o r e m a 1. Sea X una variable aleatoria distribuida normalmente con los parmetros
li y a 2. Entonces se cumple que
*=H , (5)
D 2X = a 2. (6 )
EX= x / , ( x ) d x = f x<p(x; n, o 2) dx = ^- j x e 2 dx
\2n a J
= i r
__ te "L
dt + u 1 r jf e d t= n .
y2n J \2n
j f t2 e l d t = j e 2dt= y2
se obtiene que
D *X m f ( x - E * ) 2/ / x ) d x = J (x - n )2 cp(x; u, o 2) dx
r-
= -r = ^ - (x -n )2 e w dx
\2 n o
= f t1 e 2d t = crJ.
y2n
El teorema siguiente se refiere a momentos de orden superior de la distribucin normal y a carac
tersticas num ricas derivadas de los momentos.
T e o r e m a 2. Sea X una variable aleatoria distribuida normalmente con los parmetros y o 1. En-
tonces se cumple que________________________________________________________________________________
H2t+l( J 0 = ( J r - ^ ) 2*+1=O, *.= 1 ,2 ,..., (7)
ti,t( j 0 = y r - j i r ) = i -3 ...(2 fc- n o21, * = i , 2 ......... (8)
o
<1= (coeficiente He nacin), (9)
(i
Y=0 (coeficiente de asimetra), (10)
T)=0 (curtosis), (11)
donde se supone en (9) que ji^O.
83
www.FreeLibros.com
El lector puede realizar independientem ente la dem ostracin sencilla de estas frmulas. Aadimos,
que una variable aleatoria distribuida normalmente con los parmetros u > o ! es simtrica con respecto
a x = n y aseguramos que todos los m omentos de orden impar referidos a n, as como el coeficiente de
asimetra, son iguales a cero. La curtosis est definida, precisam ente, de modo que esta caracterstica
numrica sea igual a cero para el caso especial de la distribucin normal.
Trataremos ahora la distribucin JV(0,1). Queremos denotar con <p la densidad de pro
babilidad de una variable aleatoria distribuida normalmente con los parmetros 0 y 1. y
con la funcin de distribucin correspondiente. Se cumple (figs. 33 y 34), por tanto,
Figura 34
84
www.FreeLibros.com
- 3 - 2 - 1 0 1 2 3 '
(u - 3o) ( v - 2 o) ( f t - o ) <j ) (j + o ) * 2 o) (fi 3o) F ig u ra 35
Aqu hemos utilizado (15) y P(X=c) = 0 (X, variable aleatoria continua y c. nmero real).
Para = 1,2,3 obtenemos, por consiguiente, (ver tabla 3(12.3) y fig. 35).
La relacin (19) expresa que es prcticamente seguro, que una variable aleatoria distribui
da normalmente con los parmetros n = 0 y o * = l tome solo valores entre - 3 y +3. Ob
serve el lector que la probabilidad de que una variable aleatoria distribuida normalmente
con los parmetros 0 y 1 tome valores de un intervalo arbitrario dado, es positiva, pero
que es prcticamente imposible que una tal variable aleatoria tome valores de un intervalo
disjunto con {x : x e R A - 3 < x < 3 } .
Mostraremos ahora como se pueden calcular los valores (x; n, o1) de la funcin de
distribucin de una variable aletoria distribuida normalmente con parmetros cuales
quiera n y a 1, sobre la base de los valores O (x) de la funcin de distribucin 4 de una
variable aleatoria distribuida normalmente con los parmetros |i= 0 y crJ= l.
( 20)
a a
(2 1 )
Demostracin
1
<p(x; u, o 1) = e
y2n a
1
<P
a
85
www.FreeLibros.com
De aqui se obtiene fcilmente la proposicin siguiente:
X -U
T e o r e m a 4. Si posee una distribucin N(p., o 2), entonces ------- posee una distri-
o
bucin Ar(0,1).
Demostracin
X -n
(Observemos que en virtud de E X = n y D 1X = t s \ la variable aleatoria ------- posee
a
siempre el valor esperado cero y la varianza uno; la proposicin fundamental del teorema
X \i
4 consiste en que si X est distribuida normalmente, e n to n ce s------- tambin lo est.)
o
Estas proposiciones permiten calcular de forma sencilla, utilizando una tabla para 4>,
la probabilidad de que una variable aleatoria X distribuida normalmente con los parme
tros u y o 2 tome un valor de un intervalo arbitrario. Se cumple que
( 22 )
(ver (16)), de donde se obtiene para fc = l,2 ,3 , utilizando (17), (18) y (19)
Luego, es prcticamente seguro que una variable aleatoria distribuida normalmente con
los parmetros n y o 2 tome solo valores entre n - 3 o y u + 3 o , o sea, que estn a una dis
tancia del valor esperado u menor que el triplo de la desviacin estndar o. Esta regla
se llama regla 3 o (ver fig. 35).
Queremos tratar ahora la existencia de la distribucin normal. Para muchas variables
aleatorias que aparecen en planteamientos de problemas prcticos, se muestra (por ejem
plo, sobre la base de los valores observados de la variable aleatoria considerada especial
mente) que la distribucin de probabilidad se puede describir muy bien a travs de una
distribucin normal. Una caracterstica comn de estas variables aleatorias consiste fre
cuentemente, en que estas se obtienen mediante superposicin aditiva de un nmero ele
vado de efectos aleatorios, independientes unos de otros, teniendo cada uno una influen
cia insignificante sobre la variable aleatoria considerada, en comparacin con la suma de
los otros efectos. Posteronhente daremos la fundamentacin matemtica de que tales va
riables aleatorias puedan concebirse, en buena aproximacin, distribuidas normalmente
(ver 7.6). Aqui solo queremos informar que los errores de observacin en un proceso de
modicin (por ejemplo, en mediciones de longitud) y las propiedades de un producto, en
una fabricacin en serie, que se pueden describir numricamente (por ejemplo, la resis-
86
www.FreeLibros.com
tencia a la compresin de cubos de hormign o del contenido de botellas llenadas auto
mticamente), se pueden concebir como variables aleatorias distribuidas normalmente.
E jem p lo . En una cepilladora de metales se producen discos y se investiga su grosor
X. Sobre la base de las experiencias existentes, se supone que X est distribuida normal
mente y que para una determinada graduacin de la mquina posee el valor esperado
X = H = 10 mm y la varianza D 1X=<s1(0,02 nun)1, Un disco tiene las medidas adecuadas
y, por tanto, est en condiciones de ser utilizado, si su grosor est entre 9,97 y 10,05 mm.
Calculemos la probabilidad de que un disco posea las medidas adecuadas; para ello uti
lizaremos (22), (15) y la tabla 3(12.3):
(27)
(28)
87
www.FreeLibros.com
c ia s de tie m p o d e p e n d ie n te s d e la c a su a lid a d . D e s d e el p u n to de v ista m a te m tic o , la
d istr ib u c i n e x p o n e n c ia l se c a r a c te r iz a p o r ser m uy f cil de m anejar.
para 0,
(1)
para x > 0 .
Se dice tambin que X posee una distribucin exponencial con el parmetro a (fig. 36).
(El lector debe reflexionar si mediante (1) est defin' realmente una distribucin de
y
2
0 2 3 x Figura 36
(2 )
0 Figura 37
www.FreeLibros.com
D e m o s t r a c i n . Slo demostraremos (3); la demostracin de (4) se desarrolla de for
ma similar. Se cumple que
l x a e ' d x - - x e ~ ax + I dx
Jo "
= b e 1
-------e~ 1
-t--------
a a
Para concluir, queremos nombrar algunas variables aleatorias que se presentan en casos
de aplicacin, cuya distribucin de probabilidad se describe frecuentemente mediante una
distribucin exponencial: duracin de llam adas telefnicas, diferencia de tiempo entre la
ocurrencia de interrupciones en un parque de mquinas o, ms general, entre el encuentro
de clientes en una instalacin de servicios, tiempo de vida de elementos de contacto, asi
como de seres vivientes, etc. Aqui se har, de modo conveniente, el parmetro a igual
al inverso de la media aritmtica de los valores observados de la variable aleatoria con
siderada en cada ocasin (ver (3) y 4.3, observacin antes del teorema 1).
5.6 Distribucin t y F
89
www.FreeLibros.com
para el cual la probabilidad de que X tome valores mayores que xp sea igual a 1 p
(P (X > x p) =1 p). Tales valores se denominan percentiles de orden p, cuya caracteriza
cin exacta, utilizando la funcin de distribucin es el objeto de la definicin siguiente.
FM P) =P-
x. Figura 38
5.6.1 Distribucin x 2
D e f in ic i n 2 . Sea m un nmero natural. U na variable aleatoria continua X se de
nomina distribuida x 1 con m grados de libertad, si la densidad de probabilidad f x tiene la
forma
para 0,
/iW i-
x1 e 2 para x > 0 . (2)
Se dice tambin que X posee una distribucin X2 con m grados de libertad (fig. 39). De
notamos el percentil de orden p de la distribucin x 2 con m grados de libertad con X2mp-
En (2) T es la llamada funcin gamma completa definida por
Figura 39
90
www.FreeLibros.com
La funcin gamma se debe a L. Euler (1707-1783), el m atem tico m s productivo, al m enos del si
glo XVIII. Aunque Euler perdi la vista de un ojo en 1735 y en 1766 qued com pletam ente ciego, es
cribi en total 886 m anuscritos, entre los cuales se encuentra un nm ero asombroso de libros de texto.
Para nuestros intereses es suficiente conocer las proposiciones siguientes sobre la fun
cin gamma. Se cumple que
rq)=i,r ( (5)
EX=m, (7)
D 1X = 2 m . (8)
0 para 0,
f r W =<
para x > 0 .
2yjx
para 0.
fy (x )=<
2<P(Vs) 1 e 2
para x > 0 .
Mi)
con lo cual est dem ostrada la proposicin del teorema.
91
www.FreeLibros.com
La distribucin xl fue descubierta en 1876 por R. Helmert (como distribucin de la suma de cuadra
dos de variables aleatorias independientes con distribucin N(0 ,1 )) y vuelta a hallar en 1900 por K.
Pearson, fundador en Inglaterra de una escuela de Estadstica matemtica de altos rendimientos: por
eso esta distribucin se denomina de H elm ert o de Helmert-Pearson.
5.6.2 Distribucin t
D e f in ic i n 3. Sea m un nmero natural. Una variable aleatoria continua X se de
nomina distribuida t con m grados de libertad, si la densidad de probabilidad f x tiene la
forma
(r f i)
f x M = (9)
Se dice tambin que X posee una distribucin t con m grados de libertad (fig. 40). Deno
tamos el percentil de orden p de la distribucin t con m grados de libertad con tmp.
U *) = ( 10 )
1+x2
D 'X = - (12)
m -2
92
www.FreeLibros.com
Aadimos que una variable aleatoria que tenga una distribucin t con m grados de libertad posee solo
momentos de orden / t w - 1 . Por tanto, la distribucin de Cauchy no posee, en particular, ningn va
lor esperado.
La distribucin / fue descubierta e investigada (1908) por W.S. Gosset (1876-1937). quien publicaba
bajo el seudnimo Student: por esta razn se encuentra tambin la distribucin ( con el nombre de dis
tribucin de Student.
5.6.3 D istribucin F
/ m, + m 2 \ ~r
r ^ ------ J m ,- m 2 i. ,
-------------------------------------- ------ - ------------ para x > 0 . (13)
/><x) =
0 para x ^ 0.
Se dice tambin que X posee una distribucin F con (m,, m 2) grados de libertad (fig. 41).
Denotamos el percentil de orden p de la distribucin F con (mv m 2) grados de libertad
Fw -
Figura 41
D X = >m <
> 5 ). (15)
m ^ m , - 2 )2 (m2- 4 )
93
www.FreeLibros.com
6. V ecto res aleatorios
Los vectores aleatorios son aquellos cuyas componentes son variables aleatorias. Estos se
utilizan para representar, desde un punto de vista matemtico, algunas caractersticas que
se pueden describir numricamente en un fenmeno aleatorio. As, por ejemplo, la lon-
gitud, ancho y altura de una pieza de trabajo en forma de cubo, producida automtica
mente, y la talla y peso de un hombre, se pueden describir por medio de un vector alea
torio.
Despus de la definicin general y la caracterizacin terico-probabilstica de un vector
aleatorio (epgrafe 6 .1 ), trataremos en el epgrafe 6.2 los llamados vectores aleatorios dis
cretos lo cual realizaremos apoyndonos en el tratamiento de las variables aleatorias dis
cretas (ver 4.2 y 4 .3 ), y en el epgrafe 6.3 nos ocuparemos de los denominados vectores
aleatorios continuos, para lo cual partiremos de los estudios sobre variables aleatorias con
tinuas (ver 5.1 y 5.2).
Las caractersticas numricas para la comprensin de la dependencia mutua, de la re
lacin entre las componentes de un vector aleatorio, son de especial inters; estudiare
mos, en particular, los llam ados coeficientes de correlacin para la dependencia lineal en
tre dos variables aleatorias. En el epgrafe 6.4 trataremos el concepto independencia de
variables aleatorias, que constitutuye un concepto central de toda la teora de probabili
dades. Aqu tambin deduciremos consecuencias de la independencia, que resultan muy
tiles para el trabajo prctico con variables aleatorias independientes. Por ltimo, se rea
liza en el epgrafe 6.5 la caracterizacin de la distribucin de probabilidad para la suma,
diferencia, producto y cociente de dos variables aleatorias continuas independientes; los
teoremas sealados aqu se necesitarn especialmente en la parte correspondiente a la Es
tadstica matemtica.
94
www.FreeLibros.com
D e f in ic i n 1. Sea [2,A,P] un espacio de probabilidad y sean A",, X,..., X n(n ^ 2) va
riables aleatorias (sobre [l,A , P]). Entonces, el n-uplo (Xv X 2...... X se llama vector
aleatorio (-dimensional sobre [S2, A, P]).
= O (Xk< x k)
k^\
se denomina funcin de distribucin del vector aleatorio (Xv X 2,..., X) o funcin de dis
tribucin conjunta de las variables aleatorias X v X 2...... X.
.</)
Figura 42
La funcin de distribucin de un vector aleatorio -dimensional es, por tanto, una fun
cin real de n variables reales. Por medio de la funcin de distribucin de un vector alea
torio se pueden expresar las probabilidades de casi todos los sucesos aleatorios que estn
en relacin con este. As, por ejemplo, se cumple en el caso n = 2 (fig. 42)
www.FreeLibros.com
95
T e o r e m a 1. Sea F la funcin de distribucin de
Entonces se cumple:
Como m uestra el ejem plo siguiente, las proposiciones sealadas en el teorem a 1 no son suficientes
para que una funcin F, con estas propiedades, sea la funcin de distribucin de un vector aleatorio.
0 para x + y < 0,
F (x.y) = \
l 1 para x + y > 0.
Evidentemente F posee todas las propiedades sealadas en el teorem a 1. Pero se cum ple que
F ( 1 ,1 ) - F (1 ,0 ) - f ( 0 , l ) + F (0 ,0 ) = 1 1 - 1 + 0 = - 1 ;
luego en virtud de (2), F no puede ser la funcin de distribucin de un vector aleatorio de dimensin
n = 2.
El lector interesado puede informarse sobre las condiciones suplem entarias que aseguran que una
funcin de varias variables sea funcin de distribucin de un vector aleatorio.
96
www.FreeLibros.com
A continuacin nos lim itarem os al caso n = 2 ; por lo tanto, tratarem os los vectores alea
torios bidim ensionales (X, Y) . M uchas veces es de inters, por ejemplo, la distribucin de
probabilidad de la variable aleatoria X en el m arco del vector aleatorio (X, Y) . Se cumple
(ver 2.4, teorem a 1) que
En las explicaciones posteriores nos lim itarem os al caso de un vector aleatorio bidimen-
sional.
D esde el punto de vista del C lculo de probabilidades, podem os considerar un vector
aleatorio bidim ensional (A, Y) com o dado, si estn dados a su vez todos los valores (x, y t)
del vector aleatorio y las probabilidades particulares correspondientes
p k= P ( X = x , Y = y k), (1)
con las cuales el vector aleatorio (A. Y) tom a estos valores. Por ello, se puede caracterizar
tambin un vector aleatorio bidim ensional (A, Y) por la llam ada tabla de distribucin.
www.FreeLibros.com 97
Para las probabilidades p k se cumple que
0, 2j/>,* = l- (3)
i.k
P ,= Y = y k). (5)
k k
Pk= 2 p * = 2 p ( x = x r = : y j- (6)
T e o r e m a 1. Sea (X. K) un vector aleatorio discreto, que toma los valores {xr y k) con
las probabilidades p lk. y g, una funcin real continua definida sobre el conjunto de todos
los pares de nmeros reales. Si la serie ^ g(xr yk) converge absolutamente (o sea, si
Eg(X, Y) = ^ g ( x , , y k) p lk (7)
tk
E X = ^ x , p , y E Y = ^ ? y kP k< (8)
98
www.FreeLibros.com
es decir, los valores esperados de las variables aleatorias X y Y respectivamente, en el
marco de la distribucin conjunta de X y Y. siempre y cuando las series indicadas en (8)
converjan absolutamente.
Bajo una condicin correspondiente se obtiene para g(x,y) = ( x - E X ) 2 y
g(x. y) =(>- Y ) 2. la varianza de las variables aleatorias X y Y respectivamente, en el
marco de la distribucin conjunta de X y Y,
E (X + Y ) = E X + E Y . (10)
= 2 X'P' + 2 VkP.k=EX+Ey.
I k
Observemos que para el clculo del valor esperado de una suma de variables aleatorias
discretas, no se necesita su distribucin conjunta; para ello es suficiente el conocimiento
de las distribuciones de probabilidad de cada una de las variables aleatorias. Para la va
rianza esto se comporta de otra forma.
D \ X + Y ) = D 2X + D 2Y + 2 ( E X Y - ( E X ) (E Y)), (12)
DH.X+ Y) = E ( X + K) 2- ( E ( X + Y ) ) 2
= E ( X 2+ 2 X Y + Y t) - ( E X + E Y ) 2
= E X 2+ 2 E X Y + E Y 2- ( E X ) 2- 2 ( E X )( E Y ) - ( E Y ) 2
= D 2X + D 2Y + ? ( E X Y - ( E X ) ( E Y ) ) .
99
www.FreeLibros.com
D e f in ic i n 2 . Sea (X,Y) un vector aleatorio discreto,que toma los valores (x,,y,.) con
las probabilidades p ik. Entonces el nmero definido por
cov(X y) = E ( X - E X ) ( Y - E Y ) = ^ ( x - E X ) ( y k- E Y ) p ik (13)
i.k
se denomina covarianza de X y Y; aqui se supone, junto a la existencia de E X y EY, la
convergencia absoluta de la serie situada en el miembro derecho de (13).
E { X -E X )(Y -E Y ) = 2 ( x ,- E X ){ y k- E Y ) Pik.
i.k
Se comprueba fcilmente que se cumple
cov (X , y) = E X Y - ( E X ) (E Y ) , (14)
de modo que (12) se puede escribir tambin en la forma
D \ X + Y ) = D 1X + D 1Y + 2 co\UC,Y). (15)
se denomina matriz de covarianza del vector aleatorio (X,Y). En general, la matriz (btl) ,
bt =co\(X,X)) , asociada a un vector aleatorio discreto -dimensional, (A\,A2,..., X J , se
llama matriz de covarianza; en la diagonal principal estn las varianzas de las compo
nentes del vector aleatorio (6l)=cov(A'1,A') = D 2X,).
D e f in ic i n 3. Sea (X, Y) un vector aleatorio discreto que toma los valores (x, > y k)
con las probabilidades p llt. Entonces el nmero definido por
J (x , -E X )(y k- E Y ) p d
i.k
, r ) = ------- 2 ^ 2 ---------- ................- - ---- ------------------ (.7)
100
www.FreeLibros.com
Como EX =E Y0= 0 se cumple que
X -E X \ / Y -E Y \
cov(JT. ---------------- ------------------------ )
I D X
E ( X - E X )( Y - E Y )
(
= p(X,Y).
D 'Y \ D 2Y
y b= E Y T E X
V d x
b) Si se cumple que Y - a X + b (a ,b reales), entonces se cumple que E Y = a E X + b (ver 4.3, teorema 1),
D Y = a ,D X (ver 4.5, teorema 5) y con esto
IE (X -E X ) ( a X + b - a E X - b ) \
yD>xyfa
ja 'D 'X
\a \E (X -E X )2 D*X
D 'X
j \' D 'X \flV X
101
www.FreeLibros.com
E je m p lo . X toma los valores 1, 0 y +1 con la probabilidad . Entonces se
3
cumple que E X = 0 y D 1X > 0 . Hagamos ahora Y=X*\ se cumple que D 2Y > 0. La variable
y, por tanto, p(X, Y) = 0 . Sin embargo, existe una dependencia funcional entre X y
Y(Y=X*).
= / ( ..). (3)
3x3y
De manera semejante que en el tratamiento de los vectores aleatorios discretos, nos ocu
paremos primeramente con las distribuciones marginales y nos interesaremos por las ca
ractersticas numricas especiales para los vectores aleatorios continuos; aqui las defini
ciones y proposiciones son anlogas a las correspondientes del epigrafe 6.2.
La distribucin marginal de la variable aleatoria X en el marco del vector aleatorio
continuo (X,Y), es una distribucin continua; en virtud de
102
www.FreeLibros.com
la densidad de probabilidad f x de la variable aleatoria X, que se denomina en este con
texto densidad de distribucin marginal, est dada por
Ahora sealaremos, sin demostracin, una frmula para el clculo del valor esperado
de una funcin de un vector aleatorio continuo.
E X = j ~ x U x ) d x , E Y = j y f y ) d y , (7)
D 2X = j i x - E X ) f / x ) d x , D 2Y = J ( y - E Y ) ' f y ) dy, (8 )
E (X + Y) = I I ( x + y ) f iXY)(x .y)dxdy
-
www.FreeLibros.com
E (X +Y) = f> f IJY]( x , y ) d y ) d x + j ( y j f (r r>( x , y ) d x ' j d y
= j x f/x )d x + j yj fy iy ) dy
=EX+EY.
Por consiguiente, el valor esperado de una suma de variables aleatorias continuas es.
como en el caso de variables aleatorias discretas, igual a la suma de los valores esperados.
Con esto se cumple tambin la frmula
D \ X + Y) = D 1X + D 1Y + 2 ( E X Y - { E X ) ( E Y ) ) (<10)
II
. - J --
(x - E X ) ( y - E Y ) f txr)(x ,y)dxd y
. -----------: -
Como en la dem ostracin del teorem a 4(6.2) no fueron em pleadas propiedades especiales de las va
riables aleatorias discretas, sino solo reglas de clculo para el valor esperado y la varianza, que tambin
son vlidas para variables aleatorias continuas, se cum plen las proposiciones del teorem a 4(6.2) para
el caso de variables aleatorias continuas.
104
www.FreeLibros.com
Cerraremos este epigrafe con el estudio de la llamada distribucin normal bivariada,
que es una distribucin de un vector aleatorio continuo bidimensional, muy utilizada en
las aplicaciones. '
D e f in ic i n 4 . Sean n, y u, nmeros reales cualesquiera, o, y nmeros positivos ar
bitrarios y p un nmero cualquiera con p|< 1. U n vector aleatorio continuo bidimensional
(X,Y) se denomina distribuido normalmente (con los parmetros np n2, cr*, p), si la
densidad de probabilidad tiene la forma
------------- ------------- * ^ 3)
2n CTjCTj \jl-p *
( 00< X < < , o o < y < o o ) .
haciendo la sustitucin
t= i ( i ^ L _ p I i )
I 'o , CT. /
Vi - p 1
on e ^ ( = V 7 , la relacin
1 _L z ii r - i
f x ) * -------- e 2 e ,* = -----
2 n ' \2 n a,
= <p(x,U ejJ) ,
o sea, X posee una distribucin normal con los parmetros |,(= T ) y aj ( = D 2X ). Con esto est claro
que Y posee una distribucin normal con los parmetros n ,(= K ) y a i ( = D IY).
Para la covarianza
cov(X, Y) = ( x - E X ) [ y - E Y ) / # n (x, y) dx d y
L L
x-Hi y -\
se obtiene, con las sustituciones u = -------- y v = , la relacin
o, a,
2n V l - P
105
www.FreeLibros.com
Para la integral interna se obtiene, con la sustitucin
t- (v-pu),
D e esta forma podemos armar que las distribuciones marginales de una distribucin
normal bivariada son tambin distribuciones normales. Para concluir, observemos que en
el caso p = 0 se cumple la relacin
(14)
es decir, que en el caso p = 0 el producto de las densidades de distribucin marginales es
igual a la densidad de probabilidad conjunta.
F<x.rM<y) = F x )F y ) (1 )
para todos los nmeros reales x y y.
106
www.FreeLibros.com
Advertimos que en todos los casos se pueden determinar las funciones de distribucin
marginales de las variables aleatorias X y Y a partir de la funcin de distribucin con
junta de estas variables aleatorias (ver 6.1, denicin 2). En caso de independencia de X
y Y, el recproco tambin es posible; se puede calcular la funcin de distribucin conjunta
a partir de las funciones de distribucin marginales, segn (1).
T e o r e m a 1. Sea (X.Y) un vector aleatorio discreto, que toma los valores (xy k) con
las probabilidades p ik. Las variables aleatorias X y Y son mutuamente independientes si
y solo si
P ( X = x t, Y = y k) = P ( X = x ) P ( Y = y k),
Pk= P . P -t
P(X = x, Y = y k) = p k= P (X = x )P {Y = y k) = p , p k,
W 2
* i< *
p,k= 2
l:x < x
PtPk={ 2
i:x f< x
i) ( 2 x:yk < y
k:yk<y k.yk <y
o sea, se cum ple (1).
www.FreeLibros.com
bl Cmplase (3) para todo x e R y y e R. Entonces se cumple
- fM f r (v) dvdy
Mv)dvdy
= F x )F y ),
FXY= 2 xykp k= ^ x jM P t
b) Sea y f.y ) continuo. Entonces se cumple, segn el teorema 2 (ve (6) para
S(x,y) = x y ), que
x y fx (x )fjy )d x d v
108
www.FreeLibros.com
pie: de p(Jf, Y) = 0 no resulta la independencia de X y Y (ver para esto el ejemplo al final
de 6.2; se cumple que p(X y) es igual a cero, pero, por ejemplo,
P ( x = i , y = i ) = * = p ( j r = i) p ( y = i) ,
'M * ( * ) )
= D V I+2 5 co^XJ.
-i i
X*
Si se cumple ahora que p iXt X = 0 para j+k, entonces se tiene que cov (Xf X =0 para j + k y, por
tanto, se cumple (4).
www.FreeLibros.com
pletamente independientes (entre s) (tambin: estocsticamente independientes), si se
cumple que
para todos los nmeros reales x,, x 2,..., x n; aqu Fx denota la funcin de distribucin mar
ginal de X ( i = l , 2 ,..., n).
110
www.FreeLibros.com
D e m o s t r a c i n . Los valores de Z son los nmeros 0 ,1 ,2 ,... Se cumple para
/ = 0 , 1 , 2 , __
J=0
o sea, Z posee una distribucin de Poisson con el parmetro X+|.i; aqui hemos utilizado
el teorema 1(6.4), la definicin de la distribucin de Poisson (ver 4.7, la definicin 1 y la
frmula (2)), la definicin del coeficiente binomial y, por ltimo, el teorema del binomio.
N os ocuparemos ahora del caso de las variables aleatorias continuas. Primeramente de
duciremos una frmula-, la llamada frmula de descomposicin, para la densidad de pro
b ab ilid a d de dos variables aleatorias no necesariamente independientes.
T e o r e m a 3. Sea (X, Y) un vector aleatorio continuo con la densidad de probabilidad
f xrr Entonces, la densidad de probabilidad f z de la variable aleatoria Z = X + Y est dada
(1 )
D e m o s t r a c i n . Se cumple "que
de lo que resulta
111
www.FreeLibros.com
X
Figura 43
T e o r e m a 4 . Sea (X, Y) un vector aleatorio que posee una distribucin normal (con los
parmetros ii|x2, aj, a 22, p ). Entonces Z = X + Y posee una distribucin normal (con los pa
rmetros n, + u2 y o J+ a*+ 2p .
(2)
(3)
X
4. La variable aleatoria continua Z = posee la densidad de probabilidad f v
Y
(5)
112
www.FreeLibros.com
D e m o s t r a c i n . Demostraremos solo la primera proposicin; las otras se obtienen en
principio de la misma forma.
Para la densidad f z de la suma Z de dos variables aleatorias continuas X y Y se cumple
W x , z - x ) = f x ) f z - x )
(v er 6 .4 , te o r e m a 2) y c o n esto -----------------------------------------------------------------
/ A a ) = J ' f A x ) f z - x ) dx.
Las proposiciones contenidas en los teoremas siguientes se obtienen aplicando las pro
posiciones del teorema S; necesitaremos de estas ms adelante en el tratamiento de m
todos especiales de la Estadstica matemtica. En estos teoremas aparecen las distribucio
nes x1, t y F (ver 5.6) y se motiva tambin el concepto grado de libertad que encontramos
en estas distribuciones.
D e aqu seobtiene, por una parte, que f z (z) = 0 para z < 0 y, por otra, que f z (z) = I f x ) f Y( z - x ) d x
Jo
para z > 0 .
Si sustituim os aqu las densidades f x y f r obtenemos que
iL-i *-
p x -
f z) = m. ; r-sn : r -1 e > -* )2 e 2 dx
Jo
rrti+m, x /!
i 2 2 I l (1 -) dt.
"Y
1
, e JJo
Si utilizam os laa relacin
0 para z < 0,
m,+m.
i
m = z e para z > 0 ,
2
o sea, que Z posee una distribucin x con m ,+ m , grados de libertad.
113
www.FreeLibros.com
C o r o la r io 1. Si X VX V..., X son variables aleatorias independientes, que poseen una
distribucin N (0,1), entonces Z = X \ + X \ + ... +X posee una distribucin x2 con n grados de
libertad.
dFy(x)
y con esto (ver 5.1, teorema 1) fy ( x ) -------------- = f r(m x t)2 m x ;
dx
para 0 se cumple f / x ) = 0.
f l 2 ) = I xf A x z ) fA m xl) *m x x
4 Ja
2 m m 21
[ x e V x m 2e x dx
Jo
\ T 2 r ( - = )
xm e * dx
iJo
^ ( t)
r(f) (z!4 m)
114
www.FreeLibros.com
1 1=
Con r
(=r)-f t e~' d t (ver 5.6(3)) se obtiene por ltim o
r
(=r)
2 /
f z ( z ) = -----------------------
1
-----------r ^ r r r
M ) ('+t F
x
o sea, Z = ----- ------ posee una distribucin con m grados de libertad.
En virtud de que* / j / x ) =
f t m* )j x=mf 1 1
(m,jc) y f / x ) = m f i/ m x) (ver 5.1, teorem a 2) resulta que
Como X y Y poseen una distribucin x 1, se cum ple (ver 5.6, definicin 2) que f (m ,x z ) = 0 para
x z 0 y fyim jX ) = 0 para x ^ 0.
De aqui se obtiene, por una parte, que f / z ) = 0 para : < 0 y por otra, que
f{z )= ---------------------------------- r
|\xx(mx
( m lx z ) e 2 (mx) 2 e 2dx
Jo
2 r( i ) A ( i)
2
T:
m. m, z
dx
Jo
r(li)r( 7 ) (^ +m'z)
r e ' dt.
115
www.FreeLibros.com
\ f 'i 1
Con r ----------- J 1 e dt (ver 5.6 (3 ))se obtiene fnalm ente, en total
para z < 0,
w (m ,+ m ,r) 2
116
www.FreeLibros.com
7. Teorem as lmites
Los teoremas limites de la teoria de probabilidades ocupan un lugar central en esta dis
ciplina matemtica y, en principio, poseen importancia tambin en la estadstica matem
tica; el contenido de estos teoremas son proposiciones acerca del comportamiento lmite
de sucesiones de variables aleatorias, siendo de particular inters de acuerdo con las ne
cesidades prcticas, las proposiciones sobre la distribucin de la suma de n variables
aleatorias independientes cuando n <>.
Los epgrafes 7.1 y 7.2 constituyen una introduccin a los teoremas limites de la teoria
de probabilidades. Para ello tratamos en el epigrafe 7.1 la llamada desigualdad de
Chebyshev, que desempea una importante funcin como medio auxiliar en la demostra
cin de teoremas limites especiales, y en el epigrafe 7.2 presentamos los tipos de conver
gencia ms importantes utilizados en la teoria de probabilidades para sucesiones de va
riables aleatorias. Los epgrafes 7.3 y 7.4 estn dedicados a la denominada Ley de los
grandes nmeros. Una ley de los grandes nmeros consiste, hablando sin mucha precisin,
en la indicacin de condiciones suficientes para que la media aritmtica de una sucesin
de variables aleatorias tienda hacia una constante, a medida que crece el nmero de los
sumandos. La Ley de los grandes nmeros de Bernoulli, tratada en el epigrafe 7.3, facilita
una visin ms clara y exacta de la relacin entre la frecuencia relativa y la probabilidad
de un suceso aleatorio; el epigrafe 7.4 proporciona una panormica sobre las versiones
ms generales de la Ley de los grandes nmeros.
Los epgrafes 7.5 y 7.6 estn dedicados al denominado teorema central del limite. Un
tal teorema consiste, hablando sin mucha precisin, en la indicacin de condiciones su
ficientes para que la distribucin de la suma de una sucesin de variables aleatorias tienda
hacia la distribucin normal, a medida que crece el nmero de sumandos. El teorema in
tegral D e Afoivre Laplace, expuesto en el epgrafe 7.5, plantea una proposicin semejante
a la del teorema central del limite para una sucesin de variables aleatorias distribuidas
binomialmente, y constituye la base para una frmula de aproximacin que est destinada
al clculo prctico de probabilidades relacionadas con la distribucin binomial (parmetro
n > > 1 ). Por ltimo, el epigrafe 7.6 informa acerca de las versiones ms generales del
teorema central del limite que, en las aplicaciones prcticas, justifican en muchas ocasio
nes el hecho de considerar distribuida normalmente una variable aleatoria determinada.
117
www.FreeLibros.com
7.1 Desigualdad de Chebyshev
La funcin que desempea la varianza D 2X de una variable aleatoria X, como medida
para la desviacin de los valores de esta variable aleatoria del centro descrito por el valor
esperado EX, se hace muy clara tambin cuantitativamente en la desigualdad
que se cumple para todo nmero natural k. Adems, esta desigualdad es muy til en la
demostracin de las leyes de lqs grandes nmeros (ver epigrafe 7 .3 ). Deduciremos la de
sigualdad (1), que se denomina desigualdad de Chebyshev en honor al importante mate
mtico ruso P.L. Chebyshev (1821-1894), como corolario del teorema siguiente.
EY
P {Y > 5) S ----- (2)
5
EY
P ( r < 6 ) > l -------- . (3)
6
www.FreeLibros.com
D e m o s t r a c i n . Hagamos 8 = e j y y = | A ' - ^ | . Entonces se cumple que
P [Y ^ 0) = 1 ,8 > 0 y E Y = E X - E X \i - D X. Aplicando el teorema 1 obtenemos que
D*X
P (IX -E X ]* ^ e1) ^ ------ . Consideremos, adems, que el suceso ( \X - E X \> e 1) ocurre si
E2
y solo si si lo hace el suceso (| X - E X ^ ), con lo cual hemos demostrado (4).
Observaciones
1. La desigualdad de Chebyshev solo tiene sentido para aquellas variables aleatorias
que poseen una varianza (finita).
3. Las desigualdades (2) y (3) y las desigualdades (4) y (5) se cumplen, en particular,
En el caso e = 3 ^ D*X , la desigualdad (5) expresa que para toda variable aleatoria X
(con varianza finita), la probabilidad de que tome valores cuya distancia del valor espe-
----------------------------------------------------------------- 7-----------------------------------------------------------8
rado sea menor que el triplo de la desviacin estndar, es por lo menos igual a ,
9
Radica en la naturaleza del problema el que una proposicin tan general como la de
sigualdad de Chebyshev, que no requiere m s que el valor esperado y la varianza de la
distribucin de probabilidad de la variable aleatoria considerada, pueda ser muy burda
en casos especiales. Por ejemplo, en el caso de que X posea una distribucin normal, se
obtiene que P (\X E X \< 5 \ [ d *X) = 0 ,9 9 7 (ver 5.4 (2 6 )). Sin embargo, la desigualdad de
Chebyshev no se puede mejorar, como muestra el ejemplo siguiente, sin la adopcin de
condiciones adicionales sobre la clase de variables aleatorias considerada.
P { X = k) = P {X = k ) = , P (X = 0 ) = 1 .
2k1 fcJ
P ( \ X - E X \ > lo jD 'X ) = P ( \x \ k) = P (X = - k ) + P {X = k ) =
www.FreeLibros.com
T e o r e m a 2. Sean X VX , . .. , X n variables aleatorias independientes con varianza (finita) y sea e un
nmero positivo arbitrario. Entonces se cumple que
(7)
(8 )
N o dem ostrarem os la desigualdad de K olm ogorov; solo observarem os que para n = l se obtiene la de
sigualdad de Chebyshev.
Por tanto, la convergencia con probabilidad uno se presenta si el conjunto de todas las
coel, para las cuales la sucesin numrica (Xn (<*>)) converge al nmero X((), posee la
probabilidad uno, es decir, si el suceso (lim X = X ) es un suceso casi seguro o prctica
(2)
www.FreeLibros.com
Entonces se cumple que fl+1() E B(e), por consiguiente Cn+1(e) C(e) y, por tanto, (ver 2 .4 , teo'
rema 1)
C .S. ^
1. Supongamos que se cumple que X H ----- X, o sea, que P(C) = 1 . Entonces tenem os que f 1 C(6)
!
= <t> y. por tanto, lim P(C(e)) = 0. D e P[B(e)) = / (Cll(s)) resulta que lim P(BJe)) = 0 , es decir, se
cumple (2).
2. Supongamos que se cum ple (2), o sea, que lim P(BJie ) ) = 0 . Entonces tenem os que D(e) 9 B n(e) pa-
Xn L x .
X * X -------- X. (4)
se obtiene de aqui directam ente que lim P(An( t) ) = 0 , es decir, se cumple que lim P ( \x n- x ^ s) = 0 ,
121
www.FreeLibros.com
El contenido de la convergencia en media cuadrtica es que lim D 1 (XK- X ) = 0 , es
bilidad total (ver 3.4, teorem a 1) se obtiene para un nm ero real x cualquiera
Por una parte, resulta de aqu que Fxp c ) < P [X < x \a j P[a ) de donde se obtiene con
PiAJ
www.FreeLibros.com
FVCk< x \a J **.<*> ^ < X n+E) n (X > X ,-e ))
PUJ
P {X < x+ e)
para x > 0 ,
en todos los puntos de continuidad de F # es decir, se cumple que
( W < e ) = P (X < t) - P ( X m^ - 6 )
= F Xm( e ) - F Xt( - + 0 ) ,
www.FreeLibros.com 123
de donde para n * resulta, sobre la base de las premisas, que
es decir, la sucesin (f,(A )) converge estocsticamente hacia p (Ley de los grandes nmeros
de Bernoulli, 1712).
de donde resulta la proposicin (2) del teorema por paso al limite cuando n *
124
www.FreeLibros.com
Queremos an deducir una proposicin que contiene al teorema 1 como caso particular:
la llamada Ley de los grandes nmeros de Poisson. Constituye el punto de partida una se
rie de n experimentos aleatorios independientes, en los cuales ocurre un suceso A con una
probabilidad que, en contraposicin con el esquema de experimentos de Bernoulli consi
derado anteriormente, depende del nmero del experimento aleatorio (esquema de expe
rimentos de Poisson). Designemos con pk la probabilidad del suceso A en el experimento
k. Consideremos la variable aleatoria X k tal que
1 en caso deque el suceso A ocurre en el experimento, , , _
_ k = 1,2 ,..., n.
en caso deque el suceso A ocurra en el experimento,
EXk= l p k+ 0 ( l - p k) = p k
- P .d - i ( g _L o para * \
n1 V 4n '
125
www.FreeLibros.com
Verifiquemos, por una parte, que en el caso de que la probabilidad del suceso A sea
igual en todos los experimentos (pk~ p para todo k), se obtiene de aqui la Ley de los gran
des nmeros de Bernoulli; pero observemos tambin por otra, que una proposicin corres
pondiente a la Ley de los grandes nmeros de Bernoulli se obtiene tambin con premisas
menos limitantes. El epgrafe siguiente trata sobre otras generalizaciones de la Ley de los
grandes nmeros de Bernoulli.
( 1)
D e f in ic i n 1. Se dice que una sucesin (-Jf*) satisface la Ley de los grandes nmeros,
si la sucesin (Y J de las medias aritmticas centradas Y
En esta formulacin se supone la existencia de los valores esperados que aparecen. Si estos no exis
ten, entonces se dice que la sucesin (X J satisface U Ley de los grandes nmeros si existe una sucesin
El prximo objetivo consiste en indicar condiciones suficientes para que una sucesin de
variables aleatorias satisfaga la Ley de los grandes nmeros.
Algunas proposiciones importantes en esta direccin se deben a nombrados representan
tes de la escuela rusa de la teoria de probabilidades, fundada por P.L. Chebyshev, la cual
represent el centro de la investigacin terica en este campo al inicio de nuestro siglo (en
especial se deben a P.L. Chebyshev y su famoso discpulo A .A . Markov (1856-1922), y
y A .N . Kolmogorov, el funda
dor de la teora axiomtica de probabilidades.
(2)
126
www.FreeLibros.com
Entonces la sucesin (XJ satisface la Ley de los grandes nmeros.
n
D e aqui resulta que se cumple la condicin de Markov y con esto hemos demostrado la
validez de la .Ley de los grandes nmeros para la sucesin (X J , en virtud del teorema 1.
Como caso especial de la Ley de los grandes nmeros de Chebyshev se obtiene direc
tamente la Ley de los grandes nmeros de Poisson (ver 7.3, teorema 2; all se cumple para
127
www.FreeLibros.com
( t & ) de la s m e d ia s a r itm tic a s de la su c e si n (A"t) c o n v e r g e e s to c s tic a m e n te al
v a lo r e s p e r a d o (co m n ) |i.
L a p r o p o s ic i n d e e ste te o r e m a se o b tie n e d ir e c ta m e n te d e la L ey d e lo s g r a n d e s n m e
ros de C h eb y sh ev ; el le c to r d eb e v e r ific a r esto . E n la p a r te r e la tiv a a la E s ta d stic a m a
te m tic a h a r e m o s u n e m p le o p r o v e c h o s o de la p r o p o s ic i n d e l teo r e m a 3. P o r ltim o , a d
v e r tim o s que la L e y de lo s g r a n d e s n m e r o s de B e r n o u lli (v er 7 .3 , teo r e m a 1) se o b tie n e
d ir e c ta m e n te c o m o c a s o e s p e c ia l d e este teo r e m a .
T e o r e m a 4. (Ley de los grandes nmeros de Kinchine). Sea (Xk) una sucesin devariables alea
torias independientes, distribuidas idnticamente, con el valor esperado (comn) u. Entonces, la suce-
estocsticamente a n.
(-& ) converge
Queremos exponer an algunas proposiciones sobre la denominada Ley fuerte de los grandes n
meros.
D e f i n i c i n 3. Se dice que una sucesin (A"t) satisface la Ley fuerte de los grandes nmeros, si la
sucesin (y),
Xk- E X k),
-S
converge casi seguro a cero, suponindose la existencia de los valores esperados EXk. (Si estos no exis
ten. entonces se dice que la sucesin (Xk) satisface la Ley fuerte de los grandes nmeros, si existe una
1 ^
sucesin numrica (a) tal, que la sucesin ( Yn) , Yn= y X k- a (converge casi seguro a cero.)
n
Las definiciones 1 y 3 solo se diferencian en el tipo de la convergencia de la sucesin (K) hacia cero;
en la definicin 1 se parte de la convergencia estocstica y la definicin 3 se basa en la convergencia
con probabilidad uno. Como de la convergencia con probabilidad uno resulta la convergencia estocs
tica (ver 7.2, teorema 2 ,), una sucesin (Xk), para la cual se cumpla la Ley fuerte de los grandes n
meros, satisface tambin la Ley de los grandes nmeros. (Para una mejor diferenciacin, la Ley de los
grandes nmeros caracterizada mediante la definicin 1, se denomina Ley dbil de los grandes nme-
Los teoremas siguientes, provenientes de A .N. Kolmogorov, indican condiciones suficientes para la
validez de la Ley fuerte de los grandes nmeros.
T e o r e m a 5. Sea (X) una sucesin de variables aleatorias independientes que satisface la condicin
D lXk
k=1 K
vi
(3)
1. X lX , ... estn distribuidas idnticamente (con el valor esperado n y la varianza o 1). (En este caso
1 ^ c.s
se obtiene que y Xk ------- (i.)
128
www.FreeLibros.com
2. Existe M > O tal que D 2X k^ M para todo k.
La ltima condicin m encionada muestra, que en el caso de una sucesin de variables aleatorias in
dependientes, la Ley de los grandes nmeros de Chebyshev (ver teorema 2), -y en particular, la Ley
de los grandes nmeros de Poisson (ver 7.3, teorema 2 ),- pueden considerarse tambin como Ley fuerte
de los grandes nmeros.
La primera condicin nombrada muestra que la Ley de los grandes nmeros formulada en el teorema
3 y, en particular, la Ley de los grandes nmeros de Bernoulli (ver 7.3, teorema 1), puede pasar tam
bin como Ley fuerte de los grandes nmeros. La sucesin (fn(A)) de las frecuencias relativas f(A ), to
madas como variables aleatorias, de la ocurrencia de un suceso aleatorio A en una serie de n repeti
ciones independientes de un mismo experimento aleatorio, para el cual el suceso A tiene la probabilidad
P(A) = p converge para n no solo estocsticamente, sino tambin con probabilidad uno.*
Por ltimo, daremos un teorema muy concluyente referente a la validez de la Ley fuerte de los gran
des nmeros para una sucesin de variables aleatorias independientes, distribuidas idnticamente.
1. Si existe X , = n. entonces la sucesin (X) satisface la Ley fuerte de los grandes nmeros. En par-
1 c.s.
ticular. se cumple que ? Xk ------------------ n.
" i
Renunciaremos a la demostracin de este teorema, que es muy difcil; esta se realiza haciendo re
ferencia al lema de Borel-Cantelli (ver 3.3, teorema 1). Advertim os an que, sobre la base de la pri
mera proposicin del teorema 6, la Ley de los grandes nmeros de K inchine (ver teorema 4) puede con
siderarse tambin como Ley fuerte de los grandes nmeros.
* Esta proposicin fue considerada por primera vez en 1909 por el matemtico francs
E. Borel (1871-1956) ; por ello se denomina tambin Ley de los grandes nmeros de Bo>
re.
129
www.FreeLibros.com
En este epigrafe conoceremos el llamado teorema integral de D e Moivre-Lapiace (A. De
Moivre, 1730, P.S. Laplace, 1812), que tiene por contenido una proposicin semejante pa
ra variables aleatorias distribuidas binomialmente.
Sea A un suceso aleatorio que ocurre en el marco de un experimento aleatorio con la
probabilidadP(A) = p , 0 < p < \ . Denotemos con Fn(A ). al igual que antes (ver epigrafe 4.S),
el nmero aleatorio de la ocurrencia de A en una serie de n repeticiones independientes
de este experimento. Como sabemos, la variable aleatoria discreta F(A) est distribuida
binomialmente con los parmetros n y p, y se cumplen las relaciones EFn(A) = n p y
D>Fn(A) = nP (1 P)' Sobre la base de la Ley de los grandes nmeros de Bernoulli (ver 7.3,
teorema 1), sabemos que la sucesin (K J,
v . FM ) . Fn( A ) - n p F,(A ) ~ E F A )
Y ,= J M ) - P = ---------- P - --------------- ----------------------.
n n n
converge estocsticamente -y segn la Ley de los grandes nmeros de Borel (ver 7.4, antes
del teorema 6) incluso casi seguro- hacia cero cuando n -+. La funcin de distribucin
limite es, por consiguiente, la funcin de distribucin de una variable aleatoria distribuida
puntualmente, o sea, de una variable aleatoria que posee, la varianza cero. Observemos
>2r = D'F.(A) = p {^ - L
n2 n
y, por tanto, se cumple que
lim D 2Y = 0.
Z .= V ^ ------- ^ --------.
\P (\ ~P)
Z H ~EF _ F, - n p
\ D 2Fn V nP(X~P)
130
www.FreeLibros.com
se cumple para todo x la relacin
o sea, la sucesin (Z J converge en distribucin hacia una variable aleatoria con distribu
cin # (0 ,1 ).
U na demostracin clara de este teorema exige medios auxiliares que sobrepasan los
marcos de este libro. Por eso, nos limitaremos a aclarar la significacin del teorema 1 y,
en particular, la utilizacin de esta proposicin en casos de aplicacin.
Si X es una variable aleatoria distribuida binominalmente con los paramtros n (n 1)
y p(0 < p < 1), entonces el clc,ulo de las probabilidades
es complicado, como habamos dicho ya en el epgrafe 4.5. Sin embargo, en este caso
( n l ) , no nos interesamos tanto por tales probabilidades particulares, que son en su
mayora muy pequeas, sino por los valores que toma X de un intervalo cualquiera dado.
A plicando el teorema 1 se obtiene para P (a ^ X < b )
a np X -n p b -n p
P(a^S X < b ) = P
V np{\ - p ) \ np(\ - p ) y np( 1 - p )
( 2)
(La expresin sealada representa al mismo tiempo una aproximacin para las probabi-
lidades P (a< X b), P ( a < X < b) y P ( a < X < b ) .-------------------------------------------------------------
Una variable aleatoria distribuida binomialmente con los parmetros n ( l ) y
p(0 < p < \ ) posee aproximadamente una distribucin normal con los parmetros \i= n p y
a 2= n p ( l - p ) .
*=20 *=20
131
www.FreeLibros.com
Con esta frmula no se puede calcular de forma prctica la probabilidad buscada. Si uti
lizamos la frmula de aproximacin (2) con a =20, b=40. n=1000. n = 0 m y 1 _ j,= o o
obtenemos que
4 0 - 1 000 0,03 2 0 - 1 000 0,03
P { lO ^ X 4 0 )=
\ 1 000 0,03 0,97 y j 1 000 0,03 0,97
10 \ . / -1 0
=<D
129,1 129,1
10
= 2 -1
129,1
= 2 ( 1 ,8 5 ) - 1 = 2 0 ,9 7 - 1 = 0 ,9 4 = 94%
1 0
X:
p 1- p
(ver en 7.3 las explicaciones posteriores a la formulacin de la Ley de los grandes nmeros
F EF
de Bernoulli). Las variables aleatorias Z = -------------- - de la sucesin (Z J conside-
EXJ
Z =- (1)
*-1
132
www.FreeLibros.com
La proposicin del teorema integral de D e M oivre-Lapiace plantea que la sucesin ( Z J ,
form ad a segn (1) de la sucesin (Y J de variables aleatorias independientes, distribuidas
id n ticam en te, con verge en d istrib u cin h a cia una variable aleatoria con distribucin
# (0 ,1 ). Este hecho constituye el fundamento de la definicin siguiente.
Z = ( 1)
converge en distribucin hacia una variable aleatoria con distribucin N (0,1), es decir, si
para la sucesin (FZJ de las funciones de distribucin de Z se cumple la relacin
( 2)
Luego, en esta form ulacin se supone la existencia de los valores esperados y las varianzas que apa
recen, asi como que D X l > 0 . Si estas m agnitudes no existen, entonces se dice que la sucesin (Xk) sa
tisface al teorem a central del lim ite, si existen sucesiones num ricas (a) y (>). >*0, tales que la su
cesin (Z),
(3)
El prximo objetivo consiste en indicar condiciones suficientes para que una sucesin de
variables aleatorias satisfaga al teorema central del lmite. Para ello afirmamos primera
mente que, sobre la base del teorema integral de D e Moivre-Lapiace, una sucesin (X k)
de variables aleatorias independientes, distribuidas idnticamente en dos puntos, satisface
al teorema central del lmite. A continuacin se muestra que se puede renunciar a la con
dicin de la distribucin en dos puntos.
T e o r e m a 1. Sea (Xk) una sucesin de variables aleatorias independientes, distribuidas
idnticamente y con varianza finita y positiva. Entonces la sucesin (X k) satisface al
teorema central del limite.
Este teorema se debe a J.W. Lindeberg (1922) y P. Lvy (1925); por eso se denomina
tambin como Teorema lm ite de Lindeberg-Lvy. En la estadstica matemtica este teo
rema es de gran significacin; en l se plantea que las sumas estandarizadas Z de varia
bles aleatorias X k independientes y distribuidas idnticamente, poseen asintticamente una
distribucin # (0 ,1 ) y (es decir, cuando el nmero de los sumandos tiende a <), si para
los sumandos X y exista, junto al valor esperado (comn) m la varianza (comn) ct2
(o2< ~ ) y esta es positiva (oJ> 0 ).
Esto significa que las variables aleatorias
(4)
133
www.FreeLibros.com
poseen aproximadamente una distribucin N(0,1), p a ta n grande, formulado de otra fer-
i _
ma, que la sumas ^ * k P een aproximadamente una distribucin N(nn, no1) para n
grande.
Si en el teorema 1 se renuncia a la condicin de que las variables aleatorias distribuidas
idnticamente X VX V... posean una varianza finita y positiva, o a que las variables alea
torias X, X,... estn distribuidas idnticamente. e n t o n c s u n a S U C & s iA r * -ai rao
por lo general, al teorema central del limite; sin embargo, existen una serie de proposi
ciones que tratan de la validez del teorema central del limite tambin en el caso de va
riables aleatorias no distribuidas idnticamente, por ejemplo, el teorema lim ite de Lyapu-
nov y el teorema lim ite d e Lindeberg-Felter.
Primero presentaremos el teorem a lim ite de Lyapunov (A .M . Lyapunov (1857-1918) fue uno de los
representantes ms significativos de la famosa escuela rusa de teora de las probabilidades, fundada por
P.L. Chebyshev.)
T e o r e m a 2. Sea (A'J una sucesin de variables aleatorias independientes, que poseen momentos
de tercer orden. Si para las sucesiones ( J y ( c j , con
y J ^ \x k-Exk\> y c,=yj^t
'D 'X k (5)
4=1' ' *-1
respectivamente, se satisface la condicin
b,
lim = 0 (condicin de Lyapunov), (6)
c.
2
/1
, D' x
Esta relacin expresa que la varianza de cada sumando X k es pequea en comparacin con la varianza
de la suma JT,+J!',+...+Jr..
Por ltimo, W. Feller dem ostr (1935) que, suponiendo que (7) se cumpla, para la validez del teorema
central'del lim ite es necesaria la satisfaccin de la condicin de Lindeberg.
Estos teoremas son de gran importancia, tanto en el aspecto terico -en especial terico-
cognoscitivo como en el aspecto de sus aplicaciones prcticas. D e estos teoremas se obtie
ne con frecuencia la justificacin para describir aproximadamente la distribucin de una
variable aleatoria como una distribucin normal. Asi, por ejemplo, se puede suponer que
una variable aleatoria posee una distribucin normal si se obtiene mediante superposicin
de un nmero considerable de efectos aleatorios mutuamente independientes, donde cada
uno de estos efectos tiene una influencia insignificante sobre la variable aleatoria consi
134
www.FreeLibros.com
derada, en comparacin con la suma de los otros efectos (ver (7)). Con esto, el conoci
miento de los valores esperados y las varianzas es lo nico que se necesita saber acerca
de las distribuciones de probabilidad de los efectos aleatorios que intervienen en la super
posicin. El resultado de una tal superposicin se describe muy bien mediante la distri
bucin normal, si el nmero de los efectos aleatorios es elevado.
Estas notables regularidades en los fenmenos aleatorios, que se expresan en forma cuantitativa en
los teoremas centrales del limite y en forma cualitativa, en las leyes de los grandes nmeros, han con
ducido a realizar y homenajear a la distribucin normal; reproducimos en una traduccin libre una
G alton (1822-1911):
Y o no sabra nombrar algo que pudiera impresionar tanto la fantasa como la forma maravillosa del
orden csmico, que se expresa en la Ley de los grandes nmeros. Si los griegos hubieran conocido esta
ley, la hubieran personificado y adorado como divinidad. Con serenidad y com pleto desconocim iento
de si misma ejerce su poder en m edio del m is salvaje desorden. M ientras m is gigantesco es el conjunto
y mayor la aparente anarqua, tanto m is completa es su fuerza. Ella es la ley superior del caos. Tan
pronto una gran m asa de elem entos sin reglas se ordenan m edianamente, se muestra que una imprevista
y maravillosa regularidad, sumamente armnica, estaba ya oculta en ellos.
13S
www.FreeLibros.com
8. E stadstica descriptiva
136
www.FreeLibros.com
Se puede tratar, por ejemplo, del nmero de puntos obtenidos en un trabajo de control
por n estudiantes, o de las medidas del cuerpo de n estudiantes de la misma edad, o de
las temperaturas del medioda en n lugares diferentes, o tomando un ejemplo de la tc
nica, de la diferencia entre el dimetro real y la medida prevista en n pernos producidos
en un taladro automtico.
En el marco de la Estadstica matem tica se considera a X como una variable aleatoria, y a x ,...... x
como valores observados de X en n experim entos concretos.
Los nmeros x ,,..., x forman una serie de mediciones (de tamao n). La agrupacin
de los elementos de una serie de mediciones en la sucesin en que van surgiendo, se de-
nomina lista originaria.
Tabla 1
7 6 13 7 11 10 13 8 14 10
4 8 3 12 14 8 11 10 2 14
9 8 12 3 9 5 4 9 8 15
12 9 8 10 6 11 7 11 11 12
3 4 13 0 6 3 8 6 7 13
6 13 2 14 4 9 5 9 9 6
9 10 10 9 10 10 10 12 0 12
11 7 5 2 12 1 7 13 6 10
11 9 10 15 11 10 13 8 12 14
8 12 8 11 13 12 10 14 12 9
0 n 2 8 U+1 UH 10
1 l 1 9 U+1 U+1 1 11
2 ni 3 10 W1 U+1 III 13
3 mi 4 11 U+1 U+1 1 9
4 mi 4 12 U+1 lili 11
5 ni 3 13 U+1 III 8
6 m ii 7 14 U+1 1 6
7 U+1 1 6 15 II 2
137
www.FreeLibros.com
Como se puede apreciar las tablas de frecuencia son ms comprensibles y pequeas que
las listas originarias, asi como ms apropiadas para emitir un juicio sobre la distribucin.
En ellas no se pierde informacin con respecto a las listas originarias. Las tablas de fre
cuencia se pueden ilustrar bien mediante representaciones grficas.
E je m p lo 3. Ilustraremos la tabla de frecuencia dada en el ejemplo 2 mediante repre
sentaciones grficas (fig. 44).
Una representacin grfica como la de la figura 44a se llama polgono escalonado o his-
tograma; la representacin grfica dada en la figura 44b se denomina polgono de frecuen-
cia (o abreviadamente: polgono). Si lo que se quiere es comparar varias series de med-
ciones de distintos tamaos (en el marco de un mismo problema), se representa sobre el
eje de las ordenadas en lugar de la frecuencia absoluta, la frecuencia relativa.
Qtd
0 1 2 3 4
5 6 7 8 9 10 11 12 13 14 15
Puntos -
Puntos Figura 44
138
www.FreeLibros.com
( Nota 5 ) (N o ta 4 ) (N ota 3) (N o ta 2) (N ota 1) 3
N otas Figura 45
Clase 1: 0 ,1 ,2 ,3 ,4 puntos
Clase 2: 5,6,7
Clase 3: 8,9,10
Clase 4: 11,12,13
Clase 5: 14,15
(La evaluacin de los rendimientos con las notas 1 hasta 5 constituye la fundamentacin
para esta particin en clases; de aqu, corresponde a la clase 1 la nota 1, a la clase 2 la
nota 2 y asi sucesivamente.)
Los resultados se resumen en la tabla siguiente -en una denominada tabla de distribu
cin secundaria- y en la figura 45 se ilustran grficamente.
Tabla 3
Clase Nota Tarjado Frecuencia Frecuencia
relativa
139
www.FreeLibros.com
Observemos que a la par que se gana en claridad mediante una clasificacin del ma
terial numrico, surge una prdida de informacin (con respecto a la lista originaria o a
la tabla de distribucin primaria).
8 .2 .1 M e d id a s d e te n d e n c ia c e n tr a l
a)
- (2 )
140
www.FreeLibros.com
ejemplo se obtiene como moda emprica x=10.) Las modas empricas de una serie de me
diciones son los puntajes de mayor frecuencia en la serie de mediciones considerada.
La medida geomtrica x de una serie de valores x...... x est dada por
ella est definida solamente para series de mediciones con puntajes positivos. En compa
racin con la media aritmtica est menos influenciada por los valores extremos de la se
rie de mediciones. En la prctica se utiliza frecuentemente en la Estadstica econmica
(por ejemplo, en la caracterizacin de un tiempo de crecimiento promedio).
8 .2 .2 M e d i d a s d e d is p e r s i n
Una primera idea sobre la dispersin de una serie de mediciones nos la puede dar el re
corrido 8,, el cual se define como la diferencia del mximo y el mnimo de los puntajes,
o sea,
JCm4= nx {*,>> *}.
6,=*uu-*mta con
jcmi=mn x}. (3)
El Recorrido depende solamente de los valores extremos de una serie de mediciones, no
suministra informacin alguna, por ejemplo, sobre cmo se concentran los valores en tor
no a la media aritmtica en la serie de mediciones. Como medidas adecuadas para esto
se tiene la varianza emprica s*, que se define por
> C x ,- * ) 1 (*)
s ,= V ? = ( x - J 1, ' (5)
(6 )
141
www.FreeLibros.com
E je m p lo . Para el material numrico del ejemplo 1 (8.1) se obtiene segn (6), con
(8)
El coeficiente de variacin se utiliza para comparar varias series de mediciones con res
pecto a sus desviaciones estndar empricas, considerando sus medias aritmticas respec
tivas y frecuentemente se da en tanto por ciento.
En el m arco de la Estadstica m atem tica se entiende por (X , y) un vector aleatorio (bidim ensional).
siendo (je,,y,),..., (x,yB) los valores observados de (X. X) en n experim entos concretos.
La agrupacin de los pares (x,, y ) segn el orden en el cual van surgiendo, se denomina
nuevamente lista originaria. Racionalmente, tambin se pasa en este caso, a la confeccin
de una tabla de distribucin prim aria (tabla de frecuencia), la cual para cada posible valor
(x.y) de (X,Y) contiene la frecuencia (absoluta o relativa) de la aparicin de este par en
el material numrico considerado (ver el ejemplo siguiente), donde dado el caso se realiza
una particin en clases para las caractersticas X y Y. Para hacer ms comprensible lo an-
terior sirven las representaciones grficas del material numrico, por ejemplo, mediante
puntos en el plano x ,y o en forma de histogramas (especiales). N o profundizaremos ms
y terminaremos este corto epgrafe con un ejemplo.
E je m p l o . A 100 nios recin nacidos se les midi la talla X (en cm) y el permetro
de la cabeza Y (en cm ). Obviemos la lista originaria y demos la tabla de frecuencia co
rrespondiente en la cual aparecen redondeados los pares de valores de medicin (los cua
dros en blanco se interpretan como si tuvieran ceros).
Como se aprecia, aparecen con ms frecuencia, e n tr e los 100 recin nacidos investigados
nios con una talla entre 48 y 52 cm, y un p e r m e tr o d e la cabeza, entre 33 y 36 cm. Con
trariamente, aparecen muy pocos nios peque:''.' , v mies) q u e presenten un gran (peque
o) permetro de la cabeza.
142
www.FreeLibros.com
Tabla 4
1
\ y
32 33 34 35 36 37 38 39
X N,
47 1 1 3 5
48 1 6 7 14
49 1 5 10 5 21
50 1 4 9 9 1 24
51 3 6 4 1 14
52 3 1 7 1 12
53 1 1 2 1 1 1 7
54 1 1 2
55 0
56 1 1
3 17 33 25 14 4 2 2 (100)
143
www.FreeLibros.com
Se aprecia claramente, que s , es positiva, cuando a valores grandes de x se hacen co
rresponder valores grandes de y y a valores pequeos de x. valores pequeos de y. Ade
ms, se reflexiona de forma anloga que la covarianza emprica sn n es negativa, cuando
se hacen corresponder a valores grandes de x. pequeos valores de y y viceversa.
Una medida estadstica ms potente para la dependencia mutua de A' y Y se obtiene cuan-
do se relaciona la covarianza emprica con el producto de las desviaciones estndar em
2 ^ (x ,-x ) ( y - y )
(2 )
Xn y*
1=1
(3)
y cuando no se han calculado anteriormente >>, s2I n y s-', puede utilizarse la relacin
r (4)
Queremos finalizar las explicaciones sobre la es adisnca descriptiva con una observa
cin general sobre las propiedades de aplicacin de las frmulas dadas en los epgrafes
144
www.FreeLibros.com
8.2 y 8.4. Para la deducin de estas frmulas hemos partido siempre de que los valores
numricos utilizados son resultados de procesos de mediciones, para los cuales se utiliz
una escala de unidades, o con otras palabras, de que los valores de observacin utilizados
se pueden comparar (en el sentido de mayor que, igual que y menor que), de donde se ob
tiene que las diferencias de los valores de las m ediciones tambin se pueden interpretar
racionalmente.
En especial, en las investigaciones pedaggicas, pero tambin en los psicolgicas y en
las sociales, se investigan con frecuencia caractersticas que no se pueden medir con una
escala de unidades, conocidas como caractersticas cualitativas (piense por ejemplo en la
caracterstica resultado de una prueba ; esta caracterstica se puede describir numri
camente, digamos con las notas del 1 al 5, pero la diferencia entre las notas no se puede
interpretar razonablemente. Otro ejemplo para esto seria la caracterstica procedencia
social ). En estos casos no se pueden aplicar las frmulas de manera irreflexiva; no
obstante existe una serie de posibilidades de describir numricamente, por ejemplo, la
dependencia mutua de caracteristicas cualitativas, es decir, de aquellas que no se pueden
expresar por medio de una escala de unidades (por ejemplo, mediante el clculo del lla
mado coeficiente de correlacin del rango o del denominado coeficiente de contingencia).
www.FreeLibros.com
145
9. Conceptos fundamentales de la Estadstica
matemtica
146
www.FreeLibros.com
En el capitulo 10 se exponen los elem entos esenciales de la Teoria d e la estimacin,
cuya problemtica de orden prctico consiste en indicar de forma apropiada valores es
tim ados para parmetros desconocidos de un m odelo estocstico. Por parmetros desco
nocidos debemos entender probabilidades de sucesos aleatorios particulares, caractersti
cas numricas especiales de una distribucin de probabilidad (por ejemplo, el valor espe
rado, la varianza, el coeficiente de correlacin, etc.) y tam bin funcipnes de distribucin.
En general, la Teoria de la estim acin tiene como propsito indicar valores estimados pa
ra tales parmetros desconocidos (lo cual incluye m todos para la construccin de estima
dores), el estudio de estimadores con respecto a sus propiedades especiales y, sobre este
de los datos numricos concretos, las llam adas muestras (ver 9 .2 ), se obtienen valores es
tim ados concretos utilizando los denom inados estadgrafos (ver 9 .4 ); luego, estos valores
estim ados dependen de influjos casuales. En la construccin de estimadores se toma como
base frecuentemente, y esto de forma evidente, el principio de utilizar com o valores es
tim ados para los parmetros desconocidos, aquellos que atribuyen la mayor probabilidad
a los datos concretos de partida (m todo de mxima verosimilitud, ver 10.3).
En este punto queremos an llamar la atencin hacia un hecho importante para cual
quier aplicacin de procedimientos estadsticos, que se refiere al contenido de verdad de
proposiciones estadsticas. Sobre la base de un procedim iento estadstico, por ejemplo, de
una dcima de hiptesis del tipo arriba indicado, no pueden hallarse proposiciones segu
ras. Otra cosa no es de esperar, ya que siempre se procesa solo un nmero finito de datos,
mientras que las proposiciones que se refieren a una llam ada poblacin (ver 9.2) abarcan,
por lo general, un conjunto ms extenso. La ventaja de la aplicacin de procedimientos
estadsticos (por ejemplo, en la comprobacin de una hiptesis) consiste en que la proba-
bilidad de una decisin errnea (por ejemplo, del rechazo de una hiptesis verdadera)
puede calcularse. Abordaremos este aspecto ms exactamente en los captulos 10 y 11.
En la aplicacin de procedimientos estadsticos son interesantes los datos, no solo por
s mismos, sino por la forma y modo en que se obtienen. Es de gran importancia conocer,
por ejemplo, si los datos se han obtenido mediante observaciones del valor de una variable
aleatoria en repeticiones independientes de un experimento aleatorio o si estos experimen
tos dependan unos de otros. En el siguiente epgrafe nos ocuparemos con problemas fun
dam entales que se refieren a los mtodos de seleccin d e una muestra.
147
www.FreeLibros.com
9.2 Poblacin y muestra
l concepto muestra es de gran significacin en los problemas estadsticos y est siempre
unido con el concepto poblacin. Queremos explicar estos conceptos con ayuda de ejem
plos y ms adelante definirlos matemticamente.
E je m p lo s
1. En una fbrica se producen bateras para linternas. Supongamos que la produccin
diaria es tan grande, que no es econmico comprobar si cada batera funciona correcta
mente. Sin embargo, para poder tener una impresin de la calidad de las bateras produ
cidas, se extrae un cierto nmero de bateras, una llamada muestra, V se verifica su fun
cionamiento; la eleccin se realiza de modo que cada batera de la produccin diaria ten
ga la misma oportunidad de ser extrada.
2. La efectividad de un medicamento para bajar la presin arterial (hipotensor) se debe
investigar. Para ello se probar el medicamento en un nmero de pacientes que padecen
de presin alta. Este conjunto constituye la muestra y el conjunto d todos los hombres
que padecen de hipertensin (por ejemplo, en la regin de venta del productor) seria la
poblacin correspondiente. Luego, una muestra es un subconiunto finito de un conjunto
universo 12, que se denomina poblacin en este contexto. Para lograr una conexin con las
consideraciones terico-probabilsticas, supongamos que Q es el conjunto universo de un
espacio de probabilidad.
www.FreeLibros.com
cin 12. Por tanto, una muestra sin reposicin de tamao n es una muestra de tamao n
en el sentido de la definicin 1. Por consiguiente, en una muestra sin reposicin cada ele
mento coe2 puede ser extrado a lo sumo una vez, y para el tamao de la muestra n se
cumple que n 4 N.
Muchas selecciones de muestras que se hacen con fines econmicos, en especial, en el
m arco del con trol estadstico de la calidad, y para otras investigaciones cientficas, se ba
san en el modelo de una muestra sin reposicin. El objetivo de esta seleccin consiste, con
frecuencia, en obtener informacin sobre la parte de los elementos de una poblacin que
estn caracterizados por una determinada propiedad P (por ejemplo, por una caracters
tica cualitativa particular). Para ello se puede describir una muestra de tamao n median
te variables aleatorias X v X v ..., Xn, de la manera siguiente:
En una muestra con reposicin, las variables aleatorias X v X 2...... X n son independien
tes y estn distribuidas idnticamente. La variable aleatoria S - X + X + ...+ X que in
dica el nmero (aleatorio) de los elementos con la propiedad P " en la muestra, est dis
tribuida binomialmente con los parmetros n = tamao de la muestra y p =probabilidad de
la propiedad P " en la poblacin. En una muestra sin reposicin, las variables aleatorias
X v Af,,..., XHestn tambin distribuidas idnticamente, pero no son independientes entre
si. La variable aleatoria + X n posee una distribucin hipergeomtrica. El re
sultado concreto de la seleccin de una muestra, igual si es con o sin reposicin, puede
describirse por una sucesin finita de los nmeros cero y uno.
En nuestras consideraciones posteriores describiremos las muestras mediante variables
aleatorias. Para ello sea [12, A, P] un espacio de probabilidad, y sea X una variable alea
toria sobre este espacio de probabilidad. Para obtener informacin sobre la distribucin
de probabilidad de la variable aleatoria X, por lo general desconocida, se repetir n veces
un experimento de forma independiente, observndose cada vez un valor concreto, es de
cir, una realizacin de la variable aleatoria. Con esto obtendremos los nmeros
x x ,,..., jc, que son realizaciones de la variable aleatoria X. Si concebimos el nmero
x k, o sea, la realizacin de la variable aleatoria X en el fc-simo experimento, como re
alizacin de una variable aleatoria X k, entonces las variables aleatorias X v X v ..., Xn son
independientes entre si y estn distribuidas idnticamente que X. Esto constituye el fun
damento para la definicin siguiente:
www.FreeLibros.com
caracterizada por la funcin de distribucin F^ ^ x, que est relacionada con la fun
cin de distribucin de la variable aleatoria X (ver 6.4 (1)) segn
El punto de partida de nuestras reflexiones ser una muestra concreta (x,, x 2,..., x) de
tamao n de una poblacin X con la funcin de distribucin F. Para un nmero real x
cualquiera dado averigemos el nmero m(x) de los elementos de la muestra concreta
que son menores que x, y consideremos para ello la magnitud w(x) = que indi-
n
ca la frecuencia relativa de que los elementos de la muestra se encuentren en el in r v a
lo de < hasta x.
cuyos valores son nmeros entre cero y uno, se denomina funcin de distribucin emprica
de la muestra concreta (x,, x,, ..., x J .
La funcin de distribucin emprica de una muestra concreta (x,, x ,,..., x J es una
funcin escalonada, continua por la izquierda, que posee saltos en los lugares x; la altura
para x > mx x, se cumple que w(x) = 1. Estas propiedades muestran que vv es una fun-
/<<
cin de distribucin (ver en 4.1 la observacin despus del teorema 1); esto justifica tam
bin la denominacin introducida en la definicin 1. Podemos reconocer en qu sentido
esta funcin vv es una aproximacin de la funcin de distribucin F de la poblacin, si
tenemos en cuenta la totalidad de todas las posibles muestras concretas, y con esto, la to-
150
www.FreeLibros.com
talidad de todas las posibles funciones de distribucin empricas para un tamao n fijo de
las muestras de la poblacin dada. Escojamos ahora, como punto de partida, una muestra
matemtica (Xv X v .., X J de tamao n de la poblacin X con la funcin de distribucin
F. Para un nmero real x arbitrario designe M n(x) el nmero de las variables de la mues
tra que son menores que x. Entonces M n (x) es una variable aleatoria y la magnitud
m n(x), definida anteriormente, puede concebirse como una realizacin de M n(x). De
acuerdo con la forma de proceder seguida en el caso de una muestra concreta, conside
Podemos entender una muestra concreta (x,, x ,,..., x J como resultado de una serie de
n repeticiones independientes de un mismo experimento, consistente en la realizacin de
la variable aleatoria X. Sea ahora x un nmero real arbitrario. El nmero de veces (con
cebido como variable aleatoria) de la ocurrencia del suceso ( X < x )- luego, la variable
aleatoria A/(x) -est distribuida binomialmente con los parmetros p - P { X < x ) = F (x) y
n = tamao de la muestra. Por consiguiente, se cumplen las relaciones (ver 4.S, teore
ma 2)
EMJx) = n p - n F (x ) , D lM (x) = np(l - p ) = nF(x) (1 - F ( x ) ),
151
www.FreeLibros.com
hacia cero a medida que crece el tamao n de la muestra ( *<). La relacin entre la
funcin de distribucin emprica W , de una muestra y la funcin de distribucin F d la
poblacin considerada, se demuestra an ms claramente en el teorema siguiente, que
constituye una forma debilitada del teorema fundamental de la Estadstica matemtica.
T e o r e m a 1. Para todo nmero positivo e y todo nmero real x se cumple que
(3)
o sea, para todo nmero real x la sucesin ( J ^ M ) converge estocsticamente hacia F(x).
D e m o s t r a c i n . Sea x un n m e r o r e a l a r b itr a r io , t n t o n c e s ^ ( x ) e s ig u a l a la fre-
cuencia relativa (aleatoria) / (A) del suceso A = (X < x ) en una serie de n repeticiones in
dependientes de un mismo experimento, consistente en la realizacin de la variable
aleatoria X y A posee en cada ocasin la probabilidad p= P (A ) = P (X < x ) =F (x). Sobre la
base de la Ley de los grandes nmeros de Bernoulli (ver 7.3, teorema 1) se cumple para
todo nmero positivo e que
lim P{\f(A) - p |< e ) = 1 , o sea. lim P(| W n (x) -F (x ) |<e) = 1 ,
Ya que la Ley de los grandes nmeros de Bernoulli puede considerarse tambin como ley Tuerte de
los grandes nmeros (ver 7.4. Ley de los grandes nmeros de Borel). la proposicin del teorema 1 puede
agudizarse de la forma siguiente:
l im W n{x) = F (x )) = 1 .
Hsto significa que para todo nmero real x. la sucesin (W-^tx)) converge casi seguro hacia F (x ). El
contenido del teorema siguiente es un resultado esencialm ente ms fuerte, que se debe al m atemtico
sovitico V .I. Glivenko (1933).
N o demostraremos este teorema, pero queremos an aclarar algo. La proposicin (4) muestra que
se cumple lim |w (x) -F ( x ) |=0) = 1 para todo nmero real x. o sea. que para todo nmero real x
la sucesin (Z>(jr)). Z>(x) = |w'(1(x) F(x) |, converge casi seguro hacia cero. La proposicin (5) significa
que esta convergencia es incluso uniforme (en x ) , o sea. que la sucesin (D),
converge casi seguro hacia cero. La relacin, expresada por medio de (5), entre la funcin de distri
bucin emprica de una muestra m atem tica y la funcin de distribucin de la poblacin, se denomina
teorema fundamental de la Estadstica matem tica.
C oncluyendo este crculo de problemas indicamos sin dem ostracin, una form ulacin cuantitativa
del teorema fundamental de la Estadstica matemtica.
con
para y > 0 ,
(6)
para >< 0.
152
www.FreeLibros.com
Para la explicacin de este teorem a observem os que sobre la base del teorem a de G livenko la suce
sin (/>). D = sup | W Jx) - F (x ) |. converge casi seguro hacia cero, luego, hacia una variable ale
atoria distribuida puntualmente. H1 teorema de Kolm ogorov m uestra que la sucesin ( \[ D J converge
en distribucin hacia una variable aleatoria, cuya funcin de distribucin es la funcin K. N otable es,
en particular, que esta funcin de distribucin lim ite K no depende de F, bajo la sola condicin de que
F sea continua. En esta proposicin se basan dcim as de hiptesis para la distribucin de una pobla
cin; los valores necesarios de la funcin K pueden encontrarse en tablas de la Estadstica matemtica.
9.4 Estadgrafos
En la aplicacin de procedimientos de la Estadstica matemtica se utilizan con frecuencia
magnitudes, que se calculan a partir de una muestra concreta (por ejemplo, la media arit
mtica o la varianza emprica). Su clculo se basa, en cada ocasin, sobre una funcin
real <p definida sobre un conjunto de n-plos de nmeros reales,
<P(*i...... x J = >
" .
De forma general partiremos de una funcin <p : R" * R l y consideraremos una varia
ble aleatoria X definida sobre el espacio de probabilidad [l, A, P] y una muestra mate
mtica (Af,,..., X J de tamao n de la poblacin X. Entonces se define por
una funcin real <p(A',,..., X J sobre el conjunto 2, que en este contexto se denomina es
tadgrafo, y que consideraremos siempre-como una variable aleatoria (sobre [2, A, P]).
A continuacin damos algunos ejemplos de estadgrafos que desempearn tambin un
papel en las explicaciones posteriores; aqu introduciremos algunas abreviaturas que se
utilizarn en lo que sigue.
E je m p lo s
3. ip(A'1,..., x j = - L . > ( x - x y = -s i.
" -1
4. (pAf,,..., X J = m x {A",,..., X j .
5. <p(A'1...... X J = m n {X x...... X}.
153
www.FreeLibros.com
para n - * ) . Estos problemas constituyen un inters central de la Estadstica matemtica.
D el gran nmero de proposiciones que existen la respecto, solo formularemos algunas po
cas, y preferentemente aquellas que necesitarem os en el tratam iento de la teoria de la es
timacin y de la docim asia de hiptesis (captulos 10 y 11).
y
H (x) =P(m ln {X v .... X n) < x )
= 1 -P (m n {X v .... X }> x)
= 1 - P i X j z x ........... X K> x)
= 1 - P ( X ^ x ) .... P { X ^ x )
= \ - ( \ - F Xl( x ) ) . . . ( \ - F xpc))
= 1 -[1 - h i
x=
1 I V
> X es una variable aleatoria con una distribucin M u ,
y
1.
a1 \
n ,, ' n '
Observaciones
/ X [t
1. D el teorema 2 resulta directamente que \n ------ es una variable aleatoria con
o
una distribucin N(0, 1).
2. Supongamos acerca de la poblacin X considerada, que se cumple 0 < i ? 1A T<. En
154
www.FreeLibros.com
que posee una distribucin N (0 ,1) (ver 7.6, teorema 1). Luego X n posee para n grande
D 2X \
(
EX, y
n S*2 1
T e o r e m a 3 . El estadgrafo ----- con > (Xt (i)1 posee una distribucin
a2 n
X2 con n grados de libertad.
X -]i
D e m o s t r a c i n . Las variables aleatorias Yt = ----- ( i = l , . . . , n) son independientes
------------------------------------------------------------------------------- a
y poseen una distribucin N(0, 1). Luego, segn el corolario 1 (6.S)
nSj
arf21 ~ 7 n
n nn 7T o2
T e o r e m a 4 . El estadgrafo
a2
= (
^77 ' o
T'
V
posee una distribucin x 2
X n
T e o r e m a 5. El estadgrafo " posee una distribucin t con n - 1 grados de
libertad.
V?
La proposicin de este teorema se obtiene de los enunciados de los teoremas 2 y 4, de
que X my SJ son estocsticamente independientes y por ltimo, de la proposicin del teo
rema 7 (6.5).
2 (X -X J 2y _ L _ 2 ) ( y - y j 2,
ctj a2
timo del teorema 8(6.5).
Daremos algunas otras proposiciones sobre distribuciones de estadgrafos, sin demostra
cin, en los lugares donde las utilicemos.
www.FreeLibros.com
155
10. In trod u ccin a la T eora de la estim acin
156
www.FreeLibros.com
rm etro y e T \ considerarem os para ello una m uestra m atem tica (.V,.......... V,.) de tam ao
n de la poblacin .V. La Teora de la estim acin tiene, pues, la larca de h allar estadgrafos
adecuados ip (x ]............x,,) p a ra la estim acin de y > de investigarlos con respecto a la de
pendencia de sus correspondientes distribuciones de probabilidad del p arm etro y. Luego.
si (.x,....... x J es una m uestra concreta de tam ao n de la poblacin .V. entonces el nm ero
ip(.v,...... x). que se concibe como una realizacin de la variable aleatoria ......... V).
puede utilizarse como v a lo r e s tim a d o p a ra y0: el estadgrafp tom ado por base (p (.Y,.........Y)
se denom ina en este con texto un estimador (para y). Por tanto, un estim ad or es una va
riable aleatoria, cuyos valores pertenecen al conjunto T de los posibles valores del p ar
m etro; un valor estim ado es un nm ero real (e F ).
Para diferenciar las estimaciones que en el caso particu lar proporcionan nmeros (pun
tos sobre el eje real), de las llam adas estimaciones por intervalo, que se introducirn ms
tarde, denom inarem os a las prim eras estimaciones puntuales. N aturalm ente, como estim a
dores puntuales se aspira u tilizar estadgrafos que proporcionen una aproxim acin lo " m e
jo r posible del p arm etro a estim ar, sobre la base de sus propiedades terico probabils-
ticas.
a (T;
posee el valor esperado y('y= y), y se cumple que D 2 y = ----- . Sobre la base de la de-
n
sigualdad de Chebyshev (ver 7.1, corolario 1) se cum ple p a ra todo e > 0 la relacin
ne2
o sea, lim P (|y -y |< e ) =1
157
www.FreeLibros.com
puntual para un parmetro desconocido no se obtienen automticamente proposiciones
acerca de la exactitud de los valores estimados (si, por ejemplo, el estadgrafo utilizado
como estimador es una variable aleatoria continua, entonces la probabilidad de que la es
timacin proporcione el valor verdadero del parmetro es igual i cero. Esto no significa
que cuando se halla un valor estimado este no pueda estar situado muy cerca del valor
verdadero del parmetro, lo cual es de esperar incluso en el caso en que n > > 1 ). Ahora,
si se desean proposiciones sobre la exactitud o si el tamao n de la muestra es pequea,
planteamos la tarea de construir, sobre la base de una muestra matemtica (A',,..., X J ,
un intervalo J(XV ..., X J que contenga al parmetro desconocido con una probabili-
dad determinada de antemano (por lo general, cercana a un o). Los puntos extremos de
este intervalo dependen de las variables de la muestra X v .... X por tanto, son ellos mis
mos variables aleatorias. U n intervalo J(XV ..., X J aleatorio en este sentido, se denomina
estimador por intervalo de confianza o intervalo d e confianza. Para una muestra concreta
(*,, ..., x J se obtiene, sobre la base de un intervalo de confianza J(X ,,..., X J , un
intervalo J(xv xJ denominado intervalo estim ado concreto para el parmetro
desconocido. Las estimaciones por intervalo deben, por una parte, proporcionar interva
los estimados concretos lo ms pequeos posibles y por otra, deben contener al parme
tro desconocido con una probabilidad lo ms cercana a uno.
En los epgrafes 10.5 y 10.6 nos ocuparemos, detalladamente, de los estimadores por
intervalo; los epgrafes que siguen estn dedicados a los estimadores puntuales.
E y Y =Y (yer) (1)
La validez de (1) se exige para todo y el"; con esto se cumple (1) en particular para y0,
el valor verdadero del parmetro.
1S8
www.FreeLibros.com
se cumple (ver 5.3 (3)) que
.... X J = n =
n 2 2
A
para el estimador y=2<p(A'1, .... .Y,) = 2A" se obtiene de aqu que
Por tanto, para los estimadores insesgados y de y se cumple que bn(y) = 0 para todo
y e r . La variable aleatoria y Y se llama error aleatorio de y y la variable aleatoria
yn- y = ( y ii yyn) ->-(yYy), que se obtiene de la suma del sesgo de yn con respecto a y y
/\ ^ # A
el error aleatorio de yn, indica la desviacin aleatoria del estimador y de y.
0 para x ^ O ,
F.t (x ) = para 0 $ y,
y
1 para y.
obtenemos
0 para 0,
Gy(x)
1 para x > y.
y con esto,
gx)
y"
159
www.FreeLibros.com
Para ry se obtiene entonces que
,?= I x g (x )d x = In d x = ^ y
Jo r n+ l
A
y para el sesgo bn(y) de y con respecto a y, tenemos que
a n y
b(y) = E yyy = ------- y y ---------- (y > 0).
n+l n+l
Observemos que lim b (y) = 0 y, por tanto, se cumple que lim E yyn= y para todo y.
(En caso de que se cumpla (3) para un estimador y, se dice tambin que yn es asintti-
camente insesgado.)
aqu es P r(| y -y | > e ) la probabilidad del suceso ( |y - y |> e)> calculada bajo la suposicin
de que y es el valor verdadero del parmetro. (En caso de que se cumpla (4) para un es
timador y. se dice tambin que y es (dbilmente) consistente.)
Por consiguiente, la consistencia de una sucesin de estimadores significa que existe una
convergencia en probabilidad. Las condiciones suficientes para la consistencia, menciona
das en el teorema siguiente, se pueden verificar con frecuencia ms fcilmente que (4).
P j \y - y \> e )< 7-
160
www.FreeLibros.com
A hora, se cum ple que
, ( Y - Y ) 2= , ( Y - , Y . - ., Y, - Y ) 2
= ,[(-/ - yy ) 2+ 2 ( y - E j J (.,y , - Y ) + ( , Y , , - Y ) 2]
= , ( Y - yY ) 2+ 0 + ( Yy - y ) 2
= D ; y + ( ; / - Y ) 2.
Si las condiciones nom bradas en el teorem a se satisfacen, entonces resulta de aqui direc
tam ente que lim y (y - y ) 2= 0 y con esto lim Pr(|y - y |> e) =0.
= n d x -( yY = Y2- ( y )'
y" ^ m+1 ' n + 2 ' + 1'
y2.
(n + l ) 2( + 2 )
Luego, para la sucesin (y), y=mx (Af,, .... X j se satisfacen las condiciones nombra
das en el teorema 1, y con esto la sucesin (y,) es tambin consistente.
A A
D e f in ic i n 5. U na sucesin (y) de estimadores y para y se denomina fuertem ente
consistente si se cumple que
Si para una poblacin X existe el valor esperado EX. entonces la sucesin (y),
=*=
" 7=1
es una sucesin de estimadores fuertem ente consistente para y = E X . sobre la base de la Ley de los gran
des nmeros de Kolmogorov (ver 7.4. teorema 6 ).
Con las definiciones siguientes tendremos distintas posibilidades para comparar diver
sos estimadores insesgados, por medio de sus varianzas en relacin con un mismo proble
ma de estimacin. Para ello designe el conjunto de todos los estimadores insesgados pa
ra y, sobre la base de una muestra matemtica de tamao n con varianza positiva finita;
A A A A
por tanto para Y ,e r n se cumple que ry=y y que 0 < D 2y < ~ para todo y e I\
www.FreeLibros.com
D e fin ic i n 6. Un estimador y e tn se llama mejor que un estimador 7 e, si se cum
ple que
D;yn* D-y (yeT). (6)
La razn D 2yn:D 2yn indica el grado en que y es mejor que yn.
E jem p lo 5. Consideremos de nuevo la situacin ilustrada en el ejemplo 1 y compa
remos los estimadores
~ 2 SH .. a + l
y=2X = > X, y y= mx U , ........X}.
n n
Y2
Eyy=Y, D;y = -
n(n+2)
(ver ejemplos 2 y 4).
Luego, ambos estimadores son insesgados y poseen una varianza finita para todo
y>0(Yef, Y e f ) .
En virtud de
D 2y = = D % (y > 0 ),
n(n + 2) 3n
el estimador y es mejor que el estimador y. (Se debe reflexionar otra vez sobre la sig
nificacin de ambos estimadores, desde el punto de vista del contenido, para este proble
ma de estimacin.) El grado en que el estimador y es mejor que el estimador y tiene el
valor
Dy y* "("+2) _ 3
D 2y y1 n+2
3n
y es, por tanto, independiente de y. Para n - 4 se obtiene, por ejemplo, quedichogrado
www.FreeLibros.com
Luego, un estimador eficiente es el estimador con menor varianza en el conjunto f , de
estimadores considerado.
Bajo condiciones bastante generales para la distribucin de probabilidad de la pobla
cin considerada,
A A
se puede indicar una cota inferior positiva
A A
para las varianzas de los es-
timadores Y e r n. Si se ha encontrado un estimador Y Jet,,, cuya varianza es igual a esta
cota inferior, entonces y* es evidentemente un estimador eciente. A continuacin trata
remos esta problemtica de modo ms exacto.
Sea X una variable aleatoria, cuya distribucin de probabilidad depende de un parmetro yeT. Su
pongamos que X posee, para cada y e r , una distribucin continua, y designemos con / Tla densidad co
rrespondiente. Adems, supongamos que la funcin y (x) (yeT) es dos veces continuamente diferen-
ciable con respecto a y para todo x e R 1 y que el conjunto {x: / y (x) > 0 } es el mismo para todo y e r .
T e o r e m a 2. Para todo estimador y,er se cumple, bajo las condiciones de regularidad nombradas,
la desigualdad
,A 1
D ;y> -------(y eH (9)
(y)
, / d l n f (AT) \
/(y) =nD> ( -------1----- 1 (10)
dn
La desigualdad (9), que proporciona para un estimador y dado una proposicin acerca de su exac
titud, se denomina en la literatura desigualdad de informacin o desigualdad de Rao-Cram er (en el m
bito de los paises de habla inglesa) o desigualdad de Frchet-Darmois (en los pases de lengua francesa).
La magnitud dada por la expresin (10) se denomina informacin de Fisher; ella es una medida para
la informacin contenida en la muestra sobre el parmetro que se debe estimar, y depende, en general,
tanto de y( com o del tamao n de la muestra. En particular, extraemos de la expresin (10) que.
bajo las condiciones adicionales halladas, las varianzas de los estimadores y de una sucesin de esti
madores insesgados pueden converger hacia cero a lo sumo en el orden .
E je m p lo 6 . Supongamos que X posee una distribucin N(y., o j ) ; sea n desconocido y oj; conocido.
Hagamos y = n y T = R 1. Entonces se cumple que
1 2a*
f p t ) = = e ( - - < x < , y e R*),
y se satisfacen las condiciones adicionales indicadas anteriormente, para esta poblacin. Para /(y) ob
tenemos, en virtud de D* X=<s%, que
/ - . < > ! ( ! oS ? L ) . d ; ( ( .
' dy ' 'rfy ' 2o ' '
V 4 ) 0q "
y con esto se cumple para todos los estimadores insesgados yn para y que
Para el estimador y= 2 x cumple que Eyy=y y que D)y = (ver para ello el ejem
=' "
po del epgrafe 10.1). Luego y= ^ X es un estimador eficiente para y.
163
www.FreeLibros.com
Queramos cerrar esta problemtica con algunas otras proposiciones interesantes sobre la desigualdad
de Rao-Cramer.
a 1 V *
y y= B{X) es un estimador insesgado para Y, entonces se cumple que
n Tf
2 A 1
d ] y = -------,
IJM
o sea, y es un estimador eficiente para Y-
i (yx Y' X* r \
f x ) = - - _ .... e = exp I ------ -------- - ln ^ 2* a 0 I
VS H 2og /
y y2 i x2 \
timador
( ^(Y) = , B(x) = x , C(Y) = --------, D(x) = - l n y 2 n o0= ------------- I. Para el es-
2o /
--------------- V ^ *---------------------------------------------------------------------------------------
ir fT
se cumple que E yyn= y. Por tanto, sobre la base de la proposicin 2 del teorema 3, y es un estimador
eficiente para y (esto lo hemos verificado ya directamente en el ejemplo anterior) y en virtud de la pro
posicin 3, Y es el nico estimador insesgado eficiente para y.
Muchos de los estimadores utilizados comnmente poseen, para un tamao de la mues
tra suficientemente grande, una distribucin aproximadamente normal. Precisaremos este
comportamiento en la definicin siguiente.
A A A
D e f in ic i n 8. Una sucesin (Y) de estimadores TieT n para y se dice que est distribui
da normalmente de form a asinttico, si se cumple que
www.FreeLibros.com
E je m p lo 8 . Sea A un suceso aleatorio que se presenta en el m arco de un experimento
aleatorio con la probabilidad p: p sea desconocida (0 < p < 1).
Consideremos la variable aleatoria X.
f l . en caso de la ocurrencia de A,
lo, en caso de la ocurrencia de A.
(ver 4.5 , teorema 4 ): luego (y,) es una sucesin de estimadores para y = p = P (A ) dbilmen
te consistente y fuertemente consistente tambin (ver 7.3, teoremas 1 y 6 ). D el Teorema
integral de D e M oivre-Lapiace (ver 7.5, teorema 1) se obtiene directamente
( - o o < x < = , O < y < 1), es decir, la sucesin (y) posee una distribucin asintticamente
normal.
www.FreeLibros.com
165
El punto de partida para la exposicin de este mtodo es una variable aleatoria X. cuya
distribucin de probabilidad depende de un parmetro yeT. En el caso de una variable
aleatoria continua X, designemos con / ( x) la densidad de X en el punto x, bajo la su
posicin de que y es el valor verdadero del parmetro; en el caso discreto sea
f y(x) = Py(X = x ). Adems, sea (X i....... X J una muestra matemtica de tamao n de la po
blacin X , es decir, un vector aleatorio -dimensional, cuyas componentes son indepen
f [ / T(jc1) = ^ J f 1= x 1........ X = x J
'=i
Por tanto, segn las explicaciones que se dieron anteriormente., L(xt........ x; y) indica
en el caso discreto la probabilidad de que la muestra matemtica (X, .... X J tome el va
lor (x,, ..., x) (bajo la suposicin de que y es el valor verdadero del parmetro); en el
caso continuo, L(x,, ..., x n; y) indica el valor de la densidad de la muestra matemtica
(Jif,, . . . , X J en ( X j , . . . , x J , bajo la misma suposicin.
d
L(x,, ..., x; y) = 0 ,
dy
d
sino de la ecuacin (en muchos casos ms sencilla) ln L (x v ..., x; y) =0.
dy
166
www.FreeLibros.com
es conocida como ecuacin de verosimilitud (Likelihood -Equation) de la muestra concreta
(x,, *)
Si se sustituyen en la solucin de esta ecuacin los valores x, de la muestra concreta por
las variables A', de la muestra ( i = l , n), se obtiene un estimador yn= q>(Xv ..., X J .
0 para x ^ 0
ye '> para x>Q .
T T T T -'I*
L(x,........x,; y) = J J / r(x,) = J | y e ' '= y !' e ->
1=1 1=1
y de aqu
ln L(x ..., x; y) =w ln y - y ^
1=1
d n
ln L(x ..., x; y )= > x ,= 0 .
dy y T*,
d2 n
ln L(x ..., x ' y) ------ ---------------- < 0
dy2 y2
167
www.FreeLibros.com
muestra. Si sustituimos ahora los valores de la muestra, por las variables correspondien
tes, obtenemos como estimador mximo verosimil para y
Sea (x,, ..., x j una muestra concreta de tamao n de la poblacin X. Para la funcin
de verosimilitud de esta muestra se obtiene
i
L(x ..., x.; y) = f t / | W = [ - ^ 7 e -y= e y y -'
i= i i-i x i!
y de aqu
168
www.FreeLibros.com
Sin embargo, en el marco de nuestra exposicin no podemos tratar estas proposiciones
ms detenidamente.
Queremos concluir nuestras explicaciones sobre el problema de la construccin de es
timadores puntuales con algunas observaciones sobre el mtodo de los momentos.
Sea de nuevo el punto de partida una poblacin X . cuya distribucin de probabilidad depende de un
parm etro y e l-; adems sea (X t, .... X ) una m uestra matem tica de tam ao n de la poblacin X . Su
pongamos que X posee momentos iniciales hasta de orden k. 1 (ver 4.3, definicin 3 y 5.2, defini
cin 3). Estos momentos iniciales sern entonces, por lo general, funciones de y e r
Ahora queremos suponer que en la relacin (3) se puede despejar unvocamente y para j = j .
(4)
El principio de estimacin sobre el cual se basa el mtodo de los momentos consiste en sustituir la
variable m h en cada ocasin, por el estadgrafo - Jtf.). De esta forma se obtiene por medio de
E je m p lo 3. Supongamos que X posee una distribucin exponencial con el parm etro a; a sea des
conocido . Hagamos y = a , y > 0 . Entonces se cumple (ver S.S, teorem a 1) que
y
y con esto
y= =j7 (,).
m.
A 1
p ara y. (Por tanto, en este caso se origina el mismo estimador por el mtodo de los momentos que por
el mtodo de mxima verosimilitud, ver ejemplo 1.)
(Otro estimador por el mtodo de los momentos -en realidad, ms complicado y tambin menos con
veniente en sus propiedades- es el que se obtendra sobre la base de
m J= E yX * = D j X H E , X ) >= 1 + - = - = f y ) ;
Y1 Yy1
i V*
Y1
es decir,
www.FreeLibros.com
169
y entonces
7-.= ---------r-
X]
H?
La sencillez del mtodo de los momentos habla en m uchos casos a favor de su aplicacin prctica;
no se necesita m s que una relacin funcionrl entre el parm etro y un m omento inicial que se pueda
despejar de forma univoca, y solo se utilizan estadgrafos del mism o tipo. A decir verdad, desde el pun
to de vista terico no se conoce todava m ucho acerca de los estim adores por el mtodo de los momen-
tos. En esencia, se sabe solo que los estadgrafos que sustituyen los momentos iniciales son estimadores
de los momentos iniciales insesgados, fuertem ente consistentes y con una distribucin asintticam ente
normal.
x,---------------------------------------------------
n
170
www.FreeLibros.com
tribucin aproxim adam ente N l y, I (ver la observacin 2 despus del teorem a 2
A V * '
(9.4)), y, por consiguiente, (y) posee una distribucin asintticam ente norm al (ver 10.2,
definicin 8).
En especial obtenemos con (1) estim adores puntuales p a ra el parm etro u de una va
riable aleatoria con distribucin norm al y p a ra el parm etro X de una distribucin de
Poisson.
a) na= E X conocido
Como estim ador puntual yn p a ra y utilizarem os la m edia aritm tica de los cuadrados de
las desviaciones de las variables de la m uestra X l(i = l, n) del valor esperado (co
mn) H0,
= S *= > ( * ,- H 0) 2. (2)
" T
A
El estim ador y es insesgado,
,= ^ = (* ,- x y (3)
n- 1 T
como estim ador pun tu al p a ra y.
El estim ador (3) es un estim ador insesgado p ara y. Con esto proporciona (3) un esti
m ador p u n tu al insesgado -y por lo dem s tam bin consistente- p a ra el parm etro a 2 de
una variable aleato ria con distribucin norm al, cuando el p arm etro u es desconocido.
O b s e r v a c i n . El estim ador puntual dado por (2) no es utilizable aqu, ya que en (2)
aparece p ara el caso considerado un parm etro desconocido. Si se sustituye este por Xn,
entonces se obtiene con (2) un estim ador no insesgado p a ra y, pero s asintticam ente in
sesgado.
! 71
www.FreeLibros.com
ncs Independientes de tuMnismo experimento, en el cual el suceso A tiene la probabilidad
p. El estimador puntual y, sobre el cual se basa este procedimiento fue investigado en 10.2
(ejemplo 8 ); este se mostr como un estimador insesgado para p y all se estudi tambin
que la sucesin (y.) es consistente y posee una distribucin asintticamente normal.
(4)
En el caso de una muestra concreta ((x,,?,), ...,(*, y j ) se obtiene como valor estimado,
utilizando este estimador puntual para el coeficiente de correlacin, el coeficiente de co
rrelacin emprica
(5)
172
www.FreeLibros.com
sobre la independencia de variables aleatorias) son tareas parciales del llamado anlisis
de correlacin, de un procedimiento de anlisis estadstico, que desempefta un gran papel
en los distintos campos de aplicacin de la Estadstica matemtica. En el marco de nues
tra introduccin no podemos tratar esto de forma ms detallada. Solo advertimos (sin de
mostracin) que, en el caso de un vector aleatorio (X , Y) con distribucin normal, se cum
plen las proposiciones
(1 -p V
E , R ~ p y D\ R ~ (n l).
n
e= m n PJJiX,........X J * y ) (1)
se denomina coeficiente de confiabilidad del intervalo de confianza J(XV ..., X J .
~Py (JVC,........X J 3 7 ) 1 - a (y eH (2 7
o sea, si se cumple que e > 1 a.
La probabilidad de que el intervalo aleatorio J(XV ..., X J contenga al valor y, calcu
lada bajo la suposicin de que y es el valor verdadero del parmetro, tiene al menos el
valor 1 - a para un intervalo de confianza con el nivel de confiabilidad 1 - a . Aqu se exige
la validez de (2) para todo y e r ; con esto se cumple (2) en particular para yv el valor ver
dadero del parmetro.
173
www.FreeLibros.com
E je m p lo 1. Supongamos que la variable aleatoria X est uniformemente distribuida
sobre el intervalo [0,], >>0; b sea desconocido. Hagamos y = b y T = {y: y > 0 }. Quere
mos indicar para y un intervalo de confianza con el nivel de confiabilidad 1 - a (0 < a < 1,
fijo). Para ello utilicemos el estimador puntual y = mx ..., X ) (ver ejemplo 2
(10.2)). Fijemos el intervalo aleatorio en la forma
(En principio esto es algo arbitrario, pero razonable.) Ahora determinemos 8, y h v de mo-
do que se cumpla la desigualdad Pl(J(Xi........X J av) 5* 1 - a para todo v e f . Se cumple que
0 para 0,
( ) para 0 < y,
1 para x > y
V i
ces se cumple que
Py(J{Xi........X J By) =1 - a j - a j = l - a ,
osea,
A A
con x mlJ=m x {x,, ..., x j (ver fig. 46 a). Para a ,= 0 , a 2= a se obtiene el intervalo esti
mado concreto (ver fig. 46 b),
www.FreeLibros.com
y p a ra a 2 0, a I a se obtiene el intervalo estim ado concreto (ver fig. 46 c)
J x v ..., x) = ( y : ----- +
J {x r..,x J
b -t-
v 1 Figura 46
6 =P1' W X l, X J jy J . (3)
www.FreeLibros.com
El valor B(y, y ) de la funcin de bondad B en el punto (y. y") x T indica, por consiguiente, la pro
babilidad de que el intervalo de confianza considerado contenga al parmetro y \ calculada bajo la su
posicin de que y es el valor verdadero del parmetro. Luego, se cumple siempre que O B(y. y") S 1.
Si J(X........X J es un intervalo de confianza con el nivel de confiabilidad 1 - a, entonces se cumple que
B (y, y ')S 1 - a para todo y e l\
con el nivel de confiabilidad 1 - a , dado en el ejemplo 1. Para y > 0 , y '> 0 se cumple que
y
para y 4 y '
Observemos que se cumple que B t (y, y') < B t(y, y ) = l - a para todo y > 0 , y > 0 con y^ y'.
La propiedad hallada por ltimo en el ejemplo 2 nos dice que todo valor falso" del parmetro est
contenido en el intervalo de confianza con una probabilidad menor que para el valor verdadero de este,
independientemente de qu valor del parmetro es el verdadero. Expresaremos este hecho de forma ge
neral en la definicin siguiente.
176
www.FreeLibros.com
D e f i n i c i n 4 . U n intervalo de confianza J (X t........ X j se denom ina adm isible, si para la funcin
de bondad B se cum ple que
E j e m p lo 3 . Como continuacin del ejemplo 1 considerem os el intervalo de confianza (ver fig. 46c)
A
y.
U*........x j =
con el nivel de confiabilidad 1 - a , que se obtiene del intervalo de confianza J(XV .... X j con el nivel
de confiabilidad 1 - a , deducido en el ejem plo 1, a travs del paso (formal) al lim ite a , -*a. Para la fun
cin de bondad correspondiente se obtiene que
para 0 *cy'-
Bj(Y, YO =
para y
(Observemos al margen que JJJCV .... X j no es admisible; por ejemplo, se cum ple que
Y
B( Y, y ' ) = l > B , ( y , Y )= l - a para todo (Y, Y") con Y > 1 , Y > 0 ).
\J l - a
Si comparamos esta funcin de bondad con la funcin de bondad B , del intervalo de confianza
177
www.FreeLibros.com
habilidad de un suceso aleatorio y la funcin de distribucin de una variable aleatoria. Se
recomienda al lector que reflexione acerca de la significacin de los extremos del intervalo
de confianza (limites de confianza), que motive con esto la sustitucin qu se hace en cada
ocasin para el intervalo de confianza y que investigue la influencia de a, n y, dado el
caso, de otras magnitudes caractersticas.
a) y= m o 2- a l (conocida)
( 1)
= l - a 1- [ l - ( l - a 2)] = l - ( a 1+ a 2) = l - a .
(Aqu fue utilizado el hecho de que para una variable aleatoria con distribucin N (y, cr2) ,
---------------------------- r X - y -------------------------------------------------------------------------
la variable aleatoria yn ----- posee una distribucin iV(0 1), ver en 9.4 la primera obser-
Observemos que la longitud (en este caso no aleatoria) del intervalo de confianza es
igual a ( z,_a+ z,_aj 2_; ella se hace mnima para a j = a 2= , es decir, para el lla m a d o
yjn 2
intervalo de confianza simtrico.
178
www.FreeLibros.com
b) y = n , o 2 (desconocida).
Dem ostracin
fl(Y, Y) = P J (X V ..., X J 3 y)
xy
< ' -u i- ,
= 1 - a , - [ l - ( 1 - a , ) ] - l - ( 0 , + dj) = 1 - a .
(Aqu fue utilizado el hecho de que para una variable aleatoria con distribucin N(y. a 1), la variable
Jf-Y
aleatoria ------ pos ee una distribucin t con n - 1 grados de libertad, ver 9.4, teorem a 5.)
Si
a, = a , = se hace m nim o.
2_____________ _____________________________________
c) y = ct2, H=H0 (conocida)
J (X V......... X ) = [ 1 con s : = 2 W
D em ostracin
( nS*!
B(Y, Y) =PJJ(Xl.......X J 3Y) =P, l ------------------------ Y?: ---------- I
X .l- , X. a,
( \
= Py \ K . a ------ X ; i ^=1 - a , - a 2= l -a .
(Aqu fue utilizado el hecho que para una variable aleatoria X con distribucin jV(h . Y), la variable
aleatoria ------- posee una distribucin x 2 con n grados de libertad, ver 9.4, teorema 3.)
7
www.FreeLibros.com
179
d) y = o J, n (desconocido)
*r,..... = [< ^ ! L .
L x L .m - ., x.1;a, j
(Aqui fue utilizado e l hecho de que para una variable aleatoria con distribucin A ' n , y ) , l a variable
( n - 1 ) Sj
aleatoria ------------- posee una distribucin y* con n - 1 grados de libertad, ver 9.4, teorem a 4.)
M = F '{A ) = J
180
www.FreeLibros.com
Renunciaremos a la demostracin de esta proposicin. Los extremos del intervalo p,(w)
y pjtm) pueden ser tomados de tablas y diagramas para a especiales (a = 5%, a = l% ) y n
no muy grandes (n < 30). Para n mayores se utilizan frmulas para el clculo de los lmi
tes de confianza que se obtienen del teorema siguiente.
2M +z- z
2(" +zU )
/
n+ r
' T>r
2
La demostracin de este teorema se base esencialmente en el Teorema Integral de De
Moivre-Lapiace (ver 7,5, teorema 1), segn el cual se cumple en particular que
/i M -ny
lim P, 1 = 1 -a .
f)
De aqu se obtiene, despus de algunos clculos, los lmites de confianza indicados en (9)
y ( 10).
Ilustraremos el teorema 6 con un ejemplo numrico.
181
www.FreeLibros.com
el problema de la estimacin por intervalo de confianza de la probabilidad del suceso
aleatorio (X < x ). Asi. este se puede tratar, en principio, con los mtodos expuestos en
1 0 .6 .2 .
N o obstante, queremos explicar otra posibilidad para el tratamiento de este problema. Esta se basa
sobre la estrecha relacin entre la funcin de distribucin empirica W a de una muestra matemtica
(JT,,..., X J de tamao n de la poblacin A" y la funcin de distribucin F de esta poblacin, aclarada
en el epgrafe 9.3. Para ello supongamos que F es continua.
J X V ..., X )= W n( x ) ^ , w jx ) + ~ r ( 11)
J yjn yn L
considerado como intervalo de confianza para y = F (x ), se cumple que
(o sea, ( 1 1 ) es un intervalo de confianza con el nivel de confiabilidad 1 - a para n - . >); aqu y es so-
lucin de la ecuacin
f c ( y ) = ] j ( - l ) V 2*= l - a . (13)
D e m o s t r a c i n . Se cumple que
lim Py (Jx(Xv ..., X J sy) = lim P., '.(*) yaJ= < y< w n( x )+ ya \
-J= I
yjn V"
= lim Py f \/ | W n{x) -y |< y )
= K (y J = 1 - o ;
aqui hemos utilizado el teorema 3 (9.3) (que a decir verdad no hemos demostrad en este libro).
Para una muestra concreta (x,, ..., x j se calcula la funcin de distribucin emprica correspondiente
w (ver 9.3, definicin 1) y se utiliza -suponiendo un tamao de la muestra suficientemente grande
182
www.FreeLibros.com
11. Introduccin a la teora de la docimasia
de hiptesis
183
www.FreeLibros.com
(x,........ x), entonces se tomar con ayuda de una dcima la decisin *>se rechaza la hi
ptesis o la decisin se acepta la hiptesis . (Advertimos expresamente que la decisin
se acepta la hiptesis no significa que ella sea correcta; ver tambin 9.1.) Luego, una
dcima se puede caracterizar en principio por el conjunto de todos los (x,, ..., x), que
provocan la decisin se rechaza la hiptesis . Este conjunto se denomina regin critica
o regin de rechazo (de la hiptesis considerada).
X ~ T >2
* = {(* .... X j \n
y se cumple que:
184
www.FreeLibros.com
Densidad de T, en el
caso que H es verdadera
(distribucin N ( 0 ,1 ) )
a
2
Figura 47
La probabilidad de que se rechace H: y0- y * es igual a a -en el caso de que H sea ver
dadera. Aqu no hemos re p a ra d o en la probabilidad de que la hiptesis H: y0=Y* no se
rechace en el caso de que sea falsa-, o sea, no hemos p restad o atencin a Py ( |r |< z )
2
p a ra y0*y*. Por tanto, con el procedim iento indicado com probam os slo si la hiptesis H
es com patible con la m uestra o si existen diferencias significativas.
www.FreeLibros.com
servar en el establecimiento de la regin critica, queremos considerar los posibles errores
en el procedimiento de decisin que se realiza en el marco de una dcima:
s u p (Py (* ,, ..., X )e K ) ;
L _J i -
"V , r r0 . v
j- Figura 48
r
Por tanto, el valor de la funcin de potencia en el punto y (e r ) indica la probabilidad
de que la hiptesis H 0 se rechace, calculada bajo la suposicin de que y es el valor ver-
dadero del parmetro. Las probabilidades de comete r errores de primer tipo se describen
por medio del grfico de G sobre r o, las probabilidades de cometer errores de segundo tipo
por medio del grfico de 1 - G sobre r \ T 0.
E je m p lo 1 . Calculemos la funcin de potencia G de la dcima indicada en el epigra
fe 11.1 de la hiptesis H 0 : y0=y*, para una poblacin X con distribucin N (y, o2) y con
y0 desconocido y o 2 conocido. Para y e r = R 1 se cumple que
186
www.FreeLibros.com
= i - p 7(|r |< z _.)=i - p A - z < ^ x J L <z \
2 V 2 2 /
= 1- pA - z a - f n y^ < f n ^ l < z - f n y^ - )
v 2 ct0 o0 2 a0 '
Observemos ahora que para una variable aleatoria X con distribucin N{y, cr), la variable
y
Vn y
posee una distribucin JV(0,1) (ver en 9.4 la observacin 1 despus del
o
teorema 2 ), de modo que con $ ( - * ) =1 (x) (ver 5.4 (15)) obtenemos (fig. 49)
G(y)
v 2 CT / v 1 2 cr
y* Figura 49
G (y )= < -z _ _ )+ * (-
187
www.FreeLibros.com
Posible grfico de una funcin
de potencia de una dcima de hiptesis
D e f i n i c i n 3 . Una dcima K de //: y0e r o con la funcin de potencia G se llama adm isible, si
se cumple que
Si H es una hiptesis simple (//: y0=y*>, entonces una dcima de / / 0 es. segn definicin, admisible
si se cumple que
Luego, para una dcima admisible de H la probabilidad de que se rechace H 0 siendo H una hip
tesis falsa, no es menor que para el caso en que H< sea una hiptesis verdadera, hablando sin mucha
precisin.
o 27 V o0 27
Se verifica fcilmente que se cumple
G(y) +1>( ^ )= C (y * )= a
"2 '2
pura todo y y*, es decir, que la dcima tomada por base es admisible (fig. 4 9).
G ,( y ) ? G jfy ) ( Y e r \ r ) . (5 )
Si Af, es mejor que K, entonces la probabilidad de que se rechace la hiptesis H 0 para la dcima K v
calculada bajo la suposicin de que yer\T0
es el valor verdadero del parmetro, es para todo y seme
jante al menos tan grande como para la dcima K, o -hablando sin mucha precisin- la probabilidad
de rechazo de una hiptesis falsa es para K , al menos tan grande como para K.
En todas las consideraciones hechas hasta ahora, hemos tomado por base un tamao de la muestra
constante. Radica en la naturaleza de la situacin el que se puedan hacer proposiciones, por lo general
ms confiables, a medida que crece el tamao n de la muestra: ms confiables en el sentido de una dis
minucin de las probabilidades de cometer errores de primer y segundo tipos. Por ello se investigan su-
188
www.FreeLibros.com
cesiones (K) de dcimas -en particular, dcim as de significacin con el nivel de significacin a
(0 < a < l , dado com o dato, independiente de n) en dependencia de n: por consiguiente, aqui se cumple
para las regiones criticas que K n R" (n e N ) .
Por tanto, para una sucesin consistente (Kn) la probabilidad de que se rechace H, calculada bajo
la suposicin de que y e r \T 0 es el valor verdadero del parmetro, converge cuando n - hacia 1 , o
-hablando sin mucha precisin- la probabilidad de rechazo de una hiptesis falsa tiende a 1 .
lim .I W -l im [ ( i / - , , f ) * . ( - V I l U - , , _ . ) ]
J 1 + 0 = 1 para y > y * 1
= 1 f = l para y * r ,
<0+1=1 para y<Y* )
(ver 11.2, definicin 2). Luego, en una dcima de significacin las probabilidades de co
meter errores de primer tipo (H t se rechaza, aunque H B sea verdadera) no sobrepasan un
nmero prefijado a -el nivel de significacin; errores de segundo tipo (H 0 no se rechaza,
aunque H 0 sea falsa) no se toman en consideracin. Por ello, las dcimas de significacin
se utilizan solo cuando, sobre la base de una muestra concreta (x,, ..., x j de la poblacin
X considerada, debe valorarse si una hiptesis H a sobre la distribucin de esta poblacin
es compatible con la muestra concreta (x,, x), o si se presentan diferencias significa
tivas (aseguradas estadsticamente). En este ltimo caso se rechaza H 0 sobre la base de la
dcima, en el otro nada se puede esgrimir en contra de la hiptesis H v El nivel de sig
nificacin a se debe fijar atendiendo al planteamiento concreto del problema y, en par
ticular, a las consecuencias de un error de primer tipo; aqui no se trata propiamente de
un inters matemtico. (Con frecuencia se eligen en las aplicaciones a = 5 %, a = 2 % o
o = l %.).
189
www.FreeLibros.com
En la determinacin de la regin critica K R" se procede por conveniencia, de modo
que K se describa mediante condiciones impuestas a los valores de un estadgrafo apro
piado T. M s exactamente, si <p es una funcin real definida sobre el conjunto R" y T
denota al estadgrafo ..., X J , T=<Sf{Xv ..., X n), entonces se elige para el nivel de sig
nificacin a prefijado una parte K* (lo menor posible) de la imagen de T, tal que se cum
pla que Py ( T e K * ) ^ a para todo yer,,. Para la regin crtica T= {(* ,, x j:
<p (xv . . . , x j eA!*) se cumple entonces que
El procedimiento general para realizar una dcima de significacin con el nivel de sig
nificacin a prefijado, se puede esquematizar de la manera siguiente (ver tambin el ejem
plo a continuacin):
4. Regla de decisin: Para una muestra concreta existente (x,, ..., xn)se calcula el valor
t del estadgrafo T. Si se cum ple que teK*, entonces se rechaza a H 0, en caso contrario
(ttfK*), nada hay que objetar contra H 0 (fig. 51).
190
www.FreeLibros.com
Los pormenores de una dcima, en particular, la eleccin del nivel de significacin y
de la regin critica, se deben prefijar necesariamente antes de la utilizacin de una mues
tra concreta. En caso contrario, es siempre posible -mediante una eleccin aceptable del
nivel de significacin y o mediante una fijacin ingeniosa de la regin critica- proceder
con la hiptesis segn nuestros deseos , por ejemplo, producir un rechazo si este es el
deseo del que trabaja. Est claro que para un proceder semejante la aplicacin de los m
todos de la Estadstica matemtica pierde todo sentido objetivo.
0 para x < 0,
1 para x Y*.
P r (T e K *) = P t ( T < a ) + P r ( T > b ) = a .
resulta que b = \ 1 - a , y*. Para K* = { t : t <c \[a ~ y* a t > \j l - a , y*} se cumple con esto
que Pr ( T e K * ) = a
4. Regla de decisin: Si para una muestra concreta (x,, ..., x j se cumple una de
H0: y0=Y* se rechaza; en caso contrario nada hay que objetar contra H B sobre la base
de esta dcima.
191
www.FreeLibros.com
Con esto hemos descrito totalmente una dcima de significacin con el nivel de signi
ficacin a para la hiptesis H 0: y0=y* sobre el parmetro y0 de una variable aleatoria dis
tribuida uniformemente sobre el intervalo [ 0, y0 ]. Para la ejercitacin de los conceptos
introducidos en el epigrafe 11.2 retomaremos an este ejemplo ms adelante.
La funcin de potencia Gde esta dcima est dada, como el lector puede comprobar, a travs de
GM= ( a, para y a , y ^ y i y j 1 - 0 , y,
1 - a -O ) para V 1 - 0 ! y-
entonces se cumple para la sucesin (G) de las funciones de potencia correspondientes la relacin
lim G(y) = 1 ( y * y *), es decir, la sucesin ( K * ) es consistente (ver 11.2, definicin 5).
X* de la hiptesis H 0: Y=Y*se cumple entonces que K * = { t : f < \ [ a y o i> y*} = :*,*; para la funcin de
para y* ^ Y-
Se verifica fcilmente que se cumple G,(y) i G,(y*) =o. La dcima K t es, por tanto, una dcima admisible
(ver 11.2, definicin 3). Escojamos por el contrario a ,= a y a ,= 0 , entonces obtenemos que a = 0 y que
K* = { i : t < 0 o f> Y*}= : iC,*; para la funcin de potencia G, correspondiente se obtiene que
C ,W - < i (1 a)
Y* \ / ----------
11 ^ J para \ l - a y * y .
La dcima K \ no es admisible, por ejemplo, se cumple que G \ Z y ' ) =0 <G,(y*) = a. Por lo demis,
las dcimas JCJ y K$ se pueden comparar (en el sentido de la definicin 4 (11.2)), y asi, la dcima re
sulta mejor que la dcima ATJ, es decir, se cumple que G,(y) Gy) para todo y> 0. (El lector debe re
flexionar en cada ocasin acerca de la significacin desde el punto de vista del contenido de estas propo
siciones.)
Como hablamos anunciado, queremos sealar sobre la base de este ejemplo la estrecha
relacin entre las estimaciones por intervalo de confianza y las dcimas de significacin.
www.FreeLibros.com
El intervalo de confianza J(X,........X J con el nivel de confiabilidad 1 - a , indicado en el
ejmplo 1 (10.5),
V1
contiene exactamente, para una muestra concreta (x ,........x), el valor y* para el cual la
hiptesis H0 : y0=y * no se rechaza en la dcima K* anterior con el nivel de significacin
a. (Esto quiere decir que y*e ./(x,......x ,). o sea. -------------- $ y * < ----- -------, con
V 1" 0. Vi"
193
www.FreeLibros.com
1. // : y0=y* (y* nmero real prefijado).
Esta hiptesis es, tomada rigurosamente, una hiptesis compuesta que se deberia carac-
terizr de forma ms exacta por H 0 : (y0, o) e {(V, a 2) : a 2> 0}. Si a es conocida, entonces
se trata de una hiptesis simple y se utiliza la dcima indicada en el epigrafe 11.1).
2. Para la construccin de la variable de dcima tomemos por base el estadigrafo
1
X = / X, que en 10.4.1 se mostr como estimador puntual adecuado para y0. La
" X
variable ^ n posee, en el caso en que H a sea verdadera, una distribucin / S J\
(ver 9.4, teorema 2). Estimemos el parmetro desconocido ct02 por medio del estimador
r~ x y*
variable aleatoria T = y n ------:----------
{s i
que, en el caso en que H 0 sea verdadera, posee una distribucin t con n - 1 grados de li
bertad (ver 9.4, teorema 5) (fig. 52).
Densidad de T, en el caso
que H0 es verdadera
(distribucin t con n - i
grados de libertad)
a
2
Figura 52
. a
D e aqu se obtiene para f* el percentil de orden 1 de la distribucin t con n - 1 gra
4. R egla de decisin: Para una muestra concreta (xt, ..., x) se calcula x y j j;, de aqu
r~ X y*
t = \ j n ------ --------- , y se rechaza H 0 : y0- y * si y solo si se cumple que te K * , es decir,
{si
194
www.FreeLibros.com
11.4.2 Dcima t doble
0. Sea X una variable aleatoria con distribucin JVu,,^) y Y una variable aleatoria con distribucin
AT(Uj,t^). Sean'A" y Y variables aleatorias mutuamente independientes; los nm erosn,, n. a | y a; sean
desconocidos y partamos de la condicin (La ltima condicin se verifica, dado el caso, con la
dcima F que se presenta en 11.4.4.) Adems, sean (JC,, ..., X) y (K,........ Y) muestras matemticas
de tamao m y n, respectivamente, de las poblaciones - f y f a que corresponden.
1. tf0: n, = n2
2. Variable de dcima
Yn- X m / m n ( m + n - 2)
V <"-S+(-S. m+n
J ?=- % n
m 7^7 n i=i
sm=- 5 s .- $ (y-yj1
T f n- 1
La variable de dcima T posee, en el caso en que H 0 sea verdadera, una distribucin i con m + n - 2
grados de libertad.
(Esto puede verificarse sin dificultad considerando la independencia de X y Y. utilizando los teoremas
2 y 4 de 9.4 y los teoremas 6 y 7 de 6 .5 .)
/ m n (m + h - 2)
\ j ( m - l ) s :x + ( n - l ) s 2
y
Y m+ n
Si los nmeros crf y son conocidos (no necesariamente iguales), se utiliza entonces la variable de
dcima
T=-
V L + fi
que, en el caso en que H sea verdadera, posee una distribucin N(Q, 1), y la regin crtica
K* =
195
www.FreeLibros.com
11.4.3 Dcima xJ
0; Sea X una variable aleatoria con distribucin Afl(MY*); M y Y# sean desconocidos.
1. H.y,=y*(y* nmero positivo prefijado).
2. Para la construccin de la variable de dcima tomemos por base el estadgrafo
que en 10.4.2 b) se mostr como estimador puntual adecuado para yr La variable alea
toria
T_ (n -l)S l
Y*
posee, segn el teorema 4(9.4), en el caso en que H 0 sea verdadera, una distribucin x*
con n - 1 grados de libertad.
3. Establezcamos la regin critica en la forma K * = { t : t < a o t > b ) (fig. 53) y detera-
a
nemos a y b de modo que se cumpla que P T < a ) = P i&T>b) = , y por consiguiente,
2 q g
que PyTeK*) = a . De aqui se obtiene para a y b los percentiles de orden y 1 -------,
2 2
respectivamente, de la distribucin XJ con n - 1 grados de libertad, osea, _ y
b=%1m Con esto obtenemos la regin critica 1
= . o >X*-_I;I_ .}-
Densidad de T, en el caso
que es verdadera
(distribucin X' con n 1 gndos
de libertad)
* *=(/:/< x
Figura 53
4. Regla de decisin: Para una muestra concreta (x,, ..., x j se calcula de aqui
11.4.4 Dcima F
196
www.FreeLibros.com
Adems, sean (X,........Xm) y ( y ,.......... K) muestras matemticas de tamao m y n. respectivamente,
de las poblaciones X y Y a que corresponde cada una
1. H0 : 07 = a;
2. Dcima de prueba:
con S = ( X - X J K S; = J ( K,- y j 1-
S; m -1 ^ n -1 ^7
La variable de dcima T posee, en el caso en que H 0 sea verdadera, una distribucin F con
(m -1 . n - 1 ) grados de libertad (ver 9.4. teorema 6).
3. Regin crtica:
1>F
K* = \t:t< F
Figura 54
197
www.FreeLibros.com
variable de dcima T posee, en el caso en que H0 sea verdadera, asintticamente (es decir,
cuando n <*>) una distribucin JV(0.1), sobre la base del Teorema Integral de De Moivre-
Lapiace.
3. Regin critica: K *= j f : || > z ( j (Se cumple que
V "P*(1 - P*)
= l-(l-a )= a ,
o sea, K* define para n * una dcima de significacin con el nivel de significacin a.)
4. Regla de decisin: Para una muestra concreta (x, x) ( = n-plo de los nmeros
m -np*
yj np*( 1 -p>)
198
www.FreeLibros.com
Por una dcima de ajuste entendemos, de forma general, una dcima para la hiptesis
de que la verdadera funcin de distribucin F0 verdadera (pero desconocida) de una po
blacin es igual a una funcin de distribucin F* prefijada. Se denomina dcima de ho
mogeneidad a una dcima sobre la igualdad de las distribuciones de probabilidad (dcsco-
nocidas) de varias poblaciones. Por una dcima de independencia se entiende aquella que
sirve para la verificacin de la hiptesis de que dos o ms variables aleatorias conside
radas sean mutuamente independientes.
11.5.1 P c im a de ajuste X 1
(ver teorema 1(7.5)). Se puede mostrar que la variable aleatoria (utilizada ms adelante
como variable de dcima)
en el caso en que H 0 sea verdadera, posee asintticamente (es decir, cuando n * ~ ) una
distribucin x1 con k 1 grados de libertad. (Renunciaremos a la demostracin relativa
mente difcil de esto.)
3. Si para una muestra concreta (x,, .... x), las frecuencias de clase m) halladas se di
ferencian notablemente de los valores np esperados, dada la validez de //, entonces la
variable de dcima T aceptar valores grandes y se rechazar a H 0. Por ello establezca
mos K* en la forma K* = {t: t> t * } y fijemos r*, de modo tal, que se cumple que
Como T, en el caso en que / / 0:F 0= F sea verdadera, posee asintticamente (es decir,
cuando n ) una distribucin y} con k 1 grados de libertad, se obtiene para t* el per
centil de orden 1 - a de la distribucin x 2 con fc-1 grados de libertad o sea, r*=
y con esto X* = { / : f (fig. 55).
4. Regla de decisin: Para una muestra concreta (x,, ..., x j se halla, con respecto a
la particin en clases elegida, las frecuencias de clase absolutas m {j = 1........ k). se cal
culan las probabilidades p f j = 1, ..., k) fijadas por la hiptesis //, y con esto
199
www.FreeLibros.com
Si se cumple que teK*, o sea, si
2 ------>X _i:, - 0.
7-7 "Pj
entonces se rechaza a H 0:Fa=F *, en el otro caso no.
Figura 55
0 para 0,
m -
para y > 0 .
3. Regin crtica: K* = {l:l> y 0 ), aqu ya denota la solucin de la ecuacin AT(y) = l = - a . (La pro
babilidad de que T tome valores > y a converge, en el caso en que // sea verdadera, hacia a para
n <.)
4. Regla de decisin: Para una muestra concreta (jc,........x) se halla la funcin de distribucin em
V* sup |w(jc) -F * (x ) | .
200
www.FreeLibros.com
11.5.3 Dcima de homogeneidad y}
0. Supongamos que las variables aleatorias X y Y son independientes. Denotemos la
funcin de distribucin (desconocida) de X y Y con F0 y Gv respectivamente.
1. H0:F0= G 0.
2. Construccin de la variable de dcima: Se realiza una particin de la imagen
(cmun) de las variables aleatorias X y Y en k intervalos disjuntos fj = 1, ..., k)\ aqu
fc(> 2) es un nmero natural arbitrario. S M, denota la frecuencia de clase (aleatoria) de
la clase /,, para una muestra matemtica (A',, ..., X J de tamao m de la poblacin X y
N la de la clase /, para una muestra matemtica (K,....... y ) de tamao n de la poblacin
Y, entonces la variable de dcima
201
www.FreeLibros.com
1 1 .5 .5 D c i m a d e i n d e p e n d e n c i a x 2
Se puede mostrar qae T posee, en el caso en que H0 sea verdadera, asintticamente (es
decir, cuando n ) una distribucin x : con ( r - l ) ( \ 1) grados de libertad.__________
3. Regin critica: K* = { t : i > Z(2r l)(_1);1_a} (La probabilidad del suceso (TeK*) converge
hacia a cuando n o, dada la validez de H .
4. Regla de decisin: Para una muestra concreta ((x,, y ,) , ..., (x, y j ) se hallan los n
meros nlk ( = nmero de los elementos (i,k) en la muestra),
/U1
se calcula de aqui
202
www.FreeLibros.com
entradas o tablas de 2 x 2)
203
www.FreeLibros.com
Concebimos X y Y como variables aleatorias (discretas) y queremos verificar la hip
tesis H 0 : X y Y son mutuamente independientes, con la prueba de independencia '(} (tra
tada en i 1.5.5) con el nivel de significacin a = 5%. Para nuestro ejemplo se cumple que
r = 4 , j= 3 y, por tanto, ( r - l ) ( - l ) = ( 4 - l ) ( 3 - 1 ) = 6 . Como el percentil de orden
1 a = 0 ,9 5 de la distribucin y} con 6 grados de libertad es igual a 2,6, se obtiene para
la regin crtica, K* = {t:t> 12,6}. Calculemos ahora el valor t,
22 -
i.".k
n
tro de los parntesis los nmeros y dentro de los corchetes los nmeros
n n n
| n . - -|(/= 1 , 2, 3, 4,; fc = l , 2, 3). Con esto se obtiene
6 ,5 4 2 7,0 5 J 0 ,5 1 J 18,08J 9 ,8 3 J 8 ,2 5 J
+ " + 1 - + 1 + + ........
14,54 10,95 1,51 36*08 27,17 3,75
= 7 ,0 3 + 5 ,9 4 + 2 ,7 4 + 1 ,5 7 + 0 ,6 2 + 3 ,1 2 + 2 ,9 4 + 4 ,5 4 + 0 ,1 7 + 9 ,0 6 + 3 ,5 6 + 18,16
=59,45
Por consiguiente, el valor t est situado en la regin critica y rechazamos la hiptesis
H0 de que la calificacin del examen de ingreso para estudiar Matemtica y la nota de la
prueba de nivel en la asignatura Matemtica sean mutuamente independientes. (Al mismo
resultado llegaramos tambin utilizando el nivel de significacin a = 1%; se cumple que
X l .* = 1 6 ,8 < 5 9 ,4 5 .)
204
www.FreeLibros.com
12. Tablas de algunas distribuciones importantes
Las tablas sobre las distribuciones binomial, de Poisson y normal, dadas en los epgrafes
12.1, 12.2 y 12.3, ofrecen una visin numrica sobre estas distribuciones de probabilidad.
Por el contrario, las tablas dadas en los epgrafes 12.4, 12.5, y 12.6 para las distribucio
nes de prueba de la Estadstica matemtica (distribuciones x1, t y F) contienen solamente
algunos percentiles, los cuales deben ser suficientes para la realizacin prctica de las ms
importantes estimaciones por intervalo de confianza y dcimas de significacin tratadas
en este libro. La utilizacin de las tablas se demostrar con un ejemplo.
Se puede encontrar en otra bibliografa tablas ms completas para la realizacin de pro
cedimientos de la Estadstica matemtica.
para n = l, 2......... 10, 15. 20 y algunos 0,50. Los lugares vacos significan aqui
b(k; n,p) <0,0005.
Para p > 0,50 se utiliza la relacin b(k; n.p) = b ( n - k ; n , 1 p) (ver 4.5, teorema 1, fr-
mula (4)).
Para n grandes y p pequeos con n p ^ 20, se iguala n p = k y se toma como base la re
lacin b (k;n. p) ~ p (k;X) , derivada del teorema limite de Poisson (ver 4.7, teorema 3 y
frmula (9)). Para esto se toman los nmeros p(k;k) de la tabla de la distribucin de Pois
son (ver 12.2).
Para n grandes se recomienda la aproximacin de la distribucin binomial a travs de
la distribucin normal sobre la base del Teorema Integral de De M oivre-Lapiace (ver 7.5,
teorema 1 y frmula ( 2 ) ).
205
www.FreeLibros.com
Tabla 1
n k p = 0,01 0,02 0,05 0,10 0,15 0,20 0,25 0,30 0,40 0,50
1 0 0,990 0,980 0,950 0,900 0,850 0,800 0,750 0,700 0,600 0,500
1 0,010 0,020 0,050 0,100 0,150 0,200 0,250 0,300 0,400 0,500
2 0 0,980 0,960 0,902 0,810 0,722 0,640 0,562 0,490 0,360 0,250
1 0,020 0,039 0,095 0,180 0,255 0,320 0,375 0,420 0,480 0,500
2 0,002 0,010 0,022 0,040 0,062 0,090 0,160 0,250
3 0 0,970 0,941 0,857 0,729 0,614 0,512 0,422 0,343 0,216 0,125
1 0,029 0,058 0,135 0,243 0,325 0,384 0,422 0,441 0,432 0,375
2 0,001 0,007 0,027 0,057 0,096 0,141 0,189 0,288 0,375
3 0,001 0,003 0,008 0,016 0,027 0,064 0,125
4 0 0,961 0,922 0,815 0,656 0,522 0,410 0,316 0,240 0,130 0,062
1 0,039 0,075 0,171 0.292 0,368 0,410 0,422 0,412 0,346 0,250
2 u ,001 0,002 0,014 0,049 0,098 0,154 0 ,211 0,265 0,346 0,375
3 0,004 0,011 0,026 0,047 0,076 0,154 0,250
4 0,001 0,002 0,004 0,008 0,026 0,062
5 0 0,951 0,904 0,774 0,590 0,444 0,328 0,237 0,168 0,078 0,031
1 0,048 0,092 0,204 0,328 0,392 0,410 0,396 0,360 0,259 0,156
2 0,001 0,004 0,021 0,073 0,138 0,205 0,264 0,309 0,346 0,312
3 0,001 0,008 0,024 0,051 0,088 0,132 0,230 0,312
4 0,002 0,006 0,015 0,028 0,077 0,156
5 0,001 0,002 0,010 0,031
6 0 0,941 0.886 0,735 0,531 0,377 0,262 0,178 0,118 0,047 0,016
1 0,057 0,108 0,232 0,354 0,399 0,393 0,356 0.303 0,187 0,094
2 0,001 0,006 0,031 0,098 0,176 0,246 0,297 0,324 0,311 0,234
3 0,002 0.015 0,041 0,082 0,132 0,158 0,276 0,312
4 0,001 0,005 0,015 0,033 0,060 OJ38 0,234
5 0,002 0,004 0,010 0,037 0,094
6 0,001 0,004 0,016
7 0 0,932 0,868 0,698 0,478 0,321 0,210 0,133 0,082 0,028 0,008
1 0,066 0,124 0,257 0,372 0,396 0,367 0,311 0,247 0,131 0,055
2 0,002 0,008 0,041 0,124 0,210 0,275 0,311 0,318 0,261 0,164
3 0,004 0,023 0,062 0,115 0.173 0,227 0,290 0,273
4 0.003 0,011 0,029 0,058 0,097 0,194 0,273
5 0.001 0,004 0,012 0,025 0,077 0,164
6 0.001 0,004 0,017 0,055
7 0,002 0,008
206
www.FreeLibros.com
n k p = 0.01 0,02 0.05 0.10 0 ,15 0.20 0.2 5 0.3 0 0 .4 0 0 ,5 0
8 0 0.923 0.851 0,663 0.4 3 0 0.272 0 .168 0.100 0.058 0.017 0 ,004
1 0.075 0.139 0,27 9 0.383 0.385 0 .336 0 .2 6 7 0.198 0.090 0.031
2 0.003 0.010 0.051 0.149 0.238 0.294 0.311 0.296 0.209 0 ,109
3 0.005 0.033 0.0 8 4 0.147 0.2 0 8 0,254 0.279 0 .219
4 0.005 0.018 0.0 4 6 0.0 8 7 0.136 0.232 0.273
5 0.003 0.009 0.023 0.047 0.124 0 .219
6 0.001 0 .0 0 4 0.010 0.041 0 .109
7 0,001 0.008 0.031
8 0.001 0.004
9 0 0.914 0.834 0,63 0 0.387 0.2 3 2 0.134 0 075 0,0 4 0 0.010 0.002
1 0,083 0,153 0,299 0.387 0,368 0.302 0.2 2 5 0.156 0.0 6 0 0.018
2 0.003 0.013 0.063 0,172 0.2 6 0 0,302 0.3 0 0 0.267 0.161 0 .0 7 0
3 0.001 0.008 0.045 0,1 0 7 0,176 0 ,2 3 4 0.267 0.251 0 .164
4 0,001 0,007 0.028 0.066 0.117 0.172 0.251 0.2 4 6
5 0.001 0.005 0.017 0 .0 3 9 0.074 0 .167 0.246
6 0.001 0,003 0 .0 0 9 0.021 0 .074 0.164
7 0.001 0,0 0 4 0.021 0.0 7 0
8 0 .004 0,018
9 0,002
10 0 0,904 0.817 0,599 0.3 4 9 0.197 0,107 0.0 5 6 0.028 0 .006 0.001
1 0.091 0,167 0.315 0.387 0.347 0.268 0.1 8 8 0 .12 1 0.0 4 0 0.010
2 0,004 0.015 0.075 0,1 9 4 0.2 7 6 0.3 0 2 0.2 8 2 0.233 0 .12 1 0.0 4 4
3 0,001 0,010 0.057 0.1 3 0 0,201 0 .2 5 0 0 .267 0.215 0.117
4 0.001 0.011 0 .0 4 0 0.088 0 .1 4 6 0.200 0.251 0.205
5 0.001 0.008 0,0 2 6 0.058 0,103 0,201 0,2 4 6
6 0.001 0.006 0 .0 1 6 0 .037 0. 1 1 1 0.205
7 0.001 0 .003 0.0 0 9 0.042 0.117
8 0.001 0.011 0.044
9 0.002 0.010
10 0.001
5 0 0.860 0.739 0.463 0.206 0,087 0.035 0 .013 0.005 0.000 0.000
r 0.130 0,226 0,366 0.343 0.231 0.1 3 2 0.0 6 7 0.031 0.005 0.000
2 0.009 0.032 0.135 0,267 0.286 0.231 0.1 5 6 0.092 0.022 0.003
3 0.003 0,031 0.1 2 9 0.218 0.2 5 0 0 .2 2 5 0 .170 0.063 0.014
4 0.005 0.043 0.1 1 6 0.188 0 .225 0 .219 0.127 0.042
5 0.001 0.010 0.045 0.103 0 .165 0 ,206 0.186 0.092
6 0.002 0.013 0.043 0 .092 0 .147 0.207 0.153
7 0.003 0.014 0 .0 3 9 0.081 0.177 0.1 9 6
8 0.001 0.1X13 0 .013 0.035 0.118 0.196
9 0.001 . 0 .003 0.012 0.061 0.153
10 0.001 0.003 0.024 0.0 9 2
11 0.001 0,007 0.042
12 0,002 0.014
13 0.003
14
15
207
www.FreeLibros.com
Tabla I (continuacin)
n k p = 0,01 0.02 0.05 0.10 0.15 0,20 0.25 0.30 0.40 0.50
20 0 0.818 0.668 0,358 0.122 0,039 0,012 0,003 0.001 0.000 0.000
1 0.165 0.272 0.377 0,270 0.137 0,058 0.021 0.007 0,000 0.000
2 0.016 0.053 0.189 0.285 0,229 0.137 0.067 0.028 0.003 0,000
3 0.001 0.006 0.060 0,190 0,243 0.205 0,134 0.072 0.012 0,001
4 0,001 0.013 0.090 0.182 0.218 0.190 0,130 0,035 0,005
5 0.002 0,032 0,103 0.175 0.202 0.179 0.075 0,015
6 0.009 0,045 0.109 0.169 0,192 0.124 0,037
7 0.002 0.016 0.055 0 .112 0.164 0.166 0,074
8 0,005 0.022 0.061 0,114 0.180 0,120
9 0.001 0,007 0.027 0,065 0,160 0,160
10 0.002 0.010 0,031 0,117 0.176
11 0.003 0,012 0,071 0.160
12 0,001 0,004 0,035 0,120
13 0,001 0,015 0,074
14 0,005 0,037
15 0,001 0,015
16 0,005
17 0,001
18
19
20
i*
P ( X = k ) = p { k; X) = e - \ k = 0 , 1, 2........................
k\
para algunas 20. Los lugares libres significan que p(k : X) <0,00005.
Tabla 2
208
www.FreeLibros.com
k
0.9 1.0 1.5 2.0 2.5 3.0 3.5 4,0
209
www.FreeLibros.com
I 'u h h i k o n lin u .K i n l
k
12 14 16 18 20
1 0.0001
2 0.0004 0.0001
3
0.0018 0.0004 0.0001
4
0.0053 0.0013 0.0003 0.0001
5
0.0127 0.0037 0.0010 0.0002
6 0.0255 0.0087 0.0026 0.0007 0.0002
7 0.0437 0.0174 0.0060 0.0019 0.0005
8 0.0655 0.0304 0.0120 0.0042 0.0013
9 0.0874 0.04 3 0.0213 0.0083 0.0029
10 0.1048 0.0663 0.0341 0.0150 0.0059
11 0.1144 0.0844 0.0496 0.0245 0.0106
12 0.1144 0.0984 0.0661 0.0368 0.0176
13 0.1055 0.1060 0.0814 0.0509 0.0271
14 0.0905 0.1060 0.0930 0.0655 0.0387
15 0.0724 0.0989 0.0992 0.0786 0.0517
16 0.0543 0.0866 0.0992 0.0884 0.0645
17 0.0383 0.0713 0.0934 0.0936 0.0760
18 0.0256 0.0554 0.0830 0.0936 0.0844
19 .0161 0.0409 0.0699 0.0887 0.0888
20 0.0097 0.0286 0.0559 0.0798
21 0.0055 0.0191 0.0426 0.0684 o .o W
22 0.0030 0.0121 0.0310 0.0559 0.0769
23 0.0016 0.0074 0.0216 0.0438 0.0669
24 0.0008 0.0043 0.0144 0.0328 0.0557
25 0.0004 0.0024 0.0092 0.0237 0.0445
26 0.0002 0.0013 0.0057 O'0164 0.0343
27 0.0001 0.0007 0.0033 0.0109 0.0254
28 0.0003 0.0019 0.0070 0.0*81
29 0.0002 0.0011 0.0044 0 .f2 5
30 0.0001 0.0006 0.0026 0.0084
31 0.002 0.0015 0.0053
32 0.0001 0.0009 0.0034
33 0.0001 0.0005 0.0020
34 0.0003 0.0013
35 0.0001 0.0007
36 0.0004
37 0.0002
38 0.0001
210
www.FreeLibros.com
12.3 Tabla de la distribucin normal
La tabla 3 da una panorm ica sobre la funcin de distribucin > de la distribucin nor
mal estandarizada
p ara 0 ^ 3,9. Para x < 0 se utiliza la relacin O(jc) =1 (ver 5.4 (15)).
((r ,_i ) - ~ )
211
www.FreeLibros.com
Tabla 3
212
www.FreeLibros.com
X 0,05 0.06 0,07 0,08 0,09
213
www.FreeLibros.com
12.4 Tabla de la distribucin x 2
La tabla 4 contiene algunos porcentiles xi,r de la distribucin /' con m grados de libertad
(ver 5.6, definicin 2) p ara m = l. 2...... 30. 40...... 100. los cuales se u tili/an frecuente
m ente en la realizacin p rctica de las estimaciones por in ic r\a lo de confianza, indicadas
en los epgrafes 10.6.1 (c) y (d). \ de las dcimas de significacin descritas en los epgrafes
11.4.3, 11.5.1, 11.5.3 y 11.5.5 (dcima de dispersin /'. dcima de ajuste / dci ma de
homogeneidad x !- dcima de independencia x 2).
Tahla 4
214
www.FreeLibros.com
r - 0.99 0.475 0.45 0.05 0 . 0 :5 0.01
|I-/> = 0 .0 I| < 0.025t (0.05 1 '( il.9 5 l (0.975 (0.99l-
215
________ 1
www.FreeLibros.com
12.5 Tabla de la distribucin t
La tabla 5 contiene algunos percentiles tmf de la distribucin t con m grados de libertad
(ver 5.6, definicin 3) para m = 1, 2, 30, 40, 60, 120, , los cuales se utilizan frecuen
temente en la realizacin prctica de las estim aciones por intervalo de confianza, indica
das en el epigrafe 10.6.1b), y en las dcimas de significacin descritas en los epgrafes
11.4.1 y 11.4.2 (dcima t simple, dcima t doble).
Tabla 5
Ejemplo: ,,= 2 ,1 1 0
216
www.FreeLibros.com
p= 0,9 0.95 0,975 0.99 0.995
m
(1 - /> = 0 , 1 ) (0.05) (0,025) (0 . 0 1 ) (0.005)
Las tablas 6a) y 6b) contienen los percentiles F r de la distribucin F con (m,. m,)
grados de libertad (ver 5.6. definicin 4) para p-= 0.95 y p = 0.99. respectivamente. Estos
percentiles se necesitan especialmente para la realizacin prctica de la dcima de signi
ficacin descrita en el epgrafe 11.4.4 (dcima F)con el nivel de significacin a = 10% o
a = 2 % . Adems, los nmeros Fm m , r para p - 0.95 y p = 0.99 pueden tomarse de las ta
blas 6a) y 6b) en virtud de la frmula
217
www.FreeLibros.com
Tabla 6
* a 15-o.ot
3.09
a) >=0,9$ (1 -p-0. 5)
1 2 3 4 5 6 7 8 9
218
www.FreeLibros.com
10 12 15 20 24 30 40 60 120
1 241.9 243,9 245.9 248,0 2 4 9.1 2 5 0.1 251.1 2 52.2 253.3 254.3
2 1 9.40 19,41 19,43 1 9 ,45 1 9 ,45 1 9.46 1 9 .47 19,48 19.49 1 9 .50
3 8 .79 8,7 4 8,70 8 ,66 8.64 8.6 2 8 .59 8.57 8.5 5 8.53
4 5 .96 5,91 5,86 5,8 0 5,77 5,75 5.72 5 .69 5.66 5.63
5 4 ,74 4 ,68 4 ,62 4 ,56 4,53 4 .50 4 .46 4.43 4 .40 4 .36
6 4 ,06 4 ,00 3 .94 3 .87 3 ,84 3.81 3 .77 3 .74 3.7 0 3 .67
7 3.64 3,57 3 ,51 3 ,44 3,41 3 .38 3 .34 3 .30 3.27 3 .23
8 3.35 3,28 3 .22 3.15 3 .12 3,08 3 .04 3.01 2.97 2 .93
-5- 3 ,14 3 ,07 --------3 . 0 1 2 .94 - 2 .90 2,86 2.83 2.79 2.75 2,71
10 2 .98 2,91 2.85 2 .77 2,74 2 ,70 2 ,66 2 ,62 2.58 2,54
11 2 .85 2.7 9 2,72 2 ,65 2,61 2 ,57 2,53 2 .49 2.45 2 .40
12 2 .75 2.69 2,6 2 2,5 4 2 ,51 2,47 2 ,43 2 .38 2,3 4 2 .30
13 2.67 2 .60 2.53 2.4 6 2 ,42 2.38 2 .34 2 .30 2,25 2.21
14 2 .60 2 .53 2.4 6 2.3 9 2 ,35 2.31 2.27 2,22 2.18 2 .13
15 2.54 2 .48 2.4 0 2,33 2 .29 2 .25 2.2 0 2 ,16 2,11 2.07
16 2,49 2.42 2 .35 2 .28 2 ,24 2,19 2.15 2,11 2,06 2 ,01
17 2,45 2 .38 2.31 2 .23 2 .19 2.15 2.1 0 2.06 2,01 1 ,96
18 2,41 2,34 2,27 2.1 9 2.15 2.11 2.0 6 2.02 1.97 1 .92
19 2.38 2,31 2,23 2.1 6 2.11 2,07 2 .03 1.98 1.93 1.88
20 2.35 2.28 2 ,20 2.1 2 2.08 2.0 4 1 .99 1.95 1.90 1,84
21 2.32 2,2 5 2,18 2.1 0 2,05 2,01 1,96 1.92 1.87 1.81
22 2 ,30 2 ,23 2,15 2,07 2.03 1,98 1,94 1.89 1 .84 1,78
23 2,27 2 ,20 2 ,13 2.05 2,01 1 .96 1,91 1,86 1,81 1,76
24 2.25 2,18 2,11 2,03 1,98 1 .94 1 ,89 1.84 1,79 1.73
25 2,24 2,16 2 ,09 2,01 1,96 1,92 1.87 1.82 1,77 1.71
26 2,22 2,15 2,0 7 1 ,99 1.95 1,90 1 ,85 1,80 1,75 1 ,69
27 2 .20 2 ,13 2.06 1 .97 1,93 1,88 1 ,84 1 ,79 1,73 1 ,67
28 2,19 2 ,12 2,0 4 1 ,96 1,91 1,87 1,82 1,77 1,71 1,65
29 2.18 2 .10 2 .03 1 ,94 1,90 1 ,85 1,81 1,75 1,70 1,64
30 2.16 2 ,09 2.01 1.93 1,89 1 ,84 1,79 1 ,74 1,68 1 ,62
40 2,08 2 ,00 1,92 1,84 1,79 1 ,74 1,69 1 ,64 1,58 1,51
60 1.99 1,92 1,84 1,75 1,70 1,65 1 ,59 1,53 1 ,47 1 ,39
120 1,91 1.83 1,75 1 ,66 1,61 1 ,55 1,5 0 1,43 1,35 1,25
=o 1,83 1.75 1,67 1 ,57 1,52 1 ,46 1 ,39 1 ,32 1,22 1 .00
219
www.FreeLibros.com
Tabla 6 (continuacin)
b) p = 0,99 (1 - p = 0 , 0 \ )
\m ,
1 2 3 4 5 6 7 8 9
"N i 4052 4999,5 5403 5625 5764 5859 5928 5982 6022
2 98,50 99,90 99,17 99,25 99,30 99,33 99,36 99,37 99,39
3 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,35
4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66
5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16
6 13,75 10,92 9,78 9.15 8,75 8,47 8,26 8,10 7,98
7 12,25 9,5J 8,45 7.85 7,46 7,19 6,99 6,84 6,72
8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91
9 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35
10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94
11 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63
12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39
13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19
14 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03
15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89
16 8,53 6,23 5,29 4.77 4,44 4,20 4,03 3,89 3,78
17 8,40 6,11 5,18 4,67 4,34 4,10 3,93 3,79 3,68
18 8,29 6,01 5,09 4,58 4.25 4,01 3,84 3,71 3,60
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52
20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40
22 7,95 5.72 4,82 4,31 3.94 3,76 3,59 3,45 3,35
23 8 8 5,66 4,76 3,26 3,71 3,71 3,54 3,41 3,30
24 7,82 5,61 4,72 4.22 3.90 3,67 3,50 3,36 3,26
25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22
26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18
27 7,68 5.49 4,60 4,11 3,78 3,56 3,39 3,26 3,15
28 7,64 5,45 4,57 4,07 3.75 3,53 3,36 3,23 3,12
29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09
30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07
40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56
- 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2.41
220
www.FreeLibros.com
\ m ,
10 12 15 20 24 30 40 60 120
1 6056 6106 6157 6209 6235 6261 6287 6313 6339 6366
2 9 9 ,4 0 9 9 ,4 2 9 9 ,4 3 9 9 ,4 5 9 9 ,4 6 9 9 ,4 7 9 9 ,4 7 9 9 ,4 8 9 9 ,4 9 9 9 .5 0
3 2 7 ,2 3 2 7 ,0 5 2 6 ,8 7 2 6 ,6 9 2 6 ,6 0 2 6 ,5 0 2 6 ,4 1 2 6 ,3 2 2 6 ,2 2 2 6 ,1 3
--------------------4 j 4 5 5 14 37 14 20 14 0 2 13 93 13 84 13 75 13 6 5 11 1 1 46
5 1 0 ,0 5 9 ,8 9 9 ,7 2 9 ,5 5 9 ,4 7 9 ,3 8 9 ,2 9 9 ,2 0 9 ,1 1 9 ,0 2
6 7 ,8 7 7 ,7 2 7 ,5 6 7 ,4 0 7 ,3 1 7 ,2 3 7 ,1 4 7 ,0 6 6 ,9 7 6 ,8 8
7 6 ,6 2 6 ,4 7 6 .3 1 6 ,1 6 6 ,0 7 5 ,9 9 5 ,91 5 .8 2 5 ,7 4 5 ,6 5
8 5 ,8 1 5 ,6 7 5 ,5 2 5 ,3 6 5 ,2 8 5 ,2 0 5 ,1 2 5 ,0 3 4 ,9 5 4 ,8 6
9 5 ,2 6 5 ,1 1 4 ,9 6 4 ,8 1 4 ,7 3 4 ,6 5 4 ,5 7 4 ,4 8 4 ,4 0 4 ,3 1
10 4 ,8 5 4 ,7 1 4 ,5 6 4 ,4 1 4 ,3 3 4 ,2 5 4 ,1 7 4 ,0 8 4 ,0 0 3 .9 1
11 4 ,5 4 4 ,4 0 4 ,2 5 4 ,1 0 4 ,0 2 3 ,9 4 3 ,8 6 3 ,7 8 3 ,6 9 3 ,6 0
12 4 ,3 0 4 ,1 6 4 ,0 1 3 ,8 6 3 ,7 8 3 ,7 0 3 ,6 2 3 ,5 4 3 ,4 5 3 ,3 6
13 4 ,1 0 3 ,9 6 3 ,8 2 3 ,6 6 3 ,5 9 3,51 3 ,4 3 3 ,3 4 3 ,2 5 3 ,1 7
14 3 ,9 4 3 ,8 0 3 ,6 6 3 ,5 1 3 ,4 3 3 ,3 5 3 ,2 7 3 ,1 8 3 ,0 9 3 ,0 0
15 3 ,8 0 3 ,6 7 3 ,5 2 3 ,3 7 3 ,2 9 3 ,2 1 3 ,1 3 3 ,0 5 2 ,9 6 2 ,8 7
16 3 ,6 9 3 ,5 5 3 ,4 1 3 ,2 6 3 ,1 8 3 ,1 0 3 ,0 2 2 ,9 3 2 ,8 4 2 ,7 5
17 3 ,5 9 3 ,4 6 3 ,3 1 3 ,1 6 3 ,0 8 3 ,0 0 2 ,9 2 2 ,8 3 2 ,7 5 2 ,6 5
18 3 ,5 1 3 ,3 7 3 ,2 3 3 ,0 8 3 ,0 0 2 ,9 2 2 ,8 4 2 ,7 5 2 ,6 6 2 ,5 7
19 3 ,4 3 3 ,3 0 3 ,1 5 3 ,0 0 2 ,9 2 2 ,8 4 2 ,7 6 2 ,6 7 2 ,5 8 2 ,4 9
20 3 ,3 7 3 ,2 3 3 ,0 9 2 ,9 4 2 ,8 6 2 ,7 8 2 ,6 9 2 ,6 1 2 .5 2 2 ,4 2
21 3 ,3 1 3 ,1 7 3 ,0 3 2 ,8 8 2 ,8 0 2 ,7 2 2 ,6 4 2 ,5 5 2 ,4 6 2 ,3 6
22 3 ,2 6 3 ,1 2 2 ,9 8 2 ,8 3 2 ,7 5 2 ,6 7 2 ,5 8 2 ,5 0 2 ,4 0 2 ,3 1
23 3 ,2 1 3 ,0 7 2 ,9 3 2 ,7 8 2 ,7 0 2 ,6 2 2 ,5 4 2 ,4 5 2 ,3 5 2 ,2 6
24 3 ,1 7 3 ,0 3 2 ,8 9 2 ,7 4 2 ,6 6 2 ,5 8 2 ,4 9 2 ,4 0 2 ,3 1 2 ,2 1
25 3 ,1 3 2 ,9 9 2 ,8 5 2 ,7 0 2 ,6 2 2 ,5 4 2 ,4 5 2 ,3 6 2 ,2 7 2 ,1 7
26 3 ,0 9 2 ,9 6 2 ,8 1 2 ,6 6 2 ,5 8 2 ,5 0 2 ,4 2 2733 2 ,2 3 2 r t 3 --------------------
27 3 ,0 6 2 ,9 3 2 ,7 8 2 ,6 3 2 ,5 5 2 .4 7 2 .3 8 2 ,2 9 2 ,2 0 2 ,1 0
28 3 ,0 3 2 ,9 0 2 ,7 5 2 ,6 0 2 ,5 2 2 ,4 4 2 ,3 5 2 ,2 6 2 ,1 7 2 ,0 6
29 3 ,0 0 2 ,8 7 2 ,7 3 2 ,5 7 2 ,4 9 2,41 2 ,3 3 2 ,2 3 2 ,1 4 2 ,0 3
30 2 ,9 8 2 ,8 4 2 ,7 0 2 ,5 5 2 ,4 7 2 ,3 9 2 ,3 0 2 .2 1 2 ,1 1 2 ,0 1
40 2 ,8 0 2 ,6 6 2 ,5 2 2 ,3 7 2 ,2 9 2 ,2 0 2 ,1 1 2 ,0 2 1 ,9 2 1 ,8 0
60 2 ,6 3 2 ,5 0 2 ,3 5 2 ,2 0 2 ,1 2 2 ,0 3 1 ,9 4 1 ,8 4 1,73 1 ,6 0
120 2 ,4 7 2 ,3 4 2 ,1 9 2 ,0 3 1 ,9 5 1 ,8 6 1 ,7 6 1 ,6 6 1,53 1 ,3 8
oo 2 ,3 2 2 ,1 8 2 ,0 4 1 .8 8 1 ,7 9 1 ,7 0 1 ,5 9 1 ,4 7 1 .3 2 1 ,0 0
221
www.FreeLibros.com
13. Breve bosquejo de la historia del clculo
de probabilidades
Despus que hemos expuesto la construccin matemtica, usual hoy da, de la teora de
probabilidades y tratado algunas tareas esenciales que se plantea la estadstica matem
tica, queremos dar en este ltimo captulo una breve panormica de la historia del clculo
de probabilidades, con la cual deben ser completadas, perfiladas y clasificadas las obser
vaciones histricas incluidas en los captulos precedentes.
El clculo de probabilidades pertenece a las disciplinas matemticas relativamente j
venes; ella tiene solo escasamente tres siglos de existencia. Sin embargo, el mundo mis
terioso de la casualidad interes a los sabios en el ms temprano estadio del pensamiento
cientfico. As, el concepto probabilidad surgi ya en la filosofa griega antigua. La idea
de que las regularidades de la naturaleza se expresan mediante un nmero enorme de fe
nmenos aleatorios, se presenta tambin en los materialistas griegos de la antigedad.
(Esta idea toma cuerpo muy claramente, por ejemplo, en la poesa De rarum natura"
(Sobre la naturaleza de las cosas) de Lukrez (un siglo antes de nuestra era).) Pero el de
sarrollo hacia una disciplina cientfica independiente comienza solo en la mitad del siglo
XVII. Estimulado por preguntas acerca de las probabilidades de ganancia en juegos de
azar, formuladas por un jugador apasionado amigo suyo, el caballero de Mr, el notable
matemtico francs Blaise Pascal (1623-1662) estableci en el ao 1654 un intercambio de
correspondencia con el no menos famoso Pierre de Fermat (1601-1665), en la cual fueron
desarrollados -yendo ms all del propio motivo- fundamentos importantes del clculo de
probabilidades. Ya desde antes, hubo sabios que se ocuparon con problemas especiales so
bre las probabilidades en juegos de azar, como por ejemplo, el monje franciscano Luca de
Pacioli (1445-1514) en su libro publicado en 14 9 4 Summa de Arithmetica, Geometria,
Proportioni e Proportionalita , el mdico milans Hieronimo Cardano (1501 hasta 1576)
en su obra Liber de ludo aleae (Libro sobre los juegos de azar) y tambin Galileo Ga-
lilei (1564-1642). El clculo de probabilidades fue concebido por primera vez como un
medio adecuado para la investigacin de fenmenos aleatorios por Pascal y Fermat.
Tambin el fsico, matemtico y astrnomo holands Christiaan Huygens (1629-1695)
estuvo consciente de la significacin de esta nueva direccin matemtica. As escribi l
en su libro De ratiociniis in ludo aleae (Sobre los clculos posibles en juegos de azar),
publicado en 1658 y en el que se toma como referencia las ideas expresadas por Pascal
y Fermat: ... que el lector observa en un estudio atento del objeto, que no se trata solo
222
www.FreeLibros.com
de juegos, sino que aqui se desarrollan las bases de una teoria muy interesante y produc
tiva. 1
Solo que a causa del nivel relativamente bajo de desarrollo de las ciencias naturales fue
ron en este tiempo los juegos de azar, las interrogantes de la estadstica poblacional y las
tareas de aseguramiento, los nicos problemas concretos sobre la base de los cuales pudo
ser desarrollado el clculo de probabilidades.
En el libro mencionado de Huygens no aparece, por lo dems, el concepto probabili
dad : en l siempre se habla de "vajor de la esperanza, magnitud que hoy denominamos
valor esperado. El concepto probabilidad se defini por primera vez en el libro publicado
en 1713 Ars conjectandi" (El arte del suponer) de Jakob Bernoulli (1654-1705); aqui se
entendi por probabilidad el grado de certeza, que con respecto a la certeza se comporta
como la parte al todo !, una definicin que tiene ms carcter filosfico que matemtico.
La obra Ars conjectandi, que se puede considerar como primer libro de texto del
clculo de probabilidades, contiene, adems de un tratamiento completo de todos lofc pro
blemas sin solucin sealados por Huygens, una deduccin notablemente exacta (no solo
para las condiciones de aquel entonces) de la proposicin formulada hoy como Ley de los
grandes nmeros de Bernoulli; con ella se da, por consiguiente, una explicacin terica
de la estabilizacin de la frecuencia relativa de este hecho observado una y otra vez y co
nocido ya antes de Bernoulli. El mrito de Bernoulli no consiste, por tanto, en el descu
brimiento de este fenmeno -con referencia a esto, el propio Bernoullrescribi en Ars
conjectandi": 'A cada uno le est claro tambin que no es suficiente para valorar un fe
nmeno cualquiera hacer una o dos observaciones, sino que es necesario un nmero gran
de de ellas. Por esta razn, el hombre ms limitado sabe por s mismo y sin ninguna ins
truccin anterior (lo cual es asombroso), que cuanto ms observaciones se tomen en con
sideracin tanto menor ser el peligro de no lograr el objetivo ; el mrito de Jakob Ber
noulli consiste sobre todo en la explicacin terica, rigurosamente fundamentada, de esta
situacin. Para esta poca fue caracterstico que hechos empricos -como por ejemplo, la
estabilizacin de las frecuencias relativas- fueran conocidos, pero que no se buscaran fun-
damentaciones tericas para ellos; estos hechos fueron considerados ms bien como ma
nifestaciones del orden divino, que no requeran ninguna otra aclaracin.
El matemtico francs Abraham D e Moi'vre (1667-1754) logr entonces, entre otras co
sas. la formulacin cuantitativa de la Ley de los grandes nmeros de Bernoulli con la pro
posicin que hemos denominado como Teorema integral de D e Moivre-Lapiace, y tam
bin, relacionado con esto, descubri la distribucin normal (ver el final de 5.4).
La indicacin explcita de la llamada definicin clsica de probabilidad se encuentra
por primera vez en la obra fundamental aparecida en 1812 Theorie analytique des pro-
babilits (Teoria analtica de las probabilidades) del importante matemtico y fsico fran
cs Pierre Simn Laplace (1749-1827). A ll se considera -en completa concordancia con
la concepcin actual- la definicin clsica de probabilidad, no tanto como una definicin,
sino como una frmula para el clculo deprobabilidades en casos concretos, para los cua
les se satisfacen ciertas condiciones;Laplace escribi: La probabilidad de un suceso es
la razn del nmero de casos propicios y el de todos los posibles, suponindose los dis
tintos casos como igualmente posibles.
www.FreeLibros.com
La nombrada obra de Laplace contiene una exposicin sistemtica de los resultados cl
sicos del clculo de probabilidades, se demuestran los teoremas conocidos entonces, en
particular la proposicin denominada hoy da como Teorema Integral de D e Moivre-La-
place; adems, Laplace expuso el mtodo de la suma de los minimos cuadrados desarro
llado por l (e independientemente y casi al mismo tiempo por Cari Friedrich Gauss
(1777-1855) y por Adrien Marie Legendre (1752-1833)) en relacin con problemas del
clculo de errores y de compensacin. l se ocup tambin de la aplicacin del clculo
de probabilidades a interrogantes de la estadstica poblacional y realiz investigaciones es
tadsticas sobre la base de un amplio material numrico.
Los trabajos de Laplace sobre el clculo de probabilidades junto con los trabajos del
matemtico francs Simon Denis Poisson (1781-1840), forman parte importante de los
grandes progresos en esta especialidad en las postrimeras del siglo XVIII e inicios del XIX.
Poisson realiz una generalizacin de la Ley de los grandes nmeros de Bernoulli -de l
provino tambin el concepto Ley de los grandes nmeros -al caso de experimentos ift-
dependientes en los cuales la probabilidad de la ocurrencia de un suceso es dependiente
del nmero del experimento. Adems, extendi el Teorema integral de D e Moivre-Lapiace
a este caso y descubri con esto la distribucin de probabilidad que lleva su nombre; l
aplic los resultados obtenidos, en particular, a la balstica.
Mediante D e M oivre, Laplace y Poisson sobrevino un incremento considerable en el de
sarrollo de mtodos analticos especiales del clculo de probabilidades, con numerosos re
sultados hermosos y valiosos; los problemas de las ciencias naturales (por ejemplo, de la
balstica y la astronoma) y las interrogantes relacionadas con la teora de los errores de
observacin sirvieron sobre todo de estmulo para esto.
Es verdad que en aquel tiempo existieron bastantes valoraciones errneas en cuanto a
las posibilidades de aplicacin del clculo de probabilidades, a las cuales dieron lugar sus
representantes ms prominentes. A s por ejemplo, fue intentado -con intercesin y favo-
recimiento enrgico de Laplace y Poisson- abarcar por medio del clculo de probabilida
des el contenido de verdad del veredicto de un jurado llevado a cabo por mayora de vo
tos. Esto repercuti desventajosamente en el desarrollo del clculo de probabilidades. S o
bre la base de los -forzosamente declarados- fracasos se convirti en desilusin el entu
siasmo existente al principio por el clculo de probabilidades en los centros cientficos de
Europa Occidental, surgieron dudas o incluso rechazo; en el mejor de los casos fue con
cebido el clculo de probabilidades como objeto de la conversacin matemtica.
Frente a esto, el desarrollo impetuoso de la fsica impuso elevadas exigencias a la ma
temtica, en general, y al clculo de probabilidades, en particular. En este tiempo se de
sarroll una fuerte escuela del clculo de probabilidades en la entonces ciudad de San Pe-
tersburgo. Ella fue fundada por Pasnudi Luovich Chebyshev (1821-1894), quien public en
total solo cuatro trabajos sobre el clculo de probabilidades, pero cuya influencia sobre
el desarrollo posterior de esta disciplina es considerable. Los mritos de Chebyshev con-
sisten, sobre todo, en que hizo estimaciones acerca de las posibles desviaciones de las re
gularidades limites y en que elabor mtodos apropiados para describir esto. Adems, im
puso la exigencia hacia un rigor absoluto en las demostraciones de los teoremas lmites
e indic el lugar central correspondiente a los conceptos variable aleatoria y valor es
perado en el sistema de conceptos del clculo de probabilidades. Famosos representantes
de la escuela rusa del clculo de probabilidades fundada por Chebyshev fueron Andrei
Andreevich Markov (1856-1922) y Alexander M ikailovich Liapunov (1857-1918); nos en
contramos estos nombres ya, en el tratamiento de las leyes de los grandes nmeros y de
los teoremas lmites del clculo de probabilidades.
www.FreeLibros.com
N o obstante la importancia de los resultados logrados al final del siglo pasado y al ini
cio del nuestro en el clculo de probabilidades y en su aplicacin, este permaneci atrs
en comparacin con otras teorias, en lo referente al desarrollo de los fundamentos de la
teoria matemtica. D e forma sorprendente, el clculo de probabilidades no fue alcanzado
durante largo tiempo por la enorme transformacin de la m atem tica en el siglo XIX, que
estuvo caracterizada por la construccin axiomtica de teoras matemticas, lgicamente
compatibles, cerradas en s y desligadas de la realidad (por ejemplo, la Teora de Conjuntos,
la Topologa). Dijimos ya anteriormente (vase para ello l introduccin de 2) que en el
segundo Congreso Internacional de M atemticos en Pars en el ao 1900, David Hilbert
(1862-1943) mencion como uno de los problemas matemticos ms importantes la acla
racin de los conceptos bsicos del clculo de probabilidades. Con esta tarea se ocuparon
muchos matemticos, entre ellos el matem tico austraco Richard Von M ises (1883-
1953), cuya tentativa para la solucin de esta tarea provoc vehementes -y por lo dems
fructferas- discusiones y estimul el inters de muchos matemticos. U na solucin satis
factoria del problema formulado por Hilbert se realiz con la publicacin (1933) del fa
moso matemtico sovitico Andrei Nikolaevich Kolmogorov (nacido en 1903), quien des
pus de numerosos trabajos preliminares logr emprender una construccin axiomtica
del clculo de probabilidades, de acuerdo con el espritu de la matemtica moderna. Aqui
fueron representados los sucesos aleatorios mediante conjuntos y la probabilidad se con
cibi como una funcin definida sobre estos conjuntos con determinadas propiedades, ca
racterizadas mediante axiomas. Esta construccin condujo no solo a la aclaracin de los
fundamentos lgicos del clculo de probabilidades, sino tambin permiti, en particular,
la utilizacin de disciplinas matemticas modernas altamente desarrolladas, por ejemplo,
de la Teoria de Conjuntos y del Anlisis, en especial, de la Teoria de la M edida y de la
Integracin. El clculo de probabilidades se desarroll desde entonces impetuosamente,
tanto respecto a la teora matemtica, como al campo de aplicacin de esta teoria.
Hoy en dia un gran nmero de centros de altos rendimientos se ocupan de la Teora
de probabilidades, la Estadstica matemtica y las numerosas disciplinas especiales surgi
das de estas. U na funcin rectora corresponde a los tericos soviticos de las probabilidades
cuyos trabajos son de inters y poseen reconocim iento internacional. En los primeros
aos despus de la Revolucin de Octubre, se concentr el circulo de los que se ocupaban
en la URSS de la Teora de las probabilidades, sobre todo en Mosc, alrededor de Ale-
xander Jakovlevich Kinchine (1894-1959), uno de los representantes ms significativos de
la Teoria de probabilidades de nuestro siglo, y de A .N . Kolmogorov; hoy existe una mul
titud de centros de la Teora de probabilidades en la UR SS, considerados internacional-
mente. En la R D A ocupa la Teora de las probabilidades un lugar fijo en el marco de la
formacin en universidades e institutos de enseanza superior y tambin en la investiga
cin matemtica. En el camino hacia este objetivo fue muy provechoso el magisterio de
B. V. Gnedenko en el ao 1953, en la U niversidad de Humboldt, en Berln, y muchos de
los matemticos de la R D A que hoy investigan en el cam po de la Teoria de probabilidades
fueron formados en la U nin Sovitica o permanecieron all para realizar estudios.
D esde hace algunos aos se hacen mayores esfuerzos -tambin en marcos internaciona
les- para incluir el Clculo 'ie Probabilidades, de forma adecuada, en la formacin ma
temtica en las escuelas de enseanza general.
225
www.FreeLibros.com
B ibliografa
Solo se enum eran titulos sobre Teoria de probabilidades y Estadstica m atem tica en lengua alem ana,
que han sido publicados o se pueden adquirir en la R D A , sin pretender con ello citar todos los exis
tentes sobre esta tem tica; las escasas anotaciones com plem entarias deben auxiliar en la seleccin de
la bibliografa.
[1] M l l l r , P .H . (editor y autor coordinador), L exikon d er Sto k a stik (W ahrscheinlichkeitstheorie und
M athem atische Statisik). 2. A uflage, Akadem ie - Verlag, Berlin, 1975.
Se explican y se resumen lexicogrficam ente, en palabras claves, las ideas esen ciales de la Teoria
de probabilidades, la Estadstica m atem tica y algunas im portantes disciplinas especiales que han
surgido de stas.
[2] M l l e r , P .H ., P. N E U M A N N y R . S t o r m , Tafeln der M athem atischen S ta tisik , 2. Auflage, VEB Fach-
buchverlag, Leipzig, 1975.
Esta coleccin de tablas contiene un programa bsico en tablas, con cuya ayuda pueden tratarse la
mayor parte de los problemas prcticos de la Estadstica m atem tica.
[3] M a i b a u m , G ., Wahrscheinlichkeilsrechnung, 2. Auflage, Volk und W issen Volkseigener Verlag, Ber
ln, 1975.
Este libro ha sido concebido com o texto para las clases facultativas en la escuela m edia superior am
pliada (grados 11 y 12); contiene una exposicin detallada del Clculo de probabilidades en la me
dida en que esto es preciso para la realizacin de un curso de esta disciplina, sobre la base de los
programas vigentes.
[4] D o n a t , C . D . y G . M a i b a u m , W ahrscheinlichkeilsrechnung (Fachlichm ethodische H inw eise zu m Lehr-
gang W ahrscheinlichkeitsrechnung im R ah m en des fa k u lta tiven Vnterrichts in d er 11. und 12. Klas-
se ), V olk und W issen V olkseigener V erlag, Berlin, 1972.
El objetivo de este folleto se hace evid en te a travs del subtitulo. [3] constituye el punto de refe
rencia de las indicaciones m etodolgicas.
[5] C l a u s , G . y H. E b n e r , G rundlagen d e r S ta tisik fiir Psychologen, Pdagogen und Soziologen, Volk
und W issen Volkseigener Verlag, Berlin, 1974.
Junto a una exposicin, realizada conscientem ente de m anera sencilla, de lo s fundam entos m atem
ticos, e l libro contiene una serie de procedim ientos estadsticos que se aplican de m anera creciente
en la investigacin pedaggica, psicolgica y sociolgica. A qui se tratan detalladam ente problemas
especficos de la aplicacin de procedim ientos estadsticos a interrogantes de estas ramas. Los nu
merosos ejem plos de este libro proceden por entero de los dom inios de la pedagoga, la psicologa
y la sociologa.
[6 ] Rnyi, A, B riefe ber die W ahrscheinlichkeit, 2. A uflage, VEB D eutscher V erlag der W issenschaften,
Berlin, 1972 (traduccin del hngaro).
En este pequeo libro se explican las cuestiones fundam entales del Clculo de probabilidades de for
m a sumamente agradable, desde el punto de vista literario. El lector encuentra, adem s, detalles
interesantes acerca de los inicios del C lculo de probabilidades.
226
www.FreeLibros.com
Los tres ttulos que se m en cionan a con tin u acin son co leccio n es de ejercicios; [7] y [8] contienen,
adem s, breves exposiciones de la m ateria.
[7 ] S w eschnikow , S .A ., W ahrscheinlichkeitsrechnung u nd M ath em atische S ta tisik in Anfgaben, BSB B.
Teubner V erlagsgesellschaft, Leipzig, 1 9 7 0 (traduccin del r u so ).
[8] W e n t z e l , E .S. y L .A . O w t s c h a r o w , A u fgabensam m lung zu r W ahrscheinlichkeitsrechnung, Akadem ie-
V erlag, Berlin, 1973 (traduccin del ruso).
[9] W ahrscheinlichkeitsrechnung u nd M a th em a tisch e S ta tisik (bungsaufgaben zur M athem atik, H eft 8,
T U D resden, Sektion M ath em atik). Im preso com o m anuscrito 1971.
Los siguientes titulos pueden tom arse para am pliar y profundizar e l estud io de la T eoria de proba
bilidades, la E stadstica m atem tica y -com o se puede apreciar de lo s titulos- otras ram as especiales de
la estocstica.
[10] A h r e n s , H., Varianzanalyse, A kadem ie-V erlag, B erlin, 1967.
[ l 1 ] A h r e n s , H . y J. L a u t e r , M e h rd im en sio n a le V arianzanalyse, Akadem ie-V erlag, B erlin, 1974.
[12] B a n d e m e r , H. y otros, O p lim a le Versuchsplanung, A kadem ie-V erlag, Berlin, 1973.
[1 3 ] F a bian , V ., S taisisch e M ethoden, 2 . A u fla g e, VEB D eu tsch er V erlag der W issenschaften, Berlin,
1 970 (traduccin del c h e c o ).
[14] Fisz, M ., W ahrscheinlichkeitsrechnung u n d m athem atisch e S a tislik , 7. A uflage, VEB D eutscher
V erlag der W issenschaften, Berlin, 1973 (traduccin del p o la co ).
[15] G n e d e n k o , B .W ., Lehrbuch d e r W ahrscheinlichkeitsrechnung, 6. A u flage, A kadem ie-V erlag, Berlin,
1970 (traduccin d el ruso).
[16] J a h n , W . y H. V a h l e , D ie F aktoranalyse u n d ihre Anw endung, V erlag D ie W irtschaft, Berlin,
1970.
[17] N ollau, V ., Statistisch e A nalysen, V E B Fachbuchverlag, L eipzig, 1975.
[18] P a w l o w s k i,Z ., Einfiihrung in d ie m a th em a tisch e S ta tistik , V erlag D ie W irtschaft, B erlin, 1971 (tra
duccin del p olaco).
[19] R ao, C .R ., L ineare statistische M eth o d en un d ihre Anw endungen, A kadem ie-V erlag, Berlin, 1973
(traduccin del in g l s).
[20] R a s c h , t> E lem en ta re E infiihrung in d ie m athem atisch e S ta tistik , 2. A u flage, VEB Deutscher
Verlag der W issenschaften, Berlin, 1970.
[21] R n y i , A ., W ahrscheinlichkeitsrechnung m it ein em A n hang ber Inform ationstheorie, 3. A uflage,
del ruso).
[2 3 ] J .A ., Stochastische P rozesse, Akadem ie-V erlag, Berlin, 1975 (traduccin del ruso).
R osa n o w ,
[24] N .W . y l.W . D u n i n - B a r k o w s k i , M ath em atische S ta tistisk in d e r Technik, 3. A uflage, V E B
S m ir n o w ,
D eutscher Verlag der W issenschaften, Berlin, 1973 (traduccin del ruso).
[25] S t o r m , R ., W ahrscheinlichkeitsrechnung. M ath em ath ische S ta tistik . Statisch e Q u alittskont rolle, 5.
A uflage, VEB Fachbuchverlag, L eipzig, 1974.
[26] V incze , I . , M ath em atische S ta tistik m it industriellen Anw endungen, A kadm iai K iad, B udapest,
1971.
[27] W eber, E ., G rundriss d e r biologischen S ta tistik , 7. A uflage, V E B G ustav F ischer V erlag, Jena,
1972.
[28] W e b e r , E ., E infiihrung in d ie F aktorenanalyse, VEB G ustav F ischer V erlag, Jena, 1974.
Por ltim o, llam am os la aten cin de que [15] contiene un bosquejo de la historia d el C lculo de pro
babilidades.
www.FreeLibros.com
227
www.FreeLibros.com